Categories
读书有感

社会网络中的社群识别(Community Discovery)概述

最近一直在看Community Discovery这一块儿的论文,深深的感觉现在就是一个矿工,不断的想方设法挖出来更有价值的信息。而且不是一个点一个点的突破,而是需要寻找出一种脉络,串联起所有的信息来。头痛。

最近的情况是,有一个well-connected的网络,然后我想把它稀疏化、打散成一个个独立的community的感觉。这样就可以分别识别每个community的特征什么的。所以厚着脸皮找施老师讨了几篇papers。而主要的问题是,数据太大了...11M nodes, 20 M edges,还是directed weighted network...我直接放弃了把这些数据从SQL Based data source中挪出来的想法,还是先努力的减少一些edges吧。

先罗列几个相关的术语:community discovery, graph partitioning, network clustering, network sparsification, modularity。了解一个领域最好的方法大概就是去读literature review了,所以乖乖的要了一篇:

Srinivasan Parthasarathy, Yiye Ruan and Venu Satuluri. "Community Discovery in Social Networks: Applications, Methods and Emerging Trends", in Social Network Data Analytics 2011. (NS, DM)

最契合我的想法的就是cut类方法——remove some edges to disconnect the network, then (drop isolated nodes with degree = 1 (could be added back later as auxiliaries to each community)。

那么就先从这一类方法开始说。比较经典的算法呢,是希望砍掉一条边以后,community内部的凝聚力不变,外部连接变差。基本上常用的就是Ncut(normalized)和Conductance、KL object、Modularity这些指标。比如KL算法,就是从二分图开始,不断迭代的去寻找如果交换某两个点所属community就可以减少edge cut的边。可惜的是,这些最优化问题都是NP-hard....随着数据的增大算起来会异常吃力。KL算法本身迭代也是相当考验计算能力的(贪心搜寻)。

然后就是凝聚(或者切分)类算法。凝聚就是先各自为家,然后附近的相互结合在一起,直到理想数量的社群结成;切分则是先从一个整体开始,然后每一步都切成两份这样。这些都算是层次聚类,最后可以给出一个长得像二分树的系统树图。这一类算法有Girvan和Newman切分法:每一步先计算每条边的betweeness score,然后把得分最高的边砍掉,然后再重复这个步骤。嗯,问题依旧是这样的迭代很耗时间。

频谱类算法(spectral algorithms)。听这个名字一股经典风就袭面而来。基本上这类方法就是仰仗特征向量(eigenvector),比如adjacency matrix的特征向量,然后top k特征向量就定义出来一个k维的特征空间,然后就可以用传统的比如k-means这样的方法来聚类了。说白了就是降维、降维。可惜这种方法依然算起来很消耗资源,光算那个特征向量就是O(kM(m))的复杂度...基本在大矩阵下就投降了。一个概率的方法就是Graclus算法,基本的直觉就是基于加权的normal cut measures再做加权核k-means便可以给出基于特征向量聚类一样的结果,而计算消耗相对少一些。

多层次图分割(Multi-level graph partitioning)。这个就是相比而言快速有效的方法了。基本的想法就是,先压缩原始图像到一个小的图像、分割这个图,然后再映射回原来的图。毕竟小图分割起来就要快的多嘛。这类的方法除了上面说到的Graclus,还有Metis(以KL object作为measurement),以及MLR-MCL。

马尔可夫聚类(Markov Clustering,MCL)。基本的想法就是,两点之间的信息传递是随机流(stochastic flow)。MCL对随机矩阵会做两个操作,扩张(expand)和膨胀(inflate)。前者就是简单的矩阵平方,后者则是用一个膨胀参数(非线性)来撑大彼此之间的差距,最后再重新normalize。这两个步骤交替进行。这样的话,原本community中紧密相连=的两个点则会更紧密的相连,而不同cluster之间的连接则被弱化。这样最后每个community之内的点都会流向某个attractor(吸引点),从而我们可以识别各个cluster。感觉这里有点收敛到一些不动点的意思。MCL的弱点也是计算消耗。矩阵乘法在开始边的权重没有弱化的时候是非常消耗时间的,此外MCL倾向于产生不平衡的群落,尤其是可能产生一堆很小的群落或者一个很大的群落。

MCL的改良主要是在引入惩罚项(regularized MCL)和加入多层次(multi-level regularized MCL),以减少不平衡的clusters和解决MCL难以scalable的问题。后者也简称为MLR-MCL,就是刚才多层次分割里面有提到的那个。

局部聚类(local graph clustering)。局部方法基本上就是从一个给定的顶点(seed)出发,寻找符合条件的群落,而并不关心整个graph的情形(除非所有的群落需要覆盖全图)。计算上就是利用随机游走(random walk),从一个群落的内部开始,一点点的向外扩张(有没有很像page rank的感觉?)。最早的Spielman and Teng就是这样的基于顶点随机游走的算法。后面Andersen and Lang改进了这类方法,可以从一堆seed sets出发而不是单单一个顶点。此外,Andersen还试图在随机游走之上加入re-start(即个性化的pagerank)。

再需要提及的就是在动态网络(dynamic network)之上的community discovery——不同于静态网络,动态网络是本身一直在变化的,正如我们一直在用的facebook、twitter这般。还有异质网络(heterogeneous network)和有向网络(directed network)。呃,这部分我就没细看了,貌似蛮复杂的样子...就是其中有一个Community-User-Topic(CUT)model看起来蛮有意思的,准备明天去找这篇paper读一下:

D. Zhou, E. Manavoglu, J. Li, C.L. Giles, and H. Zha. Probabilistic models for discovering e-communities. In WWW ’06: Proceedings of the 15th international conference onWorldWideWeb, page 182. ACM, 2006.

嗯,到总结了~前面一直在说的就是计算、计算、计算。

  • 可扩展的算法(scalable algorithms):这里主要是牵扯到分布式计算。multi-level类的算法是有分布式的潜力的,然后GPU和多核计算貌似也能对流算法(streaming algorithms)帮上忙。
  • 群落和其进化的可视化:可视化主要是可以帮我们更直观的理解动态网络的变化、提供分析的直觉、以及帮助验证分析结果。
  • 结合业务知识:这个也不仅仅是对这些群落识别算法啦,任何一个机器学习的算法都离不开基本的业务知识吧。
  • 排序和加总:基本上还是缺乏对于得到的群落之间的排序(打分)、加总的研究。

好了,到此为止~继续看其他paper去了。

Categories
互联网产业观察 经济、IT观察与思考

[RAAT]第一话:微博的数据该怎么玩呢?

引言(即废话):每当要准备presentation的时候,就会开始想一些问题。去年写的是【社会实验的特殊性】,然后有一系列的文字和最终的slides。现在,想多少从自己这大半年的工作经历出发,写一系列文章,就叫做 R as an analytical tool吧,简称RAAT。第一话,从微博入手好了;第二话,将由Joke童鞋过年时候问的一个问题引出;第三话,会是更偏向流程和实践的东西。这些我会一点点写,也可能有所改变,看到时候具体的想法了。

新浪微博也火了这么久了,但是对于吾等数据源控来说,这等数据简直不能被暴殄天物啊。怎么用来分析为好呢?

links类数据

微博有两大类links:

  • 粉丝关系
  • 评论与转发关系

然后呢然后呢?

首先很多人感兴趣的是信息传递吧?那么决定信息传递的就是,第一呢,每个用户的信息源(主要来自于他关注的其他微博用户);第二呢,他关注的人的发布及转发行为。用粉丝关系来计算影响力(influential rank)自然是没有问题,但是多少有点损失的感觉——我们总关心一个人在接受信息之后的response是不是?所以,一个简单可行的思路是,这里不妨用其转发行为来加权,判断每个他关注的用户对于他的影响程度的不同~如是,则每个有向的link上就附加了一个权重,成为了一个加权的有向图。

嗯,这样一个基本的网络模型就构建好了。然后呢?链路预测?等等,我们关注并分析微博数据是为了什么呢?到底构建什么样的指标是合理的呢?

如果你想扩大自己的影响力...

好吧,在下作为一个老字号(落园居然被我坚持写到第6个年头了,这是一种什么精神啊~)blogger,自然可能希望多少扩大一下影响力。落园是落园,blog对我来说有它自己特殊的意义(比如发泄,呃),但是我的新浪微博就沦落为一个落园的notifier了(这个特别的理由就不在这里公开说了,私底下聊)。如是,那么应该怎么办呢?

正常的话,经营一个微博,怎么判断自己是不是越来越受欢迎了呢?显然,简简单单一个“粉丝数”还是不够的,用“转发数”为每个粉丝关系加权也还是不够的,我还得关注一下我的“粉丝”们都是一些什么样的人。比如,他们有几千+的粉丝,还会转发我的东西,那么我的影响力就~哈哈。简单的说,一个衡量指标可以是:我的微博可能会被多少人看到呢?那么,我只要算一下我的粉丝和他们转发的可能性,然后再算他们的粉丝转发他们微博的可能性,以此类推,我就通过了“粉丝”这类link成功的影响到了更多的人。从这个角度而言,这比直接的“粉丝数”或者“转发次数”更能衡量一个微博的影响力。

当然,类似的指标还可以构建很多,比如对response进行加权。看具体目的了。我的微博算个特例,因为它有一个特殊性:不转发任何其他微博(机器人自然要符合自己的身份嘛),所以我关注的指标相对单一——我是比较关注“信息能传递到的人”,而不是特别关心他们的response程度(话说最近关评论了,直接刺激大家转发啊,故需要另当别论了)。如果是商业经营一个微博,那么在内容的选择上或许就要更加迎合各自群体的口味,具体的是否可以用Bayesian规则来算算被转发概率呢(不断的update概率)?

如果你是想提供一个互动渠道……

微博被很多企业作为新兴的接触客户的渠道(沟通成本低嘛),所以很多企业可能希望建立一个帐号来更多的获取用户的信息。比如会员制的商家,可以通过找寻自己会员的微博号,来得知他们最近的偏好,然后推荐相应的产品。电商也可以进一步的做一些销售活动,比如我的京东帐号和微博帐号绑定之后,是不是就可以直接留言给京东下单了呢?就像我打个电话似的那么方便。要是他搞什么团购之类的,我也可以直接在微博上买而不是跳转到京东复杂的页面上去,那该多好啊。

对于这样的目的,首要的任务就是找寻自己的用户群,然后建立他们微博帐号和会员帐号之间的关联。除了直接的搜索关键词之外,初期还可以利用社交网络的力量,比如洲际和喜达屋集团都在做一些转发抽奖的活动,让已经关注他们的微博用户来扩散到他们的朋友(所谓物以类聚嘛,自然更有可能也是酒店常客),这样一来就已经实现了用户的识别。然后,怎么引诱这群会员是这些商家的长项,各种美图诱惑之下,让人经常在屋子里面各种坐不住(比如我...)。如果这些用户发一些信息,比如“下周飞北京”,那么这些商家大可以直接找到这些用户施以小惠然后成功的从对手那里抢的客户(先发制人啊)……反正至少我认识的玩酒店常客计划的人,都没有只专心的玩一家的。

跟R啥关系?

说了这么多,我们有了一些基本的建模思路。比如希望借助微博扩大影响力,那么最直接的办法:去找粉丝多的微博来转发自己的内容。很多微博都有一个不太公开的转发价格,如果你相信市场是无摩擦的、处于均衡的,自然可以认为价格反映了其影响范围的大小。但是,首先市场就不是一个静态的,难免在动态潮流的波动下偏离均衡;再说怎么可能无摩擦呢,信息不对称总是到处存在的。因此,为了实现现有资金(或其他资源)的集约化投入,往往需要做到的就是“找到对目标群体影响力最大的微博”。

还是用那句俗话,“物以类聚,人以群分”,很多大众微博的粉丝关系并不是从天而降的。这些微博发布的内容往往偏重某一个侧面,如科学松鼠会往往会发布科普类知识,主动follow松鼠会的粉丝可能也就有着更高的教育背景和辨知能力。换言之,不同微博的粉丝往往有着不同的群体背景。为了识别这些形形色色的圈子,我们可以先利用微博的粉丝关系,建立起来一个网络图(更可利用转发情况来建立加权的有向网络)。这在R中可以利用SNA等package完成,或者Gephi之类的更专一的network analysis software。然后在此基础上,分析若干帐户发布的微博关键词(会用到一些text mining技术,其R中的实现可以参见思喆大哥的这篇指导:http://www.bjt.name/2012/03/text-mining-in-r/),然后找到一个或者若干个符合目标群体特征的微博帐户,在此基础上按照links顺藤摸瓜、获取更多相关的帐户。一切的影响力之类都可归结于一个数学上的distance的measure问题(think about real analysis...),而加权网络中计算这些并不困难(也可以加入随机的扰动项进行多次模拟得出结果)。最后,自然可以计算哪些微博帐号的转发会对某些目标群体产生极大的影响——不仅仅是定量计算,更可以进一步归结于一个有约束的最优化问题。一旦一个问题成为数学问题,在R中无论是模拟还是求解都不是难事。最后结论会告知,哪些微博是应该去争取转发的(无论是通过金钱还是内容本身的意义去说服)。

类似的思路,能做的事情还有很多。譬如,哪怕是作为一个个体用户,我只关心某些事情发展的潮流(比如那些会影响股市的情绪),利用R也可以在浩瀚的微博信息中更准确的找出我应该关注的信息源(可能不是全部,或者出于实时性要求无法做到全量检测),即排除噪音,然后这些信息源所提供的信息便有可能给我一些方向上的指导,而不是盲从大众媒体的言论。

利用微博作为新兴交互渠道的办法就更多了,背后依赖的数据分析知识也会相应有所调整。R作为一个开源、免费的工具,其已经提供的众多packages可以迅速的帮分析人员实现相应的想法,而不是把大量的时间用于无休止的编程以开发相应工具。这样,R便可以在一个想法探索阶段找到相应的数据支撑和信息。有了想法、去实现之后,很多时候还需要评估效果(这里可以参见去年写的关于社会实验的东西:演讲幻灯片),这方面简单的计量工具更是可以在R中迅速实现、并可以轻易实现可重复的评估和报告(简单的分析模型和结果重复可以利用已有的脚本,偏正式的报告可以借助当年的Sweave和进化版如knitr)。

总而言之,我一直觉得数据分析考察的是分析人员本身的统计知识、业务知识和具体学科知识的积累,以及一些对于数据的敏锐直觉,而不是编程能力。若有想法便有其他人可以帮忙实现自然好,但是有时候一味的借助他人往往存在着时滞,一闪而过的很多想法便成了过眼烟云。不是我不提倡团队合作,只是找到这么一个完美团队的成本实在是太高,更多的时候还是不得不自己做很多事情。团队的合作程度在现实中往往会有所降低,分工模式也会更加的偏向项目执行流程(比如分析->成熟模型->自动化系统),而不是在分析阶段就完全的实现了各展所长(那样对每个成员的要求可能都太高了~)。在效率和效果兼顾的现实情况中,R的贡献自然轻易的凸显。我想这也是这两年R越来越热的趋势背后的推动原因吧。Labor division problem with constraints 🙂 分工最优化的必然结果。

------remaining challenges ------
当然,有一个回避不了的问题就是大数据量……R现在面对大数据依旧有些吃力,而network的数据往往又是一个N*N维的(N为个体数量),更加大了对于空间计算量的需求。这方面,解决思路一方面是把线性的计算分块化、分批跑;对于非线性的计算,更多的则可能是先抽取一个小样本,然后确定一个或几个模型,最后利用其它高性能计算工具来实现最终在整个大数据集上面的运行。

Categories
事儿关经济

放不下的身段

今天在想一个问题,我们设计了那么多数据挖掘的算法,各种各样的、借鉴各个学科方法的,最终到底是想做什么?预测,从我的理解来说。那么这些算法都是想干什么呢?以我的角度,他们是在“准确信息未知”的情况下,通过一些其他的方法模拟一个可能的路径,然后给出相应的结果。这里,尤以“推荐算法”为甚。最简单的,“购买过此商品的顾客xx%还购买过”,就是一种基于群体行为来预测个体行为的思路,虽然不知道主导一个确定的个体选择的究竟是什么。这类思路下的算法还有一个好处,放诸四海而皆准,不用过度关心每个个体的特性,只知道一个群体的路径就好了。鲁迅先生说过,“世界上本没有路,走的人多了,便成了路”。

这里不禁引出来一个经典的问题:上帝到底掷不掷骰子呢?简单的说,就是一定有什么东西是最核心的、确定的在一件事物背后么?还是所有事情都是随机的?这个问题一下子就牵扯到科学的定义和渊源:uncertainty到底是当前情况下的未知还是必然的存在,牛顿晚年怕也是纠结于这个问题投奔神学。从两三年前彭实戈老师演讲中扔出这个问题的幻灯片开始,它就深深刻在我的脑海里了。很多时候,真的,面对这个问题,觉得人类真的很渺小……

说到身段,今天听闻一位和我“弱连接(weakly linked)”的男士已然放下身段投身“鸭子”行业,稍稍惊讶之下我真的很好奇到底生活对他有多么的艰辛、让他可以这么勇敢的作出这么一个决定,毅然决然的放下所有身段。不知是不是社会更宽容了,女大学生卖艺又卖身已经稀松平常了,现在男的也不可阻挡滔滔洪流啊。生活果然残酷。可惜,“隔行如隔山”,我也只能在此妄自揣测,不知其中真由。

说到“隔行如隔山”,这种感觉,尤其在科学界为甚。Science,或者说 scientific research,在当今,实在是分工细的不能再细了,各个领域之间几乎没有多少可以互通的语言。以经济学为例,宏微观的巨大鸿沟就不说了,搞理论的和搞实证的相互看不起也不是不常见。很少有人,愿意放下身段、拿出时间,用心的去学习和体会另一个领域的人为什么从另一个角度来看待同样的问题,为什么对科学研究有着截然不同的评判标准。比如同样是数据分析,计量经济学对于“一致性”的极致追求,和数据挖掘算法对于预测精度的追求,这样不同价值观又是否有一些互补的空间?可惜,我认识的两个领域中的人,几乎没有人可以放下身段去另一个领域从头开始。

同样的感觉深深的刻在social network、我自己的研究方向。研究一个社会网络,谈何容易!研究对象是人,自然逃不开 sociology;而研究角度是经济,自然又需要很多经济学的积淀;最后,研究工具是网络分析,自然离不开图论、complex network theories等等。更具体的,某一个研究的实际问题往往离不开一个具体的环境,比如epidemics 等等学科的渗透。然而,各个学科之间,往往互不通气……哎,可怜我看paper的时候,各种期刊的paper一下子都扔过来,然后各种痛苦,感叹为啥没人把这些研究成果都串起来呢?follow这些东西好费时费力啊。

或许,有的时候,放下身段,确实太过于痛苦了吧!牺牲那么多短期利益,长期还是那么的不确定,呃……现代科学的进步真的是对人的要求越来越高了~

Categories
事儿关经济

Academic Day

昨天从杭州回来,顿时感到如释重负,事情做完了,自然心里舒畅一些。

然后,今天列了列这周需要做的事情,终于没有什么说是要几点几点必须做完的了。然后长吁一口气,想起来需要改的paper。其实论文这东西,写不写纯属一种对于学术偏执的热情。我还是很喜欢看到一点点contribution to existing literature的,先不管这个contribution有多大。于是写起来,也便多了几分感觉。顿时感慨,大多是时候做事情的热情真的只是单纯的来源于喜欢和责任感啊——尤其是后者,若不是责任感在那里,真的感觉很多事情都没有必要做。与此同时,发觉自己的完美主义倾向越来越严重,不喜欢把一个不负责任的东西交给别人,那样怎么对得起放在第二行的自己的名字呢?虽然很多时候也没有放自己的名字在那里了……

今天,除了接接电话之外,定位于一个academic day,更多的是指让自己的思维回归学术化一点,用经济的角度重新审视过去几周的事情,再就是准备一下接下来的两个conference。

话说,这次R会议要讲的题目终于定下来了, Experiments in Social Networks and Analysis in R,有点绕口是不是?中文更绕口,我都不知道怎么翻译好了。田野实验的方法在实证研究中的应用越来越广,而随机实验的方法尤其对社会网络这种本来内生性问题很严重的领域提供了一个寻找一些答案的方法。今年上半年的时候前后在这个基础上做了一个实验设计、还有后续的一篇更完整的论文,现在又开始真正的run一些实验,所以觉得这个题目至少有一点话可说。只是不知道多少人会感兴趣了。话说,我应该先把《社会实验的特殊性》一系列感想文章一点点写出来,果然实践出真知啊。

R会议上海会场在一点点前进,不时看着慢慢变长的报名列表心里就有一种莫名其妙的幸福感 ^_^ 能见到很多志同道合的人自然是一件格外开心的事情。现在真的是每天都离不开R了,各种该用R的、其实并不一定非用R的事儿都交给R来处理了,工具依赖啊。发现RStudio这个“编辑器”很好用,很好用……然后又在下Revolutoin了,不知道会不会有新的惊喜。

还有很多东西值得一点点期待吧。心情有张、有落也算正常,不过总体上还是一种满积极的状态,毕竟没有白来的丰收,相信今日的辛苦付出都是会换来在未来的某个时刻回眸时的会心一笑。算作一种小小的希望吧。

Categories
事儿关经济

社会性学习

呃,我着实不知这个social learning应该怎么翻译,姑且翻译成社会性学习吧。最近在看一本书《Learning and expectations in macroeconomics》,是当时Thijs推荐的,因为当时我想找一些有关expectation的东西看看。嗯,容许我小小的残念一下,要是呆在UPF,Thijs一定是我首选的advisor——这或许和我一贯以来选导师的特殊标准有关吧,大牛不见得是适合自己的,我只是想找一个可以不时“点通”我一下的,嗯……唉,不过想想因此而转macro,还是底气不足。不过也就是在这里残念一下了,Ph.D不是眼下需要关注的事儿了。

原来一直很好奇learning到底是被怎么model的,今天终于硬着头皮打开了这本书,看了两章,大概搞明白这东西是被用一个随机过程模拟的(这个,我不清楚数学上的随机过程怎么定义的,我看这本书上的很像时间序列里面的那些东西,有个随机扰动项然后给一个相对的law of motion)。然后看来看去,前面还比较简单,一个均衡唯一的蛛网模型,然后大概说了一下理性预期均衡(rational expectation equilibria,下简称理性预期为RE)为什么在长期中会成为均衡(大意是即在一个有界集内,当t趋近于正无穷时,期望序列收敛于真值)。从这个角度上讲,多多少少有点从数学模型方法上对RE辩白的味道。我不是很喜欢RE,但是特别想知道的是在什么情况下RE确实是可以被满足的,从而可以大大的简化模型。

说到Law of motion,其实就是个动态的发展过程的问题。原来没想太多这个social learning里面的social到底扮演了什么角色,现在琢磨一下social learning果然是从social这个角度去研究人们的学习行为的。呃,我原来其实一直在想,既然是对信念的不断更新,为什么不用贝叶斯法则?我从逻辑上还是蛮欣赏贝叶斯学派的,抑或可能是当年在微观中被PBE毒害太深,一直念念不忘经典的贝叶斯法则。后来琢磨了一下信念(belief)和期望(expectation)确实也还不是一回事儿,所以当我们认为加总(aggregation)可以进行的时候,描述一个社会的学习行为可能不见得非得用贝叶斯法则。这本书上提到了最小二乘法,大意就是给定一个law of motion的线性形式,当人们对其中的参数未知的时候,在每个时期都按照least square来估计一下,然后不断的更新估计,最终还是会收敛到真值。希望我的理解偏差不是太大(先祈祷一下,别在这里纯粹胡说八道就好,我刚开始看这部分的东西,真的不够熟络!),然后我就在想,如果简单的aggregation不可进行的时候,那么又会是什么情况呢?当agents数量不多的时候,显然我们不会天真的去进行加总,那么跟game theory结合点又在哪里呢?可能最近是想把social network一些简单的分析考量找个地方实践一下,所以开始重温IO里面那些经典的例子,比如上周那个exclusive dealing,嗯……

我现在特别好奇的想知道,这个social distance引入到IO里面会有什么好玩的结果。嗯,明天找Motta闲扯去,但愿他不会觉得我太无聊或者异想天开……回到毕业论文,现在大致的有个思路,到底在哪里弄个应用。这次我想show的是有些情况下不能简单的aggregation,所以一直在锲而不舍的寻找一个context(突然发现,有些词儿真的不知道怎么译为中文了,总感觉翻译了就少了点什么了似的)。然后一起做这个东西的同学suggest了一个health belief model,我估计他是看我一直对belief念念不忘,然后就随便扔给我一个跟health有关的model然后我就开始不断的瞎想换他几天的清净时光吧?嗯,我发现我缠人的时候还真是蛮缠人的,不管是在国内国外、中文英文、父母同学,呃,反正当我发现什么东西特别有意思的时候,就会长出一副巨厚的脸皮来不断的缠啊缠,直到缠出来什么好玩的东西为止,整一个小孩子的心态嘛!

想想从前年Winston第一次提及social network在marketing里面的应用,到现在,已然一年半多的时间了。虽然得刨去大四下半年的悠晃时日,但是我接触social network也显然不是一天两天的事儿了。一直在想这么长的时间里,虽然一直没有机会系统的学习一遍,但是在整日的耳濡目染中,我到底被影响了什么?当年Laffont一本incentive theory,直接向我打开了IO的窗户,让我有机会一窥其中奥妙。而今,这种被点燃的感觉,会不会再次重演?我一直有点小小的野心,不想只是从技术层面整合social network,而希望在分析层面亦加以整合。可惜,社会网络显然还没有如经济学一般融入我的血液、骨髓,知其然,但是还不够运用自如,尚需时日打磨啊!

最后说个小插曲。最近一直在被教育,因为原来写论文的时候,就算是有个partner,大都也是一人为主。大概最省心的partner就是导师了吧,自己鼓捣的差不多了,就去找导师扯扯,然后继续回家打磨。这次合作,真的是两个人一起建模,呃,我以前还真没想过原来两个人的合作可以深入到如此的层次,还没树立分析框架呢,就已经开始热火朝天的讨论不休了。不过有利必有弊,这样虽然可以最大程度上的整合两人的知识,但另一方面交流成本自然很高。我,我,我很无奈的今天滔滔不绝了一下午我对建模的观点,比如怎么开始、怎么确立假设之类的,然后不断的回答各种扔过来的arguement。折腾了一个多小时,累死我了。我从来没想过会跟别人谈这些最基本的问题,可能就是太基本了吧,都深深的印在心里了,所以一般就是俯拾即是,没想过那么多为什么。好在最后我没有很丢人的犯什么逻辑错误,最后人家接受了我的各种答案,然后还顺便提高了他对于这个项目的期望。Expectation啊,呃,update的还挺快的。话说,原来一直觉得我计量学的不好,现在发现有些东西还是不知不觉学进去了,今天居然两番拿计量的道理来说一般性的理论角度的建模,真的是有意思。

春暖花开,眼见就五月份了。可知“春风又绿江南岸”,却不见“春来江水绿如兰"。或许是时日,多忆一些江南了。

200933903833_2