Preferential Return

Wang Cheng-Jun edited this page Dec 19, 2016 · 1 revision

计算传播学是计算社会科学的重要分支。它主要关注人类传播行为的可计算性基础,以传播网络分析、传播文本挖掘、数据科学等为主要分析工具,(以非介入地方式)大规模地收集并分析人类传播行为数据,挖掘人类传播行为背后的模式和法则,分析模式背后的生成机制与基本原理,可以被广泛地应用于数据新闻和计算广告等场景,注重编程训练、数学建模、可计算思维。

Clone this wiki locally

500px

Table of Contents

Memory-preferential random walk model

 Lai and Huang 2014 Scaling and correlation of human movements in cyberspace and physical space. PhysRevE.90.050802 <ref>Lai and Huang 2014 Scaling and correlation of human movements in cyberspace and physical space. PhysRevE.90.050802 [http://computational-communication.com/wiki/images/7/76/Lai_and_Huang_2014_Scaling_and_correlation_of_human_movements_in_cyberspace_and_physical_spacePhysRevE.90.050802.pdf link] </ref>
 Yi-Ming Zhao, An Zeng⋆, Xiao-Yong Yan†, Wen-Xu Wang, Ying-Cheng Lai. Universal underpinning of human mobility in the real world and cyberspace. arXiv 2015.12.04<ref>Yi-Ming Zhao, An Zeng⋆, Xiao-Yong Yan†, Wen-Xu Wang, Ying-Cheng Lai. Universal underpinning of human mobility in the real world and cyberspace. arXiv 2015.12.04 [http://computational-communication.com/wiki/images/b/b3/Huang_Zigang_2016_Universal_underpinning_of_human_mobility_in_the_real_world_and_cyberspace.pdf link]</ref>
 Bernat Corominas-Murtraa, Rudolf Hanela, and Stefan Thurnera 2015 Understanding scaling through history-dependent processes with collapsing sample space. PNAS. vol. 112 no. 17 5348–5353, <ref>Bernat Corominas-Murtraa, Rudolf Hanela, and Stefan Thurnera 2015 Understanding scaling through history-dependent processes with collapsing sample space. PNAS. vol. 112 no. 17 5348–5353 http://www.pnas.org/content/112/17/5348.full.pdf</ref>

模型设定

  • 有有限个地点,数量为<math>M</math>(真实的或者虚拟的),有有限个个体,数量记为<math>N</math>。
    • 现在的所在的一个地点记为<math>\alpha</math>,下一个地点记为<math>\beta</math>这个地点在时间t范围内被访问的次数记为<math>k_{\beta}</math>。
    • 随机游走模型:去每一个地方(不管去过的地方,还是没有去过的地方)的概率相等,记为1
  • 记忆偏好假设:去过的地方再去的概率较大,与去过的次数成正比,系数是<math>\lambda</math>,即访问去过地点的概率是:<math>\lambda k_{\beta}</math>。
    • 对于没有去过的地方也要一个概率,解决方法是令其概率为1,去过的地方的概率也加上1,变为:<math>1 + \lambda k_{\beta}</math>。
    • 因为没有去过的地方的<math>k_{\beta} = 0</math>,所以也可以表达为<math>1 + \lambda k_{\beta}</math>。
去一个地方的概率还需要进一步归一化:

<math>P_{\rightarrow \beta} = \frac{1 + \lambda k_{\beta}}{\sum_{\gamma = 1}^{m} ( 1 + \lambda k_{\beta})}</math> 公式(1)

分析问题

500px

如上图所示,在时间t范围内去了S个地点,每个时间步去一个地方,每个地点去过的次数记为:<math>k_{s_1}, k_{s_2}, ..., k_{s_s}</math>

那么显然 <math>\sum k_{s_j} = t</math>

一个人去一个的地方的概率空间有两部分组成:

  • 没有去过的地方M-S
    • 去每一个没去过的地方的概率是1,加到一起是M-S
  • 去过的地方 S
    • 去每一个去过的地方的概率是 <math> 1 + \lambda k_{s_j}</math>加到一起是:
<math>\sum_{j = 1}^{S} ( 1 + \lambda k_{s_j} ) = S + \sum_{j = 1}^{S} k_{s_j} = S + \lambda t </math>

因为没有去过的地方<math>\lambda = 0</math>,所以去所有地方的概率之和可以不失一般性地表达为:

<math>\sum_{j = 1}^{M} ( 1 + \lambda k_{\gamma} ) = M + \lambda t </math> 公式(2)

去所有地方的总概率为:<math> M -S + S + \lambda t = M+ \lambda t</math>

The number of distinct locations, S(t).

那么去一个新地方的概率可以表达为:

<math>P_{new} = \frac{M-S}{M + \lambda t}</math>

需要注意的是每一个单位时间t范围内S的增加就是<math>P_{new}</math>,即:

<math>\frac{\partial S}{\partial t} = P_{new} = \frac{M-S}{M + \lambda t}</math>

The visit probability of positions discovered at different time, P(z).

我们想要分析的是一个地点被多次访问的概率。

  • 一个地点Z被访问k次记为<math>k_z</math>
  • 第一次访问Z地点的时间记为<math>t_z</math>
已经知道去一个地点的可能性可以表达为:<math>1 + \lambda k_z </math>

根据公式(2),去所有地方的可能性是:<math>M + \lambda t</math>

想要分析的问题是<math>k_z</math>在一单位时间的增量:

<math>\frac{d k_z}{d t} = \frac{1 + \lambda k_z}{M + \lambda t}</math>

The visit probability of each position, P(k).

600px

每一个地点有一个第一次被访问时间<math>t_{\beta}</math>被访问的次序<math>Z</math>。如右图。

  • 这样我们知道<math>k(z)</math>关系,
    • 假设它是单调递减的,可以得到它的逆函数<math>z(k)</math>,也是单调递减的,
      • 它的斜率即其导数<math>z'(k)</math>,如右图。
<math>k = x</math>等价于<math>| \Delta z | = | z'(k = x) \Delta k| </math>

那么<math>k = x</math>的概率可以表达为:

<math>P(k = x) = \frac{\Delta z}{S} = \frac{z'(k = x) \Delta k}{S}</math>

因为k是整数,且<math>\Delta k = 1</math>,那么有:

<math>P(k) = \frac{z'(k) \Delta k}{S(t)}</math>

微分方程

400px

http://www.wolframalpha.com/input/?i=integrate+1%2F(a%2Bbx)

<math>\int \frac{1}{a + bx} = \frac{1}{b} log(a + bx) + constant </math> 公式 (1)

<math>\frac{dS}{dt} = \frac{M- S}{ M + \lambda t}</math> 公式 (2)

<math> \frac{dS}{M-S} = \frac{dt}{M + \lambda t} </math> 公式 (3)

<math>\int \frac{1}{M-S} dS = \int \frac{1}{M + \lambda t} dt </math> 公式 (4)

由公式(1),可以知道公式(4)两边积分的结果:

<math> - log(M-S) = C_1 + \frac{1}{\lambda} log( M + \lambda t)</math>

<math> log(M-S) = C_2 - \frac{1}{\lambda} log( M + \lambda t)</math>

<math> log(M-S) = log 10^{C_2} - \frac{1}{\lambda} log( M + \lambda t)</math>

<math> log(M-S) = log \frac{10^{C_2}}{( M + \lambda t)^{\frac{1}{\lambda}}}</math>

<math> log(M-S) = log \frac{C}{( M + \lambda t)^{\frac{1}{\lambda}}}</math>

<math> M-S = \frac{C}{( M + \lambda t)^{\frac{1}{\lambda}}}</math>

<math> S = M - C (\frac{1}{M + \lambda t})^{\frac{1}{\lambda}}</math> 公式 (5)

由公式(5)如果还知道S和t的初始状态,比如t = 1时, S = 1, 那么就可以求出来C。

foursquare-dataset

https://sites.google.com/site/yangdingqi/home/foursquare-dataset

参考文献