@@ -31,7 +31,7 @@ kernelspec:
3131
3232在本节中,我们将解决一个简单的在职搜索模型
3333
34- * 基于 {cite}` Ljungqvist2012 ` 的练习 6.18 和 {cite}` Jovanovic1979 `
34+ * 本讲基于 {cite}` Ljungqvist2012 ` 的练习 6.18 和 {cite}` Jovanovic1979 `
3535
3636让我们从一些导入开始:
3737
@@ -52,30 +52,30 @@ from numba import jit, prange
5252``` {index} single: 在职搜索; 模型特点
5353```
5454
55- * 结合在职搜索的工作特定人力资本积累
56- * 具有一个状态变量和两个控制变量的无限期动态规划
55+ * 模型结合了在职搜索和工作岗位特定的人力资本积累
56+ * 这是一个包含一个状态变量和两个控制变量的无限期动态规划问题
5757
5858## 模型
5959
6060``` {index} single: 在职搜索; 模型
6161```
6262
63- 令 $x_t$ 表示在特定公司就职的劳动者在 t 时刻的工作特定人力资本 ,$w_t$ 表示当前工资 。
63+ 设 $x_t$ 为劳动者在当前公司和工作岗位的人力资本水平 ,$w_t$ 为其当前工资 。
6464
65- 令 $w_t = x_t(1 - s_t - \phi_t)$,其中
65+ 工资由以下公式决定: $w_t = x_t(1 - s_t - \phi_t)$,其中
6666
67- * $\phi_t$ 是对当前职位的工作特定人力资本投资,且
68- * $s_t$ 是用于获取其他公司新工作机会的搜索努力。
67+ * $\phi_t$ 表示劳动者在当前岗位为提高人力资本而付出的时间
68+ * $s_t$ 表示寻找新工作机会的时间
6969
7070只要劳动者继续留在当前工作,$\{ x_t\} $ 的演变由 $x_ {t+1} = g(x_t, \phi_t)$ 给出。
7171
72- 当 t 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [ 0, 1] $ 收到新的工作机会 。
72+ 当 $t$ 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [ 0, 1] $ 得到新的工作机会 。
7373
74- 这个机会的价值(以工作特定人力资本衡量 )是 $u_ {t+1}$,其中 $\{ u_t\} $ 是具有共同分布 $f$ 的独立同分布序列。
74+ 这个机会的价值(以力资本衡量 )是 $u_ {t+1}$,其中 $\{ u_t\} $ 是具有共同分布 $f$ 的独立同分布序列。
7575
7676劳动者可以拒绝当前的工作机会并继续现有的工作。
7777
78- 因此,如果接受则 $x_ {t+1} = u_ {t+1}$,否则 $x_ {t+1} = g(x_t, \phi_t)$。
78+ 因此,若劳动者接受了新的工作机会,则 $x_ {t+1} = u_ {t+1}$,否则 $x_ {t+1} = g(x_t, \phi_t)$。
7979
8080令 $b_ {t+1} \in \{ 0,1\} $ 为二元随机变量,其中 $b_ {t+1} = 1$ 表示劳动者在时间 $t$ 结束时收到一个工作机会。
8181
@@ -89,7 +89,7 @@ x_{t+1}
8989 \max \{ g(x_t, \phi_t), u_{t+1}\}
9090```
9191
92- 代理人的目标 :通过控制变量 $\{ s_t\} $ 和 $\{ \phi_t\} $ 来最大化预期折现工资总和。
92+ 模型中每个劳动者的目标 :通过控制变量 $\{ s_t\} $ 和 $\{ \phi_t\} $ 来最大化预期折现工资总和。
9393
9494对 $v(x_ {t+1})$ 取期望并使用 {eq}` jd ` ,
9595这个问题的贝尔曼方程可以写成
@@ -113,7 +113,7 @@ $a \vee b := \max\{a, b\}$。
113113``` {index} single: On-the-Job Search; 参数化
114114```
115115
116- 在下面的实现中,我们将关注参数化
116+ 在下面的实现中,我们将给以上模型添加参数化设定
117117
118118$$
119119g(x, \phi) = A (x \phi)^{\alpha},
@@ -134,20 +134,20 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的
134134(jvboecalc)=
135135### 粗略计算
136136
137- 在我们求解模型之前,让我们做一些快速计算,以直观地了解解应该是什么样子 。
137+ 在求解模型之前,让我们先做一些简单的计算,帮助我们直观理解模型的解 。
138138
139- 首先,注意到劳动者有两种方式来积累资本从而提高工资 :
139+ 我们可以看到,劳动者有两种途径来积累资本并提高工资 :
140140
141- 1 . 通过 $\phi$ 投资于当前工作的特定资本
142- 1 . 通过 $s$ 搜索具有更好的工作特定资本匹配的新工作
141+ 1 . 通过 $\phi$ 投资于适用于当前工作人力资本
142+ 1 . 通过 $s$ 搜寻更匹配岗位特定人力资本的新工作
143143
144144由于工资是 $x (1 - s - \phi)$,通过 $\phi$ 或 $s$ 进行投资的边际成本是相同的。
145145
146- 我们的风险中性劳动者应该专注于预期回报最高的工具 。
146+ 我们的风险中性劳动者应该专注于预期回报最高的方式 。
147147
148148相对预期回报将取决于$x$。
149149
150- 例如,首先假设 $x = 0.05$
150+ 例如,假设 $x = 0.05$
151151
152152* 如果$s=1$且$\phi = 0$,由于$g(x,\phi) = 0$,
153153 对{eq}` jd ` 取期望值得到下一期的预期资本等于$\pi(s) \mathbb{E} u
@@ -161,18 +161,16 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的
161161* 如果$s=1$且$\phi = 0$,那么下一期的预期资本仍然是$0.5$
162162* 如果$s=0$且$\phi = 1$,那么$g(x, \phi) = g(0.4, 1) \approx 0.8$
163163
164- 通过$\phi$投资的回报超过了搜索的预期回报 。
164+ 在这种情况下,投资于岗位特定人力资本的回报高于搜索新工作的预期回报 。
165165
166166综合这些观察,我们得到两个非正式的预测:
167167
168- 1 . 在任何给定状态$x$下,两个控制变量$\phi$和$s$将
168+ 1 . 在任何给定状态$x$下,两个控制变量$\phi$和$s$主要呈现替代关系 --- 且劳动者会专注于预期回报较高的工具。
169+ 1 . 对于足够小的 $x$,工作搜寻将优于岗位特定人力资本投资。而当$x$值较大时,结论则相反。
169170
170- 主要作为替代品 --- 劳动者会专注于预期回报较高的工具。
171- 1 . 对于足够小的 $x$,搜索会比投资工作特定人力资本更可取。对于较大的 $x$,则相反。
171+ 现在让我们转向模型实现,并验证是否与预测结果一致。
172172
173- 现在让我们转向实施,看看是否能验证我们的预测。
174-
175- ## 实施
173+ ## 模型实现
176174
177175``` {index} single: On-the-Job Search; Programming Implementation
178176```
@@ -211,7 +209,7 @@ class JVWorker:
211209 self.x_grid = np.linspace(ɛ, grid_max, grid_size)
212210```
213211
214- 函数` operator_factory ` 接收这个类的实例并返回Bellman算子 ` T ` 的jit编译版本 ,即:
212+ 函数` operator_factory ` 接收这个类的实例并返回jit编译的贝尔曼算子 ` T ` ,即:
215213
216214$$
217215Tv(x)
@@ -352,7 +350,7 @@ def solve_model(jv,
352350 return v_new
353351```
354352
355- ## 求解政策
353+ ## 策略求解
356354
357355``` {index} single: 在职搜索; 求解政策
358356```
@@ -367,11 +365,11 @@ v_star = solve_model(jv)
367365s_star, ϕ_star = get_greedy(v_star)
368366```
369367
370- 以下是这些图表 :
368+ 我们绘制以下图表 :
371369
372370``` {code-cell} ipython3
373371plots = [s_star, ϕ_star, v_star]
374- titles = ["s策略 ", "ϕ策略 ", "价值函数"]
372+ titles = [r"$s$策略 ", r"$\phi$策略 ", "价值函数"]
375373
376374fig, axes = plt.subplots(3, 1, figsize=(12, 12))
377375
@@ -384,7 +382,7 @@ axes[-1].set_xlabel("x")
384382plt.show()
385383```
386384
387- 横轴表示状态 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。
385+ 横轴表示状态变量 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。
388386
389387总的来说,这些策略与我们在{ref}` 上文<jvboecalc> ` 中的预测相符
390388
@@ -519,8 +517,8 @@ def xbar(ϕ):
519517
520518ϕ_grid = np.linspace(0, 1, 100)
521519fig, ax = plt.subplots(figsize=(9, 7))
522- ax.set(xlabel='$\phi$')
523- ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label='$w^*(\phi)$')
520+ ax.set(xlabel=r '$\phi$')
521+ ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label=r '$w^*(\phi)$')
524522ax.legend()
525523
526524plt.show()
0 commit comments