diff --git a/lectures/ak2.md b/lectures/ak2.md index 1acf59ee..0fe7c36c 100644 --- a/lectures/ak2.md +++ b/lectures/ak2.md @@ -29,7 +29,7 @@ Auerbach 和 Kotlikoff (1987) 使用他们的两期模型作为分析长寿人 他们的两期生存重叠世代模型是一个有用的起点,因为 -* 它阐述了在给定日期存活的不同世代代理人之间相互作用的结构 +* 它阐述了在给定日期存活的不同世代个体之间相互作用的结构 * 它激活了政府和后续几代人面临的力量和权衡 * 它是研究政府税收和补贴计划与发行和偿还政府债务政策之间联系的良好实验室 * 一些涉及从一个稳态到另一个稳态转变的有趣实验可以手工计算 diff --git a/lectures/cake_eating_problem.md b/lectures/cake_eating_problem.md index 113355c9..1ea42640 100644 --- a/lectures/cake_eating_problem.md +++ b/lectures/cake_eating_problem.md @@ -84,7 +84,7 @@ def u(c, γ): 具体来说,在$t$期消费$c$单位的现值为$\beta^t u(c)$ -代理人的问题可以写作 +个体的问题可以写作 ```{math} :label: cake_objective @@ -128,7 +128,7 @@ $u$ 的凹性意味着消费者从*消费平滑*中获得价值,也就是将 以下是对这些参数影响的一个有根据的猜测。 -首先,较高的 $\beta$ 意味着较少的贴现,因此代理人更有耐心,这应该会降低消费率。 +首先,较高的 $\beta$ 意味着较少的贴现,因此个体更有耐心,这应该会降低消费率。 其次,较高的 $\gamma$ 意味着边际效用 $u'(c) = c^{-\gamma}$ 随着 $c$ 的增加下降得更快。 diff --git a/lectures/ge_arrow.md b/lectures/ge_arrow.md index c5c4e0ec..68ae5e1d 100644 --- a/lectures/ge_arrow.md +++ b/lectures/ge_arrow.md @@ -18,7 +18,7 @@ kernelspec: 本讲座介绍了Python代码,用于实验具有以下特征的无限期纯交换经济的竞争均衡: -* 异质代理人 +* 异质个体 * 单一消费品的禀赋,是共同马尔可夫状态的个人特定函数 @@ -26,9 +26,9 @@ kernelspec: * 在宏观经济学和金融学中常用的贴现期望效用偏好 -* 代理人之间具有共同的期望效用偏好 +* 个体之间具有共同的期望效用偏好 -* 代理人之间具有共同的信念 +* 个体之间具有共同的信念 * 一个具有固定相对风险厌恶度(CRRA)的单期效用函数,它意味着存在一个代表性消费者,其消费过程可以代入单步Arrow证券定价核的公式中,从而在确定财富均衡分配之前确定均衡价格 @@ -104,7 +104,7 @@ $$ U_k(c^k) = $$ \lim_{c \downarrow 0} u'_k(c) = +\infty.$$ -这个条件意味着每个代理人在每个日期-历史对 $(t, s^t)$ 都会选择严格正的消费。 +这个条件意味着每个个体在每个日期-历史对 $(t, s^t)$ 都会选择严格正的消费。 这些内部解使我们能够将分析限制在等式成立的欧拉方程上,并且保证在像我们这样的经济中,**自然债务限制**在连续交易箭头证券时不会受到约束。 @@ -157,7 +157,7 @@ $$ 第二个约束显然是一组逐状态的债务限制。 -注意,求解贝尔曼方程的值函数和决策规则隐含地依赖于定价核$Q(\cdot \vert \cdot)$,因为它出现在代理人的预算约束中。 +注意,求解贝尔曼方程的值函数和决策规则隐含地依赖于定价核$Q(\cdot \vert \cdot)$,因为它出现在个体的预算约束中。 使用贝尔曼方程右侧问题的一阶条件和Benveniste-Scheinkman公式并重新整理得到 @@ -207,7 +207,7 @@ $\{\hat a^k_{t+1}(s')\}_{s'}\}_k\}_t$ 满足 $\sum_k c^k_t = \sum_k y^k(s_t)$ 也就是说 -在时间$0$时,每个代理人的消费现值等于其禀赋流的现值,这确保了在时间$0$发生所有交易的单一预算约束安排。 +在时间$0$时,每个个体的消费现值等于其禀赋流的现值,这确保了在时间$0$发生所有交易的单一预算约束安排。 系统以所有$i$的$a_0^k =0$开始,这带来了一个显著的含义,我们称之为**状态变量退化**。 @@ -412,7 +412,7 @@ $$ ### $Q$ 是定价核 -对于任意代理人 $k \in \left[1, \ldots, K\right]$,在均衡配置下,一期箭头证券的定价核满足 +对于任意个体 $k \in \left[1, \ldots, K\right]$,在均衡配置下,一期箭头证券的定价核满足 $$ Q_{ij} = \beta \left(\frac{c^k\left(\bar{s}_j\right)}{c^k\left(\bar{s}_i\right)}\right)^{-\gamma} P_{ij} @@ -420,7 +420,7 @@ $$ 其中 $Q$ 是一个 $n \times n$ 矩阵 -这来自代理人 $k$ 的一阶必要条件。 +这来自个体 $k$ 的一阶必要条件。 但是在我们假设的CRRA偏好下,个人消费与总消费成比例变化,因此也与总禀赋成比例变化。 @@ -450,7 +450,7 @@ $$ (eq:Qformula) 在计算出均衡定价核$Q$后,我们可以计算几个在表示或构建个体家庭最优问题解时所需的**值**。 -我们用一个$K \times 1$向量表示在马尔可夫状态$s$下代理人禀赋的状态依赖值: +我们用一个$K \times 1$向量表示在马尔可夫状态$s$下个体禀赋的状态依赖值: $$ A\left(s\right)=\left[\begin{array}{c} @@ -545,15 +545,15 @@ $$ 注意 $\sum_{k=1}^K \psi^k = {0}_{n \times 1}$。 -**注释:** 在初始状态 $s_0 \in \begin{bmatrix} \bar s_1, \ldots, \bar s_n \end{bmatrix}$ 时,所有代理人 $k = 1, \ldots, K$ 的延续财富 $\psi^k(s_0) = 0$。这表明在时间 $0$、状态 $s_0$ 时,经济中的所有代理人都没有债务和金融资产。 +**注释:** 在初始状态 $s_0 \in \begin{bmatrix} \bar s_1, \ldots, \bar s_n \end{bmatrix}$ 时,所有个体 $k = 1, \ldots, K$ 的延续财富 $\psi^k(s_0) = 0$。这表明在时间 $0$、状态 $s_0$ 时,经济中的所有个体都没有债务和金融资产。 -**注释:** 请注意,当马尔可夫状态回到时间 $0$ 时的任何值 $s_0$ 时,所有代理人的延续财富都会周期性地回到零。 +**注释:** 请注意,当马尔可夫状态回到时间 $0$ 时的任何值 $s_0$ 时,所有个体的延续财富都会周期性地回到零。 ### 最优投资组合 -该模型的一个巧妙特点是,k 类型代理人的最优投资组合等于我们刚刚计算的延续财富。 +该模型的一个巧妙特点是,k 类型个体的最优投资组合等于我们刚刚计算的延续财富。 -因此,k 类代理人在下一期对箭头证券的逐状态购买仅取决于下一期的马尔可夫状态,且等于 +因此,k 类个体在下一期对箭头证券的逐状态购买仅取决于下一期的马尔可夫状态,且等于 $$ a_k(s) = \psi^k(s), \quad s \in \left[\bar s_1, \ldots, \bar s_n \right] @@ -589,7 +589,7 @@ $$ (eqn:alphakform) * 返回到依赖于 $\alpha$ 的公式 {eq}`eq:continwealth` 并计算延续财富 -* 通过公式 {eq}`eqn:optport` 使代理人 $k$ 的投资组合在每个状态下等于其延续财富 +* 通过公式 {eq}`eqn:optport` 使个体 $k$ 的投资组合在每个状态下等于其延续财富 我们还可以在完整的一期状态或有Arrow证券交易的竞争均衡中添加最优值函数的公式。 @@ -665,9 +665,9 @@ $$ 注意对于所有 $t \in {\bf T}$,$\sum_{k=1}^K \psi_t^k = {0}_{n \times 1}$。 -**注解:** 在初始状态 $s_0 \in \begin{bmatrix} \bar s_1, \ldots, \bar s_n \end{bmatrix}$ 时,对于所有代理人 $k = 1, \ldots, K$,延续财富 $\psi_0^k(s_0) = 0$。这表明经济在时间0、状态$s_0$时,所有代理人都没有债务和金融资产。 +**注解:** 在初始状态 $s_0 \in \begin{bmatrix} \bar s_1, \ldots, \bar s_n \end{bmatrix}$ 时,对于所有个体 $k = 1, \ldots, K$,延续财富 $\psi_0^k(s_0) = 0$。这表明经济在时间0、状态$s_0$时,所有个体都没有债务和金融资产。 -**注解:** 注意当马尔可夫状态回到时间0时的初始值$s_0$时,所有代理人的延续财富都会回到零。如果马尔可夫链使初始状态$s_0$成为循环状态,这种情况会重复发生。 +**注解:** 注意当马尔可夫状态回到时间0时的初始值$s_0$时,所有个体的延续财富都会回到零。如果马尔可夫链使初始状态$s_0$成为循环状态,这种情况会重复发生。 初始状态为特定状态$s_0 \in \left[\bar{s}_1, \ldots, \bar{s}_n\right]$时,我们必须有 @@ -701,7 +701,7 @@ $$ (eq:ww) * 返回到依赖于$\alpha$的公式{eq}`eq:vv`计算延续财富 -* 将代理人$k$的投资组合与其延续财富在各个状态下对应 +* 将个体$k$的投资组合与其延续财富在各个状态下对应 对于无限期限经济,价值函数的公式是 @@ -1089,7 +1089,7 @@ ex3.Q ex3.A ``` -注意代理人$1$在状态$2$下的自然债务限制为$0$。 +注意个体$1$在状态$2$下的自然债务限制为$0$。 ```{code-cell} ipython3 # 当初始状态为状态1时 diff --git a/lectures/harrison_kreps.md b/lectures/harrison_kreps.md index 06824d85..7c318f91 100644 --- a/lectures/harrison_kreps.md +++ b/lectures/harrison_kreps.md @@ -182,7 +182,7 @@ $P_b$ 的平稳分布约为 $\pi_b = \begin{bmatrix} .43 & .57 \end{bmatrix}$。 * 在状态$0$中,类型$a$的投资者比类型$b$的投资者对下一期的股息更乐观。 -* 在状态$1$中,类型$b$的代理人对下一期的股息比类型$a$的代理人更乐观。 +* 在状态$1$中,类型$b$的个体对下一期的股息比类型$a$的个体更乐观。 然而,平稳分布$\pi_a = \begin{bmatrix} .57 & .43 \end{bmatrix}$和$\pi_b = \begin{bmatrix} .43 & .57 \end{bmatrix}$告诉我们,从长期来看,类型$b$的人对股息过程比类型$a$的人更乐观。 @@ -204,9 +204,9 @@ $P_b$ 的平稳分布约为 $\pi_b = \begin{bmatrix} .43 & .57 \end{bmatrix}$。 关于信念的假设: -1. 只有一种类型的代理人,要么是 $a$ 要么是 $b$。 -1. 有两种类型的代理人,仅在其信念上有所不同。每种类型的代理人都有足够的资源购买所有资产(Harrison和Kreps的设定)。 -1. 有两种具有不同信念的代理人,但由于财富和/或杠杆的限制,两种类型的投资者在每个时期都持有资产。 +1. 只有一种类型的个体,要么是 $a$ 要么是 $b$。 +1. 有两种类型的个体,仅在其信念上有所不同。每种类型的个体都有足够的资源购买所有资产(Harrison和Kreps的设定)。 +1. 有两种具有不同信念的个体,但由于财富和/或杠杆的限制,两种类型的投资者在每个时期都持有资产。 ### 总结表 @@ -606,5 +606,5 @@ for p, label in zip(opt_beliefs, labels): ```{solution-end} ``` -[^f1]: 通过假设两类代理人总是有"足够深的口袋"来购买所有资产,该模型将财富动态排除在外。Harrison-Kreps模型在状态从0变为1或从1变为0时会产生大量交易量。 +[^f1]: 通过假设两类个体总是有"足够深的口袋"来购买所有资产,该模型将财富动态排除在外。Harrison-Kreps模型在状态从0变为1或从1变为0时会产生大量交易量。 diff --git a/lectures/ifp.md b/lectures/ifp.md index 0dff6285..d8c87d01 100644 --- a/lectures/ifp.md +++ b/lectures/ifp.md @@ -44,7 +44,7 @@ tags: [hide-output] 它与{doc}`随机最优增长模型 `中的决策问题相关,但在重要方面有所不同。 -例如,代理人的选择问题包含一个加性收入项,这导致了一个偶尔会出现的约束条件。 +例如,个体的选择问题包含一个加性收入项,这导致了一个偶尔会出现的约束条件。 此外,在本讲及后续讲座中,我们将引入更多现实的特征,如相关性冲击。 diff --git a/lectures/jv.md b/lectures/jv.md index 0bd54111..6f683ba5 100644 --- a/lectures/jv.md +++ b/lectures/jv.md @@ -31,7 +31,7 @@ kernelspec: 在本节中,我们将解决一个简单的在职搜索模型 -* 基于 {cite}`Ljungqvist2012` 的练习 6.18 和 {cite}`Jovanovic1979` +* 本讲基于 {cite}`Ljungqvist2012` 的练习 6.18 和 {cite}`Jovanovic1979` 让我们从一些导入开始: @@ -52,30 +52,30 @@ from numba import jit, prange ```{index} single: 在职搜索; 模型特点 ``` -* 结合在职搜索的工作特定人力资本积累 -* 具有一个状态变量和两个控制变量的无限期动态规划 +* 模型结合了在职搜索和工作岗位特定的人力资本积累 +* 这是一个包含一个状态变量和两个控制变量的无限期动态规划问题 ## 模型 ```{index} single: 在职搜索; 模型 ``` -令 $x_t$ 表示在特定公司就职的劳动者在 t 时刻的工作特定人力资本,$w_t$ 表示当前工资。 +设 $x_t$ 为劳动者在当前公司和工作岗位的人力资本水平,$w_t$ 为其当前工资。 -令 $w_t = x_t(1 - s_t - \phi_t)$,其中 +工资由以下公式决定:$w_t = x_t(1 - s_t - \phi_t)$,其中 -* $\phi_t$ 是对当前职位的工作特定人力资本投资,且 -* $s_t$ 是用于获取其他公司新工作机会的搜索努力。 +* $\phi_t$ 表示劳动者在当前岗位为提高人力资本而付出的时间 +* $s_t$ 表示寻找新工作机会的时间 只要劳动者继续留在当前工作,$\{x_t\}$ 的演变由 $x_{t+1} = g(x_t, \phi_t)$ 给出。 -当 t 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [0, 1]$ 收到新的工作机会。 +当 $t$ 时刻的搜索努力为 $s_t$ 时,劳动者以概率 $\pi(s_t) \in [0, 1]$ 得到新的工作机会。 -这个机会的价值(以工作特定人力资本衡量)是 $u_{t+1}$,其中 $\{u_t\}$ 是具有共同分布 $f$ 的独立同分布序列。 +这个机会的价值(以力资本衡量)是 $u_{t+1}$,其中 $\{u_t\}$ 是具有共同分布 $f$ 的独立同分布序列。 劳动者可以拒绝当前的工作机会并继续现有的工作。 -因此,如果接受则 $x_{t+1} = u_{t+1}$,否则 $x_{t+1} = g(x_t, \phi_t)$。 +因此,若劳动者接受了新的工作机会,则$x_{t+1} = u_{t+1}$,否则 $x_{t+1} = g(x_t, \phi_t)$。 令 $b_{t+1} \in \{0,1\}$ 为二元随机变量,其中 $b_{t+1} = 1$ 表示劳动者在时间 $t$ 结束时收到一个工作机会。 @@ -89,7 +89,7 @@ x_{t+1} \max \{ g(x_t, \phi_t), u_{t+1}\} ``` -代理人的目标:通过控制变量 $\{s_t\}$ 和 $\{\phi_t\}$ 来最大化预期折现工资总和。 +模型中每个劳动者的目标:通过控制变量 $\{s_t\}$ 和 $\{\phi_t\}$ 来最大化预期折现工资总和。 对 $v(x_{t+1})$ 取期望并使用 {eq}`jd`, 这个问题的贝尔曼方程可以写成 @@ -113,7 +113,7 @@ $a \vee b := \max\{a, b\}$。 ```{index} single: On-the-Job Search; 参数化 ``` -在下面的实现中,我们将关注参数化 +在下面的实现中,我们将给以上模型添加参数化设定 $$ g(x, \phi) = A (x \phi)^{\alpha}, @@ -134,20 +134,20 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的 (jvboecalc)= ### 粗略计算 -在我们求解模型之前,让我们做一些快速计算,以直观地了解解应该是什么样子。 +在求解模型之前,让我们先做一些简单的计算,帮助我们直观理解模型的解。 -首先,注意到劳动者有两种方式来积累资本从而提高工资: +我们可以看到,劳动者有两种途径来积累资本并提高工资: -1. 通过 $\phi$ 投资于当前工作的特定资本 -1. 通过 $s$ 搜索具有更好的工作特定资本匹配的新工作 +1. 通过 $\phi$ 投资于适用于当前工作人力资本 +1. 通过 $s$ 搜寻更匹配岗位特定人力资本的新工作 由于工资是 $x (1 - s - \phi)$,通过 $\phi$ 或 $s$ 进行投资的边际成本是相同的。 -我们的风险中性劳动者应该专注于预期回报最高的工具。 +我们的风险中性劳动者应该专注于预期回报最高的方式。 相对预期回报将取决于$x$。 -例如,首先假设$x = 0.05$ +例如,假设$x = 0.05$ * 如果$s=1$且$\phi = 0$,由于$g(x,\phi) = 0$, 对{eq}`jd`取期望值得到下一期的预期资本等于$\pi(s) \mathbb{E} u @@ -161,18 +161,16 @@ $\text{Beta}(2,2)$ 分布的支撑集是 $(0,1)$ - 它具有单峰、对称的 * 如果$s=1$且$\phi = 0$,那么下一期的预期资本仍然是$0.5$ * 如果$s=0$且$\phi = 1$,那么$g(x, \phi) = g(0.4, 1) \approx 0.8$ -通过$\phi$投资的回报超过了搜索的预期回报。 +在这种情况下,投资于岗位特定人力资本的回报高于搜索新工作的预期回报。 综合这些观察,我们得到两个非正式的预测: -1. 在任何给定状态$x$下,两个控制变量$\phi$和$s$将 +1. 在任何给定状态$x$下,两个控制变量$\phi$和$s$主要呈现替代关系 --- 且劳动者会专注于预期回报较高的工具。 +1. 对于足够小的 $x$,工作搜寻将优于岗位特定人力资本投资。而当$x$值较大时,结论则相反。 -主要作为替代品 --- 劳动者会专注于预期回报较高的工具。 -1. 对于足够小的 $x$,搜索会比投资工作特定人力资本更可取。对于较大的 $x$,则相反。 +现在让我们转向模型实现,并验证是否与预测结果一致。 -现在让我们转向实施,看看是否能验证我们的预测。 - -## 实施 +## 模型实现 ```{index} single: On-the-Job Search; Programming Implementation ``` @@ -211,7 +209,7 @@ class JVWorker: self.x_grid = np.linspace(ɛ, grid_max, grid_size) ``` -函数`operator_factory`接收这个类的实例并返回Bellman算子`T`的jit编译版本,即: +函数`operator_factory`接收这个类的实例并返回jit编译的贝尔曼算子`T`,即: $$ Tv(x) @@ -352,7 +350,7 @@ def solve_model(jv, return v_new ``` -## 求解政策 +## 策略求解 ```{index} single: 在职搜索; 求解政策 ``` @@ -367,11 +365,11 @@ v_star = solve_model(jv) s_star, ϕ_star = get_greedy(v_star) ``` -以下是这些图表: +我们绘制以下图表: ```{code-cell} ipython3 plots = [s_star, ϕ_star, v_star] -titles = ["s策略", "ϕ策略", "价值函数"] +titles = [r"$s$策略", r"$\phi$策略", "价值函数"] fig, axes = plt.subplots(3, 1, figsize=(12, 12)) @@ -384,7 +382,7 @@ axes[-1].set_xlabel("x") plt.show() ``` -横轴表示状态 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。 +横轴表示状态变量 $x$,纵轴表示 $s(x)$ 和 $\phi(x)$。 总的来说,这些策略与我们在{ref}`上文`中的预测相符 @@ -519,8 +517,8 @@ def xbar(ϕ): ϕ_grid = np.linspace(0, 1, 100) fig, ax = plt.subplots(figsize=(9, 7)) -ax.set(xlabel='$\phi$') -ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label='$w^*(\phi)$') +ax.set(xlabel=r'$\phi$') +ax.plot(ϕ_grid, [xbar(ϕ) * (1 - ϕ) for ϕ in ϕ_grid], label=r'$w^*(\phi)$') ax.legend() plt.show() diff --git a/lectures/markov_asset.md b/lectures/markov_asset.md index b37bf2f8..68fa9b39 100644 --- a/lectures/markov_asset.md +++ b/lectures/markov_asset.md @@ -105,7 +105,7 @@ from numpy.linalg import eigvals, solve 我们的第一个场景是风险中性定价。 设 $\beta = 1/(1+\rho)$ 为跨期贴现**因子**,其中 -$\rho$ 是代理人对未来进行贴现的**利率**。 +$\rho$ 是个体对未来进行贴现的**利率**。 对于定价一单位除息资产的基本风险中性资产定价方程是 @@ -434,7 +434,7 @@ plt.show() ## 风险规避与资产价格 -现在让我们来看看当代理人具有风险规避性时的情况。 +现在让我们来看看当个体具有风险规避性时的情况。 我们将对几种不同的资产定价,包括: @@ -654,11 +654,11 @@ $$ 另外,如果$\gamma = 0$,那么$J = K$,我们就得到了风险中性解{eq}`rned`。 -这是符合预期的,因为$\gamma = 0$意味着$u(c) = c$(因此代理人是风险中性的)。 +这是符合预期的,因为$\gamma = 0$意味着$u(c) = c$(因此个体是风险中性的)。 ### 无风险永续债券 -考虑相同的纯交换代表性代理人经济。 +考虑相同的纯交换代表性个体经济。 一个无风险永续债承诺每期支付固定金额 $\zeta> 0$。 diff --git a/lectures/mccall_correlated.md b/lectures/mccall_correlated.md index e39e3569..691f8653 100644 --- a/lectures/mccall_correlated.md +++ b/lectures/mccall_correlated.md @@ -307,7 +307,7 @@ plt.show() 注意保留工资随当前状态 $z$ 单调递增。 -这是因为更高的状态导致代理人预测更高的未来工资,增加了等待的价值。 +这是因为更高的状态导致个体预测更高的未来工资,增加了等待的价值。 让我们尝试改变失业补偿金并观察其对保留工资的影响: diff --git a/lectures/mccall_model_with_separation.md b/lectures/mccall_model_with_separation.md index c04500d6..2fb1fe95 100644 --- a/lectures/mccall_model_with_separation.md +++ b/lectures/mccall_model_with_separation.md @@ -44,7 +44,7 @@ tags: [hide-output] 在本讲座中,我们通过引入工作离职来扩展McCall模型。 -一旦引入离职,代理人就会将: +一旦引入离职,个体就会将: * 失去工作视为资本损失,以及 * 失业期视为寻找可接受工作的*投资* @@ -103,7 +103,7 @@ from quantecon.distributions import BetaBinomial ### 时间安排和决策 -在每个时期开始时,代理人可以是: +在每个时期开始时,个体可以是: * 失业,或 * 在某个现有工资水平$w_e$就业。 @@ -237,11 +237,11 @@ v(w) = u(w) + \beta 然后我们可以确定劳动者的最优行为。 -从{eq}`bell2_mccall`中,我们看到失业代理人接受当前报价$w$如果$v(w) \geq u(c) + \beta d$。 +从{eq}`bell2_mccall`中,我们看到失业个体接受当前报价$w$如果$v(w) \geq u(c) + \beta d$。 这意味着接受的价值高于拒绝的预期价值。 -显然$v$(至少是弱)随$w$增加,因为代理人永远不会因更高的工资报价而变得更差。 +显然$v$(至少是弱)随$w$增加,因为个体永远不会因更高的工资报价而变得更差。 因此,我们可以将最优选择表达为接受工资报价$w$当且仅当: @@ -379,7 +379,7 @@ def solve_model(mcm, tol=1e-5, max_iter=2000): ### 保留工资:第一次尝试 -代理人的最优选择由保留工资总结。 +个体的最优选择由保留工资总结。 如上所述,保留工资是满足$v(\bar w) = h$的$\bar w$,其中$h := u(c) + \beta d$是继续值。 diff --git a/lectures/mccall_q.md b/lectures/mccall_q.md index d4339863..5d5c7944 100644 --- a/lectures/mccall_q.md +++ b/lectures/mccall_q.md @@ -434,17 +434,17 @@ $$ 我们将步骤2到7的一次完整过程称为时序差分学习的一个"回合"或"轮次"。 -在我们的情境中,每个回合都始于代理人抽取一个初始工资报价,即一个新状态。 +在我们的情境中,每个回合都始于个体抽取一个初始工资报价,即一个新状态。 -代理人根据当前的Q表选择行动,获得奖励,然后转移到由本期行动决定的新状态。 +个体根据当前的Q表选择行动,获得奖励,然后转移到由本期行动决定的新状态。 Q表通过时序差分学习不断更新。 我们重复这个过程直到Q表收敛或达到预设的最大回合数。 -多个回合使代理人能够从不同起点开始探索,访问那些在单一回合中难以到达的状态。 +多个回合使个体能够从不同起点开始探索,访问那些在单一回合中难以到达的状态。 -例如,如果代理人接受了某个工资报价,他就会停留在该就业状态,无法探索其他可能的工资水平。 +例如,如果个体接受了某个工资报价,他就会停留在该就业状态,无法探索其他可能的工资水平。 通过使用$\epsilon$-贪婪策略并增加回合数,Q学习算法在探索新可能性和利用已知信息之间取得平衡。 @@ -693,7 +693,7 @@ $$ (eq:temp-diff) 实际上,当我们将公式{eq}`eq:temp-diff`与Q学习递归{eq}`eq:old3`结合使用时,智能体仍然能够最终学习到最优值函数,就像在允许辞职的情况下一样。 -然而,这种学习过程会变得更加缓慢。这是因为一旦代理人接受了工资报价,他就失去了在当前回合中继续探索其他状态和更新相应价值估计的机会。 +然而,这种学习过程会变得更加缓慢。这是因为一旦个体接受了工资报价,他就失去了在当前回合中继续探索其他状态和更新相应价值估计的机会。 在训练初期阶段(即训练轮数较少时),这种限制往往会导致次优的学习结果。 diff --git a/lectures/mix_model.md b/lectures/mix_model.md index b8c55592..f87f01d0 100644 --- a/lectures/mix_model.md +++ b/lectures/mix_model.md @@ -42,19 +42,19 @@ tags: [hide-output] 自然界一劳永逸地决定是从分布 $f$ 还是从分布 $g$ 中进行一系列独立同分布的抽取。 -该讲座研究了一个同时知道$f$和$g$但不知道自然在$-1$时刻选择了哪个分布的代理人。 +该讲座研究了一个同时知道$f$和$g$但不知道自然在$-1$时刻选择了哪个分布的个体。 -代理人通过假设自然以概率$\pi_{-1}$选择概率分布$f$的方式来表示这种无知,就像抛一枚不公平的硬币。 +个体通过假设自然以概率$\pi_{-1}$选择概率分布$f$的方式来表示这种无知,就像抛一枚不公平的硬币。 -这个假设使得代理人能够构建一个关于随机序列$\{W_t\}_{t=0}^\infty$的主观联合概率分布。 +这个假设使得个体能够构建一个关于随机序列$\{W_t\}_{t=0}^\infty$的主观联合概率分布。 -我们研究了代理人如何使用条件概率法则和观察到的历史数据$w^t =\{w_s\}_{t=0}^t$来形成 +我们研究了个体如何使用条件概率法则和观察到的历史数据$w^t =\{w_s\}_{t=0}^t$来形成 $$ \pi_t = E [ \textrm{自然选择分布} f | w^t] , \quad t = 0, 1, 2, \ldots $$ -然而,在本讲座的设定中,这个规则赋予了代理人一个错误的模型。 +然而,在本讲座的设定中,这个规则赋予了个体一个错误的模型。 原因是现在工资序列实际上是由一个不同的统计模型描述的。 @@ -68,15 +68,15 @@ $$ H(w ) = \alpha F(w) + (1-\alpha) G(w), \quad \alpha \in (0,1) $$ -我们将研究两个试图了解工资过程的代理人,他们使用不同的统计模型。 +我们将研究两个试图了解工资过程的个体,他们使用不同的统计模型。 -两种类型的代理人都知道 $f$ 和 $g$,但都不知道 $\alpha$。 +两种类型的个体都知道 $f$ 和 $g$,但都不知道 $\alpha$。 -我们的第一类代理人错误地认为在时间 $-1$ 时,自然界一次性选择了 $f$ 或 $g$,此后永久地从该分布中抽取。 +我们的第一类个体错误地认为在时间 $-1$ 时,自然界一次性选择了 $f$ 或 $g$,此后永久地从该分布中抽取。 -我们的第二类代理人正确地知道,自然界在每个时期都以混合概率 $\alpha \in (0,1)$ 混合 $f$ 和 $g$,尽管代理人不知道混合参数。 +我们的第二类个体正确地知道,自然界在每个时期都以混合概率 $\alpha \in (0,1)$ 混合 $f$ 和 $g$,尽管个体不知道混合参数。 -我们的第一类代理人应用了在{doc}`这个quantecon讲座 `中描述的学习算法。 +我们的第一类个体应用了在{doc}`这个quantecon讲座 `中描述的学习算法。 在那节课中统计模型的背景下,这是一个很好的学习算法,它使贝叶斯学习者最终能够学习到自然在时间$-1$时所抽取的分布。 diff --git a/lectures/odu.md b/lectures/odu.md index 741013be..2eedaf14 100644 --- a/lectures/odu.md +++ b/lectures/odu.md @@ -722,7 +722,7 @@ plt.show() 在模拟的某个时点,分布发生了显著恶化。 -代理人需要一段时间才能意识到这一点,在此期间,他们过于乐观并拒绝了太多工作机会。 +个体需要一段时间才能意识到这一点,在此期间,他们过于乐观并拒绝了太多工作机会。 结果导致失业率激增。 @@ -757,7 +757,7 @@ def simulate_path(F_a=F_a, F_b=F_b, G_a=G_a, G_b=G_b, - N=5000, # 代理人数量 + N=5000, # 个体数量 T=600, # 模拟长度 d=200, # 变化时点 s=0.025): # 分离率 @@ -774,9 +774,9 @@ def simulate_path(F_a=F_a, if t == d: a, b = F_a, F_b # 改变分布参数 - # 更新每个代理人 + # 更新每个个体 for n in range(N): - if e[n, t] == 1: # 如果代理人当前就业 + if e[n, t] == 1: # 如果个体当前就业 p = np.random.uniform(0, 1) if p <= s: # 以概率s随机分离 e[n, t] = 0 diff --git a/lectures/optgrowth.md b/lectures/optgrowth.md index 84df3c49..22b67dab 100644 --- a/lectures/optgrowth.md +++ b/lectures/optgrowth.md @@ -26,7 +26,7 @@ kernelspec: ## 概述 -在本讲座中,我们将研究一个包含单个代理人的简单最优增长模型。 +在本讲座中,我们将研究一个包含单个个体的简单最优增长模型。 该模型是标准的单部门无限期增长模型的一个版本,这在以下文献中有研究: @@ -119,7 +119,7 @@ k_{t+1} + c_t \leq y_t ### 优化 -给定$y_0$,代理人希望最大化 +给定$y_0$,个体希望最大化 ```{math} :label: texs0_og2 @@ -145,7 +145,7 @@ y_{t+1} = f(y_t - c_t) \xi_{t+1} 在{eq}`og_conse`中,我们假设资源约束{eq}`outcsdp0`是以等式形式成立的——这是合理的,因为$u$是严格递增的,在最优状态下不会浪费任何产出。 -总的来说,代理人的目标是选择一个消费路径$c_0, c_1, c_2, \ldots$,该路径需要: +总的来说,个体的目标是选择一个消费路径$c_0, c_1, c_2, \ldots$,该路径需要: 1. 非负, 1. 在{eq}`outcsdp0`意义上可行, @@ -155,7 +155,7 @@ y_{t+1} = f(y_t - c_t) \xi_{t+1} 在当前情况下: * $y_t$被称为*状态*变量——它概括了每个时期开始时的"世界状态"。 -* $c_t$被称为*控制*变量——是代理人在观察状态后每期选择的值。 +* $c_t$被称为*控制*变量——是个体在观察状态后每期选择的值。 ### 策略函数方法 diff --git a/lectures/optgrowth_fast.md b/lectures/optgrowth_fast.md index 41acf01c..bea63a68 100644 --- a/lectures/optgrowth_fast.md +++ b/lectures/optgrowth_fast.md @@ -338,7 +338,7 @@ $$ 除此之外,参数和原始设定与讲座前面讨论的对数线性模型相同。 -注意,更有耐心的代理人通常拥有更高的财富。 +注意,更有耐心的个体通常拥有更高的财富。 复现该图形,允许随机性。 diff --git a/lectures/perm_income.md b/lectures/perm_income.md index 9f21e8ae..e1ff5891 100644 --- a/lectures/perm_income.md +++ b/lectures/perm_income.md @@ -956,7 +956,7 @@ b_{t+1} - b_t = (K-1) a_t 这里我们将给出两期情况的证明,这代表了一般论证的典型。 -有限期限等价的无庞氏条件是代理人 +有限期限等价的无庞氏条件是个体 她不能带着债务结束生命,所以 $b_2 = 0$。 diff --git a/lectures/perm_income_cons.md b/lectures/perm_income_cons.md index a3f374cf..d62be035 100644 --- a/lectures/perm_income_cons.md +++ b/lectures/perm_income_cons.md @@ -731,7 +731,7 @@ $\{y_t\}$ 过程的不变分布。 我们已经安排了基本要素,使得 $R = \beta^{-1}$ 在零总超额供给的水平上清算无风险贷款市场。 -因此,无风险贷款是在我们这个封闭代理人群体内部相互进行的。 +因此,无风险贷款是在我们这个封闭个体群体内部相互进行的。 不需要外国人向我们的群体提供贷款。 diff --git a/lectures/rational_expectations.md b/lectures/rational_expectations.md index a8e683df..d9732d77 100644 --- a/lectures/rational_expectations.md +++ b/lectures/rational_expectations.md @@ -446,7 +446,7 @@ Lucas和Prescott {cite}`LucasPrescott1971` 使用这种方法构建了理性预 ```{index} single: Rational Expectations Equilibrium; Planning Problem Approach ``` -我们的解决思路是将市场问题的欧拉方程与单个代理人选择问题的欧拉方程相匹配。 +我们的解决思路是将市场问题的欧拉方程与单个个体选择问题的欧拉方程相匹配。 正如我们将看到的,这个规划问题可以通过LQ控制({doc}`linear regulator `)来解决。 diff --git a/lectures/uncertainty_traps.md b/lectures/uncertainty_traps.md index 4e16140e..43f67da2 100644 --- a/lectures/uncertainty_traps.md +++ b/lectures/uncertainty_traps.md @@ -35,7 +35,7 @@ kernelspec: * 基本面随机变化且不能被完全观察。 * 在任何时刻都有活跃和不活跃的企业家;只有活跃的企业家进行生产。 -* 代理人(包括活跃和非活跃的企业家)对基本面持有以概率分布表示的信念。 +* 个体(包括活跃和非活跃的企业家)对基本面持有以概率分布表示的信念。 * 更大的不确定性意味着这些分布的离散程度更高。 * 企业家具有风险规避特性,因此在不确定性高时较少倾向于保持活跃。 * 活跃企业家的产出是可观察的,提供了一个带噪声的信号,帮助模型内的所有人推断基本面。