Skip to content

imwower/me-agent

Repository files navigation

me-agent

“让我成为我 / 我想 / 我要 / 我做”

me-agent 是一个以“自我驱动的智能体”为核心隐喻的原型系统,用来探索:

  • 智能体如何感知世界与自身;
  • 如何形成对世界 / 自我的内在模型;
  • 如何在内在驱动力的驱动下,持续地“想 / 要 / 做”;
  • 如何通过工具、对话、多模态能力,在真实环境中执行行动并反思。

当前仓库已经实现了一套以事件流为核心的最小可运行原型,包括:

  • 统一的事件与工具调用类型定义(AgentEvent / ToolCall / ToolResult);
  • 简单的事件流与事件历史工具(EventStream / EventHistory);
  • 轻量的世界模型、自我模型、驱动力与学习模块;
  • 一个可运行的 SimpleAgent 循环及命令行 demo 脚本。

整体架构概述(文字版)

从高层视角出发,me-agent 将围绕一条循环闭环来设计:

  1. 感知(Perception)

    • 从外部世界与内部状态中获取信号(文本、环境状态、工具反馈等)。
    • 将原始信号转化为结构化事件,统一记录为 AgentEvent
  2. 世界模型(World Model)

    • 基于事件流,维护一个对“外部世界”的抽象表示。
    • 支持记忆、场景建模、因果关系和简单预测(未来迭代)。
  3. 自我模型(Self Model)

    • 描述“我是谁”、“我在做什么”、“我能做什么”。
    • 追踪智能体的状态、能力、偏好、历史行为等。
  4. 内在驱动力(Drives)

    • 以目标、动机、约束和价值观的形式,给智能体提供“想 / 要”的方向。
    • 从世界模型 + 自我模型中读取信息,生成新的意图或任务。
  5. 工具层(Tools)

    • 把具体的外部函数、API、系统操作抽象为工具调用。
    • 工具调用与结果统一通过 ToolCall / ToolResult 结构表达,写入事件流。
  6. 学习(Learning)

    • 从事件流中抽取经验,更新世界模型、自我模型与策略。
    • 长期目标:实现自我改进与策略调整,而不仅仅是“执行命令”。
  7. 对话(Dialogue)

    • 处理与人类或其他智能体的自然语言交互。
    • 将对话输入视为特殊的感知事件,将响应视为行动的一部分。
  8. 智能体编排(Agent)

    • 调度以上各模块,形成“感知 → 评估 → 决策 → 行动 → 反思”的循环。
    • 对外暴露统一的接口(如:step() / run()),让智能体可以嵌入到各种上层系统。

在实现层面上,事件流(AgentEvent)和工具调用结构(ToolCall / ToolResult)会作为整个系统的“公共语言”,不同模块通过这些基础类型进行解耦与协作。

未来模块规划

以下模块会以 Python 包 / 子包的形式逐步引入,每个模块内部再细化为子组件:

  • perception

    • 负责多模态感知(文本、结构化数据、后续可能扩展到图像/音频等)。
    • 将原始输入规整为统一的事件格式,写入事件流。
  • world_model

    • 维护对环境的抽象表示与长期记忆。
    • 支持查询当前环境状态、历史事件、预测可能的后果。
  • self_model

    • 表达“自我”的身份、能力边界、习惯与偏好。
    • 提供自我反思与自我描述接口,例如“我正在做什么”。
  • drives

    • 管理目标与优先级,例如:好奇心、任务完成、信息获取等。
    • 将外部指令与内部动机统一为“意图”对象,驱动 agent 的行动循环。
  • tools

    • 抽象各种外部行动能力(HTTP 调用、本地命令、代码执行等)。
    • ToolCall / ToolResult 为核心协议,支持统一的调用与日志记录。
  • learning

    • 从事件与工具调用结果中学习策略和偏好。
    • 包括简单规则更新、参数调整甚至元学习(后续迭代)。
  • dialogue

    • 处理自然语言交互,将对话事件融入整体事件流。
    • 支持多轮对话、角色设定与对话记忆。
  • agent

    • 顶层智能体编排器,协调感知、模型、驱动力、工具与学习模块。
    • 接收输入(环境/用户),输出行动(工具调用/回复/内部状态更新)。

当前代码结构概览

当前仓库提供了一套围绕“事件流 + 工具调用”的基础实现,尽量保持简单、可扩展:

  • me_core/
    • types.py:核心通用数据结构,例如 AgentEventToolCallToolResult 等;
    • event_stream.py:内存中的事件流与事件历史工具;
    • perception/:文本/图片感知桩,TextPerception 拆分文本事件,ImagePerception 记录图片路径与元信息;
    • alignment/:概念空间 + Dummy 多模态对齐(R0 占位版,不依赖真实模型);
    • world_model/SimpleWorldModel 维护事件时间线 + 概念记忆,支持按模态/标签查询最近事件;
    • self_model/SelfState + SimpleSelfModel,记录已见模态、能力标签、最近行动并给出自述;
    • drives/:驱动力向量与更新规则,SimpleDriveSystem 输出带优先级的意图(回复/调用工具/好奇/自省);
    • tools/:工具协议与注册表,内置 EchoTool / TimeTool / HttpGetTool / FileReadTool / SelfDescribeTool 等标准库级 stub;
  • learning/SimpleLearner / LearningManager,观察工具成功率与意图结果的轻量学习器;
  • dialogue/:对话规划器与 RuleBasedDialoguePolicy,结合世界/自我/学习信息生成“我想 / 我要 / 我做”式回复;
  • agent/StateStore / 旧版 run_once 主循环,以及新的 SimpleAgent(清晰 step 流程、可选 debug/timeline dump)与多 Agent 脚手架。
  • memory/EpisodicMemory / SemanticMemory + Jsonl 存储,支持情节/概念长期记忆;
  • tasks/:Scenario/TaskStep/TaskResult 定义 + 运行器,便于评估不同场景;
  • introspection/:生成简单内省日志(总结/错误/改进建议);
  • config/AgentConfig 简易配置,支持选择 Dummy 或外部 backend、开关好奇/内省。
  • workspace/RepoSpec / Repo / Workspace,限制可读写的路径并封装命令执行。
  • codetasks/CodeTaskPlanner / PromptGenerator,把内省+建议转成 Code-LLM 友好的提示词。
  • scripts/
    • demo_cli_agent.py:基于 SimpleAgent 的命令行 demo(推荐从这里体验最小闭环);
    • demo_multimodal_dummy.py:使用 Dummy 对齐展示“文本/图片 → 概念空间 → Agent 回复”的占位式多模态 demo;
    • demo_multi_agent.py:两个 SimpleAgent 轮流对话的多 Agent 示例;
    • dump_timeline.py / view_timeline.py:读取 JSONL 事件日志并打印时间线;
    • view_memory.py:查看持久化的 Episode / 概念记忆;
    • run_experiments.py:批量运行 Scenario,输出评估 + 内省日志;
    • run_devloop.py:串联 Teacher/Code-LLM/工具读写/单测的 DevLoop 自我改写脚本;
    • 其他脚本:演示自我学习循环、驱动力调整和状态查看等。
  • 说明:当前多模态对齐为 R0 Dummy 版本,用于打通结构,后续会接入真实模型。
  • tests/
    • 覆盖类型定义、感知、驱动力、学习模块以及 SimpleAgent 单步行为等。
  • requirements.txt:当前为空,仅作占位,强调仅依赖 Python 标准库。

快速开始

准备环境

  • 确保使用 Python 3.10+
  • 不需要安装任何三方依赖(requirements.txt 为空)。

在仓库根目录下可以先运行单元测试,确认环境正常:

python -m unittest

运行最小对话 demo

在仓库根目录执行:

python scripts/demo_cli_agent.py

你可以在命令行中与 agent 进行多轮简单对话,例如:

  • 输入任意句子,观察 agent 如何用“我想 / 我要 / 我做”的风格回应;
  • 输入包含“时间”或 time 的句子(如“现在几点了?”),agent 会通过 TimeTool 调用内部时间工具,并在回复中体现这一点。

内部大致链路为:

  1. 文本输入 → TextPerception → 生成 AgentEvent(感知事件);
  2. 事件记录到 EventStream,同时更新 SimpleWorldModelSimpleSelfModel
  3. SimpleDriveSystem 基于最近事件给出一个 Intent(回复 / 调用工具 / 保持安静等);
  4. 如需调用工具,则通过 ToolCall / ToolResult 连接 EchoTool / TimeTool
  5. RuleBasedDialoguePolicy 结合 Intent 与自我描述生成中文回复;
  6. SimpleLearner 观察本轮事件,为后续扩展学习逻辑预留接口。

R2: Memory & Tasks & Introspection

  • 长期记忆:EpisodicMemory/SemanticMemory 支持将事件/概念写入 JSONL,重启可加载。
  • 场景评估:在 me_core/tasks 定义 Scenario/TaskStep,可用 scripts/run_experiments.py 批量运行并生成报告。
  • 内省日志:IntrospectionGenerator 可基于时间线和工具/意图统计生成“总结/错误/改进”条目。
  • 可视化:scripts/view_timeline.py 查看事件时间线,scripts/view_memory.py 查看持久化记忆。
  • 配置与 backend 插拔:AgentConfig 支持切换 Dummy/外部 embedding backend,开关好奇/内省等行为。

R4: Real Backends & Teachers & Multimodal Scenarios

  • 真实多模态后端扩展:在 me_ext/backends/real_backend.py 实现 RealEmbeddingBackend,通过 embedding_backend_module 动态加载。
  • 外部 Teacher:me_ext/teachers/real_teacher.py 支持 HTTP/CLI 调用外部 LLM,返回 PolicyPatch 改写策略。
  • 多模态场景:新增图片对齐/图文一致性 Scenario,评估真实 backend 表现。
  • 演化实验:scripts/run_evolution_with_teachers.py --experiment-config experiments/r4_real_backend_and_teacher.json 结合真实 backend + Teacher 跑简单演化并输出报告。

R5: Code & Repo Orchestrator

  • Workspace/Repo 抽象:在 me_core/workspace 管理多个仓库的受限读写与命令执行,可参考 configs/workspace.example.json
  • CodeTools & RunTools:read_file/write_file/apply_patchrun_command/run_tests/run_training 工具便于自动改写与验证。
  • CodeTask & PromptGenerator:me_core/codetasks 将内省与 Teacher 建议转成结构化代码任务,并生成 codex-style 提示。
  • Code-LLM 客户端:me_ext/codellm/real_codellm.py 以 mock/http/cli 模式调用外部 Code-LLM。
  • DevLoop:scripts/run_devloop.py --workspace configs/workspace.example.json --scenarios self_intro 串联场景→内省→Teacher→Code-LLM→写回→单测的自改流程。

R6: Experiment Orchestrator (SNN / Backend Projects)

  • Workspace 中的 RepoSpec 支持 tags/meta,可标记 experiment_target 仓库(如 self-snn、多模态 backend),并附带默认训练/评估命令。
  • ExperimentScenario:在 me_core/tasks/experiment_types.py 定义 train/eval/custom 步骤,支持 regex/json/plain 指标解析,experiment_runner 可运行并用公式求分。
  • 教师与补丁:TeacherInput/Output 增加实验结果与 ConfigPatch,Dummy/Real Teacher 可对超参/配置提出修改建议;apply_config_patches 支持 JSON 配置自动打补丁。
  • DevLoop 实验模式:scripts/run_devloop.py --experiment-scenarios exp1 结合 RunTools 跑实验、解析指标、应用 Teacher 建议并写回配置/策略。
  • Population Fitness:种群评估可将实验分数纳入 Fitness(可配置权重),用于对比不同 Agent/策略。

R7: Self-SNN Brain Integration & Knowledge Graph

  • Workspace 标记 brain/snn 仓库(meta 含 structure/energy/memory 脚本);提供获取 brain 仓库的辅助方法。
  • BrainGraph:区域/连接/指标抽象 + JSON 适配器,SemanticMemory 可存脑图谱与脑区概念。
  • 脑工具:DumpBrainGraphTool / EvalBrainEnergyTool / EvalBrainMemoryTool 调用仓库脚本获取结构/能耗/记忆指标。
  • 内省 & Teacher:支持脑结构/能耗/记忆信息,生成结构/配置建议(含 ConfigPatch)。
  • DevLoop brain 模式:scripts/run_devloop.py --brain-mode 先拉取脑结构/能耗/记忆,再跑实验、应用 Teacher/Code-LLM 改配置/代码。
  • Population:Fitness 纳入 brain 指标(能耗、记忆容量等)与实验分权重。

R8: Online Brain Inference & Brain-Guided Decisions

  • 在线脑推理:self-snn 增加 scripts/run_brain_infer.py,从结构化 BrainInput 运行短暂 SNN,输出 BrainSnapshot JSON。
  • BrainInferTool:brain_infer 工具调用上述脚本,将 snapshot 返回 Agent 端使用。
  • BrainSnapshot:类型定义 + 世界/自我模型存储接口,驱动力/对话策略可依据脑模式(explore/exploit 等)调整。
  • 场景:新增 brain_guided_decision,执行前自动触发 brain_infer,回复会带上“根据当前脑状态”的解释。
  • DevLoop:--brain-mode 下在跑场景前调用 BrainInferTool,写入 world/self,report 中返回 brain_snapshots。

R9: Real Backend, 安全沙箱与可观测性

  • RealEmbeddingBackend 接入 transformers CLIP,可在 config 中指定 embedding_backend_module: "me_ext.backends.real_backend"embedding_backend_kwargs(model_name_or_path/device/max_batch_size),自动 CPU 回退。提供 stub 模式便于测试。
  • RealTeacher/Code-LLM:新增 TeacherOutput 轻量 schema 校验、审计日志(logs/teacher_audit.jsonl),CodeLLM 支持 output_format=json_diff/files,非法输出自动跳过。
  • 工具安全:RunCommandTool 支持白/黑名单、超时与输出截断;WriteFile/ApplyPatch 限制单次写入行数/次数。
  • 长期自述与仪表盘:scripts/dump_self_report.py 生成长期自我总结;scripts/view_experiments_dashboard.py 汇总场景/实验得分。
  • 配置健康检查:scripts/check_config_health.py 校验 workspace/AgentConfig 必要字段,缺失时给出 error/warning。

R10: 自动工具发现 + 人类 Teacher + 多角色协作 + 基准测试

  • 仓库发现:me_core/workspace/discovery.py 扫描本地 scripts,生成 RepoProfile;scripts/discover_repos.py 可自动输出 workspace.generated.json。
  • 人类 Teacher:HumanTeacher 支持 CLI/文件输入手写 JSON 建议,可与 LLM Teacher 共存。
  • 角色化多 Agent:AgentRoleConfig/ROLES_DEFAULT + MultiAgentCoordinator,按 planner/coder/tester/brain/critic 分工协作。
  • 基准场景:新增 benchmark_scenarios(小型多模态占位),可用于快速跑通 benchmark 模式。
  • 总控脚本:scripts/run_orchestrator.py 一键 orchestrate(自动发现/benchmark/devloop/多 Agent/brain)。

R12: 任务/数据生成与联合进化

  • 任务生成:TaskTemplate/GeneratedTask + TaskGenerator,结合 Introspection/Benchmark/BrainGraph 自动生成任务样本,scripts/generate_tasks.py 落盘。
  • 任务池与课程表:TaskPool + CurriculumScheduler(easy2hard/focus_gaps/random),从生成任务/基准中挑选下一批。
  • 训练计划:TrainSchedule 将生成任务导出为 self-snn 可消费的数据/配置,供后续训练。
  • 联合进化:CoEvoPlanner/CoEvoState 组织 AgentPopulation 与 self-snn 训练计划,scripts/run_coevolution.py 运行多代,scripts/view_coevo_dashboard.py 查看分数曲线。
  • 可视化与检索:LogIndex/查询脚本、协作视图、Dashboard 结合,便于长期跟踪自演化进程。

R14: 自动作图与 Web Research Dashboard

  • PlotSpec/PlotBuilder:在 me_core 描述 line/bar/brain_graph 规格,不依赖绘图库。
  • PlotRenderer:me_ext/plots/matplotlib_backend.py 用 matplotlib 将 PlotSpec 渲染为 PNG(生成到 reports/plots),scripts/render_plots.py 一键出图。
  • Notebook/Comparison/PaperDraft:生成时会带上建议图表 ID,脚本可在 Markdown 中嵌入已有图像。
  • HTTP Dashboard:me_ext/http_api/static/ 简易前端,HTTP API 增加 /notebook/recent /report/comparison /report/paper_draft /plots/*,可查看状态、实验、Notebook 摘要与图表。

R15: Policy Learning & Causal World Model & Deep SNN Curriculum

  • 策略学习:PolicyLearner 基于 reward 微调 AgentPolicy(好奇/工具偏好等),SimpleLearner 会自动应用小幅调参。
  • 因果世界模型:SimpleWorldModel.transition_stats 记录「场景→行动」成功率与 reward,predict_success_prob 提供简单预测。
  • 对话 LLM 输出头:RuleBasedDialoguePolicy 可在 AgentConfig.use_llm_dialogue 为真时走 LLM 路径(经 RealDialogueLLM),失败回退规则。
  • 训练计划:TrainSchedule 导出含 GeneratedTask 的 JSON;self-snn 新增 scripts/train_from_schedule.py --dry-run 直接消费计划。
  • 闭环脚本:scripts/run_small_full_loop.py 贯穿“基准→任务生成→self-snn 训练计划→策略调参”,默认使用 self-snn train_from_schedule.py 的 dry-run。
    python scripts/run_small_full_loop.py \
      --workspace configs/workspace.example.json \
      --agent-config configs/agent.small.json \
      --snn-config ../self-snn/configs/s0_minimal.yaml \
      --use-llm-dialogue
    终端会输出本轮策略调参、训练计划路径与基准前后对比的小结。

R16: Full Multimodal & Real-Task Integration

  • 多模态感知:新增 AudioPerception/VideoPerception/StructuredPerceptiondefault_perceive 扩展,MultiModalInput 支持 structured/audio/video 元数据。
  • Embedding 后端:RealEmbeddingBackend 提供 audio/video 占位向量接口,保持统一概念空间入口。
  • 真实任务集:data/real_tasks/tasks.jsonl 示例 + build_real_task_scenarios 装载,可在 benchmark/CoEvo 中评估结构化+图片任务。
  • HTTP API:新增 /task/run/train/run,Dashboard 增加按钮,可外部触发任务或 self-snn 训练(默认 dry-run)。
  • self-snn 对接:scripts/train_from_schedule.py 支持从 TrainSchedule 转换数据集并运行小训练,self_snn/data/task_adapter.py 提供 GeneratedTask→spike 占位转换。

R17: Multimodal Understanding Backend(轻量训练版)

  • 数据:data/benchmarks/multimodal_zh_small.jsonl 内部小基准;data/real_tasks/tasks.jsonl / data/generated_tasks/* 可作为补充;可选外部小子集(如 MUGE/COCO-CN 抽样)。
  • 训练:me_ext/multimodal_backend 提供 datasets/model/trainer,scripts/train_multimodal_backend.py 以对比学习(stub 特征)训练投影头,可在 M2 Max 上小规模运行。
  • 集成:RealEmbeddingBackend 可加载训练好的投影权重(weights_path),Orchestrator 增 --mode train_multimodal 跑一轮多模态训练。
  • 研究层:NotebookBuilder/ComparisonBuilder 支持 focus=multimodal,PaperDraftBuilder 可生成多模态相关摘要。

快速启动(接 self-snn 示例)

  1. 配置 workspace:configs/workspace.example.json 已填好 self-snn 路径 /Users/george/code/github/self-snn,允许访问 configs/scripts/self_snn/tests/runs,默认训练/评估/brain 脚本都指向 self-snn。
  2. 直接运行一轮 brain-mode devloop(含自我/脑工具):
    bash scripts/start_me_agent.sh
    如需自定义路径或场景,调整 workspace 路径或修改脚本参数。
  3. 单独调用自定义 orchestrator:
    python scripts/run_orchestrator.py \
      --workspace configs/workspace.example.json \
      --mode devloop \
      --use-brain \
      --scenarios self_intro
    workspace 中的 meta 会调用 self-snn 的训练/评估/脑推理脚本。

训练两条常用路径

  • 直接在 self-snn 仓库训练

    cd /Users/george/code/github/self-snn
    python scripts/train.py --config configs/agency.yaml --logdir runs/agency --duration 300
    # 评估 / 脑态
    python scripts/eval_memory.py --json
    python scripts/eval_router_energy.py --json
    python scripts/run_brain_infer.py --config configs/agency.yaml --task-id demo
  • 通过 me-agent 调用 self-snn(brain-mode / 联合任务)

    cd /Users/george/code/github/me-agent
    bash scripts/start_me_agent.sh
    # 生成任务后跑联合进化/训练计划
    python scripts/generate_tasks.py --max 5
    python scripts/run_coevolution.py --gens 2 --tasks-root data/generated_tasks

    渲染图表并查看研究层产物:

    python scripts/render_plots.py --workspace configs/workspace.example.json
    python scripts/dump_notebook.py --with-plots

    启动 HTTP Dashboard:

    python - <<'PYDASH'
    from me_core.world_model import SimpleWorldModel
    from me_core.self_model import SimpleSelfModel
    from me_ext.http_api import serve_http
    serve_http(SimpleWorldModel(), SimpleSelfModel(), port=8000)
    input("HTTP server on 8000, Enter to stop")
    PYDASH

    浏览器访问 http://localhost:8000/static/index.html 可查看状态/实验摘要/Notebook/对比/图表。

  1. 配置 workspace:configs/workspace.example.json 已填好 self-snn 路径 /Users/george/code/github/self-snn,允许访问 configs/scripts/self_snn/tests/runs,默认训练/评估/brain 脚本都指向 self-snn。
  2. 直接运行一轮 brain-mode devloop(含自我/脑工具):
    bash scripts/start_me_agent.sh
    如需自定义路径或场景,调整 workspace 路径或修改脚本参数。
  3. 单独调用自定义 orchestrator:
    python scripts/run_orchestrator.py \
      --workspace configs/workspace.example.json \
      --mode devloop \
      --use-brain \
      --scenarios self_intro
    workspace 中的 meta 会调用 self-snn 的训练/评估/脑推理脚本。

下载 CIFAR-100 数据集(Python 版)

用于 scripts/train_cifar100_cnn.py 的示例数据,可直接用仓库脚本下载并解压到 data/cifar100

python scripts/download_cifar100.py \
  --output data/cifar100 \
  --url https://www.cs.toronto.edu/~kriz/cifar-100-python.tar.gz

如遇本地证书校验问题,可加 --insecure(仅在受信网络使用),如需覆盖已有数据加 --force

开发环境与约定

  • Python 版本:3.10+(使用类型提示与 dataclasses 等特性)。
  • 依赖:当前阶段仅使用 Python 标准库,不引入任何第三方包。
  • 类型约定:
    • 所有对外暴露的核心结构(如事件、工具调用)都应有清晰的 @dataclass 定义。
    • 尽量使用 typing 中的类型标注,以便后续引入静态检查工具(如 mypy)。
  • 语言约定:
    • 注释与文档(包括本 README)均使用中文,便于聚焦概念本身而非语言障碍。
  • 测试:
    • 后续为每个模块增加对应的单元测试;当前仅保留测试目录结构。

未来,当各模块逐步成型后,本 README 会增加:

  • 更详细的模块间交互图;
  • 典型运行流程示例(例如一个“我想 → 我要 → 我做”的完整回合);
  • 与外部系统集成的示例(CLI / Web / 其他 agent 框架)。

基于本地语料的字符级语言模型(实验性)

说明:本小节完全基于本地语料和 PyTorch,不依赖 Hugging Face。仅作为“使用大规模中文语料做简单语言建模”的实验性示例,不影响核心 agent 功能。

1. 准备本地语料

1)将从 brightmart/nlp_chinese_corpus 下载的压缩包放到 data/ 目录:

  • data/wiki_zh_2019.zip
  • data/translation2019zh.zip

2)运行清洗脚本,将原始语料转换为预训练友好的纯文本格式:

python data/prepare_nlp_chinese_corpus.py

运行后会生成:

  • data/wiki_zh_2019/wiki_zh_sentences.txt:每句话一行,文档间空行;
  • data/translation2019zh/translation2019zh_zh.txt:每行一个中文句子;
  • data/translation2019zh/translation2019zh_en.txt:每行一个英文句子。

2. 训练字符级语言模型

在项目根目录执行:

python scripts/train_char_lm_nlp_corpus.py \
  --num-steps 2000 \
  --batch-size 64 \
  --block-size 128 \
  --max-chars-per-file 2000000

脚本会:

  • wiki_zh_sentences.txttranslation2019zh_zh.txt 加载中文文本;
  • 构建字符级词表并训练一个简单的 LSTM 语言模型;
  • 定期将 checkpoint 与词表保存到:
    • outputs/char_lm_nlp_corpus/char_lm_last.pt
    • outputs/char_lm_nlp_corpus/vocab.json

3. 交互式生成 Demo

训练完成后,可以启动一个简单的字符级续写 Demo:

python scripts/demo_char_lm_generate.py

进入后:

  • 输入任意中文前缀,例如:经济学是一门研究
  • 模型会基于训练好的字符级语言模型继续生成后续文本;
  • 输入 exit / quit / q 或按 Ctrl+C / Ctrl+D 退出。

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages