Skip to content

guyu-adam/multiagent

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 

Repository files navigation

multiagent

基于本地 Ollama 的多智能体系统 — 量化分析、代码生成、需求评估,零 API 成本。

Local multi-agent system powered by Ollama — quant analysis, code generation, task evaluation. Zero API cost.


Python 3.10+ AutoGen 0.7+ Ollama Zero API Cost GPU: RTX 5060 Ti


设计理念 / Philosophy

不依赖 OpenAI/Claude API,用本地 GPU 跑 Ollama 模型驱动多个智能体协作完成任务。每次对话零云端成本,延迟 <10s(5060 Ti 16GB)。

No OpenAI/Claude API dependency. Local Ollama models on a GPU drive multiple agents collaborating on tasks. Zero cloud cost, <10s latency on RTX 5060 Ti 16GB.


智能体团队 / Agent Teams

量化分析团队 / Quant Analysis Team

3 个角色轮流分析,给出最终交易决策:

角色 / Agent 职责 / Role
Analyst 技术分析、信号识别
RiskMgr 风险评估、仓位建议
Executor 最终交易决策 (BUY/SELL/HOLD + 止损止盈)

代码生成团队 / Code Generation Team

Coder 生成代码,Reviewer 审查直到 APPROVED:

角色 / Agent 职责 / Role
Coder 编写 Python 代码
Reviewer 审查 bug/边界/改进,输出 APPROVED 终止

实测结果 / Benchmark Results

测试环境:RTX 5060 Ti 16GB + qwen3.5:4b @ Ollama

模型        : qwen3.5:4b (4B params, Q4_K_M)
首 token 延迟: ~0.8s  (warmup 后)
生成速度    : ~42 tokens/s
完整 quant 任务 (3轮): ~18s
完整 code 任务 (2轮):  ~12s
显存占用    : ~3.4 GB / 16 GB
API 成本    : $0.00

快速开始 / Quick Start

git clone https://github.com/guyu-adam/multiagent.git
cd multiagent
python3 -m venv venv && source venv/bin/activate
pip install -r requirements.txt

# 确保 Ollama 已运行并有模型 / Ensure Ollama is running with a model
ollama pull qwen3.5:4b

# 量化分析 demo / Quant demo
python main.py quant --task "NVDA momentum setup today: analysis, risk, decision"

# 代码生成 demo / Code gen demo
python main.py code --task "Write RSI(14) function for a price list"

# 完整演示 / Full demo
python main.py demo

切换模型 / Switch Model

# 更小更快 / Smaller & faster
python main.py quant --model qwen3.5:4b

# 更大更准 / Larger & smarter
python main.py quant --model qwen3.5:latest    # 8B
python main.py quant --model mistral:7b
python main.py quant --model llama3.1:8b

与其他项目协同 / Works With

项目 协同方式
ibkr-quant quant team 分析信号 → ibkr-quant 执行实盘
demand-radar code team 自动生成外包任务交付物
miser Claude Code 通过 miser 调用本地 LLM,与 multiagent 共用同一 Ollama

扩展 / Extending

新增 Agent 只需几行:

from autogen_agentchat.agents import AssistantAgent

my_agent = AssistantAgent(
    "MyAgent",
    model_client=make_client("qwen3.5:4b"),
    system_message="You are a ... Be concise."
)

系统要求 / Requirements

  • Python 3.10+
  • Ollama with any chat model
  • 推荐 8GB+ VRAM(4b 模型)/ 8GB+ VRAM recommended for 4b models

License

MIT

About

Local multi-agent system powered by Ollama — quant analysis, code gen, zero API cost

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages