本项目致力于总结各种LLM的简单最佳实践代码。
理论部分大概会主要写在博客上:LLM的实践古往今来(持续更新ing…)
GitHub项目负责实现,包括直接推理和微调。
目前看来应该不会包括预训练。
本项目不包括非自研的应用服务。这个可以参考我写的博文:在线LLM应用集锦(持续更新ing...)
以下是我已经用过或正在用的模型。按照首字母顺序排列:
- 百川
- BARD / Vertex AI / PaLM:现在只能实现在线调用,本地部署失败(我认为是因为代理问题)
- BART
- BERT
- ClueAI
- ChatGPT / GPT-3 / GPT-3.5 / Whisper AI / DALL-E
- ERNIE / 文心一言 / 千帆大模型
- GLM / ChatGLM:ChatGLM2可用。ChatGLM之前在调用过程中出现了bug,正在找原作者提问:用transformers包,下载文件到本地后无法加载AutoTokenizer · Issue #181 · THUDM/GLM
- LLaMA:其实官方权重还在泡waiting list,但是又不是不能用,凑合用吧
- 通义千问
- 讯飞星火
- T5
- 源1.0
- 智能司法领域
按照任务排列:
- 文本分类 BERT BART
- 序列标注
- 命名实体识别
- 文本生成
- 抽取式摘要
- 生成式摘要:可以先参考我开的另一个项目 PolarisRisingWar/text_summarization_chinese: 各大文本摘要模型-中文文本可运行的解决方案(已经完全耦合了,目前不太确定这两边要怎么解耦,这个以后再考虑吧先把东西写出来再说)
- 推理
- 文本补全&问答
- 仅支持直接推理:
- 支持直接推理和云端微调:ChatGPT / GPT-3 / GPT-3.5
- 支持本地部署:ChatGLM
- 音视频转文字 Whisper AI 通义听悟
- 文本转图片
本文在撰写过程中使用的集成接口包括但不限于: