Skip to content

SoulStar 是一个心理咨询大模型,内核为温柔知心的大姐姐,能详细分析倾诉的问题,给出切实的建议和安慰,并有可爱表情和颜文字回复~~(*╹▽╹*)

License

Notifications You must be signed in to change notification settings

Nobody-ML/SoulStar

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

40 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

SoulStar - 知心心理咨询大模型

SoulStar



license

📖 目录

🎉 更新

  • 【2024.2.26】基于 internlm2-chat-7b-qlora 微调出第一版模型

📝 简介

SoulStar 是一个心理咨询大模型,通过 Large Language Model 指令微调而来,内核为温柔、知心的大姐姐,她能分析用户的咨询内容和需求,给予详实的且具有人文关怀的长回复或详细建议,并且回复中附有 emoji 表情和颜文字(~(*╹▽╹*)、✿✿ヽ(゚▽゚)ノ✿ 、(*^_^*))以拉近与用户的距离,让用户在咨询中得到心理上的支持和帮助。

目前支持模型及微调方式列表如下:

基座模型 微调方式
InternLM2-Chat-7B qlora
…… ……

项目持续开发中,欢迎 Star⭐、PR 和 Issue。

🛠️ 快速开始

1. 算力要求

  • 推理要求显存至少16G

2. 基于 transformers 使用模型

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("internlm2-chat-7b-soulstar", trust_remote_code=True)
# 设置`torch_dtype=torch.float16`来将模型精度指定为torch.float16,否则可能会因为您的硬件原因造成显存不足的问题。
model = AutoModelForCausalLM.from_pretrained("internlm2-chat-7b-soulstar", device_map="auto",trust_remote_code=True, torch_dtype=torch.float16)

model = model.eval()
response, history = model.chat(tokenizer, "请问你是谁呀?", history=[])
print(response)

response, history = model.chat(tokenizer, "我最近真的好焦虑,课业上给我的作业总是错的,考试时好时坏,我压力真的好大,父母也老是因为学习上的事打骂我,我是不是该放弃学习了?我也没什么朋友,我也想和别人一起玩,一起学习,但是我感觉总是开不了口,一直都是一个人,我该怎么办才好啊,感觉我的人生真的很糟糕,看不到什么希望。", history=history)
print(response)

3. 通过网页前端体验 demo

pip install streamlit
pip install transformers
streamlit run ./demo/web_demo.py --server.address 127.0.0.1 --server.port 6006

4. 基于 LMDeploy 高性能部署

# 使用命令行
lmdeploy chat turbomind /root/model/soulstar  --model-name internlm2-chat-7b

🧾 数据构建

🧑‍💻 微调指南

📚 应用体验

🎖️ 致谢

开源许可证

该项目采用 Apache License 2.0 开源许可证。同时,请遵守所使用的模型与数据集的许可证。

About

SoulStar 是一个心理咨询大模型,内核为温柔知心的大姐姐,能详细分析倾诉的问题,给出切实的建议和安慰,并有可爱表情和颜文字回复~~(*╹▽╹*)

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages