-
Notifications
You must be signed in to change notification settings - Fork 21
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于QQ实现方式的展望 #18
Comments
不再考虑继续使用相关qq机器人框架。目前准备提供一个前端页面来提供对沐雪的任何交互,除此之外,可能会提供其他机器人框架的支持(discord, tg之类的),不过以目前的时间,能搞多少搞多少吧 |
仍希望保留go-cqhttp的接口,一便对于部分仍可用的qqbot进行服务,同时如果有可能也希望直接提供api由用户自制自己的前端页面 |
已经提供了一个基于原chatglm2-6b项目的api实现
…________________________________
发件人: 秋晚夕落 ***@***.***>
发送时间: 2023年10月27日 22:56
收件人: Moemu/Muice-Chatbot ***@***.***>
抄送: Moemu ***@***.***>; Comment ***@***.***>
主题: Re: [Moemu/Muice-Chatbot] 关于QQ实现方式的展望 (Issue #18)
不再考虑继续使用相关qq机器人框架。目前准备提供一个前端页面来提供对沐雪的任何交互,除此之外,可能会提供其他机器人框架的支持(discord, tg之类的),不过以目前的时间,能搞多少搞多少吧
仍希望保留go-cqhttp的接口,一便对于部分仍可用的qqbot进行服务,同时如果有可能也希望直接提供api由用户自制自己的前端页面
―
Reply to this email directly, view it on GitHub<#18 (comment)>, or unsubscribe<https://github.com/notifications/unsubscribe-auth/ARINMYHAYMHECP3W4XHNCODYBPDQZAVCNFSM6AAAAAA6JEWHP6VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTOOBTGA2TOOBZGE>.
You are receiving this because you commented.Message ID: ***@***.***>
|
ohhhhhhhhhhhhhhhhhhh |
其实我这边因为在很早之前就一直登不上gocq,然后因为我本身又是开发mirai的,就换了一种方式来实现它 在glm2官方ptuning微调的代码上做出修改,以便于载入微调后的模型,然后在接入到兼容openai的api里,中间接入oneapi对接我之前写好的mirai插件接口 这样就能把它作为一个普通的对话聊天模型来玩了,不过mirai这边似乎主动发起消息有点麻烦,目前我也没这需求,就懒得管了 |
glm3发布了,是不是直接加上就能用 |
不行,还要在微调一遍
…________________________________
发件人: homo11451419 ***@***.***>
发送时间: 2023年11月7日 20:19
收件人: Moemu/Muice-Chatbot ***@***.***>
抄送: Moemu ***@***.***>; Comment ***@***.***>
主题: Re: [Moemu/Muice-Chatbot] 关于QQ实现方式的展望 (Issue #18)
glm3发布了,是不是直接加上就能用
(顺便祝作者高考顺利,爱来自初一生)
―
Reply to this email directly, view it on GitHub<#18 (comment)>, or unsubscribe<https://github.com/notifications/unsubscribe-auth/ARINMYC6D5DQOMK4Q2EC6K3YDIRLRAVCNFSM6AAAAAA6JEWHP6VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTOOJYGM4TENBWHE>.
You are receiving this because you commented.Message ID: ***@***.***>
b
|
话说能不能考虑也公开一部分模型的训练集呢?我也挺想来尝试一下微调 当然,如果不方便公开的话也没事,就是我目前还不清楚制作这种训练集要从哪里开始入手,如果有个现成的例子会更好上手一些 |
例子的话博客上给了几条, 其他部分如果是熟人的话可以再考虑考虑
…________________________________
发件人: KJZH001 ***@***.***>
发送时间: 2023年11月9日 17:51
收件人: Moemu/Muice-Chatbot ***@***.***>
抄送: Moemu ***@***.***>; Comment ***@***.***>
主题: Re: [Moemu/Muice-Chatbot] 关于QQ实现方式的展望 (Issue #18)
不行,还要在微调一遍
…
________________________________ 发件人: homo11451419 @.> 发送时间: 2023年11月7日 20:19 收件人: Moemu/Muice-Chatbot @.> 抄送: Moemu @.>; Comment @.> 主题: Re: [Moemu/Muice-Chatbot] 关于QQ实现方式的展望 (Issue #18<#18>) glm3发布了,是不是直接加上就能用 (顺便祝作者高考顺利,爱来自初一生) D Reply to this email directly, view it on GitHub<#18 (comment)<#18 (comment)>>, or unsubscribehttps://github.com/notifications/unsubscribe-auth/ARINMYC6D5DQOMK4Q2EC6K3YDIRLRAVCNFSM6AAAAAA6JEWHP6VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTOOJYGM4TENBWHE. You are receiving this because you commented.Message ID: @.***> b
话说能不能考虑也公开一部分模型的训练集呢?我也挺想来尝试一下微调
当然,如果不方便公开的话也没事,就是我目前还不清楚制作这种训练集要从哪里开始入手,如果有个现成的例子会更好上手一些
―
Reply to this email directly, view it on GitHub<#18 (comment)>, or unsubscribe<https://github.com/notifications/unsubscribe-auth/ARINMYGHVYNBTGE2KWOJUNDYDSRTRAVCNFSM6AAAAAA6JEWHP6VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTQMBTGUYDCNZQHE>.
You are receiving this because you commented.Message ID: ***@***.***>
|
训练集部分开源,之后也视成绩起伏继续公开更多的训练集。这可能也是强迫自己学习的一种方式了(笑) |
好诶! 另外呢,如果不是很反感国内的平台的话,建议在魔塔社区那边也开一个镜像仓库(像qwen和glm的国内仓库也放在那边),以便于国内访问 当然,这份训练集也的体积也不大,所以这不是什么大问题(但是当时从抱脸拉glm2的模型是真的把我折腾的够呛,当时国内还没有镜像,笑) 顺便问一下,考虑到glm3很多bug没修,并且glm4不再开源了,你接下来打算在什么模型上继续微调呢? |
glm3我打算先放在一边,先去练glm2和qwen
…________________________________
发件人: KJZH001 ***@***.***>
发送时间: 2024年1月21日 17:56
收件人: Moemu/Muice-Chatbot ***@***.***>
抄送: Moemu ***@***.***>; Comment ***@***.***>
主题: Re: [Moemu/Muice-Chatbot] 关于QQ实现方式的展望 (Issue #18)
训练集部分开源,之后也视成绩起伏继续公开更多的训练集。这可能也是强迫自己学习的一种方式了(笑) https://huggingface.co/datasets/Moemu/Muice-Dataset
好诶!
另外呢,如果不是很反感国内的平台的话,建议在魔塔社区那边也开一个镜像仓库(像qwen和glm的国内仓库也放在那边),以便于国内访问
当然,这份训练集也的体积也不大,所以这不是什么大问题(但是当时从抱脸拉glm2的模型是真的把我折腾的够呛,当时国内还没有镜像,笑)
顺便问一下,考虑到glm3很多bug没修,并且glm4不再开源了,你接下来打算在什么模型上继续微调呢?
―
Reply to this email directly, view it on GitHub<#18 (comment)>, or unsubscribe<https://github.com/notifications/unsubscribe-auth/ARINMYHPJAFPDK6BP3YB7K3YPTQ6LAVCNFSM6AAAAAA6JEWHP6VHI2DSMVQWIX3LMV43OSLTON2WKQ3PNVWWK3TUHMYTSMBSGU3TINBWGI>.
You are receiving this because you commented.Message ID: ***@***.***>
|
modelscope 的仓库规范真累人,还好传上去了,现在更新到了400条 补充:另外,如果是想谈训练集的话题,可以到discussion里面说,现在有点偏离主题了 |
祝贺作者高考结束—— |
感谢你还记得我w(゚Д゚)w 另外提一嘴,gocq我这边还能用,不过有些人用不了。 @MoeSnowyFox 提供了一个onebot的解决方案,我这边用着还不错,过几天同步到主分支,应该qqbot这一块没什么问题了 |
真的不建议继续使用gocq,oicq以及mirai等协议库方案了,容易触发风控,也不足够稳定,hook库是一个更好的选择 你那边还能用的原因很简单,就和有些老版本qq还能接着用已经登录过的号一样,但是登录新的号也不让登录了 另外,恭喜高考结束,胜利了 |
我们把基于 |
2周前,gocq的作者Mrs4s发布1.2.0版本,同时更新文档声明不再对gocq维护;同时签名服务器作者删库、一众后端应声倒地。
可见:Mrs4s/go-cqhttp#2471
问问作者对这方面怎么考虑(高三辛苦,高一牲祝您高考顺利)
The text was updated successfully, but these errors were encountered: