-
Notifications
You must be signed in to change notification settings - Fork 95
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
【小心心】自动获取和赠送功能 #6
Comments
感谢反馈,以下是我针对你提出的问题做出的改进和一些看法: |
感谢回复,关于5.我的一点看法: 当然这只是我的个人意愿,想要减少挂机的内存和网络占用。至于判断【包裹中时长为7天的小心心的数量是24个】是否容易实现我也不是很清楚(但我感觉跟判断剩1天的辣条差不多),所以如果比较麻烦或者你不想做也完全没问题啦。 作为一个只会提要求的伸手党我真的已经非常感谢你这么高的互动和更新频率了。 |
我也很感谢你能提出这些建议,你每次提issue都把问题描述得很详细,也挺辛苦的。 |
但需要注意的是,120分钟是个必要不充分条件,区别是: 原因是B站发放小心心的观看时长由于网络等原因好像并不严格是5分钟,尤其是第一个五分钟,可能会有一定延后。其次是刷新房间好像会重置当前计时,类似于银瓜子宝箱,也就是假如看了4分钟时刷新,会需要再看5分钟才会发放一个小心心,但实际用了9分钟。所以实际上达到上限所需的时间可能要大于120分钟(除非网络非常好且是连续挂满120分钟) 采用必要不充分条件的风险是 可能脚本计时已经达到了120分钟但小心心并没有满,跳到未开播房间后今天就无法获得剩余小心心了。相比于无法跳出直播间,我认为无法获得全部小心心损失更大一些。 结合以上我提出一个双重判定:
P.S. |
听群友说现在小心心到上限后b站会有一个浮动条提示,我明天或者后天抓包看看能不能通过调用api的方式来判断小心心数量是否到达上限。这应该比我们之前讨论的方式都要靠谱。 |
请问3.7.3版本中是否已经加入了小心心满上限后自动跳出开播房间的功能? 另外想问一下3.7.3版本中新加入的自动点亮勋章功能的一些细节:
我个人希望的是BAA,多余小心心由自动送礼送出(因为不想每天给不常用主播送一个小心心浪费礼物,但又不想让粉丝勋章熄灭) |
现在是BBA。 |
好的,谢谢回答。另外求每天多次自动送礼的功能。 |
3.8.2更新了间隔时间送礼的功能,你可以试试看 |
开启【自动跳转房间获取小心心】后,如果目标直播间为短号,则会一直循环跳转。
(我之前为了保证挂脚本的房间一直开播就花了20硬币开了3号直播间的勋章,直播间地址live.bilibili.com/3)
当开启自动跳转后刷新,会提示“[小心心]3秒后跳转至房间3”,并在3秒后重载页面,并且不断循环,一直重复刷新。
并且在刷新后还会概率出现0-2条“[B站直播自动抢辣条]请先登陆”提示。
同时通过读取控制台日志发现,脚本读取的room_id是原本的长房间号:
[IGIFTMSG] Live_info: {room_id: 23058, ruid: 11153765, ...}
而手动进入live.bilibili.com/23058后B站会自动跳转至live.bilibili.com/3(与脚本无关)
同类型的短号直播间号我还测试了共青团中央:910884->54;二次元的中科院物理所:21319143->1928
基于以上我个人猜测可能有2种原因导致了一直重复跳转:
1.刷新后登陆状态出现问题影响脚本的某些功能
2.房间room_id的长短号在脚本中未统一,读取到的是长号23058,跳转到的目标房间是短号3,无法达到所在房间与目标房间相一致,从而导致一直重复跳转重载。
修改建议:
(因为我有粉丝勋章的主播大都是短号,长号的未开播。我开启自动跳转后无法稳定在任何一个直播间,所以实际上我暂时无法测试脚本中是否本来就是这个实现逻辑。
(只是希望不会每次都只能跳到同一个(3号)直播间(除非他下播),打扰用户正常挂脚本看直播(虽然可以临时关掉自动跳转来实现不跳转(建议2.))
想问一下是直接不获取直播流了还是仅仅不播放而已,这对于宽带占用甚至付费的流量会有一定影响。
但同时我又担心直接不获取直播流的话会不会被B站判为未在直播间观看而无法获得小心心。
The text was updated successfully, but these errors were encountered: