假如我们给GTP分别发送3次内容: 1, 2, 3
然后我们让GPT重复说出我们发送的内容, 它会说: 你发送了1 2 3
但是如果我们删除顶部的两个对话 (1 和 GPT的回复, 这时候我们对话从2开始), 然后问GPT 重复我们发送的内容. 它竟然说:1, 2, 3....
这就不对了吧. 我们平常如果说的内容有误或者想缩短, 一般会删除中间的几段对话(或者更之前的一些无用对话), 但咱这个chatgpt-web, 原封不动把所有原来的上下文继续发送给了GPT, 导致我们上下文所花费的token一直增长, 随之费用也增多.
咱是不是应该修复一下这个BUG?? (貌似删除底部的倒是没发送这些内容)