数据集的全局提示词和问题生成提示词, 固定对话格式, 全都无效.无法影响生成的问题. 同样的提示词放到结果生成提示词,就可以影响从问题生成的结果. lib/llm/prompts/question.js 里面设置的提示词风格太强了, 导致用户输入的问题生成提示词会被带偏 调用本地ollama模型, 进行流式输出模型测试时, 返回错误: HTTP error! status: 500.