AI聊天机器人越聊越“笨”?可能真不是错觉
创始人
2026-02-21 23:02:34

不知道大家有没有这种感觉:和AI机器人短时间聊天的话还行,时间一长,就感觉对话开始变的前言不搭后语、逻辑不通。

其实这种感觉并不是错觉。

最近,微软发表的一项研究证实,即使是目前最先进的大语言模型,在多轮对话中的可靠性也会急剧下降。

研究人员对包括 GPT-4.1、Gemini 2.5 Pro、Claude 3.7 Sonnet、o3、DeepSeek R1 和 Llama 4 在内的 15 款顶尖模型进行了超过 20 万次模拟对话分析,揭示出一个被称为“迷失会话”的系统性缺陷。

数据显示,这些模型在单次提示任务中的成功率可达 90%,但当同样的任务被拆解成多轮自然对话后,成功率骤降至约 65%。

研究指出,模型的核心能力仅降低约 15%,但“不可靠性”却飙升 112%。

也就是说,AI 大模型仍然具备解决问题的能力,但在多轮对话中变得高度不稳定,难以持续跟踪上下文。

研究人员进一步分析了造成性能下降的行为机制。

首先是“过早生成”。模型在用户尚未完整说明需求前就尝试给出最终答案。一旦在早期回合中形成错误假设,模型后续便会在该错误的基础上继续推理,而不是随着新信息的加入进行修正,从而导致错误逐步放大。

其次是“答案膨胀”。在多轮对话中,模型的回复长度比单轮对话增加了 20% 至 300%。更长的回答往往包含更多假设与“幻觉”,这些内容随后被纳入对话的持续上下文,从而进一步影响后续推理的准确性。

令人意外的是,即使是配备了额外“思考词元”(thinking tokens)的新一代推理模型,如 OpenAI o3 和 DeepSeek R1,也未能显著改善在多轮对话中的表现。

研究人员指出,现有的基准测试主要基于理想的单轮场景,忽略了模型在真实世界中的行为。

因此,对于那些依赖 AI 构建复杂对话流程或智能体的开发者而言,这一结论意味着未来将要接受严峻挑战。

再来看看其他消息。

微软日前测试 Windows 11新版“画图”(Paint)应用,重点引入“自由旋转”功能。

根据微软官方描述,用户现在可以全方位角度调整形状、文本框以及任何活动的图像选区。用户选中对象后,其上方会出现一个“旋转手柄”,用户只需拖动该手柄即可向任意方向自由旋转对象,从而实现更自然的构图和布局。

除了直观的手动拖拽,微软还为需要高精度编辑的用户提供了解决方案。在“旋转”菜单下新增了“自定义旋转”选项,用户可以在此输入具体的角度数值,实现精确到 1 度的微调。

相关内容

热门资讯

肾结石不可怕,规范诊疗+预防是... 肾结石是泌尿外科常见疾病,是晶体物质在肾脏内异常聚集形成的固体病灶,发病率呈逐年上升趋势,且复发率较...
第30胜!希罗复出24分热火3... 北京时间2月21日,NBA常规赛迎来一场备受关注的对决,老鹰主场迎战热火。这场比赛不仅是老鹰的背靠背...
潢川县比较好的高中有哪些 潢川县位于河南省东南部,当地教育资源丰富,拥有不少优质的高中。这些学校在教学质量、师资力量、校园文化...
三方交易!杜兰特或将加盟火箭,... 随着NBA赛季的深入,东西部格局正经历着前所未有的动荡与重新洗牌。东部联盟中,凯尔特人曾一度被视为不...
中国队勇夺米兰冬奥会自由式滑雪... 在刚刚结束的米兰-科尔蒂纳冬奥会自由式滑雪空中技巧混合团体决赛中,中国队表现优异,最终斩获铜牌。这一...