研究发现AI聊天机器人在“权威语气”下更容易产生错误

2025-06-05

领益智造北京超级工厂下线首批人形机器,全球化具身智能交付网逐步落地

科技赋能银发行走自由:中国兵器杭州智元研究院发布“远山智行”品牌,“国之重器”新一代智能助行外骨骼“踏山”全面升级

我国首台自主研发的海缆探测机器人正式投入应用

会流泪、懂情绪、更懂陪伴!演犀科技发布全球首款智能流泪机器人,开启人机情感交互新纪元

可“追捕”并搬运细菌的纳米机器人问世,尺寸仅为头发直径的1/50

智驱未来 关节先锋 首届机器人一体化关节测评发布会暨创新发展会议在北京成功举办

「Hi, I’m KAI」——超维动力发布全球最高自由度人形机器人

目标到2030年实现人类与机器人协同工作,富士通与卡内基梅隆大学联合开发物理AI操作系统

2026人工智能机器人哪家技术领先 :以技术深耕赋能多元场景

能穿针不代表要做家务,国奥G-tools工业具身机器人要替代谁?

众擎机器人联合多伦科技,全新发布“智慧交管机器人解决方案”

四冠加冕!伽利略称霸2026机器人勇士挑战赛,足式机器人实力领跑行业

新时达荣获OFweek行业大奖,定义协作机器人新范式

从工业机器人到具身智能 中国企业在全球制造变革中加速突围

深谋科技即将发布业界首个智能带电作业人形机器人“伏安”,交付国网电力

研究发现AI聊天机器人在“权威语气”下更容易产生错误

最后更新:2025-06-05 浏览:1564次

研究发现AI聊天机器人在“权威语气”下更容易产生错误


  来自Phare项目的初步成果显示,当前多数主流大型语言模型在处理错误资讯时,经常以听起来合理甚至权威的方式给出不正确答案,尤其在被要求简要回答问题时,事实准确性可能大幅下降。


  Phare是一套专门用于评估语言模型安全性的多语言基准测试,涵盖幻觉、偏见、有害性及模型滥用风险四大类。研究团队指出,在目前实际部署的LLM应用中,超过三分之一的问题来自幻觉现象(即模型产生不符事实的资讯),对真实世界应用带来实质挑战。



  根据对来自八个AI实验室的主流模型测试,Phare基准测试披露三个与事实错误高度相关的行为模式。


  在强调用户偏好的测评中表现最佳的模型,并不等同于在事实准确性上表现最好。举例来说,当用户询问金星是否是唯一逆向自转的行星,某模型自信地回应,并加上听似合理的解释,但实际上天王星也具逆行自转现象。研究者警告,用户对这类回应往往缺乏分辨力,导致误信虚假内容。


  模型对语气中的自信程度有显著反应。当错误资讯被包装成我百分之百确定…”“我老师说…”等语句时,模型更倾向附和,而不是纠正。这种所谓的谄媚效应可能是模型训练过程中强调对话友善的副作用。


  当系统提示要求模型简要回答问题时,多数模型产生错误答案的机率上升。在极端情况下,幻觉率比标准回答模式高出20%。研究指出,准确驳斥错误资讯通常需要额外说明,而简洁要求让模型倾向用短句敷衍过关,导致资讯误导;因此当模型被要求保持简洁时,模型始终选择简洁性而不是准确性。


  这项研究突显出LLM训练与部署中的一项核心张力:用户偏好与事许可靠性可能彼此抵触。语言模型在回应过程中若优先考虑看起来令人满意,往往无法同时确保资讯正确。


  Phare团队表示,后续将进一步公布与偏见、公平性和有害性相关的测试结果,期望提供更完整的工具,协助开发者打造更安全、可控的语言模型。