内容摘要:研究人员指出,由于技术原理限制,至少两类虚假信息无法根除。OpenAI团队发现,大语言模型像应试学生一样,在不确定时会猜测答案而非承认无知。专家向《自然》杂志表示,不仅消除幻觉\不可能\,阻止AI凭空捏造引用尤其困难。AI幻觉大语言模型虚假信息OpenAI统计机器使用人工智能聊天机器人时的一大问题是它们会"幻觉"——即编造内容而非承认不确定。研究人员指出,由于技术原理限制,至少两类虚假信息无法根除。OpenAI团队发现,大语言模型像应试学生一样,在不确定时会猜测答案而非承认无知。专家向《自然》杂志表示,不仅消除幻觉"不可能",阻止AI凭空捏造引用尤其困难。普渡大学学者指出,目前幻觉发生率已降至"用户可接受"水平。《自然》解释称,这种缺陷源于大语言模型作为"统计机器"的工作原理——通过归纳学习关联性来生成看似合理但可能错误的答案。
AI幻觉大语言模型虚假信息OpenAI统计机器
免责声明:以上"OpenAI的研究人员承认,聊天机器人无法停止编造虚假事实"内容和图片来源于网络,本网站转载仅为传递更多行业信息和交流之目的,著作权属原创者所有,如有版权问题请联系网站管理员删除。