您当前的位置:首页 >> 国际 >  >> 
ChatGPT张口就来的“病”应该怎么“治”?|世界今热点
来源: 东方资讯      时间:2023-04-15 16:48:58


(资料图片)

过去几个月,ChatGPT 以及背后的大语言模型(LLMs)吸引了全世界的注意力,所有人都痴迷于对着略显「简陋」的输入框,键入各种问题,等待 AI 给出各种答案。

ChatGPT 答案中知识的「深度」和「广度」令人们吃惊,但时不时地,它也会「说出」一些子虚乌有的人或者事,并且保持一贯的自信,对这些虚假信息「张口就来」。

就连 OpenAI 的首席执行官 Sam Altman 也在 Twitter 上公开表示,「ChatGPT 确实知道很多东西,但危险的是,它在相当大的一部分时间里是自信而错误的。」

根据最近 Ars Technica 的文章,让 ChatGPT 如此「自信胡扯」的原因,是 AI 产生了「幻觉」。

那么,是什么让 AI 大语言模型产生了「幻觉」,业界又是如何看待 AI 幻觉的?

01.ChatGPT「张口就来」

「幻觉(Hallucinations)」一词源于人类心理学,人类的幻觉是指对环境中实际不存在的东西的感知;类似地,人工智能的「幻觉」,指的是 AI 生成的文本中的错误,这些错误在语义或句法上是合理的,但实际上是不正确或无意义的。

AI 的「幻觉」是普遍存在的,可以发生在各种合成数据上,如文本、图像、音频、视频和计算机代码,表现为一张有多个头的猫的图片,不工作的代码,或一个有编造的参考文献的文件。

正如 AI 医疗保健公司 Huma.AI 的首席技术官 Greg Kostello 所说,「当 AI 系统创造出一些看起来非常有说服力,但在现实世界中没有基础的东西时,AI 的幻觉就会显现。」

标签:

上一篇:

下一篇:

X 关闭

X 关闭