自从ChatGPT之类的大模型发展起来之后,AI幻觉的争议就没停止过。这篇文章,作者和我们分享了AI环境产生的原因,供各位参考。
要回答为什么会产生AI“幻觉”现象,首先我们需要知道AI大模型究竟是怎么运作的。
AI实际上的运作原理,简单来讲就是——不断预测在给定的语境中下一个词是什么的概率规律。
想象一下你在学习新的事物时,你会对它的名称、原理、用途等进行观察和研究,从而去理解和学习其背后的原理。而AI大模型并不具备这样的“理解”能力,AI的学习过程更多的是一种模仿。它是基于海量的训练数据,建立各个信息之间的关联关系,从中它看到了哪些词组通常怎样搭配使用,但并不理解其中的实际含义。你可以理解为,AI在努力“假装”一个聪明人(即所谓“依样画葫芦”)。
简单了解了AI大模型“预测而非理解”的工作原理,我们可以开始探讨导致其出现”幻觉”的原因:
以上就是AI之所以会产生“幻觉”的原因了。那么,面对这些AI“幻觉”,我们该如何应对呢?在下一部分,我们将讨论,如何应对AI“幻觉”。
讨论话题:你曾经碰到过哪些让你印象深刻的AI“幻觉”?评论区里也分享一下吧。
注:由于本文预设读者是AI零基础人群,期望达到启发作用。因此笔者会尝试用尽量浅显的语言来介绍,而在简化某个概念、原理的过程中,可能会丢失其完整性。这一点还请读者注意。
作者:产品经理崇生,公众号:崇生的黑板报
本文由 @产品经理崇生 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自 unsplash,基于CC0协议
非常抱歉!本站不支持旧版本IE浏览器~~建议使用IE10/IE11/Chrome/Firefox/Safari等高级浏览器浏览。