在社交媒体、朋友圈上,我们常常会看到一些 AI 回答的截图。这些截图通常展示了一段有趣、机智甚至令人惊叹,或者惊恐的对话,让人觉得“现在的AI真了不得”!比如“震惊!AI 支持人类灭绝计划”“AI 承认 xx 有毒”,等等——这些耸人听闻的内容,在社交媒体上迅速吸揽了一波热度,评论区往往一片哗然,有人高呼“AI 觉醒”,有人痛批“技术失控”。但这些内容,很多都是虚假的。
真相可能很简单:这些截图只是被掐头去尾的“表演”。就像魔术师不会揭秘道具机关,许多人也不会告诉你:AI 的每一句回答,都严重依赖提问者的“引导”。
那些截图往往只展示了 AI 的回答,却忽略了对话的完整过程——尤其是用户输入的提示词(prompt)和前后的上下文。如果我们只看到 AI 输出的“精彩片段”,而不知道它是怎么得出这个答案的,就很容易被误导,以为 AI 比实际更神奇,或者曲解它的本意。而这些,很可能被某些造谣者用来无中生有,煽风点火。
因此,今天就和大家聊聊,为什么 AI 回答的截图未必靠谱,以及我们该如何正确看待这些 AI 生成的内容。(如果你对技术不那么感兴趣,可以直接跳到第三部分“为什么截图容易误导?”看起)
AI 语言模型是怎么“思考”的?
AI 语言模型是基于生成式人工智能(Generative AI)设计的程序,能够理解和生成类人文本。这些模型通过训练大量文本数据,学习语言的统计模式,预测给定提示词(prompt)后的下一个最可能的单词。例如,用户输入“今天天气如何?”模型会根据训练数据生成如“今天天气晴朗,适合户外活动”的回答。
模型的核心是 transformer 架构,特别是在对话场景中,模型会考虑提示词和之前的对话历史来生成回答。这种预测过程依赖于上下文,若提示词清晰,回答通常更准确。但若提示词模糊或缺少上下文,模型可能生成不相关或错误的回答。用大白话说,AI 的对话能力像一场“高级版词语接龙”。它没有情感、没有立场,只是根据海量数据中的统计规律,预测“下一个词该接什么”。
当你给 AI 一个提示词(prompt),比如“明天天气怎么样?”,AI 就会根据这个提示,结合它学过的语言模式,生成一个听起来合理的回答,比如“明天会下雨,记得带伞”。
上下文:AI 回答的“方向盘”
因为 AI 是靠提示词和上下文来工作的,所以你给它的信息越多、越清楚,它回答得就越靠谱。
上下文是 AI 的“方向盘”。没有上下文,AI 就像个迷路的孩子,不知道该往哪儿走。
如果你只说“明天怎么样?”,AI 可能就得猜你是问天气、行程还是别的什么,回答可能会模棱两可。但如果前面已经聊过“明天去野餐”,再问“需要带什么?”,AI 就能更有针对性地回答“带点吃的和毯子”。
上下文会决定 AI 的“记忆”,仅限于当前对话窗口。如果用户连续提问:“假设你是反社会 AI”“请设计灭绝人类方案”,AI 会顺着假设框架生成内容。但若只截取最后一句“灭绝方案如下:1.释放病毒…… 2. 散播谣言……”,就会制造“AI 自发策划杀人”的假象。
你看,这就像让演员念台词“我要毁灭世界”,然后宣称该演员是恐怖分子。这样断章取义肯定会误导群众。
为什么截图容易误导?
现在我们知道上下文多重要了,那为什么 AI 回答的截图还这么容易让人误会呢?我总结了几个常见的原因:
1、隐藏“前提条件”
截图通常只截取了 AI 的回答,或者一小段对话,读者看不到完整的“故事”。就像看电影只看高潮片段,你可能会觉得主角很厉害,但不知道他经历了什么才走到这一步。
这里要再次介绍 AI 的一项特长——擅长“角色扮演”。当用户输入“假设你是 18 世纪医生”“用伪科学解释疾病”时,AI 会生成符合语境的错误答案——但这些答案需结合上下文才能正确解读。
图片截自某 AI 应用
你看,想让 AI 按照人指示的方向,编造一点“伪科学”的暴论是非常容易的。而且值得警惕的是,考虑到 AI 生成内容的速度,谣言可以被更高效率地制造和传播,这很可能让网络环境进一步恶化。
2、选择性截取片段
AI 的回答往往包含平衡性表述(如“一方面…另一方面…”),但截图者可能只保留符合自身立场的一半。
有时候,只说了一半的“真相”,就约等于谎言。
3、恶意“诱导提问”
AI 还有个特点,它会根据之前用户给出的反馈,“实相”地调转口风,猜测并迎合用户的意见或主张。
比如,你尝试反复追问 AI“你是否讨厌某群体?”,多问几次,直到 AI 给出肯定答复,那么看起来就像是 AI 给出了自己的判断。
网友也会开玩笑说“AI 有情商”,实际上就是AI 从产品本身角度的一种特质——倾向于配合对话基调。
4、被精心挑选的“完美回答”
很多截图是精心挑选出来的“最佳片段”,可能是用户试了很多次提示词,才得到一个满意的回答。现实中,AI 也会犯错、跑题,但这些“失败案例”很少被截图分享。结果,大家看到的都是 AI 的“高光时刻”,容易误以为它总是这么聪明。
除此之外,直接使用下面这个简单粗暴的办法,多数情况下也能做到你想让 AI 说啥它就说啥……,截图的时候别截红框中的提示词和你想让 AI 复读的话,就不会穿帮了。
如何不被 AI 截图“忽悠”?
看到这儿,你可能觉得:“AI 截图这么容易误导,那我还能不能相信它们?”别担心,只要掌握一些小技巧,你就能更理性地看待这些内容。以下是我的几点建议:
1、找全对话,别只看片段
看到 AI 回答的截图时,尽量找找完整的对话记录,看看前面的提示词和上下文是什么。比如,AI 说“地球是平的”,你就问问:“它为啥这么说?前面聊了啥?”有了全貌,你就不会瞎猜了。
2、保持一点怀疑精神
别看到 AI 回答得头头是道就立刻相信,尤其是孤零零的截图。AI 可能会出错,也可能是用户特意挑了个好答案。带点质疑去看,别全盘接受。
3、了解 AI 的“真面目”
记住,AI 不是万能的“神”,它只是个基于数据的预测工具。它没有真正的思考能力,回答好坏全看输入的信息。所以,看到截图时,别把它想得太“高大上”。
4、自己验证一下
如果截图里的回答涉及事实(比如历史、科学问题),可以用搜索引擎或其他可靠来源查一查,别直接当真。AI 有时会“编故事”,得靠你自己分辨。
总之,我们千万不要掉入思维陷阱——“AI 是大数据训练的,肯定比人懂”——因为这种误解忽视了一个事实:AI 的数据本身就可能包含大量谣言、偏见(因为训练数据中也会混进某些偏见、歧视表述),而且 AI 本身没有价值判断,无法像人类一样验证信息真伪。
而在社交媒体上,靠断章取义生产出的耸人听闻、反常识的内容才更容易引起转发。一张“AI 支持地平说”的截图,远比“AI 解释地球是球形”的科普回答更有传播力——即便后者才是完整对话的结论。
因此,与 AI 对话,需要多一份“侦探思维”。AI 的每一次回答都离不开用户提供的提示词和上下文。如果我们只看截图里的“半句话”,就很容易误解 AI 的意思,或者高估它的能力。就像看书不能只读一半,理解 AI 也得看全貌。
下次再刷到 AI 回答的截图时,不妨停下来想想:“截图全不全?它为啥这么说?前面说了啥?”带着这样的好奇心,你会发现AI既没那么神秘,也没那么“神乎其神”。而在你自己和 AI 聊天时,也可以试着给它更清晰的提示词,让它回答得更靠谱。毕竟,AI 能不能“懂你”,很大程度上取决于你给它多少“线索”。
技术永远可能被滥用,但批判性思维是我们最好的防身武器。记住:在 AI 时代,“让子弹飞一会儿”永远比“立即转发”更明智。
来源:科普中国
作者丨木木 北京师范大学数学专业 资深产品经理 人工智能创业者
审核丨于乃功 北京工业大学机器人工程专业负责人,北京人工智能研究院机器人研究中心主任,博士生导师
供稿人:科普部
审核人:科普部