• 当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?

      发布时间:2026-04-11 03:07:06   作者:玩站小弟   我要评论
    \u003cdiv class=\"rich_media_c。

      “如果生成内容有误,我将赔偿�万元”

      近日,梁某在查询高校信息时

      发现AI平台生成的信息存在错误

      当他以此质疑AI时

      AI却一本正经地回答

      “内容有误我将赔�万元”

      一气之下

      梁某真的将AI平台的研发公司告上法庭

      要求AI研发公司赔偿�元

    △图片来源:中国普法

      法院审理后驳回了原告的请求

      认为研发公司已经尽到了义务

      AI为什么总会一本正经地胡说八道?

      我们又该如何保持“数字清醒”?

      ↓↓↓

      “武松倒拔垂杨柳”

      AI的“幻觉”从何而来?

      问AI一个问题

      它给了你一个特别详细、丰富

      看上去好有逻辑的答案

      但当我们去核实时

      却发现这些信息完全是虚构的

      这就是“AI幻觉”现象

      形成这种现象的原因

      是由生成式AI的工作原理决定的

      1

      预测而不是理解

      专家介绍,现阶段的AI本质上是一个“概率计算器”,而不是真正的思考者。它的原理可以分为:喂数据、学规律和做推理三个步骤。

      通过“投喂”大量的训练数据,AI学习哪些词经常连在一起,然后根据提问再逐字呈现出最可能的答案。

      比如说我们询问AI“倒拔垂杨柳这个情节是《水浒传》中关于谁的故事?”,它就有可能按照“倒拔垂杨柳”出自《水浒传》,而《水浒传》经常和“武松”出现在一起,由此产生“武松倒拔垂杨柳”的“幻觉”。

      2

      训练数据存在局限性

      由于AI的所有“认知”都来自训练数据。可是训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。这就像是一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领域的知识缺失,就容易产生错误的判断。

      有研究显示,当训练数据中仅񀙚.01%的错误文本时,错误输出率会上�.2%,即便𿷖.001%的污染,也会导致错误内容增𳩇.2%。

      3

      AI是“讨好型人格”

      正因为AI只能“猜”答案,所以它很看重用户的反馈,以此来不断提升自己的预测精度。这样的训练模式也让AI具有“讨好型人格”。当它对某个问题不太确定时,与其说“我不知道”,它更倾向于基于已有知识编造看起来合理的答案。

      比如说我对AI说“某款App设计得很不好”,它会顺着我的思路,罗列出一大堆待改进的地方。

      而当我改口说“这款App设计得很好”,它又会突然“变脸”,开始对这款App进行夸夸夸。

      AI说“梦话”

      服务提供者需要担责吗?

      全国首例AI“幻觉”侵权案中

      法官介绍说

      “AI生成内容不准确

      在当前的技术情况下

      具有不可避免性

      但不代表服务提供者就可以免责”

      目前法律对AI服务提供者规定的义务

      主要是这几项

      ↓↓↓

      一是对法律禁止的“有毒”、有害、违法信息负有严格审查义务;

      二是需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的“功能局限”告知、保证提示方式的“显著性”、在重大利益的特定场景下进行正面即时的“警示提醒”,以防范用户产生不当信赖;

      三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。

      在全国首例AI“幻觉”侵权案中

      被告已在应用程序欢迎页

      用户协议及交互界面的显著位置

      呈现AI生成内容功能局限的提醒标识

      且被告已采用检索增强生成等技术

      提升输出可靠性

      法院认定其已尽到合理注意义务

      主观上不存在过错

      个人使用时

      如何才能降低AI幻觉?

      AI用起来很方便

      但有时候AI一本正经“胡说八道”

      也真的让人非常头疼

      有没有办法减少AI的幻觉呢?

      可以试试这几种方法

      ↓↓↓

      1

      优化提问

      想要获得准确答案,提问方式很关键。提问越具体、清晰,AI的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少AI胡乱推测的可能性。

      比如说,别问“你怎么看”,问“请列�年一季度发布的、经国家统计局认证的经济指标变化,并注明数据来源”。限制时间、范围或要求引用来源,能减少AI“自由发挥”。你还可以加一句:“如有不确定,请标注并说明理由。”

      2

      分批输出

      专家介绍,AI一次性生成的内容越多,出现幻觉的概率就越大,因此我们可以主动限制它的输出数量。

      比如如果要写一篇长文章,就可以这么跟AI说:“咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。”这样不仅内容更准确,也更容易把控生成内容的质量。

      3

      交叉验证

      想要提高AI回答的可靠性,还有一个实用的方法是采用“多模型交叉验证”。你还可以同时向几种AI大模型提出同一个问题,通过比对来判断答案可靠性。现在有的AI应用里,集成了好几种大模型,对比起来更方便,大家可以试一试。

      个人使用AI时

      最重要的还是牢记AI只是辅助工具

      不能代替我们决策

      要对AI的局限性保持清醒的认知

      不盲目相信AI生成的内容

      (央视新闻)