AI“睁眼说瞎话”,我们该如何自处?

   发布时间:2025-04-08 18:55 作者:顾青青

近年来,人工智能(AI)在日常生活和工作中的应用日益广泛,从资料搜集到PPT制作,再到论文修改,AI似乎无所不能。然而,随着AI的普及,一系列问题也逐渐浮出水面,引发人们的广泛关注。

更令人担忧的是,这些信息一旦被二次加工、援引和传播,将给“后真相时代”带来更大的挑战。AI一本正经地说“瞎话”,已经不再是个别案例。

大学生薛云(化名)在准备课堂作业PPT时,就遇到了这样的问题。她不确定某句诗的准确表述,于是向AI助手求助。然而,AI助手不仅给出了错误的出处,还在被质疑后继续编造答案,一会儿说是出自唐代诗人贯休的作品,一会儿又说是韦庄的《与小女》。薛云惊讶之余,也对AI的可靠性产生了严重怀疑。

同样,在一家自媒体公司工作的雅雅,也险些因AI而犯错。她在更新一篇关于“造纸史”的公众号文章时,为了节省时间,使用了AI助手DeepSeek提供的信息。然而,在发布前进行资料核查时,她发现这些信息根本无法在网上检索到,甚至涉及的文物和国家图书馆的资料都不符。雅雅后怕不已,如果这些信息被写入文章并传播出去,后果将不堪设想。

类似的情况在社交媒体上屡见不鲜。有网友发现AI助手DeepSeek编造了关于郭沫若甲骨文研究的考释内容,还有网友发现AI在回答水浒传不同版本译者的问题时张冠李戴。更有甚者,AI连法条都能胡编乱造,编得有模有样,让人难以分辨真伪。

不仅在工作和学术领域,AI的不可靠性在日常生活中也时有体现。一位B站UP主在录制视频时,向DeepSeek询问汕头手信店,虽然DeepSeek给出了看似专业可靠的分类推荐,但所推荐的店面却统统不存在。

事实上,AI的“胡说八道”早已引发广泛关注。清华大学社会科学学院社会学系副教授严飞在播客节目中提到,他曾让DeepSeek概括一本书的内容,结果得到了不准确的信息。而这些虚构的内容,一旦被反复引用,将产生更大的误导性。

更严重的案例还包括AI编造数据导致的行政处罚。公安部网安局公布的一起案例中,网民夏某在视频中捏造了80后的死亡率数据,而这些数据正是由AI编造的。微软的Bing AI助手也曾将一位员工的手机号错误地公布在网络上,导致其接到大量骚扰电话。

AI的这种“幻觉”现象,源于其技术原理和训练数据的局限性。数据过时、数据偏见或错误、知识盲区等问题,都可能导致AI生成错误的内容。同时,AI在生成内容时,极易受提问者的思维定式和认知偏见影响,导致呈现片面真实或刻意回避某类信息。

为了应对这一问题,DeepSeek等AI助手提出了一些解决办法,如优化提问技巧、交叉验证与人工审核、使用专业工具等。而对于关键任务,如法律和医疗领域,建议始终以AI输出为初稿,由人类专家进行最终审核。

在拥抱AI的大趋势下,我们不应盲目迷信。虽然AI为我们的生活和工作带来了便利,但它的不可靠性也不容忽视。只有在使用时保持警惕,进行多源验证和工具辅助,才能确保AI真正为我们所用,而不是成为我们的绊脚石。

 
 
更多>同类内容
全站最新
热门内容
本栏最新