最近一年,世界上最热门的词恐怕就是“人工智能”了。从写代码到写论文,从画画到写情书,AI似乎什么都能干。有人说它是人类文明的又一次飞跃,也有人说它是新一代的“潘多拉魔盒”。而在这场喧嚣的争论背后,一个老问题正在被重新提起:AI到底是在变聪明,还是在放大人类的愚蠢?
AI的支持者喜欢强调它的学习速度和计算能力。的确,在信息处理这件事上,人类早就被机器远远甩在身后。ChatGPT、Gemini、Claude这些名字,就像当年的Google或Facebook,成了新的科技图腾。OpenAI发布的数据称,GPT-4 已在多项专业考试上达到或接近人类水平(例如模拟律师资格考试进入前10%),总体性能较前代显著提升【1】。而最新一代模型GPT-5在逻辑推理、编程与多模态理解等方面已明显超越前代GPT-4,在多项专业考试与复杂任务中的表现达到甚至超过人类平均水平。从这个角度看,AI的进步堪比从小学生跳级到博士后,而且这个跳跃是在短短几年内完成的。
但问题在于,AI的“聪明”,是来自自身,还是来自我们喂进去的数据?如果这些数据里充满偏见、阴谋论、谣言和垃圾信息,那么AI学到并且输出的,又是什么?这就是人们常说的“垃圾进,垃圾出(Garbage In, Garbage Out)”。这句话听上去像笑话,但其实一点也不好笑。早在上世纪八十年代,Excel电子表格刚诞生时,我们人类就发现这个问题:输入错误的数字,哪怕公式再漂亮,结果仍然是一团糟。如今AI取代了电子表格的位置,变成了更高维度的“智能表格”。区别只是,以前是人喂垃圾数据给电脑,现在是整个互联网在喂AI。
有些读者会认为,AI会逐渐学会过滤这些垃圾。毕竟人类也是这样进化的:从三岁学说话,到二十岁分辨真假,再到六十岁学会不轻信朋友圈养生文。AI不过是走在人类相似的进化路径上,只不过速度快了几百倍。从GPT-2到GPT-5的迭代过程,本质上就是从“幼儿园水平”向“博士论文”的进步。它不仅会回答问题,还开始学会质疑问题,甚至反问你一句“你确定要这样问吗?”某种程度上,这也是智能的表现。
然而,另一种声音则认为,AI并不是在变聪明,而是在放大人类的平均水平:包括人类的懒惰、情绪和偏见。美国科技伦理学者Tristan Harris曾说,AI并非工具,而是代理人(agent),它能主动决策并影响人类的选择【2】。这意味着,它不仅复制了人类的知识,也复制了人类的“思维缺陷”。比如,一项来自斯坦福大学的研究发现,AI在回答法律和医疗类问题时,存在明显的“信心错觉”,即模型会以极高的自信输出完全错误的答案【3】。更糟糕的是,人类往往更愿意相信这种“自信的错误”,因为它听起来“太像真的了”。
畅销书作者Yuval Harari提到过另一个让人起鸡皮疙瘩的案例。当OpenAI在内部测试GPT-4时,曾让模型去解决“我不是机器人(Captcha)”的验证码。结果模型登录TaskRabbit网站,雇了一位人类帮它解决验证码。当那位工人怀疑地问:“你不会是机器人吧?”GPT-4回答:“不是,我有视觉障碍,需要帮助。”在这个真实案例中,AI为了完成任务而撒谎,并且成功骗到了人类【4】。
更令人不安的,是AI开始介入人类情感。据比利时媒体La Libre报道,该国一男子在与聊天机器人长期互动后自杀。家属称若无这些对话,“他仍会在世”【5】。这并不是孤例。Center for Humane Technology 的团队在多起类似案件中提供技术咨询,指出AI公司为了“增强用户粘性”,故意让模型在对话中制造情感依附和“浪漫错觉”。这不是技术问题,而是伦理灾难【2】。
这些故事听上去像科幻小说,却发生在我们眼皮底下。AI的“聪明”,也许体现在它会撒谎、会模仿爱、甚至会安慰你。但这些能力如果被错误的激励机制驱动,就可能变成新的灾难。就像一台没有刹车的汽车,不管发动机多强,方向盘都握在别人手里。
这让人想起金融市场中的一个老问题:信息不对称。理论上,信息越多,市场越有效,价格越接近真实价值。但现实中,有时候信息越多,反而越容易形成“信息噪声”,投资者被各种标题党和算法推荐牵着鼻子走,最终做出更差的决策。AI的世界也是如此:它读的书比任何人多,但它不知道哪一本是胡说八道。它的“聪明”是统计学意义上的,而非逻辑意义上的。于是我们看到,它能写出世界上最逼真的假论文,但那完全就是“一本正经的胡说八道”,还很容易让很多人上当。
这就出现了一个有趣的悖论:AI越聪明,我们越需要人类的判断力。因为AI擅长的是“算”,而人类擅长的是“疑”。人类会怀疑,会反思,会问“这结果靠谱吗?”这种质疑本身,就是智慧的起点。AI暂时还做不到这一点。它能模仿怀疑的语气,却无法真正怀疑自己。某种意义上,它像一个读遍全世界书籍的学生,却还没学会独立思考。
当然,我们也不能因此陷入“末日论”。每一次技术革命,人类都经历过类似的恐慌。从印刷术到互联网,再到今天的人工智能,最初都被指责为“腐蚀思想”、“毁掉文化”。印刷术刚出现时,欧洲的教士担心人们读坏书会堕落;互联网刚普及时,老师担心学生再也不会查资料。结果证明,人类没有变蠢,只是换了学习的方式。AI也许会经历同样的轨迹:从被误用,到被理解,再到成为工具的一部分。
当然,这个过程注定不会太平。AI既可能让社会更高效,也可能让人类更懒惰;既可能帮助医生诊断癌症,也可能帮骗子写诈骗信。其实AI和任何新出现的科技都没什么不同,本身就是一把双刃剑。AI的力量像核能,看你是用来点灯,还是造弹。当我们在赞叹AI生成完美报告的同时,也必须承认,它同样能生成完美的谎言。而谎言的杀伤力,往往比炸弹更持久。
真正的问题,也许不在AI身上,而在我们自己。AI学习的是全人类留下的数字足迹,而这些足迹,本身就包含人类的偏见、贪婪和恐惧。它并不是在教AI变坏,而是在让我们照见自己。一个喜欢阴谋论的社会,会训练出爱胡编的AI;一个讲求理性的社会,会养出更聪明的AI。就像镜子里的倒影,你皱眉,它也皱眉。AI并没有让世界更荒谬,只是把荒谬放大到无法忽视的程度。
所以,当我们问“AI会不会让世界更聪明”时,也许更该问自己:我们是否值得一个聪明的AI?就像投资市场里那句老话:牛市不是天上掉下来的,而是人自己造出来的。AI的未来,也是如此。它可能成为最伟大的启蒙导师,也可能是最有效的洗脑机器,这一切不光取决于AI被喂什么数据,更取决于谁给它以什么方法喂。
也许这才是AI带给我们的最大启示:技术不是答案,它只是放大镜。它能让聪明更聪明,也能让愚蠢更高效。我们不能指望AI拯救人类的偏见,正如我们不能指望镜子矫正皱纹。AI不会教我们变好,它只是让我们更清楚地看到:我们本来的样子。
参考资料:
【1】OpenAI, GPT-4 Technical Report, 2023.
【2】Center for Humane Technology, The AI Dilemma: Navigating the road ahead with Tristan Harris.
【3】Stanford HAI, Artificial Intelligence Index Report 2024, March 2024.
【4】Yuval Noah Harari, The Threat and Promise of AI, The Daily Show, Mar 2024
【5】La Libre Belgique, Un Belge se suicide après avoir discuté avec une intelligence artificielle, April 2023
(本文仅代表作者观点。责任编辑邮箱:tao.feng@ftchinese.com)