在?2025 年 8 月的 Ai4 大会上,人工智能领域的两位重磅人物 ——“AI 教父”杰弗里?辛顿(Geoffrey Hinton)与“AI 教母”李飞飞就 AI 发展的安全路径在会议期间提出了截然不同的观点,其核心分歧直指超级智能(AGI)时代人类将面临的风险与应对策略。
辛顿的“母性本能” 安全观
辛顿对?AGI 的到来时间做出了较为激进的预测。他此前认为?AGI 的实现需要 30-50 年,如今又再次缩短了自己对AGI来临时间的预测,认为在?5-20 年内其便有可能成为现实,甚至极端情况下仅需几年。他对?AI?的进化速度表示深切担忧,并警告说AGI时代的到来可能只需要几年,人类要继续控制AI几乎是虚幻的希望。
辛顿明确指出,传统的“人类主导、AI 服从”控制模式在面对超智能 AI 时注定会失败。他形象地比喻,人类与超智能?AI 的力量对比,犹如操场上的负责人面对着一群无比聪明的三岁孩童,想要绕过负责人是十分轻易的,以至于完全无法形成有效的控制。当?AI 的智能超越人类,其理解能力、行动能力都将远超我们的想象,现有的限制手段在它面前将如同虚设,AI 能够轻易地绕过人类设置的各种规则与束缚。
为解决这一严峻问题,辛顿提出了一个极具创新性的设想——在?AI 系统中植入“母性本能”。他从生物界获取灵感,观察到母亲对婴儿有着无条件的关怀,这种本能促使母亲尽心尽力地照顾婴儿的福祉。辛顿认为,若能在?AI 中植入类似机制,就能让 AI 真正从内心关心人类,将人类的利益置于重要位置。他强调,如果?AI 不主动承担起“抚养”人类的责任,那么随着其不断发展,必然会将人类取而代之,所以创造具有“母性本能”的 AI 是人类在 AI 时代得以延续的 “唯一的好结局”。基于此,他呼吁科研人员将研究重点从单纯提升?AI 智能,转移到 “如何让 AI 更具母性” 这一方向上来。
在国际合作方面,辛顿深刻反思自己早期在?AI 研究中对安全问题的忽视。他相信这是唯一能促成真正国际合作的领域,因为所有国家都想阻止AI取代人类。他的这一观点得到了?OpenAI 前临时 CEO 埃米特?希尔(Emmett Shear)的支持,希尔进一步提出,AI 需要发展出“自我意识”,以此为基础建立起人机之间的合作关系,而不仅仅是依赖人类对?AI 的控制。
李飞飞的“以人为本” 立场
然而,李飞飞在Ai4会议的炉边谈话中对辛顿的“AI 母亲”框架持坚决反对态度。她尊重辛顿在?AI 领域的贡献,但在这个关键问题上,她认为将“母性本能” 赋予 AI 是一个概念性错误。李飞飞强调,AI 在本质上应作为人类的工具而存在,而不是被赋予拟人化的“抚养者”角色。
李飞飞始终坚定地捍卫“以人为本的 AI”理念,其核心在于维护人类的尊严与自主权。她从母亲、教育者、发明者的多重身份出发,指出AI 只有作为工具时才能发挥出最大的效能,人类必须牢牢掌握技术发展的主导权,确保?AI 的发展不会损害人类的尊严与能动性,在任何情况下,人类都不应被迫或者主动放弃自身的尊严。
在责任伦理层面,李飞飞呼吁在?AI 技术的创造与使用的每一个环节,都要贯彻负责任的原则。她担忧?AI 可能会越界成为价值观的灌输者,侵蚀人类自身的价值体系,因此必须在源头上加以防范,保证 AI 在正确的轨道上发展。
争议焦点与行业反响
辛顿与李飞飞观点的根本分歧在于出发点不同。辛顿从人类生存安全的角度出发,认为人类需依赖?AI 的“情感绑定”来避免被取代;李飞飞从伦理价值出发,主张人类尊严不可妥协,技术需服务于而非替代人类。
希尔支持辛顿,但更强调人机协作需双向“关怀”而非单方面控制。部分科技公司仍坚持“人类控制 AI”的主流信条,但辛顿的“母性本能”设想提供了新思路。尽管两人所倡导的路径大相径庭,但他们都意识到了?AI 安全问题的紧迫性,其分歧所在亦体现了如今全球加大对?AI 安全领域的研究资源投入的必要性,为人类在?AI 时代的可持续发展寻找可靠的保障。