李飞飞批评AI宣传两极化,呼吁理性看待技术发展。
北京时间12月5日,据《商业内幕》报道,“AI教母”李飞飞指出,当前关于人工智能的讨论存在明显的两极分化现象。 在人工智能技术迅速发展的背景下,公众和媒体对AI的关注度持续上升,但这种关注往往伴随着过度的乐观或恐惧。李飞飞作为该领域的权威人物,呼吁各方以更理性和平衡的态度看待AI的发展。她认为,只有在科学、伦理与社会需求之间找到合适的平衡点,AI才能真正为人类带来长远的积极影响。
李飞飞在周四于斯坦福大学的一场讲座中公开亮相。她在演讲中表示:“我想说,我是目前AI领域最乏味的演讲者,因为支持AI威胁论和AI万能论的人都是在夸大其词,这让她感到十分失望。”
“我们听到的大多是关于人类彻底灭绝、世界末日之类的说法,有人声称AI会毁灭人类,机器将统治世界,”她表示,“另一方面,也有人持有一种过于理想化的‘完全乌托邦’观点,认为AI将带来‘后稀缺时代’和‘无限生产力’。”
李飞飞是斯坦福大学长期任职的计算机科学教授,因创立ImageNet数据集而广为人知。去年,她共同创办了世界实验室公司,专注于研发能够感知、生成并与三维环境进行交互的AI模型。
她在斯坦福大学的讲座中指出,这种“极端言论”正在大量出现在技术相关的讨论中,容易误导那些容易受影响的人群。 **看法观点:** 当前技术领域的公共讨论中,极端观点的泛滥已成为一个不容忽视的问题。这类言论往往缺乏理性依据,却能迅速吸引关注,尤其对信息辨别能力较弱的群体产生误导。在科技发展迅速、公众参与度提升的背景下,如何引导健康、理性的对话环境,显得尤为重要。
“全世界的人,特别是硅谷之外的人,需要了解真相,需要明白这项技术究竟是什么,”她表示,“但目前的讨论、沟通方式以及公众教育,尚未达到我所期待的效果。”
除了李飞飞外,其他顶尖计算机科学家也在呼吁对 AI 及其社会影响力进行更平衡的宣传。
今年7月,谷歌大脑的创始人吴恩达表示,他认为通用人工智能(AGI)被高估了。AGI指的是具备人类水平认知能力的AI系统,能够像人类一样学习和应用知识。在当前的科技界,各大领先AI公司的高管经常被问及他们对AGI何时实现的看法,以及这种技术对人类工作者可能带来的影响。 在我看来,吴恩达的观点值得重视。AGI虽然听起来充满吸引力,但其实现仍面临诸多技术和伦理上的挑战。目前的人工智能更多是专注于特定任务的“窄人工智能”,距离真正具备自主学习和推理能力的通用智能还有很长的路要走。同时,对于职场的影响,也应更加理性看待,避免过度恐慌或盲目乐观。
“AGI一直被过分夸大了,”吴恩达在YCombinator的演讲中表示,“在相当长的一段时间内,仍有许多事情是人类能够完成而人工智能还无法做到的。”
Meta公司的前首席人工智能科学家杨立昆(Yann LeCun)曾表示,尽管大语言模型令人印象深刻,但它们仍存在一定的局限性。
他在去年的一次采访中表示:“它们并不是通向所谓AGI的路径。我非常不喜欢这个术语。它们确实有实际应用价值,这一点毋庸置疑,但它们并非通往人类水平智能的正确方向。” 从当前2025年12月的视角来看,这段话依然具有重要的现实意义。人工智能技术近年来取得了显著进展,但距离真正具备人类智慧的通用人工智能(AGI)仍有很大差距。许多所谓的“突破”更多是针对特定任务的优化,而非对智能本质的全面理解。这种观点提醒我们,在追逐技术进步的同时,也应保持清醒,避免被过度宣传所误导。
上个月,杨立昆在领英上宣布,将结束在Meta长达12年的职业生涯,开始创办一家人工智能创业公司。