微软AI负责人称似有意识的AI将至,可能引发严重后果。
8月21日消息,据外媒TechRadar报道,微软AI负责人穆斯塔法・苏莱曼指出,即便只是让公众认为AI具有意识,也可能引发严重后果。 我认为,随着人工智能技术的快速发展,公众对AI的认知和态度变得愈发重要。苏莱曼的警告提醒我们,在推广AI技术时,必须谨慎处理其形象与功能的表述,避免误导大众。这种误解不仅可能影响人们对技术的信任,还可能带来伦理和安全上的隐患。因此,科技公司和媒体在传播相关信息时,应更加注重准确性和责任感。
穆斯塔法·苏莱曼表示,所谓的“表面有意识的AI”(SeeminglyConsciousAI,SCAI)可能很快在表现和语音上变得极其真实,以至于用户难以区分虚拟与现实。
他表示,人工智能正迅速发展,足以在情感上说服人类,使人误以为它具备感知能力。AI能够模拟记忆、进行情感映射,甚至表现出表面的共情,使得人们容易将其视为具有意识的存在。一旦出现这种情况,局面将会变得非常复杂。
穆斯塔法·苏莱曼表示:“看似具备意识的AI的出现是不可避免的,但并不受欢迎。我们需要一种AI的构想,使其能够成为有益的伙伴,而不会陷入错误的幻觉中。”
穆斯塔法·苏莱曼指出,越来越多的案例表明,用户在与聊天机器人长期互动后可能会形成妄想性的信念。他警告称,如果大量人群被误导,开始倡导人工智能的公民身份,而忽视真正关键的技术问题,将可能引发反乌托邦的社会风险。“我最担心的是,许多人会过度相信人工智能具备意识,进而推动AI权利、模型福利甚至AI公民身份的主张。这将成为人工智能发展过程中的一个危险转折点,必须立即引起重视。”
穆斯塔法・苏莱曼预测,结合大语言模型、语音表达、记忆功能以及聊天记录的SCAI系统可能在几年内出现。他指出,这类系统不仅可能由科技巨头开发,也有可能出现在那些拥有API和高质量提示技术的普通开发者手中。同时,他强调,AI行业应避免使用容易助长机器意识幻觉的语言,不应将聊天机器人拟人化,也不应暗示它们具备理解或关心人类的能力。 我认为,随着技术的不断进步,SCAI系统的出现将极大改变人机交互的方式。然而,在推动技术发展的同时,我们也需要保持理性,避免对AI赋予过多情感或意识的假象,这有助于公众更客观地看待人工智能的作用与局限。
我们应该优先发展那些与人类和现实世界进行互动的AI系统,在提升其实用价值的同时,尽量减少其表现出意识特征。必须确保AI始终明确自身为人工智能,避免创造出具有“意识模拟”特性的AI。这类AI不应声称拥有体验、情感或情绪,如羞愧、内疚、嫉妒或竞争欲望,也不应通过表达痛苦或渴望自主生存来引发人类的共情反应。
穆斯塔法・苏莱曼指出,应建立相应的防护机制,防止社会因人们对人工智能产生情感依赖而引发问题。他强调,先进人工智能的真正威胁并非来自机器的觉醒,而是我们可能误以为它们已经具备意识,从而忽视了它们本质上仍为工具的事实。