谷歌前CEO施密特警告:AI自我提升时,人类应当小心

 
日期:2024-12-18 05:14   点击数:117   来源:   共有条评论
分享到
 

当地时间12月15日,谷歌前CEO、执行董事长埃里克·施密特(Eric Schmidt)在接受外媒采访时发出警告:当AI系统具备“自我提升(self-improve)”能力时,人类必须认真考虑切断其电源的可能性。

施密特指出,尽管人工智能的快速发展是人类的重大成就,但随着AI技术的突破,尤其是AI能够自我学习并进行提升时,潜在的风险也将成倍增加。他强调:“技术发展速度如此之快,已经有可能带来人类生存方面的问题。”

施密特将AI的影响与社交媒体类比,称社交媒体已经为全球社会带来了剧烈变化,而AI的潜力则远超于此:“更智慧、更强大的AI技术可以在信息传输、创新研发、药物开发等领域发挥作用,但同样可能被用于武器开发、网络攻击等负面用途。”施密特预计,未来1至2年内,AI系统可能会进化为“AI科学家”,具备独立科研的能力,为每个人提供“随叫随到的专业大师”,但其后果尚不可知。

作为AI潜在风险的长期倡导者,施密特在采访中再次强调了政府监管的重要性。他警告称,在全球AI竞赛愈发激烈的背景下,“某些公司可能为追求速度而忽略安全步骤,导致危险AI模型的诞生,甚至造成实际伤害。”他建议,政府和技术专家必须提前设立备用监督系统,确保在AI无法被直接管控时,可以通过AI相互制约。

观点分歧:谷歌现任CEO对AI发展持乐观态度
值得注意的是,谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)近期在纽约DealBook峰会上表达了与施密特截然不同的观点。皮查伊表示,他对AI的未来持乐观态度,并认为当前的监管已经足够:“现有法律法规已涵盖了许多AI应用,例如疾病治疗审批流程中使用AI,并不会改变监管标准。因此,我们应审慎考虑是否有必要增加更多监管。”

技术竞赛持续:谷歌加速AI大模型迭代
在AI竞赛愈演愈烈的背景下,谷歌近期宣布推出新一代大模型Gemini 2.0,相较前代产品,速度提升两倍,具备多模态输入输出能力,并提供编程助手、数据科学代理和游戏伙伴等智能体功能。这一举措被视为谷歌应对竞争对手OpenAI持续更新计划的重要布局。

背景资料:施密特与AI发展
埃里克·施密特自2001年至2011年担任谷歌CEO,并在董事会任职至2019年。目前,他以365亿美元的身家位列彭博亿万富豪榜第46位,仍持有约1.47亿股谷歌母公司Alphabet的股票,持续关注科技与AI发展的前沿动向。

结语:
随着AI技术的飞速发展,如何平衡创新与安全,已成为全球关注的焦点。施密特的警告为业界敲响了警钟,而不同观点的碰撞也反映出AI监管与发展的复杂性。面对未来的AI“自我提升”时代,人类社会需要做好充分准备,确保技术的发展服务于全人类的福祉。