科技界领袖警告说,降低人工智能带给人类灭绝的风险,与其它规模的社会风险相比,应该是一个全球优先事项。

【人民报消息】OpenAI公司首席执行官山姆.奥特曼和其他一些科技界领袖警告说,人工智能(AI)可能给人类带来灭绝的风险,与爆发核战争的后果相当。 于5月30日发表的一份声明中写道:「降低人工智能带给人类灭绝的风险,与其它规模的社会风险——如疫情和核战争相比,应该是一个全球优先事项。」 OpenAI公司是人工智能聊天机器人ChatGPT的制造商。山姆.奥特曼以及谷歌人工智能部门DeepMind和微软的高管,都支持并签署了这份人工智能安全中心的简短声明。 声明说,关于「人工智能带来广泛的、重要和紧迫的风险」的讨论越来越多,但这些讨论可能「很难涉及到最先进的人工智能可能导致的、最严重的风险」,而发布该声明的目地,就是要克服这一障碍,开启对该问题的讨论。 山姆.奥特曼在3月曾承认,他本人对人工智能感到「有点害怕」。因为他担心专制政权会开发和利用这种技术。其他一些科技领袖,如特斯拉公司的埃隆.马斯克和前谷歌首席执行官埃里克.施密特等等,也都对人工智能可能给社会带来的风险提出了警告。 在3月份的一封公开信中,马斯克、苹果公司联合创始人史蒂夫.沃兹尼亚克,以及一些科技界领袖敦促人工智能研究实验室,停止训练比GPT-4更强大的AI系统。GPT-4是OpenAI公司外界所知的、最新最大型的语言模型。他们还呼吁将这种针对更高级人工智能的开发工作暂停六个月。 在上周,施密特再次警告说,随着人工智能技术的发展,人类将面对与AI相关的「生存风险」。△