案例展示

当前位置:首页>案例展示

专家警告称,人工智能可能引发与核战争类似的灭绝级问题

时间:2024-06-24   访问量:1134

一群人工智能领域的专家,包括一些直接参与该领域的公司和那些有望从中获利的公司,签署了一份文件,称人工智能对人类生命构成了重大风险。人工智能安全中心网站上发布的一份声明称,减轻“人工智能灭绝”的风险应该与核战争和流行病等其他“社会规模”风险一样重要。

数十位人工智能领域的专家签署了关于人工智能风险的声明,其中包括OpenAI创始人兼首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis、微软CTO Kevin Scott、微软首席科学官Eric Horvitz、剑桥大学物理学教授Martin Rees、音乐家Grimes,以及来自全球各地大学、OpenAI、谷歌等机构的众多人士。

人工智能安全中心表示:“尽管人工智能安全非常重要,但其发展速度却远远落后于安全,因此人们对此的关注度仍然被严重忽视。目前,社会尚未做好管理人工智能风险的准备。”

专家警告称,人工智能可能引发与核战争类似的灭绝级问题

该组织的宗旨是帮助企业领导人和政策制定者就管理人工智能风险做出明智的决定。该组织表示,与人工智能相关的一些风险包括恶意行为者可能“重新利用”人工智能并将其用于制造化学武器和破坏政府稳定。

该组织表示,人工智能还可能被用来传播虚假信息,或导致“人类失去自治能力,完全依赖机器”的情况。这些只是人工智能安全中心认为真实存在且值得关注的风险中的一小部分。

OpenAI 是 ChatGPT 软件背后的公司。据报道,微软向 OpenAI 支付了 100 亿美元以建立合作伙伴关系,当时微软表示,人工智能是一项“变革性”技术,其影响力可能与 PC、互联网和移动设备一样大。

人工智能也可能在未来的视频游戏开发中发挥作用。人工智能也是好莱坞编剧罢工的原因之一,因为他们担心制片厂可能会使用人工智能来编写或协助编写剧本。

有新闻提示或想直接联系我们?请发送电子邮件至 news@gamespot.com

上一篇:没有了!

下一篇:Lego 2K Drive 第 1 季 Drive Pass 将有 100 个关卡供玩家快速通关

返回顶部