首页 > 信息科技 > 正文

近400名大佬签署公开信警示AI风险,OpenAI创始人也在列

2023-05-31 20:50:22来源:经济观察网  

经济观察网 记者 任晓宁 美东时间5月30日,美国非营利组织人工智能安全中心(CAIS)在其官网发布一封联名公开信,称AI堪比“大流行病和核战争”,有可能给人类带来灭绝风险。

公开信只有一句话:“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”

目前已有超过370位AI大佬签署了上述联名公开信,包括OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人等。


(资料图)

图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也签署了这封公开信。

签署名单里也有中国学者的身影,包括中国工程院院士、清华大学智能产业研究院院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园。

名单主要以全球知名大学教授为主,其次是人工智能科学家,此外还有政界人士,比如爱沙尼亚共和国前总统Kersti Kaljulaid。

这个名单人数还在持续增加中。经济观察网记者在CAIS官网看到,人工智能科学家或名人(高管、教授、领导)都可提交签署声明,并收到确认邮件。

人工智能安全中心(CAIS)是一家位于美国旧金山的非营利组织。其官网称,他们相信,只要能够安全地开发和使用人工智能 (AI),就有可能使世界受益匪浅。然而,与人工智能取得的巨大进步相比,人工智能安全方面的许多基础问题尚待解决。他们的使命是通过开展安全研究、建立人工智能安全研究领域和倡导安全标准来降低与人工智能相关的社会规模风险。

今年3月,国外上千位知名人士也签署过公开信,警示AI风险。3月29日,特斯拉创始人埃隆·马斯克、图灵奖获得者Yoshua Bengio等人在非营利组织“生命未来研究所(Future of Life Institute)”网站上发布联名公告,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

目前,OpenAI已经暂停开发GPT-5。

Yoshua Bengio提到签署原因时说,这封公开信可以提醒学界和工业界:我们必须花时间更好地了解这些系统,并在国家和国际层面制定必要的框架,来增加对公众的保护。即使签署这封公开信造成的影响可能没有那么大,但是起码会掀起一场全社会的讨论。

在国外,由于ChatGPT应用更广泛,暴露的风险也逐渐增加。3月28日,据比利时媒体LaLibre报道,比利时30岁男子在与聊天机器人ELIZA密集交流数周后自杀身亡,ELIZA是由EleutherAI开发的开源人工智能语言模型。

5月22日,美国一张五角大楼附近地区发生爆炸的图片在社交媒体上疯传。这张虚假照片的广泛流传,甚至导致标普500指数短线下跌约0.3%至盘中低点,由涨转跌。随后美国国防部发言人证实,这是一张由AI生成的虚假图片,这张图具有明显的AI生成特征,比如路灯有些歪,围栏长在了人行道上等。

AI翻唱歌曲成为一种潮流后,控制全球音乐市场近三分之一份额的环球音乐,已经发函要求苹果、Spotify等流媒体平台封禁侵犯公司旋律、歌词版权的AI作品。

(责任编辑:冀文超 )

标签:

相关阅读

相关词

推荐阅读