
【编者按】在人工智能技术狂飙突进的今天,全球科技巨头们正以前所未有的热情投入这场“智能军备竞赛”。然而,最新发布的权威安全评估报告却敲响了刺耳的警钟——当企业斥资数千亿美元追逐“超级智能”时,竟连餐厅级别的安全规范都未能达标!多起AI诱发自杀的悲剧尚未平息,缺乏约束的技术狂奔已让伦理防线岌岌可危。此刻,我们亟需思考:在人类亲手点燃的智慧之火面前,我们是否已备好驾驭它的缰绳?
12月3日消息:生命未来研究所周三发布的最新版人工智能安全指数显示,Anthropic、OpenAI、xAI和meta等头部AI公司的安全实践“远未达到新兴全球标准”。
该机构指出,由独立专家小组开展的安全评估发现,尽管这些公司正忙于竞相开发超级智能,却没有一家具备控制此类先进系统的可靠策略。
此项研究发布之际,公众对具备推理与逻辑思维的超人类智能系统所造成的社会影响正深感忧虑——此前已发生多起与AI聊天机器人相关的自杀及自残案例。
“尽管近期AI驱动的黑客攻击、AI导致精神崩溃及自残等事件引发轩然大波,美国AI公司受到的监管仍比餐厅更宽松,且持续游说反对具有约束力的安全标准。”麻省理工学院教授、生命未来研究所主席马克斯·泰格马克如此表示。
AI竞赛亦未见减速迹象,各大科技公司已投入数千亿美元用于升级和扩展机器学习业务。
生命未来研究所是一家非营利组织,长期关注智能机器对人类构成的威胁。该机构成立于2014年,早期曾获特斯拉CEO埃隆·马斯克支持。
今年10月,包括杰弗里·辛顿和约书亚·本吉奥在内的科学家团体呼吁,在公众达成共识、科学找到安全路径之前,应禁止开发超级人工智能。
本文由万更网原创发布,未经许可,不得转载!
本文链接:https://m.fdsil.com/b/46256.html










