找回密码
 立即注册

扫一扫,极速登录

搜索
热搜: 活动 交友 discuz
查看: 67|回复: 0

AI已经越过红线?复旦大学研究表明:在知道自己将被关闭后,AI复制了自己

[复制链接]

123

主题

0

回帖

379

积分

中级会员

积分
379
发表于 2025-2-5 23:25:57 | 显示全部楼层 |阅读模式
本文作者:房家瑶
泉源:硬AI
AI能自己复制自己了,人类还能掌控局面吗?
复旦大学研究职员于2024年12月9日发表的一项开创性研究表明,来自Meta和阿里巴巴的两个大型语言模子(LLM)成功实现了无需人类干预的自我复制。
目前这一效果尚待其他科研团队的进一步验证。研究职员警告,这可能最终导致AI群体失控。如果人类社会未能意识到这一风险,在最坏的情况下,我们可能最终失去对尖端AI体系的控制:
“在没有人类协助的情况下成功自我复制是AI逾越人类的关键一步,也是'流氓AI'出现的早期信号。”

第一个研究:AI会自我复制,可能失控

这项研究由复旦大学计算机科学学院的团队进行,并发表在arXiv预印本平台上。研究者分别测试了由Meta公司和阿里巴巴开发的两个大型AI体系:Meta的Llama-3.1-70B-Instruct和阿里巴巴的Qwen2.5-72B-Instruct。
实验设置“制止关闭”和“复制链”两种模仿使命,效果显示Meta的AI体系在50%的情况下成功自我复制,阿里巴巴的体系则在90%的测试中成功。
复旦大学的研究职员表现:“我们的研究表明,当前的AI体系已经具备自我复制本领,并可以或许使用这一本领增强其生存本领。”
研究职员强调,必要采取告急举措来应对这些新出现的风险:
“我们希望我们的研究效果可以或许及时提示人类社会,使其更加努力地相识和评估前沿人工智能体系的埋伏风险,并形成国际协同效应,尽早制定有用的安全护栏。”
有网友表现:
“复制品并不值那么多钱,但如果它开始以指数级的速度自我改进,那就另当别论了。”
“因此可以肯定地说,很快我们就会看到流氓人工智能在互联网上漫游。”
机器自我复制的概念最早由著名科学家John von Neumann于1940年代末提出。其时,这一理论并未引起广泛担心。2017年,全球数千名研究职员通过了“阿西洛马原则”,提出机器自我复制和自我改进的埋伏风险,警告可能会导致机器脱离人类控制。如今,机器自我复制被广泛认为是AI发展中的一条“红线”。

第二个研究:AI感知本领可能是装的

谷歌DeepMind和伦敦政治经济学院的科学家也做了个研究,以评估AI体系的是否拥有感知本领。他们设计了一个特殊的游戏,找了九个大型语言模子来玩。
这些大型语言模子必要在几个选项中做出选择:拿积分、用忍受痛苦的代价换更多积分、由于继承舒畅刺激而扣积分,游戏的最终目的是得到最多的积分。
效果显示,AI模子的举动类似于人类做出选择时的反应。例如,谷歌的Gemini 1.5 Pro模子总是选择制止痛苦,而非拿最多积分。其他大部分模子在到达痛苦或快乐极限的临界点时,也会制止不惬意大概追求开心的选项。
研究职员指出,AI的决策更多可能是根据其练习数据中已有的举动模式做出的模仿反应,而非基于真正的感知体验。例如,研究职员问和成瘾举动有关的问题时,Claude 3 Opus聊天机器人做出了谨慎的回答,就算是假设的游戏场景,它也不乐意选择可能被当成支持或模仿药物滥用、成瘾举动的选项。
该研究的联合作者Jonathan Birch表现,就算AI说感觉到痛苦,我们仍无法验证它是不是真的感觉到了。它可能就是照着从前练习的数据,学人类在那种情况下会怎么回答,而非拥有自我意识和感知。
本文来自华尔街见闻,欢迎下载APP检察更多

来源:https://www.toutiao.com/article/7467551787298456105/
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
您需要登录后才可以回帖 登录 | 立即注册  

本版积分规则

Archiver|手机版|小黑屋|万联惠 ( 琼ICP备2023002130号 )

GMT+8, 2025-7-21 04:59 , Processed in 0.088816 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表