据财经网科技报道,最近,上海复旦大学的科学家在一项研究中发现,至少有两种已知的AI大型语言模型能够在没有人类干预的情况下实现自我繁殖。科学家强调,这是AI智胜人类的重要一步,也是流氓AI出现的早期信号,是AI系统的红线风险之一。
原微博链接>>>
研究中,科学家测试了Meta的Llama和阿里巴巴的通义大模型。结果发现,在已知自己被关闭或禁止复制的情况,这两种模型仍然能够以分别50%和90%的情况下创建自己的副本,即AI会自我繁殖以继续执行相同的任务。
在自我复制过程中,AI自己可以研究环境,制定计划,并适应新出现的障碍,无需人工干预,这种能力可能会让人类失去对AI的控制,AI可以利用这种能力提高生存能力,并做出违背人类利益的事情。科学家呼吁加强国际合作制定预防措施。