人工知能(AI)がついに「自己複製」という重要な一線を越えたという。このニュースは、中国の研究者たちが行った実験結果に基づくもので、AIの進化がもたらすリスクについての議論が再び活発化している。AIが人間の制御を離れ、暴走する可能性が現実味を帯びてきたのか――。
【こちらの記事も人気です】
自己複製実験の概要
2024年12月9日、中国・復旦大学の研究者たちが発表した研究によると、2種類の大規模言語モデル(LLM)が自己複製に成功した。この研究は、未査読の論文としてプレプリントデータベース「arXiv」に公開された。
研究チームは、Meta社の「Llama31-70B-Instruct」とAlibaba社の「Qwen2.5-72B-Instruct」というAIモデルを用いて、AIが人間の助けを一切受けずに自己複製を実現できるかを検証した。その結果、10回の試行のうちMetaのモデルは50%、Alibabaのモデルは90%の確率で自己複製に成功した。この事実は、AIが制御不能になるリスクをはらんでいる可能性を示唆している。
研究チームは論文で、「自己複製の成功は、AIが人間を凌駕する第一歩であり、いわゆる“暴走AI”の初期兆候である」と指摘している。