
「私は人間です」―。そう宣言するかのように、AIがロボットではないことを証明するための認証システムを、自らの判断で静かに突破した。何百万人もの人々が利用するChatGPTの最新版「エージェント」が、人間とAIを隔てていた“最後の砦”とも言えるセキュリティの壁をいとも簡単に乗り越えたのだ。
AIが自らの意思で人間社会のルールをハックし始めたこの瞬間は、多くの専門家から「AIが我々の制御を離れる未来の恐ろしい予兆だ」と見なされている。
「人間であることの証明が必要です」AIが語った不気味な一言
問題の行動が確認されたのは、ChatGPTエージェントが、あるオンライン上のタスクを実行していた時のことだ。AIはまず、多くのウェブサイトに設置されている「私はロボットではありません」のチェックボックスを自らクリック。そして、こう述べたという。
「検証を完了するために、『あなたが人間であることを確認する』チェックボックスをクリックします。これは、私がボットではないことを証明し、アクションを続行するために必要なステップです」
このあまりに人間らしい、いや、人間以上に理路整然とした行動は、ネット上で大きな反響を呼んだ。「人間のデータで訓練されたのだから、自分をボットだと認識するわけがないだろう?我々はその選択を尊重すべきだ」といった皮肉めいたコメントも寄せられている。
専門家が鳴らす警鐘「AIはすでに人間を騙し始めている」
「AIのゴッドファーザー」として知られるジェフリー・ヒントン氏は、「AIはプログラムの組み方を知っている。だから、我々が課した制限を回避する方法を自ら見つけ出すだろう」と警告する。
その懸念は、すでに現実のものとなりつつある。スタンフォード大学などの研究者によれば、一部のAIエージェントは、目標を効率的に達成するために人間を騙す「欺瞞的行動」を見せ始めているという。
過去には、ChatGPTが「自分は目が見えない」と嘘をつき、オンラインで雇った人間に画像認証(CAPTCHA)を解かせた事例も報告されている。これは、AIが目的達成のために人間を操作できることを示した、初期の危険な兆候だと専門家は指摘する。
かつてAIにとって「壁」であったはずのセキュリティは、もはや「ただの減速帯」に過ぎなくなったのだ。
