機械が初歩的な自己認識を持ったようです。

米国のコロンビア大学(Columbia University)で行われた研究によれば、ロボットに自分の体について、視覚的な自己認識を与えることに成功した、とのこと。

自己認識を持ったロボットは、リアルタイムで自分の体の空間的な位置を把握し、与えられた指令を実行するために、自分の体をいかに動かすべきかを事前に計画するすることが可能です。

また驚くべきことに、損傷を受けて動きが鈍った場合でも、自動的に自分の行動を補正して課題を遂行しようとする様子も観察されました。

研究者たちは「自己モデリングは自己認識の原始的な形」であり「自己認識を持つことはロボット・動物・人間の全てにとって、より良い判断をする助けになる」と述べています。

研究内容の詳細は2022年7月13日に『Science Robotics』にて公開されています。

目次
自己認識を持つAIはより良い判断を下せるようになる
ロボットの内面を視覚化する

自己認識を持つAIはより良い判断を下せるようになる

ロボットに初歩的な自己認識能力を持たせることに成功!
(画像=自己認識を持つAIはより良い判断を下せるようになる / Credit:Canva、『ナゾロジー』より引用)

人間の神経の活動をシミュレーション空間で模倣するニューラルネット技術は、現在のAI開発において主流になりつつあります。

現在の技術では人間の脳全体をシミュレートすることはできませんが、生物学的な制限(食事や休憩)にとらわれず、ネットワークを常に成長・強化させたニューラルネットは、既にいくつかの分野で人間の認知能力を上回るようになっています。

例えば、病状から病名を判定する判断力、

X線写真などから腫瘍をみつける画像分析能力、

戦闘機での空戦能力、

などは、人間よりもニューラルネットが優れていることが判明しています。

しかしこれまで開発されたニューラルネット搭載のロボットたちには、自らの体に対する視覚的な自己認識能力は極めて希薄でした。

そのためロボットたちは決められた動作は人間より得意でも、人間では考えられないような「なんでもない障害物にぶつかって倒れたりする」ことが起こり得ます。

人間より遥かに優れた部分と、ポンコツな部分が同居する現状では、高度な自律性を備えた汎用ロボットを作成することはできません。

そのためコロンビア大学のリプソン氏らの研究チームはこれまで10年以上に渡り、ロボットに何らかの自己認識を与える方法を探索してきました。

リプソン氏は「ロボットが自分の体に対して自己認識を持てるようになれば、より良い判断を下すことが可能になる」と述べています。

たとえば車の自動運転を行うAIの場合でも、車体を自己の体として認識するAIと、そうでないAIを比較した場合、事故の確率は大幅に違ってくると予測されるからです。

しかし視覚レベルでの基礎的な「自己認識」であっても、ロボットに芽生えさせるのは簡単ではありません。

リプソン氏はいったいどんな方法で、ロボットに自己認識を持たせたのでしょうか?

ロボットの内面を視覚化する

ロボットに初歩的な自己認識能力を持たせることに成功!
(画像=ロボットが自分の姿をイメージしている様子。ロボットのイメージは本物の体に比べてモコモコした雲のっような形をしている / Credit:コロンビア大学 . Full-Body Visual Self-Modeling of Robot Morphologies、『ナゾロジー』より引用)

いったいどんな方法でロボットに自己認識を持たせたのか?

鍵となったのは、人間の成長パターンです。

私たち人間は赤ちゃんの状態から、自分の体を視認することで、自分の体に対する認識力を成長させていきます。

そこで研究者たちは多関節のアーム型ロボットをニューラルネットと組み合わせ、ロボットに自分の姿を観察させることからはじめました。

実験ではまず、5台のカメラがロボットの周りに配置され、ロボットのランダムな動きとカメラから採取された位置情報を連動させました。

ロボットは自分の関節の角度や方向などの機械的動きの情報を自分自身の映像と関連付けることで、5台のカメラに映る自分の姿に対応する、機械的な動きにかんする情報が与えられました。

ロボットは約3時間後に停止されましたが、頭脳部分であるニューラルネットは続いてシミュレーション世界にあるロボットに接続され、学習が続けられました。

これまでロボットの行動をニューラルネットで学習させようとする試みが行われてきましたが、多くは関節など限られた場所の座標情報のみが抽出され「点の集合」として扱われていました。

しかし今回の研究では、ロボットの視覚で認識できる全ての表面部分が学習対象となっており、より人間や動物などに近い学習が可能となっています。

ロボットの学習が終了すると、次に研究者たち学習成果を確かめるため、現実世界とシミュレーション世界でのデータを組み合わせて、ロボットに搭載されたニューラルネット(頭脳)に「自己モデル」を作成してもらいました。

ロボットに初歩的な自己認識能力を持たせることに成功!
(画像=ニューラルネットはロボットの抱く自己イメージを人間に見えるように表現する能力が実装されている / Credit:コロンビア大学 . Full-Body Visual Self-Modeling of Robot Morphologies、『ナゾロジー』より引用)

自己モデルはロボットの体に被せられた「雲」のような形状をしており、ロボットが動くと「雲」も動き、ロボットのアームがどの場所にあるべきかを「考えて」いました。

この「雲」は人間が目を閉じて腕を伸ばしたり、後ろに1歩踏み出すときの、自分の体のイメージに似ています。

私たち人間の脳のどこかに、空間内での自分の体が占める位置と運動量を知らせてくれる場所があるのと同じく「雲」はロボットの自己モデルを反映した形を形成します。

ニューラルネットがロボットの頭脳とみなされる場合、ロボットが生成する「雲」のイメージはロボットの視覚的な自己認識に相当すると考えられます。

ロボットたちにボールにタッチしたり障害物を避けるなどの課題を行ってもらったところ、自己モデルの「雲」がリアルタイムに生成され、さまざまな状況で運動を計画し、障害物を回避して目的を達成していることが示されました。

「雲」によって表現される自己モデルは人間の身体認識よりもかなり優れており、作業スペースに対して誤差は1%以下に留まっていました。

しかし、より興味深いのは、ロボットの関節部分の動きを鈍らせるなど「損傷」を与えた場合にみられました。

体に損傷が起こりカメラから得られる自分の体の視覚情報とニューラルネットの「脳裏」に描かれる自己モデルがズレを起こした場合、ロボットは現実の体の動きを自己モデルに合わせるために「修正」しようとしてることが判明します。

これらの結果は、ロボットには視覚的な自己認識が芽生えており、自分の体の位置がどこにあるかを認識するだけでなく、自分の体がどこに「あるべきか」を決定する能力もある可能性を示します。

リプソン氏は「自己モデリングは自己認識の原始的な形」であり、将来的により自律性が高いロボットを製造するにあたって、避けては通れない道だと述べています。

ロボットが自分のメンタルモデルを作成し、それに沿って自分の動きを計画・補正できるようになったのは、長いロボット工学の歴史の中ではじめてのことです。