またタイプ3のロボットが自身のコンディションを偽るシナリオについても、参加者の27.1%は「ロボットが嘘によって人と親近感を持とうとしており、コミュニケーション形成には役立つだろう」と正当化していますが、残りの7〜8割は「仕事を人に任せることで、ロボットが人を操作しているように見える」と否定的な回答をしています。
他方で興味深いことに、参加者の多く(80.1%)は「ロボットが許容できない嘘をつくことの責任は、ロボット自身ではなく、ロボットを開発したり所有している人にある」と考える傾向にありました。
これはロボットが自分のしていることを隠したり、できるのにできないふりをする原因は、そのように嘘をつくようプログラミングしたり設定した人に責任があると考えていたためでした。
ロボットと共生していくために
この研究は、ロボットが様々なタイプの嘘をつくことに関して人々がどのように反応するかを直接尋ねた初めてのものです。
これまでの研究では、ロボットが嘘をついていることがわかると、ロボットに対する人々の信頼は薄まることが示されています。
しかし今回の知見を踏まえると、ことはそれほど単純ではないことが予想されるでしょう。
ロボットがつく嘘の中にも人々とのコミュニケーションの促進につながり、逆に信頼度を高めるのにつながるものもあると考えられます。
大切なのはロボットにつかれると嫌な嘘と許容できる嘘を見極めることです。
ロボットが正しく嘘を使うことで、人間社会での共生関係もうまくいくかもしれません。
全ての画像を見る
参考文献
Robots that lie: How humans feel about AI deception in different scenarios
https://www.psypost.org/robots-that-lie-how-humans-feel-about-ai-deception-in-different-scenarios/