むしろその頻度は人間よりも高いほどで、会話に積極的に参加しているような印象を与えました(論文p.3;Fig.2は不確かさ比較)。

これはAIが会話の流れをよく理解し、相手の話をしっかりと受け止めようとしていることを示しています。

一方で、問題となったのはChatGPTが特定のパターンの発言に強く偏ることでした。

その代表例が、「助言」や「世話焼き」の発言です。

例えば、親の役割を演じるAIは「注意身体(体に気をつけて)」「保暖(暖かくして)」など、お節介とも言えるような親の定型的なセリフを非常に頻繁に使いました。

実際にデータを詳しく見てみると、ChatGPTの「相手に何かを勧めるタイプの発言」のうち、こうした助言が占める割合は65.3%にも上りました。

一方で人間の親子の会話では、「最近なぜ電話してこないの?」のように間接的な問いかけをしたり、冗談交じりで注意をしたりと、もっと多様な表現を用います。

実際の助言の割合は、人間の会話ではわずか11.1%で、それ以外の発言は確認や依頼、断りなど多様な種類がバランスよく含まれていました。

またChatGPTは、相手に何かを約束するような「~するよ」といった表現(コミッシブ)も多用していました。

AIが生成した会話では、このような約束表現が全体の約15%にも達しました(論文p.24)。

それに対し人間同士の自然な会話では、このような明確な約束が占める割合はわずか0.4%にすぎませんでした。

人間は、日常的な会話であまり安易に約束をしないものですが、AIは「安心してもらおう」という配慮が行き過ぎてしまい、不自然に約束を繰り返す傾向があったのです。

研究者は、この傾向を「AIが定型的な安心表現に寄ってしまうため」と報告しています。

さらに人間の会話では、その場の雰囲気や話し手同士の個性が豊かに表れます。

例えば、家族間では互いの言葉遣いを真似してからかったり、ちょっとした言い間違いをネタにして笑い合ったり、家族だけに通じる昔話で盛り上がったりします。