もともと私たち人間は、周囲の話し方や言葉遣いに少なからず影響を受けるものです。
心理学には「権威バイアス(authority bias)」と呼ばれる現象があり、多くの人は知的で重要だと感じる相手ほど、その言動を無意識に模倣しやすいことが知られています。
研究者たちは「人間は自然と他者を模倣しますが、誰をも平等に真似するわけではありません。自分が知識がある、重要だと感じた相手ほど、その言葉遣いを真似しやすいのです」と説明しています。
今回の結果は、多くの人々がChatGPTというAIを、一種の知的な「権威」や言語のお手本と見なし始めている可能性を示唆しています。
だからこそ、ChatGPTが多用する語彙や口調が人々に伝染し、知らず知らずのうちに会話の中に取り入れられているのでしょう。
この現象は一見すると無害どころか、語彙が豊かになって知的な会話が増える良いことのようにも思えます。
しかし専門家たちはいくつかのリスクも指摘しています。
まず懸念されるのは、言語や文化の多様性の喪失です。
人々が皆こぞって同じAI由来の表現を使うようになれば、地域や個人による表現の違いが薄れ、言葉の画一化(ホモジニー)が進む恐れがあります。
研究チームはこれを「閉じた文化的フィードバックループ」と呼び、強く警鐘を鳴らしています。
これは、人間がAIの言葉遣いを真似し、その結果生まれた均一化した言語データで次世代のAIが再訓練されるという循環です。
この自己持続的なサイクルでは、AIが一部の文化的特徴を過剰に優遇して学習することで、多様性の侵食が加速しかねないと研究者らは警告します。
やや大げさに言えば、人類ははじめて人類以外の存在から言葉の話し方の影響を受けているからです。
たとえばChatGPTは現時点で主に英語を中心としたメジャーな言語で訓練されており、そうした言語の表現がグローバルに広まる一方で、マイナーな言語やスラングなどが駆逐されてしまう可能性も指摘されています。