実際に、世界には7000以上の言語があると言われていますが、その中でAIが高精度で扱える言語はごく一部です。
こうした状況は、AI時代における言語間の格差拡大にもつながる懸念があります。
さらに、「スケーラブルな操作(操作の大規模化)」のリスクも挙げられます。
もし特定の企業や組織が支配するAIが、意図的にある種の言葉遣いや価値観を押し出せば、それが人間社会に広まり、人々の考え方や議論の枠組みを間接的に操ることも理論上は可能になるからです。
今回の研究はそうした悪用を実証したわけではありませんが、AIが人間文化を再形成し得ることを示したことで、このリスクにも光が当てられています。
一方で、本研究には留意すべき点もあります。
分析対象は主に学術講演や知的な談話が中心であり、日常会話やカジュアルな口語表現で同様の変化が起きているかは十分に分かっていません。
また、言語は常に多くの社会的要因によって変化します。
ChatGPTの影響は確かに見られるものの、それだけが要因ではなく、他の流行やメディアの影響も並行して作用していることは念頭に置く必要があります。
さらに、今回特定された「GPTワード」は現行のChatGPT(GPT-3.5やGPT-4など)の特徴に基づくものです。
実際、他の大規模言語モデルでは語彙の選好が異なる可能性も指摘されており、今後はモデル間比較の研究が望まれます。
したがって、本研究の結果は「現時点でのChatGPT」の影響を捉えたものであり、AIと言葉の関係はこれからも動的に進化していくと考えられます。
研究チームは、人間がAI特有の言葉を無意識に取り入れることで、「人間とAIが相互に影響し合う新たな循環」が形成されていると指摘しています。
これは人類と言語の長い歴史の中でも前例のない現象です。
そのインパクトについて、シカゴ大学のジェームズ・エバンス教授(社会学・データ科学)は「LLMの我々のコミュニケーションへの影響を理解するには、現段階では単語の頻度分布を見るのが正しい方法だ」と評価しつつ、モデルが高度化すれば「語彙以外の文章構造や思考様式への影響も精査する必要がある」と指摘しています。