●この記事のポイント ・SLM(小規模言語モデル)へのニーズが高まりつつあり、開発が活発化 ・大規模なLLMが抱える、レイテンシー、コスト、ネット接続に関する課題 ・個々のユーザー向けの限定したサービスを提供するには小規模言語モデルが必要

 米OpenAIが11日、新AIモデル「o3-pro」の提供を開始し、従来モデルの「o1-pro」「o3」よりも高い性能を発揮する点が注目されている。多くの有力テック企業がより高性能なLLM(大規模言語モデル)の開発にしのぎを削るなか、SLM(小規模言語モデル)へのニーズが高まりつつあるという。米グーグルや米IBMなどSLMをリリースする企業も増え、開発が活発化しつつあるが、背景には何があるのか。専門家の見解を交えて追ってみたい。

●目次

小規模な言語モデルをローカルで使いたいというニーズ

 米国のテック企業に加えて、DeepSeekやアリババ(Qwen)など中国勢の台頭も目覚ましいLLMの世界では、数千億~数兆個のパラメーターを擁する高性能なLLMの開発が進められている。だが、高負荷の処理のためにサーバーが大量の電力消費を必要としたり、レスポンス速度が遅くなったり、利用コストが高額になるといったデメリットも課題となっている。こうした課題を解消する言語モデルとしてにわかに注目されつつあるのが、SLMだ。

 現在、SLMの開発や利用は増えているのか。AI開発者で東京大学生産技術研究所特任教授の三宅陽一郎氏はいう。

「少しずつですが増加していると思います。小規模言語モデルのパラメーター数など規模に関する明確な基準はありませんが、LLMほど高い性能は求めず規模が小さいほど助かるという事業者は少なくありません。幅広い産業において小規模なLLMへの需要があります。

 背景としては、大規模なLLMは必ずしも使い勝手が良いわけではないということがあります。LLMはデータセンターのサーバー内に置かれて、ユーザーはそこにインターネット経由でトークンを投げて答えが返ってくるという仕組みですが、ネット接続ができなくなれば利用できません。また、レイテンシーの問題もあります。レスポンスが返ってくるまでに遅延が生じますし、レスポンスの速度が速かったり遅かったりと一定しないと、サービス提供側ははサービスのクオリティを維持するために工夫を強いられます。

 コストの問題もあり、LLMを通じてサービスを提供する側は利用頻度に応じてLLMの提供事業者にお金を払う必要があります。利用頻度はサービスを開始するまで完全には読み切れませんし、日によって異なることもあり、急激な増加には急激なコストが発生します。こうした点を踏まえると、LLMを使ってサービスを提供する事業者としてはビジネスモデルをつくるのに懸念があり、ビジネスレベルではある程度の余裕のある予算組みとサービス側で工夫を行うことが必要になっています。とはいえLLMの隆盛期にはLLMをラップした(内部に内蔵した)サービスの誕生と成長期でもあり、多数のサービスが乱立しました。その勢いが一段落した今、よりよい仕組みを求める時期に来たということもあります。

 そこで、小規模な言語モデルをネットを介さずにローカルで使いたい、自社のサーバーでコントールしたい、レイテンシーもあまり多く発生せずに使いたい、というニーズが増えています。例えば空港が施設内のサーバー内で言語モデルを動かしたり、お店やそのデパートに特化した言語モデルを使いたい、といったニーズです。よりユーザーに近いエッジ側に小規模な言語モデルを置いて高速に使いたいと考える事業者は多いのです。さらにエッジ側とサーバー側を併用できれば、反射的な会話はローカルで、より本質的な議論はリモートで行うことも可能です。

 そもそも、あらゆるケースで言語モデルに何もかも答えてもらう必要があるわけではありません。例えば東京・渋谷の道案内を提供するサービスがあったとして、そこで使われる言語モデルは、渋谷に関する地理的な知識だけが求められるわけで、政治や地球温暖化や相対性理論に関する知識はいらないわけです。本来は大規模な言語モデルは必要ないのに、多額の利用料を払ってその言語モデルのほんの一部のみを使うということは避けたいでしょう。大規模言語モデルを独自にカスタマイズするのは少し苦労が多いですので、はじめから小さく限定したモデルを用意したいということで、SLMへのニーズが高まっていると考えられます」