「生成AIを使ってみたいけど入力した情報を学習されるのは嫌」という場合もあるでしょう。特にクリエイティブなお仕事をされている方の場合、AIによるアドバイスやアイデアは得たいけれど、自分の入力を学習されてしまうのは絶対で困る!という場合があるはず。

この場合、クラウドベースのAIではなく、自分のローカル環境上で動作するAIを使えば問題が解決します。自分のローカルに入力した情報ならば、クラウドを介して学習されたり他の人のアウトプットに自分の入力をベースとした内容が出てしまうこともありません。

実は、ブラウザ「Opera」は2024年4月に、ローカル上で大規模言語モデル(LLM)を利用できる機能を発表。つまり「Opera」さえ使っていれば、複雑な設定も不要でローカルでAIを使うことができるようになりました。主要ブラウザによる試みはこれがはじめて。Googleの「Gemma」、Mistral AIの「Mixtral」、Meta Platformsの「Llama」、オープンソースの「Vicuna」など計50種類を無料利用することが可能です。

そこで今回はOperaのローカルLLMの使い方をご紹介します。

OperaのローカルLLMなら学習されずにAIを利用可能

通常のAIはユーザーが入力したデータをサーバー側に送信しますが、OperaのローカルLLM機能はダウンロードしたLLMをユーザーのデバイス上で動かすため、データはクラウドには送信されません。

つまり、AIの従来の問題点だったプライバシー保護をカバーして、AIを利用することができるようになりました。なおローカル実行のため、手元のマシンの処理速度が遅くなる場合がある点には注意が必要です。また使用しているパソコンの性能が著しく低い場合、思うように生成できないこともあります。