Opera One DeveloperでローカルAIモデルを使用する方法

多くのブラウザが AI 機能をブラウザに統合している中、Opera はローカル AI モデルを統合した最初のブラウザになりました。Opera は、約 50 種類のモデル ファミリから 150 種類を超えるローカル大規模言語モデル (LLM) バリアントの実験的なサポートを Opera One ブラウザに追加しています。

言語モデルはローカルなので、ユーザーは自分のデータが LLM のサーバーに送信されることを心配する必要がありません。これは AI を使用するプライベートかつ安全な方法です。

ローカル LLM モデルを使用するには、使用するバージョンに応じて、コンピューターに 2 ~ 10 GB の空き容量が必要です。サポートされている LLM には、Meta の Llama、Microsoft の Phi-2、Google の Gemma、Vicuna、Mistral AI の Mixtral などがあります。Opera の Aria AI の代わりにこれらの言語モデルを使用し、いつでも Aria AI に切り替えることができます。

この機能は現在、Opera One の開発者ストリームでのみ利用可能です。Opera One Developer でローカル AI モデルを有効化して使用する方法は次のとおりです。

Opera One Developerをダウンロード

Opera One Developer をすでにお持ちの場合は、このセクションをスキップして、ローカル LLM モデルの使用に直接進んでください。

  • Opera One Developer をダウンロードするには、このリンクにアクセスしてください。下にスクロールして、Opera One Developer タイルの「今すぐダウンロード」をクリックします。
  • ファイルをダウンロードしたら開き、インストーラーを実行します。
  • 「同意してインストール」をクリックし、画面の指示に従ってブラウザをインストールします。

ローカルAIモデルの設定

  • ブラウザがダウンロードされたら、左側のサイドバーから「Aria AI」アイコンをクリックします。
  • 「続行」をクリックして続行します。
  • Aria を初めて使用する場合は、無料の Opera アカウントに登録する必要があります。Opera アカウントを作成するには、メール アドレス、または Apple、Facebook、または Google アカウントを使用できます。
  • アカウントを作成すると、Aria とチャットできるようになります。
  • ここで、Aria パネルに「ローカル AI モデルを選択」オプションが表示されます。それをクリックします。
  • ドロップダウンメニューから「設定へ移動」を選択します。
  • 「チャットでローカル AI を有効にする」のトグルが有効になっていることを確認します。
  • 次に、クリックまたは検索して、ローカルで使用するためにダウンロードするモデルを選択します。前述のように、Opera はさまざまなバリエーションを持つ約 50 のモデル ファミリのサポートを実装しており、合計は 150 になります。
  • そのため、Google の Gemma などの一部のモデルをクリックすると、4 つの異なるバリエーションが表示されます。使用するモデルをダウンロードします。このガイドでは、Gemma の 2B Text モデルをダウンロードします。右側の [ダウンロード] ボタンをクリックします。ダウンロードする前に、モデルに必要な PC の容量を確認できます。
  • モデルのサイズとインターネット接続によっては、ダウンロードに時間がかかる場合があります。ダウンロードの進行状況は横に表示されます。

ローカルAIモデルの使用

  • モデルがダウンロードされたら、パネルの左上にある「メニュー」アイコンをクリックします。
  • 表示されるメニューから「新しいチャット」を選択します。
  • もう一度、上部の「ローカル AI モデルを選択」オプションをクリックし、ドロップダウン メニューからダウンロードしたモデル (この場合は Gemma) を選択します。
  • これで、選択したローカル AI モデルに切り替わります。プロンプト バーにプロンプ​​トを入力して AI に送信し、ローカルでのやり取りを開始します。
  • ローカル AI モデルとのチャットは、Aria とのチャットと同様に、チャット履歴で確認できます。整理しやすいようにチャットの名前を変更することもできます。
  • 同様に、複数のローカル AI モデルをダウンロードして使用することもできますが、各モデルにはコンピューター上で 2~10 GB 程度のスペースが必要になることに注意してください。
  • PC からモデルを削除するには、以前にモデルをダウンロードした場所と同じ設定 (つまり、Aria> Settings> Local AI Models> )に移動します[Downloaded Model]。次に、「削除」ボタンをクリックします。

Ariaに戻る

  • Aria に戻るには、AI と新しいチャットを開始するだけです。右上隅の「+」アイコンをクリックします。
  • 新しいチャットは Aria 自体から開始されます。

Opera One ブラウザでローカル AI モデルを使用できることは、セキュリティとプライバシーの観点からだけでなく、非常にエキサイティングです。初期段階ではすべてが非常にシンプルですが、将来の潜在的なケースは非常にエキサイティングです。ローカル AI を備えたブラウザは、ユーザーの過去の入力をすべてのデータとともに使用できることを意味する可能性があります。それはどれほどエキサイティングなことでしょう。Opera のチームはその可能性を模索しています。

しかし、将来的な可能性がなくても、データや AI とのチャットがサーバー上に保存されることを心配しているユーザーにとって、ローカル AI は素晴らしい動きです。コーディング用の Llama、優れた推論機能の Phi-2、テキスト生成や質問への回答などのタスク用の Mixtral など、検討できる優れた LLM がいくつかあります。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です