
ウェブブラウザ企業Operaは本日、大規模言語モデル(LLM)をユーザーがローカルコンピュータにダウンロードして使用できるようにすると発表しました。この機能は、開発者向けストリームアップデートを配信しているOpera Oneユーザー向けに最初に展開され、ユーザーは50以上のファミリーから150以上のモデルを選択できるようになります。
これらのモデルには、MetaのLlama、GoogleのGemma、Vicunaが含まれます。この機能は、OperaのAI Feature Dropsプログラムの一環としてユーザーに提供され、ユーザーはAI機能の一部を早期に利用できるようになります。
同社によると、これらのモデルをコンピュータ上で実行するために、ブラウザでOllamaオープンソースフレームワークを使用しているとのことです。現在利用可能なモデルはすべてOllamaライブラリのサブセットですが、将来的には様々なソースからのモデルも含める予定です。

Opera社によると、各バージョンはローカルシステムで2GB以上の容量を消費するとのこと。そのため、ストレージ不足に陥らないよう、空き容量には注意が必要です。特に、Operaはモデルのダウンロード中にストレージを節約する処理を一切行いません。
「Operaは今回初めて、ブラウザ内で直接、幅広いサードパーティ製ローカルLLMへのアクセスを提供しました。これらのLLMは、それぞれのタスクに特化していくにつれて、サイズが縮小していくことが予想されます」と、OperaのバイスプレジデントであるJan Standal氏はTechCrunchへの声明で述べています。

この機能は、さまざまなモデルをローカルでテストする予定がある場合に便利ですが、スペースを節約したい場合は、Quora の Poe や HuggingChat など、さまざまなモデルを探索できるオンライン ツールが多数あります。
Operaは昨年からAIを活用した機能の開発に取り組んできました。同社は昨年5月にサイドバーに「Aria」というアシスタント機能をリリースし、8月にはiOS版にも導入しました。1月には、EUのデジタル市場法(DMA)がAppleに対し、モバイルブラウザへのWebKitエンジンの必須要件を撤廃するよう求めたことを受け、OperaはiOS向けに独自のエンジンを搭載したAI搭載ブラウザを開発中であると発表しました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
IvanはTechCrunchで世界の消費者向けテクノロジーの動向をカバーしています。インドを拠点とし、以前はHuffington PostやThe Next Webなどの出版物で勤務していました。
Ivan からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal の ivan.42 に暗号化されたメッセージを送信してください。
バイオを見る