Chrome の組み込みモデル管理について

公開日: 2025 年 10 月 21 日

Gemini Nano を搭載した組み込みの AI 機能は、ユーザーとデベロッパーの両方にとってシームレスに利用できるように設計されています。組み込みの AI API を使用すると、モデル管理はバックグラウンドで自動的に行われます。このドキュメントでは、Chrome が Gemini Nano モデルのダウンロード、更新、削除を処理する方法について説明します。

初期モデルのダウンロード

ユーザーが Chrome をダウンロードまたは更新すると、Gemini Nano はオンデマンドでダウンロードされ、Chrome がユーザーのハードウェアに適したモデルをダウンロードするようになります。最初のモデルのダウンロードは、Gemini Nano に依存する任意の組み込み AI API*.create() 関数(Summarizer.create() など)の最初の呼び出しによってトリガーされます。この場合、Chrome は一連のチェックを実行して、最適な対応を判断します。まず、Chrome は代表的なシェーダーを実行して、デバイスの GPU パフォーマンスを推定します。これらの結果に基づいて、次のいずれかを決定します。

  • より高性能な Gemini Nano バリアント(4B パラメータなど)をダウンロードします。
  • より小さく効率的な Gemini Nano バリアント(2B パラメータなど)をダウンロードします。
  • デバイスが個別の静的要件を満たしている場合は、CPU ベースの推論にフォールバックします。デバイスがハードウェア要件を満たしていない場合、モデルはダウンロードされません。

ダウンロード プロセスは復元力があるように構築されています。

  • インターネット接続が中断された場合は、接続が回復すると、中断したところからダウンロードが再開されます。
  • ダウンロードを開始したタブが閉じられた場合、ダウンロードはバックグラウンドで続行されます。
  • ブラウザが閉じられた場合、30 日以内にブラウザが開かれれば、ダウンロードは次回再起動時に再開されます。

availability() を呼び出すと、モデルのダウンロードがトリガーされることがあります。これは、新しいユーザー プロファイルの起動直後に通話が行われ、Gemini Nano による不正検出機能が有効になっている場合に発生します。

LoRA 重みのダウンロード

Proofreader API などの一部の API は、ベースモデルに適用されて機能を特化させる Low-Rank Adaptation(LoRA)の重みに依存しています。API が LoRA に依存している場合、LoRA の重みはベースモデルとともにダウンロードされます。他の API の LoRA 重みは、事前にダウンロードされません。

自動モデル更新

Gemini Nano モデルのアップデートは定期的にリリースされます。Chrome は、ブラウザの起動時にこれらのアップデートを確認します。また、Chrome は LoRA 重みなどの補足リソースの更新を毎日確認します。JavaScript からモデル バージョンをプログラムでクエリすることはできませんが、chrome://on-device-internalsインストールされているバージョンを手動で確認することはできます。更新プロセスは、シームレスで中断のないように設計されています。

  • Chrome は、新しいバージョンをバックグラウンドでダウンロードしながら、現在のモデルで動作を続けます。
  • 更新されたモデルがダウンロードされると、ホットスワップされます。つまり、モデルはダウンタイムなしで切り替えられます。新しい AI API 呼び出しでは、新しいモデルがすぐに使用されます。注: スワップの瞬間に実行されているプロンプトが失敗する可能性があります。
  • アップデートは部分的なダウンロードではなく、新しいモデルの完全なダウンロードです。これは、モデルの重みがバージョン間で大きく異なる可能性があり、そのような大きなファイルの差分を計算して適用すると処理が遅くなる可能性があるためです。

更新には、初回ダウンロードと同じ要件が適用されます。ただし、モデルがすでにインストールされている場合は、初期ディスク容量のチェックはスキップされます。LoRA の重みを更新することもできます。LoRA 重みの新しいバージョンを既存のベースモデルに適用できます。ただし、新しいベースモデル バージョンには常に新しい LoRA 重みセットが必要です。

モデルの削除

Chrome は、ユーザーのディスク容量が不足しないように、ディスク容量を積極的に管理しています。デバイスのディスク空き容量が一定のしきい値を下回ると、Gemini Nano モデルは自動的に削除されます。また、企業ポリシーでこの機能が無効になっている場合や、ユーザーが 30 日間他の利用資格条件を満たしていない場合も、モデルは削除されます。対象条件には、API の使用状況やデバイスの機能が含まれる場合があります。削除プロセスには次の特徴があります。

  • モデルは、実行中のプロンプトに関係なく、セッションの途中でもいつでも削除できます。つまり、セッションの開始時に利用可能だった API が突然利用できなくなる可能性があります。
  • モデルが削除された後、自動的に再ダウンロードされることはありません。新しいダウンロードは、*.create() 関数を呼び出すアプリによってトリガーされる必要があります。
  • ベースモデルが削除されると、関連する LoRA 重みも 30 日間の猶予期間後に削除されます。

モデル管理における役割

ユーザー エクスペリエンスを正しく理解するには、組み込みの AI モデルのライフサイクルを十分に理解することが重要です。モデルを一度ダウンロードすればよいというわけではありません。ディスク容量の圧迫によりモデルが突然消える可能性や、新しいバージョンがリリースされたときにモデルが更新される可能性も考慮する必要があります。これはすべてブラウザによって処理されます。

モデルのダウンロードに関するベスト プラクティスに沿って、初回ダウンロード、再ダウンロード、更新時のユーザー エクスペリエンスを向上させましょう。