Data publikacji: 21 października 2025 r.
Wbudowane funkcje AI oparte na Gemini Nano zostały zaprojektowane tak, aby były łatwe w użyciu zarówno dla użytkowników, jak i deweloperów. Gdy korzystasz z wbudowanego interfejsu AI API, zarządzanie modelem odbywa się automatycznie w tle. W tym dokumencie opisujemy, jak Chrome obsługuje pobieranie, aktualizowanie i usuwanie modelu Gemini Nano.
Pobieranie modelu początkowego
Gdy użytkownik pobiera lub aktualizuje Chrome, Gemini Nano jest pobierany na żądanie, aby Chrome pobierał odpowiedni model dla sprzętu użytkownika.
Początkowe pobieranie modelu jest wywoływane przez pierwsze wywołanie *.create()
funkcji (np. Summarizer.create()
) dowolnego wbudowanego interfejsu AI API, który zależy od Gemini Nano. W takiej sytuacji Chrome przeprowadza serię testów, aby określić najlepszy sposób postępowania.
Najpierw Chrome szacuje wydajność GPU urządzenia, uruchamiając reprezentatywny shader. Na podstawie tych wyników podejmuje decyzję o tym, czy:
- Pobierz większy, bardziej zaawansowany wariant Gemini Nano (np. z 4 miliardami parametrów).
- Pobierz mniejszy, bardziej wydajny wariant Gemini Nano (np. z 2 miliardami parametrów).
- W przypadku spełnienia przez urządzenie oddzielnych wymagań statycznych wróć do wnioskowania opartego na procesorze. Jeśli urządzenie nie spełnia wymagań sprzętowych, model nie zostanie pobrany.
Proces pobierania jest odporny na błędy:
- Jeśli połączenie z internetem zostanie przerwane, pobieranie zostanie wznowione w miejscu, w którym je przerwano, po przywróceniu połączenia.
- Jeśli karta, która spowodowała rozpoczęcie pobierania, zostanie zamknięta, pobieranie będzie kontynuowane w tle.
- Jeśli przeglądarka zostanie zamknięta, pobieranie zostanie wznowione przy następnym uruchomieniu, o ile przeglądarka zostanie otwarta w ciągu 30 dni.
Czasami wywołanie funkcji availability()
może spowodować pobranie modelu. Dzieje się tak, gdy połączenie następuje krótko po uruchomieniu nowego profilu użytkownika i gdy aktywna jest funkcja wykrywania oszustw oparta na Gemini Nano.
Pobieranie wag LoRA
Niektóre interfejsy API, takie jak Proofreader API, korzystają z wag adaptacji niskiego rzędu (LoRA), które są stosowane do modelu podstawowego, aby specjalizować jego funkcje. Jeśli interfejs API zależy od LoRA, wagi LoRA są pobierane razem z modelem podstawowym. Wagi LoRA dla innych interfejsów API nie są pobierane proaktywnie.
Automatyczne aktualizacje modelu
Aktualizacje modelu Gemini Nano są publikowane regularnie. Chrome sprawdza dostępność tych aktualizacji przy uruchamianiu przeglądarki. Dodatkowo Chrome codziennie sprawdza dostępność aktualizacji zasobów dodatkowych, takich jak wagi LoRA. Nie możesz programowo wysyłać z JavaScriptu zapytań o wersję modelu, ale możesz ręcznie sprawdzić, która wersja jest zainstalowana na chrome://on-device-internals
.
Proces aktualizacji jest bezproblemowy i niezakłócający działania:
- Chrome działa w oparciu o bieżący model, a w tle pobiera nową wersję.
- Po pobraniu zaktualizowanego modelu następuje jego wymiana na gorąco, co oznacza, że modele są przełączane bez przestojów. Każde nowe wywołanie interfejsu AI API będzie od razu korzystać z nowego modelu. Uwaga: jeśli prompt działa w momencie zamiany, może się nie udać.
- Każda aktualizacja to pobranie nowego modelu w całości, a nie częściowe pobieranie. Dzieje się tak, ponieważ wagi modelu mogą się znacznie różnić w poszczególnych wersjach, a obliczanie i stosowanie różnic w przypadku tak dużych plików może być powolne.
Aktualizacje podlegają tym samym wymaganiom co początkowe pobieranie. Jeśli jednak model jest już zainstalowany, wstępne sprawdzanie miejsca na dysku jest pomijane. Wagi LoRA można też aktualizować. Nową wersję wag LoRA można zastosować do istniejącego modelu podstawowego. Nowa wersja modelu podstawowego zawsze wymaga jednak nowego zestawu wag LoRA.
Usuwanie modelu
Chrome aktywnie zarządza miejscem na dysku, aby użytkownik nie musiał się martwić o jego brak. Model Gemini Nano jest automatycznie usuwany, jeśli ilość wolnego miejsca na dysku urządzenia spadnie poniżej określonego progu. Model jest też usuwany, jeśli zasady firmowe wyłączają tę funkcję lub jeśli użytkownik nie spełnia innych kryteriów kwalifikacji przez 30 dni. Kryteria kwalifikacji mogą obejmować korzystanie z interfejsu API i możliwości urządzenia. Proces usuwania ma te cechy:
- Model można usunąć w każdej chwili, nawet w trakcie sesji, bez względu na uruchomione prompty. Oznacza to, że interfejs API, który był dostępny na początku sesji, może nagle stać się niedostępny.
- Po usunięciu model nie zostanie automatycznie pobrany ponownie. Nowe pobieranie musi być wywoływane przez aplikację, która wywołuje funkcję
*.create()
. - Gdy model podstawowy zostanie usunięty, powiązane z nim wagi LoRA również zostaną usunięte po 30-dniowym okresie karencji.
Twoja rola w zarządzaniu modelami
Dobre zrozumienie cyklu życia wbudowanego modelu AI jest kluczowe dla zapewnienia odpowiednich wrażeń użytkownika. Pobranie modelu to nie wszystko. Musisz też pamiętać, że może on nagle zniknąć z powodu braku miejsca na dysku lub zostać zaktualizowany, gdy pojawi się nowa wersja. Wszystkim zajmuje się przeglądarka.
Postępując zgodnie z sprawdzonymi metodami pobierania modelu, zapewnisz użytkownikom dobre wrażenia podczas pierwszego pobierania, ponownego pobierania i aktualizacji.