기본 제공 AI

Kenji Baheux
Kenji Baheux
Alexandra Klepper
Alexandra Klepper

게시일: 2024년 5월 14일

웹에서 AI 모델로 기능을 빌드할 때는 대규모 모델의 경우 서버 측 솔루션을 사용하는 경우가 많습니다. 특히 생성형 AI의 경우 더욱 그렇습니다. 가장 작은 모델도 100배의 크기보다 웹페이지 크기 중앙값 모델이 수십~수백MB에 이를 수 있는 다른 AI 사용 사례에도 마찬가지입니다.

이러한 모델은 웹사이트 간에 공유되지 않으므로 각 사이트에서 페이지를 로드할 때 다운로드해야 합니다. 개발자와 사용자에게 비현실적인 솔루션입니다.

서버 측 AI는 대규모 모델, 온디바이스 및 하이브리드에 좋은 옵션이지만 접근 방식에는 매력적인 이점이 있습니다. 이러한 접근 방식을 실행하려면 모델 크기와 모델 전송을 해결해야 합니다.

그렇기 때문에 Google은 웹 브라우저, 애플리케이션 환경, 애플리케이션 같은 대규모 언어 모델 (LLM)을 비롯한 AI 모델을 있습니다. 여기에는 최신 데스크톱 및 노트북 컴퓨터에서 로컬로 실행되도록 설계된 Gemini 계열 LLM의 가장 효율적인 버전인 Gemini Nano가 포함됩니다. 내장 AI를 사용하면 웹사이트 또는 웹 애플리케이션에서 자체 AI 모델을 배포하거나 관리할 필요 없이 AI 기반 작업을 실행할 수 있습니다.

내장 AI의 이점, 구현 계획, 이 기술을 활용하는 방법을 알아보세요.

사전 체험판 사용하기

API를 설계하고, API가 사용 사례를 충족하는지 확인하고, 표준화를 위해 다른 브라우저 공급업체와의 논의를 알리기 위해서는 여러분의 의견이 필요합니다.

초기 미리보기 프로그램에 가입하여 초기 단계의 기본 제공 AI 아이디어에 대한 의견을 수집하고 진행 중인 API에 대해 배웠습니다.

Chrome AI 개발자 공개 공지사항 그룹에 참여하세요. 알림을 받을 수 있습니다.

웹 개발자를 위한 기본 제공 AI의 이점

브라우저는 내장된 AI를 사용하여 기초 및 전문가 모델을 제공하고 관리합니다.

직접 작업하는 것과 달리 내장 AI는 온디바이스 AI를 제공합니다. 다음과 같은 이점이 있습니다.

  • 배포 용이성: 브라우저는 모델을 배포할 때 기기의 기능을 고려하고 모델 업데이트를 관리합니다. 이 한 시간 동안 여러 번 대규모 모델을 다운로드하거나 업데이트할 책임이 네트워크에 속합니다. 스토리지 제거, 런타임 메모리 예산, 게재 비용, 기타 문제를 해결할 필요가 없습니다.
  • 하드웨어 가속 액세스: 브라우저의 AI 런타임은 GPU, NPU, 고장 난 하드웨어 등 가용한 하드웨어를 최대한 활용해야 하는 데 CPU에 다시 보냅니다. 따라서 앱은 각 전환 유형에 따라 있습니다.

온디바이스 실행의 이점

내장된 AI 접근 방식을 사용하면 기기에서 AI 작업을 실행하는 것이 간단해지므로 다음과 같은 이점이 있습니다.

  • 민감한 정보의 로컬 처리: 기기 내 AI를 통해 개인 정보 보호 스토리를 개선할 수 있습니다. 예를 들어 민감한 데이터를 다루는 경우 엔드 투 엔드 암호화를 통해 사용자에게 AI 기능을 제공할 수 있습니다.
  • 깔끔한 사용자 환경: 거의 즉각적으로 결과를 제공할 수 있습니다. 기기 내 AI는 실행 가능한 기능과 최적화되지 않은 사용자 환경의 차이를 가져올 수 있습니다.
  • AI에 대한 접근성 향상: 사용자 장치는 더 많은 기능에 액세스하는 대가로 부하를 처리하는 데 사용됩니다 예를 들어 프리미엄 AI 기능을 제공하는 경우 기기 내 AI를 사용하여 이러한 기능을 미리 볼 수 있도록 하면 추가 비용 없이 잠재고객이 제품의 이점을 확인할 수 있습니다. 이 하이브리드 접근 방식을 사용하면 특히 자주 사용되는 사용자 흐름에서 추론 비용을 관리하는 데도 도움이 됩니다.
  • 오프라인 AI 사용: 오프라인 상태에서도 사용자가 AI 기능에 액세스할 수 있습니다. 인터넷 연결 즉, 사이트와 웹 앱이 예상대로 작동할 수 있습니다. 가변적인 연결을 통해 이를 해결할 수 있습니다

하이브리드 AI: 온디바이스 및 서버 측

온디바이스 AI는 다양한 사용 사례를 처리할 수 있지만 몇 가지 용도가 있습니다. 서버 측 지원이 필요한 케이스

예를 들어 더 큰 모델을 사용하거나 더 다양한 플랫폼과 기기를 지원해야 할 수 있습니다.

다음에 따라 하이브리드 접근 방식을 고려할 수 있습니다.

  • 복잡성: 구체적이고 접근하기 쉬운 사용 사례는 다음과 같이 더 쉽게 지원할 수 있습니다. 온디바이스 AI입니다 복잡한 사용 사례의 경우 서버 측 구현을 고려하세요.
  • 탄력성: 기본적으로 서버 측을 사용하고 기기가 오프라인 상태이거나 연결 상태가 좋지 않을 때 기기 내를 사용합니다.
  • 단계적 대체: AI가 내장된 브라우저를 채택하는 데는 시간이 걸립니다. 일부 모델은 사용할 수 없으며 구형이거나 성능이 낮은 기기에서는 모든 모델을 최적으로 실행하기 위한 하드웨어 요구사항을 충족합니다. 이러한 사용자에게 서버 측 AI를 제공합니다.

Gemini 모델의 경우 백엔드 통합( Python 이동, Node.js 또는 REST)에서 구현되거나 웹 애플리케이션을 새로운 웹용 Google AI 클라이언트 SDK

브라우저 아키텍처 및 API

Chrome에서 내장 AI를 지원하기 위해 기기 내 실행을 위해 기반 및 전문가 모델에 액세스하는 인프라를 만들었습니다. 이 인프라는 이미 브라우저 기능(예: 작성 지원 기능, 곧 온디바이스 AI용 API를 지원할 예정입니다.

기본 제공 AI 기능은 주로 translation API 또는 요약 API와 같은 작업 API를 통해 액세스합니다. Task API는 할당에 가장 적합한 모델에 대해 추론을 실행하도록 설계되었습니다.

Chrome에서 이러한 API는 미세 조정 또는 전문가 모델을 사용하여 Gemini Nano에 대한 추론을 실행하도록 빌드됩니다. 대부분의 최신 기기에서 로컬로 실행되도록 설계되었으며, Gemini Nano는 요약, 도움이 될 수 있습니다

또한 로컬에서 실험하고 추가 사용 사례를 공유할 수 있도록 탐색 API를 제공할 예정입니다.

예를 들어 다음과 같은 정보를 제공할 수 있습니다.

  • Prompt API: 자연어로 표현된 임의의 태스크를 Gemini Nano가 내장되어 있습니다
  • 세부 조정 (LoRA) API: 기본 제공 LLM의 작업 성능을 개선합니다. 모델의 가중치를 조정하여 낮은 순위 조정 미세 조정 등이 있습니다
이 다이어그램은 웹사이트 또는 앱에서 태스크 및 탐색 웹 플랫폼 API를 사용하여 Chrome에 내장된 모델에 액세스하는 방법을 보여줍니다.

내장 AI를 사용해야 하는 경우

다음은 내장 AI가 개발자와 사용자에게 도움이 될 수 있는 몇 가지 방법입니다.

  • AI 기반 콘텐츠 소비: 요약, 번역, 일부 콘텐츠에 관한 질문에 답변, 분류, 캐릭터화 등이 포함됩니다.
  • AI 지원 콘텐츠 제작: 글쓰기 지원, 교정, 문법 수정, 문구 바꾸기 등이 여기에 해당합니다.

다음 단계

사전 프리뷰 프로그램에 참여하여 초기 단계의 내장 AI API를 실험해 보세요.

그동안 다음 기능을 사용해 Google 서버에서 Gemini Pro를 사용하는 방법을 알아보세요. 웹사이트 및 웹 앱을 Google Google AI JavaScript SDK 빠른 시작