기본 제공 AI

Kenji Baheux
Kenji Baheux

게시일: 2024년 5월 14일, 최종 업데이트: 2024년 11월 13일

웹에서 AI 모델로 기능을 빌드할 때는 대규모 모델의 경우 서버 측 솔루션을 사용하는 경우가 많습니다. 이는 생성형 AI의 경우 특히 그렇습니다. 생성형 AI에서는 가장 작은 모델도 중앙값 웹페이지 크기보다 약 1, 000배 더 큽니다. 모델이 수십~수백 메가바이트일 수 있는 다른 AI 사용 사례에도 마찬가지입니다. 이러한 모델은 웹사이트 간에 공유되지 않으므로 각 사이트에서 페이지를 로드할 때 다운로드해야 합니다. 이는 개발자와 사용자에게 실용적이지 않습니다.

Google은 대규모 언어 모델 (LLM)을 비롯한 AI 모델을 브라우저에 직접 통합하도록 설계된 웹 플랫폼 API 및 브라우저 기능을 개발하고 있습니다. 여기에는 최신 데스크톱 및 노트북 컴퓨터에서 로컬로 실행되도록 설계된 Gemini 계열 LLM의 가장 효율적인 버전인 Gemini Nano가 포함됩니다. 내장 AI를 사용하면 웹사이트 또는 웹 애플리케이션에서 자체 AI 모델을 배포하거나 관리할 필요 없이 AI 기반 작업을 실행할 수 있습니다.

내장 AI의 이점, 구현 계획, 이 기술을 활용하는 방법을 알아보세요.

사전 체험판 사용하기

API를 형성하고, API가 사용 사례를 충족하는지 확인하고, 표준화를 위해 다른 브라우저 공급업체와의 논의를 알리는 데는 여러분의 의견이 필요합니다.

사전 프리뷰 프로그램에 참여하여 초기 단계의 내장 AI 아이디어에 관한 의견을 제공하고 로컬 프로토타이핑을 통해 진행 중인 API를 테스트할 기회를 찾으세요.

Chrome AI 개발자 공개 공지사항 그룹에 가입하여 새 API를 사용할 수 있게 되면 알림을 받으세요.

웹 개발자를 위한 내장 AI의 이점

내장된 AI를 통해 브라우저는 기초 및 전문가 모델을 제공하고 관리합니다.

자체 클라이언트 측 AI를 빌드하는 것과 비교할 때 내장 AI는 다음과 같은 이점을 제공합니다.

  • 배포 용이성: 브라우저는 모델을 배포할 때 기기의 기능을 고려하고 모델 업데이트를 관리합니다. 즉, 네트워크를 통해 대규모 모델을 다운로드하거나 업데이트하는 것은 개발자의 책임이 아닙니다. 스토리지 제거, 런타임 메모리 예산, 게재 비용, 기타 문제를 해결할 필요가 없습니다.
  • 하드웨어 가속 액세스: 브라우저의 AI 런타임은 GPU, NPU 또는 CPU로 대체되는 등 사용 가능한 하드웨어를 최대한 활용하도록 최적화되어 있습니다. 따라서 앱은 각 기기에서 최상의 성능을 발휘할 수 있습니다.

클라이언트 측 실행의 이점

내장된 AI 접근 방식을 사용하면 클라이언트 측에서 AI 작업을 실행하는 것이 간단해지므로 다음과 같은 이점이 있습니다.

  • 민감한 정보의 로컬 처리: 클라이언트 측 AI를 통해 개인 정보 보호 스토리를 개선할 수 있습니다. 예를 들어 민감한 데이터를 다루는 경우 엔드 투 엔드 암호화를 통해 사용자에게 AI 기능을 제공할 수 있습니다.
  • 빠른 사용자 환경: 서버 왕복을 중단하면 거의 즉각적인 결과를 제공할 수 있는 경우도 있습니다. 클라이언트 측 AI는 실행 가능한 기능과 최적화되지 않은 사용자 환경의 차이를 가져올 수 있습니다.
  • AI에 대한 액세스 향상: 사용자 기기는 기능에 더 많이 액세스하는 대신 일부 처리 부하를 부담할 수 있습니다. 예를 들어 프리미엄 AI 기능을 제공하는 경우 클라이언트 측 AI를 사용하여 이러한 기능을 미리 볼 수 있으므로 잠재고객이 추가 비용 없이 제품의 이점을 확인할 수 있습니다. 이 하이브리드 접근 방식을 사용하면 특히 자주 사용되는 사용자 흐름에서 추론 비용을 관리하는 데도 도움이 됩니다.
  • 오프라인 AI 사용: 사용자가 인터넷에 연결되어 있지 않아도 AI 기능에 액세스할 수 있습니다. 즉, 사이트와 웹 앱이 오프라인 상태이거나 연결 상태가 가변적이더라도 정상적으로 작동할 수 있습니다.

하이브리드 AI: 클라이언트 측 및 서버 측

클라이언트 측 AI는 다양한 사용 사례를 처리할 수 있지만 서버 측 지원이 필요한 특정 사례가 있습니다.

서버 측 AI는 대규모 모델에 적합하며 더 다양한 플랫폼과 기기를 지원할 수 있습니다.

다음에 따라 하이브리드 접근 방식을 고려할 수 있습니다.

  • 복잡성: 접근하기 쉬운 구체적인 사용 사례는 기기 내 AI로 더 쉽게 지원할 수 있습니다. 복잡한 사용 사례의 경우 서버 측 구현을 고려하세요.
  • 탄력성: 기본적으로 서버 측을 사용하고 기기가 오프라인 상태이거나 연결 상태가 좋지 않을 때 기기 내를 사용합니다.
  • 원활한 대체: AI가 내장된 브라우저를 도입하는 데는 시간이 걸리고 일부 모델은 사용할 수 없으며, 이전 기기 또는 성능이 낮은 기기는 모든 모델을 최적으로 실행하기 위한 하드웨어 요구사항을 충족하지 못할 수 있습니다. 이러한 사용자에게 서버 측 AI를 제공합니다.

Gemini 모델의 경우 백엔드 통합 (Python, Go, Node.js 또는 REST 사용)을 사용하거나 새로운 웹용 Google AI 클라이언트 SDK를 사용하여 웹 애플리케이션에 구현할 수 있습니다.

브라우저 아키텍처 및 API

Chrome에서 내장 AI를 지원하기 위해 기기 내 실행을 위해 기반 및 전문가 모델에 액세스하는 인프라를 만들었습니다. 이 인프라는 이미 글쓰기 도우미와 같은 혁신적인 브라우저 기능을 지원하고 있습니다.

기본 제공 AI 기능은 주로 Translator API 또는 Summarizer API와 같은 작업 API를 사용하여 액세스할 수 있습니다. Task API는 할당에 가장 적합한 모델에 대해 추론을 실행하도록 설계되었습니다.

Chrome에서 이러한 API는 미세 조정 또는 전문가 모델을 사용하여 Gemini Nano에 대한 추론을 실행하도록 빌드됩니다. 대부분의 최신 기기에서 로컬로 실행되도록 설계된 Gemini Nano는 요약, 표현 바꾸기, 분류와 같은 언어 관련 사용 사례에 가장 적합합니다.

로컬에서 실험하고 추가 사용 사례를 공유할 수 있도록 Prompt API와 같은 탐색 API도 제공합니다.

향후 모델의 가중치를 조정하여 내장 모델의 성능을 개선하기 위한 탐색적 LoRA API를 제공할 수도 있습니다.

이 다이어그램은 웹사이트 또는 앱에서 태스크 및 탐색 웹 플랫폼 API를 사용하여 Chrome에 내장된 모델에 액세스하는 방법을 보여줍니다.

내장 AI를 사용해야 하는 경우

다음은 내장 AI가 개발자와 사용자에게 도움이 되는 몇 가지 방법입니다.

  • AI 기반 콘텐츠 소비: 요약, 번역, 분류, 캐릭터화, 지식 제공자 역할을 포함합니다.
  • AI 지원 콘텐츠 제작: 글쓰기 지원, 교정, 문법 수정, 문구 바꾸기 등이 여기에 해당합니다.

다음 단계

오리진 트라이얼에서 몇 가지 기본 제공 AI API를 테스트할 수 있습니다. 탐색 API 및 기타 초기 단계 API는 초기 프리뷰 프로그램 참여자에게 제공됩니다.

Google AI JavaScript SDK 빠른 시작에서 웹사이트 및 웹 앱과 함께 Google 서버에서 Gemini Pro를 사용하는 방법을 알아보세요.