구글, 초경량화 새 오픈 AI모델 '젬마' 공개
구글이 인공지능(AI) 개발자와 연구자를 위한 초경량화 오픈 모델 '젬마(Gemma)'를 공개했다. 사용자는 개인 노트북과 데스크톱에서 젬마로 연구를 즉시 진행할 수 있다. 구글은 21일(현지시간) 초경량화 AI 모델 젬마를 공식 홈페이지를 통해 발표했다. 젬마는 20억(2B) 파라미터와 70억(7B) 파라미터 크기로 제공된다. 젬마 사용자는 개인 노트북과 데스크톱에서 로컬로 모델을 이용할 수 있다. 사물인터넷(IoT), 모바일, 클라우드와도 호환된다. 구글 측에 따르면 젬마가 다른 동급 모델 중 가장 높은 성능을 갖췄다는 입장이다. 젬마 모델 군이 자사 멀티모달 모델 제미나이의 기술과 인프라 기반으로 구축됐다는 이유에서다. 주요 벤치마크에서도 규모가 더 큰 모델보다 높은 점수를 기록했다는 점도 강조했다. 구글은 특정 개인 정보와 민감 데이터를 데이터셋에서 자동 필터링하는 기술을 젬마에 적용했다. 광범위한 미세 조정도 거쳤다. 인간 피드백을 기반으로 한 강화 학습(RLHF)도 적용됐다. 회사는 젬마 모델의 위험성을 미리 방지하기 위해 자체 레드팀까지 구성했다. 레드팀은 자동화된 적대적 테스트, 위험 행동에 대한 모델 역량 평가 등 안전 평가를 진행했다. 구글 측은 "젬마를 더욱 안전하고 신뢰할 수 있는 사전 학습 모델로 만들기 위한 노력의 일환"이라고 했다. 구글은 책임감 있는 젬마 모델에 생성형 AI 툴킷도 포함했다. 해당 툴킷에는 ▲안전성 분류 기준 제공 ▲디버깅 지원 ▲가이던스 제공으로 이뤄졌다. 안전성 분류 기준 제공에는 최소한의 사례로도 엄격한 안전성 분류 기준을 구축할 수 있는 새로운 방법론을 지원한다. 이용자는 디버깅 툴로 젬마의 행동을 잘 이해하고 잠재적 문제를 해결할 수 있도록 돕는다. 가이던스를 통해 거대언어모델(LLM)을 개발한 구글 경험 기반으로 모델 구축을 위한 모범 사례를 확인할 수 있다. 사용자는 특정 애플리케이션 필요에 맞게 자체 데이터에서 젬마 모델을 미세 조정할 수 있다. 멀티 프레임워크인 Keras 3.0, 네이티브 파이토치, JAX 및 허깅페이스 트랜스포머에서 추론과 미세 조정을 위한 프레임워크를 끌어올 수 있다. 사용자는 젬마 모델을 최첨단 하드웨어 플랫폼으로 이용할 수 있다. 구글이 엔비디아와 손잡고 엔비디아의 그래픽처리장치(GPU)에 맞게 젬마 모델을 최적화 해서다. 구글 클라우드 TPU 외에도 엔비디아 GPU에도 최적화된 셈이다. 개발자는 오늘부터 캐글 내 무료 이용권, 코랩 노트북의 무료 티어, 구글 클라우드 첫 이용자에게 제공되는 300달러 상당의 크레딧으로 젬마를 이용할 수 있다. 연구진도 프로젝트를 위해 최대 50만 달러를 제공하는 구글 클라우드 크레딧을 신청해 이용할 수 있다.