• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'라마 4'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] "스마트폰서도 AI 추론"…구글, '젬마4'로 클라우드 중심 판 흔든다

구글이 오픈웨이트 인공지능(AI) 모델 '젬마4(Gemma 4)'를 공개하며 AI 실행 환경을 클라우드에서 디바이스로 확장하는 전략을 본격화했다. 스마트폰부터 워크스테이션까지 다양한 하드웨어에서 복잡한 추론과 자율형 에이전트 구현이 가능해지면서 온디바이스 AI 확산과 오픈 모델 생태계 변화에 큰 영향을 줄 것으로 전망된다. 구글 딥마인드는 2일(현지시간) 공식 블로그를 통해 '젬마4'를 공개했다. 이번 모델은 '제미나이3(Gemini 3)'와 동일 계열의 연구 및 기술을 기반으로 개발됐으며 로컬 환경에서 고급 AI 기능을 수행할 수 있도록 설계됐다. 젬마4는 이펙티브 2B(E2B), 이펙티브 4B(E4B), 26B 전문가 혼합(Mixture of Experts, MoE), 31B 덴스(Dense) 등 4종으로 구성된다. 이 가운데 E2B와 E4B 모델은 안드로이드 스마트폰과 라즈베리파이 등 경량 디바이스에 최적화됐으며 배터리와 메모리 제약 환경에서도 AI를 실행할 수 있도록 설계됐다. 반면 26B MoE와 31B 덴스 모델은 워크스테이션급 환경에서 고성능 추론을 수행하도록 설계돼 디바이스부터 고성능 컴퓨팅 환경까지 폭넓은 계층을 아우른다. 26B MoE 모델은 추론 과정에서 약 38억 개의 파라미터만 활성화하는 구조를 통해 처리 속도를 높이면서도 대형 모델 수준의 성능을 유지하도록 설계됐다. 31B 모델은 품질 중심 구조로 고도화된 추론 능력을 제공한다. '젬마4'는 단순 대화형 모델을 넘어 실제 작업 수행을 지원하는 '에이전트형 AI' 구현을 핵심 방향으로 제시했다. 이 모델은 함수 호출과 구조화된 JSON(Javascript Object Notation) 출력 기능을 네이티브로 지원해 외부 도구 및 API와 연동한 다단계 작업 수행이 가능하다. 이는 AI가 정보 생성에서 실행 중심으로 진화하고 있음을 보여주는 변화다. 또 모든 모델이 이미지와 비디오 입력을 처리할 수 있으며 E2B와 E4B 모델은 오디오 입력을 지원해 기기 내 음성 이해 기능을 제공한다. 구글은 "개발자 생태계를 제한 없이 지원하기 위해 상업적으로 자유로운 아파치(Apache) 2.0 라이선스로 공개했다"며 "데이터와 인프라, 모델에 대한 통제권을 개발자에게 제공하는 것이 목표"라고 밝혔다. '젬마4'는 모델 가중치를 공개하는 오픈 웨이트 형태로 제공되면서 기업과 개발자가 자체 인프라에서 AI를 직접 구축·운영할 수 있는 기반을 제공한다. 이에 따라 클라우드 의존도를 낮추고 비용 구조를 재편하는 한편, 기업 맞춤형 AI 개발과 데이터 통제 요구가 높은 산업을 중심으로 활용이 확대될 가능성이 제기된다. 모델은 구글 클라우드를 비롯해 허깅페이스, 캐글, 올라마 등 다양한 플랫폼에서 제공된다. 젬마4 출시는 오픈 모델 경쟁 구도에도 변화를 예고한다. 기존 메타 '라마(Llama)' 시리즈에 더해 알리바바 '큐웬(Qwen)', 즈푸AI 'GLM', 문샷AI '키미(Kimi)' 등 중국 기업 모델이 빠르게 부상하는 가운데 구글은 성능 대비 효율성과 온디바이스 실행을 결합한 전략으로 차별화를 시도한 모습이다. 젬마4가 구글의 기존 대형 모델 '제미나이'와 병행되는 전략적 포지션을 갖는다는 점도 눈여겨 볼 요소다. 제미나이가 클라우드 기반 초대형 모델 역할을 담당하는 반면, 젬마는 로컬 및 경량 환경을 맡는 식이다. 구글은 이를 통해 클라우드와 디바이스를 아우르는 AI 플랫폼 전략을 구축하고 있다. 젬마4는 오픈모델의 성능 고도화와 온디바이스 AI 확산, 에이전트 기반 자동화를 동시에 겨냥한 모델로 평가된다. 이는 AI 활용 방식이 중앙 서버 중심에서 분산형 구조로 이동하고 있음을 보여주는 흐름으로, 향후 기업의 AI 도입 전략과 비용 구조에도 변화를 가져올 가능성이 제기된다. 업계 전문가는 "젬마4는 고성능 AI를 클라우드 밖으로 확장해 디바이스까지 끌어내린 모델"이라며 "손바닥 크기의 컴퓨터에서도 복잡한 추론이 가능한 수준까지 발전했다는 점에서 앞으로 AI 경쟁은 성능뿐 아니라 어디에서 실행되느냐가 핵심 변수로 작용할 것"이라고 말했다.

2026.04.03 09:46장유미 기자

저커버그 측근 비샬 샤, 'AI 핵심 보직' 맡았다

페이스북의 메타버스 전략을 이끌었던 비샬 샤가 인공지능(AI) 팀에 합류했다. 27일(현지시간) 파이낸셜타임스 등 외신에 따르면 냇 프리드먼 메타 AI 제품 충괄은 샤가 제품 관리를 이끌기 위해 팀에 합류한다고 밝혔다. 샤는 10년 전 메타에 합류해 인스타그램 제품 부문을 총괄하다가 2021년 '메타버스' 사업을 진두지휘하는 역할을 맡았다. 비샬 샤는 특히 마크 저커버그 메타 최고경영자(CEO)의 최측근으로 유명한 인물이다. 프리드먼은 메타의 AI 팀이 'AI 앱'과 같은 핵심 AI 제품 개발에 집중할 것이며 인스타그램이나 왓츠앱 등 개별 앱 부문은 메타의 모델 위에 “AI 경험을 생성할 수 있게 될 것”이라고 설명했다. 그는 “단순히 AI 팀으로는 안된다. AI 회사가 돼야 한다”며 “샤는 이 협력 모델을 구축하고 통합 전략을 주도하며 대규모 성공을 보장하는 핵심적인 역할을 할 것”이라고 덧붙였다. 프리드먼은 "샤는 모호한 기술적 문제를 해결할 수 있는 능력”을 갖고 있으며 “회사 내부의 깊은 인맥”을 갖고 있다고 평가하기도 했다. 샤는 메타의 증강현실(AI)·가상현실(AI) 부문인 '리얼리티 랩스'에도 AI 기술을 통합하는 역할을 하게 된다. 이 부문은 메타버스 개발 뿐만 아니라 저커버그 CEO가 초지능 전략의 핵심으로 언급한 스마트 글라스 사업도 포함된다. 외신에 따르면 저커버그는 “초지능 팀과 리얼리티 랩스 간에 가교를 추구해 모든 기기에서 수십억 명의 사람들에게 개인 맞춤형 초지능을 제공할 수 있도록 하겠다”고 밝혔다. 이번 인사는 지난 1년간 메타에서 이어져 온 수많은 리더십 및 조직 개편 중 하나로, 메타는 지난주 AI 전반에서 약 600명을 해고했다. 또 저커버그는 생성형 AI 챗GPT 개발사 오픈AI와 구글보다 먼저 인간보다 더 똑똑하고 초개인화된 모델을 개발하기 위해 경쟁 중이다. 아울러, 이번 인사는 프리드먼에 대한 내부 불만이 커진 가운데 이뤄졌다. 프리드먼은 지난해 6월 메타에 합류한 실리콘밸리 투자자이자 코딩 플랫폼 깃허브의 전 대표다. 그는 지난달 AI 생성한 짧은 동영상 피드 '바이브스'의 출시를 총괄했으나 얼마 뒤 오픈AI '소라'의 등장을 묻혀버렸다. 저커버그 CEO는 오랜 기간 메타의 고위직을 충성도가 높은 내부 인사로 채워왔지만, 올해 4월 '라마4'의 부진 이후 최근에는 외부 인사를 영입해 AI 부문을 재편하고 있다. 스케일 AI의 창업자 알렉산더 왕을 영입해 '초지능 AI' 팀을 맡긴 것이 대표적인 사례다. 샤가 떠난 메타버스 팀은 소셜 메타버스 앱 '메타 호라이즌'을 맡은 가브리엘 아울이 이끌게 된다.

2025.10.28 10:03박서린 기자

"비용 줄이고 성능 높여"…메타, '라마 4' 공개로 딥시크 정면돌파

메타가 중국발 오픈소스 인공지능(AI) 모델 급부상에 대응하기 위해 새 AI 모델 시리즈 '라마 4'를 공개했다. 6일 테크크런치 등 외신에 따르면 메타는 멀티모달 기반 라마 4 모델 '스카우트'와 '매버릭' '비히모스'를 출시했다. 스카우트와 매버릭은 공식 웹사이트와 허깅페이스를 통해 이용 가능하다. 비히모스는 현재 훈련 중이다. 메타는 라마 4 전 모델에 '전문가 혼합(MoE)' 구조를 처음 도입했다. MoE는 질문에 따라 필요한 AI만 활용하는 방식이다. 예를 들어 코딩 질문에는 코딩 전문 AI가, 창작 요청에는 창작 전문 AI만 작동한다. 이를 통해 연산 자원을 줄이고 속도와 비용을 개선할 수 있다. 매버릭은 MoE 구조를 통해 4천억개 전체 매개변수를 갖췄지만 사용자 질문에는 170억개 매개변수만 활성화된다. 메타는 "이 모델이 일반적인 AI 어시스턴트 용도로 활용된다"며 "창작, 코딩, 다국어 처리 등에서 GPT-4o와 제미나이 2.0을 능가했다"고 밝혔다. 스카우트는 그래픽처리장치(GPU) 한장으로 작동 가능하다. 매개변수는 1천90억개며 한 번에 최대 1천만 토큰을 처리할 수 있는 장문 이해 능력을 갖췄다. 논문 수십 편, 대형 코드베이스, 법률 문서 등 장문 자료를 한 번에 읽고 분석할 수 있다. 비히모스는 매개변수 약 2조개로 구성됐다. 수학, 과학 분야에서 GPT-4.5, 클로드 3.7, 제미나이 2.0 프로보다 높은 테스트 점수를 받았다. 메타는 이번 모델에서 응답 거부 기준도 완화했다고 밝혔다. 이전보다 정치적·사회적 논쟁을 포함한 질문에 더 많은 응답이 가능하도록 조정했으며 특정 관점을 배제하지 않는다는 설명이다. 유럽연합(EU) 사용자는 라마 4를 사용할 수 없다. 메타가 본사나 주사업장이 EU에 있는 사용자·기업의 사용과 배포를 금지해서다. 다수 외신은 메타가 AI법과 개인정보보호법(GDPR)에 따른 법적 리스크를 피하기 위한 조치라고 분석했다. 월간 7억명 이상 활성 사용자를 보유한 기업도 메타의 별도 승인 없이 모델을 사용할 수 없다. 승인 여부는 메타 재량에 따른다. 테크크런치는 메타의 라마 4 시리즈 공개가 중국발 오픈소스 AI 모델 위협에 대응하기 위한 전략이라고 봤다. 특히 올해 1월 딥시크가 공개한 R1과 V3 모델이 성능과 효율성에서 기존 라마를 뛰어넘었다는 평가가 이어지면서 메타 모델 출시 일정이 당겨졌다는 분석도 나오고 있다. 메타는 "이번 모델 시리즈는 라마 생태계의 새로운 시대를 여는 시작점"이라며 "논쟁적 질문에 더 응답하고 다양한 견해를 수용하려는 조정이 이뤄졌다"고 공식 홈페이지에서 밝혔다.

2025.04.06 10:03김미정 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

이 대통령 "첨단산업 분야, 네거티브 규제로 전환해야"

"무덤처럼 변해가"…홈플러스 노동자들, 청와대까지 '삼보일배'

"하는 만큼 번다"...MZ세대 블루칼라 선호 확산

엔비디아 Arm PC 칩 'N1' 실물 포착...시장 진입 임박

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.