• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'라마 3.1'통합검색 결과 입니다. (46건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI, 팟캐스트도 만든다…메타, 오픈소스 '노트북라마' 선보여

메타가 구글의 인공지능(AI) 팟캐스트 생성 기능을 본뜬 오픈소스 모델을 공개했지만 실망스럽다는 평가가 나오고 있다. 기술적인 한계로 인해 구글 음성의 자연스러운 품질과 비교 시 미흡한 것으로 판단돼서다. 28일 테크크런치에 따르면 메타는 자사의 AI 모델 '라마(Llama)'를 활용해 구글 '노트북LM' 팟캐스트 기능과 유사한 오픈소스 프로젝트 '노트북라마'를 출시했다. 이 모델은 텍스트 파일을 대화 형식의 팟캐스트 콘텐츠로 변환하는 기능을 제공한다. '노트북라마'는 파일로 입력된 텍스트를 먼저 분석해 대화체로 재구성한 후 텍스트-음성 변환 모델을 통해 이를 음성 콘텐츠로 출력한다. 이 과정에서 사용자들이 보다 드라마틱한 표현과 중간중간 자연스러운 끊김을 경험할 수 있도록 설정돼 있다. 그럼에도 불구하고 업계 전문가들은 노트북라마의 음성 품질이 아직 초기 단계에 머물러 있는 것으로 평가한다. 사용자가 실제 대화를 듣는 듯한 자연스러움을 구현하기에는 현재의 텍스트 및 음성 모델 수준이 불완전한 상태로, 대화가 겹치는 현상이나 로봇 같은 음성 표현이 발생한다는 것이다. 메타 연구팀은 이러한 품질 문제를 해결하기 위해 더 강력한 모델 도입을 검토하고 있다. 연구팀은 "현재는 단일 AI 모델로 팟캐스트 콘텐츠를 구성하고 있다"며 "두 개의 AI 에이전트가 주제에 대해 토론하는 형식으로 개선할 가능성도 있다"고 밝혔다. 현재 AI 팟캐스트 생성 분야에서는 현재 구글을 비롯한 여러 회사들이 경쟁 중인 상황이다. 특히 구글은 지난 6월 '노트북LM'을 출시한 후로 AI 팟캐스트가 가능한 '오디오 개요(Audio overview)' 기능을 통해 업계의 찬사를 받아왔다. 많은 사용자들은 해당 기능의 자연스러운 음성과 인간과 같은 재치있는 만담에 긍정적으로 평가했다. 테크크런치는 "'노트북LM'과 '노트북라마' 등 AI 기반 팟캐스트 생성은 아직 해결해야 할 기술적 과제가 많다"며 "향후 정확성과 자연스러운 표현력을 높이는 기술 개발이 필요하다"고 분석했다.

2024.10.28 10:07조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

메타 "라마 다운 4억회 기록…AGI 모델 오픈소스화 목표"

"메타는 '라마'를 통해 일반인공지능(AGI) 모델을 구축할 것입니다. 이후 이를 오픈소스로 공개하는 것이 회사 목표입니다. AI 접근 문턱을 낮춰 모든 사람이 AGI를 쉽게 접할 수 있도록 돕겠습니다." 메타 마노하 팔루리 생성형 AI 부사장은 10일 서울 강남구 메타코리아 사무실에서 열린 미디어 브리핑에서 이같이 밝혔다. 그는 메타 장기적 목표로 AGI 모델 구축을 꼽았다. AGI는 인간과 비슷하거나 그 이상 수준을 갖춘 AI를 의미한다. 메타는 이런 수준의 모델을 만들어 오픈소스로 사용자에 제공할 계획이다. 팔루리 부사장은 메타가 오픈소스 접근 방식을 택한 이유를 밝혔다. 그는 "개방형 생태계가 기술 혁신을 가속화하고 안전성·투명성 높이기 때문"이라며 "개발자는 오픈소스 환경에서 본인만의 개발과 연구를 진행할 수 있을 것"이라고 강조했다. 그는 오픈소스 거대언어모델(LLM) 라마가 해당 역할을 할 수 있다고 봤다. 팔루리 부사장은 "라마는 오픈소스 커뮤니티서 영향력을 키우고 있다"며 "현재 라마는 전 세계서 4억 건 넘는 다운로드를 기록했다"고 설명했다. 이날 라마 활용 사례도 공개됐다. 팔루리 부사장은 "라마가 교육, 헬스케어 등에 활발히 적용되고 있다"며 "라마로 파생된 모델만 6만5천개가 넘었다"고 강조했다. 이어 "앞으로 메타는 오픈소스 생태계를 강화하고 AI 기술의 민주화를 위해 노력할 것"이라며 "AGI 구축 성공을 통해 인류 발전에 기여하겠다"고 포부를 밝혔다.

2024.10.10 17:01김미정

베슬에이아이 "글로벌 빅테크와 AI 혁신의 장 연다"

베슬에이아이가 글로벌 빅테크와 스타트업들이 모이는 인공지능(AI) 에이전트 기술 혁신의 장을 연다. 베슬에이아이는 오는 11일부터 사흘간 실리콘밸리 팔로알토에서 AI 해커톤 '에이전틱 래거톤(Agentic RAG-A-THON)'을 개최한다. AI 스타트업 라마인덱스와 파인콘이 공동주최하는 이번 행사는 글로벌 벤처캐피털(VC) 앤드리슨 호로위츠(a16z)가 주관하는 샌프란시스코의 연례 IT 행사 '테크위크'의 일환으로 진행된다. 이번 행사는 AI 시장의 폭발적인 성장에 맞춰 기술 발전을 선도하는 수백 명의 현직자가 오프라인에서 만나는 자리로 꾸며졌다. 특히 a16z, 500 글로벌, 오픈AI, 미스트랄 AI, SAP 등 글로벌 VC와 AI 기업들이 스폰서로 참석해 행사 지원·참가자 멘토링·관계자 네트워킹 등을 도울 예정인 것으로 알려졌다. 행사 기간 동안 참가자들은 '검색 증강 생성(RAG)' 기술을 활용해 복잡한 추론 및 업무를 대신 처리하는 AI 에이전트의 개발 프로젝트를 진행한다. 산업계에서 실제로 활용 가능한 정교한 AI 구축을 목표로 다양한 모델을 결합해 자율형 AI와 인간 협업형 하이브리드 시스템까지 다채로운 가능성을 모색하게 된다. 이 과정에서 베슬에이아이의 AI 인프라 및 머신러닝 운영(MLOps) 활용 플랫폼, 라마인덱스의 거대언어모델(LLM) 및 RAG 상호 응용 기술, 파인콘의 효율적 데이터 저장 기술이 핵심적으로 활용될 예정이다. 우수한 결과물을 만들어낸 참가자들에게는 총 1만2천 달러(약 1천600만원)의 상금이 차등 지급되며 주최사의 솔루션 이용 혜택도 제공된다. 공동 주최사인 라마인덱스는 LLM의 활용을 돕기 위한 데이터 프레임워크를 제공하는 기업으로, 구조화된 데이터뿐 아니라 텍스트와 이미지 같은 비정형 데이터까지 처리할 수 있도록 지원한다. 파인콘은 AI 모델이 방대한 데이터를 효율적으로 저장하고 활용할 수 있게 돕는 '벡터 데이터베이스'를 운영 중이다. 특히 파인콘은 지난해 a16z 등 유수 투자자로부터 1조 원 이상의 기업 가치를 인정받은 유니콘 스타트업으로 주목받은 바 있다. 안재만 베슬에이아이 대표는 "글로벌 빅테크, VC, AI 선도사들이 한 자리에 모이는 뜻깊은 행사를 주최하게 되어 매우 영광"이라며 "해커톤을 통해 우리 플랫폼이 가진 뛰어난 호환성, 확장성, 효율적인 컴퓨팅 자원 배분, AI 워크플로우 자동화 기능의 실효성과 강점을 널리 알리겠다"고 강조했다.

2024.10.10 10:07조이환

中 알리바바 "초거대 모델 성능 메타 추월"

중국 알리바바가 생성형 인공지능(AI) 초거대 모델 신규 시리즈를 공개하면서 미국 메타의 모델을 뛰어넘었다고 강조했다. 19일 중국 언론 IT즈자에 따르면 알리바바클라우드의 저우징런 CTO는 "퉁이쳰원의 신규 오픈소스 모델 '큐원 2.5' 중 큐원 2.5-72B 모델의 성능이 메타의 '라마 405B' 성능을 뛰어넘었다"고 밝혔다. 이날 알리바바는 지난 9월 중순 기준 퉁이쳰원 오픈소스 모델의 누적 다운로드 수가 4천 만 건을 넘어서, 메타의 라마에 이어 세계적 수준의 모델 그룹이 됐다고도 공식적으로 밝혔다. 큐원 시리즈 파생 모델 총 수량이 5만 개를 넘어서면서 라마에 이어 세계 2위의 모델군이 됐다. 큐원 2.5는 이날 알리바바클라우드가 '2024 압사라 컨퍼런스'에서 발표한 모델이다. 큐원2.5-72B가 주력 모델이다. 72B는 매개 변수 숫자를 의미하며, 720억 개의 매개 변수를 지원한단 의미다. 큐원 2.5는 대규모 언어 모델, 멀티 모달 모델, 디지털 모델, 코딩 모델 등이 크기와 버전 별로 총 100여 개 포함돼있다. 데이터 관점에서 봤을 때, 모든 큐원2.5 시리즈 모델은 18T 토큰 데이터로 사전훈련돼있으며, 기존 큐원2와 비교해 전반적 성능이 18% 이상 향상됐다. 컨텍스트는 8K~128K(약 8천~12만8천 개 토큰) 길이로 생성할 수 있으며, 챗봇 작업도 구현한다. 큐원 2.5는 특히 명령 따르기, 이해 구조화 데이터, 구조화 데이터 출력 생성 등에서 상당한 진전을 이뤘다고 소개됐다. 또 코딩용 '큐원2.5-코더'와 수학용 '큐원2.5-매스'가 전 세대에 비해 눈에 띄게 발전했다. 큐원2.5-코더는 프로그래밍 관련 데이터 최대 5.5T 토큰 훈련을 받았으며, 큐원2.5-매스는 중국어와 영어로 된 이중 언어 수학 문제를 풀기 위해 사고 체인과 툴통합추론(TIR) 사용을 지원한다.

2024.09.20 08:43유효정

"韓 10대 기업이 찜"…스노우플레이크, 코텍스AI에 '라마3.1' 탑재

"애플리케이션 개발 플랫폼 '스노우플레이크 코텍스AI'에 오픈소스 모델 '라마 3.1'을 본격 추가했습니다. 기업은 코텍스AI로 앱 개발을 대규모로 원활히 진행할 수 있습니다. 현재 국내 10대 대기업이 이 플랫폼을 선택한 이유입니다." 최기영 스노우플레이크 한국 지사장은 9일 서울 강남 파크 하얏트에서 열린 '스노우플레이크 월드투어 서울'에서 새 거대언어모델(LLM) 호스팅 계획을 이같이 밝혔다. 이를 통해 코텍스AI는 엔터프라이즈 고객들에 원활한 인공지능(AI) 서비스를 추가 공급할 수 있다. 스노우플레이크 서비스에 탑재된 라마3.1은 오픈소스 LLM이다. 메타의 라마 제품군 중 가장 큰 모델로, 파라미터 405억개로 이뤄졌다. 코텍스AI는 라마3.1로 실시간 고처리량 추론을 진행하고 자연어처리(NLP)와 생성형 AI 앱 개발을 돕는 환경을 제공한다. 최기영 지사장은 "코텍스AI는 라마3.1로 더 빠른 시간 내에 높은 추론력을 구현할 수 있다"고 강조했다. 기존 오픈소스 솔루션보다 엔드투엔드(end-to-end) 지연시간은 최대 3분의 1로 줄고, 처리량은 1.4배 높아졌다는 이유에서다. 최 지사장은 스노우플레이크 AI 리서치팀이 라마3.1 출시와 더불어 LLM 추론과 파인튜닝 시스템 최적화 스택을 오픈소스화하고 있다는 점도 설명했다. 이를 통해 수천억개 매개변수로 이뤄진 모델 접근성을 높이고 파인튜닝 시스템에 필요한 솔루션을 구축할 방침이다. 최 지사장은 스노우플레이크가 LLM 추론과 파인튜닝 시스템 최적화를 위해 노력 중이라고 밝혔다. 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용 인프라 없이 효율적인 AI 처리가 가능하도록 만들기 위해서다. 그는 "라마 3.1 405B로 스노우플레이크의 시스템 스택은 GPU 노드 하나만으로 실시간의 고처리량 성능을 발휘할 수 있다"고 말했다. 이런 환경에서 개발자들은 적은 개수로 이뤄진 GPU 상에서 복잡한 기술로 라마 3.1 405B를 파인튜닝할 수 있다. 대규모 GPU 클러스터 환경 자체가 필요 없게 된 셈이다. 이에 기업들은 생성형 AI 앱을 전보다 편리하고 빠르게 구축·배포할 수 있다. 최 지사장은 "국내 상위 10대 기업 중 80%를 확보한 상태"라며 "사용하기 쉽고 효과적인 서비스를 제공한다는 가치를 지킬 것"이라고 말했다.

2024.09.09 16:06김미정

"오픈소스 성공적"...메타, LLM 라마 전년 대비 10배 성장

메타에서 서비스하는 대규모 언어모델(LLM) '라마(Llama)'의 인기가 급격하게 상승 중이다. 관련 업계에서는 메타의 오픈소스 전략이 점차 성공적으로 자리 잡고 있다는 분석이다. 30일 벤처비트 등 외신에 따르면 메타는 상반기 성과를 공식 홈페이지를 통해 발표했다. 공개된 내용에 따르면 라마의 다운로드 수는 3억5천만 건으로 전년 대비 10배 이상 늘어난 수치다. 라마의 인기는 꾸준한 상승세로 지난달에만 AI 오픈소스 커뮤니티인 허깅페이스를 통해 2천만 건 이상 다운로드를 기록했다. AI 커뮤니티 외에도 AT&T, 도어대시, 골드만삭스, 나이언틱, 스포티파이, 인포시스, KPMG 등 기업 파트너를 통해 서비스되는 사례를 포함하는 규모는 더욱 확대된다. 특히 최신 고성능 AI모델인 라마 3.1가 시리즈의 인기를 견인한 것으로 나타났다. 라마 3.1이 출시된 5월 이후 7월까지 2개월 만에 주요 클라우드 서비스 공급업체 파트너의 토큰 볼륨별 호스팅 사용량이 2배 이상 증가한 것으로 확인됐다. 메타는 급증하는 AI수요에 대응하기 위해 아마존웹서비스, 마이크로소프트, 구글 클라우드를 비롯해 데이터브릭스, 델, 엔비디아, IBM 왓슨, 스케일AI, 스노우플레이크 기업들과 협업하며 사용자를 지원하고 있다. 라마 3.1은 이전 모델보다 더 긴 128K 컨텍스트 길이를 지원한다. 이를 통해 더 복잡하고 세부적인 대화나 문서를 처리하고, 높은 정확도의 답변을 제공한다. 또한 라마3.1 405B, 라마3.1 8B, 라마 3.1 70B 3개 모델로 공개됐으며 이중 가장 높은 성능을 보유한 라마3.1 405B의 인기가 가장 높은 것으로 나타났다. 더불어 메타는 보고서를 통해 라마의 가파른 성과의 요인으로 오픈소스를 지목했다. AI 모델을 누구나 사용할 수 있도록 공개적으로 제공함으로써 급격하게 성장 중인 AI생태계의 기반으로 작용했다는 설명이다. 이를 위해 메타는 기계학습을 위한 도구, 라이브러리와 AI 파생모델 등 6만 개가 넘는 기술 지원을 허깅페이스를 통해 업데이트 했다고 밝혔다. 메타의 아마드 알-다흘레 생성형AI 부문 부사장은 "라마는 개방성, 수정 가능성, 비용 효율성에서 선두를 달리고 있다"며 "우리는 오픈소스 환경에서 구축하고 AI의 이점이 모든 사람에게 확대되도록 하는 데 전념하려 한다"고 말했다. 이어 "LLM은 어려운 질문에 답하고, 생산성을 개선하고, 창의성을 북돋우는 데 도움이 될 수 있다"며 "AI 어시스턴트가 일상생활에 적극적인 도움을 제공할 수 있는 미래의 비전에 다가가기 위해 노력하고 있다"고 강조했다.

2024.08.30 10:42남혁우

마크 저커버그 "차기 LLM 라마4 기존 대비 10배 이상 투자"

메타가 차기 오픈소스 대규모 언어모델(LLM) 개발을 위해 10배 이상의 컴퓨팅 파워를 투자할 전망이다. 2일 테크크런치 등 외신에 따르면 마크 저커버그 최고경영자(CEO)는 메타의 2분기 실적발표에서 향후 AI 개발 계획을 소개했다. 그는 "향후 수 년간 필요한 컴퓨팅 클러스터와 데이터를 계획하고 있다"며 "차기 모델인 라마4(Llama 4)는 업계에서 가장 진보한 오픈 AI모델로 구축하기 위해 이전 모델보다 거의 10배에 달하는 컴퓨팅 파워가 필요할 것이라고 추정했다. 이번 실적 발표에서 수잔 리 최고재무책임자(CFO)는 메타가 올해 생성 AI에서 수익을 창출하지 못할 것임을 인정했다. 또한 다양한 데이터 센터 프로젝트와 미래 AI 모델을 훈련할 수 있는 역량 구축을 고려하고 있어 2025년까지 자본 지출이 늘어날 수 있다고 밝혔다. 이에 대해 마크 저커버그 CEO는 대규모 AI경쟁에서 뒤처지지 않기 위해 투자를 확대하는 과정이라고 밝혔다. 그는 "AI가 앞으로 어떤 추세를 보일지 예측하기 어려운 것은 사실"이라며 "하지만 투자를 멈춘 후 다시 새로운 추론 프로젝트를 시작하기엔 긴 리드타임이 필요하기 때문에 너무 늦기 전에 필요한 인프라를 미리 구축하는 위험을 감수하는 것이 낫다"고 설명했다. 또한 페이스북의 콘텐츠 순위 및 추천 도구와 인스타그램의 피드 등에 AI를 활용하고 있으며 이를 통해 성과를 개선하고 있다며 AI의 활용성을 소개했다. 마크 저커버그는 "예전에는 광고주가 특정 연령대, 지역 또는 관심사와 같이 도달하고 싶은 특정 대상 고객을 가지고 우리에게 왔다"며 "AI가 적용된 우리 광고 시스템은 이제 광고주 자신보다 누가 관심을 가질지 더 잘 예측할 수 있는 지점까지 도달했다"고 강조했다.

2024.08.02 09:58남혁우

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

美 상무부 "누구나 쓸 수 있는 개방형 AI, 규제보다 지원 우선"

미국 상무부가 기술 발전을 위해 메타의 라마(Llama)나 구글의 제미나이처럼 누구나 사용할 수 있는 개방형 가중치(open-weight) 모델을 지지했다. 예상치 못한 악용 등에 대한 잠재적 위험에 대비해 해당 모델을 모니터링할 수 있는 새로운 역량을 개발하고, 정부가 나서 정책적 기반을 마련할 것도 권고했다. 31일 테크크런치 등 외신에 따르면 미국 상무부 국가통신정보청(NTIA)은 '이중용도 파운데이션 모델과 널리 이용가능한 모델 가중치(Dual-Use Foundation Models with Widely Available Model Weights)'라는 보고서를 발표했다. 이 보고서는 개방형 가중치 모델의 위험성을 평가하는 한편, 다양한 정책 도구와 권장 사항을 통해 이점을 극대화하고 위험을 관리할 수 있는 방안을 제안하기 위해 작성됐다. 보고서에 따르면 학습 방식이 공개되고 다양한 분야에 활용할 수 있는 개방형 가중치 AI모델은 소규모 회사, 연구자, 비영리 단체를 비롯한 개인의 생성형AI의 가용성을 확대하며 기술 발전을 촉진하는 것으로 나타났다. 이에 해당 모델이 시장에 악영향을 미칠 수 있다는 결과를 찾아내기 전까지 규제하거나 사용자의 접근을 제한하지 않을 것을 정부 측에 제안했다. 더불어 개방형 가중치 모델의 장점을 어떻게 사회적, 경제적 발전에 기여할 수 있을지 연구하고 기술 혁신에 적용할 수 있는 방안을 모색할 것을 권고했다. 이러한 평가는 리나 칸 FTC 위원장의 의견과 비슷하다. 그는 개방형 가중치 모델을 통해 더 많은 소규모 사업자가 아이디어를 시장에 내놓을 수 있고, 이를 통해 건전한 경쟁을 촉진할 수 있을 것이라고 의견을 제시했다. 더불어 NTIA는 아직 확인되지 않은 개방형 가중치 모델의 부작용에 대비할 것을 조언했다. 이를 위해 개방형 가중치 AI모델에 대한 위험성과 부작용을 파악하고 이를 평가하고 대처할 수 있는 프로그램을 개발도 촉구했다. 부작용 대응 프로그램에는 개방형 가중치 AI 모델의 잠재적 위험성을 분석하고, 위험성이 어떻게 국가 안보나 공공 안전에 영향을 줄 수 있는지 평가하고 위험을 관리하기 위한 정책이나 대안을 마련할 것을 제안했다. 보고서에서 언급한 이중용도 파운데이션 모델은 넓은 범위의 데이터를 학습해 다양한 분야에 활용할 수 있는 범용AI를 말한다. 오픈AI의 GPT나 메타의 라마, 구글의 제미나이 등이다. 널리 이용가능한 모델 가중치는 AI모델 학습에 사용된 데이터 파라미터를 다른 AI에도 적용할 수 있도록 공개된 것을 지칭하며 개방형 가중치라고도 불린다. 이를 통해 다른 개발자나 조직에서도 자체 AI를 개발하거나 새로운 서비스에 해당 AI모델을 적용하는 것도 가능하다. 개방형 가중치 모델은 누구나 사용가능한 만큼 기술혁신을 가속할 수 있지만 보안상의 위험과 잠재적인 오남용 가능성 등의 단점도 내포하고 있다. 특히 범용AI와 적용될 경우 예상치 못한 분야에서 악용될 가능성이 제기됐다. 이에 NTIA는 지난 2월에 개방형 가중치 모델에 대한 공개 의견 요청을 발표했고 332개의 의견을 받았다. 또 다양한 정책 및 기술 전문가의 의견을 수집하는 공청회 등을 거쳐 보고서를 작성했다고 밝혔다. 상무부 앨런 데이비슨 통신정보 담당 차관보 겸 NTIA 관리자는 "크고 강력한 AI의 개방성은 혁신적인 도구의 경쟁, 혁신을 비롯해 위험에도 영향을 미칠 것"이라며 "이번 NTIA 보고서는 개방형 AI 시스템의 중요성을 인식하고, 광범위한 가용성으로 인한 위험을 보다 적극적으로 모니터링할 것을 촉구한다"고 성명을 통해 밝혔다. 이어 "정부가 적극적으로 개방형 가중치 모델을 안전하고 신뢰할 수 있도록 정책적 기반을 마련해야 한다"고 강조했다.

2024.07.31 10:05남혁우

메타·엔트로픽·미스트랄, AI 新무기 내놔도 오픈AI 못 넘는다…이유는?

생성형 인공지능(AI) 시장을 주도하고 있는 오픈AI를 겨냥해 메타와 엔트로픽, 미스트랄 등이 잇따라 최신 모델을 선보이며 AI 경쟁이 치열해지고 있다. 각 업체들은 오픈AI의 최신 모델 'GPT-4o'나 'GPT-4'를 기준으로 성능을 비교하며 자사 모델의 경쟁력을 알리고 있지만 오픈AI를 뛰어넘기엔 기술적 한계가 여전하다는 평가다. 26일 IT 매체 테크크런치에 따르면 프랑스 AI 스타트업 미스트랄은 지난 24일 최신 AI 모델인 '라지(Large) 2'를 선보였다. 이 모델은 1천230억 개(123B)의 매개변수로 12만8천 토큰의 컨텍스트 창을 제공한다. 회사 측은 전날 출시한 메타의 '라마 3.1' 모델과 동등한 성능을 가졌다고 주장했지만, '라마 3.1' 중 가장 큰 모델(450B)에 비해 매개변수는 3분의 1도 안된다. 다만 전작에 비해선 추론뿐 아니라 코드 생성, 수학 등 전반에 걸쳐 성능이 개선됐다는 평가를 받는다. 고급 다국어 기능도 제공되는데 한국어를 포함해 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 아랍어, 힌디어, 러시아어, 중국어, 일본어 등 12개 언어와 80개의 코딩 언어를 지원한다. 또 고급 함수 호출 및 검색 등 새로운 기능이 추가됐고 AI의 큰 단점으로 꼽히는 '할루시네이션(환각 증상)'도 최소화했다. 페이스북 모회사 메타도 지난 23일 거대언어모델(LLM) 라마 3 시리즈 중 상위 버전인 '라마 3.1'을 출시했다. 지난 4월 '라마 3'을 선보인 이후 3개월여만으로, 405B와 8B, 70B 등 3가지 버전으로 구성됐다. '또 라마 3.1'은 엔비디아 최신 그래픽처리장치(GPU) 'H100' 1만6천 개를 기반으로 훈련됐다. 운영 비용은 오픈AI 'GPT-4o'에 비해 절반정도인 것으로 알려졌다. 올해 3월에는 앤트로픽도 차세대 LLM '클로드3'를 내놨다. 오픈AI의 GPT-4를 넘어섰다는 평가를 받은 '클로드3'는 성능과 속도에 따라 '오푸스', '소네트', '하이쿠'로 나뉜다. 이 중 가장 지능적인 '오푸스'는 대학원 수준의 전문 추론, 기초 수학 등 AI 성능 테스트에서 오픈AI의 GPT-4를 능가한 것으로 알려졌다. 이처럼 각 업체들이 오픈AI AI 모델을 기준으로 삼고 최신 버전을 내놓지만 'GPT'를 넘기엔 여전히 부족하다는 의견이 많다. 오픈AI와 달리 '멀티모달(Multi modal)' 기능을 제공하고 있지 않아서다. 멀티모달은 텍스트뿐 아니라 이미지, 음성, 영상 등 다양한 데이터를 인식할 수 있는 AI 모델 방식이다. 기존 AI는 대부분의 정보를 텍스트로 배우고 처리했지만, 멀티모달 AI는 여러 가지 정보를 한꺼번에 받아들여 더 정확한 결과물을 만들어낼 수 있다는 것이 강점이다. 이 탓에 현재로선 오픈AI와 겨룰 수 있는 경쟁사는 구글이 거의 유일하다. 구글은 올해 2월 멀티모달 AI 모델 '제미나이 1.5 프로'를 공개한 데 이어 5월 중순께 제미나이 탑재 검색 엔진을 정식 출시했다. 이에 맞서 오픈AI도 지난 5월 다양한 형태의 데이터를 동시에 인식하고 처리할 수 있는 대규모 멀티모달 모델(LMM) 'GPT-4o'를 공개했다. '음성 모드'가 지원되는 것이 특징으로, 텍스트로 대화를 나누던 기존 모델과 달리 실시간 음성으로 질의응답을 할 수 있고 사용자가 답변 중간에 끼어들어도 대화를 계속할 수 있는 것이 차별점이다. 최근에는 챗GPT 소형 모델인 'GPT-4o 미니'를 공개하며 멀티모달 AI의 소형화에 앞장서고 있다. 이미지와 동영상을 제공해주고 실시간 음성 대화가 가능했던 'GPT-4o'와는 달리 텍스트와 이미지 인식 기능만 지원된다. 가격은 일반 모델인 GPT-3.5 터보보다도 60% 저렴하지만, 성능은 최신 모델인 'GPT-4o' 수준과 유사한 것으로 알려졌다. 오픈AI는 "'GPT-4o 미니'는 지난해 10월까지의 지식을 보유하고 있다"며 "이미지·비디오·오디오 입출력은 향후 지원할 예정"이라고 밝혔다. 테크크런치는 "미스트랄 라지 2와 메타 라마 3.1 버전에도 없는 것이 바로 '멀티모달' 기능"이라며 "오픈AI는 멀티모달 AI 시스템과 관련해 경쟁사보다 훨씬 앞서 있고 일부 스타트업들이 이를 구축하려고 노력 중"이라고 분석했다.

2024.07.26 09:27장유미

엔비디아, 생성형 AI 강화하는 파운드리 서비스 제공

엔비디아가 메타의 인공지능(AI) 모델 라마 3.1을 활용해 전 세계 기업의 생성형 AI를 강화하는 인공지능 파운드리(AI Foundry) 서비스를 제공한다. 23일(현지시간) 씨엔비씨 등 외신에 따르면, 엔비디아 고객은 이제 AI 파운드리 서비스를 통해 라마 3.1과 엔비디아 소프트웨어를 사용함으로써 도메인별 특징에 맞는 맞춤형 'AI 모델'을 만들 수 있다. 엔비디아에 따르면, 해당 서비스는 세계 최고의 퍼블릭 클라우드와 공동 엔지니어링된 엔비디아의 클라우드 AI 플랫폼을 기반으로 상황별 AI 수요 변화에 대응할 수 있다. 엔비디아의 새로운 서비스는 기업이나 국가가 자체 AI 모델을 개발하면서 고유한 비즈니스 문화를 반영하게 해준다. 또한 생성형 AI 애플리케이션을 위한 기업이나 국가의 도메인별 지식을 갖춘 맞춤형 대규모언어모델(LLM)도 지원한다. 젠슨 황(Jensen Huang) 엔비디아 창업자 겸 최고경영자(CEO)는 "메타가 공개한 라마 3.1 모델은 전 세계 기업 내 생성형 AI 채택의 중추적인 순간을 의미한다"며 "메타가 공개한 라마 3.1 모델은 전 세계 기업에서 생성형 AI를 채택하는 데 있어 중요한 순간"이라고 말했다. 그는 "라마 3.1은 모든 기업과 산업이 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열어준다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 AI 모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다"고 덧붙였다.

2024.07.24 09:56정석규

"오픈AI 'GPT-4o' 넘는다"…新무기 내놓은 메타, AI 지배력 강화할까

페이스북 모회사 메타플랫폼이 자사 새로운 인공지능(AI) 모델 '라마(Llama)3.1'을 앞세워 AI 초격차 전쟁에서 우위를 잡기 위한 본격적인 움직임에 나섰다. 24일 테크크런치 등 외신에 따르면 메타는 지난 4월 '라마 3'를 선보인 이후 3개월여만에 '라마 3.1'을 새롭게 선보였다. '라마'는 메타의 거대언어모델(LLM) 이름이다. 이번 일로 메타는 최근 'GPT-4o(포오)'를 선보인 챗GPT 개발사 오픈AI를 비롯해 '제미나이'를 앞세운 구글, '클로드 3.5 소네트'로 무장한 앤스로픽 등과 AI 시장에서 치열한 경쟁을 벌일 것으로 보인다. 메타는 '라마 3.1'이 이전 버전보다 더 많은 데이터로 학습돼 성능이 크게 향상된 덕분에 강력한 AI 모델을 활용하고자 하는 기업 등에 도움이 될 수 있을 것으로 봤다. 메타 측은 "라마3.1이 AI 모델 평가 테스트인 대규모 다중작업 언어 이해(MMLU)의 여러 평가 항목에서 오픈AI의 최신 모델인 'GPT-4o(포오)', 앤스로픽의 '클로드 3.5 소네트'를 능가했다"고 강조했다. 이번 모델은 3가지 버전으로 출시됐다. 가장 큰 버전인 '라마 3.1 405B'은 AI의 데이터 처리 능력과 연관되는 매개변수(파라미터)가 4천50억 개에 달한다. GPT-3의 1천750억 개를 2배 이상 능가하는 규모다. 메타는 매개변수가 70억 개인 소형 모델 '라마3.1 8B'와 함께 700억 개인 중형 모델 '라마 3.1 70B'도 선보였다. 이 소형 모델들은 챗봇과 소프트웨어 코딩 AI를 작동시키는 데 이용될 수 있는 것으로 알려졌다. 메타는 이전 모델과 마찬가지로 이번 '라마 3.1'도 누구나 무료로 사용할 수 있도록 오픈 소스로 제공키로 했다. 오픈AI나 구글이 자사 AI 모델을 비공개로 유지하는 것과 대조적이다. 일각에선 메타의 이런 움직임이 더 많은 사용자 기반을 확보해 업계 표준 지위를 획득함으로써 지배력을 강화하기 위한 전략으로 해석했다. 다만 '라마 3.1'이 멀티모달 모델이 아닌 만큼 이미지를 이해하거나 입력할 수 없다는 것을 두고 아쉬워 했다. 메타는 "라마 3.1이 오픈AI의 GPT-4o 운영 비용의 약 절반밖에 들지 않는다"며 "이 모델을 많은 개발자가 이용할 수 있도록 마이크로소프트(MS), 아마존, 구글, 엔비디아 등 20여 개 이상의 기업과 협력하고 있다"고 강조했다. 또 '라마 3.1'은 현재 상용 중인 AI 칩으로는 가장 최신인 엔비디아의 'H100' 그래픽처리장치(GPU) 1만6천 개를 기반으로 훈련된 것으로 전해졌다. 메타는 '라마 3.1'의 개발 비용을 공개하지 않았지만, 'H100' 칩이 1개당 3만∼4만 달러에 이르는 점에서 칩 구매에만 수억 달러(수천억원)가 소요됐을 것으로 예상된다. 마크 저커버그 메타 최고경영자(CEO)는 "'라마 3.1'은 가장 진보된 모델과 경쟁할 수 있는 제품"이라며 "내년부터는 향후 출시될 라마 모델이 업계에서 가장 진보된 모델이 될 것으로 기대한다"고 말했다.

2024.07.24 09:18장유미

메타, '라마' 차기 버전 유럽에 안 판다…왜?

메타가 인공지능(AI) 모델 '라마(Llama)'의 차기 멀티모달 버전을 유럽연합(EU) 기업들에 팔지 않기로 했다. 유럽 규제환경이 예측 불가능하다는 이유에서다. 미국 뉴스매체 액시오스는 18일 메타가 몇 달 후 출시할 '라마' 멀티모달 버전을 EU 시장에 출시하지 않을 것이라며 이같이 보도했다. 이에 따라 유럽 기업들은 비디오를 비롯한 오디오, 이미지, 텍스트를 모두 이해·처리하는 라마 멀티모달 모델을 사용할 수 없게 된다. 또 비EU 기업들도 이 모델을 사용한 제품과 서비스를 유럽에서 제공할 수 없게 될 가능성이 높다. 다만 텍스트 전용 버전인 '라마 3'는 EU 내에서도 출시 될 예정이다. 메타는 이런 결정을 내린 이유가 EU의 기존 데이터 보호법인 일반데이터보호법(GDPR) 때문이라는 입장이다. 이 기업은 지난 5월 페이스북·인스타그램 게시물을 통해 모델을 훈련할 계획이었다. 당시 유럽 사용자들에게 데이터 수집을 거부할 수 있는 권리인 옵트아웃(opt-out)을 지원했다. 그러나 EU 규제 당국은 6월 데이터 훈련을 중단하라는 명령을 내렸다. 메타가 GDPR에 반하는 행보를 보인다는 이유에서다. 메타 관계자는 "EU와 유사한 법을 가진 영국에서는 이러한 문제를 겪지 않고 있다"며 "영국 시장에는 새로운 모델을 출시할 계획"이라고 밝혔다. 외신은 이번 사건이 미국 빅테크와 유럽 규제 당국 간 갈등이 커지고 있음을 암시한다고 분석했다. 액시오스는 "EU는 개인정보 보호와 독점 금지 문제를 중요하게 보고 있다"며 "이는 기술 기업들과 상반된 입장"이라고 언급했다.

2024.07.18 14:57조이환

메타, 'GPT-4o'와 본격 경쟁…'라마3' 최상위 버전 23일 출격

메타가 오픈소스 거대언어모델(LLM) 라마3 시리즈 중 가장 상위 버전을 공개하며 'GPT-4o'를 비롯해 '제미나이', '클로드3 소네트' 등과 본격 경쟁을 벌인다. 16일 디 인포메이션에 따르면 메타는 오는 23일 기존 8B와 70B에 이어 매개변수 4천50억(405B) 규모의 LLM '라마3'를 공개한다. 이 모델은 텍스트 외 이미지를 이해하고 생성할 수 있는 멀티모달을 지원하는 것이 특징으로, AI 모델이 질문에 어떻게 응답하는지를 결정하는 '설정' 기능도 제공한다. 앞서 메타는 지난 4월 '라마3' 시리즈 중 80억 개(8B), 700억 개(70B) 등 소형 버전 2종을 출시한 바 있다. 이어 6월에는 80억 매개변수의 '라마3 8B' 모델을 기반으로 시각적 정보를 이해하는 비전 모델 '라마3-V'를 선보였다. 이에 대해 개발자들은 8B와 70B 소규모 모델로도 충분히 강력하다는 긍정적인 평가를 내놨다. 또 '라마3' 상위 버전이 나오지 않았음에도 개발자들은 '라마3' 소형 버전으로 테스트를 진행해 좋은 결과를 얻어 '라마3'로 교체하는 것을 검토 중인 것으로 알려졌다. 디인포메이션은 한 창업자 발언을 인용해 "LMSYS 리더보드에서 영어로 성능을 테스트한 결과 오픈AI GPT-4 터보만 라마3 70B를 넘어섰다"고 밝혔다. 업계 관계자는 "메타가 이번에 출시될 모델이 LLM 중 유일한 오픈소스라는 점에서 향후 AI 음성 비서 개발 등에서 오픈소스 진영이 큰 도움을 얻을 가능성이 있다"며 "하지만 메타가 오픈소스 LLM으로 어떻게 수익을 낼지는 불분명하다"고 말했다.

2024.07.16 10:32장유미

"애플, AI 챗봇에 '라마' 활용하자는 메타 제안 거절"

애플이 메타의 인공지능(AI) 협력 제안을 거절한 것으로 알려졌다. 앞서 월스트리트저널(WSJ)은 복수의 소식통을 인용해 애플이 자사 AI 시스템 '애플 인텔리전스'에 메타의 생성형 AI를 통합하는 방안에 대해 논의 중이라고 보도했다. 하지만 블룸버그에서 이미 양 사의 협상이 이미 결렬됐다는 정반대의 보도를 한 것이다. 25일(현지시간) 블룸버그 통신 마크 거먼은 익명의 소식통을 인용해 지난 3월 애플은 메타의 AI 모델 라마를 활용하는 것에 대해 짧게 논의하긴 했으나, 공식적인 대화로 이어지지 않았으며 최종적으로 메타의 제안을 거절했다고 전했다. 양측 대화는 지난 3월 애플이 구글·오픈AI 등 빅테크 기업의 AI 모델을 도입할 무렵 시작됐으나, 애플은 메타의 개인정보 보호 정책이 충분하지 않다고 판단해 메타와 논의를 진전하지 않은 것으로 전해진다. 애플은 지난 10일 열린 '연례 세계개발자회의(WWDC)'에서 자사 음성 비서 '시리'에 오픈AI의 챗GPT 탑재를 발표하며 향후 제휴 업체를 확대하겠다는 의사를 밝혔다. 애플 인텔리전스는 하반기 선보일 아이폰16 시리즈에 처음으로 탑재될 예정이다. 하지만 애플 인텔리전스는 아직 글로벌 빅테크 수준의 기술력을 갖추지 못해 애플은 AI 선도기업과 파트너십을 체결 중이다. 블룸버그는 구글은 이미 애플 사파리 웹 브라우저 검색 파트너이기 때문에 구글 제미나이와 협업할 가능성이 높다고 봤다.

2024.06.25 09:47류은주

개방형 AI 연구 지향하는 메타…"결국 수익화 목적"

메타가 인공지능(AI) 모델을 연달아 오픈소스로 공개하면서 개방형 AI 연구 생태계에 영향력을 확대하고 있다. 폐쇄형 모델로 수익화에 집중하는 오픈AI, 구글과 상반된 행보다. 다만 업계에서는 메타 전략도 장기적으론 수익화와 연결됐다고 보고 있다. 19일 업계에 따르면 메타 기초AI연구소(FAIR)는 개방형 AI 연구 활성화를 위해 새 AI 모델을 오픈소스로 전 세계 커뮤니티에 공개했다. FAIR는 이날 공식 홈페이지에서 텍스트와 이미지를 동시에 처리하는 멀티모달 모델 '카멜레온'과 음악 생성 모델 '제스코'를 소개했다. 저작권 이슈 방지를 위해 AI로 만든 음악을 감지하는 모델도 내놨다. 메타는 그동안 거대언어모델(LLM) 라마 시리즈를 오픈소스로 공개한 후 지속적으로 개방형 모델 출시 행보를 이어가고 있다. 올해 1월 마크 저커버그 메타 최고경영자(CEO)는 "모두가 AI 기술에 평등하게 접근해야 한다"며 "오픈소스를 통해 일반인공지능(AGI) 시대를 열겠다"고 개인 소셜미디어 채널에서 밝혔다. 일각에선 메타가 AI 산업 생태계를 좌우할 것이라는 전망을 내놓고 있다. 개발자가 돈을 내고 오픈AI의 GPT나 구글의 제미나이를 활용하는 대신 메타 모델로 AI 제품이나 모델을 만들 수 있는 환경이 꾸준히 조성되는 추세이기 때문이다. 메타 LLM이 폐쇄형 모델 성능을 바짝 뒤쫓고 있다는 평가도 한몫한다. 미국 월간지 와이어드에 따르면, 올해 4월 공개된 라마3 성능은 오픈AI의 GPT-3.5보다 높고 GPT-4와 비등한 상태인 것으로 전해졌다. 외신은 "오픈소스 모델 경쟁력이 확실히 입증되면 향후 개발자와 기업은 오픈AI나 구글 모델 대신 오픈소스 모델을 더 선호할 것"이라고 분석했다. 유료 모델 전환 가능성…"결국 메타가 이득일 것" 업계에선 메타의 이같은 행보가 결국 수익화 전략과 직결된다고 봤다. 우선 메타가 모델을 유료로 전환할 것이라는 예측이 꾸준히 제기되고 있다. 오픈소스 정책으로 개발자와 기업을 최대한 모은 후 유료 모델 전환으로 수익을 내려는 전략이다. 업계 관계자는 "스타트업이 메타 모델로 사업을 하거나 제품 개발을 진행하는 상황에서 모델 유료화가 추진된다면 상당히 곤란할 것"이라며 "다른 오픈소스 모델로 바꾸기보단 돈을 내고 모델 이용을 지속할 것 같다"고 설명했다. 메타가 오픈소스 AI 모델을 출시하는 이유는 자사 AI 도구와 서비스 개발 비용을 낮추기 위해서라는 분석도 있다. 자체적으로 돈을 들여 새로운 AI 기능을 개발하는 것보다 사용자들이 메타 모델로 만든 기능을 페이스북이나 인스타그램 등 자사 플랫폼에 연동하는 식이다. 또 다른 업계 관계자는 "일단 최대한 많은 사람이 라마3로 AI 서비스와 도구를 만들면 메타는 이를 자체 플랫폼에 끌어다 쓸 수 있다"며 "메타는 서비스나 도구 개발에 드는 비용을 들이지 않고 자사 플랫폼에 신 기능을 추가할 수 있다는 이점을 얻을 것"이라고 내다봤다.

2024.06.19 14:43김미정

"오픈소스 AI 모델, 공공사업에도 들어가야…생태계 확장 필요"

국내 오픈소스 인공지능(AI) 생태계에 활력을 불어넣자는 목소리가 나오고 있다. 전문가들은 정부가 공공사업에 오픈소스 AI 모델이 들어갈 수 있는 활로를 마련하는 등 관련 정책과 예산을 확보해야 한다고 입을 모았다. 오픈소스는 저작권자가 소스코드를 공개한 소프트웨어(SW)다. 개발자는 라이선스 규정에 맞게 이 SW를 자유롭게 사용하고 수정·재배포를 할 수 있다. 오픈소스형 AI 모델도 마찬가지다. 사용자들은 일정 조건 하에 이 모델로 새로운 AI 모델을 만들거나 기술, 솔루션 개발을 할 수 있다. 메타가 이달 19일 출시한 '라마3'를 비롯한 스태빌리티AI의 '스테이블 디퓨전', 미스트랄AI의 '미스트랄' 등이 오픈소스형 AI 모델이다. 한국에는 업스테이지의 '솔라'가 있다. 일각에서는 국내 기업도 라마3 수준의 오픈소스 모델을 보유해야 한다는 입장이다. 반면 전문가들은 라마3로 새로운 모델과 기술, 제품 제작을 돕는 환경 조성이 우선이라고 주장했다. 건국대 김두현 컴퓨터공학부 교수는 오픈소스 AI 모델 신뢰성부터 높여야 한다고 주장했다. 일반적으로 오픈소스 모델이 신뢰도가 낮거나 안전하지 않다는 편견이 존재한다. 폐쇄형 모델과 다르게 소스코드 등이 공개됐다는 이유에서다. 김두현 교수는 "공공기관이 시중에 나온 오픈소스 AI 모델을 자체 검증해야 한다"고 주장했다. 그는 "정부가 강력한 검증 방식으로 이를 시행한다면 모델 신뢰성과 안전성을 확보할 수 있을 것"이라고 설명했다. 김 교수는 오픈소스 AI 모델이 공공사업에 들어갈 수 있는 활로를 마련해야 한다고 봤다. 정부가 오픈소스 모델 활용 사례를 늘려야 한다는 의미다. 그는 "특히 정부 조달정책에 이같은 내용이 다뤄지지 않았다"며 "최소한 나라장터에 오픈소스 모델 기반 솔루션 입찰이 가능해야 한다"고 주장했다. 업계에서도 오픈소스 AI 생태계가 커져야한다고 의견을 밝혔다. 이를 위해 강력한 모델 검증과 정확한 성능 파악이 필요하다고 봤다. 개발자 커뮤니티 활성화도 절실하다고 강조했다. 업스테이지는 AI 모델 성능을 평가하는 플랫폼에 지원을 아끼지 않아야 한다고 강조했다. 회사 관계자는 "모든 개발자가 검증받은 오픈소스형 모델로 AI 개발을 자유롭게 할 것"이라며 "이를 통해 국내 'AI 민주화'를 이룰 수 있을 것"이라고 했다. 이 기업은 현재 한국지능정보사회진흥원(NIA)과 지난해부터 한국어 AI 모델 순위 매기는 '오픈 Ko-LLM 리더보드'를 운영하고 있다. 업스테이지 관계자는 "특히 모델 성능 측정에 필요한 LLM 전용 평가 데이터 개발이 절실하다"며 "정부가 이 분야를 위해 예산을 마련해야 할 것"이라고 덧붙였다. 이 외에도 AI 업계에선 정보와 노하우를 공유하는 커뮤니티 활성화도 필요하다는 의견이 나왔다. 국내 기업 관계자나 개발자가 AI에 대해 토론하고 기술을 서로 소개하는 공간이다. 업계 관계자는 "커뮤니티는 개발자에게 다양한 모델 활용 사례를 제공할 것"이라며 "도메인 특화 서비스 출시를 기존보다 신속하게 진행할 수 있을 것"이라고 말했다.

2024.04.24 09:43김미정

오픈소스 AI 모델 경쟁 치열…"AI 생태계 확장 기여"

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마3'를 공개하면서 기업 간 오픈소스 모델 경쟁이 더 치열해졌다. 올해 초 구글을 비롯한 스태빌리티AI, 미스트랄AI, xAI 등 해외 빅테크와 스타트업이 새 오픈소스 모델을 연달아 출시해서다. 21일 업계에 따르면 메타는 라마3 시리즈를 공개했다. 라마3는 AI 학습지표인 매개변수 80억개(8B) 버전과 700억개(70B) 버전으로 우선 제공된다. 특히 70B 버전은 수학을 비롯한 물리학, 역사 등을 종합적으로 평가하는 다중작업언어이해(MMLU) 평가에서 79.5점을 기록했다. 구글 제미나이 프로 점수보다 높다. 메타는 라마 시리즈로 오픈소스 생성형 AI 생태계를 확장해 왔다. 라마 시리즈 설계도도 공개된 상태다. 개발자는 이를 원하는대로 개조할 수 있다. 특히 경량화 모델이라 비용효율적이다. 메타는 이를 폐쇄형 모델인 오픈AI의 GPT와 구글의 제미나이 시리즈와 본격 경쟁할 전략이다. 이달 초 프랑스 AI 스타트업 미스트랄AI도 '믹스트랄 8x22B'를 오픈소스로 공개했다. 매개변수는 1천760억 개로, 한 번에 처리할 수 있는 텍스트 양은 6만5천 토큰이다. 벤치마크에서 이전 모델 '믹스트랄 8X7B', 메타의 '라마2 70B', 오픈AI의 'GPT-3.5'보다 높은 점수를 받은 것으로 전해졌다. 일론 머스크 테슬라 최고경영자(CEO)도 오픈소스 모델 경쟁에 뛰어들었다. 머스크의 xAI가 지난달 '그록-1'과 '그록-1.5'를 연달아 오픈소스 형태로 공개하면서다. 특히 그록-1.5는 기존 버전보다 16배 긴 문장을 처리할 수 있는 거대언어모델(LLM)이다. xAI는 각종 벤치마크 테스트에서 오픈AI의 GPT 모델과 엔트로픽의 클로드3 수준을 뛰어넘는 그록-1.5 점수를 공개하기도 했다. 올 초 구글도 오픈소스 경쟁에 뛰어들었다. 2월 자사 생성형 AI 모델 제미나이 기반으로 오픈소스 모델 '젬마'를 출시했다. 2B 버전과 7B 버전으로 제공된다. 모두 상업용으로 이용 가능하다. 당시 구글은 "젬마 7B 모델이 메타의 라마2 7B 모델보다 추론, 코드에서 앞섰다"고 공식 블로그를 통해 밝히기도 했다. 이 외에도 스태빌리티AI, 마이크로소프트 등 빅테크와 스타트업이 오픈소스 모델 경쟁 대열에 합류하는 추세다. 기업이 오픈소스 모델로 경쟁만 하지 않는다. 오픈소스 AI 생태계 확장을 위해 서로 타협하고 있다. 지난해 12월 IBM, 메타, 인텔 등 기업을 비롯해 산업계, 스타트업, 학계, 연구기관 등이 모여 'AI 얼라이언스'를 세웠다. AI 얼라이언스는 AI의 개방형 혁신과 연구를 지원하기 위한 단체다. 여기에 오픈소스 AI 모델 개발 지원도 포함됐다. 이를 통해 전 세계 인류에 혜택을 극대화하기 위함이다. 현재 기업·기관 등 100여곳이 이 얼라이언스에 가입한 상태다. 얀 르쿤 메타 수석AI과학자도 "오픈소스 AI 활성화가 AI 개발 속도를 더 올릴 수 있다"며 "모든 개발자와 기업들이 AI 문제점을 개선할 수 있을 뿐 아니라 기술 발전과 보안성까지 가속할 수 있다"고 올해 초 미국 월간지 와이어드 인터뷰에서 밝혔다.

2024.04.21 07:59김미정

메타, 오픈소스 모델 '라마3' 출시…페북-인스타 등에 적용

메타가 오픈소스 생성형 인공지능(AI) 모델 '라마 3'를 출시했다. 라마3는 현재 AI 챗봇서비스 '메타 AI'에 적용됐다. 18일(현지시간) 메타는 자사 블로그를 통해 라마3 시리즈의 자세한 내용을 공개했다. 시리즈는 총 3가지 버전으로 이뤄졌다. 우선 매개변수 80억개와 700억개 버전부터 나왔다. 나머지 버전은 미공개 상태다. 매개변수 4천억개 버전이며 데이터셋 훈련 중이다. 메타 측은 "메타3의 최소형 버전 기능은 라마2 초대형 버전과 비슷한 수준"이라며 "현존하는 오픈소스 모델 중 가장 성능 좋다"고 강조했다. 메타는 다른 모델과 비교한 성능 테스트 결과를 공개했다. 다중작업언어이해(MMLU) 등 AI 벤치마크를 활용했다. 라마3 8B는 9개 벤치마크에서 미스트랄 7B와 구글 제미나이 나노를 넘어섰다. 특히 라마3 70B는 MMLU에서 79.5점을 받아 구글 제미나이 프로보다 높은 점수를 기록했다. 이 버전은 제미나이뿐 아니라 앤트로픽 클로드3 오퍼스 버전과 맞먹는 점수를 기록했다. 라마3 모델은 아마존웹서비스(AWS)를 비롯한 데이터브릭스, 구글 클라우드, 허깅 페이스, 캐글, IBM의 왓슨X, 마이크로소프트 애저, 엔비디아의 NIM, 스노우플레이크를 포함한 클라우드 플랫폼에서 관리형 형태로 제공될 예정이다. 라마3, 비영어권 데이터셋 전체 5%…안전 도구 업데이트 메타는 라마3 데이터셋 중 비영어권 데이터 비율이 5% 이상이라고 설명했다. 이 5% 안에 영어를 제외한 30개 언어가 들어갔다. 메타 측은 "이번 모델은 라마2보다 더 높은 비영어권 데이터셋으로 이뤄졌다"며 "데이터 다양성이 증가하면 여러 언어에서도 강력한 성능을 발휘할 것"이라고 설명했다. 답변 편향성 감소를 위한 노력도 했다. 메타의 생성형 AI 안전 제품군인 '라마 가드'를 업데이트했다. 보안 취약점을 탐지할 수 있는 도구 '코드 쉴드'도 조만간 출시할 예정이다. 반면 업계에서는 이런 도구가 답변 필터링을 100% 보장하지 않는다고 반응했다. 라마3 모델이 실제 환경에서 어떻게 작동될지 우선 지켜봐야 할 것이라는 입장이다. 라마3 모델은 아마존웹서비스(AWS)를 비롯한 데이터브릭스, 구글 클라우드, 허깅 페이스, 캐글, IBM의 왓슨X, 마이크로소프트 애저, 엔비디아의 NIM, 스노우플레이크를 포함한 클라우드 플랫폼에서 관리형 형태로 제공될 예정이다. 라마3, 인스타그램·페이스북·왓츠앱 탑재…'메타 AI' 서비스 시작 이날 메타는 자사 소셜미디어 서비스 페이스북과 인스타그램, 왓츠앱에서 메타 AI 서비스를 시작했다. 여기에 라마3 시리즈가 들어갔다. 메타 AI는 이용자 질문에 답변을 제공하거나 이미지 등을 생성할 수 있다. 이용자는 메타 AI에 레스토랑 추천을 요청하고, 휴가를 계획하거나 새 아파트를 장식에 필요한 아이디어를 물어볼 수 있다. 다만 메타 AI의 이미지 생성 기능은 왓츠앱과 웹사이트에서 베타 버전만 제공된다. 현재 미국과 캐나다, 뉴질랜드, 호주 등 12개국 영어권 사용자부터 서비스를 이용할 수 있다. 한국은 1차 서비스 대상이 아니다. 마크 저커버그 메타 최고경영자(CEO)는 "메타 AI는 가장 지능적인 'AI 비서' 역할을 할 것"이라고 했다.

2024.04.19 10:41김미정

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

전 국민 최대 45만원 '소비쿠폰' 지급…21일부터 신청

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.