• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLAMA'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI, 팟캐스트도 만든다…메타, 오픈소스 '노트북라마' 선보여

메타가 구글의 인공지능(AI) 팟캐스트 생성 기능을 본뜬 오픈소스 모델을 공개했지만 실망스럽다는 평가가 나오고 있다. 기술적인 한계로 인해 구글 음성의 자연스러운 품질과 비교 시 미흡한 것으로 판단돼서다. 28일 테크크런치에 따르면 메타는 자사의 AI 모델 '라마(Llama)'를 활용해 구글 '노트북LM' 팟캐스트 기능과 유사한 오픈소스 프로젝트 '노트북라마'를 출시했다. 이 모델은 텍스트 파일을 대화 형식의 팟캐스트 콘텐츠로 변환하는 기능을 제공한다. '노트북라마'는 파일로 입력된 텍스트를 먼저 분석해 대화체로 재구성한 후 텍스트-음성 변환 모델을 통해 이를 음성 콘텐츠로 출력한다. 이 과정에서 사용자들이 보다 드라마틱한 표현과 중간중간 자연스러운 끊김을 경험할 수 있도록 설정돼 있다. 그럼에도 불구하고 업계 전문가들은 노트북라마의 음성 품질이 아직 초기 단계에 머물러 있는 것으로 평가한다. 사용자가 실제 대화를 듣는 듯한 자연스러움을 구현하기에는 현재의 텍스트 및 음성 모델 수준이 불완전한 상태로, 대화가 겹치는 현상이나 로봇 같은 음성 표현이 발생한다는 것이다. 메타 연구팀은 이러한 품질 문제를 해결하기 위해 더 강력한 모델 도입을 검토하고 있다. 연구팀은 "현재는 단일 AI 모델로 팟캐스트 콘텐츠를 구성하고 있다"며 "두 개의 AI 에이전트가 주제에 대해 토론하는 형식으로 개선할 가능성도 있다"고 밝혔다. 현재 AI 팟캐스트 생성 분야에서는 현재 구글을 비롯한 여러 회사들이 경쟁 중인 상황이다. 특히 구글은 지난 6월 '노트북LM'을 출시한 후로 AI 팟캐스트가 가능한 '오디오 개요(Audio overview)' 기능을 통해 업계의 찬사를 받아왔다. 많은 사용자들은 해당 기능의 자연스러운 음성과 인간과 같은 재치있는 만담에 긍정적으로 평가했다. 테크크런치는 "'노트북LM'과 '노트북라마' 등 AI 기반 팟캐스트 생성은 아직 해결해야 할 기술적 과제가 많다"며 "향후 정확성과 자연스러운 표현력을 높이는 기술 개발이 필요하다"고 분석했다.

2024.10.28 10:07조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

엔씨, '라마 바르코 LLM' 공개...동급 모델 최고 성능 기록

엔씨소프트(공동대표 김택진, 박병무)는 오픈소스 모델 기반 튜닝 거대언어모델(LLM)인 'Llama-VARCO LLM(라마 바르코 LLM)'을 공개했다고 26일 밝혔다. 'Llama-VARCO LLM'은 오픈소스 모델 'Llama 3.1'에 엔씨(NC)의 자체 기술력을 더해 한국어 성능을 향상시킨 튜닝 모델이다. 소규모-고성능이 특징으로 한국어 LLM의 사고력을 특정하는 'Logickor' 벤치마크에서 파라미터 100억 개 이하 동급 공개모델 중 1위의 성능을 기록했다. 광범위한 작업 호환성도 강점이다. 'Llama-VARCO LLM'은 ▲챗봇 ▲QA(Quality Assurance, 품질보증) ▲자연어 생성 등 다양한 분야에서 활용이 가능하다. 특히 한국어 AI 서비스 지원을 위해 소규모-고성능의 LLM이 필요한 기업에게 최적의 솔루션을 제공할 수 있다. 국내 게임사 최초 자체 언어모델을 개발한 엔씨(NC)는 시장의 요구에 맞는 비용 효율적인 모델을 꾸준히 선보이고 있다. 지난 4월에는 다국어를 지원하는 향상된 성능의 'VARCO LLM 2.0'을 선보였으며, 이달 LLM 성능을 검증하는 평가모델 'VARCO Judge LLM'을 공개했다. 엔씨(NC)는 AI 생태계 발전과 자유로운 연구 지원을 위해 'Llama-VARCO LLM'을 AI 플랫폼인 '허깅 페이스(Hugging Face)'에 배포하고 오픈소스로 제공한다. 자체적인 AI 기술력 검증과 연구 커뮤니티 소통을 위해 오픈소스 기반 모델을 지속 공개할 계획이다.

2024.09.26 16:24이도원

"오픈소스 성공적"...메타, LLM 라마 전년 대비 10배 성장

메타에서 서비스하는 대규모 언어모델(LLM) '라마(Llama)'의 인기가 급격하게 상승 중이다. 관련 업계에서는 메타의 오픈소스 전략이 점차 성공적으로 자리 잡고 있다는 분석이다. 30일 벤처비트 등 외신에 따르면 메타는 상반기 성과를 공식 홈페이지를 통해 발표했다. 공개된 내용에 따르면 라마의 다운로드 수는 3억5천만 건으로 전년 대비 10배 이상 늘어난 수치다. 라마의 인기는 꾸준한 상승세로 지난달에만 AI 오픈소스 커뮤니티인 허깅페이스를 통해 2천만 건 이상 다운로드를 기록했다. AI 커뮤니티 외에도 AT&T, 도어대시, 골드만삭스, 나이언틱, 스포티파이, 인포시스, KPMG 등 기업 파트너를 통해 서비스되는 사례를 포함하는 규모는 더욱 확대된다. 특히 최신 고성능 AI모델인 라마 3.1가 시리즈의 인기를 견인한 것으로 나타났다. 라마 3.1이 출시된 5월 이후 7월까지 2개월 만에 주요 클라우드 서비스 공급업체 파트너의 토큰 볼륨별 호스팅 사용량이 2배 이상 증가한 것으로 확인됐다. 메타는 급증하는 AI수요에 대응하기 위해 아마존웹서비스, 마이크로소프트, 구글 클라우드를 비롯해 데이터브릭스, 델, 엔비디아, IBM 왓슨, 스케일AI, 스노우플레이크 기업들과 협업하며 사용자를 지원하고 있다. 라마 3.1은 이전 모델보다 더 긴 128K 컨텍스트 길이를 지원한다. 이를 통해 더 복잡하고 세부적인 대화나 문서를 처리하고, 높은 정확도의 답변을 제공한다. 또한 라마3.1 405B, 라마3.1 8B, 라마 3.1 70B 3개 모델로 공개됐으며 이중 가장 높은 성능을 보유한 라마3.1 405B의 인기가 가장 높은 것으로 나타났다. 더불어 메타는 보고서를 통해 라마의 가파른 성과의 요인으로 오픈소스를 지목했다. AI 모델을 누구나 사용할 수 있도록 공개적으로 제공함으로써 급격하게 성장 중인 AI생태계의 기반으로 작용했다는 설명이다. 이를 위해 메타는 기계학습을 위한 도구, 라이브러리와 AI 파생모델 등 6만 개가 넘는 기술 지원을 허깅페이스를 통해 업데이트 했다고 밝혔다. 메타의 아마드 알-다흘레 생성형AI 부문 부사장은 "라마는 개방성, 수정 가능성, 비용 효율성에서 선두를 달리고 있다"며 "우리는 오픈소스 환경에서 구축하고 AI의 이점이 모든 사람에게 확대되도록 하는 데 전념하려 한다"고 말했다. 이어 "LLM은 어려운 질문에 답하고, 생산성을 개선하고, 창의성을 북돋우는 데 도움이 될 수 있다"며 "AI 어시스턴트가 일상생활에 적극적인 도움을 제공할 수 있는 미래의 비전에 다가가기 위해 노력하고 있다"고 강조했다.

2024.08.30 10:42남혁우

"오픈AI 'GPT-4o' 넘는다"…新무기 내놓은 메타, AI 지배력 강화할까

페이스북 모회사 메타플랫폼이 자사 새로운 인공지능(AI) 모델 '라마(Llama)3.1'을 앞세워 AI 초격차 전쟁에서 우위를 잡기 위한 본격적인 움직임에 나섰다. 24일 테크크런치 등 외신에 따르면 메타는 지난 4월 '라마 3'를 선보인 이후 3개월여만에 '라마 3.1'을 새롭게 선보였다. '라마'는 메타의 거대언어모델(LLM) 이름이다. 이번 일로 메타는 최근 'GPT-4o(포오)'를 선보인 챗GPT 개발사 오픈AI를 비롯해 '제미나이'를 앞세운 구글, '클로드 3.5 소네트'로 무장한 앤스로픽 등과 AI 시장에서 치열한 경쟁을 벌일 것으로 보인다. 메타는 '라마 3.1'이 이전 버전보다 더 많은 데이터로 학습돼 성능이 크게 향상된 덕분에 강력한 AI 모델을 활용하고자 하는 기업 등에 도움이 될 수 있을 것으로 봤다. 메타 측은 "라마3.1이 AI 모델 평가 테스트인 대규모 다중작업 언어 이해(MMLU)의 여러 평가 항목에서 오픈AI의 최신 모델인 'GPT-4o(포오)', 앤스로픽의 '클로드 3.5 소네트'를 능가했다"고 강조했다. 이번 모델은 3가지 버전으로 출시됐다. 가장 큰 버전인 '라마 3.1 405B'은 AI의 데이터 처리 능력과 연관되는 매개변수(파라미터)가 4천50억 개에 달한다. GPT-3의 1천750억 개를 2배 이상 능가하는 규모다. 메타는 매개변수가 70억 개인 소형 모델 '라마3.1 8B'와 함께 700억 개인 중형 모델 '라마 3.1 70B'도 선보였다. 이 소형 모델들은 챗봇과 소프트웨어 코딩 AI를 작동시키는 데 이용될 수 있는 것으로 알려졌다. 메타는 이전 모델과 마찬가지로 이번 '라마 3.1'도 누구나 무료로 사용할 수 있도록 오픈 소스로 제공키로 했다. 오픈AI나 구글이 자사 AI 모델을 비공개로 유지하는 것과 대조적이다. 일각에선 메타의 이런 움직임이 더 많은 사용자 기반을 확보해 업계 표준 지위를 획득함으로써 지배력을 강화하기 위한 전략으로 해석했다. 다만 '라마 3.1'이 멀티모달 모델이 아닌 만큼 이미지를 이해하거나 입력할 수 없다는 것을 두고 아쉬워 했다. 메타는 "라마 3.1이 오픈AI의 GPT-4o 운영 비용의 약 절반밖에 들지 않는다"며 "이 모델을 많은 개발자가 이용할 수 있도록 마이크로소프트(MS), 아마존, 구글, 엔비디아 등 20여 개 이상의 기업과 협력하고 있다"고 강조했다. 또 '라마 3.1'은 현재 상용 중인 AI 칩으로는 가장 최신인 엔비디아의 'H100' 그래픽처리장치(GPU) 1만6천 개를 기반으로 훈련된 것으로 전해졌다. 메타는 '라마 3.1'의 개발 비용을 공개하지 않았지만, 'H100' 칩이 1개당 3만∼4만 달러에 이르는 점에서 칩 구매에만 수억 달러(수천억원)가 소요됐을 것으로 예상된다. 마크 저커버그 메타 최고경영자(CEO)는 "'라마 3.1'은 가장 진보된 모델과 경쟁할 수 있는 제품"이라며 "내년부터는 향후 출시될 라마 모델이 업계에서 가장 진보된 모델이 될 것으로 기대한다"고 말했다.

2024.07.24 09:18장유미

메타, 'GPT-4o'와 본격 경쟁…'라마3' 최상위 버전 23일 출격

메타가 오픈소스 거대언어모델(LLM) 라마3 시리즈 중 가장 상위 버전을 공개하며 'GPT-4o'를 비롯해 '제미나이', '클로드3 소네트' 등과 본격 경쟁을 벌인다. 16일 디 인포메이션에 따르면 메타는 오는 23일 기존 8B와 70B에 이어 매개변수 4천50억(405B) 규모의 LLM '라마3'를 공개한다. 이 모델은 텍스트 외 이미지를 이해하고 생성할 수 있는 멀티모달을 지원하는 것이 특징으로, AI 모델이 질문에 어떻게 응답하는지를 결정하는 '설정' 기능도 제공한다. 앞서 메타는 지난 4월 '라마3' 시리즈 중 80억 개(8B), 700억 개(70B) 등 소형 버전 2종을 출시한 바 있다. 이어 6월에는 80억 매개변수의 '라마3 8B' 모델을 기반으로 시각적 정보를 이해하는 비전 모델 '라마3-V'를 선보였다. 이에 대해 개발자들은 8B와 70B 소규모 모델로도 충분히 강력하다는 긍정적인 평가를 내놨다. 또 '라마3' 상위 버전이 나오지 않았음에도 개발자들은 '라마3' 소형 버전으로 테스트를 진행해 좋은 결과를 얻어 '라마3'로 교체하는 것을 검토 중인 것으로 알려졌다. 디인포메이션은 한 창업자 발언을 인용해 "LMSYS 리더보드에서 영어로 성능을 테스트한 결과 오픈AI GPT-4 터보만 라마3 70B를 넘어섰다"고 밝혔다. 업계 관계자는 "메타가 이번에 출시될 모델이 LLM 중 유일한 오픈소스라는 점에서 향후 AI 음성 비서 개발 등에서 오픈소스 진영이 큰 도움을 얻을 가능성이 있다"며 "하지만 메타가 오픈소스 LLM으로 어떻게 수익을 낼지는 불분명하다"고 말했다.

2024.07.16 10:32장유미

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현