• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'라마'통합검색 결과 입니다. (44건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"개발자 잡아야 살아남는다"…메타, 라마콘서 'AI 총력전' 선언

메타가 인공지능(AI) 개발자들을 위해 대규모 행사를 열어 생태계 확장에 나섰다. AI 앱, 모델 응용 프로그램 인터페이스(API), 개인 정보 보호형 연산 기능을 잇달아 내놓으며 폐쇄형 경쟁자보다 먼저 시장 선점을 시도하겠다는 의도로 해석된다. 29일 테크크런치 등 외신에 따르면 메타는 지난 28일 미국 멘로파크 본사에서 '라마콘' 개발자 컨퍼런스를 열고 라마 API와 독립형 AI 앱, 왓츠앱 전용 기능 등을 발표했다. 참석자들은 이날 마크 저커버그 메타 최고경영자(CEO)와 사티아 나델라 마이크로소프트 CEO 간의 대담, 기술 세션 등을 통해 최근 '라마4' 발표 이후 메타의 로드맵에 대한 구상을 확인했다. 가장 관심을 모은 발표는 '라마 API'였다. 이 도구를 사용하면 개발자가 데이터를 직접 만들어 모델을 학습시키고 결과를 평가하는 전 과정을 한 곳에서 처리할 수 있다. 학습된 모델은 메타의 서버에 종속되지 않아 다른 클라우드 환경으로 자유롭게 옮길 수 있다. 또 세레브라스(Cerebras)나 그록(Groq) 같은 파트너 서버를 API 옵션으로 제공해 실시간 응답이 중요한 대화형 AI 서비스도 손쉽게 구현할 수 있도록 했다. 추가 공개된 독립형 '메타 AI 앱'은 개인화 기능을 강화한 것이 특징이다. 페이스북이나 인스타그램에서 생성된 소셜 데이터, 사용자의 콘텐츠 반응 기록 등을 활용해 응답의 정확도를 높이도록 설계됐다. 음성 채팅과 프롬프트 공유용 디스커버 피드도 포함돼 '챗GPT'와의 정면 대결을 염두에 둔 구성이란 분석이 나온다. 메타는 자사 소셜미디어인 '왓츠앱'에도 생성형 AI를 적용하기 위한 별도 기술을 공개했다. '프라이빗 프로세싱'으로 명명된 이 기능은 메시지를 요약하거나 정리하는 과정에서도 종단간 암호화 구조를 그대로 유지하도록 설계됐다. 이는 사용자가 직접 설정을 통해 켜야 작동하며 암호화된 채팅 내용을 외부 서버에 노출하지 않고 AI 기능을 제공하는 방식이다. AI 보조 기능과 개인정보 보호를 동시에 충족시킨 첫 사례로, 유럽연합(EU)이나 인도처럼 규제가 강한 시장에서 메타 AI의 확장 가능성을 높였다는 평가가 나온다. 모델 로드맵에서는 경량형 라마4인 '리틀 라마', 미출시 상태인 대형 모델 '비히모스', '라마4' 모델 마이너 업그레이드(dot release) 등이 언급됐다. 특히 '리틀 라마'는 모바일 기반 저전력 응용에 활용될 가능성이 높다. '비히모스'는 아직 비공개 상태이나 메타는 이를 세계 최고 성능의 베이스 모델로 표현했다. 현재 메타는 최근 '라마4' 모델 출시 후 성능 논란에 휘말린 상태다. 대화 최적화 버전인 '매버릭'은 벤치마크 '언어모델 아레나(LM 아레나)'에서 좋은 점수를 받았지만 실제 배포된 모델은 해당 성능을 내지 못했다. 추론 능력을 갖춘 모델이 없다는 점도 비판을 받았다. 출시 직후 한 테크 비평가는 "모든 경쟁자가 추론 모델을 내놓고 있는 상황에서 메타는 무리하게 출시를 서둘렀다"고 말한 바 있다. 마크 저커버그 메타 CEO는 라마콘에서 "우리 모두가 AI 변화가 50년이나 걸리지는 않을 거라는 전제로 현재 수준의 투자를 지속하고 있다"고 강조했다.

2025.04.30 10:38조이환

中 '딥시크'에 자극 받은 메타, 첫 AI 개발자 회의로 주도권 잡기 본격화

'페이스북' 모회사 메타플랫폼이 첫 인공지능(AI) 개발자 회의를 열고 최신 AI 모델인 '라마4'를 앞세워 시장 공략에 본격 나선다. 29일 블룸버그통신, CNBC, 엔가젯 등 주요 외신에 따르면 메타플랫폼은 이날 미국 동부시간 기준 오후 1시(현지시간) 온라인을 통해 AI 개발자 회의인 '라마 컨퍼런스'를 개최한다. '라마(Llama)'는 메타의 오픈소스 거대언어모델(LLM)로, 메타는 이달 초 최신 버전인 '라마4'를 공개한 바 있다. '메타 포 디벨로퍼즈(Meta for Developers)' 공식 페이스북 페이지를 통해 생중계되는 이번 행사에선 향후 메타의 AI 전략이 공개될 예정이다. 메타는 그동안 매년 9월 신제품 발표 행사인 '메타 커넥트(connect)' 컨퍼런스를 통해 '라마' 모델을 소개해왔으나, 올해부터는 이를 분리해 독립적인 행사로 개최한다. 메타의 오픈소스AI 개발 현황을 공유하고 개발자들이 이를 활용해 혁신적인 앱과 제품을 만들 수 있도록 지원하기 위해서다. 메타는 AI 시장에서 오픈소스 전략을 고수하고 있는 상태로, 현재 골드만삭스와 노무라홀딩스, AT&T, 도어대시, 액센추어 등 다양한 글로벌 기업들이 '라마' 모델을 활용 중이다. 또 엔비디아와 데이터브릭스, 그록, 델, 스노우플레이크 등 최소 25개 파트너사가 '라마' 모델을 호스팅하고 있다. 이번 회의에선 크리스 콕스 메타 최고제품책임자를 비롯해 마노하르 팔루리 AI 부사장, 안젤라 팬 연구 과학자 등이 기조연설에 나선다. 이들은 메타의 오픈소스 AI 커뮤니티 최신 동향과 '라마' 모델 업데이트, 메타의 AI 전략 등을 발표한다. 이후 마크 저커버그 메타 최고경영자(CEO)는 데이터 분석기업 데이터브릭스 CEO 알리 고드시와 'AI 기반 애플리케이션 구축'을 주제로 대담에 나선다. 또 사티아 나델라 마이크로소프트(MS) CEO와 'AI의 최신 트렌드'에 관해서도 논의한다. 업계 관계자는 "데이터브릭스, MS 측과의 대화가 모두 공식적인 신제품 발표를 위한 세션은 아닌 것으로 보인다"면서도 "다만 MS와 메타가 이미 여러 차례 협업한 전례가 있어 깜짝 발표 가능성도 배제할 수 없다"고 봤다. 업계에선 메타가 AI 개발자 회의를 독립적으로 개최하게 된 배경으로 중국 AI 스타트업인 '딥시크'가 자극이 됐을 것으로 봤다. '딥시크'가 메타의 '라마' 모델과 경쟁하거나 이를 넘어설 수 있는 오픈소스 AI 모델을 출시하며 올 초부터 주목 받기 시작해서다. 이에 메타는 '딥시크'가 모델 운영 및 배포 비용을 대폭 낮춘 방식을 분석하기 위해 긴급 태스크포스(TF)도 구성한 것으로 알려졌다. 또 메타는 AI에 대한 대규모 투자를 통해 시장의 선두 주자로 올라서겠다는 계획도 세웠다. 이를 위해 올해는 AI 관련 프로젝트에만 최대 800억 달러(약 110조원) 가량을 투자할 예정이다. 이 자금은 AI 전문 인재 채용과 신형 AI 데이터센터 건설, 라마 시리즈 강화 등에 쓰일 것으로 알려졌다. 더불어 메타는 라마 기반의 AI 챗봇 '메타 AI'를 페이스북과 인스타그램, 왓츠앱 등 자사가 보유한 소셜미디어(SNS)에 접목하며 이용자 수를 늘리고 있다. 또 조만간 별도의 메타 AI 앱도 출시해 사용자 확장을 꾀할 계획이다. '메타 AI'의 월간 활성 사용자 수는 지난해 9월 기준 5억 명에 육박했다. 저커버그 CEO도 AI 시장에서 메타의 주도권을 잡기 위해 적극 나설 것임을 시사했다. 앞서 지난 1월에는 "2025년은 고도로 지능적이고 개인화된 AI 어시스턴트가 10억 명 이상에게 도달하는 해가 될 것"이라며 "메타 AI가 그 선두 주자가 될 것"이라고 말한 바 있다. 저커버그 CEO는 '라마4' 외에 올해 추론 능력과 멀티모달 기능을 갖춘 다양한 신형 AI 모델 출시도 예고했다. 또 '라마' 모델이 향후 자율적으로 작업을 수행할 수 있는 '에이전틱 AI' 기능도 지원할 것임을 예고했다. 다만 일각에선 메타가 AI 학습 과정에서 저작권이 있는 서적 자료를 무단 사용했다는 소송과 EU 일부 국가의 개인정보 보호 규제로 인한 모델 출시 연기, 취소 등 여러 도전에 직면하고 있다고 지적했다. 또 도널드 트럼프 행정부의 관세 여파도 우려되는 부분이라고 봤다. 업계 관계자는 "이 같은 상황 속에 메타가 '라마4'와 '라마 컨퍼런스'를 통해 시장을 이끌 수 있을 지 주목된다"며 "트럼프 행정부의 관세 영향도 다소 있을 것으로 보여 메타의 올해 AI 투자가 유지될지 지켜봐야 할 듯 하다"고 말했다.

2025.04.29 10:06장유미

1분기 실적 앞둔 메타, AI 시장 주도권 확보 방안 제시

메타가 1분기 실적 발표를 앞두고 글로벌 인공지능(AI) 시장 주도권 확보 방안을 제시한다. 29일 CNBC는 메타가 미국 캘리포니아 멘로파크 본사에서 첫 AI 개발자 컨퍼런스 '라마콘'을 열고 글로벌 오픈소스 AI 생태계 강화 전략을 공유한다고 밝혔다. 이후 31일(현지시간) 실적을 발표한다. 이번 라마콘에서는 메타의 최신 AI 모델인 '라마 4' 시리즈가 소개된다. 특히 주요 시리즈인 멀티모달 모델 '스카우트'와 '매버릭'도 공개된다. 2조개 파라미터로 이뤄진 모델 '비히모스'에 대한 정보도 공유될 예정이다. 이번 행사에는 마크 저커버그 메타 최고경영자(CEO)와 사티아 나델라 CEO 간 대담 세션도 포함됐다. 이에 두 CEO가 AI 분야 미래와 협업에 대한 논의를 진행할 가능성도 높다. 외신은 이번 행사에서 메타의 AI 투자 현황과 미국 관세 정책 대응안 이어질 것으로 봤다. 앞서 메타는 올해 AI 인프라 구축을 위해 올해 최대 650억 달러를 지출한다고 밝혔다. 분석가들은 메타가 투자 금액을 상향 조정할 가능성 있다고 내다봤다. 미국 투자은행 니드햄은 메타가 올해 600~650억 달러 자본 지출 계획을 변경하지 않을 것으로 예상했다. 다만 관세로 인해 향후 비용이 추가로 증가할 수 있다는 리스크를 지적했다. 앞서 인텔은 이번 1분기 실적 발표에서 무역정책이 경기 둔화 가능성을 높였다고 밝혔으며, 구글도 설비 투자 계획은 변함없지만 공급 일정 변동 가능성을 언급한 바 있다. 투자자들은 메타가 보유한 글로벌 사용자 기반으로 AI 시장에서 우위를 점할 것으로 기대하고 있다. 수조 달러 규모 시장을 겨냥한 만큼 라마 투자 지속 여부는 중장기적으로 실적과 직결될 전망이라는 이유에서다. 현재 메타는 라마4 모델을 출시해 AI 에이전트 개발에 속도를 내고 있다. 이를 통해 웹 브라우저나 앱에서 사용자 업무를 자동화하는 기능을 강화하고 있다. 최근 메타AI 디지털 어시스턴트 사업도 시작했다. 올해 2분기 중 독립형 메타AI 앱 출시와 유료 구독 서비스 테스트를 계획 중이다. 업계는 별도 앱 출시에 따라 메타AI가 차별화된 브랜드 가치를 확보할 수 있을 것으로 보고 있다. 다만 페이스북이나 인스타그램 사용자가 현재처럼 단순히 콘텐츠 소비에 집중할 경우 AI 서비스 확산에는 시간이 걸릴 수 있다는 분위기다. 윌리엄 블레어의 랄프 샤카트 연구원은 "메타는 다수 플랫폼을 통해 수십억 사용자 기반을 활용할 수 있는 좋은 위치에 있다"며 "초기 선점 효과를 바탕으로 AI 시장에서 강력한 존재감을 가질 것으로 본다"고 밝혔다. 웰스파고의 켄 가웰스키 전무는 "메타는 라마 모델이 최첨단 모델과 경쟁할 수 있는지 지속적으로 평가해야 한다"며 "아직까지 메타는 구글처럼 직접적으로 모델을 수익화하지 못했다"고 밝혔다.

2025.04.29 09:05김미정

"AI 에이전트 구축 속도↑"…엔비디아, '니모 마이크로서비스' 출시

"인공지능(AI) 에이전트 구축 핵심은 속도와 안전성입니다. '니모(NeMo) 마이크로서비스'는 AI 에이전트 제작에 필요한 데이터부터 모델 학습, 평가, 보안, 정보 검색까지 전 과정을 지원합니다. 기업은 다양한 환경에서 AI 에이전트를 빠르고 안전하게 운영할 것입니다." 엔비디아 조이 콘웨이 AI 소프트웨어 부문 수석 디렉터는 23일 온라인으로 진행한 아시아·태평양 미디어 프리프리핑을 통해 대규모 AI 에이전트 구축 플랫폼 니모 마이크로서비스를 처음 공개하며 이같이 밝혔다. 이날 소개된 니모 마이크로서비스는 기업들이 대규모 AI 에이전트를 신속히 구축하고 운영할 수 있도록 지원하는 통합 플랫폼이다. 이 시스템은 비즈니스 인텔리전스와 사용자 피드백, 추론 데이터 등으로 구성됐다. 해당 서비스는 데이터 준비를 위한 '니모 큐레이터'와 AI 모델을 교육하고 역량을 키우는 '니모 커스터마이저', 모델 성능 검증하는 '니모 평가자'로 이뤄졌다. 여기에 에이전트 운영 안전성을 보장하는 '니모 가드레일', 정보 검색 정확도를 높이는 '니모 리트리버'까지 결합돼 구축 효율성을 높일 수 있다. 콘웨이 디렉터는 "특히 커스터마이저는 학습 후 처리 속도를 기존 대비 최대 두 배 올릴 수 있다"고 강조했다. 또 "서비스 구성 요소인 '니모 평가 자동화' 도구는 오픈소스의 모범 사례를 집약해 API 호출량을 3분의 1로 줄일 수 있다"고 서비스 강점을 소개했다. 이어 그는 "가드레일은 에이전트 집중도 유지를 돕고, 리트리버는 내부 지식 기반에서 정확한 정보를 찾아 제공하는 역할을 한다"고 덧붙였다. 콘웨이 디렉터는 니모 마이크로서비스가 이미 AT&T와 시스코 등에 적용돼 고객 상담 정확도와 소프트웨어 개발 효율성을 높였다고 강조했다. 실제 AT&T는 에이전트 정확도를 40% 끌어올렸고, 시스코는 응답 시간을 10배 낮춰 에러율을 줄였다. 해당 서비스는 SAP, 서비스나우, 액센추어, 딜로이트 등 대기업 업무 환경과 통합돼 클라우드 환경에서도 작동 가능하다. 이를 통해 AI 팀원의 성능을 전반적으로 높이고, 에이전트가 데이터 기반으로 지속 성장할 수 있는 여건을 조성한다. 또 이날 발표된 '라마 니모트론'은 추론 기능에 특화된 오픈모델이다. 이는 화학, 물리, 생물 등 과학적 질문에 대응하거나 수천 줄의 코드 리뷰처럼 복잡한 문제 해결 능력을 강화하는 데 활용된다. 콘웨이 디렉터는 "라마 니모트론은 유사 모델보다 최대 4배 빠른 처리량을 보여준다"며 "AI 에이전트 핵심 추론 기능 강화를 통해 고객의 실질적 문제 해결력을 높일 수 있다"고 밝혔다.

2025.04.23 22:01김미정

스포츠보다 힙합?…게토레이, 켄드릭 라마 모델 선임

그래미상과 퓰리처상을 모두 수상한 래퍼 켄드릭 라마가 게토레이의 대규모 마케팅 캠페인의 주인공으로 나선다. 이는 모기업 펩시코가 갈수록 치열해지는 스포츠음료 시장에서 자사 브랜드의 선두 자리를 지키기 위한 전략의 일환이다. 18일(현지시간) 블룸버그통신에 따르면 이번 캠페인은 켄드릭 외에도 케이틀린 클라크, 루카 돈치치, 제이슨 테이텀, 아자 윌슨, 셰듀어 샌더스 등 게토레이 소속 운동선수들이 함께 등장한다. 광고는 이번 주말부터 열리는 NBA 플레이오프 기간에 처음 공개된다. 이후 메이저리그(MLB) 올스타전, 미식축구리그(NFL) 드래프트 등 다양한 스포츠 이벤트를 겨냥한 마케팅도 준비 중이다. 음료 업계 전문 매체 베버리지 데일리에 따르면 게토레이는 미국 스포츠음료 시장에서 약 62%의 점유율을 기록하며 압도적인 1위를 지키고 있다. 하지만 최근 들어 수많은 경쟁 브랜드들이 시장에 뛰어들면서 상황이 예전만큼 녹록지는 않다고 외신은 설명했다. 실제 코카콜라가 소유한 바디아머와 파워에이드는 유명 스포츠 스타들을 속속 영입하고 있다. 유니레버의 리퀴드 IV와 인플루언서 로건 폴의 프라임 등 신생 브랜드도 빠르게 점유율을 늘리고 있다. 바디아머 역시 조 버로우, 코너 맥데이비드 등과 함께한 광고 캠페인을 최근 공개했다. 게토레이의 브랜드 총괄 아누즈 바신은 "스포츠음료 시장이 지금 전환점에 있다"며 "수 많은 신생 브랜드들 사이에서 소비자들이 스포츠음료는 과학적으로 설계돼 운동 능력을 향상시키는 데 초점을 둔 제품이라는 점을 잊어가고 있다"고 우려했다. 이번 캠페인은 게토레이 역사상 가장 큰 규모의 셀러브리티 브랜드 캠페인으로, 뮤지션이 광고 모델로 나서는 것은 이번이 처음이다. 라마와의 계약 조건은 비공개다. 켄드릭 라마는 최근 1년 사이 여러 차례 1위를 기록한 히트곡과 2월 NFL 슈퍼볼 하프타임 공연을 통해 입지를 더욱 넓혔다. 그는 과거 나이키와 아메리칸 익스프레스 등과도 협업한 바 있으며 미네소타를 시작으로 글로벌 콘서트 투어에 나설 예정이다. 바신은 "힙합 문화는 스포츠 문화의 중요한 축"이라며 "회사가 Z세대와의 소통 방식을 근본적으로 바꾸기 위해 노력 중"이라고 말했다.

2025.04.20 15:00류승현

新 LLM 내놓은 메타, 벤치마크 모델 성능 조정 의혹…"일반 버전과 달라"

메타가 새 인공지능(AI) 모델 성능 테스트에 사용한 모델과 실제 일반 버전이 다른 정황이 포착됐다. 7일 테크크런치에 따르면 메타가 챗봇 성능을 비교하는 'LM 아레나' 테스트에서 2위를 차지한 모델 '매버릭'이 일반 매버릭 버전과 다르다는 의혹이 개발자들 사이에서 나왔다. 테스트 버전과 일반 개발자가 다운로드할 수 있는 버전 구성이 다른 셈이다. 현재 LM 아레나에 적용된 매버릭 버전은 '실험적인 챗 전용 버전'으로 명시됐다. 반면 배포용 버전은 정교한 대화 조정이 적용되지 않은 것으로 드러났다. 결과적으로 LM 아레나에 등록된 모델은 공개 모델보다 더 사람처럼 반응할 수 있도록 설계된 셈이다. 실제 사용 환경에서 두 버전은 성능 차이를 보일 수 있다. 다수 외신은 벤치마크용 모델과 실제 공개 모델이 다를 경우 생기는 혼란을 우려했다. 특정 벤치마크에 맞춰 성능 높인 모델이 실제로 제공되지 않거나, 동일한 이름으로 배포될 때 사용자 혼동이 발생한다는 지적이다. 실제 개발자들도 LM 아레나에 올라간 매버릭은 공개 다운로드 버전과 크게 다르다고 입을 모았다. LM 아레나에 올라간 버전은 이모티콘을 과도하게 쓰거나 응답이 지나치게 길었다는 의견이 이어졌다. 이들은 해당 버전이 대화 특화형 조정을 거친 것으로 파악했다. 미국 AI 정보 플랫폼 세마포어 관계자는 "메타가 테스트용 버전을 숨긴 채 일반 버전과 구분하지 않고 공개한 것은 큰 오해를 불러올 수 있다"며 "벤치마크는 다양한 작업에서 장단점을 파악할 수 있는 기준이 돼야 한다"고 지적했다.

2025.04.07 10:48김미정

"비용 줄이고 성능 높여"…메타, '라마 4' 공개로 딥시크 정면돌파

메타가 중국발 오픈소스 인공지능(AI) 모델 급부상에 대응하기 위해 새 AI 모델 시리즈 '라마 4'를 공개했다. 6일 테크크런치 등 외신에 따르면 메타는 멀티모달 기반 라마 4 모델 '스카우트'와 '매버릭' '비히모스'를 출시했다. 스카우트와 매버릭은 공식 웹사이트와 허깅페이스를 통해 이용 가능하다. 비히모스는 현재 훈련 중이다. 메타는 라마 4 전 모델에 '전문가 혼합(MoE)' 구조를 처음 도입했다. MoE는 질문에 따라 필요한 AI만 활용하는 방식이다. 예를 들어 코딩 질문에는 코딩 전문 AI가, 창작 요청에는 창작 전문 AI만 작동한다. 이를 통해 연산 자원을 줄이고 속도와 비용을 개선할 수 있다. 매버릭은 MoE 구조를 통해 4천억개 전체 매개변수를 갖췄지만 사용자 질문에는 170억개 매개변수만 활성화된다. 메타는 "이 모델이 일반적인 AI 어시스턴트 용도로 활용된다"며 "창작, 코딩, 다국어 처리 등에서 GPT-4o와 제미나이 2.0을 능가했다"고 밝혔다. 스카우트는 그래픽처리장치(GPU) 한장으로 작동 가능하다. 매개변수는 1천90억개며 한 번에 최대 1천만 토큰을 처리할 수 있는 장문 이해 능력을 갖췄다. 논문 수십 편, 대형 코드베이스, 법률 문서 등 장문 자료를 한 번에 읽고 분석할 수 있다. 비히모스는 매개변수 약 2조개로 구성됐다. 수학, 과학 분야에서 GPT-4.5, 클로드 3.7, 제미나이 2.0 프로보다 높은 테스트 점수를 받았다. 메타는 이번 모델에서 응답 거부 기준도 완화했다고 밝혔다. 이전보다 정치적·사회적 논쟁을 포함한 질문에 더 많은 응답이 가능하도록 조정했으며 특정 관점을 배제하지 않는다는 설명이다. 유럽연합(EU) 사용자는 라마 4를 사용할 수 없다. 메타가 본사나 주사업장이 EU에 있는 사용자·기업의 사용과 배포를 금지해서다. 다수 외신은 메타가 AI법과 개인정보보호법(GDPR)에 따른 법적 리스크를 피하기 위한 조치라고 분석했다. 월간 7억명 이상 활성 사용자를 보유한 기업도 메타의 별도 승인 없이 모델을 사용할 수 없다. 승인 여부는 메타 재량에 따른다. 테크크런치는 메타의 라마 4 시리즈 공개가 중국발 오픈소스 AI 모델 위협에 대응하기 위한 전략이라고 봤다. 특히 올해 1월 딥시크가 공개한 R1과 V3 모델이 성능과 효율성에서 기존 라마를 뛰어넘었다는 평가가 이어지면서 메타 모델 출시 일정이 당겨졌다는 분석도 나오고 있다. 메타는 "이번 모델 시리즈는 라마 생태계의 새로운 시대를 여는 시작점"이라며 "논쟁적 질문에 더 응답하고 다양한 견해를 수용하려는 조정이 이뤄졌다"고 공식 홈페이지에서 밝혔다.

2025.04.06 10:03김미정

'라마'와 '파이토치' 이끈 주역 떠난다…메타 AI 수장, 퇴사 이유는?

메타의 인공지능(AI) 전략을 이끌어온 핵심 리더가 조직을 떠난다. 급변하는 기술 환경 속 리더십 세대교체 신호로 읽힌다. 2일 업계에 따르면 조엘 피노 메타 AI 부문 부사장은 자신의 링크드인을 통해 다음달 30일 퇴사한다고 밝혔다. 지난 2017년 입사한 그는 메타의 AI 핵심 연구 조직인 AI 기초연구소(FAIR)를 이끌며 오픈소스 거대언어모델 '라마', 라이브러리 '파이토치' 등 핵심 기술 프로젝트를 주도해왔다. 피노 부사장은 메타에서의 8년을 '인생 최고의 직업적 경험'으로 평가하며 FAIR의 연구 성과가 학계와 산업계를 아우르는 생태계로 확산됐다고 강조했다. 그는 수많은 연구자와 실무자들이 메타의 도구를 활용하고 있다며 '라마·코드젠·오디오박스' 등 대표 모델들을 거론했다. 메타는 이번 지도부 교체에도 AI 분야에서 전방위적인 투자를 이어갈 예정이다. 회사는 올해 AI 인프라에만 650억 달러(한화 약 87조원)를 투입할 계획이다. 이와 함께 FAIR 조직은 크리스 콕스 최고제품책임자(CPO)에게 직접 보고하는 구조로 재편된 상태다. 회사 측은 피노의 후임 인사를 아직 확정하지 못했다. 현재 후계자를 물색 중이며 공식 발표는 추후 이뤄질 전망이다. FAIR는 설립자인 얀 르쿤이 여전히 이끄는 가운데 조직 안정성 유지가 당분간 과제로 떠오를 것으로 보인다. 피노 부사장은 퇴사 이후 일정 기간 휴식을 취할 예정이다. 향후 행보에 대한 구체적 언급은 피했지만 연구 및 기술 생태계 내 영향력을 유지할 가능성이 높게 점쳐진다. 그는 "이제는 다른 이들이 이 여정을 이어가야 할 때"라며 "메타는 세계 최고 수준의 AI 시스템을 구축할 역량을 충분히 갖췄다"고 밝혔다.

2025.04.02 09:18조이환

[AI는 지금] 中 딥시크 파장 컸나…폐쇄형 고집하던 오픈AI, '오픈소스 모델' 출시

중국 인공지능(AI) 기업 딥시크의 부상에 자극을 받은 오픈AI가 폐쇄 정책에서 벗어나 오픈소스 전략에 힘을 주고 있다. 오픈소스 진영과 폐쇄형 진영의 기술 격차가 점차 줄어들며 오픈소스 생태계가 빠르게 확산되자 위기감을 느낀 것으로 분석된다. 1일 테크크런치 등 주요 외신에 따르면 오픈AI는 몇 달 안에 'GPT-2' 이후 첫 개방형 AI 언어 모델 '오픈웨이트 AI'를 출시할 것으로 알려졌다. 'GPT-3'부터 폐쇄형 모델 전략을 고수했지만, 최근 미국 메타와 프랑스 미스트랄, 중국 딥시크, 알리바바 등 경쟁사들이 오픈소스 모델을 통해 빠르게 시장을 잠식하자 다급히 전략 수정에 나선 분위기다. 오픈소스는 소프트웨어 설계도라 할 수 있는 '소스 코드'를 공개해 누구나 수정·배포할 수 있게 하는 것을 뜻한다. 연구원, 개발자 등이 소스 코드를 자유롭게 활용하면서 AI 성능 개선이 매우 빠르게 이뤄지는 효과를 얻을 수 있는 동시에 이를 가져다 튜닝해 쓰는 기업들에겐 개발비 부담도 크게 줄일 수 있다는 장점이 있다. 또 GPT(오픈AI), 제미나이(구글) 등 폐쇄형은 데이터를 해당 모델의 서버로 전송해야 해 보안 및 데이터 유출 문제가 발생할 수 있는 데 반해 오픈소스는 보안 측면에서도 자유롭다. 다만 오픈소스를 활용해 개인정보를 탈취하는 악성 AI '웜GPT(WormGPT)'를 만들어낸 사례처럼 범죄에 악용될 수 있다는 단점도 있다. 하지만 최근 오픈소스 전략을 채택하는 기업들은 점차 늘어나는 추세다. 미국 휴머노이드 기업 피규어 AI는 오픈AI와의 파트너십을 끝내며 오픈소스 모델을 사용하겠다고 공식 선언했다. 국내 기업과 후발주자들도 낮은 비용으로도 고성능 언어모델을 개발할 가능성을 열게 되면서 점차 값 비싼 오픈AI의 AI 모델을 써야할지에 대한 의문을 드러내고 있다. 개인정보보호위원회 조사 결과 우리나라에서도 AI 스타트업 10곳 중 6곳이 오픈소스 모델에 기반한 응용 서비스를 출시했거나 자사 서비스 성능 개선에 오픈소스를 활용한 적이 있는 것으로 나타났다. 이에 메타 라마 모델은 이달 초 기준 10억 다운로드를 기록할 정도로 많이 활용되고 있는 것으로 나타났다. 딥시크 역시 전 세계적으로 빠르게 사용자 기반을 구축하며 투자자들의 많은 관심을 받았다. 업계 관계자는 "지금까진 대규모 자본을 바탕으로 AI 모델을 개발해야 한다는 생각을 가졌지만, 딥시크 등장 이후 실용성, 효율성을 따지기 시작한 듯 하다"며 "우리나라 AI 기업들도 이미 우수한 기술을 보유하고 있는 만큼 기술력과 창의성을 앞세워 모델 개발에 나설 필요가 있다"고 말했다. 이 탓에 샘 알트먼 오픈AI 최고경영자(CEO)는 오픈소스 전략을 수용하는 것으로 점차 방향을 틀고 있다. 지난 1월 말에는 레딧 '뭐든지 물어봐(AMA)' 게시판에서 오픈AI의 오픈소스 전략이 "역사의 잘못된 편에 있었다"고 평가하며 기술 공개 방식에 대한 변화를 예고하기도 했다. 이후 오픈AI는 지난 달 31일 공식 웹사이트에 개발자, 연구원 등을 대상으로 오픈소스와 관련된 질문을 게재해 눈길을 끌었다. 해당 질문에는 오픈AI의 개방형 모델에서 무엇을 원하는지, 과거 오픈소스 모델을 사용한 적이 있는지 등과 관련한 내용이 포함돼 있는 것으로 파악됐다. 여기에 오픈AI는 오픈소스 모델을 출시하기 앞서 피드백을 수집하고 프로토타입을 시연하기 위해 개발자 이벤트를 개최할 계획을 갖고 있는 것으로 알려졌다. 이 행사는 몇 주 내 미국 샌프란시스코를 시작으로 유럽, 아시아-태평양 지역에서 열릴 예정이다. 오픈AI가 개발할 예정인 '오픈웨이트' 모델은 일부 코드와 가중치를 공개하는 것으로 알려져 있으며 개발자들이 모델을 분석하고 미세조정(파인튜닝) 할 수 있을 것으로 보인다. 알트먼 CEO는 자신의 소셜 미디어 X(옛 트위터)를 통해 "다른 오픈소스 전략을 찾아내야 한다고 생각한다"며 "오픈AI에서 곧 출시될 개방형 모델은 'o3-미니'와 같은 추론 기능을 가질 것"이라고 밝혔다. 그러면서 "출시 전에 우리의 프레임워크에 따라 이 모델을 평가할 것"이라며 "개발자들이 무엇을 구축하는지, 여러 기업과 정부가 어떤 곳에서 실행하는 것을 선호하고 사용하는지 지켜볼 것"이라고 덧붙였다.

2025.04.01 10:10장유미

"AI 에이전트 시대 주도"…엔비디아, 추론 강화 돕는 SW 공개

엔비디아가 인공지능(AI) 에이전트 시대 본격화를 위한 기술 로드맵을 공개했다. AI 에이전트 개발·유지에 필요한 소프트웨어(SW) 기술을 비롯한 오픈소스 추론 모델 시리즈, 기업용 AI 워크플로 솔루션까지 잇따라 선보였다. 엔비디아는 17~21일까지(현지시간) 미국 새너제이에서 열리는 개발자 회의 'GTC 2025' 미디어 프리브리핑에서 AI 에이전트 개발·추론 강화에 필요한 SW 기술을 공개했다. 이를 통해 AI 에이전트 기술 생태계를 선점하고 기업용 AI 시장에서 주도권을 확보 하려는 전략이다. 이번에 발표할 주요 SW 제품으로는 AI 추론 모델 성능 강화를 돕는 '엔비디아 다이나모(NVIDIA Dynamo)'와 오픈소스 모델 '라마 네모트톤(Llama Nemotron)' 시리즈, '엔비디아 IQ 블루프린트'다. 엔비디아는 해당 제품 모두 AI 에이전트 구축 필수 요소로 자리잡을 것이라 재차 강조했다. '엔비디아 다이나모'로 AI 모델 추론 강화 이번 행사에서 엔비디아는 '엔비디아 다이나모'를 발표한다. 엔비디아 다니어모는 대규모 AI 추론 모델 성능을 올리는 오픈소스 소프트웨어(SW)다. 엔비디아 다이나모는 전체 데이터센터에서 분산·분해 방식으로 작동한다. 분산 방식은 하나의 AI 작업을 여러 개 GPU로 나눠 동시 처리하는 식이다. 기존에는 단일 GPU가 연산을 수행하는 방식이었다면, 다이나모는 동일 작업을 여러 GPU가 협력해 처리하도록 설계됐다. 이를 통해 대량 데이터를 더 빠르고 효율적으로 분석할 수 있다는 설명이다. 엔비디아는 다이나모 분해 방식도 핵심 요소로 꼽았다. 이 방식은 AI 모델이 하나의 질문을 받으면 이를 작은 단위로 쪼개 여러 GPU에 나눠 연산을 수행한다. 이후 최종 결과를 합치는 식이다. 이는 GPU 간 연산 부담을 줄이고 처리 속도를 높일 수 있다. 특히 데이터센터 내 수백~수천 개 GPU가 동시에 운영될 경우, 다이나모 최적화 기술이 GPU 성능 향상을 극대화할 수 있다. 다이나모는 해당 작동방식에 기반해 쿼리 하나를 최대 1천개 그래픽장치(GPU)로 확장할 수 있도록 설계됐다. 기존 방식보다 GPU 활용도를 높여 동일 개수의 GPU로도 처리량을 두 배까지 늘릴 수 있다. AI 모델이 데이터 처리하는 속도가 늘면 자연스럽게 비용 절감 효과와 처리 가능한 데이터 양도 는다. 향후 AI 기반 서비스 운영 효율성을 높이는 핵심 요소로 작용할 전망이다. 여기에 엔비디아의 최신 GPU 네트워크 기술 'NY링크'를 결합하면 성능 향상 폭이 더욱 커진다. NY링크는 GPU 간 데이터 전송 속도를 높이는 기술이다. AI 모델 연산 과정에서 병목현상을 줄이는 역할을 한다. 이를 통해 같은 개수의 GPU를 사용하면서도 최대 30배까지 처리 성능을 끌어올릴 수 있다. 이 외에도 다이나모는 파이토치(PyTorch)를 비롯한 텐서RT, sglang 등 다양한 AI 프레임워크와 호환되는 개방형 아키텍처를 지원한다. 이를 통해 기존 AI 모델을 변경하지 않고도 성능을 개선할 수 있다. 엔비디아는 "딥시크처럼 대규모 데이터를 처리하는 모델은 연산량이 많아 GPU의 확장성이 중요하다"며 "다이나모는 이런 대형 모델 연산 부담을 효과적으로 분산시키는 역할을 한다"고 강조했다. "똑똑한 AI 에이전트 구축"…오픈소스 모델 '라마 네모트론' 시리즈 엔비디아는 AI 에이전트 추론 능력 강화를 위해 새 오픈소스 AI 모델 '라마 니모트론(Llama Nemotron)' 시리즈를 내놨다. 이는 비즈니스 환경에서 즉시 활용 가능한 AI 추론 모델이다. 주로 복잡한 문제 해결을 위한 고급 AI 에이전트 구축에 사용된다. 메타의 오픈소스 모델 '라마' 기반으로 작동한다. 엔비디아는 "해당 모델은 알고리즘적으로 가지치기 과정을 거쳐 모델 크기를 줄였다"며 "이로 인해 컴퓨팅 자원을 덜 소모하면서도 정확도를 유지할 수 있게 최적화됐다"고 설명했다. 또 "사후학습 기법을 통해 라마 니모트론 모델을 더욱 개선했다"고 말했다. 그러면서 "주로 수학 문제 해결과 도구 호출, 명령어 처리, 대화 기능 등 여러 분야에서 최상의 추론 성능을 발휘할 수 있다"고 말했다. 라마 니모트론 모델군은 '나노(Nano)'와 '수퍼(Super)' '울트라(Ultra)' 버전으로 이뤄졌다. 나노는 해당 모델 크기에서 가장 높은 추론 정확도를 제공한다. 수퍼는 단일 데이터센터 GPU에서 가장 빠른 처리 속도를 제공한다. 울트라는 데이터센터급 멀티 GPU 환경에서 AI 에이전트 추론 정확도 극대화를 돕는 모델이다. 나노와 수퍼는 이번 GTC에서 NIM 마이크로서비스 형태로 제공된다. 울트라 모델은 추후 공개된다. 해당 모델 시리즈는 데이터셋 관련 기술과 패키지 형태로 제공된다. 이 데이터셋은 엔비디아가 생성한 600억 개 토큰으로 구성한 합성 데이터셋이다. 약 36만 시간의 H100 GPU 추론 수행과 4만 5천 시간의 인간 주석 작업을 통해 개발됐다. 이 외에도 해당 모델 시리즈는 추론 기능을 온·오프(toggle on/off)할 수 있는 옵션도 제공한다. 이는 오픈 모델에서는 드문 기능인 것으로 평가받고 있다. '엔비디아 IQ 블루프린트'로 AI 에이전트 유연성 높였다 엔비디아는 '엔비디아 IQ 블루프린트'를 출시했다. 해당 솔루션은 4월부터 이용 가능하다. IQ 블루프린트는 개발자가 NIM으로 AI 에이전트를 구축하고 이를 엔터프라이즈 비즈니스 시스템과 연결하게 돕는 AI 워크플로 도구다. 이를 통해 AI 에이전트가 텍스트, 이미지, 영상 등 여러 데이터 유형을 검색·활용할 수 있게 지원한다. 웹 검색이나 다른 AI 에이전트와 같은 외부 도구 활용도 가능하다. 또 다수 AI 에이전트가 팀을 이뤄 협력할 때 개발자가 AI 시스템 작동 과정을 모니터링하고 성능을 개선할 수 있도록 가시성과 투명성을 제공한다. 엔비디아는 "IQ 블루프린트를 활용하면 AI 에이전트 정확도를 높이고, 복잡한 작업 처리 시간을 몇 시간에서 몇 분으로 단축할 수 있다"고 강조했다. 또 엔비디아는 주요 데이터 스토리지 기업과 협력해 AI 데이터 플랫폼을 개발 중이라고 밝혔다. 해당 플랫폼에는 네모 리트리버와 IQ 블루프린트, 블랙웰 GPU, 스펙트럼-X 네트워킹, 블루필드 DPU 등이 포함된다. 이를 통해 실시간에 가까운 데이터 기능을 제공할 방침이다. 엔비디아는 "앞으로 엔터프라이즈 데이터가 AI 에이전트를 위한 핵심 자원으로 활용될 전망"이리며 데이터 플랫폼 개발 배경을 밝혔다. 그러면서 "현재 기업 데이터 저장 시스템은 단순히 파일을 저장하고 제공하는 역할만 수행하고 있다"며 "AI 에이전트가 도입되면, 기업은 데이터 저장·관리 시스템을 지식 제공 시스템으로 전환할 수 있다"고 강조했다.

2025.03.19 05:02김미정

효성중공업, '일렉라마 2025' 참가…"인도 핵심 전력회사 자리매김"

효성중공업이 인도 최대 전력산업 전시회에서 최첨단 전력 솔루션을 선보였다. 효성중공업은 22일부터 26일까지 인도 뉴델리에서 개최되는 '일렉라마 2025'에 참가했다고 밝혔다. '일렉라마 2025'는 2년마다 개최되는 세계적인 전력산업 전시회로, 약 1천여개 기업이 참여하고 40만명 이상이 방문하는 대규모 행사다. 효성중공업은 이번 전시회에서 '에너지 전환 시대의 신뢰할 수 있는 파트너, 그리드 안정성을 책임지겠습니다'라는 주제로 최신 전력 기술과 제품을 선보였다. 주요 전시 제품으로는 ▲온실가스 배출량은 줄이고 고성능 절연 기술은 높인 SF6 Free GIS▲신속한 설치 및 이동으로 긴급상황 대처에 용이한 이동형 변전소 ▲신재생에너지 발전, 데이터센터 등에 안정적인 전력 공급을 돕는 STATCOM(정지형 무효 전력 보상장치) ▲효율적인 장거리 대용량 전력 전송이 가능한 미래 전력망 핵심 기술 HVDC(초고압 직류 송전 시스템) 등이 있다. 우태희 효성중공업 대표는 “인도는 세계에서 가장 빠르게 성장하고 있는 전력시장 중 하나”라며 “이번 전시회에 선보인 효성중공업의 전력 솔루션을 통해 인도 시장 내 선도적 입지를 더욱 강화하겠다”고 밝혔다. 한편, 효성중공업은 일찍이 인도 전력기기 시장의 잠재력을 파악해 2007년 뉴델리에 지사를 세웠고, 2015년에는 인도 중서부 푸네에 GIS 생산 공장을 준공하며 지속적으로 시장을 공략해왔다. 효성중공업은 인도 GIS 시장에서 점유율 50%가 넘는 1위를 차지하고 있고, 특히 800kv 이상 초고압 GIS 부문에서는 95% 이상의 점유율을 기록하고 있다. 2024년 기준 인도법인 매출이 전년 대비 2배 이상 성장했다.

2025.02.25 13:18류은주

"oo은행, '엑사원 3.5'가 딱이네"…금융권 노린 LG CNS, 최적 AI 모델 골라준다

LG CNS가 금융 맞춤형 인공지능(AI) 평가 도구를 앞세워 생성형 AI를 도입하고자 하는 금융 기업 공략에 나선다. LG CNS는 미리 구축한 데이터셋으로 시중에 공개된 수십 개의 개방형 거대언어모델(LLM)을 평가해 뱅킹, 보험, 증권 등 각 금융 서비스에 가장 적합한 AI 모델을 찾아주는 주는 서비스를 개발했다고 24일 밝혔다. 개방형 LLM은 공개된 소스코드나 알고리즘으로 누구나 자유롭게 수정하고 활용할 수 있는 거대언어모델(LLM)이다. 대표적으로 LG AI연구원의 엑사원(EXAONE) 3.5, 메타(Meta)의 라마(Llama), 알리바바(Alibaba)의 큐원(Qwen) 2.5 등이 있다. 금융 기업은 데이터 유출 등 보안의 이유로 AI 도입 시 개방형 LLM을 파인튜닝해 자체 모델을 구축한다. 파인튜닝은 AI 모델에 별도의 데이터를 학습시켜 특정한 목적에 맞게 만드는 과정을 의미한다. 오픈AI의 챗GPT나 구글의 제미나이(Gemini)같은 폐쇄형 LLM은 내부 소스코드가 공개되지 않아 기업이 자체 AI 모델로 구축해 활용할 수 없으며 돈을 내고 서비스를 이용하는 형태로만 사용 가능하다. LG CNS의 금융 특화 평가 도구는 29가지 평가지표와 약 1천200개의 데이터셋으로 구성돼 있다. 주요 평가 항목은 ▲금융 지식을 기반으로 추론하는 능력 ▲수학적 추론 능력 ▲복잡한 질문 이해력 ▲문서요약 능력 ▲금융 용어 이해도 ▲AI 에이전트(Agentic Tool) 사용 능력 등을 종합적으로 테스트한다. LG CNS는 특히 AI가 답변하기 어려워하는 금융 관련 추론 문제들을 29개 평가지표에 적용해 더 정확한 성능 검증이 가능하도록 했다. LG CNS는 금융 전문가들과의 협업을 통해 데이터셋의 평가 데이터에 실제 금융 현장에서 사용하는 서비스 정보나 전문 지식 등이 정확히 반영됐는지 점검하며 완성도를 높였다. 이를 통해 AI가 금융 산업 내 규제 요건이나 복잡한 서비스 구조 안에서도 정확한 답변을 하는지 판단할 수 있게 했다. LG CNS는 이 평가 도구를 통해 금융기업들이 AI를 도입할 때 최적의 LLM 선정부터 커스터마이징, 안정적인 운영까지 금융권에 특화된 생성형 AI 도입 전 단계에서 차별화된 고객가치를 제공해 나갈 계획이다. LG CNS는 다수의 금융 기업을 대상으로 생성형 AI를 활용한 비즈니스 혁신을 지속하며 금융 AX를 선도하고 있다. 최근 NH농협은행과 생성형 AI 플랫폼 구축 프로젝트에 착수했고, 신한카드와 생성형 AI 기반의 상담사 응대 시스템을 구축 중이다. 작년에는 신한은행과 함께 거대언어모델(LLM) 기반 미래형 영업점인 'AI 브랜치'를 개발했고, KB금융그룹에 AI, 클라우드 등 디지털 기술을 접목시킨 미래형고객센터(FCC, Future Contact Center)를 구축해 운영 중이다. 현신균 LG CNS 사장은 "금융 서비스에 생성형 AI를 도입하고자 하는 기업의 가장 큰 고민은 어떤 AI 모델이 서비스에 가장 적합할 지 파악하는 것"이라며 "자사금융 특화 AI 평가 도구는 금융 기업들의 고민을 빠르게 해결할 수 있는 최적의 솔루션이 될 것"이라고 말했다.

2025.02.24 10:00장유미

[남기자의 비욘드IT] 딥시크가 촉발한 '오픈워싱' 논란, 오픈소스의 미래는

중국 스타트업 딥시크(DeepSeek)가 'R1' 등 자체 개발한 인공지능(AI) 모델을 오픈소스로 공개하면서 논란이 일고 있다. AI모델의 코드와 가중치를 공개했지만, 학습 데이터와 훈련 과정은 비공개이기 때문이다. 이에 일부 개발자들은 '오픈소스'라고 부르기에 부족하다는 비판에 나섰다. AI오픈소스 커뮤니티인 허깅페이스 측은 R1의 숨겨진 요소를 모두 분석해 재구축하는 '오픈-R1(Open-R1)'를 진행 중이기도 하다. 문제는 구글과 메타 등 빅테크 기업 역시 이런 논란에서 자유롭지 않아 관련 업계에서 '오픈소스'라는 용어가 마케팅 도구로 전락하는 것 아니냐는 '오픈워싱(Openwashing)'에 대한 우려의 목소리가 나오고 있다. 7일 업계에 따르면 최근 AI 오픈소스의 정의와 방향에 대해 기업과 사용자간 논쟁이 치열하게 일고 있다. 오픈소스 생태계 위협하는 오픈워싱 AI 모델을 '오픈소스'로 공개하는 것은 연구자들과 개발자들이 자유롭게 활용하고 발전시킬 수 있도록 하기 위한 취지다. 그러나 최근 많은 기업들이 핵심 기술을 비공개로 유지한 채 '부분적 개방'만을 내세우고 있다. 해당 논란이 거세지는 이유는 오픈소스 철학의 핵심인 개방성과 투명성이 훼손되며 개발 생태계를 악화시킨다는 지적이다. 이로 인해 오픈소스 AI의 의미와 방향을 둘러싼 논쟁은 단순한 기술적 논의에서 벗어나, AI 생태계 전체의 구조를 결정하는 중요한 요소로 자리 잡고 있다. AI 발전 과정에서 오픈소스는 중요한 역할을 해왔다. 초기 AI 연구자들은 개방된 모델과 데이터를 활용해 기술을 발전시키고 협업을 통해 새로운 혁신을 이끌어냈다. 대표적으로 구글과 메타 같은 기업들은 AI 연구에 필수적인 오픈소스 프레임워크와 모델을 공개하면서 생태계를 확장했다. 구글은 2015년 텐서플로를 공개해 AI 연구 및 개발의 표준을 만들었고, 2014년에는 쿠버네티스(Kubernetes)를 통해 클라우드 환경에서 AI 모델을 효율적으로 운영할 수 있도록 했다. 메타 역시 AI 오픈소스를 적극적으로 활용한 기업으로 꼽힌다. 2016년 공개한 파이토치(PyTorch)는 현재 가장 널리 사용되는 AI 개발 프레임워크 중 하나다. 2022년에는 리눅스 재단 산하 파이토치 재단으로 이관해 커뮤니티 주도의 발전을 지원하고 있다. 오픈소스 생태계 이끌어온 빅테크의 달라진 행보 하지만 이렇게 AI오픈소스 생태계를 이끌어온 기업들이 본격적인 AI모델 출시와 함께 행보가 달라지고 있다. 구글은 젬마(Gemma)라는 AI 모델을 공개했지만, 학습 데이터와 훈련 코드는 공개하지 않고 있다. 또 구글의 AI전용 프로세서인 TPU에 최적화돼 특정 클라우드 종속성을 강화하는 방식으로 운영되고 있다. 메타도 라마를 오픈소스로 제공하고 있다고 밝혔지만 훈련 데이터와 세부 알고리즘은 비공개로 유지하고 있는 추세다. 이에 비영리 오픈소스 표준화 단체인 오픈소스 이니셔티브(OSI) 측은 '오픈소스'란 용어를 사용해 사용자를 혼란스럽게 하고 오픈소스를 오염시켰다며 강도 높게 비판했다. AI 오픈소스 커뮤니티인 허깅페이스도 오픈워싱 논란에 대해 비판적인 입장을 보이고 있다. 클레망 들랑브 최고경영자(CEO)는 AI 기업들이 오픈 모델이라는 용어를 남용하고 있으며, 진정한 오픈소스 AI는 학습 데이터와 훈련 과정까지 포함돼야 한다고 주장했다. 기술경쟁 심화된 AI, 기술 보호 중요성 커저 AI 오픈소스 생태계를 적극적으로 지원하며 생태계를 주도하던 기업들이 점점 폐쇄적인 방향으로 돌아서고 있는 이유는 AI 기술 경쟁이 심화되면서 '기술 보호'가 더 중요한 요소로 떠올랐기 때문이다. 오픈AI가 GPT-2까지는 공개했지만, GPT-3부터 모델을 비공개로 운영하며 API 기반 서비스로 전환한 것은 대표적인 사례다. 오픈AI는 학습 데이터와 훈련 알고리즘을 비공개로 유지하면서도 GPT 기반의 유료 API 서비스를 제공하며 AI 생태계를 선점하는 전략을 택했다. 마이크로소프트의 대규모 투자 이후 GPT-4는 완전히 비공개 모델이 됐다. 오픈AI 역시 연구 초기에는 'AI 기술을 모두에게 개방한다'는 비전을 내세웠지만, AI 기술이 상업화되면서 기업 중심의 폐쇄적인 운영 방식을 선택했다. 구글과 메타는 기술보호와 함께 AI 클라우드 서비스와의 연계를 강화하는 전략적 요소가 더 강해졌다. 막대한 비용이 소비되는 AI 연구 비용 지출을 클라우드 서비스와의 결합을 통해 완화할 수 있기 때문이다. AI 모델의 훈련과 운영에는 막대한 비용이 소요된다. GPT-4의 훈련 비용은 수억 달러(수천억원)로 추정되며, 기업이 AI 모델을 공개하면 경쟁사들이 해당 모델을 무료로 사용할 가능성이 높아진다. 이에 따라 기업은 비용을 부담하고 연구한 기술을 다른 기업들이 쉽게 복제해 경쟁력을 갖출 수 있게 된다. 이런 이유로 AI 기업들은 오픈소스보다는 '부분적 공개' 또는 '제한된 라이선스' 전략을 선택하는 추세다. 특히 딥시크 사례는 AI 모델이 공개되지 않아도 충분히 복제될 수 있다는 가능성을 보여줬다. 이에 따라 기업들은 AI 모델을 더욱 폐쇄적으로 운영할 가능성이 높아졌으며, AI 오픈소스 시장 자체가 위축될 가능성이 커진다는 지적이다. 모두 공개보다 제한적 공개로 전환할 가능성 높아진 빅테크 AI 모델을 오픈한다는 것이 곧바로 기술 공유를 의미하지 않는다는 점이 분명해지면서, AI 기업들은 '어떤 부분을 공개할 것인가'에 대한 전략적 판단을 더욱 신중하게 내릴 것으로 보인다. 특히 관련 업계에선 AI 모델의 소스코드가 모두 공개되지 않아도 복제될 수 있다는 점이 확인되면서, 기업들은 오픈소스 전략을 제한적으로 운영할 가능성이 높을 것이란 전망이다. 이러한 흐름에 따라 최근 샘 알트먼 오픈AI CEO가 발언도 오픈워싱 전략이 포함된 것이란 해석이 제기되고 있다. 최근 샘 알트먼은 레딧에서 진행한 '무엇이든 물어보세요(AMA)' 코너에서 딥시크의 부상을 보며 현재 오픈소스 전략이 잘못된 것 같다며 더 개방적인 방향을 고려할 것이라고 밝힌 바 있다. 하지만 완전한 오픈소스로 전환할 경우 오픈AI의 수익 모델에 악영향을 미칠 가능성이 있고 1위를 유지하고 있는 상황에서 굳이 경쟁자에게 최신 기술을 공유할 이유가 없다는 분석이다. 국내 한 AI전문가는 "현재 오픈AI의 AI모델이 가장 좋은 성능을 보유한 것은 알려져 있지만 자세한 정보를 공개하고 있지 않아 기업들과 개발자들의 불만이 큰 상황"이라며 "이런 불만을 잠재우고 여론을 돌리기 위해서라도 긍정적인 발언을 할 필요가 있었을 것"이라고 분석했다. AI 오픈소스 이끌 것으로 주목 받는 AI스타트업 다만 딥시크를 비롯해 미스트랄 등 AI스타트업을 중심으로 AI 오픈소스 생태계가 변화할 것이란 전망도 나온다. AI모델을 오픈소스로 공개하면 누구나 부담 없이 활용할 수 있을 뿐 아니라 외부 개발자들의 기여를 통해 개발 비용을 줄이고, 모델 개선 속도를 높일 수 있다는 장점이 있다. 또 오픈소스 프로젝트에 적극적으로 참여하는 AI 분야의 우수한 인재를 자연스럽게 확보하며 개발 생태계를 구축 가능하다. 더불어 개방적이고 투명한 AI 생태계를 지향하며 기존 AI기업과 차별화된 브랜드 이미지를 확보할 수 있다. 구글과 메타 역시 이러한 전략을 바탕으로 클라우드를 비롯해 웹브라우저, 가상현실(VR), 데이터 인프라스트럭처 등의 분야에서 안정적인 생태계를 구축한 바 있다. 한 AI 전문가는 "미스트랄이나 딥시크가 오픈소스로 공개되면서 오픈AI와 비교되며 관심을 끌고 있지, 기술독점 방식이었다면 지금 같은 반응은 끌어내지 못했을 것"이라며 "앞으로의 AI 시장은 자본과 인프라를 앞세운 빅테크와 오픈소스를 강조하는 스타트업 간의 경쟁 구도가 될 것으로 예상된다"고 전망했다.

2025.02.07 18:05남혁우

"AI 추론 비용 낮추는 양자화, 모델 성능까지 떨어뜨려"

인공지능(AI) 모델 추론 비용을 낮추기 위해 활용되는 '양자화' 기술이 오히려 모델 성능을 떨어뜨릴 수 있다는 의견이 나왔다. 29일 업계에 따르면 AI 모델 효율성을 높이기 위해 사용되는 양자화가 한계에 직면했다는 지적이 이어지고 있다. AI 모델 추론과 훈련 비용 문제를 해결하기 위한 수단으로 평가받았지만, 오히려 모델 성능을 저하할 수 있다는 평가다. 최근 AI 복잡성과 훈련 데이터 규모가 늘면서 모델 추론·운영에 드는 비용이 기하급수적으로 늘고 있는 것으로 전해졌다. 업계에서는 AI 모델이 질문에 답하거나 결과를 생성하는 추론 과정에 드는 비용이 늘었다는 분위기다. 이를 해결하기 위한 수단으로 양자화 기술이 활용되기 시작했다. 양자화는 모델이 데이터를 처리할 때 사용하는 숫자 정밀도를 낮추는 기술이다. 이는 모델 추론·계산 과정을 기존보다 빠르게 처리할 수 있게 돕는다. 예를 들어 사람이 AI 챗봇에 "지금 몇 시입니까?"라고 물었을 때 챗봇이 "12시 0분 1초 4밀리초" 대신 "12시"라고 답한다. 챗봇에 탑재된 모델이 양자화 과정을 거쳤기 때문에 답변을 간략히 내놓을 수 있다. 모델은 해당 방식으로 복잡한 추론 과정과 데이터 처리에 드는 정밀도를 줄여 업무를 진행한다. 이를 통해 추론·훈련 비용뿐 아니라 전력 소비까지 줄일 수 있다. 학계에선 AI 양자화가 모델 성능 자체를 떨어뜨릴 수 있다는 지적이 이어지고 있다. 추론 과정서 생기는 정밀도를 줄이면 비용을 낮출 순 있지만 환각현상이 생기거나 복잡한 업무 자체를 처리할 수 없다는 이유에서다. 지난 4월 메타의 '라마3' 성능이 양자화를 거친 후 타사 모델보다 성능 저하를 크게 보인다는 연구 결과가 나오기도 했다. 최근 하버드대와 스탠퍼드대, 메사추세츠 공대, 데이터브릭스, 카네기멜런이 공동 연구한 논문에 따르면 모델 규모가 클수록 양자화로 인한 부정적 영향을 받을 확률이 높은 것으로 전해졌다. 특히 오랜 시간 많은 데이터를 학습한 모델일수록 양자화 과정을 거친 후 성능 저하를 보일 수 있다는 연구 결과다. 해당 연구 1 저자인 하버드대 타니시 쿠마르 수학과 학생은 "양자화를 통해 모델 정밀도를 계속 낮추면 모델 성능이 낮아질 수밖에 없다"며 "모델 추론 비용을 줄이기 위한 지나친 양자화는 장기적으로 문제가 될 수 있다"고 지적했다. 그러면서 "높은 품질 데이터를 선별적으로 사용하거나 저정밀도 환경에서도 안정적으로 작동할 수 있는 새 AI 아키텍처가 필요한 시점"이라고 주장했다. 또 "기업이 대형 모델을 양자화하는 것보다 처음부터 소형 모델 개발하는 것이 이득일 수 있다"고 덧붙였다.

2024.12.29 10:15김미정

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

中, 메타 AI '라마' 사용해 군사용 챗봇 개발

중국이 메타의 인공지능(AI) 모델 '라마'(Llama)를 이용해 군사용 AI 모델을 개발한 것으로 밝혀졌다. 2일(현지시간) 테크크런치 등 외신에 따르면, 중국 인민해방군 핵심 연구기관 군사과학원(AMS) 소속 연구원 2명을 포함한 중국 연구자 6명은 지난 6월 발표한 논문에서 라마를 이용해 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다고 밝혔다. 챗비트는 군사 관련 대화 및 질문 응답에 최적화된 AI 챗봇이다. 정보 수집·처리 및 의사 결정을 위한 정보 제공 등 기능을 수행한다. 향후 전략 계획, 시뮬레이션 훈련, 지휘부 의사결정 등에 활용될 예정인 것으로 알려졌다. 지난 6월 발표된 논문에 따르면, 중국 연구자들은 라마 초기 모델인 '라마 13B'에 사용자 지정 매개변수를 추가해 챗비트를 개발했다. 해당 논문에서 연구자들은 군사 분야에서 챗비트가 GPT-4와 비슷한 수준의 성능을 갖춘 AI 모델의 90%보다 더 나은 성과를 보였다고 주장했다. 다만 중국군이 챗비트를 실제 사용했는지에 대해서는 밝히지 않았다. 써니 청 제임스타운재단 부연구위원은 "중국군 전문가들이 오픈소스 대형언어모델(LLM), 특히 메타 LLM을 군사적 목적으로 체계적으로 연구하고 활용하려고 시도해왔다는 실질적 증거가 나온 것은 이번이 처음"이라고 말했다. 메타는 성명을 내고 중국의 라마 사용은 허가되지 않은 행위이며 오용을 방지하기 위한 조치를 취했다고 밝혔다. 메타는 라마 등 AI 모델 사용 규정에서 군사와 전쟁, 핵 산업 혹은 응용 분야, 간첩 활동, 미국 방위 수출 통제의 적용을 받는 활동 등을 위한 모델 사용을 금지하고 있다. 다만 라마는 오픈소스이기 때문에 메타가 중국 연구자들의 라마 사용을 저지하는 데에는 어려움이 따를 것으로 예상된다.

2024.11.03 08:38조수민

AI, 팟캐스트도 만든다…메타, 오픈소스 '노트북라마' 선보여

메타가 구글의 인공지능(AI) 팟캐스트 생성 기능을 본뜬 오픈소스 모델을 공개했지만 실망스럽다는 평가가 나오고 있다. 기술적인 한계로 인해 구글 음성의 자연스러운 품질과 비교 시 미흡한 것으로 판단돼서다. 28일 테크크런치에 따르면 메타는 자사의 AI 모델 '라마(Llama)'를 활용해 구글 '노트북LM' 팟캐스트 기능과 유사한 오픈소스 프로젝트 '노트북라마'를 출시했다. 이 모델은 텍스트 파일을 대화 형식의 팟캐스트 콘텐츠로 변환하는 기능을 제공한다. '노트북라마'는 파일로 입력된 텍스트를 먼저 분석해 대화체로 재구성한 후 텍스트-음성 변환 모델을 통해 이를 음성 콘텐츠로 출력한다. 이 과정에서 사용자들이 보다 드라마틱한 표현과 중간중간 자연스러운 끊김을 경험할 수 있도록 설정돼 있다. 그럼에도 불구하고 업계 전문가들은 노트북라마의 음성 품질이 아직 초기 단계에 머물러 있는 것으로 평가한다. 사용자가 실제 대화를 듣는 듯한 자연스러움을 구현하기에는 현재의 텍스트 및 음성 모델 수준이 불완전한 상태로, 대화가 겹치는 현상이나 로봇 같은 음성 표현이 발생한다는 것이다. 메타 연구팀은 이러한 품질 문제를 해결하기 위해 더 강력한 모델 도입을 검토하고 있다. 연구팀은 "현재는 단일 AI 모델로 팟캐스트 콘텐츠를 구성하고 있다"며 "두 개의 AI 에이전트가 주제에 대해 토론하는 형식으로 개선할 가능성도 있다"고 밝혔다. 현재 AI 팟캐스트 생성 분야에서는 현재 구글을 비롯한 여러 회사들이 경쟁 중인 상황이다. 특히 구글은 지난 6월 '노트북LM'을 출시한 후로 AI 팟캐스트가 가능한 '오디오 개요(Audio overview)' 기능을 통해 업계의 찬사를 받아왔다. 많은 사용자들은 해당 기능의 자연스러운 음성과 인간과 같은 재치있는 만담에 긍정적으로 평가했다. 테크크런치는 "'노트북LM'과 '노트북라마' 등 AI 기반 팟캐스트 생성은 아직 해결해야 할 기술적 과제가 많다"며 "향후 정확성과 자연스러운 표현력을 높이는 기술 개발이 필요하다"고 분석했다.

2024.10.28 10:07조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현