• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'앤스로픽'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"꼼수 아냐?"…英 경쟁당국 움직임에 구글-앤트로픽 파트너십 무산 위기

구글과 인공지능(AI) 기업 앤트로픽의 파트너십이 무산될 위험에 처했다. 영국 경쟁시장청(CMA)이 이들의 파트너십에 문제가 있다고 보고 본격적인 조사에 나섰기 때문이다. 25일 블룸버그통신에 따르면 CMA는 지난 24일 두 기업의 파트너십에 대한 공식 조사를 시작한다고 발표했다. 오는 12월 19일까지 이 파트너십이 사실상 합병에 해당하는지, 합병일 경우 이로 인해 영국 시장 내 경쟁을 실질적으로 약화시키는 결과를 초래할 수 있을지를 두고 제대로 따져보겠다는 것이다. 앞서 구글은 지난해 앤트로픽에 20억 달러(약 2조7천600억원)를 투자하겠다고 약속한 바 있다. 앤트로픽은 구글 클라우드 서비스 이용 권한을 획득, 2026년까지 현존하는 가장 강력한 AI 모델보다 더 강력한 성능의 '클로드-넥스트'라는 모델을 내놓을 계획이다. CMA는 "올해 초 이 거래가 (영국 내) 경쟁을 저해할지 여부를 조사하기 위해 전문가 의견을 구했다"며 "이를 기반으로 초기 조사를 시작할 수 있을 만큼 충분한 정보를 확보했다"고 설명했다. 다만 CMA는 지난 9월 아마존과 앤트로픽의 파트너십에 대한 추가 조사가 필요하지 않다고 판단해 두 기업의 파트너십을 승인한 바 있다. 아마존은 구글보다 더 큰 규모인 40억 달러(약 5조5천억원)를 앤트로픽에 투자해 소수 지분을 확보한 바 있다. 알파벳의 구글, 마이크로소프트(MS), 챗GPT를 만든 오픈AI 등과 경쟁하기 위해 AI 군비 경쟁에 나선 것으로, 아마존 설립 30년 만의 최대 규모 외부 투자다. 이에 대해 CMA는 "앤트로픽의 매출과 아마존의 영국 내 시장 점유율이 영국의 합병 규정에 따라 심층 조사가 필요할 만큼 크지 않다는 사실을 발견했다"고 설명했다. 이처럼 CMA가 조사에 나서고 있는 것은 영국 규제 당국이 최근 들어 빅테크 기업이 스타트업에 투자해 시장 경쟁을 해치는 것을 우려하고 있어서다. CMA는 최근 미국·유럽연합(EU)과 공동성명을 내고 AI 산업에서 공정한 경쟁이 이뤄질 수 있도록 협력하겠다고 밝힌 바 있다. 또 각국은 빅테크의 AI 스타트업 대규모 투자가 반독점 심사를 피하기 위한 편법 인수인지를 들여다보고 있다. CMA에선 MS의 스타트업 인플렉션 AI 공동 설립자 및 직원 대거 영입에 관해서도 조사를 진행했다. 미국 연방거래위원회(FTC)도 아마존이 AI 에이전트 개발 스타트업 어뎁트의 최고경영자(CEO)와 주요 직원을 영입한 건을 보고 있다. 이 밖에 MS의 오픈AI 투자도 조사 대상에 올랐다. 구글 측은 "앤트로픽은 여러 클라우드 제공 업체를 자유롭게 사용할 수 있다"며 "독점적인 기술 권리를 요구하지 않는다"고 밝혔다. 앤트로픽 대변인은 "현재 규제 당국과 협력하고 있고 구글의 투자와 협력에 대한 모든 정보를 제공할 것"이라며 "우리는 독립적인 회사로, 다른 기업들과 전략적 파트너십이나 투자로 인해 기업 운영 등에 영향을 받지 않는다"고 밝혔다.

2024.10.25 09:04장유미

메타·엔트로픽·미스트랄, AI 新무기 내놔도 오픈AI 못 넘는다…이유는?

생성형 인공지능(AI) 시장을 주도하고 있는 오픈AI를 겨냥해 메타와 엔트로픽, 미스트랄 등이 잇따라 최신 모델을 선보이며 AI 경쟁이 치열해지고 있다. 각 업체들은 오픈AI의 최신 모델 'GPT-4o'나 'GPT-4'를 기준으로 성능을 비교하며 자사 모델의 경쟁력을 알리고 있지만 오픈AI를 뛰어넘기엔 기술적 한계가 여전하다는 평가다. 26일 IT 매체 테크크런치에 따르면 프랑스 AI 스타트업 미스트랄은 지난 24일 최신 AI 모델인 '라지(Large) 2'를 선보였다. 이 모델은 1천230억 개(123B)의 매개변수로 12만8천 토큰의 컨텍스트 창을 제공한다. 회사 측은 전날 출시한 메타의 '라마 3.1' 모델과 동등한 성능을 가졌다고 주장했지만, '라마 3.1' 중 가장 큰 모델(450B)에 비해 매개변수는 3분의 1도 안된다. 다만 전작에 비해선 추론뿐 아니라 코드 생성, 수학 등 전반에 걸쳐 성능이 개선됐다는 평가를 받는다. 고급 다국어 기능도 제공되는데 한국어를 포함해 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 아랍어, 힌디어, 러시아어, 중국어, 일본어 등 12개 언어와 80개의 코딩 언어를 지원한다. 또 고급 함수 호출 및 검색 등 새로운 기능이 추가됐고 AI의 큰 단점으로 꼽히는 '할루시네이션(환각 증상)'도 최소화했다. 페이스북 모회사 메타도 지난 23일 거대언어모델(LLM) 라마 3 시리즈 중 상위 버전인 '라마 3.1'을 출시했다. 지난 4월 '라마 3'을 선보인 이후 3개월여만으로, 405B와 8B, 70B 등 3가지 버전으로 구성됐다. '또 라마 3.1'은 엔비디아 최신 그래픽처리장치(GPU) 'H100' 1만6천 개를 기반으로 훈련됐다. 운영 비용은 오픈AI 'GPT-4o'에 비해 절반정도인 것으로 알려졌다. 올해 3월에는 앤트로픽도 차세대 LLM '클로드3'를 내놨다. 오픈AI의 GPT-4를 넘어섰다는 평가를 받은 '클로드3'는 성능과 속도에 따라 '오푸스', '소네트', '하이쿠'로 나뉜다. 이 중 가장 지능적인 '오푸스'는 대학원 수준의 전문 추론, 기초 수학 등 AI 성능 테스트에서 오픈AI의 GPT-4를 능가한 것으로 알려졌다. 이처럼 각 업체들이 오픈AI AI 모델을 기준으로 삼고 최신 버전을 내놓지만 'GPT'를 넘기엔 여전히 부족하다는 의견이 많다. 오픈AI와 달리 '멀티모달(Multi modal)' 기능을 제공하고 있지 않아서다. 멀티모달은 텍스트뿐 아니라 이미지, 음성, 영상 등 다양한 데이터를 인식할 수 있는 AI 모델 방식이다. 기존 AI는 대부분의 정보를 텍스트로 배우고 처리했지만, 멀티모달 AI는 여러 가지 정보를 한꺼번에 받아들여 더 정확한 결과물을 만들어낼 수 있다는 것이 강점이다. 이 탓에 현재로선 오픈AI와 겨룰 수 있는 경쟁사는 구글이 거의 유일하다. 구글은 올해 2월 멀티모달 AI 모델 '제미나이 1.5 프로'를 공개한 데 이어 5월 중순께 제미나이 탑재 검색 엔진을 정식 출시했다. 이에 맞서 오픈AI도 지난 5월 다양한 형태의 데이터를 동시에 인식하고 처리할 수 있는 대규모 멀티모달 모델(LMM) 'GPT-4o'를 공개했다. '음성 모드'가 지원되는 것이 특징으로, 텍스트로 대화를 나누던 기존 모델과 달리 실시간 음성으로 질의응답을 할 수 있고 사용자가 답변 중간에 끼어들어도 대화를 계속할 수 있는 것이 차별점이다. 최근에는 챗GPT 소형 모델인 'GPT-4o 미니'를 공개하며 멀티모달 AI의 소형화에 앞장서고 있다. 이미지와 동영상을 제공해주고 실시간 음성 대화가 가능했던 'GPT-4o'와는 달리 텍스트와 이미지 인식 기능만 지원된다. 가격은 일반 모델인 GPT-3.5 터보보다도 60% 저렴하지만, 성능은 최신 모델인 'GPT-4o' 수준과 유사한 것으로 알려졌다. 오픈AI는 "'GPT-4o 미니'는 지난해 10월까지의 지식을 보유하고 있다"며 "이미지·비디오·오디오 입출력은 향후 지원할 예정"이라고 밝혔다. 테크크런치는 "미스트랄 라지 2와 메타 라마 3.1 버전에도 없는 것이 바로 '멀티모달' 기능"이라며 "오픈AI는 멀티모달 AI 시스템과 관련해 경쟁사보다 훨씬 앞서 있고 일부 스타트업들이 이를 구축하려고 노력 중"이라고 분석했다.

2024.07.26 09:27장유미

"오픈AI 'GPT-4o' 넘는다"…新무기 내놓은 메타, AI 지배력 강화할까

페이스북 모회사 메타플랫폼이 자사 새로운 인공지능(AI) 모델 '라마(Llama)3.1'을 앞세워 AI 초격차 전쟁에서 우위를 잡기 위한 본격적인 움직임에 나섰다. 24일 테크크런치 등 외신에 따르면 메타는 지난 4월 '라마 3'를 선보인 이후 3개월여만에 '라마 3.1'을 새롭게 선보였다. '라마'는 메타의 거대언어모델(LLM) 이름이다. 이번 일로 메타는 최근 'GPT-4o(포오)'를 선보인 챗GPT 개발사 오픈AI를 비롯해 '제미나이'를 앞세운 구글, '클로드 3.5 소네트'로 무장한 앤스로픽 등과 AI 시장에서 치열한 경쟁을 벌일 것으로 보인다. 메타는 '라마 3.1'이 이전 버전보다 더 많은 데이터로 학습돼 성능이 크게 향상된 덕분에 강력한 AI 모델을 활용하고자 하는 기업 등에 도움이 될 수 있을 것으로 봤다. 메타 측은 "라마3.1이 AI 모델 평가 테스트인 대규모 다중작업 언어 이해(MMLU)의 여러 평가 항목에서 오픈AI의 최신 모델인 'GPT-4o(포오)', 앤스로픽의 '클로드 3.5 소네트'를 능가했다"고 강조했다. 이번 모델은 3가지 버전으로 출시됐다. 가장 큰 버전인 '라마 3.1 405B'은 AI의 데이터 처리 능력과 연관되는 매개변수(파라미터)가 4천50억 개에 달한다. GPT-3의 1천750억 개를 2배 이상 능가하는 규모다. 메타는 매개변수가 70억 개인 소형 모델 '라마3.1 8B'와 함께 700억 개인 중형 모델 '라마 3.1 70B'도 선보였다. 이 소형 모델들은 챗봇과 소프트웨어 코딩 AI를 작동시키는 데 이용될 수 있는 것으로 알려졌다. 메타는 이전 모델과 마찬가지로 이번 '라마 3.1'도 누구나 무료로 사용할 수 있도록 오픈 소스로 제공키로 했다. 오픈AI나 구글이 자사 AI 모델을 비공개로 유지하는 것과 대조적이다. 일각에선 메타의 이런 움직임이 더 많은 사용자 기반을 확보해 업계 표준 지위를 획득함으로써 지배력을 강화하기 위한 전략으로 해석했다. 다만 '라마 3.1'이 멀티모달 모델이 아닌 만큼 이미지를 이해하거나 입력할 수 없다는 것을 두고 아쉬워 했다. 메타는 "라마 3.1이 오픈AI의 GPT-4o 운영 비용의 약 절반밖에 들지 않는다"며 "이 모델을 많은 개발자가 이용할 수 있도록 마이크로소프트(MS), 아마존, 구글, 엔비디아 등 20여 개 이상의 기업과 협력하고 있다"고 강조했다. 또 '라마 3.1'은 현재 상용 중인 AI 칩으로는 가장 최신인 엔비디아의 'H100' 그래픽처리장치(GPU) 1만6천 개를 기반으로 훈련된 것으로 전해졌다. 메타는 '라마 3.1'의 개발 비용을 공개하지 않았지만, 'H100' 칩이 1개당 3만∼4만 달러에 이르는 점에서 칩 구매에만 수억 달러(수천억원)가 소요됐을 것으로 예상된다. 마크 저커버그 메타 최고경영자(CEO)는 "'라마 3.1'은 가장 진보된 모델과 경쟁할 수 있는 제품"이라며 "내년부터는 향후 출시될 라마 모델이 업계에서 가장 진보된 모델이 될 것으로 기대한다"고 말했다.

2024.07.24 09:18장유미

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현