[유미's 픽] "인텔·삼성도 반했다"…네이버클라우드에 러브콜 보낸 이유
"네이버는 아시아에서 엄청난 인공지능(AI) 모델을 구축한 대단한 회사입니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 진행된 '인텔 비전 2024' 행사에서 네이버와의 협업을 깜짝 발표했다. 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하기 위한 것으로, 네이버는 AI 시장에서의 글로벌 경쟁력을 단 번에 입증했다. 25일 업계에 따르면 인텔이 네이버를 파트너로 삼은 것은 네이버클라우드의 '하이퍼클로바X' 때문이다. 미국과 중국의 갈등이 고조되는 상황 속에 오픈 AI(GPT-3·2020년)·화웨이(판구·2021년)와 손을 잡기가 쉽지 않았던 탓도 있다. 특히 오픈AI는 마이크로소프트(MS)와 이미 파트너십을 체결해 끈끈한 관계를 유지하고 있어 인텔과 협업에 나서기가 쉽지 않았던 것으로 알려졌다. MS는 오픈AI와 파트너십을 체결한 후 지난해 100억 달러를 투자하는 등 2019년부터 총 130억 달러를 투자, 지분 49%를 보유하고 있다. MS는 지난해 11월 공개한 AI용 그래픽처리장치(GPU) '마이아100'을 오픈AI를 통해 테스트 중이다. 화웨이는 미국이 중국에 대한 견제 강도를 높이고 있다는 점에서 협업을 하기 쉽지 않은 상태다. 이곳은 2019년부터 미국 정부의 블랙리스트 기업 명단에 올라 있다. 이에 따라 인텔은 전 세계에서 세 번째로 자체 거대언어모델(LLM)을 개발한 네이버클라우드에 러브콜을 보냈다. 네이버클라우드는 지난 2021년 국내 최초로 초거대 AI 모델 '하이퍼클로바'를 공개한 후 지난해 8월 이를 고도화한 '하이퍼클로바X'를 공개한 상태였다. '하이퍼클로바X'가 글로벌 경쟁력을 갖추고 있다는 점도 인텔의 흥미를 일으켰다. 최근 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이 탓에 '하이퍼클로바X'는 국내외 다양한 곳에서 활용되며 AI 생태계 확장을 가속화하고 있다. 국내 금융, 교육, 조선뿐 아니라 리걸테크, 게임, 유통, 모빌리티, 헬스케어 등 산업 전반에 걸쳐 활용되고 있다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업도 수주했다. 이 같은 성과에 힘입어 네이버클라우드는 인텔의 AI 칩 소프트웨어 생태계 구축에 필요한 파트너로 낙점됐다. 양사는 앞으로 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 지원할 방침이다. 인텔의 AI 가속기 칩인 '가우디' 기반의 IT 인프라를 다양한 대학과 스타트업에 제공하는 게 핵심이다. 이들은 '가우디'를 기반으로 소프트웨어 개발과 산학 연구 과제 등을 운영할 방침이다. 이를 위해 네이버클라우드와 인텔은 'AI 공동연구센터(NICL)'도 설립한다. 물리적인 센터를 설립한다기 보다 한국과학기술원(KAIST·카이스트)·서울대학교·포항공과대학교(POSTECH·포스텍)를 포함한 국내 20여 개 연구실·스타트업이 참여해 온라인상에서 유기적으로 연구 결과를 공유하는 식으로 운영될 것으로 알려졌다. 또 인텔은 네이버클라우드에 '가우디2'를 제공해 '하이버클로바X'를 테스트에 활용할 수 있도록 제공하는 한편, 일부 현물 투자도 진행하는 것으로 파악됐다. 네이버 측은 '가우디2'로 자체 LLM 구축에 박차를 가할 방침이다. 인텔 관계자는 "네이버 측과 이전부터 오랫동안 협업하며 신뢰를 쌓아왔고 국내 소프트웨어 생태계를 '가우디' 기반으로 만들어보자는 뜻이 맞아 이번에도 손을 잡게 됐다"며 "네이버가 '가우디'를 통해 '하이퍼클로바X'를 어떤 분야에 활용하면 효율적인지 찾아가는 과정이 당분간 이어질 것으로 보인다"고 말했다. 네이버클라우드도 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로 '하이퍼클로바X'를 보다 합리적인 비용에 고도화할 계획이다. 나아가 미래 고부가가치 AI 신사업을 발굴·육성하고, 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다. 김유원 네이버클라우드 대표는 "네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않다"며 "더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다"고 설명했다. 업계에선 네이버클라우드가 인텔과의 협업을 계기로 비용 절감 문제도 해소할 수 있을 것으로 봤다. 현재 AI칩 시장을 독점하고 있는 엔비디아의 GPU의 가격은 천정부지로 오른 상태로, 'H100'의 경우 공급 부족 현상 탓에 가격이 1개당 5천만원이 넘는 것으로 알려졌다. 이에 업체들은 엔비디아 중심의 AI 가속기를 대체할 만한 대안을 계속 찾고 있는 상황이다. 네이버 역시 지난해 비용 문제로 기존 AI 모델을 구동하는데 쓰던 엔비디아의 GPU를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 인텔도 이 점을 노리고 지난 9일 '인텔 비전 2024'를 통해 '가우디3'를 공개했다. AI 학습과 추론에 모두 사용할 수 있는 신형 AI 가속기로, 인텔은 이 제품이 엔비디아의 제품인 'H100'보다 성능과 효율은 높다고 주장했다. LLM은 평균 50% 이상 빠르게 훈련시킬 수 있고 에너지 효율은 40% 뛰어난데 가격은 'H100'보다 더 저렴하다는 점이 강점이다. 업계 관계자는 "AI 가속기가 현재 엔비디아의 GPU처럼 범용으로 쓸 수 있는 것은 아니다"며 "네이버가 '가우디'를 어떤 워크로드에서 얼마나 효율적으로 잘 사용하고, 그 결과물을 내놓을지에 따라 양사의 사업에 대한 평가가 달라지게 될 것"이라고 말했다. 그러면서 "인텔은 이번 공동 연구를 '가우디' 성능 입증의 수단으로 활용할 수 있을 것"이라며 "네이버클라우드 역시 '하이퍼클로바X' 중심의 생태계 확장을 노릴 수 있을 것"이라고 덧붙였다. AI칩 주도권 확보를 노리는 삼성전자도 네이버클라우드에 도움의 손길을 내밀었다. AI반도체는 크게 학습용과 추론용으로 나뉘는데, 양사는 추론형 AI 반도체 '마하1' 공동 개발에 나선 상태다. 인텔 '가우스'와는 성격이 달라 경쟁 대상이 아니다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화된 것으로 평가된다. '마하1'은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다. 업계 관계자는 "현재 AI반도체는 공급 부족 상태로, 엔비디아의 GPU가 사실상 학습용과 추론용으로 모두 쓰이고 있다"며 "추론형인 '마하1'의 가격은 엔비디아 'H100'의 10분의 1수준인 500만원 정도에 책정될 것으로 보여 가격 경쟁력을 갖출 것으로 보인다"고 말했다. 이어 "네이버클라우드가 인텔, 삼성전자 등과 손을 잡는 것은 AI 반도체의 재고 한계와 높은 비용에 대한 부담이 크게 작용한 듯 하다"며 "시장 진입이 어려운 인텔, 삼성과 엔비디아 GPU 수급이 어려워 '하이퍼클로바X'를 업데이트하기 쉽지 않은 네이버 측의 협업은 현재로선 불가피한 선택인 듯 하다"고 덧붙였다.