• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'H100'통합검색 결과 입니다. (11건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 정부 고성능컴퓨팅 지원사업, GPU 활용 어려움에 추가 모집 나서

정부 추경 예산으로 추진된 '고성능컴퓨팅 지원사업'이 사업 초기부터 일부 조정 과정을 겪고 있다. 인공지능(AI) 기술 개발을 위한 그래픽처리장치(GPU) 자원 확보에 나섰지만, 일부 기관에서는 운영 인력과 기술적 여건이 충분하지 않아 참여를 재검토하는 사례가 나타나고 있다. 7일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 지난 4일 '2025년 추경 고성능컴퓨팅 지원사업'의 추가 사용자 모집 공고를 게시했다. 당초 선정된 일부 사업자가 GPU 활용에 어려움을 호소하며 참여를 포기함에 따라, 남은 자원을 효율적으로 배분하기 위한 조치라는 설명이다. NIPA 관계자는 "사용자들을 최종 선정했지만, 갑자기 포기한 곳들이 생겨 추가 모집 공고를 부랴부랴 내게 됐다"며 "사용자들이 (GPU) 자원이 필요하다고 신청해놓고, 막상 지원하려고 하니 '지금 단계에선 필요 없다'고 답변한 곳들이 있었다"고 말했다. 이어 "자원 할당한 후 안내 메일 보낼 때까지도 아무런 말이 없다가 갑자기 포기하는 사례가 발생해 우리 측에서도 당황스러운 상태"라며 "사용자가 없는데 (그냥 두고) 어떻게 할 수 없어서 모집 공고를 다시 내게 됐다"고 덧붙였다. 이번 일로 남게된 H100 물량은 310장 내외다. 사업 기간은 내년 1월부터 6월 30일까지로 ▲H100 1~4장을 선택할 수 있는 1트랙 사용자와 ▲GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자를 선별한다. 일단 신청은 H100을 기준으로 신청하지만, H100 1장당 A100 4장 또는 H200 1장당으로 향후 환산해 배정된다. 당초 정부는 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 정부 추경 예산을 바탕으로 이 사업을 추진해왔다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 이미 선정한 상태였다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급키로 했다. 이전까지는 사용자당 H100 GPU 2장 수준을 제공하던 방식이었으나, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원한다는 점에서 업계의 많은 관심을 받았다. 그간 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 지적이 일자 정부가 전폭적으로 지원에 나섰기 때문이다. 업계 관계자는 "세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다"며 "이 탓에 정부가 국내 AI 산업 경쟁력을 강화시키고자, 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하고자 한 것"이라고 설명했다. 하지만 이번에 GPU 지원 포기자들이 속출하면서 정부의 노력은 헛수고가 됐다. 또 심사 과정에서 제대로 된 사업자들을 걸러내지 못했다는 점에서 비판의 목소리도 나온다. 더불어 정작 현장의 기술적 준비 수준이 매우 낮은 상황에서 고성능 GPU를 쓰는 것이 의미가 없다는 사실이 고스란히 드러났다는 분석도 있다. 업계 관계자는 "국내 AI 연구·산업의 격차가 이번에 여실히 드러난 것"이라며 "일부 선도 기관이나 기업은 H100급 GPU를 필요로 하지만, 다수는 아직 모델 최적화나 대규모 학습 수준에 도달하지 못한 상태로 볼 수 있다"고 말했다. 이어 "인프라보다 인력·소프트웨어 생태계·데이터 파이프라인이 병목이라는 현실이 드러난 듯 해 안타깝다"며 "최신 GPU 확보에만 혈안돼 정부가 현실을 제대로 보고 있지 못한 사례로 보여진다"고 덧붙였다. 이 같은 상황에서 현재 정부가 AI 인프라 투자를 위해 관련 예산을 크게 늘리고 최첨단 GPU 확보에 사활을 걸고 있다는 점도 우려되는 부분이다. 이재명 정부는 'AI 3대 강국(AI G3)'을 목표로 AI 관련 내년 예산안 규모를 올해보다 80% 가까이 늘린 10조1천398억원으로 책정했다. 앞서 두 차례 단행된 추가경정예산(추경)을 포함해 올해 AI 예산은 5조6천567억원이다. 이 대통령은 지난 4일 국회에서 열린 시정연설을 통해 "농경 사회에서 산업 사회로, 산업 사회에서 정보 사회로 전환해 왔던 것처럼 AI 사회로의 전환은 필연"이라며 "'AI 3대 강국' 도약을 위한 대전환에 10조1천억원을 편성했다"고 재차 강조했다. 이 중 내년 AI 예산에서 첨단 GPU 확보 예산으로 2조1천87억원을 배정했다는 점에서 우려된다. 이 대통령은 GPU 1만5천 장을 추가 구매해 정부 목표인 3만5천 장을 조기 확보할 것이라고 공언한 상태다. 여기에 정부는 엔비디아에서 GPU 26만 장을 한국에 공급키로 했다는 점에서도 기대감을 키우고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난 달 말 '아시아태평양경제협력체(APEC) 정상회의 및 CEO 서밋'을 계기로 방한 해 한국 정부 및 기업에 26만 장을 공급하겠다고 밝힌 바 있다. 정부가 확보한 GPU는 5만 장이다. 업계 관계자는 "다른 클라우드 업체들도 H100 등 고성능 GPU를 확보해 기업, 연구기관 등에 제공하고 있지만, 실제 가동률은 절반도 못미치는 수준"이라며 "정부가 GPU만 바라보느라 인재 확보나 양질의 데이터 제공, 사용자 관점에 입각한 AI 규제 마련 등에는 상대적으로 정책이 부실하다"고 꼬집었다. 이어 "질 좋은 하드웨어는 갖다 놨지만, 현재 상태로는 공장에다 사람 없이 장비만 사다 놓고 내버려 두는 꼴"이라며 "기술력, 인재 없이 첨단 GPU만 우리나라가 구입한다고 경쟁적으로 나서는 것은 결국 GPU 공급사인 엔비디아에게만 좋은 것"이라고 덧붙였다.

2025.11.07 16:22장유미

中 수출 막힌 엔비디아 AI칩...수리 업체는 '호황'

중국에서 미국의 수출 규제로 금지된 엔비디아의 고성능 AI 반도체 수요가 여전히 높은 가운데, 이들 칩셋을 전문적으로 수리하는 '비공식 시장'이 빠르게 확산하고 있다. 로이터통신은 중국 선전 지역을 중심으로 엔비디아 H100과 A100 GPU(그래픽처리장치)를 수리하는 소규모 업체들이 성업 중이라고 현지시간 25일 보도했다. 일부 수리업체는 월 500개에 달하는 칩을 수리할 정도이며, 기술 진단과 부품 교체를 포함한 복구 비용은 개당 1만위안(약 192만원)에 이른다. 문제는 이들 칩 대부분이 미국 수출 통제 품목으로, 중국 내 유입 자체가 불법이라는 점이다. 실제로 현지 업계에서는 해당 칩이 밀수 또는 중고 시장을 통해 지속적으로 유입되고 있으며, 일부는 국영 기업이나 군 관련 기관으로 흘러들어갔다는 주장도 나온다. 엔비디아는 유입된 칩에 대해 공식적인 서비스나 수리 지원은 제공하지 않고 있으며, 이로 인해 민간 업체를 통한 비공식 수리 시장이 자연스럽게 형성된 것으로 분석된다. 앞서 미국은 2022년부터 엔비디아의 고성능 AI 칩셋에 대해 대중국 수출을 제한해왔다. 이에 엔비디아는 중국 시장을 겨냥해 성능을 낮춘 'H20' 칩을 따로 개발해 판매 중이지만, 여전히 고성능 모델인 H100 수요가 압도적이라는 것이 현지 업계의 전언이다. H20은 서버 1대 구성 기준 가격이 100만위안(약 1억9천만원)이 넘고, AI 학습보다는 추론에 초점을 맞춰 성능 면에서도 한계가 있다는 평가를 받고 있다.

2025.07.27 10:06전화평

'화웨이 직격탄'에 엔비디아 주가 폭락…이유는?

중국 화웨이가 고성능 인공지능(AI) 칩을 개발 중이라는 소식에 엔비디아 주가가 크게 하락했다고 야후 파이낸스가 28일(현지시간) 보도했다. 이날 뉴욕증시에서 엔비디아 주가는 2.05% 하락한 108.73달러를 기록했다. 월스트리트저널은 27일 화웨이가 자체 AI 고성능 칩을 개발 중이라고 소식통을 인용해 보도했다. 보도에 따르면, 화웨이가 개발 중인 AI 칩은 엔비디아 주력인 'H100' 칩보다 더 강력한 성능을 갖출 것으로 기대하고 있다. 엔비디아 최신 칩인 블랙웰의 이전 버전인 H100 칩은 강력한 미국의 제재로 중국 수출은 금지된 상태다. 화웨이가 개발 중인 '어센드 910D'는 910B·910C 칩의 후속 모델로 아직 초기 개발 단계인 것으로 알려졌다. 화웨이가 국유 통신사와 틱톡 모회사 바이트댄스와 같은 AI 개발사를 포함한 고객에 80만 개 이상의 어센드 910B·910C 칩을 출하할 전망이다. 최근 엔비디아는 증권거래위원회(SEC) 제출 보고서를 통해 미국 상무부가 자사 H20 칩의 중국 수출을 제한했다고 밝혔다. 미국 정부는 지난 수년 동안 중국에 대한 첨단 반도체 수출을 제한해 왔다. 고성능 AI 칩인 H100 칩의 경우 2022년 출시 전부터 중국 수출이 금지된 상태다. 엔비디아는 미국 규제를 피하기 위해 성능이 낮은 사양인 H20을 중국용으로 만들어 판매해왔지만 이번에 이 칩도 제한한 것이다. 이러한 규제 변화로 엔비디아는 약 55억 달러(약 7조9천억 원)의 손실이 발생할 것으로 예상한다고 밝혔다. 이에 JP모건 분석가들은 해당 조치로 올해 엔비디아 매출이 최대 160억 달러(약 23조 320억원) 감소할 것으로 전망했다. 엔비디아의 중국 매출은 전체 매출의 약 13%를 차지하고 있다. 하지만, DA 데이비슨 분석가는 중국이 밀수를 통해 엔비디아 칩을 대량으로 사들이고 있어 실제 비중은 이보다 더 높을 것이라고 전망했다. 엔비디아 주가는 올해 들어 19% 가량 폭락한 상태다. 이는 거대 기술 기업의 AI 지출과 도널드 트럼프 대통령의 무역 전쟁 여파로 어려움을 겪었기 때문이다. 이번 달 초 미국 정부는 중국에서 엔비디아의 AI 칩 사용과 관련해 엔비디아를 조사 중이라고 밝혔다. 한편, 젠슨 황 엔비디아 최고경영자(CEO)는 중국을 방문하여 무역 관계자들을 만났다. 엔비디아는 동시에 중국 내 제조 기반 확장을 모색하고 있으며, 미국 AI 공급망 구축에도 5천억 달러를 투자할 계획이다.

2025.04.29 10:29이정현

美 의회 "엔비디아 GPU 중국 유출 여부 조사 착수"

미국 의회는 17일(현지시간) 중국 수출이 제한된 고성능 엔비디아 GPU가 우회 공급됐다는 의혹에 대해 공식 조사에 착수한다고 밝혔다. 17일 미국 하원 중국공산당특별위원회는 중국 AI 기업 딥시크(DeepSeek)가 수출 통제 대상인 엔비디아 GPU 약 6만 개로 거대언어모델(LLM)을 훈련했다는 정보를 바탕으로 엔비디아에 관련 기록 제출을 요구했다고 밝혔다. 지난 1월 딥시크 R1 공개시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했다"고 밝혔다. 그러나 위원회는 "딥시크가 H100, A100 등 고성능 GPU를 싱가포르 등 제3국에서 우회 확보했을 가능성이 있다"고 지적했다. 위원회는 2020년 이후 중국이나 아세안 국가에서 499대 이상의 AI GPU를 구매한 모든 고객 목록과 최종 사용자, 거래 날짜, 최종 목적지 등 상세 정보 제출을 요구하고 있다. 싱가포르 이외에 말레이시아로 GPU 수출이 3.6배 이상 늘어나면서 중국으로의 우회 수출지로 말레이시아가 활용되고 있다는 의혹도 제기되고 있다. 엔비디아는 "미국 정부의 수출 규제를 준수하고 있으며 싱가포르 매출 증가는 단순히 결제가 일어난 장소이며 관련 제품은 미국과 대만 등 다른 지역으로 배송되고 중국에 공급되지 않았다"고 반론했다.

2025.04.18 09:37권봉석

"국내 30개 병원에 H100 GPU 총 3,840장 필요"

의료분야 데이터센터 구축과 생성형 AI를 개발하기 위해 최소 30개 병원에 각가 H100 GPU 128장(랙2개)씩 총 3천840장을 확보해야 한다는 주장이 제기됐다. 아주대학교 박래웅 의료정보연구센터장은 10일 국회의원회관에서 열린 바이오헬스디지털혁신포럼 창립총회 및 세미나에서 이같이 주장했다. 이 창립총회는 바이오헬스디지털혁신포럼(공동의장 최수진, 노연홍)과 대한의료데이터협회(회장 정명예) 등이 주최했다. 박 센터장은 세미나에서 "중앙식 대규모 데이터센터 구축 대신 30개 병원에 일정 수준 이상 GPU를 구축해야 한다"며 "소요 비용으로 총 2천억 원 정도 들 것"으로 예상했다. 박 센터장은 네트워크로 과기정통부 코렌(KOREN, 차세대 네트워크 선도 연구시험망' 이용을 제안했다. 또 AI 학습 방법은 '연합학습'기법이 적합할 것이라고 지적했다. "이 시스템은 병원 데이터가 외부로 반출되지 않기 때문에 병원이 보유한 거의 모든 의료 데이터를 AI학습에 활용할 수 있을 것입니다." 이에 앞서 을지대학교 강민수 스마트의료정보학부 교수(의료원 전산처 통합전산센터장)은 '우리나라의 의료데이터 혀황과 나아갈 길'에 대해 주제발표했다. 강 교수는 AI 기반 의료 데이터 산업의 중요성을 강조하며 고품질 의료 데이터의 필요성에 대해 목소리를 높였다. 강 교수는 또 의료 데이터 산업 활성화가 "신약개발 속도, 특히 초기 연구단계를 획기적으로 앞당길 것"이라며 "의료 비용 절감 및 경제적 가치 창출 등도 장점"이라고 언급했다. 강 교수는 의료데이터 산업 조성 주요 과제로 데이터 표준화 및 상호 운용성 확보 법적 윤리적 문제와 데이터 보안 및 개인정보 보호 강화 기술인프라 구축 전문인력 양성 등을 곱았다. 전상표 대한의료데이터협회 부회장이 좌장을 맡아 진행한 패널 토론에서는 보건복지부 백영하 보건의료데이터진흥과장, 과기정통부 김수정 데이터진흥과장, 산업통상자원부 김정대 바이오융합산업과장, 양희철 법무법인 명륜 변호사, 한국과학기술정보연구원 소대섭 책임연구원, 이주철 특허법인 해안 대표, 강민수 교수 등이 참석했다. 김수정 데이터진흥과장은 "최근 AI에서 핵심은 컴퓨팅 파워와 인재, 데이터"라며 "바이오 중요성 잘 인식하고 있고, 의료를 최우선으로 지원하고 싶다"고 언급했다. 소대섭 책임연구원은 이날 토론 시사점으로 차별화된 국가 전략 추진의 필요성 범정부 차원의 전주기적 거버넌스 확립 국가적 투자 확대 한국형 혁신사례 발굴 등의 필요성을 강조해 관심을 끌었다. 한편 이날 창립총회에는 국민의힘 국회의원들이 대거 참석했다. 권영세 비상대책위원장과 권성동 원내대표, 김상훈 정책위의장를 비롯한 추경우, 김장겸 의원 등이 창립총회를 찾았다.

2025.03.10 16:05박희범

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

[현장] "GPU 병목 넘는다"…구글 클라우드 '트릴리움' TPU로 AI 혁신 본격화

"그래픽 처리 장치(GPU)는 그래픽 연산에 특화돼 있지만 텐서 처리 장치(TPU)는 처음부터 인공지능(AI)용으로 설계됐습니다. 거대 언어 모델(LLM) 시대에 필요한 초거대 연산을 효율적으로 처리하는데 있어 우리가 개발한 '트릴리움' TPU는 좋은 답이 될 것입니다." 모한 피치카 구글 클라우드 프로덕트 매니저는 16일 회사가 개최한 '렛츠 토크 AI : 구글 클라우드 트릴리움 교육 세션'에서 이같이 말했다. 이날 온라인으로 진행된 행사에서 피치카 PM은 구글 클라우드가 새롭게 선보인 6세대 텐서 TPU '트릴리움'과 AI 하이퍼컴퓨팅 전략을 설명했다. 피치카 PM에 따르면 GPU가 본래 컴퓨터 그래픽의 병렬 처리를 위해 개발된 것과 달리 TPU는 뉴럴 네트워크 연산에 특화해 처음부터 AI를 염두에 두고 탄생한 장치다. 구글 역시 이러한 트렌드를 감안해 지난 2015년 경부터 TPU를 개발해 왔다. 트릴리움 TPU는 단순히 '칩' 하나만 개선한 것이 아니다. LLM을 학습하려면 네트워킹, 스토리지, 소프트웨어 스택까지 모두 일관성 있게 최적화돼야 하는 것은 필수다. 이에 구글 클라우드 역시 '트릴리움'이 이 모든 구성 요소를 하나의 거대한 슈퍼컴퓨터처럼 움직이도록 설계했다는 것이 피치카 PM의 설명이다. 실제로 구글 클라우드는 저전력 액체 냉각 기술, 3세대 스파스코어(SparseCore), 확장된 고대역폭 메모리(HBM) 등 다양한 요소를 결합해 '트릴리움'의 전력 효율과 확장성을 함께 끌어올렸다. 피치카 PM은 "GPU만 쓰는 환경에서는 분산 처리가 복잡해질 수 있지만 트릴리움 TPU는 칩 수천 개를 유기적으로 연결해 병목 현상을 최소화한다"며 "이런 통합 아키텍처야말로 거대 언어 모델 시대에 꼭 필요한 핵심"이라고 말했다. 행사에서 반복적으로 언급된 또다른 키워드는 'AI 하이퍼컴퓨터'였다. '트릴리움'을 통해 구글이 네트워크, 스토리지, 오픈소스 소프트웨어, 유연한 소비 모델을 통합함으로써 거대 언어 모델을 빠르고 안정적으로 서빙할 수 있는 '슈퍼컴퓨팅 환경'을 구현했다는 것이다. 피치카 PM은 "구글은 이미 검색, 포토, 지도 등 주요 서비스에 TPU를 대규모로 적용해 왔다"며 "이를 통해 얻은 노하우가 글로벌 고객들에게도 곧바로 제공된다"고 밝혔다. 구체적인 활용 사례도 공개됐다. 현재 카카오는 통합 AI 브랜드 '카나나(Kanana)'를 개발하던 중 GPU 자원의 한계를 느껴 트릴리움 TPU를 도입한 바 있다. 이에 따라 70B 파라미터를 지닌 대형 한국어·영어 모델을 빠르게 학습시킬 수 있었다. 글로벌 유즈 케이스 역시 상당하다. 글로벌 제약회사인 바이엘은 신약 개발에, 딥 지노믹스는 RNA 치료제 연구에 '트릴리움'을 적용해 대규모 AI 모델을 효율적으로 구동하고 있다. 피치카 PM은 "노벨상 수상 연구로 주목받은 알파폴드(AlphaFold) 2나 구글의 최신 모델 제미나이(Gemini) 2.0 역시 '트릴리움' TPU를 가속기로 썼다"며 "초거대 모델 시대에 TPU가 점점 더 중요한 위치를 차지할 것"이라고 내다봤다. TPU는 성공적인 AI 연산 뿐만 아니라 지속 가능성 측면에서도 주목할만한 대안이다. 구글에 따르면 지난해 12월 출시된 '트릴리움' 6세대는 이전 세대 대비 전력 효율을 67%까지 끌어올려 에너지 소비를 줄이고 액체 냉각 기술 같은 친환경 기술을 통해 탄소발자국을 최소화한다. 피치카 PM은 "우리는 친환경적인 AI 인프라를 구축하기 위해 TPU 설계와 운영에서 지속 가능성을 핵심 목표로 삼았다"며 "이러한 기술적 혁신은 에너지 효율성 개선과 환경 보호를 동시에 달성하려는 구글의 장기적인 전략에 부합한다"고 덧붙였다. 구글 클라우드는 경쟁사와의 비교에도 자신감을 보였다. '트릴리움'과 엔비디아 'H100' GPU의 차이에 대한 기자의 질문에 피치카 PM은 "칩과 소프트웨어 스택이 서로 달라 단순 비교는 어렵다"면서도 "'트릴리움'은 뉴럴 네트워크 연산에 특화된 구조로 동일 코어 대비 '행렬 곱셈(Matrix multiplication)' 등 AI 핵심 작업에서 높은 효율을 보인다"고 설명했다. 다만 "아키텍처가 다른 칩들을 성능 점수만으로 비교할 수는 없기 때문에 심층적인 분석이 필요하다"고 당부했다. 지난해 12월 정식 출시 이후 전 세계 고객사들은 이미 '트릴리움' TPU를 이용해 대규모 AI 모델을 구동하고 있다. 구글은 이러한 기술을 기반으로 보다 다양한 유즈 케이스를 확보해 글로벌 시장에서 영향력을 확대할 계획이다. 피치카 PM은 "GPU가 이끌던 AI 시대를 이제 TPU가 한 단계 더 진화시키고 있다"며 "'트릴리움'은 고밀도 모델과 초거대 연산에 최적화된 전용 솔루션으로, 누구든 이 'AI 하이퍼컴퓨터' 인프라를 활용해 글로벌 경쟁력을 확보할 수 있을 것"이라고 강조했다.

2025.01.16 12:00조이환

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

[AI는 지금] 中 딥시크, 'V3'로 실리콘밸리에 도전장…"비용·성능 모두 잡았다"

중국 인공지능(AI) 스타트업 딥시크가 최근 새로운 오픈소스 거대언어모델(LLM) 'V3'를 공개하며 주목받고 있다. 주요 벤치마크에서 오픈AI 등 실리콘밸리 빅테크의 AI 모델과 대등하거나 우수한 성능을 입증하면서도 누구나 사용이 가능해 글로벌 생태계에 큰 변화를 가져올 잠재력을 인정받고 있다. 9일 업계에 따르면 딥시크 'V3'는 총 6천710억 개에 달하는 매개변수를 갖춘 모델로, 메타의 최신 모델인 '라마(Llama) 3.1' 버전보다 약 1.5배 더 큰 규모다. 그동안 오픈소스 LLM으로 가장 널리 알려진 라마 시리즈와 비교해도 방대한 수준의 매개변수를 자랑한다. 또 누구나 쉽게 접근할 수 있는 오픈소스 형태로 출시돼 향후 글로벌 AI 생태계에 적잖은 파장을 일으킬 것이라는 관측이 제기된다. 전문가들은 딥시크 'V3'의 성능이 공인 가능한 벤치마크들을 통해 인정받았다고 평가한다. 코딩 분야에서는 코드포스(Codeforces) 등 국제 공인 프로그래밍 테스트를 통해 메타 '라마 3.1'이나 오픈AI의 '챗GPT 4o'와 어깨를 나란히 하거나 일부 영역에서는 오히려 앞선 결과를 보였다. 언어 능력에 있어서도 마찬가지다. 'V3'는 LLM 언어능력을 평가하는 MMLU 벤치마크에서도 88.5점을 달성했다. 이 점수는 88.7점을 받은 'GPT-4o'와의 점수 차가 매우 근소한 수준으로, '클로드 3.5'나 구글 '제미나이' 모델의 점수를 능가해 사실상 최고 수준에 가까운 역량을 입증했다. 개발 비용 측면에서의 가성비는 기술적 완성도만큼이나 'V3'가 주목받는 이유다. 딥시크 측은 'V3' 개발에 약 557만 달러(한화 약 82억 원)를 투입했다고 설명했는데 이는 오픈소스 방식으로 개발된 메타 라마 모델에 투입된 6억4000만 달러(한화 약 8천960억원)의 1% 수준에 불과하다. 또 엔비디아의 최신 AI칩인 'H100' 대신 상대적으로 낮은 성능의 'H800' 활용하면서도 데이터 압축과 연산 최적화를 통해 컴퓨팅 자원을 효율적으로 활용해 성능을 확보했다. 업계 전문가들은 이를 단순히 비용을 절감했다는 차원을 넘어 제한된 환경에서도 고성능 모델을 구현할 수 있다는 가능성을 보여줬다고 평가한다. 다만 오픈AI의 샘 알트먼 대표는 최근 자신의 소셜미디어 계정에서 “이미 운영 중인 것을 복사하는 것은 쉽다"며 "새롭고 어려운 일을 하는 것이 진정한 도전"이라고 언급했다. 업계 일각에서는 이를 딥시크와 같은 중국 AI 기업의 빠른 모델 출시를 겨냥한 우회적 비판으로 분석했다. 그럼에도 불구하고 딥시크가 내세우는 오픈소스 경쟁력과 저렴한 애플리케이션 프로그램 인터페이스(API) 요금 체계는 글로벌 시장에서 테크 기업들의 변화를 초래하는 주요 동력으로 작용할 가능성이 높다. 개인 구독제 형태로 과금을 하는 오픈AI, 구글 등 실리콘 밸리 AI 스타트업과는 달리 'V3'는 깃허브나 허깅페이스에서 개인이 무료로 다운로드가 가능하기 때문이다. 또 API 가격 역시 백만토큰 당 입력토큰이 약 30센트(한화 약 520원), 출력토근이 약 1달러(한화 약 1400원)로 '챗GPT 4'에 비해 약 30~40배 저렴하다. 실제로 중국 내 빅테크 기업들은 이미 딥시크 'V3'를 계기로 모델 사용료를 낮추는 방안을 검토하고 있는 것으로 알려졌다. 'V3' 모델의 경이로운 발전에는 미중 기술 경쟁과 AI 보호무역주의가 오히려 기여했다는 시각도 존재한다. 'H100' 등 미국 정부의 대중국 고성능 반도체 수출 규제 상황과 오픈AI의 중국 내 서비스 중단이 중국 AI 기술 발전을 초래했다는 것이다. 실제로 딥시크는 이보다 훨씬 낮은 사양인 'H800 GPU'에 각종 최적화 기술을 접목해 고효율화를 이뤄낸 것으로 평가된다. 또 지난해 7월부터 오픈AI가 중국 내 '챗GPT' 서비스를 VPN 접속마저 전면 차단하면서 중국 AI 기업들이 독자적인 모델을 키워낼 기회를 갖게 됐다는 분석이다. 미·중 간 기술 패권 경쟁이 중국 AI 스타트업을 더욱 독려하고 있는 셈이다. 다만 정치적 민감 이슈에 대한 회피와 모델 자체의 환각 문제 등은 'V3'이 극복해야 할 과제로 거론된다. 다수의 외신과 소셜 미디어 포스트 등에 따르면 'V3'는 천안문 사태처럼 중국 당국이 민감하게 여기는 주제에 대해서는 답변을 기피하도록 설계됐다. 이는 체제 안정을 AI 개발의 정책적 목표 중 하나로 간주하는 중국 당국의 정책때문이다. 이와 더불어 해외 사용자들이 진행한 테스트 결과 모델은 자신을 'GPT-4'로 혼동하거나 "나는 챗GPT입니다"라고 소개하는 등 환각 현상이 일부 포착됐다. 이에 런던 킹스칼리지의 마이크 쿡 연구원은 "경쟁 모델을 무분별하게 참조하면 현실 왜곡이 일어날 수 있다"고 우려했다. 이같은 단점에도 불구하고 딥시크 'V3'는 성능과 비용 효율 면에서 중요한 진전을 이뤄냈으며 글로벌 AI 시장에 새로운 변화를 불러올 가능성 가진 것으로 평가된다. 한 국내 AI 업계 관계자는 "LLM 수준이 상향 평준화되고 있기 때문에 'GPT 4' 수준의 성능을 보이는 것은 특기할 만한 점은 아니지만 그 외의 조건들이 주목할만 하다"며 "특히 671B 수준의 대형 모델 학습비용이 겨우 77억원밖에 나오지 않았다는 점이 고무적"이라고 평가했다.

2025.01.09 14:16조이환

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

제도화 vs. 도입…신년사로 본 '디지털자산' 온도차

한국정보과학회 50여년 만에 여성 회장...올해 6대 ICT 학회장 누구?

삼성·LG 신임 수장, 'CES 2026'서 미래 AI·로봇 비전 꺼낸다

최태원 "韓 경제, 이대로 가면 5년 뒤 마이너스 성장"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.