• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (852건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 실적 발표에 쏠린 눈…분석가들의 전망은?

엔비디아가 18일(현지시간) 장 마감 후 3분기(8~10월) 실적을 발표할 예정이다. 이번 실적이 최근 불거진 AI(인공지능) 거품론을 잠재울 수 있을 지 시장의 관심이 집중되고 있다고 야후파이낸스 등 외신들이 보도했다. 보도에 따르면, 월가 분석가들은 엔비디아의 매출이 전년 동기 대비 약 60% 증가할 것으로 예상하고 있다. 옵션시장은 실적 발표 후 주가가 약 7% 가량을 변동할 가능성을 반영하고 있다. 주가가 오른다면 지난주 수준인 199달러대를 회복하고, 떨어진다면 지난 9월 이후 최저 수준인 174달러까지 하락할 수 있다는 분석이다. 최근 몇 분기 동안 엔비디아는 기록적인 실적에도 불구하고 실적 발표 후 주가가 하락하는 패턴이 반복됐다. 최근 4분기 중 단 한 분기를 제외한 모든 분기에서 주가는 실적 발표 직전보다 낮은 수준으로 마감했다. 이번 실적 발표를 앞두고 기대감은 높지만, 경쟁사 AMD와 다른 AI 기업의 실적들이 기대에 못 미쳤던 점을 고려하면 엔비디아는 더 엄격한 잣대를 넘어야 할 것이라는 관측도 나온다. 엔비디아는 올해 AI 열풍에 힘입어 시총 기준 세계 최대 상장기업에 올랐고, 이는 AI 거품에 대한 우려를 더욱 키우고 있다. 투자자들은 엔비디아가 야심 찬 성장 목표를 달성할 수 있을지 주목하고 있으며, 이번 실적 발표는 이번 어닝 시즌 최대 이벤트이자 전체 증시에 큰 영향을 미칠 전망이다. 시장조사업체 비저블 알파에 따르면, 엔비디아의 3분기 매출은 554억 달러, 전년 대비 약 60% 증가해 사상 최고치를 기록할 것으로 전망되고 있다. 제프리스와 웨드부시 분석가들은 엔비디아가 분기 실적 시장 전망치를 웃돌고 연간 가이던스까지 상향할 것으로 예상한다고 전했다. 이에 따라 실제 시장의 이면 기대치는 더 높을 수 있다고 외신들은 전했다. 그럼에도 불구하고 월가 분석가들은 엔비디아 주가가 올해 약 40% 올랐음에도 불구하고 여전히 추가 상승 여력이 있다고 낙관하고 있는 상태다. 비저블 알파가 집계한 13명의 분석가 중 1명을 제외한 모든 분석가가 엔비디아 주식을 '매수'로 평가했고 평균 목표가는 219달러로 17일 종가 대비 약 17% 높았다.

2025.11.19 15:05이정현

스노우플레이크-엔비디아, ML 개발 가속 환경 구축

스노우플레이크가 엔비디아 손잡고 기업 머신러닝(ML) 개발 속도 높이기에 나섰다. 스노우플레이크는 인공지능(AI) 데이터 클라우드에 엔비디아의 오픈소스 라이브러리 '쿠다 엑스'를 탑재했다고 19일 밝혔다. 양사는 이번 협력으로 통해 모델 개발 전 과정의 효율을 끌어올리는 것을 공동 목표로 삼았다. 스노우플레이크는 쿠다 엑스의 데이터 사이언스 생태계에서 제공되는 '쿠엠엘'과 '쿠디에프'를 ML 엔진에 직접 통합한다. 이를 통해 파이썬 기반 주요 라이브러리 개발 시간을 대폭 줄였다. 데이터 사이언티스트는 인프라 조정 없이 기존 코드 그대로 그래픽처리장치(GPU) 성능을 활용할 수 있다. 엔비디아는 랜덤 포레스트에서 약 5배, 에이치디비스캔(HDBSCAN)에서 최대 200배까지 중앙처리장치(CPU) 대비 속도 향상을 확인했다. 이번 통합으로 기업은 이 성능을 스노우플레이크 환경 안에서 동일하게 사용할 수 있게 됐다. 엔비디아 고객도 쿠다 엑스 생태계 안에서 스노우플레이크 컨테이너 런타임을 활용해 대규모 ML 개발 환경을 신속히 구축할 수 있다. 이 환경은 복잡한 연산 작업을 몇 시간 단위에서 몇 분 단위로 단축하는 데 최적화됐다. 이번 통합은 대규모 테이블 데이터 처리나 대량 클러스터링 분석 같은 고난도 작업뿐 아니라 컴퓨터 유전체학처럼 고차원 시퀀스 분석이 필요한 분야에서도 GPU의 활용도를 극대화한다. 기업은 분석 시간을 줄이고 인사이트 도출에 더 많은 역량을 투입할 수 있다. 스노우플레이크는 이번 협력을 계기로 생성형 AI와 엔터프라이즈급 거대언어모델 개발까지 AI 라이프사이클 전 영역에서 GPU 최적화 도구를 확장할 계획이다. AI 데이터 클라우드 전략을 강화해 고객 기술 생태계를 더욱 넓히려는 전략이다. 크리스티안 클레이너만 스노우플레이크 제품 담당 수석부사장은 "우리는 기업이 쉽고 안전한 환경에서 데이터와 AI를 최대 성능으로 활용하는 것을 목표로 한다"며 "엔비디아와의 통합은 그 목표에 한 단계 가까워진 과정"이라고 밝혔다.

2025.11.19 14:10김미정

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미

삼성·SK·LG 모두 뛰어든 유리기판…"투자 검증 더 해봐야" 우려도

삼성·SK·LG 등 국내 주요 기업의 전자 계열사들이 차세대 반도체 유리(글라스) 코어 기판 시장에 앞다퉈 뛰어들고 있다. 다만 실무단에서는 유리기판 상용화에 대한 반대 의견도 적지 않은 상황으로 기술적 난제와 최종 고객사, 시장성에 대한 불확실성 등이 해결 과제로 지적된다. 18일 업계에 따르면 국내외 주요 반도체 및 기판 업체들은 유리 코어 기판 상용화 전략을 두고 의견이 엇갈리고 있다. 유리기판은 기존 반도체 패키징 소재인 PCB(인쇄회로기판)을 유리로 대체해, 전력 효율성 및 내열 특성을 높이는 기술이다. 특히 기존 기판 대비 워피지(휨) 개선에 유리해 향후 AI 반도체에서 수요가 증가할 것으로 전망되고 있다. AI 반도체는 성능 극대화로 칩 사이즈가 계속 커지는 추세인데, 이 경우 워피지에 취약해지는 문제점이 발생하기 때문이다. 이러한 관점에서 국내 주요 기업들도 유리기판의 시장 확대를 염두에 두고 상용화를 적극 추진 중이다. 삼성그룹 내에서는 삼성전기, SK그룹 내에서는 앱솔릭스, LG그룹 내에서는 LG이노텍이 각각 유리기판 사업의 선봉을 맡고 있다. AI용 고성능 기판 필요…삼성·SK·LG 유리기판 상용화 경쟁 불붙어 삼성전기의 경우, 세종사업장 내 유리기판 시생산 라인을 구축하고 올해 가동을 시작했다. 이달엔 글로벌 빅테크 기업인 B사에 첫 샘플을 납품할 예정이다. 또한 지난 5일에는 일본 스미토모화학그룹과 유리기판 소재 제조와 관련한 합작법인(JV) 설립 검토를 위한 양해각서(MOU)를 체결했다. 당시 장덕현 삼성전기 사장은 “글라스 코어는 미래 기판 시장의 판도를 바꿀 핵심 소재"라며 "앞으로 기술 리더십을 강화하고, 첨단 패키지 기판 생태계 구축에 앞장설 것"이라고 밝힌 바 있다. SKC 자회사 앱솔릭스는 지난 2022년 미국 조지아주에 유리기판 공장 착공에 나서, 지난해부터 잠재 고객사를 대상으로 샘플을 공급해 왔다. 해당 공장은 총 2단계로 구성되며, 현재 연산 1만2천㎡ 규모의 1공장이 건설됐다. 7만2천㎡ 규모의 2공장은 건설을 계획 중이다. SKC는 올 3분기 실적발표 컨퍼런스콜을 통해 "해당 분기 조지아 공장에서 유리기판 첫 양산 샘플을 제작하고 고객사 인증 과정을 시작했다“며 "매우 긍정적인 피드백이 오고 있고, 내년도 상업화를 위한 퀄(품질) 테스트를 목표로 노력하고 있다"고 밝혔다. LG이노텍 역시 구미 공장에서 유리기판 시생산 라인을 구축하고 있다. 올 연말 시제품을 제조하고, 2027년~2028년 양산에 나서는 것이 목표다. 반도체 업계 "검증 더 필요해야…과잉 투자 우려" 이들 각 기업은 경영진을 필두로 유리기판을 회사의 신성장동력으로 적극 홍보하고 있다. 다만 실무단에서는 여전히 유리기판 상용화에 대한 고민이 깊은 상황이다. 기술적 난제와 시장의 불확실성이 가장 큰 원인으로 지목된다. 유리는 기존 기판 소재 대비 가공 난이도가 매우 어렵다는 평가를 받는다. 유리 원장을 절단(싱귤레이션)하거나, TGV(유리관통전극) 구멍을 뚫고 도금하는 과정에서 미세 균열이 발생하는 경우 기판 전체에 크랙(깨짐) 현상이 발생하기 쉽다. 때문에 유리기판용 장비를 제조하는 기업들은 고종횡비의 TGV 형성을 위한 기술 개발에 주력하고 있다. 또한 유리기판이 매우 평평하고 매끄러운 성질을 지녀, 기판 위 구리 소재와 쉽게 접착되지 않는다는 문제점이 있다. 두 소재 간 열팽창계수가 달라 고온 환경에서 칩의 불량을 야기하는 경우도 발생할 수 있다. 반도체 업계 한 패키징 사업부문 임원은 "유리기판의 신뢰성 및 호환성 문제가 여전히 해결되지 않았고, 패키징 업계에서 반드시 유리기판을 유일한 해결책으로 정해놓고 기술 개발을 하고 있지도 않은 상황"이라며 "실무단에서 평가하는 수준에 비해 너무나 많은 투자가 검증 없이 진행되고 있는 것 같아 걱정된다"고 말했다. 엔비디아·이비덴 등 주요 기업은 '미온적' 유리기판에 대한 확실한 수요처가 없다는 지적도 제기된다. 전 세계 주요 빅테크 기업들이 유리기판에 대한 샘플 테스트를 진행하는 것은 익히 알려져 있으나, 평가 단계일 뿐 상용화를 확정해 발표한 기업은 아직 없는 상황이다. 또 다른 반도체 패키징 업계 고위 관계자는 "최근 논의해 본 빅테크 기업들은 유리기판을 양산이 아닌 기술 탐색적인 의미에서 접근하는 경향이 강하다"며 "브로드컴·마벨 등이 유리기판 샘플을 요청하기도 하나, 이들 역시 최종 고객사가 아니라 디자인하우스(칩을 대신 설계 및 제작해주는 기업)로서 기술 영역을 넓히려는 의도"라고 설명했다. 실제로 AI 반도체 시장의 핵심 기업들은 유리기판에 미온적인 태도를 취하고 있다. 대표적인 사례가 일본 이비덴이다. 현재 이비덴은 엔비디아의 고성능 AI 가속기에 사용되는 반도체 기판의 90% 가량을 공급 중인 회사다. 그만큼 엔비디아의 기술적 변화에 민감할 수 밖에 없다. 그럼에도 이비덴은 유리기판에 대한 구체적인 상용화 로드맵을 제시하지 않고 있다. 현재 초기 샘플 단계에서 연구개발만을 진행 중인 것으로 알려졌다. 앞선 관계자는 "AI 시장을 주도하는 엔비디아가 유리기판을 크게 고려하지 않고 있다. 만약 상용화에 적극적으로 나섰다면 이비덴에도 개발 압력을 넣었을 것"이라고 말했다. 대신 엔비디아는 기존 2.5D 패키징에 유리 인터포저를 채용하는 'CoPoS(칩-온-패널-온-서브스트레이트)' 기술을 준비 중이다. 2.5D 패키징은 반도체와 기판 사이에 얇은 막 형태인 인터포저를 삽입해 칩 성능을 높이는 기술이다. 기존에는 유기재료가 쓰였으나, TSMC는 이를 유리 패널로 대체해 대형 패키징을 구현할 계획이다. 양산 목표 시점은 이르면 오는 2028년이다. 성장 잠재력 높다지만…"실제 시장성 따져봐야" 유리기판이 지닌 시장성에 대해서도 의견이 엇갈린다. 유리기판이 AI 반도체 업황과 맞물려 폭발적인 성장세를 기록할 것이라는 전망과 실제 수요는 초고성능 분야에 국한되기 때문에 시장 규모 자체가 크지 않을 것이라는 비판이 동시에 나온다. 기판업계 한 관계자는 "반도체 패키지 시장 규모 자체를 10조~20조원 수준으로 추산하는데, 유리기판이 이 중 10%의 비중을 차지한다면 1조원대 시장을 두고 국내 주요 기업들이 경쟁하게 되는 상황"이라며 "국내 업계에서 유독 과열 양상을 보이고 있다"고 말했다. 반도체 전문 시장조사업체 욜(Yole) 그룹도 유리기판이 기판 시장 전체를 대체하는 것이 아닌, 고성능 제품에만 우선 적용될 것으로 보고 있다. 욜 그룹은 오는 2028년 고성능 IC(집적회로) 기판 시장 규모가 약 40조원에 달할 것으로 전망하면서, 유리기판은 580억원으로 0.14%의 비중을 차지할 것으로 분석했다. 유리기판 시장이 성장 잠재력을 지니고는 있으나, 단기간 내 급격한 성장세를 이뤄내기에는 무리가 있다는 의견으로 풀이된다. 유리기판 관련 장비업체 대표는 "유리기판에 대한 의구심이 당연히 있을 수 있으나, 기술 개발 및 시장 상황에 따라 급격히 대중화될 가능성도 배제할 수는 없다"며 "새로운 기술에 대한 검증은 반드시 필요하며, 현재로선 유리기판의 성공 가능성을 5대5 정도로 보고 있다"고 말했다.

2025.11.18 15:59장경윤

"AI로 실시간 설계"…엔비디아, 오픈 모델 '아폴로' 공개

엔비디아가 산업 시뮬레이션을 더 빠르고 정확하게 만들기 위한 오픈 모델 제품군을 내놨다. 엔비디아는 16~21일까지(현지시간) 미국 세인트루이스에서 열리는 '슈퍼컴퓨팅 2025(SC25)'에서 오픈 모델 제품 '아폴로'를 발표했다. 이를 통해 기존 시뮬레이션 소프트웨어(SW)에 실시간 인공지능(AI) 기능을 넣을 수 있도록 지원한다. 아폴로는 반도체 결함 검사나 열·기계 설계, 구조 해석, 기상·기후 예측 등 산업 전반의 계산 작업을 효율적으로 처리하기 위해 만들어진 물리 최적화 모델로 구성됐다. 제조와 자동차, 에너지 산업에서 널리 쓰이는 전산 유체 역학(CFD) 시뮬레이션도 가속할 수 있다. 아폴로는 신경 연산자와 트랜스포머, 디퓨전 모델 같은 최신 AI 기술을 각 산업 전문 지식과 결합해 더 높은 정확도를 제공한다. 개발자는 사전 훈련된 모델과 참조 워크플로를 활용해 필요에 맞게 모델을 빠르게 적용할 수 있다. 현재 어플라이드머티어리얼즈를 비롯한 케이던스, 램리서치, 루미너리클라우드, KLA, 피직스X, 리스케일, 지멘스, 시놉시스 등 주요 글로벌 기업은 이미 아폴로를 활용해 제품 개발과 공정 시뮬레이션을 가속하고 있다. 해당 기업은 기존보다 빠르게 설계 검증을 수행하고 공정 정확도를 개선할 수 있게 됐다고 밝혔다. 어플라이드머티어리얼즈는 AI 물리를 활용해 반도체 공정 챔버의 유동과 플라즈마, 열 환경을 실시간으로 시뮬레이션하고 있다. 기존 대비 최대 35배 빨라진 속도로 새로운 소재나 공정 조건을 탐색할 수 있다. 케이던스는 항공기 전체를 디지털 트윈으로 구현하기 위해 피델리티 찰스 솔버와 밀레니엄 M2000 슈퍼컴퓨터를 활용해 훈련 데이터를 구축했다. 이 데이터는 실시간 항공기 시뮬레이션에 활용되는 AI 모델 기반이 되고 있다. 램리서치는 엔비디아와 플라즈마 리액터 시뮬레이션을 AI 기반으로 가속하는 작업을 진행 중이다. KLA는 아폴로 모델을 반도체 공정 제어에 활용해 기존 솔루션 정확도를 더욱 끌어올릴 방침이다. 엔비디아는 아폴로 모델을 빌드닷엔비디아닷컴과 허깅 페이스와 자체 NIM 마이크로서비스를 통해 제공할 예정이다. 사용자는 등록을 통해 출시 알림을 받을 수 있다.

2025.11.18 15:39김미정

엔비디아, AI 슈퍼컴퓨터 확대 지원…"질병·우주·양자 연구 가속"

엔비디아가 글로벌 연구기관에 차세대 인공지능(AI) 슈퍼컴퓨터를 확대 지원해 과학 연구 속도 높이기에 나섰다. 엔비디아는 16~21일까지(현지시간) 미국 세인트루이스에서 열리는 '슈퍼컴퓨팅 2025(SC25)'에서 지난 1년간 엔비디아 가속 컴퓨팅 플랫폼 성과를 공개했다. 엔비디아는 "우리 가속 컴퓨팅 플랫폼에서 구동되는 80개의 새로운 과학 시스템이 전 세계에 공개됐다"며 "이는 총 4천500엑사플롭스의 AI 성능에 기여한 셈"이라고 강조했다. 이날 가장 큰 주목을 받은 시스템은 미국 텍사스 첨단 컴퓨팅 센터가 구축 중인 3백 페타플롭급 호라이즌이다. 이 시스템은 GB200 NVL4와 베라 중앙처리장치(CPU) 서버 기반으로 2026년 가동돼 미국 연구 커뮤니티에 새로운 수준의 AI 컴퓨팅 역량을 제공할 예정이다. 호라이즌은 의료와 기상·기후 모델링, 로보틱스, 제조 등에서 활용된다. 질병 역학 분석을 비롯한 은하 시뮬레이션, 신소재 탐색, 지진파 모델링 같은 고난도 연구를 수행할 수 있도록 설계됐다. 이 시스템은 블랙웰 그래픽처리장치(GPU) 4천 개를 탑재해 부동소수점 4비트 정밀도(FP4) 기준 최대 80 엑사플롭 성능을 낸다. 연구진은 이를 활용해 바이러스 구조나 은하 형성 과정, 양자 물질의 특성을 시뮬레이션할 계획이다. 미국 에너지부는 아르곤 국립연구소와 로스앨러모스 국립연구소에 일곱 대의 AI 슈퍼컴퓨터를 새로 구축하기 위해 엔비디아와 협력하고 있다. 이 중 솔스티스는 블랙웰 GPU 10만 개를 탑재해 1천 엑사플롭스 AI 성능을 목표로 한다. 솔스티스보다 작은 규모의 이퀴녹스는 블랙웰 GPU 1만 개로 구성돼 과학 데이터 분석과 모델 개발을 지원한다. 또 로스앨러모스 연구소의 미션과 비전 시스템은 베라 루빈 플랫폼과 퀀텀-X800 인피니밴드로 구축돼 기밀 연구와 오픈 과학 연구를 나눠 수행할 방침이다. 유럽에서는 독일 율리히 슈퍼컴퓨팅 센터의 주피터가 FP64 기준 초당 1경 연산 성능을 기록하며 유럽 최초 엑사스케일 컴퓨터가 됐다. 이 시스템은 GH200 그레이스 호퍼 슈퍼칩 2만4천 개를 탑재해 고해상도 세계 기후 시뮬레이션 등 다양한 연구에 활용되고 있다. 유럽 각국도 블루 라이온과 게피온, 이삼바드-AI 등 AI 슈퍼컴퓨터를 구축하고 있다. 기후 모델링과 양자 연구와 멀티모달 기초 모델 개발 같은 국가 단위 연구가 이 시스템들로 확대되고 있다. 아시아에서는 한국과 일본과 대만이 소버린 AI 전략과 산업 연구 가속화를 위해 엔비디아 GPU 기반 인프라를 도입 중인 것으로 나타났다. 특히 한국 정부는 소버린 클라우드와 AI 팩토리에 5만 대 이상의 엔비디아 GPU를 배치할 계획이다. 율리히 슈퍼컴퓨팅 센터의 크리스텔 미힐센 책임자는 "가속 컴퓨팅 능력의 도약으로 유럽 연구진은 과학 분야 전반에 걸쳐 복잡성·규모 범위 측면에서 새로운 차원의 AI 모델과 시뮬레이션을 수행할 수 있게 됐다"고 밝혔다.

2025.11.18 15:28김미정

AI 거품 논란 증시 강타…'연말 랠리' 가능할까

인공지능(AI) 주식 거품 논란이 거세게 일면서 엔비디아의 3분기(8~10월) 실적 발표에 관심이 쏠리고 있다. 이런 가운데 17일(현지시간) 미국 뉴욕 증시 3개 지수가 일제히 하락했다고 CNBC 등 외신들이 보도했다. 이날 다우존스30산업평균지수는 전일보다 1.18% 내린 4만6590.24에 거래를 마쳤다. 스탠더드앤드푸어스(S&P)500 지수도 0.92% 떨어진 6672.41, 나스닥지수는 0.84% 밀린 2만2708.07에 마감했다. 최근 들어 AI 기술주에 대한 우려의 목소리가 커지고 있다. 19일 엔비디아가 기대를 밑도는 3분기 실적을 내놓을 경우 거품 논란은 더 심해질 전망이다. 베어드의 투자 전략가 로스 메이필드는 "엔비디아가 수요가 여전히 견조하고 둔화 조짐이 없다는 점을 확인시켜주는 것이 한편으로는 중요하다"며, "칩 수요 전망과 관련해 조금이라도 톤이 낮은 가이던스나 전망을 내놓는다면 시장은 이를 부정적으로 받아들일 것"이라고 밝혔다. AI 기술주에 대한 높은 가치평가와 높은 투자로 인한 우려로 기술주가 하락세를 보이고 있으나 일부 분석가들은 올해를 상승세로 마감할 수 있다고 전망하고 있다. 미국 투자기관 캐너코드 제뉴이티 분석가 마이클 그레이엄은 보고서에서 ”연말을 앞두고 강세와 약세 신호가 균형을 이루고 있지만, 연말 랠리가 발생할 가능성이 높다는 것이 우리의 입장”이라고 밝혔다. HSBC의 수석 전략가 맥스 케트너는 “특히 주식시장에서 연말까지 '급등'이 일어날 가능성이, 잠재적인 AI 버블 붕괴 가능성보다 훨씬 더 크다”고 생각한다고 밝혔다. 만약 그들의 예측이 사실이라면, 투자자들은 연말 축제 시즌 동안 기뻐할 일이 많을 것이며, AI에대한 걱정은 새해로 미뤄둘 수 있을 것이라고 CNBC는 전했다.

2025.11.18 15:01이정현

비트코인 투자자들 '패닉'…9만 달러도 깨질까

비트코인 가격이 폭락하면서 투자자들이 더 큰 타격을 입을 것에 대해 우려하고 있다고 블룸버그 통신이 17일(현지시간) 보도했다. 이날 비트코인 시세는 9만1천500달러 아래로 내려가면서 매도세가 더 심해졌다. 비트코인은 올해 상승분을 모두 반납한 이후에도 약세를 면치 못하고 있다. 옵션 시장에서는 자금력이 큰 매수세가 후퇴하면서 하락이 아직 끝나지 않았다는 판단 아래 추가 하락에 대한 베팅이 늘어나고 있는 상태라고 블룸버그는 전했다. 분산형 금융 전문 기업 에르고니아의 리서치 디렉터 크리스 뉴하우스는 “지난 6개월 동안 포지션을 쌓아왔던 매수자들이 지금 큰 손실 구간에 빠지면서 현물 시장에서 확신에 기반한 매수세가 더 많이 사라지고 있다”고 밝혔다. 이런 타격은 암호화폐를 대량으로 비축해 왔던 기업들에도 영향을 주고 있다. 마이클 세일러가 이끌고 있는 스트레티지의 경우 8억 3천500만 달러 상당의 비트코인을 추가 매수했지만, 다른 기업들은 재무 상태를 보호하기 위해 자산을 매각해야 한다는 압력에 직면해 있다. 거시 경제 요인 또한 투자 심리에 부정적인 영향을 미치고 있다. 투자자들은 오는 19일로 예정된 엔비디아의 실적 발표와 12월 미국 연방준비제도(Fed)의 금리 인하 가능성에 대해 기대를 걸고 있다. 하지만 이날 S&P 500 지수는 1% 이상 하락하며 암호화폐 및 위험 자산에 대한 투자 심리에 부정적인 영향을 미쳤다. 카이코의 애덤 매카시 리서치 애널리스트는 "연준과 AI 버블에 대한 논의는 연말을 앞두고 암호화폐와 위험 자산에 큰 역풍이 될 것"이라며, "AI 리스크는 암호화폐 시장의 위험 심리를 악화시키고 영향을 미칠 가능성이 높으며, 연방공개시장위원회(FOMC) 관계자들의 발언을 종합하면 비트코인은 지속적인 하락세를 보일 것으로 예상된다"고 밝혔다. 이더리움의 토큰인 이더는 특히 취약한 것으로 드러났다. 세계에서 두 번째로 큰 암호화폐도 최근 폭락하며 10월 초 이후 24% 하락한 상태다. 또, 암호화폐 시장 전반은 10월 초 발생한 대규모 포지션 청산 이후 크게 흔들리고 있으며, 당시 약 190억 달러 규모의 암호화폐 시가총액이 증발했다. 암호화폐 거래소 크라켄 글로벌 경제학자 토마스 페르푸 모는 "위험 회피적 분위기가 암호화폐 시장에도 영향을 미치고 있는데, 암호화폐 시장의 심리는 여전히 취약하다. 최근 하락세는 구조적 결함보다는 더 광범위한 거시경제적 불안을 반영한다"고 밝혔다.

2025.11.18 14:02이정현

엔비디아와 손잡은 '델'…AI 인프라·자동화 통합으로 기업 부담 '최소화'

델 테크놀로지스(이하 델)가 엔비디아와 함께 기업 인공지능(AI) 도입에 필요한 모든 인프라와 자동화 서비스를 통합 제공한다. 랙부터 서버, 스토리지, 네트워크, 자동화까지 아우르는 통합 플랫폼을 통해 기업의 부담을 최소화하고 혁신을 가속화한다는 구상이다. 델의 바룬 차브라 인프라 솔루션 그룹 부사장은 18일 미국 세인트루이스에서 개최한 슈퍼컴퓨팅 25(SC25)에서 새롭게 개편한 '델 AI 팩토리'를 공개하며 고성능컴퓨팅(HPC)·생성형 AI 인프라 전략을 공개했다. 바룬 차브라 부사장은 기업에서 AI 도입하는 과정 중 최대 진입장벽으로 기술 인력 부족과 예산, 투자수익률(ROI)을 꼽았다. 이러한 기업 부담을 최소화하기 위해 델은 엔터프라이즈 AI 구축을 더 간편하고 빠르게 만들기 위해 델 AI 팩토리 제품군을 대폭 확장했다. 새롭게 강화된 포트폴리오를 통해 기업의 AI 워크로드 운영 과정에서 발생하는 병목을 줄이고 보다 유연하고 통합된 온프레미스 인프라 환경을 구현할 수 있도록 하기 위함이다. 바룬 차브라 부사장은 "고객은 이제 GPU를 얼마나 많이 사느냐보다, 데이터센터 전체를 어떻게 AI에 맞게 설계하고 운영할 수 있는지가 더 중요하다"며 "델 AI 팩토리는 기업이 복잡한 설계 없이 바로 쓸 수 있는 레퍼런스 'AI 공장'을 제공하는 것이 목표"라고 말했다. 이번 개편의 핵심은 새로운 랙 스케일 시스템 '델 파워에지 XE8712'다. 엔비디아와 협력해 선보이는 것으로 'GB200 그레이스 블랙웰 슈퍼칩' 기반이다. 이 시스템은 델 통합 랙과 결합해 랙 단위로 서버·전력·냉각·네트워크 상태를 자동 모니터링하고 최적화하는 '자가 관리형' AI 랙을 지향한다. 랙 한 대에 최대 36노드, 엔비디아 B200 GPU 144개까지 실어 고밀도 연산 성능을 구현하고 직결 액체냉각을 적용해 대규모 언어모델(LLM) 학습과 멀티 노드 추론 시 발생하는 전력·열 문제를 동시에 해결하도록 설계했다. 차브라 부사장은 "랙 차원에서 전력과 냉각, 네트워크까지 함께 설계하는 것이 초대형 AI 환경에서는 필수"라며 "XE8712는 이런 요구를 반영한 랙 스케일 AI 플랫폼"이라고 설명했다. 컴퓨트 라인업도 AI·HPC에 맞게 재정비했다. '파워에지 XE9785/XE9785L'은 AMD '인스팅트 MI355X' GPU와 전용 AI 네트워크카드(NIC)를 탑재한 서버로, 공랭식 10U 모델과 직접 칩을 식히는 액체냉각 3U 모델 두 가지로 제공된다. 내부 벤치마크 기준 기존 MI300X 기반 서버 대비 MLPerf 학습 성능이 최대 2.7배 향상됐고, GPU당 HBM3E 메모리는 288GB까지 확장돼 더 큰 모델과 긴 시퀀스를 한 번에 메모리에 적재할 수 있다. 인텔 제온 6 프로세서를 탑재한 '파워에지 R770AP'는 고빈도 매매(HFT) 등 초저지연 워크로드에 맞춰 연산 성능과 와트당 효율을 끌어올렸다. 차브라 부사장은 "엔비디아, AMD, 인텔과 협력해 다양한 선택지를 제공함으로써 고객이 워크로드에 맞는 최적 조합을 고를 수 있게 하는 것이 델의 전략"이라고 말했다. 네트워크와 스토리지는 '데이터 병목' 해소에 초점을 맞췄다. 델은 개방형 스위치 OS인 '엔터프라이즈 소닉(SONiC) 배포판'에 엔비디아 스펙트럼X를 공식 지원해 델 파워스위치와 엔비디아 기반 스위치를 하나의 패브릭으로 운영할 수 있게 했다. 여기에 스마트패브릭 매니저를 더해 장비 자동 탐지·검증, 블루프린트 기반 자동 구성, 광모듈 텔레메트리와 열 지도 기능을 제공해 수동 설정에 비해 구성 단계를 크게 줄였다. 스토리지 측면에서는 델 파워스케일·오브젝트스케일에 엔비디아 '다이나모' 라이브러리를 연동했다. 자주 쓰는 대규모언어모델(LLM)의 중간 계산 결과를 GPU 메모리에만 쌓아 두지 않고 스토리지로 옮겨 저장해 두었다가 다시 가져다 쓰는 방식으로 GPU 부담을 줄이고 응답 속도를 높이도록 한 것이다. 이를 통해 델 내부 테스트 기준 대규모 컨텍스트 환경에서도 첫 토큰 응답 시간을 1초 수준으로 유지하고 토큰 처리량도 개선한 것으로 나타났다. 차브라 부사장은 "많은 고객이 GPU가 있지만 데이터가 따라오지 못한다는 고민을 안고 있다"며 "네트워크와 스토리지를 AI 워크로드에 맞게 다시 설계한 것이 이번 포트폴리오의 중요한 차별점"이라고 말했다. 자동화와 서비스는 기업의 AI 도입 속도를 끌어올리는 역할을 맡는다. 델은 '델 오토메이션 플랫폼'을 통해 코히어 에이전트, 탭나인 코드 어시스턴트 등 주요 AI 워크로드를 온라인 카탈로그에서 선택해 최소한의 클릭으로 자동 배포할 수 있도록 했다. 이를 통해 수십 단계에 이르는 수작업을 줄이고, 구축 시간을 최대 3분의 1 수준으로 단축할 수 있다는 설명이다. 또 실제 고객 데이터를 활용해 8주 안에 AI 파일럿을 검증하는 'AI 유스케이스 파일럿' 서비스, 액체냉각 인프라를 사전에 점검하는 예방 정비 서비스도 함께 제공한다. 차브라 부사장은 "고객 입장에서는 대규모 투자를 결정하기 전에 자기 환경에서 성능과 효과를 직접 확인하는 것이 가장 중요하다"며 "델은 인프라부터 파일럿 검증, 운영 자동화까지 전 과정을 함께 설계하는 파트너가 되겠다"고 강조했다.

2025.11.18 11:08남혁우

에이로봇, 엔비디아 쇼케이스서 성과

휴머노이드 로봇 전문기업 에이로봇은 17일 서울 코엑스에서 열린 '엔비디아 AI데이 서울' 행사에서 '엔비디아 인셉션 그랜드 챌린지 파이널 쇼케이스 2025'로 선정됐다고 17일 밝혔다. 쇼케이스는 엔비디아의 첨단 AI 및 컴퓨팅 기술을 활용하는 혁신 스타트업을 발굴하고 성장을 지원하는 국내 최대 규모의 스타트업 가속화 프로그램이다. 에이로봇은 80여 개 팀이 참가한 예선을 거쳐 최종 15개 기업이 경쟁한 라이브 피칭 단계를 통과했다. 휴머노이드 로봇 분야에서 기술력과 비전, 시장 경쟁력 등을 높이 평가받아 최종 5개사 명단에 이름을 올렸다. 에이로봇은 이번 선정에 따라 엔비디아의 포괄적인 기술 지원 및 글로벌 네트워크를 확보했다. 엔비디아 GTC 2026을 포함한 주요 행사에 참여할 기회 등 혜택을 제공받게 된다. 에이로봇 관계자는 "엔비디아와의 협력을 더욱 강화하고 글로벌 AI 로봇 시장을 선도하는 기업으로 발돋움해 휴머노이드 로봇 상용화를 가속화할 것"이라고 말했다.

2025.11.17 23:36신영빈

엔비디아, AWS·구글·MS·OCI와 손잡고 '다이나모'로 AI 추론 가속화

엔비디아가 대규모 생성형 인공지능(AI)·전문가 혼합(MoE) 모델 서비스 가속화에 나섰다. 엔비디아는 자체 추론 플랫폼 '엔비디아 다이나모'를 통해 멀티 노드 추론 성능과 효율성을 높이고 주요 클라우드 사업자와 통합했다고 17일 밝혔다. 주요 참가기업으로는 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등이다. 이를 통해 기업들은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 동일한 소프트웨어 스택으로 분산형 AI 추론을 확장할 수 있게 됐다. 엔비디아에 따르면 블랙웰 아키텍처는 최근 세미애널리시스가 수행한 인퍼런스MAX v1 벤치마크에서 테스트된 모든 모델과 활용 사례 전반에 걸쳐 가장 높은 성능과 효율성, 가장 낮은 총소유비용(TCO)을 기록했다. 젠슨 황 엔비디아 창립자 겸 CEO는 엔비디아 GTC 워싱턴 D.C. 기조연설에서 블랙웰이 기존 엔비디아 '호퍼(Hopper)' 대비 10배 성능을 제공해 10배 수익을 창출할 수 있다고 강조한 바 있다. 회사 측은 "이 성능을 실제 서비스 환경에서 구현하려면 멀티 노드 분산 추론이 필수"라고 설명했다. 최근 대규모 전문가 혼합(MoE) 모델과 초거대 언어 모델(LLM)이 확산되면서 서비스 사업자는 수백만 명 동시 사용자를 대상으로 긴 입력 시퀀스를 처리해야 하는 상황에 직면하고 있다. 이 경우 하나의 GPU·서버에 모델을 올려 쓰는 방식만으로는 응답 지연과 자원 낭비가 발생하기 쉽다. 엔비디아는 다이나모 플랫폼이 이러한 환경에서 추론 작업을 여러 서버(노드)에 지능적으로 분산해, 벤치마크에서 입증된 성능과 효율성을 실제 클라우드·온프레미스 환경에서도 재현할 수 있도록 지원한다고 밝혔다. 엔비디아는 특히 추론 작업을 '프리필(prefill)'과 '디코드(decode)'라는 두 단계로 나눠 최적화하는 분산형 서빙(disaggregated serving) 방식을 강조했다. 기존에는 두 단계가 동일한 GPU에서 실행돼 메모리·연산 자원이 비효율적으로 사용되는 경우가 많았다. 분산형 서빙은 프리필과 디코드를 서로 다른 특화 GPU·노드에 분리 배치해 각 단계에 가장 적합한 최적화 기법으로 처리할 수 있게 한다. 딥시크-R1과 같은 최신 대규모 AI 추론 및 MoE 모델에서는 이러한 분산 서비스가 사실상 필수라는 설명이다. 엔비디아는 외부 벤치마크 사례도 제시했다. 시그널65의 러스 펠로우즈 수석 애널리스트는 최근 보고서에서 여러 노드에 동일 모델 복제본을 병렬 배치하는 방식으로 72개 엔비디아 블랙웰 울트라 GPU를 활용해 초당 110만 토큰(TPS)을 처리하는 기록적인 처리량을 달성했다고 분석했다. 또 AI 인프라 플랫폼 기업 베이스텐은 엔비디아 다이나모를 도입해 장문 코드 생성 추론 속도를 2배, 처리량을 1.6배 높이면서도 추가 하드웨어 없이 성능을 끌어올렸다고 소개했다. 엔비디아는 "소프트웨어 기반 최적화만으로도 AI 서비스 제공 비용을 크게 낮출 수 있음을 보여주는 사례"라고 강조했다. 클라우드 환경에서는 쿠버네티스 통합이 핵심 축이다. 컨테이너 오케스트레이션 표준인 쿠버네티스를 기반으로 수십·수백 개 노드에 걸쳐 모델 복제본과 분산형 서빙 컴포넌트를 관리하는 구조가 이미 대규모 AI 훈련에서 검증된 만큼 추론 영역으로 확장되고 있다는 것이다. 엔비디아는 이번 통합으로 AWS 아마존 EKS, 구글 클라우드, 마이크로소프트 애저 쿠버네티스 서비스, OCI 슈퍼클러스터 등 주요 관리형 쿠버네티스 서비스에서 다이나모 기반 멀티 노드 추론을 공식 지원하게 됐다고 설명했다. 구체적으로 AWS에서는 아마존 EKS와 다이나모 통합을 통해 생성형 AI 추론을 가속화한다. 구글 클라우드는 'AI 하이퍼컴퓨터(Hypercomputer)' 환경에서 엔터프라이즈급 거대 언어 모델 추론을 최적화하기 위한 다이나모 레시피를 제공한다. 마이크로소프트 애저는 애저 쿠버네티스 서비스(AKS)에서 ND GB200-v6 GPU와 다이나모를 기반으로 멀티 노드 LLM 추론을 지원하고, OCI는 OCI 슈퍼클러스터에 엔비디아 다이나모를 결합해 대규모 멀티 노드 LLM 추론을 구현한다. 엔비디아는 "하이퍼스케일러 전반으로 다이나모 기반 분산 추론이 확산되면서 엔터프라이즈 AI 배포의 성능·유연성·안정성이 함께 향상될 것"이라고 전망했다. 이 같은 흐름은 하이퍼스케일 클라우드를 넘어 특화 클라우드 사업자로도 확장되고 있다. 예를 들어 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 바탕으로 대규모 추론 워크로드에 특화된 클라우드를 설계하고 있으며, 엔비디아 다이나모 생태계 파트너로 협력 중이다. 엔비디아는 다이나모가 다양한 규모·형태의 클라우드 사업자가 대규모 추론 서비스를 보다 쉽게 구축하도록 돕는 공통 플랫폼 역할을 할 것으로 기대하고 있다. 또 다이나모 위에서 동작하는 '엔비디아 그로브(Grove)' API를 공개해, 쿠버네티스 환경에서 복잡한 분산 추론 구성을 단일 고수준 사양으로 정의하고 운영할 수 있도록 했다. 사용자는 예를 들어 '프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개를 할당하고, 단일 모델 복제본에 속한 모든 노드는 동일한 고속 인터커넥트에 배치한다'는 요구사항을 한 번에 기술할 수 있다. 그로브는 이 사양에 맞춰 각 구성 요소를 올바른 비율로 확장하고 실행 순서와 종속성을 관리하며, 클러스터 전반에 최적 배치하는 작업을 자동으로 처리한다. 엔비디아는 AI 추론이 점점 더 분산 구조로 옮겨가면서 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브 조합이 개발자의 애플리케이션 설계 방식을 크게 단순화할 것이라고 내다봤다. 회사는 자체 대규모 AI 시뮬레이션(AI-at-scale simulation)을 통해 하드웨어 구성과 배포 방식 선택이 성능·효율·사용자 경험에 미치는 영향을 검증하고 있으며, 결과를 기반으로 블랙웰·GB200 NVL72 시스템과 다이나모가 협력해 추론 성능을 높이는 최적 구성을 제시하겠다고 밝혔다. 엔비디아는 마지막으로 풀스택 추론 플랫폼 최신 동향을 다루는 '엔비디아 띵크 스마트(Think SMART)' 뉴스레터를 통해 선도적인 AI 서비스 제공업체와 개발자, 기업이 추론 성능과 투자 대비 수익(ROI)을 높일 수 있는 방법을 지속적으로 공유하겠다고 전했다.

2025.11.17 17:55남혁우

엔비디아 손잡은 메가존클라우드, AI 총판으로 IPO 기대감 '↑'

메가존클라우드가 엔비디아와 국내 AI 인프라 총판 계약을 체결했다. 상장(IPO)을 추진 중인 상황에서 AI 인프라 사업 역량을 강화하고 기업 가치와 성장 스토리를 보강할 수 있는 계기를 마련했다는 평가다. 메가존클라우드는 17일 엔비디아와 국내 AI 인프라 총판 계약을 체결했다고 밝혔다. 총판 계약의 범위는 데이터센터·기업·공공 등 기업간 거래(B2B) 영역의 AI 인프라를 중심으로 한다. 개인용 그래픽카드 등 B2C 리테일 시장은 포함되지 않는다. 관련 업계에서는 이번 총판 계약이 메가존클라우드를 AI 인프라 시대의 핵심 사업자로 부상시키는 동시에 IPO를 앞두고 수익 구조와 성장 스토리를 구체화하는 계기가 될 것으로 보고 있다. 엔비디아 손잡은 메가존클라우드, 플랫폼형 AI 총판으로 도약 메가존클라우드는 DGX·HGX GPU 서버와 인피니밴드 기반 고성능 네트워크 장비 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급하며 AI 인프라 공급과 생태계 확산에 본격 나선다. 이를 통해 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요를 겨냥한다는 계획이다. 특히 이번 계약을 단순 하드웨어 유통을 넘어 '플랫폼형 총판' 모델로 가져간다는 전략이다. 고객사의 AI 사업을 빠르게 추진할 수 있도록 AI 인프라 설계·구성 지원, AI 기술 검증(PoC)과 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계 등 전 과정을 패키지로 제공한다. 하드웨어 납품과 더불어 인프라 설계, 운영, 인력 역량 강화까지 하나의 서비스 체계로 묶어 제공하겠다는 구상이다. 이를 통해 메가존클라우드는 엔비디아라는 벤더와 국내외 파트너, 최종 고객을 하나의 플랫폼 위에서 기술적으로 오케스트레이션하는 허브 역할을 자처한다. GPU와 네트워크 장비와 함께 클라우드·보안·운영·애플리케이션을 얹어 수익성을 높이는 서비스·플랫폼 사업의 출발점으로 삼겠다는 것이다. 기업 내부에서도 총판 마진 자체보다 상위 레이어 비즈니스에서 나오는 장기 매출과 이익 기여에 더 큰 무게를 두고 있는 것으로 전해진다. 이미 메가존클라우드는 클라우드 매니지드 서비스(MSP)와 디지털 전환(DX) 사업을 통해 다수의 고객 인프라를 운영해 온 경험을 갖고 있다. 2천여명의 클라우드·AI 기술 전문가를 보유하고 있으며, 국내외 8천여곳의 고객사를 대상으로 클라우드 전환과 운영을 지원하고 있다. 이 밖에도 글로벌·국내 주요 클라우드 서비스 제공업체(CSP)와 전략적 협력 관계를 구축하고 1백50여곳의 ISV 파트너, 자체 개발한 클라우드·AI·보안 솔루션 포트폴리오도 확보한 상태다. 메가존클라우드는 이러한 기반 위에 엔비디아 총판 역량을 더해 GPU 인프라 조달부터 배치, 운영, 비용·성능 최적화, 상위 애플리케이션까지 원스톱으로 제공하는 AI 인프라 플랫폼 사업을 강화하겠다는 입장이다. 메가존클라우드, AI 인프라 총판으로 IPO 기대감 ↑ 관련 업계에서는 이번 계약이 상장을 준비 중인 메가존클라우드의 기업 가치 제고에도 우호적으로 작용할 것으로 분석 중이다. 글로벌 AI 인프라 시장에서 사실상 표준으로 자리 잡은 엔비디아와의 전략적 총판 계약은 메가존클라우드가 단순 클라우드 MSP를 넘어 AI 인프라 플랫폼 기업으로 포지셔닝을 강화하는 신호로 읽히기 때문이다. 회사가 그동안 쌓아 온 클라우드, 데이터, 보안 사업 위에, 엔비디아 GPU 총판이라는 상징성과 성장 동력을 추가해 IPO 스토리를 한층 풍부하게 만들 수 있다는 기대도 제기된다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 전개할 계획이다. 산업별 기술 세미나와 고객 대상 웨비나를 열고 개념검증(PoC) 지원 캠페인과 파트너 기술 교육 프로그램을 운영해 엔비디아 기반 AI 인프라 도입을 확대한다는 방침이다. 메가존클라우드는 기존 고객 기반과 글로벌 파트너 네트워크를 활용해 제조·금융·공공·게임·미디어 등 주요 산업에서 AI 인프라 레퍼런스를 빠르게 확보하고, 이를 다시 레퍼런스 패키지로 전환하는 선순환 구조를 만들겠다는 구상이다. 메가존클라우드 염동훈 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 돕겠다"고 말했다.

2025.11.17 17:05남혁우

메가존클라우드, 엔비디아 한국 총판 계약…AI 인프라 플랫폼 사업 본격화

메가존클라우드(대표 염동훈)가 엔비디아와 한국 총판 계약을 체결했다. 이를 바탕으로 하고 인공지능(AI) 인프라 설계부터 구축·운영, 교육까지 아우르는 '플랫폼형 총판' 모델로 국내 AI 인프라 시장 공략에 속도를 낼 계획이다. 메가존클라우드는 엔비디아와 한국 총판 계약을 체결했다고 14일 밝혔다. 양사는 13일 과천 메가존산학연센터에서 염동훈 메가존클라우드 대표와 제프 팬처 엔비디아 글로벌 총판 총괄, 정소영 엔비디아코리아 대표 등 주요 경영진이 참석한 가운데 총판 계약 체결식을 진행했다. 메가존클라우드는 이번 계약을 통해 엔비디아의 국내 공식 총판으로서 AI 인프라 공급과 AI 생태계 확산을 본격 추진할 계획이다. 이번 계약으로 메가존클라우드는 엔비디아의 DGX·HGX GPU 서버와 고성능 네트워크 장비인 인피니밴드(InfiniBand) 등 AI 인프라 핵심 하드웨어를 국내 시장에 공급한다. 메가존클라우드는 이를 기반으로 데이터센터용 AI 학습·추론 시스템, 고성능컴퓨팅(HPC) 환경, 산업용 비전 및 엣지 AI, 하이브리드 AI 팩토리 등 다양한 산업군의 AI 인프라 구축 수요에 대응한다는 방침이다. 메가존클라우드는 단순 제품 유통을 넘어 고객의 AI 사업을 빠르게 추진할 수 있도록 지원하는 새로운 개념의 '플랫폼형 총판' 운영 모델을 도입한다. 이를 통해 AI 인프라 설계와 구성 단계부터 기술 검증(PoC), 구축·운영 지원, 엔비디아 교육·인증 프로그램 연계까지 전 과정을 기술적으로 오케스트레이션하는 역할을 수행한다. 메가존클라우드는 벤더·파트너·고객을 효율적으로 연결해 복잡한 AI 인프라 도입 과정을 단순화하고, 파트너가 자체 서비스와 솔루션을 빠르게 시장에 선보일 수 있도록 돕겠다는 구상이다. 양사는 국내 AI 인프라 생태계 확장을 위한 공동 마케팅도 강화한다. 산업별 기술 세미나와 고객 대상 웨비나, PoC 지원 캠페인, 파트너 기술 교육 프로그램 등 다양한 활동을 통해 고객 접점을 넓히고, 파트너 생태계 육성에도 나설 계획이다. 특히 각 산업별 레퍼런스 구축과 사례 공유를 통해 국내 기업들의 AI 도입 장벽을 낮추고 활용 범위를 넓히는 데 집중한다는 전략이다. 염동훈 메가존클라우드 대표는 "이번 계약은 국내 AI 인프라 생태계를 한 단계 확장하고, 고객들의 AI 비즈니스 성장을 기술로 지원하는 중요한 계기가 될 것"이라며 "엔비디아와의 긴밀한 협력을 바탕으로 AI 시스템의 설계부터 구축, 운영까지 전 과정을 유기적으로 지원해 고객의 AI 도입 속도와 안정성, 비용 효율을 동시에 높일 수 있도록 하겠다"고 말했다.

2025.11.14 10:39남혁우

AI 코드 편집기 '커서', 시리즈D 3조3천억 유치…엔비디아·구글 참가

인공지능(AI) 코드 편집기 커서(Cursor)를 개발한 애니스피어가 엔비디아와 구글이 참여한 시리즈D 투자 라운드에서 약 3조3천억원(23억달러)을 추가로 조달하며 기업가치 293억달러를 인정받았다. 14일 애니스피어의 커서 개발팀은 액셀과 코튜가 공동으로 리드한 시리즈D 투자 라운드를 마무리 했다고 밝혔다. 이번 라운드는 스라이브캐피털, 안드리센호로위츠, DST 등 기존 투자자에 더해 엔비디아와 구글이 전략적 투자자로 새로 합류했다. 애니스피어의 기업가치는 293억달러로 우리 돈으로 약 42조원대 수준으로 평가된다. 올해 초 20억달러대였던 시리즈B 당시 기업가치와 비교하면 1년도 안 돼 몸값이 15배 가까이 뛴 셈이다. 애니스피어는 이번 발표에서 자사 연환산 매출이 최근 10억달러를 넘어섰다고 밝혔다. 커서 에디터는 이미 수백만 명의 개발자를 사용자로 확보했으며, 특히 엔터프라이즈 고객 비중이 빠르게 늘고 있는 것으로 전해졌다. 앞서 공개된 시리즈B 자료에서는 자체 모델이 "세계 거의 모든 LLM보다 더 많은 코드를 생성하고, 하루에 10억 자가 넘는 코드를 편집하고 있다"고 밝힌 바 있다. 커서는 마이크로소프트의 오픈소스 편집기 비주얼 스튜디오 코드(VS코드)를 기반으로 한 포크 버전이다. 여기에 대규모 언어모델(LLM)을 깊게 통합해 코드 자동 완성, 리팩터링, 버그 탐지·수정, 코드 리뷰, 코드베이스 질의 등 개발 전 과정을 지원하는 것이 특징이다. 개발자는 자연어로 기능을 설명해 코드를 생성하거나, 기존 코드 블록을 선택해 "이 부분을 더 빠르고 간결하게 바꿔 달라"는 식으로 지시를 내릴 수 있다. 애니스피어는 자체 모델과 외부 모델을 병행하는 전략을 취하고 있다. 커서 에디터 안에서 오픈AI, 앤트로픽, 구글 등 다양한 AI 모델을 선택해 사용할 수 있도록 지원하면서도, 외부 모델 의존도를 줄이기 위해 자체 LLM 개발에 공격적으로 투자하고 있다. 회사는 새로 유치한 자금을 연구 인력 확충과 자체 모델 확장, GPU 인프라 구축에 집중 투입해 장기적으로는 자체 모델 중심 구조로 전환한다는 계획을 세우고 있다. 특히 주목받는 기술은 애니스피어가 개발한 자체 AI 모델 '컴포저(Composer)'다. 컴포저는 여러 개의 전문 모델을 상황에 따라 골라 쓰는 혼합전문가(MoE) 구조를 채택했다. 애니스피어는 컴포저가 비슷한 품질의 다른 LLM보다 최대 4배 빠른 코드 생성 성능을 내며, 다수의 코딩 작업을 30초 이내에 끝낼 수 있다고 설명한다. 여기에 짧은 코드 자동 완성에 특화된 '커서 탭(Cursor Tabs)' 모델을 더해 다른 어떤 LLM 못지않게 많은 코드를 생성한다고 소개했다. 속도 개선의 배경에는 GPU 하드웨어를 극한까지 활용하는 커널 최적화가 있다. 애니스피어는 엔비디아 GPU에서 일반적으로 사용하는 고수준 CUDA 라이브러리 대신, 저수준 언어인 PTX와 순수 쿠다 코드로 LLM 커널을 직접 구현했다. 특히 최신 블랙웰 B200 GPU에 맞춰 혼합전문가 계층을 처음부터 다시 설계해, MoE 계층은 전·후방 계산 모두에서 약 3.5배, 전체 학습 속도는 이전 세대 H100 기반 환경 대비 약 1.5배 빨라졌다고 설명한다. 애니스피어는 블랙웰 B200의 텐서 메모리 구조에 맞춰 MXFP8 구현을 커스터마이징해, 학습 수렴 품질을 유지하면서도 메모리 대역폭 활용도를 높였다고 강조한다. 컴포저는 지난달 공개된 '커서 2.0' 업데이트를 통해 에디터에 정식 통합됐다. 이번 버전에는 코드 생성 외에도, 내장 브라우저로 생성된 웹 애플리케이션을 에디터 안에서 바로 실행·테스트하는 기능, 여러 개의 AI 에이전트를 병렬로 띄워 대형 코드베이스를 동시에 수정하는 기능 등이 포함됐다. 개발자는 자연어로 기능을 설명한 뒤 에이전트마다 파일 생성·수정·테스트 역할을 나눠 맡기는 식으로 작업 흐름을 구성할 수 있다. 커서 개발팀은 "우리는 3백 명이 넘는 엔지니어, 연구원, 디자이너, 운영 인력으로 구성된 팀으로 성장했으며 사업 영역 확장을 위한 야심찬 계획을 가지고 있다"며 "연간 매출 10억달러를 돌파하고 수백만 명의 개발자와 세계 유수의 엔지니어링 조직들을 고객으로 확보했다"고 밝혔다. 이어 "이번 자금 조달을 통해 연구에 더 과감하게 투자하고, 커서의 다음 '마법 같은 순간'을 만들어갈 수 있게 됐다"며 "대형 AI 플랫폼 위에 구축되는 독립 개발 도구로서 개발자의 일하는 방식을 근본적으로 바꾸는 제품을 만들어가겠다"고 덧붙였다.

2025.11.14 10:01남혁우

[미장브리핑] 다우 사상 최고치…소프트뱅크, 엔비디아 지분 전량 매각

◇ 11일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 1.18% 상승한 47927.96. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 0.21% 상승한 6846.61. ▲나스닥 지수 전 거래일 대비 0.25% 하락한 23468.30. ▲다우 지수 종가 기준으로 사상 최고치 경신. 나스닥 지수는 기술 기업에 대한 투자자 매도가 이어지면서 하락 마감. 인공지능(AI) 클라우드 인프라 업체 코어위브 실적 부진에 주가 16% 이상 하락. 엔비디아(Nvidia) 주가는 약 3% 하락. ▲소프트뱅크가 엔비디아 지분 전량을 58억3천만달러에 매각했다고 밝혀. 보유 주식 3천210만주. 소프트뱅크 고토 요시미츠 최고재무책임자(CFO)는 "재무 건전성을 유지하면서 투자자들에게 많은 투자 기회를 제공하고자 한다"며 지분 매각은 회사의 "자산 수익화 전략의 일환"이라고 말해. 일각에서는 소프트뱅크가 오픈AI의 투자 자금 조달에 사용될 것이라고 관측. 소프트뱅크의 비전 펀드는 엔비디아의 초기 투자자였으며, 2017년 40억 달러 규모의 지분을 매입한 후 2019년 1월 지분을 모두 매각한 것으로 알려져. 로건캐피털 매니지먼트 빌 피츠패트릭 포트폴리오 매니저는 CNBC에 "기술 기업은 현금 흐름이 빠른 기업"이라며 "엔비디아 아가치를 고려하면 부정적인 뉴스가 조금만 나와도 분위기가 반전되는 경향이 있다"고 말해. ▲AI 기업들에 대한 밸류에이션 우려가 커지면서 나스닥 지수는 이번 달 들어 약 1%의 하락세. ▲미국 ADP 민간 고용 보고서에 따르면 10월 25일까지 4주 동안 민간 부문 일자리 창출은 주당 평균 1만1천개 이상 감소. ▲미국 상원은 이날 저녁 연방정부 셧다운 종료 법안을 통과시켜 하원으로 보내. 협상된 합의안에는 모든 재정 법안에 오바마케어(Affordable Care Act) 보조금 연장을 포함해야 한다는 민주당의 요구는 포함되지 않았으며, 대신 12월에 세액 공제에 대한 표결을 실시할 것을 요구.

2025.11.12 08:12손희연

AI 데이터센터 '액침냉각' 급부상…美 GRC "한국이 핵심 허브될 것"

AI 시대 도래와 함께 데이터센터가 뜨거워지고 있다. AI의 두뇌 역할을 하는 GPU가 고성능 연산을 지속하는 순간 엄청난 열이 발생하기 때문이다. 이에 반도체, 데이터센터 업계에서는 냉각 기술 혁신을 모색하고 있다. 전통적인 공랭식(공기 냉각) 방식에서 벗어나, 수랭식(액체 냉각) 방식에서 해답을 발견한 것이다. 특히 업계에서는 서버를 액체에 담가 냉각하는 '액침냉각'에 주목하고 있다. 커지는 액침냉각 시장...엔비디아 인증 지연, “일시적 제약일 뿐” 피터 풀린(Peter Poulin) GRC 회장은 최근 지디넷코리아와 인터뷰에서 냉각 시장이 3년 내에 크게 성장할 것으로 내다봤다. 그는 “AI 서버 확산 속도에 맞춰 냉각 시장은 향후 2~3년 내 50~100% 성장할 것”이라고 말했다. 현재 글로벌 액침냉각 시장은 빠르게 커지고 있다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 다만 GPU 제조사인 엔비디아가 해당 기술을 공식 인증하지 않은 점이 시장 걸림돌로 꼽힌다. 이에 대해 풀린 회장은 “엔비디아의 전체 보증 미지원은 현재로선 성장의 제약 요인이지만 일시적인 현상”이라고 평했다. 그러면서 “엔비디아가 제공한 테스트 프로토콜을 기반으로, 일부 OEM 서버 업체는 이미 엔비디아 GPU 서버에 대한 전체 보증을 제공하기 시작했다”며 “3자 서비스업체들도 보증 프로그램을 운영 중”이라고 설명했다. 또한 “엔비디아만이 성장 동력은 아니며, AI 추론과 엣지 컴퓨팅 등 다양한 분야에서 액침냉각 수요가 폭발적으로 증가 중”이라고 덧붙였다. 최근 일각에서 제기되는 'AI 데이터센터 투자 거품론'에 대해서도 선을 그었다. 풀린 회장은 “인터넷 버블과 같은 붕괴 가능성을 걱정하는 목소리가 있지만, 향후 5년간 거품 위험은 낮다. 다만 전력 공급 인프라가 무한정 확장될 수 없기 때문에, 전력망이 성장 속도를 조절하는 역할을 하게 될 것”이라고 내다봤다. GRC “서버에 해를 끼치지 않는다” GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 액침냉각과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다. 아울러 액침냉각 기술뿐 아니라 '서버에 해를 끼치지 않는다'는 철학으로도 유명하다. 회사는 전 세계 약 24개 냉각유체 제조사와 협력, 재료 호환성과 성능을 검증하는 ElectroSafe 인증 프로그램을 운영 중이다. 풀린 회장은 “의사들이 히포크라테스 선서를 하듯, 우리는 서버의 안전을 최우선으로 한다”며 “이 철학이 GRC의 경쟁력의 핵심”이라고 강조했다. 한국, '글로벌 액침냉각 허브'로 부상 GRC는 최근 한국 시장에서 빠르게 영향력을 넓히고 있다. 한국이 액침냉각 시장 중심으로 떠오를 가능성이 있기 때문이다. 풀린 회장은 “특히 한국은 기술력과 에너지 효율성 면에서 글로벌 허브가 될 잠재력이 크다”고 봤다. 대표적인 예시가 LG전자, SK엔무브와의 삼각 협력이다. 이들 3개사는 ▲LG전자의 칠러, 냉각수 분배 장치(CDU), 정밀한 냉각 제어를 위해 열 부하를 균일하게 분산시키는 팬 월 유닛(FWU) 등 냉각 솔루션 ▲SK엔무브의 액침냉각 플루이드 ▲GRC의 액침냉각 탱크를 통합해 액침냉각 솔루션 기술 실증(PoC)을 진행한다. 또한 현대오일뱅크와 S-Oil도 GRC의 'ElectroSafe Fluid 파트너 프로그램'에 참여하면서 협력 범위가 확장되고 있다. 그는 “한국은 높은 인화점 기준 등 까다로운 규제가 있지만, 이러한 환경이 오히려 고성능·고안전 냉각유체 개발의 촉매가 되고 있다”고 말했다. “AI 냉각의 판도, 공기에서 액체로 이동 중” 풀린 회장은 인터뷰를 마무리하며 “AI 시대의 냉각은 공기가 아닌 액체가 주도하는 시대로 전환되고 있다”고 말했다. 그는 “한국을 포함한 글로벌 시장에서 파트너십을 확장하며, AI 인프라의 에너지 효율 혁신을 선도하겠다”는 포부를 밝혔다.

2025.11.10 16:55전화평

엔비디아 파트너 코어위브, AI 열풍 속 주가 급락…인수 무산에도 성장 기대 '유효'

엔비디아의 투자를 받은 인공지능(AI) 데이터센터 기업 코어위브가 최근 주가 급락과 인수 무산 등 악재를 맞았다. 다만 AI 인프라 시장의 확장세가 이어지고 있어 중장기 성장 기대감은 여전히 남아 있다는 분석이 나온다. 10일 미국 증권가와 외신 등에 따르면 코어위브 주가는 최근 한 주 동안 20% 이상 하락했다. AI 관련주의 평가가치가 지나치게 높아졌다는 우려가 커지면서 투자심리가 위축된 것으로 풀이된다. 코어위브는 최근 90억 달러(약 13조원) 규모로 암호화폐 채굴기업 코어사이언티픽 인수를 추진했지만 주주 반대로 무산됐다. 두 차례 시도 끝에 인수 계획이 좌절되면서 회사의 사업 확장 전략에 제동이 걸렸다는 평가가 나온다. 코어위브는 2017년 암호화폐 채굴로 출발해 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 기업으로 전환했다. 현재 오픈AI·마이크로소프트·메타 등 주요 빅테크 기업에 AI 연산 인프라를 제공하고 있다. 올해 2분기 매출은 전년 동기 대비 207% 증가한 12억 달러(약 1조7천400억원)를 기록했으며 수주 잔고는 301억 달러(약 43조원)에 달했다. 3분기에는 오픈AI와 메타, 엔비디아와의 추가 계약으로 수주 잔고가 560억 달러(약 81조원)를 넘을 것으로 예상된다. 엔비디아와의 긴밀한 협력 관계도 주목받고 있다. 엔비디아는 코어위브 지분 약 7%를 보유하고 있으며 GPU 공급과 데이터센터 협력도 확대 중이다. 코어위브는 엔비디아의 최신 GPU를 우선적으로 공급받는 엘리트 퍼스트 파트너로 지정돼 있다. 다만 공격적인 투자와 차입 확대가 부담 요인으로 꼽힌다. 코어위브는 올해 200억 달러(약 29조원) 이상을 AI 데이터센터 확충에 투입할 계획이며 이로 인해 2분기 순이자비용이 전년 대비 300% 증가한 2억6천700만 달러(약 3천882억원)를 기록했다. 월가에서는 코어위브가 단기 수익성보다는 시장 점유율 확대에 집중하는 전략을 유지할 것으로 보고 있다. 코어위브는 오는 11일(현지시간) 3분기 실적을 발표한다. 월가에서는 코어위브의 3분기 매출을 13억 달러(약 1조8천905억원)로 예상 중이며 고객 다변화가 진행되는 내년부터 손익 개선이 가능할 것으로 분석하고 있다. 한 미국 증권가 애널리스트는 "AI 인프라 시장의 성장은 아직 초기 단계이며 코어위브는 엔비디아와 함께 이 시장의 핵심 기업으로 자리 잡고 있다"며 "단기 조정은 있을 수 있으나 장기 성장 가능성은 여전히 유효하다"고 말했다.

2025.11.10 11:52한정호

'AI 버블' 우려 재확산…IMF·英중앙은행 경고 이어져

인공지능(AI) 주가가 급등세를 이어가자 투자자 사이에서 AI 거품 우려가 다시 고개를 들었다. 9일 CNBC 등 외신에 따르면 미국 증시에서 AI 관련 주식이 일제히 하락하자 국제통화기금(IMF)과 영국중앙은행(BOE)이 잇따라 경고를 내놓은 것으로 전해졌다. 이에 투자자들은 AI 주가가 지나치게 올랐다고 평가하며 미국에 집중된 자산을 분산하려는 움직임을 보이고 있다. 데이비드 솔로몬 골드만삭스 최고경영자(CEO)는 "향후 2년 내 주식시장이 10~20% 하락할 가능성이 높다"고 내다봤다. 앤드루 베일리 영국중앙은행(BOE) 총재도 "기술 기업 생산성 향상이 긍정적이지만 AI 산업의 수익 구조가 불확실하다"며 AI 버블 가능성에 무게를 실었다. AI 열풍으로 주가가 급등한 유럽 기업들도 불안한 분위기를 피하지 못하고 있다. 프랑스 서버 냉각 장비 업체 르그랑은 올해 주가가 37%나 올랐지만 투자자들은 차익을 내고 있는 것으로 나타났다. AI 기술주 급등이 AI 거품을 의미하지 않는다는 의견도 나왔다. UBS 멀티에셋 전략가 키란 가네시는 "불확실성과 밸류에이션 부담에도 불구하고 시장 랠리가 매끄럽게 이어지고 있다"며 "이번 변동성은 자연스러운 조정 수준이며 실적이 예상치를 웃돈 만큼 큰 그림은 여전히 긍정적"이라고 분석했다. 다수 외신은 아시아 시장은 다른 현상을 나타내고 있다고 봤다. 일본 소프트뱅크그룹이 한 주 새 500억 달러 손실을 기록했다는 이유에서다. 팔란티어와 엔비디아에 대한 공매도를 늘린 마이클 버리의 행보도 투자심리를 위축시킨 것으로 알려졌다. 루카 파올리니 픽테자산운용 수석전략가는 "AI 투자와 통화완화 효과를 기대할 수 있는 인도, 브라질 등 신흥국으로 눈을 돌릴 때"라고 밝혔다.

2025.11.09 13:19김미정

[유미's 픽] 정부 고성능컴퓨팅 지원사업, GPU 활용 어려움에 추가 모집 나서

정부 추경 예산으로 추진된 '고성능컴퓨팅 지원사업'이 사업 초기부터 일부 조정 과정을 겪고 있다. 인공지능(AI) 기술 개발을 위한 그래픽처리장치(GPU) 자원 확보에 나섰지만, 일부 기관에서는 운영 인력과 기술적 여건이 충분하지 않아 참여를 재검토하는 사례가 나타나고 있다. 7일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 지난 4일 '2025년 추경 고성능컴퓨팅 지원사업'의 추가 사용자 모집 공고를 게시했다. 당초 선정된 일부 사업자가 GPU 활용에 어려움을 호소하며 참여를 포기함에 따라, 남은 자원을 효율적으로 배분하기 위한 조치라는 설명이다. NIPA 관계자는 "사용자들을 최종 선정했지만, 갑자기 포기한 곳들이 생겨 추가 모집 공고를 부랴부랴 내게 됐다"며 "사용자들이 (GPU) 자원이 필요하다고 신청해놓고, 막상 지원하려고 하니 '지금 단계에선 필요 없다'고 답변한 곳들이 있었다"고 말했다. 이어 "자원 할당한 후 안내 메일 보낼 때까지도 아무런 말이 없다가 갑자기 포기하는 사례가 발생해 우리 측에서도 당황스러운 상태"라며 "사용자가 없는데 (그냥 두고) 어떻게 할 수 없어서 모집 공고를 다시 내게 됐다"고 덧붙였다. 이번 일로 남게된 H100 물량은 310장 내외다. 사업 기간은 내년 1월부터 6월 30일까지로 ▲H100 1~4장을 선택할 수 있는 1트랙 사용자와 ▲GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자를 선별한다. 일단 신청은 H100을 기준으로 신청하지만, H100 1장당 A100 4장 또는 H200 1장당으로 향후 환산해 배정된다. 당초 정부는 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 정부 추경 예산을 바탕으로 이 사업을 추진해왔다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 이미 선정한 상태였다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급키로 했다. 이전까지는 사용자당 H100 GPU 2장 수준을 제공하던 방식이었으나, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원한다는 점에서 업계의 많은 관심을 받았다. 그간 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 지적이 일자 정부가 전폭적으로 지원에 나섰기 때문이다. 업계 관계자는 "세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다"며 "이 탓에 정부가 국내 AI 산업 경쟁력을 강화시키고자, 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하고자 한 것"이라고 설명했다. 하지만 이번에 GPU 지원 포기자들이 속출하면서 정부의 노력은 헛수고가 됐다. 또 심사 과정에서 제대로 된 사업자들을 걸러내지 못했다는 점에서 비판의 목소리도 나온다. 더불어 정작 현장의 기술적 준비 수준이 매우 낮은 상황에서 고성능 GPU를 쓰는 것이 의미가 없다는 사실이 고스란히 드러났다는 분석도 있다. 업계 관계자는 "국내 AI 연구·산업의 격차가 이번에 여실히 드러난 것"이라며 "일부 선도 기관이나 기업은 H100급 GPU를 필요로 하지만, 다수는 아직 모델 최적화나 대규모 학습 수준에 도달하지 못한 상태로 볼 수 있다"고 말했다. 이어 "인프라보다 인력·소프트웨어 생태계·데이터 파이프라인이 병목이라는 현실이 드러난 듯 해 안타깝다"며 "최신 GPU 확보에만 혈안돼 정부가 현실을 제대로 보고 있지 못한 사례로 보여진다"고 덧붙였다. 이 같은 상황에서 현재 정부가 AI 인프라 투자를 위해 관련 예산을 크게 늘리고 최첨단 GPU 확보에 사활을 걸고 있다는 점도 우려되는 부분이다. 이재명 정부는 'AI 3대 강국(AI G3)'을 목표로 AI 관련 내년 예산안 규모를 올해보다 80% 가까이 늘린 10조1천398억원으로 책정했다. 앞서 두 차례 단행된 추가경정예산(추경)을 포함해 올해 AI 예산은 5조6천567억원이다. 이 대통령은 지난 4일 국회에서 열린 시정연설을 통해 "농경 사회에서 산업 사회로, 산업 사회에서 정보 사회로 전환해 왔던 것처럼 AI 사회로의 전환은 필연"이라며 "'AI 3대 강국' 도약을 위한 대전환에 10조1천억원을 편성했다"고 재차 강조했다. 이 중 내년 AI 예산에서 첨단 GPU 확보 예산으로 2조1천87억원을 배정했다는 점에서 우려된다. 이 대통령은 GPU 1만5천 장을 추가 구매해 정부 목표인 3만5천 장을 조기 확보할 것이라고 공언한 상태다. 여기에 정부는 엔비디아에서 GPU 26만 장을 한국에 공급키로 했다는 점에서도 기대감을 키우고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난 달 말 '아시아태평양경제협력체(APEC) 정상회의 및 CEO 서밋'을 계기로 방한 해 한국 정부 및 기업에 26만 장을 공급하겠다고 밝힌 바 있다. 정부가 확보한 GPU는 5만 장이다. 업계 관계자는 "다른 클라우드 업체들도 H100 등 고성능 GPU를 확보해 기업, 연구기관 등에 제공하고 있지만, 실제 가동률은 절반도 못미치는 수준"이라며 "정부가 GPU만 바라보느라 인재 확보나 양질의 데이터 제공, 사용자 관점에 입각한 AI 규제 마련 등에는 상대적으로 정책이 부실하다"고 꼬집었다. 이어 "질 좋은 하드웨어는 갖다 놨지만, 현재 상태로는 공장에다 사람 없이 장비만 사다 놓고 내버려 두는 꼴"이라며 "기술력, 인재 없이 첨단 GPU만 우리나라가 구입한다고 경쟁적으로 나서는 것은 결국 GPU 공급사인 엔비디아에게만 좋은 것"이라고 덧붙였다.

2025.11.07 16:22장유미

엔씨-엔비디아 GPU '맞손', 지스타 2025 시연 최적화

엔씨소프트(공동대표 김택진·박병무, 이하 엔씨)는 엔비디아와 '지스타 2025'를 통해 GPU(그래픽처리장치) 협력을 강화한다고 7일 밝혔다. 엔씨는 오는 13일 개막하는 지스타 2025 엔씨소프트 부스의 모든 시연 PC에 엔비디아의 '지포스 RTX 5080'를 탑재한다. 엔씨는 엔비디아가 전량 지원한 매니아용 고성능 GPU를 통해 최상의 시연 환경을 제공한다는 계획이다. 엔씨 부스를 방문한 이용자는 '지포스 RTX 5080' GPU가 탑재된 시연 PC에서 '아이온2'와 '신더시티'를 플레이할 수 있다. 엔씨와 엔비디아는 올해 8월 독일에서 열린 '게임스컴 2025', 10월 서울에서 진행한 '지포스 게이머 페스티벌'에 이어 '지스타 2025'까지 긴밀한 협력을 이어가고 있다. 엔씨는 지난 달 30일 서울에서 개최한 '지포스 게이머 페스티벌'에 참여해 신작 '아이온2'와 '신더시티'의 최신 빌드와 신규 트레일러를 공개했다. 게임 시연에 참여하려는 이용자들이 3시간 이상 대기하는 등 뜨거운 관심을 받았다. 내년 출시를 목표로 개발 중인 '신더시티'는 엔비디아의 클라우드 게임 서비스 '지포스 나우'에도 출시할 예정이다.

2025.11.07 09:25정진성

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

적자기업 라포랩스는 SK스토아 인수 왜·어떻게 한다는 걸까

'서울 자가 대기업 김부장' 인사쟁이들은 이렇게 봤다

엔비디아 실적 발표에 쏠린 눈…분석가들의 전망은?

구글, 신규 모델 '제미나이3' 출시…"추론력 최고치"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.