• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (597건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

엔비디아, 글로벌 통신사와 'AI 네이티브 6G' 구축...SKT 참여

[바르셀로나(스페인)=박수형 기자] 엔비디아가 SK텔레콤을 비롯한 글로벌 통신사와 AI 네이티브 기반 6G 통신을 구축하겠다는 비전을 내놨다. MWC26 개막 전에 이뤄진 엔비디아의 공동 비전 발표에는 노키아, 에릭슨과 함께 BT그룹, 도이치텔레콤, 소프트뱅크, T모바일이 참여했다. 국내 회사로는 SK텔레콤이 유일하게 참여했다. 엔비디아는 6G 통신이 단순한 기술 고도화를 넘어 피지컬AI 기반이 될 것으로 내다봤다. 수십억 개의 사물이 연결되는 환경에서 보안과 신뢰 요구가 현재와 비교할 수 없는 수준으로 커지는데 기존 무선 네트워크 아키텍처로는 한계가 있다는 문제 의식이 바탕이 됐다. 이에 따라 AI 네이티브 및 소프트웨어 정의 무선 플랫폼을 제시했다. 무선접속망부터 코어에 이르는 전 구간에 AI를 내재화해 예상되는 문제를 해결한다는 구상이다. 아울러 네트워크를 AI 연산이 가능한 컴퓨팅 인프라로 확장하겠다는 전략을 공개했는데, 이는 네트워크가 데이터 전송을 넘어 AI 학습과 추론을 지원하는 기능을 더하겠다는 뜻이다. 젠슨 황 엔비디아 CEO는 “AI는 컴퓨팅을 재정의하고 있고, 통신은 다음 주요 인프라 혁신 영역”이라며 “글로벌 파트너와 협력해 AI 네이티브 무선 네트워크를 구축해 전 세계 통신 인프라를 AI 플랫폼으로 전환하고 있다”고 말했다. 엔비디아 공동 비전에 참여한 SK텔레콤의 정재헌 CEO는 “개방적이고 신뢰 기반의 인프라 구축으로 6G 시대 글로벌 AI 혁신 생태계를 구축하겠다”고 밝혔다.

2026.03.01 23:14박수형 기자

글로벌 AI 투자 몰리는 '네오클라우드'…한국 스타트업도 도전장

생성형 인공지능(AI) 확산과 함께 그래픽처리장치(GPU)를 중심으로 한 '네오클라우드'가 글로벌 인프라 시장의 새로운 축으로 부상하고 있다. 미국과 유럽에서 수십조원대 투자가 이어지는 가운데, 국내 스타트업들도 AI 전용 인프라 시장을 정조준하며 본격적인 경쟁에 뛰어드는 모습이다. 1일 업계에 따르면 네오클라우드는 기존 범용 클라우드와 달리 AI 학습·추론에 최적화된 고성능 GPU 자원을 서비스형(GPUaaS)으로 제공하는 사업 모델을 뜻한다. AI 모델 크기와 연산량이 급증하면서 하이퍼스케일러만으로는 수요를 감당하기 어려워지자 GPU 중심 인프라를 특화해 제공하는 사업자들이 빠르게 성장 중이다. 글로벌 시장에선 코어위브·람다랩스·네비우스 등이 대표적이다. 이들 기업은 엔비디아 GPU를 대규모로 확보해 AI 기업에 맞춤형 연산 자원을 제공하며 몸집을 키우고 있다. 특히 북미 기준 엔비디아 H100 GPU 임대 비용이 하이퍼스케일러 대비 3분의 1 수준에 불과하다는 조사 결과도 나오며 가격 경쟁력도 부각되고 있다. 금융권 자금도 네오클라우드로 몰리고 있다. 미국 주요 금융사는 네오클라우드 기업이 보유한 GPU를 담보로 대규모 대출을 실행하며 인프라 확장을 지원하고 있다. 시장조사기관 ABI리서치는 GPUaaS 기반 네오클라우드 시장이 2030년 약 90조원 규모로 성장할 것으로 내다봤다 . 이같은 흐름 속에 국내 스타트업들도 AI 전용 인프라 사업자로 정체성을 재정립하며 시장 공략에 속도를 내고 있다. 대표 사례가 베슬AI다. 이 회사는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 네오클라우드 사업자로 입지를 강화하고 있다 . 베슬AI는 최근 GPU 클라우드 서비스를 공식 출시하고 연내 H200·B200·B300 등 최신 GPU 1만 장 규모 인프라를 구축하겠다는 계획을 밝혔다. 이미 미국·이스라엘·핀란드 등 6개 지역 데이터센터와 계약을 체결했으며 100여 개 기업과 연구기관이 서비스를 이용 중이다. 글로벌 대학과 연구기관 도입도 확대되며 지난해 매출은 전년 대비 3.4배 성장했다. 에너지 효율 측면에서도 차별화를 시도하고 있다. 베슬AI는 미국 데이터센터 기업과 협력해 전력망 상황에 따라 AI 워크로드를 자동 조정하는 그리드 인지형 머신러닝 운영관리(MLOps) 솔루션을 공동 개발 중이다. GPU 확보 경쟁을 넘어 운영 효율까지 아우르는 네오클라우드 전략이다. 몬드리안에이아이 역시 네오클라우드를 차세대 성장 축으로 내세웠다. 이 회사는 지난해부터 네오클라우드 사업 출사표를 던지며 최근 엔비디아 B300 GPU 클러스터 구축에 나섰다. 네오클라우드를 초고성능 연산이 필요한 특정 AI 워크로드에 최적화된 맞춤형 인프라 서비스로 정의하고 매니지드 서비스 역량까지 결합하겠다는 전략이다 . 특히 델 테크놀로지스 인프라와 자체 ML옵스 플랫폼 '예니퍼', AI 실행환경 패키지 '몬스택'을 결합한 어플라이언스 '몬박스'를 교육·연구 현장에서 빠르게 확산하고 있다. 서울과학기술대학교와 성균관대학교 등에서 도입 사례가 이어지며 복잡한 설정 없이 즉시 AI 연구가 가능한 환경을 제공하고 있다는 평가다. 몬드리안에이아이는 최근 150억원 규모 시리즈B 투자 유치에 나서며 GPU 인프라 확충과 글로벌 진출을 병행하겠다는 계획도 밝혔다. 단순 GPU 임대를 넘어 인프라·플랫폼·서비스를 아우르는 네오클라우드 그룹으로 도약하겠다는 구상이다 . 업계에선 네오클라우드가 하이퍼스케일러의 대체재라기보다 AI 특화 워크로드를 분리·보완하는 공존형 인프라로 자리 잡을 가능성에 무게를 둔다. 다만 GPU 확보 비용, 전력비 상승, 엔비디아 의존도 등은 장기 리스크로 꼽힌다. 그럼에도 AI 모델 고도화와 산업 전반의 AI 전환(AX)이 가속화되는 한 GPU 중심 인프라 수요는 지속 확대될 것이란 전망이 우세하다. 글로벌 자본이 몰리는 네오클라우드 시장에서 한국 스타트업들이 기술·운영 역량을 바탕으로 의미 있는 경쟁력을 확보할 수 있을지 주목된다. 박현규 몬드리안에이아이 부사장은 "네오클라우드는 단순히 GPU를 임대하는 사업이 아니라 AI 연구와 서비스가 바로 작동할 수 있는 환경을 패키지로 제공하는 모델"이라며 "국내 기업과 연구기관이 인프라 부담 없이 AI 혁신에 집중할 수 있도록 네오클라우드 역량을 지속적으로 고도화하겠다"고 밝혔다.

2026.03.01 08:47한정호 기자

삼성 HBM4 자신감의 근원 '1c D램'…다음 목표는 수율 개선

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) 삼성전자가 AI 산업 인프라의 핵심 메모리인 6세대 HBM4(고대역폭메모리) 시장 경쟁에서 강한 자신감을 내보이고 있다. HBM의 핵심 기술요소에 경쟁사 대비 진일보된 공정을 사용하면서, 최대 고객사인 엔비디아(NVIDIA)가 요구하는 최고 성능을 가장 최적으로 달성했다는 평가가 나오고 있다. 특히 삼성전자는 코어 다이인 1c(6세대 10나노급) D램의 칩 사이즈를 키우는 결단을 내린 바 있다. 칩 사이즈가 커지면 D램 및 HBM4의 안정성을 동시에 높일 수 있다. 반면 이 같은 결정은 웨이퍼 당 생산 가능한 칩 수량을 줄어들기 때문에 수익성 측면에서는 불리하게 작용한다. 또한 1c D램의 수율이 아직 60% 내외인 만큼, 삼성전자가 최대한 빠르게 공정 고도화에 나서야 한다는 의견도 제기된다. 27일 업계에 따르면 삼성전자는 최근 엔비디아향 HBM4 선제 양산 출하와 더불어 1c D램 수율 고도화에 집중하고 있다. HBM4는 올해 본격적인 상용화가 예상되는 차세대 HBM이다. 엔비디아의 최신형 AI 가속기인 '루빈' 칩에 본격 채용되며, 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 증가한 2048개로 성능을 크게 높였다. 특히 엔비디아는 메모리 공급사에 HBM4에 요구되는 성능 기준을 꾸준히 높일 것을 요청해 왔다. 당초 국제반도체표준화기구(JEDEC)의 HBM4 성능 표준은 8Gbps 급이었으나, 최근 메모리 공급사는 이를 11.7Gbps까지 높여 엔비디아와 테스트를 진행한 바 있다. 삼성 HBM4 자신감의 근원 1c D램…"칩 사이즈 키워 안정화" 아직 정식 퀄테스트 일정이 최종적으로 완료된 것은 아니지만, 삼성전자는 내부적으로 HBM4 상용화에 강한 자신감을 보이고 있다. 지난 12일 HBM4 양산 출하식을 선제적으로 진행한 것이 대표적인 예시다. 당시 삼성전자는 "HBM4 개발 착수 단계부터 JEDEC 기준을 상회하는 성능 목표를 설정했다"며 "재설계 없이 양산 초기부터 안정적인 수율과 업계 최고 수준의 성능을 확보했다"고 강조했다. 이같은 자신감의 근간은 HBM4에 적용된 최선단 공정이다. 삼성전자는 HBM4 코어 다이에 경쟁사 대비 한 세대 앞선 1c D램을 채용했다. 또한 HBM의 컨트롤러 역할을 담당하는 베이스(로직) 다이를 자사 파운드리의 4나노미터(nm) 공정으로 양산했다. TSMC의 12나노 공정을 적용한 SK하이닉스 대비 상당히 미세화된 공정이다. 당초 업계는 삼성전자의 이같은 기술 승부수에 적잖은 우려를 나타냈다. HBM3E와 동일한 코어 다이(1b D램)를 HBM4에 탑재한 SK하이닉스·마이크론 대비, 수율 측면에서 안정성이 크게 떨어질 수 있어서다. 실제로 삼성전자는 1c D램 개발 초기 단계에서 수율 저조로 문제를 겪은 바 있다. 삼성전자의 돌파구는 1c D램의 '칩 사이즈 확대'였다. 삼성전자는 지난 2024년 말께 1c D램의 설계 일부를 수정하기로 결정했다. 핵심 회로의 선폭은 유지하되, 주변부 회로의 선폭 기준은 일부 완화해 양산 난이도를 낮춘 것이 주 골자다. 삼성전자 안팎의 이야기를 종합하면, 1c D램 사이즈 확대는 크게 두 가지 효과를 거뒀다. 먼저 1c D램의 수율 향상이다. 주변부 회로의 구현이 이전 대비 수월해지면서, 삼성전자의 1c D램 수율은 비교적 견조한 속도로 개선되고 있다. 업계가 추산하는 삼성전자의 HBM4용 1c D램 수율은 이달 기준 50~60%대다. 또한 칩 사이즈 확대로 HBM 제조에 필수적인 TSV(실리콘관통전극) 공정에서 안정성을 확보했다는 평가다. HBM4는 이전 대비 I/O 수가 늘어나면서 D램에 TSV 홀(구멍)을 더 많이 뚫어야 한다. 삼성전자 1c D램은 가용 면적이 넓어 TSV를 비교적 여유롭게 배치할 수 있는데, 이 경우 TSV 밀도를 완화해 열 관리와 신뢰성 확보에 용이하다. 반도체 업계 관계자는 "삼성전자가 HBM4의 적기 상용화를 위해 1c D램 칩 사이즈 확대 등 여러 안전 장치를 마련해 온 것으로 안다"며 "덕분에 내부적으로도, 고객사 기준으로도 HBM4에 대한 평가가 좋은 상황"이라고 설명했다. 수익성 측면은 다소 불리…수율 고도화 필요 다만 삼성전자 HBM4의 수익성이 경쟁사 대비 부족하다는 평가도 나온다. 통상 D램 공정이 고도화되면 칩 사이즈가 줄어들어, 동일한 웨이퍼에서 생산량이 더 많아진다. 그러나 삼성전자의 HBM4용 1c D램은 당초 계획 대비 칩 사이즈가 커져 수익성 측면에서 불리하다. 수율 역시 현재 기준으로는 HBM3E와 동일한 코어 다이를 활용하는 경쟁사 대비 낮을 수 밖에 없다. 여기에 각 D램을 쌓고 연결하는 패키징(TC-NCF; 열압착-비전도성 접착 필름)공정 적용 시 수율은 구조적으로 낮아지게 된다. 삼성전자가 HBM4에 적용한 4나노 공정의 가격도 TSMC 12나노 공정 대비 단가가 비싸다. 업계 관계자는 "삼성전자 HBM4에 적용된 코어 다이 및 베이스 다이의 원가 모두 경쟁사보다는 높기 때문에, 빠르게 수율을 높이는 것이 관건"이라고 말했다. 맥쿼리 증권도 최근 리포트를 통해 "삼성전자의 HBM 영업이익률은 낸드보다 낮은 50% 미만으로, 불리한 거래 조건과 낮은 생산 수율, 작은 생산규모로 인한 것"이라며 "추가적인 가격 인상과 수율, 규모 개선을 통해 HBM 마진을 높일 필요가 있다"고 평가했다.

2026.02.27 14:42장경윤 기자

엔비디아, 최대 실적에도 주가 5% 급락…왜?

엔비디아가 지난 1월 마감된 2026 회계연도 4분기에 또 다시 사상 최대 실적을 기록했지 주가는 오히려 하락세를 보이고 있어 그 배경에 관심이 쏠린다. CNBC를 비롯한 외신들에 따르면 26일(현지시간) 엔비디아 주가는 전일 종가 대비 5.46% 하락한 수준에서 마감됐다. 사상 최대 실적에도 불구하고 엔비디아 주가가 약세를 면치 못한 것은 재고 때문이라는 분석이 유력하다. CNBC는 전날 실적 발표 컨퍼런스 콜에서 콜레트 크레스 엔비디아 최고재무책임자(CFO)가 언급한 재고 수준과 무관하지 않을 수 있다고 분석했다. 그 동안 엔비디아의 최첨단 인공지능(AI) 칩은 수요가 공급을 크게 웃도는 상황이 이어졌다. 이 같은 공급 부족은 엔비디아가 가격 인상과 함께 높은 수익성을 유지하는 힘이 됐다. 하지만, 최근 크레스 CFO는 "재고가 이전 분기 대비 8% 증가했다"며 “2027년까지 출하 물량을 포함해 향후 수요에 대응할 수 있는 재고 및 공급 약정을 확보했다”고 밝혔다. 안정적인 재고를 통해 향후 사업에 대한 가시성이 높아졌다는 점은 일반적으로 긍정적 신호로 해석된다. 하지만 보다 균형 잡힌 수급 환경이 조성될 경우 엔비디아가 지금과 같은 높은 마진을 유지할 수 있을지에 대해 투자자들이 우려할 수 있다고 CNBC는 분석했다. 이번 분기 엔비디아의 비GAAP 기준 매출총이익률은 75.2%를 기록했다. 엔비디아는 다음 분기 매출총이익률을 74.5~75.5%로 전망했으며, 연간 기준으로는 70%대 중반 수준을 제시했다. 물론, 단기 수익성은 안정적인 흐름을 보이고 있다. 멜리우스 리서치의 한 애널리스트는 실적 발표 자리에서 젠슨 황 엔비디아 최고경영자(CEO)에게 2027년 이후에도 이 같은 수익률을 지속할 수 있을 지 질문했다. 이에 대해 황 CEO는 “세대 단위로 와트당 성능을 무어의 법칙을 크게 웃도는 수준으로 향상시키고, 시스템 비용 대비 성능을 획기적으로 개선할 수 있다면 총이익률을 유지할 수 있다”고 답했다. CNBC는 현재 일부 투자자들 사이에서 엔비디아의 AI 칩 가격 결정력이 정점을 지났을 가능성에 대한 우려가 제기되고 있다며, 아울러 반도체 업계 전반이 압박을 받고 있고 필라델피아 반도체 지수 역시 하락세를 나타내고 있다고 전했다. CNBC 매드 머니 진행자 짐 크레이머는 26일 엔비디아가 호실적에도 주가가 약세를 보이는 이유에 대해 "투자자들은 엔비디아의 최대 고객사들이 AI 투자로 인한 수익 증가가 뚜렷하게 나타나지 않는 한 투자를 지속할 수 없을 것이라는 우려를 갖고 있다"고 밝혔다. 그는 이어 "우리가 정말 신경쓰는 것은 아마존과 마이크로소프트, 메타가 돈을 얼마나 빌리고 있는지, 그리고 결국 그들이 돈을 전혀 벌지 못하게 되는 건 아닌지에 대한 것"이라며 "이것은 엔비디아에 대한 회의론이 아니라, 그들의 고객들에 대한 회의론"이라고 강조했다.

2026.02.27 14:36이정현 미디어연구소

엔비디아, 지포스 최신 드라이버 '595.59' 배포 중단

엔비디아가 25일 배포한 지포스 GPU 드라이버 새 버전 '595.59' 배포를 중단했다. PC가 멈추거나 냉각팬이 작동하지 않는 문제가 발견됐기 때문이다. 문제가 된 드라이버는 신작 게임 '레지던트 이블-레퀴엠'을 포함한 신종 게임 3종 최적화 등 업데이트를 포함하고 있다. 이 드라이버 설치 후 화면이 나오지 않거나, GPU 과열이나 냉각팬 미작동 등 그래픽카드 자체를 망가뜨릴 수 있는 문제가 발견됐다. 엔비디아는 26일(현지시간) "지포스 게임레디·스튜디오 595.59 드라이버에서 버그를 발견했고 문제를 조사하는 동안 다운로드를 일시 중단했다"고 설명했다. 이어 "이 드라이버를 설치한 후 냉각팬 작동 문제를 겪고 있다면 이전 버전인 591.86으로 되돌리라"고 권고했다. 엔비디아 GPU 통합 관리 프로그램인 '엔비디아 앱'을 설치했다면 '드라이버' 탭의 점 3개를 눌러 나오는 메뉴로 이전 버전 드라이버를 설치할 수 있다.

2026.02.27 10:06권봉석 기자

[현장] "GPU 개수 경쟁 끝났다"…엔비디아가 제시한 '수직 통합' AI 인프라

"그래픽처리장치(GPU) 몇 장을 도입할지 경쟁하는 시대는 지났습니다. 이제는 기업 전체 구조를 다시 설계하는 단계로 들어섰습니다." 정구형 엔비디아 코리아 팀장은 26일 서울 마곡 사이언스파크에서 열린 'LG CNS AI 테크 서밋 2026'에서 애플리케이션부터 데이터센터, 전력까지 아우르는 차세대 AI 인프라 청사진을 제시했다. 정 팀장은 AI 인프라를 ▲애플리케이션 ▲모델 ▲AI 플랫폼 ▲가속 컴퓨팅 인프라 ▲데이터센터, 에너지 인프라 등 5개 레이어로 구분해 설명했다. 그는 "AI는 한 층만 잘 만든다고 완성되지 않는다"며 "애플리케이션부터 전력까지 수직 통합 관점에서 설계해야 한다"고 말했다. 가장 위에는 기업이 실제로 사용하는 업무용 AI 애플리케이션과 에이전트가 있다. 그 아래로는 대형 언어모델 등 모델 레이어, 이를 학습·배포·운영하는 플랫폼 레이어가 이어진다. 이어 GPU, CPU, 네트워킹, DPU 등으로 구성된 가속 컴퓨팅 인프라가 이를 떠받친다. 마지막으로 대규모 전력과 냉각을 감당하는 데이터센터, 에너지 인프라가 기반을 이룬다. 정 팀장은 "AI 경쟁은 이제 GPU 수량이 아니다"며 "이 5개 레이어를 얼마나 유기적으로 설계하느냐의 문제"라고 강조했다. 엔비디아 내부 사례도 공개했다. 그는 단순히 요약된 답을 제시하는 것이 아니라 어떤 문서의 어느 부분을 참고했는지까지 추적 가능하도록 설계했다는 것을 강조했다. 정 팀장은 "우리도 사내에서 에이전틱 AI를 적극 활용하고 있다"며 "컨플루언스, 셰어포인트 등 내부 협업 시스템과 직접 연동해 답변의 근거를 함께 제시하는 구조를 구축했다"고 설명했다. 이 같은 내부 적용을 통해 제품 개발과 의사결정 속도가 빨라졌다고도 밝혔다. 반복적으로 확인해야 했던 기술 문서, 설계 변경 이력, 사내 정책 자료 등을 에이전트가 즉시 찾아 제시하면서 업무 시간이 단축됐다는 설명이다. 정 팀장은 "엔터프라이즈 환경에서는 정확도만큼이나 '출처 투명성'이 중요하다"며 "이를 통해 개발자와 엔지니어가 정보 검색에 쓰는 시간을 줄이고 실제 설계와 검증에 더 집중할 수 있게 됐다"고 말했다. 엔비디아는 이러한 시행착오와 운영 경험을 정리해 '엔터프라이즈 AI 팩토리 디자인' 가이드로 공개했다. 가이드에는 에이전트 설계 방식, 내부 데이터 연동 구조, 플랫폼 구성, 인프라 선택 기준 등 기업이 AI를 도입할 때 고려해야 할 기술적 의사결정 요소가 담겼다. 모델 전략에 대해서는 오픈소스 기반 접근을 강조했다. 시스템 구조가 얼마나 개방돼 있는고 실제 서비스에서 얼마나 효율적인지가 실제 업무 성능을 좌우하기 때문이다. 그는 오픈 모델 제품군인 '네모트론3'를 언급하며 "성능 지표뿐 아니라 서빙 효율 측면에서도 의미 있는 진전을 이뤘다"며 "기업이 자체 모델을 고도화할 때 충분히 고려할 수 있는 기반이 될 것"이라고 설명했다. 하드웨어와 인프라 설계 방향도 구체적으로 제시했다. 그는 차세대 GPU 아키텍처 기반 랙 단위 통합 설계를 소개하며 "수십 개 GPU를 하나의 도메인처럼 묶어 동작시키는 구조가 표준이 되고 있다"고 말했다. 이어 "고속 네트워킹과 DPU를 결합해 서버, 스토리지, 네트워크를 유기적으로 연결해야 진짜 AI 인프라가 완성된다"고 강조했다. 데이터센터와 에너지 이슈에 대해서도 언급했다. 정 팀장은 "AI 인프라의 끝은 결국 전력"이라며 "기가와트급 데이터센터 시대가 이미 시작됐다"고 말했다. 이어 "디지털 트윈 기반 설계를 통해 가상 환경에서 충분히 검증한 뒤 실제 구축에 들어가야 시행착오를 줄일 수 있다"고 설명했다. 그러면서 "AI 인프라는 장비 조합의 문제가 아니라 애플리케이션에서 에너지까지 하나로 이어진 설계 철학의 문제"라며 발표를 마무리했다.

2026.02.26 15:17남혁우 기자

[현장] LG CNS AI 테크 서밋 2026 개막…엔비디아부터 오픈AI까지 총출동

LG CNS가 엔비디아, 오픈AI, 팔란티어 등 국내외 주요 인공지능(AI) 반도체 기업 함께 실행 중심 기업형 AI 전략을 제시했다. 26일 LG CNS는 AI 기술과 비즈니스 전략을 공유하는 'LG CNS AI 테크 서밋 2026'을 서울 마곡 사이언스파크에서 개최했다. 이번 행사는 AI가 기업 전반에 확산되는 상황에서 안정적인 도입과 통제 체계 구축, 데이터 폭증에 따른 인프라 효율화, 자율적으로 판단하고 행동하는 에이전틱 AI 전환, 데이터 주권을 확보하는 소버린 AI 구축 방안을 모색하기 위해 마련됐다. 엔비디아, 팔란티어, 오픈AI, 시스코, IBM, HPE, VM웨어, 델 테크놀로지스 등 글로벌 테크 기업과 함께 망고부스트, 퓨리오사AI, 리벨리온 등 국내 AI 반도체 기업이 참여해 기술 전략과 실제 적용 사례를 공유했다. 김태훈 LG CNS 부사장은 "AI는 이제 가능성의 시대를 지나 실제 실행과 성과를 만들어내는 시대로 들어섰다"며 "이제 생성형 AI의 단순 응답을 넘어 업무 프로세스 안에서 스스로 계획하고 실행하는 '에이전틱 AI'로 빠르게 진화하고 있다고 설명했다. 동시에 기업 현장에서는 보안, 컴플라이언스, 거버넌스가 내재화된 '엔터프라이즈 AI'가 새로운 표준으로 자리 잡고 있다고 강조했다. 인프라 변화도 핵심 화두로 제시했다. 김 부사장은 학습뿐 아니라 추론의 중요성이 커지고 있으며, 추론 비용 효율화와 운영 자동화, 관측 가능성 확보가 기업 경쟁력을 좌우하고 있다고 진단했다. 또한 산업과 국가별 규제에 대응하는 프라이빗 AI와 소버린 AI가 주요 요구사항으로 부상하고 있다고 덧붙였다. 행사는 키노트를 시작으로 엔터프라이즈 AI와 거버넌스, AI 인프라 효율화, 에이전틱 AI와 데이터 관리, 소버린 AI 등 주제별 트랙으로 구성됐다. 각 세션은 현장 적용 중심의 인사이트 공유에 초점을 맞췄다. 진요한 AI센터장은 올해를 'AI실전 배치의 해'로 삼고 실제 운영 역량을 갖춘 소버린 엔터프라이즈로 전환하는 출발점이 되기를 기대한다고 밝혔다. 그는 "지난 1년의 변화가 그 이전 20년보다 더 컸다"고 진단하며, 2017년 트랜스포머 등장 이후 2025년 현재는 AI가 실제 산업과 물리적 세계까지 확장되는 전환점에 와 있다고 설명했다. 특히 생성형 AI 이후 모델이 비약적으로 똑똑해지면서 B2C 경험과 B2B 현실 사이의 기대 격차가 커졌다고 지적했다. 개인은 즉시 활용하지만 기업은 보안, 데이터 정합성, 시스템 연계 등 복합 요건을 충족해야 한다는 점을 짚었다. 그는 엔터프라이즈 AI의 핵심을 '모델, 데이터, 운영'의 통합 전략으로 제시했다. 단일 모델 선택이 아니라 경량 모델과 고성능 모델을 작업 특성에 따라 라우팅하는 전략이 필요하며, 데이터 연결과 권한 관리, 배치 전략이 곧 소버린 역량이라고 강조했다. "모델을 보유하는 것이 아니라, 모델을 실전에 배치해 운영할 수 있는 능력이 기업 경쟁력"이라고 말했다. LG CNS는 이에 대응해 자사 AI 플랫폼을 에이전틱 구조로 고도화하고, '에이전트웍스' 체계를 통해 기업용 에이전트 운영 환경을 제공하겠다는 구상도 밝혔다. 모델 라우팅, 다중 모델 운영, 기업 데이터 연계, 권한 통제, UI 설계까지 포함한 통합 운영체계를 지향한다는 설명이다. 인프라 전략도 구체화했다. 퍼블릭 클라우드와 온프레미스 이분법을 넘어 상황별 혼합 구조가 필요하며, 추론 수요 확대에 대응해 XPU 기반 서비스도 준비하고 있다고 밝혔다. GPU를 모두 직접 구매하는 방식이 아니라 온디맨드 서비스 활용 등 유연한 전략이 필요하다고 강조했다. 외교부, 경기도교육청 등과의 로드맵 기반 AX 프로젝트 사례도 소개하며 선도 사례가 캐즘을 넘는 전환점이 될 수 있다고 강조했다. 또한 글로벌 파트너와의 협업을 통해 기술과 운영 역량을 결합한 실행형 AI 전략을 확대하겠다고 밝혔다. 김 부사장은 "LG CNS는 AX 마스터 플랜 수립부터 데이터 플랫폼, 인프라 구축, 보안과 거버넌스, 운영 자동화까지 고객의 AI 라이프사이클 전 과정을 책임지는 AX 이노베이터"라며 "오늘 공유되는 아이디어와 사례가 각 기업의 다음 실행을 더 빠르고 안전하게 만드는 출발점이 되길 바란다"고 밝혔다.

2026.02.26 13:51남혁우 기자

엔비디아 "AI 인프라 투자, 일시적 사이클 아니다"

엔비디아가 25일(현지시간) 2026 회계연도 4분기(11~1월) 실적발표 이후 진행된 컨퍼런스 콜에서 인공지능(AI) 인프라 투자가 단기 사이클이 아니라 구조적인 성장 국면에 진입했다고 설명했다. 젠슨 황 엔비디아 CEO는 "에이전틱 AI의 전환점이 이미 찾아왔고 기업 전반에서 이를 처리하기 위한 연산 수요가 급증하고 있다. 토큰을 생성하려면 연산 능력이 요구되며 토큰 없이는 매출이 없다. '연산 능력이 곧 매출'인 시대"라고 설명했다. 그는 또 "주요 클라우드 고객들의 현금흐름 역시 AI 수요 확대에 따라 성장할 것이다. 이제 데이터센터는 AI 공장이며, 기업들은 매출을 창출하기 위해 연산 능력 증대에 투자할 수밖에 없다"고 강조했다. 베라 CPU, 데이터 후처리 등 작업에 큰 역할 할 것 엔비디아는 올 초 CES 2026에서 베라(Vera) CPU와 루빈(Rubin) GPU를 공개하고 올 하반기부터 본격 공급에 들어간다고 밝힌 바 있다. 젠슨 황 CEO는 "베라 CPU는 데이터 중심 AI 워크로드에 최적화됐다. 데이터 전처리부터 학습 이후 단계까지 CPU 활용이 늘고 있으며, 베라는 이러한 후처리와 데이터 작업에 매우 중요한 역할을 할 것"이라고 설명했다. 콜렛 크레스 엔비디아 최고재무책임자(CFO)는 "루빈 아키텍처는 전력 효율과 성능 개선 측면에서 기존 세대를 크게 뛰어넘는 것이 목표이며 성능 대비 전력과 가격 경쟁력을 지속적으로 개선해 장기적으로 높은 수익성을 유지할 것"이라고 설명했다. "공급망 전반 협력으로 생산 능력 확보에 집중" 글로벌 빅테크의 AI 인프라 투자로 지난 해 말부터 D램과 낸드 플래시메모리 등 메모리 반도체 수급난이 계속되고 있다. 특히 AI 서버 확산 과정에서 고대역폭 메모리(HBM) 등 핵심 부품의 공급이 제한적이라는 점은 업계 공통 과제로 지적되고 있다. 이날 컨퍼런스 콜에서도 공급망과 수급 문제가 주요 문제로 지적됐다. 이에 대해 콜렛 크레스 CFO는 "현재 공급망 전반에 대한 투자와 협력을 통해 필요한 생산 능력을 확보하는 데 집중하고 있다"고 설명했다. H200 수출 승인에도 실제 실적은 '제로' 도널드 트럼프 2기 행정부는 올 초 블랙웰 아키텍처 기반 H200 GPU의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 그러나 현재는 중국 정부가 H200 GPU 수입을 제한하고 있는 상황이다. 콜렛 크레스 CFO는 "미국 정부의 H200 수출 승인은 있었지만 아직 매출은 발생하지 않은 상황이다. 중국 내 수입이 언제 허용될지는 현재로서는 알 수 없다"고 설명했다. 이어 "최근 중국 내 경쟁사가 기업공개(IPO)로 자본력을 강화하고 기술적인 진전을 이루고 있다. 미국이 AI 분야에서 리더십을 유지하려면 중국을 포함한 전 세계 모든 개발자와 기업을 플랫폼 생태계 안으로 포용해야 한다"고 밝혔다.

2026.02.26 10:24권봉석 기자

엔비디아, 작년 4분기 영업익 61.2조…또 사상 최대

엔비디아가 25일(현지시간) 2025년 4분기(11~1월, 회계연도 기준 2026년 4분기) 실적과 매출을 발표했다. 매출은 자체 전망치를 5% 이상 넘어섰고 영업이익도 전년 동기 대비 두 배 이상 늘어났다. 엔비디아 4분기 매출은 681억 2700만 달러(약 97조 1800억원)로 전년 동기(393억 달러, 약 56조 1000억원) 대비 73% 이상 늘어났다. 또 작년 11월 회사 자체 전망치인 650억 달러(약 92조8000억 원)를 크게 넘어섰다. 영업이익은 429억 달러(약 61조 2000억원)로 전년 동기(220억 달러, 약 31조4000억원) 대비 두 배 가까이 증가했다. 젠슨 황 최고경영자(CEO)는 "컴퓨팅 수요가 기하급수적으로 증가하고 있으며, 에이전틱 AI 전환의 변곡점이 왔다"고 설명했다. 이어 "그레이스 블랙웰은 현재 추론 시장에서 토큰당 비용을 한 자릿수 수준으로 낮추며 주도적 위치를 확보했고, 베라 루빈 아키텍처는 이러한 리더십을 더욱 확대할 것"이라고 밝혔다. 인공지능(AI) 칩과 관련 부품을 포함하는 데이터센터 부문 매출은 623억 달러(약 88조 9000억원)로 전년 동기 대비 75%, 전 분기 대비 22% 증가했다. 전체 매출의 약 91%를 데이터센터 부문이 차지했다. 데스크톱과 노트북용 지포스 GPU 등을 공급하는 게이밍 부문 매출은 37억 달러(약 5조 3000억원)로 전년 동기 대비 47% 늘었다. 이 부문은 과거 핵심 사업이었지만 서버와 데이터센터 중심으로 사업 구조가 재편되면서 상대적 비중이 축소됐다. 워크스테이션과 쿼드로 등 전문가용 GPU를 공급하는 프로페셔널 비주얼라이제이션 부문 매출은 13억 달러(약 1조 8500억원)로 전년 동기 대비 2.5배 가까이 증가했다. 엔비디아는 "4분기 중 출시한 전문가용 그래픽카드 'RTX 프로 5000 72GB 블랙웰'과 GB10 기반 DGX 스파크의 출시 국가 확대, 성능 업데이트가 영향을 미쳤다"고 설명했다. 오토모티브(자동차) 및 로보틱스 부문 매출은 6억 달러(약 8600억원)로 전년 대비 6% 증가했다. 엔비디아는 4분기 말 기준 자사주 매입 승인 한도 가운데 585억 달러(약 83조 5000억 원)가 남아 있으며, 오는 4월 1일 주당 1센트 배당을 지급할 예정이라고 밝혔다. 배당락은 3월 11일이다. 엔비디아는 올해 1분기(2~4월) 매출을 780억 달러(약 111조 3000억원) 수준으로 전망했다. 다만 이는 중국 시장 매출을 전혀 반영하지 않은 수치다. 실적 발표 이후 주가는 시간 외 거래에서 종가(195.56달러) 대비 1% 내외로 등락을 이어가고 있다.

2026.02.26 08:48권봉석 기자

게이밍 GPU 교체주기 장기화...AI 기능으로 '공백 메우기'

글로벌 빅테크 기업의 대규모 AI 인프라 투자 경쟁 속에서 데이터센터용 GPU 수요가 급증하면서, 게이머나 일반 소비자용 GPU의 신제품 투입 우선순위가 내려가고 있다. 엔비디아는 현행 블랙웰과 차기 제품인 루빈에 GPU 신제품 개발과 생산 역량을 집중하는 한편 일반 소비자용 신제품 투입 시기를 미루고 있다. 올해에서 내년까지 새 GPU 투입이 미뤄질 것이라는 전망도 나온 바 있다. 엔비디아는 AI 기반 소프트웨어 기술을 활용한 업스케일링·프레임 생성 등으로 신제품 공백을 메우고 있다. 올 초 CES에서 DLSS 4.5를 공개한 데 이어 올해 중 업데이트를 통해 이를 강화할 예정이다. 2024년 이후 데스크톱 PC용 GPU 신제품 출시가 없는 인텔 역시 AI 기반 프레임 생성 기능을 현행 최신 제품 뿐만 아니라 2022년 출시된 전 세대 GPU까지 확장했다. 그래픽카드 시장의 경쟁 축도 AI 알고리듬 경쟁으로 향하고 있다. 엔비디아, 게이밍 GPU 신제품 투입 연기 엔비디아는 일반 소비자용 GPU 출시 이후 일정 시간이 지나면 작동 클록을 높이고 메모리 탑재량을 늘린 '슈퍼' 시리즈를 추가 출시했다. 이는 제품 수명을 연장하고 최대 경쟁사인 AMD 대응력을 유지하기 위한 수단이다. 올 초 CES를 앞두고도 파생 제품 출시가 예상됐지만 이는 실현되지 않았다. 글로벌 빅테크가 AI 인프라 투자에 경쟁적으로 나서면서 일반 소비자용 GPU 추가 출시는 우선 순위에서 밀린 것으로 판단된다. 이달 초 미국 IT 매체 디인포메이션은 익명을 요구한 관계자를 인용해 "RTX 50 파생 제품의 설계는 이미 끝났지만 메모리 반도체 수급난과 공급 부족 때문에 출시가 보류됐다"고 설명했다. DLSS, AI 기반 프레임 생성으로 성능 강화 엔비디아가 CES에서 새 GPU 대신 내세운 기술은 AI를 활용해 게임 프레임 수를 향상시킬 수 있는 기능인 DLSS(딥러닝 슈퍼샘플링) 4.5다. DLSS는 AI를 이용해 저해상도 게임 화면을 고해상도로 처리한다. 그래픽칩셋 부하는 줄이고 화질 저하는 최소화하며 초당 프레임 수는 높일 수 있다. RTX 5090 등 최상위 GPU가 아니어도 충분히 높은 프레임을 뽑아낼 수 있다. DLSS 4.5는 지포스 RTX 40/50 시리즈 GPU에서 작동한다. 지난 해 초 CES 2025에서 공개된 DLSS 4를 보완했고 2세대 트랜스포머 모델을 이용해 화질 저하 현상을 개선했다. 인텔, 2022년 출시 GPU까지 XeSS 확장 인텔 역시 아크 A/B시리즈용 GPU의 AI 연산 기능을 활용한 XeSS(Xe 슈퍼샘플링) 기능을 구현한 상태다. 코어 울트라 시리즈3(팬서레이크)에 탑재된 아크 B390 GPU에는 기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하는 XeSS-MFG(다프레임 생성) 기능이 추가됐다. 지난 13일 업데이트된 아크 GPU 드라이버는 XeSS-MFG 기능을 2022년 출시된 데스크톱 PC용 그래픽카드인 아크 A770, 코어 울트라 시리즈1(메테오레이크)/시리즈2(루나레이크)에 탑재된 아크 GPU까지 확장했다. 이를 이용하면 아크 A770 등 구형 그래픽카드에서도 초당 프레임을 최대 네 배까지 끌어올릴 수 있다. 그래픽카드 교체주기 연장... AI 기반 부가기능으로 보완 디인포메이션 등에 따르면 엔비디아는 새 GPU 아키텍처 '루빈(Rubin)'을 적용한 RTX 50 시리즈 후속 제품을 2027년 말 대량 생산하려던 계획도 연기한 것으로 추정된다. 올해 뿐만 아니라 내년까지 새 PC용 GPU가 등장하지 않을 수 있다는 의미다. HBM뿐 아니라 고성능 GDDR 메모리 확보도 점점 어려워지면서 소비자용 GPU 생산 일정이 영향을 받고 있다는 분석도 나온다. 일반 소비자용 그래픽카드 교체 주기가 길어지고 AI 기반 성능 개선 기술 의존도가 높아질 전망이다. 엔비디아는 지난 해 출시한 RTX 50 시리즈 GPU의 성능 향상을 위한 DLSS 4.5 추가 업데이트도 준비중이다. AI 생성 프레임을 6배로 늘리는 한편 모니터 최대 화면주사율에 맞춰 화질과 프레임의 균형을 자동으로 조절하는 기능이 포함될 예정이다.

2026.02.25 16:31권봉석 기자

레드햇-엔비디아, AI 팩토리 출시…"안정적 대규모 개발"

레드햇이 엔비디아와 기업용 통합 인공지능(AI) 플랫폼을 개발해 사업 확장에 나섰다. 레드햇은 엔비디아 손잡고 '레드햇 AI 팩토리 위드 엔비디아'를 출시했다고 25일 밝혔다. 이 플랫폼은 레드햇 AI 엔터프라이즈와 엔비디아 AI 엔터프라이즈를 결합한 엔드투엔드 AI 솔루션이다. 대규모 AI 도입을 추진하는 기업 환경에 최적화됐다. 이 플랫폼은 엔비디아 하드웨어(HW) 아키텍처에 대한 0일 차 지원을 제공한다. 엔비디아 그래픽처리장치(GPU) 기반 가속 컴퓨팅 인프라 위에서 모델 성능을 극대화하는 소프트웨어(SW) 스택을 제공한다. IDC에 따르면 에이전틱 AI 확산으로 2029년까지 엔터프라이즈 AI 지출은 1조 달러를 넘어설 전망이다. 이에 기업은 고밀도 에이전틱 워크플로 중심 전략으로 전환하고 있으며 AI 추론과 인프라 수요도 급증하는 상황이다. 레드햇 AI 팩토리 위드 엔비디아는 이런 변화에 맞춰 IT 운영팀이 기존 인프라와 AI 스택을 동시에 관리할 수 있도록 설계됐다. 온프레미스, 클라우드, 엣지 전반에서 배포가 가능하며 고확장성과 보안을 전면에 내세웠다. 플랫폼은 사전 구성된 IBM 그래니트 제품군과 엔비디아 네모트론, 엔비디아 코스모스 오픈 모델을 엔비디아 NIM 마이크로서비스 형태로 제공한다. 또 엔비디아 네모를 활용해 기업 데이터에 맞게 모델을 튜닝해 시간과 비용을 줄일 수 있다. 성능 측면에서는 가상거대언어모델(vLLM) 기반 레드햇 AI 추론 기능과 엔비디아 '텐서RT-LLM', 엔비디아 '다이나모'를 결합했다. 이를 통해 GPU 활용도를 높이고 엄격한 AI 서비스 수준 목표를 충족하며 총소유비용 절감을 돕는다. 플랫폼에 지능형 GPU 오케스트레이션 기능도 포함됐다. 자동 체크포인팅으로 장시간 작업을 보호하고 동적 환경에서도 예측 가능한 비용 구조 유지를 지원한다. 보안은 레드햇 엔터프라이즈 리눅스 기반으로 강화됐다. 엔비디아 도카 마이크로서비스는 제로 트러스트 아키텍처를 구현해 AI 런타임 보안을 지원한다. 플랫폼은 시스코와 델테크놀로지스, 레노버, 슈퍼마이크로 등 주요 시스템 제조업체의 AI 팩토리 인프라에서 지원된다. 이를 통해 일반 기업 워크로드와 동일한 수준의 운영 엄격성과 예측 가능성을 확보하도록 돕는다. 크리스 라이트 레드햇 글로벌 엔지니어링 부문 수석 부사장 겸 최고기술책임자(CTO)는 "우리는 새 플랫폼으로 대규모 AI 배포와 신속한 프로덕션 전환을 가속하고 있다"며 "고객은 안정적이고 수준 높은 기술을 통해 AI 전략을 주도하고 확장할 수 있을 것"이라고 말했다.

2026.02.25 15:07김미정 기자

[AI는 지금] 5000억 달러 '스타게이트' 제동…오픈AI 전략 차질에 반도체도 영향 받나

오픈AI와 소프트뱅크, 오라클이 추진해온 미국 초대형 인공지능(AI) 데이터센터 프로젝트 '스타게이트'가 1년 넘게 본격 가동되지 못한 것으로 알려졌다. 5000억 달러(약 720조원) 규모로 발표되며 글로벌 AI 인프라 경쟁의 상징으로 주목받았지만, 파트너십 구조를 둘러싼 이견과 자금 조달 문제 등이 겹치며 사실상 전략 수정 국면에 들어갔다는 평가가 나온다. 미국 IT 전문매체 디인포메이션은 23일(현지시간) 복수 소식통을 인용해 오픈AI·소프트뱅크·오라클이 프로젝트 발표 직후부터 역할 분담과 지배구조를 두고 의견 차이를 보여왔고, 이로 인해 사업이 실질적 진전을 이루지 못하고 있다고 보도했다. 스타게이트는 초기 1000억 달러를 투입해 10GW(기가와트) 규모의 AI 전용 컴퓨팅 인프라를 구축하는 것을 1단계 목표로 제시했다. 그러나 현재까지 핵심 인력 충원은 물론 오픈AI 주도의 데이터센터 개발도 착수 단계에 이르지 못한 것으로 전해졌다. 업계에선 초대형 인프라 사업 특성상 자산 소유권과 운영 통제권, 수익 배분 구조가 명확히 정리되지 않으면 금융 조달과 건설 일정이 동시에 지연될 수밖에 없다고 보고 있다. 특히 데이터센터 자산을 누가 보유할 것인지, 기술 통제권을 어디까지 인정할 것인지를 두고 3사 간 견해차가 컸던 것으로 알려졌다. 오픈AI는 한때 직접 데이터센터 구축을 추진했지만, 금융권이 상환 능력에 의문을 제기하면서 자금 조달이 보류된 것으로 전해졌다. AI 인프라는 선투자 규모가 막대하고 회수 기간이 긴데, 그래픽처리장치(GPU) 등 고가 연산 장비의 감가상각 부담과 기술 진화 속도까지 고려하면 금융기관 입장에서는 위험도가 높은 사업으로 분류된다. 결국 오픈AI는 3자 공동 추진 대신 소프트뱅크·오라클과 각각 개별 계약을 맺는 방식으로 방향을 틀었다. 오라클과는 미국 내 여러 지역에서 4.5GW 규모 데이터센터를 개발하고, 텍사스 밀럼 카운티 1GW 프로젝트는 소프트뱅크와 협력하는 구조다. 데이터센터 자산은 파트너가 보유하고, 오픈AI는 설계와 지식재산권(IP) 통제에 집중한다는 방침이다. 프로젝트 지연은 재무 부담으로도 이어졌다. 2030년까지의 컴퓨팅 비용 전망치는 기존 4500억 달러에서 6650억 달러로 상향 조정된 것으로 전해졌다. 한때 1조4000억 달러에 달했던 투자 계획도 최근에는 6000억 달러 수준으로 축소된 것으로 알려졌다. 공격적 확장에서 재무 안정성 중심 전략으로 기조가 이동하고 있는 것이다. 스타게이트 난항은 반도체 업계에도 영향을 미칠 수 있을 것으로 보인다. 초대형 AI 데이터센터 프로젝트는 대규모 GPU 발주와 이에 연동된 고대역폭메모리(HBM) 수요를 수반하기 때문이다. 프로젝트가 지연될 경우 관련 장비와 부품의 발주 일정 역시 조정될 가능성이 있다. 다만 업계에선 이를 AI 수요 위축으로 단정하기는 이르다는 분위기다. 스타게이트와 같은 초대형 단일 프로젝트가 지연될 경우 GPU 및 HBM 수요의 '총량'이 줄어들기보다는 대규모 발주의 집행 시점이 뒤로 밀리면서 시장 체감 성장 속도가 완만해질 가능성이 크다고 봤다. AI 인프라 투자가 중장기적으로 이어지는 흐름은 유지되더라도 데이터센터 건설 일정이 늦춰지면 반도체 업계의 실적 반영 시점 역시 후행할 수 있다는 의미다. 업계 관계자는 "스타게이트 사례는 AI 산업이 기술 경쟁을 넘어 자본 조달과 거버넌스 안정성이라는 현실적 과제에 직면했음을 보여주는 것"이라며 "인프라 확장의 방향성은 유지되지만, 속도와 방식은 조정되는 국면에 접어든 것으로 보인다"고 평가했다.

2026.02.24 10:41장유미 기자

주가 상승 제동걸린 엔비디아, 실적 발표에 관심 집중

인공지능(AI) 반도체 선두주자 엔비디아의 주가가 최근 정체 흐름을 보이는 가운데, 25일(현지시간)로 예정된 실적 발표에 시장의 이목이 집중되고 있다고 야후파이낸스 등 외신들이 보도했다. 보도에 따르면 현재 엔비디아의 주가수익비율(PER)은 24배를 밑돌면서 최근 5년 평균인 38배를 크게 못 미치는 수준을 기록하고 있다. 야후파이낸스는 엔비디아의 가치 평가가 낮아진 이유를 크게 세 가지로 분석했다. 첫째, 투자자들이 AI 투자 지속기간에 대해 재평가하고 있다는 점이다. AI의 가치 자체에 의심을 갖지는 않지만, 언제까지 투자할 것이냐는 점에 의문을 제기하고 있다는 것이다. 둘째는 제품 전환 과정에서의 단기적 마진 압박이다. 엔비디아는 현재 호퍼기반 HGX 시스템에서 차세대 블랙웰 칩으로 대규모 전환을 진행 중이다. 이 과정에서 수익성에 일시적인 부담이 발생하고 있다는 설명이다. 야후 스카우트 분석에 따르면 엔비디아의 2026회계연도 주당순이익(EPS)은 전년 대비 57% 증가할 것으로 예상된다. 이는 2025회계연도 약 145% 성장률과 비교하면 크게 둔화된 수치다. 셋째는 구조적인 요인이다. 시장조사 업체 에버코어의 애널리스트 마크 리파시스는 "엔비디아의 S&P 500 지수 내 비중은 7.4%로, 많은 펀드매니저들의 운용 규약상 허용 한도를 웃도는 수준”이라며, “엔비디아의 펀더멘털은 시장 전반보다 좋을 것으로 예상되지만, 주가가 시장보다 빠르게 상승할 경우 펀드매니저들이 보유 비중을 줄여야 하는 구조적 요인으로 인해 주가수익비율에는 부담 요인이 존재한다"라고 밝혔다. 블룸버그에 따르면, 노스웨스턴 뮤추얼 웰스 매니지먼트의 주식 부문 수석 포트폴리오 매니저 맷 스터키는 "엔비디아의 성장 스토리는 여전히 탄탄하다. 다만 문제는 투자심리가 그것을 계속 받쳐줄 수 있느냐는 것"이라며 "여러 부문에서 불안감이 고조되고 있다"고 밝혔다. 최근 엔비디아 주가가 부진한 흐름을 보이는 배경에는 AI 개발에 수천억 달러가 투입되는 데 대한 부담과 함께, 일부 투자자들이 대형 기술주 비중을 축소하는 움직임도 영향을 미친 것으로 전해졌다. 여기에 이란을 비롯한 지정학적 긴장 고조와 미국 경기 둔화 우려도 추가적인 부담 요인으로 작용하고 있다. 웨이브 캐피털 매니지먼트의 리스 윌리엄스 수석 전략가는 “이번 실적 발표는 중요한 이벤트가 될 것”이라면서도 “실적이 기대에 못 미친다고 판단될 경우 발표 이후 오히려 주가가 하락할 가능성도 있다”고 전망했다. 결국 이번 엔비디아 실적 발표는 향후 주가 방향성을 가늠할 분수령이 될 것으로 보인다. 야후파이낸스는 시장 기대치를 충족하지 못할 경우 주가가 추가 하락 압력을 받을 수 있다고 평가했다.

2026.02.24 10:32이정현 미디어연구소

클라우다이크 '브이픽', 엔비디아 AI스타트업 지원 프로그램 선정

클라우드 및 인공지능(AI) 솔루션 전문 기업 클라우다이크(대표 이선웅)는 AI 영상 분석 및 숏폼 제작 서비스 '브이픽(VPick)'이 엔비디아 스타트업 육성 프로그램인 '엔비디아 인셉션(NVIDIA Inception)'에 선정됐다고 23일 밝혔다. '엔비디아 인셉션'은 AI, 데이터 사이언스 등 혁신 기술을 보유한 전 세계 스타트업을 발굴, 지원하는 프로그램이다. 선정된 기업은 엔비디아 최신 GPU 기술 지원을 비롯한 클라우드 크레딧, 기술 교육 및 투자자 연결 등 기업 성장을 위한 다양한 혜택이 주어진다. 이선웅 대표는 이번 선정에 대해 "클라우다이크가 최근 출시한 브이픽의 AI 기술력을 인정받은 결과"라고 자평했다. 브이픽은 기업이 보유한 방대한 영상 데이터를 AI가 자동으로 분석, 마케팅에 즉시 활용 가능한 '숏폼(Short-form)' 영상으로 재가공해 주는 B2B SaaS(서비스형 소프트웨어)다. 브이픽은 단순히 영상을 이해하는 것을 넘어, 사용자가 클릭 몇 번으로 ▲자연어 명령을 통한 영상 검색 ▲AI를 통한 자동 숏폼 생성 ▲자동 자막 생성 등 고난도 영상 편집 작업을 수행할 수 있다. 이는 네이버클라우드 미디어 인텔리전스, 구글 제미나이(Gemini) 등 미디어 및 거대언어모델(LLM)을 결합한 '하이브리드 AI 아키텍처'를 적용했기 때문이다. 클라우다이크는 이번 엔비디아 인셉션 선정을 계기로 브이픽의 AI 기술 역량 고도화를 추진한다. 엔비디아의 고성능 GPU 인프라를 활용해 영상 처리 속도를 획기적으로 단축하고 서비스 운영 원가 절감 등을 통해 보다 합리적인 고객 서비스를 제공할 계획이다. 이선웅 대표는 “브이픽이 단순한 편집 도구를 넘어, GPU 가속 기술이 내재된 고도화된 AI 솔루션이라는 점을 글로벌 시장에 입증한 것"이라며 "향후 엔비디아 기술 지원을 바탕으로 영상 콘텐츠 제작 비효율 개선을 추진하며, 글로벌 AI 시장 진출에 박차를 가할 것"이라고 밝혔다.

2026.02.23 13:49박희범 기자

엔비디아, 오픈AI에 300억 달러 투자 논의…당초 대비 규모 축소

엔비디아가 오픈AI에 300억 달러를 투자하는 방안을 협상 중이라고 영국 파이낸셜타임스(FT)가 20일(현지시간) 보도했다. 앞서 엔비디아는 오픈AI와 1000억 달러 규모 투자를 논의한 바 있다. 이를 고려하면 투자 규모가 3분의 1 수준으로 줄었다. 투자 성격도 다년간의 투자 파트너십에서 단순 지분 투자로 전환됐다. 파이낸셜타임스는 소식통을 인용해 "이르면 이번주 말에 투자가 마무리될 수 있다"며 "오픈AI는 새로 확보한 자본의 상당 부분을 엔비디아 칩에 재투자할 예정이지만, 다년간의 투자 파트너십은 진행하지 않을 것"이라고 밝혔다. 이번 오픈AI의 투자 라운드는 1000억 달러 이상을 조달하는 대규모 자금 유치의 일환이다. 신규 자금을 제외한 오픈AI의 기업가치는 7300억 달러로 평가된다. 파티낸셜타임스는 "양사 간 투자 규모 축소는 AI부문의 투자 건전성에 대한 투자자들의 불안감 속에서 나온 것"이라며 "이러한 불안감은 올해 초부터 미국 기술주를 17% 하락시키는 데 일조했다"고 평가했다. 지난해 오픈AI는 엔비디아를 비롯해 AMD, 브로드컴, 오라클 등 주요 기업들과 복잡한 계약 구조를 맺으며 공급사와 고객사, 투자자가 동시에 연결된 '순환거래'라는 논란을 불러일으켰다. 이에 따라 증권가에서는 AI 거품이 형성되고 있다는 우려도 나왔다. 다만 오픈AI에 대한 기업들의 투자는 지속될 전망이다. 소프트뱅크는 오픈AI에 약 300억 달러를, 아마존은 오픈AI 모델 활용을 포함한 광범위한 파트너십의 일환으로 최대 500억 달러를 투자할 가능성이 제기되고 있다. 아부다비 국영 기술 투자 펀드인 MGX와 마이크로소프트도 수십억 달러를 투자할 것으로 예상된다.

2026.02.21 17:43장경윤 기자

엔비디아-메타, 초지능 AI 인프라 구축 맞손

엔비디아가 메타 손잡고 온프레미스와 클라우드를 아우르는 인공지능(AI) 인프라 구축에 나섰다. 엔비디아는 훈련·추론에 최적화된 하이퍼스케일 데이터센터 구축을 위해 메타와 장기 파트너십을 체결했다고 20일 밝혔다. 이번 협력을 통해 엔비디아 중앙처리장치(CPU)와 수백만 대 블랙웰·루빈 그래픽처리장치(GPU)가 도입된다. 메타 페이스북 오픈 스위칭 시스템 플랫폼에는 엔비디아 칩셋과 스펙트럼-X 이더넷 스위치가 통합된다. AI 워크로드 확장에 맞춰 네트워크 효율과 처리량을 개선해 운영 시스템의 완성도를 높일 방침이다. 두 기업은 데이터센터 전력 대비 성능을 개선하기 위해 암(Arm) 기반 엔비디아 그레이스 CPU 배포에 협력하고 있다. 이는 그레이스 단독 아키텍처의 첫 대규모 배포 사례다. 소프트웨어(SW) 최적화 투자를 통해 세대별 성능을 지속적으로 올릴 계획이다. 현재 양사는 내년 차세대 CPU '베라'의 대규모 배포 가능성도 검토 중이다. 엔비디아 컨피덴셜 컴퓨팅 기술까지 도입해 사용자 개인정보 보호와 보안성을 한층 강화할 방침이다. 메타는 업계 선도적인 엔비디아 GB300 기반 시스템을 도입하고 온프레미스와 엔비디아 클라우드 파트너(NCP) 환경을 아우르는 통합 아키텍처를 구축한다. 이를 통해 데이터센터 운영을 간소화하는 동시에 성능과 확장성을 극대화할 수 있을 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "우리는 CPU와 GPU, SW, 네트워킹 전반에 걸친 긴밀한 공동 설계를 진행하고 있다"며 "메타 연구진과 엔지니어들이 차세대 AI 혁신을 위한 기반을 구축할 수 있도록 엔비디아 풀스택 플랫폼을 제공하고 있다"고 밝혔다.

2026.02.20 11:04김미정 기자

AMD, 스타트업에 GPU 판매 위해 대출 보증 선다

AMD가 클라우드 컴퓨팅 스타트업에 GPU를 공급하기 위해 3억 달러(약 4353억원) 규모 대출 보증을 제공할 예정이다. 미국 IT 매체 디인포메이션이 19일(현지시간) 내부 관계자를 인용해 이렇게 보도했다. 디인포메이션에 따르면 AMD는 클라우드 컴퓨팅 스타트업인 크루소에 GPU를 공급하며, 크루소가 AI 개발사 등 고객을 확보하지 못할 경우 GPU를 다시 빌려주는 방식으로 보증할 예정이다. 크루소는 2018년 암호화폐 사업으로 출발해 현재는 AI 클라우드 구축으로 사업 모델을 전환했다. 체이스 록밀러 크루소 CEO는 지난 해 "AMD 최신 GPU를 4억 달러(약 5803억 2000만원) 규모로 도입할 예정"이라고 밝힌 바 있다. 크루소는 미국 오하이오 주 소재 데이터센터에 AMD AI GPU를 설치할 예정이다. 대출 담보는 AMD가 공급하는 GPU와 관련 장비이며 크루소는 이를 통해 대출 금리를 약 6% 수준으로 낮췄다. 디인포메이션은 "AMD의 보증은 금융기관의 리스크를 줄여 자금 조달 조건 개선에 결정적인 역할을 했다"고 평가했다. AMD는 인스팅트 GPU 가속기 판매를 위해 투자 약정도 진행하고 있다. 작년 하반기에는 오픈AI와 다년간 수 조원 규모 GPU 공급 계약을 체결하고 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)도 제공했다. 경쟁사인 엔비디아도 블랙웰 등 GPU를 도입하는 스타트업에 투자하는 방식으로 GPU 판매를 확대하고 있다. 엔비디아 GPU 기반으로 AI 데이터센터 사업을 진행하는 코어위브의 지분을 7% 확보했다.

2026.02.20 09:47권봉석 기자

엔비디아, Arm 주식 110만주 전량 매각... 지분 관계 청산

엔비디아가 영국 Arm 인수를 위해 2020년부터 매입한 주식 중 남아있던 110만 주를 모두 처분했다. 엔비디아는 2020년 9월 400억 달러(약 47조 5000억원)를 투입해 일본 소프트뱅크 그룹이 보유한 Arm을 인수하겠다고 밝힌 바 있다. 그러나 이 같은 시도는 영국 경쟁시장청, 미국 연방거래위원회(FTC) 등 각국 경쟁당국의 심사 단계에서 가로막혔다. 퀄컴과 구글, 마이크로소프트와 아마존, 삼성전자 등 Arm 설계자산을 라이선스해 반도체를 만드는 주요 기업들도 이를 반대했다. 엔비디아와 소프트뱅크 그룹은 2022년 2월 "양사의 선의에도 불구하고 각국 규제로 거래를 완수할 수 없는 중대한 제약사항이 발생했기 때문에 인수-양도 계약을 중단한다"고 밝혔다. 엔비디아는 Arm 대주주인 일본 소프트뱅크 그룹에 위약금으로 12억 5000만 달러(약 1조 4790억원)를 지급했다. 소프트뱅크는 2023년 미국 나스닥 시장에 Arm을 재상장해 투자금을 회수했다. 엔비디아는 16일(현지시간) 1억 4000만 달러(약 2031억 9600만원) 상당 Arm 주식 110만 주를 모두 처분하고 지분관계도 청산했다. 단 엔비디아와 Arm의 협력은 지속될 것으로 보인다. 엔비디아는 2022년 인수 시도 무산 이후에도 Arm과 20년 단위 장기 라이선스 계약을 새로 맺었다. 블랙웰 구동에 쓰이는 그레이스 CPU, 올 하반기 출시될 차세대 GPU 루빈에 쓰이는 베라 CPU 모두 Arm IP 기반이다. 반면 GPU 제어에는 오픈소스 반도체 IP인 리스크파이브(RISC-V)를 활용하는 것으로 알려져 있다.

2026.02.19 10:16권봉석 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

긴장감 커진 중동…네이버·카카오, '핫라인' 켜고 예의주시

CATL·파나소닉도 온다…韓 인터배터리, 글로벌 비즈니스 허브 '우뚝'

뻣뻣해 보이지만…머리는 똑똑한 휴머노이드 로봇

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.