• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (115건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 "한국 반도체 업체와 피지컬 AI 협력 지속"

"한국은 삼성전자, SK하이닉스, 현대차그룹, LG전자 등 세계적 제조기업을 보유한 전략적 거점이다. 엔비디아가 추진하는 디지털 트윈과 피지컬 AI 기반 협력을 주도하는 전초기지 역햘을 수행하고 있다." 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기조연설에서 정소영 엔비디아코리아 대표가 이렇게 설명했다. 이날 엔비디아는 반도체 설계부터 제조까지 산업 전반에 걸친 단계에서 생산성과 효율을 강화할 수 있는 AI 모델과 디지털 트윈 기술을 소개했다. 또 반도체 생태계를 넘어 산업 전반의 혁신 기업으로 역할을 확대해 나가겠다는 비전을 제시했다. 제품 대신 지능 생산하는 'AI 팩토리' 대두 이날 정소영 대표는 AI 시대 산업 패러다임의 전환이 'AI 팩토리'와 '피지컬 AI' 등 두 축을 중심으로 일어나고 있다고 설명했다. 정 대표는 "전통적인 공장은 사람과 자원을 투입해 제품을 생산한 반면 AI 시대의 공장은 데이터와 전기를 투입해 지능(인텔리전스)를 생산하는 공간"이라고 정의했다. 이어 "AI 팩토리에서 생성된 인텔리전스가 반도체·제조·자동차·통신 등 다양한 산업에 접목되며 실질적인 변화를 만들어내고 있다. 이미 글로벌 주요 산업 현장에서 AI 기반 혁신이 가속화되고 있다"고 덧붙였다. 그는 피지컬 AI에 대해 "이는 단순히 로봇을 움직이는 것이 아니라 현실 세계에 존재하는 다양한 물리적 개체(entity)에 지능을 결합해 우리 삶과 생산 현장 전반에 AI의 영향을 확장시키는 단계"라고 밝혔다. "엔비디아, AI 팩토리 구성 인프라 제공" 엔비디아는 2020년대 이후 AI 연산을 수행하는 GPU에 머무르던 것에서 벗어나 AI 처리 인프라를 제공하는 기업으로 포지션 변화를 시도하고 있다. 정소영 대표는 "AI 팩토리는 GPU를 시작으로 클라우드와 온프레미스 데이터센터, 그 위에서 구동되는 AI 모델과 고부가가치 소프트웨어·서비스로 구성된다. 엔비디아는 이런 가속 컴퓨팅 기반을 산업 전반에 제공하는 인프라 기업"이라고 말했다. 이어 "올 하반기 출시할 차세대 GPU 플랫폼 '베라 루빈'은 베라 CPU, 루빈 GPU와 네트워킹 칩, 스위치 등 6개 요소를 동시 개발하고 최적화하며 AI 플랫폼을 구현중"이라고 덧붙였다. "CPU 대신 GPU 활용해 소요시간 단축" 엔비디아는 CPU 대신 GPU를 활용하는 쿠다(CUDA)-X 라이브러리로 고성능·장시간 연산이 필요한 산업계 과제의 소요 시간 단축을 제공하고 있다. 2023년 엔비디아가 개발한 소프트웨어 라이브러리인 cu리소(cuLitho)는 반도체 식각 공정에 쓰이는 포토마스크 설계 시간을 크게 단축한다. 기존 CPU로 2주 이상 걸리던 연산 시간을 하루 내외로 줄였다. 정소영 대표는 "주요 반도체 소자를 시뮬레이션하는 TCAD, 리소그래피, 전자설계자동화(EDA) 등 반도체 전 분야에 AI 기반 모델이 적용된다. 삼성전자·SK하이닉스 등 국내 주요 업체도 설계 시간 단축, 시뮬레이션 고도화 등을 추진중"이라고 밝혔다. 시뮬레이션 플랫폼 '옴니버스', 반도체 생산 자동화 가속 엔비디아는 현실 세계 물리 법칙과 환경을 시뮬레이션 할 수 있는 플랫폼 '옴니버스'를 피지컬 AI 구현에 활용하고 있다. 자율주행차와 휴머노이드 로봇, 자율이동로봇(AMR) 등 다양한 장비 개발 소요 시간을 단축하고 정밀도를 높일 수 있다. 정소영 대표는 옴니버스 활용 사례로 "어플라이드 머티어리얼즈(AMAT)와는 디지털 트윈 기반 생산 공정 제어에 협력하고 있고 램리서치 및 LG디스플레이 등과도 협업을 확대하고 있다"고 설명했다. 정 대표는 "반도체 산업은 축적된 방대한 부품·공정 데이터를 보유하고 있어 AI 에이전트를 통한 자동화와 EDA 가속화에 유리하다. 실제로 아드반테스트와 AI 에이전트를 활용한 제품 테스트 자동화도 공동 개발 중"이라고 밝혔다.

2026.02.11 15:41권봉석 기자

[유미's 픽] 李 'AI 고속도로'가 바꾼 판…정부 GPU 지원, 스타트업 실험에 불 붙였다

'인공지능(AI) 고속도로' 구축을 위해 이재명 정부가 추진해온 고성능 그래픽처리장치(GPU) 지원 사업이 국내 AI 스타트업 생태계 조성에 실질적인 역할을 했다는 평가가 나오고 있다. 대규모 연산 자원이 필수적인 파운데이션 모델 개발과 차세대 AI 구조 연구에서 초기 자본이 부족한 스타트업들도 정부 덕에 기술 실험을 지속할 수 있는 토대가 마련됐다는 분석이다. 10일 업계에 따르면 트릴리온랩스는 지난해 9월부터 4개월여간 정부로부터 엔비디아 H200 GPU 80장 규모의 고성능 연산 자원을 지원받아 차세대 AI 구조 연구를 진행했다. 이를 통해 초거대 모델 학습뿐 아니라 기존 트랜스포머 구조의 연산 효율을 개선하기 위한 신규 아키텍처 실험과 대규모 검증을 병행할 수 있는 환경을 구축했다. 이 연산 인프라는 구체적인 기술 성과로도 이어졌다. 트릴리온랩스는 지원받은 GPU 자원을 활용해 지난 달 디퓨전 기반 대규모 언어 모델 '트리다(Trida)-7B'를 개발했다. '트리다-7B'는 단어를 하나씩 순차적으로 생성하는 기존 방식에서 벗어나 문장 전체를 병렬로 생성하는 확산(diffusion) 기법을 언어 모델에 적용한 것이 특징이다. 또 이미지 생성에 주로 활용되던 디퓨전 기술을 언어 모델 구조에 이식함으로써 추론 속도와 연산 효율을 동시에 끌어올렸다. 이와 함께 지난해 10월에는 소규모 프록시 모델을 활용해 대형 언어모델의 성능을 사전에 예측하는 '알브릿지(rBridge)' 기법도 개발했다. 실제 대형 모델을 반복 실행하지 않고도 성능을 가늠할 수 있는 구조로, 연산 효율을 최대 700배 이상 개선하고 거대언어모델(LLM) 개발 비용을 대폭 절감할 수 있는 가능성을 제시했다. 대규모 모델 학습에 앞서 시행착오를 줄일 수 있다는 점에서 파운데이션 모델 개발 방식 자체를 바꿀 수 있는 접근으로 평가된다. 업계에선 이러한 성과가 단순한 개별 기술 개발을 넘어 AI 연구·개발의 비용과 시간, 자원 구조를 근본적으로 재설계했다는 점에 주목하고 있다. 대형 모델을 '더 많이 돌리는 방식'이 아니라 '덜 돌리고도 더 많이 검증하는 방식'으로 전환할 수 있는 가능성을 보여줬다는 점에서다. 이는 스타트업이 제한된 자원 환경에서도 고난도 연구를 지속할 수 있는 실질적인 해법으로 꼽힌다. 이 같은 결과 뒤에는 과학기술정보통신부와 정보통신산업진흥원(NIPA)의 지원 방식도 한 몫 했다는 평가다. 앞서 정부는 삼성SDS·KT클라우드·엘리스클라우드를 '고성능컴퓨팅 지원사업' 공급사로 선정한 후 지난해 9월부터 12월까지 국내 민간 중소·중견·스타트업 기업과 대학·병원·연구기관 등에 총 1천 장의 GPU를 지원했다. 당시 삼성SDS와 엘리스그룹은 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급했다. 당시 정부에선 그간 단순히 GPU를 일괄 배분하는 데 그치지 않고 연구 단계와 실험 난이도에 맞춰 자원 활용 계획을 조정하며 과제 수행 전반을 관리했다. 또 개발 과정에서 발생하는 변수에 따라 지원 방식을 유연하게 조정하고 현장의 피드백을 즉각 반영하는 방식으로 연구 완성도를 높였다. 이 과정에서 정부는 단순한 예산 집행 기관을 넘어 프로젝트의 '내비게이터' 역할을 수행하며 실질적인 성과를 견인했다는 평가를 받았다. 또 단순히 규모가 큰 기업이 아닌, 독보적인 기술력과 성장 잠재력을 보유한 스타트업을 정밀하게 선별해 과제 수행 기업으로 낙점하려는 노력이 참여 기업으로부터 큰 호응을 얻었다. 업계 관계자는 "정부가 행정적 관리에 그치지 않고 모델 출시 과정에서 발생하는 변수에 맞춰 지원 체계를 업데이트했다"며 "현장의 목소리를 즉각 반영해 모델의 완성도를 높이는 실질적인 가이드도 제공해줬다"고 말했다.이어 "무한정한 지원 대신, 한정된 예산 내에서 최선의 결과물을 낼 수 있도록 목표 난이도를 정교하게 조정해준 점도 인상 깊었다"며 "이를 통해 자원의 낭비를 막고 효율적인 사용 위에 최대의 성과를 이끌어냈다"고 덧붙였다. 트릴리온랩스 역시 정부 인프라 지원을 발판 삼아 국내에서 시도된 적 없는 기술 실험을 진행할 수 있었다고 평가했다. 독자적인 모델 구조와 학습 기법을 실제 대규모 환경에서 반복 검증하며 스타트업이 겪는 컴퓨팅 파워 한계를 일정 부분 극복할 수 있었다는 것이다. 신재민 트릴리온랩스 대표는 "정부의 GPU 지원 사업이 단순한 인프라 제공을 넘어 기술 기업의 도전 방식을 바꿨다"며 "자본력보다 기술적 실험과 구조 혁신에 집중할 수 있는 조건을 마련했다는 점에서 국내 AI 생태계에 미친 영향이 적지 않다"고 강조했다. 이 같은 분위기 속에 정부가 추가경정예산으로 확보한 고성능 GPU 자원으로 어떤 AI 연구 기관, 기업들이 수혜를 받을지 관심이 쏠린다. 정부는 총 1만3천136장 규모의 GPU를 최대 12개월까지 이용할 수 있도록 한 사업을 공고한 후 지난 달 28일 마감했다. 이번에는 학계·연구기관은 무상으로, 산업계는 자부담 방식으로 지원받는 구조다. 구축·운영은 민간 클라우드 3사가 맡는다. 네이버클라우드는 세종 데이터센터에 H200 2296장을 안착시켰고, 카카오는 안산 데이터센터에 B200 2040장을 클러스터 형태로 구축했다. NHN클라우드는 3월께 B200 6120장을 갖출 계획이다. 정부는 이 사업에 예산 1조4590억원을 투입했다. 이번 프로젝트는 과제별로 H200, B200 중 하나만 신청할 수 있다. 신청은 서버 묶음 기준으로 이뤄진다. H200은 최소 서버 2대(16장)에서 최대 서버 32대(256장)까지, B200은 최소 서버 2대(16장)에서 최대 서버 16대(128장)까지다. 조만간 선정될 수요 기업은 원격 접속 방식인 GPUaaS(GPU as a Service)로 고성능 컴퓨팅 자원을 손쉽게 이용할 수 있다. 정부가 고수한 '1사 1지원' 원칙을 사실상 폐기해 중복 신청 문턱이 낮아진 점도 눈에 띈다. 이 일로 동일 기업 내 복수 부서도 각각 GPU 자원을 확보할 수 있게 됐다. 다만 연구 인력의 독립성과 과제 주제는 차별돼야 한다. 여기에 정부는 지난해 확보한 1만3000장에 이어 올해는 B200 기준 1만5000장을 투입해 지원 범위를 넓힐 계획이다. 이를 구축하기 위해 총 2조831억원(출연금)이 투입될 이번 사업 공고는 이달 중 나올 예정으로, 과기정통부 단일 사업 기준 최대 규모 프로젝트로 평가된다. 또 단일 사업자가 전체 물량을 감당하기 어려운 만큼, 사업 구조 자체를 어떻게 설계할지가 관건이 될 전망이다. 과기정통부 관계자는 "주요 클라우드 서비스 제공업체(CSP)들과 면담한 결과 데이터센터 상면(물리적 수용 공간) 확보는 어느 정도 가능한 수준으로 파악됐다"며 "최신 GPU를 확보하는 것이 유리한 만큼 엔비디아 차세대 AI 칩 '베라루빈'을 업체들이 제안할 경우 가점을 줄 지에 대한 방안에 대해선 고민 중"이라고 밝혔다. 업계에선 정부의 고성능 연산 인프라 지원이 일회성 사업에 그치지 않고 파운데이션 모델·신규 아키텍처·산업 특화 AI로 이어지는 연속적인 연구 생태계로 정착할 수 있을지가 향후 사업 성공 여부의 관건이 될 것이라고 전망했다. 업계 관계자는 "특히 연산 자원 접근성이 기술 경쟁력으로 직결되는 AI 산업 특성을 감안할 때 정부의 GPU 지원 정책이 국내 스타트업들의 글로벌 도전 여력을 좌우하는 핵심 변수로 작용할 것으로 예상된다"며 "단기 성과보다 중장기 연구 축적이 가능한 구조로 설계될 경우 정부 지원이 국내 AI 산업의 체질을 바꾸는 계기가 될 수 있다"고 말했다.

2026.02.10 11:43장유미 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

엔비디아, 2028년 GPU '파인만' 생산에 인텔과 협력설

엔비디아가 차세대 GPU '파인만' 생산에 필요한 반도체 중 일부를 인텔 파운드리에서 만들 수 있다는 관측이 나왔다. 대만 디지타임스는 28일 "엔비디아가 도널드 트럼프 2기 행정부의 미국 투자 확대와 관세 등 정치적 압박을 피하기 위해 인텔 파운드리와 협력할 계획을 가지고 있다"고 전했다. 엔비디아는 모든 구성 요소를 한 파운드리에서 모두 생산해 왔다. 현재까지 대만 TSMC 중심으로 유지돼 온 엔비디아의 파운드리 전략이 변화할 수 있다는 점에서 눈길을 끈다. 다만 인텔의 첨단 공정 성숙도와 비용 구조, 미국 내 정치적 문제 등 여러 변수가 얽혀 있어 양사 협력이 실제 실현될 지는 미지수다. 디지타임스 "엔비디아, 파인만 I/O 다이 인텔에 맡긴다" 디지타임스에 따르면 엔비디아는 2028년 출시할 GPU 아키텍처 '파인만' 구성에 필요한 반도체 중 GPU간 통신, 메모리 입출력과 관련된 I/O 다이(Die)를 인텔에서 생산할 예정이다. 핵심 연산을 담당하는 GPU 다이는 기존처럼 TSMC 생산을 유지한다. 디지타임스는 I/O 다이를 생산할 후보 공정으로 1.8나노급 인텔 18A(Intel 18A)나 2028년 본격 가동될 1.4나노급 인텔 14A(Intel 14A)를 거론했다. 디지타임스는 "TSMC가 생산한 GPU와 인텔이 생산한 I/O 다이가 인텔 평면 반도체 연결 기술인 EMIB으로 연결된다. 또 파인만 최종 패키징 공정 중 25%는 인텔이 미국에서, 75%는 대만에서 TSMC가 처리할 것"이라고 주장했다. 1.8나노급 인텔 18A, 외부 고객사 비중은 미미 단 디지타임스가 거론한 인텔 18A 공정은 외부 고객사보다는 내부 고객사, 다시 말해 인텔 PC·서버 생산 용도에 치중한 공정이다. 인텔 역시 "인텔 18A 공정의 주된 고객사는 인텔 자신"이라고 설명해 왔다. 인텔 18A 공정을 거칠 PC용 프로세서로는 이 달부터 본격 공급에 들어간 코어 울트라 시리즈3(팬서레이크)를 포함해 올 하반기 공개될 데스크톱 PC·노트북용 노바레이크(Nova Lake) 등이 예정됐다. 서버용으로는 제온6+(클리어워터 포레스트)를 포함해 다이아몬드래피즈, 코랄래피즈 등이 인텔 18A를 활용할 예정이다. 반대로 인텔이 직접 밝힌 인텔 18A 공정 외부 고객사는 AWS(아마존웹서비스), Arm 등 극소수에 그친다. 1.4나노급 인텔 14A, 단가·수율 등 여전히 미지수 디지타임스가 후보로 거론한 또다른 공정인 인텔 14A 공정은 시작부터 외부 고객사 요구사항에 맞춘 공정이다. 그러나 단가나 비용 효율성, 수율 면에서 아직 충분히 검증되지 않았다. 인텔 역시 시설 투자 규모조차 결정하지 못한 상태다. 또 입출력을 관리하는 I/O 다이는 단가나 비용 효율성, 수율 등을 고려해 충분히 성숙된 공정을 활용하는 것이 일반적이다. 현재 엔비디아 주력 GPU인 블랙웰 역시 I/O 다이에 5나노급 N5 공정을 개량한 N4P 공정을 활용한다. 작년 9월 데이비드 진스너 인텔 최고재무책임자(CFO)는 "인텔 14A 공정 생산 단가는 고개구율(High-NA) 극자외선(EUV) 활용으로 비싸질 것"이라고 밝힌 바 있다. 엔비디아가 I/O 다이 생산에 인텔 14A 공정을 선택할 경우 원가 상승은 불가피하다. 단 엔비디아 GPU는 현재 사실상 과점 상태에 있으며 주요 기업들이 단가 상승을 감수할 요인도 분명하다. 트럼프 행정부 압박, 11월 이후 지속 여부 불투명 디지타임스는 엔비디아-인텔 협력설 배경으로 미국 정부의 정치적 압력을 들었다. 도널드 트럼프 2기 행정부는 작년 9월 인텔에 89억 달러(약 12조 3천247억원)를 투자하고 1대 주주로 올라선 한편 대만 등에는 미국 내 반도체 생산시설 투자를 종용하고 있다. 단 지난 해 초 취임 이후 47%로 시작한 트럼프 2기 행정부 지지율은 최근 최저치인 38%대까지 내려왔다. 미국 미네소타주 미니애폴리스에서 진행된 이민 단속 작전에서 민간인 희생자가 발생한 여파로 해석된다. 이는 오는 11월 미국 상/하원 의원, 주지사 등을 선출하는 중간선거에도 적지 않은 영향을 미칠 것으로 보인다. 중간 선거 결과에 따라 트럼프 2기 행정부의 기조가 바뀐다면 엔비디아가 굳이 비용 부담이 큰 선택을 할 이유도 줄어든다. 인텔 14A 고객사 윤곽, 올 하반기 확정 전망 디지타임스의 엔비디아-인텔 협력설 실현 여부는 올 하반기에 판가름날 것으로 보인다. 반도체 업계 통례에 따르면 제품 개발부터 출시까지는 평균 2년 가량 걸린다. 엔비디아 역시 올 상반기, 늦어도 올 3분기 안에는 차기 GPU 구성 요소 중 어느 부분을 어떤 파운드리에 맡길 지 선택해야 한다. 립부 탄 인텔 CEO는 지난주 2025년 4분기 실적발표 이후 컨퍼런스 콜에서 "외부 고객사가 인텔 14A의 성능, 수율, 설계자산(IP) 준비 상황을 종합적으로 평가하고 있으며 이 과정이 올 하반기까지 계속될 것"이라고 설명했다. 인텔 관계자는 29일 디지타임스발 보도 관련 실현 가능성, 논의 진척 사항 등 지디넷코리아 질의에 "시장의 루머에 답변하지 않는다"고 회신했다.

2026.01.29 10:05권봉석 기자

엔비디아, Arm 윈도 PC 칩 'N1X/N1' 상반기 출시하나

엔비디아가 2024년 하반기부터 대만 팹리스 미디어텍과 개발을 시작한 윈도 PC용 Arm 기반 시스템반도체(SoC)인 N1X/N1이 올 상반기 안에 정식 제품으로 등장할 수 있다는 전망이 나왔다. N1X/N1은 고성능 CPU 코어와 블랙웰 GPU를 결합한 SoC로, 엔비디아 개인용 AI 워크스테이션 'DGX 스파크' 등에 에 적용된 GB10과 유사한 구성이다. 기존 Arm 윈도 노트북의 한계로 지적돼 온 그래픽 성능을 대폭 끌어올릴 수 있다. 대만 디지타임스는 엔비디아가 오는 3월 'GTC 2026' 행사에서 N1X/N1을 정식 공개하고, 6월 '컴퓨텍스 타이베이 2026' 행사 중 실제 제품을 공개할 가능성이 높다고 짚었다. 그러나 게임과 안티치트 등을 포함한 소프트웨어 호환성이 최대 변수로 꼽힌다. 2024년 하반기부터 N1/N1X 개발설 흘러나와 엔비디아가 대만 팹리스 미디어텍과 협력해 윈도 PC용 Arm 칩을 개발중이라는 루머는 2024년 하반기부터 대만 내 공급망을 중심으로 간헐적으로 흘러나왔다. 엔비디아가 개발중인 칩은 ▲ Arm 코어텍스(Cortex)-X925 CPU 코어 10개, 저전력·고효율 코어텍스-A725 코어 10개와 블랙웰 GPU를 결합한 'N1X' ▲ 코어 수를 줄이고 GPU 성능도 낮춘 'N1' 등 두 개다. 이 중 CPU와 GPU는 지난해 4분기부터 우분투 리눅스 기반 'DGX OS'를 탑재하고 시장에 출시된 개인용 AI 워크스테이션 'DGX 스파크' 내장 GB10과 거의 구성이 같은 것으로 알려져 있다. 작년 컴퓨텍스 공개는 불발... 벤치마크 수치는 노출 작년 5월 '컴퓨텍스 타이베이 2025' 개최를 앞두고 엔비디아와 미디어텍 두 회사가 N1X/N1 칩을 공개할 수 있다는 전망도 나왔다. 그간 컴퓨텍스를 포함해 공개석상에 등장하지 않았던 차이리싱(蔡力行) 미디어텍 CEO가 기조연설에 나섰다는 사실 때문이다. 그러나 엔비디아 기조연설이나 미디어텍 기조연설에서 N1X나 N1 관련 내용은 등장하지 않았다. 차이리싱 미디어텍 CEO와 젠슨 황 엔비디아 CEO도 GB10 관련 내용만 소개하는 데 그쳤다. 이후 작년 7월에는 N1X 칩 성능을 Arm용 윈도11에서 실행한 결과가 공개되기도 했다. CPU 성능은 인텔 14세대급 프로세서와, 내장 GPU 성능은 인텔 코어 울트라 시리즈3의 Xe3와 비슷할 것으로 예상된다. 디지타임스 "2분기부터 실제 제품 등장 전망" 대만 디지타임스는 지난 19일 공급망 관계자를 인용해 "엔비디아 N1X 칩 기반 노트북이 이르면 올 1분기 시장에 출시되고 2분기부터 본격적으로 시장에 공급될 것"이라고 보도했다. 실제로 작년 11월 경 주요 PC 제조사인 델테크놀로지스가 엔비디아 N1X 기반 '델 16 프리미엄' 노트북 시제품을 운송했다는 기록이 드러나기도 했다. 또 레노버도 최근 게이밍 노트북 '리전'에 탑재되는 소프트웨어인 '리전 스페이스' 관련 기술지원 문서에 'Legion 7 15N1X11'이라는 미출시 제품 명칭을 표기했다. 이는 '15인치 디스플레이와 엔비디아 N1X를 탑재한 리전 7 노트북'으로 해석될 수 있다. 이를 종합하자면 엔비디아가 오는 3월 중순 미국 새너제이에서 진행될 컨퍼런스 'GTC 2026'에서 N1X/N1칩을 공개하고, 6월 초순 대만에서 진행될 '컴퓨텍스 타이베이 2026'에서 실제 제품을 출시하는 스케줄로 이어질 수 있다. 게임 호환성이 관건... 최근 Arm용 X박스 앱 공개 엔비디아 N1X/N1 SoC는 현재까지 출시된 노트북용 SoC 중 그래픽 성능 면에서 최상위에 있다. Arm 진영에서는 배터리 지속시간과 휴대성이 중요한 업무용 노트북 수요가 퀄컴 스냅드래곤 X 엘리트로, 게임용 고성능 노트북은 엔비디아 N1X로 양분될 가능성도 있다. 그러나 오히려 GPU 성능보다는 주로 게임이나 안티치트 등 소프트웨어 호환성이 더 큰 문제가 될 것으로 보인다. 엔비디아에 한 발 앞서 Arm 윈도 PC 시장에 참여한 퀄컴도 별도 조직을 만들고 호환성 문제를 해결하는 데 10여 년 가량을 투자했다. 특히 GPU 등에 직접 접근해야 하는 게임 특성상 여러 문제가 발생할 수 있다. 다만 지난 21일 마이크로소프트가 Arm용 X박스 앱을 공개했고 X박스 게임 패스 카탈로그에 등록된 게임 중 85% 가량이 현재 Arm용 윈도11을 지원한다. 엔비디아가 자체 운영하는 클라우드 게이밍인 '지포스 나우'를 Arm용으로 개발하는 방안도 있다.

2026.01.26 16:39권봉석 기자

인텔, 퀄컴 '아드레노' GPU 설계 주역 에릭 데머스 영입

인텔이 데이터센터·서버용 GPU 전략 타개를 위해 AMD-퀄컴 출신 GPU 전문가 에릭 데머스(Eric Demers)를 영입했다. 에릭 데머스 수석부사장은 2012년부터 최근까지 퀄컴에서 수석부사장(SVP)으로 재직하며 퀄컴 스냅드래곤 시리즈에 내장되는 모바일용 GPU인 '아드레노(Adreno)'에 깊게 관여한 전문가다. 2020년 이후 AI GPU 시장에서 고전중인 인텔은 조직 개편과 로드맵 수정에도 불구하고 데이터센터용 AI GPU 시장에서 존재감을 회복하지 못했다. GPU 아키텍처 설계와 조직 운영 역량을 갖춘 전문가를 통해 기술적 방향성과 실행력을 동시에 강화하겠다는 의도로 보인다. 에릭 데머스, 작년 11월 퀄컴 행사에 등장 에릭 데머스는 2000년대 초반부터 ATI(AMD에 피인수), AMD 등을 거치며 그래픽관련 하드웨어와 소프트웨어 설계를 도맡은 전문가다. 가장 최근까지 몸담은 곳은 퀄컴으로 2012년 3월부터 지난 주까지 수석부사장(SVP)으로 재직했다. 에릭 데머스는 지난 해 11월 퀄컴이 미국 캘리포니아 주 샌디에이고에서 진행한 기술 행사 '스냅드래곤 X 엘리트 딥 다이브' 행사에서 스냅드래곤 X2 엘리트/익스트림 내장 GPU에 대해 설명하기도 했다. 그는 당시 "14년 전에 퀄컴에 합류해서 3세대 아드레노 GPU를 처음 만들었고 아드레노 X2는 퀄컴이 지금까지 만든 GPU 중 가장 크고 빠른 제품"이라고 강조하기도 했다. "이번 주부터 인텔서 수석부사장으로 근무" 16일(이하 현지시간) 미국 CRN에 따르면, 에릭 데머스는 이번 주부터 인텔에서 수석부사장으로 AI 처리 성능에 중점을 두고 GPU 엔지니어링 조직을 이끌 예정이다. 에릭 데머스 수석부사장은 자신의 링크드인 계정을 통해 "지난 몇 달간 립부 탄 인텔 CEO와 조직 내 몇몇 수장을 만났고 2025년 동안 일어났던 여러 사건 이후에도 CEO에 대한 확신과 긍정적인 전망에 깊은 인상을 받았다"고 설명했다. 이어 "새로운 인텔에서 일하고 지속적인 전환 과정에 참여할 수 있다는 점에서 기대감이 크다. 당분간 원격근무 예정이지만 다친 어깨가 낫는 대로 여러 팀을 방문할 것"이라고 덧붙였다. 인텔, 최근 수 년간 AI GPU 가속기 분야서 고전 인텔의 AI GPU 가속기 전략은 제품과 조직 모두 현재 매우 불안정한 상태다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품으로 출발했다. 그러나 이는 GPU만 조합한 제품으로 퇴보했고 지난 해 2월에는 이마저도 출시를 포기했다. 인텔 로드맵대로라면 올해는 서버용 GPU '재규어 쇼어'를 출시 예정이지만 시제품이나 구체적인 제원 중 어느 것도 드러나지 않았다. 지난 해 10월에는 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 올해 안에 시제품 공급을 선언했지만 이 역시 불투명하다. 에릭 데머스 구심점으로 AI·GPU 전략 재정비 전망 립부 탄 CEO는 지난 해 3월 취임 이후 데이터센터와 묶여 있던 AI 부문을 독립 조직으로 분리하고 사친 카티를 최고 기술 및 AI 책임자(CTO)로 선임하기도 했다. 그러나 사친 카티는 지난 해 11월 오픈AI로 이적했다. 인텔은 에릭 데머스 영입을 통해 엔비디아와 AMD 대비 뒤처진 AI GPU 가속기 전략과 로드맵 등 재정비에 나설 것으로 보인다. GPU가 수행할 수 있는 여러 분야 중 AI에 중점을 뒀다는 면에서 특히 그렇다. 시장조사업체 무어인사이트 소속 안셸 색 수석 분석가는 "에릭 데머스의 이적은 사람들의 생각보다 큰 의미가 있다. 그는 임원인 동시에 GPU 구조를 백지 상태부터 시작해 완전히 만들 수 있는 수준의 아키텍트"라고 평가했다. 인텔, 과거에도 엔비디아·AMD 등 경쟁사 임원 영입 인텔은 에릭 데머스 이전에도 AMD와 엔비디아 등 GPU 경쟁사의 임원들을 다수 영입했다. 가장 대표적인 인물은 애플과 AMD를 거쳐 2017년 11월 인텔로 이적했던 라자 코두리다. 그는 노트북부터 서버까지 커버할 수 있는 그래픽 구조인 Xe 아키텍처를 개발하고 2022년 1월 가속 컴퓨팅 시스템·그래픽 그룹(AXG) 수장까지 올랐다. 라자 코두리는 2023년 초 인텔을 떠난 후 비슷한 커리어 경로를 거친 짐 켈러가 이끄는 RISC-V(리스크파이브) 기반 팹리스인 텐스토렌트 이사회에 이름을 올렸다. 2019년 엔비디아에서 인텔로 이적한 톰 피터슨 그래픽 및 소프트웨어 아키텍처 부문 펠로우는 인텔이 주최하는 여러 행사에서 GPU 관련 기술적인 해설에 꾸준히 나서고 있다.

2026.01.19 16:42권봉석 기자

"엔비디아 中 AI 가속기 시장 점유율, 66%→8% 떨어질 것"

중국 내 AI 가속기 시장에서 엔비디아 점유율이 8%대까지 떨어질 수 있다는 전망이 나왔다. 미국 정부의 첨단 반도체 수출 규제와 중국 업체들이 자체 설계한 추론 반도체 성장으로 엔비디아 의존도가 떨어질 수 있다는 것이다. 16일 닛케이 아시아는 글로벌 투자은행 번스타인 보고서를 인용해 "과거 중국 내 AI 가속기 시장에서 엔비디아 점유율은 66%였지만 앞으로 수년 내 8%까지 떨어질 수 있다"고 보도했다. 번스타인 보고서에 따르면 중국 내 반도체 제조사들은 AI 관련 GPU와 각종 가속기를 자체 개발하고 있으며 자국산 업체들의 점유율이 80%를 넘어설 수 있다. 실제로 현재 중국 내에서는 화웨이와 함께 무어스레드 등 두 업체가 두각을 나타내고 있다. 최근 중국 내 대표적 AI 스타트업으로 꼽히는 지푸AI는 화웨이 어센드 칩만 활용해 멀티모달 AI 모델을 훈련하는 데 성공하기도 했다. 미국 정부는 2020년 이후 중국 시장 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제를 지속적으로 강화하고 있다. 2022년 10월 조 바이든 행정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 당시 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 지난 해 초 출범한 도널드 트럼프 2기 행정부는 이를 한층 강화했다. 지난 13일 미국 정부는 블랙웰 아키텍처 기반 H200 칩의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 하지만 이번에는 중국 정부가 H200 구매를 제한하고 있다. 미국의 수출 제한 조치는 중국 시장에서 엔비디아의 경쟁력을 약화시키고 있다. 젠슨 황 엔비디아 CEO는 여러 공개 석상에서 기회가 있을 때마다 이와 관련된 발언을 내놓고 있다. 젠슨 황 CEO는 작년 5월 컴퓨텍스 타이베이 2025 기간 중 기자간담회에서 "중국은 세계 AI 연구자의 50%가 모여 있고, 세계 2위 컴퓨터 시장이지만 이를 다루는 미국 정부의 정책은 잘못됐다"고 비판했다. 지난 해 10월 진행된 컨퍼런스에서는 한 발 더 나아가 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다. 현재 중국 사업은 개점휴업 상태"고 밝히기도 했다.

2026.01.18 12:20권봉석 기자

오픈AI, 세레브라스와 14조원 규모 컴퓨팅 계약…"엔비디아 의존 낮춘다"

오픈AI가 차세대 인공지능(AI) 서비스 경쟁력 강화를 위해 대규모 컴퓨팅 인프라 확충에 나섰다. 반도체 스타트업 세레브라스와 수십억 달러 규모 장기 계약을 체결하며 AI 추론 속도와 서비스 확장성을 동시에 끌어올린다는 전략이다. 15일 블룸버그통신에 따르면 오픈AI는 세레브라스와 다년간 협력 계약을 체결하고 총 750메가와트(MW) 규모 컴퓨팅 파워를 공급받기로 했다. 해당 인프라는 단계적으로 구축되며 완공 목표 시점은 2028년이다. 계약 규모는 100억 달러(약 14조원)를 웃도는 것으로 알려졌다. 이번 계약은 오픈AI가 챗GPT 등 자사 AI 모델 응답 속도를 개선하려는 조치로 풀이된다. 양사는 공동 성명을 통해 세레브라스 인프라가 오픈AI 모델 실행 시 지연 시간을 줄이고 대규모 사용자 유입에 대비한 안정적인 서비스 운영을 가능하게 할 것이라고 밝혔다. 세레브라스는 초대형 단일 칩을 기반으로 한 독자적 반도체 아키텍처를 앞세워 엔비디아 중심 그래픽처리장치(GPU) 시장에 도전하고 있는 기업이다. 데이터센터 운영까지 직접 수행하며 AI 추론 분야 경쟁력을 강조해 왔다. 협약 배경에 대해 오픈AI는 'GPT-OSS-120B' 모델 테스트에서 세레브라스 시스템이 기존 하드웨어 대비 최대 15배 빠른 성능을 보였다고 설명했다. 오픈AI의 대규모 인프라 투자는 이번이 처음이 아니다. 엔비디아는 지난해 오픈AI에 최대 1천억 달러(약 146조원)를 투자해 10기가와트(GW)급 데이터센터 구축을 추진하겠다고 밝혔으며 AMD 역시 수년간 6GW 규모 GPU를 공급하기로 했다. 이와 별도로 오픈AI는 브로드컴과 자체 AI 칩 개발도 진행 중이다. 업계에서는 이번 계약을 오픈AI가 컴퓨팅 포트폴리오를 다각화하는 전략의 일환으로 보고 있다. 오픈AI는 특정 하드웨어에 대한 의존도를 낮추고 워크로드 특성에 맞는 최적의 시스템을 조합해 AI 서비스 확장성을 높인다는 목표다. 오픈AI 사친 카티 컴퓨팅 인프라 담당은 "세레브라스는 우리 플랫폼에 저지연 추론 솔루션을 더해 더 빠른 응답과 자연스러운 상호작용을 가능케 한다"며 "더 많은 사람에게 실시간 AI를 확장할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.01.15 11:29한정호 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

삼성SDS, 엔비디아·오픈AI 협력 빛 본다…"올 1분기 성과"

[라스베이거스(미국)=장경윤 기자] 삼성SDS가 올해 'AI 에이전트' 서비스 사업 확대에 속도를 낸다. 다양한 클라우드 플랫폼과 엔비디아 B300으로 구축한 AI 인프라 서비스를 다음달 시작하는 한편, 국내 기업 최초로 오픈AI와 협업한 '챗GPT 엔터프라이즈'도 이르면 이달 가시적인 성과가 나올 전망이다. 이준희 삼성SDS 대표는 7일(현지시간) 미국 라스베이거스 컨벤션센터(LVCC) 내 전시관에서 향후 사업 전략 및 전망에 대해 이같이 밝혔다. 엔비디아 B300 수백 장 도입…오픈AI 협업도 "이달 가시적 성과" 삼성SDS는 AI 에이전트를 안정적으로 제공하기 위해 AI 인프라·AI 플랫폼·AI 솔루션을 모두 아우르는 'AI 풀스택' 서비스를 목표로 하고 있다. 이 중 AI 인프라 영역에서는 자사 클라우드인 '삼성 클라우드 플랫폼(SCP)'을 중심으로, 아마존웹서비스(AWS)·마이크로소프트 애저(Microsoft Azure)·구글클라우드플랫폼(GCP), 오라클 클라우드 인프라스트럭처(OCI) 등 글로벌 클라우드 서비스를 고객 환경에 맞춰 유연하게 제공한다. 또한 엔비디아(NVIDIA)와의 협력을 통해 최신 GPU인 B300 모델을 선제적으로 도입했다. 이 대표는 "수백 장의 B300을 도입해 다음달까지 준비를 마치고 AI 인프라 서비스를 출시할 예정이다. 수요를 보면서 더 투자를 확장하게 될 것"이라고 말했다. AI 플랫폼 분야에서는 삼성SDS의 생성형 AI 플랫폼 '패브릭스(FabriX)'를 통해 삼성 거대언어모델(LLM)은 물론 주요 글로벌 언어 모델을 통합 제공하고 있다. 특히 지난해 말에는 국내 기업 최초로 오픈AI의 '챗GPT 엔터프라이즈' 리셀러 파트너 계약을 체결해, 기업용 생성형 AI 서비스를 제공할 수 있게 됐다. 이 대표는 "지난해 말 오픈AI와 계약을 체결했고, 조금 전부터 시작해서 당사의 잠재 고객들에게 소개를 했다"며 "예상보다 훨씬 더 많은 기업들이 관심을 보여 빠르면 이달 내, 혹은 1분기 내에는 상당히 가시적인 성과가 나타날 것으로 기대하고 있다"고 강조했다. AI 솔루션, 글로벌 무대서 활약 기대 AI 솔루션은 글로벌 시장에서의 성과가 기대된다. 대표적으로 삼성SDS의 구매공급망관리(SRM) SaaS는 지난해 유수의 서버·PC 고객사 3곳에 공급을 진행해, 현재 UAT(최종 테스트)를 진행 중이다. 이와 관련해 송해구 솔루션사업부장(부사장)은 "조만간에 고 라이브(Go live; 서비스 배포)'를 할 것 같고, 이후에 고객사 이름 등도 공개할 수 있을 것 같다"며 "또한 1분기 내에 또 하나의 전기·공조 제조사하고도 계약을 앞두고 있다"고 말했다. 한편 전남 해남에 구축 중인 국가 AI컴퓨팅센터는 올 하반기부터 착공이 시작될 것으로 예상된다. 현재 삼성SDS는 네이버클라우드, 지자체와 컨소시엄을 구성해 현지에 국가 AI 컴퓨팅센터 구축을 추진하고 있다. 오는 2028년까지 첨단 GPU 1만5천장을 확보해 2029년 오픈하는 것이 목표다.

2026.01.08 04:46장경윤 기자

머스크 xAI, 엔비디아 등서 29조원 규모 투자 유치

인공지능(AI) 스타트업 xAI가 엔비디아 등을 포함한 투자자들로부터 200억 달러(약 29조원) 규모의 투자 유치를 완료했다. 6일(현지시간) 블룸버그 등 외신에 따르면 xAI는 이번 투자자 명단에 스텝스톤 그룹, 피델리티 매니지먼트&리서치, MGX, 배런 캐피털 그룹도 포함된다고 밝혔다. 전략적 투자자로는 시스코 시스템즈의 투자 그룹도 참여했다. 다만 이번 라운드에서 개별 투자 규모를 공개하지 않았고, 자금 조달이 부채인지 지분인지에 대해서도 구체적으로 구분하지 않았다. xAI는 “이번 자금 조달은 세계 최고 수준의 인프라 구축을 가속화하고 수십억 명의 사용자에게 도달할 수 있는 혁신적인 AI 제품의 빠른 개발 및 배포를 가능하게 하며 회사의 핵심 미션인 '우주의 이해'를 진전시키는 획기적 연구를 뒷받침할 것”이라고 말했다. 회사는 이번 자금 조달을 약 75억 달러(약 10조8천675억원)의 지분 투자와 최대 125억 달러(약 18조천125억원)의 부채로 나눠 특수목적기구(SPV) 형태로 조달하는 방안을 계획해 온 것으로 알려졌다. 이는 엔비디아 그래픽처리장치(GPU)를 매입하는 데 사용되며 xAI는 이를 5년간 칩 임대 사업에 활용해 월가 금융사들이 투자금을 회수할 수 있도록 한다는 구상이다. 다만, xAI는 현재 대규모 자금이 절실한 상황이다. 사안에 정통한 관계자들에 따르면 xAI가 이미 지난해 기업 차원이 지분 및 부채로 약 100억 달러(약 14조4천900억원)를 조달했지만, 매달 10억 달러(약 1조4천490억원)를 소진하고 있어 앞으로도 수십억 달러가 더 필요하다고 밝혔다. 일론 머스크는 xAI가 미국 테네시주 멤피스에 조성 중인 초대형 데이터센터 단지를 확장할 계획이며 해당 지역의 세 번째 건물을 매입해 AI 컴퓨팅 용량을 거의 2GW 수준으로 끌어올릴 것이라고 언급하기도 했다. 또 그는 스페이스X 등 자신이 소유한 기업들을 통해 xAI에 대한 지원을 끌어내고 있다. 테슬라 주주들은 지난 11월 xAI에 투자하는 방안에 대해 투표했는데 찬성이 반대보다 많았지만, 상당한 수의 기권이 있었다고 브랜던 어하트 테슬라 법무책임자는 말했다. 이사회는 주주 지지 수준을 고려해 다음 단계를 검토할 계획이다. 해당 투표는 구속력이 없었으나 머스크는 이 아이디어를 공개적으로 지지해왔고, 2024년에는 50억 달러(약 7조2천425억원) 투자 가능성을 언급한 바 있다.

2026.01.07 11:03박서린 기자

맷 가먼 AWS CEO "엔비디아 '루빈' GPU 결합 기대"…협력 의사 공식화

글로벌 클라우드 시장 핵심 플레이어인 아마존웹서비스(AWS)가 엔비디아의 차세대 그래픽처리장치(GPU) 아키텍처 '루빈'을 중심으로 한 협력 의지를 드러냈다. 맷 가먼 AWS 최고경영자(CEO)는 6일 링크드인을 통해 "엔비디아가 발표한 루빈 플랫폼을 고객들에게 제공할 수 있기를 기대한다"고 밝혔다. 이어 "루빈은 우리의 규모·보안·AI 서비스와 결합돼 고객들이 가장 까다로운 AI 워크로드를 더 빠르고 비용 효율적으로 구축·학습·배포할 수 있도록 도울 것"이라고 강조했다. 가먼 CEO의 발언은 엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 루빈을 공식 공개한 직후 나왔다. 젠슨 황 엔비디아 CEO는 기조연설을 통해 루빈이 기존 '블랙웰'을 잇는 차세대 AI 컴퓨팅 플랫폼이며 이미 본격적인 양산 단계에 돌입했다고 발표했다. 황 CEO에 따르면 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 대규모 AI 학습과 추론 과정에서 병목으로 작용해온 데이터 이동 문제를 해소하고 전체 시스템 효율을 극대화하는 데 초점을 맞췄다. 특히 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축 기술을 적용해 추론 성능을 크게 끌어올렸다. 엔비디아는 루빈이 블랙웰 대비 동일 모델 기준 토큰당 비용을 10분의 1 수준으로 낮추고 학습에 필요한 GPU 수를 25%까지 줄일 수 있다고 설명했다. 또 루빈 아키텍처가 AI가 단순 응답을 넘어 추론 중심으로 진화하는 시장 환경에 대응하기 위한 핵심 플랫폼이라고 강조했다. 내부 테스트 기준으로 루빈은 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배까지 향상됐으며 전력 효율 역시 크게 개선됐다. AWS는 이러한 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 보다 효율적인 AI 학습·추론 환경을 제공한다는 계획이다. 엔비디아와 15년 이상 이어온 협력 관계를 바탕으로 AWS의 글로벌 인프라와 AI 서비스 역량을 결합해 고객 선택권과 유연성을 확대한다는 구상이다. 엔비디아는 루빈을 주요 클라우드 사업자와 AI 기업들에 올해 연말부터 공급할 예정이다. AWS를 비롯해 구글 클라우드·마이크로소프트·오라클은 물론 오픈AI·앤트로픽·xAI 등 주요 AI 기업과 연구기관이 루빈을 도입할 전망이다. 가먼 CEO는 "우리와 엔비디아의 오랜 협력을 바탕으로 고객들이 차세대 AI 혁신을 빠르게 실현할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.06 16:16한정호 기자

DGIST, 엔비디아 GPU 활용 프로그램에 2건 선정

DGIST가 엔비디아 연구 지원 프로그램인 'NVIDIA 아카데믹 그랜트 프로그램'에 선정돼 차세대 인공지능(AI) 및 로봇 분야 연구를 위한 고성능 GPU 컴퓨팅 자원 지원을 받게 됐다고 6일 밝혔다. 엔비디아 '아카데믹 그랜트 프로그램'은 전 세계 대학·연구기관을 대상으로 혁신적 연구 과제를 선정, GPU 하드웨어 또는 대규모 연산 자원을 지원하는 프로그램이다. 이번에 선정된 DGIST의 과제는 ▲임성훈 교수의 사고의 연쇄를 활용한 물리 기반 비디오 생성 모델 연구 ▲박대희·목지수 교수 공동연구팀의 동적 인간-로봇 협업을 위한비전-랭기지-액션 기반 인간-로봇 협업 지능 연구 등 2건이다. 임성훈 교수팀은 32,000 A100 GPU-hours(약 3.2만 A100 GPU 시간)을 지원받는다. 연구팀은 AI가 물체의 움직임을 물리 법칙에 맞게 단계적으로 추론, 왜곡이 적고 자연스러운 영상을 생성하도록 하는 모델을 연구한다. 박대희·목지수 교수 공동연구팀은 RTX PRO 6000 블랙웰 서버 에디션 GPU 4대(하드웨어)를 지원받는다. 연구팀은 사람과 함께 일하는 로봇이 주변 상황과 사람의 움직임을 이해하고, 안전한 협업 행동을 선택할 수 있도록 하는 Physical AI 기반 로봇 지능을 개발한다. GIST 측은 대규모 AI 모델 학습·검증은 컴퓨팅 자원 확보가 연구 성과 폭과 속도를 좌우하는 만큼, 이번 지원을 바탕으로 실험 규모를 확장하고 모델 성능 검증의 정밀도를 한층 끌어올릴 것으로 기대했다.

2026.01.06 09:25박희범 기자

엔비디아, 차세대 AI GPU '루빈' 공개

[라스베이거스(미국)=권봉석] 엔비디아가 5일(이하 현지시간) 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 데이터센터용 차세대 AI GPU 플랫폼 '루빈'(Rubin)을 공개했다. 엔비디아는 2024년 컴퓨텍스 기조연설에서 블랙웰을 시작으로 매년 새 GPU를 출시하겠다고 밝힌 바 있다. 지난 해 블랙웰을 강화한 '블랙웰 울트라'에 이어 올해는 CPU와 GPU를 새로 설계한 '루빈'이 투입된다. 루빈은 단일 GPU를 넘어 CPU, 네트워크, 보안, 스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처로, 대규모 학습과 추론 비용을 획기적으로 낮추는 데 초점을 맞췄다. 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축을 적용해 추론에서 50페타플롭스(NVFP4) 연산 성능을 제공한다. GPU 간 연결에는 6세대 NV링크를 적용해 GPU당 3.6TB/s, NVL72 랙 기준 260TB/s 대역폭을 구현했다. CPU는 Arm IP 기반 새 제품인 '베라'이며 에이전틱 AI 추론을 겨냥했다. 최대 88개 코어로 구성된 CPU가 루빈 GPU와 직접 연결돼 전력 효율과 데이터 이동 성능을 동시에 확보했다. 엔비디아는 루빈 플랫폼을 구성하는 베라(Vera) CPU와 루빈 GPU, GPU 사이에서 데이터를 주고 받는 NV링크 6 스위치, 데이터 전송에 관여하는 블루필드4 DPU 등을 통합설계했다. 이를 이용해 루빈이 블랙웰 대비 1/10 수준의 토큰 비용으로 대규모 '혼합 전문가'(MoE) 모델 추론을 수행할 수 있으며 동일한 모델 학습에 필요한 GPU 수를 25% 수준으로 줄일 수 있다는 것이 엔비디아 설명이다. 엔비디아는 루빈이 올 하반기부터 주요 클라우드와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 다수의 AI 연구소와 기업들이 루빈을 도입 예정이다.

2026.01.06 08:01권봉석 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

엔비디아, RTX 프로 5000 72GB 블랙웰 GPU 출시

엔비디아가 19일 데스크톱 PC용 RTX 프로 5000 72GB 블랙웰 GPU를 정식 출시했다. RTX 프로 5000 72GB 블랙웰은 기존 출시 제품(48GB) 대비 용량을 50% 늘린 72GB로 늘려 AI 개발자, 데이터 과학자, 크리에이티브 전문가의 대용량 메모리 기반 워크플로우 수행을 돕는다. 연산 성능은 최대 2,142 TOPS(1초당 1조 번 연산)이며 GDDR7 72GB 메모리에 더 큰 규모의 모델을 올려 훈련, 튜닝할 수 있다. 클라우드 대비 낮은 지연시간으로 외부 유출이 힘든 사내 자료나 민감한 데이터를 처리할 수 있다. 아놀드, 카오스 V-레이, 블렌더, D5 렌더, 레드시프트 등 공학/산업용/크리에이티브 응용프로그램에서 렌더링 시간을 최대 4.7배 단축한다. 엔비디아 RTX PRO 5000 72GB 블랙웰 GPU는 현재 잉그램 마이크로, 리드텍, 유니스플렌더, 엑스퓨전 등 파트너사를 통해 출시됐다. 글로벌 시스템 빌더를 통한 더 넓은 공급은 내년 초 시작될 예정이다.

2025.12.19 10:51권봉석 기자

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정 기자

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정 기자

엔비디아 '네모트론 3' 공개..."개인 PC로 나만의 AI 비서 구축"

엔비디아가 자신만의 인공지능(AI) 비서를 구축할 수 있도록 오픈 모델과 최적화 도구를 공개했다. 엔비디아에 '네모트론 3' 오픈 모델 제품군을 공개하고 '언슬로스' 프레임워크를 통해 거대언어모델(LLM) 미세 조정을 가속화한다고 16일 밝혔다. 이를 통해 사용자는 엔비디아 RTX AI PC와 DGX 스파크 환경에서 학습, 업무, 창작 등 목적에 맞는 맞춤형 AI 어시스턴트를 구축할 수 있다. 이번 발표 핵심은 '미세 조정'의 대중화다. 소형언어모델(SLM)은 전문적인 작업에서 정확도가 떨어지는 한계가 있었으나 엔비디아는 이를 해결하기 위해 모델을 특정 작업에 맞춰 훈련시키는 미세 조정 기술에 주목했다. 함께 도입된 언슬로스는 세계적으로 널리 쓰이는 오픈소스 프레임워크로 엔비디아 그래픽처리장치(GPU) 메모리 사용을 최소화해 훈련 효율을 높인다. 이 도구는 허깅페이스 트랜스포머 라이브러리 성능을 최대 2.5배까지 향상시켜 연구자와 개발자가 복잡한 연산을 신속하게 처리하도록 돕는다. 엔비디아는 미세 조정의 기반이 될 '네모트론 3' 제품군도 선보였다. 이 중 '네모트론 3 나노'는 하이브리드 전문가 혼합(MoE) 아키텍처를 기반으로 설계돼 현재 출시된 라인업 중 가장 높은 컴퓨팅 효율을 기록했다. 이 모델은 추론에 필요한 토큰을 최대 60% 줄여 비용을 절감하면서도 100만 토큰의 컨텍스트 윈도우를 지원한다. 긴 시간 동안 진행되는 다단계 작업에서도 AI가 맥락을 잃지 않고 훨씬 많은 정보를 유지할 수 있다는 설명이다. 개발자는 목표에 따라 파라미터 효율적 미세 조정(LoRA), 완전 미세 조정, 강화 학습 등 다양한 방식을 선택할 수 있다. 특히 LoRA 방식은 모델의 일부만 업데이트해 저비용으로 도메인 지식을 추가하거나 코딩 정확도를 높이는 데 유용하다. 엔비디아는 이번 나노 모델 공개에 이어 내년 상반기에 멀티 에이전트용 '네모트론 3 슈퍼'와 복잡한 애플리케이션용 '네모트론 3 울트라'를 순차적으로 출시할 예정이다. 엔비디아는 "네모트론 3 제품군은 업계 선도적인 정확도와 효율성을 갖춘 오픈 모델로 에이전틱 AI 애플리케이션 구축에 이상적"이라며 "개방형 훈련 데이터세트와 최첨단 강화 학습 라이브러리를 통해 AI 생태계를 지속적으로 확장할 것"이라고 강조했다.

2025.12.16 10:41김미정 기자

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호 기자

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

X에서 가상자산·주식 거래 가능해진다

'디지털 트러스트' 글로벌 빅테크 뭉쳤다...한화 참여

배경훈 부총리, 과기정통부 첫째 성과로 "무너진 R&D 복원"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.