• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (546건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

일론 머스크 xAI, 29조원 투자 확보…엔비디아·중동 국부펀드 가세

일론 머스크가 이끄는 인공지능(AI) 스타트업 xAI가 초대형 투자 유치에 성공하며 글로벌 AI 패권 경쟁에 다시 불을 지폈다. 엔비디아와 중동 국부펀드까지 가세한 이번 투자로 xAI는 대규모 데이터센터와 차세대 AI 모델 개발에 속도를 낼 전망이다. xAI는 6일(현지시간) 시리즈 E 투자 라운드에서 200억 달러(약 29조원)를 유치했다고 밝혔다. 이번 투자 라운드에는 카타르 투자청(QIA), 발로르 에쿼티 파트너스, 스텝스톤 그룹, 피델리티 매니지먼트 앤 리서치, 배런 캐피털 그룹 등이 참여했다. 전략적 투자자로는 엔비디아와 시스코 인베스트먼트가 이름을 올렸다. xAI는 개별 투자 금액과 지분·부채 비중은 공개하지 않았다 . 블룸버그통신은 앞서 엔비디아가 xAI에 최대 20억 달러(약 2조9천억원) 규모 투자를 계획했으며 이번 자금 조달이 약 75억 달러(약 10조8천억원)의 지분 투자와 최대 125억 달러(약 18조원) 규모의 부채를 특수목적회사(SPV)에 담는 구조로 설계됐다고 보도했다. 해당 SPV는 엔비디아 그래픽처리장치(GPU)를 담보로 활용해 칩을 구매하고 이를 5년간 임대하는 방식으로 투자 회수를 도모하는 구조다. xAI는 확보한 자금을 대규모 컴퓨팅 인프라 확장과 AI 제품 개발에 투입할 계획이다. 회사는 테네시주 멤피스에 위치한 콜로서스 데이터센터 단지를 확장 중이며 H100 GPU 기준 100만 개 이상에 해당하는 연산 능력을 구축했다고 설명했다. 현재 훈련 중인 차세대 모델 '그록 5'를 기반으로 신규 AI 서비스 출시도 준비하고 있다. 다만 성장 속도와 함께 규제 리스크도 커지고 있다. 최근 xAI의 그록이 실존 인물을 대상으로 한 불법 이미지 생성 논란에 휘말리며 유럽연합(EU)과 영국, 프랑스 등 여러 국가 규제 당국의 조사를 받고 있다. xAI 측은 "이번 투자는 세계 최고 수준의 AI 인프라 구축을 가속화할 것"이라며 "수십억 명의 이용자에게 혁신적인 AI 제품을 제공해 우주의 본질을 이해한다는 핵심 사명을 진전시킬 것"이라고 밝혔다.

2026.01.07 09:26한정호 기자

젠슨황 엔비디아 CEO, 'IEEE 최고 명예 메달' 수상

IEEE가 젠슨황 엔비디아 CEO를 '2026 IEEE 최고 명예 메달' 수상자로 선정했다. 200만 달러의 상금도 함께 수여된다. 젠슨 황은 가속 컴퓨팅 분야에서의 선구적인 리더십과 혁신적인 업적을 통해 엔비디아를 기술 혁신의 최전선으로 이끈 공로를 높이 평가받았다. 최근 엘리자베스 여왕 공학상을 비롯해 파이낸셜타임스와 타임 매거진의 '올해의 인물', 스티븐 호킹 교수 펠로십 수상에 이어 또 하나의 역사적인 이정표를 세웠다. 젠슨황의 리더십에 엔비디아는 지난해 10월 시가총액 5조 달러를 돌파한 최초의 기업이 됐다. 엔비디아는 1999년 세계 최초로 그래픽처리장치(GPU)를 개발해 컴퓨팅 산업에 혁명을 일으켰다. 이러한 기술적 돌파구는 의료, 공학, 로보틱스, 자율주행차, 제조 등 다양한 분야의 혁신을 가능하게 했으며, 가속 컴퓨팅에 대한 그의 통찰은 AI 기술과 산업 혁명의 토대를 마련했다. 메리 엘런 랜들 IEEE 회장은 “IEEE 최고 명예 메달은 커리어에서 이룰 수 있는 최고의 성취를 상징한다”며 “젠슨 황의 공헌은 기술의 한계를 넓혔고, 아직 상상조차 할 수 없는 미래 혁신을 가능하게 했다”고 설명했다. 이어, “IEEE는 우리 분야의 탁월함을 정의할 뿐 아니라 차세대 엔지니어와 기술자들에게 영감을 주는 업적을 기리게 돼 자랑스럽다”고 밝혔다. 1917년에 제정된 IEEE 최고 명예 메달은 기술과 공학의 발전에 지대한 영향을 미친 개인에게 수여된다. 젠슨 황은 인터넷 아키텍처의 빈트 서프와 로버트 칸, GPS의 브래드퍼드 W. 파킨슨, 반도체의 모리스 창 등 현대인의 삶을 변화시킨 역대 수상자들의 명맥을 잇게 됐다. 젠슨황 CEO는 “IEEE 최고 명예 메달을 받게 된 것은 과분한 영광”이라며 “이번 수상은 엔비디아에서 함께한 수천 명의 엔지니어와 연구원들이 평생을 바쳐 일군 업적을 반영한 것”이라고 말했다. 그러면서 “GPU 발명부터 현대 AI 팩토리의 엔진에 이르기까지 우리는 새로운 산업 혁명의 불을 지피는 데 기여해왔다”면서 “이 상은 쿠다(CUDA) 생태계를 구축하고, 무어의 법칙을 넘어 컴퓨팅을 진화시켰으며, AI 지평을 지속적으로 넓혀가고 있는 커뮤니티 전체의 것”이라고 덧붙였다.

2026.01.07 08:59박수형 기자

델테크놀로지스, CES서 XPS 노트북 신제품 2종 공개

[라스베이거스(미국)=권봉석 기자] 델테크놀로지스는 지난 해 일상 업무와 학습 등 일반 소비자용 노트북 브랜드를 '델'로 통합했다. 소형·경량 디자인을 적용한 프리미엄 라인업인 'XPS'는 '델 프리미엄'에 흡수됐다. 그러나 올해 CES에서는 XPS 브랜드가 다시 부활했다. 6일(현지시간) 라스베이거스 베네시안 호텔 내 별도 행사장에서 만난 델테크놀로지스 미국 본사 관계자는 "XPS는 일반 소비자에게 인지도가 높은 브랜드이며 이를 강조할 필요가 있었다"고 밝혔다. 올해 출시된 XPS는 XPS 14(14.5형), XPS 16(16.3형) 등 두 가지 모델이며 인텔 코어 울트라 시리즈3(팬서레이크) 기반으로 CNC 가공 알루미늄과 코닝 고릴라글래스를 적용했다. 화면은 테두리를 최소한으로 줄인 인피니티엣지 디자인이며 탠덤 OLED와 2K LCD 중 하나를 선택할 수 있다. 2K LCD는 최소 1Hz, 최대 120Hz까지 화면주사율을 조절해 배터리 소모를 최소화한다. 현장 관계자는 "한 화면을 계속 표시하면 기존 30Hz 패널의 전력 소모는 2.18W이며 이번에 적용된 2K LCD는 1Hz로 1.92W만 써 배터리 소모를 약 12% 가양 줄일 수 있다"고 설명했다. 내장 CPU와 GPU 온도를 가능한 한 낮게 유지할 수 있도록 방열 시스템을 재설계 했고 내부에는 새로 설계한 냉각팬 두 개를 달았다. 현장 관계자는 "냉각 구조를 완전히 바꿔 종전 대비 노트북 하단 온도를 낮췄다. 단 몇 도만 온도를 낮춰도 체감 온도는 크게 달라진다"고 설명했다. 내장 배터리는 고밀도(900ED) 배터리 셀을 적용해 부피와 무게, 크기를 최소화했다. XPS 14 무게는 1.36kg, XPS 16 무게는 1.63kg이다. 외부 충격이나 액체/이물질 유입으로 고장나기 쉬운 키보드와 USB-C 단자는 쉽게 분리해 수리 난이도를 낮췄다. 힌지에는 재활용 강철을, 배터리에는 재활용 코발트와 재활용 구리 등 지속 가능한 소재를 적용했다. XPS 신제품 2종은 오는 3월 출시 예정이며 색상은 그래파이트 한 종류다. 추가 색상인 '쉬머' 적용 제품은 올 하반기 출시된다. 델테크놀로지스는 XPS 14보다 조금 더 작은 XPS 13 출시도 준비중이다. 현재 개발중인 제품으로 사진 촬영은 불가능했다. 현장 관계자는 "프리미엄 알루미늄과 13인치급 화면, 고성능 프로세서를 탑재한 제품이 될 것"이라고 설명했다.

2026.01.07 08:43권봉석 기자

[유미's 픽] '넥스트 쿠다' 신호탄 쏜 엔비디아, CES서 꺼낸 新무기 뭐길래

글로벌 빅테크들이 자체 칩과 플랫폼을 중심으로 독자 생태계 구축에 본격 나선 가운데 엔비디아가 이에 대응해 새로운 카드를 꺼내 들었다. 그래픽처리장치(GPU) 연산 표준을 '쿠다(CUDA)'로 장악해 왔던 기존 폐쇄형 생태계에서 일부 협력 중심 구조로 전략을 조정하며 AI 시장 주도권을 유지하려는 분위기다.젠슨 황 엔비디아 최고경영자(CEO)는 5일(현지시간) 미국 네바다주 라스베이거스에서 열린 세계 최대 가전·IT 전시회 'CES 2026'에 참석해 '알파마요'를 공개했다. 알파마요는 엔비디아가 공개한 차세대 자율주행 AI 제품군으로, 카메라·센서의 입력을 받아 사람처럼 전체 상황을 이해하고 운전 결정을 내린다. 이른바 AI가 직접 판단해 주행하는 '자율주행 두뇌'인 셈이다.엔비디아가 '알파마요'를 선보인 것은 자율주행 기술 고도화와 동시에 엔비디아 생태계의 외연을 확장하려는 시도로 풀이된다. 단순한 성능 경쟁을 넘어 자율주행 AI의 구조 자체를 재정의함으로써 산업 전반에 영향력을 유지하려는 의도가 깔려있다는 분석도 나온다.이처럼 엔비디아가 전략 변화 모색에 나선 것은 자율주행 기술이 직면한 구조적 한계가 자리하고 있다는 분석이 나온다. 최근 센서 성능 향상이나 데이터 축적만으로는 안전성을 충분히 담보하기 어렵다는 인식이 확산되면서 자율주행 AI의 판단 방식 자체를 바꿔야 한다는 요구도 커지고 있다.특히 '롱테일(long-tail)'은 자율주행 기술의 가장 큰 난제로 꼽힌다. 실제 도로 환경에서 발생 빈도는 낮지만 사고 위험이 큰 복잡한 상황이 반복적으로 나타났는데, 이는 자율주행 시스템이 안전하게 대응하기 가장 어려운 영역으로 꼽혀 왔다.기존 자율주행 아키텍처는 인식(perception)과 계획(planning)을 분리해 처리했다. 최근에는 엔드투엔드 학습 방식을 도입해 왔지만, 훈련 범위를 벗어난 상황에서 원인과 결과를 안정적으로 판단하는 데에는 한계가 있다는 지적이 이어졌다.엔비디아는 이러한 한계를 해결하기 위한 해법으로 '추론 기반(reasoning-based)' 아키텍처를 전면에 내세웠다. 알파마요는 자율주행 AI가 도로 상황을 단순히 인식하는 수준을 넘어 인간처럼 상황을 해석하고 단계적으로 사고한 뒤 행동을 결정하도록 설계됐다. 시각 정보와 언어, 행동을 하나의 흐름으로 통합한 비전·언어·행동(Vision Language Action, VLA) 구조를 적용해 새로운 상황이나 매우 드문 상황에서도 판단 과정을 단계별로 추론하고 그 근거를 설명할 수 있도록 했다.다만 엔비디아는 알파마요를 차량에 직접 탑재되는 완성형 소프트웨어로 제시하지 않았다는 점에서 주목된다. 대신 완전 자율주행 스택을 개발하는 과정에서 활용할 수 있는 기반 모델로 공개하고, 각 기업과 연구기관이 이를 파인튜닝하고 경량화해 자체 시스템에 통합하도록 유도했다. 이는 엔비디아가 자율주행 소프트웨어를 직접 통제하기보다 AI의 사고·판단 구조에 대한 기준을 제시하는 역할에 무게를 두고 있음을 보여준다. 이러한 전략은 실제 양산 차량 사례로도 이어졌다. 황 CEO는 CES 2026 기조연설에서 메르세데스 벤츠 CLA에 엔비디아의 자율주행 스택을 적용한 차량을 공개하며 올해부터 주요 지역에서 순차 출시될 예정이라고 밝혔다. 차량의 하드웨어와 완성차 개발은 메르세데스 벤츠가 맡고, 자율주행 AI와 컴퓨팅 플랫폼은 엔비디아가 담당하는 역할 분담 구조다. 이 차량에는 알파마요 계열의 추론 기술이 포함된 엔비디아 자율주행 스택과 규제·안전 검증을 위한 '클래식 AV 스택'이 함께 적용됐다. 두 스택은 각각 독립적으로 작동하면서 상호 감시하는 이중 안전 구조를 이룬다. 이는 엔비디아가 알파마요를 단독 완성형 제품으로 판매하기보다, 파트너와 결합해 확장 가능한 자율주행 플랫폼으로 발전시키고 있음을 보여주는 사례로 평가된다. 이 같은 접근은 엔비디아를 둘러싼 경쟁 환경 변화와도 맞물려 있다. 구글은 자체 개발한 주문형 반도체(ASIC)인 'TPU'를 통해 엔비디아 GPU 의존도를 낮추려 하고 있다. 아마존웹서비스(AWS) 역시 차세대 AI 가속기 '트레이니움(Trainium)'을 앞세워 독자 생태계 구축에 속도를 내고 있다. 이처럼 주요 고객사들이 자체 칩과 플랫폼으로 독립을 시도하는 상황에서 엔비디아 역시 기존의 강한 하드웨어 중심 락인 전략에서 벗어나 협력과 개방을 병행하는 방향으로 전략을 조정하고 있다는 평가가 나온다. 업계에선 이러한 맥락에서 알파마요를 쿠다를 대체하는 또 하나의 플랫폼으로 보기보다 쿠다 위에서 작동하는 AI 사고·판단 계층을 확장하려는 '포스트 쿠다 전략'의 일환으로 해석하고 있다. 하드웨어 연산 표준에 더해 AI가 현실 세계를 어떻게 이해하고 판단해야 하는지에 대한 기준을 제시함으로써 장기적인 영향력을 유지하려는 접근이라는 분석이다. 나아가 이러한 추론 기반 아키텍처는 자율주행을 넘어 로보틱스와 산업 자동화 등 다른 피지컬 AI 영역으로 확장될 가능성도 거론된다. 국내에서도 비슷한 평가가 나온다. 박태웅 국가AI전략위원회 공공 AX 분과장은 알파마요 공개와 관련해 자율주행의 롱테일 문제를 해결하려는 시도가 단순한 기술 개선을 넘어 AI가 현실 세계를 이해하고 이유를 설명하며 행동하는 '피지컬 AI'로 진입하는 전환점이라는 취지로 평가했다. 이는 알파마요가 자율주행 기술을 넘어 물리적 환경에서 작동하는 AI 전반으로 확장될 수 있다는 업계의 시각과 맞닿아 있다.업계 관계자는 "알파마요는 엔비디아가 모델 성능 경쟁이나 API 판매에 직접 뛰어들기보다 AI가 어떻게 사고하고 판단해야 하는지에 대한 레퍼런스를 제시하는 위치를 선택했음을 보여준 것"이라며 "쿠다가 '어떻게 계산할 것인가'의 표준이었다면 알파마요는 '어떻게 판단할 것인가'의 기준을 겨냥한 시도로, 엔비디아가 AI 주도권 경쟁의 다음 국면을 준비하고 있다는 신호"라고 말했다. 또 다른 관계자는 "알파마요는 엔비디아가 단기적인 모델 경쟁보다 AI 아키텍처와 사고 구조를 둘러싼 장기 전략에 무게를 두고 있음을 보여준다"며 "하드웨어 중심 생태계에 더해 소프트웨어와 판단 구조까지 영향력을 확장하려는 시도로 볼 수 있다"고 분석했다.

2026.01.06 18:04장유미 기자

맷 가먼 AWS CEO "엔비디아 '루빈' GPU 결합 기대"…협력 의사 공식화

글로벌 클라우드 시장 핵심 플레이어인 아마존웹서비스(AWS)가 엔비디아의 차세대 그래픽처리장치(GPU) 아키텍처 '루빈'을 중심으로 한 협력 의지를 드러냈다. 맷 가먼 AWS 최고경영자(CEO)는 6일 링크드인을 통해 "엔비디아가 발표한 루빈 플랫폼을 고객들에게 제공할 수 있기를 기대한다"고 밝혔다. 이어 "루빈은 우리의 규모·보안·AI 서비스와 결합돼 고객들이 가장 까다로운 AI 워크로드를 더 빠르고 비용 효율적으로 구축·학습·배포할 수 있도록 도울 것"이라고 강조했다. 가먼 CEO의 발언은 엔비디아가 미국 라스베이거스에서 열린 CES 2026에서 루빈을 공식 공개한 직후 나왔다. 젠슨 황 엔비디아 CEO는 기조연설을 통해 루빈이 기존 '블랙웰'을 잇는 차세대 AI 컴퓨팅 플랫폼이며 이미 본격적인 양산 단계에 돌입했다고 발표했다. 황 CEO에 따르면 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 대규모 AI 학습과 추론 과정에서 병목으로 작용해온 데이터 이동 문제를 해소하고 전체 시스템 효율을 극대화하는 데 초점을 맞췄다. 특히 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축 기술을 적용해 추론 성능을 크게 끌어올렸다. 엔비디아는 루빈이 블랙웰 대비 동일 모델 기준 토큰당 비용을 10분의 1 수준으로 낮추고 학습에 필요한 GPU 수를 25%까지 줄일 수 있다고 설명했다. 또 루빈 아키텍처가 AI가 단순 응답을 넘어 추론 중심으로 진화하는 시장 환경에 대응하기 위한 핵심 플랫폼이라고 강조했다. 내부 테스트 기준으로 루빈은 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배까지 향상됐으며 전력 효율 역시 크게 개선됐다. AWS는 이러한 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 보다 효율적인 AI 학습·추론 환경을 제공한다는 계획이다. 엔비디아와 15년 이상 이어온 협력 관계를 바탕으로 AWS의 글로벌 인프라와 AI 서비스 역량을 결합해 고객 선택권과 유연성을 확대한다는 구상이다. 엔비디아는 루빈을 주요 클라우드 사업자와 AI 기업들에 올해 연말부터 공급할 예정이다. AWS를 비롯해 구글 클라우드·마이크로소프트·오라클은 물론 오픈AI·앤트로픽·xAI 등 주요 AI 기업과 연구기관이 루빈을 도입할 전망이다. 가먼 CEO는 "우리와 엔비디아의 오랜 협력을 바탕으로 고객들이 차세대 AI 혁신을 빠르게 실현할 수 있도록 지원할 것"이라고 밝혔다.

2026.01.06 16:16한정호 기자

엔비디아-벤츠 자율주행차 타 봤더니…"테슬라 긴장해"

엔비디아가 세계 최대 가전•정보기술(IT) 전시회 CES 2026에서 새로운 자율주행 인공지능(AI) 모델을 공개해 관심을 모았다고 CNBC, 더버지 등 외신들이 5일(현지시간) 보도했다. 젠슨 황 엔비디아 최고경영자(CEO)는 기조연설에서 공개한 알파마요(Alpamayo)는 사고 연쇄 추론 기반의 비전·언어·행동(VLA) 모델을 사용하는 자율주행 시스템이다. 카메라와 각종 센서 입력을 종합해 주변 상황을 이해한 뒤 적합한 운전 결정을 내리는 것이 특징이다. AI가 직접 보고 판단해 차량을 제어하는 '자율주행 두뇌' 역할을 수행하는 셈이다. 이 시스템은 일반적인 주행 환경뿐 아니라 예외적인 상황 인식에도 강점을 지닌다. 예를 들어 교차로에 접근했을 때 신호등이 꺼져 있을 경우, 이를 문제 상황으로 인식한 뒤 다음 행동을 스스로 판단하는 방식이다. 젠슨 황 CEO는 “알파마요는 카메라 입력부터 차량 구동 출력까지 문자 그대로 엔드 투 엔드 방식으로 학습됐다”며 “카메라 데이터와 방대한 자율주행·인간 운전 데이터, 코스모스가 생성한 대규모 합성 주행 데이터를 활용해 수십만 개 사례를 정밀하게 학습시켰다”고 설명했다. 첫 적용 모델은 메르세데스-벤츠 CLA 알파마요가 처음 적용되는 차량은 메르세데스-벤츠의 신형 CLA다. 벤츠가 차량 하드웨어 플랫폼을 제공하고, 엔비디아는 자율주행 스택부터 무선 소프트웨어 업데이트(OTA)까지 시스템 운영 전반을 담당한다. 초기에는 출발지부터 목적지까지 운전자를 정밀하게 보조하는 향상된 레벨 2 운전자 보조 기능을 우선 제공할 예정이다. 젠슨 황 CEO는 CES 기조연설에서 벤츠 자율주행 차량이 실제 도로를 주행하는 영상을 공개하며 “엔비디아의 첫 자율주행 차량이 도로에 나오게 된다”고 밝혔다. 그는 출시 일정과 관련해 “미국은 1분기~4분기, 유럽은 2분기~4분기, 아시아는 3분기~4분기에 출시가 예정돼 있다”고 덧붙였다. 더버지 시승기 “복잡한 도심도 안정적” IT매체 더버지는 이날 2026년 도입 예정인 레벨 2 운전자 보조 시스템이 탑재된 메르세데스-벤츠 CLA 세단을 시승한 후기를 공개했다. 시승은 샌프란시스코 도심에서 약 40분간 진행됐으며, 차량에는 벤츠 소속 안전 운전자가 동승했다. 더버지에 따르면 해당 차량은 신호등과 교차로, 이중 주차된 차량, 간헐적으로 나타나는 좌회전 신호까지 비교적 안정적으로 처리했다. 한 번은 교차로를 막고 있는 트럭을 피해 크게 우회전했으며, 그 과정에서 보행자들이 지나갈 수 있도록 멈춰 서기도 했다. 시승 중 충돌이나 심각한 문제는 발생하지 않았다는 설명이다. 해당 매체는 엔비디아가 테슬라만큼 오랜 기간 자율주행 기술을 연구해 온 것은 아니지만, 이번 시연을 통해 복잡한 상황에서도 테슬라의 완전자율주행(FSD)과 충분히 경쟁할 수 있는 수준을 보여줬다고 평가했다. 아직은 작은 엔비디아의 자동차 사업 엔비디아는 오랜 기간 자동차 제조사에 운전자 보조 시스템용 칩과 소프트웨어를 공급해 왔다. 하지만 회사 전체 AI 사업에서 자동차 부문이 차지하는 비중은 상대적으로 작은 편이다. 그러나 더버지는 엔비디아가 테슬라, 웨이모 등과 함께 레벨 4 이상의 고도 자율주행 기술 경쟁에 본격적으로 뛰어들 경우, 상황은 빠르게 달라질 수 있다고 전망했다. 엔비디아 자동차 사업부 책임자 신저우 우는 엔비디아가 10년 이상 수십억 달러를 투자해 시스템온칩(SoC) 하드웨어부터 운영체제, 소프트웨어, 반도체를 아우르는 풀스택 자율주행 솔루션을 구축해 왔다고 밝혔다. 그는 “엔비디아는 안전을 최우선 가치로 두고 있으며, 반도체와 소프트웨어 양측 모두에서 자동차 안전 요구 사항을 충족하는 몇 안 되는 기업 중 하나”라고 강조했다. 자율주행기술 로드맵 신저우 우는 엔비디아가 2026년 상반기에 자동 차선 변경, 정지 표지판 및 신호등 인식 기능을 포함한 레벨 2 고속도로·도심 주행 기능을 출시할 계획이라고 밝혔다. 여기에는 운전자 감독 하에 목적지까지 주행하는 L2++ 시스템도 포함된다. 올해 하반기에는 도심 주행 기능이 확장돼 자율 주차 기능이 추가되며, 연말까지 L2++ 시스템이 미국 전역에서 사용 가능해질 전망이다. 소규모 레벨 4 시범 운행은 2026년에 진행되고, 2027년에는 파트너사를 통한 로보택시 배치가 이어질 계획이다. 또 2028년에는 특정 조건에서 운전자가 핸들에서 손을 떼고 시선을 도로에서 떼도 되는 레벨 3 고속도로 주행 시스템을 공급하겠다는 목표도 제시했다. 다만 이러한 계획은 메르세데스-벤츠를 비롯해 재규어 랜드로버, 루시드 모터스 등 엔비디아의 주요 자동차 파트너사들과의 협력이 필수적인 만큼, 실제 상용화까지는 변수가 적지 않을 것으로 보인다고 더버지는 평했다.

2026.01.06 13:37이정현 기자

엔비디아, AI 추론 병목현상 줄이는 스토리지 플랫폼 공개

[라스베이거스(미국)=권봉석 기자] 엔비디아가 5일(이하 현지시간) 오후 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 AI 추론 병목현상을 줄일 수 있는 새로운 스토리지 플랫폼을 공개했다. AI 모델이 다루는 매개변수(패러미터)는 수십 억 개 수준에서 수 조개까지 확장되고 다단계 추론을 통해 정밀도를 높이고 있다. 또 추론 과정에서 오류를 줄이기 위한 컨텍스트 데이터가 성능과 효율을 좌우하는 핵심 요소로 꼽힌다. 기존에는 추론을 실행하는 GPU와 연결된 메모리에 컨텍스트 데이터를 키밸류(KV, 핵심값) 캐시 형태로 담아 활용했다. 그러나 컨텍스트 데이터 용량이 커지면서 이를 GPU 메모리에 담아 두는 것은 비용과 확장성, 효율성 면에서 문제가 있었다. 엔비디아는 이날 데이터센터 내 GPU 사이의 데이터 이동을 효율적으로 관리하는 블루필드4 데이터처리장치(DPU)를 활용한 '추론 컨텍스트 메모리 스토리지 플랫폼'을 제안했다. 이 플랫폼은 GPU 메모리 대신 키밸류 캐시를 담아 둘 수 있는 전용 인프라를 제공해 랙 스케일 AI 시스템 전반에서 컨텍스트 데이터를 효율적으로 활용할 수 있도록 설계됐다. 이를 통해 초당 토큰 처리량을 최대 5배까지 끌어올리고, 기존 스토리지 대비 전력 효율 역시 최대 5배 높아진다는 것이 엔비디아 설명이다. 블루필드4는 엔비디아 DOCA 프레임워크를 기반으로 NIXL 라이브러리, 다이나모(Dynamo) 소프트웨어와 긴밀히 통합돼 하드웨어 가속 키밸류 캐시 공유를 구현한다. DPU가 KV 캐시의 배치와 접근을 직접 관리함으로써 메타데이터 오버헤드를 제거하고, 데이터 이동을 최소화하며, GPU 노드와 분리된 보안 접근을 보장한다. 여기에 스펙트럼-X 이더넷을 활용한 RDMA 기반 네트워크 패브릭을 결합해 AI 노드 간 고대역폭 컨텍스트 공유를 지원한다. 이를 통해 AI 에이전트 반응성 개선, AI 팩토리 처리량(스루풋) 증가, 추론 효율 향상 등을 거둘 수 있다. 엔비디아는 DPU를 중심으로 AI 인프라 전반을 통합하며, 데이터센터 아키텍처의 주도권 강화에 나설 예정이다. 이날 젠슨 황 엔비디아 CEO는 "AI는 이제 컴퓨팅과 네트워크를 넘어 스토리지까지 재정의하고 있다"며 "블루필드4를 중심으로 한 스토리지 스택은 차세대 지능형 AI를 구현하기 위한 핵심 인프라가 될 것"이라고 말했다. 델테크놀로지스, HPE, IBM, 퓨어스토리지 등 엔비디아 주요 파트너사는 블루필드4 기반 AI 스토리지 플랫폼을 구현해 올 하반기 출시 예정이다.

2026.01.06 12:37권봉석 기자

젠슨 황이 꺼내 든 자율주행 AI '알파마요', 어떻게 구현했나

[라스베이거스(미국)=권봉석 기자] 젠슨 황 엔비디아 CEO가 5일(이하 현지시간) 오후 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 일반 관람객들의 가장 큰 관심을 모은 것은 새 GPU '루빈'이 아니었다. 마치 사람처럼 샌프란시스코 일대를 누비는 자율주행 AI '알파마요'(Alpamayo)다. 기조 연설 중 공개된 시험주행 영상에서 알파마요는 맞은 편 차선 차를 피해 안전하게 비보호 좌회전을 수행하고, 우회전 차선의 횡단보도 보행자를 기다리고, 앞차가 평행주차를 시작하면 이를 피해가며 정해진 도로를 달렸다. 젠슨 황 CEO는 이날 "알파마요는 기존 자율주행 기술의 구조적 한계를 극복하기 위해 등장한 기술"이라고 설명했다. 엔비디아는 그간 자율주행 기술을 구현하기 위해 거의 모든 도로 상황을 가상 공간에 구현하고 이를 학습하는 방식을 써 왔다. 그러나 이런 방식에도 여전히 한계가 있었다는 것이 젠슨 황 CEO의 설명이다. 데이터·규칙 기반 자율주행 기술에 숨은 맹점 젠슨 황 CEO는 "실제 세계의 도로 환경은 나라나 문화, 날씨나 도로 구조 등 여러 요인에 따라 무한히 달라진다. 또 사고를 일으키는 것은 극히 드물지만 실제로 일어나는 상황인데 이런 상황까지 데이터로 미리 학습시키는 것은 불가능한 일"이라고 선을 그었다. 여기에 기존 자율주행 시스템 작동 방식에도 엄연히 한계가 있었다. 미리 설정된 규칙에 따라 작동하기 때문에 규칙을 벗어나는 돌발 상황에서는 신뢰성이 떨어졌다. 엔비디아는 이런 한계를 극복하기 위해 사람이 실제로 운전하는 방식을 흉내내는 방식을 선택했다. 현재 자동차를 둘러 싼 상황을 카메라와 센서로 수집하고 각 상황마다 이에 맞는 판단을 내리는 방식으로 선회했다. 정보 수집부터 자동차 조작까지 모든 과정 일관성 있게 처리 알파마요는 카메라와 라이다(lidar) 등 각종 센서를 통한 상황 판단과 조향과 가속, 제동 등 자동차 조작까지 모든 과정을 일관성 있게 처리하는 구조를 선택했다. 차가 멈춰야 한다면 왜 그래야 하는지에 대한 이유를 추론 결과로 제시한다. 엔비디아는 알파마요 학습을 위해 실제 도로 주행 영상과 교통량 데이터, 인간 운전자의 운전 시범 데이터를 먼저 수집했다. 그 다음 이 데이터를 실제 세계를 흉내내는 AI 모델인 '코스모스'와 결합했다. 알파마요는 현실에서 실제로 일어나기 어려운 드문 상황이나 극단적인 상황을 학습하고 이 상황에도 대처할 수 있는 추론 능력을 갖췄다. 엔비디아는 여기에 더해 자율주행 스택을 이중으로 구성했다. 주위 환경이 충분히 안전하다고 판단하면 알파마요가 작동한다. 그러나 불확실성이 큰 상황을 마주하면 완전 검증·추적이 가능한 기존 규칙 기반 AV 스택이 차를 운전한다. 알파마요 적용 2025년형 벤츠, NCAP 최고등급 획득 엔비디아는 독일 완성차 업체인 메르세데스-벤츠와 협업해 2025년형 벤츠 CLA에 알파마요를 처음 적용했다. 알파마요를 적용한 차량은 유럽 신차 안전도 평가 프로그램(NCAP) 기준에서 최고 수준의 안전 등급을 획득했다. 젠슨 황 CEO는 "칩부터 소프트웨어까지 모든 스택이 안전 인증을 받은 세계 최초 수준의 자율주행 시스템"이라고 강조했다. 엔비디아는 올해부터 지역별로 알파마요의 단계적 상용화를 추진한다. 단 나라마다 다른 자율주행 규제, 향후 장거리 주행을 통한 신뢰성 검증, AI가 내린 판단에 대한 책임을 지는 주체 등등 여전히 과제는 남아 있다. 젠슨 황 CEO는 "알파마요는 운전자 없는 로보택시를 넘어 모든 차량을 위한 오픈소스 자율주행 AI 플랫폼이며 지속적인 업데이트로 보다 진화한 자율주행 생태계를 구축하겠다"고 밝혔다.

2026.01.06 12:24권봉석 기자

美 CES 찍고 오픈AI·엔비디아 본사로…정부, 'AI 동맹' 가속 페달

세계 최대 정보기술(IT)·가전 전시회 'CES 2026' 참관을 마친 과학기술정보통신부 대표단이 오픈AI·엔비디아 본사를 연이어 방문해 'AI 주권' 확보를 위한 실질 협력을 논의한다. 스타게이트 프로젝트 참여, 그래픽처리장치(GPU) 26만장 공급 일정, 공공 AI 도입 등 지난해 체결한 양해각서(MOU)의 구체적 이행 방안을 점검할 전망이다. 6일 과기정통부에 따르면 대표단은 6~9일(현지시간) 미국 라스베이거스에서 열리는 CES 2026 참관 후 샌프란시스코로 이동해 엔비디아와 오픈AI를 차례로 방문한다. 현지 경영진과의 직접 만나 작년에 합의한 협력 사항의 실행 속도를 높인다는 계획이다. 과기정통부와 오픈AI는 지난 2025년 10월 국가 AI 대전환과 생태계 발전 지원을 목표로 (MOU를 체결했다. 해당 협약은 한국 AI 생태계의 지역 균형 발전, 공공 부문 AI 전환(AX) 활성화, 인재 양성 및 국내 스타트업 지원 등이 핵심이다. 정부는 이번 본사 방문을 통해 같은 해 12월 출범한 '합동 워킹그룹'의 논의 사항을 점검할 것으로 예상된다. 당시 양측은 AI 인프라 확충, AI 인재 및 스타트업 육성 등 구체적 협력 방안을 논의했다. 이어 올해 초부터 관련 협력 사업을 본격 추진하기로 합의한 바 있다. 오픈AI의 글로벌 AI 인프라 프로젝트 '스타게이트'에 한국 기업의 참여를 확대하는 구체적인 민관 협력 로드맵이 도출될지 주목된다. 보안 등급이 낮은 공공 영역에서 오픈AI의 AI 서비스 도입 논의 여부도 관심거리다. 현재 행정안전부 주도로 '범정부 AI 공통기반' 사업이 진행되고 있다. 엔비디아 본사 방문 역시 실질적인 인프라 확보 목적에 무게가 실린다. 정부는 작년 10월 엔비디아와 협력해 공공·민간 수요에 대응하기 위한 최신 GPU 26만장 이상을 확보하기로 했다. 이 중 5만장을 국가 AI 컴퓨팅센터 구축 등에 공급하기로 했다. 또한 현대자동차그룹과 함께 3자 MOU를 체결하고 국내에 'AI 기술센터'를 설립해 피지컬 AI 분야 인프라 구축 및 기술 개발에 힘쓰기로 했다. 중소벤처기업부와 협업하는 스타트업 지원 프로그램 '엔업(N-UP)'의 규모 확대와 AI 무선접속망(AI-RAN) 기술 공동연구 등 이미 가시화된 협력 과제들도 이번 본사 방문을 통해 한층 탄력받을 전망이다. 업계 관계자는 "정부가 오픈AI, 엔비디아와 지난해 MOU를 체결한 만큼 워킹그룹 등 실무 차원의 AI 후속 논의가 본격화될 것"이라고 말했다.

2026.01.06 12:15이나연 기자

엔비디아, 내년 로보택시 출시 목표…자율주행 AI 공개

엔비디아와 메르세데스-벤츠가 공동 개발한 자율주행차를 토대로 로보택시 서비스를 내년 개시할 전망이다. 젠슨 황 엔비디아 최고경영자(CEO)는 5일(현지시간) 세계 최대 가전 전시회 'CES 2026' 기조 연설을 통해 이같이 밝혔다. 미국에선 1분기, 유럽은 2분기, 아시아 지역에선 3~4분기 중 향상된 레벨2 자율주행 서비스를 선보일 계획이다. 신형 메르세데스 벤츠 CLA에도 자율주행 플랫폼이 우선 적용된다. 엔비디아는 자율주행 시각-언어-행동(VLA) 인공지능(AI) 모델 '알파마요 R1'을 개발했다. 알파마요는 카메라 데이터와 인간 및 자율차 주행 데이터, 자사 피지컬AI 개발 플랫폼 '코스모스'가 생성한 주행 데이터와 수십만개의 사례 데이터를 학습했다. 엔비디아는 알파마요를 벤츠 외 자동차 기업 다수가 활용하는 자율주행 플랫폼으로 육성하겠다는 계획이다. 여기에 규제 준수와 안전한 주행을 보조하는 소프트웨어 스택인 '클래식 AV 스택'도 함께 탑재됐다. 엔비디아는 내년부터 파트너사들과 레벨4 자율주행 로보택시도 테스트할 계획이다. 운전자가 운전대를 잡고 있어야 하는 레벨2와 달리, 레벨4는 운전자 개입이 전혀 필요치 않은 수준의 자율주행을 뜻한다. 황 CEO는 이날 기조연설에서 벤츠와 공동 개발한 자율주행차가 샌프란시스코 도로를 주행하는 영상도 공개했다.

2026.01.06 10:32김윤희 기자

젠슨 황 CES 연설에 등장한 韓 휴머노이드 '눈길'

젠슨 황 엔비디아 최고경영자(CEO)가 5일(현지시간) 미국 라스베이거스 퐁텐블로 호텔에서 열린 'CES 2026' 기조연설 도중 인공지능(AI)과 로봇 생태계 확장을 강조하는 과정에서 국내 휴머노이드 스타트업 휴머노이드가 소개돼 눈길을 끈다. 젠슨 황 CEO는 AI 플랫폼 전환, 에이전트 AI, 피지컬 AI로 이어지는 기술 진화를 설명하며 글로벌 파트너 사례를 영상과 함께 공개했다. 이 과정에서 에이로봇 휴머노이드 앨리스가 가상 환경에서 작업을 수행하는 영상이 송출됐다. 젠슨 황 CEO는 "AI는 소프트웨어에 머무르지 않고 물리적 세계를 이해하고 상호작용하는 단계로 진화하고 있다"며 이를 피지컬 AI라는 개념으로 설명했다. 피지컬 AI는 물리 환경을 이해하는 AI를 뜻한다. 로봇과 자율 시스템의 핵심 기술로 꼽힌다. 엔비디아는 피지컬 AI 구현을 위해 다양한 로봇 기업과 협력하고 있다. 이번 연설에서는 그 예시 중 하나로 에이로봇 휴머노이드 '앨리스'가 등장했다. 영상에는 앨리스가 디지털 트윈 기반의 가상 작업 환경에서 동작을 수행하는 장면이 담겼다. 에이로봇은 자체 개발한 휴머노이드 플랫폼 앨리스를 기반으로 제조업 현장에서의 협동 작업을 목표로 기술을 고도화하고 있다. 최근엔 차량 부품 공장과 화장품 제조 공장 등에서 휴머노이드 적용 가능성을 검증하는 개념검증(PoC)을 진행해 왔다. 젠슨 황 CEO는 AI와 로봇 기술이 개별 기술을 넘어 플랫폼 전환 차원에서 재편되고 있다고 강조했다. 앨리스는 국내 휴머노이드 기술력이 엔비디아 생태계 내에서 실질적 파트너로 자리잡고 있음을 보여주는 장면으로 평가된다. 업계 관계자는 "젠슨 황 CEO의 CES 기조연설은 글로벌 기술 기업과 파트너에게 상징성이 큰 무대"라며 "에이로봇 사례 소개는 한국 휴머노이드 산업이 연구 단계를 넘어 산업 적용 단계로 진입하고 있다는 신호"라고 말했다.

2026.01.06 10:03신영빈 기자

DGIST, 엔비디아 GPU 활용 프로그램에 2건 선정

DGIST가 엔비디아 연구 지원 프로그램인 'NVIDIA 아카데믹 그랜트 프로그램'에 선정돼 차세대 인공지능(AI) 및 로봇 분야 연구를 위한 고성능 GPU 컴퓨팅 자원 지원을 받게 됐다고 6일 밝혔다. 엔비디아 '아카데믹 그랜트 프로그램'은 전 세계 대학·연구기관을 대상으로 혁신적 연구 과제를 선정, GPU 하드웨어 또는 대규모 연산 자원을 지원하는 프로그램이다. 이번에 선정된 DGIST의 과제는 ▲임성훈 교수의 사고의 연쇄를 활용한 물리 기반 비디오 생성 모델 연구 ▲박대희·목지수 교수 공동연구팀의 동적 인간-로봇 협업을 위한비전-랭기지-액션 기반 인간-로봇 협업 지능 연구 등 2건이다. 임성훈 교수팀은 32,000 A100 GPU-hours(약 3.2만 A100 GPU 시간)을 지원받는다. 연구팀은 AI가 물체의 움직임을 물리 법칙에 맞게 단계적으로 추론, 왜곡이 적고 자연스러운 영상을 생성하도록 하는 모델을 연구한다. 박대희·목지수 교수 공동연구팀은 RTX PRO 6000 블랙웰 서버 에디션 GPU 4대(하드웨어)를 지원받는다. 연구팀은 사람과 함께 일하는 로봇이 주변 상황과 사람의 움직임을 이해하고, 안전한 협업 행동을 선택할 수 있도록 하는 Physical AI 기반 로봇 지능을 개발한다. GIST 측은 대규모 AI 모델 학습·검증은 컴퓨팅 자원 확보가 연구 성과 폭과 속도를 좌우하는 만큼, 이번 지원을 바탕으로 실험 규모를 확장하고 모델 성능 검증의 정밀도를 한층 끌어올릴 것으로 기대했다.

2026.01.06 09:25박희범 기자

엔비디아, 차세대 AI GPU '루빈' 공개

[라스베이거스(미국)=권봉석] 엔비디아가 5일(이하 현지시간) 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 데이터센터용 차세대 AI GPU 플랫폼 '루빈'(Rubin)을 공개했다. 엔비디아는 2024년 컴퓨텍스 기조연설에서 블랙웰을 시작으로 매년 새 GPU를 출시하겠다고 밝힌 바 있다. 지난 해 블랙웰을 강화한 '블랙웰 울트라'에 이어 올해는 CPU와 GPU를 새로 설계한 '루빈'이 투입된다. 루빈은 단일 GPU를 넘어 CPU, 네트워크, 보안, 스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처로, 대규모 학습과 추론 비용을 획기적으로 낮추는 데 초점을 맞췄다. 루빈 GPU는 3세대 트랜스포머 엔진과 하드웨어 가속 적응형 압축을 적용해 추론에서 50페타플롭스(NVFP4) 연산 성능을 제공한다. GPU 간 연결에는 6세대 NV링크를 적용해 GPU당 3.6TB/s, NVL72 랙 기준 260TB/s 대역폭을 구현했다. CPU는 Arm IP 기반 새 제품인 '베라'이며 에이전틱 AI 추론을 겨냥했다. 최대 88개 코어로 구성된 CPU가 루빈 GPU와 직접 연결돼 전력 효율과 데이터 이동 성능을 동시에 확보했다. 엔비디아는 루빈 플랫폼을 구성하는 베라(Vera) CPU와 루빈 GPU, GPU 사이에서 데이터를 주고 받는 NV링크 6 스위치, 데이터 전송에 관여하는 블루필드4 DPU 등을 통합설계했다. 이를 이용해 루빈이 블랙웰 대비 1/10 수준의 토큰 비용으로 대규모 '혼합 전문가'(MoE) 모델 추론을 수행할 수 있으며 동일한 모델 학습에 필요한 GPU 수를 25% 수준으로 줄일 수 있다는 것이 엔비디아 설명이다. 엔비디아는 루빈이 올 하반기부터 주요 클라우드와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. AWS, 구글 클라우드, 마이크로소프트, OCI를 비롯해 다수의 AI 연구소와 기업들이 루빈을 도입 예정이다.

2026.01.06 08:01권봉석 기자

삼성전자, 이달 말 고성능 AI PC '갤럭시북6' 출시

[라스베이거스(미국)=권봉석 기자] 삼성전자가 이달 27일 인텔 코어 울트라 시리즈3(팬서레이크) 탑재 고성능 AI PC '갤럭시북6' 시리즈를 국내 출시한다. 성능과 디자인, 보안과 이용자 경험 등 PC의 모든 요소를 개선했다는 것이 삼성전자 설명이다. 갤럭시북6 시리즈는 기본 모델 '갤럭시북6', 성능과 휴대성의 균형에 중점을 둔 '갤럭시북6 프로', 엔비디아 GPU를 추가해 게임과 AI 처리 성능을 높인 '갤럭시북6 울트라' 등 3종으로 구성됐다. 올해는 투인원 대신 일반적인 노트북 형태만 출시된다. 4일(현지시간) 오후 국내 기자단 사전 브리핑에서 이민철 삼성전자 MX사업부 갤럭시 에코비즈팀장(부사장)은 "PC는 결코 싼 제품이 아니고, 소비자는 최소 5년 이상 사용할 것을 전제로 매우 신중하게 구매한다"고 설명했다. 이어 "신제품인 갤럭시북6는 50년 이상 축적한 제조 경험과 갤럭시 생태계를 기반으로, 성능과 배터리 지속시간, 안정성이라는 PC의 기본 요소를 재정의하는 데 집중한 완전히 새로운 제품"이라고 덧붙였다. 인텔 코어 울트라3 탑재, 최상위 '울트라'는 엔비디아 GPU 추가 올해 출시되는 갤럭시북6 3종은 인텔 최신 공정 '인텔 18A' 기반으로 전력 효율성과 성능을 극대화한 최신 프로세서인 코어 울트라3를 탑재한다. 갤럭시북6 울트라는 지포스 RTX 5070/5060 GPU를 추가해 AI 이미지 생성, 고해상도 영상 편집, DLSS·MFG 기반 게임 구동 성능을 높였다. 이민철 부사장은 "인텔 자체 평가 결과 CPU 성능은 전 세대 대비 1.6배, GPU 성능은 최대 1.7배 향상됐다. 또 최대 50 TOPS(1초당 1조 번 연산)급 신경망처리장치(NPU)를 내장했다"고 설명했다. 이어 "최신 프로세서의 성능을 온전히 구현할 수 있도록 냉각 구조를 개선했다. 울트라 모델에만 적용했던 베이퍼 챔버를 프로 모델까지 확대했고 팬 설계와 공기 유입 구조 개선으로 소음은 줄이고 냉각 성능은 프로 모델 기준 35% 이상 높였다"고 덧붙였다. 음향·키보드·터치패드 등 사용 경험 개선에 집중 갤럭시북6는 사용 경험 개선에 집중했다. 노트북 하단에 배치하던 스피커 배치를 바꿔 사용자를 향하도록 트위터(고음) 두 개를 배치했고 하단에는 중저음을 담당하는 우퍼 4개를 배치했다. 입체음향 기술인 돌비 애트모스도 지원한다. 키보드에서는 숫자 키패드를 빼고 좌우 대칭 구조로 재배치했다. 울트라와 프로 모델에는 물리 스위치 대신 압력으로 눌림을 감지해 작동하는 햅틱 터치패드를 적용했다. 디스플레이는 다이나믹 아몰레드 2X 터치 디스플레이를 적용해 최대 1,000니트 밝기와 가변 주사율을 지원한다. 명암부 대비와 야외 시인성, 몰입도를 모두 강화했다. 내장된 배터리는 완전 충전 후 동영상을 최대 30시간 연속 재생할 수 있다. 30분 충전시 전체 용량의 63%까지 채우는 초고속 충전 기능도 내장했다. 이민철 부사장은 "굳이 충전기를 들고 다니지 않아도 하루 정도는 무난히 쓸 수 있을 것"이라고 밝혔다. 갤럭시AI PC 환경에 맞게 확장 갤럭시북6는 삼성전자 AI 생태계인 갤럭시AI를 기반으로 AI 컷아웃, 노트 어시스트 등을 PC 환경에 맞춰 최적화했다. 멀티 컨트롤, 퀵 쉐어 등 다기기 연동 경험 역시 지속적으로 확장된다. 스마트폰에 탑재되던 보안 시스템인 녹스(KNOX)로 소프트웨어는 물론 하드웨어 수준까지 보호 체계를 강화했다. 낙하·힌지·극한 온도 테스트 등 엄격한 신뢰성 검증을 거쳤으며, 이용 중 우발적인 파손이나 분실도 커버하는 삼성케어플러스도 제공된다. 이민철 부사장은 "갤럭시북6는 하드웨어 혁신과 AI, 생태계 경험이 삼위일체로 결합된 유일한 제품"이라며 "지금까지 출시된 제품 중 가장 강력하고 진보된 삼성 PC"라고 강조했다. 오는 27일 프로·울트라 2종 선출시... 가격은 추후 공개 갤럭시북6 3종 중 갤럭시북6 프로와 갤럭시북6 울트라가 오는 27일 먼저 출시된다. 6일부터 삼성닷컴에서 사전 알림 신청을 진행하며 기본 모델인 갤럭시북6는 3월 중 출시 예정이다. 삼성전자는 과거와 달리 올해 갤럭시북6 제품군의 가격을 선공개하지 않았다. 지난 해 말부터 심화된 D램·SSD(낸드 플래시메모리) 수급과 가격 상승이 적지 않은 영향을 미친 것으로 보인다. 이민철 부사장은 "데이터센터에서 시작된 메모리 반도체 수급난은 모든 업계가 겪고 있는 문제다. 삼성전자는 다양한 파트너사와 협력해 소비자 부담을 최소화하기 위해 지속적으로 노력하겠다"고 밝혔다.

2026.01.06 08:00권봉석 기자

엔비디아, 퍼블릭 클라우드 사업 축소…韓 인프라 시장에 미칠 파장은

엔비디아가 퍼블릭 클라우드 사업을 축소하고 그래픽처리장치(GPU) 공급에 무게를 싣는 전략 전환에 나섰다. 그간 지속돼 왔던 고객과의 영역 다툼 문제를 해소하기 위한 방안으로, 국내 클라우드·인공지능(AI) 인프라 생태계에도 영향이 미칠 것이라는 관측이 나온다. 5일 디인포메이션 등 외신과 업계에 따르면 엔비디아는 최근 DGX 클라우드 조직을 엔지니어링·운영 조직 산하로 통합하며 외부 고객 대상 클라우드 서비스 확대 기조를 사실상 중단했다. 앞으로 DGX 클라우드는 엔비디아 내부 AI 모델 개발과 칩 설계를 지원하는 인프라로 활용될 전망이다. DGX 클라우드는 2023년 엔비디아가 처음 선보인 AI 특화 클라우드 서비스로, 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 하이퍼스케일러 인프라 위에서 엔비디아 GPU와 소프트웨어(SW) 스택을 통합 제공하는 방식이다. 그러나 고객 확보 속도가 기대에 미치지 못했고 주요 클라우드 고객과의 이해 충돌 우려가 지속적으로 제기돼왔다. 이번 조직 개편으로 엔비디아는 클라우드 사업자와의 직접 경쟁보다는 GPU와 AI 플랫폼 공급에 집중한다는 방침이다. 이는 엔비디아가 클라우드 사업자가 아닌 AI 인프라 핵심 공급자로서의 정체성을 강화하는 것으로 해석된다. 이같은 변화는 국내 클라우드 서비스 제공업체(CSP)에는 부담 완화 요인으로 작용할 가능성이 크다. 일각에서는 지난해부터 공공에 진입한 AWS·MS·구글에 더해 엔비디아도 DGX 클라우드를 앞세워 한국 시장에 직접 진출할 경우 국내 CSP 사업이 위축될 수 있다는 우려가 제기돼왔다. 네이버클라우드·KT클라우드·NHN클라우드 등은 엔비디아 GPU를 기반으로 AI 학습·추론 인프라를 확장하며 자체 서비스 경쟁력을 강화해왔다. 이런 상황에서 엔비디아가 퍼블릭 클라우드 전면 경쟁에서 한발 물러나면서, 국내 주도권을 유지한 채 GPU 수급과 기술 협력에 집중할 수 있는 여지가 커졌다는 평가다. 특히 네이버클라우드는 엔비디아와 소버린 AI 협력을 이어가며 국내외 AI 인프라 사업을 확대 중이다. 엔비디아가 내부 R&D 중심으로 DGX 클라우드를 재편하더라도 엔비디아 클라우드 파트너(NCP) 체계를 통한 협력 구조 자체가 흔들리지는 않을 것으로 점쳐진다. KT클라우드와 NHN클라우드 역시 공공·금융 부문을 중심으로 AI 인프라 수요 확대에 대응하고 있는 만큼, 엔비디아의 전략 전환은 향후 GPU 공급 안정성과 파트너십 지속성 측면에서 긍정적이라는 분석도 나온다. 하드웨어(HW) 생태계 측면에서도 변화가 감지된다. 델 테크놀로지스, HPE 등 GPU 서버 및 데이터센터 핵심 벤더들도 엔비디아가 직접 클라우드 서비스를 확대하기보다 파트너 중심 전략을 유지함에 따라 대형 CSP 및 기업 고객을 대상으로 한 AI 서버 공급 기회를 이어갈 수 있을 것으로 전망된다. 업계에서는 엔비디아가 DGX 클라우드를 통해 쌓은 운영 경험을 서버 레퍼런스 아키텍처와 SW 스택 고도화에 활용하면서 결과적으로 서버 벤더와 CSP 전반의 AI 인프라 구축 속도를 높이는 방향으로 작용할 가능성에 주목하고 있다. 다만 엔비디아의 전략 변화가 GPU 가격 정책이나 공급 우선순위에 어떤 영향을 미칠지는 여전히 변수로 꼽힌다. AI 수요 급증 속에서 GPU 확보 경쟁이 이어지는 만큼 국내 CSP들은 중장기 공급 전략과 자체 플랫폼 경쟁력 강화에 더욱 힘을 실을 필요가 있다는 지적도 제기된다. 이번 조직 개편에 대해 엔비디아 측은 "최첨단 R&D를 위한 세계적 수준의 인프라를 제공하고 클라우드 파트너들이 성공할 수 있도록 DGX 클라우드 SW 역량 강화에 지속 투자할 것"이라고 밝혔다. 국내 클라우드 업계 관계자는 "엔비디아가 직접 클라우드 사업자로 나서기보다는 GPU와 AI 플랫폼 공급에 집중하는 전략을 분명히 한 것"이라며 "국내 클라우드 사업자 입장에서는 GPU 의존도가 여전히 높은 만큼, 장기적으로 인프라 기술 고도화와 서비스 차별화가 핵심 경쟁력이 될 것"이라고 말했다.

2026.01.05 14:48한정호 기자

SK하이닉스, 美에 첫 2.5D 패키징 '양산 라인' 구축 추진

SK하이닉스가 HBM을 넘어 최첨단 패키징 기술력 전반을 확보하기 위한 투자를 계획 중이다. 미국 신규 패키징 공장에 첫 2.5D 패키징 양산 라인을 마련하기 위한 준비에 나선 것으로 파악됐다. 2.5D 패키징은 HBM과 고성능 시스템반도체를 집적하기 위한 핵심 공정이다. SK하이닉스가 2.5D 패키징 기술력 및 양산 능력을 확보하는 경우, AI반도체 공급망에 상당한 변화를 일으킬 수 있을 것으로 예상된다. 29일 지디넷코리아 취재에 따르면 SK하이닉스는 미국 인디애나주 라스트웨피엣 소재의 신규 패키징 공장에 2.5D 제조라인을 구축하는 방안을 논의 중이다. 2.5D 패키징 양산라인 첫 구축 추진 라스트웨피엣 패키징 공장은 SK하이닉스의 첫 미국 내 공장으로서, AI 메모리용 최첨단 패키징 생산기지로 조성될 예정이다. 목표 가동 시기는 오는 2028년 하반기다. 이를 위해 SK하이닉스는 현지에 38억7천만 달러(한화 약 5조4천억원)를 투자하겠다고 밝힌 바 있다. SK하이닉스가 미국 웨스트라피엣에 신규 패키징 라인을 구축하는 주 요인은 HBM(고대역폭메모리)에 있다. HBM은 AI반도체의 핵심 요소 중 하나로, 현재 미국 정부는 자국 내 최첨단 반도체 공급망 강화를 위해 SK하이닉스를 비롯한 주요 반도체 기업의 현지 투자를 적극 유치해 왔다. 나아가 SK하이닉스는 해당 공장에 2.5D 패키징 양산 라인을 구축하는 방안을 추진하고 있다. 2.5D 패키징은 반도체와 기판 사이에 실리콘 인터포저라는 얇은 막을 삽입해, 칩 성능 및 전력효율성을 높이는 기술이다. 글로벌 빅테크인 엔비디아의 고성능 AI가속기도 HBM과 고성능 GPU·CPU 등을 2.5D 패키징으로 집적해 만들어진다. SK하이닉스는 2.5D 양산 라인 구축으로 HBM을 비롯한 AI 반도체 패키징 능력 전반을 강화하려는 것으로 풀이된다. HBM은 최종 고객사인 엔비디아의 사용 승인을 받기 위해 HBM 자체만이 아닌, 2.5D 패키징에서도 퀄(품질) 테스트를 거친다. HBM에서 신뢰성을 확보하더라도 2.5D 패키징 테스트에서 불량이 발생하면 일정에 차질이 생길 수 밖에 없는 구조다. 2.5D 패키징 내에서 책임 소재를 정확히 찾아내는 작업 또한 어렵다. 어떤 의미?...HBM 넘어 최첨단 패키징 전반 기술력 강화 전략 때문에 SK하이닉스는 그동안 자체적으로 2.5D 패키징에 대한 연구개발을 진행해 왔다. 다만 국내에서는 모든 2.5D 패키징 과정을 양산 수준으로 진행할 만큼의 설비가 갖춰지지 않았다는 평가다. 사안에 정통한 관계자는 "SK하이닉스의 경우 2.5D 패키징에 대한 기본적인 기술력 및 설비는 갖추고 있으나, HBM이 집적된 AI가속기에 대응할 만큼 대형 SiP(시스템인패키지) 설비에는 대응하기에 무리가 있다"며 "이에 미국 웨스트라피엣에 최초로 정식 2.5D 패키징 양산라인을 구축하는 방안을 패키징 협력사들과 진지하게 논의 중"이라고 설명했다. 이 같은 관점에서 SK하이닉스가 2.5D 패키징 양산 라인을 구축하는 경우 차세대 HBM 공급에서 안정성을 확보할 수 있을 것으로 관측된다. 또한 기술력을 한층 고도화해 고객사에 HBM과 패키징을 동시에 제공하는 턴키(Turn-Key) 사업도 구상할 수 있게 된다. 현재 AI가속기용 2.5D 패키징은 대만 주요 파운드리인 TSMC가 사실상 독점하고 있다. 반도체 업계 관계자는 "현재 SK하이닉스는 자사 HBM을 직접 2.5D 패키징까지 진행할 수 있는 설비를 갖추는 것을 매우 중요한 과제로 인식하고 있다"며 "기술이 안정화 및 고도화되는 경우에는 단순한 연구개발을 넘어 사업 진출도 추진할 수 있을 것"이라고 말했다. 또 다른 관계자는 "SK하이닉스 내부에서 2.5D 패키징 샘플 제조 및 테스트를 적극 진행하는 등 관련 사업 확장에 대한 의지는 명확하다"며 "다만 미국 웨스트라피엣 공장 완공 시점이 아직 시간적으로 많이 남아 있는 만큼, 계획이 수정될 가능성은 있다"고 밝혔다. 이와 관련해 SK하이닉스는 "인디애나 팹 활용 방안과 관련해 다양한 방안을 검토 중이나, 구체적으로 확정된 바는 없다"고 답변했다.

2025.12.29 11:01장경윤 기자

정용진 회장 "모든 준비 마쳤다...다시 높게 날자"

정용진 신세계그룹 회장이 새해 신년사에서 2026년을 '다시 성장하는 해'로 정의하고 모든 준비는 마쳤으니 다시 높게 날아오르자고 강조했다. 이를 위한 성장의 지향점으로는 '고객'을 꼽았다. 정 회장은 29일 신년사에서 “최근 2~3년간 신세계그룹의 혁신적 결단들은 다시 한번 성장하기 위한 치밀한 준비였다”고 말했다. 그는 개구리 점프를 비유하며 “큰 도약을 위해서는 그만큼 고통을 이겨내야 한다”면서 “2025년까지 실행한 신세계그룹의 결단들은 도약을 위한 준비였고 이제 준비는 끝났다”고 설명했다. 2025년을 기점으로 다시 점포 수를 늘리기 시작한 이마트, '미식'과 '럭셔리'에서 독보적 경쟁력을 구축한 백화점, 젊은 고객을 겨냥한 매장과 상품을 선보인 이마트24, 알리바바와의 협업으로 새로운 여정을 시작한 지마켓 등 신세계가 실행했던 전략들이 2026년 본격적인 성과로 이어져야 한다는 다짐이다. 정 회장은 성장을 위한 지향점으로 '고객'을 꼽았다. 10여 분 간의 신년사 영상에서 총 25번 언급하며 “고객이란 말은 지독할 만큼 강조해도 지나치지 않다”고 강조했다. 정 회장은 “우리의 본질인 '새로움을 갈망하는 1등 고객'들이 이제 세계의 1등 고객이 됐다”며 “K푸드, K팝, K패션에 전 세계가 열광하고 있고 이 'K라이프 스타일'을 이끄는 게 변화를 즐기는 신세계의 고객들”이라고 설명했다. 그는 “우리 고객들을 세계가 주목한다는 건 고객들이 바라는 걸 예측하고 실현하는 우리 본업의 가치가 더 높아졌다는 의미”라고 말했다. 신세계의 본업과 고객을 얘기하며 정 회장은 엔비디아 창업자 젠슨 황의 이른바 '치맥 만남'을 언급하고 기대와 걱정을 내비쳤다. 그는 “시대가 변해도 사람과의 만남을 원하는 사람들의 모습이 신세계의 많은 콘텐츠와 연결될 수 있어 희망이 들었다”면서도 “예상 못한 열광적 반응을 보며 '고객이 뭘 좋아할지 아는 건 언제나 어렵다'고 생각했다” 말했다. 정 회장은 고객이 가장 사랑하는 기업으로 크게 성장하려면 1등 기업의 품격과 자신감이 있어야 한다고 강조했다. 이를 위해 신세계 임직원이 갖춰야 할 핵심 자세로 '탑의 본성'을 회복할 것을 주문했다. 정 회장은 “탑의 본성을 '세상에 없던 아이디어를 내고 한 발 앞서서, 한 박자 빠르게 실행하는 것”이라며 “탑의 본성을 지닌 기업이라면 빠르게 변하는 시장 환경 속에서 '패러다임 시프트'로 대응해야 한다”고 역설했다. 이어 “기존 전략을 개선하는 정도가 아니라 생각을 바꾸고 룰을 새로 세우며 고객 욕구 자체를 재창조하라”며 “고객이 과거 고객 그 이상인 것처럼 우리 역시 지금의 신세계 그 이상이어야 한다”고 말했다. 또 “신세계가 새로운 걸 시도했을 때 박수보다는 안될 거라는 우려를 받을 때가 더 많았다”며 “그때마다 부정적 시선을 넘고 성과를 만들어낸 신세계의 역사를 이어가자”고 독려했다.

2025.12.29 10:11김민아 기자

엔비디아, 29조원 주고 AI칩 스타트업 '그로크'와 기술 계약

엔비디아가 인공지능(AI) 칩 스타트업 그로크(Groq)와 비독점 기술 라이선스 계약을 체결하고 핵심 인력을 영입했다. 블룸버그, 로이터 등 외신은 엔비디아가 그로크의 자산 200억달러(약 29조원)를 현금을 주고 인수하는데 합의했으며 창업자 겸 최고경영자(CEO), 고위 임원들이 합류하는 계약이라고 현지시간 25일 보도했다. 이번 계약은 엔비디아가 그로크의 AI 추론 반도체 기술을 라이선스 형태로 확보하는 것이 핵심이다. 완전 인수가 아닌 기술 사용권 계약으로, 그로크는 독립 기업 지위를 유지한다. 그로크의 자체 클라우드 사업은 이번 계약 범위에 포함되지 않는다. 그로크는 AI 추론에 특화된 LPU(Language Processing Unit) 기반 칩을 개발해 온 스타트업이다. 대규모 언어 모델을 빠르고 낮은 지연 시간으로 처리하는 데 강점을 내세워 왔다. 계약에 따라 조너선 로스 그로크 창립자, 써니 마드라 사장 등 핵심 엔지니어들이 엔비디아에 합류한다. 다만 그로크의 경영은 사이먼 에드워즈 신임 최고경영자(CEO)가 맡아 독립 운영을 이어간다. 앞서 일부 매체에서는 엔비디아가 그로크를 약 200억달러에 인수할 수 있다는 관측을 내놓은 바 있다. 그러나 최종적으로 인수 대신 라이선스 계약과 인재 영입 방식으로 정리됐다. 업계에서는 반독점 규제와 정치적 부담을 최소화하려는 선택으로 보고 있다. 엔비디아는 AI 훈련용 GPU 시장에서는 확고한 지배력을 유지하고 있지만, AI 추론 부문에서는 경쟁이 빠르게 심화되고 있다. 최근 AI 서비스가 확산되면서 추론 성능과 전력 효율이 핵심 경쟁 요소로 부상한 것이 배경이다. 이번 계약은 엔비디아가 블랙웰 이전 세대와 이후 제품군 전반에서 추론 성능을 강화하려는 전략적 포석으로 해석된다. 자체 GPU 기술에 외부 전문 설계를 접목해, AI 인프라 전반의 경쟁력을 끌어올리겠다는 계산이다. 업계 관계자는 “완전 인수보다 라이선스와 인재 흡수가 빠르고 규제 리스크도 적다”며 “AI 반도체 시장에서 대형 기업들이 선택하는 전형적인 전략이 되고 있다”고 평가했다. 이번 계약이 AI 추론 칩 시장의 경쟁 구도에 어떤 변화를 가져올지, 그리고 그로크 기술이 엔비디아의 차세대 AI 플랫폼에 어떻게 녹아들지 주목된다.

2025.12.26 15:35전화평 기자

AI, 서버용 SSD 시장도 바꾼다…'SLC' 존재감 부각

인공지능(AI) 산업이 데이터센터용 SSD 시장 판도를 바꿀 것으로 예상된다. 기존 데이터센터용 SSD는 고용량 구현에 초점을 맞춰 왔으나, 최근 주요 메모리 기업들은 데이터 처리 성능을 극대화하기 위한 SLC(싱글레벨셀) 기반의 차세대 SSD 개발에 집중하고 있다. 글로벌 빅테크인 엔비디아 역시 AI용 고성능 SLC SSD에 주목하고 있는 것으로 알려졌다. 26일 업계에 따르면 주요 메모리 기업들은 AI 데이터센터용 차세대 낸드로 SLC에 주목하고 있다. TLC·QLC가 주도 중인 서버용 SSD 시장 SLC는 데이터를 저장하는 최소 단위인 셀 하나에 1비트(Bit)를 저장하는 방식을 뜻한다. 2비트를 저장하면 MLC(멀티레벨셀), 3비트는 TLC(트리플레벨셀), 4비트는 QLC(쿼드레벨셀)로 불린다. 각 방식에 따라 SSD(낸드 기반 저장장치)의 주 적용처가 달라진다. 기존 데이터센터용 SSD 시장은 TLC, 혹은 QLC가 주류를 차지해 왔다. 각 셀에 더 많은 비트를 저장하므로, 단위면적 당 더 많은 데이터를 저장할 수 있기 때문이다. 특히 방대한 양의 데이터 처리가 필요한 AI 데이터센터에서는 수요가 더 늘어나는 추세다. SLC는 데이터 처리 속도가 빠르고 안정성이 높지만, 저장 용량이 적고 가격이 비싸 대규모 투자가 필요한 데이터센터 구축에는 적합하지 않다는 평가가 지배적이었다. AI가 바꾸는 패러다임…1억 IOPS SSD·HBF는 'SLC' 기반 그러나 최근 주요 메모리 기업들이 개발 중인 차세대 낸드에서는 SLC의 존재감이 커지고 있다. 대표적으로, SK하이닉스는 AI 데이터센터 시장을 겨냥해 AI-N P(성능)·AI-N B(대역폭)·AI-N D(용량) 등 세 가지 측면을 각각 강화한 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 1세대 제품의 IOPS(1초당 처리할 수 있는 입출력 횟수)는 2천500만으로, 현존하는 고성능 SSD(최대 300만 수준) 대비 8~10배에 달한다. 2027년 말 양산 준비 완료를 목표로 한 2세대 제품은 1억 IOPS를 지원할 전망이다. 이를 위해 SK하이닉스는 낸드와 컨트롤러를 새로운 구조로 설계하고 있으며, 핵심 고객사인 엔비디아와 협업해 내년 말 첫 샘플을 선보일 계획이다. 회사에 따르면, AI-N P는 SLC 낸드를 기반으로 개발되고 있다. AI-N P가 데이터 처리 성능을 극대화하는 제품인 만큼, 용량은 후순위로 미루려는 전략으로 풀이된다. 일본 키오시아도 올 3분기 개최한 기술설명회에서 "엔비디아와 협력해 1억 IOPS 성능의 차세대 SSD를 오는 2027년 상용화할 것"이라고 밝힌 바 있다. SK하이닉스와 동일한 개념의 제품인 만큼, 키오시아도 SLC 낸드를 기반으로 할 것으로 관측된다. 업계에서 HBF(고대역폭플래시)라 불리는 AI-N B 역시 SLC 낸드 기반으로 개발되고 있다. HBF는 D램을 적층해 만든 HBM과 유사하게 낸드를 적층해, 데이터를 송수신하는 대역폭을 크게 확장한 제품이다. 현재 SK하이닉스는 미국 샌디스크와 협력해 HBF에 대한 표준화 작업을 진행하고 있다. 오는 2027년 PoC(개념증명) 단계의 샘플이 개발돼 본격적인 평가를 거칠 것으로 예상된다. 엔비디아, GPU와 SSD 직접 연결 구상 AI 산업을 주도하고 있는 엔비디아도 SLC 낸드의 필요성에 공감하고 있다는 분석이다. 현재 엔비디아는 주요 메모리 기업들과 AI 낸드 협력망을 구축함과 동시에, 이를 활용하기 위한 소프트웨어 'SCADA(SCaled Accelerated Data Access)'를 개발하고 있다. SCADA는 AI 데이터 처리의 핵심 요소인 GPU가 CPU를 거치지 않고 스토리지(SSD)에 직접 접근해 데이터를 읽고 쓸 수 있도록 하는 기술이다. CPU가 SSD에서 데이터를 읽고 GPU로 전송하는 기존 구조 대비 데이터 처리 과정을 줄여, 학습 및 추론 속도와 효율성을 높일 수 있다. 엔비디아 SCADA 솔루션의 구현을 위해서는 SSD도 데이터 처리 속도를 크게 끌어올려야 한다. 현재 주요 메모리 공급사들이 1억 IOPS 이상의 차세대 SSD를 개발하는 이유도 여기에 있다. 반도체 업계 관계자는 "데이터센터용 SSD에서 아직 주류는 아니지만, 차세대 스토리지 솔루션에서는 SLC 기반의 AI용 SSD가 각광을 받을 가능성이 있다"며 "다만 실제 상용화 시기를 아직까지 예측하기는 힘든 상황"이라고 설명했다.

2025.12.26 10:49장경윤 기자

"美 빅테크 이길 것"…바이트댄스, 내년 AI 인프라 투자 늘려

틱톡을 운영하는 바이트댄스가 미국 빅테크와 인공지능(AI) 기술 격차를 좁히기 위해 인프라 투자를 확대한다. 23일 파이낸셜타임스(FT)에 따르면 바이트댄스는 내년 AI 인프라 자본지출로 약 1천600억 위안(약 23조원)을 투입한다고 밝혔다. 이는 올해 인프라 투자액 1천500억 위안보다 늘어난 규모다. 이중 약 절반은 AI 모델과 애플리케이션 개발을 위한 첨단 반도체 확보에 쓰일 예정이다. 바이트댄스는 내년 AI 프로세서에만 850억 위안(약 17조9천억원)을 배정한 것으로 확인됐다. 이를 통해 격화하는 글로벌 AI 인프라 경쟁에서 우위를 점하기 우한 전략이다. 다만 미국 마이크로소프트와 알파벳, 아마존, 메타가 올해 합산 3천억 달러 이상을 AI 데이터센터에 투자한 것과 비교하면 규모 차는 여전히 크다. 그동안 중국 기업들은 미국의 수출 통제로 엔비디아 그래픽처리장치(GPU)에 접근하지 못하면서 상대적으로 적은 연산 자원으로 구동 가능한 효율 중심 모델 개발에 집중해 왔다. 바이트댄스뿐 아니라 알리바바도 이런 환경 속에서 자체 AI 전략을 추진해 왔다. 최근 도널드 트럼프 미국 대통령은 엔비디아가 중국 내 승인된 고객에게만 H200 판매를 허용했다. 실제 공급 여부는 미국 의회와 중국 당국 입장에 따라 달라질 전망이다. 판매가 허용될 경우 바이트댄스는 H200 2만 개를 시험 주문할 계획인 것으로 알려졌다. 개당 가격은 약 2만 달러 수준이다. 바이트댄스는 중국 외 지역에서도 AI 투자를 확대하고 있다. 해외 데이터센터를 임차해 엔비디아의 최첨단 하드웨어(HW)를 활용하려는 전략이다. 이는 자본지출이 아닌 운영비로 처리되고 있다. AI 모델 성능 면에서 바이트댄스의 오픈소스 '더우바오' 모델은 알리바바의 '첸원'이나 딥시크보다 낮은 평가를 받고 있다. 반면 소비자 대상 AI 서비스에서는 중국 내 가장 높은 이용률을 기록하고 있다. 중국 조사기관 퀘스트모바일에 따르면 더우바오 챗봇은 월간 활성 이용자 수와 다운로드 수에서 딥시크를 앞질렀다. 바이트댄스는 기업 시장에서도 볼케이노 엔진 클라우드 서비스를 앞세워 알리바바와 경쟁하고 있다. 골드만삭스는 바이트댄스의 AI 서비스가 중국에서 가장 많이 사용되는 AI 플랫폼으로 자리 잡았다고 분석했다. 지난해 10월 기준 바이트댄스의 일일 토큰 사용량은 30조 개를 넘어 같은 기간 구글의 43조 개에 근접했다. 한 바이트댄스 투자자는 "바이트댄스는 다른 중국 빅테크와 달리 비상장사라서 공격적인 투자와 장기 전략을 유연하게 추진할 수 있다"고 FT에 밝혔다.

2025.12.23 16:30김미정 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI·반도체가 가리키는 전력 해답 ‘원전’ 국내외 급부상

놀면 뭐 하니...설날 전용 알바 기획전 '봇물'

[2026 주목! 보안기업] 로그프레소 "통합보안 수요 폭발...3월 신제품 출시"

고 구본무 회장 뚝심 'R&D 결실'…LG엔솔, 30년 발자취 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.