• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (883건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정

LG CNS 파트너 美 스킬드 AI, 7개월만에 기업가치 3배 올랐다…왜?

LG CNS와 지난 6월 전략적 협력 계약을 체결한 미국 인공지능(AI) 로봇 스타트업 스킬드 AI가 소프트뱅크그룹, 엔비디아로부터 또 다시 대규모 자금 수혈을 받을지 주목된다. 9일 테크크런치, 로이터통신 등 주요 외신에 따르면 소프트뱅크그룹, 엔비디아는 최근 스킬드AI에 10억 달러(약 1조4천억원) 이상을 투자하는 방안을 논의 중인 것으로 알려졌다. 이번 투자 성사 시 스킬드AI의 기업가치는 140억 달러로 평가된다.창립 3년차인 스킬드 AI는 컴퓨터 및 로봇 공학 분야 석학인 디팍 파탁, 아비나브 굽타 카네기멜론대 교수가 공동 창업한 AI 로봇 스타트업이다. 핵심 기술은 로봇의 두뇌 역할을 하는 로봇 파운데이션 모델(RFM)로 이미지, 텍스트, 음성, 영상 등 대량의 데이터를 학습해 로봇이 자율적으로 탐색하고 물체를 조작하고 주변 환경과의 상호 작용하는 작업을 가능케 한다. 또 휴머노이드 로봇뿐만 아니라 모든 형태의 로봇에 적용할 수 있는 범용성을 갖춘 것도 특징이다. 지난 7월에는 범용 로봇 모델 '스킬드 브레인'을 공개해 주목을 끌었다. 공개 영상에는 로봇이 접시를 집고 계단을 오르내리는 모습이 담겼다. 테크크런치는 "스킬드 AI는 막대한 자금을 조달하는 다른 스타트업들과 달리 자체 하드웨어를 개발하지 않는다"며 "대신 다양한 유형의 로봇과 사용 사례에 맞춰 커스터마이즈할 수 있도록 하는 모델을 개발하고 있다"고 설명했다. 이 같은 기술로 스킬드 AI는 지난 5월 소프트뱅크 주도로 엔비디아, 삼성전자, LG테크놀로지벤처스 등으로부터 5억 달러를 투자 받았다. 당시 기업가치는 47억 달러였으나, 이번 투자가 성사되면 불과 7개월 만에 기업가치가 3배 가까이 오르게 된다. 이곳은 LG CNS, 휴렛팩커드엔터프라이즈(HPE)와 전략적 파트너십을 맺고 생태계 확장에도 속도를 내고 있다. 특히 LG CNS는 스킬드 AI의 로봇 파운데이션 모델을 기반으로 산업용 AI 휴머노이드 로봇 설루션을 만들어 스마트 팩토리와 스마트 물류 등 다양한 산업 영역에서 AI 휴머노이드 로봇 통합 서비스를 제공할 계획이다. 스킬드 AI처럼 AI 로보틱스 분야 관련 기업에 대한 투자자 관심도 꾸준히 증가하고 있다. 다양한 로봇에 적용 가능한 '브레인'을 개발하는 피지컬 인텔리전스(Physical Intelligence)는 최근 캐피털G가 주도하는 6억 달러 규모 투자를 받아 56억 달러의 기업가치를 평가 받았다. 올해 9월에는 휴머노이드 로봇을 개발하는 피규어(Figure)도 390억 달러 기업가치를 평가 받으며 10억 달러 이상을 조달했다. 또 다른 휴머노이드 로봇 개발사 1X는 100억 달러 기업가치 기준으로 최대 10억 달러 투자 유치 협상을 진행 중인 것으로 알려졌다. 업계 관계자는 "AI와 로봇의 결합은 단순 기술 실험을 넘어 산업과 생활을 바꿀 수 있는 새로운 기술 트렌드가 될 것"이라며 "이 가능성 때문에 투자자들이 큰 돈을 베팅 중"이라고 말했다. 또 다른 관계자는 "생성형 AI가 디지털 영역을 혁신했다면, 피지컬 AI는 이제 실제 세계를 변화시키기 시작했다"며 "로봇이 스스로 인지하고 판단하며 환경에 적응하는 시대가 열리면서 투자자들이 '다음 성장 곡선'을 로보틱스에서 찾고 있는 듯 하다"고 밝혔다. 그러면서도 "상용화까지 여전히 해결해야 할 기술적·경제적 과제들이 남아 있다는 점은 고려해야 할 사항"이라며 "시장의 기대가 너무 앞서가고 있다는 우려도 있는 만큼, 냉정한 검증도 필요한 시기"라고 덧붙였다.

2025.12.09 10:20장유미

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤

노타, 엔비디아 '커넥트' 공식 파트너 선정…NVA 글로벌 확장 가속

노타가 엔비디아의 글로벌 파트너 프로그램 '커넥트(Connect)'에 공식 선정되며 글로벌 시장 진출에 박차를 가한다. 노타(대표 채명수)는 엔비디아의 글로벌 독립 소프트웨어 공급업체(ISV) 파트너 프로그램 '커넥트' 공식 파트너로 선정됐다고 8일 밝혔다. 노타는 그동안 엔비디아 인셉션과 인셉션 프리미어, 메트로폴리스 파트너를 단계적으로 거치며 협력 범위를 넓혀왔다. 스타트업 지원 프로그램에서 출발한 파트너십이 실제 산업 적용과 공동 비즈니스 모델 개발 단계까지 이어지며 엔비디아 생태계 내 입지를 꾸준히 키워온 셈이다. 엔비디아 커넥트 프로그램은 소프트웨어 기업과 서비스 사업자를 대상으로 고급 개발 리소스, 기술 교육, 멘토링, 우대 가격 정책 등을 제공하는 ISV 대상 글로벌 파트너십 프로그램이다. 이를 통해 파트너사는 엔비디아의 최신 AI 프레임워크와 SDK에 대한 조기 접근권, 모델 최적화 워크숍과 기술 컨설팅, 공동 마케팅 및 세일즈 협력 등 지원을 받을 수 있다. 노타는 이번 커넥트 합류로 이러한 기술·사업 지원을 본격적으로 활용해 글로벌 시장 공략을 가속화할 계획이다. 노타는 비전언어모델 기반 실시간 영상 분석 솔루션 '노타 비전 에이전트(NVA)'를 앞세워 엔비디아 GPU 인프라와의 연계를 빠르게 확대해왔다. NVA는 영상 속 객체를 단순 인식하는 수준을 넘어, 객체 간 관계, 작업 절차 위반, 복합적인 위험 징후까지 실시간으로 파악하는 차세대 영상 관제 솔루션이다. 교통, 산업안전 등 다양한 환경에서 발생하는 대규모 CCTV 영상을 지능적으로 분석하고, 상황 맥락을 반영해 이벤트를 요약·리포트 형태로 제공하도록 설계됐다. 특히 NVA는 엔비디아의 센터형 GPU 서버와 엣지형 디바이스를 모두 지원하도록 설계돼, 데이터센터와 현장 엣지 단 모두에서 유연하게 운용할 수 있다는 점이 강점이다. 노타는 엔비디아의 영상 검색·요약 도구인 'VSS 블루프린트'를 활용해 CCTV 영상에서 발생하는 이상 상황을 실시간으로 탐지·요약하고, 관련 장면을 추려 제공함으로써 관제 인력의 대응 시간을 단축하고 있다고 설명했다. NVA가 지향하는 '시각 데이터에서 실행 가능한 인사이트로의 전환'이라는 목표와도 맞닿은 대목이다. NVA의 기술적 완성도는 외부 행사에서도 주목받고 있다. 최근 열린 '엔비디아 AI Day Seoul 2025'에서 엔비디아는 노타의 NVA를 실시간 영상 관제 분야 대표 성공 사례로 소개하며, 산업·공공 분야에서의 확장 가능성을 높게 평가한 것으로 전해졌다. 앞서 노타는 코오롱베니트와 협력해 코오롱인더스트리 공장에서 개념검증(PoC)를 완료하고 NVA 기반 패키지 제품을 선보이는 등 실제 산업 환경에서의 적용 사례도 축적해 왔다. 채명수 노타 대표는 "이번 '커넥트' 선정은 노타가 엔비디아 기술 스택을 기반으로 쌓아온 경쟁력을 공식적으로 인정받은 의미 있는 성과"라며 "엔비디아와의 긴밀한 협력을 바탕으로 NVA의 글로벌 확장을 가속화하고, 교통, 산업안전, 스마트시티 등 다양한 산업에서 활용 범위를 넓혀 나가겠다"고 말했다. 이어 "VLM 기반 실시간 영상 관제 기술은 안전과 효율을 동시에 높일 수 있는 핵심 인프라가 될 것"이라며 "국내를 넘어 글로벌 시장에서도 레퍼런스를 빠르게 확보하겠다"고 강조했다.

2025.12.08 15:46남혁우

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

美 상원, 엔비디아 AI칩 中 수출 차단 법안 발의

미국 상원 소속 초당적 의원들이 엔비디아·AMD 등 미국산 고급 AI 칩의 중국 등 적대국 수출을 2년 반 동안 사실상 봉쇄하는 법안인 '세이프 칩스 액트(SAFE CHIPS Act)'를 공개했다고 로이터가 4일(현지시간) 보도했다. 이 법안은 미국 행정부가 해당 AI 칩 수출 규제를 완화하지 못하도록 막는 것이 핵심이다. 새 법안은 미국 상무부가 현재 허용된 수준보다 성능이 뛰어난 AI 칩을 중국·러시아·이란·북한에 수출하려 할 경우, 라이선스를 승인하지 못하도록 한다. 적용 기간은 30개월이다. 이후 상무부가 규제 완화를 제안할 경우, 반드시 시행 한 달 전에 의회에 사전 보고해야 한다. 상원에서 발의한 주체는 공화당의 피트 리켓츠 의원과 민주당의 크리스 쿤스 의원. 공화당 내 대표적인 대중 강경파인 톰 코튼 등도 동참하며, 트럼프 행정부의 수출 규제 완화 움직임에 제동을 건 모양새다. 공화·민주 양당이 함께 나선 점이 이례적이라는 평가다. 리켓츠 의원은 “미국산 최고의 AI 칩을 중국에 넘기는 것을 막는 일은 국가 안보에 필수적”이라고 강조했다. 이번 법안 발의는 최근 행정부가 중국에 대한 AI 칩 수출 규제를 사실상 완화하려 한다는 보도가 나온 직후 나왔다. 특히 엔비디아가 최신 세대 GPU인 H200의 중국 수출 허가를 검토 중이라는 보도가 배경이 됐다. 이를 두고 미국 내에서는 중국이 해당 칩을 군사, 감시 등에 활용할 수 있다는 우려가 제기돼 왔다. 한편, 이번 입법 움직임은 같은 날 보도된 AMD의 AI 반도체 MI 308 중국 수출 허용 및 이에 따른 15% 수출료 부과 움직임과 직접적으로 맞물린다.

2025.12.05 15:55전화평

엔비디아, 미스트랄AI 모델 개발 협력…"오픈소스 AI 강화"

엔비디아가 미스트랄AI의 오픈 모델 개발에 협력해 생성형 인공지능(AI) 경쟁력을 끌어올렸다. 미스트랄AI는 엔비디아 슈퍼컴퓨팅과 엣지 플랫폼 전반에 최적화된 다국어·멀티모달 오픈소스 모델 '미스트랄3'를 공개했다고 4일 밝혔다. 제품군은 프론티어급 대규모 모델 '미스트랄 라지3'와 엣지 실행에 특화된 경량 제품군 '미니스트랄3'로 이뤄졌다. 미스트랄 라지3는 불필요한 연산을 줄이는 전문가 혼합 방식(MoE) 구조를 적용해 확장성과 정확성을 높였다. 410억 개의 활성 매개변수, 6천750억 개의 전체 매개변수, 25만6천 토큰 컨텍스트 윈도우를 갖춰 엔터프라이즈 AI 워크로드에서 효율성과 적응성을 제공한다. 해당 모델은 엔비디아 'GB200 NVL72' 시스템과 결합할 때 병렬 처리와 하드웨어 최적화가 극대화된다. 방대한 AI 모델의 배포 효율이 크게 향상된다. 이 조합은 미스트랄 AI가 말하는 '분산 지능' 개념을 현실화하며 연구 성과와 실제 활용 간 간극을 좁히는 기반이 된다. 미스트랄 라지3는 엔비디아 NV링크의 일관 메모리 도메인, 전문가 병렬 처리 구조, NVFP4 저정밀도 연산, 엔비디아 다이나모 기반 분산 추론 최적화가 결합돼 훈련과 추론 성능을 크게 끌어올렸다. 그 결과 NVL72 시스템에서 이전 세대 H200 대비 10배 성능 향상을 보였다. 엣지 실행을 위한 '미니스트랄 3'는 9개 소형 언어 모델로 구성됐다. 엔비디아 스파크, RTX PC·노트북, 젯슨 등 다양한 플랫폼에서 최적화된 성능을 제공한다. 또 라마.cpp, 올라마 등 주요 AI 프레임워크와 연동 가능하다. 미스트랄 3 제품군은 누구나 이용 가능한 오픈소스 형태로 제공돼 연구자와 개발자가 실험, 맞춤화, 최적화를 폭넓게 수행할 수 있다. 기업은 이를 엔비디아 네모의 데이터 디자이너, 커스터마이저, 가드레일, 네모 에이전트 툴킷과 연동해 에이전트 기반 모델 개발 속도를 높일 수 있다. 또 엔비디아는 클라우드부터 엣지까지 추론 효율을 극대화하기 위해 텐서RT-LLM, SGLang, vLLM 등 추론 프레임워크도 미스트랄 3에 맞춰 최적화했다. 이번 모델 군은 주요 오픈소스 플랫폼과 클라우드 서비스에서 즉시 사용 가능하며, 조만간 엔비디아 NIM 마이크로서비스 형태로도 배포될 예정이다.

2025.12.04 15:22김미정

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

삼성전자, 엔비디아향 HBM4 최종 평가 단계 돌입

삼성전자가 엔비디아향 HBM4(6세대 고대역폭메모리) 공급을 위한 마지막 단계에 들어선다. 이달부터 실제 AI칩과 최종 HBM 샘플을 패키징 및 테스트하는 과정에 착수할 것으로 파악됐다. 그간 삼성전자가 HBM4 성능 및 수율 향상에서 많은 진전을 이뤄냈으나, 현재로서는 HBM4의 적기 상용화 가능성을 단언하기에는 무리가 있다는 평가가 있었다. 엔비디아가 요구하는 충분한 물량의 샘플로 테스트를 거치지 않아, 초기 결과만을 확인할 수 있었기 때문이다. 테스트 일정을 고려하면 삼성전자 HBM4의 상용화 윤곽이 드러나는 시점은 빨라야 내년 1분기께가 될 전망이다. 주요 경쟁사인 SK하이닉스 역시 내년 초까지는 패키징 단에서의 테스트를 지속할 것으로 관측된다. 삼성전자, HBM4 상용화 위한 마지막 평가 목전 3일 지디넷코리아 취재에 따르면, 삼성전자는 이달부터 엔비디아향 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 진행할 계획이다. HBM4는 엔비디아가 내년 하반기 출시할 예정인 차세대 AI 가속기 '루빈'에 처음으로 탑재되는 차세대 HBM이다. 삼성전자를 비롯해 SK하이닉스, 마이크론이 엔비디아로부터 대량으로 샘플을 요청받은 바 있다. 이에 삼성전자는 지난 9월 말부터 엔비디아향으로 CS(커스터머샘플; 양산용으로 평가하는 샘플) 초도 물량을 공급했다. 이후 지난달 최종 샘플에 대한 추가 공급을 실시하며, 엔비디아가 요구하는 샘플 물량을 일정 수준 충족한 것으로 알려졌다. CS 샘플 테스트의 핵심은 2.5D 패키징에 있다. 2.5D 패키징은 HBM과 루빈 칩 같은 AI 가속기를 기판에 실장하는 공정으로, 가운데에 칩과 기판을 연결해주는 얇은 막(인터포저)를 삽입한다. 엔비디아의 경우 대만 주요 파운드리인 TSMC에 이 공정을 맡긴다. TSMC는 자체적으로 개발한 2.5D 패키징 기술인 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)' 양산 라인을 보유하고 있다. 최종 HBM4 샘플이 2.5D 패키징 및 테스트에 돌입한 만큼, 삼성전자는 HBM4의 제품 상용화를 위한 마지막 단계에 접어든 것으로 평가 받는다. 다만 아직까지 삼성전자의 HBM4 상용화 여부를 판단하기에는 이르다는 게 업계의 시각이다. HBM4 자체에 오류가 없더라도, 실제 루빈 칩과의 연결성을 확인하는 2.5D 패키징에서 오류가 발생하면 양산이 불가능하기 때문이다. 해당 사안에 정통한 관계자는 "삼성전자의 최종 HBM4 샘플이 이달부터 2.5D 패키징 및 완성품에 대한 테스트를 받을 예정"이라며 "테스트 일정을 고려하면 빨라야 내년 1분기께 실제 상용화 여부에 대한 윤곽이 드러날 것으로 보인다"고 설명했다. 반도체 패키징 업계 관계자는 "실제 AI 반도체 제조에는 HBM과 AI 가속기, 각종 보조 칩들을 모듈화해서 전체적으로 신뢰성을 봐야하기 때문에 HBM 자체 수율 및 성능과는 결이 다르다"며 "루빈 칩의 상용화 과정에서 CoWoS가 가장 중요한 요소"라고 말했다. 2.5D 패키징 신뢰성 확보까지 속단은 '금물'…내년 초 윤곽 실제로 삼성전자에 앞서 먼저 HBM4 샘플을 공급했던 SK하이닉스도 2.5D 패키징 및 테스트 하는 과정에서 여러 개선 작업이 필요했던 것으로 파악됐다. SK하이닉스가 최근 해외 IR 행사를 통해 "HBM4에 대한 재설계, 인증 지연 문제는 없다"고 밝혔으나, 일부 국지적인 문제 해결을 위해 개선품을 지속해서 만들어왔다는 게 업계의 전언이다. 해당 사안에 정통한 관계자는 "엔비디아의 칩 성능 상향 요구, 이전 세대 대비 HBM4의 I/O(입출력단자) 2배 증가 등으로 CoWoS 단에서 해결해야 할 이슈들이 계속 발생해 왔다"며 "다만 현재는 SK하이닉스가 개선된 샘플 설계를 완료한 상태로, 내부에서도 심각한 위기로 인지하지 않는 것으로 안다"고 밝혔다. 결과적으로 SK하이닉스 역시 내년 초까지 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 지속할 전망이다. 현재 엔비디아가 메모리 공급사에 제시한 HBM4 공식 퀄(품질) 테스트 일정 완료 시기는 내년 1분기 말로, 그 전까지는 메모리 공급사 모두 HBM의 안정화 및 수율 개선에 총력을 기울일 것으로 관측된다. 반도체 업계 관계자는 "SK하이닉스가 HBM4 최종 샘플에 대한 테스트를 가장 먼저 진행한 만큼 가장 앞서 있으나, 모든 불확실성이 제거되는 시점은 내년 1분기"라며 "루빈 상용화를 위한 각 요소에 필요한 기술의 난이도가 상당히 높아 업계 예상보다 HBM4 및 루빈의 양산 일정이 전체적으로 밀릴 가능성도 높아졌다"고 설명했다.

2025.12.03 14:48장경윤

삼성 세계 최초 12나노급 GDDR7 대통령상…추론 AI 시장서 '각광'

삼성전자의 최첨단 GDDR7 D램이 국가 산업경쟁력 강화에 기여하는 미래전략 기술로 인정 받았다. 해당 D램은 업계 최초로 12나노미터(nm)급 미세 공정을 적용한 고성능·고용량 그래픽 D램으로, 엔비디아 등이 주목하는 추론 AI 시장에서 핵심 역할을 담당할 것으로 관측된다. 삼성전자는 3일 서울 코엑스에서 개최되는 '2025 코리아 테크 페스티벌'에서 12나노급 40Gbps 24Gb GDDR7 D램으로 2025 대한민국 기술대상 대통령상을 수상했다. GDDR은 그래픽 처리에 특화된 D램으로, 일반 D램 대비 대역폭이 높아 한 번에 더 많은 데이터를 전송할 수 있다. GDDR7은 현존하는 GDDR 중 가장 최신 세대에 해당한다. GDDR7은 AI 시장에서 핵심 메모리로 빠르게 자리매김하고 있다. 특히 AI 경쟁의 초점이 기존 학습에서 추론으로 넘어가면서 GDDR7의 가치는 더욱 부각되는 추세다. AI 학습이 더 높은 메모리 용량 및 대역폭을 요구하는 데 비해, AI 추론은 효율성을 더 중시하기 때문이다. GDDR7은 고대역폭메모리(HBM) 대비 비용 효율, 전력효율, 경량성에서 강점을 가지고 있다. AI 시장의 주요 플레이어들 역시 GDDR7을 주목하고 있다. 엔비디아는 지난 9월 공개한 추론 전용 GPU인 루빈 CPX(Rubin CPX)'에 128GB GDDR7을 탑재할 것이라고 밝혀, GDDR7의 시장 입지를 한층 강화할 전망이다. 이에 삼성전자도 엔비디아와의 협력을 통해 시장 주도권을 공고히 할 것으로 관측된다. 김동원 KB증권 연구원은 "최근 엔비디아가 삼성전자에 GDDR7 공급 확대를 대폭 요청해 평택 라인의 생산능력이 두 배 이상 확대될 것"이라며 "가격 프리미엄을 받고 있는 GDDR7이 향후 D램 사업의 수익성 개선을 견인할 것으로 전망한다"고 밝혔다. 한편 삼성전자는 올해 초부터 12나노급 GDDR7 D램 양산에 나섰다. 그래픽 D램 중 최초로 24Gb를 구현했으며, 최대 42.5Gbps 속도 및 총 1.92TB/s 대역폭을 지원한다. 또한 고열전도성 신소재 적용으로 패키지 열저항 특성을 이전 GDDR7 제품 대비 11% 개선하는 데 성공했다.

2025.12.03 11:07장경윤

아카마이, 엔비디아와 AI 추론 클라우드 구축…엣지로 분산

아카마이가 오는 11일 개최하는 'AI&클라우드 컨퍼런스 2025(ACC 2025)'에서 인공지능(AI) 추론을 중앙 데이터센터에서 글로벌 엣지까지 확장하기 위한 전략을 소개한다. 아카마이는 서울 신라호텔에서 열리는 ACC 2025에 참가해 엔비디아와 협력해 구축 중인 '아카마이 인퍼런스 클라우드(Akamai Inference Cloud)'의 비전과 기술 구조를 공개한다고 2일 밝혔다. 이번 발표에서 아카마이는 분산 클라우드 플랫폼과 엔비디아 GPU 인프라를 결합해, AI 모델 추론을 글로벌 엣지 네트워크에서 효율적으로 실행하는 방식을 중심으로 엣지 AI 전략을 공유할 예정이다. 아카마이는 AI 인퍼런스의 핵심을 '데이터가 생성되는 곳에서 모델을 추론하는 것'으로 정의한다. 기존에는 중앙 데이터센터나 특정 리전의 대형 클라우드에 트래픽을 모아 처리하는 방식이 일반적이었지만, 실시간성이 중요한 서비스에서는 네트워크 지연이 한계로 지적돼 왔다. 아카마이는 전 세계 4천200개 이상으로 알려진 엣지 PoP를 기반으로, 사용자와 가장 가까운 지점에서 데이터를 처리해 응답 지연을 최소화하는 분산형 추론 방식을 내세운다. 아카마이 인퍼런스 클라우드는 엔비디아 RTX 프로 6천 블랙웰 서버 에디션 GPU와 엔비디아 블루필드-3 DPU, 엔비디아 AI 엔터프라이즈 소프트웨어를 탑재한 엔비디아 RTX 프로 서버를 아카마이 분산 클라우드 인프라와 결합한 구조다. 아카마이는 이 인프라 위에 엣지 AI 아키텍처를 더해, 코어 데이터센터부터 엣지까지 동일한 환경에서 AI 추론 워크로드를 배치하고 확장할 수 있도록 설계했다. 회사 측은 이를 통해 저지연 실시간 추론은 물론, 모델 보호와 API 보안을 통합 제공하는 것이 특징이라고 설명한다. 아카마이 인퍼런스 클라우드는 크게 GPU 가속 인프라, 엣지 AI 아키텍처, 분산형 AI 서비스 레이어로 구성된다. 기업은 고성능 GPU 인프라 위에 생성형 AI·추천·검색·대화형 에이전트 등을 올리고, 글로벌 엣지 위치를 통해 지역별로 필요한 처리량만큼 유연하게 확장하는 방식으로 활용할 수 있다. 아카마이는 특히 AI 추론이 급격히 늘어나는 피크 시간대에도, 엣지 단으로 부하를 분산해 비용과 성능을 동시에 관리할 수 있다는 점을 장점으로 내세운다. 활용 분야도 넓게 제시된다. 생성형 AI(GenAI) 영역에서는 실시간 데이터 분석과 콘텐츠 생성, 개별 사용자 맥락에 맞춘 응답 제공을 위해 엣지 추론을 적용할 수 있다. 게임 분야에서는 반응 속도가 중요한 매치메이킹, 부정 행위 탐지, NPC(Non-Player Character) AI 등에 엣지 추론을 도입해 지연을 줄이는 시나리오가 제시된다. 미디어, 스트리밍 서비스에서는 대규모 동시 접속 환경에서 개인화 추천과 실시간 자막, 요약 생성 등에 적용할 수 있고 보안 영역에서는 '파이어월 포 AI(Firewall for AI)'와 같은 AI 특화 보안 솔루션과 연계해 프롬프트 인젝션, 모델 악용 시도를 탐지·차단하는 구조를 표방한다. 아카마이는 향후 로드맵으로 엣지 AI 게이트웨이와 '서비스형 웹 어셈블리(WaaS)'를 제시했다. 엣지 AI 게이트웨이는 사용자 단말과 백엔드 AI 서비스 사이에서 트래픽을 중계하면서, 요청을 위치·지연·모델 특성에 따라 최적의 인퍼런스 노드로 라우팅하는 관문 역할을 하도록 설계된다. WaaS는 웹어셈블리(WebAssembly) 기반 실행 환경을 서비스 형태로 제공해, 개발자가 사용 언어와 상관없이 경량 코드를 엣지에서 실행하고 AI 전·후처리 로직을 빠르게 배포할 수 있도록 지원하는 개념이다. 아카마이 관계자는 "엣지 AI 게이트웨이와 WaaS 같은 기술을 기반으로 클라우드 인프라의 진화를 계속 이끌어가겠다"며 "이를 통해 고객은 더 빠르고 효율적인 AI 추론 서비스를 경험하게 될 것"이라고 말했다. 이번 ACC 2025는 '효율을 넘어 성과로, AI가 바꾸는 새로운 비즈니스 전략'을 주제로, 이미 검증된 AI·클라우드 활용 사례와 성공·실패 경험을 공유하는 실전형 컨퍼런스로 꾸려진다. 아카마이는 발표 세션과 함께 전시 부스도 운영해 인퍼런스 클라우드와 엣지 AI 데모를 선보일 계획이다. 참가를 원하는 기업과 관계자는 ACC 2025 공식 웹사이트에서 사전 등록 및 문의를 할 수 있다.

2025.12.02 16:32남혁우

엇갈린 AI 시장…구글은 확 뜨고, 오픈AI는 주춤

미국 경제방송 CNBC의 '매드 머니' 진행자 짐 크레이머가 인공지능(AI) 관련 주식에 대한 자신의 전망을 내놨다고 CNBC가 1일(현지시간) 보도했다. 크레이머는 그 동안 AI 및 데이터센터 관련 종목들이 대체로 같은 방향으로 움직였지만, 최근 들어 흐름이 갈리기 시작했다고 진단했다. 그는 “구글 중심 그룹은 강세를 보였지만, 오픈AI 중심 그룹은 큰 타격을 입었다”며 “재무 구조가 탄탄한 하이퍼스케일러들은 재무 여건이 취약한 기업들보다 훨씬 더 잘 버텼다”고 말했다. 그는 오픈AI와 연관된 엔비디아, 오라클, 마이크로소프트, AMD 등의 기업들과 구글과 연관된 브로드컴, 셀레스티카 등의 주가 흐름이 서로 다르게 나타나고 있다고 설명했다. 최근 일부 투자자들이 챗GPT보다 구글 제미나이 최신 버전을 선호하기 시작하면서 구글 관련 투자가 증가했다고 지적했다. 또, 월가 전반에서도 오픈AI의 막대한 지출에 대한 우려가 커지고 있다고 덧붙였다. 또, 강력한 재무 상태를 갖춘 하이퍼스케일러가 앞서 나가기 시작했다며, 알파벳, 메타, 아마존 같은 기업들은 AI에 막대한 투자를 계속할 여력이 있다는 점을 지적했다. 하지만, 오라클, 코어위브, 네비우스는 재무 구조가 더 빠듯하다고 설명했다. 하지만, 크레이머는 “AI 분야가 불안정하다”고 경고하며, 다른 플랫폼이 제미나이를 넘어서는 상황이 충분히 가능하다고 경고했다. 그는 AI 투자 흐름의 다변화가 오히려 긍정적이라고 평가했다. 크레이머는 “투자자들이 어떤 기업이 진정한 승자가 될 자격이 있는 지 더 비판적으로 판단하기 시작한 것은 긍정적”이라며, ″전반적으로 보면 꽤 건강한 상황이다. 주가 상승에 반대할 생각은 전혀 없다”고 밝혔다. 다만, ”AI 종목 전체가 일제히 같은 방향으로 움직이는 것은 항상 불안한 면이 있었다”고 덧붙였다.

2025.12.02 16:14이정현

'빅쇼트' 마이클 버리, 이번엔 테슬라 저격…"터무니 없이 고평가"

영화 '빅쇼트'의 실제 인물로 유명한 마이클 버리가 이번에는 테슬라를 저격했다고 비즈니스인사이더, 일렉트렉 등 외신들이 1일(현지시간) 보도했다. 마이클 버리는 이날 자신의 뉴스레터 '카산드라 언체인드'에서 "테슬라의 시가총액이 오랫동안 터무니 없이 고평가 되어있다”고 주장했다. 그는 “테슬라가 자사주 매입을 하지 않은 채 매년 주주들의 주식을 3.6%씩 희석하고 있다”면서 "이는 아마존(1.3%)에 비해 훨씬 높은 수치이다"고 지적했다. 그는 또 최근 자신이 공매도 투자 한 팔란티어도 이보다 높은 4.6%에 달한다고 설명했다. 자동차 매체 일렉트렉은 여기서 우려되는 점은 테슬라가 수익을 내지만 창출된 이익의 상당 부분이 주주에게 가지 않고 새로운 주식의 형태로 직원과 경영진에게 직접 이전된다는 점이라고 지적했다. 또, 버리는 일론 머스크 테슬라 최고경영자(CEO)의 역대 최대 보상 안 때문에 주식 희석 문제가 계속될 것이라고 경고했다. 머스크의 보상 안은 테슬라가 시총 8조5천억 달러를 돌파하는 등의 경영 목표를 달성할 경우 머스크에게 1조 달러 상당의 주식을 지급하도록 한 내용이다. 마이클 버리는 이를 "현재 주주 가치를 미래에 희생하는 것"이라고 비판했다. 마지막으로 그는 “머스크 숭배자들은 경쟁자가 나타날 때까지 전기 자동차에 모든 걸 걸었고 그 다음에는 자율주행에, 지금은 로봇에 모든 것을 걸었다”며, 테슬라가 자동차 산업에서 로봇 산업으로 전환하는 것에 대해 주가 방어를 위한 내러티브 변화라고 지적했다. 이날 뉴욕 증시에서 테슬라 주가는 430.14달러로 전일 대비 0.01% 하락한 상태이나 최근 6개월 사이 25.5%가 올랐다. 버리는 과거 미국 주택시장 붕괴를 정확히 예측해 명성을 얻은 인물로, 그의 이야기는 2015년 영화 '빅 쇼트'로 만들어지기도 했다. 최근 그는 AI 거품론을 제기하며 엔비디아와 팔란티어의 주가 하락에 배팅해 큰 주목을 끌었다.

2025.12.02 14:42이정현

엔비디아, 자율주행용 AI 모델 발표…"레벨4 연구 지원"

엔비디아가 자율주행 레벨4 연구 활성화를 위해 인공지능(AI) 모델을 오픈형으로 공개했다. 12일 테크크런치 등 외신에 따르면 엔비디아는 미국 샌디에이고에서 열린 '뉴립스 AI 컨퍼런스'에서 자율주행 특화 오픈 추론 비전언어모델(VLM) '알파마요 R1'를 발표했다. 알파마요 R1은 텍스트와 이미지를 결합해 작동하는 형태다. 올해 1월 공개된 '코스모스 리즌 모델' 기반으로 개발됐다. 응답하기 전 사고 과정을 거치는 추론 능력이 강화된 것으로 전해졌다. 차량이 주변을 인식하고 상황에 맞는 업무를 스스로 수행할 수 있도록 돕는다. 엔비디아는 이 모델을 레벨4 자율주행을 위한 핵심 요소로 제시했다. 해당 모델이 차량에 상식적 판단에 가까운 의사결정 능력을 제공할 수 있다는 이유에서다. 레벨4는 사람 없이 특정 구역에서 완전 자동으로 달릴 수 있는 자율주행 단계다. 현재 알파마요 R1은 깃허브와 허깅페이스에 공개됐다. 이날 엔비디아는 '코스모스 쿡북'도 깃허브에 추가했다고 밝혔다. 코스모스 쿡북은 데이터 큐레이션을 비롯한 합성 데이터 생성, 평가 작업을 단계별로 지원해 모델 최적화 과정을 돕는다. 테크크런치는 엔비디아가 그래픽처리장치(GPU) 중심 AI 시장에서 피지컬 AI를 다음 성장축으로 삼는 전략을 강화할 것으로 평가했다. 자율주행 차량과 로봇 산업의 성장이 엔비디아 AI 인프라 수요 확대에 직접 연결된다는 평가다. 빌 달리 엔비디아 최고과학자는 "우리는 로봇이 세상에서 매우 큰 역할을 하게 될 것"이라며 "이를 위한 기술 개발을 지금부터 시작해야 한다"고 밝혔다.

2025.12.02 10:09김미정

영화 '빅쇼트' 주인공, 엔비디아와 충돌…승자는?

영화 '빅쇼트'의 실제 인물로 유명한 마이클 버리가 최근 인공지능(AI) 대표주자 엔비디아를 상대로 강한 공세를 펼치고 있다. IT매체 테크크런치는 27일(현지시간) 마이클 버리와 엔비디아의 충돌을 집중 조명하는 기사를 보도했다. 버리는 최근 연일 엑스(X)에 AI 거품론을 제기하며 엔비디아를 비롯한 AI 업체 주가 하락에 베팅하고 있다. 이달 초에는 그가 팔란티어 500만 주와 엔비디아 100만 주에 대해 풋옵션을 걸었다는 보고서가 공개돼 큰 주목을 받았다. 버리 비판에 엔비디아도 곧장 대응 나서 지난 주 그는 엔비디아의 자본 배분 전략을 공개 비판했다. 엔비디아가 2018년 이후 자사주 매입에 지출한 1천125억 달러가 사실상 주주가치에 거의 기여하지 못했다고 주장한 것이다. 또, 엔비디아 등 AI 기업들이 가치가 빠르게 하락하는 장비의 감가상각을 의도적으로 늦춰 장부를 조작하고 있다고 지적했다. 그의 비판이 화제를 모으자 엔비디아도 곧장 대응에 나섰다. 엔비디아는 "2018년 이후 910억 달러 상당의 주식을 환매했다. 1천125억 달러가 아니다”며 버리의 주장을 정면 반박했다. 회사 측은 버리가 주장한 1천125억 달러에는 직원들에게 지급된 주식의 소득세를 처리하기 위한 금액이 포함돼 부풀려진 것이라고 반박했다. 감가상각 문제도 해명했다. 엔비디아는 고객들의 실제 수명과 활용 패턴을 기반으로 GPU를 4년에서 6년에 걸쳐 감가상각하고 있으며, 2020년 구형 GPU도 여전히 높은 활용률로 유의미한 경제적 가치를 유지하고 있다고 설명했다. 이어 엔비디아는 분식 회계로 파산한 '엔론과는 다르다'고 강조했다. 이에 버리는 “엔비디아를 엔론에 비교한 것이 아니다”라며, 자신은 오히려 엔비디아를 1990년대 후반 닷컴 버블 시기 과잉투자와 수요 오판으로 주가가 붕괴한 '시스코'에 가깝다고 보고 있다고 반박했다. 엔비디아의 주가는 2023년 초 이후 약 12배 상승했다. 현재 시총은 4조 5천억 달러에 달하며, 시총 1위에 오른 속도는 역대급 수준이다. 마이클 버리는 어떤 인물? 버리는 과거 미국 주택시장 붕괴를 정확히 예측해 명성을 얻은 인물이다. 하지만, 2008년 이후 다양한 위기론을 제기했고, 일각에서는 그를 '영원한 약세론자(permabear)'로 부르기도 했다. 실제로 버리의 전망을 따랐던 일부 투자자들은 상승장에서 큰 돈을 벌지 못했다. 예컨대 마이클 버리는 게임스톱 주식을 보유하다 밈 주식 폭등 전에 팔았고 테슬라를 공매도해 막대한 손실을 입기도 했다. 지난 주말 버리는 '카산드라 언체인드(Cassandra Unchained)'라는 뉴스레터를 출시해 AI 산업 전체를 향한 자신의 전망을 펼치고 있다. 연간 구독료는 400달러(약 58만원), 이 뉴스레터는 나온 지 일주일도 채 되지 않아 이미 9만 명의 구독자를 확보한 상태다. “그의 명성과 성장하는 독자층이 붕괴 촉발할 가능성도” 테크크런치는 그의 명성과 빠르게 성장하는 그의 독자층이 그가 예측하는 붕괴 자체를 촉발할 가능성도 있다고 지적했다. 실제로 과거에도 영향력 있는 공매도 투자자의 비판이 시장의 붕괴를 앞당긴 사례가 있다. 유명 공매도 투자자 짐 차노스가 엔론의 회계 부정 사기를 만든 건 아니지만, 2000년과 2001년에 그의 비판으로 다른 투자자들이 엔론에 의문을 제기했고, 결국 회사 붕괴를 가속화했다. 또, 2008년 리먼브라더스의 회계 부정을 파헤친 헤지펀드 매니저 데이비드 아인혼의 보고서는 리먼 브라더스 사태를 가속화했을 가능성이 있다는 설명이다. 두 경우 모두 근본적인 문제가 실제로 존재했지만, 공신력 있는 비판자가 플랫폼을 통해 신뢰성 위기를 제기했고, 이후 예언처럼 현실이 됐다. 테크크런치는 많은 투자자들이 버리의 'AI 과잉 투자' 경고를 믿는다면, 매도세가 실제로 그의 약세론을 증명하며 대세로 이어질 수 있다고 분석했다. 결국 버리는 모든 세부 내용을 맞출 필요 없이 투자자들의 '패닉 매도'를 촉발할 만큼 설득력만 된다는 것이다. 해당 매체는 마지막으로 “이 싸움에서 잃을 것이 더 많은 쪽은 버리가 아니라 엔비디아”라고 강조했다. 시총 1위, AI 산업의 핵심 기업이라는 거대한 타이틀이 달린 만큼 엔비디아가 감당해야 할 위험이 훨씬 크다는 분석이다.

2025.11.28 14:15이정현

엔비디아 수출 규제에 中 빅테크, AI 개발 '해외 우회' 가속

중국 빅테크 기업들이 미국의 대중 그래픽처리장치(GPU) 수출 규제를 우회하기 위해 대규모 인공지능(AI) 모델 학습 거점을 해외로 옮기고 있는 것으로 나타났다. 28일 파이낸셜타임즈에 따르면 알리바바와 바이트댄스가 고성능 엔비디아 GPU 자원을 확보하기 위해 동남아시아 데이터센터에서 차세대 대형언어모델(LLM)을 훈련 중인 것으로 알려졌다. 미국이 지난 4월 중국 전용 제품인 H20 칩 수출까지 추가로 제한한 이후 중국 기업들이 싱가포르·말레이시아 등 고사양 엔비디아 칩을 보유한 해외 데이터센터 거점에서 AI 모델 학습을 확대하는 양상이다. 글로벌 AI 벤치마크 상위권에 오른 알리바바의 '큐웬'과 바이트댄스의 '도우바오' 모델이 대표 사례다. 중국 기업들은 해외 현지 기업이 소유·운영하는 데이터센터를 임대하는 방식으로 미국의 수출 규제 요건을 충족 중이며 이를 통해 엔비디아의 고급 엔비디아 제품군을 지속 활용하고 있다. 반면 딥시크는 미국 규제 시행 이전 엔비디아 칩을 대량 확보한 뒤 중국 내에서 자체 모델을 훈련 중인 것으로 전해졌다. 현재 중국 내에서는 엔비디아 칩 사용이 더욱 제한되고 있다. 바이트댄스가 올해 중국 기업 중 가장 많은 엔비디아 칩을 확보했음에도 중국 규제 당국이 신규 데이터센터에서 엔비디아 칩을 사용할 수 없도록 막은 상황이다. 중국 정부는 이미 국산 AI 칩 사용을 의무화하는 지침을 내린 바 있으며 국가 자금이 투입된 새 데이터센터는 반드시 중국산 반도체를 사용해야 한다는 규제도 추가됐다. 엔비디아 측은 "중국은 경쟁력 있는 GPU를 제공할 수 없는 환경이 됐다"며 "사실상 중국 시장을 현지 반도체 기업들에게 내줄 수밖에 없는 상황"이라고 설명했다. 이번 조치는 중국이 외국산 기술 의존도를 줄이고 자국 내 AI 생태계를 강화하려는 전략과 맞물린다. 특히 화웨이는 딥시크와 협력해 차세대 중국산 AI 칩 개발에 속도를 내고 있으며 학습이 아닌 추론 단계에서는 점차 국산 칩 사용을 확대하는 분위기다. 다만 민감한 데이터를 해외로 이전할 수 없다는 중국 법규로 인해 맞춤형 모델 학습은 여전히 중국 내에서 이뤄질 수밖에 없어 기술적·정책적 제약이 혼재된 상황이다. 이같은 양면적 흐름 속에서 중국 기업들은 해외에서는 엔비디아 칩을 활용해 글로벌 시장 경쟁력을 확보하고 국내에서는 규제 환경에 맞춘 국산 칩 기반 생태계를 병행 구축하는 투트랙 전략을 선택한 것으로 풀이된다. 도널드 트럼프 미국 대통령은 이달 초 중국 시진핑 주석과 회담에서 "엔비디아와 거래하도록 허용하겠지만, 가장 진보된 AI 반도체는 허용하지 않을 것"이라고 밝혔다.

2025.11.28 12:28한정호

구글, 엔비디아 제칠까…AI 경쟁에서 앞선 이유 5가지

최근 구글이 인공지능(AI) 추론 칩인 '텐서처리장치(TPU)'를 앞세워 AI 시장의 새 강자로 떠오르고 있다. 미국 경제매체 비즈니스인사이더(BI)는 26일(현지시간) 구글이 갑자기 AI 시장에서 두각을 나타내고 있는 이유를 분석했다. 최근 메타가 구글 TPU를 자사 데이터센터에 도입하는 방안을 검토 중이라는 소식이 전해지면서 엔비디아 주가가 하락하고 구글이 새로운 AI 왕좌에 올랐다는 평가까지 나오고 있다. 1. 제미나이3의 성공 지난 주 공개된 제미나이 3는 코딩, 디자인, 분석 등 여러 측면에서 이전 버전보다 크게 향상됐으며, 각종 벤치마크 테스트에서도 경쟁 모델을 압도해 호평을 받았다. 웹 사이트와 기본 비디오 게임 디자인에 능숙하여 코딩 외에도 다양한 용도로 활용할 수 있다. BI는 제미나이 3가 구글 AI 기술이 경쟁사들에 비해 뒤쳐져 있고, 더 많은 데이터와 컴퓨팅 자원이 성능을 끌어올린다는 '확장 법칙'의 효과가 둔화됐다”는 우려를 불식시켰다고 평가했다. 18일 제미나이 3 출시 이후 구글 주가는 12% 이상 상승한 상태다. 2. 자체 개발한 TPU 칩 구글은 10년 넘게 자체 칩 개발을 이어오고 있다. 이번에 주목 받은 TPU는 제미나이 모델 학습에 사용된 칩으로, 사실상 구글이 스스로 증명한 강력한 광고 효과다. 구글이 더 많은 기업들이 자사 모델 및 인프라에 TPU를 도입하기를 기대하고 있다. 구글은 클라우드 사업을 통해 TPU 사용권을 판매하며, 최근 몇 달 동안 고객 확보에 공을 들여왔다 이는 엔비디아에 장기적인 위협이 될 수 있다는 분석이 나온다. 25일 디인포메이션 보도에 따르면, 구글은 메타와 수십 억 달러 규모의 대형 거래를 논의 중이며, 거래가 성사될 경우 메타 데이터 센터 중 일부에 구글 칩이 배치될 가능성이 있다. 이 보도가 나온 이후 AMD, 엔비디아 같은 회사 주가가 일제히 급락했다. 3. 반독점 소송에서 선방 지난 9월 미 워싱턴 연방법원 판사는 2020년 구글 검색 사업부를 상대로 제기된 반독점 소송에서 구글에 벌금을 부과했다. 구글의 핵심 사업인 검색 사업에 큰 타격을 입힐 수 있었던 이 소송은 사실상 경미한 벌금으로 마무리됐다. 이번 판결로 구글이 애플의 웹브라우저인 사파리의 기본 검색엔진 지위도 유지할 수 있는 길도 함께 열렸다. 구글은 여전히 애플 등 파트너사에 기본 검색 엔진 지위를 위한 대금을 지급할 수 있으나, 독점적으로 지급하지 말라는 명령을 받았다. 또, 일부 검색 데이터를 경쟁사와 공유하라는 조치도 내려졌다. 또, 크롬 브라우저의 매각까지 거론됐으나 이번 판결로 매각할 필요 없다는 결정이 나면서 구글은 독점 소송에서 비교적 큰 타격을 입지 않았다고 BI는 평했다. 4. 워런 버핏의 알파벳 투자 워런 버핏의 버크셔 해서웨이는 지난 분기 구글 모회사 알파벳의 주식을 43억 달러 규모로 매입했다. 버핏은 그 동안 애플을 제외한 기술주 투자를 꺼려왔고, 고성장 기업 투자도 기피해 온만큼 이번 매입은 시장의 이목을 끌었다. 버핏이 CEO 자리에서 물러날 준비를 하는 가운데, 구글 투자를 결정한 것은 구글에 대한 강한 신뢰를 방증한다는 분석이다. 5. 검색 사업, AI 혁신에도 굳건 구글의 핵심 수익원은 여전히 검색 광고다. 투자자들은 구글의 자체적인 혁신이 '캐시카우'인 검색 광고 사업에 타격을 줄 가능성을 우려해 왔다. 하지만, 실제 영향은 크지 않은 것으로 보인다. 3분기 구글 검색 매출은 15% 급증했으며, 이는 AI가 일부 웹사이트 트래픽에 악영향을 미치더라도 구글의 사업에는 영향을 미치지 않는다는 것을 시사한다고 BI는 전했다. 실제로 구글은 생성형 AI 덕분에 사람들이 그 어느 때보다 더 많이 검색하고 있다고 밝혔다. 구글은 현재 AI 모드에서 광고를 테스트 중이다. 이 기능은 점차 실험 단계에서 벗어나 구글이 구상하는 미래 검색의 모습으로 자리매김해 나갈 것으로 보인다고 BI는 밝혔다.

2025.11.27 17:00이정현

"제정신인가"…젠슨 황, 최대 실적 내고도 왜 격노했나

엔비디아를 세계 최고 기업으로 키워낸 젠슨 황 최고경영자(CEO)가 전체 회의에서 강하게 질책한 사실이 공개돼 화제가 되고 있다. 미국 경제매체 비즈니스인사이더(BI)는 25일(현지시간) 젠슨 황 CEO가 지난 20일 회의에서 "제가 알기로는 엔비디아 내부에 직원들에게 AI 사용을 줄이라고 지시한 관리자가 있다고 한다”면서 "제정신이냐"고 지적했다. 이 같은 발언은 엔비디아가 사상 최대 실적을 발표한 다음 달 진행된 전체 회의에서 나온 것으로 전해졌다. 이날 회의에서 황 CEO는 "AI로 대신할 수 있는 모든 작업을 자동화하고 싶다"고 말했다. 또, "AI가 잘 작동하지 않는 작업이라도 될 때까지 쓰라”고 강조하며, "직원들이 AI 도구를 직접 개선하는 데 참여해야 한다"고 주문했다. 그는 "AI를 도입해서 도구를 개선하는 데 도움을 줘라. 우리에게는 그렇게 할 힘이 있다"고 독려했다. 젠슨 황은 엔비디아 소프트웨어 엔지니어들이 이미 AI 코딩 어시스턴트 '커서(Cursor)'를 사용하고 있다는 점을 강조하며, 이를 더 광범위한 기업 도입 모델로 제시했다. 엔비디아 뿐 아니라 거대 기술 기업들은 직원들이 일상 업무에 AI를 더 많이 활용하도록 장려하고 있다. 현재 마이크로소프트와 메타는 직원들의 AI 활용도를 평가할 계획이며, 구글은 엔지니어들에게 코딩에 AI를 활용하도록 권고했다. 아마존도 직원들의 요청에 따라 '커서' 도입을 존의 중이다. 황 CEO는 직원들에게 AI로 인해 일자리를 잃을 걱정을 할 필요가 없다고 밝혔다. 그는 “할 일이 없어지지 않을 것”이라며 “그것은 내가 약속할 수 있다”고 말했다. 그는 “엔비디아는 지난 분기에만 수천 명을 채용했다”며, “주차장이 부족할 정도였다”고 농담하며,채용 인력이 여전히 증가하고 있다고 덧붙였다. 황 CEO는 “솔직히 말하면 아직 1만 명 정도 더 부족하다”며, “하지만, 채용 속도는 신규 인력을 조직에 통합하고 조화시키는 속도와 일치해야 한다” 설명했다. 엔비디아 직원 수는 2024 회계연도 말 2만9천600명에서 2025 회계연도 말에는 3만6천명으로 늘어난 상태다. 젠슨 황은 회의 자리에서 최근 회사가 타이베이와 상하이에 새 사무실을 열었고 미국 내에서도 두 개의 신규 시설을 건설 중이라고 밝혔다.

2025.11.26 14:19이정현

구글, 자체 AI 칩 외부 개방…메타·앤트로픽과 '탈 엔비디아' 가속

구글이 그동안 자체 서비스와 구글 클라우드에서만 제공하던 인공지능(AI) 전용 칩 TPU를 대형 고객 데이터센터에 직접 공급하는 방안을 추진한다. 이를 통해 엔비디아가 사실상 장악해온 AI 칩 시장에 균열이 생길 수 있다는 관측이 나오고 있다. 24일 디인포메이션등 외신에 따르면 구글 모회사 알파벳이 메타와 TPU 기반 AI 칩 공급을 놓고 협의 중인 것으로 알려졌다. 메타는 내년부터 구글 클라우드를 통해 TPU를, 2027년부터는 구글 AI 칩을 직접 구매해 자체 데이터센터에 탑재하는 방안을 검토하고 있다. 계약 규모는 수십억 달러 수준으로 알려졌다. 지금까지 구글 TPU는 구글 내부 데이터센터와 구글 클라우드 고객에게만 제공됐기 때문에 외부 기업 데이터센터에 칩을 직접 납품하는 구조가 현실화되면 사업 모델이 크게 바뀌는 셈이다. 구글은 이미 AI 스타트업 앤트로픽과도 대규모 AI칩 공급 계약을 체결한 상태다. 양사는 앤트로픽이 최대 100만 개 규모의 구글 TPU를 활용하는 다년 계약을 맺었으며 계약 금액은 수십억 달러에서 수백억 달러 후반대까지 거론된다. 이 물량은 내년까지 1기가와트가 넘는 AI 연산 역량을 추가 확보하는 효과를 내는 것으로 추산된다. 메타와의 논의까지 더해지면서 구글이 자체 설계 칩을 전면에 내세워 AI 인프라 시장에서 엔비디아 의존 구조를 정면으로 겨냥하고 있다는 평가가 나온다. AI 칩셋 물량이 확대되는 만큼 구글은 그동안 협력해온 브로드컴과 더불어 대만 미디어텍과도 차기 프로세서인 7세대 TPU 공동 개발에 나설 계획이다. 미디어텍과의 협력을 통해 칩 단가를 낮추고 공급망을 다변화하려는 구상이다. 미디어텍은 파운드리 업체 TSMC와의 긴밀한 협력 관계와 비교적 낮은 설계, 패키징 비용을 강점으로 내세우고 있다. 글로벌 빅테크들은 자체 칩, 엔비디아 GPU, 협력사 칩을 섞어 쓰는 다원화 전략을 본격화하는 흐름이다. 메타는 현재 AI 학습과 서비스 운영에 엔비디아 그래픽처리장치(GPU)를 대규모로 사용하고 있고 자체 AI 칩 개발 프로젝트도 병행하고 있다. 여기에 구글 TPU까지 더하면 엔비디아 한 곳에 집중된 공급 리스크를 줄일 수 있을 것이란 전망이다. 동시에 엔비디아 GPU, 자체 칩, 구글 TPU 등을 조합해 용도별로 성능과 비용을 최적화하는 전략을 펼칠 수 있다. 구글의 AI 칩셋 시장 진출로 단기간에 시장 주도권이 뒤집힐 가능성은 높지 않다는 분석도 나온다. 현재 AI 개발 생태계 상당 부분이 엔비디아 GPU에 맞춰 설계된 소프트웨어 플랫폼 '쿠다(CUDA)'를 중심으로 하기 때문이다. 또 개발자 도구, 라이브러리, 레퍼런스 모델이 모두 엔비디아를 기준으로 하는 만큼 다른 칩으로 전환하는 것이 GPU 도입보다 더 많은 부담이 된다는 점도 문제다. 그럼에도 빅테크 등 구글 칩을 대규모로 도입하는 기업이 들어난다면 엔비디아와의 가격·공급 협상 구도에 적잖은 변화가 생길 것이란 전망이 업계 전반의 공통된 인식이다. 구글 클라우드 임원진들은 "이번 TPU 도입 확대가 최대 엔비디아 연간 매출의 10%에 달하는 수십억 달러의 매출을 확보할 수 있을 것으로 예상된다"고 전망했다.

2025.11.25 18:06남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

위기 수습 총력 쿠팡...전문 경영인 빼고 '美 최고관리책임자' 전면에

신라면·불닭·콜라 없는 '하우스 오브 신세계 청담' 식품관 가보니

무진장 큰 '무신사 용산 메가스토어' 미리 가보니

SK하이닉스 "美 증시 상장 등 검토 중…아직 확정된 사안 없어"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.