• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (110건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

TSMC, 내년 반도체 CoWoS 패키징 가격 인상…엔비디아, 수긍

세계 1위 반도체 파운드리(위탁생산) 회사 대만 TSMC가 내년 첨단 패키징 기술 CoWoS(Chip on Wafer on Substrate) 가격을 인상하는 데 엔비디아가 받아들였다고 대만 시장조사업체 트렌드포스가 4일(현지시간) 보도했다. 엔비디아는 세계 인공지능(AI) 반도체 1위 업체다. 제조 물량을 모두 TSMC에 맡기는 것으로 알려졌다. 트렌드포스는 미국 투자은행(IB) 모건스탠리 보고서를 인용해 TSMC가 CoWoS 패키징 가격 10~20% 인상을 검토 중이며, 엔비디아로부터 내년 가격 인상을 승인받았다고 전했다. 모리스 창 TSMC 창업자는 최근 3분기 실적을 발표하며 “CoWoS 수요가 공급을 훨씬 앞지른다”고 밝힌 바 있다. TSMC가 올해 CoWoS 생산량을 지난해보다 2배 이상 늘릴 계획임에도 불구하고 여전히 공급이 부족하다는 설명이다. TSMC는 공급망을 안정하기 위해 패키징·테스트 회사와 손잡고 생산 능력을 확대하고 있다. CNA가 인용한 업계 소식통에 따르면 ASE와 그 자회사 스필(SPIL)이 백엔드 CoWoS-S oS(on-Substrate) 공정에서 TSMC와 협력하고 있다. ASE는 내년까지 TSMC의 CoWoS-S oS 패키징 물량의 40~50%를 처리할 전망이다. ASE그룹은 고급 패키징에 투자하며 TSMC와 발 맞추고 있다. ASE는 2026년 10월 완공 예정인 대만 가오슝 K28 공장에서 CoWoS 생산량을 늘릴 것이라고 지난달 발표했다. SPIL은 센트럴타이완사이언스파크 부지에 4억1천900만 대만 달러(약 181억원)를 투자해 CoWoS 제조 역량을 키웠다. 추가 부지를 확보하는 데 필요한 37억2천만 대만 달러도 배정했다. 다음 달 미국 공장 완공을 앞둔 TSMC는 InFO 및 CoWoS 패키징 용량을 확장하기 위해 현지 후공정 업체 앰코와도 업무협약을 맺었다. CNA는 업계 소식통을 통해 미국 애플이 TSMC 애리조나 4나노미터(1㎚=10억분의 1m) 공정에서 애플리케이션 프로세서(AP)를 위탁생산하면, 앰코의 CoWoS 물량을 활용할 수 있다고 전했다. TSMC 공장에서 주문형반도체(ASIC)와 그래픽처리장치(GPU)를 만드는 다른 미국 인공지능(AI) 반도체 기업도 앰코의 CoWoS 패키징을 사용할 것으로 예상된다.

2024.11.05 13:22유혜진

젠슨 황 "HBM4 더 빨리 달라"…최태원 "6개월 당겨 공급"

젠슨 황 엔비디아 최고경영자(CEO)가 SK하이닉스와의 HBM(고대역폭메모리) 분야 협력 강화를 강조했다. SK하이닉스 역시 엔비디아의 요구에 발맞춰 차세대 HBM 적기 공급에 속도를 낼 것으로 관측된다. 최태원 SK그룹 회장은 4일 서울 코엑스에서 열린 'SK AI 서밋' 기조연설에서 "엔비디아의 요청에 따라 HBM4(6세대 HBM) 공급을 6개월 앞당길 수 있도록 노력해보겠다"는 뜻을 밝혔다. 이날 SK AI 서밋의 영상 인터뷰에 출연한 젠슨 황 CEO는 "머신러닝 기술 발전에 따라 메모리 대역폭을 늘리고 전력 효율성을 높이는 일이 중요해졌다"며 "이에 SK하이닉스와 협력해 무어의 법칙을 뛰어넘는 진보를 할 수 있었고, 앞으로도 SK하이닉스의 HBM이 더 필요하다"고 밝혔다. HBM은 여러 개의 D램을 수직으로 적층해 대역폭을 크게 확장한 메모리다. 메모리 대역폭이 확장되면 데이터를 더 많이 주고받을 수 있어, AI와 같은 방대한 양의 데이터 처리에 유리하다. SK하이닉스는 엔비디아에 최선단 HBM을 공급하고 있다. 5세대인 HBM3E까지 상용화에 성공했으며, 다음 세대인 HBM4는 내년 하반기 중에 양산 공급하는 것이 목표다. 당초 2026년 양산을 계획하고 있었으나, SK하이닉스는 엔비디아의 요청에 따라 개발 일정에 속도를 내고 있다. 최태원 SK그룹 회장은 "젠슨 황 CEO가 HBM4의 공급 일정을 6개월 당겨달라고 요청했다"며 "곽노정 SK하이닉스 사장에게 이에 대해 물어봤는데, '한 번 해보겠다'고 대답하더라"고 밝혔다. 최 회장은 이어 "당초 HBM4를 얼마나 당겨달라는 건지 젠슨 황 CEO에게 물어봤는데, 얼마나 당길 수 있는지를 반문할 정도로 의지가 상당했다"고 덧붙였다.

2024.11.04 11:04장경윤

SK하이닉스 HBM 개발 주역 "반도체 패키징, 이젠 덧셈 아닌 곱셈 법칙"

"이전 패키징 기술은 덧셈의 개념이었다. 때문에 패키징을 못해도 앞단의 공정과 디자인에 큰 문제를 주지는 않았다. 그러나 이제는 패키징이 곱셈의 법칙이 됐다. 공정과 디자인을 아무리 잘해도, 패키징을 잘 못하면 사업의 기회조차 얻을 수 없게 됐다." 이강욱 SK하이닉스 부사장은 24일 서울 코엑스에서 열린 '반도체 대전(SEDEX 2024)' 기조연설에서 이같이 밝혔다. 이 부사장은 SK하이닉스에서 패키징 개발을 담당하고 있다. SK하이닉스의 HBM 성공 신화를 이끈 주역 중 한 명으로, '전기전자공학자협회(IEEE) 전자패키징학회(EPS) 어워드 2024'에서 한국인 최초로 '전자제조기술상'을 수상하기도 했다. ■ 패키징, 이제는 '곱셈의 법칙' 적용 이날 'AI 시대의 반도체 패키징의 역할'을 주제로 발표를 진행한 이 부사장은 첨단 패키징 기술이 반도체 산업에서 차지하는 위치가 완전히 변화됐음을 강조했다. 이 부사장은 "이전 패키징은 '덧셈'과도 같아 기술이 미흡해도 공정, 디자인 등에 큰 영향을 주지 않았다"며 "이제는 아무리 반도체 공정과 디자인을 잘해도, 패키징이 받쳐주지 않으면 사업의 진출 기회가 아예 없는(결과값이 0인) '곱셈의 법칙'이 적용된다고 생각한다"고 밝혔다. 특히 패키징 산업은 HBM 시장의 급격한 성장세에 따라 더 많은 주목을 받고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결한 차세대 메모리다. 데이터의 전송 통로 역할인 대역폭이 일반 D램 대비 수십배 넓어, 방대한 양의 데이터 처리에 적합하다. 이 HBM를 GPU 등 고성능 시스템과 2.5D SiP(시스템 인 패키지)로 연결하면, 엔비디아가 공개한 '블랙웰' 시리즈와 같은 AI 가속기가 된다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 기판만을 활용하는 기존 2D 패키징에 비해 회로를 더 밀도있게 연결할 수 있다. ■ 패키징 주도하는 TSMC…다양한 차세대 기술 준비 중 현재 2.5D 패키징을 선도하고 있는 기업은 대만 TSMC다. TSMC는 자체 2.5D 패키징 기술인 'CoWoS(칩 온 웨이퍼 온 서브스트레이트)'를 통해 SK하이닉스와 엔비디아 GPU를 접합하고 있다. 특히 SK하이닉스가 최근 상용화한 HBM3E(5세대 HBM)의 경우, TSMC는 이전 CoWoS-S에서 한발 더 나아간 CoWoS-L를 적용했다. CoWoS-L은 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용해 비용 효율성을 높이는 기술이다. 이 부사장은 "나아가 TSMC는 광학 소자를 활용하는 'CPO 패키징'이나 GPU와 메모리를 수직으로 직접 연결하는 '3D SiP', 웨이퍼에 직접 칩을 연결하는 '시스템 온 웨이퍼' 등을 향후의 패키징 로드맵으로 제시하고 준비하고 있다"고 밝혔다. ■ 하이브리드 본딩 열심히 개발…설비투자는 '아직' 한편 SK하이닉스는 내년 하반기 양산할 계획인 HBM4(6세대 HBM)에 기존 본딩 기술과 하이브리드 본딩을 적용하는 방안을 모두 고려하고 있다. 두 기술을 동시에 고도화해, 고객사의 요구에 맞춰 적절한 솔루션을 제공하겠다는 전략이다. 하이브리드 본딩이란 칩과 웨이퍼의 구리 배선을 직접 붙이는 차세대 패키징 공법이다. 기존 본딩은 작은 돌기 형태의 범프(Bump)를 통해 칩을 붙인다. 하이브리드 본딩은 이 범프를 사용하지 않아 전체 칩 두께를 줄이는 데 유리하다. 다만 SK하이닉스가 하이브리드 본딩 분야에 당장 투자를 진행할 가능성은 낮은 것으로 관측된다. 내년 설비투자 규모를 올해(10조원 중후반대) 대비 늘리기는 하나, 인프라 및 연구개발(R&D), 후공정 분야에 고루 할당하기 때문이다. 이 부사장은 하이브리드 본딩용 설비 투자 계획과 관련한 기자의 질문에 "아직은 개발 단계"라며 "여러 가지를 검토하고 있다"고 답변했다.

2024.10.24 17:19장경윤

엔비디아 "다가오는 100조 달러 기술혁명 시대…카카오 AI 기업으로 만들겠다"

"엔비디아는 인공지능(AI) 산업에서의 새로운 혁명을 이끌고 있습니다. 카카오와의 협력을 통해 카카오를 AI 네이티브 기업으로 전환시키고 글로벌 시장에서 선두로 도약할 수 있도록 지원하겠습니다." 타이 맥커처 엔비디아 수석 부사장은 23일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 밝혔다. '이프카카오 2024'는 카카오 그룹이 AI와 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련된 행사로, 지난 22일부터 사흘간 진행되고 있다. 이날 맥커처 부사장은 '엔비디아 AI 네이티브 컴퍼니' 키노트 세션에서 엔비디아의 AI 전략과 카카오와의 협업 계획을 상세히 소개했다. 그는 AI가 촉발하고 있는 새로운 산업 혁명과 그 거대한 시장 규모에 대해 강조하며 카카오가 이 흐름의 중심에 설 수 있다고 전망했다. 그는 "AI는 약 100조 달러(한화 약 13경원) 규모의 새로운 산업 혁명을 일으키고 있다"며 "카카오는 AI 공장을 통해 데이터를 지식으로 전환해 다양한 산업 분야에서 혁신을 주도할 것"이라고 말했다. 현재 엔비디아는 카카오의 AI 모델 개발, 머신러닝 운영(MLOps) 플랫폼 구축, 서비스 통합 등을 지원하며 카카오의 AI 전환을 가속화하고 있다. 특히 최신 그래픽처리장치(GPU)인 'GH200'과 텐서RT 거대언어모델(LLM) 라이브러리를 활용해 카카오의 AI 모델 추론 성능을 극대화할 계획이다. 맥커처 부사장은 "현재 카카오의 알파팀과 인프라팀과 긴밀히 협력하고 있다"며 "참조 아키텍처와 블루프린트를 제공함으로써 카카오가 시장에 더 빠르게 진입할 수 있도록 돕겠다"고 설명했다. 또 그는 엔비디아의 그래픽 전송 네트워크(GDN)를 활용한 기술적 솔루션을 강조했다. GDN은 AI 모델의 동시 처리와 지연 시간 문제를 해결해 챗봇, 의료 분야, 경로 최적화 등 다양한 애플리케이션에서 높은 성능을 제공한다. 그는 "GDN은 동시성 문제와 지연 시간을 최소화해 사용자에게 최상의 경험을 제공한다"며 "카카오의 다양한 서비스에 적용돼 사용자 만족도를 높일 것"이라고 말했다. 엔비디아는 지난 1993년 비디오 게임을 좋아하는 컴퓨터 연구자들의 스타트업으로 출발한 바 있다. 게임 장비 회사로 시작했음에도 GPU 기술과 컴퓨팅 기술의 지속적인 발전으로 인해 AI와 가속 컴퓨팅 분야의 선두주자로 성장했다. 그중 하나의 핵심 기술로 맥커처 부사장은 '쿠다(CUDA)' 플랫폼을 꼽았다. 그는 "2006년부터 일관된 프로그래밍 인터페이스를 제공한 '쿠다' 플랫폼을 통해 개발자 생태계를 구축했다"며 "이를 기반으로 우리는 지속적인 AI 혁신을 지원해왔다"고 밝혔다. 이러한 기술력은 카카오의 글로벌 경쟁력 강화에도 큰 기여를 할 예정이다. 엔비디아의 기술 지원을 통해 카카오가 금융, 모빌리티 등 다양한 서비스에 AI를 적용할 수 있을 것이기 때문이다. 이를 통해 사용자에게 혁신적인 경험을 제공하고 편의성을 향상시킬 수 있다. 맥커처 부사장은 가속 컴퓨팅의 중요성을 다시 한번 강조했다. 그는 "우리가 운영하는 AI 홈페이지를 통해 누구나 최신 AI 모델을 경험하고 자신의 환경에 적용해 볼 수 있다"며 "가속 컴퓨팅은 AI의 필수 요소로, 이를 통해 전체 소유 비용을 줄이고 혁신을 가속화할 수 있다"고 말했다. 그러면서 "지속적으로 솔루션을 제공함으로써 카카오가 AI 분야에서 글로벌 리더로 도약하게끔 함께 노력할 것"이라고 강조했다.

2024.10.23 15:00조이환

엔비디아, '블랙웰' AI칩 브랜드 정비…첨단 패키징·HBM 수요 촉진

엔비디아가 출시를 앞둔 고성능 GPU의 라인업을 재정비하고, AI 데이터센터 시장을 적극 공략할 계획이다. 이에 따라 대만 주요 파운드리인 TSMC의 첨단 패키징 수요도 크게 늘어날 것으로 전망된다. 22일 시장조사업체 트렌드포스에 따르면 엔비디아는 최근 '블랙웰' 울트라 제품을 'B300' 시리즈로 브랜드를 변경했다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정 및 첨단 패키징을 기반으로, 이전 세대(H100) 대비 데이터 연산 속도를 2.5배가량 높였다. 블랙웰 시리즈는 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 모델은 HBM3E(5세대 고대역폭메모리) 8단 제품이 탑재된다. 나아가 엔비디아는 상위 모델인 B200 울트라를 설계하고, 여기에 HBM3E 12단을 적용하기로 한 바 있다. 이번 리브랜딩에 따라, B200 울트라는 B300으로 이름이 바뀌었다. '그레이스' CPU와 결합된 'GB200 울트라' 모델은 'GB300'으로 불린다. 기존 AI 반도체에서 성능을 일부 하향 조정한 'B200A 울트라'와 'GB200A 울트라' 역시 각각 'B300A', 'GB300A'로 변경됐다. B300 시리즈는 내년 2분기와 3분기 사이에 출시될 것으로 예상된다. 기존 B200과 GB200 등은 올 4분기부터 내년 1분기 사이 양산이 시작될 전망이다. 트렌드포스는 "엔비디아는 당초 서버 고객사를 위해 B200A를 출시할 계획이었으나, 설계 과정에서 B300A로 전환해 성능을 하향 조정한 GPU의 수요가 예상보다 약하다는 것을 나타냈다"며 "또한 GB200A에서 GB300A로 전환하는 기업의 경우 초기 비용이 증가할 수 있다"고 설명했다. 또한 엔비디아의 고성능 GPU 출시는 TSMC의 'CoWoS' 패키징 수요를 크게 촉진할 것으로 분석된다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징이다. 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해, 패키징 면적을 줄이고 칩 간 연결성을 높인 것이 특징이다. 트렌드포스에 따르면 올해 CoWoS 수요는 전년 대비 10% 이상 증가할 것으로 예상된다. 트렌드포스는 "최근 변화에 비춰볼 때 엔비디아는 CoWoS-L 기술을 활용하는 북미 서버 고객사에 B300 및 GB300 제품을 공급하는 데 집중할 가능성이 높다"고 밝혔다. CoWoS-L는 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 활용하는 기술이다.

2024.10.23 10:01장경윤

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

엔비디아 시총 또 역대최고…3조4천억 달러 돌파

인공지능(AI) 칩 수요가 증가하면서 엔비디아의 주가가 역대 최고치를 기록했다. 엔비디아 주가는 14일(현지시간) 전 거래일보다 2.4% 가량 상승한 138.07달러에 마감하면서 6월18일 기록한 종전 최고가 135.58달러를 넘어섰다.CNBC 등 외신들이 보도했다. 올 들어 엔비디아 주가는 거의 180% 상승했으며 2023년 초 이후 9배 이상 급등한 상태다. 이날 시가총액도 3조4천억 달러로 늘어나면서 시총 1위 애플과의 격차도 좁혔다. 애플의 시가총액은 3조5천억 달러 수준이다. AI 반도체 대장주인 엔비디아는 2022년 11월 오픈AI의 챗GPT가 출시되면서 시작된 생성형 AI 열풍의 최대 수혜자다. 엔비디아의 그래픽 처리장치(GPU)는 챗GPT를 비롯한 고급 AI 모델을 만들고 배포하는 데 사용된다. 현재 마이크로소프트, 메타, 구글, 아마존을 비롯한 많은 회사들이 AI를 위한 대규모 컴퓨터 클러스터를 구축하기 위해 엔비디아 GPU를 대량 구매하고 있다. 이 회사들은 모두 이번 달 말까지 분기별 실적을 보고할 예정이다. 빅테크 기업들이 이번 달 실적 발표를 앞두고 AI 인프라에 대한 지출 계획에 대한 업데이트가 발표될 것으로 전망되면서 이에 대한 기대감 때문으로 엔비디아의 주가가 상승하고 있는 것으로 분석됐다. 또, 엔비디아는 최근 차세대 AI GPU인 블랙웰 수요가 ”미친 수준”이라며, "4분기에 이 신제품에서 수십억 달러의 매출을 기대하고 있다"라고 밝힌 바 있다. 이에 이번 분기부터 양산에 돌입하는 블랙웰 수요에 대한 기대감이 작용하는 것으로 풀이된다. 투자은행 미즈호의 분석가에 따르면, 기술 대기업들이 매년 AI 구축에 지출하는 수십억 달러 중 상당 부문이 엔비디아에 투자되고 있는 것으로 알려졌다. 엔비디아는 AI 학습 및 추론 칩 시장의 약 95%를 장악하고 있다. 엔비디아의 매출은 지난 5분기 동안 매 분기마다 2배 이상 증가했으며, 그 중 3분기 동안에는 적어도 3배 이상 증가한 것으로 알려져 있다. 시장조사업체 LSEG에 따르면, 올해 남은 기간 동안 성장은 약간 둔화될 것으로 예상되며, 분석가들은 회계연도 3분기(8~10월) 전년 동기 대비 약 82% 증가한 329억 달러에 이를 것으로 예상하고 있다.

2024.10.15 08:41이정현

엔비디아 "세계 첫 GPU '지포스 256' 출시 25주년"

엔비디아가 1999년 출시한 '지포스'(GeForce) 브랜드 첫 GPU인 '지포스 256'이 출시 25주년을 맞았다. 존 펜노(John Fenno) 엔비디아 지포스 마케팅 이사가 11일(미국 현지시간) 공식 블로그에 이를 기념하는 게시물을 공개했다. 엔비디아는 이 게시물에서 "25년 전 출시된 지포스 256은 열성 PC 게이머와 최신기술 고관여층의 관심을 모았고 오늘날 생성 AI의 토대를 마련했다"고 설명했다. 이어 "지포스 256은 단순한 그래픽카드가 아니며 세계 최초로 'GPU'라는 개념을 소개했고 미래 게임과 컴퓨팅 발전의 무대를 만든 제품"이라고 밝혔다. ■ 엔비디아, 1998년 '리바 TNT' 출시 지포스 256은 엔비디아가 처음 출시한 GPU는 아니다. 한 해 전인 1998년 128비트 3D 처리 성능을 갖춘 '리바 TNT'(RIVA TNT)가 출시됐다. 730만 개 트랜지스터를 집적한 리바 TNT 탑재 그래픽카드 가격은 당시 199달러(현재 물가 기준 약 385달러/약 52만원)에 책정됐다. 3D 그래픽 시장에서 강자로 꼽혔던 3dfx 부두(Voodoo) 시리즈와 경쟁할 수 있는 초석을 놓은 제품으로 평가받는다. 지난 8월 운영을 중단한 미국 PC 매체 아난드테크는 1998년 10월 12일자 기사에서 "리바 TNT는 3Dfx 부두2와 비교했을 때 거의 대등한 성능을 낸다"고 평가하기도 했다. ■ "가장 빠른 GPU 찾는다면 지포스 256이 유일한 선택지" 지포스 256은 그래픽 구현에 필요한 모든 기능을 칩 하나에 집적하고 당시 고해상도 영상으로 평가받았던 DVD 영상을 처리할 수 있는 점, 당시 최신 그래픽 API였던 마이크로소프트 다이렉트X 7 완전 지원으로 인기를 모았다. 아난드테크는 1999년 10월 11일자 기사에서 "지포스 256은 현재 시장에 나온 3D 가속기 중 가장 빠른 제품이다. 돈이 넉넉하고 가장 빠른 제품을 찾는다면 사야 할 제품은 명확하다"고 평가했다. 이 평가는 25년이 지난 지금 엔비디아 PC용 그래픽카드 최상위 제품인 지포스 RTX 4090에도 그대로 적용된다. ■ 현재 엔비디아만 생존... 3Dfx도 S3도 소멸 1999년 당시 그래픽 기술 강자로 꼽혔던 수 많은 업체들 중 현재까지 온전히 생존한 업체는 엔비디아가 유일하다. 부두 시리즈로 인기를 모았던 3Dfx는 2000년 엔비디아에 모든 IP(지적재산권)를 넘기고 역사의 뒤안길로 사라졌다. '새비지'(Savage) 시리즈를 앞세운 S3 그래픽스도 2000년 대만 팹리스 비아(VIA)에 인수됐다. 1998년 2월 PC 시장에 i740 그래픽칩셋을 공급했던 인텔은 2021년 '아크'(Arc) GPU를 앞세워 재진출했다. 최근 출시된 코어 울트라 200V(루나레이크)에는 1080p 해상도에서 초당 60프레임 이상을 소화하는 Xe2 기반 아크 140V GPU가 내장됐다. ■ 최대 경쟁업체 ATI, 2006년 AMD에 흡수 캐나다 소재 그래픽 업체 ATI는 '레이지'(RAGE)·'라데온'(RADEON) GPU로 엔비디아와 치열한 경쟁을 벌였다. 2003년경 출시한 라데온 XT 9000 시리즈는 엔비디아 지포스 FX 대비 대등한 성능에 더 저렴한 가격으로 주목받았다. 2000년대 초 엔비디아 인수까지 검토하던 ATI는 2006년 AMD에 인수됐다. ATI의 GPU IP(지적재산권)는 AMD에 모두 흡수됐고 '라데온'이라는 이름만 남았다. 2006년 당시 한 국내 PC 업계 관계자는 PC 전문 월간지 'PC라인' 인터뷰에서 "(AMD의 ATI 인수에 따라) 그래픽카드가 프로세서에 통합돼 사라지게 될 날도 멀지 않아 보인다"고 평가하기도 했다. 이런 그의 전망은 5년 뒤 2011년 AMD가 한 다이(Die) 안에 CPU와 GPU를 통합한 '퓨전 APU'를 공개하며 일부 실현됐다. AMD의 APU는 이후 콘솔 게임기인 소니 플레이스테이션4, 마이크로소프트 X박스 등에 투입됐다. 레나토 프라게일(Renato Fragale) AMD 제품 관리 부문 시니어 디렉터는 지난 8월 전문가용 소셜미디어인 링크드인 프로파일에 "소니 플레이스테이션용 개발팀을 꾸렸고 이는 AMD 역사에서 파산을 막은 가장 성공적인 출시"라고 밝히기도 했다. ■ 엔비디아 "지포스 256, 세계 바꿀 토대 놓은 제품" 엔비디아는 "지포스 256으로 시작된 혁명은 오늘날 게임과 엔터테인먼트에 계승되고 있으며 개인 컴퓨팅에서는 엔비디아 GPU로 가속된 AI가 일상생활의 일부분이 됐다"고 설명했다. 이어 "지포스 256은 게이밍과 컴퓨팅, AI가 단순히 진화하는 것에서 그치지 않고 함께 세계를 변화시킬 수 있는 토대를 만들었다"고 평가했다.

2024.10.13 07:56권봉석

AI 광풍으로 전 세계 반도체 칩 대란 '우려'

인공지능(AI) 반도체와 스마트폰, 노트북 수요 급증으로 전 세계적으로 반도체 칩 부족 현상이 다시 일어날 수 있다는 전망이 나왔다. 미국 경제매체 CNBC는 25일(현지시간) 컨설팅 업체 베인앤컴퍼니 보고서를 인용해 이같이 보도했다. 세계 경제는 코로나19 팬데믹 당시 반도체 칩 대란을 경험했다. 당시 부품 공급망이 붕괴되고 재택근무 증가로 노트북을 비롯한 가전제품 수요가 급증하면서 칩 부족에 시달렸다. 그런데 최근 들어 AI 기반 제품 수요가 크게 늘면서 또 다시 칩 부족 조짐이 보이고 있다는 것이 분석의 골자다. 현재 글로벌 빅테크들은 엔비디아의 그래픽처리장치(GPU)를 비롯한 칩을 대거 사들이고 있는 상태다. GPU는 오픈AI의 챗GPT와 같은 애플리케이션을 뒷받침하는 거대 AI모델 훈련에 필수적이다. 또, 퀄컴 같은 회사는 스마트폰과 개인용 컴퓨터에 들어가는 칩을 만들고 있는데 이 칩은 기기 단계에서 AI 응용 프로그램을 실행할 수 있도록 해준다. 해당 제품들은 AI 지원 기기로 불리는데 삼성부터 마이크로소프트까지 많은 회사들이 이런 제품들을 잇따라 출시하고 있다. 베인은 GPU와 AI 제품에 대한 수요가 칩 부족의 원인일 수 있다고 밝혔다. 앤 호에커 베인앤컴퍼니 미주지역 기술 책임자는 "GPU 수요 급증으로 반도체 가치 사슬의 특정 요소에 부족 현상이 발생하고 있다"며, "GPU에 대한 수요가 늘고 있는 가운데 AI가 가능한 기기로의 교체 주기가 가속화하면 반도체 공급에서 더 광범위한 제약이 발생할 수 있다"고 인터뷰를 통해 밝혔다. 하지만 지금까지 소비자들이 AI 기기 구매에 신중한 태도를 보이는 만큼 AI 기반 기기 수요가 얼마나 될지는 현재로서는 불확실하다. 베인은 반도체 공급망이 "엄청나게 복잡하며, 수요가 약 20% 이상 증가하면 균형이 깨지고 칩 부족 현상이 발생할 가능성이 높다"며, "대규모 최종 시장의 합류 지점에서 AI가 폭발적으로 확산되면 그 한계를 쉽게 넘어설 수 있으며, 공급망 전반에 취약한 병목 현상이 발생할 수 있다"고 밝혔다. 반도체 공급망은 한 회사가 아닌 여러 회사에 걸쳐 분산되어 있다. 예를 들면 엔비디아가 GPU를 설계하지만 대만 TSMC가 이를 생산하며, TSMC는 네덜란드 등 전 세계에 퍼져있는 반도에 칩 제조 도구들을 활용하는 식이다. 또, 최첨단 칩은 TSMC와 삼성전자에서만 대량 생산이 가능한 상태다. 지정학적 요인도도 반도체 칩 부족을 촉발하는 요인일 수 있다고 베인은 설명했다. 반도체는 전 세계 정부에서 전략적 기술로 간주하기 때문에 미국은 최근 중국을 상대로 수출 제한 및 기타 제재를 통해 최첨단 칩 접근을 제한하려는 정책을 펼쳐 왔다. "지정학적 긴장, 무역 제한, 다국적 기술 기업의 중국 공급망 분리는 반도체 공급에 심각한 위험을 초래하고 있다. 반도체 공장 건설 지연, 자재 부족 및 기타 예측할 수 없는 요소도 핀치 포인트를 만들 수 있다"는 게 베인의 분석이다.

2024.09.26 13:27이정현

노트북 내장 그래픽 성능 향상에 외장 GPU '개점휴업'

노트북용 프로세서 경쟁은 코어 수와 IPC(클록당 실행 명령어 수), 전력 효율 등 CPU 뿐만 아니라 GPU 분야에서도 치열하게 진행 중이다. AI PC에서 클라우드 도움 없이 LLM(거대언어모델), 생성 AI를 실행하는 데 CPU나 NPU(신경망처리장치) 못지 않게 GPU 성능 향상도 필요하다. 인텔이 이달 초 정식 공개한 코어 울트라 200V(루나레이크) 프로세서는 지속적으로 성능을 강화해 과거 엔비디아 등이 공급하던 외장 그래픽칩셋에 필적하는 수준까지 향상됐다. 과거 씬앤라이트 노트북이나 투인원 노트북에서는 게임을 즐기기 어렵다는 고정관념도 깨질 가능성이 커졌다. 주요 PC 제조사도 코어 울트라 200V 기반 휴대형 게임PC 출시 확대를 검토중이다. ■ 인텔, 2020년부터 노트북용 내장 GPU 성능 향상 22일 시장조사업체 존페디리서치에 따르면 올 2분기 현재 PC용 GPU 시장에서 가장 큰 비율을 차지하는 업체는 인텔(64%)이다. 2011년 출시한 2세대 코어 프로세서부터 '빌트인 비주얼'을 내세워 거의 모든 프로세서에 GPU를 통합하고 있기 때문이다. 인텔은 2017년부터 자체 개발한 Xe 그래픽 기술을 기반으로 2020년부터 노트북용 프로세서 그래픽 성능을 매년 두 배 가까이 향상시켰다. 2021년 11세대 코어 프로세서(타이거레이크) 내장 Xe 그래픽스는 1920×1080 해상도에서 초당 90프레임 이상을 넘겼다. 지난 해 출시된 코어 울트라 시리즈1(메테오레이크)는 인텔 아크 A시리즈 그래픽칩셋의 레이트레이싱, XeSS 등 게임 관련 기능을 대거 추가했다. 해상도를 낮추는 대신 AI 기반 업스케일 기능으로 초당 프레임을 최대 1.72배 높였다. ■ 코어 울트라 200V, AI·그래픽 성능 향상에 주력 다음 주부터 국내를 포함한 전 세계 시장에 정식으로 공급될 코어 울트라 200V는 그래픽을 담당하는 Xe 코어의 후속작인 Xe2 코어 8개를 적용했다. 내부 구조를 완전히 새로 설계해 전 세대 대비 성능을 최대 1.5배 향상시켰다. AI PC에서 이미지 생성, LLM(거대언어모델) 구동 등에 자주 쓰이는 행렬 연산 강화를 위해 과거 노트북용 프로세서에는 탑재되지 않았던 XMX(Xe 행렬 확장) 엔진도 8개 추가했다. 스테이블 디퓨전 1.5로 그림 한 장을 만드는 시간은 절반으로 단축됐다. 지난 4일 인텔이 공개한 도타 2(DOTA 2) 구동 비교 영상에서 코어 울트라 200V 프로세서는 AMD 라이젠 HX 370과 초당 프레임 수는 70프레임 전후로 유사했지만 전체 소비 전력은 약 32W로 AMD 대비 10W 가량 낮았다. ■ 노트북용 보급형 GPU 신제품 개발 멈춘 엔비디아 노트북 시장에 지포스 MX150/MX200 등 보급형 GPU를 공급하던 엔비디아는 최근 2-3년간 신규 제품 개발을 중단한 상태다. 현재는 H100 등 서버용 AI GPU, 게임용 데스크톱PC와 노트북용 RTX 40 시리즈로 무게 중심을 옮겼다. 컴퓨텍스 2024 기간 중 만난 글로벌 노트북 제조사 관계자는 "GPU를 따로 탑재하면 전력 소모가 늘어 배터리 지속시간이 줄어들고 제조 원가가 상승함은 물론 메인보드 소형화, 내부 냉각 구조 설계에도 영향을 준다"고 설명했다. 이어 "게임이나 동영상 처리에서 고성능 외장 GPU가 필요한 일부 제품을 제외하면 현재는 대부분의 제품이 프로세서 내장 그래픽에 의존하는 상황"이라고 설명했다. ■ 내장 GPU 성능 강화, 휴대형 게임PC 시장에도 변화 오나 코어 울트라 200V 프로세서는 휴대형 게임PC 시장에도 적지 않은 영향을 미칠 것으로 보인다. 30W 내외 저전력으로 높은 그래픽 성능을 발휘하는 특성 때문이다. 레노버 리전고, 에이수스 ROG 앨리(ROG ALLY) 등 현재까지 출시된 휴대형 게임PC는 대부분 AMD 라이젠 Z1/Z1 프리미엄 APU 기반이다. 인텔 프로세서 기반 제품은 올 초 MSI가 공개한 '클로 A1M'이 유일하며 이 회사는 내년 초 코어 울트라 200V 탑재 '클로 8 AI+'를 출시 예정이다. 이 외에 대형 제조사 한 곳 역시 비슷한 제품 출시를 검토 중이다.

2024.09.22 14:00권봉석

韓-美, "가정용 GPU로 기존 104배 넘는 초고효율 AI학습 가속기술 개발"

PC방이나 가정용 GPU를 이용해 고속 네트워크 없이도 AI학습 성능을 최대 104배까지 끌어 올릴 수 있는 획기적인 기술이 개발됐다. KAIST는 전기및전자공학부 한동수 교수 연구팀이 일반 소비자용 GPU로 네트워크 대역폭이 제한된 분산 환경에서 AI 모델 학습을 혁신적으로 가속할 수 있는 기술을 개발했다고 19일 밝혔다. 기업과 연구자들이 고가의 데이터센터급 GPU(엔비디아 H100)나 고속 네트워크 없이도 AI 모델을 효율적으로 학습할 수 있는 길이 열린 셈이다. 기존에는 AI 모델 학습을 위해 개당 수천만 원에 달하는 고성능 서버용 GPU(엔비디아 H100) 여러 대와 이들을 연결하기 위한 400Gbps급 고속 네트워크 등 고가 인프라가 필요했다. 연구팀은 이 같은 문제 해결을 위해 '스텔라트레인(StellaTrain)'이라는 분산 학습 프레임워크를 개발했다. 고성능 H100 대비 10~20배 저렴한 GPU를 활용하고 고속 전용 네트워크 대신 대역폭이 수백에서 수천 배 낮은 일반 인터넷 환경에서도 효율적인 분산 학습이 가능하도록 알고리즘을 짰다. CPU와 GPU를 병렬로 연결해 학습 속도도 높였다. 또 네트워크 속도에 맞춰 데이터를 효율적으로 압축 및 전송하는 알고리즘을 적용, 고속 네트워크 없이도 빠른 학습이 가능하도록 설계했다. 특히, 학습을 작업 단계별로 CPU와 GPU가 나눠 병렬 처리하도록 새로운 파이프라인 기술도 도입했다. 원거리 분산 환경에서도 GPU 연산 효율을 높이기 위해 AI 모델별 GPU 활용률을 실시간 모니터링, 모델이 학습하는 샘플 개수(배치 크기)를 동적으로 결정하고 변화하는 네트워크 대역폭에 맞춰 GPU 간 데이터 전송을 효율화했다. 연구 결과, 스텔라트레인 기술을 사용하면 기존의 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있는 것으로 나타났다. 임휘준 박사는 "스텔라트레인 기술을 사용하면 기존 데이터 병렬 학습 속도 대비 최대 104배 빠른 성능을 낼 수 있다"고 말했다. 한동수 교수는 "이번 연구가 대규모 AI 모델 학습을 누구나 쉽게 접근할 수 있게 하는 데 큰 기여를 할 것"이라며 "앞으로도 저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 기술을 계혹 개발해 나갈 계획"이라고 말했다. 연구는 KAIST 임휘준 박사, 예준철 박사과정 학생, UC 어바인 산기타 압두 조시(Sangeetha Abdu Jyothi) 교수와 공동으로 진행됐다. 연구 성과는 지난 8월 호주 시드니에서 열린 'ACM SIGCOMM 2024'에서 발표됐다. 한편, 한동수 교수 연구팀은 지난 7월 GPU 메모리 한계를 극복한 소수의 GPU로 거대 언어 모델을 학습하는 새로운 기술도 발표했다. 이 연구는 최신 거대 언어 모델의 기반이 되는 전문가 혼합형(Mixture of Expert) 모델을 제한된 메모리 환경에서도 효율적인 학습을 가능하게 한다. 기존에 32~64개 GPU가 필요한 150억 파라미터 규모의 언어 모델을 단 4개의 GPU만으로도 학습할 수 있다. 한동수 교수는 "학습에 필요한 최소 GPU 대수를 8배~16배 낮출 수 있다"며 "연구에는 KAIST 임휘준 박사와 김예찬 연구원이 참여했다"고 덧붙였다. 이 연구결과는 오스트리아에서 열린 AI 분야 국제 학회인 ICML에 발표됐다. 이 성과는 한국연구재단이 주관하는 중견연구사업, 정보통신기획평가원(IITP)이 주관하는 정보통신·방송 기술개발사업 및 표준개발지원사업, 차세대통신클라우드리더십구축사업 (RS-2024-00123456), 삼성전자의 지원을 받았다.

2024.09.19 14:42박희범

'12단 HBM3E' 수급 다급해진 엔비디아…삼성·SK 대응 분주

엔비디아가 최근 생산 차질 논란이 불거진 최신형 AI 반도체 '블랙웰'을 당초 일정대로 양산하겠다고 밝혔다. 칩 재설계를 통한 대체품을 내놓는 것으로, HBM(고대역폭메모리) 역시 더 높은 용량의 제품을 탑재하기로 했다. 이에 따라 삼성전자, SK하이닉스 등 주요 메모리 기업도 최선단 HBM의 인증을 서두르기 위한 대응에 나선 것으로 파악됐다. 29일 업계에 따르면 삼성전자·SK하이닉스 등 주요 메모리 제조업체는 엔비디아의 최신 GPU '블랙웰' 칩 설계 변경에 따라 HBM3E 12단 인증을 서두르고 있다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정을 기반으로, 총 2천80억개의 트랜지스터를 집적했다. 이는 기존 GPU 대비 2배가량 많은 것으로, 2개의 GPU 다이(Die)를 10TB(테라바이트)/s의 빠른 데이터 전송 속도로 연결했기 때문에 가능한 수치다. 세부적으로 블랙웰 GPU는 전력소모량에 따라 700W급인 B100, 최대 1200W급인 B200으로 나뉜다. 당초 엔비디아는 B100 GPU 2개와 '그레이스' CPU 1개를 결합한 구조의 AI 가속기 'GB200'을 회사 회계연도 기준 2025년 4분기(2024년 11월~2025년 1월) 출시할 예정이었다. ■ SoC 재설계로 HBM3E도 8단→ 12단 변경 그러나 최근 GB200의 양산 일정에 차질이 생겼다. 업계에서 분석하는 원인은 크게 두 가지다. 하나는 B100 칩 설계의 문제, 또 하나는 GB200에 필요한 TSMC의 최첨단 패키징 'CoWoS-L'의 용량 부족이다. CoWoS는 엔비디아가 자체 개발한 2.5D 패키징 기술로, 로직반도체와 HBM을 SiP(시스템 인 패키지) 형태로 묶는 것을 뜻한다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 활용되는 소재에 따라 종류가 나뉘며, CoWoS-L의 경우 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 채용한다. 이에 엔비디아는 즉각 대응책을 수립했다. 기존 B100을 개량한 'B102'를 대체품으로 재설계하고, 이를 기반으로 'GB200A'를 제작하기로 했다. A는 공랭(Air Cooling)의 의미다. 패키징 구조 역시 변경된다. GB200은 GPU 2개를 묶어 한 칩처럼 동작하게 하고, 주변에 HBM3E 8단(24GB)을 8개 집적하는 형태다. 반면 GB200A는 GPU를 묶지 않고 B102 칩 하나에 HBM3E 12단(36GB)를 4개 집적한다. 내장된 GPU 2개가 총 HBM 8개를 운용하는 것보다 효율이 떨어지기 때문에, 단일 HBM의 용량을 높이고자 12단을 채용한 것으로 분석된다. 엔비디아는 이 같은 칩 재설계를 통해 어제(29일 한국시간) 2분기 실적발표 컨퍼런스콜에서 "당초 계획대로 블랙웰 GPU 양산 공급을 연말에 진행하겠다"는 뜻을 밝혔다. ■ HBM3E 12단 공급 빨라져야…삼성·SK 대응 분주 엔비디아가 블랙웰 GPU의 양산 일정을 고수하면서, 삼성전자·SK하이닉스·마이크론 등 메모리 제조업체들의 대응 또한 분주해지고 있다. 당초보다 빨리 HBM3E 12단 제품을 엔비디아에 공급해야 하는 상황에 놓였기 때문이다. HBM3E는 5세대 HBM으로, 올해 상반기 8단 제품부터 상용화에 들어갔다. 더 많은 D램을 적층하는 12단 제품은 주요 메모리 3사 모두 고객사와의 퀄(품질) 테스트를 거치고 있으며, 아직까지 공식 승인을 받은 기업은 없다. 이에 엔비디아도 주요 메모리 제조사에 HBM3E 12단 승인을 앞당기기 위한 논의를 진행한 것으로 알려졌다. 반도체 업계 관계자는 "엔비디아의 요청에 따라 메모리 제조사들도 HBM3E 12단 물량을 급하게 늘리려는 움직임을 보이고 있다"며 "HBM3E 12단의 수율이 상대적으로 낮고, 긴급한 주문이기 때문에 메모리 제조사 입장에서도 더 높은 가격을 책정받을 수 있다는 이점을 누릴 수 있다"고 설명했다.

2024.08.30 10:04장경윤

엔비디아 2Q 호실적에도 주가 하락…삼성·SK하이닉스 동반↓

엔비디아가 28일(현지시간) 2분기 실적에서 시장 전망치를 상회하는 실적을 내고도 주가는 시간외 거래에서 급락했다. 이에 영향을 받아 SK하이닉스와 삼성전자도 동반 약세를 보이고 있다. 29일 오전 11시 29분 기준 삼성전자는 전일 대비 2천200원(2.88%) 내린 7만4천200원에 거래되고 있다. SK하이닉스도 전일 대비 1만600원(5.91%) 급락한 16만8천700원에 거래 중이다. SK하이닉스와 삼성전자는 엔비디아에 고대역폭 메모리(HBM)을 납품한다. 인공지능(AI) 대장주인 엔비디아가 지난 2월, 5월 실적을 발표할 때마다 주가가 급등하고, AI와 메모리 기업의 주가에 영향을 끼쳐왔다. 이번 엔비디아 실적 발표에서도 삼성전자와 SK하이닉스를 비롯해 국내 반도체주는 줄줄이 급락을 보였다. 이는 엔비디아의 분기 실적이 시장의 기대에 미치지 못한 것과 더불어 블랙웰 칩 생산 지연에 대한 우려 때문으로 풀이된다. 엔비디아는 2분기 컨콜에서 블랙웰 지연설에 대해 부인하며 4분기에 출시할 예정이라고 밝혔다. 다만, 블랙웰 생산에서 결함으로 인해 마스크를 변경했다는 점은 인정했다. 엔비디아 회계연도에서 4분기는 11월~익년 1월에 해당되므로, 블랙웰은 내년 1월에 출시될 수 있다는 의미다. 블랙웰 출시 지연은 메모리 업체의 HBM 공급 물량 계획에 차질을 초래할 수 있다. SK하이닉스는 엔비디아 블랙웰에 HBM3E 8단을 공급하며, 삼성전자는 현재 퀄테스트(품질테스트)를 받는 중이다. 엔비디아는 올 2분기에 300억4천만 달러(40조1천785억원)의 매출로 전년 동기 대비 122% 증가했다. 시장조사업체 LSEG가 전망한 월가 예상치 매출 287억 달러를 웃돈 실적이다. 2분기 영업이익은 186억 4천200만 달러(약 24조9천336억원)로 전년 동기 대비 2.74배 늘어났다. 엔비디아는 올 3분기 매출은 325억 달러에 이를 것으로 전망했다. 이 역시 월가 전망치 317억 달러를 상회하는 수준이다. 이에 엔비디아 주가는 뉴욕 증시 정규장에서 2.10% 하락 마감한 뒤 실적 발표 후 시간 외 거래에서 6.89% 하락했다.

2024.08.29 11:43이나리

엔비디아, 차세대 AI GPU '블랙웰' 지연설 부인

엔비디아가 차세대 GPU '블랙웰' 출시 지연설을 부인했다. 이달 초 미국 디인포메이션과 블룸버그가 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 연기됐다"고 보도한 내용을 우회적으로 반박했다. 엔비디아는 반도체 업계 학술행사 '핫칩스 2024'를 앞두고 진행된 사전 브리핑에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 연말에 차질 없이 공급될 것"이라고 밝혔다. ■ TSMC N4P 기반 블랙웰 GPU, 3월 첫 공개 블랙웰 GPU는 지난 3월 GTC 2024 행사에서 처음 공개된 엔비디아 차세대 AI 가속용 GPU다. 대만 TSMC의 4나노급 공정(N4P)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동하며 블랙웰 두 개와 그레이스(Grace) CPU 한 개로 최소 단위인 GB200 한 개가 구성된다. 젠슨 황 엔비디아 CEO는 지난 6월 컴퓨텍스 기조연설에서 "GTC 2024에서 공개한 블랙웰은 개발 단계 제품이며 현재는 블랙웰이 순조롭게 양산에 들어갔다"며 실제 제품을 공개하기도 했다. ■ 디인포메이션·공상시보, 블랙웰 출시 지연설 제기 이달 초 미국 디인포메이션과 대만 공상시보는 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 지연됐다"고 보도했다. 디인포메이션은 공급망 관계자를 인용해 "엔비디아가 블랙웰의 설계에 문제를 겪고 있으며 메타, 마이크로소프트, 구글 등 주요 고객사에 이미 통보를 마친 상태"라고 설명했다. 대만 공상시보는 "엔비디아의 핵심 협력사인 TSMC가 블랙웰 GPU를 연결하는 인터커넥트의 결함을 발견했다는 설이 있지만 이를 확인하기는 어렵다. 그러나 마이크로소프트 등 주요 고객사가 블랙웰 기반 AI 클러스터를 만들겠다는 계획이 내년 중반 이후로 미뤄질 가능성이 있다"고 보도했다. 이에 대해 엔비디아는 "호퍼 기반 H시리즈 수요가 여전히 크며 블랙웰 시제품 공급이 시작됐고 하반기부터 계획대로 양산에 들어갈 것이다. 시장의 루머에는 답변하지 않는다"고 밝혔다. 엔비디아 서버용 랙(복수의 서버를 저장할 수 있는 특수 프레임)을 제작하는 대만 폭스콘 역시 지난 14일 2분기 실적발표 자료를 통해 "GB200 랙 개발 일정이 순조롭게 진행되고 있다"며 "폭스콘이 확실히 첫 공급업체가 될 것이고, 출하는 올 4분기에 시작될 것"이라고 설명했다. ■ 엔비디아 "블랙웰 양산·출시 일정 변함 없다" 엔비디아는 25일(미국 현지시간)부터 3일간 미국 캘리포니아 주 스탠포드대학교에서 열리는 반도체 업계 학술행사 '핫칩스 2024'(Hot Chips 2024)를 앞두고 진행한 온라인 브리핑에서 블랙웰 출시 지연설을 반박했다. 엔비디아는 23일 진행된 'AI 미디어 프리브리핑'에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 이미 밝힌 바와 같이 양산에 들어가 올 연말 고객사에 전달될 것"이라고 설명했다. 엔비디아는 브리핑 중 블랙웰 기반 서버 블레이드 사진과 함께 실제 설치된 사내 서버실 사진도 공개했다. ■ "블랙웰 출시 지연 사실이라 해도 영향 적어" 엔비디아는 오는 28일(미국 현지시간) 2분기 실적을 발표 예정이다. 해당 기간 전까지 주가에 크게 영향을 미칠 수 있는 사안에 대해서는 구체적으로 언급하지 않는 것이 관례다. 그러나 차세대 제품인 블랙웰 GPU 지연설이 악영향을 미친다는 판단 아래 이례적으로 이를 반박한 것으로 추정된다. 2분기 실적 발표에서도 블랙웰 출시 일정 관련 어떤 형태로든 언급이 있을 것으로 보인다. 미국 뉴욕 소재 시장조사업체인 멜리우스 리서치는 "엔비디아 매출 중 전세대 제품인 호퍼 기반 H100과 H200이 메타 라마4(Llama 4), 오픈AI GPT-5 등 LLM(거대언어모델) 훈련에 대거 투입되고 있으며 블랙웰 출시가 지연되더라도 엔비디아의 손실은 극히 낮을 것"이라고 추정했다.

2024.08.26 16:39권봉석

SKT, 서울에 엔비디아 GPU 기반 AI 데이터센터 가동한다

SK텔레콤이 람다와 오는 12월 서울에 AI 데이터센터를 연다. 람다가 보유한 엔비디아 GPU 자원을 SK브로드밴드의 서울 가산 데이터센터에 전진 배치하는 것이다. SK텔레콤은 AI 데이터센터에 배치할 GPU를 3년 안으로 수천 대 이상까지 확대할 계획이다. SK텔레콤은 람다와 'AI 클라우드 공동 사업을 위한 파트너십'을 체결했다고 21일 밝혔다. 양사는 안정적인 GPU 공급을 바탕으로 한 GPUaaS 사업 확대, 람다의 한국 리전 설립 등 다양한 영역에서 전략적 협업을 강화하기로 합의했다. 2012년 AI 엔지니어들이 설립한 람다는 엔비디아로부터 최신 GPU를 공급받아 AI 클라우드 서비스를 제공하는 GPUaaS 기업이다. 인텔, 마이크로소프트 등 글로벌 빅테크 기업들이 람다의 고객사다. 로이터통신 등 외신에 따르면 람다는 지난 2월 회사 가치를 15억 달러로 평가받고, 3억2천만 달러 규모의 투자를 유치하는 등 떠오르는 AI 기업으로 각광받고 있다. 서울에 엔비디아 GPU 전용 AI 데이터센터 개소 SK텔레콤과 람다는 오는 12월 서울시 금천구 가산동에 위치한 기존 SK브로드밴드 데이터센터에 엔비디아 GPU 'H100'을 배치한다. SK텔레콤은 AI 시장 성장에 따라 국내 GPU 수요가 급등하는 것을 감안해 3년 안으로GPU를 수천 대 이상까지 늘리고, 최신 GPU 모델인 'H200'도 조기 도입을 추진 중이다. 이를 통해 가산 데이터센터를 시작으로 엔비디아 단일 GPU로 구성된 국내 최대 규모의 'GPU Farm'을 확충하는 것이 목표다. SK브로드밴드는 데이터센터 운영 노하우를 살려 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. GPU 서버가 안정적으로 작동할 수 있도록 가산 데이터센터의 랙 당 전력밀도를 국내 최고 수준인 44kW로 구현할 계획이다. 이는 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달한다. AI 데이터센터 오픈에 따라 아시아태평양 지역 최초로 람다의 한국 리전도 개소한다. 람다 GPU 기반 AI 클라우드 서비스를 이용하는 국내 기업들의 데이터는 한국 리전에 저장된다. GPU 기반 구독형 AI 클라우드 서비스 연내 출시 SK텔레콤은 람다 GPU 자원을 기반으로 구독형 AI 클라우드 서비스인 GPUaaS를 오는 12월 출시할 계획이다. GPUaaS는 기업이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고, 클라우드를 통해 가상 환경에서 자원을 빌려 쓰는 서비스다. 공급이 부족하고 가격이 높은 GPU를 직접 구매하기 부담스러운 대기업이나 중소 스타트업이 상대적으로 저렴한 비용에 사용할 수 있다. GPUaaS 출시와 함께 GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅, AI 스타트업 지원 프로그램 등 국내 스타트업, 중견 중소기업 대상의 다양한 프로모션을 선보일 계획이다. 스티븐 발라반 람다 CEO 겸 창업자는 “람다와 SK텔레콤은 GPU 컴퓨팅 자원을 전기처럼 편리하게 사용 가능한 환경을 만들겠다는 비전을 공유하고 있다”며 “AI 혁신 속도가 빠른 한국에서 AI 클라우드 영역을 성장시키고자 하는 SK텔레콤과 협력하게 되어 기쁘게 생각한다”고 말했다. 김경덕 SK텔레콤 엔터프라이즈 사업부장은 ”람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며 “향후 국내 최대 규모의 GPU 팜을 구축해 국가 AI 경쟁력을 높이고, 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 말했다.

2024.08.21 09:22박수형

폭스콘 "엔비디아 GB200 서버, 계획대로 4분기 출하"

대만 폭스콘이 엔비디아의 최신형 AI 가속기 'GB200'을 당초 계획대로 올 4분기 출하될 것이라고 14일(현지시간) 밝혔다. 폭스콘은 2분기 실적발표 자료를 통해 "GB200 랙(복수의 서버를 저장할 수 있는 특수 프레임) 개발 일정이 순조롭게 진행되고 있다"며 "폭스콘이 확실히 첫 공급업체가 될 것이고, 출하는 올 4분기에 시작될 것"이라고 설명했다. GB200은 엔비디아가 지난 3월 공개한 최신형 GPU인 '블랙웰' 기반의 AI 가속기다. 블랙웰은 4나노미터(nm) 공정을 채택하고, 트랜지스터를 2천80억 개 집적한 것이 특징이다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 GB200이 된다. 폭스콘은 세계 최대 위탁생산업체로서, 엔비디아의 GB200을 도입해 서버 랙을 제작하고 있다. 이달 초 미국 테크 전문매체 디인포메이션 등에서는 엔비디아의 GB200이 설계 결함으로 수율에 문제가 생겼다고 보도한 바 있다. 당시 디인포메이션은 "엔비디아가 마이크로소프트 등 고객사에 GB200의 결함 사실을 알렸다"며 "내년 1분기까지 블랙웰 칩의 대량 출하가 이뤄지지 않을 것으로 예상된다"고 밝혔다. 폭스콘의 이번 발표는 엔비디아를 둘러싼 불안을 잠재우려는 의도로 해석된다. 폭스콘은 "올해 AI 서버가 자사 전체 서버 수익의 40%를 기여할 것이라는 견해를 고수한다"며 "AI 서버에 대한 강력한 수요는 내년에도 지속돼, 향후 폭스콘의 차기 1조 달러 수익 산업이 될 것"이라고 밝혔다.

2024.08.16 08:58장경윤

"엔비디아, 내년 HBM3E 물량 중 85% 이상 차지할 듯"

8일 시장조사업체 트렌드포스에 따르면 엔비디아의 내년 HBM3E 소비량은 전체 물량의 85%를 넘어설 전망이다. 엔비디아가 시장을 주도하고 있는 AI 서버용 칩은 고성능 GPU와 HBM 등을 함께 집적한 형태로 만들어진다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 데이터 처리 성능이 일반 D램에 비해 월등히 높다. 엔비디아는 지난 2022년 말 '호퍼' 아키텍처 기반의 H100 칩을 출시했으며, 올해에는 HBM3E 탑재로 성능을 더 강화한 H200 양산을 시작했다. H200에 채택된 HBM3E는 현재 SK하이닉스와 마이크론이 공급하고 있다. 이에 따라 엔비디아의 HBM3E 소비 점유율은 올해 60% 이상으로 예상된다. 나아가 엔비디아는 '블랙웰' 아키텍처 기반의 'B100', 'B200' 등의 제품을 내년부터 출시할 계획이다. 해당 제품에는 HBM3E 8단 및 12단 제품이 탑재된다. 이에 따라 내년 엔비디아의 HBM3E 소비 점유율은 85% 이상을 기록할 전망이다. 트렌드포스는 "블랙웰 울트라, GB200 등 엔비디아의 차세대 제품 로드맵을 고려하면 HBM3E 12단 제품의 비중이 내년 40%를 넘어걸 것으로 추산된다"며 "현재 공급사들이 HBM3E 8단 제품에 집중하고 있으나, 내년에 12단 제품 생산량이 크게 증가할 것"이라고 밝혔다. 트렌드포스는 이어 "현재 삼성전자와 SK하이닉스, 마이크론이 모두 제품 검증을 거치고 있으며, 특히 삼성전자가 시장 점유율을 늘리는 데 적극적"이라며 "검증 순서가 주문량 할당에 영향을 미칠 수 있다"고 덧붙였다.

2024.08.09 08:40장경윤

[유미's 픽] '마하'로 의기투합 한 네이버-삼성…양산 시점은 언제?

네이버와 삼성전자가 함께 개발하고 있는 인공지능(AI) 반도체 '마하'의 주도권을 두고 양사간 갈등이 표면화되면서 업계가 우려하고 있다. 국내 대표 기업들이 의기투합해 엔비디아를 따라잡겠다며 AI 반도체를 개발하기 시작했지만 약 1년 8개월여만에 불협화음을 낸 것을 두고 안타까워하는 분위기다. 2일 업계에 따르면 '마하' 프로젝트를 주도하고 있는 이동수 네이버클라우드 이사는 자신의 소셜미디어(SNS)를 통해 여러 차례 삼성전자를 겨냥해 볼멘 소리를 냈다. 삼성전자의 독단적인 행동에 단단히 뿔이 난 것이다. 이 이사는 지난 1일 한 매체에서 삼성전자와 네이버가 '마하-1' 개발까지만 함께하고 더 이상 협업에 나서지 않을 것이란 내용이 보도된 직후 자신의 페이스북에 해당 기사가 너무 잘못된 내용들이 많다는 점을 지적했다. 또 그는 "무엇이 오보인지에 대해서는 네이버가 아닌 삼성에 물어봐야 할 것 같다"고 강조했다. 그러면서 3시간 30여분이 지난 이후에는 "네이버클라우드의 단합된 힘으로 반도체 사업을 시작한다"며 "자세한 내용은 차차 공개하겠다"고 말해 눈길을 끌었다. 이 이사는 올 초에도 상당히 격분한 듯한 어조로 SNS에 글을 올렸다. 당시 그는 "(마하를) 먼저 만들자고 (삼성전자에) 제안한 것도, 이렇게 만들어보자고 기획한 것도 네이버"라며 "(그런데) 네이버 이름도 빠지고 어떻게 이해해야 할지 모르겠다"고 밝혔다. 이 이사는 이 글이 주목 받자 곧바로 내렸지만 업계에선 네이버클라우드와 삼성전자의 갈등이 표면화됐다는 데 큰 의미를 뒀다. 이 사건의 발단은 지난 3월 말 열린 삼성전자 주주총회였다. 이 자리에서 경계현 삼성전자 미래사업기획단장(당시 DS부문장)이 '마하2' 개발에 대한 계획을 공개한 것이 갈등의 씨앗이 됐다. 경 사장은 "메모리 등 기존 사업만으로는 장기적으로 반도체 1등을 유지할 수 없다"며 "추론 전용인 '마하-1'에 대한 고객들의 관심 또한 증가하고 있고, 연말 정도면 '마하-1'을 만들어 내년 초쯤 우리 칩으로 구성된 시스템을 볼 수 있을 것"이라고 말했다. 그러면서 "일부 고객은 1T 파라미터 이상의 큰 애플리케이션에 '마하'를 쓰고 싶어 한다"며 "생각보다 더 빠르게 '마하-2' 개발을 준비해야겠다"고 덧붙였다. 이 발언 후 네이버클라우드 내부에선 삼성전자에 대한 불만이 고조됐다. 실제 네이버클라우드가 먼저 제안해 삼성전자가 받아들이면서 '마하' 프로젝트가 성사됐지만, 마치 삼성전자가 주도하는 것처럼 분위기를 이끌어 갔기 때문이다. 특히 '마하-1' 연구개발과 설계에 참여한 엔지니어 40여 명 중 상당수는 네이버클라우드 소속인데 삼성전자가 마치 자사 직원인 것처럼 업무를 지시하기도 했다는 말들도 무성했다. 삼성전자는 그간 "서로 잘 협력하고 있다"는 식으로 분위기를 무마하려 했지만, 네이버 측의 불만은 고조돼 갔다. 처음부터 '마하' 프로젝트 기획부터 칩 개발 핵심 아이디어까지 자신들이 도맡았지만, 그 공을 삼성전자가 가로챈 느낌이 많이 들었기 때문이다. 삼성 사장단의 교체로 반도체 수장을 전영현 신임 DS 부문장이 맡게 되면서도 분위기가 오묘하게 흘러갔다. '마하-2' 발언으로 관계에 균열이 생긴 탓에 수장 교체 직후 양사 고위 임원들의 만남도 빠르게 이뤄지지 않았다. '마하'는 HBM(고대역폭 메모리)이 필요 없는 AI 추론에 특화된 반도체로, 이를 만들기 위해 양사는 지난 2022년 12월 협력 사실을 발표한 바 있다. 업계 관계자는 "삼성전자의 제조업 마인드와 네이버의 서비스업 마인드가 충돌하면서 네이버 측이 삼성전자의 태도에 대해 당황해 하는 분위기가 역력했다"며 "삼성전자가 네이버를 제외하고 자신들이 '마하-2'를 다 하는 것처럼 얘기를 한 것이 네이버 측의 심기를 상당히 건드렸다"고 말했다. 그러면서 "네이버는 거대언어모델(LLM)을 기반으로 서비스를 하는 조직이라면, 삼성전자는 그런 경험이 없다는 점에서 양사가 협업하기는 쉽지 않았을 것"이라며 "삼성전자가 자체적으로 잘 만든다고 해도 성능을 잘 검증 받을 수 있어야 하는데 네이버를 배제하면 무슨 의미가 있을까 싶다"고 덧붙였다. 삼성전자의 이 같은 태도에 '마하-1' 양산 시기도 당초 공언했던 것보다 늦어질 수 있다는 관측도 나왔다. 삼성전자는 '마하-1'을 네이버에 공급해 연내 안전성 테스트를 진행한 후 내년 초께 출시할 것이라고 계획을 밝혔으나, 네이버 내부에선 내후년께 출시될 것으로 봤다. 네이버클라우드 관계자는 "지금 계획상으로는 내년 1분기쯤 (자사 데이터센터에서) 테스트를 할 것으로 보인다"며 "반도체 설계부터 생산까지 쉬운 일은 아닌 만큼 내년이나 후년 정도에 양산할 것으로 예상된다"고 말했다. 삼성전자는 네이버 측과의 불화설을 일단 부인했다. 또 '마하-1'을 기점으로 AI 반도체 시장에서 입지를 다져야 하는 삼성전자 입장에선 현재의 분위기를 다소 불편하게 여기는 것으로 알려졌다. 그러면서도 삼성전자는 파트너사 물색과 함께 내부적으로 '마하' 시리즈 개발을 담당하는 시스템LSI 사업부 내에 AI SOC팀에 힘을 실어주는 것으로 알려졌다. 엔비디아 그래픽처리장치(GPU)를 대체할 수 있는 저렴하면서도 AI 컴퓨팅에 특화한 AI 가속기를 하루 속히 개발하기 위해서다. 삼성전자 관계자는 "네이버뿐 아니라 다양한 파트너를 찾고 있는 과정"이라며 "네이버와의 관계를 마침표를 찍는다는 일부 주장은 사실이 아니다"고 강조했다. 업계에선 '마하'가 아직 첫 제품도 나오지 않은 상황에서 양사간 갈등이 점차 표면화되는 것에 대해 안타까워했다. 엔비디아뿐 아니라 구글, 마이크로소프트 등 글로벌 빅테크들이 자체 AI 반도체를 개발하겠다며 속도전을 벌이고 있는 상황에서 두 회사가 주도권 싸움만 벌이는 것으로 비춰지는 것도 아쉬운 점으로 지목됐다. 다만 양사의 균열은 인텔에게 좋은 기회가 됐다. 인텔은 지난해 11월 팻 겔싱어 최고경영자(CEO)가 방한해 네이버 측에 직접 AI 반도체 협업을 제안한 후 협력을 강화하고 있다. 네이버클라우드는 자사 LLM '하이퍼클로바 X'를 기반으로 생성형 AI 서비스를 구축 중으로, 엔비디아 AI 생태계 대신 인텔 AI 칩 '가우디'를 활용해 가속기를 최적화하는 소프트웨어 생태계를 조성하고 있다. 이를 위해 네이버클라우드는 국내 AI 스타트업 스퀴즈비츠와 함께 '가우디2' 인프라에서 훈련과 추론을 할 수 있는 기초 코드를 함께 만든다. 국내 대학 등 연구진은 이 코드를 기반으로 소프트웨어를 개발해 오픈소스 생태계에 공개한다. 이처럼 가우디 생태계 참여자를 늘려 엔비디아의 독점적인 생태계 구조를 깨겠다는 것이 이들의 포부다. 이동수 네이버클라우드 이사는 "현재 거의 모든 서비스에 AI 기술을 접목하고 있고, 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"며 "많은 반도체를 평가하고 분석하는 과정에서 인텔 '가우디2' 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었다"고 평가했다. 하정우 네이버클라우드 AI이노베이션센터장은 "연말에 출시될 '가우디3'에 협업 실험 결과와 노하우, 소스코드 등을 모두 녹여낼 계획"이라며 "이렇게 경쟁력 있는 대안을 확보하게 되면 더 많은 데이터를 중심으로 '하이퍼클로바 X'를 고도화하는 게 가능해지고, 더 저렴한 가격으로 더 많은 사람들에게 서비스를 제공할 수 있게 될 것"이라고 말했다.

2024.08.02 15:21장유미

"엔비디아, TSMC에 AI 칩 '블랙웰' 주문량 25% 확대"

엔비디아가 TSMC에 의뢰한 최신 AI 반도체 '블랙웰(Blackwell)'에 대한 주문량을 당초 대비 25% 늘렸다고 대만 연합보가 15일 밝혔다. 연합보는 "TSMC가 가까운 시일 내에 엔비디아의 블랙웰 아키텍처 기반 GPU(그래픽처리장치)의 생산을 시작한다"며 "이는 AI 시장이 전례 없는 호황을 누리고 있다는 의미일 뿐만 아니라, TSMC의 하반기 실적에 강력한 성장요인이 될 것"이라고 밝혔다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. 3분기부터 양산에 들어가, 연말께 본격적으로 출시될 예정이다. 블랙웰은 2천80억개의 트랜지스터를 집적해, 이전 세대인 H100 대비 데이터 연산 속도를 2.5배가량 향상시킨 것이 특징이다. TSMC의 4나노미터(nm) 공정을 활용한다. 블랙웰은 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 'GB200'라는 AI 가속기가 된다. 이 GB200을 여러 개 연결하면 서버 랙 스케일 솔루션인 'GB200 NVL'을 만들 수 있다. 연합보는 업계 관계자를 인용해 "아마존, 델, 구글, 메타, 마이크로소프트 등 주요 해외 기업들이 AI 서버 구축을 위해 예상보다 많은 B100 칩을 주문했다"며 "이에 엔비디아가 TSMC에 주문량을 25% 늘렸다"고 설명했다. 이에 따라 B100 기반의 엔비디아 서버 솔루션인 'GB200 NVL72', 'GB200 NVL36' 출하량은 기존 4만대에서 6만대로 50% 증가할 전망이다. 이 중 GB200 NVL36은 출하량이 5만대에 달해 가장 많을 것으로 전망된다. 업계는 GB200 NVL72의 가격을 300만 달러로 주장하고 있다. GB200 NVL36의 예상가격은 180만 달러 수준이다.

2024.07.15 11:03장경윤

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

"美 정부, 인텔 지분 10% 인수 검토"...사실상 국영화?

[인터뷰] "美 빅테크와는 다른 게임"…韓 스타트업, '과학지식 도서관'으로 AI 패권 넘본다

[유미's 픽] 국가AI전략위원회 출범 임박…국정위 'AI 청사진' 실행력 높일까

차세대 냉각기술 액침냉각 상용화는 왜 늦어지나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.