• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (907건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스, 美에 첫 2.5D 패키징 '양산 라인' 구축 추진

SK하이닉스가 HBM을 넘어 최첨단 패키징 기술력 전반을 확보하기 위한 투자를 계획 중이다. 미국 신규 패키징 공장에 첫 2.5D 패키징 양산 라인을 마련하기 위한 준비에 나선 것으로 파악됐다. 2.5D 패키징은 HBM과 고성능 시스템반도체를 집적하기 위한 핵심 공정이다. SK하이닉스가 2.5D 패키징 기술력 및 양산 능력을 확보하는 경우, AI반도체 공급망에 상당한 변화를 일으킬 수 있을 것으로 예상된다. 29일 지디넷코리아 취재에 따르면 SK하이닉스는 미국 인디애나주 라스트웨피엣 소재의 신규 패키징 공장에 2.5D 제조라인을 구축하는 방안을 논의 중이다. 2.5D 패키징 양산라인 첫 구축 추진 라스트웨피엣 패키징 공장은 SK하이닉스의 첫 미국 내 공장으로서, AI 메모리용 최첨단 패키징 생산기지로 조성될 예정이다. 목표 가동 시기는 오는 2028년 하반기다. 이를 위해 SK하이닉스는 현지에 38억7천만 달러(한화 약 5조4천억원)를 투자하겠다고 밝힌 바 있다. SK하이닉스가 미국 웨스트라피엣에 신규 패키징 라인을 구축하는 주 요인은 HBM(고대역폭메모리)에 있다. HBM은 AI반도체의 핵심 요소 중 하나로, 현재 미국 정부는 자국 내 최첨단 반도체 공급망 강화를 위해 SK하이닉스를 비롯한 주요 반도체 기업의 현지 투자를 적극 유치해 왔다. 나아가 SK하이닉스는 해당 공장에 2.5D 패키징 양산 라인을 구축하는 방안을 추진하고 있다. 2.5D 패키징은 반도체와 기판 사이에 실리콘 인터포저라는 얇은 막을 삽입해, 칩 성능 및 전력효율성을 높이는 기술이다. 글로벌 빅테크인 엔비디아의 고성능 AI가속기도 HBM과 고성능 GPU·CPU 등을 2.5D 패키징으로 집적해 만들어진다. SK하이닉스는 2.5D 양산 라인 구축으로 HBM을 비롯한 AI 반도체 패키징 능력 전반을 강화하려는 것으로 풀이된다. HBM은 최종 고객사인 엔비디아의 사용 승인을 받기 위해 HBM 자체만이 아닌, 2.5D 패키징에서도 퀄(품질) 테스트를 거친다. HBM에서 신뢰성을 확보하더라도 2.5D 패키징 테스트에서 불량이 발생하면 일정에 차질이 생길 수 밖에 없는 구조다. 2.5D 패키징 내에서 책임 소재를 정확히 찾아내는 작업 또한 어렵다. 어떤 의미?...HBM 넘어 최첨단 패키징 전반 기술력 강화 전략 때문에 SK하이닉스는 그동안 자체적으로 2.5D 패키징에 대한 연구개발을 진행해 왔다. 다만 국내에서는 모든 2.5D 패키징 과정을 양산 수준으로 진행할 만큼의 설비가 갖춰지지 않았다는 평가다. 사안에 정통한 관계자는 "SK하이닉스의 경우 2.5D 패키징에 대한 기본적인 기술력 및 설비는 갖추고 있으나, HBM이 집적된 AI가속기에 대응할 만큼 대형 SiP(시스템인패키지) 설비에는 대응하기에 무리가 있다"며 "이에 미국 웨스트라피엣에 최초로 정식 2.5D 패키징 양산라인을 구축하는 방안을 패키징 협력사들과 진지하게 논의 중"이라고 설명했다. 이 같은 관점에서 SK하이닉스가 2.5D 패키징 양산 라인을 구축하는 경우 차세대 HBM 공급에서 안정성을 확보할 수 있을 것으로 관측된다. 또한 기술력을 한층 고도화해 고객사에 HBM과 패키징을 동시에 제공하는 턴키(Turn-Key) 사업도 구상할 수 있게 된다. 현재 AI가속기용 2.5D 패키징은 대만 주요 파운드리인 TSMC가 사실상 독점하고 있다. 반도체 업계 관계자는 "현재 SK하이닉스는 자사 HBM을 직접 2.5D 패키징까지 진행할 수 있는 설비를 갖추는 것을 매우 중요한 과제로 인식하고 있다"며 "기술이 안정화 및 고도화되는 경우에는 단순한 연구개발을 넘어 사업 진출도 추진할 수 있을 것"이라고 말했다. 또 다른 관계자는 "SK하이닉스 내부에서 2.5D 패키징 샘플 제조 및 테스트를 적극 진행하는 등 관련 사업 확장에 대한 의지는 명확하다"며 "다만 미국 웨스트라피엣 공장 완공 시점이 아직 시간적으로 많이 남아 있는 만큼, 계획이 수정될 가능성은 있다"고 밝혔다. 이와 관련해 SK하이닉스는 "인디애나 팹 활용 방안과 관련해 다양한 방안을 검토 중이나, 구체적으로 확정된 바는 없다"고 답변했다.

2025.12.29 11:01장경윤

정용진 회장 "모든 준비 마쳤다...다시 높게 날자"

정용진 신세계그룹 회장이 새해 신년사에서 2026년을 '다시 성장하는 해'로 정의하고 모든 준비는 마쳤으니 다시 높게 날아오르자고 강조했다. 이를 위한 성장의 지향점으로는 '고객'을 꼽았다. 정 회장은 29일 신년사에서 “최근 2~3년간 신세계그룹의 혁신적 결단들은 다시 한번 성장하기 위한 치밀한 준비였다”고 말했다. 그는 개구리 점프를 비유하며 “큰 도약을 위해서는 그만큼 고통을 이겨내야 한다”면서 “2025년까지 실행한 신세계그룹의 결단들은 도약을 위한 준비였고 이제 준비는 끝났다”고 설명했다. 2025년을 기점으로 다시 점포 수를 늘리기 시작한 이마트, '미식'과 '럭셔리'에서 독보적 경쟁력을 구축한 백화점, 젊은 고객을 겨냥한 매장과 상품을 선보인 이마트24, 알리바바와의 협업으로 새로운 여정을 시작한 지마켓 등 신세계가 실행했던 전략들이 2026년 본격적인 성과로 이어져야 한다는 다짐이다. 정 회장은 성장을 위한 지향점으로 '고객'을 꼽았다. 10여 분 간의 신년사 영상에서 총 25번 언급하며 “고객이란 말은 지독할 만큼 강조해도 지나치지 않다”고 강조했다. 정 회장은 “우리의 본질인 '새로움을 갈망하는 1등 고객'들이 이제 세계의 1등 고객이 됐다”며 “K푸드, K팝, K패션에 전 세계가 열광하고 있고 이 'K라이프 스타일'을 이끄는 게 변화를 즐기는 신세계의 고객들”이라고 설명했다. 그는 “우리 고객들을 세계가 주목한다는 건 고객들이 바라는 걸 예측하고 실현하는 우리 본업의 가치가 더 높아졌다는 의미”라고 말했다. 신세계의 본업과 고객을 얘기하며 정 회장은 엔비디아 창업자 젠슨 황의 이른바 '치맥 만남'을 언급하고 기대와 걱정을 내비쳤다. 그는 “시대가 변해도 사람과의 만남을 원하는 사람들의 모습이 신세계의 많은 콘텐츠와 연결될 수 있어 희망이 들었다”면서도 “예상 못한 열광적 반응을 보며 '고객이 뭘 좋아할지 아는 건 언제나 어렵다'고 생각했다” 말했다. 정 회장은 고객이 가장 사랑하는 기업으로 크게 성장하려면 1등 기업의 품격과 자신감이 있어야 한다고 강조했다. 이를 위해 신세계 임직원이 갖춰야 할 핵심 자세로 '탑의 본성'을 회복할 것을 주문했다. 정 회장은 “탑의 본성을 '세상에 없던 아이디어를 내고 한 발 앞서서, 한 박자 빠르게 실행하는 것”이라며 “탑의 본성을 지닌 기업이라면 빠르게 변하는 시장 환경 속에서 '패러다임 시프트'로 대응해야 한다”고 역설했다. 이어 “기존 전략을 개선하는 정도가 아니라 생각을 바꾸고 룰을 새로 세우며 고객 욕구 자체를 재창조하라”며 “고객이 과거 고객 그 이상인 것처럼 우리 역시 지금의 신세계 그 이상이어야 한다”고 말했다. 또 “신세계가 새로운 걸 시도했을 때 박수보다는 안될 거라는 우려를 받을 때가 더 많았다”며 “그때마다 부정적 시선을 넘고 성과를 만들어낸 신세계의 역사를 이어가자”고 독려했다.

2025.12.29 10:11김민아

엔비디아, 29조원 주고 AI칩 스타트업 '그로크'와 기술 계약

엔비디아가 인공지능(AI) 칩 스타트업 그로크(Groq)와 비독점 기술 라이선스 계약을 체결하고 핵심 인력을 영입했다. 블룸버그, 로이터 등 외신은 엔비디아가 그로크의 자산 200억달러(약 29조원)를 현금을 주고 인수하는데 합의했으며 창업자 겸 최고경영자(CEO), 고위 임원들이 합류하는 계약이라고 현지시간 25일 보도했다. 이번 계약은 엔비디아가 그로크의 AI 추론 반도체 기술을 라이선스 형태로 확보하는 것이 핵심이다. 완전 인수가 아닌 기술 사용권 계약으로, 그로크는 독립 기업 지위를 유지한다. 그로크의 자체 클라우드 사업은 이번 계약 범위에 포함되지 않는다. 그로크는 AI 추론에 특화된 LPU(Language Processing Unit) 기반 칩을 개발해 온 스타트업이다. 대규모 언어 모델을 빠르고 낮은 지연 시간으로 처리하는 데 강점을 내세워 왔다. 계약에 따라 조너선 로스 그로크 창립자, 써니 마드라 사장 등 핵심 엔지니어들이 엔비디아에 합류한다. 다만 그로크의 경영은 사이먼 에드워즈 신임 최고경영자(CEO)가 맡아 독립 운영을 이어간다. 앞서 일부 매체에서는 엔비디아가 그로크를 약 200억달러에 인수할 수 있다는 관측을 내놓은 바 있다. 그러나 최종적으로 인수 대신 라이선스 계약과 인재 영입 방식으로 정리됐다. 업계에서는 반독점 규제와 정치적 부담을 최소화하려는 선택으로 보고 있다. 엔비디아는 AI 훈련용 GPU 시장에서는 확고한 지배력을 유지하고 있지만, AI 추론 부문에서는 경쟁이 빠르게 심화되고 있다. 최근 AI 서비스가 확산되면서 추론 성능과 전력 효율이 핵심 경쟁 요소로 부상한 것이 배경이다. 이번 계약은 엔비디아가 블랙웰 이전 세대와 이후 제품군 전반에서 추론 성능을 강화하려는 전략적 포석으로 해석된다. 자체 GPU 기술에 외부 전문 설계를 접목해, AI 인프라 전반의 경쟁력을 끌어올리겠다는 계산이다. 업계 관계자는 “완전 인수보다 라이선스와 인재 흡수가 빠르고 규제 리스크도 적다”며 “AI 반도체 시장에서 대형 기업들이 선택하는 전형적인 전략이 되고 있다”고 평가했다. 이번 계약이 AI 추론 칩 시장의 경쟁 구도에 어떤 변화를 가져올지, 그리고 그로크 기술이 엔비디아의 차세대 AI 플랫폼에 어떻게 녹아들지 주목된다.

2025.12.26 15:35전화평

AI, 서버용 SSD 시장도 바꾼다…'SLC' 존재감 부각

인공지능(AI) 산업이 데이터센터용 SSD 시장 판도를 바꿀 것으로 예상된다. 기존 데이터센터용 SSD는 고용량 구현에 초점을 맞춰 왔으나, 최근 주요 메모리 기업들은 데이터 처리 성능을 극대화하기 위한 SLC(싱글레벨셀) 기반의 차세대 SSD 개발에 집중하고 있다. 글로벌 빅테크인 엔비디아 역시 AI용 고성능 SLC SSD에 주목하고 있는 것으로 알려졌다. 26일 업계에 따르면 주요 메모리 기업들은 AI 데이터센터용 차세대 낸드로 SLC에 주목하고 있다. TLC·QLC가 주도 중인 서버용 SSD 시장 SLC는 데이터를 저장하는 최소 단위인 셀 하나에 1비트(Bit)를 저장하는 방식을 뜻한다. 2비트를 저장하면 MLC(멀티레벨셀), 3비트는 TLC(트리플레벨셀), 4비트는 QLC(쿼드레벨셀)로 불린다. 각 방식에 따라 SSD(낸드 기반 저장장치)의 주 적용처가 달라진다. 기존 데이터센터용 SSD 시장은 TLC, 혹은 QLC가 주류를 차지해 왔다. 각 셀에 더 많은 비트를 저장하므로, 단위면적 당 더 많은 데이터를 저장할 수 있기 때문이다. 특히 방대한 양의 데이터 처리가 필요한 AI 데이터센터에서는 수요가 더 늘어나는 추세다. SLC는 데이터 처리 속도가 빠르고 안정성이 높지만, 저장 용량이 적고 가격이 비싸 대규모 투자가 필요한 데이터센터 구축에는 적합하지 않다는 평가가 지배적이었다. AI가 바꾸는 패러다임…1억 IOPS SSD·HBF는 'SLC' 기반 그러나 최근 주요 메모리 기업들이 개발 중인 차세대 낸드에서는 SLC의 존재감이 커지고 있다. 대표적으로, SK하이닉스는 AI 데이터센터 시장을 겨냥해 AI-N P(성능)·AI-N B(대역폭)·AI-N D(용량) 등 세 가지 측면을 각각 강화한 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 1세대 제품의 IOPS(1초당 처리할 수 있는 입출력 횟수)는 2천500만으로, 현존하는 고성능 SSD(최대 300만 수준) 대비 8~10배에 달한다. 2027년 말 양산 준비 완료를 목표로 한 2세대 제품은 1억 IOPS를 지원할 전망이다. 이를 위해 SK하이닉스는 낸드와 컨트롤러를 새로운 구조로 설계하고 있으며, 핵심 고객사인 엔비디아와 협업해 내년 말 첫 샘플을 선보일 계획이다. 회사에 따르면, AI-N P는 SLC 낸드를 기반으로 개발되고 있다. AI-N P가 데이터 처리 성능을 극대화하는 제품인 만큼, 용량은 후순위로 미루려는 전략으로 풀이된다. 일본 키오시아도 올 3분기 개최한 기술설명회에서 "엔비디아와 협력해 1억 IOPS 성능의 차세대 SSD를 오는 2027년 상용화할 것"이라고 밝힌 바 있다. SK하이닉스와 동일한 개념의 제품인 만큼, 키오시아도 SLC 낸드를 기반으로 할 것으로 관측된다. 업계에서 HBF(고대역폭플래시)라 불리는 AI-N B 역시 SLC 낸드 기반으로 개발되고 있다. HBF는 D램을 적층해 만든 HBM과 유사하게 낸드를 적층해, 데이터를 송수신하는 대역폭을 크게 확장한 제품이다. 현재 SK하이닉스는 미국 샌디스크와 협력해 HBF에 대한 표준화 작업을 진행하고 있다. 오는 2027년 PoC(개념증명) 단계의 샘플이 개발돼 본격적인 평가를 거칠 것으로 예상된다. 엔비디아, GPU와 SSD 직접 연결 구상 AI 산업을 주도하고 있는 엔비디아도 SLC 낸드의 필요성에 공감하고 있다는 분석이다. 현재 엔비디아는 주요 메모리 기업들과 AI 낸드 협력망을 구축함과 동시에, 이를 활용하기 위한 소프트웨어 'SCADA(SCaled Accelerated Data Access)'를 개발하고 있다. SCADA는 AI 데이터 처리의 핵심 요소인 GPU가 CPU를 거치지 않고 스토리지(SSD)에 직접 접근해 데이터를 읽고 쓸 수 있도록 하는 기술이다. CPU가 SSD에서 데이터를 읽고 GPU로 전송하는 기존 구조 대비 데이터 처리 과정을 줄여, 학습 및 추론 속도와 효율성을 높일 수 있다. 엔비디아 SCADA 솔루션의 구현을 위해서는 SSD도 데이터 처리 속도를 크게 끌어올려야 한다. 현재 주요 메모리 공급사들이 1억 IOPS 이상의 차세대 SSD를 개발하는 이유도 여기에 있다. 반도체 업계 관계자는 "데이터센터용 SSD에서 아직 주류는 아니지만, 차세대 스토리지 솔루션에서는 SLC 기반의 AI용 SSD가 각광을 받을 가능성이 있다"며 "다만 실제 상용화 시기를 아직까지 예측하기는 힘든 상황"이라고 설명했다.

2025.12.26 10:49장경윤

"美 빅테크 이길 것"…바이트댄스, 내년 AI 인프라 투자 늘려

틱톡을 운영하는 바이트댄스가 미국 빅테크와 인공지능(AI) 기술 격차를 좁히기 위해 인프라 투자를 확대한다. 23일 파이낸셜타임스(FT)에 따르면 바이트댄스는 내년 AI 인프라 자본지출로 약 1천600억 위안(약 23조원)을 투입한다고 밝혔다. 이는 올해 인프라 투자액 1천500억 위안보다 늘어난 규모다. 이중 약 절반은 AI 모델과 애플리케이션 개발을 위한 첨단 반도체 확보에 쓰일 예정이다. 바이트댄스는 내년 AI 프로세서에만 850억 위안(약 17조9천억원)을 배정한 것으로 확인됐다. 이를 통해 격화하는 글로벌 AI 인프라 경쟁에서 우위를 점하기 우한 전략이다. 다만 미국 마이크로소프트와 알파벳, 아마존, 메타가 올해 합산 3천억 달러 이상을 AI 데이터센터에 투자한 것과 비교하면 규모 차는 여전히 크다. 그동안 중국 기업들은 미국의 수출 통제로 엔비디아 그래픽처리장치(GPU)에 접근하지 못하면서 상대적으로 적은 연산 자원으로 구동 가능한 효율 중심 모델 개발에 집중해 왔다. 바이트댄스뿐 아니라 알리바바도 이런 환경 속에서 자체 AI 전략을 추진해 왔다. 최근 도널드 트럼프 미국 대통령은 엔비디아가 중국 내 승인된 고객에게만 H200 판매를 허용했다. 실제 공급 여부는 미국 의회와 중국 당국 입장에 따라 달라질 전망이다. 판매가 허용될 경우 바이트댄스는 H200 2만 개를 시험 주문할 계획인 것으로 알려졌다. 개당 가격은 약 2만 달러 수준이다. 바이트댄스는 중국 외 지역에서도 AI 투자를 확대하고 있다. 해외 데이터센터를 임차해 엔비디아의 최첨단 하드웨어(HW)를 활용하려는 전략이다. 이는 자본지출이 아닌 운영비로 처리되고 있다. AI 모델 성능 면에서 바이트댄스의 오픈소스 '더우바오' 모델은 알리바바의 '첸원'이나 딥시크보다 낮은 평가를 받고 있다. 반면 소비자 대상 AI 서비스에서는 중국 내 가장 높은 이용률을 기록하고 있다. 중국 조사기관 퀘스트모바일에 따르면 더우바오 챗봇은 월간 활성 이용자 수와 다운로드 수에서 딥시크를 앞질렀다. 바이트댄스는 기업 시장에서도 볼케이노 엔진 클라우드 서비스를 앞세워 알리바바와 경쟁하고 있다. 골드만삭스는 바이트댄스의 AI 서비스가 중국에서 가장 많이 사용되는 AI 플랫폼으로 자리 잡았다고 분석했다. 지난해 10월 기준 바이트댄스의 일일 토큰 사용량은 30조 개를 넘어 같은 기간 구글의 43조 개에 근접했다. 한 바이트댄스 투자자는 "바이트댄스는 다른 중국 빅테크와 달리 비상장사라서 공격적인 투자와 장기 전략을 유연하게 추진할 수 있다"고 FT에 밝혔다.

2025.12.23 16:30김미정

美 정부, 엔비디아 AI 칩 중국 판매 재검토 착수

미국 정부가 엔비디아의 첨단 인공지능(AI) 칩을 중국에 판매할 수 있을지 여부를 공식 검토하기 시작했다. 로이터는 소식통을 인용해, 미 행정부가 관련 부처 간 검토 절차를 개시했다고 19일(현지시간) 보도했다. 이번 검토는 엔비디아의 AI 가속기 H200을 중국에 수출하는 방안을 둘러싼 것이다. H200은 최신 블랙웰(Blackwell) 아키텍처 이전 세대 제품이지만, 대규모 AI 모델 학습과 추론에 활용 가능한 고성능 칩으로 분류된다. 검토 절차는 미 상무부가 주도하며 국무부, 국방부, 에너지부 등이 참여한다. 각 부처는 관련 규정에 따라 30일 이내 의견을 제출해야 하며, 최종 결정 권한은 도널드 트럼프 미국 대통령에게 있다. 보도에 따르면 트럼프 대통령은 엔비디아의 AI 칩 중국 판매를 허용하는 방안을 검토하면서, 수출 승인 조건으로 최대 25%의 정부 수수료 부과 가능성도 함께 논의하고 있다. 이는 기존 바이든 행정부가 유지해 온 대중국 반도체 수출 규제 기조에서 방향 전환을 시사하는 대목이다. 미국은 2022년 이후 중국 기업이 첨단 AI 칩을 군사·감시 목적에 활용할 수 있다는 우려를 이유로, 엔비디아의 고성능 GPU 중국 판매를 단계적으로 제한해 왔다. 이로 인해 중국 기업들은 최신 AI 인프라 구축에 제약을 받아왔다. 정치권의 반발도 거세다. 일부 미 의회 인사들은 H200 수출이 중국의 AI·반도체 기술 격차를 빠르게 줄일 수 있다며, 국가 안보에 위협이 될 수 있다고 주장하고 있다. 반면 산업계에서는 중국 시장 접근이 엔비디아 실적과 미국 AI 산업 경쟁력 유지에 필요하다는 목소리도 나온다. 엔비디아 최고경영자(CEO) 젠슨 황은 앞서 한 인터뷰에서 "칩이 잘못된 곳에 사용되지 않도록 엄격한 통제를 유지하겠다"고 밝힌 바 있다. 이번 검토 결과에 따라, 미국의 대중국 AI 반도체 수출 정책과 글로벌 AI 칩 공급 질서에 중대한 변화가 나타날 가능성이 제기된다.

2025.12.21 09:39전화평

[SW키트] 구글, '파이토치·TPU' 길 연다…엔비디아 '쿠다' 장벽 깨지나

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 구글·메타가 인공지능(AI) 개발자 표준 도구인 '파이토치'를 구글클라우드의 텐서처리장치(TPU)에서도 원활히 구동할 수 있도록 만드는 전략을 추진하면서, 엔비디아의 그래픽처리장치(GPU)·쿠다(CUDA) 중심 구조가 흔들릴 수 있다는 전망이 나오고 있다. 18일 외신에 따르면 구글클라우드는 메타와 협력해 파이토치를 구글 TPU에서 실행할 수 있는 기술 개발에 착수한 것으로 전해졌다. 업계는 엔비디아 GPU 인프라에 묶여 있던 AI 개발 생태계를 보다 개방형으로 전환하고, 동시에 구글클라우드의 자체 칩 활용도를 높이기 위한 전략적 행보로 해석하고 있다. 파이토치는 AI 모델 개발과 학습에 사용되는 소프트웨어(SW) 도구다. 전 세계 AI 개발자들 사이에서 사실상 표준 도구로 자리 잡았으며, AI 연구와 서비스 개발 현장에서 가장 널리 활용되는 프레임워크로 평가받고 있다. 그동안 파이토치는 GPU 환경에서 최고 성능을 내도록 최적화됐다. 특히 GPU 연산 과정에서 엔비디아의 병렬 컴퓨팅 플랫폼인 '쿠다'를 거치는 구조가 고착되면서, 업계에서는 자연스럽게 '파이토치·엔비디아'라는 공식이 형성됐다. 개발자 입장에서도 파이토치와 쿠다를 함께 사용하는 것이 가장 쉽고 빠른 선택지였기 때문이다. 이 과정에서 엔비디아는 GPU 하드웨어(HW)와 쿠다 소프트웨어(SW)를 결합한 강력한 생태계를 구축할 수 있었다. 쿠다는 GPU의 성능을 AI 연산에 활용할 수 있도록 돕는 SW로, AI 모델과 GPU를 연결해주는 일종의 다리 역할을 한다. 개발자가 파이토치로 만든 AI 모델을 GPU에서 실행하려면 쿠다를 반드시 거쳐야 하는 구조라서다. GPU가 AI 연산 시장에서 사실상 독점적 지위를 차지해온 만큼, 쿠다 생태계 역시 강한 락인(lock-in) 효과를 만들어 왔다. 반면 구글의 TPU는 파이토치와의 연결성이 상대적으로 떨어졌다. 파이토치 사용자가 TPU를 이용하려면 별도의 개발 도구를 익히거나 추가 설정과 작업을 거쳐야 했고, 이는 TPU 선택의 진입 장벽으로 작용해 왔다. 이번 구글·메타 협력은 단순히 TPU 활용 범위 확장보다는 파이토치 사용자가 TPU를 보다 쉽게 선택할 수 있는 환경을 만드는 데 초점이 맞춰졌다. 파이토치가 TPU에서도 자연스럽게 작동할 경우, 개발자들은 특정 GPU 생태계에 얽매이지 않고 비용, 전력 효율, 칩 공급 상황 등에 따라 인프라를 선택할 수 있다. 이에 엔비디아의 쿠다 중심 락인 효과도 점차 약화될 수 있다는 관측이 나온다. 업계에서는 단기간 내 엔비디아의 AI 인프라 지배력이 흔들리기는 어렵다는 시각이 우세하다. 국내 한 개발자는 "쿠다 중심으로 축적된 개발자 경험과 SW 자산, 방대한 라이브러리 생태계는 여전히 강력하다"며 "실질적인 변화가 나타나기까지는 앞으로 5~6년 이상의 시간이 필요할 것"이라고 내다봤다.

2025.12.19 13:46김미정

엔비디아, RTX 프로 5000 72GB 블랙웰 GPU 출시

엔비디아가 19일 데스크톱 PC용 RTX 프로 5000 72GB 블랙웰 GPU를 정식 출시했다. RTX 프로 5000 72GB 블랙웰은 기존 출시 제품(48GB) 대비 용량을 50% 늘린 72GB로 늘려 AI 개발자, 데이터 과학자, 크리에이티브 전문가의 대용량 메모리 기반 워크플로우 수행을 돕는다. 연산 성능은 최대 2,142 TOPS(1초당 1조 번 연산)이며 GDDR7 72GB 메모리에 더 큰 규모의 모델을 올려 훈련, 튜닝할 수 있다. 클라우드 대비 낮은 지연시간으로 외부 유출이 힘든 사내 자료나 민감한 데이터를 처리할 수 있다. 아놀드, 카오스 V-레이, 블렌더, D5 렌더, 레드시프트 등 공학/산업용/크리에이티브 응용프로그램에서 렌더링 시간을 최대 4.7배 단축한다. 엔비디아 RTX PRO 5000 72GB 블랙웰 GPU는 현재 잉그램 마이크로, 리드텍, 유니스플렌더, 엑스퓨전 등 파트너사를 통해 출시됐다. 글로벌 시스템 빌더를 통한 더 넓은 공급은 내년 초 시작될 예정이다.

2025.12.19 10:51권봉석

"엔비디아 종속 벗어나자"…구글-메타, TPU 활용 범위 확장

구글이 인공지능(AI) 인프라 시장을 장악한 엔비디아에 대응하기 위해 메타와 협력한다. 18일 로이터통신에 따르면 구글클라우드는 메타 손잡고 AI 개발 도구 '파이토치'를 텐서처리장치(TPU)에서 구동할 수 있는 기술 개발에 착수한 것으로 전해졌다. 그동안 엔비디아 인프라에 묶인 생태계를 개방형으로 전환해 구글클라우드 독자 칩인 TPU 활용도를 끌어올리기 위한 전략이다. 파이토치는 AI 모델 구축에 필수적인 프로그래밍 도구다. 전 세계 개발자들 사이에서 사실상 표준으로 자리 잡았으나 그간 엔비디아 인프라에서만 가장 높은 성능을 발휘해 왔다. 이로 인해 개발자들이 구글클라우드의 TPU를 사용하려면 새로운 도구 습득에 따른 비용과 시간을 감수해야 했고 이는 구글클라우드 칩 생태계 확장의 고질적인 걸림돌로 작용했다. 구글클라우드는 이런 기술적 장벽을 허물기 위해 내부 프로젝트인 '토치TPU'를 가동하고 파이토치와 인프라 연동성을 올리는 데 집중하고 있다. 프로젝트가 성과를 거두면 개발자들은 기존 SW 환경을 유지하면서 HW만 엔비디아에서 구글클라우드의 TPU로 손쉽게 교체할 수 있는 유연성을 확보하게 된다. 특히 이번 프로젝트에는 파이토치의 종가인 메타가 직접 참여해 구글클라우드와 공조 체계를 이룬 것으로 알려졌다. 양측은 최근 수십억 달러 규모의 TPU 공급 방안을 논의 중이며 메타는 이를 통해 초지능 AI 개발에 필요한 막대한 인프라 구축 비용을 절감할 수 있을 것으로 기대된다. 구글클라우드 대변인은 "개발자가 선택한 HW에 관계없이 필요한 유연성과 확장성을 제공하는 데 주력하고 있다"고 밝혔다.

2025.12.18 18:14김미정

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤

엔비디아, 오픈 모델 '네모트론 3' 시리즈 공개…"추론 속도 4배↑"

엔비디아가 에이전틱 인공지능(AI) 애플리케이션 구축을 위한 오픈 모델 제품군을 공개했다. 엔비디아는 오픈 모델과 데이터, 라이브러리로 구성된 '네모트론 3' 시리즈를 17일 발표했다. 네모트론 3는 '하이브리드 잠재 전문가 혼합(MoE)' 아키텍처로 대규모 멀티 에이전트 시스템 신뢰성을 높였다. 개발자는 이를 통해 통신 과부하와 맥락 이탈, 높은 추론 비용 등 기존 협업형 AI 시스템이 겪던 기술적 난제를 해결할 수 있다. 이 시리즈는 나노, 슈퍼, 울트라로 구성됐다. 네모트론 3 나노는 300억 개의 파라미터를 갖춘 소형 모델이다. 전 세대 대비 4배 높은 처리량을 갖췄다. 소프트웨어 디버깅이나 콘텐츠 요약 같은 작업에 최적화됐다. 추론 토큰 생성량을 최대 60%까지 줄일 수 있다. 내년 상반기 출시 예정인 슈퍼와 울트라 모델은 각각 1천억 개, 5천억 개의 파라미터를 탑재했다. 해당 시리즈는 엔비디아 블랙웰 아키텍처 기반의 고효율 훈련 포맷으로 이뤄져 메모리 요구 사항을 줄이면서도 훈련 속도를 높일 수 있다. 엔비디아는 이번 제품군을 통해 각국 조직이 데이터와 규제, 가치에 부합하는 소버린 AI를 구축하도록 적극 지원한다고 밝혔다. 이미 서비스나우, 퍼플렉시티, 지멘스 등 글로벌 기업들이 네모트론 모델을 자사 워크플로에 통합해 제조, 보안, 미디어 등 다양한 산업 분야에서 활용 중이다. 이날 엔비디아는 전문화된 에이전트 구축을 돕기 위해 3조 개 토큰으로 구성된 훈련 데이터셋과 '네모 짐' 등 오픈소스 라이브러리도 공개했다. 모든 도구와 데이터셋은 깃허브와 허깅 페이스를 통해 즉시 이용 가능하다. 젠슨 황 엔비디아 최고경영자(CEO)는 "오픈 혁신은 AI 발전의 토대"라며 "네모트론을 통해 첨단 AI를 개방형 플랫폼으로 전환하고, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율성을 제공하겠다"고 밝혔다.

2025.12.17 14:37김미정

오픈AI, 아마존 칩 도입 저울질…"구글 추격에 인프라 다변화"

오픈AI가 아마존의 인공지능(AI) 칩 '트레이니움' 도입을 검토하고 있는 것으로 확인됐다. 17일 블룸버그통신에 따르면 오픈AI는 아마존으로부터 최소 100억 달러(약 14조원) 규모 투자를 유치하고, 그 조건으로 아마존의 자체 AI 반도체인 트레이니움을 도입하는 초기 논의를 진행 중이다. 이번 거래가 성사될 경우 오픈AI의 기업가치는 5천억 달러(약 740조3천억원)를 웃돌 것으로 전망된다. 이는 최근 오픈AI가 직원 지분 매각을 통해 시장에서 평가받은 몸값과 유사한 수준이다. 오픈AI가 아마존 칩에 눈을 돌린 배경에는 경쟁사 구글의 성장세가 자리 잡고 있다. 최근 구글클라우드가 텐서처리장치(TPU)로 개발한 '제미나이3'가 오픈AI의 'GPT-5.1' 성능을 능가한다는 평가를 받아서다. 이에 위기감을 느낀 오픈AI 경영진이 내부적으로 '코드 레드'를 발령한 것으로 알려졌다. 업계에선 엔비디아 그래픽처리장치(GPU)에 의존해온 오픈AI는 인프라 다변화를 생존 전략으로 선택했다는 분위기다. 아마존은 트레이니움이 기존 칩 대비 학습과 추론 비용이 저렴하고 연산 효율이 높다는 점을 강조해 왔다. 이달 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서 '트레이니움3'를 공개했다. 트레이니움3는 전작 대비 전력 소비량을 40%가량 낮췄다. 엔비디아 GPU보다 AI 모델 훈련·운영 비용이 최대 절반 수준까지 줄어들 수 있다. 아마존웹서비스(AWS) 입장에서도 이번 협력은 절실한 상황이다. 임대형 컴퓨팅 파워 분야에서는 세계 최대 사업자지만, 정작 알짜배기인 AI 모델 개발 시장에서는 마이크로소프트와 구글에 밀리고 있어 차별화된 계기가 필요한 상황이다. 두 기업의 협상은 지난해 10월 오픈AI가 기업 구조 개편을 마친 직후 시작된 것으로 전해졌다. 당시 개편 과정에서 오픈AI의 최대 투자자인 마이크로소프트는 약 27%의 지분을 확보한 바 있다. 오픈AI와 아마존은 지난달 AWS가 7년간 380억 달러(약 56조2천600억원) 규모의 컴퓨팅 파워를 공급하는 계약을 맺은 바 있다. 당시 계약은 수십만 개의 엔비디아 칩 사용을 전제로 했다. 블룸버그통신은 "오픈AI가 GPU 공급 부족과 비용 문제를 해결하기 위해 아마존의 손을 잡으려 한다"며 "트레이니움 도입은 단순한 비용 절감을 넘어, 구글의 TPU 진영에 맞서기 위한 인프라 독립 선언과 같다"고 분석했다.

2025.12.17 13:57김미정

엔비디아, HPC·AI 오픈소스 생태계 확장…스케드엠디 인수

엔비디아가 고성능 컴퓨팅(HPC)과 인공지능(AI)을 아우르는 오픈소스 생태계를 넓히기 위해 기업을 인수했다. 엔비디아는 오픈소스 워크로드 관리 시스템 개발사 스케드엠디를 인수했다고 17일 공식 발표했다. 엔비디아는 가속 컴퓨팅 플랫폼과 스케드엠디의 기술력을 결합해 연구자와 개발자, 기업 전반의 AI 혁신 속도를 높이겠다는 구상이다. 스케드엠디가 개발한 '슬럼'은 확장성과 처리량, 복잡한 정책 관리 능력이 뛰어나 업계를 선도하는 작업 스케줄러로 평가받는다. 실제로 전 세계 상위 500대 슈퍼컴퓨터 중 상위 10개 시스템과 100위권 내 시스템의 절반 이상이 슬럼을 채택해 사용 중이다. 엔비디아는 인수 후에도 슬럼을 벤더 중립적인 오픈소스 소프트웨어(SW)로 유지하며 지속적인 개발을 지원할 방침이다. 이를 통해 엔비디아 하드웨어(HW)뿐만 아니라 이기종 클러스터에서도 효율적인 자원 관리가 가능하도록 돕는다. 특히 이번 협력은 생성형 AI 구축에 필요한 핵심 인프라를 최적화하는 데 중점을 둔다. 파운데이션 모델 개발자들은 최신 엔비디아 하드웨어에서 구동되는 슬럼을 활용해 대규모 모델 훈련과 추론에 따르는 복잡한 워크로드를 효과적으로 관리할 수 있게 된다. 이번 인수는 최근 엔비디아가 에이전틱 AI 개발을 위한 '네모트론 3' 오픈 모델 제품군을 공개한 데 이은 광폭 행보다. 엔비디아는 유럽과 한국 등 각국 조직이 자체 데이터 규정에 맞는 '소버린 AI'를 구축하도록 돕는 과정에서 슬럼의 기술력을 적극 활용할 것으로 보인다. 대니 오블 스케드엠디 최고경영자(CEO)는 "향후 슬럼을 강화해 차세대 요구를 충족시킬 것"이라며 "슬럼은 앞으로도 오픈소스로 유지될 것"이라고 밝혔다.

2025.12.17 12:57김미정

HP, 'ZGX 나노 G1n AI 스테이션' 국내 출시

HP코리아가 17일 개발자와 데이터 사이언티스트 등 AI 관련 직군 종사자를 위한 초소형 워크스테이션 'ZGX 나노 G1n AI 스테이션'을 국내 출시했다. ZGX 나노 G1n AI 스테이션은 기존 데스크톱·노트북 환경에서 부족했던 대형 모델 처리와 개발자 경험을 보완하고, 기업의 AI 워크플로우를 단계적으로 확장할 수 있는 기반을 제공한다. 엔비디아 블랙웰 아키텍처 기반 GPU 'GB10'과 Arm IP 기반 20코어 그레이스(Grace) CPU를 결합한 시스템반도체(SoC), 128GB LPDDR5X 통합메모리를 탑재해 클라우드 서버 없이 각종 AI 작업을 수행할 수 있다. AI 연산 성능은 최대 1천 TOPS(1초당 1조 번 연산)이며 FP4(부동소수점 4비트) 기준 1페타플롭스 가량이다. 최대 2천억 개 매개변수(패러미터)로 구성된 AI 모델을 구동 가능하며 시스템 두 대를 연결하면 최대 4천50억 개 매개변수로 처리 능력을 확장한다. 우분투 리눅스 기반 엔비디아 DGX OS로 구동되며 비주얼 스튜디오 코드, ML플로우, 올라마, 언솔로스 등 주요 개발도구를 통합한 ZGX 툴킷이 기본 탑재된다. 비주얼 스튜디오 코드 확장 프로그램을 이용하면 같은 네트워크에 있는 ZGX 나노 장치를 자동으로 검색·연결해 개발 준비 과정을 단순화한다. 저장공간은 1/4TB NVMe M.2 SSD 중 선택 가능하며 암호화를 지원한다. HP코리아 제품 웹사이트에서 구매 전 상담과 견적을 제공한다.

2025.12.17 10:50권봉석

리벨리온, 내년 IPO 청구 목표…美기업과 '리벨' PoC 진행

국내 AI 반도체 스타트업 리벨리온이 내년 기업공개(IPO) 예비심사 청구를 목표로 본격적인 상장 준비에 들어간다. 동시에 미국 주요 업체들과 2세대 AI 반도체를 대상으로 한 PoC(개념검증)를 진행 중이며, 글로벌 시장 진출을 위한 실증 단계에 돌입했다. 리벨리온은 16일 경기 성남시 정자동 본사에서 기자간담회를 열고 IPO 추진 일정과 글로벌 사업 현황을 공개했다. 회사는 삼성증권을 주관사로 선정해 상장 준비를 진행 중이며, 이미 2년 차 지정감사를 받고 있다고 밝혔다. 신성규 리벨리온 CFO(최고재무책임자)는 “지난 5년간 약 6천500억원의 투자를 유치했고, 최근 시리즈C를 통해 3천500억원을 추가로 조달했다”며 “대규모 자금 조달이 필수적인 사업 구조인 만큼 상장 시장을 통한 자금 확보를 계획하고 있다”고 설명했다. 상장 시점과 관련해서는 “내년이 매우 중요한 해가 될 것”이라며 “내년 예비심사 청구를 목표로 준비하고 있다”고 밝혔다. 리벨리온은 상장 시장으로는 한국을 우선 고려하고 있다. 박성현 리벨리온 대표는 “국내에서 성장해온 기업으로서 한국 시장을 먼저 선택하는 것이 순서”라면서도 “필요하다면 듀얼 상장 등 다양한 시나리오를 열어두고 있다”고 전했다. 글로벌 사업 측면에서는 미국 메이저 업체들과의 PoC 진행 상황이 핵심이다. 리벨리온은 현재 2세대 AI 반도체 리벨 쿼드(Rebel Quad)를 중심으로 미국 주요 기업들과 PoC를 진행 중이며, 결과에 따라 향후 대규모 상용 계약으로 이어질 가능성도 열려 있다는 입장이다. 박 대표는 “PoC는 고객사 입장에서 상당한 비용과 시간이 투입되는 과정”이라며 “알 만한 글로벌 업체들과 검증 단계에 있다”고 밝혔다. 이번 PoC의 중심에는 리벨리온의 2세대 칩 '리벨 쿼드(Rebel Quad)'가 있다. 리벨 쿼드는 HBM3(5세대 고대역폭 메모리)를 적용한 고성능 추론용 AI 반도체로, 칩렛 구조를 통해 다이를 4개 결합한 것이 특징이다. 회사는 현재 실리콘 샘플을 확보해 고객사 피드백을 받고 있으며, 글로벌 시장을 겨냥한 주력 제품으로 육성한다는 계획이다. 리벨리온은 1세대 칩 아톰(ATOM)이 이미 KT 클라우드 등에서 상용화된 것과 달리, 2세대 칩은 글로벌 하이엔드 추론 시장을 직접 겨냥하고 있다고 강조했다. 박 대표는 “1세대 칩이 비용 효율성과 실사용 중심이었다면, 2세대 칩은 성능과 확장성을 중시한 글로벌 전략 제품”이라며 “두 제품은 우열의 문제가 아니라 타깃 시장이 다르다”고 설명했다. 특히 리벨리온은 추론(Inference) 시장을 차세대 AI 반도체 경쟁의 핵심 무대로 보고 있다. 박 대표는 “현재 AI 인프라는 여전히 트레이닝 중심이지만, 추론 전용 반도체에 대한 수요가 본격적으로 열리는 시점이 다가오고 있다”며 “미국 메이저 업체들과의 PoC는 그 가능성을 검증하는 과정”이라고 강조했다. 한편 리벨리온은 내년 PoC 결과를 바탕으로 글로벌 레퍼런스를 확보하고, 이를 발판 삼아 본격적인 해외 매출 확대와 IPO 이후 성장 전략을 추진한다는 계획이다.

2025.12.16 15:38전화평

엔비디아 '네모트론 3' 공개..."개인 PC로 나만의 AI 비서 구축"

엔비디아가 자신만의 인공지능(AI) 비서를 구축할 수 있도록 오픈 모델과 최적화 도구를 공개했다. 엔비디아에 '네모트론 3' 오픈 모델 제품군을 공개하고 '언슬로스' 프레임워크를 통해 거대언어모델(LLM) 미세 조정을 가속화한다고 16일 밝혔다. 이를 통해 사용자는 엔비디아 RTX AI PC와 DGX 스파크 환경에서 학습, 업무, 창작 등 목적에 맞는 맞춤형 AI 어시스턴트를 구축할 수 있다. 이번 발표 핵심은 '미세 조정'의 대중화다. 소형언어모델(SLM)은 전문적인 작업에서 정확도가 떨어지는 한계가 있었으나 엔비디아는 이를 해결하기 위해 모델을 특정 작업에 맞춰 훈련시키는 미세 조정 기술에 주목했다. 함께 도입된 언슬로스는 세계적으로 널리 쓰이는 오픈소스 프레임워크로 엔비디아 그래픽처리장치(GPU) 메모리 사용을 최소화해 훈련 효율을 높인다. 이 도구는 허깅페이스 트랜스포머 라이브러리 성능을 최대 2.5배까지 향상시켜 연구자와 개발자가 복잡한 연산을 신속하게 처리하도록 돕는다. 엔비디아는 미세 조정의 기반이 될 '네모트론 3' 제품군도 선보였다. 이 중 '네모트론 3 나노'는 하이브리드 전문가 혼합(MoE) 아키텍처를 기반으로 설계돼 현재 출시된 라인업 중 가장 높은 컴퓨팅 효율을 기록했다. 이 모델은 추론에 필요한 토큰을 최대 60% 줄여 비용을 절감하면서도 100만 토큰의 컨텍스트 윈도우를 지원한다. 긴 시간 동안 진행되는 다단계 작업에서도 AI가 맥락을 잃지 않고 훨씬 많은 정보를 유지할 수 있다는 설명이다. 개발자는 목표에 따라 파라미터 효율적 미세 조정(LoRA), 완전 미세 조정, 강화 학습 등 다양한 방식을 선택할 수 있다. 특히 LoRA 방식은 모델의 일부만 업데이트해 저비용으로 도메인 지식을 추가하거나 코딩 정확도를 높이는 데 유용하다. 엔비디아는 이번 나노 모델 공개에 이어 내년 상반기에 멀티 에이전트용 '네모트론 3 슈퍼'와 복잡한 애플리케이션용 '네모트론 3 울트라'를 순차적으로 출시할 예정이다. 엔비디아는 "네모트론 3 제품군은 업계 선도적인 정확도와 효율성을 갖춘 오픈 모델로 에이전틱 AI 애플리케이션 구축에 이상적"이라며 "개방형 훈련 데이터세트와 최첨단 강화 학습 라이브러리를 통해 AI 생태계를 지속적으로 확장할 것"이라고 강조했다.

2025.12.16 10:41김미정

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤

엔비디아 "데이터센터용 GPU 위치 등 추적 솔루션 개발 중"

엔비디아가 10일(현지시간) 데이터센터용 GPU의 상태와 작동 위치를 파악할 수 있는 소프트웨어 기반 모니터링 솔루션을 개발하고 있다고 밝혔다. 엔비디아는 공식 블로그에 올린 글에서 “AI 인프라의 규모와 복잡성이 커질수록 데이터센터 운영자는 성능, 온도, 전력 사용량 등 요소에 대한 지속적인 가시성이 필요하다”고 개발 배경을 설명했다. 엔비디아가 개발중인 솔루션은 데이터센터에 설치된 엔비디아 GPU를 모니터링할 수 있는 대시보드를 제공한다. 엔비디아 GPU를 도입한 고객사가 필요할 경우 자발적으로 설치하는 옵트인(opt-in) 방식이다. 엔비디아에 따르면 데이터센터 운영사는 전력 사용 급증을 추적해 에너지 예산을 준수하면서 와트당 성능을 극대화하고, GPU 활용률과 메모리 대역폭, 인터커넥트 상태를 플릿 전체에서 모니터링할 수 있다. 엔비디아는 제기될 수 있는 보안 우려에 대해 "이 서비스는 각 GPU 시스템이 외부 클라우드 서비스와 GPU 메트릭을 공유하는 방식으로 실시간 모니터링만 제공한다. 엔비디아 GPU에는 하드웨어 추적 기술이나 킬 스위치, 백도어가 없다"고 밝혔다. 엔비디아의 새 솔루션은 최근 강화되고 있는 미국의 AI 칩 수출 규제 논의와 맞물려 있다. 미국 정부는 중국을 비롯한 일부 국가에 대한 고성능 AI GPU 수출을 금지하고 있다. 의회 일각에서는 엔비디아 제품에 보다 강력한 추적·검증 기능을 탑재해야 한다는 요구가 제기되고 있다. 공화당 소속 톰 코튼 상원의원을 포함해 양당 의원들이 지지하는 '칩 보안법'(Chip Security Act)'은 첨단 AI 칩에 보안 및 위치 검증 기능을 의무화하는 내용을 담고 있다. 반면 중국 정부는 엔비디아 제품에 잠재적 모니터링 백도어와 보안 취약점이 존재한다는 점을 통보했으며, 국가안보 검토 이후 일부 고성능 칩, 특히 H200 제품의 도입을 제한하고 있다.

2025.12.14 09:29권봉석

두산, CCL용 설비투자 확대…AI칩 시장 공략 가속화

두산 전자BG가 CCL(동박적층판) 생산 능력을 빠르게 확대하고 있다. 최근 올해 설비 투자규모를 기존 계획 대비 늘린 것으로 나타났다. 전 세계 AI 반도체 개발 경쟁에 맞물려 빠르게 증가하는 고부가 CCL 수요에 대응하기 위한 전략으로 풀이된다. 14일 두산에 따르면 이 회사는 올해 CCL 관련 설비투자에 약 1천70억원을 투입할 예정이다. 당초 올해 예상 투자규모인 865억원 수준에서 23%가량 늘었다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만들어진다. 현재 반도체 패키징·전자기기·통신 등 다양한 산업에 쓰이고 있다. 최근 CCL은 AI 반도체 시장을 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 구글·AWS·메타 등 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어든 데 따른 효과다. AI 반도체가 방대한 양의 데이터를 처리해야 하는 만큼, CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 덕분에 두산의 증평·김천 등 일부 CCL 생산라인은 현재 가동률 100%를 넘기는 등 공급 여력이 빠듯한 상황이다. 이에 두산은 CCL 생산능력을 오는 2027년 초까지 기존 대비 50% 확대하겠다는 계획을 세운 바 있다. 최근에는 투자 규모를 확대하고 있기도 하다. 회사 분기보고서에 따르면, 두산은 올해 CCL용 설비투자에 1천70억원을 투자할 계획이다. 올해 중반 제시했던 금액인 865억원 대비 200억원 가량이 늘었다. CCL 수요가 예상 대비 강력한 만큼 투자에 속도를 내려는 전략으로 풀이된다. 두산 전자BG는 지난 2023년부터 엔비디아에 납품을 시작해, 지난해 'B100' 등 주요 AI 반도체의 핵심 공급망으로 자리잡는 등의 성과를 거뒀다. 나아가 엔비디아가 내년 하반기 출시할 예정인 '루빈' 칩에서도 상당한 공급 점유율을 차지할 수 있을 것으로 관측된다. 특히 두산은 컴퓨팅 트레이용 CCL 부문을 주도하고 있어, 시장 지위가 더 공고한 것으로 평가 받는다. CCL은 적용 분야에 따라 컴퓨팅 트레이와 스위치 트레이로 나뉘며, 이 중 컴퓨팅 트레이용 CCL이 기술적으로 진입 장벽이 더 높은 것으로 알려져 있다. 고객사 확장도 기대 요소 중 하나다. 현재 두산은 엔비디아 외에도 아마존웹서비스(AWS), 구글과 CCL 공급을 논의 중이다. 내년부터 본격적인 공급이 예상된다. 양승수 메리츠증권 연구원은 최근 보고서를 통해 "기존 GPU 고객사가 아닌 신규 GPU 고객사향 공급이 본격화될 전망"이라며 "북미 CSP A사향 스위칭용 CCL 공급도 새롭게 개시됐고, G사향 ASIC용 CCL도 국내 기판 업체와 공동 퀄(품질 테스트)을 완료해 내년 상반기 본격 양산이 예상된다"고 밝혔다.

2025.12.14 09:03장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.