• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI 데이터센터'통합검색 결과 입니다. (91건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '블랙웰' 칩 수요 쾌청…삼성·SK HBM 성장 기회

엔비디아가 AI 반도체 산업의 성장세를 자신했다. 미국의 대중 수출 규제 여파에도 최첨단 AI 반도체인 '블랙웰'의 수요가 강력하고, 전 세계 AI 인프라 투자가 활발히 진행되고 있기 때문이다. 초고성능 AI 반도체인 'GB300' 역시 올 3분기 초 차질없이 양산이 시작될 것으로 전망된다. 이에 따라 국내 주요 메모리 업체인 삼성전자, SK하이닉스의 HBM(고대역폭메모리) 사업도 지속적인 성장의 기회를 잡을 수 있을 것으로 기대된다. 中 수출 규제, AI 산업 성장세 등 불확실성 '해소' 이날 엔비디아는 2026년 회계연도 1분기(올해 2~4월) 매출액 440억6천만 달러를 기록했다고 밝혔다. 전년동기 대비 69%, 전분기 대비 12% 증가한 수치다. 영업이익도 232억7천만 달러(Non-GAAP 기준)로 전년동기 대비 43%, 전분기 대비 6% 증가했다. 다만 데이터센터 매출액은 391억1천만 달러로 증권가 컨센서스(약 393억 달러)를 소폭 하회했다. 미국 트럼프 2기 행정부의 수출 규제 강화로 중국향 AI 반도체 'H20'의 판매가 전면 금지된 데 따른 영향이다. 엔비디아는 해당 규제로 1분기 45억 달러의 손실이 발생했으며, 2분기에도 80억 달러의 추가 손실이 있을 것으로 추산했다. 그럼에도 엔비디아는 2분기(5~7월) 매출 가이던스를 약 450억 달러로, 기존 증권가 컨센서스인 455억에 근접한 수준을 제시했다. H20의 수출 금지에도 최신형 AI 반도체인 블랙웰 시리즈의 수요가 견조한 덕분이다. 문준호 삼성증권 연구원은 "엔비디아의 2분기 매출 전망치는 전분기 대비 2% 증가에 그치나, H20의 손실 반영을 제외하면 14%의 성장세"라며 "그만큼 블랙웰의 수요는 같은 기간 더 좋아졌고, 이번 실적 발표에서 불확실성 요인이 다수 해소된 것도 중요한 대목"이라고 설명했다. GB300 양산 임박…SK하이닉스 HBM 훈풍 나아가 엔비디아는 올 하반기에도 전 세계 AI 인프라 투자로 인한 지속적인 성장을 자신했다. 젠슨 황 엔비디아 CEO는 ▲ 추론형 AI의 수요 증가 ▲ AI 확산 규정의 철폐 ▲ 엔터프라이즈 AI 시장의 본격적인 성장 ▲ 리쇼어리 정책 대두로 인한 '옴니버스' 등 산업용 AI 수요 증가 등 네 가지를 주요 배경으로 꼽았다. 견조한 AI 산업의 성장세는 국내 메모리 제조업체인 삼성전자, SK하이닉스에게도 긍정적이다. 특히, AI 반도체의 핵심인 HBM(고대역폭메모리)를 엔비디아 주력으로 공급하는 SK하이닉스의 매출 확대가 두드러질 전망이다. 엔비디아는 올 하반기 12단 HBM3E(5세대 HBM)를 탑재한 최신형 AI 반도체 'GB300'를 출시할 예정이다. GB300은 이달 초 주요 CSP(클라우드서비스제공자)에게 샘플이 공급됐으며, 오는 7월께 양산이 시작될 것으로 예상된다. 엔비디아 역시 GB300에 당초 적용하기로 했던 신규 보드 플랫폼의 채용을 미루는 등 제품 안정성 강화에 만전을 기하는 분위기다. SK하이닉스와 엔비디아간 내년 HBM 공급량 협의도 마무리 단계에 접어들었다. 이르면 다음달 최종 결정이 내려질 것으로 알려졌다. 특히, 엔비디아의 차세대 AI 반도체인 '루빈'에 탑재되는 HBM4(6세대 HBM)의 가격 및 물량이 주요 변수로 작용하고 있다.

2025.05.29 14:07장경윤 기자

퓨어스토리지-SK하이닉스, 차세대 플래시로 AI 데이터센터 혁신

퓨어스토리지가 SK하이닉스와 차세대 플래시 스토리지를 개발해 대용량 데이터 처리와 에너지 효율성 요구가 높은 환경에 최적화된 솔루션을 제공할 방침이다. 퓨어스토리지는 기존 하드디스크드라이브 기반 스토리지의 한계를 넘어 고성능·고밀도·저전력 스토리지 솔루션을 개발하기 위해 SK하이닉스와 협력했다고 28일 밝혔다. 이번 협력은 엑사스케일·인공지능(AI) 워크로드를 지원할 수 있는 초고속·저지연·고신뢰성 솔루션 제공에 초점 맞췄다. 이번에 선보이는 솔루션은 다이렉트플래시 모듈이다. SK하이닉스의 쿼드 레벨 셀(QLC) 낸드 플래시 메모리와 퓨어스토리지의 데이터 스토리지 플랫폼이 통합돼 제작된다. 이 제품은 하이퍼스케일러 환경의 까다로운 요구를 충족하기 위해 설계돼 데이터 병목현상 완화와 생산성 향상에 기여할 전망이다. 두 기업은 이번 소루션이 기존 하드디스크(HDD) 기반 스토리지 대비 전력 소비를 획기적으로 절감할 수 있다고 밝혔다. 이를 통해 전력 공급 제약을 해소하고 운영 비용을 낮추며 기업의 탄소 발자국 감소까지 기대할 수 있다는 설명이다. 확장성 측면에서도 랙 밀도가 높고 우수한 총소유비용(TCO) 효율을 제공해 복잡한 스토리지 확장 요구에 대응한다. AI 인프라와 대규모 데이터센터 운영자에게 특히 매력적인 선택지로 평가된다. 퓨어스토리지 빌 세레타 하이퍼스케일 부문 총괄은 "SK하이닉스의 QLC 제품과 우리 호스트 기반 플래시 관리 아키텍처 결합은 하이퍼스케일 프로덕션 환경과 AI 인프라 최적화에 큰 의미가 있다"며 "성능과 확장성 신뢰성 에너지 효율성을 개선해 데이터 중심 산업의 복잡한 요구를 해결할 것"이라고 밝혔다. SK하이닉스 이상락 글로벌 세일즈 마케팅 부사장은 "하이퍼스케일러들은 혁신 잠재력을 극대화할 데이터 스토리지를 끊임없이 찾고 있다"라며 "이번 협력은 폭증하는 데이터 볼륨을 첨단 친환경 스토리지 솔루션으로 대응할 수 있도록 지원한다"고 말했다.

2025.05.28 11:39김미정 기자

빅테크, AI 인프라에 공격적 투자…삼성·SK도 서버용 메모리 집중

글로벌 빅테크들이 최근 실적발표를 통해 공격적인 AI 인프라 투자 계획을 밝혔다. 최근 대외적 불확실성이 높아진 상황에서도 AI 서버에 대한 수요가 여전히 높다는 판단에서다. 국내 삼성전자, SK하이닉스 등 주요 반도체 기업들도 올해 서버용 메모리 사업 확대에 나설 것으로 관측된다. 4일 업계에 따르면 글로벌 주요 CSP(클라우드서비스제공자) 기업들은 올해 AI 인프라 투자 규모를 확대하기로 했다. 메타는 지난 1일 실적발표 컨퍼런스콜에서 올해 자본 지출액 전망치를 기존 600억~650억 달러에서 640억~720억 달러로 상향했다. 데이터센터 및 AI 인프라 관련 파드웨어의 예상되는 비용 증가를 반영했다. 전년 투자규모(392억) 대비 크게 늘어난 수치다. 경쟁사들 역시 올해 AI 인프라 투자 비용을 당초 계획대로 전년 대비 크게 늘리기로 했다. 최근 도날드 트럼프 미국 행정부의 관세 정책에 따른 시장 위축 우려에도, 여전히 AI 데이터센터 수요가 공급을 웃돌고 있다는 판단이 작용한 것으로 풀이된다. 같은 날 실적을 발표한 아마존은 올해 1천억 달러를 투자한다. 전년 대비 20%가량 증가한 규모다. 회사는 컨퍼런스콜에서 "투자의 대부분은 AWS(아마존웹서비스) 성장을 지원하기 위한 인프라에 쓰일 것으로 예상한다"고 밝혔다. 마이크로소프트도 올해 AI 데이터센터에 전년 대비 약 44% 증가한 800억 달러를 투자하겠다는 기존 계획을 견지했다. 구글(알파벳)도 전년 대비 43% 증가한 750억 달러를 AI 인프라에 쏟는다. 이에 따라 국내 주요 반도체 기업들도 AI 서버용 고부가 메모리 사업 확대에 집중할 계획이다. 현재 이들 기업은 최선단 공정 기반의 DDR5와 HBM(고대역폭메모리), 서버용 eSSD 비중을 크게 늘려나가고 있다. 삼성전자는 최근 1분기 실적발표 컨퍼런스콜에서 "올 하반기 신규 GPU 출시와 맞물려 AI 서버향 수요 견조세가 지속될 전망"이라며 "순연됐던 데이터센터 프로젝트들이 재개되면서 서버용 SSD 수요도 반등을 기대한다"고 밝혔다. 구체적으로, 삼성전자는 올 하반기 HBM3E 12단 개선품과 128GB(기가바이트) 이상의 고용량 DDR5 판매를 늘릴 예정이다. 낸드에서는 가장 진보된 PCIe Gen5 SSD 수요에 대응하기로 했다. SK하이닉스도 고용량 서버 시장의 중장기적 성장 가능성을 높게 평가하고 있다. 딥시크와 같은 저비용·고효율 AI 모델 역시 메모리 수요를 견인할 것으로 내다봤다. SK하이닉스는 "올해 생성형 AI 서비스에 대한 요구가 증대되면서 추가적인 메모리 및 인프라가 필요해지고 있다"며 "D램 및 HBM 뿐만 아니라 고성능 TLC(트리플레벨셀) eSSD 수요가 증가할 것으로 기대되고, 고용량 QLC(쿼드레벨셀) eSDD 시장에서도 유의미한 변화가 예상된다"고 강조했다.

2025.05.04 10:30장경윤 기자

1분기 7.4조 쓸어담은 SK하이닉스, 2분기 '사상 최대' 영업익 쏜다

SK하이닉스의 영업이익 성장세가 2분기에도 지속될 전망이다. 주요 매출원인 D램의 출하량을 10% 이상 확대하고, 가장 최신의 HBM(고대역폭메모리) 판매 비중도 크게 늘어나기 때문이다. 기존 SK하이닉스의 분기 최대 영업이익(2024년 4분기 8조828억원)도 웃돌 가능성이 매우 유력하다. 25일 업계에 따르면 SK하이닉스는 올 2분기 최소 8조원 중후반대의 영업이익을 기록할 것으로 전망된다. 2분기 영업이익, 최소 8조원 중후반대 예상…최대 실적 예고 앞서 SK하이닉스는 올 1분기 매출액 17조6천391억원, 영업이익 7조4천405억원을 기록한 바 있다. 영업이익률은 42%로, SK하이닉스 기준 역대 최대의 수익성을 거뒀다. 주요 배경은 HBM을 비롯한 고부가 메모리 판매 확대다. 1분기 실적에 대해 SK하이닉스는 “1분기는 AI 개발 경쟁과 재고 축적 수요 등이 맞물리며 메모리 시장이 예상보다 빨리 개선되는 모습을 보였다”며 “이에 맞춰 HBM3E 12단, DDR5 등 고부가가치 제품 판매를 확대했다”고 설명했다. 나아가 SK하이닉스는 올 2분기 역대 최대 영업이익 경신이 확실시되는 상황이다. 메모리 출하량이 전분기 대비 두 자릿 수로 늘어나고, 최선단 HBM 출하량 비중이 크게 확대되기 때문이다. 업계가 추산하는 SK하이닉스의 해당 분기 영업이익은 8조원 중후반대에서 최대 9조원에 이른다. 현재 SK하이닉스의 최대 분기 영업이익은 지난해 4분기 기록한 8조828억원이다. D램 출하량·최선단 HBM 비중 확대가 요인 SK하이닉스는 해당 분기 D램 및 낸드 출하량을 전분기 대비 각각 10% 초반, 20% 이상 늘리겠다는 목표를 제시했다. 주요 매출원인 D램의 ASP(평균판매가격)는 제품별로 등락이 있겠으나, 전반적으로 보합세를 나타낼 전망이다. 시장조사업체 트렌드포스는 올 2분기 미국 관세 정책에 따른 고객사의 재고 확보 노력으로 D램과 낸드 가격이 모두 3~8%가량 상승할 것으로 내다보기도 했다. 반도체 업계 관계자는 "D램 가격에 대한 불확실성은 다소 높지만, 빗그로스(비트 생산량 증가율)이 10% 이상 증가하면서 영업이익은 또 한번 성장세를 나타낼 것"이라며 "특히 SK하이닉스는 서버용 D램, HBM3E(5세대 HBM)의 비중이 높아 수익성 측면에서는 경쟁사 대비 유리한 입지에 놓여 있다"고 설명했다. 실제로 SK하이닉스는 올 상반기 현존하는 가장 최신 HBM인 HBM3E 12단 제품의 비중 확대에 주력하고 있다. 2분기에는 기존 계획대로 전체 HBM3E 출하량의 절반 이상을 12단으로 판매할 예정이다.

2025.04.25 08:59장경윤 기자

SK하이닉스, 2분기도 D램·낸드 출하량 확대…"美 관세 영향 제한적"

SK하이닉스가 대외적인 경제 불확실성이 높아진 상황에서도 메모리 업계에 미칠 영향은 아직 제한적일 것으로 내다봤다. HBM(고대역폭메모리) 역시 수요 변동성이 없어, 기존 계획대로 올해 사업을 진행할 계획이다. SK하이닉스는 24일 2025년 1분기 실적발표 컨퍼런스콜에서 올해 메모리 사업에 대한 전망 및 대응 전략에 대해 이같이 밝혔다. 2분기 D램·낸드 출하량 확대…HBM 사업도 굳건 SK하이닉스가 제시한 2분기 메모리 빗그로스(비트 생산량 증가율)는 D램이 전분기 대비 10% 초반, 낸드는 20% 이상이다. 올 1분기 D램 및 낸드의 출하량이 전분기 대비 감소했던 데 따른 기조 효과와 더불어, 단기적인 메모리 수요 증가가 영향을 끼친 것으로 풀이된다. 1분기에는 중국 이구환신 정책에 따른 시장 활성화, 미국 관세 정책을 우려한 일부 고객사들의 재고 축적 효과가 발생했다. HBM(고대역폭메모리) 역시 기존 전망대로 견조한 수요가 예상된다. SK하이닉스는 "올해 HBM 수요 전망은 전년대비 약 2배 성장할 것"이라며 "HBM3E 12단 전환도 순조롭게 진행되고 있어, 2분기에는 기존 계획대로 HBM3E 출하량의 절반 이상이 12단으로 판매될 예정"이라고 밝혔다. 미국 관세 정책, 저비용 AI 모델 확대 등 악영향 제한적 현재 업계는 중국 딥시크와 같은 고효율·저비용 AI 모델의 등장, 미국의 관세 정책에 따른 수요 불확실성 등을 우려하고 있다. 다만 SK하이닉스는 영향력이 제한것일 것으로 내다봤다. SK하이닉스는 "오픈AI o3나 딥시크 R1은 정교한 결과 도출을 위해 더 많은 메모리를 요구하기 때문에, 추가적인 고용량 메모리 수요를 창출하는 원인 중 하나"라며 "당사도 DDR5 기반 96GB 모듈의 수요 증가를 경험했고, 올해 고용량 DIMM 수요는 지속 증가할 것으로 전망한다"고 밝혔다. 회사는 이어 "관세의 경우 세부 내용이 정해지지 않아, 2분기 풀-인 수요가 하반기 재고조정 리스크를 야기할만큼 크지는 않을 것"이라며 "공급사들도 시장 불확실성을 반영해 계획을 조절하므로 팬데믹 때와 같은 변동성은 없을 것"이라고 덧붙였다.

2025.04.24 10:45장경윤 기자

2분기 D램·낸드 가격, 3~8% 상승 전망…美 관세 영향

올 2분기 메모리 시장이 반등세에 접어들 것으로 예상된다. 최근 미국 정부의 관세 정책으로 업계 불확실성이 높아지면서, 메모리 고객사가 재고를 적극 확보하려고 나섰기 때문이다. 다만 이러한 수요는 단기적인 현상으로, 향후 반도체 관세 정책의 방향에 따라 올 하반기 메모리 시장이 크게 요동칠 전망이다. 17일 시장조사업체 트렌드포스에 따르면 올 2분기 D램 및 낸드의 평균판매가격(ASP)은 전분기 대비 3~8% 증가할 것으로 관측된다. 메모리 시장은 지난 1분기 전반적인 하락세를 보인 바 있다. 해당 분기 범용 D램 가격은 8~13%, HBM(고대역폭메모리)는 0~5% 가량 하락했다. 낸드는 15~20%로 하락폭이 더 컸다. 그러나 올 2분기에는 D램과 HBM, 낸드 모두 가격이 전분기 대비 3~8% 상승할 전망이다. 지난 9일 도날드 트럼프 미국 대통령이 전 세계를 대상으로 발표한 상호 관세 정책으로 업계의 불확실성이 높아지면서, 메모리 고객사들이 재고 확보에 적극적으로 나서고 있기 때문이다. 트렌드포스는 "미국 정부가 대부분의 지역에 90일간의 상호 관세 유예 기간을 부여하면서, 메모리 공급사와 구매자 모두 거래를 서두르고 있다"며 "이에 따라 2분기 D램과 낸드의 가격 상승폭이 예상보다 확대될 것"이라고 밝혔다. 다만 이러한 상승세는 단기적인 영향에 머무를 것으로 분석된다. 트렌드포스는 "관세 변동에 더 민감한 미국 브랜드와 수출 업체의 수요가 올 상반기까지 크게 앞당겨지면서 계절적 추세가 흐트러질 것"이라며 "결과적으로 향후 미국 관세의 향방이 올 하반기 메모리 공급 및 수요 동향과 가격 추세를 형성하는 주요 요인이 될 것"이라고 설명했다.

2025.04.18 08:48장경윤 기자

700조원 투자한다 했는데...美, 엔비디아 'H20' 무기한 수출 규제

엔비디아의 중국향 AI 가속기가 수출 규제 명단에 포함된 것으로 나타났다. 이에 따라 엔비디아는 올 1분기 약 7조4천억원에 이르는 비용을 처리하게 됐다. 최근 엔비디아는 미국 내 700조원에 이르는 대규모 투자를 발표하는 등 적극적으로 대응책을 펼쳤으나, 미중 갈등에 따른 여파를 피하지 못했다. 15일 엔비디아는 미국 정부로부터 자사의 AI 반도체 'H20'에 대한 무기한 수출 규제를 통보받았다고 공시했다. 엔비디아는 "미국 정부는 당사가 H20을 중국(홍콩 및 마카오 포함)이나 중국에 본사를 둔 기업들에 수출할 경우, 수출 허가를 취득해야 한다고 요구했다"며 "추가로 미국 정부는 해당 수출 규제가 무기한으로 유효할 것이라고 통보했다"고 밝혔다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 미국 정부의 통보로 엔비디아는 오는 4월 27일 종료되는 2026년 회계연도 1분기에 H20 수출 규제에 따른 손실을 반영할 계획이다. 엔비디아에 따르면, H20 제품과 관련한 재고, 구매 계약, 기타 관련 충당금 등으로 약 55억 달러(한화 약 7조4천억원)의 비용이 발생할 것으로 분석된다. 앞서 엔비디아는 바로 전날 미국에 향후 4년간 최대 5천억(한화 약 700조원) 달러의 AI 인프라를 구축하겠다고 밝힌 바 있다. 애리조나주와 텍사스주에 약 30만평의 부지를 확보해 AI 반도체 및 AI 슈퍼컴퓨터 제조 공장을 설립하는 것이 주 골자다. 이에 업계는 도널드 트럼프 미국 대통령이 H20에 대한 수출 규제를 완화하거나 철회할 것으로 예상해 왔다. 그러나 미국 정부가 수출 규제에 대해 완강한 입장을 취하면서, 세계 AI 반도체 시장을 둘러싼 불확실성은 더욱 커질 전망이다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다. 채민숙 한국투자증권 연구원은 "삼성전자는 아직 H20용으로 HBM 판매가 없고, SK하이닉스는 H20용 HBM에 대한 추가 판매를 3월 완료해 엔비디아처럼 재고 손실처리 등의 비용 반영은 없을 것"이라며 "H20은 기존 계획 대비 추가된 물량이므로 제재로 인한 연간 HBM 계획 변동 및 실적 추정치 변경은 없을 것으로 추정한다"고 설명했다.

2025.04.16 09:42장경윤 기자

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환 기자

SK하이닉스, 42년만에 삼성전자 제치고 D램 점유율 1위 등극

SK하이닉스가 창립 42년만에 삼성전자의 D램 매출액을 추월한 것으로 나타났다. 올 1분기 시장 점유율은 36%로, HBM(고대역폭메모리) 부문에서 70%에 달하는 점유율을 차지한 것이 주요 배경으로 지목된다. 9일 시장조사업체 카운터포인트리서치에 따르면 올 1분기 전 세계 D램 시장에서 SK하이닉스가 매출액 기준 36%의 점유율로 1위를 차지했다. SK하이닉스가 삼성전자를 제치고 점유율 1위를 기록한 것은 이번이 처음이다. 같은 기간 삼성전자의 점유율은 34%로 집계됐다. 3위 마이크론의 점유율은 25% 수준이다. 카운터포인트 최정구 책임연구원은 “이번 성과는 SK하이닉스가 HBM 메모리에 대한 수요가 끊이지 않는 시장에서 D램을 성공적으로 공급하고 있다는 점에서 중요한 이정표가 됐다”며 “특화된 HBM D램 칩의 제조는 매우 까다로운 과정이었지만, 이를 초기부터 성공적으로 생산해온 기업들이 이제 큰 성과를 거두고 있다”고 말했다. 앞서 지난 8일 잠정실적을 발표한 삼성전자는 올 1분기 D램에서 약 12~14조원 안팎의 매출을 올렸을 것으로 관측된다. SK하이닉스 역시 이와 비슷한 수준의 매출액을 기록한 것으로 보인다. 실제로 업계는 올 1분기 SK하이닉스가 삼성전자의 D램 매출액을 처음으로 역전했을 거라는 분석을 제기해 왔다. 삼성전자의 HBM 공급량이 지난해 4분기 대비 크게 감소한 것과 달리, SK하이닉스는 HBM3E 12단 등 고부가 HBM의 출하량을 견조하게 유지했기 때문이다. 카운터포인트는 올해 2분기에도 D램 시장의 성장 및 업체 점유율 양상은 비슷할 것으로 전망했다. 카운터포인트 황민성 연구위원은 “전세계가 관세 영향에 주목하고 있는 상황에서 관건은 'HBM D램이 과연 어떻게 될 것인가'라는 점”이라며 “적어도 단기적으로는 AI 수요가 강세를 유지하며 관세 충격의 영향을 덜 받을 가능성이 크다. 중요한 것은 HBM의 최종 제품이 AI 서버라는 사실이며, 이는 본질적으로 국경을 넘어선 시장”이라고 설명했다. 다만 황 연구위원은 "그럼에도 불구하고 장기적으로는 HBM D램 시장의 성장이 관세 충격으로 인한 구조적인 문제에 직면할 위험이 존재한다"며 "이는 경기 침체 또는 불황까지 초래할 수 있을 것으로 전망된다"고 덧붙였다.

2025.04.09 14:34장경윤 기자

최준용 SK하이닉스 부사장 "HBM4E 적기 공급…리더십 공고히할 것"

"올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론, 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다. 시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다." 최준용 SK하이닉스 부사장은 7일 SK하이닉스 공식 뉴스룸을 통해 진행한 인터뷰에서 HBM 사업 전략에 대해 이같이 밝혔다. 최 부사장은 1982년생으로, HBM사업기획을 총괄하는 최연소 임원으로 선임됐다. 모바일 D램 상품기획 팀장을 거치고, HBM사업기획을 담당하는 등 주로 HBM 사업의 성장을 이끌어온 핵심 인물 인물로 평가받는다. 최 부사장은 HBM사업기획 조직의 원동력으로 '자부심'을 꼽았다. 그는 강한 책임감과 자부심으로 HBM 사업의 성장을 견인해 온 구성원들에게 새로운 에너지를 불어넣어 조직의 더 큰 성장을 이끌겠다는 강한 의지를 밝혔다. 그는 "HBM사업기획 조직은 막대한 규모의 투자와 전략적 방향을 결정하는 핵심 조직으로, 기술 개발 로드맵 수립부터 전 세계 고객들과의 협력에 필요한 전략을 마련하는 등 중요한 역할을 하고 있다"며 "새롭게 선임된 리더로서 구성원들이 원 팀 마인드로 뭉쳐 함께 성장하고 최고의 성과를 창출할 수 있도록 돕는 것이 제 역할이라고 생각한다"고 말했다. AI 기술이 눈부시게 진보하면서 반도체에 대한 수요가 그 어느 때보다 많아지고 있다. HBM은 AI 메모리가 가장 필요로 하는 전력 효율성(Power)과 성능(Performance)에 가장 최적화된 제품으로 앞으로도 그 중요성은 더욱 커질 것으로 전망된다. 최 부사장은 이를 바탕으로 더 먼 미래를 내다보며, 회사가 HBM 시장에서 주도적인 위치를 이어갈 수 있도록 선봉에서 최선을 다하겠다고 밝혔다. 최 부사장은 "올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다"며 "시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다"고 강조했다. 최 부사장은 끝으로 젊은(MZ) 구성원들을 'Motivated & Zealous(동기부여가 만드는 열정적인 인재들)'로 설명하며, 그들이 새로운 기회와 목표에 맞서 성장할 수 있도록 동기를 부여하는 리더가 되겠다고 강조했다. 이어서 그는 구성원들에게 한 가지를 약속했다. 최 부사장은 “저는 제 자신을 스스로 새장에 가두지 않는 소통의 리더가 되고자 한다. 다양한 관점이 담긴 구성원들의 아이디어를 경청하며, 함께 최적의 방향을 만들어 나가겠다"며 "구성원들이 부담 없이 많은 이야기를 들려주실 수 있도록 제 자리를 언제든 열어 놓겠다"고 말했다.

2025.04.07 15:10장경윤 기자

SK하이닉스 "차세대 HBM 성패, 세 가지 과제가 중요"

SK하이닉스가 차세대 HBM(고대역폭메모리) 상용화를 위해 다방면의 기술 고도화가 필요하다고 강조했다. 특히 전력 효율성의 경우, 주요 파운드리 기업과의 협력이 보다 긴밀해질 것으로 관측된다. 이규제 SK하이닉스 부사장은 2일 인천 송도 컨벤시아에서 열린 'KMEPS 2025년 정기학술대회'에서 HBM의 개발 방향에 대해 발표했다. 이 부사장은 이날 SK하이닉스의 차세대 HBM 개발을 위한 과제로 ▲대역폭(Bandwith) ▲전력소모(Power) ▲용량(Capacity) 세 가지를 강조했다. 대역폭은 데이터를 얼마나 빨리 전송할 수 있는지 나타내는 척도다. 대역폭이 높을수록 성능이 좋다. 대역폭을 늘리기 위해선 일반적으로 I/O(입출력단자) 수를 증대시켜야 한다. 실제로 HBM4(6세대)의 경우, HBM3E(5세대) 대비 I/O 수가 2배 늘어난 2천48개가 된다. 이 부사장은 "고객사들은 SK하이닉스가 만들 수 있는 것보다 높은 대역폭을 원하고 있고, 일각에서는 I/O수를 4천개까지 얘기하기도 한다"며 "그러나 I/O 수를 무작정 늘린다고 좋은 건 아니기 때문에, 기존 더미 범프를 실제 작동하는 범프로 바꾸는 등의 작업이 필요할 것"이라고 설명했다. 결과적으로 차세대 HBM은 전력소모와 용량 면에서 진보를 이뤄야 할 것으로 관측된다. 특히 전력소모의 경우, 로직 공정과의 연관성이 깊다. HBM은 D램을 적층한 코어다이의 컨트롤러 기능을 담당하는 로직다이가 탑재된다. 기존에는 이를 SK하이닉스가 자체 생산했으나, HBM4부터는 이를 파운드리에서 생산해야 한다. 이 부사장은 "HBM의 로직 공정은 주요 파운드리 협력사와의 협업이 굉장히 중요한데, 이런 부분에서 긴밀한 설계적인 협업이 있다"며 "SK하이닉스도 패키지 관점에서 여러 아이디어를 내고 있다"고 설명했다. HBM의 용량은 D램의 적층 수와 직결된다. 현재 상용화된 HBM은 D램을 최대 12개 적층하나, 향후에는 16단, 20단 등으로 확대될 예정이다. 다만 차세대 HBM을 제한된 규격(높이 775마이크로미터) 내에서 더 많이 쌓기 위해서는 각 D램의 간격을 줄여야 하는 난점이 있다. 예를 들어, HBM이 12단에서 16단으로 줄어들게 되면 각 D램간의 간격은 절반으로 감소된다. 때문에 SK하이닉스는 기존 어드밴스드 MR-MUF와 더불어 하이브리드 본딩 기술을 고도화하고 있다. 하이브리드 본딩은 범프를 쓰지 않고 각 D램을 직접 연결하는 방식으로, 칩 두께를 줄이고 전력 효율성을 높이는 데 유리하다. 다만 하이브리드 본딩도 현재로선 상용화에 무리가 있다. 기술적 난이도가 높아, 양산성 및 신뢰성을 충분히 확보해야 한다는 문제가 남아있기 때문이다. 이 부사장은 "차세대 HBM 개발과 관련해 위와 같은 세가지 요소가 굉장히 복잡하게 얽혀있는 상황"이라며 "이외에도 차세대 HBM 시장에서는 메모리 기업들이 제조원가를 어떻게 줄이느냐가 가장 중요한 과제가 될 것으로 생각한다"고 설명했다.

2025.04.02 17:30장경윤 기자

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우 기자

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤 기자

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤 기자

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤 기자

브로드컴, AI 반도체 사업 훈풍…삼성·SK도 HBM 성장 기대감

미국 브로드컴의 AI 사업이 지속 확대될 전망이다. 구글을 비롯한 핵심 고객사가 자체 데이터센터용 AI 반도체를 적극 채용한 데 따른 영향이다. 나아가 브로드컴은 추가 고객사 확보 논의, 업계 최초 2나노미터(nm) 기반 AI XPU(시스템반도체) 개발 등을 추진하고 있다. 이에 따라 삼성전자·SK하이닉스 등 국내 기업들도 HBM(고대역폭메모리) 사업 확대에 속도를 낼 수 있을 것으로 기대된다. 6일 브로드컴은 회계연도 2025년 1분기에 매출 약 149억 달러를 기록했다고 밝혔다. 이번 매출은 전년동기 대비 25%, 전분기 대비로는 6% 증가했다. 증권가 컨센서스(147억 달러)도 소폭 상회했다. 해당 분기 순이익 역시 GAAP 기준 55억 달러로 전년동기(13억 달러) 대비 크게 증가했다. 브로드컴은 "AI 반도체 솔루션과 인프라 소프트웨어 부문의 성장으로 1분기 사상 최대 매출을 기록했다"며 "특히 AI 매출은 전년 대비 77% 증가한 41억 달러를 기록했고, 2분기에도 44억 달러의 매출을 예상한다"고 밝혔다. AI 매출은 브로드컴의 반도체 솔루션 사업 부문에서 AI용 주문형반도체(ASIC), AI 가속기, 서버 네트워크 칩 등을 포함한 매출이다. 브로드컴은 자체적인 반도체 설계 역량을 바탕으로, 구글·메타 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원하고 있다. 현재 브로드컴을 통해 AI 반도체의 대량 양산에 이른 고객사는 3곳이다. 브로드컴은 이들 고객사의 AI 반도체 출하량이 지난해 200만개에서 오는 28년에는 700만개로 늘어날 것으로 보고 있다. 나아가 4개의 잠재 고객사와도 양산 논의를 진행하고 있다. 브로드컴의 AI 사업 확대는 삼성전자·SK하이닉스 등 국내 주요 메모리 기업들에게도 수혜로 작용한다. AI 가속기에 필수적으로 활용되는 HBM의 수요가 증가하기 때문이다. 기존 HBM의 수요처는 엔비디아·AMD 등 고성능 GPU를 개발하는 팹리스가 주를 이뤘다. 그러나 최근에는 구글·메타 등도 전력효율성, 비용 등을 고려해 자체 AI ASIC 탑재량을 적극적으로 늘리는 추세다. 특히 구글은 브로드컴의 핵심 고객사로 자리 잡았다. 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E 8단을 채용하며, 이전 세대 대비 생산량을 크게 확대할 계획이다. 구글 최신형 TPU에 HBM을 양산 공급하기로 한 기업은 SK하이닉스, 마이크론으로 알려져 있다. 삼성전자도 공급망 진입을 위한 테스트를 꾸준히 진행하고 있다. 경쟁사 대비 진입이 늦어지고 있으나, 최근 테스트에서는 기존 대비 긍정적인 결과를 얻어낸 것으로 파악됐다. 반도체 업계 관계자는 "최근 데이터센터 업계의 트렌드는 고가의 엔비디아 AI 가속기 대신 자체 칩을 개발하는 것"이라며 "구글과 AWS(아마존웹서비스) 등이 대표적인 대항마로 떠오르고 있어, 올해부터 HBM의 수요 비중을 늘려나갈 것으로 관측된다"고 설명했다.

2025.03.07 10:13장경윤 기자

리벨리온, SKT·펭귄솔루션스와 MOU…AI 데이터센터 공략 가속화

리벨리온은 스페인 바르셀로나에서 열린 'MWC25'에서 펭귄 솔루션스(Penguin Solutions), SK텔레콤과 함께 MOU를 체결했다고 5일 밝혔다. 리벨리온은 이번 협력을 통해 NPU 제품과 기술을 바탕으로 사업역량과 기술력을 대규모 데이터센터 수준으로 끌어올린다는 계획이다. 리벨리온은 에너지효율성을 확보한 AI반도체를 바탕으로 카드는 물론 서버와 렉 수준까지 제품 라인업을 확장해왔다. 펭귄 솔루션스는 높은 수준의 AI 인프라 전문성을 바탕으로, 8만5천대 이상의 GPU를 관리하는 AI 인프라 전문 기업이다. SK텔레콤은 최근 AI 인프라 사업에 속도를 내며 펭귄 솔루션스를 비롯한 AI 인프라 관련 기업에 적극 투자하고 있다. 3사는 각사의 경쟁력과 사업 경험을 결합해 이번 협약을 시작으로 AI 데이터센터 분야에서 경쟁력 강화와 시장확대를 위한 전략적 협력에 나선다. 먼저, AI 인프라 구축과 기업 테스트 환경 조성을 위해 협력한다. 리벨리온의 NPU 하드웨어 및 풀스택(Full-Stack) 소프트웨어 기술과 펭귄 솔루션스의 인프라 운영 역량을 결합해 기업 고객이 NPU 기반 AI 인프라 검증과 도입을 할 수 있도록 지원한다. 나아가 AI 데이터센터 최적화를 위해 3사 공동으로 기술협업에 속도를 내고, NPU와 GPU를 모두 지원할 수 있는 데이터센터향 운영 솔루션을 개발한다. 박성현 리벨리온 대표는 "'딥시크(DeepSeek)' 이후 효율적인 운영이 AI 시대의 핵심 키워드로 떠오른 만큼 AI 인프라의 에너지효율성과 경제성 역시 고객에게 중요 평가기준이 될 것”이라며 "이를 위해선 각 분야의 전문성을 지닌 기업이 모여 시너지를 내는 게 필수적이기에 이번 MOU가 효율적인 AI 데이터센터 생태계 구축의 중요한 첫 걸음이 될 것"이라고 밝혔다. 마크 시먼스 펭귄 솔루션스 글로벌 마케팅 부사장은 "우리가 HPC와 AI 클러스터 영역에서 축적해 온 전문성이 이번 협력을 통해 GPU뿐 아니라 NPU 인프라에서도 빛을 발할 것"이라며 "빠르게 성장하는 글로벌 AI 시장에서 최신 AI 인프라를 제공해 고객의 요구사항을 만족시킬 뿐 아니라 복잡한 문제들을 해결하고, 비즈니스 성과를 가속화할 수 있도록 최선을 다하겠다”고 말했다. 이외에도 리벨리온 박성현 대표는 MWC25 공식 행사의 일환으로 패널 세션에도 참가했다. 박 대표는 'Chips for the Future: Fueling Business Transformation with Computing Power(미래를 위한 반도체: 컴퓨팅 파워로 비즈니스 혁신을 가속하다)'라는 제목으로 진행된 세션에서 암페어(Ampere), 안시스(Ansys) 등 세계 유수 반도체 기업 패널들과 AI반도체의 미래에 대해 논의하는 등 글로벌 AI반도체 기업으로서 존재감을 드러냈다.

2025.03.05 09:57장경윤 기자

SKT, 슈나이더와 AI데이터센터 글로벌 진출 맞손

SK텔레콤이 MWC 25에서 슈나이더일렉트릭과 AI데이터센터 기계, 전력, 수배전(MEB) 시스템 분야 협력을 위한 파트너십을 맺었다고 5일 밝혔다. AI 데이터센터 MEP시스템은 기계, 전력, 수배전으로, AI데이터센터 설계 및 구축 단계에서부터 이후 운영 과정에서 안정성과 효율성을 유지하는데 필수적인 역할을 한다. 슈나이더 일렉트릭은 마이크로소프트와 30년 간 글로벌 파트너십을 통한 협력을 지속해오고 있으며, 지난 해 엔비디아와 협력해 AI 데이터센터 인프라 최적화 및 디지털 트윈 기술 기반 마련을 위한 파트너십을 체결하고 데이터센터 레퍼런스 디자인을 선보였다. 또한, 지난해 기준 시가총액 211조원, 매출 58조원 규모로, 전세계 100여 개 국가에서 약 17만명의 임직원이 근무하는 글로벌 기업이다. 특히, 슈나이더일렉트릭이 보유한 데이터센터 전력 및 수배전 분야 기술력은 세계 최고 수준으로, 지난해 미국 타임지가 발표한 '2024 세계 최고의 지속가능 선도기업' 1위에 선정되기도 했다. 양사는 이번 파트너십을 통해 국내 지역 거점에 하이퍼 스케일급 AI 데이터센터 건설 및 구축 사업 협력을 논의할 예정으로 MEP 분야에서 부품 제품 솔루션과 컨설팅 등 전 사업 영역에서 협력할 예정이다. 향후, SK텔레콤은 슈나이더 일렉트릭과 장기적인 파트너십을 통해 AI데이터센터 관련 공동 솔루션을 개발하고, 이를 통해 글로벌 시장으로 AI 데이터센터 사업을 확장해 나갈 계획이다. 판카즈 샤르마 슈나이더일렉트릭 시큐어 파워 및 서비스 총괄 사장(EVP)은 “슈나이더 일렉트릭은 오랜 경험과 기술력을 바탕으로 데이터센터 전력 인프라, 냉각 시스템, 관리 솔루션 등 MEP 전반에 걸친 최적화된 솔루션을 제공하고 있다”며 “이번 협력을 통해 SK텔레콤의 AIDC 운영 역량과 결합하여 최고의 시너지를 창출할 것으로 기대한다”고 밝혔다. 유영상 SK텔레콤 CEO는 “세계 최고 수준의 AI 데이터센터 솔루션 사업자인 슈나이더 일렉트릭과의 협력을 통해 우리 회사의 AI DC 경쟁력 강화는 물론 글로벌 시장 진출에도 크게 기여할 수 있을 것으로 기대한다”고 말했다.

2025.03.05 08:16박수형 기자

"블랙웰 수요 놀랍다"...젠슨 황, '울트라' 양산도 자신감

엔비디아가 최신형 AI 가속기인 '블랙웰' 시리즈의 초도 물량을 성공적으로 출하했다. 그간 업계에서 제기된 수율 저조 등의 우려를 단 번에 종식시키는 행보다. 나아가 엔비디아는 '블랙웰 울트라', '루빈' 등 차세대 제품에 대한 자신감도 드러냈다. 27일 엔비디아는 회계연도 2025년 4분기(2025년 1월 26일 마감) 매출이 393억 달러(한화 약 56조원)로 전분기 대비 12%, 전년동기 대비 78% 증가했다고 밝혔다. 같은 기간 영업이익은 240억 달러로 전분기 대비 14%, 전년동기 대비 77% 증가했다. 매출총이익률은 73.0%로 집계됐다. 이번 엔비디아의 호실적은 매출에서 가장 큰 비중을 차지하는 데이터센터 사업이 이끌었다. 해당 분야의 매출은 356억 달러로, 전분기 대비 16%, 전년동기 대비 93% 증가했다. 회계연도 기준 연 매출은 1천152억 달러로 전년 대비 142%의 증가세를 나타냈다. 특히 엔비디아의 최신형 AI 가속기인 '블랙웰' 시리즈의 판매가 견조한 것으로 나타났다. 업계에서는 엔비디아가 수율 저조, 서버 랙 과열 문제 등으로 블랙웰 출하에 차질을 겪을 수 있다는 우려를 제기해 왔다. 그러나 해당 분기 엔비디아의 블랙웰 매출액은 110억 달러로, 시장의 예상치를 크게 상회했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "블랙웰에 대한 수요가 놀라운 수준"이라며 "회사 역사상 가장 빠른 램프업(ramp-up)"이라고 평가했다. 성능을 한층 높인 '블랙웰 울트라'는 올 하반기 출시될 예정이다. 젠슨 황 CEO는 "현재 블랙웰의 대량 양산 및 출하가 성공적으로 진행 중이고, 블랙웰 울트라도 기존 제품과 관계없이 원활히 출하가 진행될 것"이라며 "동일한 블랙웰 아키텍처를 기반으로 하기 때문에 고객사의 전환도 문제 없을 것"이라고 밝혔다. 차세대 AI 가속기인 '루빈'에 대한 구체적인 정보도 조만간 밝혀진다. 젠슨 황 CEO는 "이미 파트너들과 블랙웰 울트라 이후의 차세대 아키텍처인 베라 루빈(Vera Rubin)에 대해 논의하는 중"이라며 "이에 대한 추가 정보는 GTC에서 공개될 예정"이라고 말했다. GTC는 엔비디아가 주최하는 연례행사로, 올해에는 3월 17일부터 21일까지 미국 캘리포니아 산호세에세 열린다.

2025.02.27 10:34장경윤 기자

마이크론, '6세대 10나노급' D램 샘플 공급…삼성·SK보다 빨랐다

미국 마이크론이 최근 6세대 10나노미터(nm)급 D램 샘플을 고객사에 공급하는 데 성공했다. 삼성전자·SK하이닉스 등 주요 경쟁사에 한 발 앞선 성과로, 차세대 메모리 시장에서 국내 메모리 업계와의 치열한 경쟁이 예상된다. 26일 마이크론은 1γ(감마) 공정 기반의 DDR5 샘플을 인텔, AMD 등 잠재 고객사에 출하했다고 발표했다. 1γ는 올해부터 양산이 본격화되는 6세대 10나노급 D램이다. 선폭은 11~12나노 수준이다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서는 이를 1c D램이라고 부른다. 마이크론은 "업계 최초로 차세대 CPU용 1γ DDR5 샘플을 일부 협력사와 고객사에 출하했다"며 "우선 16Gb(기가비트) DDR5에 활용되고, 이후 AI용 고성능 및 고효율 메모리 수요에 대응하도록 할 것"이라고 밝혔다. 이번 1γ 기반 16Gb DDR5는 최대 9200MT/s의 데이터 처리 속도를 구현한다. 이전 세대 대비 속도는 최대 15% 증가했으며, 전력 소모량은 20% 이상 줄었다. 새롭게 적용된 제조 공정도 눈에 띈다. 마이크론은 1γ D램에서부터 EUV(극자외선) 공정을 도입하겠다고 밝힌 바 있다. EUV는 반도체 회로를 새기기 위한 노광 공정에 쓰이는 광원이다. 기존 DUV(심자외선) 대비 빛의 파장이 짧아 초미세 공정에 유리하다. 삼성전자, SK하이닉스도 이미 첨단 D램에 EUV를 적용 중이다. 마이크론은 "1γ D램은 EUV 노광 기술과 고종횡비 식각 기술 등 최첨단 공정을 적용함으로써 업계를 선도하는 비트 밀도를 지원한다"며 "여러 세대에 걸쳐 입증된 마이크론의 D램 기술 및 제조 전략 덕분에 최적화된 공정을 만들 수 있었다"고 자신했다. 마이크론의 1γ D램 샘플은 AMD, 인텔 등 고객사에 출하돼, 현재 평가 과정을 거치고 있는 것으로 알려졌다. 한편 삼성전자, SK하이닉스 등 국내 기업들도 6세대 10나노급 D램의 상용화를 준비하고 있다. 특히 삼성전자는 1c D램을 HBM4(6세대 고대역폭메모리)에 선제적으로 적용할 계획이다. 이에 따라 현재 기존 설계 대비 칩 사이즈를 키워, 수율 및 안정성을 높이는 방향으로 재설계를 진행 중인 것으로 파악됐다. 개선품은 이르면 1~2달 내로 구체적인 성과를 확인할 수 있을 전망이다. 동시에 삼성전자는 1c D램 양산을 위한 설비투자도 진행하고 있다. 지난해 말부터 평택 제4캠퍼스(P4)에 소규모 제조라인 구축을 위한 장비 발주가 시작됐다. 1c D램의 개발 현황에 따라 추가 투자 가능성도 거론된다. SK하이닉스는 지난달 내부적으로 1c D램에 대한 양산 인증을 마무리한 것으로 알려졌다. 현재 SK하이닉스는 이전 세대인 1b D램에서의 공정 기술력을 기반으로, 1c D램의 수율을 비교적 안정적으로 끌어 올렸다는 평가를 받고 있다.

2025.02.26 09:03장경윤 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

점유율 2% 다음의 반격...업스테이지가 그리는 차세대 AI 포털

[르포] "위험작업 버튼 하나로"…KIRO서 본 '현장형 로봇'

쿠팡 사태에 美 상장 노린 기업들 '전전긍긍'

'몰트북' 나비효과?…韓 상륙한 AI들의 수다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.