• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI 데이터센터'통합검색 결과 입니다. (66건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 이재명까지 지원 사격…韓 투자 속도 높이는 해외 CSP, 토종기업 설 자리 잃나

최근 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 등 미국 빅테크에 이어 알리바바 클라우드 등 중국 기업까지 국내 클라우드 시장 공략에 적극 나서면서 토종 기업들의 설자리가 점차 좁아지고 있다. 기술력과 가격 경쟁력을 앞세워 외국 기업들이 민간 영역을 장악한 데 이어 공공 시장까지 침투하고 있는 만큼, 국내 기업들도 대응책 마련에 고심하는 분위기다. 19일 업계에 따르면 글로벌 클라우드 서비스 제공 기업(CSP) 1위인 AWS는 SK그룹과 손잡고 울산 미포 국가산업단지 부지에 초대형 인공지능(AI) 데이터센터를 구축한다. 그래픽처리장치(GPU) 6만 장이 투입되는 국내 최대 규모의 AI 전용 데이터센터로, 양사는 오는 20일 울산에서 출범식을 개최할 예정이다. 이번 투자 소식은 지난 13일 이재명 대통령과 5대 그룹 총수 간담회 이후 발표된 첫 대규모 국내 투자 소식이란 점에서 더 주목받고 있다. 이 대통령은 'AI 100조 투자'를 그간 공약으로 내세웠던 만큼, 이번 SK-AWS AI 데이터센터 출범식에 직접 참석해 AI 전략에 대한 명확한 메시지를 전할 것으로 알려졌다. AWS와 SK그룹은 울산 AI 데이터센터를 향후 1GW(기가와트) 규모로 확장해 동북아시아 최대 AI 데이터센터 허브로 만들겠다는 청사진을 그리고 있다. 이를 위해 SK그룹은 AI 데이터센터 사업을 맡고 있는 SK텔레콤과 SK브로드밴드를 통해 2028년까지 AI에 3조4천억원을 투자할 계획이다. AWS는 40억 달러(약 5조4천712억원)를 투자키로 한 것으로 알려졌다. AWS는 현재 서울에 데이터센터를 보유하고 있고, 인천 서구에도 수조원을 투자해 지난해 말부터 데이터센터를 짓고 있다. 마이크로소프트(MS)는 KT와 손잡고 국내 시장 공략에 속도를 높이고 있다. 양사는 5년간 2조4천억원을 공동 투자해 AI 분야에서 협업키로 협약을 체결한 데 이어 한국형 AI 모델과 시큐어 퍼블릭 클라우드(SPC)를 공동 개발해 올해 2분기께 국내서 출시할 것이란 계획을 공개하기도 했다. 중국 기업인 알리바바 클라우드도 내년에 한국 진출 10주년을 앞두고 이달부터 서울에서 제2 데이터센터 가동을 시작했다. 중국 시장을 겨냥한 국내 기업들의 수요가 높다고 보고 이들을 공략하기 위해 좀 더 공격적인 투자 움직임에 나선 것이다. 제2 데이터센터는 앞서 알리바바 그룹이 향후 3년간 AI·클라우드 인프라에 최소 약 76조원(3천800억 위안)을 투자한다고 밝힌 구상의 일환이다. 알리바바 그룹은 지난 2016년 한국에 사무소를 설립한 후 2022년 3월 국내에 첫 데이터센터를 구축하며 CSP 시장 경쟁에 뛰어 들었다. 다만 중국계 기업들이 한국 데이터를 외부로 반출한다는 우려가 많이 제기되면서 미국 기업들에 비해 존재감은 그간 크게 드러내지 못했다. 실제 과학기술정보통신부가 지난해 발표한 '2023년 부가통신사업 실태조사'에 따르면 국내 부가통신사업자(복수응답 가능) 중 60.2%는 AWS 클라우드를 사용했다. 2위인 MS 애저와 3위인 네이버 클라우드 사용률은 각각 24%, 20.5%로 집계됐다. 그 뒤는 구글 클라우드 플랫폼(19.9%), KT클라우드(8.2%)·오라클(8.2%), NHN클라우드(7.0%) 등이 이었다. 알리바바 클라우드는 의미 있는 점유율을 기록하지 못해 순위에 포함되지 못했다. 이에 알리바바 클라우드는 다수 보안 인증을 획득했다는 점을 앞세워 우려를 불식시키는 데 적극 나섰다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 강조했다. 그러면서 "2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수"라며 "한국 데이터는 해외로 유출되지 않는다"고 덧붙였다. 이 같은 상황 속에 글로벌 클라우드 서비스 기업(CSP)들은 최근 클라우드 보안인증(CSAP) '하' 등급을 취득하며 공공 클라우드 시장 진출에 속속 진입하기 시작해 토종 업체들의 입지를 더욱 좁히고 있다. 현재 이 시장은 NHN클라우드, 네이버클라우드, KT클라우드 등 세 회사가 80% 이상 과점하고 있는 상태로, 규모는 1조4천억원(2023년 기준) 수준이다. 과학기술정보통신부 산하 한국인터넷진흥원(KISA)이 관장하는 CSAP는 정부·공공 기관에 민간 클라우드 서비스를 공급하기 위해 획득해야 하는 인증이다. 공공 대상 서비스인 만큼 당초 엄격한 물리적 망분리 요건이 있었지만, 2023년 정부가 CSAP를 상·중·하 등급제로 개편하면서 하등급에 한해서는 논리적 망분리가 허용됐다. 이를 토대로 최근 AWS·마이크로소프트·구글 등 미국 대표 CSP 모두가 최근 '하' 등급 인증을 획득해 공공시장 진입을 노리고 있다. CSAP '하' 등급은 개인정보가 없는 공개 데이터를 운영하는 공공 시스템을 대상으로 하지만 '중' 등급의 경우 민감 데이터와 비공개 업무자료까지 포함하는 시스템을 다룬다. 다만 알리바바 클라우드는 CSAP 문턱을 아직 넘지 못했다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "CSAP 등급과 (공공 분야 진출 계획과) 관련해선 아직 공유할 상황이 아니다"고 밝혔다. 또 그는 "이번 제2 데이터센터 출범은 한국 시장에 대한 우리의 지속적인 투자 의지와 국내 기업의 AI 전환을 꾸준히 지원하기 위한 것"이라며 "국내에서 제품 및 서비스를 더욱 다각화하려는 우리의 노력에 있어 중요한 이정표가 될 전망"이라고 덧붙였다. 이처럼 외국 CSP 기업들이 투자 속도를 높이며 국내 시장에서 사업 영역 확대에 적극 나서자 토종 CSP들의 시름도 점차 깊어지고 있다. 경쟁사들이 늘어나면서 가격 경쟁이 심화될 뿐 아니라 이에 따른 기술 경쟁력도 자연스럽게 약화되면서 국내 CSP들이 자칫 해외 기업 협력사로 전락하는 것 아니냐는 우려의 목소리도 나오고 있다. 이미 7조4천억원 수준인 국내 민간 클라우드 시장에선 AWS, MS 애저, 구글이 점유율 80%를 차지하고 있는 상황이다. 업계 관계자는 "알리바바 클라우드 같은 중국에 거점을 둔 글로벌 기업의 진출은 가격 경쟁력이 높아 국내 기업으로선 굉장한 챌린지가 될 것으로 예상된다"며 "가격 경쟁이 심화되면 자연스레 국내 시장을 기반으로 하는 국내 기업들은 기술 개발이 어려워지는 악순환의 고리가 만들어질 가능성이 높다"고 밝혔다. 일각에선 데이터 주권과 규제 역차별, 불공정 경쟁 유발 문제 등이 우려된다고 짚었다. 글로벌 기업들이 국내 규제 밖에 있는 경우가 많은 만큼 데이터 레지던시를 제대로 지키지 않을 가능성이 크기 때문이다. 데이터 레지던시는 개인정보, 금융정보, 기업 데이터 등 민감한 정보를 특정 국가 안에서 저장·처리해야 한다는 것을 의미한다. 업계 관계자는 "국내 사업자의 데이터센터는 다양한 관련 법 규제로 인해 충분히 감시와 점검을 받고 있지만, 해외 기업은 본사가 국외에 있다는 점을 들어 여러 경로로 규제, 법률 등에 불응하는 경우가 많다"며 "이는 데이터 주권을 넘어 기술 주권에 대한 묵시적 부동의로 비춰질 수 있다"고 분석했다. 이어 "규모의 경제를 달성한 글로벌 기업들은 교묘한 방식으로 복합 상품, 해외 상품 연계 등 국내 사업자들이 제공하기 어려운 조건들로 생태계와 시장을 교란하고 있다"며 "현 분위기에선 신자유주의적 시장 논리로는 국내 기술 및 시장을 지키지 못하고 의존성을 높이는 계기가 되지 않을까 우려된다"고 짚었다. 그러면서 "국내 기업들은 온프레미스-클라우드, 해외 기업-국내 기업 등 하이브리드 및 멀티 클라우드 전략을 더 활성화 하는 방식으로 대응력을 키워야 할 것"이라며 "국내 기업 중심으로 연합하려는 움직임도 필요해 보인다"고 덧붙였다.

2025.06.19 16:14장유미

SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진

AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다. 나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다. 17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다. AWS, 세계적 AI 인프라 투자·SK와 협력 강화 AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다. 일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다. SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다. AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다. 현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다. 자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 동시에 AWS는 머신러닝(ML)에 특화된 '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다. 이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다. SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다. 반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.

2025.06.17 13:59장경윤

AWS, 울산에 국내 최대 AI 데이터센터 짓는다…SK그룹 손잡고 GPU 6만장 투입

글로벌 1위 클라우드 사업자인 아마존웹서비스(AWS)가 SK그룹과 함꼐 울산 미포 국가산업단지 부지에 대형 인공지능(AI) 데이터센터 구축에 나선다. 한국 시장 내 인프라 투자를 강화한다는 목적으로 풀이된다. 16일 업계에 따르면 AWS와 SK그룹은 울산에 그래픽처리장치(GPU) 6만 장이 탑재되는 국내 최대 규모 AI 전용 데이터센터 건립을 추진한다. SK그룹은 이달 중 출범식을 열고 오는 8월 기공식을 개최할 예정인 것으로 알려졌다. 양사가 설립하는 울산 AI 데이터센터는 2027년까지 41메가와트(MW) 규모로 1차 개발된 후 2029년 초까지 103MW 규모로 최종 완공될 예정이다. 향후에는 기가와트(GW) 규모로의 확장도 계획 중인 것으로 전해졌다. 이번 데이터센터 구축에는 양사가 수조원을 공동 투자한다. SK그룹은 AI 데이터센터 사업을 담당하는 SKT와 SKB를 주축으로 SK가스와 SK하이닉스 등 그룹사 역량을 총동원해 프로젝트에 박차를 가할 계획이다. AWS도 약 40억 달러(한화 약 5조4천476억원)를 투자한 것으로 알려졌다. AWS의 이번 데이터센터 구축은 지난 2023년 AWS가 발표한 한국 시장 투자 계획도 맞닿아 있다. AWS는 2023년에서 2027년까지 서울 리전 내 데이터센터 구축·연결·운영·유지보수를 위해 7조8천500억원에 달하는 투자를 단행하겠다고 밝힌 바 있다. 앞서 AWS는 지난해부터 인천 서구 가좌동에도 100MW 규모에 달하는 데이터센터를 구축하고 있다. 이같은 행보는 한국 내 클라우드 리전 강화는 물론 공공시장 진입 가속화를 위한 목적으로 해석된다. 업계 관계자는 "최근 클라우드 보안인증(CSAP) 하등급을 취득한 AWS가 국내 데이터센터 설립에 속도를 내고 있는 이유는 물리적 망분리가 요구되는 중등급도 확보해 공공 시장 공략에 속도를 내려는 목적"이라고 평가했다.

2025.06.16 15:30한정호

"HBM4 80개 高집적"…TSMC, 차세대 패키징 고도화

대만 파운드리 TSMC가 차세대 AI 반도체 시장을 목표로 첨담 패키징 기술을 고도화하고 있어 주목된다. AI 반도체가 점차 고성능·대면적화되는 추세에 맞춰, HBM4(6세대 고대역폭메모리)를 80개까지 탑재한 제품을 고안해낸 것으로 파악됐다. 12일 업계에 따르면 TSMC는 지난달 말 미국 텍사스주에서 열린 'ECTC 2025(전자부품기술학회)'에서 초대형 AI 반도체를 위한 '시스템온웨이퍼(SoW-X)'의 구체적인 구조를 발표했다. 16개 컴퓨팅 칩에 80개 HBM 연결…기존 대비 전성비 1.7배 향상 SoW-X는 TSMC가 오는 2027년 양산을 목표로 하고 있는 차세대 패키징 기술이다. GPU·CPU 등 고성능 시스템반도체와 HBM을 집적한 AI 반도체 분야에 적용될 예정이다. SoW-X는 기존 패키징 공정에서 쓰이던 기판(PCB)나 실리콘 인터포저(칩과 기판 사이에 삽입되는 얇은 막)를 사용하지 않고, 메모리 및 시스템반도체를 웨이퍼 상에서 직접 연결하는 것이 핵심이다. 각 칩의 연결은 칩 하단에 형성된 미세한 구리 재배선층(RDL)이 담당한다. 이 때 RDL은 칩 외부로 확장되는데, TSMC에서는 이를 InFO(Integrated Fan-Out)라고 부른다. SoW-X는 웨이퍼 전체를 활용하기 때문에 초대형 AI 반도체 제작이 가능하다. TSMC가 발표한 자료에 따르면, SoW-X는 최대 16개의 고성능 컴퓨팅 칩, 80개의 HBM4 모듈을 집적했다. 이로 인해 총 메모리 용량은 3.75TB(테라바이트), 대역폭은 160TB/s에 이른다. 또한 SoW-X는 동일한 수의 컴퓨팅 칩을 사용하는 기존 AI 반도체 클러스터에 비해 전력 소비량은 17% 줄어들었으며, 46% 향상된 성능을 제공할 수 있다. TSMC는 "SoW-X는 각 칩 간의 뛰어난 연결성과 낮은 소비 전력으로 기존 AI 반도체 클러스터 대비 와트(W)당 전체 성능이 1.7배 가량 개선됐다"며 "훨씬 더 많은 시스템반도체와 HBM을 통합해 시스템 전력 효율성이 향상되며, 기존 기판 연결의 어려움도 제거할 수 있다"고 설명했다. HPC·AI 시장 목표…"수요 당장 많지 않다" 지적도 TSMC는 SoW-X를 업계 표준을 능가하는 혁신적인 기술 플랫폼으로 평가하며, 차세대 고성능 컴퓨팅 및 AI 산업을 공략하겠다고 밝혔다. 다만 SoW-X 기술이 AI 메모리 시장에 미칠 여파가 당장은 크지 않다는 지적도 제기된다. HBM 탑재량이 80개로 매우 많지만, 지금 당장은 초대형 AI 반도체에 대한 수요가 제한적이라는 이유에서다. 실제로 SoW-X의 이전 세대로 지난 2020년 도입된 SoW는 테슬라·세레브라스 등 소수의 고객사만이 양산에 채택한 바 있다. 반도체 업계 관계자는 "테슬라의 슈퍼컴퓨팅 '도조(Dojo)' 전용 칩인 'D1'처럼, SoW-X는 완전한 커스터마이즈 칩을 위한 기술로서 니치 마켓에 부합한다"며 "워낙 많은 칩이 탑재되고 기술적인 난이도도 높아, 대중적인 AI 반도체 패키징 기술을 당장 대체하기는 어려울 것"이라고 말했다.

2025.06.12 15:54장경윤

SK이노, 'AI 데이터센터' 전문 에너지 솔루션 사업 키운다

SK이노베이션이 인공지능(AI) 시대의 핵심 인프라인 초대형 데이터센터 운영에 필요한 에너지 솔루션 사업에 본격적으로 뛰어든다. SK이노베이션은 지난 11일 서울 종로구 SK서린빌딩에서 싱가포르의 데이터센터 인프라 기업인 BDC와 데이터센터 에너지 솔루션 사업 추진을 위한 업무협약(MOU)을 체결했다고 12일 밝혔다. BDC는 싱가포르에 본사를 두고 말레이시아, 태국, 인도 등 아시아태평양 지역에서 총 1GW 규모의 초대형 데이터센터들을 개발·운영해온 유수의 글로벌 데이터센터 기업이다. 이번 업무협약에 따라 SK이노베이션은 말레이시아에 있는 BDC의 초대형 AI 데이터센터에 에너지 솔루션을 제공한다. 이 데이터센터는 국내 최대 데이터센터(270MW)보다도 훨씬 큰 규모로, 아시아에서도 손꼽히는 초대형 시설이다. SK이노베이션은 이 데이터센터에 구체적으로 ▲AI 기반 에너지 관리 시스템(DCMS) 도입 ▲에너지저장장치(ESS)와 연료전지 등 보조전원 설계 ▲첨단 액침냉각 기술 및 냉매 공급 등 데이터센터 전용 솔루션을 적용할 계획이다. SK가 제공하는 DCMS는 데이터센터 곳곳의 전력 흐름과 이상 신호를 상시 모니터링해 예비 발전기와 보조 전원이 적기에 가동되도록 만드는 최첨단 시스템이다. SK이노베이션 자회사 SK엔무브가 국내 최초로 상용화한 액침냉각 기술은 서버를 액침냉각 플루이드에 직접 담가 냉각하는 방식으로, AI·빅데이터 등 고발열 장비가 많은 첨단 데이터센터에 최적이라는 평가를 받는다. SK이노베이션 관계자는 “정전 등 위기 상황에도 흔들리지 않는 세계 최고 수준의 전력 안정성과 액침냉각 등 운영비 절감 기술력을 입증해낼 계획”이라고 말했다. SK이노베이션은 이번 업무협약을 통해 글로벌 초대형 데이터센터에 필요한 에너지 솔루션 개발 및 검증 체계를 구축함으로써 향후 글로벌 시장에서 고객 맞춤형 통합 에너지 솔루션을 공급하는 사업자로 도약한다는 목표다. SK이노베이션은 지난해 11월 SK E&S와의 합병으로 정유, 화학, 배터리에서 LNG, 수소, 풍력, 태양광, 소형모듈원전(SMR)까지 아우르는 종합 에너지 기업으로 발돋움한 바 있다. 이 같은 경쟁력을 토대로 글로벌 시장에서 에너지 솔루션 사업을 확대해 나갈 계획이다. 김무환 SK이노베이션 에너지솔루션 사업단장은 “이번 BDC와의 업무협약을 계기로 AI 데이터센터 에너지 솔루션의 기술력 및 경제성을 평가받아 글로벌 시장에서 상품화를 추진해 나갈 계획”이라며 “앞으로 필요에 따라 글로벌 AI 데이터센터 기업들과의 공동 연구개발(R&D) 등도 벌여 나갈 방침”이라고 말했다. 케빈 관 BDC 최고투자책임자(CIO)는 “지난 10년간 범아시아 지역에서 초대형 데이터센터의 발전을 이끌어온 BDC는 현재 세계 최고 수준의 컴퓨팅 솔루션을 제공하기 위한 투자를 이어가고 있다”며 “SK와의 이번 파트너십을 통해 BDC는 앞으로도 데이터센터 전용 그린 에너지 솔루션의 발전과 고객들의 지속가능한 성장에 기여할 것”이라고 밝혔다.

2025.06.12 09:00김윤희

美 마이크론, 차세대 'HBM4' 샘플 출하 성공…SK하이닉스 '맹추격'

미국 마이크론이 차세대 AI 반도체를 위한 HBM4(6세대 고대역폭메모리) 샘플을 주요 고객사에 출하했다. SK하이닉스가 지난 3월 업계 최초로 HBM4 샘플을 공급한 데 이은 두 번째 사례로 제품 상용화에 큰 진전을 이뤄냈다. 마이크론은 최근 복수의 주요 고객사에 12단 36GB(기가바이트) HBM4 샘플을 출하했다고 11일 밝혔다. 마이크론은 "이번 출하로 마이크론은 AI 산업을 위한 메모리 성능 및 전력 효율성 분야에서 선도적인 입지를 공고히 하게 됐다"며 "최선단 D램 공정과 검증된 패키징 기술 등을 기반으로 마이크론 HBM4는 고객과 파트너에 완벽한 통합을 제공한다"고 강조했다. 현재 메모리 업계는 HBM3E(5세대 HBM)까지 상용화에 성공했다. HBM4는 이르면 올 하반기부터 본격적으로 양산될 차세대 제품에 해당한다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개 집적된 것이 특징이다. 주요 경쟁사인 SK하이닉스도 지난 3월 핵심 고객사인 엔비디아에 HBM4 샘플을 조기 공급한 바 있다. 삼성전자의 경우 마이크론·SK하이닉스보다 한 세대 앞선 D램(1c D램; 6세대 10나노급)을 채용해 제품을 개발하고 있다. 올 하반기 개발을 완료하는 것이 목표다. 마이크론의 HBM4는 메모리 스택 당 2.0TB/s 이상의 속도와 이전 세대 대비 60% 이상 향상된 성능을 제공한다. 또한 전력 효율성은 이전 세대 대비 20% 이상 높다. 마이크론은 "HBM3E 구축을 통해 달성한 놀라운 성과를 바탕으로, 당사는 HBM4와 강력한 AI 메모리 및 스토리지 솔루션 포트폴리오를 통해 혁신을 지속적으로 추진해 나갈 것"이라며 "당사 HBM4 생산 이정표는 고객의 차세대 AI 플랫폼 준비에 맞춰 원활한 통합 및 양산 확대를 보장한다"고 밝혔다.

2025.06.11 10:07장경윤

엔비디아 '블랙웰' 칩 수요 쾌청…삼성·SK HBM 성장 기회

엔비디아가 AI 반도체 산업의 성장세를 자신했다. 미국의 대중 수출 규제 여파에도 최첨단 AI 반도체인 '블랙웰'의 수요가 강력하고, 전 세계 AI 인프라 투자가 활발히 진행되고 있기 때문이다. 초고성능 AI 반도체인 'GB300' 역시 올 3분기 초 차질없이 양산이 시작될 것으로 전망된다. 이에 따라 국내 주요 메모리 업체인 삼성전자, SK하이닉스의 HBM(고대역폭메모리) 사업도 지속적인 성장의 기회를 잡을 수 있을 것으로 기대된다. 中 수출 규제, AI 산업 성장세 등 불확실성 '해소' 이날 엔비디아는 2026년 회계연도 1분기(올해 2~4월) 매출액 440억6천만 달러를 기록했다고 밝혔다. 전년동기 대비 69%, 전분기 대비 12% 증가한 수치다. 영업이익도 232억7천만 달러(Non-GAAP 기준)로 전년동기 대비 43%, 전분기 대비 6% 증가했다. 다만 데이터센터 매출액은 391억1천만 달러로 증권가 컨센서스(약 393억 달러)를 소폭 하회했다. 미국 트럼프 2기 행정부의 수출 규제 강화로 중국향 AI 반도체 'H20'의 판매가 전면 금지된 데 따른 영향이다. 엔비디아는 해당 규제로 1분기 45억 달러의 손실이 발생했으며, 2분기에도 80억 달러의 추가 손실이 있을 것으로 추산했다. 그럼에도 엔비디아는 2분기(5~7월) 매출 가이던스를 약 450억 달러로, 기존 증권가 컨센서스인 455억에 근접한 수준을 제시했다. H20의 수출 금지에도 최신형 AI 반도체인 블랙웰 시리즈의 수요가 견조한 덕분이다. 문준호 삼성증권 연구원은 "엔비디아의 2분기 매출 전망치는 전분기 대비 2% 증가에 그치나, H20의 손실 반영을 제외하면 14%의 성장세"라며 "그만큼 블랙웰의 수요는 같은 기간 더 좋아졌고, 이번 실적 발표에서 불확실성 요인이 다수 해소된 것도 중요한 대목"이라고 설명했다. GB300 양산 임박…SK하이닉스 HBM 훈풍 나아가 엔비디아는 올 하반기에도 전 세계 AI 인프라 투자로 인한 지속적인 성장을 자신했다. 젠슨 황 엔비디아 CEO는 ▲ 추론형 AI의 수요 증가 ▲ AI 확산 규정의 철폐 ▲ 엔터프라이즈 AI 시장의 본격적인 성장 ▲ 리쇼어리 정책 대두로 인한 '옴니버스' 등 산업용 AI 수요 증가 등 네 가지를 주요 배경으로 꼽았다. 견조한 AI 산업의 성장세는 국내 메모리 제조업체인 삼성전자, SK하이닉스에게도 긍정적이다. 특히, AI 반도체의 핵심인 HBM(고대역폭메모리)를 엔비디아 주력으로 공급하는 SK하이닉스의 매출 확대가 두드러질 전망이다. 엔비디아는 올 하반기 12단 HBM3E(5세대 HBM)를 탑재한 최신형 AI 반도체 'GB300'를 출시할 예정이다. GB300은 이달 초 주요 CSP(클라우드서비스제공자)에게 샘플이 공급됐으며, 오는 7월께 양산이 시작될 것으로 예상된다. 엔비디아 역시 GB300에 당초 적용하기로 했던 신규 보드 플랫폼의 채용을 미루는 등 제품 안정성 강화에 만전을 기하는 분위기다. SK하이닉스와 엔비디아간 내년 HBM 공급량 협의도 마무리 단계에 접어들었다. 이르면 다음달 최종 결정이 내려질 것으로 알려졌다. 특히, 엔비디아의 차세대 AI 반도체인 '루빈'에 탑재되는 HBM4(6세대 HBM)의 가격 및 물량이 주요 변수로 작용하고 있다.

2025.05.29 14:07장경윤

퓨어스토리지-SK하이닉스, 차세대 플래시로 AI 데이터센터 혁신

퓨어스토리지가 SK하이닉스와 차세대 플래시 스토리지를 개발해 대용량 데이터 처리와 에너지 효율성 요구가 높은 환경에 최적화된 솔루션을 제공할 방침이다. 퓨어스토리지는 기존 하드디스크드라이브 기반 스토리지의 한계를 넘어 고성능·고밀도·저전력 스토리지 솔루션을 개발하기 위해 SK하이닉스와 협력했다고 28일 밝혔다. 이번 협력은 엑사스케일·인공지능(AI) 워크로드를 지원할 수 있는 초고속·저지연·고신뢰성 솔루션 제공에 초점 맞췄다. 이번에 선보이는 솔루션은 다이렉트플래시 모듈이다. SK하이닉스의 쿼드 레벨 셀(QLC) 낸드 플래시 메모리와 퓨어스토리지의 데이터 스토리지 플랫폼이 통합돼 제작된다. 이 제품은 하이퍼스케일러 환경의 까다로운 요구를 충족하기 위해 설계돼 데이터 병목현상 완화와 생산성 향상에 기여할 전망이다. 두 기업은 이번 소루션이 기존 하드디스크(HDD) 기반 스토리지 대비 전력 소비를 획기적으로 절감할 수 있다고 밝혔다. 이를 통해 전력 공급 제약을 해소하고 운영 비용을 낮추며 기업의 탄소 발자국 감소까지 기대할 수 있다는 설명이다. 확장성 측면에서도 랙 밀도가 높고 우수한 총소유비용(TCO) 효율을 제공해 복잡한 스토리지 확장 요구에 대응한다. AI 인프라와 대규모 데이터센터 운영자에게 특히 매력적인 선택지로 평가된다. 퓨어스토리지 빌 세레타 하이퍼스케일 부문 총괄은 "SK하이닉스의 QLC 제품과 우리 호스트 기반 플래시 관리 아키텍처 결합은 하이퍼스케일 프로덕션 환경과 AI 인프라 최적화에 큰 의미가 있다"며 "성능과 확장성 신뢰성 에너지 효율성을 개선해 데이터 중심 산업의 복잡한 요구를 해결할 것"이라고 밝혔다. SK하이닉스 이상락 글로벌 세일즈 마케팅 부사장은 "하이퍼스케일러들은 혁신 잠재력을 극대화할 데이터 스토리지를 끊임없이 찾고 있다"라며 "이번 협력은 폭증하는 데이터 볼륨을 첨단 친환경 스토리지 솔루션으로 대응할 수 있도록 지원한다"고 말했다.

2025.05.28 11:39김미정

빅테크, AI 인프라에 공격적 투자…삼성·SK도 서버용 메모리 집중

글로벌 빅테크들이 최근 실적발표를 통해 공격적인 AI 인프라 투자 계획을 밝혔다. 최근 대외적 불확실성이 높아진 상황에서도 AI 서버에 대한 수요가 여전히 높다는 판단에서다. 국내 삼성전자, SK하이닉스 등 주요 반도체 기업들도 올해 서버용 메모리 사업 확대에 나설 것으로 관측된다. 4일 업계에 따르면 글로벌 주요 CSP(클라우드서비스제공자) 기업들은 올해 AI 인프라 투자 규모를 확대하기로 했다. 메타는 지난 1일 실적발표 컨퍼런스콜에서 올해 자본 지출액 전망치를 기존 600억~650억 달러에서 640억~720억 달러로 상향했다. 데이터센터 및 AI 인프라 관련 파드웨어의 예상되는 비용 증가를 반영했다. 전년 투자규모(392억) 대비 크게 늘어난 수치다. 경쟁사들 역시 올해 AI 인프라 투자 비용을 당초 계획대로 전년 대비 크게 늘리기로 했다. 최근 도날드 트럼프 미국 행정부의 관세 정책에 따른 시장 위축 우려에도, 여전히 AI 데이터센터 수요가 공급을 웃돌고 있다는 판단이 작용한 것으로 풀이된다. 같은 날 실적을 발표한 아마존은 올해 1천억 달러를 투자한다. 전년 대비 20%가량 증가한 규모다. 회사는 컨퍼런스콜에서 "투자의 대부분은 AWS(아마존웹서비스) 성장을 지원하기 위한 인프라에 쓰일 것으로 예상한다"고 밝혔다. 마이크로소프트도 올해 AI 데이터센터에 전년 대비 약 44% 증가한 800억 달러를 투자하겠다는 기존 계획을 견지했다. 구글(알파벳)도 전년 대비 43% 증가한 750억 달러를 AI 인프라에 쏟는다. 이에 따라 국내 주요 반도체 기업들도 AI 서버용 고부가 메모리 사업 확대에 집중할 계획이다. 현재 이들 기업은 최선단 공정 기반의 DDR5와 HBM(고대역폭메모리), 서버용 eSSD 비중을 크게 늘려나가고 있다. 삼성전자는 최근 1분기 실적발표 컨퍼런스콜에서 "올 하반기 신규 GPU 출시와 맞물려 AI 서버향 수요 견조세가 지속될 전망"이라며 "순연됐던 데이터센터 프로젝트들이 재개되면서 서버용 SSD 수요도 반등을 기대한다"고 밝혔다. 구체적으로, 삼성전자는 올 하반기 HBM3E 12단 개선품과 128GB(기가바이트) 이상의 고용량 DDR5 판매를 늘릴 예정이다. 낸드에서는 가장 진보된 PCIe Gen5 SSD 수요에 대응하기로 했다. SK하이닉스도 고용량 서버 시장의 중장기적 성장 가능성을 높게 평가하고 있다. 딥시크와 같은 저비용·고효율 AI 모델 역시 메모리 수요를 견인할 것으로 내다봤다. SK하이닉스는 "올해 생성형 AI 서비스에 대한 요구가 증대되면서 추가적인 메모리 및 인프라가 필요해지고 있다"며 "D램 및 HBM 뿐만 아니라 고성능 TLC(트리플레벨셀) eSSD 수요가 증가할 것으로 기대되고, 고용량 QLC(쿼드레벨셀) eSDD 시장에서도 유의미한 변화가 예상된다"고 강조했다.

2025.05.04 10:30장경윤

1분기 7.4조 쓸어담은 SK하이닉스, 2분기 '사상 최대' 영업익 쏜다

SK하이닉스의 영업이익 성장세가 2분기에도 지속될 전망이다. 주요 매출원인 D램의 출하량을 10% 이상 확대하고, 가장 최신의 HBM(고대역폭메모리) 판매 비중도 크게 늘어나기 때문이다. 기존 SK하이닉스의 분기 최대 영업이익(2024년 4분기 8조828억원)도 웃돌 가능성이 매우 유력하다. 25일 업계에 따르면 SK하이닉스는 올 2분기 최소 8조원 중후반대의 영업이익을 기록할 것으로 전망된다. 2분기 영업이익, 최소 8조원 중후반대 예상…최대 실적 예고 앞서 SK하이닉스는 올 1분기 매출액 17조6천391억원, 영업이익 7조4천405억원을 기록한 바 있다. 영업이익률은 42%로, SK하이닉스 기준 역대 최대의 수익성을 거뒀다. 주요 배경은 HBM을 비롯한 고부가 메모리 판매 확대다. 1분기 실적에 대해 SK하이닉스는 “1분기는 AI 개발 경쟁과 재고 축적 수요 등이 맞물리며 메모리 시장이 예상보다 빨리 개선되는 모습을 보였다”며 “이에 맞춰 HBM3E 12단, DDR5 등 고부가가치 제품 판매를 확대했다”고 설명했다. 나아가 SK하이닉스는 올 2분기 역대 최대 영업이익 경신이 확실시되는 상황이다. 메모리 출하량이 전분기 대비 두 자릿 수로 늘어나고, 최선단 HBM 출하량 비중이 크게 확대되기 때문이다. 업계가 추산하는 SK하이닉스의 해당 분기 영업이익은 8조원 중후반대에서 최대 9조원에 이른다. 현재 SK하이닉스의 최대 분기 영업이익은 지난해 4분기 기록한 8조828억원이다. D램 출하량·최선단 HBM 비중 확대가 요인 SK하이닉스는 해당 분기 D램 및 낸드 출하량을 전분기 대비 각각 10% 초반, 20% 이상 늘리겠다는 목표를 제시했다. 주요 매출원인 D램의 ASP(평균판매가격)는 제품별로 등락이 있겠으나, 전반적으로 보합세를 나타낼 전망이다. 시장조사업체 트렌드포스는 올 2분기 미국 관세 정책에 따른 고객사의 재고 확보 노력으로 D램과 낸드 가격이 모두 3~8%가량 상승할 것으로 내다보기도 했다. 반도체 업계 관계자는 "D램 가격에 대한 불확실성은 다소 높지만, 빗그로스(비트 생산량 증가율)이 10% 이상 증가하면서 영업이익은 또 한번 성장세를 나타낼 것"이라며 "특히 SK하이닉스는 서버용 D램, HBM3E(5세대 HBM)의 비중이 높아 수익성 측면에서는 경쟁사 대비 유리한 입지에 놓여 있다"고 설명했다. 실제로 SK하이닉스는 올 상반기 현존하는 가장 최신 HBM인 HBM3E 12단 제품의 비중 확대에 주력하고 있다. 2분기에는 기존 계획대로 전체 HBM3E 출하량의 절반 이상을 12단으로 판매할 예정이다.

2025.04.25 08:59장경윤

SK하이닉스, 2분기도 D램·낸드 출하량 확대…"美 관세 영향 제한적"

SK하이닉스가 대외적인 경제 불확실성이 높아진 상황에서도 메모리 업계에 미칠 영향은 아직 제한적일 것으로 내다봤다. HBM(고대역폭메모리) 역시 수요 변동성이 없어, 기존 계획대로 올해 사업을 진행할 계획이다. SK하이닉스는 24일 2025년 1분기 실적발표 컨퍼런스콜에서 올해 메모리 사업에 대한 전망 및 대응 전략에 대해 이같이 밝혔다. 2분기 D램·낸드 출하량 확대…HBM 사업도 굳건 SK하이닉스가 제시한 2분기 메모리 빗그로스(비트 생산량 증가율)는 D램이 전분기 대비 10% 초반, 낸드는 20% 이상이다. 올 1분기 D램 및 낸드의 출하량이 전분기 대비 감소했던 데 따른 기조 효과와 더불어, 단기적인 메모리 수요 증가가 영향을 끼친 것으로 풀이된다. 1분기에는 중국 이구환신 정책에 따른 시장 활성화, 미국 관세 정책을 우려한 일부 고객사들의 재고 축적 효과가 발생했다. HBM(고대역폭메모리) 역시 기존 전망대로 견조한 수요가 예상된다. SK하이닉스는 "올해 HBM 수요 전망은 전년대비 약 2배 성장할 것"이라며 "HBM3E 12단 전환도 순조롭게 진행되고 있어, 2분기에는 기존 계획대로 HBM3E 출하량의 절반 이상이 12단으로 판매될 예정"이라고 밝혔다. 미국 관세 정책, 저비용 AI 모델 확대 등 악영향 제한적 현재 업계는 중국 딥시크와 같은 고효율·저비용 AI 모델의 등장, 미국의 관세 정책에 따른 수요 불확실성 등을 우려하고 있다. 다만 SK하이닉스는 영향력이 제한것일 것으로 내다봤다. SK하이닉스는 "오픈AI o3나 딥시크 R1은 정교한 결과 도출을 위해 더 많은 메모리를 요구하기 때문에, 추가적인 고용량 메모리 수요를 창출하는 원인 중 하나"라며 "당사도 DDR5 기반 96GB 모듈의 수요 증가를 경험했고, 올해 고용량 DIMM 수요는 지속 증가할 것으로 전망한다"고 밝혔다. 회사는 이어 "관세의 경우 세부 내용이 정해지지 않아, 2분기 풀-인 수요가 하반기 재고조정 리스크를 야기할만큼 크지는 않을 것"이라며 "공급사들도 시장 불확실성을 반영해 계획을 조절하므로 팬데믹 때와 같은 변동성은 없을 것"이라고 덧붙였다.

2025.04.24 10:45장경윤

2분기 D램·낸드 가격, 3~8% 상승 전망…美 관세 영향

올 2분기 메모리 시장이 반등세에 접어들 것으로 예상된다. 최근 미국 정부의 관세 정책으로 업계 불확실성이 높아지면서, 메모리 고객사가 재고를 적극 확보하려고 나섰기 때문이다. 다만 이러한 수요는 단기적인 현상으로, 향후 반도체 관세 정책의 방향에 따라 올 하반기 메모리 시장이 크게 요동칠 전망이다. 17일 시장조사업체 트렌드포스에 따르면 올 2분기 D램 및 낸드의 평균판매가격(ASP)은 전분기 대비 3~8% 증가할 것으로 관측된다. 메모리 시장은 지난 1분기 전반적인 하락세를 보인 바 있다. 해당 분기 범용 D램 가격은 8~13%, HBM(고대역폭메모리)는 0~5% 가량 하락했다. 낸드는 15~20%로 하락폭이 더 컸다. 그러나 올 2분기에는 D램과 HBM, 낸드 모두 가격이 전분기 대비 3~8% 상승할 전망이다. 지난 9일 도날드 트럼프 미국 대통령이 전 세계를 대상으로 발표한 상호 관세 정책으로 업계의 불확실성이 높아지면서, 메모리 고객사들이 재고 확보에 적극적으로 나서고 있기 때문이다. 트렌드포스는 "미국 정부가 대부분의 지역에 90일간의 상호 관세 유예 기간을 부여하면서, 메모리 공급사와 구매자 모두 거래를 서두르고 있다"며 "이에 따라 2분기 D램과 낸드의 가격 상승폭이 예상보다 확대될 것"이라고 밝혔다. 다만 이러한 상승세는 단기적인 영향에 머무를 것으로 분석된다. 트렌드포스는 "관세 변동에 더 민감한 미국 브랜드와 수출 업체의 수요가 올 상반기까지 크게 앞당겨지면서 계절적 추세가 흐트러질 것"이라며 "결과적으로 향후 미국 관세의 향방이 올 하반기 메모리 공급 및 수요 동향과 가격 추세를 형성하는 주요 요인이 될 것"이라고 설명했다.

2025.04.18 08:48장경윤

700조원 투자한다 했는데...美, 엔비디아 'H20' 무기한 수출 규제

엔비디아의 중국향 AI 가속기가 수출 규제 명단에 포함된 것으로 나타났다. 이에 따라 엔비디아는 올 1분기 약 7조4천억원에 이르는 비용을 처리하게 됐다. 최근 엔비디아는 미국 내 700조원에 이르는 대규모 투자를 발표하는 등 적극적으로 대응책을 펼쳤으나, 미중 갈등에 따른 여파를 피하지 못했다. 15일 엔비디아는 미국 정부로부터 자사의 AI 반도체 'H20'에 대한 무기한 수출 규제를 통보받았다고 공시했다. 엔비디아는 "미국 정부는 당사가 H20을 중국(홍콩 및 마카오 포함)이나 중국에 본사를 둔 기업들에 수출할 경우, 수출 허가를 취득해야 한다고 요구했다"며 "추가로 미국 정부는 해당 수출 규제가 무기한으로 유효할 것이라고 통보했다"고 밝혔다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 미국 정부의 통보로 엔비디아는 오는 4월 27일 종료되는 2026년 회계연도 1분기에 H20 수출 규제에 따른 손실을 반영할 계획이다. 엔비디아에 따르면, H20 제품과 관련한 재고, 구매 계약, 기타 관련 충당금 등으로 약 55억 달러(한화 약 7조4천억원)의 비용이 발생할 것으로 분석된다. 앞서 엔비디아는 바로 전날 미국에 향후 4년간 최대 5천억(한화 약 700조원) 달러의 AI 인프라를 구축하겠다고 밝힌 바 있다. 애리조나주와 텍사스주에 약 30만평의 부지를 확보해 AI 반도체 및 AI 슈퍼컴퓨터 제조 공장을 설립하는 것이 주 골자다. 이에 업계는 도널드 트럼프 미국 대통령이 H20에 대한 수출 규제를 완화하거나 철회할 것으로 예상해 왔다. 그러나 미국 정부가 수출 규제에 대해 완강한 입장을 취하면서, 세계 AI 반도체 시장을 둘러싼 불확실성은 더욱 커질 전망이다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다. 채민숙 한국투자증권 연구원은 "삼성전자는 아직 H20용으로 HBM 판매가 없고, SK하이닉스는 H20용 HBM에 대한 추가 판매를 3월 완료해 엔비디아처럼 재고 손실처리 등의 비용 반영은 없을 것"이라며 "H20은 기존 계획 대비 추가된 물량이므로 제재로 인한 연간 HBM 계획 변동 및 실적 추정치 변경은 없을 것으로 추정한다"고 설명했다.

2025.04.16 09:42장경윤

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환

SK하이닉스, 42년만에 삼성전자 제치고 D램 점유율 1위 등극

SK하이닉스가 창립 42년만에 삼성전자의 D램 매출액을 추월한 것으로 나타났다. 올 1분기 시장 점유율은 36%로, HBM(고대역폭메모리) 부문에서 70%에 달하는 점유율을 차지한 것이 주요 배경으로 지목된다. 9일 시장조사업체 카운터포인트리서치에 따르면 올 1분기 전 세계 D램 시장에서 SK하이닉스가 매출액 기준 36%의 점유율로 1위를 차지했다. SK하이닉스가 삼성전자를 제치고 점유율 1위를 기록한 것은 이번이 처음이다. 같은 기간 삼성전자의 점유율은 34%로 집계됐다. 3위 마이크론의 점유율은 25% 수준이다. 카운터포인트 최정구 책임연구원은 “이번 성과는 SK하이닉스가 HBM 메모리에 대한 수요가 끊이지 않는 시장에서 D램을 성공적으로 공급하고 있다는 점에서 중요한 이정표가 됐다”며 “특화된 HBM D램 칩의 제조는 매우 까다로운 과정이었지만, 이를 초기부터 성공적으로 생산해온 기업들이 이제 큰 성과를 거두고 있다”고 말했다. 앞서 지난 8일 잠정실적을 발표한 삼성전자는 올 1분기 D램에서 약 12~14조원 안팎의 매출을 올렸을 것으로 관측된다. SK하이닉스 역시 이와 비슷한 수준의 매출액을 기록한 것으로 보인다. 실제로 업계는 올 1분기 SK하이닉스가 삼성전자의 D램 매출액을 처음으로 역전했을 거라는 분석을 제기해 왔다. 삼성전자의 HBM 공급량이 지난해 4분기 대비 크게 감소한 것과 달리, SK하이닉스는 HBM3E 12단 등 고부가 HBM의 출하량을 견조하게 유지했기 때문이다. 카운터포인트는 올해 2분기에도 D램 시장의 성장 및 업체 점유율 양상은 비슷할 것으로 전망했다. 카운터포인트 황민성 연구위원은 “전세계가 관세 영향에 주목하고 있는 상황에서 관건은 'HBM D램이 과연 어떻게 될 것인가'라는 점”이라며 “적어도 단기적으로는 AI 수요가 강세를 유지하며 관세 충격의 영향을 덜 받을 가능성이 크다. 중요한 것은 HBM의 최종 제품이 AI 서버라는 사실이며, 이는 본질적으로 국경을 넘어선 시장”이라고 설명했다. 다만 황 연구위원은 "그럼에도 불구하고 장기적으로는 HBM D램 시장의 성장이 관세 충격으로 인한 구조적인 문제에 직면할 위험이 존재한다"며 "이는 경기 침체 또는 불황까지 초래할 수 있을 것으로 전망된다"고 덧붙였다.

2025.04.09 14:34장경윤

최준용 SK하이닉스 부사장 "HBM4E 적기 공급…리더십 공고히할 것"

"올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론, 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다. 시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다." 최준용 SK하이닉스 부사장은 7일 SK하이닉스 공식 뉴스룸을 통해 진행한 인터뷰에서 HBM 사업 전략에 대해 이같이 밝혔다. 최 부사장은 1982년생으로, HBM사업기획을 총괄하는 최연소 임원으로 선임됐다. 모바일 D램 상품기획 팀장을 거치고, HBM사업기획을 담당하는 등 주로 HBM 사업의 성장을 이끌어온 핵심 인물 인물로 평가받는다. 최 부사장은 HBM사업기획 조직의 원동력으로 '자부심'을 꼽았다. 그는 강한 책임감과 자부심으로 HBM 사업의 성장을 견인해 온 구성원들에게 새로운 에너지를 불어넣어 조직의 더 큰 성장을 이끌겠다는 강한 의지를 밝혔다. 그는 "HBM사업기획 조직은 막대한 규모의 투자와 전략적 방향을 결정하는 핵심 조직으로, 기술 개발 로드맵 수립부터 전 세계 고객들과의 협력에 필요한 전략을 마련하는 등 중요한 역할을 하고 있다"며 "새롭게 선임된 리더로서 구성원들이 원 팀 마인드로 뭉쳐 함께 성장하고 최고의 성과를 창출할 수 있도록 돕는 것이 제 역할이라고 생각한다"고 말했다. AI 기술이 눈부시게 진보하면서 반도체에 대한 수요가 그 어느 때보다 많아지고 있다. HBM은 AI 메모리가 가장 필요로 하는 전력 효율성(Power)과 성능(Performance)에 가장 최적화된 제품으로 앞으로도 그 중요성은 더욱 커질 것으로 전망된다. 최 부사장은 이를 바탕으로 더 먼 미래를 내다보며, 회사가 HBM 시장에서 주도적인 위치를 이어갈 수 있도록 선봉에서 최선을 다하겠다고 밝혔다. 최 부사장은 "올해 HBM4 12단 양산을 성공적으로 진행하는 것은 물론 고객 요구에 맞춰 HBM4E도 적기에 공급함으로써 HBM 리더십을 더욱 공고히 하겠다"며 "시장을 선제적으로 준비하고 최적화된 사업 기획을 할 수 있도록 최선을 다하겠다"고 강조했다. 최 부사장은 끝으로 젊은(MZ) 구성원들을 'Motivated & Zealous(동기부여가 만드는 열정적인 인재들)'로 설명하며, 그들이 새로운 기회와 목표에 맞서 성장할 수 있도록 동기를 부여하는 리더가 되겠다고 강조했다. 이어서 그는 구성원들에게 한 가지를 약속했다. 최 부사장은 “저는 제 자신을 스스로 새장에 가두지 않는 소통의 리더가 되고자 한다. 다양한 관점이 담긴 구성원들의 아이디어를 경청하며, 함께 최적의 방향을 만들어 나가겠다"며 "구성원들이 부담 없이 많은 이야기를 들려주실 수 있도록 제 자리를 언제든 열어 놓겠다"고 말했다.

2025.04.07 15:10장경윤

SK하이닉스 "차세대 HBM 성패, 세 가지 과제가 중요"

SK하이닉스가 차세대 HBM(고대역폭메모리) 상용화를 위해 다방면의 기술 고도화가 필요하다고 강조했다. 특히 전력 효율성의 경우, 주요 파운드리 기업과의 협력이 보다 긴밀해질 것으로 관측된다. 이규제 SK하이닉스 부사장은 2일 인천 송도 컨벤시아에서 열린 'KMEPS 2025년 정기학술대회'에서 HBM의 개발 방향에 대해 발표했다. 이 부사장은 이날 SK하이닉스의 차세대 HBM 개발을 위한 과제로 ▲대역폭(Bandwith) ▲전력소모(Power) ▲용량(Capacity) 세 가지를 강조했다. 대역폭은 데이터를 얼마나 빨리 전송할 수 있는지 나타내는 척도다. 대역폭이 높을수록 성능이 좋다. 대역폭을 늘리기 위해선 일반적으로 I/O(입출력단자) 수를 증대시켜야 한다. 실제로 HBM4(6세대)의 경우, HBM3E(5세대) 대비 I/O 수가 2배 늘어난 2천48개가 된다. 이 부사장은 "고객사들은 SK하이닉스가 만들 수 있는 것보다 높은 대역폭을 원하고 있고, 일각에서는 I/O수를 4천개까지 얘기하기도 한다"며 "그러나 I/O 수를 무작정 늘린다고 좋은 건 아니기 때문에, 기존 더미 범프를 실제 작동하는 범프로 바꾸는 등의 작업이 필요할 것"이라고 설명했다. 결과적으로 차세대 HBM은 전력소모와 용량 면에서 진보를 이뤄야 할 것으로 관측된다. 특히 전력소모의 경우, 로직 공정과의 연관성이 깊다. HBM은 D램을 적층한 코어다이의 컨트롤러 기능을 담당하는 로직다이가 탑재된다. 기존에는 이를 SK하이닉스가 자체 생산했으나, HBM4부터는 이를 파운드리에서 생산해야 한다. 이 부사장은 "HBM의 로직 공정은 주요 파운드리 협력사와의 협업이 굉장히 중요한데, 이런 부분에서 긴밀한 설계적인 협업이 있다"며 "SK하이닉스도 패키지 관점에서 여러 아이디어를 내고 있다"고 설명했다. HBM의 용량은 D램의 적층 수와 직결된다. 현재 상용화된 HBM은 D램을 최대 12개 적층하나, 향후에는 16단, 20단 등으로 확대될 예정이다. 다만 차세대 HBM을 제한된 규격(높이 775마이크로미터) 내에서 더 많이 쌓기 위해서는 각 D램의 간격을 줄여야 하는 난점이 있다. 예를 들어, HBM이 12단에서 16단으로 줄어들게 되면 각 D램간의 간격은 절반으로 감소된다. 때문에 SK하이닉스는 기존 어드밴스드 MR-MUF와 더불어 하이브리드 본딩 기술을 고도화하고 있다. 하이브리드 본딩은 범프를 쓰지 않고 각 D램을 직접 연결하는 방식으로, 칩 두께를 줄이고 전력 효율성을 높이는 데 유리하다. 다만 하이브리드 본딩도 현재로선 상용화에 무리가 있다. 기술적 난이도가 높아, 양산성 및 신뢰성을 충분히 확보해야 한다는 문제가 남아있기 때문이다. 이 부사장은 "차세대 HBM 개발과 관련해 위와 같은 세가지 요소가 굉장히 복잡하게 얽혀있는 상황"이라며 "이외에도 차세대 HBM 시장에서는 메모리 기업들이 제조원가를 어떻게 줄이느냐가 가장 중요한 과제가 될 것으로 생각한다"고 설명했다.

2025.04.02 17:30장경윤

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤

SK하이닉스, 세계 최초 'HBM4' 12단 샘플 공급 시작

SK하이닉스가 AI용 초고성능 D램 신제품인 HBM4 12단 샘플을 세계 최초로 주요 고객사들에 제공했다고 19일 밝혔다. SK하이닉스는 "HBM 시장을 이끌어온 기술 경쟁력과 생산 경험을 바탕으로 당초 계획보다 조기에 HBM4 12단 샘플을 출하해 고객사들과 인증 절차를 시작한다"며 "양산 준비 또한 하반기 내로 마무리해, 차세대 AI 메모리 시장에서의 입지를 굳건히 하겠다"고 강조했다. 이번에 샘플로 제공한 HBM4 12단 제품은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 갖췄다. 12단 기준으로 용량도 세계 최고 수준이다. 우선 이 제품은 처음으로 초당 2TB(테라바이트) 이상의 데이터를 처리할 수 있는 대역폭을 구현했다. 이는 FHD(Full-HD)급 영화(5GB=5기가바이트) 400편 이상 분량의 데이터를 1초 만에 처리하는 수준으로, 전세대(HBM3E) 대비 60% 이상 빨라졌다. HBM 제품에서 대역폭은 HBM 패키지 1개가 초당 처리할 수 있는 총 데이터 용량을 뜻한다. 아울러 회사는 앞선 세대를 통해 경쟁력이 입증된 어드밴스드(Advanced) MR-MUF 공정을 적용해 HBM 12단 기준 최고 용량인 36GB를 구현했다. 이 공정을 통해 칩의 휨 현상을 제어하고, 방열 성능도 높여 제품의 안정성을 극대화했다. SK하이닉스는 2022년 HBM3를 시작으로 2024년 HBM3E 8단, 12단도 업계 최초 양산에 연이어 성공하는 등 HBM 제품의 적기 개발과 공급을 통해 AI 메모리 시장 리더십을 이어왔다. 김주선 SK하이닉스 AI Infra(인프라) 사장(CMO)은 “당사는 고객들의 요구에 맞춰 꾸준히 기술 한계를 극복하며 AI 생태계 혁신의 선두주자로 자리매김했다”며 “업계 최대 HBM 공급 경험에 기반해 앞으로 성능 검증과 양산 준비도 순조롭게 진행할 것”이라고 말했다.

2025.03.19 09:58장경윤

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

[단독] "헝그리판다 전자담배 판매 청소년보호법 위반"

하정우 AI수석 "앞으로 3~5년 'AI 골든타임', 국가경쟁력 기여하겠다"

악성코드 없이 공격하는 '고스트 해커' 떴다…"보안 자동화 필수"

'민생 추경' 20조 투입…전국민에 최소 15만원 지급해 경기진작

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현