• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI 데이터센터'통합검색 결과 입니다. (78건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

빅테크 AI 인프라 투자 확대 지속…삼성·SK 메모리 사업에 '단비'

마이크로소프트(MS), 메타, 구글 등 글로벌 빅테크들이 올해 공격적인 AI 인프라 투자를 예고했다. 이에 따라 HBM(고대역폭메모리), 고용량 D램·낸드 등을 양산하는 국내 반도체 기업들도 실적 개선에 긍정적인 영향을 얻을 것으로 기대된다. 1일 업계에 따르면 글로벌 빅테크 기업들의 올해 AI 인프라 투자 성장률은 당초 예상보다 확대될 전망이다. 이번 주 실적 발표를 진행한 메타는 올해 연간 설비투자(Capex) 전망치를 기존 640억~720억 달러에서 660억~720억 달러로 최저치를 상향 조정했다. 중간값인 690억 달러를 기준으로, 전년 대비 약 300억 달러가 증가하는 수준이다. 메타는 해당 설비투자의 대부분을 서버 및 데이터센터, 네트워크 인프라 분야에 집중할 예정이다. 나아가 내년 설비투자에 대한 전망에 대해서도 "올해와 비슷한 규모의 투자 증가가 이어질 것으로 예상한다"고 밝혔다. 같은 날 마이크로소프트는 2026 회계연도 1분기(2025년 7~9월) AI 서비스 지원을 위한 데이터센터 확충에 300억 달러 이상의 자본을 지출할 것이라고 발표했다. 전년 대비 50% 이상 증가한 규모이자, 증권가 예상치인 237억 달러를 크게 상회했다. 로이터통신은 "이러한 추세라면 마이크로소프트는 이번 회계연도 AI에 약 1천200억 달러를 지출하게 된다"고 설명했다. 이처럼 글로벌 빅테크의 AI 인프라 투자는 당초 예상보다 증가할 것으로 기대된다. 황수욱 메리츠증권 연구원은 "구글·메타·마이크로소프트 세 회사의 올해 설비투자 성장률은 추정치는 이전 48.8%에서 58.8%로 높아졌다"며 "전년 성장률이 53.4%였던 점을 고려하면 작년보다 올해 성장률이 높아진 것"이라고 밝혔다. 삼성전자, SK하이닉스 등 국내 반도체 기업에게도 AI 인프라 투자 확대는 긍정적인 요소다. 이들 기업은 AI 데이터센터에 필요한 D램·낸드 등 고부가 메모리를 공급하고 있다. 특히 HBM은 AI 가속기와 함께 강력한 성장세를 나타내고 있다. 실제로 SK하이닉스는 올 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원으로 역대 최대 실적을 기록했다. 글로벌 빅테크의 AI 메모리 수요 증가에 따라 D램과 낸드 모두 예상을 웃도는 출하량을 기록한 것이 주요 배경이다. 이에 맞춰 SK하이닉스는 AI 메모리 시장 선점을 위한 차세대 제품 개발에 주력하고 있다. 서버용 LPDDR 기반 최신형 모듈인 'SoCAMM(소캠)'의 공급을 연내 시작하며, AI GPU용 GDDR7은 용량을 24Gb(기가비트)로 확대한 제품을 준비한다. 올해 설비투자 규모를 늘려 HBM 생산능력 확대에도 나선다. 삼성전자도 올 3분기 소캠 양산을 시작하고, HBM3E의 비중을 적극 확대할 예정이다. 올 하반기에는 전체 HBM 사업에서 HBM3E가 차지하는 비중이 90%를 넘어설 것으로 전망된다. 또한 차세대 AI 시장을 겨냥한 HBM4용 1c D램의 양산 전환 승인을 완료하고, HBM4 샘플을 고객사에 공급했다.

2025.08.01 10:45장경윤

HBM3E '가격 하락' 가능성 언급한 삼성전자…속내는

삼성전자가 HBM3E(5세대 고대역폭메모리) 가격이 하락할 수 있음을 암시했다. 공급이 시장 수요를 웃돌면서 수급의 변화가 예상된다는 게 주요 근거다. 다만 업계는 삼성전자가 주요 고객사향 HBM3E 12단 상용화를 위해 펼치고 있는 가격 인하 정책도 적잖은 영향을 끼쳤을 것으로 보고 있다. 31일 삼성전자는 2분기 실적발표 컨퍼런스콜에서 "HBM3E 제품의 경우 수요 성장속도를 상회하는 공급 증가로 수급의 변화가 예상된다"며 "당분간 시장 가격에도 영향이 있을 것으로 전망한다"고 밝혔다. 회사는 이어 "실제로 하반기 컨벤셔널 D램의 가격 상승세를 감안하면 앞으로 HBM3E와 컨벤셔널 D램 수익률 격차는 가파르게 축소될 것으로 판단된다"고 설명했다. HBM3E는 현재 상용화된 가장 최신 세대의 D램이다. D램 적층 수에 따라 8단과 12단으로 나뉜다. 엔비디아, AMD 등 글로벌 빅테크가 최신형 AI 가속기를 출시함에 따라, HBM3E 12단에 대한 수요 증가세가 올해 크게 두드러질 전망이다. 그럼에도 삼성전자는 HBM3E의 공급 과잉 가능성을 언급하며 수익성 최적화를 위한 운영 전략의 필요성을 강조했다. SK하이닉스·마이크론 등 주요 경쟁사가 HBM3E 12단을 적극 양산하고 있다는 점을 반영한 것으로 풀이된다. 삼성전자의 공격적인 HBM3E 마케팅 전략도 큰 영향을 끼칠 것이라는 게 업계의 시각이다. 복수의 반도체 업계 관계자는 "삼성전자가 엔비디아향 HBM3E 12단 상용화가 지연되는 상황에서, 가격 인하 등 다양한 제안을 건넨 것으로 안다"며 "실제 공급 성공 여부에 따라 HBM 시장에 변화가 생길 것"이라고 밝혔다.

2025.07.31 13:23장경윤

SK하이닉스 미래 성장성, HBM4 가격협상·수익 방어에 달렸다

SK하이닉스가 올 2분기 역대 최대 실적을 기록한 가운데, 미래 AI 메모리 수요 대응을 위한 제품 개발·설비투자에 적극 나선다. 특히 내년에도 HBM(고대역폭메모리) 시장 우위를 지속하기 위한 준비에 주력한다는 계획이다. 관건은 수익성 방어다. 차세대 제품인 HBM4는 제조비용 상승, 후발주자와의 경쟁 심화 등으로 내년 견조한 공급량 및 가격 확보가 쉽지 않을 것으로 전망된다. 다만 SK하이닉스는 HBM 공급 과잉 및 수익성 악화 등 대내외적인 우려에 대해 "HBM4는 원가 상승을 고려한 가격 정책을 최대한 반영할 수 있도록 하고 있다. 현재의 수익성을 유지하는 선에서 최적의 가격 수준을 형성하고자 한다"며 적극적인 대응을 시사했다. SK하이닉스는 지난 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원(영업이익률 41%), 순이익 6조9천962억원(순이익률 31%)을 기록했다고 24일 밝혔다. 이번 실적은 역대 최대 분기 실적에 해당한다. 매출은 전년동기 대비 35%, 전분기 대비 26% 증가했다. 영업이익은 전년동기 대비 68%, 전분기 대비 24% 증가했다. SK하이닉스의 호실적은 당초 예상을 웃도는 D램·낸드 출하량 덕분이다. 또한 고부가 제품인 HBM3E 12단의 본격적인 판매 확대도 영향을 미쳤다. 하반기 역시 급격한 수요 감소 가능성은 낮을 것으로 내다봤다. 차세대 제품 개발·설비투자 확대로 미래 수요 대응 이에 맞춰 SK하이닉스는 AI 메모리 시장 선점을 위한 차세대 제품 개발에 주력하고 있다. 서버용 LPDDR 기반 최신형 모듈인 'SoCAMM(소캠)'의 공급을 연내 시작하며, AI GPU용 GDDR7은 용량을 24Gb(기가비트)로 확대한 제품을 준비한다. 낸드는 수요에 맞춘 신중한 투자 기조를 유지하나, 향후 시황 개선에 대비한 제품 개발을 지속 추진한다. 특히 QLC 기반 고용량 기업용 SSD(eSSD) 판매 확대와 321단 낸드 기반 제품 포트폴리오 구축을 통해 시장 경쟁력을 강화해 나갈 계획이다. 또한 HBM3E의 제품 성능과 양산 능력을 바탕으로, HBM 매출을 전년 대비 약 2배로 성장시키겠다는 기존 계획을 유지했다. HBM4 역시 고객 요구 시점에 맞춰 적기 공급이 가능하도록 준비해 업계 최고 수준 경쟁력을 지속 강화해 나갈 계획이다. 올해 설비투자 규모는 당초 계획 대비 확대될 전망이다. 특히 올해 말까지 구축 예정인 M15X는 내년부터 SK하이닉스의 HBM 생산에 크게 기여할 것으로 관측된다. SK하이닉스는 “내년 HBM 공급 가시성이 확보되면서 적기 대응을 위한 선제적 투자를 결정했다”며 “올해 투자 규모는 기존 계획 대비 증가하며, 대부분 HBM 장비 투자에 활용할 계획”이라고 밝혔다. 차세대 D램인 1c(6세대 10나노급) D램 전환투자도 올 하반기 시작된다. 본격적인 램프 업은 내년에 진행될 예정으로, 현재 구체적인 계획을 수립하는 중이다. 내년 HBM 사업 불확실성에도…'수익성 고수' 자신 다만 업계는 SK하이닉스의 내년 메모리 사업에 대한 불확실성을 우려해 왔다. 주요 고객사인 엔비디아와 HBM4 등 차세대 제품에 대한 공급 협의가 당초 예상보다 길어지고 있고, 삼성전자·마이크론 등 후발주자 진입에 따른 HBM 경쟁 과열이 예상된다는 시각에서다. 특히 SK하이닉스는 HBM4 사업에서 수익성 하락 압박을 받고 있다. HBM4는 이전 세대 대비 I/O(입출력단자) 수 증가, 코어 다이 면적 증가, 베이스 다이의 TSMC 외주화 등으로 제조 비용이 크게 상승할 전망이다. SK하이닉스가 이를 HBM4 판매 가격에 온전히 반영하지 못할 경우, 견조한 이익을 거두기 힘들다. 이를 위해선 HBM4의 Gb(기가바이트)당 판매 가격이 이전 세대 대비 20~30%가량 증가해야 한다는 것이 업계의 분석이다. SK하이닉스는 이에 대해 "내년 HBM 고객사와의 협의는 계획대로 진행되고 있고, 고객사 프로젝트 다앙성이 증가하며 제품 믹스와 가격 등을 긴밀히 협의하고 있다"며 "HBM4는 원가 상승을 고려한 가격 정책을 최대한 반영할 수 있도록 하고 있다. 현재의 수익성을 유지하는 선에서 최적의 가격 수준을 형성하고자 한다"고 강조했다. 내년 주요 경쟁사와의 경쟁에 대해서도 자신감을 드러냈다. SK하이닉스는 "HBM은 리딩 사업자가 일정한 협상력을 가질 수 있는 시장으로 변모했다고 판단한다"며 "SK하이닉스의 고객 지향적인 마인드와 이를 뒷받침하는 탄탄한 조직 팀워크 등 소프트한 경쟁력 요소들은 남들이 쉽게 카피할 수 없을 것"이라고 밝혔다.

2025.07.24 12:13장경윤

SK하이닉스, SoCAMM 연내 공급 개시…AI 메모리 공략 가속화

SK하이닉스가 AI 메모리 시장 선점을 위한 차세대 제품 개발에 매진하고 있다. 서버용 저전력 D램 모듈로 각광받는 소캠(SoCAMM)의 연내 공급을 시작하고, 최신형 그래픽 D램의 용량도 늘릴 계획이다. SK하이닉스는 올 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원(영업이익률 41%), 순이익 6조9천962억원(순이익률 31%)을 기록했다고 24일 밝혔다. 매출은 전년동기 대비 35%, 전분기 대비 26% 증가했다. 영업이익은 전년동기 대비 68%, 전분기 대비 24% 증가했다. 이는 지난해 4분기를 넘어선 사상 최대 분기 실적에 해당한다. SK하이닉스는 “글로벌 빅테크 기업들이 AI에 적극 투자하면서 AI용 메모리 수요가 꾸준히 늘어났다”며 “D램과 낸드 모두 예상을 웃도는 출하량을 기록하면서 역대 최고 실적을 달성했다”고 밝혔다. 나아가 회사는 AI 메모리 시장 공략을 가속화하기 위한 신제품을 지속 출시할 예정이다. SK하이닉스는 "서버용 LPDDR 기반 모듈 공급을 연내 시작하고, 현재 16Gb(기가비트)로 공급하고 있는 AI GPU용 GDDR7은 용량을 확대한 24Gb 제품도 준비할 것"이라며 "이같은 회사의 AI 메모리 제품군 다양화로 AI 시장에서의 선도적 지위는 더욱 공고해질 전망"이라고 밝혔다. 서버용 LPDDR 기반 모듈은 SoCAMM을 뜻하는 것으로 알려졌다. SoCAMM은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈이다. 저전력 D램인 LPDDR을 4개씩 집적해 전력 효율성을 높였다. 특히 데이터 전송 통로인 I/O(입출력단자) 수가 크게 늘어나 고성능 컴퓨팅 분야에 적합하다.

2025.07.24 08:57장경윤

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

삼성전자, HBM3E 12단 라인 가동률 축소…엔비디아 공급 논의 길어지나

삼성전자가 지난 2분기 말께 HBM3E(5세대 고대역폭메모리) 12단 생산량을 줄인 것으로 파악됐다. 당초 삼성전자는 올해 중반 엔비디아에 해당 제품을 공급하려고 했으나 논의가 길어지면서 하반기 수요에 대한 불확실성이 높아졌다. 이에 재고가 급증하는 위험을 줄이고자 보수적인 운영 기조로 돌아선 것으로 풀이된다. 2일 업계에 따르면 삼성전자는 최근 HBM3E 12단 양산라인의 가동률을 기존 대비 절반 수준으로 줄인 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중에서 가장 최선단에 해당하는 제품이다. 삼성전자의 경우, 평택에 위치한 P1, P3 라인에서 HBM3E 12단을 양산해 왔다. 특히 삼성전자는 지난 1분기 말부터 HBM3E 12단 생산량을 크게 늘린 바 있다. 엔비디아와의 퀄(품질) 테스트 일정이 6월경 마무리될 것이라는 전망 하에, 재고를 선제적으로 확보하기 위한 전략이었다. MI325X, MI350X 등 AMD의 최신형 AI 가속기향 HBM3E 12단 공급도 영향을 끼쳤다. 이에 따른 삼성전자의 올 2분기 HBM3E 12단 생산량은 평균 월 7~8만장 규모로 추산된다. 그러나 삼성전자는 2분기 말 웨이퍼 투입량을 급격히 줄여, 현재 월 3~4만장 수준의 생산량을 기록하고 있는 것으로 파악됐다. 주요 원인은 엔비디아향 HBM3E 12단 공급의 불확실성이 높아진 탓으로 분석된다. 당초 삼성전자는 6월을 목표로 테스트를 진행해 왔으나, 최근에는 최소 9월 테스트가 마무리 될 것이라는 전망이 우세해졌다. 여전히 발열 문제가 거론되고 있다는 게 업계 전언이다. 사안에 정통한 관계자는 "엔비디아향 공급이 지연되는 상황에서 HBM3E 12단 재고가 급격히 증가할 경우 삼성전자의 재무에 부담이 될 수 있다"며 "내년 상반기부터 HBM4 시장이 본격화될 것으로 예상되는 만큼, 삼성전자 입장에서도 보수적인 생산기조를 유지하려 할 것"이라고 밝혔다. 결과적으로 삼성전자 HBM 사업의 반등은 비(非) 엔비디아 진형의 ASIC(주문형반도체) 수요 확대에 좌우될 것으로 관측된다. 현재 구글, 메타, AWS(아마존웹서비스) 등 글로벌 빅테크들은 데이터센터를 위한 자체 AI 반도체 개발에 집중하고 있다. 해당 칩에도 HBM이 대거 탑재된다. HBM4(6세대 고대역폭메모리)의 적기 상용화 역시 주요 과제다. 현재 삼성전자는 HBM4의 코어 다이인 1c(6세대 10나노급) D램 개발에 주력하고 있으며, 일부 회로를 개조해 안정성을 끌어올리는 작업 등을 진행했다. HBM을 위한 1c D램은 올 3분기 PRA(내부 양산 승인)이 이뤄질 전망이다.

2025.07.02 17:00장경윤

[비욘드IT] 7조 들여 AI 인프라 짓는 AWS, 지도 반출만 요구하는 구글

아마존웹서비스(AWS)가 SK그룹과 함께 약 7조원을 들여 국내에 초대형 AI 데이터센터를 건립한다. 반면 구글은 지도 서비스를 위한 고정밀 지도 데이터를 해외로 반출하길 원하면서도 국내에 데이터센터 하나 세울 계획을 제시하지 않고 있다. 같은 글로벌 빅테크 기업이지만 한국의 데이터 주권을 대하는 태도는 극명하게 갈린다. 29일 관련 업계에 따르면 국내 인프라에 투자하며 공동 성장을 도모하는 AWS와 달리 구글은 국내 법 체계는 외면한 채 필요한 데이터만 확보하려 한다는 비판이 제기되고 있다. 일부에서는 이를 디지털 시대의 공정한 거래 질서 나아가 데이터 주권 보호의 문제로 인식해야 한다는 지적도 나온다. AWS는 7조 원 투자…"한국을 동북아 AI 허브로" AWS는 SK그룹과 손잡고 울산에 7조 8천500억 원을 투입해 초대형 AI 전용 데이터센터를 짓는다. 이는 단순한 시설 투자를 넘어 한국의 디지털 주권 강화와 AI 산업 자립에 전략적 파급력을 지닌 프로젝트로 평가받고 있다. 이 데이터센터는 2025년 착공해 2029년 완공을 목표로 하며 전력 용량은 총 103메가와트(MW)에 달한다. 이는 국내 기준 최대 규모로 생성형 AI, 고성능 컴퓨팅(HPC), 클라우드 기반 AI 학습·추론 등 복합 수요를 모두 충족할 수 있는 인프라다. 향후 6만 장 이상의 GPU를 투입하고, 최대 1기가와트(GW)급까지 확장해 동북아 최대 AI 연산 허브로 도약하는 것이 목표다. 이러한 투자 결정은 정부가 추진 중인 초거대 AI 모델 개발 및 공공 AI 활용 확대 정책과도 맞물린다. 국내 중소·중견 기업이 고성능 AI 연산 자원을 저렴하게 활용할 수 있는 기반을 제공한다는 점에서 민간-공공 협력 기반의 디지털 생태계 육성에 기여할 수 있다는 평가다. AWS는 이미 서울 리전을 운영 중이며 인천 서구 지역에도 별도의 100MW급 데이터센터를 건설 중이다. 이번 울산 프로젝트까지 더해지면 한국은 AWS의 아시아-태평양 지역 전략 거점으로 확실히 자리잡을 전망이다. 동시에 AWS는 개인정보보호법 전자금융감독규정 등 한국의 보안 규제를 충족하는 '주권형 클라우드' 인프라를 설계하고 있다. 지방에 초대형 민간·공공 AI 데이터센터가 들어서면서 지역 균형 발전 측면에서도 의미 있는 전환점이 될 것이라는 기대도 높다. 울산의 산업·에너지 인프라와 연계해 스마트팩토리, 자율주행, 에너지 AI 등 실증사업으로 확장될 여지도 크다. 이를 통해 AWS는 한국에 기술만 공급하는 벤더를 넘어 장기 신뢰 기반의 디지털 파트너로 자리매김하고 있는 셈이다. 구글, 고정밀 지도 '반출 요청'만 반복…유럽과 다른 이중잣대 비판 반면 구글은 국내 인프라 투자에는 여전히 소극적이면서도 고정밀 지도 데이터를 해외로 반출하겠다는 요구만 반복하고 있다. 최근 구글은 국토교통부에 1:5,000 축척의 정밀 공간정보 데이터를 해외 서버에서 가공·활용하기 위한 반출 허가를 요청했다. 이는 2011년, 2016년에 이어 세 번째 시도다. 이 지도 데이터는 차선, 교통표지, 건물 윤곽 등 도시 구조를 고해상도로 구현한 좌표 정보로, 자율주행차, 스마트시티, AR 내비게이션, 위치기반 AI 서비스 등에서 핵심 자원으로 쓰인다. 동시에 군사시설, 중요 기반시설, 정부 청사 등의 민감한 보안 요소를 포함하고 있어, 한국 정부는 이를 국가 전략 자산으로 분류하고 엄격히 관리 중이다. 이에 정부는 구글에 국내에서 데이터를 처리·저장할 수 있도록 서버 운영 또는 데이터센터 설치를 요구해왔다. 그러나 구글은 이를 수용하지 않고 있으며 국내 인프라 설립 계획 역시 밝히지 않고 있다. 정부 관계자는 "지도 데이터를 정말 활용하고 싶다면 국내에 인프라를 두는 것이 상식적인 방법"이라며 "왜 유럽에는 데이터센터를 세우고 한국에는 요구만 하는지 납득하기 어렵다"고 지적했다. 실제로 구글은 유럽연합(EU)의 일반개인정보보호법(GDPR)에 따라 유럽 사용자 데이터는 유럽 내에서만 처리되도록 설계하고 있다. 그러나 한국에 대해서는 동일한 원칙을 적용하지 않아 업계 안팎에서는 "구글이 한국에는 이중잣대를 적용한다"는 비판이 제기된다. 같은 고정밀 지도 데이터를 활용하려는 애플도 최근 지도 반출 허가를 요청했으나 정부는 이를 '반려'했다. 다만 애플은 이미 국내에 자체 서버를 보유하고 있어 해당 데이터를 한국 내 서버에 한해 저장·처리하는 조건이라면 가능성 여부를 정부와 협의 중이다. 국토부 관계자는 "국내 서버에만 저장하는 등의 조건을 충족하면 기술적으로 가능 여부를 타진할 수 있다"고 설명했다. 이는 애플이 국내법과 데이터 주권을 존중하려는 방향으로 대화에 나서고 있다는 신호로 해석된다. 반면 구글은 여전히 데이터 반출만 고수하며 국내 기반 투자는 외면하고 있는 상황이다. 데이터 주권 앞에서 갈린 글로벌 기업의 태도 관련 업계는 AWS와 구글의 태도 차이를 두고 글로벌 기업이 한국 시장을 대하는 '본심'을 드러낸 사례라는 지적이 나오고 있다. 한 업계 관계자는 "AWS는 한국 시장을 단순 매출처가 아니라 전략 파트너로 인식하고 장기 투자에 나선 반면 구글은 법적 의무는 회피하면서 필요한 데이터만 가져가려는 모습"이라고 꼬집었다. 전문가들은 이 문제를 단순히 '외국 기업의 국내 진출' 여부가 아니라국가의 데이터 주권을 누가, 얼마나 존중하고 있느냐의 문제로 접근해야 한다고 말한다. 특히 고정밀 지도는 단순 GIS 정보가 아닌, 자율주행·디지털 트윈 등 미래 핵심 산업의 기반 인프라로서, 해당 국가의 통제력이 매우 중요하다는 점에서다. 정부도 이번 사안을 계기로 '공간정보 주권' 개념을 명확히 하려는 움직임을 보이고 있다. 국회에는 '고정밀 지도 데이터의 해외 반출은 국내 서버를 갖춘 기업에만 허용'한다는 법 개정안이 발의돼 있으며 구글처럼 국내 인프라 없이 반출만 요구하는 기업에는 제동이 걸릴 전망이다. 한 IT 기업 임원은 "구글은 유럽에는 GDPR 때문에 데이터센터를 짓고, 일본에는 규제를 맞추기 위해 현지화 전략을 취하고 있다"며 "유독 한국만은 예외로 보려는 듯한 태도를 보이고 있는 만큼 이에 단호하게 대응해야 한다"고 강조했다.

2025.06.29 09:22남혁우

2분기 D램 수요 '폭발'…SK하이닉스도 출하량 20% 돌파 전망

미국 마이크론이 최근 예상을 웃도는 D램·HBM(고대역폭메모리) 매출을 기록하면서, 국내 메모리 업계의 2분기 실적에도 기대감을 불러일으키고 있다. 특히 SK하이닉스의 전분기 대비 D램 출하량 증가율이 당초 예상 대비 10%p가량 확대될 것으로 예상된다. 29일 업계에 따르면 올 2분기 SK하이닉스 D램 빗그로스(출하량 증가율)는 전분기 대비 20%를 넘어설 전망이다. 앞서 SK하이닉스는 1분기 실적 발표 컨퍼런스 콜에서 올 2분기 D램 빗그로스 전망치를 '전분기 대비 10% 초반 증가'로 제시한 바 있다. 그러나 최근 D램 시장은 AI·데이터센터 및 컨슈머 제품향 수요의 동시 확대로 당초 예상 대비 호조세를 보이고 있다. 이에 따라 SK하이닉스의 올 2분기 D램 출하량도 20%를 넘어설 가능성이 유력해졌다. 류형근 대신증권 연구원은 "마이크론의 D램 판매가 시장 예상치를 상회했다면, AI 기술 리더십을 확보하고 있는 SK하이닉스의 2분기 D램 판매 성장 폭은 더 클 것"이라며 "판매량이 전분기 대비 22% 성장할 것으로 전망한다"고 밝혔다. 실제로 마이크론은 지난 5월 마감한 2025 회계연도 3분기에 D램 및 HBM 판매 확대로 역대 최대 실적을 기록했다. 해당 기간 D램 출하량은 전분기 대비 20% 증가했다. 덕분에 마이크론의 최근 분기 매출은 93억 달러(한화 약 12조8천억원), 영업이익은 24억9천만 달러(약 3조4천억원)로 전분기 및 전년동기 대비 모두 크게 증가했다. 증권가 컨센서스(매출 88억5천만 달러, 영업이익 21억3천만 달러) 또한 크게 앞섰다. 이에 따라 SK하이닉스도 올 2분기 D램 사업에서 16조원대의 매출, 9조원대의 영업이익으로 당초 전망치를 상회하는 실적을 거둘 것으로 예상된다. 반도체 업계 관계자는 "마이크론의 경우 D램의 ASP(평균판매가격)가 소폭 하락했으나, SK하이닉스는 D램 출하량 및 ASP가 모두 증가할 것이 유력하다"며 "HBM3E 12단 제품의 본격적인 양산으로 매출 비중이 크게 증가하는 점을 고려하면, 마이크론이나 삼성전자 대비 D램 사업 성장폭이 클 것"이라고 설명했다.

2025.06.29 08:59장경윤

HBM 바람 탄 마이크론, 역대 최대 실적…삼성·SK도 훈풍 기대

미국 마이크론이 업계 예상을 웃도는 '어닝 서프라이즈'를 기록했다. 인공지능(AI) 산업 발달로 고부가 D램 및 고대역폭메모리(HBM) 출하량이 크게 증가한 덕분이다. 국내 메모리 업계 역시 견조한 실적이 예상되는 상황으로, 특히 HBM 사업을 적극 확장 중인 SK하이닉스의 높은 성장세가 기대된다. 마이크론은 5월 마감된 2025 회계연도 3분기에 매출 93억 달러(한화 약 12조8천억원) 영업이익 24억9천만 달러(약 3조4천억원)를 기록했다고 26일 발표했다. 매출은 전년동기 대비 36.6%, 전분기 대비 15.5% 증가했다. 영업이익은 전년동기 대비 164.6%, 전분기 대비 24.1% 증가했다. 이번 실적은 마이크론 사상 최고 분기 매출에 해당한다. 증권가 컨센서스(매출액 88억5천만 달러, 영업이익 21억3천만 달러)도 크게 웃돌았다. 산제이 메흐로트라 최고경영자(CEO)는 "HBM 매출이 전 분기 대비 거의 50% 성장한 것을 포함해 사상 최고의 D램 매출을 기록한 덕분"이라며 "2025 회계연도 기준으로도 연간 사상 최고 매출을 달성할 것으로 예상되며, 증가하는 AI 기반 메모리 수요를 충족하고자 체계적인 투자를 진행하고 있다"고 밝혔다. 실제로 마이크론의 해당 분기 D램 매출액은 70억7천만 달러로 전년동기 대비 51.5%, 전분기 대비 15% 증가했다. 출하량은 전분기 대비 20% 이상 증가했다. 마이크론은 2025 회계연도 4분기(2025년 6~8월)에 대한 전망도 긍정적으로 제시했다. 매출 가이던스는 중간값 기준 107억 달러로, 증권가 컨센서스(98억1천만 달러)를 또 한번 크게 앞섰다. 마이크론은 "긍정적은 수요 환경에 따라 올해 업계 연간 D램 비트(bit) 수요 성장률은 10% 후반, 낸드는 10% 초반대를 기록할 것"이라며 "중기적으로는 D램과 낸드 모두 연평균성장률(CAGR) 기준으로 10% 중반대의 비트 수요 성장을 예상한다"고 밝혔다.

2025.06.26 08:35장경윤

"반도체 다음은 AI"…SK그룹, 4번째 퀀텀 점프 시동

SK그룹이 AI데이터센터(AI DC)를 통해 또 한 번의 퀀텀 점프에 나선다. 1953년 섬유 산업을 모태로 출발한 SK그룹이 1980년 석유화학, 1994년 이동통신, 그리고 2012년 반도체까지 3차례의 굵직한 퀀텀 점프를 해온 데 이어 이번에 AI를 앞세워 네번째 도약을 노린다. 22일 SK그룹에 따르면 최태원 회장은 최근 열린 경영전략회의에서 “AI에 어떻게 적응하느냐에 따라 기업의 지속가능한 생존이 달려 있다”며 “AI와 사업 모델이 밀접한 IT 영역뿐 아니라 전기·에너지, 바이오 등 다양한 분야에서도 AI를 활용해 외연을 확장하자”고 제안했다. SK그룹은 지난 20일 울산 전시 컨벤션센터(UECO)에서 열린 'SK-AWS 울산 AI DC 건립 계약 체결식'에서 AWS(아마존웹서비스), 울산광역시와 협력해 하이퍼스케일 AI DC 건립을 공식화했다. 이번 울산 AI DC는 SK그룹이 지난해 경영전략회의에서 그룹의 투자 방향성을 AI·반도체 등 '가까운 미래'로 시프트 하겠다고 선언한 지 1년만에 거둔 첫 결실이다. SK는 최근 2년간 '선택과 집중'이라는 원칙 아래 중복사업 재편과 우량자산 내재화, 재무안정성 확보 등 체질을 개선하면서 추가 성장 발판을 마련했다. 지난해 SK그룹이 오는 2030년까지 AI 및 반도체 분야에 82조원을 투자하겠다고 밝힌 것도 이 같은 차원에서다. 글로벌 1위 클라우드 사업자인 AWS가 APAC AI 허브 파트너로 SK그룹과 손잡은 것도 이러한 종합적인 AI 역량에 주목했기 때문이다. SK 그룹과 AWS는 이미 전략적 파트너십을 구축하고 AI 분야에서 공고한 협력 관계를 이어왔다. 양사는 2027년부터 항후 15년 간 데이터센터 건설, 네트워크 운영, 반도체 공급망, 에너지 인프라 등 각 사 강점을 결집해 세계 최고 수준 AI·클라우드 환경을 제공할 계획이다. AI 분야는 최고 수준 기술력과 막대한 자금이 필요하다는 점에서 SK와 글로벌 빅테크와의 협력 관계는 강점으로 부각되고 있다. 이미 최태원 회장은 젠슨 황 엔비디아 CEO, 샘 올트먼 오픈AI CEO, 사티아 나델라 MS CEO와 긴밀한 협력관계를 만들어 나가고 있다. 하이퍼스케일 AI DC는 기술패권 경쟁 및 통상 압박 속에서 '지정학적 지위'를 강화할 수 있는 국가 안보 측면에서 핵심 자산이다. 통상적으로 AI DC 운영 기간이 수십 년이라는 것을 감안할 때 글로벌 빅테크 국내 대규모 투자는 향후 한미간 경제 및 안보 협력 기여 측면에서도 효과가 크다는 것이 SK그룹 측의 설명이다. SK는 그룹 AI 역량과 빅테크와 협력을 기반으로 지역 거점에서 시작해 전국적인 AI인프라 강화로 AI 3대 강국 실현에 기여한다는 방침이다. 울산 AI DC는 제조업 중심 도시인 울산의 산업 혁신과 제조업 르네상스를 이끌 핵심 인프라로서, AI 인프라 투자가 진행되면 관련 기업 유치는 물론 새로운 일자리 창출로 지역 및 국가 경제 활성화에도 기여할 것으로 예상된다. AI 기반 디지털 트윈, 스마트팩토리 등 제조업 AI 혁신을 촉진함으로써 울산 지역 산업 체질 개선을 통해 신성장 동력 계기를 마련할 수 있을 것으로 예상된다. 대규모 AI DC가 들어서면서 울산을 찾는 글로벌 빅테크 기업과 국내 AI 스타트업도 늘어날 것으로 전망된다. SK는 울산을 시작으로 전국에 AI 혁신 거점을 확대한다. 향후 AI DC를 포함해 ▲AI 에이전트 ▲로보틱스 ▲제조 AI ▲에너지 ▲AI 기반 바이오 등 계열사들 모든 경영활동과 일상에 AI를 접목해 '제 4의 퀀텀 점프'를 가속화하겠다는 전략이다.

2025.06.22 11:32류은주

"AI 이해·관심 확인"…SW업계 "李, AI 잘 아는 대통령" 기대

이재명 대통령이 인공지능(AI)에 대한 높은 기술 이해도를 바탕으로 기술 주권과 국산 AI 육성의 중요성을 잇따라 강조하면서 소프트웨어(SW) 업계의 기대감이 커지고 있다. 이 대통령은 20일 울산 전시컨벤션센터에서 열린 SK그룹과 아마존웹서비스(AWS)의 AI 데이터센터 출범식에 참석해 참가 기업들을 격려하고 업계 의견을 청취했다. SK와 AWS가 울산 미포 국가산업단지에 공동 구축하는 이 AI 데이터센터는 국내 최대 규모다. 약 6만 장의 GPU가 투입될 예정이며 향후 1기가와트(GW)급으로 확장해 동북아 최대 AI 컴퓨팅 허브로 도약하는 것을 목표로 한다. 이 대통령은 이 자리에서 "대한민국의 성장을 꽃피우는 새로운 출발점이 될 것"이라며 "산업화의 시작점이었던 울산이 이제 첨단 산업 거점으로 전환되고 있다"고 평가했다. 이어 "AI 산업은 특정 기업이나 산업군의 과제가 아니라 국가 생존 전략이자 산업 재도약의 핵심 축"이라며 "울산을 시작으로 전국 곳곳이 AI 산업 중심지가 될 수 있도록 정부가 적극 뒷받침하겠다"고 강조했다. 업계 관계자들은 이번 현장 방문과 업계 리더들과의 간담회에 대해 단순한 상징적 행보가 아닌 구체적인 정책 방향을 공유하고 실행 의지를 확인한 자리였다고 입을 모았다. 특히 이 대통령이 AI 기술 구조와 정책적 맥락을 동시에 이해하며 현장의 기술·정책적 애로사항에 대해 구체적으로 질문하고 대응 방향을 제시한 점이 깊은 인상을 남겼다는 평가다. 업계는 이날 간담회를 통해 대통령이 AI를 단기적 지원 대상을 넘어 국가 핵심 전략 산업으로 간주하고 있음이 분명히 드러났다고 분석했다. 단순한 선언이 아닌 AI 바우처 등 실질적 지원 수단이 언급된 점에서도 정부의 실행 의지를 확인할 수 있었다는 분위기다. 간담회 전 과정을 끝까지 지켜보며 기업들의 발언에 집중한 대통령의 모습도 인상 깊었다는 반응이 나왔다. 한 업계 임원은 "통상적인 행사와 달리 대통령이 직접 기술 현안을 경청하고 구체적인 대응을 고민하는 모습이 인상 깊었다"며 "AI를 하나의 산업이 아닌 국가적 성장 전략으로 인식하고 있다는 점이 확인됐다"고 말했다. 이날 간담회에서는 외산 기술에 대한 무분별한 의존을 경계해야 한다는 문제의식도 공유됐다. 특히 대규모언어모델(LLM) 같은 핵심 기반 기술 자립 필요성이 강조됐으며 정보 주권과 언어문화 독립성 확보를 위한 국산 LLM 개발이 중요하다는 사실도 다시 한번 부각됐다. 이 자리에서 이 대통령은 "베트남 쌀이 아무리 좋아도 한국이 쌀농사를 포기하는 건 말이 안 된다"는 비유를 들며 핵심 기술 자립이 곧 국가 존립 기반이라는 점을 재차 강조했다. 업계는 이 같은 발언이 단순한 상징적 표현을 넘어 기술 주권과 문화적 자율성에 대한 대통령의 철학적 인식을 드러낸 것이라고 평가했다. 업계 관계자는 "언어 주권은 단순한 기술 문제가 아니라 교육·문화·사고방식 전반과 맞닿아 있는 국가적 의제"라며 "정부가 이 점을 깊이 이해하고 있다는 사실 자체가 향후 국산 AI 생태계 조성의 전환점이 될 수 있다"고 기대했다. 현장에 참석한 다른 업계 고위 임원도 "이재명 대통령은 지금까지 만난 대통령 중 AI 등 기술에 대한 이해와 관심이 가장 깊다"며 "소버린 AI와 국산 LLM 개발에 대한 정부의 의지가 구체화되고 있는 만큼 산업계도 이에 걸맞은 책임감을 갖고 응답할 준비가 돼 있다"고 말했다.

2025.06.20 16:12남혁우

이재명, 울산 AI데이터센터 찾아 "첨단산업, 지방에도 가능"

이재명 대통령이 20일 울산에서 SK그룹과 아마존웹서비스(AWS)의 AI 데이터센터 출범식을 찾아 “앞으로 대한민국의 첨단기술산업이 수도권뿐 아니라 지방에서도 가능하다는 걸 보여주는 모범적 사례”라고 밝혔다. 이 대통령은 이날 울산 전시컨벤션센터에서 AI 데이터센터 출범을 기념해 열린 AI글로벌 협력 기업 간담회에 참석해 “지방에서 대규모 AI 데이터센터를 유치하게 됐다는 데 각별한 의미가 있다. 우리 최태원 회장님 애썼다”며 이같이 말했다. SK그룹과 아마존웹서비스(AWS)는 울산 미포 국가산업단지에 국내 최대 규모 데이터센터를 구축키로 했다. 약 6만 장의 GPU가 투입될 예정으로 향후 1기가와트(GW) 규모로 확장해 동북아시아 최대 AI 데이터센터 허브로 만들 계획이다. 이 대통령은 이를 두고 “대한민국의 성장을 꽃 피우는 출발점이 되길 바란다”며 “울산은 한국 산업화의 첫 출발지”라고 했다. 이어, “최근 울산 지역 경제 안 좋다”며 “한국 전체 지방이 다 그렇기도 하지만, 하튼 울산이 살아야 대한민국 지방 경제도 살아날 것 같다”고 덧붙였다. 그러면서 “대한민국이 지금까지 고속 성장했는데 지금 시중 말로 깔딱고개를 넘는 중이고, 준비하기에 따라 새로운 세상으로 넘어갈 수도 있고 다시 내려갈 수도 있다”며 “우리나라 국민의 위대한 저력으로 위기를 이겨내고 새로운 세상을 맞이할 것이라고 본다”고 자신했다. 이 대통령은 특히 “국민의 위대함 속에 기업이 우리나라 산업 경제계를 이끌고 있다”며 “우리가 맞닥뜨린 AI 첨단시대에 세계를 선도하는 훌륭한 역할을 잘 해낼 것이라고 믿는다”고 강조했다. 최태원 SK그룹 회장은 “울산 AI 데이터센터는 최고의 AI고속도로, 인프라를 놓고 발전시키는 데 필수적인 역할을 할 것”이라며 “현재 100메가와트로 건설하고 있지만 향후 1기가와트로 확장해서 국내 AI 수요에 대응하는 글로벌 허브 역할로 발돋움하겠다”고 화답했다. 또 AI 정부화 필요성을 강조하며 “혁신을 통해 공공 수요가 상당히 나올 수 있다. 5년간 5조원의 시장을 만들 수 있을 것”이라고 덧붙였다. 최 회장은 특히 AI 원스톱 바우처 사업 확대를 요청하면서 펀드를 통한 AI 스타트업 2만개 육성 방안과 AI 국가인재 양성을 위한 AI 필수과목화, 울산 AI특구 지정 등을 제안했다. 하정우 대통령실 AI미래기획수석은 “이 대통령께서 해외 순방으로 전날 새벽 귀국하셨는데 첫 지방 행보로 울산 AI 데이터센터 출범식을 찾으셨다”며 “AI 3대 강국 실현을 위해 기업과 격의 없이 소통하고자 하는 의지”라고 설명했다. 한편 이날 간담회에는 최태원 SK 회장을 비롯해 정신아 카카오 대표, 이준희 삼성SDS 사장, 배경훈 LG AI연구원 원장, 서범석 루닛 대표, 백준호 퓨리오사AI 대표, 조준희 한국AI·SW협회장, 김유원 네이버클라우드 대표 등이 참석했다.

2025.06.20 12:56박수형

[유미's 픽] 이재명까지 지원 사격…韓 투자 속도 높이는 해외 CSP, 토종기업 설 자리 잃나

최근 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 등 미국 빅테크에 이어 알리바바 클라우드 등 중국 기업까지 국내 클라우드 시장 공략에 적극 나서면서 토종 기업들의 설자리가 점차 좁아지고 있다. 기술력과 가격 경쟁력을 앞세워 외국 기업들이 민간 영역을 장악한 데 이어 공공 시장까지 침투하고 있는 만큼, 국내 기업들도 대응책 마련에 고심하는 분위기다. 19일 업계에 따르면 글로벌 클라우드 서비스 제공 기업(CSP) 1위인 AWS는 SK그룹과 손잡고 울산 미포 국가산업단지 부지에 초대형 인공지능(AI) 데이터센터를 구축한다. 그래픽처리장치(GPU) 6만 장이 투입되는 국내 최대 규모의 AI 전용 데이터센터로, 양사는 오는 20일 울산에서 출범식을 개최할 예정이다. 이번 투자 소식은 지난 13일 이재명 대통령과 5대 그룹 총수 간담회 이후 발표된 첫 대규모 국내 투자 소식이란 점에서 더 주목받고 있다. 이 대통령은 'AI 100조 투자'를 그간 공약으로 내세웠던 만큼, 이번 SK-AWS AI 데이터센터 출범식에 직접 참석해 AI 전략에 대한 명확한 메시지를 전할 것으로 알려졌다. AWS와 SK그룹은 울산 AI 데이터센터를 향후 1GW(기가와트) 규모로 확장해 동북아시아 최대 AI 데이터센터 허브로 만들겠다는 청사진을 그리고 있다. 이를 위해 SK그룹은 AI 데이터센터 사업을 맡고 있는 SK텔레콤과 SK브로드밴드를 통해 2028년까지 AI에 3조4천억원을 투자할 계획이다. AWS는 40억 달러(약 5조4천712억원)를 투자키로 한 것으로 알려졌다. AWS는 현재 서울에 데이터센터를 보유하고 있고, 인천 서구에도 수조원을 투자해 지난해 말부터 데이터센터를 짓고 있다. 마이크로소프트(MS)는 KT와 손잡고 국내 시장 공략에 속도를 높이고 있다. 양사는 5년간 2조4천억원을 공동 투자해 AI 분야에서 협업키로 협약을 체결한 데 이어 한국형 AI 모델과 시큐어 퍼블릭 클라우드(SPC)를 공동 개발해 올해 2분기께 국내서 출시할 것이란 계획을 공개하기도 했다. 중국 기업인 알리바바 클라우드도 내년에 한국 진출 10주년을 앞두고 이달부터 서울에서 제2 데이터센터 가동을 시작했다. 중국 시장을 겨냥한 국내 기업들의 수요가 높다고 보고 이들을 공략하기 위해 좀 더 공격적인 투자 움직임에 나선 것이다. 제2 데이터센터는 앞서 알리바바 그룹이 향후 3년간 AI·클라우드 인프라에 최소 약 76조원(3천800억 위안)을 투자한다고 밝힌 구상의 일환이다. 알리바바 그룹은 지난 2016년 한국에 사무소를 설립한 후 2022년 3월 국내에 첫 데이터센터를 구축하며 CSP 시장 경쟁에 뛰어 들었다. 다만 중국계 기업들이 한국 데이터를 외부로 반출한다는 우려가 많이 제기되면서 미국 기업들에 비해 존재감은 그간 크게 드러내지 못했다. 실제 과학기술정보통신부가 지난해 발표한 '2023년 부가통신사업 실태조사'에 따르면 국내 부가통신사업자(복수응답 가능) 중 60.2%는 AWS 클라우드를 사용했다. 2위인 MS 애저와 3위인 네이버 클라우드 사용률은 각각 24%, 20.5%로 집계됐다. 그 뒤는 구글 클라우드 플랫폼(19.9%), KT클라우드(8.2%)·오라클(8.2%), NHN클라우드(7.0%) 등이 이었다. 알리바바 클라우드는 의미 있는 점유율을 기록하지 못해 순위에 포함되지 못했다. 이에 알리바바 클라우드는 다수 보안 인증을 획득했다는 점을 앞세워 우려를 불식시키는 데 적극 나섰다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 강조했다. 그러면서 "2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수"라며 "한국 데이터는 해외로 유출되지 않는다"고 덧붙였다. 이 같은 상황 속에 글로벌 클라우드 서비스 기업(CSP)들은 최근 클라우드 보안인증(CSAP) '하' 등급을 취득하며 공공 클라우드 시장 진출에 속속 진입하기 시작해 토종 업체들의 입지를 더욱 좁히고 있다. 현재 이 시장은 NHN클라우드, 네이버클라우드, KT클라우드 등 세 회사가 80% 이상 과점하고 있는 상태로, 규모는 1조4천억원(2023년 기준) 수준이다. 과학기술정보통신부 산하 한국인터넷진흥원(KISA)이 관장하는 CSAP는 정부·공공 기관에 민간 클라우드 서비스를 공급하기 위해 획득해야 하는 인증이다. 공공 대상 서비스인 만큼 당초 엄격한 물리적 망분리 요건이 있었지만, 2023년 정부가 CSAP를 상·중·하 등급제로 개편하면서 하등급에 한해서는 논리적 망분리가 허용됐다. 이를 토대로 최근 AWS·마이크로소프트·구글 등 미국 대표 CSP 모두가 최근 '하' 등급 인증을 획득해 공공시장 진입을 노리고 있다. CSAP '하' 등급은 개인정보가 없는 공개 데이터를 운영하는 공공 시스템을 대상으로 하지만 '중' 등급의 경우 민감 데이터와 비공개 업무자료까지 포함하는 시스템을 다룬다. 다만 알리바바 클라우드는 CSAP 문턱을 아직 넘지 못했다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "CSAP 등급과 (공공 분야 진출 계획과) 관련해선 아직 공유할 상황이 아니다"고 밝혔다. 또 그는 "이번 제2 데이터센터 출범은 한국 시장에 대한 우리의 지속적인 투자 의지와 국내 기업의 AI 전환을 꾸준히 지원하기 위한 것"이라며 "국내에서 제품 및 서비스를 더욱 다각화하려는 우리의 노력에 있어 중요한 이정표가 될 전망"이라고 덧붙였다. 이처럼 외국 CSP 기업들이 투자 속도를 높이며 국내 시장에서 사업 영역 확대에 적극 나서자 토종 CSP들의 시름도 점차 깊어지고 있다. 경쟁사들이 늘어나면서 가격 경쟁이 심화될 뿐 아니라 이에 따른 기술 경쟁력도 자연스럽게 약화되면서 국내 CSP들이 자칫 해외 기업 협력사로 전락하는 것 아니냐는 우려의 목소리도 나오고 있다. 이미 7조4천억원 수준인 국내 민간 클라우드 시장에선 AWS, MS 애저, 구글이 점유율 80%를 차지하고 있는 상황이다. 업계 관계자는 "알리바바 클라우드 같은 중국에 거점을 둔 글로벌 기업의 진출은 가격 경쟁력이 높아 국내 기업으로선 굉장한 챌린지가 될 것으로 예상된다"며 "가격 경쟁이 심화되면 자연스레 국내 시장을 기반으로 하는 국내 기업들은 기술 개발이 어려워지는 악순환의 고리가 만들어질 가능성이 높다"고 밝혔다. 일각에선 데이터 주권과 규제 역차별, 불공정 경쟁 유발 문제 등이 우려된다고 짚었다. 글로벌 기업들이 국내 규제 밖에 있는 경우가 많은 만큼 데이터 레지던시를 제대로 지키지 않을 가능성이 크기 때문이다. 데이터 레지던시는 개인정보, 금융정보, 기업 데이터 등 민감한 정보를 특정 국가 안에서 저장·처리해야 한다는 것을 의미한다. 업계 관계자는 "국내 사업자의 데이터센터는 다양한 관련 법 규제로 인해 충분히 감시와 점검을 받고 있지만, 해외 기업은 본사가 국외에 있다는 점을 들어 여러 경로로 규제, 법률 등에 불응하는 경우가 많다"며 "이는 데이터 주권을 넘어 기술 주권에 대한 묵시적 부동의로 비춰질 수 있다"고 분석했다. 이어 "규모의 경제를 달성한 글로벌 기업들은 교묘한 방식으로 복합 상품, 해외 상품 연계 등 국내 사업자들이 제공하기 어려운 조건들로 생태계와 시장을 교란하고 있다"며 "현 분위기에선 신자유주의적 시장 논리로는 국내 기술 및 시장을 지키지 못하고 의존성을 높이는 계기가 되지 않을까 우려된다"고 짚었다. 그러면서 "국내 기업들은 온프레미스-클라우드, 해외 기업-국내 기업 등 하이브리드 및 멀티 클라우드 전략을 더 활성화 하는 방식으로 대응력을 키워야 할 것"이라며 "국내 기업 중심으로 연합하려는 움직임도 필요해 보인다"고 덧붙였다.

2025.06.19 16:14장유미

SK하이닉스, 아마존 AI 투자 수혜…HBM3E 12단 공급 추진

AWS(아마존웹서비스)가 SK하이닉스 HBM(고대역폭메모리) 사업 핵심 고객사로 떠오르고 있다. 전 세계 AI 데이터센터 구축에 막대한 투자를 진행하는 한편, 국내에서도 SK그룹과의 협력 강화를 도모하고 있어서다. 나아가 AWS는 이르면 올해 말 자체 개발한 3세대 AI칩 출시를 계획하고 있다. 이에 SK하이닉스도 현재 HBM3E 12단 제품을 적기에 공급하기 위한 준비에 나선 것으로 파악됐다. 17일 업계에 따르면 SK하이닉스는 AWS의 AI 인프라 투자에 따라 HBM 사업 확장을 추진하고 있다. AWS, 세계적 AI 인프라 투자·SK와 협력 강화 AWS는 SK하이닉스 HBM 사업에서 엔비디아의 뒤를 이을 핵심 고객사로 자리잡고 있다. 전 세계적으로 데이터센터 확장을 추진하고 있고, 차제 ASIC(주문형반도체) 개발로 HBM 수요량도 늘려가고 있기 때문이다. 일례로 AWS는 지난 14일(현지시간) 올해부터 오는 2029년까지 호주 내 데이터센터 확충에 200억 호주달러(한화 약 17조6천억원)를 투자한다고 발표했다. 앞서 이 회사는 미국 노스캐롤라이나주에 100억 달러, 펜실베니아주에 200억 달러, 대만에 50억 달러 등을 투자하기로 한 바 있다. 올해 AI 인프라에 쏟는 투자금만 전년 대비 20%가량 증가한 1천억 달러에 달한다. SK그룹과의 협력 강화도 기대된다. AWS는 SK그룹과 협력해 올해부터 울산 미포 국가산업단지 부지에 초대형 AI 데이터센터를 구축할 계획이다. 오는 2029년까지 총 103MW(메가와트) 규모를 가동하는 것이 목표다. AWS는 40억 달러를 투자할 것으로 알려졌다. AWS의 AI 데이터센터 투자는 HBM의 수요를 촉진할 것으로 기돼된다. HBM은 여러 개의 D램을 수직으로 적층해, 기존 D램 대비 데이터 처리 성능을 크게 끌어올린 메모리다. AI 데이터센터용 고성능 시스템반도체에 함께 집적된다. 현재 AI용 시스템반도체는 엔비디아 GB200, GB300 등 '블랙웰' 칩이 시장을 주도하고 있다. 업계에 따르면 올해 AWS가 엔비디아의 GB200·GB300 전체 수요에서 차지하는 비중은 7%로 추산된다. 자체 AI칩 '트레이니엄'에 HBM3E 12단 공급 추진 동시에 AWS는 머신러닝(ML)에 특화된 '트레이니엄(Trainium)' 칩을 자체 설계하고 있다. 해당 칩에도 HBM이 탑재된다. 지난해 하반기 출시된 '트레이니엄 2'의 경우, 버전에 따라 HBM3 및 HBM3E 8단 제품을 채택했다. 최대 용량은 96GB(기가바이트)다. 이르면 올 연말, 혹은 내년에는 차세대 칩인 '트레이니엄 3'를 출시할 계획이다. 이전 세대 대비 연산 성능은 2배, 전력 효율성은 40%가량 향상됐다. 총 메모리 용량은 144GB(기가바이트)로, HBM3E 12단을 4개 집적하는 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중 가장 고도화된 제품이다. SK하이닉스도 이에 맞춰 AWS향 HBM3E 12단 공급을 준비 중인 것으로 알려졌다. 반도체 업계 관계자는 "아마존이 자체 AI 반도체 생산량 확대에 본격 나서면서 HBM3E에 대한 관심도 크게 높아졌다"며 "SK하이닉스는 지난해에도 AWS에 HBM을 상당량 공급해 왔고, 현재 트레이니엄 3 대응에도 적극적으로 나서는 분위기"라고 말했다.

2025.06.17 13:59장경윤

AWS, 울산에 국내 최대 AI 데이터센터 짓는다…SK그룹 손잡고 GPU 6만장 투입

글로벌 1위 클라우드 사업자인 아마존웹서비스(AWS)가 SK그룹과 함꼐 울산 미포 국가산업단지 부지에 대형 인공지능(AI) 데이터센터 구축에 나선다. 한국 시장 내 인프라 투자를 강화한다는 목적으로 풀이된다. 16일 업계에 따르면 AWS와 SK그룹은 울산에 그래픽처리장치(GPU) 6만 장이 탑재되는 국내 최대 규모 AI 전용 데이터센터 건립을 추진한다. SK그룹은 이달 중 출범식을 열고 오는 8월 기공식을 개최할 예정인 것으로 알려졌다. 양사가 설립하는 울산 AI 데이터센터는 2027년까지 41메가와트(MW) 규모로 1차 개발된 후 2029년 초까지 103MW 규모로 최종 완공될 예정이다. 향후에는 기가와트(GW) 규모로의 확장도 계획 중인 것으로 전해졌다. 이번 데이터센터 구축에는 양사가 수조원을 공동 투자한다. SK그룹은 AI 데이터센터 사업을 담당하는 SKT와 SKB를 주축으로 SK가스와 SK하이닉스 등 그룹사 역량을 총동원해 프로젝트에 박차를 가할 계획이다. AWS도 약 40억 달러(한화 약 5조4천476억원)를 투자한 것으로 알려졌다. AWS의 이번 데이터센터 구축은 지난 2023년 AWS가 발표한 한국 시장 투자 계획도 맞닿아 있다. AWS는 2023년에서 2027년까지 서울 리전 내 데이터센터 구축·연결·운영·유지보수를 위해 7조8천500억원에 달하는 투자를 단행하겠다고 밝힌 바 있다. 앞서 AWS는 지난해부터 인천 서구 가좌동에도 100MW 규모에 달하는 데이터센터를 구축하고 있다. 이같은 행보는 한국 내 클라우드 리전 강화는 물론 공공시장 진입 가속화를 위한 목적으로 해석된다. 업계 관계자는 "최근 클라우드 보안인증(CSAP) 하등급을 취득한 AWS가 국내 데이터센터 설립에 속도를 내고 있는 이유는 물리적 망분리가 요구되는 중등급도 확보해 공공 시장 공략에 속도를 내려는 목적"이라고 평가했다.

2025.06.16 15:30한정호

"HBM4 80개 高집적"…TSMC, 차세대 패키징 고도화

대만 파운드리 TSMC가 차세대 AI 반도체 시장을 목표로 첨담 패키징 기술을 고도화하고 있어 주목된다. AI 반도체가 점차 고성능·대면적화되는 추세에 맞춰, HBM4(6세대 고대역폭메모리)를 80개까지 탑재한 제품을 고안해낸 것으로 파악됐다. 12일 업계에 따르면 TSMC는 지난달 말 미국 텍사스주에서 열린 'ECTC 2025(전자부품기술학회)'에서 초대형 AI 반도체를 위한 '시스템온웨이퍼(SoW-X)'의 구체적인 구조를 발표했다. 16개 컴퓨팅 칩에 80개 HBM 연결…기존 대비 전성비 1.7배 향상 SoW-X는 TSMC가 오는 2027년 양산을 목표로 하고 있는 차세대 패키징 기술이다. GPU·CPU 등 고성능 시스템반도체와 HBM을 집적한 AI 반도체 분야에 적용될 예정이다. SoW-X는 기존 패키징 공정에서 쓰이던 기판(PCB)나 실리콘 인터포저(칩과 기판 사이에 삽입되는 얇은 막)를 사용하지 않고, 메모리 및 시스템반도체를 웨이퍼 상에서 직접 연결하는 것이 핵심이다. 각 칩의 연결은 칩 하단에 형성된 미세한 구리 재배선층(RDL)이 담당한다. 이 때 RDL은 칩 외부로 확장되는데, TSMC에서는 이를 InFO(Integrated Fan-Out)라고 부른다. SoW-X는 웨이퍼 전체를 활용하기 때문에 초대형 AI 반도체 제작이 가능하다. TSMC가 발표한 자료에 따르면, SoW-X는 최대 16개의 고성능 컴퓨팅 칩, 80개의 HBM4 모듈을 집적했다. 이로 인해 총 메모리 용량은 3.75TB(테라바이트), 대역폭은 160TB/s에 이른다. 또한 SoW-X는 동일한 수의 컴퓨팅 칩을 사용하는 기존 AI 반도체 클러스터에 비해 전력 소비량은 17% 줄어들었으며, 46% 향상된 성능을 제공할 수 있다. TSMC는 "SoW-X는 각 칩 간의 뛰어난 연결성과 낮은 소비 전력으로 기존 AI 반도체 클러스터 대비 와트(W)당 전체 성능이 1.7배 가량 개선됐다"며 "훨씬 더 많은 시스템반도체와 HBM을 통합해 시스템 전력 효율성이 향상되며, 기존 기판 연결의 어려움도 제거할 수 있다"고 설명했다. HPC·AI 시장 목표…"수요 당장 많지 않다" 지적도 TSMC는 SoW-X를 업계 표준을 능가하는 혁신적인 기술 플랫폼으로 평가하며, 차세대 고성능 컴퓨팅 및 AI 산업을 공략하겠다고 밝혔다. 다만 SoW-X 기술이 AI 메모리 시장에 미칠 여파가 당장은 크지 않다는 지적도 제기된다. HBM 탑재량이 80개로 매우 많지만, 지금 당장은 초대형 AI 반도체에 대한 수요가 제한적이라는 이유에서다. 실제로 SoW-X의 이전 세대로 지난 2020년 도입된 SoW는 테슬라·세레브라스 등 소수의 고객사만이 양산에 채택한 바 있다. 반도체 업계 관계자는 "테슬라의 슈퍼컴퓨팅 '도조(Dojo)' 전용 칩인 'D1'처럼, SoW-X는 완전한 커스터마이즈 칩을 위한 기술로서 니치 마켓에 부합한다"며 "워낙 많은 칩이 탑재되고 기술적인 난이도도 높아, 대중적인 AI 반도체 패키징 기술을 당장 대체하기는 어려울 것"이라고 말했다.

2025.06.12 15:54장경윤

SK이노, 'AI 데이터센터' 전문 에너지 솔루션 사업 키운다

SK이노베이션이 인공지능(AI) 시대의 핵심 인프라인 초대형 데이터센터 운영에 필요한 에너지 솔루션 사업에 본격적으로 뛰어든다. SK이노베이션은 지난 11일 서울 종로구 SK서린빌딩에서 싱가포르의 데이터센터 인프라 기업인 BDC와 데이터센터 에너지 솔루션 사업 추진을 위한 업무협약(MOU)을 체결했다고 12일 밝혔다. BDC는 싱가포르에 본사를 두고 말레이시아, 태국, 인도 등 아시아태평양 지역에서 총 1GW 규모의 초대형 데이터센터들을 개발·운영해온 유수의 글로벌 데이터센터 기업이다. 이번 업무협약에 따라 SK이노베이션은 말레이시아에 있는 BDC의 초대형 AI 데이터센터에 에너지 솔루션을 제공한다. 이 데이터센터는 국내 최대 데이터센터(270MW)보다도 훨씬 큰 규모로, 아시아에서도 손꼽히는 초대형 시설이다. SK이노베이션은 이 데이터센터에 구체적으로 ▲AI 기반 에너지 관리 시스템(DCMS) 도입 ▲에너지저장장치(ESS)와 연료전지 등 보조전원 설계 ▲첨단 액침냉각 기술 및 냉매 공급 등 데이터센터 전용 솔루션을 적용할 계획이다. SK가 제공하는 DCMS는 데이터센터 곳곳의 전력 흐름과 이상 신호를 상시 모니터링해 예비 발전기와 보조 전원이 적기에 가동되도록 만드는 최첨단 시스템이다. SK이노베이션 자회사 SK엔무브가 국내 최초로 상용화한 액침냉각 기술은 서버를 액침냉각 플루이드에 직접 담가 냉각하는 방식으로, AI·빅데이터 등 고발열 장비가 많은 첨단 데이터센터에 최적이라는 평가를 받는다. SK이노베이션 관계자는 “정전 등 위기 상황에도 흔들리지 않는 세계 최고 수준의 전력 안정성과 액침냉각 등 운영비 절감 기술력을 입증해낼 계획”이라고 말했다. SK이노베이션은 이번 업무협약을 통해 글로벌 초대형 데이터센터에 필요한 에너지 솔루션 개발 및 검증 체계를 구축함으로써 향후 글로벌 시장에서 고객 맞춤형 통합 에너지 솔루션을 공급하는 사업자로 도약한다는 목표다. SK이노베이션은 지난해 11월 SK E&S와의 합병으로 정유, 화학, 배터리에서 LNG, 수소, 풍력, 태양광, 소형모듈원전(SMR)까지 아우르는 종합 에너지 기업으로 발돋움한 바 있다. 이 같은 경쟁력을 토대로 글로벌 시장에서 에너지 솔루션 사업을 확대해 나갈 계획이다. 김무환 SK이노베이션 에너지솔루션 사업단장은 “이번 BDC와의 업무협약을 계기로 AI 데이터센터 에너지 솔루션의 기술력 및 경제성을 평가받아 글로벌 시장에서 상품화를 추진해 나갈 계획”이라며 “앞으로 필요에 따라 글로벌 AI 데이터센터 기업들과의 공동 연구개발(R&D) 등도 벌여 나갈 방침”이라고 말했다. 케빈 관 BDC 최고투자책임자(CIO)는 “지난 10년간 범아시아 지역에서 초대형 데이터센터의 발전을 이끌어온 BDC는 현재 세계 최고 수준의 컴퓨팅 솔루션을 제공하기 위한 투자를 이어가고 있다”며 “SK와의 이번 파트너십을 통해 BDC는 앞으로도 데이터센터 전용 그린 에너지 솔루션의 발전과 고객들의 지속가능한 성장에 기여할 것”이라고 밝혔다.

2025.06.12 09:00김윤희

美 마이크론, 차세대 'HBM4' 샘플 출하 성공…SK하이닉스 '맹추격'

미국 마이크론이 차세대 AI 반도체를 위한 HBM4(6세대 고대역폭메모리) 샘플을 주요 고객사에 출하했다. SK하이닉스가 지난 3월 업계 최초로 HBM4 샘플을 공급한 데 이은 두 번째 사례로 제품 상용화에 큰 진전을 이뤄냈다. 마이크론은 최근 복수의 주요 고객사에 12단 36GB(기가바이트) HBM4 샘플을 출하했다고 11일 밝혔다. 마이크론은 "이번 출하로 마이크론은 AI 산업을 위한 메모리 성능 및 전력 효율성 분야에서 선도적인 입지를 공고히 하게 됐다"며 "최선단 D램 공정과 검증된 패키징 기술 등을 기반으로 마이크론 HBM4는 고객과 파트너에 완벽한 통합을 제공한다"고 강조했다. 현재 메모리 업계는 HBM3E(5세대 HBM)까지 상용화에 성공했다. HBM4는 이르면 올 하반기부터 본격적으로 양산될 차세대 제품에 해당한다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개 집적된 것이 특징이다. 주요 경쟁사인 SK하이닉스도 지난 3월 핵심 고객사인 엔비디아에 HBM4 샘플을 조기 공급한 바 있다. 삼성전자의 경우 마이크론·SK하이닉스보다 한 세대 앞선 D램(1c D램; 6세대 10나노급)을 채용해 제품을 개발하고 있다. 올 하반기 개발을 완료하는 것이 목표다. 마이크론의 HBM4는 메모리 스택 당 2.0TB/s 이상의 속도와 이전 세대 대비 60% 이상 향상된 성능을 제공한다. 또한 전력 효율성은 이전 세대 대비 20% 이상 높다. 마이크론은 "HBM3E 구축을 통해 달성한 놀라운 성과를 바탕으로, 당사는 HBM4와 강력한 AI 메모리 및 스토리지 솔루션 포트폴리오를 통해 혁신을 지속적으로 추진해 나갈 것"이라며 "당사 HBM4 생산 이정표는 고객의 차세대 AI 플랫폼 준비에 맞춰 원활한 통합 및 양산 확대를 보장한다"고 밝혔다.

2025.06.11 10:07장경윤

엔비디아 '블랙웰' 칩 수요 쾌청…삼성·SK HBM 성장 기회

엔비디아가 AI 반도체 산업의 성장세를 자신했다. 미국의 대중 수출 규제 여파에도 최첨단 AI 반도체인 '블랙웰'의 수요가 강력하고, 전 세계 AI 인프라 투자가 활발히 진행되고 있기 때문이다. 초고성능 AI 반도체인 'GB300' 역시 올 3분기 초 차질없이 양산이 시작될 것으로 전망된다. 이에 따라 국내 주요 메모리 업체인 삼성전자, SK하이닉스의 HBM(고대역폭메모리) 사업도 지속적인 성장의 기회를 잡을 수 있을 것으로 기대된다. 中 수출 규제, AI 산업 성장세 등 불확실성 '해소' 이날 엔비디아는 2026년 회계연도 1분기(올해 2~4월) 매출액 440억6천만 달러를 기록했다고 밝혔다. 전년동기 대비 69%, 전분기 대비 12% 증가한 수치다. 영업이익도 232억7천만 달러(Non-GAAP 기준)로 전년동기 대비 43%, 전분기 대비 6% 증가했다. 다만 데이터센터 매출액은 391억1천만 달러로 증권가 컨센서스(약 393억 달러)를 소폭 하회했다. 미국 트럼프 2기 행정부의 수출 규제 강화로 중국향 AI 반도체 'H20'의 판매가 전면 금지된 데 따른 영향이다. 엔비디아는 해당 규제로 1분기 45억 달러의 손실이 발생했으며, 2분기에도 80억 달러의 추가 손실이 있을 것으로 추산했다. 그럼에도 엔비디아는 2분기(5~7월) 매출 가이던스를 약 450억 달러로, 기존 증권가 컨센서스인 455억에 근접한 수준을 제시했다. H20의 수출 금지에도 최신형 AI 반도체인 블랙웰 시리즈의 수요가 견조한 덕분이다. 문준호 삼성증권 연구원은 "엔비디아의 2분기 매출 전망치는 전분기 대비 2% 증가에 그치나, H20의 손실 반영을 제외하면 14%의 성장세"라며 "그만큼 블랙웰의 수요는 같은 기간 더 좋아졌고, 이번 실적 발표에서 불확실성 요인이 다수 해소된 것도 중요한 대목"이라고 설명했다. GB300 양산 임박…SK하이닉스 HBM 훈풍 나아가 엔비디아는 올 하반기에도 전 세계 AI 인프라 투자로 인한 지속적인 성장을 자신했다. 젠슨 황 엔비디아 CEO는 ▲ 추론형 AI의 수요 증가 ▲ AI 확산 규정의 철폐 ▲ 엔터프라이즈 AI 시장의 본격적인 성장 ▲ 리쇼어리 정책 대두로 인한 '옴니버스' 등 산업용 AI 수요 증가 등 네 가지를 주요 배경으로 꼽았다. 견조한 AI 산업의 성장세는 국내 메모리 제조업체인 삼성전자, SK하이닉스에게도 긍정적이다. 특히, AI 반도체의 핵심인 HBM(고대역폭메모리)를 엔비디아 주력으로 공급하는 SK하이닉스의 매출 확대가 두드러질 전망이다. 엔비디아는 올 하반기 12단 HBM3E(5세대 HBM)를 탑재한 최신형 AI 반도체 'GB300'를 출시할 예정이다. GB300은 이달 초 주요 CSP(클라우드서비스제공자)에게 샘플이 공급됐으며, 오는 7월께 양산이 시작될 것으로 예상된다. 엔비디아 역시 GB300에 당초 적용하기로 했던 신규 보드 플랫폼의 채용을 미루는 등 제품 안정성 강화에 만전을 기하는 분위기다. SK하이닉스와 엔비디아간 내년 HBM 공급량 협의도 마무리 단계에 접어들었다. 이르면 다음달 최종 결정이 내려질 것으로 알려졌다. 특히, 엔비디아의 차세대 AI 반도체인 '루빈'에 탑재되는 HBM4(6세대 HBM)의 가격 및 물량이 주요 변수로 작용하고 있다.

2025.05.29 14:07장경윤

퓨어스토리지-SK하이닉스, 차세대 플래시로 AI 데이터센터 혁신

퓨어스토리지가 SK하이닉스와 차세대 플래시 스토리지를 개발해 대용량 데이터 처리와 에너지 효율성 요구가 높은 환경에 최적화된 솔루션을 제공할 방침이다. 퓨어스토리지는 기존 하드디스크드라이브 기반 스토리지의 한계를 넘어 고성능·고밀도·저전력 스토리지 솔루션을 개발하기 위해 SK하이닉스와 협력했다고 28일 밝혔다. 이번 협력은 엑사스케일·인공지능(AI) 워크로드를 지원할 수 있는 초고속·저지연·고신뢰성 솔루션 제공에 초점 맞췄다. 이번에 선보이는 솔루션은 다이렉트플래시 모듈이다. SK하이닉스의 쿼드 레벨 셀(QLC) 낸드 플래시 메모리와 퓨어스토리지의 데이터 스토리지 플랫폼이 통합돼 제작된다. 이 제품은 하이퍼스케일러 환경의 까다로운 요구를 충족하기 위해 설계돼 데이터 병목현상 완화와 생산성 향상에 기여할 전망이다. 두 기업은 이번 소루션이 기존 하드디스크(HDD) 기반 스토리지 대비 전력 소비를 획기적으로 절감할 수 있다고 밝혔다. 이를 통해 전력 공급 제약을 해소하고 운영 비용을 낮추며 기업의 탄소 발자국 감소까지 기대할 수 있다는 설명이다. 확장성 측면에서도 랙 밀도가 높고 우수한 총소유비용(TCO) 효율을 제공해 복잡한 스토리지 확장 요구에 대응한다. AI 인프라와 대규모 데이터센터 운영자에게 특히 매력적인 선택지로 평가된다. 퓨어스토리지 빌 세레타 하이퍼스케일 부문 총괄은 "SK하이닉스의 QLC 제품과 우리 호스트 기반 플래시 관리 아키텍처 결합은 하이퍼스케일 프로덕션 환경과 AI 인프라 최적화에 큰 의미가 있다"며 "성능과 확장성 신뢰성 에너지 효율성을 개선해 데이터 중심 산업의 복잡한 요구를 해결할 것"이라고 밝혔다. SK하이닉스 이상락 글로벌 세일즈 마케팅 부사장은 "하이퍼스케일러들은 혁신 잠재력을 극대화할 데이터 스토리지를 끊임없이 찾고 있다"라며 "이번 협력은 폭증하는 데이터 볼륨을 첨단 친환경 스토리지 솔루션으로 대응할 수 있도록 지원한다"고 말했다.

2025.05.28 11:39김미정

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

"미국도 이제 리스크"…시장 넓히는 현대차·기아, 인도가 최대 격전지

'로밍 데이터 2배'...출국 전 '로밍' 확인 필수

SK온, '배터리연구원→미래기술원' 변경…"반고체 시제품 내년 말 생산"

종료 앞둔 정부 AI 사업 1막...이제 '국가AI컴퓨팅센터'가 승부처

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.