• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI'통합검색 결과 입니다. (499건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SK하이닉스 미래 성장성, HBM4 가격협상·수익 방어에 달렸다

SK하이닉스가 올 2분기 역대 최대 실적을 기록한 가운데, 미래 AI 메모리 수요 대응을 위한 제품 개발·설비투자에 적극 나선다. 특히 내년에도 HBM(고대역폭메모리) 시장 우위를 지속하기 위한 준비에 주력한다는 계획이다. 관건은 수익성 방어다. 차세대 제품인 HBM4는 제조비용 상승, 후발주자와의 경쟁 심화 등으로 내년 견조한 공급량 및 가격 확보가 쉽지 않을 것으로 전망된다. 다만 SK하이닉스는 HBM 공급 과잉 및 수익성 악화 등 대내외적인 우려에 대해 "HBM4는 원가 상승을 고려한 가격 정책을 최대한 반영할 수 있도록 하고 있다. 현재의 수익성을 유지하는 선에서 최적의 가격 수준을 형성하고자 한다"며 적극적인 대응을 시사했다. SK하이닉스는 지난 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원(영업이익률 41%), 순이익 6조9천962억원(순이익률 31%)을 기록했다고 24일 밝혔다. 이번 실적은 역대 최대 분기 실적에 해당한다. 매출은 전년동기 대비 35%, 전분기 대비 26% 증가했다. 영업이익은 전년동기 대비 68%, 전분기 대비 24% 증가했다. SK하이닉스의 호실적은 당초 예상을 웃도는 D램·낸드 출하량 덕분이다. 또한 고부가 제품인 HBM3E 12단의 본격적인 판매 확대도 영향을 미쳤다. 하반기 역시 급격한 수요 감소 가능성은 낮을 것으로 내다봤다. 차세대 제품 개발·설비투자 확대로 미래 수요 대응 이에 맞춰 SK하이닉스는 AI 메모리 시장 선점을 위한 차세대 제품 개발에 주력하고 있다. 서버용 LPDDR 기반 최신형 모듈인 'SoCAMM(소캠)'의 공급을 연내 시작하며, AI GPU용 GDDR7은 용량을 24Gb(기가비트)로 확대한 제품을 준비한다. 낸드는 수요에 맞춘 신중한 투자 기조를 유지하나, 향후 시황 개선에 대비한 제품 개발을 지속 추진한다. 특히 QLC 기반 고용량 기업용 SSD(eSSD) 판매 확대와 321단 낸드 기반 제품 포트폴리오 구축을 통해 시장 경쟁력을 강화해 나갈 계획이다. 또한 HBM3E의 제품 성능과 양산 능력을 바탕으로, HBM 매출을 전년 대비 약 2배로 성장시키겠다는 기존 계획을 유지했다. HBM4 역시 고객 요구 시점에 맞춰 적기 공급이 가능하도록 준비해 업계 최고 수준 경쟁력을 지속 강화해 나갈 계획이다. 올해 설비투자 규모는 당초 계획 대비 확대될 전망이다. 특히 올해 말까지 구축 예정인 M15X는 내년부터 SK하이닉스의 HBM 생산에 크게 기여할 것으로 관측된다. SK하이닉스는 “내년 HBM 공급 가시성이 확보되면서 적기 대응을 위한 선제적 투자를 결정했다”며 “올해 투자 규모는 기존 계획 대비 증가하며, 대부분 HBM 장비 투자에 활용할 계획”이라고 밝혔다. 차세대 D램인 1c(6세대 10나노급) D램 전환투자도 올 하반기 시작된다. 본격적인 램프 업은 내년에 진행될 예정으로, 현재 구체적인 계획을 수립하는 중이다. 내년 HBM 사업 불확실성에도…'수익성 고수' 자신 다만 업계는 SK하이닉스의 내년 메모리 사업에 대한 불확실성을 우려해 왔다. 주요 고객사인 엔비디아와 HBM4 등 차세대 제품에 대한 공급 협의가 당초 예상보다 길어지고 있고, 삼성전자·마이크론 등 후발주자 진입에 따른 HBM 경쟁 과열이 예상된다는 시각에서다. 특히 SK하이닉스는 HBM4 사업에서 수익성 하락 압박을 받고 있다. HBM4는 이전 세대 대비 I/O(입출력단자) 수 증가, 코어 다이 면적 증가, 베이스 다이의 TSMC 외주화 등으로 제조 비용이 크게 상승할 전망이다. SK하이닉스가 이를 HBM4 판매 가격에 온전히 반영하지 못할 경우, 견조한 이익을 거두기 힘들다. 이를 위해선 HBM4의 Gb(기가바이트)당 판매 가격이 이전 세대 대비 20~30%가량 증가해야 한다는 것이 업계의 분석이다. SK하이닉스는 이에 대해 "내년 HBM 고객사와의 협의는 계획대로 진행되고 있고, 고객사 프로젝트 다앙성이 증가하며 제품 믹스와 가격 등을 긴밀히 협의하고 있다"며 "HBM4는 원가 상승을 고려한 가격 정책을 최대한 반영할 수 있도록 하고 있다. 현재의 수익성을 유지하는 선에서 최적의 가격 수준을 형성하고자 한다"고 강조했다. 내년 주요 경쟁사와의 경쟁에 대해서도 자신감을 드러냈다. SK하이닉스는 "HBM은 리딩 사업자가 일정한 협상력을 가질 수 있는 시장으로 변모했다고 판단한다"며 "SK하이닉스의 고객 지향적인 마인드와 이를 뒷받침하는 탄탄한 조직 팀워크 등 소프트한 경쟁력 요소들은 남들이 쉽게 카피할 수 없을 것"이라고 밝혔다.

2025.07.24 12:13장경윤

"KoBERT부터 A.X 4.0"...SKT, 국산 LLM 기술력 7년 축적

SK텔레콤은 과학기술정보통신부가 추진한 '독자 AI 파운데이션 모델' 프로젝트에 참여하며, 지난 2018년부터 지속해온 한국어 특화 AI 자립 노력이 본격화될 것이라고 24일 밝혔다. SK텔레콤은 그간 한국어에 최적화된 초거대 언어모델(LLM)을 독자 기술로 개발하며, 국내 AI 생태계의 기술 자립과 실용화를 위한 기반을 꾸준히 다져왔다. 2018년부터 자연어 이해 및 생성 기술을 연구하며, 주요 모델을 오픈소스로 공개해 생태계와의 상생도 추구해왔다. 현재 AI 기술은 감성 대화, 통화 요약, 지식 응답 등 고객 접점에서 실제 서비스로 이어지고 있다. 한국어 특화 LLM의 진화, KoBERT에서 A.X 4.0까지 SK텔레콤은 2019년 한국어 딥러닝 모델 'KoBERT'를 자체 개발·공개하고, 고객센터 챗봇에 적용했다. 이 모델은 조사·어순·띄어쓰기 등 한국어 구조를 반영해 문맥 이해에 강점을 보였다. 2020년에는 한국어 GPT-2 모델 'KoGPT2'와 뉴스·문서 요약 특화 모델 'KoBART'를 공개하며 자연어 처리 기술을 확대했다. 주요 모델들은 오픈소스로 공개됐으며, 이는 한국어 기반 생성형 AI 기술의 초석이 됐다. 2022년에는 자체 GPT-3 기반 한국어 특화 모델을 '에이닷'에 적용해 일상 대화와 작업 수행이 가능한 AI 서비스를 구현했다. 이어 감성 대화형 'A.X 1' 모델을 추가 적용하며, 정서적 교감 기능을 강화하기도 했다. 2023년에는 복잡한 문맥 이해와 지식 기반 응답이 가능한 'A.X 2'를 차례로 선보였다. 2024년에는 추론 성능을 높인 'A.X 3.0'을 출시했다. 각각 340억(34B, 표준형), 70억(7B, 경량형) 파마미터 모델로 구성되며, 통화 요약과 AI 에이전트 기능에 실제 적용됐다. 모든 모델은 구조 설계부터 데이터 수집과 학습까지 SK텔레콤이 자체 개발한 '프롬 스크래치' 방식이다. 성능과 효율 모두 잡는 '투 트랙 전략' 가동 2025년 7월에는 외부 지식 기반 추론 성능을 높인 'A.X 4.0'을 공개했다. 대규모 학습(CPT) 방식으로 학습돼 보안성과 로컬 운영, 한국어 처리 효율에 강점을 지닌다. 이 모델은 현재 에이닷 통화 요약 등 실서비스에 적용되고 있다. 이어 SK텔레콤은 70억(7B) 및 340억(34B) 파라미터 규모의 'A.X 3.1' 모델도 공개했다. 이 모델들은 추론모델 확장을 고려해 코드와 수학 성능을 강화했다. SK텔레콤은 '프롬 스크래치' 기반 A.X 3 계열 모델과 CPT 기반 A.X 4 계열의 대규모 모델을 병행 개발하는 '투 트랙 전략'을 통해 다양한 환경에 최적화된 AI 모델 포트폴리오를 확장하고 있다. SK텔레콤은 앞으로도 한국어에 특화된 LLM 기술 고도화를 이어가며, 초거대 AI의 산업화와 일상화를 이끌고, 기술 공유와 협력을 통해 국내 AI 생태계 활성화에 기여할 계획이다.

2025.07.24 11:21진성우

SK하이닉스, 올 하반기 차세대 '1c D램' 전환투자 개시

SK하이닉스가 차세대 D램에 대한 전환투자를 올 하반기부터 시작해 내년 본격화할 계획이다. SK하이닉스는 24일 2025년 2분기 실적발표를 통해 1c(6세대 10나노급) D램의 전환투자를 올 하반기부터 진행한다고 밝혔다. 1c D램은 현재 상용화된 가장 최신 세대의 D램인 1b D램의 차세대 제품이다. 앞서 SK하이닉스는 지난해 세계 최초로 1c 공정 기반의 16Gb(기가비트) DDR5 D램을 개발하는 데 성공했다고 밝힌 바 있다. 당시 SK하이닉스는 "이미 입증된 1b D램 기술력을 바탕으로 설계 완성도를 높여 가장 먼저 기술 한계를 돌파해 냈다”며 “2024년 1c DDR5의 양산 준비를 마치고 내년부터 제품을 공급해 메모리 반도체 시장의 성장을 이끌어 갈 것”이라고 강조했다. 다만 SK하이닉스의 이 같은 계획은 당초 예상 대비 지연돼 왔다. SK하이닉스가 올해 출시를 목표로 한 HBM4(6세대 고대역폭메모리)에서도 이전 세대와 같은 1b D램 채용을 유지하는 등 1c D램에 대한 수요가 크지 않았기 때문이다. 그러나 올 하반기부터는 1c D램의 양산 준비가 구체화될 것으로 전망된다. SK하이닉스는 "1c D램의 전환투자는 올 하반기부터 시작돼 내년 본격적으로 진행될 것"이라며 "현재 경영 계획을 수립하고 있어 추후 구체적인 계획이 확정되면 공유할 것"이라고 밝혔다.

2025.07.24 10:04장경윤

SKT, 독자 개발 LLM 'A.X 3.1' 공개...추론 모델 확장성 갖춰

SK텔레콤은 오픈소스 커뮤니티 허깅페이스에 독자 구축 LLM인 'A.X 3.1'을 공개했다고 24일 밝혔다. 340억개(34B)의 매개변수를 기반으로 하는 'A.X 3.1'은 SK텔레콤이 프롬 스크래치 방식으로 모델 구축과 데이터 학습 등 전 단계를 직접 진행했다. 이번에 공개한 A.X 3.1은 이전 버전(A.X 3.0)보다 개선됐다. 한국어 대화 성능에 집중했던 A.X 3.0과는 달리 A.X 3.1에서는 추론모델로의 확장 가능성을 고려해 코드와 수학성능이 향상됐다. 이로써 SK텔레콤은 프롬 스크래치 방식의 A.X 3.1 모델 2종(표준, 경량)과 대규모 학습(CPT)에 기반한 A.X 4.0 모델 2종(표준, 경량)까지 총 4개의 모델을 오픈소스로 공개했다. 해당 모델들은 학술 연구나 상업 이용 등에 자유롭게 활용 가능하다. A.X 3.1(34B)은 자사 A.X 4.0(72B)와 비교할 때 절반 이하의 매개변수로 구성됐으나 같은 한국어 서비스에 적용될 경우 약 90% 수준의 성능을 발휘한다. A.X 3.1(34B) 모델은 대표적인 한국어 능력 평가 벤치마크인 KMMLU에서 'A.X 3.1'(69.20)는 'A.X 4.0'(78.3) 대비 88% 수준을 확인했고, 한국어 및 한국 문화 벤치마크인 CLIcK에서는 'A.X 3.1'(77.1)가 'A.X 4.0'(85.7) 대비 90% 수준의 성능을 기록했다. 앞서 SK텔레콤은 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델 사업'에 지원했다. SK텔레콤 컨소시엄은 반도체, 모델, 데이터, 서비스로 이어지는 독자 기술 기반의 풀스택 AI를 구현하고, 개발하는 모델을 국내 AI 생태계의 다양한 기업들에 오픈소스로 개방하는 것을 목표로 하고 있다. 컨소시엄에는 크래프톤, 포티투닷, 리벨리온, 라이너, 셀렉트스타 등 다양한 분야를 아우르는 회사들과 함께 학계를 대표하는 서울대학교 연구실들과 KAIST 연구진 등이 참여한다. 또한, SK텔레콤 컨소시엄이 만들어낼 AI모델을 사용하기로 의향서를 낸 업체 중에는 SK하이닉스와 SK이노베이션, SK AX, SKB 등 SK그룹사와, SKT가 주도하는 K-AI 얼라이언스에 참여 중인 몰로코, 씨메스, 가우스랩스, 스캐터랩 등이 포함됐다. SK텔레콤 컨소시엄은 자체 개발 LLM인 A.X와 각 참여사가 보유한 자체 LLM 및 데이터 등을 기반으로 대한민국을 대표하는 독자 파운데이션 신규 모델을 만들어갈 계획이다. 특히 기존 규모를 뛰어넘는 초거대 AI 모델 개발에 도전한다. 텍스트뿐만 아니라 이미지, 음성, 비디오 등 다양한 형태의 데이터를 통합적으로 처리할 수 있는 '옴니모달' 기술을 적용할 예정이다. 현재 AI 업계의 표준으로 자리잡은 트랜스포머 구조를 넘어서는 혁신적인 신규 구조 연구도 추진한다. 이를 통해 글로벌 AI 경쟁에서 대한민국만의 독자적인 기술 경쟁력을 확보할 계획이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 "각 분야 선도기업들과의 컨소시엄 구성으로 향후 소버린 AI 분야에서 새로운 성과를 만들어낼 것"이라며 "국내 AI 생태계를 종합적으로 고려해 혁신적인 인공지능 모델을 선보일 계획"이라고 밝혔다.

2025.07.24 09:45진성우

SK하이닉스, SoCAMM 연내 공급 개시…AI 메모리 공략 가속화

SK하이닉스가 AI 메모리 시장 선점을 위한 차세대 제품 개발에 매진하고 있다. 서버용 저전력 D램 모듈로 각광받는 소캠(SoCAMM)의 연내 공급을 시작하고, 최신형 그래픽 D램의 용량도 늘릴 계획이다. SK하이닉스는 올 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원(영업이익률 41%), 순이익 6조9천962억원(순이익률 31%)을 기록했다고 24일 밝혔다. 매출은 전년동기 대비 35%, 전분기 대비 26% 증가했다. 영업이익은 전년동기 대비 68%, 전분기 대비 24% 증가했다. 이는 지난해 4분기를 넘어선 사상 최대 분기 실적에 해당한다. SK하이닉스는 “글로벌 빅테크 기업들이 AI에 적극 투자하면서 AI용 메모리 수요가 꾸준히 늘어났다”며 “D램과 낸드 모두 예상을 웃도는 출하량을 기록하면서 역대 최고 실적을 달성했다”고 밝혔다. 나아가 회사는 AI 메모리 시장 공략을 가속화하기 위한 신제품을 지속 출시할 예정이다. SK하이닉스는 "서버용 LPDDR 기반 모듈 공급을 연내 시작하고, 현재 16Gb(기가비트)로 공급하고 있는 AI GPU용 GDDR7은 용량을 확대한 24Gb 제품도 준비할 것"이라며 "이같은 회사의 AI 메모리 제품군 다양화로 AI 시장에서의 선도적 지위는 더욱 공고해질 전망"이라고 밝혔다. 서버용 LPDDR 기반 모듈은 SoCAMM을 뜻하는 것으로 알려졌다. SoCAMM은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈이다. 저전력 D램인 LPDDR을 4개씩 집적해 전력 효율성을 높였다. 특히 데이터 전송 통로인 I/O(입출력단자) 수가 크게 늘어나 고성능 컴퓨팅 분야에 적합하다.

2025.07.24 08:57장경윤

"HBM3E 12단 본격 확대"…SK하이닉스, 2분기 역대 최대 매출·영업익 달성

SK하이닉스가 올 2분기 매출·영업이익 모두 사상 최대 분기 실적을 달성했다. 증권가 예상 역시 상회했다. HBM(고대역폭메모리) 등 고부가 AI 메모리 판매가 본격적으로 확대된 덕분이다. SK하이닉스는 올 2분기 매출액 22조2천320억원, 영업이익 9조2천129억원(영업이익률 41%), 순이익 6조9천962억원(순이익률 31%)을 기록했다고 24일 밝혔다. 매출은 전년동기 대비 35%, 전분기 대비 26% 증가했다. 영업이익은 전년동기 대비 68%, 전분기 대비 24% 증가했다. 이는 지난해 4분기를 넘어선 사상 최대 분기 실적에 해당한다. 증권가 컨센서스(영업이익 9조원) 또한 상회했다. SK하이닉스는 “글로벌 빅테크 기업들이 AI에 적극 투자하면서 AI용 메모리 수요가 꾸준히 늘어났다”며 “D램과 낸드 모두 예상을 웃도는 출하량을 기록하면서 역대 최고 실적을 달성했다”고 밝혔다. 회사는 이어 “D램은 HBM3E 12단 판매를 본격 확대했고, 낸드는 전 응용처에서 판매가 늘어났다”며 “업계 최고 수준의 AI 메모리 경쟁력과 수익성 중심 경영을 바탕으로 좋은 실적 흐름을 이어왔다”고 덧붙였다. 이 같은 호실적으로 2분기 말 현금성 자산은 17조원으로 전분기 대비 2조7천억원 늘었다. 차입금 비율은 25%, 순차입금 비율은 6%를 기록했으며, 순차입금은 1분기 말보다 4조1천억원이나 크게 줄었다. SK하이닉스는 고객들이 2분기 중 메모리 구매를 늘리면서 세트 완제품 생산도 함께 증가시켜 재고 수준이 안정적으로 유지됐고, 하반기에는 고객들의 신제품 출시도 앞두고 있어 메모리 수요 성장세가 이어질 것으로 내다봤다. AI 모델 추론 기능 강화를 위한 빅테크 기업들의 경쟁도 고성능, 고용량 메모리 수요를 더욱 확대할 것으로 전망했다. 아울러 각국의 소버린 AI 구축 투자가 장기적으로 메모리 수요 증가의 새로운 성장 동력이 될 것으로 예측했다. 이에 회사는 HBM3E의 제품 성능과 양산 능력을 바탕으로 HBM을 전년 대비 약 2배로 성장시켜 안정적인 실적을 창출한다는 방침이다. HBM4 역시 고객 요구 시점에 맞춰 적기 공급이 가능하도록 준비해 업계 최고 수준 경쟁력을 지속 강화해 나갈 계획이다. 더불어 서버용 LPDDR 기반 모듈 공급을 연내 시작하고, 현재 16Gb(기가비트)로 공급하고 있는 AI GPU용 GDDR7은 용량을 확대한 24Gb(기가비트) 제품도 준비할 계획이다. 이 같은 회사의 AI 메모리 제품군 다양화로 AI 시장에서의 선도적 지위는 더욱 공고해질 전망이다. 낸드는 수요에 맞춘 신중한 투자 기조와 수익성 중심 운영을 이어가며 향후 시장 상황 개선에 대비한 제품 개발도 지속 추진한다. 특히 QLC 기반 고용량 기업용 SSD(eSSD) 판매 확대와 321단 낸드 기반 제품 포트폴리오 구축을 통해 시장 경쟁력을 강화해 나갈 계획이다. 송현종 SK하이닉스 사장(Corporate Center)은 “내년 수요 가시성이 확보된 HBM 등 주요 제품의 원활한 공급을 위해 올해 일부 선제적인 투자를 집행하겠다”며 “AI 생태계가 요구하는 최고 품질과 성능의 제품을 적시 출시해 고객 만족과 시장 성장을 동시에 이끌어 나가는 '풀 스택 AI 메모리 프로바이더'로 성장하겠다”고 말했다.

2025.07.24 08:49장경윤

삼성SDS·LG CNS·SK AX…AI판 키운다, 2분기 실적도 '순풍'

삼성SDS, LG CNS, SK AX 등 국내 주요 IT서비스 기업들이 2분기에도 클라우드·생성형 인공지능(AI) 중심의 신사업 부문에서 실적 향상을 이룬 것으로 보인다. 삼성SDS는 공공 수주와 AI 기반 B2B 솔루션 확산에 박차를 가했으며 LG CNS는 글로벌 AI 협업과 클라우드 수주가 실적을 견인했다. SK AX는 사명 변경과 함께 산업별 AI 플랫폼 강화 및 글로벌 도약 비전을 선포하며, 전사 AI 중심 구조를 본격화하고 있다. 22일 업계에 따르면 이들 3사는 모두 전년 동기 대비 매출과 영업이익에서 동반 상승이 기대된다. 경기 불확실성과 프로젝트 발주 일정 변동 등 외부 변수에도 불구하고 AI와 클라우드 중심의 구조 전환이 실적을 견인한 것으로 평가된다. 삼성SDS, 공공 프로젝트 연속 수주… 클라우드·AI 플랫폼 실적 견인 삼성SDS의 2분기 실적은 매출 약 3조5천874억원, 영업이익 약2천393억원에 이를 것으로 증권가는 내다봤다. 전년 동기 대비 매출은 약 6.5%, 영업이익은 역 8.3% 성장할 것이란 전망이다. 클라우드 및 생성형 AI 솔루션 매출 확대가 성장을 이끌고 있으며 디지털 물류 플랫폼 '첼로스퀘어'의 글로벌 고객 확대도 물류 부문 회복세를 견인하고 있기 때문이다. 특히 패브릭스, 브리티 코파일럿 등 생성형 AI 기반 서비스를 앞세워 국내 B2B 시장 공략에 속도를 내고 있다. 패브릭스는 현재 공공, 금융, 제조 등 다양한 업종의 약 70개 고객사, 13만여 명 이상이 사용 중으로, 국내 최대 규모의 기업용 생성형 AI 플랫폼으로 자리매김하고 있다. 또한 행정안전부의 '지능형 업무관리 플랫폼' 등 대형 공공 프로젝트를 연이어 수주하며, 공공 디지털 전환 시장에서의 입지도 강화되고 있다. 공공기관의 클라우드 전환 수요 증가와 기업들의 AI 투자 확대가 맞물리며 삼성SDS에 보다 유리한 시장 환경이 조성되고 있다는 분석이다. 이에 일부 증권사는 삼성SDS 목표주가를 기존보다 높인 18만~23만 원 수준으로 상향 조정하기도 했다. 다만 최근 정부가 공모한 국가 AI 컴퓨팅센터 구축 사업에는 참여하지 않기로 결정했다. 삼성SDS는 초기 투자 부담과 수익성, 사업 구조의 불확실성을 이유로 들며, 민간 단독 참여보다는 민관 협력 체계가 명확히 보완될 경우 향후 참여를 검토할 수 있다는 입장이다. LG CNS, 하니웰·코히어와 협력…북미·차세대 기술 동시 공략 LG CNS는 2분기 매출 1조 5천억원, 영업이익은 1천300억원 수준으로 예상된다. 지난 1분기에 기록한 역대 최대 매출과 영업이익을 넘어설 것으로 기대되며 이는 클라우드·AI 중심 신사업 확장이 견인한 것이란 분석이다. 경기도교육청 AI 플랫폼 구축, 제조·금융 하이브리드 클라우드 수주 등이 실적 성장을 뒷받침했다. 더불어 LG CNS는 하니웰, 코히어 등 글로벌 AI 파트너들과의 협력 관계를 본격화하며 AI 경쟁력을 강화하고 있다. 하니웰과는 북미 제조AX 시장 공략을 위한 전략적 협업에 착수했으며, 코히어와는 대규모 언어 모델(LLM) 기반 기술 개발을 진행 중이다. 이를 통해 LG CNS는 다양한 산업에 특화된 AI 서비스를 선보일 계획이며, 최근에는 소버린 AI 개발에도 역량을 집중하고 있다. AI 기술 내재화를 위한 조직 체계 개편도 이뤄졌다. 과학기술정보통신부 장관으로 임명된 배경훈 전 원장의 후임으로는 이홍락·임우형 공동 원장이 LG AI연구원 수장을 맡았다. 이홍락 원장은 세계 10대 AI 연구자로 꼽히는 머신러닝·딥러닝 분야 석학으로, 미국 미시간주 앤아버에 위치한 LG 글로벌AI센터에서 차세대 AI 기술 연구를 주도해 왔다. 그는 미국 현지에서 연구조직을 운영하며 선진 기술을 국내에 접목하고 글로벌 인재를 확보하는 역할을 맡고 있다. 임우형 원장은 음성인식·머신러닝 분야 전문가로, 엑사원을 활용한 AI 응용 기술 개발을 수행해 왔으며, 국내 연구원 운영 전반을 책임진다. SK AX, 사명 바꾸고 산업별 AI 전환 본격화…글로벌 톱10 도약 선언 SK C&C는 지난 6월 1일부로 사명을 'SK AX'로 변경하고 AI 중심 디지털 전환 기업으로 새롭게 출범했다. 데이터와 AI 기반 산업 혁신을 선도하겠다는 그룹의 전략이 반영됐다. 이와 함께2분기에는 생성형 AI 신사업 및 데이터 기반 플랫폼 확장에 따른 매출이 증가했을 것으로 예상된다, 사명 변경과 동시에 SK AX는 AI 조직을 전사적으로 통합하고, 산업별 AI 솔루션 강화, 산학연 협력, 전략적 M&A 등 포트폴리오 재편을 본격 추진 중이다. 금융·제조·유통 등 산업 현장에 특화된 맞춤형 AI 플랫폼과 기업용 LLM 개발을 통해, 기업 고객에게 실질적인 AI 기반 혁신 서비스를 제공하고 있다. 특히 기업 맞춤형 분석 플랫폼과 AI 기반 제조 시스템 고도화는 단기적으로 실적 기여도가 높을 것으로 예상된다. 윤풍영 SK AX 대표는 "우리는 스스로 국내 최고의 AX 롤모델이 되기 위해 실질적 AI 혁신을 선언했다"며 "SK그룹의 실제 AX 사례를 글로벌 최고의 혁신 사례로 발전시켜, 국내는 물론 글로벌 시장에서도 최고의 AX 파트너로 자리매김할 것"이라고 밝혔다. 윤 대표는 오는 2027년까지 전사 생산성 30% 이상 향상, 10년 내 글로벌 톱10 AX 기업 도약이라는 장기 비전도 함께 제시했다.

2025.07.22 12:01남혁우

SK하이닉스, 엔비디아 H20향 'HBM3E' 대응 분주…추가 생산 검토

SK하이닉스가 HBM3E(5세대 고대역폭메모리) 8단 출하량을 당초 예상 대비 확대할 수 있을 것으로 관측된다. 최근 엔비디아의 중국향 AI 반도체 'H20'에 가해진 수출 규제가 해제된 덕분이다. H20은 당초 HBM3를 활용했으나, 올해부터 SK하이닉스의 HBM3E 8단 제품을 주력으로 탑재한다. 이에 SK하이닉스는 우선 올 3분기까지 H20향 HBM3E 8단 양산을 진행할 계획이다. 나아가 추가적인 수요가 발생할 가능성을 고려해, 해당 HBM 생산량 확대를 위한 소재·부품 발주를 검토하고 있는 것으로 파악됐다. 21일 업계에 따르면 SK하이닉스는 HBM3E 8단 제품의 생산을 당초 예상보다 확대하는 방안을 논의 중이다. 앞서 엔비디아는 지난 15일 공식 블로그를 통해 중국 시장에 H20 GPU 판매를 재개할 계획이라고 밝혔다. 당시 젠슨 황 엔디비아 최고경영자(CEO)는 "고객들에게 H20 판매를 위한 신청서를 다시 제출하고 있다"며 "미국 정부가 엔비디아에 관련 라이센스를 부여할 것이라고 약속했고, 엔비디아는 곧 제품 공급을 시작할 수 있기를 기대한다"고 설명했다. H20은 엔비디아의 기존 주력 제품에서 성능을 하향 조정한 AI 가속기다. 미국의 대중(對中) AI 반도체 수출 규제를 우회하기 위해 출시됐다. 그러나 지난 4월 미국 정부가 H20에 대한 무기한 수출 규제를 통보하면서, 엔비디아는 약 55억 달러(한화 약 7조4천억원) 수준의 비용이 발생할 것으로 예상돼 왔다. 이번 미국 정부의 결정으로 H20 수출길이 다시 열리면서, SK하이닉스도 HBM3E 8단 사업 매출을 확대될 수 있는 기회를 잡게 됐다. 당초 H20은 HBM3를 탑재했으나, 엔비디아는 올해 초 HBM3E 8단을 대신 채용해 성능을 높인 바 있다. 이에 따라 SK하이닉스·마이크론에 HBM3E 8단에 대한 추가 공급을 요청했다. 특히 SK하이닉스가 퍼스트 벤더로서의 지위를 부여받은 것으로 알려졌다. 실제로 SK하이닉스는 올해 1분기부터 H20용 HBM3E 8단 공급을 시작해, 3분기까지 제품을 지속 생산할 계획인 것으로 파악됐다. 나아가 올 4분기 혹은 내년에도 제품을 추가 양산하는 방안을 내부적으로 논의하고 있다. 이를 위한 관련 소재·부품의 추가 주문 계획을 구체화하는 중이다. 중국이 H20 등 엔비디아 AI칩 수급에 적극 나서고 있는 분위기를 고려한 전략으로 풀이된다. 실제로 엔비디아가 중국향 AI 반도체 공급량을 늘리는 경우, HBME 8단의 양산 비중은 당초 예상 대비 확대될 것으로 예상된다. SK하이닉스는 올 하반기 HBM3E 생산 비중에서 12단 제품을 80%, 8단 제품을 20% 수준으로 계획해 왔다. 반도체 업계 관계자는 "SK하이닉스가 H20의 중국 수출 재개 움직임과 맞물려 HBM3E 8단 양산을 확대하는 분위기"라며 "추가 수요에 대비해 관련 소재·부품을 확보하는 방안을 논의하고 있다"고 설명했다. 변수는 엔비디아의 공급망 대책이다. 엔비디아는 H20 수출 규제 당시 TSMC에 위탁했던 양산을 취소했으며, 해당 양산 라인은 타 고객사에 할당된 것으로 알려졌다. H20을 다시 양산하기 위해선 9개월의 시간이 필요하다. 결과적으로, H20 양산에 대한 병목현상을 해결해야만 사업 확대가 가능할 전망이다. 최근 미국 IT매체 디인포메이션은 소식통을 인용해 "성능이 높아진 엔비디아 H20은 주로 SK하이닉스의 HBM을 탑재하고 있으나, 이번 주 SK하이닉스가 엔비디아에 H20용 추가 메모리 공급 여력이 제한적일 것이라고 통보했다"며 "엔비디아는 최근 몇 주간 중국 내 주요 고객들과 접촉해 H20 및 블랙웰 칩에 대한 수요 및 반응을 파악하고 있다"고 보도했다.

2025.07.21 10:53장경윤

곽동신 한미반도체 회장 "HBM4·5도 TC본더로 간다…하이브리드 본더 더 비싸"

한미반도체는 곽동신 회장이 하이브리드 본더 체제로 전환을 검토한다는 일각의 견해를 일축했다고 15일 밝혔다. 곽 회장은 "HBM4, HBM5 생산에서 하이브리드 본더 도입은 우도할계(牛刀割鷄)"라고 강조했다. 우도할계는 '소 잡는 칼로 닭을 잡는다'는 뜻으로, 작은 일에 어울리지 않게 큰 도구를 쓴다는 의미다. 곽 회장은 “하이브리드 본더는 대당 100억원 이상으로 TC 본더의 2배가 넘는 고가 장비”라며 “JEDEC에서 지난 4월 AI 패키징 두께 기준을 775μm로 완화하면서 HBM4와 HBM5 모두 한미반도체 TC 본더로 제조가 가능해 고객들이 가격이 두배가 넘는 하이브리드 본더를 선택하지 않을 것으로 본다”고 언급했다. 곽 회장은 또 “한미반도체는 전세계 HBM TC 본더 시장점유율 1위로 2024년부터 현재까지 엔비디아향 HBM3E용 시장에서 90% 점유율을 차지하고 있다"며 "2027년 말까지 HBM4, HBM5 시장에서도 95% 점유율을 목표로 한다”고 밝혔다. 한미반체는 2027년 말 출시를 목표로 HBM6용 하이브리드 본더를 개발해 시장에 선제적으로 대비할 계획이다. 플럭스리스 본더 또한 로드맵에 따라 빠르면 연내 출시할 예정이다. 곽 회장은 “당사는 NCF와 MR-MUF 타입 등 모든 HBM 생산용 열압착 본딩기술을 보유하고 있고, 이 분야에서 전세계 최고의 기술을 가지고 있다"고 자신감을 표했다. 또한 한미반도체는 수직계열 생산시스템(In-house system)의 장점을 부각했다. 곽 회장은 “한미반도체는 설계부터 부품 가공, 소프트웨어, 조립, 검사에 이르기까지 전 과정을 내부에서 통합 관리함으로써 기술 혁신, 생산 최적화, 비용 관리 측면에서 다른 장비업체들이 쉽게 따라올 수 없는 차별화된 경쟁력을 확보하고 있다”고 설명했다. 글로벌 시장에서 포지션과 고객 대응 전략도 명확히 제시했다. “글로벌 AI 시장 성장과 HBM 수요 증가와 함께 HBM 생산용 고사양 본더 수요가 크게 증가할 것으로 확신한다”며 “이러한 수요 증가에 대응하기 위해 기술 개발과 생산 능력 확대에 적극 투자하고 있다”고 덧붙였다. 1980년 설립된 한미반도체는 전 세계 약 320여개의 고객사를 보유한 글로벌 반도체 장비 기업이다. 2002년 지적재산부 설립 이후 지적재산권 보호와 강화에도 주력하며 현재까지 총 120여건에 달하는 HBM 장비 특허를 출원했다.

2025.07.15 09:49장경윤

카카오, SK스퀘어 지분 4300억 전량 매각..."AI 등 투자 실탄 확보"

카카오가 AI 등 미래 먹거리 투자를 위해 4천300억원에 달하는 SK스퀘어 지분을 매각한다. 11일 금융감독원 전자공시시스템에 따르면 카카오의 투자 전문 회사 카카오인베스트먼트는 SK스퀘어 주식 248만6천612주를 대량 매매(블록딜) 형태로 처분한다. 이는 카카오 인베스트먼트가 보유한 SK스퀘어 지분 전량이며, 매각 금액은 4천296억8천655만3천600원이다. 주당 매각 금액은 전날 종가인 18만3천600원에 할인가를 적용한 17만2천800원이다. 이번 매각 배경에 대해 카카오는 “인공지능(AI) 투자나 미래 투자 재원 확보 목적으로 주식을 처분했다”고 말했다.

2025.07.11 10:04박서린

SKT, 자체 개발 AI 모델 'A.X 3.1 라이트' 공개

SK텔레콤이 11일 오픈소스 커뮤니티 허깅페이스에 독자 구축 LLM인 에이닷 엑스(A.X) 3.1 라이트'를 공개했다. A.X 3.1 라이트는 기존 에이닷 전화 통화 요약에 적용했던 A.X 3.0 라이트 모델의 업그레이드 버전으로, SK텔레콤이 프롬 스크래치 방식으로 모델 구축과 데이터 학습 등 전 단계를 직접 진행했고 70억개(7B)의 매개변수를 기반으로 하는 경량 모델이다. 경량화된 성능과 높은 효율성의 장점에 따라 정보 처리 용량, 소비 전력 등 다양한 사양의 모바일 기기에서 최적의 품질을 구현할 수 있도록 해 기업들의 원활한 서비스 제공에 기여할 전망이다. A.X 3.1 라이트는 같은 규모의 매개변수를 바탕으로 하는 자매 LLM인 A.X 4.0 라이트와 동등한 수준의 우수한 한국어 처리능력을 갖췄다. 대표적인 한국어 능력 평가 벤치마크인 KMMLU에서 A.X 3.1 라이트(61.70)는 A.X 4.0 라이트(64.15)대비 96% 수준의 성능을 보였다. 또 한국어와 한국 문화 벤치마크인 CLIcK에서는 A.X 4.0 라이트(69.97) 대비 102% 수준의 성능을 기록했다. SK텔레콤은 A.X 3.1 라이트 후속인 매개변수 340억개(34B)의 프롬 스크래치 모델인 A.X 3.1을 이달 중 추가로 선보일 예정이다. SK텔레콤은 2018년부터 AI 언어 모델을 개발해 2019년 KoBERT를 고객센터 챗봇 등에 활용하기 시작했고, 2020년 국내 최초로 GPT2를 한국어로 개발해 오픈소스로 공개했다. 2022년 선보인 에이닷(A.) 서비스에는 자체 개발한 A.X 모델을 적용해 자유 주제로 대화가 가능하게 했으며, 2024년 A.X 3.0 모델을 에이닷 전화 통화요약 기능에 적용하기도 했다. A.X 3 계열의 자체 개발 모델과 함께 최적화된 성능과 효율이 필요한 영역에는 대규모 학습(CPT)에 기반한 A.X 4 계열 모델을 활용할 예정이다. 이와 같이 투 트랙 전략을 통해 국내 기업들이 각자의 환경에서 AI 기술을 보다 쉽게 활용할 수 있는 다양한 선택지를 제공한다는 방침이다. 또한 기존 모델의 성능을 대폭 혁신할 수 있도록 GPU 자원을 확충하고 개발 역량을 높여 나갈 계획이다. SK텔레콤은 그간의 기술 역량을 바탕으로 향후 정부가 추진하는 독자 AI 파운데이션 모델 개발사업에 지원할 예정이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “꾸준히 쌓아 온 한국형 LLM 개발 역량을 바탕으로 AI 생태계 자립성을 높이고, 국가 AI 경쟁력 제고에 기여하도록 노력할 것”이라고 말했다.

2025.07.11 09:55박수형

[유미's 픽] 韓 대표 AI 선발전, '프롬 스크래치'가 핵심…컨소시엄 신경전 '치열'

글로벌 톱 수준의 거대언어모델(LLM)을 만들 '인공지능(AI) 국가대표 정예팀' 선발전이 본격화된 가운데 '프롬 스크래치(From Scratch·모델의 첫 단계부터 모두 직접 구축)'를 통한 AI 개발 경험이 핵심 기준으로 지목되고 있다. 외국 LLM을 기반으로 파인튜닝하거나, 아키텍처를 재설계하는 식으로 모델을 만들어 본 경험만으로는 정부가 원하는 결과물을 내놓기 쉽지 않을 것으로 예상돼서다. 10일 업계에 따르면 과학기술정보통신부가 추진하고 있는 '독자 AI 파운데이션 모델 개발 지원 사업'에 선정된 컨소시엄은 ▲새로운 자체 아키텍처를 설계하고 독자적 학습 알고리즘·기법을 적용해 AI 모델을 처음부터 개발하거나 ▲이미 갖고 있는 AI 파운데이션 모델을 추가 학습을 통해 고도화해도 된다. 하지만 최근 선보인 SK텔레콤의 '에이닷 엑스 4.0'처럼 해외 업체 AI 모델을 활용하면 안된다. '에이닷 엑스 4.0'은 중국 알리바바의 AI 모델 '큐원2.5'에 한국어 데이터를 추가로 학습시킨 모델로, 온프레미스(내부 구축형) 방식을 적용해 데이터 보안을 강화했다고는 하지만 정보 유출의 위험성을 우려하는 목소리들이 나오고 있다. 업계 관계자는 "에이닷 엑스 4.0이 한국어로 튜닝됐다는 이유만으로 이를 '한국형 모델'이라고 부르는 것은 맞지 않다"며 "모델의 '메모리'는 여전히 '큐원2.5'라는 점에서 큐원에서 학습한 불투명한 정보가 에이닷 엑스 4.0 내부에 그대로 내재돼 잘못된 결과물이 예기치 않게 출력될 가능성을 배제할 수 없다"고 지적했다. 이어 "큐원2.5는 메타 라마와 달리 학습에 어떤 데이터를 사용했는지, 어떻게 수집·정제했는지조차 밝히지 않아 불투명한 모델이라는 지적을 받고 있어 이를 활용한 에이닷엑스 4.0 같은 모델들이 공공망, 정부망에 도입되는 것을 철저하게 막아야 한다"며 "공공 AI는 성능이 아무리 뛰어나더라도 설명책임과 검증가능성이라는 핵심 요건을 충족시켜야 한다는 점을 이번에 심사할 때 꼭 고려해야 할 것"이라고 덧붙였다. 또 다른 관계자는 "이번 사업으로 진정한 '소버린 AI'를 실현하기 위해선 성능보다는 통제 가능성이 우선돼야 한다는 점을 정부가 명심해야 할 것"이라며 "AI 모델의 설계부터 폐기까지 전 생애주기에 걸친 자국 통제권이 확보돼야 하는 만큼 단순한 튜닝이 아닌 각 기업들이 원천 기술을 보유하고 있는지가 중요하다"고 강조했다. 정부도 이를 고려해 기존 모델을 고도화할 경우 오픈AI 등 다른 회사와 라이센싱 이슈가 없어야 한다는 조건을 따로 내걸었다. 이는 국내에서 생산되는 양질의 중요 데이터가 자칫 외국으로 유출될 수 있다는 우려를 의식한 것으로 풀이된다. 다만 외국 AI 모델의 아키텍처를 재설계했을 경우에는 활용해도 된다는 입장이다. 과기정통부 관계자는 "메타의 '라마'든, 알리바바의 '큐원'이든 외국 업체들의 AI 모델 아키텍처를 참고해 이를 우리나라 상황에 맞게 재설계 해 처음부터 만들었다면 이번 사업에 참여할 수 있다"며 "아키텍처를 그대로 쓰면서 파인튜닝한 AI 모델로는 참여할 수 없다"고 설명했다. 그러면서 "완전 재설계한 모델은 라이센스 이슈가 없을 뿐더러 거기에 들어가는 데이터도 각 업체가 보유한 것을 넣은 것이기 때문에 문제 없을 것으로 본다"며 "이 경우에는 처음부터 본인의 기술력으로 만들어진 것인 만큼 프롬 스크래치 방식으로 봐도 된다"고 덧붙였다. 이를 두고 업계에선 정부가 일부 중소업체들을 참여시키기 위해 사업자 선정 기준을 좀 더 열어둔 것으로 봤다. 예컨대 업스테이지의 경우 해외 빅테크 AI 모델의 아키텍처를 기반으로 재설계해 자체 LLM인 '솔라'를 선보이고 있다. 업스테이지는 이를 기반으로 이날 추론 모델도 공개했다. 업계 관계자는 "현재 선발전에 나올 기업 중 해외 기업 AI 모델의 아키텍처를 재설계해서 모델을 선보이는 곳은 업스테이지가 대표적인 것으로 안다"며 "AI 모델을 자체 개발한 기업만 참가할 수 있게 한다면 업스테이지 같은 스타트업들은 어느 한 곳도 선발전에 참여할 수 없어 정부가 이를 고려해 기준을 좀 더 넓게 본 것 같다"고 밝혔다. 그러면서 "이런 스타트업들은 현재 상태에선 프롬 스크래치 방식으로 AI 모델을 만들 수 없는 상태"라며 "사업자로 선정된다고 해도 기존 모델을 업그레이드 하는 쪽으로만 방향성을 잡게 될 것"이라고 덧붙였다. 업계에선 '프롬 스크래치' 방식이 아닌 외국 AI 모델을 기반으로 재설계하거나 파인튜닝을 한 것을 활용한 기업들이 그간 많았다는 점에서 이번 선발전의 문턱을 넘을 수 있는 곳이 많지 않을 것으로 예상했다. 또 프롬 스크래치 방식을 그간 고집하며 대형 모델을 선보였던 KT와 네이버클라우드, LG AI 연구원, NC AI 정도가 사업자 선정에 유리할 것으로 봤다. 이들은 외국 회사의 오픈소스를 활용하지 않고 처음부터 끝까지 자체 기술만을 적용해 AI 모델을 개발해 본 경험이 있다. 코난테크놀로지, 솔트룩스, 카카오도 프롬 스크래치 방식으로 자체 모델을 개발한 만큼 이번에 사업자로 선정될 것이란 자신감을 보이고 있다. 이 중 코난테크놀로지는 지난 2023년 4월 국내 중소형 업체 중 최초로 자체 LLM인 '코난 LLM'을 출시한 곳으로, 이번 선발전에서 유력 후보로 떠오르고 있다. 지난 5월 자체 개발 LLM '루시아3'를 공개한 솔트룩스 역시 중소업체 중에서 주목 받고 있다. 업계에선 정부가 최종 선발될 '독자 AI 파운데이션 모델 프로젝트' 참여 정예팀을 대기업 3팀, 중소기업 2팀 등 최대 5팀을 초기에 선발할 것으로 보고 있다. 업계 관계자는 "300억 개(30B) 이상의 파라미터(매개변수)를 가진 대형 모델을 자체적으로 만들어 본 국내 업체는 사실 손꼽힌다"며 "이번 선발전은 일부 대기업을 중심으로 경쟁이 치열해질 가능성이 높다"고 봤다. 그러면서도 "다만 LG, 네이버 같은 일부 대기업은 기존 AI 모델을 전 국민이 쓰는 모델로 키워 나가기엔 수익이 결부돼 있어 내부 설득이 만만치 않을 듯 하다"며 "KT, SK텔레콤 등 통신사들은 최근까지 소버린 AI를 부정하고 해외 유력 빅테크 업체들과 협업하려고 노력했다가, 정부의 정책 변경에 발 맞춰 이번 사업에 들어오려는 모습을 보였다는 점에서 사업자로 선정되기엔 아쉬운 점이 많다"고 덧붙였다. 공개적으로 이번 선발전 참여를 예고했던 기업들은 최근 컨소시엄 구성을 두고도 치열한 주도권 경쟁을 벌이고 있다. 컨소시엄을 어떤 곳과 함께 구성하느냐에 따라 자신들의 전략이 노출될 가능성이 높은 만큼, 보안 유지에도 각별히 신경쓰는 분위기다. 현재까지 이번 선발전에 관심을 보이며 설명회에 참여한 기업은 KT와 SK텔레콤, LG유플러스, LG AI 연구원, 카카오, 네이버, 포티투마루, 업스테이지, 코난테크놀로지, NC AI, 솔트룩스, 레블업, 트릴리언랩스, 트웰브랩스, 이스트소프트, 모티프테크놀로지스 등으로 알려져 있다. 정부는 이번 선발전의 평가 기준을 크게 세 가지로 구분했다. 총점은 100점으로 ▲기술력 및 개발 경험(40점) ▲개발목표 및 전략·기술(30점) ▲파급효과 및 기여 계획(30점) 등을 눈여겨 볼 예정이다. 업계 관계자는 "각 업체들은 자신들의 장·단점을 철저하게 분석한 후 단점을 잘 커버할 수 있는 스타트업, 대학 등과 컨소시엄을 구성하기 위해 물밑 작업을 치열하게 벌이고 있는 것으로 안다"며 "다만 국내에 있는 대부분의 기업, 대학 등이 이번 선발전에 참여할 것으로 보여 이를 제대로 객관적으로 평가해 줄 심사위원들을 정부가 확보했을 지가 가장 큰 관심사"라고 말했다. 또 다른 관계자는 "공공 AI의 핵심 요구사항에서 기술적 성능을 넘어선 설명 책임과 투명성, 국가 인프라로서의 신뢰성과 지속가능성, 향후 에이전트 간 연동 등 확장성을 고려해야 한다"며 "'잘 작동하는 AI'와 '책임질 수 있는 AI'는 별개의 문제라는 점을 기준으로 삼고 성능 대비 통제권을 잘 가질 수 있는 부분에 대해 심사 시 신중히 봐야 할 것"이라고 밝혔다.

2025.07.10 17:00장유미

웹케시-SK쉴더스 맞손…AI경리나라에 보안 서비스 지원

웹케시(대표 강원주)가 SK쉴더스와 손잡고 중소기업 맞춤형 보안 서비스를 공급한다. 웹케시는 SK쉴더스와 고객 기반 확대를 위한 전략적 업무협약(MOU)을 체결했다고 10일 밝혔다. 이번 업무협약은 지난 9일 서울 영등포구에 위치한 웹케시 본사에서 진행됐으며, 강원주 웹케시 대표와 김병무 SK쉴더스 사이버보안부문장(부사장)을 비롯한 양사 주요 관계자들이 참석해 협력 방안을 논의했다. 웹케시와 SK쉴더스는 이번 협약을 통해 ▲공동 마케팅 및 프로모션 ▲기업 규모별 맞춤형 보안 서비스 공급 ▲추가 협업 과제 발굴 등에 협력할 계획이다. 첫 단계로 웹케시의 경리업무 자동화 솔루션 'AI경리나라'를 이용하는 4만여 중소기업 고객을 대상으로 SK쉴더스의 구독형 보안 서비스 '사이버가드'를 부가상품 형태로 공급한다. 고객은 AI경리나라 홈페이지 내 스토어를 통해 손쉽게 해당 서비스를 신청할 수 있다. 양사는 중소기업을 시작으로 향후 대기업 및 중견기업 고객까지 협력 범위를 점차 넓힐 방침이다. 웹케시는 SK쉴더스의 보안 서비스를 보다 합리적인 구성과 가격으로 제공함으로써 자사 금융 솔루션의 신뢰도와 경쟁력을 더욱 강화할 수 있을 것으로 기대하고 있다. 김병무 SK쉴더스 사이버보안부문장은 "웹케시와의 협력은 고객 기반 확대와 함께 양사의 동반성장을 견인할 것"이라며 "기업 규모와 상관없이 누구나 안정적인 비즈니스 환경을 누릴 수 있도록 최적의 보안 서비스를 제공하겠다"고 밝혔다. 강원주 웹케시 대표는 "사이버 보안의 중요성이 날로 커지는 시대에 SK쉴더스의 우수한 보안 기술을 함께 소개할 수 있어 의미가 크다"며 "기업 고객이 보다 안전한 환경에서 금융 업무를 수행할 수 있도록 웹케시 역시 책임을 다하겠다"고 말했다.

2025.07.10 14:36남혁우

차세대 'LPDDR6' 표준 나왔다…삼성·SK, AI 메모리 새 격전지 추가

차세대 저전력 D램인 'LPDDR6' 표준이 최근 제정됐다. LPDDR6는 이전 대비 대역폭이 최대 1.5배 높은 것이 특징으로, 엣지 AI·온디바이스 AI 등 고성능 컴퓨팅 분야에서 수요가 창출될 것으로 기대된다. 삼성전자·SK하이닉스 등 주요 메모리 기업들도 중장기적 관점에서 새로운 성장동력을 확보하게 됐다. 국제반도체표준화기구(JEDEC)는 LPDDR6 표준인 'JESD209-6'을 제정했다고 9일 밝혔다. LPDDR은 저전력 D램으로 스마트폰, 엣지 서버 등 전력 효율성이 중요한 기기에서 주로 활용된다. 1-2-3-4-4X-5-5X 순으로 개발돼 왔으며, 현재 7세대인 LPDDR5X까지 상용화가 이뤄졌다. LPDDR6의 핵심 요소는 대역폭의 증가다. 대역폭은 데이터를 한 번에 얼마나 많이 전송할 수 있는지를 나타내는 척도다. 기존 LPDDR5X의 경우 대역폭이 통상 8.5Gbps, 최대 9.6Gbps까지 구현 가능하다. LPDDR6는 통상 10.6Gbps에서 14.4Gbps까지 구현한다. 약 1.5배의 성능 향상이 이뤄지는 셈이다. 세부적으로 LPDDR6는 다이 당 2개의 서브채널 및 각 12개의 하위 채널을 갖춰, 데이터를 작은 단위(32바이트)까지 나눠 빠르게 처리할 수 있다. 또한 작업에 따라 유연하게 데이터 접근 방식을 바꿀 수 있는 제어 기술, 신호 품질을 유지할 수 있는 기술 등을 탑재했다. 전력효율성 측면에서는 이전 세대인 LPDDR5 대비 더 낮은 전압과 저전력 소비가 가능한 'VDD2' 전원을 두 개로 나눠 활용한다. 클럭 신호를 교차로 활용하기 때문에 전력 효율성과 성능을 동시에 높일 수 있다. LPDDR6 표준이 제정됨에 따라 삼성전자·SK하이닉스·마이크론 등 주요 D램 제조업체는 물론, EDA(설계자동화) 및 IP 기업, 팹리스 등 관련 생태계 참여자들의 차세대 엣지 AI 서버 개발이 가속화될 것으로 기대된다. 최장석 삼성전자 메모리 상품기획팀장(상무)은 "삼성전자는 이번 JEDEC 표준 제정이 차세대 LPDDR 제품 개발에 중추적인 역할을 할 것이라고 확신한다"며 "기술 선도 기업으로서 온디바이스 AI를 포함한 모바일 시장 변화 요구에 부응하는 최적화된 솔루션을 제공하기 위해 최선을 다할 것"이라고 말했다. 이상권 SK하이닉스 D램 PP&E 담당은 "LPDDR6는 대역폭 및 전력 효율을 크게 향상하는 동시에 차세대 모바일, 자동차, AI 기반 애플리케이션의 증가하는 수요를 충족하기 위해 신뢰성 기능을 강화한다"며 "SK하이닉스는 업계 파트너들과 긴밀히 협력해 메모리 혁신을 발전시켜 나가기 위해 최선을 다하고 있다"고 밝혔다. 반도체 업계 관계자는 "주요 메모리 기업들과 관련 협력사들이 LPDDR6에 필요한 컨트롤러, 인터페이스 개발에 열을 올리고 있다"며 "실제 LPDDR6를 활용하기 위해선 아직 시간이 필요하나, 대역폭이 높은 LPDDR을 원하는 AI 서버 기업들은 이미 LPDDR6 도입을 논의 중"이라고 설명했다.

2025.07.10 10:23장경윤

SK하이닉스, 2분기 메모리 매출 삼성전자와 '동률'…HBM에 엇갈린 희비

올 2분기 삼성전자·SK하이닉스의 메모리 사업 격차가 크게 줄어든 것으로 나타났다. 기업별로 극명하게 나뉜 HBM(고대역폭메모리) 사업의 성패 여부가 가장 큰 영향을 미친 것으로 풀이된다. 8일 시장조사업체 카운터포인트리서치에 따르면 삼성전자·SK하이닉스의 올 2분기 메모리 사업 매출은 각각 155억 달러(한화 약 21조2천억원)로 동일한 수준을 기록한 것으로 분석된다. 앞서 SK하이닉스는 지난 1분기 D램 사업에서 사상 처음으로 삼성전자의 매출을 추월한 바 있다. 당시 양사의 D램 매출 점유율은 SK하이닉스가 36%, 삼성전자가 34%로 집계됐다. 최정구 카운터포인트 책임연구원은 "SK하이닉스가 올해 1분기 D램 시장에서 최초로 매출 1위를 기록한 데 이어, 2분기에는 전체 메모리 시장에서 삼성전자와 1위 자리를 놓고 경쟁하고 있다"고 설명했다. SK하이닉스의 높은 성장세에는 HBM(고대역폭메모리) 사업 확대가 중대한 영향을 끼쳤다. SK하이닉스는 HBM3E 12단 등 최신형 HBM을 주요 고객사인 엔비디아에 선제적으로 공급하는 등 성과를 거두고 있다. 삼성전자 역시 올 하반기 D램 가격 상승, HBM 출하량 증가에 따른 회복세가 전망되나, 성장 폭은 제한적일 수 있다는 의견이 제기된다. 카운터포인트리서치는 "삼성전자는 하반기 AMD와 브로드컴에 HBM3E 제품을 공급하면서 실적 개선이 예상되나, 엔디비아로의 출하는 여전히 불투명하다"며 "강화된 대중국 판매 규제 영향으로 올해 HBM 판매량 증가는 전년 대비 제한될 것"이라고 밝혔다.

2025.07.08 16:15장경윤

SK AX가 강조한 'SHE' 혁신, 뭐길래?

SK AX가 7월 산업 안전의 달을 맞아 인공지능(AI) 기반의 산업 현장 안전·보건·환경(SHE) 혁신 방안을 공유한다. SK AX는 오는 9일 고용노동부와 한국산업안전보건공단이 주최하는 '산업안전보건 전문 세미나'에 참가한다고 7일 밝혔다. 이번 세미나는 산업안전보건 관련 기관 및 기업이 직접 참여해 각각 개별 세미나를 진행한다. 이날 SK AX는 'SHE AI 예측형 플랫폼, 산업안전 패러다임을 바꾼다'를 주제로 개별 세미나를 열고 산업 현장에서 실제로 작동하고 있는 SHE 혁신 사례와 기술 적용 방안을 공개한다. SK AX는 세미나를 통해 현장 안전과 성과 개선을 동시에 고민하는 SHE 담당자와 ESG, 안전 부서 관계자들이 직접 참고할 수 있는 구체적 실천 방안을 제시할 예정이다. 첫 발표는 SK AX 애커튼파트너스 이강돈 SHE DX 담당이 맡아 AI 자율비행 드론, AI 협동로봇 시스템, AI 작업위험성평가 등 산업현장에 도입된 실제 사례를 통해 SHE 업무가 어떻게 AX로 혁신될 수 있는지를 설명한다. 단순히 기술을 나열하는 수준이 아니라 AI도입의 정량적 효과와 기술 외 조직·운영 측면에 있어서 쟁점을 짚고 기업들이 현장에서 겪을 수 있는 어려움을 극복할 수 있는지를 실무 중심 AX 관점으로 풀어낸다. 이어지는 발표에선 SK AX 이정훈 SHE플랫폼개발팀장이 AI 기반 SHE 업무 플랫폼 '아이팩츠 SHE'를 소개한다. 이 플랫폼은 안전작업 허가, 사고 관리, 공정안전관리(PSM), 화학물질 및 환경관리 등 제조 현장 SHE 업무 전반에 AI를 접목해 프로세스를 표준화하고 현장에서 판단·대응 속도를 높이는 데 초점을 맞췄다. 특히 복잡한 규제 대응과 실시간 위험 감지, 정확한 데이터 기반 보고 체계를 통합 구현해 실제 운영자 입장에서 체감 가능한 제조 SHE AX 혁신 사례로 주목받고 있다. SK AX는 이러한 경험을 바탕으로 디지털 컨설팅 전문조직 애커튼파트너스를 통해 산업 현장 특성과 위험 요소에 맞춘 SHE AX 혁신을 지원하고 있다. 업무 프로세스 진단부터 정량적 목표 설정, 데이터 처리, 사용자 중심의 AI 플랫폼 설계 및 구축, 운영 안정화까지 전 과정을 아우르는 원 스톱 SHE AX 서비스를 제공한다. 이번 세미나에는 SK하이닉스와 한국로봇산업협회도 함께 참여한다. SK하이닉스는 안전 골든 타임(Golden Time) 확보와 신속 대응을 위한 지능형 위험관리 시스템을, 한국로봇산업협회는 산업현장에 적용되고 있는 AI 로봇 활용 사례를 각각 발표할 예정이다. SK AX 애커튼파트너스 최진민 대표 파트너는 "SHE 업무는 높은 위험성 제어와 법적∙사회적 책임이 요구되고 업무 적시성과 정확성, 방대한 데이터 처리 등 난이도와 복잡성이 높은 영역"이라며 "이번 세미나를 통해 다양한 현장의 SHE 고민과 문제를 AX로 어떻게 해결했는지, 앞으로 기업들이 어떤 방향으로 나아가면 되는 지에 대한 실천적 해법을 확인할 수 있을 것"이라고 말했다.

2025.07.07 09:50장유미

[유미's 픽] 알리바바 큐원 탑재한 SKT '에이닷엑스 4.0'…藥일까 毒일까

"2023년 12월 획득한 국내 정보보호 관리체계 인증(ISMS) 정책에도 한국 데이터를 외부로 반출하지 않는다는 게 필수입니다. 한국 데이터는 해외로 유출되지 않습니다." 지난 달 19일 기자간담회를 통해 이처럼 강조했던 알리바바 클라우드가 자사 인공지능(AI) 모델 '큐원'을 앞세워 SK텔레콤을 등에 업고 국내 시장 공략에 본격 나섰다. 올 초 오픈AI를 긴장하게 만든 딥시크에 이어 알리바바 '큐원'까지 영역 확장에 속도를 높이고 있지만, 중국 기업의 데이터 유출 우려 때문에 국내 시장에 제대로 안착할 수 있을지 주목된다. 6일 업계에 따르면 SK텔레콤이 지난 3일 공개한 AI 모델 '에이닷엑스 4.0'에는 알리바바의 오픈소스 거대언어모델(LLM)인 '큐원 2.5'가 적용된 것으로 파악됐다. 한국어에 맞게 SKT가 개량한 '에이닷엑스 4.0'은 특정 산업에 최적화된 '버티컬 AI 서비스'를 만든다는 목표로 만들어진 LLM으로, 오픈소스 커뮤니티 허깅페이스를 통해 A.X 4.0의 표준 모델과 경량 모델 2종이 공개됐다. 표준 모델은 720억개(72B), 경량 모델은 70억개(7B)의 매개변수를 갖추고 있다. 하지만 중국 기업의 AI 모델을 활용했다는 점에서 국외 정보 유출에 대한 의구심도 나오고 있다. SKT가 개인정보보호정책에 ▲이용자의 메시지나 답변은 저장하지 않는다 ▲이용자의 쿠키를 수집·저장하지 않는다 ▲기술적 보안과 프라이버시 보호를 위해 노력하겠다 등의 문구를 삽입하며 대응에 나섰지만, 우려를 불식시키기엔 미흡한 조치라는 평가가 나오고 있다. 특히 SKT를 활용하는 이용자들 사이에서 볼멘 소리가 나오고 있다. 누리꾼들은 "소식을 접하고 '에이닷' 어플을 바로 삭제했다", "중국산 AI 모델에 한국어를 학습시켰다고?", "중국 묻은 SKT, 빨리 탈출해야겠다" 등의 부정적인 반응을 내놓으며 실망감을 감추지 않았다. 업계 관계자는 "SKT가 유심 해킹 사건으로 고객들의 많은 신뢰를 잃은 상황에서 굳이 이미지가 좋지 않은 중국 AI 모델을 기반으로 파인튜닝 했다는 사실을 적극 알리는 것이 과연 득이 될 지 모르겠다"며 "한국어를 자체 데이터로 학습해 잘한다는 점을 내세우고 있지만 현 시점에서 이를 내놓은 것이 도움될 것 같진 않다"고 지적했다. 하지만 SKT는 'A.X 4.0'을 온프레미스(내부 구축형) 방식으로 제공하는 만큼, 기업 내부 서버에 직접 설치해 사용할 수 있어 데이터 보안에서 강점을 지녔다는 점을 적극 강조했다. 알리바바 클라우드 역시 지난 달 기자 간담회를 통해 중국계 기업에 대한 우려를 의식한 듯 보안과 컴플라이언스를 핵심 가치로 내세우며 '신뢰 받는 글로벌 파트너'로의 입지를 국내에서도 강화하겠다고 강조했다. 또 국내 투자 계획을 밝히며 사업 확장에 대한 의지도 내비쳤다. 알리바바 클라우드는 지난 2016년 국내 시장에 진출한 후 2022년 3월 국내 첫 데이터센터를 구축하고, 지난 달 서울에 또 다른 데이터센터를 가동한 상태다. 임종진 알리바바 클라우드 인텔리전스 수석 솔루션 아키텍트는 "중국의 데이터 보호법에 대해 구체적으로 말하긴 어렵지만, 글로벌 컴플라이언스 기준 150개 이상을 만족시키고 있다"며 "잠재 고객도 안전하게 운영할 수 있을 것이라고 자신 있게 말할 수 있다"고 말했다. 이를 기반으로 알리바바는 고객사들이 '큐원' 중심의 AI 오픈소스 생태계를 활성화하길 원했다. 또 SKT 외에도 자사 AI 모델을 활용한 사례를 공개하며 협업 확대에 대한 의지를 다졌다. 대표적인 곳이 AI 솔루션 기업 유니바다. 이곳은 알리바바 클라우드의 큐원 모델을 활용해 비용은 30% 절감하면서 한국어 처리 정확도를 45%에서 95%까지 끌어올린 에이전트 AI를 공개했다. 네이버 '스노우'는 알리바바 클라우드의 비디오 생성 모델 '완(Wan)'을 기반으로 중국 시장에서 개인화된 이미지 스타일링 기능을 제공 중이다. 라라스테이션은 알리바바 클라우드와 손잡고 글로벌 라이브 스트리밍 플랫폼을 개발해 동남아 시장으로 비즈니스를 확장하는 데 성공했다. 또 국내 시장 확대를 위해 메가존소프트·이테크시스템과도 협력 중이다. 윤용준 알리바바 클라우드 인텔리전스 한국 총괄 지사장은 "메가존소프트와 이테크시스템 외에 공개할 수는 없지만 대기업군 SI(시스템통합) 업체들도 파트너 에코에 이미 합류해 있다"고 밝혔다. 업계에선 '큐원'이 페이스북 모기업인 메타플랫폼의 '라마(LLaMA)'와 중국 딥시크 'R1' 모델을 제치고 사실상 전 세계 LLM 생태계에서 가장 빠르게 영향력을 키우고 있다는 점에서 SKT와 알리바바의 협업을 부정적으로만 봐선 안된다는 평가도 있다. 실제 '큐원' 모델은 현재 전 세계적으로 3억 건 이상 다운로드됐고 13만 개 이상의 파생 모델이 생성된 것으로 알려졌다. 특히 최신 모델 '큐원3-8B'의 지난 달 다운로드 수는 메타의 '라마-3.1-8B'를 거의 2배 앞섰다는 점에서 주목 받았다. 딥시크의 'R1' 시리즈 중 가장 인기 있는 최신 모델 '딥시크-R1-0528'에 비해서는 약 10배 많았다. 업계 관계자는 "큐원은 한국어 처리 능력과 온프레미스 버전에서 최적화가 가능해 산업별 맞춤형으로 튜닝을 거쳐 기업 차원으로 빠르게 확산되며 국내에서 존재감을 키우고 있다"며 "민간 데이터를 다루는 공공·금융에서도 온프레미스로 튜닝해 개발하거나 중소기업과 스타트업에서도 다양하게 튜닝하고 있다"고 말했다. 그러면서 "딥시크에 이어 큐원까지 중국 AI가 국내 산업 기반을 빠르게 장악할 것으로 예상된다"며 "향후 국내 기업 기술 완성도가 높아지더라도 기존 기술 장벽과 가격 등에서 후순위로 밀려날 가능성이 높다는 점에서 중국 AI 생태계에 종속될 것이란 우려도 높아지고 있다"고 덧붙였다.

2025.07.06 09:00장유미

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

국내 기업 가운데 인공지능(AI) 분야에 가장 큰 규모의 투자를 이어가는 통신업계가 정부의 독자 AI 파운데이션 모델 프로젝트에 본격적으로 뛰어들었다. 새 정부가 독자적인 AI 모델 육성 계획을 분명히 하면서 자체 개발 거대언어모델(LLM)을 잇따라 선보였다. 3일 KT는 온라인 기자간담회를 열어 자체 개발한 LLM '믿음' 2.0을 오픈소스로 공개한다고 밝혔다. 115억 개의 파라미터 값을 가진 국산 LLM 모델로 한국 문화와 예의범절을 이해할 수 있도록 학습시켜 가장 한국적인 AI라는 점을 내세웠다. 이날 SK텔레콤도 에이닷엑스(A.X) 4.0을 공개하며 파라미터 720억 개의 대형모델로 현존 LLM 가운데 최상급의 한국어 처리 효율성과 국내 비즈니스 환경에 최적화된 성능을 강조했다. 두 회사가 같은 날 자체 개발 LLM을 오픈소스로 공개하고 나선 점이 눈에 띄는 부분이다. 국내 여러 AI 모델 개발 기업들이 정부가 선발할 AI 정예팀에 들려고 하는 가운데, 오랫동안 AI 투자를 집중해온 통신사들이 그간의 개발 성과를 선제적으로 선보이며 기술력 과시에 나선 것으로 풀이된다. 정부가 오는 21일까지 AI 파운데이션 모델 개발 사업 공모 접수를 진행하는데 이 프로젝트는 AI 모델 개발 정예팀을 꾸려 정부가 가진 데이터와 GPU 등의 핵심 인프라를 지원받게 된다. 양사 모두 이 기회를 놓치지 않겠다는 의지가 분명하다. 두 통신사의 움직임은 단순한 정부 지원 외에 향후 AI 사업 확장을 위한 경영진의 뜻이 크게 반영됐다. 정부가 선정하는 AI 정예팀에 뽑히면 이들이 개발한 모델은 공공사업에 먼저 쓰일 가능성이 높은데, 관련 시장을 선점하겠다는 판단이 깔려있다는 설명이다. 통신업계 한 관계자는 “국내 산업계에서 AI 투자를 선제적으로 나선 곳이 통신업종이나 그간의 연구개발 노력과 투자 비용을 고려하면 내부적으로는 성과를 내야 한다는 주문이 강하게 이어지고 있다”며 “기간통신사로서 국가 네트워크 인프라 투자에 이어 앞으로는 AI 인프라 투자에 나서야 하는 만큼 AI 정예팀 선발과 공공사업 등을 가벼이 볼 수 없는 상황”이라고 말했다.

2025.07.03 18:02박수형

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

삼성전자가 브로드컴에 5세대 고대역폭메모리(HBM3E) 12단을 공급하는 방안을 논의 것으로 파악됐다. 현재 구체적인 물량 협의를 거쳐, 내년까지 제품을 공급하는 방안을 추진 중이다. 글로벌 빅테크의 자체 주문형반도체(ASIC) 개발이 확대되고 있는 만큼, 엔비디아향 HBM 공급 지연 영향을 일부 만회할 수 있을 것이라는 기대감이 나온다. 3일 업계에 따르면 삼성전자는 최근 브로드컴과 HBM3E 12단 퀄(품질) 테스트를 마무리하고 제품을 양산 공급하기 위한 협의에 나섰다. 현재 양사가 논의한 공급량은 용량 기준으로 10억Gb(기가비트)대 초중반 수준으로 추산된다. 양산 시기는 이르면 올 하반기부터 내년까지 이뤄질 전망이다. 연간 HBM 시장 대비 큰 물량은 아니지만, HBM 수요 확보가 절실한 삼성전자 입장에서는 의미 있는 규모다. 삼성전자는 올해 HBM 총 공급량을 전년 대비 2배 확대한, 80억~90Gb 수준까지 늘리겠다는 목표를 세운 바 있다. 해당 HBM은 글로벌 빅테크의 차세대 AI반도체에 탑재될 예정이다. 현재 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글의 7세대 TPU(텐서처리장치)인 '아이언우드'.메타의 자체 AI 칩인 'MTIA v3' 등을 제조하고 있다. 또한 삼성전자는 아마존웹서비스(AWS)에도 HBM3E 12단 공급을 추진 중이다. 최근 평택캠퍼스에서 실사(Audit)를 진행하는 등, 논의가 적극 진행되고 있는 것으로 알려졌다. AWS 역시 HBM3E 12단을 탑재한 차세대 AI 반도체 '트레이니엄 3'를 내년 양산할 계획이다. 이 같은 글로벌 빅테크의 자체 ASIC 개발 열풍은 삼성전자의 HBM 사업 부진을 만회할 기회 요소로 작용한다. 당초 삼성전자는 지난해 하반기 엔비디아에 HBM3E 12단을 납품하는 것이 목표였으나, 성능 및 안정성 문제로 양산화에 차질을 빚어 왔다. 이후 코어 다이인 1a(4세대 10나노급) D램을 재설계해 재공급을 추진해 왔으나, 올해 6월까지 공급을 성사시키겠다는 계획도 현재로선 불가능해졌다. 업계는 빨라야 오는 9월께 공급이 가능해질 것으로 보고 있다. 때문에 삼성전자는 올 2분기 말 P1·P3 내 HBM3E 12단 양산라인의 가동률을 낮추고 있는 상황이다. 올 하반기 엔비디아향 공급 성사, ASIC 고객사 추가 확보 등을 이뤄내야 HBM 사업에 대한 불확실성을 거둘 수 있을 것이라는 평가가 나온다.

2025.07.03 15:39장경윤

삼성전자, HBM3E 12단 라인 가동률 축소…엔비디아 공급 논의 길어지나

삼성전자가 지난 2분기 말께 HBM3E(5세대 고대역폭메모리) 12단 생산량을 줄인 것으로 파악됐다. 당초 삼성전자는 올해 중반 엔비디아에 해당 제품을 공급하려고 했으나 논의가 길어지면서 하반기 수요에 대한 불확실성이 높아졌다. 이에 재고가 급증하는 위험을 줄이고자 보수적인 운영 기조로 돌아선 것으로 풀이된다. 2일 업계에 따르면 삼성전자는 최근 HBM3E 12단 양산라인의 가동률을 기존 대비 절반 수준으로 줄인 것으로 파악됐다. HBM3E 12단은 현재 상용화된 HBM 중에서 가장 최선단에 해당하는 제품이다. 삼성전자의 경우, 평택에 위치한 P1, P3 라인에서 HBM3E 12단을 양산해 왔다. 특히 삼성전자는 지난 1분기 말부터 HBM3E 12단 생산량을 크게 늘린 바 있다. 엔비디아와의 퀄(품질) 테스트 일정이 6월경 마무리될 것이라는 전망 하에, 재고를 선제적으로 확보하기 위한 전략이었다. MI325X, MI350X 등 AMD의 최신형 AI 가속기향 HBM3E 12단 공급도 영향을 끼쳤다. 이에 따른 삼성전자의 올 2분기 HBM3E 12단 생산량은 평균 월 7~8만장 규모로 추산된다. 그러나 삼성전자는 2분기 말 웨이퍼 투입량을 급격히 줄여, 현재 월 3~4만장 수준의 생산량을 기록하고 있는 것으로 파악됐다. 주요 원인은 엔비디아향 HBM3E 12단 공급의 불확실성이 높아진 탓으로 분석된다. 당초 삼성전자는 6월을 목표로 테스트를 진행해 왔으나, 최근에는 최소 9월 테스트가 마무리 될 것이라는 전망이 우세해졌다. 여전히 발열 문제가 거론되고 있다는 게 업계 전언이다. 사안에 정통한 관계자는 "엔비디아향 공급이 지연되는 상황에서 HBM3E 12단 재고가 급격히 증가할 경우 삼성전자의 재무에 부담이 될 수 있다"며 "내년 상반기부터 HBM4 시장이 본격화될 것으로 예상되는 만큼, 삼성전자 입장에서도 보수적인 생산기조를 유지하려 할 것"이라고 밝혔다. 결과적으로 삼성전자 HBM 사업의 반등은 비(非) 엔비디아 진형의 ASIC(주문형반도체) 수요 확대에 좌우될 것으로 관측된다. 현재 구글, 메타, AWS(아마존웹서비스) 등 글로벌 빅테크들은 데이터센터를 위한 자체 AI 반도체 개발에 집중하고 있다. 해당 칩에도 HBM이 대거 탑재된다. HBM4(6세대 고대역폭메모리)의 적기 상용화 역시 주요 과제다. 현재 삼성전자는 HBM4의 코어 다이인 1c(6세대 10나노급) D램 개발에 주력하고 있으며, 일부 회로를 개조해 안정성을 끌어올리는 작업 등을 진행했다. HBM을 위한 1c D램은 올 3분기 PRA(내부 양산 승인)이 이뤄질 전망이다.

2025.07.02 17:00장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

예스24, '해킹 맛집' 오명…왜 또 먹통됐나

GPT-5 성능 논란에…오픈AI "GPT-4o 복귀 허용"

전 구글 임원 충격 발언…"15년 내 AI 디스토피아 온다"

통신사 AI사업 성장 재확인...하반기 가입자 쟁탈전 미지수

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.