• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI'통합검색 결과 입니다. (665건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, 'AI 국가대표' 기술력 가른다…전문 심사 시작

정부가 독자 인공지능(AI) 파운데이션 모델 개발 사업에 참여하는 5개 정예팀 심사를 시작한다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 오는 30일 오후 서울 강남 코엑스 오디토리움에서 독자 AI 파운데이션 모델 프로젝트 1차 대국민 발표회를 진행한다. 지난 8월 선정된 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 5개 정예팀이 무대 발표와 체험 부스를 운영할 예정이다. 이번 발표회는 각 팀이 약 4개월간 개발한 AI 모델과 서비스를 처음 공개하는 자리다. 평가에는 직접 반영되지 않지만, 각 컨소시엄 기술 방향과 완성도를 가늠할 수 있는 첫 공개 무대다. 정부는 이번 행사를 평가와 별도로 운영할 방침이다. 당초 현장 반응을 점수에 반영하는 대국민 콘테스트 방식이 검토됐으나, 기업 규모나 브랜드 인지도에 따른 결과 왜곡 우려로 이번 단계에서는 제외됐다. 이에 따라 1차 단계 평가는 전문가 중심으로 진행된다. 모델 성능과 기술 완성도, 향후 확장성, 상용화 계획 등을 종합 점검해 5개 팀 가운데 4개 팀만 다음 단계로 압축한다. 특히 성능 목표는 고정 기준이 아닌 '무빙 타깃' 방식이 적용된다. 각 팀은 평가 시점 기준 최근 6개월 내 공개된 글로벌 AI 모델 대비 95% 이상 성능을 달성해야 한다고 알려졌다. 업계에서는 단순 성능 수치보다 목표를 달성하기 위한 기술 구조와 로드맵이 평가 핵심이 될 것으로 보고 있다. 단기 성과뿐 아니라 중장기 경쟁력까지 검증하는 구조라는 분석이다. 정부는 발표회 직후 평가 절차에 착수해 15일 이내 1차 단계 평가를 마무리할 계획이다. 내부 종합 과정을 거쳐 이르면 새해 1월 19일께 결과를 발표하는 것을 목표로 하고 있다. 현재 각 팀은 서로 다른 전략을 제시하고 있다. 네이버클라우드는 옴니 파운데이션 모델 기반 텍스트, 코딩, 검색 기능과 포털, 쇼핑, 지도 연계 에이전트를 내세웠다. 업스테이지는 문서 요약, 계약서 리뷰 등 서비스형 소프트웨어(Saa)로 글로벌 확장성을 강조했다. 향후 3년간 1천만 명 사용자 확보가 목표다. SK텔레콤은 500B급 초거대 모델 로드맵과 한국어 특화 대화, 콘텐츠 생성 역량을 앞세웠다. 정확성, 신뢰성, 확장성, 범용성, 효율성 등 5대 경쟁력을 강조한다. NC AI는 54개 산학연 컨소시엄 기반으로 3D, 애니메이션 생성, 방송 콘텐츠 제작, 제조, 물류 최적화 등 산업 AX 특화 전략을 제시했다. LG AI연구원은 차세대 엑사원 기반 복합 추론과 생성 능력을 시연한다. 프론티어급 기술력과 기업 간 거래 활용 가능성에 초점을 맞췄다.

2025.12.28 09:05김미정

5천억 파라미터 韓AI모델...5천만 국민 생활 바꾼다

SK텔레콤이 국내 최초 매개변수 5천억 개 규모의 초거대 AI 모델 'A.X K1'을 30일 과학기술정보통신부 주최 독자 AI 파운데이션 모델 프로젝트 1차 발표회에서 공개한다. SK텔레콤 정예팀의 'A.X K1'은 국내 최초의 초거대 모델로, 미국과 중국에 이어 AI 3강 경쟁이 치열한 글로벌 무대에서 대한민국 AI 모델이 경쟁력을 갖추기 위한 체급으로 한 단계 도약했다는 점에서 중요한 의미를 갖는다. A.X K1은 총 5천190억개의 매개변수로 구성되며, 사용자 요청에 의해 추론 작업을 할 때에는 약 330억개의 매개변수가 활성화되는 구조다. 초거대 규모로 학습하며 필요한 경우에는 최대한 가벼운 사양으로 동작할 수 있도록 했다. 앞선 글로벌 사례들에 따르면 500B급 이상의 초거대 모델은 복잡한 수학적 추론과 다국어 이해 같은 능력이 중소형 모델보다 안정되고, 이를 바탕으로 고난이도 코딩과 에이전트 작업 수행 등 확장성이 큰 기능도 보다 강력해진다. 에이전트 작업이란 인공지능 모델이 마치 똑똑한 비서처럼 스스로 판단하고 처리하는 기능이다. 사용자가 일일이 지시하지 않아도 AI가 알아서 이메일을 보내거나 문서를 만들고, 필요할 때는 사용자에게 추가 정보를 물어보면서 최적의 결과를 만들어낸다. 또 초거대 모델 단계부터는 단순히 지식을 소비하는 모델이 아니라 70B급 이하 모델들에 지식을 공급하는 '교사(Teacher) 모델'로서 AI 생태계를 지탱하는 디지털 사회간접자본 역할을 수행할 수 있다. SK텔레콤 정예팀은 A.X K1이 다양한 소형·특화 모델들에게 지식을 전수하도록 연구를 확장, 국민의 일상과 대한민국의 산업을 혁신하는 모델로 활용할 예정이다. A.X K1은 영어를 주로 사용하는 다른 인공지능들과 달리 처음부터 한국어로 학습하도록 설계되어 한국어 입력을 자연스럽게 이해할 수 있다. 이런 한국어 특화 능력 덕분에 대한민국의 문화, 경제, 역사를 잘 아는 국민 맞춤형 서비스를 만드는 데 적합하다. B2C·B2B 양방향 확산...국민 생활, 산업 혁신 주도 SK텔레콤 정예팀은 대국민 AI 접근성 강화 측면에서 가입자 1천만 이상인 에이닷을 기반으로 A.X K1을 제공해 전국민이 전화, 문자, 웹, 앱 등 다양한 방식으로 쉽게 AI를 이용할 수 있는 '모두의 AI' 환경을 구축해 나갈 계획이다. SK텔레콤 정예팀 참여사인 라이너 또한 세계적으로 1천100만명 이상의 글로벌 가입자를 대상으로 전문지식 검색을 운영하면서 다국어 측면에서도 높은 정확도와 신뢰도의 정보 검색 서비스를 제공할 수 있을 것으로 기대된다. AI 대전환을 통한 산업 경쟁력 강화 차원에서는 ▲업무 생산성 향상을 위한 에이닷비즈 ▲기업의 생산 공정 개선을 위한 제조 AI 솔루션 ▲크래프톤의 게임 AI를 통한 실시간 캐릭터 대화 및 자율 행동 구현 ▲AI 모델을 물리 행동 영역으로 확장한 휴머노이드 로봇 기술 등으로 활용 분야를 넓혀 나갈 예정이다. A.X K1은 국내 반도체 산업의 초격차 경쟁력을 검증하는 테스트베드 역할도 수행할 수 있을 것으로 기대된다. AI 반도체 개발 과정에서 성능 검증에 엄청난 데이터 규모와 데이터 전송 속도가 요구되는 만큼 최신 AI반도체 성능 검증 시 초거대 LLM 모델이 효율적으로 활용될 수 있기 때문이다. SK하이닉스 등 주요 관계사와 AI 밸류체인 완성 SK텔레콤 정예팀은 SK텔레콤, 크래프톤, 포티투닷(42dot), 리벨리온, 라이너, 셀렉트스타, 서울대학교, KAIST 등 8개 기관으로 구성됐다. AI 반도체, AI 데이터센터, AI 모델, AI 서비스에 이르는 전체 밸류체인을 독자 기술로 구축한 '풀스택 소버린 AI'를 완성했다. 정예팀은 지난 2018년부터 순수 자체 개발을 진행해온 SK텔레콤의 LLM 개발 경험과 각 기관의 고유한 전문성을 바탕으로 모델의 완성도를 높였다. 라이너는 전문 지식 정보 검색 기술로 정확성을, 셀렉트스타는 대규모 데이터 구축·검증 기술로 신뢰성을 확보했다. 크래프톤은 글로벌 멀티모달 R&D 경험으로 확장성을, 포티투닷은 온디바이스 AI 기술로 범용성을, 리벨리온은 국산 NPU 기술로 효율성을 각각 담당했다. 이렇게 완성된 A.X K1 모델은 단순한 기술 성과에 그치지 않고 SK 그룹사와 컨소시엄 참여사를 중심으로 확산되며, 나아가 대한민국 산업 전반에 큰 파급효과를 미치게 될 것으로 기대된다. 이미 SK하이닉스, SK이노베이션, SK AX, SK브로드밴드 등 주요 관계사, 최종현학술원, 한국고등교육재단을 포함하여 20여 개 기관이 참여 의향서를 제출, 실제 현장에서의 활용과 검증을 함께 하기로 했다. SK텔레콤 정예팀은 A.X K1을 국내 AI 생태계의 다양한 기업들에 오픈소스로 개방할 계획이다. 주요 개발 커뮤니티 및 SK텔레콤 서비스를 통해 오픈소스와 API를 공개하고, 국내 기업 대상 AI 에이전트 개발 환경을 제공한다는 방침이다. 또한 AI 모델 구축을 위한 통합적 지원 체계 구축과 함께 모델 개발에 활용된 학습 데이터의 일부를 공공과 민간 플랫폼에 공개해 국내 AI 생태계 전반의 경쟁력 강화에 기여할 예정이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “국내 최초 매개변수 500B급 모델 개발로 치열한 글로벌 경쟁 속에서 대한민국의 글로벌 AI 3강 도약을 위한 새로운 전환점을 마련했다”며 “앞으로도 국가대표 AI 기업으로서 모두의 AI를 달성하기 위한 노력을 지속할 것”이라고 밝혔다.

2025.12.28 08:19박수형

AI, 서버용 SSD 시장도 바꾼다…'SLC' 존재감 부각

인공지능(AI) 산업이 데이터센터용 SSD 시장 판도를 바꿀 것으로 예상된다. 기존 데이터센터용 SSD는 고용량 구현에 초점을 맞춰 왔으나, 최근 주요 메모리 기업들은 데이터 처리 성능을 극대화하기 위한 SLC(싱글레벨셀) 기반의 차세대 SSD 개발에 집중하고 있다. 글로벌 빅테크인 엔비디아 역시 AI용 고성능 SLC SSD에 주목하고 있는 것으로 알려졌다. 26일 업계에 따르면 주요 메모리 기업들은 AI 데이터센터용 차세대 낸드로 SLC에 주목하고 있다. TLC·QLC가 주도 중인 서버용 SSD 시장 SLC는 데이터를 저장하는 최소 단위인 셀 하나에 1비트(Bit)를 저장하는 방식을 뜻한다. 2비트를 저장하면 MLC(멀티레벨셀), 3비트는 TLC(트리플레벨셀), 4비트는 QLC(쿼드레벨셀)로 불린다. 각 방식에 따라 SSD(낸드 기반 저장장치)의 주 적용처가 달라진다. 기존 데이터센터용 SSD 시장은 TLC, 혹은 QLC가 주류를 차지해 왔다. 각 셀에 더 많은 비트를 저장하므로, 단위면적 당 더 많은 데이터를 저장할 수 있기 때문이다. 특히 방대한 양의 데이터 처리가 필요한 AI 데이터센터에서는 수요가 더 늘어나는 추세다. SLC는 데이터 처리 속도가 빠르고 안정성이 높지만, 저장 용량이 적고 가격이 비싸 대규모 투자가 필요한 데이터센터 구축에는 적합하지 않다는 평가가 지배적이었다. AI가 바꾸는 패러다임…1억 IOPS SSD·HBF는 'SLC' 기반 그러나 최근 주요 메모리 기업들이 개발 중인 차세대 낸드에서는 SLC의 존재감이 커지고 있다. 대표적으로, SK하이닉스는 AI 데이터센터 시장을 겨냥해 AI-N P(성능)·AI-N B(대역폭)·AI-N D(용량) 등 세 가지 측면을 각각 강화한 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 1세대 제품의 IOPS(1초당 처리할 수 있는 입출력 횟수)는 2천500만으로, 현존하는 고성능 SSD(최대 300만 수준) 대비 8~10배에 달한다. 2027년 말 양산 준비 완료를 목표로 한 2세대 제품은 1억 IOPS를 지원할 전망이다. 이를 위해 SK하이닉스는 낸드와 컨트롤러를 새로운 구조로 설계하고 있으며, 핵심 고객사인 엔비디아와 협업해 내년 말 첫 샘플을 선보일 계획이다. 회사에 따르면, AI-N P는 SLC 낸드를 기반으로 개발되고 있다. AI-N P가 데이터 처리 성능을 극대화하는 제품인 만큼, 용량은 후순위로 미루려는 전략으로 풀이된다. 일본 키오시아도 올 3분기 개최한 기술설명회에서 "엔비디아와 협력해 1억 IOPS 성능의 차세대 SSD를 오는 2027년 상용화할 것"이라고 밝힌 바 있다. SK하이닉스와 동일한 개념의 제품인 만큼, 키오시아도 SLC 낸드를 기반으로 할 것으로 관측된다. 업계에서 HBF(고대역폭플래시)라 불리는 AI-N B 역시 SLC 낸드 기반으로 개발되고 있다. HBF는 D램을 적층해 만든 HBM과 유사하게 낸드를 적층해, 데이터를 송수신하는 대역폭을 크게 확장한 제품이다. 현재 SK하이닉스는 미국 샌디스크와 협력해 HBF에 대한 표준화 작업을 진행하고 있다. 오는 2027년 PoC(개념증명) 단계의 샘플이 개발돼 본격적인 평가를 거칠 것으로 예상된다. 엔비디아, GPU와 SSD 직접 연결 구상 AI 산업을 주도하고 있는 엔비디아도 SLC 낸드의 필요성에 공감하고 있다는 분석이다. 현재 엔비디아는 주요 메모리 기업들과 AI 낸드 협력망을 구축함과 동시에, 이를 활용하기 위한 소프트웨어 'SCADA(SCaled Accelerated Data Access)'를 개발하고 있다. SCADA는 AI 데이터 처리의 핵심 요소인 GPU가 CPU를 거치지 않고 스토리지(SSD)에 직접 접근해 데이터를 읽고 쓸 수 있도록 하는 기술이다. CPU가 SSD에서 데이터를 읽고 GPU로 전송하는 기존 구조 대비 데이터 처리 과정을 줄여, 학습 및 추론 속도와 효율성을 높일 수 있다. 엔비디아 SCADA 솔루션의 구현을 위해서는 SSD도 데이터 처리 속도를 크게 끌어올려야 한다. 현재 주요 메모리 공급사들이 1억 IOPS 이상의 차세대 SSD를 개발하는 이유도 여기에 있다. 반도체 업계 관계자는 "데이터센터용 SSD에서 아직 주류는 아니지만, 차세대 스토리지 솔루션에서는 SLC 기반의 AI용 SSD가 각광을 받을 가능성이 있다"며 "다만 실제 상용화 시기를 아직까지 예측하기는 힘든 상황"이라고 설명했다.

2025.12.26 10:49장경윤

500B 파라미터...SKT, AI 모델 스케일 키운다

SK텔레콤이 연내 매개변수 5천억개 이상의 초거대 AI 모델인 에이닷엑스 케이원(A.X K1)을 선보인다. 그간 수십억에서 수백억개 파라미터 규모가 국내 AI 모델의 규모였는데 이를 압도적으로 넘어서는 수준의 프로젝트를 진행한 것이다. SK텔레콤 컨소시엄에 따르면 한국어 처리 능력에서 세계 최고 수준 달성을 목표로 다국어 지원과 멀티모달 기능을 갖춘 차세대 AI 모델 개발을 목표로 세웠다. 한국의 문화적 맥락과 정서를 이해하는 AI 기술을 구현해 글로벌 시장에서도 차별화된 경쟁력을 확보하겠다는 전략이다 특히 프롬 스크래치 방식으로 새롭게 설계해 글로벌 프런티어 모델의 95% 이상의 성능을 달성하고 최종적으로는 독자적인 포스트 트랜스포머 모델을 만들겠다는 것이다. 아울러 2027년까지 계속되는 프로젝트 기간에 맞춰 수조 개 이상의 토큰을 학습하는 수천억에서 수조 파라미터 규모의 초거대 모델을 구축하고 최신 구조인 MoE 방식을 도입해 학습 효율성을 극대화하기로 했다. 컨소시엄 관계자는 “미국과 중국 중심의 경쟁이 치열하게 전개되는 가운데 자국의 AI 주권을 지키고 미래 산업 경쟁력을 확보하기 위해 본격적으로 나서는 역사적 계기를 마련한다는 목표로 프로젝트를 추진하고 있다”고 설명했다. 컨소시엄에는 SK텔레콤을 중심으로 크래프톤, 포티투닷, 리벨리온, 셀렉트스타, 라이너와 서울대, KAIST 등이 모였다. 이 가운데 리벨리온이 보유한 국산 NPU 활용기술 최적화에도 나설 예정이다. 리벨리온이 최근 선보인 AI 전용 NPU '아톰맥스'는 자연어 처리, 컴퓨터 비전, 추천 시스템 등 대규모 고성능 AI 추론에 최적화됐다는 평가를 받고 있다. 또 SK텔레콤 가산 AI 데이터센터에 엔비디아 블랙웰 B200 GPU 1천장 이상으로 구성된 국내 최대 규모 단일 클러스터도 AI 모델 프로젝트에 기여하고 있다.

2025.12.25 15:26박수형

"SKT 컨소시엄, IDC·NW 운영 경험으로 독파 모델 경쟁우위"

글로벌 신용평가사 모닝스타DBRS의 스콧 래티 수석 부사장이 독자 AI 파운데이션 모델 프로젝트에 참여하고 있는 SK텔레콤 컨소시엄의 역량을 높게 평가했다. 데이터센터와 네트워크 운영 경험이 우위에 있고, 국가 인프라 차원의 소버린AI 조건을 충족할 수 있는 현실적인 주체라는 이유에서다. 스콧 래티 부사장은 23일 SK텔레콤 뉴스룸과 인터뷰에서 한국 정부가 독자 AI 파운데이션 모델 프로젝트 정예팀으로 SK텔레콤 컨소시엄을 선정한 것은 “전략적으로 매우 의미 있는 선택”이라고 평가했다. 그가 꼽은 SK텔레콤 컨소시엄의 경쟁력은 ▲데이터센터(AI DC) 운영 경험과 AI 실행 역량 ▲대규모 복합 네트워크를 안정적으로 운영해 온 경험은 독자 AI 파운데이션 모델 프로젝트를 성공적으로 이끌 수 있는 능력이다. 특히 SK텔레콤 컨소시엄이 정예팀 대상으로 GPU를 지원하는 역할을 담당하는 점은 SK텔레콤이 GPU 인프라와 관련 서비스 제공 측면에서 중요한 역할을 맡고 있음을 시사하고 있다고 강조했다. 아울러 글로벌 빅테크 중심으로 전개되는 AI 경쟁 구도 속에서, 모닝스타DBRS는 SK텔레콤의 컨소시엄의 차별화된 경쟁력으로 '한국어·문화에 최적화된 AI 모델 개발 역량'을 꼽았다. 한국은 세계 최고 수준의 5G 및 광통신 인프라를 갖춘 국가로, 데이터 집약적인 AI 서비스 확산에 유리한 환경을 보유하고 있다. 여기에 SK텔레콤과 같은 통신사 주도의 소버린 AI 모델은 언어, 문화, 제도적 특성을 정교하게 반영할 수 있다는 점에서 비영어권 시장에서 경쟁력을 발휘할 수 있을 것으로 전망했다. 스콧 래티 부사장은 “통신사는 국가 필수 인프라인 대규모 네트워크를 장기간 안정적으로 운영해 온 경험을 보유하고 있다”며 “네트워크, 데이터센터, 전력 협업 구조를 함께 아우를 수 있는 점에서 소버린 AI 인프라를 실제로 통합 구축할 수 있는 주체”라고 말했다. 이어, “통신사는 각국의 법과 규제, 문화적 규범에 정합적으로 인프라를 운영해 온 경험과 정부와의 협력 이력을 동시에 갖춘 만큼 민감성이 높은 소버린 AI 영역에서 '신뢰 가능한 파트너'의 역할을 할 수 있다”고 강조했다. 그는 또 “소버린 AI가 비즈니스 운영 방식과 경제 성장 구조, 사람들의 일상까지 폭넓게 변화시킬 것”이라며 “향후 10년간 국가 경쟁력을 좌우할 핵심기술이 될 것”이라고 내다봤다. 이 과정에서 AI 생태계에 속한 기업과 기관들은 장기적인 관점에서의 대규모 투자와 함께, 새로운 기회가 등장할 때마다 유연하게 대응할 수 있는 애자일(agile)을 갖추는 것이 더욱 중요하다고 조언하기도 했다. 그러면서 자본 집약적 특성으로 인해 '실행 역량'과 '우선순위 설정'이 무엇보다 중요하다고 짚었다.

2025.12.23 09:21박수형

[유미's 픽] "대표가 직접 키운다"…삼성·현대차·SK, IT 계열사 미래 먹거리에 '올인'

삼성, 현대차, SK 등 국내 주요 그룹사의 IT 서비스 계열사들이 정기 인사에 맞춰 대표 직속으로 새로운 조직을 마련해 인공지능(AI)·소프트웨어(SW)를 중심으로 미래 성장 동력 키우기에 본격 나섰다. 기존 사업부 단위의 기능 강화가 아닌 그룹 차원의 전략 과제를 실행하기 위한 조직을 대표 직속으로 격상시키며 체질 전환에 속도를 내는 모양새다. 18일 업계에 따르면 현대오토에버는 이날 현대자동차그룹 정기 임원인사에 맞춰 김윤구 대표 직속으로 소프트웨어중심차량(SDV) 전담 조직을 신설했다. 조직 책임자로는 권해영 현대차·기아 인포테인먼트개발센터장 상무가 선임됐다. 1975년생인 권해영 신임 현대오토에버 SDV담당 상무는 경상대 금속재료 학사를 취득한 뒤 현대차에 입사해 인포테인먼트개발실장과 인포테인먼트소프트웨어개발팀장을 거쳐 현대차·기아 인포테인먼트개발센터장을 맡아왔다. 지난 2019년에는 상무로 승진했다. 현대오토에버는 SDV 담당 아래 차량전장SW센터, SDA전략센터, 내비게이션사업부를 배치하며 차량 소프트웨어와 전략 기능을 한 축으로 묶었다. 이는 그동안 현대차그룹 내에서 추진돼 온 SDV 전략을 현대오토에버가 보다 직접적으로 뒷받침하는 구조로, 그룹 차원의 SDV 내재화 전략에서 현대오토에버의 역할이 한층 확대됐다는 분석이 나온다. 업계에선 이번 움직임을 두고 현대차그룹이 흩어진 SW·AI 역량을 재정렬하려는 신호로 보고 있다. 포티투닷 중심의 SDV 전략이 성과 측면에서 기대에 못 미친 가운데 이달 초 송창현 사장 사임이 상대적으로 실적 안정성이 입증된 현대오토에버의 역할 확대 가능성을 키웠다는 평가도 나왔다. 또 김윤구 대표 취임 이후 외부 기술 인재 영입과 실적 개선이 동시에 이뤄진 점이 그룹 차원의 SDV 실행 축으로 현대오토에버가 부상할 수 있는 밑거름이 된 것으로 분석했다. 다만 일각에선 높은 내부거래 의존도와 대외 매출 확대 여부가 확인되지 않는다면, 이번 조직 개편이 기업가치 재평가로 이어질지는 지켜봐야 한다는 평가도 나왔다. 업계 관계자는 "현대오토에버가 SDV 전담 조직을 대표 직속으로 둔 것은 그룹 내 역할을 키우겠다는 의지가 반영된 결정이지만, 단기간에 포티투닷이 맡아왔던 SDV·자율주행 영역까지 흡수했다고 보긴 어렵다"며 "조직 개편의 성패는 결국 현대차그룹 외 고객을 상대로 한 SDV·차량 소프트웨어 매출을 얼마나 만들어낼 수 있느냐에 달려 있다"고 말했다. 삼성SDS도 지난 1일 개발센터장을 맡아온 김종필 부사장을 이준희 대표 직속으로 신설된 'AX센터' 수장으로 선임했다. AX센터는 지난 달 27일 사내 AI 관련 영업, 마케팅, 기술 개발 등 기존 조직들을 한 데 모아 새롭게 출범했다. 1968년생인 김 부사장은 삼성SDS에서 자사 기술·제품 개발 조직을 총괄하는 핵심 기술 리더 역할을 해왔다. 또 AI·클라우드·솔루션 개발의 방향을 정하고 실행을 책임져왔다는 점에서 AX센터장으로 적임자란 평가를 받고 있다. AX센터 신설은 삼성SDS가 그간 내부 계열사 위주로 축적해 온 AI·클라우드 역량을 본격적으로 외부 시장에 확장하겠다는 전략적 전환점으로 풀이된다. 1년 전 이준희 삼성SDS 대표 취임 이후 삼성SDS는 'AI 풀스택 서비스'를 전면에 내세우며 인프라 구축부터 컨설팅, 플랫폼, 서비스까지 전 주기를 아우르는 사업 모델을 강화해 왔던 만큼, AX센터가 이 같은 전략의 실행력을 더 높이는 컨트롤타워 역할을 담당할 것으로 관측된다. 업계 관계자는 "특히 김종필 부사장을 센터장으로 앉힌 것은 기술 이해도가 높은 내부 인물을 전면에 내세워 영업과 사업 확장 과정에서 기술 주도권을 놓치지 않겠다는 의도가 반영된 인사로 보인다"며 "AX센터를 중심으로 공공·금융 등 생성형 AI 도입 수요가 빠르게 늘고 있는 영역을 선점할 수 있을지가 향후 삼성SDS의 외형 성장과 내부거래 비중 축소의 핵심 변수로 작용할 것"이라고 전망했다. SK AX 역시 지난 4일 AI 중심 조직 개편을 단행하며 대표 직속 CAIO(최고AI책임자) 체제를 도입했다. 전사 AI 혁신을 총괄할 CAIO로는 차지원 AT서비스1본부장(부사장)을 선임했다. 또 부문별 AX 핵심과제를 추진하는 CoE(Center of Excellence)를 각 부문 직속으로 편제해 CAIO가 전체 과제를 총괄하도록 했다. 이를 통해 SK AX는 AI 혁신 과제의 실행 속도와 확장성을 동시에 끌어올리겠다는 구상이다. 업계에선 서울대 출신으로 SK AX 전신인 SK C&C에서 20년 가까이 근무하며 AI·데이터 플랫폼과 디지털 전환 전략을 주도해온 차 부사장을 CAIO로 앉힌 점에 주목하고 있다. 선행기술 연구부터 상품화, 서비스까지 전 과정을 경험한 내부 인사를 전면에 내세워 기술과 사업 간 괴리를 줄이겠다는 의도가 분명하다는 평가다. SK AX는 이번 조직 개편을 계기로 AX 상품 확산을 위한 제품·가격·제공(Product-Price-Offering) 체계를 정립하고, 성장 스쿼드와 CoE 조직을 통해 산업별·고객별 맞춤형 AI 전환을 본격 가속화한다는 전략이다. SK AX 관계자는 "2026년은 '비잉(Being) AX 컴퍼니'로의 본격 성과 창출을 실행하는 원년이 될 것"이라며 "AI 기술·상품·서비스 전반이 하나의 밸류체인으로 연결되는 체계를 구축해 지속 성장을 실현하겠다"고 말했다. 이처럼 각 기업들이 대표 직속으로 새로운 조직을 마련한 것은 AI·SW 경쟁이 기술 개발을 넘어 사업 성과로 검증받는 단계에 접어들었다는 위기 의식이 반영된 결과로 풀이된다. 그동안 IT 서비스 계열사들은 그룹 내 프로젝트를 통해 기술 역량을 축적해 왔지만, 이제는 대표 직속 체제를 통해 전략·조직·자원을 한꺼번에 묶어 시장 경쟁에 대응하겠다는 판단도 한 몫한 것으로 분석된다. 또 의사결정 구조를 단순화하고 책임 소재를 명확히 하려는 공통된 흐름도 읽힌다. 업계에선 이러한 변화가 단순한 조직 개편에 그칠지, 아니면 기업가치 재평가로 이어질지는 내년부터 가시화될 대외 성과에 달려 있다고 보고 있다. 업계 관계자는 "AI·SDV·AX를 앞세운 각 기업의 신사업이 실제 외부 매출과 고객 확대로 연결되지 못할 경우 대표 직속 조직의 상징성도 빠르게 퇴색될 수 있다"며 "결국 이번 인사는 국내 주요 그룹 IT 서비스 계열사들이 '기술 중심 회사'에서 '성과 중심 회사'로 전환할 수 있을지를 가늠하는 시험대가 될 전망"이라고 관측했다.

2025.12.18 17:02장유미

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤

LG AI연구원 "AI 모델 개발보다 확산 속도 중요…국산 NPU 사용 늘려야"

"인공지능(AI) 모델 개발보다 산업에 기술 확산하는 속도가 더 중요해졌습니다. 자국 모델 기반으로 제조·물류·금융·공공에 활용 사례를 얼마나 빠르게 만들어내느냐가 국가 AI 경쟁력을 좌우할 것입니다." 김유철 LG AI연구원 전략부문장은 17일 서울 여의도 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼'에서 이같이 밝혔다. 해당 포럼은 더불어민주당 정동영 의원과 국민의힘 최형두 의원이 공동 추최한다. 김 부문장은 글로벌 파운데이션 모델 경쟁이 대규모 인프라 경쟁으로 전환됐다고 말했다. 그는 "모델 성능은 개별 기업 노력만으로 확보하기 어렵다"며 "연산 자원과 데이터, 이를 장기간 투입할 수 있는 인프라가 필수 조건일 것"이라고 판단했다. 김 부문장은 이같은 환경에서는 기업 규모 기준으로 경쟁 구도를 나누는 접근 자체가 의미 없을 것이라고 지적했다. 그는 "초거대 모델 경쟁에서는 기업의 크기보다 국가 차원의 자원 집중과 전략적 선택이 성패를 좌우하게 될 것"이라고 전망했다. 김 부문장은 파운데이션 모델 개발 자체보다 산업 전반으로의 확산 속도가 향후 국가 경쟁력을 좌우할 것이라고 강조했다. 자국 AI 모델을 기반으로 제조·물류·금융·공공 등 각 분야에서 실제 활용 사례를 얼마나 빠르게 만들어내느냐가 관건이라는 설명이다. 이를 위해 국내 기업들이 자국 파운데이션 모델을 자연스럽게 선택해 사용할 수 있는 환경을 조성해야 한다고 지적했다. 동시에 해외 시장에서도 한국의 AI 모델과 서비스를 찾아 활용하는 구조를 만들어야 글로벌 경쟁력을 확보할 수 있다고 강조했다. 김 부문장은 "모델 개발을 시작으로 산업 적용, 성과 축적, 글로벌 확산으로 이어지는 국가 파운데이션 모델 산업 경쟁력의 선순환 구조가 필요하다"며 "이를 정책적으로 설계하고 지속적으로 뒷받침해야 한다"고 말했다. 그는 인프라 측면에서 파운데이션 모델 API 비용 지원이 필요하다고 강조했다. 그는 "현재 미국과 유럽, 중국은 해당 비용을 기업에 확대 지원하고 있다"며 "우리 정부도 지원을 통해 국내 기업 부담을 덜어야 한다"고 말했다. 또 국산 신경처리장치(NPU) 활용을 확대해야 한다고 강조했다. 그는 "엔비디아 그래픽처리장치(GPU) 등 해외 기술 의존도를 낮춰야 한다"며 "모델뿐 아니라 인프라 전반에서 자립도 높이는 전략이 필요하다"고 덧붙였다.

2025.12.17 10:00김미정

정재헌 SKT "구성원 목소리 경청하고, 최선의 의사결정 내리겠다"

정재헌 SK텔레콤 최고경영자(CEO)가 취임 후 첫 타운홀 미팅에서 스스로를 '변화관리 최고책임자'로 규정하며, 통신 사업의 신뢰 회복과 인공지능(AI) 중심의 질적 성장을 동시에 추진하겠다는 경영 구상을 밝혔다. 정 CEO는 16일 서울 을지로 SKT타워 수펙스홀에서 임직원을 대상으로 열린 타운홀 미팅에서 “시장 환경이 빠르게 변하는 상황에서 과거의 방식을 반복하는 '활동적 타성'으로는 더 이상 변화를 만들어낼 수 없다”며 “실패에 대한 책임은 경영진이 지고, 구성원들은 창의력을 발휘해 마음껏 도전해 달라”고 강조했다. 실무에는 자율과 도전을, 경영진에는 책임 강화를 주문한 것이다. 그는 “이제부터 CEO의 C는 '변화(Change)'”라며 “전사 혁신의 속도를 높이는 데 앞장서겠다”고 밝혔다. 정 CEO는 통신 사업에 대해 “고객이 곧 업의 본질”이라며 품질·보안·안전 등 기본과 원칙을 중심으로 고객 신뢰를 빠르게 회복하겠다는 방침을 제시했다. 본업인 통신을 단단하게 다지는 동시에, 미래 성장 축인 AI 사업은 선택과 집중 전략을 통해 빠르게 진화시키겠다는 구상이다. AI 사업과 관련해서는 “그간 실험과 인큐베이팅을 반복하며 일정 수준의 유무형 자산을 확보했다”며 “우리가 잘할 수 있는 분야를 중심으로 글로벌 빅테크와 속도 경쟁에 나서야 한다”고 말했다. AI 데이터센터(AIDC) 분야에서는 압도적 경쟁력을 기반으로 고부가가치 솔루션 영역으로 확장하고, 제조 AI와 독자 AI 모델 등은 지속적인 전환을 통해 성과를 창출하겠다는 전략도 제시했다. AI 전환(AX)에 대해서는 특정 조직의 과제가 아닌 전 구성원이 참여해야 할 생존 과제로 규정했다. 이를 위해 ▲전사 AI 툴 활용 지원 ▲업무용 AI 개발 프로세스 정립 ▲아이디어 공유를 위한 AX 대시보드 구축 등을 추진할 계획이다. 경영 지표의 변화도 예고했다. SK텔레콤은 기존 상각 전 영업이익(EBITDA) 중심의 핵심 관리지표를 투하자본이익률(ROIC)로 전환한다. ROIC는 자본 효율성과 가치 창출 여부를 평가하는 지표로, 중장기 경쟁력과 투자 우선순위를 판단하는 데 활용된다. 매출과 이익의 양적 확대보다 투입 자본 대비 실질 성과를 중시하는 '질적 성장' 중심으로 경영 패러다임을 전환하겠다는 의미다. 정 대표는 SK텔레콤의 궁극적 목표로 '영구히 존속·발전하는 회사'를 제시하며, 이를 위한 조직문화 방향성으로 '역동적 안정성(Dynamic Stability)'을 강조했다. 구성원은 변화와 도전을 통해 성장하고, 회사는 실패를 감내할 수 있는 견고한 버팀목이 되겠다는 설명이다. 그는 “다시 뛰는 SK텔레콤이 되기 위해서는 회사가 지향하는 가치를 구성원 모두가 공유하고, 이를 실행할 진취적 역량과 단단한 내면을 갖춰야 한다”며 “이를 실현하는 드림팀이 되자”고 당부했다. 마지막으로 목민심서의 '청송지본 재어성의(聽訟之本 在於誠意)'를 인용하며 “겸손과 존중의 자세로 구성원의 목소리를 경청하고, 최선의 의사결정을 내리겠다”고 약속했다.

2025.12.16 17:29진성우

"사고 나기 전에 막는다"…SK AX, AI로 중대재해 예방 나섰다

최근 인공지능(AI) 실행력을 높이기 위해 대대적인 리더십 교체에 나섰던 SK AX가 AI로 중대재해를 예방할 수 있는 새로운 무기를 선보였다. SK AX는 각종 중대재해를 체계적으로 예방·관리하는 AI SHE(안전∙보건∙환경) 서비스인 'CEO 안심 패키지'를 선보인다고 16일 밝혔다. 'CEO 안심 패키지'는 AI 기술을 활용해 사업장별 잠재 위험을 파악하고 작업자들이 안전의무를 이행했는지 관리하는 한편, 사고가 발생하면 즉시 대응을 가능하게 하는 통합 설루션이다. SK AX 측은 "중대재해로 인한 책임 가중, 기업가치 훼손 사례가 늘어나지만 사업 현장의 CEO들은 의사결정을 위한 체계적인 정보가 부족한 게 현실"이라며 "'CEO 안심 패키지'를 통해 기업 경영진들이 안전관리 현황을 실시간으로 파악하고 위험요소를 사전에 예방·관리할 수 있도록 했다"고 설명했다. 정부는 2026년까지 산업재해 사고사망만인율을 OECD 평균 수준으로 낮추는 '중대재해 감축 로드맵'을 추진 중이다. 이는 처벌 완화가 아니라 예방 투자를 전제로 한 목표다. 로드맵에는 위험성평가 의무 강화, 전담 안전관리자 선임대상 확대(50인 이상까지 단계적 확대) 등 기업 안전관리 비용을 늘리는 과제가 포함돼 있다. 'CEO 안심 패키지'의 경쟁력은 AI 기술의 도입이다. 갈수록 세분화·고도화되는 산업현장의 필요에 맞춘 범용 모델로, 첨단 AI기술을 통해 즉각적이고 체계적인 안전관리가 이뤄지도록 했다. ▲비전AI(Vision AI)를 활용해 사고 발생과 원인을 즉각 알려주는 'SHE OT(Operation Technology) 설루션' ▲사업장별 사고 현황과 고위험 작업, 법규 준수 결과를 한 눈에 확인할 수 있는 '리스크 대시보드' ▲AI 기반 JSA(작업안전분석)를 활용한 '작업허가 시스템' ▲안전의무 이행 내역을 자동으로 기록해 보고하는 기능 등 안전경영에 필요한 핵심요소들이 모두 포함됐다. 또 웨어러블 기반 센서와 AI 기술을 활용해 작업자의 위험 행동이나 위험 구역 접근, 잠재 위험 요소 등을 실시간 감지하고 알림을 제공해 현장의 리스크를 선제적으로 예방할 수 있게 했다. 생체신호에 기반한 건강 상태 감지와 위험성 평가 등을 연계한 AI SHE 운영 체계를 통해 '예측·대응·개선'이 통합된 안전관리 체계 구축도 가능하다. 'CEO 안심 패키지'는 AX 전문 컨설팅 조직인 SK AX 애커튼파트너스가 전략·설계·구축·운영을 도맡았다. 대형 제조·산업 현장에서 축적한 안전관리 경험과 데이터에 기반해 산업 전반에 적용 가능한 디지털 안전관리 표준을 구축하고 차별적인 통합 서비스를 제공하는 것이다. SK AX 애커튼파트너스는 AI 시스템과 연계된 디지털 SHE 컨설팅도 함께 제공해 리스크 진단부터 KPI 설정, 사고 분석, 모의훈련까지 안전경영 체계를 종합적으로 구축하도록 지원한다. 이를 통해 기업들은 개별 작업자 단위의 안전관리부터 사업장 전반의 표준 체계 구축까지 단기간에 완성할 수 있게 된다. SK AX 측은 향후 에이전틱 AI(Agentic AI)에 기반한 예측형 자율안전관리체계로 서비스 범위를 확장할 계획이다. SK AX 애커튼파트너스 최진민 대표 파트너는 "AI 기반 디지털 SHE 체계는 기업 안전경영을 효과적으로 지원하는 핵심 인프라가 되고 있다"며 "CEO 안심 패키지가 경영진과 현장 근로자 모두가 더욱 안전하고 신뢰할 수 있는 작업환경을 만드는 데 기여할 수 있도록 최선을 다할 것"이라고 말했다.

2025.12.16 16:57장유미

SK브로드밴드 B tv, '에이닷' 누적 이용 1억 돌파

SK브로드밴드는 인공지능(AI) 에이전트 '에이닷' 누적 이용 건수가 1억건을 넘어섰다고 16일 밝혔다. 회사는 지난해 9월 SK텔레콤의 생성형 AI '에이닷'을 B tv에 적용했다. 올해는 B tv 홈 화면 상단에 에이닷을 별도 구성하는 사용자환경·사용자경험(UI·UX) 개편으로 이용자별 시청 환경을 분석해 맞춤형 콘텐츠를 추천하는 기능을 강화했다. AI 기반의 B tv 서비스 품질 고도화는 이용자들의 긍정적인 반응을 이끌어냈다. 올해 1월 대비 에이닷 월간 사용자 수가 2배 이상 늘었고, 실제 대화 건수는 6배 이상 증가했다. 시청 이력·선호 장르·실시간 방송 시청 패턴 등 다양한 데이터를 AI가 분석해 최적화된 콘텐츠를 제안한 결과, 추천 콘텐츠 시청 비율도 2배 이상 상승했다. B tv는 이달에도 AI를 통한 개인화 경험 강화에 나선다. 셋톱박스 기종별 최신 업데이트를 통해 이용자 프로필·취향·시청 흐름을 파악해 유용한 기능과 콘텐츠를 직관적으로 제안한다. 신규 작품과 쿠폰 등을 손쉽게 확인할 수 있고, 특정 작품의 시놉시스 등 안내 문구를 확인하면 AI가 관련성 높은 콘텐츠들을 추천한다. B tv+ 작품들만 모아볼 수 있는 탐색 기능도 신설한다. 이에 영화·방송·애니메이션·키즈·다큐멘터리 등 약 20만편의 전 장르 콘텐츠를 무제한으로 즐길 수 있게 됐다. B tv의 AI 활용은 개인화 확장에만 머무르지 않는다. 이용자의 불편사항을 미리 찾아내 해결하는 새로운 품질관리 시스템(AQUA)도 올해 10월에 도입했다. 시청 중 이상 현상이 발생하면 AI가 먼저 감지해 빠르게 조치하는 똑똑한 고객경험지표(CEI) 시스템을 지향한다. 김혁 SK브로드밴드 미디어사업본부장은 “B tv 에이닷을 활용하는 고객들의 만족도가 크게 높아졌다”며 “B tv는 고객들이 더욱 체감할 수 있는 AI 기반 개인화 서비스를 강화해 새로운 미디어 경험을 제공할 것”이라고 밝혔다.

2025.12.16 13:16진성우

SKB, 동료와 함께 빛낸 '비 더 라이트' 행사 개최

SK브로드밴드는 연말을 맞아 직접 참여하는 음악 연주와 아카펠라 밴드 초청 콘서트 등 '비 더 라이트(B the Light)' 행사를 개최했다고 15일 밝혔다. 이번 행사는 지난 2일부터 12일까지 11일간 진행된 온라인 행사와 오프라인 전시를 아우르는 연말 프로그램의 피날레로 마련됐다. 앞서 회사는 '올해 나의 성장에 빛이 되어준 동료' 또는 '어려운 순간 힘이 되어준 동료'의 사연을 사내 인트라넷에 공유하는 온라인 행사를 진행했다. 지난 1년간 운영한 행복 프로그램과 각종 사내 수상 사진을 담은 포토월 전시도 함께 선보였다. 이날 열린 '비 더 라이트' 행사는 한 해의 주요 순간을 엄선해 제작한 영상 상영으로 막을 열었다. 구성원들이 직접 노래와 연주에 참여한 사내 밴드 '1942'와 혼성 5인조 컨템포러리 아카펠라 그룹 '오직목소리'의 공연이 이어지며 현장 분위기를 달궜다. 또 동료 추천 행사에 참여한 추천자와 추천 동료 가운데 5쌍을 선정해 디자인 조명을 증정했으며, 행사에 참여한 모든 구성원에게는 미니 캔들을 제공해 연말 분위기를 더했다. 특히 동료 추천 과정에서 AI 도구를 활용해 웹툰 등 이미지를 편집해 제출할 경우 가산점을 부여하는 방식을 도입해, AI 기반으로 한 기업 정체성도 자연스럽게 드러냈다. SK브로드밴드는 “이번 행사는 다사다난했던 올 한해를 보내면서 서로 응원하며 함께 성장하는 소통 중심의 기업문화 조성을 차원에서 마련한 자리“라며 “구성원·가족과 함께 빛나는 연말을 행복하게 잘 마무리하길 바란다“고 말했다.

2025.12.15 18:50진성우

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

반도체 업계가 새로운 HBM(고대역폭메모리) 개발을 구상하고 있다. 해당 제품은 기존 HBM과 동일한 성능을 구현하면서도 설계 난이도 및 제조비용을 대폭 낮춘 것이 특징이다. 실제 상용화 추진 시 삼성전자·SK하이닉스 등 메모리 기업들은 물론, TSMC·엔비디아 등 관련 생태계에 있는 기업 전반이 상당한 영향을 받을 것으로 예상된다. 15일 업계에 따르면 JEDEC(국제반도체표준협의회)은 새로운 HBM 표준인 'SPHBM4(Standard Package HBM)' 개발의 마무리 단계에 접어들었다. I/O 수 줄여도 대역폭 그대로…SPHBM4 개념 등장 HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)를 뚫어 전기적으로 연결한 고성능 메모리다. 이 경우 대역폭을 기존 D램 대비 크게 향상시킬 수 있게 된다. 대역폭은 초당 얼마나 많은 데이터를 주고받을 수 있는 지를 나타내는 척도다. 데이터 전송 통로인 I/O(입출력단자) 핀 수를 늘리거나, I/O 핀 당 전송속도를 높이는 방법으로 향상시킬 수 있다. 일례로, 6세대 HBM인 HBM4은 데이터 전송 통로인 I/O 핀 수를 기존(1천24개) 대비 2배로(2천48개) 늘리면서 성능을 높였다. SPHBM4는 HBM4와 동일한 D램을 채용했다. 그러나 I/O 핀 수를 4:1 비율로 직렬화(Serialization)해, I/O 핀 수를 4분의 1로 줄이면서도 HBM4와 동일한 대역폭을 지원한다는 특징을 가진다. 직렬화란 여러 개의 I/O 핀에서 동시에 처리되던 데이터를 단일 I/O 핀에서 순차적으로 처리하는 방식을 뜻한다. 4:1 비율의 경우, 기존 4개 I/O 핀에서 처리되던 데이터 양을 1개 I/O 핀이 4번의 처리로 담당하게 된다. 결과적으로 SPHBM4가 잘 구동되기 위해서는 I/O 핀 당 전송속도를 4배 이상 안정적으로 구현하는 직렬화 인터커넥트 기술이 핵심이 될 것으로 관측된다. 직렬화 인터커넥트 기술로 HBM용 베이스(로직) 다이를 설계하는 미국 반도체 스타트업 엘리얀(eliyan)도 "몇 개월 내에 SPHBM4 표준이 발표되기를 기대하고 있다"며 SPHBM4에 대한 환영의 뜻을 밝혔다. 베이스 다이는 메모리의 컨트롤러 기능을 담당하는 다이다. HBM과 GPU 등 시스템반도체를 PHY(물리계층)으로 연결해 데이터를 주고받을 수 있도록 만들어준다. SPHBM4가 도입되면 베이스 다이 역시 새로운 구조로 설계돼야 할 것으로 관측된다. SPHBM4 도입 시 제조 난이도·비용 감소 가능 I/O 핀 수가 512개로 줄어들게 되면, 전체 HBM 패키지에서 가장 큰 변화를 맞이하게 되는 부분은 인터포저다. 인터포저는 칩과 PCB(인쇄회로기판) 사이에 삽입하는 얇은 기판이다. AI 가속기 내부의 HBM과 로직 칩은 수많은 I/O 핀이 촘촘히 박혀 있어, PCB가 직접 대응하기가 힘들다. 이 때 미세한 배선층(RDL)을 가진 인터포저를 삽입하면 칩과 PCB의 연결을 수월하게 만들어 준다. 이렇게 HBM과 GPU를 인터포저로 연결하는 기술을 2.5D 패키징이라 부른다. 대만 주요 파운드리인 TSMC가 이 분야에서 독보적인 기술력을 확보하고 있으며, 자체적으로 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)'라는 브랜드명을 붙이고 있다. 그간 TSMC는 실리콘 인터포저, 혹은 더 작은 크기의 실리콘 브릿지로 CoWoS 공정을 제조해 왔다. 실리콘 소재가 비싼 편에 속하지만, 배선 밀도를 높일 수 있어 고집적 회로 대응에 유리하기 때문이다. 반면 SPHBM4는 I/O 핀 수가 적어 기존만큼 고밀도 기판이 필요하지 않아, 유기(Organic) 인터포저만으로도 충분히 대응이 가능하다. 유기 인터포저는 실리콘 대비 배선 밀도가 낮지만, 가격이 저렴하기 때문에 패키지 제조 비용을 낮출 수 있다. 또한 유기 인터포저는 보다 유연한 설계가 가능해, HBM과 시스템반도체 간 채널 길이를 더 길게 만들 수 있다. 이를 통해 SPHBM을 더 많이 배치해, 결과적으로 총 메모리 용량을 늘릴 수 있다는 게 JEDEC의 설명이다. 이는 TSMC의 CoWoS 기술의 일종인 'CoWoS-R'의 HBM 도입을 가속화할 것으로 기대된다. CoWoS-R은 실리콘 인터포저 대신 유기 인터포저를 사용하는 개념이다. 실제 상용화 가능성은 아직 미지수 다만 SPHBM4가 실제 상용화될 지는 아직 미지수다. JEDEC은 "SPHBM4 표준은 개발 중이거나 개발 후 변경될 수 있으며, JEDEC 이사회에서 승인이 거부될 수도 있다"고 설명했다. 삼성전자, SK하이닉스 등 국내 반도체 업계에서도 SPHBM4에 대해 공식적으로 언급한 사례는 아직 없는 것으로 파악된다. 메모리 업계 한 고위 임원은 "SPHBM4 표준 제정은 HBM 기반의 AI 가속기 제조 비용을 줄이기 위한 여러 시도 중 하나로 보인다"며 "다만 현재 빅테크 기업들은 HBM의 속도 및 밀도를 동시에 강화하는 방향을 강하게 밀어부치고 있다"고 말했다.

2025.12.15 11:22장경윤

SKT 컨소시엄, '독자 AI 파운데이션 모델' 5대 핵심 경쟁력 공개

SK텔레콤이 정부의 '독자 AI 파운데이션 모델' 구축 사업을 수행 중인 'SK텔레콤 컨소시엄'의 5대 핵심 경쟁력을 공개하고, 한국형 인공지능(AI) 풀스택 개발에 속도를 낸다. SK텔레콤은 14일 자사 뉴스룸을 통해 컨소시엄에 참여한 라이너·셀렉트스타·크래프톤·포티투닷·리벨리온 등 기업 5곳의 역할과 기술적 강점을 소개했다. 우선 AI 검색 분야 스타트업 '라이너'는 모델의 '정확성'을 책임진다. 라이너는 자체 전문 지식 검색 에이전트를 통해 확보한 데이터 처리 능력을 바탕으로, AI 모델의 정보 정확도를 높이는 역할을 맡았다. 특히 한국어 환경에 특화된 정보 처리 능력과 실제 서비스에서 검증된 기술력을 토대로 실사용 품질을 고도화할 계획이다. 데이터 전문 기업 '셀렉트스타'는 모델의 '신뢰성' 검증을 주도한다. 자체 플랫폼 '다투모 이밸'을 활용해 한국어 환경에 맞는 평가 체계도 구축한다. 개발 초기 단계부터 오류와 편향을 탐지해 안정적인 AI 모델의 기초도 다진다. 국내 대표 게임사 '크래프톤'은 멀티모달 기술과 대규모 서비스 운영 경험을 바탕으로 '확장성'을 강화한다. 전 세계 사용자를 대상으로 축적한 데이터와 시뮬레이션 기술을 모델에 적용해 글로벌 경쟁력을 확보한다는 전략이다. 모빌리티 기술 기업 '포티투닷'은 온디바이스 AI 기술을 통해 '범용성'을 확보한다. 차량 내 실시간 데이터 처리와 경량화 모델 최적화 역량을 투입, 하드웨어 제약 없이 다양한 환경에서 구동 가능한 모델 구조를 설계한다. AI 반도체 팹리스 '리벨리온'은 국산 신경망처리장치NPU() 기반의 '효율성' 극대화를 맡는다. 국산 모델과 반도체를 결합한 최적화 작업을 통해 저비용·고효율의 AI 추론 인프라를 구축, 모델의 상용화 가능성을 높일 예정이다. SK텔레콤은 "독자 AI 파운데이션 모델 프로젝트를 중심으로 국내 AI 생태계의 경쟁력을 강화할 것"이라며 "국가대표 AI 3강 진입을 향한 기반을 강화해 한국형 풀스택 AI 모델이 가진 가능성을 확장해 나갈 예정"이라고 밝혔다.

2025.12.14 16:44진성우

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

SK하이닉스, 엔비디아와 '초고성능 AI 낸드' 개발 협력…"내년 말 샘플 제조"

SK하이닉스가 엔비디아와 협력해 기존 대비 성능을 10배가량 끌어올린 차세대 AI 낸드를 개발하고 있다. 해당 제품은 내년 말 초기 샘플이 나올 예정으로, 나아가 SK하이닉스는 2027년 말 양산 준비를 목표로 2세대 제품을 개발 중인 것으로 알려졌다. 김천성 SK하이닉스 부사장은 10일 오후 '2025 인공지능반도체 미래기술 컨퍼런스(AISFC)'에서 차세대 AI 낸드 솔루션 개발 현황에 대해 이같이 밝혔다. 현재 AI 산업은 적용처에 따라 방대한 양의 데이터 처리를 요구하는 데이터센터, 개별 기기에서 고효율·저전력 AI 기능 구현을 중시하는 온디바이스 AI로 나뉜다. SK하이닉스는 각 산업에 맞는 고부가 AI 메모리 개발에 집중하고 있다. AI 데이터센터용 메모리는 HBM(고대역폭메모리), CXL(컴퓨트익스프레스링크), AiM(지능형 메모리 반도체) 등이 대표적이다. 이에 더해 SK하이닉스는 AI-N P(성능), AI-N B(대역폭), AI-N D(용량) 세 가지 측면에서 각각 최적화된 낸드 솔루션으로 구성된 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계하고 있다. 현재 SK하이닉스는 글로벌 빅테크인 엔비디아와 AI-N P에 대한 PoC(개념증명)를 공동으로 진행하는 등, 협력을 가속화하고 있다. 김 부사장은 "엔비디아와 AI-N P를 개발하고 있고, 내년 말 정도면 PCIe Gen 6 기반으로 2천500만 IOPS(1초당 처리할 수 있는 입출력 횟수)를 지원하는 샘플이 나올 것"이라며 "2027년 말 정도면 1억 IOPS까지 지원하는 제품의 양산을 추진할 수 있을 것으로 예상한다"고 말했다. 현재 데이터센터에 탑재되는 고성능 eSSD(기업용 SSD)의 IOPS는 최대 300만 수준이다. 이를 고려하면 내년 말 공개될 AI-N P의 성능은 기존 대비 8배에서 10배에 달할 것으로 관측된다. 2세대 제품은 30배 이상에 도달할 전망이다. AI-N B도 차세대 스토리지 솔루션으로 주목받고 있다. AI-N B는 메모리를 송수신하는 대역폭을 기존 SSD 대비 크게 확대한 제품으로, 업계에서는 HBF라고도 불린다. HBF은 D램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 김 부사장은 "샌디스크와 AI-N B의 표준화 작업을 진행하고 있고, 알파 버전이 (내년) 1월 말 정도에 나올 것으로 예상한다"며 "오는 2027년 샘플이 나오면 평가 등을 진행할 계획"이라고 밝혔다.

2025.12.10 18:01장경윤

AI 열풍 속 메모리 슈퍼사이클…"2026년까지 호황 지속"

AI 열풍이 메모리 반도체 시장의 사이클을 근본적으로 바꾸고 있다. 올해 D램, 낸드플래시 가격이 잇따라 급등하며 강한 회복세를 보인 데 이어, 내년에도 호황이 이어질 것이란 전망에 힘이 실리고 있기 때문이다. 업계 안팎에서는 수요에 비해 공급이 부족할 것이라는 진단을 내놓으며 슈퍼사이클 지속 가능성을 강조하고 있다. 9일 시장조사업체 트렌드포스에 따르면 올해 메모리 가격은 1분기 바닥을 찍은 뒤 3분기 급등, 4분기까지 높은 가격대를 유지하는 흐름을 보였다. D램은 HBM(고대역폭메모리)과 DDR5 중심의 공급 전환으로 레거시 DDR4 부족 현상이 심화되면서 가격이 예상보다 가파르게 올랐다. 3분기에는 주요 세트업체의 재고 확보 수요가 겹치는 양상까지 나타났으며, 4분기에는 서버·PC D램 전반으로 인상 흐름이 확산됐다. 낸드플래시는 1분기까지 공급과잉에 시달렸지만, 감산과 투자 축소 효과로 3분기부터 반등하기 시작했다. 특히 SSD·데이터센터향 제품의 주문이 늘면서 4분기에는 구조적인 타이트 구간에 접어들었다. 트렌드포스는 올해 완제품 기준 BOM(부품원가)이 8~10% 증가한 것으로 분석했다. 韓 메모리 양사 “AI 메모리 수요가 공급 앞선다” 삼성전자와 SK하이닉스 등 국내 메모리 양사도 2026년까지 메모리 수요가 유지될 것으로 전망했다. AI용 메모리인 HBM, DDR5, SSD 중심의 전략을 이어가겠다는 것이다. 삼성전자는 최근 컨퍼런스콜에서 “HBM3E와 차세대 HBM4 공급을 확대하더라도 2026년까지는 수요가 공급을 웃도는 구조가 유지될 것”이라고 밝혔다. 아울러 DDR5·LPDDR5X, 고용량 QLC SSD 등 고부가 제품군 비중도 지속 확대할 계획이다. SK하이닉스 역시 주요 고객사와의 협의를 근거로 “내년 HBM 공급 물량은 이미 상당 부분 소진됐다”고 밝혔다. 회사는 HBM과 서버용 DRAM, 고성능 SSD 생산 능력 강화를 위해 내년 설비투자(Capex)를 상향 조정할 방침이다. 해외 매체들은 SK하이닉스의 HBM 공급이 2027년까지 사실상 예약 완료 상태라고 보도하기도 했다. 증권가 “2026년까지 호황 지속 전망” 이에 국내 증권업계는 내년 메모리 업황에 대해 매우 낙관적인 전망을 내놓고 있다. 대신증권은 최근 보고서를 통해 “D램과 낸드 모두 2026년까지 호황이 이어질 가능성이 크다”고 분석했다. 보고서에 따르면 D램 수요 증가율은 30% 이상, 서버 D램은 40%대 성장까지 예상된다. 반면 D램 비트 공급 증가율은 20% 수준, 낸는 17% 안팎에 그쳐 수요를 따라가지 못할 것으로 봤다. 메모리 재고도 D램은 2~3주, 낸드는 약 6주로 추정돼 공급이 빠듯한 상황이라는 분석이다. 해외에서도 비슷한 전망이 나오고 있다. 노무라증권은 “메모리 슈퍼사이클이 최소 2027년까지 이어질 것”이라며 SK하이닉스를 최대 수혜주로 제시했다. D램과 낸드 가격 상승률 전망도 내년 기준 각각 50%, 60%대로 상향했다. 다만 HBM 가격 조정 가능성이 변수로 지적된다. 하나증권은 “AI 서버 수요가 견조하더라도 HBM 가격은 2026년 이후 두 자릿수 조정이 나타날 수 있다”며 “물량은 부족하지만 가격은 피크아웃 국면에 접어들 수 있다”고 분석했다.

2025.12.09 16:08전화평

삼성의 시간 왔다...4분기 D램 1위 탈환 유력

올해 4분기 삼성전자가 다시 전 세계 D램 시장 1위 지위를 되찾을 전망이다. 현재 1위인 SK하이닉스 대비 범용 D램의 가격 상승에 삼성전자가 더 많은 수혜를 받기 때문이다. 삼성의 평균판매가격(ASP)이 전분기 대비 30% 이상 오를 수 있다는 의견도 나온다. 9일 업계에 따르면 삼성전자는 올 4분기 D램 매출액에서 세계 1위 자리를 탈환할 가능성이 유력시된다. 그간 삼성전자는 압도적인 생산능력을 토대로 D램 시장 점유율 1위를 기록해 왔다. 그러나 올해 1분기 SK하이닉스에 처음으로 선두 자리를 내준 바 있다. 고대역폭메모리(HBM) 등 고부가 제품에서 SK하이닉스가 큰 성과를 거둔 덕분이다. 2~3분기 역시 SK하이닉스가 간발의 우위를 점했다. 다만 올 3분기 기준 삼성전자와 SK하이닉스간 D램 매출액은 매우 근소한 수준이다. 시장조사업체 트렌드포스에 따르면 해당 분기 SK하이닉스의 D램 매출액은 137억5천만 달러, 삼성전자는 135억 달러로 집계됐다. 시장 점유율은 SK하이닉가 33.2%, 삼성전자가 32.6%다. 양사 격차는 0.6%p에 불과하다. 하지만 4분기에는 삼성전자가 다시 1위 자리를 가져갈 가능성이 유력해졌다. 글로벌 빅테크의 공격적인 AI 인프라 투자로 범용 D램에 대한 공급부족 현상이 심화되면서, 삼성전자의 D램 평균판매가격(ASP) 상승 현상이 두드러지고 있기 때문이다. 우선 올 4분기 삼성전자, SK하이닉스의 빗그로스(메모리 용량 증가율)는 동일한 수준이다. 양사 모두 올 3분기 실적발표 컨퍼런스콜에서 "4분기 D램 빗그로스는 한 자릿 수 초반 증가"라고 밝힌 바 있다. D램 수요가 폭발적으로 증가하고 있으나, 재고 수준이 낮아 출하량을 무작정 늘릴 수 없기 때문이다. 반면 ASP에서는 삼성전자와 SK하이닉스 간 다른 양상을 보일 전망이다. 현재 업계가 추산하는 삼성전자의 4분기 ASP는 전분기 대비 최소 20%대 상승이다. 최근에는 30%대로 추산하는 증권사 보고서도 발간되는 추세다. LS증권은 30%, 키움증권은 38%를 제시했다. SK하이닉스의 ASP 상승률은 20%대 초중반으로 추산된다. SK하이닉스 역시 범용 D램 가격 상승에 수혜를 입고 있으나, 삼성전자 대비 ASP 상승폭이 적을 수 밖에 없는 구조다. 원인은 HBM의 매출 비중에 있다. SK하이닉스는 주요 고객사인 엔비디아에 HBM3E(5세대 HBM)을 주력으로 공급하고 있어, 범용 D램의 가격 상승에 따른 영향이 제한적이다. 반도체 업계 관계자는 "가격이 대체로 고정적인 HBM 대비 범용 D램의 가격이 빠르게 상승하면서, 수익성이 역전되는 사례까지 발생하고 있다"며 "삼성전자의 경우 HBM 비중이 적고, D램 가격 인상을 적극적으로 밀어부치고 있어 4분기 D램 매출 확대가 SK하이닉스 대비 뚜렷하게 나타날 것"이라고 밝혔다.

2025.12.09 10:24장경윤

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI로 성장 발판 마련한 네카오…새해엔 '수익화' 시험대

[ZD브리핑] 독자 AI 파운데이션 모델 1차 발표...5개팀 기술 뽐낸다

"스트리머 자리 비워도 AI가 방송"…서수길 SOOP 대표, AI 매니저 ‘쌀사 2.0’ 공개

김범석 쿠팡, 국회 청문회 불출석 사유서 제출

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.