• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI'통합검색 결과 입니다. (500건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"D램 가격 상승률, 1분기 70%→2분기 30~50%로 둔화 전망"

전세계 D램 가격 상승률이 1분기 70% 이상에서 2분기 30~50%로 둔화할 것이란 전망이 나왔다. 올해 연간으로 D램 공급부족이 이어지겠지만, 수요가 둔화하는 응용처가 나타날 수 있기 때문이다. 시장조사업체 시그마인텔은 최근 "2분기에도 D램 가격은 계속 오르겠지만 제품별 인상폭이 다를 것"이라며 "DDR4 가격 인상폭은 크게 줄어들 것이고, DDR5와 LPDDR5X는 상승 여력이 남아 있다"고 평가했다. 이어 "전세계 D램 평균가격 인상률은 1분기 70% 이상에서 2분기 30~50% 수준으로 둔화할 것"이라고 예상했다. 올해 하반기 D램 가격 인상률은 5~20% 수준으로 더 줄어들고, 연말에는 높은 가격에서 안정될 것이라고 전망됐다. 시그마인텔이 제시한 근거는 ▲D램 업체 생산능력 할당 안정 ▲인공지능(AI) 서버와 클라우드서비스업체(CSP)의 긴급비축 수요 단계적 해소 ▲패닉 바잉(Panic buying) 완화 등이다. 시그마인텔은 "가전·IT 제품 수요 둔화로 D램 공급부족이 어느 정도 완화될 것"이라고 덧붙였다. 시그마인텔은 DDR과 고대역폭메모리(HBM) 생산능력 할당과 수요 변화 등에 기초했을 때, 전세계 D램 수급 비율은 2025년 8% 공급과잉에서 2026년 12% 공급부족으로 전환할 것이라고 전망했다. 2025년 하반기부터 AI가 주도한 D램 슈퍼사이클은 올해도 이어질 가능성이 크다. 올해 AI 서버용 D램 수요는 전년비 105% 성장이 예상됐다. 같은 기간 기존 서버용 D램 수요 성장률 기대치는 3%에 그친다. 올해 가전·IT 제품용 D램 수요는 전년비 감소가 예상됐다. 전체 D램 비트 소비량 내 비중은 2025년 54%에서 2026년 42%로 하락할 것으로 전망됐다. D램 수요 감소는 보급형 PC, 저가 스마트폰, 사물인터넷(IoT) 기기 등에서 두드러질 수 있다. 시그마인텔은 전세계 D램 웨이퍼 생산능력 중 HBM 비중이 올해 20%를 넘어설 것이라고 전망했다. HBM은 AI 서버 그래픽처리장치(GPU) 전용 메모리다. 올해 HBM의 비트 수요는 전년비 110% 성장이 예상됐다. 올해 HBM4 양산 등에 따른 HBM의 D램 웨이퍼 생산능력 점유 확대는 DDR 제품에 할당할 생산능력을 압박할 수 있다. 올해 1분기 말 기준 서버 D램 고정거래가격은 2025년 2분기 대비 3~4배 올랐다. 같은 기간 DDR4는 4배, DDR5는 3.5배 상승했다. 이에 비해 가전·IT 제품용 D램 가격은 늦게 올랐다. 가전·IT 제품은 2025년 4분기부터 D램 공급이 부족했다. 1분기 말 기준 가전·IT 부문 DDR 고정거래가격은 2025년 2분기 대비 2~2.5배 높다. 시그마인텔은 가전·IT 업체가 더 이상 모든 시장과 제품 라인업을 공략할 수 없고, 전략적으로 선택해야 할 것이라고 평가했다. 메모리 등 부품 가격 인상은 완제품 가격 상승으로 이어졌다. 최종제품 가격 인상은 특히 저가품 수요를 억제해 전체 가전·IT 제품 수요가 감소할 수 있다.

2026.04.12 18:53이기종 기자

SKT, CPU에 NPU 더해 AI 추론 서버 성능 검증

ARM의 AGI CPU와 리벨리온의 리벨카드로 AI 추론 성능을 높이는 솔루션을 개발하고 이를 SK텔레콤 AI 데이터센터에서 실증한다. SK텔레콤이 지난 9일 ARM, 리벨리온과 차세대 AI 인프라 혁신을 위한 전략적 업무협약을 체결했다. AI 산업이 AI 모델을 만드는 '학습'에서 실제 서비스를 제공하는 '추론'으로 패러다임 변화가 이뤄지면서 AI 인프라의 핵심과제도 학습을 위한 막대한 연산 능력보다는 얼마나 적은 전력으로 얼마나 빠르고 저렴하게 AI 서비스를 제공할 수 있느냐로 변하고 있다. 특히 추론은 365일 쉬지 않고 작동해야 되기 때문에 전력 효율이 곧 비용 경쟁력과 직결된다. AI 추론은 학습과 달리 상대적으로 가벼운 연산을 빠르고 반복적으로 처리하는 작업이다. GPU는 이런 추론 작업에도 사용할 수 있지만, 마치 대형 트럭으로 택배를 배달하는 것처럼 과도한 전력을 소모하고 비용이 높다. 이에 업계에서는 추론에 특화된 전용 칩, 즉 NPU가 대안으로 부상하고 있다. NPU에 CPU를 결합하는 이유도 명확하다. 실제 AI 서비스 운영에서는 AI 연산 외에도 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 등 다양한 범용 처리가 동시에 필요하다. CPU가 시스템의 '관제탑' 역할을 하며 데이터 흐름과 시스템 운영을 총괄하고, NPU가 AI 추론 연산을 전담하는 이종 컴퓨팅 구조는 시스템의 성능과 효율을 높일 수 있다. 'Arm AGI CPU'는 ARM이 35년 역사상 처음으로 직접 생산에 나선 데이터센터용 프로세서로, AI 추론 서비스에 최적화된 것이 특징이다. 리벨리온의 리벨카드도 대규모 AI 추론에 특화된 NPU다. 두 칩을 한 서버 안에 탑재해 CPU가 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, NPU가 AI 추론 연산을 전담하면 전력 효율을 높이고 운영 비용을 줄일 수 있다. SK텔레콤은 이러한 방식이 대규모 AI 서비스를 운영하는 데이터센터에서 효율적인 서버 아키텍처라고 설명했다. ARM과 리벨리온은 이미 지난 3월 진행된 'Arm 에브리웨어' 행사에서 각 사의 칩을 결합하여 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간으로 시연하며, 대규모 데이터센터에서의 상용화 가능성을 보여줬다. SK텔레콤은 AI DC에서 CPU와 NPU를 결합한 AI 추론 컴퓨팅의 성능을 검증하고, 특히 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1)을 운영하는 방안도 검토하고 있다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공함으로써 AI 데이터센터 경쟁력을 더욱 강화해 나가겠다”고 말했다. 에디 라미레즈 ARM 클라우드 AI 사업부 GTM 부사장은 “AI 추론의 급속한 성장은 대규모 배포에 최적화된 새로운 데이터센터 인프라 수요를 촉진하고 있다”며, “SK텔레콤, 리벨리온과 같은 파트너는 Arm AGI CPU를 구축하고 AI 추론 인프라를 현대화하는 데 있어 중요한 역할을 하고 있다”고 전했다. 리벨리온의 오진욱 CTO는 “리벨리온은 압도적인 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당하게 됐다”며, “AI 특화 인프라 구축을 위해 각 분야 전문가들이 원팀으로 뭉친 이번 협력은 업계에서도 매우 유의미한 선례가 될 것으로 기대한다”고 강조했다.

2026.04.11 03:42박수형 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

메모리 가격, 2분기도 상승세…삼성전자 '최대 실적' 이어진다

삼성전자가 올 1분기 사상 최대 매출과 영업이익을 거뒀다. 인공지능(AI) 산업 주도로 메모리 수요가 급증하면서, D램·낸드 가격이 전 분기 대비 80~90% 수준까지 상승한 것으로 관측된다. 2분기 전망 역시 밝다. 1분기 메모리 가격 상승폭이 예상을 웃돌았지만, 2분기에도 견조한 추가 상승세가 이어질 가능성이 크기 때문이다. 삼성전자는 경쟁사 대비 가장 많은 생산능력을 보유하고 있어, 메모리 가격 상승에 따른 수익성 증대 효과를 가장 크게 볼 수 있다. 7일 삼성전자는 2026년 1분기 잠정실적 발표에서 연결기준 매출 133조원, 영업이익 57조2000억원을 기록했다고 밝혔다. 분기 기준 사상 최대 실적이다. 매출은 전년 동기 대비 68.06%, 전 분기 대비 41.73% 증가했다. 영업이익은 전년 동기 대비 755.01%, 전 분기 대비 185% 증가했다. 증권가 컨센서스(매출 118조3000억원, 영업이익 38조4977억원)도 크게 상회하며 어닝 서프라이즈를 기록했다. 이번 호실적은 전례 없는 메모리 슈퍼사이클 효과로 풀이된다. 현재 전세계 주요 IT 기업들이 AI 인프라 구축을 위해 공격적으로 투자하면서, 서버용 고부가 D램·낸드 수요가 크게 증가했다. 반면 공급업체들의 생산량 증가는 제한돼, 평균판매가격(ASP) 상승을 부추겼다. 범용 D램·낸드도 덩달아 공급난이 심화됐다. 이에 따라 1분기 D램의 ASP는 전 분기 대비 90%가량 상승한 것으로 추산된다. 낸드 역시 비슷한 수준의 가격 상승세가 실현됐을 가능성이 크다. 김선우 메리츠증권 연구원은 "삼성전자의 D램과 낸드 공히 90% 이상 판가 상승율을 기록했을 것으로 추정한다"며 "선두업체로서 경험에 기반한 적극적이고 과감한 가격 정책과 유리한 가격구조 설정이 전략적으로 작동했을 것"이라고 설명했다. 향후 전망도 밝다. 1분기 D램·낸드 ASP가 예상보다 크게 증가하기는 했으나, 2분기에도 가격 상승세가 견조할 것이라는 시각이 우세하기 때문이다. 삼성전자는 주요 메모리 기업 중 가장 많은 D램·낸드 생산능력을 보유하고 있다. 덕분에 범용 메모리 가격 상승에 따른 수혜를 가장 크게 입을 수 있다. 업계에선 삼성전자가 2분기에도 D램과 낸드 모두 전 분기 대비 최소 30% 수준의 ASP 상승률을 기록할 것이란 전망이 나온다. 반도체 업계 관계자는 "범용 메모리 생산능력이 가장 큰 삼성전자가 메모리 슈퍼사이클의 최대 수혜자가 될 것"이라며 "글로벌 빅테크들과 장기공급계약(LTA)도 활발히 진행되고 있어, 메모리 수요가 지속될 것이라는 전망에 힘을 보탠다"고 말했다.

2026.04.07 12:19장경윤 기자

스타트업 주도 '국가대표 AI'팀, 인재 확보 총력전

'국가대표 인공지능(AI)'으로 불리는 독자 AI 파운데이션 모델(독파모) 개발을 이끄는 스타트업 정예팀들이 인재 확보 전선에 직접 뛰어들었다. 관련 행보가 두드러지지 않는 대기업 정예팀들과 달리, 모티프테크놀로지스와 업스테이지는 채용 홍보에 팔을 걷어붙인 모습이다. 소수정예 구조 특성상 인력 한 명 한 명이 개발 속도를 좌우하기 때문으로 풀이된다. 모티프테크놀로지스는 독파모 개발 고도화와 사업 확장을 위한 공개 채용을 진행한다고 6일 밝혔다. 이번 채용은 AI 리서치 엔지니어, 응용형 AI 엔지니어 등 개발 인력부터 사업 개발·운영 인력까지 기술·비기술직을 망라한다. 독파모는 외산 AI 모델 의존에 따른 기술·문화·경제 안보적 종속 문제를 해소하기 위해 지난해 8월 과학기술정보통신부가 출범시킨 국가 프로젝트다. 초기 선정된 5개 정예팀이 경쟁을 벌였으나 1차 평가에서 네이버클라우드(독자성 미충족)와 NC AI(종합점수 미달)가 탈락하면서 모티프테크놀로지스가 추가 공모로 합류했다. 모티프테크놀로지스 정예팀은 모레, 서울대, 한국과학기술원, 삼일회계법인, 국가유산진흥원, HDC랩스 등 17개 기관과 함께 3000억(300B) 파라미터급 추론형 LLM을 개발 중이다. 업스테이지도 독파모 관련 ▲AI 모델 프로덕션(LLM) ▲LLM 포스트트레이닝 ▲LLM 평가 ▲비전언어모델(VLM) 등 정규직 직군과 LLM 포스트트레이닝·VLM 인턴십까지 총 6개 직군에서 인력을 모집 중이다. 독파모 1차 단계평가를 앞두고 공개한 1000억(100B) 파라미터급 모델 '솔라 오픈'의 후속인 솔라 오픈2 개발이 한창인 가운데 이를 뒷받침할 인재 확보에 속도를 내고 있다. 김성훈 업스테이지 대표는 자신의 사회관계망서비스(SNS)에서 수차례 독파모 사업 인력 채용 홍보에 나서기도 했다. LG AI연구원과 SK텔레콤 등 대기업 주도 정예팀은 기존 AI 조직 인력을 독파모 사업에 재배치할 여력이 있다. 반면 스타트업 정예팀은 프로젝트를 위한 인력을 처음부터 새로 꾸려야 하는 경우가 많다. 연구 인력 한 명의 합류 여부가 개발 방향과 속도를 직접 좌우할 수밖에 없는 이유다. 기업 자체 채용뿐 아니라 정부의 인재 지원 사업에 손을 든 곳도 스타트업이 전부였다. 과기정통부는 지난해 통과된 추가경정예산(추경)을 바탕으로 약 2000억원을 투입해 각 정예팀에 그래픽처리장치(GPU)·데이터·인재를 지원 중이다. 인재 지원은 QS 랭킹 컴퓨터과학(CS) 분야 100위권 내 대학에서 10년 이상 연구개발(R&D) 경험을 쌓았거나, 시가총액 2000억 달러 이상 빅테크에서 7년 이상 프로젝트를 수행한 해외 우수 연구자 유치 비용을 정부가 매칭 지원하는 방식이다. 초기 선발된 5개 정예팀 가운데 신청에 나선 곳은 업스테이지뿐이었다. 과기정통부 측은 지난해 독파모 사업 선정 결과 발표 당시 "촉박했던 프로젝트 일정상 이 같은 조건과 연구 방향에 맞는 인재를 찾기 어려웠던 게 인재 지원 신청률이 저조했던 이유가 아닌가 싶다"고 설명했다. 과기정통부는 오는 8월 전후로 2차 단계평가를 열고 정부 지원을 받아 모델 개발을 이어갈 정예팀을 4곳에서 3곳으로 압축한다. 2차 평가는 단순 모델 고도화에서 나아가 실제 산업 현장의 AI전환(AX) 확장성에 초점을 맞출 것으로 보이면서 스타트업 정예팀들의 인재 확보 경쟁은 한층 치열해질 전망이다. 임정환 모티프테크놀로지스 대표는 "모티프는 조립이 아닌 설계에 집중해 왔고, 개발한 모델과 접근 방식은 글로벌 엔지니어 커뮤니티에서도 의미 있는 반응을 얻고 있다"며 "300B급 추론 모델을 넘어 VLM과 시각언어행동(VLA) 모델로 확장하는 여정에 깊게 몰입할 인재들의 관심을 바란다"고 말했다. 김성훈 업스테이지 대표도 앞서 자신의 SNS를 통해 "새로운 하이브리드 구조인 솔라 오픈2의 손실(loss)이 빠르게 떨어지고 있는 것을 확인했다"며 "멋진 모델이 나올 독파모 프로젝트에 함께 할 분들을 모시고 있다"고 전했다.

2026.04.06 14:45이나연 기자

사람 대신 AI가 장애 대응…SK AX, '무중단 운영' 체제 무기 꺼냈다

SK AX가 에이전틱 인공지능(AI) 기반 자동화 운영 체계를 앞세워 기업 인프라의 '무중단 운영' 구현에 나섰다. AI가 문제를 사전에 탐지하고 대응하는 구조로 시스템 장애를 줄이고 AI 전환(AX) 실행 속도까지 끌어올리겠다는 전략이다. SK AX는 에이전틱 AI 기반 인프라 운영 서비스 '엑스젠틱와이어 NPO(AXgenticWire NPO)'를 출시하고 시스템 장애 예방 중심의 운영 혁신에 나섰다고 2일 밝혔다. 이 서비스는 기존 사람이 중심이던 IT 운영 방식을 AI 중심 구조로 전환하는 데 초점을 맞췄다. 특히 최근 AI 클라우드 환경이 확대되면서 그래픽처리장치(GPU) 자원 관리와 워크로드 변동성이 복잡해지고 있는 만큼, 휴먼에러를 최소화하고 선제 대응 체계를 구축하는 것이 핵심 과제로 떠오르고 있다는 점이 반영됐다. 엑스젠틱와이어 NPO는 에이전틱 AI가 문제 상황을 탐지·분석·판단·조치하는 전 과정을 자동으로 수행하는 구조를 갖췄다. 이상 징후를 감지하는 탐지 에이전트를 시작으로, 원인을 추론하는 분석 에이전트, 영향 범위를 판단하는 에이전트, 복구 및 자원 재할당을 수행하는 조치 에이전트가 유기적으로 작동한다. 장애 발생 가능성을 사전에 낮추고 대응 시간을 단축할 수 있다는 설명이다. 업계에선 이러한 흐름을 운영형 AI 확산 단계로 보고 있다. 단순 분석이나 예측을 넘어 실제 시스템 운영에 AI가 개입하는 형태로 진화하고 있으며 특히 제조·금융·공공 분야에서 서비스 중단 리스크를 줄이는 기술 수요가 빠르게 증가하는 추세다. 회사 측에 따르면 엑스젠틱와이어 NPO 적용시 다양한 산업별 업무 혁신이 예상된다. 제조업에선 설비 이상을 실시간으로 감지해 생산 차질을 줄일 수 있고 금융권에선 중단 없는 전자금융 시스템 운영이 가능하다. 공공 영역에서도 대국민 서비스 안정성과 장애 대응 체계를 동시에 강화할 수 있다는 게 회사 측 설명이다. SK AX는 단순 운영 자동화를 넘어 IT 운영 방식과 비용 구조 전반을 재설계한다는 목표다. 로그·메트릭·이벤트 데이터를 기반으로 AI가 인프라 전반을 통합 관리하고 운영자는 자연어 기반 인터페이스를 통해 상태 조회와 제어를 수행할 수 있도록 했다. 또 기업 도입 환경에 맞춰 선택형 구조를 제공하는 것도 특징이다. 설치형 방식부터 특정 업무를 위탁하는 BPO, 전체 운영을 통합하는 ITO까지 다양한 도입 모델을 지원한다. AI 스튜디오와 모델 컨텍스트 프로토콜(MCP) 빌더, GPU 자원을 통합 관리하는 서비스 등을 통해 구축과 운영 편의성도 높였다. 차지원 SK AX 최고AI혁신책임자(CAIO)는 "엑스젠틱와이어 NPO 도입으로 기업들은 다운타임 없는 운영 체계에서부터 애플리케이션의 지능화된 서비스까지 AX 실행 전환 속도를 높일 수 있다"며 "AX 전체 영역에서 운영비용 구조 혁신과 프로세스 재설계도 실현할 것"이라고 밝혔다.

2026.04.02 14:46한정호 기자

삼성·SK 반도체 슈퍼사이클인데…소재·부품 업계 '시름', 왜?

글로벌 반도체 빅2인 삼성전자, SK하이닉스가 전례 없는 메모리 슈퍼사이클 효과로 올해 역대 최대 수익성을 거둘 것으로 전망되고 있지만 이들과 협력 관계인 국내 소재·부품 협력사들의 시름은 오히려 깊어지고 있어 주목된다. 삼성전자와 SK하이닉스가 연말연초 성과급 잔치를 벌였지만 이들 기업이 반도체 호황에도 웃지 못하는 가장 큰 원인은 최근 진행된 공급 협상에서 지난해에 이어 올해에도 단가가 인하됐기 때문이다. 동시에 중동 전쟁 등 거시경제 불확실성이 높아지고 환율이 상승하는 등 제조 비용에 대한 부담도 커지고 있다. 소재·부품 업계는 국내 반도체 공급망의 '뿌리' 역할을 담당한다. 단기적으로는 개별 기업들의 실적 악화에 그치겠으나, 중장기적으로 국내 소재·부품 업계의 경쟁력 약화로까지 이어질 수 있다는 우려의 목소리가 나온다. 1일 업계에 따르면 삼성전자, SK하이닉스는 올 1분기까지 주요 반도체 소재·부품 기업과의 단가 협상을 완료했다. 통상 삼성전자, SK하이닉스는 연말연시께 소재·부품 기업들과 당해년도 제품 공급에 대한 단가 협상을 진행한다. 각 기업별로 차이는 있지만, 삼성전자·SK하이닉스가 주력으로 양산하는 메모리반도체용 소재·부품은 올해 전반적으로 단가가 인하됐다. 복수의 업계 관계자에 따르면 하락폭은 한 자릿수 수준이다. 지디넷코리아 취재에 따르면 전공정과 후공정 분야 모두 단가 인하가 결정된 기업이 있는 것으로 파악된다. 앞서 삼성전자, SK하이닉스는 지난해 초에도 복수의 협력사와 소재·부품 단가를 10% 이상 인하하기로 한 바 있다. 이를 고려하면 소재·부품 단가 인하폭은 다소 축소됐다는 평가다. 그러나 지난해와 올해 국내 반도체 업계의 환경은 크게 변화했다. 전세계 IT 기업들이 공격적인 AI 인프라 투자를 진행하면서, 메모리반도체 가격은 지난해 상반기부터 고부가 및 범용 제품을 가리지 않고 크게 상승했다. 이에 삼성전자(43조6000억원), SK하이닉스(47조2063억원)는 나란히 지난해 역대 최대 실적을 기록했다. 올해 역시 양사 영업이익이 도합 400조원에 달할 수 있다는 전망이 제기될 정도로 업황이 초호황이다. 반면 소재·부품 단가는 오히려 인하되면서, 국내 기업들은 반도체 슈퍼사이클 속에서도 낙수 효과를 제대로 누리기 힘들어졌다. 설상가상으로 대외적 불확실성은 높아졌다. 지속적인 환율 상승과 더불어, 최근 불거진 이란 전쟁의 여파로 금·은·구리·알루미늄·쿼츠 등 핵심 원자재 가격이 전반적으로 급등했기 때문이다. 물류비 역시 크게 오르고 있다. 익명을 요청한 국내 한 반도체 소재·부품 업계 임원은 "올해 단가 인하율이 전년 대비 줄어들기는 했으나, 최근 물가 및 원자재 비용의 상승 현상을 반영하면 국내 소재·부품의 실질적인 이익은 감소하는 것과 다름없다"며 "제도적으로 완충 장치가 필요한 상황"이라고 어려움을 토로했다. 매년 비용 효율화를 실현해야 하는 삼성전자, SK하이닉스 구매 부서 입장에서는 단가 인하가 핵심 과업에 속한다. 그러나 소재·부품의 수익성 하락 압박이 커질 경우, 중견 협력사들의 연구개발(R&D)에 투입되는 비용이 줄어드는 등 중장기적으로 국내 반도체 생태계가 약화될 가능성도 거론된다. 또 다른 업계 임원은 "원가 압박을 탈피하기 위해서는 결국 제품 개발이나 설비 투자에 필요한 재원을 줄이는 방향으로 나아가게 될 것"이라며 "중국 기업들의 추격이 거센 가운데, 국내 소재·부품 기업들이 경쟁력을 유지하기 위해서는 수요기업과 공급기업 간 균형 잡인 이익 분배가 실현돼야 한다"고 강조했다.

2026.04.01 14:46장경윤 기자

SKT, NTT도코모와 AI RAN 백서 공동 발간

SK텔레콤은 일본 이동통신사 NTT도코모(NTT DOCOMO)와 함께 가상화 기지국 진화와 AI RAN 구현을 위한 핵심 기술 요건과 발전 방향을 담은 백서를 공동 발간했다고 31일 밝혔다. 백서는 양사의 모바일 네트워크 구축, 운영 경험을 바탕으로 작성됐다. 이통사 관점에서 가상화 기지국과 AI RAN의 고도화와 발전 가능성, 관련 기술 요구사항, 핵심 구현 기술 및 도입 효과 등을 분석한 내용을 담았다. 가상화 기지국, AI RAN 소프트웨어 개발 과정에서 이통사와 장비 제조사 간 협력 강화를 통해 관련 기술의 발전을 촉진하는 것을 목표로 한다. 양사는 백서를 통해 가상화 기지국과 AI RAN 효과를 극대화하는 데 필요한 세 가지 핵심 기술 요건을 제시했다. 먼저 신규 기능 도입을 가속하기 위한 하드웨어와 소프트웨어의 명확한 분리를 강조했다. 기지국 제어 소프트웨어를 특정 하드웨어나 가상화 플랫폼과 기능적으로 분리함으로써, 인프라와 독립적으로 소프트웨어를 배포할 수 있도록 하는 것이다. 이 구조는 소프트웨어 기반 네트워크 혁신 속도를 높일 수 있으며, 향후 가상화 기지국과 AI RAN 발전의 핵심 기반으로 평가된다. 유연한 인프라 구축과 자원 활용도 향상을 위한 리소스 풀링(Resource Pooling) 기술의 필요성도 제시됐다. 이 기술을 활용하면 서비스 품질을 유지하면서 기지국의 용량을 확대하고 전력 효율을 향상할 수 있다. 또, 유연한 네트워크 운영을 가능하게 해 이동통신사 경쟁력 강화에 기여할 수 있다는 분석이다. 가상화 기지국 시스템을 활용한 AI 컴퓨팅 기능 구현도 주요 과제로 언급됐다. xPU(x Processing Unit) 기반 가상화 기지국 구조에서는 AI·통신 자원을 통합 관리하는 오케스트레이션(Orchestration) 기술을 통해 통신 서비스 품질을 유지하면서 AI 컴퓨팅 기능을 제공할 수 있다. 이를 통해 가상화 기지국을 통신과 AI 서비스를 동시에 제공하는 통합 AI 플랫폼, 즉 AI-RAN으로 발전시킬 수 있다. 앞서 SK텔레콤은 이달 초 열린 MWC 2026에서 리소스 풀링 기술과 xPU 기반 가상화 기지국 내 오케스트레이션 기술에 대한 실증 성과(PoC, Proof of Concept)를 공개하며, 백서에서 제시한 핵심 기술 요건의 실현 가능성을 입증한 바 있다. SK텔레콤과 NTT도코모는 2022년 5G 진화와 6G를 위한 차세대 통신 인프라 기술 연구 협력 계약을 체결한 바 있다. 양사는 앞으로도 5G 경쟁력 강화와 효율성 제고, 6G 표준화 및 기술 검증 등 다양한 분야에서 기술 협력을 이어갈 계획이다. 류탁기 SK텔레콤 네트워크기술담당은 “백서는 이통사 관점에서 가상화 기지국 도입 효과를 극대화하고 자율 네트워크로의 진화에 필요한 핵심 요소를 제시했다는 점에서 의미가 크다”며 “NTT도코모와의 협력을 통해 도출된 성과가 글로벌 차세대 모바일 네트워크 발전과 생태계 확대에 기여하기를 기대한다”고 말했다.

2026.03.31 11:01홍지후 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

SK하이닉스 "올해도 HBM 출하량 견조…HBM4E 샘플 연내 개발"

SK하이닉스가 올해 고대역폭메모리(HBM) 사업의 견조한 성장세를 자신했다. 올해 HBM 출하량은 당초 계획에서 변동이 없을 예정이며, 차세대 제품인 HBM4E(7세대 HBM) 샘플도 연내 개발이 완료될 전망이다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 이날 곽 사장은 "SK하이닉스의 2025년도 HBM 매출은 전년 대비 2배 이상 확대됐다"며 "동시에 HBM4 기술 개발에 성공하고 선제적인 양산 기반을 확립하는 등 차세대 HBM에서도 업계 기술 리더십을 이어가고 있다"고 강조했다. HBM은 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결해 데이터 처리 성능을 끌어올린 차세대 메모리다. 현재 6세대 제품인 HBM4까지 상용화에 이르렀다. 특히 SK하이닉스는 핵심 고객사인 엔비디아향으로 HBM4를 양산하고 있다. 올해 HBM 사업에 대해서도 견조한 성장세를 전망했다. 곽 사장은 "약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다. 하반기부터 HBM4 점유율이 많이 올라올 것"이라며 "현재 고객들과 논의해 HBM을 비롯한 메모리반도체의 최적의 공급 비율을 맞추고 있다"고 설명했다. 차세대 제품인 HBM4E도 연구개발을 진행 중이다. HBM4E는 내년 양산이 본격화될 것으로 예상되는 HBM으로, 엔비디아의 차세대 AI 가속기 '베라 루빈 울트라'에 탑재된다. 곽 사장은 "HBM4E는 정확한 시점을 말씀드릴 수 없으나 원래 계획하고 있던 대로 올해 안에 샘플을 만들어내기 위해 준비 중"이라고 말했다.

2026.03.25 13:57장경윤 기자

곽노정 SK하이닉스 "순현금 100조 확보해 장기적 전략 투자 집행"

SK하이닉스가 고대역폭메모리(HBM) 등 AI 메모리 수요에 적기 대응하기 위한 준비에 나선다. 중장기적으로 안정적인 투자를 집행하기 위해 순현금 100조원 이상을 확보하는 것이 목표다. 곽노정 SK하이닉스 사장은 25일 이천 본사에서 열린 제 78기 정기주주총회에서 이같이 밝혔다. 기존 메모리 수요는 IT 업황에 따라 하락과 상승을 반복하는 '사이클' 현상을 반복해왔다. 그러나 전세계 AI 기업들의 공격적인 인프라 투자에 따라, 고성능 AI 메모리 수요가 구조적인 공급 부족 현상에 직면할 수 있다는 시각이 제기되고 있다. 이에 SK하이닉스도 업황에 따라 설비투자 규모를 축소 및 확대하는 것이 아닌, 중장기적으로 안정적인 투자를 집행할 수 있는 재무건전성 확보에 나선다. 곽 사장은 "고객사 수요에 맞춰 안정적으로 투자를 집행할 수 있는 재무 건전성을 확보하는 것이 반드시 필요하다"며 "이에 회사는 순현금 100조원 이상을 확보하고자 한다. 이를 통해 어떠한 환경에서도 장기적이고 전략적으로 필요한 투자를 집행할 것"고 밝혔다. 이와 관련, SK하이닉스는 최첨단 메모리 생산능력 확대를 위한 투자를 적극 진행하고 있다. 올해 청주 M15X 팹 구축을 완료해 설비를 도입할 계획이며, 용인 대규모 반도체 클러스터 구축도 적극 추진 중이다.

2026.03.25 11:24장경윤 기자

SK텔레콤 "Arm AGI CPU 활용 AI 데이터센터 사업 확장"

[샌프란시스코(미국)=권봉석 기자] SK텔레콤이 24일(현지시간) Arm AGI CPU와 리벨리온 AI 가속기를 활용해 AI 데이터센터 인프라 사업을 확장하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 기조연설에서 에이전틱 AI 추론 처리에 특화된 CPU 완제품 첫 제품인 'AGI CPU'를 공개했다. 정석근 SK텔레콤 최고기술책임자(CTO)는 이날 영상메시지에서 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장할 것"이라고 설명했다. 이어 "자체 개발한 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써, 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 덧붙였다. 이날 현장에서 만난 리벨리온 관계자는 "에이전틱 AI는 CPU 효율이 매우 중요하며 NPU 가속기를 단순히 결합하는 것이 아니라 시스템 차원 통합의 필요성이 크다"고 설명했다. 이어 "올 하반기부터 리벨리온 NPU와 Arm AGI CPU를 결합한 솔루션을 바탕으로 SK텔레콤과 벤치마킹을 진행할 예정이며 구체적인 일정은 Arm AGI CPU 기반 서버 공급업체와 논의중"이라고 덧붙였다. 이 관계자는 "에이전틱 AI로 인해 추론 시장 확장이 예상되며 리벨리온은 Arm 글로벌 파트너사로 Arm의 네트워크를 활용해 SK텔레콤을 시작으로 추후 다른 고객사까지 솔루션 보급 확대를 계획중"이라고 밝혔다.

2026.03.25 09:40권봉석 기자

SK하이닉스, 美 ADR 상장 추진…"연내 완료 목표"

SK하이닉스가 올해 미국 증시 상장을 위한 본격적인 준비에 돌입했다. SK하이닉스는 25일 공시에서 미국 증권거래소위원회(SEC)에 미국 주식예탁증서에 관한 상장 공모 관련 등록신청서를 비공개로 제출했다고 밝혔다. SK하이닉스는 "2026년 연내 상장을 목표로 추진하고 있으나, 현재 상장 공모의 규모, 방식, 일정 등 세부사항은 확정되지 않았다"고 밝혔다. 또 "최종 상장 여부는 SEC의 등록신청서 검토, 시장 상황, 수요예측 및 기타 제반 여건 등을 종합 고려하여 결정될 예정"이라며 "향후 구체적인 사항이 확정되는 시점 또는 6개월 이내에 재공시하겠다"고 밝혔다. ADR은 외국 기업이 미국 증시에서 자사 주식을 거래할 수 있도록 발행하는 증권이다. 글로벌 투자자 접근성을 확대하는 수단으로 활용되며, 국내 기업들의 기업가치 제고에도 유리하다는 평가를 받는다.

2026.03.25 08:26장경윤 기자

Arm, 서버용 CPU 공급 나선다...에이전틱 AI 겨냥 'AGI CPU' 공개

[샌프란시스코(미국)=권봉석 기자] 영국 반도체 지적재산권(IP) 기업 Arm이 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 에이전틱 AI에 최적화된 CPU 완제품인 'Arm AGI CPU'를 공개했다. 이날 기조연설에서 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "에이전틱 AI가 등장하면서 다양한 에이전트와 데이터를 주고 받고 서버 내 작업을 조율하는 CPU의 역할이 커지고 있다"고 설명했다. 이어 "AGI CPU는 성능과 확장성, 효율성 등 3개 요소를 염두에 두고 처음부터 에이전틱 AI를 위해 설계됐다"고 덧붙였다. TSMC 3나노 기반 최대 136개 Arm 코어 탑재 AGI CPU는 Arm이 팹리스와 클라우드서비스공급자(CSP), 하이퍼스케일러에 공급하는 CPU IP인 네오버스 v3 기반으로 설계됐다. 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 또 각종 가속기와 GPU 사이에 최대 성능을 낼 수 있도록 최신 규격인 PCI 익스프레스 6.0 레인(lane, 데이터 전송 통로)을 96개 내장했다. CPU 다이 생산에는 대만 TSMC 3나노급 공정을 이용한다. 이날 현장에서 만난 Arm 관계자는 "TSMC 3나노급 중 어떤 공정을 이용하는지는 구체적으로 밝힐 수 없다"고 답했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. "AGI CPU, 지속 성능과 효율에서 x86 대비 우위" 이날 Arm은 인텔과 AMD 등 기존 x86 기반 서버용 프로세서 대비 AGI CPU가 대역폭과 전력 소모 등에서 더 많은 이점을 가지고 있다고 강조했다. 모하메드 아와드 Arm 수석부사장은 "기존 x86 프로세서는 작동 클록을 올리는 방식으로 성능을 강화했지만 전력 소모도 증가한다. 또 한 코어를 두 개처럼 쓰는 SMT 기술을 활용해도 메모리 대역폭 등 병목현상으로 실제 성능 향상은 크지 않다"고 지적했다. 이어 자체 예측 결과를 바탕으로 "AGI CPU는 장시간 지속 성능과 전력 효율, 랙당 지속 성능 등 3개 지표에서 x86 프로세서 대비 1.7배 이상 우위에 있는 킬러 제품"이라고 자평했다. 레노버, 슈퍼마이크로 등 주요 서버 제조사는 Arm AGI CPU 기반 서버를 시장에 공급 예정이다. 또 메타와 오픈AI 등 클라우드 관련 업체도 AGI CPU를 자사 AI 인프라에 도입하겠다고 밝혔다. 국내에서는 SK텔레콤과 리벨리온이 AGI CPU를 도입할 예정이다. 르네 하스 Arm CEO는 "오늘 공개한 AGI CPU를 시작으로 내년에는 차세대 제품인 'AGI CPU 2', 또 이 프로세서의 기반이 되는 네오버스 CSS V4 등 후속 제품을 지속적으로 투입할 예정"이라고 밝혔다.

2026.03.25 06:57권봉석 기자

옴디아 "SKT, AI 수익화 고민 해법 찾았다"

글로벌 시장조사기관 '옴디아(Omdia)'가 보고서에서 SK텔레콤의 GPU 운용 효율화, 수익화 기반 소버린 AI 인프라 구축 전략을 높이 평가했다. 24일 SK텔레콤 뉴스룸에 따르면 옴디아는 '해인(Haein) 클러스터'와 '페타서스 AI 클라우드'로 AI 인프라의 고질적인 난제를 자체 해결한 점에 주목했다. '해인'은 엔비디아차세대 AI 가속 칩 '블랙웰'이 탑재된 고성능 GPU 인프라다. 이를 기반으로 SK텔레콤은 대규모 AI 모델 학습, 추론에 최적화된 연산 환경을 안정적으로 제공한다. 해인엔 자체 가상화 솔루션 '페타서스 AI 클라우드'를 적용해 GPU 클러스터 가동률을 극대화했다. SK텔레콤이 하나의 시스템이나 소프트웨어를 여러 사용자가 이용하는 멀티테넌시 환경의 보안 문제를 독자적인 가상화 기술로 극복했다는 점도 조명했다. 이는 보안과 효율성을 동시에 잡은 구조로, AI 인프라 경쟁력을 갖췄다는 평가다. 수익화 전략도 주목했다. 옴디아는 SK텔레콤이 AI 기술 경쟁력과 투자를 통해 실질적인 수익화 구조를 마련했다는 점을 높이 샀다. SK텔레콤 자체 거대언어모델(LLM) 'A.X K1'과 MWC26에서 공개된 '소버린 AI 서비스 패키지'가 인프라(AI DC)-모델(A.X)-서비스를 통합 제공하는 엔드 투 엔드 구조를 완성했다고 분석했다. 이를 통해 기술 경쟁력이 어떻게 비즈니스 수익 구조를 마련할 수 있는지 구체적으로 제시했다고 설명했다. AI DC 사업 재무적 성과가 이 같은 수익화 모델의 가능성을 보여준다고 설명했다. 지난해 가산, 양주 등 주요 거점 데이터센터 가동률 상승에 힘입어 연간 매출이 전년 대비 약 35% 성장한 3억 5400만 달러(약 5293억원)에 이르는 점에 주목했다. SK텔레콤이 2030년까지 AI DC 매출 7억 달러(약 1조원) 달성이라는 확고한 로드맵을 보유하고 있으며, 이는 전체 매출의 약 5%를 차지하는 핵심 수익원이 될 것으로 전망했다. SK텔레콤은 "독보적인 AI 기술력과 비즈니스 모델을 바탕으로 글로벌 AI 생태계를 선도하고, AI G3 도약이라는 국가 비전에도 기여할 방침"이라고 밝혔다.

2026.03.24 15:21홍지후 기자

글로벌 생성형 AI '톱50' 진입한 국내 서비스는

국내 인공지능(AI) 서비스 '에이닷'과 '파파고'가 글로벌 생성형 AI 시장에서 의미 있는 이용자 순위를 확보한 것으로 나타났다. 23일 글로벌 벤처캐피털 앤드리슨호로위츠(a16z)가 발표한 '차세대 생성형 AI 소비자 앱 톱 100'에 따르면 두 서비스가 웹·모바일 부문서 상위 50위 내 든 것으로 집계됐다. SK텔레콤 에이닷은 국내 서비스 중 유일하게 웹 부문 상위 50위에 들었다. 에이닷은 지난해 상반기 15위, 하반기 35위에 이어 이번 평가에서도 39위를 기록하며 세 차례 연속 웹 부문 톱 50을 유지했다. 이 서비스는 정부가 추진 중인 '독자 AI 파운데이션 모델' 프로젝트와도 맞물렸다. SK텔레콤은 에이닷으로 모은 사용자 데이터 기반으로 자체 AI 모델 고도화에 속도를 내겠다고 밝힌 바 있다. 모바일 앱 부문에서는 네이버 파파고가 43위에 올랐으며, 카메라 애플리케이션 스노우는 48위를 기록했다. 이번 순위는 시밀러웹 등 트래픽 데이터를 기반으로 산정됐다. 실제 이용자 유입과 사용량을 반영하는 만큼 서비스 경쟁력과 시장 변화가 순위에 직접적인 영향을 미친다. 상위권은 여전히 글로벌 빅테크가 차지한 것으로 나타났다. 오픈AI의 '챗GPT'는 웹과 모바일 앱 모두에서 1위를 기록했다. 웹 부문에서는 '제미나이'와 '캔바'가 뒤를 이었다. 앱 부문에서는 '캡컷'과 '제미나이'가 각각 2위와 3위를 기록했다.

2026.03.23 15:50김미정 기자

[유미's 픽] SK AX, '엑스젠틱와이어'로 판 다시 짠다…AI 실행 중심 구조로 전면 전환

SK AX가 최근 에이전틱 인공지능(AI) 기반 통합 브랜드 '엑스젠틱와이어(AXgenticWire)'를 공개하고 인공지능 전환(AX) 사업 구조 재설계에 나섰다. AI를 단순 도구가 아닌 기업 운영 전반을 바꾸는 핵심 체계로 삼겠다는 전략이다. 20일 업계에 따르면 SK AX는 엑스젠틱와이어를 중심으로 AX 사업 브랜드를 통합하고 기업의 의사결정과 운영을 AI 기반으로 재설계하는 구조를 구축하고 있다. 엑스젠틱와이어는 복수의 AI 에이전트가 협업하는 멀티 에이전트 체계를 기반으로 데이터 분석부터 의사결정, 실행까지 전 과정을 연결하는 것이 특징이다. 이번 전략은 최근 신설된 CAIO(최고AI책임자) 조직과도 맞닿아 있다. SK AX는 기존 CIO 조직과 AI 조직을 통합해 전사 AI 실행 체계를 구축하고 AI를 실제 사업 성과로 연결하는 데 초점을 맞추고 있다. 차지원 SK AX CAIO는 "AI가 업무를 돕는 시대는 지났다"며 "이제는 AI가 업의 본질을 바꾸는 단계로, AI는 기술의 문제가 아니라 실행의 문제"라고 강조했다. 엑스젠틱와이어는 이러한 전략을 구현하는 핵심 축으로, 기업 운영 전반을 하나의 체계로 연결하는 역할을 맡는다. 기존처럼 사람이 데이터를 취합해 의사결정을 지원하는 방식에서 나아가 AI가 판단과 실행까지 이어지는 구조를 구축하는 데 초점을 맞췄다. 또 기존 엔터프라이즈 AI가 정보 검색과 요약 등 개인의 업무 생산성을 높이는 '어시스턴트' 역할에 집중했다면, 엑스젠틱와이어는 복수의 에이전트가 협업해 기업의 복잡한 비즈니스 프로세스를 직접 수행하는 '자율형 에이전트' 역량에 초점을 맞췄다는 점에서 차별화됐다. 차 CAIO는 "에이전틱 AI 시대에는 AI 모델의 성능보다 그 판단이 기업 운영에서 실제 작동하도록 만드는 구조가 경쟁력을 좌우한다"며 "엑스젠틱와이어 브랜드 아래에서 기업의 의사결정과 운영 효율이 극대화되도록 하겠다"고 말했다. 이와 함께 SK AX는 사업 구조도 함께 재정비하고 있다. 엑스젠틱와이어를 AX 사업 전반을 아우르는 마스터 브랜드로 삼고, 기존 플랫폼 '솔루어'는 프로젝트 수행 과정에서 활용되는 기술 자산으로 활용하는 이원 구조다. 솔루어는 SK AX가 2024년 선보인 엔터프라이즈 AI 플랫폼으로, 기업이 다양한 대형언어모델(LLM)과 내부 데이터를 결합해 AI 서비스를 구축·운영할 수 있도록 지원한다. 현재는 고객 환경에 따라 선택적으로 적용되며 엑스젠틱와이어와 같은 독립 브랜드라기보다 사업 수행의 효율성과 성과를 높이는 역할을 맡는다. 이를 통해 SK AX는 엑스젠틱와이어가 기업 전반의 AI 기반 혁신을 주도하고, 솔루어 등은 산업별·업무별 특화 솔루션으로 이를 지원하는 구조로 가져간다는 전략을 추진하는 분위기다. 이 같은 사업 구조는 SK AX와 SK텔레콤 간 역할 구분과도 맞닿아 있다. SK AX는 B2B IT 서비스 기반의 구축·운영 사업을 중심으로 AX 전환을 수행하고, SK텔레콤은 '에이닷 비즈'와 같은 AI 서비스를 제공하는 방식으로 각기 다른 영역에서 사업을 전개하고 있다. 이를 통해 그룹 내에서 구축형 AX 사업과 서비스형 AI 사업을 분리해 추진하는 구조를 형성하려는 움직임을 보이고 있다. 업계에선 이번 일로 SK AX가 기존 IT 서비스 기업에서 AX 전환 사업자로 무게 중심을 옮기려는 시도를 하고 있는 것으로 평가했다. 초거대 AI 모델 경쟁 대신 현장 적용과 운영 최적화에 집중하는 전략으로, 산업별 맞춤형 AI 적용 역량을 차별화 요소로 삼겠다는 의도로 풀이된다. SK AX 관계자는 "엑스젠틱와이어를 중심으로 AX 사업과 관련한 서비스와 솔루션을 하나의 체계로 통합해 나갈 계획"이라며 "솔루어 등 기존 플랫폼은 프로젝트 수행 과정에서 효율성과 성과를 높이는 방향으로 활용해 고객 맞춤형 AX 전환을 지원할 것"이라고 말했다.

2026.03.20 12:01장유미 기자

SK AX, 새 에이전틱 AI 브랜드 '엑스젠틱와이어' 공개…기업 운영 판 바꾼다

SK AX가 기업 운영 전반을 재설계하는 에이전틱 인공지능(AI) 전략을 전면에 내세우며 AI 전환(AX) 시장에 승부수를 던졌다. 단순 업무 자동화를 넘어 스스로 판단하고 실행하는 새로운 AI 체계를 구축해 기업 의사결정 구조를 혁신한다는 목표다. SK AX는 새로운 통합 브랜드 '엑스젠틱와이어(AXgenticWire)'를 공개하고 에이전틱 AI 기반 기업 운영 혁신을 가속화한다고 19일 밝혔다. 엑스젠틱와이어는 스스로 판단·실행하는 에이전틱 AI와 기업 구조를 재설계하는 리와이어 개념을 결합한 브랜드다. AI가 단순 보조 도구를 넘어 기업 운영 전반을 최적화하는 핵심 실행 체계로 작동하도록 하겠다는 의미를 담았다. 최근 생성형 AI 확산으로 개별 업무 단위에서 AI 활용은 빠르게 늘고 있지만, 기업 전체 차원의 생산성 혁신으로 이어지지 못하는 한계도 동시에 드러나고 있다. SK AX는 이러한 문제의 원인을 부분 최적화에 있다고 보고 AI 에이전트 간 협업을 기반으로 기업 전체를 통합적으로 최적화하는 접근 방식을 제시했다. 핵심은 멀티 에이전트 기반 운영 체계다. 엑스젠틱와이어는 다양한 AI 에이전트가 서로 협업하며 추론·의사결정·실행까지 수행하는 구조를 제공한다. 특히 AI가 이해할 수 있도록 구조화된 'AI 리더블 데이터'를 기반으로 데이터 분석과 실행이 동시에 이뤄지는 환경을 구축한다. 여기에 SK AX가 축적해온 AI 옵스(Ops) 역량을 결합해 기업별 시스템 환경에 맞는 안정적인 운영 기반도 제공한다. 단일 AI가 아닌 다수 에이전트가 유기적으로 연결된 오케스트레이션 구조를 통해 비용 절감과 품질 안정성, 데이터 거버넌스까지 동시에 확보할 수 있다는 설명이다. 이미 실제 산업 현장 적용도 시작됐다. SK AX에 따르면 글로벌 제조 기업의 공급망(SCM) 운영에 엑스젠틱와이어 기반 기술이 적용되면서 생산 계획 수립과 의사결정 속도가 크게 개선됐다. 기존에는 여러 시스템에 분산된 데이터를 사람이 수작업으로 분석해야 했지만, AI 에이전트가 실시간으로 데이터를 연결하고 수요·재고를 분석해 즉각 대응할 수 있는 체계로 전환됐다는 설명이다. 수요 변동이나 재고 부족 등 변수 발생 시에도 AI 에이전트 간 협업을 통해 원인을 분석하고 대응 방안을 도출함으로써 생산 계획 조정 속도와 정확도를 동시에 끌어올렸다는 평가다. 업계에선 에이전틱 AI를 중심으로 기업 경쟁 구도가 재편될 것으로 보고 있다. 글로벌 컨설팅사들은 에이전틱 AI 기반 운영 체계를 구축한 기업이 그렇지 않은 기업 대비 약 2배 높은 매출 성장률과 40% 이상의 비용 절감 효과를 달성할 것으로 전망하고 있다. 차지원 SK AX 최고AI혁신책임자(CAIO)는 "에이전틱 AI 시대에는 AI 모델의 성능보다 그 판단이 실제 기업 운영 안에서 실제로 작동하도록 만드는 구조가 경쟁력을 좌우한다"며 "엑스젠틱와이어 브랜드 하에서 실제 산업 현장에서 검증된 엔드투엔드 엔터프라이즈 AI 풀스택 실행 체계를 확산해 기업의 의사결정과 운영 효율이 극대화되도록 하겠다"고 밝혔다.

2026.03.19 11:18한정호 기자

美 마이크론, 첫 5년 공급계약 따냈다…삼성·SK도 계약 준비

세계 3위 메모리 반도체 기업인 미국 마이크론이 창사 이후 처음으로 주요 고객사와 5년에 달하는 장기 공급 계약을 체결한 것으로 나타났다. 그간 메모리 산업은 분기, 혹은 최대 1년 수준의 공급계약 체결이 일반적이다. 그러나 전세계 AI 인프라 투자로 메모리 공급난이 극심해지면서, 수년 간의 물량 및 가격을 보장받으려는 고객사 수요가 늘어나고 있다. 삼성전자, SK하이닉스 등 국내 메모리 업계도 글로벌 빅테크 기업들과 이미 3~5년 간의 장기 공급 계약을 추진 중인 것으로 파악된다. 마이크론, AI 수요로 D램·낸드 모두 '어닝 서프라이즈' 마이크론은 18일(현지시간) 회계연도 2026년 2분기(2월 종료) 매출액 238억6000만 달러, 영업이익 164억4000만 달러를 기록했다고 밝혔다. 이는 사상 최대 분기 매출이며 전년동기 대비 196.3%, 전분기 대비 74.9% 증가한 수치이다. 영업이익은 각각 719.9%, 156.3% 급증했다. 증권가 컨센서스(매출 197억 달러, 영업이익 121억 달러) 또한 크게 상회했다. 마이크론은 주요 사업군인 D램과 낸드에서 모두 견조한 성장을 거뒀다. 해당 기간 D램과 낸드의 평균판매가격(ASP)은 전분기 대비 각각 60% 중반, 70% 후반대로 증가했다. 다음 분기 전망치도 긍정적이다. 회사가 제시한 매출 가이던스는 중간값 기준 335억 달러로, 컨센서스인 236억6000만 달러를 앞섰다. 이번 호실적은 AI 인프라 투자 확장으로 서버용 D램, eSSD(기업용 SSD) 등 고부가 메모리 수요가 폭증한 데 따른 효과로 풀이된다. 반면 메모리 제조업체의 생산능력 확대는 제한적인 상황으로, 극심한 공급난을 부추기고 있다. 메모리 산업지형 변화…삼성·SK도 3~5년간 장기공급 계약 추진 이에 마이크론은 메모리 사업에서 중요한 변곡점을 맞았다. 단기적인 수요·공급 구조에서 벗어나, 고객사와의 연간 단위의 장기 계약에 따른 주문 생산 방식으로 나아가고 있다. 마이크론은 "당사는 처음으로 5년짜리 전략적 고객 계약(SCA) 체결을 완료했다"며 "이는 기존 장기계약과 달리 수년간의 구체적인 약정을 포함해 사업 가시성과 안정성을 높이는 구조"라고 강조했다. 삼성전자·SK하이닉스 등 국내 메모리 업계도 이미 비슷한 동향을 보이고 있다. 전영현 삼성전자 부회장은 18일 정기 주주총회 현장에서 "고객사들과의 공급 계약을 분기, 연 단위가 아닌 3~5년간의 다년 공급 계약으로 전환하는 것을 추진하고 있다"고 밝힌 바 있다. SK하이닉스 역시 수년 간의 장기 공급을 논의 중인 것으로 알려졌다. 사안에 정통한 관계자는 "SK하이닉스가 글로벌 빅테크 기업들과 최소 3년 단위의 D램 공급 계약을 논의하고 있는 것으로 안다"며 "체결 시 공급 규모나 구체적인 계약 조건 등이 나오게 될 것"이라고 설명했다.

2026.03.19 09:03장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[종합] 네이버·삼성 등 5개사, 2조원 정부 GPU 확충 도전장…AWS·MSP 불참 가닥

삼성전자, ASMPT와 HBM TC본더 평가...공급망 다변화 지속

진화하는 독버섯...피싱·스미싱과의 전쟁

서클 "원화 스테이블코인 직접 발행 안 해…인프라 제공에 집중"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.