• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SK AI'통합검색 결과 입니다. (492건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SKT, 차세대 기지국 AI-RAN 실증...MWC서 공개

SK텔레콤은 국내외 기업과 함께 AI와 통신 인프라를 결합한 차세대 기지국 기술 AI-RAN을 개발하고, 이를 실증망에서 시연하는 데 성공했다고 26일 밝혔다. AI-RAN은 하나의 장비에서 통신과 AI 서비스를 동시에 제공하는 차세대 기지국 기술로, 통신망 품질을 안정적으로 유지하면서도 AI 서비스를 원활히 제공할 수 있다. SK텔레콤은 실제 네트워크 환경에서 시연에 성공, 통신망이 스스로 판단하고 최적화하는 '네트워크 AI'로 진화하는 가능성을 확인했다. SK텔레콤은 노키아, HFR과 협력해 엔비디아 GPU 기반 범용 서버를 활용한 AI-RAN의 다양한 장비 구조를 개발해 실증했다. GPU를 활용한 AI-RAN은 GPU가 처리하는 통신 관련 기능에 따라 다양한 구조로 개발할 수 있다. 노키아와는 AI 서비스를 처리하는 GPU와 통신 기능의 일부를 처리하는 통신 전용 가속기를 동시에 활용하는 방식을 개발해 실외 환경에서 실증했다. 국내 통신장비 기업인 HFR과는 GPU만으로 통신 기능과 AI 서비스를 함께 처리하는 방식을 검증했다. SK텔레콤은 이같은 방식별 접근과 가상화 기술 적용을 통해 통신 품질, 데이터 용량, 전력 효율성 등의 성능 수준을 객관적으로 검증하는 한편, LLM 기반의AI 서비스를 통신 서비스와 동시에 제공함으로써 AI-RAN의 유연성과 확장성을 확인했다. SK텔레콤은 AI-RAN 등 네트워크 운영 효율화를 위해 인텔과도 협력, 가상화 기지국 환경에서 AI 기반 자원 통합 관리 기술도 검증했다. 이 기술은 여러 범용 서버를 하나의 시스템에서 운영하는 것으로, AI가 서버별 CPU의 부하와 상태를 실시간으로 분석 예측해 무선망 자원을 효율적으로 재배치한다. 유연한 망 운영과 에너지 절감을 가능하게 하는 이 기술은 AI-RAN 상용 도입의 핵심으로 평가된다. SK텔레콤은 MWC26에서 AI-RAN을 비롯해 가상화 AI 기반 자원을 통합 관리하는 기술들의 성과를 선보인다. 이와 함께 '네트워크 AI' 실현을 위한 주요 기술도 전시된다. 단말의 송신 안테나 상태를 AI가 실시간으로 분석·제어하여 간섭을 최소화하고 데이터 업로드 품질을 향상하는 '온디바이스 AI 기반 안테나 최적화 기술'과 함께 각종 'AI 에이전트', '통신 감지 통합 기술' 등을 선보인다. 류탁기 SK텔레콤 네트워크기술담당은 “AI-RAN 및 AI 기반 자원 통합 관리 기술 실증은 무선망이 스스로 판단하고 최적화하는 자율 네트워크로의 진화를 앞당기는 의미 있는 성과”라며 “향후 AI-RAN 구조의 소프트웨어 최적화와 오케스트레이션 지능화 기술 등을 지속 개발해 네트워크 운영 자동화 수준을 단계적으로 높여 나가겠다”고 말했다.

2026.02.26 09:28박수형 기자

SK하이닉스, 샌디스크와 'HBF' 글로벌 표준화 작업 본격 착수

SK하이닉스와 샌디스크(Sandisk)가 25일(현지시간) 미국 샌디스크 본사에서 'HBF 스펙(Spec.) 표준화 컨소시엄' 킥오프 행사를 열고, AI 추론 시대를 겨냥한 고대역폭플래시(HBF)의 글로벌 표준화 전략을 발표했다. SK하이닉스는 "샌디스크와 함께 HBF를 업계 표준으로 마련해 AI 생태계 전체가 함께 성장할 수 있는 기반을 구축하겠다"며 "오픈 컴퓨트 프로젝트(OCP) 산하에 핵심 과제 전담 워크스트림을 샌디스크와 함께 구성해 본격적인 표준화 작업에 착수한다"고 밝혔다. OCP는 세계 최대의 개방형 데이터센터 기술 협력체다. 워크스트림은 특정 기술 주제를 중심으로 운영되는 OCP 산하 협업 체계를 뜻한다. 최근 AI 산업은 거대언어모델(LLM)을 만드는 '학습(Training)' 단계에서, 실제 서비스를 제공하는 '추론(Inference)' 단계로 무게중심이 빠르게 이동하고 있다. AI 서비스를 동시에 사용하는 이용자가 급증하면서 빠르고 효율적인 메모리가 필수적이지만, 기존 메모리 구조만으로는 추론 단계에서 요구되는 대용량 데이터 처리와 전력 효율성을 동시에 충족하기 어렵다. 이러한 한계를 해결할 수 있는 대안으로 등장한 것이 HBF다. HBF는 초고속 메모리인 HBM과 대용량 저장장치인 SSD 사이에 위치하는 새로운 메모리 계층이다. HBM의 뛰어난 성능과 SSD의 대용량 특성 사이의 공백을 메우며, 추론 영역에서 요구되는 용량 확장과 전력 효율성을 동시에 확보한다. 기존 HBM이 최고 수준의 대역폭을 담당하는 가운데, HBF가 이를 보완하는 구조다. 특히 HBF는 AI 시스템의 확장성을 높이면서도 전체 운영 비용(TCO)을 줄일 수 있을 것으로 예상된다. 업계는 HBF를 포함한 복합 메모리 설루션에 대한 수요가 2030년 전후로 본격 확대될 것으로 보고 있다. AI 추론 시장에서는 단일 칩의 성능보다 CPU·GPU·메모리·스토리지를 아우르는 시스템 레벨 최적화가 경쟁력을 좌우한다. 이로 인해 HBM과 HBF를 모두 제공할 수 있는 종합 메모리 설루션 기업의 역할이 더욱 중요해지고 있다. SK하이닉스와 샌디스크는 HBM과 낸드 분야에서 쌓은 설계·패키징 기술과 대량 양산 경험을 바탕으로 HBF의 빠른 표준화, 제품화를 선제적으로 추진할 계획이다. 안현 SK하이닉스 개발총괄 사장(CDO)은 "AI 인프라의 핵심은 단일 기술의 성능 경쟁을 넘어, 생태계 전체를 최적화하는 것"이라며 "HBF 표준화를 통해 협력 체계를 구축하고, AI시대 고객·파트너를 위한 최적화된 메모리 아키텍처를 제시함으로써 새로운 가치를 창출하겠다"고 밝혔다.

2026.02.26 08:49장경윤 기자

SK하이닉스, 용인 1기팹에 21.6조원 추가 투자…고객사 수요 선제 대응

SK하이닉스가 용인 반도체 클러스터에 21조6000억원 규모의 추가 투자를 확정지었다. 빠르게 증가하는 글로벌 고객사 수요에 적기 대응하기 위한 전략으로, 투자금은 팹 전체 클린룸 구축에 활용될 예정이다. SK하이닉스는 용인 반도체 클러스터 1기 팹 페이즈2~6을 건설한다고 25일 밝혔다. 총 투자규모는 약 21조6000억원이다. 회사의 전체 자기자본 대비 29.23%에 해당한다. 투지기간은 다음달 1일부터 2030년 12월 31일까지다. 앞서 SK하이닉스는 지난 2024년 7월 용인 클러스터 1기 팹 건설에 약 9조4000억원을 투자하겠다고 밝힌 바 있다. 이를 고려한 전체 투자 규모는 31조원에 달한다. 이번 투자는 빠르게 증가하는 글로벌 고객 수요에 선제적으로 대응하고 안정적인 공급 체계를 한층 강화하기 위한 전략적 결정이다. AI, 데이터센터, 고성능 컴퓨팅 등 첨단 산업의 확산으로 고성능·고집적 반도체에 대한 수요는 구조적으로 확대되고 있다. SK하이닉스는 "변화에 발맞춰 생산 역량을 조기에 확충하고, 고객이 필요로 하는 시점에 안정적으로 제품을 공급할 수 있는 기반을 마련하고자 한다"고 설명했다. 구체적으로 이번 투자는 1기 팹의 골조 공사를 마무리하고 페이즈 2부터 페이즈 6에 이르는 전체 클린룸을 구축하는데 활용될 예정이다. 이에 따라 1기 팹은 총 2개의 골조와 6개의 클린룸으로 구성되며, 이를 통해 물리적 생산 기반을 선제적으로 확보해 고객 대응 역량을 강화할 수 있을 것으로 기대된다. 클린룸 오픈 시점도 2027년 5월에서 같은 해 2월로 앞당겨질 것으로 예상된다.

2026.02.25 18:32장경윤 기자

SKT, MWC26서 '독파모' AI 모델 A.X K1 신뢰성 검증

SK텔레콤은 자체 개발 인공지능(AI) 모델 'A.X K1'의 안전성과 신뢰성을 검증하기 위해 오는 3월2일부터 5일까지 열리는 'MWC26'에서 '글로벌 AI 레드팀 챌린지'에 참여한다고 25일 밝혔다. 챌린지는 약 100명의 평가단이 통신, AI 기업이 개발한 LLM을 대상으로 AI 모델의 차별적 응답 생성, 정보 침해 등 오용 가능성을 찾아내는 방식으로 진행된다. 세계이동통신사업자연합회(GSMA)와 AI 데이터 신뢰성 평가 전문기업 셀렉트스타가 공동 주최하며, 3일(현지시간) 스페인 바르셀로나 MWC 행사장 내 탤런트 아레나에서 열린다. AI 모델이 생성하는 응답의 안전성을 외부 전문가들이 직접 점검하는 프로그램인 만큼, 기술적 완성도와 신뢰성을 갖춘 기업들이 참여하는 행사라고 회사 측은 설명했다. 평가단이 도출한 검증 결과는 심사단을 통해 점수화되며, 참여 기업 수나 최종 점수, 순위 등은 외부에 공개되지 않는다. SK텔레콤은 'A.X K1'으로 챌린지에 참여한다. A.X K1은 모델 설계부터 학습까지 전 과정을 독자적으로 개발한 모델이다. 최근 국가 차원 AI 프로젝트 '독자 AI 파운데이션 모델' 평가 1단계에 선정되며 기술력을 공식적으로 인정받았다. 행사 참여를 통해 A.X K1의 성능과 안전성을 글로벌 무대에서 검증하는 한편, 그 결과를 AI 서비스 고도화에 적극 반영해 AI 모델의 완성도를 한층 끌어올릴 방침이다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “'글로벌 AI 레드팀 챌린지' 참여를 SK텔레콤 AI 기술에 대한 신뢰성을 높이는 계기로 삼겠다”고 말했다.

2026.02.25 09:26홍지후 기자

[AI는 지금] 5000억 달러 '스타게이트' 제동…오픈AI 전략 차질에 반도체도 영향 받나

오픈AI와 소프트뱅크, 오라클이 추진해온 미국 초대형 인공지능(AI) 데이터센터 프로젝트 '스타게이트'가 1년 넘게 본격 가동되지 못한 것으로 알려졌다. 5000억 달러(약 720조원) 규모로 발표되며 글로벌 AI 인프라 경쟁의 상징으로 주목받았지만, 파트너십 구조를 둘러싼 이견과 자금 조달 문제 등이 겹치며 사실상 전략 수정 국면에 들어갔다는 평가가 나온다. 미국 IT 전문매체 디인포메이션은 23일(현지시간) 복수 소식통을 인용해 오픈AI·소프트뱅크·오라클이 프로젝트 발표 직후부터 역할 분담과 지배구조를 두고 의견 차이를 보여왔고, 이로 인해 사업이 실질적 진전을 이루지 못하고 있다고 보도했다. 스타게이트는 초기 1000억 달러를 투입해 10GW(기가와트) 규모의 AI 전용 컴퓨팅 인프라를 구축하는 것을 1단계 목표로 제시했다. 그러나 현재까지 핵심 인력 충원은 물론 오픈AI 주도의 데이터센터 개발도 착수 단계에 이르지 못한 것으로 전해졌다. 업계에선 초대형 인프라 사업 특성상 자산 소유권과 운영 통제권, 수익 배분 구조가 명확히 정리되지 않으면 금융 조달과 건설 일정이 동시에 지연될 수밖에 없다고 보고 있다. 특히 데이터센터 자산을 누가 보유할 것인지, 기술 통제권을 어디까지 인정할 것인지를 두고 3사 간 견해차가 컸던 것으로 알려졌다. 오픈AI는 한때 직접 데이터센터 구축을 추진했지만, 금융권이 상환 능력에 의문을 제기하면서 자금 조달이 보류된 것으로 전해졌다. AI 인프라는 선투자 규모가 막대하고 회수 기간이 긴데, 그래픽처리장치(GPU) 등 고가 연산 장비의 감가상각 부담과 기술 진화 속도까지 고려하면 금융기관 입장에서는 위험도가 높은 사업으로 분류된다. 결국 오픈AI는 3자 공동 추진 대신 소프트뱅크·오라클과 각각 개별 계약을 맺는 방식으로 방향을 틀었다. 오라클과는 미국 내 여러 지역에서 4.5GW 규모 데이터센터를 개발하고, 텍사스 밀럼 카운티 1GW 프로젝트는 소프트뱅크와 협력하는 구조다. 데이터센터 자산은 파트너가 보유하고, 오픈AI는 설계와 지식재산권(IP) 통제에 집중한다는 방침이다. 프로젝트 지연은 재무 부담으로도 이어졌다. 2030년까지의 컴퓨팅 비용 전망치는 기존 4500억 달러에서 6650억 달러로 상향 조정된 것으로 전해졌다. 한때 1조4000억 달러에 달했던 투자 계획도 최근에는 6000억 달러 수준으로 축소된 것으로 알려졌다. 공격적 확장에서 재무 안정성 중심 전략으로 기조가 이동하고 있는 것이다. 스타게이트 난항은 반도체 업계에도 영향을 미칠 수 있을 것으로 보인다. 초대형 AI 데이터센터 프로젝트는 대규모 GPU 발주와 이에 연동된 고대역폭메모리(HBM) 수요를 수반하기 때문이다. 프로젝트가 지연될 경우 관련 장비와 부품의 발주 일정 역시 조정될 가능성이 있다. 다만 업계에선 이를 AI 수요 위축으로 단정하기는 이르다는 분위기다. 스타게이트와 같은 초대형 단일 프로젝트가 지연될 경우 GPU 및 HBM 수요의 '총량'이 줄어들기보다는 대규모 발주의 집행 시점이 뒤로 밀리면서 시장 체감 성장 속도가 완만해질 가능성이 크다고 봤다. AI 인프라 투자가 중장기적으로 이어지는 흐름은 유지되더라도 데이터센터 건설 일정이 늦춰지면 반도체 업계의 실적 반영 시점 역시 후행할 수 있다는 의미다. 업계 관계자는 "스타게이트 사례는 AI 산업이 기술 경쟁을 넘어 자본 조달과 거버넌스 안정성이라는 현실적 과제에 직면했음을 보여주는 것"이라며 "인프라 확장의 방향성은 유지되지만, 속도와 방식은 조정되는 국면에 접어든 것으로 보인다"고 평가했다.

2026.02.24 10:41장유미 기자

최태원 "하이닉스 1000억 달러 벌 수도 잃을 수도"…AI 시대 변동성 경고

최태원 SK그룹 회장 겸 최종현학술원 이사장이 인공지능(AI) 수요 급증에 힘입어 올해 SK하이닉스 영업이익이 1000억 달러(약 144조 8500억원)를 넘어설 가능성이 있다고 언급했다. 다만 시장 환경 변화가 워낙 빠른 만큼, 실적 변동성도 매우 커질 수 있다고 경고했다. 최 회장은 20일(현지시간) 미국 워싱턴DC 샐러맨더 호텔에서 열린 최종현학술원 '트랜스 퍼시픽 다이얼로그(TPD) 2026' 행사에서 “AI는 모든 것을 집어삼키고 있다”며 이같이 말했다. 최 회장은 “지난해 12월엔 하이닉스의 올해 영업이익을 500억 달러 이상으로 봤고, 1월에는 700억 달러를 넘길 수도 있다고 전망했는데, 최근에는 1000억 달러라는 새로운 전망이 나왔다”고 언급했다. 그러면서도 “반대로 1000억 달러 손실이 될 수도 있을 정도로 변동성이 매우 크다”며 “신기술은 해결책이 될 수도 있지만, 모든 것을 없앨 수도 있다”고 강조했다. 취재진과 만난 자리에서도 “다음 달이면 전망이 반으로 줄었다고 할 수도 있다”며 “연초와 연말 사이에도 너무 큰 변화가 일어날 수 있어 1년짜리 계획을 짜는 것조차 의미가 약해지는 국면”이라고 했다. 최 회장은 AI 확산이 전력 수요를 폭발적으로 키우는 만큼 에너지 인프라 확보가 핵심 과제가 되고 있다고도 밝혔다. 그는 “요즘 우리는 AI 데이터센터와 발전소를 함께 짓는 새로운 솔루션을 준비하고 있다”며 “전력 수요를 적기에 맞추지 못하면 그 결과는 재난이 될 수 있다”고 말했다. 이어 “환경도 함께 생각해야 한다. 지금과 같은 에너지 사용으로 환경 문제를 해결하지 못한다면 새로운 체계를 마련해야 한다”며 기존 에너지 시스템 의존에서의 전환 필요성을 언급했다. 최 회장은 "우리는 변화의 속도가 빠르고 불확실성이 높은 뉴노멀 시대를 지나고 있다”며 대전환을 이끄는 핵심 동력으로 'AI'를 지목했다. 최 회장은 “신기술은 새로운 해결책이 될 수도 있지만 동시에 모든 것을 무너뜨릴 수 있는 거대한 변동성을 동반한다”면서 “AI가 전 세계의 산업 구조를 근본적으로 재편하고 있다”고 역설했다. 이어 최 회장은 AI가 에너지, 금융 등의 분야에도 큰 영향을 미치고 있다고 설명했다. 최 회장은 “AI에 필요한 전력 수요를 적기에 충족하지 못할 경우 사회 전체가 큰 위기를 맞을 수도 있다”며, “새로운 기술과 시스템을 통해 친환경적이면서도 안정적인 에너지 공급 체계를 구축해야 한다”고 제안했다. 또한 최 회장은 “AI 경쟁을 멈출 수 없는 상황에서, 막대한 AI 인프라 비용을 감당할 자본과 자원이 있어야 AI 루션을 확보하고 경쟁의 선두 주자가 될 수 있을 것”이라고 전망하며, AI 인프라가 국가와 기업의 금융 전략에 큰 영향을 미치고 있음을 시사했다. 최태원 회장의 환영사를 시작으로 척 헤이글 전 미국 국방장관, 강경화 주미대사가 축사를 했고, 야마다 시게오 주미일본대사, 빌 해거티 상원의원, 위성락 국가안보실장 등은 영상으로 축사를 전했다. 크리스토퍼 랜도 미국 국무부 부장관(영상)과 커트 캠벨 아시아그룹 회장 또한 기조연설을 통해 급변하는 글로벌 환경에서 한미일 협력의 의미를 강조했다. 글로벌 질서와 지정학을 다룬 첫번째 세션에는 스티븐 월트 하버드대 교수, 존 아이켄베리 프린스턴대 석좌교수, 전재성 서울대 교수, 모리 다케오 일본 외무성 보좌관, 스즈키 가즈토 도쿄대 교수 등 국제 정치외교 분야 전문가들이 참여해 변화하는 글로벌 질서와 대응 방향을 공유했다. 'AI 세션'에서는 최예진 스탠퍼드대 교수 겸 엔비디아 AI연구 선임 디렉터의 기조 발표를 시작으로 구글, NTT, SK텔레콤, 트웰브랩스 등 산업계와 정책 전문가, 차지호 더불어민주당 의원이 참여해 AI 경쟁과 산업 확산, 거버넌스 이슈를 다뤘다. 둘째 날에는 빅터 차 미국 전략국제문제연구소(CSIS) 지정학·외교정책 담당 소장과 최종건 연세대 교수 등이 참여한 '중국 특별 세션'이 진행됐다. 이어진 '금융 세션'에서는 제프리 프랜켈 하버드대 교수, 배리 아이켄그린 UC버클리 교수, 권구훈 골드만삭스 이코노미스트 등이 달러 패권과 글로벌 금융 질서 변화를 주제로 토론했다. '에너지 세션'에는 댄 포네만 전 미국 에너지부 부장관, 마에다 다다시 일본국제협력은행(JBIC) 회장, 제러드 에이건 美 국가에너지지배위원회(NEDC), 임승열 한국수력원자력 사업개발처장, 키하라 신이치 日 경제산업성 국제탄소중립정책총괄조정관, 아미르 벡슬러 센트러스 에너지 CEO 등이 참여해 차세대 원전과 에너지 협력 방안을 논의했다. '안보 세션'에서는 패트릭 크로닌 허드슨연구소 아태지역 안보 의장, 짐보 켄 게이오대 교수, 김건 국민의힘 의원, 김정섭 세종연구소 수석연구위원 등이 참여해 안보 동맹의 핵심 개념인 '억지력'의 변화 양상을 논의했다. 이번 TPD는 ▲글로벌 질서 변화와 3국 협력 ▲AI 리더십 경쟁과 산업 변화 ▲금융 질서 재편 ▲차세대 원전과 에너지 협력 ▲긴장 시대의 안보 동맹 등을 중심으로 논의가 진행됐다. 마지막으로 최 회장은 “AI 대전환기 속에서 이제는 도전 과제를 파악하는데 그치지 않고, 실질적인 해법을 만들어 가야 할 때”라며, “한·미·일 3국의 긴밀한 협력은 새로운 시대를 여는 강력한 동력이 될 것”이라고 강조했다. 한편, 최종현학술원이 주최하는 TPD는 한미일 전·현직 고위 관료와 세계적 석학, 싱크탱크, 재계 인사들이 모여 동북아와 태평양 지역의 국제 현안을 논의하고 경제·안보 협력 해법을 모색하는 집단 지성 플랫폼으로, 2021년 시작돼 올해 5회째를 맞았다.

2026.02.22 11:40류은주 기자

이통 3사 5년간 직원 수 7800명 줄었다

최근 5년간 SK텔레콤, KT, LG유플러스 등 이동통신 3사의 직원 수가 약 7800명 줄었다. 20일 금융감독원 전자공시시스템에 따르면 이통3사의 합산 직원 수는 2020년 3만8391명에서 지난해 상반기 3만608명으로 5년 새 7783명, 약 20% 줄었다. 통신 업계에서 인력 규모가 가장 큰 KT의 감소 폭이 눈에 띈다. KT 직원 수는 2020년 2만2720명, 2021년 2만1759명, 2022년 2만544명, 2023년 1만9737명으로 꾸준히 감소했다. 이후 2024년 1만6927명, 지난해 상반기엔 1만4512명으로 급격하게 줄었다. 2024년 말부터 지난해 초엔 약 1700명 규모의 자회사 전출과 근속 15년 이상 직원 대상 약 2800명 규모의 희망퇴직이 진행됐다. 이를 통해 1년 새 약 14%의 인원을 감축했다. LG유플러스 직원 수는 2020년 1만319명, 2021년 1만187명, 2022년 1만433명, 2023년 1만824명, 2024년 1만571명, 지난해 상반기는 1만470명을 기록했다. 지난해 3분기엔 근속 10년 이상 직원을 대상으로 약 600명 규모의 희망퇴직을 진행했다. 희망퇴직 인원이 반영된다면 올해 직원 수는 1만 명을 밑도는 9000명 대 중후반이 될 것으로 예상된다. 약 5%의 인원을 희망퇴직으로 감축한 셈이다. 희망퇴직이 진행되던 2024년과 지난해에도 KT와 LG유플러스는 AI 개발, 컨설팅 직군을 중심으로 채용을 진행했다. 기존 고령·고임금 인력을 AI 중심 인력으로 재구성하려는 전략으로 분석된다. SK텔레콤 직원 수는 2020년 5352명에서 2021년 5339명, 2022년 5413명, 2023년 5579명, 2024년 5493명, 지난해 상반기엔 5626명으로 5년 간 꾸준하게 5000명대 초중반대를 유지했다. 이통3사 중 인력 규모가 가장 적은 SK텔레콤은 기존 인원을 유지하면서 AI 중심의 인력 정예화를 추진했다.

2026.02.22 08:40홍지후 기자

SKT, MWC에서 '풀스택 AI' 경쟁력 선보인다

SK텔레콤이 3월2일 스페인 바르셀로나에서 개막하는 MWC26에서 AI 인프라, 모델, 서비스 전반을 아우르는 '풀스택 AI' 경쟁력을 선보인다. 피라 그란비아 3홀 중앙에 992 제곱미터 규모의 전시관을 마련하고 '무한한 가능성을 만들어내는 SKT의 AI'를 주제로 파트너사와 함께 준비한 통신으로 고도화하는 AI 기술과 AI로 진화하는 통신 기술을 담아낼 예정이다. SK텔레콤은 먼저 그간 축적한 AI DC 노하우를 비롯해 네트워크 AI, 마케팅 AI 등 AI 인프라 관련 핵심 기술을 자세히 공개한다. AI DC 내 다양한 데이터를 하나로 통합, 실시간 모니터링하며 효율적 안정적으로 관리하는 지능형 플랫폼 'AI DC 인프라 매니저'가 전시된다. ▲고성능 고효율 클라우드 플랫폼 '페타서스 AI 클라우드' ▲GPU 자원 최적화 솔루션 'AI 클라우드 매니저' ▲실시간 모니터링 시스템 '가이아(GAIA)' 등을 통합한 'K-소버린 GPUaaS' 솔루션을 내놓는다. '학습'에서 '추론' 중심으로 진화 중인 AI 시장을 겨냥한 차세대 솔루션 'AI 인퍼런스 팩토리'도 소개된다. 장비, 컴퓨팅 인프라, 소프트웨어를 하나로 통합 제공해 기존 AI DC의 비용, 전력, 메모리 한계를 해결하는 모습을 확인할 수 있다. AI 시대의 통신 네트워크와 마케팅의 진화 방향을 제시하는 공간도 마련된다. 네트워크 영역에서는 ▲네트워크에 적용될 각종 AI 에이전트 ▲통신과 AI 서비스를 동시에 제공하는 'AI 기지국(AI-RAN)' 기술 ▲온디바이스 AI 기반 안테나 최적화 기술 ▲전파 신호로 주변 환경 정보를 수집하는 '통신 감지 통합' 기술을 선보인다. 이를 통해 자율형 네트워크와 6G로 진화할 미래를 미리 엿볼 수 있다. 마케팅 영역에서는 고객 경험과 업무 혁신을 이뤄내는 다양한 에이전틱 AI 서비스와 이를 지원하는 플랫폼을 공개할 예정이다. SK텔레콤 역량이 집약된 AI 모델과 AI 서비스도 관람객을 맞이한다. 지난 1월 정부의 '독자 AI 파운데이션 모델' 프로젝트 2단계에 진출한 국내 최초 519B(5190억개) 규모의 초거대 AI 모델 'A.X K1'은 현장 시연을 통해 대한민국 AI 역량을 전 세계에 선보인다. 아울러 SKT의 AI 언어모델 브랜드 'A.X'가 오픈소스로 공개해 온 다양한 모델도 살펴볼 수 있다. 피지컬 AI의 두뇌, 감각, 눈 역할을 할 AI 서비스도 제시한다. ▲현실 세계를 정밀하게 복제해 피지컬 AI의 판단과 계획을 지원하는 '디지털 트윈 플랫폼' ▲가상 환경과 실제 현장을 연결해 피지컬 AI가 필요한 감각을 학습하도록 돕는 '로봇 트레이닝 플랫폼' ▲일인칭 시점 현장 영상에 대한 고성능 분석을 제공하는 비전 솔루션 '시냅스고' 등을 확인할 수 있다. 이밖에 ▲AI 전화 서비스 '에이닷 전화' ▲AI 음성 기록 서비스 '에이닷 노트' ▲AI 기반 행동인식 돌봄 서비스 '케어비아' 등 SK텔레콤의 다양한 AI 서비스가 전시관에 소개된다. 또, SK하이닉스에서 도입 활용 중인 AI 물성 예측 시스템(AIPS)과 SK인텔릭스의 세계 최초 AI 웰니스 로봇 '나무엑스'도 만나볼 수 있다. 전시관 한켠에는 글로벌 AI 규제와 기술 환경 변화에 대응하기 위한 SK텔레콤의 AI 거버넌스 체계 'T.H.E. AI' 비전을 알리는 공간도 마련된다. SK텔레콤과 협력 중인 대한민국의 AI 혁신기업 리벨리온, 망고부스트, 셀렉트스타, 스튜디오랩도 준비됐다. SK텔레콤은 MWC26에서 AI의 처음부터 끝까지 전 영역을 아우르는 '풀스택 AI' 경쟁력을 토대로 글로벌 선도 기업과의 협력도 활발히 모색한다. 특히 울산 AI DC 유치, '해인' 구축 경험 등으로 노하우가 축적된 AI DC와 '독파모' 2단계 진출로 저력을 입증한 AI 모델 관련 협력을 중점적으로 추진한다. 이를 위해 정재헌 CEO를 비롯한 경영진은 세계 각국의 글로벌 통신사는 물론, AI DC 사업자와 스타트업 등 유관 기업과의 만남을 이어갈 예정이다. 한편, SKT는 MWC26에 참가하는 대한민국 스타트업 지원에도 팔을 걷어붙인다. 스타트업 전용 전시관 운영을 포함, 글로벌 투자 유치 지원 등을 준비하고 있다. 정재헌 CEO는 “MWC26은 SK텔레콤이 통신을 기반으로 AI 인프라·모델·서비스 전반을 어떻게 실제로 구현하고 있는지를 전 세계에 보여주는 자리”라며 “'풀스택 AI' 경쟁력을 통해 글로벌 AI 생태계에서 SK텔레콤 역할을 한 단계 끌어올릴 것”이라고 밝혔다.

2026.02.22 08:20박수형 기자

[독파모 4파전] 프로젝트 2차 평가 국면…정예팀 핵심 전략은?

정부 '독자 인공지능(AI) 파운데이션 모델' 프로젝트가 2차 평가 국면에 들어서면서 4개 정예팀은 멀티모달 확장과 산업 적용을 앞세운 로드맵으로 경쟁력 강화에 나섰다. 20일 IT 업계에 따르면 과학기술정보통신부는 독파모 신규 정예팀으로 모티프테크놀로지스를 선정하고 2차 심사 절차에 착수했다. 이에 따라 기존 3개 팀을 포함한 총 4개 정예팀이 기술 경쟁을 시작한다. 이번에 합류한 모티프테크놀로지스는 300B급 거대언어모델(LLM)을 시작으로 310B급 비전언어모델(VLM), 320B급 비전·언어·행동 통합 모델(VLA)로 모델을 단계적으로 확장하는 로드맵을 제시했다. 모델 가중치와 소스코드, 연산 최적화 라이브러리까지 전 영역을 오픈소스로 공개하고, 대국민 플랫폼과 API를 통해 생태계 확산을 병행한다는 전략이다. LG AI연구원은 2360억 개 매개변수 규모 'K-엑사원'을 중심으로 성능 고도화 전략을 이어간다. 해당 모델은 전문가혼합(MoE) 구조와 하이브리드 어텐션 기술을 적용해 메모리 요구량과 연산량을 70% 절감한 것이 특징이다. 모델의 핵심 언어 이해·추론 성능을 글로벌 수준까지 끌어올리는 것에 집중한다. 이후 LG 계열사에 모델 적용을 확대하고 국내 기업 대상 API 확산과 연구 협력을 강화할 계획이다. 업스테이지는 '솔라 오픈 100B'를 200B 규모로 확장한다. 법률·의료·공공·제조·교육 등 분야별 기업과 협력 체계를 구축해 실사용 사례를 추가 확보할 방침이다. 최종적으로는 모델을 300B급까지 업그레이드할 예정이다. SK텔레콤은 '에이닷엑스(A.X) K1' 멀티모달 확장을 핵심 과제로 제시했다. 이미지 인식을 넘어 음성·영상까지 처리 가능한 구조로 고도화하고, 후속 모델 '에이닷엑스(A.X) K2' 등 차세대 모델을 연이어 개발해 산업 현장 적용성을 강화한다. 기존 3개 정예팀은 1월~6월말까지 AI모델을 개발하고, 추가 1개 정예팀은 선정된 2월부터 7월말까지 개발한다. 정부는 8월초 내외에 단계평가를 진행할 계획이다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "기업이 도전을 통해 우리 AI 생태계를 살아 숨쉬게 하고, 이를 통해 더 크고 경쟁력 있는 대한민국 AI 생태계를 만드는데 정책적 지원을 아끼지 않겠다"고 강조했다.

2026.02.20 17:55김미정 기자

[독파모 4파전] 1개 정예팀 추가…LG·업스테이지·SKT "기존 로드맵대로"

정부가 '독자 인공지능(AI) 파운데이션 모델' 프로젝트 추가 정예팀을 선정한 가운데 기존 3개 팀은 계획대로 모델 기술 경쟁력을 업그레이드하겠다고 입장을 밝혔다. 20일 과학기술정보통신부는 서울 정부청사에서 브리핑을 열고 독파모 추가 정예팀으로 모티프테크놀로지스를 선정했다고 발표했다. 이로써 독파모 프로젝트 정예팀은 LG AI연구원을 비롯한 업스테이지, SK텔레콤, 모티프테크놀로지스로 구성됐다. 모티프테크놀로지스 정예팀에는 모티프테크놀로지스와 모레, 크라우드웍스, 엔닷라이트, 서울대 산학협력단, 한국과학기술원, 한양대 산학협력단, 삼일회계법인, 국가유산진흥원, 에이치디씨랩스, 매스프레소, 에누마코리아, 경향신문사, 전북테크노파크, 모비루스, 엑스와이지, 파두가 참여한다. 신규 정예팀 소식에 기존 3개 팀은 전략 변화 없이 모델 고도화에 집중하겠다는 입장을 밝혔다. LG 관계자는 "이번 프로젝트를 통해 4개팀 모두 동반 성장하길 바란다"고 밝혔다. 업스테이지 관계자는 "우리가 당초 세웠던 계획대로 모델 기술력을 꾸준히 업그레이드할 것"이라고 설명했다. SK텔레콤 관계자 "모델 규모와 성능, 추론 능력을 올리는 데 주력할 것"이라며 "특히 모델이 다양한 언어를 커버할 수 있게 학습 데이터량을 늘릴 것"이라고 말했다. 과기정통부는 4개 팀 경쟁 체제를 곧장 가동할 방침이다. 오는 6월 말에서 7월 초로 예상되는 2차 평가에 이어 12월 중 3차 평가 결과가 나오면 연말에 최종 2곳이 남는 일정이다. 최종 선발된 정예팀 2곳만이 내년 상반기까지 엔비디아 최신 그래픽처리장치(GPU) B200과 데이터 공동구매, 구축·가공 지원 등을 받는다. 업계에선 신규 선발팀이 1단계 경쟁을 거치지 않고 2단계부터 합류하는 점을 들어 형평성 문제가 나왔다. 개발 현장에서는 이를 특혜가 아닌 후발 주자가 감수해야 할 기술적 이중고로 분석했다. 지난 6개월간 축적한 데이터 정제 노하우와 시행착오 경험 측면에서는 기존 정예팀들이 앞설 수밖에 없다는 이유에서다. 익명을 요구한 한 업계 관계자는 "기존 팀은 한 차례 평가받은 모델 기반으로 고도화 작업에만 집중하면 되지만, 신규 팀은 1단계 평가 수준의 모델 구축과 2단계 평가 목표인 고도화 작업을 동시에 수행해야 한다"며 "물리적인 시간 격차를 단기간에 압축적으로 극복해야 하는 만큼 신규 진입 팀에게 기술적 난이도가 더 높은 상황"이라고 말했다. 또 다른 업계 관계자도 "정부의 인프라 지원으로 GPU 등 하드웨어적 격차는 줄일 수 있겠지만, 모델 크기를 키우고 학습시키는 과정에서 얻은 최적화 경험은 단시간에 확보하기 어렵다"며 "기존 팀들이 구축한 기술적 격차가 존재해 신규 팀 합류가 경쟁 구도를 즉각적으로 변화시키기는 어려울 것"이라고 설명했다.

2026.02.20 17:09김미정 기자

LPDDR6' 시대 성큼…AI·HPC 수요 확대 기대감↑

차세대 저전력 D램(LPDDR)인 'LPDDR6'가 당초 업계 예상보다 빠르게 시장에 안착될 것으로 전망된다. 서버 및 엣지 AI 분야에서 고성능·고효율 D램에 대한 필요성이 급격히 높아졌기 때문이다. 실제로 여러 최첨단 반도체 설계 기업이 현재 LPDDR5X와 LPDDR6 IP(설계자산)를 병행 채택하는 방안을 논의 중인 것으로 알려졌다. 삼성전자와 퀄컴 등 모바일 애플리케이션 프로세서(AP) 설계 기업들도 차세대 제품부터 LPDDR6를 지원할 계획이다. 20일 업계에 따르면 고성능 반도체 설계 기업들은 자사 칩에 선제적인 LPDDR6 IP 탑재를 검토하고 있다. LPDDR은 일반 D램(DDR) 대비 전력 효율성에 초점을 맞춘 D램 표준이다. 현재 7세대인 LPDDR5X까지 상용화가 이뤄졌다. 차세대 제품인 LPDDR6는 지난해 7월 표준이 제정됐다. LPDDR6의 경우 대역폭이 10.6Gbps에서 14.4Gbps까지 구현 가능하다. 이전 세대인 LPDDR5X가 8.5Gbps에서 최대 10.7Gbps까지 지원한다는 점을 고려하면, 성능이 약 1.5배 가량 향상되는 셈이다. LPDDR6가 본격적으로 상용화되는 시점은 빨라야 올해 하반기로 예상된다. 기본적인 표준은 제정됐으나, LPDDR6와 관련한 물리계층(PHY)·컨트롤러·인터페이스 IP(설계자산) 등 제반 사항이 아직 제대로 갖춰지지 않았기 때문이다. 반도체 업계 관계자는 "현재 LPDDR6는 12.8Gbps 정도까지 실제적으로 구현이 가능하고, 내년이 되면 14.4Gbps까지 성능을 끌어올릴 수 있을 것"이라며 "이를 위해 국내외 주요 기업들이 IP 개발에 매진하고 있다"고 설명했다. 그럼에도 상당수 인공지능(AI) 및 고성능컴퓨팅(HPC) 반도체 설계 기업들이 LPDDR6 탑재를 이미 추진 중인 것으로 파악된다. 당장은 LPDDR5X를 탑재하되, LPDDR6가 대량 양산되는 시점에 맞춰 성능을 한 차례 끌어올리겠다는 전략이다. LPDDR6 도입이 가속화되고 있는 가장 큰 요인은 AI에 있다. 당초 LPDDR의 주요 적용처였던 스마트폰은 온디바이스 AI 탑재로 더 뛰어난 성능의 LPDDR 제품을 요구하고 있다. 이에 삼성전자, 퀄컴 등 모바일 애플리케이션 프로세서(AP)를 개발하는 기업들이 차세대 칩에 LPDDR6 IP를 탑재할 계획이다. 동시에 방대한 양의 데이터를 상시 처리해야 하는 AI 데이터센터가 도입되면서, 서버 부문에서도 고성능 LPDDR에 대한 필요성이 급격히 대두됐다. 글로벌 빅테크인 엔비디아 역시 LPDDR 수급에 적극적으로 나서고 있다. 반도체 업계 관계자는 "현재 고성능 반도체 설계 기업 중 절반 이상이 LPDDR5X 및 LPDDR6 IP를 병행 탑재하는 방안을 검토하고 있다"며 "특히 4나노미터(nm) 및 그 이하의 최첨단 반도체를 설계하는 기업들에게서 수요가 예상보다 빠르게 나타나고 있다"고 설명했다.

2026.02.20 10:17장경윤 기자

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

삼성전자·SK하이닉스·마이크론 등 주요 메모리 기업들이 HBM4 상용화를 앞두고 있다. 3사 모두 올 2분기 엔비디아향 HBM4 최종 퀄테스트를 마무리할 것으로 전망된다. 특히 삼성전자는 가장 높은 제품 안정성으로 가장 빠른 성과를 나타낼 가능성이 높다고 평가 받고 있다. 올해 출하량 역시 전년 대비 가장 큰 폭의 성장이 기대된다. 시장조사업체 트렌드포스에 따르면 주요 메모리 기업들은 올해 HBM4 상용화와 함께 전체 HBM 시장 점유율에 변동을 보일 전망이다. 현재 삼성전자, SK하이닉스, 마이크론 등 메모리 3사는 가장 최신 세대인 HBM4(6세대 고대역폭메모리) 상용화 준비에 매진하고 있다. 해당 HBM은 엔비디아가 올해 하반기 출시하는 AI 가속기 '루빈' 칩에 탑재된다. 트렌드포스는 "메모리 기업들은 HBM4 검증의 최종 단계에 있고, 올해 2분기 검증 완료를 목표로 하고 있다"며 "삼성전자는 뛰어난 제품 안정성을 바탕으로 가장 먼저 인증을 획득할 것으로 예상된다. 나머지 기업들도 곧이어 인증을 획득해 엔비디아향 HBM4 공급망은 3개 기업이 생태계를 구축할 것"이라고 밝혔다. 이와 관련, 삼성전자는 지난 12일 메모리 기업 중 가장 먼저 HBM4 양산 출하를 발표한 바 있다. 세부적으로, 최종 검증을 완료하기 전 선제적으로 제품을 양산하는 '리스크 양산'에 해당한다. SK하이닉스 등도 이달 리스크 양산 제품을 엔비디아향으로 출하할 것으로 알려졌다. 업계는 삼성전자의 HBM4 제품이 11.7Gbps 이상의 높은 성능을 가장 안정적으로 구현한다고 평가하고 있다. 트렌드포스가 삼성전자의 인증 속도가 가장 빠를 것이라고 분석한 이유다. 다만 엔비디아는 루빈 칩을 적기 출시하기 위해 많은 양의 HBM4 물량이 필요한 상황이다. 때문에 엔비디아는 HBM4에 요구되는 성능 완화 등을 통해 3개 메모리 공급사 모두를 HBM4 공급망에 포함시킬 것으로 예상된다. 트렌드포스는 "단일 공급업체가 루빈향 HBM4 요구 사항을 완전히 충족할 수 없다는 점 등 전략적 필요성을 고려해, 엔비디아가 주요 메모리 공급사를 모두 HBM4 공급망에 포함시킬 것"이라며 "선두를 달리는 삼성전자는 2분기 검증 완료 후 단계적으로 양산에 들어갈 것으로 예상된다"고 말했다. 이에 따라 HBM4를 포함한 전체 HBM 시장에서 삼성전자의 점유율은 지난해 20%에서 올해 28%로 상승할 전망이다. 마이크론도 지난해 20%에서 올해 22%로 소폭 상세가 예상된다. 반면 SK하이닉스는 경쟁사 진입 확대로 HBM 시장 내 점유율이 지난해 59%에서 올해 50%로 감소할 것으로 관측된다.

2026.02.16 07:45장경윤 기자

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

HBM4(6세대 고대역폭메모리) 공급을 놓고 글로벌 메모리 반도체 빅3간 경쟁이 과열되고 있다. 삼성전자는 바로 전날(12일) SK하이닉스·마이크론에 한 발 앞서 "HBM4 양산 출하를 발표하며, 경쟁사 대비 개발 속도와 성능 우위를 강조했다. 다만 올해 HBM4 공급망 판도는 최종 고객사인 엔비디아의 HBM4 수급 전략에 가장 큰 영향을 받을 전망이다. HBM4의 성능도 중요하지만, 최신 AI 가속기의 적기 출시를 위해서는 HBM4의 수율 및 공급 안정성 등을 함께 고려해야 하기 때문이다. 실제로 업계는 엔비디아가 HBM4의 성능 조건을 완화하거나 차상위 제품을 함께 공급받을 가능성에 주목하고 있다. 삼성전자, 출하 소식 앞당겨…SK하이닉스·마이크론과 주도권 싸움 13일 업계에 따르면 삼성전자·SK하이닉스·마이크론 등 주요 메모리 기업들은 이달 엔비디아향 HBM4에 대한 리스크 양산 출하를 진행할 예정이다. HBM4는 글로벌 빅테크인 엔비디아가 올해 출시할 예정인 AI 가속기 '루빈'에 탑재되는 차세대 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수를 2배 늘린 2048개로 구현한 것이 특징이다. 앞서 삼성전자는 지난 12일 HBM4 양산 출하를 가장 먼저 공식 발표했다. 회사는 "HBM4 개발 착수 단계부터 국제반도체표준화기구(JEDEC) 기준을 상회하는 성능 목표를 설정하고 개발을 추진해왔다"며 "이번 제품에는 재설계 없이 양산 초기부터 안정적인 수율과 업계 최고 수준의 성능을 확보했다"고 설명했다. 업계는 삼성전자가 HBM4 양산 출하 소식을 예상 대비 빠르게 발표했다는 점에 주목하고 있다. 삼성전자 안팎의 이야기를 종합하면, 당초 회사가 HBM4 양산 출하를 계획하던 시기는 오는 19일이었던 것으로 파악된다. 그러나 경쟁사들도 HBM4의 양산을 최근 공식적으로 발표한 만큼, 주도권 확보를 위해 제품 출하를 최대한 앞당긴 것으로 풀이된다. 실제로 SK하이닉스도 이달 HBM4 제품을 엔비디아향으로 출하할 계획이다. 앞서 SK하이닉스는 지난달 28일 실적발표 컨퍼런스콜에서 "당사는 HBM3E와 HBM4를 동시에 안정적으로 공급할 수 있는 업계 유일한 기업"이라며 "특히 지난해 9월 업계 최초로 양산 체제를 구축한 HBM4는 고객이 요청한 물량을 현재 양산 중"이라고 밝힌 바 있다. 마이크론 역시 지난 11일(현지시간) 한 증권사 컨퍼런스콜을 통해 최근 불거진 HBM4 공급망 탈락 논란에 대해 정면 반박하면서, 출하 소식을 공식적으로 알렸다. 이날 마이크론은 "HBM4는 이미 대량 생산에 박차를 가하고 있고, 고객사 출하를 시작했다"며 "지난해 말 실적발표에서 언급한 가이던스보다 1개 분기 가량 시기가 앞당겨진 것"이라고 강조했다. 메모리 3사 모두 리스크 양산…물량 확대는 하반기부터 최근 이들 메모리 3사는 HBM4 상용화를 둘러싸고 주도권을 쥐기 위해 날선 신경전을 벌여 왔다. 업계는 이 과정에서 시장에 불필요한 혼선과 확대 해석이 발생하는 것을 우려하고 있다. 대표적으로, 메모리 3사가 표현하는 '양산'은 일반적인 양산의 개념과 차이점이 있다. 통상 제조산업은 샘플을 통해 고객사와 퀄(품질) 테스트를 진행하고, 일정 기준을 통과하면 정식으로 구매주문(PO)을 받게 된다. 반면 현재 메모리 3사의 HBM4는 '리스크 양산'으로 분류된다. 리스크 양산은 고객사 인증이 완료되기 전 제품 양산을 위해 웨이퍼를 선제적으로 투입하는 개념이다. HBM을 최종 제품으로 출하하기 위해서는 코어 다이 양산에만 4개월이 필요하다. 만약 정식 PO를 받고 양산을 시작하게 되면, 최종 고객사인 엔비디아 입장에서는 AI 가속기를 적기에 출시하기 어려워진다. 때문에 메모리 3사는 정식 PO 전부터 HBM4를 고객사에 공급하기 위해 이달 제품 출하를 목표로 양산을 진행해왔다. 메모리 반도체 업계 고위 관계자는 "엔비디아가 제시한 공식적인 퀄테스트 종료 시점은 올 1분기 말로, 이후 공식적인 PO가 나올 것으로 안다"며 "현재 메모리사들이 대외적으로 양산이라는 표현을 쓰지만, 엄연히는 리스크 양산 개념에 해당한다"고 설명했다. 이를 고려하면 삼성전자, SK하이닉스의 HBM4 출하량이 본격적으로 확대되는 시점은 빨라야 올 하반기로 추산된다. 엔비디아 HBM 수급 전략 주목…성능·수급 안정성 저울질 현재 업계에서는 삼성전자가 엔비디아향 HBM4 퀄테스트를 가장 순조롭게 마무리할 것이라는 전망이 우세하다. 삼성전자의 경우 HBM4에 경쟁사 대비 한 세대 앞선 1c(6세대 10나노급) D램을 적용했다. HBM을 제어하는 베이스 다이도 가장 첨단 공정인 4나노미터(nm)를 기반으로 제작됐다. 삼성전자는 HBM4 양산 출하 자료를 통해 "당사의 HBM4는 업계 표준인 8Gbps를 약 46% 상회하는 11.7Gbps의 동작 속도를 안정적으로 확보하며 새로운 기준을 제시했다"며 "이는 전작 HBM3E의 최대 핀 속도인 9.6Gbps 대비 약 1.22배 향상된 수치로, 최대 13Gbps까지 구현이 가능하다"고 밝혔다. 다만 업계는 HBM4의 출하 속도보다 엔비디아의 제품 수급 전략에 더 큰 관심을 두고 있다. 엔비디아가 메모리 공급사에 요구한 11.7Gbps 급의 성능을 무조건적으로 고집할 경우, 루빈 칩 양산에 필요한 HBM4 물량을 충분히 확보할 수 없다는 이유에서다. 우선 삼성전자는 HBM4 출하량을 급격하게 확대할 여력이 없다. 삼성전자의 1c D램 수율은 이달 기준 60%내외로 추산된다. 이후 진행되는 후공정까지 고려하면 HBM 수율은 더 낮아진다. 또한 1c D램 생산능력은 지난해 말 기준 월 6만~7만장 수준으로, 엔비디아의 총 HBM4 요구량에 대응하기엔 턱없이 모자란 규모다. 현재도 1c D램에 대한 신규 및 전환 투자가 진행되고는 있으나, 실제 생산능력에 반영되려면 아직 시간이 필요하다. SK하이닉스는 엔비디아와의 협의에서 가장 많은 HBM4 물량(점유율 60%가량)을 배정받았다. 그러나 초기 HBM4에 대한 신뢰성 평가에서는 11Gbps급의 성능을 구현하기 힘들다는 평가를 받았다. 이에 SK하이닉스는 최근까지 HBM4의 하드웨어적인 개선을 진행했으나, 100% 성공을 담보하기는 어렵다. 때문에 업계는 엔비디아가 11.7Gbps 외에도 10.6Gbps 등 차상위 제품까지 함께 수급할 것으로 보고 있다. 이 경우 메모리 3사 모두 기술적으로 HBM4 공급이 한층 수월해진다. 반도체 업계 관계자는 "HBM 공급망은 단순히 성능만이 아니라 전력 효율성, 발열, 비용, 공급 안정성 등이 모두 한꺼번에 고려돼야 한다"며 "지난해와는 비교도 할 수 없는 메모리 쇼티지 속에서, 엔비디아가 수급 안정성을 위해 HBM4의 성능 조건을 완화할 가능성이 사실상 확정된 상황"이라고 설명했다.

2026.02.13 10:46장경윤 기자

SK하이닉스, 차세대 낸드 판도 흔든다…'AIP' 기술 적용 검토

SK하이닉스가 차세대 고적층 낸드를 구현하기 위한 혁신 기술로 'AIP(All-In-Plug)'를 개발하고 있다. 기존 낸드가 핵심 공정을 세 번에 걸쳐 진행했다면, AIP는 해당 공정을 단 한번만 진행해 제조비용을 크게 줄이는 것이 골자다. 이성훈 SK하이닉스 부사장은 11일 서울 코엑스에서 개최된 '세미콘 코리아 2026' 기조연설에서 이같이 밝혔다. 3번 진행하던 낸드 핵심 공정, 단 한번에 이 부사장은 "반도체 공정의 기술 난이도가 굉장히 가파르게 올라가면서, 지난 10년간 해왔던 방식으로는 이를 따라기 힘들 것이라 판단하고 있다"며 "이에 SK하이닉스는 축적된 기술을 바탕으로 다음 세대의 공정 난이도를 예측하는 플랫폼을 구축했다"고 설명했다. 이에 따라 SK하이닉스는 차세대 D램 및 낸드 구현을 위한 선행기술을 검토하고 있다. 특히 낸드 분야에서는 적층 수 향상에 따른 비용 증가를 낮추기 위한 'AIP'와 같은 혁신 기술을 검토 중인 것으로 알려졌다. AIP는 낸드 구현의 핵심인 HARC(고종횡비; High Aspect Ratio Contact) 식각 공정과 관련돼 있다. 식각은 반도체 제조공정에서 특정 물질을 깎는 과정을 뜻한다. 낸드를 만들기 위해서는 메모리의 최소 저장 단위인 셀을 수백 층 쌓고, 각 층을 연결하는 채널 홀(구멍)을 뚫어야 한다. 이 채널 홀을 일정한 너비로 더 좁게, 더 깊게 뚫을수록 낸드 성능을 높일 수 있다. 다만 식각 공정은 난이도가 높아, 전체 낸드 층에 한 번에 구멍을 뚫는 것이 불가능했다. 이에 업계는 낸드의 식각 공정을 2번, 혹은 3번으로 나눠 진행한 뒤, 이를 묶는 기술을 채택해 왔다. 예를 들어, 300단 낸드를 100단+100단+100단으로 나눠 각각 구멍을 뚫고, 다시 본딩 공정을 통해 연결하는 방식이다. SK하이닉스의 가장 최신 세대인 321단 낸드도 3번 식각을 진행하는 '트리플 스택'을 채용하고 있다. 이 경우 낸드를 안정적으로 제조 가능하지만, 식각 공정을 3번이나 진행해야하기 때문에 제조 비용 및 쓰루풋(생산성) 면에서는 효율이 좋지 못하다. 때문에 SK하이닉스는 300단 이상의 고적층 낸드도 한 번에 HARC 식각을 진행하는 AIP 기술에 관심을 쏟고 있다. 해당 기술이 실제 양산 공정에 적용되면, V11 등 차세대 낸드에서부터 HARC 공정 수와 비용이 크게 감소할 것으로 전망된다. 이 부사장은 "고적층 낸드를 구현하기 위해 HARC 식각 공정 수가 늘어나것이 제조비용 증가의 가장 큰 요인"이라며 "이를 억제하기 위해 HARC 공정들을 합쳐서 한 번에 구현할 수 있을지를 고민하고 있다"고 말했다.

2026.02.11 13:41장경윤 기자

D램 구조적 공급 부족 직면…"생산능력 매년 5% 미만 성장"

삼성전자, SK하이닉스 등 국내 메모리 업계가 주도하는 D램 시장이 중장기적인 공급 부족 현상에 직면할 전망이다. AI 인프라 투자 규모가 매년 빠르게 확대되는 반면, D램 생산능력(CAPA; 캐파)은 지난해부터 오는 2030년까지 연평균 4.8% 수준으로 비교적 낮은 성장세가 예상되기 때문이다. 클락 청 세미(SEMI) 연구위원은 11일 서울 코엑스에서 열린 '세미콘 코리아 2026' 기자간담회에서 향후 반도체 시장 전망에 대해 이같이 밝혔다. 클락 청 위원은 "전세계 빅테크 기업들이 AI를 중심으로 투자 속도를 앞당기고 있다"며 "특히 메모리 반도체와 패키징이 AI 인프라에서 중요해지고 있어, 한국의 반도체 생태계가 강점을 지닐 것"이라고 밝혔다. 실제로 마이크로소프트, 구글, 아마존, 메타 등 4대 CSP(클라우드서비스제공자)의 AI 인프라 지출은 크게 늘어나는 추세다. 지난 2024년에서 오는 2028년까지 연간 지출 규모 성장률은 38%에 이를 전망이다. 클락 청 위원은 "오는 2027년에는 글로벌 반도체 매출 규모와 4대 CSP를 포함한 전체 기업들의 AI 인프라 투자가 각각 1조 달러를 넘어서게 될 것"이라고 강조했다. 당초 업계는 글로벌 반도체 매출이 1조 달러를 기록하는 시점을 2030년으로 전망해 왔는데, 크게 앞당겨진 셈이다. 거대한 AI 수요로 D램 시장은 장기적인 공급 부족 현상에 직면할 가능성이 크다. SEMI에 따르면, 연간 D램 생산능력 증가율은 지난해부터 오는 2030년까지 4.8%로 전망된다. AI 인프라 투자 성장률을 고려하면 낮은 수준이다. 클락 청 위원은 "메모리 공급사들이 원칙적으로 신규 투자를 보수적으로 하고 있고, 캐파 증가분도 상당량을 고대역폭메모리(HBM)가 흡수할 것"이라며 "또한 공정 기준으로는 15나노미터(nm) 이하의 선단 분야에 투자가 집중돼, 레거시 및 특수 목적의 D램 공급은 더 제한될 예정"이라고 설명했다. 다만 AI 수요가 예상보다 빠르게 증가함에 따라, 향후 3년간 D램 생산능력 전망이 상향 조정될 가능성도 있다. 삼성전자, SK하이닉스 등 국내 주요 기업들의 팹 투자 규모는 확대될 전망이다. 클락 청 위원은 "한국의 팹 투자 규모는 2026~2028년 연간 400억 달러 수준으로 크게 확대될 것"이라며 "80% 이상이 D램과 낸드와 관련한 투자로, 일부 첨단 로직 투자는 미국에서 진행될 것"이라고 말했다.

2026.02.11 10:17장경윤 기자

독파모 SKT 정예팀, 청년 인턴 모집..."AI 인재 육성"

SK텔레콤 정예팀이 정부의 독자 AI 파운데이션 모델 프로젝트 2차 단계평가를 앞두고 연구개발(R&D) 인턴 모집에 나선다. SK텔레콤과 크래프톤은 채용 공고를 통해 각각 10명 내외의 인턴을 모집한다고 10일 밝혔다. SK텔레콤 공고에는 컴퓨터공학, 전자공학, 수학 등 AI 모델 관련 전공의 석박사과정 재학생과 학위소지자가 지원할 수 있다. SK텔레콤 선발 인턴은 2차 단계평가 준비 기간인 6월말까지 개발에 참여한다. SK텔레콤 인턴은 SK텔레콤 정예팀의 파운데이션 모델인 'A.X K1'의 성능을 평가하고 관련 데이터를 처리하는 업무를 맡는다. LLM 학습, 데이터 처리, 모델 최적화 등 AI 핵심 기술 연구개발 전반에 걸쳐 실무 경험을 쌓을 수 있는 기회가 주어진다. 크래프톤은 딥러닝 관련 전공 석박사 학위소지자나 이에 준하는 연구 경력을 가진 학부생을 대상으로 모집한다. 선발된 인턴은 채용일로부터 3개월 근무 후 추가 기간을 협의한다. 크래프톤 인턴은 멀티모달 LLM 학습과 선행연구를 진행하고, 연구 성과를 기술 리포트나 논문·워크숍 형태로 발표하는 리서치 업무를 담당할 예정이다. 인턴 선발은 6월 말까지 상시채용으로 진행된다. 먼저 선발되는 개발자부터 순차적으로 실무에 배치되며. 우수 인재 채용 시 조기 마감될 수 있다. SK텔레콤 정예팀은 국가 AI 생태계 발전에 기여하기 위해 1차 단계평가부터 인턴십을 운영해 왔다. 독파모 프로젝트를 통한 AI 인재 육성이 고용 창출과 국가 AI 경쟁력 강화의 마중물 역할을 할 것으로 기대되기 때문이다. 한편, SK텔레콤 정예팀은 2차 단계평가를 체계적으로 준비하기 위해 워크숍을 개최하고 개발 전략을 점검했다. 지난 5일 을지로 SK텔레콤 본사에서 열린 워크숍에는 SK텔레콤, 크래프톤, 포티투닷(42dot), 리벨리온, 라이너, 셀렉트스타, 서울대학교, KAIST 개발자 및 연구자를 포함, 100여명이 참석했다. SK텔레콤 정예팀은 A.X K1 개발과정을 종합적으로 돌아보고, 2차 단계평가를 위한 개선사항을 제시했다. 4개월여의 짧은 기간 동안 매개변수 5190억 개(519B) 규모의 초거대 모델을 완성한 경험을 살려 모델 학습을 더욱 효율적으로 추진하기로 했다. 이와 함께 매개변수 수억 개~수십억 개 규모의 파생 모델을 정예팀 참여사와 연구기관에 다양하게 적용하는 등 A.X K1을 다양한 분야에 확산하는 방안에 대해서도 심도 있게 논의했다. 이와 함께 2차 단계평가에서 선행 연구의 성과를 본격 활용할 계획이다. SK텔레콤 정예팀에 소속된 서울대학교 연구진은 멀티모달(윤성로, 김건희, 도재영 교수), 수학 추론(서인석)과 에이전트(황승원 교수) 관련 연구를, KAIST 연구진(이기민, 서민준 교수)은 멀티모달과 로봇 학습 연구 등을 다방면으로 수행하고 있다. 김태윤 SK텔레콤 파운데이션 모델 담당은 “이번 인턴 채용을 통해 차세대 AI 인재들이 최첨단 기술 개발 현장에서 성장할 수 있는 발판을 마련하고자 한다”며 “정예팀에 젊고 역량 있는 인턴 개발자들이 합류하면서 개발 동력이 한층 강화될 것”이라고 말했다.

2026.02.11 09:11박수형 기자

美 출장길 오른 최태원 SK 회장…엔비디아 등 빅테크와 AI 회동

최태원 SK그룹 회장과 SK하이닉스 주요 경영진이 지난주 초 미국 출장길에 오른 것으로 파악돼 관심이 모아진다. 업계는 SK 핵심 경영진들이 현지에서 엔비디아를 비롯한 주요 빅테크 기업들과 인공지능(AI) 인프라 구축 및 메모리 분야에 대해 폭넓은 협력을 논의할 것 기대하고 있다. 9일 지디넷코리아 취재에 따르면 최태원 회장은 이달 초인 지난 3일 미국 현지 빅테크 기업과의 회동을 위해 미국으로 출국한 것으로 확인됐다. 이번 출장에는 SK하이닉스 주요 경영진도 동행한 것으로 전해진다. 최 회장은 이번 방미 일정을 최소 약 2주간 소화할 계획이다. 엔비디아, 메타 등 글로벌 빅테크 기업들과 순차적으로 회동을 진행하기 위해서다. 특히 AI 산업에서 긴밀한 협력 관계를 이어오고 있는 젠슨 황 엔비디아 최고경영자(CEO)와의 만남도 예정된 것으로 전해진다. 사안에 정통한 관계자는 “최태원 회장과 SK하이닉스 톱 레벨 인사들이 최근 미국에 함께 출장을 간 것으로 안다”며 “최 회장이 AI를 둘러싼 글로벌 생태계 강화에 매우 깊은 관심을 두고 있어, 2주가량 미국에 머무르며 다양한 파트너사들과 협력 방안을 논의할 것”이라고 말했다. 업계에서는 최 회장의 이번 출장이 최근 SK그룹이 현지에 설립을 추진 중인 'AI 컴퍼니(가칭)' 구상과 맞물려 있다는 관측을 내놓고 있다. 앞서 SK하이닉스는 지난달 28일 미국에 AI 투자를 총괄하고 협력을 도모하는 AI 솔루션 회사를 설립한다고 공식 발표한 바 있다. 이 회사는 현지 AI 기업들과 전략적 투자 및 협업을 추진하고, AI 데이터센터와 관련한 기술·사업 역량을 강화하는 것을 목표로 한다. 복수의 관계자에 따르면 AI 컴퍼니는 최 회장이 직접 전면에 나서 추진하는 프로젝트로, SK텔레콤을 중심으로 한 AI 기술·솔루션 역량과 SK하이닉스의 HBM 등 반도체·자금력을 결합하는 구조로 설계되고 있다. 아직 대표이사 선임 전 단계로 구체적인 사업 내용과 조직 구성은 현재 조율 중인 것으로 전해진다. 다만 AI 컴퍼니 관련 논의가 언론을 통해 먼저 알려지면서, SK하이닉스는 최근 사내 채널을 통해 “AI 컴퍼니는 AI 투자와 관련 솔루션 사업을 전담하는 미국 법인”이라는 점을 공식화했다. AI 컴퍼니 설립을 위해 투입될 자금 규모도 상당한 것으로 전해진다. SK그룹은 해당 법인에 총 100억 달러(약 14조6000억원) 수준의 출자를 검토 중인 것으로 알려졌다. 이를 통해 AI 스타트업 육성 및 투자, 기술 협업, 데이터센터 관련 솔루션 사업을 본격화한다는 구상이다. 특히 기존 SK하이닉스 자회사인 솔리다임을 적극 활용하는 방안이 추진되고 있다. 기존 솔리다임을 AI 컴퍼니 체제로 전환하고, AI 컴퍼니 산하 자회사로 재편하는 방식이다. 이를 통해 SK하이닉스가 보유한 낸드플래시, eSSD, 고대역폭메모리(HBM) 등 AI용 메모리 기술을 AI 솔루션 사업과 보다 긴밀하게 연계하겠다는 전략이다. SK그룹 내부 시너지 강화도 이번 AI 컴퍼니 구상의 핵심 축이다. SK하이닉스는 HBM, 기업용 SSD(eSSD) 등 AI 데이터센터에 필수적인 고부가 메모리 제품을 공급하고 있으며, 향후 빅테크 기업들과의 협업을 통해 차세대 AI 데이터센터용 제품 개발을 더욱 가속화할 수 있다. 업계 관계자는 “최태원 회장은 단순히 AI 인프라를 구축하는 사업이 아니라, AI 인프라의 구조 자체를 바꾸고 생태계를 주도하는 사업을 원하고 있다”며 “AI 컴퍼니는 SK하이닉스가 자금 출자를 담당하고, SK텔레콤이 AI 솔루션과 기술 개발을 주도하는 형태로 운영될 가능성이 크다”고 설명했다.

2026.02.09 10:19장경윤 기자

한미반도체, 지난해 매출 5767억원…창사 이래 최대

한미반도체는 지난해 연간 매출 5767억원(연결재무제표 기준)을 기록하며 1980년 창사 이래 최대 매출 실적을 달성했다고 9일 밝혔다. 영업이익률은 43.6%를 기록하며 업계 최고 수준의 수익성을 유지했다. 2024년에 이어 2년 연속 창사 최대 매출을 경신한 배경은 반도체 시장에서 기술 경쟁력을 인정받은 결과로 분석된다. 특히 AI 반도체의 핵심 부품인 HBM(고대역폭메모리) TC 본더가 71.2% 점유율로 글로벌 1위를 차지하며 매출 성장을 견인했다. 올해 역시 글로벌 AI 반도체 시장은 하이엔드 HBM 수요 급증으로 글로벌 메모리 기업들의 설비투자가 전년 대비 크게 증가할 것으로 예상된다. 최근 시장조사업체 테크인사이츠는 TC 본더 시장이 2025년부터 2030년까지 연평균 약 13.0% 증가한다고 전망했다. 실제로 글로벌 HBM 생산 기업들은 올해 HBM4를 본격 양산하고, 올해 말과 내년 초 HBM4E 양산 준비를 앞두고 있어 이에 적합한 새로운 TC 본더 수요가 크게 확대될 전망이다. 그 중심에는 삼성전자, SK하이닉스,마이크론, 중국 업체들이 있다. 특히 마이크론은 2025년 12월 실적 발표를 통해 2026년 총 설비투자액을 기존 180억 달러(약 26조4000억원)에서 200억 달러(약 29조3000억원)로 상향 조정하고 HBM 생산 능력을 대폭 확대하겠다는 계획을 밝힌 바 있다. 실제로 마이크론은 2024년 8월 대만 AUO의 디스플레이 팹을 인수한데 이어, 2025년부터 싱가포르 우드랜즈지역에 D램, 낸드 첨단 웨이퍼 제조공장 건설에 착수했다. 이와 함께 일본 히로시마에 증설 확대, 미국에 축구장 800개 규모의 메가팩토리 증설 계획을 연이어 발표했다. 특히 싱가포르를 AI 반도체(HBM,HBF) 생산거점으로 구축하며, 향후 5년간 글로벌 AI 반도체 주도권 확보를 위한 공격적인 행보를 이어 나가고 있다. 이 같은 마이크론의 공격적인 HBM 생산설비 투자 확대는 지난해 마이크론으로부터 최우수 협력사로 인정 받으며 '탑 서플라이어(Top Supplier)'상을 수상한 한미반도체 TC 본더의 매출 증가에 크게 영향을 미칠 것으로 전망된다. 한미반도체는 2025년 HBM4 생산용 'TC 본더4'를 출시한데 이어, 올해 하반기에 HBM5·HBM6 생산용 '와이드 TC 본더'를 출시할 계획이다. 와이드 HBM은 기술적 난제로 상용화가 지연되고 있는 HBM 양산용 하이브리드본더(HB)의 공백을 보완할 새로운 타입의 TC 본더로 주목받고 있다. 이와 동시에 한미반도체는 2020년 이미 개발한 HBM 하이브리드 본더 원천 기술을 기반으로, 2029년경으로 예상되는 16단 이상 HBM 양산 시점에 맞춰 차세대 첨단 하이브리드 본더 출시를 위해 고객사와 소통하고 있다. 한미반도체는 올해 AI 시스템반도체 분야에서도 신규 장비 출시를 예고했다. 이는 부가가치가 높은 AI 패키지 분야에 채택되는 다양한 본딩 장비로 HBM 코어다이, 베이스다이 그리고 GPU·CPU를 통합하는 AI 반도체 패키지와 CPO(Co Packaged Optics) 패키징 분야에 활용되는 핵심 장비(빅다이 TC 본더, 빅다이 FC 본더, 다이 본더)이며, 중국과 대만의 파운드리, OSAT 기업에 공급할 계획이다. 한미반도체는 글로벌 우주항공 분야 핵심 장비 판매에도 적극 나서고 있다. EMI 쉴드 장비는 우주탐사용 로켓, 저궤도 위성통신(LEO), 방산용 드론에 적용되는 필수장비다. 한미반도체는 2016년 EMI 쉴드 장비를 처음 선보인 이후 해당 시장에서 점유율 1위를 계속 유지하고 있으며, 최근 4년 연속 글로벌 항공우주 업체에 EMI 쉴드 장비 라인를 독점 공급하며 기술 경쟁력을 입증했다. 한미반도체 관계자는 “AI 반도체 시장의 지속적인 성장과 글로벌 반도체 기업의 적극적인 투자 확대로 HBM 수요는 그 어느 때보다 높을 것으로 예상하고 있다. 이에 힘입어 한미반도체는 2026년과 2027년에도 창사 최고 실적을 경신할 것으로 전망한다”며 “차세대 제품 개발과 생산능력 확충을 통해 글로벌 반도체 장비 시장에서 리더십을 더욱 강화해 나갈 것” 이라고 밝혔다.

2026.02.09 10:00장경윤 기자

[독자 AI 재도전] 신재민 대표 "무늬만 국산, 의미 없다…AI 주권, 구조서 갈려"

과학기술정보통신부가 추진하는 '독자 AI 파운데이션 모델(독파모)' 추가 선발을 앞두고 1차 평가에서 탈락했던 인공지능(AI) 스타트업들이 다시 한 번 도전에 나서고 있다. 이번 추가 공모는 단순한 '패자부활전'을 넘어 한국 AI 기술이 어떤 방향과 전략을 선택할 것인지를 가늠하는 시험대가 될 전망이다. 특히 대기업 중심 구도 속에서 스타트업이 독자 기술과 아키텍처를 앞세워 어떤 해법을 제시할 수 있을지가 주목된다. 지디넷코리아는 독파모 추가 선발전에 도전하는 모티프테크놀로지스와 트릴리온랩스 두 기업 대표의 인터뷰를 통해 각자의 문제의식과 기술 전략을 짚어본다. [편집자주] "진정한 '사업보국'은 남의 기술을 빌려 쓰는 데 있지 않습니다. 설계도부터 직접 그리는 독자 아키텍처 확보만이 대한민국 인공지능(AI) 주권을 지키고 국가에 이바지하는 유일한 길이라고 생각합니다." 신재민 트릴리온랩스 대표는 8일 지디넷코리아와의 인터뷰에서 정부가 추진하는 독자 AI 파운데이션 모델(독파모)' 추가 선발전에 도전장을 내밀게 된 이유에 대해 이처럼 말했다. 그는 지난 2024년 8월 트릴리온랩스를 설립한 인물로, 국내 최대 AI 모델인 네이버 '하이퍼클로바' 개발의 핵심 주역으로도 유명하다. 신 대표는 AI 파운데이션 모델이 더 이상 단순한 서비스 경쟁의 도구가 아니라 과학·의료·제조 등 국가 핵심 산업 전반의 기반 기술로 빠르게 확장되고 있다고 진단했다. 이 과정에서 외산 모델에 대한 의존은 단기적 효율을 넘어 장기적 주도권 상실로 이어질 수 있다는 위기감이 커지고 있다고 봤다. 그는 "지금은 외부 모델을 쓰는 것이 편리해 보일 수 있지만, 시간이 지날수록 우리가 통제할 수 없는 영역이 빠르게 늘어날 수 있다"며 "AI는 결국 국가 경쟁력과 직결되는 전략 산업"이라고 말했다. "규모 경쟁은 한계…아키텍처 혁신서 해법 찾아야" 트릴리온랩스의 기술 전략은 명확하다. 미국·중국과 같은 방식으로 자본을 투입해 모델 크기를 키우는 경쟁은 한국 현실에 맞지 않고 지속 가능하지 않다고 보고 있다. 이에 신 대표는 한정된 자원 환경에서 경쟁력을 확보하려면 규모가 아니라 구조를 바꿔야 한다고 강조했다. 또 그는 현재 글로벌 AI 산업이 겉으로는 성능 경쟁을 벌이고 있지만, 이면에서는 확장 비용과 전력, 인프라 의존이라는 구조적 한계에 직면해 있다고 봤다. 그래픽처리장치(GPU)와 고대역폭메모리(HBM)에 대한 의존이 심화될수록 개발 비용은 기하급수적으로 증가하고, 이는 결국 소수 국가·기업 중심의 기술 집중으로 이어질 수 있다고 주장했다. 신 대표는 "지금의 트랜스포머 기반 구조는 분명한 성과를 만들어냈지만 동시에 한계도 뚜렷해지고 있다"며 "컨텍스트 길이, 추론 효율, 비용 문제를 동시에 해결하려면 새로운 아키텍처에 대한 도전이 불가피하다"고 말했다. 이어 "이런 시도는 단기간 성과를 내기 어렵고 실패 가능성도 높지만, 누군가는 반드시 해야 할 영역"이라고 덧붙였다. "프롬 스크래치·신규 아키텍처로 기술 주권 확보" 이 같은 전략 아래 트릴리온랩스는 기존 대규모 언어모델의 성능 추격보다는 차세대 구조에 대한 선제적 연구에 무게를 두고 있다. 단기적인 벤치마크 성과보다 향후 AI 확장 과정에서 병목이 될 수 있는 구조적 문제를 어떻게 해결할 것인가에 초점을 맞췄다. 디퓨전 모델, 월드 모델 등 새로운 접근을 지속적으로 연구해온 이유도 여기에 있다. 신 대표는 독파모 사업 역시 단순한 정부 지원 과제가 아니라 한국 AI 산업의 방향성을 검증하는 시험대가 돼야 한다고 봤다. 한 번의 성과로 끝나는 프로젝트가 아니라 장기적으로 지속 가능한 기술 축적과 생태계 형성으로 이어져야 한다는 주장이다.그는 "독파모는 누가 더 큰 모델을 만들었는지를 가리는 자리가 아니라 한국이 어떤 방식으로 AI를 발전시킬 것인지를 보여주는 과정"이라며 "스타트업도 파운데이션 모델을 만들 수 있다는 사실을 국가적으로 증명하고 싶다"고 말했다. 이어 "추격자가 아니라 개척자로 가는 선택이 당장은 더 어렵고 느려 보일 수 있지만, 그 길만이 한국 AI가 장기적인 주도권을 확보할 수 있는 해법이라고 믿는다"고 강조했다. 트릴리온랩스가 이번 추가 선발전에 다시 도전한 배경에 대해선 이미 민간 자본만으로 초거대 모델을 학습해본 경험이 있다는 자신감 덕분이라고 강조했다. 신 대표는 회사의 핵심 경쟁력으로 민간 자본만으로 700억 개(70B) 파라미터 규모의 모델을 학습·운영한 실전 경험을 꼽았다.그는 "정부 지원을 전제로 설계된 계획이 아니라 이미 자체적으로 대규모 모델을 학습하고 운영해본 경험이 있다"며 "이 과정에서 인프라 구축, 분산 학습, 장애 대응까지 전 주기를 직접 겪은 것이 강점"이라고 말했다. 이어 "독파모는 새로 시작하는 실험이 아니라 이미 축적해온 기술과 경험을 국가 차원에서 확장하는 과정이 돼야 한다"며 "그 역할을 스타트업도 충분히 수행할 수 있다는 점을 보여주고 싶다"고 덧붙였다. "국가 예산 투입한 독파모, 글로벌 기준 냉혹한 평가 필요" 신 대표가 강조하는 '독자 아키텍처'는 단순히 모델 구조를 일부 변형하는 수준에 머물지 않는다. 그는 외부 모델의 가중치를 가져와 미세 조정하는 방식으로는 진정한 기술 자립에 도달할 수 없다고 선을 그었다. 겉으로는 국산 모델처럼 보일 수 있지만, 핵심 유전자는 여전히 외부에 있다는 판단이다. 신 대표는 "남의 모델 위에 얹혀서 파인튜닝만 하는 방식은 결국 '무늬만 국산'에 불과하다"며 "엔진 설계도부터 직접 그려야만 그 모델이 어떤 방향으로 진화할지, 어디까지 확장할 수 있을지를 스스로 결정할 수 있다"고 피력했다. 그러면서 "가중치 초기화뿐 아니라 모델 구조 자체를 새로 설계하는 아키텍처 혁신까지 포함해 처음부터 끝까지 통제 가능한 기술을 확보하는 것이 트릴리온랩스가 존재하는 이유"라고 덧붙였다. 이러한 접근은 국가 과제에 대한 신 대표의 인식에서도 분명히 드러난다. 그는 독파모와 같은 정부 주도 사업일수록 단기 성과에 안주하기보다 글로벌 기준에서 경쟁력을 입증할 수 있는 구조를 만들어야 한다고 강조했다.그는 독파모 사업을 두고 "국가 예산이 투입되는 사업일수록 목표를 낮춰서는 안 된다"며 "실패를 피하기 위해 무난한 성과에 머무르는 것이 아니라 글로벌 선도 기업과 정면으로 비교 가능한 수준을 목표로 해야 한다"고 주장했다. 이어 "구글이나 오픈AI 같은 글로벌 기업의 기준으로 냉정하게 평가받아도 경쟁력이 있다는 것을 증명하는 것이 국가 과제의 역할"이라며 "성과 기준(OKR, 매우 높은 목표를 설정해 달성치를 측정하는 형태)과 평가 과정 역시 투명하고 엄격하게 해야하고, 참여하는 기업들은 그 부담을 감수하는 책임을 져야 사업이 기술적으로 의미를 남길 수 있다"고 부연했다. "新 아키텍처로 실전형 '액션 에이전트' 선점" 신 대표는 현재 AI 기술이 맞닥뜨린 가장 큰 병목으로 '연산 효율'을 꼽았다. 트랜스포머 구조가 문맥 길이에 따라 연산량이 기하급수적으로 늘어나는 특성을 갖고 있어 비용과 추론 속도 측면에서 실전형 AI 확산에 뚜렷한 제약을 만든다고 본 것이다. 그는 "지금의 AI는 말을 잘하는 데까지는 왔지만, 실제 행동을 하기에는 아직 비효율이 너무 크다"며 "추론 속도를 4~5배 이상 끌어올릴 수 있는 새로운 아키텍처를 통해 실전형 지능으로 넘어가야 한다"고 말했다. 이어 "스마트폰이나 PC를 직접 제어해 업무를 수행하는 '액션 에이전트'가 다음 단계"라며 "이 영역에서 구조 혁신이 없다면 진짜 AI 시대는 열리지 않는다"고 덧붙였다. 신 대표가 연산 효율과 아키텍처 혁신을 강조하는 이유는 단순한 성능 개선 차원을 넘어 회사의 성장 전략과도 맞닿아 있다. 그는 AI 기술이 실전 단계로 진입할수록 효율 격차가 곧 사업 경쟁력으로 직결될 수밖에 없다고 보고 있다. 신 대표가 그리는 트릴리온랩스의 성장 경로 역시 단기 수익보다 기술 축적을 우선하는 방식이다. 초기에는 연구와 인프라 구축에 집중하고 연산 효율과 구조적 완성도를 높인 뒤 이를 바탕으로 사업 모델로 확장하는 단계적 접근이 필요하다는 판단이다. 그는 "연구만 하는 회사도, 사업만 하는 회사도 오래 가기 어렵다"며 "기술을 축적하고 효율을 높인 뒤 이를 바탕으로 수익 구조를 만들고 다시 연구에 투자하는 선순환 구조가 필요하다"고 말했다. 이어 "AI 기업도 결국 기술 기업으로서의 성장 경로를 가져야 한다"고 부연했다. "AI판 스페이스X 넘어 '기술 생태계' 마중물 될 것" 그가 이러한 방향을 설정하는 데 참고한 사례로는 스페이스X를 들었다. 신 대표는 스페이스X가 재사용 로켓이라는 원천 기술을 확보한 뒤 발사 비용을 낮추고, 위성 인터넷 사업으로 확장한 성장 경로가 기술 기업의 한 모델이 될 수 있다고 봤다. 그는 "스페이스X는 처음부터 돈을 벌기 위한 회사가 아니라 반드시 필요한 기술을 먼저 확보한 뒤 그 기술을 효율화해 사업으로 연결했다"며 "AI 기업도 자본 투입 경쟁이 아니라 기술 효율을 높이는 방향으로 성장 경로를 설계해야 한다"고 말했다. 또 신 대표는 트릴리온랩스의 목표가 특정 기업의 성공에 그치지 않는다고 강조했다. 하나의 파운데이션 모델 기업이 아니라 기술 중심 AI 스타트업들이 지속적으로 등장할 수 있는 환경을 만드는 것이 중요하다는 판단에서다. 그는 "트릴리온랩스가 잘 되는 것도 중요하지만, 그 이후에 또 다른 기술 기업들이 나올 수 있어야 한다"며 "파운데이션 모델을 만드는 것이 대기업만의 영역이 아니라는 점을 보여주는 것이 의미 있다고 생각한다"고 말했다. 이어 "기술 기업이 성장하고, 그 성장이 국가 경쟁력으로 이어지는 구조를 만드는 것이 결국 '사업보국'이라고 본다"며 "앞으로도 기술적 실체를 남기는 데 더 집중할 것"이라고 덧붙였다.

2026.02.08 12:00장유미 기자

AI 인프라 투자 300조 더 는다…삼성·SK 메모리 슈퍼사이클 '청신호'

세계 4대 클라우드서비스제공자(CSP) 기업들이 올해 AI 인프라 투자에 6,600억 달러(한화 약 970조원)을 투자한다. 지난해 대비 2,000억 달러(약 293조원) 가까이 증가한 규모다. 최근 불거진 'AI 거품론' 속에서도 투자 공세를 이어가겠다는 기조로, 삼성전자·SK하이닉스 등 국내 메모리 기업들도 상당한 수혜를 입을 것으로 기대된다. 7일 업계에 따르면 글로벌 주요 CSP 기업들은 올해 AI 인프라 투자 규모를 당초 예상보다 크게 늘리고 있다. 최근 실적을 발표한 아마존은 올해 AI 인프라 투자 규모를 2,000억 달러(약 293조원)로 제시했다. 이는 증권가 전망치인 1446억 달러를 크게 웃도는 수치다. 지난해 총 투자규모인 1250억 달러와 비교해도 60%나 증가했다. 앤디 재시 아마존 CEO는 "기존 서비스에 대한 강력한 수요와 AI·반도체·로봇공학·저궤도 위성 등 중대한 기회를 고려한 것"이라며 "투자 자본에 대해 장기적으로 높은 수익률을 기대한다"고 설명했다. 메타는 올해 AI 관련 설비투자 규모가 최대 1,350억 달러에 이를 것이라고 밝혔다. 지난해 투자 규모인 772억 달러 대비 74%가량 늘었다. 구글은 최대 1850억 달러, 마이크로소프트는 1,400억 달러로 역시 전년 대비 규모가 크게 늘었다. 이들 4개 기업의 총 투자 규모는 6,600억 달러에 이른다. 4,000억 달러대인 지난해와 비교하면 2,000억 달러 가량 늘어난 수준이다. 최근 IT 업계는 막대한 투자 대비 불확실한 매출 성장으로 'AI 거품론'에 휩싸이고 있다. 여기에 AI 데이터센터에 필수적인 메모리 반도체 수급난이 심화되면서, 투자 비용 역시 급증하는 추세다. 그럼에도 CSP 기업들은 AI 인프라 투자를 오히려 가속화하고 있다. 이는 삼성전자, SK하이닉스 등 메모리 기업들의 강력한 매출 성장 전망치에 힘을 실어주는 기폭제가 될 전망이다. 삼성전자, SK하이닉스는 AI 가속기에 탑재되는 고대역폭메모리(HBM) 시장을 주도하고 있다. 또한 이들 기업이 생산하는 서버용 D램, 기업용 SSD(eSSD) 등은 AI 데이터센터 시장에서 수요가 매우 높다. 반도체 업계 관계자는 "최근 메모리 공급난이 극심함에도 불구하고, CSP 기업들은 이번 실적발표를 통해 투자비용에 대한 부담 대신 더 공격적인 기조를 나타냈다"며 "AI 고도화의 주역인 메모리반도체 기업들 입장에서는 매우 반가운 소식"이라고 밝혔다.

2026.02.08 08:58장경윤 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성D·LGD, 애플 아이맥 OLED 대응체제 돌입

모터쇼가 변했다...미래 기술 과시서 판매 경쟁 무대로

규모 커지는 미국 국방 '피지컬 AI' 시장…한국 제조 역량이 진출 열쇠

트럼프의 입, ‘종이 금’의 투매와 ‘실물 금’의 귀환

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.