• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'하이퍼'통합검색 결과 입니다. (86건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[써보고서] "하산 피로감이 싹~"…입는 로봇 '하이퍼쉘'

"등산은 좋은데, 하산은 누가 대신해줬으면 좋겠다." 아웃도어 활동을 즐기는 이들이 한 번쯤 해봤을 말이다. 브이디로보틱스가 국내 출시한 웨어러블 외골격 '하이퍼쉘X 시리즈'는 이 점에서 존재감을 드러낸다. 단순 보조 장비가 아니라 사용자 움직임에 맞춰 힘을 보태는 '입는 로봇'이다. 하이퍼쉘X 시리즈는 인공지능(AI) 기반 모션 엔진을 탑재한 외골격 기기다. 사용자 보행 패턴과 움직임 의도를 실시간으로 분석해 필요한 순간에만 출력을 더한다. 억지로 끌어당기거나 끌고 가는 느낌이 아니라 사용자의 걷는 흐름에 따라 자연스럽게 힘을 얹어준다. 오르막에서는 엉덩이와 허벅지를 뒤에서 밀어주는 듯한 보조가 체감된다. 특히 내리막 구간에서는 다리를 들어 올리는 동작을 도와 무릎에 가해지는 부담을 줄여준다. 장시간 산행 후 느껴지는 피로 누적이 상대적으로 덜하다는 평가가 나오는 이유다. 회사 측에 따르면 착용 시 심박수는 최대 42% 감소하고, 체감 피로도는 최대 39% 줄어드는 것으로 나타났다. 브이디로보틱스는 ▲울트라 ▲카본 ▲프로 ▲고 등 4종으로 구성된 하이퍼쉘X 전 라인업을 국내에 출시했다. 최상위 모델 '울트라'는 배터리를 제외한 무게 1.8kg의 초경량 설계에도 최대 1천W 출력을 제공한다. 배터리당 최대 30km까지 이동 가능하며, 최고 시속 25km까지 보조한다. 같은 1.8kg 무게의 '카본'과 2kg의 '프로' 모델은 최대 800W 출력과 시속 20km 보조를 지원해 체력 소모를 최대 30%까지 줄여준다. 일상 활동 중심의 '고' 모델은 최대 400W 출력, 시속 12km 보조로 체력 소모를 최대 20% 감소시키는 것이 특징이다. 오르막·내리막·계단·러닝 등 다양한 지형을 자동 인식하며, 앱과 스마트워치를 통해 출력 모드를 조절할 수 있다. 하이퍼쉘은 고령자나 재활 목적 보조 기기가 아니다. 더 적은 힘으로 더 멀리 이동하고 싶은 러너, 트레커, 액티브 시니어 등 일반 아웃도어 소비자층을 겨냥한다는 점에서 기존 웨어러블 로봇과 차별화된다. 실제 국내 반응도 긍정적이다. 브이디로보틱스가 공식 출시 전 진행한 와디즈 프리오더에서 1억원 이상을 모으며 목표 대비 3천721%를 달성했다. 단순 관심을 넘어 실구매 수요가 확인됐다는 평가다. 브이디로보틱스는 자사 온라인몰을 비롯해 주요 이커머스 플랫폼과 오프라인 매장을 통해 판매를 확대할 계획이다. 웨어러블 외골격은 그동안 산업·의료 영역에서 주로 활용돼왔다. 하지만 하이퍼쉘은 이를 레저와 일상 영역으로 확장했다는 점에서 의미가 있다. 입는 순간 걷는 감각이 완전히 달라지지는 않지만 '덜 힘들다'는 체감은 분명하다. 기술이 운동 한계를 조금 더 늦춰주는 느낌에 가깝다. 국내 출시 가격은 모델별로 차이가 있다. 최상위 모델 '울트라'는 319만원, '카본'은 289만원이다. '프로'는 199만원, 엔트리 모델 '고'는 149만원으로 책정됐다. 국내 출시된 일상용 웨어러블 로봇 제품 가격이 300만원 안팎에서 형성돼 있는 점을 감안하면 '고' 모델은 비교적 가격 경쟁력을 갖춘 편으로 평가된다.

2026.02.24 14:35신영빈 기자

'입기만 하면 등산·러닝 고수'...브이디로보틱스 '하이퍼쉘' 출시

브이디로보틱스가 아웃도어 퍼포먼스 웨어러블 로보틱스 '하이퍼쉘'을 앞세워 국내 웨어러블 로봇 시장 공략에 나선다. 서비스로봇 선도기업 브이디로보틱스는 24일 서울 명동에서 하이퍼쉘 국내 론칭 기자간담회를 열고 하이퍼쉘을 국내 시장에 공식 출시한다고 밝혔다. 회사는 국내 독점 총판 권한을 확보해 하이퍼쉘의 국내 마케팅·영업·유통·사후서비스(A/S)를 전담한다. 함판식 브이디로보틱스 대표는 웨어러블 로봇 시장 진출의 의미를 강조했다. 함 대표는 "2019년 국내 최초로 서비스로봇을 상용화한 이후 시장 점유율 1위를 유지하고 있으며, 물류센터·제조시설·리테일 매장 등으로 청소로봇을 확산시키며 상업 공간 자동화를 선도해왔다"고 소개했다. 이어 "우리의 강점은 아직 시장이 명확히 형성되지 않은 새로운 로봇을 과감히 론칭해 초기 시장을 개척하는 것”이라며 "웨어러블 로봇 역시 충분한 가능성이 있다고 판단했다"고 밝혔다. 그는 "하이퍼쉘은 단순한 보조 기기를 넘어, 더 적은 힘으로 더 멀리 이동하고자 하는 인간의 욕구를 실현하는 제품"이라며 "감히 2026년은 웨어러블 로봇 시대가 열리는 원년이 될 것"이라고 강조했다. 이날 행사에는 앵거스 판 하이퍼쉘 최고제품책임자(CPO)도 참석해 브랜드 철학과 핵심 기술력을 직접 소개했다. 판 CPO는 "하이퍼쉘의 미션은 외골격 기술을 통해 아웃도어 활동가들을 지원하는 것"이라며 "우리는 전통적인 로봇 기업과 달리 인간을 중심에 둔다. 외골격은 도구가 아니라 사용자의 움직임을 증폭시키는 동반자"라고 말했다. 그는 하이퍼쉘이 2021년 설립 이후 인간 중심 설계를 기반으로 기술을 발전시켜 왔다고 설명했다. 브랜드명 역시 일본 애니메이션에서 영감을 받아, 인간과 기술의 조화를 상징한다고 덧붙였다. 판 CPO는 "로봇은 사람을 대체하는 것이 아니라, 사람의 자유 의지와 탐험 본능을 확장해야 한다"며 "왜 무릎 통증이나 체력 한계가 우리가 갈 수 있는 곳을 결정해야 하느냐"고 반문했다. 하이퍼쉘은 현재 100건 이상의 글로벌 특허를 보유하고 있으며, 외골격 제품 중 최초로 글로벌 인증기관 SGS로부터 성능 검증을 받았다고 밝혔다. 그는 "소비자에게 제공하는 모든 성능 데이터는 제3자 인증을 거친 결과"라고 강조했다. 하이퍼쉘은 CES 2025 로보틱스 부문 최고혁신상, IFA 2025 모빌리티 부문 혁신상을 수상하며 기술력을 인정받았다. 또한 포브스, 더버지, 톰스가이드, 선데이타임스 등 글로벌 주요 매체의 조명을 받았다. 판 CPO는 "현재 전 세계 3만 명 이상이 하이퍼쉘을 사용하고 있으며, 미국 하이킹 협회(AHS)와 협력하고 있다"고 말했다. 홍콩 대형 화재 당시에는 구조 활동 지원을 위해 200대를 기부했으며, 히말라야 빙하 연구 프로젝트 등 학술 현장에서도 활용되고 있다고 덧붙였다. 그는 "하이퍼쉘은 세계 최초의 아웃도어 전용 외골격 제품"이라며 "착용 시 심박수는 약 42% 감소하고, 체감 피로도는 최대 39% 줄어드는 효과가 확인됐다"고 설명했다. 제품의 가장 큰 특징은 'AI 모션 엔진'을 기반으로 12가지 지형·활동 모드를 자동 인식한다. 오르막, 내리막, 계단, 러닝, 사이클링 등 상황에 맞춰 실시간으로 출력을 조절한다. 전용 앱을 통해 출력, 배터리 데이터 등을 확인할 수 있으며 애플워치 연동도 지원한다. 이날 행사에서는 실제 사용자 경험도 공유됐다. 구독자 32만 명, SNS 팔로워 20만 명을 보유한 등산 크리에이터 백송희 씨는 최근 하이퍼쉘을 착용하고 한라산을 등반한 경험을 소개했다. 백 씨는 "등산은 아름답지만 하산할 때 무릎 부담이 상당하다"며 "콘텐츠 댓글에도 '등산을 하고 싶지만 무릎이 아파서 못 한다'는 이야기가 많다"고 말했다. 그는 "하이퍼쉘을 처음 접했을 때 기술적 놀라움 이전에 하나의 희망처럼 느껴졌다"고 표현했다. 실제 한라산 산행에서 사용한 경험에 대해 "에코 모드로 설정했을 때는 근력을 완전히 대체하는 느낌이 아니라, 내가 걷는 흐름에 맞춰 함께 걸어주는 느낌이었다”며 "애플워치나 측면 버튼으로 모드를 직관적으로 전환할 수 있어 움직임에 더 집중할 수 있었다"고 말했다. 특히 하산 구간에서의 체감 효과를 강조했다. 백 씨는 "내려갈 때 AI가 자동으로 동작을 인식해 다리를 자연스럽게 들어 올려주는 느낌이 인상적이었다"며 "하산 이후 무릎 부담이 확실히 줄어들었다. 개인적으로는 '휴대용 이동식 케이블카'를 착용한 느낌이었다"고 설명했다. 이어 "등산의 본질은 두 발로 직접 걷고 자연과 맞닿는 경험에 있다"며 "하이퍼쉘은 그 경험을 빼앗는 기술이 아니라, 더 오래 더 안전하게 즐길 수 있도록 돕는 기술이라고 느꼈다"고 덧붙였다. 브이디로보틱스는 하이퍼쉘X 시리즈 4종(울트라·카본·프로·고)을 국내에 출시했다. 울트라는 최대 1천W 출력과 배터리당 최대 30km 주행을 지원하며, 카본·프로는 최대 800W, 고 모델은 400W 출력을 제공한다. 브이디로보틱스는 자사 온라인몰을 비롯해 네이버·쿠팡 등 주요 이커머스 플랫폼과 복지몰 입점을 추진 중이며, 주요 백화점과 대형마트 가전 매장에도 순차적으로 입점할 예정이다.

2026.02.24 14:19신영빈 기자

하이퍼엑셀, '독파모' 업스테이지 정예팀서 LLM 추론 인프라 고도화

하이퍼엑셀이 정부 주도의 '독자 AI 파운데이션 모델(독파모)' 개발 사업에 참여 중인 업스테이지 정예팀에 합류했다. 하이퍼엑셀은 업스테이지 정예팀에서 독자 인공지능(AI) 모델의 경제성과 확장성을 확보하기 위한 추론 인프라 고도화 협력을 추진한다고 24일 밝혔다. 하이퍼엑셀은 생성형 AI 응용 환경에 최적화된 거대언어모델(LLM) 추론 전용 반도체를 설계·개발하는 기업이다. 독자 아키텍처 기반의 언어처리장치(LPU)를 통해 기존 인프라의 전력 및 비용 문제를 해결해 왔다. 하이퍼엑셀은 이번 독파모 프로젝트에서 LLM 추론 특화 LPU 설계와 성능 고도화를 담당한다. 특히 ▲고효율·저비용 AI 서비스 인프라 구현 ▲가상 거대언어모델(vLLM)·파이토치 기반 고가용성(HA) 풀스택 소프트웨어 개발 등을 수행해 실제 데이터센터 환경에 최적화된 추론 가속 기술을 제공할 계획이다. 초거대 모델 상용화 과정에 필수적인 처리 효율과 운영 안정성을 동시에 확보함으로써 국내 AI 모델이 산업 서비스 현장에서 실질적인 가격 경쟁력을 갖출 수 있도록 지원한다는 방침이다. 김주영 하이퍼엑셀 대표는 "초거대 AI 경쟁은 모델 규모뿐 아니라 이를 얼마나 효율적으로 서비스할 수 있는지에 달렸다"며 "LPU 기반 추론 가속 기술을 통해 국내 AI 인프라의 기술 자립과 글로벌 수준의 비용 경쟁력 확보에 기여하겠다"고 말했다.

2026.02.24 14:14이나연 기자

델, 프라이빗 클라우드에 '뉴타닉스 AHV' 지원…멀티 하이퍼바이저 전략 확대

델 테크놀로지스가 분리형 인프라 기반 프라이빗 클라우드 포트폴리오를 확장하며 멀티 하이퍼바이저 전략 강화에 나섰다. 델 테크놀로지스는 델 프라이빗 클라우드에서 '뉴타닉스 AHV'를 공식 지원한다고 23일 밝혔다. 이번 확장으로 기업·기관은 뉴타닉스 AHV와 델의 외장형 스토리지를 결합해 서버와 스토리지를 독립적으로 확장할 수 있게 됐다. 멀티 하이퍼바이저 환경에서도 기존 관리 도구와 자동화된 라이프사이클 관리 체계를 유지하면서 투자 자산을 보호할 수 있도록 구성됐다. 최근 프라이빗 클라우드 수요가 확대되면서 공급업체 종속을 피하기 위한 멀티 하이퍼바이저 전략이 확산되고 있다. 실제 회사 측에 따르면 IT 결정권자의 52%가 벤더 종속을 줄이기 위해 멀티 하이퍼바이저 전략을 채택한 것으로 나타났다. 이에 특정 플랫폼 선택을 넘어 유연하게 확장 가능한 인프라를 어떻게 구축할 것인지가 주요 과제로 부상 중이다. 기존 하이퍼컨버지드 인프라(HCI)는 3계층 아키텍처 대비 관리 복잡성을 낮추는 데 기여해왔지만, 워크로드가 다양해지고 데이터센터 현대화 요구가 커지면서 하드웨어(HW) 재사용과 운영 연속성 확보가 중요한 요소로 떠오르고 있다. 델은 이러한 변화에 대응해 서버와 스토리지를 분리해 확장할 수 있는 분리형 인프라 모델을 제시하고 있다. 델 프라이빗 클라우드는 운영 간소화와 유연한 아키텍처를 중심으로 설계됐다. 핵심 소프트웨어(SW)인 '델 오토메이션 플랫폼'은 설치부터 운영, 라이프사이클 관리 전 단계에 지능형 자동화를 적용하며 델 파워엣지 서버와 델 스토리지 전반에 걸쳐 일관된 운영 경험을 지원한다. 이를 통해 고객은 워크로드 특성에 따라 최적의 하이퍼바이저를 선택하고 서버와 스토리지를 독립적으로 확장 가능하다. 델 프라이빗 클라우드는 기존 VM웨어와 레드햇 오픈시프트 지원에 이어 뉴타닉스를 추가하며 지원 범위를 확대했다. 현재 델 파워플렉스에서 뉴타닉스를 지원하며 올 여름에는 델 파워스토어까지 통합해 스토리지 선택권을 넓힐 예정이다. 델은 뉴타닉스 지원을 통해 멀티 하이퍼바이저 전략 전반에서 경제적 이점도 제공한다고 강조했다. 고객은 기존 델 인프라를 재활용해 HW 교체 없이 워크로드를 확장할 수 있으며 프리즘 UI 등 기존 관리 도구를 활용해 운영 중단을 최소화할 수 있다. 자동화 기반 통합 관리 체계로 서버·스토리지·하이퍼바이저 전 계층을 아우르는 운영 단순화도 지원한다. 김경진 한국 델 테크놀로지스 총괄사장은 "비즈니스가 진화하는 속도에 맞춰 인프라도 함께 진화해야 한다"며 "우리는 아직 정의되지 않은 미래까지 대비할 수 있는 유연한 프라이빗 클라우드 기반을 제시함으로써 새로운 패러다임을 이끌어가고 있다"고 말했다.

2026.02.23 10:26한정호 기자

브이디로보틱스, '하이퍼쉘' 출시 전 펀딩 흥행

브이디로보틱스는 아웃도어 퍼포먼스 웨어러블 '하이퍼쉘'이 국내 공식 출시를 앞두고 진행 중인 와디즈 프리오더에서 목표 금액 대비 약 21배를 달성했다고 10일 밝혔다. 브이디로보틱스는 프리오더에 앞서 사전 알림을 통해 관심 고객을 모집했다. 약 1천550명이 알림을 신청했고 본 프리오더 참여 의사를 밝힌 서포터도 200명을 넘어섰다. 알림 신청자는 30대 이상 남성 비중이 높았다. 러닝·트래킹·등산·사이클 등 아웃도어 활동을 즐기는 소비자층 관심이 집중된 것으로 나타났다. 하이퍼쉘은 프리오더는 18일까지 진행된다. 참여자는 알림 신청 후 본 펀딩에 참여하면 '슈퍼 얼리버드' 할인을 받을 수 있다. 하이퍼쉘은 AI 기반으로 사용자의 움직임에 맞춰 필요한 순간 파워를 증강·제어하는 소비자용 외골격 제품이다. 아웃도어 활동뿐 아니라 일상 이동 환경에서도 활용 가능한 퍼포먼스 웨어러블로 주목받고 있다. 브이디로보틱스는 하이퍼쉘 국내 독점 총판으로, 전 제품 마케팅·영업·유통을 맡고 있다. 회사는 와디즈 프리오더를 시작으로 국내 시장 공략을 본격화할 계획이다. 함판식 브이디로보틱스 대표는 "사전 알림 단계부터 의미 있는 관심이 확인됐고 펀딩 시작과 동시에 성과로 이어졌다"며 "하이퍼쉘의 차별화된 가치를 국내 시장에 효과적으로 전달해 나가겠다"고 말했다. 한편 브이디로보틱스는 2월 말 미디어 행사를 통해 '하이퍼쉘X' 4종 라인업을 국내에 공식 공개할 예정이다.

2026.02.10 23:31신영빈 기자

中 클라우드 업체, 메모리 대란에 서버 교체 서둘러

인텔과 AMD가 중국 시장에서 서버용 CPU 납기 지연 문제를 겪고 있다는 보도가 나왔다. 중국 내 클라우드서비스 업체, 하이퍼스케일러가 작년 말부터 시작된 서버용 D램과 낸드 플래시메모리 가격 상승에 장비 교체를 서두르며 수요가 몰리고 있기 때문이다. 로이터에 따르면 인텔은 제온6 프로세서 고객사 인도까지 최장 6개월, AMD는 5세대 에픽 프로세서 인도까지 최대 10주 가량이 걸린다. 이들 제품 생산에 쓰이는 3나노급 공정에서 양사 간 생산 여력 차이가 납기 격차로 이어지고 있다. TSMC의 N3 공정은 성숙도와 생산량 면에서 안정화 단계에 진입한 반면, 인텔이 2024년 하반기부터 가동한 인텔 3 공정은 생산 규모가 상대적으로 제한적이다. 인텔은 제온6 프로세서 생산을 우선하며 대응하고 있지만 보급형 PC 출하량에 영향을 미친다. AMD가 활용하는 TSMC 3나노 생산 역량도 이미 포화상태로 확대가 어렵다. 가격 상승과 납기 지연도 당분간 계속될 것으로 보인다. 로이터 "인텔·AMD, 중국 시장 서버 CPU 납기 지연" 로이터는 6일(현지시간) 인텔과 AMD가 중국 시장에서 서버용 프로세서 시장 공급 문제를 겪고 있다고 설명했다. 알리바바와 텐센트 등 중국 내 클라우드 서비스 업체가 D램과 낸드 플래시메모리 등 메모리 가격 폭등에 4~5년 전 도입된 서버 교체를 앞당기고 있다는 것이다. 로이터는 중국 내 고객사 관계자를 인용해 "AMD는 서버용 에픽 프로세서 중 일부 제품 납기가 8주에서 10주 가량 지연된다고 통보했고 인텔은 제온 프로세서 납기가 최대 6개월 지연될 수 있다고 통보했다"고 밝혔다. 이어 "인텔 제온 프로세서 가격은 10% 가량 올랐지만 최종 공급가는 여전히 인텔과 고객사가 맺은 계약에 따라 달라질 것"이라고 덧붙였다. TSMC, 3나노 공정 성숙도·생산량 등 인텔 대비 우위 AMD보다 인텔의 납기가 길어지는 것은 인텔의 생산 역량에 한계가 있기 때문이다. 인텔 제온6 프로세서와 AMD 5세대 에픽 프로세서 모두 3나노급 공정에서 생산되지만 생산 물량에서는 대만 TSMC를 활용하는 AMD에 다소 여유가 있다. 제온6 프로세서는 인텔이 2024년부터 가동한 3나노급 '인텔 3' 공정을, 5세대 에픽 프로세서는 대만 TSMC가 2022년부터 가동한 N3 공정을 활용한다. 양사 모두 '3나노급'이라고 부르지만 공정 정의와 성숙도, 생산 규모에서는 차이가 있다. TSMC N3 공정은 2022년부터 대만 내 시설 '팹18(Fab 18)'에서 가동됐고 수율이나 생산량 면에서 충분히 안정된 것으로 평가받는다. 현재는 매달 12만 장 가량 웨이퍼를 생산 가능한 것으로 알려져 있다. 인텔 3 공정은 2024년 하반기부터 미국 오레곤 주 힐스보로에서 처음 생산을 시작했고 작년 하반기부터는 아일랜드 리슬립에서도 양산에 들어갔다. 업계에서는 인텔 3 공정의 월간 웨이퍼 처리량이 TSMC N3 대비 상당히 제한적인 것으로 보고 있다. 인텔, PC용 칩보다 제온6 우선 생산 인텔은 현재 인텔 3 공정 생산 역량을 PC보다 데이터센터 위주로 돌리고 있다. 데이비드 진스너 인텔 최고재무책임자(CFO)는 1월 말 진행된 컨퍼런스 콜에서 "제온6 프로세서 수요를 내부 제조 네트워크가 따라가지 못하고 있다"고 설명했다. "PC용 제품은 중·고급 제품에 집중하고 있다"는 인텔 설명에 비추어 보면, 지난 해 출시한 코어 울트라5 225U, 코어 울트라7 255U 등 인텔 3 공정을 활용하는 보급형 프로세서 출하량도 줄었을 것으로 추정된다. 1월부터 본격 공급되기 시작한 노트북용 코어 울트라 시리즈3(팬서레이크)는 목표 성능에 따라 GPU 구성에도 일부 차이가 있다. 고성능 제품군은 TSMC가 생산한 Xe3 10/12코어 GPU를, 보급형 제품은 인텔 3 공정에서 생산한 Xe3 4코어 GPU를 쓴다. 일부 PC 제조사가 Xe3 4코어 GPU 내장 프로세서 기반 노트북 신제품 출시 시기를 3월 말에서 4월 초로 연기한 것도 인텔 우선순위 변화와 무관하지 않은 것으로 보인다. AMD, TSMC 3나노 추가 확보 곤란 적어도 현재 상황에서는 AMD가 납기 측면에서 인텔 대비 조금 더 유리하다. 중국 내 고객사들이 x86 기반 기존 응용프로그램을 가능한 한 그대로 유지하며 대기 시간을 최소화하고 싶다면 선택지는 AMD 에픽 프로세서만 남는다. 그러나 TSMC 3나노급 공정은 AMD 뿐만 아니라 애플, 퀄컴, 엔비디아 등 다른 회사도 함께 활용한다. AMD 역시 활용 가능한 물량 중 시장 상황과 필요에 따라 서버와 PC용 프로세서 비율을 조절하고 있는 상황이다. TSMC의 3나노 생산량은 내년까지 예약이 끝나 추가 확보도 불가능하다. TSMC가 미국 애리조나와 일본 쿠마모토에 3나노 생산 역량을 확충하는 중이지만 이는 2028년 이후로 전망된다. 인텔 "공급망 수시 점검하며 고객과 소통" 시장조사업체 트렌드포스는 2일 "올 1분기 서버용 D램 가격은 북미와 중국 소재 주요 클라우드 업체와 서버 제조사가 한정된 수량을 두고 경쟁을 벌이고 있어 4분기 대비 두 배 가까이 오를 것"이라고 전망한 바 있다. 제온6, 5세대 에픽 등 프로세서 납기 지연에 더해 서버용 ECC 메모리, 낸드 플래시메모리 등 가격 상승을 접한 하이퍼스케일러나 클라우드 서비스 제공업체들이 서버 교체 규모를 줄이거나 연기할 가능성도 있다. 인텔 대변인은 10일 납기와 가격 인상 여부 관련 지디넷코리아 질의에 "제품 포트폴리오를 유지하고 기술 발전을 지속하기 위한 비용과 공급망을 수시 점검하고 있다. 가격 변동과 관련해 고객사와 적절히 소통하고 있다"고 답했다. AMD 관계자는 중국을 포함한 글로벌 시장 납기 지연 여부, 현재 공급 상황 관련 질문에 "현재 답할 수 있는 내용이 없다"고 회신했다.

2026.02.10 16:44권봉석 기자

웨스턴디지털, 40TB HAMR HDD 공개... 내년부터 양산

웨스턴디지털(WD)이 3일(현지시간) 미국 뉴욕에서 진행된 '이노베이션 데이' 행사에서 AI로 늘어나는 데이터 수요를 충족할 수 있는 고용량 하드디스크 드라이브(HDD) 신제품과 로드맵을 공개했다. 어빙 탄 WD CEO는 "지난 1년간 WD는 실행에 집중하면서 혁신 속도를 꾸준히 끌어올려 왔고, 그 결과 AI가 요구하는 기준에 맞춰 HDD를 새롭게 구상할 수 있었다"고 설명했다. 이어 "오늘 우리가 선보이는 혁신은 고객과의 긴밀한 협력을 바탕으로 저장 용량과 확장성, 품질, 향상된 성능은 물론 기술 도입의 편의성에 대한 수요에 어떻게 답하고 있는지를 보여준다"고 강조했다. 이날 WD는 열보조자기기록(HAMR) 기술과 울트라SMR ePMR 방식 40TB HDD 2종을 공개했다. 아흐메드 시하브 WD 최고제품책임자(CPO)는 "현재 두 고객사가 제품을 테스트하고 있다"고 설명했다. HAMR은 HDD 안에서 데이터를 읽고 쓰는 헤드에 부착된 레이저를 매우 짧은 시간인 나노초 단위로 데워 기존 대비 더 많은 데이터를 기록한다. 씨게이트가 2024년 말부터 상용화 이후 시장에 공급하고 있다. WD가 이날 공개한 40TB HDD도 HAMR 기술을 이용해 40TB를 저장 가능하다. 이날 아흐메드 시하브 CPO는 "고객사 2곳과 검증을 거쳐 2027년부터 양산 확대에 들어갈 예정이며 용량을 100TB 이상 확대할 것"이라고 말했다. WD는 기존 울트라SMR ePMR 기반 HDD도 계속해서 공급할 것이라고 설명했다. 울트라SMR ePMR 기반 40TB HDD는 올 하반기부터 양산에 들어가며 용량을 최대 60TB까지 확장 예정이다. 아흐메드 시하브 CPO는 "하이퍼스케일 기업과 엔터프라이즈 고객은 예측 가능한 용량 계획과 중단 없는 확장을 바탕으로, 각자의 일정에 맞춰 ePMR 또는 HAMR을 선택해 도입할 수 있다"고 설명했다. WD는 QLC 낸드 플래시메모리 대비 저장 비용과 내구성에서 경쟁력을 가진 듀얼 피벗(Dual Pivot) 기술 적용 HDD 시제품도 공개했다. 듀얼 피벗 HDD는 3.5인치 HDD 크기를 유지하면서 헤드를 두 개 내장해 읽고 쓰는 속도를 SATA3 SSD와 유사한 500MB/s 수준까지 끌어올렸다. 듀얼 피벗 기술을 적용한 HDD는 현재 연구실 단계에 있으며 2028년에 출시될 예정이다. 아흐메드 시하브 CPO는 "모든 제품은 현재까지 개발된 하드웨어/소프트웨어와 호환성을 지니기 때문에 고객사가 별도 소프트웨어를 개발하거나 최적화할 필요가 없다"고 설명했다.

2026.02.04 16:38권봉석 기자

투라인클라우드, 소타텍과 맞손…AI 기반 MSA로 아시아 클라우드 시장 공략

투라인클라우드와 소타텍코리아가 전략적 업무협약을 맺고 베트남을 시작으로 아시아 시장에서 AI, 클라우드 기반 플랫폼 공동 사업을 본격화한다. 투라인클라우드와 소타텍코리아는 전략적 업무협약(MOU)을 체결했다고 2일 밝혔다. 양사는 각사 기술과 사업 역량을 결합해 글로벌 시장 진출을 가속하고 AI, 클라우드 기반 플랫폼 사업을 공동으로 확대한다는 계획이다. 이번 협약은 특히 베트남을 중심으로 한 아시아 시장 공략을 핵심 목표로 한다. 소타텍코리아는 베트남에서 빠르게 성장한 IT 기업 소타텍(SotaTek) 한국 법인이다. 전 세계 1천500명 이상 개발 인력을 보유하고 있으며 미국, 일본, 한국, 싱가포르, 호주 등 6개국에 글로벌 오피스를 운영하고 있다. 설립 3년 차인 한국 법인에는 약 60명 인력이 근무 중이다. 한국인 PM, 기획, 디자이너와 베트남 개발자가 협업하는 하이브리드 모델을 통해 품질과 비용 경쟁력을 동시에 확보했다. 무신사, 버거킹, 코웨이, YBM, 교보문고, 두산로보틱스 등 국내 주요 기업 프로젝트를 수행해왔다. 투라인클라우드는 AI, 클라우드 기반 플랫폼 기업이다. 2024년 데스크톱 서비스 플랫폼(DaaS) 사업 인수를 통해 관련 역량을 강화했다. 현재 AI 기반 MSA 전환 플랫폼 'MSAP.ai'와 클라우드 네이티브 DaaS 솔루션 '하이퍼덱스(HyperDex)'를 핵심 솔루션으로 제공한다. MSAP.ai는 기존 모놀리식 레거시 시스템을 AI로 분석해 MSA 구조로 자동 설계, 전환하는 플랫폼이다. 하이퍼덱스는 보안성과 운영 효율성을 강화한 가상 데스크톱 서비스다. 투라인클라우드는 국내 엔터프라이즈 레거시 시스템 현대화와 함께 일본, 베트남 등 아시아 시장 확장을 추진 중이다. 이번 MOU로 양사는 역할이 명확한 파트너십 모델을 구축한다. 투라인클라우드는 MSAP.ai, 하이퍼덱스 등 핵심 기술 플랫폼을 제공한다. 소타텍코리아는 풍부한 개발 인력과 글로벌 네트워크를 기반으로 해당 솔루션을 활용한 SI 개발과 프로젝트 수행을 담당한다. 양사는 레베뉴 셰어 구조를 통해 수익을 공유하며, 단순 협력을 넘어 공동 사업 모델을 지향한다는 방침이다. 특히 투라인클라우드는 소타텍코리아 글로벌 네트워크를 활용해 베트남 시장 진출을 최우선 과제로 설정했다. 보안 요구 수준이 높은 베트남 공공, 정부, 국방 분야를 주요 타깃으로 하이퍼덱스기반 보안 강화형 DaaS 서비스를 공급할 계획이다. 베트남 현지 CSP 인프라 위에 하이퍼덱스를 구축하고 공동 마케팅과 영업도 검토 중이다. AI 기반 자동화와 제로 트러스트 보안 모델을 적용한 차별화된 DaaS 서비스로 공공, 엔터프라이즈 고객 요구에 대응한다는 전략이다. 향후 소타텍코리아는 투라인클라우드 솔루션 기술 검증(PoC)을 진행한다. 이를 바탕으로 베트남과 일본 시장 실제 고객을 대상으로 한 제안을 준비할 예정이다. 투라인클라우드는 기술 교육과 지원을 제공하며 협력을 단계적으로 고도화한다는 계획이다. 신현석 투라인클라우드 대표는 "이번 협약은 기술 플랫폼과 글로벌 개발 역량이 결합된 실질적인 파트너십"이라며 "베트남을 시작으로 아시아 시장에서 AI, 클라우드 기반 시스템 현대화 새로운 표준을 만들어가겠다"고 말했다.

2026.02.02 16:42남혁우 기자

HP, 올해부터 게이밍 브랜드 '하이퍼엑스'로 통합

HP가 올해부터 게이밍 관련 주요 브랜드를 '하이퍼엑스'(HyperX)로 통합한다. 작년까지 게이밍 PC 브랜드로 사용해 온 '오멘'(OMEN)은 데스크톱·노트북 PC와 모니터에만 유지된다. HP코리아는 22일 서울 삼성동 프릭업 스튜디오에서 신제품 공개 기자간담회를 열고, 이 같은 브랜드 전략과 함께 올 상반기 투입할 신제품 3종을 공개했다. 신제품은 프로세서 성능 극대화와 디스플레이 개선, 키보드 반응 속도를 강화한 게이밍 노트북 '하이퍼엑스 오멘 15', '하이퍼엑스 오멘 맥스 16' 등 노트북 2종, 고성능 데스크톱 PC '하이퍼엑스 오멘 맥스 45L' 등 3종이다. "선호도·인지도 향상 위해 두 브랜드 통합" HP는 2006년 게이밍 기술을 보유한 캐나다 컴퓨터 업체 부두(VooDoo)를 인수하고 2014년 처음으로 오멘 by HP 라인업을 공개했다. 이후 게임 특화 고성능 메모리와 SSD, 키보드·마우스·헤드셋 등 주변기기 브랜드인 하이퍼엑스를 2021년 인수했다. 22일 소병홍 HP코리아 퍼스널 시스템 카테고리 전무는 "HP는 그간 하이퍼엑스 이외에도 협업과 커뮤니케이션 브랜드 '폴리' 등을 인수했지만 인수한 브랜드와 지적재산권(IP)간 시너지 효과는 개선의 여지가 있었다"고 설명했다. 이어 "2024년 소셜미디어 부문에서 하이퍼엑스 브랜드의 인지도가 더 높았지만 PC 하드웨어는 '오멘', 주변기기는 '하이퍼엑스'로 분산돼 있었다. 브랜드 통합을 통해 선호도와 인지도를 높이려는 노력 아래 내린 결정"이라고 덧붙였다. "노트북 신제품, 성능 최적화·디스플레이 개선에 방점" 윤병집 HP코리아 매니저는 "올해 출시할 하이퍼엑스 오멘은 '더 빠르고 예리하게'라는 브랜드 아래 프로세서 성능 최대화, 디스플레이 개선, 키보드 응답 속도 향상에 중점을 뒀다"고 설명했다. 2026년형 하이퍼엑스 오멘 노트북은 GPU 대신 프로세서(CPU) 성능에 영향을 크게 받는 게임의 성능 향상을 위해 최대 소비전력을 확대했다. 윤병집 매니저는 "트리플A 게임 중 리그오브레전드 등의 성능을 높이는 효과가 있었다"고 설명했다. 키보드 키 눌림 감지 빈도를 초당 최대 8천 번까지 끌어 올리는 하이 폴링 레이트 기능도 도입됐다. 윤병집 매니저는 "일인칭시점슈팅(FPS) 게임에서는 간발의 차이가 생사를 좌우하는 경우가 많고 이런 게임에서 큰 도움이 될 것"이라고 설명했다. 냉각 시스템·키보드 응답속도 강화 노트북 내부 프로세서와 GPU에서 발생하는 열을 식힐 수 있는 냉각 시스템도 개선됐다. 작년에 적용됐던 액체금속 방열구조에 더해 냉각팬을 보강하고 환기구 추가, 공기 순환 방향 개선을 더해 냉각 효율을 강화했다. LCD 대비 응답 속도와 색재현성 등에서 강점을 지닌 OLED 디스플레이를 노트북 라인업 전체로 확대된 것도 눈에 띈다. 최대 밝기가 500니트까지 확장됐고 지원하는 색공간도 sRGB에 더해 DCI-P3를 표준 지원한다. 클릭 한 번으로 게임에 맞게 각종 성능을 최적화하는 '오멘 AI'도 지원 게임을 확대할 예정이다. 리그오브레전드, 발로란트에 이어 로블록스, 마인크래프트, 배틀필드6 등이 지원 게임에 추가된다. 올 상반기 중 게이밍 PC 3종 공급 하이퍼엑스 오멘 15는 이동성과 성능의 균형을 강조한 게이밍 노트북이다. 최대 170W의 총 플랫폼 전력을 지원하며, 인텔 코어 울트라9 275HX 프로세서와 엔비디아 지포스 RTX 5070 노트북 GPU 등 다양한 구성 옵션을 제공한다. 상위 라인업인 하이퍼엑스 오멘 맥스 16은 고성능 게이밍 환경을 겨냥한 프리미엄 모델이다. 오멘 AI와 오멘 게이밍 허브를 통한 AI 기반 최적화를 지원하며, 하이퍼엑스 디자인 요소와 PC·기어·소프트웨어 간 연동을 강화해 몰입감을 높였다. 하이퍼엑스 오멘 맥스 45L은 고사양 게임과 스트리밍, 콘텐츠 제작을 동시에 고려한 하이엔드 데스크톱 PC다. 고성능 부품 구성과 강화된 냉각 구조를 적용해 장시간 고부하 환경에서도 안정적인 구동을 보장한다. "원가 상승 압박 속 최적의 제품 공급 위해 노력중" 소병홍 HP코리아 전무는 "국내 PC 시장은 작년 중반부터 보급형과 고급형에 몰리고 중간급(메인스트림) 수요가 줄어들고 있는 상황이다. 하이퍼엑스 오멘은 고성능 시장을 겨냥한 제품"이라고 설명했다. 지난 해 말부터 불거진 메모리 반도체 수급난에 대해 소병홍 전무는 "주요 부품 가격 상승은 PC 업계 전반에 걸친 공통된 문제다. HP는 다양한 제품 포트폴리오를 갖추고 있고 제약이 있는 상황에서 최적의 조건으로 제품을 제공하기 위해 노력중"이라고 답했다.

2026.01.22 16:17권봉석 기자

브이디로보틱스, 中 하이퍼쉘 총판 계약

서비스로봇 선도기업 브이디로보틱스는 글로벌 소비자용 외골격 기업 하이퍼쉘과 국내 독점 총판 계약을 체결했다고 21일 밝혔다. 이번 계약은 지난 20일 중국 심천에 위치한 하이퍼쉘 본사에서 열린 계약 체결식을 통해 공식화됐다. 체결식에는 브이디로보틱스 함판식 대표와 하이퍼쉘 공동창업자 겸 COO 펜 유 등 양사 주요 임직원이 참석해 협력의 출발을 함께 했다. 브이디로보틱스는 하이퍼쉘 전 제품에 대한 국내 독점 총판 권한을 확보했다. 서비스로봇 시장에서 축적한 유통, 운영, 유지관리 역량을 바탕으로 하이퍼쉘의 국내 마케팅·영업·유통을 총괄한다. 이번 파트너십을 기반으로 아웃도어용 소비자용 외골격(웨어러블 로보틱스) 분야로 사업 영역을 확장할 계획이다. 하이퍼쉘은 이를 통해 한국 시장에 처음으로 공식 진출한다. 하이퍼쉘은 중국 심천 기반 글로벌 로보틱스 기업이다. 소비자용 외골격(웨어러블 로보틱스) 분야에서 글로벌 리더로 평가받고 있다. 2021년 설립 이후 혁신적인 제품을 선보이며 빠르게 성장해왔으며, 특히 CES 2025에서 로보틱스 부문 최고혁신상을 수상했다. 하이퍼쉘은 '아웃도어 퍼포먼스 웨어러블'로 정의할 수 있다. AI 기반으로 사용자의 움직임에 협응해 필요한 순간 파워를 증강·제어하는 외골격 기기로써 사용자 주도로 더 빠르게 더 멀리 이동할 수 있도록 보조한다. 의료·재활 중심으로 인식돼 온 국내 웨어러블 시장에서 야외 활동과 일상을 위한 새로운 카테고리를 제시한다. 브이디로보틱스는 하이퍼쉘X 4종 전체 라인업을 한국 시장에 선보일 예정이다. 내달 중 제품을 공식 공개하고, 다양한 유통 채널을 통해 국내 공급을 본격화한다. 최근 국내에서는 러닝, 트래킹, 등산, 사이클 등 아웃도어 활동이 확산되며 운동을 통한 체력 관리와 다이어트에 대한 관심도 높아지고 있다. 브이디로보틱스는 하이퍼쉘이 아웃도어 라이프스타일 트랜드 속에서 사용자 신체적, 체력적 한계를 극복하는 새로운 퍼포먼스 웨어러블 경험을 제공할 것으로 기대하고 있다. 또한 글로벌 브랜드 아이덴티티를 유지하면서도 한국 소비자 라이프스타일에 맞춘 현지화 마케팅 캠페인을 전개해 브랜드 인지도를 빠르게 확산한다는 전략이다. 기업과 소비자간 거래(B2C)뿐만 아니라 기업간 거래(B2B) 영역으로 유통을 확대해 기업∙산업 분야로 접점을 넓힐 계획이다. 다양한 산업에서의 착용형 로보틱스 기반을 다지고, 사용자의 이동 효율과 활동성을 높이는 새로운 웨어러블 로보틱스 경험을 확산해 나갈 예정이다. 함판식 브이디로보틱스 대표는 "하이퍼쉘은 아웃도어 퍼포먼스 웨어러블이라는 새로운 카테고리를 제시하는 브랜드"라며 "하이퍼쉘의 차별화된 가치를 국내 소비자에게 정확하게 전달하고 웨어러블 시장의 저변을 넓혀갈 수 있도록 다양한 접점을 만들어가겠다"고 말했다. 펜 유 하이퍼쉘 공동창업자 겸 COO는 "브이디로보틱스의 탄탄한 유통 경험과 시장 이해도를 바탕으로 한국 고객들에게 하이퍼쉘의 제품 가치를 빠르게 전달할 수 있을 것"이라며 "한국 소비자들이 아웃도어 활동과 일상에서 하이퍼쉘을 더 자연스럽게 경험할 수 있도록 적극 지원하겠다"고 밝혔다.

2026.01.21 15:47신영빈 기자

제네시스, 세계 경제포럼서 '하이퍼카' 전시…고성능 전략 공유

제네시스가 '2026 세계경제포럼(다보스포럼)'에서 럭셔리 고성능 모델 전시를 통해 브랜드 확장과 혁신을 알린다. 제네시스는 다보스포럼이 개최되는 19일(현지시간)부터 23일까지 스위스 다보스에 위치한 아메론 호텔(Ameron Hotel)에서 'GV60 마그마'와 'GMR-001 하이퍼카' 차량을 전시한다고 밝혔다. 다보스포럼은 세계 각국의 고위급, 정·재계 및 학계 인사 등이 참석해 경제를 비롯한 다양한 글로벌 이슈에 대해 논의하고, 국가간 협력과 해결책을 모색하는 국제회의다. '대화의 정신(A Spirit of Dialogue)'을 테마로 AI, 경제·통상 정책, 에너지 안보 등이 의제로 다뤄질 이번 포럼에는 도널드 트럼프 미국 대통령, 여한구 산업통상부 통상교섭본부장을 포함해 전 세계 3천여 명의 주요 인사들이 참석한다. 제네시스는 다이나믹 다이얼로그 – "투 바이브. 원 스위치"를 주제로 목적이 다르게 탄생했지만 럭셔리 고성능 프로그램인 '마그마'라는 하나의 정신으로 연결되는 서사를 'GV60 마그마' 및 'GMR-001 하이퍼카' 전시를 통해 관람객들과 공유한다. 우수한 퍼포먼스와 정제된 감성이 조화를 이루는 브랜드 최초의 고성능 모델인 'GV60 마그마'는 제네시스가 진정한 럭셔리 브랜드로 도약하기 위한 방향성과 의지를 담고 있다. 'GMR-001 하이퍼카'는 제네시스 마그마 레이싱팀이 올해부터 실제 경기에 참가할 차량의 디자인 모델로서, 제네시스의 모터스포츠 분야에 대한 무한한 가능성과 열정을 반영한다. 제네시스는 이번 전시를 통해 '마그마'로 상징되는 브랜드의 혁신성과 미래 방향성을 부각할 수 있을 것으로 기대하고 있다. 한편 제네시스는 지난 2023년부터 매년 다보스포럼 기간 중 다양한 모델을 전시해오고 있다. 2023년에는 럭셔리 자동차 디자인의 새로운 시각을 제시한 콘셉트카인 '제네시스 엑스', 2024년에는 스키로 유명한 다보스 지역에 맞게 디자인한 '제네시스 엑스 스노우 스피디움 콘셉트', 지난해에는 설산 주행이 가능하도록 개조한 'GV60 다목적 험로주행 콘셉트' 차량을 선보였다.

2026.01.20 13:17김재성 기자

김윤덕 장관 "자율주행은 이미 현실…기업·기술 전방위 지원해야"

김윤덕 국토교통부 장관은 14일 “자율주행은 이미 시작된 현실”이라며 “공공은 기업이 뛸 수 있도록 판을 깔고 현장 애로 사항을 개선하는 역할을 해야 한다”고 강조했다. 김 장관은 이날 국토부 산하기관 업무보고에서 “지난주 미국 라스베이거스에서 열린 CES에서 우리 중소·스타트업의 성장 가능성과 대기업의 기술 경쟁력을 생생하게 느낄 수 있었다”며 “미래성장 주인공인 기업을 탄탄하게 지원해야 한다”고 말했다. 김 장관은 “특히 관건은 속도”라며 “지원을 넘어 선제적으로 과제를 함께 발굴하는 방식으로 공공이 일의 접근 방식을 바꿔야 한다”고 덧붙였다. 김 장관은 “정부가 2027년 자율주행 상용화 목표를 제시했는데, 국민이 체감할 수 있는 변화를 느낄 수 있도록 기업과 기술을 전방위적으로 지원해야 한다”고 재차 강조하며 “다가올 미래가 될 도심항공교통(UAM)·하이퍼튜브·AI시티도 마찬가지”라고 말했다. 김 장관은 기후위기 대응과 관련해 “기후위기 대응도 선택이 아니라 책무”라며 “국토교통 산업의 친환경 전환도 더 늦출 수 없다”고 강조했다. 건설산업과 관련해서는 “그동안 사우디·미국·말레이시아 등의 수주 지원을 전개해 왔는데, 이제는 실제 수주 성과로 이어질 수 있도록 전략적인 투자 방안을 심도 있게 따져봐야 한다”고 말했다. 이어 “국내 건설산업의 어려움 또한 엄연한 현실”이라며 “건설 관련 협회도 법정단체로서 어떤 역할을 할지 함께 고민해 달라”고 주문했다. 김 장관은 “미래성장 분야는 그간 어떻게 해왔느냐보다 앞으로 어떻게 할 것이냐가 더욱 중요하다”며 “기관들은 시장을 선도하겠다는 적극적인 자세로 임해주고, 연구기관은 부족한 부분에 쓴소리를 아끼지 말고 생생한 연구 현장 이야기를 적극적으로 전해줄 것”을 당부했다.

2026.01.14 18:25주문정 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

네이버클라우드, 부산에 생성형 AI 행정 서비스 전면 적용…공공 AX 주도

네이버클라우드가 공공부문 인공지능(AI) 행정 표준 모델을 정립하며 AI 전환(AX) 주도에 나선다. 네이버클라우드는 부산광역시와 함께 생성형 AI를 활용한 행정 서비스를 올해 본격 도입한다고 5일 밝혔다. 하이퍼클로바X를 활용한 부산시 특화 AI 구축, 업무 협업툴 네이버웍스 도입 등 보유 중인 다양한 AI 서비스를 활용해 부산시는 행정 업무 수행 방식 전반을 개선하고 AI 기반 행정 전환을 체계적으로 추진한다는 계획이다. 이를 위해 양 기관은 지난해 4월부터 '부산형 AI 서비스 도입' 사업을 추진했으며 올해부터는 부산시 전 부서의 AI 도입을 시작한다. 향후 3년간 기술 고도화와 서비스 확산을 단계적으로 추진해 부산형 AI 행정 서비스를 공공 AI 행정의 표준 모델로 완성해 나가는 것이 목표다. 첫 단계로 부산시는 지난해 네이버클라우드의 경량화 AI 모델인 하이퍼클로바X 대시를 기반으로 부산시 특화 AI 모델 구축에 착수해 행정 규정과 사례, 지역 정보 등 약 16만 건에 달하는 행정 데이터를 학습시키며 신속한 행정 처리가 가능한 환경을 마련했다. 이후 모델 업그레이드를 통해 질의응답의 정확성과 전문성을 높였으며 올해 초에는 전 부서 약 6천 명을 대상으로 실제 서비스를 확대 운영한다. 해당 서비스는 생성형 AI를 활용해 법령·지침·업무 자료 등을 기반으로 한 질의응답은 물론 정책·보고서 초안 작성 등 총 22종의 행정 서비스를 제공한다. 내부 자료를 활용한 자체 AI 모델을 구축해 공공 분야에서 요구되는 보안성과 신뢰성을 확보한 것이 특징이다. 부산시는 AI 행정 서비스의 실효성을 높이고 메신저 기반 협업 환경을 조성하기 위해 네이버클라우드의 AI 업무 협업도구인 네이버웍스도 사용 중이다. 부산시는 지난해 9월 국가정보자원관리원 화재 사고 시 네이버웍스를 신속하게 도입해 행정 업무 공백을 최소화한 바 있다. 특히 회사 측에 따르면 부산시 특화 AI 서비스 'AI 부기 주무관'을 네이버웍스에 챗봇 형태로 구현해 공무원들의 큰 호응을 얻었다. AI 부기 주무관은 내부 행정 데이터와 온나라, 외부 기관 사이트에서 수집한 정보를 기반으로 질의응답을 통한 내부 문서 추천·요약은 물론 11종의 문서 초안 작성, 외부 리서치 등 개인 비서형 AI 행정 업무를 지원한다. 직원 간 전화 응대 최소화, 반복적인 단순 행정 업무를 AI가 보조함으로써 공무원이 본질적인 업무에 집중할 수 있는 환경을 구현하고 민원 응대 정확도를 높였다는 설명이다. 김유원 네이버클라우드 대표는 "이번 부산시와의 행정 AI 혁신은 생성형 AI를 실제 행정 업무에 적용해 업무 방식 자체를 전환한 공공 거버넌스 테크의 대표적 사례"라며 "앞으로도 공공기관이 안전하고 신뢰할 수 있는 방식으로 AI를 활용할 수 있도록 기술 고도화와 서비스 확산을 적극 지원하겠다"고 말했다.

2026.01.05 16:08한정호 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

'국가대표 AI' 1차전 D-1…'왕좌' 노린 네이버, 옴니모달 모델 공개로 격차 벌린다

정부 주도로 추진되고 있는 '독자 인공지능(AI) 파운데이션 모델' 개발 사업 첫 성과 발표를 앞두고 네이버클라우드가 새로운 무기를 공개했다. 국내 첫 네이티브 옴니모달 구조를 적용한 파운데이션 모델이란 점에서 이번 심사에서 유리한 고지에 오를 수 있을지 주목된다.네이버클라우드는 29일 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 각각 오픈소스로 공개했다. 이는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트의 주관 사업자로서 추진 중인 '옴니 파운데이션 모델' 개발 과제의 첫 성과다. 이번에 공개된 '네이티브 옴니모델'은 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조를 전면 적용한 모델이다. 옴니모달 AI는 정보의 형태가 달라지더라도 하나의 의미 공간에서 맥락을 통합적으로 이해할 수 있어 말과 글, 시각·음성 정보가 복합적으로 오가는 현실 환경에서 활용도가 높은 차세대 AI 기술로 주목받고 있다. 이러한 특성으로 인해 글로벌 빅테크 기업들 역시 옴니모달을 차세대 파운데이션 모델의 핵심 기술 축으로 삼고 있다. 네이버클라우드는 옴니모달 AI의 잠재력을 극대화하기 위해 기존 인터넷 문서나 이미지 중심의 학습을 넘어 현실 세계의 다양한 맥락을 담은 데이터 확보에 집중한다는 전략이다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "모델을 대규모로 키워도 데이터 다양성이 한정돼 있다면 AI의 문제 해결 능력도 특정 영역 또는 특정 과목에만 집중되어 나타날 수밖에 없다"며 "이에 디지털화되지 않은 생활 맥락 데이터나 지역의 지리적 특성이 반영된 공간 데이터 등 차별화된 현실 세계 데이터를 확보하고 정제하는 과정이 선행돼야 한다"고 설명했다. 네이버클라우드는 이번 모델 공개를 통해 네이티브 옴니모달 AI 개발 방법론을 검증한 만큼, 향후 차별화된 데이터를 본격적으로 학습시키며 단계적인 스케일업에 나설 계획이다. 텍스트·이미지·음성 모델을 결합하는 방식의 기존 멀티모달 접근과 달리 단일 모델 구조의 옴니모달 AI는 규모 확장이 상대적으로 용이하다는 점도 특징이다. 회사 측은 이를 기반으로 산업과 일상 밀착 서비스에 필요한 다양한 크기의 특화 옴니모달 모델을 효율적으로 확장한다는 전략이다. 또 해당 모델은 텍스트 지시를 기반으로 이미지를 생성·편집하는 옴니모달 생성 기능도 갖췄다. 텍스트와 이미지의 맥락을 함께 이해해 의미를 반영한 결과물을 만들어내는 방식으로 단일 모델에서 텍스트 이해와 이미지 생성·편집을 자연스럽게 수행한다. 이는 글로벌 프런티어 AI 모델들이 제공해온 기능으로, 네이버클라우드는 이번 모델을 통해 해당 수준의 멀티모달 생성 역량을 확보했음을 보여줬다. 이와 함께 네이버클라우드는 향후 옴니모달 AI 에이전트 활용 가능성을 검증하기 위해 '고성능 추론모델'도 공개했다. 이 모델은 자체 추론형 AI에 시각 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 입력과 요청을 이해하고 문제를 해결하는 옴니모달 에이전트 경험을 구현했다. 또 이 모델은 글로벌 AI 평가 기관인 아티피셜 애널리시스(Artificial Analysis)가 종합 지식·고난도 추론·코딩·에이전트형 과제 등 10개 주요 벤치마크를 종합해 산출한 지수 기준에서도 글로벌 주요 AI 모델들과 유사한 성능 범위에 위치한 것으로 나타났다. 영역별 평가에서는 특히 실사용과 밀접한 항목에서 경쟁력을 보였다. 한국어 기반 종합 지식, 시각 이해, 실제로 도구를 활용해 문제를 해결하는 에이전트 수행 능력 등 주요 능력 항목에서 글로벌 모델들과 비교해 우수한 성능을 기록하며 복합적인 문제 해결 역량을 입증했다. 또 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 측은 "다수의 AI 모델이 문제를 텍스트로 변환해 입력해야 하는 방식과 달리, 이 모델은 이미지 입력을 직접 이해해 문제를 해결했다는 점에서 차별화된다"고 말했다. 네이버클라우드는 이번 옴니모달 하이퍼클로바X를 기반으로 검색·커머스·콘텐츠·공공·산업 현장 등 다양한 영역에서 활용 가능한 AI 에이전트를 단계적으로 확장하며 '모두의 AI' 실현을 위한 기술 생태계 구축에 속도를 낼 계획이다. 성 총괄은 "텍스트·시각·음성 등 AI의 감각을 수평적으로 확장하는 동시에 사고와 추론 능력을 함께 강화했을 때 현실 문제 해결력이 크게 높아진다는 점을 확인했다"며 "이러한 기본기를 갖춘 구조 위에서 점진적으로 규모를 확장해야 단순히 크기만 큰 모델이 아닌, 실제로 쓰임새 있는 AI로 발전할 수 있다고 보고 이를 토대로 스케일업을 이어갈 계획"이라고 말했다.

2025.12.29 09:51장유미 기자

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평 기자

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평 기자

피지컬AI 강국?...AI 기지국 인프라부터 갖춰야

생성형AI가 촉발시킨 글로벌 AI 경쟁은 AI에이전트를 넘어 피지컬AI로 향하고 있다. AI 3대 강국을 외치는 한국이 독자 모델 확보와 컴퓨팅 인프라 구축에 여념이 없으나 AI가 실제로 작동하는 'AI고속도로' 위에서 실제 도로 역할을 하는 네트워크 진화는 뒤처졌다. AI고속도로 국정과제 주요 내용을 살펴보면 AI컴퓨팅인프라 확충과 데이터 구축 및 개방, 국가AI위원회 역할 강화와 함께 초지능 네트워크 구축이 제시됐으나 5G 진화에도 속도를 내지 못한 점이 전체 AI 발전 생태계에서 아쉬운 점으로 꼽힌다. 정부가 LTE를 비롯한 주파수 재할당 방침을 밝히면서 5G SA 의무 구축을 조건으로 내걸었고 최근 과학기술관계장관회의에 '하이퍼 AI네트워크 전략'이 의결됐는데, AI시대의 네트워크 성능을 비롯해 구조혁신이 더 이상 미룰 수 없다는 고민이 엿보인다. 정영길 과학기술정보통신부 네트워크정책과장은 “과거 초고속 정보통신망 구축과 CDMA 상용화, BcN 사업을 거쳐 세계 최고 품질의 5G 통신망을 확보했지만 AI의 급격한 발전으로 네트워크 수요는 증가하고 선제적인 네트워크 인프라 전 요소의 고도화가 긴요하다”고 말했다. 이어, “현재 인간 중심의 통신 네트워크와 달리 AI가 (네트워크의) 새로운 이용 주체로 등장하면서 데이터 전송 속도나 처리시간 등 기존과는 차원이 다른 성능을 요구받고 있다”고 강조했다. 이동통신 기지국에 올라탄 AI 컴퓨팅 이동통신 기지국에 AI 컴퓨팅 기능을 더한 AI-RAN은 올해 통신업계에서 화두로 부상한 기술이다. 이를테면 세계 최대 통신장비 회사인 화웨이가 AI-네이티브 RAN을 선보였고, 지난해 주요 빅테크들이 결성한 AI-RAN 얼라이언스는 세를 불리기 있다. 엔비디아는 인수합병 규모의 투자로 노키아와 협력을 시작했고, 삼성전자와 소프트뱅크는 공동 연구에 나섰다. 또 엔비디아는 지난 APEC 당시 한국을 찾아 통신 3사, 삼성전자 등과 맞손을 잡았다. AI-RAN는 쉽게 말하면 기지국에 엔비디아 GPU를 얹어 전파 신호를 주고받는 일과 AI 컴퓨팅을 동시에 처리하는 방식이다. 기지국은 안테나와 전파 신호를 디지털로 처리하는 장치로 이뤄지는데, 고도화된 컴퓨팅 인프라로 통신을 연결하는 중간 역할을 넘어 기지국 단계에서 AI 연산도 맡겠다는 뜻이다. 5G 상용화 초기에 많이 논의된 모바일엣지컴퓨팅(MEC)이 엣지AI로 바뀐 셈이다. 이같은 초지능 기지국은 피지컬AI 발전에 따라 더는 피할 수 없는 과제가 됐다. 단순 센싱 수준의 데이터만 처리하는 물리 객체도 있지만, 휴머노이드나 자율주행과 같은 피지컬AI 단계에서는 수많은 데이터가 오가야 한다. 물리 객체마다 AI 컴퓨팅 인프라를 갖추기에는 전력이나 비용 문제에 곧장 한계에 도달할 수 있는데 원활한 통신이 이뤄지면 추론을 비롯한 컴퓨팅은 기지국 단위에서 해결하고 개별 객체는 데이터를 수집하고 전송한 뒤 반응만 하면 된다. 정보통신기획평가원(IITP)의 최성호 PM은 “휴머노이드가 실제 서비스를 제공하기 위해 컴퓨팅을 갖는 점은 전력의 문제가 있다”며 “사람처럼 보고 듣고 연산하고 작동하는데 200ms 내에 이뤄져야 하는데, 이는 엣지AI 인프라의 도움 없이는 불가능하다”고 평가했다. 온디바이스AI 환경에서는 추론 성능이 제한적이고, 대규모 집중 컴퓨팅이 이뤄지는 클라우드까지 데이터가 오가기에는 피지컬AI에서 요구하는 지연시간을 맞추기 어렵다는 설명이다. 아울러 휴머노이드 외에 앞으로 등장할 피지컬AI의 많은 비즈니스모델이 이와 비슷한 상황에 놓이게 될 전망이다. 제조산업 현장부터 교통, 물류, 교육, 의료 등의 다양한 도메인에서 AI 서비스가 발굴되더라도 결국 AI-RAN 여부에 따라 서비스 제공 범위가 결정될 수 있다. 정부는 2030년까지 500곳의 AI-RAN 거점 구축 계획을 세웠다. 먼저 통신 집중국사 200곳에 AI 컴퓨팅 방식으로 전환하고 산업단지 100곳, 공항 항만 철도 100곳, 교육 의료 100곳으로 확산시킨다는 전략이다. AI시대 네트워크 고도화...통신을 위한 AI AI시대로 접어들면서 무선 기지국 외에 유선망과 국제망에 대한 변화도 필요해졌다. 당장 국가 통신망의 기본 뿌리로 불리는 백본망 용량을 늘리는 것이 급한 과제로 꼽힌다. 현재 국내 무선백본망의 용량은 초당 37.6 테라비트(Tb)를 처리할 수 있는 수준인데 IITP 6G사업단이 AI 사용량 증가에 따른 백본망 용량은 오는 2029년에 한계에 봉착할 수 있다. 2030년에는 현재 용량 대비 약 4배 수준으로 확대해야 할 필요성이 제기됐다. 정부는 이에 따라 2027년 70Tbps, 2030년 160Tbps 수준의 용량 증설을 목표로 세웠다. 누구나 가정 내에서 AI 서비스를 원활하게 이용할 수 있도록 실수요가 존재하는 가구와 건물의 광전환율도 끌어올린다는 방침이다. 현재 가입자망 구간에서 광케이블 기반의 초고속인터넷망 구축 비율은 91% 수준인데 이를 2030년까지 98% 수준으로 끌어올린다는 방침이다. 외국과의 데이터 이동도 늘어나는 점을 고려해 해저케이블 용량도 120Tbps 급에서 220Tbps 급으로 용량을 확대한다. 해저케이블이 국내 육지로 닿는 육양국도 분산시켜 어느 한 곳이 끊기더라도 다른 곳에서 데이터 전송이 이뤄질 수 있도록 안정성도 높인다. 네트워크를 AI를 위한 도구로만 쓰지 않고, AI를 통해 통신 성능도 발전시킨다. 예컨대 실시간으로 기지국의 성능을 최적화해 에너지 소모를 30% 이상 절감시킨다는 복안이다.

2025.12.21 14:38박수형 기자

알테어, '하이퍼웍스 2026' 출시…"시뮬레이션 속도 1천배↑"

알테어가 설계 시뮬레이션 플랫폼을 업그레이드해 디지털 엔지니어링 전환 속도를 높였다. 알테어는 인공지능(AI), 자동화, 멀티피직스를 통합한 플랫폼 '알테어 하이퍼웍스 2026'을 출시했다고 10일 밝혔다. 새 버전은 AI 기반 실시간 피드백과 통합 멀티피직스 기능을 앞세워 대규모 설계·해석 작업의 효율을 높인다. 그래픽처리장치(GPU) 기반 차수축소모델링(ROM) 기술이 적용돼 기존 대비 최대 1천배 빠른 시뮬레이션 속도를 제공한다. 브라우저 환경에서도 물리 기반 AI 모델을 실행할 수 있도록 구현됐다. 멀티피직스 통합 성능도 강화돼 열-유체, 전자기-구조 등 복합 거동을 단일 워크플로에서 분석할 수 있다. 배터리 안전성 평가, e-모터 최적화, 고온 환경 분석 등 차세대 산업 분야 요구를 반영한 신규 기능도 포함됐다. 전자기 해석 속도는 최대 40%, 전파 모델링 속도는 최대 20배 빨라졌다. 자율주행, 항공, 국방 등 고난도 산업군에서도 고성능 시뮬레이션을 안정적으로 구현할 수 있도록 지원 범위를 확대한 것이다. 시각화와 설계 탐색 기능도 개선됐다. 엔지니어가 설계 변경 영향을 직관적으로 확인하고 팀 간 인사이트를 빠르게 공유할 수 있다. 입자, 유체, 재료 거동 표현력이 향상됐고, 실시간 지오메트리 수정과 멀티윈도우 비교 기능도 추가됐다. 현재 하이퍼웍스는 항공, 자동차, 전자 등 다양한 산업에서 활용되고 있다. 특히 미국 항공기 스타트업 '젯제로'는 지멘스와의 협력 프로젝트에서 하이퍼웍스 제품군을 적용해 공력 성능 평가와 핵심 의사결정 시간을 크게 단축한 것으로 알려졌다. 샘 마할링엄 알테어 최고기술책임자(CTO) 겸 지멘스 디지털 인더스트리 SW 총괄부사장은 "하이퍼웍스 2026은 AI, 자동화, 멀티피직스를 하나의 통합 플랫폼으로 연결해 설계·해석 프로세스를 본질적으로 혁신하는 제품"이라며 "지멘스 기술 결합을 통해 세계적 수준의 AI 기반 시뮬레이션 포트폴리오를 완성하고, 고객이 보다 빠르고 정확한 제품 개발을 수행할 수 있도록 적극 지원할 것"이라고 밝혔다.

2025.12.10 16:44김미정 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

코스피 6000 고지 코앞…'100만 닉스' 신화 썼다

월마트 1조 달러 돌파했는데…韓 유통 빅3, 저평가 탈출 시동

담합 의혹 속 설탕·밀가루 줄인하…밥상물가 내릴까

한정애 의식했나…'거래소 지분제한' 가닥잡은 민주당TF

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.