• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'하이퍼'통합검색 결과 입니다. (99건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

투라인클라우드, 소타텍과 맞손…AI 기반 MSA로 아시아 클라우드 시장 공략

투라인클라우드와 소타텍코리아가 전략적 업무협약을 맺고 베트남을 시작으로 아시아 시장에서 AI, 클라우드 기반 플랫폼 공동 사업을 본격화한다. 투라인클라우드와 소타텍코리아는 전략적 업무협약(MOU)을 체결했다고 2일 밝혔다. 양사는 각사 기술과 사업 역량을 결합해 글로벌 시장 진출을 가속하고 AI, 클라우드 기반 플랫폼 사업을 공동으로 확대한다는 계획이다. 이번 협약은 특히 베트남을 중심으로 한 아시아 시장 공략을 핵심 목표로 한다. 소타텍코리아는 베트남에서 빠르게 성장한 IT 기업 소타텍(SotaTek) 한국 법인이다. 전 세계 1천500명 이상 개발 인력을 보유하고 있으며 미국, 일본, 한국, 싱가포르, 호주 등 6개국에 글로벌 오피스를 운영하고 있다. 설립 3년 차인 한국 법인에는 약 60명 인력이 근무 중이다. 한국인 PM, 기획, 디자이너와 베트남 개발자가 협업하는 하이브리드 모델을 통해 품질과 비용 경쟁력을 동시에 확보했다. 무신사, 버거킹, 코웨이, YBM, 교보문고, 두산로보틱스 등 국내 주요 기업 프로젝트를 수행해왔다. 투라인클라우드는 AI, 클라우드 기반 플랫폼 기업이다. 2024년 데스크톱 서비스 플랫폼(DaaS) 사업 인수를 통해 관련 역량을 강화했다. 현재 AI 기반 MSA 전환 플랫폼 'MSAP.ai'와 클라우드 네이티브 DaaS 솔루션 '하이퍼덱스(HyperDex)'를 핵심 솔루션으로 제공한다. MSAP.ai는 기존 모놀리식 레거시 시스템을 AI로 분석해 MSA 구조로 자동 설계, 전환하는 플랫폼이다. 하이퍼덱스는 보안성과 운영 효율성을 강화한 가상 데스크톱 서비스다. 투라인클라우드는 국내 엔터프라이즈 레거시 시스템 현대화와 함께 일본, 베트남 등 아시아 시장 확장을 추진 중이다. 이번 MOU로 양사는 역할이 명확한 파트너십 모델을 구축한다. 투라인클라우드는 MSAP.ai, 하이퍼덱스 등 핵심 기술 플랫폼을 제공한다. 소타텍코리아는 풍부한 개발 인력과 글로벌 네트워크를 기반으로 해당 솔루션을 활용한 SI 개발과 프로젝트 수행을 담당한다. 양사는 레베뉴 셰어 구조를 통해 수익을 공유하며, 단순 협력을 넘어 공동 사업 모델을 지향한다는 방침이다. 특히 투라인클라우드는 소타텍코리아 글로벌 네트워크를 활용해 베트남 시장 진출을 최우선 과제로 설정했다. 보안 요구 수준이 높은 베트남 공공, 정부, 국방 분야를 주요 타깃으로 하이퍼덱스기반 보안 강화형 DaaS 서비스를 공급할 계획이다. 베트남 현지 CSP 인프라 위에 하이퍼덱스를 구축하고 공동 마케팅과 영업도 검토 중이다. AI 기반 자동화와 제로 트러스트 보안 모델을 적용한 차별화된 DaaS 서비스로 공공, 엔터프라이즈 고객 요구에 대응한다는 전략이다. 향후 소타텍코리아는 투라인클라우드 솔루션 기술 검증(PoC)을 진행한다. 이를 바탕으로 베트남과 일본 시장 실제 고객을 대상으로 한 제안을 준비할 예정이다. 투라인클라우드는 기술 교육과 지원을 제공하며 협력을 단계적으로 고도화한다는 계획이다. 신현석 투라인클라우드 대표는 "이번 협약은 기술 플랫폼과 글로벌 개발 역량이 결합된 실질적인 파트너십"이라며 "베트남을 시작으로 아시아 시장에서 AI, 클라우드 기반 시스템 현대화 새로운 표준을 만들어가겠다"고 말했다.

2026.02.02 16:42남혁우 기자

HP, 올해부터 게이밍 브랜드 '하이퍼엑스'로 통합

HP가 올해부터 게이밍 관련 주요 브랜드를 '하이퍼엑스'(HyperX)로 통합한다. 작년까지 게이밍 PC 브랜드로 사용해 온 '오멘'(OMEN)은 데스크톱·노트북 PC와 모니터에만 유지된다. HP코리아는 22일 서울 삼성동 프릭업 스튜디오에서 신제품 공개 기자간담회를 열고, 이 같은 브랜드 전략과 함께 올 상반기 투입할 신제품 3종을 공개했다. 신제품은 프로세서 성능 극대화와 디스플레이 개선, 키보드 반응 속도를 강화한 게이밍 노트북 '하이퍼엑스 오멘 15', '하이퍼엑스 오멘 맥스 16' 등 노트북 2종, 고성능 데스크톱 PC '하이퍼엑스 오멘 맥스 45L' 등 3종이다. "선호도·인지도 향상 위해 두 브랜드 통합" HP는 2006년 게이밍 기술을 보유한 캐나다 컴퓨터 업체 부두(VooDoo)를 인수하고 2014년 처음으로 오멘 by HP 라인업을 공개했다. 이후 게임 특화 고성능 메모리와 SSD, 키보드·마우스·헤드셋 등 주변기기 브랜드인 하이퍼엑스를 2021년 인수했다. 22일 소병홍 HP코리아 퍼스널 시스템 카테고리 전무는 "HP는 그간 하이퍼엑스 이외에도 협업과 커뮤니케이션 브랜드 '폴리' 등을 인수했지만 인수한 브랜드와 지적재산권(IP)간 시너지 효과는 개선의 여지가 있었다"고 설명했다. 이어 "2024년 소셜미디어 부문에서 하이퍼엑스 브랜드의 인지도가 더 높았지만 PC 하드웨어는 '오멘', 주변기기는 '하이퍼엑스'로 분산돼 있었다. 브랜드 통합을 통해 선호도와 인지도를 높이려는 노력 아래 내린 결정"이라고 덧붙였다. "노트북 신제품, 성능 최적화·디스플레이 개선에 방점" 윤병집 HP코리아 매니저는 "올해 출시할 하이퍼엑스 오멘은 '더 빠르고 예리하게'라는 브랜드 아래 프로세서 성능 최대화, 디스플레이 개선, 키보드 응답 속도 향상에 중점을 뒀다"고 설명했다. 2026년형 하이퍼엑스 오멘 노트북은 GPU 대신 프로세서(CPU) 성능에 영향을 크게 받는 게임의 성능 향상을 위해 최대 소비전력을 확대했다. 윤병집 매니저는 "트리플A 게임 중 리그오브레전드 등의 성능을 높이는 효과가 있었다"고 설명했다. 키보드 키 눌림 감지 빈도를 초당 최대 8천 번까지 끌어 올리는 하이 폴링 레이트 기능도 도입됐다. 윤병집 매니저는 "일인칭시점슈팅(FPS) 게임에서는 간발의 차이가 생사를 좌우하는 경우가 많고 이런 게임에서 큰 도움이 될 것"이라고 설명했다. 냉각 시스템·키보드 응답속도 강화 노트북 내부 프로세서와 GPU에서 발생하는 열을 식힐 수 있는 냉각 시스템도 개선됐다. 작년에 적용됐던 액체금속 방열구조에 더해 냉각팬을 보강하고 환기구 추가, 공기 순환 방향 개선을 더해 냉각 효율을 강화했다. LCD 대비 응답 속도와 색재현성 등에서 강점을 지닌 OLED 디스플레이를 노트북 라인업 전체로 확대된 것도 눈에 띈다. 최대 밝기가 500니트까지 확장됐고 지원하는 색공간도 sRGB에 더해 DCI-P3를 표준 지원한다. 클릭 한 번으로 게임에 맞게 각종 성능을 최적화하는 '오멘 AI'도 지원 게임을 확대할 예정이다. 리그오브레전드, 발로란트에 이어 로블록스, 마인크래프트, 배틀필드6 등이 지원 게임에 추가된다. 올 상반기 중 게이밍 PC 3종 공급 하이퍼엑스 오멘 15는 이동성과 성능의 균형을 강조한 게이밍 노트북이다. 최대 170W의 총 플랫폼 전력을 지원하며, 인텔 코어 울트라9 275HX 프로세서와 엔비디아 지포스 RTX 5070 노트북 GPU 등 다양한 구성 옵션을 제공한다. 상위 라인업인 하이퍼엑스 오멘 맥스 16은 고성능 게이밍 환경을 겨냥한 프리미엄 모델이다. 오멘 AI와 오멘 게이밍 허브를 통한 AI 기반 최적화를 지원하며, 하이퍼엑스 디자인 요소와 PC·기어·소프트웨어 간 연동을 강화해 몰입감을 높였다. 하이퍼엑스 오멘 맥스 45L은 고사양 게임과 스트리밍, 콘텐츠 제작을 동시에 고려한 하이엔드 데스크톱 PC다. 고성능 부품 구성과 강화된 냉각 구조를 적용해 장시간 고부하 환경에서도 안정적인 구동을 보장한다. "원가 상승 압박 속 최적의 제품 공급 위해 노력중" 소병홍 HP코리아 전무는 "국내 PC 시장은 작년 중반부터 보급형과 고급형에 몰리고 중간급(메인스트림) 수요가 줄어들고 있는 상황이다. 하이퍼엑스 오멘은 고성능 시장을 겨냥한 제품"이라고 설명했다. 지난 해 말부터 불거진 메모리 반도체 수급난에 대해 소병홍 전무는 "주요 부품 가격 상승은 PC 업계 전반에 걸친 공통된 문제다. HP는 다양한 제품 포트폴리오를 갖추고 있고 제약이 있는 상황에서 최적의 조건으로 제품을 제공하기 위해 노력중"이라고 답했다.

2026.01.22 16:17권봉석 기자

브이디로보틱스, 中 하이퍼쉘 총판 계약

서비스로봇 선도기업 브이디로보틱스는 글로벌 소비자용 외골격 기업 하이퍼쉘과 국내 독점 총판 계약을 체결했다고 21일 밝혔다. 이번 계약은 지난 20일 중국 심천에 위치한 하이퍼쉘 본사에서 열린 계약 체결식을 통해 공식화됐다. 체결식에는 브이디로보틱스 함판식 대표와 하이퍼쉘 공동창업자 겸 COO 펜 유 등 양사 주요 임직원이 참석해 협력의 출발을 함께 했다. 브이디로보틱스는 하이퍼쉘 전 제품에 대한 국내 독점 총판 권한을 확보했다. 서비스로봇 시장에서 축적한 유통, 운영, 유지관리 역량을 바탕으로 하이퍼쉘의 국내 마케팅·영업·유통을 총괄한다. 이번 파트너십을 기반으로 아웃도어용 소비자용 외골격(웨어러블 로보틱스) 분야로 사업 영역을 확장할 계획이다. 하이퍼쉘은 이를 통해 한국 시장에 처음으로 공식 진출한다. 하이퍼쉘은 중국 심천 기반 글로벌 로보틱스 기업이다. 소비자용 외골격(웨어러블 로보틱스) 분야에서 글로벌 리더로 평가받고 있다. 2021년 설립 이후 혁신적인 제품을 선보이며 빠르게 성장해왔으며, 특히 CES 2025에서 로보틱스 부문 최고혁신상을 수상했다. 하이퍼쉘은 '아웃도어 퍼포먼스 웨어러블'로 정의할 수 있다. AI 기반으로 사용자의 움직임에 협응해 필요한 순간 파워를 증강·제어하는 외골격 기기로써 사용자 주도로 더 빠르게 더 멀리 이동할 수 있도록 보조한다. 의료·재활 중심으로 인식돼 온 국내 웨어러블 시장에서 야외 활동과 일상을 위한 새로운 카테고리를 제시한다. 브이디로보틱스는 하이퍼쉘X 4종 전체 라인업을 한국 시장에 선보일 예정이다. 내달 중 제품을 공식 공개하고, 다양한 유통 채널을 통해 국내 공급을 본격화한다. 최근 국내에서는 러닝, 트래킹, 등산, 사이클 등 아웃도어 활동이 확산되며 운동을 통한 체력 관리와 다이어트에 대한 관심도 높아지고 있다. 브이디로보틱스는 하이퍼쉘이 아웃도어 라이프스타일 트랜드 속에서 사용자 신체적, 체력적 한계를 극복하는 새로운 퍼포먼스 웨어러블 경험을 제공할 것으로 기대하고 있다. 또한 글로벌 브랜드 아이덴티티를 유지하면서도 한국 소비자 라이프스타일에 맞춘 현지화 마케팅 캠페인을 전개해 브랜드 인지도를 빠르게 확산한다는 전략이다. 기업과 소비자간 거래(B2C)뿐만 아니라 기업간 거래(B2B) 영역으로 유통을 확대해 기업∙산업 분야로 접점을 넓힐 계획이다. 다양한 산업에서의 착용형 로보틱스 기반을 다지고, 사용자의 이동 효율과 활동성을 높이는 새로운 웨어러블 로보틱스 경험을 확산해 나갈 예정이다. 함판식 브이디로보틱스 대표는 "하이퍼쉘은 아웃도어 퍼포먼스 웨어러블이라는 새로운 카테고리를 제시하는 브랜드"라며 "하이퍼쉘의 차별화된 가치를 국내 소비자에게 정확하게 전달하고 웨어러블 시장의 저변을 넓혀갈 수 있도록 다양한 접점을 만들어가겠다"고 말했다. 펜 유 하이퍼쉘 공동창업자 겸 COO는 "브이디로보틱스의 탄탄한 유통 경험과 시장 이해도를 바탕으로 한국 고객들에게 하이퍼쉘의 제품 가치를 빠르게 전달할 수 있을 것"이라며 "한국 소비자들이 아웃도어 활동과 일상에서 하이퍼쉘을 더 자연스럽게 경험할 수 있도록 적극 지원하겠다"고 밝혔다.

2026.01.21 15:47신영빈 기자

제네시스, 세계 경제포럼서 '하이퍼카' 전시…고성능 전략 공유

제네시스가 '2026 세계경제포럼(다보스포럼)'에서 럭셔리 고성능 모델 전시를 통해 브랜드 확장과 혁신을 알린다. 제네시스는 다보스포럼이 개최되는 19일(현지시간)부터 23일까지 스위스 다보스에 위치한 아메론 호텔(Ameron Hotel)에서 'GV60 마그마'와 'GMR-001 하이퍼카' 차량을 전시한다고 밝혔다. 다보스포럼은 세계 각국의 고위급, 정·재계 및 학계 인사 등이 참석해 경제를 비롯한 다양한 글로벌 이슈에 대해 논의하고, 국가간 협력과 해결책을 모색하는 국제회의다. '대화의 정신(A Spirit of Dialogue)'을 테마로 AI, 경제·통상 정책, 에너지 안보 등이 의제로 다뤄질 이번 포럼에는 도널드 트럼프 미국 대통령, 여한구 산업통상부 통상교섭본부장을 포함해 전 세계 3천여 명의 주요 인사들이 참석한다. 제네시스는 다이나믹 다이얼로그 – "투 바이브. 원 스위치"를 주제로 목적이 다르게 탄생했지만 럭셔리 고성능 프로그램인 '마그마'라는 하나의 정신으로 연결되는 서사를 'GV60 마그마' 및 'GMR-001 하이퍼카' 전시를 통해 관람객들과 공유한다. 우수한 퍼포먼스와 정제된 감성이 조화를 이루는 브랜드 최초의 고성능 모델인 'GV60 마그마'는 제네시스가 진정한 럭셔리 브랜드로 도약하기 위한 방향성과 의지를 담고 있다. 'GMR-001 하이퍼카'는 제네시스 마그마 레이싱팀이 올해부터 실제 경기에 참가할 차량의 디자인 모델로서, 제네시스의 모터스포츠 분야에 대한 무한한 가능성과 열정을 반영한다. 제네시스는 이번 전시를 통해 '마그마'로 상징되는 브랜드의 혁신성과 미래 방향성을 부각할 수 있을 것으로 기대하고 있다. 한편 제네시스는 지난 2023년부터 매년 다보스포럼 기간 중 다양한 모델을 전시해오고 있다. 2023년에는 럭셔리 자동차 디자인의 새로운 시각을 제시한 콘셉트카인 '제네시스 엑스', 2024년에는 스키로 유명한 다보스 지역에 맞게 디자인한 '제네시스 엑스 스노우 스피디움 콘셉트', 지난해에는 설산 주행이 가능하도록 개조한 'GV60 다목적 험로주행 콘셉트' 차량을 선보였다.

2026.01.20 13:17김재성 기자

김윤덕 장관 "자율주행은 이미 현실…기업·기술 전방위 지원해야"

김윤덕 국토교통부 장관은 14일 “자율주행은 이미 시작된 현실”이라며 “공공은 기업이 뛸 수 있도록 판을 깔고 현장 애로 사항을 개선하는 역할을 해야 한다”고 강조했다. 김 장관은 이날 국토부 산하기관 업무보고에서 “지난주 미국 라스베이거스에서 열린 CES에서 우리 중소·스타트업의 성장 가능성과 대기업의 기술 경쟁력을 생생하게 느낄 수 있었다”며 “미래성장 주인공인 기업을 탄탄하게 지원해야 한다”고 말했다. 김 장관은 “특히 관건은 속도”라며 “지원을 넘어 선제적으로 과제를 함께 발굴하는 방식으로 공공이 일의 접근 방식을 바꿔야 한다”고 덧붙였다. 김 장관은 “정부가 2027년 자율주행 상용화 목표를 제시했는데, 국민이 체감할 수 있는 변화를 느낄 수 있도록 기업과 기술을 전방위적으로 지원해야 한다”고 재차 강조하며 “다가올 미래가 될 도심항공교통(UAM)·하이퍼튜브·AI시티도 마찬가지”라고 말했다. 김 장관은 기후위기 대응과 관련해 “기후위기 대응도 선택이 아니라 책무”라며 “국토교통 산업의 친환경 전환도 더 늦출 수 없다”고 강조했다. 건설산업과 관련해서는 “그동안 사우디·미국·말레이시아 등의 수주 지원을 전개해 왔는데, 이제는 실제 수주 성과로 이어질 수 있도록 전략적인 투자 방안을 심도 있게 따져봐야 한다”고 말했다. 이어 “국내 건설산업의 어려움 또한 엄연한 현실”이라며 “건설 관련 협회도 법정단체로서 어떤 역할을 할지 함께 고민해 달라”고 주문했다. 김 장관은 “미래성장 분야는 그간 어떻게 해왔느냐보다 앞으로 어떻게 할 것이냐가 더욱 중요하다”며 “기관들은 시장을 선도하겠다는 적극적인 자세로 임해주고, 연구기관은 부족한 부분에 쓴소리를 아끼지 말고 생생한 연구 현장 이야기를 적극적으로 전해줄 것”을 당부했다.

2026.01.14 18:25주문정 기자

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미 기자

네이버클라우드, 부산에 생성형 AI 행정 서비스 전면 적용…공공 AX 주도

네이버클라우드가 공공부문 인공지능(AI) 행정 표준 모델을 정립하며 AI 전환(AX) 주도에 나선다. 네이버클라우드는 부산광역시와 함께 생성형 AI를 활용한 행정 서비스를 올해 본격 도입한다고 5일 밝혔다. 하이퍼클로바X를 활용한 부산시 특화 AI 구축, 업무 협업툴 네이버웍스 도입 등 보유 중인 다양한 AI 서비스를 활용해 부산시는 행정 업무 수행 방식 전반을 개선하고 AI 기반 행정 전환을 체계적으로 추진한다는 계획이다. 이를 위해 양 기관은 지난해 4월부터 '부산형 AI 서비스 도입' 사업을 추진했으며 올해부터는 부산시 전 부서의 AI 도입을 시작한다. 향후 3년간 기술 고도화와 서비스 확산을 단계적으로 추진해 부산형 AI 행정 서비스를 공공 AI 행정의 표준 모델로 완성해 나가는 것이 목표다. 첫 단계로 부산시는 지난해 네이버클라우드의 경량화 AI 모델인 하이퍼클로바X 대시를 기반으로 부산시 특화 AI 모델 구축에 착수해 행정 규정과 사례, 지역 정보 등 약 16만 건에 달하는 행정 데이터를 학습시키며 신속한 행정 처리가 가능한 환경을 마련했다. 이후 모델 업그레이드를 통해 질의응답의 정확성과 전문성을 높였으며 올해 초에는 전 부서 약 6천 명을 대상으로 실제 서비스를 확대 운영한다. 해당 서비스는 생성형 AI를 활용해 법령·지침·업무 자료 등을 기반으로 한 질의응답은 물론 정책·보고서 초안 작성 등 총 22종의 행정 서비스를 제공한다. 내부 자료를 활용한 자체 AI 모델을 구축해 공공 분야에서 요구되는 보안성과 신뢰성을 확보한 것이 특징이다. 부산시는 AI 행정 서비스의 실효성을 높이고 메신저 기반 협업 환경을 조성하기 위해 네이버클라우드의 AI 업무 협업도구인 네이버웍스도 사용 중이다. 부산시는 지난해 9월 국가정보자원관리원 화재 사고 시 네이버웍스를 신속하게 도입해 행정 업무 공백을 최소화한 바 있다. 특히 회사 측에 따르면 부산시 특화 AI 서비스 'AI 부기 주무관'을 네이버웍스에 챗봇 형태로 구현해 공무원들의 큰 호응을 얻었다. AI 부기 주무관은 내부 행정 데이터와 온나라, 외부 기관 사이트에서 수집한 정보를 기반으로 질의응답을 통한 내부 문서 추천·요약은 물론 11종의 문서 초안 작성, 외부 리서치 등 개인 비서형 AI 행정 업무를 지원한다. 직원 간 전화 응대 최소화, 반복적인 단순 행정 업무를 AI가 보조함으로써 공무원이 본질적인 업무에 집중할 수 있는 환경을 구현하고 민원 응대 정확도를 높였다는 설명이다. 김유원 네이버클라우드 대표는 "이번 부산시와의 행정 AI 혁신은 생성형 AI를 실제 행정 업무에 적용해 업무 방식 자체를 전환한 공공 거버넌스 테크의 대표적 사례"라며 "앞으로도 공공기관이 안전하고 신뢰할 수 있는 방식으로 AI를 활용할 수 있도록 기술 고도화와 서비스 확산을 적극 지원하겠다"고 말했다.

2026.01.05 16:08한정호 기자

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미 기자

'국가대표 AI' 1차전 D-1…'왕좌' 노린 네이버, 옴니모달 모델 공개로 격차 벌린다

정부 주도로 추진되고 있는 '독자 인공지능(AI) 파운데이션 모델' 개발 사업 첫 성과 발표를 앞두고 네이버클라우드가 새로운 무기를 공개했다. 국내 첫 네이티브 옴니모달 구조를 적용한 파운데이션 모델이란 점에서 이번 심사에서 유리한 고지에 오를 수 있을지 주목된다.네이버클라우드는 29일 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 각각 오픈소스로 공개했다. 이는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트의 주관 사업자로서 추진 중인 '옴니 파운데이션 모델' 개발 과제의 첫 성과다. 이번에 공개된 '네이티브 옴니모델'은 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조를 전면 적용한 모델이다. 옴니모달 AI는 정보의 형태가 달라지더라도 하나의 의미 공간에서 맥락을 통합적으로 이해할 수 있어 말과 글, 시각·음성 정보가 복합적으로 오가는 현실 환경에서 활용도가 높은 차세대 AI 기술로 주목받고 있다. 이러한 특성으로 인해 글로벌 빅테크 기업들 역시 옴니모달을 차세대 파운데이션 모델의 핵심 기술 축으로 삼고 있다. 네이버클라우드는 옴니모달 AI의 잠재력을 극대화하기 위해 기존 인터넷 문서나 이미지 중심의 학습을 넘어 현실 세계의 다양한 맥락을 담은 데이터 확보에 집중한다는 전략이다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "모델을 대규모로 키워도 데이터 다양성이 한정돼 있다면 AI의 문제 해결 능력도 특정 영역 또는 특정 과목에만 집중되어 나타날 수밖에 없다"며 "이에 디지털화되지 않은 생활 맥락 데이터나 지역의 지리적 특성이 반영된 공간 데이터 등 차별화된 현실 세계 데이터를 확보하고 정제하는 과정이 선행돼야 한다"고 설명했다. 네이버클라우드는 이번 모델 공개를 통해 네이티브 옴니모달 AI 개발 방법론을 검증한 만큼, 향후 차별화된 데이터를 본격적으로 학습시키며 단계적인 스케일업에 나설 계획이다. 텍스트·이미지·음성 모델을 결합하는 방식의 기존 멀티모달 접근과 달리 단일 모델 구조의 옴니모달 AI는 규모 확장이 상대적으로 용이하다는 점도 특징이다. 회사 측은 이를 기반으로 산업과 일상 밀착 서비스에 필요한 다양한 크기의 특화 옴니모달 모델을 효율적으로 확장한다는 전략이다. 또 해당 모델은 텍스트 지시를 기반으로 이미지를 생성·편집하는 옴니모달 생성 기능도 갖췄다. 텍스트와 이미지의 맥락을 함께 이해해 의미를 반영한 결과물을 만들어내는 방식으로 단일 모델에서 텍스트 이해와 이미지 생성·편집을 자연스럽게 수행한다. 이는 글로벌 프런티어 AI 모델들이 제공해온 기능으로, 네이버클라우드는 이번 모델을 통해 해당 수준의 멀티모달 생성 역량을 확보했음을 보여줬다. 이와 함께 네이버클라우드는 향후 옴니모달 AI 에이전트 활용 가능성을 검증하기 위해 '고성능 추론모델'도 공개했다. 이 모델은 자체 추론형 AI에 시각 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 입력과 요청을 이해하고 문제를 해결하는 옴니모달 에이전트 경험을 구현했다. 또 이 모델은 글로벌 AI 평가 기관인 아티피셜 애널리시스(Artificial Analysis)가 종합 지식·고난도 추론·코딩·에이전트형 과제 등 10개 주요 벤치마크를 종합해 산출한 지수 기준에서도 글로벌 주요 AI 모델들과 유사한 성능 범위에 위치한 것으로 나타났다. 영역별 평가에서는 특히 실사용과 밀접한 항목에서 경쟁력을 보였다. 한국어 기반 종합 지식, 시각 이해, 실제로 도구를 활용해 문제를 해결하는 에이전트 수행 능력 등 주요 능력 항목에서 글로벌 모델들과 비교해 우수한 성능을 기록하며 복합적인 문제 해결 역량을 입증했다. 또 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 측은 "다수의 AI 모델이 문제를 텍스트로 변환해 입력해야 하는 방식과 달리, 이 모델은 이미지 입력을 직접 이해해 문제를 해결했다는 점에서 차별화된다"고 말했다. 네이버클라우드는 이번 옴니모달 하이퍼클로바X를 기반으로 검색·커머스·콘텐츠·공공·산업 현장 등 다양한 영역에서 활용 가능한 AI 에이전트를 단계적으로 확장하며 '모두의 AI' 실현을 위한 기술 생태계 구축에 속도를 낼 계획이다. 성 총괄은 "텍스트·시각·음성 등 AI의 감각을 수평적으로 확장하는 동시에 사고와 추론 능력을 함께 강화했을 때 현실 문제 해결력이 크게 높아진다는 점을 확인했다"며 "이러한 기본기를 갖춘 구조 위에서 점진적으로 규모를 확장해야 단순히 크기만 큰 모델이 아닌, 실제로 쓰임새 있는 AI로 발전할 수 있다고 보고 이를 토대로 스케일업을 이어갈 계획"이라고 말했다.

2025.12.29 09:51장유미 기자

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평 기자

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평 기자

피지컬AI 강국?...AI 기지국 인프라부터 갖춰야

생성형AI가 촉발시킨 글로벌 AI 경쟁은 AI에이전트를 넘어 피지컬AI로 향하고 있다. AI 3대 강국을 외치는 한국이 독자 모델 확보와 컴퓨팅 인프라 구축에 여념이 없으나 AI가 실제로 작동하는 'AI고속도로' 위에서 실제 도로 역할을 하는 네트워크 진화는 뒤처졌다. AI고속도로 국정과제 주요 내용을 살펴보면 AI컴퓨팅인프라 확충과 데이터 구축 및 개방, 국가AI위원회 역할 강화와 함께 초지능 네트워크 구축이 제시됐으나 5G 진화에도 속도를 내지 못한 점이 전체 AI 발전 생태계에서 아쉬운 점으로 꼽힌다. 정부가 LTE를 비롯한 주파수 재할당 방침을 밝히면서 5G SA 의무 구축을 조건으로 내걸었고 최근 과학기술관계장관회의에 '하이퍼 AI네트워크 전략'이 의결됐는데, AI시대의 네트워크 성능을 비롯해 구조혁신이 더 이상 미룰 수 없다는 고민이 엿보인다. 정영길 과학기술정보통신부 네트워크정책과장은 “과거 초고속 정보통신망 구축과 CDMA 상용화, BcN 사업을 거쳐 세계 최고 품질의 5G 통신망을 확보했지만 AI의 급격한 발전으로 네트워크 수요는 증가하고 선제적인 네트워크 인프라 전 요소의 고도화가 긴요하다”고 말했다. 이어, “현재 인간 중심의 통신 네트워크와 달리 AI가 (네트워크의) 새로운 이용 주체로 등장하면서 데이터 전송 속도나 처리시간 등 기존과는 차원이 다른 성능을 요구받고 있다”고 강조했다. 이동통신 기지국에 올라탄 AI 컴퓨팅 이동통신 기지국에 AI 컴퓨팅 기능을 더한 AI-RAN은 올해 통신업계에서 화두로 부상한 기술이다. 이를테면 세계 최대 통신장비 회사인 화웨이가 AI-네이티브 RAN을 선보였고, 지난해 주요 빅테크들이 결성한 AI-RAN 얼라이언스는 세를 불리기 있다. 엔비디아는 인수합병 규모의 투자로 노키아와 협력을 시작했고, 삼성전자와 소프트뱅크는 공동 연구에 나섰다. 또 엔비디아는 지난 APEC 당시 한국을 찾아 통신 3사, 삼성전자 등과 맞손을 잡았다. AI-RAN는 쉽게 말하면 기지국에 엔비디아 GPU를 얹어 전파 신호를 주고받는 일과 AI 컴퓨팅을 동시에 처리하는 방식이다. 기지국은 안테나와 전파 신호를 디지털로 처리하는 장치로 이뤄지는데, 고도화된 컴퓨팅 인프라로 통신을 연결하는 중간 역할을 넘어 기지국 단계에서 AI 연산도 맡겠다는 뜻이다. 5G 상용화 초기에 많이 논의된 모바일엣지컴퓨팅(MEC)이 엣지AI로 바뀐 셈이다. 이같은 초지능 기지국은 피지컬AI 발전에 따라 더는 피할 수 없는 과제가 됐다. 단순 센싱 수준의 데이터만 처리하는 물리 객체도 있지만, 휴머노이드나 자율주행과 같은 피지컬AI 단계에서는 수많은 데이터가 오가야 한다. 물리 객체마다 AI 컴퓨팅 인프라를 갖추기에는 전력이나 비용 문제에 곧장 한계에 도달할 수 있는데 원활한 통신이 이뤄지면 추론을 비롯한 컴퓨팅은 기지국 단위에서 해결하고 개별 객체는 데이터를 수집하고 전송한 뒤 반응만 하면 된다. 정보통신기획평가원(IITP)의 최성호 PM은 “휴머노이드가 실제 서비스를 제공하기 위해 컴퓨팅을 갖는 점은 전력의 문제가 있다”며 “사람처럼 보고 듣고 연산하고 작동하는데 200ms 내에 이뤄져야 하는데, 이는 엣지AI 인프라의 도움 없이는 불가능하다”고 평가했다. 온디바이스AI 환경에서는 추론 성능이 제한적이고, 대규모 집중 컴퓨팅이 이뤄지는 클라우드까지 데이터가 오가기에는 피지컬AI에서 요구하는 지연시간을 맞추기 어렵다는 설명이다. 아울러 휴머노이드 외에 앞으로 등장할 피지컬AI의 많은 비즈니스모델이 이와 비슷한 상황에 놓이게 될 전망이다. 제조산업 현장부터 교통, 물류, 교육, 의료 등의 다양한 도메인에서 AI 서비스가 발굴되더라도 결국 AI-RAN 여부에 따라 서비스 제공 범위가 결정될 수 있다. 정부는 2030년까지 500곳의 AI-RAN 거점 구축 계획을 세웠다. 먼저 통신 집중국사 200곳에 AI 컴퓨팅 방식으로 전환하고 산업단지 100곳, 공항 항만 철도 100곳, 교육 의료 100곳으로 확산시킨다는 전략이다. AI시대 네트워크 고도화...통신을 위한 AI AI시대로 접어들면서 무선 기지국 외에 유선망과 국제망에 대한 변화도 필요해졌다. 당장 국가 통신망의 기본 뿌리로 불리는 백본망 용량을 늘리는 것이 급한 과제로 꼽힌다. 현재 국내 무선백본망의 용량은 초당 37.6 테라비트(Tb)를 처리할 수 있는 수준인데 IITP 6G사업단이 AI 사용량 증가에 따른 백본망 용량은 오는 2029년에 한계에 봉착할 수 있다. 2030년에는 현재 용량 대비 약 4배 수준으로 확대해야 할 필요성이 제기됐다. 정부는 이에 따라 2027년 70Tbps, 2030년 160Tbps 수준의 용량 증설을 목표로 세웠다. 누구나 가정 내에서 AI 서비스를 원활하게 이용할 수 있도록 실수요가 존재하는 가구와 건물의 광전환율도 끌어올린다는 방침이다. 현재 가입자망 구간에서 광케이블 기반의 초고속인터넷망 구축 비율은 91% 수준인데 이를 2030년까지 98% 수준으로 끌어올린다는 방침이다. 외국과의 데이터 이동도 늘어나는 점을 고려해 해저케이블 용량도 120Tbps 급에서 220Tbps 급으로 용량을 확대한다. 해저케이블이 국내 육지로 닿는 육양국도 분산시켜 어느 한 곳이 끊기더라도 다른 곳에서 데이터 전송이 이뤄질 수 있도록 안정성도 높인다. 네트워크를 AI를 위한 도구로만 쓰지 않고, AI를 통해 통신 성능도 발전시킨다. 예컨대 실시간으로 기지국의 성능을 최적화해 에너지 소모를 30% 이상 절감시킨다는 복안이다.

2025.12.21 14:38박수형 기자

알테어, '하이퍼웍스 2026' 출시…"시뮬레이션 속도 1천배↑"

알테어가 설계 시뮬레이션 플랫폼을 업그레이드해 디지털 엔지니어링 전환 속도를 높였다. 알테어는 인공지능(AI), 자동화, 멀티피직스를 통합한 플랫폼 '알테어 하이퍼웍스 2026'을 출시했다고 10일 밝혔다. 새 버전은 AI 기반 실시간 피드백과 통합 멀티피직스 기능을 앞세워 대규모 설계·해석 작업의 효율을 높인다. 그래픽처리장치(GPU) 기반 차수축소모델링(ROM) 기술이 적용돼 기존 대비 최대 1천배 빠른 시뮬레이션 속도를 제공한다. 브라우저 환경에서도 물리 기반 AI 모델을 실행할 수 있도록 구현됐다. 멀티피직스 통합 성능도 강화돼 열-유체, 전자기-구조 등 복합 거동을 단일 워크플로에서 분석할 수 있다. 배터리 안전성 평가, e-모터 최적화, 고온 환경 분석 등 차세대 산업 분야 요구를 반영한 신규 기능도 포함됐다. 전자기 해석 속도는 최대 40%, 전파 모델링 속도는 최대 20배 빨라졌다. 자율주행, 항공, 국방 등 고난도 산업군에서도 고성능 시뮬레이션을 안정적으로 구현할 수 있도록 지원 범위를 확대한 것이다. 시각화와 설계 탐색 기능도 개선됐다. 엔지니어가 설계 변경 영향을 직관적으로 확인하고 팀 간 인사이트를 빠르게 공유할 수 있다. 입자, 유체, 재료 거동 표현력이 향상됐고, 실시간 지오메트리 수정과 멀티윈도우 비교 기능도 추가됐다. 현재 하이퍼웍스는 항공, 자동차, 전자 등 다양한 산업에서 활용되고 있다. 특히 미국 항공기 스타트업 '젯제로'는 지멘스와의 협력 프로젝트에서 하이퍼웍스 제품군을 적용해 공력 성능 평가와 핵심 의사결정 시간을 크게 단축한 것으로 알려졌다. 샘 마할링엄 알테어 최고기술책임자(CTO) 겸 지멘스 디지털 인더스트리 SW 총괄부사장은 "하이퍼웍스 2026은 AI, 자동화, 멀티피직스를 하나의 통합 플랫폼으로 연결해 설계·해석 프로세스를 본질적으로 혁신하는 제품"이라며 "지멘스 기술 결합을 통해 세계적 수준의 AI 기반 시뮬레이션 포트폴리오를 완성하고, 고객이 보다 빠르고 정확한 제품 개발을 수행할 수 있도록 적극 지원할 것"이라고 밝혔다.

2025.12.10 16:44김미정 기자

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평 기자

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평 기자

하이퍼엑셀, 신용보증기금 '제14기 혁신아이콘' 선정

AI 반도체 스타트업 하이퍼엑셀은 신용보증기금이 선정한 '제14기 혁신아이콘'에 이름을 올렸다고 10일 밝혔다. 신용보증기금의 혁신아이콘 프로그램은 글로벌 혁신기업으로 성장 가능성이 높은 혁신 스타트업의 스케일업을 돕는 프로그램으로, 성장 유망한 혁신 기업을 발굴해 지원한다. 이번 제14기에는 143개 기업이 지원해 약 29:1의 높은 경쟁률을 기록했으며, 하이퍼엑셀은 반도체 분야 대표 기업으로 선정됐다. 하이퍼엑셀은 3년간 최대 200억원 신용보증, 최저보증료율 적용, 협약은행 추가 보증료 지원과 함께 해외 진출, 컨설팅, 홍보 등 다양한 혜택을 받게 된다. 하이퍼엑셀은 대규모 언어모델(LLM) 추론에 최적화된 고성능·저전력 AI 반도체(LPU) 기술력을 기반으로, 생성형 AI 서비스에 필요한 실시간 응답성과 비용 효율성을 동시에 실현한 점을 높이 평가받았다. 또한 데이터센터, 온프레미스 서버, 엣지 디바이스 등 다양한 환경에서 적용 가능한 확장성과 범용성을 입증하며, AI 반도체 분야의 차세대 혁신 기업으로서 성장 잠재력을 인정받았다. 특히 하이퍼엑셀은 LPU 기술을 기반으로 글로벌 생성형 AI 시장을 겨냥한 제품 포트폴리오를 확대하고 있으며, 2026년 이후 본격적인 칩 양산과 함께 해외 데이터센터 및 클라우드 기업과의 협업을 통해 글로벌 시장 공략을 가속화할 계획이다. 김주영 하이퍼엑셀 대표는 “혁신아이콘 선정을 통해 하이퍼엑셀의 기술 경쟁력과 성장 잠재력을 공식적으로 인정받게 되어 의미가 크다”며, “앞으로도 LPU 기반의 기술 혁신과 제품 고도화를 지속해 글로벌 AI 반도체 시장에서 새로운 표준을 만들어가겠다”고 말했다.

2025.11.10 16:55전화평 기자

네이버클라우드, 소버린 2.0 시대 선언…"산업 AI 혁신 선도"

네이버클라우드가 자체 인공지능(AI) 인프라와 기술을 기반으로 국내 산업 경쟁력 강화와 AI 혁신 확산에 나선다. 김유원 네이버클라우드 대표는 6일 팀네이버 통합 컨퍼런스 '단25'에서 "AI는 더 이상 연구의 영역이 아니라 산업 경쟁력을 좌우하는 기술 인프라"라며 "우리의 데이터와 인프라, 기술로 산업의 AI 전환을 현실로 만들겠다"고 밝혔다. 네이버클라우드는 그간 축적한 풀스택 AI 역량을 기반으로 AI 자립을 넘어 산업 중심으로 확장되는 '소버린 AI 2.0'의 방향을 제시하고 있다. 김 대표는 "기존 소버린 AI가 언어와 문화 중심의 기술 자립에 초점을 맞췄다면 소버린 2.0은 이를 산업과 일상 전반으로 확장해 국가 경쟁력을 높이는 개념"이라며 "우리는 대한민국의 언어·데이터·산업 구조를 가장 깊이 이해하는 기업으로, 한국형 소버린 AI 2.0을 통해 산업 AI 전환의 새로운 모델을 만들어가고 있다"고 말했다. 네이버는 2023년 세계 최초로 비영어권 언어 기반 초거대 모델 '하이퍼클로바X'를 선보인 이후 경량 모델, 추론 모델, 오픈소스 모델을 잇따라 공개했으며 현재 오픈소스 모델은 누적 200만 건 이상의 다운로드를 기록하고 있다. 김 대표는 "하이퍼클로바X는 앞으로 '애니 투 애니' 옴니 파운데이션 모델로 진화하며 클라우드용 대형 모델부터 피지컬 AI용 경량 모델까지 산업별 AI 혁신에 필요한 다양한 라인업을 제공할 것"이라고 강조했다. 이를 통해 네이버클라우드는 텍스트를 넘어 음성·이미지·지도·센서 등 멀티모달 인식과 생성이 가능한 차세대 AI 체계를 완성해 각 산업 현장의 요구에 따라 최적화된 모델을 유연하게 제공한다는 목표다. 또 데이터와 AI를 안전하게 운영하려는 기업들을 위해 자사 프라이빗 클라우드인 '뉴로클라우드'의 업그레이드 버전을 내년 6월에 선보일 계획이다. 네이버클라우드는 이러한 AI 기술이 실제 산업 현장에서 작동할 수 있도록 피지컬 AI 기술도 내재화하고 있다. 네이버는 2016년부터 로봇과 자율주행 연구를 시작했으며 2021년에는 이를 파운데이션 모델 기반의 피지컬 AI로 발전시켰다. 김 대표는 "머신이 공간을 인식하고 이해하며 스스로 판단하고 행동하는 기술이 피지컬 AI"라며 "우리는 1784사옥과 데이터센터 곳곳에서 로봇이 축적한 리얼 데이터, 이를 연결하는 클라우드 플랫폼, 온보드 AI를 결합해 끊임없이 진화하는 피지컬 AI 생태계를 만들어가고 있다"고 설명했다. 네이버클라우드는 이같은 기술과 인프라를 기반으로 산업 특화 AI 생태계를 확장해 나간다는 계획이다. 조선·에너지·바이오 등 주요 산업 기업들과 협력해 AI 기반 공정 운영, 설비 관리, 품질 예측 등 제조 전 과정에서의 AI 활용을 지원하며 산업 현장에 최적화된 기술이 빠르게 자리 잡을 수 있도록 뒷받침할 방침이다. 김 대표는 "우리의 풀스택 AI 기술이 산업의 데이터를 이해하고 결합할 때 한국형 산업 AI의 표준이 만들어질 것"이라고 덧붙였다. 아울러 네이버클라우드는 이러한 산업 AI 모델을 수출형 구조로 확장해 사우디아라비아·태국·일본 등 주요 시장으로 글로벌 소버린 AI 확산을 이끌고 있다. 사우디의 디지털 트윈 플랫폼, 태국의 관광 AI 에이전트, 일본의 케어콜 서비스 등 각국 산업 현장에 특화된 AI 모델을 적용하며 산업 AI의 글로벌 레퍼런스를 넓혀가고 있다. 뿐만 아니라 AI 혜택이 닿기 어려운 영역까지 기술의 접근성을 넓히는 사회적 역할에도 나서고 있다. 발달장애인 보조, 고령자 돌봄, 농업 AI 등 헬스케어·농촌·복지 분야에 AI를 적용해 소외 지역과 계층의 기술 접근성을 높이는 등 AI의 사회적 확산과 포용적 성장에 기여하고 있다. 김 대표는 "AI는 산업의 한계를 넘어 새로운 가능성을 여는 기술"이라며 "우리는 하이퍼스케일 AI 인프라와 피지컬 AI를 결합해 산업의 혁신을 실질적으로 뒷받침하고 모두가 신뢰할 수 있는 AI 시대를 열겠다"고 강조했다.

2025.11.06 10:00한정호 기자

신세계百, 태국서 K-뷰티 알린다…방콕 센트럴월드 팝업 개점

신세계백화점이 동남아 최대 쇼핑 명소인 태국 방콕 '센트럴월드'에서 K-뷰티 브랜드와 함께 글로벌 고객 공략에 나선다. 신세계 하이퍼그라운드는 오는 6일부터 내년 1월 30일까지 방콕 최대 쇼핑몰인 '센트럴월드'에서 K-뷰티 브랜드 15개를 한데 모은 팝업스토어를 연다고 5일 밝혔다. 이번 행사는 동남아 지역에서 급성장 중인 뷰티 시장을 겨냥해 한국의 트렌디한 감성을 담은 신진 브랜드를 현지 소비자에게 직접 소개하고 K-컬처를 결합한 체험형 콘텐츠로 꾸며졌다. 센트럴월드는 하루 평균 15만 명 이상이 찾는 방콕 대표 쇼핑 명소로, 해마다 글로벌 브랜드의 신제품 론칭과 연말 카운트다운 행사가 열리는 핵심 상권에 위치해 있다. 이번 팝업에는 스킨케어부터 메이크업, 향수까지 다양한 카테고리의 15개 국내 K-뷰티 브랜드가 참여한다. 스킨케어 브랜드 '메디필', '글로우', '브이티', '아이레시피', '아이소이', '유이크', '티히히'와 메이크업·향수 브랜드 '뮤드', '삐아', '코랄헤이즈', '키스', '투에이엔', '포렌코즈', '하우스포그', '스킷' 등이 이름을 올렸다. 참여 브랜드들은 국내는 물론 일본, 미국, 동남아 시장에서도 주목받는 신진 브랜드로, 태국 2030세대가 선호하는 비건 원료, 자연주의 콘셉트와 트렌디한 색조 제품 등 최신 뷰티 트렌드를 반영했다. 신세계 하이퍼그라운드는 이번 팝업을 통해 얻은 현지 고객 반응을 바탕으로 내년에는 태국 대형 유통사와 협업을 확대 추진, 국내 신진 브랜드의 글로벌 진출을 지원할 계획이다. 이번 팝업은 한국의 문화를 함께 즐길 수 있는 복합 콘텐츠 행사로 기획된 것이 특징이다. 공간은 '트렌디 & 라이징 K-뷰티'라는 주제에 맞춰 태극 문양과 한국적인 색감을 현대적으로 재해석한 인테리어로 꾸몄다. 한복에서 착안한 옥색·홍색 계열의 컬러를 조화롭게 배치했다. 행사장에서는 윷놀이, 팽이 돌리기, 투호 등 한국 전통 놀이를 직접 체험할 수 있으며, 팝업 오픈을 기념해 7일에는 현지 인기 인플루언서 60여 명을 초청한 '오프닝 나잇'을 열어 한식 디저트와 전통 음료를 제공하는 케이터링 이벤트도 진행한다. 행사 기간 중 '브랜드 위크 존(Brand Week Zone)'을 운영해 브랜드별로 K-아이돌 메이크업 시연, 룰렛 이벤트, 럭키드로우, 포토존 등 다양한 체험형 프로그램을 선보인다. 박상언 신세계백화점 뉴리테일담당 상무는 “올해 7~8월 프랑스 파리 쁘렝땅 백화점에서 진행한 K-뷰티 팝업 및 10월부터 일본 시부야 109에서 진행한 K-패션 팝업이 큰 호응을 얻은데 이어, 이번에는 태국 중심 상권 방콕에서 K-뷰티를 통해 다시 한번 한국의 미를 알리게 됐다”며 “신세계 하이퍼그라운드는 앞으로도 글로벌 고객을 대상으로 K-패션과 뷰티, 문화를 아우르는 'K-라이프스타일 플랫폼'으로 발전시켜 나갈 것”이라고 말했다.

2025.11.05 06:01김민아 기자

하이퍼클로바X·카나나, 'AI 국민비서' 된다…행안부와 공공서비스 혁신 박차

행정안전부가 일상적인 대화로 편리하게 이용할 수 있는 인공지능(AI) 기반 공공서비스 구현을 목표로 네이버·카카오와 손을 맞잡았다. 행안부는 네이버·카카오와 함께 AI 에이전트 기반 공공서비스 혁신을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 이번 협약식에는 윤호중 행안부 장관, 최수연 네이버 대표, 정신아 카카오 대표가 참석했다. 이번 협약에 따라 행안부와 양사는 AI 에이전트 기술을 공공서비스에 선도적으로 적용하고 국민 편의성을 높이는 데 적극 협력키로 했다. 주요 협력 사항은 ▲민간 AI 에이전트와 공공서비스 연계를 위한 기술 방안 마련, 정책과제 발굴 및 제도적 기반 조성 ▲기관 간 협업 및 기술 지원 등을 통한 서비스 연계·확대 ▲서비스 이용 활성화를 위한 홍보 협력 등이다. 특히 민간 AI 에이전트를 통해 공공서비스를 제공하는 'AI 국민비서(가칭)' 시범 서비스를 연내에 구현하는 것을 목표로 한다. AI 국민비서는 세계 최고의 AI 민주정부 실현을 위한 핵심 과제로, 민간 기업의 AI 에이전트에 공공서비스를 연계해 국민이 복잡한 절차 없이 대화만으로 공공서비스를 이용할 수 있도록 지원하는 서비스다. 우선 시범 서비스는 전자증명서 발급·제출, 유휴 공공자원 예약(공유누리) 등 국민 수요가 높은 개별 공공서비스를 중심으로 제공할 예정이다. 네이버는 독자 AI 파운데이션 모델인 '하이퍼클로바X'를 기반으로 AI 에이전트를 구축하고 이를 공공서비스와 연계해 시범 서비스를 구현한다. 해당 서비스는 대표 검색포털인 네이버(웹‧앱)를 통해 제공될 예정이며 맞춤형 추천 기능 등을 더해 이용 편의성을 한층 더 높일 계획이다. 카카오는 자체 거대언어모델(LLM) '카나나' 기반의 AI 에이전트를 공공서비스와 확장성이 높은 개방형 구조로 연동하여 시범 서비스를 구현한다. 국민 메신저인 카카오톡에서 서비스가 제공될 예정이며 유해 콘텐츠 필터링을 위한 AI 가드레일 모델 '카나나 세이프가드'를 적용해 서비스의 편의성과 신뢰도를 높일 계획이다. 시범 서비스를 거친 뒤 향후 생애주기별 생활·행정 업무를 한 번에 처리하는 원스톱 서비스를 구현하고 개인의 상황과 조건에 맞춰 자동으로 처리하는 단계까지 점차 발전시켜 나갈 예정이다. 윤호중 행안부 장관은 "국민이 일상에서 체감할 수 있는 AI 민주정부를 실현하기 위해서는 민간의 혁신적인 기술과 협력이 필수적"이라며 "이번 협약을 계기로 정부와 민간이 함께 힘을 합쳐 국민 누구나 말 한마디로 쉽고 편리하게 공공서비스를 이용할 수 있는 서비스 환경을 만들겠다"고 말했다.

2025.10.28 10:00한정호 기자

'국가대표 AI' 첫 탈락자, 국민 500명 손에 달렸다…정부, 국민평가단 선발 돌입

정부가 국가대표 인공지능(AI) 모델 개발 기업 5곳의 기술을 평가할 국민 500명을 선발한다. 26일 업계에 따르면 과학기술정보통신부는 최근 '독자 AI 파운데이션 모델 프로젝트'의 국민평가단을 모집하는 방안을 내부적으로 검토하고 있다. 선발 인원은 500명으로, 이들은 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등을 주축으로 한 5개 컨소시엄이 개발한 모델을 직접 써보고 평가하게 된다. 앞서 지난 8월 '독자 AI 파운데이션 모델(K-AI)' 사업자로 최종 선정된 5개 컨소시엄들은 오는 12월 말 1차 평가를 앞두고 있다. 정부는 총 2천136억원을 투입하는 이 프로젝트에서 6개월 단위 평가를 거쳐 오는 2027년 상반기까지 최종 2개 팀만 추려낸다는 방침이다. 각 컨소시엄들은 국민·전문가 평가, 벤치마크 등 기반 검증평가(AI안전성 연계), 파생 AI 모델 수 평가 등 입체적인 단계 평가를 거치게 된다. 국민평가단은 정예팀의 첫 탈락 팀을 가르는 1차 평가에 참여한다. 정부는 성별·지역·연령·AI 활용도 등 4가지 기준을 바탕으로 대표성과 다양성을 확보한 평가단을 구성할 계획이다. 성별은 남·녀 250명씩, 지역은 수도권·비수도권 250명씩 절반 비율로 구성할 예정이다. 연령은 20·30·40·50대 및 60대 이상 등 5개 연령층으로 나눠 100명씩 배분한다. AI 활용도별로는 ▲전문직·개발자 등 고도 사용자 100명 ▲사무·교육·콘텐츠 분야 종사자 등 중간 사용자 250명 ▲AI 경험이 적은 초급·관심층 150명으로 구성된다. 정부는 5개 컨소시엄과의 협의를 통해 국민평가단의 구성 기준을 구체화 할 예정이다. 평가단 모집은 다음 달 중 무작위 추첨 방식으로 진행된다. 현장 평가는 오는 12월 30일 서울 강남구 코엑스에서 열리는 '독자 AI 파운데이션 모델 프로젝트 대국민 콘테스트'에서 진행된다. 평가단은 이날 5개 정예팀의 모델 개발 성과 발표를 직접 확인하고 평가한다. 이후 10일간은 각 팀이 개발한 모델을 웹사이트를 통해 직접 사용해보며 사용성 평가를 진행한다. 배경훈 과학기술정보통신부 부총리 겸 장관은 "(5개 컨소시엄들이) 우리 독자 파운데이션 모델을 글로벌 수준으로 만들 수 있다고 생각한다"며 "글로벌 톱10이 아니라 톱2·3 수준까지 도약할 수 있을 것으로 믿는다"고 강조했다.

2025.10.26 18:05장유미 기자

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

10분만에 매진된 핫플 '쿠팡 메가뷰티쇼' 가보니

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.