• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'하이퍼'통합검색 결과 입니다. (74건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI 리더스] 'AI 표준' 만든 이승현 "K-AI 5곳, 모두 승자…톱2 집착 버려야"

"독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 있을 것입니다." 이승현 포티투마루 부사장은 8일 지디넷코리아와의 인터뷰를 통해 최근 독자 AI 파운데이션을 둘러싼 논란에 대해 이같이 정리했다. 오는 15일께 정부가 1차 탈락팀을 결정하기 전 각 업체들이 '이전투구' 양상으로 치닫는 모습을 보이는 것을 두고 정부가 2개팀만 선별해 지원하려는 구조 때문이라고도 진단했다. 또 이번 논란의 본질이 기술 경쟁이 아니라 구조적 문제에 있다고 봤다. 정부가 2개 사업자만 선별해 집중 지원하는 방식이 계속 유지되면 탈락 기업에 과도한 낙인이 찍히고 업계 전체가 방어적·공격적으로 변할 수밖에 없다고 분석했다. 성능 경쟁보다 통제 원칙 우선돼야…소버린 AI 기준 마련 필요 정부는 현재 네이버클라우드와 업스테이지, SK텔레콤, NC AI, LG AI연구원 등 독자 AI 파운데이션 모델 사업자로 선정된 5개 정예팀을 대상으로 1차 심사를 진행 중이다. 탈락팀 1곳은 오는 15일쯤 발표할 예정으로, 정예팀마다 평가 기준이 상이해 업계에선 각 업체별 모델을 두고 유불리 논란이 이어지고 있다. 이 부사장은 "정부 사업에서 탈락하면 해당 팀이 '사망선고'를 받는 것처럼 여겨지는 구조는 바람직하지 않다"며 "톱2만 키우는 방식은 산업 전체를 위축시킬 가능성이 높은 만큼, 선별보다 육성 중심의 정책 전환을 고민해야 한다"고 제언했다. 특히 이번 사업에 참여한 기업 상당수가 대기업 또는 대기업 계열이라는 점에서 1차 탈락이 갖는 파급력은 더 크다고 봤다. 그는 "1차에서 떨어졌다는 이유만으로 '이 정도밖에 못하느냐'는 평가가 붙으면 내부 투자나 그룹 차원의 지원이 위축될 가능성도 배제하기 어렵다"며 "그 부담이 기업을 더욱 공격적인 대응으로 몰아넣는다"고 진단했다.이에 이 부사장은 '선별'이 아닌 '육성'을 초점에 맞춘 정부 정책이 마련될 필요가 있다고 강조했다. 일정 수준 이상의 역량을 입증한 기업들을 여러 트랙으로 나눠 지속적으로 키우는 구조가 필요하다는 것이다. 그는 "영국 등 해외 사례를 보면 한 번 떨어졌다고 끝나는 게 아니라 다른 트랙으로 계속 경쟁과 육성을 이어간다"며 "이번에 선정된 5개 기업 역시 각자 다른 강점과 방향성을 갖고 있는 만큼, 정부가 이들을 '탑위너 그룹'으로 묶어 장기적으로 관리하는 전략이 필요하다"고 말했다.이 부사장은 소버린 AI를 둘러싼 논의 역시 '전면 강제'가 아니라 '위험 구간에서의 원칙'으로 재정의해야 한다고 강조했다. 글로벌 모델과의 성능 경쟁을 목표로 삼기보다 투명성을 바탕으로 통제 가능성과 주권 확보가 필요한 영역에서 전략적으로 활용해야 한다고 주장했다. 그는 "공공 영역만 보더라도 정보 등급에 따라 활용 원칙이 달라야 한다"며 "오픈 데이터나 공개 서비스 영역에서는 글로벌 모델이나 경량화 모델을 활용할 수 있지만, 민감정보·보안 등급으로 올라갈수록 소버린 모델을 원칙으로 삼는 방식이 합리적"이라고 말했다. 그러면서 "다만 소버린을 내세워 모든 것을 자체 모델로만 해결하려는 접근은 현실적이지 않다"며 "필요할 경우 월드모델 활용 등을 통해 안전한 방식의 연계·상호운용을 함께 고민해야 한다"고 덧붙였다. AI 정책, 구조적 한계 여실…공공 클라우드 전환 선행돼야 이처럼 이 부사장이 분석한 이유는 과거 공공 정책 현장에서 직접 경험한 구조적 한계가 지금도 크게 달라지지 않았다고 판단해서다. 그는 디지털정부플랫폼위원회 재직 당시부터 AI 시대를 준비하기 위해 공공 시장의 클라우드 전환이 선행돼야 한다고 꾸준히 주장해왔다. 이 부사장은 "지난 2022년 3월 무렵부터 공공이 AI 시대를 이야기하면서도 정작 기반이 되는 클라우드 전환은 제대로 이뤄지지 않는 점이 가장 큰 한계라고 봤다"며 "AI를 서비스(SaaS) 형태로 도입하려면 클라우드가 전제가 돼야 하는데, 공공 영역의 전환 속도가 이를 따라가지 못했다"고 설명했다. 그는 이에 대한 원인으로 ▲클라우드 전환 지연 ▲예산·제도 구조 ▲관료제의 연속성 부족을 꼽았다. 이 부사장은 "정부 예산 구조상 ISP 등 절차를 거치면 최소 2~3년이 소요되는데, 이 방식으로는 빠르게 변하는 AI 흐름을 따라가기 어렵다"며 "AI처럼 중장기 전략이 필요한 분야에서 담당 보직이 자주 바뀌면 학습 비용이 반복되고 정책 추진의 일관성도 흔들릴 수밖에 없다"고 지적했다. 또 그는 "이 때문에 국가AI전략위원회와 같은 컨트롤타워 조직에는 보다 실질적인 권한과 연속성이 필요하다"며 "전문가 의견을 모으는 데서 그치지 않고, 부처 간 정책을 조정하고 실행으로 연결할 수 있도록 조직에 힘을 실어줘야 한다"고 강조했다.다만 이 부사장은 제도 개선의 필요성을 강조하는 것만으로는 AI 정책의 한계를 넘기 어렵다고 봤다. 정책이 실제 서비스와 산업 현장으로 이어지지 못하는 구조가 반복되고 있다고 판단해서다. 이에 디지털플랫폼정부위원회 AI플랫폼혁신국장을 맡았던 이 부사장은 지난 달 포티투마루로 자리를 옮겼다. 이곳에서 공공 정책 설계 경험을 바탕으로 공공·민간 영역에서 AI가 실제 서비스로 구현되고 확산되는 구조를 만드는 데 직접 기여할 것이란 각오다. 또 공공 AI 활용 사례를 통해 스타트업과 중소기업이 함께 성장할 수 있는 실증 모델을 만드는 데도 집중할 계획이다. 이 부사장은 "4년간 공공 영역에서 AI 정책을 다루며 나름대로 전문성을 쌓았다고 생각했지만, 실제 현장에서는 또 다른 병목이 존재하고 있다고 판단됐다"며 "AI 강국이 되려면 결국 국민이 체감해야 한다"고 지적했다.이어 "공공 영역에서 AI를 통해 일하는 방식 혁신을 통해 생산성을 높이고, 대국민 서비스의 속도와 품질을 개선하며 의료·복지 등 사회 문제 해결로 이어져야 가능한 일"이라며 "포티투마루를 통해 공공 AI가 실제로 작동하는 사례를 만들고, 스타트업과 중소기업이 함께 성장할 수 있는 구조를 현장에서 증명하고 싶다"고 덧붙였다. 그러면서 "국내 소프트웨어 산업은 여전히 공공이 큰 축을 차지하고 있는데, 공공 시장이 SI 중심 구조에 머물러 있다 보니 스타트업이 성장할 수 있는 발판이 제한적"이라며 "영국 등은 정부가 클라우드 기반으로 전환하면서 스타트업들이 공공 시장에 자연스럽게 진입했지만, 한국은 제도와 조달 구조가 이를 가로막고 있다"고 지적했다. 소버린 AI 등급체계 직접 개발…'국산 AI' 논쟁 끝낼까 지난 6일 소버린 AI 기준 논의를 위해 직접 평가 기준과 이를 판별할 도구를 개발해 허깅페이스에 공개한 것도 이 같은 문제에 대한 고민에서 출발했다. 그는 소버린 AI 등급 체계인 'T-클래스 2.0'을 깃허브와 허깅페이스에 공개하며 막연한 '국산 AI' 구호로는 기술 주권을 설명할 수 없다는 점을 분명히 했다. 이 부사장이 제안한 'T-클래스 2.0'은 기존 논의와 달리 '설계(Code)', '지능(Weights)', '기원(Data)' 등 세 가지 실체적 기준을 중심으로 AI 모델을 T0부터 T6까지 7단계로 구분한다. ▲단순 API 호출 및 미세조정 수준(T0~T1) ▲오픈 웨이트를 활용한 과도기 모델(T2~T3) ▲소버린 AI의 기준점이 되는 아키텍처를 참조하되 가중치를 처음부터 자체 학습한 T4 ▲독자 설계 아키텍처와 한국어 토크나이저를 갖춘 T5 ▲국산 반도체·클라우드까지 결합한 T6 등으로 분류됐다. 이 중 T4를 T4-1과 T4-2로 세분화한 것이 기존 버전과의 차별점이다. T4-1은 표준 아키텍처를 그대로 유지한 채 가중치를 처음부터 학습한 모델이다. 데이터 주권은 확보했지만, 구조적 독창성은 제한적인 단계다. 반면 T4-2는 기존 아키텍처를 참고하되 레이어 구성, 파라미터 규모, 연산 구조 등을 최적화·확장한 모델로, 글로벌 표준을 활용하면서도 기술 주권까지 일정 수준 확보한 단계로 분류된다. 이 부사장은 "T4-1이 '데이터 소버린' 단계라면, T4-2는 '기술 소버린'에 한 발 더 다가간 모델"이라며 "현재 국내 독자 AI 파운데이션 모델로 선정된 팀 대부분은 모두 T4-2 영역에 해당하는 질적 변형을 수행했다는 점에서 충분히 평가받아야 한다"고 말했다. 이어 "아키텍처는 이미 범용 기술이 됐지만, 가중치는 국가가 소유해야 할 자산"이라며 "T4는 아키텍처라는 그릇을 빌리더라도 데이터와 연산, 결과 지능을 우리가 통제하는 실질적 소버린 모델"이라고 덧붙였다. 일각에서 독자 아키텍처(T5)까지 가야 진짜 소버린으로 인정할 수 있다는 주장에 대해선 "현실을 외면한 기술적 순혈주의"라고 선을 그었다. 또 수백억원을 들여 아키텍처를 처음부터 다시 만들어도 글로벌 표준 모델 대비 성능 우위를 확보하기는 쉽지 않다는 점도 분명히 했다. 이 부사장은 "대다수 기업에게는 아키텍처 재발명보다 고품질 데이터와 학습 인프라에 집중하는 것이 더 합리적인 전략"이라며 "T4는 산업의 허리를 튼튼하게 만드는 표준 전략이고, T5는 국가 안보와 기술 패권을 겨냥한 리더십 전략으로 두 트랙이 함께 가야 생태계가 건강해진다"고 강조했다. 이 기준을 구현한 '소버린 AI 판별 도구(Sovereign AI T-Class evaluator 2.0)'를 직접 개발해 공개한 이유에 대해서도 그는 투명성을 거듭 강조했다. 이 부사장은 "AI 개발은 참조와 변형의 경계가 매우 모호한 회색지대"라며 "명확한 가이드 없이 결과만 놓고 개발자를 비난하는 것은 부당하다"고 말했다. 그러면서 "기준이 없으니 불필요한 논쟁과 감정 싸움만 커진다"며 "누구나 같은 잣대로 설명할 수 있는 최소한의 공통 기준이 필요하다고 판단했다"고 덧붙였다. 실제로 해당 기준 공개 이후 업계에서는 "왜 이제야 이런 기준이 나왔느냐", "사실상 표준으로 삼을 만하다"는 반응이 이어지고 있다. 또 정부에서 이 부사장이 만든 'T-클래스 2.0'을 바탕으로 독자 AI 파운데이션 모델의 평가 기준이 구체적으로 만들어져 심사 투명성을 높여야 한다는 지적도 나왔다. 이 같은 분위기 속에 이 부사장은 독자 AI 논의가 현재 단계에만 머물러서도 안 된다고 지적했다. 또 현재의 혼란이 단기적인 사업 논쟁이 아니라 AI를 국가 전략 차원에서 어떻게 바라볼 것인가에 대한 더 큰 질문으로 이어지고 있다고 봤다. 그는 "독파모가 보여주기식 경쟁이나 단기 성과에 머물면, 월드모델·디지털 트윈·피지컬 AI로 이어지는 다음 스테이지를 놓칠 수 있다"며 "국가 R&D는 지금보다 한 단계 앞을 내다보는 구조여야 한다"고 강조했다. AGI 시대, 5년 내 현실화…AI 국가 전략, 체계적 마련 필요 이 부사장은 AI 경쟁의 종착점을 단기적인 모델 성능 비교에 두는 것 자체가 위험하다고도 경고했다. 그는 AGI(범용인공지능)가 5년 안에 현실화될 가능성이 높다고 전망하며 그 이후를 대비하지 않는 전략은 국가 차원에서도 지속 가능하지 않다고 지적했다. 그는 "AGI는 단순히 모델이 더 똑똑해지는 문제가 아니라 기억 구조와 추론 방식이 인간의 뇌를 닮아가는 단계"라며 "지금 구글이 시도하고 있는 중첩학습처럼 단기·중기·장기 기억을 분리·결합하는 구조는 거대언어모델(LLM) 이후를 준비하는 명확한 신호"라고 말했다. 그러면서 "글로벌 빅테크들은 이미 다음 스테이지를 보고 있다"며 "하지만 우리는 아직 현재 모델이 프롬 스크래치냐 아니냐에만 머물러 있는 건 아닌지 돌아봐야 한다"고 덧붙였다. 이 부사장은 AGI와 ASI(초지능)를 막연한 공포의 대상으로 보는 시각에도 선을 그었다. 그는 "인류는 오래전부터 인간을 능가하는 지능이 등장해 우리가 해결하지 못한 문제를 풀어주길 기대해왔다"며 "중요한 것은 AGI·ASI 자체가 아니라 그것을 어떤 문제 해결을 위해 어떻게 통제하고 활용할 것인가에 대한 고민"이라고 봤다. 이어 "AI를 두려워하기보다 인류 난제 해결이라는 방향성 속에서 통제권을 쥐는 것이 국가 전략의 핵심"이라고 강조했다. 이 부사장은 이 같은 고민을 담아 다음 달께 'AI 네이티브 국가'를 출간할 계획이다. 이 책에는 모델 개발을 넘어 지정학, 경제, 복지, 산업 구조 전반에서 AI가 국가 경쟁력을 어떻게 재편하는지에 대한 고민을 고스란히 담았다. 또 메모리 반도체, 제조 데이터, 클라우드 인프라를 동시에 보유한 한국의 구조적 강점을 짚으며 AI 시대에 한국이 '풀스택 국가'로 도약할 수 있는 전략도 함께 제시할 계획이다. 그는 "국내 AI 논의가 기술 우열이나 모델 성능에만 매몰돼 있는 흐름을 벗어나고 싶었다"며 "같은 기술이라도 국가가 어떤 전략을 취하느냐에 따라 결과는 전혀 달라질 수 있다는 점을 책을 통해 정리하고 싶었다"고 설명했다.마지막으로 그는 "AI를 둘러싼 지금의 혼란은 누군가가 틀렸기 때문이 아니라 기준과 구조가 없었기 때문"이라며 "논쟁을 줄이고 경쟁을 건강하게 만들 수 있는 최소한의 합의점을 만드는 데 앞으로도 계속 목소리를 낼 것"이라고 피력했다.

2026.01.08 10:10장유미

네이버클라우드, 부산에 생성형 AI 행정 서비스 전면 적용…공공 AX 주도

네이버클라우드가 공공부문 인공지능(AI) 행정 표준 모델을 정립하며 AI 전환(AX) 주도에 나선다. 네이버클라우드는 부산광역시와 함께 생성형 AI를 활용한 행정 서비스를 올해 본격 도입한다고 5일 밝혔다. 하이퍼클로바X를 활용한 부산시 특화 AI 구축, 업무 협업툴 네이버웍스 도입 등 보유 중인 다양한 AI 서비스를 활용해 부산시는 행정 업무 수행 방식 전반을 개선하고 AI 기반 행정 전환을 체계적으로 추진한다는 계획이다. 이를 위해 양 기관은 지난해 4월부터 '부산형 AI 서비스 도입' 사업을 추진했으며 올해부터는 부산시 전 부서의 AI 도입을 시작한다. 향후 3년간 기술 고도화와 서비스 확산을 단계적으로 추진해 부산형 AI 행정 서비스를 공공 AI 행정의 표준 모델로 완성해 나가는 것이 목표다. 첫 단계로 부산시는 지난해 네이버클라우드의 경량화 AI 모델인 하이퍼클로바X 대시를 기반으로 부산시 특화 AI 모델 구축에 착수해 행정 규정과 사례, 지역 정보 등 약 16만 건에 달하는 행정 데이터를 학습시키며 신속한 행정 처리가 가능한 환경을 마련했다. 이후 모델 업그레이드를 통해 질의응답의 정확성과 전문성을 높였으며 올해 초에는 전 부서 약 6천 명을 대상으로 실제 서비스를 확대 운영한다. 해당 서비스는 생성형 AI를 활용해 법령·지침·업무 자료 등을 기반으로 한 질의응답은 물론 정책·보고서 초안 작성 등 총 22종의 행정 서비스를 제공한다. 내부 자료를 활용한 자체 AI 모델을 구축해 공공 분야에서 요구되는 보안성과 신뢰성을 확보한 것이 특징이다. 부산시는 AI 행정 서비스의 실효성을 높이고 메신저 기반 협업 환경을 조성하기 위해 네이버클라우드의 AI 업무 협업도구인 네이버웍스도 사용 중이다. 부산시는 지난해 9월 국가정보자원관리원 화재 사고 시 네이버웍스를 신속하게 도입해 행정 업무 공백을 최소화한 바 있다. 특히 회사 측에 따르면 부산시 특화 AI 서비스 'AI 부기 주무관'을 네이버웍스에 챗봇 형태로 구현해 공무원들의 큰 호응을 얻었다. AI 부기 주무관은 내부 행정 데이터와 온나라, 외부 기관 사이트에서 수집한 정보를 기반으로 질의응답을 통한 내부 문서 추천·요약은 물론 11종의 문서 초안 작성, 외부 리서치 등 개인 비서형 AI 행정 업무를 지원한다. 직원 간 전화 응대 최소화, 반복적인 단순 행정 업무를 AI가 보조함으로써 공무원이 본질적인 업무에 집중할 수 있는 환경을 구현하고 민원 응대 정확도를 높였다는 설명이다. 김유원 네이버클라우드 대표는 "이번 부산시와의 행정 AI 혁신은 생성형 AI를 실제 행정 업무에 적용해 업무 방식 자체를 전환한 공공 거버넌스 테크의 대표적 사례"라며 "앞으로도 공공기관이 안전하고 신뢰할 수 있는 방식으로 AI를 활용할 수 있도록 기술 고도화와 서비스 확산을 적극 지원하겠다"고 말했다.

2026.01.05 16:08한정호

[유미's 픽] "주사위는 던져졌다"…국대 AI 첫 탈락자, 1차 발표회서 판가름?

우리나라를 대표할 인공지능(AI) 모델을 선발하는 정부 사업 '독자 AI 파운데이션 모델 프로젝트'의 첫 결과물이 공개된 가운데 어떤 기업이 이번 심사에서 살아남을지 관심이 집중된다. 각 사업자들이 내세운 모델의 성과가 달라 정부가 심사기준을 어떻게 세웠을지도 관심사다. 31일 업계에 따르면 네이버, LG AI연구원, SK텔레콤은 AI 임원, NC AI와 업스테이지는 대표가 지난 30일 오후 2시부터 서울 강남구 코엑스에서 개최된 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참여했다. 발표는 네이버를 시작으로 NC AI, 업스테이지, SK텔레콤, LG AI연구원 순서로 진행됐다. 독자 AI 파운데이션 모델 프로젝트는 그래픽처리장치(GPU)와 데이터 등 자원을 집중 지원해 국가 대표 AI 모델을 확보하는 정부 사업이다. 과학기술정보통신부는 이번 발표를 기반으로 심사를 통해 내년 1월 15일 1개 팀을 탈락시키고, 이후에도 6개월마다 평가를 거쳐 2027년에 최종 2개 팀을 선정한다. 모델 성과 제각각…정부 심사 기준이 관건 이번 심사에선 각 팀이 주어진 공통 과제를 얼마나 잘 수행했는지, 각자 제시한 목표대로 성과를 냈는지가 관건이다. 모든 팀은 최근 6개월 내 공개된 글로벌 최고 모델 대비 95% 이상의 성능을 달성해야 하는 과제가 주어진 상태다.지난 8월 정예팀으로 선정된 지 4개월만에 첫 성과를 공개해야 하는 만큼, 개발 시간이 부족한 상황에서 각자 기술력을 얼마나 끌어올렸을지도 관심사다. 각 팀의 GPU 지원 여부, 지원 받은 시기 등이 각각 달랐다는 점에서 정부가 이를 심사 시 고려할 지도 주목된다. 이번 프로젝트를 위해 SK텔레콤과 네이버클라우드는 정부에게 GPU를 임대해주고 있다. 이 탓에 두 업체는 올해 '독자 AI 파운데이션 모델 프로젝트' 진행 시 정부로부터 GPU를 지원 받지 못했다. SK텔레콤은 엔비디아의 B200 칩 1천24장을 업스테이지와 LG AI연구원에, 네이버클라우드는 H200 칩 1천24장을 NC AI에 지원하고 있다. 이 탓에 GPU가 각 업체에 지원된 시기는 다 달랐다. 업계에선 정부가 어떤 기준을 세울지에 따라 각 팀의 승패가 갈릴 것으로 봤다. 정부는 그간 5개팀과 여러 차례 만나 평가 기준에 대해 논의 후 이달 중순께 합의를 보고 공지했으나, 어떤 팀이 탈락할 지에 따라 여전히 논란의 불씨가 많은 것으로 알려졌다. 업계 관계자는 "당초 5개 팀이 선정될 당시 정부에 제시했던 목표치를 달성했는지가 가장 중요할 것"이라며 "각 팀이 목표로 하고 있는 모델의 크기, 성능, 활용성이 제각각인 만큼 목표 달성률을 가장 중요한 기준치로 삼아야 할 것"이라고 강조했다. 이어 "벤치마크를 활용한다는 얘기가 있지만 모델 크기가 클수록 다운로드 수 측면에서 불리할 수 있어 이를 객관적 기준으로 삼기에는 다소 무리가 있을 수 있다"며 "5개 팀과 정부가 어떤 기준에 대해 합의를 했는지, 어떤 전문가를 앞세워 심사에 나설지도 주목해야 할 부분"이라고 덧붙였다. 5개 팀 첫 성과 공개…프롬 스크래치·모델 크기·활용성 주목 이번 1차 결과 공개에서 가장 주목 받는 곳은 업스테이지다. 대기업 경쟁자들 사이에서 짧은 시간 내 '프롬 스크래치(From Scratch)'를 기반으로 가성비 최고 수준인 모델을 완성도 높게 공개했다는 점에서 많은 이들의 호응을 얻었다. 프롬 스크래치는 AI 모델을 처음부터 직접 개발한다는 뜻으로, 데이터 수집과 모델 아키텍처 설계, 학습, 튜닝까지 모든 것을 자체적으로 수행하는 방식이다. 이 개념은 거대언어모델(LLM) 개발 때 많이 언급되며 아무 것도 없는 상태에서 모델을 직접 설계하고 데이터를 수집 및 전처리해 학습시킨다는 점에서 이를 통해 AI 모델을 선보일 경우 기술력이 상당히 높다고 평가를 받는다. 오픈AI의 'GPT-4'나 구글 '제미나이', 메타 '라마', 앤트로픽 '클로드' 등이 여기에 속한다. 업스테이지는 이날 독자 파운데이션 모델 '솔라 오픈 100B'를 LM 아레나 방식으로 해외 유명 모델들과 비교해 공개하며 자신감을 표출했다. 특히 발표에 직접 나선 김성훈 대표가 '솔라 오픈 100B'를 개발하게 된 과정을 스토리텔링 형식으로 발표해 호응을 얻기도 했다. 김 대표는 향후 200B, 300B 모델과 함께 멀티모달 모델도 선보일 예정이다.업계 관계자는 "김 대표가 발표 때 딥 리서치나 슬라이드 제작 등 코딩 외에 실제로 현장에서 많이 써봤을 것 같은 서비스를 직접 라이브 데모로 보여준 부분이 인상적이었다"며 "504장의 B200 GPU로 두 달 남짓 훈련한 것을 고려하면 모델 크기나 사용된 토큰수(추정)를 정말 빡빡하게 잘 쓴 게 아닌가 싶다"고 평가했다. 이승현 포티투마루 부사장은 "(업스테이지 발표 때) 솔라 프로가 'GPT-4o-미니'나 '파이-3 미디엄'보다 벤치마크가 높아 동급 사이즈에선 가장 우수하다고 했는데, 실제 가성비가 최고 수준인 것으로 보인다"며 "당장 기업들이 가져다 쓰기에도 좋을 것 같다"고 말했다. 이어 "그동안 업스테이지의 상징과도 같았던 DUS(구조 일부를 변경해 자체화한 AI 모델 개발 방식)를 넘어 프롬 스크래치로 모델을 개발했다는 점이 인상적"이라며 "기술 리포트가 없는 게 아쉽지만, 모델 카드에 프롬 스크래치를 기재한 것과 함께 API도 공개해 자신감을 드러낸 것이 국가대표로 내세우기 적합해 보였다"고 덧붙였다. 배경훈 과학기술정보통신부 부총리 겸 장관을 배출한 LG AI연구원도 이번 발표가 끝난 후 개발 중인 모델이 국가대표로 인정받기에 손색이 없다는 평가를 받았다. 이곳은 '엑사원 4.0' 아키텍처를 기반으로 파라미터 크기를 약 7배 키워 초기화한 상태에서 새로 학습시킨 'K-엑사원'을 이번에 공개했다. 'K-엑사원'은 매개변수 236B 규모의 프런티어급 모델이다. LG AI연구원에 따르면 'K-엑사원'은 개발 착수 5개월 만에 알리바바의 '큐웬3 235B'를 뛰어 넘고 오픈AI의 최신 오픈 웨이트 모델을 앞서 글로벌 빅테크 최신 모델과 경쟁할 수 있는 가능성을 입증했다. 글로벌 13개 공통 벤치마크 평균 성능 대비 104%를 확보했다는 점도 눈에 띄는 요소다. LG AI연구원은 "기존 엑사원 4.0 대비 효율성을 높이면서도 메모리 요구량과 연산량을 줄여 성능과 경제성을 동시에 확보했다"며 "특히 전문가 혼합 모델 구조(MoE)에 하이브리드 어텐션 기술을 더해 메모리 및 연산 부담을 70% 줄이고, 고가의 최신 인프라가 아닌 A100급 GPU 환경에서 구동할 수 있도록 했다"고 설명했다. 이곳은 향후 조 단위 파라미터 규모 글로벌 최상위 모델과 경쟁할 수 있도록 성능을 고도화한다는 계획이다. 또 글로벌 프론티어 AI 모델을 뛰어넘는 경쟁력을 확보해 한국을 AI 3강으로 이끌 것이란 포부도 드러냈다. 이번 발표를 두고 업계에선 LG AI연구원이 5개 팀 중 기술적인 내용이 가장 많이 들어있어 신뢰도가 높았다고 평가했다. 또 추론 강화를 위해 아키텍처를 변형하고 커리큘럼 러닝을 적용했다는 점에서 모델이 '프롬 스크래치'임을 명백히 보여줬다고 평가했다. 다만 동일 아키텍처인 32B 모델의 리포트와 가중치만 공개돼 있고, 이번 모델인 236B는 공개하지 않았다는 점은 아쉬운 대목으로 지적됐다. 업계 관계자는 "'K-엑사원'은 구조, 가중치가 완전 국산이란 점에서 통제권과 설명 가능성이 충분히 확보돼 있다고 보인다"며 "국방, 외교, 행정망 등 국가 핵심 인프라에 충분히 쓰일 수 있을 듯 하다"고 말했다. 그러면서도 "이번 발표에서 자체 MoE나 하이브리드 어텐션(hybrid attention, 효율·성능을 위해 다양한 어텐션 방식을 상황별로 혼합한 구조), 아가포(AGAPO, 어텐션·파라미터 사용을 입력에 따라 동적으로 조절하는 내부 최적화 기법) 같은 기술들에서 인상 깊은 것이 없다는 것은 아쉽다"며 "다음에는 실질적 효과에 대한 정량적 수치가 잘 기술되면 좋을 듯 하다"고 덧붙였다.이에 대해 LG AI연구원 관계자는 "모델 제출 마감이 이번 주까지여서 제출 시점에 236B 모델을 공개할 것"이라며 "이 때 테크 리포트로 세부 사항도 담을 예정"이라고 설명했다. SK텔레콤도 이번 발표에서 많은 이들의 주목을 받았다. 짧은 시간 안에 국내 최초로 매개변수 5천억 개(500B) 규모를 자랑하는 초거대 AI 모델 'A.X K1'을 공개했기 때문이다. 특히 모델 크기가 경쟁사보다 상당히 크다는 점에서 AI 에이전트 구동 등에서 유리한 고지에 있다는 일부 평가도 나오고 있다. SK텔레콤은 모델 크기가 성능과 비례하는 AI 분야에서 한국이 AI 3강에 진출하려면 500B 규모의 AI 모델이 필수적이란 점을 강조하며 톱2까지 오를 것이란 야심을 드러내고 있다. 또 SK텔레콤은 모두의 AI를 목표로 기업과 소비자간 거래(B2C)와 기업간거래(B2B)를 아우르는 AI 확산 역량도 강조했다. 여기에 SK하이닉스, SK이노베이션, SK AX 등 관계사와 협업으로 한국의 AI 전환에 이바지하겠다는 포부도 밝혔다. 다만 일각에선 프롬 스크래치로 모델을 개발했는지에 대한 의구심을 드러내고 있어 심사 시 이를 제대로 입증해야 할 것으로 보인다. SK텔레콤은 MoE 구조라고 강조했으나, 각 전문가 모델들이 자체 개발인지, 오픈소스 튜닝인지 밝히지 않아 궁금증을 더했다. 또 모델카드는 공개했으나, 테크니컬 리포트를 공개하지 않았다는 점도 의구심을 더했다. 이승현 포티투마루 부사장은 "MoE 구조를 독자 개발했다면 보통 자랑스럽게 논문을 내는 것이 일반적"이라며 "SKT가 'A.X 3.1(34B)'라는 준수한 프롬 스크래치 모델이 있으나, 이를 15개 정도 복제해 MoE 기술로 묶은 것을 이번에 'A.X K1'으로 내놓은 것이라면 혁신은 아니라고 보여진다"고 평가했다. 이어 "정량적 벤치마크보다 서비스 적용 사례 위주로 발표가 돼 기술적 성취보다 '서비스 운영 효율'에 방점이 찍힌 듯 했다"며 "SKT가 'A.X 3.1' 모델 카드에 프롬 스크래치를 분명히 명시했지만, 이번에는 명시하지 않아 소버린 모델로 활용할 수 있을지에 대해선 아직 판단이 이르다"고 덧붙였다. 이에 대해 SKT는 다소 억울해하는 눈치다. 프롬 스크래치로 개발을 한 사실이 명백한 만큼, 조만간 발표될 테크니컬 리포트를 통해 일각의 우려를 해소시킬 것이란 입장이다. SKT 관계자는 "모델 카드에 밝혔듯 A.X K1은 192개의 소형 전문가(expert)를 가지는 MoE 구조로, A.X 3.1 모델을 단순히 이어 붙여서 만들 수 없는 복잡한 구조인 만큼 처음부터 프롬 스크래치로 학습됐다"며 "관련 세부 내용은 이달 5일 전후 테크니컬 리포트를 통해서 공개할 예정"이라고 밝혔다. 업계 관계자는 "SKT가 500B 모델을 만든다는 것을 사전에 알고 우려가 많았지만, 다른 팀에 비해 성공적으로 압도적으로 큰 모델을 공개했다는 것 자체는 굉장히 인상적"이라며 "내년 상반기까지 정부에서 지원하는 GPU를 쓰지 않기 때문에 SKT가 얼마나 많은 GPU를 투입했는지 알 수는 없지만, 500B를 충분히 학습하기에는 (성능을 끌어 올리기에) 시간이 부족했을 것 같다"고 말했다. 그러면서도 "2T까지 만들겠다는 포부는 높이 평가한다"며 "성공적인 2T 모델이 나오기를 기대한다"고 부연했다. 네이버클라우드는 국내 최초 네이티브 옴니모달 구조를 적용한 파운데이션 모델 '하이퍼클로바 X 시드 8B 옴니'를 오픈소스로 공개하며 자신감을 드러냈다.이곳은 독자 AI 파운데이션 모델 전략 핵심으로 텍스트·이미지·음성을 통합한 '옴니 모델'을 제시했다. 옴니 모델은 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 형태를 하나의 모델에서 동시에 학습하고 추론하는 구조다. 사후적으로 기능을 결합하는 방식이 아닌, 처음부터 모든 감각을 하나의 모델로 공동 학습시키는 점이 기존 모델과의 차별점이다. 또 네이버클라우드는 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 고성능 추론모델 '하이퍼클로바 X 시드 32B 씽크'도 오픈소스로 공개했다. 이 모델은 올해 대학수학능력시험(수능) 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 성낙호 기술총괄은 "옴니 모델 기반 구조는 그래프·차트·이미지 등 시각 정보 해석에서 별도의 광학문자인식(OCR)이나 복수 모델 호출이 필요 없다"며 "개발과 운영 구조가 단순해지면서 구축 비용과 서비스 확장 부담도 크게 낮출 수 있다"고 강조했다. 업계에선 네이버클라우드의 발표를 두고 실제 '애니-투-애니(Any-to-Any) 모델'을 작은 사이즈로 공개한 부분에 대해 인상적이라고 평가했다. '애니-투-애니 모델'은 입력과 출력의 모달리티(형식)를 가리지 않고 어떤 조합이든 처리할 수 있는 멀티·옴니모달 모델이다. 또 유일하게 '덴스(Dense) 모델'을 썼다는 점도 주목을 받았다. '덴스 모델'은 모든 파라미터가 매번 계산에 참여하는 전통적인 모델 구조로, 어떤 것을 입력하든지 항상 같은 경로로 계산이 돼 지연 시간과 비용이 MoE에 비해 안정적이라고 평가된다. 이로 인해 네이버클라우드는 경쟁사들에 비해 전체 파라미터 수는 굉장히 작아 평가 시 다소 불리한 위치에 놓여 있다는 의견도 있다. 당초 1차 심사 때 14B를 선보일 것이라고 목표했던 것과 달리 모델 크기가 8B에 그쳤다는 점도 아쉬운 점으로 지목됐다. 업계 관계자는 "네이버가 태생부터 멀티모달인 '네이티브 옴니' 아키텍처를 설계했다는 점에서 방향성이 완벽하고 독자모델로도 입증을 했지만, 경량 모델을 공개했다는 점이 아쉽다"며 "거대 모델로 스케일업 했을 때의 추론 능력과 비용 효율성이 아직 검증되지 않았다는 것이 우려된다"고 짚었다. 이어 "옴니모달은 구글, 오픈AI도 지향하는 최신 아키텍처"라며 "네이버가 이를 '패치워크(여러 모델 붙이기)'가 아닌 '네이티브'로 구현했다고 강조했다는 점에서 소버린 모델로는 충분한 가치가 있다"고 덧붙였다. NC AI는 이연수 대표가 직접 발표에 나서 산업 특화 AI를 위한 파운데이션 모델 '베키(VAETKI)'를 소개했다. 또 1단계 추진 과정에서 고품질 한국어·산업 특화 데이터를 확보하고 100B급 LLM 개발도 마쳤다고 공개했다. NC AI에 따르면 현재 베키는 제조·물류·공공·국방·콘텐츠 등 28개 이상 산업 현장에 적용돼 실질적인 성과를 창출하고 있다. NC AI는 AI 모델 바로크에 3차원(3D) 생성 기술이 결합된 바로크 3D를 활용해 전 산업군에 최적화된 버티컬 AI 설루션을 제공한다는 계획이다. 이 대표는 "우리는 1차로 100B(1천억 개)급 파운데이션 모델의 틀을 마련했다"며 "2차에서 200B, 3차에서 300B급으로 글로벌 모델급 성능을 달성하려고 한다"고 강조했다. 업계에선 NC AI의 이번 발표를 두고 경쟁력 있는 모델을 다수 보유하고 있는 것에 비해 전달력이 미흡했다고 평가했다. 100B 모델과 함께 서비스에 특화된 7B, 20B, VLM 7B까지 다양한 모델을 준비했으나, 발표 구성이 미흡해 강점이 충분히 전달되지 못했다는 의견도 나왔다. 업계 관계자는 "NC AI의 텍스트로 3D 에셋을 만드는 성능은 확실한 산업적 가치를 보여주지만, 그 이상의 것은 없어 아쉽다"며 "100B 모델을 기반으로 게임에 특화된 AI 활용을 좀 더 많이 보여줬다면 훨씬 좋았을 것 같다"고 말했다. 성과 확인 '끝'…1차 발표회 호평 속 투명한 검증 '과제' 업계에선 이번 1차 발표회의 전반적인 진행에 대해 긍정적인 평가와 함께 정부가 앞으로 조금 더 구체적인 국가대표 AI 육성 평가를 내놓을 필요가 있다고 지적했다. 이번 발표회에서 소버린 AI를 강조하는 곳은 많지만, 그 실체를 증명하는 기준이 조금 느슨해보였다는 평가도 나왔다. 업계 관계자는 "이번 발표회에서 각 팀들이 얼마나, 어떻게 혁신적인 모델을 개발해 공개했는지에 대한 구체적인 설명이 없어 아쉬움이 컸다"며 "단순한 제품 홍보 발표회 느낌을 많이 받았지만, 단기간에 모든 팀이 굉장한 일을 정부 지원을 토대로 해냈다는 것에 대해선 기대감을 가지게 했다"고 밝혔다. 이어 "최소 100B급 이상의 모델을 학습시킬만한 인프라 운용과 더불어 학습 노하우를 갖추고 있어 보여 좋았다"며 "단기간 내 실험 시간의 물리적 제한이 있었음에도 기본적으로 초거대 AI 모델을 학습시킬 기본 역량은 대부분 갖췄다고 보여져 놀라웠다"고 덧붙였다. 그러면서도 "2차 발표에선 오거나이징 하는 측에서 명확한 발표 가이드를 제시해주면 더 좋을 것 같다"며 "김성훈 업스테이지 대표의 말처럼 국민 세금이 많이 투입되고 있기 때문에 짧지만 굉장히 효과적인 발표회가 앞으로도 진행될 수 있길 바란다"고 언급했다. 또 다른 관계자는 "독자 AI 파운데이션 모델의 핵심은 어떤 데이터로, 어떤 아키텍처를 써서 어떤 방식으로 학습했는지가 투명해야 한다"며 "그 결과물은 글로벌 시장에서 통할 수 있는 객관적 수치로 증명돼야 하고, 각 팀들은 기술 리포트와 모델 카드를 의무적으로 공개해야 제대로 프롬 스크래치로 개발했는지 검증할 수 있다"고 강조했다. 그러면서 "프롬 스크래치가 만능은 아니지만 투명성은 필수"라며 "무늬만 국가대표가 아닌 실력 있는 국가대표를 가려내기 위해선 마케팅의 거품을 걷어내고 기술의 족보를 따지는 엄격한 검증 시스템이 필요하다고 본다"고 덧붙였다.

2025.12.31 17:59장유미

'국가대표 AI' 1차전 D-1…'왕좌' 노린 네이버, 옴니모달 모델 공개로 격차 벌린다

정부 주도로 추진되고 있는 '독자 인공지능(AI) 파운데이션 모델' 개발 사업 첫 성과 발표를 앞두고 네이버클라우드가 새로운 무기를 공개했다. 국내 첫 네이티브 옴니모달 구조를 적용한 파운데이션 모델이란 점에서 이번 심사에서 유리한 고지에 오를 수 있을지 주목된다.네이버클라우드는 29일 '네이티브 옴니모델(HyperCLOVA X SEED 8B Omni)'과 기존 추론형 AI에 시각·음성·도구 활용 역량을 더한 '고성능 추론모델(HyperCLOVA X SEED 32B Think)'을 각각 오픈소스로 공개했다. 이는 과학기술정보통신부 '독자 AI 파운데이션 모델' 프로젝트의 주관 사업자로서 추진 중인 '옴니 파운데이션 모델' 개발 과제의 첫 성과다. 이번에 공개된 '네이티브 옴니모델'은 텍스트·이미지·오디오 등 서로 다른 형태의 데이터를 단일 모델에서 처음부터 함께 학습하는 네이티브 옴니모달 구조를 전면 적용한 모델이다. 옴니모달 AI는 정보의 형태가 달라지더라도 하나의 의미 공간에서 맥락을 통합적으로 이해할 수 있어 말과 글, 시각·음성 정보가 복합적으로 오가는 현실 환경에서 활용도가 높은 차세대 AI 기술로 주목받고 있다. 이러한 특성으로 인해 글로벌 빅테크 기업들 역시 옴니모달을 차세대 파운데이션 모델의 핵심 기술 축으로 삼고 있다. 네이버클라우드는 옴니모달 AI의 잠재력을 극대화하기 위해 기존 인터넷 문서나 이미지 중심의 학습을 넘어 현실 세계의 다양한 맥락을 담은 데이터 확보에 집중한다는 전략이다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "모델을 대규모로 키워도 데이터 다양성이 한정돼 있다면 AI의 문제 해결 능력도 특정 영역 또는 특정 과목에만 집중되어 나타날 수밖에 없다"며 "이에 디지털화되지 않은 생활 맥락 데이터나 지역의 지리적 특성이 반영된 공간 데이터 등 차별화된 현실 세계 데이터를 확보하고 정제하는 과정이 선행돼야 한다"고 설명했다. 네이버클라우드는 이번 모델 공개를 통해 네이티브 옴니모달 AI 개발 방법론을 검증한 만큼, 향후 차별화된 데이터를 본격적으로 학습시키며 단계적인 스케일업에 나설 계획이다. 텍스트·이미지·음성 모델을 결합하는 방식의 기존 멀티모달 접근과 달리 단일 모델 구조의 옴니모달 AI는 규모 확장이 상대적으로 용이하다는 점도 특징이다. 회사 측은 이를 기반으로 산업과 일상 밀착 서비스에 필요한 다양한 크기의 특화 옴니모달 모델을 효율적으로 확장한다는 전략이다. 또 해당 모델은 텍스트 지시를 기반으로 이미지를 생성·편집하는 옴니모달 생성 기능도 갖췄다. 텍스트와 이미지의 맥락을 함께 이해해 의미를 반영한 결과물을 만들어내는 방식으로 단일 모델에서 텍스트 이해와 이미지 생성·편집을 자연스럽게 수행한다. 이는 글로벌 프런티어 AI 모델들이 제공해온 기능으로, 네이버클라우드는 이번 모델을 통해 해당 수준의 멀티모달 생성 역량을 확보했음을 보여줬다. 이와 함께 네이버클라우드는 향후 옴니모달 AI 에이전트 활용 가능성을 검증하기 위해 '고성능 추론모델'도 공개했다. 이 모델은 자체 추론형 AI에 시각 이해, 음성 대화, 도구 활용 능력을 결합해 복합적인 입력과 요청을 이해하고 문제를 해결하는 옴니모달 에이전트 경험을 구현했다. 또 이 모델은 글로벌 AI 평가 기관인 아티피셜 애널리시스(Artificial Analysis)가 종합 지식·고난도 추론·코딩·에이전트형 과제 등 10개 주요 벤치마크를 종합해 산출한 지수 기준에서도 글로벌 주요 AI 모델들과 유사한 성능 범위에 위치한 것으로 나타났다. 영역별 평가에서는 특히 실사용과 밀접한 항목에서 경쟁력을 보였다. 한국어 기반 종합 지식, 시각 이해, 실제로 도구를 활용해 문제를 해결하는 에이전트 수행 능력 등 주요 능력 항목에서 글로벌 모델들과 비교해 우수한 성능을 기록하며 복합적인 문제 해결 역량을 입증했다. 또 해당 모델로 올해 대학수학능력시험 문제를 풀이한 결과 국어·수학·영어·한국사 등 주요 과목에서 모두 1등급에 해당하는 성과를 거뒀다. 영어와 한국사에서는 만점을 기록했다. 네이버클라우드 측은 "다수의 AI 모델이 문제를 텍스트로 변환해 입력해야 하는 방식과 달리, 이 모델은 이미지 입력을 직접 이해해 문제를 해결했다는 점에서 차별화된다"고 말했다. 네이버클라우드는 이번 옴니모달 하이퍼클로바X를 기반으로 검색·커머스·콘텐츠·공공·산업 현장 등 다양한 영역에서 활용 가능한 AI 에이전트를 단계적으로 확장하며 '모두의 AI' 실현을 위한 기술 생태계 구축에 속도를 낼 계획이다. 성 총괄은 "텍스트·시각·음성 등 AI의 감각을 수평적으로 확장하는 동시에 사고와 추론 능력을 함께 강화했을 때 현실 문제 해결력이 크게 높아진다는 점을 확인했다"며 "이러한 기본기를 갖춘 구조 위에서 점진적으로 규모를 확장해야 단순히 크기만 큰 모델이 아닌, 실제로 쓰임새 있는 AI로 발전할 수 있다고 보고 이를 토대로 스케일업을 이어갈 계획"이라고 말했다.

2025.12.29 09:51장유미

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평

피지컬AI 강국?...AI 기지국 인프라부터 갖춰야

생성형AI가 촉발시킨 글로벌 AI 경쟁은 AI에이전트를 넘어 피지컬AI로 향하고 있다. AI 3대 강국을 외치는 한국이 독자 모델 확보와 컴퓨팅 인프라 구축에 여념이 없으나 AI가 실제로 작동하는 'AI고속도로' 위에서 실제 도로 역할을 하는 네트워크 진화는 뒤처졌다. AI고속도로 국정과제 주요 내용을 살펴보면 AI컴퓨팅인프라 확충과 데이터 구축 및 개방, 국가AI위원회 역할 강화와 함께 초지능 네트워크 구축이 제시됐으나 5G 진화에도 속도를 내지 못한 점이 전체 AI 발전 생태계에서 아쉬운 점으로 꼽힌다. 정부가 LTE를 비롯한 주파수 재할당 방침을 밝히면서 5G SA 의무 구축을 조건으로 내걸었고 최근 과학기술관계장관회의에 '하이퍼 AI네트워크 전략'이 의결됐는데, AI시대의 네트워크 성능을 비롯해 구조혁신이 더 이상 미룰 수 없다는 고민이 엿보인다. 정영길 과학기술정보통신부 네트워크정책과장은 “과거 초고속 정보통신망 구축과 CDMA 상용화, BcN 사업을 거쳐 세계 최고 품질의 5G 통신망을 확보했지만 AI의 급격한 발전으로 네트워크 수요는 증가하고 선제적인 네트워크 인프라 전 요소의 고도화가 긴요하다”고 말했다. 이어, “현재 인간 중심의 통신 네트워크와 달리 AI가 (네트워크의) 새로운 이용 주체로 등장하면서 데이터 전송 속도나 처리시간 등 기존과는 차원이 다른 성능을 요구받고 있다”고 강조했다. 이동통신 기지국에 올라탄 AI 컴퓨팅 이동통신 기지국에 AI 컴퓨팅 기능을 더한 AI-RAN은 올해 통신업계에서 화두로 부상한 기술이다. 이를테면 세계 최대 통신장비 회사인 화웨이가 AI-네이티브 RAN을 선보였고, 지난해 주요 빅테크들이 결성한 AI-RAN 얼라이언스는 세를 불리기 있다. 엔비디아는 인수합병 규모의 투자로 노키아와 협력을 시작했고, 삼성전자와 소프트뱅크는 공동 연구에 나섰다. 또 엔비디아는 지난 APEC 당시 한국을 찾아 통신 3사, 삼성전자 등과 맞손을 잡았다. AI-RAN는 쉽게 말하면 기지국에 엔비디아 GPU를 얹어 전파 신호를 주고받는 일과 AI 컴퓨팅을 동시에 처리하는 방식이다. 기지국은 안테나와 전파 신호를 디지털로 처리하는 장치로 이뤄지는데, 고도화된 컴퓨팅 인프라로 통신을 연결하는 중간 역할을 넘어 기지국 단계에서 AI 연산도 맡겠다는 뜻이다. 5G 상용화 초기에 많이 논의된 모바일엣지컴퓨팅(MEC)이 엣지AI로 바뀐 셈이다. 이같은 초지능 기지국은 피지컬AI 발전에 따라 더는 피할 수 없는 과제가 됐다. 단순 센싱 수준의 데이터만 처리하는 물리 객체도 있지만, 휴머노이드나 자율주행과 같은 피지컬AI 단계에서는 수많은 데이터가 오가야 한다. 물리 객체마다 AI 컴퓨팅 인프라를 갖추기에는 전력이나 비용 문제에 곧장 한계에 도달할 수 있는데 원활한 통신이 이뤄지면 추론을 비롯한 컴퓨팅은 기지국 단위에서 해결하고 개별 객체는 데이터를 수집하고 전송한 뒤 반응만 하면 된다. 정보통신기획평가원(IITP)의 최성호 PM은 “휴머노이드가 실제 서비스를 제공하기 위해 컴퓨팅을 갖는 점은 전력의 문제가 있다”며 “사람처럼 보고 듣고 연산하고 작동하는데 200ms 내에 이뤄져야 하는데, 이는 엣지AI 인프라의 도움 없이는 불가능하다”고 평가했다. 온디바이스AI 환경에서는 추론 성능이 제한적이고, 대규모 집중 컴퓨팅이 이뤄지는 클라우드까지 데이터가 오가기에는 피지컬AI에서 요구하는 지연시간을 맞추기 어렵다는 설명이다. 아울러 휴머노이드 외에 앞으로 등장할 피지컬AI의 많은 비즈니스모델이 이와 비슷한 상황에 놓이게 될 전망이다. 제조산업 현장부터 교통, 물류, 교육, 의료 등의 다양한 도메인에서 AI 서비스가 발굴되더라도 결국 AI-RAN 여부에 따라 서비스 제공 범위가 결정될 수 있다. 정부는 2030년까지 500곳의 AI-RAN 거점 구축 계획을 세웠다. 먼저 통신 집중국사 200곳에 AI 컴퓨팅 방식으로 전환하고 산업단지 100곳, 공항 항만 철도 100곳, 교육 의료 100곳으로 확산시킨다는 전략이다. AI시대 네트워크 고도화...통신을 위한 AI AI시대로 접어들면서 무선 기지국 외에 유선망과 국제망에 대한 변화도 필요해졌다. 당장 국가 통신망의 기본 뿌리로 불리는 백본망 용량을 늘리는 것이 급한 과제로 꼽힌다. 현재 국내 무선백본망의 용량은 초당 37.6 테라비트(Tb)를 처리할 수 있는 수준인데 IITP 6G사업단이 AI 사용량 증가에 따른 백본망 용량은 오는 2029년에 한계에 봉착할 수 있다. 2030년에는 현재 용량 대비 약 4배 수준으로 확대해야 할 필요성이 제기됐다. 정부는 이에 따라 2027년 70Tbps, 2030년 160Tbps 수준의 용량 증설을 목표로 세웠다. 누구나 가정 내에서 AI 서비스를 원활하게 이용할 수 있도록 실수요가 존재하는 가구와 건물의 광전환율도 끌어올린다는 방침이다. 현재 가입자망 구간에서 광케이블 기반의 초고속인터넷망 구축 비율은 91% 수준인데 이를 2030년까지 98% 수준으로 끌어올린다는 방침이다. 외국과의 데이터 이동도 늘어나는 점을 고려해 해저케이블 용량도 120Tbps 급에서 220Tbps 급으로 용량을 확대한다. 해저케이블이 국내 육지로 닿는 육양국도 분산시켜 어느 한 곳이 끊기더라도 다른 곳에서 데이터 전송이 이뤄질 수 있도록 안정성도 높인다. 네트워크를 AI를 위한 도구로만 쓰지 않고, AI를 통해 통신 성능도 발전시킨다. 예컨대 실시간으로 기지국의 성능을 최적화해 에너지 소모를 30% 이상 절감시킨다는 복안이다.

2025.12.21 14:38박수형

알테어, '하이퍼웍스 2026' 출시…"시뮬레이션 속도 1천배↑"

알테어가 설계 시뮬레이션 플랫폼을 업그레이드해 디지털 엔지니어링 전환 속도를 높였다. 알테어는 인공지능(AI), 자동화, 멀티피직스를 통합한 플랫폼 '알테어 하이퍼웍스 2026'을 출시했다고 10일 밝혔다. 새 버전은 AI 기반 실시간 피드백과 통합 멀티피직스 기능을 앞세워 대규모 설계·해석 작업의 효율을 높인다. 그래픽처리장치(GPU) 기반 차수축소모델링(ROM) 기술이 적용돼 기존 대비 최대 1천배 빠른 시뮬레이션 속도를 제공한다. 브라우저 환경에서도 물리 기반 AI 모델을 실행할 수 있도록 구현됐다. 멀티피직스 통합 성능도 강화돼 열-유체, 전자기-구조 등 복합 거동을 단일 워크플로에서 분석할 수 있다. 배터리 안전성 평가, e-모터 최적화, 고온 환경 분석 등 차세대 산업 분야 요구를 반영한 신규 기능도 포함됐다. 전자기 해석 속도는 최대 40%, 전파 모델링 속도는 최대 20배 빨라졌다. 자율주행, 항공, 국방 등 고난도 산업군에서도 고성능 시뮬레이션을 안정적으로 구현할 수 있도록 지원 범위를 확대한 것이다. 시각화와 설계 탐색 기능도 개선됐다. 엔지니어가 설계 변경 영향을 직관적으로 확인하고 팀 간 인사이트를 빠르게 공유할 수 있다. 입자, 유체, 재료 거동 표현력이 향상됐고, 실시간 지오메트리 수정과 멀티윈도우 비교 기능도 추가됐다. 현재 하이퍼웍스는 항공, 자동차, 전자 등 다양한 산업에서 활용되고 있다. 특히 미국 항공기 스타트업 '젯제로'는 지멘스와의 협력 프로젝트에서 하이퍼웍스 제품군을 적용해 공력 성능 평가와 핵심 의사결정 시간을 크게 단축한 것으로 알려졌다. 샘 마할링엄 알테어 최고기술책임자(CTO) 겸 지멘스 디지털 인더스트리 SW 총괄부사장은 "하이퍼웍스 2026은 AI, 자동화, 멀티피직스를 하나의 통합 플랫폼으로 연결해 설계·해석 프로세스를 본질적으로 혁신하는 제품"이라며 "지멘스 기술 결합을 통해 세계적 수준의 AI 기반 시뮬레이션 포트폴리오를 완성하고, 고객이 보다 빠르고 정확한 제품 개발을 수행할 수 있도록 적극 지원할 것"이라고 밝혔다.

2025.12.10 16:44김미정

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평

하이퍼엑셀, 신용보증기금 '제14기 혁신아이콘' 선정

AI 반도체 스타트업 하이퍼엑셀은 신용보증기금이 선정한 '제14기 혁신아이콘'에 이름을 올렸다고 10일 밝혔다. 신용보증기금의 혁신아이콘 프로그램은 글로벌 혁신기업으로 성장 가능성이 높은 혁신 스타트업의 스케일업을 돕는 프로그램으로, 성장 유망한 혁신 기업을 발굴해 지원한다. 이번 제14기에는 143개 기업이 지원해 약 29:1의 높은 경쟁률을 기록했으며, 하이퍼엑셀은 반도체 분야 대표 기업으로 선정됐다. 하이퍼엑셀은 3년간 최대 200억원 신용보증, 최저보증료율 적용, 협약은행 추가 보증료 지원과 함께 해외 진출, 컨설팅, 홍보 등 다양한 혜택을 받게 된다. 하이퍼엑셀은 대규모 언어모델(LLM) 추론에 최적화된 고성능·저전력 AI 반도체(LPU) 기술력을 기반으로, 생성형 AI 서비스에 필요한 실시간 응답성과 비용 효율성을 동시에 실현한 점을 높이 평가받았다. 또한 데이터센터, 온프레미스 서버, 엣지 디바이스 등 다양한 환경에서 적용 가능한 확장성과 범용성을 입증하며, AI 반도체 분야의 차세대 혁신 기업으로서 성장 잠재력을 인정받았다. 특히 하이퍼엑셀은 LPU 기술을 기반으로 글로벌 생성형 AI 시장을 겨냥한 제품 포트폴리오를 확대하고 있으며, 2026년 이후 본격적인 칩 양산과 함께 해외 데이터센터 및 클라우드 기업과의 협업을 통해 글로벌 시장 공략을 가속화할 계획이다. 김주영 하이퍼엑셀 대표는 “혁신아이콘 선정을 통해 하이퍼엑셀의 기술 경쟁력과 성장 잠재력을 공식적으로 인정받게 되어 의미가 크다”며, “앞으로도 LPU 기반의 기술 혁신과 제품 고도화를 지속해 글로벌 AI 반도체 시장에서 새로운 표준을 만들어가겠다”고 말했다.

2025.11.10 16:55전화평

네이버클라우드, 소버린 2.0 시대 선언…"산업 AI 혁신 선도"

네이버클라우드가 자체 인공지능(AI) 인프라와 기술을 기반으로 국내 산업 경쟁력 강화와 AI 혁신 확산에 나선다. 김유원 네이버클라우드 대표는 6일 팀네이버 통합 컨퍼런스 '단25'에서 "AI는 더 이상 연구의 영역이 아니라 산업 경쟁력을 좌우하는 기술 인프라"라며 "우리의 데이터와 인프라, 기술로 산업의 AI 전환을 현실로 만들겠다"고 밝혔다. 네이버클라우드는 그간 축적한 풀스택 AI 역량을 기반으로 AI 자립을 넘어 산업 중심으로 확장되는 '소버린 AI 2.0'의 방향을 제시하고 있다. 김 대표는 "기존 소버린 AI가 언어와 문화 중심의 기술 자립에 초점을 맞췄다면 소버린 2.0은 이를 산업과 일상 전반으로 확장해 국가 경쟁력을 높이는 개념"이라며 "우리는 대한민국의 언어·데이터·산업 구조를 가장 깊이 이해하는 기업으로, 한국형 소버린 AI 2.0을 통해 산업 AI 전환의 새로운 모델을 만들어가고 있다"고 말했다. 네이버는 2023년 세계 최초로 비영어권 언어 기반 초거대 모델 '하이퍼클로바X'를 선보인 이후 경량 모델, 추론 모델, 오픈소스 모델을 잇따라 공개했으며 현재 오픈소스 모델은 누적 200만 건 이상의 다운로드를 기록하고 있다. 김 대표는 "하이퍼클로바X는 앞으로 '애니 투 애니' 옴니 파운데이션 모델로 진화하며 클라우드용 대형 모델부터 피지컬 AI용 경량 모델까지 산업별 AI 혁신에 필요한 다양한 라인업을 제공할 것"이라고 강조했다. 이를 통해 네이버클라우드는 텍스트를 넘어 음성·이미지·지도·센서 등 멀티모달 인식과 생성이 가능한 차세대 AI 체계를 완성해 각 산업 현장의 요구에 따라 최적화된 모델을 유연하게 제공한다는 목표다. 또 데이터와 AI를 안전하게 운영하려는 기업들을 위해 자사 프라이빗 클라우드인 '뉴로클라우드'의 업그레이드 버전을 내년 6월에 선보일 계획이다. 네이버클라우드는 이러한 AI 기술이 실제 산업 현장에서 작동할 수 있도록 피지컬 AI 기술도 내재화하고 있다. 네이버는 2016년부터 로봇과 자율주행 연구를 시작했으며 2021년에는 이를 파운데이션 모델 기반의 피지컬 AI로 발전시켰다. 김 대표는 "머신이 공간을 인식하고 이해하며 스스로 판단하고 행동하는 기술이 피지컬 AI"라며 "우리는 1784사옥과 데이터센터 곳곳에서 로봇이 축적한 리얼 데이터, 이를 연결하는 클라우드 플랫폼, 온보드 AI를 결합해 끊임없이 진화하는 피지컬 AI 생태계를 만들어가고 있다"고 설명했다. 네이버클라우드는 이같은 기술과 인프라를 기반으로 산업 특화 AI 생태계를 확장해 나간다는 계획이다. 조선·에너지·바이오 등 주요 산업 기업들과 협력해 AI 기반 공정 운영, 설비 관리, 품질 예측 등 제조 전 과정에서의 AI 활용을 지원하며 산업 현장에 최적화된 기술이 빠르게 자리 잡을 수 있도록 뒷받침할 방침이다. 김 대표는 "우리의 풀스택 AI 기술이 산업의 데이터를 이해하고 결합할 때 한국형 산업 AI의 표준이 만들어질 것"이라고 덧붙였다. 아울러 네이버클라우드는 이러한 산업 AI 모델을 수출형 구조로 확장해 사우디아라비아·태국·일본 등 주요 시장으로 글로벌 소버린 AI 확산을 이끌고 있다. 사우디의 디지털 트윈 플랫폼, 태국의 관광 AI 에이전트, 일본의 케어콜 서비스 등 각국 산업 현장에 특화된 AI 모델을 적용하며 산업 AI의 글로벌 레퍼런스를 넓혀가고 있다. 뿐만 아니라 AI 혜택이 닿기 어려운 영역까지 기술의 접근성을 넓히는 사회적 역할에도 나서고 있다. 발달장애인 보조, 고령자 돌봄, 농업 AI 등 헬스케어·농촌·복지 분야에 AI를 적용해 소외 지역과 계층의 기술 접근성을 높이는 등 AI의 사회적 확산과 포용적 성장에 기여하고 있다. 김 대표는 "AI는 산업의 한계를 넘어 새로운 가능성을 여는 기술"이라며 "우리는 하이퍼스케일 AI 인프라와 피지컬 AI를 결합해 산업의 혁신을 실질적으로 뒷받침하고 모두가 신뢰할 수 있는 AI 시대를 열겠다"고 강조했다.

2025.11.06 10:00한정호

신세계百, 태국서 K-뷰티 알린다…방콕 센트럴월드 팝업 개점

신세계백화점이 동남아 최대 쇼핑 명소인 태국 방콕 '센트럴월드'에서 K-뷰티 브랜드와 함께 글로벌 고객 공략에 나선다. 신세계 하이퍼그라운드는 오는 6일부터 내년 1월 30일까지 방콕 최대 쇼핑몰인 '센트럴월드'에서 K-뷰티 브랜드 15개를 한데 모은 팝업스토어를 연다고 5일 밝혔다. 이번 행사는 동남아 지역에서 급성장 중인 뷰티 시장을 겨냥해 한국의 트렌디한 감성을 담은 신진 브랜드를 현지 소비자에게 직접 소개하고 K-컬처를 결합한 체험형 콘텐츠로 꾸며졌다. 센트럴월드는 하루 평균 15만 명 이상이 찾는 방콕 대표 쇼핑 명소로, 해마다 글로벌 브랜드의 신제품 론칭과 연말 카운트다운 행사가 열리는 핵심 상권에 위치해 있다. 이번 팝업에는 스킨케어부터 메이크업, 향수까지 다양한 카테고리의 15개 국내 K-뷰티 브랜드가 참여한다. 스킨케어 브랜드 '메디필', '글로우', '브이티', '아이레시피', '아이소이', '유이크', '티히히'와 메이크업·향수 브랜드 '뮤드', '삐아', '코랄헤이즈', '키스', '투에이엔', '포렌코즈', '하우스포그', '스킷' 등이 이름을 올렸다. 참여 브랜드들은 국내는 물론 일본, 미국, 동남아 시장에서도 주목받는 신진 브랜드로, 태국 2030세대가 선호하는 비건 원료, 자연주의 콘셉트와 트렌디한 색조 제품 등 최신 뷰티 트렌드를 반영했다. 신세계 하이퍼그라운드는 이번 팝업을 통해 얻은 현지 고객 반응을 바탕으로 내년에는 태국 대형 유통사와 협업을 확대 추진, 국내 신진 브랜드의 글로벌 진출을 지원할 계획이다. 이번 팝업은 한국의 문화를 함께 즐길 수 있는 복합 콘텐츠 행사로 기획된 것이 특징이다. 공간은 '트렌디 & 라이징 K-뷰티'라는 주제에 맞춰 태극 문양과 한국적인 색감을 현대적으로 재해석한 인테리어로 꾸몄다. 한복에서 착안한 옥색·홍색 계열의 컬러를 조화롭게 배치했다. 행사장에서는 윷놀이, 팽이 돌리기, 투호 등 한국 전통 놀이를 직접 체험할 수 있으며, 팝업 오픈을 기념해 7일에는 현지 인기 인플루언서 60여 명을 초청한 '오프닝 나잇'을 열어 한식 디저트와 전통 음료를 제공하는 케이터링 이벤트도 진행한다. 행사 기간 중 '브랜드 위크 존(Brand Week Zone)'을 운영해 브랜드별로 K-아이돌 메이크업 시연, 룰렛 이벤트, 럭키드로우, 포토존 등 다양한 체험형 프로그램을 선보인다. 박상언 신세계백화점 뉴리테일담당 상무는 “올해 7~8월 프랑스 파리 쁘렝땅 백화점에서 진행한 K-뷰티 팝업 및 10월부터 일본 시부야 109에서 진행한 K-패션 팝업이 큰 호응을 얻은데 이어, 이번에는 태국 중심 상권 방콕에서 K-뷰티를 통해 다시 한번 한국의 미를 알리게 됐다”며 “신세계 하이퍼그라운드는 앞으로도 글로벌 고객을 대상으로 K-패션과 뷰티, 문화를 아우르는 'K-라이프스타일 플랫폼'으로 발전시켜 나갈 것”이라고 말했다.

2025.11.05 06:01김민아

하이퍼클로바X·카나나, 'AI 국민비서' 된다…행안부와 공공서비스 혁신 박차

행정안전부가 일상적인 대화로 편리하게 이용할 수 있는 인공지능(AI) 기반 공공서비스 구현을 목표로 네이버·카카오와 손을 맞잡았다. 행안부는 네이버·카카오와 함께 AI 에이전트 기반 공공서비스 혁신을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 이번 협약식에는 윤호중 행안부 장관, 최수연 네이버 대표, 정신아 카카오 대표가 참석했다. 이번 협약에 따라 행안부와 양사는 AI 에이전트 기술을 공공서비스에 선도적으로 적용하고 국민 편의성을 높이는 데 적극 협력키로 했다. 주요 협력 사항은 ▲민간 AI 에이전트와 공공서비스 연계를 위한 기술 방안 마련, 정책과제 발굴 및 제도적 기반 조성 ▲기관 간 협업 및 기술 지원 등을 통한 서비스 연계·확대 ▲서비스 이용 활성화를 위한 홍보 협력 등이다. 특히 민간 AI 에이전트를 통해 공공서비스를 제공하는 'AI 국민비서(가칭)' 시범 서비스를 연내에 구현하는 것을 목표로 한다. AI 국민비서는 세계 최고의 AI 민주정부 실현을 위한 핵심 과제로, 민간 기업의 AI 에이전트에 공공서비스를 연계해 국민이 복잡한 절차 없이 대화만으로 공공서비스를 이용할 수 있도록 지원하는 서비스다. 우선 시범 서비스는 전자증명서 발급·제출, 유휴 공공자원 예약(공유누리) 등 국민 수요가 높은 개별 공공서비스를 중심으로 제공할 예정이다. 네이버는 독자 AI 파운데이션 모델인 '하이퍼클로바X'를 기반으로 AI 에이전트를 구축하고 이를 공공서비스와 연계해 시범 서비스를 구현한다. 해당 서비스는 대표 검색포털인 네이버(웹‧앱)를 통해 제공될 예정이며 맞춤형 추천 기능 등을 더해 이용 편의성을 한층 더 높일 계획이다. 카카오는 자체 거대언어모델(LLM) '카나나' 기반의 AI 에이전트를 공공서비스와 확장성이 높은 개방형 구조로 연동하여 시범 서비스를 구현한다. 국민 메신저인 카카오톡에서 서비스가 제공될 예정이며 유해 콘텐츠 필터링을 위한 AI 가드레일 모델 '카나나 세이프가드'를 적용해 서비스의 편의성과 신뢰도를 높일 계획이다. 시범 서비스를 거친 뒤 향후 생애주기별 생활·행정 업무를 한 번에 처리하는 원스톱 서비스를 구현하고 개인의 상황과 조건에 맞춰 자동으로 처리하는 단계까지 점차 발전시켜 나갈 예정이다. 윤호중 행안부 장관은 "국민이 일상에서 체감할 수 있는 AI 민주정부를 실현하기 위해서는 민간의 혁신적인 기술과 협력이 필수적"이라며 "이번 협약을 계기로 정부와 민간이 함께 힘을 합쳐 국민 누구나 말 한마디로 쉽고 편리하게 공공서비스를 이용할 수 있는 서비스 환경을 만들겠다"고 말했다.

2025.10.28 10:00한정호

'국가대표 AI' 첫 탈락자, 국민 500명 손에 달렸다…정부, 국민평가단 선발 돌입

정부가 국가대표 인공지능(AI) 모델 개발 기업 5곳의 기술을 평가할 국민 500명을 선발한다. 26일 업계에 따르면 과학기술정보통신부는 최근 '독자 AI 파운데이션 모델 프로젝트'의 국민평가단을 모집하는 방안을 내부적으로 검토하고 있다. 선발 인원은 500명으로, 이들은 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등을 주축으로 한 5개 컨소시엄이 개발한 모델을 직접 써보고 평가하게 된다. 앞서 지난 8월 '독자 AI 파운데이션 모델(K-AI)' 사업자로 최종 선정된 5개 컨소시엄들은 오는 12월 말 1차 평가를 앞두고 있다. 정부는 총 2천136억원을 투입하는 이 프로젝트에서 6개월 단위 평가를 거쳐 오는 2027년 상반기까지 최종 2개 팀만 추려낸다는 방침이다. 각 컨소시엄들은 국민·전문가 평가, 벤치마크 등 기반 검증평가(AI안전성 연계), 파생 AI 모델 수 평가 등 입체적인 단계 평가를 거치게 된다. 국민평가단은 정예팀의 첫 탈락 팀을 가르는 1차 평가에 참여한다. 정부는 성별·지역·연령·AI 활용도 등 4가지 기준을 바탕으로 대표성과 다양성을 확보한 평가단을 구성할 계획이다. 성별은 남·녀 250명씩, 지역은 수도권·비수도권 250명씩 절반 비율로 구성할 예정이다. 연령은 20·30·40·50대 및 60대 이상 등 5개 연령층으로 나눠 100명씩 배분한다. AI 활용도별로는 ▲전문직·개발자 등 고도 사용자 100명 ▲사무·교육·콘텐츠 분야 종사자 등 중간 사용자 250명 ▲AI 경험이 적은 초급·관심층 150명으로 구성된다. 정부는 5개 컨소시엄과의 협의를 통해 국민평가단의 구성 기준을 구체화 할 예정이다. 평가단 모집은 다음 달 중 무작위 추첨 방식으로 진행된다. 현장 평가는 오는 12월 30일 서울 강남구 코엑스에서 열리는 '독자 AI 파운데이션 모델 프로젝트 대국민 콘테스트'에서 진행된다. 평가단은 이날 5개 정예팀의 모델 개발 성과 발표를 직접 확인하고 평가한다. 이후 10일간은 각 팀이 개발한 모델을 웹사이트를 통해 직접 사용해보며 사용성 평가를 진행한다. 배경훈 과학기술정보통신부 부총리 겸 장관은 "(5개 컨소시엄들이) 우리 독자 파운데이션 모델을 글로벌 수준으로 만들 수 있다고 생각한다"며 "글로벌 톱10이 아니라 톱2·3 수준까지 도약할 수 있을 것으로 믿는다"고 강조했다.

2025.10.26 18:05장유미

일본 상륙한 K패션…신세계백화점, 日 시부야 패션위크 참가

신세계 하이퍼그라운드는 오는 17일부터 다음달 10일까지 도쿄 시부야의 랜드마크 쇼핑몰 '시부야109'에서 K-패션 브랜드 팝업스토어를 진행한다고 15일 밝혔다. 같은 시기에 열리는 시부야 패션 위크의 메인 이벤트 '시부야 런웨이'에도 참여해 글로벌 고객들에게 무센트, 몽세누, 쓰리투에이티 등 7개 한국 디자이너 브랜드를 소개할 계획이다. 시부야 패션 위크는 2014년 처음 열리고 매년 봄-가을 진행되고 있는 도시형 패션 이벤트다. 올해는 '시부야 거리에서 한-일 차세대 패션의 교차'를 주제로 한일 양국의 젊은 디자이너 브랜드를 선보인다. 시부야 런웨이에서 K-브랜드를 집중 조명하는 특집무대 'SEOUL LOOK'이 마련되는 것은 이번이 처음이다. 신세계 하이퍼그라운드의 이번 런웨이 참여는 한국 문화를 좋아하는 일본의 MZ세대는 물론, 시부야를 찾는 전세계 관광객들에게도 K-패션을 선보일 기회라는 점에서 의미를 더한다. 신세계 하이퍼그라운드는 시부야 패션 위크 참가에 발맞춰 팝업스토어도 선보인다. 오는 17일부터 다음 달 10일까지 열리는 팝업스토어에서는 ▲에핑글러 ▲홀리인코드 ▲레터프롬문 ▲무센트 ▲몽세누 ▲쓰리투에이티 ▲프루아 등 7개 브랜드가 일본 고객들을 만난다. 이 중 무센트를 제외한 6개 브랜드는 신세계 하이퍼그라운드와 함께 처음 일본에 진출한다. 팝업에서는 상품을 구매한 고객에게 각 브랜드에서 사은품을 증정하는 행사와 다양한 프로모션, 단독 론칭 상품들을 준비했다. 신세계 하이퍼그라운드는 시부야109 엔터테인먼트사와 협력해 런웨이에서 본 제품을 시부야109에서 직접 쇼핑할 수 있도록 설계했다. 런웨이에서 영감을 받은 고객들이 곧바로 K-패션 제품을 만날 수 있도록 '최적의 경로'를 제공해 고객들을 공략한다는 전략이다. 박상언 신세계백화점 뉴리테일 담당은 “이번 시부야 런웨이 참가와 시부야 중심가 랜드마크 팝업스토어를 동시에 활용해 K-패션의 위상을 강화할 것”이라며 “신세계 하이퍼그라운드는 한일 패션계의 교류를 촉진하고 K-브랜드 마중물의 역할을 지속하겠다”고 말했다.

2025.10.15 10:29김민아

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호

하이퍼카 기술이 담긴 해양요트…페라리가 바다로 간 이유는

[마라넬로(이탈리아)=김재성 기자] 페라리가 2009년부터 축적해온 전동화 기술을 기반으로 해양 레이싱 요트 개발에 나섰다. 포뮬러1(F1)과 모터스포츠에서 얻은 공력 성능을 요트에 이식해 기술을 고도화하고, 이를 다시 슈퍼카 개발에 되돌려 적용하는 전략이다. 페라리는 8일(현지시간) 마라넬로 본사에 위치한 'E-빌딩'에서 '테크놀로지&이노베이션 워크샵'을 열고 요트 프로젝트 '하이퍼세일' 최신 기술을 공개했다. 하이퍼세일 프로젝트는 존 엘칸 페라리 회장과 항해사 요안니스 오르디니, 유명 요트 디자이너 쿠야너지어의 주도로 시작됐다. 페라리는 이 프로젝트를 통해 스포츠카와 해양 산업 간 기술 교류를 활성화하고, 두 산업의 기술을 상호 발전시키는 것을 목표로 한다. 페라리는 플라잉 모노헐 요트를 개발하고 있다. '플라잉 모노헐'로 설계된 하이퍼세일은 바다 위를 떠 비행하듯 항해하며, 모든 전력은 태양광·풍력 등 재생에너지로 충당된다. 완전한 에너지 자립이 가능한 세계 최초의 레이싱 요트인 셈이다. 현재 세계 기록을 보유한 요트들은 길이 70~120피트 트라이머란급이다. 세 개의 선체를 가진 트라이머란은 속도와 안정성이 뛰어나지만, 세계에서 가장 빠른 세일링 보트는 단일 선체의 '플라잉 모노헐'이다. 지오반니 솔디니 하이퍼세일 프로젝트 총괄은 "우리의 도전은 가장 빠르고, 자급자족할 수 있는 요트를 만드는 것이다. 그래서 우리는 '대형 플라잉 모노헐'을 세계 최초로 설계하기로 했다"며 "트라이머란의 안정성과 속도, 모노헐의 낮은 저항력을 결합한 개념이다"고 설명했다. 하이퍼세일은 높이 40미터(m), 길이 30m에 폭이 20m 이상이다. 수중 깊이는 약 7m이다. 솔디니 총괄은 "페라리는 완전히 자급자족이 가능한 보트를 만들고 있으며 에너지는 오직 태양과 바람에서 얻는다"며 "그동안 해양 산업에서는 시도된 적 없는 새로운 형태의 레이싱 요트"라고 강조했다. 하이퍼세일의 핵심 혁신은 페라리 첫 전기차 개발로 완성된 능동 서스펜션 기술이다. 페라리는 3세대 서스펜션으로 4개 전기모터를 사륜 구동으로 결합해 운전 감각과 안정성을 향상한 바 있다. 이 원리를 요트 시스템에 적용해 속도와 안정성을 확보하고자 했다. 하이퍼세일은 길게는 몇 주간 바다에 떠있는다. 이때문에 자체 발전 시스템이 필수적이다. 페라리는 태양광 패널, 풍력 터빈, 요트 움직임으로 인한 진동 에너지를 모두 전력으로 전환했다. 또한 스마트 그리드 구조를 도입해 4단계 전압(800V-48V-12V 등) 시스템으로 효율을 극대화했다. 이 기술은 페라리 F80 모델을 위해 설계된 2개의 DC-DC 변환 모듈(800V-48V-12V)이다. 100개 이상의 ECU와 150㎞ 이상의 배선, 50개 이상의 통신선을 배치해 보트 내의 에너지 관리 및 분배를 최적화했다. 이를 통해 극한의 운항 조건에서도 최대 효율과 신뢰성을 보장한다. 페라리는 전체 전기 및 전자 시스템 구조는 에너지 흐름을 극대화하고 손실을 최소화하기 위해 고급 제어 알고리즘을 적용했다. 솔디니는 "기존 레이싱 요트보다 5배 이상 복잡한 시스템"이라며 " 모든 장비가 실제 테스트 벤치에서 작동 중이며, 태양광·수력·전기 구동 시스템이 모두 가동 중이다"고 말했다. 하이퍼세일은 자동차 산업의 개발 프로세스를 그대로 적용해 제작 중이다. 페라리는 가상 설계와 시뮬레이션 단계에서 전용 테스트 벤치를 제작하고 시스템 설계 시간을 단축하고 있다. 페라리는 하이퍼세일을 단 한척만 제작할 예정이다. 개발이 완료되면 주요 국제 오션 레이스에 참가할 계획이다. 마르코 루비지니 페라리 하이퍼세일 팀 리더는 "하이퍼세일을 세 단어로 표현하자면 레이싱, 혁신, 열정이다. 페라리 DNA의 핵심 요소이며 우리가 추진하는 오픈 이노베이션의 근본 가치"라며 "서로 다른 세계간의 교류가 진보를 가속화할 것이라 믿으며 스포츠카 분야와 하이퍼세일 양쪽에서 역할을 맡은 이유도 두 세계간의 지속적인 기술 교류를 이루기 위함이다"고 말했다. 이어 "앞으로는 스포츠카에서 하이퍼세일로, 하이퍼세일에서 다시 스포츠카로 기술이 전이될 것"이라고 강조했다. 한편 슈퍼카 브랜드들은 하이퍼카 제작 과정에 쌓은 기술력을 해양 요트에 이식하고 있다. 이탈리아 슈퍼카 람보르기니는 이탈리안 씨 그룹과 협업해 '테크노마르 포 람보르기니 101FT' 모터 요트를 제작했다. 이처럼 슈퍼카 브랜드들은 육상과 해양의 경계를 넘나들며, 기술력의 무대를 확장하고 있다.

2025.10.10 14:47김재성

신세계百, 日 시부야 중심가 공략 나선다

신세계백화점이 일본 시부야 중심 상권 공략에 나선다. '하이퍼그라운드'를 통해 K-브랜드를 일본 고객들에게 선보이겠다는 전략이다. 신세계백화점은 지난 23일 서울 서초구 신세계백화점 본사에서 일본 도큐그룹 내 도큐 리테일 매니지먼트와 한-일 컨텐츠 교류 및 비즈니스 모델 강화를 위한 MOU를 체결했다고 24일 밝혔다. 도큐그룹은 1922년부터 철도사업을 기반으로 설립된 기업이자 도쿄의 주요 철도노선과 역사를 운영하고 있다. 시부야의 중요 랜드마크(시부야109, 시부야 히카리에 등), 백화점, 부동산, 호텔 리조트 등 일본 전역에 걸쳐 사업망을 보유한 대기업이다. 이번 MOU를 통해 두 기업은 양사간 상업시설을 거점으로 한 브랜드 교류 및 프로모션을 강화하고 지속적으로 양국 시장에서 새로운 가치를 창출하는데 협력해 나갈 계획이다. 신세계백화점은 이번 MOU로 시부야 중심가에 위치한 도큐그룹의 상업시설로 진입해 고객 접근성을 높이겠다는 전략이다. 다음 달 '시부야109'에서는 신세계 하이퍼그라운드 팝업스토어가 진행된다. 시부야 109는 지난 1979년 처음 개장한 이후 시부야의 랜드마크로 자리매김해왔다. 최근 K-POP 팝업 여는 등 한류를 좋아하는 MZ여성 고객들에게 인기가 끌고 있는 쇼핑몰이다. 신세계 하이퍼그라운드 팝업을 통해 국내에서 검증된 K-브랜드 '라이징 스타'들을 일본 고객들에게 선보이며 K브랜드의 돌풍을 이어나갈 계획이다. 장수진 신세계백화점 상품본부장은 “도큐그룹과의 MOU를 통해 신세계 하이퍼그라운드의 새로운 확장된 모습을 선보일 발판을 만들었다”며 “두 기업간 협업을 통해 한-일 양국 고객들에게 더 가까이 다가가도록 노력할 것”이라 말했다.

2025.09.24 09:30김민아

BYD 양왕, 'U9 익스트림' 공개…부가티 제치고 세계 최고 속도 달성

BYD의 고급 브랜드 양왕이 세계에서 가장 빠른 전기차를 양산하며 기술력을 뽐낸다. 20일 카뉴스차이나닷컴에 따르면 BYD 양왕은 트랙 주행에 특화된 전기 하이퍼카 'U9 익스트림'을 공개했다. 해당 차량은 기존 '양왕 U9 트랙 에디션'을 기반으로 제작됐으며, 최근 독일 파펜부르크 자동차 시험장에서 최고 속도 496.22km를 기록해 세계에서 가장 빠른 양산차 타이틀을 거머쥐었다. 양왕 측은 또 뉘르부르크링 노르트슐라이페에서 6분59초157 랩 타임을 기록했다고 밝혔다. 이는 샤오미 SU7 울트라가 세운 양산 전기차 기록(7분04초957)을 넘어선 수치다. U9 익스트림은 글로벌 시장을 대상으로 단 30대만 한정 생산될 예정이다. 이번 기록으로 U9 익스트림은 부가티 시론 슈퍼스포츠 300+(490.5km/h)을 넘어섰으며, 아스파크 아울(438.7km/h)과도 큰 격차를 보였다. 스웨덴 하이퍼카 제조사 코닉세그의 플래그십 모델인 제스코 앱솔루트는 아직 시뮬레이션 수치만 공개된 상태지만, 지난 0–400–0km/h 신기록을 달성한 바 있다. U9 익스트림은은 공력 성능을 극대화한 확장형 디자인을 채택했다. 대형 카본 파이버 프런트 스플리터, 이중 채널 보닛, 스완넥 리어 윙 등이 장착됐으며, 차체 크기는 길이 4천991mm, 너비 2천29mm, 높이 1천351mm, 휠베이스는 2천900mm다. 타이어는 지티와 공동 개발한 최고 500km/h 대응 세미 슬릭 타이어 '지티 스포츠 e·Gtr2 프로'를 사용하며, 브레이크는 티타늄 캘리퍼와 업그레이드된 카본 세라믹 디스크로 제동력을 확보했다. 후면부는 이중 디퓨저, 레이어드 리어 글라스, 분리형 테일라이트 구조를 적용했으며, 실내는 풀 디지털 계기판, 세로형 터치스크린을 포함한 T자형 센터 콘솔, 카본 파이버와 알칸타라 소재가 대거 쓰였다. 버킷 시트와 다기능 스티어링 휠도 탑재해 트랙 주행 성격을 강화했다. 동력계는 BYD의 이시팡 시스템 기반 4모터 구동 방식을 채택했다. 1천200V SiC 플랫폼에서 각 모터가 555kW를 발휘해 총 2천220kW(약 3천마력)에 달한다. 톤당 출력은 1천217ps로, 토크 벡터링은 초당 100회 이상 작동해 네 바퀴에 개별적으로 동력을 분배한다. 섀시는 DiSus-X 액티브 바디 컨트롤 시스템을 적용, 듀얼 밸브 서스펜션으로 바퀴의 수직 운동을 실시간 조절해 가속·제동·코너링 시 접지력을 높인다. 또한 트랙 전용 리튬인산철 블레이드 배터리가 처음 적용돼, 이중 냉각 시스템과 30C 고율 방전 기능으로 열 관리 성능을 크게 개선했다.

2025.09.21 10:05류은주

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

페이커 소속 '팀 리드', 2026 LCK 시즌 오프닝 2년 연속 우승

"긴가민가 내 피부타입 ‘올리브영’이 잘 알려준대서..."

두산·현대도 K-AI 반도체 '주목'…팹리스 유망주들과 협력 모색

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.