• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'퓨리오사 AI'통합검색 결과 입니다. (38건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

시스원, 퓨리오사AI와 공공 총판 계약…2세대 NPU '레니게이드' 공급 본격화

시스원이 퓨리오사AI와 공공부문 총판 계약을 맺고 2세대 신경망처리장치(NPU) '레니게이드(RNGD)' 기반 인공지능(AI) 인프라 시장 공략에 나섰다. 시스원은 서울 강서구 마곡동 본사에서 퓨리오사AI와 공공부문 총판 계약을 체결하고 협정식을 진행했다고 27일 밝혔다. 이번 계약으로 시스원은 퓨리오사AI의 공공시장 진출을 이끄는 첫 총판 파트너가 됐다. 양사는 이번 협약을 계기로 공공기관을 대상으로 한 AI 추론 인프라 공급을 본격화한다. 시스원은 퓨리오사AI의 2세대 NPU 레니게이드' 카드와 'NXT 레니게이드' 서버 제품군을 공공기관에 공급할 계획이다. AI 추론 서버 도입을 준비 중인 중앙부처와 공공기관, 공기업 등을 주요 타깃으로 삼는다. 퓨리오사AI는 대규모 AI 추론 환경에 최적화한 독자 아키텍처 '텐서 축약 프로세서(TCP)'를 기반으로 칩과 소프트웨어 스택을 고도화해 왔다. 2025년 7월에는 LG AI연구원과 레니게이드 실증을 진행해 대규모 언어모델 '엑사원(EXAONE)' 적용을 확정했다. 이를 통해 GPU 대안 추론 솔루션으로서의 경쟁력을 입증했다는 설명이다. 시스원은 1982년 설립 이후 44년간 공공기관을 대상으로 시스템 통합(SI), IT 인프라 운영, 클라우드, 보안 서비스를 제공해 왔다. 약 3백50명의 전문 인력을 기반으로 시스템 구축부터 운영, 컨설팅까지 수행하는 중견 IT 기업이다. 인천국제공항 출입국 심사 자동화 시스템 '이 게이트(e-Gate)' 구축 등 국가 기반 보안 프로젝트 경험도 보유하고 있다. 양사는 앞으로 공동 사업 기회 발굴, 기술 세미나 개최, 레퍼런스 확보 등 다방면 협력을 추진한다. 공공부문 인공지능 전환(AX)을 지원하는 핵심 인프라 공급망을 함께 구축한다는 방침이다. 김영주 시스원 대표는 "이번 총판 계약은 공공부문에서 요구하는 인공지능 전환의 핵심 인프라를 제공하기 위한 협력"이라며 "퓨리오사AI와 함께 국내 AI 반도체 생태계를 활성화하고 성공적인 AX를 이끌겠다"고 말했다. 백준호 퓨리오사AI 대표는 "시스원의 공공시장 전문성과 사업 수행 역량은 자사 기술 확산에 중요한 역할을 할 것"이라며 "긴밀한 협력을 통해 제품이 업계 표준으로 자리 잡도록 노력하겠다"고 밝혔다.

2026.02.27 16:50남혁우 기자

[현장] LG CNS AI 테크 서밋 2026 개막…엔비디아부터 오픈AI까지 총출동

LG CNS가 엔비디아, 오픈AI, 팔란티어 등 국내외 주요 인공지능(AI) 반도체 기업 함께 실행 중심 기업형 AI 전략을 제시했다. 26일 LG CNS는 AI 기술과 비즈니스 전략을 공유하는 'LG CNS AI 테크 서밋 2026'을 서울 마곡 사이언스파크에서 개최했다. 이번 행사는 AI가 기업 전반에 확산되는 상황에서 안정적인 도입과 통제 체계 구축, 데이터 폭증에 따른 인프라 효율화, 자율적으로 판단하고 행동하는 에이전틱 AI 전환, 데이터 주권을 확보하는 소버린 AI 구축 방안을 모색하기 위해 마련됐다. 엔비디아, 팔란티어, 오픈AI, 시스코, IBM, HPE, VM웨어, 델 테크놀로지스 등 글로벌 테크 기업과 함께 망고부스트, 퓨리오사AI, 리벨리온 등 국내 AI 반도체 기업이 참여해 기술 전략과 실제 적용 사례를 공유했다. 김태훈 LG CNS 부사장은 "AI는 이제 가능성의 시대를 지나 실제 실행과 성과를 만들어내는 시대로 들어섰다"며 "이제 생성형 AI의 단순 응답을 넘어 업무 프로세스 안에서 스스로 계획하고 실행하는 '에이전틱 AI'로 빠르게 진화하고 있다고 설명했다. 동시에 기업 현장에서는 보안, 컴플라이언스, 거버넌스가 내재화된 '엔터프라이즈 AI'가 새로운 표준으로 자리 잡고 있다고 강조했다. 인프라 변화도 핵심 화두로 제시했다. 김 부사장은 학습뿐 아니라 추론의 중요성이 커지고 있으며, 추론 비용 효율화와 운영 자동화, 관측 가능성 확보가 기업 경쟁력을 좌우하고 있다고 진단했다. 또한 산업과 국가별 규제에 대응하는 프라이빗 AI와 소버린 AI가 주요 요구사항으로 부상하고 있다고 덧붙였다. 행사는 키노트를 시작으로 엔터프라이즈 AI와 거버넌스, AI 인프라 효율화, 에이전틱 AI와 데이터 관리, 소버린 AI 등 주제별 트랙으로 구성됐다. 각 세션은 현장 적용 중심의 인사이트 공유에 초점을 맞췄다. 진요한 AI센터장은 올해를 'AI실전 배치의 해'로 삼고 실제 운영 역량을 갖춘 소버린 엔터프라이즈로 전환하는 출발점이 되기를 기대한다고 밝혔다. 그는 "지난 1년의 변화가 그 이전 20년보다 더 컸다"고 진단하며, 2017년 트랜스포머 등장 이후 2025년 현재는 AI가 실제 산업과 물리적 세계까지 확장되는 전환점에 와 있다고 설명했다. 특히 생성형 AI 이후 모델이 비약적으로 똑똑해지면서 B2C 경험과 B2B 현실 사이의 기대 격차가 커졌다고 지적했다. 개인은 즉시 활용하지만 기업은 보안, 데이터 정합성, 시스템 연계 등 복합 요건을 충족해야 한다는 점을 짚었다. 그는 엔터프라이즈 AI의 핵심을 '모델, 데이터, 운영'의 통합 전략으로 제시했다. 단일 모델 선택이 아니라 경량 모델과 고성능 모델을 작업 특성에 따라 라우팅하는 전략이 필요하며, 데이터 연결과 권한 관리, 배치 전략이 곧 소버린 역량이라고 강조했다. "모델을 보유하는 것이 아니라, 모델을 실전에 배치해 운영할 수 있는 능력이 기업 경쟁력"이라고 말했다. LG CNS는 이에 대응해 자사 AI 플랫폼을 에이전틱 구조로 고도화하고, '에이전트웍스' 체계를 통해 기업용 에이전트 운영 환경을 제공하겠다는 구상도 밝혔다. 모델 라우팅, 다중 모델 운영, 기업 데이터 연계, 권한 통제, UI 설계까지 포함한 통합 운영체계를 지향한다는 설명이다. 인프라 전략도 구체화했다. 퍼블릭 클라우드와 온프레미스 이분법을 넘어 상황별 혼합 구조가 필요하며, 추론 수요 확대에 대응해 XPU 기반 서비스도 준비하고 있다고 밝혔다. GPU를 모두 직접 구매하는 방식이 아니라 온디맨드 서비스 활용 등 유연한 전략이 필요하다고 강조했다. 외교부, 경기도교육청 등과의 로드맵 기반 AX 프로젝트 사례도 소개하며 선도 사례가 캐즘을 넘는 전환점이 될 수 있다고 강조했다. 또한 글로벌 파트너와의 협업을 통해 기술과 운영 역량을 결합한 실행형 AI 전략을 확대하겠다고 밝혔다. 김 부사장은 "LG CNS는 AX 마스터 플랜 수립부터 데이터 플랫폼, 인프라 구축, 보안과 거버넌스, 운영 자동화까지 고객의 AI 라이프사이클 전 과정을 책임지는 AX 이노베이터"라며 "오늘 공유되는 아이디어와 사례가 각 기업의 다음 실행을 더 빠르고 안전하게 만드는 출발점이 되길 바란다"고 밝혔다.

2026.02.26 13:51남혁우 기자

[유미's 픽] "말하는 AI는 끝났다"…MWC 2026서 '에이전틱 AI' 주도권 경쟁 본격화

다음 달 스페인 바르셀로나에서 열리는 세계 최대 이동통신 전시회 '모바일월드콩그레스(MWC 2026)'가 인공지능(AI) 소프트웨어 경쟁의 분기점이 될 것으로 전망된다. 단순 생성형 응답을 넘어 스스로 판단하고 실행까지 수행하는 '에이전틱 AI(Agentic AI)'가 통신·커머스·엔터프라이즈 현장으로 빠르게 확산되면서 산업 지형을 바꾸고 있어서다. 26일 업계에 따르면 MWC 2026은 다음 달 2일(현지시간)부터 5일까지 세계이동통신사업자협회(GSMA) 주최로 스페인 바르셀로나 피라 그란 비아에서 열린다. 올해는 2006년 바르셀로나로 MWC 개최지를 옮긴 뒤 20주년이 되는 해로, 지난 20년간의 여정을 돌아보는 상징적인 행사가 될 전망이다.GSMA는 AI와 차세대 네트워크 기술이 결합하면서 산업과 사회 전반이 지능화되는 변곡점에 진입했다고 보고 올해 슬로건을 '지능화 시대(The IQ Era)'로 내세웠다. 업계에선 모델 성능 경쟁을 넘어 실제 업무 수행 능력과 신뢰성을 가르는 국면에 접어들었음을 이번 전시에서 확인할 수 있을 것으로 기대하고 있다. 글로벌 빅테크와 클라우드 기업, AI 스타트업, 컨설팅·보안 업체들은 자율형 소프트웨어를 앞세워 MWC 2026에서 새로운 비즈니스 모델을 제시할 예정이다. 각 기업들은 단순 기능 시연이 아닌 AI가 목표를 설정하고 데이터를 분석한 뒤 실행까지 이어가는 구조를 실제 서비스 형태로 구현하겠다는 전략을 앞세우고 있다.올해 전시의 핵심은 '보고 듣는 AI'에서 '행동하는 AI'로의 전환이다. 이에 맞춰 일정 관리와 고객 응대, 구매·결제 등 실제 업무를 단계적으로 수행하는 '에이전틱 AI'가 주요 데모로 등장한다. 사람의 승인 하에 실행까지 이어지는 구조로, AI가 보조 도구를 넘어 업무 대리인으로 확장되는 단계라는 분석이 나온다.구체적인 기업 전략도 이를 뒷받침한다. 유통·커머스 분야에서는 구글이 제미나이를 기반으로 음성 인터페이스와 결합한 실행형 AI 전략을 강조하며 사용자의 승인 하에 구매 단계까지 연결되는 구조를 제시한다. AWS는 '베드록(Bedrock)'을 통해 산업별 맞춤형 AI 에이전트 구축 사례를 소개하며 워크플로 자동화와 비용 절감 효과를 부각할 예정이다. 업계에선 이를 '에이전틱 커머스'의 초기 단계로 해석한다. 엔터프라이즈 영역에서는 마이크로소프트가 AI 보안·거버넌스를 강화한 플랫폼 전략을 앞세운다. 실행 로그 추적과 권한 통제 기능을 강화해 자율형 AI가 기업 시스템 안에서 안전하게 작동할 수 있는 환경을 구축하는 데 초점을 맞추고 있다. AWS와 구글 클라우드 역시 다중 에이전트 오케스트레이션 기능을 고도화해 기업 고객의 업무 자동화를 지원한다는 방침이다. AI 신뢰성 확보 움직임도 활발하다. 셀렉트스타는 '글로벌 AI 레드팀 챌린지'를 통해 SK텔레콤 'A.X K1', LG유플러스 '익시젠(ixi-GEN)', AT&T '애스크(Ask) AT&T' 등 통신 특화 대형언어모델(LLM)의 취약점을 점검한다. 또 자사 신뢰성 평가 플랫폼 '다투모(Datumo)'를 활용해 편향, 허위정보 유도, 유해성 등 다양한 기준에서 모델을 검증한다는 계획이다. 해외 전문 AI 기업들도 산업별 특화 솔루션을 선보인다. 음성 기반 AI 분야에서는 미국 사운드하운드 AI가 매장 현장에서 고객 응대를 지원하는 '세일즈 어시스트(Sales Assist)'를 선보인다. 중국 타임케틀은 40여 개 언어를 지원하는 실시간 통역 소프트웨어 X1을 통해 협업 환경에서의 활용 가능성을 강조한다. 모델 초경량화 기술을 보유한 유럽 스타트업 컴팩티파이AI 역시 클라우드 연결 없이 기기 내부에서 연산이 가능한 알고리즘을 공개할 계획이다.MWC와 함께 열리는 스타트업 행사 '4YFN(4 Years From Now)'에서도 실행형 AI 흐름이 감지된다. 올해 주제는 '인피니트 AI(Infinite AI)'로, 산업과 일상에 밀착된 지능형 애플리케이션이 소개된다. 이 자리에서 핀란드 스타트업 스카이포라는 AI 기반 기상 지능 소프트웨어를 통해 극단적 기상 변화를 예측하는 솔루션을 선보이고, 마이브로는 감성 지능(EQ)을 반영한 'AI 스포츠 코치'를 공개한다. 국내 기업들도 상용화 경쟁에 나선다. 래블업은 개인용 AI 플랫폼 '백엔드닷AI:고(Backend.AI:GO)'를 통해 오프라인 환경에서도 소형언어모델(SLM)을 구동할 수 있는 구조를 선보인다. 다수의 기기를 연결하는 '메시 모드(Mesh Mode)'와 외부 클라우드로 전환하는 '하이브리드 버스팅' 기능을 통해 확장성을 확보했다.이스트소프트는 실시간 대화형 AI 휴먼 서비스 '페르소 인터랙티브'를 공개하며 NTT·니혼교통과 협력한 일본 택시 도입 사례를 비롯해 리테일·라이브커머스 적용 시나리오를 소개한다. 전시장에서는 KT 부스와 삼성전자 부스에서 각각 연계 시연도 진행될 예정이다. 실행형 AI 확산에 맞춰 인프라 경쟁도 본격화되고 있다. LG그룹은 'AI 원팀'을 구성해 MWC 2026에 참가하고 LG유플러스를 중심으로 AI 데이터센터(AIDC) 기술 역량을 공개한다. 이 자리에서 전력·냉각·운영을 통합 설계한 AI 특화 데이터센터 구축 전략과 함께 LG AI연구원·퓨리오사AI와 협업한 '소버린 AI 어플라이언스'를 선보일 예정이다. 또 그룹 차원의 냉각·전력 관리 기술과 데이터센터 운영 역량을 앞세워 고성능 그래픽처리장치(GPU)를 안정적으로 운용하는 'AI 공장' 모델을 제시한다는 구상이다. 업계 관계자는 "이번 MWC는 AI 기술이 실험 단계를 넘어 실제 산업 운영 구조에 편입되는 과정을 확인하는 무대가 될 것"이라며 "실행력과 신뢰성을 갖춘 소프트웨어가 경쟁력을 좌우하는 시대가 본격화하고 있다는 신호"라고 말했다.

2026.02.26 13:50장유미 기자

더존비즈온-퓨리오사AI, 국산 NPU로 공공·금융 AI 판 키운다

정부가 국산 인공지능(AI) 반도체 확산 정책을 본격화하는 가운데 더존비즈온이 국내 대표 신경망처리장치(NPU) 기업 퓨리오사AI와 손잡고 국내 공공·금융 시장 확산과 글로벌 사업 확대에 박차를 가한다. 더존비즈온은 서울 중구 더존을지타워에서 퓨리오사AI와 NPU 기반 AI 솔루션 글로벌 사업화를 위한 업무협약(MOU)을 체결했다고 19일 밝혔다. NPU는 생성형 AI 개발 등에 활용되는 AI 반도체로, 그래픽처리장치(GPU)보다 전력 소모량이 적고 AI 추론·연산에 특장점을 갖고 있다. 퓨리오사AI는 AI 반도체 설계기업으로 2017년 설립 이후 1세대 컴퓨터 비전용 NPU 상용화에 이어 최근 2세대 칩 '레니게이드(RNGD)' 양산을 시작했다. 이번 협약은 양사가 공동 수행한 '2025년 AI 반도체 해외실증 사업'을 비롯해 그동안 상호 축적된 성공적인 협업 성과를 토대로 마련됐다. 레니게이드를 기반으로 한 AI 솔루션의 국내·해외 사업화를 목표로 상호 기술 협력을 비롯해 공동 레퍼런스 창출 등 다각적인 협력 활동을 전개할 방침이다. 특히 정부가 최근 공공부문을 중심으로 국산 NPU 적용 확대를 추진하는 상황에서 이번 협력이 관련 시장 확대 흐름과 맞물릴지 주목된다. 양사는 퓨리오사AI NPU 환경에서 더존비즈온의 '원 AI'를 구동·적용하는 데 주력한다. 레니게이드 기반 인프라를 활용해 공공·금융 등 보안과 안정성이 중요한 프라이빗 환경을 대상으로 AI 서비스 지원 및 전력 효율과 운영 효율까지 고려한 인프라 검증·구성에 나선다. 시장 적용 가능성과 기술적 신뢰도 역시 단계적으로 확보한다는 목표다. 실제 현장의 서비스 운영 환경을 기준으로 국산 NPU 기반 AI 서비스 성능, 전력 소모 대비 처리량 측면의 객관적 검증을 추진하고 신뢰할 수 있는 제삼자 검증 체계를 통해 결과를 확인·축적할 예정이다. 이를 통해 양사는 국산 NPU에 접목된 AI 서비스의 운영 효율성과 비용 경쟁력을 입증할 계획이다. 향후 국내외 시장에서의 사업화와 시장 확대를 위한 기술적 기반도 공동으로 마련한다는 방침이다. 더존비즈온은 이번 협력으로 고가의 외산 GPU 의존도를 낮추고 국산 AI 반도체를 활용한 독자적인 AI 인프라 선택지를 확보하게 됐다. 퓨리오사AI 역시 더존비즈온의 기업 고객을 대상으로 공급처 확대에 나서고 기업 핵심 업무 영역에서의 적용 사례와 피드백을 추후 시장 개척에 활용할 계획이다. 다만 더존비즈온이 퓨리오사AI의 NPU를 얼마나 도입할지에 대해선 아직 구체적으로 공개되지 않았다. 단계적 검증과 사업화 추진 상황에 따라 적용 범위를 확대해 나갈 것으로 풀이된다. 더존비즈온 관계자는 "이번 협약은 국산 AI 기술의 자립과 글로벌 경쟁력 강화를 위한 중요한 전환점이 될 것"이라며 "우리 AI 솔루션 역량과 퓨리오사AI의 반도체 기술력을 결합해 효율적이고 신뢰도 높은 글로벌 AI 비즈니스 모델을 만들어 갈 것"이라고 말했다.

2026.02.19 16:02한정호 기자

엔비디아 GPU 의존 넘을까…정부에 발 맞춘 LG CNS, 국산 AI 반도체로 공공 AX 공략

LG CNS가 인공지능(AI) 반도체 기업 퓨리오사AI와 손잡고 신경망처리장치(NPU) 기반 AI 서비스를 개발해 공공 AX 시장 공략에 나선다. 정부가 국산 AI 반도체 육성을 핵심 과제로 내세운 가운데 대기업과 국내 AI 반도체 스타트업 간 협력이 본격화하는 모습이다.LG CNS는 서울 마곡 LG사이언스파크 본사에서 퓨리오사AI와 'AI 인프라 사업 협력 확대'를 위한 업무협약(MOU)을 체결했다고 5일 밝혔다. 협약식에는 LG CNS AI클라우드사업부 김태훈 부사장과 퓨리오사AI 백준호 대표 등 주요 경영진이 참석했다. 퓨리오사AI는 AI 연산에 특화된 반도체인 NPU를 설계·개발하는 AI 반도체 스타트업이다. 퓨리오사AI의 2세대 NPU 'RNGD(레니게이드)'는 대규모 AI 서비스에 필요한 고성능 요건을 충족하고, 그래픽처리장치(GPU) 대비 전력 소모와 운영 비용을 크게 줄일 수 있다. 퓨리오사AI는 지난 1월 TSMC로부터 RNGD 4000장을 인도받으며 양산에 성공, 글로벌 시장 공략 및 보급에 박차를 가하고 있다. 이번 협력을 통해 양사는 LG AI연구원 컨소시엄으로 참여 중인 '독자 AI 파운데이션 모델' 프로젝트 내 협력을 강화한다. LG CNS는 퓨리오사AI의 RNGD를 적용한 K-엑사원(EXAONE)을 기반으로 AI 서비스의 성능을 최적화하고, 상용화해 시너지를 극대화하는 역할을 맡는다. 퓨리오사AI는 안정적인 RNGD 공급과 함께 NPU 관련 기술 지원을 담당한다.이번 협력은 국산 AI 반도체가 실제 AI 서비스 환경에서 상용화 가능성을 검증하는 사례라는 점에서 업계의 관심을 받고 있다. 그동안 국내 AI 반도체는 기술력 대비 상용 레퍼런스 부족이 한계로 지적돼 왔는데, 이번 협력을 계기로 대기업 AI 서비스 인프라에 토종 NPU가 적용되는 실증 사례가 추가됐다는 평가다. 업계에선 이번 협력이 토종 AI 반도체가 엔비디아 중심의 GPU 생태계에 도전할 수 있는 가능성을 보여주는 사례이자, 국내 AI 반도체 기업들이 본격적으로 공급망에 참여할 수 있는 신호탄이라는 분석도 나온다. GPU 중심 인프라 구조에서 벗어나려는 시도라는 점도 이번 협력의 의미로 꼽힌다. 퓨리오사AI의 NPU는 GPU 대비 전력 효율과 추론 성능 측면에서 경쟁력을 갖췄다는 평가를 받아왔다. 이번 프로젝트를 통해 단순한 하드웨어 대체를 넘어 AI 서비스 특성에 맞춰 GPU와 NPU를 병행·최적화하는 인프라 구조의 가능성을 검증한다는 점에서 AI 인프라 생태계 확장으로 이어질 수 있다는 해석도 나온다. LG CNS 역시 협력 배경으로 GPU 중심 생태계에 대한 종속성을 줄이고, 국내 AI 기술과 인프라 경쟁력을 강화하려는 전략을 강조하고 있다. 특히 공공 AX 시장의 경우 비용 효율성과 안정성이 중요한 만큼, NPU 기반 인프라가 현실적인 대안이 될 수 있다는 판단이다. 퓨리오사AI 입장에서도 이번 협력은 성장의 중요한 분기점으로 평가된다. 국내 대기업의 AI 서비스 인프라에 자사 NPU가 채택되면서 기술력뿐 아니라 상용성과 안정성을 동시에 입증할 수 있는 레퍼런스를 확보하게 됐기 때문이다. 회사는 이를 바탕으로 글로벌 시장에서도 고객 확보에 나선다는 전략이다. 업계 관계자는 "LG CNS와의 협력이 특정 기업의 성과를 넘어 국내 팹리스 기업들이 AI 반도체 분야에서 자체 제품을 실제 서비스에 적용하는 사례를 늘리는 계기가 될 수 있을 것"이라며 "정부가 국산 AI 반도체 육성을 핵심 과제로 제시한 상황에서 민간 차원의 실질적인 상용화 사례가 등장하고 있다는 점에서 의미가 있다"고 분석했다. 양사는 이번 협력을 계기로 토종 AI 모델과 서비스, 인프라, AI반도체로 구성된 '소버린 AI 생태계'를 더욱 강화하고 공공 AX 시장에 최적화된 서비스를 제공한다는 전략이다. 공공 부문 특성상 보안성과 비용 효율, 안정성이 중요한 만큼, GPU 중심 인프라의 대안으로 NPU 기반 AI 인프라를 제시하겠다는 구상이다. 협력의 첫 단계로 LG CNS는 자체 개발한 기업용 에이전틱AI 플랫폼 '에이전틱웍스(AgenticWorks)' 구동 인프라에 퓨리오사AI NPU를 적용해 기술 검증을 진행한다. 에이전틱AI는 스스로 목표를 설정하고 복잡한 업무를 수행하는 만큼, 이를 뒷받침할 고성능·고효율 인프라가 필수적이다. LG CNS는 NPU 기반 인프라를 통해 에이전틱AI 서비스의 전력 효율과 운영 효율을 동시에 높일 계획이다. 양사는 NPU 기반 GPUaaS(GPU as a Service) 성능 최적화 기술도 실증한다. GPUaaS는 GPU를 가상화해서 제공하는 방식으로, 사용자는 실제 하드웨어를 구매하지 않고도 고성능 연산 환경을 활용할 수 있어 AI 시대의 핵심 모델로 각광받고 있다. 양사는 AI 학습과 AI 서비스 운영, 추론 등 모든 단계에 NPU를 적용해 전력 효율과 비용 경쟁력을 높일 수 있는 인프라 최적화에 나선다. 김태훈 LG CNS AI클라우드사업부 부사장은 "퓨리오사AI와의 협력을 통해 고객들이 에이전틱AI를 보다 효율적으로 사용할 수 있도록 NPU 기반 AI 인프라 기술력과 전문인력을 확보할 것"이라며 "LG AI연구원과 협력해 국가대표AI 모델 고도화를 지원하고 국내 AI 산업 발전에 기여할 것"이라고 밝혔다.

2026.02.05 10:05장유미 기자

[유미's 픽] 풀스택으로 중동 뚫은 'K-AI 연합군'…조준희 리더십 빛났다

조준희 한국인공지능·소프트웨어산업협회(KOSA) 회장이 지난 수년간 공들여온 '중동 세일즈'가 세계 최대 에너지 기업 사우디 아람코와의 실질적 협력으로 결실을 맺었다. '한국형 인공지능(AI) 풀스택' 패키지가 이번 협업으로 본격적인 해외 진출 모델로 자리 잡으며 한국 SW·AI 산업의 새로운 수출 이정표를 세웠다는 평가가 나오고 있다. 2일 KOSA에 따르면 조 회장은 지난 1일 사우디 다란에 위치한 아람코 디지털 본사에서 국내 AI·클라우드 기업 7개사와 함께 아람코 디지털 간 산업용 풀스택 AI 협력 양해각서(MOU)를 체결했다. 이번 일은 KOSA에서 지난해 11월 구성한 'K-AI 풀스택 컨소시엄'의 첫 번째 성과다.'K-AI 풀스택 컨소시엄'은 AI 반도체, 클라우드 인프라, 파운데이션 모델, AI 운영·관리, AI 애플리케이션 등 5단계 풀스택 구조로, 국가 차원의 AI 경쟁력을 글로벌 시장에 제시하기 위해 KOSA에서 발족했다. 이곳에 참여한 기업은 LG AI연구원, NC AI, 업스테이지, 퓨리오사AI, 리벨리온 ,메가존클라우드, 유라클 등 7개 기업과 KOSA 컨소시엄 운영사다. 이번 계약은 단순한 기술 교류를 넘어 AI 반도체부터 모델, 인프라까지 전 과정을 하나로 묶은 '한국형 AI 풀스택 패키지'가 해외 산업 현장에 적용되는 첫 사례란 점에서 많은 관심을 받고 있다. 그동안 한국 소프트웨어(SW)·AI 기업의 수출이 전체 ICT 수출 구조에서 차지하는 비중이 크지 않았던 만큼, 이번 협약이 새로운 전환점이 될 것이란 전망도 나온다.업계 관계자는 "글로벌 SW 시장 규모에 비해 한국 기업들의 해외 점유율은 낮았던 편"이라며 "최근 성장 기반을 다지고 있지만 AI 기술력도 본격적인 대규모 수출 성과로 이어지는 단계가 아직 초기에 머물러 있었다"고 분석했다.하지만 최근 KOSA를 중심으로 서비스형소프트웨어(SaaS)와 산업 특화 AI 모델 등 수출형 비즈니스 모델을 강화하려는 움직임이 확대되면서 기대감이 커지고 있다. 정부와 기관 역시 맞춤형 해외 진출 지원을 강화하고 있어 아람코 협력 사례처럼 '풀스택 패키지' 형태의 실전 수출 모델이 향후 중동을 넘어 다른 신흥시장으로 확산될 가능성도 제기된다. 이 같은 분위기에 맞춰 조 회장은 글로벌 빅테크가 시장을 독점하는 상황에서 국내 기업들이 단독으로 경쟁하기 어렵다고 보고 'K-AI'를 대표하는 7개 기업을 '연합군' 형태로 결집시켜 중동 공략에 나섰다. 이를 통해 아람코 디지털은 우리나라의 하드웨어부터 모델, 운영까지 한 번에 제공받을 수 있는 '원스톱 솔루션'을 확보하게 돼 AI 경쟁력을 단 번에 끌어올릴 수 있게 됐다.이번 협약에 참여한 기업들이 'K-AI' 경쟁력의 대표 주자란 점에서도 관심이 쏠린다. ▲리벨리온, 퓨리오사AI는 AI 반도체 ▲업스테이지·LG AI연구원·NC AI 등 정부의 독자 AI 파운데이션 모델 개발 5개사로 선정됐던 3곳은 산업 특화 LLM ▲유라클은 운영 서비스 ▲메가존클라우드는 클라우드 인프라를 맡아 국내 기업의 기술력을 중동 현지에 전파시킬 예정이다. 이처럼 기업들을 하나로 모은 것은 조 회장의 리더십이 한 몫 했다. 특히 조 회장은 중동 국가들이 데이터 주권과 안보를 이유로 해외 빅테크 의존도를 줄이려는 '소버린 AI' 수요가 크다는 점에 주목해 한국 기업들이 현지 산업 환경에 최적화된 형태로 진출할 수 있도록 협력 모델을 설계해왔다.또 그는 지난 수년간 사우디와 UAE를 수차례 오가며 아람코 경영진과 직접 교류하는 등 현장 중심의 네트워크를 구축했다. 협회 차원에서는 기업들의 요구사항을 조율하며 이번 MOU 성사의 기반을 마련했다.정부와 민간을 잇는 가교 역할도 조 회장이 맡았다. 과기정통부와 긴밀히 협력해 '민·관 원팀' 체계를 구축함으로써 협약의 공신력을 높였고, 국내 기업들이 중동 시장에서 안정적으로 사업 기회를 확보할 수 있도록 지원했다. 이에 업계에선 조 회장의 노력을 바탕으로 성사된 이번 협약이 단순한 MOU를 넘어 한국 AI 산업이 풀스택 경쟁력을 기반으로 글로벌 시장에서 새로운 수출 모델을 만들어낸 상징적 사례라고 평가했다. 일부 업체들은 이번 일로 해외 수출 성과뿐 아니라 실적에도 긍정적인 영향을 받을 것으로 보인다. 업계에 따르면 아람코디지털과 소버린 멀티 클라우드 플랫폼으로는 이미 240만 달러 계약을 해 잔금까지 받았고, 추가 600만 달러 계약도 앞두고 있는 것으로 전해졌다.특히 이번 협력의 핵심인 메가존클라우드는 지난해 아람코 디지털과 클라우드 통합 관리 플랫폼 공급계약을 체결하고 프로젝트 구축을 완료해 기대감이 크다. 또 이번 방문을 통해 아람코 그룹 내 사업 추진을 위한 협약을 체결하고 공동 프로젝트에 속도를 낼 예정이다. 다른 기업들도 현지 산업 환경에 최적화된 AI 적용 사례를 발굴하고 에너지·제조 등 아람코 그룹 전반의 디지털 전환 사업으로 협력 범위를 확대해 나갈 계획이다. 또 아람코 측이 제시한 수요에 맞춰 AI 반도체, 산업 특화 LLM, 클라우드 인프라 운영·관리 등 풀스택 관점에서 핵심 기술을 최적화해 제공한다는 방침이다. 더불어 단순한 기술 공급을 넘어 현지 산업 현장에서 실제 활용 가능한 '버티컬 AI' 모델로 발전시킬 가능성도 제기된다.아람코 디지털은 그룹 내 방대한 산업 인프라와 공급망에 AI 기술을 접목할 수 있는 분야를 도출하고 구체적인 적용 방안을 검토할 예정이다. 정부 역시 이번 협약을 한국 AI 산업의 해외 진출 표준 모델로 확산하겠다는 구상이다. 과기정통부는 이번 협력이 민간 기업들의 기술 역량을 하나로 결집해 중동 산업 현장에 적용할 수 있는 협력 기반을 마련했다는 점에서 향후 후속 사업 확대 가능성에 주목하고 있다. 류제명 과기정통부 제2차관은 "최근 글로벌 AI 평가기관에서 한국을 세계 3위 수준의 AI 국가로 지목하는 등 K-AI에 대한 국제적 관심이 높아지고 있다"며 "이번 협력은 우리 기업들이 신흥시장에서 더 많은 성공 사례를 만들어낼 수 있는 중요한 계기가 될 것"이라고 강조했다.조준희 KOSA 협회장은 "협회는 산업 수요에 기반한 풀스택 AI 협력 구조를 민간 차원에서 운영해왔고, 이번 MOU가 한국 기업과 사우디 산업 간 실질적인 협력으로 이어지는 출발점이 되기를 기대한다"며 "향후 사우디 측의 수요에 기반해 컨소시엄을 단계적으로 확대해나갈 예정"이라고 밝혔다.

2026.02.02 15:41장유미 기자

퓨리오사AI, 2세대 칩 '레니게이드' 양산 개시

AI 반도체 기업 퓨리오사AI가 2세대 칩 RNGD(레니게이드) 1차 양산물량 4천장을 인도받기 시작했다고 28일 밝혔다. RNGD는 파운드리(반도체 위탁생산) 협력사인 대만 TSMC가 제조를 완료한 뒤, 아수스(ASUS)의 카드 제조 공정을 거쳐 출고된다. 회사는 올해 약 2만장 수준의 양산을 계획 중이다. RNGD는 앞서 2024년 하반기 미국 스탠퍼드대학교 세계 반도체 기업 연례 학술행사 '핫 칩스 2024'에서 공개된 바 있으며, 이후 엄밀한 제품화 과정을 거쳤다. 이번 양산은 세계적으로도 HBM을 탑재한 고성능 NPU(신경망처리장치)가 개발을 넘어 양산 단계까지 이른 드문 경우라 글로벌 반도체 업계의 관심을 모으고 있다. RNGD는 두 가지 형태로 제공된다. 'RNGD PCIe 카드'는 180W TDP의 저전력 설계를 적용해 기존 서버에 바로 장착 가능한(drop-in) AI 가속기로 제공된다. 'NXT RNGD 서버'는 RNGD 카드 8장을 탑재한 4U 랙마운트 서버로, 시스템 전체 소비 전력은 3kW에 불과하다. 표준 랙 환경에 최대 5대까지 장착 가능하며, 랙당 최대 20 PFLOPS(INT8)의 AI 추론 성능을 제공한다. 퓨리오사AI는 양산 물량 인도를 계기로 엔터프라이즈 시장 공략에 본격 나선다는 구상이다. 실제로 이미 이달 초 국내 대기업 계열사 한 곳에서 RNGD 구매를 발주하는 등 글로벌 엔터프라이즈 단에서 RNGD 검증을 마치고 정식 채택하는 사례가 늘어나고 있다. 퓨리오사AI는 그동안 하드웨어 안정화와 소프트웨어 스택 고도화를 진행해 왔으며, 이를 토대로 작년 하반기 LG 엑사원(EXAONE) 도입 확정과 오픈AI와의 GPT-OSS 모델 공개 시연 등 실사용 기반의 성과를 축적해 왔다. TSMC, SK하이닉스 등 글로벌 파트너들과의 협력 체계를 바탕으로 안정적인 양산·공급 라인망도 구축했다. RNGD는 인프라 총소유비용(TCO)를 절감할 것으로 기대된다. 이 칩은 기존 인프라 변경 없이 바로 쓸 수 있다. 현재 데이터센터 냉각 방식의 주류를 이루는 공냉식을 기반으로 동작하기 때문이다. 아울러 RNGD는 AI 추론에 최적화된 TCP 아키텍처를 기반으로, 표준 환경에서 GPU 기반 시스템 대비 2.5배 높은 '랙당 연산 밀도'를 제공한다. 이는 동일한 공간과 전력 조건에서 더 많은 AI 추론 워크로드를 처리할 수 있음을 의미한다. 백준호 퓨리오사AI 대표는 “RNGD 양산은 글로벌 AI 3강·반도체 2강 도약을 위한 진일보”라며 “박차를 가해 글로벌 시장 매출 확대를 이루어내겠다”고 말했다.

2026.01.28 09:56전화평 기자

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평 기자

"AI도 팀코리아"…'K-AI' 풀스택으로 뭉친 韓 AI, 글로벌 본격 공략

글로벌 인공지능(AI) 인프라·플랫폼 발주 경쟁이 국가 단위로 확대되고 있는 가운데 우리나라 AI 산업을 대표하는 기업들이 기술 역량을 하나의 '국가 브랜드(K-AI)'로 묶어 해외 시장 공략에 함께 나선다. 한국인공지능·소프트웨어산업협회(KOSA)는 ▲메가존클라우드 ▲LG AI연구원 ▲NC AI ▲업스테이지 ▲유라클 ▲퓨리오사AI ▲리벨리온 등 국내 AI 핵심 기업들과 함께 'K-AI 풀스택(Full-Stack) 모델' 컨소시엄을 구성하고 글로벌 시장 공동 진출 프로젝트를 본격 추진한다고 30일 밝혔다. 초기 컨소시엄은 속도와 실행력을 중시한 소수정예 체계로 운영된다. 해외 대형 프로젝트 수행 경험을 보유한 메가존클라우드가 주 계약 대상사를 맡고, 나머지 참여 기업들이 공동으로 참여하는 방식으로 추진된다. 추후 산업용 파운데이션 모델, AI 에이전트 서비스, 피지컬 AI 및 보안 관련 기업들도 지속적으로 추가하며 참여 기업과 산업 영역을 동시에 확장해 나갈 계획이다. 이번 컨소시엄 구성은 개별 기업의 해외 진출을 넘어 한국 AI 산업 전체의 신뢰도와 확장성을 높이기 위한 전략적 시도로 평가된다. 프로젝트는 개별 기업 중심의 해외 진출을 넘어 한국 AI 산업의 기술 역량을 하나의 '국가 브랜드(K-AI)'로 묶어 제시하는 것이 핵심이다. 참여 기업들은 AI 풀스택 연합 모델을 통해 한국 AI가 실제 산업 현장에서 작동하는 완성형 모델을 해외 시장에 제안할 계획이다. K-AI 풀스택 모델은 5단계 구조로 구성된다. ▲AI 반도체(AI Semiconductor) ▲클라우드 인프라(Cloud Infrastructure) ▲파운데이션 모델(Foundation Models) ▲AI·NPU 운영·관리(AI·NPU Management) ▲AI 애플리케이션(AI applications)이 이에 해당한다. 각 단계에는 참여 기업들의 검증된 기술과 실제 산업 적용 사례가 결합된다. 프로젝트는 단순 기술 소개나 기업 나열 방식이 아닌, 한국 AI 풀스택이 실제로 연결·운영·확장되는 모습을 패키지 형태로 보여주는 글로벌 브랜딩 프로젝트라는 점에서 차별화된다. 참여 기업들의 AI 애플리케이션과 플랫폼, 모델, 인프라가 하나의 체계로 연동되는 구조를 실증함으로써 해외 발주처가 국가·산업 단위 프로젝트를 직접 선택할 수 있도록 설계됐다. K-AI 풀스택 모델은 에너지·제조 등 다양한 산업을 타겟으로 하며 도시·국가 운영 영역까지 확장 가능한 글로벌 레퍼런스 모델을 구축한다는 전략이다. KOSA는 이를 통해 '국가 차원에서 검증된 산업용 AI 풀스택'이라는 브랜드 이미지를 글로벌 시장에 각인시킬 계획이다. 조준희 KOSA 회장은 "이번 프로젝트는 한국 AI 기업들이 경쟁자가 아닌 K-AI 풀스택 모델 아래 팀코리아 정신으로 글로벌 시장에 나서고자 하는 시도"라며 "한국형 AI 풀스택을 통해 해외 시장에서 신뢰할 수 있는 국가 단위 AI 파트너로 자리매김하는 것이 목표"라고 밝혔다.

2025.12.30 09:34장유미 기자

노타·퓨리오사AI, NPU 기술협력…"K-반도체 경쟁력↑"

노타가 퓨리오사AI 손잡고 차세대 신경처리장치(NPU) 기술협력을 추진하며 국내 반도체 경쟁력 강화에 나섰다. 노타는 퓨리오사AI와 NPU 기반 인공지능(AI) 개발을 위한 업무협력을 체결했다고 1일 밝혔다. NPU는 전력 효율성과 고속 추론 성능이 핵심이며, 복잡한 AI 모델 연산을 안정적으로 수행하는 데 필수적이다. 두 기업은 이런 성능을 국내 기술로 구현하기 위해 공동 기술개발과 사업화에 나서기로 했다. 협력 범위는 AI 솔루션 개발·사업화를 비롯한 기술 파트너십 확대, 기술·사업성 검증 프로젝트 등으로 구성됐다. 양사는 상호 기술을 결합해 산업별 요구에 맞춘 고성능 AI 모델 운영 기반을 마련할 계획이다. 노타는 자사 AI 최적화 기술을 활용해 퓨리오사AI의 NPU가 제한된 전력에서도 대규모 모델을 신속하게 구동하도록 지원한다. 이를 통해 NPU 성능 향상과 시장 확대에 기여한다는 전략이다. 두 기업은 로봇, 모빌리티 등 다양한 산업에서 활용 가능한 실증모델 구축에도 협력한다. 또 국내외 시장 진출에서도 공동 전략을 추진할 계획이다. 노타는 이번 협력이 국내 반도체 생태계 강화에도 기여할 것으로 기대했다. AI 모델의 안정적 구동을 위한 최적화 기술을 확보해 AI전환(AX) 요구가 높아지는 산업 전반의 경쟁력을 높이겠다는 구상이다. 채명수 노타 대표는 "기술 시너지를 통해 국내 반도체 경쟁력 강화에 나섰다는 점에서 이번 협력은 큰 의미를 가진다"며 "우리는 AI 최적화 기술로 퓨리오사 NPU의 전력 효율성과 고속 추론 성능을 극대화해 대규모 AI 모델의 안정적 구동을 적극 지원할 것"이라고 말했다. 백준호 퓨리오사AI 대표는 "AI 워크로드가 고도화됨에 따라 추론 환경에서의 인프라 성능과 효율성에 대한 요구는 앞으로 더욱 커질 것이다"며 "노타와의 협력을 통해 퓨리오사 2세대 칩 RNGD 위에서 다양한 최신 AI 모델을 더욱 신속하고 효율적으로 지원할 수 있어 기쁘다"고 밝혔다.

2025.12.01 18:16김미정 기자

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평 기자

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호 기자

공정의 한계 넘는다…국내 반도체 업계, '칩렛 전환' 가속

반도체 공정 미세화 경쟁이 한계에 다다르고 있다. 초미세 공정의 성능 향상 폭은 점점 줄어드는 반면, 생산 비용은 몇 배로 치솟고 있어서다. 이에 반도체 업계는 더 이상 '공정의 미세화'만으로 성능을 높이는 대신, 여러 기능별로 칩을 분리해 다시 하나로 결합하는 '칩렛(Chiplet)' 아키텍처에 주목하고 있다. 칩렛이 효율적이고 유연한 설계를 가능하게 하며, 새로운 반도체 혁신의 중심으로 떠오르고 있다. 5일 반도체 업계에 따르면, 국내외 주요 반도체 기업들이 미세공정의 한계를 돌파하기 위해 칩렛 기반 설계와 패키징 기술 확보에 속도를 내고 있다. 반도체 업계는 그동안 트랜지스터 크기를 줄여 성능을 높이는 공정 미세화 경쟁을 이어왔다. 그러나 3nm(나노미터, 10억분의 1m) 이하 공정부터는 성능 향상 대비 비용 증가폭이 지나치게 커지고, 수율도 떨어지는 구조적 문제가 드러나고 있다. 이에 국내 파운드리(반도체 위탁생산) 삼성전자는 기존 공정 수율 안정화에 집중하면서도, 칩렛 개발에 역량을 쏟아붇고 있다. 칩렛은 CPU, GPU, 메모리, I/O 등 기능별로 나뉜 칩(Die)을 하나의 패키지 안에서 고대역폭·저지연으로 연결해 동작시키는 방식이다. 모든 기능을 하나의 거대한 칩에 집적하는 기존 모놀리식(Monolithic) 구조보다 비용 효율이 높고, 설계 유연성이 크며, 수율도 개선된다. 특히 서로 다른 공정 노드를 조합할 수 있어, 성능과 비용의 균형을 극대화할 수 있는 현실적 대안으로 떠올랐다. 국내 팹리스·디자인하우스, 칩렛 주도권 경쟁 본격화 국내 반도체 산업에서도 AI 팹리스와 디자인하우스들이 칩렛 구조를 실제 제품에 적용하며 시장 경쟁에 뛰어들고 있다. 국내 AI 반도체 스타트업 리벨리온이 대표적인 예시다. 리벨리온은 차세대 칩 리벨(REBEL) 쿼드에 칩렛을 적용한다. 리벨 쿼드는 리벨 싱글 칩 4개를 하나의 패키지로 통합한 형태다. 2 PFLOPS(페타플롭스) 연산 성능, 144GB의 용량, 4.8TB/s 메모리 대역폭을 제공한다. 오진욱 리벨리온 CTO(최고기술책임자)는 최근 'SK AI 서밋' 세션 연사로 나서 차세대 칩인 리벨에 대해 “하나의 칩렛을 개발해 시장이나 고객 요구에 따라 개수를 조정해 붙이는 구조”라며 “고객 맞춤형 AI 가속기를 빠르게 조립할 수 있는 유연한 플랫폼을 목표로 한다”고 말했다. 이 외에도 퓨리오사AI, 넥스트칩 등 국내 팹리스가 차세대 칩에 칩렛 도입을 검토하고 있는 것으로 전해진다. 국내 디자인하우스(DSP) 업계도 칩렛 시대를 준비하고 있다. 먼저 세미파이브는 칩렛을 미래 3대 성장축 중 하나로 꼽고, 기술을 개발하고 있다. 특히 미국 반도체 기업 시놉시스와 협력해 4나노 기반 HPC 칩렛 플랫폼을 개발 중이다. 아울러 D2D(다이 간 통신) 기술을 활용한 칩렛 플랫폼을 하고 있으며, IPO(기업공개) 이후에는 북미 칩렛 IP(설계자산) 기술 기업까지 인수하며 시장을 공략할 계획이다. 조명현 세미파이브 대표는 최근 인터뷰에서 ““3D IC와 칩렛, D2D 인터페이스 분야에서 선도적인 경험을 쌓고 있다”고 밝혔다. 에이디테크놀로지의 경우 삼성 파운드리의 2나노 공정과 Arm 네오버스 CSS V3, 리벨리온의 AI 가속기 칩렛을 결합한 AI CPU 칩렛 플랫폼을 개발하고 있다. 또, 회사는 ADP 6 시리즈 플랫폼을 통해 HPC, 엣지서버, AI 시장 점유율을 끌어올린다는 방침이다. 박준규 에이디테크놀로지 대표는 “칩렛 기술을 통해 AI 데이터센터 제품뿐 아니라 고성능 네트워킹 제품으로 확장할 수 있다"며, "파운데이션 라이브러리와 메모리를 경쟁력 있게 개발해 칩렛 솔루션의 컴퓨팅 기능을 강화하고, 고객의 실리콘에 경쟁력을 더할 것"이라고 말했다. 코아시아세미는 리벨리온과 협력해 2.5D 실리콘 인터포저 기술을 적용한 차세대 칩렛 제품을 개발하고 있다. 가온칩스는 케이던스, 시놉시스 등 IP 업체들과 협력하며 칩렛에 대한 접근성을 확보한 상황이다. 한편 글로벌 시장조사기관 글로벌 인포메이션에 따르면 세계 칩렛 시장 규모는 지난 2024년 142억2천만달러(약 20조6천억원)에서, 2030년 941억7천만달러(약 136조4천242억원)까지 성장할 것으로 전망된다.

2025.11.05 16:59전화평 기자

韓 NPU·코드 어시스턴트 결합…유라클-퓨리오사AI, AX 혁신 생태계 '시동'

유라클이 국내 AI 반도체 선도 기업이자 이재명 정부 첫 유니콘인 퓨리오사AI와 손잡고 국산 신경망처리장치(NPU)와 코드 어시스턴트 융합 생태계 활성화에 나선다. 개발 생산성 혁신과 산업 전반의 인공지능 전환(AX)을 함께 이끈다는 목표다. 유라클은 퓨리오사AI와 전략적 업무협약(MOU)을 체결하고 AI 기반 개발 생산성 혁신에 나선다고 3일 밝혔다. 양사는 이번 협약을 통해 퓨리오사AI의 고성능 NPU에 유라클이 개발한 아테나 코드 어시스턴트 솔루션을 탑재해 국내외 엔터프라이즈 시장을 공략할 계획이다. 구체적으로 퓨리오사AI의 2세대 NPU '레니게이드(RNGD)'로 아테나 코드 어시스턴트의 처리 속도와 에너지 효율을 획기적으로 개선할 계획이다. 이를 통해 전문 개발자가 아니더라도 일정 수준의 요구사항만으로 고품질 코드를 자동 생성할 수 있어 개발자 확보가 어려운 기업에서도 효율적인 소프트웨어(SW) 개발 및 유지보수가 가능할 전망이다. 또 어플라이언스 기반으로 제공되기에 민감한 데이터를 외부에 노출하지 않고도 안전하게 AI 코딩 기능을 활용할 수 있어 공공기관이나 보안이 중요한 금융·제조 분야에서도 안심하고 도입할 수 있도록 지원한다. 이번 협력은 국산 AI 반도체와 AI SW 기술을 결합해 AI 개발 생태계 자립 기반을 강화하는 행보로 평가된다. 단순 서비스 연계를 넘어 반도체와 코드 생성 기술의 통합형 모델을 제시하는 시도다. 양사의 AI 코드 어시스턴트 어플라이언스는 내년 초 출시를 목표로, 개발 현장의 생산성을 증대하는 솔루션을 제공한다는 목표다. 특히 기존에 AI 도입이 활발했던 금융·공공 분야 외에도 제조, IT 개발 조직, 게임 산업, SW 개발 기업 등 전 산업 영역으로 AI 코드 어시스턴트의 적용 범위를 대폭 확장할 방침이다. 아울러 국내뿐 아니라 중동·아시아 등 해외 시장 발굴·개척을 위한 사업 협력을 통해 양사 기술력을 글로벌 시장에 공동으로 전파하며 AX를 촉진할 계획이다. 백준호 퓨리오사AI 대표는 "코드 어시스턴트는 모든 산업군에서 생산성 향상을 위한 필수 솔루션으로 자리 잡고 있다"며 "큰 시장 기회가 있는 분야에서 유라클과의 협력을 통해 AX 이끌 것"이라고 밝혔다. 권태일 유라클 대표는 "퓨리오사AI와의 긴밀한 협력은 NPU 환경에 최적화된 코드 어시스턴트 어플라이언스를 제공해 개발 생산성 시장을 선도할 중요한 기반이 될 것"이라며 "양사의 혁신적인 기술 결합을 통해 국내외 기업의 디지털 전환을 가속화하고 AI 산업을 선도해 나가겠다"고 강조했다.

2025.11.03 15:51한정호 기자

맷 가먼 AWS, 국내 스타트업과 생성형 AI 생태계 협력 논의

맷 가먼 아마존웹서비스(AWS) 최고경영자(CEO)가 국내 주요 인공지능(AI) 스타트업 리더들과 만나 글로벌 협력과 생성형AI 혁신 전략을 논의했다. AWS는 30일 서울에서 'AWS 스타트업 라운드테이블'을 열고 국내 생성형 AI 스타트업들과 간담회를 진행했다고 밝혔다. 행사에는 맷 가먼 CEO를 비롯해 함기호 AWS코리아 대표, 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장, 로라 그릿 아마존 부사장 겸 수석 엔지니어 등이 참석했다. 국내에서는 트웰브랩스, 업스테이지, 리얼월드, 스캐터랩, 퓨리오사AI, 핀다, 마이리얼트립 등 7개 스타트업이 참여해 자사 AI 기술과 AWS 인프라를 기반으로 한 협력 사례를 공유했다. 참석자들은 AI 모델 개발, 데이터 학습, GPU 인프라 활용, 챗봇 및 자동화 솔루션 등 다양한 분야에서 AWS의 기술 지원을 통한 혁신 방안을 논의했다. AWS는 이번 라운드테이블을 통해 스타트업이 생성형 AI 모델을 개발하고 글로벌 시장에 진출할 수 있도록 지원을 강화하겠다는 의지를 밝혔다. AWS는 파운데이션 모델(FM) 개발부터 애플리케이션 구축, 업무 생산성 향상까지 스타트업의 성장 단계별 요구에 맞춘 통합 기술 스택을 제공하고 있다. 맷 가먼 CEO는 "AWS는 전 세계 스타트업의 혁신을 가속화하는 플랫폼이자 파트너"라며 "한국의 AI 스타트업들이 글로벌 시장에서 더 빠르게 성장할 수 있도록 지속 투자하고 협력하겠다"고 말했다. 한편 AWS는 29일 경주에서 열린 'APEC CEO 서밋 2025'에서 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 인프라 확충을 위해 7조원을 추가 투자하겠다고 발표했다. AWS는 이번 투자와 스타트업 지원 프로그램인 'AWS 액티베이트' 및 'AWS 생성형 AI 액셀러레이터'를 통해 한국의 생성형 AI 생태계 경쟁력 강화를 이끌겠다는 계획이다.

2025.10.30 16:54남혁우 기자

스테이지파이브, 퓨리오사AI와 AI 내재화 통신플랫폼 구축

스테이지파이브가 AI 반도체 기업 퓨리오사AI와 통신 전반에 AI가 내재화된 모듈형 MVNE 플랫폼을 공동 개발한다. 스테이지파이브는 28일 퓨리오사AI와 업무협약을 체결하고 지능형 컨택센터(AICC), BSS와 OSS 자동화, 가입자 보안 및 이상탐지 등 통신사 핵심 영역 전반에 AI를 적용해 MVNO, MVNE 사업자의 AI 경쟁력 강화와 글로벌 시장 확산을 추진할 계획이라고 밝혔다. 협약에 따라 양사는 AI를 기반으로 통신 전반 주요 워크로드의 효율성을 개선하고 비용을 절감하는 솔루션을 공동 개발할 계획이다. 구체적으로는 고객 상담센터 운영을 효율화하고, 요금 청구와 개통 등 통신사 내부 업무를 자동화하며 상담, 요금관리, 사기방지 기능을 통합한 서비스 패키지를 개발해 사업화 할 예정이다. 스테이지파이브는 그 동안의 MVNO, MVNE 운영 및 세일즈 경험을 기반으로 ▲저지연 저원가 AICC ▲BSS/OSS 자동화 도입 운영 ▲AICC, BSS, OSS, 이상탐지 통합 패키지 상품화 등을 추진한다. 이를 통해 통신 인프라 운영 전반에서 AI 중심의 효율화와 안정적 데이터 관리 체계를 확보할 예정이다. 퓨리오사AI는 자체 개발한 NPU로 음성인식(STT), sLM, OCR, 이상탐지 등 통신사 핵심 워크로드에 최적화된 AI 인프라를 제공한다. 이를 기반으로 양사 공동 세일즈를 통한 글로벌 MVNO 시장 확산도 목표로 하고 있다. 서상원 스테이지파이브 대표이사는 “AI 반도체와 통신사 운영 경험이 결합된 이번 협력은 AI 네이티브 통신 플랫폼의 첫 사례가 될 것”이라며 “통신 인프라 전반에 AI를 내재화함으로써 차별화된 고객 경험과 비용 효율성을 제공하고, AI 기반 통신 플랫폼 서비스의 글로벌 진출 교두보를 마련할 것”이라고 밝혔다.

2025.10.28 12:24박수형 기자

"AI반도체·피지컬AI 공략"…유망 K-스타트업 한자리에

미래의 AI 산업 생태계를 이끌어 갈 국내 스타트업들이 한 자리에 모였다. 엔비디아에 편중된 AI 시장을 공략할 반도체 및 소프트웨어 기술은 물론, 다양한 산업에 적용 가능한 물류 자동화 시스템 개발 기술이 공개됐다. 1일 서울 코엑스에서 열린 과학기술정보통신부 공식 AI 주간 'AI페스타 2025' 행사장에는 AI반도체&피지컬AI 특별관이 마련됐다. 특별관에는 퓨리오사AI, 모레(MOREH), 다임리서치 등 혁신 기술을 보유한 국내 스타트업들이 참여했다. 퓨리오사AI는 AI 데이터센터용 NPU(신경망처리장치)를 주력으로 개발하는 팹리스 기업이다. 1세대 칩인 '워보이'를 상용화한 데 이어, 올 하반기 2세대 AI 반도체인 '레니게이드'의 양산을 목표로 하고 있다. 레니게이드는 TSMC의 5나노미터(nm) 공정을 채택했으며, HBM3(4세대 고대역폭메모리)를 탑재해 성능을 크게 끌어올렸다. 퓨리오사AI 부스에서는 레니게이드 칩 기반의 가속기 2개로 오픈AI가 개발한 오픈소스 언어 모델 'gpt-oss-120b'를 구동하는 모습을 직접 확인할 수 있다. 현재 AI 가속기 시장의 주류인 GPU 대비 전성비(성능 대비 전력 소모량)가 뛰어나고, 경량화된 AI 모델을 지원할 수 있어 경쟁사 대비 우위가 있다는 게 회사 측의 설명이다. 퓨리오사AI 관계자는 "올 연말 정도 gpt-oss에 대한 벤치마크 결과를 공개할 예정"이라며 "레니게이드의 경우 절대적인 전력소모량이 낮기 때문에 기존 AI 인프라에서 GPU가 처리하지 못하는 영역을 채워줄 수 있을 것"이라고 말했다. 모레는 자체 개발한 소프트웨어 플랫폼 '모아이(MoAI)'를 주력으로 개발해 온 스타트업이다. 이번 행사장에는 AMD AI 가속기에 적용 가능한 소프트웨어 스택을 핵심 기술로 소개했다. 현재 AI 가속기 시장은 엔비디아가 사실상 시장을 독과점하고 있다. AMD도 고성능 칩을 출시하고는 있으나, 엔비디아의 '쿠다(CUDA)'와 같은 소프트웨어 기반을 갖추지 못하고 있다는 평가를 받는다. 이에 모레는 AMD의 소프트웨어 스택인 'ROCm'으로도 AI 추론 영역에서 최적의 성능을 낼 수 있도록 하는 프레임워크를 제공하고 있다. 모레 관계자는 "모레는 지난 2023년 AMD로부터 투자를 받을 정도로 AMD와 긴밀히 협력해 AI 가속기 최적화 솔루션을 개발하고 있다"며 "현재 한국 및 아시아 지역에 고객사를 확보했고, 올 하반기부터 미국에 본격적으로 진출할 계획"이라고 설명했다. 다임리서치는 피지컬 AI를 기반으로 물류 로봇들을 효율적으로 제어하는 솔루션을 개발하는 기업이다. 피지컬 AI는 실제 물리적 환경에서 센서와 구동기를 통해 작업을 수행하는 AI를 뜻한다. 현재 다임리서치는 반도체, 2차전지, 디스플레이, 자동차 등 다양한 첨단 제조공정에 도입되는 물류 장비의 이동 경로를 제어하는 소프트웨어 'xMS'를 개발하고 있다. 또한 물류 로봇 시스템에 필수적인 각종 하드웨어 인프라를 가상으로 모사해, 다양한 물류 환경을 시뮬레이션할 수 있는 'xDT'와의 연계로 자동화 시스템의 정밀성을 강화할 수 있다. AI 기반 데이터 솔루션 전문기업 디노티시아도 AI 페스타 2025에 부스를 마련했다. 이날 디노티시아는 MCP(모델 컨텍스트 프로토콜) 기반 벡터 데이터베이스 통합형 AI 워크스테이션인 '니모스 워크스테이션'을 중점으로 소개했다. 니모스는 디노티시아의 벡터 데이터베이스 '씨홀스(Seahorse)'와 연동돼, 고차원 의미 기반 검색 및 개인화된 AI 응답이 가능하다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 또한 자체 개발한 고성능 LLM 파운데이션 모델 'DNA'를 중심으로 다양한 LLM 모델에 유연하게 대응할 수 있도록 설계됐다. 덕분에 사용자는 별도의 서버나 클라우드 인프라 없이도 고성능 언어 모델을 로컬 환경에서 실시간으로 실행할 수 있다.

2025.10.01 16:46장경윤 기자

와이즈넛-퓨리오사AI, 일체형 어플라이언스로 기업 AI 도입 부담 최소화

와이즈넛이 퓨리오사AI와 협력을 바탕으로 한 차세대 인공지능(AI) 인프라 전략을 공개했다. 퓨리오사의 신경처리장치(NPU)를 기반으로 하드웨어(HW)와 소프트웨어(SW)를 통합한 AI 어플라이언스를 선보이며 AI 에이전트 도입 장벽을 낮추고 확산 속도를 높이겠다는 계획이다. 와이즈넛은 17일 서울 양재 엘타워에서 개최한 '2025 와이즈 엣지' 행사에서 퓨리오사AI와의 협력 성과를 소개했다. '오토노머스, 더 현명한 세상(Autonomous, Wiser World)'라는 슬로건으로 열린 2025 와이즈 엣지는 AI 에이전트의 현재와 미래를 구체적으로 제시하고 와이즈넛의 전략을 공개하기 위해 마련됐다. 이와 함께 와이즈넛은 스스로 학습하고 진화하는 AI 생태계를 구축하겠다는 목표를 제시했다. 단순히 답변을 잘하는 AI가 아니라 시간이 지날수록 더 현명해지고 실제 업무 실행까지 책임지는 AI 에이전트를 구현하겠다는 비전이다. 이를 위해 퓨리오사AI와의 협력을 바탕으로 HW와 SW를 일체형으로 제공하는 AI 어플라이언스 전략을 본격화한다고 밝혔다. 기존에는 기업이나 기관이 AI 시스템을 도입하려면 서버를 구축하고 모델을 설치·최적화하며 보안 환경을 맞추는 복잡한 과정이 필요했다. 하지만 어플라이언스 형태로 제공하면 이러한 과정을 크게 단축할 수 있고 도입 리스크 역시 줄일 수 있다. 이번에 공개된 어플라이언스는 퓨리오사AI의 고성능 NPU 칩셋과 와이즈넛의 AI 에이전트 소프트웨어가 결합된 형태다. 퓨리오사AI의 '레니게이드(RNGD)' 칩셋은 엔비디아 H100 대비 3배 이상 높은 전력 효율을 보였으며, 최신 대규모 언어모델 라마(LLaMA) 3.1 기반 벤치마크에서 H100을 능가하는 성능을 입증했다. 와이즈넛은 이러한 하드웨어 성능을 기반으로, 자체 개발한 에이전트 플랫폼과 언어모델을 최적화해 실제 업무 환경에서 안정적으로 활용할 수 있는 종합 솔루션을 마련했다. 장정훈 와이즈넛 최고기술책임자(CTO)는 "AI 에이전트를 도입하려는 고객은 인프라 준비, 보안 요건, 통합 과정에서 많은 부담을 안고 있다"며 "어플라이언스 형태는 이러한 장벽을 최소화하고, 공공과 민간 시장 모두에서 빠른 확산을 가능하게 할 것"이라고 강조했다. 이와 함께 와이즈 에이전트 스피어, 와이즈 에이전트 랩스, 와이즈 로아 등 와이즈넛의 신규 AI 에이전트 제품군도 공개됐다. 와이즈 에이전트 스피어는 여러 개의 AI 에이전트가 서로 협력해 복잡한 업무를 나누어 처리하고, 이를 통합해 최종 결과를 도출하는 멀티 에이전트 협업 플랫폼이다. 단순 응답형 챗봇을 넘어 실제 업무 실행까지 지원하는 것이 특징이다. 와이즈 에이전트 랩스는 AI 에이전트의 설계, 개발, 검증, 운영 전 과정을 하나의 체계 안에서 관리할 수 있는 통합 제작 도구다. 데이터 처리, 모델 관리, 성능 모니터링, 보안 및 규제 대응까지 전 주기를 지원하며, 현장에 최적화된 에이전트를 빠르게 구현할 수 있도록 돕는다. 와이즈 로아는 AI 에이전트에 특화된 대규모 언어모델로 단순 질의응답을 넘어 계획 수립, 실행, 피드백, 수정에 이르는 자율적인 사이클을 수행할 수 있도록 설계됐다. 특히 한국어 환경에 최적화된 성능을 보여 글로벌 모델과 비교해도 높은 평가를 받았다. 이처럼 와이즈넛은 협업 플랫폼, 제작 도구, 특화형 언어모델까지 아우르는 풀라인업을 통해 기업과 공공기관이 원하는 맞춤형 AI 에이전트를 손쉽게 구축하고 운영할 수 있는 기반을 마련했다고 설명했다. 양사는 이번 협력을 통해 AI를 실제로 활용하려는 기업과 공공기관의 AI 도입을 본격화한다는 방침이다. 강용성 와이즈넛 대표는 "공공시장은 보안과 제도 요건이 철저히 지켜져야 하는 만큼 단순 기술력만으로는 진입이 어렵다"며 "와이즈넛은 다년간의 공공 프로젝트 경험과 규제 대응 노하우를 토대로 공공기관이 안심하고 도입할 수 있는 AI 어플라이언스를 제공하겠다"고 말했다. 또한 강 대표는 "현재 국내에서 가장 적극적으로 AI 관련 투자를 하고 있는 분야는 공공"이라며 "공공 프로젝트가 초기 시장을 견인하고 있어 여기서 확보한 경험과 레퍼런스가 민간 확산에도 중요한 역할을 할 것"이라고 덧붙였다. 와이즈넛은 이미 여러 공공기관과 기업 현장에서 AI 에이전트 도입 사례를 확보하며 기술력을 입증했다고 밝혔다. 한국도로공사는 고객 민원 응대와 내부 행정 업무 자동화를 위해 와이즈넛의 AI 에이전트를 도입했다. 민원 메일 분석, 규정 검토, 응답 초안 작성까지 이어지는 프로세스를 에이전트 기반으로 구현해, 업무 효율성과 고객 만족도를 동시에 높였다. 경기도청에서는 AI 에이전트 성능 검증을 위한 대규모 BMT(벤치마크 테스트)를 진행했다. 와이즈넛은 데이터 최적화와 모델 튜닝을 통해 경쟁사 대비 높은 평가를 받으며 기술 우위를 입증했다. 또한 국민건강보험공단에서는 '에이전틱 AI'를 명시한 최초의 RFP(입찰 제안요청서)에 응찰해 민원 상담 영역에 생성형 AI를 접목하는 성과를 거뒀다. 공공 민원 상담이라는 특수한 환경에 맞춰 데이터 기반으로 정확한 답변을 제공하고 상담 효율을 높이는 사례로 평가받았다. 마지막으로 강 대표는 국내 AI 산업의 발전을 위해서는 단순한 기술 트렌드를 쫓는 것이 아니라 체계적 발전을 위한 역할 분화가 필요하다고 강조했다. 그는 "불과 1년 전만 해도 대규모 언어모델(LLM)이 AI의 전부처럼 이야기되다가 올해는 모두가 AI 에이전트를 말하고 있고 내년에는 또 피지컬 AI라는 용어가 유행할 수 있다"며 "이런 식으로 AI를 유행처럼 소비해서는 안 된다"고 지적했다. 이어 자동차 산업을 비유로 들며 "모든 회사가 자동차 전체를 다 만들 필요는 없다. 어떤 회사는 타이어, 어떤 회사는 엔진, 또 다른 회사는 브레이크처럼 각자 전문 영역을 맡는다"며 "한국의 AI 산업도 이와 같이 전문화된 역할 분담이 필요한 시점"이라고 설명했다. 강 대표는 "이번에 발표한 와이즈 로아(LLM), 와이즈 에이전트 스피어, 와이즈 에이전트 랩스는 모두 검색 기술과 언어 처리에 강점을 가진 와이즈넛의 철학에서 나온 제품"이라며 "산업이 정상적으로 육성되기 위해서는 AI 시장도 역할에 맞게 세분화되고 각 회사가 자신이 잘할 수 있는 분야에서 경쟁력을 키워야 한다"고 강조했다.

2025.09.17 13:08남혁우 기자

[현장] 마키나락스, '1인 100명 몫' 초생산성 시대 선언…'에이전틱 AI'가 판 바꾼다

마키나락스가 범용 인공지능(AI)의 한계를 지적하고 산업별 '에이전틱 AI'가 생산성을 100배 높이는 초생산성 시대를 열 것이라고 선언했다. 도메인 지식에 최적화된 AI 에이전트의 필요성을 강조하며 기업이 이를 직접 수천 개씩 만드는 청사진을 제시한 것이다. 마키나락스는 4일 서울 양재 엘타워에서 AI 컨퍼런스 '어텐션 2025'를 개최했다. 올해 2회째를 맞은 행사는 '생각하고, 행동하며, 산업을 바꾸는 AI'를 주제로 열렸으며 1천200명이 사전 신청해 조기 마감됐다. 이날 기조연설에 나선 윤성호 마키나락스 대표는 AI의 추론 역량이 매 7개월마다 2배씩 성장하는 시대에도 산업 현장 적용은 여전히 요원하다고 진단했다. 그는 "스탠포드 박사급 AI라도 도메인 지식과 경험이 없으면 울산 공장에서 즉시 일할 수 없다"며 "이는 지능이 아닌 경험의 문제"라고 설명했다. 결국 산업 AI 적용의 발목을 잡는 것은 범용 AI의 태생적 한계와 현장이 요구하는 높은 정밀도다. 기타 분야의 '그럴싸한' 결과물과 달리 제조 현장에서 80%의 정확도는 의미가 없기 때문이다. 일례로 윤 대표는 반도체 설비 하나에 7천 장의 도면을 전문가 500명이 24만 시간을 들여 검토하는 현실을 대표적인 산업 난제로 꼽았다. 범용 AI는 도면의 'Φ25'(지름 25)를 '025'로 잘못 읽는 등 문맥을 이해하지 못해 실사용이 불가능하다. 마키나락스의 해법은 도면의 의미를 사람처럼 이해하는 도메인 특화 AI다. 이 기술은 단순히 픽셀을 비교하는 것을 넘어 '왼쪽 도면의 범례와 오른쪽 도면의 범례를 비교하라'는 식의 의미 기반 분석을 수행한다. 실제로 엔지니어 2명이 3시간 넘게 걸리고도 오류를 놓친 도면 비교 작업을 AI는 단 1~2분 만에 완벽히 해냈다. 이를 통해 중공업 분야에서는 도면 검토 시간을 4배 이상 줄였고 반도체 분야에서는 견적 산출 시간을 최대 2.6배 단축하는 성과를 거뒀다. 윤 대표는 이러한 기술이 '초생산성' 시대를 열 것이라고 역설했다. 일의 본질은 바뀌지 않지만 한 사람이 해낼 수 있는 일의 양이 10배, 100배로 늘어난다는 의미다. 더불어 이 비전을 현실로 만들 도구로는 자체 AI 플랫폼 '런웨이'를 제시했다. 기업이 스스로 특정 업무에 특화된 AI 에이전트를 쉽고 빠르게 만들도록 지원하는 것이 핵심이다. 런웨이는 ▲그래픽처리장치(GPU) 활용 최적화 ▲조직 맞춤형 AI 포털 ▲엔터프라이즈 거버넌스 등 기업의 실질적 문제를 해결하는 기능을 갖췄다. 특히 코딩 기술을 활용해 10분 만에 데이터 모니터링 앱을 만드는 '앱 스튜디오' 기능이 현장에서 공개돼 주목받았다. 윤 대표는 "우리는 모든 기업 구성원이 '엑셀'처럼 런웨이를 사용해 자신의 업무에 맞는 수백, 수천 개의 AI 에이전트를 직접 만드는 미래를 그린다"며 "전문가의 영역이었던 AI 개발을 '시민 개발자'의 수준으로 민주화하겠다"고 말했다. 이날 행사에는 LG AI연구원, 퓨리오사AI, 업스테이지, 엔비디아 등 국내외 기술·산업 리더들이 연사로 참여했다. 오전에는 윤종필 한국생산기술연구원 센터장과 김한성 국방전산정보원장의 축사에 이어 임우형 LG AI연구원 공동원장이 기조연설을 맡았다. 이어진 패널토론에서는 음병찬 디스펙터 대표를 좌장으로 정영범 퓨리오사AI 상무, 이활석 업스테이지 CTO 등이 참여했다. 패널들은 "한국이 파운데이션 모델 경쟁을 넘어 산업 현장과 생태계 차원에서 AI 주권을 확보해야 한다"고 입을 모았다. 더불어 '산업 AI 실전 사례' 세션에서는 ▲한국수자원공사의 수자원 예측 ▲두산에너빌리티의 도면 검토 스마트화 ▲현대오토에버의 제조 AI 에이전트 활용 ▲육군사관학교의 AI 화력계획추천 등 구체적인 적용 경험이 공유됐다. 행사장에는 런웨이의 신기능 '앱 스튜디오'와 함께 ▲스마트 도면 에이전트 ▲스마트 공장 사업관리 챗봇 ▲지휘통제 상황관리 에이전트 등 다양한 버티컬 AI 에이전트 데모가 전시돼 큰 관심을 모았다. 윤 대표는 "올해 컨퍼런스는 다양한 고객, 파트너와 함께 버티컬 AI로 열어갈 미래를 확인한 뜻깊은 시간이었다"며 "산업 현장의 설비·기계·로봇까지 아우르는 기술력으로 초생산성을 이끄는 피지컬 AI 시대를 앞당겨 나가겠다"고 밝혔다.

2025.09.04 11:28조이환 기자

글로벌 AI 추론 시장 급성장…한국 NPU 기업, 기회 잡을까

AI 추론 시장이 확대됨에 따라 글로벌 빅테크들은 GPU(그래픽처리장치) 의존도를 줄이고 있다. 가격이 비싸고, 발열량이 높은 GPU를 대신할 차세대 제품을 찾는 것이다. 대안으로 떠오르고 있는 칩이 AI 추론에 특화된 NPU(신경망처리장치)다. AI 연산에 특화된 구조가 낮은 전력으로도 높은 효율을 구사할 수 있게 만들어졌다. 대표적인 글로벌 기업이 미국 쌈바노바(SambaNova)와 그로크(Groq)다. 이들 기업은 이미 독자 생태계를 앞세워 시장 내 입지를 쌓아가고 있다. 이 같은 상황에 국내 업체인 리벨리온과 퓨리오사AI가 본격적으로 도전장을 내밀며 글로벌 NPU 기술 경쟁이 가속화되는 양상이다. AI 추론 시장 성장세...NPU 시장 전망 긍정적 28일 업계에 따르면 글로벌 AI 추론 시장은 가파르게 성장할 전망이다. 시장조사업체 마케츠앤마케츠는 추론 시장이 올해 약 106억달러(약 14조7천976억원)를 기록한 뒤, 오는 2030년 약 255억달러(약 35조5천980억원)까지 성장할 것으로 내다봤다. 연평균 약 19%에 달하는 성장률이다. 이에 따라 추론형 NPU 시장도 동반 성장할 것으로 점쳐진다. 다양한 AI 애플리케이션이 더 많은 추론 처리량, 낮은 지연, 높은 에너지 효율을 요구하며, 이를 가장 잘 대응할 수 있는 것이 추론형 NPU이기 때문이다. 삼일PwC경영연구원은 보고서를 통해 “AI에 사용되는 반도체 중 CPU, GPU 시장은 이미 기술 성숙 단계 진입했으며, 최적화된 저전력·고효율 ASIC(주문형반도체) 중심의 추론형 AI 반도체(NPU) 시장이 성장 중”이라고 분석했다. 美 쌈바노바·그로크, 자체 시장 구축 중 특히 NPU 시장에서 두각을 드러내는 업체는 쌈바노바와 그로크다. 양사 모두 미국의 스타트업이다. 먼저 쌈바노바는 데이터플로우 아키텍처 기반의 NPU와 자체 소프트웨어를 통합 제공하며 초대형 언어모델(LLM) 훈련과 추론을 아우른다. 고객에게 하드웨어뿐 아니라 모델·플랫폼까지 묶어 공급하는 방식으로 미국 정부, 금융기관 등 대형 고객을 확보했다. 업계 안팎에서는 자체적인 생태계를 구축했다는 점을 특징으로 지목한다. 그로크는 추론에 극단적으로 특화된 칩을 양산한다. 자체 칩과 소프트웨어를 통해 수백만 토큰 단위의 실시간 추론 속도를 구현하며, 클라우드 기반 'LLM 서빙 서비스'를 사업 모델로 삼았다. 대규모 데이터센터에서 고속 검색·RAG(검색증강생성) 서비스에 적합하다는 평가다. 하드웨어 판매보다 클라우드 추론 서비스로 수익을 내고 있다. 韓 AI반도체 도약 조건은 효율성·맞춤형 시장 공략...리벨리온, 리벨쿼드 공개 업계 안팎에서는 국내 AI 반도체 기업들이 글로벌 경쟁에서 승부를 내려면 두 가지 전략에 집중해야 한다고 보고 있다. 첫째, 전력 효율성에서 확실한 우위를 확보해야 한다는 점이다. 데이터센터의 전력 소비와 운영비용이 AI 확산의 최대 걸림돌로 떠오르는 상황에서, 효율이 곧 경쟁력으로 직결된다는 주장이다. 둘째, 맞춤형 시장 공략이다. 엔비디아처럼 범용 GPU로 모든 영역을 장악하기는 현실적으로 어렵다. 대신 통신사, 공공기관, 금융, 국방 등 특정 산업에 특화된 '맞춤형 추론형 NPU'로 영역을 넓히는 것이 현실적인 전략이다. 실제로 국내 AI반도체 스타트업인 리벨리온과 퓨리오사AI 모두 저전력·고효율 NPU를 앞세워 데이터센터·통신사·공공기관 등 특화 수요처를 공략하고 있다. 이런 가운데 리벨리온은 현지시간 27일 미국 핫칩스에서 차세대 NPU 리벨 쿼드(Rebel-Quad)를 공개했다. 이 칩은 삼성전자 4nm(나노미터, 10억분의 1m) 공정을 통해 양산되며, 엔비디아 블랙웰 수준의 성능을 자랑한다. 그러면서도 에너지 부담은 획기적으로 줄여준다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며, “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로, 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 말했다.

2025.08.28 09:14전화평 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

딥엑스, 'K-AI칩' 기대주서 시장 안착 시험대로… 냉정한 현장 평가 넘을까

[ZD브리핑] 삼성전자 노조 5월 총파업 예고…9일 찬반 투표

공정위, 엽기떡볶이 시정명령...POS·키오스크 구매 강제

[AI전 된 이란전➃] 규범 지연 속 AI 전장 확장…국제 질서 시험대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.