• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'퓨리오사 AI'통합검색 결과 입니다. (44건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

노타·퓨리오사AI, NPU 기술협력…"K-반도체 경쟁력↑"

노타가 퓨리오사AI 손잡고 차세대 신경처리장치(NPU) 기술협력을 추진하며 국내 반도체 경쟁력 강화에 나섰다. 노타는 퓨리오사AI와 NPU 기반 인공지능(AI) 개발을 위한 업무협력을 체결했다고 1일 밝혔다. NPU는 전력 효율성과 고속 추론 성능이 핵심이며, 복잡한 AI 모델 연산을 안정적으로 수행하는 데 필수적이다. 두 기업은 이런 성능을 국내 기술로 구현하기 위해 공동 기술개발과 사업화에 나서기로 했다. 협력 범위는 AI 솔루션 개발·사업화를 비롯한 기술 파트너십 확대, 기술·사업성 검증 프로젝트 등으로 구성됐다. 양사는 상호 기술을 결합해 산업별 요구에 맞춘 고성능 AI 모델 운영 기반을 마련할 계획이다. 노타는 자사 AI 최적화 기술을 활용해 퓨리오사AI의 NPU가 제한된 전력에서도 대규모 모델을 신속하게 구동하도록 지원한다. 이를 통해 NPU 성능 향상과 시장 확대에 기여한다는 전략이다. 두 기업은 로봇, 모빌리티 등 다양한 산업에서 활용 가능한 실증모델 구축에도 협력한다. 또 국내외 시장 진출에서도 공동 전략을 추진할 계획이다. 노타는 이번 협력이 국내 반도체 생태계 강화에도 기여할 것으로 기대했다. AI 모델의 안정적 구동을 위한 최적화 기술을 확보해 AI전환(AX) 요구가 높아지는 산업 전반의 경쟁력을 높이겠다는 구상이다. 채명수 노타 대표는 "기술 시너지를 통해 국내 반도체 경쟁력 강화에 나섰다는 점에서 이번 협력은 큰 의미를 가진다"며 "우리는 AI 최적화 기술로 퓨리오사 NPU의 전력 효율성과 고속 추론 성능을 극대화해 대규모 AI 모델의 안정적 구동을 적극 지원할 것"이라고 말했다. 백준호 퓨리오사AI 대표는 "AI 워크로드가 고도화됨에 따라 추론 환경에서의 인프라 성능과 효율성에 대한 요구는 앞으로 더욱 커질 것이다"며 "노타와의 협력을 통해 퓨리오사 2세대 칩 RNGD 위에서 다양한 최신 AI 모델을 더욱 신속하고 효율적으로 지원할 수 있어 기쁘다"고 밝혔다.

2025.12.01 18:16김미정

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평

[현장] 국산 AI 반도체·클라우드 결합 '시동'…국가 인프라 강화 선언

국산 인공지능(AI) 반도체와 클라우드 산업의 융합이 궤도에 올랐다. 초거대 AI 시대를 맞아 국가 인프라의 근간이 되는 클라우드가 스마트화와 지능형 자원 운영이라는 새로운 전환점을 맞이하면서 국산 기술 중심의 풀스택 생태계 구축이 본격화되고 있다. 오픈K클라우드 커뮤니티는 25일 서울 강남 과학기술회관에서 '오픈K클라우드 데브데이 2025'를 열고 국산 AI 반도체와 클라우드 융합 전략을 공유했다. 오픈K클라우드 커뮤니티에는 한국전자통신연구원(ETRI), 한국전자기술연구원(KETI), 이노그리드, 오케스트로, 경희대학교, 연세대학교, 한국클라우드산업협회(KACI), 퓨리오사AI 등 산·학·연 주요 기관이 공동 참여한다. 이번 행사는 커뮤니티의 첫 공식 기술 교류 행사로, 국산 AI 반도체를 중심으로 한 클라우드·소프트웨어(SW) 전주기 기술을 한자리에서 조망하며 국가 AI 인프라 경쟁력 제고 방안을 논의했다. ETRI 최현화 박사는 "이제 AI 서비스의 경쟁력은 모델을 누가 더 잘 만드느냐보다 누가 더 나은 인프라로 지속적으로 운영하느냐가 핵심"이라고 강조하며 클라우드의 대전환기를 진단했다. 최 박사는 최근 글로벌 거대언어모델(LLM) 발전의 특징을 멀티모달 확장, 컨텍스트 윈도우의 급격한 증가, 툴 연동 기반 정확도 향상으로 정리했다. 특히 메타가 공개한 오픈소스 LLM '라마'의 컨텍스트 윈도우가 1천만 토큰 수준으로 확장된 점을 언급했다. 그는 이러한 추세 속에서 국내 클라우드 산업이 ▲AI 가속기 이질성의 심화 ▲메모리 병목 문제 ▲추론 비용의 급증 ▲에이전트 폭증에 따른 관리 복잡도 증가 등 여러 난제를 동시에 마주하고 있다고 짚었다. 가장 먼저 꼽힌 것은 AI 가속기의 이질성 문제다. 엔비디아 그래픽처리장치(GPU) 중심 생태계가 유지되고 있지만 국내외에서 신경망처리장치(NPU)·AI칩·메모리 내 연산(PIM) 등 다양한 가속기와 인터커넥트 기술이 빠르게 등장하면서 단일 아키텍처에 의존하는 방식은 지속 가능하지 않다는 지적이다. 이어 LLM 추론의 핵심 병목으로 작용하는 '메모리 월'도 문제로 제기됐다. GPU 성능이 가파르게 증가하는 동안 메모리 기술 향상 속도는 더디기 때문이다. 최 박사는 SK하이닉스의 'AiMX', CXL 기반 차세대 메모리 사례를 언급하며 "AI 추론은 본질적으로 메모리 중심 작업이기에 차세대 메모리가 성능의 핵심을 좌우하게 될 것"이라고 말했다. LLM 스케일링 문제 역시 중요한 도전 과제로 다뤄졌다. 사용자 요구는 계속 높아지지만 단일 모델의 크기 확장에는 한계가 있어 여러 전문가 모델을 조합하는 '전문가 혼합(MoE)' 방식이 중요한 돌파구가 될 것이라고 강조했다. AI 모델마다 강점이 다른 만큼 다중 LLM 기반 지능형 추론은 필연적인 흐름이라는 설명이다. 추론 비용 문제도 빠지지 않았다. 최 박사는 "엔비디아 B200 급 GPU의 전력 소비가 1킬로와트(kW)에 이르는데, 이러한 DGX 서버 100대를 하루 운영하면 테슬라 전기차로 지구를 일곱 바퀴 도는 전력량에 해당한다"고 설명했다. 그러면서 "전력·비용 최적화는 하드웨어(HW) 스펙뿐 아니라 스케줄링, 클러스터 재구성이 필수"라고 말했다. 또 LLM·에이전트·데이터소스가 동적으로 연결되는 시대가 되면서 모니터링 복잡성이 기하급수적으로 커지고 있다는 점도 지적했다. 기존에는 레이턴시와 처리량을 중심으로 모니터링했다면 이제는 LLM의 할루시네이션 여부, 에이전트 간 호출 관계, 로직 변경 이력까지 관측해야 안정적 운영이 가능하다는 것이다. 이 같은 문제를 해결하기 위해 ETRI는 과학기술정보통신부가 추진하는 'AI 반도체 클라우드 플랫폼 구축 및 최적화 기술 개발' 과제에 참여했다. 이를 통해 ▲이종 AI 반도체 관리 ▲클라우드 오케스트레이션 ▲자동 디바이스 감지 ▲협상 기반 스케줄링 ▲국산 NPU 특화 관측 기술을 포함한 오픈소스형 '오픈K클라우드 플랫폼'을 개발 중이다. ETRI는 5년간 진행되는 사업에서 2027년 파라미터 규모 640억 LLM, 2029년 3천200억 LLM 지원을 목표로 풀스택 AI 클라우드 생태계를 구축할 계획이다. 오픈K클라우드 커뮤니티에 참여하는 퓨리오사AI, 이노그리드, 오케스트로도 이날 국산 AI 반도체와 클라우드 융합 생태계 활성화를 위한 기술 전략을 발표했다. 퓨리오사AI 이병찬 수석은 엔비디아 의존을 극복하기 위해 전력·운영 효율성을 높인 '레니게이드' 칩과 SW 스택을 소개했다. 이노그리드 김바울 수석은 다양한 반도체가 혼재된 클라우드 구조를 성능·전력·비용 최적화로 통합한 옵저버빌리티의 전략을 공유했다. 오케스트로 박의규 소장은 자연어 요구 기반 코딩과 자동화된 테스트·배포를 지원하는 에이전트형 AI SW 개발환경(IDE) 트렌드와 국내 시장의 변화에 대해 발표했다. 최 박사는 "앞으로 오픈K클라우드 플랫폼을 통해 국산 AI 반도체가 국가 핵심 인프라에 적용될 수 있는 계기를 만들겠다"고 강조했다. 이어 "아직 확정은 아니지만 정부가 추진하는 '국가AI컴퓨팅센터' 사업에 우리 플랫폼을 탑재할 수 있는 계기를 만들 것"이라며 "국산 AI 반도체 실사용자의 요구사항을 반영해 레퍼런스를 쌓아가는 것이 목표"라고 덧붙였다.

2025.11.25 17:10한정호

공정의 한계 넘는다…국내 반도체 업계, '칩렛 전환' 가속

반도체 공정 미세화 경쟁이 한계에 다다르고 있다. 초미세 공정의 성능 향상 폭은 점점 줄어드는 반면, 생산 비용은 몇 배로 치솟고 있어서다. 이에 반도체 업계는 더 이상 '공정의 미세화'만으로 성능을 높이는 대신, 여러 기능별로 칩을 분리해 다시 하나로 결합하는 '칩렛(Chiplet)' 아키텍처에 주목하고 있다. 칩렛이 효율적이고 유연한 설계를 가능하게 하며, 새로운 반도체 혁신의 중심으로 떠오르고 있다. 5일 반도체 업계에 따르면, 국내외 주요 반도체 기업들이 미세공정의 한계를 돌파하기 위해 칩렛 기반 설계와 패키징 기술 확보에 속도를 내고 있다. 반도체 업계는 그동안 트랜지스터 크기를 줄여 성능을 높이는 공정 미세화 경쟁을 이어왔다. 그러나 3nm(나노미터, 10억분의 1m) 이하 공정부터는 성능 향상 대비 비용 증가폭이 지나치게 커지고, 수율도 떨어지는 구조적 문제가 드러나고 있다. 이에 국내 파운드리(반도체 위탁생산) 삼성전자는 기존 공정 수율 안정화에 집중하면서도, 칩렛 개발에 역량을 쏟아붇고 있다. 칩렛은 CPU, GPU, 메모리, I/O 등 기능별로 나뉜 칩(Die)을 하나의 패키지 안에서 고대역폭·저지연으로 연결해 동작시키는 방식이다. 모든 기능을 하나의 거대한 칩에 집적하는 기존 모놀리식(Monolithic) 구조보다 비용 효율이 높고, 설계 유연성이 크며, 수율도 개선된다. 특히 서로 다른 공정 노드를 조합할 수 있어, 성능과 비용의 균형을 극대화할 수 있는 현실적 대안으로 떠올랐다. 국내 팹리스·디자인하우스, 칩렛 주도권 경쟁 본격화 국내 반도체 산업에서도 AI 팹리스와 디자인하우스들이 칩렛 구조를 실제 제품에 적용하며 시장 경쟁에 뛰어들고 있다. 국내 AI 반도체 스타트업 리벨리온이 대표적인 예시다. 리벨리온은 차세대 칩 리벨(REBEL) 쿼드에 칩렛을 적용한다. 리벨 쿼드는 리벨 싱글 칩 4개를 하나의 패키지로 통합한 형태다. 2 PFLOPS(페타플롭스) 연산 성능, 144GB의 용량, 4.8TB/s 메모리 대역폭을 제공한다. 오진욱 리벨리온 CTO(최고기술책임자)는 최근 'SK AI 서밋' 세션 연사로 나서 차세대 칩인 리벨에 대해 “하나의 칩렛을 개발해 시장이나 고객 요구에 따라 개수를 조정해 붙이는 구조”라며 “고객 맞춤형 AI 가속기를 빠르게 조립할 수 있는 유연한 플랫폼을 목표로 한다”고 말했다. 이 외에도 퓨리오사AI, 넥스트칩 등 국내 팹리스가 차세대 칩에 칩렛 도입을 검토하고 있는 것으로 전해진다. 국내 디자인하우스(DSP) 업계도 칩렛 시대를 준비하고 있다. 먼저 세미파이브는 칩렛을 미래 3대 성장축 중 하나로 꼽고, 기술을 개발하고 있다. 특히 미국 반도체 기업 시놉시스와 협력해 4나노 기반 HPC 칩렛 플랫폼을 개발 중이다. 아울러 D2D(다이 간 통신) 기술을 활용한 칩렛 플랫폼을 하고 있으며, IPO(기업공개) 이후에는 북미 칩렛 IP(설계자산) 기술 기업까지 인수하며 시장을 공략할 계획이다. 조명현 세미파이브 대표는 최근 인터뷰에서 ““3D IC와 칩렛, D2D 인터페이스 분야에서 선도적인 경험을 쌓고 있다”고 밝혔다. 에이디테크놀로지의 경우 삼성 파운드리의 2나노 공정과 Arm 네오버스 CSS V3, 리벨리온의 AI 가속기 칩렛을 결합한 AI CPU 칩렛 플랫폼을 개발하고 있다. 또, 회사는 ADP 6 시리즈 플랫폼을 통해 HPC, 엣지서버, AI 시장 점유율을 끌어올린다는 방침이다. 박준규 에이디테크놀로지 대표는 “칩렛 기술을 통해 AI 데이터센터 제품뿐 아니라 고성능 네트워킹 제품으로 확장할 수 있다"며, "파운데이션 라이브러리와 메모리를 경쟁력 있게 개발해 칩렛 솔루션의 컴퓨팅 기능을 강화하고, 고객의 실리콘에 경쟁력을 더할 것"이라고 말했다. 코아시아세미는 리벨리온과 협력해 2.5D 실리콘 인터포저 기술을 적용한 차세대 칩렛 제품을 개발하고 있다. 가온칩스는 케이던스, 시놉시스 등 IP 업체들과 협력하며 칩렛에 대한 접근성을 확보한 상황이다. 한편 글로벌 시장조사기관 글로벌 인포메이션에 따르면 세계 칩렛 시장 규모는 지난 2024년 142억2천만달러(약 20조6천억원)에서, 2030년 941억7천만달러(약 136조4천242억원)까지 성장할 것으로 전망된다.

2025.11.05 16:59전화평

韓 NPU·코드 어시스턴트 결합…유라클-퓨리오사AI, AX 혁신 생태계 '시동'

유라클이 국내 AI 반도체 선도 기업이자 이재명 정부 첫 유니콘인 퓨리오사AI와 손잡고 국산 신경망처리장치(NPU)와 코드 어시스턴트 융합 생태계 활성화에 나선다. 개발 생산성 혁신과 산업 전반의 인공지능 전환(AX)을 함께 이끈다는 목표다. 유라클은 퓨리오사AI와 전략적 업무협약(MOU)을 체결하고 AI 기반 개발 생산성 혁신에 나선다고 3일 밝혔다. 양사는 이번 협약을 통해 퓨리오사AI의 고성능 NPU에 유라클이 개발한 아테나 코드 어시스턴트 솔루션을 탑재해 국내외 엔터프라이즈 시장을 공략할 계획이다. 구체적으로 퓨리오사AI의 2세대 NPU '레니게이드(RNGD)'로 아테나 코드 어시스턴트의 처리 속도와 에너지 효율을 획기적으로 개선할 계획이다. 이를 통해 전문 개발자가 아니더라도 일정 수준의 요구사항만으로 고품질 코드를 자동 생성할 수 있어 개발자 확보가 어려운 기업에서도 효율적인 소프트웨어(SW) 개발 및 유지보수가 가능할 전망이다. 또 어플라이언스 기반으로 제공되기에 민감한 데이터를 외부에 노출하지 않고도 안전하게 AI 코딩 기능을 활용할 수 있어 공공기관이나 보안이 중요한 금융·제조 분야에서도 안심하고 도입할 수 있도록 지원한다. 이번 협력은 국산 AI 반도체와 AI SW 기술을 결합해 AI 개발 생태계 자립 기반을 강화하는 행보로 평가된다. 단순 서비스 연계를 넘어 반도체와 코드 생성 기술의 통합형 모델을 제시하는 시도다. 양사의 AI 코드 어시스턴트 어플라이언스는 내년 초 출시를 목표로, 개발 현장의 생산성을 증대하는 솔루션을 제공한다는 목표다. 특히 기존에 AI 도입이 활발했던 금융·공공 분야 외에도 제조, IT 개발 조직, 게임 산업, SW 개발 기업 등 전 산업 영역으로 AI 코드 어시스턴트의 적용 범위를 대폭 확장할 방침이다. 아울러 국내뿐 아니라 중동·아시아 등 해외 시장 발굴·개척을 위한 사업 협력을 통해 양사 기술력을 글로벌 시장에 공동으로 전파하며 AX를 촉진할 계획이다. 백준호 퓨리오사AI 대표는 "코드 어시스턴트는 모든 산업군에서 생산성 향상을 위한 필수 솔루션으로 자리 잡고 있다"며 "큰 시장 기회가 있는 분야에서 유라클과의 협력을 통해 AX 이끌 것"이라고 밝혔다. 권태일 유라클 대표는 "퓨리오사AI와의 긴밀한 협력은 NPU 환경에 최적화된 코드 어시스턴트 어플라이언스를 제공해 개발 생산성 시장을 선도할 중요한 기반이 될 것"이라며 "양사의 혁신적인 기술 결합을 통해 국내외 기업의 디지털 전환을 가속화하고 AI 산업을 선도해 나가겠다"고 강조했다.

2025.11.03 15:51한정호

맷 가먼 AWS, 국내 스타트업과 생성형 AI 생태계 협력 논의

맷 가먼 아마존웹서비스(AWS) 최고경영자(CEO)가 국내 주요 인공지능(AI) 스타트업 리더들과 만나 글로벌 협력과 생성형AI 혁신 전략을 논의했다. AWS는 30일 서울에서 'AWS 스타트업 라운드테이블'을 열고 국내 생성형 AI 스타트업들과 간담회를 진행했다고 밝혔다. 행사에는 맷 가먼 CEO를 비롯해 함기호 AWS코리아 대표, 하이메 발레스 아시아·태평양·일본(APJ) 총괄 부사장, 로라 그릿 아마존 부사장 겸 수석 엔지니어 등이 참석했다. 국내에서는 트웰브랩스, 업스테이지, 리얼월드, 스캐터랩, 퓨리오사AI, 핀다, 마이리얼트립 등 7개 스타트업이 참여해 자사 AI 기술과 AWS 인프라를 기반으로 한 협력 사례를 공유했다. 참석자들은 AI 모델 개발, 데이터 학습, GPU 인프라 활용, 챗봇 및 자동화 솔루션 등 다양한 분야에서 AWS의 기술 지원을 통한 혁신 방안을 논의했다. AWS는 이번 라운드테이블을 통해 스타트업이 생성형 AI 모델을 개발하고 글로벌 시장에 진출할 수 있도록 지원을 강화하겠다는 의지를 밝혔다. AWS는 파운데이션 모델(FM) 개발부터 애플리케이션 구축, 업무 생산성 향상까지 스타트업의 성장 단계별 요구에 맞춘 통합 기술 스택을 제공하고 있다. 맷 가먼 CEO는 "AWS는 전 세계 스타트업의 혁신을 가속화하는 플랫폼이자 파트너"라며 "한국의 AI 스타트업들이 글로벌 시장에서 더 빠르게 성장할 수 있도록 지속 투자하고 협력하겠다"고 말했다. 한편 AWS는 29일 경주에서 열린 'APEC CEO 서밋 2025'에서 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 인프라 확충을 위해 7조원을 추가 투자하겠다고 발표했다. AWS는 이번 투자와 스타트업 지원 프로그램인 'AWS 액티베이트' 및 'AWS 생성형 AI 액셀러레이터'를 통해 한국의 생성형 AI 생태계 경쟁력 강화를 이끌겠다는 계획이다.

2025.10.30 16:54남혁우

스테이지파이브, 퓨리오사AI와 AI 내재화 통신플랫폼 구축

스테이지파이브가 AI 반도체 기업 퓨리오사AI와 통신 전반에 AI가 내재화된 모듈형 MVNE 플랫폼을 공동 개발한다. 스테이지파이브는 28일 퓨리오사AI와 업무협약을 체결하고 지능형 컨택센터(AICC), BSS와 OSS 자동화, 가입자 보안 및 이상탐지 등 통신사 핵심 영역 전반에 AI를 적용해 MVNO, MVNE 사업자의 AI 경쟁력 강화와 글로벌 시장 확산을 추진할 계획이라고 밝혔다. 협약에 따라 양사는 AI를 기반으로 통신 전반 주요 워크로드의 효율성을 개선하고 비용을 절감하는 솔루션을 공동 개발할 계획이다. 구체적으로는 고객 상담센터 운영을 효율화하고, 요금 청구와 개통 등 통신사 내부 업무를 자동화하며 상담, 요금관리, 사기방지 기능을 통합한 서비스 패키지를 개발해 사업화 할 예정이다. 스테이지파이브는 그 동안의 MVNO, MVNE 운영 및 세일즈 경험을 기반으로 ▲저지연 저원가 AICC ▲BSS/OSS 자동화 도입 운영 ▲AICC, BSS, OSS, 이상탐지 통합 패키지 상품화 등을 추진한다. 이를 통해 통신 인프라 운영 전반에서 AI 중심의 효율화와 안정적 데이터 관리 체계를 확보할 예정이다. 퓨리오사AI는 자체 개발한 NPU로 음성인식(STT), sLM, OCR, 이상탐지 등 통신사 핵심 워크로드에 최적화된 AI 인프라를 제공한다. 이를 기반으로 양사 공동 세일즈를 통한 글로벌 MVNO 시장 확산도 목표로 하고 있다. 서상원 스테이지파이브 대표이사는 “AI 반도체와 통신사 운영 경험이 결합된 이번 협력은 AI 네이티브 통신 플랫폼의 첫 사례가 될 것”이라며 “통신 인프라 전반에 AI를 내재화함으로써 차별화된 고객 경험과 비용 효율성을 제공하고, AI 기반 통신 플랫폼 서비스의 글로벌 진출 교두보를 마련할 것”이라고 밝혔다.

2025.10.28 12:24박수형

"AI반도체·피지컬AI 공략"…유망 K-스타트업 한자리에

미래의 AI 산업 생태계를 이끌어 갈 국내 스타트업들이 한 자리에 모였다. 엔비디아에 편중된 AI 시장을 공략할 반도체 및 소프트웨어 기술은 물론, 다양한 산업에 적용 가능한 물류 자동화 시스템 개발 기술이 공개됐다. 1일 서울 코엑스에서 열린 과학기술정보통신부 공식 AI 주간 'AI페스타 2025' 행사장에는 AI반도체&피지컬AI 특별관이 마련됐다. 특별관에는 퓨리오사AI, 모레(MOREH), 다임리서치 등 혁신 기술을 보유한 국내 스타트업들이 참여했다. 퓨리오사AI는 AI 데이터센터용 NPU(신경망처리장치)를 주력으로 개발하는 팹리스 기업이다. 1세대 칩인 '워보이'를 상용화한 데 이어, 올 하반기 2세대 AI 반도체인 '레니게이드'의 양산을 목표로 하고 있다. 레니게이드는 TSMC의 5나노미터(nm) 공정을 채택했으며, HBM3(4세대 고대역폭메모리)를 탑재해 성능을 크게 끌어올렸다. 퓨리오사AI 부스에서는 레니게이드 칩 기반의 가속기 2개로 오픈AI가 개발한 오픈소스 언어 모델 'gpt-oss-120b'를 구동하는 모습을 직접 확인할 수 있다. 현재 AI 가속기 시장의 주류인 GPU 대비 전성비(성능 대비 전력 소모량)가 뛰어나고, 경량화된 AI 모델을 지원할 수 있어 경쟁사 대비 우위가 있다는 게 회사 측의 설명이다. 퓨리오사AI 관계자는 "올 연말 정도 gpt-oss에 대한 벤치마크 결과를 공개할 예정"이라며 "레니게이드의 경우 절대적인 전력소모량이 낮기 때문에 기존 AI 인프라에서 GPU가 처리하지 못하는 영역을 채워줄 수 있을 것"이라고 말했다. 모레는 자체 개발한 소프트웨어 플랫폼 '모아이(MoAI)'를 주력으로 개발해 온 스타트업이다. 이번 행사장에는 AMD AI 가속기에 적용 가능한 소프트웨어 스택을 핵심 기술로 소개했다. 현재 AI 가속기 시장은 엔비디아가 사실상 시장을 독과점하고 있다. AMD도 고성능 칩을 출시하고는 있으나, 엔비디아의 '쿠다(CUDA)'와 같은 소프트웨어 기반을 갖추지 못하고 있다는 평가를 받는다. 이에 모레는 AMD의 소프트웨어 스택인 'ROCm'으로도 AI 추론 영역에서 최적의 성능을 낼 수 있도록 하는 프레임워크를 제공하고 있다. 모레 관계자는 "모레는 지난 2023년 AMD로부터 투자를 받을 정도로 AMD와 긴밀히 협력해 AI 가속기 최적화 솔루션을 개발하고 있다"며 "현재 한국 및 아시아 지역에 고객사를 확보했고, 올 하반기부터 미국에 본격적으로 진출할 계획"이라고 설명했다. 다임리서치는 피지컬 AI를 기반으로 물류 로봇들을 효율적으로 제어하는 솔루션을 개발하는 기업이다. 피지컬 AI는 실제 물리적 환경에서 센서와 구동기를 통해 작업을 수행하는 AI를 뜻한다. 현재 다임리서치는 반도체, 2차전지, 디스플레이, 자동차 등 다양한 첨단 제조공정에 도입되는 물류 장비의 이동 경로를 제어하는 소프트웨어 'xMS'를 개발하고 있다. 또한 물류 로봇 시스템에 필수적인 각종 하드웨어 인프라를 가상으로 모사해, 다양한 물류 환경을 시뮬레이션할 수 있는 'xDT'와의 연계로 자동화 시스템의 정밀성을 강화할 수 있다. AI 기반 데이터 솔루션 전문기업 디노티시아도 AI 페스타 2025에 부스를 마련했다. 이날 디노티시아는 MCP(모델 컨텍스트 프로토콜) 기반 벡터 데이터베이스 통합형 AI 워크스테이션인 '니모스 워크스테이션'을 중점으로 소개했다. 니모스는 디노티시아의 벡터 데이터베이스 '씨홀스(Seahorse)'와 연동돼, 고차원 의미 기반 검색 및 개인화된 AI 응답이 가능하다. 벡터 데이터베이스는 문서·이미지·오디오 등 다양한 유형의 데이터를 고차원 벡터로 변환해, 유사한 내용을 손쉽게 검색할 수 있도록 설계된 데이터베이스 시스템이다. 또한 자체 개발한 고성능 LLM 파운데이션 모델 'DNA'를 중심으로 다양한 LLM 모델에 유연하게 대응할 수 있도록 설계됐다. 덕분에 사용자는 별도의 서버나 클라우드 인프라 없이도 고성능 언어 모델을 로컬 환경에서 실시간으로 실행할 수 있다.

2025.10.01 16:46장경윤

와이즈넛-퓨리오사AI, 일체형 어플라이언스로 기업 AI 도입 부담 최소화

와이즈넛이 퓨리오사AI와 협력을 바탕으로 한 차세대 인공지능(AI) 인프라 전략을 공개했다. 퓨리오사의 신경처리장치(NPU)를 기반으로 하드웨어(HW)와 소프트웨어(SW)를 통합한 AI 어플라이언스를 선보이며 AI 에이전트 도입 장벽을 낮추고 확산 속도를 높이겠다는 계획이다. 와이즈넛은 17일 서울 양재 엘타워에서 개최한 '2025 와이즈 엣지' 행사에서 퓨리오사AI와의 협력 성과를 소개했다. '오토노머스, 더 현명한 세상(Autonomous, Wiser World)'라는 슬로건으로 열린 2025 와이즈 엣지는 AI 에이전트의 현재와 미래를 구체적으로 제시하고 와이즈넛의 전략을 공개하기 위해 마련됐다. 이와 함께 와이즈넛은 스스로 학습하고 진화하는 AI 생태계를 구축하겠다는 목표를 제시했다. 단순히 답변을 잘하는 AI가 아니라 시간이 지날수록 더 현명해지고 실제 업무 실행까지 책임지는 AI 에이전트를 구현하겠다는 비전이다. 이를 위해 퓨리오사AI와의 협력을 바탕으로 HW와 SW를 일체형으로 제공하는 AI 어플라이언스 전략을 본격화한다고 밝혔다. 기존에는 기업이나 기관이 AI 시스템을 도입하려면 서버를 구축하고 모델을 설치·최적화하며 보안 환경을 맞추는 복잡한 과정이 필요했다. 하지만 어플라이언스 형태로 제공하면 이러한 과정을 크게 단축할 수 있고 도입 리스크 역시 줄일 수 있다. 이번에 공개된 어플라이언스는 퓨리오사AI의 고성능 NPU 칩셋과 와이즈넛의 AI 에이전트 소프트웨어가 결합된 형태다. 퓨리오사AI의 '레니게이드(RNGD)' 칩셋은 엔비디아 H100 대비 3배 이상 높은 전력 효율을 보였으며, 최신 대규모 언어모델 라마(LLaMA) 3.1 기반 벤치마크에서 H100을 능가하는 성능을 입증했다. 와이즈넛은 이러한 하드웨어 성능을 기반으로, 자체 개발한 에이전트 플랫폼과 언어모델을 최적화해 실제 업무 환경에서 안정적으로 활용할 수 있는 종합 솔루션을 마련했다. 장정훈 와이즈넛 최고기술책임자(CTO)는 "AI 에이전트를 도입하려는 고객은 인프라 준비, 보안 요건, 통합 과정에서 많은 부담을 안고 있다"며 "어플라이언스 형태는 이러한 장벽을 최소화하고, 공공과 민간 시장 모두에서 빠른 확산을 가능하게 할 것"이라고 강조했다. 이와 함께 와이즈 에이전트 스피어, 와이즈 에이전트 랩스, 와이즈 로아 등 와이즈넛의 신규 AI 에이전트 제품군도 공개됐다. 와이즈 에이전트 스피어는 여러 개의 AI 에이전트가 서로 협력해 복잡한 업무를 나누어 처리하고, 이를 통합해 최종 결과를 도출하는 멀티 에이전트 협업 플랫폼이다. 단순 응답형 챗봇을 넘어 실제 업무 실행까지 지원하는 것이 특징이다. 와이즈 에이전트 랩스는 AI 에이전트의 설계, 개발, 검증, 운영 전 과정을 하나의 체계 안에서 관리할 수 있는 통합 제작 도구다. 데이터 처리, 모델 관리, 성능 모니터링, 보안 및 규제 대응까지 전 주기를 지원하며, 현장에 최적화된 에이전트를 빠르게 구현할 수 있도록 돕는다. 와이즈 로아는 AI 에이전트에 특화된 대규모 언어모델로 단순 질의응답을 넘어 계획 수립, 실행, 피드백, 수정에 이르는 자율적인 사이클을 수행할 수 있도록 설계됐다. 특히 한국어 환경에 최적화된 성능을 보여 글로벌 모델과 비교해도 높은 평가를 받았다. 이처럼 와이즈넛은 협업 플랫폼, 제작 도구, 특화형 언어모델까지 아우르는 풀라인업을 통해 기업과 공공기관이 원하는 맞춤형 AI 에이전트를 손쉽게 구축하고 운영할 수 있는 기반을 마련했다고 설명했다. 양사는 이번 협력을 통해 AI를 실제로 활용하려는 기업과 공공기관의 AI 도입을 본격화한다는 방침이다. 강용성 와이즈넛 대표는 "공공시장은 보안과 제도 요건이 철저히 지켜져야 하는 만큼 단순 기술력만으로는 진입이 어렵다"며 "와이즈넛은 다년간의 공공 프로젝트 경험과 규제 대응 노하우를 토대로 공공기관이 안심하고 도입할 수 있는 AI 어플라이언스를 제공하겠다"고 말했다. 또한 강 대표는 "현재 국내에서 가장 적극적으로 AI 관련 투자를 하고 있는 분야는 공공"이라며 "공공 프로젝트가 초기 시장을 견인하고 있어 여기서 확보한 경험과 레퍼런스가 민간 확산에도 중요한 역할을 할 것"이라고 덧붙였다. 와이즈넛은 이미 여러 공공기관과 기업 현장에서 AI 에이전트 도입 사례를 확보하며 기술력을 입증했다고 밝혔다. 한국도로공사는 고객 민원 응대와 내부 행정 업무 자동화를 위해 와이즈넛의 AI 에이전트를 도입했다. 민원 메일 분석, 규정 검토, 응답 초안 작성까지 이어지는 프로세스를 에이전트 기반으로 구현해, 업무 효율성과 고객 만족도를 동시에 높였다. 경기도청에서는 AI 에이전트 성능 검증을 위한 대규모 BMT(벤치마크 테스트)를 진행했다. 와이즈넛은 데이터 최적화와 모델 튜닝을 통해 경쟁사 대비 높은 평가를 받으며 기술 우위를 입증했다. 또한 국민건강보험공단에서는 '에이전틱 AI'를 명시한 최초의 RFP(입찰 제안요청서)에 응찰해 민원 상담 영역에 생성형 AI를 접목하는 성과를 거뒀다. 공공 민원 상담이라는 특수한 환경에 맞춰 데이터 기반으로 정확한 답변을 제공하고 상담 효율을 높이는 사례로 평가받았다. 마지막으로 강 대표는 국내 AI 산업의 발전을 위해서는 단순한 기술 트렌드를 쫓는 것이 아니라 체계적 발전을 위한 역할 분화가 필요하다고 강조했다. 그는 "불과 1년 전만 해도 대규모 언어모델(LLM)이 AI의 전부처럼 이야기되다가 올해는 모두가 AI 에이전트를 말하고 있고 내년에는 또 피지컬 AI라는 용어가 유행할 수 있다"며 "이런 식으로 AI를 유행처럼 소비해서는 안 된다"고 지적했다. 이어 자동차 산업을 비유로 들며 "모든 회사가 자동차 전체를 다 만들 필요는 없다. 어떤 회사는 타이어, 어떤 회사는 엔진, 또 다른 회사는 브레이크처럼 각자 전문 영역을 맡는다"며 "한국의 AI 산업도 이와 같이 전문화된 역할 분담이 필요한 시점"이라고 설명했다. 강 대표는 "이번에 발표한 와이즈 로아(LLM), 와이즈 에이전트 스피어, 와이즈 에이전트 랩스는 모두 검색 기술과 언어 처리에 강점을 가진 와이즈넛의 철학에서 나온 제품"이라며 "산업이 정상적으로 육성되기 위해서는 AI 시장도 역할에 맞게 세분화되고 각 회사가 자신이 잘할 수 있는 분야에서 경쟁력을 키워야 한다"고 강조했다.

2025.09.17 13:08남혁우

[현장] 마키나락스, '1인 100명 몫' 초생산성 시대 선언…'에이전틱 AI'가 판 바꾼다

마키나락스가 범용 인공지능(AI)의 한계를 지적하고 산업별 '에이전틱 AI'가 생산성을 100배 높이는 초생산성 시대를 열 것이라고 선언했다. 도메인 지식에 최적화된 AI 에이전트의 필요성을 강조하며 기업이 이를 직접 수천 개씩 만드는 청사진을 제시한 것이다. 마키나락스는 4일 서울 양재 엘타워에서 AI 컨퍼런스 '어텐션 2025'를 개최했다. 올해 2회째를 맞은 행사는 '생각하고, 행동하며, 산업을 바꾸는 AI'를 주제로 열렸으며 1천200명이 사전 신청해 조기 마감됐다. 이날 기조연설에 나선 윤성호 마키나락스 대표는 AI의 추론 역량이 매 7개월마다 2배씩 성장하는 시대에도 산업 현장 적용은 여전히 요원하다고 진단했다. 그는 "스탠포드 박사급 AI라도 도메인 지식과 경험이 없으면 울산 공장에서 즉시 일할 수 없다"며 "이는 지능이 아닌 경험의 문제"라고 설명했다. 결국 산업 AI 적용의 발목을 잡는 것은 범용 AI의 태생적 한계와 현장이 요구하는 높은 정밀도다. 기타 분야의 '그럴싸한' 결과물과 달리 제조 현장에서 80%의 정확도는 의미가 없기 때문이다. 일례로 윤 대표는 반도체 설비 하나에 7천 장의 도면을 전문가 500명이 24만 시간을 들여 검토하는 현실을 대표적인 산업 난제로 꼽았다. 범용 AI는 도면의 'Φ25'(지름 25)를 '025'로 잘못 읽는 등 문맥을 이해하지 못해 실사용이 불가능하다. 마키나락스의 해법은 도면의 의미를 사람처럼 이해하는 도메인 특화 AI다. 이 기술은 단순히 픽셀을 비교하는 것을 넘어 '왼쪽 도면의 범례와 오른쪽 도면의 범례를 비교하라'는 식의 의미 기반 분석을 수행한다. 실제로 엔지니어 2명이 3시간 넘게 걸리고도 오류를 놓친 도면 비교 작업을 AI는 단 1~2분 만에 완벽히 해냈다. 이를 통해 중공업 분야에서는 도면 검토 시간을 4배 이상 줄였고 반도체 분야에서는 견적 산출 시간을 최대 2.6배 단축하는 성과를 거뒀다. 윤 대표는 이러한 기술이 '초생산성' 시대를 열 것이라고 역설했다. 일의 본질은 바뀌지 않지만 한 사람이 해낼 수 있는 일의 양이 10배, 100배로 늘어난다는 의미다. 더불어 이 비전을 현실로 만들 도구로는 자체 AI 플랫폼 '런웨이'를 제시했다. 기업이 스스로 특정 업무에 특화된 AI 에이전트를 쉽고 빠르게 만들도록 지원하는 것이 핵심이다. 런웨이는 ▲그래픽처리장치(GPU) 활용 최적화 ▲조직 맞춤형 AI 포털 ▲엔터프라이즈 거버넌스 등 기업의 실질적 문제를 해결하는 기능을 갖췄다. 특히 코딩 기술을 활용해 10분 만에 데이터 모니터링 앱을 만드는 '앱 스튜디오' 기능이 현장에서 공개돼 주목받았다. 윤 대표는 "우리는 모든 기업 구성원이 '엑셀'처럼 런웨이를 사용해 자신의 업무에 맞는 수백, 수천 개의 AI 에이전트를 직접 만드는 미래를 그린다"며 "전문가의 영역이었던 AI 개발을 '시민 개발자'의 수준으로 민주화하겠다"고 말했다. 이날 행사에는 LG AI연구원, 퓨리오사AI, 업스테이지, 엔비디아 등 국내외 기술·산업 리더들이 연사로 참여했다. 오전에는 윤종필 한국생산기술연구원 센터장과 김한성 국방전산정보원장의 축사에 이어 임우형 LG AI연구원 공동원장이 기조연설을 맡았다. 이어진 패널토론에서는 음병찬 디스펙터 대표를 좌장으로 정영범 퓨리오사AI 상무, 이활석 업스테이지 CTO 등이 참여했다. 패널들은 "한국이 파운데이션 모델 경쟁을 넘어 산업 현장과 생태계 차원에서 AI 주권을 확보해야 한다"고 입을 모았다. 더불어 '산업 AI 실전 사례' 세션에서는 ▲한국수자원공사의 수자원 예측 ▲두산에너빌리티의 도면 검토 스마트화 ▲현대오토에버의 제조 AI 에이전트 활용 ▲육군사관학교의 AI 화력계획추천 등 구체적인 적용 경험이 공유됐다. 행사장에는 런웨이의 신기능 '앱 스튜디오'와 함께 ▲스마트 도면 에이전트 ▲스마트 공장 사업관리 챗봇 ▲지휘통제 상황관리 에이전트 등 다양한 버티컬 AI 에이전트 데모가 전시돼 큰 관심을 모았다. 윤 대표는 "올해 컨퍼런스는 다양한 고객, 파트너와 함께 버티컬 AI로 열어갈 미래를 확인한 뜻깊은 시간이었다"며 "산업 현장의 설비·기계·로봇까지 아우르는 기술력으로 초생산성을 이끄는 피지컬 AI 시대를 앞당겨 나가겠다"고 밝혔다.

2025.09.04 11:28조이환

글로벌 AI 추론 시장 급성장…한국 NPU 기업, 기회 잡을까

AI 추론 시장이 확대됨에 따라 글로벌 빅테크들은 GPU(그래픽처리장치) 의존도를 줄이고 있다. 가격이 비싸고, 발열량이 높은 GPU를 대신할 차세대 제품을 찾는 것이다. 대안으로 떠오르고 있는 칩이 AI 추론에 특화된 NPU(신경망처리장치)다. AI 연산에 특화된 구조가 낮은 전력으로도 높은 효율을 구사할 수 있게 만들어졌다. 대표적인 글로벌 기업이 미국 쌈바노바(SambaNova)와 그로크(Groq)다. 이들 기업은 이미 독자 생태계를 앞세워 시장 내 입지를 쌓아가고 있다. 이 같은 상황에 국내 업체인 리벨리온과 퓨리오사AI가 본격적으로 도전장을 내밀며 글로벌 NPU 기술 경쟁이 가속화되는 양상이다. AI 추론 시장 성장세...NPU 시장 전망 긍정적 28일 업계에 따르면 글로벌 AI 추론 시장은 가파르게 성장할 전망이다. 시장조사업체 마케츠앤마케츠는 추론 시장이 올해 약 106억달러(약 14조7천976억원)를 기록한 뒤, 오는 2030년 약 255억달러(약 35조5천980억원)까지 성장할 것으로 내다봤다. 연평균 약 19%에 달하는 성장률이다. 이에 따라 추론형 NPU 시장도 동반 성장할 것으로 점쳐진다. 다양한 AI 애플리케이션이 더 많은 추론 처리량, 낮은 지연, 높은 에너지 효율을 요구하며, 이를 가장 잘 대응할 수 있는 것이 추론형 NPU이기 때문이다. 삼일PwC경영연구원은 보고서를 통해 “AI에 사용되는 반도체 중 CPU, GPU 시장은 이미 기술 성숙 단계 진입했으며, 최적화된 저전력·고효율 ASIC(주문형반도체) 중심의 추론형 AI 반도체(NPU) 시장이 성장 중”이라고 분석했다. 美 쌈바노바·그로크, 자체 시장 구축 중 특히 NPU 시장에서 두각을 드러내는 업체는 쌈바노바와 그로크다. 양사 모두 미국의 스타트업이다. 먼저 쌈바노바는 데이터플로우 아키텍처 기반의 NPU와 자체 소프트웨어를 통합 제공하며 초대형 언어모델(LLM) 훈련과 추론을 아우른다. 고객에게 하드웨어뿐 아니라 모델·플랫폼까지 묶어 공급하는 방식으로 미국 정부, 금융기관 등 대형 고객을 확보했다. 업계 안팎에서는 자체적인 생태계를 구축했다는 점을 특징으로 지목한다. 그로크는 추론에 극단적으로 특화된 칩을 양산한다. 자체 칩과 소프트웨어를 통해 수백만 토큰 단위의 실시간 추론 속도를 구현하며, 클라우드 기반 'LLM 서빙 서비스'를 사업 모델로 삼았다. 대규모 데이터센터에서 고속 검색·RAG(검색증강생성) 서비스에 적합하다는 평가다. 하드웨어 판매보다 클라우드 추론 서비스로 수익을 내고 있다. 韓 AI반도체 도약 조건은 효율성·맞춤형 시장 공략...리벨리온, 리벨쿼드 공개 업계 안팎에서는 국내 AI 반도체 기업들이 글로벌 경쟁에서 승부를 내려면 두 가지 전략에 집중해야 한다고 보고 있다. 첫째, 전력 효율성에서 확실한 우위를 확보해야 한다는 점이다. 데이터센터의 전력 소비와 운영비용이 AI 확산의 최대 걸림돌로 떠오르는 상황에서, 효율이 곧 경쟁력으로 직결된다는 주장이다. 둘째, 맞춤형 시장 공략이다. 엔비디아처럼 범용 GPU로 모든 영역을 장악하기는 현실적으로 어렵다. 대신 통신사, 공공기관, 금융, 국방 등 특정 산업에 특화된 '맞춤형 추론형 NPU'로 영역을 넓히는 것이 현실적인 전략이다. 실제로 국내 AI반도체 스타트업인 리벨리온과 퓨리오사AI 모두 저전력·고효율 NPU를 앞세워 데이터센터·통신사·공공기관 등 특화 수요처를 공략하고 있다. 이런 가운데 리벨리온은 현지시간 27일 미국 핫칩스에서 차세대 NPU 리벨 쿼드(Rebel-Quad)를 공개했다. 이 칩은 삼성전자 4nm(나노미터, 10억분의 1m) 공정을 통해 양산되며, 엔비디아 블랙웰 수준의 성능을 자랑한다. 그러면서도 에너지 부담은 획기적으로 줄여준다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며, “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로, 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 말했다.

2025.08.28 09:14전화평

"LG AI 모델에 퓨리오사 반도체 결합"…뤼튼, '전 국민 AI 역량 강화' 프로젝트 본격화

뤼튼테크놀로지스가 LG AI연구원과 손잡고 전국민의 인공지능(AI) 역량을 강화한다. 국내 AI 생태계를 확장해 기술이 일부 전문가의 영역을 넘어 모든 국민의 실생활에 스며들게 하려는 전략이다. 뤼튼은 LG AI연구원과 '엑사원' 거대언어모델(LLM) 공급 파트너십 및 포괄적 업무제휴 협약을 맺었다고 19일 밝혔다. 회사는 이번 협력을 통해 '전 국민 AI 역량 강화 프로젝트'를 본격적으로 추진한다. 양사가 추진하는 '전 국민 AI 역량 강화 프로젝트'는 AI 소외 계층과 학생을 위한 교육 프로그램 운영을 골자로 한다. 이를 통해 AI 기술 협력 생태계를 넓히고 국가 전체의 AI 경쟁력에 기여하는 것을 목표로 삼았다. 이번 협력은 뤼튼이 지난달 31일 AI 반도체 기업 퓨리오사AI와 맺은 업무제휴의 연장선상에 있다. 뤼튼은 '엑사원' 모델을 퓨리오사AI의 2세대 AI 추론 가속기 '레니게이드' 위에서 구동해 K-AI 기술 기업 생태계의 시너지를 극대화할 계획이다. 협력의 기반이 된 LG AI연구원의 '엑사원 4.0'은 최근 글로벌 AI 성능 분석 기관 '아티피셜 어낼리시스(Artificial Analysis)' 평가에서 국내 모델 1위를 기록했다. 글로벌 기준으로는 10위권에 이름을 올리며 기술 경쟁력을 입증했다. 양사 업무제휴 협약은 ▲AI 기술·콘텐츠의 교육 분야 활용 ▲AI 리터러시 향상 교육 기획 ▲AI 기술 실사용 환경 협력 등을 주요 내용으로 한다. 임우형 LG AI연구원 공동 연구원장은 "'엑사원'의 고도화된 기술을 전 국민 AI 역량 강화를 위해 적극적으로 활용하고 뤼튼테크놀로지스와의 협업을 통해 사용자 중심의 혁신을 만들어 나가겠다"고 밝혔다. 이세영 뤼튼 대표는 "국가 AI 경쟁력은 국민 한 명 한 명의 AI 역량 강화에서 출발한다"며 "실생활에서 국민 모두가 효용을 실제 체감할 수 있는 AI 기술과 서비스를 위해 여러 기업들과 긴밀히 협력해 나가겠다"고 말했다.

2025.08.19 15:37조이환

퓨리오사AI, 베트남 CMC코리아와 전략적 업무협약 체결

AI 반도체 팹리스 기업 퓨리오사AI는 최근 베트남의 선도적인 IT 서비스와 DX 솔루션 제공업체 CMC글로벌의 한국 법인인 CMC코리아와 전략적 협력 양해각서(MOU)를 체결했다고 14일 밝혔다. 이번 협약을 통해 양사는 퓨리오사AI의 고성능 NPU(신경망처리장치)와 CMC코리아의 소프트웨어 개발·운영 서비스 역량을 결합해, 한국과 베트남을 포함한 글로벌 시장에서 AI 솔루션 공동 개발과 사업 확장을 추진하기 위한 기반을 마련했다. 또한 한국·베트남의 각사가 보유한 현지 네트워크 및 채널을 적극 활용해 시장 확대를 지원하며, AI 반도체 아키텍처와 최적화 기술, 대규모 소프트웨어 프로젝트 운영 노하우를 상호 공유할 계획이다. 양사의 고객·파트너 네트워크를 바탕으로 한 교차 마케팅과 잠재 고객 발굴도 병행해 추진하는 등 소프트웨어 개발, IT 운영 서비스, AI 플랫폼 등 다양한 산업 분야에서 긴밀히 협력할 예정이다. 이를 통해 퓨리오사AI와 CMC코리아는 추후 산업·국가별 맞춤형 AI 솔루션으로 협력 범위를 단계적으로 확대한다는 계획이다. MOU 체결식에는 퓨리오사AI 백준호 대표와 호 탄 퉁(Ho Thanh Tung) CMC글로벌 이사장, 당 응옥 바오(Dang Ngoc Bao) CMC글로벌 대표, 권영언 CMC코리아 대표 등이 참석했다. 백준호 퓨리오사AI 대표는 “동남아 ICT 강자인 CMC와의 협업을 통해 신흥시장 공략에 속도를 가하겠다”며 “고성능·고효율 AI 반도체에 대한 수요가 전지구적으로 급증하는 가운데 글로벌 선두주자로 도약할 것”이라고 강조했다. 당 응옥 바오 CMC글로벌 대표는 “퓨리오사AI의 NPU가 당사의 디지털 솔루션을 확장하는 데에 크게 기여하리라 믿는다”며 “이번 협력은 베트남의 소프트웨어 전문성과 한국의 반도체 혁신을 결합해 AI 애플리케이션 개발과 상용화 속도를 앞당기고, 아시아·태평양 시장에 새로운 기술 표준을 제시할 것”이라고 말했다.

2025.08.14 09:20장경윤

"AI칩 경쟁력은 소프트웨어"...업계, SDK 개발 지원 총력전

엔비디아는 어떻게 AI 시장 리더로 성장할 수 있었을까. 국내 AI반도체 업계 관계자들은 이 같은 질문에 엔비디아 소프트웨어(SW) 플랫폼 '쿠다(CUDA)'를 답변으로 내놓는다. 칩 성능만 보면 AMD와 엔비디아가 큰 차이 없지만 소프트웨어 경쟁에서 엔비디아가 압승했다는 주장이다. 한 AI반도체 업체 관계자는 “사실 칩 성능만 보면 AMD가 엔비디아에 크게 밀리지 않는다”며 “AMD의 소프트웨어가 사용하기 힘든 반면, 쿠다는 개발자들에게 이미 깊숙히 파고들었다”고 설명했다. AI 반도체, SDK 개발에 총력 4일 업계에 따르면 국내 AI반도체 업체들은 SDK(소프트웨어개발키트) 개발에 내부 자원을 집중하고 있다. SDK는 소프트웨어를 개발할 수 있도록 도와주는 일종의 개발 도구 모음이다. AI 연산, 이미지 처리, 센서 제어 등 반도체 기능을 활용하는 애플리케이션을 구현한다. 반도체 개발 및 양산이 성능을 구현하는 과정이라면, SDK 개발은 사용자들이 실제로 칩을 이용할 수 있도록 환경을 구축하는 최적화 과정인 셈이다. 글로벌 엣지 AI반도체 1위 헤일로 김귀영 한국 지사장은 "꾸준한 SDK 지원 여부가 회사 경쟁력과 직결된다"고 말했다. 특히 SDK 개발에 적극적인 곳은 퓨리오사AI다. 회사는 이날 SDK 3.0를 고객사에 공급했다. SDK 2.0을 공급한 이후 4개월만이다. 이번 업데이트로 NPU(신경망처리장치) 카드에 걸친 텐서 병렬 처리가 공식적으로 지원된다. LLM(대규모 언어모델)의 효율적인 확장이 가능해지고 처리량이 크게 올랐다. 구체적으로 오픈소스 AI모델 라마 3.1 기준으로 처리량이 최대 3배 증가하고, 토큰 지연 시간은 최대 55% 감소하는 등 성능이 향상됐다. 퓨리오사AI 관계자는 “현재 회사 인력은 180명인데 이 중 3분의 2가 소프트웨어 개발 인력”이라며 “지난해 8월 레니게이드를 출시한 이후, 소프트웨어 개발을 거듭해 이제 고객이 서비스에 칩을 도입하는 시기까지 왔다”고 말했다. 그러면서 “최근 LG AI연구원에서 공개한 '엑사원'이 대표적인 예시”라고 덧붙였다. 리벨리온도 SDK 개발 및 지원에 힘을 쏟는 중이다. 라마, 챗GPT 등 다양한 AI 모델들이 늘어남에 따라 고객 니즈에 맞는 서비스를 제공하기 위한 전략이다. 리벨리온 관계자는 “회사 칩은 200개 이상의 모델을 지원하고 있다"며 “리벨리온 SDK는 복잡한 설정 없이도 개발자가 익숙한 환경에서 AI 모델을 쉽게 개발하고, 실제 서비스에 빠르게 적용할 수 있도록 제작됐다”고 소개했다. 향후 SDK 지원을 위해 소프트웨어 개발 인력도 꾸준히 채용 중이다. 리벨리온은 현재 200여명으로 구성돼 있으며, 이 중 상당수가 소프트웨어 개발 인력인 것으로 전해진다. 엣지 AI반도체 업계도 SDK 개발에 한창이다. 딥엑스는 현재 100여명 정도인 인력을 빠른 시일 내에 300명까지 늘릴 계획으로, 신규 채용 인력 중 대부분을 소프트웨어 개발 인력으로 채운다. 모빌린트의 경우 창업 초기부터 소프트웨어 개발 인력을 중심으로 채용한 바 있다. 현재 개발 인력 4분의 3이 SDK 지원 등 소프트웨어를 개발하고 있다. 신동주 모빌린트 대표는 “SDK가 반도체 비즈니스에서 워낙 중요한 영역이라 모빌린트는 처음 시작할 때부터 소프트웨어 개발 인력이 다른 부분보다 더 많았다”고 밝혔다. 개발 인재 구인 난항...SDK 꾸준히 지원 가능할까 문제는 인력 풀이 많지 않다는 점이다. 현재 AI반도체 업체에서 원하는 인재는 ▲소프트웨어 역량 ▲하드웨어(HW) 역량 ▲AI에 대한 높은 이해라는 삼박자를 갖추고 있어야 한다. 이 같은 역량을 기르기 위해서는 신입 기준 최소 석사급은 돼야 한다는 게 업계 중론이다. 게다가 글로벌 반도체 업체들과 인재를 놓고 경쟁한다는 점도 국내 업체들의 애로 사항이다. 엔비디아, AMD, 인텔 등 반도체 업체 뿐만 아니라 자체적으로 칩 개발을 시작한 빅테크 기업 메타, 구글 등도 인재 전쟁의 경쟁 상대다. 익명을 요청한 한 AI반도체 업계 관계자는 “글로벌 AI반도체 업체들은 인력 중 대부분이 SDK 지원에 힘을 쏟고 있다”며 “글로벌 기업들이 시장에서 성공할 수 있었던 가장 큰 이유는 안정적인 SDK 지원”이라고 설명했다. 그러면서 “국내 업체들이 글로벌 시장에서 성공하기 위해서는 칩을 양산하는 걸 넘어 안정적인 소프트웨어를 지원해야 하는데 국내 여건상 인재를 구하는 게 쉽지 않다”고 토로했다.

2025.08.04 16:17전화평

지드래곤 덕에 관심 터진 이 기업, 李 정부 '1호 유니콘'과 손잡았다…무슨 일?

최근 가수 지드래곤(GD)을 전면에 내세워 '앱' 이용자 수를 크게 늘린 뤼튼테크놀로지스가 이재명 정부 1호 유니콘(기업가치 1조원 이상 비상장사)에 등극한 퓨리오사AI와 손잡고 '전 국민 인공지능(AI) 역량 강화'에 나선다. 뤼튼은 퓨리오사AI와 전략적 업무 제휴 협약을 체결했다고 31일 밝혔다. 양사는 각각 AI 인프라와 서비스 부문에서 가장 주목받는 AI 기업들로 ▲전 국민 AI 역량 강화 ▲고성능·고효율 추론 인프라 구축 ▲AI 기술의 실용적 보급 등의 목표에 뜻을 함께 하며 이번 업무제휴 체결에 합의했다. AI 서비스 플랫폼 기업인 뤼튼은 지난해 월간 활성 이용자 수 500만 명을 돌파하며 국내 AI 서비스 플랫폼 중 가장 많은 수준의 이용자를 보유하고 있는 곳이다. AI 반도체 설계 스타트업인 퓨리오사는 세계적으로 인정받는 핵심 기술력을 바탕으로 추론 분야에서 엔비디아의 유력한 대안으로 부상하고 있다. 특히 퓨리오사는 최근 자사 2세대 AI 추론 가속기 '레니게이드(RNGD)'의 LG 엑사원 공급을 확정지으며 글로벌 엔터프라이즈 매출 확대에 박차를 가하고 있다. 지난 달 31일에는 1천700억원 규모 시리즈C 브릿지 투자를 유치, 기업가치 1조원에 올라서며 유니콘 반열에 올랐다. 뤼튼 역시 지난 3월 총 1천80억원 규모로 시리즈B 투자 유치를 마무리하며 국내외서 미래 유니콘 기업으로 주목하고 있다. AI 포털 기업 중에서 누적 투자유치 1천억원을 넘어선 곳은 뤼튼이 최초다. 뤼튼은 이번 업무 제휴를 통해 '전 국민 1인 1AI 보급'을 더욱 가속화하며 대규모 이용자에게 보다 안정적인 환경에서 고성능 AI 서비스를 제공할 수 있도록 서비스 인프라를 고도화 할 계획이다. 이에 따라 퓨리오사는 뤼튼의 실제 서비스 환경에서 레니게이드의 성능, 효율성, 범용성을 입증함으로써 경쟁력 있는 추론 인프라 구축에 기여할 예정이다. 양사는 이 같은 목표들을 실현하기 위해 전략적 협력 관계를 구축하고 상호 시너지 도모를 위한 사업 기회들을 지속적으로 발굴하고 협력하기로 했다. 백준호 퓨리오사 대표는 "이번 협업을 통해 대규모 인공지능 서비스를 효율적으로 서비스 할 수 있는 국가 단위의 AI 풀스택 경쟁력 확보가 더욱 가속될 것으로 기대한다"고 말했다. 이세영 뤼튼 대표는 "모든 국민이 더욱 쉽고 편리하게 AI를 이용할 수 있도록 돕는 것이 창업 당시부터 우리의 오랜 목표"라며 "이를 위해 앞으로도 다양한 분야의 AI 기업들과 협력해 생태계를 계속 확장하고, 나아가 국가 AI 경쟁력 강화에도 기여하겠다"고 밝혔다.

2025.08.01 18:35장유미

퓨리오사AI, 1700억원 투자 유치…"AI 칩 양산 준비"

AI 반도체 기업 퓨리오사AI는 시리즈 C 브릿지 라운드에서 총 1천700억원 규모의 투자를 유치했다고 31일 밝혔다. 이로써 퓨리오사AI는 국내 딥테크 기업 중 드물게 기업가치 1조원을 돌파하며 유니콘 반열에 올라섰다. 이번 라운드는 프리 머니(pre-money) 기준 8천300억원의 기업가치를 바탕으로, 총 40여개 기관이 참여했다. 국책금융기관인 산업은행(300억)과 기업은행(100억) 및 계열사인 IBK증권(60억), IBK벤처투자(50억), 유진-성장금융펀드(116억)에 더해, 케이스톤파트너스(200억), 피아이파트너즈(132억), 대성창업투자(50억) 등의 사모펀드(PE), 그리고 카카오인베스트먼트(30억) 등이 참여했다. 퓨리오사AI는 그동안 시드 투자유치부터 시리즈 C까지 7년간 유치한 누적 투자금에 상응하는 규모의 투자를 이번 단일 C 브릿지 라운드에서 유치하며 시장으로부터의 꾸준한 기대감 및 신뢰를 입증했다. 기존 투자자들이 재참여해 퓨리오사AI에 대한 변함없는 신뢰를 보여준 가운데, 케이스톤파트너스, 넥스트랜스, 대성창투 등 신규 투자자들이 퓨리오사AI의 기술력과 성장 가능성에 대한 기대를 기반으로 참여했다. 특히 이번 라운드에서는 기술 및 시장 리스크가 높은 초기 기업에는 잘 투자하지 않는 사모펀드(PE)가 총 400억원 규모로 복수 참여해 눈길을 끈다. 퓨리오사AI가 자본시장으로부터 기술 및 제품의 시장성을 인정받아 성장(Growth) 단계 기업으로 도약했다는 의미로 풀이된다. 실제로 생성형 AI 시장이 엔비디아 GPU 의존도를 줄일 수 있는 대안을 모색하는 흐름 속에서 퓨리오사AI에 대한 글로벌 시장의 관심은 나날이 커져가고 있다. 올 7월 퓨리오사AI는 자사의 2세대 인공지능 반도체 RNGD(이하 레니게이드)를 LG AI연구원의 대규모 언어모델인 EXAONE(엑사원)에 공급하면서 성공적으로 기업 엔터프라이즈 시장에 진출했다. 공급을 위한 선정 과정에서 레니게이드가 LG 측의 고성능 조건을 충족시키는 동시에 기존 GPU 대비 2.25배 높은 전력당 성능을 보인 만큼, LG 엑사원 사례는 포춘 글로벌 500대 기업들을 대상으로 유력한 레퍼런스로 작용할 전망이다. 퓨리오사AI는 이번 투자금을 레니게이드 양산과 3세대 제품 초기 개발에 사용할 예정이다. 레니게이드가 본격적으로 대형 엔터프라이즈 시장에 진입한 만큼 선제적인 다수의 물량 확보가 필수적이고, 더 나아가 야심찬 목표를 가지고 있는 차세대 칩을 계획하고 있기 때문이다. 백준호 퓨리오사AI 대표는 “투자 유치는 레니게이드 양산에 진입하는 중요한 시점에 자본시장이 당사의 기술력과 비전에 대해 강한 신뢰를 보내고 있다는 뜻이라고 생각한다. 반드시 글로벌 엔터프라이즈를 대상으로 매출 확대를 이끌어 내겠다”며 “정부의 AI 스타트업 스케일업을 위한 모험자본 확대 기조 역시 매우 고무적이다”라고 밝혔다. 백 대표는 이어 “한국이 미국, 중국과 함께 AI G3 강국으로 도약하기 위해서는 AI 반도체의 글로벌 경쟁력 확보는 단순한 목표가 아니라 반드시 해내야 할 사명”이라고 덧붙였다.

2025.07.31 09:43장경윤

[현장] LG, '엑사원 생태계' 시대 연다…"자체 AI 모델로 기술 주권 실현"

LG가 자체 개발한 초거대 인공지능(AI) '엑사원(EXAONE)'을 중심으로 모델부터 응용 서비스, 파트너사까지 아우르는 풀스택 생태계를 구축해 산업 현장의 AI 전환을 이끈다. 독자적인 파운데이션 모델로 글로벌 경쟁력을 확보하고 다양한 파트너사와 함께 산업을 주도하겠다는 포부다. LG AI연구원은 22일 서울 강서구 마곡 LG사이언스파크에서 'LG AI 토크 콘서트 2025'를 열고 AI 기술 연구 개발 성과와 향후 계획을 발표했다. 이날 행사에는 임우형·이홍락 공동 연구원장, 최정규 AI에이전트그룹장 등 LG AI연구원의 핵심 리더들이 총출동해 '엑사원 생태계'의 비전과 이를 구성하는 최신 기술을 상세히 소개했다. 임우형 공동 연구원장은 "지금 우리는 AI와 함께 생각하고 일하고 살아가는 시대에 들어섰다"며 "AI는 우리의 삶과 산업을 바꾸는 핵심 기술이 되고 있다"고 강조했다. 임우형 원장 "자체 모델로 기술 독립…산업 현장서 생태계 구축" 이날 첫 발표자로 나선 임 공동 연구원장은 지난 2020년 설립된 LG AI연구원의 5년간의 발자취를 되짚었다. 임 원장에 따르면 LG AI연구원은 지난 2021년 AI 독해 능력 경진대회에서 1위를 차지하며 기술력을 입증했고 같은 해 국내 최초의 멀티모달 AI '엑사원 1.0'을 개발하며 초거대 AI 시대의 포문을 열었다. 이후 세계 최초로 AI 디자이너와 뉴욕 패션위크 무대에 서고 국내 최초로 유네스코와 AI 윤리 파트너십을 맺는 등 기술 혁신과 사회적 책임을 아우르는 행보를 이어왔다. 임 원장은 "지금 이 순간 엑사원 모델은 전 세계에 공개돼 국내 모델 중 최대인 510만 회 다운로드를 기록하고 있다"며 "파생 모델 수도 200개 이상에 달한다"고 설명했다. 이어 "이러한 혁신은 산업 밸류체인에서 실질적인 가치를 창출하고 있다"고 강조했다. 그는 실제 산업 현장에서 엑사원이 거둔 성과를 구체적인 수치로 제시했다. 수많은 반복 실험이 필요했던 화장품 신소재 개발은 '엑사원 디스커버리'를 통해 4천만 건 이상의 물질 검토를 단 하루 만에 끝내 연구개발 패러다임을 바꿨다. 소량의 불량 이미지만으로 정확도를 20% 이상 끌어올린 비전 검사 기술은 연간 5천400만 달러(한화 약 750억원)의 비용 절감 효과를 냈고 복잡한 석유화학 공정 스케줄링을 100% AI로 자동화해 한계 이익을 4% 개선했다. 임 원장은 이러한 성과를 바탕으로 LG AI연구원이 나아갈 세 가지 미래 방향을 제시했다. 첫 번째는 자체 파운데이션 모델을 기반으로 한 글로벌 경쟁력 확보다. 그는 내재화된 기술 개발을 등한시하면 기술 종속 위기에 직면할 수 있음을 지적하며 기술 독립을 넘어 글로벌 시장에서 당당히 경쟁할 수 있는 AI 모델을 만들겠다고 강조했다. 두 번째 방향성으로는 다양한 산업 현장에 AI를 직접 적용함으로써 범용성과 전문성을 동시에 확보하는 전략을 꼽았다. 임 원장은 이것이 LG AI연구원만이 가진 가장 큰 경쟁력이자 타 기업과의 핵심적인 차별점이라고 설명했다. 마지막으로 그는 파트너사와 함께하는 생태계 구축의 중요성을 역설했다. 임 원장은 "여전히 많은 산업 분야에서 AI의 기술 혁신 가치가 충분히 실현되지 못하고 있다"며 "대한민국 AI 활용 생태계를 주도하고 글로벌 파트너사와 함께 그 생태계를 더욱 키워나갈 것"이라고 밝혔다. 이홍락 원장, 문서 이해 AI '엑사원 4.0 VL' 공개…"알파폴드 넘는 혁신 도전" 이어 발표를 진행한 이홍락 공동 연구원장 겸 최고AI과학자(CSAI)는 LG AI 기술력의 결정체인 최신 '엑사원' 모델들을 공개하며 바이오·의료부터 산업 현장의 문서 분석까지 아우르는 압도적인 성능을 증명해 보였다. 이 원장은 먼저 차세대 정밀 의료 AI 모델인 '엑사원 패스(EXAONE Path) 2.0'를 소개했다. 그는 "'엑사원 패스'는 조직 병리 이미지 분석에 특화된 모델"이라며 "별도의 유전자 검사 없이 병리 이미지만으로 특정 유전자 변이를 예측하고 찾아내 최대 2주까지 걸리던 진단 시간을 획기적으로 단축한다"고 설명했다. 이어 LG가 착수한 또 다른 도전 과제로 구글 딥마인드의 '알파폴드'를 넘어서는 차세대 AI 개발 계획을 밝혔다. 서울대 백민경 교수팀과 협력해 정적인 단일 상태만 예측하던 기존 AI를 넘어 다양한 상태로 존재하는 단백질의 '다중 구조'를 예측하는 연구에 착수했다는 것이다. 이날 원격으로 축사를 보낸 이 원장은 "단백질의 기능 방식을 이해하는 것은 질병 기저를 이해하고 신약 개발의 정확도를 높이는 핵심"이라며 "이번 협업이 '알파폴드'를 뛰어넘는 새로운 AI 혁신으로 이어지길 기대한다"고 밝혔다. 이날 행사의 핵심인 '엑사원(EXAONE) 4.0'도 베일을 벗었다. '엑사원 4.0'은 뛰어난 추론 능력과 일반 언어 능력을 통합한 하이브리드 AI 모델이다. 고성능 320억(32B) 파라미터 모델과 온디바이스용 12억(1.2B) 파라미터 모델로 구성됐다. 이 원장은 "'엑사원 4.0' 32B 모델은 10배 이상 큰 글로벌 모델들과 고난이도 벤치마크에서 대등하게 경쟁하며 최상위권 성능을 입증했다"며 "미국, 중국에 이어 한국이 세계에서 세 번째로 많은 '주목할 만한 AI 모델'을 올린 국가가 되는 데 기여했다"고 자신감을 드러냈다. 특히 이날 현장에서는 LG가 그동안 외부에 공개하지 않았던 비전 언어 모델 '엑사원 4.0 VL(Vision Language)'이 최초로 공개돼 이목을 집중시켰다. 이 원장은 "산업 현장의 AI 전환에 있어 가장 중요한 첫 단계는 기업이 보유한 방대한 내부 문서를 정확히 이해하는 것"이라며 "엑사원 4.0 VL은 텍스트는 물론 표, 차트, 인포그래픽까지 완벽하게 이해하는 멀티모달 파운데이션 모델"이라고 소개했다. 실제로 '엑사원 4.0 VL'은 차트 이미지에 대한 질의응답 성능을 평가하는 '차트QA(ChartQA)' 벤치마크에서 글로벌 최고 성능을 달성했다. 이 원장은 복잡한 에너지 보고서 이미지를 보여주며 "호르무즈 해협을 통해 한국과 일본으로 얼마나 많은 석유가 공급되는가"라고 질문하자 모델이 이미지의 색깔과 지형 정보를 정확히 인식해 '420만 배럴'이라는 답을 찾아내는 과정을 시연해냈다. 끝으로 이 원장은 AI의 미래 진화 방향을 '생성형 AI'에서 '에이전틱 AI'를 거쳐 궁극적으로 '피지컬 AI'로 나아갈 것이라고 제시했다. 그는 "에이전틱 AI의 진화는 곧 현실 세계를 바꾸는 기술인 피지컬 AI로 연결된다"며 "AI가 현실을 인식하고 판단하며 실제 환경을 바꾸는 피지컬 AI 기술 개발에 속도를 낼 것"이라고 강조했다. 최정규 그룹장 "챗엑사원 일반 공개…파트너사와 AI 생태계 확장" 마지막 연사로 나선 최정규 LG AI연구원 AI에이전트그룹장은 앞서 공개된 엑사원의 최신 기술들이 실제 산업 현장에서 어떻게 서비스로 구현되고 다양한 파트너사들과의 협력으로 거대한 '엑사원 생태계'를 구축하고 있는지 청사진을 제시했다. 최 그룹장은 먼저 LG 전사 직원의 65%에 달하는 5만 명이 사용하는 워크 에이전트 '챗엑사원(ChatEXAONE)'을 소개했다. 그는 서비스가 국가 핵심 기술 문서까지 다룰 수 있는 높은 수준의 보안 규격을 갖췄다고 강조하며 이미 내부에서 검증된 안정성과 성능을 바탕으로 외부로 나아간다고 밝혔다. 이날 현장에서 LG는 일반 기업 및 기관 사용자를 대상으로 한 '챗엑사원' 베타 서비스를 시작하며 본격적인 외부 확장의 첫발을 내디뎠다. 더불어 AI 생태계의 기반을 넓히기 위한 정책도 공개됐다. 최 그룹장은 기존에 연구 목적으로만 제한됐던 '엑사원 4.0' 모델의 무상 라이선스를 초·중·고·대학교 등 모든 교육기관으로 전면 확대한다고 발표했다. 이를 통해 미래 AI 인재들이 교육 현장에서 최신 AI 모델을 자유롭게 접하고 활용할 수 있는 길을 열었다. 또 그는 '엑사원 4.0'의 대중화를 위해 GPU 없이도 상용 서비스를 만들 수 있는 응용 프로그램 인터페이스(API)를 출시한다고 발표하며 공식 파트너사인 프렌들리AI의 전병곤 대표를 무대로 초청했다. 전 대표는 엑사원 4.0의 추론(Inference)을 전담하는 프렌들리AI의 기술력을 소개했다. 전병곤 프렌들리AI 대표는 "아무리 뛰어난 기술도 가격이 부담스러우면 사용하기 어렵다"며 "우리 추론 기술과 '엑사원' 모델이 만나 AI 서비스 사용료를 획기적으로 낮춘 덕분에 '엑사원 4.0'을 챗GPT의 10분의 1 가격으로 이용할 수 있다"고 말했다. 다시 마이크를 잡은 최 그룹장은 기업 맞춤형 AI 모델 개발의 가장 큰 장벽인 데이터 문제를 해결할 '엑사원 데이터 파운드리(EXAONE Data Foundry)'를 공개했다. 그는 이 서비스를 두고 전문가 60명이 3개월간 해야 할 고품질 데이터 생성 작업을 단 한 명이 하루 만에 끝낼 수 있다며 데이터 자동 생성 및 평가 플랫폼의 압도적인 효율성을 설명했다. 또 보안이 중요한 금융·공공기관을 위해 외부와 독립된 환경에서 AI를 운영하는 '엑사원 온프레미스(EXAONE On-Premise) 패키지'를 소개하며 이 솔루션의 핵심 파트너인 퓨리오사AI(FuriosaAI)의 백준호 대표를 소개했다. 백 대표는 엑사원 모델에 최적화된 회사의 AI 반도체(NPU) '레니게이드'를 소개하며 양사의 협력 성과를 발표했다. 그는 "레니게이드는 온프레미스 환경에서 사용되는 엔비디아 GPU 대비 2.3배 이상의 전력 당 성능(에너지 효율)을 달성했다"며 "동일한 성능을 더 적은 전력으로 구현해 AI 서비스 운영 비용을 획기적으로 절감할 수 있게 돼 전례 없는 가격 경쟁력을 갖춘 턴키 솔루션을 제공할 준비를 마쳤다"고 밝혔다. 마지막으로 최 그룹장은 엑사원 생태계가 금융이라는 새로운 도메인으로 확장되는 사례로 런던증권거래소그룹(LSEG)과의 협력을 소개했다. LSEG의 아르만 사호비치 총괄은 양사가 공동 개발 중인 'AI 마스터 스코어'를 설명했다. 사호비치 총괄은 "이번 협력은 단순한 기술 제휴가 아니라 데이터와 AI가 세계 최고 투자자들의 의사결정 방식을 혁신하려는 공동의 사명"이라며 "LG의 최첨단 AI가 LSEG의 신뢰도 높은 데이터를 만나 투자자들이 즉시 행동에 옮길 수 있는 '의사결정용 인사이트'를 제공하게 될 것"이라고 말했다. 발표를 마치기 전에 최정규 그룹장은 지난 15일 22개 파트너사와 함께 진행한 '엑사원 파트너스 데이'를 언급하며 AI 생태계 활성화에 대한 강한 의지를 보였다. 그는 "모델 공급을 넘어 꼭 필요한 기술을 솔루션 형태로 제공하는 것이 '엑사원' 생태계의 중심"이라며 "오늘 보여드린 많은 서비스와 솔루션들은 우리의 소중한 전략적 파트너사들을 통해 고객에게 제공될 것"이라고 강조했다.

2025.07.22 14:00조이환

플리토-퓨리오사AI, NPU 기반 통번역 모델 만든다

플리토가 신경처리장치(NPU) 기반 고속 통번역 기술과 실시간 동시 통역 고도화를 위해 퓨리오사AI와 협력한다. 플리토는 AI 언어 기술 분야 공동 연구 개발을 위한 업무협약(MOU)를 체결했다고 1일 밝혔다. 이번 협약은 AI 언어 데이터와 음성·텍스트 관련 핵심 모델 고도화에 초점 맞췄다. 두 기업은 고품질 언어 데이터셋 구축과 NPU 기반 실시간 동시통역, 이미지 자동 번역 등 통번역 기술을 연구할 방침이다. 이를 통해 고속 응용 서비스 개발에도 공동 대응할 예정이다. 협약에는 연구·개발(R&D) 역량 공유와 인재 교류 프로그램 운영 등도 포함됐다. 이번 협력으로 플리토의 실사용 기반 언어 데이터와 통번역 솔루션은 퓨리오사AI의 고성능·저전력 NPU와 결합된다. NPU 기반 기술은 전력 효율과 지연 시간 측면에서도 고도화된 서비스 구현에 적합하다는 평가를 받고 있다. 퓨리오사AI는 거대언어모델(LLM)과 비전 AI 추론에 최적화된 AI 반도체 칩을 설계하는 국내 팹리스 기업이다. 국내외 AI 반도체 시장에서 독자적인 기술력을 기반으로 고성능 AI 칩을 공급하고 있다는 평가를 받고 있다. 이정수 플리토 대표는 "글로벌 AI 언어 서비스 시장에서 데이터와 칩 기술의 결합을 통한 혁신을 이끌어 나가겠다"며 "전문화된 R&D와 인재 역량을 바탕으로 더욱 고도화된 통번역 솔루션 개발에 박차를 가하겠다"고 밝혔다.

2025.07.01 14:15김미정

퓨리오사AI 손잡은 업스테이지, '국가대표 AI' 경쟁력 높인다

한국형 거대언어모델(LLM) 개발을 위한 정부 사업에 도전장을 내건 업스테이지가 반도체 팹리스 기업 퓨리오사AI와 손잡고 생성형 인공지능(AI) 시장 공략에 나선다. 업스테이지는 퓨리오사AI와 '신경망처리장치(NPU) 기반 생성형 AI 사업 협력'을 위한 양해각서(MOU)를 체결했다고 25일 밝혔다. 협약식은 서울 강남구 퓨리오사AI 사옥에서 진행됐으며 업스테이지 이활석 최고기술책임자(CTO)와 퓨리오사AI 백준호 대표 등 양사 주요 관계자들이 참석했다. 이번 협력의 핵심은 국산 NPU와 거대언어모델(LLM)의 결합이다. 업스테이지는 자체 거대언어모델(LLM) '솔라'를 퓨리오사AI의 차세대 NPU '레니게이드'에 최적화해 탑재할 계획이다. 또 양사는 NPU 기반으로 구동하는 온프레미스 AI 구축 사업을 공동 추진하고 국내는 물론 글로벌 시장까지 함께 공략할 방침이다. 현재 AI 반도체 시장은 미국 엔비디아가 사실상 독점하고 있으며 이에 따른 글로벌 공급난과 가격 급등으로 인해 불안정성이 지속되고 있다. 여기에 최근 미국, 중국 등 해외 빅테크 LLM의 공세가 거세지면서 국내 AI 산업 전반에 상당한 부담이 가중되고 있는 실정이다. 이러한 상황에서 국내 대표 AI 소프트웨어와 하드웨어 기업이 힘을 모아 국산 AI 경쟁력 강화에 나섰다는 점에서 이번 협력은 큰 의미를 가진다. 특히 국산 NPU 기반 생성형 AI 솔루션의 상용화는 해외 기술 의존도를 낮추고 AI 인프라의 자립화와 기술 주권 확보에 기여할 것으로 기대된다. 업스테이지와 퓨리오사AI의 협력은 이번이 처음은 아니다. 지난 2022년 업스테이지는 퓨리오사AI의 1세대 NPU '워보이'에 자사 광학문자인식(OCR) 솔루션을 탑재하기도 했다. 양사는 앞으로도 다양한 AI 기술 분야에서 협력 범위를 지속적으로 확대해 나갈 계획이다. 김성훈 업스테이지 대표는 "AI 소프트웨어부터 하드웨어까지 모두 국내 기술로 구현하는 이번 협력은 국내 AI 산업 자립화를 향한 의미 있는 발걸음"이라며 "앞으로도 퓨리오사AI와의 긴밀한 협력을 바탕으로 글로벌 시장에서도 'K-AI'의 기술 경쟁력을 입증해 나가겠다"고 밝혔다.

2025.06.25 08:39장유미

정부-학계, 국산 NPU 육성 본격화…실증부터 인재양성까지

정부가 국산 AI반도체에 대한 지원을 대폭 늘리고 있다. 추경(추가경정예산)을 두차례 진행해 약 800억원 규모 예산을 NPU(신경망처리장치)에 투자하는 것이다. 이에 더해 학계에서는 국산 AI반도체를 AI 개발에 활용하며, 국산 칩 상용화의 단초를 다지고 있다. 정부, NPU 사업에 794억원 투자 23일 업계에 따르면 정부는 최근 국무회의에서 제2차 추경안을 의결했다. 이번 추경은 국산 NPU 상용화 개발 지원 예산 300억원을 추가하는 내용을 골자로 한다. 지난 1차 추경 금액인 494억원까지 더해, 총 794억원의 지원금이 국산 NPU 조기 상용화에 투입된다. 정부는 구체적으로 ▲AI 컴퓨팅 실증 인프라 고도화 ▲인공지능 전환(AX) 실증 지원 ▲AI 반도체 사업화 적시 지원 ▲AI 반도체 해외 실증 지원 ▲국산 AI 반도체 기반 디바이스 AX 개발·실증 등에 예산을 투입한다. 특히 AI반도체 업체들이 글로벌 시장에 진출할 수 있도록 기술을 실증하는데 사업 역량이 집중된다. 정보통신사업진흥원(NIPA)은 해외 실증 지원 추경 사업에 참여할 컨소시엄을 총 4개 선정한다. 서버형 2개, 엣지형 2개 등 총 4개 지원 사업에 1개씩 컨소시엄을 참여시킨다는 구상이다. 사업 대상은 기존에 참여하던 리벨리온(서버형), 딥엑스(엣지형) 외에도 퓨리오사AI가 서버형 지원 사업에 참여하는 방안을 검토하는 걸로 전해진다. 한편, NIPA는 다음달 초 컨소시엄을 선정할 예정이다. 서울대, 국산 NPU로 융합형 인재 양성 다만 NPU를 현장에서 바로 활용할 수 있는 인재는 부족한 실정이다. AI 기술을 이해하면서도 반도체 구조와 시스템을 고려하는 HW(하드웨어)-SW(소프트웨어) 융합 인재가 없기 때문이다. 최기창 서울대학교 교수는 “현재 대학 교육은 대부분 AI와 반도체를 분리된 전공으로만 다루고 있다”며 “실제 산업 환경에서 사용되는 도구나 플랫폼에 대한 경험이 부족한 이유”라고 설명했다. 이에 서울대 차세대반도체 혁신융합대학은 올해 2학기부터 국산 AI반도체를 활용한 'We-Meet' 프로그램을 수업에 본격 도입한다. 국산 NPU의 활용 사례를 늘리면서도, AI반도체 전문 인재를 양성하기 위함이다. 수업은 크게 세가지로 분류된다. 먼저 국산 AI반도체 기반 LLM(대규모 언어모델) 실습 수업이다. 서울대 규장각 데이터인 조선왕조실록을 기반으로 수업이 진행되며, 단순히 생성형 AI 결과를 보는 데 그치지 않고 학생들이 직접 프롬프트(AI 모델에 텍스트 지시) 설계에 참여한다. 결과가 나오면 직접 분석하고, 생성형 AI 구조와 작동 원리를 실습 중심으로 학습한다. 이 때 퓨리오사AI에서 양산한 '레니게이드'를 수업에 활용한다. 실제 인프라 환경부터 모델 구현까지 익힐 수 있는 셈이다. 이혁재 서울대 반도체공동연구소장은 “국산 칩인 퓨리오사AI의 반도체로 AI가 잘돌아간다는 걸 보여줄 수 있는 기회”라고 말했다. 두번째는 '반도체 산업 활용 AI 최적화 기술과 MLOps 플랫폼' 수업이다. 이 수업은 반도체 제조 과정에서 실제로 사용되고 있는 품질검사 AI 기술을 교육과정에 반영한 케이스다. 학생들은 공개 가능한 반도체 제품 이미지 데이터셋을 활용해 AI 모델을 학습한다. 최 교수는 “수업 중 진행되는 MLOps 플랫폼과 API 연동 실습은 실제 기업들이 운영 중인 생산 환경과 유사한 구조”라며 “실무적인 성격이 강하다”고 말했다. 세번째 수업은 'NPU 기반 AI 추론 및 응용이다. 요즘 급부상하고 있는 온비다이스 AI, 엣지 컴퓨팅을 다루는 수업으로, 국산 NPU 하드웨어에서 AI 모델을 실행하는 걸 목표로 한다. 최 교수는 “실제 AI 반도체 서버, Llama3, MLOps, NPU 개발환경까지 체험하면서 최신 기술 흐름을 실습 중심으로 익히게 될 예정”이라며 “단순한 '교과 성적'이 아닌 산업 현장에서 검증된 실전 역량이라는 점에서 취업 경쟁력에서 큰 차별화 요소가 될 것으로 기대된다”고 내다봤다.

2025.06.23 16:52전화평

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 현대차그룹 사장단 인사·KT CEO 후보 압축 촉각

스테이블코인 PoC 준비하는 은행들

쿠팡, 개인정보 유출 관련 추가 공지…"새 유출 없어, 2차 피해 주의 당부"

"오픈AI 시대 저무나"…구글 제미나이, 챗GPT 이용 증가율 제쳐

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.