• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 추론'통합검색 결과 입니다. (62건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

SKT, CPU에 NPU 더해 AI 추론 서버 성능 검증

ARM의 AGI CPU와 리벨리온의 리벨카드로 AI 추론 성능을 높이는 솔루션을 개발하고 이를 SK텔레콤 AI 데이터센터에서 실증한다. SK텔레콤이 지난 9일 ARM, 리벨리온과 차세대 AI 인프라 혁신을 위한 전략적 업무협약을 체결했다. AI 산업이 AI 모델을 만드는 '학습'에서 실제 서비스를 제공하는 '추론'으로 패러다임 변화가 이뤄지면서 AI 인프라의 핵심과제도 학습을 위한 막대한 연산 능력보다는 얼마나 적은 전력으로 얼마나 빠르고 저렴하게 AI 서비스를 제공할 수 있느냐로 변하고 있다. 특히 추론은 365일 쉬지 않고 작동해야 되기 때문에 전력 효율이 곧 비용 경쟁력과 직결된다. AI 추론은 학습과 달리 상대적으로 가벼운 연산을 빠르고 반복적으로 처리하는 작업이다. GPU는 이런 추론 작업에도 사용할 수 있지만, 마치 대형 트럭으로 택배를 배달하는 것처럼 과도한 전력을 소모하고 비용이 높다. 이에 업계에서는 추론에 특화된 전용 칩, 즉 NPU가 대안으로 부상하고 있다. NPU에 CPU를 결합하는 이유도 명확하다. 실제 AI 서비스 운영에서는 AI 연산 외에도 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 등 다양한 범용 처리가 동시에 필요하다. CPU가 시스템의 '관제탑' 역할을 하며 데이터 흐름과 시스템 운영을 총괄하고, NPU가 AI 추론 연산을 전담하는 이종 컴퓨팅 구조는 시스템의 성능과 효율을 높일 수 있다. 'Arm AGI CPU'는 ARM이 35년 역사상 처음으로 직접 생산에 나선 데이터센터용 프로세서로, AI 추론 서비스에 최적화된 것이 특징이다. 리벨리온의 리벨카드도 대규모 AI 추론에 특화된 NPU다. 두 칩을 한 서버 안에 탑재해 CPU가 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, NPU가 AI 추론 연산을 전담하면 전력 효율을 높이고 운영 비용을 줄일 수 있다. SK텔레콤은 이러한 방식이 대규모 AI 서비스를 운영하는 데이터센터에서 효율적인 서버 아키텍처라고 설명했다. ARM과 리벨리온은 이미 지난 3월 진행된 'Arm 에브리웨어' 행사에서 각 사의 칩을 결합하여 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간으로 시연하며, 대규모 데이터센터에서의 상용화 가능성을 보여줬다. SK텔레콤은 AI DC에서 CPU와 NPU를 결합한 AI 추론 컴퓨팅의 성능을 검증하고, 특히 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1)을 운영하는 방안도 검토하고 있다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공함으로써 AI 데이터센터 경쟁력을 더욱 강화해 나가겠다”고 말했다. 에디 라미레즈 ARM 클라우드 AI 사업부 GTM 부사장은 “AI 추론의 급속한 성장은 대규모 배포에 최적화된 새로운 데이터센터 인프라 수요를 촉진하고 있다”며, “SK텔레콤, 리벨리온과 같은 파트너는 Arm AGI CPU를 구축하고 AI 추론 인프라를 현대화하는 데 있어 중요한 역할을 하고 있다”고 전했다. 리벨리온의 오진욱 CTO는 “리벨리온은 압도적인 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당하게 됐다”며, “AI 특화 인프라 구축을 위해 각 분야 전문가들이 원팀으로 뭉친 이번 협력은 업계에서도 매우 유의미한 선례가 될 것으로 기대한다”고 강조했다.

2026.04.11 03:42박수형 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

프렌들리AI, 몰로코 COO 출신 브라이언 유 영입…해외 사업 확대

프렌들리AI가 인공지능(AI) 추론 시장 경쟁 격화 속 비즈니스 조직 강화에 속도를 낸다. 프렌들리AI는 몰로코 최고운영책임자(COO) 출신 브라이언 유를 최고사업책임자(CBO)로 선임했다고 9일 밝혔다. 이번에 합류한 브라이언 유 CBO는 조직 구축과 사업 확장을 동시에 이끌어온 글로벌 운영 전문가다. 그는 몰로코에서 재무, 마케팅, 인적자원(HR), 비즈옵스, 법무, 정보기술(IT) 등 주요 기능 조직을 구축하고 글로벌 운영 체계를 완성했다. 이를 기반으로 매출을 500배 이상 성장시켜 2억 5000만 달러 이상으로 확대했으며 조직 규모도 10명에서 600명 이상의 글로벌 기업으로 성장시켰다. 1억 8000만 달러 이상의 투자 유치도 주도하며 기업 가치를 약 40억 달러 수준으로 끌어올렸다. 이후 매쉬업벤처스 벤처파트너로 활동하며 스타트업 생태계 확장에 기여해왔다. 유 CBO는 프렌들리AI에서 글로벌 사업 전략 전반을 맡는다. 고투마켓(Go-to-Market) 전략 수립 및 실행을 비롯해 파트너십 확대, AI 스타트업과 서비스형 소프트웨어(SaaS) 및 엔터프라이즈 고객 기반 확장, 사업 운영 고도화 등을 통해 시장 점유율 확대를 추진할 계획이다. 유 CBO는 "AI가 실제 서비스 단계로 확산되면서 인퍼런스 성능이 비용과 수익성을 좌우하는 핵심 요소로 자리잡았다"며 "거대언어모델(LLM) 도입 이후 인퍼런스 비용 최적화에 대한 수요가 커지는 시점에서 우리 경쟁력이 더 부각될 것"이라고 말했다. 프렌들리AI는 AI 추론 인프라 업계 표준으로 자리잡은 '컨티뉴어스 배칭(continuous batching)' 기술을 개발한 연구진이 설립한 기업이다. 대규모 AI 워크로드를 안정적으로 처리할 수 있는 추론 엔진을 제공하고 있다. 그래픽처리장치(GPU) 활용 최적화를 통해 가상 거대언어모델(vLLM) 대비 최대 3배 빠른 처리 속도와 기존 폐쇄형 모델 응용 프로그램 인터페이스(API) 대비 50~90% 비용 절감을 구현했다. 전병곤 프렌들리AI 대표는 "유 CBO는 AI 스타트업의 운영 체계를 구축하고 글로벌 기업으로 성장시키는 과정에서 핵심적인 역할을 수행해 온 인물"이라며 "AI 추론 인프라 수요가 빠르게 증가하는 상황에서 그의 경험은 우리 글로벌 확장에 중요한 전환점이 될 것"이라고 기대했다.

2026.04.09 13:56이나연 기자

뉴타닉스, 에이전틱 AI 인프라 고도화…추론·실행 시대 전략 가속

뉴타닉스가 에이전틱 인공지능(AI)을 중심으로 한 클라우드 플랫폼 전략을 강화하며 차세대 AI 인프라 시장 공략에 나섰다. 단순 모델 활용을 넘어 실제 운영 환경에서 AI 에이전트를 안정적으로 실행할 수 있는 기반을 제공한다는 목표다. 뉴타닉스는 '뉴타닉스 에이전틱 AI' 솔루션에 신규 기능을 추가하고 네오클라우드 사업자를 위한 AI 서비스 플랫폼 역량을 확대했다고 9일 밝혔다. 최근 AI 시장은 학습 중심에서 추론 중심으로 빠르게 이동하고 있다. 다수 기업이 AI를 실제 업무에 적용하는 단계로 진입하면서, 보안·성능·비용을 동시에 충족하는 인프라 수요가 커지고 있다. 뉴타닉스는 이러한 변화에 대응해 에이전틱 AI 기반의 통합 소프트웨어(SW) 스택을 제시했다. 토마스 코넬리 뉴타닉스 제품 관리 부문 수석 부사장은 "기업들이 데이터 통제권을 유지하며 AI를 활용하는 방법을 모색하면서 소버린 및 특화형 AI 클라우드에 대한 수요가 빠르게 증가하고 있다"며 "뉴타닉스 에이전틱 AI 솔루션은 안전한 멀티테넌트 환경과 AI 관리 포털을 갖춰 네오클라우드 제공업체들이 고부가가치 AI 서비스를 신속하게 제공할 수 있도록 설계됐다"고 설명했다. 뉴타닉스 에이전틱 AI는 멀티테넌트 기반 AI 관리 포털과 서비스 제공 환경을 통해 복잡성을 줄이고 운영 효율성을 높이는 것이 특징이다. 그래픽처리장치(GPU) 자원과 컴퓨팅 리소스를 테넌트별로 분리·관리할 수 있으며 보안과 성능을 동시에 확보할 수 있도록 지원한다. 또 서비스형 GPU(GPUaaS), 쿠버네티스 서비스(KaaS), 가상머신(VM) 서비스, 벡터 데이터베이스(DB), 모델 서비스 등 다양한 AI 서비스 카탈로그를 통합 제공해 기업별 맞춤형 AI 환경을 구축할 수 있도록 돕는다. AI 인프라 운영과 서비스 제공을 단일 플랫폼에서 관리할 수 있다는 설명이다. 운영 관리 기능도 강화됐다. 뉴타닉스 클라우드 매니저(NCM)는 AI 인프라 모니터링과 사용량 기반 과금 기능을 지원해 GPU 사용량, API 호출, 모델 사용량 등을 기반으로 비용을 관리할 수 있도록 했다. 기업이 AI 서비스 운영과 비용 통제를 모두 수행할 수 있도록 지원할 방침이다. 스콧 싱클레어 옴디아 인프라·클라우드·데브옵스·네트워킹 부문 실무 디렉터는 "자율 에이전트 도입은 차세대 핵심 분야로 급부상하고 있지만 데이터 보안과 거버넌스, 성능 측면에서 새로운 과제를 동반한다"며 "뉴타닉스 에이전틱 AI 솔루션은 이러한 요구를 충족할 수 있는 엔터프라이즈급 기반을 제공한다"고 말했다. 아울러 뉴타닉스는 하이브리드 멀티클라우드 전략도 강화하고 있다. 특히 '뉴타닉스 클라우드 클러스터 온 AWS(NC2 on AWS)'를 통해 기존 인프라 구조를 유지하면서 클라우드로 워크로드를 이전할 수 있는 환경을 제공한다. NC2 온 AWS는 미션 크리티컬 워크로드를 안정적으로 클라우드 환경에서 운영할 수 있도록 지원하는 솔루션으로, 국내에선 에버랜드에 처음 적용됐다. 기존 네트워크 아키텍처를 유지한 채 클라우드 전환이 가능해 기업의 인프라 전환 부담을 줄였다는 평가다. 뉴타닉스는 고객 요구에 맞춘 맞춤형 설계와 지속적인 커뮤니케이션을 통해 프로젝트를 성공적으로 완료하며 클라우드 전환 사례를 확보했다고 강조했다. 국내 기업의 하이브리드 클라우드 도입을 확대해 나간다는 계획이다. 변재근 뉴타닉스 코리아 사장은 "이번 에버랜드 프로젝트를 시작으로 앞으로도 더 많은 국내 기업이 복잡한 인프라 전환을 자신 있게 추진할 수 있도록 지원하겠다"고 밝혔다.

2026.04.09 10:56한정호 기자

가비아, 국산 NPU 탑재 클라우드 서비스 출시…AI 추론 시장 승부수

가비아가 국산 인공지능(AI) 반도체 기반 클라우드 서비스를 출시하며 AI 인프라 사업 다각화를 추진한다. 그래픽처리장치(GPU) 중심 구조에서 벗어나 비용 효율성과 공급 안정성을 확보한다는 전략이다. 가비아는 리벨리온의 신경망처리장치(NPU) '아톰-맥스'를 탑재한 클라우드 서비스형 NPU(NPUaaS)를 출시했다고 9일 밝혔다. 최근 생성형 AI와 AI 에이전트 확산으로 실시간 추론 인프라 수요가 급증하는 가운데, GPU 수급 불안과 비용 부담이 주요 과제로 떠오르고 있다. 가비아는 NPU 기반 클라우드 서비스를 통해 이러한 문제를 해결하고 AI 서비스 환경 효율성을 높인다는 목표다. NPUaaS는 NPU 인프라를 클라우드 형태로 구독해 사용하는 서비스다. 학습된 AI 모델을 실제 서비스에 적용하는 추론 작업에 특화된 NPU는 GPU 대비 전력 소모가 적고 비용 효율성이 높아 대안으로 주목받고 있다. 가비아 NPUaaS는 인스턴스(VM) 기반으로 제공되며 운영체제(OS) 커널 수준의 세밀한 환경 설정과 커스터마이징을 지원한다. 기업은 AI 워크로드 특성에 맞는 정밀한 인프라 구성을 구현하고 서비스 목적에 따라 유연하게 확장할 수 있다. 아톰-맥스는 1장 기준 128 테라플롭스(FP16)의 연산 성능과 64GB NPU 메모리, 16 v코어 CPU, 256GB 시스템 메모리를 제공한다. 대규모언어모델(LLM), 비전 AI, 멀티모달 AI, 피지컬 AI 등 다양한 워크로드를 지원하며 도입 규모에 따라 다중 구성도 가능하다. 가비아는 NPUaaS와 함께 AI 추론 프레임워크 최적화 컨설팅도 제공한다. 소프트웨어 개발 키트(SDK) 기반 환경 설정부터 성능 최적화까지 전문 인력이 지원한다. 또 파이토치와 텐서플로우 기반 환경은 물론 허깅페이스 허브 모델 연동도 돕는다. vLLM, 트라이톤 추론 서버, 토치서브 등 서빙 도구 활용도 제공한다. 또 고객사 워크로드에 맞춘 맞춤형 기술 지원도 병행한다. 라마 3, 젬마 등 오픈소스 LLM이 아톰-맥스 환경에서 최적의 성능을 낼 수 있도록 프로파일링과 커널 최적화, 파라미터 튜닝을 지원한다. 가비아는 이번 서비스를 통해 금융·의료·공공 등 보안과 성능 요구가 높은 산업을 중심으로 AI 인프라 시장 공략을 확대할 계획이다. 정대원 가비아 상무는 "AI 서비스의 경쟁력은 모델 성능만큼이나 추론 환경의 효율성에 달려 있다"며 "NPUaaS와 전문 컨설팅을 결합해 기업이 인프라 부담 없이 AI 비즈니스에 집중할 수 있는 환경을 만들겠다"고 말했다.

2026.04.09 10:55한정호 기자

삼성전기, '그록3 LPU'용 FC-BGA 공급

삼성전기가 '그록(Groq)3 언어처리장치(LPU)'용 반도체 패키지기판의 주력 공급망 지위를 확보했다. 그록3 LPU는 엔비디아의 최첨단 인공지능(AI) 반도체 '베라 루빈(Vera Rubin)' 성능을 높일 추론 가속기 칩이다. AI 산업에서 추론 중요성이 커지는 만큼, 삼성전기도 엔비디아 AI 반도체 생태계 내 영역을 확장할 것으로 기대된다. 8일 지디넷코리아 취재에 따르면 삼성전기는 최근 그록3 LPU용 플립칩-볼그레이드어레이(FC-BGA) 양산 준비에 돌입했다. 삼성전기는 그록3 LPU용 FC-BGA의 '퍼스트 벤더(공급량 1위 업체)' 지위를 확보했고, 올 2분기부터 본격 양산할 것으로 관측된다. 그록3 LPU는 4나노 공정 기반의 AI 추론 가속기 칩이다. 삼성전자 파운드리에서 양산한다. 삼성 파운드리가 그록3 LPU에 할당한 웨이퍼 투입량은 월 1만장 수준으로 추산된다. FC-BGA는 반도체 칩과 기판을 '플립칩 범프(칩을 뒤집는 방식)'로 연결하는 패키지기판이다. 기존 와이어 본딩 대비 전기적·열적 특성이 높다. 초도 물량은 적지만, 삼성전기는 이번 FC-BGA 공급으로 엔비디아 AI 반도체 생태계 내 영역을 확장할 수 있다. 앞서 삼성전기는 올해 초 'NV스위치' 칩용 FC-BGA 공급을 확정하며 엔비디아 공급망에 진입한 바 있다. NV스위치는 서버 내 복수 그래픽처리장치(GPU)를 연결하는 데 쓰인다. 그록 LPU 역시 엔비디아 AI 반도체 플랫폼에 채택된 만큼, 향후 출하량 확대가 기대된다. 이와 관련, 젠슨 황 엔비디아 최고경영자(CEO)는 지난달 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 첨단 AI 반도체 플랫폼 변화를 발표했다. 엔비디아가 올해 하반기 출시하는 베라 루빈 플랫폼은 당초 '루빈' GPU와 '베라' 중앙처리장치(CPU)를 비롯해 '블루필드-4' 데이터처리장치(DPU), 스위치 등 6개의 칩으로 구성됐다. 그러나 젠슨 황 CEO는 베라 루빈 플랫폼에 그록 3 LPU을 추가해, 총 7개의 칩 구조로 변화시켰다. 256개의 그록 3 LPU를 탑재한 추론 전용 랙 '그록 3 LPX'를 엔비디아 베라 루빈 NV72 랙에 통합하는 방식이다. NV72는 72개의 루빈 GPU와 36개의 베라 CPU로 구성된다. 그록 3 LPU는 D램 대비 용량이 작지만 데이터 전송속도가 빠른 S램을 탑재했다. 덕분에 LLM의 추론 단계에서 기존 단일 GPU 시스템에서 발생하던 지연(레이턴시) 현상을 크게 줄일 수 있다. LPX가 결합된 베라 루빈의 경우, 1조 매개변수 모델에서 메가와트당 최대 35배 더 높은 처리량을 제공할 수 있다고 엔비디아는 설명한다. 이에 엔비디아는 지난해 말 약 29조원을 들여 그록을 우회 인수하는 등 적극적인 협력 체계를 구축하고 있다. 반도체 업계 한 관계자는 "엔비디아가 각 영역에 특화된 칩으로 전체 AI 플랫폼을 구상하는 전략을 강화하고 있다"며 "그록 LPU 채택량도 더 늘어날 것으로 전망되고, 협력사들도 수혜를 입을 것"이라고 설명했다.

2026.04.08 10:35장경윤 기자

정부, AI 추론데이터 10종 구축 나서…"사고·판단 능력 강화"

정부가 인공지능(AI) 추론 능력 강화를 위한 학습 데이터 구축에 나섰다. 과학기술정보통신부와 한국지능정보사회진흥원은 2026년 추론데이터 10종 구축 사업 공모를 시작했다고 1일 밝혔다. 총 66억 원 규모로 거대언어모델(LLM)과 제조·로보틱스 분야에서 각각 5개 과제가 추진된다. 이번 사업은 단순 데이터 축적을 넘어 논리적 사고 과정과 인과관계를 포함한 추론형 데이터 확보에 초점 맞췄다. AI 모델 신뢰성을 높이고 실제 산업 환경서 활용 가능한 수준으로 성능을 끌어올릴 방침이다. LLM 분야에서는 복잡한 문서 이해와 논리 판단, 도구 활용 등 단계적 문제 해결 과정을 반영한 데이터 구축이 추진된다. 한국어와 국내 사회·문화 맥락을 반영한 데이터 확보도 병행된다. 복합 문서 기반 지식 추론 데이터, 과학 연구 지원 데이터, 한국어 기반 도구 호출 데이터, 웹·GUI 행동 추론 데이터, 오류 교정 추론 데이터 등이 포함된다. 제조·로보틱스 분야에선 실제 산업 현장서 발생하는 문제 기반으로 원인 분석과 해결 방안을 도출하는 데이터 구축이 이뤄진다. 여러 변수 상황에서도 작업을 수정하고 수행할 수 있는 자율 제조 기반 확보가 핵심이다. 관련 과제로는 제조설비 이상 진단 데이터, 표면 결함 분석 데이터, 로봇 작업 실패 복구 데이터, 휴머노이드 행동 생성 시뮬레이션 데이터, 공정 인과성 분석 데이터 등이 해당된다. 구축된 데이터는 향후 'AI허브'를 통해 공개돼 기업과 연구기관 스타트업 등이 활용할 수 있도록 제공된다. 업계는 이번 프로젝트 핵심 목적을 AI 기술 신뢰성과 실용성 확보에 두고 있다. 단순히 데이터를 쌓는 단계를 넘어 실제 산업 현장에서 즉시 활용 가능한 수준까지 성능을 끌어올리겠다는 취지라는 설명이다. 최동원 과기정통부 AI인프라정책관은 "생성형 AI 확산으로 고차원적 추론과 맥락 이해가 가능한 학습용 데이터 수요가 증가하고 있다"며 "이번 사업을 통해 실제 산업 현장에서 필요한 맞춤형 추론데이터를 확보해 대한민국 AI 산업의 질적 도약을 적극 지원하겠다"고 밝혔다.

2026.04.01 12:01김미정 기자

리벨리온, 6400억 투자 유치...기업가치 3.4조

국내 AI 반도체 스타트업 리벨리온이 국민성장펀드 1호로 선정되면서 6400억원 규모의 프리IPO 라운드 투자를 유치했다고 31일 밝혔다. 이번 투자로 리벨리온은 3조4000억원의 기업가치를 달성했다. 이번 프리IPO 라운드는 정부 주도의 정책자금과 미래에셋그룹이 리드한 민간 자본이 결집된 '민관 합동 투자'의 결과다. 정책자금의 경우 국민성장펀드에서 2500억원, 산업은행이 500억원을 각각 투자해 총 3000억원의 재원을 조성했다. 특히 미래에셋그룹은 그룹 차원에서 앵커 투자자로 나서며, 3000억원의 투자를 리드했다. 이러한 시장의 신뢰를 바탕으로 기존 투자자들도 신주인수권을 행사하며 총 6400억원 규모로 이번 투자가 마무리될 예정이다. 이번 투자는 정부가 대한민국 AI 3대 강국 달성을 목표로 추진 중인 '국민성장펀드 1차 메가프로젝트'의 핵심 과제인 'K-엔비디아 육성 프로젝트'의 실질적인 첫 행보다. 정부는 AI 반도체 분야에 필요한 다양한 투자와 지원을 바탕으로 기존 GPU의 전력·비용 한계를 극복할 국산 NPU 생태계를 구축할 계획이다. 그 일환으로 5년간 150조원 규모의 국민성장펀드 중 15조원을 혁신 기업에 대한 지분 투자 방식으로 집행, 리벨리온이 그 첫 사례로 이름을 올리며 국산 NPU 생태계 전반을 견인할 대표주자로 나서게 됐다. 회사는 이번 자금 조달을 바탕으로 인재 채용에 박차를 가할 계획이다. 현재 리벨리온은 300여명의 인력 규모를 갖추고 있다. 박성현 리벨리온 대표는 “지난 5년간 국내 반도체 생태계와 정부의 전폭적인 지지가 있었기에 리벨리온이 여기까지 성장할 수 있었다"며 "AI 추론 시장이 개화하는 '골든타임'을 놓치지 않기 위해 국가와 민간의 모험자본이 적시에 힘을 모아주신 것은 대한민국 반도체 생태계의 역사에 있어 상징적인, 매우 가슴 뛰는 순간”이라고 말했다. 그러면서 “이제는 경쟁력 있는 인재들과 함께 지금보다 2배 이상으로 팀을 키워 한층 더 높은 수준의 인재밀도를 갖추고, 글로벌 AI 인프라 시장의 중심에서 한국 AI 및 반도체 생태계와 함께 그 경쟁력을 직접 증명해보일 것”이라고 강조했다.

2026.03.31 09:25전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

AI 추론칩 꺼낸 엔비디아...韓 NPU, 위기인가 기회인가

인공지능(AI) 가속기 시장의 절대 강자인 엔비디아(NVIDA)가 연례 개발자 컨퍼런스 행사인 'GTC 2026'에서 추론 전용 가속기 LPU '그록3(Groq 3)'를 전격 공개하며 AI 반도체 시장의 판도 변화를 예고했다. 학습용 칩 시장의 절대 강자가 추론 시장 진입을 본격 선언한 것이다. 이에 그동안 경쟁이 덜한 추론 시장을 공략해온 리벨리온, 퓨리오사AI 등 국내 NPU(신경망처리장치) 기업들은 글로벌 리더와의 정면 승부라는 중대한 분수령을 맞이하게 됐다. 19일 반도체 업계에 따르면 엔비디아의 이번 행보는 국내 AI 반도체 기업들에 도전과 기회가 공존하는 중대한 시험대가 될 전망이다. 엔비디아가 추론 전용 가속기 라인업을 강화한 것은 추론 시장에서 가능성을 봤다는 의미와 함께, 국내 업체들이 공략해온 영역이 잠식될 수 있기 때문이다. 엔비디아의 '추론 칩' 양산 선언… 국내 업계엔 직접적 위협 가장 큰 위기는 시장 리더인 엔비디아가 본격적으로 추론용 칩 시장에 진입했다는 사실 자체다. 그간 국내 NPU 기업들은 엔비디아가 거대 AI 모델의 '학습' 시장에 주력하는 동안, 상대적으로 소홀했던 '추론' 영역을 틈새시장으로 보고 차별화를 꾀해왔으나 이제는 그마저 위협받게 됐다. 특히 엔비디아가 학습용 GPU의 약점으로 지목되던 전력 효율과 지연 시간까지 개선한 추론 전용 칩을 내놓으면서, 국내 업체들이 공들여온 '고효율 추론'이라는 방어벽이 흔들릴 수 있다는 우려가 나온다. 특히 국내 기업들이 공을 들여온 중동 시장의 판도 변화가 우려된다. 지난해 11월 미국 정부가 엔비디아 칩의 중동 수출을 허가하면서 리벨리온과 퓨리오사AI 등 국내 기업들이 선점하려던 신시장에 거대 공룡이 직접 진입하게 됐다. 신동주 모빌린트 대표는 “엔비디아가 추론 쪽에 본격적으로 뛰어들면서 올해부터 데이터센터 시장은 상당한 '레드오션'이 될 것”이라며 “결국 글로벌 빅테크들과 기술 및 영업 모든 면에서 직접 경쟁해야 하는 가혹한 상황”이라고 진단했다. “시장의 실재성 증명했다”... 역발상의 기회 반면 업계 일각에서는 엔비디아의 행보가 오히려 국내 NPU 기업들에 기회가 될 수 있다는 분석도 나온다. 시장 리더가 막대한 자금을 투입해 추론 전용 가속기를 내놓은 것은, 추론 시장의 폭발적인 성장 가능성을 전 세계에 공식적으로 확인해준 신호기 때문이다. AI 반도체 업계 관계자는 “엔비디아가 그록을 3배가 넘는 웃돈을 주고 인수한 것은 그만큼 추론 시장의 기회가 크다는 것을 방증한다”며 “이는 국내 업체들이 오랜 기간 준비해온 독자 아키텍처의 방향성이 틀리지 않았음을 증명하는 지표”라고 평가했다. 그러면서 “그록은 기존에도 경쟁 관계에 있던 반도체 업체인 만큼, 이번 발표가 새로운 위협이라기보다 기존 경쟁 구도의 연장선에 가깝다”고 분석했다. 김종기 세미파이브 전무는 “그간 추론 시장이 올 것이라는 말에 시장은 반신반의해왔으나, 엔비디아조차 트레이닝은 GPU로 하되 추론은 에이직이 필요하다고 선언하며 시장의 실재성이 완전히 입증됐다”며 “이러한 패러다임 전환은 기술력을 갖춘 국내 업체들에게는 오히려 플러스 요인이 될 것”이라고 내다봤다. '테스트베드' 부족이 최대 걸림돌… 포트폴리오 부재 우려 현 상황에서 국내 업계가 직면한 가장 심각한 문제점은 개별 기업의 기술력이 아닌 '테스트베드'의 부재다. 엔비디아의 그록3는 막강한 브랜드 파워와 기존 생태계를 바탕으로 실전 레퍼런스를 빠르게 확보하고 있는 반면, 국내 업체들은 제품을 대규모 환경에서 검증해볼 기회가 극히 제한적이다. 글로벌 대기업들은 특정 칩을 도입할 때 이미 시장에서 검증된 제품을 선호한다. 리스크를 짊어지지 않으려는 것이다. 국내 NPU 기업들이 아무리 뛰어난 효율성을 수치로 제시하더라도, 실제 서비스 환경에서 운영된 데이터가 부족해 글로벌 수주 경쟁에서 신뢰를 얻기 힘든 실정이다. 김 전무는 “국내 업체들도 특색 있는 기술력을 갖추고 있지만, 엔비디아나 그록에 비해 테스트베드가 부족한 것이 현실적인 불리함”이라며 “단순히 정부 권고로 쓰는 단계를 넘어 자발적인 수요가 발생할 수 있도록 검증 인프라를 대폭 확충해야 한다”고 강조했다. 다른 AI 반도체 관계자는 "(엔비디아는) 아마존, 마이크로소프트 등 하이퍼스케일러들에 대한 경험을 갖고 있는 점도 국내 업체들과 격차를 벌린다"며 "국내에서 레퍼런스를 쌓고, 해외에서 판매한다는 국내 AI반도체 업체들의 전략이 시장에서 통하려면 국가 전체가 AI 원팀이 돼야만 할 것"이라고 말했다.

2026.03.19 16:13전화평 기자

아카마이, 4400개 엣지로 AI 추론 속도·비용 개선

아카마이가 글로벌 엣지 인프라 기반으로 분산형 인공지능(AI) 추론 체계를 강화해 실시간 AI 처리 성능을 높였다. 아카마이는 4400개 엣지 거점을 활용한 'AI 그리드 지능형 오케스트레이션'을 출시했다고 18일 밝혔다. 이는 엔비디아 AI 인프라를 통합한 인퍼런스 클라우드로 엣지·코어 전반에서 AI 워크로드를 지능형으로 분산 처리하는 구조다. 이번 기술 핵심은 AI 요청을 실시간으로 배분하는 오케스트레이터다. 토큰당 비용과 첫 응답 시간 처리량을 동시에 고려해 최적의 인프라로 워크로드를 자동 배치한다. 이를 통해 기업은 기존 중앙 집중형 대비 효율성과 성능을 개선할 수 있다. 아카마이는 시맨틱 캐싱과 지능형 라우팅을 결합해 비용 효율성을 높였다. 고성능 GPU는 고난도 작업에 집중 배치하고 일반 요청은 엣지에서 처리해 전체 인프라 활용도를 끌어올린 구조다. 오픈소스 기반 클라우드를 통해 대규모 데이터 처리에도 유연하게 대응한다. 아카마이는 엣지 기반 처리로 실시간 응답성도 강화했다고 밝혔다. 게임에서는 밀리초 단위 상호작용을 지원하고, 금융에서는 로그인 순간 개인화 서비스를 제공한다. 미디어 분야에서는 실시간 트랜스코딩과 더빙까지 분산 환경에서 수행할 수 있다. 코어 인프라는 대규모 AI 연산을 담당한다. 엔비디아 블랙웰 그래픽처리장치(GPU) 기반 클러스터를 통해 거대언어모델(LLM)과 멀티모달 추론 같은 고부하 작업을 처리하며 엣지와 역할을 분담한다. 이를 통해 코어와 엣지를 연결한 연속적 컴퓨팅 구조를 구현했다. 아카마이는 엣지부터 코어까지 이어지는 인프라를 통해 서비스 수준 계약(SLA) 관리도 강화했다. 블루필드 데이터 처리 유닛(DPU) 기반 네트워킹으로 성능과 보안을 동시에 확보했다. 기업은 이를 통해 다양한 AI 워크로드를 안정적으로 운영할 수 있다. 아담 카론 아카마이 최고운영책임자(COO) 겸 총괄 매니저는 "이번 솔루션은 분산 아키텍처 기반으로 AI 추론을 외부로 확장하는 길을 제시한다"고 밝혔다.

2026.03.18 11:08김미정 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

인텔, 삼바노바와 AI 추론 시장 확대 위해 다년간 협업

인텔이 24일(현지시간) AI 인프라 스타트업 삼바노바와 함께 AI 추론 시장 확대를 위해 다년간 협업한다고 밝혔다. 삼바노바가 공개한 AI 추론 전용 칩인 SN50과 인텔 제온 프로세서, 인텔 GPU를 결합해 확장성 높은 AI 추론 서비스를 제공한다는 것이다. 삼바노바가 공개한 새로운 AI 추론용 칩인 SN50은 엔비디아 등 GPU 대비 초당 토큰 생성 등 처리 속도는 최대 5배 높이고 총소유비용(TCO)은 30% 수준으로 낮췄다. 삼바노바는 SN50이 에이전틱 AI 등 자율적 모델 실행과 상호작용을 필요로 하는 워크로드에 최적화됐다고 설명했다. SN50은 고대역폭 네트워크, 대규모 배치 처리, 낮은 지연시간 등 인프라적 요소를 대폭 강화해 실제 대규모 기업용 및 통신사 수준의 서비스에 적합한 퍼포먼스를 제공한다는 평가를 받고 있다. 초기 고객사인 소프트뱅크는 일본 내 AI 데이터센터에 SN50을 도입해 초저지연 추론 서비스를 제공할 예정이다. 인텔은 AI 전처리(프리필) 과정을 서버용 제온 프로세서와 데이터센터용 GPU로 처리하고 핵심인 추론 작업을 삼바노바 SN50으로 처리하는 랙 수준 솔루션을 글로벌 공급할 예정이다. 인텔은 "인텔의 CPU와 네트워크, 스토리지 기술과 삼바노바 SN50을 결합한 솔루션은 기존 GPU 중심 데이터센터 전략을 보완하는 동시에 대규모 추론 워크로드에 매력적인 옵션이 될 수 있다"고 강조했다. 로드리고 리앙 삼바노바 공동 설립자 겸 CEO는 "AI 경쟁이 대형 모델 구축에서 에이전틱 AI를 전 데이터센터 규모로 확장하는 단계로 이동하고 있으며 인텔과 긴밀한 협력이 이 전환을 촉진할 것”이라고 밝혔다.

2026.02.25 09:54권봉석 기자

MS, 차세대 AI 추론칩 '마이아 200' 공개…"아마존보다 3배 빨라"

마이크로소프트가 자체 개발한 2세대 인공지능(AI) 가속기를 공개했다. 경쟁사 보다 높은 성능을 강조하며 AI 인프라 시장 리더십 강화에 나설 전망이다. 이번 신제품은 AI 추론(Inference) 효율성을 극대화하는 데 초점을 맞췄으며 오픈AI의 최신 모델인 'GPT-5.2'를 지원하는 핵심 동력이 될 것으로 주목받고 있다. 26일 마이크로소프트는 자사 블로그를 통해 TSMC의 3나노(nm) 공정을 기반으로 제작된 새로운 AI 칩 '마이아200(Maia 200)'을 발표했다. 마이아 200은 대규모언어모델(LLM) 구동의 핵심인 '토큰 생성' 비용을 절감하는 데 방점을 두고 설계됐다. TSMC의 3나노(nm) 공정을 적용해 칩 하나에 1천400억 개 이상의 트랜지스터를 집적해 연산 밀도를 극대화했다. 메모리 아키텍처 또한 대규모 모델 처리에 최적화됐다. 초당 7테라바이트(TB)의 데이터 전송 속도를 자랑하는 216GB 고대역폭메모리(HBM3e)를 탑재했으며 272MB의 온칩 SRAM을 더해 데이터 병목 현상을 최소화하고 처리 속도를 높였다. 연산 성능은 750와트(W) 전력 소모 범위 내에서 4비트(FP4) 정밀도 기준 10 페타플롭스(PFLOPS), 8비트(FP8) 기준 5 페타플롭스 이상의 성능을 발휘한다. 마이크로소프트 측은 마이아 200은 아마존웹서비스(AWS)의 '트레이니움(Trainium) 3세대' 대비 4비트 성능에서 3배 앞서며 구글의 '7세대 TPU'보다 뛰어난 8비트 연산 능력을 확보하며 추론 가속기 시장의 새로운 기준을 제시했다고 강조했다. 마이크로소프트 클라우드 및 AI 그룹의 스콧 거스리 수석 부사장은 "마이아 200은 하이퍼스케일러가 만든 칩 중 가장 강력한 성능을 자랑하는 퍼스트 파티 칩"이라며, "오늘날 가장 큰 모델을 쉽게 구동할 뿐만 아니라 미래의 더 거대한 모델까지 감당할 수 있는 여유 성능을 갖췄다"고 강조했다. 마이아 200은 출시 후 마이크로소프트의 거대 AI 생태계를 지탱하는 중추적인 역할을 맡게 된다. 오픈AI 최신 모델인 GPT-5.2를 포함한 다양한 모델을 서비스하는 데 투입되며 마이크로소프트 파운드리와 마이크로소프트 365 코파일럿의 가격 대비 성능 효율을 크게 개선할 예정이다. 또 마이크로소프트 초지능팀은 마이아 200을 활용해 차세대 자체 모델을 위한 합성 데이터 생성 및 강화 학습을 수행한다. 고품질의 도메인 특화 데이터를 더 빠르고 효율적으로 생성하여 AI 모델 훈련 파이프라인을 가속화하겠다는 전략이다. 시스템 수준에서의 혁신도 돋보인다. 마이아 200은 표준 이더넷 기반의 독자적인 2계층 스케일업 네트워크 설계를 도입했다. 칩당 2.8TB/s의 양방향 대역폭을 제공하며, 최대 6,144개의 가속기를 하나의 클러스터로 묶어 효율적인 대규모 추론 작업을 가능케 한다. 마이크로소프트는 개발자들을 위한 마이아 소프트웨어 개발 키트(SDK) 프리뷰도 함께 공개했다. 이 SDK는 파이토치(PyTorch) 통합, 트리톤(Triton) 컴파일러, Maia 전용 저수준 프로그래밍 언어 등을 포함하여 개발자가 하드웨어 성능을 최대로 끌어내면서도 이기종 하드웨어 간 모델 이식을 쉽게 할 수 있도록 돕는다. 마이아200은 미국 아이오와주 디모인 인근의 'US 센트럴' 데이터센터 리전에 이미 배치되었으며 이어 애리조나주 피닉스 인근의 'US 웨스트 3' 리전으로 확장될 예정이다. 이번 마이아200의 출시는 AI 인프라 시장에서 엔비디아 의존도를 낮추고 자체 칩 경쟁력을 통해 AI 서비스의 수익성을 극대화하려는 마이크로소프트의 강력한 의지가 반영된 것으로 풀이된다. 스콧 거스리 부사장은 "마이아 200은 칩 설계부터 데이터센터 배포까지 엔드-투-엔드(End-to-End) 검증을 통해 실리콘 출시 후 며칠 만에 실제 AI 모델을 구동하는 데 성공했다"며 "이는 타사 대비 절반 이하의 시간으로 단축된 획기적인 성과"라고 밝혔다.

2026.01.27 09:46남혁우 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

"CDN 한계 넘는다"…아카마이, 보안·클라우드·AI로 성장 전환 가속

아카마이 테크놀로지스가 장기간 이어졌던 성장 정체를 벗어나 사업 구조 전환에 따른 새로운 성장 국면에 진입하고 있다는 분석이 나왔다. 22일 업계에 따르면 모건스탠리는 지난 12일 발표한 보고서에서 아카마이에 대한 투자의견을 기존 '비중축소'에서 '비중확대'로 두 단계 상향 조정하고 목표주가를 83달러에서 115달러로 높였다. 이는 아카마이가 기존 콘텐츠 전송(CDN) 중심 기업에서 보안, 클라우드 인프라, 인공지능(AI) 기반 서비스 기업으로의 전환이 가시화되고 있다는 판단에 따른 것이다. 아카마이의 전통적인 핵심 사업이었던 콘텐츠 전송 부문은 수년간 두 자릿수 매출 감소를 기록하며 전체 성장의 부담 요인으로 작용해 왔다. 그러나 최근 들어 감소 폭이 크게 완화되면서 안정화 국면에 접어들고 있는 것으로 평가됐다. 모건스탠리는 글로벌 웹 트래픽 회복, 경쟁사들의 시장 이탈로 인한 산업 구조 재편, 가격 경쟁 완화 등을 배경으로 콘텐츠 전송 사업의 연간 매출 감소율이 향후 마이너스(-)2~3% 수준으로 낮아질 것으로 전망했다. 여기에 월드컵과 올림픽 등 대형 글로벌 스포츠 이벤트가 트래픽 증가 요인으로 작용할 가능성도 언급됐다. 아카마이 매출의 절반 이상을 차지하는 보안 사업은 비교적 안정적인 성장세를 유지하며 핵심 역할을 충실히 하고 있다. 웹방화벽(WAF), 봇 방어, 디도스(DDoS) 보호 등 기존 보안 서비스는 성숙 단계에 접어들었지만, API 보안 전문 기업 노네임(Noname)과 마이크로세그멘테이션 솔루션 가디코어(Guardicore) 등 고성장 제품군이 이를 상쇄하고 있는 것으로 나타났다.모건스탠리는 "신성장 보안 영역은 연 30% 이상 성장 중"이라며 "이를 기반으로 보안 부문 전체 매출은 2027년까지 연평균 약 8% 성장이 가능할 것"이라고 전망했다. 아카마이는 최근 클라우드 인프라와 AI 인퍼런스 사업에서도 두각을 나타내고 있다. 이곳은 2022년 리노드 인수 이후 퍼블릭 클라우드 사업을 본격 확대해 왔으며 이 중 클라우드 인프라 서비스(CIS)는 연 40% 이상의 고성장을 지속할 것으로 전망됐다. 특히 2025년 말 출시한 '아카마이 인퍼런스 클라우드'는 엔비디아 블랙웰 그래픽처리장치(GPU)를 기반으로 한 엣지 AI 추론 서비스로, 지연시간과 데이터 이동 비용 측면에서 기존 대형 퍼블릭 클라우드 대비 차별성을 갖춘 것으로 평가된다. 모건스탠리는 IDC 전망을 인용해 "2030년까지 전체 AI 추론 수요의 약 50%가 엣지에서 처리될 가능성이 있다"며 "전 세계 4천400개 이상 PoP(접속점)을 보유한 분산 엣지 네트워크를 앞세운 아카마이가 이 시장에서 구조적 수혜를 입을 수 있다"고 분석했다. 이 같은 사업 구조 변화는 실적 전망에도 반영되고 있다. 모건스탠리는 아카마이의 2027년 매출을 약 47억8천만 달러, 주당순이익(EPS)을 8.20달러로 제시했다. 이는 시장 컨센서스를 소폭 웃도는 수준이다. 현재 주가는 2027년 예상 실적 기준 주가수익비율(PER) 약 11배로, 동종 클라우드 및 보안 기업 대비 낮은 수준에 머물러 있다. 모건스탠리는 "성장 정상화 가능성이 아직 주가에 충분히 반영되지 않았다"며 "중장기적으로 밸류에이션 재평가 여지가 있다"고 평가했다. 그러면서 "아카마이는 더 이상 단순한 콘텐츠 전송 기업이 아니라 글로벌 엣지 네트워크를 기반으로 보안과 클라우드, AI 인프라를 결합한 플랫폼 기업으로 진화하고 있다"며 "현재는 이러한 전략적 전환이 실질적인 성장으로 연결되기 시작하는 중요한 변곡점"이라고 덧붙였다.

2026.01.22 09:52장유미 기자

[기자수첩] 새해 시험대에 오른 국내 AI 반도체

2026년 새해 신경망처리장치(NPU) 시장이 본격적으로 열리고 있다. 그리고 이 변화의 중심에는 국내 인공지능(AI) 반도체 업체들이 서 있다. AI 산업의 무게 중심이 학습에서 추론으로 이동하면서, 그동안 기술력은 갖췄지만 시장의 문턱 앞에 서 있던 국내 AI 반도체 기업들에게 처음으로 현실적인 무대가 펼쳐지고 있다. 생성형 AI는 더 이상 연구실 안의 기술이 아니다. 산업 현장과 서비스, 디바이스 전반으로 빠르게 확산되면서 AI의 가치는 '얼마나 큰 모델을 학습했는가'보다 '얼마나 빠르고 효율적으로 판단할 수 있는가'로 옮겨가고 있다. 실시간 응답성, 전력 효율, 비용 구조는 이제 선택이 아닌 필수 조건이다. 이 변화는 자연스럽게 추론에 최적화된 NPU를 AI 반도체 경쟁의 중심으로 끌어올리고 있다. 기존 GPU 중심 구조는 여전히 강력하지만, 추론 환경에서는 전력 소모와 운영 비용이라는 현실적인 한계를 드러내고 있다. 특히 AI가 데이터센터를 넘어 엣지와 온디바이스, 산업 인프라로 확산될수록 이러한 부담은 더 크게 체감된다. 특정 연산에 최적화된 구조를 갖춘 NPU가 주목받는 이유다. 그리고 이 영역은 글로벌 빅테크보다 국내 AI 반도체 업체들이 상대적으로 경쟁력을 발휘할 수 있는 시장으로 평가받는다. 이 지점에서 국내 팹리스 생태계의 현실을 보여주는 사례를 하나 짚어볼 필요가 있다. 비록 NPU 기업은 아니지만, 파두는 국내 팹리스 가운데 드물게 글로벌 고객과의 협력을 통해 실질적인 성과를 만들어낸 기업이다. 샌디스크 등과의 협업을 통해 저장장치(SSD) 컨트롤러 시장에서 매출과 레퍼런스를 확보하며, 국내 팹리스도 글로벌 시장에서 통할 수 있다는 가능성을 가장 먼저 입증해왔다. 그러나 파두가 최근 상장 당시 자본시장법 위반혐의로 검찰에 불구속기소 되면서 국내 팹리스 산업이 안고 있는 구조적 취약성 역시 함께 드러났다. 기술력과 사업 성과를 쌓아가고 있던 기업조차 시장 신뢰와 제도적 리스크 앞에서는 쉽게 흔들릴 수 있다는 점이다. 이는 특정 기업의 문제라기보다, 이제 막 추론 시장이라는 기회를 맞이한 국내 AI 반도체 업계 전반에 던지는 경고에 가깝다. 이 같은 맥락에서 추론용 NPU를 개발하는 국내 AI 반도체 업체들 역시 같은 시험대에 서 있다고 볼 수 있다. 기술만으로는 충분하지 않고, 시장과 자본, 제도가 함께 뒷받침돼야 하는 것이다. 지금 필요한 것은 이미 달리고 있는 말의 속도를 줄이는 일이 아니라, 박차를 가할 수 있도록 힘을 실어주는 환경이다. 국내 AI 반도체 기업들은 그동안 추론용 NPU를 핵심 사업 전략으로 내세워왔다. 전력 효율과 성능 대비 비용, 특정 워크로드 최적화 등에서 차별화를 시도해왔지만, 시장 자체가 충분히 열리지 않아 성과를 가시화하기 어려웠다. 2026년을 기점으로 추론 수요가 빠르게 늘어나면서 이제는 기술적 설득이 아니라 실제 적용 사례와 지속 가능한 사업 구조가 경쟁력을 가르는 단계로 접어들고 있다. 정책과 산업 환경도 국내 업체들에게 유리하게 움직이고 있다. GPU 의존도를 낮추고 AI 인프라의 선택지를 넓히려는 흐름 속에서, 국산 NPU를 활용한 실증과 도입 논의가 이어지고 있기 때문이다. 이는 기술 자립을 넘어, 국내 AI 반도체가 글로벌 시장에서 신뢰할 수 있는 선택지가 될 수 있는지를 가늠하는 시험대다. 그리고 그 시험은 이미 시작됐다. 결국 관건은 하나다. 국내 AI 반도체 업체들이 추론 시장에서 '가능성 있는 대안'이 아니라 '검증된 경쟁자'로 자리 잡을 수 있느냐다. 자율주행, 로봇, 헬스케어, 스마트 디바이스처럼 늑장이 허용되지 않는 영역에서 NPU의 존재감이 커질수록, 그 답은 더욱 분명해질 것이다. 새해엔 가능성을 말하는 해가 아니다. 국내 AI 반도체 업체들이 추론 시장에서 실제 성과로 평가받는 해다. 달리는 말이 멈추지 않도록, 지금은 채찍을 들 때가 아니라 힘을 실어줘야 할 때다. 무대는 이미 열렸다.

2026.01.08 14:51전화평 기자

카카오, '카나나-2' 오픈소스 공개…에이전틱 AI 최적화

카카오는 허깅페이스에 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다고 19일 밝혔다. 카카오는 지난해 자체 개발 AI 모델 '카나나'의 라인업을 선보인 이래, 경량 사이즈의 모델부터 고난이도 문제 해결에 특화된 '카나나-1.5'까지 꾸준히 오픈소스로 추가 공개해왔다. 이번에 선보인 '카나나-2' 모델은 성능과 효율을 개선한 최신 연구 성과로, 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 '동료'와 같은 AI 구현에 초점을 맞췄다. 이번에 공개된 모델은 총 3종으로 기본 모델인 ▲베이스, 사후 학습을 통해 지시 이행 능력을 높인 ▲인스트럭트, 이번에 처음 선보이는 ▲추론 특화 모델로 구성됐다. 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 웨이트(학습된 매개변수 값)를 모두 공개한 점이 특징이다. 카나나-2는 에이전틱 AI 구현의 핵심인 도구 호출 기능과 사용자 지시 이행 능력이 향상됐다. 이전 모델(카나나-1.5-32.5b) 대비 다중 대화 도구 호출 능력을 3배 이상 향상시켰으며, 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다. 지원 언어도 기존 한국어, 영어에서 ▲한국어 ▲영어 ▲일본어 ▲중국어 ▲태국어 ▲베트남어까지 6개로 확장해 활용도를 높였다. 기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력을 효율적으로 처리하는 방식인 'MLA' 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 'MoE' 구조를 적용했다. 이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있게 됐으며, 추론 시 필요한 파라미터만 활성화 해 연산 비용과 응답 속도가 개선됐다. 대규모 동시 접속 요청을 빠르게 처리하는 성능 진화를 만들었다. 성능 지표에서 인스트럭트 모델의 경우 동일한 구조의 최신 모델 'Qwen3-30B-A3B'와 유사한 수준을 달성했다. 이달 한국정보과학회와 공동 개최한 'AI 에이전트 경진대회'에서 참가자들에게 선공개돼 실제 에이전트 개발 환경에서의 활용 능력이 검증되기도 했다. 추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보였다. 카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 이와 함께 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과 온 디바이스 경량화 모델의 고도화를 지속적으로 추진할 계획이다.

2025.12.19 10:00박서린 기자

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호 기자

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

26.2조 전쟁추경 국회 통과...국민 70%에 10만~60만원 지원

배달앱 사회적 대화 첫날부터 신경전…수수료 인하 공감에도 갈등 표출

"비전공자도 손쉽게"…노코드 3D 에디터 '유니티 스튜디오' 직접 써보니

닻 올린 방미통위, 방송 3법 시행령 개정 착수..."현장 안착 추진"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.