• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'줌 AI 컴패니언 3.0'통합검색 결과 입니다. (10944건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 'DSX 에어' 공개…"AI 데이터센터 구축 기간 수개월에서 수일로 단축"

엔비디아가 인공지능(AI) 데이터센터를 실제 구축 전 미리 설계하고 검증할 수 있는 가상 환경을 선보인다. 엔비디아는 17일 미국 새너제이에서 열린 기술 콘퍼런스ㅈ '엔비디아 GTC 2026'에서 '엔비디아 DSX 에어(DSX Air)'를 발표했다. DSX 에어는 엔비디아의 AI 데이터센터 설계 프레임워크인 'DSX 플랫폼'에 포함된 시뮬레이션 서비스다. 컴퓨팅, 네트워크, 스토리지, 보안 등 AI 인프라 전체를 클라우드 가상 환경에 구현할 수 있다. DSX 에어는 서버를 실제로 설치하기 전부터 컴퓨팅, 네트워킹, 스토리지, 오케스트레이션, 보안을 포함한 AI 팩토리 전체 디지털 트윈 구축을 지원한다. 통합과 문제 해결 과정을 시뮬레이션 환경으로 옮기면 고객은 첫 토큰 생성까지 걸리는 시간을 수 주 또는 수개월에서 단 며칠 혹은 수시간으로 단축할 수 있다. 이를 통해 막대한 시간과 비용을 절감할 수 있다. 기업은 실제 서버를 설치하기 전에 AI 데이터센터를 '디지털 트윈' 형태로 먼저 구축해 성능과 운영 방식을 검증할 수 있다. GPU, 슈퍼NIC, DPU, 네트워크 스위치 등 엔비디아의 핵심 하드웨어는 물론 파트너사의 솔루션도 단일 환경에서 함께 시뮬레이션된다. 특히, DSX 에어는 차세대 인프라인 '베라 루빈(Vera Rubin)' 플랫폼과 '스펙트럼-6(Spectrum-6)' 네트워크 스위치 등 최신 장비의 시뮬레이션도 지원한다. 초기 구축 단계뿐만 아니라 시스템 가동 중 발생하는 소프트웨어 업데이트나 보안 패치 작업 역시 가상 환경에서 미리 리허설할 수 있어 예기치 않은 시스템 중단(다운타임) 위험을 최소화하는 안전한 테스트베드 역할도 수행한다. DSX 에어는 이미 다양한 글로벌 기업들이 현장에서 활용하고 있다. AI 인프라 전문 기업 코어위브(CoreWeave), 태국의 AI 클라우드 기업 시암.AI(Siam.AI) 등은 물리적 하드웨어 도입 이전 단계에서 시스템 구조를 미리 검증해 배포 속도를 높이는 데 이 플랫폼을 적극 도입했다. 랑가 마디푸디엔비디아 제품 관리 디렉터는 "AI 팩토리를 구축하는 것은 매우 복잡한 작업으로 컴퓨팅, 네트워킹, 보안 및 스토리지 시스템 전반에 걸친 효율적인 통합이 필수적"이라며 "신속한 AI 도입과 강력한 투자수익률(ROI)을 달성할 수 있도록 새로운 엔비디아 DSX 에어는 기업들이 인프라 전체를 클라우드 상에서 완벽하게 시뮬레이션할 수 있게 지원할 것"이라고 강조했다.

2026.03.17 09:39남혁우 기자

[현장] "의료 AI, 멀티모달 시스템으로 성장…환자 미래 상태 예측"

"의료 인공지능(AI)은 질병을 판별하는 도구를 넘어설 전망입니다. 임상 데이터와 영상, 유전체 정보를 통합 분석하는 멀티모달 시스템으로 발전할 것입니다. 환자 맞춤형 질병 예측·치료를 통합 지원하는 '의료 파운데이션 모델'이 의료 AI 성장을 지원할 것입니다." 예종철 한국과학기술원(KAIST) 김재철AI대학원 교수는 17일 서울 양재 엘타워에서 열린 한국인공지능산업협회(AIIA) 조찬포럼에서 의료 AI 진화 방향성을 이같이 제시했다. 예 교수는 기존 의료 AI 연구가 주로 특정 질환을 판독하는 영상 진단 모델 중심으로만 발전해 왔다고 설명했다. 다만 이는 환자에게 완전한 치료를 제공하지 않는다고 지적했다. 그는 "의사는 영상뿐 아니라 임상 기록, 유전체 정보 등 다양한 데이터를 종합적으로 분석해 치료 결정을 내린다"며 "의료 AI가 진단만 하는 역할만으론 충분하지 않다"고 설명했다. 예 교수는 차세대 의료 AI는 영상뿐 아니라 의료 데이터와 임상 실험 자료, 유전체 정보를 종합 분석하는 멀티모달 시스템으로 발전할 것이라고 내다봤다. 그는 이런 시스템을 '의료 파운데이션 모델'로 정의했다. 실제 의료 AI 연구에서는 환자 정보를 종합 분석해 맞춤형 질병 진단과 예측, 치료법을 제시하는 모델 연구가 한창이다. 우선 환자 과거 의료 기록을 시간 순서로 분석해 질병 발생 가능성을 예측하는 모델이 등장하고 있다. 영국 대규모 의료 데이터베이스(DB)인 'UK 바이오뱅크' 연구에서는 환자 의료 이벤트 데이터 기반으로 10년 내 질병 발생 위험을 예측할 수 있다는 결과가 발표됐다. 대규모 의료 데이터 기반 모델 개발도 확대되고 있다. 미국 EMR 기업 에픽은 약 3억명 환자 데이터가 포함된 '코스모스(Cosmos)' 데이터셋 기반으로 의료 예측 모델을 구축하고 있는 것으로 알려졌다. 그는 최근 거대언어모델(LLM)을 활용한 의료 지식 시스템도 빠르게 확산한 것으로 나타났다. 그는 의료 질의응답 플랫폼 '오픈에비던스(OpenEvidence)'를 관련 사례로 들었다. 실제 미국 의사 40%가 오픈에비던스를 진료 과정에 활용한 것으로 집계됐다. 예 교수는 "의료 AI가 의사의 의사결정을 지원하는 방향으로 활용 범위가 확대되고 있다"며 "궁극적으로 임상 데이터와 영상, 유전체 정보를 통합 분석하는 멀티모달 시스템으로 발전할 것"이라고 설명했다.

2026.03.17 09:37김미정 기자

알리바바그룹, 큐웬 연구팀·앱 부문 등 통합…CEO 직속으로 개편

알리바바그룹이 자사의 인공지능(AI) 서비스와 개발 프로젝트를 하나로 묶는 새로운 사업 부문을 설립한다. 이는 AI를 통해 수익을 창출하겠다는 의지를 보여주는 대목이다. 16일(현지시간) 블룸버그 등 외신에 따르면 알리바바는 자사 AI 모델 '큐웬'을 개발하는 연구팀과 소비자용 애플리케이션 부문, 주요 AI 관련 제품들을 에디 우 최고경영자(CEO)가 이끄는 새로운 조직으로 이동시킬 계획이다. 알리바바 토큰 허브(ATH)라는 이름의 이 조직은 슬랙과 유사한 협업 앱 '딩톡'과 스마트 글라스 등 쿼크(Quark) 브랜드 기기도 함께 총괄하게 된다. 이번 조직 개편은 최근 큐웬 프로젝트의 핵심 연구 책임자가 갑작스럽게 퇴사하면서 알리바바의 AI 전략에 대한 의문이 제기된 상황에서 이뤄졌다. 회사는 연구, 제품 개발, 디자인 등 여러 팀 간 협업을 강화해 AI 개발 속도를 높이겠다는 구상이다. 또한 조직 이름에 토큰을 사용한 것은 AI 서비스를 이용할 때 기업들이 과금하는 연산 단위를 의미하는 것으로, AI 수익화를 명확히 하겠다는 의도를 보여준다는 평가다. 알리바바는 이번 개편과 함께 추가 투자 계획이 있는지 밝히지 않았지만, 기업 고객을 대상으로 한 AI 서비스 판매 전략을 강화하고 GPT와 유사한 모델인 큐웬의 확산을 촉진하려는 목적이 있는 것으로 해석된다. 그러나 중국에서는 AI 기술을 수익으로 연결하는 일이 쉽지 않은 상황이다. 중국 소비자들이 소프트웨어 구독료 지불에 상대적으로 소극적이기 때문이다. 알리바바와 미니맥스 등 중국 AI 기업들은 오픈AI와 같은 미국 빅테크들보다 수익화에 어려움을 겪고 있다. 또한 중국의 많은 AI 모델은 오픈소스 형태로 무료 제공되면서 엔트로픽과 같은 기업들과 매출 격차가 커지고 있다. 우 CEO는 “ATB는 하나의 핵심 목표를 중심으로 구축됐다”며 “토큰을 만들고, 토큰을 제공하며, 토큰을 활용하는 것”이라고 말했다. 이어 “나는 ATH를 직접 이끌며 AI 사업 전반의 전략적 협력을 강화하고, 업무 전반에 AI를 깊이 통합하며 빠르게 움직일 수 있는 민첩성을 유지하겠다”고 덧붙였다. 이번 주 분기 실적 발표를 앞두고 있는 알리바바는 그동안 주로 기업 고객을 대상으로 한 AI 및 클라우드 솔루션 판매에 집중해왔지만 지난해에는 큐웬 앱을 소비자용으로 개편하기도 했다. 이 앱은 지난달 춘절 기간 대규모 '홍바오' 기획전을 진행했음에도 바이트댄스의 AI 챗봇 '도우바오'에 비해 뒤처져 있다. 이번 조직 개편으로 알리바바는 다시 기업용 AI 사업에 더 많은 자원을 투입할 가능성도 나오고 있다. 또한 알리바바는 가까운 시일 내 기업을 위한 에이전트형 AI 서비스를 출시할 방침이다. 사안에 정통한 관계자들에 따르면 알리바바는 빠르면 이번 주 큐웬 모델을 기반으로 한 기업용 AI 에이전트를 발표할 가능성이 있다. 이 서비스는 향후 이커머스 타오바오와 핀테크 서비스 알리페이 등 다른 서비스와 점진적으로 통합될 계획이다.

2026.03.17 09:37박서린 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Grok)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

"AI도 사회 구성원?"…홍콩, 세계 첫 인간-AI 협력 네트워크 추진

홍콩이 인간과 인공지능(AI)이 협력하는 새로운 디지털 인프라 구축에 나선다. 공공서비스와 시민 생활 영역 전반에 AI를 도입하며 행정 효율성과 기술 경쟁력 강화를 동시에 추진하겠다는 구상이다. 17일 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 홍콩 생성형 AI 연구개발센터(HKGAI)는 인간과 AI 에이전트가 협력하는 오픈소스 네트워크 '클로넷(ClawNet)'을 조만간 공개할 예정이다. 이는 세계 최초의 인간-AI 에이전트 협력 네트워크를 목표로 개발된 시스템이다. 해당 네트워크는 AI 에이전트가 허용된 범위 안에서만 작업을 수행하도록 설계된 협력 구조로, 인간의 승인 아래 자율적으로 업무를 수행하고 다른 에이전트와 협력할 수 있다. HKGAI는 홍콩 정부의 혁신 연구 프로그램인 '이노HK(InnoHK)' 산하 기관으로 홍콩과학기술대(HKUST) 연구진이 주도하고 있다. 연구진은 현재 대부분의 AI 에이전트가 개별 사용자 중심으로 작동하는 '사일로 구조'에 머물러 있어 권한 관리와 거버넌스 측면에서 한계가 있다고 지적했다. 이에 따라 클로넷은 AI 에이전트에 '사회적 정체성'을 부여하는 구조를 도입했다. 각 에이전트는 역할과 권한 범위를 갖고 네트워크 내에서 작업을 수행하며 모든 행동은 기록되고 추적 가능하도록 설계됐다. 홍콩 정부는 AI 기술을 공공서비스에도 적극 도입하고 있다. HKGAI가 개발한 AI 챗봇 'HK챗(Chat)'은 지난해 11월 출시 이후 약 72만 명의 가입자를 확보했다. 향후 학교 지원 상담이나 생활비 절약 조언, 경마 데이터 분석 등 시민 생활을 지원하는 기능도 추가될 예정이다. 행정 업무에도 AI 도입이 확대되고 있다. HKGAI는 공무원 업무 지원을 위해 AI 문서 작성 도구 'HK파일럿(Pilot)'과 회의록 작성 서비스 'HK미팅(Meeting)'을 개발해 시범 운영 중이다. 현재 약 100개 정부 부처에서 5만 명에 가까운 공무원이 관련 시험 프로그램에 참여한 것으로 알려졌다. 홍콩 정부는 2027년까지 최소 200개의 행정 절차에 AI를 도입한다는 목표를 세웠다. 데이터 분석, 민원 대응, 면허 및 허가 신청 처리 등 다양한 행정 서비스에 AI를 활용해 공공서비스 효율을 높이겠다는 계획이다. 일각에선 AI의 사회적 통합을 위해서는 기술뿐 아니라 제도적 기반도 함께 마련돼야 한다고 지적했다. 특히 인간 중심으로 설계된 기존 법과 제도가 AI와의 공존을 충분히 반영하지 못한다고도 주장했다. 이에 대해 궈이커 HKGAI 소장은 "AI 에이전트가 인간과 공존하려면 사회적 정체성을 가져야 한다"며 "현재의 법적·사회적 프레임워크는 인간만을 위해 설계돼 있어 AI를 사회에 효과적으로 통합하려면 사회적 속성이 필요하다"고 말했다.

2026.03.17 09:18장유미 기자

마이크론, 엔비디아 '베라 루빈'향 HBM4 공급 공식화…"1분기 대량 양산"

미국 메모리 기업 마이크론이 최근 불거진 고대역폭메모리(HBM) 성능 논란에 대해 정면 반박했다. 엔비디아의 최신 AI 가속기향으로 개발한 자사 HBM4(6세대 HBM)가 대량 양산(High-Volume Production) 체제에 돌입했음을 공식적으로 밝혔다. 마이크론은 엔비디아 '베라 루빈(Vera Rubin)'향으로 36GB 12단 HBM4의 양산을 올 1분기 시작했다고 16일(현지시간) 밝혔다. 마이크론은 "HBM4를 통해 11Gb/s 이상의 핀 속도를 달성해 2.8TB/s 이상의 대역폭을 제공한다"며 "이는 HBM3E 대비 2.3배의 대역폭과 20% 이상의 전력 효율성 향상을 의미한다"고 설명했다. 또한 마이크론은 HBM4 16단 샘플을 고객사에 출하했다. 16단 HBM은 내부의 각 D램을 더 밀도있게 적층해야 하기 때문에, 고도의 패키징 기술이 요구된다. 수밋 사다나 마이크론 수석 부사장은 "엔비디아와의 긴밀한 협력을 통해 컴퓨팅과 메모리가 처음부터 함께 확장될 수 있도록 설계하고 있다"며 "이러한 혁신의 핵심에는 AI의 엔진인 마이크론의 HBM4가 있고, 이는 전례 없는 대역폭과 용량, 전력 효율성을 제공한다"고 밝혔다. 그는 이어 "HBM4와 업계 최초의 SOCAMM2 및 Gen6 SSD가 대량 생산에 돌입하면서, 마이크론의 메모리와 스토리지는 차세대 AI의 잠재력을 최대한 발휘할 수 있는 핵심 기반을 형성한다"고 강조했다. 마이크론의 이번 발표는 최근 불거진 HBM4 성능 논란을 불식시키기 위한 것으로 풀이된다. 앞서 반도체 업계는 마이크론의 엔비디아향 HBM4 상용화 일정이 다소 지연될 것이라는 의견을 제기해 왔다. 엔비디아가 HBM4에 필요한 성능 기준을 강화하면서, 국내 기업 대비 뒤쳐진 공정을 채택한 마이크론이 기술적으로 한계에 부딪혔다는 시각에서다. 마이크론은 HBM4에 HBM3E와 마찬가지로 1b(5세대 10나노급) D램을 코어 다이로 활용한다. 컨트롤러 역할의 베이스 다이도 기존과 마찬가지로 D램 공정에서 양산한다. 현재 삼성전자는 자사 파운드리 4나노미터(nm) 공정을, SK하이닉스가 TSMC 12나노 공정을 활용하고 있다. 한편 마이크론의 SOCAMM2는 엔비디아 베라 루빈 NVL72 시스템 및 독립형 엔비디아 베라 CPU 플랫폼 용으로 설계됐다. CPU 당 최대 2TB의 메모리와 1.2TB/s의 대역폭을 지원한다.

2026.03.17 09:01장경윤 기자

아키스케치, 'AWS 유니콘 데이'서 인테리어 AI 에이전트 개발 사례 공유

아키스케치(대표 이주성)는 17일 서울 코엑스 E홀에서 열리는 AWS 유니콘 데이 2026 서울에 발표사로 참가해, 자사의 AI 에이전트 기술 개발 사례를 공유한다. AWS 유니콘 데이 2026 서울은 국내 스타트업 생태계를 위한 아마존 웹서비스(AWS) 주관 행사다. AI 에이전트, 머신러닝, 클라우드 네이티브 AI 아키텍처 등 스타트업이 실제 사업에서 마주하는 핵심 과제를 주제로 세션과 네트워킹이 진행된다. 아키스케치는 이번 행사의 트랙1 'Agentic AI & AI-Augmented Development' 세션에서 Amazon Bedrock AgentCore를 활용한 인테리어 AI 에이전트 개발 사례를 발표한다. 발표에서는 자연어 명령 하나가 도면 분석·3D 변환·스타일 제안·가구 배치·렌더링·견적 산출로 이어지는 엔드 투 엔드(E2E) 워크플로우를 상세히 소개할 예정이다. E2E 워크플로우는 특정 프로세스의 시작부터 끝까지 전체 과정을 단일 시스템으로 통합해 자동화하거나 관리하는 방식이다. 아키스케치가 개발한 AI 에이전트는 고객의 집을 가장 잘 아는 AI 파트너를 지향한다. 기존에는 고객별 요구사항 파악, 수동 견적 산출, 현장 대응 등 각 단계가 분절돼 평균 4~8주의 프로젝트 기간과 반복적인 커뮤니케이션 비용이 발생했다. 아키스케치 AI 에이전트는 이를 단일 대화형 인터페이스로 통합해, 고객 상담·컨설팅부터 계약·발주, A/S·이력 추적까지 하나의 흐름으로 연결한다. 아키스케치 이주성 대표는 "인테리어 설계의 전 과정을 하나로 연결하면 고객에게 전혀 새로운 경험을 제공할 수 있고, 그로 인한 비즈니스 기회도 함께 열린다"며 "Amazon Bedrock AgentCore 기반의 AI 에이전트 기술로 인테리어 산업 전반의 디지털 전환을 함께 만들어 나가겠다"고 말했다.

2026.03.17 08:57백봉삼 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

LS에코에너지, 말레이시아 데이터센터에 버스덕트 첫 공급

LS에코에너지(대표 이상호)가 말레이시아 하이퍼스케일 데이터센터에 버스덕트를 처음으 공급하며 아세안 데이터센터 전력 인프라 시장 공략을 확대하고 있다. LS에코에너지는 베트남 자회사 LSCV가 글로벌 IT 기업이 말레이시아에서 추진 중인 하이퍼스케일 데이터센터에 버스덕트를 공급하는 계약을 체결했다고 17일 밝혔다. 이번 계약은 약 800만 달러(약 120억원) 규모로, LSCV는 말레이시아 조호르바루 지역의 데이터센터 구축 일정에 맞춰 제품을 순차적으로 공급할 계획이다. 하이퍼스케일 데이터센터는 AI와 클라우드 서비스 운영을 위해 구축되는 초대형 데이터센터다. 대규모 전력 공급이 필수적인 만큼 대용량 전력 전송이 가능한 버스덕트가 핵심 인프라로 활용되고 있다. 조호르바루는 전력 수급과 부지 확보 여건이 좋아 글로벌 빅테크 기업들의 신규 데이터센터 투자 거점으로 부상하고 있다. LSCV는 지난해 10월 인도네시아 데이터센터 수주에 이어 이번 말레이시아 진출까지 이어지며 아세안 시장 확대에 속도를 내고 있다. 이상호 LS에코에너지 대표는 “AI와 클라우드 확산으로 데이터센터 시장이 빠르게 성장하면서 전력 인프라 수요도 함께 확대되고 있다”며, “버스덕트와 전력케이블을 아우르는 전력 인프라 사업을 강화해 아세안 데이터센터 시장에서 수주를 지속 확대해 나가겠다”고 말했다. AI 데이터센터 확산으로 글로벌 버스덕트 시장이 빠르게 성장하고 있다. LS전선은 국내 버스덕트 시장 점유율 1위 기술력을 바탕으로 구미와 LS에코에너지 베트남 사업장을 중심으로 제품을 공급하고 있으며, 북미 수요 대응을 위해 멕시코에 신규 공장도 건설 중이다.

2026.03.17 08:41류은주 기자

사람인 소개팅 앱 '비긴즈', 상대방 취향·성향 더 잘 알려준다

사람인(대표 황현순)이 운영하는 연애 성향 매칭 소개팅 앱 '비긴즈'가 AI 기능을 중심으로 서비스를 전면 개편했다고 17일 밝혔다. 이번 개편은 기존 데이팅앱 시장의 외모 위주의 단편적인 매칭 방식에서 벗어나, 가치관과 라이프스타일 중심의 신뢰도 높은 매칭을 제공하기 위해 진행됐다. 새롭게 바뀐 비긴즈 홈 화면은 상대방의 취향과 성향을 직관적으로 파악하는 데 초점을 맞췄다. 특히 'AI 프로필 하이라이트' 기능은 이용자의 관심사와 가치관 데이터를 분석해 주요 성향을 요약해 제공한다. 이를 통해 상대방의 라이프스타일을 먼저 확인한 뒤 매칭 여부를 판단할 수 있다. 새로 선보이는 '커스텀 추천'은 나이, 체형, 취향뿐 아니라 연애 성향 지표 'BLOOM' 등 세부 조건을 설정해 상대를 직접 탐색할 수 있도록 지원한다. 또 상호 매칭 가능성이 높은 이용자를 우선 노출하는 알고리즘을 적용해 서비스 효율을 높였다. 이번 개편과 함께 'AI 사진 진단' 기능도 새롭게 도입됐다. 해당 기능은 프로필 사진의 표정, 구도, 이미지 전달력 등을 AI가 분석해 맞춤형 개선 가이드를 제공한다. 이용자는 자신의 취향에 따라 긍정적인 표현 중심의 '천사 모드'와, 직설적인 개선 의견을 제시하는 '악마 모드' 중 피드백 스타일을 선택 가능하다. 비긴즈 앱 회원은 최대 6장까지 등록된 사진을 기반으로 정밀 분석을 받을 수 있으며, 비회원이나 PC 사용자도 사진 1장을 통해 기능을 체험할 수 있다. 비긴즈 관계자는 “소개팅 앱 이용자들이 가장 어려워하는 점은 수많은 프로필 속에서 자신과 잘 맞는 상대를 찾는 과정”이라며 “비긴즈는 '만남에도 기준이 필요하다'는 관점에서 이용자의 성향과 라이프스타일을 보다 깊이 반영한 매칭 경험을 제공하고자 한다”고 말했다.

2026.03.17 08:40백봉삼 기자

SK하이닉스, 엔비디아와 AI 메모리 협력…최태원·곽노정 출동

SK하이닉스가 고대역폭메모리(HBM)를 비롯한 인공지능(AI) 메모리 제품군을 엔비디아 연례 행사 'GTC(GPU Technology Conference) 2026'에서 공개한다. 최태원 SK 회장, 곽노정 SK하이닉스 최고경영자(CEO) 등이 직접 참석해, 글로벌 빅테크 기업들과 중장기 협력 방안을 논의할 계획이다. SK하이닉스는 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 GTC 2026에 참가한다고 17일 밝혔다. SK하이닉스는 "AI 학습과 추론 분야에서 데이터 병목을 최소화하고 성능을 극대화할 수 있는 메모리 제품을 엔비디아 AI 인프라에 탑재했다"며 "이번 행사에서 엔비디아와 파트너십을 기반으로 AI 시대 핵심 인프라인 메모리 기술 경쟁력을 선보이겠다"고 말했다. SK하이닉스는 이번 행사에서 '스포트라이트 온 AI 메모리'(Spotlight on AI Memory)를 주제로 전시 공간을 구성해 AI 메모리 기술과 설루션을 소개한다. 전시관은 ▲엔비디아 협업 존 ▲제품 포트폴리오 존 ▲이벤트 존 등으로 구성된다. 관람객이 AI 메모리 기술을 직관적으로 이해하도록 체험형 콘텐츠 중심으로 운영한다. 전시장 입구에 위치한 '엔비디아 협업 존'은 SK하이닉스와 엔비디아의 협업 성과를 집약적으로 보여주는 핵심 공간이다. 회사는 이곳에서 HBM4와 HBM3E, SOCAMM2 등 SK하이닉스의 메모리 제품들이 엔비디아의 다양한 AI 플랫폼에 실제 적용된 사례를 중심으로, GPU 기반 AI 가속기에 탑재된 메모리 구성을 모형과 실물 형태로 구현한다. 엔비디와와 협업해 만든 액체 냉각식 eSSD를 비롯해 회사의 LPDDR5X가 탑재된 엔비디아의 AI 슈퍼컴퓨터 'DGX 스파크(Spark)'도 함께 전시한다. '제품 포트폴리오 존'에서는 AI 인프라 핵심인 HBM4와 HBM3E를 비롯해, 고용량 서버용 D램 모듈과 LPDDR6, GDDR7, eSSD, 자동차용 메모리 솔루션 등 AI 시대를 겨냥한 메모리 제품 라인업을 볼 수 있다. SK하이닉스는 GTC 2026 기간 동안 글로벌 AI 산업 현장 흐름에 맞는 협력 방향을 모색할 계획이다. 최태원 SK그룹 회장을 비롯해 곽노정 SK하이닉스 CEO 등 주요 경영진은 글로벌 빅테크 기업들과 만나 AI 기술 발전과 인프라 구조 변화에 대한 인사이트를 공유하고, 중장기 협력 방안을 논의할 예정이다. 기술 세션에서 AI 기반 제조업 발전 방향과 고성능 AI 구현을 위한 메모리 기술 역할을 설명할 계획이다. SK하이닉스는 "AI 기술이 발전할수록 메모리는 단순 부품을 넘어 AI 인프라 전반의 구조와 성능을 좌우하는 핵심 요소로 자리잡고 있다"며 "데이터센터부터 온디바이스에 이르기까지 AI 전 영역을 아우르는 메모리 기술 역량을 기반으로, 글로벌 파트너들과 함께 AI의 미래를 만들겠다"고 밝혔다.

2026.03.17 07:45장경윤 기자

신세계, 국내 최대 규모 AI 데이터센터 짓는다

신세계그룹이 미국 인공지능(AI) 기업 리플렉션 AI(Reflection AI)와 함께 한국에 국내 최대 규모의 AI 데이터 센터 건립을 추진한다. 신세계와 리플렉션 AI의 파트너십은 미국 정부가 지난해 개시한 'AI 수출 프로그램'을 통해 기술 협력을 하는 첫 번째 대표 케이스다. 신세계는 이 파트너십을 기반으로 국내에서 가장 우수한 기술력과 데이터 보안 역량을 갖춘 AI 클라우드 사업자로 발돋움해 대한민국 AI 경쟁력 고도화에 기여한다는 계획이다. 또 그룹 차원에서는 AI를 새로운 미래 성장 동력으로 키워 나가고자 한다는 설명이다. 16일(현지시간) 신세계는 미국 샌프란시스코에서 열린 신세계그룹과 리플렉션 AI의 '한국 소버린 AI 팩토리 건립을 위한 전략적 파트너십 MOU' 행사에 정용진 신세계그룹 회장과 미샤 라스킨 리플렉션 AI CEO가 함께 협력을 약속했다고 밝혔다. 이 자리에는 하워드 러트닉 미국 상무부 장관이 참석해 “사업의 성공적인 진행을 위해 적극적으로 지원하겠다”고 말했다. 신세계와 리플렉션 AI는 함께 한국에 전력용량 250MW 규모의 AI 데이터 센터를 지을 계획이다. 현재 국내에 건립됐거나 건립 예정인 AI 데이터 센터 규모를 뛰어넘는 최대 규모다. 사업은 전력용량을 순차적으로 늘려가는 단계적 방식으로 진행된다. 국내 최대 규모가 가능한 것은 AI 데이터 센터의 핵심 설비인 GPU를 확보했기 때문이다. 리플렉션 AI는 신세계와 함께 짓는 AI 데이터 센터에 들어갈 GPU를 엔비디아로부터 공급받기로 했다. 리플렉션 AI는 지난해 10월 80억 달러(약 12조원)의 기업 가치를 인정받으며 엔비디아 등으로부터 20억 달러(약 3조원)의 투자를 유치했다. 신세계와 리플렉션 AI는 대형 데이터 센터를 기반으로 클라우드 서비스와 함께 사용자 맞춤형 AI 솔루션까지 제공할 수 있는 '풀 스택(Full-Stack) AI 팩토리'를 세우고자 한다. 리플렉션 AI는 구글 딥마인드 핵심 개발자였던 라스킨 현 CEO와 알파고 개발 주역중 한 명인 이오안니스 안톤글루 현 CTO 등 AI 전문가 그룹이 2024년 2월 창업한 회사로 미국에서 '오픈 웨이트 AI 모델 개발' 선두주자로 꼽힌다. 오픈 웨이트 AI모델은 폐쇄형 AI 모델과 달리 사용자가 목적에 맞게 모델 구조를 변경할 수 있는 인프라를 제공하며 정보를 독립적으로 관리할 수 있는 '데이터 주권'을 확보하는 데 용이하다. 정용진 회장은 “AI는 미래의 산업과 경제, 인간의 삶 등 모든 분야를 총체적으로 변화시켜, AI 없는 미래산업은 생존 불가능하게 될 것”이라며 “리플렉션 AI와의 데이터센터 건립 협업 프로젝트는 신세계의 미래성장 기반에 토대가 되는 것은 물론 국내산업 전반의 AI 생태계 고도화에도 기여할 것”이라고 말했다. 한국 소버린 AI 기반 마련해 3대 강국 도약 기여 이날 MOU 체결식에 러트닉 미국 상무부 장관이 참석한 이유는 특별하다. MOU가 열린 곳은, 같은 날 미국 상무부가 샌프란시스코에 문을 연 'NATIONAL AI CENTER'이다. 러트닉 장관은 'AI 수출 프로그램'을 관할할 센터 개소식에 참석한 후 MOU 행사장에 등장했다. 신세계와 리플렉션 AI가 함께 짓고 운영하는 데이터센터가 미국 AI 수출 프로그램을 통해 이뤄지기 때문에 사업 진행에 힘을 싣고자 한 것이다. 작년 7월 도널드 트럼프 미국 대통령의 행정명령 서명 이후 상무부 주도로 시작한 'AI 수출 프로그램'은 AI 데이터 센터와 함께, 센터 기반의 AI 서비스를 포괄하는 AI 생태계를 타국에 전수하는 것을 골자로 한다. 다른 나라 기관과 기업이 데이터 유출에 대한 두려움 없이 AI 모델을 도입하려면 그 방식은 사용자가 시스템을 변경할 수 있고 데이터를 통제할 수 있는 '오픈 웨이트 모델'이 적합하다. 상무부가 리플렉션 AI를 수출 기업으로 선택한 이유이기도 하다. 리플렉션 AI가 추구하는 '오픈 웨이트 모델'은 한국 정부의 '소버린 AI 육성' 정책 기조와도 맞닿아 있다. AI 경쟁력 강화를 위한 국가 간 경쟁은 치열하게 벌어지고 있고 각 국가 통제 하에 있는 소버린 AI 구축은 필수적이다. 정부가 천명한 'AI 3대 강국'을 위해서는 기술력과 신뢰도를 갖추고 동시에 데이터 유출 우려가 없는 '오픈 웨이트 AI 모델' 활용이 현실적으로 선택 가능한 최상의 선택지라 볼 수 있다. 라스킨 리플렉션 AI CEO는 “한국은 세계적인 IT 강국으로 미국의 강력한 동맹”이라며 “신세계와 함께 우리는 한국이 주체적으로 진화시켜 나갈 수 있는 AI 인프라를 창출할 것”이고 말했다. 신세계는 정부의 AI 경쟁력 강화와 소버린 AI 구축 비전에 발맞춰 한국 정부 기관과 기업 모두 안심하고 이용할 수 있는 AI 클라우드 서비스를 제공하고자 한다. 신세계 "AI를 미래 성장 축으로" 신세계는 AI 데이터 센터 추진을 기점으로 AI를 새로운 미래 성장 한 축으로 삼겠다는 계획이다. AI 시대에 최적화된 혁신을 실행함으로써 지속가능한 기업 발전을 이루겠다는 것이다. 신세계는 그동안 유통 산업을 선도했던 것처럼 신세계만의 인사이트를 더한 AI를 창조하고자 한다. 동시에 기존 유통업과의 시너지 창출도 도모할 계획이다. 신세계는 오랜 유통 업력을 통해 국내에서 가장 많은 고객 접점 인프라와 데이터를 보유하고 있다. 그간 축적한 노하우와 새롭게 발현될 AI 역량이 결합되면 고객에게 또 다른 새 경험과 혜택을 선사하는 '차별화된 AI 커머스'를 구현할 수 있다. 온라인 몰에서 고객에게 최적화된 맞춤형 상품을 골라주고 결제 배송까지 책임지는 'AI 에이전트'의 획기적 발전이 기대된다. AI 커머스뿐만 아니라 리테일 사업 전반에 적용할 'AI 풀 스택(Retail AI Full-Stack)'을 개발함으로써 재고 효율 개선 등을 포함한 관리 효율화를 이뤄 수익성을 개선할 수 있다. 또한 다가오는 배송 혁명 시대에 적합한, 보다 세밀하고 빠른 배송 로지스틱을 구축할 예정이다. 이를 통해 미래 유통업에 최적화된 '이마트 2.0' 시대를 열어 한국 리테일 시장 업그레이드를 주도하며 고객이 더 만족할 수 있는 경험을 선사하고자 한다. MOU를 기점으로 신세계와 리플렉션 AI의 AI 팩토리 사업은 신속하면서도 단계적으로 추진되며 양사는 올해 안에 조인트벤처를 설립할 계획이다. 신세계는 JV 설립 후 사업 진행을 위해 관련 기관 및 지자체 등과 긴밀하게 협의해 나갈 예정이다.

2026.03.17 07:34안희정 기자

엔비디아, Arm 기반 에이전틱 AI 특화 '베라' CPU 출시

엔비디아가 16일 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 Arm IP(지적재산권) 기반으로 자체 개발한 '베라(Vera)' CPU를 정식 출시했다. 엔비디아는 전 세대인 '그레이스(Grace)' CPU는 자체 설계했지만 블랙웰 GPU 제어 등에 활용하고 따로 판매하지 않았다. 그러나 올해부터는 베라 CPU를 별도로 분리해 공급할 예정이다. 베라 CPU는 Arm 기반 아키텍처 위에 엔비디아가 설계한 올림푸스 코어 88개를 탑재했다. GPU와 NV링크 인터페이스로 연결되며 AI 모델 실행과 데이터 이동을 효율적으로 처리하도록 설계됐다. 데이터 전송 대역폭은 최대 1.8TB/s 수준이다. 젠슨 황 엔비디아 CEO는 "베라 CPU는 AI 데이터센터에 특화된 맞춤형 CPU로 기존 서버용 CPU 대비 성능은 50% 향상됐고 전력 효율은 두 배로 높아졌다"고 설명했다. 알리바바와 코어위브, 메타와 오라클 클라우드 등 클라우드 서비스 제공사(CSP), 델테크놀로지스와 HPE, 레노버, 슈퍼마이크로 등 서버 제조사들이 베라 CPU 도입을 위해 엔비디아와 협업하고 있다. 엔비디아는 베라 CPU를 단일 칩뿐 아니라 256개 CPU를 묶은 액체 냉각 랙 시스템 형태로도 제공할 계획이다. 이 시스템은 2만2000개 이상의 CPU 환경을 동시에 실행할 수 있어 대규모 AI 서비스 운영에 적합하다. 젠슨 황 CEO는 "베라 CPU와 루빈 GPU 등 차세대 AI 인프라 플랫폼 관련 매출은 2025년부터 2027년까지 최소 1조 달러(약 1491조 5000억원)에 달할 것"이라고 전망했다.

2026.03.17 06:51권봉석 기자

엔비디아 "피지컬AI가 성장 주도…훈련→추론으로"

"AI가 생성 AI와 디지털 에이전트를 넘어 현실 세계에서 작동하는 단계로 진화하고 있다. 로봇과 자율주행으로 대표되는 '피지컬 AI'가 AI 산업의 다음 성장 축이 될 것이다." 16일(현지시간) 미국 캘리포니아 주 새너제이에서 개막한 연례 기술행사 'GTC 2026' 기조연설에서 젠슨 황 엔비디아 CEO가 이렇게 강조했다. 엔비디아는 이날 기조연설에서 AI 컴퓨팅 인프라 전략, 차세대 데이터센터 플랫폼 '베라 루빈', 기업용 에이전틱 AI 솔루션, 로봇과 자율주행까지 이어지는 장기 로드맵을 제시했다. "AI 산업, 모델 훈련에서 추론 중심으로 이동" 이날 젠슨 황 CEO는 AI 산업 핵심이 모델 훈련 중심에서 추론 중심으로 이동하고 있다고 강조했다. 생성 AI와 에이전틱 AI가 실제 서비스에 사용되기 시작하면서 AI가 지속적으로 판단하고 행동해야 하기 때문에 컴퓨팅 수요가 급격히 늘어나고 있다는 것이다. 젠슨 황 CEO는 "이런 추세에 따라 연산 요구량은 과거와 비교할 수 없을 정도로 증가하고 있다"며 "AI는 이제 단순한 모델이 아니라 지속적으로 작동하는 시스템이 되고 있다"고 설명했다. 최대 144개 GPU 연결 '루빈 울트라' 플랫폼 공개 엔비디아는 CES 2026 기조연설에서 올 하반기부터 투입될 데이터센터용 차세대 AI GPU '베라 루빈'을 공개한 바 있다. 베라 루빈은 Arm 기반 CPU '베라'와 차세대 GPU '루빈'을 결합해 대규모 AI 모델 학습과 추론을 동시에 처리할 수 있도록 설계됐다. 젠슨 황 CEO는 이날 최대 144개의 루빈 GPU를 연결한 루빈 울트라도 새로 공개했다. 내년에는 새 CPU인 '로자(Rosa)', 새 GPU 아키텍처 '파인만'을 결합한 차세대 플랫폼이 등장 예정이다. 젠슨 황 CEO는 "AI 산업은 수년 단위로 인프라 투자가 이루어지기 때문에 장기적인 플랫폼 로드맵이 중요하다"며 "매년 새로운 아키텍처를 시장에 투입할 예정"이라고 말했다. 베라 루빈에 그록 LPU 통합... 올 3분기 출시 이날 엔비디아는 베라 루빈 플랫폼에 작년 12월 인수한 추론 특화 칩 스타트업 '그록(Groq)'을 통합할 계획도 발표했다. 그록은 AI 모델의 추론이나 실행을 위해 설계된 '언어처리장치(LPU)'로 거대언어모델(LLM) 처리 가속 기술을 개발하는 회사다. 베라 루빈 플랫폼에 추가되는 그록 LPX는 256개 LPU를 모은 랙 단위 AI 추론 시스템이며 추론시 지연 시간을 낮춘다. 젠슨 황 CEO는 "그록3 칩은 삼성전자가 생산하고 있으며 이를 활용한 LPX 시스템은 올 3분기부터 시장에 출시 예정"이라고 설명했다. 보안 강화한 에이전틱 AI '니모클로' 공개 오픈소스 기반 에이전틱 AI 모델인 '오픈클로'는 강력한 자동화 기능을 갖췄지만 기업 환경에서는 예측 불가능한 행동과 데이터 유출이 문제로 지적됐다. 엔비디아는 이날 기업 환경에서 오픈클로를 활용할 수 있는 '니모클로(NemoClaw)'를 공개했다. 정책 기반 보안과 프라이버시 제어 기능을 추가하는 한편 AI 에이전트가 외부 시스템과 상호작용할 때 데이터 처리 방식과 권한을 통제할 수 있다. 젠슨 황 CEO는 "에이전틱 AI는 단순한 챗봇을 벗어나 기업 업무를 수행할 것이며 이런 에이전트를 배치하려면 보안, 정책 관리, 데이터 접근 제어 등이 필요하다. 니모클로는 이런 역할을 담당할 것"이라고 말했다. 자율주행 파트너사에 현대차그룹 합류 엔비디아는 메르세데스 벤츠와 토요타, GM 등 글로벌 완성차 업체와 함께 자율주행 플랫폼을 구축하고 이를 실제 상용차에 투입하고 있다. 이날 젠슨 황 CEO는 "BYD와 현대차그룹, 닛산과 지리 등이 자율주행 파트너로 새롭게 합류했으며 기존 파트너사를 합하면 연간 생산 규모는 1천800만 대가 될 것"이라고 밝혔다. 현대차그룹은 올 초 신임 AVP본부장 겸 포티투닷(42dot) 대표이사로 박민우 전 엔비디아 부사장을 선임하는 등 독자 자율주행 체계 구축 대신 엔비디아와 협업을 예고한 바 있다. 젠슨 황 CEO는 이어 "전세계에 네트워크를 갖춘 우버와 함께 자율주행 로보택시 네트워크 구축도 추진할 것"이라고 설명했다. 기조연설 말미에 겨울왕국 '올라프' 로봇 등장 기조연설 말미에는 월트디즈니 내 연구조직인 '디즈니 리서치'가 엔비디아와 협업해 개발한 로봇인 '올라프(Olaf)'가 등장했다. 올라프는 겨울왕국 시리즈에 등장하는 캐릭터이며 이를 로봇으로 구현하기 위해 실제 세계를 시뮬레이션하는 옴니버스 기술과 피지컬 AI, 로봇 기술이 적용됐다. 올라프는 엔비디아의 피지컬 AI 기술과 로봇 응용 가능성을 보여주는 역할을 했다. 무대 위에 올라 관객을 향해 인사하고 젠슨 황 CEO와 자연스런 대화를 나누기도 했다. 젠슨 황 CEO는 "AI는 이제 소프트웨어를 넘어 현실 세계로 확장되고 있다"며 “로봇과 자율 시스템이 새로운 AI 산업을 만들어 갈 것”이라고 말했다.

2026.03.17 06:34권봉석 기자

삼성전자, GTC서 'HBM4E' 최초 공개…엔비디아와 AI 동맹 강화

삼성전자가 핵심 고객사인 엔비디아와의 협력을 강화한다. 엔비디아 연례 행사에서 차세대 고대역폭메모리(HBM)인 HBM4E 실물을 첫 공개할 계획이다. 해당 칩은 핀당 속도 16Gbps·대역폭 4TB/s을 지원한다. 삼성전자는 3월 16일부터 19일까지(현지시간) 미국 새너제이에서 열리는 엔비디아 GTC에 참가한다고 16일 밝혔다. 삼성전자는 이번 전시에서 차세대 HBM4E(7세대 고대역폭메모리) 기술력과 베라 루빈(Vera Rubin) 플랫폼을 구현하는 메모리 토털 솔루션을 유일하게 공급할 수 있는 역량을 앞세운다. 먼저 삼성전자는 이번 전시에서 'HBM4 히어로 월(Hero Wall)'을 통해 HBM4부터 핵심 경쟁력으로 떠오른 메모리, 로직 설계, 파운드리, 첨단 패키징을 아우르는 종합반도체 기업(IDM)만의 강점을 부각했다. '엔비디아 갤러리(Nvidia Gallery)'를 통해서는 AI 플랫폼을 함께 완성해 나가는 양사의 전략적 파트너십을 강조했다. 이 외에도 삼성전자는 전시 공간을 AI 팩토리(AI 데이터센터), 로컬 AI(온-디바이스 AI), 피지컬 AI 세 개의 존으로 구성해 기술력을 공식적으로 인정받은 GDDR7, LPDDR6, PM9E1 등 차세대 삼성 메모리 아키텍처를 소개했다. 한편 행사 둘째 날인 3월 17일(현지시간)에는 엔비디아의 특별 초청으로 송용호 삼성전자 AI센터장이 발표에 나서 AI 인프라 혁신을 이끌 엔비디아 차세대 시스템의 중요성과 이를 지원하는 삼성의 메모리 토털 솔루션 비전을 제시한다. 이를 통해 양사의 협력이 단순한 기술 협력을 넘어 AI 인프라 전반으로 확대되고 있음을 보여줄 예정이다. 차세대 HBM4E 칩 및 코어 다이 웨이퍼 최초 공개 삼성전자는 이번 전시에서 'HBM4 히어로 월'을 마련해 삼성의 HBM 기술 리더십을 가장 먼저 조명할 수 있도록 전시 동선을 구성했다. 삼성전자는 HBM4 양산을 통해 축적한 1c D램 공정 기반의 기술 경쟁력과 삼성 파운드리 4나노 베이스 다이 설계 역량을 바탕으로 차세대 HBM4E 개발을 가속화하고 있으며, HBM4E 실물 칩과 코어 다이 웨이퍼를 최초로 공개했다. 삼성전자 HBM4E는 메모리, 자체 Foundry와 로직 설계 역량, 그리고 첨단 패키징 기술 등 부문 내 모든 역량을 결집한 최적화 협업을 통해 핀당 16Gbps 속도와 4.0TB/s 대역폭을 지원할 예정이다. 또한 삼성전자는 영상을 통해 TCB(열압착본딩) 대비 열 저항을 20% 이상 개선하고 16단 이상 고적층을 지원하는 HCB(하이브리드 본딩) 기술을 공개하며, 차세대 HBM을 위한 삼성전자의 패키징 기술 경쟁력을 강조했다. 하이브리드 본딩은 구리(Copper) 접합을 기반으로 칩을 직접 연결하는 차세대 패키징 기술로, 열 저항을 낮추고 고적층 HBM 구현에 유리하다. 한편 삼성전자는 베라 루빈 플랫폼에 탑재될 HBM4 칩과 파운드리 4나노 베이스 다이 웨이퍼를 전면에 배치해, 차세대 칩을 구현하는 삼성의 HBM 라인업을 한눈에 확인할 수 있도록 전시를 구성했다. 삼성전자는 종합반도체 기업(IDM)만의 토털 솔루션을 통해 개발 효율을 강화해 고성능 HBM 시대에서도 성능과 품질을 압도하는 기술 선순환 구조를 구축할 계획이다. 삼성전자 "베라 루빈 플랫폼용 모든 메모리 솔루션 공급" 특히 삼성전자는 이번 전시를 통해 전 세계에서 유일하게 엔비디아 Vera Rubin 플랫폼의 모든 메모리와 스토리지를 적기에 공급할 수 있는 메모리 토털 솔루션 역량을 부각했다. 삼성전자는 'Nvidia Gallery'를 별도로 구성해 ▲Rubin GPU용 HBM4 ▲Vera CPU용 SOCAMM2 ▲스토리지 PM1763을 Vera Rubin 플랫폼과 함께 전시해, 양사의 협력을 강조했다. 삼성전자 SOCAMM2는 LPDDR 기반 서버용 메모리 모듈로 품질 검증을 완료하고 업계 최초로 양산 출하를 시작했다. 삼성전자 PCIe Gen6 기반 서버용 SSD PM1763은 베라 루빈 플랫폼의 메인 스토리지로, 삼성전자는 부스 내에서 PM1763이 탑재된 서버를 통해 엔비디아 SCADA 워크로드를 직접 시연해 사양 소개를 넘어 업계 최고 수준의 성능을 현장에서 체감할 수 있도록 했다. SCADA는 GPU가 CPU 병목 현상을 우회해 스토리지 I/O를 직접 시작하고 제어할 수 있어 AI 워크로드 성능을 극대화할 수 있도록 설계된 기술이다. 뿐만 아니라 삼성전자는 추론 성능과 전력 효율 개선을 위해 베라 루빈 플랫폼에 새롭게 도입된 CMX(Context Memory eXtension) 플랫폼에 PCIe Gen5 기반 서버용 SSD PM1753을 공급할 계획이며, 부스 내 AI 팩토리 존에서 제품을 확인할 수 있다.

2026.03.17 05:30장경윤 기자

"TSMC 70% 수준 생산한다"…테슬라 테라팹, AI 반도체 판을 바꿀까

일론 머스크(Elon Musk)가 테슬라(Tesla)의 자체 반도체 생산 프로젝트 '테라팹(Terafab)'이 오는 3월 21일 출범한다고 직접 공언했다. 핀테크위클리(FinTech Weekly)에 따르면, 머스크는 지난 3월 14일 엑스(X)에 "테라팹 프로젝트가 7일 후 시작된다"고 게시하며 일정을 공식화했다. 테라팹은 테슬라가 지난 1월 28일 실적 발표에서 처음 공식 확인한 프로젝트다. 머스크는 당시 투자자들에게 3~4년 내 공급 부족이 현실화될 것으로 예상되며, 이를 막으려면 자체 반도체 생산 시설이 반드시 필요하다고 밝혔다. 이 시설은 로직 처리, 메모리 저장, 첨단 패키징을 한 지붕 아래 통합하는 수직 계열화 구조로, 대만과 한국 외 민간 기업 중 이 규모로 운영하는 곳은 현재 없다. 프로젝트 추정 비용은 약 250억 달러(약 36조 원)로, 테슬라의 2026년 사상 최대 설비투자 계획 중 일부를 이룬다. 다만 최고재무책임자(CFO) 바이브하브 타네자(Vaibhav Taneja)는 실적 발표에서 테라팹 전체 비용이 해당 수치에 아직 완전히 반영되지 않았다고 밝혔다. 생산 목표는 구체적이다. 연간 1,000억~2,000억 개의 맞춤형 AI 및 메모리 반도체 생산을 목표로 하며, 초기 월 웨이퍼(wafer) 생산량 10만 장에서 출발해 100만 장까지 확대하겠다는 포부를 밝혔다. 이는 미국 단일 시설 기준으로 현재 TSMC 전체 생산량의 약 70%에 해당하는 규모다. 공정 기술은 현재 양산 중인 가장 앞선 노드인 2나노미터(nm)를 목표로 한다. 테라팹의 수혜자는 테슬라만이 아니다. 이 시설은 완전 자율주행(FSD) 소프트웨어, 사이버캡(Cybercab) 로보택시, 옵티머스(Optimus) 휴머노이드 로봇에 들어갈 AI 반도체를 공급한다. 머스크의 옵티머스 생산 계획이 요구하는 반도체 물량은 기존 외부 공급사인 TSMC나 삼성(Samsung)이 테슬라의 일정에 맞춰 공급을 약속하기 어려운 수준이다. 머스크의 또 다른 회사 엑스에이아이(xAI)도 이 그림 안에 있다. 머스크는 테라팹의 범위가 자율주행 모델 훈련용 슈퍼컴퓨터 도조(Dojo)와 xAI의 그록(Grok) 모델 훈련 인프라용 반도체까지 포괄한다고 밝혔다. xAI가 현재 운영하는 멤피스(Memphis) 슈퍼클러스터는 이미 세계 최대 규모의 GPU 클러스터 중 하나다. 테라팹은 그 다음 세대 인프라를 외부 공급망에서 완전히 독립시키는 토대가 된다. 핀테크위클리에 따르면, 테라팹이 성공할 경우 테슬라는 자체적으로 최첨단 AI 반도체를 대량 생산할 수 있는 극소수 주체 중 하나가 된다. 이는 자율주행차와 로보틱스 사업의 비용 구조를 근본적으로 바꾸고, xAI의 외부 연산 자원 의존도를 완전히 제거하는 결과로 이어질 수 있다. 자세한 내용은 핀테크위클리(FinTech Weekly)에서 확인할 수 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2026.03.16 22:13AI 에디터

"비용 10% 미만·유연한 조건"… 정부 GPU 파격 지원에 AI 업계 환호

인공지능(AI) 연구개발 수요 확대 속 정부의 산학연 대상 그래픽처리장치(GPU) 지원 정책이 본격화되자 업계에서는 긍정적인 반응을 보이고 있다. 16일 과학기술정보통신부가 민간 GPU 임차와 정부 GPU 추가 배분을 병행하는 방식으로 산학연에 GPU 자원을 확대 지원하기로 하자 업계는 AI 생태계 조성과 연구 환경 개선 측면에서 의미 있는 정책이라고 평가했다. 임정환 모티프 최고경영자(CEO)는 "산학연에 GPU가 다량 공급된다는 사실 자체는 매우 긍정적으로 본다"며 "대학과 연구기관에서는 GPU 부족 때문에 하고 싶었던 실험이나 연구를 못 하는 경우가 많았는데 이런 기회가 늘어날 수 있다"고 말했다. 이어 "기술 개발은 다양한 곳에 자원이 분산돼 여러 아이디어가 실험될 때 발전하는 측면이 크다"며 "생태계 조성 관점에서도 의미 있는 정책 방향"이라고 평가했다. 김동환 포티투마루 대표는 "자부담금도 민간 클라우드 서비스 제공사(CSP) 대비 10%도 안 되는 저렴한 구조이고 특히 학계를 무상으로 지원하는 것은 정말 잘한 일"이라고 평가했다. 이어 지원 단서 조항은 자유 공모에 가까워 유연하게 접근할 수 있다는 점도 장점으로 꼽았다. 특히 이번 지원 사업은 과거 GPU 지원 사업 한계로 지적된 부분을 적극적으로 극복했다는 점에서도 호평을 받고 있다. 한 업계 관계자는 "지원 기간이 4개월로 확보돼 1개 프로젝트를 가지고 몇 가지 시도를 해보면서 제대로 한 번 돌려볼 수 있는 여유가 생겼다"며 "전체적으로 현장의 목소리를 많이 듣고 고민을 상당히 많이 해서 과제를 기획한 것 같다"고 말했다. 그동안 제기됐던 쪼개기식 단기 지원 등 기존 사업의 문제점들을 상당 부분 해소했다는 평가다. 업계에서는 이번 정책이 단순한 자원 공급을 넘어 AI 산업 생태계 확장으로 이어질 수 있다는 기대도 나온다. 한 AI 기업 관계자는 "정부가 AI 컴퓨팅 인프라를 확충하려는 방향성 자체는 산업 발전을 위해 필요하다"며 "특히 스타트업이나 연구기관 입장에서는 GPU 확보가 가장 큰 장벽 중 하나이기 때문에 일정 부분 도움이 될 것"이라고 말했다. 다만 실제 현장에서 체감 효과를 극대화하기 위해서는 앞으로도 세심한 지원 조건과 운영 방식이 중요하다는 의견도 있다. 다른 AI 기업 대표는 "정부 지원 자체는 환영하지만 과거 사례를 보면 지원을 받는 대신 학습 데이터 공개나 결과물 공개 같은 조건이 붙는 경우가 있었다"며 "이런 조건이 과도하면 기업 입장에서는 참여가 부담스러울 수 있다"고 지적했다. 또 다른 관계자 역시 GPU 사용 기간과 운영 방식의 중요성을 거듭 당부했다. 그는 "GPU를 활용하려면 데이터 업로드와 학습 환경 구축 등에 시간이 걸리는데 지원 기간이 짧거나 자원이 쪼개져 제공되면 오히려 활용이 어려울 수 있다"며 "실제 개발과 연구에 충분히 사용할 수 있는 환경을 지속적으로 만들어가는 것이 중요하다"고 말했다. 정부는 이번 GPU 임차 사업과 추가 GPU 배분을 통해 산학연의 AI 연구개발 환경을 개선하고 AI 컴퓨팅 인프라 기반을 확대한다는 계획이다. 업계는 이러한 정책 방향에는 공감하면서도 실제 연구와 산업 현장에서 안정적이고 지속적인 지원에 대한 필요성도 강조했다. 박정호 뉴엔AI 전무(CTO)는"부족한 연상 능력을 확보 할 수 있어 반가운 소식"이라며 "다만 단순히 GPU만 지원 하기 보다는 AI옵스같은 통화 운영 환경으로 지원해 주면 보다 좋은 성과를 기대할 수 있을 것"이라고 조언했다. 김동환 대표는 "AI 기술이 성장하기 위해선 단기 지원뿐 아니라 장기적인 인프라 구축 전략이 병행돼야 국내 AI 기업과 연구기관의 경쟁력을 높일 수 있을 것"이라며 "정부가 지속적으로 GPU 인프라를 확충하고 안정적인 활용 환경을 마련하는 것이 중요하다"고 강조했다.

2026.03.16 18:52남혁우 기자

애피어, '에이전틱 AI가 여는 자율 마케팅의 미래' 백서 발간

애피어가 최신 백서 '에이전틱 AI가 여는 자율 마케팅의 미래'를 발간한다고 16일 밝혔다. 이번 백서는 에이전틱 AI가 현대 마케팅 조직의 새로운 운영 레이어로 부상함에 따라, AI가 단순한 반응형 보조 도구를 넘어 스스로 계획하고 실행하며 지속적으로 최적화하는 자율 시스템으로 진화하는 과정을 심도 있게 다룬다. 이를 통해 애피어는 에이전틱 AI 분야 선도 기업으로서의 입지를 더욱 공고히 한다는 계획이다. 단순 자동화를 넘어선 '자율 실행'으로의 진화 마케팅 산업은 현재 구조적 변곡점에 서 있다. 이런 변화는 단순한 기능 추가나 모델 업그레이드 때문이 아니라, 조직 내에서 AI 시스템이 작동하는 방식 자체가 근본적으로 바뀌고 있기 때문이다. 고객 여정은 점차 비선형적으로 변하고 채널 생태계는 복잡해지고 있다. 이 과정에서 마케팅 팀은 인간의 수동 워크플로우가 디지털 시그널의 속도를 따라잡지 못하는 '자율성 격차'에 직면하고 있다. 애피어의 백서는 에이전틱 AI가 단순한 'If-then' 방식의 자동화를 넘어, 지속적인 데이터 반복 학습과 폐쇄 루프(Closed-loop) 의사결정, 조율된 실행 프레임워크를 통해 이 격차를 어떻게 해소하는지 설명한다. 백서에 포함된 실제 도입 사례에 따르면, 기존에 3일이 소요되던 캠페인 활성화 시간이 1시간 이내로 단축되는 등 특정 시나리오에서 운영 속도가 최대 24배 향상되는 성과를 거둔 것으로 나타났다. LLM을 넘어: AI 엔진을 조종하는 '파일럿'의 등장 본 보고서는 거대언어모델(LLM)과 에이전틱 AI 아키텍처의 차이점을 명확히 설명한다. LLM이 시스템의 강력한 '엔진'으로서 핵심 추론과 콘텐츠 생성을 담당하지만 복잡한 목표를 독립적으로 수행하거나 시간의 흐름에 따라 행동을 스스로 조정하는 데에는 한계가 있다. 에이전틱 AI로의 진화는 이러한 엔진에 '파일럿'을 더하는 과정이다. LLM에 실행력과 학습 능력을 결합한 에이전틱 AI는 반응형 도구에 머물던 LLM을 스스로 방향을 설정하고 적응하는 자율 마케팅 시스템으로 변모시킨다. 이런 구조적 변화는 마케터를 단순 반복적인 운영 업무에서 해방시켜, 고부가가치 창의성 발휘와 전략 기획에 집중할 수 있는 '전략적 존엄성'을 되찾아준다. 에이전틱 생태계: 운영에서 전략 중심으로의 격상 애피어는 마테크(마케팅+테크) 생태계가 분절된 도구 중심 구조에서 벗어나, 인사이트와 실행 사이의 간극을 메우는 연결된 자율 시스템으로 이동하고 있다고 분석했다. 이 모델에서는 데이터 인텔리전스, 마케팅 실행, 대화형 커머스 분야의 전문 에이전트들이 '폐쇄 루프 성장 엔진' 안에서 협업하며, 실시간 시그널을 모든 접점에서의 즉각적인 실행으로 연결한다. 이러한 진화는 마케팅 팀의 역량 배분 방식을 근본적으로 바꾼다. 에이전틱 시스템이 오디언스 발굴, 다단계 테스트 설정, 실시간 캠페인 조정 등 고부하 운영 과업을 자율적으로 처리함에 따라, 마케터는 보다 핵심적인 역할에 집중할 수 있게 된다. 이 전환을 통해 팀은 전략적 감독, 창의적인 스토리텔링, 부서 간 거버넌스와 같이, 보다 고부가가치의 역할로 무게중심을 옮길 수 있게 된다. 이 같은 환경에서 실행은 더 이상 선형적인 방식에 머물지 않고, 측정 가능한 비즈니스 성과에 맞춰 유연하게 조정되는 협업형 시스템으로 작동하게 된다. 새로운 마케팅 운영 모델: 에이전틱 협업 체계를 향하여 애피어는 에이전틱 AI를 단기적 트렌드가 아닌, 차세대 마케팅 운영 모델의 근간으로 바라본다. 현대 브랜드의 핵심 과제는 단순히 데이터를 확보하는 것이 아니라, 도출된 인사이트를 인간의 한계를 넘어선 속도로 처리하여 정교한 실행으로 전환하는 능력에 있기 때문이다. 미래의 마케팅은 단순히 더 많은 도구를 추가하는 것이 아니라, 인텔리전스와 실행이 끊임없이 스스로 개선되는 루프 속에 존재하는 '연결된 에이전틱 협업 체계'를 구축하는 방향으로 나아갈 것이다. 이를 통해 조직은 반응형 보조 도구에 의존하던 방식에서 벗어나 스스로 구동되는 '자율 주행 성장 엔진'을 확보하게 되며, 전례 없는 비즈니스 ROI와 운영 규모의 확장성을 실현하는 동시에 마케터들이 보다 중요한 전략 결정에 전념하도록 도울 수 있다. 치한 위 애피어 대 겸 공동창업자는 "오늘날 마케팅의 핵심 과제는 단순히 데이터를 확보하는 것이 아니라, 인사이트를 조율된 실행으로 전환하는 역량”이라며 "마케팅 환경이 복잡해질수록 의사결정 루프에 자율성을 내재화하는 것은 조직이 전략적 통제권을 유지하면서도 압도적인 민첩성을 확보할 수 있는 필수 조건이 되고 있다. 이번 백서는 에이전틱 시스템이 어떻게 팀의 실행력을 비즈니스 목표에 밀착시킬 수 있는지 그 방향을 제시한다"고 밝혔다. 에이전틱 도입 준비성과 적합성을 평가하기 위한 전략적 프레임워크가 포함된 '에이전틱 AI가 여는 자율 마케팅의 미래' 백서 전문은 애피어 공식 홈페이지에서 확인할 수 있다.

2026.03.16 17:44백봉삼 기자

[ZD SW 투데이] 와들, 공구장터에 대화형 AI 에이전트 '젠투' 공급 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆와들, 공구장터에 대화형 AI 에이전트 '젠투' 공급 와들이 공구·산업용재 종합 쇼핑몰 공구장터에 대화형 AI 에이전트 솔루션 '젠투'를 공급해 실시간 고객 상담 서비스를 제공한다. 젠투는 기업·사업자·구매자의 각 조건에 맞는 공구를 추천해 구매 결정을 지원하고, 영업 담당자는 견적 확인과 최종 구매에 집중한다. 공구장터가 메인 화면 상단에 AI 상담창을 직접 연동한 결과 월평균 1500건 이상의 유효 고객 문의를 처리한 것으로 나타났다. 이를 통해 축적된 상담 데이터는 상품 기획과 마케팅에 활용하고 있다. ◆킵그로우, 에이전틱 커머스 '1초 회원가입' 테마 2종 출시 킵그로우가 에이전틱 커머스 시대에 대응하는 '1초 회원가입' 전략형 테마 2종을 출시했다. 이 제품은 AI 에이전트가 상품 탐색부터 장바구니까지 자동 처리하면서도 이메일 인증·비밀번호 설정 등 다단계 회원가입 화면 앞에선 멈출 수밖에 없다는 문제의식에서 출발했다. 신규 테마는 할인·쿠폰 노출로 즉시 전환을 유도하는 '커머스 테마'와 브랜드 톤앤매너를 가입부터 결제까지 일관되게 유지하는 '브랜드 테마' 2종으로 구성된다. 네이버·카카오 소셜 계정 기반의 간편 가입 구조를 기반으로, AI 에이전트가 별도 인증 절차 없이 통과할 수 있도록 설계됐다. ◆슈프리마, AI 무인매장 보안 솔루션으로 스마트상점 기술보급사업 참여 슈프리마가 소상공인시장진흥공단의 '2026년 스마트상점 기술보급사업'에 6년 연속 참여해 AI 무인매장 보안 솔루션을 제공한다. 2년 연속 우수 기술공급기업으로 선정된 슈프리마는 올해도 소상공인의 디지털 전환을 지원한다. 슈프리마는 이 사업을 통해 QR코드·카카오·네이버 계정 기반 출입인증 장치, 지능형 CCTV, 모바일 매장관리 앱을 소상공인에게 공급한다. 복잡한 절차 없이 스마트폰으로 출입 인증이 가능하고, 이상행동 감지·원격 출입문 제어 등 실시간 관리 기능을 갖춰 무인매장 보안과 운영 효율을 동시에 높일 수 있다. ◆딥파인, 국제물류산업대전서 물류 산업 AX 방안 제시 딥파인이 오는 31일부터 다음 달 3일까지 킨텍스에서 열리는 '국제물류산업대전(KOREA MAT 2026)'에 참가한다. 이번 전시에서 딥파인은 창고관리시스템(WMS) 연계·드론 재고조사·비전 피킹 등을 통합한 '스마트 물류 시스템'과 별도 설비 투자 없이 중소형 물류센터에서도 즉시 적용 가능한 '가상 디지털 분류 시스템(DAS) 기반 피킹 시스템'을 소개한다. 관람객이 스마트글라스를 착용하고 피킹부터 패킹·배송까지 전 과정을 직접 체험할 수 있는 부스도 운영한다. 딥파인은 실제 물류센터 적용 결과 시간당 피킹 생산성 58% 이상 향상, 재고조사 정확도 99% 이상의 성과를 확인했다고 전했다. ◆네비우스, 아태·일본 지역 확장 위한 총괄 책임자 선임 네비우스가 아시아태평양·일본 지역 상업 확장을 총괄할 책임자로 존 하러를 선임하며 아태 시장 공략을 본격화한다. 작년 479% 매출 성장을 기록한 네비우스는 마이크로소프트·메타 등 대기업을 포함한 수백 개 고객사를 확보하며 성장 궤도에 올랐다. 클라우드플레어·트윌리오 등에서 10년 이상 아태 전략을 이끈 하러 총괄 책임자는 싱가포르에 주재하며 한국·일본·인도 등 주요 시장을 담당하게 된다. 네비우스는 37억달러의 현금을 보유하고 있으며, 올해 말까지 연환산 매출 70억~90억달러를 목표로 하고 있다.

2026.03.16 17:26이나연 기자

'9년 뚝심' 퓨리오사AI, 양산 칩 내놓고 실증 시험대 올라

글로벌 AI 산업이 인프라 확장에 따라 학습에서 추론영역으로 급격히 이동하면서 전 세계 데이터센터는 전력 수급과 운영 비용이라는 거대한 장벽에 직면해 있다. 현재 데이터센터의 약 80%가 15kW 미만의 저전력 인프라에 묶여 있어, 엔비디아의 고전력 솔루션을 무작정 도입하기 어려운 상황이다. 시장은 단순히 연산 속도가 빠른 칩이 아니라, 기존 설비 내에서 최대의 경제성(ROI)을 뽑아낼 수 있는 실질적인 대안을 요구하고 있다. 2017년 설립된 국내 1세대 NPU(신경망처리장치) 기업 퓨리오사AI는 이 지점을 파고든다. 지난 9년간 축적한 소프트웨어(SW) 풀스택 기술력을 바탕으로, 하드웨어의 물리적 한계를 최적화된 알고리즘으로 극복하는 전략을 취하고 있다. 지난 1월 말 TSMC로부터 2세대 양산형 칩 '레니게이드(RNGD)' 실리콘을 국내 업체 중 가장 먼저 수령하며 실전 등판 준비를 마친 퓨리오사AI는 이제 단순한 기술 검증을 넘어 실제 대규모 양산을 통한 시장 안착이라는 시험대에 올랐다. [강점: Strength] 메타가 주목한 SW 기술력과 '실물 칩' 기반 선제적 라인업 퓨리오사AI의 핵심 경쟁력은 하드웨어 하위 스택을 지원하는 소프트웨어 역량이다. 과거 글로벌 빅테크 메타(Meta)가 퓨리오사AI의 소프트웨어 스택 유효성을 검토해 인수를 타진했을 정도로, 이들의 최적화 기술은 업계 내에서 높은 평가를 받는다. AI 반도체 업계 관계자는 "지난 2024년 핫칩스 당시 메타가 퓨리오사AI의 데모를 본 뒤 인수 제안이 나온 걸로 안다"며 "퓨리오사AI의 소프트웨어 팀은 업계에서도 잘하는 걸로 정평이 나 있다"고 말했다. 특히 최근 배포된 SDK(소프트웨어개발도구)는 추론 효율을 극대화하기 위한 기능적 업데이트에 집중했다. 핵심 기술인 '하이브리드 배칭'은 서로 다른 연산 특성을 가진 복수의 사용자 요청을 통합 처리해 하드웨어 자원의 유휴 시간을 줄인다. 또한 '프리픽스 캐싱' 기능을 통해 LLM 추론 시 첫 토큰 생성 속도를 높이고 전체 처리량을 이전 버전 대비 2배 이상 개선했다. 여기에 국내 경쟁사들보다 앞서 2세대 양산형 실물 칩을 확보했다는 점은 시장 대응력 측면에서 고지를 점하게 했다. 통상 반도체는 설계 완료 후 실제 칩이 나오기까지 수개월의 시간이 소요되는데, 퓨리오사AI는 이미 확보된 실물 실리콘을 바탕으로 즉각적인 성능 검증과 고객사 PoC(개념검증)에 돌입했다. 이는 단순히 설계도 상의 수치를 제시하는 수준을 넘어, 고객사가 자신의 데이터센터 환경에 칩을 직접 꽂아보고 실시간 성능을 확인할 수 있음을 의미한다. 이러한 선점 효과를 활용해 제품군을 세분화하는 전략에도 속도를 내고 있다. 연산 성능 중심의 '레니게이드 맥스', 메모리 대역폭을 확장한 '플러스', HBM(고대역폭 메모리) 대신 GDDR을 탑재해 60W급 초저전력을 구현한 '레니게이드 S'까지 라인업을 구성했다. 가장 먼저 칩을 수령한 만큼 시장의 피드백을 빠르게 반영해 제품을 최적화할 수 있으며, 고객사의 인프라 제약 조건에 맞춰 즉각적인 커스텀 솔루션을 제공할 수 있다는 점은 글로벌 시장 안착을 위한 강력한 무기가 될 전망이다. [약점: Weakness] 지난해 매출 약 70억원…"자본 전쟁 속 체력 검증대" 퓨리오사AI가 직면한 가장 냉혹한 현실은 화려한 기술적 지표와 대비되는 재무적 성적표다. 업계에 따르면 퓨리오사AI의 지난해 매출은 약 70억원 안팎으로 추산된다. 이는 경쟁사인 리벨리온이 같은 기간 달성한 약 350억원 매출의 5분의 1 수준이다. 9년이라는 최장 업력을 보유했음에도 불구하고, 매출 규모 면에서는 후발 주자에게 선두 자리를 내어준 모양새다. 이러한 실적 열세의 근본 원인으로는 1세대 칩인 'VNPU'의 시장 안착 부진이 꼽힌다. 전 세대 제품이 실제 서비스 현장에서 충분한 상용화 레퍼런스를 구축하지 못하면서, 기업의 현금 창출 능력이 제한됨은 물론 차세대 칩인 레니게이드에 대한 시장의 신뢰도에도 심리적 부담을 안기고 있다. 1세대의 판매고가 2세대의 양산 자금으로 이어지는 선순환 구조를 만들지 못했다는 점은 뼈아픈 대목이다. 특히 현재 글로벌 AI 반도체 시장이 단순한 '기술력 대결'을 넘어 막대한 물량을 쏟아붓는 '자본 전쟁'으로 치닫고 있다는 점은 퓨리오사AI에 더 큰 위협이다. 독자적인 스타트업 형태를 유지하고 있는 퓨리오사AI로서는 카드당 천만원 수준의 고가 칩을 수만 개 단위로 양산하기 위한 자금 동원력이 사업 스피드를 결정짓는 절대적인 변수가 될 수 밖에 없다. 결국 전 세대 칩의 낮은 판매량이 남긴 재무적 공백을 2세대 양산 과정에서 얼마나 빠르게 메우느냐가 향후 생존을 결정지을 핵심 과제가 될 전망이다. [기회: Opportunity] '대통령이 먼저 찾은 기업'…9년 업력의 국가적 대표성 퓨리오사AI는 국내 최장수 NPU 기업으로서 대한민국 AI 반도체의 상징적 존재다. 실제로 이재명 대통령은 대선 후보 시절, AI 반도체 산업 강조를 위한 첫 현장 행보로 퓨리오사AI를 방문했다. 이러한 정책적 상징성은 현 정부의 강력한 지지와 정책 자금 투입으로 이어지는 기회 요인이 되고 있다. 오랜 업력은 투자 시장에서도 신뢰의 근거가 되고 있다. 퓨리오사AI는 2017년 설립 이후 9년간 꾸준한 연구개발과 성과를 통해 독보적인 위치를 점해왔다. 이는 신생 업체가 단기간에 따라잡기 힘든 무기다. 특히 퓨리오사AI는 네이버 D2SF, DSC인베스트먼트, 산업은행 등 유수의 투자사들로부터 대규모 자금을 수혈받으며 성장의 발판을 마련했다. 최근 시장에서 평가받는 기업 가치(밸류)는 약 3조원 수준에 달한다. 퓨리오사AI는 이를 발판으로 상반기 내 최대 5억 달러(약 7천500억원)의 대규모 펀딩을 마무리할 계획이다. 이러한 투자 시장의 뜨거운 러브콜은 양산 단계에 진입한 퓨리오사AI의 기술적 가치를 글로벌 시장이 높게 평가하고 있다는 방증이다. 퓨리오사AI 관계자는 "양산 개시 이후 국내외 기관들의 투자 관심이 매우 뜨겁다"며 "현재 추진 중인 펀딩을 통해 확보한 자금을 바탕으로 글로벌 경쟁력을 갖춘 양산 체계를 더욱 공고히 할 것"이라고 전했다. [위협: Threat] 생산 거점 이원화 논란과 실제 수요처 확보의 불확실성 비즈니스 관점에서의 위협은 실질적인 수주 성과에 대한 시장의 의구심이다. 정부의 정책적 자금을 지원받으며 성장했음에도 양산 파운드리를 해외(TSMC)로 결정한 것은 기술적 선택과는 별개로 국내 산업 생태계 기여도 측면에서 아쉬움 섞인 시선을 받고 있다. 특히 업계에서는 실제 주문량과 양산 규모 사이의 괴리에 주목하고 있다. 디자인하우스 관계자는 "TSMC 쪽에 대량의 구매주문(PO)을 넣을 것이라는 이야기가 들리지만, 현재 확보된 고객사인 LG 물량만으로는 그 규모가 매칭되지 않는다"고 지적했다. 이어 "지난해 매출이 50억~70억원 남짓했던 회사가 갑자기 1천억원을 얘기하는 상황인데, 명확한 고객이 보이지 않는 상태에서 공격적인 양산은 자칫 큰 리스크가 될 수 있다"며 "투자를 받기 위한 제스처로 보일 수 있다"고 우려를 표했다.

2026.03.16 17:18전화평 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

K-엔비디아 육성에 50조 투자...배경훈 "GPU 독점 깬다"

AWS "AI 에이전트 시대, 스타트업 글로벌 진출 기회 넓힌다"

BTS 광화문 공연 간다면…'이것' 꼭 확인하세요

KT 이사회 논란, 정기 주총 벽 넘을까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.