• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'텔레그램초대인원작업 | 텔문의 ON4989 | 텔레그램프리미엄판매 작업 텔레그램그룹방맴버늘리기대행업체,2RS'통합검색 결과 입니다. (5395건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

포티넷, AI 환경 최적화한 보안 운영 체제 공개

글로벌 네트워크 보안 기업 포티넷(대표 켄 지) 인공지능(AI) 환경에 최적화된 보안 운영(SecOps) 플랫폼을 공개했다. 네트워킹과 보안 운영을 단일 AI 기반 아키텍처로 통합해 전체 디지털 인프라의 복잡성을 해소하고 일관된 보호 체계를 구축했다. 포티넷은 17일 보안 네트워킹의 핵심 운영체제인 포티OS 8.0의 업데이트를 통한 보안 운영 플랫폼 전반에 걸친 주요 혁신 기능을 발표했다. 포티OS 8.0은 생성형 AI 도입과 클라우드 확산 등 급격한 디지털 전환 과정에서 비즈니스 속도를 저해하지 않으면서도 보안을 유연하게 확장할 수 있는 토대를 마련했다. 강력한 가시성과 제어 기능을 제공함으로써 승인되지 않은 '섀도우 AI' 사용 현황을 실시간으로 식별해 컴플라이언스 리스크를 최소화했다. 또 민감 데이터 유출 위험이 잇는 작업만 선별적으로 차단해 직원의 생산성과 지적 재산 보호를 동시에 달성한다. 특히 OCR 기술이 접목된 데이터 유출 방지(DLP)와 에이전트 간 상호작용 추적 기능을 통해 기존 보안 체계를 우회하는 이미지 내 데이터 유출이나 숨겨진 AI 활동까지 차단한다. 성능 요건과 규제가 엄격한 환경을 위해 차세대 SASE(시큐어 액세스 서비스 엣지) 역량을 강화했다. 새롭게 도입된 'SASE Outpost'는 온프레미스, 프라이빗 데이터 센터 등 고객이 원하는 위치에 SASE POP를 배치해 사용자 가까이에서 로컬 보안을 수행하게 하며, '소버린 SASE' 옵션은 국가별 데이터 거주 요건에 맞춘 세밀한 제어권을 제공해 글로벌 규제 준수를 돕는다. SASE는 네트워크 연결(SD-WAN)과 클라우드 네이티브 보안 기술을 단일 플랫폼으로 통합한 아키텍처를 말한다. 동시에 통합 보안 운영 플랫폼은 공격자들이 AI를 무기화하는 속도에 맞춰 보안 운영이 동일한 속도로 대응할 수 있도록 대응하며, 자체 관리형부터 서비스형까지 아우르는 유연한 아키텍처를 구축했다. 이를 통해 보안 운영 센터(SOC)를 최적화할 수 있는 환경을 제공한다. 구체적으로 클라우드 기반 '포티SOC'는 보안 정보 및 이벤트 관리(SIEM), 보안 운영 자동화 및 대응(SOAR), 로그 분석 및 위협 인텔리전스 기능을 단일 서비스로 통합해 보안 도구의 파편화 문제를 해결했다. 뿐만 아니라 단순한 대화형 코파일럿을 넘어 스스로 경고 분류와 조사, 위협 사냥을 수행하는 '에이전틱 AI' 업무 흐름을 플랫폼 전반으로 확장했다. 이는 탐지부터 대응까지 맥락을 공유하며 자율적으로 작업을 실행해 SOC 팀의 운영 부담을 실질적으로 줄여준다. 켄 지 포티넷 최고경영자(CEO)는 "AI와 클라우드 도입이 가속화되는 환경에서 비즈니스 속도를 저해하지 않으면서 보안을 강화하려면 복잡성을 줄인 통합 운영체제가 필수"라며 "공격자의 AI 무기화에 맞서 보안 운영 역시 동일한 대응 속도를 갖춰야 한다"고 강조했다. 그는 이어 "자체 관리형부터 서비스형까지 아우르는 단일 아키텍처를 통해 조직이 환경에 구애받지 않고 SCO를 최적화할 수 있도록 지원할 것"이라고 말했다.

2026.03.17 14:12김기찬 기자

[현장] AWS "한국 스타트업 생태계 지원 확대"…AI 성장 전략 공개

아마존웹서비스(AWS)가 인공지능(AI) 시대 스타트업 성장 전략과 기술 혁신 비전을 제시했다. 생성형 AI를 넘어 에이전틱 AI와 피지컬 AI까지 확장되는 트렌드에 맞춰 국내 스타트업 생태계 확장을 이끈다는 목표다. 김영태 AWS 한국 스타트업 세일즈 총괄은 17일 서울 코엑스에서 열린 'AWS 유니콘데이 2026'에서 "지난 1년간 AI가 실생활에서 체감할 정도로 빠르게 발전했다"며 "한국 스타트업들도 다양한 영역에서 우리와 혁신을 만들어가고 있다"고 밝혔다. 이날 AWS는 AI 스타트업 생태계를 크게 다섯 영역으로 구분했다. AI 코딩, AI 팹리스, AI 플랫폼 및 최적화, AI 모델 프로바이더, AI 애플리케이션 등으로 각 영역에서 다양한 스타트업이 클라우드 기반 기술을 활용해 서비스를 개발하고 있다는 설명이다. 특히 AI 칩 설계 스타트업부터 비전 AI와 리걸테크까지 다양한 산업에서 AI 기반 서비스가 빠르게 확산되고 있다는 점을 강조했다. 김 총괄은 "국내 스타트업들은 AI 애플리케이션 영역에서 가장 활발하게 활동 중"이라며 "리걸테크·금융·커머스·마케팅 등 산업별 서비스들이 AI 모델을 활용해 실제 비즈니스 문제를 해결하고 있다"고 말했다. 이어 "우리는 스타트업이 초기 단계부터 글로벌 시장까지 확장할 수 있도록 투자 생태계 연결과 기술 지원을 제공한다"고 덧붙였다. 이날 차문수 슈퍼브에이아이 최고기술책임자(CTO)는 비전 파운데이션 모델을 기반으로 한 산업용 AI 혁신 전략을 소개했다. 슈퍼브에이아이는 제조·물류·영상 분석 등 다양한 산업에서 활용 가능한 비전 AI 기술을 개발 중이며 AWS 클라우드 기반 인프라를 활용해 모델 학습과 데이터 처리 환경을 구축하고 있다. 차 CTO는 산업 현장에서 기존 비전 AI가 갖는 한계로 '클로즈드 월드' 문제를 지적했다. 기존 시스템은 새로운 객체나 환경이 등장하면 다시 데이터를 수집하고 모델을 학습해야 하는 구조로 운영 비용과 시간이 크게 늘어난다는 것이다. 이를 해결하기 위해 슈퍼브에이아이는 제로샷 기반 비전 파운데이션 모델 '제로'를 개발했다. 이 모델은 자연어 프롬프트나 이미지 입력만으로 객체를 탐지할 수 있도록 설계돼 다양한 산업 환경에 빠르게 적용할 수 있다는 특징을 갖는다. 슈퍼브에이아이는 모델 개발 과정에서 대규모 데이터 파이프라인을 구축하고 AWS '세이지메이커 하이퍼팟'을 활용해 분산 학습 환경을 구성했다. 이를 통해 대규모 그래픽처리장치(GPU) 인프라를 효율적으로 활용하고 모델 학습 기간을 기존 대비 크게 단축했다. 또 데이터 자동 큐레이션과 자동 라벨링 파이프라인을 통해 수억 장 규모 데이터 가운데 핵심 데이터를 선별해 학습 효율을 높였다. 이 과정에서 AWS 스텝 펑션스와 S3 스토리지 등을 활용해 대규모 데이터 처리 환경을 구축했다. 차 CTO는 "우리 기술은 제조 공정 관리, 영상 관제, 물류 리테일 분석 등 다양한 산업에 적용되고 있다"며 "제조 공정에선 생산 단계별 작업을 영상 분석으로 자동 파악해 공정 효율을 높이고 물류 환경에서는 다품종 상품을 자동으로 인식해 재고 관리와 운영 최적화를 지원 중"이라고 강조했다. 다음으로 리걸테크 기업 로앤컴퍼니의 AI 서비스 사례도 소개됐다. 로앤컴퍼니는 생성형 AI 기반 법률 서비스 '슈퍼로이어'를 통해 변호사의 법률 리서치와 문서 작성 업무를 지원하는 AI 어시스턴트를 제공하고 있다. 슈퍼로이어는 530만 건 이상의 판례와 법령 데이터를 기반으로 법률 리서치와 문서 작성 기능을 지원한다. AWS의 생성형 AI 플랫폼 '아마존 베드록'을 활용해 여러 거대언어모델(LLM)을 조합한 서비스 아키텍처를 구축했으며 광학문자인식(OCR) 기반 문서 분석과 사건 중심 대화 기능 등을 통해 변호사 업무 흐름에 맞춘 기능을 구현했다. 이 서비스는 출시 1년 8개월 만에 2만 5000명 이상의 법률 전문가가 가입했으며 누적 질의 요청 건수는 520만 건을 넘어섰다. 사용자 조사 결과 법률 업무 생산성이 약 1.9배 향상된 것으로 나타났으며 서비스 추천 의향도 95% 이상으로 높은 만족도를 기록했다. 안기순 로앤컴퍼니 법률AI연구소장은 "슈퍼로이어는 530만 건 이상의 법률 데이터를 기반으로 할루시네이션을 최소화하고 변호사의 실제 업무 흐름에 맞춘 기능을 구현한 AI 서비스"라며 "AWS 베드록과 클라우드 보안 인프라를 기반으로 안정적인 서비스를 제공하고 향후 일본 등 아시아 시장으로 글로벌 확장을 추진하겠다"고 밝혔다.

2026.03.17 11:34한정호 기자

에쓰오일, 삼성SDS와 IT 통합 운영 본격화

에쓰오일이 디지털 기반 경영 환경 고도화에 나선다. 에쓰오일은 지난 16일 서울 마포구 삼성SDS 상암 데이터센터에서 삼성SDS와 IT 통합 운영(ITO) 사업의 본격적인 출발을 알리는 행사를 열었다고 17일 밝혔다. 에쓰오일은 지난해 삼성SDS와 통합 ITO 계약을 체결하고, 올해 3월부터 3년간 삼성SDS를 통합 IT 통합 운영 사업자로 선정했다. 삼성SDS는 애플리케이션과 IT 인프라 운영을 비롯해 보안, IT 진단, 클라우드 전환 컨설팅 등 IT 운영 전반에 대한 서비스를 제공하게 된다. 에쓰오일은 약 10년 만에 주요 IT 인프라를 삼성SDS 데이터센터로 이전하는 작업을 완료하며 시스템 안정성과 운영 효율성을 강화했다. 이를 통해 향후 클라우드 기반 IT 환경 전환을 위한 기반도 마련했다. 에쓰오일은 이번 사업을 통해 안정적인 IT 운영 체계를 구축하고 디지털 전환을 가속화한다는 계획이다. 류열 에쓰오일 사장은 “이번 데이터센터 이전과 통합 ITO 사업 착수는 에쓰오일 IT 인프라 운영 체계를 한 단계 고도화하는 계기가 될 것”이라며 “삼성SDS와의 협력을 통해 안정적인 IT 운영 기반을 강화하고 디지털 혁신을 지속적으로 추진해 나가겠다”고 말했다. 이준희 삼성SDS 사장은 “에쓰오일과의 통합 ITO 사업을 통해 안정적인 IT 서비스 운영을 지원하는 한편, 클라우드 기반 IT 환경 전환과 디지털 혁신을 적극 지원해 나가겠다”고 밝혔다.

2026.03.17 11:18류은주 기자

[현장] 로봇이 걷고 AI가 집을 꾸민다…스타트업 기술 혁신 한자리에

아마존웹서비스(AWS)와 한국 스타트업이 함께 만든 기술 협력의 결과물이 서울 코엑스 곳곳에서 펼쳐졌다. AWS는 17일 서울 코엑스에서 'AWS 유니콘데이 2026'을 개최해 AI 시대 스타트업의 성장 전략과 클라우드 기반 혁신 사례를 공유했다. 행사장에는 스타트업과 함께 구현한 AI 솔루션을 체험할 수 있는 'AI 익스피리언스 존'이 마련돼 실제 서비스와 기술 데모가 관람객들에게 공개됐다. 현장에는 로봇 관제 플랫폼부터 비전 AI 광고, AI 인테리어 설계, 스트리밍 플랫폼, 휴머노이드 로봇까지 다섯 개 국내 스타트업의 기술이 전시됐다. 첫 번째 부스에서는 로봇 관제 스타트업 팀그릿의 기술이 시연됐다. 전시장 한가운데 놓인 바퀴형 로봇과 4족 보행 로봇이 동시에 움직이며 하나의 화면에서 통합 제어되는 모습이 펼쳐졌다. 팀그릿의 로봇 관제 플랫폼 '코비즈'는 서로 다른 제조사의 로봇을 하나의 인터페이스에서 운영할 수 있도록 설계된 것이 특징이다. 로봇에서 전송되는 영상과 센서 데이터, 위치 정보 등이 클라우드를 통해 실시간으로 연결된다. 현장에서는 로봇과 XR 기기를 결합한 360도 영상 스트리밍까지 확인할 수 있었다. 이 솔루션은 AWS IoT 그린그래스 등 클라우드 기술을 기반으로 구축돼 원격 제어와 데이터 처리를 지원한다. 옆 부스에선 비전 AI 기업 피치에이아이의 광고 분석 시스템이 소개됐다. 전시 화면에는 카메라로 촬영된 보행자 데이터가 실시간으로 분석되며 성별과 연령대에 맞는 광고 콘텐츠가 자동으로 추천됐다. 오프라인 광고는 그동안 효과 측정이 어렵다는 한계가 있었지만, 피치에이아이는 AI 분석과 데이터 대시보드를 통해 광고 운영을 데이터 기반으로 전환하는 기술을 선보였다. AWS 기반 데이터 파이프라인과 시각화 도구를 활용해 비전 AI 데이터를 분석하고 의사결정을 지원하는 구조다. AI 인테리어 스타트업 아키스케치 부스에선 관람객이 자연어로 "북유럽 스타일 거실을 만들어 달라"고 입력하자 가구와 마감재가 자동으로 배치된 3D 공간이 화면에 나타났다. 기존에는 사용자가 직접 가구를 배치해야 했지만 AI 에이전트가 디자인을 추천하고 견적까지 계산해주는 방식이다. 아키스케치 솔루션에 주소만 입력하면 실제 아파트 도면을 3D로 불러와 설계를 시작할 수 있고 AI가 생성한 이미지는 약 1분 만에 실사 수준으로 렌더링된다. 이 기능은 아마존 베드록 에이전트코어 기반 AI 에이전트와 서버리스 아키텍처를 통해 구현됐다. 스트리밍 플랫폼 '씨미(CIME)'를 선보인 마플 부스에서는 4K 초고화질 방송이 실시간으로 송출됐다. 시연자가 방송 화면을 보며 박수를 치면 약 1초 뒤 스마트폰 화면에 동일한 장면이 나타났다. 낮은 지연시간과 고화질 스트리밍이 특징으로, AWS의 라이브 스트리밍 서비스인 아마존 IVS를 활용해 구현됐다. 플랫폼은 스트리머 수수료를 낮춰 사용자 상호작용을 높이면서도 고객 수익을 확대하는 구조를 구축했다. 행사장 한편에선 휴머노이드 로봇도 등장했다. 에이로봇이 개발한 산업용 로봇 '앨리스(ALICE)'다. 제조 현장에서 사람과 함께 작업하는 것을 목표로 설계된 모델로, 에이로봇이 자체 개발한 액추에이터를 적용해 산업 현장에서 필요한 힘과 정밀 제어를 동시에 확보했다. 로봇의 판단과 제어는 현장에서 이뤄지지만 대규모 학습과 데이터 분석은 AWS 기반 클라우드에서 진행된다. 여러 로봇이 축적한 데이터를 활용해 모델을 지속적으로 개선하는 구조다. 에이로봇은 이 기술력을 토대로 국가 프로젝트에 참여하고 있다. 데모 부스 곳곳에선 기술 설명을 듣기 위해 관람객이 모여들었다. 일부는 로봇을 직접 촬영하거나 AI가 생성한 인테리어 이미지를 살펴보며 스타트업 관계자에게 질문을 이어갔다. AWS와 스타트업의 협력 사례를 중심으로 구성된 데모존은 단순 기술 시연을 넘어 실제 서비스로 이어진 AI 활용 사례를 보여주는 공간으로 꾸려졌다. 데모 투어를 이끈 김진아 AWS 스타트업 솔루션즈 아키텍트는 "이전 행사에서는 AWS 직원들의 기술 아이디어 중심으로 데모를 보여줬다면, 올해는 고객사와 협업해 실제 비즈니스 문제를 해결하고 혁신한 사례를 중심으로 구성했다"고 강조했다.

2026.03.17 11:16한정호 기자

한국의결권자문, 최윤범 고려아연 회장 사내이사 선임 '찬성' 권고

고려아연은 한국의결권자문이 오는 24일 열리는 회사 정기주주총회를 앞두고 발간한 의안분석보고서에서 최윤범 회장의 사내이사 선임 찬성을 비롯해 고려아연 측이 추천한 이사 전원에 대해 찬성을 권고했다고 17일 밝혔다. 한국의결권자문은 이사 선임안 외에도 고려아연 측 안건 대부분에 찬성했다. 고려아연의 경영 성과와 미래 성장전략 추진에 대해서도 긍정적 평가를 내리며, 현 경영진 중심의 거버넌스 체제에 대한 지지 입장을 표명했다. MBK·영풍 측이 제안한 이사 6인 선임안, 액면분할, 집행임원제 등 대부분의 안건에 반대 의견을 밝혔다. 한국의결권자문은 고려아연 현 이사회가 추천한 최윤범 사내이사 후보, 황덕남 사외이사 후보뿐 아니라 김보영 감사위원 후보에 대해서도 찬성을 권고했다. MBK·영풍 측이 추천한 박병욱, 최연석 기타비상무이사 후보와 최병일, 이선숙 사외이사 후보 등 4인의 후보에 대해서는 모두 반대 입장을 밝혔다. MBK·영풍 측이 추천한 이사 후보가 선임될 경우 경영 안정성에 대한 사회적 우려를 야기하고, 고려아연의 주주가치 제고에도 부정적 영향을 배제하기 어렵다는 평가다. 이번 정기주총 핵심 안건인 '집중투표에 의해 선임할 이사의 수 결정'과 관련해서도 고려아연 측이 지지하는 이사 5인 선임안에 찬성했다. 분리선출 감사위원 확대를 위한 정관 변경의 안과 감사위원으로서 이민호 사외이사를 분리선임하자는 회사 측 제안에도 모두 동의했다. MBK·영풍 측이 제안한 이사 6인 선임안은 올해 9월까지 분리선출 감사위원 2인을 둬야 한다는 개정 상법을 이행하기 어렵게 만든다며 부정적 입장을 피력했다. 이 외에도 한국의결권자문은 회사 측이 제안한 ▲소수주주에 대한 보호 관련 정관 명문화 ▲전자주주총회 제도 도입 ▲이사회 내 독립이사 구성요건 명확화 및 독립이사 명칭 변경 ▲분기배당 관련 정관 변경 등 고려아연 현 이사회가 추진하는 거버넌스 개선 안건 대부분을 지지했다. 한국의결권자문은 MBK·영풍 측 주주제안을 대부분 배척하며, 신주발행 시 이사의 충실의무 도입을 위한 정관 변경과 집행임원제 도입 등이 불필요하다고 지적했다. 특히 집행임원제 도입은 경영권 분쟁 상황에서 경영권 확보 방안 중 하나로 제안된 점에서 MBK·영풍의 진정성과 객관성을 확인하기 어려우며, 도입 후 제도 운영의 효율성과 안정성도 담보하기 어렵다고 지적했다. 고려아연은 다른 의결권자문사들도 이번 주주총회의 핵심 쟁점으로 분석되는 이사 수 선임안과 관련해 고려아연이 제안한 이사 5인 선임안을 찬성했다고 강조했다. 고려아연 측이 추천한 이사 대부분에 대해서도 지지 입장을 표명했다. 한국ESG연구소는 지난 16일 발간한 의안분석보고서를 통해 고려아연 현 이사회가 추천하는 이사 및 감사위원 후보와 안건 전반을 지지했으며, MBK·영풍 측 안건에는 일부 부정적 평가를 내렸다. 글래스루이스도 지난 11일 의결권 권고 보고서를 통해 고려아연 측이 추천한 이사 후보 2인, 감사위원 후보 2인 선임에 찬성하고 MBK·영풍 측 추천 후보 전원에 반대 입장을 밝혔다. 한국ESG평가원은 지난 6일 의안분석보고서에서 현 경영진 체제에서 보여주는 실적과 거버넌스 개선, 주주환원율 제고를 긍정적으로 평가하며 고려아연 현 이사회가 지지하는 안건에 대한 찬성을 권고했다. 또다른 글로벌 의결권자문사 ISS는 지난 9일 발표한 의결권 권고 보고서를 통해 이사 5인 선임안 및 분리선출 감사위원 확대에 대해 찬성 의견을 밝혔다. 고려아연 관계자는 “한국의결권자문은 현 경영진의 경영 성과와 기업가치 제고 행보, 주주환원 정책 등을 종합적으로 검토해 안건에 대한 의견을 밝힌 것으로 생각한다”며 “고려아연은 앞으로도 주주와 투자자, 시장 관계자 등 이해관계자와 활발히 소통을 이어가며 거버넌스 개선 작업을 지속하고 우수한 경영 성과를 이어갈 수 있도록 노력할 것”이라고 말했다.

2026.03.17 10:55김윤희 기자

엔비디아, 'AI 데이터 자동 생성 플랫폼' 공개…자율주행·로봇 개발 데이터 부족 지원

엔비디아가 로봇, 비전 인공지능(AI), 자율주행차 개발에 필요한 대규모 학습 데이터를 자동으로 생성하고 관리하는 개방형 아키텍처를 제공한다. 엔비디아는 17일 미국 새너제이에서 열린 'GTC 2026'에서 로보틱스와 자율주행, 비전 AI 에이전트 개발을 위한 '피지컬 AI 데이터 팩토리 블루프린트'를 발표했다. 이 기술은 물리 환경에서 동작하는 AI 시스템 학습에 필요한 데이터 생성, 확장, 평가 과정을 하나의 구조로 통합해 개발 속도를 높이는 것이 목적으로 다음 달 깃허브를 통해 공개될 예정이다. 이번 블루프린트는 현실에서 확보하기 어려운 다양한 학습 데이터를 생성할 수 있도록 설계됐다. 엔비디아의 '코스모스' 오픈 월드 기반 모델과 코드 생성 에이전트를 활용해 제한된 실제 데이터를 대규모 데이터셋으로 확장할 수 있다. 마이크로소프트 '애저'와 네비우스 등 클라우드 기업과 협력해 해당 아키텍처를 클라우드 인프라와 결합했다. 이를 통해 기업들은 대규모 컴퓨팅 자원을 데이터 생성 엔진처럼 활용해 물리 AI 학습 데이터를 대량으로 생산할 수 있다. 현재 필드AI, 헥사곤 로보틱스, 링커 비전, 마일스톤 시스템즈, 로보포스, 스킬드 AI, 테라다인 로보틱스, 우버 등 주요 물리 AI 개발 기업들이 이 기술을 활용해 로봇과 자율주행 시스템 개발을 진행하고 있다. 피지컬 AI 데이터 팩토리 블루프린트는 데이터 수집부터 학습 데이터셋 구축까지 이어지는 자동화 구조를 제공한다. 먼저 '코스모스 큐레이터'가 실제 및 합성 데이터를 정제하고 주석을 추가한다. 이어 '코스모스 트랜스퍼'가 데이터를 확장해 다양한 환경과 조건을 반영한 학습 데이터를 생성한다. 마지막으로 '코스모스 이벨류에이터'가 데이터의 물리적 정확성과 학습 적합성을 평가한다. 엔비디아는 이 기술을 활용해 장기 꼬리 상황을 포함한 자율주행 학습을 위한 비전·언어·행동 모델 '알파마요'를 훈련하고 있다. 스킬드 AI는 범용 로봇 파운데이션 모델 개발에 이 기술을 적용하고 있으며, 우버 역시 자율주행 기술 개발 속도를 높이기 위해 활용하고 있다. 또한 대규모 데이터 생성 작업을 자동으로 관리하기 위한 오픈소스 오케스트레이션 프레임워크 '오스모'도 함께 제공한다. 이 시스템은 다양한 컴퓨팅 환경에서 AI 워크플로를 통합 관리해 개발자가 인프라 운영보다 모델 개발에 집중할 수 있도록 돕는다. 오스모는 앤트로픽의 '클로드 코드', 오픈AI의 '코덱스', 커서 등 코드 생성 AI 에이전트와도 연동된다. 이를 통해 AI 에이전트가 자원 관리와 작업 자동화, 병목 해결 등을 수행하는 AI 중심 운영 환경을 구축할 수 있다. 마이크로소프트는 해당 블루프린트를 기반으로 한 오픈 피지컬 AI 도구 체계를 깃허브를 통해 제공할 예정이다. 애저 사물인터넷 운영, 마이크로소프트 패브릭, 실시간 인텔리전스, 마이크로소프트 파운드리 등 서비스와 연계해 기업 환경에서 대규모 AI 학습과 검증을 지원한다. 네비우스 역시 내부 AI 클라우드에 오스모를 통합했다. 이 플랫폼은 엔비디아 'RTX 프로 6000 블랙웰 서버 에디션' GPU와 초고속 스토리지, 데이터 관리 기능, 서버리스 실행 환경 등을 결합해 물리 AI 개발을 위한 인프라를 제공한다. 마일스톤 시스템즈, 복셀51, 로보포스 등 초기 사용자들은 네비우스 인프라에서 이 블루프린트를 활용해 영상 분석 AI 에이전트, 자율주행 시스템, 산업용 휴머노이드 로봇 개발을 진행하고 있다. 레브 레바레디언 엔비디아 옴니버스 및 시뮬레이션 기술 부문 부사장은 "피지컬 AI는 AI 혁명의 다음 단계이며 성공의 핵심은 얼마나 많은 데이터를 생성할 수 있는지에 달려 있다"며 "클라우드 기업들과 협력해 컴퓨팅 자원을 고품질 데이터 생산 시스템으로 전환하는 새로운 에이전트 기반 엔진을 제공하고 있다"고 말했다.

2026.03.17 10:46남혁우 기자

엔비디아, 자율주행·로봇·신약 개발까지…차세대 오픈소스 AI 모델 공개

엔비디아가 로봇, 자율주행, 신약 개발 등에 활용되는 오픈소스 인공지능(AI) 모델 제품군을 공개했다. 엔비디아는 17일 미국 새너제이에서 열린 'GTC 2026'에서 새로운 오픈 모델 제품군을 발표했다. 이번 모델은 디지털 환경뿐 아니라 로봇, 자율주행차, 생명과학 연구 등 실제 산업 환경에서 활용할 수 있는 지능형 AI 시스템 구축을 목표로 한다. 먼저 에이전트형 AI 개발을 위한 '네모트론 3' 모델 제품군이 공개됐다. 해당 모델은 언어, 이미지, 음성을 동시에 이해하는 멀티모달 구조를 기반으로 자연스러운 대화와 복잡한 추론, 영상·문서 분석을 지원한다. 최상위 모델인 '네모트론 3 울트라'는 엔비디아 블랙웰 플랫폼에서 NVFP4 포맷을 활용해 최대 5배 높은 처리 효율을 제공한다. 코딩 지원, 검색, 업무 자동화 등 AI 애플리케이션 개발에 활용된다. 랭체인, 코드래빗, 퍼플렉시티, 서비스나우 등 기업들도 네모트론 모델을 활용한 에이전트형 AI 서비스를 개발하고 있다. 로봇과 자율주행차 개발을 위한 물리 AI 모델도 공개됐다. '코스모스 3'는 합성 세계 생성, 물리 AI 추론, 행동 시뮬레이션을 통합한 세계 기반 모델로 복잡한 환경에서 AI가 실제 행동을 학습하도록 지원한다. 휴머노이드 로봇용 모델 '아이작 그루트 N1.7'은 실제 환경에서 활용 가능한 수준으로 발전했다. 자율주행차용 모델 '알파마요 1.5'는 내비게이션 안내와 다중 카메라 인식 기능을 통해 차량의 상황 판단 능력을 강화한다. 젠슨 황 엔비디아 최고경영자(CEO)는 기조연설에서 차세대 로봇 파운데이션 모델 '그루트 N2'도 공개했다. 해당 모델은 새로운 세계 행동 모델 구조를 기반으로 기존 비전, 언어, 행동(VLA) 모델 대비 두 배 이상 높은 작업 성공률을 보인다고 설명했다. 헬스케어 분야에서는 AI 기반 신약 개발을 지원하는 모델도 공개됐다. '프로테이나 콤플렉사'는 단백질 결합 구조 설계를 지원하는 생성형 AI 모델로 구조 기반 신약 개발을 가속하는 데 활용된다. 노보 노디스크, 비바 바이오텍, 매니폴드 바이오 등 제약 기업들이 해당 모델을 활용해 단백질 설계 연구를 진행하고 있다. 엔비디아는 구글 딥마인드, 유럽생물정보연구소, 서울대학교와 협력해 알파폴드 단백질 구조 데이터베이스도 확대했다. 약 3천만 개의 단백질 복합체 예측 데이터를 계산했으며 이 가운데 약 170만 개의 고신뢰 단백질 구조 데이터를 추가했다. 또한 GPU 가속 시뮬레이션 엔진 'nvQSP'도 공개했다. 해당 기술은 임상시험 이전 단계에서 다양한 치료 시나리오를 컴퓨터 모델로 분석할 수 있도록 지원한다. 기존 CPU 기반 시뮬레이션 대비 최대 77배 빠른 성능을 제공한다. 엔비디아는 이번에 공개한 모델과 데이터, 프레임워크를 깃허브, 허깅페이스, 클라우드 AI 플랫폼 등을 통해 제공할 예정이다. 일부 모델은 '엔비디아 NIM' 마이크로서비스 형태로도 제공돼 엣지부터 클라우드까지 다양한 환경에서 활용할 수 있다. 카리 브리스키 엔비디아 생성형 AI 소프트웨어 부사장은 "오픈소스 AI는 글로벌 혁신의 핵심 동력이 됐다"며 "엔비디아의 오픈 모델 제품군은 언어를 넘어 생명과학, 로보틱스, 자율 기계 등 다양한 산업 영역에서 새로운 AI 혁신을 가능하게 할 것"이라고 말했다.

2026.03.17 10:45남혁우 기자

데이터·학습·운영 통합…투모로 '하빌리스 콘솔' 플랫폼 전략

로봇 산업에서도 플랫폼 경쟁이 본격화되고 있다. 로봇이 실제 환경에서 데이터를 수집하고 학습하며 운영되는 전 과정을 통합적으로 관리하는 시스템이 상용화의 핵심 경쟁력으로 떠오른다. 이러한 흐름 속에서 투모로로보틱스가 공개한 '하빌리스 콘솔'은 피지컬 AI 산업이 개별 알고리즘이 아닌 통합 플랫폼을 필요로 하는 이유를 보여주는 사례로 주목된다. 투모로로보틱스는 장병탁 서울대 컴퓨터공학부 교수가 바이오인텔리전스 연구실을 기반으로 설립한 로봇 피지컬 AI 기업이다. 장 교수는 현재 산업통상부가 추진하는 휴머노이드 M.AX 얼라이언스 위원장을 맡아 로봇 두뇌 개발을 주도하고 있다. 회사는 로봇이 실제 환경에서 스스로 학습하고 작업을 수행할 수 있도록 하는 피지컬 AI 핵심 기술인 로보틱스 파운데이션 모델(RFM)을 개발하고 있다. 투모로로보틱스 '하빌리스 브레인'은 로봇의 판단을 담당하는 엔진, '하빌리스 콘솔'은 원격 조작과 시연, 피드백, 학습 커리큘럼 관리 등을 연결하는 운영 관제 시스템이다. 이 중 하빌리스 콘솔은 로봇 제어, 데이터 수집, 데이터 증강, 학습, 추론, 시각화를 하나의 사용자 친화적 인터페이스로 묶은 엔드투엔드 머신러닝운영(MLOps) 파이프라인 플랫폼이다. 피지컬 AI 경쟁 기준도 바뀌고 있다. 모델 정확도를 높이는 것을 넘어 로봇이 실제 공간에서 데이터를 수집하고 학습하며 작업을 수행하는 전 과정을 얼마나 효율적으로 운영할 수 있는지가 상용화 핵심 요소로 떠오르고 있다. 피지컬 AI는 챗봇이나 다른 생성형 AI와는 본질적으로 다르다. 텍스트를 생성하는 것이 아니라 현실 세계의 물체와 공간, 사람과의 상호작용을 다루기 때문이다. 성능 기준도 달라진다. '얼마나 똑똑하게 답을 생성하는지'보다 '얼마나 오래, 안정적으로 사람 개입 없이 작동할 수 있는지'가 더 중요하다. 현장 환경이 변해도 얼마나 빠르게 적응할 수 있는지도 핵심 요소로 꼽힌다. 투모로로보틱스가 최근 공개한 '하빌리스 베타' 논문 역시 이러한 문제의식을 담고 있다. 기존 피지컬 AI 연구가 단일 성공률 지표에 지나치게 집중돼 있다는 점을 지적하며, 실제 산업 환경에서는 생산성과 신뢰성을 함께 평가해야 한다고 강조한다. 논문은 시간당 작업 수(TPH)와 사람 개입 간 평균 운용 시간(MTBI) 지표를 제안했다. 장시간 연속 운용 환경에서의 성능 효율을 평가해야 한다는 것이다. 로봇은 한 번 학습시켜 끝나는 시스템이 아니다. 실제 환경에서 데이터를 모으고, 사람이 직접 시범을 보이거나 오류를 교정하고 그 데이터를 다시 학습에 반영한 뒤 현장에 재배포하는 과정이 반복돼야 한다. 즉 피지컬 AI 경쟁력은 데이터 수집, 학습, 배포, 운영, 피드백이 지속적으로 이어지는 구조를 얼마나 잘 구축했느냐에 달려 있다. 로봇 산업은 그동안 뛰어난 모델이나 하드웨어를 개별적으로 선보이는 데 집중해왔다. 그러나 실제 산업 현장에서는 그것만으로 충분하지 않았다. 시연에서는 잘 동작하던 로봇도 현장에 배치되면 다양한 변수에 부딪힌다. 조명 변화, 물체의 편차, 작업 순서 변화, 장시간 운용에 따른 오류, 예외 상황 등이 끊임없이 발생하기 때문이다. 결국 필요한 것은 단순한 개발 도구가 아니라 로봇을 실제로 운영하고 지속적으로 개선할 수 있는 플랫폼이다. 하빌리스 콘솔은 로봇 제어부터 데이터 축적, 모델 개선, 추론, 시각화까지를 하나의 인터페이스에서 연결함으로써 이러한 문제를 해결하려는 시도다. 피지컬 AI 상용화 핵심 과제가 연구보다 운영에 있다는 점을 보여주는 사례다. 피지컬 AI 플랫의 중요성은 크게 세 가지 측면에서 커지고 있다. ▲데이터 확보 속도 ▲현장 재현성과 확장성 ▲온디바이스 실전성이다. 다양한 환경에서 여러 로봇을 안정적으로 운영하려면 공통된 플랫폼이 필요하기 때문이다. 투모로로보틱스는 빠른 데이터 수집과 자동 학습, 초고속 온디바이스 추론을 핵심 경쟁력으로 내세우고 있다. 기업용 소프트웨어가 개별 기능 중심에서 통합 운영 플랫폼 중심으로 발전했듯, 로보틱스도 앞으로는 좋은 모델 하나보다 전체 시스템을 운영할 수 있는 플랫폼을 가진 기업이 시장을 주도할 것이라는 게 회사 측 분석이다. 투모로로보틱스 관계자는 "피지컬 AI 시대 플랫폼은 단순한 대시보드가 아니라 로봇이 생성하는 데이터를 모으고 학습을 자동화하며 현장 성능을 다시 모델 개선으로 연결하는 지능 생산 시스템"이라며 "앞으로 로봇 산업 경쟁력은 단일 모델이 아니라 이러한 학습과 운영이 반복되는 플랫폼에 달려 있다"고 말했다.

2026.03.17 10:43신영빈 기자

[영상] "얇은 감자칩도 안 부순다"…초정밀 로봇 손 등장

감자 칩이나 라즈베리처럼 쉽게 부서지거나 으깨질 수 있는 물체도 부드럽게 집을 수 있는 로봇 손이 개발됐다. 과학매체 인터레스팅엔지니어링은 미국 연구진이 섬세한 물체를 안전하게 다룰 수 있는 새로운 로봇 그리퍼 기술을 선보였다고 최근 보도했다. 미국 텍사스대학교 오스틴 캠퍼스 연구진이 개발한 이 기술은 'FORTE(Fragile Object Grasping with Tactile Sensing)'라는 로봇 손으로, 첨단 촉각 센싱 기술과 소프트 로봇 공학을 결합한 것이 특징이다. 연구 결과는 국제 학술지 IEEE 로보틱스 및 자동화 레터에 발표됐다. 주저자인 시치 샹 텍사스대 박사과정 연구원은 이 로봇 손이 의료와 제조 등 미세한 접촉이 필요한 다양한 분야에서 로봇 성능을 크게 향상시킬 잠재력이 있다고 설명했다. 그는 “현재 로봇 기술은 집안 곳곳에서 큰 동작을 수행할 수 있을 정도로 발전했지만, 매우 섬세하고 정밀한 작업에는 여전히 어려움을 겪고 있다”며 “로봇이 셔츠를 접는 일은 가능하지만, 안경을 조심스럽게 집거나 장바구니에서 과일을 꺼내는 일은 쉽지 않을 수 있다”고 말했다. 물고기 지느러미 원리 적용 FORTE 로봇 손은 물고기 지느러미 구조에서 영감을 얻은 '핀 레이 효과(fin-ray effect)'라는 로봇 공학 원리를 기반으로 설계됐다. 이 효과는 물체를 잡을 때 외부 힘이 가해지는 방향으로 구조가 휘어지며 자연스럽게 물체를 감싸는 특성을 말한다. 첨단 3D 프린팅 기술로 제작된 이 로봇 손은 내부에 비어 있는 공기 통로를 갖고 있어 촉각 센서 역할을 한다. 손가락이 물체를 잡기 위해 접근하면 내부 공기 통로가 이동하면서 공기압 변화가 발생하고, 이를 소형 센서가 감지해 실시간 힘 피드백을 제공한다. 이 과정에서 물체가 손에서 미끄러지는지 여부도 즉각적으로 파악할 수 있다. 연구진은 총 31종의 물체를 대상으로 로봇 손의 성능을 테스트했다. 실험에는 라즈베리나 감자 칩처럼 쉽게 부서지는 물체 뿐 아니라 딸기잼 병이나 당구공처럼 표면이 미끄러운 물체, 수프 캔이나 사과 같은 제품도 포함됐다. 실험 결과 이 로봇 손은 시각 정보를 기반으로 작동하는 기존 로봇 그리퍼보다 더 뛰어난 성능을 보였다. 단일 시도에서 물체를 잡는 실험에서 91.9%의 성공률을 기록했으며, 미끄러짐 현상의 93%를 100% 정확도로 감지하는 성능을 보였다. 이는 로봇 손이 불필요하게 강한 힘을 가하지 않으면서도 필요한 경우에만 그립을 조정해 물체 손상을 최소화할 수 있음을 의미한다. 연구진에 따르면 미끄러짐 감지 기능은 로봇 기술에서 매우 중요한 요소지만, 이를 정확하게 구현한 로봇 그리퍼는 많지 않다. 식품·의료·제조 분야 활용 기대 이 로봇 손은 3D 프린팅 방식의 센서를 사용해 맞춤 제작이 가능하며, 기존 장치보다 내구성과 수명도 향상된 것으로 알려졌다. 연구진은 이 기술이 섬세한 조작이 필요한 다양한 산업 분야에서 로봇 활용도를 크게 높일 수 있을 것으로 기대하고 있다. 식품 가공 산업에서는 과일, 채소, 빵처럼 쉽게 으깨질 수 있는 식품을 다루는 데 활용될 수 있다. 의료 분야에서는 정밀한 의료 기구나 생물학적 샘플을 조작하는 데 쓰일 수 있으며, 제조 분야에서는 전자제품이나 유리 제품 같은 정밀 부품을 안전하게 다루는 데에도 적용될 가능성이 있다.

2026.03.17 10:33이정현 미디어연구소

엔비디아, '자율주행' 파트너 대거 확보…현대차·BYD·닛산·지리·우버 합류

엔비디아가 현대차그룹, BYD, 닛산, 지리, 우버 등 자율주행 기술 협력사를 대거 확보했다. 16일(현지시간) 엔비디아는 이 기업들이 엔비디아 자율주행 플랫폼 '드라이브 하이페리온'을 도입한다고 발표했다. 지난 1월 엔비디아가 드라이브 하이페리온 기반 협력사를 본격 확장하겠다고 밝힌 뒤 2개월여 만에 거둔 성과다. 드라이브 하이페리온은 자율주행을 위해 차량 내 카메라, 레이더, 라이다 등 각종 센서와 컴퓨팅 아키텍처를 통합한 플랫폼으로, 개별 기업이 센서 통합 작업을 수행할 필요 없이 자율주행 소프트웨어를 바로 검증할 수 있도록 해준다. 이를 통해 기업들이 운전자가 필요없을 정도의 자율주행 수준인 '레벨4'를 달성할 수 있도록 기술을 지원한다. 이날 엔비디아는 현대차그룹과 BYD와 지리, 닛산, 이스즈 등 자동차 제조사들이 드라이브 하이페리온을 활용해 레벨4 자율주행 기술을 개발하고 있다고 밝혔다. 차량 공유 서비스 기업 우버도 엔비디아의 자율주행 인공지능(AI) '알파마요'와 드라이브 하이페리온을 활용해 로보택시를 운영할 계획이라고 발표했다. 양사는 내년 미국 로스앤젤레스와 샌프란시스코부터 시작해 2028년까지 전세계 총 28개 도시에서 로보택시 서비스를 개시할 계획이다. 북미와 유럽, 호주, 도쿄를 포함한 아시아 등을 서비스 지역으로 언급했다. 우선 데이터 수집용 차량을 운행해 도시별 데이터를 학습하고, 운전자가 동석하는 형태로 시범 운행을 거친 뒤 레벨4 자율주행 서비스로 전환한다는 계획이다. 그 외 볼트와 그랩, 리프트 등 차량 공유 서비스 기업들도 드라이브 하이페리온을 활용해 자율주행 기반 모빌리티 서비스 사업을 가속화하고 있다고 밝혔다.

2026.03.17 10:23김윤희 기자

미 법원 "언노운월즈 CEO 복직시켜야"…크래프톤 "동의 안해, 다각적 대응 검토"

크래프톤이 자회사 언노운 월즈의 전 경영진이 제기한 부당해고 및 운영권 박탈 관련 소송에서 패소해 전 최고경영자(CEO)를 복직시키라는 미국 법원의 판결을 받았다고 게임스팟 등 외신이 16일(현지시간) 보도했다. 보도에 따르면 미국 델라웨어주 형평법원은 테드 길 전 CEO의 즉각적인 복직과 함께 서브노티카 2 얼리 액세스 출시 운영권 및 스팀 접근 권한 반환을 명령했다. 그에게 다른 창립자들을 재고용할 권한이 있다고 명시했으며, 전 경영진이 성과급을 확보할 수 있는 실적 달성 기한 역시 오는 9월 15일까지로 연장했다. 법원은 크래프톤이 정당한 사유 없이 핵심 직원을 해고하고 운영권을 부당하게 장악했다고 판단했다. 전 경영진이 해고 직전 게임 데이터를 무단 백업했다는 사측의 주장에 대해서도, 회사의 작업물을 보호하기 위한 조치였을 뿐 기밀을 유지하고 즉각 반환했기에 정당한 해고 사유가 될 수 없다고 일축했다. 법원은 크래프톤이 성과급 지급을 피하고자 챗GPT의 조언을 구한 정황도 드러났다고 밝혔다. 다만 법원은 언노운월즈 전 경영진이 크래프톤에 청구한 손해배상액 관련으로는 판단을 내리지 않았다. 또한 찰리 클리블랜드와 맥스 맥과이어의 복직 청구는 거부했다. 이번 소송은 '서브노티카 2'의 얼리 액세스 출시에 따른 최대 2억 5000만 달러(약 3400억원) 규모의 실적 기반 추가 보상금(Earnout) 지급을 두고 지난해 불거졌다. 크래프톤은 지난해 경영진의 태만 때문에 '서브노티카2'의 개발이 지연됐다며, 테드 길, 맥스 맥과이어 등 경영진을 해고하고 스티브 파푸트시스 스트라이킹 디스턴스 스튜디오 대표를 선임했다. 이에 전 경영진은 크래프톤이 보상금 지급을 피하기 위해 부당한 압력을 가하고 자신들을 해고했다고 주장해 왔다. 크래프톤 측은 이번 판결에 대해 즉각 유감을 표명했다. 크래프톤 관계자는 "이번 판결에 정중히 동의하지 않으며, 향후 대응 방향에 대해 다양한 가능성을 검토하고 있다"며 "이번 판결은 언노운 월즈 전 경영진이 제기한 손해배상 청구나 서브노티카 2와 관련된 실적 기반 추가 보상 문제를 다룬 것이 아니며, 해당 사안에 대한 소송 절차는 계속 진행될 예정"이라고 밝혔다. 이어 "크래프톤은 언제나 플레이어를 모든 의사결정의 중심에 두고 있다"며 "지난 몇 달 동안 크래프톤과 언노운 월즈는 게임의 완성도를 높이고 얼리 액세스 출시를 준비하는 데 집중해 왔으며, 개선된 버전을 플레이어들에게 가능한 한 빠르게 선보일 수 있기를 기대하고 있다. 크래프톤의 최우선 과제는 변함없이 서브노티카 팬들에게 최고의 게임 경험을 제공하는 것"이라고 덧붙였다.

2026.03.17 10:08정진성 기자

엔비디아, 'DSX 에어' 공개…"AI 데이터센터 구축 기간 수개월에서 수일로 단축"

엔비디아가 인공지능(AI) 데이터센터를 실제 구축 전 미리 설계하고 검증할 수 있는 가상 환경을 선보인다. 엔비디아는 17일 미국 새너제이에서 열린 기술 콘퍼런스ㅈ '엔비디아 GTC 2026'에서 '엔비디아 DSX 에어(DSX Air)'를 발표했다. DSX 에어는 엔비디아의 AI 데이터센터 설계 프레임워크인 'DSX 플랫폼'에 포함된 시뮬레이션 서비스다. 컴퓨팅, 네트워크, 스토리지, 보안 등 AI 인프라 전체를 클라우드 가상 환경에 구현할 수 있다. DSX 에어는 서버를 실제로 설치하기 전부터 컴퓨팅, 네트워킹, 스토리지, 오케스트레이션, 보안을 포함한 AI 팩토리 전체 디지털 트윈 구축을 지원한다. 통합과 문제 해결 과정을 시뮬레이션 환경으로 옮기면 고객은 첫 토큰 생성까지 걸리는 시간을 수 주 또는 수개월에서 단 며칠 혹은 수시간으로 단축할 수 있다. 이를 통해 막대한 시간과 비용을 절감할 수 있다. 기업은 실제 서버를 설치하기 전에 AI 데이터센터를 '디지털 트윈' 형태로 먼저 구축해 성능과 운영 방식을 검증할 수 있다. GPU, 슈퍼NIC, DPU, 네트워크 스위치 등 엔비디아의 핵심 하드웨어는 물론 파트너사의 솔루션도 단일 환경에서 함께 시뮬레이션된다. 특히, DSX 에어는 차세대 인프라인 '베라 루빈(Vera Rubin)' 플랫폼과 '스펙트럼-6(Spectrum-6)' 네트워크 스위치 등 최신 장비의 시뮬레이션도 지원한다. 초기 구축 단계뿐만 아니라 시스템 가동 중 발생하는 소프트웨어 업데이트나 보안 패치 작업 역시 가상 환경에서 미리 리허설할 수 있어 예기치 않은 시스템 중단(다운타임) 위험을 최소화하는 안전한 테스트베드 역할도 수행한다. DSX 에어는 이미 다양한 글로벌 기업들이 현장에서 활용하고 있다. AI 인프라 전문 기업 코어위브(CoreWeave), 태국의 AI 클라우드 기업 시암.AI(Siam.AI) 등은 물리적 하드웨어 도입 이전 단계에서 시스템 구조를 미리 검증해 배포 속도를 높이는 데 이 플랫폼을 적극 도입했다. 랑가 마디푸디엔비디아 제품 관리 디렉터는 "AI 팩토리를 구축하는 것은 매우 복잡한 작업으로 컴퓨팅, 네트워킹, 보안 및 스토리지 시스템 전반에 걸친 효율적인 통합이 필수적"이라며 "신속한 AI 도입과 강력한 투자수익률(ROI)을 달성할 수 있도록 새로운 엔비디아 DSX 에어는 기업들이 인프라 전체를 클라우드 상에서 완벽하게 시뮬레이션할 수 있게 지원할 것"이라고 강조했다.

2026.03.17 09:39남혁우 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

"AI도 사회 구성원?"…홍콩, 세계 첫 인간-AI 협력 네트워크 추진

홍콩이 인간과 인공지능(AI)이 협력하는 새로운 디지털 인프라 구축에 나선다. 공공서비스와 시민 생활 영역 전반에 AI를 도입하며 행정 효율성과 기술 경쟁력 강화를 동시에 추진하겠다는 구상이다. 17일 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 홍콩 생성형 AI 연구개발센터(HKGAI)는 인간과 AI 에이전트가 협력하는 오픈소스 네트워크 '클로넷(ClawNet)'을 조만간 공개할 예정이다. 이는 세계 최초의 인간-AI 에이전트 협력 네트워크를 목표로 개발된 시스템이다. 해당 네트워크는 AI 에이전트가 허용된 범위 안에서만 작업을 수행하도록 설계된 협력 구조로, 인간의 승인 아래 자율적으로 업무를 수행하고 다른 에이전트와 협력할 수 있다. HKGAI는 홍콩 정부의 혁신 연구 프로그램인 '이노HK(InnoHK)' 산하 기관으로 홍콩과학기술대(HKUST) 연구진이 주도하고 있다. 연구진은 현재 대부분의 AI 에이전트가 개별 사용자 중심으로 작동하는 '사일로 구조'에 머물러 있어 권한 관리와 거버넌스 측면에서 한계가 있다고 지적했다. 이에 따라 클로넷은 AI 에이전트에 '사회적 정체성'을 부여하는 구조를 도입했다. 각 에이전트는 역할과 권한 범위를 갖고 네트워크 내에서 작업을 수행하며 모든 행동은 기록되고 추적 가능하도록 설계됐다. 홍콩 정부는 AI 기술을 공공서비스에도 적극 도입하고 있다. HKGAI가 개발한 AI 챗봇 'HK챗(Chat)'은 지난해 11월 출시 이후 약 72만 명의 가입자를 확보했다. 향후 학교 지원 상담이나 생활비 절약 조언, 경마 데이터 분석 등 시민 생활을 지원하는 기능도 추가될 예정이다. 행정 업무에도 AI 도입이 확대되고 있다. HKGAI는 공무원 업무 지원을 위해 AI 문서 작성 도구 'HK파일럿(Pilot)'과 회의록 작성 서비스 'HK미팅(Meeting)'을 개발해 시범 운영 중이다. 현재 약 100개 정부 부처에서 5만 명에 가까운 공무원이 관련 시험 프로그램에 참여한 것으로 알려졌다. 홍콩 정부는 2027년까지 최소 200개의 행정 절차에 AI를 도입한다는 목표를 세웠다. 데이터 분석, 민원 대응, 면허 및 허가 신청 처리 등 다양한 행정 서비스에 AI를 활용해 공공서비스 효율을 높이겠다는 계획이다. 일각에선 AI의 사회적 통합을 위해서는 기술뿐 아니라 제도적 기반도 함께 마련돼야 한다고 지적했다. 특히 인간 중심으로 설계된 기존 법과 제도가 AI와의 공존을 충분히 반영하지 못한다고도 주장했다. 이에 대해 궈이커 HKGAI 소장은 "AI 에이전트가 인간과 공존하려면 사회적 정체성을 가져야 한다"며 "현재의 법적·사회적 프레임워크는 인간만을 위해 설계돼 있어 AI를 사회에 효과적으로 통합하려면 사회적 속성이 필요하다"고 말했다.

2026.03.17 09:18장유미 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

디지서트, IDC 선정 '인증서 수명주기 관리' 부문 리더 뽑혀

글로벌 디지털 트러스트(Digital Trust) 전문기업 디지서트(DigiCert, 한국지사장 나정주)는 글로벌 IT 시장조사업체 IDC가 발행한 'IDC 마켓스케이프: 전 세계 인증서 수명주기 관리(Certificate Lifecycle Management, CLM) 2026 벤더 평가' 보고서에서 리더 기업으로 선정됐다고 16일 밝혔다. 이번 IDC 마켓스케이프 보고서는 인증서 유효 기간이 지속적으로 단축되고, 복잡한 하이브리드 및 클라우드 환경에서 머신 아이덴티티가 급증하는 시장 환경의 변화를 반영했다. 디지서트는 조직의 공개키 기반구조(Public Key Infrastructure, PKI) 현대화와 인증서 운영 자동화를 지원하는 우수한 역량을 바탕으로 이번 보고서에서 리더 기업으로 평가받았다고 회사는 설명했다. IDC의 제니퍼 글렌(Jennifer Glenn) 애널리스트는 “현재 CLM 시장은 명백한 변곡점에 도달했다. 인증서 관련 장애는 이미 애플리케이션, 공급망, 디지털 서비스 전반에 광범위한 영향을 미치고 있다"면서 "인증서 갱신 주기가 지속적으로 단축되며, 기업이 양자 내성 암호(Post-Quantum Cryptography, PQC) 도입을 시작함에 따라 그 위험은 더욱 심화될 것"이라고 분석했다. 또 "이러한 배경에서 IDC는 CLM 시장의 중요성을 반영해 최초로 'CLM 부문 IDC 마켓스케이프' 보고서를 발간했다"라며 "이번 보고서는 글로벌 디지털 신뢰가 핵심 과제로 부상한 현재 상황에서 벤더들이 자동화, 확장성, 암호화 환경 변화에 어떻게 대응하고 있는지 명확하고 체계적으로 파악할 수 있도록 지원"고 설명했다. 보고서에 따르면 디지서트는 특히 다음과 같은 강점으로 높은 점수를 받았다. -운영 효율 극대화 및 자동화: 디지서트 트러스트 라이프사이클 매니저(Trust Lifecycle Manager, TLM)는 대규모 인증서 운영을 최소한의 인력으로 자동 처리할 수 있도록 지원한다. 디지서트 TLM을 도입한 고객사들은 장치 및 사용자 인증서 작업의 상당 부분을 자동화해 운영 리소스를 대폭 절감하고 있다. -비용 최적화 및 SaaS 유연성: 기존 인하우스 PKI를 디지서트 TLM SaaS로 전환한 기업들은 하이브리드 환경 내 S/MIME, 프라이빗 및 퍼블릭 TLS 관리 비용을 큰 폭으로 낮췄다. -글로벌 서비스 가용성: 매니지드 서비스 형태로 제공되는 TLM은 전 세계 다양한 지역과 기업 규모에 맞춤형 CLM 자동화 및 기술 지원을 제공한다. 디지서트는 최근 시트릭스 넷스케일러(Citrix NetScaler) 및 F5와의 통합을 완료하면서 자동화 생태계를 빠르게 확장하고 있다. 이는 강화되는 컴플라이언스 요건과 양자 내성 암호 시대로의 전환에 대비하려는 기업들의 수요에 선제적으로 대응하기 위한 전략이다. 디지서트의 디피카 차우한(Deepika Chauhan) 최고 제품 책임자(CPO)는 “디지털 신뢰 환경 변화가 이미 복잡한 기업들의 보안 과제를 더욱 가중시키고 있으며, 인증서 중단 사태는 계속해서 뉴스 헤드라인을 장식하고 있다”면서 “다양한 도전과제로 업계 난관이 커지는 가운데 CLM은 디지털 신뢰 구현에 필수 요소로 자리잡고 있으며, 이에 해당 시장을 집중적으로 다룬 최초의 IDC 마켓스케이프 보고서 발표는 매우 시의적절하다”고 짚었다. 한편, 디지서트의 TLM를 포함한 주요 보안 솔루션은 국내 공식 총판사인 SK네트웍스서비스를 통해 기업 맞춤형 컨설팅 및 기술 지원과 함께 공급되고 있다. 한편 디지서트는 디지털 신뢰 분야 글로벌 선도 기업으로, 포춘 500대 기업의 90%를 포함해 전 세계 10만 곳 이상의 고객사를 보유하고 있다 .핵심 플랫폼인 'DigiCert ONE'을 통해 PKI, DNS, 인증서 생애주기 관리(CLM)를 단일 환경에서 통합 제공한다. 또 AI 기반 자동화 역량을 바탕으로 대규모 인증서 운영과 복잡한 보안 환경을 효율적으로 관리할 수 있게 지원한다. 양자 내성 암호(PQC) 등 차세대 보안 기술 전환을 선제적으로 지원하며 미래 IT 환경에서도 지속 가능한 디지털 신뢰를 제공하고 있다고 회사는 밝혔다.

2026.03.16 21:19방은주 기자

KISA, N2SF 6개 모델 확산에 올 45억 지원

한국인터넷진흥원(KISA)이 작년에 이어 올해도 국가 망 보안 체계(N2SF) 실증 사업을 추진한다. 올해는 작년에 한 실증 사업의 정보서비스 모델(6개)을 확산하는데 주력한다. N2SF 정보서비스 모델은 국정원이 만든 것으로 현재 총 11개가 있다. 11개 중 6개모델을 대상으로 작년에 KISA가 실증사업을 했다. 올해는 작년에 한 실증사업 6개 모델을 확대하는 개념으로, 총 45억 원을 투입한다. 1개 과제당 9억 원 꼴이다. 6개 모델확산과 별개로 KISA는 작년에 실증 하지 않은 모델 하나 혹은 두 개를 대상으로 올해 처음으로 실증하는 사업도 추진한다. 즉, 작년에 실증한 모델은 올해 확산을, 작년에 실증하지 않은 모델은 올해 처음으로 실증하는, 투 트랙으로 사업을 진행한다. 권혁 한국인터넷진흥원(KISA) AI정부보호팀장은 이 같은 내용의 N2SF 실증 사업을 15일 밝혔다. 권 팀장은 "지난해 N2SF 실증 사업은 과학기술정보통신부, 행정안전부 등의 신규 서비스 2개, 국가·공공기관의 기존 업무환경 4개를 대상으로 N2SF 실증 기획·설계 및 보안성 점검을 하는 것으로 이뤄졌다"며 "이를 통해 산출물을 창출하는 것이 이번 사업의 첫 번째 목표였다. 이 산출물을 바탕으로 다른 기관에도 적용할 수 있는 방안을 제시하는 것이 최종 목표"라고 설명했다. 업무망과 인터넷망을 분리해 놓는 기존의 '망 분리' 정책은 국가·공공기관의 신기술 활용에 장벽으로 작용해왔다. 이런 한계를 극복하고자 국가정보원은 지난 2024년 망분리 개선 로드맵을 발표한 이후 N2SF라는 프레임워크를 만들어 지난해 9월부터 정식 가이드라인을 공개하며 확산에 나섰다. KISA는 N2SF의 실제 도입 성공 사례를 발굴하기 위해 실증 사업에 착수했다. 실증 과정은 ▲N2SF 적용을 위한 현황 파악 ▲C·S·O(기밀·민감·공개) 등급 분류 ▲모의해킹 등 위협 식별 ▲보안 대책 수립 ▲적절성 평가 ▲산출물의 국가정보원 보안성 검토 등 순으로 진행됐다. N2SF 적용을 위해 정보시스템식별해 C·S·O 등급별로 분류하고, RBI(원격 브라우저 격리), 제로트러스트 기반 기술 등을 적용해 보안대책을 수립한 후 모의해킹 등 적절성 평가를 거쳐 최종 산출 결과를 받아내는 과정인 것이다. 올해 N2SF 사업은 지난해 실증한 정보서비스 모델을 기반으로 국가·공공기관 도입을 지원한다. 공모사업과 용역사업으로 나눠 진행한다. 공모사업은 지난해 검증 모델의 확산 관련, 용역사업은 추가적인 실증 과정이다. 용역사업의 경우 이달 중 추가적인 계획이 확정되면 보완해 발표할 예정이다. 공모 사업은 N2SF 정보서비스 모델의 도입을 지원하고기 위해 올해 5월부터 12월까지 총 45억 원 규모(총 6개 과제, 과제별 7억5000만 원)으로 지원한다. 반드시 컨소시엄 형태로 사업에 착수해야 한다. 컨소시엄은 수요 기관이 도입을 희망하는 N2SF 정보서비스 모델을 구현·적용 및 운영 지원할 수 있는 역량을 보유한 국내 기업 3~5곳이다. 컨소시엄은 반드시 수요 기관을 확보해야 한다. 시범사업 전 과정(개발·적용·실증·운영 등)에 대해 수요기업과 구체적 협력 계획을 제시해야 한다. 공기업·비영리기관은 주관기업으로 참여할 수 없다. 수요기관은 N2SF를 실제 업무에 적용할 정보서비스를 선정한 후 운영 계획을 수립한다. 이어 C·S·O 등급별로 분류하고 컨소시엄과 협력해 국가정보원 보안성 검토 계획 및 지속적 운영을 위한 계획 수립 등의 역할을 맡는다. 권 팀장은 "지난해 실증에는 예산의 한계가 있어 아직 실증해 보지 못한 다른 보안 모델도 있다. 이런 모델에도 실증 작업을 거치고, 지난해 실증 결과는 사례집으로 만들어 배포할 예정이다"라며 "이를 통해 다른 공공기관에서도 참고하고 확산할 수 있도록 할 것"이라고 강조했다.

2026.03.16 18:28김기찬 기자

엔닷라이트, GTC 2026 '인셉션 데모 피치' 발표 기업 선정

3D AI 전문 스타트업 엔닷라이트는 16일부터 19일까지 미국 캘리포니아 산호세에서 열리는 세계 최대 인공지능(AI) 컨퍼런스 '엔비디아 GTC 2026' 엔비디아 인셉션 데모 피치 발표 기업으로 선정됐다고 16일 밝혔다. 엔비디아 인셉션 데모 피치는 엔비디아 기술을 혁신적인 방식으로 활용하는 유망 스타트업을 선발해 전 세계 투자자, 고객사, 파트너들에게 기술력과 비즈니스 모델을 선보이는 자리다. 엔닷라이트는 이번 GTC 2026 현장에서 5분간 라이브 피칭을 통해 핵심 기술인 '트리닉스'를 소개한다. 트리닉스는 로보틱스와 피지컬 AI에 즉시 활용 가능한 시뮬레이션 레디 3D 데이터를 생성하는 솔루션이다. 기존 수작업 기반 3D 에셋 제작 방식은 많은 시간과 비용이 소요되어 로봇 학습의 병목 구간으로 지적돼 왔다. 트리닉스는 엔닷라이트의 독자적인 3D CAD 엔진과 생성형 AI 모델을 결합해 이 문제를 해결한다. 텍스트나 이미지를 입력하면 물리 속성과 관절 정보가 포함된 고품질 3D 데이터를 자동으로 생성하며, 기존의 레거시 CAD 파일을 시뮬레이션에 최적화된 오픈USD 형식으로 즉시 변환해준다. 엔비디아 핵심 기술 스택을 활용해 솔루션 완성도를 높였다. 옴니버스를 통해 오픈USD 기반 데이터를 구성하고 확장 플랫폼으로 활용하고, 아이작 심을 통해 로봇 시뮬레이션 및 대규모 학습 워크플로우를 수행한다. 코스모스를 활용해 대규모 시뮬레이션 에피소드를 생성하고 시각-언어-행동(VLA) 데이터셋을 구축했다. 기존 방식 대비 데이터 생성 속도를 70% 이상 단축하고, GPU 기반 대규모 데이터 생성으로 로봇 학습 성공률을 3배 이상 높였다. 최근 정부가 주관하는 '국가 물리 AI 파운데이션 모델 컨소시엄' 공급 기업으로도 선정됐다. 엔닷라이트는 삼성전자, 네이버, AMD 등 글로벌 테크 기업 출신의 전문가들로 구성된 팀이다. 이번 GTC 2026 참가를 계기로 약 630억 달러 규모로 추산되는 글로벌 피지컬 AI 시장 공략에 박차를 가할 계획이다. 박진영 엔닷라이트 대표는 "트리닉스를 통해 제조 현장의 디지털 전환(DX)을 가속화하고, 전 세계 로보틱스 기업들이 직면한 3D 데이터 부족 문제를 해결하는 핵심 파트너가 될 것"이라고 말했다.

2026.03.16 18:25신영빈 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.