• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Telegram인원수 작업 ( 텔문의 ON4989 ) Telegram그룹판매대행 Telegram유령,8Br'통합검색 결과 입니다. (5426건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, '자율주행' 파트너 대거 확보…현대차·BYD·닛산·지리·우버 합류

엔비디아가 현대차그룹, BYD, 닛산, 지리, 우버 등 자율주행 기술 협력사를 대거 확보했다. 16일(현지시간) 엔비디아는 이 기업들이 엔비디아 자율주행 플랫폼 '드라이브 하이페리온'을 도입한다고 발표했다. 지난 1월 엔비디아가 드라이브 하이페리온 기반 협력사를 본격 확장하겠다고 밝힌 뒤 2개월여 만에 거둔 성과다. 드라이브 하이페리온은 자율주행을 위해 차량 내 카메라, 레이더, 라이다 등 각종 센서와 컴퓨팅 아키텍처를 통합한 플랫폼으로, 개별 기업이 센서 통합 작업을 수행할 필요 없이 자율주행 소프트웨어를 바로 검증할 수 있도록 해준다. 이를 통해 기업들이 운전자가 필요없을 정도의 자율주행 수준인 '레벨4'를 달성할 수 있도록 기술을 지원한다. 이날 엔비디아는 현대차그룹과 BYD와 지리, 닛산, 이스즈 등 자동차 제조사들이 드라이브 하이페리온을 활용해 레벨4 자율주행 기술을 개발하고 있다고 밝혔다. 차량 공유 서비스 기업 우버도 엔비디아의 자율주행 인공지능(AI) '알파마요'와 드라이브 하이페리온을 활용해 로보택시를 운영할 계획이라고 발표했다. 양사는 내년 미국 로스앤젤레스와 샌프란시스코부터 시작해 2028년까지 전세계 총 28개 도시에서 로보택시 서비스를 개시할 계획이다. 북미와 유럽, 호주, 도쿄를 포함한 아시아 등을 서비스 지역으로 언급했다. 우선 데이터 수집용 차량을 운행해 도시별 데이터를 학습하고, 운전자가 동석하는 형태로 시범 운행을 거친 뒤 레벨4 자율주행 서비스로 전환한다는 계획이다. 그 외 볼트와 그랩, 리프트 등 차량 공유 서비스 기업들도 드라이브 하이페리온을 활용해 자율주행 기반 모빌리티 서비스 사업을 가속화하고 있다고 밝혔다.

2026.03.17 10:23김윤희 기자

미 법원 "언노운월즈 CEO 복직시켜야"…크래프톤 "동의 안해, 다각적 대응 검토"

크래프톤이 자회사 언노운 월즈의 전 경영진이 제기한 부당해고 및 운영권 박탈 관련 소송에서 패소해 전 최고경영자(CEO)를 복직시키라는 미국 법원의 판결을 받았다고 게임스팟 등 외신이 16일(현지시간) 보도했다. 보도에 따르면 미국 델라웨어주 형평법원은 테드 길 전 CEO의 즉각적인 복직과 함께 서브노티카 2 얼리 액세스 출시 운영권 및 스팀 접근 권한 반환을 명령했다. 그에게 다른 창립자들을 재고용할 권한이 있다고 명시했으며, 전 경영진이 성과급을 확보할 수 있는 실적 달성 기한 역시 오는 9월 15일까지로 연장했다. 법원은 크래프톤이 정당한 사유 없이 핵심 직원을 해고하고 운영권을 부당하게 장악했다고 판단했다. 전 경영진이 해고 직전 게임 데이터를 무단 백업했다는 사측의 주장에 대해서도, 회사의 작업물을 보호하기 위한 조치였을 뿐 기밀을 유지하고 즉각 반환했기에 정당한 해고 사유가 될 수 없다고 일축했다. 법원은 크래프톤이 성과급 지급을 피하고자 챗GPT의 조언을 구한 정황도 드러났다고 밝혔다. 다만 법원은 언노운월즈 전 경영진이 크래프톤에 청구한 손해배상액 관련으로는 판단을 내리지 않았다. 또한 찰리 클리블랜드와 맥스 맥과이어의 복직 청구는 거부했다. 이번 소송은 '서브노티카 2'의 얼리 액세스 출시에 따른 최대 2억 5000만 달러(약 3400억원) 규모의 실적 기반 추가 보상금(Earnout) 지급을 두고 지난해 불거졌다. 크래프톤은 지난해 경영진의 태만 때문에 '서브노티카2'의 개발이 지연됐다며, 테드 길, 맥스 맥과이어 등 경영진을 해고하고 스티브 파푸트시스 스트라이킹 디스턴스 스튜디오 대표를 선임했다. 이에 전 경영진은 크래프톤이 보상금 지급을 피하기 위해 부당한 압력을 가하고 자신들을 해고했다고 주장해 왔다. 크래프톤 측은 이번 판결에 대해 즉각 유감을 표명했다. 크래프톤 관계자는 "이번 판결에 정중히 동의하지 않으며, 향후 대응 방향에 대해 다양한 가능성을 검토하고 있다"며 "이번 판결은 언노운 월즈 전 경영진이 제기한 손해배상 청구나 서브노티카 2와 관련된 실적 기반 추가 보상 문제를 다룬 것이 아니며, 해당 사안에 대한 소송 절차는 계속 진행될 예정"이라고 밝혔다. 이어 "크래프톤은 언제나 플레이어를 모든 의사결정의 중심에 두고 있다"며 "지난 몇 달 동안 크래프톤과 언노운 월즈는 게임의 완성도를 높이고 얼리 액세스 출시를 준비하는 데 집중해 왔으며, 개선된 버전을 플레이어들에게 가능한 한 빠르게 선보일 수 있기를 기대하고 있다. 크래프톤의 최우선 과제는 변함없이 서브노티카 팬들에게 최고의 게임 경험을 제공하는 것"이라고 덧붙였다.

2026.03.17 10:08정진성 기자

엔비디아, 'DSX 에어' 공개…"AI 데이터센터 구축 기간 수개월에서 수일로 단축"

엔비디아가 인공지능(AI) 데이터센터를 실제 구축 전 미리 설계하고 검증할 수 있는 가상 환경을 선보인다. 엔비디아는 17일 미국 새너제이에서 열린 기술 콘퍼런스ㅈ '엔비디아 GTC 2026'에서 '엔비디아 DSX 에어(DSX Air)'를 발표했다. DSX 에어는 엔비디아의 AI 데이터센터 설계 프레임워크인 'DSX 플랫폼'에 포함된 시뮬레이션 서비스다. 컴퓨팅, 네트워크, 스토리지, 보안 등 AI 인프라 전체를 클라우드 가상 환경에 구현할 수 있다. DSX 에어는 서버를 실제로 설치하기 전부터 컴퓨팅, 네트워킹, 스토리지, 오케스트레이션, 보안을 포함한 AI 팩토리 전체 디지털 트윈 구축을 지원한다. 통합과 문제 해결 과정을 시뮬레이션 환경으로 옮기면 고객은 첫 토큰 생성까지 걸리는 시간을 수 주 또는 수개월에서 단 며칠 혹은 수시간으로 단축할 수 있다. 이를 통해 막대한 시간과 비용을 절감할 수 있다. 기업은 실제 서버를 설치하기 전에 AI 데이터센터를 '디지털 트윈' 형태로 먼저 구축해 성능과 운영 방식을 검증할 수 있다. GPU, 슈퍼NIC, DPU, 네트워크 스위치 등 엔비디아의 핵심 하드웨어는 물론 파트너사의 솔루션도 단일 환경에서 함께 시뮬레이션된다. 특히, DSX 에어는 차세대 인프라인 '베라 루빈(Vera Rubin)' 플랫폼과 '스펙트럼-6(Spectrum-6)' 네트워크 스위치 등 최신 장비의 시뮬레이션도 지원한다. 초기 구축 단계뿐만 아니라 시스템 가동 중 발생하는 소프트웨어 업데이트나 보안 패치 작업 역시 가상 환경에서 미리 리허설할 수 있어 예기치 않은 시스템 중단(다운타임) 위험을 최소화하는 안전한 테스트베드 역할도 수행한다. DSX 에어는 이미 다양한 글로벌 기업들이 현장에서 활용하고 있다. AI 인프라 전문 기업 코어위브(CoreWeave), 태국의 AI 클라우드 기업 시암.AI(Siam.AI) 등은 물리적 하드웨어 도입 이전 단계에서 시스템 구조를 미리 검증해 배포 속도를 높이는 데 이 플랫폼을 적극 도입했다. 랑가 마디푸디엔비디아 제품 관리 디렉터는 "AI 팩토리를 구축하는 것은 매우 복잡한 작업으로 컴퓨팅, 네트워킹, 보안 및 스토리지 시스템 전반에 걸친 효율적인 통합이 필수적"이라며 "신속한 AI 도입과 강력한 투자수익률(ROI)을 달성할 수 있도록 새로운 엔비디아 DSX 에어는 기업들이 인프라 전체를 클라우드 상에서 완벽하게 시뮬레이션할 수 있게 지원할 것"이라고 강조했다.

2026.03.17 09:39남혁우 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

"AI도 사회 구성원?"…홍콩, 세계 첫 인간-AI 협력 네트워크 추진

홍콩이 인간과 인공지능(AI)이 협력하는 새로운 디지털 인프라 구축에 나선다. 공공서비스와 시민 생활 영역 전반에 AI를 도입하며 행정 효율성과 기술 경쟁력 강화를 동시에 추진하겠다는 구상이다. 17일 홍콩 사우스차이나모닝포스트(SCMP)에 따르면 홍콩 생성형 AI 연구개발센터(HKGAI)는 인간과 AI 에이전트가 협력하는 오픈소스 네트워크 '클로넷(ClawNet)'을 조만간 공개할 예정이다. 이는 세계 최초의 인간-AI 에이전트 협력 네트워크를 목표로 개발된 시스템이다. 해당 네트워크는 AI 에이전트가 허용된 범위 안에서만 작업을 수행하도록 설계된 협력 구조로, 인간의 승인 아래 자율적으로 업무를 수행하고 다른 에이전트와 협력할 수 있다. HKGAI는 홍콩 정부의 혁신 연구 프로그램인 '이노HK(InnoHK)' 산하 기관으로 홍콩과학기술대(HKUST) 연구진이 주도하고 있다. 연구진은 현재 대부분의 AI 에이전트가 개별 사용자 중심으로 작동하는 '사일로 구조'에 머물러 있어 권한 관리와 거버넌스 측면에서 한계가 있다고 지적했다. 이에 따라 클로넷은 AI 에이전트에 '사회적 정체성'을 부여하는 구조를 도입했다. 각 에이전트는 역할과 권한 범위를 갖고 네트워크 내에서 작업을 수행하며 모든 행동은 기록되고 추적 가능하도록 설계됐다. 홍콩 정부는 AI 기술을 공공서비스에도 적극 도입하고 있다. HKGAI가 개발한 AI 챗봇 'HK챗(Chat)'은 지난해 11월 출시 이후 약 72만 명의 가입자를 확보했다. 향후 학교 지원 상담이나 생활비 절약 조언, 경마 데이터 분석 등 시민 생활을 지원하는 기능도 추가될 예정이다. 행정 업무에도 AI 도입이 확대되고 있다. HKGAI는 공무원 업무 지원을 위해 AI 문서 작성 도구 'HK파일럿(Pilot)'과 회의록 작성 서비스 'HK미팅(Meeting)'을 개발해 시범 운영 중이다. 현재 약 100개 정부 부처에서 5만 명에 가까운 공무원이 관련 시험 프로그램에 참여한 것으로 알려졌다. 홍콩 정부는 2027년까지 최소 200개의 행정 절차에 AI를 도입한다는 목표를 세웠다. 데이터 분석, 민원 대응, 면허 및 허가 신청 처리 등 다양한 행정 서비스에 AI를 활용해 공공서비스 효율을 높이겠다는 계획이다. 일각에선 AI의 사회적 통합을 위해서는 기술뿐 아니라 제도적 기반도 함께 마련돼야 한다고 지적했다. 특히 인간 중심으로 설계된 기존 법과 제도가 AI와의 공존을 충분히 반영하지 못한다고도 주장했다. 이에 대해 궈이커 HKGAI 소장은 "AI 에이전트가 인간과 공존하려면 사회적 정체성을 가져야 한다"며 "현재의 법적·사회적 프레임워크는 인간만을 위해 설계돼 있어 AI를 사회에 효과적으로 통합하려면 사회적 속성이 필요하다"고 말했다.

2026.03.17 09:18장유미 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

디지서트, IDC 선정 '인증서 수명주기 관리' 부문 리더 뽑혀

글로벌 디지털 트러스트(Digital Trust) 전문기업 디지서트(DigiCert, 한국지사장 나정주)는 글로벌 IT 시장조사업체 IDC가 발행한 'IDC 마켓스케이프: 전 세계 인증서 수명주기 관리(Certificate Lifecycle Management, CLM) 2026 벤더 평가' 보고서에서 리더 기업으로 선정됐다고 16일 밝혔다. 이번 IDC 마켓스케이프 보고서는 인증서 유효 기간이 지속적으로 단축되고, 복잡한 하이브리드 및 클라우드 환경에서 머신 아이덴티티가 급증하는 시장 환경의 변화를 반영했다. 디지서트는 조직의 공개키 기반구조(Public Key Infrastructure, PKI) 현대화와 인증서 운영 자동화를 지원하는 우수한 역량을 바탕으로 이번 보고서에서 리더 기업으로 평가받았다고 회사는 설명했다. IDC의 제니퍼 글렌(Jennifer Glenn) 애널리스트는 “현재 CLM 시장은 명백한 변곡점에 도달했다. 인증서 관련 장애는 이미 애플리케이션, 공급망, 디지털 서비스 전반에 광범위한 영향을 미치고 있다"면서 "인증서 갱신 주기가 지속적으로 단축되며, 기업이 양자 내성 암호(Post-Quantum Cryptography, PQC) 도입을 시작함에 따라 그 위험은 더욱 심화될 것"이라고 분석했다. 또 "이러한 배경에서 IDC는 CLM 시장의 중요성을 반영해 최초로 'CLM 부문 IDC 마켓스케이프' 보고서를 발간했다"라며 "이번 보고서는 글로벌 디지털 신뢰가 핵심 과제로 부상한 현재 상황에서 벤더들이 자동화, 확장성, 암호화 환경 변화에 어떻게 대응하고 있는지 명확하고 체계적으로 파악할 수 있도록 지원"고 설명했다. 보고서에 따르면 디지서트는 특히 다음과 같은 강점으로 높은 점수를 받았다. -운영 효율 극대화 및 자동화: 디지서트 트러스트 라이프사이클 매니저(Trust Lifecycle Manager, TLM)는 대규모 인증서 운영을 최소한의 인력으로 자동 처리할 수 있도록 지원한다. 디지서트 TLM을 도입한 고객사들은 장치 및 사용자 인증서 작업의 상당 부분을 자동화해 운영 리소스를 대폭 절감하고 있다. -비용 최적화 및 SaaS 유연성: 기존 인하우스 PKI를 디지서트 TLM SaaS로 전환한 기업들은 하이브리드 환경 내 S/MIME, 프라이빗 및 퍼블릭 TLS 관리 비용을 큰 폭으로 낮췄다. -글로벌 서비스 가용성: 매니지드 서비스 형태로 제공되는 TLM은 전 세계 다양한 지역과 기업 규모에 맞춤형 CLM 자동화 및 기술 지원을 제공한다. 디지서트는 최근 시트릭스 넷스케일러(Citrix NetScaler) 및 F5와의 통합을 완료하면서 자동화 생태계를 빠르게 확장하고 있다. 이는 강화되는 컴플라이언스 요건과 양자 내성 암호 시대로의 전환에 대비하려는 기업들의 수요에 선제적으로 대응하기 위한 전략이다. 디지서트의 디피카 차우한(Deepika Chauhan) 최고 제품 책임자(CPO)는 “디지털 신뢰 환경 변화가 이미 복잡한 기업들의 보안 과제를 더욱 가중시키고 있으며, 인증서 중단 사태는 계속해서 뉴스 헤드라인을 장식하고 있다”면서 “다양한 도전과제로 업계 난관이 커지는 가운데 CLM은 디지털 신뢰 구현에 필수 요소로 자리잡고 있으며, 이에 해당 시장을 집중적으로 다룬 최초의 IDC 마켓스케이프 보고서 발표는 매우 시의적절하다”고 짚었다. 한편, 디지서트의 TLM를 포함한 주요 보안 솔루션은 국내 공식 총판사인 SK네트웍스서비스를 통해 기업 맞춤형 컨설팅 및 기술 지원과 함께 공급되고 있다. 한편 디지서트는 디지털 신뢰 분야 글로벌 선도 기업으로, 포춘 500대 기업의 90%를 포함해 전 세계 10만 곳 이상의 고객사를 보유하고 있다 .핵심 플랫폼인 'DigiCert ONE'을 통해 PKI, DNS, 인증서 생애주기 관리(CLM)를 단일 환경에서 통합 제공한다. 또 AI 기반 자동화 역량을 바탕으로 대규모 인증서 운영과 복잡한 보안 환경을 효율적으로 관리할 수 있게 지원한다. 양자 내성 암호(PQC) 등 차세대 보안 기술 전환을 선제적으로 지원하며 미래 IT 환경에서도 지속 가능한 디지털 신뢰를 제공하고 있다고 회사는 밝혔다.

2026.03.16 21:19방은주 기자

KISA, N2SF 6개 모델 확산에 올 45억 지원

한국인터넷진흥원(KISA)이 작년에 이어 올해도 국가 망 보안 체계(N2SF) 실증 사업을 추진한다. 올해는 작년에 한 실증 사업의 정보서비스 모델(6개)을 확산하는데 주력한다. N2SF 정보서비스 모델은 국정원이 만든 것으로 현재 총 11개가 있다. 11개 중 6개모델을 대상으로 작년에 KISA가 실증사업을 했다. 올해는 작년에 한 실증사업 6개 모델을 확대하는 개념으로, 총 45억 원을 투입한다. 1개 과제당 9억 원 꼴이다. 6개 모델확산과 별개로 KISA는 작년에 실증 하지 않은 모델 하나 혹은 두 개를 대상으로 올해 처음으로 실증하는 사업도 추진한다. 즉, 작년에 실증한 모델은 올해 확산을, 작년에 실증하지 않은 모델은 올해 처음으로 실증하는, 투 트랙으로 사업을 진행한다. 권혁 한국인터넷진흥원(KISA) AI정부보호팀장은 이 같은 내용의 N2SF 실증 사업을 15일 밝혔다. 권 팀장은 "지난해 N2SF 실증 사업은 과학기술정보통신부, 행정안전부 등의 신규 서비스 2개, 국가·공공기관의 기존 업무환경 4개를 대상으로 N2SF 실증 기획·설계 및 보안성 점검을 하는 것으로 이뤄졌다"며 "이를 통해 산출물을 창출하는 것이 이번 사업의 첫 번째 목표였다. 이 산출물을 바탕으로 다른 기관에도 적용할 수 있는 방안을 제시하는 것이 최종 목표"라고 설명했다. 업무망과 인터넷망을 분리해 놓는 기존의 '망 분리' 정책은 국가·공공기관의 신기술 활용에 장벽으로 작용해왔다. 이런 한계를 극복하고자 국가정보원은 지난 2024년 망분리 개선 로드맵을 발표한 이후 N2SF라는 프레임워크를 만들어 지난해 9월부터 정식 가이드라인을 공개하며 확산에 나섰다. KISA는 N2SF의 실제 도입 성공 사례를 발굴하기 위해 실증 사업에 착수했다. 실증 과정은 ▲N2SF 적용을 위한 현황 파악 ▲C·S·O(기밀·민감·공개) 등급 분류 ▲모의해킹 등 위협 식별 ▲보안 대책 수립 ▲적절성 평가 ▲산출물의 국가정보원 보안성 검토 등 순으로 진행됐다. N2SF 적용을 위해 정보시스템식별해 C·S·O 등급별로 분류하고, RBI(원격 브라우저 격리), 제로트러스트 기반 기술 등을 적용해 보안대책을 수립한 후 모의해킹 등 적절성 평가를 거쳐 최종 산출 결과를 받아내는 과정인 것이다. 올해 N2SF 사업은 지난해 실증한 정보서비스 모델을 기반으로 국가·공공기관 도입을 지원한다. 공모사업과 용역사업으로 나눠 진행한다. 공모사업은 지난해 검증 모델의 확산 관련, 용역사업은 추가적인 실증 과정이다. 용역사업의 경우 이달 중 추가적인 계획이 확정되면 보완해 발표할 예정이다. 공모 사업은 N2SF 정보서비스 모델의 도입을 지원하고기 위해 올해 5월부터 12월까지 총 45억 원 규모(총 6개 과제, 과제별 7억5000만 원)으로 지원한다. 반드시 컨소시엄 형태로 사업에 착수해야 한다. 컨소시엄은 수요 기관이 도입을 희망하는 N2SF 정보서비스 모델을 구현·적용 및 운영 지원할 수 있는 역량을 보유한 국내 기업 3~5곳이다. 컨소시엄은 반드시 수요 기관을 확보해야 한다. 시범사업 전 과정(개발·적용·실증·운영 등)에 대해 수요기업과 구체적 협력 계획을 제시해야 한다. 공기업·비영리기관은 주관기업으로 참여할 수 없다. 수요기관은 N2SF를 실제 업무에 적용할 정보서비스를 선정한 후 운영 계획을 수립한다. 이어 C·S·O 등급별로 분류하고 컨소시엄과 협력해 국가정보원 보안성 검토 계획 및 지속적 운영을 위한 계획 수립 등의 역할을 맡는다. 권 팀장은 "지난해 실증에는 예산의 한계가 있어 아직 실증해 보지 못한 다른 보안 모델도 있다. 이런 모델에도 실증 작업을 거치고, 지난해 실증 결과는 사례집으로 만들어 배포할 예정이다"라며 "이를 통해 다른 공공기관에서도 참고하고 확산할 수 있도록 할 것"이라고 강조했다.

2026.03.16 18:28김기찬 기자

엔닷라이트, GTC 2026 '인셉션 데모 피치' 발표 기업 선정

3D AI 전문 스타트업 엔닷라이트는 16일부터 19일까지 미국 캘리포니아 산호세에서 열리는 세계 최대 인공지능(AI) 컨퍼런스 '엔비디아 GTC 2026' 엔비디아 인셉션 데모 피치 발표 기업으로 선정됐다고 16일 밝혔다. 엔비디아 인셉션 데모 피치는 엔비디아 기술을 혁신적인 방식으로 활용하는 유망 스타트업을 선발해 전 세계 투자자, 고객사, 파트너들에게 기술력과 비즈니스 모델을 선보이는 자리다. 엔닷라이트는 이번 GTC 2026 현장에서 5분간 라이브 피칭을 통해 핵심 기술인 '트리닉스'를 소개한다. 트리닉스는 로보틱스와 피지컬 AI에 즉시 활용 가능한 시뮬레이션 레디 3D 데이터를 생성하는 솔루션이다. 기존 수작업 기반 3D 에셋 제작 방식은 많은 시간과 비용이 소요되어 로봇 학습의 병목 구간으로 지적돼 왔다. 트리닉스는 엔닷라이트의 독자적인 3D CAD 엔진과 생성형 AI 모델을 결합해 이 문제를 해결한다. 텍스트나 이미지를 입력하면 물리 속성과 관절 정보가 포함된 고품질 3D 데이터를 자동으로 생성하며, 기존의 레거시 CAD 파일을 시뮬레이션에 최적화된 오픈USD 형식으로 즉시 변환해준다. 엔비디아 핵심 기술 스택을 활용해 솔루션 완성도를 높였다. 옴니버스를 통해 오픈USD 기반 데이터를 구성하고 확장 플랫폼으로 활용하고, 아이작 심을 통해 로봇 시뮬레이션 및 대규모 학습 워크플로우를 수행한다. 코스모스를 활용해 대규모 시뮬레이션 에피소드를 생성하고 시각-언어-행동(VLA) 데이터셋을 구축했다. 기존 방식 대비 데이터 생성 속도를 70% 이상 단축하고, GPU 기반 대규모 데이터 생성으로 로봇 학습 성공률을 3배 이상 높였다. 최근 정부가 주관하는 '국가 물리 AI 파운데이션 모델 컨소시엄' 공급 기업으로도 선정됐다. 엔닷라이트는 삼성전자, 네이버, AMD 등 글로벌 테크 기업 출신의 전문가들로 구성된 팀이다. 이번 GTC 2026 참가를 계기로 약 630억 달러 규모로 추산되는 글로벌 피지컬 AI 시장 공략에 박차를 가할 계획이다. 박진영 엔닷라이트 대표는 "트리닉스를 통해 제조 현장의 디지털 전환(DX)을 가속화하고, 전 세계 로보틱스 기업들이 직면한 3D 데이터 부족 문제를 해결하는 핵심 파트너가 될 것"이라고 말했다.

2026.03.16 18:25신영빈 기자

문체부, '꿈의 스튜디오' 추진…시각예술교육 거점 20곳 공모

문화체육관광부(문체부)는 한국문화예술교육진흥원과 함께 아동·청소년이 시각예술교육을 통해 창의성을 키울 수 있는 '꿈의 스튜디오' 사업을 본격 추진한다고 16일 밝혔다. 문체부는 이를 위해 4월 15일까지 사업을 운영할 전국 20개 거점기관을 공모한다. '꿈의 스튜디오'는 기존 꿈의 오케스트라, 꿈의 무용단, 꿈의 극단에 이어 시각예술 분야를 중심으로 새롭게 도입된 '꿈의 예술단' 사업이다. 지난해 시범운영을 거쳐 올해 정규사업으로 전환됐다. 아이들이 회화, 조각, 영상, 인공지능 등 다양한 매체를 활용해 직접 창작을 경험할 수 있도록 예술인 작업실이나 전문 스튜디오를 기반으로 운영하는 것이 특징이다. 공모 대상은 지역에서 중장기적으로 사업을 운영할 수 있는 문화재단, 문화기반시설 등 공공기관과 법인·단체다. 신청 기관은 시각예술 전용 공간을 확보해야 하며, 민간 예술인 작업실과 연계한 방식으로도 운영할 수 있다. 선정된 20개 거점기관에는 3년 차까지 기관당 1억 원, 4~5년 차에는 최대 5000만 원까지 국고를 연속 지원한다. 문체부는 이를 통해 지역 안착을 유도하고, 6년 차 이후에는 지방자치단체가 자립 운영할 수 있도록 성장 관리를 지원할 계획이다. 문체부와 교육진흥원은 올해 '꿈의 예술단 플러스' 시범사업도 함께 추진한다. 이 사업은 오케스트라 중심의 기존 예술교육에 국악, 합창 등 신규 음악 분야를 더하고, 참여 대상도 아동·청소년에서 영유아와 가족까지 넓힌 융복합 예술교육 모델이다. '꿈의 예술단 플러스' 운영기관 공모는 3월 26일부터 4월 23일까지 진행된다. 전국의 공공기관과 법인·단체를 대상으로 10개소를 선정할 예정이며, 선정 기관에는 기관별 1억 원 내외의 사업비를 지원한다. '꿈의 스튜디오' 공모 신청은 이나라도움을 통해 온라인으로 접수한다. 3월 25일 오후 2시에는 공모 참여를 희망하는 기관과 단체를 대상으로 온라인 설명회도 열린다. 이정미 문체부 문화정책관은 “우리 아동·청소년들이 '꿈의 스튜디오'와 '꿈의 예술단 플러스'를 통해 일상에서 수준 높은 예술을 경험하고 창의적이고 건강하게 성장할 수 있도록 지원하고자 한다”며 “문체부는 앞으로도 우리 아이들이 예술을 통해 자신을 표현하는 즐거움을 발견하고, 지역 어디에서나 양질의 예술교육을 접할 수 있는 환경을 만들어 나가겠다”고 말했다.

2026.03.16 16:25김한준 기자

김윤덕 장관, 코레일·에스알 신임 사장에 임명장 전수

김윤덕 국토교통부 장관은 16일 정부세종청사에서 김태승 한국철도공사(코레일) 신임사장과 정왕국 에스알 신임사장에게 임명장을 전수하고, 철도운영 공공기관의 책임 있는 역할을 강조했다. 김 장관은 “국민주권정부에서 새롭게 임명된 만큼 국민 편익과 안전을 최우선으로 신속하게 국정과제를 추진하고, 24시간 안전한 철도운영을 유지해야 한다”고 강조했다. 김 장관은 국민과의 약속인 고속철도 통합을 언급하며 “통합의 첫 단계였던 교차운행에 대해 많은 국민이 만족해하며 하루 빨리 더 많은 좌석이 공급되길 기대하고 있다”며 “완전한 통합을 신속하게 추진해 국민 편익을 극대화할 수 있도록 두 기관이 힘을 모아달라”고 당부했다. 이어 “안전은 절대 타협할 수 없는 국민주권정부의 최우선 가치”라면서 “열차탈선·작업자 사망사고 등이 발생하지 않도록 가용한 모든 역량을 총동원해 철도안전관리에 집중해 달라”고 강조했다. 김 장관은 특히 김태승 코레일 사장에게 “다원시스 납품지연 사태로 국민 불편을 초래한 만큼 사장을 중심으로 전사적 역량을 투입해 조기 납품과 노후 차량 대책을 챙겨 달라”고 주문했다. 이어 “최근 철도 운영 여건이 급변한 만큼 철도구조개혁이 필요한 시점”이라면서 “국민편익을 높이고 효율성을 강화하는 방향으로 철도공사 자회사 운영체계를 개선하는 방안을 조속히 마련해 달라”고 덧붙였다. 김 장관은 또 “대한민국 철도는 국민 생활에 없어서는 안 될 중요한 이동 수단”이라며 “안전하고 편리한 국민 중심의 철도 서비스를 위해 공공기관으로서 책임 있는 역할을 다해 줄 것”을 거듭 강조했다.

2026.03.16 14:50주문정 기자

당정 "비축유 단계적 방출...3월 내 추경안 편성"

더불어민주당과 정부가 16일 중동 사태에 따른 고유가 상황에서 비축유를 방출하고 석탄발전량와 원전 이용률을 높이는 에너지 수급 방안을 논의했다. 아울러 민생 경제 시장의 충격을 줄이기 위해 올해 첫 추가경정예산안을 이달 말까지 국회에 제출한다는 데 뜻을 모았다. 민주당 중동사태 경제대응 TF 간사를 맡은 안도걸 의원은 이날 국회 의원회관에서 당정 논의 이와 이같이 전했다. 안 의원에 따르면 당정은 중동 사태와 관련해 에너지 수급 안정 문제, 석유류 가격 등 물가 안정, 피해 중소기업 소상공인 지원, 외환 금융시장 안정, 추경안 편성 문제 등을 점검했다. 먼저 원유는 국제에너지기구(IEA)와 합의된 비축량인 2천 246만 배럴을 향후 3개월 간 단계적으로 방출한다. 현재 원유 비축량은 208일분, 액화천연가스(LNG) 9일분이 있는 것으로 알려져 있다. 안 의원은 LNG 비축량이 적지만 12월 말까지 사용 가능한 물량을 확보했다고 했다. 에너지 수급을 고려해 석탄발전량을 설비 용량의 80%로 제한한 상한제를 해제하고, 원전 이용률은 현재 60% 후반대에서 80%대까지 끌어올린다. 석유화학업체가 핵심 원자재 부족으로 어려움을 겪는 상황을 고려해 여수 석화산업단지를 산업위기 특별대응 지역으로 격상하는 방안도 검토되고 있다.수급 차질을 빚고 있는 플라스틱의 원료인 나프타는 국내 생산 물량의 해외 수출을 전년 수준으로 동결하기로 했다. 석유 최고가격제 이행을 안착시키기 위해 가격 안정에 기여하는 우수 주유소에 인센티브를 부여하기로 했다. 알뜰주유소의 석유 가격은 당초 3회 위반 시 면허 취소에서 1회만 위반해도 취소하기로 했다. 당정은 에너지 민생 위기를 극복하기 위한 추경안이 긴급히 편성돼야 한다는 데 뜻을 모았다. 안 의원은 “고유가, 수출 피해 등으로 경기 하방 압력 요인이 발생하고 있어 선제적인 대응이 필요하다. 정부는 지난 주말부터 예산편성 작업에 착수했다”며 “3월 말까지는 정부안을 국회에 제출한다는 목표로 서두르고 있다”고 밝혔다. 이어 “추경안의 주요 내용에서 가장 중요한 것은 에너지 수급 안정”이라며 “최고가격제 운영과 관련한 정유사의 손실 보전 수요가 있고 유류비 경감, 서민 소상공인에 대한 에너지 바우처 지원, 수출 피해기업의 물류 자금 지원 등도 포함된다”고 설명했다. 추경 규모와 관련해 “재정경제부에서 초과 세수 규모를 심층적으로 검토하고 있을 텐데, 올해 초과 세수 예산분이 15조∼20조원이라는 게 일반적인 관측”이라며 “실제 추경 규모는 별도로 결정될 것”이라고 덧붙였다.

2026.03.16 14:45박수형 기자

정부, '에이전틱AI 얼라이언스' 막바지 담금질…분과 줄이고 외연 확대

과학기술정보통신부와 한국지능정보사회진흥원(NIA)이 추진 중인 인공지능(AI) 에이전트 분야 연합체가 분과 구성을 손질하고 출범 막바지 정비에 들어갔다. 16일 정부와 업계에 따르면 NIA는 기존 5개 분과로 기획했던 '에이전틱AI 얼라이언스'를 4개 분과 체제로 조정했다. 이르면 3~4월 공식 출범을 목표로 준비 작업을 이어가고 있다. 과기정통부는 지난달 중 발족을 목표했으나, 분과 구성 조정과 참여 기관 확대 등 막바지 작업이 길어지면서 일정이 다소 지연됐다. 출범 준비 과정에서 분과 구성도 변화가 생겼다. 5개 분과 중 하나로 포함됐던 거버넌스 분과가 빠지면서 ▲산업 ▲기술 ▲생태계 ▲안전·신뢰 등 4개 분과 체제로 재편됐다. 실무 효율성을 높이고 현장 수요에 기민하게 대응하기 위한 조치라는 게 NIA 측 설명이다. 참여 규모도 당초 예상을 웃도는 수준으로 불어났다. 1차 모집 당시엔 AI 관련 기업만을 대상으로 했으나 2차 추가 모집을 통해 대학·연구소·정부 기관 등으로 참여 범위를 대폭 넓혔다. 그 결과 현재까지 200여 개 기업·기관이 참여 의사를 밝힌 상태다. 얼라이언스가 민간 주도 협의체를 표방하는 만큼, 산학연관 전방위로 외연을 넓혀 국내 AI 에이전트 생태계의 구심점 역할을 하겠다는 구상이다. 얼라이언스의 핵심 과제는 급성장하는 AI 에이전트 서비스 시장에서 국내 기업들이 글로벌 경쟁력을 확보할 수 있도록 유통·거래 표준을 선제적으로 마련하는 것이다. 데이터 표준화와 수익 배분 모델 등 현장 기업들이 공통으로 직면한 실무적 고민을 민관이 함께 풀어가겠다는 취지다. 이진수 과기정통부 인공지능기반정책관은 앞서 "서비스 유통이나 거래 표준화가 시급하다는 판단 아래 얼라이언스 구성을 논의 중"이라고 밝혔다. 분과별 운영 기관은 이미 지정된 상태지만 분과장 선임 등 세부 조직 구성은 마무리되지 않았다. 운영 방식과 역할 분담 등 구체적인 활동 계획도 출범식 이후 논의를 거쳐 최종 확정될 예정이다. NIA 관계자는 "출범 전 막바지 구성 정리 단계"라며 "분과별 세부 운영 방안을 포함한 구체적인 활동은 출범식 이후 본격화될 것"이라고 말했다.

2026.03.16 14:40이나연 기자

웨이브, 'SSF샵'에 맞춤형 CMS '모사' 적용… "콘텐츠 운영 효율 극대화"

패션, 이커머스 기업에서 복잡한 콘텐츠 운영 환경을 개선하기 위한 운영 중심 콘텐츠 관리 시스템(CMS) 구축 사례가 확산되고 있다. 웨이브(대표 김훈)는 콘텐츠 운영 플랫폼 '모사(MOSA)'를 통해 패션, 이커머스 기업에 최적화된 운영 중심 CMS 구축 사례를 확대하고 있다고 16 밝혔다. 모사는 다수 브랜드와 다양한 온라인 채널을 동시에 운영하는 기업 환경에서 콘텐츠 제작, 수정, 배포 과정을 체계적으로 관리하기 위해 설계된 플랫폼이다. 패션, 이커머스 산업은 시즌별 캠페인과 프로모션이 빈번해 콘텐츠 운영 복잡성이 높다. 이에 따라 단기 구축 중심 CMS가 아닌 지속적인 운영 효율 개선을 전제로 플랫폼 구조를 설계한 것이 특징이다. 플랫폼은 템플릿 기반 구조를 적용해 페이지 제작과 개편 작업을 표준화했다. 반복적인 콘텐츠 수정과 배포 업무를 줄이고 콘텐츠 관리 효율을 높이는 데 초점을 맞췄다. 이를 통해 마케팅과 운영 조직이 콘텐츠 구성과 수정 업무를 직접 수행할 수 있는 환경을 제공한다. 동시에 검수와 승인 절차 역시 일관성 있게 관리할 수 있도록 운영 체계를 마련했다. 개발 조직은 반복적인 운영 대응 업무에서 벗어나 핵심 시스템 고도화와 신규 프로젝트에 집중할 수 있도록 협업 구조도 고려했다. 웨이브는 최근 삼성물산 패션부문이 운영하는 온라인몰 'SSF샵'에 모사를 적용하며 대형 패션 기업 환경에서의 운영 경험도 확보했다. 해당 프로젝트는 다수 브랜드와 채널을 동시에 운영하는 구조에서 콘텐츠 관리 체계를 재정비하고 운영 프로세스를 표준화한 사례다. 회사 측은 이를 모사의 확장성과 적용 가능성을 보여주는 대표 레퍼런스로 평가하고 있다. 최근 모사는 기업 환경에 맞춰 인공지능 기능을 선택적으로 활용할 수 있도록 플랫폼을 고도화했다. 기업이 자체 개발한 대규모 언어모델(LLM)과 연동하거나 상용 AI 서비스와 연결하는 방식 모두 지원한다. 이를 통해 기업의 보안 정책과 데이터 통제 기준에 맞는 형태로 AI 기능을 활용할 수 있도록 설계했다. AI 기능은 콘텐츠 작성 보조, 디자인 추천, 이미지와 영상 생성 등 실무 생산성 향상을 지원하는 영역 중심으로 적용된다. 기업은 필요에 따라 기능 적용 범위를 자율적으로 설정할 수 있다. 업계에서는 이번 사례를 계기로 다수 브랜드와 채널을 동시에 운영하는 패션, 이커머스 기업을 중심으로 운영 중심 CMS 수요가 확대될 것으로 보고 있다. 김훈 웨이브 대표는 "초기 설계 단계부터 실무자가 실제로 편해지는 운영 구조를 만드는 데 집중했다"며 "고객사의 운영 환경과 보안 정책을 존중하면서도 실질적인 생산성을 높일 수 있는 플랫폼으로 지속 고도화하겠다"고 말했다.

2026.03.16 13:23남혁우 기자

넥슨 엠바크스튜디오, AI 목소리 일부 재녹음...전문 성우 기용

'아크 레이더스' 개발사인 엠바크 스튜디오가 인공지능(AI)으로 제작했던 일부 음성 대사를 전문 성우의 목소리로 교체했다. 16일(현지시간) 게임스팟에 따르면 패트릭 쇠더룬드 엠바크 스튜디오 최고경영자(CEO, 겸 넥슨 회장)는 최근 외신 인터뷰를 통해 아크 레이더스의 일부 AI 생성 음성을 성우의 녹음본으로 재작업했다고 밝혔다. 그는 실제 전문 배우와 AI 사이에는 분명한 품질 차이가 존재하며, 전문 배우가 AI보다 더 나은 결과물을 보여준다고 언급했다. 아크 레이더스는 출시 직후 스팀에서 동시 접속자 수 50만명에 육박하는 성적을 거두었으나, AI 기반 텍스트 음성 변환(TTS)을 활용한 캐릭터 음성이 몰입감을 해친다는 비판을 받아왔다. 이에 엠바크 스튜디오 측은 배우들에게 적절한 비용을 지불하고 AI 학습에 활용했다고 설명했다. 당초 스튜디오는 몰입도에 큰 지장을 주지 않는 부수적인 대사에만 AI를 제한적으로 사용한다는 방침이었다. 그러나 이용자들의 불만이 지속되자 성우의 목소리를 재녹음했다. 쇠더룬드 CEO는 업데이트 과정에서 성우들과의 협업을 지속할 예정이라고 덧붙였다. 다만 이번 조치가 게임 내 모든 AI 음성을 완전히 배제하는 것을 의미하지는 않는다. 쇠더룬드 CEO가 '일부' 음성을 교체했다고 언급한 만큼, 효율성 차원에서 특정 영역의 AI TTS 활용은 유지될 가능성이 남아 있다.

2026.03.16 10:39진성우 기자

[기고] 에이전틱 AI, 보험 산업 디지털 전환 이끈다

지난 10년 동안 보험업계에서 인공지능(AI)은 핵심 업무보다 주변 영역에서 제한적으로 쓰이는 경우가 많았다. 개념 증명(PoC)이나 가능성 확인 수준의 파일럿 프로젝트가 대부분이었고, 실제 핵심 운영 구조를 바꾸는 사례는 드물었다. 지난해 말 기점으로 이런 흐름에 분명한 변화가 나타났다. 전 세계 대다수 보험사가 실제 업무 환경에 생성형 AI를 도입하면서, 논의 초점도 '도입 여부'에서 '얼마나 빠르고 효과적으로 활용할 것인가'로 옮겨갔다. 이제 점진적인 자동화나 개별 AI 도구만으로는 충분하지 않은 시대가 왔다. 진정한 경쟁력은 업무 전 과정을 엔드투엔드 관점에서 재설계하고, 단순한 조언을 넘어 실제 업무를 직접 수행하는 AI 시스템을 구축하는 데서 나온다. 이런 맥락에서 에이전틱 AI가 주목받고 있다. 이는 단순한 마케팅 용어가 아니라 AI 활용 방식 자체 패러다임 전환을 보여주는 개념이다. 보험업계는 그동안 과도하게 부풀려진 기술 용어를 적지 않게 접했다. 그러나 에이전틱 AI와 기존 접근 방식 차이는 단순한 명칭 문제가 아니라 실제 운영 방식 다름에 있다. 기존 AI 시스템은 머신러닝(ML) 모델이나 챗봇처럼 대부분 제한된 범위에서 작동한다. 데이터를 분석하고 인사이트를 도출하거나 질문에 답할 수 있지만, 대부분 권고 수준에서 역할이 끝난다. 이후 여러 시스템에서 실제 업무를 처리하는 과정은 여전히 사람이 맡아야 한다. 에이전틱 AI는 이런 구조를 근본적으로 바꾼다. AI 에이전트는 명확한 가드레일 안에서 필요 시 사람이 개입하는 휴먼 인 더 루프 체계를 전제로 작동한다. 사람이나 시스템을 대신해 여러 애플리케이션과 데이터 소스 전반에서 인식·추론·실행을 수행하는 프로그램이다. 예를 들어 브로커 제출 자료 검증, 보험금 청구 분류, 서비스 요청 처리 같은 목표가 주어지면 에이전트는 수행 절차를 스스로 설계하고 필요한 도구를 호출해 기록 시스템에 처리 결과를 반영한다. 기존 AI와의 가장 큰 차이는 여기에 있다. AI 에이전트는 판단이나 제안을 내놓는 데 그치지 않고, 정해진 업무를 끝까지 직접 완수한다. 이런 변화는 단순한 기술 혁신의 결과가 아니다. 여러 기술적·사업적 요인이 동시에 맞물린 결과다. 우선 언어 모델이 실제 업무에 활용할 수 있는 수준에 도달했다. 복잡한 비정형 문서를 운영 환경에서도 충분한 정확도로 분석하고 추론할 수 있게 됐다. 또 자동화와 시스템 통합 기술이 성숙 단계에 접어들었다는 점이다. AI 에이전트가 서로 다른 레거시 환경에서도 안정적으로 기능할 수있게 됐다. 보험사를 둘러싼 경영 환경 자체가 점진적인 개선만으로는 감당하기 어려운 국면에 이르렀다는 점도 주요 원인이다. 계속되는 대규모 재해 손실과 인플레이션, 심화되는 경쟁은 수익성을 지속적으로 압박하고 있다. 동시에 고객과 브로커는 더 빠르고 명확한 디지털 서비스를 기대하고 있다. 에이전틱 AI를 구현하는 아키텍처 에이전틱 AI가 기존 방식과 구별되는 지점은 단순 기술 역량이 아니라 이를 구현하는 아키텍처에 있다. 핵심은 인식·추론·실행이 실제운영 시스템 안에서 어떻게 유기적으로 연결되느냐에 있다. 특히 가치 창출까지 걸리는 시간은 중요한 기준이 부상하고 있다. 다수 기업 이사회는 90일에서 180일 내 가시적인성과를 기대하며, 이는 모델 선택부터 오케스트레이션 방식까지 모든 설계 결정에 영향을 미친다. 실제 에이전틱 AI를 확장해 적용하는 보험사들은 언어 모델을 필요에 따라 교체 가능한 구성 요소로 보고, AI 에이전트는 제품처럼 관리되는 단위로 설계한다. 오케스트레이션은 시스템·모델·자동화를 아우르는 통합 관리 계층으로 운영한다. 거버넌스는 추후 고려할 문제가 아니다. 모든 에이전트 행동은 확인 가능하고 감사 추적이 가능해야 한다. 규제기관과 내부 리스크 위원회의 요구를 충족하려면, 명확한 가드레일과 휴먼 인 더 루프 통제 체계를 갖추는 것이 필수다. 이 요구사항은오케스트레이션 계층에 로깅, 모니터링, 제어 메커니즘을 기본으로 포함하도록 만든다. 모델 유연성(model flexibility)도 고려할 만한 요소다. 언어 모델이 빠르게 진화하는 환경에서 특정 공급업체나 독점 생태계에 종속되는 것은 장기적인 리스크가 될 수 있다. 성공적인 접근 방식은 에이전트 워크플로우를 다시 구축하지 않고도 모델을 교체할 수있는 추상화 계층(Abstraction Layer)을 유지하는 것이다. 에이전틱 AI의 가장 큰 특징은 AI가 생성한 인사이트와 실제 업무 실행 사이의 간극을 메운다는 점이다. 기존 방식에서는 AI가 분석 결과를 제공하더라도, 후속 작업은 사람과 기존 자동화 시스템이 대부분 처리해야 했다. 그 결과 처리 지연과 업무의 불일치, 반복적인 수작업이 이어졌다. 에이전틱 AI는 이 구조를 바꿔 추론과 실행을 하나의 흐름으로 통합한다. 예를 들어 브로커 제출 자료가 접수되면, 에이전트는 단순히 데이터를 추출하는 데 그치지 않는다. 자료를 표준화하고 가이드라인에 따라 검증하며 시스템에 필요한 정보를 사전에 입력한다. 이어서누락된 정보를 확인하고 응답 초안을 작성한 뒤, 검토를 위해 파일을 대기열에 올린다. 이 모든 과정은 완전한 감사 추적이 가능한 상태로, 몇 분 안에 이루어진다. 보험업계의 관심 'AI가 도움이 되는가'에서 'AI 네이티브 워크플로 중심으로 운영 모델을 어떻게 재설계할 것인가'로 옮겨가고 있다. AI를 단순한 도구가 아니라 인프라로 바라보는 이 시각은 보험업계를 넘어 금융 서비스 전반으로 번지고 있다. 에이전틱 AI는 인간의 전문성과 시스템 운영을 이어주는 새로운 아키텍처 계층이다. 보험사가 제공하는 상품의 형태, 시장 변화에 대응하는 속도, 조직이 요구하는 인력 역량까지 근본적으로 바꿀 수 있다. 기술은 이미 임계점을 넘어섰다. 이제 관건은 조직이다. 이를 단순한 기술 도입이 아니라 아키텍처 차원의 전환으로 이해하는 보험사가, 앞으로 시장 변화를 주도하게 될 것이다. 올해 이 변화를 먼저 실행에 옮기는 보험사는 더 나은 AI를 넘어 더 강한 경쟁력을 갖춘 비즈니스를 손에 쥐게 될 것이다.

2026.03.16 10:14형원준 유아이패스코리아 지사장 컬럼니스트

"AI가 기업 운영 바꾼다"…채용·거버넌스·SW 시장까지 재편될 듯

인공지능(AI) 확산이 기업의 데이터·분석(D&A) 전략과 조직 운영, 시장 경쟁 구조 전반을 재편할 것이라는 전망이 나왔다. 인재 전략부터 생산성 소프트웨어, 데이터 인프라, 거버넌스 체계까지 AI 중심 변화가 가속화될 것이란 예상이다. 16일 가트너가 발표한 'D&A 분야 2026년 주요 전망'에 따르면 인재 전략 측면에서 AI 활용 역량 검증이 채용 과정의 핵심 요소로 자리 잡을 것으로 관측됐다. 또 2027년까지 전체 채용 프로세스의 75%가 직장 내 AI 활용 능력을 평가하는 인증 또는 테스트를 포함할 것으로 전망됐다. 생산성 소프트웨어 시장도 큰 변화를 맞을 것으로 예상된다. 가트너는 2027년까지 생성형 AI와 AI 에이전트 확산으로 지난 30년간 큰 변화가 없던 생산성 도구 시장에서 약 580억 달러 규모의 구조적 변화가 나타날 것으로 예상했다. 또 콘텐츠 제작과 편집 과정도 인간 중심 작업에서 AI가 분석·재구성하고 반복적으로 재가공하는 방식으로 전환될 것으로 내다봤다. AI 데이터 생성 방식 역시 변화할 전망이다. 가트너는 2029년까지 물리적 환경에서 활동하는 AI 에이전트가 생성하는 데이터가 디지털 AI 애플리케이션이 생성하는 데이터보다 10배 많아질 것으로 예상했다. 물리 세계와 상호작용하는 AI 애플리케이션이 이동 경로와 공간 정보 등 방대한 데이터를 생성하면서 이를 기반으로 한 '월드 모델(world model)'의 예측 및 시뮬레이션 활용도 확대될 것으로 분석했다. AI 거버넌스도 자동화 단계로 진입할 것으로 보인다. 가트너는 2030년까지 조직의 50%가 자율형 AI 에이전트를 활용해 거버넌스 정책과 기술 표준을 데이터 계약 형태로 해석하고 준수 여부를 자동으로 관리할 것으로 전망했다. 다만 같은 시기 AI 에이전트 도입 실패 사례의 절반은 거버넌스 플랫폼 실행 관리 부족과 시스템 간 상호운용성 문제에서 발생할 가능성이 제기됐다. AI 기반 기업 경쟁력에서도 새로운 유형의 스타트업이 등장할 것으로 예상된다. 가트너는 2030년까지 직원 1인당 연간 반복 매출(ARR) 200만 달러 수준의 효율성을 달성하는 초고효율 AI 스타트업 유니콘이 등장할 것으로 내다봤다. 이러한 기업은 투자 규모보다 자본 효율성과 성과 중심 가치 평가를 기반으로 성장할 것으로 분석된다. AI 시대의 리더십 요소로는 인간 관계 역량이 강조됐다. 가트너는 2030년까지 AI 경쟁력을 확보한 조직의 60%가 인간 관계 역량을 중시하는 경영진이 이끌 것으로 전망했다. 특히 협업과 영향력을 기반으로 조직 내 역할을 확대하는 최고데이터책임자(CDAO)의 전략적 중요성이 높아질 것으로 예상된다. 데이터 인프라 측면에서는 '유니버설 시맨틱 레이어(universal semantic layer)'가 핵심 기반 기술로 부상할 것으로 전망됐다. 가트너는 2030년까지 해당 기술이 데이터 플랫폼과 사이버보안과 함께 핵심 디지털 인프라로 간주될 것으로 내다봤다. 이는 AI 정확도를 높이고 비용을 관리하며 다중 에이전트 시스템 간 데이터 정합성을 유지하는 데 중요한 역할을 할 것으로 평가된다. 또 콘텐츠 리스크 관리 체계도 변화할 것으로 예상된다. 가트너는 2028년까지 콘텐츠 리스크 관리 기능의 절반이 법무 및 사이버보안 조직에서 AI 엔지니어링 조직으로 이동할 것으로 전망했다. AI가 생성하는 콘텐츠의 위험을 사후 대응이 아닌 설계 단계에서 관리하는 방식이 확산될 것이라는 분석이다. 리타 살람 가트너 수석 VP 애널리스트는 "데이터와 인공지능의 변화 속도는 매우 빠르기 때문에 매년 새로운 공상과학 소설의 장을 여는 것과 같다"며 "올 한 해는 인간, 기계, 조직의 지능 간 경계가 더욱 모호해지고 기업들은 전례 없이 데이터에 의존하게 될 것"이라고 말했다. 이어 "AI 시스템은 단순히 인간을 지원하는 수준을 넘어 협력 파트너로 자리잡게 될 것"이라고 덧붙였다.

2026.03.16 10:11장유미 기자

한화, 테크·라이프 시너지 본격화…갤러리아·아워홈에 AI·로봇 도입

한화그룹 테크(Tech)와 라이프(Life) 솔루션이 '부문 간 시너지 창출'을 통한 새 사업모델 개발에 본격 착수했다고 16일 밝혔다. 이를 통해 고객 편의 향상 등 각 사의 경쟁력을 높이는 동시에, 신시장을 개척해 새로운 수익을 창출한다는 계획이다. 신설 지주 설립에 앞서 부문 간 시너지 일부가 모습을 드러내면서 향후 테크와 라이프 부문에 대한 투자와 전략적 협업에 속도를 낼 것으로 전망된다. 앞서 한화그룹은 일부 계열사의 인적 분할과 신설 지주인 한화머시너리앤서비스홀딩스 설립 계획을 발표하면서 “부문 간 시너지를 활용한 신사업 개척을 통해 기업가치를 극대화하겠다”고 밝힌 바 있다. 양 부문은 이번 협업을 시작으로 유통·서비스 분야는 물론 다양한 산업 현장에 활용할 수 있는 '신기술'과 '고객 맞춤형 서비스' 발굴에 나선다는 방침이다. 갤러리아백화점과 호텔·리조트에는 고객 편의 향상을 위해 한화비전과 한화로보틱스의 첨단기술을 활용한 맞춤형 서비스 도입을 추진한다. 다양한 고객이 모여드는 백화점의 특성을 고려해 AI 카메라를 통한 매장 혼잡도 분석, 고객 선호 등을 파악해 운영 효율과 함께 고객 편의를 끌어올린다는 구상이다. AI 카메라에 이상 상황이 포착되면 직원에게 곧바로 알림을 보내 대응하도록 하는 시스템도 구축한다. 각 사 F&B 부문은 비노봇(VINOBOT), 조리로봇과 같이 한화로보틱스의 협동로봇을 고객 서비스에 활용한다는 계획이다. 한화갤러리아 관계자는 “앞으로 테크 솔루션 부문과의 협력이 본격화되면 고객 응대와 서비스의 질이 한층 강화될 것”이라면서 “패턴 분석 등 다양한 데이터 축적을 통해 맞춤형 서비스를 제공하는 동시에 매출 증대를 이뤄나갈 것”이라고 말했다. 단체급식, 식자재 유통 등 식품 시장 개척에 주력하고 있는 아워홈은 ▲안전사고 예방 ▲식품 위생 및 품질 관리 ▲원활한 식자재 공급 등을 위해 한화비전의 인공지능(AI) 기술을 일부 사업장에 시범 도입한다. 주방에 설치된 AI 카메라는 조리사 입장과 동시에 복장과 위생 수칙 준수 여부 등을 실시간 점검한다. 주변의 이상 소리와 온도 등을 감지해 화재 등 사고를 예방하는 '안전 지킴이' 역할도 수행한다. 아워홈 관계자는 “작업자 상태와 조리실 상황을 AI 기술을 통해 실시간으로 모니터링 할 수 있어 위생 및 안전 관리가 훨씬 수월해질 것”이라면서 “이전보다 조리 집중도가 높아지면서 음식 품질도 향상될 것으로 기대한다”고 말했다. 효율적인 식자재 공급을 위해 '지능형 자동 발주 시스템' 적용도 추진한다. 식재료 입고 시 바코드 인식과 영상 촬영 기능이 통합 적용된 'BCR 카메라'가 실시간 재고를 자동 등록하고 AI가 스스로 발주하는 '맞춤형 SCM 솔루션' 개발에 나선다. AI 카메라를 통해 이용자들의 선호 식단을 분석해 메뉴를 개선하는 작업도 진행한다. 테크·라이프 솔루션 두 부문은 현재 추진중인 인적 분할이 마무리되는 대로 별도 조직을 구성해 부문 간 시너지 창출을 통한 신사업 개발에 나선다는 방침이다. 신기술은 라이프 부문 사업장에 우선 적용하고, 이후 사업 모델로 키워 새로운 외부 수익 창출을 꾀한다는 계획이다. 한화 관계자는 “부문 간 시너지는 한화머시너리앤서비스홀딩스가 그리는청사진을 보여주는 주요 지표 중 하나”라면서 “지속적인 연구개발(R&D) 투자와 협업을 통해 우리 일상을 보다 편리하고 윤택하게 만들 수 있는 다양한 기술을 개발해 나갈 것”이라고 말했다.

2026.03.16 09:43김민아 기자

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

10만~60만 고유가 피해지원금...취약계층 27일부터 지급

NASA 유인우주선 ‘아르테미스 2호’ 무사 귀환

이연수 NC AI 대표 "모두가 크리에이터…다른 기업과 협력 원해"

닻 올린 방미통위, 방송 3법 시행령 개정 착수..."현장 안착 추진"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.