• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능'통합검색 결과 입니다. (4703건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"엔비디아 제친다"…구글, 학습·추론용 '8세대 TPU' 공개

구글이 인공지능(AI) 에이전트 추론 경쟁력을 높이기 위해 새 칩을 공개했다. 구글클라우드는 22일(현지시간) 미국 라스베이거스에서 열리는 '구글클라우드 넥스트 2026'를 앞두고 진행한 미디어 브리핑에서 학습용 8세대 '텐서처리장치(TPU) 8t'와 추론용 'TPU8i'를 동시에 출시한다고 밝혔다. 이번 발표 핵심은 AI 학습과 추론을 분리한 점이다. AI 에이전트 확산으로 실제 업무를 수행하는 추론 중요성이 커지면서 칩 구조도 목적별로 최적화한 것이다. 학습용 8t는 연산 처리량을 극대화한 구조로 이뤄졌다. 전 세대 대비 성능이 3배 향상됐다. 대규모 데이터에서 패턴을 학습하는 데 초점을 맞춘 설계다. 추론용 8i는 지연 시간을 줄이고 동시 처리 능력을 강화했다. 전 세대 대비 성능은 80% 올랐으며, 온칩 집단 연산 지연은 최대 5배 감소했다. 온칩 집단 연산은 칩 내부에서 데이터 결합과 분산 처리를 즉시 수행하는 기술이다. 이를 통해 AI 에이전트가 더 복잡한 작업을 빠르고 적은 에너지로 처리할 수 있다. 구글클라우드는 2015년 1세대 TPU 공개 후 2~3년 주기로 신제품을 내놨다. 챗GPT 등장 이후에는 매년 출시 주기를 앞당기며 개발 속도를 높이고 있다. 이번 8세대 TPU는 연내 정식 출시될 예정이다. 구글클라우드는 엔비디아 GPU 공급 부족 상황을 기회로 삼아 AI 인프라 시장 점유율을 확대하겠다는 전략을 밝혔다. 이 외에도 구글클라우드는 자체 모델 '제미나이'를 포함한 풀스택 전략을 강조했다. 칩과 모델 서비스 보안을 통합해 기업용 AI 에이전트 환경을 구축하겠다는 구상이다. 구글클라우드는 "이번 칩 시리즈는 AI 에이전트가 더 복잡한 문제를 더 적은 에너지로 더 빠르게 해결할 수 있게 돕는다"고 밝혔다.

2026.04.22 21:37김미정 기자

구글클라우드 CEO "AI가 업무하는 시대…'지능 통합' 필수"

"인공지능(AI)이 단순 도구에서 기업 운영 전반을 실행하는 주체로 진화했습니다. 이럴수록 중요한 것은 AI 지능을 한데 통합하는 것입니다. 우리는 AI 에이전트 구축부터 운영까지 전 과정을 아우르는 플랫폼을 통해 기업을 지원할 것입니다." 토마스 쿠리안 구글클라우드 최고경영자(CEO)는 '구글클라우드 넥스트 2026'를 앞두고 열린 미디어 브리핑에서 통합 AI 플랫폼을 핵심 인프라로 강조했다. 쿠리안 CEO는 데이터와 애플리케이션, 사람을 연결해 모든 업무를 지능형 흐름으로 통합하는 것이 핵심이라고 주장했다. 이번 행사에 공개될 핵심 기술은 '제미나이 엔터프라이즈 에이전트 플랫폼'이다. 이 플랫폼은 에이전트 구축을 비롯한 확장, 거버넌스, 최적화를 한 환경에서 처리할 수 있도록 설계됐다. 쿠리안 CEO는 "기업은 이 플랫폼으로 실제 업무 수행하는 실행형 AI를 도입할 수 있을 것"이라며 "에이전트 간 협업을 지원하는 오케스트레이션 기능으로 복잡한 업무 흐름까지 자동화할 수 있을 것"이라고 강조했다. 이 플랫폼에는 개발자뿐 아니라 비개발자를 위한 기능이 포함됐다. 자연어 기반으로 에이전트를 만드는 '에이전트 스튜디오'와 에이전트 자산을 관리하는 '에이전트 레지스트리', 장기 기억을 제공하는 '메모리 기능' 등이 대표적이다. 쿠리안 CEO는 플랫폼 내 보안과 통제 기능도 강화됐다고 밝혔다. 에이전트별 고유 ID를 부여하는 '에이전트 아이덴티티'와 정책 기반 통제를 수행하는 '에이전트 게이트웨이', 이상 행동을 탐지하는 '에이전트 디텍션' 기능이 통합적으로 보안 강화에 활용된다. 쿠리안 CEO는 제미나이 엔터프라이즈 앱 활용 사례도 공유했다. 해당 앱은 에이전트를 생성·공유·실행할 수 있는 통합 인터페이스를 제공한다. 반복 업무를 자동화하는 '스킬'과 문서 작업을 지원하는 '캔버스' 기능도 추가됐다. 쿠리안 CEO는 "앞으로 기업 운영 구조 자체가 바뀔 것"이라며 "AI는 정보 조회 중심에서 벗어나 업무를 직접 실행하는 행동 중심 AI로 진화할 것"이라고 내다봤다.

2026.04.22 21:02김미정 기자

구글클라우드 "AI 하이퍼컴퓨터, 수백만 에이전트 동시 구동"

"인공지능(AI) 경쟁 중심이 모델 성능에서 인프라와 데이터로 이동하고 있습니다. 우리는 수백만 개 AI 에이전트를 동시에 구동할 수 있는 컴퓨팅·데이터 환경을 구축해 기술 주도권을 확보할 것입니다." 토마스 쿠리안 구글클라우드 최고경영자(CEO)는 21일 미국 라스베이거스에서 열리는 '구글클라우드 넥스트 2026' 기자간담회에서 인프라·데이터 전략을 이같이 밝혔다. 그는 인프라 전략 핵심으로 'AI 하이퍼컴퓨터'를 꼽았다. 이는 텐서처리장치(TPU)를 비롯한 그래픽처리장치(GPU), 중앙처리장치(CPU), 스토리지, 네트워크를 통합 시스템으로 결합해 AI 워크로드를 최적화하는 목적형 아키텍처다. 쿠리안 CEO는 "이 인프라는 AI 연산 성능과 전력 효율을 동시에 끌어올릴 수 있다"고 강조했다. AI 하이퍼컴퓨터는 여러 계층으로 이뤄졌다. 우선 컴퓨트 계층에서는 8세대 TPU가 대규모 연산을 담당한다. 학습용 'TPU 8t'는 인터칩 인터커넥트(ICI) 기반으로 작동한다. 이는 단일 슈퍼포드에서 최대 9600개 TPU와 2PB 메모리까지 확장됐다. 이전 대비 최대 3배 높은 성능을 제공하는 셈이다. 여기서 추론용 'TPU 8i'는 대규모 에이전트 운영에 초점을 맞췄다. 온칩 초고속 임시 메모리(SRAM) 확대와 전용 연산 가속 엔진을 탑재했다. 쿠리안 CEO는 "이 엔진으로 추론 성능을 달러당 최대 80% 개선했다"며 "수백만 개 에이전트를 비용 효율적으로 실행할 수 있도록 설계됐다"고 설명했다. 쿠리안 CEO는 TPU뿐 아니라 컴퓨트 선택지도 기존보다 넓혔다고 밝혔다. 엔비디아 GPU '호퍼'와 '블랙웰'에 이어 차세대 '베라루빈 NVL72'를 도입했으며, 자체 설계한 '엑시온 CPU'를 통해 x86 대비 두 배 수준의 가격 대비 성능을 제공한다는 설명이다. 그는 네트워크 중심 컴퓨팅도 확장됐다고 발표했다. 신규 C4N·M4N 인스턴스는 대규모 에이전트 간 통신과 5G 코어, 데이터베이스 워크로드에 최적화됐으며, 네트워크 대역폭은 기존 대비 최대 4배 향상됐다. 구글클라우드는 스토리지와 네트워크 성능도 개선했다. 매니지드 러스터(Managed Lustre)는 초당 10테라바이트(TB) 처리량을 지원하며, 래피드 스토리지(Rapid Storage)는 최대 15TB/초 성능으로 학습과 추론 속도를 끌어올린다. 스마트 스토리지(Smart Storage)를 통해 비정형 데이터에 의미적 맥락을 부여해 엔터프라이즈 지식 그래프 기반을 구축했다. "수십만 가속기 연결…AI 네트워크 확장" 이날 구글클라우드는 대규모 AI 학습을 위한 네트워크와 소프트웨어(SW) 운영 구조를 포함한 차세대 AI 인프라 전략을 공개했다. 특히 대규모 에이전트 운영을 위한 네트워크와 실행 환경 혁신이 핵심으로 제시됐다. 대규모 AI 학습을 위한 '버고 네트워크'는 TPU 슈퍼포드와 GPU 시스템을 연결해 수십만 개 가속기를 하나의 초대형 슈퍼컴퓨터처럼 운용할 수 있도록 지원한다. 소프트웨어 계층에서는 AI 실행 환경이 개선됐다. 구글은 TPU에서 파이토치를 네이티브로 지원하고 GPU와 TPU 전반에서 가상거대언어모델(vLLM) 최적화를 제공한다. 또 구글 쿠버네티스 엔진은 초당 300개 에이전트 샌드박스를 배포하고 초기 실행 시간을 서브초 수준으로 줄여 대규모 추론 확장성을 확보했다. 쿠리안 CEO는 클라우드 운영 방식도 개선했다고 밝혔다. 구글은 모델 컨텍스트 프로토콜(MCP) 기반으로 클라우드 인프라를 에이전트가 직접 제어하는 구조를 도입했다. 이를 통해 시스템은 텔레메트리 데이터를 활용해 스스로 문제를 진단하고 근본 원인 분석과 설정 최적화를 자동 수행하는 자율 운영 체계로 전환된다. 그는 데이터 아키텍처도 바뀌었다고 밝혔다. '에이전틱 데이터 클라우드'는 기존 저장 중심 구조에서 벗어나 AI가 데이터를 실시간으로 이해하고 행동하는 '시스템 오브 액션'으로 진화하는 것이 핵심이다. 구글은 이런 인프라를 제미나이 모델과 생성형 AI 서비스에 적용하고 있다. 모델과 인프라를 동시에 설계해 확장성과 효율성을 올리고 연구 성과를 즉시 고객 환경에 반영하는 구조를 구축하는 것이 목표다. 쿠리안 CEO는 "앞으로 AI 경쟁은 모델 성능이 아니라 대규모 에이전트를 안정적으로 운영할 수 있는 인프라와 데이터 역량으로 기울 것"이라고 내다봤다.

2026.04.22 21:01김미정 기자

구글클라우드가 그린 '제미나이 엔터프라이즈' 시대

구글클라우드가 인공지능(AI) 에이전트를 앞세워 기업 업무 구조 재편에 나섰다. 구글클라우드 22일(현지시간) 미국 라스베이거스에서 '구글클라우드 넥스트 2026'를 개최하고 통합 AI 스택과 에이전트 플랫폼을 중심으로 구성한 새 기술을 발표했다. 이번 전략 핵심은 기업 데이터와 애플리케이션 인력과 에이전트를 하나의 흐름으로 연결하는 '제미나이 엔터프라이즈'다. 이를 통해 기업은 단순 챗봇을 넘어 스스로 인지 추론 행동까지 수행하는 자율형 에이전트를 업무 전반에 적용할 수 있게 된다. 구글클라우드는 에이전트 구축부터 운영까지 지원하는 '제미나이 엔터프라이즈 에이전트 플랫폼'를 공개했다. 해당 플랫폼은 모델 선택부터 생성, 통합, 배포, 보안까지 하나의 환경에서 처리해 기업이 에이전트를 빠르게 확장할 수 있도록 설계됐다. 모델 활용 범위도 대폭 확대됐다. 기업은 '모델 가든'을 통해 제미나이 3.1 프로, 리리아 3 등 구글 모델뿐 아니라 앤트로픽 클로드 계열 모델까지 포함해 200개 이상 모델을 선택적으로 사용할 수 있다. 국내에서 실제 적용 사례도 나타나고 있다. 카카오뱅크는 금융 규제를 준수하면서 생산성을 높였고, CJ올리브영은 비개발자까지 직접 에이전트를 구축하는 환경을 도입해 데이터 기반 업무 혁신을 이뤘다고 입을 모았다. 특히 올리브영은 상품 기획과 마케팅 분석을 자동화하고 매장에서는 재고 관리와 진열 최적화를 실시간으로 수행하는 구조를 구축했다. 또 글로벌 확장 과정에서도 AI를 활용해 국가별 고객 특성에 맞춘 운영 체계를 마련하고 있다. 인프라 측면에서도 대규모 변화가 제시됐다. 구글은 학습용 텐서처리장치(TPU) 8t와 추론용 TPU 8i를 공개해 모델 개발 기간을 단축하고 실시간 응답 성능을 강화했다. 이를 통해 달러당 성능을 80% 개선해 동일 비용으로 처리 가능한 수요를 크게 늘릴 수 있는 구조를 확보했다. 보안 영역에서는 AI 기반 사이버 보안 플랫폼을 통해 위협 탐지와 대응을 자동화했다. 제미나이 기반 분석 에이전트는 500만 건 이상의 경보를 처리하며 기존 30분 걸리던 분석을 60초 수준으로 줄였다. 또 구글 워크스페이스 전반에 '워크스페이스 인텔리전스'를 적용했다. 이메일 문서 회의 등 업무 맥락을 이해하고 다단계 작업을 자동 수행하는 환경도 구축했다. 이를 통해 사용자와 에이전트 간 정보 단절을 해소하고 업무 흐름을 하나로 통합한다. 토마스 쿠리안 구글클라우드 최고경영자(CEO)는 "이제 개별 서비스를 단순 조합해 제공하는 단계는 지났다"라며 "모든 요소가 수직적으로 최적화된 통합 스택으로 새로운 AI 상용화 시대를 선도하겠다"고 밝혔다.

2026.04.22 21:01김미정 기자

웹케시, '금융 AI 에이전트' 확대…오페리아 중심 실전 전략 공개

웹케시가 인공지능(AI) 에이전트 중심 금융 업무 성과·기술을 공유하는 장을 연다. 웹케시는 오는 23일 서울 여의도 FKI 타워 그랜드볼룸에서 '금융 AI 에이전트 컨퍼런스 2026'을 열고 금융 AI 에이전트 구축 성과와 핵심 기술을 공개한다고 22일 밝혔다. 이번 행사는 금융 현장에서의 AI 상용화 전략과 적용 사례를 공유하는 자리로 마련됐다. 이번 컨퍼런스 핵심은 지능형 RDB 커넥트 '오페리아'다. 이는 범용 AI와 금융 데이터베이스를 연결해 기존 AI 활용에서 제기된 정확도와 보안 문제를 보완하는 구조로 작동한다. 이를 통해 금융 데이터를 실제 업무에 직접 활용할 수 있는 환경을 조성했다. 웹케시는 '고객 대신 에이전트가 금융하는 세상'을 주제로 금융 서비스 구조 변화를 제시한다. AI 에이전트 기반 자금관리 서비스 '브랜치큐'를 포함해 은행 계정계 RDB와 연동한 구축 사례도 공개한다. 금융 현장에서 AI 에이전트를 안정적으로 운영하기 위한 실무 전략도 소개한다. 이날 대용량 금융 데이터 처리와 관련한 기술 방향도 제시된다. 웹케시는 글로벌 NL2SQL 벤치마크 '스파이더 2.0' 1위 기술을 기반으로 은행 경영정보 에이전트 구축 사례를 발표한다. 이를 통해 자연어 기반 데이터 조회와 분석 자동화 가능성을 강조한다. 현장에는 오페리아, 에이전트 뱅킹, 경영정보 에이전트, 브랜치큐, rERP Q 등 주요 서비스를 직접 확인할 수 있는 시연 부스도 운영된다. 참석자는 실제 금융 업무 자동화 흐름을 현장에서 체험할 수 있다. 웹케시 강원주 대표는 "이번 컨퍼런스는 우리가 축적해 온 금융 IT 역량을 바탕으로 금융 AI 에이전트 상용화 방향을 시장에 제시하는 자리"라며 "앞으로도 금융기관과 기업이 현장에서 체감할 수 있는 실무형 AI 서비스 확대에 속도를 내겠다"고 밝혔다.

2026.04.22 18:16김미정 기자

"설계 도면 30분 만에 법규 검토"…희림, 건축 특화 AI 시스템 도입

복잡하고 까다로운 건축 법규 검토 작업을 인공지능(AI)으로 30분 만에 해결할 수 있는 방안이 제시됐다. 메가존클라우드(대표 염동훈)는 희림종합건축사사무소와 '건축 법규 검토 AI 에이전트 시스템'의 실증(PoC)을 성공리에 마쳤다고 22일 밝혔다. 양사가 함께 구축한 이번 AI 시스템은 설계 착수 전 반드시 거쳐야 하는 각종 법령 및 규제 확인 작업을 전면 자동화했다. 실무자가 설계 도면이나 공모 지침서를 PDF, 이미지 파일로 시스템에 업로드하면 AI가 법제처와 국토교통부의 공공 데이터(API)를 실시간으로 분석해 건폐율, 용적률, 피난 시설, 친환경 인증 등 8개 분야 38개 필수 항목의 위반 여부를 즉각 판별해 낸다. 특히 AI는 문서 내에서 면적, 용도, 위치 등 프로젝트의 핵심 정보를 스스로 추출해 해당 부지의 지구단위계획과 정밀 대조한다. 법적 근거를 제시하는 것은 물론, 위반 소지가 있는 부분은 업로드된 문서 내에 시각적으로 강조(하이라이트) 표시를 해주고 그 결과를 엑셀 파일로도 정리해 준다. 잦은 설계 변경 시에도 이전 데이터를 기억해 두었다가 재검토 시간을 10분 이내로 대폭 줄여주는 기능까지 갖췄다. 기술적 완성도와 보안성도 눈에 띈다. 국내 건축업계 최초로 아마존웹서비스(AWS)의 AI 플랫폼인 '아마존 베드록 에이전트코어'를 활용했으며 민감한 설계 데이터가 해외 서버로 유출되는 것을 막기 위해 국내 서울 리전 환경에서만 작동하도록 설계했다. 이러한 고성능 처리의 배경에는 '멀티 에이전트' 기술이 있다. 전체 작업을 총괄하는 '수퍼바이저 AI'의 지휘 아래 문서 전처리, 프로젝트 분석, 지구단위계획 파악, 법률 검토, 설계 기준 점검을 각각 전담하는 5개의 전문 AI가 유기적으로 협업하는 구조다. 지속적인 최적화를 통해 개발 초기와 비교해 1회 검토에 드는 비용을 86%나 절감하는 성과도 달성했다. 류무열 희림종합건축사사무소 본부장은 "건축 법규는 지자체 조례부터 각종 고시까지 복잡하게 얽혀 있어 숙련된 인력의 피로도가 매우 높은 작업"이라며, "새로운 AI 시스템 도입으로 업무 시간은 획기적으로 줄고 정확도는 높아졌으며, 잦은 설계 수정에 따른 재검토 스트레스에서도 크게 벗어날 수 있게 됐다"고 평가했다. 정진호 메가존클라우드 리더 역시 "이번 실증 성과는 AI가 단순한 문답을 넘어 고도의 전문 영역까지 완벽히 수행할 수 있음을 현장에서 입증한 사례"라며 "건축처럼 얽힌 규제가 많은 타 산업 분야로도 멀티 에이전트 기술 도입을 적극 제안할 계획"이라고 포부를 밝혔다.

2026.04.22 18:12남혁우 기자

AI가 채팅방서 질문에 대답…카카오, '카나나 검색' 시범 운영

카카오가 카카오톡 채팅방에서 인공지능(AI) 검색 서비스 '카나나 검색'을 이용할 수 있도록 시범 운영에 들어갔다. 22일 카카오는 카톡 내 카나나 이용에 동의한 일부 이용자를 대상으로 베타 버전을 전날 제공 중이라고 밝혔다. 카나나 검색은 채팅방 아래 입력창 옆 붉은 원 형태의 검색 버튼을 누른 후 질문을 입력하면 AI로부터 답변이 제공된다. 별도 앱이나 브라우저로 전환하지 않고, 채팅 방 내에서 검색과 공유가 가능하다. 카나나 검색은 AI 검색뿐만 아니라 이용자 일상과 밀접한 키워드에 대한 정보도 AI가 요약 및 분석해준다. 예약과 쇼핑, 금융, 트렌드 등 이용자들의 관심이 높은 주제를 중심으로 키워드를 사전 선정해 운영한다. 대화 중 키워드가 언급되며 카나나 검색이 관련 콘텐츠를 자동 생성해주는 방식이며, 대화 내용을 분석하거나 서버에 저장하는 것이 아니라 사전 선정된 키워드와 기계적으로 매칭하는 방식으로 작동된다. 카톡 내 카나나 이용에 동의한 이용자는 기존 샵(#) 검색 대신 카나나 검색으로 전환해 사용 가능하다. 회사는 이번 서비스를 올해 상반기 단계적으로 확대 적용할 계획이다. 이밖에도 카카오는 AI 기능과 서비스를 직접 사용해보고 피드백을 남길 수 있는 '카나나 연구소'도 개설했다. 카나나 연구소에서 카톡과 연동된 다양한 카나나 기능과 AI 서비스를 경험하고 의견을 남길 수 있다. 향후 카카오는 카나나 연구소에 신규 AI 기능이나 서비스를 소개하는 게시판도 업데이트할 예정이다. 카카오 관계자는 “카카오톡 내 AI 기능 및 서비스를 확대해 이용자에게 다양한 경험을 제공할 계획”이라며 “이용자의 소중한 의견에 귀 기울이고 이를 바탕으로 카카오의 AI를 지속 발전시켜 나가겠다”고 말했다.

2026.04.22 17:34박서린 기자

[영상] 전쟁의 시대…병력 50만 붕괴 위기 속 국방 해결 방안은

러시아-우크라이나 전쟁과 중동 사태 등 글로벌 군사 충돌이 격화되는 '전쟁의 시대'를 맞았다. 하지만 우리 국군은 인구 절벽으로 인한 상비 병력 50만명 선 붕괴라는 치명적인 내부 위기에 직면해 있어 대안이 시급한 상황이라는 지적이다. 심승배 국가 AI 전략위원회 국방안보 분과위원장(한국국방연구원 연구원)은 22일 영상 인터뷰를 통해 현대전에서 급부상하고 있는 '국방 AI'의 중요성과 우리 군이 나아가야 할 핵심 방향으로 속도를 제시했다. 50만 병력 붕괴는 기정사실…대안은 AI 심 분과장은 현재 군이 직면한 가장 큰 문제로 '병력 부족'을 꼽았다. 실제로 역대 최저치를 갱신하고 있는 출산율 통계를 기반으로 추산해 볼 때 군 상비 병력 50만 명선 붕괴는 이미 피할 수 없는 기정사실로 다가왔기 때문이다. 그는 "입대하는 장병 수가 매우 부족한 상태에서 상비 병력을 채울 대안은 사실상 AI와 무인 체계밖에 없다"며 "과거와 같은 인해전술이나 예비군·징병제 개편 등 물리적인 인원을 늘리려는 양적인 접근보다는, AI와 휴머노이드, 물류 로봇 등을 최대한 활용해 병력의 갭을 채우는 '질적인 전환'이 시급하다"고 강조했다. 실제로 과거에는 인원 부족으로 정밀하게 수행하지 못했던 위성 영상 분석이나 광범위한 감시·정찰 업무를 이제는 AI가 대신하거나 확장해 수행하며 병력 축소의 빈자리를 자연스럽게 메우고 있다. 특히 현대전은 전장 정보가 폭증하면서 인간의 판단 속도만으로 감당하기 어려운 단계에 들어섰다고 진단했다. 위성영상, 공개정보, 소셜미디어, 허위정보까지 한꺼번에 분석해야 하는 상황에서 AI의 지원 없이는 의사결정 경쟁에서 밀릴 수밖에 없다는 얘기다. 그는 "AI가 먼저 정보를 정리하고 선택지를 제시한 뒤, 인간이 최종 판단하는 구조가 현실적”이라며 "전쟁의 속도가 빨라질수록 AI의 전략적 가치는 더 커진다"고 말했다. 지휘관의 참모가 된 AI…"현대전은 속도전" 지속되는 글로벌 분쟁에서 나타난 전장의 양상도 국방 AI 도입을 강력하게 재촉하고 있다. 가성비가 뛰어나고 인명 피해를 줄일 수 있는 드론 등 무인 체계 자율성이 점차 높아지면서, 인간보다 무인 체계가 주도하는 전술이 훨씬 유리해졌기 때문이다. 전장에 쏟아지는 방대한 '정보의 홍수'도 지휘관의 의사결정을 돕는 AI의 필요성을 극대화했다. 심 분과장은 "어떤 무기를, 어떤 경로와 조합으로 타격해야 할지 아군과 적군의 상황을 동시에 파악해야 하는 매우 복잡한 상황"이라며 "기존의 위성 영상 분석은 물론, 최근에는 SNS를 통해 퍼지는 조작된 사진(Fake) 등 심리전·인지전 성격의 공개 출처 정보(OSINT)까지 쏟아지면서 인간이 일일이 진위를 가리고 판단하기는 불가능한 지경에 이르렀다"고 진단했다. 실제로 미국은 모든 전장 정보를 하나로 연결해 최적의 의사결정을 내리는 '합동전영역지휘통제(JADC2)' 체계 구축에 사활을 걸고 있으며 AI 도입을 최우선으로 강조하는 중이다. 심 분과장은 "이제는 AI가 방대한 데이터를 1차로 분석해 최적의 선택지 리스트를 올리면 인간 지휘관은 이를 바탕으로 최종 선택을 내리는 시대"라며 "현대전은 누가 더 빠르게 결심하고 대응하느냐가 승패를 가르는 '속도전'인 만큼 AI를 활용해 의사결정 속도를 높이지 않으면 실전에서 치명적인 결과로 이어질 수밖에 없다"고 경고했다. 10년 걸리는 낡은 무기 도입 절차… "애자일한 개혁 시급" 심승배 분과장은 급변하는 전장 속 국방 AI 확산 최대 걸림돌로 경직된 무기 획득 체계를 지목했다. AI 필요성에는 공감대가 커졌지만 실제 도입 구조는 여전히 과거 방식에 머물러 있다는 지적이다. 그는 "기존 무기체계는 소요 제기부터 실전 배치까지 10년 이상 걸리는 경우가 많다"며 "민간에서는 첨단 드론과 소프트웨어가 빠르게 바뀌는데, 국방은 이런 기술을 곧바로 시험하고 현장에 적용하기 어려운 구조"라고 말했다. 이어 "지금 필요한 것은 민간의 상용 기술을 신속하게 들여와 테스트하고 보완하는 '애자일한 획득 전략'"이라고 강조했다. 다만 속도만 앞세울 수는 없다고도 덧붙였다. AI 무기체계의 안전성과 윤리성 검증은 필수지만 무결점만을 목표로 도입을 지나치게 늦춰서는 안 된다는 것이다. 심 분과장은 결국 국방 AI의 성패는 안전성과 속도 사이의 균형을 어떻게 제도화하느냐에 달려 있다고 봤다. 더불어 한국 국방 AI 한계가 단순 예산 부족에만 있지 않다고 진단했다. 투자된 예산을 실제 전력화로 연결할 조직, 인력, 산업 생태계가 함께 부족하다는 것이다. 심 분과장은 "예산 확대도 중요하지만 그 돈을 흡수해 사업화하고 현장 전력으로 연결할 시스템이 같이 커져야 한다"며 "그렇지 않으면 돈은 써도 성과로 이어지기 어렵다"고 지적했다. 민간 기술을 국방에 빠르게 접목할 수 있는 연결 구조도 핵심 과제로 꼽았다. 군이 보유한 데이터를 안전하게 활용할 수 있도록 하고, 이를 바탕으로 스타트업과 방산기업이 시제품을 만든 뒤 실제 군 도입까지 이어지는 선순환 체계가 필요하다는 설명이다. 심 분과장은 "국방 분야는 데이터에 대한 갈증이 크다"며 "실증에서 끝나지 않고 도입까지 이어지게 하려면, 그 사이의 '죽음의 계곡'을 메워줄 국방 AX 거점 같은 플랫폼이 필요하다"고 말했다. '미국식 국방 AI 도입은 부적합…"소버린 AI 기반 국방 특화 현실적" 심승배 분과장은 한국 국방 AI의 전략 방향과 관련해 미국식 모델을 그대로 답습하기는 어렵다고 진단했다. 미국은 막대한 자본을 바탕으로 국방이 AI 혁신을 주도하는 구조지만 한국은 민간과 정부가 축적한 기술 기반 위에서 국방 특화 체계를 키우는 방식이 더 현실적이라는 판단이다. 그는 "국가 차원의 소버린 AI 기반을 만들고 그 위에 국방 도메인에 맞는 특화 체계를 얹는 접근이 필요하다"며 "모든 것을 처음부터 국방이 독자 개발하겠다는 방식은 비효율적일 수 있다"고 말했다. 특히 국방 AI는 범용 대형 모델만으로는 한계가 있다고 봤다. 부대 내부 민감 정보 처리나 무기체계 직접 탑재 같은 영역에서는 경량화된 소형 모델이 필수적이라는 설명이다. 심 분과장은 "국방 AI는 결국 현장 적용성과 보안성을 동시에 만족해야 한다"고 강조했다. 이를 위해서는 민간 AI 스타트업과 방산기업이 군 데이터를 안전하게 활용하고 시제품을 만들어볼 수 있는 '국방 AI 플레이그라운드', 즉 국방 AX 거점 같은 생태계가 필요하다고도 했다. 실증과 실제 도입 사이의 단절을 줄이기 위해 정부의 인프라·예산 지원이 함께 이뤄져야 한다는 주장이다. 또 심 분과장은 "미래전은 결국 드론 대 드론의 물량전이 될 것"이라며 "유사 시 필요한 드론을 대량 생산할 수 있는 역량을 지금부터 갖춰야 한다"고 말했다.

2026.04.22 16:52남혁우 기자

"이체해줘"…웰컴저축은행, 음성인식 'AI 금융비서' 만든 이유

“홍하나에게 3만원 송금해줘” 말로 돈 보내는 시대 왔다. 누가 민감한 금융 서비스를 음성으로 이용하겠냐는 회의적인 시각도 있었지만, 현실은 달랐다. 웰컴저축은행이 지난달 음성으로 이체할 수 있는 '인공지능(AI) 금융비서' 서비스를 출시한 결과, 예상보다 사용자들이 활발하게 이용 중인 것으로 나타났다. AI 금융비서는 사용자가 음성이나 텍스트로 명령을 내리면 이를 수행하는 서비스다. 현재 이체, 계좌정보 조회, 거래내역 조회, 메뉴 이동 등의 기능을 지원한다. 특히 서비스를 경험한 사용자들의 재사용률이 높은 것으로 나타났다. 말 한마디면 송금이 이뤄지고, 원하는 메뉴로 이동할 수 있는 직관적인 사용성이 강점이라는 게 웰컴저축은행의 설명이다. 지디넷코리아는 지난 21일 서울 용산구 웰컴저축은행 본사에서 AI 금융비서 서비스 기획과 개발을 주도한 김아론 AICT 이노베이션테크팀장과 전진영 플랫폼사업팀장을 만나 인터뷰를 진행했다. “음성으로 바로 실행”…조작 단계 최소화 AI 금융비서는 모바일 뱅킹 앱 이용 시 조작 단계를 줄이기 위한 취지에서 기획됐다. 이동 중이거나 손을 쓰기 어려운 상황, 혹은 스마트폰 조작이 익숙하지 않은 사용자에게 직관적인 금융 서비스를 제공하는 것이 출발점이었다. 그러나 지난 3월 서비스 출시 후 뚜껑을 열어보니, 실제 이용자층은 예상과 달랐다. 김아론 팀장은 “초기에는 고령층 중심의 서비스가 될 것으로 예상했지만, 실제로 주 고객층인 40~50대가 음성인식 기능을 많이 활용하는 것으로 나타났다”고 말했다. 사용자들은 주로 음성 명령을 통해 이체를 하는 데 서비스를 활용한다. 이체는 기존 거래 이력이 있거나 사전에 등록된 계좌에 한해 가능하다. 예를 들어 “홍하나에게 3만원 입금해줘”라고 말하면 기존 거래 내역에 있는 동일 이름의 계좌로 이체가 진행된다. 다만 오입금을 방지하기 위해 최종 단계에서는 '확인' 버튼을 눌러야 한다. 전진영 팀장은 “처음에는 공공장소에서 음성으로 금전 거래를 하는 것에 대한 우려가 있었지만, 직접 사용해보니 오히려 말로 하는 것이 더 편리하다는 반응이 많다”고 설명했다. 또 앱에서 필요한 메뉴를 일일이 찾지 않아도 음성을 통해 바로 접근할 수 있다는 것도 장점이다. 전 팀장은 “AI 금융비서를 통해 메뉴 탐색 없이 다양한 기능을 이용할 수 있다는 점에서 사용자들이 서비스를 찾고 있다”며 “궁극적으로는 '노메뉴 뱅킹'을 구현하는 것이 목표”라고 말했다. “기술 개발은 직접”…내재화 전략 AI 금융비서 서비스를 위한 인프라 구축부터 시스템 개발, 파인튜닝, 기획 등 대부분은 웰컴저축은행 인력이 수행했다. 일반적으로 금융권이 외주 시스템통합(SI) 업체나 그룹사 IT기업에 의존하는 것과는 다른 행보다. 웰컴저축은행은 기술 내재화를 위해 개발 역량을 내부에 집중하고 있다. 현재 AI 모델링 담당 인력은 13명, 전체 기술 인력은 100명 이상으로 전체 인력의 약 6분의 1 수준이다. 차세대 시스템 전환과 같은 대형 프로젝트를 제외하면 대부분의 개발을 자체 수행하고 있다. 김아론 팀장은 “서비스 도입을 위해 관련 기술을 직접 학습하고 구현하고 있다”며 “이 경우 새로운 기술을 빠르게 적용할 수 있는 장점이 있다”고 말했다. 거대언어모델(LLM)은 한국어 인식률을 고려해 LG의 '엑사원'을 채택했다. 핵심 서비스는 내부 역량으로 개발하되, AI 모델은 외부 기술을 결합하는 방식을 택했다. 여기에 금융 서비스 특성에 맞게 직접 전문용어 학습과 파인튜닝을 진행했다. 예를 들어 “송금해줘”, “보내줘”, “쏴줘” 등 다양한 표현을 모두 '이체'로 인식하도록 모델을 학습시켰다. 김 팀장은 “자연어를 실제 금융 거래로 연결하는 과정에서 의도 해석 오류를 줄이는 것이 가장 큰 과제였다”며 “금융 특화 발화 데이터를 지속적으로 학습시키며 정확도를 높이고 있다”고 설명했다. “AI 금융비서→AI 에이전트로” 웰컴저축은행은 향후 AI 금융비서를 자율적으로 업무를 수행하는 'AI 에이전트'로 고도화할 계획이다. 현재는 이체, 조회, 메뉴 이동 중심이지만, 앞으로는 대출 한도 조회, 타 금융사 상품 비교 등으로 기능을 확장한다. 웰컴저축은행 사용자의 주 관심 영역인 대출 실행 영역까지 서비스를 넓히는 것이 목표다. 전진영 팀장은 “모니터링 결과 금리나 대출 관련 문의가 많았다”며 “대출 한도 조회, 상품 비교 기능을 추가하는 방안을 검토 중”이라고 말했다. 이어 “장기적으로는 대출 가입과 해지까지 대화형으로 처리할 수 있도록 발전시킬 계획”이라고 덧붙였다.

2026.04.22 14:55홍하나 기자

한국딥러닝, 글로벌 OCR 벤치마크 1위…"제미나이·GPT 제쳐"

한국딥러닝이 글로벌 인공지능(AI) 시장에서 문서 처리 모델 경쟁력을 입증했다. 한국딥러닝은 허깅페이스에 등재된 글로벌 멀티모달 광학문자인식(OCR) 벤치마크 'OCR벤치 v2' 2026년 3월 영어 부문 평가에서 68.1점으로 종합 1위를 기록했다고 22일 밝혔다. 아시아 기업이 구글 제미나이를 제치고 정상에 오른 것은 이번이 처음이다. 이번 평가에서 한국딥러닝은 제미나이 3 프로 프리뷰를 4.7점 차로 앞섰다. 오픈AI GPT-5, 알리바바 큐웬3-옴니-30B, 앤트로픽 클로드 오퍼스 4.6 등 주요 모델보다 더 높은 점수를 받았다. OCR벤치 v2는 레이아웃 분석을 비롯한 수식 해석, 도표 이해, 논리 추론 등 31개 시나리오를 검증하는 고난도 벤치마크다. 또 1만 건 수작업 검증 데이터와 1500장 비공개 테스트셋으로 성능을 이중 검증할 수 있다. 한국딥러닝은 모델이 문서 구조화와 맥락 이해에서 강점을 보였다고 밝혔다. 문서 파싱 40.7점과 맥락 이해 85.4점을 기록하며 세부 항목 전반에서 고른 성과를 냈다는 설명이다. 핵심 기술은 환각을 최소화한 '니어-제로 할루시네이션(Near-Zero Hallucination)'이다. 이 기술은 문서에 없는 정보를 생성하지 않고 실제 문서에 기반한 정보만 추출하도록 설계됐다. 한국딥러닝은 문서 구조 이해에 특화된 모델을 자체적으로 만든 기업으로 알려졌다. 이를 통해 레이아웃과 항목 간 관계 위치 정보를 함께 반영해 의미 오류를 줄였다는 평을 받고 있다. 실제 환경 적용성도 확인됐다. 한국어 손글씨 등 노이즈가 많은 입력에서도 안정적인 인식이 가능하며 비공개 테스트셋에서도 성능이 유지된 것으로 나타났다. 김동현 한국딥러닝 최고전략책임자(CSO)는 "글로벌 빅테크들이 주도하는 AI 시장에서 아시아 기업이 순수 국내 기술로 제미나이와 GPT를 넘어섰다는 것은 의미 있는 성과"라며 "범용 모델이 따라올 수 없는 문서 지능 영역에서 구조적 설계를 통해 기술 격차를 증명했다"고 밝혔다.

2026.04.22 14:55김미정 기자

AWS "파트너 중심 한국 AI 생태계 강화…산업 AX 역량 키운다"

아마존웹서비스(AWS)가 한국 파트너 생태계를 중심으로 국내 인공지능(AI) 시장 지원을 강화한다. 매니지드 서비스 기업(MSP), 독립 소프트웨어 벤더(ISV), 컨설팅 파트너와 협업해 산업별 AI 전환(AX)을 가속하고 마켓플레이스를 통해 글로벌 진출까지 지원한다는 전략이다. 방희란 AWS코리아 파트너 부문 총괄은 22일 서울 역삼 한국 오피스에서 열린 기자간담회에서 "AI 시대에는 파트너와 함께 고객 가치를 만들어가는 구조가 핵심"이라며 "파트너 역량 강화와 생태계 활성화를 지속 추진하겠다"고 말했다. 그는 AWS가 성장하면 MSP도 함께 성장하는 구조라며 파트너 생태계의 중요성을 강조했다. 실제 AWS는 지난 2025년 4분기 연간 환산 매출 1420억 달러(약 209조원) 규모, 전년 대비 24% 성장률을 기록하며 최근 13분기 중 가장 빠른 성장세를 보였다고 밝혔다. 파트너 사업 기회도 확대되고 있다. 시장조사기관 옴디아에 따르면 AWS 파트너는 AWS 관련 사업 지출 1달러당 최대 7.13달러의 수익을 창출하는 것으로 나타났다. 단순 재판매를 넘어 설계·구축·운영·자문 등 전 영역에서 부가가치를 만들어내는 구조가 핵심으로 꼽혔다. AWS는 이같은 흐름에 맞춰 파트너 전략을 확장과 협업 중심으로 재편했다. 방 총괄은 "고객 요구가 복잡해지면서 단일 파트너만으로 해결하기 어려운 상황"이라며 "시스템 통합(SI)·MSP·ISV·컨설팅 파트너 간 조기 협업을 통해 고객 문제를 해결하고 있다"고 설명했다. 특히 MSP 역할 변화가 핵심으로 제시됐다. 기존 클라우드 인프라 운영 중심에서 벗어나 애플리케이션 현대화, 보안, AI 기반 운영까지 아우르는 'MSP 3.0' 단계로 진화하고 있다는 분석이다. 여기에 시장 전반에서 AX가 가속화되면서 산업별 도메인 이해와 AI 역량 결합이 MSP의 핵심 경쟁력으로 자리잡고 있다고 짚었다. 마켓플레이스도 주요 성장 축이다. AWS는 파트너 주도 거래 프로그램(CPPO)을 통해 파트너가 고객과 직접 거래를 주도할 수 있도록 지원하고 있다. 구매 과정 단축과 글로벌 시장 진출을 동시에 가능케 한다는 전략이다. 이를 통한 국내 ISV의 글로벌 진출 사례도 확대되고 있다. 네오사피엔스, 솔트룩스, 슈퍼브에이아이 등이 AWS 마켓플레이스를 통해 글로벌 카탈로그에 진입한 바 있다. 또 국내 대표 AWS MSP인 메가존클라우드 역시 마켓플레이스 비즈니스를 활용해 매출과 프로젝트 기회를 확대해왔다. AWS는 산업별 특화 전략도 강화한다는 목표다. 제조·금융·헬스케어 등 산업별로 검증된 파트너를 중심으로 AI 기반 솔루션을 확산시키고 단순 기술 공급이 아닌 성과 중심 파트너 모델을 구축한다는 방침이다. 대표 사례로는 포스코DX 스마트 제조, 두산디지털이노베이션 예지정비, 메가존클라우드 금융 AI, CJ올리브네트웍스 데이터 기반 의사결정, NDS 정밀 의료 등이 소개됐다. AWS는 이같은 사례를 바탕으로 국내 산업별 AI 적용 성과가 본격화되고 있다고 설명했다. 방 총괄은 "AI 시대에는 산업 도메인과 기술의 결합이 가장 중요한 경쟁력"이라며 "한국 파트너와 함께 글로벌 수준의 AI 비즈니스를 만들어갈 것"이라고 강조했다.

2026.04.22 11:51한정호 기자

[현장] AWS "AI 에이전트 시대, 데이터·모델 결합 스택으로 승부"

아마존웹서비스(AWS)가 데이터 중심 인공지능(AI) 전략과 글로벌 협력 확대를 앞세워 에이전틱 AI 시장 공략에 속도를 낸다. 한국을 포함한 주요 시장에서 파트너 생태계와 인프라 경쟁력을 결합해 기업의 '즉시 성과형' AI 전환(AX)을 지원한다는 구상이다. 라훌 파탁 AWS 데이터·AI GTM 부문 부사장은 22일 서울 역삼 한국 오피스에서 열린 기자간담회에서 "2026년은 에이전트의 해"라며 "이 가운데 한국은 글로벌 AI 혁신의 중심에 있는 시장"이라고 강조했다. 그는 삼성·LG·SK 등 국내 주요 기업과 협력해 온 메가존클라우드·LG CNS·GS네오텍·베스핀글로벌 등 파트너를 언급하며 이들이 한국 시장의 AI 경쟁력 확보를 지원해왔다는 점을 짚었다. 이날 파탁 부사장은 AI 경쟁력의 핵심을 데이터로 지목했다. 그는 "이제 AI 모델 자체는 차별화 요소가 아니다"라며 "기업이 보유한 고객·업무 데이터를 AI와 결합할 때 진정한 경쟁력이 만들어진다"고 설명했다. AWS는 이러한 흐름에 대응해 데이터와 AI를 통합한 '에이전틱 AI 스택'을 전면에 내세우고 있단. 아마존 베드록과 세이지메이커, 에이전트코어를 중심으로 데이터 레이크, 거버넌스, 인프라를 모두 아우르는 구조다. 베드록은 다양한 생성형 AI 모델을 선택해 활용할 수 있는 플랫폼으로, 기업이 특정 모델에 종속되지 않도록 설계됐다. 여기에 세이지메이커를 통한 모델 개발·운영과 에이전트코어 기반 실행 환경을 결합해 AI 서비스 전 과정을 지원한다는 설명이다. 특히 개발 생산성을 높이는 핵심 도구로 '키로(Kiro)'를 강조했다. 키로는 코드를 생성·배포하는 AI 개발 환경으로, 기존 개발 과정을 자동화하고 에이전트 기반 개발 방식을 지원한다. 이를 통해 코드 생성부터 운영, 개선까지 이어지는 자동화된 개발 사이클 구축을 돕는다. 또 AWS는 클라우드 인프라 전환 및 레거시 인프라 현대화를 동시 지원하며 기업들이 기존 시스템 전환을 기다리지 않고도 AI 가치를 빠르게 구현하는 '트랜스폼'도 공급한다. 이에 대해 파탁 부사장은 "고객은 AI 도입 이후 수개월이 아니라 수주 내 성과를 원한다"며 "현대화와 혁신을 동시에 추진하는 것이 중요하다"고 말했다. AWS는 실제 AI 성과를 내는 기업의 공통 요소로 목표·데이터·가드레일·실행 등 네 가지를 제시했다. 특히 보안과 규제는 혁신의 장애물이 아니라 빠른 실행을 가능하게 하는 기반이라고 짚었다. 파트너 생태계도 핵심 축이다. AWS는 액센추어와 같은 글로벌 파트너가 에이전틱 AI 플랫폼을 구축해 생산성 50~85% 향상과 투자수익률(ROI) 4배를 높이는 성과를 냈다고 밝혔다. 한국에서도 다양한 산업에서 유사한 적용 사례가 확대되고 있다는 설명이다. AWS는 AI 경쟁력 강화를 위해 글로벌 기술 기업과 협력도 확대하고 있다. 오픈AI·앤트로픽·엔비디아·세레브라스 등과 협력해 다양한 모델과 그래픽처리장치(GPU) 인프라를 통합 제공하는 다각화 전략을 추진 중이다. 최근 AWS는 아마존 베드록을 통해 앤트로픽의 최신 모델 '클로드 오푸스 4.7'을 제공한다고 발표했다. 여기에 앤트로픽은 AWS 자체 칩 '트레이니움' 기반 5기가와트(GW) 인프라를 확보하고 아마존은 앤트로픽에 50억 달러(약 7조 3900억원)를 신규 투자하는 전략적 협력을 강화한다. 동시에 AWS는 오픈AI 파트너십도 확대해 고객이 다양한 모델을 선택할 수 있는 환경을 제공할 방침이다. 파탁 부사장은 "AI는 단일 도구가 아니라 다양한 에이전트와 서비스를 조합하는 방향으로 진화하고 있다"며 "AWS는 한국을 포함한 글로벌 고객이 빠르게 성과를 창출할 수 있도록 가장 포괄적인 플랫폼과 파트너 생태계를 제공할 것"이라고 밝혔다.

2026.04.22 11:51한정호 기자

스노우플레이크, 인텔리전스·코텍스 코드 업데이트

스노우플레이크가 데이터와 인공지능(AI)을 결합해 실제 업무를 수행하는 '에이전틱 엔터프라이즈' 전환 가속에 나섰다. 스노우플레이크는 '스노우플레이크 인텔리전스'와 '코텍스 코드' 전반에 걸친 주요 업데이트를 22일 발표했다. 단일 플랫폼에서 비즈니스 사용자와 개발자 모두를 위한 에이전틱 AI 환경을 제공하는 것이 핵심이다. 이번 업데이트는 AI가 단순 응답을 넘어 실제 업무를 수행하는 단계로 발전한 흐름을 반영했다. 기업은 스노우플레이크 데이터를 기반으로 다양한 데이터 소스와 시스템 AI 모델을 통합해 실행 중심 데이터 운영 체계를 구축할 수 있다. 스노우플레이크 인텔리전스는 개인화된 업무 에이전트로 고도화됐다. 사용자별 선호와 워크플로우를 학습해 반복 업무를 자동화하고 거버넌스 기반 데이터에서 신뢰 가능한 인사이트를 도출한다. 새롭게 추가된 '스킬스' 기능은 발표 자료 작성, 다단계 분석, 후속 조치 전달 등 업무를 자연어로 지시하면 자동 수행하도록 지원한다. 또 '모델 커넥스트 프로토콜(MCP) 커넥터'를 통해 지메일, 구글 캘린더, 지라, 세일즈포스, 슬랙 등 주요 업무 도구와 연동해 기존 환경에서 작업을 이어갈 수 있다. '딥 리서치' 기능은 정형·비정형 데이터와 외부 정보를 결합해 출처 기반 다단계 보고서를 생성하고 단순 결과를 넘어 원인과 후속 조치까지 제시한다. 코텍스 코드는 개발자를 위한 AI 에이전트 환경으로 확장됐다. 아마존웹서비스(AWS) 글루, 데이터브릭스, 포스트그레스 등 다양한 데이터 시스템을 지원해 데이터 위치와 관계없이 개발이 가능하다. 또 MCP와 에이전트 통신 프로토콜(ACP)를 통해 외부 AI 시스템과 연동이 가능해 기존 에이전트와 워크플로에 직접 통합할 수 있다. 이를 통해 개발자는 중복 작업을 줄이고 개발 속도를 높일 수 있다. 개발 환경 측면에서는 VS 코드 확장 기능과 클로드 코드 플러그인이 추가돼 IDE 내에서 바로 AI 코딩을 수행할 수 있다. 또 파이썬, 타입스크립트 기반 소프트웨어 개발 키트(SDK)를 통해 기업이 자체 애플리케이션에 기능을 통합할 수 있다. 클라우드 환경에서도 활용 범위가 확대됐다. '클라우드 에이전트'와 '플랜 모드' 기능을 통해 브라우저에서 코드 실행과 워크플로 제어가 가능해지고 작업 정확성과 통제력이 강화됐다. 현재 9100개 이상의 고객이 매주 스노우플레이크 AI 제품을 사용하고 있으며 AI 도입은 실험 단계를 넘어 실제 운영 단계로 확산하고 있다. 바리스 굴테킨 스노우플레이크 AI 부사장은 "AI는 모든 기업 운영 방식을 변화시키고 있으며 시장을 선도하는 플랫폼은 적절한 데이터와 거버넌스를 바탕으로 AI를 실제 업무에 쉽게 적용할 수 있어야 한다"며 "우리는 데이터를 통합하고 핵심 시스템을 연결해 AI를 조직의 업무 수행을 돕는 도구로 전환하도록 지원한다"고 밝혔다.

2026.04.22 11:39김미정 기자

레드햇-구글, '디지털 주권 클라우드' 맞손…AI 시대 규제 대응

레드햇이 규제 산업에서도 인공지능(AI) 도입과 운영 통제권을 확보할 수 있는 환경을 마련한다. 레드햇은 구글 손잡고 '레드햇 오픈시프트 온 구글클라우드 데디케이티드'를 내놨다고 22일 밝혔다. 금융, 의료, 공공 등 규제 산업 대상으로 격리된 인프라와 운영 독립성을 제공하는 것이 핵심이다. 해당 서비스는 2026년 하반기부터 정식 제공된다. 이번 솔루션은 데이터 위치뿐 아니라 기술 운영 통제권까지 포함한 디지털 주권 요구를 충족하는 데 초점 맞췄다. 기업은 엄격한 규제를 준수하면서도 AI 기반 업무 혁신을 동시에 추진할 수 있다. 레드햇은 오픈시프트를 구글클라우드 데디케이티드 환경에 적용해 보안성과 복원력을 유지하면서도 기술 스택에 대한 소유권과 통제권을 확보할 수 있도록 돕는다. 이를 통해 기업은 폐쇄형 구조에 의존하지 않고 개방형 기반에서 유연한 전략을 수립할 수 있다. 플랫폼은 주권 인프라 통제 기능을 통해 개인정보보호규정(GDPR) 등 지역 규제를 준수할 수 있는 격리 환경을 제공한다. 또 그래픽처리장치(GPU) 기반 AI 워크로드를 지원해 보안 정책을 유지하면서도 고급 AI 서비스를 구축하고 운영할 수 있도록 설계됐다. 하이브리드 클라우드 환경에서도 일관성을 유지하는 점도 특징이다. 온프레미스와 관리형 클라우드 전반을 연결해 기존 시스템을 단계적으로 현대화할 수 있는 기반을 제공한다. 레드햇은 지역 클라우드 및 서비스 제공업체와 협력해 국가별 보안 요구와 규제 환경에 대응할 수 있도록 지원할 계획이다. 이를 통해 글로벌 기업도 각 지역 규제를 충족하는 운영 체계를 구축할 수 있다. 마이크 배럿 레드햇 하이브리드 클라우드 플랫폼 부문 부사장 겸 총괄 매니저는 "디지털 주권은 더 이상 데이터가 어디에 저장돼 있는지 문제가 아니라 기술에 대한 운영 통제권과 전략적 유연성, 신뢰를 유지하는 문제"라며 "우리는 구글과 협력해 규제가 엄격한 시장 고객들에게 AI 시대를 대비한 주권 기반을 제공하고 있다"라고 말했다.

2026.04.22 11:33김미정 기자

다쏘시스템-오므론, 버추얼 트윈으로 제조 혁신 나서

다쏘시스템이 오므론 손잡고 제조 산업 디지털 전환 가속에 나선다. 다쏘시스템은 정보기술(IT)과 운영기술(OT) 간 격차 해소를 위해 오므론과 전략적 파트너십을 체결했다고 22일 밝혔다. 두 기업은 제조업체와 장비 기업이 가상과 실제 환경을 결합한 방식으로 생산 시스템을 설계하고 시뮬레이션하고 구축할 수 있도록 지원할 방침이다. 이번 협력 핵심은 버추얼 트윈 기반 생산 시스템 구축이다. 다쏘시스템 '3D 유니버스'와 오므론 '시스맥'을 결합해 설계부터 시뮬레이션 검증 구축까지 전 과정을 한 가상 환경에서 수행하도록 했다. 이를 통해 제조업체는 실제 설비를 구축하기 전 가상 환경에서 생산 라인을 테스트할 수 있다. 로봇 동작 검증과 물류 흐름 최적화도 사전에 수행해 오류와 비용 리스크를 줄인다. 현재 제조 현장은 설계 자동화 생산 시스템이 분리돼 운영되는 문제가 있다. 이로 인해 시운전 기간이 길어지고 오류 발생 가능성이 높아지며 생산 유연성이 떨어지는 한계가 있었다. 두 기업은 가상 세계의 3D 설계와 시뮬레이션을 물리적 로봇 센서 생산 라인과 연결해 이러한 단절을 해소한다. IT와 OT 융합을 통해 설계 단계부터 운영 단계까지 이어지는 디지털 연속성을 확보한다는 전략이다. 생산 라인은 가상 환경에서 설계와 검증을 거친 뒤 실제 구축으로 이어진다. 이후 운영 단계에서는 센서와 컨트롤러에서 수집된 데이터가 다시 버추얼 트윈에 반영돼 정밀 조정과 예측 유지보수를 지원한다. 양사는 이달 20~24일 독일 '하노버 메세 2026'에서 이번 협력을 공개한다. 현장에서는 버추얼 트윈과 자동화 기술이 결합된 생산 시스템 설계와 운영 방식을 시연할 예정이다. 파스칼 달로즈 다쏘시스템 최고경영자는 "제조 산업은 새로운 시대에 진입하고 있다"며 "AI 기반으로 스스로 진화하는 살아있는 생산 시스템을 구축하고 있으며 이는 가상 세계와 현실이 하나의 학습 루프로 연결된 형태"라고 밝혔다.

2026.04.22 11:18김미정 기자

무제한이라더니...깃허브, 코파일럿 요금 변경에 개발자 '분노'

마이크로소프트의 오픈소스 플랫폼 깃허브가 인공지능(AI) 컴퓨팅 수요를 감당하지 못하고 '깃허브 코파일럿'의 개인용 요금제 신규 가입을 일시 중단했다. 더불어 사용량 제한을 강화하고 일부 유료 서비스 과금 체계를 변경하며 사실상 요금을 인상해 사용자 불만을 사고 있다. 22일 조 바인더 깃허브 제품 부사장은 공식 블로그를 통해 안정적인 서비스를 제공하기 위해 코파일럿 프로, 프로 플러스(+), 학생용 플랜 신규 가입을 일시적으로 중단한다고 밝혔다. 코파일럿 무료 등급은 계속 유지되지만 프로 등급 무료 체험은 이미 지난주에 중단됐다. 깃허브 측은 이번 신규 가입 중단 사태 원인으로 '에이전트 워크플로우'의 확산을 지목했다. 최근 AI 인프라 제공업체는 급증하는 수요를 감당하는 데 어려움을 겪고 있다. 오픈클로 열풍 등으로 촉발된 AI 수요 폭증으로 인해 마이크로소프트 애저, 아마존웹서비스(AWS), 구글 클라우드 등 주요 클라우드 서비스 모두 용량 부족 및 서비스 지연 문제를 겪고 있는 실정이다. 오픈AI와 앤트로픽 역시 트래픽 분산을 위해 사용량 한도를 조정하는 등의 조치를 취한 바 있다. 바인더 부사장은 "에이전트 워크플로우가 코파일럿의 컴퓨팅 수요를 근본적으로 변화시켰다"며 "장시간 병렬로 실행되는 세션들이 기존 요금제 구조가 감당할 수 없을 정도로 막대한 리소스를 소모하고 있어, 추가 조치 없이는 모든 사용자의 서비스 품질이 저하될 위기"라고 설명했다. 깃허브는 서비스 정상화를 위해 개인 요금제의 사용 한도를 강화할 예정이다. 피크 시간대 모델 가용성을 보장하기 위한 '세션 한도'와 장시간 병렬 요청으로 인한 막대한 비용 발생을 제어하기 위한 '주간 토큰 한도'가 엄격하게 적용된다. 또 기존 고정 요금제(요청당 과금)에서 사용한 토큰만큼 비용을 지불하는 구조로 전환을 꾀하고 있다. 이러한 수익성 개선 작업의 일환으로 프로+ 요금제에서 앤트로픽 이전 모델인 오퍼스(Opus) 4.5 및 4.6의 제공이 중단된다. 대신 최신 모델인 오퍼스 4.7이 도입되지만 기존 3배였던 프리미엄 요청 배수가 7.5배로 크게 뛰어 체감 비용은 훨씬 높아질 전망이다. 정책 발표 이후 깃허브 커뮤니티 포럼에는 혜택 축소와 사실상의 요금 인상 조치에 반발하는 사용자들의 항의가 빗발치고 있다. 그동안 깃허브 스스로 자율형 에이전트가 미래라고 홍보했지만 정작 해당 워크플로우 사용량이 늘자 리소스 핑계를 대며 차단하고 있다는 지적이다. 한 사용자는 "무제한 코딩 어시스턴트를 기대하고 1년 치 요금을 선납했는데 계약 중간에 일방적으로 사용량 제한을 두는 것은 명백한 미끼 상품 사기"라며 비판했다. 다른 프로+ 요금제 사용자는 "7.5배 프리미엄 배수를 적용한 오퍼스 4.7 모델을 사용하면 간단한 에이전트 작업 몇 번만 돌려도 하루 만에 주간 토큰 한도가 바닥난다"며 "이는 사실상 최신 모델을 쓰지 말라는 협박"이라고 지적했다. 사용자들의 반발이 거세지자 깃허브 측은 포럼 공식 답변과 추가 공지를 통해 진화에 나섰다. 깃허브의 개발자 관계 담당자는 커뮤니티 포럼을 통해 "갑작스러운 정책 변경으로 혼란을 드려 죄송하다"면서도 이번 조치의 불가피성을 강조했다. 그는 "현재 상위 1%의 극소수 헤비 유저들이 과도한 에이전트 병렬 세션을 실행하여 전체 서버 리소스의 상당 부분을 독점하고 있는 상황"이라며 "나머지 99%에 달하는 일반 개발자가 쾌적하고 지연 없는 코파일럿 서비스를 이용할 수 있도록 보장하기 위해서는 트래픽 안정화와 공정한 사용량 분배가 필수적"이라고 해명했다. 또한 7.5배로 뛰어오른 오퍼스 4.7의 토큰 배수에 대해서는 "모델 제공업체의 API 비용 인상분을 반영할 수밖에 없었다"며 "요금제 변경에 동의하지 않는 기존 연간 및 월간 구독자들에게는 5월 20일까지 잔여 기간에 대한 전액 환불을 조건 없이 진행하겠다"고 덧붙였다.

2026.04.22 09:35남혁우 기자

ITU, 에지컴퓨팅 기능 국제표준 제정…ETRI·호남대 "기여"

국제전기통신연합(ITU)이 에지컴퓨팅 서비스 기능 요구사항을 정의한 국제 표준을 제정했다. 한국전자통신연구원(ETRI)은 ITU 전기통신표준화부문(ITU-T) 산하 연구반 13 회의에서 에지컴퓨팅 서비스 기능을 다룬 'ITU-T Y.3541'이 국제표준으로 최종 승인됐다고 22일 밝혔다. 에지컴퓨팅 서비스 기능이 국제표준으로 제정되기는 이번이 처음이다. 이 표준은 김대원 ETRI 클라우드 기반 SW연구실 책임연구원이 지난 2023년 개발한 기존 표준 'ITU-T Y.3540'을 한 단계 발전시킨 것으로, 실제 서비스 구현에 필요한 구체적인 기능 규격을 담았다. 국내에서는 김 책임 외에도 오명훈 호남대학교 컴퓨터공학과 교수가 핵심적으로 이 표준 제정에 참여했다. 이들 2명은 과학기술정보통신부 산하 한국 ITU 연구위원회 대표단으로 활동하며 지난 2022년부터 관련 국제표준 개발을 주도해 왔다. ETRI 연구진은 이번 회의에서 표준제정 외에도 인공지능(AI) 서비스에 특화된 에지컴퓨팅 신규 권고안 개발 과제도 승인받았다. ETRI 측은 이를 통해 향후 AI 기반 에지 컴퓨팅 분야 글로벌 표준 체계 형성을 지속 주도해 나간다는 복안이다. 에지 컴퓨팅은 데이터를 멀리 떨어진 중앙 서버로 보내지 않고, 데이터 생성지에서 바로 처리하는 기술이다. 예를 들어 공장, 병원, 자동차 인근에서 바로 데이터를 처리하는 방식이다. 이 기술을 사용하면 데이터 처리 지연시간을 획기적으로 줄일 수 있다. 이 때문에 자율주행이나 스마트공장, 실시간 영상 분석, 원격의료, 인공지능(AI) 서비스 등 다양한 분야에서 핵심 기반 기술로 주목받는다. 김대원 책임연구원은 "다양한 기업과 기관이 공통된 기준 아래 에지 컴퓨팅 서비스를 개발하고 상호 연동할 수 있는 '표준 설계도'가 마련된 셈"이라고 말했다.

2026.04.22 09:28박희범 기자

기후부, AI 시대 대응 위한 '민관 고위급 에너지 정책' 대화

기후에너지환경부는 클라이밋 그룹의 RE100 이니셔티브와 공동으로 21일 여수 소노캄에서 '인공지능(AI)시대 에너지 전략대화'를 개최했다. 클라이밋 그룹은 2014년 미국 뉴욕에서 시작해 영국 런던을 기반으로 활동하는 민간 조직으로 기업이 사용하는 전력을 100% 재생에너지로 전환하겠다는 국제적인 이니셔티브 운동을 펼치고 있다. 현재 애플·구글·이케아 등 세계적인 기업이 동참하고 있다. 이날 전략대화는 '제3차 유엔기후변화협약 기후주간'과 연계해 진행 중인 '녹색대전환 국제주간'의 주요 행사로 마련됐다. 전략대화 회의에는 오일영 기후에너지정책실장을 비롯해 마이크 피어스 클라이밋 그룹 총괄 이사, 샤일레쉬 미슈라 GE 베르노바 아시아태평양지역 리더, 디팍 케타르팔 슈나이더 일렉트릭 아시아 부문장, 누라 함라지 유엔기후변화협약(UNFCCC) 부사무총장, 임동아 네이버 ESG 담당 상무 등이 참석했다. 이들은 지정학적 불확실성 증대와 인공지능·데이터 산업 급성장에 대응한 안정적인 재생에너지 전력 확충 방안을 집중 논의했다. 또 국내 재생에너지 이행 과정의 병목현상을 점검하고, 적기 보급·가격 경쟁력 확보를 위한 실질적인 해결 방안을 모색했다. 참석자들은 재생에너지 확충이 에너지 안보 강화는 물론, 최근 급증하는 AI·데이터센터 전력 수요와 산업계 전반의 전기화에 대응해 녹색 경제 성장을 견인할 핵심 동력이라는 점에 공감대를 형성했다. 오일영 기후부 기후에너지정책실장은 기조발언에서 “최근 지정학적 위기로 인한 에너지 안보 위기와 AI 시대 전력 수요 급증을 화석연료 중심 에너지 체계의 한계를 보여주는 엄중한 도전과제”라고 말했다. 오 실장은 이어 “AI 시대에 안정적인 에너지 공급을 위해 서해안 초고압직류송전(HVDC) 해저고속도로를 2030년까지 차질 없이 완공해 전력망의 강건함을 확보하는 한편, 지역별 요금제 도입과 세제·금융 지원을 통해 기업이 안심하고 녹색전환에 투자할 수 있는 '대한민국 녹색대전환(K-GX)' 생태계를 조성하겠다”고 밝혔다. 마이크 피어스 클라이밋 그룹 총괄이사는 “전 세계가 화석연료 가격 급등과 AI로 인한 새로운 에너지 수요 증가에 직면한 상황에서, 한국의 에너지 안보와 미래 경쟁력은 재생에너지 확대에 달려있다”고 강조했다. 임동아 네이버 ESG 담당 상무는 네이버 사옥과 데이터센터에 지열·외기 도입 등 친환경 기술을 활용 중인 현황을 공유한 후 정부의 재생에너지 확대 정책에 적극 동참해 정보통신 기업으로서 탄소 저감에 기여하겠다는 의지를 밝혔다. 이어진 토론에서는 기업들의 직접전력구매계약(PPA) 활성화 방안을 논의했다. PPA는 기업이 발전사업자로부터 재생에너지를 직접 구매하는 방식으로, 정부의 재생에너지 확대 정책과 맞물려 전력시장 발전을 주도하고 계통에 새로운 공급원을 확충하는 핵심 수단이다. 참석자들은 세계 시장의 사례를 바탕으로 국내 직접전력구매계약 시장의 비용 부담과 복잡한 계약 구조 등 주요 애로사항을 공유하고 이에 대한 개선방안을 논의했다. 특히 정부의 정책적 노력이 국가경쟁력 강화로 이어질 것이라는 점에 주목하며, 재생에너지 시장의 혁신을 위한 제언을 내놓았다. 디팍 케타르팔 슈나이더 일렉트릭 아시아 부문장은 한국 정부의 선제적인 기반시설 투자와 정책 지원이 세계적인 정보통신 기업들의 한국 시장에 대한 투자를 결정짓는 결정적 요인이 될 것이라고 말했다. 데이비드 강 블룸버그NEF 동북아시아 책임자는 정부가 추진하는 재생에너지 직접전력구매계약 활성화와 기반시설 투자는 에너지 비용의 예측 가능성을 높이고, 국가경쟁력을 확보하는 시의 적절한 조치라는 분석을 제시했다.

2026.04.21 18:29주문정 기자

[현장] "벤치마크보다 중요한 건 실전"… AI 리더가 짚은 국내 AI 생태계 과제

"벤치마크 점수가 높다고 고객이 만족하는 것은 아닙니다. 실제 기업 환경에서 실질적인 성능을 내는 것이 진짜 성과입니다." 21일 서울 마포 디캠프에서 열린 '엔비디아 네모트론 개발자 데이 서울 2026'에서 진행된 기술 패널 토론에는 한국 인공지능(AI) 생태계를 이끄는 주요 리더가 참석해 치열하고 솔직한 현장 경험담을 제시했다. 이날 토론은 정규형 엔비디아 솔루션아키텍트(SA) 팀장이 좌장을 맡았고 천성준 SKT AI리서치 엔지니어, 최홍준 업스테이지 부사장, 임정환 모티프 대표, 김수인 엘리스그룹 최고연구책임자(CRO)가 참석해 'K-AI 빌더들의 연결과 글로벌 진출'을 주제로 논의를 이어갔다. "점수보단 실전"… 글로벌 수준 도달한 K-AI, 이제는 추론 효율이 과제 패널들은 공통적으로 국내 기업들이 자체 AI 모델을 개발하는 단계를 넘어, 이를 실제 서비스에 올릴 수 있는 수준으로 고도화하는 것이 중요하다고 입을 모았다. 천성준 SK텔레콤 AI리서치 엔지니어는 "한국 기업도 글로벌 프런티어 모델에 근접한 성능을 낼 수 있다는 점은 이미 입증했다"며 "이제 과제는 추론 효율성과 배포 가능성을 높여 '쓸 만한 모델'을 넘어 '실제로 쓸 수 있는 모델'을 만드는 것"이라고 말했다. 임정환 모티프 대표는 단순한 매개변수 규모 경쟁을 경계했다. 그는 "비슷한 규모의 모델과 경쟁하는 것이 아니라 2~3배 큰 모델과 비견되거나 더 나은 성능을 내는 것이 진짜 기술력의 증거"라며 "현재 3000억개 매개변수(300B) 규모 모델을 비롯해 음성·비디오 생성까지 포함한 다양한 생성형 모델을 개발 중이고 장기적으로는 월드 모델 등으로 확장할 계획"이라고 밝혔다. "데이터 반출 장벽 넘어야"…엣지 환경과 엔드투엔드 인프라 부상 김수인 엘리스그룹 CRO는 산업 현장 도입의 가장 큰 장벽으로 데이터 거버넌스를 지목했다. 김 CRO는 "세계 최고 수준의 모델을 만들어도 실제 현장에 적용하려고 하면 데이터 반출 불가 등 수많은 병목 현상에 부딪힌다"며 "결국 칩, 인프라, 데이터, 모델, 애플리케이션까지 전 레이어를 아우르는 엔드투엔드 전략이 필요하다"고 설명했다. 그는 또 현장 수요가 엣지와 온프레미스 환경으로 확장되고 있다고 진단했다. 고객 데이터가 외부로 나갈 수 없는 경우가 많은 만큼, 실제 서비스 환경에서는 모델 성능뿐 아니라 배포 방식과 운영 구조까지 함께 설계해야 한다는 설명이다. 주최 측인 엔비디아의 소프트웨어 생태계에 대한 개선점도 제기됐다. 천성준 엔지니어는 네모 큐레이터, 메가트론LM 등을 유용하게 활용하고 있다고 언급하면서도 "새로운 알고리즘이 엔비디아의 고속 학습 프레임워크에 반영되는 속도는 지금보다 훨씬 더 빨라질 필요가 있다"고 짚었다. 임정환 대표는 한발 더 나아가 기술적 종속성을 경계했다. 그는 "모델 아키텍처 실험의 자유도가 무엇보다 중요하기 때문에 현재 엔비디아 소프트웨어는 잘 사용하지 않는다"며 "엔비디아가 제공하는 거대한 패키지 틀 안에 갇히게 되면 독자적인 혁신에 한계가 생길 수밖에 없다"고 지적하며 유연한 개발 환경의 필요성을 언급했다. 좌장을 맡은 정규형 팀장은 "현장의 따끔하고 생생한 피드백에 깊이 감사드린다"며 "개발자들이 더 효율적이고 자유롭게 사용할 수 있도록 한국 AI 기업들의 다양한 요구를 본사에 적극 전달해 프레임워크의 유연성을 개선하겠다"고 화답했다. 독자 파운데이션 모델과 소버린 AI… 글로벌 확장 가능성 주목 패널들은 정부가 추진 중인 독자 파운데이션 모델 사업에도 의미를 부여했다. 최홍준 부사장은 "글로벌 수준의 오픈 모델이 국내에 구축되면 민간이 이를 바탕으로 다양한 서비스를 만들 수 있고, 그 혜택이 산업 전반으로 확산될 수 있다"고 말했다. 이어 "동남아 등 많은 국가들은 언어, 문화, 규제 맥락이 달라 각국에 맞는 소버린 AI를 원하고 있다"며 "한국에서의 모델 구축과 인프라 운영 경험은 해외 진출의 자산이 될 수 있다"고 덧붙였다. 이날 토론은 AI 경쟁의 승부처가 더 큰 모델, 더 높은 벤치마크 점수에서 실제 배포와 운영, 데이터 주권, 산업 적용으로 이동하고 있음을 보여줬다. 이번 패널 토론은 독자 파운데이션 모델 프로젝트를 추진 중인 정보통신산업진흥원(NIPA)과 엔비디아가 협력해 마련한 자리다. NIPA는 자사가 보유한 국내 개발자·기업 네트워크를 바탕으로 이번 행사와 국내 AI 생태계를 연결하는 역할을 했다는 설명이다. 박진홍 NIPA 글로벌협력팀장은 "국내 기업에 실질적으로 도움이 될 만한 것이 무엇인지 계속 찾아보면서 함께 하려 한다"며 "구체적으로 어떤 사업을 추가로 추진할지, 어떤 프로그램을 만들지는 아직 확정되지 않았고 향후 더 논의가 필요하다"고 말했다.

2026.04.21 18:22남혁우 기자

[현장] "메일 요약에서 물류 시뮬레이션까지"…엔비디아가 제시한 실무형 AI

"컨베이어벨트 속도를 어떻게 조절해야 가장 효율적일까?" 스마트폰으로 물류센터 최적화 질문을 입력하자 네모트론의 인공지능(AI) 에이전트가 시뮬레이션을 설계하고, 가상 공간에서 여러 조건을 검증한 뒤 결과를 분석해 보고서까지 내놨다. 엔비디아는 21일 서울 마포 디캠프에서 열린 '네모트론 개발자 데이 서울 2026'의 '빌드-어-클로(Build-a-Claw)' 시연 세션을 통해 답변형 AI를 넘어 실제 산업 현장에서 작동하는 '현실형 AI 에이전트'의 가능성을 제시했다. 시연을 맡은 정구형 엔비디아코리아 솔루션아키텍트(SA)팀 팀장은 오픈 클로(Open Claw), 네모 클로(NeMo Claw), DGX 스파크를 중심으로 에이전트 AI가 단순 질의응답을 넘어 실제 업무를 수행하는 방향으로 진화하고 있다고 설명했다. 이번 시연의 핵심은 여러 역할을 가진 에이전트를 엮어 팀처럼 운영하는 구조였다. 사용자가 질문을 던지면 단일 모델이 답만 내놓는 것이 아니라 역할이 나뉜 복수의 에이전트가 각각 필요한 작업을 수행하고 이를 종합해 결과를 제시하는 방식이다. 현장 시연은 AI가 더 이상 '말을 잘하는 도구'에 머무르지 않고, 실제 업무 흐름 안으로 들어오고 있음을 보여주는 데 초점이 맞춰졌다. 물류센터 최적화 질문에 시뮬레이션·분석·보고서까지 정 팀장은 자신이 실제로 구성해 사용 중인 에이전트 트리를 예로 들며, 이를 관리하는 상위 에이전트와 그 아래 팀장, 리서처, 엔지니어, 솔루션 아키텍트, QA, 운영, HR 역할의 에이전트가 계층적으로 배치된 구조를 보여줬다. 실제 기업 조직의 역할 분담과 관리 체계를 AI 시스템 설계에 옮겨놓은 모습에 가까웠다. 그는 "이 많은 에이전트와 직접 하나하나 소통하는 게 아니라, 관리용 에이전트를 둬 전체를 관장하게 만든다"고 말했다. 이어 "계층 구조를 설정하지 않으면 각 에이전트의 자율성이 지나치게 커질 수 있다"며 "조직을 만들듯 체계를 잡아야 원하는 방향으로 움직일 수 있다"고 설명했다. 이 같은 멀티 에이전트 방식은 특정 작업을 여러 단계로 쪼개고, 각 단계에 적합한 역할을 맡긴다는 점에서 기존 단일 챗봇 방식과 차별화된다. 질문 해석, 자료 탐색, 실행, 검증, 결과 정리 등의 과정을 역할별로 분산 처리함으로써 보다 복잡한 업무도 소화할 수 있다는 것이 엔비디아 측 설명이다. 이번 시연에서 가장 눈길을 끈 부분은 디지털 트윈 기반 물류 시나리오였다. 화면에는 컨베이어벨트 위를 흐르는 박스를 집어 쌓는 로봇 팔 환경이 구현됐다. 정 팀장은 "로봇은 바꿀 수 없는 상황에서 컨베이어벨트 속도를 어떻게 조절해야 가장 효율적으로 동작할 수 있을지를 에이전트에 물었다"고 소개했다. 그러자 에이전트들은 내부적으로 역할을 나눠 움직였다. 먼저 시뮬레이션 시나리오를 만들고 디지털 트윈 공간을 구동하는 시뮬레이터인 아이작 심(Isaac Sim)에서 총 8가지 시나리오를 돌린 뒤 그 결과를 월드 파운데이션 모델 '코스모스(Cosmos)'로 분석해 최종 리포트 형태로 제시하는 흐름이었다. 정 팀장은 "이런 식으로 본인이 하는 업무를 자동화할 수 있고 시행착오도 많이 줄일 수 있다"고 설명했다. 메일 요약부터 답변 초안까지… 사무 자동화 가능성도 제시 정 팀장은 산업 현장뿐 아니라 일상 업무에 가까운 활용 사례도 공개했다. 그는 자신이 운영 중인 이른바 '세컨드 브레인' 예시를 보여주며 메일 계정에서 메일을 가져와 내용을 요약하고, 답변 초안을 자동으로 작성하는 구조를 소개했다. 일정 관리 자동화 예시도 함께 제시됐다. 데일리 노트를 크론 잡으로 생성한 뒤 스케줄을 불러와 템플릿에 맞게 정리하는 식이다. 반복 업무를 자동화하면서도 사용자가 최종 결과물을 검토할 수 있도록 설계했다는 점이 특징이다. 다만 회사 정책상 실제 발송 API는 막아둔 상태라고 했다. 대신 초안은 개인 노트에 정리되도록 하고, 사용자가 내용을 확인한 뒤 직접 메일을 보내는 방식이다. 완전 자동화보다 '통제 가능한 자동화'에 무게를 둔 접근이라는 점에서, 기업용 AI가 현실적으로 어떤 선에서 적용되고 있는지를 보여주는 사례로 읽혔다. 자유로운 에이전트일수록 통제 중요… 네모 클로로 가드레일 강화 정 팀장은 에이전트의 자유도가 높아질수록 통제 장치가 중요해진다고 강조했다. 시스템에 접근해 코드를 수정하거나 외부 네트워크를 호출하고, 내부 데이터를 외부로 전송하는 등 예상치 못한 문제가 발생할 수 있기 때문이다. 이를 방지하기 위해 엔비디아가 제시한 것이 네모 클로다. 그는 "에이전트가 데이터를 아카이빙하고 있는 만큼 민감한 정보가 있을 수 있는데, 예를 들어 '주식 리포트를 찾아 메일로 보내달라'고 했을 때 그대로 외부 전송이 이뤄지면 안 되는 경우도 있다"고 말했다. 이어 "이런 상황을 막기 위해 정책과 제한을 두고 그 규칙 안에서만 에이전트가 움직이도록 하는 것이 네모 클로의 핵심"이라고 설명했다. 정 팀장에 따르면 네모 클로는 오픈 클로를 대체하는 개념이라기보다, 이를 엔터프라이즈 환경에서 안정적으로 운영할 수 있도록 가드레일과 정책 제어 기능을 덧댄 프레임워크에 가깝다. 네트워크 접근, 시스템 호출, 특정 스킬 사용 등을 사전에 정의된 정책에 따라 제한함으로써 기업이 보다 안심하고 에이전트를 도입할 수 있도록 돕는다는 것이다. 로컬 AI 특화 하드웨어 'DGX 스파크'…24시간 일하는 AI 직원 이번 시연은 모두 DGX 스파크를 기반으로 진행됐다. DGX 스파크는 CPU와 GPU가 공유 메모리를 사용하는 구조를 바탕으로 대규모 언어 모델(LLM) 배포에 활용할 수 있는 메모리 공간을 넓힌 로컬 AI 개발 장비다. 외부 API에 의존하지 않고도 비교적 큰 모델을 엣지 환경에서 구동할 수 있어 상시 운영 비용을 줄일 수 있다는 게 엔비디아 측 설명이다. 정 팀장은 네모트론 1200억개 매개변수(120B)급 모델 구동은 물론 소형 모델의 학습·파인튜닝과 로보틱스용 강화학습 같은 작업에도 활용할 수 있다고 소개했다. 제품은 엔비디아가 직접 판매하는 것을 비롯해 에이수스(ASUS)와 기가바이트(GIGABYTE)가 최적화한 버전으로도 공급되며, 1TB와 5TB급으로 구성됐다. 정 팀장은 "오픈 클로 자체는 작은 장치에서도 구동할 수 있지만 엔터프라이즈 업무를 위해선 메인 에이전트에 쓰이는 LLM이 돌아야 한다"며 "GPU 자원이 없으면 외부 API를 붙여 쓸 수 있지만 상시 구동 모델은 비용이 커질 수 있다"고 설명했다. 그러면서 엣지 환경에서 비교적 큰 모델을 구동하며 비용을 절감할 수 있는 장비 수요가 있다고 강조했다. 이어 "CPU와 GPU가 공유 메모리를 사용하기 때문에 LLM 배포 시 활용할 수 있는 메모리 공간이 크고, 그래서 더 큰 모델을 돌릴 수 있다"고 소개했다. 또 그는 "네모트론 120B 같은 큰 모델도 해당 단말에서 구동할 수 있도록 구성돼 있다"며 "작은 모델은 학습이나 파인튜닝도 가능하고, 로봇 분야에서는 강화학습이나 소형 VLA 모델 튜닝에도 활용할 수 있다"고 덧붙였다.

2026.04.21 18:22남혁우 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

'미토스'로 커진 AI 해킹 공습…대책은 3년째 '제자리'

"엔비디아 제친다"…구글, 학습·추론용 '8세대 TPU' 공개

고유가 지원금 코 앞인데…CU 물류 파업에 촉각

석유 가격 32% 급등…생산자물가지수 3년 11개월만에 최고치

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.