"AI 에이전트 시대 주도"…엔비디아, 추론 강화 돕는 SW 공개
엔비디아가 인공지능(AI) 에이전트 시대 본격화를 위한 기술 로드맵을 공개했다. AI 에이전트 개발·유지에 필요한 소프트웨어(SW) 기술을 비롯한 오픈소스 추론 모델 시리즈, 기업용 AI 워크플로 솔루션까지 잇따라 선보였다. 엔비디아는 17~21일까지(현지시간) 미국 새너제이에서 열리는 개발자 회의 'GTC 2025' 미디어 프리브리핑에서 AI 에이전트 개발·추론 강화에 필요한 SW 기술을 공개했다. 이를 통해 AI 에이전트 기술 생태계를 선점하고 기업용 AI 시장에서 주도권을 확보 하려는 전략이다. 이번에 발표할 주요 SW 제품으로는 AI 추론 모델 성능 강화를 돕는 '엔비디아 다이나모(NVIDIA Dynamo)'와 오픈소스 모델 '라마 네모트톤(Llama Nemotron)' 시리즈, '엔비디아 IQ 블루프린트'다. 엔비디아는 해당 제품 모두 AI 에이전트 구축 필수 요소로 자리잡을 것이라 재차 강조했다. '엔비디아 다이나모'로 AI 모델 추론 강화 이번 행사에서 엔비디아는 '엔비디아 다이나모'를 발표한다. 엔비디아 다니어모는 대규모 AI 추론 모델 성능을 올리는 오픈소스 소프트웨어(SW)다. 엔비디아 다이나모는 전체 데이터센터에서 분산·분해 방식으로 작동한다. 분산 방식은 하나의 AI 작업을 여러 개 GPU로 나눠 동시 처리하는 식이다. 기존에는 단일 GPU가 연산을 수행하는 방식이었다면, 다이나모는 동일 작업을 여러 GPU가 협력해 처리하도록 설계됐다. 이를 통해 대량 데이터를 더 빠르고 효율적으로 분석할 수 있다는 설명이다. 엔비디아는 다이나모 분해 방식도 핵심 요소로 꼽았다. 이 방식은 AI 모델이 하나의 질문을 받으면 이를 작은 단위로 쪼개 여러 GPU에 나눠 연산을 수행한다. 이후 최종 결과를 합치는 식이다. 이는 GPU 간 연산 부담을 줄이고 처리 속도를 높일 수 있다. 특히 데이터센터 내 수백~수천 개 GPU가 동시에 운영될 경우, 다이나모 최적화 기술이 GPU 성능 향상을 극대화할 수 있다. 다이나모는 해당 작동방식에 기반해 쿼리 하나를 최대 1천개 그래픽장치(GPU)로 확장할 수 있도록 설계됐다. 기존 방식보다 GPU 활용도를 높여 동일 개수의 GPU로도 처리량을 두 배까지 늘릴 수 있다. AI 모델이 데이터 처리하는 속도가 늘면 자연스럽게 비용 절감 효과와 처리 가능한 데이터 양도 는다. 향후 AI 기반 서비스 운영 효율성을 높이는 핵심 요소로 작용할 전망이다. 여기에 엔비디아의 최신 GPU 네트워크 기술 'NY링크'를 결합하면 성능 향상 폭이 더욱 커진다. NY링크는 GPU 간 데이터 전송 속도를 높이는 기술이다. AI 모델 연산 과정에서 병목현상을 줄이는 역할을 한다. 이를 통해 같은 개수의 GPU를 사용하면서도 최대 30배까지 처리 성능을 끌어올릴 수 있다. 이 외에도 다이나모는 파이토치(PyTorch)를 비롯한 텐서RT, sglang 등 다양한 AI 프레임워크와 호환되는 개방형 아키텍처를 지원한다. 이를 통해 기존 AI 모델을 변경하지 않고도 성능을 개선할 수 있다. 엔비디아는 "딥시크처럼 대규모 데이터를 처리하는 모델은 연산량이 많아 GPU의 확장성이 중요하다"며 "다이나모는 이런 대형 모델 연산 부담을 효과적으로 분산시키는 역할을 한다"고 강조했다. "똑똑한 AI 에이전트 구축"…오픈소스 모델 '라마 네모트론' 시리즈 엔비디아는 AI 에이전트 추론 능력 강화를 위해 새 오픈소스 AI 모델 '라마 니모트론(Llama Nemotron)' 시리즈를 내놨다. 이는 비즈니스 환경에서 즉시 활용 가능한 AI 추론 모델이다. 주로 복잡한 문제 해결을 위한 고급 AI 에이전트 구축에 사용된다. 메타의 오픈소스 모델 '라마' 기반으로 작동한다. 엔비디아는 "해당 모델은 알고리즘적으로 가지치기 과정을 거쳐 모델 크기를 줄였다"며 "이로 인해 컴퓨팅 자원을 덜 소모하면서도 정확도를 유지할 수 있게 최적화됐다"고 설명했다. 또 "사후학습 기법을 통해 라마 니모트론 모델을 더욱 개선했다"고 말했다. 그러면서 "주로 수학 문제 해결과 도구 호출, 명령어 처리, 대화 기능 등 여러 분야에서 최상의 추론 성능을 발휘할 수 있다"고 말했다. 라마 니모트론 모델군은 '나노(Nano)'와 '수퍼(Super)' '울트라(Ultra)' 버전으로 이뤄졌다. 나노는 해당 모델 크기에서 가장 높은 추론 정확도를 제공한다. 수퍼는 단일 데이터센터 GPU에서 가장 빠른 처리 속도를 제공한다. 울트라는 데이터센터급 멀티 GPU 환경에서 AI 에이전트 추론 정확도 극대화를 돕는 모델이다. 나노와 수퍼는 이번 GTC에서 NIM 마이크로서비스 형태로 제공된다. 울트라 모델은 추후 공개된다. 해당 모델 시리즈는 데이터셋 관련 기술과 패키지 형태로 제공된다. 이 데이터셋은 엔비디아가 생성한 600억 개 토큰으로 구성한 합성 데이터셋이다. 약 36만 시간의 H100 GPU 추론 수행과 4만 5천 시간의 인간 주석 작업을 통해 개발됐다. 이 외에도 해당 모델 시리즈는 추론 기능을 온·오프(toggle on/off)할 수 있는 옵션도 제공한다. 이는 오픈 모델에서는 드문 기능인 것으로 평가받고 있다. '엔비디아 IQ 블루프린트'로 AI 에이전트 유연성 높였다 엔비디아는 '엔비디아 IQ 블루프린트'를 출시했다. 해당 솔루션은 4월부터 이용 가능하다. IQ 블루프린트는 개발자가 NIM으로 AI 에이전트를 구축하고 이를 엔터프라이즈 비즈니스 시스템과 연결하게 돕는 AI 워크플로 도구다. 이를 통해 AI 에이전트가 텍스트, 이미지, 영상 등 여러 데이터 유형을 검색·활용할 수 있게 지원한다. 웹 검색이나 다른 AI 에이전트와 같은 외부 도구 활용도 가능하다. 또 다수 AI 에이전트가 팀을 이뤄 협력할 때 개발자가 AI 시스템 작동 과정을 모니터링하고 성능을 개선할 수 있도록 가시성과 투명성을 제공한다. 엔비디아는 "IQ 블루프린트를 활용하면 AI 에이전트 정확도를 높이고, 복잡한 작업 처리 시간을 몇 시간에서 몇 분으로 단축할 수 있다"고 강조했다. 또 엔비디아는 주요 데이터 스토리지 기업과 협력해 AI 데이터 플랫폼을 개발 중이라고 밝혔다. 해당 플랫폼에는 네모 리트리버와 IQ 블루프린트, 블랙웰 GPU, 스펙트럼-X 네트워킹, 블루필드 DPU 등이 포함된다. 이를 통해 실시간에 가까운 데이터 기능을 제공할 방침이다. 엔비디아는 "앞으로 엔터프라이즈 데이터가 AI 에이전트를 위한 핵심 자원으로 활용될 전망"이리며 데이터 플랫폼 개발 배경을 밝혔다. 그러면서 "현재 기업 데이터 저장 시스템은 단순히 파일을 저장하고 제공하는 역할만 수행하고 있다"며 "AI 에이전트가 도입되면, 기업은 데이터 저장·관리 시스템을 지식 제공 시스템으로 전환할 수 있다"고 강조했다.