• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (671건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

미 의회, 엔비디아 그록 인수 제동…반독재·독과점 조사 착수

미국 엔비디아가 AI 추론 전문 스타트업 '그록'과 체결한 200억달러(약 30조1300억 원) 규모의 라이선스 계약을 두고 미 의회가 반독점법 위반 여부에 대한 정밀 조사에 착수했다. 형식상 기술 사용 계약이지만, 실질적으로는 규제 당국의 감시를 피하기 위한 '편법 인수'라는 의혹이 핵심이다. 블룸버그 통신은 엘리자베스 워런 상원 의원과 리처드 블루먼솔 상원 의원이 현지시간 19일 엔비디아의 젠슨 황 CEO에게 이번 거래의 세부 내역 공개를 요구하는 서한을 발송했다고 20일 보도했다. 두 의원은 서한에서 "이번 거래가 반독점 규제 당국의 심사를 피하기 위해 의도적으로 설계된 것으로 보인다"며 강한 우려를 표명했다. 특히 "이러한 방식의 인수는 시장 경쟁을 억제하고 엔비디아의 독점적 지위를 더욱 공고히 해, 미국의 기술 리더십을 저해할 수 있다"고 지적했다. 지난 2025년 말 체결된 이번 계약에 따르면, 엔비디아는 그록의 IP(설계자산)에 대한 비독점 라이선스를 확보하는 동시에 조나단 로스 CEO를 포함한 그록의 핵심 엔지니어 대다수를 영입했다. 그록이라는 법인은 여전히 별개로 존재하지만, 핵심 인력과 기술이 엔비디아로 흡수됐다는 점에서 사실상의 인수합병(M&A)과 다를 바 없다는 것이 의회의 판단이다. 최근 아마존, 마이크로소프트, 구글 등 빅테크 기업들은 스타트업을 직접 인수하는 대신 기술 라이선스 계약과 인력 채용 형식을 빌려 규제 당국의 심사를 우회하는 전략을 취하고 있다. 미 연방거래위원회(FTC) 역시 지난 1월 이러한 형태의 '우회 인수'에 대해 엄격한 조사 방침을 밝힌 바 있다. 엔비디아는 현재 AI 모델 학습용 GPU 시장을 장악하고 있으며, 이번 계약을 통해 상대적으로 경쟁이 치열한 '추론' 시장에서도 지배력을 확대하려 하고 있다. 이번 주 열린 연례 컨퍼런스에서 젠슨 황 CEO는 그록의 기술을 새로운 AI 컴퓨팅 플랫폼에 통합하겠다고 공식 발표하기도 했다. 엔비디아 측은 "그록을 인수한 것이 아니며, 그록은 여전히 독립적인 사업체로 존재한다"며 "고객에게 세계 최고의 가속 컴퓨팅 기술을 제공하기 위해 라이선스를 구매하고 인재를 영입한 것뿐"이라고 해명했다.

2026.03.21 05:45전화평 기자

엔비디아, 오픈 모델로 '의료 AI' 혁신…헬스케어·신약 개발 가속

엔비디아가 오픈 모델과 데이터 플랫폼을 결합해 의료·생명과학 분야에 인공지능(AI) 활용 범위를 넓혔다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 '네모트론' 오픈 모델과 '네모 라이브러리'를 공개하고 의료 특화 AI 구축·배포를 지원한다고 밝혔다. 네모트론 오픈 모델은 오픈 가중치와 학습 레시피를 제공한다. 이를 통해 의료진과 개발자가 자체 인프라에서 맞춤형 AI 에이전트를 직접 구축할 수 있게 돕는다. 멀티모달 의료 데이터 증가에 대응해 고효율·저지연 처리 구조까지 제공해 기존 폐쇄형 시스템 의존도를 줄인다. 네모 라이브러리는 의료 전문 용어에 맞춘 파인튜닝을 지원해 범용 모델의 한계를 보완한다. 실제 헤이디 헬스는 네모트론 스피치 도입 후 지연 시간을 75% 줄이고 운영 비용을 64% 절감했다. 헬스케어 기업도 네모트론 기반으로 에이전틱 AI 도입을 확대하고 있다. 히포크라틱 AI는 임상 대화 모델을 구축했으며, 소드 헬스는 정신 건강 지원 모델을 고도화하고 있다. 또 아이큐비아와 오픈에비던스 베릴리도 각각 생명과학 연구와 의료 지식 통합 서비스에 활용하고 있다. 엔비디아는 바이오네모 플랫폼을 통해 생명과학 데이터 처리 영역도 확장했다. 파라브릭스와 쿠다-X 데이터 사이언스 라이브러리를 결합해 유전체 분석 속도를 높이고 연구 기간을 크게 단축하는 구조다. 베이스캠프 리서치는 초대규모 유전체 데이터 프로젝트를 통해 기존 공개 데이터 대비 10배 이상 큰 데이터셋을 구축했다. 이를 기반으로 수천조 개 DNA 염기쌍을 분석하며 기존 수십 년 걸리던 작업을 2년 미만으로 줄일 수 있는 환경을 마련했다. 타호 테라퓨틱스는 1억 개 세포 데이터 기반으로 가상 세포 모델을 개발했다. 향후 10억 개 세포 규모로 확장해 실제 실험 없이 치료 연구를 진행하는 시뮬레이션 환경을 구축할 계획이다. 퍼터브AI는 약 800만 개 뇌 세포 데이터를 활용한 CRISPR 유전체 아틀라스를 공개했다. 그래픽처리장치(GPU) 가속을 통해 분석 시간을 기존 며칠에서 실시간 수준으로 단축하며 질환 연구 속도를 높이고 있다. 엔비디아가 발표한 '헬스케어와 생명과학 분야 AI 현황' 조사에 따르면 의료 업계 리더 82%가 오픈소스를 핵심 전략으로 보고 있다. 엔비디아는 "의료 기관은 오픈 모델을 도입하고 이를 파인튜닝함으로써 데이터 주권을 확보할 수 있다"며 "투명성과 재현성에 대한 통제력을 유지하면서도 복잡한 에이전틱 애플리케이션에 필요한 높은 정확도를 확보할 것 이라고"고 밝혔다.

2026.03.20 18:15김미정 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

엔비디아, '범용 로봇 시대' 연다…피지컬 AI 통합 플랫폼 출시

엔비디아가 인공지능(AI) 로봇 개발 전 과정을 통합한 피지컬 AI 플랫폼을 공개했다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 차세대 로보틱스 개발을 위한 통합 플랫폼을 발표했다. 플랫폼은 데이터 생성과 학습, 시뮬레이션, 엣지 배포까지 아우르는 클라우드 투 로봇 워크플로를 기반으로 구성됐다. 이번 발표 핵심은 여러 작업을 수행하면서 특정 업무도 정밀하게 처리하는 '전문가형 범용 로봇'이다. 이를 위해 비전 언어 행동(VLA) 모델 기반의 추론 구조를 적용해 로봇이 인식과 판단, 행동을 통합적으로 수행하도록 설계했다. 엔비디아는 오픈소스 기반 '아이작' 플랫폼을 중심으로 모델과 데이터 파이프라인, 시뮬레이션, 런타임을 통합했다. 특히 '아이작 GR00T N' 모델을 통해 개발자가 로봇 지능을 초기화하고 이후 학습을 확장할 수 있도록 지원한다. 엔비디아는 로봇 개발 핵심으로 데이터 확보 방식을 꼽았다. 실제 센서 데이터와 시뮬레이션 기반 합성 데이터를 결합해 대규모 학습 데이터를 빠르게 생성하는 구조를 제시했다. 합성 데이터는 실제 환경에서 수집하기 어려운 극한 상황까지 학습할 수 있다는 점에서 중요성이 커지고 있다. 가트너에 따르면 엣지 AI 학습에서 합성 데이터 비중은 현재 20% 수준이지만 2030년에는 90% 이상으로 확대될 전망이다. 이를 위해 엔비디아는 '옴니버스 누렉'과 '아이작 텔레옵'을 정식 출시했다. 센서 데이터 기반으로 실제 환경을 시뮬레이션으로 재현하고 원격 조작 데이터를 학습 데이터로 활용할 수 있도록 지원한다. 로봇 학습 단계에서는 아이작 랩을 활용해 수천 개 물리 기반 시뮬레이션 환경을 병렬로 구성한다. 이를 통해 실제 환경에서는 수년이 걸리는 학습을 단기간에 수행할 수 있도록 돕는다. 또 뉴턴 물리 엔진과 통합해 중력과 충돌 등 현실 물리 법칙을 반영한 정밀 시뮬레이션을 구현했다. 이를 통해 로봇이 다양한 환경에서 안정적으로 동작하도록 훈련할 수 있다. 배포 전 단계에서는 소프트웨어 인 더 루프와 하드웨어 인 더 루프 테스트를 통해 실제 환경 적용성을 검증한다. 이후 젯슨 기반 엣지 컴퓨팅 환경에서 실시간 추론과 센싱을 수행하도록 한다. 엔비디아는 이 전체 과정을 하나의 오픈소스 워크플로 형태로 제공한다. 이를 통해 개발자가 구성 요소를 자유롭게 조합할 수 있도록 도울 방침이다. 디지털 트윈 기반 '메가' 블루프린트를 통해 수백 대 규모 로봇 테스트까지 확장 가능하게 했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "AI와 시뮬레이션, 실제 로봇을 연결하는 통합 플랫폼이 차세대 로보틱스의 핵심"이라며 "개발자들이 데이터부터 배포까지 전체 과정을 가속할 수 있도록 지원한다"고 밝혔다.

2026.03.20 17:21김미정 기자

레노버, 엔비디아와 엔터프라이즈 AI 가속화…'기가와트급 AI 팩토리' 구축 지원

레노버가 엔비디아와 협력해 기업 인공지능(AI) 도입과 운영을 전 단계에서 지원하는 통합 플랫폼을 공개하며 AI 추론 중심 시대 대응에 나섰다. 레노버는 엔비디아 'GTC 2026'에서 '레노버 하이브리드 AI 어드밴티지 위드 엔비디아' 신규 솔루션을 발표했다고 20일 밝혔다. 이 솔루션은 개인용 기기부터 데이터센터, 클라우드까지 전 영역을 아우르는 구조로 설계됐다. 기업이 AI를 빠르게 도입하고 실제 운영 환경까지 확장할 수 있도록 지원하는 것이 핵심이다. 이번 솔루션은 기존 모델 학습 중심에서 벗어나 실시간 의사결정을 수행하는 'AI 추론' 환경에 초점을 맞췄다. 특히 첫 토큰 생성 시간 단축과 운영 효율성 개선을 통해 기업의 AI 활용 가치를 높이는 데 중점을 뒀다. 레노버는 이를 통해 지능형 자동화와 실시간 분석 기반 의사결정을 구현할 수 있다고 설명했다. 레노버가 인용한 IDC 'CIO 플레이북 2026'에 따르면, 기업의 84%가 클라우드뿐 아니라 온프레미스나 엣지 환경에서도 AI를 활용할 것으로 예상된다. 이에 따라 다양한 환경에서 안정적으로 추론을 수행할 수 있는 하이브리드 AI 인프라 수요가 빠르게 증가하고 있다. 양위안칭 레노버 회장 겸 CEO는 "AI는 실험 단계를 넘어 실제 운영 환경으로 빠르게 이동하고 있다"며 "엔비디아 소프트웨어와 레노버의 풀스택 플랫폼을 결합해 기업이 더 낮은 비용으로 AI를 확장하고 도입 속도를 높일 수 있도록 지원할 것"이라고 밝혔다. 레노버와 엔비디아는 이번 협력을 통해 AI 인프라 전반을 포괄하는 기술도 함께 공개했다. 엔비디아 다이나모와 엔비디아 NIM을 기반으로 한 AI 추론 플랫폼, 베라 루빈 NVL72 아키텍처 기반 AI 클라우드 인프라, 산업별 맞춤형 AI 에이전트 솔루션 등이 포함됐다. 이를 통해 개발 단계에 머물던 AI를 실제 운영 환경으로 전환하는 기반을 제공한다. 젠슨 황 엔비디아 CEO는 "AI는 이제 실시간으로 작동하는 운영 기술로 자리잡고 있다"며 "AI 에이전트가 스스로 판단하고 행동하는 시대에는 가속 컴퓨팅과 AI 인프라 수요가 폭발적으로 증가할 것"이라고 말했다.

2026.03.20 17:08남혁우 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

"AI로 결제하는 세상"…엔비디아-오픈AI, '에이전틱 쇼핑' 표준 제시

엔비디아가 오픈AI 손잡고 인공지능(AI) 에이전트 기반 유통 생태계 강화에 나섰다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 오픈AI가 개발에 참여한 '리테일 에이전틱 커머스 블루프린트'를 공개했다고 밝혔다. 이 블루프린트는 생성형 AI 플랫폼과 리테일 시스템 간 연동을 지원하는 오픈소스 기반 참조 아키텍처다. 이번 구조는 고객이 상품 탐색부터 결제 후 경험까지 전 과정을 AI 에이전트에 맡길 수 있도록 설계된 점이 핵심이다. 챗GPT와 구글 제미나이 같은 플랫폼에서 쇼핑을 시작하고 구매까지 완료할 수 있는 환경을 제공한다. 엔비디아 블루프린트는 리테일 기업이 AI 플랫폼과 직접 연결돼 에이전트 간 통신을 수행할 수 있도록 지원한다. 이를 통해 판매자는 통제된 환경에서 결제 보안과 개인화 추천 기능을 유지하면서 새 커머스 생태계에 참여할 수 있다. 기술적으로는 오픈AI의 에이전틱 커머스 프로토콜과 구글의 유니버설 커머스 프로토콜을 동시에 지원한다. 코드베이스 하나로 두 표준을 모두 구현해 단일 환경에서 다양한 에이전트 생태계를 연결할 수 있는 구조다. 오픈AI는 자체 소프트웨어 개발 키트(SDK)를 통해 챗GPT 내부에 쇼핑 경험을 직접 통합할 수 있도록 지원했다. 이번 블루프린트 개발 과정에도 참여해 실제 서비스 환경에서 작동 가능한 구조 구현을 돕는다. 블루프린트는 엔비디아 네모 에이전트 툴킷과 네모트론 모델 기반으로 작동한다. 프로모션 가격 책정부터 추천, 생성, 시맨틱 검색, 다국어 메시징 등 네 가지 핵심 기능을 에이전트 형태로 제공한다. 모든 기능은 위임 결제 시스템과 연계돼 거래 전 과정에서 보안을 유지하도록 설계됐다. 판매자가 거래 흐름 전반을 통제할 수 있도록 한 점도 특징이다. 엔비디아는 "해당 생태계에서 다양한 참여 주체가 동일한 프로토콜 위에서 협력할 수 있을 것"이라고 밝혔다.

2026.03.20 17:02김미정 기자

[AI 고속도로] 정부, 2조원 규모 GPU 확보 첫발…'베라루빈'까지 품는다

정부가 '인공지능(AI) 고속도로' 구축을 위한 그래픽처리장치(GPU) 확보에 속도를 내며 차세대 엔비디아 아키텍처 '베라루빈'까지 포함한 대규모 컴퓨팅 인프라 확충에 나섰다. 약 2조원 규모 예산을 투입해 첨단 GPU를 민관 협력 방식으로 조기 확보하고 국내 AI 산업 경쟁력을 끌어올린다는 목표다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 진행했다. 이날 현장에는 지난해 1차년도 사업에 참여했던 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)를 비롯해 서비스형 GPU(GPUaaS) 사업을 하는 엘리스그룹이 참석했다. 이 외에도 ▲시스템 통합(SI) 기업 삼성SDS·LG CNS·아이티센씨티에스·에스넷시스템 ▲매니지드 서비스 기업(MSP) 메가존클라우드·디딤365 ▲AI 플랫폼 기업 레드햇·클러쉬 ▲서버·스토리지 기업 델 테크놀로지스·HS효성인포메이션시스템·시스코·넷앱·슈퍼마이크로·HPE·IBM ▲칩 벤더인 엔비디아·AMD·인텔이 자리했다. 여기에 마이크로소프트(MS)·구글 클라우드 등 글로벌 CSP와 SK텔레콤, 쿠팡까지 가세하면서 총 60여개 기업, 200여 명이 이번 설명회를 찾았다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 말했다. 이번 사업은 약 2조 805억원 규모 예산이 GPU 서버와 랙·냉각장치·스토리지·네트워크 등 부대장비 구매 비용에 집중 투입된다. 올해 첨단 GPU 구축을 완료하고 연내 서비스 개시를 목표로 한다. 이후 2031년까지 약 68개월간 운영·지원이 이어진다. 사업 추진 방향은 단순한 물량 확대가 아닌 ▲비용 대비 높은 성능 ▲대규모 클러스터링 ▲직접 클러스터링을 통한 기술력 확보 ▲최신 GPU 우선 도입 ▲연내 서비스 개시 등이 핵심이다. 특히 올해 공모에선 차세대 GPU 도입 여부가 주요한 평가 요소로 떠올랐다. 블랙웰급 이상의 최신 GPU를 기본으로 제안하되, 최근 공개된 차세대 하이엔드 GPU인 베라루빈을 제안할 경우 평가에서 우대한다는 설명이다. 이 사업을 통해 확보되는 GPU는 동일 데이터센터, 동일 공간 또는 동일 층에 물리적으로 집적해 클러스터를 구성해야 하는 것이 요건이다. 참여 기업의 전력·냉각·항온항습·초저지연 네트워크 등 인프라 설계 역량도 평가에 반영된다. 최소 256노드(GPU 2048개) 규모 이상의 클러스터 구성이 기본 기준으로 제시됐다. 이번 사업은 국내 기업 중심의 AI 인프라 역량 강화에도 초점이 맞춰졌다. 이 팀장은 "국내 CSP들이 직접 클러스터링과 운영을 수행하면서 기술력을 축적할 수 있도록 하는 것이 중요한 목적"이라며 "우리 기업들의 인프라 구축·운영 역량을 키우는 방향으로 설계됐다"고 강조했다. 사업 참여는 단독뿐 아니라 컨소시엄 형태도 가능하다. 다만 모든 참여 기업이 GPUaaS 운영 실적 등 신청 요건을 충족해야 하며 사전검토와 발표평가, 데이터센터 현장실사를 거쳐 최종 사업자가 선정된다. 복수 사업자 선정도 가능해 CSP·MSP·SI·통신 기업 간 치열한 연합 경쟁이 예상된다. 평가 기준도 구체적으로 제시됐다. 총 100점 만점 기준에서 사업 준비도 및 경쟁력이 50점으로 가장 큰 비중을 차지하며 이 가운데 구축계획 우수성이 32점, 인프라 준비도가 18점으로 구성된다. 여기에 AI 생태계 발전 노력 26점, 사업 이해도 및 추진역량 12점, 운영 역량 및 사업관리 12점이 반영된다. 이 팀장은 "정부 활용 GPU 비중이 높고 산학연 지원 계획이 구체적일수록 높은 평가를 받을 것"이라며 "국내 데이터센터에서 GPU 자원을 직접 운영·통제하는 구조 역시 중요한 평가 요소"라고 밝혔다. 특히 GPU 자원 중 일부는 사업자가 자체 활용할 수 있도록 허용되지만, 해당 비중과 활용 계획 역시 평가에 반영된다. 정부는 국가 AI 프로젝트와 산학연, 스타트업 지원을 우선 고려한다는 방침이다. 이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 담당하게 된다. 동시에 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 현황과 확보 계획, 데이터 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등이 주요 평가 대상에 포함된다. 특히 AI 워크로드를 이해하는 전문 인력과 안정적인 기술지원 체계를 반드시 제시해야 한다는 점도 강조됐다. 단순 인프라 운영을 넘어 실질적인 AI 모델 개발과 서비스까지 지원할 수 있는 수준이 요구된다. 정부는 이번 사업을 통해 확보한 GPU를 국가 AI 프로젝트와 연구개발, 산업 현장에 폭넓게 공급하며 국내 AI 생태계 전반의 경쟁력을 끌어올린다는 계획이다. 원상호 NIPA AI인프라본부장은 "민간과 협력해 국내 AI 산업 생태계가 체감할 수 있는 첨단 활용 기반을 마련하는 것이 중요하다"며 "글로벌 AI 경쟁 기반을 넓히고 우리 산업의 경쟁력을 한 단계 끌어올리는 계기가 될 것"이라고 강조했다.

2026.03.20 16:55한정호 기자

GTC 2026, AI 풀스택 전환 신호탄…산업 경계 무너진다

엔비디아 연례 기술 컨퍼런스 'GTC 2026'을 계기로 인공지능(AI)이 반도체를 넘어 산업 전반 가치사슬을 재편하는 '풀스택(Full-Stack)'으로 전환되고 있다는 분석이 나왔다. 20일 삼정KPMG가 발간한 'GTC 2026으로 본 산업 생태계 변화' 보고서에 따르면 이번 GTC는 반도체·모델·에이전트로 이어지는 엔비디아의 풀스택 전략이 가시화된 분기점으로 평가됐다. 보고서는 지난 16~19일(현지시간) 미국 캘리포니아주 새너제이에서 열린 GTC 핵심 트렌드로 반도체, 피지컬 AI, 산업용 AI 세 가지를 제시했다. 반도체 분야에서는 삼성전자가 차세대 고대역폭 메모리(HBM) 'HBM4E' 실물 칩을 처음 공개했고, SK하이닉스는 HBM 제품의 엔비디아 플랫폼 적용 사례를 소개했다. 피지컬 AI 영역에선 엔비디아가 로봇 개발 지원 프레임워크 '아이작'과 오픈 모델 기반 플랫폼 '코스모스'를 내놓으며 로보틱스 생태계 확장에 속도를 올렸다. 산업용 AI에서는 자율 판단·실행 기반의 AI 에이전트 확산과 'AI 팩토리' 아키텍처가 핵심으로 부각됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 기조연설에서 에이전틱 AI, 피지컬 AI, AI 팩토리를 아우르는 차세대 컴퓨팅 비전을 제시하며 산업 전반이 AI 중심 인프라로 재편되는 전환기에 진입했다고 역설했다. 엔비디아는 에이전틱 AI 특화 차세대 중앙처리장치(CPU) '베라'와 추론 특화 '그록 3' 언어처리장치(LPU)를 포함한 차세대 반도체 플랫폼 '베라 루빈', AI 에이전트 플랫폼 '네모클로'를 공개하며 풀스택 전략을 구체화했다. 현대자동차그룹, 알파벳, 지멘스 등 다양한 산업군의 글로벌 기업들도 엔비디아와의 협업 성과를 발표하며 산업 간 경계 해체 흐름을 뒷받침했다. 삼정KPMG 경제연구원은 "GTC 2026은 단순한 기술 발표를 넘어 글로벌 기업 간 협업을 통해 산업 생태계 변화 방향을 보여준 사례"라며 "엔비디아의 비전과 글로벌 시장 흐름을 종합 분석해 기업들이 중장기 성장 전략을 수립할 필요가 있다"고 밝혔다.

2026.03.20 16:17이나연 기자

첨단 엔비디아 칩, 중국으로 샜다…슈퍼마이크로 간부 3명 기소

미국 인공지능(AI) 서버 기업 슈퍼마이크로의 간부들이 엔비디아 AI 칩을 중국으로 밀반출한 혐의로 기소됐다. 수십억 달러 규모의 불법 수출 정황이 드러나며 글로벌 반도체·공급망 업계 전반에 파장이 확산되는 모습이다. 19일(현지시간) CNBC에 따르면 미국 뉴욕 남부지방검찰청은 엔비디아 AI 칩이 탑재된 서버를 중국으로 불법 반출한 혐의로 슈퍼마이크로컴퓨터 관계자 3명을 기소했다. 기소된 인물은 공동 창업자인 왈리 라우를 포함해 영업 관리자와 외부 계약자 등으로, 이들은 미국 수출통제법을 위반해 엔비디아 그래픽처리장치(GPU)가 포함된 서버를 중국으로 우회 반출한 혐의를 받고 있다. 미국 검찰에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 내세워 허위 서류를 작성하고 물류 과정을 조작하는 방식으로 실제 최종 목적지가 중국임을 숨겼다. 또 가짜 서버를 준비해 내부 컴플라이언스 검증을 통과시키는 등 조직적으로 규제를 회피한 것으로 조사됐다. 이 과정에서 2024년 이후 약 25억 달러(약 3조 7245억원) 규모의 서버 판매가 이뤄졌으며 일부 물량은 엔비디아 최신 AI 칩이 탑재된 제품으로 파악됐다. 미국 정부는 중국 AI 기업들의 성장 속에서 첨단 반도체 유출을 국가안보 문제로 보고 강력히 규제하고 있다. 엔비디아 칩 역시 중국 수출 시 별도 허가가 필요한 핵심 품목으로 분류된다. 이번 사건은 엔비디아와 슈퍼마이크로 간 긴밀한 협력 관계에도 영향을 미칠 가능성이 제기된다. 양사는 AI 서버 시장에서 밀접한 공급망을 구축해왔다. 같은 대만계 미국인으로서 젠슨 황 엔비디아 최고경영자(CEO)와 찰스 리앙 슈퍼마이크로 CEO 간 개인적 친분도 두터운 것으로 알려졌다. 사건 여파는 즉각 주가에도 반영됐다. 슈퍼마이크로 주가는 해당 사실이 공개된 직후 시간외 거래에서 약 12% 급락했으며 일부 거래에서는 12.48% 하락한 26.95달러를 기록했다. CNBC는 미·중 기술 패권 경쟁이 심화되고 있어 이번 AI 칩 불법 유출 문제가 더욱 엄격히 다뤄질 것이라고 보도했다. 슈퍼마이크로 측은 "해당 직원들을 직무에서 배제하고 계약을 해지했다"며 "회사 정책과 수출 규정을 위반한 개인적 일탈"이라고 선을 그었다.

2026.03.20 09:52한정호 기자

"중국은 자율주행 왜 잘할까"…8개 부처 공무원들 출장간 이유

"자율주행을 모델을 개발할수록 '중국은 어떻게 이렇게 빨리 했지'라는 의문이 스스로를 괴롭힌다. 최고 수준의 엔지니어링이 필요한 분야인 만큼 단일 기업이나 기관의 역량만으로 쉽지 않아 산·학·연이 참여하는 오픈(개방형) 협력이 결국 답이다." 최준원 서울대 전기정보공학부 교수는 19일 국회의원회관에서 열린 국회 모빌리티포럼 제1차 세미나에서 '오픈 협력 생태계를 통한 국내 엔드투엔드(E2E) 자율주행 기술 개발 전략'을 주제로 강연에 나서 이같이 말했다. 최 교수는 최근 3년간 자율주행 기술이 빠르게 발전한 배경으로 인공지능(AI)을 꼽으며, 엣지 케이스(예측이 어려운 위험 상황)에 대응하는 능력을 키우는 것이 핵심이라고 강조했다. 그는 "챗GPT의 위력이 데이터 학습을 통해 확인 됐듯이 자율주행도 대규모 데이터를 구축해 AI가 학습한다면 엣지케이스 대응 능력이 좋아질 수 있다"며 "테슬라가 이미 입증했고, 중국 자율주행 기업들도 빠른 속도로 따라가고 있다"고 말했다. 이어 "우리는 테슬라나 웨이모처럼 대용량 데이터가 있지 않고, 대규모 투자도 쉽지 않은 상황인 만큼 산학연 협력이 필요하다"며 "엔비디아 같은 해외 기업과의 협력도 중요하지만 자율주행을 국내 기술력으로 개발했으면 하는 개인적인 바람도 있다"고 덧붙였다. 정부 역시 중국 자율주행 기술 굴기에 대한 경각심을 갖고 대응책 마련에 고심 중이다. 이날 발제 발표 후 이어진 토론회에서 임채현 국토교통부 자율주행정책과 사무관은 "이 자리에 원래 국장님과 과장님이 오시기로 했는데, 지금 다 중국에 출장을 가셨다"며 "산업통상부, 과기정통부, 재정경제부, 기획예산처 등 8개 부처 관계자들로 구성된 범정부 정책 연구단을 중국에 파견했다"고 말했다. 이어 "2박 3일 동안 중국의 기술을 살피고 국내 자율 주행 정책 방향 수립에 참고하려고 한다"며 덧붙였다. 범부처 차원에서 자율주행 산업 경쟁력 강화를 위해 선도국에 연구단을 파견한 것은 처음이다. 임 사무관은 "자율주행 기술 격차를 좁히기 위해 실증 도시에서 200대 차량을 24시간 운영해 데이터를 최대한 확보하고, 엣지케이스와 같은 질 높은 데이터를 얻기 위한 고난도 실증을 위해 보험상품까지 붙였다"며 "GPU 물량을 올해 200장 쓰기로 했고, 국가 프로젝트 물량 중 자율주행 부문에서 추가로 1000~2000장을 확보하는 것을 목표로 한다"고 말했다. 그는 "국토부가 원래 기술개발을 해오던 부처가 아니라 엔드 유저로서 개발된 기술을 가지고 서비스에 접목하던 부처다보니 당장 상용화하기 어려운 기술들이 많았다"며 "현재 과기부와 산업부와 같이 연구개발(R&D)을 진행하는 방향으로 정책을 수립하고 있으며, 규제 적용이 모호한 부분들은 선 적용 후 규제하는 방식으로 적극적으로 기술 개발을 지원해 나갈 계획"이라고 강조했다. 이어 "국회와도 계속 논의해 자율 주행 기술을 3년 안에 세계 3대 강국으로 도약할 수 있도록 힘쓰겠다"고 덧붙였다. 안재훈 산업통상부 자동차과 미래모빌리티팀장은 "AI 시대에 대응하기 위해서는 자동차 산업이 근본적으로 바뀌어야 된다"며 "우리나라가 주도권을 갖고 산업을 발전시켜 나가기 위해서는 압도적인 기술력이 굉장히 중요하다"고 강조했다. 이어 "개방형 협력은 이미 AI 미래차 얼라이언스 출범을 통해 진행하고 있으며, 작년 9월 AI 알고리즘과 차량용 운영체제(OS) 같은 핵심 기술 개발을 위한 R&D도 시작을 했다"며 "2030년까지 미래차 전문 기업 200개를 육성하는 목표를 갖고 금융과 R&D 패키지를 지원하려는 계획도 갖고 있다"고 말했다. GPU와 데이터 수집에 많은 비용이 들어가는 만큼 소규모 AI 데이터센터를 자율주행 기업들이 공동으로 활용하자는 아이디어도 나왔다. 곽수진 자동차연구원 본부장은 "중소·중견 기업의 경우 갖고 있는 GPU들 100% 활용하지 못하고 있기 때문에 소규모 데이터센터를 지역 단위로 둬서 전기료 등 부대 비용은 정부가 지원해주고 각 기업들이 투자한 비용에 비례해 GPU를 활용할 수 있도록 하고, 남는 시간에는 학교 등에서 사용할 수 있도록 혜택을 주는 등 자원을 효율적으로 활용할 수 있는 방법에 대한 고민도 필요하다"고 제언했다.

2026.03.19 19:01류은주 기자

엔비디아의 인재 영입에서 배우는 채용 전략

'2026년 빅테크에서 찾아낸 HR 트렌드'는 요즘 빅테크에서 일과 사람의 현상을 탐구하는 연재 코너입니다. '채용트렌드' 저자인 윤영돈 윤코치연구소 소장은 이번 칼럼을 통해 세계적인 기업의 인재 경영에서 발견한 '새로운 채용 전략'의 방향을 전합니다. 최근 빅테크 기업들은 채용 방식에서도 큰 전환을 보이고 있다. 과거에는 학벌, 스펙, 인터뷰 퍼포먼스 중심으로 인재를 평가했다면, 이제는 '이미 함께 일해본 사람의 증언'을 더 신뢰하는 흐름으로 바뀌고 있다. 지금의 채용 변화는 단순한 '전공의 위기'가 아니라 '역할의 재정의'다. 과거에는 '어디를 나왔는가?'가 경쟁력이었다면, 이제는 '무엇을 만들어낼 수 있는가', 그리고 'AI를 활용해 이를 구현할 수 있는가'가 더 중요해졌다. 신조어 '컴송'·'법송'·'의송'은 특정 전공의 문제가 아니라 'AI 리터러시를 갖춘 사람'과 'AI를 활용하지 못하는 사람' 사이의 격차를 상징하는 신호다. AI 리터러시(AI Literacy)는 단순히 AI를 사용할 줄 아는 수준을 넘어, AI의 작동 원리를 이해하고 적절한 질문과 명령으로 결과를 설계하며, 이를 비판적으로 해석하고 윤리적 책임까지 고려하는 능력을 의미한다. 이제 기업이 원하는 인재는 '코드를 많이 작성하는 사람'이 아니라, 'AI를 활용해 문제를 해결하고 가치를 만들어내는 사람'이다. 따라서 앞으로의 경쟁력은 전공이 아니라 다음 질문에 달려 있다. 특히 엔비디아는 이러한 변화의 중심에 있는 기업이다. 구성원보다 뛰어난 사람을 뽑는다 “우리가 할 수 없는 일을 할 수 있는 사람을 뽑는다(We hire people who can do things we cannot).” 엔비디아의 CEO 젠슨 황은 인재를 채용할 때 단순한 이력서나 인터뷰보다 '레퍼런스 체크'를 매우 중요하게 본다. 기존 구성원보다 더 뛰어난 사람을 뽑는 것이 성장의 핵심이다. 엔비디아는 핵심 인재를 영입할 때 단순히 HR에 맡기지 않는다. 젠슨 황은 필요하다고 판단하면 직접 후보자에게 연락하고, 여러 차례 대화를 이어간다. 한 번의 제안으로 끝나지 않는다. 상대가 망설이면 다시 연락하고, 관심이 없다고 하면 시간을 두고 다시 연결한다. 중요한 것은 '지금 채용하느냐'가 아니라 '언젠가 함께 일할 수 있는 관계를 만드는 것'이기 때문이다. 강력한 보상, 낮아진 이직률 엔비디아의 이직률은 최근 5년 사이 급격히 낮아졌다. 2022년 약 4.9%, 2023년 약 5.3%, 2024년 약 2.7%, 2025년 약 2.5%로, 반도체 업계 평균인 약 16~18% 대비 약 1/6 수준이다. 특히 시가총액이 급등한 이후 이직률이 5.3%에서 2.7%로 급감했다는 점은 매우 중요한 변화다. 엔비디아의 보상 전략은 단순한 고연봉이 아니라 '떠나기 어렵게 만드는 구조'에 가깝다. 기본급과 성과급 위에 RSU(주식 보상)를 3~4년에 걸쳐 나눠 지급하고, 매년 새로운 보상을 추가하는 방식이다. 이 구조에서는 항상 미래에 받을 보상이 남아 있고, 주가 상승까지 더해지면서 그 가치는 시간이 지날수록 커진다. 결국 퇴사는 단순한 이직이 아니라 '확정된 미래 자산을 포기하는 결정'이 된다. “떠나는 것이 비합리적인 구조를 만든다(Leaving is irrational).” 엔비디아는 사람을 설득해 붙잡는 대신, 떠나는 것이 비합리적인 선택이 되도록 설계한다. '황금 족쇄(Golden Handcuffs)' 보상은 비용이 아니라 가장 강력한 인재 유지 전략이다. ① 단기 연봉이 아니라 장기 자산을 제공한다. ② 인재 유지를 위해 보상을 시간에 묶는다. ③ 떠나는 순간 손해가 발생하도록 설계한다. '스펙 중심 채용'에서 '팀핏 기반 채용'으로 채용에서 영입(Talent Acquisition)이 중요해지고 있다. 좋은 인재일수록 이력서에 적힌 내용보다 함께 일했던 사람들의 기억 속에 더 강하게 남아 있다. 문제를 해결하는 방식, 갈등을 조율하는 태도, 어려운 상황에서 보여준 책임감은 인터뷰로는 확인하기 어렵지만 레퍼런스를 통해서는 명확하게 드러난다. 결국 채용은 '정보의 비대칭'을 줄이는 과정이다. 엔비디아는 이를 줄이기 위해 가장 신뢰할 수 있는 데이터인 '사람의 경험'을 활용한다. 이제는 평가보다 평판이 중요해진다. 단순한 평판 조회를 넘어 실제로 함께 일했던 동료, 상사, 협업 파트너에게 팀핏(Team Fit)의 질문을 던진다. “이 사람과 다시 일하고 싶은가?” “이 사람이 팀의 기준을 끌어올리는가, 아니면 평균에 머무는가?” 이 질문은 단순하지만 강력하다. 기업은 더이상 '말을 잘하는 사람'을 원하지 않는다. 실제 현장에서 '함께 일해본 결과'로 검증된 사람을 원한다. “우리는 열정과 회복탄력성, 그리고 팀워크를 갖춘 사람을 찾는다(We look for people who are passionate, resilient, and team-oriented).” 엔비디아의 채용 방식은 '스펙 중심 채용'에서 '팀핏 기반 채용'으로 이동하고 있음을 보여준다. 겉으로 드러난 스펙보다 '일하는 방식'을 본다. 비슷한 기술력을 가진 두 사람이 있다면 협업 방식이 더 건강한 사람을 선택한다. 이는 단기 성과보다 장기적인 팀 생산성을 고려하기 때문이다. 이러한 기준은 결국 '인재 밀도'로 이어진다. 신뢰가 높은 팀은 의사결정이 빠르고 실행이 단순하다. 결국 채용은 개인의 능력을 평가하는 것이 아니라, '팀의 속도를 얼마나 높일 수 있는가'를 판단하는 일이다. 뛰어난 한 명보다 서로를 끌어올리는 팀이 더 강력하다. “이 사람과 함께 일하면, 우리 팀은 더 나아지는가?” 엔비디아의 채용 전략은 이 질문의 변화를 명확하게 보여준다. 기술보다 사람, 스펙보다 신뢰, 그리고 '이미 증명된 성과'가 중요해지고 있다. 이제 인재의 기준은 지행합일(知行合一)이다. 아는 것을 실행으로 연결하고, 실행을 성과로 증명하는 사람이 선택받는다. 앞으로 기업이 던져야 할 질문도 같다. '누구를 뽑을 것인가?'가 아니라 '누구와 함께 일할 것인가?'다.

2026.03.19 17:38윤영돈 컬럼니스트

KISTI-엔비디아, 과학 AI 파운데이션 모델 공동개발 나선다

한국과학기술정보연구원(KISTI)이 엔비디아와 현재 설치 중인 슈퍼컴 6호기 GPU로 과학 AI파운데이션 모델을 개발하기로 했다. 슈퍼컴 6호기는 오는 7월 말 개통을 목표로 시스템 등 설치에 박차를 가하고 있다. 미국 산호세에서 열린 엔비디아(NVIDIA) 글로벌 인공지능(AI) 콘퍼런스 'GTC 2026'에 참석 중인 이식 KISTI 원장은 엔비디아 및 휴렛팩커드 엔터프라이즈(HPE)와 각각 업무협약을 체결하고 고성능컴퓨팅(HPC)과 AI 분야 협력을 본격 추진하기로 했다고 19일 밝혔다. KISTI는 18일(현지 시각) 미국 산호세에서 엔비디아와 업무협약을 체결했다. 강지훈 슈퍼컴퓨팅응용지원센터장은 전화통화에서 "지난해 10월 경주 APEC 정상회의 CEO 써밋에서 발표된 KISTI-엔비디아 간 전문센터(CoE) 협력 계획을 구체화하고, 슈퍼컴 6호기를 중심으로 한 과학 AI 연구와 GPU 가속 컴퓨팅 협력을 본격화할 것"이라고 말했다. 협약에 따라 양측은 슈퍼컴 6호기 GPU 환경을 활용해 대규모 과학 AI 모델과 도메인 특화 파운데이션 모델 개발을 공동 추진할 계획이다. 특히 바이오, 소재·화학, 지구과학, 반도체 등 전략 연구 분야에서 AI 기반 연구를 확대한다. 슈퍼컴 6호기와 양자컴퓨터 '템포(Tempo)'를 연계한 양자-HPC 하이브리드 컴퓨팅 환경을 통해 양자컴퓨팅 연구에도 매진할 계획이다. 이와함께 기존 슈퍼컴퓨터 주요 응용 소프트웨어를 GPU 환경에 최적화해 성능 향상을 검증하고, GPU 가속 기술을 활용한 계산과학 연구 협력도 추진한다. 이에 앞서 17일에는 HPE와 업무협약을 체결했다. KISTI는 HPE와 슈퍼컴 6호기 기반 AI·HPC 연구 협력을 위해 전략적 기술 협력체계를 구축할 계획이다. CoE 프로그램을 중심으로 슈퍼컴퓨팅 인프라 활용을 극대화하고 과학 난제 해결을 위한 통합 연구 환경을 고도화할 계획이다. 이식 원장은 "슈퍼컴 6호기는 대한민국 디지털 연구 인프라의 핵심 자산”이라며 “엔비디아와 HPE와의 협력을 통해 AI와 HPC 기술을 결합한 차세대 연구 환경을 구축하고, 국가 전략 연구 분야의 경쟁력을 높여 나갈 것"이라고 말했다.

2026.03.19 17:35박희범 기자

글로벌 서버 시장, 엔비디아 '베라 루빈' 중심 재편…통합 인프라에 방점

엔비디아의 차세대 인공지능(AI) 슈퍼컴퓨팅 아키텍처 '베라 루빈'이 공개되면서 글로벌 서버·인프라 시장이 빠르게 재편되고 있다. 델 테크놀로지스, 슈퍼마이크로, HPE 등 주요 기업들이 일제히 해당 플랫폼을 중심으로 제품과 전략을 내놓으며 AI 인프라 경쟁이 차세대 아키텍처 선점 국면으로 본격 진입하는 양상이다. 19일 엔비디아는 미국 새너제이에서 열린 'GTC 2026'에서 차세대 AI 컴퓨팅 플랫폼 베라 루빈을 중심으로 한 인프라 전략을 공개하고 주요 파트너사들과의 협력 확대를 발표했다. 가장 공격적으로 움직인 곳은 델 테크놀로지스다. 델은 '엔비디아 기반 델 AI 팩토리'를 전면 고도화하며 베라 루빈 기반 서버를 핵심 축으로 내세웠다. 대표적으로 '파워엣지 XE9812'는 베라 루빈 NVL72 플랫폼을 기반으로 설계된 수랭식 서버로, 대규모 AI 학습과 추론을 동시에 지원하는 차세대 주력 제품으로 꼽힌다. 델은 단순 서버 공급을 넘어 데이터 플랫폼, 네트워크, 서비스까지 통합한 엔드투엔드 구조를 통해 AI를 파일럿에서 실제 운영 단계로 확장하는 데 초점을 맞췄다. 델 AI 팩토리는 전 세계 4000여 기업에서 활용되며 최대 2.6배 수준의 투자수익률(ROI)을 기록한 것으로 나타났다. 마이클 델 델 테크놀로지스 회장은 "이제 기업들은 AI 도입 여부가 아니라 데이터를 어떻게 AI에 적합하게 만들고 이를 운영 환경에서 어떻게 확장하며 ROI를 어떻게 입증할지를 고민하고 있다"며 "엔비디아 기반 델 AI 팩토리는 이러한 과제에 대한 검증된 해답을 제공한다"고 강조했다. 슈퍼마이크로는 인프라 구조 측면에서 베라 루빈 활용을 전면에 내세웠다. 회사는 데이터센터 빌딩 블록 솔루션(DCBBS)에 베라 루빈 NVL72와 HGX 루빈 NVL8, 베라 CPU를 통합한 차세대 플랫폼을 공개했다. 이 플랫폼은 단일 랙 기준 최대 3.6엑사플롭스의 추론 성능과 75테라바이트 메모리, 초당 1.6페타바이트에 달하는 대역폭을 제공하는 것이 특징이다. 기존 대비 와트당 성능을 최대 10배까지 끌어올리고 토큰 처리 비용은 10분의 1 수준으로 낮추는 것이 목표다. 슈퍼마이크로는 수냉식 기반 랙 스케일 설계를 통해 전력·냉각·네트워크를 통합한 'AI 팩토리형 데이터센터'를 구현하는 데 집중하고 있다. 이는 대규모 추론과 장문 컨텍스트 처리, 에이전틱 AI 워크로드 증가에 대응하기 위한 전략이다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이제 모든 조직이 AI 팩토리를 필요로 하는 시대에 들어섰다"며 "추론 중심 워크로드가 데이터센터 설계 기준 자체를 바꾸고 있다"고 말했다. HPE는 운영 가능한 AI에 방점을 찍었다. 베라 루빈 기반 시스템을 포함한 'HPE 기반 엔비디아 AI 컴퓨팅' 포트폴리오를 확대하며 보안과 확장성을 동시에 확보한 프로덕션 환경 구축에 나서고 있다. 특히 'HPE 프라이빗 클라우드 AI'를 중심으로 최대 128개 그래픽처리장치(GPU)까지 확장 가능한 환경과 에어갭 구조를 제공해 금융·공공 등 규제 산업에서도 활용 가능한 AI 인프라를 구현했다. 또 엔비디아 인증 스토리지를 기반으로 데이터 파이프라인 병목 문제 해결에도 나섰다. 안토니오 네리 HPE CEO는 "AI 경쟁의 핵심은 속도와 규모, 신뢰"라며 "엔비디아와 함께 턴키 방식 AI 인프라를 제공해 기업이 AI를 실제 비즈니스 가치로 전환할 수 있도록 지원하고 있다"고 밝혔다. 이번 GTC 2026의 핵심은 베라 루빈을 중심으로 한 AI 인프라 재편이다. 기존 GPU 중심 경쟁을 넘어 CPU·네트워크·스토리지·소프트웨어까지 통합된 AI 팩토리 구조가 새로운 표준으로 자리 잡고 있다는 평가가 나온다. 델은 엔드투엔드 플랫폼으로, 슈퍼마이크로는 고집적 인프라 설계로, HPE는 운영·보안 중심 전략으로 각각 차별화를 꾀하고 있다. AI 경쟁이 모델 성능에서 인프라 효율과 운영 역량으로 이동하는 가운데, 베라 루빈이 블랙웰의 뒤를 이어 향후 글로벌 AI 데이터센터 차세대 표준으로 자리 잡을 전망이다. 젠슨 황 엔비디아 CEO는 "모든 기업과 국가가 AI를 구축하는 시대에 접어들었다"며 "우리는 통합 데이터 플랫폼과 확장 가능한 인프라, 구축 전문성을 결합할 것"이라고 밝혔다.

2026.03.19 17:20한정호 기자

시높시스, GTC서 엔비디아와 AI 엔지니어링 혁신성과 발표

전자설계자동화(EDA) 업체 시높시스가 엔비디아 GTC 2026에서 엔비디아와 전략적 협력을 기반으로 인공지능(AI)과 고성능 컴퓨팅을 활용한 엔지니어링 혁신과 산업 적용 사례를 공개했다고 19일 밝혔다. 시높시스는 "반도체와 자동차, 항공우주, 산업 등에서 설계 복잡성 증가, 개발비 상승, 출시기간 단축 요구 등이 커져 기존 엔지니어링 한계가 뚜렷해졌다"며 "엔비디아의 AI, 가속 컴퓨팅 기술과 시높시스의 설계·시뮬레이션 솔루션을 결합해 대응 중이고, 고객이 효율적으로 제품을 개발하도록 지원하고 있다"고 설명했다. 시높시스는 행사에서 반도체 설계와 멀티피직스 시뮬레이션을 통합한 엔지니어링 환경과 디지털 트윈 기반 가상 프로토타이핑 기술을 선보였다. 물리 시제품 제작 이전 단계에서 성능과 동작을 사전 검증해 개발 위험을 줄이고 개발 속도는 높일 수 있다고 강조했다. 사신 가지 시높시스 최고경영자(CEO)는 "전통 엔지니어링 방식으로 오늘날 소프트웨어 중심 지능형 시스템 복잡성을 따라갈 수 없다"며 "시높시스는 파트너와 함께 설계부터 검증까지 전 과정을 아우르는 엔지니어링 환경을 제공하고, 반도체 설계와 멀티피직스 공동 설계, 연산 집약 워크로드 가속, 디지털 트윈 기반 가상 프로토타이핑으로 고객이 미래를 설계하도록 지원한다"고 밝혔다. 젠슨 황 엔비디아 CEO는 "AI와 고성능 컴퓨팅은 제품 설계부터 운영까지 전 과정을 근본적으로 바꾸고 있다"며 "현대 엔지니어링은 시뮬레이션과 디지털 트윈 환경에서 이뤄지고, 시높시스와 엔비디아 쿠다(CUDA)-X, 옴니버스, AI를 시높시스의 '실리콘부터 시스템까지' 플랫폼과 결합해 AI 시대에 맞는 엔지니어링 패러다임을 구현하고, 복잡한 설계 환경을 효과적으로 다루도록 지원한다"고 설명했다. 시높시스는 고객 사례로 AI 기반 엔지니어링 효과도 제시했다. 어플라이드 머티어리얼즈(AMAT)는 시높시스 퀀텀ATK와 엔비디아 cuEST를 활용해 양자화학 시뮬레이션 속도를 최대 30배 높였다. 혼다는 앤시스 플루언트 유체 시뮬레이션 소프트웨어에서 그래픽처리장치(GPU) 가속을 적용해 기존 중앙처리장치(CPU) 환경에선 구현이 어려웠던 고충실도 CFD를 구현하고, 4개의 GB200 GPU를 활용해 1920개의 클라우드 기반 CPU 코어 대비 34배 빠른 연산 성능과 38배 비용 절감을 달성했다. 아스테라 랩스는 AWS 환경에서 엔비디아 B200 GPU 기반 시높시스 프라임심을 활용해 설계검증 속도를 3.5배 개선하고 제품 출시 기간을 단축했다. 시높시스는 엔비디아와 협력해 실리콘부터 시스템까지 적용 가능한 에이전트 AI 기반 엔지니어링 환경을 구축하고 있다. 시높시스 에이전트엔지니어 기술을 기반으로 멀티 에이전트 워크플로를 구현하고, 엔비디아 에이전트 툴킷과 엔비디아 NIM 추론 서비스와 네모트론 모델을 연동해 복잡한 칩 설계 작업을 자동화할 수 있다. GTC에서는 업계 최초 L4 수준 에이전트 EDA 워크플로를 시연하며 설계 자동화 방향을 제시했다. 멀티피직스로 디지털 트윈을 구현한 사례도 소개했다. 아나로그디바이스(ADI)는 엔비디아 옴니버스 및 아이작 심 환경에서 시높시스의 멀티피직스 시뮬레이션 소프트웨어를 사용해 차세대 멀티모달 촉각 센서 프로토타입, 차세대 로봇 민첩성 벤치마크 디지털 트윈을 제작하고 있다. 시높시스의 앤시스 메카니컬 소프트웨어와 AV엑셀러레이트 센서 소프트웨어는 케이블과 플러그, 센서 깊이 인식 등 테스트 벤치 핵심 부분인 고충실도 시뮬레이션을 구현했다.

2026.03.19 17:14이기종 기자

AI 추론칩 꺼낸 엔비디아...韓 NPU, 위기인가 기회인가

인공지능(AI) 가속기 시장의 절대 강자인 엔비디아(NVIDA)가 연례 개발자 컨퍼런스 행사인 'GTC 2026'에서 추론 전용 가속기 LPU '그록3(Groq 3)'를 전격 공개하며 AI 반도체 시장의 판도 변화를 예고했다. 학습용 칩 시장의 절대 강자가 추론 시장 진입을 본격 선언한 것이다. 이에 그동안 경쟁이 덜한 추론 시장을 공략해온 리벨리온, 퓨리오사AI 등 국내 NPU(신경망처리장치) 기업들은 글로벌 리더와의 정면 승부라는 중대한 분수령을 맞이하게 됐다. 19일 반도체 업계에 따르면 엔비디아의 이번 행보는 국내 AI 반도체 기업들에 도전과 기회가 공존하는 중대한 시험대가 될 전망이다. 엔비디아가 추론 전용 가속기 라인업을 강화한 것은 추론 시장에서 가능성을 봤다는 의미와 함께, 국내 업체들이 공략해온 영역이 잠식될 수 있기 때문이다. 엔비디아의 '추론 칩' 양산 선언… 국내 업계엔 직접적 위협 가장 큰 위기는 시장 리더인 엔비디아가 본격적으로 추론용 칩 시장에 진입했다는 사실 자체다. 그간 국내 NPU 기업들은 엔비디아가 거대 AI 모델의 '학습' 시장에 주력하는 동안, 상대적으로 소홀했던 '추론' 영역을 틈새시장으로 보고 차별화를 꾀해왔으나 이제는 그마저 위협받게 됐다. 특히 엔비디아가 학습용 GPU의 약점으로 지목되던 전력 효율과 지연 시간까지 개선한 추론 전용 칩을 내놓으면서, 국내 업체들이 공들여온 '고효율 추론'이라는 방어벽이 흔들릴 수 있다는 우려가 나온다. 특히 국내 기업들이 공을 들여온 중동 시장의 판도 변화가 우려된다. 지난해 11월 미국 정부가 엔비디아 칩의 중동 수출을 허가하면서 리벨리온과 퓨리오사AI 등 국내 기업들이 선점하려던 신시장에 거대 공룡이 직접 진입하게 됐다. 신동주 모빌린트 대표는 “엔비디아가 추론 쪽에 본격적으로 뛰어들면서 올해부터 데이터센터 시장은 상당한 '레드오션'이 될 것”이라며 “결국 글로벌 빅테크들과 기술 및 영업 모든 면에서 직접 경쟁해야 하는 가혹한 상황”이라고 진단했다. “시장의 실재성 증명했다”... 역발상의 기회 반면 업계 일각에서는 엔비디아의 행보가 오히려 국내 NPU 기업들에 기회가 될 수 있다는 분석도 나온다. 시장 리더가 막대한 자금을 투입해 추론 전용 가속기를 내놓은 것은, 추론 시장의 폭발적인 성장 가능성을 전 세계에 공식적으로 확인해준 신호기 때문이다. AI 반도체 업계 관계자는 “엔비디아가 그록을 3배가 넘는 웃돈을 주고 인수한 것은 그만큼 추론 시장의 기회가 크다는 것을 방증한다”며 “이는 국내 업체들이 오랜 기간 준비해온 독자 아키텍처의 방향성이 틀리지 않았음을 증명하는 지표”라고 평가했다. 그러면서 “그록은 기존에도 경쟁 관계에 있던 반도체 업체인 만큼, 이번 발표가 새로운 위협이라기보다 기존 경쟁 구도의 연장선에 가깝다”고 분석했다. 김종기 세미파이브 전무는 “그간 추론 시장이 올 것이라는 말에 시장은 반신반의해왔으나, 엔비디아조차 트레이닝은 GPU로 하되 추론은 에이직이 필요하다고 선언하며 시장의 실재성이 완전히 입증됐다”며 “이러한 패러다임 전환은 기술력을 갖춘 국내 업체들에게는 오히려 플러스 요인이 될 것”이라고 내다봤다. '테스트베드' 부족이 최대 걸림돌… 포트폴리오 부재 우려 현 상황에서 국내 업계가 직면한 가장 심각한 문제점은 개별 기업의 기술력이 아닌 '테스트베드'의 부재다. 엔비디아의 그록3는 막강한 브랜드 파워와 기존 생태계를 바탕으로 실전 레퍼런스를 빠르게 확보하고 있는 반면, 국내 업체들은 제품을 대규모 환경에서 검증해볼 기회가 극히 제한적이다. 글로벌 대기업들은 특정 칩을 도입할 때 이미 시장에서 검증된 제품을 선호한다. 리스크를 짊어지지 않으려는 것이다. 국내 NPU 기업들이 아무리 뛰어난 효율성을 수치로 제시하더라도, 실제 서비스 환경에서 운영된 데이터가 부족해 글로벌 수주 경쟁에서 신뢰를 얻기 힘든 실정이다. 김 전무는 “국내 업체들도 특색 있는 기술력을 갖추고 있지만, 엔비디아나 그록에 비해 테스트베드가 부족한 것이 현실적인 불리함”이라며 “단순히 정부 권고로 쓰는 단계를 넘어 자발적인 수요가 발생할 수 있도록 검증 인프라를 대폭 확충해야 한다”고 강조했다. 다른 AI 반도체 관계자는 "(엔비디아는) 아마존, 마이크로소프트 등 하이퍼스케일러들에 대한 경험을 갖고 있는 점도 국내 업체들과 격차를 벌린다"며 "국내에서 레퍼런스를 쌓고, 해외에서 판매한다는 국내 AI반도체 업체들의 전략이 시장에서 통하려면 국가 전체가 AI 원팀이 돼야만 할 것"이라고 말했다.

2026.03.19 16:13전화평 기자

엔비디아, 오라클과 AI 데이터 '속도 혁신'…벡터 검색 기술 공개

엔비디아가 오라클과 협력해 기업 데이터 처리와 벡터 검색 성능을 대폭 끌어올리는 기술을 공개하며 인공지능(AI) 데이터 인프라 시장 공략에 속도를 낸다. 그래픽처리장치(GPU) 기반 가속 기술을 통해 방대한 비정형 데이터 처리 속도를 획기적으로 개선하고 실제 산업 현장 적용을 확대한다는 목표다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026'에서 오라클과 협력 중인 GPU 가속 벡터 인덱스 구축 기술을 19일 발표했다. 이번 협력은 오라클의 '프라이빗 AI 서비스 컨테이너'와 'AI 데이터베이스 26ai'에 엔비디아 GPU 및 오픈소스 라이브러리 'cuVS'를 결합한 것이 핵심이다. 기존 중앙처리장치(CPU) 기반으로 처리되던 벡터 검색과 인덱스 생성 작업을 GPU로 오프로드해 처리 속도를 크게 높이는 방식이다. 기업들은 멀티모달·비정형 데이터가 급증하면서 대규모 데이터셋을 빠르게 검색하고 활용하는 데 어려움을 겪어왔다. 특히 벡터 인덱스 구축 과정은 시간이 오래 걸려 AI 서비스 확장에 걸림돌로 작용해왔다. 엔비디아와 오라클은 이번 기술을 통해 인덱스 생성 시간을 대폭 단축하고 AI 활용 효율을 높일 수 있도록 지원할 방침이다. 실제 적용 사례도 공개됐다. 엔비디아에 따르면 AI 헬스케어 기업 소피아는 약 3테라바이트(TB) 규모, 5억 개 이상의 벡터로 구성된 의료 데이터셋을 활용 중이다. 기존에는 인덱스 구축에 며칠이 소요됐지만, GPU 가속 기반 환경을 통해 해당 작업을 획기적으로 단축했다. 또 다른 헬스테크 기업 바이오피는 엔비디아 GPU가 탑재된 오라클 클라우드 인프라스트럭처(OCI)를 활용해 감염 질환 분석과 치료법 추천을 수행하고 있다. AI 기반 벡터 검색과 데이터베이스를 결합해 지연 시간을 줄이고 비용 효율적인 데이터 처리 환경을 구축했다. 엔비디아는 GPU 기반 벡터 검색 기술이 의료·바이오 분야뿐 아니라 다양한 산업에서 AI 분석 정확도와 처리 속도를 동시에 높이는 핵심 인프라라고 강조했다. 특히 실시간 데이터 처리와 대규모 AI 학습·추론 환경에서 중요성이 더욱 커지고 있다는 설명이다. 엔비디아는 "GPU 가속 벡터 인덱스 기술을 통해 기업들이 방대한 비정형 데이터를 보다 빠르고 효율적으로 활용할 수 있도록 지원하고 있다"며 "오라클과의 협력을 바탕으로 실제 산업 현장에서 AI 데이터 처리 성능과 확장성을 지속적으로 강화해 나갈 것"이라고 밝혔다.

2026.03.19 14:10한정호 기자

엔비디아-MS, 에이전틱·피지컬 AI 통합 플랫폼 고도화

엔비디아가 마이크로소프트 손잡고 에이전틱 인공지능(AI)과 피지컬 AI를 통합한 플랫폼을 고도화했다. 엔비디아는 미국 새너제이에서 열린 '엔비디아 GTC 2026'에서 마이크로소프트와 통합 AI 플랫폼 업데이트를 19일 발표했다. 두 기업은 애저 데이터센터와 마이크로소프트 파운드리를 중심으로 엔비디아 가속 컴퓨팅과 오픈 모델을 결합했다. 이번 업데이트는 에이전틱 AI와 피지컬 AI를 동시에 지원하는 것이 핵심이다. 기업은 데이터 주권 요구사항을 충족하면서 맞춤형 AI 에이전트를 보다 쉽게 구축하고 운영할 수 있다. 인프라 측면에서는 애저 데이터센터에 엔비디아 최신 가속 컴퓨팅 플랫폼이 통합됐다. 마이크로소프트는 1년이 채 되지 않아 전 세계 데이터센터에 수십만 개 그레이스 블랙웰 그래픽처리장치(GPU)를 탑재했다. 애저는 엔비디아 베라 루빈 NVL72 시스템을 최초로 도입했다. 해당 시스템은 향후 수개월 내 글로벌 데이터센터로 확대될 예정이다. 개발 환경에서는 마이크로소프트 파운드리를 통해 엔비디아 네모트론 오픈 모델 기반 에이전트 구축이 가능해졌다. 개발자는 특화된 AI 에이전트를 직접 설계하고 배포까지 수행할 수 있다. 에이전트 플랫폼 기능도 강화됐다. 대규모 에이전트 구축과 운영을 지원하는 파운드리 에이전트 서비스는 관측 가능성과 음성 기능을 추가해 운영 효율을 높였다. 또 네모트론 3 모델 계열 중심으로 추론 음성 비전 모델이 확장된다. 향후 관리형 API 형태로 제공돼 기업이 보다 쉽게 AI 기능을 활용할 수 있도록 지원할 계획이다. 보안 영역에서는 마이크로소프트 시큐리티와 협력이 진행됐다. 네모트론과 네모클로를 활용해 AI 기반 공격 탐지와 대응 능력을 높이는 데 초점이 맞춰졌다. 온프레미스 환경에서도 AI 활용이 확대된다. 애저 로컬은 엔비디아 RTX 프로 6000 블랙웰 GPU 등을 지원해 데이터와 추론을 자체 통제하는 소버린 AI 환경 구축을 지원한다. 피지컬 AI 영역도 강화됐다. 엔비디아 코스모스 월드 모델과 자율주행용 알파마요 모델이 깃허브와 파운드리에서 제공돼 로보틱스와 자율주행 개발을 가속할 수 있다. 알렉산더 스토야노비치 마이크로소프트 시큐리티 부사장은 "책임 있는 에이전틱 AI 도입을 위해 신뢰와 보안이 매우 중요하다"며 "AI 기반 공격을 탐지하고 완화하는 데 있어 160배 향상이 나타나고 있다"고 밝혔다.

2026.03.19 10:55김미정 기자

ST, 엔비디아와 피지컬 AI 확산 가속화

ST마이크로일렉트로닉스(이하 ST)는 휴머노이드 로봇, 산업용 로봇, 서비스 로봇, 헬스케어 로봇 등 피지컬 AI 시스템의 글로벌 개발과 확산 가속화 방안을 19일 발표했다. ST는 첨단 로봇 공학을 위한 포괄적인 포트폴리오를 엔비디아 HSB(Holoscan Sensor Bridge)와 호환되는 레퍼런스 구성 요소 세트에 통합한다. 이와 동시에 ST 구성 요소의 고충실도(High-Fidelity) 엔비디아 아이작 심(Isaac Sim) 모델이 양사의 로봇 공학 에코시스템에 통합돼 더욱 빠르고 정확한 시뮬레이션-실제 전환(Sim-to-Real) 연구 개발을 지원한다. 현재 개발자들이 이용 가능한 첫 번째 결과물로는 ST가 지원하는 레오파드(Leopard) 심도 카메라의 엔비디아 HSB 통합 그리고 ST IMU의 고충실도 모델의 엔비디아 아이작 심 에코시스템 통합이 있다. 리노 페루지 ST 미주 및 글로벌 주요 고객 담당 영업·마케팅 수석 부사장은 "ST는 로봇 공학 커뮤니티에 적극 참여하면서 탄탄한 지원과 잘 구축된 에코시스템을 제공한다"며 "엔비디아와의 협력으로 AI 알고리즘 개발부터 센서 및 액추에이터의 원활한 통합에 이르기까지 모든 단계에서 개발자와 고객의 경험을 간소화해 최첨단 로봇 혁신의 차세대 물결을 일으키고자 한다"고 밝혔다. 엔비디아 HSB를 사용하면 개발자는 여러 ST 센서와 액추에이터의 데이터 수집과 로깅을 통합, 표준화, 동기화, 간소화할 수 있으며, 이는 고충실도 엔비디아 아이작 모델을 구축하고, 학습 속도를 높이며, 시뮬레이션과 실제 전환 간의 격차를 최소화하는 핵심 토대가 된다. 특히 휴머노이드 로봇 설계를 위해 STM32 MCU, 첨단 센서(IMU, 이미저, ToF 포함), 모터 제어 솔루션이 결합된 사전 통합 솔루션을 통해ST 센서와 액추에이터를 NVIDIA Jetson 플랫폼에 연결하는 프로세스를 간소화하는 것이 목표이다. 레오파드 이미징(Leopard Imaging)의 로봇용 스테레오 심도 카메라가 대표 사례다. ST 이미징, 심도, 모션 감지 기술을 활용해 피지컬 AI OEM, 학술 연구 그룹, 산업 로봇 커뮤니티 전반에 걸쳐 광범위한 설계를 지원할 것으로 기대된다. 또한 첨단 로봇 개발자들은 모델링 문제 외에도 높은 개발 비용이라는 문제에 직면한다. 광범위한 무작위화 (randomization)가 포함된 고충실도 시뮬레이션에는 상당한 GPU 및 CPU 리소스와 대규모 데이터 세트가 필요하다. 어떤 파라미터를 무작위화할지, 어느 범위에서 무작위화할지를 선택하는 데 해당 분야에 대한 깊이 있는 전문 지식도 필요하다. ST와 엔비디아의 목표는 첨단 로봇 공학의 요구 사항에 맞춰 ST의 포괄적인 부품 포트폴리오에 대해 정확하고 하드웨어에 맞춰 보정된 모델을 제공하는 것이다. ST는 최초의 IMU 모델 출시 이후, 실제 ST 하드웨어에서 수집한 벤치마크 데이터를 기반으로 ST 툴을 사용하여 정확한 파라미터와 현실적인 동작을 포착하고 엔비디아의 아이작 심 에코시스템에 최적화된 ToF 센서, 액추에이터 및 기타 IC 모델을 개발자들에게 제공하기 위해 노력하고 있다. 엔비디아 HSB는 협업을 통해 ST의 툴체인에 통합되고 있다. 결과적으로, ST와 엔비디아는 더욱 정확한 모델이 로봇 학습을 크게 향상시킬 것으로 전망한다. 실제 기기의 동작을 정밀하게 반영하는 모델을 통해 로봇은 실제 조건을 더 잘 반영하는 시뮬레이션에서 학습할 수 있다. 따라서 훈련 주기가 단축되고 휴머노이드 로봇 애플리케이션 구축 및 개선 비용이 절감된다.

2026.03.19 10:22장경윤 기자

델, 엔비디아와 AI 데이터 병목 해소한다…스토리지 전면 강화

델 테크놀로지스가 엔비디아와 협력해 인공지능(AI) 데이터 처리 성능을 강화한 스토리지 중심 플랫폼을 고도화한다. 초고성능 스토리지 기반 인프라를 통해 데이터 분절 구조를 해소하고 엔터프라이즈 AI를 파일럿 단계에서 실제 운영 환경으로 확장한다는 목표다. 델 테크놀로지스는 '엔비디아 기반 델 AI 데이터 플랫폼' 제품군을 대거 업데이트했다고 19일 밝혔다. 이번 업데이트는 AI 데이터 라이프사이클 전반을 자동화하고 에이전틱 AI 워크로드를 지원하는 초고성능 스토리지 성능을 제공하는 데 중점을 뒀다. 기업이 AI를 실제 운영 환경에 적용하는 과정에서 발생하는 데이터 병목과 성능 저하 문제를 해결하기 위한 전략이다. 최근 AI는 단순 보조 도구를 넘어 자율적으로 작동하는 시스템으로 진화하고 있지만, 여전히 많은 기업이 데이터 사일로와 비정형 데이터 관리 문제로 AI 성과 창출에 어려움을 겪고 있다. 델은 이러한 문제를 해결하기 위해 데이터 탐색·정제·활용 전 과정을 통합한 데이터 플랫폼을 강화했다. 특히 이번 업데이트는 엔비디아 GTC 행사에서 공개된 '엔비디아 기반 델 AI 팩토리' 전략의 연장선상에서 이뤄졌다. 델은 데이터 플랫폼, 인프라, 서비스 전반을 통합해 AI 도입에서 실제 비즈니스 성과 창출까지 이어지는 엔드투엔드 환경을 제공한다는 방침이다. 핵심은 데이터 처리 성능과 자동화다. 델은 데이터 오케스트레이션 엔진을 통해 정형·비정형·멀티모달 데이터를 자동으로 탐색·정제·변환해 AI 학습에 활용 가능한 데이터셋으로 구축한다. 노코드·로우코드 기반으로 데이터 파이프라인을 자동화하고 '휴먼 인 더 루프(HITL)' 방식으로 데이터 품질을 지속 개선할 수 있도록 설계했다. 또 데이터 애널리틱스 엔진에 자연어 기반 AI 어시스턴트를 추가해 일반 사용자도 SQL 지식 없이 데이터를 조회·분석할 수 있도록 지원한다. 데이터 접근성을 높이고 기업 전반의 의사결정 속도를 향상시킨다는 구상이다. 스토리지 영역에서는 그래픽처리장치(GPU) 활용도를 극대화하기 위한 구조 개선을 추진했다. 전통적인 스토리지 구조는 대규모 환경에서 속도 저하로 GPU가 유휴 상태에 머무르는 문제가 있었지만, 델은 전용 아키텍처 기반 스토리지 엔진으로 이를 해결했다는 설명이다. 대표적으로 '델 라이트닝 파일 시스템'은 랙당 최대 150기가바이트(GB)/초 성능을 제공하는 병렬 파일 시스템으로, 대규모 AI 학습과 추론 환경에서도 안정적인 데이터 처리 속도를 유지한다. 델은 기존 스토리지 대비 최대 20배 높은 성능을 제공해 GPU 병목 현상을 줄일 수 있다고 밝혔다. 또 '델 엑사스케일 스토리지'는 파일·오브젝트·병렬 파일 시스템을 통합한 '쓰리 인 원(3-in-1)' 구조로 초대규모 AI 및 고성능컴퓨팅(HPC) 환경을 지원한다. 최대 6테라바이트(TB)/초 수준의 읽기 성능을 통해 멀티모달 AI 워크로드 처리에 필요한 높은 처리량을 확보했다. 이와 함께 KV 캐시를 스토리지로 오프로드하는 기술을 적용해 GPU 메모리 사용 부담을 줄이고 장시간 컨텍스트를 유지해야 하는 에이전트형 AI 워크로드 성능도 개선했다. 델은 이번 업데이트를 통해 데이터 준비부터 모델 학습, 추론, 운영까지 AI 전 과정을 통합 관리할 수 있는 환경을 제공하며 엔터프라이즈 AI 도입 장벽을 낮춘다는 계획이다. 특히 데이터 처리 속도와 스토리지 성능 개선을 통해 AI 투자 대비 성과(ROI)를 높이는 데 집중하고 있다. 주요 AI 데이터 플랫폼 및 스토리지 제품의 출시 일정도 공개했다. 데이터 오케스트레이션 엔진과 마켓플레이스는 올해 1분기 중 출시되며 데이터 애널리틱스 엔진 내 AI 어시스턴트도 상반기 중 제공될 예정이다. GPU 가속 기반 데이터 처리 및 인덱싱 기능은 하반기 중 적용되며 초고속 병렬 파일 시스템 델 라이트닝 파일 시스템은 다음 달 출시를 앞두고 있다. 엑사스케일 스토리지는 하반기 초 출시될 예정이다. 김경진 한국 델 테크놀로지스 총괄사장은 "AI 파일럿을 실제 운영 환경으로 확장할 때 직면하는 가장 큰 문제는 각 기업의 고유한 정보가 데이터 사일로에 갇혀 있다는 점"이라며 "엔비디아 기반 델 AI 팩토리는 전체 데이터 라이프사이클을 자동화하고 AI가 요구하는 거대 규모에 걸맞는 성능을 제공한다"고 강조했다. 이어 "엔비디아와의 협력으로 고객은 AI 환경을 더 빠르게 구축하고 자유롭게 확장하며 실질적인 성과를 얻을 수 있게 됐다"며 "엔비디아와 함께 엔터프라이즈 AI 인프라가 갖춰야 할 기준을 새롭게 정의하고 있다"고 덧붙였다.

2026.03.19 10:11한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

외신이 바라본 'BTS: 아리랑'..."세기의 컴백, 흔치 않은 영예"

트럼프 정부, 퀄컴에 "28년 LA올림픽까지 6G폰 준비해달라"

SEC "가상자산 증권 아냐"…전문가가 본 국내 미칠 영향

로저스 쿠팡 대표, 새벽배송 10시간 뛰더니...근무여건 강화 약속

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.