• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (684건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

[AI는 지금] "규제보다 실행"… 트럼프, 'AI 연합군' 앞세워 반도체·전력망 병목 뚫는다

도널드 트럼프 미국 대통령이 주요 빅테크 수장들을 대통령 과학기술자문위원회(PCAST)에 대거 포함시키며 인공지능(AI) 정책 추진 방식이 한층 구체화되고 있다. 단순 자문기구 구성을 넘어 정부와 산업을 하나의 전략 체계로 묶으려는 분위기다. 28일 로이터 등 주요 외신에 따르면 백악관은 지난 25일 젠슨 황 엔비디아 최고경영자(CEO), 마크 저커버그 메타 CEO, 래리 엘리슨 오라클 회장, 세르게이 브린 구글 공동창업자, 리사 수 AMD CEO 등을 포함한 PCAST 위원 명단을 발표했다. 벤처캐피털 앤드리슨 호로위츠(a16z)의 마크 앤드리슨, 델 테크놀로지스의 마이클 델 등도 이름을 올렸다. 빅테크 CEO 전면 배치…정책-산업 결합 강화 이번 인선은 기업 최고경영자 중심으로 구성됐다는 점에서 이전과 차별화된다. 과거 PCAST가 학계와 연구자 중심의 자문 성격이 강했다면, 이번에는 AI 산업의 핵심 기업들이 정책 설계 구조 안에 직접 참여했다는 것이 주목된다. 구성 면에서도 변화가 뚜렷하다. 엔비디아와 AMD는 AI 연산의 기반인 반도체를, 오라클은 데이터·클라우드 인프라를 맡고 있다. 구글과 메타는 AI 모델과 서비스 생태계를 주도하는 기업들이다. 이에 AI 산업 전반을 아우르는 핵심 기업들이 한자리에 모였다는 평가가 나온다. 이 같은 구성은 정책과 산업의 결합을 강화하려는 의도로 풀이된다. 정부가 방향을 제시하고 기업이 이를 수행하는 기존 방식에서 벗어나, 정책 설계 단계부터 산업계가 함께 참여하는 구조로 전환되고 있다는 분석이다. AI 산업 전반을 정책 체계 안으로 끌어들이려는 시도라는 점에서도 의미가 크다. 앤트로픽 빠지고 오픈AI도 '제외'…선별 기준 '주목' 이번 명단에서 일부 주요 AI 기업이 제외된 점도 주목된다. 특히 앤트로픽과 오픈AI 모두 위원 명단에 포함되지 않았다. 앤트로픽은 AI의 군사·감시 활용에 제한을 두는 정책을 유지해 왔고, 국방부 계약 과정에서도 조건 충돌로 협력이 무산된 바 있다. 이 같은 입장 차이가 정책 자문 참여에도 영향을 미쳤을 가능성이 제기된다. 업계에선 정부의 안보 중심 AI 활용 기조와 기업의 안전 중심 접근 간 간극이 반영된 결과라는 해석도 내놨다. 오픈AI는 국방부와 협력 관계를 이어가고 있음에도 위원회에는 포함되지 않았다. 이미 마이크로소프트와의 협력을 통해 정부 인프라와 연결돼 있는 구조라는 점이 영향을 미쳤을 수 있을 것이란 분석이 나온다. 동시에 이번 위원회가 반도체·클라우드 등 인프라 기업 중심으로 구성됐다는 점도 배경으로 거론된다.테슬라 창업자인 일론 머스크가 제외된 점도 주목된다. 머스크는 AI와 우주 산업에서 영향력이 큰 인물이지만 이번 1차 명단에는 포함되지 않았다. 다만 위원회가 향후 확대될 예정인 만큼 추가 합류 가능성도 배제할 수 없다는 관측도 있다. 업계 관계자는 "이번 인선은 단순한 기술력이나 기업 규모보다 정책 방향과의 정렬 여부를 반영한 결과"라며 "정부 전략에 맞춰 빠르게 실행할 수 있는 기업들이 중심에 배치된 것으로 보인다"고 말했다. 팔란티어 '부재'…자문 밖 실행 라인 역할일 듯 팔란티어가 명단에서 빠진 점도 눈에 띈다. 이 회사는 국방부, 국토안보부, 국세청(IRS) 등 주요 정부 기관과 협력하며 데이터 분석 플랫폼을 제공해 왔고, 연방 계약 규모 역시 빠르게 확대하고 있다. 업계에선 이를 단순 배제라기보다 역할 차이에 따른 결과로 보고 있다. 팔란티어는 자문기구보다 실행 영역에 가까운 기업으로, 정부 데이터 통합과 분석 시스템 운영을 담당하는 구조상 정책 자문보다 실제 현장 적용에서 영향력이 더 큰 것으로 평가되고 있다. 일각에선 기업 특성도 고려됐을 것으로 봤다. 정보기관 협업 이미지가 강한 만큼 공개 자문기구에 포함될 경우 AI 정책이 감시·정보전 중심으로 비칠 수 있다는 점에서 별도의 채널을 통한 협력이 더 적합하다고 판단돼서다. AI 정책 구조 재편…민관 동맹 본격화 이번 PCAST 구성은 AI를 산업 차원을 넘어 국가 전략 자산으로 다루겠다는 의지를 구체화한 것으로도 평가된다. 미국 정부는 반도체, 클라우드, 데이터, 모델 등 주요 영역을 정책 체계 안으로 끌어들이며 민관 협력 구조를 강화하려는 분위기다. 정책 설계는 위원회가 맡고, 실행은 기업과 정부 기관이 담당하는 구조가 형성될 경우 미국의 AI 산업은 보다 통합된 방향으로 재편될 가능성이 크다. 기술 경쟁이 심화되는 가운데 이번 미국 정부와 빅테크 간 협력이 어떤 형태로 확장될지도 주목된다.특히 이번 위원회가 향후 구체적인 정책 결정에도 영향을 미칠 것이라는 관측이 나온다. 반도체와 AI 기술을 둘러싼 대중국 수출 규제, 데이터센터 확장에 필요한 전력망 인프라 확보 등 핵심 현안에서 산업계 의견이 직접 반영될 가능성이 크다는 분석이다. 업계에선 AI 경쟁이 심화되는 상황에서 전력·에너지 문제와 반도체 공급망이 병목으로 떠오르고 있는 만큼, 정부와 기업 간 정책 조율이 더욱 긴밀해질 것으로 보고 있다. 이에 따라 규제 완화와 인프라 투자 방향에서도 변화가 나타날 수 있을 것으로 전망했다. 업계 관계자는 "AI가 산업을 넘어 국가 안보 자산으로 재편되는 과정"이라며 "이번 인선은 기술 자문을 받겠다는 의미를 넘어 정책과 기업이 한 몸처럼 움직이는 구조를 본격화하겠다는 신호에 가깝다"고 밝혔다.

2026.03.28 08:00장유미 기자

국립기상과학원, 엔비디아와 기상·기후 분야 AI 기술협력 확대

기상청 국립기상과학원은 한국형 인공지능(AI) 기상·기후 파운데이션 모델의 본격적인 개발을 앞두고, AI를 활용한 기상예측 국제협력 강화를 위해 엔비디아와 기술 교류를 확대한다. 국립기상과학원은 그간 엔비디아와 어스-2(Earth-2) 기반 시각화, AI 예측 등 다양한 분야에서 기술 교류를 이어왔다. 초단기·중기 예측모델 개발 경험을 공유하는 등 협력을 지속해 왔다. 엔비디아는 지난 1월 관측자료 처리부터 분석장 생산, 초단기·중기 예측, 고해상도 격자 자료 생산체계까지 포괄하는 AI 기반 기상·기후 예측 운영 플랫폼 어스-2를 공개한 바 있다. 국립기상과학원이 개발한 6시간 후의 강수 예측을 위한 AI 초단기 강수예측시스템은 지난해 5월부터 현업으로 운영되고 있다. 여기에서 더 나아가 초단기부터 계절 전망까지 활용가능한 AI 파운데이션 모델 개발을 진행하고 있으며, 엔비디아의 어스-2 활용도 확대할 계획이다. 국립기상과학원은 26일 엔비디아 전문가를 초청해 기술 교류와 협력 확대를 위한 논의의 장을 열었다. 온라인으로 진행된 회의에서는 어스-2 개발자인 스탠 포지와 제프 아디가 아틀라스(ATLAS)의 기술적 특징을 소개했다. 두 기관은 이번 협력을 계기로 AI를 활용한 기상·기후 예측 기술 고도화라는 방향성을 공유하고 접점을 구체화할 계획이다. 국립기상과학원은 이번 기술 교류를 계기로 AI 기반 기상·기후 예측 기술 발전에 대응하고, 기존 수치예보모델과의 상호보완적 발전을 위한 협력이 긴밀해질 것으로 기대하고 있다. 강현석 국립기상과학원장은 “기상예보 분야에서 AI로의 기술 전환이 가속하는 가운데, 이번 협력은 두 기관이 보유한 기술을 공유하고 공동 발전을 도모하는 중요한 계기가 될 것”이라며 “앞으로도 엔비디아와의 긴밀한 협력을 통해, AI 기반 기상·기후 예측 기술을 고도화하고 국제협력 관계망 내에서 주도적인 역할을 해 나가겠다”고 밝혔다.

2026.03.27 15:14주문정 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

넷앱, 엔비디아와 AI 데이터 플랫폼 강화…통합 솔루션 'AIDE' 공개

넷앱이 엔비디아와 협력해 엔터프라이즈 인공지능(AI) 데이터 플랫폼 역량을 강화한다. 데이터 전반을 탐색·이해·거버넌스할 수 있는 통합 데이터 플랫폼을 앞세워 기업의 AI 도입 과정에서 발생하는 데이터 문제를 해소한다는 전략이다. 넷앱은 엔비디아와 함께 설계한 AI 데이터 플랫폼을 기반으로 통합 솔루션 '넷앱 AI 데이터 엔진(AIDE)'을 공개했다고 24일 밝혔다. 회사 측에 따르면 기업이 AI를 도입하는 과정에서 가장 큰 과제는 방대한 글로벌 데이터 자산 전반에서 데이터를 탐색하고 이해하며 거버넌스를 수행하는 것이다. 데이터가 AI의 핵심 자원인 만큼 적합한 데이터를 효율적으로 찾고 활용하는 것이 AI 혁신의 핵심 요소로 꼽힌다. 이에 맞춰 넷앱 AIDE는 자동 생성·지속 업데이트되는 글로벌 메타데이터 카탈로그와 검색 기능을 제공한다. 표준 파일 시스템 메타데이터를 넘어 파일 콘텐츠까지 분석해 데이터를 이동하지 않고도 시맨틱 메타데이터를 확장할 수 있도록 설계됐다. 보안 문제와 비용 부담을 최소화하면서 AI 데이터 파이프라인 전 과정에 최신 데이터를 효율적으로 공급한다는 목표다. 넷앱 AIDE는 이달 중 주요 고객과 파트너를 대상으로 우선 출시되며 오는 8월 정식 상용화될 예정이다. 넷앱은 오픈 기술 생태계를 기반으로 온프레미스와 클라우드 전반에서 다양한 독립 소프트웨어 공급(ISV) 파트너와의 통합을 확대해 나갈 계획이다. 대표적으로 마이크로소프트(MS) 애저 기반 AI 애플리케이션, 구글 클라우드의 버텍스 AI, 랭체인 등 주요 AI 개발 플랫폼 및 프레임워크와의 연계를 통해 고객이 비정형 데이터를 안전하게 활용하고 AI 애플리케이션을 신속하게 구축할 수 있도록 지원할 방침이다. 향후 넷앱은 다양한 배포 옵션을 지원해 인프라 유연성도 확대할 계획이다. AIDE는 다양한 서버 환경에서 실행 가능한 통합형 소프트웨어 솔루션으로, 고객 요구사항에 맞춰 유연하게 적용할 수 있다. 최근 엔비디아 GTC에서 공개된 '엔비디아 RTX 프로 4500·6000 블랙웰 서버 에디션 GPU'를 활용한 환경에서도 AIDE 사용을 지원한다. 아울러 AIDE는 AFF A-시리즈, AFF C-시리즈, FAS 등 넷앱의 기존·신규 스토리지 환경 전반에 걸쳐 배포를 제공한다. 올 여름에는 기능도 한층 강화된다. 하이브리드 클라우드 지원 확대를 통해 온프레미스와 클라우드 전반에서 데이터를 일관되게 활용할 수 있도록 하고 멀티모달 데이터 지원을 통해 시각 데이터를 포함한 다양한 비정형 데이터 활용이 가능해진다. 이와 함께 에이전틱 AI 기능도 도입해 글로벌 데이터 환경 전반에서 안전하고 관리 가능한 에이전틱 워크플로우를 구현할 수 있도록 도울 예정이다. 넷앱은 AI 지원을 강화하기 위해 엔비디아의 모듈형 랙 스케일 스토리지 레퍼런스 아키텍처 '엔비디아 STX'도 지원한다. 해당 아키텍처는 엔비디아 '베라루빈'과 '블루필드-4 DPU'를 기반으로 구성되며 KV 캐시 스토리지를 위한 특화된 메모리 계층을 통해 전력 효율성·처리량·보안성을 향상시킨다. 대규모 AI 연산 환경과 비정형 데이터 스토리지 간 격차를 해소하고 지능형 데이터 처리를 중앙에서 통합적으로 수행하는 것이 핵심이다. 시암 나이르 넷앱 최고제품책임자(CPO)는 "AI를 활용하려는 기업이 데이터에 대한 통제권을 되찾기 위해선 분산형이고 지능적으로 설계된 엔터프라이즈급 데이터 플랫폼이 필요하다"며 "우리는 AIDE를 통해 고성능 통합 스토리지 기반의 AI 환경 구축을 지원한다"고 강조했다. 제레미 포스터 시스코 컴퓨트 부문 수석 부사장 겸 총괄은 "넷앱과 우리는 파트너십을 통해 AI 도입을 가속화하는 엔터프라이즈급 인프라를 제공 중"이라며 "플렉스포드 AI와 AIDE를 결합하면 데이터가 있는 위치로 직접 이동해 데이터 파이프라인 속도를 높이고 더 빠르게 비즈니스 가치를 창출할 수 있다"고 말했다. 제이슨 하디 엔비디아 스토리지 테크놀로지 부문 부사장은 "AI 팩토리에 대한 수요가 증가하면서 기업은 방대한 데이터 자산을 효과적으로 관리하고 활용할 새로운 접근 방식을 필요로 한다"며 "넷앱은 우리 AI 데이터 플랫폼과 통합해 대규모 AI 환경에서 데이터를 효율적으로 관리할 수 있는 프레임워크를 제공할 것"이라고 밝혔다.

2026.03.24 16:10한정호 기자

젠슨 황 "인간 수준 AGI, 이미 달성했다"

젠슨 황 엔비디아 최고경영자(CEO)가 인간 수준의 범용인공지능(AGI)이 이미 달성됐다고 밝혀 주목되고 있다. 더버지, 포브스 등 외신은 23일(현지시간) 젠슨 황 CEO가 렉스 프리드먼 팟캐스트에 출연해 AI 혁명과 엔비디아의 미래 전략을 논의하며 이 같이 발언했다고 보도했다. 해당 인터뷰에서 프리드먼은 '진정한 AGI'를 10억 달러 이상 가치를 지닌 기술 회사를 설립하고 성장·운영할 수 있는 AI로 정의하며, 이런 기술이 향후 5~20년 내 실현 가능한지 젠슨 황에게 질문했다. 이에 대해 황 CEO는 “지금이 바로 그 시점”이라며 “우리는 이미 AGI를 달성했다고 생각한다”고 답했다. 그는 오픈소스 AI 에이전트 플랫폼 '오픈클로(OpenClaw)'를 사례로 들며, AI가 단순한 도구를 넘어 디지털 인플루언서나 사회적 애플리케이션으로 발전할 가능성이 있다고 언급했다. 다만 황 CEO는 현재 AI 에이전트의 한계도 함께 지적했다. 그는 “많은 사람들이 몇 달간 사용하다가 흥미를 잃는다”며 “AI 에이전트가 엔비디아 같은 회사를 만들어낼 확률은 0%”라고 말했다. AI 기술이 빠르게 발전하면서 AGI를 둘러싼 논쟁은 더욱 격화되고 있다. 포브스는 AGI에 대한 명확한 정의가 모호한 점이 개발 시점과 활용 가능성을 판단하기 어렵게 만드는 요인이라고 분석했다. 앞서 샘 알트먼 오픈AI CEO는 지난달 포브스와의 인터뷰에서 “우리는 사실상 AGI를 개발했거나 그에 매우 근접했다”고 밝혔지만, 이후 해당 발언이 비유적 표현이었다고 해명하며 AGI 달성을 위해서는 단일 돌파구가 아닌 여러 단계의 기술적 진전이 필요하다고 설명했다. 사티아 나델라 마이크로소프트 CEO는 “업계가 아직 AGI 수준에는 한참 못 미친다”는 입장을 밝힌 바 있다.

2026.03.24 16:09이정현 미디어연구소

엔비디아 올라탄 두산, 올해 CCL 투자 2배 이상 확대

두산이 반도체기판 핵심 소재인 동박적층판(CCL) 관련 투자 규모를 전년 대비 2.7배 이상 확대한다. 전례 없는 AI 반도체 호황으로 고성능 CCL이 각광받는 가운데, 엔비디아 등 핵심 고객사 수요에 선제 대응하기 위한 전략으로 풀이된다. 24일 두산 사업보고서에 따르면 이 회사는 CCL 설비투자에 올해 약 2444억원을 투자할 계획이다. 앞서 두산 전자BG(비즈니스그룹)는 지난해 CCL 설비투자에 총 896억원을 집행한 바 있다. 전년 투자 규모(386억원) 대비 132% 증가한 수준이다. 올해에는 예상 투자 규모를 2444억원으로 대폭 확대했다. 전년 대비 172%가량 늘었다. 내후년 예상 투자 규모도 2870억원에 달한다. 계획이 실현되는 경우, CCL 분야에 2년간 5000억원이 넘는 설비투자가 집행될 예정이다. 배경은 CCL 시장의 호황에 있다. CCL이 포함된 두산 전자BG 매출은 지난해 1조 8751억원으로 전년 대비 87% 증가했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 최근 CCL은 AI 반도체를 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 전세계 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어들면서 시장 규모가 커지고 있기 때문이다. AI 반도체가 고도화될수록 CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 두산은 엔비디아의 최신형 AI 가속기 '베라 루빈(Vera Rubin)' 공급망에 주요 CCL 벤더로 진입한 것으로 알려졌다. 아마존·구글 등 고객사 외연도 점차 확장되는 추세다. 덕분에 두산의 국내 증평·김천 CCL 생산라인은 현재 가동률이 100%를 넘어가는 '풀가동' 체제를 유지하고 있다. 두산 관계자는 "이번 CCL 설비투자 계획은 국내외 공장 증설, 설비교체, 유지보수, R&D 등 관련 투자가 반영된 것"이라며 "특히 국내외 사업장 전반에서 투자를 계획 중으로, 사업 환경을 보면서 집행할 예정"이라고 설명했다.

2026.03.24 11:10장경윤 기자

"책상 위 슈퍼컴으로 AI 돌린다"…델, GB300 탑재 워크스테이션 공개

델 테크놀로지스가 엔비디아 차세대 칩을 탑재한 인공지능(AI) 워크스테이션을 대거 공개하며 로컬 기반 AI 인프라 시장 공략에 속도를 낸다. 데이터센터급 성능을 개인 업무 환경으로 확장하고 에이전틱 AI 시대에 최적화된 실행 환경을 제공한다는 목표다. 델 테크놀로지스는 전문가용 워크스테이션 브랜드 '델 프로 프리시전'을 재정비하고 '델 프로 맥스 위드 GB300'을 포함한 신제품 9종을 공개했다고 23일 밝혔다. 프리시전은 수십 년간 전문가용 워크스테이션 시장에서 신뢰를 쌓아온 델의 대표 라인업으로, 이번 복귀를 통해 AI 워크로드에 최적화된 고성능 작업 환경을 다시 전면에 내세웠다. 델은 이번 제품군을 통해 데스크톱·모바일·타워형을 아우르는 통합 포트폴리오를 완성하고 개발부터 운영까지 이어지는 AI 작업 환경을 전방위로 지원할 계획이다. 이번 발표의 핵심은 업계 최초로 엔비디아 GB300 슈퍼칩을 탑재한 '델 프로 맥스 위드 GB300'이다. 이 제품은 최대 20페타플롭의 연산 성능과 748기가바이트(GB) 코히어런트 메모리를 기반으로 최대 1조 개 매개변수 규모 거대 AI 모델을 로컬 환경에서 실행할 수 있도록 설계됐다. 데이터센터에서만 가능했던 엔터프라이즈급 AI 연산을 개인 데스크 환경으로 확장한 책상 위 슈퍼컴퓨터라는 설명이다. 특히 엔비디아 커넥트X-8 스마트 NIC를 활용해 장비 두 대를 연결하면 성능을 두 배로 확장할 수 있어 더 큰 규모의 AI 모델도 처리할 수 있다. 여기에 델의 독자적인 '맥스쿨' 냉각 기술을 적용해 스마트 콜드 플레이트와 듀얼 열교환기를 통해 고부하 작업에서도 성능 저하 없이 안정적인 연산 환경을 유지한다. AI 에이전트 실행 환경도 강화됐다. 해당 제품은 엔비디아 '네모클로' 오픈소스 스택과 '오픈쉘' 런타임을 지원해 외부 클라우드 연결 없이 로컬 환경에서 AI 에이전트를 구축·실행할 수 있다. 기업이 보안 정책을 유지하면서도 자율형 AI를 안전하게 운영하도록 도울 방침이다. 또 '엔비디아 기반 델 AI 팩토리'와 연계해 데스크 환경에서 개발된 AI 모델을 데이터센터로 확장할 수 있는 구조를 제공한다. 로컬에서의 프로토타이핑부터 대규모 배포까지 이어지는 AI 워크플로우를 통합 지원한다는 점이 특징이다. 모바일 워크스테이션 라인업도 대폭 강화됐다. '델 프로 프리시전 7 14·16'은 엔비디아 블랙웰 그래픽처리장치(GPU)를 탑재한 플래그십 모델로, 고성능 그래픽 작업과 AI 추론을 동시에 지원하면서도 이동성을 확보했다. 최대 8테라바이트(TB) PCIe 젠5 스토리지와 4K 탠덤 OLED 디스플레이, 120Hz 주사율을 통해 고사양 작업 환경을 제공한다. 특히 16인치 모델은 최대 50와트(W)급 인텔 코어 울트라 프로세서와 RTX 프로 3000 GPU를 기반으로 복잡한 3D 렌더링과 AI 추론을 처리하며 14인치 모델은 약 1.49kg 무게로 이동성과 성능을 동시에 갖췄다. 두 제품 모두 50 TOPS급 신경망처리장치(NPU)를 통한 AI 가속 기능과 듀얼 팬·베이퍼 챔버 냉각 구조를 적용했다. 타워형 워크스테이션 '델 프로 프리시전 9' 시리즈는 대규모 AI 연산과 시각화 작업에 최적화됐다. T2·T4·T6 모델로 구성되며 최대 86코어 인텔 제온 프로세서와 최대 5개의 엔비디아 RTX 프로 블랙웰 GPU를 지원한다. 최대 4TB 메모리와 316TB 스토리지, 15개 PCIe 슬롯 등 확장성을 기반으로 AI 학습과 시뮬레이션, VFX 작업까지 대응한다. 엔트리급 모바일 워크스테이션 '델 프로 프리시전 5' 시리즈도 함께 공개됐다. 최신 인텔 코어 울트라 프로세서와 RTX 프로 GPU를 기반으로 설계돼 디자인 작업과 데이터 분석 등 다양한 비즈니스 환경에서 안정적인 성능을 제공한다. 슬림형 S 시리즈 모델을 통해 이동성도 강화했다. 델은 이번 신제품군을 통해 다양한 AI 워크로드와 사용 환경을 모두 아우르는 포트폴리오를 완성하고 특히 클라우드 의존도를 줄여 로컬 환경에서 AI를 처리하려는 수요 증가에 대응한다는 목표다. 김경진 한국 델 테크놀로지스 총괄사장은 "에이전틱 AI로의 전환이 가속화되며 클라우드 의존도를 줄이고 로컬 환경에서 AI를 안전하고 효율적으로 운용하려는 수요가 증가하고 있다"며 "전 세계 1위 워크스테이션 제조업체로서 AI 시대에 전문가들이 한계를 뛰어넘는 성과를 낼 수 있도록, 독보적인 포트폴리오를 바탕으로 최상의 워크스테이션 경험을 제공하며 시장의 혁신을 주도해 나갈 계획"이라고 밝혔다.

2026.03.23 17:07한정호 기자

삼성SDS, 국내 최초 B300 GPU 서비스 출시…기업 AI 추론 시장 공략

삼성SDS가 국내 최초로 엔비디아 B300 GPU 기반 클라우드 서비스를 선보이며 기업 AI 추론 시장 공략에 나섰다. 삼성SDS는 클라우드 '삼성 클라우드 플랫폼(SCP)'을 통해 엔비디아 최신 GPU 'B300' 기반 GPU 구독형 서비스(GPUaaS)를 출시했다고 밝혔다. 이번 서비스는 AI 도입이 개발 단계를 넘어 실제 서비스 운영 단계로 확대되는 흐름에 맞춰 고성능 연산 수요를 대응하기 위해 마련됐다. B300 GPU는 고대역폭메모리(HBM3E)를 12단으로 구성해 GPU당 288GB 메모리와 초당 8TB 대역폭을 제공한다. 이는 기존 H100 대비 메모리 용량은 약 3배 이상, 대역폭은 2배 이상 향상된 수준이다. 특히 대규모 언어 모델 실행 과정에서 발생하는 데이터 전송 지연 문제를 줄이며, 연산 대비 메모리 속 이로 인해 AI 에이전트, 이미지 생성, 영상 처리, 코드 생성 등 고성능 연산이 필요한 서비스에서 응답 속도를 낮출 수 있다. 기업은 더 큰 규모의 AI 모델을 안정적으로 운영할 수 있고, 실시간 처리 요구가 높은 업무에도 적용 범위를 확대할 수 있다. 서비스는 구독형 구조로 제공된다. 기업은 필요한 만큼 GPU를 사용하고 비용을 지불하는 방식이다. 초기 인프라 투자 부담을 줄이고 자원 활용 효율을 높일 수 있다. GPU 수급이 어려운 상황에서도 최신 아키텍처를 즉시 활용할 수 있다는 점도 특징이다. 여기에 삼성SDS의 보안 기술이 결합돼 민감한 데이터도 안정적으로 처리할 수 있다. 삼성SDS는 GPUaaS 생태계를 지속적으로 확장해 왔다. 2021년 A100, 2023년 H100에 이어 이번 B300까지 선제적으로 도입하며 클라우드 기반 AI 인프라 경쟁력을 강화해 왔다. 이를 통해 기업 고객이 AI 인프라를 직접 구축하지 않고도 고성능 환경을 활용할 수 있도록 지원하고 있다. 향후 서비스도 확대한다. 삼성SDS는 별도 인프라 비용 없이 사용량 기반으로 과금하는 '서버리스 추론 서비스'와 자동 분산 학습 기능을 제공하는 'AI 학습 서비스'를 2026년 3분기 내 출시할 계획이다. 이호준 삼성SDS 클라우드서비스사업부장 부사장은 "자원 최적화와 에너지 절감 기술을 기반으로 GPU 활용 효율을 높여 왔다"며 "국내 최초 B300 GPU 서비스를 통해 기업의 AI 전환을 적극 지원하겠다"고 밝혔다. 한편 삼성SDS는 공공 클라우드 사업에서도 입지를 확대하고 있다. 대구 데이터센터에 H100 기반 GPU 서비스를 구축했으며, 범정부 초거대 AI 인프라와 지능형 업무 시스템 구축 사업에도 참여하고 있다. 과학기술정보통신부 고성능 컴퓨팅 지원 사업을 통해 중소기업, 스타트업, 연구기관, 대학 등 약 60여 곳에 GPU 자원을 제공하며 AI 생태계 확산에도 기여하고 있다.

2026.03.23 11:53남혁우 기자

슈퍼마이크로 공동창업자, 엔비디아 AI칩 중국 밀반출 혐의로 퇴진

엔비디아 인공지능(AI) 칩을 중국으로 불법 반출한 혐의로 기소된 슈퍼마이크로 공동 창업자가 이사회에서 물러났다. 수십억 달러 규모의 밀반출 정황이 드러나면서 글로벌 반도체 공급망과 미·중 기술 갈등에 미치는 파장이 확산되는 모습이다. 23일 CNBC 등 주요 외신에 따르면 왈리 라우 슈퍼마이크로 공동 창업자는 미국 검찰의 기소 이후 이사회에서 사임했다. 그는 사업개발 수석 부사장과 이사직을 맡고 있었으나 사건이 불거진 직후 자리에서 물러났다. 라우는 엔비디아 AI 칩이 탑재된 서버를 중국으로 밀반출한 혐의로 뉴욕 남부지방검찰청에 의해 기소됐다. 검찰은 라우를 포함한 임직원 3명에게 미국 수출통제법을 위반해 고성능 그래픽처리장치(GPU) 서버를 중국으로 우회 반출한 혐의를 적용했다. 라우는 해당 혐의와 관련해 법원에 출석한 뒤 조건부로 석방된 상태에서 재판 절차를 밟고 있는 것으로 알려졌다. 조사에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 활용해 허위 서류를 작성하고 물류를 재포장하는 방식으로 최종 목적지가 중국임을 숨겼다. 또 내부 컴플라이언스 검증을 회피하기 위해 가짜 서버를 준비해 감사를 통과시키는 등 조직적으로 규제를 회피한 정황도 드러났다. 해당 사건은 규모 면에서도 이례적으로 평가된다. 검찰은 2024년 이후 약 25억 달러(약 3조 7500억원) 규모의 서버 거래가 이뤄졌으며 이 가운데 최소 5억 달러(약 7500억원) 이상의 물량이 실제로 중국에 흘러 들어간 것으로 보고 있다. 중국계 미국인인 라우는 슈퍼마이크로의 공동 창업자로, 찰스 리앙 최고경영자(CEO)와 함께 회사를 설립한 핵심 인물이다. 창업 초기에는 영업을 담당하며 회사 성장에 기여했으며 이후 글로벌 영업 총괄과 이사회 구성원으로 활동해왔다. 과거에도 그는 회계 문제로 논란에 휘말린 바 있다. 슈퍼마이크로는 2015년부터 2017년까지 매출을 부풀린 혐의로 미국 증권 당국인 증권거래위원회(SEC)의 조사를 받았으며 이 여파로 라우는 당시 회계 책임자와 함께 사임했다. 이후 회사는 약 1750만 달러(약 263억원)의 합의금을 지급하고 상장 거래를 재개한 바 있다. 이번 사건으로 회사는 즉각적인 조치에 나섰다. 슈퍼마이크로는 라우를 포함한 관련 인물들을 직무에서 배제하고 일부는 해임했으며 인텔 출신의 디아나 루나를 컴플라이언스 책임자로 임명하는 등 내부 통제 강화에 나섰다. 이번 사태는 엔비디아와 긴밀한 협력 관계를 유지해온 슈퍼마이크로에 적지 않은 타격을 줄 것으로 전망된다. 슈퍼마이크로는 엔비디아 AI 칩의 주요 고객 중 하나로, 전체 매출의 상당 부분을 AI 서버 사업에서 창출해왔다. 시장 반응도 즉각 나타났다. 기소 사실이 공개된 이후 슈퍼마이크로 주가는 하루 만에 30% 이상 급락했다. 업계에선 이번 사건이 단순한 기업 내부 문제를 넘어 미·중 기술 패권 경쟁 속에서 반도체 수출 통제의 실효성을 둘러싼 시험대가 될 것으로 보고 있다. 특히 엔비디아 최신 AI 칩이 포함된 장비가 우회 경로를 통해 중국으로 유입됐다는 점에서 규제 당국의 추가 조사 가능성도 제기된다. 슈퍼마이크로 측은 "공소장에 적시된 피고인들의 행위는 회사 정책과 수출 규정을 위반한 개인적 일탈"이라며 "정부 수사에 전적으로 협조하고 있다"고 밝혔다.

2026.03.23 09:47한정호 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

테슬라, 연내 자율주행 100억 마일 돌파…현대차는?

"테슬라는 단순한 자동차 회사가 아니라 데이터 회사다." 글로벌 IT 전문 매체 CIO는 테슬라를 이같이 평가했다. 테슬라는 차량 판매를 넘어 데이터와 신경망을 중심으로 한 통합 시스템을 구축하고 있으며, 물리적인 차량 생산은 이 구조의 일부에 불과하다는 분석이다. 특히 테슬라의 핵심 경쟁력은 방대한 데이터에 있다는 점을 강조했다. 22일 업계에 따르면 테슬라는 현재 약 87억8000만 마일(141억2000만㎞)에 달하는 오토파일럿 및 완전자율주행(FSD), 로보택시를 포함한 자율주행 누적 주행 데이터를 확보했다. 글로벌 자율주행 기업 가운데 가장 큰 규모다. 특히 데이터 증가 속도도 가파르다. 테슬라는 2021년 600만 마일(약 965만㎞)에 불과하던 FSD 주행 데이터가 2025년 42억5천만 마일(약 68억4000만㎞)로 급증하며 약 4년 만에 700배 이상 늘었다. 올해 들어서는 50일 만에 추가로 10억 마일(약 16억㎞)이 축적됐다. 현재 테슬라 차량은 하루 약 2천만 마일(약 3218만㎞) 수준의 데이터를 생산하고 있으며, 이 같은 추세를 감안하면 연내 약 100억마일(약 160억㎞)의 누적 데이터를 돌파할 것으로 전망된다. 이는 자율주행 상용화를 위한 핵심 기준으로 거론되는 '임계 데이터 규모'에 근접한 수치다. 특히 일론 머스크 테슬라 최고경영자(CEO)가 2023년 3분기 실적발표에서 "자율주행이 인간보다 훨씬 안전해지려면 대략 100억 마일 수준의 데이터가 필요하다"고 언급한 기준에 근접하는 수치다. 테슬라는 이 같은 데이터를 인공지능(AI) 학습에 활용하고, 무선 업데이트(OTA)를 통해 차량에 반영하는 '데이터-학습-배포' 구조를 구축했다. 이를 통해 자율주행 성능은 시간이 지날수록 지속적으로 개선된다. 테슬라에 따르면 FSD(감독형) 사용 시 약 530만 마일당 1건 수준의 사고가 발생하는 것으로 나타났다. 테슬라는 일반 운전(약 85만 마일당 1건) 대비 약 6~7배 높은 안전성을 보인다고 설명했다. 테슬라 추격 나선 현대차…AI 학습으로 자율주행 데이터 확보 현대자동차그룹은 자율주행 데이터 확보와 활용 측면에서 아직 초기 단계다. 현대차, 기아, 포티투닷, 모셔널 등 계열사별로 데이터가 분산돼 있었고, 서로 다른 시스템으로 인해 데이터 호환성과 활용성에 한계가 있었던 것으로 알려졌다. 이에 현대차그룹은 엔비디아와 협력을 확대하며 데이터 기반 자율주행 체계 구축에 나섰다. 현대차는 '엔비디아 드라이브 하이페리온'을 도입해 CPU·GPU·센서·카메라를 통합한 아키텍처를 구축하고, 자율주행 레벨 2부터 레벨 4까지 확장 가능한 시스템을 마련한다는 계획이다. 또한 그룹 전반에서 수집되는 데이터를 단일 학습 파이프라인으로 통합하고, 영상·언어·행동 데이터를 기반으로 AI 학습과 차량 적용, 데이터 품질 개선으로 이어지는 '데이터 선순환 구조'를 구축한다는 전략이다. 이 같은 데이터 통합은 본격적인 자율주행 탑재를 위한 기반 구축으로 해석된다. 현대차그룹은 연간 약 700만대 이상의 차량을 판매하는 만큼 도로 위에는 수천만대에 달하는 차량이 운행 중인 것으로 추산된다. 이를 데이터로 활용하기 위한 기반을 마련하는 것으로 해석된다. 리처드 첼민스키 포티투닷 SDV 플랫폼 총괄(부사장)은 최근 "아트리아 AI가 이미 활용 가능하다고 판단할 만큼 기술이 충분히 진척됐다"며 실제 차량 탑재를 위한 검토에 착수했다고 밝혔다. 출시 이후에도 실제 주행 데이터를 활용해 성능을 지속 개선하는 구조를 도입한다는 점에서 테슬라와 유사한 전략이다. 현대차는 엔비디아의 자율주행 AI 기술도 적극 활용할 계획이다. 엔비디아는 시각·언어·행동(VLA)을 통합한 AI 모델 '알파마요'와 3D 가상 시뮬레이션 플랫폼 '옴니버스'를 통해 자율주행 AI를 학습시키고 있다. 업계에 따르면 알파마요와 시뮬레이션 환경을 활용하면 가상 환경에서 다양한 주행 상황을 반복 학습할 수 있어 학습 속도를 크게 높일 수 있는 것이 특징이다. 이는 실제 도로 데이터를 기반으로 학습하는 테슬라 방식과 대비된다. 테슬라는 전 세계 차량에서 수집된 실제 주행 데이터를 통해 사람처럼 운전 감각을 학습한다. 반면 엔비디아는 합성 데이터와 가상 환경을 활용해 학습 속도를 높이는 전략을 택했다. 웨이모는 여기에 라이다 기반 정밀 지도 방식을 결합해 안정성을 확보하는 접근을 취하고 있다. 업계에서는 자율주행 경쟁이 단순한 기술 경쟁을 넘어 '데이터 규모와 학습 방식 경쟁'으로 확대되고 있다고 보고 있다. 테슬라가 약 130억㎞ 규모의 실도로 데이터를 기반으로 격차를 벌린 가운데, 현대차는 엔비디아 협력을 통해 데이터 통합과 AI 학습 체계를 구축하며 추격에 나선 상황이다. 업계 한 관계자는 "테슬라가 자율주행 기술력을 빠르게 확장하는 것은 통일된 차량 모델 기반으로 데이터를 축적하기 때문"이라며 "데이터 통합은 수집 속도와 활용 효율 측면에서 필수적인 요소"라고 설명했다.

2026.03.22 09:40김재성 기자

미 의회, 엔비디아 그록 인수 제동…반독재·독과점 조사 착수

미국 엔비디아가 AI 추론 전문 스타트업 '그록'과 체결한 200억달러(약 30조1300억 원) 규모의 라이선스 계약을 두고 미 의회가 반독점법 위반 여부에 대한 정밀 조사에 착수했다. 형식상 기술 사용 계약이지만, 실질적으로는 규제 당국의 감시를 피하기 위한 '편법 인수'라는 의혹이 핵심이다. 블룸버그 통신은 엘리자베스 워런 상원 의원과 리처드 블루먼솔 상원 의원이 현지시간 19일 엔비디아의 젠슨 황 CEO에게 이번 거래의 세부 내역 공개를 요구하는 서한을 발송했다고 20일 보도했다. 두 의원은 서한에서 "이번 거래가 반독점 규제 당국의 심사를 피하기 위해 의도적으로 설계된 것으로 보인다"며 강한 우려를 표명했다. 특히 "이러한 방식의 인수는 시장 경쟁을 억제하고 엔비디아의 독점적 지위를 더욱 공고히 해, 미국의 기술 리더십을 저해할 수 있다"고 지적했다. 지난 2025년 말 체결된 이번 계약에 따르면, 엔비디아는 그록의 IP(설계자산)에 대한 비독점 라이선스를 확보하는 동시에 조나단 로스 CEO를 포함한 그록의 핵심 엔지니어 대다수를 영입했다. 그록이라는 법인은 여전히 별개로 존재하지만, 핵심 인력과 기술이 엔비디아로 흡수됐다는 점에서 사실상의 인수합병(M&A)과 다를 바 없다는 것이 의회의 판단이다. 최근 아마존, 마이크로소프트, 구글 등 빅테크 기업들은 스타트업을 직접 인수하는 대신 기술 라이선스 계약과 인력 채용 형식을 빌려 규제 당국의 심사를 우회하는 전략을 취하고 있다. 미 연방거래위원회(FTC) 역시 지난 1월 이러한 형태의 '우회 인수'에 대해 엄격한 조사 방침을 밝힌 바 있다. 엔비디아는 현재 AI 모델 학습용 GPU 시장을 장악하고 있으며, 이번 계약을 통해 상대적으로 경쟁이 치열한 '추론' 시장에서도 지배력을 확대하려 하고 있다. 이번 주 열린 연례 컨퍼런스에서 젠슨 황 CEO는 그록의 기술을 새로운 AI 컴퓨팅 플랫폼에 통합하겠다고 공식 발표하기도 했다. 엔비디아 측은 "그록을 인수한 것이 아니며, 그록은 여전히 독립적인 사업체로 존재한다"며 "고객에게 세계 최고의 가속 컴퓨팅 기술을 제공하기 위해 라이선스를 구매하고 인재를 영입한 것뿐"이라고 해명했다.

2026.03.21 05:45전화평 기자

엔비디아, 오픈 모델로 '의료 AI' 혁신…헬스케어·신약 개발 가속

엔비디아가 오픈 모델과 데이터 플랫폼을 결합해 의료·생명과학 분야에 인공지능(AI) 활용 범위를 넓혔다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 '네모트론' 오픈 모델과 '네모 라이브러리'를 공개하고 의료 특화 AI 구축·배포를 지원한다고 밝혔다. 네모트론 오픈 모델은 오픈 가중치와 학습 레시피를 제공한다. 이를 통해 의료진과 개발자가 자체 인프라에서 맞춤형 AI 에이전트를 직접 구축할 수 있게 돕는다. 멀티모달 의료 데이터 증가에 대응해 고효율·저지연 처리 구조까지 제공해 기존 폐쇄형 시스템 의존도를 줄인다. 네모 라이브러리는 의료 전문 용어에 맞춘 파인튜닝을 지원해 범용 모델의 한계를 보완한다. 실제 헤이디 헬스는 네모트론 스피치 도입 후 지연 시간을 75% 줄이고 운영 비용을 64% 절감했다. 헬스케어 기업도 네모트론 기반으로 에이전틱 AI 도입을 확대하고 있다. 히포크라틱 AI는 임상 대화 모델을 구축했으며, 소드 헬스는 정신 건강 지원 모델을 고도화하고 있다. 또 아이큐비아와 오픈에비던스 베릴리도 각각 생명과학 연구와 의료 지식 통합 서비스에 활용하고 있다. 엔비디아는 바이오네모 플랫폼을 통해 생명과학 데이터 처리 영역도 확장했다. 파라브릭스와 쿠다-X 데이터 사이언스 라이브러리를 결합해 유전체 분석 속도를 높이고 연구 기간을 크게 단축하는 구조다. 베이스캠프 리서치는 초대규모 유전체 데이터 프로젝트를 통해 기존 공개 데이터 대비 10배 이상 큰 데이터셋을 구축했다. 이를 기반으로 수천조 개 DNA 염기쌍을 분석하며 기존 수십 년 걸리던 작업을 2년 미만으로 줄일 수 있는 환경을 마련했다. 타호 테라퓨틱스는 1억 개 세포 데이터 기반으로 가상 세포 모델을 개발했다. 향후 10억 개 세포 규모로 확장해 실제 실험 없이 치료 연구를 진행하는 시뮬레이션 환경을 구축할 계획이다. 퍼터브AI는 약 800만 개 뇌 세포 데이터를 활용한 CRISPR 유전체 아틀라스를 공개했다. 그래픽처리장치(GPU) 가속을 통해 분석 시간을 기존 며칠에서 실시간 수준으로 단축하며 질환 연구 속도를 높이고 있다. 엔비디아가 발표한 '헬스케어와 생명과학 분야 AI 현황' 조사에 따르면 의료 업계 리더 82%가 오픈소스를 핵심 전략으로 보고 있다. 엔비디아는 "의료 기관은 오픈 모델을 도입하고 이를 파인튜닝함으로써 데이터 주권을 확보할 수 있다"며 "투명성과 재현성에 대한 통제력을 유지하면서도 복잡한 에이전틱 애플리케이션에 필요한 높은 정확도를 확보할 것 이라고"고 밝혔다.

2026.03.20 18:15김미정 기자

[AI 고속도로] '베라루빈' 확보 속도전…'AI G3' 노린 정부, 주도권 경쟁 본격화

정부가 엔비디아의 차세대 그래픽처리장치(GPU) '베라루빈' 확보에 공을 들이고 있다. 생성형 인공지능(AI) 경쟁이 단기간 내 판가름 날 수 있다는 판단 아래 최신 GPU를 조기에 도입해 기술 격차를 좁히겠다는 전략으로, 'AI 3강(G3)'에 안착할 수 있는 기반 마련에 본격 나선 분위기다.과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이 사업의 핵심은 블랙웰급을 넘어서는 차세대 GPU 도입 여부다. 정부는 공모 요건에서 특정 제품을 명시하지는 않았지만, 설명회 과정에서 베라루빈과 같은 차세대 하이엔드 GPU를 제안할 경우 평가에서 긍정적으로 반영할 수 있다는 입장을 내놨다. 베라루빈은 엔비디아가 차세대 아키텍처로 준비 중인 GPU로, 기존 제품 대비 연산 성능과 에너지 효율이 크게 향상될 것으로 기대된다. 다만 아직 상용화 초기 단계에 있어 글로벌 빅테크 기업을 중심으로 공급이 이뤄질 가능성이 높은 제품이다. 업계 관계자는 "정부가 이번에 베라루빈 도입 가능성을 열어둔 점이 눈에 띈다"며 "AI 인프라 경쟁에서 뒤처지지 않겠다는 의지가 반영된 조치로 보인다"고 말했다. 이날 설명회에서는 차세대 GPU 확보 시점과 관련해 일반적인 출시 일정보다 국내 도입을 앞당기기 위한 협의가 진행되고 있다는 점도 언급됐다. 글로벌 공급 구조상 후순위로 밀릴 가능성을 고려해 초기 물량 확보를 선제적으로 추진하려는 전략으로 해석된다. 정부가 이처럼 차세대 GPU 확보에 적극 나선 것은 AI 경쟁 구도가 급변했다는 점이 반영된 것으로 풀이된다. 생성형 AI 확산 이후 모델 개발과 서비스 적용까지 걸리는 시간이 크게 단축되면서, 컴퓨팅 인프라 확보 시점 자체가 경쟁력을 좌우하는 요소로 떠올랐기 때문이다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 몇 개월 내로 개발과 적용이 이뤄지고 있다"며 "올 하반기나 내년 상반기면 경쟁 구도가 결정될 수 있다"고 강조했다. 이 같은 상황에서 차세대 GPU 확보 여부는 이번 사업의 핵심 변수로 꼽힌다. 최신 GPU 기반 대규모 클러스터를 구축할 경우 국내 기업과 연구기관이 고성능 AI 모델을 개발·학습할 수 있는 환경이 마련된다. 반면 차세대 GPU 도입이 지연될 경우 인프라 수준 격차가 기술 경쟁력 차이로 이어질 수 있다는 우려도 제기된다. 정부는 이번 사업을 통해 단순히 GPU를 도입하는 데 그치지 않고, 이를 기반으로 한 AI 생태계 확장을 함께 추진한다는 계획이다. 확보된 GPU 자원은 산업계·학계·연구계에 배분돼 AI 모델 개발과 서비스 고도화에 활용된다. 특히 대규모 클러스터를 통한 학습 환경을 제공함으로써 국내에서도 초거대 AI 개발이 가능한 기반을 마련하겠다는 구상이다. 업계에선 베라루빈 도입 여부가 이번 사업의 방향성을 가늠할 핵심 변수로 보고 있다. 차세대 GPU 확보 속도가 기술 경쟁력과 직결되는 만큼, 도입 시점과 규모에 따라 사업 성격이 달라질 수 있다는 분석이다. 업계 관계자는 "베라루빈은 단순히 성능이 좋은 GPU라기보다 '최신 기술을 얼마나 빠르게 가져올 수 있느냐'를 보여주는 상징적인 장비"라며 "정부가 이 부분을 강조하는 것은 글로벌 AI 경쟁에서 뒤처지지 않겠다는 메시지로 읽힌다"고 말했다. 정부 역시 차세대 GPU 도입과 관련해 일정 수준의 유연성을 두고 대응할 방침이다. 공급 상황과 시장 변수에 따라 도입 시점과 물량이 달라질 수 있는 만큼, 향후 협상 과정에서 세부 조건을 조정하겠다는 입장이다. NIPA 관계자는 "차세대 GPU는 출시 시점과 공급 상황이 유동적인 만큼, 선정 이후 협상을 통해 구축 시기와 방식 등을 현실적으로 조율할 계획"이라며 "국내 AI 경쟁력 확보를 위해 필요한 자원은 최대한 빠르게 확보하겠다"고 밝혔다.

2026.03.20 17:39장유미 기자

엔비디아, '범용 로봇 시대' 연다…피지컬 AI 통합 플랫폼 출시

엔비디아가 인공지능(AI) 로봇 개발 전 과정을 통합한 피지컬 AI 플랫폼을 공개했다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 차세대 로보틱스 개발을 위한 통합 플랫폼을 발표했다. 플랫폼은 데이터 생성과 학습, 시뮬레이션, 엣지 배포까지 아우르는 클라우드 투 로봇 워크플로를 기반으로 구성됐다. 이번 발표 핵심은 여러 작업을 수행하면서 특정 업무도 정밀하게 처리하는 '전문가형 범용 로봇'이다. 이를 위해 비전 언어 행동(VLA) 모델 기반의 추론 구조를 적용해 로봇이 인식과 판단, 행동을 통합적으로 수행하도록 설계했다. 엔비디아는 오픈소스 기반 '아이작' 플랫폼을 중심으로 모델과 데이터 파이프라인, 시뮬레이션, 런타임을 통합했다. 특히 '아이작 GR00T N' 모델을 통해 개발자가 로봇 지능을 초기화하고 이후 학습을 확장할 수 있도록 지원한다. 엔비디아는 로봇 개발 핵심으로 데이터 확보 방식을 꼽았다. 실제 센서 데이터와 시뮬레이션 기반 합성 데이터를 결합해 대규모 학습 데이터를 빠르게 생성하는 구조를 제시했다. 합성 데이터는 실제 환경에서 수집하기 어려운 극한 상황까지 학습할 수 있다는 점에서 중요성이 커지고 있다. 가트너에 따르면 엣지 AI 학습에서 합성 데이터 비중은 현재 20% 수준이지만 2030년에는 90% 이상으로 확대될 전망이다. 이를 위해 엔비디아는 '옴니버스 누렉'과 '아이작 텔레옵'을 정식 출시했다. 센서 데이터 기반으로 실제 환경을 시뮬레이션으로 재현하고 원격 조작 데이터를 학습 데이터로 활용할 수 있도록 지원한다. 로봇 학습 단계에서는 아이작 랩을 활용해 수천 개 물리 기반 시뮬레이션 환경을 병렬로 구성한다. 이를 통해 실제 환경에서는 수년이 걸리는 학습을 단기간에 수행할 수 있도록 돕는다. 또 뉴턴 물리 엔진과 통합해 중력과 충돌 등 현실 물리 법칙을 반영한 정밀 시뮬레이션을 구현했다. 이를 통해 로봇이 다양한 환경에서 안정적으로 동작하도록 훈련할 수 있다. 배포 전 단계에서는 소프트웨어 인 더 루프와 하드웨어 인 더 루프 테스트를 통해 실제 환경 적용성을 검증한다. 이후 젯슨 기반 엣지 컴퓨팅 환경에서 실시간 추론과 센싱을 수행하도록 한다. 엔비디아는 이 전체 과정을 하나의 오픈소스 워크플로 형태로 제공한다. 이를 통해 개발자가 구성 요소를 자유롭게 조합할 수 있도록 도울 방침이다. 디지털 트윈 기반 '메가' 블루프린트를 통해 수백 대 규모 로봇 테스트까지 확장 가능하게 했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "AI와 시뮬레이션, 실제 로봇을 연결하는 통합 플랫폼이 차세대 로보틱스의 핵심"이라며 "개발자들이 데이터부터 배포까지 전체 과정을 가속할 수 있도록 지원한다"고 밝혔다.

2026.03.20 17:21김미정 기자

레노버, 엔비디아와 엔터프라이즈 AI 가속화…'기가와트급 AI 팩토리' 구축 지원

레노버가 엔비디아와 협력해 기업 인공지능(AI) 도입과 운영을 전 단계에서 지원하는 통합 플랫폼을 공개하며 AI 추론 중심 시대 대응에 나섰다. 레노버는 엔비디아 'GTC 2026'에서 '레노버 하이브리드 AI 어드밴티지 위드 엔비디아' 신규 솔루션을 발표했다고 20일 밝혔다. 이 솔루션은 개인용 기기부터 데이터센터, 클라우드까지 전 영역을 아우르는 구조로 설계됐다. 기업이 AI를 빠르게 도입하고 실제 운영 환경까지 확장할 수 있도록 지원하는 것이 핵심이다. 이번 솔루션은 기존 모델 학습 중심에서 벗어나 실시간 의사결정을 수행하는 'AI 추론' 환경에 초점을 맞췄다. 특히 첫 토큰 생성 시간 단축과 운영 효율성 개선을 통해 기업의 AI 활용 가치를 높이는 데 중점을 뒀다. 레노버는 이를 통해 지능형 자동화와 실시간 분석 기반 의사결정을 구현할 수 있다고 설명했다. 레노버가 인용한 IDC 'CIO 플레이북 2026'에 따르면, 기업의 84%가 클라우드뿐 아니라 온프레미스나 엣지 환경에서도 AI를 활용할 것으로 예상된다. 이에 따라 다양한 환경에서 안정적으로 추론을 수행할 수 있는 하이브리드 AI 인프라 수요가 빠르게 증가하고 있다. 양위안칭 레노버 회장 겸 CEO는 "AI는 실험 단계를 넘어 실제 운영 환경으로 빠르게 이동하고 있다"며 "엔비디아 소프트웨어와 레노버의 풀스택 플랫폼을 결합해 기업이 더 낮은 비용으로 AI를 확장하고 도입 속도를 높일 수 있도록 지원할 것"이라고 밝혔다. 레노버와 엔비디아는 이번 협력을 통해 AI 인프라 전반을 포괄하는 기술도 함께 공개했다. 엔비디아 다이나모와 엔비디아 NIM을 기반으로 한 AI 추론 플랫폼, 베라 루빈 NVL72 아키텍처 기반 AI 클라우드 인프라, 산업별 맞춤형 AI 에이전트 솔루션 등이 포함됐다. 이를 통해 개발 단계에 머물던 AI를 실제 운영 환경으로 전환하는 기반을 제공한다. 젠슨 황 엔비디아 CEO는 "AI는 이제 실시간으로 작동하는 운영 기술로 자리잡고 있다"며 "AI 에이전트가 스스로 판단하고 행동하는 시대에는 가속 컴퓨팅과 AI 인프라 수요가 폭발적으로 증가할 것"이라고 말했다.

2026.03.20 17:08남혁우 기자

[AI 고속도로] 고성능 GPU 확보 나선 정부, 2조 규모 인프라 사업에 기업 관심 ↑

정부가 약 2조800억원 규모의 '인공지능(AI) 컴퓨팅 인프라 구축 사업'을 추진하며 첨단 그래픽처리장치(GPU) 확보에 속도를 내고 있다. 생성형 AI 경쟁이 짧은 기간 내 판가름 날 수 있다는 판단에 따라 최신 GPU를 조기에 대규모로 확보해 'AI 고속도로'를 구축하겠다는 구상이지만, 사업 구조와 요구 조건 측면에서 기업들의 부담이 적지 않을 것이란 관측도 나오고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 오후 2시 서울 강남구 포스코타워에서 '2026년 AI 컴퓨팅 자원 활용기반 강화사업' 설명회를 갖고 올해 최신 GPU 약 1만5000장 수준을 확보할 것이란 계획을 밝혔다. 이번 사업은 약 2조805억원 규모로, GPU 서버를 비롯해 랙·냉각장치·스토리지·네트워크 등 부대장비 구매에 예산이 집중 투입된다. GPU 인프라는 올해 선 구축과 함께 서비스를 시작하고 2027년 내 구축을 완료하는 일정이다. 이후 사업 협약 종료 시점인 2031년 12월 31일까지 산업계·학계·연구계 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 사업은 민간 클라우드 사업자(CSP)를 선정해 국내 데이터센터에 GPU 클러스터를 구축·운영하도록 하는 방식으로 추진된다. 정부는 GPU 서버와 스토리지, 네트워크, 냉각장치 등 장비 구매 비용만 지원하고, 운영 비용은 사업자가 부담하도록 했다. 대신 일부 GPU 자원은 자체 활용을 허용해 수익을 확보할 수 있도록 했다. 이번 사업의 핵심은 '최신성'과 '대규모 클러스터'다. 정부는 최소 256노드, 2048장 이상의 GPU를 단일 클러스터로 구성하는 방안을 기본으로 제시하며 블랙웰급 이상 최신 GPU 도입을 사실상 전제로 삼았다. 차세대 GPU인 베라루빈 계열도 제안 가능 대상으로 열어두면서 최신 기술 도입을 적극 유도하는 모습이다. 특히 베라루빈 도입을 둘러싼 논의는 이번 사업의 방향성을 보여주는 대목으로 꼽힌다. 당초 사업 요건에 베라루빈을 명시적으로 포함하는 방안까지 검토됐던 것으로 전해졌으나, 최종 공모에선 강제 조건으로 포함시키지 않았다. 업계에선 정부가 엔비디아와의 협의를 통해 국내 물량 확보 가능성을 타진하면서도, 아직 레퍼런스가 부족한 점을 감안해 기업 자율 제안으로 방향을 조정한 것으로 보고 있다. 그러나 실제 도입 규모는 제한적일 것이라는 전망이 우세하다. 차세대 GPU 특성상 공급 물량이 충분하지 않고, 성능 검증 사례도 부족해 기업들이 대규모로 제안하기에는 부담이 크다는 이유에서다. 업계에선 일부 상징적 물량 수준에서 제안이 이뤄질 가능성에 무게를 두고 있다. 평가 기준을 보면 정부가 무엇을 우선순위로 두고 있는지도 드러난다. 총 100점 가운데 50점이 사업 준비도 및 경쟁력에 배정됐으며, 이 중 인프라 준비도 18점, 구축계획 우수성 32점이 핵심이다. 데이터센터 상면 확보를 비롯해 전력·냉각 설비, 네트워크 구성, 보안·안정성 체계 등이 주요 평가 항목에 포함됐다. 이는 대규모 GPU를 실제로 안정적으로 운영할 수 있는 인프라 역량을 가장 중요한 기준으로 삼겠다는 의미다. GPU 물량보다 성능을 중시하는 평가 방식도 특징이다. 동일 예산 기준에서 구형 GPU를 대량 확보하는 방식보다 최신 GPU 기반 고성능 클러스터를 구축하는 제안이 더 유리한 구조다. 서비스 개시 시점이 빠를수록 가점을 부여하는 항목도 포함돼 조기 구축과 실제 활용 가능성 역시 핵심 평가 요소로 설정됐다. 이병묵 NIPA AI인프라확충팀장은 "AI 기술은 개발에서 서비스까지 걸리는 시간이 크게 단축된 상황"이라며 "최신 GPU를 신속하게 확보해 국내에 공급하는 것이 경쟁력 확보의 핵심"이라고 강조했다. 업계에선 이번 사업을 두고 참여 문턱이 높은 것 같다는 평가를 내놨다. 대규모 GPU 클러스터를 구축하려면 충분한 데이터센터 상면과 전력, 고성능 냉각 인프라가 필수적인데 이를 단기간 내 확보할 수 있는 기업이 제한적이기 때문이다. 수도권 중심 데이터센터 전력 수급 문제도 부담 요인으로 지목된다. 운영비 부담도 주요 변수다. 정부 지원은 장비 구매에 한정되고 실제 운영비는 사업자가 부담해야 하기 때문이다. 자체 활용 GPU로 수익을 확보할 수는 있지만, 정부 활용 자원 비중이 높을수록 평가에서 유리한 구조여서 사업성과 점수 간 균형을 맞추기 쉽지 않다는 지적이 나온다. 가격과 환율 리스크도 기업들이 부담으로 꼽는 대목이다. GPU 조달 비용은 대부분 달러 기반으로 형성되는데, 사업 구조상 비용 절감분은 정산 대상인 반면 가격 상승에 따른 리스크는 일정 부분 사업자가 떠안아야 한다. 차세대 GPU의 경우 납기와 가격 변동성이 커 불확실성이 더 크다.여기에 올해부터 서비스 수준 협약(SLA) 요건이 새롭게 포함되면서 운영 부담은 더 커질 전망이다. 장애 대응, 성능 유지, 기술 지원 체계를 구체적으로 제시해야 하는 만큼, 단일 CSP가 이를 모두 감당하기는 쉽지 않다는 평가다. 이에 따라 CSP가 운영·관리 전문기업(MSP)과 협력하는 컨소시엄 형태가 늘어날 것이라는 관측이 나온다.업계 관계자는 "단순히 GPU를 구축하는 수준이 아니라 24시간 대응 체계와 서비스 품질까지 함께 요구되면서 사업 난도가 크게 올라갔다"며 "운영과 기술지원 역량을 동시에 갖춘 구조를 만들어야 하는 부담이 커진 상황"이라고 말했다.이번 사업으로 구축되는 GPU와 부대장비는 NIPA 소유로 귀속되며 사업자는 운영과 유지보수를 맡는다. 보안성과 안정성 확보를 위해 정보보호관리체계(ISMS), 클라우드 보안인증(CSAP) 등 인증 보유 여부와 확보 계획, 데이터의 국내 운영·통제 체계, 자원 관리 시스템, 기술지원 인력 구성 등도 주요 평가 항목에 포함됐다. 특히 AI 워크로드를 이해하는 전문 인력과 24시간 대응이 가능한 기술지원 체계를 반드시 제시해야 한다는 점도 이번에 강조됐다. 단순 인프라 운영을 넘어 AI 모델 개발과 서비스까지 지원할 수 있는 수준의 역량이 요구된다는 점에서 기업 부담이 추가로 커졌다는 평가가 나온다.설계 부담도 적지 않을 것으로 보인다. 특히 차세대 GPU인 베라루빈을 적용할 경우 클러스터 구성 단위와 성능 기준이 명확히 정해져 있지 않아 기업이 직접 제조사와 협의를 통해 구성 방안을 검토해야 하는 상황이다. GPU 종류별로 클러스터 구조와 성능 산정 방식이 달라질 수 있는 만큼, 제안 단계에서부터 기술적 검증과 설계 부담이 기업에 상당 부분 전가됐다는 평가가 나온다. 이번 설명회에는 네이버클라우드, KT클라우드, NHN클라우드, 카카오엔터프라이즈, SK텔레콤, 삼성SDS 등 주요 클라우드 사업자를 비롯해 메가존클라우드, LG CNS 등 클라우드 서비스 운영 관리 기업(MSP)과 델, 시스코, HPE, 엔비디아 등 글로벌 장비·반도체 기업까지 대거 참석했다. 이 같은 구조를 감안하면 실제 경쟁은 일부 대형 사업자 중심으로 형성될 가능성이 크다. 업계에선 네이버클라우드와 KT클라우드를 유력 후보로 거론하는 가운데 삼성SDS와 SK텔레콤 등도 경쟁군으로 함께 언급했다. NHN클라우드 등은 컨소시엄 형태로 참여할 가능성이 제기된다. 아마존웹서비스(AWS), 마이크로소프트 애저, 구글 클라우드 등 해외 CSP 역시 참여는 가능하지만 국내 데이터센터 기반과 직접 운영·통제 요구 등을 고려할 때 진입 장벽은 여전히 높다는 평가다. 업계 관계자는 "베라루빈 같은 차세대 GPU는 상징적으로 일부 들어갈 수는 있겠지만, 실제 사업은 전력과 냉각, 운영 역량 확보가 더 큰 변수"라며 "SLA까지 포함되면서 기업 부담이 상당히 커진 구조"라고 말했다. NIPA 관계자는 "시장 상황과 공급 여건이 쉽지 않다는 점을 충분히 인지하고 있다"며 "선정 이후 협상 과정에서 일정과 세부 조건은 현실적으로 조정해 나가고, 민간과 협력해 AI 인프라를 빠르게 구축하겠다"고 밝혔다.

2026.03.20 17:02장유미 기자

"AI로 결제하는 세상"…엔비디아-오픈AI, '에이전틱 쇼핑' 표준 제시

엔비디아가 오픈AI 손잡고 인공지능(AI) 에이전트 기반 유통 생태계 강화에 나섰다. 엔비디아는 19일(현지시간)까지 미국 새너제이에서 열린 'GTC 2026'에서 오픈AI가 개발에 참여한 '리테일 에이전틱 커머스 블루프린트'를 공개했다고 밝혔다. 이 블루프린트는 생성형 AI 플랫폼과 리테일 시스템 간 연동을 지원하는 오픈소스 기반 참조 아키텍처다. 이번 구조는 고객이 상품 탐색부터 결제 후 경험까지 전 과정을 AI 에이전트에 맡길 수 있도록 설계된 점이 핵심이다. 챗GPT와 구글 제미나이 같은 플랫폼에서 쇼핑을 시작하고 구매까지 완료할 수 있는 환경을 제공한다. 엔비디아 블루프린트는 리테일 기업이 AI 플랫폼과 직접 연결돼 에이전트 간 통신을 수행할 수 있도록 지원한다. 이를 통해 판매자는 통제된 환경에서 결제 보안과 개인화 추천 기능을 유지하면서 새 커머스 생태계에 참여할 수 있다. 기술적으로는 오픈AI의 에이전틱 커머스 프로토콜과 구글의 유니버설 커머스 프로토콜을 동시에 지원한다. 코드베이스 하나로 두 표준을 모두 구현해 단일 환경에서 다양한 에이전트 생태계를 연결할 수 있는 구조다. 오픈AI는 자체 소프트웨어 개발 키트(SDK)를 통해 챗GPT 내부에 쇼핑 경험을 직접 통합할 수 있도록 지원했다. 이번 블루프린트 개발 과정에도 참여해 실제 서비스 환경에서 작동 가능한 구조 구현을 돕는다. 블루프린트는 엔비디아 네모 에이전트 툴킷과 네모트론 모델 기반으로 작동한다. 프로모션 가격 책정부터 추천, 생성, 시맨틱 검색, 다국어 메시징 등 네 가지 핵심 기능을 에이전트 형태로 제공한다. 모든 기능은 위임 결제 시스템과 연계돼 거래 전 과정에서 보안을 유지하도록 설계됐다. 판매자가 거래 흐름 전반을 통제할 수 있도록 한 점도 특징이다. 엔비디아는 "해당 생태계에서 다양한 참여 주체가 동일한 프로토콜 위에서 협력할 수 있을 것"이라고 밝혔다.

2026.03.20 17:02김미정 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

네이버·카카오의 요즘 인재상…"AI 활용 넘어 소통·사고력"

"AI 스타트업 성패는 '인프라'…글로벌 확장 기회 좌우"

美, 반도체 공급망 위한 '팍스 실리카' 펀드 출범…3700억원 투입

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.