• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (663건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

간호사도 AI로 대체…"시간당 12만원→1만2천원"

엔비디아가 생성형 인공지능(AI) 간호 서비스를 제공하는 AI 스타트업 '히포크라틱 AI'(Hippocratic AI)와 협력을 발표했다고 IT매체 기즈모도가 19일(현지시간) 보도했다. 히포크라틱 AI는 AI 간호사와 실시간 화상 통화를 통해 환자에게 의료 상담을 제공하는 AI 스타트업이다. 이 회사는 시간당 90달러(약 12만원)에 달하는 인간 간호사의 인건비를 절감할 수 있다고 홍보하고 있다. 엔비디아와 히포크라틱 AI와의 협력은 GTC 2024 행사에서 발표된 다양한 협력 중 하나였다. 엔비디아는 히포크라틱AI의 화상 통화를 통해 실시간 대응을 지원한다. 엔비디아가 제시한 데모 영상에서 '레이첼'이라는 이름의 AI 에이전트가 환자에게 페니실린 복용 방법을 말해준다. 이후 AI 에이전트는 환자에게 이 모든 정보를 실제 의사에게 다시 보고할 것이라고 말한다. 레이첼은 이 회사가 제공하는 많은 AI 간호사 중 한 명이다. AI 간호사들은 '대장내시경 검사'부터 '유방암 케어 매니저'까지 전문 분야를 다루고 있으며 모두 최저 임금 미만으로 운영된다. 킴벌리 파월 엔비디아 헬스케어 담당 부사장은 보도자료를 통해 “생성형 AI로 구동되는 음성 기반 디지털 에이전트는 헬스케어의 풍요로운 시대를 열 수 있지만, 이는 기술이 환자에게 인간처럼 반응하는 경우에만 가능하다”고 밝혔다. 이 회사는 웹사이트를 통해 해당 서비스를 활용하면 인간 간호사의 시간당 급여 90달러를 9달러(약 1만2천원)로 절감할 수 있다고 밝혔다. 히포크라틱 AI는 자사의 AI 간호사가 침상 매너, 교육 측면에서 인간 간호사보다 뛰어나며 만족도는 인간 간호사에 비해 근소한 차이로 밀린다고 밝혔다. 회사 측은 AI 간호사가 수천 명의 인간 간호사와 수백 명의 의사에 의해 테스트됐으며, 현재 약40개 이상의 의료 서비스 제공업체에서 테스트 중이라고 밝혔다. 하지만, 아직 생성형AI 간호사가 병의 진단을 내리기에는 충분치 않다고 덧붙였다.

2024.03.20 12:54이정현

오라클, 엔비디아와 '소버린 AI' 제공 협력 발표

오라클은 엔비디아와 협력 관계를 확장해, 전 세계 고객들을 대상으로 소버린 AI 솔루션을 제공하기 위한 계획을 20일 발표했다. 이 협력을 통해 오라클의 분산형 클라우드와 AI 인프라스트럭처, 생성형 AI 서비스는 엔비디아의 가속 컴퓨팅 및 생성형 AI 소프트웨어와 결합해 각국 정부 및 기업의 AI 팩토리 배포를 지원한다. 양사의 AI 팩토리는 광범위한 운영 통제 기능을 통해 클라우드 서비스를 국가 또는 기업 조직의 안전한 자체 지역 내 로컬 환경에서 운영하고, 이를 통해 경제 성장을 촉진하고 다각화하기 위한 주권 목표를 지원한다. OCI 전용 리전과 오라클 알로이, 오라클 EU 소버린 클라우드, 오라클 정부 클라우드 등에 배포 가능한 오라클의 기업용 AI 서비스는 엔비디아의 풀스택 AI 플랫폼과 결합돼 데이터의 운영과 위치 및 보안에 대한 제어력을 강화하여 고객의 디지털 주권을 지원하는 최첨단 AI 솔루션을 제공한다. 현재 세계 각국은 자국의 문화적, 경제적 목표를 달성하기 위해 AI 인프라 투자를 늘려 나가고 있다. 기업 고객들은 26개국에 위치한 66개의 오라클 클라우드 리전을 통해 인프라 및 애플리케이션 전반에 걸쳐 100여 개 클라우드 및 AI 서비스에 접근할 수 있고, 이를 통해 IT 마이그레이션, 현대화 및 혁신을 추진할 수 있다. 양사의 통합 오퍼링은 유연한 운영 통제 기능을 바탕으로 퍼블릭 클라우드를 통하거나 특정한 위치의 고객사 데이터센터에 직접 배포 가능하다. 오라클은 고객이 원하는 모든 장소에서 로컬 방식으로 AI 서비스 및 자사의 완전한 클라우드 서비스를 제공할 수 있는 유일한 하이퍼스케일러다. OCI는 배포 유형과 관계없이 동일한 서비스 및 가격 정책을 일관되게 제공하여 클라우드 서비스 이용을 보다 간단하게 계획하고 이전 및 관리할 수 있도록 한다. 오라클의 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 등 다양한 엔비디아 스택을 활용하고 있다. 엔비디아 텐서RT, 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버 등 엔비디아 추론 소프트웨어를 기반으로 구축되어 최근 발표된 엔비디아 NIM 추론 마이크로서비스도 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 포함된다. 스위스 뱅킹 소프트웨어 제공업체인 아발록은 자체 데이터센터에서 완전한 OCI 퍼블릭 클라우드 리전을 운용하기 위해 OCI 전용 리전을 도입했다. 아발록의 마틴 부치 최고 기술 책임자는 "OCI 전용 리전은 최신 클라우드 인프라에 대한 액세스를 제공하면서도 데이터 보존을 최대한 제어하려는 아발록의 노력과 부합한다"며 "이는 우리가 은행과 자산 관리사의 디지털 혁신을 지속적으로 추진하는 데 큰 도움이 된다”고 설명했다. 뉴질랜드의 선도적인 정보 관리 서비스 제공업체인 팀 아이엠은 뉴질랜드 최초로 현지 기업이 소유 및 운영하는 하이퍼스케일 클라우드인 팀 클라우드를 구축하기 위해 오라클 알로이를 도입했다. 팀 아이엠의 이언 로저스 CEO는 "클라우드의 성능은 십분 활용하면서도 뉴질랜드 국경 내에서 데이터 무결성을 유지할 수 있는 독자적인 하이퍼스케일 클라우드 솔루션에 대한 뉴질랜드 기업들의 수요가 갈수록 증가하고 있다"며 "팀 아이엠은 오라클 알로이와 더불어, 엔비디아 AI 플랫폼을 자사 클라우드 서비스에 통합할 수 있는 가능성을 통해 공공 분야 및 민간 기업, 뉴질랜드 원주민 단체들이 디지털 환경의 복잡성을 해소하고 디지털 혁신 과정을 최적화하는 과정에 기여할 수 있는 클라우드 서비스 제공업체로 자리 매김했다"고 밝혔다. 오라클은 엔비디아 GTC에서 발표된 최신 엔비디아 그레이스 블랙웰 컴퓨팅 플랫폼을 자사의 OCI 슈퍼클러스터 및 OCI 컴퓨트 서비스 전반에 도입함으로써 지속적으로 증가하는 고객의 AI 모델에 대한 요구사항에 대응해 나갈 계획이다. OCI 슈퍼클러스터는 새로운 OCI 컴퓨트 베어 메탈 인스턴스와 초저지연 RDMA 네트워킹, 고성능 스토리지를 통해 훨씬 더 빠른 속도를 제공할 전망이다. OCI 컴퓨트에는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩과 엔비디아 블랙웰 B200 텐서 코어 GPU가 모두 탑재된다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 컴퓨팅의 새로운 시대를 선도할 획기적 성능을 제공한다. 전 세대 GPU 대비 최대 30배 빠른 실시간 대규모 언어 모델(LLM) 추론, 25배 낮은 TCO, 25배 적은 에너지 소모량 등을 자랑하는 GB200은 AI 학습, 데이터 처리, 엔지니어링 설계 및 시뮬레이션 등의 작업 성능을 대폭 강화해 준다. 엔비디아 블랙웰 B200 텐서 코어 GPU는 가장 높은 성능이 요구되는 AI, 데이터 분석, 고성능 컴퓨팅(HPC) 워크로드를 처리하기 위해 설계됐다. 또한 검색 증강 생성(RAG) 추론 배포를 위한 엔비디아 네모 리트리버를 비롯한 엔비디아 NIM 및 쿠다-X 마이크로서비스는 OCI 고객이 자체 데이터를 사용해 생성형 AI 코파일럿 및 기타 생산성 도구에 더 많은 인사이트를 제공하는 동시에, 해당 도구들의 정확성을 향상시키는 작업에도 도움이 될 것으로 보인다. 점점 더 복잡해지는 AI 모델에 대한 고객의 수요 증가에 부응하기 위해 오라클과 엔비디아는 OCI 상에서 구동되는 엔비디아 DGX 클라우드 서비스에 엔비디아 그레이스 블랙웰 슈퍼칩을 추가할 예정이다. 고객들은 LLM의 매개변수가 조 단위에 달하게 된 현 시점에 보다 에너지 효율적인 학습 및 추론을 지원하기 위해 양사가 함께 설계한 슈퍼컴퓨팅 서비스인 엔비디아 DGX 클라우드를 통해 새로운 GB200 NVL72 기반 인스턴스에 액세스 할 수 있다. DGX 클라우드 클러스터의 전체 구성에는 2만개 이상의 GB200 가속기와 엔비디아 CX8 인피니밴드 네트워킹이 포함돼 더욱 탁월한 확장성 및 성능을 갖춘 클라우드 인프라를 제공할 예정이다. 해당 클러스터는 5세대 NV링크가 탑재된 72개의 블랙웰 GPU NVL 72와 36개 그레이스 CPU로 구성된다. 사프라 카츠 오라클 CEO는 "AI가 전 세계의 비즈니스, 산업 및 정책을 재편함에 따라, 국가와 기업 조직은 가장 중요한 데이터를 안전하게 보호하기 위해 디지털 주권을 강화해야 한다"며 "오라클은 엔비디아와의 지속적인 협력 관계와 클라우드 리전을 로컬 차원에서 신속히 배포할 수 있는 독보적인 역량을 통해 전 세계에서 보안에 대한 타협과 우려 없이 AI를 활용할 수 있도록 보장할 것"이라고 밝혔다. 젠슨 황 엔비디아 설립자 겸 CEO는 "생성형 AI가 혁신을 주도하는 시대에 데이터 주권은 문화적, 경제적 필수 요소"라며 "엔비디아의 가속 컴퓨팅 및 생성형 AI 서비스와 결합된 오라클의 통합 클라우드 애플리케이션 및 인프라 서비스는 각 국가 및 지역이 데이터 주권을 바탕으로 스스로 미래를 직접 설계할 수 있는 유연성과 보안을 제공한다."라고 강조했다. 오라클과 엔비디아가 공동 제공하는 소버린 AI 솔루션은 발표와 함께 바로 사용 가능하다.

2024.03.20 10:45김우용

클라우데라, 엔비디아 생성형 AI 기능 확장 협력

클라우데라는 엔비디아와 협력을 확장·강화한다고 20이 발표했다. 클라우데라는 엔비디아 기업용 AI 소프트웨어 플랫폼 가운데 엔비디아 NIM 마이크로서비스를 '클라우데라 머신 러닝'에 통합해 빠르고 안전하며 간소화된 종단간 생성형 AI 워크플로우를 제공한다. 기업 데이터는 대규모 언어 모델(LLM)에 최적화된 포괄적인 풀 스택 플랫폼과 결합돼 조직의 생성형 AI 애플리케이션을 개발하는데 중요한 역할을 한다. 개발자는 엔비디아 NIM과 네모 리트리버 마이크로서비스를 통해 텍스트, 이미지, 막대 그래프, 라인 플롯, 파이 차트 등 시각화 데이터를 포함한 비즈니스 데이터에 AI 모델을 연결, 정확하고 맥락에 맞는 답변을 생성할 수 있다. 마이크로서비스를 사용하는 개발자는 엔비디아 AI 엔터프라이즈를 통해 애플리케이션을 배포할 수 있으며, 이는 기업용 LLM 구축, 사용자 정의 및 배포하는데 최적화된 실행시간을 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스를 활용함으로써, 고객의 데이터의 위치에 상관없이 고성능 AI 워크플로우, AI 플랫폼 소프트웨어, 가속화된 컴퓨팅을 제공해 클라우데라 데이터 플랫폼(CDP) 기반의 기업 데이터를 최대한 활용할 수 있도록 지원한다. 클라우데라는 엔비디아 마이크로서비스와의 다양한 통합 서비스도 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스 기반 모델과 모든 워크로드에서 모델의 추론 성능을 향상시키기 위한 애플리케이션 서비스를 통합한다. 이 새로운 AI 모델 서빙 기능을 통해 고객은 퍼블릭 클라우드와 프라이빗 클라우드 모두에서 장애 허용, 저지연 서빙, 자동 확장이 가능하다. 또한 클라우데라 머신 러닝은 사용자 정의 LLM과 기업 데이터의 연결을 간단하게 하기 위해 통합 엔비디아 네모 리트리버 마이크로서비스를 제공한다. 이 기능을 통해 사용자는 실사용을 위한 검색 증강 생성(RAG) 기반 애플리케이션을 구축할 수 있다. 클라우데라는 이전에도 엔비디아와 협력해 GPU에 최적화된 데이터 처리를 위해 아파치 스파크용 엔비디아 RAPIDS 가속기를 클라우데라 데이터 플랫폼(CDP)에 통합한 바 있다. 이제 엔비디아 마이크로서비스와 엔비디아 기업용 AI와의 추가 통합으로 CDP는 독특하게 간소화된 종단간 하이브리드 AI 파이프라인을 독자적인 방식으로 제공한다. 앞으로 모든 산업의 기업들은 혁신적인 생성형 AI 기술을 뒷받침하는 LLM을 보다 빠르고 직관적으로 구축, 커스터마이징 및 배포할 수 있게 됐다. 개발 시간을 단축하기 위한 코딩 코파일럿, 고객 상호작용과 서비스 자동화를 위한 챗봇, 문서를 빠르게 처리하기 위한 텍스트 요약 앱, 간결하고 맥락에 맞는 검색 등 혁신적인 기술은 기업 전반에서 데이터와 발전된 AI 프로세스를 더 쉽고 빠르게 처리해 수익 창출과 비용 최적화로 비즈니스 가치를 극대화한다. 프리얀크 파텔 클라우데라 AI/ML 제품 담당 부사장은 “클라우데라는 엔비디아 NIM과 CUDA-X 마이크로서비스를 통합해 클라우데라 머신 러닝을 강화함으로써 고객이 가진 AI에 대한 기대를 비즈니스에서 실현할 수 있도록 지원하고 있다”며 “이번 협력을 통해 고객에게 강력한 생성형 AI 기능과 성능을 제공할 뿐만 아니라, 오늘날 데이터 환경을 탐색하는 데 중요한 요소인 부정확성, 환각, 예측 오류를 줄이는 동시에 기업이 보다 정확하고 시기 적절한 의사결정을 내릴 수 있도록 지원할 것”이라고 밝혔다. 저스틴 보이타노 엔비디아 기업 제품 담당 부사장은 “기업은 맞춤형 코파일럿과 생산성 툴을 구축하기 위해 방대한 양의 데이터를 생성형 AI에 활용하고자 한다”며 “엔비디아 NIM 마이크로서비스를 클라우데라 데이터 플랫폼에 통합함으로써 개발자는 보다 쉽고 유연하게 LLM을 배포해 비즈니스 혁신을 주도할 수 있게 됐다”고 강조했다. 클라우데라는18일부터 21일까지 미국 캘리포니아 새너제이 맥에너리 컨벤션 센터에서 열리는 엔비디아 GTC 2024에서 새로운 AI 기능을 선보인다.

2024.03.20 10:40김우용

퓨어스토리지, 엔비디아와 RAG 파이프라인 개발

퓨어스토리지는 엔비디아 OVX 지원 검증 레퍼런스 아키텍처를 비롯해, 생성형 AI 사용사례를 운용하기 위한 새로운 검증 레퍼런스 아키텍처를 20일 발표했다. 퓨어스토리지는 엔비디아와 협력해 전 세계 고객들의 성공적인 AI 구축을 위해 고성능 데이터 및 컴퓨팅 요구사항을 관리할 수 있는 검증된 프레임워크를 제공한다. 오늘날 대부분의 AI 구축은 클라우드부터 레거시 스토리지 솔루션에 이르기까지 파편화된 데이터 환경에 분산되어 있다. 그러나 이러한 파편화된 환경은 AI 데이터 파이프라인을 지원하고 기업 데이터의 잠재력을 발휘하는 데 필요한 성능과 네트워킹 요구사항을 지원할 수 없다. 기업이 혁신을 주도하고, 운영을 간소화하며, 경쟁 우위를 확보하기 위해 AI를 더욱 적극적으로 도입함에 따라, 강력하고 고성능이며 효율적인 AI 인프라에 대한 수요가 그 어느 때보다 높다. 특히, 급속도로 성장하는 포춘 500대 기업 고객군을 중심으로 기업용 AI 구축을 선도하고 있는 퓨어스토리지는 기업이 AI의 잠재력을 충분히 활용하는 동시에 관련 리스크, 비용, 에너지 소비를 줄일 수 있도록 간편하고 안정적이며 효율적인 스토리지 플랫폼을 제공한다. 퓨어스토리지는 AI 추론을 위한 검색 증강 생성(RAG) 파이프라인을 제공한다. 퓨어스토리지는 대규모 언어 모델(LLM)을 위한 추론 기능의 정확성, 통화 및 관련성을 향상시키기 위해, 기업용 올플래시 스토리지용 엔비디아 네모 리트리버 마이크로서비스 및 엔비디아 GPU, 그리고 퓨어스토리지를 활용하는 RAG 파이프라인을 개발했다. 이로써 퓨어스토리지는 AI 학습을 위해 자체 내부 데이터를 사용하는 기업들이 더 빠른 인사이트를 얻을 수 있도록 가속화하며, 최신 데이터 사용을 보장하고 LLM의 지속적인 재훈련 필요성을 없앴다. 엔비디아 OVX 서버 스토리지 레퍼런스 아키텍처 인증을 획득했다. 퓨어스토리지는 기업 고객과 채널 파트너에게 비용 및 성능에 최적화된 AI 하드웨어 및 소프트웨어 솔루션을 위한 강력한 인프라 기반을 제공하기 위해, 주요 벤치마크에 대해 검증된 유연한 스토리지 레퍼런스 아키텍처를 제공하는 OVX 서버 스토리지 검증을 획득했다. 해당 검증은 AI 고객들에게 추가적인 선택권을 제공하며, 지난해 발표된 퓨어스토리지의 엔비디아 DGX BasePOD에 대한 인증을 보완한다. 버티컬 산업 부문별 성공적인 AI 도입을 가속화하기 위해 퓨어스토리지는 엔비디아와 협력해 산업별 RAG를 개발하고 있다. 퓨어스토리지는 상용 LLM보다 더 높은 정확도로 방대한 데이터세트를 요약하고 쿼리할 수 있는 금융 서비스 RAG 솔루션을 개발했다. 이를 통해 금융 서비스 기관들은 이제 AI를 사용해 다양한 재무 문서 및 기타 소스에서 즉각적인 요약 및 분석을 생성하여 인사이트를 더욱 빠르게 확보할 수 있게 됐다. 헬스케어 및 공공 부문을 위한 추가적인 RAG도 출시될 예정이다. 퓨어스토리지는 엔비디아와 함께 AI 파트너 생태계에 대한 투자를 더욱 확대하며, 런:AI 및 웨이트 앤 바이어스와 같은 ISV와 새로운 파트너십을 체결하고 있다. 런:AI는 고급 오케스트레이션 및 스케줄링을 통해 GPU 활용을 최적화하며, 웨이트 앤 바이어스 AI 개발 플랫폼은 머신러닝 팀이 모델 개발 라이프사이클을 구축, 평가 및 관리할 수 있도록 지원한다. 퓨어스토리지는 이플러스, 인사이트, WWT 등을 포함한 AI 전문 리셀러 및 서비스 파트너와 긴밀히 협력하여 공동 고객의 AI 구축 업무를 더욱 효율화하고 있다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 “퓨어스토리지는 초기부터 AI 수요 증가를 예측하고, 최첨단 AI 구축을 위한 효율적이고 안정적인 고성능 플랫폼을 제공해왔다”며 “엔비디아와의 오랜 협업으로 개발한 최신 AI 레퍼런스 아키텍처와 생성형 AI 개념 증명은 글로벌 기업들이 AI의 복잡성을 극복하는 데 결정적인 역할을 하고 있다”고 밝혔다. 엔비디아 밥 피트 엔터프라이즈 플랫폼 부문 부사장은 “엔비디아의 AI 플랫폼 레퍼런스 아키텍처는 퓨어스토리지의 단순하고 효율적이며 신뢰성이 탁월한 데이터 인프라로 한층 강화돼 복잡한 AI, 데이터 분석 및 고도화된 컴퓨팅을 해결하려는 기업에 포괄적인 솔루션을 제공한다”며 “퓨어스토리지의 검증된 최신 레퍼런스 아키텍처와 개념 증명은 기업이 새로운 가능성을 열고 혁신적인 결과를 도출하는 데 필요한 툴을 제공함으로써 AI 혁신을 주도하고 있다.”라고 강조했다.

2024.03.20 10:38김우용

젠슨 황 CEO "블랙웰 칩 가격 3만~4만 달러"

엔비디아가 'GTC 2024'에서 선보인 차세대 인공지능(AI) GPU '블랙웰'(Blackwell)의 가격대가 공개됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 19일(현지시간) CNBC의 '스쿼크 온 더 스트리트'(Squawk on the Street)와의 인터뷰에서 블랙웰 'B200' 칩 가격이 3만~4만 달러(약 4천만 원~5천300만원) 수준이라고 밝혔다. 그는 "우리는 그것을 가능하게 하기 위해 몇 가지 새로운 기술을 개발해야 했다"며, 해당 칩의 연구개발에 약 100억 달러(약 13조 3천800억원)의 예산이 들어갔을 것으로 추정했다. 하루 전 엔비디아는 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"며 차세대 AI GPU 블랙웰을 공개했으나 가격대는 밝히지 않았다. 엔비디아의 기존 H100은 칩당 2만5천 달러~4만 달러에 달하는 것으로 알려져 있기 때문에 블랙웰 칩의 가격도 H100과 크게 다른 수준은 아닌 것으로 보인다. IT매체 톰스가이드는 엔비디아는 가속기 자체를 공급하는 것보다 데이터센터 블록 전체를 판매하는 경향이 있기 때문에 3만~4만 달러라는 가격은 대략적인 가격이라고 평했다.

2024.03.20 09:54이정현

SK하이닉스, 'GTC 2024'서 온디바이스 AI PC용 SSD 신제품 공개

SK하이닉스는 18일부터 21일(미국시간)까지 미국 캘리포니아주 새너제이에서 열리고 있는 엔비디아 주최 세계 최대 AI 개발자 컨퍼런스인 'GTC(GPU Technology Conference) 2024'에서 업계 최고 성능이 구현된 SSD 신제품인 'PCB01' 기반의 소비자용 제품을 공개했다고 20일 밝혔다. PCB01은 온디바이스(On-Device) AI PC에 탑재되는 PCIe 5세대 SSD로, 최근 글로벌 주요 고객사로부터 성능 및 안정성 검증을 마쳤다. SK하이닉스는 “올해 상반기 중 PCB01의 개발을 완료하고, 연내 대형 고객사향 제품과 일반 소비자용 제품을 함께 출시할 계획"이라고 설명했다. PCB01은 연속 읽기속도 초당 14GB(기가바이트), 연속 쓰기속도는 초당 12GB로 업계 최고 속도가 구현된 제품이다. 이전 세대 대비 2배 향상된 속도로, AI 학습과 추론에 필요한 거대언어모델(LLM)을 1초 내에 로딩하는 수준이다. PC 제조업체는 온디바이스 AI를 구현하기 위해 PC 내부 스토리지에 LLM을 저장하고, AI 작업이 시작되면 단시간 내 D램으로 데이터를 전송하는 구조로 설계한다. 이 과정에서 PC 내부에 탑재된 PCB01은 LLM 로딩을 신속하게 지원하면서 온디바이스 AI의 속도와 품질을 크게 높여주는 역할을 해줄 것으로 SK하이닉스는 기대하고 있다. PCB01은 이전 세대 대비 전력 효율이 30% 개선돼 대규모 AI 연산 작업 시 효율성을 높이는 데 기여한다. 또한 SK하이닉스 기술진은 이 제품에 'SLC 캐싱' 기술을 적용했다. SLC 캐싱은 낸드의 저장 영역인 셀 일부를 처리 속도가 빠른 SLC로 동작하게 해 필요한 데이터만 신속하게 읽고 쓸 수 있게 해주는 기술이다. 이를 통해 AI 서비스 외 일반 PC 작업 속도도 빨라지도록 도와준다. 윤재연 SK하이닉스 부사장(NAND Product Planning & Enablement 담당)은 “PCB01은 업계 최고 성능 제품으로 Al PC뿐 아니라 게이밍, 하이엔드 PC 등 최고 사양 PC 시장에서도 각광받을 것”이라며 “이를 통해 당사는 HBM은 물론, 온디바이스 AI 분야에서도 '글로벌 No.1 AI 메모리 컴퍼니' 위상을 탄탄하게 다질 수 있을 것”이라고 말했다. 한편 SK하이닉스는 GTC 2024에서 PCB01 외에도 36GB(기가바이트) 12단 HBM3E, CXL, GDDR7 등 차세대 주력 기술 및 제품을 선보였다. 앞서 회사는 지난 19일 세계 최초로 HBM 5세대 제품인 HBM3E의 양산에 들어간다고 발표한 바 있다. 또한 GDDR7은 이전 세대 제품인 GDDR6 대비 대역폭이 2배 이상 확대되고, 전력 효율성이 40% 개선돼 현장에서 큰 관심을 받았다.

2024.03.20 09:45장경윤

젠슨 황 CEO "삼성전자 HBM 테스트 중...기대 크다"

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자의 고대역폭 메모리(HBM)을 현재 테스트 중이며 기대가 크다고 말했다. 또 최근 관심이 쏠리고 있는 일반인공지능(AGI) 구현 시기에 대해선 "정의하기에 따라 다르다"고 밝혔다. 젠슨 황은 19일(현지시간) 미국 캘리포니아주 새너제이에서 열린 'GTC2024' 미디어 간담회에서 이같이 말했다. 이날 간담회에서 젠슨 황은 "AGI를 규정하는 명확한 개념은 없다"며 "AGI를 예측하는 시기는 사람마다 다를 수 있다"고 설명했다. 젠슨 황은 AGI 개념을 'AI가 사람보다 특정 테스트에서 8% 이상 우수한 상태'로 정의했다. 관련 테스트는 수학을 비롯한 읽기, 논리, 의학 시험, 변호사 시험이다. 그는 "현재 AI의 테스트 능력을 봤을 때, AGI는 이를 곧 따라잡을 것"이라며 "해당 조건에서 AGI는 5년 내 올 것 같다"고 예측했다. 젠슨 황은 생성형 AI의 환각 현상에 대해 "충분한 연구를 통해 해결할 수 있는 문제"라고 말했다. 그는 "생성형 AI에 규칙을 꾸준히 추가해야 한다"며 "AI는 모든 답을 하기 전에 이에 대한 근거까지 찾아야 한다"고 했다. 그는 "AI는 단순히 답변만 하는 것이 아니라 어떤 답이 가장 좋은지 판단해야 한다"며 "이를 위한 조사를 스스로 할 수 있는 검색증강생성(RAG) 능력이 뛰어나야 한다"고 강조했다. 황 CEO는 생성형 AI의 답변에 '당신의 질문에 대한 답을 찾지 못했습니다' 또는 '이 질문에 대한 정답이 무엇인지에 대한 합의에 도달할 수 없습니다' '아직 34대 대통령이 나오지 않았기 때문에 인물을 말할 수 없습니다'와 같은 옵션도 반드시 있어야 한다는 점도 덧붙였다. 이 외에도 젠슨 황 CEO는 삼성전자의 고대역폭 메모리 등을 사용하고 있진 않지만 현재 테스트 중"이라며 "기대가 크다"고 답했다. 이번 행사에서 엔비디아는 차세대 AI 그래픽처리장치(GPU) 블랙웰을 비롯한 옴니버스, 엔비디아 인퍼런스 마이크로서비스(NIM) 등 최신 기술을 소개했다.

2024.03.20 09:06김미정

레노버, 엔비디아와 하이브리드 AI 솔루션 공개

레노버는 18일(현지시간) 개최된 엔비디아 GTC에 참가하고 신규 하이브리드 AI 솔루션을 발표했다. 지난 레노버 테크 월드에서 발표한 엔비디아와 파트너십을 기반으로 양사는 기업들로 하여금 AI 시대에 필수적인 컴퓨팅 기술을 갖추고 새로운 AI 활용 사례를 효율적으로 개발 및 구현할 수 있도록 지원할 예정이다. 양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 이로써 레노버는 '모두를 위한 AI' 비전에 한 걸음 더 가까워졌을 뿐 아니라, 생성형 AI를 위한 획기적인 아키텍처의 시장 출시를 지원하게 됐다. 이제 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버와 같은 마이크로 서비스에 액세스할 수 있게 된다. 전 세계 산업들이 방대한 데이터를 분석하기 위해 AI를 사용하기 시작하면서, 컴퓨팅 집약적인 워크로드를 처리하기 위한 전력효율성도 강조되고 있다. 레노버는 효율적인 고성능 컴퓨팅(HPC)을 구현하는데 앞장서 왔으며, 엔비디아 GPU 디자인이 적용된 HPC는 그린500 리스트 1위를 차지했다. 레노버 넵튠 다이렉트 수냉식 기술을 적용한 해당 디자인은 고열 및 다중 GPU 환경에서도 낮은 온도를 유지하여 컴퓨팅 성능을 가속화한다. 레노버는 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개하며, 대규모 AI 워크로드를 효율적으로 처리해 내는 데 있어 획기적인 이정표를 세웠다. 해당 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다. 신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치 기술을 사용해 발열 문제없이 최대 성능을 유지할 수 있다. 10년간 사용된 레노버 넵튠 다이렉트 수냉식 기술은 온수 루프를 재활용하여 데이터 센터 시스템을 냉각하고, 기존 공랭 방식에 비해 최대 40%의 전력 소비 절감 및 3.5배의 열효율을 향상시킨다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 해당 시스템은 방대한 계산 능력을 제공하며, 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성됐다. 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 '엔비디아 AI 엔터프라이즈'를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 레노버 씽크시스템 AI 서버 포트폴리오에는 중앙 집중화된 리소스 관리 시스템을 제공하는 '레노버 엑스클라리티 관리 시스템'과 AI 모델 개발 및 훈련, HPC 워크로드를 위한 클러스터된 컴퓨팅 리소스 사용을 간소화하는 통합 플랫폼 '레노버 리코(LiCO)'가 포함되어 있다. 또한, 4세대 및 5세대 인텔 제온 스케일러블 프로세서를 지원하며, 고전력 GPU를 위한 써멀 헤드룸을 갖췄다. 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션 GPU를 제공해 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴로써 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원한다. 이제 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계돼, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 커크 스카우젠 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능의 경계를 허물고 있다”며 “생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”고 밝혔다. 그는 “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다”며 “레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것”이라고 강조했다. 밥 피트 엔비디아 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며 “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 밝혔다.

2024.03.19 13:54김우용

델테크놀로지스, 엔비디아 기반 'AI 팩토리 솔루션' 공개

델테크놀로지스는 엔비디아와 전략적 협력을 강화하고 '델 AI 팩토리 위드 엔비디아' 솔루션을 출시한다고 19일 밝혔다. '델 AI 팩토리 위드 엔비디아'는 델의 생성형 AI 솔루션 포트폴리오 중 하나로, 기업과 기관들이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것을 골자로 한다. 델과 엔비디아는 긴밀한 협력을 통해 델의 엔드투엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원에 나선다. '델 AI 팩토리 위드 엔비디아'는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 통합형 솔루션이다. 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다. '델 AI 팩토리 위드 엔비디아'는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 델테크놀로지스는 엔비디아와 협력해 '엔비디아 그레이스 블랙웰 슈퍼칩'을 기반으로 하는 랙 스케일 고밀도 수랭식 아키텍처를 채용할 예정이다. 이 시스템은 엔터프라이즈 AI 워크로드의 성능 집적도 향상을 위한 기반으로서 차세대 생태계를 지원하게 된다. 델 파워엣지 XE9680 서버는 '엔비디아 B200 텐서 코어 GPU'를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹 플랫폼도 지원할 예정이다. '검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션'은 '엔비디아 AI 엔터프라이즈'의 새로운 마이크로서비스를 활용해 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 '생성형 AI를 위한 델 프로페셔널 서비스'는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 '생성형 AI 데이터 보호를 위한 자문 서비스' 등을 포함한다. 젠슨 황 엔비디아 설립자 겸 CEO는 "AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것"이라며 "엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 밝혔다. 김경진 한국델테크놀로지스 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다”며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다. '델 AI 팩토리 위드 엔비디아'는 기존 채널 파트너를 통하거나, 또는 '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 엔비디아 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680 서버는 델 회계연도 2분기(5월~7월)에 출시되며, 엔비디아 B200 및 B100 GPU를 탑재한 XE9680 서버는 4분기(11월~내년 1월) 내에 출시될 예정이다. 'RAG를 위한 델과 엔비디아의 생성형 AI 솔루션'은 현재 기존 채널 파트너와 델 에이펙스를 통해 전 세계에서 구입할 수 있으며, '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 4월에 출시될 예정이다. 'RAG를 위한 델 구현 서비스'는 5월 31일부터 한국을 비롯한 일부 지역에서 제공되며, '모델 훈련을 위한 델 인프라스트럭처 구축 서비스'와 '델 생성형 AI 데이터 보안을 위한 자문 서비스'는 3월 29일부터 한국을 비롯한 일부 국가에서 출시될 예정이다.

2024.03.19 13:47김우용

엔비디아, 휴머노이드 로봇용 AI 플랫폼 '그루트' 공개

엔비디아가 휴머노이드 로봇 개발을 위한 인공지능(AI) 플랫폼 '그루트'(GROOT)를 발표했다고 테크크런치 등 외신들이 18일(현지시간) 보도했다. 젠슨 황 엔비디아 최고경영자(CEO)는 이날 미국 캘리포니아 주 새너제이에서 진행된 'GTC 2024' 행사에서 마블 영화에 나오는 캐릭터 '그루트'를 연상시키는 '프로젝트 그루트'를 공개했다. 엔비디아는 해당 플랫폼을 "휴머노이드 로봇을 위한 범용 기반 모델"이라고 칭했다. 젠슨 황은 프로젝트 그루트 기반으로 개발된 로봇이 여러 작업을 수행하는 모습을 보여주는 모습을 공개했다. 또, 엔비디아 자체적으로 직접 훈련시킨 로봇 '오렌지'와 '그레이'를 등장시켜 관심을 끌었다. 젠슨 황은 “해당 플랫폼으로 구동되는 로봇은 인간의 행동을 관찰해 자연어를 이해하고 움직임을 모방하도록 설계될 것”이라고 밝혔다. 또 “일반 휴머노이드 로봇을 위한 기초 모델을 구축하는 것은 오늘날 AI 분야에서 해결해야 할 가장 흥미로운 문제 중 하나”라고 덧붙였다. 엔비디아는 휴머노이드 로봇 개발을 위해 설계된 새로운 컴퓨팅 시스템 '젯슨 토르'(Jetson Thor)를 구축했다고 밝혔다. 여기에는 800테라플롭스(TFLOPS)의 AI 성능을 제공하는 변압기 엔진과 차세대 GPU인 '블랙웰'(Blackwell)이 탑재돼 안전 기능 프로세서, 고성능CPU 클러스터 및 100GB의 이더넷 대역폭을 지원한다. 또한 엔비디아는 로봇 팔을 위해 설계된 개선된 아이작(Isaac) 로봇 플랫폼을 함께 공개했다. IT매체 테크크런치는 향후 몇 년 동안 휴머노이드 로봇과 로봇 팔 등 시장의 열띤 경쟁이 펼쳐질 예정이며, 엔비디아가 이 시장에서 한 몫을 차지하려고 한다고 평했다.

2024.03.19 11:15이정현

지멘스, 엔비디아 '옴니버스'로 디지털 트윈 사용 확대

지멘스가 엔비디아와 협력을 강화하면서 산업용 메타버스 저변 확대에 나섰다. 지멘스는 미국 캘리포니아주 새너제이에서 열린 GTC2024'에서 '지멘스 엑셀러레이터' 플랫폼에 새로운 엔비디아 옴니버스 클라우드 API로 구동되는 몰입형 시각화를 도입한다고 19일 밝혔다. 이를 통해 인공지능(AI) 기반 디지털 트윈 기술의 사용을 확대할 방침이다. 이번 행사에서 지멘스와 엔비디아는 생성형 AI가 어떻게 사실적인 시각화를 구현할 수 있는지 시연했다. HD현대가 이를 활용해 새로운 선박을 설계하는 방법을 선보였다. 롤랜드 부쉬 지멘스 최고경영자(CEO)는 "산업용 메타버스로 가는 과정에서 차세대 산업용 소프트웨어(SW)를 통해 고객은 실제 세계와 마찬가지로 제품을 상황에 맞게 놀라운 현실감으로 경험할 수 있고, 향후 자연어 입력을 통해 제품과 상호 작용할 수 있을 것"이라며 "엔비디아와의 협력을 통해 지멘스 엑셀러레이터 포트폴리오 전반에 걸쳐 가속화된 컴퓨팅, 생성형 AI, 옴니버스 통합을 제공할 것"이라고 말했다. 젠슨 황 엔비디아 CEO는 "옴니버스와 생성형 AI는 기업의 대규모 혁신을 주도하고 있다"며 "지멘스는 고객에게 엔비디아 플랫폼을 제공함으로써 산업 리더들에게 AI 기반 차세대 디지털 트윈을 구축할 수 있는 새로운 기회의 장을 열었다"고 강조했다. 지멘스는 올해 말 지멘스 엑셀러레이더 플랫폼의 일부인 클라우드 기반 제품수명주기관리 SW '팀센터X'의 신제품을 출시할 예정이다. 엔비디아 옴니버스 기반 작동하는 제품이다. 엔지니어링 팀에 워크플로우 낭비와 오류를 없애는 매우 직관적이고 사실적인 실시간 물리 기반 디지털 트윈 생성 기능을 제공한다. 다양한 재료 정의, 조명 환경, 기타 지원 배경 에셋 등 사실적인 렌더링의 디테일을 설정하고 조정하는 작업이 생성형 AI를 통해 획기적으로 빨라질 전망이다. 이전에는 수일 걸리던 작업을 몇 시간으로 단축하며, 실제 세계에서 보이는 것처럼 컨텍스트화된 엔지니어링 데이터를 완성할 수 있다. 엔지니어링 외에도 영업과 마케팅 팀부터 의사 결정권자, 고객에 이르기까지 다양한 이해관계자들은 실제 제품 외관에 대한 심층적인 인사이트와 이해를 제공받게 됨으로써 더 많은 정보를 통해 더 빠르고 정확한 의사결정을 할 수 있다. 지멘스는 엔비디아와 협력해 지속 가능한 선박 제조 분야의 선두주자인 HD현대를 위한 실시간 사실적 시각화 기술을 시연했다. HD현대는 암모니아와 수소 동력을 사용하는 선박을 개발 중이며, 700만 개 이상의 개별 부품이 포함된 선박을 관리해야 하는 복잡한 공정을 거치고 있다. 지멘스의 신제품을 통해 이러한 방대한 엔지니어링 데이터 세트를 상호적으로 통합하고 시각화할 수 있다. 이태진 HD 현대 최고정보책임자(CIO) 겸 최고디지털책임자(CDO)는 "우리는 제품 라이프사이클 관리를 위해 오랫동안 지멘스 팀센터를 사용해 왔다"며 "이러한 신뢰를 바탕으로 한 이번 협업을 통해 우리는 선박의 디지털 트윈을 시각화하고 상호 작용하는 동시에 생성형 AI를 활용한 객체와 HDR 배경을 생성해 프로젝트에 대한 이해도를 높일 수 있을 것이다"고 밝혔다.

2024.03.19 10:06김미정

엔비디아, 생성형 AI·디지털 트윈 세계 확장했다

엔비디아가 생성형 인공지능(AI)과 디지털 트윈 세계를 확장한다. AI 추론 속도를 높였고, 협업을 통해 디지털 트윈 플랫폼 활용도까지 넓혔다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 GTC2024에서 AI 추론 속도를 높이는 소프트웨어 '엔비디아 인퍼런스 마이크로서비스(NIM)'와 디지털 트윈 플랫폼 '옴니버스' 업그레이드 내용을 발표했다. NIM은 생성형 AI 앱 개발·추론 속도를 높였다. 현재 개발자는 '엔비디아 AI 엔터프라이즈 버전 5.0'에서 NIM을 활용할 수 있다. 옴니버스는 PC를 넘어 애플의 '애플 비전프로'에 들어갔다. "NIM으로 생성형 AI 앱 구축·배포 더 빠르게" 엔비디아는 개발자가 생성형 AI 앱을 빠르게 구축·배포할 수 있도록 돕는 솔루션 NIM을 내놨다. NIM은 AI 모델과 통합 코드를 포함해 추론에 필요한 기능을 패키지 형태로 제공한다. 보통 개발자가 생성형 AI 앱이나 거대언어모델(LLM)을 제작한 후 배포할 때 복잡한 과정을 거쳐야 한다. 추론 작업에 필요한 하드웨어 크기 조정, 검색증강생성(RAG)용 데이터 통합, 랭체인 같은 도구를 통한 엔지니어링 작업을 별도로 진행해야 한다. 이는 업무 시간과 비용이 많이 든다. 해당 과정에 데이터 과학자도 필수다. 반면 NIM은 이러한 과정을 한 플랫폼 내에서 간소화할 수 있다. 엔비디아 마누비르 다스 엔터프라이즈 컴퓨팅담당 부사장은 이번 행사에서 "NIM은 이러한 모든 번거로운 과정을 생략하고 한 플랫폼 내에서 모든 작업을 처리할 수 있도록 한다"며 "이를 통해 개발자는 NIM을 통해 생성형 AI 앱을 구축하자마자 별도의 과정 없이 바로 배포 단계에 들어설 수 있다"고 강조했다. NIM은 생성형 AI 앱 개발에 필요한 모든 작업을 한데 모아 패키지로 구성된 셈이다. 고객은 NIM을 통해 오픈AI, 메타, 미스트랄 등의 다양한 독점·오픈 소스 LLM에 접근할 수도 있다. NIM은 보안 기능도 갖췄다. 다스 부사장은 "클라우드에서 실행되는 대형 H100부터 엣지에서 진행되는 엔비디아 젯슨 같은 소형 제품까지 다양한 엔비디아 그래픽처리장치(GPU)에서 작동하는 모델 보안 문제도 바로 잡았다"며 "개발자는 NIM에서 걱정 없이 생성형 AI 앱 개발 과정만 진행하기만 하면 된다"고 강조했다. 다스 부사장은 "엔비디아는 개발자가 수행해야 하는 개발 작업의 양을 줄이고 속도를 높도록 도울 것"이라며 "이를 통해 기업은 막 개발한 생성형 AI 앱을 몇분 만에 배포 가능한 상태로 전환할 수 있다"고 강조했다. 현재 NIM을 탑재한 엔비디아 AI 엔터프라이즈 가격은 GPU당 연간 4천500달러(약 602만원)다. 고객은 시간당 GPU 1달러(약 1천337원)로 클라우드를 통해 접근할 수도 있다. 디지털 트윈 플랫폼 '옴니버스', 애플 비전프로 속으로 엔비디아는 디지털 트윈 플랫폼 '옴니버스'를 애플의 '애플 비전프로'에 탑재한다고 밝혔다. 사용자는 애플 비전프로를 통해 다양한 산업에서 디지털 트윈 기술을 활용할 수 있다. 활용법은 간단하다. 옴니버스 클라우드 API를 통해 접속한 후, 애플비전 프로로 직접 스트리밍해 주는 그래픽 전송 네트워크를 통해 디지털 트윈 기능을 이용할 수 있다. 엔비디아 레바레디언 시뮬레이션 담당 부사장은 "기업 고객은 애플 비전프로를 통해 성능 저하 없이 디지털 트윈 작업을 실현할 수 있다"며 "이를 옴니버스 내에서 활용한다면 더욱 확장된 기능에 접근할 수 있다"고 강조했다. 이번 행사에서 엔비디아는 직접 옴니버스가 설치된 애플 비전프로로 디지털 트윈 기술을 선보이는 시연회도 진행했다. 한 디자이너가 비전 프로를 통해 자동차 제작 프로그램에 접속하는 시연이었다. 개발자가 차량의 다양한 측면을 옴니버스로 설계·조작한 후 해당 차량에 탑승하는 장면을 보여줬다. 외신은 이번 솔루션 결합은 엔비디아와 애플 모두에게 이득이라고 판단했다. 우선 엔비디아는 옴니버스 고객층을 늘릴 수 있다. PC뿐 아니라 애플 비전프로 사용자도 자사 고객으로 만들 수 있기 때문이다. 애플도 마찬가지다. 기업들이 비전프로를 다양한 산업에서 활용할 가능성이 높아졌다. 그동안 해당 제품은 개인의 엔터테인먼트용으로만 활용됐다. 다만 3천499 달러(약 4백67만원)라는 가격 장벽으로 인해 판매량을 좀처럼 늘릴 수 없었다. 두 기업의 솔루션 통합으로 새로운 고객층을 만들 수 있는 셈이다.

2024.03.19 10:01김미정

엔비디아, DGX B200에 인텔 제온 5세대 프로세서 채택

엔비디아가 19일(미국 현지시간 18일) 공개한 AI 연산 플랫폼 'DGX B200'에 인텔 5세대 제온 프로세서(에메랄드래피즈)를 탑재했다. DGX B200은 x86 기반 생성 AI를 처리하기 위한 플랫폼이다. 차세대 AI GPU인 블랙웰 B200 텐서코어 GPU를 8개 탑재했고 AI 모델 훈련 속도는 최대 72페타플롭스(PFLOPS), 추론 속도는 최대 144 페타플롭스다. 엔비디아는 DGX B200을 구성하는 x86 프로세서로 인텔 5세대 제온 프로세서인 '제온 플래티넘 8570' 프로세서 두 개를 탑재했다. 제온 플래티넘 8570은 기본 작동 클록 2.1GHz, 최대 작동 클록 4GHz이며 캐시 메모리 300MB를 탑재했다. DGX H100에 탑재된 제온 플래티넘 8480C(기본 2.0GHz, 최대 3.8GHz, 캐시 메모리 105MB) 대비 작동 클록이 향상됐고 캐시 메모리는 3배 늘어났다. 인텔 4세대/5세대 제온 프로세서는 소켓 차원에서 호환 가능하며 기존 서버 업체가 개발한 서버에서 프로세서만 교체해 업그레이드 가능하다. 엔비디아는 2020년 출시된 DGX A100에 AMD 2세대 에픽(EPYC) 프로세서를 탑재했지만 지난 해 1월 출시한 DGX H100부터 인텔 제온 프로세서로 전환했다. 2022년 6월 젠슨황 엔비디아 CEO는 "인텔 제온 스케일러블 프로세서는 뛰어난 싱글스레드(1코어) 성능을 지녔다"고 선정 동기를 밝힌 바 있다. 엔비디아 DGX B200은 올해 안에 출시 예정이며 가격은 미정.

2024.03.19 08:22권봉석

TSMC·시높시스, 엔비디아 cu리소로 포토마스크 생성 공정 가속

엔비디아가 18일(미국 현지시간) 전세계 1위 파운드리 업체인 대만 TSMC, 전자설계자동화(EDA) 업체인 시높시스와 협력해 반도체 생산 공정에 필요한 포토마스크 생성 과정을 가속할 것이라고 밝혔다. 컴퓨테이셔널 리소그래피(Computational Lithography)는 반도체 식각 공정에 쓰이는 포토마스크 생산에 컴퓨터 연산을 활용한다. 마스크에 새긴 패턴을 실제 반도체 웨이퍼에 새길 때 발생할 수 있는 왜곡을 미리 보정하는 OPC 연산에 CPU와 GPU 등을 활용한다. 엔비디아는 지난 해 GPU와 쿠다(CUDA)를 이용해 이를 가속할 수 있는 소프트웨어 라이브러리인 cu리소(cuLitho)를 개발했다 엔비디아는 "4만 개의 CPU로 구성된 클러스터에서 컴퓨테이셔널 리소그래피를 실행할 경우 포토마스크 한 장을 생성하는 데 2주 이상 걸린다. 그러나 엔비디아 H100 시스템 350개로 구성한 시스템에서 cu리소를 활용하면 이를 하루 안에 끝낼 수 있다"고 설명했다. 시높시스는 포토마스크 합성용 소프트웨어 '프로테우스'에 엔비디아 cu리소를 적용했고 기존 CPU 연산 대비 연산 시간을 줄이면서 정확도를 높였다. TSMC도 cu리소 활용 결과 작업 속도를 45배에서 60배 가량 향상됐다고 밝혔다. TSMC와 시높시스는 엔비디아 cu리소(cuLitho)를 소프트웨어에 통합하고 향후 초미세공정 반도체 설계와 생산에 활용할 예정이다.

2024.03.19 07:40권봉석

엔비디아, 차세대 AI GPU 플랫폼 '블랙웰' 공개

엔비디아가 18일 오후(현지시간, 한국시간 19일 오전 5시) 미국 캘리포니아 주 새너제이에서 진행된 GTC 2024 기조연설을 통해 차세대 AI GPU '블랙웰'(Blackwell)을 공개했다. 엔비디아는 차세대 AI 칩에 게임 이론, 확률론, 정보 이론 등을 확립한 20세기 미국인 수학자인 데이빗 해럴드 블랙웰(1919-2010)의 이름을 따왔다. 젠슨 황 엔비디아 CEO는 이날 기조연설에서 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"고 밝혔다. 블랙웰 GPU는 대만 TSMC의 4나노급 공정(4NP)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동한다. 최대 576개의 GPU 사이에서 양방향으로 초당 1.8TB 데이터를 주고 받는 연결 통로인 5세대 NV링크, 장시간 구동되는 데이터센터 환경에서 GPU와 메모리 신뢰성을 검증하는 AI 기반 RAS 엔진, 민감한 데이터를 암호화하고 신뢰성을 보장하는 시큐어 AI 등이 내장됐다. 블랙웰 두 개와 그레이스(Grace) CPU 한 개로 GB200이 구성된다. 이를 36개 모은 GB200 NVL72는 초당 1.4엑사플롭스 AI 연산이 가능하며 HBM3e 메모리를 30TB 내장한다. 엔비디아는 H100 36개로 구성된 기존 시스템 대비 LLM(거대언어모델) 처리 속도를 최대 30배 향상했다고 밝혔다. 엔비디아는 인텔 제온·AMD 에픽 등 기존 x86 기반 프로세서를 활용할 수 있는 가속기인 HGX B200도 출시할 예정이다. B200 텐서코어 GPU를 8개 내장했고 엔비디아 퀀텀2 이더넷 네트워크를 이용해 초당 최대 400Gbps로 데이터를 전송한다. 블랙웰은 올해 안에 출시될 예정이다. 시스코, 델테크놀로지스, HPE, 레노버, 슈퍼마이크로 등 주요 서버 업체 역시 블랙웰 기반 서버를 공급 예정이다. 엔비디아는 자체 운영하는 DGX 클라우드 이외에 AWS(아마존 웹 서비스), 구글 클라우드, 마이크로소프트 애저 등 전세계 주요 클라우드 사업자를 통해 블랙웰 인스턴스를 제공할 예정이다.

2024.03.19 07:05권봉석

[유미's 픽] AI 강자 엔비디아, GTC서 AI SW 청사진 펼칠까

인공지능(AI) 대장주인 엔비디아가 연례 개발자 콘퍼런스(GTC 2024)에서 '종합 AI 솔루션 기업'으로 진화하기 위한 구체적인 계획을 공개할 지 주목된다. 생성AI 학습에 필수인 그래픽처리장치(GPU) 시장을 독점한 이곳이 디지털 트윈 시장을 노린 '엔비디아 옴니버스'와 생성형 AI 구축 프레임워크 '니모', 프로그래밍 플랫폼 '쿠다' 등을 앞세워 소프트웨어 시장에서도 'AI 강자'로 우뚝 설 수 있을지 기대된다. 엔비디아는 18일(현지시간)부터 21일까지 미국 캘리포니아주 새너제이에서 'GTC(GPU Technology Conference) 2024'를 통해 새로운 AI 소프트웨어 전략을 공개할 예정이다. GTC는 엔비디아가 매년 개최하는 콘퍼런스로, AI 관련 시장 동향과 미래 기술을 한 자리에서 살펴볼 수 있다는 점에서 업계의 관심이 높다. 젠슨 황 엔비디아 최고경영자(CEO)는 행사 첫날 새너제이 SAP 센터에서 기조연설을 한다. 산업계에서 AI 개발, 도입 논의가 활발한 만큼 최신 기술 동향을 발표할 것으로 예상된다. 지난해 같은 행사에서 젠슨 황 CEO는 AI 모델 훈련용 소프트웨어를 클라우드 기반으로 제공하는 'DGX 클라우드'를 공개한 바 있다. 이번 GTC에선 새로운 AI 칩인 'B100'과 블랙웰 그래픽스 아키텍처를 공개할 뿐 아니라 자사 AI 소프트웨어 전략과 관련해서도 발표할 예정이다. 특히 업계에서 가장 기대를 모으는 것은 엔비디아 GPU 경쟁력을 높여주는 소프트웨어 생태계인 '쿠다'의 최신 버전 공개 여부다. '쿠다'는 엔비디아의 GPU에서 작동하는 프로그래밍 툴로, GPU의 코어를 활용해 병렬 작업을 수행하며 CPU에 비해 단순한 대규모 데이터 처리를 신속하게 처리하도록 지원한다. 과학 및 엔지니어링, 딥러닝 및 인공지능, 의료 영상 처리, 금융 모델링 등 다양한 분야에서 활용되고 있으며 엔비디아 생태계의 핵심으로도 불린다. 2006년 등장 이후에는 엔비디아의 지속적인 지원과 개발자들의 참여가 확대되며 발전해왔다. 젠슨 황 CEO는 10년간 쿠다에 300억 달러를 투자했다. 업계 관계자는 "개발자들은 쿠다에서 AI 애플리케이션들을 개발하는데 익숙해져 엔비디아의 GPU 사용을 지속하는 경향을 보인다"며 "쿠다는 다른 경쟁사가 AI 칩 시장에 쉽게 진입하지 못하도록 방어하는 해자 역할도 한다는 점에서 이번에 엔비디아가 어떤 변화를 줄 지 기대된다"고 말했다. 엔비디아는 디지털 트윈 시장을 겨냥해 선보인 '엔비디아 옴니버스'의 성과도 이번에 발표할 것으로 보인다. 디지털 트윈은 현실의 기계나 장비를 컴퓨터 속 가상 세계에 똑같이 구현하는 기술로, 실제 제품을 만들기 전 모의시험을 통해 문제점을 파악하고 해결하기 위해 활용된다. '엔비디아 옴니버스'는 제조, 조립시설 설계, 협업, 계획, 운영 등을 지원하는 3D 플랫폼이다. 엔디비아 옴니버스는 현재 다양한 기업들을 통해 활용되고 있는데 아마존, 메르세데스 벤츠가 대표적이다. 아마존은 창고 설계를 시뮬레이션하고 로봇 워크 스테이션을 최적화 하기 위해 이 플랫폼을 활용하고 있고, 메르세데스 벤츠는 제조 조립 시설 설계에 이를 적용시켰다. 이번 GTC에선 삼성전자도 '엔비디아 옴니버스' 도입을 공식화 한다. 발표자로 나설 윤석진 삼성전자 상무는 '옴니버스 기반의 디지털 트윈 팹'이라는 주제를 앞세워 디지털 트윈 반도체 공장을 소개할 것으로 알려졌다. 또 수년 내 시험 라인에 이 솔루션을 도입한다는 계획도 구체적으로 밝힐 예정이다. 삼성전자 반도체 사업을 담당하는 DS부문은 2030년 안에 디지털 트윈을 완성하겠다는 청사진을 마련한 것으로 전해졌다. 엔비디아가 지난해 말 아마존웹서비스(AWS)와 전략적 협력을 확대하며 밝혔던 계획들이 얼마나 구체화 됐을 지도 관심사다. 당시 엔비디아는 DGX 클라우드에 1조 개 이상의 매개변수를 처리할 수 있는 생성형 AI와 LLM 학습을 AWS로부터 지원 받게 됐다. 또 엔비디아는 챗봇 등 생성형 AI 툴 개발자를 지원하기 위해 자사의 니모 리트리버(NeMo Retriever) 마이크로서비스를 AWS에 통합키로 한 바 있다. 니모 리트리버는 기업이 맞춤형 LLM을 자사 데이터에 연결할 수 있는 생성형 AI 마이크로서비스다. 실시간 데이터 관리 전문기업 데이터스택스와 최근 협업에 나선 것도 AI 소프트웨어 사업을 더 강화하기 위한 움직임으로 분석된다. 데이터스택스는 카산드라 DB 및 펄사 스트리밍 플랫폼에 대한 기술 지원과 솔루션을 제공하는 곳이다. 오픈소스 데이터베이스관리시스템(DBMS)인 카산드라DB의 서비스형 DB(DBaaS) 솔루션 '아스트라(Astra) DB', 아스트라 스트리밍, 카산드라 DB 패키징을 통해 업그레이드된 기능과 기술지원을 제공하는 데이터스택스 엔터프라이즈 서브스크립션, 유료 기술지원 서비스 루나(LUNA) 등이 주요 비즈니스다. 엔비디아는 이와 관련해 새로운 AI 소프트웨어를 선보일 예정이다. 카리 브리스키 엔비디아 AI 소프트웨어 담당 부사장은 "기업들은 방대한 양의 비정형 데이터를 활용해 보다 진보된 생성형 AI 앱을 구축하고자 한다"며 "엔비디아가 새롭게 선보일 NIM과 니모 리트리버 마이크로서비스, 데이터스택스 아스트라 DB의 통합을 통해 기업은 지연 시간을 크게 줄이고 AI 기반 데이터 솔루션의 성능을 최대한 활용할 수 있을 것"이라고 밝혔다. 업계에선 올해 GTC를 'AI 우드스톡(미국 유명 록 페스티벌)'이라고 정의하며 엔비디아의 이번 발표 내용에 기대감을 드러내고 있다. 엔비디아가 AI 열풍에 힘입어 뉴욕증시를 견인하는 대표 기업이 된 이후 GTC가 열린다는 점에서 주목도도 남다르다. 뱅크오브아메리카(BoA)는 "이번 GTC에서 엔비디아가 다양한 산업에서의 생성형AI, 옴니버스 및 디지털 트윈의 영향력 증가 등 주요 개발사항을 강조하고, B100, N100 등 제품 업데이트를 제공할 것"이라며 "잠재적으로 회사 수익 증가로 이어질 수 있음을 시사한다"고 평가했다.

2024.03.18 18:09장유미

두산, 엔비디아 차세대 AI반도체용 'CCL' 공급업체 단독 진입

두산이 최근 엔비디아 차세대 AI 반도체용 핵심 소재의 단일 공급업체로 진입한 것으로 파악됐다. 기존 공급망을 주도하던 대만 경쟁사를 밀어내고 이뤄낸 성과다. 14일 업계에 따르면 두산전자는 엔비디아의 최신형 AI 반도체인 'B100'용 CCL(동박적층판) 공급업체로 단독 진입했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나다. 수지, 유리섬유, 충진재, 기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 두산은 계열사인 두산전자를 통해 메모리, 전자기기, 통신 등 다양한 용도의 CCL을 생산하고 있다. 기술적 난이도가 높은 IC(직접회로) 패키징용 CCL도 개발해 왔다. 앞서 두산은 지난해 중반 엔비디아의 AI반도체 기판용 CCL 공급업체로 첫 진입한 바 있다. 해당 CCL은 엔비디아가 지난해 하반기 공개한 고성능 GPU(그래픽처리장치)인 H시리즈(H100, H200 등)용이다. 당시 엔비디아의 CCL 공급망을 주도하고 있던 대만 엘리트머티리얼즈(EMC)의 틈을 파고 든 성과다. 나아가 두산은 최근 엔비디아의 'B100'용 CCL 공급업체로도 진입했다. B100은 엔비디아가 올해 4분기 출시할 예정인 차세대 제품으로, 전작 H200 대비 성능을 2배가량 끌어 올린 것이 특징이다. 특히 업계는 두산이 B100용 CCL 공급업체로 단독 진입했다는 점에 주목한다. EMC는 현재까지 공급이 확정되지 않은 것으로 알려졌다. 엔비디아가 공급망 형성에서 품질을 최우선순위로 두고 있는 만큼, 두산의 CCL 기술력이 인정을 받았다는 평가가 나온다. 매출 면에서도 유의미한 성과가 나올 것으로 전망된다. 두산이 지난해 엔비디아 공급망에 진입하기는 했으나, 실제 공급 물량이 적어 매출은 수십억 원 규모에 그친 것으로 전해진다. 이번 단독 공급 체제를 유지할 경우, 매출은 크게 확대될 가능성이 높다. 두산은 이와 관련해 "고객사와 관련된 사안은 확인해줄 수 없다"고 밝혔다.

2024.03.14 11:37장경윤

래블업, 엔비디아 GTC 2024에 실버스폰서로 참가

래블업은 오는 18일부터 21일까지 미국 새너제이 컨벤션센터에서 열리는 엔비디아의 'GTC 2024' 컨퍼런스에 실버 스폰서로 참가한다고 14일 밝혔다. 엔비디아의 GTC 행사는 5년 만에 대면 행사로 개최된다. 30만 명 이상의 참가자가 온·오프라인으로 참여할 것으로 기대되는 GPU 분야에서 가장 큰 기술 행사다. 래블업은 이번 컨퍼런스에서 AI 기술의 최전선에 서 있는 두 가지 주제에 대해 발표할 예정이다. 첫 번째 발표 'From Idea To Crowd: Manipulating Local LLMs At Scale'을 래블업 신정규 대표와 김준기 CTO가 진행하며, 이 세션에서 양자화, QLoRA 등의 리소스 절약 및 모델 압축 기술과 vLLM, TensorRT-LLM 결합을 통해 백엔드닷AI가 어떻게 대규모 로컬 LLM을 효율적으로 조작하는지 소개한다. 이는 AI 모델의 성능을 최적화하고, 리소스 사용을 최소화하는 혁신적인 접근 방식을 제공할 예정이다. 김준기 CTO는 두 번째 발표인 'Personalized Generative AI: Operation and Fine-Tuning in Household Form Factors'를 20일에 진행한다. 이 세션에서 클라우드 및 개인 PC의 GPU를 이용하여 사용자 맞춤형 생성형 AI를 개발하고 서비스할 수 있는 방법을 시연한다. AI 기술을 일상 생활에 더욱 밀접하게 통합하는 개인화된 AI의 새로운 가능성을 제시할 예정이다. 래블업은 전시부스에서 APAC 지역 유일의 엔비디아 DGX레디 소프트웨어인 백엔드닷AI 엔터프라이즈를 시연한다. 백엔드닷AI는 엔비디아 DGX 시스템 및 기타 GPU 가속 컴퓨팅 리소스의 성능을 극대화하며, 사용자 환경을 변경하지 않고도 GPU 사용성을 높여주는 AI 인프라 운영 플랫폼이다. 부스에서 생성 AI 개발을 간소화하고 자동화하는 ML옵스 소프트웨어 플랫폼인 '패스트트랙'으로 파운데이션 모델을 다양한 산업 분야에 특화하거나 나만의 챗봇으로 자동 미세 조정하는 실시간 시연도 제공된다. 래블업 측은 “MWC에 이어 이번 GTC에서 엔비디아 및 델, AMAX, 웨카 같은 글로벌 파트너사와 협력을 강화하며 함께 본격적인 글로벌 진출을 꾀할 예정”이라고 밝혔다.

2024.03.14 10:50김우용

[미장브리핑] 재닛 옐런 "코로나19 전으로 금리 내려갈 가능성 낮아"

◇ 13일(현지시간) 미국 증시 ▲다우존스산업평균(다우)지수 전 거래일 대비 0.10% 상승한 39043.32. ▲스탠다드앤푸어스(S&P)500 지수 전 거래일 대비 0.19% 하락한 5165.31. ▲나스닥 지수 전 거래일 대비 0.54% 하락한 16177.77. ▲기술주 강세로 상승했던 S&P500, 나스닥 지수가 하락 마감. 엔비디아 1.1%, 메타 0.8%, 애플 1.2% 하락 영향. 웰스 엔헨스먼트 그룹 요시오카 아야코 수석 포트폴리오 매니저는 CNBC에 "시장은 2월 소비자물가지수(CPI) 데이터에 안도했지만 여전히 신중한 상황"이라며 "미국 연방준비제도(연준)의 통화정책 등에 대한 것이 단기적으로 주가에 중요한 이슈가 될 것"이라고 말해. 오는 19일 공개시장위원회(FOMC) 결정에 대해 경계심이 지속될 것이라고 봐. ▲재닛 옐런 미국 재무장관은 시장 금리가 코로나19 대유행으로 인플레이션과 수익률 상승이 촉발되기 전 수준으로 돌아갈 가능성은 낮다고 말해. 10년 만기 미국 재무부 채권의 수익률은 2019년까지 10년 동안 평균 2.39%로 낮아. 지난해 10월 5% 이상으로 치솟았고 현재는 4.2% 수준.

2024.03.14 08:00손희연

트렌드포스 "HBM3E, SK하이닉스가 선두...삼성, 하반기에 격차 줄인다"

고대역폭메모리(HBM) 경쟁에서 SK하이닉스가 고객사인 엔비디아에 가장 먼저 HBM3E를 대량 공급하며 선두를 달리는 것으로 파악된다. 삼성전자는 HBM3E 공급이 다소 늦었지만, 연말까지 SK하이닉스와 격차를 상당부분 좁힐 수 있다는 분석이 나온다. 13일 시장조사업체 트렌드포스에 따르면 SK하이닉스는 1분기에 8단 24GB(기가바이트) HBM3E가 고객사 엔비디아의 검증을 통과하며 양산을 시작했다. 마이크론은 엔비디아가 2분기 말에 H200 출시한다는 계획에 맞춰, 1분기 말에 8단 24GB HBM3E를 공급할 계획이다. 샘플 제출이 다소 늦은 삼성전자는 1분기 말까지 검증을 완료하고, 2분기에 8단 24GB HBM3E 출하를 시작할 것으로 예상된다. 트렌드포스는 “삼성전자는 이미 HBM3에서 상당한 진전을 이뤘다”라며 “HBM3E 검증이 곧 완료될 것으로 예상되며, 연말까지 SK하이닉스와의 시장 점유율 격차를 크게 줄여 HBM 시장의 경쟁 구도를 재편할 태세다”고 진단했다. HBM은 여러 개 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 고성능 제품이다. HBM은 AI 반도체 시장 성장으로 인해 수요가 증가하고 있다. HBM은 1세대(HBM)·2세대(HBM2)·3세대(HBM2E)에 이어 4세대(HBM3) 제품이 공급되고 있으며, 올해부터 5세대(HBM3E) 양산이 시작된다. AI 칩 선두주자인 엔비디아는 AI 반도체로 사용되는 그래픽처리장치(GPU) 시장에서 80% 점유율로 사실상을 독점체제를 구축하고 있다. 메모리 업체 입장에서는 대형 고객사인 엔비디아의 공급 물량을 확보하는 것이 경쟁의 승부를 가르는 '절대 반지'일 수밖에 없다. SK하이닉스는 가장 먼저 HBM3 양산과 동시에 엔비디아에 독점 공급권을 따내면서 HBM 시장에서 선두를 달려왔다. 하지만 최근 엔비디아가 공급망 관리를 위해 HBM3E 탑재부터 공급망을 다변화하기로 결정하면서 메모리 업체 간 경쟁이 치열해 졌다. 엔비디아는 올해 2분기 말에 HBM3E 6개가 탑재된 'H200' 칩을, 하반기에는 HBM3E 8개가 탑재된 'B100' 칩을 출시할 예정이다. 이에 지난해 7월 마이크론은 업계에서 가장 먼저 HBM3E 샘플을 엔비디아에 제공했고, 8월 중순에는 SK하이닉스가, 10월 초에는 삼성전자가 각각 샘플을 보냈다. 후발주자인 마이크론은 HBM3을 건너 뛰고 HBM3E를 시작했다는 점에서 주목된다. 트렌드포스는 삼성전자가 HBM3에서도 입지가 강화되고 있다고 평가했다. 보고서는 “삼성전자의 HBM3은 1분기에 AMD의 MI300 GPU로부터 인증을 획득하면서 AMD의 중요한 공급업체로 자리매김했다”며 “이는 삼성이 1분기부터 HBM3 생산량을 늘릴 수 있는 길을 열어준다. 특히 마이크론이 HBM3에 진출하지 않아 SK하이닉스와 삼성이 핵심 플레이라는 점은 주목할만 하다”고 말했다. AMD는 올 하반기에는 HBM3E가 탑재된 'MI350'을 출시할 계획이다. 그 밖에 인텔 하바나, 메타, 구글, 아마존웹서비스(AWS) 등도 HBM3 수급에 나서고 있다.

2024.03.13 18:15이나리

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 2분기 영업이익 반토막...美 트럼프 관세 영향

"韓 판매자 수수료 4%"...알리바바닷컴, 중소기업 수출 더 세게 돕는다

정부 요청에…유통업계, 라면·빵·커피 등 ‘최대 반값 할인’

LG엔솔, IRA 세액공제 없이 흑자 달성…저점 통과 기대↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.