• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (611건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"엔비디아에 대항"…인텔·퀄컴·구글, AI연합 추진

엔비디아 생태계에 맞서기 위해 구글과 인텔, 퀄컴 등이 손을 잡았다. 로이터통신은 25일(현지시간) 소식통을 인용해 작년 9월 퀄컴과 구글, 인텔 등이 'UXL 재단'이라는 기술 컨소시엄을 구성해 '원API'라는 오픈소스 프로젝트를 추진하고 있다고 보도했다. 해당 프로젝트는 어떤 반도체 칩이나 하드웨어에 상관없이 모든 컴퓨터에서 구동하는 소프트웨어를 구축하는 것을 목표로 하고 있다. 이 같은 움직임은 400만 명이 넘는 개발자들이 인공지능(AI) 앱 개발을 위해 사용하는 쿠다(CUDA) 소프트웨어 플랫폼에 대항하기 위한 움직임이다. 쿠다로 만든 플랫폼은 엔비디아의 GPU에서만 돌아간다. 그렇기 때문에 그 동안 대부분의 AI 개발자들은 AI 반도체도 엔비디아 GPU만을 사용해야만 했다. 퀄컴의 AI·머신러닝 책임자 비네쉬 수크마르(Vinesh Sukumar)는 인터뷰를 통해 "실제로 개발자들에게 엔비디아 플랫폼에서 마이그레이션하는 방법을 보여주고 있다"고 밝혔다. 구글의 고성능 컴퓨팅 담당 최고 기술 전문가 빌 마그로(Bill Magro)는 "UXL재단은 머신러닝 프레임워크 관점에서 개방형 생태계를 구축하고 생산성 및 하드웨어 선택을 촉진할 수 있는 지에 관한 것"고 밝혔다. 또, 그는 구글은 UXL 재단의 창립 멤버 중 하나이며 프로젝트의 기술적 방향을 결정하는 데 도움을 주고 있다고 설명했다. UXL 기술운영위원회는 올해 상반기까지 기술적 사양 확정하고 올해 말에는 기술적 세부 사항을 '성숙한' 상태로 개선할 계획이라고 밝혔다. 또, 해당 프로젝트 초기에는 AI 앱과 고성능 컴퓨팅 애플리케이션에 대한 옵션을 개방하는 것을 목표로 할 예정이지만, 궁극적으로는 엔비디아의 하드웨어와 코드도 지원할 계획이라고 밝혔다. UXL은 향후 해당 소프트웨어가 모든 칩이나 하드웨어에 배포될 수 있도록 추가 칩 제조사와 마이크로소프트(MS)나 아마존 등의 클라우드 컴퓨팅 회사의 동참을 요청할 예정이다. 아직 UXL 연합에 속하지 않은 MS의 경우, 엔비디아의 독점에 대항할 수 있는 대체 AI 칩을 개발하기 위해 작년에 AMD와 협력 했다는 소문이 돌기도 했다.

2024.03.26 15:16이정현

앤시스, 엔비디아와 생성형AI 시뮬레이션 개발 협력

앤시스가 엔비디아와 협력해 생성형 AI 기반의 차세대 시뮬레이션 솔루션 개발에 집중한다. 앤시스코리아(대표 박주일)는 최첨단 기술을 융합해 6G 통신 기술을 고도화하고 엔비디아 그래픽처리장치(GPU)를 통해 앤시스 솔버를 강화한다고 25일 밝혔다. 앤시스의 소프트웨어에 엔비디아 AI를 통합하고 물리 기반 디지털 트윈을 개발하며 엔비디아 AI 파운드리 서비스로 개발된 맞춤형 거대언어모델(LLM)을 사용할 예정이다. 앤시스는 포트폴리오 전반에 걸쳐 데이터 상호운용성을 강화하고 향상된 그래픽과 비주얼 렌더링을 제공하기 위해 오픈USD 얼라이언스(AOUSD)에 가입했다. 엔비디아 옴니버스 플랫폼에 기반한 엔비디아 드라이브 심에 앤시스 AV엑셀러레이트 오토노미를 연동했으며 앤시스 STK, 앤시스 LS-DYNA, 앤시스 플루언트 및 앤시스 퍼시브 EM 등의 추가 연동을 검토하고 있다. 이를 통해 강화된 상호운용성을 바탕으로 사용자는 광범위한 수준에 걸친 다양한 시뮬레이션 과제를 해결할 수 있다. 이번 협력에서는 옴니버스(Omniverse) 통합 외에도 가속 컴퓨팅, 6G 통신, AI 강화 시뮬레이션, AI 파운드리 등 네 가지 분야에서의 발전에 주력할 예정이다. 아제이 고팔 앤시스 최고경영자(CEO)는 “비디아 옴니버스의 역동적인 영역 내에서 우리의 고객들이 가상과 현실을 연결함으로써 미래 기술 개발을 비롯한 혁신을 현실화해 우리 시대의 가장 시급한 엔지니어링 과제를 해결할 수 있을 것이라 믿어 의심치 않는다”고 밝혔다. 젠슨 황 엔비디아 최고경영자(CEO)는 “중공업 업계 내 전세계의 설계자와 엔지니어는 현재 시뮬레이션 엔진으로 앤시스를 사용하고 있다”며 "앤시스와 협력해 이러한 대규모 작업에 가속 컴퓨팅 및 생성형 AI를 제공하고, 엔비디아 옴니버스 디지털화 기술로 앤시스의 선도적인 물리 기반 시뮬레이션 도구를 확장할 수 있도록 협력을 이어갈 것”이라고 말했다.

2024.03.25 16:22남혁우

"국내 최대 AI인프라 구축한, NHN 클라우드 글로벌 간다"

김동훈 엔에이치엔(NHN) 클라우드 대표가 'NHN클라우드 2.0 전략'을 통해 국내 최대규모 인공지능(AI) 인프라를 확보하고 글로벌 기업으로 발돋움한다. 지난 21일 NHN클라우드는 광주광역시 김대중컨벤션센터에서 개최한 간담회를 통해 국가 AI 데이터센터와 함께 AI 중심 전략을 소개했다. █ 국가AI 데이터센터로 글로벌 수준 AI인프라 지원 국가AI 데이터센터는 NHN클라우드 2.0 전략의 핵심 인프라다. AI 연구개발에 특화됐으며 엔비디아의 AI전용 GPU H100을 기반으로 88.5페타플롭스(PF)의 컴퓨팅 연산능력과 저장 용량 107페타바이트(PB) 규모의 인프라를 갖췄다. GPU의 성능 극대화를 위해 전력 공급 최적화 기술을 적용해 서버랙 당 전력밀도를 15kw로 끌어올렸다. 이는 국내 데이터센터의 평균 전력밀도의 3배에 달하는 수치다. 높은 전력사용으로 인한 발열을 줄이기 위해 NHN클라우드에서 개발한 냉기 시스템을 적용했다. 외부의 자연 바람을 이용한 공냉식으로 열교환 과정에서 간섭을 최소화해 냉각에 쓰이는 에너지를 절감하기 위한 방안을 적용했다. 김동훈 대표는 “NHN클라우드는 판교 데이터센터(NCC1)를 10년 이상 운영하며 얻은 클라우드 서비스 전문 데이터센터 운영 경험을 녹여 고밀도전력, 효율적 소비 전력 설비를 구축했다”고 설명했다. “일반 기업이 H100 등 AI전용 하드웨어를 구하는 것이 거의 불가능에 가까운 상황에서 상대적으로 저렴하게 이용할 수 있다는 것부터 큰 메리트라고 할 수 있다”며 “기업의 서비스 특성이나 자금상황에 따라 유연하게 활용할 수 있도록 H100외에도 A100 등 추가적인 옵션도 함께 제공하고 있다”고 설명했다. 과학기술정보통신부와 광주광역시가 추진하는 '인공지능 중심 산업융합 집적단지 조성 사업'의 일환으로 광주 첨단3지구 AI중심산업융합집적단지에 지난해 10월 구축됐다. 11월부터 정식 운영을 시작해 현재 470여 곳의 기업, 기관이 데이터센터를 이용하고 있다. AI 산업융합 생태계 활성화를 위해 올해 말까지 스타트업 등 민간 기업을 대상으로 인프라 지원사업을 실시한다. 민간지원사업이 종료되는 2025년부터 본격적인 수익 사업도 이어질 예정이다. █ “AI전환(AX) 패러다임 이끄는 선두기업 될 것” NHN클라우드 2.0 전략은 공공, 금융, 제조, IT 등 다양한 산업 분야의 기업에 최적화된 AI 환경을 인프라부터 솔루션까지 통합제공해 AI전환(AX) 패러다임을 이끌겠다는 전략이다. 이를 위해 김동훈 대표는 국내 최대 수준의 '멀티 AI GPU 팜'을 구축하고 이를 중심으로 풀스택 AI 클라우드 서비스 제공사(CSP)'로 발전할 것이라고 계획을 설명했다. 현재 NHN클라우드는 국가AI데이터센터를 포함해 판교 데이터센터(NCC1) 등 데이터센터를 보유하고 있다. H100 GPU 1천 개 이상으로 이뤄진 엔비디아 기반 인프라는 77.3 PF에 달하며 그래프코어 기반 인프라는 11.2PF, 사피온은 11PF로 총 99.5PF에 달한다. 이와 함께 AI 플랫폼 'AI 이지메이커', 프라이빗클라우드 전용 솔루션 '프라이빗덱' 등 서비스 역량을 결합함으로써 고객이 쉽게 AI 서비스를 개발하고 상용화할 수 있도록 환경을 제공한다는 것이다. 김 대표는 NHN클라우드 외에도 솔트룩스 등 다양한 AI 기술 기업과 협력 관계를 맺어 AI 얼라이언스를 구축해 AI 생태계를 확장할 것이라고 장기적인 청사진을 소개했다. 이에 글로벌 파트너 지코어의 정현용 지사장이 참석해 “오픈스택 기술력 융합 협력에 이어 AI 인프라 사업에서도 긴밀하게 NHN클라우드와 협업할 것”이며 향후 AI생태계 구축을 위한 지속적인 파트너십을 약속했다. 김동훈 NHN클라우드 대표는 “생성형AI를 중심으로 확대되는 시장에서 다양한 AI서비스와 인프라를 제공해 선두권 사업자로 앞서 나가겠다는 것이 2.0 전략의 핵심”이라며 “우리는 개발부터 운영, 서비스 제공까지 모든 과정에서 앞선 역량과 인프라를 갖춘 만큼 앞으로 더욱 가시적인 성과를 낼 것”이라고 강조했다. 이어서 “지난해는 민간 사업은 목표치를 달성했지만, 공공 부문은 전체적으로 규모가 줄고 매출 반영이 1년뒤에 이뤄지면서 단기 순손실을 기록했다”며 “하지만 AI와 클라우드 관련 전체적인 기조가 긍정적이고, 글로벌진출까지 준비하고 있는 만큼 올해 매출 2천억 원, 2026년까지 8천 억 원을 달성하겠다는 목표는 그대로 유지할 것”이라고 포부를 밝혔다.

2024.03.25 09:19남혁우

델 파워스케일, 엔비디아 DGX 이더넷 스토리지 인증 획득

델테크놀로지스는 AI 시대에 기업과 기관들이 데이터의 가치를 극대화할 수 있도록 엔비디아 스타버스트 등 글로벌 리더 기업과 협력해 스토리지 포트폴리오를 강화한다고 22일 밝혔다. 먼저 델은 엔비디아와의 긴밀한 협력 하에 자사의 '델 파워스케일' 스토리지를 '엔비디아 DGX 슈퍼POD'을 위한 이더넷 스토리지로서 인증받았다. 데이터 애널리틱스 플랫폼 기업인 '스타버스트'와 협력해 스타버스트 소프트웨어와 델 하드웨어를 풀스택으로 구성한 '델 데이터 레이크하우스'를 공식 출시했다. 델 파워스케일 솔루션을 통해 델과 엔비디아는 강력한 성능과 효율성의 AI 스토리지를 찾는 조직들의 생성형 AI 이니셔티브 지원에 나선다. 엔비디아의 AI 레퍼런스 아키텍처인 DGX 슈퍼POD에 '델 파워스케일'을 통합한 DGX 시스템을 도입하면 사전 검증 및 테스트가 완료된 턴키 시스템을 기반으로 생성형 AI를 위한 인프라를 쉽고 빠르게 구축할 수 있다. 엔비디아 매그넘 IO, GPU다이렉트 스토리지, NFS 오버 RDMA 등의 기술이 엔비디아 ConnectX-6 NIC에 내장돼 고속의 데이터 접근이 가능하며, AI 훈련, 체크포인팅, 추론에 소요되는 시간을 최소화할 수 있다. 델 파워스케일이 제공하는 새로운 멀티패스 클라이언트 드라이버를 활용해 GPU 활용률과 성능을 극대화할 수 있다. 엔비디아 DGX 슈퍼POD에는 풀스택 AI 슈퍼컴퓨팅 솔루션을 위한 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼이 포함되며, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼 이더넷 네트워킹 구성을 제공해 좀 더 빠르고 안전하게 생성형 AI 프로젝트를 추진할 수 있도록 지원한다. 델 데이터 레이크하우스는 개방형의 모던 데이터 플랫폼으로 데이터가 저장된 위치와 상관없이 안전하고 간편한 싱글 포인트 접근을 지원한다.'델 데이터 레이크하우스는 스타버스트 기반의 '델 데이터 애널리틱스 엔진'과 쿠버네티스 기반의 '델 레이크하우스 시스템 소프트웨어', 델 파워엣지 서버로 구성된 컴퓨팅 노드, '델 ECS' 또는 '델 오브젝트스케일'로 구성된 스케일아웃 스토리지 노드로 구성된다. 델은 AI에 최적화된 하드웨어와 강력한 쿼리 엔진을 포함한 풀스택 소프트웨어를 아우르는 통합형 데이터 플랫폼을 제공함으로써 고객들이 AI 시대에 걸맞게 데이터로부터 실행가능한 비즈니스 통찰력을 빠르게 얻을 수 있도록 지원한다는 전략이다. 델 데이터 레이크하우스는 스타버스트 기반의 페더레이션 완료된 안전한 쿼리로 데이터 탐색을 강화해, 인사이트 도출 시간을 최대 90%까지 단축하고, 사용 패턴을 파악해 데이터 레이크하우스로 더욱 스마트하게 데이터를 중앙 집중화할 수 있다. 컴퓨팅과 스토리지를 분리하는 맞춤형 인프라에서 실행되는 분산형 대규모 병렬화 엔진을 통해 필요에 따라 확장가능한 성능을 확보할 수 있다 100% 오픈 포맷을 기반으로 하며 파케이, 아브로, ORC 등의 파일 형식 및 아이스버그, 델타레이크 같은 테이블 형식 등 최신 산업 표준을 통해 미래에 대비할 수 있고, 내장된 데이터 거버넌스를 통해 데이터에 대한 통제권을 유지한다. 데이터 팀에 셀프 서비스 액세스 권한을 부여해 고품질의 데이터를 생성하고, 전사적으로 협업과 데이터 탐색이 용이한 조직 문화를 조성한다. 서버, 소프트웨어 및 스토리지 구성 요소를 포괄하는 턴키 솔루션으로서 구축, 라이프사이클 관리, 지원 서비스를 간소화하도록 설계됐으며, 비용 효율적이고 예측 가능한 지출이 가능하다. 델 데이터 애널리틱스 엔진은 동급 타 기술 대비 절반의 비용으로 3배 빠른 통찰력 확보 시간을 제공한다델 ECS 스토리지는 퍼블릭 클라우드 오퍼링 대비 총 소유 비용을 최대 76% 절감할 수 있다. 김경진 한국델테크놀로지스의 총괄 사장은 “스토리지 혁신을 이끌어온 델이 AI 시대에 스토리지의 새로운 기준을 제시하기 위해 업계를 선도하는 글로벌 리더들과 협력에 박차를 가하고 있다”며 “누구나 손쉽게 실행가능한 인사이트를 얻고, 이전에는 가능하지 않았던 속도를 통해 AI의 잠재력을 실현시킬 수 있도록 돕고자 한다”고 밝혔다.

2024.03.22 18:14김우용

슈퍼마이크로, 풀스택 생성형 AI 슈퍼클러스터 3종 출시

슈퍼마이크로컴퓨터(이하 슈퍼마이크로)는 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 22일 발표했다. 최신 솔루션은 현재는 물론 미래의 거대언어모델(LLM) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화됐다. 슈퍼마이크로 4U 엔비디아 HGX H100/H200 8-GPU 시스템은 수냉식 냉각을 사용해 8U 공랭식 시스템의 밀도를 두 배로 높이고 에너지 소비량과 데이터센터 TCO를 낮춘다. 차세대 엔비디아 블랙웰 아키텍처 기반의 GPU를 지원하도록 설계됐다. 슈퍼마이크로 냉각 분배 장치(CDU)와 매니폴드(CDM)는 냉각된 액체를 슈퍼마이크로의 맞춤형 D2C 콜드 플레이트에 분배하기 위한 핵심 부품으로, GPU와 CPU를 최적의 온도로 유지하고, 성능을 극대화한다. 이러한 냉각 방식은 데이터센터의 총 전기 비용을 최대 40% 절감하고 물리적 공간도 절약할 수 있다. 엔비디아 HGX H100/H200 8-GPU를 탑재한 시스템은 생성형 Al 학습에 이상적이다. 엔비디아 NV링크 로 상호 연결된 고속 GPU와 더불어 넓은 GPU 메모리 대역폭 및 용량은 LLM 모델의 비용 효율적인 구동에 핵심적인 역할을 한다. 슈퍼마이크로의 슈퍼클러스터는 하나의 AI 슈퍼컴퓨터처럼 작동하는 대규모 GPU 리소스 풀을 생성한다. 조 단위의 토큰으로 구성된 데이터 세트로 학습된 대규모 기초 모델을 처음부터 구축하거나 클라우드 규모의 LLM 추론 인프라를 구축할 때, 비차단 400Gbps 패브릭을 갖춘 스파인 및 리프 네트워크 토폴로지를 사용한다면 32개 노드에서 수천 개의 노드까지 원활하게 확장할 수 있다. 슈퍼마이크로는 수냉식 냉각을 활용하는 테스트를 통해 배포 전에 운영 효율성과 효과를 철저하게 검증한다. 슈퍼마이크로의 엔비디아 MGX 시스템 설계는 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 통해 생성형 AI의 주요 병목 현상을 해결하는 미래형 AI 클러스터에 대한 청사진을 제시할 것이다. 이때 병목 현상은 운영비용을 절감하기 위해 고성능 추론 배치 규모로 LLM을 실행하는 GPU 메모리 대역폭과 용량을 의미한다. 256노드 클러스터는 쉽게 구축 및 확장이 가능한 클라우드 규모의 대규모 추론 성능을 지원한다. 랙 5개에 4U 수냉식 냉각 시스템 또는 랙 9개에 8U 공랭식 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 엔비디아 H100/H200 텐서 코어 GPU 256개를 탑재한다. 수냉식 냉각의 경우 공냉식 256 GPU 및 32노드 솔루션과 동일한 설치 면적에서 512 GPU, 64노드를 지원한다. 확장 가능한 유닛 하나에 엔비디아 H100을 포함한 20TB HBM3 또는 엔비디아 H200을 포함한 36TB HBM3e을 탑재한다. 1대1 네트워킹으로 각 GPU에 최대 400Gbps를 제공하며, 최대 조 단위의 매개변수로 LLM을 학습시키기 위한 GPU 다이렉트 RDMA 및 스토리지를 활성화한다. 엔비디아 퀀텀-2 인피니밴드, 엔비디아 스펙트럽-X 이더넷 플랫폼 등 확장성이 뛰어난 스파인-리프 네트워크 토폴로지를 갖춘 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭으로 연결된다. 병렬 파일 시스템 옵션을 갖춘 맞춤형 AI 데이터 파이프라인 스토리지 패브릭을 구성한다 .엔비디아 AI 엔터프라이즈 5.0 소프트웨어로 대규모 AI 모델 구축을 가속화하는 새로운 엔비디아 NIM 추론 마이크로서비스를 지원한다. 랙 9개에 1U 공냉식식 냉각 엔비디아 MGX 시스템을 갖춘 슈퍼클러스터는 확장 가능한 유닛 하나에 256개의 GH200 그레이스 호퍼 슈퍼칩을 장착하며, 최대 144GB의 HBM3e + 480GB의 LPDDR5X 통합 메모리로, 하나의 노드에 70B+ 매개변수 모델을 수용할 수 있다. 400G 인피니밴드 또는 400GbE 이더넷 스위치 패브릭을 지원하며, 노드당 최대 8개의 내장 E1.S NVMe 스토리지 장치를 제공한다. 엔비디아 블루필드-3 DPU와 맞춤형 AI 데이터 파이프라인 스토리지 패브릭으로 각 GPU에 많은 처리량과 짧은 지연 시간의 스토리지 액세스를 제공한다. 엔비디아 AI 엔터프라이즈 5.0 소프트웨어를 제공한다. 슈퍼마이크로의 슈퍼클러스터 솔루션은 GPU-GPU 연결을 위해 달성할 수 있는 네트워크 성능을 갖췄으며, LLM 훈련, 딥 러닝, 그리고 대용량 및 대규모 배치 추론에 최적화됐다. 현장 배포 서비스와 결합된 슈퍼마이크로의 L11 및 L12 검증 테스트는 고객에게 매끄러운 사용 경험을 제공한다. 고객은 플러그 앤 플레이 확장형 유닛을 통해 데이터센터에 쉽게 구축하고 더 빠르게 결과를 얻을 수 있다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다”며 “슈퍼마이크로는 글로벌 제조량을 월 5,000개의 랙으로 확장해 그 어느 때보다 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"고 설명했다. 그는 "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72TB의 HBM3e및 512개의 엔비디아 HGX H200 GPU를 지원한다”고 밝혔다 이어 “슈퍼마이크로의 슈퍼클러스터 솔루션은 엔비디아 AI 엔터프라이즈 소프트웨어와 결합됐다”며 “그 결과 오늘날 최대 조 단위의 매개변수로 LLM을 학습하는 기업 및 클라우드 인프라에 이상적”이라고 덧붙였다. 카우츠브 상하니 엔비디아 GPU 제품 부문 부사장은 "엔비디아의 최신 GPU, CPU, 네트워킹 및 소프트웨어 기술은 시스템 제조사가 글로벌 시장을 위한 다양한 차세대 AI 워크로드를 가속화할 수 있도록 지원한다"며 “슈퍼마이크로는 블랙웰 아키텍처 기반 제품에 엔비디아 가속 컴퓨팅 플랫폼을 활용해 데이터센터에 쉽게 구축 가능한 최첨단 서버 시스템을 제공하고 있다"고 밝혔다.

2024.03.22 18:06김우용

젠슨 황, 삼성 HBM3E에 친필로 '승인' 사인...엔비디아에 공급 기대감

젠슨 황 엔비디아 최고경영자(CEO)가 미국 캘리포니아주 새너제이에서 열린 'GTC 2024' 행사에 전시된 삼성전자의 5세대 고대역폭메모리 12단 'HBM3E'에 친필 사인을 남겼다. 엔비디아 AI 반도체에 삼성전자의 HBM3E가 탑재될 가능성에 기대감이 커진다. 21일 한진만 삼성전자 반도체(DS)부문 미주총괄(DSA) 부사장은 자신의 사회관계망서비스(SNS)에 황 CEO가 삼성전자 부스에서 12단 HBM3E 실물에 남긴 친필 사인과 부스에 있던 직원들과 함께 찍은 사진을 공유했다. 삼성전자는 12단 HBM3E 실물을 공개한 것은 이번 GTC 행사가 처음이다. 한 부사장은 "젠슨 황 CEO가 우리 부스에 들러줘서 고맙고, 만나지 못해 아쉽다"라며 "삼성 HBM3E에 승인 도장(stamp of approval)을 찍어줘 기쁘다. 삼성 반도체와 엔비디아의 다음 행보가 기대된다"고 전했다. 특이 황 CEO의 삼성전자 부스 방문은 앞서 19일(현지시간) 엔비디아 GTC 2024 글로벌 미디어 행사에서 "우리는 지금 삼성전자의 HBM을 테스트(qualifying)하고 있으며, 기대가 크다"고 발언한 직후여서 업계의 관심이 쏠린다. HBM은 여러 개 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 고성능 제품이다. HBM은 1세대(HBM)·2세대(HBM2)·3세대(HBM2E)에 이어 4세대(HBM3) 제품이 공급되고 있으며, 올해부터 5세대(HBM3E) 양산이 시작된다. HBM3E는 HBM3의 확장 버전이다. 엔비디아는 AI 반도체로 사용되는 그래픽처리장치(GPU) 시장에서 80% 점유율로 사실상을 독점체제를 구축하고 있기에, HBM 시장에서 핵심 고객사다. SK하이닉스가 HBM 시장에서 점유율 1위를 차지한 데는 지난해 엔비디아에 HBM3을 독점 공급한 영향이 크다. 최근 엔비디아가 공급망 관리를 위해 HBM3E 탑재부터 공급망을 다변화하기로 결정하면서 삼성전자는 HBM3E 물량을 확보하기 위해 적극적으로 나서고 있다. 삼성전자의 12단 HBM3E는 24기가비트(Gb) D램 칩을 실리콘 관통 전극(TSV) 기술로 12단까지 적층해 업계 최대인 36기가바이트(GB) 용량을 구현한 제품이다. 삼성전자는 지난달 27일 12단 HBM3E 샘플을 고객사(엔비디아 포함)에 공급했다고 공식 발표한 바 있다. 삼성전자는 이 제품을 상반기 양산할 예정이다. HBM 시장 경쟁은 가열되고 있다. SK하이닉스는 GTC 2024 전시 부스에서 12단 HBM3E를 전시했으며, 행사 첫날인 지난 18일 업계 최초로 8단 HBM3E 양산을 시작했다고 공식적으로 알리며 시장 우위를 강조했다. 업계에 따르면 SK하이닉스 또한 최근 엔비디아에 12단 HBM3E 샘플을 공급한 것으로 알려져 있다. 또 미국 마이크론도 지난달 HBM3E 양산을 시작했다고 밝히며 경쟁에 뛰어들었다. HBM 시장에서 후발주자인 미국 마이크론은 HBM3 양산을 건너뛰고 HBM3E 대량 생산체제를 갖추면서 삼성전자, SK하이닉스와 전면 경쟁에 돌입했다. 경계현 삼성전자 DS 부문장(사장)은 전날(20일) 삼성전자 정기 주주총회에서 HBM이 한발 늦었다는 지적에 대해 "앞으로 다시는 그런 일이 생기지 않도록 더 잘 준비하고 있다"며 "12단을 쌓은 HBM을 기반으로 HBM3와 HBM3E 시장의 주도권을 찾을 것"이라고 밝혔다. 한편, 시장조사업체 트렌드포스는 지난 13일 "삼성전자는 이미 HBM3에서 상당한 진전을 이뤘다"라며 "HBM3E 검증이 곧 완료될 것으로 예상되며, 연말까지 SK하이닉스와의 시장 점유율 격차를 크게 줄여 HBM 시장의 경쟁 구도를 재편할 태세다"고 진단했다.

2024.03.21 15:54이나리

스노우플레이크, 엔비디아와 풀스택 AI 플랫폼 제공

스노우플레이크는 엔비디아와 파트너십을 강화해 풀스택 AI 플랫폼을 제공한다고 21일 발표했다. 인공지능(AI)을 활용해 기업 고객의 생산성을 높일 수 있도록 지원하는 것으로, 스노우플레이크의 데이터 기반과 안정성 높은 데이터 클라우드의 AI 기술을 풀스택 엔비디아 가속 플랫폼에 결합할 수 있게 된다. 양사는 AI의 생산성과 비즈니스 속도를 높이고 여러 산업군에 걸쳐 새로운 비즈니스 기회를 확대하도록 설계된 인프라와 컴퓨팅 기술을 결합해 안전하고 강력한 기능을 제공한다. 지난해 6월 스노우플레이크와 엔비디아가 엔비디아 네모 통합 기능을 확대한다고 발표했다.. 강화된 파트너십에서 스노우플레이크는 자사 플랫폼에서 데이터 보안, 개인정보보호 및 거버넌스를 원활하게 유지하면서 직접 엔비디아의 네모 리트리버를 활용할 수 있게 된다. 네모 리트리버는 기업이 맞춤형 LLM을 기업 데이터에 연결할 수 있는 생성형 AI 마이크로 서비스다. 이를 기반으로 챗봇 애플리케이션의 성능과 확장성을 개선하고 스노우플레이크 코텍스(프리뷰 공개)로 AI 애플리케이션을 구축한 400개 이상의 기업이 보다 빠르게 비즈니스 가치를 실현할 수 있도록 지원한다. 또한 딥 러닝 추론 애플리케이션에 짧은 지연 시간과 높은 처리량을 제공하는 엔비디아 텐서RT를 활용할 수 있어 기업 고객의 LLM 기반 검색 기능이 향상될 것으로 기대된다. SQL 사용자는 스노우플레이크 코텍스 LLM 기능을 통해 소규모 LLM을 활용해 감정 분석, 번역 및 요약 등의 특정 작업을 몇 초 만에 비용 효율적으로 처리할 수 있다. 미스트랄AI, 메타 등의 고성능 모델을 활용한 AI 애플리케이션의 개발에도 적용할 수 있다. 스노우플레이크의 새로운 LLM 기반 어시스턴트로, 자연어를 통해 스노우플레이크의 코딩 작업에 생성형 AI를 적용한다. 사용자들이 대화 형식으로 질문하면 관련 테이블을 활용해 SQL 쿼리를 작성해 주며 쿼리를 개선하고 인사이트를 필터링하는 등의 작업을 수행할 수 있다. 도큐먼트 AI는 기업들이 LLM을 사용해 문서에서 청구 금액 또는 계약 약관 등의 내용을 쉽게 추출하고 시각화 인터페이스와 자연어를 사용해 결과를 섬세하게 조정할 수 있도록 지원한다. 고객사는 도큐먼트 AI를 사용해 수작업으로 인한 오류를 줄이고 자동 문서 처리를 통해 효율성을 강화한다. 슈리다 라마스워미 스노우플레이크 CEO는 “데이터는 AI의 원동력으로, 효과적인 AI 전략 수립에 매우 중요하다”며 “스노우플레이크는 엔비디아와 협력으로 신뢰할 수 있는 기업 데이터를 위한 안전하고 확장 가능하며 사용이 용이한 플랫폼을 제공하게 됐다”고 밝혔다. 그는 “특히 기술 전문성에 상관없이 모든 사용자가 AI를 사용할 수 있게 해 누구나 AI 기술 혜택을 얻도록 지원한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “기업 데이터는 비즈니스 인텔리전스를 확보할 수 있는 커스터마이징 AI 애플리케이션의 근간”이라며 “엔비디아 가속 컴퓨팅 및 소프트웨어를 스노우플레이크의 데이터 플랫폼에 적용함으로써 고객이 기업 전용의 생성형 AI 애플리케이션을 구축, 배포 및 관리할 수 있게 된다”고 강조했다.

2024.03.21 09:39김우용

데이터브릭스-엔비디아, 기술 통합 강화

데이터브릭스는 엔비디아와 협력을 확대하고 기술 통합을 강화한다고 21일 밝혔다. 엔비디아 GTC 2024 컨퍼런스에서 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼의 데이터 및 AI 워크로드 최적화에 박차를 가할 계획이라고 강조했다. 이 협력은 최근 엔비디아가 데이터브릭스 시리즈I 투자에 참여한 것의 연장선이다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스 데이터 웨어하우스인 데이터브릭스 SQL을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 데이터브릭스와 엔비디아는 데이터 인텔리전스 플랫폼의 모멘텀을 강화해 보다 다양한 조직이 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 돼 기쁘다"며 “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다"고 밝혔다. 그는 "쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산"이라며 “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 강조했다.

2024.03.21 09:35김우용

간호사도 AI로 대체…"시간당 12만원→1만2천원"

엔비디아가 생성형 인공지능(AI) 간호 서비스를 제공하는 AI 스타트업 '히포크라틱 AI'(Hippocratic AI)와 협력을 발표했다고 IT매체 기즈모도가 19일(현지시간) 보도했다. 히포크라틱 AI는 AI 간호사와 실시간 화상 통화를 통해 환자에게 의료 상담을 제공하는 AI 스타트업이다. 이 회사는 시간당 90달러(약 12만원)에 달하는 인간 간호사의 인건비를 절감할 수 있다고 홍보하고 있다. 엔비디아와 히포크라틱 AI와의 협력은 GTC 2024 행사에서 발표된 다양한 협력 중 하나였다. 엔비디아는 히포크라틱AI의 화상 통화를 통해 실시간 대응을 지원한다. 엔비디아가 제시한 데모 영상에서 '레이첼'이라는 이름의 AI 에이전트가 환자에게 페니실린 복용 방법을 말해준다. 이후 AI 에이전트는 환자에게 이 모든 정보를 실제 의사에게 다시 보고할 것이라고 말한다. 레이첼은 이 회사가 제공하는 많은 AI 간호사 중 한 명이다. AI 간호사들은 '대장내시경 검사'부터 '유방암 케어 매니저'까지 전문 분야를 다루고 있으며 모두 최저 임금 미만으로 운영된다. 킴벌리 파월 엔비디아 헬스케어 담당 부사장은 보도자료를 통해 “생성형 AI로 구동되는 음성 기반 디지털 에이전트는 헬스케어의 풍요로운 시대를 열 수 있지만, 이는 기술이 환자에게 인간처럼 반응하는 경우에만 가능하다”고 밝혔다. 이 회사는 웹사이트를 통해 해당 서비스를 활용하면 인간 간호사의 시간당 급여 90달러를 9달러(약 1만2천원)로 절감할 수 있다고 밝혔다. 히포크라틱 AI는 자사의 AI 간호사가 침상 매너, 교육 측면에서 인간 간호사보다 뛰어나며 만족도는 인간 간호사에 비해 근소한 차이로 밀린다고 밝혔다. 회사 측은 AI 간호사가 수천 명의 인간 간호사와 수백 명의 의사에 의해 테스트됐으며, 현재 약40개 이상의 의료 서비스 제공업체에서 테스트 중이라고 밝혔다. 하지만, 아직 생성형AI 간호사가 병의 진단을 내리기에는 충분치 않다고 덧붙였다.

2024.03.20 12:54이정현

오라클, 엔비디아와 '소버린 AI' 제공 협력 발표

오라클은 엔비디아와 협력 관계를 확장해, 전 세계 고객들을 대상으로 소버린 AI 솔루션을 제공하기 위한 계획을 20일 발표했다. 이 협력을 통해 오라클의 분산형 클라우드와 AI 인프라스트럭처, 생성형 AI 서비스는 엔비디아의 가속 컴퓨팅 및 생성형 AI 소프트웨어와 결합해 각국 정부 및 기업의 AI 팩토리 배포를 지원한다. 양사의 AI 팩토리는 광범위한 운영 통제 기능을 통해 클라우드 서비스를 국가 또는 기업 조직의 안전한 자체 지역 내 로컬 환경에서 운영하고, 이를 통해 경제 성장을 촉진하고 다각화하기 위한 주권 목표를 지원한다. OCI 전용 리전과 오라클 알로이, 오라클 EU 소버린 클라우드, 오라클 정부 클라우드 등에 배포 가능한 오라클의 기업용 AI 서비스는 엔비디아의 풀스택 AI 플랫폼과 결합돼 데이터의 운영과 위치 및 보안에 대한 제어력을 강화하여 고객의 디지털 주권을 지원하는 최첨단 AI 솔루션을 제공한다. 현재 세계 각국은 자국의 문화적, 경제적 목표를 달성하기 위해 AI 인프라 투자를 늘려 나가고 있다. 기업 고객들은 26개국에 위치한 66개의 오라클 클라우드 리전을 통해 인프라 및 애플리케이션 전반에 걸쳐 100여 개 클라우드 및 AI 서비스에 접근할 수 있고, 이를 통해 IT 마이그레이션, 현대화 및 혁신을 추진할 수 있다. 양사의 통합 오퍼링은 유연한 운영 통제 기능을 바탕으로 퍼블릭 클라우드를 통하거나 특정한 위치의 고객사 데이터센터에 직접 배포 가능하다. 오라클은 고객이 원하는 모든 장소에서 로컬 방식으로 AI 서비스 및 자사의 완전한 클라우드 서비스를 제공할 수 있는 유일한 하이퍼스케일러다. OCI는 배포 유형과 관계없이 동일한 서비스 및 가격 정책을 일관되게 제공하여 클라우드 서비스 이용을 보다 간단하게 계획하고 이전 및 관리할 수 있도록 한다. 오라클의 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼 등 다양한 엔비디아 스택을 활용하고 있다. 엔비디아 텐서RT, 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버 등 엔비디아 추론 소프트웨어를 기반으로 구축되어 최근 발표된 엔비디아 NIM 추론 마이크로서비스도 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼에 포함된다. 스위스 뱅킹 소프트웨어 제공업체인 아발록은 자체 데이터센터에서 완전한 OCI 퍼블릭 클라우드 리전을 운용하기 위해 OCI 전용 리전을 도입했다. 아발록의 마틴 부치 최고 기술 책임자는 "OCI 전용 리전은 최신 클라우드 인프라에 대한 액세스를 제공하면서도 데이터 보존을 최대한 제어하려는 아발록의 노력과 부합한다"며 "이는 우리가 은행과 자산 관리사의 디지털 혁신을 지속적으로 추진하는 데 큰 도움이 된다”고 설명했다. 뉴질랜드의 선도적인 정보 관리 서비스 제공업체인 팀 아이엠은 뉴질랜드 최초로 현지 기업이 소유 및 운영하는 하이퍼스케일 클라우드인 팀 클라우드를 구축하기 위해 오라클 알로이를 도입했다. 팀 아이엠의 이언 로저스 CEO는 "클라우드의 성능은 십분 활용하면서도 뉴질랜드 국경 내에서 데이터 무결성을 유지할 수 있는 독자적인 하이퍼스케일 클라우드 솔루션에 대한 뉴질랜드 기업들의 수요가 갈수록 증가하고 있다"며 "팀 아이엠은 오라클 알로이와 더불어, 엔비디아 AI 플랫폼을 자사 클라우드 서비스에 통합할 수 있는 가능성을 통해 공공 분야 및 민간 기업, 뉴질랜드 원주민 단체들이 디지털 환경의 복잡성을 해소하고 디지털 혁신 과정을 최적화하는 과정에 기여할 수 있는 클라우드 서비스 제공업체로 자리 매김했다"고 밝혔다. 오라클은 엔비디아 GTC에서 발표된 최신 엔비디아 그레이스 블랙웰 컴퓨팅 플랫폼을 자사의 OCI 슈퍼클러스터 및 OCI 컴퓨트 서비스 전반에 도입함으로써 지속적으로 증가하는 고객의 AI 모델에 대한 요구사항에 대응해 나갈 계획이다. OCI 슈퍼클러스터는 새로운 OCI 컴퓨트 베어 메탈 인스턴스와 초저지연 RDMA 네트워킹, 고성능 스토리지를 통해 훨씬 더 빠른 속도를 제공할 전망이다. OCI 컴퓨트에는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩과 엔비디아 블랙웰 B200 텐서 코어 GPU가 모두 탑재된다. 엔비디아 GB200 그레이스 블랙웰 슈퍼칩은 컴퓨팅의 새로운 시대를 선도할 획기적 성능을 제공한다. 전 세대 GPU 대비 최대 30배 빠른 실시간 대규모 언어 모델(LLM) 추론, 25배 낮은 TCO, 25배 적은 에너지 소모량 등을 자랑하는 GB200은 AI 학습, 데이터 처리, 엔지니어링 설계 및 시뮬레이션 등의 작업 성능을 대폭 강화해 준다. 엔비디아 블랙웰 B200 텐서 코어 GPU는 가장 높은 성능이 요구되는 AI, 데이터 분석, 고성능 컴퓨팅(HPC) 워크로드를 처리하기 위해 설계됐다. 또한 검색 증강 생성(RAG) 추론 배포를 위한 엔비디아 네모 리트리버를 비롯한 엔비디아 NIM 및 쿠다-X 마이크로서비스는 OCI 고객이 자체 데이터를 사용해 생성형 AI 코파일럿 및 기타 생산성 도구에 더 많은 인사이트를 제공하는 동시에, 해당 도구들의 정확성을 향상시키는 작업에도 도움이 될 것으로 보인다. 점점 더 복잡해지는 AI 모델에 대한 고객의 수요 증가에 부응하기 위해 오라클과 엔비디아는 OCI 상에서 구동되는 엔비디아 DGX 클라우드 서비스에 엔비디아 그레이스 블랙웰 슈퍼칩을 추가할 예정이다. 고객들은 LLM의 매개변수가 조 단위에 달하게 된 현 시점에 보다 에너지 효율적인 학습 및 추론을 지원하기 위해 양사가 함께 설계한 슈퍼컴퓨팅 서비스인 엔비디아 DGX 클라우드를 통해 새로운 GB200 NVL72 기반 인스턴스에 액세스 할 수 있다. DGX 클라우드 클러스터의 전체 구성에는 2만개 이상의 GB200 가속기와 엔비디아 CX8 인피니밴드 네트워킹이 포함돼 더욱 탁월한 확장성 및 성능을 갖춘 클라우드 인프라를 제공할 예정이다. 해당 클러스터는 5세대 NV링크가 탑재된 72개의 블랙웰 GPU NVL 72와 36개 그레이스 CPU로 구성된다. 사프라 카츠 오라클 CEO는 "AI가 전 세계의 비즈니스, 산업 및 정책을 재편함에 따라, 국가와 기업 조직은 가장 중요한 데이터를 안전하게 보호하기 위해 디지털 주권을 강화해야 한다"며 "오라클은 엔비디아와의 지속적인 협력 관계와 클라우드 리전을 로컬 차원에서 신속히 배포할 수 있는 독보적인 역량을 통해 전 세계에서 보안에 대한 타협과 우려 없이 AI를 활용할 수 있도록 보장할 것"이라고 밝혔다. 젠슨 황 엔비디아 설립자 겸 CEO는 "생성형 AI가 혁신을 주도하는 시대에 데이터 주권은 문화적, 경제적 필수 요소"라며 "엔비디아의 가속 컴퓨팅 및 생성형 AI 서비스와 결합된 오라클의 통합 클라우드 애플리케이션 및 인프라 서비스는 각 국가 및 지역이 데이터 주권을 바탕으로 스스로 미래를 직접 설계할 수 있는 유연성과 보안을 제공한다."라고 강조했다. 오라클과 엔비디아가 공동 제공하는 소버린 AI 솔루션은 발표와 함께 바로 사용 가능하다.

2024.03.20 10:45김우용

클라우데라, 엔비디아 생성형 AI 기능 확장 협력

클라우데라는 엔비디아와 협력을 확장·강화한다고 20이 발표했다. 클라우데라는 엔비디아 기업용 AI 소프트웨어 플랫폼 가운데 엔비디아 NIM 마이크로서비스를 '클라우데라 머신 러닝'에 통합해 빠르고 안전하며 간소화된 종단간 생성형 AI 워크플로우를 제공한다. 기업 데이터는 대규모 언어 모델(LLM)에 최적화된 포괄적인 풀 스택 플랫폼과 결합돼 조직의 생성형 AI 애플리케이션을 개발하는데 중요한 역할을 한다. 개발자는 엔비디아 NIM과 네모 리트리버 마이크로서비스를 통해 텍스트, 이미지, 막대 그래프, 라인 플롯, 파이 차트 등 시각화 데이터를 포함한 비즈니스 데이터에 AI 모델을 연결, 정확하고 맥락에 맞는 답변을 생성할 수 있다. 마이크로서비스를 사용하는 개발자는 엔비디아 AI 엔터프라이즈를 통해 애플리케이션을 배포할 수 있으며, 이는 기업용 LLM 구축, 사용자 정의 및 배포하는데 최적화된 실행시간을 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스를 활용함으로써, 고객의 데이터의 위치에 상관없이 고성능 AI 워크플로우, AI 플랫폼 소프트웨어, 가속화된 컴퓨팅을 제공해 클라우데라 데이터 플랫폼(CDP) 기반의 기업 데이터를 최대한 활용할 수 있도록 지원한다. 클라우데라는 엔비디아 마이크로서비스와의 다양한 통합 서비스도 제공한다. 클라우데라 머신 러닝은 엔비디아 마이크로서비스 기반 모델과 모든 워크로드에서 모델의 추론 성능을 향상시키기 위한 애플리케이션 서비스를 통합한다. 이 새로운 AI 모델 서빙 기능을 통해 고객은 퍼블릭 클라우드와 프라이빗 클라우드 모두에서 장애 허용, 저지연 서빙, 자동 확장이 가능하다. 또한 클라우데라 머신 러닝은 사용자 정의 LLM과 기업 데이터의 연결을 간단하게 하기 위해 통합 엔비디아 네모 리트리버 마이크로서비스를 제공한다. 이 기능을 통해 사용자는 실사용을 위한 검색 증강 생성(RAG) 기반 애플리케이션을 구축할 수 있다. 클라우데라는 이전에도 엔비디아와 협력해 GPU에 최적화된 데이터 처리를 위해 아파치 스파크용 엔비디아 RAPIDS 가속기를 클라우데라 데이터 플랫폼(CDP)에 통합한 바 있다. 이제 엔비디아 마이크로서비스와 엔비디아 기업용 AI와의 추가 통합으로 CDP는 독특하게 간소화된 종단간 하이브리드 AI 파이프라인을 독자적인 방식으로 제공한다. 앞으로 모든 산업의 기업들은 혁신적인 생성형 AI 기술을 뒷받침하는 LLM을 보다 빠르고 직관적으로 구축, 커스터마이징 및 배포할 수 있게 됐다. 개발 시간을 단축하기 위한 코딩 코파일럿, 고객 상호작용과 서비스 자동화를 위한 챗봇, 문서를 빠르게 처리하기 위한 텍스트 요약 앱, 간결하고 맥락에 맞는 검색 등 혁신적인 기술은 기업 전반에서 데이터와 발전된 AI 프로세스를 더 쉽고 빠르게 처리해 수익 창출과 비용 최적화로 비즈니스 가치를 극대화한다. 프리얀크 파텔 클라우데라 AI/ML 제품 담당 부사장은 “클라우데라는 엔비디아 NIM과 CUDA-X 마이크로서비스를 통합해 클라우데라 머신 러닝을 강화함으로써 고객이 가진 AI에 대한 기대를 비즈니스에서 실현할 수 있도록 지원하고 있다”며 “이번 협력을 통해 고객에게 강력한 생성형 AI 기능과 성능을 제공할 뿐만 아니라, 오늘날 데이터 환경을 탐색하는 데 중요한 요소인 부정확성, 환각, 예측 오류를 줄이는 동시에 기업이 보다 정확하고 시기 적절한 의사결정을 내릴 수 있도록 지원할 것”이라고 밝혔다. 저스틴 보이타노 엔비디아 기업 제품 담당 부사장은 “기업은 맞춤형 코파일럿과 생산성 툴을 구축하기 위해 방대한 양의 데이터를 생성형 AI에 활용하고자 한다”며 “엔비디아 NIM 마이크로서비스를 클라우데라 데이터 플랫폼에 통합함으로써 개발자는 보다 쉽고 유연하게 LLM을 배포해 비즈니스 혁신을 주도할 수 있게 됐다”고 강조했다. 클라우데라는18일부터 21일까지 미국 캘리포니아 새너제이 맥에너리 컨벤션 센터에서 열리는 엔비디아 GTC 2024에서 새로운 AI 기능을 선보인다.

2024.03.20 10:40김우용

퓨어스토리지, 엔비디아와 RAG 파이프라인 개발

퓨어스토리지는 엔비디아 OVX 지원 검증 레퍼런스 아키텍처를 비롯해, 생성형 AI 사용사례를 운용하기 위한 새로운 검증 레퍼런스 아키텍처를 20일 발표했다. 퓨어스토리지는 엔비디아와 협력해 전 세계 고객들의 성공적인 AI 구축을 위해 고성능 데이터 및 컴퓨팅 요구사항을 관리할 수 있는 검증된 프레임워크를 제공한다. 오늘날 대부분의 AI 구축은 클라우드부터 레거시 스토리지 솔루션에 이르기까지 파편화된 데이터 환경에 분산되어 있다. 그러나 이러한 파편화된 환경은 AI 데이터 파이프라인을 지원하고 기업 데이터의 잠재력을 발휘하는 데 필요한 성능과 네트워킹 요구사항을 지원할 수 없다. 기업이 혁신을 주도하고, 운영을 간소화하며, 경쟁 우위를 확보하기 위해 AI를 더욱 적극적으로 도입함에 따라, 강력하고 고성능이며 효율적인 AI 인프라에 대한 수요가 그 어느 때보다 높다. 특히, 급속도로 성장하는 포춘 500대 기업 고객군을 중심으로 기업용 AI 구축을 선도하고 있는 퓨어스토리지는 기업이 AI의 잠재력을 충분히 활용하는 동시에 관련 리스크, 비용, 에너지 소비를 줄일 수 있도록 간편하고 안정적이며 효율적인 스토리지 플랫폼을 제공한다. 퓨어스토리지는 AI 추론을 위한 검색 증강 생성(RAG) 파이프라인을 제공한다. 퓨어스토리지는 대규모 언어 모델(LLM)을 위한 추론 기능의 정확성, 통화 및 관련성을 향상시키기 위해, 기업용 올플래시 스토리지용 엔비디아 네모 리트리버 마이크로서비스 및 엔비디아 GPU, 그리고 퓨어스토리지를 활용하는 RAG 파이프라인을 개발했다. 이로써 퓨어스토리지는 AI 학습을 위해 자체 내부 데이터를 사용하는 기업들이 더 빠른 인사이트를 얻을 수 있도록 가속화하며, 최신 데이터 사용을 보장하고 LLM의 지속적인 재훈련 필요성을 없앴다. 엔비디아 OVX 서버 스토리지 레퍼런스 아키텍처 인증을 획득했다. 퓨어스토리지는 기업 고객과 채널 파트너에게 비용 및 성능에 최적화된 AI 하드웨어 및 소프트웨어 솔루션을 위한 강력한 인프라 기반을 제공하기 위해, 주요 벤치마크에 대해 검증된 유연한 스토리지 레퍼런스 아키텍처를 제공하는 OVX 서버 스토리지 검증을 획득했다. 해당 검증은 AI 고객들에게 추가적인 선택권을 제공하며, 지난해 발표된 퓨어스토리지의 엔비디아 DGX BasePOD에 대한 인증을 보완한다. 버티컬 산업 부문별 성공적인 AI 도입을 가속화하기 위해 퓨어스토리지는 엔비디아와 협력해 산업별 RAG를 개발하고 있다. 퓨어스토리지는 상용 LLM보다 더 높은 정확도로 방대한 데이터세트를 요약하고 쿼리할 수 있는 금융 서비스 RAG 솔루션을 개발했다. 이를 통해 금융 서비스 기관들은 이제 AI를 사용해 다양한 재무 문서 및 기타 소스에서 즉각적인 요약 및 분석을 생성하여 인사이트를 더욱 빠르게 확보할 수 있게 됐다. 헬스케어 및 공공 부문을 위한 추가적인 RAG도 출시될 예정이다. 퓨어스토리지는 엔비디아와 함께 AI 파트너 생태계에 대한 투자를 더욱 확대하며, 런:AI 및 웨이트 앤 바이어스와 같은 ISV와 새로운 파트너십을 체결하고 있다. 런:AI는 고급 오케스트레이션 및 스케줄링을 통해 GPU 활용을 최적화하며, 웨이트 앤 바이어스 AI 개발 플랫폼은 머신러닝 팀이 모델 개발 라이프사이클을 구축, 평가 및 관리할 수 있도록 지원한다. 퓨어스토리지는 이플러스, 인사이트, WWT 등을 포함한 AI 전문 리셀러 및 서비스 파트너와 긴밀히 협력하여 공동 고객의 AI 구축 업무를 더욱 효율화하고 있다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 “퓨어스토리지는 초기부터 AI 수요 증가를 예측하고, 최첨단 AI 구축을 위한 효율적이고 안정적인 고성능 플랫폼을 제공해왔다”며 “엔비디아와의 오랜 협업으로 개발한 최신 AI 레퍼런스 아키텍처와 생성형 AI 개념 증명은 글로벌 기업들이 AI의 복잡성을 극복하는 데 결정적인 역할을 하고 있다”고 밝혔다. 엔비디아 밥 피트 엔터프라이즈 플랫폼 부문 부사장은 “엔비디아의 AI 플랫폼 레퍼런스 아키텍처는 퓨어스토리지의 단순하고 효율적이며 신뢰성이 탁월한 데이터 인프라로 한층 강화돼 복잡한 AI, 데이터 분석 및 고도화된 컴퓨팅을 해결하려는 기업에 포괄적인 솔루션을 제공한다”며 “퓨어스토리지의 검증된 최신 레퍼런스 아키텍처와 개념 증명은 기업이 새로운 가능성을 열고 혁신적인 결과를 도출하는 데 필요한 툴을 제공함으로써 AI 혁신을 주도하고 있다.”라고 강조했다.

2024.03.20 10:38김우용

젠슨 황 CEO "블랙웰 칩 가격 3만~4만 달러"

엔비디아가 'GTC 2024'에서 선보인 차세대 인공지능(AI) GPU '블랙웰'(Blackwell)의 가격대가 공개됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 19일(현지시간) CNBC의 '스쿼크 온 더 스트리트'(Squawk on the Street)와의 인터뷰에서 블랙웰 'B200' 칩 가격이 3만~4만 달러(약 4천만 원~5천300만원) 수준이라고 밝혔다. 그는 "우리는 그것을 가능하게 하기 위해 몇 가지 새로운 기술을 개발해야 했다"며, 해당 칩의 연구개발에 약 100억 달러(약 13조 3천800억원)의 예산이 들어갔을 것으로 추정했다. 하루 전 엔비디아는 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"며 차세대 AI GPU 블랙웰을 공개했으나 가격대는 밝히지 않았다. 엔비디아의 기존 H100은 칩당 2만5천 달러~4만 달러에 달하는 것으로 알려져 있기 때문에 블랙웰 칩의 가격도 H100과 크게 다른 수준은 아닌 것으로 보인다. IT매체 톰스가이드는 엔비디아는 가속기 자체를 공급하는 것보다 데이터센터 블록 전체를 판매하는 경향이 있기 때문에 3만~4만 달러라는 가격은 대략적인 가격이라고 평했다.

2024.03.20 09:54이정현

SK하이닉스, 'GTC 2024'서 온디바이스 AI PC용 SSD 신제품 공개

SK하이닉스는 18일부터 21일(미국시간)까지 미국 캘리포니아주 새너제이에서 열리고 있는 엔비디아 주최 세계 최대 AI 개발자 컨퍼런스인 'GTC(GPU Technology Conference) 2024'에서 업계 최고 성능이 구현된 SSD 신제품인 'PCB01' 기반의 소비자용 제품을 공개했다고 20일 밝혔다. PCB01은 온디바이스(On-Device) AI PC에 탑재되는 PCIe 5세대 SSD로, 최근 글로벌 주요 고객사로부터 성능 및 안정성 검증을 마쳤다. SK하이닉스는 “올해 상반기 중 PCB01의 개발을 완료하고, 연내 대형 고객사향 제품과 일반 소비자용 제품을 함께 출시할 계획"이라고 설명했다. PCB01은 연속 읽기속도 초당 14GB(기가바이트), 연속 쓰기속도는 초당 12GB로 업계 최고 속도가 구현된 제품이다. 이전 세대 대비 2배 향상된 속도로, AI 학습과 추론에 필요한 거대언어모델(LLM)을 1초 내에 로딩하는 수준이다. PC 제조업체는 온디바이스 AI를 구현하기 위해 PC 내부 스토리지에 LLM을 저장하고, AI 작업이 시작되면 단시간 내 D램으로 데이터를 전송하는 구조로 설계한다. 이 과정에서 PC 내부에 탑재된 PCB01은 LLM 로딩을 신속하게 지원하면서 온디바이스 AI의 속도와 품질을 크게 높여주는 역할을 해줄 것으로 SK하이닉스는 기대하고 있다. PCB01은 이전 세대 대비 전력 효율이 30% 개선돼 대규모 AI 연산 작업 시 효율성을 높이는 데 기여한다. 또한 SK하이닉스 기술진은 이 제품에 'SLC 캐싱' 기술을 적용했다. SLC 캐싱은 낸드의 저장 영역인 셀 일부를 처리 속도가 빠른 SLC로 동작하게 해 필요한 데이터만 신속하게 읽고 쓸 수 있게 해주는 기술이다. 이를 통해 AI 서비스 외 일반 PC 작업 속도도 빨라지도록 도와준다. 윤재연 SK하이닉스 부사장(NAND Product Planning & Enablement 담당)은 “PCB01은 업계 최고 성능 제품으로 Al PC뿐 아니라 게이밍, 하이엔드 PC 등 최고 사양 PC 시장에서도 각광받을 것”이라며 “이를 통해 당사는 HBM은 물론, 온디바이스 AI 분야에서도 '글로벌 No.1 AI 메모리 컴퍼니' 위상을 탄탄하게 다질 수 있을 것”이라고 말했다. 한편 SK하이닉스는 GTC 2024에서 PCB01 외에도 36GB(기가바이트) 12단 HBM3E, CXL, GDDR7 등 차세대 주력 기술 및 제품을 선보였다. 앞서 회사는 지난 19일 세계 최초로 HBM 5세대 제품인 HBM3E의 양산에 들어간다고 발표한 바 있다. 또한 GDDR7은 이전 세대 제품인 GDDR6 대비 대역폭이 2배 이상 확대되고, 전력 효율성이 40% 개선돼 현장에서 큰 관심을 받았다.

2024.03.20 09:45장경윤

젠슨 황 CEO "삼성전자 HBM 테스트 중...기대 크다"

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자의 고대역폭 메모리(HBM)을 현재 테스트 중이며 기대가 크다고 말했다. 또 최근 관심이 쏠리고 있는 일반인공지능(AGI) 구현 시기에 대해선 "정의하기에 따라 다르다"고 밝혔다. 젠슨 황은 19일(현지시간) 미국 캘리포니아주 새너제이에서 열린 'GTC2024' 미디어 간담회에서 이같이 말했다. 이날 간담회에서 젠슨 황은 "AGI를 규정하는 명확한 개념은 없다"며 "AGI를 예측하는 시기는 사람마다 다를 수 있다"고 설명했다. 젠슨 황은 AGI 개념을 'AI가 사람보다 특정 테스트에서 8% 이상 우수한 상태'로 정의했다. 관련 테스트는 수학을 비롯한 읽기, 논리, 의학 시험, 변호사 시험이다. 그는 "현재 AI의 테스트 능력을 봤을 때, AGI는 이를 곧 따라잡을 것"이라며 "해당 조건에서 AGI는 5년 내 올 것 같다"고 예측했다. 젠슨 황은 생성형 AI의 환각 현상에 대해 "충분한 연구를 통해 해결할 수 있는 문제"라고 말했다. 그는 "생성형 AI에 규칙을 꾸준히 추가해야 한다"며 "AI는 모든 답을 하기 전에 이에 대한 근거까지 찾아야 한다"고 했다. 그는 "AI는 단순히 답변만 하는 것이 아니라 어떤 답이 가장 좋은지 판단해야 한다"며 "이를 위한 조사를 스스로 할 수 있는 검색증강생성(RAG) 능력이 뛰어나야 한다"고 강조했다. 황 CEO는 생성형 AI의 답변에 '당신의 질문에 대한 답을 찾지 못했습니다' 또는 '이 질문에 대한 정답이 무엇인지에 대한 합의에 도달할 수 없습니다' '아직 34대 대통령이 나오지 않았기 때문에 인물을 말할 수 없습니다'와 같은 옵션도 반드시 있어야 한다는 점도 덧붙였다. 이 외에도 젠슨 황 CEO는 삼성전자의 고대역폭 메모리 등을 사용하고 있진 않지만 현재 테스트 중"이라며 "기대가 크다"고 답했다. 이번 행사에서 엔비디아는 차세대 AI 그래픽처리장치(GPU) 블랙웰을 비롯한 옴니버스, 엔비디아 인퍼런스 마이크로서비스(NIM) 등 최신 기술을 소개했다.

2024.03.20 09:06김미정

레노버, 엔비디아와 하이브리드 AI 솔루션 공개

레노버는 18일(현지시간) 개최된 엔비디아 GTC에 참가하고 신규 하이브리드 AI 솔루션을 발표했다. 지난 레노버 테크 월드에서 발표한 엔비디아와 파트너십을 기반으로 양사는 기업들로 하여금 AI 시대에 필수적인 컴퓨팅 기술을 갖추고 새로운 AI 활용 사례를 효율적으로 개발 및 구현할 수 있도록 지원할 예정이다. 양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 이로써 레노버는 '모두를 위한 AI' 비전에 한 걸음 더 가까워졌을 뿐 아니라, 생성형 AI를 위한 획기적인 아키텍처의 시장 출시를 지원하게 됐다. 이제 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버와 같은 마이크로 서비스에 액세스할 수 있게 된다. 전 세계 산업들이 방대한 데이터를 분석하기 위해 AI를 사용하기 시작하면서, 컴퓨팅 집약적인 워크로드를 처리하기 위한 전력효율성도 강조되고 있다. 레노버는 효율적인 고성능 컴퓨팅(HPC)을 구현하는데 앞장서 왔으며, 엔비디아 GPU 디자인이 적용된 HPC는 그린500 리스트 1위를 차지했다. 레노버 넵튠 다이렉트 수냉식 기술을 적용한 해당 디자인은 고열 및 다중 GPU 환경에서도 낮은 온도를 유지하여 컴퓨팅 성능을 가속화한다. 레노버는 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개하며, 대규모 AI 워크로드를 효율적으로 처리해 내는 데 있어 획기적인 이정표를 세웠다. 해당 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다. 신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치 기술을 사용해 발열 문제없이 최대 성능을 유지할 수 있다. 10년간 사용된 레노버 넵튠 다이렉트 수냉식 기술은 온수 루프를 재활용하여 데이터 센터 시스템을 냉각하고, 기존 공랭 방식에 비해 최대 40%의 전력 소비 절감 및 3.5배의 열효율을 향상시킨다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 해당 시스템은 방대한 계산 능력을 제공하며, 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성됐다. 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 '엔비디아 AI 엔터프라이즈'를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 레노버 씽크시스템 AI 서버 포트폴리오에는 중앙 집중화된 리소스 관리 시스템을 제공하는 '레노버 엑스클라리티 관리 시스템'과 AI 모델 개발 및 훈련, HPC 워크로드를 위한 클러스터된 컴퓨팅 리소스 사용을 간소화하는 통합 플랫폼 '레노버 리코(LiCO)'가 포함되어 있다. 또한, 4세대 및 5세대 인텔 제온 스케일러블 프로세서를 지원하며, 고전력 GPU를 위한 써멀 헤드룸을 갖췄다. 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션 GPU를 제공해 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴로써 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원한다. 이제 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계돼, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 커크 스카우젠 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능의 경계를 허물고 있다”며 “생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”고 밝혔다. 그는 “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다”며 “레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것”이라고 강조했다. 밥 피트 엔비디아 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며 “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 밝혔다.

2024.03.19 13:54김우용

델테크놀로지스, 엔비디아 기반 'AI 팩토리 솔루션' 공개

델테크놀로지스는 엔비디아와 전략적 협력을 강화하고 '델 AI 팩토리 위드 엔비디아' 솔루션을 출시한다고 19일 밝혔다. '델 AI 팩토리 위드 엔비디아'는 델의 생성형 AI 솔루션 포트폴리오 중 하나로, 기업과 기관들이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것을 골자로 한다. 델과 엔비디아는 긴밀한 협력을 통해 델의 엔드투엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원에 나선다. '델 AI 팩토리 위드 엔비디아'는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 통합형 솔루션이다. 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다. '델 AI 팩토리 위드 엔비디아'는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 델테크놀로지스는 엔비디아와 협력해 '엔비디아 그레이스 블랙웰 슈퍼칩'을 기반으로 하는 랙 스케일 고밀도 수랭식 아키텍처를 채용할 예정이다. 이 시스템은 엔터프라이즈 AI 워크로드의 성능 집적도 향상을 위한 기반으로서 차세대 생태계를 지원하게 된다. 델 파워엣지 XE9680 서버는 '엔비디아 B200 텐서 코어 GPU'를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹 플랫폼도 지원할 예정이다. '검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션'은 '엔비디아 AI 엔터프라이즈'의 새로운 마이크로서비스를 활용해 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 '생성형 AI를 위한 델 프로페셔널 서비스'는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 '생성형 AI 데이터 보호를 위한 자문 서비스' 등을 포함한다. 젠슨 황 엔비디아 설립자 겸 CEO는 "AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것"이라며 "엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 밝혔다. 김경진 한국델테크놀로지스 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다”며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다. '델 AI 팩토리 위드 엔비디아'는 기존 채널 파트너를 통하거나, 또는 '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 엔비디아 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680 서버는 델 회계연도 2분기(5월~7월)에 출시되며, 엔비디아 B200 및 B100 GPU를 탑재한 XE9680 서버는 4분기(11월~내년 1월) 내에 출시될 예정이다. 'RAG를 위한 델과 엔비디아의 생성형 AI 솔루션'은 현재 기존 채널 파트너와 델 에이펙스를 통해 전 세계에서 구입할 수 있으며, '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 4월에 출시될 예정이다. 'RAG를 위한 델 구현 서비스'는 5월 31일부터 한국을 비롯한 일부 지역에서 제공되며, '모델 훈련을 위한 델 인프라스트럭처 구축 서비스'와 '델 생성형 AI 데이터 보안을 위한 자문 서비스'는 3월 29일부터 한국을 비롯한 일부 국가에서 출시될 예정이다.

2024.03.19 13:47김우용

엔비디아, 휴머노이드 로봇용 AI 플랫폼 '그루트' 공개

엔비디아가 휴머노이드 로봇 개발을 위한 인공지능(AI) 플랫폼 '그루트'(GROOT)를 발표했다고 테크크런치 등 외신들이 18일(현지시간) 보도했다. 젠슨 황 엔비디아 최고경영자(CEO)는 이날 미국 캘리포니아 주 새너제이에서 진행된 'GTC 2024' 행사에서 마블 영화에 나오는 캐릭터 '그루트'를 연상시키는 '프로젝트 그루트'를 공개했다. 엔비디아는 해당 플랫폼을 "휴머노이드 로봇을 위한 범용 기반 모델"이라고 칭했다. 젠슨 황은 프로젝트 그루트 기반으로 개발된 로봇이 여러 작업을 수행하는 모습을 보여주는 모습을 공개했다. 또, 엔비디아 자체적으로 직접 훈련시킨 로봇 '오렌지'와 '그레이'를 등장시켜 관심을 끌었다. 젠슨 황은 “해당 플랫폼으로 구동되는 로봇은 인간의 행동을 관찰해 자연어를 이해하고 움직임을 모방하도록 설계될 것”이라고 밝혔다. 또 “일반 휴머노이드 로봇을 위한 기초 모델을 구축하는 것은 오늘날 AI 분야에서 해결해야 할 가장 흥미로운 문제 중 하나”라고 덧붙였다. 엔비디아는 휴머노이드 로봇 개발을 위해 설계된 새로운 컴퓨팅 시스템 '젯슨 토르'(Jetson Thor)를 구축했다고 밝혔다. 여기에는 800테라플롭스(TFLOPS)의 AI 성능을 제공하는 변압기 엔진과 차세대 GPU인 '블랙웰'(Blackwell)이 탑재돼 안전 기능 프로세서, 고성능CPU 클러스터 및 100GB의 이더넷 대역폭을 지원한다. 또한 엔비디아는 로봇 팔을 위해 설계된 개선된 아이작(Isaac) 로봇 플랫폼을 함께 공개했다. IT매체 테크크런치는 향후 몇 년 동안 휴머노이드 로봇과 로봇 팔 등 시장의 열띤 경쟁이 펼쳐질 예정이며, 엔비디아가 이 시장에서 한 몫을 차지하려고 한다고 평했다.

2024.03.19 11:15이정현

지멘스, 엔비디아 '옴니버스'로 디지털 트윈 사용 확대

지멘스가 엔비디아와 협력을 강화하면서 산업용 메타버스 저변 확대에 나섰다. 지멘스는 미국 캘리포니아주 새너제이에서 열린 GTC2024'에서 '지멘스 엑셀러레이터' 플랫폼에 새로운 엔비디아 옴니버스 클라우드 API로 구동되는 몰입형 시각화를 도입한다고 19일 밝혔다. 이를 통해 인공지능(AI) 기반 디지털 트윈 기술의 사용을 확대할 방침이다. 이번 행사에서 지멘스와 엔비디아는 생성형 AI가 어떻게 사실적인 시각화를 구현할 수 있는지 시연했다. HD현대가 이를 활용해 새로운 선박을 설계하는 방법을 선보였다. 롤랜드 부쉬 지멘스 최고경영자(CEO)는 "산업용 메타버스로 가는 과정에서 차세대 산업용 소프트웨어(SW)를 통해 고객은 실제 세계와 마찬가지로 제품을 상황에 맞게 놀라운 현실감으로 경험할 수 있고, 향후 자연어 입력을 통해 제품과 상호 작용할 수 있을 것"이라며 "엔비디아와의 협력을 통해 지멘스 엑셀러레이터 포트폴리오 전반에 걸쳐 가속화된 컴퓨팅, 생성형 AI, 옴니버스 통합을 제공할 것"이라고 말했다. 젠슨 황 엔비디아 CEO는 "옴니버스와 생성형 AI는 기업의 대규모 혁신을 주도하고 있다"며 "지멘스는 고객에게 엔비디아 플랫폼을 제공함으로써 산업 리더들에게 AI 기반 차세대 디지털 트윈을 구축할 수 있는 새로운 기회의 장을 열었다"고 강조했다. 지멘스는 올해 말 지멘스 엑셀러레이더 플랫폼의 일부인 클라우드 기반 제품수명주기관리 SW '팀센터X'의 신제품을 출시할 예정이다. 엔비디아 옴니버스 기반 작동하는 제품이다. 엔지니어링 팀에 워크플로우 낭비와 오류를 없애는 매우 직관적이고 사실적인 실시간 물리 기반 디지털 트윈 생성 기능을 제공한다. 다양한 재료 정의, 조명 환경, 기타 지원 배경 에셋 등 사실적인 렌더링의 디테일을 설정하고 조정하는 작업이 생성형 AI를 통해 획기적으로 빨라질 전망이다. 이전에는 수일 걸리던 작업을 몇 시간으로 단축하며, 실제 세계에서 보이는 것처럼 컨텍스트화된 엔지니어링 데이터를 완성할 수 있다. 엔지니어링 외에도 영업과 마케팅 팀부터 의사 결정권자, 고객에 이르기까지 다양한 이해관계자들은 실제 제품 외관에 대한 심층적인 인사이트와 이해를 제공받게 됨으로써 더 많은 정보를 통해 더 빠르고 정확한 의사결정을 할 수 있다. 지멘스는 엔비디아와 협력해 지속 가능한 선박 제조 분야의 선두주자인 HD현대를 위한 실시간 사실적 시각화 기술을 시연했다. HD현대는 암모니아와 수소 동력을 사용하는 선박을 개발 중이며, 700만 개 이상의 개별 부품이 포함된 선박을 관리해야 하는 복잡한 공정을 거치고 있다. 지멘스의 신제품을 통해 이러한 방대한 엔지니어링 데이터 세트를 상호적으로 통합하고 시각화할 수 있다. 이태진 HD 현대 최고정보책임자(CIO) 겸 최고디지털책임자(CDO)는 "우리는 제품 라이프사이클 관리를 위해 오랫동안 지멘스 팀센터를 사용해 왔다"며 "이러한 신뢰를 바탕으로 한 이번 협업을 통해 우리는 선박의 디지털 트윈을 시각화하고 상호 작용하는 동시에 생성형 AI를 활용한 객체와 HDR 배경을 생성해 프로젝트에 대한 이해도를 높일 수 있을 것이다"고 밝혔다.

2024.03.19 10:06김미정

엔비디아, 생성형 AI·디지털 트윈 세계 확장했다

엔비디아가 생성형 인공지능(AI)과 디지털 트윈 세계를 확장한다. AI 추론 속도를 높였고, 협업을 통해 디지털 트윈 플랫폼 활용도까지 넓혔다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 GTC2024에서 AI 추론 속도를 높이는 소프트웨어 '엔비디아 인퍼런스 마이크로서비스(NIM)'와 디지털 트윈 플랫폼 '옴니버스' 업그레이드 내용을 발표했다. NIM은 생성형 AI 앱 개발·추론 속도를 높였다. 현재 개발자는 '엔비디아 AI 엔터프라이즈 버전 5.0'에서 NIM을 활용할 수 있다. 옴니버스는 PC를 넘어 애플의 '애플 비전프로'에 들어갔다. "NIM으로 생성형 AI 앱 구축·배포 더 빠르게" 엔비디아는 개발자가 생성형 AI 앱을 빠르게 구축·배포할 수 있도록 돕는 솔루션 NIM을 내놨다. NIM은 AI 모델과 통합 코드를 포함해 추론에 필요한 기능을 패키지 형태로 제공한다. 보통 개발자가 생성형 AI 앱이나 거대언어모델(LLM)을 제작한 후 배포할 때 복잡한 과정을 거쳐야 한다. 추론 작업에 필요한 하드웨어 크기 조정, 검색증강생성(RAG)용 데이터 통합, 랭체인 같은 도구를 통한 엔지니어링 작업을 별도로 진행해야 한다. 이는 업무 시간과 비용이 많이 든다. 해당 과정에 데이터 과학자도 필수다. 반면 NIM은 이러한 과정을 한 플랫폼 내에서 간소화할 수 있다. 엔비디아 마누비르 다스 엔터프라이즈 컴퓨팅담당 부사장은 이번 행사에서 "NIM은 이러한 모든 번거로운 과정을 생략하고 한 플랫폼 내에서 모든 작업을 처리할 수 있도록 한다"며 "이를 통해 개발자는 NIM을 통해 생성형 AI 앱을 구축하자마자 별도의 과정 없이 바로 배포 단계에 들어설 수 있다"고 강조했다. NIM은 생성형 AI 앱 개발에 필요한 모든 작업을 한데 모아 패키지로 구성된 셈이다. 고객은 NIM을 통해 오픈AI, 메타, 미스트랄 등의 다양한 독점·오픈 소스 LLM에 접근할 수도 있다. NIM은 보안 기능도 갖췄다. 다스 부사장은 "클라우드에서 실행되는 대형 H100부터 엣지에서 진행되는 엔비디아 젯슨 같은 소형 제품까지 다양한 엔비디아 그래픽처리장치(GPU)에서 작동하는 모델 보안 문제도 바로 잡았다"며 "개발자는 NIM에서 걱정 없이 생성형 AI 앱 개발 과정만 진행하기만 하면 된다"고 강조했다. 다스 부사장은 "엔비디아는 개발자가 수행해야 하는 개발 작업의 양을 줄이고 속도를 높도록 도울 것"이라며 "이를 통해 기업은 막 개발한 생성형 AI 앱을 몇분 만에 배포 가능한 상태로 전환할 수 있다"고 강조했다. 현재 NIM을 탑재한 엔비디아 AI 엔터프라이즈 가격은 GPU당 연간 4천500달러(약 602만원)다. 고객은 시간당 GPU 1달러(약 1천337원)로 클라우드를 통해 접근할 수도 있다. 디지털 트윈 플랫폼 '옴니버스', 애플 비전프로 속으로 엔비디아는 디지털 트윈 플랫폼 '옴니버스'를 애플의 '애플 비전프로'에 탑재한다고 밝혔다. 사용자는 애플 비전프로를 통해 다양한 산업에서 디지털 트윈 기술을 활용할 수 있다. 활용법은 간단하다. 옴니버스 클라우드 API를 통해 접속한 후, 애플비전 프로로 직접 스트리밍해 주는 그래픽 전송 네트워크를 통해 디지털 트윈 기능을 이용할 수 있다. 엔비디아 레바레디언 시뮬레이션 담당 부사장은 "기업 고객은 애플 비전프로를 통해 성능 저하 없이 디지털 트윈 작업을 실현할 수 있다"며 "이를 옴니버스 내에서 활용한다면 더욱 확장된 기능에 접근할 수 있다"고 강조했다. 이번 행사에서 엔비디아는 직접 옴니버스가 설치된 애플 비전프로로 디지털 트윈 기술을 선보이는 시연회도 진행했다. 한 디자이너가 비전 프로를 통해 자동차 제작 프로그램에 접속하는 시연이었다. 개발자가 차량의 다양한 측면을 옴니버스로 설계·조작한 후 해당 차량에 탑승하는 장면을 보여줬다. 외신은 이번 솔루션 결합은 엔비디아와 애플 모두에게 이득이라고 판단했다. 우선 엔비디아는 옴니버스 고객층을 늘릴 수 있다. PC뿐 아니라 애플 비전프로 사용자도 자사 고객으로 만들 수 있기 때문이다. 애플도 마찬가지다. 기업들이 비전프로를 다양한 산업에서 활용할 가능성이 높아졌다. 그동안 해당 제품은 개인의 엔터테인먼트용으로만 활용됐다. 다만 3천499 달러(약 4백67만원)라는 가격 장벽으로 인해 판매량을 좀처럼 늘릴 수 없었다. 두 기업의 솔루션 통합으로 새로운 고객층을 만들 수 있는 셈이다.

2024.03.19 10:01김미정

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

윤곽 잡힌 K-로봇 청사진…자원 효율적 안배 집중해야

"갤S25 엣지, 더 싸게 사자"...자급제폰 온라인몰서 인기

위믹스 재상폐 가처분 심문 D-1...공정성-역차별 판단 주목

"기술이 뚫려도 제도가 막았어야"...유심 해킹 민낯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현