• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아 GPU'통합검색 결과 입니다. (99건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"삼성SDS도 신뢰한 AI 팩토리"…델-엔비디아, 기업용 AI 시장 공략 '박차'

델 테크놀로지스가 엔비디아와 손잡고 인공지능(AI) 인프라를 전면 업그레이드한다. 기업들의 AI 도입 장벽을 낮추고 혁신 속도를 끌어올려 시장 경쟁력을 강화하려는 행보다. 델 테크놀로지스는 18일 온라인 미디어 브리핑에서 '엔비디아 기반 델 AI 팩토리'의 최신 포트폴리오를 공개했다. 엔비디아의 'GTC 2025'와 동시에 열린 이번 간담회에서는 엔비디아와 델의 협력 성과가 집중 조명됐다. 델은 AI PC, 서버, 스토리지, 네트워킹 등 AI 인프라 전반을 아우르는 신제품을 대거 선보였다. 이날 발표를 진행한 바룬 차브라 델 인프라 및 텔레콤 마케팅 수석 부사장은 AI의 본격적인 산업 적용이 시작되면서 기업들은 AI 도입에 있어 여러 장애물을 마주하고 있는 점을 지적했다. 차브라 부사장에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 직면해 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있다. 이에 따라 델은 엔비디아와의 협력을 통해 이 같은 시장 수요를 적극 공략할 계획이다. 실제로 델은 이번 브리핑에서 AI PC 시장 공략을 위한 신제품을 대거 선보였다. '델 프로 맥스 AI PC' 라인업에는 엔비디아의 최신 '그레이스 블랙웰' 아키텍처가 적용됐다. 기존 데이터센터에서만 활용되던 AI 개발용 그래픽처리장치(GPU) 성능을 데스크톱에서도 구현한 것이 특징이다. 연구자와 개발자를 위한 소형 워크스테이션뿐 아니라 784기가바이트(GB) 메모리와 20페타플롭스(PFLOPS) 성능을 갖춘 고성능 AI 개발용 PC도 함께 공개됐다. 데이터센터 부문에서도 델과 엔비디아의 협력은 강화된다. 차브라 부사장에 따르면 델은 엔비디아의 최신 블랙웰 GPU와 커넥트X8 슈퍼닉스를 지원한다. 특히 곧 출시될 '델 파워엣지 XE 8712(PowerEdge XE8712)' 서버는 노드당 2개의 그레이스 CPU와 4개의 블랙웰 GPU를 탑재해 데이터센터 내 AI 성능을 극대화할 것으로 예상된다. 한 랙에 144개의 GPU를 수용할 수 있어 초고밀도 AI 연산 환경을 구축할 수 있다. AI 데이터 관리 역시 델의 핵심 혁신 분야 중 하나다. 이를 위해 '델 AI 데이터 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'는 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계됐다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 차브라 부사장은 "AI의 성능을 극대화하려면 데이터를 빠르게 처리하고 안전하게 보관하는 것이 필수"라며 "우리 AI 데이터 팩토리는 대규모 AI 워크로드를 보다 효율적으로 운영할 수 있도록 설계돼 기업들의 AI 도입 속도를 한층 끌어올릴 것"이라고 설명했다. AI 소프트웨어 분야에서도 델과 엔비디아의 협력은 이어지고 있다. 델은 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합했다. 이에 따라 기업들은 AI가 단순한 질의응답을 넘어 스스로 의사 결정을 내릴 수 있는 시스템을 구축할 수 있게 됐다. 회사는 AI 인프라 구축뿐만 아니라 AI 네트워킹 및 배포 서비스도 강화하고 있다. 네트워크 최적화, GPU 서버 구축, 다중 벤더 환경 통합 등 다양한 AI 전문 서비스를 제공하며 AI 프로젝트의 초기 단계부터 운영까지 전 과정을 지원한다. 이같이 AI 도입이 빠르게 확산되면서 델과 엔비디아의 협력도 지속적인 탄력을 받고 있다. 양사는 지난해 GTC에서 '델 AI 팩토리 위드 엔비디아'를 공개한 이후 지난 1년간 100개 이상의 신규 AI 제품을 출시하고 2천 개 이상의 고객을 확보했다. 특히 삼성SDS는 델과 협력해 AI 팩토리를 구축했으며 이를 통해 모델 정확도를 98%까지 향상시키고 업무 생산성을 70% 이상 개선한 것으로 알려졌다. 스콧 구 삼성SDS 클라우드 서비스 사업부문 부사장은 델-엔비디아 협력을 두고 "우리는 모든 고객을 위한 AI 팩토리를 구축하고 있다"며 "이를 서비스 형태로 안전하게 제공하거나 고객의 자체 환경에 배포할 수 있도록 하고 있다"고 말했다. 향후에도 델은 엔비디아와 협력해 AI 시장에서의 입지를 더욱 강화할 계획이다. 바룬 초프라 델 수석 부사장은 "우리는 엔비디아와 AI 도입을 가속화할 수 있는 완벽한 파트너"라며 "AI 생태계 전반에서 기업들이 혁신을 실현할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 08:32조이환

엔비디아 'GTC 2025' 개막...젠슨 황 입 주목

엔비디아가 생성형 인공지능(AI)과 고성능 컴퓨팅 미래 비전을 제시한다. 엔비디아는 17일부터 21일(현지시간)까지 미국 캘리포니아 산호세에서 'GPU 테크놀로지 컨퍼런스(GTC) 2025'를 개최해 AI 시대 필요한 차세대 그래픽처리장치(GPU)를 비롯한 AI 칩, 소프트웨어(SW) 플랫폼을 발표한다. 이번 행사는 세션 약 1천개, 연사 2천명, 전시 400개로 구성됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 18일 오전 10시 SAP 센터에서 기조연설을 진행한다. 매년 글로벌 기술 업계는 황 CEO 발표 내용에 주목했다. 엔비디아는 이번 황 CEO 연설이 AI와 고성능 컴퓨팅 기술에 초점을 맞출 예정이라고 밝혔다. 로보틱스, 소버린 AI, AI 에이전트, 자동차 분야 관련 발표도 진행된다. 다수 외신은 이번 행사에서 블랙웰 칩 라인업 업그레이드 버전이 공개될 가능성이 크다고 봤다. 앞서 황 CEO는 최근 실적 발표에서 차세대 블랙웰 B300 시리즈 '블랙웰 울트라'가 올해 하반기 출시될 예정이라고 밝힌 바 있다. 블랙웰 울트라는 기존보다 더 높은 컴퓨팅 성능을 제공하며, 288GB 메모리를 탑재했다. 메모리 집약적인 AI 모델을 실행하고 학습하는 데 적합할 것이라는 평가를 받고 있다. 차세대 GPU 시리즈인 '루빈'도 이번 GTC에서 언급될 것이란 분석도 이어지고 있다. 루빈은 2026년 출시 예정이다. 테크크런치는 "이번 행사에 루빈 이후 제품에 대한 내용도 일부 공개될 전망"이라며 "루빈 울트라 GPU 혹은 루빈 다음 세대의 GPU 아키텍처일 수도 있다"고 봤다. 엔비디아는 '퀀덤 데이'를 통해 양자 컴퓨팅 전략도 제시한다. 양자 컴퓨팅 분야 주요 인사들과 양자 애플리케이션 개발을 위한 로드맵을 논의할 예정이다. 외신은 엔비디아가 올해 행사 성과가 비즈니스에 영향 미칠 것이라고 봤다. 초기 블랙웰 GPU 과열 문제와 미국 수출 통제로 인한 관세 우려가 엔비디아 주가 하락으로 이어진 바 있다. 여기에 중국 AI 스타트업 딥시크가 딥시크-R1 모델을 출시하면서 투자자들은 고성능 GPU 수요에 대한 우려를 표하고 있다. 이 외에도 엔비디아는 이번 GTC에서 글로벌 기업과 연구 기관, 정부와 맺은 전략적 협업 사례와 성과도 소개한다고 밝혔다. 개발자와 기술 전문가를 위한 교육 세션을 전년보다 확대했다. 또 데이터 보안 등 AI 윤리적 측면을 다룬 토론회도 진행될 예정이다. 엔비디아는 "이번 GTC는 AI와 가속 컴퓨팅 미래를 결정짓는 중요한 자리가 될 것"이라며 "기술 혁신을 선도하고 글로벌 산업의 발전을 이끄는 계기가 될 것"이라고 공식 홈페이지를 통해 밝혔다.

2025.03.16 09:21김미정

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

인텔 "보안은 끝없는 여정...제품 개발부터 출시 이후까지 지속 관리"

"보안 보증은 목적지가 없는 여정입니다. 인텔에서는 세계적 수준의 표준에 맞춰 프로그램과 프로세스를 지속적으로 평가하고 진화하며, 개선 및 적응을 추구합니다. 이것이 보안 우선 서약의 본질입니다." 4일 오전 원격으로 진행된 인터뷰에서 제리 브라이언트(Jerry Bryant) 인텔 보안 커뮤니케이션·사고 대응 담당 시니어 디렉터가 이렇게 설명했다. 인텔은 지난 2월 중순 보안관련 시장조사업체인 ABI리서치에 의뢰해 발간한 '2024 인텔 제품 보안 보고서'를 공개하고 지난 1년간 각종 제품과 서비스에서 발견된 보안 취약점과 대응 상황을 소개했다. 보고서에 따르면 인텔은 지난 한 해 동안 총 374개의 취약점을 해결했으며, 그중 96%가 선제적 조치로 발견됐다. 특히 하드웨어 취약점 21개는 모두 인텔 내부 인력이 발견한 것이다. 보안 관련 지속 투자로 경쟁사 대비 높은 수준 유지 ABI리서치가 평가한 보안 대비 태세 평가에서 인텔은 82.2점으로 업계 1위를 차지했다. 이는 2위 퀄컴(68.5점)과 상당한 격차를 보이는 수치다. 제리 브라이언트 시니어 디렉터는 "인텔은 보안 개발 라이프사이클(SDL) 프로그램, PSIRT, 혁신적인 버그 바운티 프로그램, 적극적인 보안 연구 역량, 장기 보존 및 지원 랩, 예측 가능한 인텔 플랫폼 업데이트 프로세스로 보안에 지속적 투자중"이라고 설명했다. 보고서에 따르면 지난 해 인텔 제품에서 발견된 하드웨어 신뢰 기반(root-of-trust) 취약점은 경쟁사인 AMD의 33% 수준으로 적었다. 이러한 격차에 대해 브라이언트 디렉터는 인텔의 체계적 접근법을 강조했다. "인텔 내 하드웨어 신뢰 보안을 담당하는 팀은 보안 우선 사고방식으로 체계적인 접근 방식을 이용해 제품을 개발하도록 돕고 있다. 보안은 인텔 문화에 깊이 뿌리 박혀 있고, 직원들은 이를 달성하기 위해 최선을 다하고 있다." 지난 해 하드웨어 취약점 전부 내부에서 발견 인텔은 지난 해 하드웨어 관련 보안 취약점 중 전체 21개를 모두 내부 연구와 검토 과정에서 해결하고 이에 대한 해결책을 내놨다. 제리 브라이언트 시니어 디렉터는 이것이 인텔의 보안 연구 역량을 잘 보여준다고 설명했다. "외부 위협과 공격 방법이 끊임없이 진화하고 있으며, 아무도 완벽한 보안을 보장할 수 없다는 것은 누구나 아는 사실이다. 그러나 인텔은 이런 문제를 해결하기 위한 인적 자원을 보유하고 있다." 그는 이어 "최종 제품이 실리콘으로 생산되기 전에 특정 분야에서 발생할 수 있는 문제를 미리 찾아내고 제거하고 있으며 '장기 보존 및 지원 연구실' 역량을 활용해 현재 발견된 문제가 이미 출시된 다른 제품에도 존재하는지 파악하고 있다"고 설명했다. 전체 취약점 중 53% 버그 바운티로 발견... 보안 업계와 협력 주요 소프트웨어·하드웨어 업체들은 보안 취약점을 발견하는 개인이나 보안 회사에 보상금 등을 지급하는 '버그 바운티' 프로그램을 진행한다. 인텔 버그 바운티 프로그램은 지난 해 전체 취약점의 53%를 발견하는 성과를 거뒀다. 제리 브라이언트 시니어 디렉터는 "버그 바운티 프로그램의 이런 성과는 단시일 안에 만들어지지 않았다"며 "2018년부터 시작해 보안 전문가/학계와 적극적으로 협력해 얻은 성과"라고 설명했다. 그는 "인텔은 단순한 버그 바운티 프로그램에서 한 단계 더 나아가 2022년부터 '서킷 브레이커 프로젝트'를 시작했다. 인텔 엔지니어가 보안 관련 연구진이 하드웨어나 펌웨어에도 집중할 수 있도록 일정 기간동안 이를 지원하고 있다"고 설명했다. 이어 "현재까지 다른 실리콘 공급업체는 인텔 '서킷 브레이커 프로젝트'와 비슷한 프로그램을 운영하지 않는 것으로 안다"고 덧붙였다. 일정한 업데이트 주기로 사전 검증 효율 향상 인텔은 현재 매 분기별로 제품이나 소프트웨어 관련 보안 취약점을 공개하고 패치와 업데이트를 적용하는 '인텔 플랫폼 업데이트'(IPU) 프로세스를 운영중이다. 제리 브라이언트 시니어 디렉터는 "하드웨어와 펌웨어 업데이트 주기를 일정하게 유지하면서 전체 생태계가 일정한 날짜에 최종 업데이트를 제공할 수 있다는 것이 가장 큰 장점"이라고 설명했다. 그는 대규모 PC 제조사를 예로 들어 "이들 업체는 수백 개의 제품에 업데이트를 적용하고 검증해야 한다. 예측 가능한 업데이트 주기는 사전 검증과 리소스 투입 효율성을 높인다"고 설명했다. 제리 브라이언트 시니어 디렉터는 "인텔은 문제를 찾아 완화하는 인력의 역량과 절차에 대해 자신감을 가지고 있다. 문제가 발생한다면 인텔 플랫폼 업데이트 등 관련 절차를 통해 생태계에 해결 방법을 신속하게 제공하는 충분한 능력을 가지고 있다"고 강조했다.

2025.03.04 16:24권봉석

엔비디아, AI 네트워크 칩으로 시스코 실리콘 원 선정

시스코(Cisco)와 엔비디아(NVIDIA)가 기업의 인공지능(AI) 도입을 가속화하기 위해 파트너십을 확대한다. 26일 시스코와 엔비디아는 AI 지원 데이터 센터 네트워크 구축을 단순화하기 위해 포트폴리오 간 통합 아키텍처를 구축할 것이라고 밝혔다. 이번 파트너십의 핵심은 시스코의 실리콘 원(Silicon One)과 엔비디아의 스펙트럼-X(Spectrum-X) 이더넷 네트워킹 플랫폼의 결합이다. 엔비디아는 고성능 AI 데이터센터 구축을 위한 네트워킹 플랫폼인 '스펙트럼-X'에 사용할 핵심 네트워크 칩으로 시스코의 실리콘을 선정했다. 이를 통해 시스코가 유일한 네트워크 칩셋 공급업체가 된다는 설명이다. 또한, 시스코는 엔비디아의 스펙트럼 실리콘과 운영체제 소프트웨어를 결합한 시스템을 구축해 고객들이 데이터센터에서 시스코 네트워킹과 엔비디아 기술을 동시에 표준화할 수 있도록 지원할 계획이다. 이번 협력을 통해 두 회사는 AI 워크로드를 위한 고성능, 저지연, 에너지 효율적인 연결을 제공해 데이터센터, 클라우드, 사용자 간의 원활한 통합을 지원한다는 방침이다. 또한, 고객들은 기존 관리 도구와 프로세스를 활용하여 프론트엔드와 백엔드 네트워크를 아우르는 공통 아키텍처로 AI 인프라 투자 최적화에 나선다. 시스코는 2025년 중반까지 실리콘 스위치를 스펙트럼-X 및 엔비디아의 참조 아키텍처와 호환되도록 업데이트할 계획이다. 여기에는 기존 및 향후 출시될 시스코 넥서스, 시스코 하이퍼패브릭, 시스코 UCS 제품이 포함된다. 시스코의 척 로빈스 회장 겸 CEO는 "기업들은 AI를 신속하고 효과적으로 배포해야 하는 압박을 받고 있으며, 많은 리더들이 투자와 위험 간의 균형을 맞추는 데 어려움을 겪고 있다"며 "시스코와 엔비디아는 고객들의 이러한 장벽을 제거하고, 인프라 투자를 최적화하여 AI의 잠재력을 활용할 수 있도록 협력하고 있다"라고 말했다. 엔비디아의 젠슨 황 창립자 겸 CEO는 "AI는 빛의 속도로 발전하며 모든 산업을 혁신할 것"이라며 "엔비디아 스펙트럼-X는 이러한 AI를 위해 강화되고 초고속화된 이더넷"이라고 설명했다. 이어 "시스코의 기업 플랫폼과 글로벌 도달 범위와 함께 우리는 전 세계 기업들이 AI로의 전환을 위해 최첨단 엔비디아 인프라를 구축하도록 도울 것"이라고 말했다.

2025.02.26 16:44남혁우

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

엔비디아 "딥시크 AI 혁신, GPU 수요 더 증가시킬 것"

엔비디아가 27일(미국 현지시간) 중국 AI 스타트업 딥시크(DeepSeek)가 공개한 새 AI 모델 'R1'에 대해 긍정적인 평가를 내왔다. 딥시크 R1은 20일 공개된 추론 특화 AI 모델이다. 자체 테스트 결과에 따르면 딥시크 R1은 일부 테스트에서 오픈AI의 추론 특화 모델 'o1'보다 나은 성능을 보였다. 또 2022년 미국 상무부의 수출 통제 조치를 우회하기 위해 엔비디아가 성능을 낮춘 H800 GPU를 이용했다. 모델 훈련에 든 순수 비용은 557만6천달러(약 80억원)이며 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준이다. 지난 주 알렉산더 왕 스케일AI CEO는 미국 CNBC와 인터뷰에서 "딥시크가 미국 정부의 수출 규제를 우회해 고성능 GPU를 썼을 것"이라고 주장했다. 그러나 엔비디아는 "시크가 사용한 GPU가 미국의 수출 규정을 완전히 준수했다"고 확인했다. 27일 미국 증권 시장에서는 딥시크 R1 이후 비교적 성능이 낮은 GPU로 고성능 AI 모델 개발이 활발해질 것이라는 전망에 따라 엔비디아 주가가 크게 하락했다. 1주당 가격은 지난 주 대비 16.86% 하락한 118.58달러(약 17만 2천원)로 마감했고 시가총액은 6천억 달러(약 868조원) 가까이 줄었다. 미국 CNBC에 따르면 엔비디아는 "딥시크는 탁월한 AI 발전의 사례이며, 사용 가능한 모델과 완전한 수출 통제 준수 하에 구축된 컴퓨팅을 활용하여 새로운 모델을 생성하는 방법을 잘 보여준다"고 밝혔다. 엔비디아 관계자는 이어 "추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 전망했다.

2025.01.28 16:22권봉석

엔비디아 '지포스 RTX 5090' 성능 공개... 전작比 최대 40% ↑

엔비디아가 올 초 CES 2025 기조연설에서 공개한 지포스 RTX 5090의 테스트 결과가 국내외 IT 매체를 통해 24일 오전 0시경 일제히 공개됐다. 지포스 RTX 5090은 블랙웰(Blackwell) 아키텍처 기반 PC용 GPU이며 5세대 텐서 코어, 4세대 레이트레이싱(RT) 코어, 최대 GDDR7 32GB 메모리를 활용해 게임 등 3D 성능과 AI 처리 성능을 강화했다. 미국과 일본 등 주요 IT 매체 테스트 결과에 따르면 지포스 RTX 5090은 전세대(RTX 4090) 대비 벤치마크 프로그램에서는 최대 40% 성능 향상을 보였다. 4K(3840×2160 화소) 해상도에서도 전작 대비 30% 성능이 향상됐다. 3D마크 '스틸노매드' 벤치마크에서 51% 점수 향상 일본 PC워치는 24일 "지포스 RTX 5090 파운더스 에디션 그래픽카드와 전세대 제품(RTX 4090 파운더스 에디션) 성능을 비교한 결과 3D마크 등 벤치마크에서 성능 향상이 눈에 띈다"고 밝혔다. 이 매체는 "3D마크에 추가된 다이렉트X 12 기반 '스틸노매드' 실행시 RTX 5090은 14,060점, RTX 4090은 9,301점으로 51% 점수가 높아졌다. 레이트레이싱 성능 테스트인 '포트로얄' 점수 역시 RTX 4090(26,193점) 대비 39% 더 높다"고 밝혔다. 미국 PC 전문매체 톰스하드웨어는 "3D마크 다이렉트X 레이트레이싱 기능 테스트에서 RTX 4090이 초당 137.91 프레임, RTX 5090이 108.64 프레임이 나왔으며 드라이버 튜닝이나 업데이트가 필요한 상황"이라고 설명했다. 4K 해상도 게임에서 평균 30% 가량 성능 향상 톰스하드웨어는 4K 해상도, 그래픽 수준 '울트라'로 설정한 상태에서 16개 게임의 초당 프레임 수 평균을 낸 결과도 공개했다. RTX 5090은 초당 105.6프레임, RTX 4090은 초당 84.4 프레임이었다. 이 매체는 "4K 해상도, 그래픽 수준 '높음'이 RTX 5090의 명확한 소비층이며 적절한 디스플레이가 있다면 더 높은 해상도로 구동하는 것도 가능할 것"이라고 밝혔다. PC워치 역시 4K 해상도의 성능 향상에 주목했다. 이 매체는 "RTX 5090은 마이크로소프트 플라이트 시뮬레이터 2024에서 RTX 4090 대비 48% 성능 향상, F1 24에서는 24-26%, 사이버펑크 2077에서 28-32% 성능 향상이 있었다"고 밝혔다. "4K 해상도서 최대 성능 발휘... 추가 최적화 필요" 톰스하드웨어는 "지포스 RTX 5090은 4K 해상도와 최대 그래픽 설정으로 게임을 즐기려는 소비자에게 가장 적합한 선택이며 모든 게이머가 갖고 싶어하지만 극소수만 살 수 있는 제품"이라고 평가했다. 이어 "이 GPU의 드라이버와 소프트웨어가 아직 완전히 성숙하지 않았으며, 일부 게임과 애플리케이션에서 추가 최적화가 필요한 상황"이라고 덧붙였다. PC워치는 "RTX 5090의 성능은 전작인 RTX 4090을 뛰어넘고 DLSS 4의 멀티프레임 생성 기능은 유용하지만 실제 게임에서 더 폭넓은 검증이 필요하다"고 언급했다. 국내 시장에 2월 초부터 본격 공급 예정 지포스 RTX 5090 탑재 그래픽카드는 오는 1월 말 출시 예정이다. 시장 수요에 비해 적은 초기 물량 탓에 당분간 시장에서 쉽게 구하기 힘들 것으로 보인다. 영국 IT 온라인 유통업체 OCUK는 "지포스 RTX 5090 그래픽카드 재고가 10대 미만이며 출시 시 물량은 두 자릿수에 그칠 것으로 예상된다. 한 단계 아래 제품인 지포스 RTX 5080 재고도 수백 개에 그칠 전망"이라고 밝혔다. 지포스 RTX 5090 그래픽카드는 국내 시장에 2월 초부터 본격 공급 예정이다. 24일 한 제조사 관계자는 "RTX 5090 탑재 그래픽카드 샘플이 23일에야 국내에 들어왔고 제조 시설이 있는 중국도 연휴 기간이 겹쳐 초기 물량은 적을 것"이라고 말했다. 주요 제조사들은 국내 가격에 가장 큰 영향을 미치는 기준 환율 책정에도 고심중이다. 또다른 제조사 관계자는 "현재 원-달러 환율이 1천450원 아래로 떨어졌지만 설 연휴 중 추이를 봐야 하는 상황"이라고 설명했다.

2025.01.24 13:41권봉석

김재원 대표 "엘리스그룹, 에듀테크 기업에서 AI 기업으로"

AI 에듀테크 기업으로 잘 알려진 엘리스그룹(대표 김재원)은 인프라·데이터·플랫폼·콘텐츠 등 AI에 필요한 모든 것을 통합 제공하는 'AI 솔루션 기업'으로 자리매김하고 있다. 김재원 엘리스그룹 대표는 본격적인 AI 시대를 맞아 새해 이런 변화에 더욱 속도를 낸다는 계획이다. 엘리스그룹에 따르면, 회사는 AI 교육이 필요한 기업 또는 기관이 몰입도 높은 비대면(가상화) 실습 환경 아래에서 교육생들의 학습 관리를 편리하게 할 수 있는 '엘리스LXP' 플랫폼을 서비스 중이다. 이 플랫폼을 통해 ▲초중고 공교육 ▲취준생 및 재직자 직무교육 ▲산업 맞춤형 디지털 전환 교육 등 다양한 교육 콘텐츠가 제공된다. SK·LG·현대차 등 국내 대기업뿐만 아니라, 서울대·카이스트 등 대학과 정부·공공기관 총 5천300여 곳에서 맞춤형 디지털 전환 교육을 하고 있다. 관리자는 엘리스LXP에서 학습 데이터를 분석하고 시각화한 AI 대시보드를 통해 교육생들을 보다 효율적으로 관리함으로써 이수율을 높일 수 있다. 나아가 거대언어모델(LLM) 기반으로 만들어진 AI 챗봇(AI 헬피)을 통해 학습자들의 질문에 대한 맞춤형 답변도 빠르게 할 수 있다. 아울러 '엘리스테스트'는 개발자 채용 평가부터 재직자 역량 평가, 대규모 경진대회 등 온라인 테스트 환경을 지원한다. 부정행위 방지 기능과 다양한 테스트 콘텐츠, 체계적 온보딩 시스템과 안정적 서버환경 등은 엘리스테스트의 강점이다. 이동형 모듈러 데이터센터 구축...강력한 AI 인프라 제공 엘리스그룹은 다양한 환경의 AI 연구·개발·배포를 위한 안정적인 GPU를 제공하는 '엘리스클라우드' 사업도 키워나가고 있다. 엔비디아의 A100·H100 등 강력한 GPU 서버 스펙을 바탕으로 AI 데이터센터를 구축한 상태다. 회사는 지난해 델 테크놀로지스로부터 엔비디아 H100 텐서코어 GPU를 탑재한 델 파워엣지 서버와 네트워킹 스위치를 도입해 데이터센터 인프라를 업그레이드한 바 있다. 특히 엘리스그룹은 델 테크놀로지스와의 협력을 통해 엘리스클라우드에 모듈 단위로 탄력적인 인프라 확장이 가능한 이동형 모듈러 데이터센터(PMDC) 방식을 적용했다. 엘리스그룹 전력 밀도는 랙당 20~40kW로, 국내 데이터센터 평균(3.3kW)보다 효율성이 높다. 아울러 회사는 GPU·NPU를 효율적으로 이용할 수 있는 동적 할당 기술을 적용해 사용자가 필요로 하는 만큼 실시간으로 컴퓨팅 자원을 할당받을 수 있게 했다. 이를 통해 비용을 낮추면서도 AI·디지털 전환 관련 교육 과정을 원활히 받을 수 있는 환경을 갖추게 됐다. 최근에는 AI 반도체 스타트업 리벨리온과 상호 협력 업무협약을 맺고, 리벨리온 NPU 기반 클라우드 플랫폼 구축을 위한 기술 협력을 진행한 뒤 이를 바탕으로 글로벌 데이터센터 진출에도 힘을 모으기로 했다. 엘리스클라우드 PUE(전력 효율 지수)는 1.27이며, 지난해 8월 정보보안에 대한 글로벌 인증(ISO 27001·27701)을 획득하기도 했다. "엘리스그룹은 AI 기업" 2015년 회사를 창업한 김재원 대표는 엘리스그룹을 'AI 기업'으로 정의했다. 재직자 대상으로 디지털 전환과 AI 교육을 통해 업무 효율성을 높여주고, 취준생들에게는 대학과 산업 간의 격차를 줄여주는 부트캠프를 통해 이들이 AI에 대한 이해도와 전문성을 갖추도록 돕기 때문이다. 특히 엘리스클라우드를 통해 AI 연구팀이나 전문가들이 안정적인 클라우드 및 컴퓨팅 환경에서 AI 모델링 프로젝트를 수행하도록 지원해서다. 재작년과 작년에는 각각 국방부 대규모 AI 해커톤과 한국천문연구원의 태양 흑점 이미지 분석 AI 해커톤에 고성능 GPU 환경을 제공했다. “엘리스클라우드는 AI 전문 인프라입니다. 기존 AI 해커톤의 경우 예산 안에서 진행이 불가능했는데, 저희는 참가자들에게 고성능 환경을 제공하고 적게는 3분의 1, 많게는 10분의 1 예산 안에서 고성능 클라우드 환경을 제공해드리고 있습니다. AI 클라우드 인프라를 구성함에 있어 기존 데이터센터는 고전력이 아니다 보니 어렵고, 그렇다고 고가의 GPU 서버 인프라를 구성하기도 쉽지 않았는데 엘리스클라우드는 PMDC를 통해 비용 단가를 낮추면서도 안정성은 높였습니다. 쓰는 만큼 시간당 과금되기 때문에 효율적 이용도 가능합니다.” 기업 또는 기관들은 업무 생산성 향상을 위해 디지털 전환이 필요할 때 엘리스그룹의 다양한 플랫폼과 콘텐츠, 인프라 등을 취사선택해 사용하면 된다. AI 기업으로서 안정적인 서버가 필요하다면 엘리스클라우드를, AI 등 디지털 전환 교육이 필요하다면 엘리스LXP 플랫폼을 통해 대상에 맞는 엘리스의 콘텐츠를 제공하면 되는 식이다. “모든 정부 기관과 기업들의 AI 디지털 전환이 필요한 때라고 생각합니다. 그렇지 않으면 강대국들에 의해 도태될 수밖에 없겠죠. 저마다 속도는 다를 수 있겠지만, 결국 AI는 전기처럼 쓰게 될 테니, 이런 방향에 필요한 교육과 인프라를 제공하려 합니다.” "클라우드 인프라·기술력에 계속 투자할 것" 엘리스그룹의 올해 목표는 엘리스클라우드를 통한 더 큰 성장이다. 지난해 실적은 전년보다 성장하긴 했지만 기대만큼 크진 않았다고 김 대표는 말했다. AI 도입이 빠르게 확산되는 것은 맞지만, 아직은 기대만큼 그 속도가 빠르지 않은 것 같다고. 그는 AI의 더 빠른 도입을 위해서는 시간과 기술적 요인들이 더 필요하다고 말했다. 김 대표는 앞으로도 클라우드 인프라와 기술력에 계속 투자한다는 방침이다. 또 사내에 AI 전문 연구원들이 다수 있어 경쟁사 대비 AI 교육에 있어서는 훨씬 전문성이 있다고 자부했다. 나아가 AI 밸류 체인이 완성된 만큼, 올해는 클라우드 인프라와 기술력 투자에 집중한다는 방침이다. “약 3년 전 엔비디아 A100을 구매해서 계속 연구하다 2023년부터 내부에서 활용할 수 있게 개발했습니다. 그 후 AI 교육, 해커톤 등에서 활용할 수 있도록 했고, 지난해부터 기능을 강화하면서 외부 세일즈를 진행해 작년 처음으로 클라우드 매출이 발생했습니다. 강의, 콘텐츠 제작, 플랫폼 기능 확대에 이어 AI 인프라 세일즈까지 AI 밸류 체인 전주기를 완성했습니다. 이를 강화하는 것이 올해 목표이고요. 저희는 AI를 통해 실제 매출을 내고, 이를 클라우드 인프라와 기술력에 재투자하고 있습니다.” 김 대표는 앞으로 AI가 사람들의 업무와 실생활에 녹아들며 계속 발전할 것으로 내다봤다. 반면, 글로벌 시장에서는 엄청나게 빠른 속도로 발전하고 활용하는 이런 기술들이 국내 정치적·사회적 이슈들에 뒤처지는 것에는 아쉬움을 표했다. “더 이상 휴대폰 없이 일한다는 건 불가능하듯, AI 없이 일을 하면 비효율이 분명 발생할 겁니다. 앞으로 AI의 실생활 활용에 대한 부분이 강조될 텐데, 이를 지탱할 인프라에 대한 강화도 필요하죠. 어마어마한 속도로 발전될 AI를 활용하게 될 글로벌 경쟁에서 뒤처지지 않게 우리도 정진해야 한다고 생각합니다.”

2025.01.16 14:30백봉삼

SK하이닉스, 엔비디아에 'HBM4' 조기 공급...6월 샘플·10월 양산할 듯

SK하이닉스가 이르면 올해 6월 엔비디아에 HBM4(6세대 고대역폭메모리) 샘플을 출하할 계획인 것으로 파악됐다. 이르면 3분기말께부터 제품 공급이 시작될 것으로 관측된다. 당초 하반기 공급에서 일정을 다소 앞당긴 것으로, SK하이닉스는 차세대 HBM 시장을 선점하기 위해 양산화 준비를 서두르고 있다. 15일 업계에 따르면 SK하이닉스는 오는 6월 HBM4의 첫 커스터머 샘플(CS)을 고객사에 조기 공급하는 것을 목표로 세웠다. HBM4는 HBM은 여러 개의 D램을 수직으로 적층한 차세대 메모리다. 현재 5세대 제품인 HBM3E까지 상용화에 이르렀다. HBM4는 이르면 내년 하반기 양산이 시작될 것으로 전망된다. HBM4는 데이터 전송 통로인 I/O(입출력 단자) 수를 이전 세대 대비 2배 많은 2048개로 집적해 성능을 극대화했다. 엔비디아의 경우 당초 2026년 차세대 고성능 GPU '루빈(Rubin)' 시리즈에 12단 적층 HBM4를 탑재하기로 했었으나, 계획을 앞당겨 올 하반기 출시를 목표로 하고 있다. 이에 따라 SK하이닉스도 HBM4 개발에 속도를 내고 있다. 회사는 엔비디아향 HBM4 공급을 위한 전담 개발팀을 꾸리고, 지난해 4분기 HBM4 테이프아웃을 완료했다. 테이프아웃이란 연구소 수준에서 진행되던 반도체 설계를 완료하고, 도면을 제조 공정에 보내는 과정이다. 이후 SK하이닉스는 HBM4의 샘플을 고객사에 보내는 일정도 당초 올 하반기에서 6월로 앞당겼다. 해당 샘플은 고객사에 제품을 양산 공급하기 전 인증을 거치기 위한 커스터머 샘플로 알려졌다. HBM4 양산화를 위한 마지막 단계에 돌입한다는 점에서 의미가 있다. 사안에 정통한 관계자는 "엔비디아도 올해 하반기로 시험 양산을 당길만큼 루빈에 대한 초기 출시 의지가 생각보다 강한 것으로 보인다"며 "이에 맞춰 SK하이닉스 등 메모리 기업도 샘플의 조기 공급을 추진하고 있다. 이르면 3분기 말께는 제품 공급이 가능할 것"이라고 설명했다. HBM4는 주요 메모리 기업들의 차세대 고부가 메모리 시장의 격전지가 될 전망이다. 삼성전자는 HBM4에 탑재되는 D램에 1c(6세대 10나노급 D램)을 탑재할 계획이다. 경쟁사인 SK하이닉스와 마이크론이 1b D램을 기반으로 하는 것과 달리, 한 세대 앞선 D램으로 성능에서 차별점을 두겠다는 전략으로 풀이된다. 마이크론 역시 최근 진행한 회계연도 2025년 1분기(2024년 9~11월) 실적발표에서 "오는 2026년 HBM4의 본격적인 양산 확대를 진행할 계획"이라고 밝힌 바 있다.

2025.01.15 13:29장경윤

AI칩 주도권 노리는 삼성…"서버·폰·TV용 NPU 모두 개발 중"

"NPU의 성장 가능성은 매우 높다. 삼성에서도 '마하'와 같은 클라우드용 NPU와 스마트폰에서 활용 가능한 온-디바이스용 NPU 등 여러 개발 프로젝트를 가동하고 있다. 특히 삼성리서치는 TV용 NPU를 개발하고 있다." 김대현 삼성리서치 글로벌AI센터장은 14일 여의도 국회의원회관에서 회사의 AI 가속기 발전 동향에 대해 이같이 밝혔다. NPU 성장성 유망…삼성도 서버·폰·TV 등 NPU 전방위 개발 현재 AI 반도체 시장은 글로벌 팹리스인 엔비디아의 고성능 GPU(그래픽처리장치)가 사실상 독과점 체제를 이루고 있다. GPU는 복수의 명령어를 동시에 처리하는 병렬 처리 방식이기 때문에, 방대한 양의 데이터를 반복적으로 연산해야 하는 AI 산업에 적극적으로 채용되고 있다. 김 센터장은 "엔비디아 GPU가 AI 데이터센터를 구축하는 가장 보편적인 반도체가 되면서, 이를 얼마나 확보하느냐가 AI 경쟁력의 바로미터가 됐다"며 "마이크로소프트나 메타가 수십만개를 확보한 데 비해, 삼성의 경우 1만개 내외로 아직 부족한 것이 사실"이라고 말했다. 특히 엔비디아는 자사 GPU 기반의 AI 모델 학습, 추론을 완벽하게 지원하는 소프트웨어 스택 '쿠다(CUDA)'를 제공하고 있다. 덕분에 개발자들은 대규모 AI 모델 학습 및 추론을 위한 다양한 툴을 활용할 수 있다. 다만 향후에는 NPU(신경망처리장치) 등 대체제가 활발히 쓰일 것으로 전망된다. NPU는 컴퓨터가 데이터를 학습하고 자동으로 결과를 개선하는 머신러닝(ML)에 특화된 칩이다. GPU 대비 범용성은 부족하나 연산 효율성이 높다. 김 센터장은 "NPU는 AI만 집중적으로 잘하는 반도체로, GPU가 AI 성능이 100이라면 NPU는 1000정도"라며 "엔비디아의 칩이 너무 비싸기 때문에, 글로벌 빅테크 기업들도 각각 성능과 효율성을 극대화한 맞춤형 AI 가속기를 개발하고 있다"고 설명했다. 삼성전자도 데이터센터, 온-디바이스AI 등 다양한 산업을 위한 NPU를 개발 중인 것으로 알려졌다. 김 센터장은 "삼성에서도 NPU 하드웨어와 소프트웨어, AI 모델에 이르는 전 분야를 개발하고 있고, 내부적으로 여러 개의 NPU 개발 프로젝트를 진행 중"이라며 "마하와 비슷한 또 다른 프로젝트가 있고, 삼성리서치는 TV용 NPU를 개발 중"이라고 설명했다. 앞서 삼성전자는 네이버와 협력해 자체 AI 가속기인 '마하'를 공동 개발해 왔으나, 양사 간 이견이 커져 프로젝트가 무산됐다. 대신 삼성전자는 자체 인력을 통해 AI 가속기 개발을 지속하기로 한 바 있다. 국내 AI칩 생태계 크려면…하드웨어·소프트웨어 균형 지원 필요 리벨리온, 퓨리오사AI 등 국내 스타트업도 데이터센터용 NPU를 자체 설계해 왔다. 각 기업은 국내 및 해외 테크 기업과 활발히 협력하면서 본격적인 시장 진입을 추진하고 있다. 김 센터장은 "국내 AI 반도체 스타트업들이 성공하기 위해서는 하드웨어와 소프트웨어 분야를 균형있게 지원해줄 수 있는 방안이 필요하다"며 "현재 이들 기업이 투자에만 의존하고 있지만, 궁극적으로는 데이터센터 기업과 연동돼 자생할 수 있는 생태계를 조성할 수 있도록 해줘야 한다"고 강조했다. 한편 이번 김 센터장의 발표는 고동진 국회의원이 주최한 '엔비디아 GPU와 함께 이야기되고 있는 TPU와 NPU 기술 등에 대한 현황분석 간담회'에서 진행됐다. 고동진 의원은 "우리나라의 AI 반도체 생태계 강화를 위해서는 국내 기업들을 활용한 데이터센터 인프라 구축이 필요하다"며 "엔비디아, 구글, 아마존 등 기존 주요 기업의 인프라를 쓰는 동시에, 국내 스타트업의 시스템반도체를 테스트베드화해서 1년 반 안에 수준을 끌어올리는 방향으로 가야한다고 생각한다"고 말했다.

2025.01.14 10:53장경윤

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

AMD, 제약회사에 투자…"우리 AI칩으로 신약 개발"

미국 반도체 회사 AMD가 제약회사에 투자했다. AMD는 생명과학 기업 앱사이 상장 지분에 사모투자하는 방식으로 2천만 달러(약 290억원)를 투입했다고 미국 월스트리트저널(WSJ)이 지난 8일(현지시간) 보도했다. WSJ은 경쟁사 엔비디아처럼 AMD도 생명과학 분야에서 인공지능(AI) 칩으로 입지를 다지려 한다고 평가했다. 마크 페이퍼마스터 AMD 최고기술책임자(CTO)는 “다른 시장으로 시야를 넓히고 있다”며 “사회에 곧바로 영향을 미칠 의료 분야를 우선한다”고 말했다. 숀 매클레인 앱사이 창업자는 “앱사이는 AI 칩을 470개 넘게 쓰고 있다”며 “대부분 엔비디아 GPU”라고 설명했다. 하지만 “AMD의 GPU로 바꾸기 시작한다”며 “신약을 개발하기 위해 엄청난 양을 계산하는 데 필요한 비용이 줄어들 것”이라고 기대했다. 엔비디아도 2023년 생명과학 업체 리커전파마슈티컬스에 5천만 달러를 투자하고 AI를 기반으로 신약을 개발하기 위한 하드웨어를 지원했다.

2025.01.10 10:42유혜진

엔비디아 젠슨황 "삼성 HBM 성공 확신...설계는 새로 해야"

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아의 젠슨 황 최고경영자(CEO)가 삼성전자 고대역폭메모리(HBM)에 대해 “새로 설계해야 한다”고 말했다. HBM은 D램 여러 개를 수직으로 쌓아 기존 D램보다 정보 처리 속도를 끌어올린 메모리 반도체다. SK하이닉스와 미국 마이크론이 엔비디아에 공급하고 있다. 삼성전자는 납품에 앞서 품질 테스트 중이다. 황 CEO는 7일(현지시간) 세계 최대 가전·정보기술(IT) 전시회 'CES 2025'가 개막한 미국 라스베이거스 퐁텐블루호텔에서 열린 기자간담회에서 '삼성전자 HBM을 왜 이리 오래 시험하느냐'는 물음에 “오래 걸리는 게 아니다”라며 “한국은 서두르려 한다”고 답했다. 황 CEO가 삼성전자 HBM을 공개적으로 지적한 일은 이번이 처음이다. 다만 그는 “엔비디아가 처음 쓴 HBM은 삼성전자가 만든 것이었다”며 “내일(8일)이 수요일이라고 확신할 수 있듯 삼성전자 성공을 확신한다”고 덧붙였다. 황 CEO는 소비자용 그래픽처리장치(GPU) 신제품 '지포스 RTX 50'에 마이크론 그래픽더블데이터레이트(GDDR)7을 쓴다고 밝힌 이유도 언급했다. 그는 “삼성전자와 SK하이닉스는 그래픽 메모리가 없는 것으로 안다”며 “그들도 하느냐”고 되물었다. 이어 “삼성전자와 SK하이닉스는 엔비디아의 가장 큰 공급업체 중 두 곳”이라며 “매우 훌륭한 메모리 반도체 기업”이라고 평가했다. GDDR7은 영상과 그래픽을 처리하는 초고속 D램이다. 마이크론뿐 아니라 삼성전자와 SK하이닉스도 생산한다. 한편 황 CEO는 곧 최태원 SK그룹 회장과 만날 것으로 보인다. '이번 CES 기간 최 회장을 만나느냐'는 질문에 황 CEO는 “만날 예정”이라며 “기대하고 있다”고 답했다.

2025.01.08 11:13유혜진

"새해 AI 서버 출하량 28% 증가 전망"…HBM3E 공급 기대↑

AI 수요 확산에 따라 데이터센터 AI 서버 시장이 지난해 이어 올해도 가파른 성장세를 이어갈 전망이다. AI 서버 출하량 증가에 따라 고대역폭메모리(HBM) 공급 증가에 대한 기대감도 커졌다. 7일 시장조사업체 트렌드포스에 따르면 지난해 AI 서버 출하량은 전년 대비 46% 증가했고, 올해는 전년 대비 28% 증가할 전망이다. 또 올해 전체 서버 출하량에서 AI 서버가 차지하는 비중이 15% 이상으로 확대될 것으로 전망된다. 지난해 전체 서버 시장은 지난해 3천60억 달러(약 449조7천862억원)를 기록했고, 이 중 AI 서버는 2천50억 달러(약 301조8천888억원)로 67%의 높은 비중을 차지했다. 올해는 AI 칩의 평균판매가격(ASP)의 상승에 힘입어 AI 서버 시장은 2천980억 달러(약 438조3천546억원)로 성장하고, 전체 서버 시장에서 비중도 72%까지 확대될 것으로 전망된다. 지난해 미국과 중국의 서버 OEM 업체들과 클라우드 서비스 제공업체(CSP)들의 엔비디아의 '호퍼' GPU를 구매하면서 전체 AI 서버 시장 성장을 이끌어 왔다. 올해는 엔비디아의 차세대 GPU '블랙웰'이 시장 성장의 핵심 동력이 될 것으로 보인다. 지난해 출시된 엔비디아 블랙웰은 2080억개의 트랜지스터를 집적한 GPU로 2022년 출시된 '호퍼' 시리즈 보다 데이터 연산 속도가 2.5배 빠르다. 블랙웰은 사양에 따라 B100과 B200 모델로 구분된다. AI 가속기 제품군인 GB100과 GB200에는 각각 블랙웰 GPU 1개, GB200에는 블랙웰 GPU 2개가 탑재되며, 그레이스 CPU 1개, 24GB(기가바이트) HBM3E 8단 제품 8개도 함께 탑재된다. 주목할 만한 점은 올해 3분기 출시 예정인 차세대 엔비디아 AI 서버 GB300에는 36GB HBM3E 12단 제품 8개가 탑재된다는 것이다. 현재 SK하이닉스가 유일하게 HBM3E 8단 및 12단 제품을 모두 양산해 엔비디아에 공급하고 있으며, 마이크론은 SK하이닉스에 이어 두번째로 8단 제품 공급과 함께 12단 제품 샘플링을 진행 중이다. 삼성전자는 연내 HBM3E 제품 공급을 목표로 하고 있다. 트렌드포스는 “연초에는 계절적 요인으로 인한 영업일수 감소가 예상되어, GB 랙 시리즈 출하량은 2분기까지 눈에 띄는 증가세를 보이지 않을 것”이라며 “하지만 올해 3분기에 B300과 GB300 솔루션이 출시되면서 블랙웰 기반 GB랙 시리즈의 출하량이 더욱 증가할 것으로 예상된다”고 말했다. 엔비디아 외에도 클라우드 서비스 제공업체(CSP)들의 독자 AI 칩 개발에 속도를 내면서 AI 서버 시장과 HBM 성장에 영향을 줄 전망이다. 지난해는 구글이 자체 AI 칩 출하량에서 선두를 달렸으며, AWS는 200% 이상의 급격한 성장률을 기록했다. 트렌드포스는 “올해 AWS의 자체 AI 칩 출하량이 전년 대비 70% 이상 성장할 전망”이라며 “특히 자사의 퍼블릭 클라우드 인프라와 이커머스 플랫폼과 관련된 AI 애플리케이션용 트레이니엄(Trainium) 칩 개발에 더욱 집중할 계획이다”고 말했다.

2025.01.07 10:24이나리

엔비디아, 이스라엘 스타트업 런ai 인수

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아가 이스라엘 스타트업 런에이아이(Run:ai)를 인수했다고 미국 블룸버그통신이 30일(현지시간) 보도했다. 엔비디아는 지난 4월 런ai를 인수하겠다고 나섰다. 인수 금액을 밝히지 않았지만, 시장에서는 7억 달러(약 1조원)로 알려졌다. 런ai는 AI 작업을 실행하는 그래픽처리장치(GPU)의 자원 활용도를 최적화하는 소프트웨어를 개발한다. 2018년 설립 초기부터 엔비디아와 협력했다. 엔비디아 GPU에 한정됐던 AI 최적화 소프트웨어 사용처를 AI 생태계 전반으로 넓힐 계획이다. 엔비디아는 AI 칩 시장의 80% 이상을 장악하고 있다. 이에 미국 법무부는 이번 인수로 AI 신생 회사가 사라질 수 있다는 우려에 반독점 조사를 착수한 것으로 전해졌다.

2024.12.31 14:23유혜진

韓 소부장, 엔비디아·TSMC 기술혁신 발맞춰 신시장 개척

엔비디아·TSMC 등 글로벌 빅테크 기업들이 AI 산업의 주도권을 유지하기 위한 기술 변혁을 지속하고 있다. 이에 국내 소부장 기업들도 차세대 제품 양산화를 위한 테스트를 진행하고 있는 것으로 파악됐다. 30일 업계에 따르면 국내 소부장 기업들은 엔비디아 및 TSMC의 차세대 기술 도입에 맞춰 신제품 양산을 추진하고 있다. 엔비디아는 내년 출시할 차세대 AI 가속기인 'B300'부터 소켓 방식을 적용하는 방안을 검토 중이다. B300은 엔비디아가 지난 3월 공개한 AI 반도체 '블랙웰' 시리즈 중 가장 성능이 높은 제품으로, HBM3E(5세대 고대역폭메모리) 12단을 탑재한다. 그간 엔비디아의 AI 가속기는 고성능 GPU와 HBM, 인터페이스 등을 메인 기판에 모두 집적하는 온-보드(on-board) 형식으로 제작돼 왔다. 반면 소켓은 GPU를 기판에 실장하지 않고, 별도로 탈부착하는 방식이다. AI 가속기를 소켓 방식으로 변경하는 경우 GPU 불량에 따른 문제에 효율적으로 대응할 수 있게 된다. GPU 및 기판의 제조 안정성도 높일 수 있다. 다만 GPU와 기판을 안정적으로 연결해야 하는 것이 과제로 꼽힌다. 현재 엔비디아향 소켓은 한국 및 대만의 후공정 부품업체가 주력으로 공급하고 있다. 이들 기업은 올 4분기 AI 가속기용 소켓 샘플을 공급한 것으로 알려졌다. 실제 양산에 돌입하는 경우 내년 중반부터 출하량을 늘릴 수 있을 것으로 관측된다. 엔비디아의 핵심 파트너인 대만 TSMC도 자체 개발한 'CoWoS' 기술을 고도화하고 있다. CoWoS는 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 첨단 패키징이다. 특히, TSMC는 기존 대비 소형화된 인터포저를 사용하는 CoWoS-L을 최신형 HBM에 적용하고 있다. 이러한 기조에 따라 계측 분야에서도 변화가 감지되고 있다. 기존 CoWoS-L에 구현된 회로의 배선폭은 2마이크로미터 이상이다. 그러나 CoWoS-L의 집적도가 높아지면서, 배선폭 역시 더 좁은 1마이크로미터 내외가 요구되고 있다. 기존 CoWoS의 회로 계측은 3D 광학 검사를 활용해 왔다. 그러나 배선폭이 1마이크로미터로 줄어들게 되면 성능의 한계로 계측이 힘들어진다. 이에 TSMC는 AFM(원자현미경) 기술을 CoWoS에 적용하는 방안을 추진 중이다. 국내 장비업체도 복수의 AFM 장비를 공급해 품질 테스트를 거치고 있는 것으로 파악된다. AFM은 탐침을 시료 표면에 원자 단위까지 접근시켜, 탐침과 표면 간의 상호작용을 통해 시료를 계측하는 장비다. 기존 광학식 대비 속도는 느리지만, 매우 미세한 수준까지 계측이 가능하다. 때문에 기존 AFM은 주로 초미세 공정과 직결된 전공정 영역에서 활용돼 왔다. TSMC가 CoWoS 패키징에 AFM을 양산 도입하는 경우, AFM의 적용처가 최첨단 패키징 분야로도 확장될 수 있을 것으로 전망된다.

2024.12.30 11:22장경윤

트렌드포스 "엔비디아 '블랙웰' 서버랙 대량 공급 내년 2~3분기로 지연"

엔비디아의 최신 AI 반도체 '블랙웰'이 탑재된 AI 서버랙 'GB200'의 대량 공급 시기가 최대 3분기까지 늦춰진다는 전망이 나왔다. 18일 시장조사업체 트렌드포스는 엔비디아 AI 서버랙 'GB200'이 설계 최적화에 어려움을 겪으면서 대량 공급 시기가 내년 2~3분기로 지연된다고 전망했다. 고속 상호 연결 인터페이스, 열설계전력(TDP) 등에 추가 최적화 작업이 필요하다는 설명이다. 트렌드포스는 “블랙웰 GPU 칩 생산은 4분기부터 소량 출하가 가능하지만, AI 서버 시스템은 설계 요구 사항과 여타 부품들의 공급망 조정이 필요한 상황”이라며 “이에 따라 AI 서버 랙의 올해 말 출하량은 업계 기대치에 미치지 못할 것으로 보인다”고 말했다. 다만, 일부 고객사를 대상으로 GB200 서버랙의 소량 공급은 4분기부터 시작됐다. 이번 지연 소식은 앞서 11월 17일 IT 매체 디인포메이션이 보도한 내용과 맥을 같이한다. 디인포메이션은 엔비디아 직원을 인용해 “GB200 서버랙에서 블랙웰 GPU를 연결할 때 과열 현상이 발상해 엔비디아가 서버OEM사들에게 설계 변경을 요구했다”며 “서버 랙 제조사들은 최악의 경우 내년 6월 말쯤에야 제품을 공급할 수 있을 것”이라고 전했다. 이번 공급 지연은 빅테크 기업들의 AI 개발에 차질을 줄 수 있다는 우려가 제기된다. 메타와 구글은 이미 100억 달러 규모의 GB200 40만개를 구매했고, 마이크로소프트도 6만5000개를 주문한 상태다. 트렌드포스는 GB200 NVL72 모델이 내년 전체 서버 공급량의 80%를 차지할 것으로 예상했다. 엔비디아 블랙웰은 2080억개의 트랜지스터를 집적한 그래픽처리장치(GPU)로 사양에 따라 B100, B200으로 나뉜다. 블랙웰은 지난 2022년 나온 '호퍼' 시리즈 보다 데이터 연산 속도가 2.5배 빠르다. 지난 3월 첫 공개돼 당초 2분기 출시가 목표였지만, 설계 결함으로 4분기로 연기돼 양산 중이다. 'GB200' AI 가속기는 2개의 블랙웰 GPU, 1개의 그레이스 중앙처리장치(CPU), HBM3E 8단 16개가 탑재된 제품이다. GB200 서버는 랙에 집적되는 개수에 따라 GB200 NVL3, GB200 NVL72 등으로 나뉜다. GB200 NVL72에는 72개 블랙웰 GPU, 36개의 CPU가 탑재되며, 엔비디아 독자 기술인 5세대 NVLink로 고속 연결을 구현했다. GB200 서버시스템은 종전의 H100보다 성능이 30배, 에너지 효율성이 25배 좋다. 다만 고성능에 따른 발열 문제가 과제로 떠올랐다. GB200 NVL72의 열설계전력(TDP)은 140kW로, 현재 주력 제품인 HGX AI 서버(60~80kW)의 두 배에 달한다. 이에 서버제조사들은 기존 공랭식에서 수랭식 냉각 솔루션으로의 전환을 서두르고 있다. 한편, GB200 서버랙 공급 지연 우려가 크지 않다는 주장도 나온다. 델 테크놀로지스의 마이클 델 CEO는 지난 11월 19일 SNS를 통해 GB200 NVL72 서버랙 출하가 시작됐다고 알렸다. 또 지난 11월 20일 엔비디아 실적 컨퍼런스콜에서 젠슨 황 엔비디아 CEO는 “올 4분기에 과거 예상보다 더 많은 블랙웰 GPU를 공급할 수 있을 것으로 기대한다”고 밝혔다. 이날 콜렛 크레스 엔비디아 CFO 역시 "각종 고객사의 블랙웰 수요에 맞춰 공급 확대에 최선을 다하고 있으며 올 4분기 블랙웰 매출이 당초 예상인 50~60억 달러를 넘어설 것"이라고 설명했다.

2024.12.18 10:01이나리

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 인재도, 데이터도 없다"…망분리 완화부터 속도내야

인텔, 컴퓨텍스 2025서 AI 경쟁력 강화 신기술 공개

조립·분해부터 용접까지…공장 풍경 바꾸는 'AI 로봇'

Z세대 술 안 마시는데…롯데칠성 전략 실패 어쩌나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현