• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (216건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, AI PC 활용 돕는 S/W 'AI 플레이그라운드' 소개

인텔이 3일 오후(베를린 현지시간, 한국시간 4일 새벽 1시) 진행한 코어 울트라 200V(시리즈2, 루나레이크) 출시 행사에서 일반 소비자의 AI PC 활용을 돕는 무료 소프트웨어 'AI 플레이그라운드'(AI Playground)를 소개했다. 이날 댄 로저스(Dan Rogers) 인텔 클라이언트 컴퓨팅 그룹 클라이언트 성능 마케팅 랩 총괄은 "인텔은 클라우드 도움 없이 AI를 PC에서 직접 실행할 수 있는 하드웨어를 갖추고 있지만 이를 활용하려면 AI 모델 다운로드와 스크립트 실행 등 복잡한 절차가 필요하다"고 설명했다. AI 플레이그라운드는 인텔이 오픈소스 저장소 '깃헙'에 무료로 공개한 AI 소프트웨어다. 코어 울트라 H시리즈(메테오레이크)와 8GB 이상 메모리를 탑재한 인텔 아크 A750/A770 그래픽카드와 호환된다. 윈도 운영체제에서 간편히 설치 가능한 것이 가장 큰 장점이다. 댄 로저스 총괄은 "AI 플레이그라운드는 인텔 PC에서 실행하기에 적합한 다양한 AI 모델을 쉽게 선택할 수 있다. 스테이블 디퓨전을 이용한 이미지 생성시 클라우드 도움 없이 아크 GPU만 활용해 거의 즉시 실행된다"고 밝혔다. AI 플레이그라운드는 검색-증강 생성(RAG)이 적용된 SLM(소형언어모델)도 탑재했다. SLM이 알지 못하는 최신 정보나 지식을 학습시키는 것도 가능하다. 댄 로저스 총괄은 "인텔 PC에 저장된 데이터로 구동되는 개인용 챗봇"이라고 설명했다. 이어 "AI 플레이그라운드는 개방돼 있고 누구나 접근 가능하며 보안 면에서 안전하다. PC에서 AI를 처음 활용할 때 간편하게 쓸 수 있는 유용한 도구"라고 덧붙였다. 오픈소스 저장소 '깃헙'에 현재 등록된 베타버전은 코어 울트라 H시리즈(메테오레이크)만 지원한다. 인텔은 코어 울트라 200V 탑재 PC 출시 시점을 전후해 아크 130V/140V GPU를 지원하는 업데이트도 공개 예정이다.

2024.09.04 04:32권봉석

'12단 HBM3E' 수급 다급해진 엔비디아…삼성·SK 대응 분주

엔비디아가 최근 생산 차질 논란이 불거진 최신형 AI 반도체 '블랙웰'을 당초 일정대로 양산하겠다고 밝혔다. 칩 재설계를 통한 대체품을 내놓는 것으로, HBM(고대역폭메모리) 역시 더 높은 용량의 제품을 탑재하기로 했다. 이에 따라 삼성전자, SK하이닉스 등 주요 메모리 기업도 최선단 HBM의 인증을 서두르기 위한 대응에 나선 것으로 파악됐다. 29일 업계에 따르면 삼성전자·SK하이닉스 등 주요 메모리 제조업체는 엔비디아의 최신 GPU '블랙웰' 칩 설계 변경에 따라 HBM3E 12단 인증을 서두르고 있다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정을 기반으로, 총 2천80억개의 트랜지스터를 집적했다. 이는 기존 GPU 대비 2배가량 많은 것으로, 2개의 GPU 다이(Die)를 10TB(테라바이트)/s의 빠른 데이터 전송 속도로 연결했기 때문에 가능한 수치다. 세부적으로 블랙웰 GPU는 전력소모량에 따라 700W급인 B100, 최대 1200W급인 B200으로 나뉜다. 당초 엔비디아는 B100 GPU 2개와 '그레이스' CPU 1개를 결합한 구조의 AI 가속기 'GB200'을 회사 회계연도 기준 2025년 4분기(2024년 11월~2025년 1월) 출시할 예정이었다. ■ SoC 재설계로 HBM3E도 8단→ 12단 변경 그러나 최근 GB200의 양산 일정에 차질이 생겼다. 업계에서 분석하는 원인은 크게 두 가지다. 하나는 B100 칩 설계의 문제, 또 하나는 GB200에 필요한 TSMC의 최첨단 패키징 'CoWoS-L'의 용량 부족이다. CoWoS는 엔비디아가 자체 개발한 2.5D 패키징 기술로, 로직반도체와 HBM을 SiP(시스템 인 패키지) 형태로 묶는 것을 뜻한다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 활용되는 소재에 따라 종류가 나뉘며, CoWoS-L의 경우 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 채용한다. 이에 엔비디아는 즉각 대응책을 수립했다. 기존 B100을 개량한 'B102'를 대체품으로 재설계하고, 이를 기반으로 'GB200A'를 제작하기로 했다. A는 공랭(Air Cooling)의 의미다. 패키징 구조 역시 변경된다. GB200은 GPU 2개를 묶어 한 칩처럼 동작하게 하고, 주변에 HBM3E 8단(24GB)을 8개 집적하는 형태다. 반면 GB200A는 GPU를 묶지 않고 B102 칩 하나에 HBM3E 12단(36GB)를 4개 집적한다. 내장된 GPU 2개가 총 HBM 8개를 운용하는 것보다 효율이 떨어지기 때문에, 단일 HBM의 용량을 높이고자 12단을 채용한 것으로 분석된다. 엔비디아는 이 같은 칩 재설계를 통해 어제(29일 한국시간) 2분기 실적발표 컨퍼런스콜에서 "당초 계획대로 블랙웰 GPU 양산 공급을 연말에 진행하겠다"는 뜻을 밝혔다. ■ HBM3E 12단 공급 빨라져야…삼성·SK 대응 분주 엔비디아가 블랙웰 GPU의 양산 일정을 고수하면서, 삼성전자·SK하이닉스·마이크론 등 메모리 제조업체들의 대응 또한 분주해지고 있다. 당초보다 빨리 HBM3E 12단 제품을 엔비디아에 공급해야 하는 상황에 놓였기 때문이다. HBM3E는 5세대 HBM으로, 올해 상반기 8단 제품부터 상용화에 들어갔다. 더 많은 D램을 적층하는 12단 제품은 주요 메모리 3사 모두 고객사와의 퀄(품질) 테스트를 거치고 있으며, 아직까지 공식 승인을 받은 기업은 없다. 이에 엔비디아도 주요 메모리 제조사에 HBM3E 12단 승인을 앞당기기 위한 논의를 진행한 것으로 알려졌다. 반도체 업계 관계자는 "엔비디아의 요청에 따라 메모리 제조사들도 HBM3E 12단 물량을 급하게 늘리려는 움직임을 보이고 있다"며 "HBM3E 12단의 수율이 상대적으로 낮고, 긴급한 주문이기 때문에 메모리 제조사 입장에서도 더 높은 가격을 책정받을 수 있다는 이점을 누릴 수 있다"고 설명했다.

2024.08.30 10:04장경윤

엔비디아 2Q 호실적에도 주가 하락…삼성·SK하이닉스 동반↓

엔비디아가 28일(현지시간) 2분기 실적에서 시장 전망치를 상회하는 실적을 내고도 주가는 시간외 거래에서 급락했다. 이에 영향을 받아 SK하이닉스와 삼성전자도 동반 약세를 보이고 있다. 29일 오전 11시 29분 기준 삼성전자는 전일 대비 2천200원(2.88%) 내린 7만4천200원에 거래되고 있다. SK하이닉스도 전일 대비 1만600원(5.91%) 급락한 16만8천700원에 거래 중이다. SK하이닉스와 삼성전자는 엔비디아에 고대역폭 메모리(HBM)을 납품한다. 인공지능(AI) 대장주인 엔비디아가 지난 2월, 5월 실적을 발표할 때마다 주가가 급등하고, AI와 메모리 기업의 주가에 영향을 끼쳐왔다. 이번 엔비디아 실적 발표에서도 삼성전자와 SK하이닉스를 비롯해 국내 반도체주는 줄줄이 급락을 보였다. 이는 엔비디아의 분기 실적이 시장의 기대에 미치지 못한 것과 더불어 블랙웰 칩 생산 지연에 대한 우려 때문으로 풀이된다. 엔비디아는 2분기 컨콜에서 블랙웰 지연설에 대해 부인하며 4분기에 출시할 예정이라고 밝혔다. 다만, 블랙웰 생산에서 결함으로 인해 마스크를 변경했다는 점은 인정했다. 엔비디아 회계연도에서 4분기는 11월~익년 1월에 해당되므로, 블랙웰은 내년 1월에 출시될 수 있다는 의미다. 블랙웰 출시 지연은 메모리 업체의 HBM 공급 물량 계획에 차질을 초래할 수 있다. SK하이닉스는 엔비디아 블랙웰에 HBM3E 8단을 공급하며, 삼성전자는 현재 퀄테스트(품질테스트)를 받는 중이다. 엔비디아는 올 2분기에 300억4천만 달러(40조1천785억원)의 매출로 전년 동기 대비 122% 증가했다. 시장조사업체 LSEG가 전망한 월가 예상치 매출 287억 달러를 웃돈 실적이다. 2분기 영업이익은 186억 4천200만 달러(약 24조9천336억원)로 전년 동기 대비 2.74배 늘어났다. 엔비디아는 올 3분기 매출은 325억 달러에 이를 것으로 전망했다. 이 역시 월가 전망치 317억 달러를 상회하는 수준이다. 이에 엔비디아 주가는 뉴욕 증시 정규장에서 2.10% 하락 마감한 뒤 실적 발표 후 시간 외 거래에서 6.89% 하락했다.

2024.08.29 11:43이나리

퓨리오사AI, 차세대 AI칩 '레니게이드' 공개

AI 반도체 스타트업 퓨리오사AI는 미국 현지시간 기준 26일 'Hot Chips 2024' 컨퍼런스에서 2세대 AI 반도체 RNGD(레니게이드)를 공개했다고 28일 밝혔다. 퓨리오사의 2세대 AI 반도체 RNGD는 거대언어모델(LLM) 및 멀티모달모델의 효율적인 추론을 위해 설계된 데이터센터용 가속기다. 국내 팹리스가 Hot Chips 행사에서 신제품 발표자로 선정된 것은 최초다. HBM3가 탑재된 추론용 AI 반도체에 대한 행사 현장의 관심과 반응도 높았던 것으로 전해진다. 이날 백준호 대표는 '퓨리오사 RNGD: 지속 가능한 AI 컴퓨팅을 위한 텐서 축약 프로세서(Tensor Contraction Processor)'라는 주제로 제품 소개 및 초기 벤치마크를 공개하며, Llama 3.1 70B의 라이브 데모를 선보였다. 초기 테스트 결과 RNGD는 GPT-J 및 Llama 3.1과 같은 주요 벤치마크 및 LLM에서 경쟁력 있는 성능을 보였으며, 단일 PCIe 카드 기준으로 약 100억 개의 파라미터를 가진 모델에서 초당 2천~3천개의 토큰을 처리할 수 있는 성능을 나타냈다. RNGD는 범용성과 전력 효율의 균형을 이룬 텐서 축약 프로세서(TCP) 기반 아키텍처다. 주요 GPU의 TDP가 1000W 이상인 것에 비해, 150W TDP의 높은 효율성을 갖췄다. 또한 48GB HBM3 메모리를 탑재해 Llama 3.1 8B와 같은 모델을 단일 카드에서 효율적으로 실행 가능하다. 퓨리오사AI는 2017년 삼성전자, AMD, 퀄컴 출신의 세 명의 공동 창업자에 의해 설립된 이후, 지속적인 기술 혁신과 제품 양산에 집중해 왔다. 그 결과 TSMC로부터 첫RNGD 샘플을 올 5월에 받은 후 빠른 속도로 브링업을 완료했다. 소프트웨어 역량도 강화했다. 퓨리오사AI는 2021년 당시 출시된 1세대 칩 첫 샘플을 받은 지 3주 만에 브링업을 완료하고 MLPerf 벤치마크 결과를 제출한 바 있으며, 이후 컴파일러 개선만을 통해 성능을 113% 향상시킨 바 있다. 백준호 퓨리오사AI 대표는 "이번 Hot Chips에서 RNGD를 글로벌 시장에 공개하고 빠른 초기 브링업 결과를 발표할 수 있었던 것은 회사의 기술 개발이 하나의 결실을 맺은 것”이라며 “RNGD는 업계의 실질적인 추론 니즈를 충족시킬 수 있는 지속 가능하고 현실적인 AI 컴퓨팅 솔루션”이라고 강조했다. 그는 이어 “우리 제품이 LLM을 효율적으로 연산할 수 있다는 것을 증명하였다는 것은 회사가 다음 성장 단계에 접어들었다는 것을 의미한다"며 "팀의 헌신과 지속적인 노력에 대해 매우 자랑스럽고 감사하다”고 말했다. 아디티아 라이나 GUC 최고마케팅책임자(CMO)는 "퓨리오사AI와의 협력으로 성능과 전력 효율성 모두 뛰어난 RNGD를 시장에 선보이게 됐다"며 "퓨리오사AI는 설계에서부터 양산 샘플 출시까지 탁월한 역량을 보여주며, 업계에서 가장 효율적인 AI 추론 칩을 출시하게 되었다"고 밝혔다.

2024.08.28 15:04장경윤

칩스앤미디어, 中 AI 반도체 기업과 JV 설립

글로벌 비디오IP 기술 선도기업 칩스앤미디어는 26일 이사회 결정을 통해, 중국 AI SOC 기업과 조인트벤처(이하, JV)를 설립한다고 27일 밝혔다. 조인트벤처 설립의 목표는 ▲중국 시장내 자체 IP 재판매 ▲기존 IP기반 데이터센터용 특화 IP를 추가 개발로 중국 데이터센터 시장 직접 공략 ▲중국내 영업 경쟁력 강화 ▲JV향 반도체 설계 라이선스 매출 극대화 등이다. 최근 중국은 미중 반도체 전쟁으로 자체 반도체 생태계를 구축하기 위해 엔비디아의 GPU를 대체하려는 움직임이 활발한 상황이다. 이에 따라 자체 GPU나 AI SoC(NPU) 개발을 강화하고 있으며, 경기 악화에도 불구하고 팹리스 기업이 2010년 약 600곳에서 2023년 기준 3천450여곳으로 크게 급증하고 있다. 실제로 이번 JV 설립 상대회사는 중국 내 AI반도체 특화 기술 경쟁력이 높은 회사다. 칩스앤미디어의 장기 고객이기도 해 비즈니스 협업관계가 높아 시너지가 기대된다. 그동안 칩스앤미디어는 온-디바이스 AI 성장 기회에 맞춰 해외사업을 적극 모색해 왔다. 김상현 칩스앤미디어 대표이사는 "최근 중국내 반도체 굴기, 독자적 반도체 생태계 구축 의지가 강해 중국 지방정부 및 테크 기업의 AI 반도체 수요도 꾸준히 증가하고 있다"며 "중국 반도체 생태계 합류로 중국내 데이터센터 공략과 자체 IP의 재판매 더 나아가 제품 고도화 등을 통해 중국 반도체 시장 선점에 나설 것"이라고 밝혔다.

2024.08.27 09:03장경윤

엔비디아, 차세대 AI GPU '블랙웰' 지연설 부인

엔비디아가 차세대 GPU '블랙웰' 출시 지연설을 부인했다. 이달 초 미국 디인포메이션과 블룸버그가 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 연기됐다"고 보도한 내용을 우회적으로 반박했다. 엔비디아는 반도체 업계 학술행사 '핫칩스 2024'를 앞두고 진행된 사전 브리핑에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 연말에 차질 없이 공급될 것"이라고 밝혔다. ■ TSMC N4P 기반 블랙웰 GPU, 3월 첫 공개 블랙웰 GPU는 지난 3월 GTC 2024 행사에서 처음 공개된 엔비디아 차세대 AI 가속용 GPU다. 대만 TSMC의 4나노급 공정(N4P)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동하며 블랙웰 두 개와 그레이스(Grace) CPU 한 개로 최소 단위인 GB200 한 개가 구성된다. 젠슨 황 엔비디아 CEO는 지난 6월 컴퓨텍스 기조연설에서 "GTC 2024에서 공개한 블랙웰은 개발 단계 제품이며 현재는 블랙웰이 순조롭게 양산에 들어갔다"며 실제 제품을 공개하기도 했다. ■ 디인포메이션·공상시보, 블랙웰 출시 지연설 제기 이달 초 미국 디인포메이션과 대만 공상시보는 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 지연됐다"고 보도했다. 디인포메이션은 공급망 관계자를 인용해 "엔비디아가 블랙웰의 설계에 문제를 겪고 있으며 메타, 마이크로소프트, 구글 등 주요 고객사에 이미 통보를 마친 상태"라고 설명했다. 대만 공상시보는 "엔비디아의 핵심 협력사인 TSMC가 블랙웰 GPU를 연결하는 인터커넥트의 결함을 발견했다는 설이 있지만 이를 확인하기는 어렵다. 그러나 마이크로소프트 등 주요 고객사가 블랙웰 기반 AI 클러스터를 만들겠다는 계획이 내년 중반 이후로 미뤄질 가능성이 있다"고 보도했다. 이에 대해 엔비디아는 "호퍼 기반 H시리즈 수요가 여전히 크며 블랙웰 시제품 공급이 시작됐고 하반기부터 계획대로 양산에 들어갈 것이다. 시장의 루머에는 답변하지 않는다"고 밝혔다. 엔비디아 서버용 랙(복수의 서버를 저장할 수 있는 특수 프레임)을 제작하는 대만 폭스콘 역시 지난 14일 2분기 실적발표 자료를 통해 "GB200 랙 개발 일정이 순조롭게 진행되고 있다"며 "폭스콘이 확실히 첫 공급업체가 될 것이고, 출하는 올 4분기에 시작될 것"이라고 설명했다. ■ 엔비디아 "블랙웰 양산·출시 일정 변함 없다" 엔비디아는 25일(미국 현지시간)부터 3일간 미국 캘리포니아 주 스탠포드대학교에서 열리는 반도체 업계 학술행사 '핫칩스 2024'(Hot Chips 2024)를 앞두고 진행한 온라인 브리핑에서 블랙웰 출시 지연설을 반박했다. 엔비디아는 23일 진행된 'AI 미디어 프리브리핑'에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 이미 밝힌 바와 같이 양산에 들어가 올 연말 고객사에 전달될 것"이라고 설명했다. 엔비디아는 브리핑 중 블랙웰 기반 서버 블레이드 사진과 함께 실제 설치된 사내 서버실 사진도 공개했다. ■ "블랙웰 출시 지연 사실이라 해도 영향 적어" 엔비디아는 오는 28일(미국 현지시간) 2분기 실적을 발표 예정이다. 해당 기간 전까지 주가에 크게 영향을 미칠 수 있는 사안에 대해서는 구체적으로 언급하지 않는 것이 관례다. 그러나 차세대 제품인 블랙웰 GPU 지연설이 악영향을 미친다는 판단 아래 이례적으로 이를 반박한 것으로 추정된다. 2분기 실적 발표에서도 블랙웰 출시 일정 관련 어떤 형태로든 언급이 있을 것으로 보인다. 미국 뉴욕 소재 시장조사업체인 멜리우스 리서치는 "엔비디아 매출 중 전세대 제품인 호퍼 기반 H100과 H200이 메타 라마4(Llama 4), 오픈AI GPT-5 등 LLM(거대언어모델) 훈련에 대거 투입되고 있으며 블랙웰 출시가 지연되더라도 엔비디아의 손실은 극히 낮을 것"이라고 추정했다.

2024.08.26 16:39권봉석

PC AI 성능 측정 벤치마크 프로그램 '긱벤치 AI' 등장

PC와 스마트폰 성능 비교에 가장 흔히 쓰이는 것이 바로 벤치마크 프로그램이다. 통제된 환경에서 서로 다른 회사(혹은 같은 회사) 프로세서나 제품 성능을 수치와 그래프로 가장 잘 비교할 수 있기 때문이다. 예를 들어 CPU 성능 비교에는 마이크로소프트 오피스 기반 자동화된 스크립트로 반응 시간을 측정하는 PC마크나 UL 프로시온을, GPU 성능 비교는 3D마크(3DMark)나 각종 게임에 내장된 벤치마크 모드를 활용할 수 있다. 그러나 지난 해 말부터 등장한 AI PC의 실제 처리 성능을 정확히 측정할 수 있는 소프트웨어는 없었다. 윈도 운영체제 탑재 PC 성능 비교용으로 널리 쓰이는 UL 프로시온 역시 AI 이미지 생성 벤치마크와 AI 컴퓨터 비전 벤치마크를 내장했지만 맥OS는 지원하지 않았다. PC·스마트폰용 프로세서 성능 비교에 널리 쓰이는 '긱벤치'(Geekbench)를 만든 프리미티브랩스는 최근 AI 성능 측정용 벤치마크인 '긱벤치 AI 1.0'을 정식 출시했다. 인텔과 AMD 등 x86 기반 프로세서, 애플 M시리즈와 퀄컴 스냅드래곤 등 Arm 기반 PC에서 보다 폭 넓은 비교가 가능하다. ■ 주요 PC 프로세서, AI 성능 TOPS로 비교 AI 처리 성능에는 다양한 요소가 작용한다. 먼저 CPU 뿐만 아니라 NPU와 GPU가 함께 개입하는데다 FP32(부동소수점, 32비트), FP16(부동소수점, 16비트)나 INT8(정수, 8비트) 등 데이터 정밀도도 영향을 미친다. 여기에 각 운영체제나 프로세서 제조사마다 지원하는 AI 처리용 라이브러리에도 차이가 있다. 인텔은 AI 실행을 위한 자체 라이브러리 '오픈비노'를 제공하며 마이크로소프트 윈도 운영체제는 ONNX 런타임을 지원한다. 애플은 M 시리즈 실리콘에 내장된 NPU를 활용할 수 있는 라이브러리인 코어ML을 이용한다. 지금까지 각 제조사는 NPU 성능을 비교하기 위한 요소로 TOPS(1초 당 1조 번 AI 연산)를 내세웠지만 이는 어디까지나 계산상으로 얻은 값이며 실제 성능을 정확히 반영하기 어렵다. ■ 긱벤치 AI, 폭넓은 운영체제·프로세서 지원 프리미티브랩스가 지난 14일 공개한 긱벤치 AI는 윈도11과 맥OS 등 다양한 운영체제는 물론 인텔, 퀄컴, 애플, AMD가 제공하는 최적화된 라이브러리를 모두 활용한다. 인텔 오픈비노, 마이크로소프트 ONNX, 애플 코어ML을 지원하며 지원 운영체제 역시 윈도와 맥OS로 확대했다. CPU와 NPU 별로 지원하는 라이브러리와 데이터 정밀도를 달리하며 작동 시간을 측정한다. 이를 활용하면 정밀도 별 CPU나 NPU 작동 특성, ONNX 런타임이나 코어ML 등 운영체제 제공 라이브러리 별 특성 비교에도 도움이 될 것으로 예상된다. ■ 소비자와 업계에 TOPS 벗어난 실제 성능 제시 가능 긱벤치 AI 역시 한정된 시나리오에서 성능을 평가한다는 한계를 지녔다. 그러나 프로세서·GPU 제조사가 아닌 제3의 회사가 만든 중립적인 벤치마크 프로그램이 늘어났다는 데 의미가 있다. 오는 9월 인텔 코어 울트라 시리즈2(루나레이크)를 시작으로 이르면 내년 상반기 등장할 스냅드래곤 X 엘리트/플러스 2세대 등이 등장하는 시점에는 AI PC의 성능에 대한 보다 객관적인 비교가 가능해질 것으로 보인다.

2024.08.25 11:53권봉석

[현장] 여·야도 AI로 뭉쳤다…하정우 과실연 대표 "韓 특색 담은 AI 국가 프로젝트 만들자"

"대한민국이 인공지능(AI) 주권을 유지하고 글로벌 AI 3대 강국으로 도약하려면 거대 AI 이니셔티브가 필수적입니다. 국가가 나서 데이터와 그래픽처리장치(GPU)를 산업계에 대규모로 공급하고, 꾸준한 인재 육성을 통해 한국이 세계 시장으로 나가도록 지원해야 합니다." 하정우 바른 과학기술사회 실현을 위한 국민연합(과실연) 공동대표 겸 AI 미래포럼 공동의장은 21일 오전 국회에서 열린 '제2차 한국 미래 신기술 발전을 위한 AI·모빌리티 신기술 전략 조찬 포럼'에서 이같이 강조했다. 이날 하 대표는 '코리아 글로벌 AI 원팀(Korea Global AI One-Team)' 이니셔티브를 처음 제안했다. 이 계획은 국가 주도의 산·학·연 대규모 AI 프로젝트로, 정부가 지휘하고 기업들이 실행해 '원팀(One-Team)'이라는 가칭이 붙었다. 이 계획의 핵심은 정부가 나서 데이터와 GPU를 확보하는 것이다. 우선 대규모 GPU 센터를 구축해 최소 1만 장의 GPU를 확보한 후 이를 학계·스타트업과 국내 AI 대기업에 절반씩 제공하는 것이 골자다. 또 가격이 비싸 확보가 다소 제한되는 논문 데이터를 정부가 구매하고 국내 기업이 해외에서 사업을 할 수 있도록 외국어 데이터도 획득해야 한다는 내용이 포함됐다. 하 대표는 'AI 원팀'을 고안한 목적이 한국의 AI 3대 강국 도약에 있음을 강조했다. 현재 미국과 중국이 각각 AI 1위·2위 강대국 자리를 공고히 한 가운데 전 세계 선진국들이 3위 자리를 차지하기 위해 각축전을 벌이고 있기 때문이다. 특히 캐나다는 지난 4월 총 2조4천억원 규모의 AI 지원 정책을 발표한 바 있다. 학계와 스타트업의 스케일업만을 위해 컴퓨팅 인프라에 2조원이 투자됐다. 이외에도 중소기업 생산성 향상과 AI 안전을 위해 각각 1천억원, 500억원씩 자금을 투입했다. 프랑스의 사례는 더 고무적이다. 지난해까지만 해도 AI 중진국으로 평가받던 프랑스는 마크롱 대통령의 전폭적인 지원을 통해 불과 1년 만에 자국 AI 기업을 육성하는데 성공했기 때문이다. 하 대표는 "우리는 이들보다 자체 역량에선 뛰어난 골든타임 상황에 있다"며 "이에 따라 누구보다 빠르게 계획을 추진할 필요가 있다"고 강조했다. 이렇게 해야만 미국·중국에 대한 과도한 AI 의존을 피할 수 있고 오히려 이들이 의존할 수 있는 대체 불가능한 AI 역량을 개발할 수 있다는 설명이다. 이를 통해 한국이 AI 주권을 획득하고 다른 나라에도 '소버린 AI' 영향력을 선한 방식으로 행사할 수 있다. 하 대표는 이런 주장에 대한 근거도 제시했다. 그는 "실제 AI 초강대국들이 소버린 AI를 강조하면서 중동·남미·동남아 등의 AI 시장에 뛰어듬에도 정작 이 지역에서 선호되지 않는 분위기"라며 "빅테크가 학습된 모델만 제공하고 기술은 제휴하지 않았기 때문"이라고 지적했다. 하 대표는 "한국은 이들 지역에서 공동 투자, 공동 운영, 기술 이전을 통해 함께 성장할 가능성이 있다"며 "AI 기술이 빠르게 발전하기 때문에 반년 전 개발한 기술을 제휴해도 이들이 산업 전 분야에 활용할 수 있도록 적극 지원할 수 있다"고 주장했다. 또 하 대표는 'AI 원팀'의 성공에 있어 인재가 매우 중요하다는 점을 강조했다. 데이터와 GPU 이슈는 투자를 통해 단기적으로 해결할 수 있지만, AI 개발 인력 양성은 긴 시간이 필요하며 유지하기도 힘들어서다. 하 대표는 이날 국내 최상위권 인력 대다수가 해외 빅테크를 택하는 경우가 잦다는 것도 아쉬운 점으로 지목했다. 그는 "최상위 AI 인재들은 장기적 커리어와 성장 가능성을 보고 일하는 경우가 많다"며 "정부가 AI 전문대학원 등 사업을 지난 2019년부터 추진해 인재 양성에 효과를 봤지만 그만큼이나 이들이 여기 남도록 하는 것도 중요하다"고 강조했다. 하 대표는 그러면서 프랑스의 사례를 들었다. 프랑스 AI 연구자들이 구글 등 미국 빅테크에서 근무하다가 모국으로 돌아가 미스트랄AI 등에 몸담기 시작한 경우가 늘어났기 때문이다. 하 대표는 "그동안 프랑스 정부는 자국 인재가 모국으로 돌아오도록 노력했다"며 "한국 정부도 이를 배워야 한다"고 주장했다. 'AI 원팀' 계획은 이날 처음으로 공식 발표됐다. 이번 행사는 더불어민주당 정동영 의원과 국민의힘 최형두 의원이 AI 발전을 위해 합심해 개최했다. 이날 행사에는 과학기술정보통신부 김남철 과장, 카이스트 김경수 부총장, 삼성전자 이준행 머신러닝 마스터 등 업계 관계자가 참석했다. 하 대표는 "네이버 AI 센터장이 아닌 대한민국 국민으로서 국내 AI 발전 방안을 공유하러 왔다"며 "연구자로서 한국 미래 경쟁력에 대해 늘 고민해왔던 결과"라고 강조했다.

2024.08.21 14:24조이환

SKT, 서울에 엔비디아 GPU 기반 AI 데이터센터 가동한다

SK텔레콤이 람다와 오는 12월 서울에 AI 데이터센터를 연다. 람다가 보유한 엔비디아 GPU 자원을 SK브로드밴드의 서울 가산 데이터센터에 전진 배치하는 것이다. SK텔레콤은 AI 데이터센터에 배치할 GPU를 3년 안으로 수천 대 이상까지 확대할 계획이다. SK텔레콤은 람다와 'AI 클라우드 공동 사업을 위한 파트너십'을 체결했다고 21일 밝혔다. 양사는 안정적인 GPU 공급을 바탕으로 한 GPUaaS 사업 확대, 람다의 한국 리전 설립 등 다양한 영역에서 전략적 협업을 강화하기로 합의했다. 2012년 AI 엔지니어들이 설립한 람다는 엔비디아로부터 최신 GPU를 공급받아 AI 클라우드 서비스를 제공하는 GPUaaS 기업이다. 인텔, 마이크로소프트 등 글로벌 빅테크 기업들이 람다의 고객사다. 로이터통신 등 외신에 따르면 람다는 지난 2월 회사 가치를 15억 달러로 평가받고, 3억2천만 달러 규모의 투자를 유치하는 등 떠오르는 AI 기업으로 각광받고 있다. 서울에 엔비디아 GPU 전용 AI 데이터센터 개소 SK텔레콤과 람다는 오는 12월 서울시 금천구 가산동에 위치한 기존 SK브로드밴드 데이터센터에 엔비디아 GPU 'H100'을 배치한다. SK텔레콤은 AI 시장 성장에 따라 국내 GPU 수요가 급등하는 것을 감안해 3년 안으로GPU를 수천 대 이상까지 늘리고, 최신 GPU 모델인 'H200'도 조기 도입을 추진 중이다. 이를 통해 가산 데이터센터를 시작으로 엔비디아 단일 GPU로 구성된 국내 최대 규모의 'GPU Farm'을 확충하는 것이 목표다. SK브로드밴드는 데이터센터 운영 노하우를 살려 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. GPU 서버가 안정적으로 작동할 수 있도록 가산 데이터센터의 랙 당 전력밀도를 국내 최고 수준인 44kW로 구현할 계획이다. 이는 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달한다. AI 데이터센터 오픈에 따라 아시아태평양 지역 최초로 람다의 한국 리전도 개소한다. 람다 GPU 기반 AI 클라우드 서비스를 이용하는 국내 기업들의 데이터는 한국 리전에 저장된다. GPU 기반 구독형 AI 클라우드 서비스 연내 출시 SK텔레콤은 람다 GPU 자원을 기반으로 구독형 AI 클라우드 서비스인 GPUaaS를 오는 12월 출시할 계획이다. GPUaaS는 기업이 AI 서비스 개발이나 활용에 필요한 GPU를 직접 구매하지 않고, 클라우드를 통해 가상 환경에서 자원을 빌려 쓰는 서비스다. 공급이 부족하고 가격이 높은 GPU를 직접 구매하기 부담스러운 대기업이나 중소 스타트업이 상대적으로 저렴한 비용에 사용할 수 있다. GPUaaS 출시와 함께 GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅, AI 스타트업 지원 프로그램 등 국내 스타트업, 중견 중소기업 대상의 다양한 프로모션을 선보일 계획이다. 스티븐 발라반 람다 CEO 겸 창업자는 “람다와 SK텔레콤은 GPU 컴퓨팅 자원을 전기처럼 편리하게 사용 가능한 환경을 만들겠다는 비전을 공유하고 있다”며 “AI 혁신 속도가 빠른 한국에서 AI 클라우드 영역을 성장시키고자 하는 SK텔레콤과 협력하게 되어 기쁘게 생각한다”고 말했다. 김경덕 SK텔레콤 엔터프라이즈 사업부장은 ”람다와의 전략적 협력으로 GPU를 안정적으로 확보한 것은 국내 GPU 공급 확대 측면에서 의미가 크다”며 “향후 국내 최대 규모의 GPU 팜을 구축해 국가 AI 경쟁력을 높이고, 글로벌 시장 진출의 교두보로 자리매김하도록 노력할 것”이라고 말했다.

2024.08.21 09:22박수형

인텔 소프트웨어 정의車용 칩, 미국 내 첫 고객사 확보

인텔이 올 초부터 추진중인 소프트웨어정의자동차(SDV) 플랫폼을 적용한 미국 내 첫 고객사가 등장했다. 미국 전기차 브랜드 카르마(Karma)가 오는 2026년 출시할 2인승 전기차(쿠페)에 인텔 솔루션을 탑재하겠다고 16일 밝혔다. 인텔은 올 초 x86 기반 SDV용 SoC를 공개하고 올 연말부터 공급할 예정이라고 발표했다. 인텔 SDV용 SoC 탑재 의사를 공식적으로 밝힌 완성차 업체는 중국 지리자동차(지커) 이후 카르마가 두 번째다. 양사는 단일 프로세서와 소프트웨어로 전력 제어와 AI 기반 맞춤형 편의기능, ADAS(첨단운전자보조시스템) 등 자동차 기능을 제어하는 SDA 아키텍처를 공동 개발한다. 카르마는 이 과정에서 개발한 B2B 솔루션을 다른 완성차 업체에도 공급할 예정이다. ■ 2007년 설립 카르마, 미국서 고급 전기차 생산 카르마는 2007년 설립된 피스커 오토모티브를 전신으로 하는 전기차 제조사다. 피스커 오토모티브는 첫 제품인 '피스커 카르마' 출시 지연과 판매 부진으로 1억 3천900만 달러(약 1천767억원) 손실을 봤다. 이후 2014년 2월 중국 자동차 부품 업체인 완샹그룹(万向集团)이 경매를 통해 피스커 오토모티브의 상표권과 IP(지적재산권), 미국 내 생산 시설을 1억4천920만 달러(약 2천28억원)에 인수했다. 카르마는 현재 미국 캘리포니아 주 어바인에 본사를 두고 카베야(Kabeya), 기에세라(Gyesera) 등 고급 전기차를 생산중이다. ■ "2026년 출시 '카베야 수퍼쿠페'에 인텔 솔루션 적용" 카르마는 14일(미국 현지시간) "양사는 반도체·자동차 분야에서 쌓은 경험을 살려 자동차 업계의 전환을 도울 수 있는 상업적·개방된 SDA 아키텍처를 위한 표준을 개발하고 함께 검증할 것"이라고 밝혔다. 인텔 SDV 아키텍처를 탑재할 첫 제품인 카베야 수퍼쿠페는 최대 1천 마력, 전륜구동을 지원하며 정지상태에서 시속 60마일(약 96km/h) 도달까지 3초 미만이 걸린다. 제품 가격은 최대 30만 달러(약 4억원)로 예상된다. 이번 협업은 마르케스 맥카몬 카르마 CEO와 잭 위스트 인텔 오토모티브 부사장(펠로우)의 인연에도 큰 영향을 받은 것으로 보인다. 카르마는 "두 사람은 10여년 전 소프트웨어 회사인 윈드리버에서 함께 근무하며 자동차 산업의 미래에 대해 논의했다"고 밝혔다. ■ SoC 단일화·가상화 기반 S/W로 복잡성 최소화 현재 자동차를 구성하는 반도체는 엔진을 제어하는 ECU(전자제어장치)와 각종 장치를 제어하는 MCU(마이크로컨트롤러), 전력반도체에 최근 수 년간 인포테인먼트와 ADAS(첨단운전자지원시스템)가 더해지며 수십 가지로 늘어났다. 인텔이 추진하는 SDV 아키텍처는 자동차 내 다양한 기능을 AI 가속 가능 SoC로 통합하고 각종 기능을 가상화 기술 기반 소프트웨어로 해결해 복잡성을 줄이는 것이 목표다. 인텔은 "자동차 업계는 변화의 기점에 놓여 있고 전동화, SDV 전환이 중요한 과제다. 반면 수익성과 에너지 효율성, 확장성이 문제다. 카르마는 기존 완성차 기반 아키텍처에 제약을 받지 않으며 인텔과 함께 SDA 아키텍처 구현에 나설 것"이라고 설명했다. ■ "제어 체계 단일 SoC로 통합해 전력 소모 절감 가능" 카르마는 기존 완성차 구조를 SDV 아키텍처로 전환할 때 이득을 볼 수 있는 사례 중 하나로 블랙박스 기능을 꼽았다. 카르마는 "현재 대부분의 전기차는 도난과 외부 침입을 막기 위해 시동이 꺼진 상태에서도 외부 카메라를 구동하지만 이 기능은 전력 소모가 큰 차내 컴퓨터로 제어되며 항속거리 감소와 배터리 방전 면에서 악영향을 미친다"고 설명했다. 이어 "SDV 아키텍처를 적용한 전기차는 구역 별 전력제어를 활용해 저전력으로 주위를 감시하다 물체 감지, 사물 인식 등 필요할 경우에만 연산을 수행할 수 있다. 이는 전력 소모 감소, 효율성 증대와 ECU 갯수 감소로 복잡성을 줄일 수 있다"고 덧붙였다. 카르마는 "2026년부터 출시할 모든 차량에는 인텔과 공동 개발한 SDV 아키텍처가 탑재되며 SDV 아키텍처 솔루션을 다른 완성차 업체에도 공급하는 등 B2B 판매도 병행할 것"이라고 밝혔다. ■ 인텔, 이달 초 선전서 자동차용 '아크 A760A'도 공개 인텔은 SDV 특화 자동차용 SoC 이외에 AI 성능을 강화할 수 있는 자동차용 GPU 포트폴리오도 확대중이다. 지난 8일 중국 선전에서 진행된 'AI 칵핏 이노베이션 익스피리언스' 행사에서 첫 제품인 '아크 A760A'를 공개했다. 아크 A760A는 2022년 3분기 출시된 데스크톱PC용 GPU인 아크 A750과 비슷한 성능을 낸다. 그러나 자동차 내 탑재를 고려해 작동 온도는 섭씨 -40도부터 105도까지 확장됐고 최대 작동 클록도 1.9GHz 내외로 다소 낮아졌다. 인텔은 "SDV용 SoC에 아크 A760A를 더하면 운전자와 동승자를 위한 맞춤형 AI 기능을 구현할 수 있고 차종별로 각종 소프트웨어를 별도 개발하는 수고를 줄일 수 있다"고 설명했다. 아크 A760A를 탑재한 자동차는 내년부터 실제 양산차에 투입 예정이다.

2024.08.16 13:54권봉석

폭스콘 "엔비디아 GB200 서버, 계획대로 4분기 출하"

대만 폭스콘이 엔비디아의 최신형 AI 가속기 'GB200'을 당초 계획대로 올 4분기 출하될 것이라고 14일(현지시간) 밝혔다. 폭스콘은 2분기 실적발표 자료를 통해 "GB200 랙(복수의 서버를 저장할 수 있는 특수 프레임) 개발 일정이 순조롭게 진행되고 있다"며 "폭스콘이 확실히 첫 공급업체가 될 것이고, 출하는 올 4분기에 시작될 것"이라고 설명했다. GB200은 엔비디아가 지난 3월 공개한 최신형 GPU인 '블랙웰' 기반의 AI 가속기다. 블랙웰은 4나노미터(nm) 공정을 채택하고, 트랜지스터를 2천80억 개 집적한 것이 특징이다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 GB200이 된다. 폭스콘은 세계 최대 위탁생산업체로서, 엔비디아의 GB200을 도입해 서버 랙을 제작하고 있다. 이달 초 미국 테크 전문매체 디인포메이션 등에서는 엔비디아의 GB200이 설계 결함으로 수율에 문제가 생겼다고 보도한 바 있다. 당시 디인포메이션은 "엔비디아가 마이크로소프트 등 고객사에 GB200의 결함 사실을 알렸다"며 "내년 1분기까지 블랙웰 칩의 대량 출하가 이뤄지지 않을 것으로 예상된다"고 밝혔다. 폭스콘의 이번 발표는 엔비디아를 둘러싼 불안을 잠재우려는 의도로 해석된다. 폭스콘은 "올해 AI 서버가 자사 전체 서버 수익의 40%를 기여할 것이라는 견해를 고수한다"며 "AI 서버에 대한 강력한 수요는 내년에도 지속돼, 향후 폭스콘의 차기 1조 달러 수익 산업이 될 것"이라고 밝혔다.

2024.08.16 08:58장경윤

인텔 아크 GPU, 자동차로 확대...中선전서 '아크 A760A' 공개

인텔이 자체 개발한 아크(Arc) GPU 수요처를 PC와 서버에 이어 자동차까지 확대한다. 8일 중국 선전에서 진행된 'AI 칵핏 이노베이션 익스피리언스' 행사에서 첫 제품인 '아크 A760A'를 공개하고 내년 1분기부터 공급한다고 밝혔다. 인텔은 올 초 공개한 소프트웨어정의자동차(SDV)용 x86 SoC(시스템반도체)에 자동차용 아크 GPU를 더해 운전자와 동승자를 위한 맞춤형 AI 기능을 구현할 수 있다고 밝혔다. 아크 A760A를 탑재한 자동차는 내년부터 실제 양산차에 투입 예정이다. 인텔은 "자동차용 GPU 시장 진출은 날로 복잡해지는 운전석 환경 구현 문제를 해결해 줄 것"이라고 밝혔다. ■ 아크 A750 기반으로 작동 온도 등 보강 인텔은 올 초 CES 2024에서 소프트웨어정의자동차(SDV) 플랫폼을 위한 자동차용 반도체를 올 연말부터 생산한다고 밝힌 바 있다. 최대 12코어 CPU와 GPU를 타일로 구성해 탑재하며 완성차 업체가 직접 설계한 반도체나 외부 반도체도 UCIe 기술로 연결할 수 있다. 인텔이 8일 공개한 아크 A760A는 SDV용 반도체와 PCI 익스프레스 4.0으로 연결해 그래픽 성능이나 AI 연산 성능을 보완할 수 있다. 아크 A760A는 그래픽 처리를 맡는 Xe 코어 28개로 구성되며 AI 처리에서 주로 쓰이는 행렬 연산을 가속하는 XMX(Xe 행렬 확장) 엔진 448개를 내장했다. AI 처리 성능은 INT8(정수, 8비트) 기준 229 TOPS(1초당 1조 번 연산)다. 대부분의 수치가 2022년 3분기 출시된 데스크톱PC용 GPU인 아크 A750과 같다. 그러나 자동차 내 탑재를 고려해 작동 온도는 섭씨 -40도부터 105도까지 확장됐고 최대 작동 클록도 1.9GHz 내외로 다소 낮아졌다. ■ "자동차용 GPU 더해 고급차 위한 추가 기능 구현" 인텔은 "기존 SDV 포트폴리오를 위해 설계된 SoC(시스템반도체)에 아크 GPU를 더해 완성차 업체들이 개방되고 유연하며 확장 가능한 플랫폼으로 차세대 플랫폼을 제공할 수 있게 될 것"이라고 밝혔다. 예를 들어 대중차에는 SDV용 SoC만 탑재해 기본적인 기능을 구현하고 중대형차나 고급차는 SDV SoC와 아크 A760A를 모두 탑재해 풍부한 시각효과와 AI 기반 기능을 제공할 수 있다. 잭 위스트 인텔 오토모티브 총괄(부사장)은 "인텔 전략은 AI를 모든 형태 기기에 접목하는 것이며 방대한 개방형 AI 생태계를 자동차 업계에 소개할 수 있어 기쁘다"고 밝혔다. ■ 중국 전기차 시장서 기회 찾는 인텔 이미 SDV 시장에는 엔비디아 드라이브, 퀄컴 스냅드래곤 디지털 칵핏 등 많은 경쟁자가 존재한다. 이들 업체는 이미 전세계 주요 완성차 업체와 협력해 실제 제품을 공급중이다. 반면 후발주자인 인텔은 자국 업체 중심 생태계가 형성된 중국 전기차 시장을 대상으로 삼았다. 시장조사업체 SNE리서치에 따르면 올 상반기 전기차 출하량 기준 10대 업체에는 BYD(1위), 지리그룹(3위), 상하이자동차(5위), 창안자동차(6위) 등 중국 업체가 대거 이름을 올렸다. 이들의 출하량을 모두 합치면 글로벌 전기차 출하량의 38%를 차지한다. 잭 위스트 인텔 오토모티브 총괄(부사장)은 8일 "중국의 빠른 전기차 개발 사이클과 첨단 기술 수용 속도는 차세대 기술 시험에 최적의 장소"라고 밝히기도 했다. 인텔 아크 GPU는 미국의 대중 반도체 수출 규제 대상에서도 제외됐다. 아크 A760A의 성능은 엔비디아 지포스 RTX 3050과 동급으로 추정되며 미국 상무부의 반도체 수출 규제 기준인 대역폭이나 연산 성능에도 저촉되지 않는다. ■ GPU 버릴 수 없는 인텔, 자동차용 제품으로 불투명성 해소 인텔이 2022년 3월부터 10월에 걸쳐 출시한 아크 A시리즈(개발명 '알케미스트') GPU 성능이 기대에 못 미치는 데다 초기 드라이버 문제로 게임 성능이나 호환성 문제도 불거졌다. 일각에서는 인텔이 GPU 개발 우선 순위를 낮추거나 취소할 수 있다는 전망까지 나왔다. 그러나 생성 AI 등을 클라우드 도움 없이 실행할 수 있는 AI PC 요구사항이 커지면서 CPU와 협동할 수 있는 자체 GPU 개발은 필수 조건이 됐다. 인텔은 오는 9월 정식 출시할 코어 울트라 시리즈2(루나레이크)에 Xe2 기반 GPU를 탑재하고 이를 기반으로 한 2세대 GPU인 배틀메이지도 올 하반기 중 출시 예정이다. 이번 자동차용 GPU 공개는 아크 GPU 포트폴리오 확대와 함께 GPU 사업 관련 불투명성 해소에도 일정 부분 도움을 줄 것으로 보인다.

2024.08.09 14:59권봉석

"엔비디아, 내년 HBM3E 물량 중 85% 이상 차지할 듯"

8일 시장조사업체 트렌드포스에 따르면 엔비디아의 내년 HBM3E 소비량은 전체 물량의 85%를 넘어설 전망이다. 엔비디아가 시장을 주도하고 있는 AI 서버용 칩은 고성능 GPU와 HBM 등을 함께 집적한 형태로 만들어진다. HBM은 여러 개의 D램을 수직으로 적층한 메모리로, 데이터 처리 성능이 일반 D램에 비해 월등히 높다. 엔비디아는 지난 2022년 말 '호퍼' 아키텍처 기반의 H100 칩을 출시했으며, 올해에는 HBM3E 탑재로 성능을 더 강화한 H200 양산을 시작했다. H200에 채택된 HBM3E는 현재 SK하이닉스와 마이크론이 공급하고 있다. 이에 따라 엔비디아의 HBM3E 소비 점유율은 올해 60% 이상으로 예상된다. 나아가 엔비디아는 '블랙웰' 아키텍처 기반의 'B100', 'B200' 등의 제품을 내년부터 출시할 계획이다. 해당 제품에는 HBM3E 8단 및 12단 제품이 탑재된다. 이에 따라 내년 엔비디아의 HBM3E 소비 점유율은 85% 이상을 기록할 전망이다. 트렌드포스는 "블랙웰 울트라, GB200 등 엔비디아의 차세대 제품 로드맵을 고려하면 HBM3E 12단 제품의 비중이 내년 40%를 넘어걸 것으로 추산된다"며 "현재 공급사들이 HBM3E 8단 제품에 집중하고 있으나, 내년에 12단 제품 생산량이 크게 증가할 것"이라고 밝혔다. 트렌드포스는 이어 "현재 삼성전자와 SK하이닉스, 마이크론이 모두 제품 검증을 거치고 있으며, 특히 삼성전자가 시장 점유율을 늘리는 데 적극적"이라며 "검증 순서가 주문량 할당에 영향을 미칠 수 있다"고 덧붙였다.

2024.08.09 08:40장경윤

[유미's 픽] '마하'로 의기투합 한 네이버-삼성…양산 시점은 언제?

네이버와 삼성전자가 함께 개발하고 있는 인공지능(AI) 반도체 '마하'의 주도권을 두고 양사간 갈등이 표면화되면서 업계가 우려하고 있다. 국내 대표 기업들이 의기투합해 엔비디아를 따라잡겠다며 AI 반도체를 개발하기 시작했지만 약 1년 8개월여만에 불협화음을 낸 것을 두고 안타까워하는 분위기다. 2일 업계에 따르면 '마하' 프로젝트를 주도하고 있는 이동수 네이버클라우드 이사는 자신의 소셜미디어(SNS)를 통해 여러 차례 삼성전자를 겨냥해 볼멘 소리를 냈다. 삼성전자의 독단적인 행동에 단단히 뿔이 난 것이다. 이 이사는 지난 1일 한 매체에서 삼성전자와 네이버가 '마하-1' 개발까지만 함께하고 더 이상 협업에 나서지 않을 것이란 내용이 보도된 직후 자신의 페이스북에 해당 기사가 너무 잘못된 내용들이 많다는 점을 지적했다. 또 그는 "무엇이 오보인지에 대해서는 네이버가 아닌 삼성에 물어봐야 할 것 같다"고 강조했다. 그러면서 3시간 30여분이 지난 이후에는 "네이버클라우드의 단합된 힘으로 반도체 사업을 시작한다"며 "자세한 내용은 차차 공개하겠다"고 말해 눈길을 끌었다. 이 이사는 올 초에도 상당히 격분한 듯한 어조로 SNS에 글을 올렸다. 당시 그는 "(마하를) 먼저 만들자고 (삼성전자에) 제안한 것도, 이렇게 만들어보자고 기획한 것도 네이버"라며 "(그런데) 네이버 이름도 빠지고 어떻게 이해해야 할지 모르겠다"고 밝혔다. 이 이사는 이 글이 주목 받자 곧바로 내렸지만 업계에선 네이버클라우드와 삼성전자의 갈등이 표면화됐다는 데 큰 의미를 뒀다. 이 사건의 발단은 지난 3월 말 열린 삼성전자 주주총회였다. 이 자리에서 경계현 삼성전자 미래사업기획단장(당시 DS부문장)이 '마하2' 개발에 대한 계획을 공개한 것이 갈등의 씨앗이 됐다. 경 사장은 "메모리 등 기존 사업만으로는 장기적으로 반도체 1등을 유지할 수 없다"며 "추론 전용인 '마하-1'에 대한 고객들의 관심 또한 증가하고 있고, 연말 정도면 '마하-1'을 만들어 내년 초쯤 우리 칩으로 구성된 시스템을 볼 수 있을 것"이라고 말했다. 그러면서 "일부 고객은 1T 파라미터 이상의 큰 애플리케이션에 '마하'를 쓰고 싶어 한다"며 "생각보다 더 빠르게 '마하-2' 개발을 준비해야겠다"고 덧붙였다. 이 발언 후 네이버클라우드 내부에선 삼성전자에 대한 불만이 고조됐다. 실제 네이버클라우드가 먼저 제안해 삼성전자가 받아들이면서 '마하' 프로젝트가 성사됐지만, 마치 삼성전자가 주도하는 것처럼 분위기를 이끌어 갔기 때문이다. 특히 '마하-1' 연구개발과 설계에 참여한 엔지니어 40여 명 중 상당수는 네이버클라우드 소속인데 삼성전자가 마치 자사 직원인 것처럼 업무를 지시하기도 했다는 말들도 무성했다. 삼성전자는 그간 "서로 잘 협력하고 있다"는 식으로 분위기를 무마하려 했지만, 네이버 측의 불만은 고조돼 갔다. 처음부터 '마하' 프로젝트 기획부터 칩 개발 핵심 아이디어까지 자신들이 도맡았지만, 그 공을 삼성전자가 가로챈 느낌이 많이 들었기 때문이다. 삼성 사장단의 교체로 반도체 수장을 전영현 신임 DS 부문장이 맡게 되면서도 분위기가 오묘하게 흘러갔다. '마하-2' 발언으로 관계에 균열이 생긴 탓에 수장 교체 직후 양사 고위 임원들의 만남도 빠르게 이뤄지지 않았다. '마하'는 HBM(고대역폭 메모리)이 필요 없는 AI 추론에 특화된 반도체로, 이를 만들기 위해 양사는 지난 2022년 12월 협력 사실을 발표한 바 있다. 업계 관계자는 "삼성전자의 제조업 마인드와 네이버의 서비스업 마인드가 충돌하면서 네이버 측이 삼성전자의 태도에 대해 당황해 하는 분위기가 역력했다"며 "삼성전자가 네이버를 제외하고 자신들이 '마하-2'를 다 하는 것처럼 얘기를 한 것이 네이버 측의 심기를 상당히 건드렸다"고 말했다. 그러면서 "네이버는 거대언어모델(LLM)을 기반으로 서비스를 하는 조직이라면, 삼성전자는 그런 경험이 없다는 점에서 양사가 협업하기는 쉽지 않았을 것"이라며 "삼성전자가 자체적으로 잘 만든다고 해도 성능을 잘 검증 받을 수 있어야 하는데 네이버를 배제하면 무슨 의미가 있을까 싶다"고 덧붙였다. 삼성전자의 이 같은 태도에 '마하-1' 양산 시기도 당초 공언했던 것보다 늦어질 수 있다는 관측도 나왔다. 삼성전자는 '마하-1'을 네이버에 공급해 연내 안전성 테스트를 진행한 후 내년 초께 출시할 것이라고 계획을 밝혔으나, 네이버 내부에선 내후년께 출시될 것으로 봤다. 네이버클라우드 관계자는 "지금 계획상으로는 내년 1분기쯤 (자사 데이터센터에서) 테스트를 할 것으로 보인다"며 "반도체 설계부터 생산까지 쉬운 일은 아닌 만큼 내년이나 후년 정도에 양산할 것으로 예상된다"고 말했다. 삼성전자는 네이버 측과의 불화설을 일단 부인했다. 또 '마하-1'을 기점으로 AI 반도체 시장에서 입지를 다져야 하는 삼성전자 입장에선 현재의 분위기를 다소 불편하게 여기는 것으로 알려졌다. 그러면서도 삼성전자는 파트너사 물색과 함께 내부적으로 '마하' 시리즈 개발을 담당하는 시스템LSI 사업부 내에 AI SOC팀에 힘을 실어주는 것으로 알려졌다. 엔비디아 그래픽처리장치(GPU)를 대체할 수 있는 저렴하면서도 AI 컴퓨팅에 특화한 AI 가속기를 하루 속히 개발하기 위해서다. 삼성전자 관계자는 "네이버뿐 아니라 다양한 파트너를 찾고 있는 과정"이라며 "네이버와의 관계를 마침표를 찍는다는 일부 주장은 사실이 아니다"고 강조했다. 업계에선 '마하'가 아직 첫 제품도 나오지 않은 상황에서 양사간 갈등이 점차 표면화되는 것에 대해 안타까워했다. 엔비디아뿐 아니라 구글, 마이크로소프트 등 글로벌 빅테크들이 자체 AI 반도체를 개발하겠다며 속도전을 벌이고 있는 상황에서 두 회사가 주도권 싸움만 벌이는 것으로 비춰지는 것도 아쉬운 점으로 지목됐다. 다만 양사의 균열은 인텔에게 좋은 기회가 됐다. 인텔은 지난해 11월 팻 겔싱어 최고경영자(CEO)가 방한해 네이버 측에 직접 AI 반도체 협업을 제안한 후 협력을 강화하고 있다. 네이버클라우드는 자사 LLM '하이퍼클로바 X'를 기반으로 생성형 AI 서비스를 구축 중으로, 엔비디아 AI 생태계 대신 인텔 AI 칩 '가우디'를 활용해 가속기를 최적화하는 소프트웨어 생태계를 조성하고 있다. 이를 위해 네이버클라우드는 국내 AI 스타트업 스퀴즈비츠와 함께 '가우디2' 인프라에서 훈련과 추론을 할 수 있는 기초 코드를 함께 만든다. 국내 대학 등 연구진은 이 코드를 기반으로 소프트웨어를 개발해 오픈소스 생태계에 공개한다. 이처럼 가우디 생태계 참여자를 늘려 엔비디아의 독점적인 생태계 구조를 깨겠다는 것이 이들의 포부다. 이동수 네이버클라우드 이사는 "현재 거의 모든 서비스에 AI 기술을 접목하고 있고, 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"며 "많은 반도체를 평가하고 분석하는 과정에서 인텔 '가우디2' 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었다"고 평가했다. 하정우 네이버클라우드 AI이노베이션센터장은 "연말에 출시될 '가우디3'에 협업 실험 결과와 노하우, 소스코드 등을 모두 녹여낼 계획"이라며 "이렇게 경쟁력 있는 대안을 확보하게 되면 더 많은 데이터를 중심으로 '하이퍼클로바 X'를 고도화하는 게 가능해지고, 더 저렴한 가격으로 더 많은 사람들에게 서비스를 제공할 수 있게 될 것"이라고 말했다.

2024.08.02 15:21장유미

[기고] AGI 시대, 최적의 인프라 도입 전략

최근 생성형 AI로 기업들의 AI 비즈니스가 활발해지고 있다. 거대언어모델(LLM) 개발 열풍에 GPU 시장 경쟁도 치열하다. AI를 넘어 일반인공지능(AGI)까지 등장하면서 AI 비즈니스에도 큰 변화가 예고된다. AGI는 인간과 유사한 지능과 스스로 학습할 수 있는 능력을 갖춘 AI다. 생성형 AI가 확률과 통계로 답을 찾는 수학적 사고라면 AGI는 AI가 논리와 추론 능력을 가지고 문제를 해결한다. AGI의 등장은 더 큰 데이터 세트와 복잡한 AI모델이 필요함을 의미한다. 따라서 GPU시스템과 데이터 처리 효율이 더욱 중요해진다. ■ AGI 시대, 최적의 인프라 도입 요건 기업들이 자사에 최적화된 AI 인프라를 도입하기 위해서는 아래와 같은 사항들을 고려해야 한다. 첫째, 각 기업의 AI 환경에 적합한 GPU 인프라를 사용해야 한다. 최근 GPU 인프라는 대규모 GPU클러스터 기술을 포함한 초고성능 제품부터 단기간 빠른 성과 요건에 적합한 가성비 높은 제품, GPU와 CPU 일체형 방식 등으로 다양한 라인업과 제조사의 제품으로 확장되고 있다. 둘째, GPU 시스템 사용 효율을 고려해야 한다. 컨테이너 환경에서 GPU 자원의 분할 가상화 솔루션을 도입하고, 데이터 과학자가 AI 개발 업무에 집중하도록 손쉬운 AI 개발 환경을 제공해야 한다. 셋째, AI 최적화 시스템을 설계해야 한다. GPU 고성능을 최대로 발휘하기 위해, 고속 네트워크, 고성능 스토리지까지 최적의 설계가 필요하다. 또한, 여러 GPU 시스템을 사용 중인 기업 중 통합 관리에 어려움을 겪는 경우가 많다. 기존 자원을 활용하면서도 신규 도입 자원을 적절하게 사용하도록 기술 지원이 뒷받침돼야 한다. ■ AI 비즈니스를 위한 핵심 인프라 AI 비즈니스를 준비 중인 기업 가운데 LLM과 AI 모델을 한 가지 관점에서만 고민하는 경우가 많다. 하지만 이 모델들은 끊임없이 진화하고 있어 지속적으로 운영하기가 쉽지 않다. 탄탄한 인프라를 위한 컴퓨팅 파워, 네트워크 속도, 스토리지 구성 등을 초기부터 종합적으로 살펴보고 기업 환경에 맞는 전략을 수립해야 투자 비용을 최소화할 수 있다. 전문 기업의 컨설팅을 통해 자사 환경에 맞는 로드맵을 수립한 후 최적의 인프라를 체계적으로 도입하는 것이 무엇보다 중요하다. AI 시스템에 고속으로 정확하게 데이터를 공급하고 분석하기 위한 스토리지는 하드디스크보다 NVMe 플래시가 효과적이고, 데이터를 고성능으로 분산 처리하기 위한 병렬 분산 파일 시스템이 권장된다. AI를 위한 스토리지에서 고려할 가장 중요한 사항은 초고성능과 무제한 확장성이 결합된 아키텍처이다. 딥러닝은 하나의 데이터셋을 잘게 쪼개 사용하기 때문에 작은 IO 요청이 빈번하게 일어난다. 이 때문에 높은 IOPS(초당 입출력 횟수)가 요구되고 저장소 역시 파일의 메타정보 오버헤드를 최소화하는 구조여야 한다. 또한, 방대한 양의 비즈니스 데이터를 효율적으로 저장 및 관리하기 위한 초고성능 분산 병렬파일 시스템과 대용량을 지원하는 오브젝트 스토리지와의 단일화된 구성은 AI 인프라를 위한 데이터 저장소로 자리잡게 됐다. 효성인포메이션시스템은 AI 인프라를 위해 필요한 GPU 서버부터 초고성능 스토리지, 네트워크를 통합한 '효성 AI 플랫폼'을 통해 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 초고성능 병렬파일 스토리지 'HCSF'를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. 또한, AI/ML옵스 솔루션, GPU DB, 인메모리 DB, 고속 네트워크 등 국내외 다양한 파트너사와 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 최적의 솔루션을 제시한다.

2024.07.23 09:41강준범

"엔비디아, TSMC에 AI 칩 '블랙웰' 주문량 25% 확대"

엔비디아가 TSMC에 의뢰한 최신 AI 반도체 '블랙웰(Blackwell)'에 대한 주문량을 당초 대비 25% 늘렸다고 대만 연합보가 15일 밝혔다. 연합보는 "TSMC가 가까운 시일 내에 엔비디아의 블랙웰 아키텍처 기반 GPU(그래픽처리장치)의 생산을 시작한다"며 "이는 AI 시장이 전례 없는 호황을 누리고 있다는 의미일 뿐만 아니라, TSMC의 하반기 실적에 강력한 성장요인이 될 것"이라고 밝혔다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. 3분기부터 양산에 들어가, 연말께 본격적으로 출시될 예정이다. 블랙웰은 2천80억개의 트랜지스터를 집적해, 이전 세대인 H100 대비 데이터 연산 속도를 2.5배가량 향상시킨 것이 특징이다. TSMC의 4나노미터(nm) 공정을 활용한다. 블랙웰은 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 'GB200'라는 AI 가속기가 된다. 이 GB200을 여러 개 연결하면 서버 랙 스케일 솔루션인 'GB200 NVL'을 만들 수 있다. 연합보는 업계 관계자를 인용해 "아마존, 델, 구글, 메타, 마이크로소프트 등 주요 해외 기업들이 AI 서버 구축을 위해 예상보다 많은 B100 칩을 주문했다"며 "이에 엔비디아가 TSMC에 주문량을 25% 늘렸다"고 설명했다. 이에 따라 B100 기반의 엔비디아 서버 솔루션인 'GB200 NVL72', 'GB200 NVL36' 출하량은 기존 4만대에서 6만대로 50% 증가할 전망이다. 이 중 GB200 NVL36은 출하량이 5만대에 달해 가장 많을 것으로 전망된다. 업계는 GB200 NVL72의 가격을 300만 달러로 주장하고 있다. GB200 NVL36의 예상가격은 180만 달러 수준이다.

2024.07.15 11:03장경윤

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

"AMD, 2000년대 초 엔비디아 인수 검토했었다"

엔비디아는 인공지능(AI) GPU 바람을 타고 IT 분야 시가 총액 3조 1천억달러(약 4천291조 원)를 넘어선 회사다. 주당 1천 달러(약 130만원)로 불어난 주가를 감당할 수 없어 얼마 전 10대 1로 액면분할까지 감행했다. 그런데 이런 엔비디아의 현재 위치를 AMD가 누릴 수도 있었다는 증언이 나와 눈길을 끈다. 당시 AMD에 몸담았던 전문가인 허만트 모하파트라가 최근 X(구 트위터)에 이와 같이 증언했다. 그의 증언에 따르면 AMD는 당시 엔비디아 인수를 고려했지만 AMD·엔비디아를 합친 새 회사 CEO는 자신이 되어야 한다는 젠슨 황 CEO와 의견 차이로 이를 포기했다. 결국 AMD는 2006년 ATI를 인수했고 훗날 이것이 AMD를 파산 위기에서 구했다. ■ "AMD, 엔비디아 인수 고려했지만 의견차로 불발" 2000년 초반 당시 AMD는 PC에서 최초로 1GHz 벽을 깬 애슬론 프로세서를 출시하는 한편 2003년 64비트 서버용 프로세서인 옵테론(Opteron)을 공개하는 등 인텔 대비 우위에 있었다. 반면 엔비디아는 설립 후 10년이 채 안된 팹리스로 ATI 등 많은 경쟁사와 싸워야 했다. 2000년대 중반부터 후반까지 CPU/APU/GPU 설계에 관여했다고 밝힌 허만트 모하파트라는 X(구 트위터)에 "엔비디아는 AMD와 인텔의 시가총액을 넘어섰으며 당시만 해도 AMD가 시가총액에서 인텔을 넘어서리라고는 상상하지 못했다"고 설명했다. 이어 "당시 AMD는 엔비디아를 거의 인수할 뻔 했지만 젠슨(황 엔비디아 CEO)이 합병한 회사 CEO는 자신이 되어야 한다며 이를 거부했다. 만약 이것이 성사됐다면 세계는 매우 달라졌을 것"이라고 설명했다. 실제로 AMD는 2006년 캐나다 소재 그래픽업체인 ATI를 인수했다. ATI가 가지고 있던 라데온 등 GPU IP(지적재산권)는 AMD의 손으로 넘어갔다. 이 선택이 훗날 고전하던 AMD를 연명하게 하는 '신의 한수'로 평가받는다. ■ AMD, 인텔 반격에 팹까지 분사 인텔은 2005년 노트북용 코어 프로세서, 2006년 코어 2 듀오 등을 출시하며 AMD에 반격했다. 허만트 모하파트라는 "AMD는 '진정한' 듀얼코어 프로세서를 만들기 위해 노력했지만 이것은 실수였다. 너무 많은 시간이 걸렸고 막상 제품이 나왔을 때는 인텔이 단단한 기반을 구축했다"고 돌이켰다. AMD 창립자 제리 샌더스는 "진정한 남자는 팹(Fab, 반도체 생산 시설)을 가져야 한다"는 명언을 남겼다. 그러나 자금난에 시달리던 AMD는 2009년 팹을 분사하고 중동계 투자자를 끌어들여 글로벌파운드리를 설립한다. ■ AMD, CPU·GPU 통합한 APU로 보릿고개 넘기다 위기에 몰린 AMD를 구한 것은 CPU와 GPU를 통합한 'APU'다. 2006년 ATI를 인수하지 않았다면 개발 자체가 불가능한 제품이다. 인텔 역시 2011년 출시한 2세대 코어 프로세서(샌디브리지)부터 '빌트인 비주얼'을 내세우며 GPU를 통합하고 있다. 그러나 AMD는 한 다이(Die) 안에 CPU와 GPU를 한 데 넣어 지연시간과 개발 복잡성을 줄였다. 소니는 2006년 출시한 플레이스테이션3에 도시바·IBM과 공동 개발한 고성능 프로세서인 셀(Cell)을 통합했지만 개발 복잡성 문제로 게임 출시 등에 문제를 겪고 있었다. 이후 소니는 플레이스테이션4부터 x86 기반 프로세서로 돌아섰고 여기에 AMD APU가 탑재됐다. 레나토 프라게일(Renato Fragale) AMD 제품 관리 부문 시니어 디렉터는 최근 전문가용 소셜미디어인 링크드인 프로파일에 "현재까지 9천100만 대 이상이 팔린 소니 플레이스테이션용 개발팀을 꾸렸고 이는 AMD 역사에서 파산을 막은 가장 성공적인 출시"라고 설명했다. 2005년부터 AMD에 20년 가까이 몸담고 있는 메모리 부문 전문가 필 박(Phil Park) 역시 레나토 프라게일의 증언을 뒷받침했다. 그는 "내가 알고 있는 한 이것은 사실이다. 2008년 세계 경제 위기와 인텔의 경쟁력 회복은 AMD를 엄청나게 나쁜 위치로 몰아넣었다. 돈을 만들기 위해 '아드레노'(Adreno)를 포함한 많은 IP를 팔아야 했고 임금도 삭감됐다"고 부연했다. 실제로 퀄컴은 2009년 1월 "AMD의 휴대용 그래픽·멀티미디어 자산을 인수했다"고 밝혔다. 이후 이 IP 자산은 스냅드래곤 등 퀄컴 모바일용 SoC(시스템반도체)의 GPU인 '아드레노'로 투입된다. '아드레노'(Adreno)의 철자를 거꾸로 잘 조합하면 '라데온'(Radeon)이 되는 이유가 여기에 있다. 레나토 프라게일 시니어 디렉터는 링크드인에 올린 내용이 미국을 포함해 전세계 IT 관련 매체를 통해 알려지자 해당 내용을 삭제했다. ■ GPU 독자노선 선택한 인텔... 올 하반기 'Xe2' 투입 인텔은 2011년 2세대 코어 프로세서(샌디브리지)부터 '빌트인 비주얼'을 내세워 프로세서 내장그래픽을 장점으로 내세웠다. 2017년 11월에는 AMD 출신 라자 코두리를 영입해 새 그래픽 아키텍처인 Xe를 개발했다. 이후 2022년 노트북용, 같은 해 하반기 데스크톱PC용 그래픽카드를 연이어 출시했지만 출시 시기와 성능 면에서 엔비디아와 AMD에 밀려 좋은 평가를 받지 못했다. 실제로 지난 해 하반기부터 업계 일각에서는 인텔이 GPU 개발 우선순위를 낮추거나 포기할 수 있다는 전망도 나왔다. 그러나 노트북 시장에서 AI 처리 성능이 요구되는 가운데 GPU를 쉽게 포기할 수 없는 것 또한 사실이다. 톰 피터슨(Tom Peterson) 인텔 그래픽 및 소프트웨어 아키텍처 부문 펠로우는 지난 5월 말 '테크투어 타이완' 행사에서 "차세대 프로세서 '루나레이크'에는 성능과 AI 연산 성능을 크게 강화한 Xe2 그래픽 기술이 탑재될 것"이라며 이를 일축했다.

2024.07.08 17:34권봉석

KAIST 'AI 가속기'에 잇단 러브콜…"엔비디아 2배 성능"

엔비디아의 GPU 성능을 넘어서는 고용량·고성능 AI 가속기가 상용화 수준으로 개발됐다. 이 기술을 개발한 KAIST 정명수 전기및전자공학부 교수는 "빅테크 기업들의 러브콜이 이어지고 있다"며 “대규모 AI 서비스를 운영하는 이들의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 것"이라고 말했다. KAIST(총장 이광형)는 차세대 GPU간 연결기술인 CXL(Compute Express Link)를 새로 설계해 고용량 GPU 장치의 메모리 읽기/쓰기 성능을 최적화하는데 성공했다고 8일 밝혔다. 연구는 전기및전자공학부 정명수 교수의 컴퓨터 아키텍처 및 메모리 시스템 연구실이 수행했다. 연구결과는 미국 산타클라라 USENIX 연합 학회와 핫스토리지 연구 발표장에서 공개한다. GPU 내부 메모리 용량은 수십 기가바이트(GB, 10의9승)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다. 업계에서는 대안으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU가격이 비싸 총소유비용(TCO·Total Cost of Ownership)을 과도하게 높인다. 이에 따라 산업계에서는 차세대 인터페이스 기술인 CXL를 활용해 대용량 메모리를 GPU 장치에 직접 연결하는'CXL-GPU'구조 기술이 활발히 검토되고 있다. CXL-GPU는 CXL을 통해 연결된 메모리 확장 장치들의 메모리 공간을 GPU 메모리 공간에 통합시켜 고용량을 지원한다. CXL-GPU는 GPU에 메모리 자원만 선택적으로 추가할 수 있어 시스템 구축 비용을 획기적으로 절감할 수 있다. 그러나 여기에도 근본적인 한계가 있다. 기존 GPU 성능 대비 CXL-GPU의 읽기 및 쓰기 성능이 떨어진다는 점이다. 아무리 GPU가 연산처리를 빨리 해도 CXL-GPU가 이를 같은 속도로 처리하지 못한다. 연구팀이 이 문제를 해결했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발했다. GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 시스템을 설계했다. 메모리 확장 장치가 내부 작업을 수행 상태에 따라 작업 하도록 했다. GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없다. 연구팀은 또 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작한다. GPU 장치가 실제 데이터를 필요로 할 때는 캐시(작지만 빠른 임시 데이터 저장공간)에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다. 이 연구는 반도체 팹리스 스타트업인 파네시아(Panmnesia)의 초고속 CXL 컨트롤러와 CXL-GPU 프로토타입을 활용해 진행됐다. 테스트 결과 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있음을 확인했다. 파네시아는 업계 최초로 CXL 메모리 관리 동작에 소요되는 왕복 지연시간을 두 자리 나노초(10의 9승분의 1초) 이하로 줄인 순수 국내기술의 자체 CXL 컨트롤러를 보유하고 있다. 이는 전세계 최신 CXL 컨트롤러 등 대비 3배 이상 빠른 속도다. 파네시아는 고속 CXL 컨트롤러를 활용해 여러 개의 메모리 확장 장치를 GPU에 바로 연결함으로써 단일 GPU가 테라바이트 수준의 대규모 메모리 공간을 형성할 수 있도록 했다.

2024.07.08 08:22박희범

미루웨어, AMD MI300X 기반 기가바이트 서버 출시

AI, HPC 전문기업인 미루웨어가 5일 AMD AI 처리용 GPU인 MI300X를 탑재한 기가바이트 서버 'G593-ZX1 5U MI300X OAM'을 국내 출시한다. 기가바이트 G593-ZX1 5U MI300X OAM은 AMD 에픽 9004 프로세서 기반 5U 사이즈 서버로 AMD MI300X GPU OAM 모듈을 최대 8개 장착할 수 있다. MI300X는 PCI 익스프레스 5.0 인터페이스로 연결되며 AMD 인피니티 패브릭 메시 기술로 상호 연결을 통해 데이터 병목 현상을 줄이고 더 빠른 데이터 전송이 가능하다. 최대 사양 구성시 연산 성능은 1.3PFLOPS(페타플롭스)이며 MI300X에 내장된 최대 1.5TB 용량의 HBM3 메모리를 활용해 생성 AI와 AI 모델 트레이닝 등 워크로드를 효과적으로 처리할 수 있다. AMD가 제공하는 ROCm 6 오픈 소프트웨어 플랫폼은 파이토치, 텐서플로, ONNX-RT 등 업계 표준 AI·머신러닝 프레임워크를 지원하며 개발자 허브에서 각종 가이드도 제공한다. 이를 통해 생성 AI는 물론 천체물리학, 기후 및 기상, 유체 역학, 지구과학 및 물리학, 분자 역학 분야의 대량 데이터 처리도 가능하다. 이정훈 미루웨어 대표는 "기가바이트 G593-ZX1 모델은 다양한 고객사가 빠른 시간 안에 운용할 수 있는 표준 규격 기반 제품으로 기존 AI 및 서버 인프라에 추가하여 회사 개발 솔루션의 개발 기간과 모델화를 단축시킬 수 있는 제품"이라고 설명했다. 제품 제원과 도입 프로모션 등 상세 내용은 미루웨어 공식 웹사이트 내 제품 문의 메뉴나 뉴스레터로 확인할 수 있다.

2024.07.05 10:00권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프 "캐나다와 무역협상 중단"…디지털세 문제 삼아

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

우주에서 신발 만든다…어떤 깜짝 혁신 나올까

내란 특검, 윤석열 대면조사 시작...체포 방해, 비화폰 삭제 지시 대상

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.