• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'서버 GPU'통합검색 결과 입니다. (28건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AIC, 韓 보안 전시회서 新 GPU 서버 최초 공개

AIC가 신제품 GPU 서버인 CB201-B5와 CB401-TU를 국내에서 최초 공개한다. AIC가 오는 20일부터 22일까지 일산 킨텍스에서 개최되는 '세계 보안 엑스포(SECON) & 전자정부 정보보호 솔루션 페어(eGISEC) 2024'에 참가한다고 8일 밝혔다. AIC는 이번 박람화에서 최신 서버 및 스토리지 기술을 선보일 예정이다. 보안 시장에 필수 요소인 고가용성 및 고용량 스토리지 시스템의 경우 SB407-TU, HA401-TU 및 JBOD 제품들을 선보일 예정이다. 마이클량 AIC의 최고 경영자(CEO) 겸 사장은 "AIC는 이번 전시회를 통해 한국 시장에 다양한 제품을 선보이게 돼 기쁘게 생각한다"며 "특히 이번에 출시된 GPU 서버는 뛰어난 성능과 안정성을 제공하도록 구축돼 고성능 GPU 서버 솔루션이 필요한 다양한 기업에 탁월한 선택이 될 것"이라고 말했다.

2024.03.08 10:37이한얼

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

윈도서버2025 가을 출시…역대급 업데이트 예고

마이크로소프트가 온프레미스 서버용 운영체제(OS)의 차세대 버전인 '윈도서버 2025'를 오는 가을 중 출시한다. 윈도서버2025는 핫패치, 차세대 액티브디렉토리(AD) 및 SMB 프로토콜, 미션크리티컬 데이터 및 스토리지, 하이퍼V 업데이트, AI 기능 등을 포함한다. 마이크로소프트는 최근 올 가을 출시될 윈도서버2025의 새 기능을 소개하는 블로그를 게재했다. 작년 11월 열린 연례컨퍼런스 '마이크로소프트 이그나이트 2023'에서 윈도서버 차기 버전을 소개했었다. 당시엔 버전명 없이 '윈도서버 브이닷넥스트'란 이름으로 소개했고, 최근 공식 버전명을 발표했다. 윈도서버는 작년 출시 30년을 맞았다. 마이크로소프트는 윈도서버2025를 10년 내 가장 혁신적 업데이트라고 강조했다. ■ 서버 중단 없는 온프레미스 OS 패치 윈도서버2025는 시스템 재부팅 없이 정기 업데이트를 설치할 수 있는 '핫패치'를 제공한다. 핫패치를 이용하면 구동중인 워크로드를 중단하지 않고 매월 정기 업데이트를 실시할 수 있다. 윈도서버2022 버전의 경우 애저 에디션만 핫패치를 이용할 수 있었다. 윈도서버2025는 애저 아크의 애저 포털을 통해 온프레미스 서버 워크로드의 핫패치를 수행한다. 마이크로소프트는 지난 이그나이트에서 사내 X박스팀이 윈도서버 핫패치를 이용해 1천개 이상의 서버에서 실행되는 18개의 서로 다른 서비스를 시스템 중단없이 업데이트한 사례를 공유했다. X박스팀은 2개 서비스에서 120개의 SQL서버를 실행하며 이 워크로드는 15년째 실행되고 있다. 현재 X박스팀의 윈도서버 워크로드는 애저 가상머신(VM)에서 실행되고 있다. 이 팀은 윈도서버2022 애저 에디션을 사용해 연간 12회 실시해야 하는 업데이트 패치를 48시간 내 모든 시스템에 완료했다. 업데이트 설치를 위한 시스템 다운은 없었고 전통적인 패치 시간보다 더 짧게 걸렸다. 윈도서버2025 핫패치는 온프레미스 자체에서 일어나지 않으므로 애저 구독을 해야 한다. 단 하이퍼컨버지드인프라(HCI)인 애저스택ACI를 사용하는 경우 따로 결제하지 않아도 된다. ■ 액티브디렉토리와 SMB 프로토콜 차기 버전 윈도서버2025는 차세대 액티브디렉토리(AD)와 서버메시지블록(SMB) 프로토콜을 포함한다. AD는 1999년 처음 공개된 도메인 내 개체 관리 서비스다. 윈도서버2016 버전 후 별다른 업데이트가 없었다. 새로운 AD는 도메인 제어 데이터베이스 페이지 크기를 8K에서 32K로 늘렸다. AD가 처음 도입된 윈도2000 당시만 해도 시스템이 별로 크지 않았지만, 오늘날 시스템은 수백개 코어를 이용하고 있어 기존 도메인 관리 데이터베이스의 확장성에 제한을 받았다. 또한 TLS 1.3에 대한 LDAP 및 SCHANNEL 지원, 기밀 속성에 대한 암호화 향상, NTLM 인증 제거 및 케르베로스(Kerberos) 기본 설정, 복제 우선 순위 지정 등이 새 버전 업데이트에 포함된다. 윈도 파일공유 프로토콜인 SMB도 업그레이드된다. QUIC을 통한 SMB가 윈도서버2025에 통합된다. 안전한 SMB VPN을 생성해 사용자에게 암호화된 통신과 향상된 성능을 제공한다. QUIC은 네트워크 프로토콜로 TCP 대신 UDP를 사용한다. 윈도서버2025에서 파일 공유를 TCP/IP나 RDMA 대신 UDP로 할 수 있다는 것이다. 현재 QUIC을 통한 SMB는 윈도서버2022 애저 에디션에만 도입돼 있다. 윈도서버 2025는 데이터센터, 스탠더드 에디션에서도 QUIC을 통한 SMB를 사용할 수 있다. TLS 1.3 연결로 보안 연결을 수행할 수 있다. ■ GPU도 가상화하는 하이퍼V 윈도의 가상화 하이퍼바이저인 '하이퍼V'도 개선된다. 하이퍼V는 현재 윈도, 애저, 애저스택, 윈도서버, X박스 등의 하이퍼바이저로 사용되고 있다. 새로운 하이퍼V는 GPU 가상화를 할 수 있다. 가상GPU 자원을 직접 VM 내부에 매핑함으로써 여러 VM이 복수의 GPU 클러스터를 분할해 할당받을 수 있다. 윈도서버 GPU-P 지원이란 이 개선은 GPU 파티션을 만들어 VM에 할당하는 것이다. 실시간 마이그레이션, 장애조치, 클러스터링을 지원한다. GPU와 관련된 고가용성이 가능해진다. 하이퍼V가 동적 프로세서 호환성을 제공하게 된다. 시스템 가동 시 애초에 할당된 프로세서 외에도 클러스터 전체의 모든 프로세서를 살펴보고 동종 집합의 경우 사용가능하게 만들어준다. 서버 OS를 새 버전으로 업그레이드할 때 기존 애플리케이션과 데이터는 보호된다. 기존 워크로드의 애플리케이션과 데이터는 컨테이너화되고, OS 업데이트 후 재활용된다. 현재 윈도10과 윈도11 클라이언트의 OS 버전 업그레이드 방식과 동일하다. ■ 더 빨라지고 안전해지는 스토리지 윈도서버2025는 새로운 NVMe 드라이버를 쓸 수 있다. NVMe 디바이스와 관련된 성능을 개선하고 CPU 오버헤드를 줄이려는 목적이다. 새 드라이버를 사용하면 NVMe 디바이스 성능을 70% 향상시킬 수 있다고 한다. 정식 버전은 90% 성능 개선을 예고하고 있다. 소프트웨어정의스토리지(SDS)를 구성할 때 사용가능한 SAN용 NVMeoF(NVMe오버패브릭) TCP 이니시에이터가 출시된다. 스토리지 복제본 사용 성능이 3배 향상될 예정이다. ReFS 네이티브 중복제거도 제공된다. ReFS 중복제거가 학데이터에 최적화되거나 핫데이터를 사용하도록 설정된다.

2024.02.08 12:46김우용

韓 토종 AI칩 팹리스, 대량 양산·매출 실현 준비 마쳤다

국내 AI 반도체 스타트업들이 올해 본격적인 매출 확대를 추진한다. 기존 시제품, 초도 물량 제작을 넘어 실제 양산을 위한 협력사 선정을 끝마친 것으로 알려졌다. 22일 업계에 따르면 국내 서버용 AI 반도체 팹리스 기업들은 올해 대량 양산을 위한 준비를 마쳤다. 퓨리오사AI는 지난해 말 대만의 주요 컴퓨터 부품 제조기업 에이수스(ASUS)와 양산 공급 계약을 체결했다. 이번 계약은 퓨리오사AI의 1세대 NPU(신경망처리장치)인 '워보이'를 에이수스가 카드 형태로 제작하는 것이 주 골자다. 나아가 퓨리오사AI의 2세대 칩 '레니게이드'의 카드 제품도 에이수스를 활용할 계획이다. 레니게이드는 5나노미터(nm), HBM3(4세대 고대역폭메모리) 등 최선단 기술을 탑재한 것이 특징으로, 올 2분기 중 출시될 예정이다. 퓨리오사AI의 사례는 국내 AI 반도체 기업들의 양산화 준비가 마무리단계에 임박했다는 점에서 의의가 있다. 현재 서버용 AI 반도체 시장은 해외 거대 팹리스인 엔비디아가 고성능 GPU(그래픽처리장치)로 시장을 독과점하고 있다. 이에 맞서 국내외 팹리스 기업들은 GPU 대비 연산 성능 및 효율성이 높은 NPU로 시장 진입을 추진하고 있다. 사피온, 리벨리온, 퓨리오사AI 와 같은 국내 기업들도 글로벌 벤치마크를 통해 각 사의 칩이 지닌 뛰어난 성능을 입증해 왔다. 다만 이들 기업이 고객사에 실제로 제품을 공급하기 위해서는 NPU를 PCB(인쇄회로기판) 위에 여러 인터페이스 기능과 함께 집적한 카드 형태로 만들어야 한다. 백준호 퓨리오사AI 대표는 "에이수스는 엔비디아의 카드 제품을 양산해 온 OEM 기업으로, 엄격한 양산 기준을 갖춘 만큼 업계의 신뢰성이 높다"며 "이번 계약으로 퓨리오사AI도 그간의 소량 생산에서 벗어나, 차세대 제품에 대한 대량 양산 체계를 구축하게 됐다는 점에서 의미가 있다"고 설명했다. 리벨리온은 대만 등의 부품기업과 카드 제품을 양산을 논의 중인 것으로 알려졌다. 그간 리벨리온은 5나노 공정 기반의 NPU '아톰'을 시제품으로 소량 제작해 왔으며, 올 1분기부터는 본격적인 양산에 돌입한다. 박성현 리벨리온 대표는 "1만~2만장 수준으로 제품을 대량 양산하기 위해서는 신뢰성이 높은 모듈업체를 공급망으로 확보해야 한다"며 "상용화 측면에서 중요한 과제"라고 말했다. 사피온 역시 만반의 준비를 갖췄다. 사피온 관계자는 "사피온은 글로벌 서버 제조사와 협력해 밸리데이션이 완료된 인퍼런스 서버를 즉시 사용할 수 있도록 제공하고 있다"고 밝혔다. 한편 국내 서버용 AI 반도체 기업들은 중장기적으로 매출을 확장하기 위한 서버 사업도 고려하고 있다. 서버 사업은 데이터센터의 네트워크 서비스 전반을 구현 가능한 모듈(POD)을 공급하는 것으로, 칩 및 카드를 대량 공급하는 데 유리하다. 업계 관계자는 "상당 수의 국내외 IT 기업들이 POD보다는 서버까지 턴키로 공급해주길 원하고 있어, 국내 AI반도체 기업들도 결국에는 서버 사업으로 나아가야할 것"이라며 "향후 이를 위한 서버 기업과의 협업이 활발히 이뤄질 것으로 예상된다"고 말했다.

2024.01.22 13:38장경윤

TSMC, 3나노 매출 비중 15%로 '껑충'…최첨단 공정 맹활약

대만 주요 파운드리 TSMC가 지난해 4분기 최선단 공정을 중심으로 견조한 실적을 기록했다. 특히 가장 최신 공정에 해당하는 3나노미터(nm) 공정의 매출 비중이 지난해 3분기 6%에서 4분기 15%로 크게 증가했다. 18일 TSMC는 연결 기준 지난해 4분기 매출 6천255억 대만달러(미화 196억2천만 달러, 한화 26조5천400억 원), 순이익 2천387억 대만달러를 기록했다고 밝혔다. 매출은 전년동기와 동일하며, 전분기 대비 14.4% 증가했다. 순이익은 전년동기 대비 19.3% 감소했으나, 전분기 대비로는 13.1% 증가했다. 반도체 및 거시경제 악화로 올해 연간 매출이 감소하기는 했으나, 이번 TSMC의 4분기 실적은 당초 가이던스 및 증권가 컨센서스(매출 6천162억 대만달러)를 웃돌았다. 업계는 주요 고객사인 애플의 첨단 모바일 AP(애플리케이션 프로세서) 양산, AI 산업 발달에 따른 고성능 서버용 칩 수요 증가가 실적에 긍정적인 영향을 끼쳤을 것으로 분석하고 있다. 실제로 TSMC의 분기별 매출 비중에서 최선단 공정이 차지하는 비중은 꾸준히 상승하는 추세다. 지난해 4분기 TSMC의 3나노 매출 비중은 15%를 기록했다. 3나노는 현재 상용화된 가장 최신의 공정이다. TSMC의 경우 지난해 3분기부터 3나노 매출 비중을 공개한 바 있다. 3분기 3나노 공정의 매출 점유율은 6% 수준으로, 1개 분기만에 2배 이상 증가했다. 이를 반영한 지난해 4분기 TSMC의 7나노 이하 첨단 공정의 매출 비중은 67%다. 1분기(51%), 2분기(53%), 3분기(59%)와 비교하면 매 분기마다 계단식 성장을 이루고 있다. 한편 TSMC는 올 1분기 매출 전망치를 180억~188억 달러로 제시했다. 중간값은 184억 달러로, 전분기 대비 6.5%가량 감소한 수치다. 총이익률과 영업이익률은 52~54%, 40~42%로 전망했다.

2024.01.18 16:39장경윤

"HBM 수요, 예상보다 커…올해 삼성·SK 주문량만 12억GB"

"HBM(고대역폭메모리) 시장은 우리가 생각하는 것보다 더 빠르게 성장하고 있다. 올해 HBM 시장의 수요를 5.2억GB(기가바이트)로 전망하기도 하는데, 삼성전자·SK하이닉스에서 받은 수주를 더해보면 10억~12억GB에 달한다." 이승우 유진투자증권 리서치센터장은 18일 서울 양재 엘타워에서 열린 'AI-PIM(프로세싱-인-메모리) 반도체 워크숍'에서 AI 반도체 수요 현황에 대해 이같이 밝혔다. 최근 IT 시장은 서버 및 엣지 AI 산업의 급격한 발달로 고성능 시스템반도체에 대한 수요가 증가하고 있다. 글로벌 팹리스인 엔비디아와 AMD가 개발하는 고성능 GPU(그래픽처리장치)가 대표적인 사례다. GPU 대비 연산 효율성이 높은 NPU(신경망처리장치)도 국내외 여러 스타트업을 중심으로 개발되고 있다. 또한 서버 시장에서는 여러 개의 D램을 쌓아올려 데이터 처리 성능을 크게 높인 HBM이 각광받는 추세다. 관련 시장은 국내 삼성전자와 SK하이닉스, 미국 마이크론 등이 주도하고 있다. 이승우 센터장은 "AI 반도체에 대한 수요가 당초 예상보다 높아 기존 HBM에 대한 수요 전망도 뒤엎을 필요가 있다"며 "시장조사업체가 HBM 수요를 지난해 3.2억GB, 올해 5.2억GB(기가바이트)로 분석했는데, 삼성전자와 SK하이닉스가 받은 주문량만 더해도 이 수치가 10억~12억GB에 달한다"고 언급했다. PIM 시장도 향후 급격한 성장세가 기대된다. PIM은 메모리 내에서 자체적으로 데이터 연산 기능을 처리할 수 있는 차세대 반도체다. 기존 메모리에서 CPU·GPU 등 시스템반도체로 데이터를 보내는 과정을 줄일 수 있으므로, 전력 효율성을 높이는 데 용이하다. 덕분에 PIM은 저전력·고성능 연산이 필요한 온디바이스 AI(서버, 클라우드를 거치지 않고 기기 자체에서 AI 기능을 처리하는 기술) 분야에 활발히 적용될 것으로 주목받고 있다. 이 센터장은 "AI 산업이 과거 데이터센터 중심에서 온디바이스 AI로 향하면서 초저지연·초저전력 특성이 핵심 요소로 떠올랐다"며 "AMD·삼성전자가 PIM 기능을 HBM에 추가해 처리 속도를 7%, 전력소모를 85% 개선한 사례를 보면 향후 PIM이 국내 반도체 산업의 돌파구가 될 것으로 생각한다"고 말했다. 한편 AI-PIM 워크숍은 세계 AI 반도체 및 PIM 시장 현황과 전망을 점검하고, 해댱 분야의 기술 현황 및 협력 방향 등에 대해 논의하기 위한 자리다. 과학기술정보통신부가 주최하고 정보통신기획평가원과 한국과학기술원의 PIM반도체설계연구센터가 주관한다.

2024.01.18 13:55장경윤

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

'안전 자율주행' 외치다 흘린 3년…현대차 자율주행 언제 가시화?

"전남-성남, 바이오헬스 산업 협력합시다"

박나래, ‘주사이모’ 해명에 역풍...의료계 "명백한 불법" 지적↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.