• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (178건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엣지 AI 칩, 6년간 '2배' 성장 전망…PC·스마트폰서 채택 활발

엣지 AI용 프로세서 시장이 PC, 스마트폰 등 다양한 산업의 수요 증가로 견조한 성장세를 이뤄낼 것으로 예상된다. 23일 시장조사업체 옴디아에 따르면 세계 엣지 AI용 반도체 시장 규모는 지난 2022년 310억 달러(한화 약 41조2천200억 원)에서 오는 2028년 600억 달러(약 79조7천300억 원)로 2배가량 증가할 전망이다. 엣지 AI는 중앙 집중형 서버를 거치지 않고 기기 주변의 로컬 네트워크를 통해 데이터를 처리하는 기술을 뜻한다. 엣지 AI는 최근 IT 업계의 화두로 떠오른 온디바이스 AI와도 맞닿아 있다. 온디바이스 AI는 기기 자체에서 AI 기능을 처리하는 기술로, 실제 구동 환경에서는 클라우드 및 엣지 네트워크를 동시에 활용하는 '하이브리드 AI' 운용이 필요하기 때문이다. 옴디아는 이들 기술과 연관된 AI 가속기, AI용 주문형 반도체, GPU(그래픽처리장치) 등 관련 산업이 견조한 성장세를 보일 것으로 내다봤다. 예상 시장 규모는 2022년 310억 달러에서 2028년 600억 달러로, 연평균 성장률은 11% 달할 전망이다. 실제로 AI 시대를 겨냥한 시스템 반도체는 스마트폰, 노트북 등에서 점차 도입이 확대되는 추세다. 스마트폰의 경우 삼성전자, 퀄컴, 미디어텍 등이 최신 모바일 AP(애플리케이션 프로세서)에 AI 성능을 앞다퉈 강조하고 나섰다. 일례로 삼성전자는 올해 초 '엑시노스 2400'을 공개하면서 AI 성능이 전작 대비 14.7배 향상됐다고 설명한 바 있다. 퀄컴이 지난해 10월 공개한 '스냅드래곤 8 3세대'는 내부 '헥사곤' NPU(신경망처리장치) 성능을 98%, 효율성을 40%가량 높였다. 노트북용 프로세서도 상황은 비슷하다. 애플 'M3' 시리즈, 퀄컴 '스냅드래곤 X 엘리트', AMD '8000G' 등 최신 프로세서들이 모두 AI 기능 구현을 위한 성능을 갖췄다. 옴디아는 "최근 엣지 AI용 반도체가 활발히 출시되면서 AI PC로의 전환을 앞당기고 있다"며 "스마트폰 시장도 현재 3분의 2 이상이 어떠한 형태로든 AI 기능을 갖추고 있어, 프리미엄 제품을 중심으로 성장세가 예상된다"고 밝혔다. 국내 스타트업들도 엣지 AI용 NPU 시장 진출을 준비하고 있다. 모빌린트는 80 TOPS(TOPS: 초당 1조 번의 정수 연산처리) 수준의 고성능 NPU를 개발해, 올해 첫 시제품 양산을 목표로 하고 있다. 딥엑스는 올해 산업별로 다른 성능을 갖춘 온디바이스용 NPU 4종을 양산하고, 내년에는 LLM(대규모언어모델) 및 생성형 AI를 구동하는 초저전력 온디바이스 AI 칩을 출시할 계획이다. 옴디아는 "AI ASSP(특정 용도로 설계된 표준 칩)가 전통적인 GPU의 자리를 흡수해 전체 엣지 AI용 프로세서 시장의 비중을 19%에서 28%로 확대할 것"이라며 "PC 시장은 기존 스마트폰 칩셋 구조인 CPU·GPU·NPU를 점점 더 많이 채택하고 있다"고 설명했다.

2024.02.23 14:39장경윤

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

윈도서버2025 가을 출시…역대급 업데이트 예고

마이크로소프트가 온프레미스 서버용 운영체제(OS)의 차세대 버전인 '윈도서버 2025'를 오는 가을 중 출시한다. 윈도서버2025는 핫패치, 차세대 액티브디렉토리(AD) 및 SMB 프로토콜, 미션크리티컬 데이터 및 스토리지, 하이퍼V 업데이트, AI 기능 등을 포함한다. 마이크로소프트는 최근 올 가을 출시될 윈도서버2025의 새 기능을 소개하는 블로그를 게재했다. 작년 11월 열린 연례컨퍼런스 '마이크로소프트 이그나이트 2023'에서 윈도서버 차기 버전을 소개했었다. 당시엔 버전명 없이 '윈도서버 브이닷넥스트'란 이름으로 소개했고, 최근 공식 버전명을 발표했다. 윈도서버는 작년 출시 30년을 맞았다. 마이크로소프트는 윈도서버2025를 10년 내 가장 혁신적 업데이트라고 강조했다. ■ 서버 중단 없는 온프레미스 OS 패치 윈도서버2025는 시스템 재부팅 없이 정기 업데이트를 설치할 수 있는 '핫패치'를 제공한다. 핫패치를 이용하면 구동중인 워크로드를 중단하지 않고 매월 정기 업데이트를 실시할 수 있다. 윈도서버2022 버전의 경우 애저 에디션만 핫패치를 이용할 수 있었다. 윈도서버2025는 애저 아크의 애저 포털을 통해 온프레미스 서버 워크로드의 핫패치를 수행한다. 마이크로소프트는 지난 이그나이트에서 사내 X박스팀이 윈도서버 핫패치를 이용해 1천개 이상의 서버에서 실행되는 18개의 서로 다른 서비스를 시스템 중단없이 업데이트한 사례를 공유했다. X박스팀은 2개 서비스에서 120개의 SQL서버를 실행하며 이 워크로드는 15년째 실행되고 있다. 현재 X박스팀의 윈도서버 워크로드는 애저 가상머신(VM)에서 실행되고 있다. 이 팀은 윈도서버2022 애저 에디션을 사용해 연간 12회 실시해야 하는 업데이트 패치를 48시간 내 모든 시스템에 완료했다. 업데이트 설치를 위한 시스템 다운은 없었고 전통적인 패치 시간보다 더 짧게 걸렸다. 윈도서버2025 핫패치는 온프레미스 자체에서 일어나지 않으므로 애저 구독을 해야 한다. 단 하이퍼컨버지드인프라(HCI)인 애저스택ACI를 사용하는 경우 따로 결제하지 않아도 된다. ■ 액티브디렉토리와 SMB 프로토콜 차기 버전 윈도서버2025는 차세대 액티브디렉토리(AD)와 서버메시지블록(SMB) 프로토콜을 포함한다. AD는 1999년 처음 공개된 도메인 내 개체 관리 서비스다. 윈도서버2016 버전 후 별다른 업데이트가 없었다. 새로운 AD는 도메인 제어 데이터베이스 페이지 크기를 8K에서 32K로 늘렸다. AD가 처음 도입된 윈도2000 당시만 해도 시스템이 별로 크지 않았지만, 오늘날 시스템은 수백개 코어를 이용하고 있어 기존 도메인 관리 데이터베이스의 확장성에 제한을 받았다. 또한 TLS 1.3에 대한 LDAP 및 SCHANNEL 지원, 기밀 속성에 대한 암호화 향상, NTLM 인증 제거 및 케르베로스(Kerberos) 기본 설정, 복제 우선 순위 지정 등이 새 버전 업데이트에 포함된다. 윈도 파일공유 프로토콜인 SMB도 업그레이드된다. QUIC을 통한 SMB가 윈도서버2025에 통합된다. 안전한 SMB VPN을 생성해 사용자에게 암호화된 통신과 향상된 성능을 제공한다. QUIC은 네트워크 프로토콜로 TCP 대신 UDP를 사용한다. 윈도서버2025에서 파일 공유를 TCP/IP나 RDMA 대신 UDP로 할 수 있다는 것이다. 현재 QUIC을 통한 SMB는 윈도서버2022 애저 에디션에만 도입돼 있다. 윈도서버 2025는 데이터센터, 스탠더드 에디션에서도 QUIC을 통한 SMB를 사용할 수 있다. TLS 1.3 연결로 보안 연결을 수행할 수 있다. ■ GPU도 가상화하는 하이퍼V 윈도의 가상화 하이퍼바이저인 '하이퍼V'도 개선된다. 하이퍼V는 현재 윈도, 애저, 애저스택, 윈도서버, X박스 등의 하이퍼바이저로 사용되고 있다. 새로운 하이퍼V는 GPU 가상화를 할 수 있다. 가상GPU 자원을 직접 VM 내부에 매핑함으로써 여러 VM이 복수의 GPU 클러스터를 분할해 할당받을 수 있다. 윈도서버 GPU-P 지원이란 이 개선은 GPU 파티션을 만들어 VM에 할당하는 것이다. 실시간 마이그레이션, 장애조치, 클러스터링을 지원한다. GPU와 관련된 고가용성이 가능해진다. 하이퍼V가 동적 프로세서 호환성을 제공하게 된다. 시스템 가동 시 애초에 할당된 프로세서 외에도 클러스터 전체의 모든 프로세서를 살펴보고 동종 집합의 경우 사용가능하게 만들어준다. 서버 OS를 새 버전으로 업그레이드할 때 기존 애플리케이션과 데이터는 보호된다. 기존 워크로드의 애플리케이션과 데이터는 컨테이너화되고, OS 업데이트 후 재활용된다. 현재 윈도10과 윈도11 클라이언트의 OS 버전 업그레이드 방식과 동일하다. ■ 더 빨라지고 안전해지는 스토리지 윈도서버2025는 새로운 NVMe 드라이버를 쓸 수 있다. NVMe 디바이스와 관련된 성능을 개선하고 CPU 오버헤드를 줄이려는 목적이다. 새 드라이버를 사용하면 NVMe 디바이스 성능을 70% 향상시킬 수 있다고 한다. 정식 버전은 90% 성능 개선을 예고하고 있다. 소프트웨어정의스토리지(SDS)를 구성할 때 사용가능한 SAN용 NVMeoF(NVMe오버패브릭) TCP 이니시에이터가 출시된다. 스토리지 복제본 사용 성능이 3배 향상될 예정이다. ReFS 네이티브 중복제거도 제공된다. ReFS 중복제거가 학데이터에 최적화되거나 핫데이터를 사용하도록 설정된다.

2024.02.08 12:46김우용

마우저, 어드밴텍 '인텔 아크 기반 GPU 카드' 공급

마우저일렉트로닉스는 어드밴텍의 'VEGA-P110' PCIe 인텔 아크 A370M 임베디드 GPU 카드를 공급한다고 6일 밝혔다. 어드밴텍의 고성능 임베디드 GPU 카드는 16개의 PCIe 인터페이스와 8개의 Xe 코어, 128개의 인텔 Xe 매트릭스 확장 엔진을 갖췄다. 또한 인텔 딥 링크(Deep Link) 및 인텔 오픈비노 등 인텔의 최첨단 AI 기술이 탑재됐다. 이를 통해 VEGA-P110 GPU 카드는 CPU/GPU 워크로드를 최적화함과 동시에, AI 및 그래픽 컴퓨팅 성능을 가속화할 수 있다. VEGA-P110 GPU 카드에는 기본 1천550MHz GPU 클럭 속도는 물론, 4GB의 64b GDDR6 메모리가 포함돼 있다. 마우저는 "VEGA-P110은 증가하는 GPU 및 비전 AI 성능에 대한 요구 사항을 충족하고, 다양한 제품 지원을 통해 오픈 AI 생태계를 확장하고자 하는 어드밴텍과 인텔 간의 새로운 협력의 결과"라고 밝혔다.

2024.02.06 11:22장경윤

"엔비디아, GPU 생산에 인텔 패키징 기술도 활용"

엔비디아가 서버용 GPU 생산량 확대를 위해 이르면 올해 2분기부터 대만 TSMC 이외에 인텔 3차원 반도체 적층 기술을 활용할 전망이다. 대만 경제일보(經濟日報)는 31일(현지시간) 업계 관계자를 인용해 이같이 보도했다. 엔비디아가 현재 시장에 공급하는 A100/H100 등 서버용 GPU는 TSMC의 2.5차원 반도체 적층 기술인 'CoWoS'(칩 온 웨이퍼 온 서브스트레이트)로 생산된다. 엔비디아는 현재 TSMC CoWoS 처리 역량 중 90% 가량을 고성능 GPU 생산에 활용한다. 그러나 수요 폭증에 처리량이 따라가지 못해 공급 지연 현상이 발생하며 일부 회사는 AMD나 인텔 등 경쟁사 CPU·GPU로 전환을 시도하기도 한다. 경제일보는 "지난 해 12월 기준 TSMC의 월간 CoWoS 패키지 처리 역량은 웨이퍼 4만 장 가량이며 인텔이 가지고 있는 3차원 반도체 적층 기술 포베로스(FOVEROS) 활용시 추가로 월간 5천 장을 처리할 수 있을 것"이라고 전망했다. 단, 인텔은 엔비디아 GPU를 구성하는 칩 생산에 관여하지 않는다. TSMC와 기타 파운드리가 생산한 GPU와 HBM 메모리 등 구성 요소를 미국 오레곤과 뉴멕시코 주 소재 시설로 보내 최종 제품으로 완성하는 방식이다. 경제일보는 "엔비디아가 TSMC에 이어 인텔 포베로스 기술까지 활용하면 서버 시장의 공급 적체 해소에 도움을 줄 것"이라고 평가했다.

2024.02.01 10:04권봉석

AI 네트워킹, 인피니밴드에서 이더넷으로 대세 바뀐다

챗GPT 등장 후 생성형 인공지능(AI) 기반 서비스가 모든 산업군에 변화를 만들고 있다. AI 기술은 모든 산업의 새로운 먹거리로 인식되는 상황이다. 대기업, 인터넷서비스기업, 클라우드 기업 등은 AI 시장을 선점하려 대대적인 물량 투자와 함께 기업 인프라를 개혁하고 있다. 오늘날 AI 기술은 챗GPT 이전과 이후로 나뉜다고 할 정도다. 챗GPT를 뒷받침하는 트랜스포머 아키텍처는 인간과 소통하듯 '자연스러운' 대규모언어모델(LLM)을 만들어냈다. 그리고 이 '자연스러움'을 더욱더 인간처럼 구현하려면 방대한 규모의 고성능 GPU 클러스터 인프라가 필수적이다. AI 인프라의 근간인 GPU, 서버, 스토리지, 네트워크 등은 수많은 제품을 요구하는 고비용 서비스다. LLM의 경우 GPU 갯수를 늘릴수록 학습 시간을 획기적으로 늘릴 수 있는 구조다. 예를 들어 2년 전 나온 GPT-3.5의 경우 1만개의 GPU로 서비스된다. GPT-3.5를 GPU 한개로 학습시킨다면 약 355년이 필요하다. AI 인프라 기술 그 자체는 전과 크게 달라지지 않았다. AI 인프라가 작은 연산 자원을 대규모로 한대 묶어 성능을 획기적으로 높이는 고성능컴퓨팅(HPC) 기술을 근간으로 한다. HPC 기술은 처음에 CPU를 중심으로 발전하다 21세기 들어 GPU 클러스터로 발전했다. 현재 LLM 학습과 추론을 위한 GPU 시장은 엔비디아 독주 체제다. 엔비디아 텐서코어 H100이나 A100 GPU는 칩셋 하나당 5천만원 내외의 단가로 거래되고, 그마저도 공급부족으로 품귀현상을 보인다. 주문한다고 해도 구하기 쉽지 않고, 가격도 고공행진중이다. 오픈AI의 GPT, 구글 제미나이, 메타 라마 등 유명 LLM의 발전과 출시는 GPU의 빅테크 쏠림과 공급부족 현상을 한층 부추기고, 일반 수요자를 더 안달나게 만든다. 이런 독점 체제를 깨기 위해 AMD, 인텔 등이 경쟁 제품을 속속 출시중이다. ■ AI 인프라에서 네트워킹이 왜 중요한가 AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적인 것이다. 고성능 AI 인프라 수용을 위한 네트워킹은 전통적인 워크로드 수용을 위한 인프라보다 거대할 수밖에 없는 구조다. 노드 내 GPU 간 연산 능력은 4개의 GPU를 내부 버스를 통해 P2P로 연결하는 NV링크 또는 서버 내 8개의 GPU를 연결하기 위해 NV스위치를 통해 극대화 가능하다. 여러 GPU 노드를 클러스트링하고 각 GPU 노드들의 통신 간 병목현상을 최소화하려면 GPU 당 한개의 고성능의 네트워크인터페이스카드(NIC)를 할당하게 된다. 각 NIC는 400Gbps 대역폭을 수용할 수 있어야 한다. GPU 한개에 1대의 400Gbps급 스위치를 연결하게 된다. 400Gbps가 제공되는 고사양의 스위치를 근간으로 2티어에서 3티어 구조의 '리프스파인(Leaf-spine)' 아키텍처를 구성하므로 대형 GPU 노드 클러스터의 경우 최소 수십대의 400Gbps급 스위치가 기본 제공돼야 한다. 엔비디아의 멀티 GPU 클러스터 상품인 '슈퍼팟(SuperPOD)'의 경우 32대의 DGX H100 노드를 최대 256개의 GPU 클러스터링으로 연결하며, 이론적으로 최대 57.8 TBps의 데이터 연산 성능을 제공하게 돼 있다. 따라서 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요해진다. LLM의 경우 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. ■ 왜 인피니밴드보다 이더넷인가 AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩(Off-Loading)기술인 RDMA(Remote Direct Memory Access)는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA(Direct Memory Access)'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 인피니밴드나 RDMA오버컨버지드이더넷(RoCE)를 통해 활용가능하다. 수백개 GPU가 병렬처리를 통해 수백, 수천 시간을 학습하고 빠르게 서비스를 제공하려면 네트워크의 안정성도 중요하다. 잠깐의 방해도 재연산을 하게 만들 수 있다. 과거 네트워킹 기술의 성능과 안정성 면에서 인피니밴드가 이더넷보다 앞선 것으로 여겨져왔다. 인피니밴드가 이더넷의 대역폭을 월등히 앞섰기 때문에 HPC 분야에서 주료 인피니밴드를 활용했었다. 엔비디아 DGX 서버도 이더넷보다 인피니밴드를 장려한다. 안정성의 측면에서 인피니밴드는 패킷 무손실을 전제하지만, 이더넷은 어느정도의 패킷손실을 전제로 한다. LLM 인프라가 HPC 기술을 바탕에 두기 때문에 GPU 클러스터의 네트워킹은 인피니밴드를 주로 쓴다. 만약 앞서 계산했듯 기존 비즈니스 워크로드 대비 3~4배 많은 네트워킹 인프라 물량을 인피니밴드로 구성하면 비용 부담이 적지 않다. 특히 인피니밴드 기술은 제조사 간 경쟁이 사라진 독점 기술이다. 과거 인피니밴드 솔루션을 개발하고 공급해오던 기업들이 하나둘 대형 업체에 흡수되거나 사라졌는데, 마지막 독립 업체로 남아 있던 멜라녹스도 엔비디아에 인수됐다. 지금은 엔비디아가 인피니밴드 기술을 독점 공급하는 상황이다. 공개 표준 기술이 아니므로 인피니밴드 핵심 기술은 비공개다. 발전 방향이나 정도가 엔비디아 결정에 100% 달려있다. 비용 구조도 엔비디아 종속적이다. 심지어 인피니밴드 스위치 공급 부족 현상이 GPU 공급부족보다 더 심각하다는 말까지 나온다. 비용, 기술 모두 특정업체 종속적인 상황에서 인피니밴드는 외부의 여러 워크로드를 LLM에 연동하기 힘들게 하는 장애물이 된다. 인피니밴드를 다룰 줄 아는 전문가는 매우 희귀하며, 기술적 어려운 정도도 매우 높다. AI 인프라에서 인피니밴드가 당연시 된 건 이더넷 기술에 대한 오해 때문이기도 하다. 얼마전까지 인피니밴드는 속도 면에서 이더넷을 앞섰으며, 400Gbps란 대역폭은 인피니밴드의 전유물처럼 여겨졌었다. 하지만, GPU 제조사인 엔비디아도 네트워킹 영역의 무게중심을 인피니밴드에서 이더넷으로 이동하고 있을 정도다. 대부분의 기존 AI 네트워크 인프라는 인피니밴드라는 프로토콜과 특정 업체가 시장을 독점했지만, 이젠 표준 기반 기술을 통해 비용 이슈 제거 및 편리한 운영 관리가 가능한 표준 기반의 RDMA 방식인 RoCE가 인피니밴드 기술을 대체할 것으로 기대된다. 근래 들어 이더넷 진영은 400G, 800G 제품을 선보이면서 인피니밴드와 동등한 성능을 제공하게 됐다. 지금은 인피니밴드나 이더넷이나 현존하는 NIC과 스위치 포트에서 낼 수 있는 최대한의 대역폭이 400Gbps로 똑같다. 이젠 인피니밴드와 이더넷 모두에서 어느정도 동급 성능을 기대할 수 있을 정도로 이더넷 기술의 진화는 뚜렷해졌고 엔비디아의 GPU 성능 테스트 도구인 NCCL을 이용해 인피니밴드와 RoCE를 비교 테스트 결과를 보더라도 대역폭과 지연시간이 동등하거나 약간의 차이만 보일정도로 AI 인프라 영역에서의 이더넷 기술의 상당한 신뢰성을 제공할 수 있는 프로토콜로 발전하고 있다. RoCEv2(버전2)는 인피니밴드의 헤더와 RDMA 기술을 그대로 탑재했으며, TCP 제거, UDP 활용 등을 통해 이더넷 스위치의 지연시간을 개선하고 있다. 안정성 면에서도 PFC, ECN 등 이더넷의 표준 기술로 패킷 손실을 최대한 상쇄할 수 있다. 무엇보다 이더넷은 표준 기술이고 치열한 경쟁을 보이는 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 기술 로드맵상으로도 인피니밴드와 이더넷은 800Gbp란 같은 방향을 가리키고 있는데, 오히려 이더넷의 대역폭 증가가 인비니밴드를 앞선 상황이다. 인피니밴드의 800G 이후 계획은 시점을 확정하지 않은 반면, 이더넷의 800G는 이미 상용화됐다. 2025년이면 1.6Tbps 기반 패브릭 기술 제품도 출시될 것으로 예상된다. 이같은 흐름속에 시스코는 LLM 인프라용 제품으로 넥서스 시리즈 스위치를 제공하고 있다. 네트워킹 프로비저닝과 모니터링에 쓰이는 오케스트레이션 툴 '넥서스 대시보드'는 대규모 AI 인프라의 빠른 구축과 관리를 위해 턴키 기반 자동화와 로스리스 안정성을 보장하는 가시성을 제공한다. 또한 지연시간에 민감한 AI 트래픽의 가시성을 제공하는 분석 도구와 솔루션도 이용가능하다. 시스코는 특히 전용 SoC 칩으로 넥서스 스위치를 구동해 인피니밴드 장비보다 더 적은 전력으로 고성능 AI 인프라를 구동할 수 있다고 강조한다. AI 인프라에서 서서히 독점의 시대가 저물고 있다. 개방형 표준 제품과 기술이 갈수록 높아지는 AI 인프라 투자 및 운영 비용을 절감하고 기업 경쟁력을 높이는 열쇠가 될 것이다.

2024.01.30 16:07김우용

AIOCP, 데이터 서버용 그래픽카드 AI GPU 컨설팅 무료 제공

이호스트ICT가 GPU 성능을 설정하고 효율적인 구매를 돕는 AI GPU 컨설팅 서비스를 AIOCP를 통해 무료 제공한다고 29일 밝혔다. AIOCP는 이호스트ICT에서 운영하는 서버 전문 브랜드다. 기계학습(ML)이나 딥러닝 등의 AI 연구 개발에 필요한 작업 요구 사항을 분석하여 최적화된 성능을 구현하기 위한 컨설팅 서비스를 제공한다. DDoS방어, 방화벽 운영, 네트워크 모니터링, 장애 대응 솔루션도 무상 제공하고 있다. 또한, 이호스트ICT는 티어 3급 고가용성을 확보한 IDC 시설을 통해 4만 킬로와트(kw) 규모의 안정적인 고전력 IDC 환경을 제공한다. 김철민 대표는 "이호스트ICT는 서버 전문 브랜드 AIOCP를 보유하고 있어, GPU 서버 뿐 아니라 관련된 통합 인프라를 안정적으로 공급 가능한 기업"이라며 "4차 산업을 이끄는 AI 기술을 함께 만들어간다는 자부심을 가지고 고객 만족과 사업 확장을 위해 노력하고 있다"라며 포부를 전했다.

2024.01.29 16:52남혁우

효성인포 "생성 AI 최적화된 통합 인프라와 서비스 제공"

효성인포메이션시스템(대표 양정규)은 24일 기자간담회를 열고 올해 디지털전환(DX) 선두 기업으로서 AI 시장 공략을 강화한다고 밝혔다. 효성인포메이션시스템은 데이터 인프라, HPC/GPU, 클라우드 등 DX 비즈니스를 강화하고, 미래 혁신 설계를 위한 스토리지 전략을 확대하는 등 전사적으로 데이터 기반 AI 혁신 위한 시너지를 강화했다. 효성인포메이션시스템은 지난해 AI 확산에 따라 GPU 서버 및 AI 스토리지 사업을 강화하고 대형 언어 모델(LLM) 프로젝트를 다수 진행하는 등 차별화된 솔루션과 기술력을 제공하며 AI 비즈니스를 크게 성장시켰다. 클라우드 사업도 국내 주요 공공 및 금융 분야 고객을 확장시키고 SDDC 기반의 데이터센터 구현과 클라우드 기반 재해복구(DR) 분야에서 우위를 점하며 성장세를 이어가고 있다. AI 시대를 맞아 기업 IT 인프라는 크게 변화하고 있다. AI가 문제해결 능력을 가지고 스스로 데이터를 생성하는 일반인공지능(AGI) 및 생성형 AI 기술이 고도화 되면서, 기존 하드웨어와 차별화된 고성능 연산 환경과 데이터 처리가 AI 서비스를 위해 필수가 되고 있다. 이에 맞춰 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 효성인포메이션시스템은 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 초고성능 병렬파일 스토리지 HCSF를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. AI/ML옵스 솔루션, GPU DB, 인메모리 DB, 고속 네트워크 등 최적의 AI 인프라를 위한 국내외 다양한 파트너사 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 최적의 솔루션을 제시할 전략이다. 서비스 중심으로 클라우드가 진화함에 따라 효성인포메이션시스템은 고객 환경에 최적화된 솔루션을 제공하는 한편 사전 컨설팅 및 고객 체험 프로그램을 강화한다. SDDC와 재해복구(DR)까지 더해진 완벽한 데이터센터 현대화 전략을 제시하고, 클라우드 관리 플랫폼 'UCP CMP'로 차별화된 서비스를 제공한다. SDDC 전환을 장기적인 관점으로 안정적으로 구현하기 위해 5단계로 구성된 사전 컨설팅 프로그램을 제공하며 차별화된 클라우드 컨설팅, 기술력을 바탕으로 고객사를 확장시킬 계획이다. 효성인포메이션시스템은 올해 새로운 스토리지 전략을 통해 고객들의 데이터 혁신을 지원한다. 데이터 스토리지에 대한 새로운 접근 방식인 'VSP ONE' 전략을 통해 전체 데이터 플랫폼과 데이터 관리 소프트웨어의 통합을 추진할 계획이다. VSP ONE을 통해 고객은 온프레미스, 클라우드, 엣지 등 어디서나 애플리케이션을 실행, 관리, 활용할 수 있다. 각기 다른 데이터 저장 플랫폼을 하나의 관리 소프트웨어로 통합 관리하고, 하나의 컨트롤 플레인, 하나의 데이터 패브릭에 통합함으로써, 사용자가 인프라에 대한 고민을 최소화하고 비즈니스에만 집중하며 업무 효율성을 확대시키는 미래지향적인 아키텍처를 제시한다. 구독형 스토리지 서비스HIS STaaS(Storage as a Service) 사업을 본격화하며 기업의 IT 운영, 비즈니스 효율을 높이고 인프라 현대화를 추진할 수 있도록 적극적인 영업활동을 펼칠 계획이다. 'HIS STaaS'는 비즈니스에 필요한 만큼만 스토리지를 사용하면서 과금하는 방식으로, 검증된 스토리지인 'VSP'를 기반으로 완벽한 가용성과 성능을 지원하고, 오브젝트 스토리지 HCP와 파일스토리지 HNAS도 활용 가능하다. 효성인포메이션시스템 양정규 대표이사는 “효성인포메이션시스템은 IT 변화의 중심에서 다양한 고객 성공 사례와 혁신적 솔루션을 바탕으로 DX 전문기업으로 포지셔닝을 강화해 왔다”며 “생성형 AI 시장 흐름에 맞춰 전사적 역량을 집중하고, 파트너와 협업해 데이터 기반 AI 혁신을 위한 시너지 강화에 총력을 기울일 것”이라고 밝혔다.

2024.01.24 14:11김우용

젠슨 황 엔비디아 CEO, '수출규제' 압박 속 中 4년 만에 방문

젠슨 황 엔비디아 최고경영자(CEO)가 4년 만에 중국을 찾아 선전, 상하이, 베이징 소재의 엔비디아 현지 사무실을 방문했다고 블룸버그통신 등이 22일 보도했다. 보도에 따르면 젠슨 황 CEO는 중국 전통 의상을 입고 직원들과 함께 춤을 추는 등 새해 맞이 행사를 진행했다. 이에 대해 익명의 관계자는 블룸버그통신에 "그가 다른 임원들과 회의를 가졌는 지는 확실하지 않다"고 말했다. 엔비디아 역시 "젠슨 황 CEO가 직원들과 함께 춘제(중국의 설)을 축하했다"며 구체적인 설명은 하지 않았다. 다만 업계는 이번 젠슨 황 CEO의 방문이 미국의 대중(對中) 반도체 수출 규제 수위가 극에 달한 시점에서 이뤄졌다는 점에 주목하고 있다. 앞서 미국은 지난 2022년 9월 'A100', 'H100' 등 엔비디아의 고성능 AI 반도체에 대한 중국 수출을 금지한 바 있다. 해당 제품들이 중국의 군사용 목적으로 사용될 위험성이 있다는 우려에서였다. 이에 엔비디아는 기존 제품에서 성능을 대폭 낮춘 대체품을 중국에 공급해 왔으나, 미국은 지난해 10월 이들 제품에 대해서도 수출을 금지시켰다. 지난 몇 분기 동안 엔비디아의 전체 데이터센터 매출에서 중국 및 기타 지역이 차지하는 비중은 20~25% 수준으로 알려져 있다. 그만큼 중국은 엔비디아의 주요한 시장 중 한 곳으로 자리해 왔다. 젠슨 황 CEO도 지난해 말 싱가포르에서 진행한 기자회견에서 "자사의 계획은 미국 정부와 협력해 새로운 규정을 준수하는 새 제품을 만드는 것"이라고 언급하는 등 중국 시장 확대에 대한 의지를 지속 드러내고 있다.

2024.01.23 09:15장경윤

韓 토종 AI칩 팹리스, 대량 양산·매출 실현 준비 마쳤다

국내 AI 반도체 스타트업들이 올해 본격적인 매출 확대를 추진한다. 기존 시제품, 초도 물량 제작을 넘어 실제 양산을 위한 협력사 선정을 끝마친 것으로 알려졌다. 22일 업계에 따르면 국내 서버용 AI 반도체 팹리스 기업들은 올해 대량 양산을 위한 준비를 마쳤다. 퓨리오사AI는 지난해 말 대만의 주요 컴퓨터 부품 제조기업 에이수스(ASUS)와 양산 공급 계약을 체결했다. 이번 계약은 퓨리오사AI의 1세대 NPU(신경망처리장치)인 '워보이'를 에이수스가 카드 형태로 제작하는 것이 주 골자다. 나아가 퓨리오사AI의 2세대 칩 '레니게이드'의 카드 제품도 에이수스를 활용할 계획이다. 레니게이드는 5나노미터(nm), HBM3(4세대 고대역폭메모리) 등 최선단 기술을 탑재한 것이 특징으로, 올 2분기 중 출시될 예정이다. 퓨리오사AI의 사례는 국내 AI 반도체 기업들의 양산화 준비가 마무리단계에 임박했다는 점에서 의의가 있다. 현재 서버용 AI 반도체 시장은 해외 거대 팹리스인 엔비디아가 고성능 GPU(그래픽처리장치)로 시장을 독과점하고 있다. 이에 맞서 국내외 팹리스 기업들은 GPU 대비 연산 성능 및 효율성이 높은 NPU로 시장 진입을 추진하고 있다. 사피온, 리벨리온, 퓨리오사AI 와 같은 국내 기업들도 글로벌 벤치마크를 통해 각 사의 칩이 지닌 뛰어난 성능을 입증해 왔다. 다만 이들 기업이 고객사에 실제로 제품을 공급하기 위해서는 NPU를 PCB(인쇄회로기판) 위에 여러 인터페이스 기능과 함께 집적한 카드 형태로 만들어야 한다. 백준호 퓨리오사AI 대표는 "에이수스는 엔비디아의 카드 제품을 양산해 온 OEM 기업으로, 엄격한 양산 기준을 갖춘 만큼 업계의 신뢰성이 높다"며 "이번 계약으로 퓨리오사AI도 그간의 소량 생산에서 벗어나, 차세대 제품에 대한 대량 양산 체계를 구축하게 됐다는 점에서 의미가 있다"고 설명했다. 리벨리온은 대만 등의 부품기업과 카드 제품을 양산을 논의 중인 것으로 알려졌다. 그간 리벨리온은 5나노 공정 기반의 NPU '아톰'을 시제품으로 소량 제작해 왔으며, 올 1분기부터는 본격적인 양산에 돌입한다. 박성현 리벨리온 대표는 "1만~2만장 수준으로 제품을 대량 양산하기 위해서는 신뢰성이 높은 모듈업체를 공급망으로 확보해야 한다"며 "상용화 측면에서 중요한 과제"라고 말했다. 사피온 역시 만반의 준비를 갖췄다. 사피온 관계자는 "사피온은 글로벌 서버 제조사와 협력해 밸리데이션이 완료된 인퍼런스 서버를 즉시 사용할 수 있도록 제공하고 있다"고 밝혔다. 한편 국내 서버용 AI 반도체 기업들은 중장기적으로 매출을 확장하기 위한 서버 사업도 고려하고 있다. 서버 사업은 데이터센터의 네트워크 서비스 전반을 구현 가능한 모듈(POD)을 공급하는 것으로, 칩 및 카드를 대량 공급하는 데 유리하다. 업계 관계자는 "상당 수의 국내외 IT 기업들이 POD보다는 서버까지 턴키로 공급해주길 원하고 있어, 국내 AI반도체 기업들도 결국에는 서버 사업으로 나아가야할 것"이라며 "향후 이를 위한 서버 기업과의 협업이 활발히 이뤄질 것으로 예상된다"고 말했다.

2024.01.22 13:38장경윤

TSMC, 3나노 매출 비중 15%로 '껑충'…최첨단 공정 맹활약

대만 주요 파운드리 TSMC가 지난해 4분기 최선단 공정을 중심으로 견조한 실적을 기록했다. 특히 가장 최신 공정에 해당하는 3나노미터(nm) 공정의 매출 비중이 지난해 3분기 6%에서 4분기 15%로 크게 증가했다. 18일 TSMC는 연결 기준 지난해 4분기 매출 6천255억 대만달러(미화 196억2천만 달러, 한화 26조5천400억 원), 순이익 2천387억 대만달러를 기록했다고 밝혔다. 매출은 전년동기와 동일하며, 전분기 대비 14.4% 증가했다. 순이익은 전년동기 대비 19.3% 감소했으나, 전분기 대비로는 13.1% 증가했다. 반도체 및 거시경제 악화로 올해 연간 매출이 감소하기는 했으나, 이번 TSMC의 4분기 실적은 당초 가이던스 및 증권가 컨센서스(매출 6천162억 대만달러)를 웃돌았다. 업계는 주요 고객사인 애플의 첨단 모바일 AP(애플리케이션 프로세서) 양산, AI 산업 발달에 따른 고성능 서버용 칩 수요 증가가 실적에 긍정적인 영향을 끼쳤을 것으로 분석하고 있다. 실제로 TSMC의 분기별 매출 비중에서 최선단 공정이 차지하는 비중은 꾸준히 상승하는 추세다. 지난해 4분기 TSMC의 3나노 매출 비중은 15%를 기록했다. 3나노는 현재 상용화된 가장 최신의 공정이다. TSMC의 경우 지난해 3분기부터 3나노 매출 비중을 공개한 바 있다. 3분기 3나노 공정의 매출 점유율은 6% 수준으로, 1개 분기만에 2배 이상 증가했다. 이를 반영한 지난해 4분기 TSMC의 7나노 이하 첨단 공정의 매출 비중은 67%다. 1분기(51%), 2분기(53%), 3분기(59%)와 비교하면 매 분기마다 계단식 성장을 이루고 있다. 한편 TSMC는 올 1분기 매출 전망치를 180억~188억 달러로 제시했다. 중간값은 184억 달러로, 전분기 대비 6.5%가량 감소한 수치다. 총이익률과 영업이익률은 52~54%, 40~42%로 전망했다.

2024.01.18 16:39장경윤

"HBM 수요, 예상보다 커…올해 삼성·SK 주문량만 12억GB"

"HBM(고대역폭메모리) 시장은 우리가 생각하는 것보다 더 빠르게 성장하고 있다. 올해 HBM 시장의 수요를 5.2억GB(기가바이트)로 전망하기도 하는데, 삼성전자·SK하이닉스에서 받은 수주를 더해보면 10억~12억GB에 달한다." 이승우 유진투자증권 리서치센터장은 18일 서울 양재 엘타워에서 열린 'AI-PIM(프로세싱-인-메모리) 반도체 워크숍'에서 AI 반도체 수요 현황에 대해 이같이 밝혔다. 최근 IT 시장은 서버 및 엣지 AI 산업의 급격한 발달로 고성능 시스템반도체에 대한 수요가 증가하고 있다. 글로벌 팹리스인 엔비디아와 AMD가 개발하는 고성능 GPU(그래픽처리장치)가 대표적인 사례다. GPU 대비 연산 효율성이 높은 NPU(신경망처리장치)도 국내외 여러 스타트업을 중심으로 개발되고 있다. 또한 서버 시장에서는 여러 개의 D램을 쌓아올려 데이터 처리 성능을 크게 높인 HBM이 각광받는 추세다. 관련 시장은 국내 삼성전자와 SK하이닉스, 미국 마이크론 등이 주도하고 있다. 이승우 센터장은 "AI 반도체에 대한 수요가 당초 예상보다 높아 기존 HBM에 대한 수요 전망도 뒤엎을 필요가 있다"며 "시장조사업체가 HBM 수요를 지난해 3.2억GB, 올해 5.2억GB(기가바이트)로 분석했는데, 삼성전자와 SK하이닉스가 받은 주문량만 더해도 이 수치가 10억~12억GB에 달한다"고 언급했다. PIM 시장도 향후 급격한 성장세가 기대된다. PIM은 메모리 내에서 자체적으로 데이터 연산 기능을 처리할 수 있는 차세대 반도체다. 기존 메모리에서 CPU·GPU 등 시스템반도체로 데이터를 보내는 과정을 줄일 수 있으므로, 전력 효율성을 높이는 데 용이하다. 덕분에 PIM은 저전력·고성능 연산이 필요한 온디바이스 AI(서버, 클라우드를 거치지 않고 기기 자체에서 AI 기능을 처리하는 기술) 분야에 활발히 적용될 것으로 주목받고 있다. 이 센터장은 "AI 산업이 과거 데이터센터 중심에서 온디바이스 AI로 향하면서 초저지연·초저전력 특성이 핵심 요소로 떠올랐다"며 "AMD·삼성전자가 PIM 기능을 HBM에 추가해 처리 속도를 7%, 전력소모를 85% 개선한 사례를 보면 향후 PIM이 국내 반도체 산업의 돌파구가 될 것으로 생각한다"고 말했다. 한편 AI-PIM 워크숍은 세계 AI 반도체 및 PIM 시장 현황과 전망을 점검하고, 해댱 분야의 기술 현황 및 협력 방향 등에 대해 논의하기 위한 자리다. 과학기술정보통신부가 주최하고 정보통신기획평가원과 한국과학기술원의 PIM반도체설계연구센터가 주관한다.

2024.01.18 13:55장경윤

中 군부·국영기관, 美 제재에도 엔비디아 칩 사들였다

중국 군대, 국영 인공지능 연구기관 및 대학이 미국의 수출 규제 대상인 엔비디아의 반도체를 지난 1년간 소량 구매했다고 로이터통신이 15일 보도했다. 로이터통신이 검토한 중국 현지의 입찰 서류에 따르면, 미국이 중국에 대한 최첨단 반도체 수출을 금지(2022년 9월)한 이후에도 수십 개의 중국 기관이 엔비디아의 반도체를 구매했다. 일례로 중국 하얼빈공대와 중국전자과기대는 각각 지난 2022년 12월 및 2023년 5월에 엔비디아의 고성능 AI 반도체인 'A100'를 구매했다. 두 대학은 안보상의 이유로 미국의 수출 규제 명단에 오른 기관들이다. 또한 칭화대학교 및 중국산업정보기술부 산하 연구소가 A100 보다 성능이 뛰어난 'H100' 칩을 구매했다. 중국 장쑤성 우시에 본사를 둔 익명의 인민해방군 조직도 구매자 명단에 포함돼 있었다. 로이터통신은 "수출 규제에도 불구하고, 미국 반도체가 중국의 AI 및 군사용 연구개발에 활용되는 것을 완전히 차단하기는 어려운 상황"이라며 "다만 구매 수량이 적기 때문에 LLM(거대언어모델) 구축과는 거리가 멀 것"이라고 밝혔다. 중국 기관들이 엔비디아의 칩을 구매한 경로는 구체적으로 확인되지 않았다. 다만 미국의 규제 이후 형성된 중국 내 암시장이 연루됐을 가능성이 제기된다. 암시장 내 공급자들은 시장에 출시되는 재고 일부를 가져오거나 해외 법인을 통한 우회 수입으로 엔비디아 칩을 확보하고 있다. 이와 관련 엔비디아는 "고객사가 제3자에게 칩을 불법으로 재판매하는 사실이 드러나면 즉각적이고 적절한 조치를 취할 것"이라고 밝혔다.

2024.01.15 15:51장경윤

빛으로 동작하는 광GPU 전력 소모 100만 분의 1로 낮춰

DGIST(총장 이건우)는 광학 기반 연산 장치의 전력 효율을 기존보다 100만배 높이는 기술을 개발했다고 9일 밝혔다. 인공지능을 위한 대용량 광GPU 기술 등에 적용 가능하리란 기대다. 광학 기반 연산은 이론적으로 도달 가능한 에너지 효율이 전자 기반 연산에 비해 월등히 높다고 알려져 있다. 하지만 광학 기반 연산을 수행하는 하드웨어인 광집적회로의 전력 효율이 낮아 현재 성능은 이론적 효율에 한참 못 미친다. 이런 문제를 해결하기 위해 DGIST 로봇및기계전자공학과 한상윤 교수와 KAIST 유경식 교수 공동연구팀은 광집적회로의 핵심 구성 요소인 가변형 광결합기(tunable coupler)와 위상 변환기(phase shifter)를 초저전력 MEMS 기반으로 구현했다. 이를 통해 대기 전력 소모량을 기존 기술의 100만분의 1 수준인 10fW 이하로 낮췄다. 40pJ 이하의 재구성 에너지도 달성했다. 이번에 개발된 광집적회로 기술은 인공지능을 위한 대용량 초고속 연산 및 광자 기반 고전·양자 정보 처리의 효율성을 극대화하는 데 활용되리란 기대다. 기존 실리콘 기반 광집적회로와의 호환성이 높은 것도 장점이다. 이 기술을 수백 개의 가상 GPU를 하나의 GPU로 구현하는 광GPU 기술에 적용 가능할 것으로 연구진은 기대했다. 광GPU는 AI 연산과 양자컴퓨터 구현에 혁신적 변화를 가져올 기술로 평가되지만, 온도가 수백도까지 오를 정도로 발열이 심해 상용화가 어려웠다. 한상윤 교수는 "세계 최초로 MEMS 기술을 광GPU에 접목하는 발상의 전환으로 혁신적 결과를 얻었다"라며 "향후 초거대 AI 모델이나 양자컴퓨터에 활용 가능할 것"이라고 밝혔다. 이 연구는 삼성전자 미래기술육성사업 및 한국연구재단의 지원을 받아 수행됐으며, 학술지 '네이처 포토닉스(Nature Photonics)'에 최근 실렸다. 논문 제목은 Programmable photonic arrays based on microelectromechanical elements with femtowatt-level standby power consumption 이다.

2024.01.09 14:45한세희

엔비디아, AI 연산 강화한 지포스 RTX 40 슈퍼 GPU 3종 공개

[라스베이거스(미국)=권봉석 기자] 엔비디아가 9일(현지시간 8일 오전) 연산 성능을 강화한 새 GPU인 지포스 RTX 40 슈퍼 시리즈 3종을 공개했다. 지포스 RTX 40 슈퍼는 엔비디아가 2022년 9월 공개한 PC용 GPU인 지포스 RTX 40 시리즈를 개량했다. 연산을 수행하는 쿠다(CUDA) 코어 수를 늘리는 한편 AI 연산 성능에 큰 영향을 미치는 메모리 입출력 속도를 강화했다. 지포스 RTX 4080 슈퍼는 4K(3840×2160 화소) 해상도에서 레이트레이싱 지원을 강화한 제품이다. AI 처리 속도는 836 테라플롭스이며 DLSS를 적용하면 전작인 지포스 RTX 3080 Ti 대비 최대 두 배 속도를 낸다. 가격은 999달러(약 132만원)이며 오는 31일부터 공급된다. 지포스 RTX 4070 Ti 슈퍼는 메모리 용량을 최대 16GB까지 확장했다. 게임 성능은 전세대 제품인 지포스 RTX 3070 Ti 대비 1.6배 높으며 DLSS 3 적용시 2.5배까지 높아진다. 가격은 799달러(약 105만원)이며 오는 24일부터 공급된다. 지포스 RTX 4070 슈퍼는 지포스 RTX 4070 대비 쿠다 코어 수를 20% 늘렸다. 지포스 RTX 3090보다 전력 소모는 적지만 성능은 더 향상됐다는 것이 엔비디아 설명이다. 가격은 599달러(약 79만원)이며 오는 17일부터 공급된다. 에이수스, 기가바이트, MSI, PNY 등 주요 그래픽카드 제조사는 이날 공개된 신규 GPU 3종을 탑재한 그래픽카드를 전세계 시장에 순차 공급할 예정이다. 국내 판매 가격은 미정. 엔비디아는 공식 웹사이트와 일부 업체를 통해 RTX 4080 슈퍼와 4070 슈퍼 탑재 파운더스 에디션 그래픽카드도 한정 수량 판매 예정이다. 엔비디아는 이날 "두께 16mm, 화면 크기가 14인치인 제품부터 18인치 제품까지 지포스 RTX GPU를 내장한 노트북이 레노버, HP, 델테크놀로지스, 에이수스, 삼성전자 등 주요 제조사를 통해 출시될 것"이라고 밝히기도 했다.

2024.01.09 01:30권봉석

인텔, 데이터센터·AI 그룹 총괄에 저스틴 호타드 선임

인텔이 HPE 출신 저스틴 호타드를 영입하고 오는 2월 1일부로 데이터센터·AI 그룹(DCAI) 총괄 겸 수석부사장에 선임한다고 밝혔다. 산드라 리베라 데이터센터·AI 그룹 전임 총괄은 올 초부터 프로그래머블 솔루션스 그룹 CEO로 이동했다. 저스틴 호타드 수석부사장은 1997년 모토로라(현 레노버)를 시작으로 2007년 NCR 등을 거쳐 2015년부터 지난 해까지 HPE 등에 재직했다. HPE에서는 수석 부사장 겸 고성능 컴퓨팅, AI 및 연구소 총괄을 역임했다. 팻 겔싱어 인텔 CEO는 "저스틴 호타드 수석부사장은 데이터센터 및 AI 분야 성장과 혁신 분야에서 인상적인 경력을 보유하고 있다. 또 세상을 변화시키는 기술을 개발한다는 인텔 비전에 전적으로 공감하고 있으며, 향후 수십년 간 고객 역량을 강화하는데 기여할 인텔의 역할에 대해서도 열정을 가지고 있다"고 밝혔다. 저스틴 호타드 수석부사장은 인텔 경영진 소속으로 팻 겔싱어 CEO에게 직속 보고하며 서버용 제온 프로세서, GPU와 가속기를 포함한 데이터센터 제품군을 책임지게 된다.

2024.01.05 11:36권봉석

  Prev 1 2 3 4 5 6 7 8 9 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

"입는 로봇, 스마트폰처럼 쓰게 될 것…라인업 다각화 계획"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현