• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AMD'통합검색 결과 입니다. (109건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석

AMD, AI PC 겨냥 '라이젠 AI 400' 프로세서 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(현지시간) AI PC와 워크스테이션, 게이밍 PC를 위한 새 프로세서를 공개하고 이달부터 공급에 들어간다고 밝혔다. AMD는 사전 브리핑에서 "AI 도입 확산에 따라 신경망처리장치(NPU) 내장 프로세서 기반 AI PC 수요도 확대되고 있으며 올해는 작년 대비 2.5배 많은 250개 이상의 AI PC 플랫폼이 등장할 것"이라고 설명했다. 이어 "라이젠 AI 프로세서는 문서 작성 시간을 종전 대비 절반으로 줄이는 한편 30초만에 새로운 이미지를 생성하고 코딩 시간을 1/5로 단축하는 등 소비자들에게 매일 새로운 경험을 제공하고 생산성을 높일 것"이라고 강조했다. 라이젠 AI 400, 60 TOPS급 NPU 내장 AMD가 이날 공개한 라이젠 AI 400 프로세서(고르곤 포인트)는 지난 해 출시된 라이젠 AI 300 프로세서 대비 CPU와 GPU, NPU 성능을 모두 강화했다. CPU는 젠5(Zen 5) 아키텍처 기반으로 최대 12코어, 24스레드로 구성되며 최대 작동 클록은 5.2GHz까지 높아졌다. 통합형 GPU인 라데온 그래픽스는 최대 16코어(CU) 구성으로 최대 작동 클록은 3.1GHz다. 내장 NPU는 XDNA 2 아키텍처 기반이며 최대 연산 성능은 60 TOPS(1초당 1조 번 연산)로 마이크로소프트 윈도11 코파일럿+ 기준을 충족한다. 메모리 작동 속도는 8533MHz까지 끌어올려 그래픽과 AI 처리 성능을 높였다. AMD는 자체 성능 측정 결과를 토대로 "최상위 제품인 라이젠 AI 9 HX 470 프로세서는 인텔 코어 울트라 288V(루나레이크) 대비 다중작업 성능은 1.3배, 콘텐츠 제작 성능은 1.7배, NPU 성능은 1.25배 높다"고 설명했다. 라이젠 AI 400 프로세서는 코어 수와 작동 클록, 캐시 메모리와 GPU/NPU 성능을 달리해 시장에 총 7종이 공급된다. 노트북과 데스크톱 PC 등 기존 전통적인 형태에 더해 키보드 일체형 초경량 PC에도 탑재된다. 고성능 노트북용 '라이젠 AI 맥스+' Soc 2종 추가 출시 AMD는 이날 콘텐츠 제작자와 AI 개발자, 게이머를 겨냥한 고성능 노트북 프로세서 '라이젠 AI 맥스+' 제품군도 확장하겠다고 밝혔다. AMD는 "라이젠 AI 맥스+는 콘텐츠 제작, 유명 게임 구동은 물론 128GB CPU·GPU 통합 메모리로 거대언어모델(LLM)을 처리할 수 있다. 엔비디아 개인용 AI 워크스테이션 'DGX 스파크' 대비 가격 대비 성능과 윈도 호환성에서도 우위에 있다"고 밝혔다. AMD는 올 1분기에 기존 출시 제품 대비 코어 수와 작동 클록, GPU 성능 등을 소폭 조정한 라이젠 AI 맥스+ 392(12코어/5.0GHz), 라이젠 AI 맥스+ 388(8코어/5.0GHz) 등 프로세서 2종을 추가 출시 예정이다. NPU 성능은 두 제품 모두 40 TOPS로 같다. 3D V캐시 탑재 '라이젠 7 9850X3D' 시장에 공급 AMD는 지난 해 게임 성능을 높일 수 있는 3D V캐시를 내장한 라이젠 9 9950X3D 프로세서 등을 시장에 출시했다. 경쟁 제품인 인텔 코어 울트라 200S 프로세서 대비 우위를 차지했고 이런 기조는 올 상반기까지 이어질 예정이다. AMD는 올 1분기에 최대 작동 클록을 더 높인 파생 제품인 라이젠 7 9850X3D를 시장에 추가 투입한다. 2024년 11월 출시된 전작(라이젠 7 9800X3D) 대비 최대 작동 클록을 400MHz 높인 5.6GHz까지 끌어올렸다. AMD는 주요 게임 35종을 1080p 해상도에서 구동한 자체 벤치마크 결과를 바탕으로 "라이젠 7 9850X3D 프로세서는 인텔 코어 울트라9 285K 프로세서 대비 평균 27% 더 나은 성능을 낸다"고 설명했다. AI 프레임워크 'ROCm 7.2' 이달 중 배포 ROCm은 AMD 인스팅트와 라데온 GPU, 라이젠 CPU를 활용해 AI 관련 처리를 수행할 수 있는 오픈소스 기반 프레임워크다. 2022년 2월 첫 버전인 ROCm 5가 출시됐고 작년 9월 출시된 ROCm 7에는 성능 향상과 인스팅트 MI350 등 새 하드웨어 지원을 추가했다. ROCm 7은 2023년 12월 공개된 ROCm 6 대비 추론 성능을 크게 강화했다. 메타 라마 3.1 700B 모델 연산 성능은 3.8배, 딥시크 R1은 3.4배 향상됐다. 또 단일 노드부터 멀티 노드·클러스터까지 분산 추론과 학습이 가능하도록 확장했다. AMD가 올 1월 중 배포할 새 버전인 ROCm 7.2는 라이젠 AI 400 시리즈 등 새 하드웨어 지원을 추가한다. 또 스테이블 디퓨전 기반 이미지 생성 도구인 '컴피UI'(Comfy UI)를 통합 지원 예정이다.

2026.01.06 12:30권봉석

글로벌 빅테크 거물들, 새해 벽두 'CES 2026' 총출동

새해 벽두부터 미국 네바다 주 라스베이거스에서 열리는 세계 최대 IT·가전 전시회 'CES 2026'에 글로벌 반도체 기업과 PC 제조사가 집결한다. 올 상반기를 시작으로 시장에 투입할 AI PC 관련 신제품과 전략을 공개할 예정이다. 오는 5일(현지시간)에는 퀄컴과 인텔, AMD와 엔비디아 기조연설이 예정됐다. 6일 저녁에는 세계 1위 PC 기업인 레노버가 대형 공연장 '스피어'에서 테크월드 기조연설을 진행한다. 각 회사는 시스템반도체(SoC)와 CPU, GPU, NPU 전반에서 초당 수십~수백 TOPS에 이르는 AI 연산 능력을 강조할 예정이다. 온디바이스 AI 구현을 위한 하드웨어 경쟁이 한층 가속화되는 모습이다. 퀄컴, 스냅드래곤 X2 엘리트 정식 출시 퀄컴은 오는 5일(이하 현지시간) 오전 윈(Wynn) 호텔에서 AI PC용 시스템반도체(SoC)인 스냅드래곤 X2 엘리트 정식 출시 행사를 진행한다. 스냅드래곤 X2 엘리트는 작년 9월 퀄컴 연례 기술행사 '스냅드래곤 서밋'에서 공개됐다. 대만 TSMC 3나노급(N3X) 공정에서 생산되며 전 세대 제품 '스냅드래곤 X 엘리트' 대비 최대 18개 코어로 구성된 오라이언(Oryon) CPU를 내장했다. 스냅드래곤 X2 엘리트가 내세운 가장 큰 무기는 바로 80 TOPS(1초당 1조번 연산) 성능을 갖춘 신경망처리장치(NPU)다. 전세대(45 TOPS) 대비 2배 가까이 성능이 향상됐다. 레노버, 삼성전자 등 국내외 주요 PC 제조사가 스냅드래곤 X2 엘리트 탑재 PC를 1분기부터 출시 예정이다. 인텔, 코어 울트라 시리즈3 정식 공개 5일 오후에는 인텔이 베니션 호텔에서 AI PC 시장을 겨냥해 개발한 모바일(노트북)용 제품인 코어 울트라 시리즈3(팬서레이크) 출시 행사를 진행한다. 코어 울트라 시리즈3는 1.8나노급 인텔 18A 공정에서 생산한 컴퓨트 타일(CPU)과 Xe3 GPU, 신경망처리장치(NPU)를 결합했다. 전력 소모를 줄이며 처리 속도를 높일 수 있는 새 트랜지스터 구조인 리본펫, 전력 전달 회로를 CPU 다이(Die) 아래로 배치한 파워비아 구조를 적용했다. 코어 울트라 시리즈3는 GPU와 NPU 성능을 높여 AI 처리 성능 향상에 큰 중점을 뒀다. Xe3 12 코어 구성시 최대 120 TOPS 연산이 가능하며 NPU 5는 최대 50 TOPS 연산이 가능하다. 이를 탑재한 PC는 이달 말부터 국내 포함 전세계 시장에 출시된다. 엔비디아·AMD도 5일 CEO 기조연설 예정 엔비디아는 5일 오후 젠슨 황 CEO가 진행하는 CES 기조연설을 진행한다. 지난 해 CES에서 일반 PC용 지포스 RTX 50 시리즈 GPU를 공개했지만 올해는 서버용 AI GPU 신제품 '루빈'(Rubin)에 대한 테마가 주를 이룰 것으로 보인다. AMD는 같은 날 저녁 베니션 호텔에서 리사 수 CEO의 CES 2026 기조연설을 진행한다. AMD는 이 행사에서 AI PC 시장을 겨냥해 GPU 성능을 보강한 라이젠 AI 400(가칭) 프로세서, 데스크톱 PC용 프로세서 등을 공개할 전망이다. 레노버, 6일 저녁 '스피어'에서 기조 연설 IDC, 가트너 등 시장조사업체 기준 출하량 1위 회사인 레노버는 6일 저녁 라스베이거스 소재 초대형 공연장 '스피어'에서 신기술과 제품, 솔루션 공개 행사 '테크월드' 기조연설을 진행한다. 기조연설에는 양위안칭 레노버 CEO가 직접 나서 AI, 디바이스, 인프라, 서비스의 융합을 통해 레노버가 어떻게 미래를 정의하고 있는지 공개할 예정이다. 또 포뮬러 원(F1)과 2026 FIFA 월드컵 기술 파트너인 레노버의 혁신도 공개한다. 행사에는 젠슨 황 엔비디아 CEO, 립부 탄 인텔 CEO, 리사 수 AMD CEO, 크리스티아노 아몬 퀄컴 CEO 등 PC·서버용 프로세서와 GPU 공급사, 지아니 인판티노 피파 회장 등도 등장 예정이다.

2026.01.04 09:29권봉석

AI PC 확산 본격화... 새해도 GPU·NPU 성능 경쟁 예고

2025년은 한국 ICT 산업에 '성장 둔화'와 '기술 대격변'이 공존한 해였다. 시장 침체 속에서도 AI에너지로봇반도체 등 미래 산업은 위기 속 새 기회를 만들었고, 플랫폼소프트웨어모빌리티유통금융 등은 비즈니스 모델의 전환을 꾀했다. 분야별 올해 성과와 과제를 정리하고, AI 대전환으로 병오년(丙午年) 더 힘차게 도약할 우리 ICT 산업의 미래를 전망한다[편집자주] 2025년 PC 산업은 신경망처리장치(NPU)를 앞세운 로컬 AI 구동과 각종 편의기능 구현, 윈도10 지원 종료를 핵심 동력으로 삼아 전진했다. IDC, 가트너 등 주요 시장조사업체는 올해 출하량이 2024년 대비 5% 내외 증가할 것으로 내다봤다. 새해 역시 GPU와 NPU 성능 강화를 앞세운 AI PC 보급에 따라 기업 시장의 생산성 향상, 콘텐츠 제작, 엔터프라이즈 응용프로그램 확산 등이 기대된다. 또 클라우드 의존성을 낮춘 로컬 AI 실행 및 보안 강화도 더 많은 소비자의 관심을 끌 전망이다. 그러나 올해 11월부터 시작된 메모리 반도체 수급난이 AI PC의 판매와 보급 확대에도 적지 않은 영향을 미칠 것으로 보인다. 주요 글로벌 제조사들은 기존 제품 가격은 그대로 유지하며 새해 출시할 신제품 가격을 올리는 방안을 검토중이다. 올해 NPU 탑재 PC용 프로세서 대거 등장 올해 인텔, AMD, 퀄컴 등 주요 PC용 프로세서 제조사들은 거의 모든 신제품에 NPU를 내장한 프로세서를 출시했다. 인텔은 데스크톱 PC·노트북용 코어 울트라 시리즈2 프로세서, AMD는 라이젠 AI 프로세서에 NPU를 내장했다. 퀄컴은 PC용 스냅드래곤 X 엘리트에 40 TOPS(1초당 1조 번 연산) 급 NPU를 앞세웠다. NPU는 배경 흐림, 소음 감소, 보안 강화, 상시 구동이 필요한 각종 기능을 GPU 대비 저전력으로 실행하면서 지연 시간 단축 등을 실현한다. 이를 통해 클라우드에 의존하지 않는 다양한 AI 기능을 실행할 수 있게 됐다. 새해도 GPU·NPU 성능 경쟁 치열 새해 PC 시장은 AI 처리 능력 강화를 두고 GPU와 NPU 강화 흐름이 더 거세질 것으로 보인다. 단 GPU와 NPU 중 어느 쪽에 중점을 둘 것인지는 강점을 지닌 IP 포트폴리오가 서로 다른 회사마다 차이가 있다. 인텔과 AMD등 전통적인 x86 기반 프로세서 제조사는 게임 성능과 AI 성능을 동시에 높일 수 있는 GPU에 중점을 뒀다. 새해 본격 출시될 코어 울트라 시리즈3 프로세서 내장 GPU는 120 TOPS, NPU는 50 TOPS급이다. 퀄컴이 새해 공급할 스냅드래곤 X2 엘리트/엘리트 익스트림은 전 세대 대비 두 배 가까운 80 TOPS급 NPU를 탑재한다. 주요 연산을 저전력 NPU로 처리해 배터리 지속시간이 중요한 노트북 분야에서 경쟁력을 확보하겠다는 것이다. 다만 올 11월 이후 심화된 D램·SSD(낸드 플래시메모리) 등 메모리 반도체 수급난은 AI PC 보급에 적지 않은 변수가 될 것으로 보인다. 제조 원가 상승은 물론 출하량 감소도 예상되는 상황이다. 메모리 반도체 수급난, PC 출하량·가격 전체에 영향 IDC는 이달 중순 발표한 보고서에서 "최악의 경우 새해 PC 출하량이 올해 대비 8.9% 줄어들고 가격 상승 압박도 커질 것"이라고 설명했다. 또 이런 메모리 반도체 수급난이 AI PC에 더 큰 영향을 줄 것이라고 설명했다. IDC는 "AI PC는 소형언어모델(SLM)과 대형언어모델(LLM)을 PC 메모리에 바로 올려 실행해야 하기 때문에 기존 PC 대비 메모리를 더 많이 쓴다. 많은 고성능 시스템이 32GB 이상 메모리로 옮겨갈 것이며 원가와 출하량 관련 압박도 커질 것"이라고 설명했다. 글로벌 PC 제조사 국내 법인 관계자들도 "원가 부담이 더해진 탓에 이득을 줄이면서 판매 대수를 늘리는 행사를 진행하기 어려워졌다. 출고가·권장판매가와 실제 시장가의 차이도 급속히 줄어들 것"이라고 내다봤다. AI 처리의 중심을 클라우드 대신 PC나 하이브리드 환경으로 옮기려는 주요 PC 제조사의 계획도 지연될 가능성이 있다. 웹 기반으로 구동되는 클라우드 기반 각종 서비스는 접속하는 PC 성능에 큰 영향을 받지 않기 때문이다.

2025.12.31 10:13권봉석

AMD, 차세대 아키텍처 '젠6'서 구조적 전환 예고

AMD가 최근 개발자용 문서를 통해 내년 6월께 투입할 차세대 CPU 아키텍처 '젠6'(Zen 6)의 일부 특성을 공개했다. 젠6 기반 PC·서버·데이터센터용 프로세서 출시까지 반 년 이상 남아 있지만 구조적 변화에 따른 상당한 성능 향상이 예상된다. 이번에 공개된 자료는 프로세서 내부 동작을 분석하고 성능을 측정하는 개발자와 소프트웨어 엔지니어를 위한 문서다. 이를 통해 차세대 아키텍처의 설계 방향을 간접적으로 확인할 수 있다. AMD는 내년 젠6 기반 PC·서버용 프로세서를 시장에 투입할 예정이다. 이미 지난 6월 연례 기술행사 '어드밴싱 AI 2025' 행사에서는 젠6 기반 서버용 에픽 프로세서 '베니스'(Venice)의 일부 제원이 공개되며 차세대 제품 로드맵이 공식화된 바 있다. AMD, 2016년 젠1 공개 이후 지속 성능 개선 AMD는 2014년 리사 수 CEO 취임 이후 경쟁력 확보를 위해 프로세서 설계 전문가 짐 켈러(현 텐스토렌트 CEO) 등을 영입하고 완전히 새로운 CPU 아키텍처 '젠'(Zen)을 설계했다. 젠 아키텍처는 PC용 프로세서 '라이젠', 서버용 프로세서 '에픽' 등 모든 AMD x86 프로세서의 기반으로 자리 잡았다. AMD는 2016년 젠1을 시작으로 2년 간격으로 새로운 젠 아키텍처를 공개하며 IPC(클록당 명령어 처리량)와 전력 효율을 꾸준히 개선했다. 현재 최신 아키텍처는 2024년 공개된 젠5이며, 일부 보급형 노트북이나 임베디드 프로세서에는 젠4(2022년)도 여전히 활용되고 있다. 젠6는 이러한 연속적 개선 흐름 속에서 등장하는 차세대 아키텍처다. 젠6 프로세서 성능 측정 위한 개발자용 문서 공개 AMD가 지난 12일자로 공개한 문서는 개발자 대상으로 프로세서 작동 시 성능 측정 지표를 수집하기 위한 자료다. 코어 활용률, 캐시 적중률, 명령 실행 특성 등을 분석할 수 있는 '성능 모니터 카운터'(PMC) 관련 내용이 담겼다. 문서는 젠6 아키텍처를 상세히 설명하지는 않는다. 그러나 성능 측정 항목에 포함된 내용을 바탕으로 젠6 기반 CPU 코어의 처리 능력을 어느 정도 짐작할 수 있다. 명령 처리 폭 확장·벡터 연산 성능 강화 시사 문서에 따르면 젠6는 현행 아키텍처인 젠4·젠5 대비 명령 처리 폭을 확장한 새로운 코어 구조를 적용했다. 가장 큰 변화는 실행 명령어를 동시에 불러와 처리할 수 있는 디스패치(dispatch) 능력의 확대다. 현행 젠5 아키텍처는 한 사이클에 최대 6개 명령어를 디스패치할 수 있지만, 젠6 코어는 이를 최대 8개까지 확장했다. 명령 처리 폭 확대는 게임 등 단일 스레드 작업, 여러 작업이 동시에 실행되는 고부하 작업의 처리 효율 개선으로 이어질 수 있다. 젠6 아키텍처는 AI, 그래픽스, 과학 연산 등에 활용되는 벡터 연산 관련 성능도 강화한 것으로 보인다. 문서에 따르면 젠6 기반 프로세서는 FP64/32/16(부동소수점 64/32/16비트), BF16 자료형을 모두 지원하는 AVX-512 명령어를 실행할 수 있다. AI 연산에 주로 쓰이는 행렬 관련 연산인 FMA(곱셈·덧셈 동시처리), MAC(가중합) 연산과 부동소수점과 정수 연산이 혼합된 벡터 처리(VNNI 계열 연산, AES, SHA 등)도 함께 지원한다. 이르면 내년 6월경 세부 내용 공개 전망 AMD는 내년부터 대만 TSMC의 2나노급(N2) 공정을 활용해 차세대 서버 프로세서 '베니스'(Venice)를 생산·공급할 예정이다. AMD는 베니스가 프로세서당 최대 256개 코어를 탑재하고, 젠5 대비 최대 1.7배 성능 향상을 달성하는 것을 목표로 하고 있다. 젠6 아키텍처의 보다 구체적인 기술 정보는 내년 6월 전후 공개될 가능성이 크다. 6월 초에는 대만에서 동아시아 최대 ICT 전시회 '컴퓨텍스 타이베이 2026'이 열릴 예정이다. 또 같은 달 중순에는 AMD의 연례 기술 행사 '어드밴싱 AI'가 예정돼 있어 관련 발표가 이어질 것으로 전망된다.

2025.12.23 14:58권봉석

AMD "ROCm 7, 성능·확장성 강화"...개방형 AI 스택 보급 가속

"AMD가 추구하는 ROCm은 단순한 AI 라이브러리가 아니라 개방성과 포용성을 담은 하나의 철학이다. 특정 활용 사례에 대해 솔루션을 공급하거나 제시하지는 않으며 모든 것을 갖추지도 않았다. 그러나 AMD와 함께 하는 개발자와 AI의 미래를 만들 수 있다." 지난 12일 오전 국내 기자단과 온라인으로 진행한 인터뷰에서 아누쉬 엘랑고반 AMD AI 소프트웨어 부문 총괄부사장은 AI 기술 개발 방향에 대해 이같이 설명했다. ROCm은 AMD 인스팅트와 라데온 GPU를 활용해 AI 관련 처리를 수행할 수 있는 오픈소스 기반 프레임워크다. 2022년 2월 첫 버전인 ROCm 5가 출시됐고 올해 9월 출시된 ROCm 7에는 성능 향상과 인스팅트 MI350 등 새 하드웨어 지원을 추가했다. 이날 아누쉬 엘랑고반 총괄부사장은 "ROCm은 오픈소스 기반으로 누구나 커뮤니티에 기여해 성능과 효율을 높일 수 있다. 엔비디아 쿠다(CUDA), 인텔 원API 등 경쟁사의 폐쇄적인 프레임워크 대비 개선점을 모두 누릴 수 있다"고 강조했다. "ROCm 7, 성능·확장성 강화" ROCm 7은 2023년 12월 공개된 ROCm 6 대비 추론 성능을 크게 강화했다. 메타 라마 3.1 700B 모델 연산 성능은 3.8배, 딥시크 R1은 3.4배 향상됐다. 또 단일 노드부터 멀티 노드·클러스터까지 분산 추론과 학습이 가능하도록 확장했다. 아누쉬 엘랑고반 총괄부사장은 "성능 향상은 알고리듬, 오퍼레이터, 커널 퓨전 등 소프트웨어 스택 전반에서 최적화를 진행한 결과이며 동일한 하드웨어에서도 추론과 학습 성능이 눈에 띄게 개선됐다. 전력 효율과 총소유비용(TCO) 측면에서도 경쟁력을 확보했다"고 설명했다. 서버용 인스팅트 GPU 뿐만 아니라 라데온 RX 등 RDNA 아키텍처 기반 GPU, 노트북용 라이젠 맥스에 포함된 GPU도 지원한다. 모바일 워크스테이션이나 노트북에서도 클라우드 없는 거대언어모델(LLM) 추론이 가능해졌다. "최신 AI 모델 개발 단계부터 협업, 출시 당일 지원" AMD는 ROCm의 성능과 호환성을 강화하기 위해 새 AI 모델 출시 당일부터 이를 지원하는 '데이제로'(Day-0) 모델 지원을 내세웠다. 아누쉬 엘랑고반 총괄부사장은 "오픈AI, 메타, 딥시크 등 주요 AI 모델 개발사와 협력을 강화하고 있다. 내부 조직인 '프론티어 랩'을 중심으로 모델 설계 단계부터 협력해 출시 당일부터 AMD GPU를 활용할 수 있도록 했다"고 밝혔다. 이어 "출시 이후에는 성능 최적화와 미세 조정을 위한 소프트웨어 도구를 개발자와 실사용자에게 공급한다"고 설명했다. ROCm의 개방성은 vLLM, SGLANG, 파이토치 등 주요 오픈소스 프레임워크와의 빠른 통합으로 이어지고 있다. 아누쉬 엘랑고반 부사장은 "폐쇄적인 생태계보다 훨씬 빠르게 진화하며 조그만 개선이 모든 사람에게 긍정적인 영향을 미친다는 점이 ROCm의 가장 큰 강점"이라고 말했다. 우분투 리눅스 통합·윈도 운영체제 지원 강화 AMD는 이달 초 우분투 리눅스를 관리하는 캐노니컬과의 협력을 통해 ROCm을 우분투에 공식 통합했다. 아누쉬 엘랑고반 부사장은 "과거 우분투 커뮤니티에서 프로젝트 중심으로 지원하던 것과 달리 이제는 명령어 한 줄로 쉽게 설치할 수 있다"고 설명했다. ROCm 최초 출시 이후 수 차례 지적됐던 윈도 운영체제 호환성도 ROCm 7 출시 이후 개선됐다. 아누쉬 엘랑고반 부사장은 "ROCm에서 윈도 운영체제는 1등 시민이며 AMD 역시 윈도 지원을 중요하게 여기고 있다"고 설명했다. 최신 기능을 가장 빨리 통합하는 나이틀리(nightly) 빌드가 리눅스와 윈도 운영체제용으로 모두 제공된다. 윈도 환경에서 ROCm과 AMD GPU를 활용하려는 개발자들이 이를 활용해 개발 과정을 단축할 수 있게 됐다. 국내 AI 스타트업과 ROCm 생태계 확대 위한 협업 강화 AMD는 ROCm 생태계 확장과 관련해 AI 스타트업 '모레'(Moreh), 카카오엔터프라이즈, 망고부스트 등 국내 기업과도 협업을 강화하고 있다. 카카오엔터프라이즈는 지난 6월 4세대 에픽 프로세서 기반 클라우드 컴퓨팅 서비스 'BCS m3az' 인스턴스를 출시하고 추론·학습 환경 모두에서 성능 최적화·비용 효율화를 달성했다. 아누쉬 엘랑고반 부사장은 "망고부스트가 인스팅트 MI300X GPU와 ROCm을 활용해 개발한 AI 추론 최적화 소프트웨어 '망고 LLM부스트'는 글로벌 AI 성능 평가 벤치마크인 ML퍼프(MLPerf) 추론 5.0에서 새로운 기록을 달성하기도 했다"고 소개했다. 개발자 클라우드로 접근성 강화..."더 다양한 곳에서 쓰이기 희망" AMD는 고성능 CPU·GPU 접근이 어려운 스타트업이나 학생 등 개발자 대상으로 별도 개발자 클라우드도 운영하고 있다. 개발자와 오픈소스 기여자에게는 일정 시간을 무료로 쓸 수 있는 크레딧을 제공한다. 아누쉬 엘랑고반 총괄부사장은 "누구나 깃허브 계정만 있으면 인스팅트 GPU를 체험할 수 있도록 지원하고, 교육 프로그램·해커톤·대학 협업을 통해 ROCm 전문 인력 양성에도 힘을 쏟고 있다"고 설명했다. 이어 "AMD 하드웨어가 많은 곳에서 쓰이는 것처럼 ROCm도 보다 다양한 곳에서 쓰이길 바란다. 저수준 하드웨어부터 엔터프라이즈급 클러스터를 통한 추론, 배포 등 누구나 선호하는 개방형 AI 스택으로 만드는 것이 목표"라고 덧붙였다.

2025.12.15 13:43권봉석

AMD, 인프라 시장 겨냥 에픽 임베디드 2005 프로세서 출시

AMD가 9일(미국 현지시간) 차세대 임베디드 인프라 시장을 겨냥한 '에픽 임베디드 2005' 시리즈 프로세서를 공개했다. 에픽 임베디드 2005 시리즈는 젠5(Zen 5) 아키텍처 기반으로 8코어, 2.8GHz(2435), 12코어, 2.7GHz(2655), 16코어, 3GHz(2875) 등 총 3개 제품군으로 공급된다. 네트워킹 스위치와 라우터, DPU 제어부, 콜드 클라우드 스토리지, 항공우주 및 로보틱스까지 확장되는 AI 기반 워크로드 수요에 대응하기 위한 제품으로, 높은 연산 밀도와 전력 효율, 장기 안정성을 소형 폼팩터에서 제공하는 것이 특징이다. 기판과 밀착되는 40×40mm 볼그리드어레이(BGA) 패키지를 적용해 인텔 제온 6500P-B(77.5×50mm) 대비 60% 가량 적은 설계 면적으로 시스템 제조 비용과 공간 효율성을 동시에 높였다. 핀이나 접점 대신 기판에 밀착되므로 신호 무결성 개선, 더 짧은 전기 경로, 고밀도 I/O 구성이 가능해 고집적 네트워킹 및 스토리지 장비에 적합하다. PCI 익스프레스 5.0 레인은 28개로 고성능 네트워크 카드와 외부 기기 통합이 가능하며 리눅스 커널 드라이버, Yocto, EDK II 등 오픈소스 생태계 지원도 강화했다. 24시간 상시 구동 환경을 전제로 설계됐고 플랫폼 시큐어 부트, 메모리 암호화 기술 등을 포함한 인피니티 가드 기술을 지원한다. 부품 공급과 기술 지원은 10년간, 소프트웨어 유지보수는 15년간 제공한다.

2025.12.10 14:41권봉석

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤

美 상원, 엔비디아 AI칩 中 수출 차단 법안 발의

미국 상원 소속 초당적 의원들이 엔비디아·AMD 등 미국산 고급 AI 칩의 중국 등 적대국 수출을 2년 반 동안 사실상 봉쇄하는 법안인 '세이프 칩스 액트(SAFE CHIPS Act)'를 공개했다고 로이터가 4일(현지시간) 보도했다. 이 법안은 미국 행정부가 해당 AI 칩 수출 규제를 완화하지 못하도록 막는 것이 핵심이다. 새 법안은 미국 상무부가 현재 허용된 수준보다 성능이 뛰어난 AI 칩을 중국·러시아·이란·북한에 수출하려 할 경우, 라이선스를 승인하지 못하도록 한다. 적용 기간은 30개월이다. 이후 상무부가 규제 완화를 제안할 경우, 반드시 시행 한 달 전에 의회에 사전 보고해야 한다. 상원에서 발의한 주체는 공화당의 피트 리켓츠 의원과 민주당의 크리스 쿤스 의원. 공화당 내 대표적인 대중 강경파인 톰 코튼 등도 동참하며, 트럼프 행정부의 수출 규제 완화 움직임에 제동을 건 모양새다. 공화·민주 양당이 함께 나선 점이 이례적이라는 평가다. 리켓츠 의원은 “미국산 최고의 AI 칩을 중국에 넘기는 것을 막는 일은 국가 안보에 필수적”이라고 강조했다. 이번 법안 발의는 최근 행정부가 중국에 대한 AI 칩 수출 규제를 사실상 완화하려 한다는 보도가 나온 직후 나왔다. 특히 엔비디아가 최신 세대 GPU인 H200의 중국 수출 허가를 검토 중이라는 보도가 배경이 됐다. 이를 두고 미국 내에서는 중국이 해당 칩을 군사, 감시 등에 활용할 수 있다는 우려가 제기돼 왔다. 한편, 이번 입법 움직임은 같은 날 보도된 AMD의 AI 반도체 MI 308 중국 수출 허용 및 이에 따른 15% 수출료 부과 움직임과 직접적으로 맞물린다.

2025.12.05 15:55전화평

"AI 데이터센터 혁신"…HPE, AMD·브로드컴 손잡고 '헬리오스' AI 랙 출시

HPE가 AMD, 브로드컴 손잡고 업계 최초로 통합 스케일업 이더넷 네트워킹을 탑재한 인프라를 구축했다. HPE는 'AMD 헬리오스(Helios) 인공지능(AI) 랙 스케일 아키텍처'를 공개했다고 4일 밝혔다. 해당 아키텍처는 조 단위 파라미터의 AI 학습과 대규모 추론을 위한 단일 턴키 랙을 제공해 클라우드 서비스 제공업체(CSP)의 AI 배포 속도를 올릴 수 있다. 표준 기반 이더넷과 HPE 주니퍼 네트워킹의 전용 스위치·소프트웨어(SW)를 결합해 AI 워크로드 성능과 유연성, 에너지 효율성을 강화한 것이 특징이다. 특히 FP4 기준 최대 2.9 AI 엑사플롭스와 초당 260테라바이트(TB)의 통합 스케일업 대역폭을 제공해 거대 모델 학습에서 발생하는 트래픽을 효율적으로 지원한다. HPE는 개방형 울트라 엑셀러레이터 링크 오버 이더넷(UALoE) 표준 기반으로 업계 표준 중심의 대규모 AI 워크로드를 위한 통합 플랫폼을 구축했다. 이 솔루션은 랙당 72개의 AMD 인스팅트 MI455X 그래픽처리장치(GPU)를 연결하며, 가장 까다로운 AI·고성능 컴퓨팅(HPC) 워크로드를 위해 31TB 용량의 4세대 고대역폭메모리(HBM4)를 갖췄다. HPE 서비스 팀의 직접 액체냉각 인프라·엑사스케일급 구축 경험을 바탕으로, 높은 서비스성과 에너지 효율성까지 확보했다. HPE는 이 턴키 랙 스케일 솔루션을 제공하는 최초의 기업 중 하나가 될 예정이다. HPE는 AMD '헬리오스' 아키텍처를 위해 특별히 설계된 스케일업 이더넷 스위치·SW로 'AI용 네트워크' 솔루션을 확장했다. 브로드컴과 협력해 개발된 이 신규 솔루션은 표준 이더넷을 통해 AI 워크로드에 최적화된 성능을 제공하는 최초의 스케일업 스위치다. 이는 AI 네이티브 자동화 및 보장 기능을 활용해 네트워크 운영을 간소화함으로써 더 빠른 배포와 전반적인 비용 절감을 실현한다. 이 아키텍처는 오픈 컴퓨트 프로젝트(OCP)의 오픈 랙 와이드(ORW) 사양을 기반으로 구축됐다. 실용적인 설계와 전력·에너지 효율적인 수냉 방식을 제공하는 기능을 갖췄다. 또 오픈 소스 AMD ROCm와 AMD 펜산도 네트워킹 기술을 활용해 혁신을 가속화하고 총소유비용(TCO) 절감을 돕는다. 이더넷 기반의 HPE 주니퍼 네트워킹 스위치는 개방적이고 검증된 통신 표준을 기반으로 해 벤더 종속성을 최소화한다. 안토니오 네리 HPE 회장 겸 최고경영자(CEO)는 "CSP 고객들에게 더 빠른 배포, 더 유연한 확장성, 더 낮은 리스크를 제공할 것"이라며 "표준 이더넷으로 강력한 AI 데이터센터 구축을 지원함으로써 고객에게 더 많은 선택권과 유연성, 뛰어난 확장성을 제공하는 것이 목표"라고 강조했다.

2025.12.04 17:20김미정

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호

[기고] 스마트 산업 위한 센서 집약적 AI 컴퓨팅 개발 가속화

제조 현장에서 폭발적으로 증가하는 데이터 수요를 충족시키기 위해 필요한 센서의 종류 및 센서의 채널 수가 지속적으로 증가함에 따라, 산업용 컴퓨터의 설계 및 확장이 점점 더 어려워지고 있다. 이와 함께 산업계 및 의료기관들의 자동화 도입 요구가 높아지면서, 기기 레벨에서 엣지 및 클라우드에 이르기까지 시스템 전반에 걸쳐 AI, 머신러닝, 데이터 분석 소프트웨어 및 지능형 디스플레이 등의 기술 융합 또한 가속화되고 있다. 이로 인해 보다 높은 수준의 다각화된 컴퓨팅 성능에 대한 요구가 증가하면서, 센서 집약적 제어 애플리케이션을 위해 설계된 적응형 컴퓨팅 플랫폼(Adaptive Compute Platform) 기반의 새로운 접근방식이 주목받고 있다. 적응형 컴퓨팅 플랫폼은 개발을 가속화하고, 하드웨어 및 소프트웨어 통합을 간소화하는 것은 물론, 전력소모를 정밀하게 제어하면서 안정적인 성능을 유지할 수 있도록 지원한다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. 임베디드 PC, 다양한 컴퓨팅 요소 통합 필요 엣지 애플리케이션의 지속적인 디지털화는 센서화를 비롯해 엣지 및 클라우드 컴퓨팅 전반에 걸친 AI 및 머신러닝 도입, HMI(Human Machine Interface)와 멀티미디어 경험 및 네트워킹, 그리고 운영기술(OT) 및 정보기술(IT) 영역 간의 통합 등 여러 요소들을 통해 가속화되고 있으며, 이러한 구성 요소들이 최적의 성능을 발휘하기 위해서는 서로 다른 형태의 다양한 컴퓨팅 요소가 필요하다. 의료 영상 시스템을 예로 든다면, 이러한 시스템은 일반적으로 다양한 프로브를 통해 수집된 데이터를 여러 알고리즘을 이용해 인터페이스 및 처리해야 한다. 이러한 작업은 워크로드가 매우 복잡하기 때문에 상당한 규모의 컴퓨팅 성능이 필요하다. 이러한 과정에서 생성된 데이터는 불필요한 정보를 제거하고, 체계적으로 정리 및 가공된 후에 비로소 영상의학 전문의나 심장 전문의와 같은 의료진에게 유용한 정보로 활용될 수 있다. 따라서, 데이터 분석 엔진과 AI 추론 기능을 활용하여 결과 분석 과정을 더욱 신속하게 수행하고 통찰력을 얻을 수 있다. 또한, 이러한 모든 정보는 의료 분석가들이 진단에 활용할 수 있도록 디스플레이 모니터에 시각화되어야 하며, 의료기관의 네트워크를 통해 의료 데이터베이스로 전달되어야 한다. 이는 광범위한 센서화(sensorization)를 통해 임베디드 애플리케이션의 효율성 및 생산성을 향상시켜 다양한 변화를 가능하게 하는 하나의 사례에 불과하다. 이러한 광범위한 센서들은 최대한의 응답성을 달성하기 위해 밀리초 단위에서 신속하게 인터페이스되고, 처리되어야 한다. 또한, 대규모로 구축된 센서는 빅데이터 알고리즘에 데이터를 제공하여 프로세스에 대한 통찰력 및 인사이트를 도출함으로써 성능 개선은 물론, 차세대 제품 개발에 기여할 수 있다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. 이러한 x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 또한, 통합 솔루션을 통해 전력소모를 줄임으로써 전력 설계를 간소화하고 공장 내에서의 부품, 자재, 완제품 운반에 사용되는 AMR과 같은 배터리 기반 애플리케이션을 한 번의 충전으로 더 오래 작동할 수 있도록 한다. 반면, 프로세싱 엔진의 과도한 전력소모로 인해 손실되는 런타임을 보완하기 위해 더 큰 배터리를 장착하면 시스템의 비용과 무게가 증가하게 된다. 하지만 통합 솔루션을 이용하면 총 소유 비용(TCO)을 낮추는데 기여할 수 있다. 그러나 이러한 통합은 상당한 수준의 하드웨어 및 소프트웨어 엔지니어링 노력이 필요하다. 특히 더 높은 생산성과 안전성, 보다 효율적인 운영 계획 수립을 위해 계속해서 더 많은 센서 채널이 추가됨에 따라 이러한 통합 작업은 더욱 어려워지고 있다. 엣지 AI 통합 적응형 컴퓨팅 플랫폼으로 지연 시간 최소화 이러한 통합을 위한 일반적인 접근방식은 산업 및 의료 컴퓨팅 분야에 널리 사용되는 x86 프로세서 아키텍처 기반의 풍부한 생태계와 함께 실시간 머신 제어, 센서 인터페이스 및 네트워킹 기능을 실행할 수 있는 적응형 컴퓨팅 플랫폼을 활용하는 것이다. 이러한 조합을 통해 머신 비전, 산업용 네트워킹, 로봇 컨트롤러, 의료 영상, 스마트 시티, 보안 및 리테일 분석 등과 같은 다양한 적용 사례를 구현할 수 있다. 기존에는 게이트키퍼 역할을 수행하는 산업용 PC가 유입되는 센서 데이터를 처리하고 이 데이터를 x86 코어에서 처리할지, 아니면 PCI 익스프레스 인터페이스로 연결된 FPGA 기반 가속기 카드에서 처리할지 판단했다. 하지만 이러한 접근방식은 지연 시간이라는 중요한 문제를 유발시킨다. 센서 데이터를 수집하고 처리한 뒤, 가속기로 전송하는데 소요되는 시간으로 인해 지연시간이 가중됨으로써 실시간 시스템 응답이 불가능해질 수 있다. 반면, FPGA 기반 적응형 컴퓨팅 플랫폼에 센서 인터페이스와 AI 프로세서, 네트워크 프로세싱을 통합하면 상당한 이점을 얻을 수 있다. 단일 마더보드에 이러한 기능들을 통합함으로써 컴퓨팅 효율을 높이고 지연시간을 줄이는 것은 물론, 데이터가 여러 구성요소를 거쳐야 할 필요성도 없어진다. 따라서 이와 같은 통합 접근방식은 더 빠른 응답 속도와 더 높은 정확도를 제공할 뿐만 아니라, 전력소모를 낮출 수 있는 잠재력을 제공한다. AMD, 버설 기반 적응형 컴퓨팅 플랫폼 제공 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. AMD 버설(Versal) 적응형 이기종 프로세서와 같은 디바이스에 구현된 이러한 원리를 확장하면 기존의 다양한 워크로드를 처리하는 동시에, 가속화되는 센서화 흐름에도 대응할 수 있는 임베디드 컴퓨팅 플랫폼을 보다 간단하게 구현할 수 있다. x86 프로세서 IP를 추가하고, 특화된 적응형 컴퓨팅 솔루션을 활용하고, 센서 인터페이스에 적합한 다수의 I/O 구성을 이용함으로써 더 높은 수준의 통합, 전력 효율성 및 시스템 응답 속도를 달성할 수 있다. 특히 다수의 I/O 구성은 다양한 유형의 센서를 연결하고 해당 신호를 직접 라우팅하여 처리할 수 있도록 지원한다. 이는 GMSL(Gigabit Multimedia Serial Link) 카메라나 10/25GE, 라이다(LiDAR)를 비롯해 내시경 및 초음파와 같은 의료용 프로브 등 다양한 유형의 센서에 적용할 수 있다. 또한, 필요에 따라 추가 센서 채널을 쉽게 구성할 수 있어 확장성 확보에도 유리하다. 이러한 접근방식은 확장 가능한 센서 인터페이스와 이기종 가속의 장점 그리고 x86 플랫폼 기반의 산업용 프로세싱을 지원하는 광범위한 생태계를 통해 센싱과 AI, 제어 및 네트워킹 소프트웨어를 간소화할 수 있다. 이를 통해 엔지니어는 자신들의 요구사항에 정확히 부합하는 최적의 임베디드 컴퓨터를 구현할 수 있다. 센서 I/O 수를 조정하고, 각 채널을 CPU, 실시간 코어, DSP, AI 엔진 또는 프로그래머블 로직 등 가장 적합한 가속 엔진에 개별적으로 연결할 수 있으며, 세밀하게 조정된 최적의 전력소모 및 성능을 구현할 수 있다. 모든 입력 채널 신호를 칩 상의 가장 적합한 프로세싱 엔진에 유연하게 연결할 수 있는 이러한 기능은 엔지니어가 신호의 우선순위나 실시간 결정론적 성능 요구에 따라 복합적인 센서 중요도(Mixed Sensor Criticality)를 효과적으로 처리하는데 도움을 준다. x86 기반 임베디드 컴퓨팅을 지원하는 광범위한 생태계는 머신 비전, 의료 영상 스캐닝, 로봇 제어 등 다양한 애플리케이션 개발을 지원하는 풍부한 리소스를 제공한다.

2025.11.20 13:41이희만

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미

삼성·SK·LG 모두 뛰어든 유리기판…"투자 검증 더 해봐야" 우려도

삼성·SK·LG 등 국내 주요 기업의 전자 계열사들이 차세대 반도체 유리(글라스) 코어 기판 시장에 앞다퉈 뛰어들고 있다. 다만 실무단에서는 유리기판 상용화에 대한 반대 의견도 적지 않은 상황으로 기술적 난제와 최종 고객사, 시장성에 대한 불확실성 등이 해결 과제로 지적된다. 18일 업계에 따르면 국내외 주요 반도체 및 기판 업체들은 유리 코어 기판 상용화 전략을 두고 의견이 엇갈리고 있다. 유리기판은 기존 반도체 패키징 소재인 PCB(인쇄회로기판)을 유리로 대체해, 전력 효율성 및 내열 특성을 높이는 기술이다. 특히 기존 기판 대비 워피지(휨) 개선에 유리해 향후 AI 반도체에서 수요가 증가할 것으로 전망되고 있다. AI 반도체는 성능 극대화로 칩 사이즈가 계속 커지는 추세인데, 이 경우 워피지에 취약해지는 문제점이 발생하기 때문이다. 이러한 관점에서 국내 주요 기업들도 유리기판의 시장 확대를 염두에 두고 상용화를 적극 추진 중이다. 삼성그룹 내에서는 삼성전기, SK그룹 내에서는 앱솔릭스, LG그룹 내에서는 LG이노텍이 각각 유리기판 사업의 선봉을 맡고 있다. AI용 고성능 기판 필요…삼성·SK·LG 유리기판 상용화 경쟁 불붙어 삼성전기의 경우, 세종사업장 내 유리기판 시생산 라인을 구축하고 올해 가동을 시작했다. 이달엔 글로벌 빅테크 기업인 B사에 첫 샘플을 납품할 예정이다. 또한 지난 5일에는 일본 스미토모화학그룹과 유리기판 소재 제조와 관련한 합작법인(JV) 설립 검토를 위한 양해각서(MOU)를 체결했다. 당시 장덕현 삼성전기 사장은 “글라스 코어는 미래 기판 시장의 판도를 바꿀 핵심 소재"라며 "앞으로 기술 리더십을 강화하고, 첨단 패키지 기판 생태계 구축에 앞장설 것"이라고 밝힌 바 있다. SKC 자회사 앱솔릭스는 지난 2022년 미국 조지아주에 유리기판 공장 착공에 나서, 지난해부터 잠재 고객사를 대상으로 샘플을 공급해 왔다. 해당 공장은 총 2단계로 구성되며, 현재 연산 1만2천㎡ 규모의 1공장이 건설됐다. 7만2천㎡ 규모의 2공장은 건설을 계획 중이다. SKC는 올 3분기 실적발표 컨퍼런스콜을 통해 "해당 분기 조지아 공장에서 유리기판 첫 양산 샘플을 제작하고 고객사 인증 과정을 시작했다“며 "매우 긍정적인 피드백이 오고 있고, 내년도 상업화를 위한 퀄(품질) 테스트를 목표로 노력하고 있다"고 밝혔다. LG이노텍 역시 구미 공장에서 유리기판 시생산 라인을 구축하고 있다. 올 연말 시제품을 제조하고, 2027년~2028년 양산에 나서는 것이 목표다. 반도체 업계 "검증 더 필요해야…과잉 투자 우려" 이들 각 기업은 경영진을 필두로 유리기판을 회사의 신성장동력으로 적극 홍보하고 있다. 다만 실무단에서는 여전히 유리기판 상용화에 대한 고민이 깊은 상황이다. 기술적 난제와 시장의 불확실성이 가장 큰 원인으로 지목된다. 유리는 기존 기판 소재 대비 가공 난이도가 매우 어렵다는 평가를 받는다. 유리 원장을 절단(싱귤레이션)하거나, TGV(유리관통전극) 구멍을 뚫고 도금하는 과정에서 미세 균열이 발생하는 경우 기판 전체에 크랙(깨짐) 현상이 발생하기 쉽다. 때문에 유리기판용 장비를 제조하는 기업들은 고종횡비의 TGV 형성을 위한 기술 개발에 주력하고 있다. 또한 유리기판이 매우 평평하고 매끄러운 성질을 지녀, 기판 위 구리 소재와 쉽게 접착되지 않는다는 문제점이 있다. 두 소재 간 열팽창계수가 달라 고온 환경에서 칩의 불량을 야기하는 경우도 발생할 수 있다. 반도체 업계 한 패키징 사업부문 임원은 "유리기판의 신뢰성 및 호환성 문제가 여전히 해결되지 않았고, 패키징 업계에서 반드시 유리기판을 유일한 해결책으로 정해놓고 기술 개발을 하고 있지도 않은 상황"이라며 "실무단에서 평가하는 수준에 비해 너무나 많은 투자가 검증 없이 진행되고 있는 것 같아 걱정된다"고 말했다. 엔비디아·이비덴 등 주요 기업은 '미온적' 유리기판에 대한 확실한 수요처가 없다는 지적도 제기된다. 전 세계 주요 빅테크 기업들이 유리기판에 대한 샘플 테스트를 진행하는 것은 익히 알려져 있으나, 평가 단계일 뿐 상용화를 확정해 발표한 기업은 아직 없는 상황이다. 또 다른 반도체 패키징 업계 고위 관계자는 "최근 논의해 본 빅테크 기업들은 유리기판을 양산이 아닌 기술 탐색적인 의미에서 접근하는 경향이 강하다"며 "브로드컴·마벨 등이 유리기판 샘플을 요청하기도 하나, 이들 역시 최종 고객사가 아니라 디자인하우스(칩을 대신 설계 및 제작해주는 기업)로서 기술 영역을 넓히려는 의도"라고 설명했다. 실제로 AI 반도체 시장의 핵심 기업들은 유리기판에 미온적인 태도를 취하고 있다. 대표적인 사례가 일본 이비덴이다. 현재 이비덴은 엔비디아의 고성능 AI 가속기에 사용되는 반도체 기판의 90% 가량을 공급 중인 회사다. 그만큼 엔비디아의 기술적 변화에 민감할 수 밖에 없다. 그럼에도 이비덴은 유리기판에 대한 구체적인 상용화 로드맵을 제시하지 않고 있다. 현재 초기 샘플 단계에서 연구개발만을 진행 중인 것으로 알려졌다. 앞선 관계자는 "AI 시장을 주도하는 엔비디아가 유리기판을 크게 고려하지 않고 있다. 만약 상용화에 적극적으로 나섰다면 이비덴에도 개발 압력을 넣었을 것"이라고 말했다. 대신 엔비디아는 기존 2.5D 패키징에 유리 인터포저를 채용하는 'CoPoS(칩-온-패널-온-서브스트레이트)' 기술을 준비 중이다. 2.5D 패키징은 반도체와 기판 사이에 얇은 막 형태인 인터포저를 삽입해 칩 성능을 높이는 기술이다. 기존에는 유기재료가 쓰였으나, TSMC는 이를 유리 패널로 대체해 대형 패키징을 구현할 계획이다. 양산 목표 시점은 이르면 오는 2028년이다. 성장 잠재력 높다지만…"실제 시장성 따져봐야" 유리기판이 지닌 시장성에 대해서도 의견이 엇갈린다. 유리기판이 AI 반도체 업황과 맞물려 폭발적인 성장세를 기록할 것이라는 전망과 실제 수요는 초고성능 분야에 국한되기 때문에 시장 규모 자체가 크지 않을 것이라는 비판이 동시에 나온다. 기판업계 한 관계자는 "반도체 패키지 시장 규모 자체를 10조~20조원 수준으로 추산하는데, 유리기판이 이 중 10%의 비중을 차지한다면 1조원대 시장을 두고 국내 주요 기업들이 경쟁하게 되는 상황"이라며 "국내 업계에서 유독 과열 양상을 보이고 있다"고 말했다. 반도체 전문 시장조사업체 욜(Yole) 그룹도 유리기판이 기판 시장 전체를 대체하는 것이 아닌, 고성능 제품에만 우선 적용될 것으로 보고 있다. 욜 그룹은 오는 2028년 고성능 IC(집적회로) 기판 시장 규모가 약 40조원에 달할 것으로 전망하면서, 유리기판은 580억원으로 0.14%의 비중을 차지할 것으로 분석했다. 유리기판 시장이 성장 잠재력을 지니고는 있으나, 단기간 내 급격한 성장세를 이뤄내기에는 무리가 있다는 의견으로 풀이된다. 유리기판 관련 장비업체 대표는 "유리기판에 대한 의구심이 당연히 있을 수 있으나, 기술 개발 및 시장 상황에 따라 급격히 대중화될 가능성도 배제할 수는 없다"며 "새로운 기술에 대한 검증은 반드시 필요하며, 현재로선 유리기판의 성공 가능성을 5대5 정도로 보고 있다"고 말했다.

2025.11.18 15:59장경윤

리사 수 AMD CEO "MI355 GPU 양산 예정대로 진행중"

리사 수 AMD 최고경영자(CEO)는 4일(미국 현지시간) 3분기 실적발표 이후 진행된 컨퍼런스 콜에서 "인스팅트 MI355 GPU 가속기 양산이 계획대로 진행되고 있으며, 차세대 MI450 시리즈도 내년 하반기부터 차질 없이 대량 생산할 것"이라고 밝혔다. 올 3분기 AMD 실적 중 데이터센터 부문은 43억 4천100만 달러(약 6조 2천704억원)로 전년 대비 22% 늘었다. 서버용 에픽 프로세서와 인스팅트 GPU 모두 두 자릿수 성장을 기록하며 실적을 견인했다. 리사 수 CEO는 "MI355 GPU 수요가 급증한 가운데 AI 연산 수요 확대로 일반 서버용 프로세서 판매도 늘고 있다. 현행 5세대 에픽 프로세서 뿐만 아니라 4세대 에픽 프로세서 판매량도 호조"라고 설명했다. 지난 10월 중순 미국 캘리포니아 주 새너제이에서 열린 'OCP 글로벌 서밋'에서 공개한 '헬리오스 AI 랙'과 관련해 "헬리오스는 성능, 전력 효율, 신뢰성 등 모든 면에서 높은 경쟁력을 갖췄고 초기 고객들은 대부분 랙 단위의 완전한 시스템 솔루션을 채택할 것"이라고 설명했다. AMD는 지난 10월 초 발표된 오픈AI와 협업에 따라 내년 하반기부터 1GW(기가와트) 규모 GPU 클러스터를 구축 예정이다. 리사 수 CEO는 "주요 클라우드 서비스 공급자와 공급망, 전력 확보 문제를 조율중이며 오픈AI 뿐만 아니라 오라클 클라우드, 메타, 미국 에너지부 등 다양한 대형 고객사와 협력을 확장하고 있다"고 설명했다. 이어 "이를 바탕으로 2027년 경에는 수십억 달러 규모의 AI GPU 매출을 달성할 수 있을 것"이라고 설명했다. AMD가 중국 시장을 겨냥해 개발한 인스팅트 MI308 GPU는 올 상반기 미국 정부의 수출 규제에 직면해 현재 수출 가능 여부가 불투명하다. 리사 수 CEO는 "일부 물량에 대한 수출은 승인을 받았지만 불확실성이 이어지고 있어 4분기 실적 전망에서는 제외됐다. 중국 시장 내 수요와 규제 상황을 주시하고 있는 상황"이라고 말했다.

2025.11.05 10:03권봉석

AMD, 3분기 영업이익 1.7조... 분기별 기준 역대 최고치

AMD가 4일(미국 현지시간) 올 3분기 실적을 공개했다. 매출은 92억 달러(약 13조 2천940억원), 영업이익은 12억 달러(약 1조 7천340억원) 수준으로 역대 최고치를 기록했다. AMD에 따르면 3분기 매출은 전년 동기(67억 9천만 달러) 대비 36%, 영업이익은 전년 동기(7억 7천100만 달러) 대비 61% 늘어났다. 데이터센터 부문 매출은 전체 매출의 45% 가량이며 AI와 고성능 컴퓨팅(HPC) 시장의 수요 확대가 실적 상승을 견인했다. 리사 수 AMD 최고경영자(CEO)는 "AI와 고성능 컴퓨팅 전반에서 폭넓은 수요가 이어지며 기록적인 분기 실적을 달성했다"며 "데이터센터와 클라이언트, 게이밍 제품군 전반에서 강력한 성장세를 보였다"고 말했다. 에픽(EPYC) 프로세서와 인스팅트 MI350 시리즈 GPU AI 가속기 등을 담당하는 데이터센터 부문 매출은 43억 4천100만 달러(약 6조 2천704억원)로 전년 대비 22% 늘었다. PC용 라이젠 프로세서, 라데온 GPU를 공급하는 클라이언트 및 게이밍 부문 매출은 전년 대비 73% 늘어난 40억 4천800만 달러(약 5조 8천849억원)다. 지난 해 경쟁사인 인텔이 출시한 데스크톱 PC용 코어 울트라 시리즈2(애로우레이크) 부진으로 인한 반사이익이 이어지고 있다. 반면 임베디드 부문 매출은 전년 대비 8% 줄어든 8억 5천700만 달러로 산업용 시스템 시장의 수요 둔화가 여전히 이어지고 있음을 시사했다. 진 후 AMD 최고재무책임자(CFO)는 "AI 및 고성능 컴퓨팅에 대한 지속적인 투자가 회사의 성장을 뒷받침해 매출과 영업이익 모두 사상 최대치를 기록했다"고 설명했다. 이어 "4분기에도 에픽 프로세서와 인스팅트 가속기를 통해 수익성 중심의 성장을 이어갈 것"이라고 내다봤다. AMD는 올 4분기 매출을 96억 달러(약 13조 8691억원) 수준으로 내다봤다. 이는 전년 동기 대비 25% 늘어난 전망치다. 단 AMD는 "이번 전망치에는 중국 시장용으로 설계된 인스팅트 MI308 GPU 매출은 포함되지 않았다"고 설명했다.

2025.11.05 09:40권봉석

펄어비스, AMD 손잡고 '붉은사막 X AMD 팝업스토어 2025' 개최

펄어비스가 글로벌 고성능 컴퓨팅 선두 기업 AMD와 협력해 오는*11월 1일까지 서울 홍대 DRC에서 '붉은사막 X AMD 팝업스토어 2025'를 운영한다. 이번 팝업은 출시를 앞두고 있는 오픈월드 액션 어드벤처 '붉은사막'을 AMD의 최신 하드웨어 환경에서 직접 플레이할 수 있는 체험형 공간으로 꾸며졌다. 지난 9월 펄어비스와 AMD는 붉은사막의 최적화된 게이밍 경험과 성공적인 글로벌 출시를 위한 전략적 협업을 공식 발표한 바 있다. 이번 팝업스토어는 그 협업의 일환으로 진행된다. 붉은사막의 광활한 오픈월드와 사실적인 전투 장면을 AMD 기술로 구현한 최상의 게이밍 환경에서 직접 체험할 수 있도록 했다. 현장에는 10분짜리 단기 체험존과 현장 접수를 통해 참여할 수 있는 50분 시연존이 마련됐다. 방문객은 대규모 전투와 미션 수행 등 붉은사막의 핵심 콘텐츠를 실제 플레이하며 게임의 몰입감을 직접 느낄 수 있다. 체험용 PC는 AMD 라이젠9 9800X3D 프로세서, 라데온 RX 9070XT 그래픽카드 등 AMD의 최신 고성능 부품으로 구성돼, 높은 해상도와 안정적인 프레임을 유지한 채 시연이 이뤄진다. 또한, 붉은사막의 세계관을 테마로 한 참여형 현장 이벤트도 다채롭게 준비됐다. 방문객은 스탬프 투어, 룰렛, 다트 게임 등 인터랙티브 프로그램에 참여할 수 있으며, 할로윈 시즌 한정 페이스페인팅 이벤트도 함께 진행된다. 포토존에는 붉은사막 주요 캐릭터와 보스를 배경으로 한 촬영 구역이 마련돼 있으며, 현장에는 붉은사막 캐릭터로 분장한 코스프레어 팀도 함께해 분위기를 더했다. 또한 현장에서는 방문객을 대상으로 추첨을 통해 '붉은사막' 한정판 그래픽카드, 장패드, 후드티, 백팩, 담요, 마그넷 등 다양한 굿즈와 경품이 제공된다. 펄어비스 경광호 홍보실 책임리더는 “자체 게임엔진 개발한 붉은사막의 광할한 오픈월드와 실감나는 전투의 경험을 제공하고자 마련했다“며 다채로운 현장 이벤트를 통해 고객접점을 확대겠다“라고 말했다.

2025.10.31 14:25김한준

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석

AMD, 미국 에너지부와 슈퍼컴퓨터 2종 구축

AMD는 27일(미국 현지시간) 미국 에너지부와 협력해 오크리지 국립 연구소(ORNL)에 슈퍼컴퓨터 2종을 구축한다고 밝혔다. AMD는 2026년 초 ORNL과 오라클 클라우드 인프라스트럭처(OCI), HPE와 공동 개발한 AI 슈퍼컴퓨터 '럭스'(Lux)를 배치한다. 서버용 에픽 프로세서, 인스팅트 MI355X AI GPU 가속기와 펜산도 네트워킹 기술을 결합해 구축되며 AI·에너지 연구·신소재·의료·첨단 제조 분야의 발전과 혁신을 가속화하기 위한 최우선 과제들을 해결하는데 활용된다. 슈퍼컴퓨터 '디스커버리'는 AMD가 설계중인 차세대 에픽 프로세서 '베니스'와 인스팅트 MI430X GPU로 구성되며 미국 내에 구축된 시스템에서 국가 데이터와 과학 경쟁력을 보호하는 동시에 AI 모델의 학습·시뮬레이션·배포가 가능하도록 지원한다. ORNL은 2028년부터 디스커버리를 도입하고 2029년부터 사용자 대상 운영을 시작할 예정이다. AMD는 "디스커버리가 가동되면, 이 시스템은 향후 10년을 이끌어갈 미국의 과학, 안보, 혁신 목표를 추진하는 '미국 AI 스택'의 초석이 될 것"이라고 설명했다. 럭스와 디스커버리 슈퍼컴퓨터는 AI 기반 과학 기술 가속화, 국가 경쟁력 강화, 국가를 위한 안전한 소버린 AI 인프라 발전 등 '미국 AI 실행 계획'을 직접 지원한다. 슈퍼컴퓨터 2종 구축에는 정부와 민간 분야를 합해 총 10억 달러(약 1조 4천337억원) 규모 투자가 집행된다. 크리스 라이트 미국 에너지부 장관은 "AMD, HPE와 협력하여 우리는 그 어느 때보다 빠르게 필요한 컴퓨팅 용량을 확보하고, 공동의 혁신을 국가적 강점으로 전환함으로써, 민관 파트너가 함께 할 때 미국이 경쟁을 선도할 수 있다는 것을 증명하고 있다"고 밝혔다. 리사 수 AMD CEO는 "미국 에너지부, 오크리지 국립 연구소와 협력해 미국의 과학 및 혁신 기반을 가속화하게 되어 영광이며 디스커버리와 럭스는 AMD의 고성능 및 AI 컴퓨팅 기술을 바탕으로 과학, 에너지, 의학 등 미국의 핵심 연구 분야를 발전시키고, 민관 협력의 모범 사례가 될 것"이라고 밝혔다.

2025.10.28 10:40권봉석

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

말로만 ‘탈팡’ 했나...쿠팡 12월 MAU 증가 왜?

SKT 정예팀 AI 모델, 딥시크-V3.1 성능 앞섰다

현대차 로봇에 '구글 AI' 입힌다…보스턴다이내믹스-딥마인드 맞손

삼성디스플레이 OLED, 주름·반사 모두 잡는다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.