• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AMD'통합검색 결과 입니다. (239건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호

[기고] 스마트 산업 위한 센서 집약적 AI 컴퓨팅 개발 가속화

제조 현장에서 폭발적으로 증가하는 데이터 수요를 충족시키기 위해 필요한 센서의 종류 및 센서의 채널 수가 지속적으로 증가함에 따라, 산업용 컴퓨터의 설계 및 확장이 점점 더 어려워지고 있다. 이와 함께 산업계 및 의료기관들의 자동화 도입 요구가 높아지면서, 기기 레벨에서 엣지 및 클라우드에 이르기까지 시스템 전반에 걸쳐 AI, 머신러닝, 데이터 분석 소프트웨어 및 지능형 디스플레이 등의 기술 융합 또한 가속화되고 있다. 이로 인해 보다 높은 수준의 다각화된 컴퓨팅 성능에 대한 요구가 증가하면서, 센서 집약적 제어 애플리케이션을 위해 설계된 적응형 컴퓨팅 플랫폼(Adaptive Compute Platform) 기반의 새로운 접근방식이 주목받고 있다. 적응형 컴퓨팅 플랫폼은 개발을 가속화하고, 하드웨어 및 소프트웨어 통합을 간소화하는 것은 물론, 전력소모를 정밀하게 제어하면서 안정적인 성능을 유지할 수 있도록 지원한다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. 임베디드 PC, 다양한 컴퓨팅 요소 통합 필요 엣지 애플리케이션의 지속적인 디지털화는 센서화를 비롯해 엣지 및 클라우드 컴퓨팅 전반에 걸친 AI 및 머신러닝 도입, HMI(Human Machine Interface)와 멀티미디어 경험 및 네트워킹, 그리고 운영기술(OT) 및 정보기술(IT) 영역 간의 통합 등 여러 요소들을 통해 가속화되고 있으며, 이러한 구성 요소들이 최적의 성능을 발휘하기 위해서는 서로 다른 형태의 다양한 컴퓨팅 요소가 필요하다. 의료 영상 시스템을 예로 든다면, 이러한 시스템은 일반적으로 다양한 프로브를 통해 수집된 데이터를 여러 알고리즘을 이용해 인터페이스 및 처리해야 한다. 이러한 작업은 워크로드가 매우 복잡하기 때문에 상당한 규모의 컴퓨팅 성능이 필요하다. 이러한 과정에서 생성된 데이터는 불필요한 정보를 제거하고, 체계적으로 정리 및 가공된 후에 비로소 영상의학 전문의나 심장 전문의와 같은 의료진에게 유용한 정보로 활용될 수 있다. 따라서, 데이터 분석 엔진과 AI 추론 기능을 활용하여 결과 분석 과정을 더욱 신속하게 수행하고 통찰력을 얻을 수 있다. 또한, 이러한 모든 정보는 의료 분석가들이 진단에 활용할 수 있도록 디스플레이 모니터에 시각화되어야 하며, 의료기관의 네트워크를 통해 의료 데이터베이스로 전달되어야 한다. 이는 광범위한 센서화(sensorization)를 통해 임베디드 애플리케이션의 효율성 및 생산성을 향상시켜 다양한 변화를 가능하게 하는 하나의 사례에 불과하다. 이러한 광범위한 센서들은 최대한의 응답성을 달성하기 위해 밀리초 단위에서 신속하게 인터페이스되고, 처리되어야 한다. 또한, 대규모로 구축된 센서는 빅데이터 알고리즘에 데이터를 제공하여 프로세스에 대한 통찰력 및 인사이트를 도출함으로써 성능 개선은 물론, 차세대 제품 개발에 기여할 수 있다. 센서와 적응형 컴퓨팅 플랫폼이 탑재된 수많은 엣지 기기는 시스템과 연결되어 있거나 자체적으로 내장된 PC를 갖추고 있다. 이러한 x86 기반 컴퓨팅과 AI, 제어, 센서 인터페이스 및 프로세싱, 시각화 및 네트워킹 기능을 긴밀하게 통합하면 전반적인 크기를 소형화할 수 있어 구축 및 설치를 용이하게 하는 등 여러 중요 이점을 얻을 수 있다. 또한, 통합 솔루션을 통해 전력소모를 줄임으로써 전력 설계를 간소화하고 공장 내에서의 부품, 자재, 완제품 운반에 사용되는 AMR과 같은 배터리 기반 애플리케이션을 한 번의 충전으로 더 오래 작동할 수 있도록 한다. 반면, 프로세싱 엔진의 과도한 전력소모로 인해 손실되는 런타임을 보완하기 위해 더 큰 배터리를 장착하면 시스템의 비용과 무게가 증가하게 된다. 하지만 통합 솔루션을 이용하면 총 소유 비용(TCO)을 낮추는데 기여할 수 있다. 그러나 이러한 통합은 상당한 수준의 하드웨어 및 소프트웨어 엔지니어링 노력이 필요하다. 특히 더 높은 생산성과 안전성, 보다 효율적인 운영 계획 수립을 위해 계속해서 더 많은 센서 채널이 추가됨에 따라 이러한 통합 작업은 더욱 어려워지고 있다. 엣지 AI 통합 적응형 컴퓨팅 플랫폼으로 지연 시간 최소화 이러한 통합을 위한 일반적인 접근방식은 산업 및 의료 컴퓨팅 분야에 널리 사용되는 x86 프로세서 아키텍처 기반의 풍부한 생태계와 함께 실시간 머신 제어, 센서 인터페이스 및 네트워킹 기능을 실행할 수 있는 적응형 컴퓨팅 플랫폼을 활용하는 것이다. 이러한 조합을 통해 머신 비전, 산업용 네트워킹, 로봇 컨트롤러, 의료 영상, 스마트 시티, 보안 및 리테일 분석 등과 같은 다양한 적용 사례를 구현할 수 있다. 기존에는 게이트키퍼 역할을 수행하는 산업용 PC가 유입되는 센서 데이터를 처리하고 이 데이터를 x86 코어에서 처리할지, 아니면 PCI 익스프레스 인터페이스로 연결된 FPGA 기반 가속기 카드에서 처리할지 판단했다. 하지만 이러한 접근방식은 지연 시간이라는 중요한 문제를 유발시킨다. 센서 데이터를 수집하고 처리한 뒤, 가속기로 전송하는데 소요되는 시간으로 인해 지연시간이 가중됨으로써 실시간 시스템 응답이 불가능해질 수 있다. 반면, FPGA 기반 적응형 컴퓨팅 플랫폼에 센서 인터페이스와 AI 프로세서, 네트워크 프로세싱을 통합하면 상당한 이점을 얻을 수 있다. 단일 마더보드에 이러한 기능들을 통합함으로써 컴퓨팅 효율을 높이고 지연시간을 줄이는 것은 물론, 데이터가 여러 구성요소를 거쳐야 할 필요성도 없어진다. 따라서 이와 같은 통합 접근방식은 더 빠른 응답 속도와 더 높은 정확도를 제공할 뿐만 아니라, 전력소모를 낮출 수 있는 잠재력을 제공한다. AMD, 버설 기반 적응형 컴퓨팅 플랫폼 제공 실시간 센서 프로세싱 및 제어, 네트워킹 및 AI 추론을 처리할 수 있는 적응형 컴퓨팅 플랫폼은 지연시간과 전력소모 및 전체 솔루션 크기를 최소화하는데 도움을 준다. 이를 기반으로, 임베디드 프로세싱에 적합한 효율적이고 강력한 플랫폼을 구현할 수 있다. AMD 버설(Versal) 적응형 이기종 프로세서와 같은 디바이스에 구현된 이러한 원리를 확장하면 기존의 다양한 워크로드를 처리하는 동시에, 가속화되는 센서화 흐름에도 대응할 수 있는 임베디드 컴퓨팅 플랫폼을 보다 간단하게 구현할 수 있다. x86 프로세서 IP를 추가하고, 특화된 적응형 컴퓨팅 솔루션을 활용하고, 센서 인터페이스에 적합한 다수의 I/O 구성을 이용함으로써 더 높은 수준의 통합, 전력 효율성 및 시스템 응답 속도를 달성할 수 있다. 특히 다수의 I/O 구성은 다양한 유형의 센서를 연결하고 해당 신호를 직접 라우팅하여 처리할 수 있도록 지원한다. 이는 GMSL(Gigabit Multimedia Serial Link) 카메라나 10/25GE, 라이다(LiDAR)를 비롯해 내시경 및 초음파와 같은 의료용 프로브 등 다양한 유형의 센서에 적용할 수 있다. 또한, 필요에 따라 추가 센서 채널을 쉽게 구성할 수 있어 확장성 확보에도 유리하다. 이러한 접근방식은 확장 가능한 센서 인터페이스와 이기종 가속의 장점 그리고 x86 플랫폼 기반의 산업용 프로세싱을 지원하는 광범위한 생태계를 통해 센싱과 AI, 제어 및 네트워킹 소프트웨어를 간소화할 수 있다. 이를 통해 엔지니어는 자신들의 요구사항에 정확히 부합하는 최적의 임베디드 컴퓨터를 구현할 수 있다. 센서 I/O 수를 조정하고, 각 채널을 CPU, 실시간 코어, DSP, AI 엔진 또는 프로그래머블 로직 등 가장 적합한 가속 엔진에 개별적으로 연결할 수 있으며, 세밀하게 조정된 최적의 전력소모 및 성능을 구현할 수 있다. 모든 입력 채널 신호를 칩 상의 가장 적합한 프로세싱 엔진에 유연하게 연결할 수 있는 이러한 기능은 엔지니어가 신호의 우선순위나 실시간 결정론적 성능 요구에 따라 복합적인 센서 중요도(Mixed Sensor Criticality)를 효과적으로 처리하는데 도움을 준다. x86 기반 임베디드 컴퓨팅을 지원하는 광범위한 생태계는 머신 비전, 의료 영상 스캐닝, 로봇 제어 등 다양한 애플리케이션 개발을 지원하는 풍부한 리소스를 제공한다.

2025.11.20 13:41이희만

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미

삼성·SK·LG 모두 뛰어든 유리기판…"투자 검증 더 해봐야" 우려도

삼성·SK·LG 등 국내 주요 기업의 전자 계열사들이 차세대 반도체 유리(글라스) 코어 기판 시장에 앞다퉈 뛰어들고 있다. 다만 실무단에서는 유리기판 상용화에 대한 반대 의견도 적지 않은 상황으로 기술적 난제와 최종 고객사, 시장성에 대한 불확실성 등이 해결 과제로 지적된다. 18일 업계에 따르면 국내외 주요 반도체 및 기판 업체들은 유리 코어 기판 상용화 전략을 두고 의견이 엇갈리고 있다. 유리기판은 기존 반도체 패키징 소재인 PCB(인쇄회로기판)을 유리로 대체해, 전력 효율성 및 내열 특성을 높이는 기술이다. 특히 기존 기판 대비 워피지(휨) 개선에 유리해 향후 AI 반도체에서 수요가 증가할 것으로 전망되고 있다. AI 반도체는 성능 극대화로 칩 사이즈가 계속 커지는 추세인데, 이 경우 워피지에 취약해지는 문제점이 발생하기 때문이다. 이러한 관점에서 국내 주요 기업들도 유리기판의 시장 확대를 염두에 두고 상용화를 적극 추진 중이다. 삼성그룹 내에서는 삼성전기, SK그룹 내에서는 앱솔릭스, LG그룹 내에서는 LG이노텍이 각각 유리기판 사업의 선봉을 맡고 있다. AI용 고성능 기판 필요…삼성·SK·LG 유리기판 상용화 경쟁 불붙어 삼성전기의 경우, 세종사업장 내 유리기판 시생산 라인을 구축하고 올해 가동을 시작했다. 이달엔 글로벌 빅테크 기업인 B사에 첫 샘플을 납품할 예정이다. 또한 지난 5일에는 일본 스미토모화학그룹과 유리기판 소재 제조와 관련한 합작법인(JV) 설립 검토를 위한 양해각서(MOU)를 체결했다. 당시 장덕현 삼성전기 사장은 “글라스 코어는 미래 기판 시장의 판도를 바꿀 핵심 소재"라며 "앞으로 기술 리더십을 강화하고, 첨단 패키지 기판 생태계 구축에 앞장설 것"이라고 밝힌 바 있다. SKC 자회사 앱솔릭스는 지난 2022년 미국 조지아주에 유리기판 공장 착공에 나서, 지난해부터 잠재 고객사를 대상으로 샘플을 공급해 왔다. 해당 공장은 총 2단계로 구성되며, 현재 연산 1만2천㎡ 규모의 1공장이 건설됐다. 7만2천㎡ 규모의 2공장은 건설을 계획 중이다. SKC는 올 3분기 실적발표 컨퍼런스콜을 통해 "해당 분기 조지아 공장에서 유리기판 첫 양산 샘플을 제작하고 고객사 인증 과정을 시작했다“며 "매우 긍정적인 피드백이 오고 있고, 내년도 상업화를 위한 퀄(품질) 테스트를 목표로 노력하고 있다"고 밝혔다. LG이노텍 역시 구미 공장에서 유리기판 시생산 라인을 구축하고 있다. 올 연말 시제품을 제조하고, 2027년~2028년 양산에 나서는 것이 목표다. 반도체 업계 "검증 더 필요해야…과잉 투자 우려" 이들 각 기업은 경영진을 필두로 유리기판을 회사의 신성장동력으로 적극 홍보하고 있다. 다만 실무단에서는 여전히 유리기판 상용화에 대한 고민이 깊은 상황이다. 기술적 난제와 시장의 불확실성이 가장 큰 원인으로 지목된다. 유리는 기존 기판 소재 대비 가공 난이도가 매우 어렵다는 평가를 받는다. 유리 원장을 절단(싱귤레이션)하거나, TGV(유리관통전극) 구멍을 뚫고 도금하는 과정에서 미세 균열이 발생하는 경우 기판 전체에 크랙(깨짐) 현상이 발생하기 쉽다. 때문에 유리기판용 장비를 제조하는 기업들은 고종횡비의 TGV 형성을 위한 기술 개발에 주력하고 있다. 또한 유리기판이 매우 평평하고 매끄러운 성질을 지녀, 기판 위 구리 소재와 쉽게 접착되지 않는다는 문제점이 있다. 두 소재 간 열팽창계수가 달라 고온 환경에서 칩의 불량을 야기하는 경우도 발생할 수 있다. 반도체 업계 한 패키징 사업부문 임원은 "유리기판의 신뢰성 및 호환성 문제가 여전히 해결되지 않았고, 패키징 업계에서 반드시 유리기판을 유일한 해결책으로 정해놓고 기술 개발을 하고 있지도 않은 상황"이라며 "실무단에서 평가하는 수준에 비해 너무나 많은 투자가 검증 없이 진행되고 있는 것 같아 걱정된다"고 말했다. 엔비디아·이비덴 등 주요 기업은 '미온적' 유리기판에 대한 확실한 수요처가 없다는 지적도 제기된다. 전 세계 주요 빅테크 기업들이 유리기판에 대한 샘플 테스트를 진행하는 것은 익히 알려져 있으나, 평가 단계일 뿐 상용화를 확정해 발표한 기업은 아직 없는 상황이다. 또 다른 반도체 패키징 업계 고위 관계자는 "최근 논의해 본 빅테크 기업들은 유리기판을 양산이 아닌 기술 탐색적인 의미에서 접근하는 경향이 강하다"며 "브로드컴·마벨 등이 유리기판 샘플을 요청하기도 하나, 이들 역시 최종 고객사가 아니라 디자인하우스(칩을 대신 설계 및 제작해주는 기업)로서 기술 영역을 넓히려는 의도"라고 설명했다. 실제로 AI 반도체 시장의 핵심 기업들은 유리기판에 미온적인 태도를 취하고 있다. 대표적인 사례가 일본 이비덴이다. 현재 이비덴은 엔비디아의 고성능 AI 가속기에 사용되는 반도체 기판의 90% 가량을 공급 중인 회사다. 그만큼 엔비디아의 기술적 변화에 민감할 수 밖에 없다. 그럼에도 이비덴은 유리기판에 대한 구체적인 상용화 로드맵을 제시하지 않고 있다. 현재 초기 샘플 단계에서 연구개발만을 진행 중인 것으로 알려졌다. 앞선 관계자는 "AI 시장을 주도하는 엔비디아가 유리기판을 크게 고려하지 않고 있다. 만약 상용화에 적극적으로 나섰다면 이비덴에도 개발 압력을 넣었을 것"이라고 말했다. 대신 엔비디아는 기존 2.5D 패키징에 유리 인터포저를 채용하는 'CoPoS(칩-온-패널-온-서브스트레이트)' 기술을 준비 중이다. 2.5D 패키징은 반도체와 기판 사이에 얇은 막 형태인 인터포저를 삽입해 칩 성능을 높이는 기술이다. 기존에는 유기재료가 쓰였으나, TSMC는 이를 유리 패널로 대체해 대형 패키징을 구현할 계획이다. 양산 목표 시점은 이르면 오는 2028년이다. 성장 잠재력 높다지만…"실제 시장성 따져봐야" 유리기판이 지닌 시장성에 대해서도 의견이 엇갈린다. 유리기판이 AI 반도체 업황과 맞물려 폭발적인 성장세를 기록할 것이라는 전망과 실제 수요는 초고성능 분야에 국한되기 때문에 시장 규모 자체가 크지 않을 것이라는 비판이 동시에 나온다. 기판업계 한 관계자는 "반도체 패키지 시장 규모 자체를 10조~20조원 수준으로 추산하는데, 유리기판이 이 중 10%의 비중을 차지한다면 1조원대 시장을 두고 국내 주요 기업들이 경쟁하게 되는 상황"이라며 "국내 업계에서 유독 과열 양상을 보이고 있다"고 말했다. 반도체 전문 시장조사업체 욜(Yole) 그룹도 유리기판이 기판 시장 전체를 대체하는 것이 아닌, 고성능 제품에만 우선 적용될 것으로 보고 있다. 욜 그룹은 오는 2028년 고성능 IC(집적회로) 기판 시장 규모가 약 40조원에 달할 것으로 전망하면서, 유리기판은 580억원으로 0.14%의 비중을 차지할 것으로 분석했다. 유리기판 시장이 성장 잠재력을 지니고는 있으나, 단기간 내 급격한 성장세를 이뤄내기에는 무리가 있다는 의견으로 풀이된다. 유리기판 관련 장비업체 대표는 "유리기판에 대한 의구심이 당연히 있을 수 있으나, 기술 개발 및 시장 상황에 따라 급격히 대중화될 가능성도 배제할 수는 없다"며 "새로운 기술에 대한 검증은 반드시 필요하며, 현재로선 유리기판의 성공 가능성을 5대5 정도로 보고 있다"고 말했다.

2025.11.18 15:59장경윤

리사 수 AMD CEO "MI355 GPU 양산 예정대로 진행중"

리사 수 AMD 최고경영자(CEO)는 4일(미국 현지시간) 3분기 실적발표 이후 진행된 컨퍼런스 콜에서 "인스팅트 MI355 GPU 가속기 양산이 계획대로 진행되고 있으며, 차세대 MI450 시리즈도 내년 하반기부터 차질 없이 대량 생산할 것"이라고 밝혔다. 올 3분기 AMD 실적 중 데이터센터 부문은 43억 4천100만 달러(약 6조 2천704억원)로 전년 대비 22% 늘었다. 서버용 에픽 프로세서와 인스팅트 GPU 모두 두 자릿수 성장을 기록하며 실적을 견인했다. 리사 수 CEO는 "MI355 GPU 수요가 급증한 가운데 AI 연산 수요 확대로 일반 서버용 프로세서 판매도 늘고 있다. 현행 5세대 에픽 프로세서 뿐만 아니라 4세대 에픽 프로세서 판매량도 호조"라고 설명했다. 지난 10월 중순 미국 캘리포니아 주 새너제이에서 열린 'OCP 글로벌 서밋'에서 공개한 '헬리오스 AI 랙'과 관련해 "헬리오스는 성능, 전력 효율, 신뢰성 등 모든 면에서 높은 경쟁력을 갖췄고 초기 고객들은 대부분 랙 단위의 완전한 시스템 솔루션을 채택할 것"이라고 설명했다. AMD는 지난 10월 초 발표된 오픈AI와 협업에 따라 내년 하반기부터 1GW(기가와트) 규모 GPU 클러스터를 구축 예정이다. 리사 수 CEO는 "주요 클라우드 서비스 공급자와 공급망, 전력 확보 문제를 조율중이며 오픈AI 뿐만 아니라 오라클 클라우드, 메타, 미국 에너지부 등 다양한 대형 고객사와 협력을 확장하고 있다"고 설명했다. 이어 "이를 바탕으로 2027년 경에는 수십억 달러 규모의 AI GPU 매출을 달성할 수 있을 것"이라고 설명했다. AMD가 중국 시장을 겨냥해 개발한 인스팅트 MI308 GPU는 올 상반기 미국 정부의 수출 규제에 직면해 현재 수출 가능 여부가 불투명하다. 리사 수 CEO는 "일부 물량에 대한 수출은 승인을 받았지만 불확실성이 이어지고 있어 4분기 실적 전망에서는 제외됐다. 중국 시장 내 수요와 규제 상황을 주시하고 있는 상황"이라고 말했다.

2025.11.05 10:03권봉석

AMD, 3분기 영업이익 1.7조... 분기별 기준 역대 최고치

AMD가 4일(미국 현지시간) 올 3분기 실적을 공개했다. 매출은 92억 달러(약 13조 2천940억원), 영업이익은 12억 달러(약 1조 7천340억원) 수준으로 역대 최고치를 기록했다. AMD에 따르면 3분기 매출은 전년 동기(67억 9천만 달러) 대비 36%, 영업이익은 전년 동기(7억 7천100만 달러) 대비 61% 늘어났다. 데이터센터 부문 매출은 전체 매출의 45% 가량이며 AI와 고성능 컴퓨팅(HPC) 시장의 수요 확대가 실적 상승을 견인했다. 리사 수 AMD 최고경영자(CEO)는 "AI와 고성능 컴퓨팅 전반에서 폭넓은 수요가 이어지며 기록적인 분기 실적을 달성했다"며 "데이터센터와 클라이언트, 게이밍 제품군 전반에서 강력한 성장세를 보였다"고 말했다. 에픽(EPYC) 프로세서와 인스팅트 MI350 시리즈 GPU AI 가속기 등을 담당하는 데이터센터 부문 매출은 43억 4천100만 달러(약 6조 2천704억원)로 전년 대비 22% 늘었다. PC용 라이젠 프로세서, 라데온 GPU를 공급하는 클라이언트 및 게이밍 부문 매출은 전년 대비 73% 늘어난 40억 4천800만 달러(약 5조 8천849억원)다. 지난 해 경쟁사인 인텔이 출시한 데스크톱 PC용 코어 울트라 시리즈2(애로우레이크) 부진으로 인한 반사이익이 이어지고 있다. 반면 임베디드 부문 매출은 전년 대비 8% 줄어든 8억 5천700만 달러로 산업용 시스템 시장의 수요 둔화가 여전히 이어지고 있음을 시사했다. 진 후 AMD 최고재무책임자(CFO)는 "AI 및 고성능 컴퓨팅에 대한 지속적인 투자가 회사의 성장을 뒷받침해 매출과 영업이익 모두 사상 최대치를 기록했다"고 설명했다. 이어 "4분기에도 에픽 프로세서와 인스팅트 가속기를 통해 수익성 중심의 성장을 이어갈 것"이라고 내다봤다. AMD는 올 4분기 매출을 96억 달러(약 13조 8691억원) 수준으로 내다봤다. 이는 전년 동기 대비 25% 늘어난 전망치다. 단 AMD는 "이번 전망치에는 중국 시장용으로 설계된 인스팅트 MI308 GPU 매출은 포함되지 않았다"고 설명했다.

2025.11.05 09:40권봉석

펄어비스, AMD 손잡고 '붉은사막 X AMD 팝업스토어 2025' 개최

펄어비스가 글로벌 고성능 컴퓨팅 선두 기업 AMD와 협력해 오는*11월 1일까지 서울 홍대 DRC에서 '붉은사막 X AMD 팝업스토어 2025'를 운영한다. 이번 팝업은 출시를 앞두고 있는 오픈월드 액션 어드벤처 '붉은사막'을 AMD의 최신 하드웨어 환경에서 직접 플레이할 수 있는 체험형 공간으로 꾸며졌다. 지난 9월 펄어비스와 AMD는 붉은사막의 최적화된 게이밍 경험과 성공적인 글로벌 출시를 위한 전략적 협업을 공식 발표한 바 있다. 이번 팝업스토어는 그 협업의 일환으로 진행된다. 붉은사막의 광활한 오픈월드와 사실적인 전투 장면을 AMD 기술로 구현한 최상의 게이밍 환경에서 직접 체험할 수 있도록 했다. 현장에는 10분짜리 단기 체험존과 현장 접수를 통해 참여할 수 있는 50분 시연존이 마련됐다. 방문객은 대규모 전투와 미션 수행 등 붉은사막의 핵심 콘텐츠를 실제 플레이하며 게임의 몰입감을 직접 느낄 수 있다. 체험용 PC는 AMD 라이젠9 9800X3D 프로세서, 라데온 RX 9070XT 그래픽카드 등 AMD의 최신 고성능 부품으로 구성돼, 높은 해상도와 안정적인 프레임을 유지한 채 시연이 이뤄진다. 또한, 붉은사막의 세계관을 테마로 한 참여형 현장 이벤트도 다채롭게 준비됐다. 방문객은 스탬프 투어, 룰렛, 다트 게임 등 인터랙티브 프로그램에 참여할 수 있으며, 할로윈 시즌 한정 페이스페인팅 이벤트도 함께 진행된다. 포토존에는 붉은사막 주요 캐릭터와 보스를 배경으로 한 촬영 구역이 마련돼 있으며, 현장에는 붉은사막 캐릭터로 분장한 코스프레어 팀도 함께해 분위기를 더했다. 또한 현장에서는 방문객을 대상으로 추첨을 통해 '붉은사막' 한정판 그래픽카드, 장패드, 후드티, 백팩, 담요, 마그넷 등 다양한 굿즈와 경품이 제공된다. 펄어비스 경광호 홍보실 책임리더는 “자체 게임엔진 개발한 붉은사막의 광할한 오픈월드와 실감나는 전투의 경험을 제공하고자 마련했다“며 다채로운 현장 이벤트를 통해 고객접점을 확대겠다“라고 말했다.

2025.10.31 14:25김한준

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석

AMD, 미국 에너지부와 슈퍼컴퓨터 2종 구축

AMD는 27일(미국 현지시간) 미국 에너지부와 협력해 오크리지 국립 연구소(ORNL)에 슈퍼컴퓨터 2종을 구축한다고 밝혔다. AMD는 2026년 초 ORNL과 오라클 클라우드 인프라스트럭처(OCI), HPE와 공동 개발한 AI 슈퍼컴퓨터 '럭스'(Lux)를 배치한다. 서버용 에픽 프로세서, 인스팅트 MI355X AI GPU 가속기와 펜산도 네트워킹 기술을 결합해 구축되며 AI·에너지 연구·신소재·의료·첨단 제조 분야의 발전과 혁신을 가속화하기 위한 최우선 과제들을 해결하는데 활용된다. 슈퍼컴퓨터 '디스커버리'는 AMD가 설계중인 차세대 에픽 프로세서 '베니스'와 인스팅트 MI430X GPU로 구성되며 미국 내에 구축된 시스템에서 국가 데이터와 과학 경쟁력을 보호하는 동시에 AI 모델의 학습·시뮬레이션·배포가 가능하도록 지원한다. ORNL은 2028년부터 디스커버리를 도입하고 2029년부터 사용자 대상 운영을 시작할 예정이다. AMD는 "디스커버리가 가동되면, 이 시스템은 향후 10년을 이끌어갈 미국의 과학, 안보, 혁신 목표를 추진하는 '미국 AI 스택'의 초석이 될 것"이라고 설명했다. 럭스와 디스커버리 슈퍼컴퓨터는 AI 기반 과학 기술 가속화, 국가 경쟁력 강화, 국가를 위한 안전한 소버린 AI 인프라 발전 등 '미국 AI 실행 계획'을 직접 지원한다. 슈퍼컴퓨터 2종 구축에는 정부와 민간 분야를 합해 총 10억 달러(약 1조 4천337억원) 규모 투자가 집행된다. 크리스 라이트 미국 에너지부 장관은 "AMD, HPE와 협력하여 우리는 그 어느 때보다 빠르게 필요한 컴퓨팅 용량을 확보하고, 공동의 혁신을 국가적 강점으로 전환함으로써, 민관 파트너가 함께 할 때 미국이 경쟁을 선도할 수 있다는 것을 증명하고 있다"고 밝혔다. 리사 수 AMD CEO는 "미국 에너지부, 오크리지 국립 연구소와 협력해 미국의 과학 및 혁신 기반을 가속화하게 되어 영광이며 디스커버리와 럭스는 AMD의 고성능 및 AI 컴퓨팅 기술을 바탕으로 과학, 에너지, 의학 등 미국의 핵심 연구 분야를 발전시키고, 민관 협력의 모범 사례가 될 것"이라고 밝혔다.

2025.10.28 10:40권봉석

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

엔비디아 "블랙웰 GPU 미국서 생산 개시"

엔비디아가 블랙웰 GPU를 미국 애리조나 주 피닉스에 있는 TSMC 시설에서도 생산하겠다고 밝혔다. 도널드 트럼프 2기 행정부의 상호관세와 미국 내 반도체 생태계 육성 관련 압박에 대응할 카드를 얻은 것이다. 17일(미국 현지시간) 엔비디아와 TSMC에 따르면, 양사는 미국 애리조나 주 피닉스에 위치한 TSMC 반도체 생산시설(팹)에서 블랙웰 GPU 생산 개시 기념식을 진행했다. 젠슨 황 엔비디아 CEO는 “미국에서 가장 중요한 칩이 미국 땅에서, TSMC의 가장 진보된 팹에서 제조된 것은 역사상 처음 있는 일”이라며 “이는 제조업 부활, 일자리 창출과 세계에서 가장 중요한 반도체 산업을 미국에 가져오기 위한 비전”이라고 평가했다. 레이 창 TSMC 애리조나 법인 CEO는 “애리조나 진출 후 단기간에 미국산 엔비디아 블랙웰 GPU를 생산한 것은 TSMC의 역량을 증명하는 동시에 엔비디아와 현지 협력사, 인력들의 헌신의 성과”라고 밝혔다. 엔비디아가 블랙웰 GPU 생산에 이용하는 TSMC 공정은 5나노급 'N5'를 개선한 'N4P'다. 엔비디아는 공식 블로그에서 “TSMC 애리조나 팹은 향후 4나노 이하 첨단 공정에서 고성능 반도체를 생산할 예정”이라고 설명했다. 엔비디아 경쟁사인 AMD도 TSMC 애리조나 팹 활용을 검토 중이다. AMD는 지난 4월 이 시설에서 서버용 5세대 에픽 프로세서 반도체 구현과 검증을 마쳤다고 밝히기도 했다. 다만 미국에 본사를 둔 주요 반도체 기업이 TSMC 애리조나 팹에서 모든 물량을 생산하기는 어려울 것으로 보인다. 미국 내 제조비용이 대만을 비롯한 아시아 지역 대비 높고, 반도체 설계·패키징 생태계가 상대적으로 덜 성숙하다는 한계가 존재하기 때문이다.

2025.10.19 03:17권봉석

[르포] F1 시뮬레이터에서 보고서까지, 오라클이 보여준 '일하는 AI'

[라스베이거스(미국)=남혁우 기자] F1 경기 중 실시간으로 데이터를 분석하고, 몇 시간 만에 업무 보고서를 완성하는 시대가 열렸다. 오라클은 'AI 월드 2025' 현장에서 인공지능이 더 이상 연구실의 기술이 아닌 실제 현장의 필수 도구로 자리 잡고 있음을 체험을 통해 보여줬다. 13일부터 16일까지(현지시간) 미국 라스베가스 베네시안 컨벤션센터에서 열린 '오라클 AI 월드(Oracle AI World 2025)'가 성황리에 막을 내렸다. 행사 중심 공간인 'AI 월드 허브(AI World Hub)'는 오라클과 주요 파트너사들이 함께 만든 인공지능 혁신의 무대였다. 전시장 곳곳에서는 산업 현장에서의 실제 적용 사례와 다양한 체험형 이벤트가 어우러져 기술과 경험이 공존하는 '살아 있는 AI 생태계'가 구현됐다. AI 월드 허브는 오라클이 전 세계 기업 고객과 함께 구축하고 있는 '현실형 인공지능(Real-World AI)' 전략을 압축해 보여주는 공간이었다. 단순한 발표나 시연을 넘어 관람객들이 직접 보고 만지고 체험하며 인공지능의 실제 가치를 느낄 수 있도록 설계됐다. 입구부터 스포츠, 재무, 공공안전, 클라우드 인프라까지 산업 전반을 망라한 부스들이 줄지어 있었다. 가장 먼저 눈길을 끈 것은 오라클이 직접 마련한 중앙 체험존이었다. '오라클 생성형 AI 서비스'와 'AI 에이전트 스튜디오'를 직접 다뤄볼 수 있도록 구성돼 참가자들은 몇 줄의 자연어 명령만으로 보고서를 요약하거나 고객 이메일 응답 문장을 자동 생성하는 기능을 체험했다. 현장 담당자는 "이제 오라클 AI는 데이터 분석뿐 아니라 실제 비즈니스 워크플로우 속으로 완전히 들어왔다"고 설명했다. 이 외에도 오라클의 클라우드 인프라 기반 데이터 시각화 도구, 오라클 자율운영 데이터베이스를 활용한 AI 모델 학습 기능 등이 시연돼 참가자들의 높은 관심을 모았다. 엑센추어는 '스포츠와 여행에서 구현되는 AI 혁신'을 주제로, 미식축구와 메리어트 호텔의 실제 사례를 중심으로 부스를 꾸몄다. 가장 인기 있는 코너는 미식축구 공을 던져 점수를 얻으면 경품을 받는 이벤트였다. 관람객이 공을 던져 점수판을 맞추면 점수에 따라 즉석 경품이 제공됐다. 이 체험은 실제 NFL 팀이 오라클 클라우드 기반 인공지능을 활용해 경기 데이터를 분석하는 방식을 소개하기 위해 마련된 것이다. 호텔 라운지 바 형태로 꾸며진 다른 구역은, 두 명의 바텐더가 참가자들의 취향에 맞춰 칵테일을 직접 제조했다. 부스 안쪽에는 실제 호텔 로비처럼 소파가 배치돼 관람객들이 잠시 머물며 휴식할 수 있는 공간으로 연출됐다. 이 구역은 엑센추어가 메리어트 인터내셔널과 함께 구축한 인사 관리와 고객 경험 통합 플랫폼을 상징적으로 표현한 것이다. 딜로이트 부스는 올림픽 파트너사라는 특성에 맞춰 부스를 겨울 스포츠 경기장을 연상케 꾸몄다. 참가자들은 가상현실 장비를 착용하고 데이터 분석과 클라우드 연동이 경기 운영에 어떤 변화를 만드는지 직접 경험할 수 있었다. '출발 게이트(Start Gate)'라 불리는 체험존에서는 터치패널을 통해 자신의 기업이 인공지능 도입에 얼마나 준비돼 있는지를 진단할 수 있었다. 또한 국제올림픽위원회(IOC)와 함께 추진 중인 '지속가능한 경기 운영 플랫폼'도 소개돼 AI가 단순한 기술이 아닌 지속가능한 관리 체계의 핵심으로 자리 잡고 있음을 보여줬다. 프라이스워터하우스쿠퍼스(PwC)는 'AI로 움직이는 기업'을 주제로 오라클 클라우드 전사자원관리(ERP)와 생성형 인공지능이 결합된 실제 업무 자동화 시나리오를 선보였다. 관람객들은 재무 보고서 자동 생성, 결산 주기 단축, 리스크 분석 등의 과정을 눈으로 확인할 수 있었다. '책임 있는 인공지능(Responsible AI)' 코너에서는 참가자가 의사결정을 내리면 그에 따른 윤리적·재무적 리스크를 시뮬레이션으로 보여주는 체험형 게임이 마련됐다. PwC 관계자는 “AI는 단순한 효율 도구가 아니라, 윤리와 규제가 함께 가야 하는 비즈니스 파트너”라고 강조했다. KPMG는 '인공지능 보증 연구소(AI Assurance Lab)'를 중심으로, 신뢰와 투명성을 기반으로 한 AI 구현 전략을 전시했다. 참가자들은 데이터 검증, 모델 감사, 규제 대응 시뮬레이션을 직접 체험하며 AI 감사를 수행하는 '설명 가능한 인공지능(XAI)' 시스템을 확인할 수 있었다. 또한 부스 내 협업존에서는 참가자들이 자신들의 조직 데이터를 바탕으로 'AI 리스크 맵'을 만들어보는 실습 세션도 진행돼 실무 담당자들의 참여가 이어졌다. 기술 파트너사들의 체험 부스도 관람객들의 발길을 끌었다. 엔비디아는 오라클 클라우드 인프라 위에서 실행되는 'xAI' 체험존을 운영, GPU 연산이 인공지능 학습 속도를 어떻게 가속화하는지를 실시간으로 보여줬다. 참가자들은 생성형 모델이 학습되는 과정을 직접 확인하며 오라클과 엔비디아 협업의 기술적 시너지를 체감했다. AMD는 참가자의 사진을 촬영한 뒤 AI을 통해 배경·조명·표정을 자동 보정해 즉석 인물 사진을 완성하는 체험 이벤트를 진행했다. 행사장 한쪽에서는 차세대 반도체 기반의 에지 AI 처리 기술이 소개돼 전문가들의 관심을 끌었다. 오라클 부스 안쪽에서는 '오라클 레드불 레이싱 시뮬레이터'가 가장 큰 인파를 모았다. 실제 F1 차량의 조종석을 본뜬 장비에 앉으면, 오라클 클라우드 인프라 위에서 구현된 실시간 주행 데이터 분석 결과가 바로 화면에 나타났다. 주행 중 속도, 타이어 마모, 회전각 등 수천 개의 데이터를 즉시 시각화하며 참가자들은 단순한 레이싱이 아닌 '데이터 기반 의사결정'의 원리를 직접 경험할 수 있었다. 이와 함께 행사장 외부 전시존에는 테슬라의 사이버트럭이 경찰 지휘 차량 콘셉트로 등장했다. 차량 후면에는 감시를 위한 드론이 탑재돼 있었다. 오라클 측은 오라클 공공안전 플랫폼과 연동돼 'AI 기반 도시 대응 시스템'을 상징한 것이라며 AI 기술이 도시의 안전과 공공서비스까지 확장되고 있음을 상징적으로 보여준 것이라고 소개했다. 행사장 입구에는 '야드(YARD)'라 불리는 라이브 공연장이 설치돼, 기술 전시회와 음악 축제가 공존하는 독특한 분위기를 연출했다. 참가자들은 커피나 음료를 즐기며 라이브 밴드와 DJ 공연을 감상했고 네트워킹과 휴식을 동시에 즐길 수 있었다. 단순한 컨퍼런스를 넘어 'AI가 일상과 문화를 연결한다'는 오라클의 철학이 공간 전체에 묻어났다.

2025.10.19 00:57남혁우

오라클, AMD AI칩 5만개 도입...AI 슈퍼클러스터 협력 확대

[라스베이거스(미국)=남혁우 기자] 오라클이 AMD와 손잡고 초대형 인공지능(AI) 인프라 구축에 나선다. 14일(현지시간) 오라클은 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 AMD와의 파트너십 강화를 발표했다. 이를 기반으로 2026년 3분기부터 AMD의 차세대 AI칩 '인스팅트 MI450' 시리즈 GPU 5만 개를 탑재한 AI 슈퍼클러스터를 오라클 클라우드 인프라스트럭처(OCI)에 도입할 예정이다. 이번 협력은 양사가 지난 수년간 이어온 클라우드 및 컴퓨팅 기술 공동개발의 연장선이다. 오라클은 이미 2024년부터 AMD '인스팅트 MI300X' GPU를 적용한 OCI 인스턴스를 운영 중이며 차세대 'MI355X' GPU 기반 컴퓨트 서비스도 일반 제공을 시작했다. 양사는 이를 기반으로 2027년 이후까지 GPU 규모를 확대하고 제타스케일(zetascale) OCI 슈퍼클러스터로 확장해 최대 13만1천여 개 GPU를 운영할 계획이다. 오라클과 AMD는 최근 대형 언어모델(LLM)과 생성형 AI의 폭발적인 성장세로, 기존 AI 클러스터 한계를 넘어선 초대형 학습 인프라 구축이 필수적이라고 강조했다. 오라클의 신규 AI 슈퍼클러스터는 AMD의 '헬리오스(Helios)' 랙 아키텍처를 기반으로 설계됐다. 여기에는 AMD '인스팅트 MI450' GPU, 차세대 AMD '에픽(EPYC)' 중앙처리장치(코드명 베니스), AMD '펜산도' 네트워크 칩(코드명 불카노)이 결합돼 수직 통합형 구조를 이룬다. 포리스트 노로드 AMD 데이터센터 솔루션 부문 부사장은 "AMD와 오라클은 개방적이고 최적화된 AI 클라우드를 통해 차세대 AI 학습과 배포 속도를 가속화하고 있다"고 강조했다. AMD의 '인스팅트 MI450' GPU는 최대 432GB의 HBM4 메모리와 초당 20TB의 메모리 대역폭을 제공해, 이전 세대 대비 50% 더 큰 AI 모델을 메모리 내에서 직접 학습·추론할 수 있다. 또한 72개의 GPU가 밀집된 액체냉각형 랙 구조와 800Gbps급 초고속 네트워킹을 통해 성능 효율과 에너지 절감을 동시에 실현한다. AMD의 오픈소스 소프트웨어 스택 'ROCm'도 OCI 환경에서 완전 지원돼, 개발자들은 기존 AI 및 고성능컴퓨팅(HPC) 워크로드를 손쉽게 이전하거나 최적화할 수 있다. 업계는 이번 협력이 오라클의 클라우드 인프라 경쟁력을 강화하고, AMD가 데이터센터용 GPU 시장에서 영향력을 넓히는 계기가 될 것으로 전망하고 있다. 오라클 마헤시 티아가라잔클라우드 인프라 부사장은 "고객들은 세계에서 가장 복잡한 AI 애플리케이션을 구축하고 있다"며 "AMD의 최신 프로세서 혁신과 OCI의 보안성, 유연성을 결합해 최적의 가격 대비 성능을 제공할 것"이라고 말했다.

2025.10.15 18:06남혁우

AMD, OCP 서밋서 메타 오픈랙 기반 '헬리오스' 공개

AMD는 15일 미국 캘리포니아 주 새너제이에서 진행중인 'OCP 글로벌 서밋'에서 메타가 제안한 '오픈랙 와이드' 폼팩터를 적용한 '헬리오스 AI 랙'을 공개했다고 밝혔다. 메타는 특정 회사가 아닌 다양한 제조사와 협력해 구축할 수 있는 개방형 AI 하드웨어 구조 '오픈랙'을 개발해 오픈 컴퓨트 프로젝트에 기여하고 있다. AMD가 공개한 헬리오스 AI 랙은 오픈랙 와이드 폼팩터를 토대로 OCP DC-MHS, UA링크, 울트라 이더넷 컨소시엄 아키텍처 등 개방형 표준을 통합했다. 퀵 디스커넥트 구조로 액체 냉각을 구현했고 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 내장 AI GPU 가속기는 인스팅트 MI450 기반으로 HBM4 메모리는 31TB, FP4 연산성능 2.9엑사플롭스, FP8 연산 성능 1.4엑사플롭스 연산 성능을 확보 예정이다. 포레스트 노로드 AMD 데이터센터 솔루션 그룹 총괄부사장은 "개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심"이라고 밝혔다. 이어 "AMD 인스팅트 GPU, 에픽 CPU와 개방형 패브릭을 결합한 헬리오스 AI 랙은 차세대 AI 워크로드를 위한 기반을 마련할 것"이라고 설명했다.

2025.10.15 09:36권봉석

AMD-인텔 x86 동맹, Arm 공세 속 '표준화'로 반격

지난 해 10월 레노버 연례 행사 '테크월드 2024' 기간 중 공식 출범한 'x86 생태계 자문 그룹'이 결성 1년을 맞았다. 인텔과 AMD가 결성하고 이해관계를 지닌 여러 회사가 참여한 이 자문 그룹은 x86의 호환성과 확장성을 유지하기 위해 만들어졌다. 자문 그룹 결성 당시 인텔과 AMD는 "AI 워크로드, 칩렛(Chiplet) 설계, 3D 패키징, 시스템 아키텍처의 진화가 가속화되는 상황에서 x86의 역할은 오히려 더 중요해지고 있다"고 강조했다. 양사는 13일(이하 미국 현지시간) x86 생태계 자문 그룹 결성 1주년을 맞아 그간 성과와 향후 운영 방향을 공개했다. Arm과 리스크파이브(RISC-V) 등 x86 대체재 도전이 거센 가운데, 이번 발표는 일관성을 유지하고 파편화를 막기 위한 시도로 읽힌다. 인텔·AMD 외에 주요 업체들 자문위 참여 x86 생태계 자문 그룹은 인텔·AMD 두 회사가 만드는 PC·서버·엣지용 프로세서에서 구동되는 x86 명령어의 표준화를 강화하기 위한 목적으로 결성됐다. 양사 이외에 델테크놀로지스, HP, 레노버, 마이크로소프트, 구글, 메타, 오라클, 레드햇 등 주요 하드웨어·소프트웨어 기업이 모두 참여했다. 젠슨 황 엔비디아 CEO도 "x86은 엔비디아의 핵심 파트너이며, PC와 워크스테이션, 데이터센터에서 여전히 중요한 생태계 기반"이라고 언급하며 지지 의사를 표명한 바 있다. x86 명령어 공동 확장... 벡터 연산 명령어 단일화 자문 그룹 결성 이후 두 달 만에 팻 겔싱어가 인텔 CEO에서 물러났지만 자문 그룹의 활동은 지속되고 있다. 양사는 x86 명령어 확장을 공동으로 추진할 예정이다. 기존의 복잡한 인터럽트 모델을 단순화하고 지연 시간을 줄이는 새로운 인터럽트 처리 구조인 'FRED' 등을 공동 구현할 예정이다. AI 처리에 필요한 대량 벡터 데이터를 처리할 수 있는 명령어인 AVX10도 공동 개발한다. 이 명령어를 PC와 워크스테이션, 서버에서 같은 구조로 실행되도록 하고 개발자들에게 일관된 개발 환경을 제공할 예정이다. "메모리 보호 기술 '체크태그', 내년 상용화" 양사는 x86 기반 컴퓨터의 메모리 관련 보안을 향상할 수 있는 기술인 '체크태그'(ChkTag)도 공동 개발 예정이다. 최근 발생하는 보안 취약점 중 상당수가 메모리 관련으로 발생한다는 점에 주목했다. 이 기술의 목적은 메모리 공간에 일종의 꼬리표(태그)를 붙여 프로그램이 메모리에 접근할 때 이를 확인(체크)하는 것이다. 프로그램이 지정된 범위를 넘어 잘못된 공간에 접근할 경우 이를 차단할 수 있다. 지금까지 이런 문제를 소프트웨어에서 처리하려면 처리 시간이 늘어나 실제 서비스에 적용하기 어려웠다. 그러나 체크태그 기술은 이를 하드웨어 수준에서 빠르고 효율적으로 검사할 수 있도록 설계됐다. 양사는 올 연말까지 체크태그 기술의 상세한 구조를 공개하고, 마이크로소프트 등 주요 운영체제 공급사와 함께 2026년까지 이를 상용화할 예정이다. 지난 해 Arm 서버 지출 비용 2.6배 이상 증가 양사는 지난 해 생태계 자문 그룹 결성 당시 “x86은 지난 40년 이상 현대 컴퓨팅 환경의 토대가 됐고 세계 데이터센터와 PC가 가장 선호하는 아키텍처가 됐다”고 설명했다. 그러나 최근 비(非)x86 프로세서 기반 서버 성장세는 x86을 넘어섰다. 시장조사업체 IDC에 따르면 지난해 주요 클라우드 서비스 공급자 등이 x86 서버를 구매하는 데 쓴 돈은 548억 달러(약 78조6천100억 원)로 2023년 대비 59.9% 늘어났다. 반면 Arm 등 비 x86 기반 서버 구매에 쓴 예산은 225억 달러(약 32조2천760억 원)로 2023년 대비 2.6배 이상 늘어났다. 구글 클라우드, 아마존웹서비스(AWS), 오라클, 마이크로소프트 등 주요 클라우드 서비스 공급자도 Arm IP 기반 자체 프로세서로 서버를 구성하고 있다. 퀄컴도 자체 설계한 Arm IP 호환 CPU를 앞세워 데이터센터 서버 시장 진출을 선언한 상황이다. 명령어·보안 체계·구현 방법은 표준화, 성능은 '경쟁' 이런 상황에서 x86 생태계 자문 그룹의 목표는 매우 명확하다. x86 명령어와 이를 실제로 실행하고 구현하는 방법의 파편화를 줄이는 한편 생태계의 일관성을 유지하겠다는 것이다. 향후 양사는 x86 명령어와 보안 체계는 일관성 있게 공동 개발해 운영체제와 소프트웨어 개발자의 부담을 덜 것으로 보인다. 다만 이를 처리하는 코어 울트라·라이젠(PC용), 에픽·제온(서버용) 등 프로세서의 속도와 효율 면에서 양사의 경쟁은 지속될 전망이다. 양사는 “앞으로 전략적 소프트웨어 공급 업체를 파트너로 영입하는 한편 고객에게 실질적인 이점을 제공할 수 있는 새로운 명령어 확장/추가 검토, x86 아키텍처의 장기적인 안정성과 예측 가능성 강화 등을 추진할 것”이라고 밝혔다.

2025.10.15 07:54권봉석

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

젠슨 황 엔비디아 CEO가 최근 오픈AI와 AMD가 체결한 대규모 파트너십에 대해 "기발하지만 놀라운 결정"이라고 평가했다. 오픈AI는 지난 6일(이하 현지시간) AMD와 향후 다년간 수 조원 규모의 GPU 공급 계약을 체결하는 한편 도입 성과에 따라 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)를 확보했다. 양사의 계약은 AI 반도체 시장에서 엔비디아의 절대적인 우위를 위협하는 시도로 평가된다. AMD는 그동안 엔비디아에 뒤처진 AI 칩 경쟁에서 반전을 노려왔으며, 주요 클라우드 사업자들도 자체 칩 개발로 경쟁 구도를 강화하고 있다. 젠슨 황 CEO는 8일 CNBC 인터뷰에서 "AMD의 차세대 제품은 아직 완성되기 이전의 제품이지만 이런 상황에서 회사 지분의 10%를 내줬다는 것이 놀랍다"며 "양사의 발상은 독창적이고 한편으로 영리하다"고 평가했다. 젠슨 황 CEO는 인터뷰에서 "오픈AI 관련 투자에서 남는 유일한 아쉬움은 더 많은 금액을 투자하지 못했던 것"이라고 말했다. 젠슨 황 CEO는 이어 지난 9월 말 오픈AI에 향후 10년간 최대 1천억 달러(약 137조원)를 투자하기로 한 계약을 예로 들며 "엔비디아의 투자는 오픈AI에 직접 판매할 수 있는 완전히 다른 방식"이라고 설명했다. 오픈AI는 엔비디아 GPU를 활용한 전력소모 10GW(기가와트) 규모 시스템을 구축할 예정이다. 젠슨 황 CEO는 "이는 최대 500만개의 GPU를 활용하는 수준이며 오픈AI가 GPU 구매를 위한 자금을 유상증자나 융자로 조달할 것"이라고 말했다. 한편 그는 이날 일론 머스크의 인공지능 스타트업 xAI의 자금 조달에도 엔비디아가 참여해 20억 달러(약 2조 8천434억원)를 투자할 것이라고 확인했다. 젠슨 황 CEO는 "이번 기회를 매우 기대하고 있으며 일론 머스크의 사업에는 대부분 동참하고 싶다"고 밝혔다.

2025.10.09 09:44권봉석

오픈AI, AMD GPU 대규모 도입키로...엔비디아 독주 저지

오픈AI가 AMD과 수조원 규모의 GPU 공급 계약을 체결했다. AMD 지분 10% 매입 옵션이 포함된 초대형 계약으로, AMD 주가는 약 24% 뛰어올랐다. 필라델피아 반도체지수 역시 3% 넘게 급등했다. 6일(현지시간) 오픈AI는 수년에 걸쳐 AMD의 인스팅트(Instinct) MI450 GPU를 총 6기가와트(GW) 규모로 도입한다고 밝혔다. Instinct MI450은 차세대 AMD GPU 제품으로 내년 하반기부터 오픈AI에 공급이 시작될 예정이다. 사실상 엔비디아가 AI GPU 시장에서 독주하고 있는 가운데, AMD가 오픈AI와 협력을 통해 새로운 경쟁 구도를 갖춘 점이 눈길을 끄는 부분이다. 특히 오픈AI가 AI 컴퓨팅 인프라 확장에 나서면서 프로세서 공급망 다변화에 나선 결정이란 점이 주목할 점이다. 오픈AI는 성과에 따라 AMD 보통주 최대 1억6천만 주를 단계적으로 매입하는 권리를 갖게 되며, 이는 AMD 총 지분의 약 10% 수준으로 예상된다. AMD의 리사 수 CEO는 “이번 파트저십은 AMD와 오픈AI의 강점을 결합해 세계에서 가장 야심 찬 AI 구축을 가능하게 하고 AI 생태계를 발전시키는 진정한 윈윈 협력”이라고 말했다. 샘 알트먼 오픈AI 공동 창립자 겸 CEO “협약은 AI의 잠재력을 실현하기 위해 필요한 컴퓨팅 역량을 확보하는 중대한 단계”라며 “AMD의 고성능 칩 기술은 우리가 AI 발전 속도를 높이고 더 많은 사람에게 첨단 AI의 혜택을 빠르게 제공할 수 있도록 도와줄 것”이라고 밝혔다.

2025.10.07 08:38박수형

AMD, 코히어와 소버린 AI 강화 글로벌 AI 협력 확대

AMD는 보안 중심 엔터프라이즈 AI 기업인 코히어(Cohere)와의 글로벌 협력을 확대한다고 현지시간 24일 발표했다. 코히어 고객사들은 회사 전체 AI 제품군을 AMD 인스팅트 GPU 기반 인프라에서 사용할 수 있다. 이를 통해 전 세계 기업 및 소버린 AI 프로젝트는 성능과 총 소유 비용(TCO)에 대한 목표를 달성할 수 있는 더 많은 선택지를 확보하고, AI 계획의 현실화를 앞당길 수 있게 된다. 또한, AMD는 코히어의 노스 플랫폼을 자사의 내부 엔터프라이즈 AI 포트폴리오에 통합할 계획이다. 이에 따라 코히어의 기술은 AMD 내부 및 엔지니어링 AI 워크로드의 핵심 요소로 활용된다. 닉 프로스트 코히어 공동 설립자는 "AMD 인스팅트 GPU에서 코히어의 여러 모델과 노스를 사용할 수 있게 되면서 AMD와의 관계를 더욱 확장하게 되어 기쁘다”며 “공공 및 민간 부문 고객들이 우리의 기본 모델 및 보안 최적화된 엔터프라이즈 AI 제품 전체를 AMD 인프라에서 실행할 수 있게 되면, 코히어의 AI 배포 방법이 훨씬 더 큰 유연성을 갖게 될 것”이라고 말했다. 이어 "AMD는 AI 인프라를 통해 매력적인 TCO를 제공하기 때문에 전 세계 소버린 AI 프로젝트의 훌륭한 선택지가 될 것"이라고 덧붙였다. 밤시 보파나 AMD AI 부문 수석 부사장은 “코히어의 풀스택 AI 솔루션이 AMD 인스팅트 인프라에 배포할 수 있게 되면서 기업과 정부는 뛰어난 성능, 효율성 및 메모리 용량 등을 바탕으로 AI를 확장할 수 있게 되었다”며 “AMD의 AI 컴퓨팅 플랫폼을 통해 고객들은 총 소유 비용과 에너지 효율이라는 두 가지 이점을 동시에 누릴 수 있어 기업과 정부가 AI 혁신을 가속화하는 데 큰 이점이 될 것"이라고 말했다.

2025.09.25 16:58전화평

한국레노버, AI 강화 일체형 PC '아이디어센터' 신제품 출시

한국레노버가 24일 온디바이스 AI 성능을 강화한 일체형 PC 신제품 '아이디어센터 AIO 27AKP10'을 국내 출시했다. 아이디어센터 AIO 27AKP10은 27인치, 풀HD(1920×1080 화소) IPS 디스플레이를 내장했다. 화면주사율은 최대 100Hz, 최대 밝기는 300니트이며 sRGB 색공간을 99% 충족한다. 젠4(Zen 4) 아키텍처 기반으로 16 TOPS(1초당 1조번 연산)급 2세대 신경망처리장치(NPU)를 결합한 AMD 라이젠 200 프로세서를 이용해 화상회의시 배경 흐림과 주위 소음 제거 등으르 실행한다. DDR5 메모리는 최대 32GB까지, PCI 익스프레스 SSD는 최대 1TB까지 선택 가능하며 냉각 소음을 조절하는 저소음 기능을 탑재했다. 화면 하단에 출력 3W급 하만 스테레오 스피커를 내장해 유튜브와 OTT 등 콘텐츠 감상시 별도 스피커 연결이 필요 없다. 화면 각도는 -5도에서 15도까지 20도 범위 내에서 조절 가능하다. 무상보증기간은 구입 후 1년간이다. 기간 중 문제 발생시 엔지니어가 방문 수리를 진행하며 현장 수리 불가능시 서비스 센터 입고 후 배송 절차를 진행한다. 색상은 클라우드 그레이 한 종류이며 쿠팡을 포함한 온라인몰에서 판매한다. 가격은 89만원부터.

2025.09.24 09:50권봉석

한국레노버, 29일 휴대형 게임PC '리전 고2' 출시

한국레노버가 오는 29일 휴대형 게임PC '리전 고2'를 국내 출시한다. 리전 고2는 AMD 라이젠 Z2 익스트림 프로세서와 라데온 890M GPU로 성능을 강화했다. LPDDR5X 메모리는 최대 32GB까지, PCI 익스프레스 4.0 SSD는 1TB까지 선택 가능하며 마이크로SD카드로 저장 용량을 최대 2TB까지 확장할 수 있다. 8.8인치, 1920×1200 화소 퓨어사이트 OLED 디스플레이는 화면주사율 최대 144Hz, 밝기는 최대 500니트이며 AMD 플루이드 모션 프레임, 라데온 슈퍼 레졸루션 기술로 부드러운 화면 전환이 가능하다. 내장 배터리 용량은 1세대 제품 대비 50% 늘어난 74Whr로 레노버 통합 게임 소프트웨어 '리전 스페이스'로 성능과 배터리 최적화가 가능하다. 이용 중 실수로 제품 파손시 1회 무상수리 가능한 '우발적 손상 보장'(ADP) 서비스를 구입 후 1년간 지원한다. 전문 엔지니어와 전화, 이메일, 채팅 등을 통해 솔루션을 제공하는 '프리미엄 케어 서비스'도 기간 중 제공된다. 색상은 이클립스 블랙 한 종류이며 가격은 기본 모델 기준 159만 9천원이다. 22일 오전 11시 지마켓 라이브방송 채널 'G라이브'에서 예약 판매를 진행하며 참가시 마우스를 추가 제공한다.

2025.09.22 09:57권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프, 주(州) AI 규제 무력화 시도 ‘제동’…정치권·시민단체 총반발

[ZD브리핑] 삼성·LG 연말 인사 임박…‘2인 체제’ 변화부터 조직 개편까지 초미의 관심

[이기자의 게임픽] "엔씨, 달라졌다"...'아이온2'로 신뢰회복·흥행 모두 잡아

중고폰 샀다가 낭패…불량·미배송 피해 줄줄이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.