• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU 가속'통합검색 결과 입니다. (5건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

Arm "엣지 AI, 사용자 만족도 좌우...웨어러블·IoT에도 필수"

[라스베이거스(미국)=권봉석 기자] "클라우드에만 의존하는 AI는 인터넷 연결 속도나 전파 감도에 많은 영향을 받는다. 사용자는 인터넷 연결이 문제인 상황에서도 AI 기능에 문제가 있다고 여길 수 있다. 지연 시간이나 비용 면에서도 효율적이지 않다." 7일(이하 현지시간) 오전, 라스베이거스 베니션 엑스포 내 미팅룸에서 기자단과 마주한 크리스 버기(Chris Bergey) Arm 엣지 AI 사업부문 총괄 수석부사장(EVP)은 '엣지 AI가 왜 필요한가'라는 질문에 이렇게 답했다. 크리스 버기 총괄 수석부사장은 이어 "Arm은 CPU 기반 AI 가속 명령어인 SME2, Armv9 명령어 체계, CPU·GPU·NPU 가속 등 다양한 기술을 통해 스마트폰뿐 아니라 웨어러블과 IoT 기기까지 엣지 AI를 지원하고 있다"고 설명했다. "엣지 AI, 클라우드 AI 회사들이 더 관심 많다" 크리스 버기 총괄 수석부사장은 이날 "엣지 AI를 일반 소비자보다 더 적극적으로 도입하고 싶어하는 것은 오히려 클라우드 기반 AI 회사들"이라고 설명했다. 비용, 성능, 사용자 경험 측면에서 엣지 AI가 주는 이점이 더 크기 때문이다. 그는 6일 레노버 테크월드 기조연설에서 Arm 고객사 수장인 크리스티아노 아몬 퀄컴 CEO의 발언도 인용했다. 당시 크리스티아노 아몬 퀄컴 CEO는 "엣지 데이터를 더 많이 가진 사람이 경쟁에서 이길 것"이라고 발언했다. 크리스 버기 총괄 수석부사장은 "나도 크리스티아노 아몬 CEO의 말에 동의한다. 결국 AI의 종착점은 엣지와 클라우드를 결합한 하이브리드 모델이 될 것이고, 클라우드 기반 기업일수록 오히려 엣지 AI에 관심이 많다"고 설명했다. "CPU 기반 AI 가속 명령어 'SME2', 실시간 처리에 강점" 크리스 버기 총괄 수석부사장은 "Arm은 CPU, GPU, 신경망처리장치(NPU)를 모두 활용해 엣지 AI 성능을 극대화하고 있다"고 강조했다. 이어 "CPU에서 실행되는 AI 가속 명령어 'SME2'는 성능 면에서는 NPU에 뒤질 수 있다. 그러나 지연 시간이 짧고 메모리 근접성이 뛰어나 실시간 처리에 강점을 지닌다. 또 큰 AI 워크로드는 NPU로 분산해 처리할 수 있다"고 설명했다. 또 "현재 퀄컴, 미디어텍 등 다양한 제조사가 SME를 지원하는 시스템반도체를 출시했고 앞으로 신제품은 물론 기존 제품에서도 소프트웨어 업데이트를 통해 SME 활용 사례가 늘어날 것"이라고 내다봤다. 그는 Arm이 GPU를 활용한 신경망 가속 기술 개발에도 분명한 계획을 가지고 있다고 말했다. "대부분의 응용프로그램이 AI 기능 구현에 CPU와 GPU만 활용하는 상황이다. GPU를 활용한 AI 가속 기능은 분명히 필요하며, 향후 GPU에 신경망 가속 기능을 통합해 모바일 환경에서도 데스크톱 수준의 AI 가속을 낮은 전력으로 구현할 계획이다." "AI 탑재 웨어러블 기기에도 하이브리드 AI는 필수" 크리스 버기 총괄 수석부사장은 이날 "애플워치 등장 이후 멈춰 있던 시장에 메타와 샤오미 등 다양한 회사가 확장현실(XR) 글래스와 신경 추적 손목밴드 등 다양한 AI 탑재 기기를 출시하며 활력을 불어넣고 있다"며 AI의 중요성을 역설했다. 그는 스마트 글래스를 예로 들며 "이런 웨어러블 기기에도 엣지 AI는 반드시 필요하다"고 설명했다. "스마트 글래스는 충분하지 않은 배터리와 부피·크기 제약 때문에 무작정 성능을 높이기 어렵다. 또 클라우드에만 의존하는 것은 지연시간 면에서 효율적이지 않다. 결국 스마트폰 등 기기와 역할을 분담하는 하이브리드 처리 모델이 필요하다." "Arm CSS, 최적 레시피 고객사에 제공하는 전략적 도구" Arm은 현재 CPU와 GPU, NPU 등 시스템반도체(SoC)의 여러 구성 요소를 한데 묶어 '컴퓨트 서브시스템'(CSS)이라는 형태로 고객사에 제공하고 있다. 크리스 버기 총괄 수석부사장은 "Arm CSS는 Arm이 제공할 수 있는 최고 성능의 CPU와 이를 통한 구현, 제품화 레시피를 제조사(OEM)와 개발자에게 제공하는 전략적 도구"라고 평가했다. 그는 "CSS를 공급받는 고객사는 필요에 따라 CSS 구성 요소 중 CPU나 GPU 등 필요한 요소만 최종 제품에 활용할 수 있다. 이를 통해 가능한 한 많은 회사가 엣지 AI를 구현할 수 있도록 돕고 있다"고 설명했다. "AI 경험, 소비자의 기대치 높이는 역할 할 것" 크리스 버기 총괄 수석부사장은 "AI는 스마트폰을 넘어 거의 모든 기기에 확산되고 있다. 삼성전자가 TV에 AI를 적용해 축구 경기 화질을 개선한 사례처럼 필요성이나 관심을 보이는 사례가 점차 늘어나고 있는 상황"이라고 설명했다. 그는 "터치스크린이 처음 등장했을 때 그랬던 것처럼 AI를 통한 경험은 앞으로 소비자가 기기에 기대하는 기준을 바꾸는 역할을 할 것"이라고 덧붙였다.

2026.01.09 14:00권봉석

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

"엔비디아, 中 겨냥해 저가형 블랙웰 AI칩 출시 예정"

엔비디아가 이르면 6월부터 '블랙웰' 기반의 신규 저성능 AI 반도체를 양산할 계획이라고 로이터통신이 25일 보도했다. 블랙웰은 엔비디아가 출시한 AI 가속기 중 가장 최신 세대의 아키텍처다. 당초 엔비디아는 중국 시장을 겨냥해 '호퍼' 아키텍처 기반의 'H20'을 공급해 왔으나, 최근 미국의 대중(對中) 반도체 수출 규제 수위 강화로 공급이 어려워졌다. 이에 엔비디아는 신규 AI 가속기로 중국 시장을 지속 공략하려는 것으로 풀이된다. 해당 칩은 엔비디아의 'RTX 프로 6000D' GPU를 기반으로 하며, HBM(고대역폭메모리) 대신 최신형 그래픽 D램인 GDDR7를 채용했다. 가격은 6천500~8천 달러 사이로, H20의 가격인 1만~1만2천 달러 대비 크게 낮은 수준이다. 또한 TSMC의 첨단 패키징 기술인 CoWoS(Chip-on-Wafer-on-Substrate)도 활용되지 않는다. CoWoS는 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 2.5D 패키징의 일종이다. 지난해 회계연도 기준으로, 중국은 엔비디아의 전체 매출에서 13%를 차지하는 주요한 시장이다. 엔비디아가 미국의 규제를 피해 새롭게 칩을 설계하는 것은 이번이 세 번째다. 한편 신규 칩의 구체적인 이름은 아직 밝혀지지 않았다. 중국 증권사 GF증권은 '6000D', 또는 'B40'으로 명명될 가능성이 높다고 밝힌 바 있다.

2025.05.25 09:05장경윤

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

눈앞으로 다가온 '피지컬 AI'…CES 2026이 증명했다

[ZD브리핑] 국가대표 AI 1차 탈락팀 발표 예정...새해 행사·정책 일정 잇따라

인텔, 아크 B390 성능 공개 "노트북용 별도 GPU 필요없다"

[르포] 폭설에 얼어붙는 도시…전기차 보기 힘든 홋카이도 가다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.