• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'CPU GPU'통합검색 결과 입니다. (9건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 시총 1위 밀려나…'블랙웰' 악재로 주가 1.8% 하락

세계 최고 인공지능(AI) 반도체 기업 엔비디아가 애플에 시가총액 1위 자리를 내줬다. 18일(현지시간) 미국 나스닥증권거래소에서 엔비디아는 전 거래일보다 1.83달러(1.29%) 내린 140.15달러로 마감했다. 시가총액은 3조4천379억 달러(약 4천788조원)다. 이날 애플은 3.02달러(1.34%) 오른 228.02달러로 거래를 끝냈다. 시총은 3조4천467억 달러로, 엔비디아보다 88억 달러 많다. 엔비디아는 지난 5일 시총 1위에 오른 뒤 13일 만에 2위로 내려왔다. 이날 엔비디아 주가가 하락한 것은 차세대 AI 칩 '블랙웰' 출시가 미뤄져 실적에 타격을 줄 수 있다는 우려 때문이다. 미국 정보기술(IT) 전문 매체 디인포메이션은 최근 엔비디아의 블랙웰을 서버에 연결하면 과열된다고 보도했다. 지난 3월 블랙웰을 처음 선보인 엔비디아는 2분기 이를 내놓기로 했으나 결함을 발견해 출시를 미뤘다.

2024.11.19 10:58유혜진

ISC, 차세대 AI칩 테스트 소켓 'WiDER-FLEX' 첫 공개

반도체 부품 기업 아이에스시(ISC)는 이달 4일부터 6일까지 대만 타이베이에서 열린 '세미콘 타이완 2024'에서 최신 AI용 반도체 테스트 소켓을 포함한 다양한 신제품을 공개했다고 11일 밝혔다. '세미콘 타이완 2024'는 대만의 반도체 및 하이테크 산업을 배경으로 약 1천100개 이상의 기업이 참가해 기술력을 선보이는 전시회다. 이 자리에서 아이에스시는 특히 'WiDER-FLEX' 소켓으로 많은 관심을 받았다. 'WiDER-FLEX'는 기존 WiDER 브랜드의 3세대 버전으로, 대형 패키징 전용 테스트 소켓이다. 최근 AI 서버 시장의 확대와 함께 패키징 대형화가 진행됨에 따라 이러한 변화에 맞춘 제품 수요가 급증하고 있다는 점에서 주목받고 있다. 아이에스시 관계자는 "'WiDER-FLEX'는 초대형 사이즈 칩 테스트 시 필요한 작동 범위와 접촉 압력을 기존 제품 대비 30% 이상 개선한 제품"이라며 "특히 생성형 AI를 위한 GPU, CPU, NPU 등의 하이엔드 반도체 테스트에 탁월한 성능을 보여 대만 현지 글로벌 OSAT와 파운드리 담당자들의 높은 관심을 받았다"고 밝혔다. 또한 "현재 글로벌 반도체 시장에서 우월한 위치를 차지하고 있는 대만에서 자사의 기술력을 알릴 수 있게 되어 뜻 깊다"며 "지속적인 연구개발 투자와 증가하는 AI 반도체 테스트 소켓 매출로 계속 성장하는 기업이 되겠다"고 강조했다.

2024.09.11 09:52장경윤

PC AI 성능 측정 벤치마크 프로그램 '긱벤치 AI' 등장

PC와 스마트폰 성능 비교에 가장 흔히 쓰이는 것이 바로 벤치마크 프로그램이다. 통제된 환경에서 서로 다른 회사(혹은 같은 회사) 프로세서나 제품 성능을 수치와 그래프로 가장 잘 비교할 수 있기 때문이다. 예를 들어 CPU 성능 비교에는 마이크로소프트 오피스 기반 자동화된 스크립트로 반응 시간을 측정하는 PC마크나 UL 프로시온을, GPU 성능 비교는 3D마크(3DMark)나 각종 게임에 내장된 벤치마크 모드를 활용할 수 있다. 그러나 지난 해 말부터 등장한 AI PC의 실제 처리 성능을 정확히 측정할 수 있는 소프트웨어는 없었다. 윈도 운영체제 탑재 PC 성능 비교용으로 널리 쓰이는 UL 프로시온 역시 AI 이미지 생성 벤치마크와 AI 컴퓨터 비전 벤치마크를 내장했지만 맥OS는 지원하지 않았다. PC·스마트폰용 프로세서 성능 비교에 널리 쓰이는 '긱벤치'(Geekbench)를 만든 프리미티브랩스는 최근 AI 성능 측정용 벤치마크인 '긱벤치 AI 1.0'을 정식 출시했다. 인텔과 AMD 등 x86 기반 프로세서, 애플 M시리즈와 퀄컴 스냅드래곤 등 Arm 기반 PC에서 보다 폭 넓은 비교가 가능하다. ■ 주요 PC 프로세서, AI 성능 TOPS로 비교 AI 처리 성능에는 다양한 요소가 작용한다. 먼저 CPU 뿐만 아니라 NPU와 GPU가 함께 개입하는데다 FP32(부동소수점, 32비트), FP16(부동소수점, 16비트)나 INT8(정수, 8비트) 등 데이터 정밀도도 영향을 미친다. 여기에 각 운영체제나 프로세서 제조사마다 지원하는 AI 처리용 라이브러리에도 차이가 있다. 인텔은 AI 실행을 위한 자체 라이브러리 '오픈비노'를 제공하며 마이크로소프트 윈도 운영체제는 ONNX 런타임을 지원한다. 애플은 M 시리즈 실리콘에 내장된 NPU를 활용할 수 있는 라이브러리인 코어ML을 이용한다. 지금까지 각 제조사는 NPU 성능을 비교하기 위한 요소로 TOPS(1초 당 1조 번 AI 연산)를 내세웠지만 이는 어디까지나 계산상으로 얻은 값이며 실제 성능을 정확히 반영하기 어렵다. ■ 긱벤치 AI, 폭넓은 운영체제·프로세서 지원 프리미티브랩스가 지난 14일 공개한 긱벤치 AI는 윈도11과 맥OS 등 다양한 운영체제는 물론 인텔, 퀄컴, 애플, AMD가 제공하는 최적화된 라이브러리를 모두 활용한다. 인텔 오픈비노, 마이크로소프트 ONNX, 애플 코어ML을 지원하며 지원 운영체제 역시 윈도와 맥OS로 확대했다. CPU와 NPU 별로 지원하는 라이브러리와 데이터 정밀도를 달리하며 작동 시간을 측정한다. 이를 활용하면 정밀도 별 CPU나 NPU 작동 특성, ONNX 런타임이나 코어ML 등 운영체제 제공 라이브러리 별 특성 비교에도 도움이 될 것으로 예상된다. ■ 소비자와 업계에 TOPS 벗어난 실제 성능 제시 가능 긱벤치 AI 역시 한정된 시나리오에서 성능을 평가한다는 한계를 지녔다. 그러나 프로세서·GPU 제조사가 아닌 제3의 회사가 만든 중립적인 벤치마크 프로그램이 늘어났다는 데 의미가 있다. 오는 9월 인텔 코어 울트라 시리즈2(루나레이크)를 시작으로 이르면 내년 상반기 등장할 스냅드래곤 X 엘리트/플러스 2세대 등이 등장하는 시점에는 AI PC의 성능에 대한 보다 객관적인 비교가 가능해질 것으로 보인다.

2024.08.25 11:53권봉석

CPU·GPU 에너지 사용 100만분의 1로 줄인 '열컴' 나오나

기존 CPU나 GPU가 사용하는 에너지의 100만분의 1만으로도 경로찾기 등 복합한 최적화 계산을 할 수 있는 차세대 열 컴퓨팅 기술이 개발됐다. 인공지능과 딥러닝 등의 확산에 따른 전기 에너지 사용량이 현안으로 부상한 가운데 공개된 혁신적인 컴퓨팅 구동 기술이어서 과학기술계의 관심을 끌었다. KAIST는 신소재공학과 김경민 교수 연구팀이 미국 샌디아 국립연구소와 공동으로 산화물 반도체의 열-전기 상호작용에 기반하는 열 컴퓨팅(Thermal computing) 기술 개발에 성공했다고 26일 밝혔다. 연구팀은 반도체 소자에서 발생하는 열이 CPU의 계산 성능을 떨어뜨리고, 이 열을 처리하는 추가 비용이 발생한다는데 주목했다. 이 같은 문제 해결 방안으로 연구팀은 전기-열 상호작용이 강한 산화나이오븀(NbO₂) 기반의 모트 전이 (Mott transition) 반도체를 눈여겨 봤다. 모트 전이 반도체는 온도에 따라 전기적 특성이 부도체에서 도체로 변하는 전기-열 상호작용이 강한 반도체 소자다. 연구팀은 낮은 열전도도와 높은 비열을 가지고 있는 폴리이미드 기판으로 모트 전이 반도체 소자를 제작했다. 소자에서 발생한 열은 폴리이미드 기판에 저장했다. 저장된 열은 일정 시간 동안 유지돼 시간적 정보 역할을 했다. 또 이 열은 공간적으로도 이웃 소자로 전파되면서 공간적 정보 역할도 했다. 연구팀은 "열 정보를 시,공간적으로 활용해 컴퓨팅을 수행할 수 있었다"며 "CPU나 GPU가 쓰는 에너지 소모량 대비 1백만분의 1 정도만 써도 경로 찾기 등과 같은 복잡한 최적화 문제를 풀수 있었다"고 부연 설명했다. 김경민 교수는 “버려지던 반도체 소자 열을 컴퓨팅에 활용하는 개념을 최초로 제안했다"며 "열 컴퓨팅 기술을 활용하면 뉴런과 같은 신경계의 복잡한 신호도 매우 간단히 구현할 수 있다"고 말했다. 김 교수는 또 고차원의 최적화 문제를 기존의 반도체 기술을 바탕으로 해결할 수 있어 양자 컴퓨팅의 현실적인 대안이 될 수 있다”고 기술의 장점을 강조했다 이 연구는 KAIST 신소재공학과 김광민 박사과정, 인재현 박사, 이영현 박사과정 연구원이 공동 제1 저자로 참여했다. 관련 논문은 재료 분야 국제 학술지 `네이처 머티리얼즈(Nature Materials, Impact factor: 41.2)'(6월18일자)에 게재됐다.

2024.06.26 05:06박희범

"AI PC, 사생활 침해·지연 없는 맞춤형 경험 제공할 것"

[타이베이(대만)=권봉석 기자] AI PC의 핵심은 클라우드에 의존했던 AI 기능을 PC로 가져오는 것이다. 미리 학습된 AI 모델을 내려받아 CPU와 GPU, NPU(신경망처리장치)를 모두 활용해 가동하므로 LTE/5G나 와이파이가 없는 곳에서도 작동한다. 톰 피터슨(Tom Peterson) 인텔 그래픽 및 소프트웨어 아키텍처 부문 펠로우는 지난 주 진행된 '테크투어 타이완' 행사에서 "AI PC는 금융 정보나 건강 정보 등 민감한 정보를 관리하는 한편 이용자 특성을 학습해 맞춤형 비서 서비스를 제공할 수 있다"고 밝혔다. 이어 "금융 정보나 건강 정보 모두 외부에 공개하기 어려운 정보지만 AI PC는 이를 클라우드에 올리는 대신 기기 내에서 자체적으로 처리해 사생활 침해나 유출을 막는다"고 덧붙였다. ■ "AI PC 구현에 CPU·GPU·NPU 모두 중요" 현재 인텔을 포함해 주요 프로세서 제조사가 AI 처리 성능 기준으로 NPU TOPS(1초당 1조 번 연산)를 내세운다. 이는 모든 AI 처리가 NPU만 활용한다는 인식을 줄 수 있지만 실제는 이와 다르다. 톰 피터슨 펠로우는 지난 5월 인텔 자체 조사 결과를 토대로 "올해 AI 엔진을 구동하는 장치 비중은 NPU가 25%, GPU가 40%, CPU가 35%지만 내년에는 NPU 비율이 30%대로 다소 상승, CPU 비율은 30%로 다소 변화가 있을 것"이라고 전망했다. 그는 "AI 응용프로그램의 작동 방식에 따라 차이가 있다. GPU는 생성과 인식에, NPU는 항시 가동돼야 하는 악성코드 감지 등에 유용하다. CPU의 TOPS는 낮지만 빠른 시간 안에 결과를 얻어야 할 때 유용하다"고 설명했다. ■ "AI 처리 부하 줄이는 양자화 기술, 오픈소스로 개방" AI 모델의 정밀도가 높아질 수록 처리 시간과 용량, CPU/GPU/NPU에 가해지는 부하도 급증한다. 현재 AI 모델의 주류를 이루는 것은 FP32(32비트 부동소수점), FP16이지만 용량과 처리 속도 면에서 이를 PC로 처리하는 데는 무리가 있다. 정밀도를 FP16(32비트 부동소수점), INT8(8비트 정수) 등 PC에서 처리할 수 있는 수준으로 조절해야 한다. 이를 해결하기 위한 방법이 양자화이며 처리 속도 향상, AI 모델 용량 축소 등이 가능하다. 톰 피터슨 펠로우는 "양자화를 쉽게 처리할 수 있는 기술인 '인텔 신경망 압축'을 오픈소스 AI 생태계인 ONNX에 오픈소스 기술로 제공할 것"이라고 설명했다. ■ 인텔, 파이3 코어 울트라에 최적화...초당 25 단어 생성 인텔은 지난 4월 공개된 마이크로소프트 LLM(거대언어모델)인 파이3를 코어 울트라 시리즈 프로세서에 최적화했다. 코어 울트라 시리즈1(메테오레이크)에서 첫 단어가 나오는 데는 1초 미만, 초당 25단어를 생성해 이미 사람 눈으로 따라갈 수 없는 수준까지 향상됐다. 루나레이크의 AI 처리 성능은 여기서 한 단게 더 나아갔을 것으로 추정된다. 톰 피터슨 펠로우는 "AI 처리 속도를 높이는 것은 매우 중요한 일이다. 앞으로는 AI 응용프로그램이 사람 대신 다른 프로그램, 다른 서비스와 직접 상호작용하며 학습하게 될 것"이라고 설명했다. ■ "생태계 확대 위해 루나레이크 개발자 키트 곧 공급" 인텔이 AI PC 구현을 위해 이용하는 기술은 오픈비노(OpenVINO)다. PC의 CPU와 GPU, NPU를 모두 활용해 AI 처리 연산을 가속한다. 윈도 다이렉트ML, ONNX 런타임, 윈도 AI 등 다양한 소프트웨어를 지원한다. 인텔은 오픈비노를 활용한 개발자 생태계 확대를 위해 루나레이크 프로세서 기반 AI PC 개발 키트도 사전 공급할 예정이다. 가로·세로 165mm×150mm, 높이 27mm의 슬림한 케이스에 루나레이크 프로세서와 LPDDR5 32GB 메모리를 장착했다. 톰 피터슨 펠로우는 "루나레이크는 5 TOPS CPU, 67 TOPS GPU, 48 TOPS NPU를 결합해 최대 120 TOPS를 발휘할 수 있으며 게임과 AI 비서, 생성 AI를 이용한 콘텐츠 제작에 최적화됐다"고 강조했다.

2024.06.04 12:00권봉석

인텔 "루나레이크 NPU 성능 4배 강화... 전력 효율도 개선"

[타이베이(대만)=권봉석 기자] 인텔이 올 3분기부터 주요 PC 제조사에 공급할 모바일(노트북)용 프로세서, 루나레이크(Lunar Lake)는 플랫폼 컨트롤러 타일에 최대 48 TOPS(1초 당 1조 번) AI 연산이 가능한 4세대 NPU(신경망처리장치), NPU 4를 탑재한다. NPU 4는 CPU나 GPU 대비 훨씬 적은 전력으로 CPU(5 TOPS)의 5배 이상, Xe2 GPU(67 TOPS)의 71% 수준 AI 처리를 수행한다. AI 연산 성능만 따지면 코어 울트라 시리즈1(메테오레이크)의 CPU, GPU, NPU를 모두 합친 수치(34 TOPS)를 넘어선다. NPU 4는 PC가 켜져 있을 때 항상 같이 돌아가야 하는 음성 인식, 악성코드 탐지, 카메라를 이용한 사물 인식 등에 적합하다. 스테이블 디퓨전 1.5 기준으로 NPU 3 대비 최대 4배 빠르게 이미지를 생성해 전력 효율도 2.9배 향상됐다. ■ 인텔 NPU, 2018년 첫 출시 이후 올해 4세대 돌입 인텔 NPU는 2016년 인텔이 인수한 스타트업 '모비디우스' 기술력 기반으로 만들어졌다. 2018년 출시된 첫 제품은 별도 칩으로 출시돼 USB 단자 등을 통해 PC에 연결해 작동했다. 연산 성능은 0.5 TOPS로 영상 처리나 사물 인식 등에 적합했다. 2세대 제품인 'NPU 2'는 2021년 출시된 제품이며 IoT(사물인터넷) 기기를 대상으로 했다. 연산 속도는 7 TOPS 수준이며 배경 흐림, 프레임 인물 고정 등 윈도 스튜디오 효과를 지원했다. 지난 주 진행된 '테크투어 타이완' 행사에서 대런 크루스(Darren Crews) 인텔 NPU 수석 아키텍트는 "NPU는 7년 전만 해도 카메라를 통한 사물 인식 등에 주로 쓰였지만 현재는 높은 연산 성능과 함께 전력 효율성 등 두 가지 목표를 모두 달성해야 하는 상황"이라고 설명했다. ■ NPU 4 하나로 메테오레이크 연산 성능 능가 지난 해 출시된 코어 울트라 시리즈1(메테오레이크)는 SOC 타일에 3세대 제품 'NPU 3'를 통합했다. 연산 성능은 11.5 TOPS로 전체 연산 성능(34 TOPS)의 1/3 가량을 차지한다. 반면 후속 제품인 루나레이크에 탑재된 NPU 4의 AI 연산 성능은 최대 48 TOPS로 메테오레이크의 CPU, GPU, NPU를 모두 합친 것보다 더 빠르다. 대련 크루스 수석 아키텍트는 "AI 연산을 실제로 수행하는 엔진 수 증가, 작동 주파수 향상, 내부 아키텍처 개선으로 NPU 4의 성능이 급격히 향상됐다"고 설명했다. ■ "TOPS 수치, 작동 클록과 MAC 연산 능력이 좌우" 최근 PC용 프로세서를 구성하는 CPU와 GPU, NPU의 AI 연산 성능 측정을 위한 기준으로 'TOPS'가 널리 쓰인다. 그러나 이 수치가 정확히 어떤 과정을 거쳐 나오는지 정확히 아는 사람은 드물다. 대런 크루스 수석 아키텍트는 "TOPS는 AI 처리에 주로 쓰이는 연산 속도와 NPU 작동 클록에 크게 영향을 받는다" 고 설명했다. AI 연산에 가장 널리 쓰이는 연산 방식은 큰 수치를 서로 곱해 더하는 행렬 연산인 MAC 연산이다. 메테오레이크의 NPU 3내 연산 엔진은 두 개이며 한 클록당 4천96개의 MAC 연산을 수행한다. 여기에 작동 클록(1.4GHz)을 곱하고 1조 번(10의 12승)으로 나눈 값이 11.5 TOPS다. 같은 방식으로 계산하면 루나레이크 내장 NPU 4의 TOPS는 48 TOPS다. ■ "TOPS는 행렬 연산에 치중... 벡터 계산 성능 향상도 중요" 단 MAC 연산 처리량은 자료형(데이터타입)의 정밀도에 큰 영향을 받는다. 예를 들어 인텔이 기준으로 삼은 자료형은 INT8(정수 8비트)이다. 이를 INT4(정수 4비트)로 바꾸면 MAC 연산량과 TOPS는 각각 두 배로 뛴다. 대런 크루스 수석 아키텍트는 "TOPS 값은 계산으로 얻어진 값이며 주로 행렬 연산에 집중됐다. 그러나 큰 수치를 한꺼번에 처리하는 벡터 연산이 실제 AI 응용프로그램 성능에 더 큰 영향을 미친다"고 설명했다. NPU 4는 벡터 연산을 처리하는 레지스터 크기를 512비트로 확장하고, 대역폭은 전 세대 대비 4배 높였다. 행렬과 수치 연산을 모두 강화해 다양한 AI 연산을 처리할 수 있게 됐다. 양자화 전용 회로도 내장해 INT8, FP16 자료형을 모두 지원한다. ■ "TOPS, 행렬 연산에 치중...벡터 계산 성능 향상도 중요" NPU 4는 뉴럴 연산 엔진을 2개에서 6개로 3배 늘렸다. MAC 연산을 담당하는 어레이도 4천 개에서 1만 2천개로 늘어났다. 같은 소비 전력에서 NPU 3 대비 성능은 두 배 늘어났고 최대 성능은 4배로 뛰어올랐다. 벡터 연산 성능은 최대 12배, TOPS는 4배 이상 향상됐다. LLM(거대언어모델)의 토큰 생성 속도에 영향을 미치는 대역폭도 최대 2배 향상됐다. 오픈소스 그래픽 프로그램 '김프'(GIMP)로 스테이블 디퓨전 1.5 플러그인을 이용해 이미지를 생성하는 테스트에서 메테오레이크는 22.08초, 루나레이크는 5.43초로 실제 처리 시간이 1/4 수준으로 줄었다. 전력 소모는 NPU 3와 NPU 4 사이에 큰 차이가 없다. 메테오레이크 소모전력은 9W, 루나레이크 소모전력은 11.2W다. 대런 크루스 수석 아키텍트는 "소모 전력이 높아졌지만 소요 시간이 크게 줄어 실제 전력 소모는 줄어든다. 이를 통해 전력 효율을 2.9배 높였다"고 밝혔다.

2024.06.04 12:00권봉석

Arm, 3나노 공정 검증 마친 클라이언트용 'Arm CSS' 발표

Arm이 AI 산업을 위한 컴퓨팅 서브시스템(CSS) 및 소프트웨어를 공개했다. 신규 CSS는 최선단 파운드리인 3나노미터(nm) 공정 검증을 거쳐, 현재 양산 준비를 마무리했다. Arm은 30일 온라인 기자간담회를 열고 선도적인 AI 기반 경험을 제공하는 클라이언트용 Arm 컴퓨팅 서브시스템을 발표했다. 클라이언트용 Arm CSS는 플래그십 모바일 시스텝온칩(SoC)를 위한 기본 컴퓨팅 요소를 제공한다. 또한 최신 Armv9 CPU, Immortalis GPU, 3nm(나노미터)에서 생산 가능한 CPU 및 GPU용 물리적 구현과 최신 Corelink 시스템 메모리 관리 유닛(SMMU)을 특징으로 한다. 이번 행사에서 Arm은 소프트웨어 개발자가 Arm CPU에서 가능한 최고의 성능을 원활하게 이용할 수 있도록 지원하는 Arm 클레이디(Kleidi)도 함께 공개했다. Arm Kleidi에는 AI 워크로드를 위한 KleidiAI와 컴퓨터 비전 애플리케이션을 위한 KleidiCV가 포함된다. 클라이언트용 Arm CSS는 30% 이상 향상된 컴퓨팅 및 그래픽 성능을 통해 광범위한 AI, 머신러닝 및 컴퓨터 비전(CV) 워크로드를 위한 59%의 더 빠른 AI 추론을 제공한다. 클라이언트용 CSS의 핵심은 성능과 전력 효율을 극대화하기 위한 Arm의 역대 최고 성능, 효율, 다용도 CPU 클러스터다. 새롭게 출시된 Arm Cortex-X925는 Cortex-X 역사상 전년 대비 가장 높은 성능 향상을 제공한다. 최첨단 3나노미터(nm) 공정을 활용할 경우, 2023년 탑재된 플래그십 스마트폰용 4nm SoC 대비 단일 스레드 성능을 36% 높일 수 있다. AI 기능에서는 41%의 성능 향상을 제공해 LLM(대규모 언어 모델)과 같은 온디바이스 생성 AI의 응답성을 크게 개선한다. 또한 Cortex-A725 CPU는 AI 및 모바일 게임 분야에서 35%의 성능 향상을 제공한다. 이는 최신 Armv9 CPU 클러스터를 채택하는 소비자 기기를 위해 전력 효율성과 확장성을 개선한 Arm Cortex-A520 CPU와 업데이트된 DSU-120에 의해 지원된다. 현재까지 최고의 성능과 효율성을 갖춘 GPU인 Arm Immortalis-G925는 광범위한 주요 모바일 게임 애플리케이션에서 37% 더 높은 성능을 제공하며, 여러 AI 및 머신러닝 네트워크에서 측정할 경우 34% 더 높은 성능을 제공한다. Immortalis-G925는 플래그십 스마트폰 시장을 위해 출시된 반면, 확장성이 뛰어난 새로운 GPU 제품군인 Arm Mali-G725 및 Mali-G625 GPU는 프리미엄 모바일 핸드셋부터 스마트워치 및 XR 웨어러블에 이르기까지 광범위한 소비자 기기 시장을 대상으로 한다. 한편 Arm은 전 세계 수백만 명의 개발자가 차세대 AI 지원 애플리케이션을 개발하는 데 필요한 성능, 툴 및 소프트웨어 라이브러리에 지원하는 데 전념하고 있다. 개발자들이 이러한 혁신을 최고의 성능으로 빠르게 구현할 수 있도록 Arm은 AI 워크로드를 위한 KleidiAI와 컴퓨터 비전 애플리케이션을 위한 KleidiCV를 포함하는 Arm Kleidi를 출시한다. KleidiAI는 AI 프레임워크 개발자를 위한 컴퓨팅 커널 세트로, NEON, SVE2 및 SME2와 같은 주요 Arm 아키텍처 기능을 지원해 다양한 디바이스에서 Arm CPU에서 설정 가능한 최고의 성능을 원활하게 이용할 수 있도록 한다. KleidiAI는 파이토치(PyTorch), 텐서플로우(Tensorflow), 미디어파이프(MediaPipe) 및 메타 라마 3(Meta Llama 3)와 같은 인기 있는 AI 프레임워크와 통합되며, 이후 Arm이 새롭게 출시할 추가 기술과도 적합하도록 이전 버전과 호환이 가능하다.

2024.05.30 16:30장경윤

ISC, 美 CPU사 양산 검증 통과...대면적용 신규 소켓 사업 순항

아이에스시(ISC)가 고성능 시스템반도체용 테스트 소켓 사업 확장에 추진력을 얻고 있다. 지난해 개발한 대면적용 소켓으로 주요 고객사와 검증에 돌입해, 최근 양산 적용에 대한 승인을 받은 것으로 파악됐다. 2일 업계에 따르면 ISC는 올 1분기 북미 CPU 고객사로부터 신규 테스트 소켓에 대한 퀄(품질) 테스트를 완료했다. ISC가 이번에 승인을 받은 제품은 대면적 시스템반도체용 실리콘 러버 소켓이다. 모델명은 WiDER2로, ISC가 지난해 개발한 제품이다. 이전 세대(WiDER) 대비 작동 범위 및 대응력을 높였다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰인다. 테스트 방식에 따라 포고핀(Pogo pin)과 러버(Rubber)로 나뉜다. 이 중 러버 소켓은 칩에 손상을 줄 가능성이 낮고 미세공정에 적합하다. ISC는 지난해 북미 CPU 고객사에 WiDER2를 공급해 R&D(연구개발) 영역에서 테스트를 거쳐 왔다. 이후 올 1분기에는 양산 적용에 대한 퀄 테스트를 통과했다. 이르면 올 2분기부터 발주가 진행될 예정으로, 실제 공급 규모는 시장 상황에 따라 가변적일 것으로 관측된다. 업계가 ISC의 WiDER 사업에 주목하는 이유는 반도체 산업의 트렌드에 있다. 최근 CPU·GPU 등 시스템반도체 시장은 AI 산업의 발전에 대응하고자 데이터 처리 성능을 급격히 끌어올리고 있다. 특히 서버용 반도체의 경우, 핵심 칩과 각종 고성능 메모리·인터페이스 칩을 함께 집적하는 방식으로 진화하고 있다. 이 같은 반도체의 고성능화는 필연적으로 칩 면적의 확장을 촉진한다. 반도체 후공정 소부장 기업들 역시 점차 커지는 칩 면적에 대응하기 위한 신규 장비, 부품 등을 적극 개발해 왔다. 반도체 업계 관계자는 "칩 사이즈를 최대한 줄이려던 모바일 시대와 달리, AI 시대에서는 성능의 극대화를 위해 칩 사이즈를 키우는 방향으로 나아가고 있다"며 "부품 업계도 칩 면적 확대와 함께 높아지는 기술적 난이도에 잘 대응한다면 글로벌 경쟁력을 확보할 수 있을 것"이라고 설명했다. 한편 ISC는 이와 관련해 "구체적으로 말씀드릴 수 있는 사안은 없다"고 밝혔다.

2024.04.02 11:08장경윤

"HBM 수요, 예상보다 커…올해 삼성·SK 주문량만 12억GB"

"HBM(고대역폭메모리) 시장은 우리가 생각하는 것보다 더 빠르게 성장하고 있다. 올해 HBM 시장의 수요를 5.2억GB(기가바이트)로 전망하기도 하는데, 삼성전자·SK하이닉스에서 받은 수주를 더해보면 10억~12억GB에 달한다." 이승우 유진투자증권 리서치센터장은 18일 서울 양재 엘타워에서 열린 'AI-PIM(프로세싱-인-메모리) 반도체 워크숍'에서 AI 반도체 수요 현황에 대해 이같이 밝혔다. 최근 IT 시장은 서버 및 엣지 AI 산업의 급격한 발달로 고성능 시스템반도체에 대한 수요가 증가하고 있다. 글로벌 팹리스인 엔비디아와 AMD가 개발하는 고성능 GPU(그래픽처리장치)가 대표적인 사례다. GPU 대비 연산 효율성이 높은 NPU(신경망처리장치)도 국내외 여러 스타트업을 중심으로 개발되고 있다. 또한 서버 시장에서는 여러 개의 D램을 쌓아올려 데이터 처리 성능을 크게 높인 HBM이 각광받는 추세다. 관련 시장은 국내 삼성전자와 SK하이닉스, 미국 마이크론 등이 주도하고 있다. 이승우 센터장은 "AI 반도체에 대한 수요가 당초 예상보다 높아 기존 HBM에 대한 수요 전망도 뒤엎을 필요가 있다"며 "시장조사업체가 HBM 수요를 지난해 3.2억GB, 올해 5.2억GB(기가바이트)로 분석했는데, 삼성전자와 SK하이닉스가 받은 주문량만 더해도 이 수치가 10억~12억GB에 달한다"고 언급했다. PIM 시장도 향후 급격한 성장세가 기대된다. PIM은 메모리 내에서 자체적으로 데이터 연산 기능을 처리할 수 있는 차세대 반도체다. 기존 메모리에서 CPU·GPU 등 시스템반도체로 데이터를 보내는 과정을 줄일 수 있으므로, 전력 효율성을 높이는 데 용이하다. 덕분에 PIM은 저전력·고성능 연산이 필요한 온디바이스 AI(서버, 클라우드를 거치지 않고 기기 자체에서 AI 기능을 처리하는 기술) 분야에 활발히 적용될 것으로 주목받고 있다. 이 센터장은 "AI 산업이 과거 데이터센터 중심에서 온디바이스 AI로 향하면서 초저지연·초저전력 특성이 핵심 요소로 떠올랐다"며 "AMD·삼성전자가 PIM 기능을 HBM에 추가해 처리 속도를 7%, 전력소모를 85% 개선한 사례를 보면 향후 PIM이 국내 반도체 산업의 돌파구가 될 것으로 생각한다"고 말했다. 한편 AI-PIM 워크숍은 세계 AI 반도체 및 PIM 시장 현황과 전망을 점검하고, 해댱 분야의 기술 현황 및 협력 방향 등에 대해 논의하기 위한 자리다. 과학기술정보통신부가 주최하고 정보통신기획평가원과 한국과학기술원의 PIM반도체설계연구센터가 주관한다.

2024.01.18 13:55장경윤

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

젠슨 황 "AI 10년 대전환 본격화…2등은 없다"

MS "멀티 에이전트 시대 온다…'애저 AI 파운드리' 역할 커져"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현