• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (189건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, 파이토치 2.5에 인텔 GPU 지원 확대

인텔이 18일 파이썬 기반 오픈소스 머신러닝 라이브러리 '파이토치 2.5'에 인텔 GPU 지원 기능을 확대했다고 밝혔다. 파이토치 2.5는 7월 파이토치 2.4 공개 이후 3개월만인 17일(미국 현지시간) 공개된 최신 버전이다. 인텔은 파이토치 2.5 개발 과정에 기여해 데스크톱PC용 아크 A시리즈, 코어 울트라 시리즈1(메테오레이크)·200V(루나레이크) 내장 아크 Xe/Xe2 GPU, 데이터센터 GPU 맥스(폰테베키오) 가속 기능을 추가했다. 인텔은 "파이토치 모델 개선이나 미세 조정을 원하는 응용프로그램 개발자와 연구진들은 인텔 코어 울트라 프로세서 기반 AI PC에 윈도·리눅스용 최신 파이토치 빌드를 직접 설치해 활용할 수 있다"고 설명했다. 파이토치 2.5는 인텔 제온 등 데이터센터용 CPU에서 FP16(부동소수점, 16비트) 자료형을 가속하는 AMX 명령어를 활용할 수 있다. 토치인덕터는 제온6 등 최신 프로세서에 내장된 추론 가속 기능도 활용한다. 파이토치 2.5의 인텔 GPU 가속 기능은 윈도·리눅스용 프리뷰·나이틀리(nightly) 빌드에서 활성화된다. 인텔 데이터센터 GPU 맥스 기반 파이토치 가속은 인텔 타이버 AI 클라우드에서만 활용 가능하다.

2024.10.18 09:11권봉석

[현장] 엠키스코어 "수랭식 데이터센터로 AI 시대 열 것"

"인공지능(AI) 시대에 접어들면서 데이터센터의 발열 문제는 더욱 심각해지고 있습니다. 우리는 오늘 직접 만지고 느낄 수 있는 물리적 인프라를 시연함으로써 이 문제를 해결할 실마리를 제공하려고 합니다." 정문기 엠키스코어 대표는 지난 17일 경기도 남양주 본사에서 열린 '수랭식 AI 데이터센터 데모센터' 공개 행사에서 물리적 인프라의 중요성을 강조하며 이같이 말했다. 엠키스코어는 지난 2019년에 설립된 AI 데이터센터 솔루션 전문 기업으로, 그래픽처리장치(GPU) 기반의 고성능 컴퓨팅 분야에서 두각을 나타내 총 누적 매출 2천500억원을 달성했다. 또 엔비디아, HP 등 글로벌 IT 기업들로부터 최고 등급의 파트너십 인증을 획득하고 삼성, LG, 서울대 등 국내 주요기관과의 파트너십을 통해 짧은 기간 내에 우수한 레퍼런스를 쌓아왔다. 이날 행사는 엠키스코어가 처음으로 미디어를 대상으로 개최한 자리로, 수랭식 데이터센터 기술과 데모센터를 선보이기 위해 마련됐다. 엠키스코어의 '아쿠아엣지(Aqua Edge)' 솔루션을 소개한 김종훈 기술본부장은 AI 시장의 급성장과 데이터센터 발열 문제를 주요 이슈로 제기했다. 김 본부장은 "지난 2022년 '챗GPT' 등장 이후 AI 시장이 폭발적으로 성장했으며 오는 2028년까지 10배 이상의 성장이 예상된다"며 "최신 CPU는 500와트를 소모하고 곧 출시될 엔비디아의 블랙웰 GPU는 1천~1천200와트를 사용할 것으로 보인다"고 설명했다. 이로 인해 서버 한 대당 14킬로와트 이상의 전력 소모가 필요해졌으며 AI 학습용 대규모 시스템에서는 랙당 최대 120킬로와트 이상의 전력 소모가 발생할 것으로 예상된다. 이에 김 본부장은 "기존 공랭식 데이터센터로는 이러한 발열량을 효과적으로 처리하기 어렵고 수랭식 냉각 방식의 필요성은 그 어느 때보다 커졌다"고 강조했다. 공랭식 데이터센터와 대비해 수랭식 데이터센터는 물의 높은 열 전도율을 활용해 발열을 효율적으로 해소한다. 물은 공기보다 23배 높은 열 전도율을 가지고 있어 서버의 성능 안정성 유지와 장애율 감소에 크게 기여하기 때문이다. 또 팬 작동이 줄어들면서 전력 소모가 감소하고 소음도 공랭식보다 현저히 줄어든다. 공랭식 서버는 80~90데시벨의 소음을 발생시키는데 비해 수랭식 서버는 70데시벨 이하로 유지된다는 것이 김 본부장의 설명이다. 이날 참석자들은 엠키스코어의 수랭식 데이터센터 데모센터를 직접 탐방하며 기술의 실체를 확인했다. 데모센터는 수랭식 냉각의 핵심 장비인 콜드플레이트와 쿨링 디스트리뷰션 유닛(CDU)을 비롯한 다양한 인프라를 소개했다. 많은 고객사들이 수랭식 시스템의 누수 위험을 걱정함에 대해 반박하며 김종훈 본부장은 시스템의 안정성과 내구성을 자신 있게 설명했다. 이를 위해 그는 직접 콜드플레이트와 연결 부위를 분리했다. 김 본부장은 "시스템에는 여러 단계의 안전 장치가 설치돼 있다"며 "지난 15년간 이미 수랭식 데이터센터가 도입된 해외의 사례들 덕분에 관련 예방 기술은 고도로 발전한 상태로, 물이 새는 상황에 대한 질문이 나올 것을 따로 예상하지 못했을 정도"라고 말했다. 또 수랭식 시스템의 수명에 대한 질문에는 "서버의 기본 수명은 3년에서 5년 정도지만 수랭식 시스템은 정기적인 유지보수를 통해 더 오랜 기간 안정적으로 운영될 수 있다"며 "자체적 모니터링 솔루션인 '엠-아울(M-OWL)'을 통해 사고를 미연에 방지할 수 있다"고 덧붙였다. 이번 행사를 통해 엠키스코어가 공개한 수랭식 데이터센터 데모센터는 이미 여러 대기업들의 관심을 받고 있는 것으로 알려졌다. 정 대표는 "최근 네이버, 삼성전자, LG유플러스 등 여러 국내 대기업들이 본사 데모센터를 직접 방문해 기술시연을 보고 갔다"며 "수랭식 데이터센터에 더욱 매진해 발열 문제와 에너지 효율성 개선을 위한 혁신적인 솔루션을 지속적으로 개발하겠다"고 말했다. 그러면서 "이로써 국내 AI 인프라 발전에 기여하고 글로벌 시장에서도 경쟁력을 확보할 것"이라고 강조했다.

2024.10.18 08:46조이환

삼성전자, 업계 최초 12나노급 '24Gb GDDR7 D램' 개발…내년초 상용화

삼성전자가 업계 최초로 12나노급 '24Gb GDDR7(Graphics Double Data Rate) D램' 개발을 완료했다고 17일 밝혔다. 24Gb GDDR7 D램은 업계 최고 사양을 구현한 제품으로, PC, 게임 콘솔 등 기존 그래픽 D램의 응용처를 넘어 AI 워크스테이션, 데이터센터 등 고성능 제품을 필요로 하는 분야까지 다양하게 활용될 것으로 기대된다. 이번 제품은 24Gb의 고용량과 40Gbps 이상의 속도를 갖췄고, 전작 대비 ▲용량 ▲성능 ▲전력 효율이 모두 향상됐다. 삼성전자는 이번 제품에 12나노급 미세 공정을 적용해 동일한 패키지 크기에 셀 집적도를 높였고, 전작 대비 50% 향상된 용량을 구현했다. 또한 PAM3 신호 방식을 통해 그래픽 D램 중 업계 최고 속도인 40Gbps를 구현했으며, 사용 환경에 따라 최대 42.5Gbps까지 성능을 자랑한다. PAM3 신호 방식이란 '-1'과 '0' 그리고 '1'로 신호 체계를 구분해 1주기마다 1.5비트 데이터를 전송하는 방식이다. 삼성전자는 이번 제품부터 저전력 특성이 중요한 모바일 제품에 적용되는 기술들을 도입해 전력 효율을 30% 이상 크게 개선했다. 제품 내 불필요한 전력 소모를 줄이는 클럭(Clock) 컨트롤 제어 기술과 전력 이원화 설계 등을 통해 제품의 전력 효율을 극대화했다. 또한 고속 동작 시에도 누설 전류를 최소화하는 파워 게이팅 설계 기법을 적용해 제품의 동작 안정성도 향상됐다. 배용철 삼성전자 메모리사업부 상품기획실 부사장은 "삼성전자는 작년 7월 '16Gb GDDR7 D램'을 개발한데 이어 이번 제품도 업계 최초로 개발에 성공해 그래픽 D램 시장에서의 기술 리더십을 공고히 했다"며 "AI 시장의 빠른 성장에 발맞춰 고용량∙고성능 제품을 지속 선보이며 시장을 선도해 나갈 것"이라고 밝혔다. 삼성전자는 이번 24Gb GDDR7 D램을 연내 주요 GPU 고객사의 차세대 AI 컴퓨팅 시스템에서 검증을 시작해, 내년 초 제품을 상용화할 계획이다.

2024.10.17 08:44장경윤

'델' 주도 AI 서버 시장, 엔비디아 최신 칩 등장 속 판도 변화 올까

생성형 인공지능(AI) 시장 확대와 맞물려 AI 가속기 기반 서버 수요가 폭발하면서 관련 업체들이 고객 확보 경쟁에 본격 나섰다. 각 업체들은 최신 AI 칩을 기반으로 한 신무기를 잇따라 선보이며 점유율 확대에 사활을 건 분위기다. 16일 블룸버그통신에 따르면 델 테크놀로지스는 엔비디아의 AI 가속기인 '블랙웰' 칩을 탑재한 서버를 다음 달부터 일부 고객에게 발송한다. 내년 초부터는 일반 고객에게도 제공될 예정이다. '블랙웰'은 기존 엔비디아 AI 칩인 'H100', 'H200' 등 호퍼(Hopper)를 이을 최신 칩으로, 올해 11월부터 본격적인 양산에 들어간다. 'GB200'은 엔비디아가 블랙웰 아키텍처로 생산된다. 블랙웰 AI 서버 시스템인 'GB200 NVL72'는 이미 출하되고 있는 상태로, 2개의 블랙웰 GPU와 엔비디아의 CPU인 그레이스를 하나로 연결한 GB200 슈퍼칩 36개로 구성됐다. 가격은 380만 달러에 달하며 엔비디아 'GB200' 출하의 대부분을 차지할 것으로 전망됐다. 델 테크놀로지스는 'GB200 NVL72' 시스템을 기반으로 한 파워엣지 'XE9712'를 현재 일부 고객들에게 샘플용으로 공급하고 있다. '블랙웰' 칩은 지난 8월 패키징 결함으로 출시가 다소 늦어질 것으로 예상됐으나 최근 본격 생산되기 시작하며 수요가 폭발적으로 늘어나고 있는 상태다. 특히 마이크로소프트, 오픈AI 등 빅테크들이 AI 데이터센터 구축을 위해 '블랙웰'을 대량 주문하면서 이미 12개월치 생산 물량이 매진됐다. 이 같은 상황에서 델 테크놀로지스는 엔비디아와의 끈끈한 협력 관계를 바탕으로 '블랙웰' 초기 물량 확보에 성공하며 AI 서버 시장에서 입지를 더 탄탄히 구축할 수 있게 됐다. 아서 루이스 델 테크놀로지스 인프라스트럭처 부문 사장은 "'블랙웰' 칩이 포함된 AI 기반 서버는 다음 달 일부 고객에게 보내져 내년 초에 일반 공급될 것"이라며 "다양한 서비스 및 제품으로 차별화한 덕분에 엔비디아의 최신 칩을 조기에 공급 받을 수 있었다"고 설명했다. 델 테크놀로지스는 현재 AI 작업용 고성능 서버 판매 사업 확장에 주력하고 있는 상태로, '블랙웰' 외에 AMD의 기술을 탑재한 AI 특화 서버 신제품 'XE7745'도 전날 공개해 고객들의 선택 폭을 넓혔다. 이 제품은 4U 공냉식 섀시에서 최대 8개의 이중 폭 또는 16개의 단일 폭 PCIe GPU와 AMD 5세대 에픽 프로세서를 지원한다. 이 제품은 AMD 5세대 에픽 프로세서를 탑재한 '델 파워엣지 R6715'와 '델 파워엣지 R7715' 서버와 함께 내년 1월까지 순차적으로 출시된다. 경쟁사인 HPE는 엔비디아 '블랙웰'의 대항마로 여겨지는 AMD의 '인스팅트 MI325X' 가속기를 탑재한 'HPE 프로라이언트 컴퓨트(ProLiant Compute) XD685'를 새로운 무기로 꺼내들었다. 이 서버는 대규모 언어 모델(LLM) 학습, 자연어 처리(NLP), 멀티모달 학습 등 고성능 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 설계된 제품이다. 또 5U 모듈형 섀시로 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 갖추고 있다. 이번 일을 기점으로 HPE는 AMD와의 협력을 통해 앞으로 AI 서비스 제공업체, 정부, 대규모 AI 모델 개발자들이 요구하는 유연하고 고성능의 솔루션을 제공해 AI 경쟁에서 우위를 점하겠다는 목표를 가지고 있다. 트리시 댐크로거 HPE HPC 및 AI 인프라 솔루션 부문 수석 부사장은 "AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 AI 혁신을 확장할 것"이라며 "AI 모델 개발자 시장의 수요에 부응하며 산업 전반에서 과학과 공학의 혁신을 가속화할 것"이라고 말했다. 슈퍼마이크로 역시 AMD '인스팅트 MI325X' 기반의 새로운 서버를 최근 선보였다. 이번에 출시한 'H14' 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버 및 AI 추론 GPU 시스템을 포함하고 있다. 또 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. 찰스 리앙 슈퍼마이크로 CEO는 "'H14' 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 자사 'H11' 서버 대비 2.44배 더 빠른 성능을 제공한다"며 "고객은 데이터센터의 총면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다"고 설명했다. 이처럼 각 업체들이 AI 시장을 노리고 잇따라 성능을 높인 새로운 서버를 출시하면서 업계에선 시장 판도에 변화가 생길 지 주목하고 있다. 전 세계 서버 시장은 현재 델테크놀로지스가 주도하고 있는 상태로, HPE와 슈퍼마이크로가 뒤를 잇고 있다. 특히 현재 5~7%가량의 점유율을 차지하고 있는 슈퍼마이크로는 GPU 기반 AI 서버 시장에서 존재감을 높이며 델 테크놀로지스를 점차 위협하고 있다. 미즈호증권 비제이 라케시 애널리스트에 따르면 2022~2023년 AI 서버 시장 내 슈퍼마이크로의 점유율은 80~100%에 달했다. 다만 델 테크놀로지스도 최근 들어 AI 서버 매출을 점차 늘리고 있다. 올해 5~7월에는 31억 달러가 출하됐고, 지난해 5월부터 올해 4월까지는 60억 달러가량의 AI 서버가 판매됐다. 업계 관계자는 "AI 서비스에 대한 수요가 증가함에 따라 자연스럽게 AI 서버에 대한 수요도 함께 늘어나고 있다"며 "우수한 설계 능력과 강력한 AI 파트너십을 바탕으로 존재감을 드러내고 있는 슈퍼마이크로가 향후 델, HPE 등 경쟁사들의 점유율을 빼앗을 가능성이 높다"고 말했다. 아거스리서치 애널리스트들은 "슈퍼마이크로는 AI 시대를 선도하는 컴퓨터 및 서버 업체"라며 "지난 1년간 큰 폭의 이익을 얻었는데 앞으로도 수년 동안 강력한 매출 성장과 마진 확대, 주당순이익(EPS) 가속화에 대비하고 있다"고 평가했다.

2024.10.16 11:51장유미

엔비디아 시총 또 역대최고…3조4천억 달러 돌파

인공지능(AI) 칩 수요가 증가하면서 엔비디아의 주가가 역대 최고치를 기록했다. 엔비디아 주가는 14일(현지시간) 전 거래일보다 2.4% 가량 상승한 138.07달러에 마감하면서 6월18일 기록한 종전 최고가 135.58달러를 넘어섰다.CNBC 등 외신들이 보도했다. 올 들어 엔비디아 주가는 거의 180% 상승했으며 2023년 초 이후 9배 이상 급등한 상태다. 이날 시가총액도 3조4천억 달러로 늘어나면서 시총 1위 애플과의 격차도 좁혔다. 애플의 시가총액은 3조5천억 달러 수준이다. AI 반도체 대장주인 엔비디아는 2022년 11월 오픈AI의 챗GPT가 출시되면서 시작된 생성형 AI 열풍의 최대 수혜자다. 엔비디아의 그래픽 처리장치(GPU)는 챗GPT를 비롯한 고급 AI 모델을 만들고 배포하는 데 사용된다. 현재 마이크로소프트, 메타, 구글, 아마존을 비롯한 많은 회사들이 AI를 위한 대규모 컴퓨터 클러스터를 구축하기 위해 엔비디아 GPU를 대량 구매하고 있다. 이 회사들은 모두 이번 달 말까지 분기별 실적을 보고할 예정이다. 빅테크 기업들이 이번 달 실적 발표를 앞두고 AI 인프라에 대한 지출 계획에 대한 업데이트가 발표될 것으로 전망되면서 이에 대한 기대감 때문으로 엔비디아의 주가가 상승하고 있는 것으로 분석됐다. 또, 엔비디아는 최근 차세대 AI GPU인 블랙웰 수요가 ”미친 수준”이라며, "4분기에 이 신제품에서 수십억 달러의 매출을 기대하고 있다"라고 밝힌 바 있다. 이에 이번 분기부터 양산에 돌입하는 블랙웰 수요에 대한 기대감이 작용하는 것으로 풀이된다. 투자은행 미즈호의 분석가에 따르면, 기술 대기업들이 매년 AI 구축에 지출하는 수십억 달러 중 상당 부문이 엔비디아에 투자되고 있는 것으로 알려졌다. 엔비디아는 AI 학습 및 추론 칩 시장의 약 95%를 장악하고 있다. 엔비디아의 매출은 지난 5분기 동안 매 분기마다 2배 이상 증가했으며, 그 중 3분기 동안에는 적어도 3배 이상 증가한 것으로 알려져 있다. 시장조사업체 LSEG에 따르면, 올해 남은 기간 동안 성장은 약간 둔화될 것으로 예상되며, 분석가들은 회계연도 3분기(8~10월) 전년 동기 대비 약 82% 증가한 329억 달러에 이를 것으로 예상하고 있다.

2024.10.15 08:41이정현

엔비디아 "세계 첫 GPU '지포스 256' 출시 25주년"

엔비디아가 1999년 출시한 '지포스'(GeForce) 브랜드 첫 GPU인 '지포스 256'이 출시 25주년을 맞았다. 존 펜노(John Fenno) 엔비디아 지포스 마케팅 이사가 11일(미국 현지시간) 공식 블로그에 이를 기념하는 게시물을 공개했다. 엔비디아는 이 게시물에서 "25년 전 출시된 지포스 256은 열성 PC 게이머와 최신기술 고관여층의 관심을 모았고 오늘날 생성 AI의 토대를 마련했다"고 설명했다. 이어 "지포스 256은 단순한 그래픽카드가 아니며 세계 최초로 'GPU'라는 개념을 소개했고 미래 게임과 컴퓨팅 발전의 무대를 만든 제품"이라고 밝혔다. ■ 엔비디아, 1998년 '리바 TNT' 출시 지포스 256은 엔비디아가 처음 출시한 GPU는 아니다. 한 해 전인 1998년 128비트 3D 처리 성능을 갖춘 '리바 TNT'(RIVA TNT)가 출시됐다. 730만 개 트랜지스터를 집적한 리바 TNT 탑재 그래픽카드 가격은 당시 199달러(현재 물가 기준 약 385달러/약 52만원)에 책정됐다. 3D 그래픽 시장에서 강자로 꼽혔던 3dfx 부두(Voodoo) 시리즈와 경쟁할 수 있는 초석을 놓은 제품으로 평가받는다. 지난 8월 운영을 중단한 미국 PC 매체 아난드테크는 1998년 10월 12일자 기사에서 "리바 TNT는 3Dfx 부두2와 비교했을 때 거의 대등한 성능을 낸다"고 평가하기도 했다. ■ "가장 빠른 GPU 찾는다면 지포스 256이 유일한 선택지" 지포스 256은 그래픽 구현에 필요한 모든 기능을 칩 하나에 집적하고 당시 고해상도 영상으로 평가받았던 DVD 영상을 처리할 수 있는 점, 당시 최신 그래픽 API였던 마이크로소프트 다이렉트X 7 완전 지원으로 인기를 모았다. 아난드테크는 1999년 10월 11일자 기사에서 "지포스 256은 현재 시장에 나온 3D 가속기 중 가장 빠른 제품이다. 돈이 넉넉하고 가장 빠른 제품을 찾는다면 사야 할 제품은 명확하다"고 평가했다. 이 평가는 25년이 지난 지금 엔비디아 PC용 그래픽카드 최상위 제품인 지포스 RTX 4090에도 그대로 적용된다. ■ 현재 엔비디아만 생존... 3Dfx도 S3도 소멸 1999년 당시 그래픽 기술 강자로 꼽혔던 수 많은 업체들 중 현재까지 온전히 생존한 업체는 엔비디아가 유일하다. 부두 시리즈로 인기를 모았던 3Dfx는 2000년 엔비디아에 모든 IP(지적재산권)를 넘기고 역사의 뒤안길로 사라졌다. '새비지'(Savage) 시리즈를 앞세운 S3 그래픽스도 2000년 대만 팹리스 비아(VIA)에 인수됐다. 1998년 2월 PC 시장에 i740 그래픽칩셋을 공급했던 인텔은 2021년 '아크'(Arc) GPU를 앞세워 재진출했다. 최근 출시된 코어 울트라 200V(루나레이크)에는 1080p 해상도에서 초당 60프레임 이상을 소화하는 Xe2 기반 아크 140V GPU가 내장됐다. ■ 최대 경쟁업체 ATI, 2006년 AMD에 흡수 캐나다 소재 그래픽 업체 ATI는 '레이지'(RAGE)·'라데온'(RADEON) GPU로 엔비디아와 치열한 경쟁을 벌였다. 2003년경 출시한 라데온 XT 9000 시리즈는 엔비디아 지포스 FX 대비 대등한 성능에 더 저렴한 가격으로 주목받았다. 2000년대 초 엔비디아 인수까지 검토하던 ATI는 2006년 AMD에 인수됐다. ATI의 GPU IP(지적재산권)는 AMD에 모두 흡수됐고 '라데온'이라는 이름만 남았다. 2006년 당시 한 국내 PC 업계 관계자는 PC 전문 월간지 'PC라인' 인터뷰에서 "(AMD의 ATI 인수에 따라) 그래픽카드가 프로세서에 통합돼 사라지게 될 날도 멀지 않아 보인다"고 평가하기도 했다. 이런 그의 전망은 5년 뒤 2011년 AMD가 한 다이(Die) 안에 CPU와 GPU를 통합한 '퓨전 APU'를 공개하며 일부 실현됐다. AMD의 APU는 이후 콘솔 게임기인 소니 플레이스테이션4, 마이크로소프트 X박스 등에 투입됐다. 레나토 프라게일(Renato Fragale) AMD 제품 관리 부문 시니어 디렉터는 지난 8월 전문가용 소셜미디어인 링크드인 프로파일에 "소니 플레이스테이션용 개발팀을 꾸렸고 이는 AMD 역사에서 파산을 막은 가장 성공적인 출시"라고 밝히기도 했다. ■ 엔비디아 "지포스 256, 세계 바꿀 토대 놓은 제품" 엔비디아는 "지포스 256으로 시작된 혁명은 오늘날 게임과 엔터테인먼트에 계승되고 있으며 개인 컴퓨팅에서는 엔비디아 GPU로 가속된 AI가 일상생활의 일부분이 됐다"고 설명했다. 이어 "지포스 256은 게이밍과 컴퓨팅, AI가 단순히 진화하는 것에서 그치지 않고 함께 세계를 변화시킬 수 있는 토대를 만들었다"고 평가했다.

2024.10.13 07:56권봉석

SKT, 'AI 클라우드 매니저' 출시..."GPU 효율 극대화"

SK텔레콤은 인공지능(AI) 인프라 자원을 최적화하고 AI 개발 환경을 통합 관리할 수 있는 AI 기반 기업간거래(B2B) 솔루션 '엔터프라이즈 AI 클라우드 매니저'를 출시했다고 8일 밝혔다. AI 클라우드 매니저는 SK텔레콤이 보유한 대규모 그래픽처리장치(GPU) 자원에 대한 관리 및 운영 노하우를 상용화한 제품이다. GPU 자원을 효율적으로 활용할 수 있는 AI 잡 스케줄러 기반의 GPU 클러스터 특화 솔루션이다. 기업 고객이 보유한 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축할 수 있다. 대규모 데이터 학습에 GPU 자원이 많이 소모돼 이 같은 AI 자원 최적화는 AI 클라우드 솔루션에 꼭 필요한 기능이다. AI 클라우드 매니저를 활용하면 AI 개발의 모든 과정을 체계적으로 관리할 수 있다. AI 서비스 개발은 ▲데이터 전처리 및 저장·관리 ▲모델 개발·학습 ▲모델 배포 ▲모델 추론 등 많은 단계를 거친다. 'AI 클라우드 매니저'는 각 개발 과정에서 고객이 활용하기 쉬운 기능을 제공하고, 모든 과정이 유기적으로 연계될 수 있도록 하는 '기계학습 운영(MLOps)' 환경을 제공한다. AI 모델 학습 과정에서는 대규모 데이터를 다수의 컴퓨터에 분산 처리하는 대규모 병렬 학습 환경을 제공해 학습 속도를 높인다. 아울러 AI 클라우드 매니저는 개발자들이 손쉽게 AI 서비스를 개발할 수 있는 다양한 편의 기능도 탑재했다. 특정 소프트웨어를 설치할 필요 없이 '웹 브라우저(웹 UI)' 기반으로 사용할 수 있고, 다수의 개발자가 동시에 같은 AI 개발 프로젝트에 접근할 수 있는 등 협업 환경도 마련했다. 모델 추론 과정에서는 프로젝트나 비용에 최적화된 GPU 종류와 추론 엔진 조합을 고객이 선택할 수 있도록 제공한다. 최고 성능, 최저 비용, 최소 GPU 사용 등 다양한 조합이 지원된다. 또 검색 증강 생성(RAG) 기술을 도입해 과거 자료를 최신 정보처럼 인식해 제공하는 '환각현상(할루시네이션)'을 최소화한다. SK텔레콤은 지난달 하나금융티아이와 협업해 대규모 GPU 클러스터를 구축했다. 이번 프로젝트에서 하나금융티아이는 AI 클라우드 매니저를 활용해 하나금융그룹이 AI 기술 수요에 안정적이고 유연하게 대응할 수 있는 환경을 구축했다. 효율적인 GPU 자원 운영, 학습 및 작업시간 단축 등이 가능해졌다.

2024.10.08 10:19최지연

망고부스트, 글로벌 GPU 기업과 'DPU 기반 가속 솔루션' 공동 발표

망고부스트는 글로벌 GPU 기업과 망고부스트는 지난 16일부터 3일간 미국 캘리포니아주 샌타클라라에서 개최된 '스토리지 네트워킹 산업 협회 개발자 컨퍼런스'에서 MI300X GPU-스토리지 네트워크 가속 솔루션을 발표했다고 밝혔다. '스토리지 네트워킹 산업 협회 개발자 컨퍼런스'는 전세계 스토리지 기술 표준을 결정하는 국제 협회인 스토리지 네트워킹 산업 협회의 연례 행사다. 스토리지 산업의 유수 엔지니어들이 모여 최신 스토리지 기술 동향과 미래 방향을 논하는 교육의 장이다. 최근 AI 산업 동향에 따르면, 대규모 언어 모델(LLM)의 발전과 대규모 데이터 처리 요구가 GPU에 최적화된 고속 스토리지 시스템의 수요를 증가시키고 있다. 글로벌 GPU 기업들은 최신 AI 워크로드의 엄격한 스토리지 요구 사항을 충족하기 위해, GPU-스토리지 간 네트워크 성능을 가속하는 솔루션 발굴에 박차를 가하고 있다. 망고부스트 DPU는 MI300X GPU 서버와 스토리지 서버 간의 접근 효율성을 크게 향상시키는 기술이다. 실제 사례 연구에 따르면, 글로벌 GPU 기업의 오픈 소스 소프트웨어 ROCm을 활용해 MI300X GPU 서버에서 LLM AI 워크로드를 구현한 결과, 망고부스트 DPU는 NVMe-over-TCP 및 P2P 통신을 통해 이더넷 기반 스토리지 서버와 GPU 간의 통신을 가속화했다. 이를 통해 CPU 사용량이 감소하고, 전반적인 성능과 확장성이 크게 개선된 것으로 나타났다. 한편. 망고부스트는 오는 10월 미국 산호세에서 열리는 '오픈 컴퓨트 프로젝트 글로벌 서밋(OCP 글로벌 서밋)'과 11월 미국 애틀랜타에서 개최되는 '슈퍼컴퓨팅 컨퍼런스'에도 참가해 자사의 최신 성과를 바탕으로 한 실물 제품을 공개할 예정이다. 망고부스트 관계자는 "두 행사는 각각 개방형 IT 하드웨어 생태계와 컴퓨터 아키텍처 분야에서 세계적으로 가장 큰 규모의 행사"라며 "망고부스트의 혁신 기술을 선보일 중요한 무대로 기대를 모으고 있다"고 전했다.

2024.09.30 11:19이나리

AI 광풍으로 전 세계 반도체 칩 대란 '우려'

인공지능(AI) 반도체와 스마트폰, 노트북 수요 급증으로 전 세계적으로 반도체 칩 부족 현상이 다시 일어날 수 있다는 전망이 나왔다. 미국 경제매체 CNBC는 25일(현지시간) 컨설팅 업체 베인앤컴퍼니 보고서를 인용해 이같이 보도했다. 세계 경제는 코로나19 팬데믹 당시 반도체 칩 대란을 경험했다. 당시 부품 공급망이 붕괴되고 재택근무 증가로 노트북을 비롯한 가전제품 수요가 급증하면서 칩 부족에 시달렸다. 그런데 최근 들어 AI 기반 제품 수요가 크게 늘면서 또 다시 칩 부족 조짐이 보이고 있다는 것이 분석의 골자다. 현재 글로벌 빅테크들은 엔비디아의 그래픽처리장치(GPU)를 비롯한 칩을 대거 사들이고 있는 상태다. GPU는 오픈AI의 챗GPT와 같은 애플리케이션을 뒷받침하는 거대 AI모델 훈련에 필수적이다. 또, 퀄컴 같은 회사는 스마트폰과 개인용 컴퓨터에 들어가는 칩을 만들고 있는데 이 칩은 기기 단계에서 AI 응용 프로그램을 실행할 수 있도록 해준다. 해당 제품들은 AI 지원 기기로 불리는데 삼성부터 마이크로소프트까지 많은 회사들이 이런 제품들을 잇따라 출시하고 있다. 베인은 GPU와 AI 제품에 대한 수요가 칩 부족의 원인일 수 있다고 밝혔다. 앤 호에커 베인앤컴퍼니 미주지역 기술 책임자는 "GPU 수요 급증으로 반도체 가치 사슬의 특정 요소에 부족 현상이 발생하고 있다"며, "GPU에 대한 수요가 늘고 있는 가운데 AI가 가능한 기기로의 교체 주기가 가속화하면 반도체 공급에서 더 광범위한 제약이 발생할 수 있다"고 인터뷰를 통해 밝혔다. 하지만 지금까지 소비자들이 AI 기기 구매에 신중한 태도를 보이는 만큼 AI 기반 기기 수요가 얼마나 될지는 현재로서는 불확실하다. 베인은 반도체 공급망이 "엄청나게 복잡하며, 수요가 약 20% 이상 증가하면 균형이 깨지고 칩 부족 현상이 발생할 가능성이 높다"며, "대규모 최종 시장의 합류 지점에서 AI가 폭발적으로 확산되면 그 한계를 쉽게 넘어설 수 있으며, 공급망 전반에 취약한 병목 현상이 발생할 수 있다"고 밝혔다. 반도체 공급망은 한 회사가 아닌 여러 회사에 걸쳐 분산되어 있다. 예를 들면 엔비디아가 GPU를 설계하지만 대만 TSMC가 이를 생산하며, TSMC는 네덜란드 등 전 세계에 퍼져있는 반도에 칩 제조 도구들을 활용하는 식이다. 또, 최첨단 칩은 TSMC와 삼성전자에서만 대량 생산이 가능한 상태다. 지정학적 요인도도 반도체 칩 부족을 촉발하는 요인일 수 있다고 베인은 설명했다. 반도체는 전 세계 정부에서 전략적 기술로 간주하기 때문에 미국은 최근 중국을 상대로 수출 제한 및 기타 제재를 통해 최첨단 칩 접근을 제한하려는 정책을 펼쳐 왔다. "지정학적 긴장, 무역 제한, 다국적 기술 기업의 중국 공급망 분리는 반도체 공급에 심각한 위험을 초래하고 있다. 반도체 공장 건설 지연, 자재 부족 및 기타 예측할 수 없는 요소도 핀치 포인트를 만들 수 있다"는 게 베인의 분석이다.

2024.09.26 13:27이정현

노트북 내장 그래픽 성능 향상에 외장 GPU '개점휴업'

노트북용 프로세서 경쟁은 코어 수와 IPC(클록당 실행 명령어 수), 전력 효율 등 CPU 뿐만 아니라 GPU 분야에서도 치열하게 진행 중이다. AI PC에서 클라우드 도움 없이 LLM(거대언어모델), 생성 AI를 실행하는 데 CPU나 NPU(신경망처리장치) 못지 않게 GPU 성능 향상도 필요하다. 인텔이 이달 초 정식 공개한 코어 울트라 200V(루나레이크) 프로세서는 지속적으로 성능을 강화해 과거 엔비디아 등이 공급하던 외장 그래픽칩셋에 필적하는 수준까지 향상됐다. 과거 씬앤라이트 노트북이나 투인원 노트북에서는 게임을 즐기기 어렵다는 고정관념도 깨질 가능성이 커졌다. 주요 PC 제조사도 코어 울트라 200V 기반 휴대형 게임PC 출시 확대를 검토중이다. ■ 인텔, 2020년부터 노트북용 내장 GPU 성능 향상 22일 시장조사업체 존페디리서치에 따르면 올 2분기 현재 PC용 GPU 시장에서 가장 큰 비율을 차지하는 업체는 인텔(64%)이다. 2011년 출시한 2세대 코어 프로세서부터 '빌트인 비주얼'을 내세워 거의 모든 프로세서에 GPU를 통합하고 있기 때문이다. 인텔은 2017년부터 자체 개발한 Xe 그래픽 기술을 기반으로 2020년부터 노트북용 프로세서 그래픽 성능을 매년 두 배 가까이 향상시켰다. 2021년 11세대 코어 프로세서(타이거레이크) 내장 Xe 그래픽스는 1920×1080 해상도에서 초당 90프레임 이상을 넘겼다. 지난 해 출시된 코어 울트라 시리즈1(메테오레이크)는 인텔 아크 A시리즈 그래픽칩셋의 레이트레이싱, XeSS 등 게임 관련 기능을 대거 추가했다. 해상도를 낮추는 대신 AI 기반 업스케일 기능으로 초당 프레임을 최대 1.72배 높였다. ■ 코어 울트라 200V, AI·그래픽 성능 향상에 주력 다음 주부터 국내를 포함한 전 세계 시장에 정식으로 공급될 코어 울트라 200V는 그래픽을 담당하는 Xe 코어의 후속작인 Xe2 코어 8개를 적용했다. 내부 구조를 완전히 새로 설계해 전 세대 대비 성능을 최대 1.5배 향상시켰다. AI PC에서 이미지 생성, LLM(거대언어모델) 구동 등에 자주 쓰이는 행렬 연산 강화를 위해 과거 노트북용 프로세서에는 탑재되지 않았던 XMX(Xe 행렬 확장) 엔진도 8개 추가했다. 스테이블 디퓨전 1.5로 그림 한 장을 만드는 시간은 절반으로 단축됐다. 지난 4일 인텔이 공개한 도타 2(DOTA 2) 구동 비교 영상에서 코어 울트라 200V 프로세서는 AMD 라이젠 HX 370과 초당 프레임 수는 70프레임 전후로 유사했지만 전체 소비 전력은 약 32W로 AMD 대비 10W 가량 낮았다. ■ 노트북용 보급형 GPU 신제품 개발 멈춘 엔비디아 노트북 시장에 지포스 MX150/MX200 등 보급형 GPU를 공급하던 엔비디아는 최근 2-3년간 신규 제품 개발을 중단한 상태다. 현재는 H100 등 서버용 AI GPU, 게임용 데스크톱PC와 노트북용 RTX 40 시리즈로 무게 중심을 옮겼다. 컴퓨텍스 2024 기간 중 만난 글로벌 노트북 제조사 관계자는 "GPU를 따로 탑재하면 전력 소모가 늘어 배터리 지속시간이 줄어들고 제조 원가가 상승함은 물론 메인보드 소형화, 내부 냉각 구조 설계에도 영향을 준다"고 설명했다. 이어 "게임이나 동영상 처리에서 고성능 외장 GPU가 필요한 일부 제품을 제외하면 현재는 대부분의 제품이 프로세서 내장 그래픽에 의존하는 상황"이라고 설명했다. ■ 내장 GPU 성능 강화, 휴대형 게임PC 시장에도 변화 오나 코어 울트라 200V 프로세서는 휴대형 게임PC 시장에도 적지 않은 영향을 미칠 것으로 보인다. 30W 내외 저전력으로 높은 그래픽 성능을 발휘하는 특성 때문이다. 레노버 리전고, 에이수스 ROG 앨리(ROG ALLY) 등 현재까지 출시된 휴대형 게임PC는 대부분 AMD 라이젠 Z1/Z1 프리미엄 APU 기반이다. 인텔 프로세서 기반 제품은 올 초 MSI가 공개한 '클로 A1M'이 유일하며 이 회사는 내년 초 코어 울트라 200V 탑재 '클로 8 AI+'를 출시 예정이다. 이 외에 대형 제조사 한 곳 역시 비슷한 제품 출시를 검토 중이다.

2024.09.22 14:00권봉석

韓-美, "가정용 GPU로 기존 104배 넘는 초고효율 AI학습 가속기술 개발"

PC방이나 가정용 GPU를 이용해 고속 네트워크 없이도 AI학습 성능을 최대 104배까지 끌어 올릴 수 있는 획기적인 기술이 개발됐다. KAIST는 전기및전자공학부 한동수 교수 연구팀이 일반 소비자용 GPU로 네트워크 대역폭이 제한된 분산 환경에서 AI 모델 학습을 혁신적으로 가속할 수 있는 기술을 개발했다고 19일 밝혔다. 기업과 연구자들이 고가의 데이터센터급 GPU(엔비디아 H100)나 고속 네트워크 없이도 AI 모델을 효율적으로 학습할 수 있는 길이 열린 셈이다. 기존에는 AI 모델 학습을 위해 개당 수천만 원에 달하는 고성능 서버용 GPU(엔비디아 H100) 여러 대와 이들을 연결하기 위한 400Gbps급 고속 네트워크 등 고가 인프라가 필요했다. 연구팀은 이 같은 문제 해결을 위해 '스텔라트레인(StellaTrain)'이라는 분산 학습 프레임워크를 개발했다. 고성능 H100 대비 10~20배 저렴한 GPU를 활용하고 고속 전용 네트워크 대신 대역폭이 수백에서 수천 배 낮은 일반 인터넷 환경에서도 효율적인 분산 학습이 가능하도록 알고리즘을 짰다. CPU와 GPU를 병렬로 연결해 학습 속도도 높였다. 또 네트워크 속도에 맞춰 데이터를 효율적으로 압축 및 전송하는 알고리즘을 적용, 고속 네트워크 없이도 빠른 학습이 가능하도록 설계했다. 특히, 학습을 작업 단계별로 CPU와 GPU가 나눠 병렬 처리하도록 새로운 파이프라인 기술도 도입했다. 원거리 분산 환경에서도 GPU 연산 효율을 높이기 위해 AI 모델별 GPU 활용률을 실시간 모니터링, 모델이 학습하는 샘플 개수(배치 크기)를 동적으로 결정하고 변화하는 네트워크 대역폭에 맞춰 GPU 간 데이터 전송을 효율화했다. 연구 결과, 스텔라트레인 기술을 사용하면 기존의 데이터 병렬 학습에 비해 최대 104배 빠른 성능을 낼 수 있는 것으로 나타났다. 임휘준 박사는 "스텔라트레인 기술을 사용하면 기존 데이터 병렬 학습 속도 대비 최대 104배 빠른 성능을 낼 수 있다"고 말했다. 한동수 교수는 "이번 연구가 대규모 AI 모델 학습을 누구나 쉽게 접근할 수 있게 하는 데 큰 기여를 할 것"이라며 "앞으로도 저비용 환경에서도 대규모 AI 모델을 학습할 수 있는 기술을 계혹 개발해 나갈 계획"이라고 말했다. 연구는 KAIST 임휘준 박사, 예준철 박사과정 학생, UC 어바인 산기타 압두 조시(Sangeetha Abdu Jyothi) 교수와 공동으로 진행됐다. 연구 성과는 지난 8월 호주 시드니에서 열린 'ACM SIGCOMM 2024'에서 발표됐다. 한편, 한동수 교수 연구팀은 지난 7월 GPU 메모리 한계를 극복한 소수의 GPU로 거대 언어 모델을 학습하는 새로운 기술도 발표했다. 이 연구는 최신 거대 언어 모델의 기반이 되는 전문가 혼합형(Mixture of Expert) 모델을 제한된 메모리 환경에서도 효율적인 학습을 가능하게 한다. 기존에 32~64개 GPU가 필요한 150억 파라미터 규모의 언어 모델을 단 4개의 GPU만으로도 학습할 수 있다. 한동수 교수는 "학습에 필요한 최소 GPU 대수를 8배~16배 낮출 수 있다"며 "연구에는 KAIST 임휘준 박사와 김예찬 연구원이 참여했다"고 덧붙였다. 이 연구결과는 오스트리아에서 열린 AI 분야 국제 학회인 ICML에 발표됐다. 이 성과는 한국연구재단이 주관하는 중견연구사업, 정보통신기획평가원(IITP)이 주관하는 정보통신·방송 기술개발사업 및 표준개발지원사업, 차세대통신클라우드리더십구축사업 (RS-2024-00123456), 삼성전자의 지원을 받았다.

2024.09.19 14:42박희범

ISC, 차세대 AI칩 테스트 소켓 'WiDER-FLEX' 첫 공개

반도체 부품 기업 아이에스시(ISC)는 이달 4일부터 6일까지 대만 타이베이에서 열린 '세미콘 타이완 2024'에서 최신 AI용 반도체 테스트 소켓을 포함한 다양한 신제품을 공개했다고 11일 밝혔다. '세미콘 타이완 2024'는 대만의 반도체 및 하이테크 산업을 배경으로 약 1천100개 이상의 기업이 참가해 기술력을 선보이는 전시회다. 이 자리에서 아이에스시는 특히 'WiDER-FLEX' 소켓으로 많은 관심을 받았다. 'WiDER-FLEX'는 기존 WiDER 브랜드의 3세대 버전으로, 대형 패키징 전용 테스트 소켓이다. 최근 AI 서버 시장의 확대와 함께 패키징 대형화가 진행됨에 따라 이러한 변화에 맞춘 제품 수요가 급증하고 있다는 점에서 주목받고 있다. 아이에스시 관계자는 "'WiDER-FLEX'는 초대형 사이즈 칩 테스트 시 필요한 작동 범위와 접촉 압력을 기존 제품 대비 30% 이상 개선한 제품"이라며 "특히 생성형 AI를 위한 GPU, CPU, NPU 등의 하이엔드 반도체 테스트에 탁월한 성능을 보여 대만 현지 글로벌 OSAT와 파운드리 담당자들의 높은 관심을 받았다"고 밝혔다. 또한 "현재 글로벌 반도체 시장에서 우월한 위치를 차지하고 있는 대만에서 자사의 기술력을 알릴 수 있게 되어 뜻 깊다"며 "지속적인 연구개발 투자와 증가하는 AI 반도체 테스트 소켓 매출로 계속 성장하는 기업이 되겠다"고 강조했다.

2024.09.11 09:52장경윤

베슬AI-하이퍼엑셀, 차세대 LLMOps 솔루션 만든다

베슬에이아이(대표 안재만)는 하이퍼엑셀과 전략적 업무 협약(MOU)을 체결했다고 9일 밝혔다. 이번 협약은 LLMOps 솔루션과 반도체기술 분야에서 양사의 첨단 기술을 융합해 차세대 LLMOps 솔루션 개발 및 시장 경쟁력 강화를 목표로 한다. 베슬에이아이는 MLOps와 LLMOps(Large Language Machine Operations) 영역에서 대규모 AI 모델의 운영과 관리를 가능하게 하는 솔루션을 보유하고 있다. 이를 토대로 하이퍼엑셀의 LLM특화 반도체 LPU(LLM Processing Unit)와의 시너지를 구축, 시장의 고가 GPU를 상회하는 높은 전력 효율과 저렴한 가격 경쟁력을 선보일 예정이다. GPU는 AI 학습에 필수적이지만, 높은 비용과 전력 소모가 여전히 해결해야 할 과제로 지적되고 있다. 이런 문제를 해결하기 위한 이번 협업은 국내뿐만 아니라 글로벌 시장에서도 경쟁력을 갖출 것으로 기대된다. 이를 통해 생성형 AI 업계의 기업과 연구기관은 AI 훈련과 작업을 확장하면서도 비용 부담을 효과적으로 줄일 수 있게 된다. 양사는 그 외에도 다양한 분야에서 긴밀히 협력할 계획이다. 기술 정보의 상호 공유와 공동 연구 개발을 촉진하고, 시장 경쟁력을 높이는 동시에 LLM 기반의 모델 개발 및 배포 과정의 효율성을 극대화한다. 더불어 공동 마케팅과 영업 활동을 강화해 사업 기회를 확장하고, 인력 교류와 교육 프로그램 운영을 통해 상호 발전을 도모할 예정이다. 안재만 베슬에이아이 대표는 "이번 MOU 체결은 LLM 개발에 필수적인 AI 인프라와 이에 특화된 반도체 기술의 융합을 통해 혁신을 선도할 수 있는 중요한 기회"라며 "하이퍼엑셀과의 협력을 통해 글로벌 AI 시장에서의 입지를 더욱 강화하고, 세계 최고 수준의 AI 솔루션을 제공하는 데 힘쓰겠다"고 말했다. 김주영 하이퍼엑셀 대표는 "베슬에이아이가 보유한 AI 기술과 하이퍼엑셀이 고도화하고 있는 LPU 반도체 기술의 접목을 통해 더욱 고도화된 서비스 경험을 제공할 수 있을 것"이라면서 "확장성과 안정성이 뛰어난 LLMOps 솔루션으로 기업들이 AI모델을 더욱 손쉽게 도입하고, 학습하며 운영할 수 있도록 기술 발전에 박차를 가하겠다"고 밝혔다.

2024.09.09 13:58백봉삼

인텔, AI PC 활용 돕는 S/W 'AI 플레이그라운드' 소개

인텔이 3일 오후(베를린 현지시간, 한국시간 4일 새벽 1시) 진행한 코어 울트라 200V(시리즈2, 루나레이크) 출시 행사에서 일반 소비자의 AI PC 활용을 돕는 무료 소프트웨어 'AI 플레이그라운드'(AI Playground)를 소개했다. 이날 댄 로저스(Dan Rogers) 인텔 클라이언트 컴퓨팅 그룹 클라이언트 성능 마케팅 랩 총괄은 "인텔은 클라우드 도움 없이 AI를 PC에서 직접 실행할 수 있는 하드웨어를 갖추고 있지만 이를 활용하려면 AI 모델 다운로드와 스크립트 실행 등 복잡한 절차가 필요하다"고 설명했다. AI 플레이그라운드는 인텔이 오픈소스 저장소 '깃헙'에 무료로 공개한 AI 소프트웨어다. 코어 울트라 H시리즈(메테오레이크)와 8GB 이상 메모리를 탑재한 인텔 아크 A750/A770 그래픽카드와 호환된다. 윈도 운영체제에서 간편히 설치 가능한 것이 가장 큰 장점이다. 댄 로저스 총괄은 "AI 플레이그라운드는 인텔 PC에서 실행하기에 적합한 다양한 AI 모델을 쉽게 선택할 수 있다. 스테이블 디퓨전을 이용한 이미지 생성시 클라우드 도움 없이 아크 GPU만 활용해 거의 즉시 실행된다"고 밝혔다. AI 플레이그라운드는 검색-증강 생성(RAG)이 적용된 SLM(소형언어모델)도 탑재했다. SLM이 알지 못하는 최신 정보나 지식을 학습시키는 것도 가능하다. 댄 로저스 총괄은 "인텔 PC에 저장된 데이터로 구동되는 개인용 챗봇"이라고 설명했다. 이어 "AI 플레이그라운드는 개방돼 있고 누구나 접근 가능하며 보안 면에서 안전하다. PC에서 AI를 처음 활용할 때 간편하게 쓸 수 있는 유용한 도구"라고 덧붙였다. 오픈소스 저장소 '깃헙'에 현재 등록된 베타버전은 코어 울트라 H시리즈(메테오레이크)만 지원한다. 인텔은 코어 울트라 200V 탑재 PC 출시 시점을 전후해 아크 130V/140V GPU를 지원하는 업데이트도 공개 예정이다.

2024.09.04 04:32권봉석

'12단 HBM3E' 수급 다급해진 엔비디아…삼성·SK 대응 분주

엔비디아가 최근 생산 차질 논란이 불거진 최신형 AI 반도체 '블랙웰'을 당초 일정대로 양산하겠다고 밝혔다. 칩 재설계를 통한 대체품을 내놓는 것으로, HBM(고대역폭메모리) 역시 더 높은 용량의 제품을 탑재하기로 했다. 이에 따라 삼성전자, SK하이닉스 등 주요 메모리 기업도 최선단 HBM의 인증을 서두르기 위한 대응에 나선 것으로 파악됐다. 29일 업계에 따르면 삼성전자·SK하이닉스 등 주요 메모리 제조업체는 엔비디아의 최신 GPU '블랙웰' 칩 설계 변경에 따라 HBM3E 12단 인증을 서두르고 있다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. TSMC의 4나노미터(nm) 공정을 기반으로, 총 2천80억개의 트랜지스터를 집적했다. 이는 기존 GPU 대비 2배가량 많은 것으로, 2개의 GPU 다이(Die)를 10TB(테라바이트)/s의 빠른 데이터 전송 속도로 연결했기 때문에 가능한 수치다. 세부적으로 블랙웰 GPU는 전력소모량에 따라 700W급인 B100, 최대 1200W급인 B200으로 나뉜다. 당초 엔비디아는 B100 GPU 2개와 '그레이스' CPU 1개를 결합한 구조의 AI 가속기 'GB200'을 회사 회계연도 기준 2025년 4분기(2024년 11월~2025년 1월) 출시할 예정이었다. ■ SoC 재설계로 HBM3E도 8단→ 12단 변경 그러나 최근 GB200의 양산 일정에 차질이 생겼다. 업계에서 분석하는 원인은 크게 두 가지다. 하나는 B100 칩 설계의 문제, 또 하나는 GB200에 필요한 TSMC의 최첨단 패키징 'CoWoS-L'의 용량 부족이다. CoWoS는 엔비디아가 자체 개발한 2.5D 패키징 기술로, 로직반도체와 HBM을 SiP(시스템 인 패키지) 형태로 묶는 것을 뜻한다. 2.5D 패키징은 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 기술이다. 활용되는 소재에 따라 종류가 나뉘며, CoWoS-L의 경우 로컬실리콘인터커넥트(LSI)라는 소형 인터포저를 채용한다. 이에 엔비디아는 즉각 대응책을 수립했다. 기존 B100을 개량한 'B102'를 대체품으로 재설계하고, 이를 기반으로 'GB200A'를 제작하기로 했다. A는 공랭(Air Cooling)의 의미다. 패키징 구조 역시 변경된다. GB200은 GPU 2개를 묶어 한 칩처럼 동작하게 하고, 주변에 HBM3E 8단(24GB)을 8개 집적하는 형태다. 반면 GB200A는 GPU를 묶지 않고 B102 칩 하나에 HBM3E 12단(36GB)를 4개 집적한다. 내장된 GPU 2개가 총 HBM 8개를 운용하는 것보다 효율이 떨어지기 때문에, 단일 HBM의 용량을 높이고자 12단을 채용한 것으로 분석된다. 엔비디아는 이 같은 칩 재설계를 통해 어제(29일 한국시간) 2분기 실적발표 컨퍼런스콜에서 "당초 계획대로 블랙웰 GPU 양산 공급을 연말에 진행하겠다"는 뜻을 밝혔다. ■ HBM3E 12단 공급 빨라져야…삼성·SK 대응 분주 엔비디아가 블랙웰 GPU의 양산 일정을 고수하면서, 삼성전자·SK하이닉스·마이크론 등 메모리 제조업체들의 대응 또한 분주해지고 있다. 당초보다 빨리 HBM3E 12단 제품을 엔비디아에 공급해야 하는 상황에 놓였기 때문이다. HBM3E는 5세대 HBM으로, 올해 상반기 8단 제품부터 상용화에 들어갔다. 더 많은 D램을 적층하는 12단 제품은 주요 메모리 3사 모두 고객사와의 퀄(품질) 테스트를 거치고 있으며, 아직까지 공식 승인을 받은 기업은 없다. 이에 엔비디아도 주요 메모리 제조사에 HBM3E 12단 승인을 앞당기기 위한 논의를 진행한 것으로 알려졌다. 반도체 업계 관계자는 "엔비디아의 요청에 따라 메모리 제조사들도 HBM3E 12단 물량을 급하게 늘리려는 움직임을 보이고 있다"며 "HBM3E 12단의 수율이 상대적으로 낮고, 긴급한 주문이기 때문에 메모리 제조사 입장에서도 더 높은 가격을 책정받을 수 있다는 이점을 누릴 수 있다"고 설명했다.

2024.08.30 10:04장경윤

엔비디아 2Q 호실적에도 주가 하락…삼성·SK하이닉스 동반↓

엔비디아가 28일(현지시간) 2분기 실적에서 시장 전망치를 상회하는 실적을 내고도 주가는 시간외 거래에서 급락했다. 이에 영향을 받아 SK하이닉스와 삼성전자도 동반 약세를 보이고 있다. 29일 오전 11시 29분 기준 삼성전자는 전일 대비 2천200원(2.88%) 내린 7만4천200원에 거래되고 있다. SK하이닉스도 전일 대비 1만600원(5.91%) 급락한 16만8천700원에 거래 중이다. SK하이닉스와 삼성전자는 엔비디아에 고대역폭 메모리(HBM)을 납품한다. 인공지능(AI) 대장주인 엔비디아가 지난 2월, 5월 실적을 발표할 때마다 주가가 급등하고, AI와 메모리 기업의 주가에 영향을 끼쳐왔다. 이번 엔비디아 실적 발표에서도 삼성전자와 SK하이닉스를 비롯해 국내 반도체주는 줄줄이 급락을 보였다. 이는 엔비디아의 분기 실적이 시장의 기대에 미치지 못한 것과 더불어 블랙웰 칩 생산 지연에 대한 우려 때문으로 풀이된다. 엔비디아는 2분기 컨콜에서 블랙웰 지연설에 대해 부인하며 4분기에 출시할 예정이라고 밝혔다. 다만, 블랙웰 생산에서 결함으로 인해 마스크를 변경했다는 점은 인정했다. 엔비디아 회계연도에서 4분기는 11월~익년 1월에 해당되므로, 블랙웰은 내년 1월에 출시될 수 있다는 의미다. 블랙웰 출시 지연은 메모리 업체의 HBM 공급 물량 계획에 차질을 초래할 수 있다. SK하이닉스는 엔비디아 블랙웰에 HBM3E 8단을 공급하며, 삼성전자는 현재 퀄테스트(품질테스트)를 받는 중이다. 엔비디아는 올 2분기에 300억4천만 달러(40조1천785억원)의 매출로 전년 동기 대비 122% 증가했다. 시장조사업체 LSEG가 전망한 월가 예상치 매출 287억 달러를 웃돈 실적이다. 2분기 영업이익은 186억 4천200만 달러(약 24조9천336억원)로 전년 동기 대비 2.74배 늘어났다. 엔비디아는 올 3분기 매출은 325억 달러에 이를 것으로 전망했다. 이 역시 월가 전망치 317억 달러를 상회하는 수준이다. 이에 엔비디아 주가는 뉴욕 증시 정규장에서 2.10% 하락 마감한 뒤 실적 발표 후 시간 외 거래에서 6.89% 하락했다.

2024.08.29 11:43이나리

퓨리오사AI, 차세대 AI칩 '레니게이드' 공개

AI 반도체 스타트업 퓨리오사AI는 미국 현지시간 기준 26일 'Hot Chips 2024' 컨퍼런스에서 2세대 AI 반도체 RNGD(레니게이드)를 공개했다고 28일 밝혔다. 퓨리오사의 2세대 AI 반도체 RNGD는 거대언어모델(LLM) 및 멀티모달모델의 효율적인 추론을 위해 설계된 데이터센터용 가속기다. 국내 팹리스가 Hot Chips 행사에서 신제품 발표자로 선정된 것은 최초다. HBM3가 탑재된 추론용 AI 반도체에 대한 행사 현장의 관심과 반응도 높았던 것으로 전해진다. 이날 백준호 대표는 '퓨리오사 RNGD: 지속 가능한 AI 컴퓨팅을 위한 텐서 축약 프로세서(Tensor Contraction Processor)'라는 주제로 제품 소개 및 초기 벤치마크를 공개하며, Llama 3.1 70B의 라이브 데모를 선보였다. 초기 테스트 결과 RNGD는 GPT-J 및 Llama 3.1과 같은 주요 벤치마크 및 LLM에서 경쟁력 있는 성능을 보였으며, 단일 PCIe 카드 기준으로 약 100억 개의 파라미터를 가진 모델에서 초당 2천~3천개의 토큰을 처리할 수 있는 성능을 나타냈다. RNGD는 범용성과 전력 효율의 균형을 이룬 텐서 축약 프로세서(TCP) 기반 아키텍처다. 주요 GPU의 TDP가 1000W 이상인 것에 비해, 150W TDP의 높은 효율성을 갖췄다. 또한 48GB HBM3 메모리를 탑재해 Llama 3.1 8B와 같은 모델을 단일 카드에서 효율적으로 실행 가능하다. 퓨리오사AI는 2017년 삼성전자, AMD, 퀄컴 출신의 세 명의 공동 창업자에 의해 설립된 이후, 지속적인 기술 혁신과 제품 양산에 집중해 왔다. 그 결과 TSMC로부터 첫RNGD 샘플을 올 5월에 받은 후 빠른 속도로 브링업을 완료했다. 소프트웨어 역량도 강화했다. 퓨리오사AI는 2021년 당시 출시된 1세대 칩 첫 샘플을 받은 지 3주 만에 브링업을 완료하고 MLPerf 벤치마크 결과를 제출한 바 있으며, 이후 컴파일러 개선만을 통해 성능을 113% 향상시킨 바 있다. 백준호 퓨리오사AI 대표는 "이번 Hot Chips에서 RNGD를 글로벌 시장에 공개하고 빠른 초기 브링업 결과를 발표할 수 있었던 것은 회사의 기술 개발이 하나의 결실을 맺은 것”이라며 “RNGD는 업계의 실질적인 추론 니즈를 충족시킬 수 있는 지속 가능하고 현실적인 AI 컴퓨팅 솔루션”이라고 강조했다. 그는 이어 “우리 제품이 LLM을 효율적으로 연산할 수 있다는 것을 증명하였다는 것은 회사가 다음 성장 단계에 접어들었다는 것을 의미한다"며 "팀의 헌신과 지속적인 노력에 대해 매우 자랑스럽고 감사하다”고 말했다. 아디티아 라이나 GUC 최고마케팅책임자(CMO)는 "퓨리오사AI와의 협력으로 성능과 전력 효율성 모두 뛰어난 RNGD를 시장에 선보이게 됐다"며 "퓨리오사AI는 설계에서부터 양산 샘플 출시까지 탁월한 역량을 보여주며, 업계에서 가장 효율적인 AI 추론 칩을 출시하게 되었다"고 밝혔다.

2024.08.28 15:04장경윤

칩스앤미디어, 中 AI 반도체 기업과 JV 설립

글로벌 비디오IP 기술 선도기업 칩스앤미디어는 26일 이사회 결정을 통해, 중국 AI SOC 기업과 조인트벤처(이하, JV)를 설립한다고 27일 밝혔다. 조인트벤처 설립의 목표는 ▲중국 시장내 자체 IP 재판매 ▲기존 IP기반 데이터센터용 특화 IP를 추가 개발로 중국 데이터센터 시장 직접 공략 ▲중국내 영업 경쟁력 강화 ▲JV향 반도체 설계 라이선스 매출 극대화 등이다. 최근 중국은 미중 반도체 전쟁으로 자체 반도체 생태계를 구축하기 위해 엔비디아의 GPU를 대체하려는 움직임이 활발한 상황이다. 이에 따라 자체 GPU나 AI SoC(NPU) 개발을 강화하고 있으며, 경기 악화에도 불구하고 팹리스 기업이 2010년 약 600곳에서 2023년 기준 3천450여곳으로 크게 급증하고 있다. 실제로 이번 JV 설립 상대회사는 중국 내 AI반도체 특화 기술 경쟁력이 높은 회사다. 칩스앤미디어의 장기 고객이기도 해 비즈니스 협업관계가 높아 시너지가 기대된다. 그동안 칩스앤미디어는 온-디바이스 AI 성장 기회에 맞춰 해외사업을 적극 모색해 왔다. 김상현 칩스앤미디어 대표이사는 "최근 중국내 반도체 굴기, 독자적 반도체 생태계 구축 의지가 강해 중국 지방정부 및 테크 기업의 AI 반도체 수요도 꾸준히 증가하고 있다"며 "중국 반도체 생태계 합류로 중국내 데이터센터 공략과 자체 IP의 재판매 더 나아가 제품 고도화 등을 통해 중국 반도체 시장 선점에 나설 것"이라고 밝혔다.

2024.08.27 09:03장경윤

엔비디아, 차세대 AI GPU '블랙웰' 지연설 부인

엔비디아가 차세대 GPU '블랙웰' 출시 지연설을 부인했다. 이달 초 미국 디인포메이션과 블룸버그가 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 연기됐다"고 보도한 내용을 우회적으로 반박했다. 엔비디아는 반도체 업계 학술행사 '핫칩스 2024'를 앞두고 진행된 사전 브리핑에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 연말에 차질 없이 공급될 것"이라고 밝혔다. ■ TSMC N4P 기반 블랙웰 GPU, 3월 첫 공개 블랙웰 GPU는 지난 3월 GTC 2024 행사에서 처음 공개된 엔비디아 차세대 AI 가속용 GPU다. 대만 TSMC의 4나노급 공정(N4P)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동하며 블랙웰 두 개와 그레이스(Grace) CPU 한 개로 최소 단위인 GB200 한 개가 구성된다. 젠슨 황 엔비디아 CEO는 지난 6월 컴퓨텍스 기조연설에서 "GTC 2024에서 공개한 블랙웰은 개발 단계 제품이며 현재는 블랙웰이 순조롭게 양산에 들어갔다"며 실제 제품을 공개하기도 했다. ■ 디인포메이션·공상시보, 블랙웰 출시 지연설 제기 이달 초 미국 디인포메이션과 대만 공상시보는 소식통을 인용해 "블랙웰 출시 시기가 내년 1분기로 지연됐다"고 보도했다. 디인포메이션은 공급망 관계자를 인용해 "엔비디아가 블랙웰의 설계에 문제를 겪고 있으며 메타, 마이크로소프트, 구글 등 주요 고객사에 이미 통보를 마친 상태"라고 설명했다. 대만 공상시보는 "엔비디아의 핵심 협력사인 TSMC가 블랙웰 GPU를 연결하는 인터커넥트의 결함을 발견했다는 설이 있지만 이를 확인하기는 어렵다. 그러나 마이크로소프트 등 주요 고객사가 블랙웰 기반 AI 클러스터를 만들겠다는 계획이 내년 중반 이후로 미뤄질 가능성이 있다"고 보도했다. 이에 대해 엔비디아는 "호퍼 기반 H시리즈 수요가 여전히 크며 블랙웰 시제품 공급이 시작됐고 하반기부터 계획대로 양산에 들어갈 것이다. 시장의 루머에는 답변하지 않는다"고 밝혔다. 엔비디아 서버용 랙(복수의 서버를 저장할 수 있는 특수 프레임)을 제작하는 대만 폭스콘 역시 지난 14일 2분기 실적발표 자료를 통해 "GB200 랙 개발 일정이 순조롭게 진행되고 있다"며 "폭스콘이 확실히 첫 공급업체가 될 것이고, 출하는 올 4분기에 시작될 것"이라고 설명했다. ■ 엔비디아 "블랙웰 양산·출시 일정 변함 없다" 엔비디아는 25일(미국 현지시간)부터 3일간 미국 캘리포니아 주 스탠포드대학교에서 열리는 반도체 업계 학술행사 '핫칩스 2024'(Hot Chips 2024)를 앞두고 진행한 온라인 브리핑에서 블랙웰 출시 지연설을 반박했다. 엔비디아는 23일 진행된 'AI 미디어 프리브리핑'에서 "블랙웰 GPU는 원활히 생산돼 사내 데이터센터에서 구동 중이며 이미 밝힌 바와 같이 양산에 들어가 올 연말 고객사에 전달될 것"이라고 설명했다. 엔비디아는 브리핑 중 블랙웰 기반 서버 블레이드 사진과 함께 실제 설치된 사내 서버실 사진도 공개했다. ■ "블랙웰 출시 지연 사실이라 해도 영향 적어" 엔비디아는 오는 28일(미국 현지시간) 2분기 실적을 발표 예정이다. 해당 기간 전까지 주가에 크게 영향을 미칠 수 있는 사안에 대해서는 구체적으로 언급하지 않는 것이 관례다. 그러나 차세대 제품인 블랙웰 GPU 지연설이 악영향을 미친다는 판단 아래 이례적으로 이를 반박한 것으로 추정된다. 2분기 실적 발표에서도 블랙웰 출시 일정 관련 어떤 형태로든 언급이 있을 것으로 보인다. 미국 뉴욕 소재 시장조사업체인 멜리우스 리서치는 "엔비디아 매출 중 전세대 제품인 호퍼 기반 H100과 H200이 메타 라마4(Llama 4), 오픈AI GPT-5 등 LLM(거대언어모델) 훈련에 대거 투입되고 있으며 블랙웰 출시가 지연되더라도 엔비디아의 손실은 극히 낮을 것"이라고 추정했다.

2024.08.26 16:39권봉석

PC AI 성능 측정 벤치마크 프로그램 '긱벤치 AI' 등장

PC와 스마트폰 성능 비교에 가장 흔히 쓰이는 것이 바로 벤치마크 프로그램이다. 통제된 환경에서 서로 다른 회사(혹은 같은 회사) 프로세서나 제품 성능을 수치와 그래프로 가장 잘 비교할 수 있기 때문이다. 예를 들어 CPU 성능 비교에는 마이크로소프트 오피스 기반 자동화된 스크립트로 반응 시간을 측정하는 PC마크나 UL 프로시온을, GPU 성능 비교는 3D마크(3DMark)나 각종 게임에 내장된 벤치마크 모드를 활용할 수 있다. 그러나 지난 해 말부터 등장한 AI PC의 실제 처리 성능을 정확히 측정할 수 있는 소프트웨어는 없었다. 윈도 운영체제 탑재 PC 성능 비교용으로 널리 쓰이는 UL 프로시온 역시 AI 이미지 생성 벤치마크와 AI 컴퓨터 비전 벤치마크를 내장했지만 맥OS는 지원하지 않았다. PC·스마트폰용 프로세서 성능 비교에 널리 쓰이는 '긱벤치'(Geekbench)를 만든 프리미티브랩스는 최근 AI 성능 측정용 벤치마크인 '긱벤치 AI 1.0'을 정식 출시했다. 인텔과 AMD 등 x86 기반 프로세서, 애플 M시리즈와 퀄컴 스냅드래곤 등 Arm 기반 PC에서 보다 폭 넓은 비교가 가능하다. ■ 주요 PC 프로세서, AI 성능 TOPS로 비교 AI 처리 성능에는 다양한 요소가 작용한다. 먼저 CPU 뿐만 아니라 NPU와 GPU가 함께 개입하는데다 FP32(부동소수점, 32비트), FP16(부동소수점, 16비트)나 INT8(정수, 8비트) 등 데이터 정밀도도 영향을 미친다. 여기에 각 운영체제나 프로세서 제조사마다 지원하는 AI 처리용 라이브러리에도 차이가 있다. 인텔은 AI 실행을 위한 자체 라이브러리 '오픈비노'를 제공하며 마이크로소프트 윈도 운영체제는 ONNX 런타임을 지원한다. 애플은 M 시리즈 실리콘에 내장된 NPU를 활용할 수 있는 라이브러리인 코어ML을 이용한다. 지금까지 각 제조사는 NPU 성능을 비교하기 위한 요소로 TOPS(1초 당 1조 번 AI 연산)를 내세웠지만 이는 어디까지나 계산상으로 얻은 값이며 실제 성능을 정확히 반영하기 어렵다. ■ 긱벤치 AI, 폭넓은 운영체제·프로세서 지원 프리미티브랩스가 지난 14일 공개한 긱벤치 AI는 윈도11과 맥OS 등 다양한 운영체제는 물론 인텔, 퀄컴, 애플, AMD가 제공하는 최적화된 라이브러리를 모두 활용한다. 인텔 오픈비노, 마이크로소프트 ONNX, 애플 코어ML을 지원하며 지원 운영체제 역시 윈도와 맥OS로 확대했다. CPU와 NPU 별로 지원하는 라이브러리와 데이터 정밀도를 달리하며 작동 시간을 측정한다. 이를 활용하면 정밀도 별 CPU나 NPU 작동 특성, ONNX 런타임이나 코어ML 등 운영체제 제공 라이브러리 별 특성 비교에도 도움이 될 것으로 예상된다. ■ 소비자와 업계에 TOPS 벗어난 실제 성능 제시 가능 긱벤치 AI 역시 한정된 시나리오에서 성능을 평가한다는 한계를 지녔다. 그러나 프로세서·GPU 제조사가 아닌 제3의 회사가 만든 중립적인 벤치마크 프로그램이 늘어났다는 데 의미가 있다. 오는 9월 인텔 코어 울트라 시리즈2(루나레이크)를 시작으로 이르면 내년 상반기 등장할 스냅드래곤 X 엘리트/플러스 2세대 등이 등장하는 시점에는 AI PC의 성능에 대한 보다 객관적인 비교가 가능해질 것으로 보인다.

2024.08.25 11:53권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

윤곽 잡힌 K-로봇 청사진…자원 효율적 안배 집중해야

"갤S25 엣지, 더 싸게 사자"...자급제폰 온라인몰서 인기

닛산 몰락·혼다 후퇴 '후진하는 일본차'..."남일 아냐"

"기술이 뚫려도 제도가 막았어야"...유심 해킹 민낯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현