• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 가속기'통합검색 결과 입니다. (25건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 RTX3090보다 2.1배 빠른 가속기술 개발…전력소비도 3.3배 줄여

엔비디아 RTX3090보다 2.1배 빠른 가속기술이 상용화 초기 수준으로 개발됐다. KAIST는 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망 기반 인공지능(AI) 추론 속도를 획기적으로 높일 수 있는 AI 반도체 기술 '오토GNN'을 세계 최초로 개발했다고 5일 밝혔다. 오토 GNN은 엔비디아 고성능 그래픽카드인 'RTX 3090' 대비 속도는 2.1배, 일반 CPU와 비교했을 땐 무려 9배 빠르다. 에너지 소모는 3.3배 줄였다. RTX 3090은 4K·8K 게이밍과 8K 영상 편집, 대형 3D 렌더링, AI 연산 같은 '초고해상도·대용량 데이터' 작업에 주로 쓴다. 가격도 보통 수백만원 대다. 오토 GNN이 이를 대체할 수 있다는 것이 정명수 교수 설명이다. 정 교수는 "상용화로 바로 가기는 어렵지만, 상용화 초기 단계인 개념증명(POC)을 이번에 한 것"이라며 "상용화로 가기 위해선 삼성미래기술육성사업으로 예산을 지원한 기관 등과 협의를 거쳐야 한다"고 말했다. 이 연구에 정 교수가 창업한 파네시아 연구진이 주도적으로 참여해 사업화로 갈 공산이 클 것으로 전망됐다. 연구에는 파네시아 5명, KAIST 정명수 교수 연구실(카멜) 3명, 중국 베이징대학과 한양대학교, 미국 펜실베이니아 주립대에서 각각 1명씩 참여했다. 연구팀은 우선 GPU 서비스 지연이 일어나는 주된 원인이 AI 추론 이전 단계인 그래프 전처리 과정에 있음을 밝혀냈다. 이 과정은 전체 계산 시간의 70~90%를 차지하지만, 기존 GPU는 복잡한 관계 구조를 정리하는 연산에 한계가 있어 병목 현상이 상존했다. 이를 해결하기 위해 연구팀은 입력 데이터 구조에 따라 반도체 내부 회로를 실시간으로 바꾸는 FPGA(필드 프로그래머블 게이트 어레이) 기반의 적응형 AI 가속기 기술을 설계했다. 분석해야 할 데이터 연결 방식에 맞춰 반도체가 스스로 가장 효율적인 구조로 바뀌는 방식이다. 연구팀은 필요한 데이터만 골라내는 통합처리요소(UPE) 모듈과 이를 빠르게 정리·집계하는 단일 사이클 리듀서(SCR) 모듈을 반도체 안에 구현했다. 데이터 양이나 형태가 바뀌면 이에 맞춰 최적의 모듈 구성이 자동으로 적용돼, 어떤 상황에서도 안정적인 성능을 유지할 수 있도록 했다. 이 기술은 추천 시스템이나 금융 사기 탐지처럼 복잡한 관계 분석과 빠른 응답이 필요한 AI 서비스에 즉시 적용할 수 있다. 연구팀은 데이터 구조에 따라 스스로 최적화되는 AI 반도체 기술을 확보, 향후 대규모 데이터를 다루는 지능형 서비스 속도와 에너지 효율을 동시에 높일 수 있는 기반이 마련될 것으로 내다봤다. 정명수 교수는 “불규칙한 데이터 구조를 효과적으로 처리할 수 있는 유연한 하드웨어 시스템을 구현했다는 점에서 의미가 크다”며 “추천 시스템은 물론 금융·보안 등 실시간 분석이 필요한 다양한 AI 분야에 활용될 것”이라고 말했다. 연구는 지난 4일 호주 시드니에서 열린 컴퓨터 아키텍처 분야 국제학술대회인 제32회 'IEEE HPC국제 심포지엄'에서 발표됐다. 삼성미래기술육성사업이 지원했다.

2026.02.05 15:08박희범 기자

MS, 차세대 AI 추론칩 '마이아 200' 공개…"아마존보다 3배 빨라"

마이크로소프트가 자체 개발한 2세대 인공지능(AI) 가속기를 공개했다. 경쟁사 보다 높은 성능을 강조하며 AI 인프라 시장 리더십 강화에 나설 전망이다. 이번 신제품은 AI 추론(Inference) 효율성을 극대화하는 데 초점을 맞췄으며 오픈AI의 최신 모델인 'GPT-5.2'를 지원하는 핵심 동력이 될 것으로 주목받고 있다. 26일 마이크로소프트는 자사 블로그를 통해 TSMC의 3나노(nm) 공정을 기반으로 제작된 새로운 AI 칩 '마이아200(Maia 200)'을 발표했다. 마이아 200은 대규모언어모델(LLM) 구동의 핵심인 '토큰 생성' 비용을 절감하는 데 방점을 두고 설계됐다. TSMC의 3나노(nm) 공정을 적용해 칩 하나에 1천400억 개 이상의 트랜지스터를 집적해 연산 밀도를 극대화했다. 메모리 아키텍처 또한 대규모 모델 처리에 최적화됐다. 초당 7테라바이트(TB)의 데이터 전송 속도를 자랑하는 216GB 고대역폭메모리(HBM3e)를 탑재했으며 272MB의 온칩 SRAM을 더해 데이터 병목 현상을 최소화하고 처리 속도를 높였다. 연산 성능은 750와트(W) 전력 소모 범위 내에서 4비트(FP4) 정밀도 기준 10 페타플롭스(PFLOPS), 8비트(FP8) 기준 5 페타플롭스 이상의 성능을 발휘한다. 마이크로소프트 측은 마이아 200은 아마존웹서비스(AWS)의 '트레이니움(Trainium) 3세대' 대비 4비트 성능에서 3배 앞서며 구글의 '7세대 TPU'보다 뛰어난 8비트 연산 능력을 확보하며 추론 가속기 시장의 새로운 기준을 제시했다고 강조했다. 마이크로소프트 클라우드 및 AI 그룹의 스콧 거스리 수석 부사장은 "마이아 200은 하이퍼스케일러가 만든 칩 중 가장 강력한 성능을 자랑하는 퍼스트 파티 칩"이라며, "오늘날 가장 큰 모델을 쉽게 구동할 뿐만 아니라 미래의 더 거대한 모델까지 감당할 수 있는 여유 성능을 갖췄다"고 강조했다. 마이아 200은 출시 후 마이크로소프트의 거대 AI 생태계를 지탱하는 중추적인 역할을 맡게 된다. 오픈AI 최신 모델인 GPT-5.2를 포함한 다양한 모델을 서비스하는 데 투입되며 마이크로소프트 파운드리와 마이크로소프트 365 코파일럿의 가격 대비 성능 효율을 크게 개선할 예정이다. 또 마이크로소프트 초지능팀은 마이아 200을 활용해 차세대 자체 모델을 위한 합성 데이터 생성 및 강화 학습을 수행한다. 고품질의 도메인 특화 데이터를 더 빠르고 효율적으로 생성하여 AI 모델 훈련 파이프라인을 가속화하겠다는 전략이다. 시스템 수준에서의 혁신도 돋보인다. 마이아 200은 표준 이더넷 기반의 독자적인 2계층 스케일업 네트워크 설계를 도입했다. 칩당 2.8TB/s의 양방향 대역폭을 제공하며, 최대 6,144개의 가속기를 하나의 클러스터로 묶어 효율적인 대규모 추론 작업을 가능케 한다. 마이크로소프트는 개발자들을 위한 마이아 소프트웨어 개발 키트(SDK) 프리뷰도 함께 공개했다. 이 SDK는 파이토치(PyTorch) 통합, 트리톤(Triton) 컴파일러, Maia 전용 저수준 프로그래밍 언어 등을 포함하여 개발자가 하드웨어 성능을 최대로 끌어내면서도 이기종 하드웨어 간 모델 이식을 쉽게 할 수 있도록 돕는다. 마이아200은 미국 아이오와주 디모인 인근의 'US 센트럴' 데이터센터 리전에 이미 배치되었으며 이어 애리조나주 피닉스 인근의 'US 웨스트 3' 리전으로 확장될 예정이다. 이번 마이아200의 출시는 AI 인프라 시장에서 엔비디아 의존도를 낮추고 자체 칩 경쟁력을 통해 AI 서비스의 수익성을 극대화하려는 마이크로소프트의 강력한 의지가 반영된 것으로 풀이된다. 스콧 거스리 부사장은 "마이아 200은 칩 설계부터 데이터센터 배포까지 엔드-투-엔드(End-to-End) 검증을 통해 실리콘 출시 후 며칠 만에 실제 AI 모델을 구동하는 데 성공했다"며 "이는 타사 대비 절반 이하의 시간으로 단축된 획기적인 성과"라고 밝혔다.

2026.01.27 09:46남혁우 기자

삼성전기·LG이노텍, 패키지기판 호황에도 고민 깊어지는 이유

전자부품 업체인 삼성전기와 LG이노텍이 반도체 슈퍼사이클의 수혜로 패키지 기판 사업에서 호황을 맞고 있다. 양사 모두 올해 제조라인의 풀가동 체제를 예상할 정도로 수요를 매우 높게 바라보고 있다. 다만 반도체 패키지 기판의 핵심 소재인 CCL(동박적층판) 가격이 급등하고 있다는 점은 변수다. 최근에도 일본 주요 CCL 제조 기업이 오는 3월부터 CCL 가격을 30% 인상하겠다고 예고해 업계의 부담감을 키우고 있다. 22일 업계에 따르면 삼성전기, LG이노텍의 올해 반도체 패키지 기판 사업은 원재료 비용 상승에 따른 불확실성에 직면할 것으로 관측된다. 삼성전기·LG이노텍, 반도체 패키징 기판 '풀가동' 전망 양사는 최근 반도체 산업 전반에 도래한 슈퍼사이클에 따른 수혜를 입고 있다. 특히 삼성전기는 주로 AI 가속기에 탑재되는 FC-BGA(플립칩-볼그레이드어레이), LG이노텍은 모바일용 저전력 D램(LPPDR)에 탑재되는 FC-SCP(플립칩-칩스케일패키지) 분야에서 강세를 보인다. FC-BGA와 FC-CSP는 고성능 반도체에 쓰이는 패키지 기판이다. 기존 와이어 본딩 대신 미세한 범프(Bump)로 칩을 연결해, 전기적 성능 및 집적도를 향상시킨다. 이에 삼성전기, LG이노텍 모두 올해 반도체 패키지 기판 양산 라인이 '풀가동' 체제에 접어들 것으로 전망하고 있다. 최근에는 장덕현 삼성전기 대표, 문혁수 LG이노텍 대표가 직접 "생산능력 확장을 검토하고 있다"고 밝히기도 했다. 日 레조낙, 기판 핵심 소재 가격 30% 인상 발표…악영향 불가피 다만 반도체 패키지 기판의 필수 소재인 CCL 등 원자재 가격이 크게 오르고 있다는 점은 이들 기업에 비용 증가라는 고민거리로 작용할 전망이다. 삼성전기, LG이노텍의 기판 사업에서 CCL이 차지하는 원자재 매입 비중은 20%에 달한다. CCL은 반도체 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층한 소재다. 기판의 전기적 연결과 절연, 기계적 지지 역할을 담당한다. CCL은 구성 요소인 구리 및 유리섬유 등 원자재 비용 상승, 반도체 산업에서의 수요 증가 등으로 인해 가격이 크게 상승하고 있다. 지난해 연간 기준으로 10% 이상의 상승세를 나타냈다. 나아가 지난 16일에는 FC-BGA용 CCL 1위 공급업체인 일본 레조낙이 "오는 3월 1일부터 CCL 및 프리프레그(탄소섬유복합소재; CCL에 동박을 씌우기 전 상태)의 판매 가격을 약 30% 인상하겠다"고 밝혔다. 현재 삼성전기는 미쓰비시, 레조낙 등으로부터 CCL 및 프리프레그를 수급하고 있다. LG이노텍은 미쓰비시·쇼와덴코가 주요 수급처지만, 레조낙이 공식적으로 가격 인상을 발표한 만큼 이들 기업도 비슷한 움직임을 보일 가능성이 유력하다. 기판 업계 관계자는 "하이엔드급 패키지 기판의 경우 원자재 가격 상승분을 최종 고객사에 전가할 수 있으나, 나머지 일반 제품은 어려운 상황"이라며 "레조낙이 매우 이례적인 결정을 내린 만큼 삼성전기, LG이노텍 역시 사업 전략 구상에 고심을 겪고 있을 것"이라고 말했다.

2026.01.22 13:19장경윤 기자

"엔비디아 中 AI 가속기 시장 점유율, 66%→8% 떨어질 것"

중국 내 AI 가속기 시장에서 엔비디아 점유율이 8%대까지 떨어질 수 있다는 전망이 나왔다. 미국 정부의 첨단 반도체 수출 규제와 중국 업체들이 자체 설계한 추론 반도체 성장으로 엔비디아 의존도가 떨어질 수 있다는 것이다. 16일 닛케이 아시아는 글로벌 투자은행 번스타인 보고서를 인용해 "과거 중국 내 AI 가속기 시장에서 엔비디아 점유율은 66%였지만 앞으로 수년 내 8%까지 떨어질 수 있다"고 보도했다. 번스타인 보고서에 따르면 중국 내 반도체 제조사들은 AI 관련 GPU와 각종 가속기를 자체 개발하고 있으며 자국산 업체들의 점유율이 80%를 넘어설 수 있다. 실제로 현재 중국 내에서는 화웨이와 함께 무어스레드 등 두 업체가 두각을 나타내고 있다. 최근 중국 내 대표적 AI 스타트업으로 꼽히는 지푸AI는 화웨이 어센드 칩만 활용해 멀티모달 AI 모델을 훈련하는 데 성공하기도 했다. 미국 정부는 2020년 이후 중국 시장 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제를 지속적으로 강화하고 있다. 2022년 10월 조 바이든 행정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 당시 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 지난 해 초 출범한 도널드 트럼프 2기 행정부는 이를 한층 강화했다. 지난 13일 미국 정부는 블랙웰 아키텍처 기반 H200 칩의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 하지만 이번에는 중국 정부가 H200 구매를 제한하고 있다. 미국의 수출 제한 조치는 중국 시장에서 엔비디아의 경쟁력을 약화시키고 있다. 젠슨 황 엔비디아 CEO는 여러 공개 석상에서 기회가 있을 때마다 이와 관련된 발언을 내놓고 있다. 젠슨 황 CEO는 작년 5월 컴퓨텍스 타이베이 2025 기간 중 기자간담회에서 "중국은 세계 AI 연구자의 50%가 모여 있고, 세계 2위 컴퓨터 시장이지만 이를 다루는 미국 정부의 정책은 잘못됐다"고 비판했다. 지난 해 10월 진행된 컨퍼런스에서는 한 발 더 나아가 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다. 현재 중국 사업은 개점휴업 상태"고 밝히기도 했다.

2026.01.18 12:20권봉석 기자

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤 기자

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤 기자

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤 기자

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미 기자

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤 기자

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미 기자

"엔비디아, 中 겨냥해 저가형 블랙웰 AI칩 출시 예정"

엔비디아가 이르면 6월부터 '블랙웰' 기반의 신규 저성능 AI 반도체를 양산할 계획이라고 로이터통신이 25일 보도했다. 블랙웰은 엔비디아가 출시한 AI 가속기 중 가장 최신 세대의 아키텍처다. 당초 엔비디아는 중국 시장을 겨냥해 '호퍼' 아키텍처 기반의 'H20'을 공급해 왔으나, 최근 미국의 대중(對中) 반도체 수출 규제 수위 강화로 공급이 어려워졌다. 이에 엔비디아는 신규 AI 가속기로 중국 시장을 지속 공략하려는 것으로 풀이된다. 해당 칩은 엔비디아의 'RTX 프로 6000D' GPU를 기반으로 하며, HBM(고대역폭메모리) 대신 최신형 그래픽 D램인 GDDR7를 채용했다. 가격은 6천500~8천 달러 사이로, H20의 가격인 1만~1만2천 달러 대비 크게 낮은 수준이다. 또한 TSMC의 첨단 패키징 기술인 CoWoS(Chip-on-Wafer-on-Substrate)도 활용되지 않는다. CoWoS는 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 2.5D 패키징의 일종이다. 지난해 회계연도 기준으로, 중국은 엔비디아의 전체 매출에서 13%를 차지하는 주요한 시장이다. 엔비디아가 미국의 규제를 피해 새롭게 칩을 설계하는 것은 이번이 세 번째다. 한편 신규 칩의 구체적인 이름은 아직 밝혀지지 않았다. 중국 증권사 GF증권은 '6000D', 또는 'B40'으로 명명될 가능성이 높다고 밝힌 바 있다.

2025.05.25 09:05장경윤 기자

삼성전기, 2분기부터 AI 가속기용 FC-BGA 매출 본격화

삼성전기가 최첨단 반도체 기판 사업을 지속 확대하겠다는 의지를 드러냈다. 올 2분기부터 AI 가속기용 양산을 본격 확대하며, 유리기판도 시생산에 돌입할 예정이다. 삼성전기는 29일 2025년 1분기 실적발표 컨퍼런스콜에서 "2분기부터 AI 가속기용 기판 사업의 유의미한 매출이 발생될 예정"이라고 밝혔다. 삼성전기는 반도체 칩과 기판을 연결하는 FC-BGA(플립칩 볼그리드 어레이)를 제조하고 있다. FC-BGA는 기존 패키징 기술인 와이어 본딩 대비 전기적·열적 특성이 높아, HPC(고성능컴퓨팅)·AI용 반도체를 중심으로 수요가 증가하는 추세다. 또한 서버용 FC-BGA를 개발해 시장 확대를 지속 추진해 왔다. 현재 AMD·AWS(아마존웹서비스)·구글 등 주요 CSP(클라우드서비스제공자) 기업들과 제품 공급 논의를 활발히 진행 중인 것으로 알려졌다. 삼성전기는 "당사는 주요 거래선들과 협업해 AI 가속기용 기판 양산을 준비해 왔으며, 2분기부터 유의미한 매출이 발생될 예정"이라며 "생성형 AI 보급 확대에 따라 CSP 업체들이 자체 칩 채용을 확대하면서, AI 가속기용 기판 수요는 지속 증가할 것으로 예상된다"고 밝혔다. 차세대 반도체 기판으로 각광받는 유리기판 사업도 글로벌 고객사들의 수요를 반영해 제품 개발을 진행하고 있다. 삼성전기는 "2분기부터 유리기판 파일럿(시생산) 라인 가동을 시작해 글로벌 빅테크 향으로 적극적인 프로모션을 진행 중"이라며 "고객사 로드맵과 연계해 차질 없이 사업을 준비해나갈 것"이라고 설명했다.

2025.04.29 11:44장경윤 기자

TSMC, AI칩 수요 견조 재확인…삼성·SK, HBM 사업 성장세 '쾌청'

대만 파운드리 업체 TSMC가 최근 높아진 거시경제 불확실성 속에서도 당초 계획한 첨단 패키징 투자를 유지했다. AI 반도체 수요가 중장기적으로 견조할 것이라는 전망에 따른 전략이다. 주요 메모리 기업들의 HBM(고대역폭메모리) 사업도 공급 과잉 우려를 덜었다는 평가와 전망이 제기된다. 21일 업계에 따르면 글로벌 빅테크의 지속적인 AI 가속기 투자에 따라 올해 삼성전자, SK하이닉스 등의 HBM 수요도 견조할 것으로 관측된다. AI 가속기 수요 굳건…TSMC, 2.5D 패키징 생산능력 2배 확대 앞서 TSMC는 지난 17일 1분기 실적발표 컨퍼런스콜에서 올해 설비투자(CapEx) 규모를 380억~420억 달러를 제시했다. 최근 중국 딥시크와 같은 저비용·고효율 AI 모델의 등장, 미국의 관세 압박 등으로 AI 인프라 투자에 대한 불확실성이 높아졌으나, 지난해 발표한 계획을 그대로 유지했다. TSMC는 "이전보다는 상황이 개선됐으나, AI 수요가 여전히 공급을 초과하는 상황으로 많은 설비능력 확장이 필요하다"며 "관제 및 지정학적 이슈에 대해 고객사의 행동 변화가 관찰되지 않아 기존 수요를 유지한다"고 설명했다. TSMC가 전망하는 2024~2029년 AI 가속기 관련 매출의 연평균 성장률은 45%에 달한다. 올해 매출액도 전년 대비 2배 성장할 전망이다. 이에 TSMC는 'CoWoS' 생산능력을 2배(월 7만장)로 확장할 계획이다. CoWoS는 TSMC가 자체 개발한 2.5D 패키징으로, 칩과 기판 사이에 인터포저라는 얇은 막을 삽입해 반도체 성능을 높이는 기술이다. 특히 고성능 시스템반도체와 HBM 등을 함께 집적하는 AI 가속기의 필수 요소로 각광받고 있다. HBM 수요 불확실성 걷어…삼성·SK·마이크론 등 대응 분주 최첨단 패키징 투자 확대는 HBM을 공급하는 메모리 업계에도 수혜로 작용한다. 특히 SK하이닉스는 AI 산업을 주도하는 엔비디아는 물론, 구글·AWS(아마존웹서비스) 등 CSP(클라우드서비스제공자) 기업들의 ASIC(주문형반도체)에 최신형 HBM을 공급하고 있다. 일례로 엔비디아는 올 1분기 '블랙웰' 시리즈의 최신 칩인 'GB200'를 출시했다. 구글의 경우 올해 7세대 TPU(텐서처리장치)인 '아이언우드'를 올 하반기 출시할 예정이다. 두 제품 모두 HBM3E(5세대 HBM)이 탑재된다. 나아가 엔비디아는 올해 하반기 HBM4를 탑재한 '루빈' 칩을 출시한다. SK하이닉스도 이에 맞춰 올 상반기 고부가 HBM 생산 비중을 확대하고 있다. 올 상반기 전체 HBM3E의 출하량에서 12단 제품의 비중을 절반 이상으로 확대하는 것이 목표다. 실제로 SK하이닉스 내부에서는 최선단 제품의 생산능력을 확대하기 위한 준비에 적극 나서고 있는 것으로 알려졌다. 김운호 IBK투자증권 연구원은 "SK하이닉스의 HBM 입지는 올해에도 유지될 것으로 예상되며, 생산 능력도 글로벌 최대 규모 수준일 것"이라며 "올 하반기는 HBM3E 12단이 주력 제품이 될 것으로 기대된다"고 밝혔다. 한편 삼성전자·마이크론도 HBM 사업 확대에 매진하고 있다. 삼성전자는 HBM3E 개선품을 개발해 엔비디아와 재공급을 위한 퀄(품질) 테스트를 거치고 있다. 올 2분기 중 결과가 나올 전망이다. 마이크론 역시 HBM3E 12단까지 개발을 완료해, 엔비디아향 공급을 추진 중이다.

2025.04.21 13:41장경윤 기자

700조원 투자한다 했는데...美, 엔비디아 'H20' 무기한 수출 규제

엔비디아의 중국향 AI 가속기가 수출 규제 명단에 포함된 것으로 나타났다. 이에 따라 엔비디아는 올 1분기 약 7조4천억원에 이르는 비용을 처리하게 됐다. 최근 엔비디아는 미국 내 700조원에 이르는 대규모 투자를 발표하는 등 적극적으로 대응책을 펼쳤으나, 미중 갈등에 따른 여파를 피하지 못했다. 15일 엔비디아는 미국 정부로부터 자사의 AI 반도체 'H20'에 대한 무기한 수출 규제를 통보받았다고 공시했다. 엔비디아는 "미국 정부는 당사가 H20을 중국(홍콩 및 마카오 포함)이나 중국에 본사를 둔 기업들에 수출할 경우, 수출 허가를 취득해야 한다고 요구했다"며 "추가로 미국 정부는 해당 수출 규제가 무기한으로 유효할 것이라고 통보했다"고 밝혔다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 미국 정부의 통보로 엔비디아는 오는 4월 27일 종료되는 2026년 회계연도 1분기에 H20 수출 규제에 따른 손실을 반영할 계획이다. 엔비디아에 따르면, H20 제품과 관련한 재고, 구매 계약, 기타 관련 충당금 등으로 약 55억 달러(한화 약 7조4천억원)의 비용이 발생할 것으로 분석된다. 앞서 엔비디아는 바로 전날 미국에 향후 4년간 최대 5천억(한화 약 700조원) 달러의 AI 인프라를 구축하겠다고 밝힌 바 있다. 애리조나주와 텍사스주에 약 30만평의 부지를 확보해 AI 반도체 및 AI 슈퍼컴퓨터 제조 공장을 설립하는 것이 주 골자다. 이에 업계는 도널드 트럼프 미국 대통령이 H20에 대한 수출 규제를 완화하거나 철회할 것으로 예상해 왔다. 그러나 미국 정부가 수출 규제에 대해 완강한 입장을 취하면서, 세계 AI 반도체 시장을 둘러싼 불확실성은 더욱 커질 전망이다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다. 채민숙 한국투자증권 연구원은 "삼성전자는 아직 H20용으로 HBM 판매가 없고, SK하이닉스는 H20용 HBM에 대한 추가 판매를 3월 완료해 엔비디아처럼 재고 손실처리 등의 비용 반영은 없을 것"이라며 "H20은 기존 계획 대비 추가된 물량이므로 제재로 인한 연간 HBM 계획 변동 및 실적 추정치 변경은 없을 것으로 추정한다"고 설명했다.

2025.04.16 09:42장경윤 기자

엔비디아 中 사업 '숨통'..."트럼프, H20 수출 규제 계획 철회"

도널드 트럼프 미국 대통령이 엔비디아의 중국 수출용 AI 반도체 'H20'에 대한 수출 제한 조치 계획을 철회했다고 미국 공영 방송기관 NPR이 9일 보도했다. 앞서 트럼프 대통령은 지난주 플로리다주 마러라고(Mar-a-Lago)에서 젠슨 황 엔비디아 최고경영자(CEO)와 만찬을 가진 바 있다. NPR은 두 소식통을 인용해 "마러라고 만찬 이후 백악관이 H20 칩에 대한 방침을 바꿔 추가 제한 계획을 보류했다"며 "본래 H20에 대한 미국의 수출 규제는 수개월 동안 준비돼 왔으며, 이번 주 중으로 시행될 준비가 됐었다"고 말했다. 백악관의 이러한 입장 변경은 엔비디아가 트럼프 행정부에 AI 데이터 센터에 대한 신규 미국향 투자를 약속한 후에 이뤄진 것으로 알려졌다. H20은 엔비디아가 중국에 대한 첨단 반도체 수출 규제를 피하기 위해 기존 AI 가속기인 'H100'의 성능을 대폭 낮춘 개조품이다. 트럼프 대통령은 올해 초부터 해당 칩과 관련한 수출 통제 방안을 고려해 왔다. 엔비디아는 이번 조치로 중국 시장에서의 호조세를 이어갈 수 있을 것으로 전망된다. 미국 IT전문 매체 디 인포메이션의 최근 보도에 따르면, 올해 첫 3개월간 중국 주요 테크 기업들의 H20 주문량은 160억 달러(한화 약 21조6천억원)를 기록했다.

2025.04.10 08:46장경윤 기자

브로드컴, AI 반도체 사업 훈풍…삼성·SK도 HBM 성장 기대감

미국 브로드컴의 AI 사업이 지속 확대될 전망이다. 구글을 비롯한 핵심 고객사가 자체 데이터센터용 AI 반도체를 적극 채용한 데 따른 영향이다. 나아가 브로드컴은 추가 고객사 확보 논의, 업계 최초 2나노미터(nm) 기반 AI XPU(시스템반도체) 개발 등을 추진하고 있다. 이에 따라 삼성전자·SK하이닉스 등 국내 기업들도 HBM(고대역폭메모리) 사업 확대에 속도를 낼 수 있을 것으로 기대된다. 6일 브로드컴은 회계연도 2025년 1분기에 매출 약 149억 달러를 기록했다고 밝혔다. 이번 매출은 전년동기 대비 25%, 전분기 대비로는 6% 증가했다. 증권가 컨센서스(147억 달러)도 소폭 상회했다. 해당 분기 순이익 역시 GAAP 기준 55억 달러로 전년동기(13억 달러) 대비 크게 증가했다. 브로드컴은 "AI 반도체 솔루션과 인프라 소프트웨어 부문의 성장으로 1분기 사상 최대 매출을 기록했다"며 "특히 AI 매출은 전년 대비 77% 증가한 41억 달러를 기록했고, 2분기에도 44억 달러의 매출을 예상한다"고 밝혔다. AI 매출은 브로드컴의 반도체 솔루션 사업 부문에서 AI용 주문형반도체(ASIC), AI 가속기, 서버 네트워크 칩 등을 포함한 매출이다. 브로드컴은 자체적인 반도체 설계 역량을 바탕으로, 구글·메타 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원하고 있다. 현재 브로드컴을 통해 AI 반도체의 대량 양산에 이른 고객사는 3곳이다. 브로드컴은 이들 고객사의 AI 반도체 출하량이 지난해 200만개에서 오는 28년에는 700만개로 늘어날 것으로 보고 있다. 나아가 4개의 잠재 고객사와도 양산 논의를 진행하고 있다. 브로드컴의 AI 사업 확대는 삼성전자·SK하이닉스 등 국내 주요 메모리 기업들에게도 수혜로 작용한다. AI 가속기에 필수적으로 활용되는 HBM의 수요가 증가하기 때문이다. 기존 HBM의 수요처는 엔비디아·AMD 등 고성능 GPU를 개발하는 팹리스가 주를 이뤘다. 그러나 최근에는 구글·메타 등도 전력효율성, 비용 등을 고려해 자체 AI ASIC 탑재량을 적극적으로 늘리는 추세다. 특히 구글은 브로드컴의 핵심 고객사로 자리 잡았다. 구글은 자체 개발한 6세대 TPU(텐서처리장치) '트릴리움(Trillium)'에 HBM3E 8단을 채용하며, 이전 세대 대비 생산량을 크게 확대할 계획이다. 구글 최신형 TPU에 HBM을 양산 공급하기로 한 기업은 SK하이닉스, 마이크론으로 알려져 있다. 삼성전자도 공급망 진입을 위한 테스트를 꾸준히 진행하고 있다. 경쟁사 대비 진입이 늦어지고 있으나, 최근 테스트에서는 기존 대비 긍정적인 결과를 얻어낸 것으로 파악됐다. 반도체 업계 관계자는 "최근 데이터센터 업계의 트렌드는 고가의 엔비디아 AI 가속기 대신 자체 칩을 개발하는 것"이라며 "구글과 AWS(아마존웹서비스) 등이 대표적인 대항마로 떠오르고 있어, 올해부터 HBM의 수요 비중을 늘려나갈 것으로 관측된다"고 설명했다.

2025.03.07 10:13장경윤 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '후끈'...엔비디아 수급 전략이 공급망 핵심 변수

카카오, 'AI 수익화 원년' 칼 뺐다...구글·오픈AI 스킬 장착

아동 정보까지 건드렸다...'버거킹'·'메가커피' 과징금 집중된 이유

SK온, 정부 ESS 2차전 '압승', 왜?…3사 경쟁 본격화

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.