• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가속기'통합검색 결과 입니다. (34건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 RTX3090보다 2.1배 빠른 가속기술 개발…전력소비도 3.3배 줄여

엔비디아 RTX3090보다 2.1배 빠른 가속기술이 상용화 초기 수준으로 개발됐다. KAIST는 정명수 전기및전자공학부 교수 연구팀이 그래프 신경망 기반 인공지능(AI) 추론 속도를 획기적으로 높일 수 있는 AI 반도체 기술 '오토GNN'을 세계 최초로 개발했다고 5일 밝혔다. 오토 GNN은 엔비디아 고성능 그래픽카드인 'RTX 3090' 대비 속도는 2.1배, 일반 CPU와 비교했을 땐 무려 9배 빠르다. 에너지 소모는 3.3배 줄였다. RTX 3090은 4K·8K 게이밍과 8K 영상 편집, 대형 3D 렌더링, AI 연산 같은 '초고해상도·대용량 데이터' 작업에 주로 쓴다. 가격도 보통 수백만원 대다. 오토 GNN이 이를 대체할 수 있다는 것이 정명수 교수 설명이다. 정 교수는 "상용화로 바로 가기는 어렵지만, 상용화 초기 단계인 개념증명(POC)을 이번에 한 것"이라며 "상용화로 가기 위해선 삼성미래기술육성사업으로 예산을 지원한 기관 등과 협의를 거쳐야 한다"고 말했다. 이 연구에 정 교수가 창업한 파네시아 연구진이 주도적으로 참여해 사업화로 갈 공산이 클 것으로 전망됐다. 연구에는 파네시아 5명, KAIST 정명수 교수 연구실(카멜) 3명, 중국 베이징대학과 한양대학교, 미국 펜실베이니아 주립대에서 각각 1명씩 참여했다. 연구팀은 우선 GPU 서비스 지연이 일어나는 주된 원인이 AI 추론 이전 단계인 그래프 전처리 과정에 있음을 밝혀냈다. 이 과정은 전체 계산 시간의 70~90%를 차지하지만, 기존 GPU는 복잡한 관계 구조를 정리하는 연산에 한계가 있어 병목 현상이 상존했다. 이를 해결하기 위해 연구팀은 입력 데이터 구조에 따라 반도체 내부 회로를 실시간으로 바꾸는 FPGA(필드 프로그래머블 게이트 어레이) 기반의 적응형 AI 가속기 기술을 설계했다. 분석해야 할 데이터 연결 방식에 맞춰 반도체가 스스로 가장 효율적인 구조로 바뀌는 방식이다. 연구팀은 필요한 데이터만 골라내는 통합처리요소(UPE) 모듈과 이를 빠르게 정리·집계하는 단일 사이클 리듀서(SCR) 모듈을 반도체 안에 구현했다. 데이터 양이나 형태가 바뀌면 이에 맞춰 최적의 모듈 구성이 자동으로 적용돼, 어떤 상황에서도 안정적인 성능을 유지할 수 있도록 했다. 이 기술은 추천 시스템이나 금융 사기 탐지처럼 복잡한 관계 분석과 빠른 응답이 필요한 AI 서비스에 즉시 적용할 수 있다. 연구팀은 데이터 구조에 따라 스스로 최적화되는 AI 반도체 기술을 확보, 향후 대규모 데이터를 다루는 지능형 서비스 속도와 에너지 효율을 동시에 높일 수 있는 기반이 마련될 것으로 내다봤다. 정명수 교수는 “불규칙한 데이터 구조를 효과적으로 처리할 수 있는 유연한 하드웨어 시스템을 구현했다는 점에서 의미가 크다”며 “추천 시스템은 물론 금융·보안 등 실시간 분석이 필요한 다양한 AI 분야에 활용될 것”이라고 말했다. 연구는 지난 4일 호주 시드니에서 열린 컴퓨터 아키텍처 분야 국제학술대회인 제32회 'IEEE HPC국제 심포지엄'에서 발표됐다. 삼성미래기술육성사업이 지원했다.

2026.02.05 15:08박희범 기자

이산화바나듐 상전이 현상 첫 규명…"수십 년 논쟁 종지부"

물리학계가 수십 년간 이어오던 이산화바나듐 상전이 현상 순서 논쟁에 종지부를 찍었다. 이산화바나듐은 상온(68도) 근처에서 부도체 성질이 도체로 변하는 상전이 현상이 나타난다. 그런데 이 상전이가 결정구조부터 발생하는지, 아니면 전기적 변화 먼저 일어나는지가 수십 년째 논쟁거리였다. 이유는 절연체나 금속상태 변화가 피코~나노초 사이에 순간적으로 일어나기 때문에 그동안 이를 들여다볼 수 있는 방법이 없었다. 포항가속기연구소는 천세환 박사 연구팀(공동제1저자:박순희·박재구 박사)이 스마트 소재 이산화바나듐 박막에서 기존 상식을 뒤집는 숨겨진 광유도 초고속 상전이 경로가 존재함을 세계 최초로 규명했다고 4일 밝혔다. 상전이는 물질 상태나 성질이 외부 조건이 변함에 따라 갑자기 달라지는 현상을 말한다. 얼음이 물로, 물이 수증기로 바뀌는 현상도 모두 상전이다. 연구팀은 포항가속기연구소 X-선 자유전자레이저(PAL-XFEL)와 3세대 방사광가속기(PLS-II) 실험 장치를 이용, 빛으로 유도되는 구조적·전기적 상전이 현상을 정밀하게 관찰한 결과 인장 변형이 가해진 이산화바나듐 박막에서 두 상전이(구조적 변화와 전자적 변화)가 수백 펨토초 간격을 두고 잇따라 발생함을 밝혀냈다. 박재구 박사는 "확인결과 구조변화가 먼저 일어나고, 그 뒤를 따라 전자적 변화가 일어났다"며 "이를 과학적으로 규명한 것"이라고 설명했다. 박 박사는 "전자들의 거동만으로 물질의 전기적 성질이 전기가 통하지 않는 상태에서 전기가 흐르는 상태로 갑자기 바뀌는 양자 현상인 모트(Mott) 부도체–도체 전이에 의해 일어남을 밝혔다"며 "시료에 인장 변형을 가하는 방법으로 빛에 의해 유도되는 이같은 전기적 변화가 시작되는 시점을 조절할 수 있는 가능성도 함께 제시한 것"이라고 의미를 부여했다. 연구팀은 이산화바나듐뿐 아니라 이와 유사한 모트 부도체–도체 전이 양자 물질군에도 이 연구 결과 적용이 가능할 것으로 내다봤다. 특히, 이러한 물질들을 기반으로, 빛을 이용한 초고속 광유도 스마트 소재 제어 기술로의 활용도 기대했다. 연구결과는 물질 과학 분야 국제학술지 '어드밴스드 머티리얼즈'에 온라인으로 게재됐다.

2026.02.04 13:19박희범 기자

MS, 차세대 AI 추론칩 '마이아 200' 공개…"아마존보다 3배 빨라"

마이크로소프트가 자체 개발한 2세대 인공지능(AI) 가속기를 공개했다. 경쟁사 보다 높은 성능을 강조하며 AI 인프라 시장 리더십 강화에 나설 전망이다. 이번 신제품은 AI 추론(Inference) 효율성을 극대화하는 데 초점을 맞췄으며 오픈AI의 최신 모델인 'GPT-5.2'를 지원하는 핵심 동력이 될 것으로 주목받고 있다. 26일 마이크로소프트는 자사 블로그를 통해 TSMC의 3나노(nm) 공정을 기반으로 제작된 새로운 AI 칩 '마이아200(Maia 200)'을 발표했다. 마이아 200은 대규모언어모델(LLM) 구동의 핵심인 '토큰 생성' 비용을 절감하는 데 방점을 두고 설계됐다. TSMC의 3나노(nm) 공정을 적용해 칩 하나에 1천400억 개 이상의 트랜지스터를 집적해 연산 밀도를 극대화했다. 메모리 아키텍처 또한 대규모 모델 처리에 최적화됐다. 초당 7테라바이트(TB)의 데이터 전송 속도를 자랑하는 216GB 고대역폭메모리(HBM3e)를 탑재했으며 272MB의 온칩 SRAM을 더해 데이터 병목 현상을 최소화하고 처리 속도를 높였다. 연산 성능은 750와트(W) 전력 소모 범위 내에서 4비트(FP4) 정밀도 기준 10 페타플롭스(PFLOPS), 8비트(FP8) 기준 5 페타플롭스 이상의 성능을 발휘한다. 마이크로소프트 측은 마이아 200은 아마존웹서비스(AWS)의 '트레이니움(Trainium) 3세대' 대비 4비트 성능에서 3배 앞서며 구글의 '7세대 TPU'보다 뛰어난 8비트 연산 능력을 확보하며 추론 가속기 시장의 새로운 기준을 제시했다고 강조했다. 마이크로소프트 클라우드 및 AI 그룹의 스콧 거스리 수석 부사장은 "마이아 200은 하이퍼스케일러가 만든 칩 중 가장 강력한 성능을 자랑하는 퍼스트 파티 칩"이라며, "오늘날 가장 큰 모델을 쉽게 구동할 뿐만 아니라 미래의 더 거대한 모델까지 감당할 수 있는 여유 성능을 갖췄다"고 강조했다. 마이아 200은 출시 후 마이크로소프트의 거대 AI 생태계를 지탱하는 중추적인 역할을 맡게 된다. 오픈AI 최신 모델인 GPT-5.2를 포함한 다양한 모델을 서비스하는 데 투입되며 마이크로소프트 파운드리와 마이크로소프트 365 코파일럿의 가격 대비 성능 효율을 크게 개선할 예정이다. 또 마이크로소프트 초지능팀은 마이아 200을 활용해 차세대 자체 모델을 위한 합성 데이터 생성 및 강화 학습을 수행한다. 고품질의 도메인 특화 데이터를 더 빠르고 효율적으로 생성하여 AI 모델 훈련 파이프라인을 가속화하겠다는 전략이다. 시스템 수준에서의 혁신도 돋보인다. 마이아 200은 표준 이더넷 기반의 독자적인 2계층 스케일업 네트워크 설계를 도입했다. 칩당 2.8TB/s의 양방향 대역폭을 제공하며, 최대 6,144개의 가속기를 하나의 클러스터로 묶어 효율적인 대규모 추론 작업을 가능케 한다. 마이크로소프트는 개발자들을 위한 마이아 소프트웨어 개발 키트(SDK) 프리뷰도 함께 공개했다. 이 SDK는 파이토치(PyTorch) 통합, 트리톤(Triton) 컴파일러, Maia 전용 저수준 프로그래밍 언어 등을 포함하여 개발자가 하드웨어 성능을 최대로 끌어내면서도 이기종 하드웨어 간 모델 이식을 쉽게 할 수 있도록 돕는다. 마이아200은 미국 아이오와주 디모인 인근의 'US 센트럴' 데이터센터 리전에 이미 배치되었으며 이어 애리조나주 피닉스 인근의 'US 웨스트 3' 리전으로 확장될 예정이다. 이번 마이아200의 출시는 AI 인프라 시장에서 엔비디아 의존도를 낮추고 자체 칩 경쟁력을 통해 AI 서비스의 수익성을 극대화하려는 마이크로소프트의 강력한 의지가 반영된 것으로 풀이된다. 스콧 거스리 부사장은 "마이아 200은 칩 설계부터 데이터센터 배포까지 엔드-투-엔드(End-to-End) 검증을 통해 실리콘 출시 후 며칠 만에 실제 AI 모델을 구동하는 데 성공했다"며 "이는 타사 대비 절반 이하의 시간으로 단축된 획기적인 성과"라고 밝혔다.

2026.01.27 09:46남혁우 기자

삼성전기·LG이노텍, 패키지기판 호황에도 고민 깊어지는 이유

전자부품 업체인 삼성전기와 LG이노텍이 반도체 슈퍼사이클의 수혜로 패키지 기판 사업에서 호황을 맞고 있다. 양사 모두 올해 제조라인의 풀가동 체제를 예상할 정도로 수요를 매우 높게 바라보고 있다. 다만 반도체 패키지 기판의 핵심 소재인 CCL(동박적층판) 가격이 급등하고 있다는 점은 변수다. 최근에도 일본 주요 CCL 제조 기업이 오는 3월부터 CCL 가격을 30% 인상하겠다고 예고해 업계의 부담감을 키우고 있다. 22일 업계에 따르면 삼성전기, LG이노텍의 올해 반도체 패키지 기판 사업은 원재료 비용 상승에 따른 불확실성에 직면할 것으로 관측된다. 삼성전기·LG이노텍, 반도체 패키징 기판 '풀가동' 전망 양사는 최근 반도체 산업 전반에 도래한 슈퍼사이클에 따른 수혜를 입고 있다. 특히 삼성전기는 주로 AI 가속기에 탑재되는 FC-BGA(플립칩-볼그레이드어레이), LG이노텍은 모바일용 저전력 D램(LPPDR)에 탑재되는 FC-SCP(플립칩-칩스케일패키지) 분야에서 강세를 보인다. FC-BGA와 FC-CSP는 고성능 반도체에 쓰이는 패키지 기판이다. 기존 와이어 본딩 대신 미세한 범프(Bump)로 칩을 연결해, 전기적 성능 및 집적도를 향상시킨다. 이에 삼성전기, LG이노텍 모두 올해 반도체 패키지 기판 양산 라인이 '풀가동' 체제에 접어들 것으로 전망하고 있다. 최근에는 장덕현 삼성전기 대표, 문혁수 LG이노텍 대표가 직접 "생산능력 확장을 검토하고 있다"고 밝히기도 했다. 日 레조낙, 기판 핵심 소재 가격 30% 인상 발표…악영향 불가피 다만 반도체 패키지 기판의 필수 소재인 CCL 등 원자재 가격이 크게 오르고 있다는 점은 이들 기업에 비용 증가라는 고민거리로 작용할 전망이다. 삼성전기, LG이노텍의 기판 사업에서 CCL이 차지하는 원자재 매입 비중은 20%에 달한다. CCL은 반도체 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층한 소재다. 기판의 전기적 연결과 절연, 기계적 지지 역할을 담당한다. CCL은 구성 요소인 구리 및 유리섬유 등 원자재 비용 상승, 반도체 산업에서의 수요 증가 등으로 인해 가격이 크게 상승하고 있다. 지난해 연간 기준으로 10% 이상의 상승세를 나타냈다. 나아가 지난 16일에는 FC-BGA용 CCL 1위 공급업체인 일본 레조낙이 "오는 3월 1일부터 CCL 및 프리프레그(탄소섬유복합소재; CCL에 동박을 씌우기 전 상태)의 판매 가격을 약 30% 인상하겠다"고 밝혔다. 현재 삼성전기는 미쓰비시, 레조낙 등으로부터 CCL 및 프리프레그를 수급하고 있다. LG이노텍은 미쓰비시·쇼와덴코가 주요 수급처지만, 레조낙이 공식적으로 가격 인상을 발표한 만큼 이들 기업도 비슷한 움직임을 보일 가능성이 유력하다. 기판 업계 관계자는 "하이엔드급 패키지 기판의 경우 원자재 가격 상승분을 최종 고객사에 전가할 수 있으나, 나머지 일반 제품은 어려운 상황"이라며 "레조낙이 매우 이례적인 결정을 내린 만큼 삼성전기, LG이노텍 역시 사업 전략 구상에 고심을 겪고 있을 것"이라고 말했다.

2026.01.22 13:19장경윤 기자

"엔비디아 中 AI 가속기 시장 점유율, 66%→8% 떨어질 것"

중국 내 AI 가속기 시장에서 엔비디아 점유율이 8%대까지 떨어질 수 있다는 전망이 나왔다. 미국 정부의 첨단 반도체 수출 규제와 중국 업체들이 자체 설계한 추론 반도체 성장으로 엔비디아 의존도가 떨어질 수 있다는 것이다. 16일 닛케이 아시아는 글로벌 투자은행 번스타인 보고서를 인용해 "과거 중국 내 AI 가속기 시장에서 엔비디아 점유율은 66%였지만 앞으로 수년 내 8%까지 떨어질 수 있다"고 보도했다. 번스타인 보고서에 따르면 중국 내 반도체 제조사들은 AI 관련 GPU와 각종 가속기를 자체 개발하고 있으며 자국산 업체들의 점유율이 80%를 넘어설 수 있다. 실제로 현재 중국 내에서는 화웨이와 함께 무어스레드 등 두 업체가 두각을 나타내고 있다. 최근 중국 내 대표적 AI 스타트업으로 꼽히는 지푸AI는 화웨이 어센드 칩만 활용해 멀티모달 AI 모델을 훈련하는 데 성공하기도 했다. 미국 정부는 2020년 이후 중국 시장 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제를 지속적으로 강화하고 있다. 2022년 10월 조 바이든 행정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 당시 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 지난 해 초 출범한 도널드 트럼프 2기 행정부는 이를 한층 강화했다. 지난 13일 미국 정부는 블랙웰 아키텍처 기반 H200 칩의 중국 수출을 비 군사적 목적으로, 미국 내 고객사에 판매하는 물량 중 50%만 허용하기로 했다. 하지만 이번에는 중국 정부가 H200 구매를 제한하고 있다. 미국의 수출 제한 조치는 중국 시장에서 엔비디아의 경쟁력을 약화시키고 있다. 젠슨 황 엔비디아 CEO는 여러 공개 석상에서 기회가 있을 때마다 이와 관련된 발언을 내놓고 있다. 젠슨 황 CEO는 작년 5월 컴퓨텍스 타이베이 2025 기간 중 기자간담회에서 "중국은 세계 AI 연구자의 50%가 모여 있고, 세계 2위 컴퓨터 시장이지만 이를 다루는 미국 정부의 정책은 잘못됐다"고 비판했다. 지난 해 10월 진행된 컨퍼런스에서는 한 발 더 나아가 "미국의 반도체 수출 규제에 따라 중국 본토 기업에 첨단 제품을 판매할 수 없게 되면서, 중국 내 첨단 반도체 시장 점유율이 95%에서 0%로 떨어졌다. 현재 중국 사업은 개점휴업 상태"고 밝히기도 했다.

2026.01.18 12:20권봉석 기자

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

병 속에서 번개가 치네…입자 가속기 실험 '화제'

한 유튜버가 입자 가속기를 사용해 투명한 아크릴 원통 속에서 번개를 만드는 실험을 진행해 화제가 되고 있다고 과학매체 인터레스팅엔지니어링이 최근 보도했다. 이 야심찬 실험을 진행한 이는 일렉트론 임프레션스(Electron Impressions)라는 유튜버다. 그는 아크릴과 같은 절연체 재료에 고에너지 전자를 주입해 방전이 일어난 경로에 따라 발생하는 이온의 분포를 나타내는 '리히텐베르크(Lichtenberg)' 무늬를 만드는 것으로 유명한 유튜버다. 공개된 영상에서는 병 속에서 나무 모양의 화려한 무늬가 빛나는 모습을 볼 수 있다. 전자들은 재료 내부 깊숙이 침투해 전하를 축적시키고 이후 전하가 방출되면 재료 내부에서 균열이 발생하는데 이 과정에서 나무 모양의 독특한 패턴을 만든다. 언뜻 보면 번개가 병 속에 갇힌 것 같은 모양이다. 지금까지 일렉트론 임프레션스는 주로 평평한 판이나 원반 형태에서 실험했다. 하지만 이번에는 실험 과정을 완전한 원통형 형태로 확장시켰다. 원통 속에서 번개 만든 것은 이번이 처음 원통형 구조에서 균형 잡힌 무늬를 만드는 것이 어려운 이유는 전자가 고체 물질 내부로 침투하는 방식 때문이다. 평평한 아크릴 조각의 경우 전하를 비교적 쉽게 중심부에 집중시킬 수 있지만, 원통형 구조에서는 한 방향에서만 전자를 조사할 경우 무늬가 한쪽 면에만 형성돼 불균형한 결과가 나타난다. 입자 가속기 자체를 회전시킬 수 없었던 만큼, 제작자는 대신 아크릴 원통을 회전시키는 방식을 택했다. 이를 통해 전자들이 중심 축을 기준으로 모든 방향에서 재료 내부로 유입되며, 전하가 방사형으로 고르게 분포되도록 했다. 회전 속도 조절 역시 중요한 변수였다. 원통이 너무 느리게 회전하면 전하가 균일하게 축적되지 않았고, 반대로 너무 빠르게 회전하면 전자 노출량이 부족해졌다. 이에 따라 그는 분당 약 150회 회전 속도로 원통을 돌리며 1~2초의 짧은 노출 시간 동안 전자를 여러 차례 조사하는 방식을 선택했다. 극한 방사선 환경을 고려한 회전 장치 설계 입자 가속기 내부에서 사용할 회전 장치를 설계하는 것도 큰 과제였다. 가속기 내부의 방사선 강도는 최신 전자 장치를 손상시킬 만큼 강하기 때문이다. 제작자는 이를 해결하기 위해 회전 장치의 구조를 최대한 단순화하고, 방사선에 견딜 수 있는 부품으로 시스템을 구성했다. 구동 장치로는 12볼트 납축 배터리(lead-acid battery)로 작동하는 브러시드 DC 모터가 사용됐다. 납축 배터리는 고에너지 리튬 배터리에 비해 방사선 내성이 뛰어난 것이 장점이다. 또한 구조 부품 대부분은 고방사선 환경에서도 안정성이 검증된 검은색 PETG 플라스틱으로 3D 프린팅해 제작됐다. 충전에서 방전까지 실험에 사용된 투명 아크릴 원통은 직경 2인치 크기로, CAD 소프트웨어를 이용해 설계됐다. 실험 도중 파손에 대비해 동일한 원통 두 개를 제작했다. 이후 가속기 챔버에 장착한 뒤, 방사선 차폐 처리가 된 고프로 카메라로 전자가 아크릴에 충돌하며 발생하는 발광 현상을 촬영했다. 원통의 곡면을 통해 내부를 관찰하면 빛의 굴절로 인해 패턴이 실제보다 더 크고 극적으로 보인다. 완성된 작품은 전기 현상이 어떻게 강렬한 3차원 구조로 변모할 수 있는지를 보여주며, 어려운 위업을 뜻하는 '병 속의 번개(lightning in a bottle)'라는 관용 표현이 단순한 비유에 그치지 않음을 잘 보여준다고 해당 매체는 평가했다. ▶ 영상 링크 https://www.youtube.com/watch?v=8a3GfozsU0s

2025.12.27 16:20이정현 기자

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤 기자

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤 기자

소테리아, 차세대 EDA 툴 'DEF 지니' 첫 공개

반도체 팹리스 기업 소테리아는 지난 20일부터 21일까지 중국 청두에서 개최된 'ICCAD 차이나 2025(중국 집적회로 설계 컨퍼런스)'에 참가해 자사의 신규 EDA 툴인 'DEF 지니(Genie)'를 소개했다고 1일 밝혔다. ICCAD 차이나는 전 세계 반도체 설계 업계의 최신 기술 트렌드를 공유하는 대규모 국제 행사다. 이번 전시회에는 삼성, TSMC, 시놉시스(Synopsys), 앰코(Amkor) 등 글로벌 반도체 선도 기업들이 대거 참여해 AI, HPC(고성능 컴퓨팅), 차세대 칩 설계와 패키징 등 첨단 기술을 선보였다. 소테리아는 이번 행사에서 자체 개발한 EDA 툴 DEF 지니의 실제 데모와 기술 발표를 진행하며 참관객들의 이목을 집중시켰다. DEF 지니는 기존 커스텀 레이아웃 툴에서는 구현이 불가능했던 설계 넷리스트(Netlist) 정보의 직접 반영을 가능케 한 솔루션이다. 본래 DEF 지니는 초저전력 HPC 가속기 아폴론 칩의 PPA 달성을 위해 개발됐으나, EDA 툴 자체로도 상품 경쟁력이 있어 호평을 받았다. 특히 발표 세션에서는 커스텀 레이아웃 데이터를 SoC(시스템온칩) 레이아웃 데이터베이스로 실시간 전환하는 시연을 통해, 단절되어 있던 커스텀 디자인과 SoC 디자인 사이의 기술적 '가교' 역할을 완벽히 수행할 수 있음을 입증했다. 또한 국제 표준인 OA(Open Access) API 를 기반으로 개발되어 다양한 설계 환경에서의 호환성을 확보했다는 점도 현장 전문가들의 호평을 받았다. 소테리아는 AI·HPC ASIC 의 최고 수준 PPA 달성을 위해 필수적인 커스텀 레이아웃을 채택하며 발생하는 설계상의 난제를 자체 EDA 툴 개발을 통해 극복할 수 있는 기술 경쟁력을 입증했다. 이를 통해 단순한 칩 설계를 넘어, 설계 품질과 완성도를 획기적으로 향상시킬 수 있는 역량을 보유하고 있음을 확인시켰다. 김종만 소테리아 대표는 “전 세계 반도체 엔지니어들이 모인 자리에서 'DEF 지니'의 혁신성을 인정받게 되어 뜻깊다”며 “설계 생산성 향상과 검증 효율성 증대는 국경을 초월한 반도체 업계의 공통 과제인 만큼, 이번 런칭을 기점으로 글로벌 팹리스 및 디자인 하우스와의 협력을 본격적으로 확대해 나갈 것”이라고 밝혔다.

2025.12.02 09:07장경윤 기자

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤 기자

[현장] 이재욱 서울대 AI대학원장 "지금은 '스케일링 법칙' 시대…AI 인프라 경쟁 심화"

"지금 우리는 스케일링 법칙(Scaling Law) 시대에 살고 있습니다. 모든 나라, 기업이 경쟁적으로 인공지능(AI) 인프라에 엄청나게 집중을 하고 있는 것도 이 때문입니다." 이재욱 서울대학교 AI연구원장은 18일 오전 서울 서초구 양재 엘타워에서 진행된 '한국인공지능산업협회(AIIA) 정기 조찬포럼'에 참석해 'AI 컴퓨팅 기술 동향' 주제로 강연하며 이처럼 강조했다. 이 행사는 AIIA와 지능정보기술포럼(TTA ICT 표준화포럼 사업)이 공동 주최했다. 이 원장은 올해 서울대병원 헬스케어AI연구원장을 맡게 된 장병탁 원장의 뒤를 이어 서울대 AI연구원을 이끌게 된 인물로, 지난 2022년부터 1년간 구글 딥마인드 방문연구원으로 활동한 경험이 있다. 이 원장이 이날 강연에서 언급한 '스케일링 법칙'은 더 많은 컴퓨팅 파워와 그래픽처리장치(GPU), 방대한 데이터를 투입해야 모델의 정교함과 예측력이 비약적으로 개선된다는 것을 뜻한다. 그는 이 법칙과 관련해 지난 2018년 '트랜스포머'를 만든 구글 딥마인드 팀을 예시로 들었다. 당시 구글 딥마인드 팀은 언어 모델을 개발한 다음 위키디피아로 전부 학습을 시킨 후 (미국 대통령) '에이브러햄 링컨'으로 자료를 생성하는 실험을 했다. 33M 모델로 결과물을 도출했을 때는 이상한 토큰들이 많이 생성됐지만, 5B 모델로 크기를 확대했을 때는 비교적 정확한 결과물이 도출됐다. 5B 모델이란 학습 가능한 매개변수 50억 개를 갖고 있다는 의미이다. 이 원장은 "현재 패러다임은 '스케일링 법칙'에 기반하는 더 많은 계산과 데이터로 모델 성능을 향상시키는 것이 주류가 됐다"며 "오는 2030년까지는 '스케일링 법칙' 추세가 계속 갈 것으로 보이지만, 이후로는 어떻게 될 지 고민해봐야 할 것 같다"고 전망했다. 그는 '스케일링 법칙'을 이끄는 대표주자로 오픈AI를 예로 들었다. 실제 샘 알트먼 오픈AI 최고경영자(CEO)는 자신의 블로그에 '3가지 관찰'이라는 글을 게시하며 "AI 모델의 지능은 훈련과 실행에 사용한 자원만큼 발전한다"며 "현재까지 일정 금액을 지출하면 지속적이고 예측 가능한 성능 향상이 가능하다는 것이 입증됐고, 이런 스케일링 법칙이 여러 차원에서 매우 정확하게 작동한다"고 주장한 바 있다. 이 원장은 "올해 2월 만난 오픈AI 최고기술책임자(CTO)는 '스케일링 법칙'이 2029~2030년까지는 계속 이어지면서 (이를 바탕으로) 자신들의 모델 성능을 개선할 수 있을 것이라고 확신하는 모습을 보였다"며 "사티아 나델라 마이크로소프트 CEO도 이와 비슷한 얘기를 했다"고 말했다. 이 원장은 이처럼 '스케일링 법칙'이 대세로 자리 잡은 만큼 여러 나라와 기업들이 AI 시장 주도권을 잡기 위해 앞으로 더 치열하게 인프라 확보 경쟁을 벌일 것으로 예상했다. 실제 오픈AI와 엔비디아는 10기가와트(GW) 규모의 엔비디아 시스템 구축을 위한 전략적 파트너십을 발표해 주목 받은 바 있다. 그는 "기존의 데이터센터가 AI 데이터센터로 빠르게 전환되고 있는 상태"라며 "이제는 SaaS에 인텔리전스가 전부 탑재되고 있어 GPU를 쓸 수밖에 없는 상황"이라고 설명했다. 이어 "GPU는 기존 SaaS에 비해 엄청나게 많은 메모리와 스토리지를 요구하는데, 앞으로 이에 대한 수요는 더 폭발적으로 증가할 것으로 보인다"며 "이 탓에 각 국가별로도 이를 확보하기 위해 경쟁을 벌이고 있는 것"이라고 부연했다. 또 그는 "현재 AI 패권 경쟁을 위한 컴퓨팅 파워는 미국이 75%, 중국이 15%를 차지하고 있고 유럽, 노르웨이, 일본 등도 상위권에 속해 있다"며 "우리나라도 국부펀드 등을 통해 국가적으로 GPU를 도입해 존재감을 높인 노르웨이처럼 정부가 GPU 확보를 위해 나서고 있는 만큼 '기타'에 속하지 않고 곧 주류로 올라서지 않을까 기대하고 있다"고 강조했다. 이 원장은 이날 강연에서 AI 인프라 구축의 핵심으로 '메모리 반도체'에 대해서도 언급했다. 특히 삼성전자, SK하이닉스를 주축으로 우리나라가 시장 점유율 80% 가량을 차지하고 있는 고대역폭메모리(HBM)가 핵심이란 점도 강조했다. D램의 일종인 HBM은 GPU의 핵심 부품으로, SK하이닉스가 62%, 삼성전자가 17%의 점유율을 기록하며 시장을 이끌고 있다. 그는 "AI 인프라에서 메모리 반도체 역할이 사실 컴퓨팅보다 더 중요하다"며 "AI 메모리 월에서도 알 수 있듯, 지난 20년간 하드웨어 연산 능력은 대략 6만 배 늘었으나 메모리 반도체 대역폭은 고작 100배 정도에 불과했다"고 말했다. 이어 "연산량의 스케일링에 비하면 (메모리 반도체의 대역폭이) 훨씬 더 부족한 상황"이라며 "앞으로는 컴퓨테이션보다 메모리를 읽고 쓰는 속도가 전체 성능의 핵심이 될 것"이라고 덧붙였다. 그러면서 이 원장은 엔비디아 GPU를 AI 메모리 월의 예로 들었다. 실제 볼타 아키텍처 기반의 V100의 연산량 대 메모리 대역폭의 비율은 139였으나, 블랙웰 아키텍처 기반인 B200은 280으로 2배 이상 늘어난 것으로 나타났다. 그는 "이는 지금보다 훨씬 더 컴퓨테이션이 빠르게 증가하고 메모리는 천천히 증가하기 때문에 생기는 메모리 병목이 심화되고 있다는 의미"라며 "이에 대한 솔루션으로 HBM이 제시되고 있다"고 설명했다. 이어 "GPU의 구매원가에서 HBM이 차지하는 비율은 호퍼 아키텍처 기준으로 30% 정도인데, 블랙웰 아키텍처에선 2배 이상으로 높아진다"며 "GPU 밸류 측면에서 점차 HBM 비중이 높아지고 있다는 점에서 (HBM 시장을 주도하고 있는) SK하이닉스, 삼성전자보다 엔비디아가 돈을 더 많이 번다는 것은 안타깝다"고 덧붙였다. 또 그는 "캐퍼시티(Capacity, AI 역량) 측면에서도 트랜스포머라고 하는 모델들의 파라미터 크기는 2년간 400배 이상 증가했지만, 일반 GPU를 탑재한 메모리 용량은 2년간 2배 정도 늘어나는 데 그쳤다"며 "점차 (발전 속도) 격차가 커지고 있는 만큼, 메모리 반도체의 중요성은 앞으로 더 커질 것"이라고 강조했다. 이날 이 원장은 에이전트 AI의 등장으로 메모리에 대한 부담이 점차 더 커지고 있다는 점도 우려했다. 이에 대한 해결책으로는 AMD가 지난 6월 발표한 차세대 AI 가속기 '인스팅트(Instinct) MI400'을 언급했다. AMD는 MI400 시리즈가 전력 효율성과 비용 면에서 엔비디아를 압도한다고 주장하고 있는 상태로, 내년께 이를 본격 출시할 예정이다. 또 다른 해결책으로는 AMD '이기종 시스템 아키텍처(Heterogeneous system Architectures, HSA)'를 제시했다. 이는 CPU, GPU 등 서로 다른 종류의 프로세서가 하나의 통합된 시스템 안에서 협력해 더 효율적으로 작업을 수행하도록 설계된 컴퓨팅 아키텍처다. 이 원장은 "엔비디아도 (AMD 움직임에 맞서) 최근 루빈 CPX라는 저가형 GPU를 선보였다는 점이 흥미로운 부분"이라며 "이는 프리필(Prefill)과 디코드를 할 때 각각 다른 GPU를 쓰게 하는 방식으로 비용 부담을 낮춘 것"이라고 설명했다. 그러면서 "현재 AI 인프라 시장은 굉장히 흥미롭고 할 일도 많은 상태"라며 "우리나라가 경쟁력을 갖고 있는 부분이 많아 향후 수혜를 볼 가능성도 높다"고 전망했다.

2025.11.18 17:16장유미 기자

ISC, 3분기 영업익 174억원…전년比 26.1% 증가

반도체 테스트 플랫폼 기업 아이에스시(ISC)는 3분기 매출 645억원, 영업이익 174억원을 기록하며 창사 이래 최대 분기 실적을 달성했다고 5일 밝혔다. 글로벌 반도체 시장의 불확실성이 이어지는 가운데, AI 반도체 양산 테스트 소켓 수주 증가가 실적 성장을 견인했다. 아이에스시는 기존 테스트 소켓 중심 사업을 넘어, 장비·소켓을 아우르는 수직 통합형 테스트 플랫폼 기업으로의 전환을 추진하고 있다. 장비-소켓 간 통합 솔루션을 통해 고객 대응력을 강화하고, End-to-End 테스트 플랫폼 전략을 바탕으로 업계 내 리더십을 공고히 하고 있다. 이번 실적은 주력 사업인 장비 및 소켓 동시 출하가 본격화되며 모든 사업 영역에서 고른 성장을 보인 결과다. 소켓 부문 영업이익률은 33%, 장비·소재 부문 영업이익률은 15%으로 전분기대비 크게 증가했다. AI 반도체 테스트 소켓 수요가 증가하면서 매출과 영업이익 모두 전분기대비 유의미한 성장을 거뒀다. 또한 회사는 신사업인 장비소재사업부문에서 하이스피드 번인 테스터 및 모듈 테스터 출하와 자율주행 및 차량용, 휴머노이드 칩 테스트 솔루션, HBM용 D램세정케미컬 등 글로벌 고객사 공급망 확장 역시 실적 상승의 주요 동력이 됐다고 분석했다. 아이에스시 관계자는 “AI가속기와 하이엔드 메모리 등 고부가 테스트 시장 중심의 수익 구조가 본격화되면서 매출과 영업이익 모두 안정적인 성장 궤도에 올라섰다”며 “4분기에도 지속적인 성장을 통해 올해 최대 실적 달성을 목표로 글로벌 시장에서의 성장세를 이어가겠다”고 덧붙였다.

2025.11.05 10:13장경윤 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

대형가속기 임대 50년으로 통일…사용·임대료 감면은 최대 100% 가능

대형가속기 구축 및 지원을 위한 정책 추진 기반이 확보됐다. 사용료나 임대료 감면도 100%까지 가능해졌다. 과학기술정보통신부는 대형가속기 구축 및 지원에 관한 법률 시행령(이하 '대형가속기법 시행령') 제정안이 9일 국무회의를 통과, 오는 19일부터 시행에 들어간다고 밝혔다. 대형가속기 구축 및 지원에 관한 법률은 지난 3월 11일 기초과학과 신소재, 반도체, 신약 개발 등 응용과학의 핵심기반인 대형가속기의 원활한 구축과 지원을 위해 국유·공유재산의 사용 등에 관한 특례, 전문인력 양성에 필요한 사업의 추진근거 등을 규정하는 내용으로 제정됐다. 국·공유지의 사용료 및 대부료 감면은 최대 50년 주기로 국내 모든 가속기의 대부 갱신이 가능해졌다. 또 대부한 국·공유지 위에 영구시설물을 축조하도록 했다. 국가 또는 지방자치단체가 소유한 토지나 시설의 사용료·대부료 감면율은 100% 범위 내에서 정하도록 했다. 현재 다목적 방사광가속기는 충북 오창, 양성자 가속기는 경주, 중이온 가속기는 대전에 들어설 예정이다. 이와함께 안정적인 대형가속기 구축 및 지원을 위한 정책 추진 기반도 마련됐다. 이 법률안에 따르면 국가는 대형가속기에 대한 종합적인 시책을 수립·시행해야 한다. 또 시행령에 과기정통부 장관은 이를 위한 실태조사를 실시할 수 있다고 규정했다. 국가와 지방자치단체는 대형가속기 운영기관 등에 출연할 수 있도록 법으로 규정했다. 대형가속기 운영기관등은 그 출연금을 대형가속기 구축 및 지원사업의 용도로만 사용해야 하고, 국가 또는 지방자치단체는 용도 외 목적으로 사용한 출연금을 회수할 수 있도록 시행령으로 규정했다. 국가와 지방자치단체는 또 전문인력 양성·관리 등에 관한 시책을 수립·추진해야 한다. 또 과기정통부 장관은 전문인력 양성기관을 지정 및 비용을 지원(출연)할 수 있다고 법률로 규정돼 있다. 시행령에는 전문인력 양성기관으로 지정을 받으려는 경우, 적절한 교육과정이나 교육 시설, 전문교수요원, 경비 조달계획 등을 갖춰 과기정통부장관에게 지정신청을 해야한다는 문구를 담았다. 과기정통부는 대형가속기별 부지의 활용근거 법령이 서로 다르고, 대부기간도 제작각이어서 이를 50년 장기대부가 가능하도록 일원화하고, 대형가속기 분야에 대한 종합시책 수립, 출연, 전문인력 양성 지원 등을 규정해 정책 추진 기반을 구축했다고 부연설명했다. 배경훈 장관은 “대형가속기는 우리나라 기초연구 및 첨단 과학기술 개발의 혁신을 가속화하는 핵심 대형연구시설”이라며, “현재 구축·운영 중인 대형가속기 현황을 면밀히 점검하는 한편, 구축·운영 효율성을 제고하도록 최선을 다할 것"이라고 밝혔다.

2025.09.09 17:45박희범 기자

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤 기자

KISTI, 슈퍼컴 6호기 명칭 공모…22일까지

한국과학기술정보연구원(KISTI)은 대규모 고정밀 과학·공학 계산과 초거대 인공지능(AI) 분야를 폭넓게 지원할 '국가 슈퍼컴퓨터 6호기' 명칭을 공모한다. 공모 기간은 11일부터 오는 22일까지다. 6호기는 최신 중앙처리장치(CPU) 9천 936개, 연산가속기(GPU) 8천 496개 등을 탑재했다. 614페타플롭스(PF, 1초당 1천조번 연산) 이론성능을 갖출 예정이다. 공모는 슈퍼컴퓨터를 활용하는 산·학·연 연구자뿐 아니라 일반 국민 누구나 참여할 수 있다. 현재 운영 중인 국가 슈퍼컴퓨터 5호기 명칭은 '누리온(Nurion)'이다. 온 국민이 다함께 누리는 국가 슈퍼컴퓨터를 뜻한다. 또 3호기는 노벨(Nobel), 4호기는 가이아(Gaia) & 타키온(Tachyon)이었다. 공모는 '국가 슈퍼컴퓨터 6호기' 국·영문 명칭과 그 의미를 함께 제출하는 방식으로 진행한다. 선발 기준은 ▲대중 친화성(기억용이성, 발음 편의성, 30점) ▲창의성(참신성, 독창성, 상상력, 40점) ▲상징성(6호기의 정체성과 가치 반영도, 30점) 등이다. 공모 결과는 29일 KISTI 홈페이지를 통해 발표한다. 대상작(1순위)은 '국가 슈퍼컴퓨터 6호기' 공식 명칭으로 채택되고 상금 100만 원이 수여된다. 최우수작(2순위)과 우수작(3순위)에는 각각 50만 원과 30만 원의 상금이 수여된다.

2025.08.11 11:56박희범 기자

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미 기자

KBSI, 제1회 다목적방사광가속기 미래과학 국제워크숍

'다목적방사광가속기' 활용 방향과 글로벌 협력 방안을 모색하는 '제1회 다목적방사광가속기 미래과학 국제워크숍'이 25일부터 27일까지 사흘간 충북 오송 컨벤션센터(OSCO)에서 개최된다. 다목적방사광가속기구축사업은 과학기술정보통신부 지원을 받아 한국기초과학지원연구원 방사광가속기 구축사업단(단장 신승환)이 주관연구기관, 포항공과대학교 포항가속기연구소(PAL)가 공동연구기관으로 참여한다. 이번 워크숍에서는 세계적인 방사광 가속기 기관(미국 APS, 일본 SPring-8, 중국 HEPS, 독일 PETRA-III, 프랑스 ESRF) 등이 참여해 기술 개발 동향, 첨단 빔라인 기술, 활용 연구성과를 공유한다. 특히 가속기 분야 세계적인 연구자인 미국 APS의 조나단 랑 박사와 일본 SPring-8의 마키나 야바시 박사, ESRF의 다니엘 드 생티스 박사 등이 내한해 관심을 끈다. 국내에서는 서울대학교 임종우 교수, 포항공과대학교 송창용 교수, 고려대학교 송현규 교수, 광주과학기술원 문봉진 교수 등 각 분야의 핵심 과학자들이 연구성과와 차세대 빔라인 활용 방안을 공개한다. 이들은 또 향후 다목적방사광가속기에서 구현될 과학 프로그램의 방향성을 제시한다. KBSI 양성광 원장은 "이번 워크숍을 계기로 정기적인 기술교류와 공동실험, 국제 공동 연구과제 도출 등 실질적인 협력을 만들어 갈 것"이라고 말했다. 신승환 단장은 "현재 산업 밀착형 빔라인 구성과 AI 기반 자동화 분석 환경, 고휘도·고결맞음(Coherent) 빔 활용 첨단 분석과학 등을 핵심 목표로 연구·개발 로드맵을 치밀하게 준비중"이라며 "오는 2029년 완공을 목표로 한다"고 덧붙였다.

2025.06.26 10:30박희범 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '후끈'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 ‘킬러앱에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

SK온, 정부 ESS 2차전 '압승', 왜?…3사 경쟁 본격화

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.