• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 반도체'통합검색 결과 입니다. (431건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린

SK하이닉스, 엔비디아와 '초고성능 AI 낸드' 개발 협력…"내년 말 샘플 제조"

SK하이닉스가 엔비디아와 협력해 기존 대비 성능을 10배가량 끌어올린 차세대 AI 낸드를 개발하고 있다. 해당 제품은 내년 말 초기 샘플이 나올 예정으로, 나아가 SK하이닉스는 2027년 말 양산 준비를 목표로 2세대 제품을 개발 중인 것으로 알려졌다. 김천성 SK하이닉스 부사장은 10일 오후 '2025 인공지능반도체 미래기술 컨퍼런스(AISFC)'에서 차세대 AI 낸드 솔루션 개발 현황에 대해 이같이 밝혔다. 현재 AI 산업은 적용처에 따라 방대한 양의 데이터 처리를 요구하는 데이터센터, 개별 기기에서 고효율·저전력 AI 기능 구현을 중시하는 온디바이스 AI로 나뉜다. SK하이닉스는 각 산업에 맞는 고부가 AI 메모리 개발에 집중하고 있다. AI 데이터센터용 메모리는 HBM(고대역폭메모리), CXL(컴퓨트익스프레스링크), AiM(지능형 메모리 반도체) 등이 대표적이다. 이에 더해 SK하이닉스는 AI-N P(성능), AI-N B(대역폭), AI-N D(용량) 세 가지 측면에서 각각 최적화된 낸드 솔루션으로 구성된 'AIN 패밀리' 라인업을 개발 중이다. 이 중 AI-N P는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계하고 있다. 현재 SK하이닉스는 글로벌 빅테크인 엔비디아와 AI-N P에 대한 PoC(개념증명)를 공동으로 진행하는 등, 협력을 가속화하고 있다. 김 부사장은 "엔비디아와 AI-N P를 개발하고 있고, 내년 말 정도면 PCIe Gen 6 기반으로 2천500만 IOPS(1초당 처리할 수 있는 입출력 횟수)를 지원하는 샘플이 나올 것"이라며 "2027년 말 정도면 1억 IOPS까지 지원하는 제품의 양산을 추진할 수 있을 것으로 예상한다"고 말했다. 현재 데이터센터에 탑재되는 고성능 eSSD(기업용 SSD)의 IOPS는 최대 300만 수준이다. 이를 고려하면 내년 말 공개될 AI-N P의 성능은 기존 대비 8배에서 10배에 달할 것으로 관측된다. 2세대 제품은 30배 이상에 도달할 전망이다. AI-N B도 차세대 스토리지 솔루션으로 주목받고 있다. AI-N B는 메모리를 송수신하는 대역폭을 기존 SSD 대비 크게 확대한 제품으로, 업계에서는 HBF라고도 불린다. HBF은 D램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 김 부사장은 "샌디스크와 AI-N B의 표준화 작업을 진행하고 있고, 알파 버전이 (내년) 1월 말 정도에 나올 것으로 예상한다"며 "오는 2027년 샘플이 나오면 평가 등을 진행할 계획"이라고 밝혔다.

2025.12.10 18:01장경윤

삼성의 시간 왔다...4분기 D램 1위 탈환 유력

올해 4분기 삼성전자가 다시 전 세계 D램 시장 1위 지위를 되찾을 전망이다. 현재 1위인 SK하이닉스 대비 범용 D램의 가격 상승에 삼성전자가 더 많은 수혜를 받기 때문이다. 삼성의 평균판매가격(ASP)이 전분기 대비 30% 이상 오를 수 있다는 의견도 나온다. 9일 업계에 따르면 삼성전자는 올 4분기 D램 매출액에서 세계 1위 자리를 탈환할 가능성이 유력시된다. 그간 삼성전자는 압도적인 생산능력을 토대로 D램 시장 점유율 1위를 기록해 왔다. 그러나 올해 1분기 SK하이닉스에 처음으로 선두 자리를 내준 바 있다. 고대역폭메모리(HBM) 등 고부가 제품에서 SK하이닉스가 큰 성과를 거둔 덕분이다. 2~3분기 역시 SK하이닉스가 간발의 우위를 점했다. 다만 올 3분기 기준 삼성전자와 SK하이닉스간 D램 매출액은 매우 근소한 수준이다. 시장조사업체 트렌드포스에 따르면 해당 분기 SK하이닉스의 D램 매출액은 137억5천만 달러, 삼성전자는 135억 달러로 집계됐다. 시장 점유율은 SK하이닉가 33.2%, 삼성전자가 32.6%다. 양사 격차는 0.6%p에 불과하다. 하지만 4분기에는 삼성전자가 다시 1위 자리를 가져갈 가능성이 유력해졌다. 글로벌 빅테크의 공격적인 AI 인프라 투자로 범용 D램에 대한 공급부족 현상이 심화되면서, 삼성전자의 D램 평균판매가격(ASP) 상승 현상이 두드러지고 있기 때문이다. 우선 올 4분기 삼성전자, SK하이닉스의 빗그로스(메모리 용량 증가율)는 동일한 수준이다. 양사 모두 올 3분기 실적발표 컨퍼런스콜에서 "4분기 D램 빗그로스는 한 자릿 수 초반 증가"라고 밝힌 바 있다. D램 수요가 폭발적으로 증가하고 있으나, 재고 수준이 낮아 출하량을 무작정 늘릴 수 없기 때문이다. 반면 ASP에서는 삼성전자와 SK하이닉스 간 다른 양상을 보일 전망이다. 현재 업계가 추산하는 삼성전자의 4분기 ASP는 전분기 대비 최소 20%대 상승이다. 최근에는 30%대로 추산하는 증권사 보고서도 발간되는 추세다. LS증권은 30%, 키움증권은 38%를 제시했다. SK하이닉스의 ASP 상승률은 20%대 초중반으로 추산된다. SK하이닉스 역시 범용 D램 가격 상승에 수혜를 입고 있으나, 삼성전자 대비 ASP 상승폭이 적을 수 밖에 없는 구조다. 원인은 HBM의 매출 비중에 있다. SK하이닉스는 주요 고객사인 엔비디아에 HBM3E(5세대 HBM)을 주력으로 공급하고 있어, 범용 D램의 가격 상승에 따른 영향이 제한적이다. 반도체 업계 관계자는 "가격이 대체로 고정적인 HBM 대비 범용 D램의 가격이 빠르게 상승하면서, 수익성이 역전되는 사례까지 발생하고 있다"며 "삼성전자의 경우 HBM 비중이 적고, D램 가격 인상을 적극적으로 밀어부치고 있어 4분기 D램 매출 확대가 SK하이닉스 대비 뚜렷하게 나타날 것"이라고 밝혔다.

2025.12.09 10:24장경윤

트럼프 "엔비디아 H200 中 수출 허용"…HBM 수요 촉진 기대

미국 정부가 엔비디아의 고성능 인공지능(AI) 반도체 'H(호퍼)200' 수출을 허가하기로 했다. 도널드 트럼프 미국 대통령은 8일(현지시간) SNS 트루스소셜을 통해 "미국 국가안보 유지 조건 하에, 엔비디아가 중국 및 다른 국가의 승인된 고객에 H200을 공급하는 것을 허용할 것이라고 시진핑 중국 국가주석에게 통보했다"며 "시 주석도 긍정적으로 반응했다"고 밝혔다. H200은 엔비디아가 지난해 본격 양산한 AI 반도체다. 최신 세대인 '블랙웰' 시리즈보다는 구형이지만, 매우 강력한 데이터 처리 성능을 자랑한다. 특히 일부 AI 기능이 엔비디아가 중국 시장을 겨냥해 만들었던 H20의 6배를 웃도는 것으로 알려져 있다. 엔비디아는 지난 2022년 미국의 규제로 AI 반도체를 중국에 수출할 수 없게 되자, AI반도체인 H100의 성능을 대폭 낮춰 H20을 개발한 바 있다. 트럼프 대통령의 결정으로, 엔비디아는 H200 판매액의 25%를 미국에 지급하는 조건으로 수출을 재개할 것으로 예상된다. 다만 블랙웰이나 엔비디아가 내년 출시할 '루빈' 칩 등은 이번 계약에 포함되지 않는다. 또한 트럼프 대통령은 “상무부가 세부 사항을 조율하고 있다"며 "AMD, 인텔 등 다른 미국 기업들에도 이러한 접근 방식이 적용될 것"이라고 밝혔다. 로이터통신은 이에 대해 "트럼프 대통령이 최신형 칩인 블랙웰 칩의 중국 수출을 허가하거나, 아예 칩 수출을 막는 방안 사이의 타엽한을 낸 것으로 보인다"고 논평했다. H200의 수출 재개는 삼성전자, SK하이닉스 등 국내 메모리 기업들의 HBM 수요를 촉진할 수 있을 것으로 관측된다. H200은 HBM3E 8단 제품을 탑재한다. 현재 HBM은 HBM3E 12단까지 상용화된 상태로, 내년부터는 HBM4 양산이 본격화된다.

2025.12.09 08:31장경윤

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

SK하이닉스, 내년 HBM4 '램프업' 탄력 운영

SK하이닉스가 내년 HBM4(6세대 고대역폭메모리)의 본격적인 양산 시점을 놓고 조절에 나섰다. 당초 내년 2분기 말부터 HBM4의 생산량을 대폭 늘릴 예정이었지만, 최근 이를 일부 시점을 조정 중으로 파악됐다. 엔비디아의 AI칩 수요 및 차세대 제품 출시 전략에 맞춰 탄력 대응에 나선 것으로 풀이된다. 8일 지디넷코리아 취재에 따르면 SK하이닉스는 HBM4의 램프업(양산 본격화) 시점을 당초 계획 대비 한 두달 가량 늦췄다. HBM4는 내년 엔비디아가 출시하는 차세대 AI 가속기 '루빈(Rubin)'부터 채용되는 HBM이다. 이전 세대 대비 데이터 전송 통로인 I/O(입출력단자) 수가 2배 많은 2048개로 확대되며, HBM을 제어하는 로직 다이(베이스 다이)가 기존 D램 공정이 아닌 파운드리 공정에서 양산되는 점이 가장 큰 특징이다. 당초 SK하이닉스는 HBM4를 내년 2월경부터 양산하기 시작해, 2분기 말부터 HBM4 생산량을 대폭 확대할 계획이었다. 엔비디아가 HBM4 퀄(품질) 테스트를 공식적으로 마무리하는 시점에 맞춰 생산량을 빠르게 확대하려는 전략이다. 이를 위해 SK하이닉스는 대량의 샘플 시생산을 진행해 왔으며, 엔비디아의 요청에 따라 2만~3만개의 칩을 공급한 것으로 알려졌다. 그러나 최근 계획을 일부 수정했다. HBM4의 양산 시점을 내년 3~4월부터로 미루고, HBM4의 생산량을 대폭 확대하는 시점도 탄력 운영하기로 했다. HBM4 양산을 위한 소재·부품 수급도 기존 대비 속도를 늦추기로 한 것으로 파악됐다. 사안에 정통한 관계자는 "SK하이닉스가 내년 상반기부터 HBM4 생산량을 점진적으로 늘려, 2분기 말에는 HBM4 비중을 크게 확대할 계획이었다"며 "그러나 현재는 최소 내년 상반기까지 전체 HBM에서 HBM3E의 생산 비중을 가장 높게 유지하는 것으로 가닥을 잡았다"고 설명했다. 또 다른 관계자는 "SK하이닉스가 엔비디아와 내년 HBM 물량을 논의하면서 예상 대비 HBM3E 물량을 많이 늘린 것으로 안다"며 "엔비디아 루빈의 출시 일정이 지연될 가능성이 커졌고, HBM3E를 탑재하는 기존 블랙웰 칩의 수요가 견조한 것 등이 영향을 미쳤을 것"이라고 말했다. 현재 업계에서는 엔비디아 루빈 칩의 본격적인 양산 시점이 밀릴 수 있다는 우려가 팽배하다. 엔비디아가 루빈 칩의 성능 향상을 추진하면서 HBM4 등의 기술적 난이도가 높아졌고, 루빈 칩 제조에 필수적인 TSMC의 2.5D 패키징 기술 'CoWoS'가 계속해서 병목 현상을 겪고 있기 때문이다. 이에 대해 SK하이닉스 측은 "경영 전략과 관련해서는 구체적으로 확인해드릴 수 없으나, 시장 수요에 맞춰 유연하게 대응할 계획"이라고 밝혔다.

2025.12.08 10:03장경윤

3분기 기업용 SSD 시장 급성장…삼성전자 1위 유지

기업용 SSD(eSSD) 시장이 인공지능(AI) 데이터센터 투자 확대로 시장 규모가 크게 성장했다. 특히 삼성전자가 선두자리를 공고히 한 것으로 나타났다. 5일(현지시간) 시장조사업체 트렌드포스에 따르면 올 3분기 데이터센터에 탑재되는 eSSD 매출액은 65억4천만 달러(약 9조6천300억원)로 전분기 대비 28% 증가했다. 이같은 호조세는 공급과 수요 측면 모두에서 기인했다. 현재 전 세계 클라우드서비스제공자(CSP) 기업들은 AI 인프라 구축을 위해 SSD 재고를 적극 확보하고 있다. 반면 메모리 제조업체는 반도체 시장의 변동성을 염두에 두고 출하량 확대에 신중한 태도를 보이고 있다. 이에 eSSD 시장은 4분기에도 강력한 성장세를 보일 것으로 전망된다. 트렌드포스가 추산한 올 4분기 eSSD 가격의 전분기 대비 증가분은 25% 이상이다. 기업별로는 삼성전자가 올 3분기 매출 24억4천만 달러로 전분기 대비 28.6% 증가했다. 시장점유율은 35.1%로 전분기 대비 0.5%p 증가했다. 레거시(성숙) 공정 기반의 트리플레벨셀(TLC) SSD에서 상당한 주문량을 확보한 덕분이다. SK하이닉스(자회사 솔리다임 포함)는 올 3분기 매출이 전분기 대비 27.3% 증가한 18억6천만 달러를 기록했다. 시장점유율은 26.8%로 전분기 대비 0.1%p 증가했다. 3위 마이크론 매출은 9억9천만 달러로 전분기 대비 26.3% 증가했다. 점유율은 전분기와 동일한 14.3%로 집계됐다.

2025.12.07 09:27장경윤

"사내용 칩서 비밀병기로”…구글 TPU, 엔비디아 아성 겨눈다

구글 모회사 알파벳이 자체 개발한 인공지능(AI) 칩 TPU와 자사 AI 플랫폼을 결합하면, 최대 약 9천억 달러 규모 기업가치가 가능한 '숨은 무기'가 될 수 있다는 분석이 나왔다. AI 반도체 시장에서 엔비디아 중심 구조에 도전할 수 있다는 기대감이 드러난 것이다. 블룸버그통신은 알파벳이 설계한 TPU(텐서 프로세싱 유닛)가 단순한 사내용 을 넘어 시장을 뒤흔드는 주체가 될 수 있다고 4일(현지시간) 보도했다. 일부 분석가는 2027년까지 알파벳이 외부에 50만~100만개 이상 TPU를 공급할 수 있다고 보고 있다. TPU의 강점은 대규모 AI 모델 학습 및 추론에 최적화돼 있다는 점이다. GPU 대비 전력 효율과 성능 면에서 효율적이라는 평가가 많다. 이 점이 알파벳의 기존 클라우드 및 AI 생태계와 결합되면, 비용·속도·운영 효율 측면에서 경쟁 우위를 확보할 수 있다. 실제로 최근 시장에서는 알파벳이 TPU를 활용한 외부 칩 판매를 시작할 수 있다는 기대가 퍼지며, 주가와 기업가치가 빠르게 반응하고 다. 일부 투자자와 분석가들은 TPU와 AI 서비스, 그리고 클라우드 인프라를 통합한 구조가 엔비디아 중심 시장에 균열을 낼 수 있다고 본다. 알파벳 내부에서도 AI 인프라에 대한 대규모 투자에 공을 들여왔다. 2025년 설비투자(CAPEX))를 크게 늘려 TPU 생산, 데이터센터 확장, 네트워크 인프라 확대에 자금을 집중하고 있다. 만약 알파벳이 TPU 중심 AI 생태계를 외부에 개방하고, 자체 AI 모델인 제미나이 등을 기반으로 서비스까지 엮는다면, 단순 반도체 업체가 아닌 종합 AI 플랫폼 기업으로 탈바꿈할 가능성이 열린다. 이는 향후 AI 인프라 시장 판도를 바꾸는 계기가 될 수 있다. 다 이런 변화가 실현되기 위해서는 TPU 성능과 안정성 증명, 대량 공급 체계 구축, 그리고 시장 수요 확보가 관건이다. 시장은 알파벳이 실제 얼마나 많은 TPU를 외부에 공급하고, AI 생태계를 확장할 수 있을지 주목하고 있다.

2025.12.07 09:07전화평

美 상원, 엔비디아 AI칩 中 수출 차단 법안 발의

미국 상원 소속 초당적 의원들이 엔비디아·AMD 등 미국산 고급 AI 칩의 중국 등 적대국 수출을 2년 반 동안 사실상 봉쇄하는 법안인 '세이프 칩스 액트(SAFE CHIPS Act)'를 공개했다고 로이터가 4일(현지시간) 보도했다. 이 법안은 미국 행정부가 해당 AI 칩 수출 규제를 완화하지 못하도록 막는 것이 핵심이다. 새 법안은 미국 상무부가 현재 허용된 수준보다 성능이 뛰어난 AI 칩을 중국·러시아·이란·북한에 수출하려 할 경우, 라이선스를 승인하지 못하도록 한다. 적용 기간은 30개월이다. 이후 상무부가 규제 완화를 제안할 경우, 반드시 시행 한 달 전에 의회에 사전 보고해야 한다. 상원에서 발의한 주체는 공화당의 피트 리켓츠 의원과 민주당의 크리스 쿤스 의원. 공화당 내 대표적인 대중 강경파인 톰 코튼 등도 동참하며, 트럼프 행정부의 수출 규제 완화 움직임에 제동을 건 모양새다. 공화·민주 양당이 함께 나선 점이 이례적이라는 평가다. 리켓츠 의원은 “미국산 최고의 AI 칩을 중국에 넘기는 것을 막는 일은 국가 안보에 필수적”이라고 강조했다. 이번 법안 발의는 최근 행정부가 중국에 대한 AI 칩 수출 규제를 사실상 완화하려 한다는 보도가 나온 직후 나왔다. 특히 엔비디아가 최신 세대 GPU인 H200의 중국 수출 허가를 검토 중이라는 보도가 배경이 됐다. 이를 두고 미국 내에서는 중국이 해당 칩을 군사, 감시 등에 활용할 수 있다는 우려가 제기돼 왔다. 한편, 이번 입법 움직임은 같은 날 보도된 AMD의 AI 반도체 MI 308 중국 수출 허용 및 이에 따른 15% 수출료 부과 움직임과 직접적으로 맞물린다.

2025.12.05 15:55전화평

"AI 칩도 온라인 쇼핑처럼”…딥엑스, 디지키 입점

반도체 스타트업 딥엑스가 세계 최대 전자부품 이커머스 플랫폼 디지키를 글로벌 유통 허브로 삼고 본격적인 해외 공략에 나선다. 딥엑스는 전자부품 유통 및 솔루션 기업 디지키와 파트너십을 맺고, AI 가속기 제품군을 전 세계 시장에 공식 공급한다고 5일 밝혔다. 디지키는 연 매출 약 87억 달러(약 12조원) 규모 글로벌 전자 부품·반도체 이커머스 기업으로, 세계 180개국 이상에 24~48시간 내 제품을 배송하는 물류 네트워크를 보유하고 있다. 특히 세계 엔지니어들이 신제품 개발·시제품 제작 단계에서 가장 먼저 찾는 'R&D의 성지'로 불리는 만큼, 이번 협력은 딥엑스의 기술이 글로벌 엔지니어들의 표준 개발 환경에 침투할 수 있는 계기가 될 것으로 회사 측은 전망했다. 기존 AI 반도체 시장은 복잡한 공급 계약과 긴 리드타임(납기)으로 인해 스타트업이나 개별 연구자들이 접근하기 어려웠다. 하지만 딥엑스는 디지키 즉시 출하 시스템을 활용해, 미국 실리콘밸리 스타트업부터 유럽의 대학 연구실까지 세계 어디서든 딥엑스 최신 NPU와 개발 키트를 온라인 쇼핑하듯 구매할 수 있는 이커머스 채널을 구축했다. 딥엑스는 고객의 개발 편의성을 극대화하기 위해 공식 홈페이지와 개발자 포털을 전면 리뉴얼했다. 기존에는 별도 절차를 거쳐야 했던 소프트웨어 개발 키트(SDK) 배포 방식을 개선해, 개발자가 홈페이지 회원가입만 하면 즉시 최신 SDK와 드라이버를 다운로드할 수 있도록 진입 장벽을 없앴다. 이로써 고객은 ▲디지키에서 하드웨어를 주문하고 ▲개발자 포털에서 SDK를 다운받아 ▲즉시 AI 모델을 구동해보는 원스톱 개발 사이클을 경험할 수 있게 됐다. 딥엑스는 글로벌 시장은 디지키를 중심으로, 국내 시장은 '한컴' 등 주요 이커머스 채널과 협력해 온·오프라인을 아우르는 유통망을 완성해 나가고 있다. 딥엑스 관계자는 "글로벌 엔지니어들의 검색 엔진과 다름없는 디지키 입점은 딥엑스 기술이 전 세계 개발 현장 표준으로 자리 잡기 위한 중요한 교두보"라며 "하드웨어 접근성을 해결한 데 이어, 향후 기술 문서 고도화, 개발자 포럼 개설 등 소프트웨어 지원 생태계까지 강화해 누구나 쉽게 온디바이스 AI를 구현할 수 있는 환경을 만들겠다"고 말했다.

2025.12.05 10:25전화평

SK하이닉스, 'HBM 전담' 기술 조직 신설…AI메모리 공략 가속화

SK하이닉스가 글로벌 경쟁력 확보를 위한 대대적인 조직개편에 나섰다. 미국 등 해외 지역에 컴퓨팅 시스템 아키텍처 연구를 위한 조직을 신설한 것은 물론, 차세대 HBM(고대역폭메모리) 개발에 특화된 조직 체계도 구성했다. SK하이닉스는 2026년 조직개편과 임원인사를 단행했다고 4일 밝혔다. 회사는 ”2024년, 2025년 연속으로 HBM 글로벌 1위를 유지한 SK하이닉스는 AI 메모리 시장의 새로운 표준을 제시해왔다”며 “이번 조직개편을 통해 글로벌 AI 시대를 선도하기 위한 기반을 강화하고 지속 가능한 성장 체계를 더욱 공고히 할 것”이라고 강조했다. 이번 조직 개편은 글로벌 경쟁력 확장을 위한 대대적인 체질 개선에 초점을 맞췄다. 이를 위해 SK하이닉스는 미국과 중국, 일본 등 주요 거점에 '글로벌 AI 리서치 센터'를 신설한다. 안현 개발총괄(CDO) 사장이 이 조직을 맡아 컴퓨팅 시스템 아키텍처 연구를 가속화하고 글로벌 빅테크 기업들과 협력을 강화할 계획이다. 특히 미국 AI 리서치 센터에는 글로벌 구루(Guru)급 인재를 영입해 시스템 연구 역량을 업계 최고 수준으로 끌어올릴 예정이다. 동시에 미국 인디애나 어드밴스드 패키징 팹 구축을 본격화하고 글로벌 생산 경쟁력 강화를 전담하는 '글로벌 인프라' 조직을 신설한다. 국내 이천과 청주의 생산 현장에서 풍부한 경험을 쌓아온 김춘환 담당이 이 조직을 이끌며 글로벌 생산 체계의 일관성을 강화해 AI 메모리 수요 확대에 선제적으로 대응한다는 전략이다. 글로벌 경영 환경과 지정학 이슈를 심층 분석하고, AI와 반도체 중심의 전략 설루션을 제시할 '매크로 리서치 센터'도 세운다. 이곳에 글로벌 거시경제부터 개별 산업, 기업 분석에 정통한 전문가를 영입해 미래 대응 역량을 한층 강화한다. 나아가 회사는 글로벌 수준의 인텔리전스 체계를 고도화하기 위해 고객 중심 매트릭스(Matrix)형 조직인 '인텔리전스 허브'를 운영한다. 이 조직은 고객∙기술∙시장 정보를 AI 기반 시스템으로 통합 관리해 고객 기대 이상의 가치를 제공하는 데 필요한 통찰력 확보에 주력한다. SK하이닉스는 HBM 1등 기술 리더십을 이어나가기 위한 조직 개편도 진행했다. 주요 HBM 고객들에 대한 신속한 기술 지원을 위해 미주 지역에 HBM 전담 기술 조직을 신설한다. 또한 커스텀(Custom) HBM 시장 확대에 적기 대응하기 위해 HBM 패키징 수율, 품질 전담 조직도 별도 구축해, 개발부터 양산, 품질 전 과정을 아우르는 HBM 특화 조직 체계를 완성했다. 한편, SK하이닉스는 총 37명의 신규 임원을 선임하며 차세대 리더 육성을 가속화했다. 이 중 70%는 주요 사업·기술 분야에서 발탁했고, 기술·지원 조직에서는 80년대생 여성 임원도 배출하며 기술 기업의 성과 중심 인사 원칙을 일관되게 이어갔다. 회사의 중장기 성장을 이끌 미래 리더십 체계도 강화한다. 제조·기술 분야 핵심 리더 이병기 담당을 'C-Level'(C레벨) 핵심 임원인 '양산총괄(CPO)'로 승진시켜 SK하이닉스의 글로벌 생산 체계 혁신을 맡겼다. 수율과 품질 전문가인 권재순 담당과 eSSD 제품 개발을 주도한 김천성 담당도 회사의 주요 보직인 M&T 담당, 설루션(Solution) 개발 담당으로 각각 승진해 향후 회사를 이끌어 갈 경영자로서의 역량을 확고히 하게 됐다. 또한 전사 지원 조직 기능을 통합적으로 조율하는 코퍼레이트 센터(Corporate Center) 산하 주요 임원에 김동규 담당(미래전략), 강유종 담당(구매), 진보건 담당(기업문화) 등을 선임해 세대교체도 진행했다. 곽노정 SK하이닉스 CEO는 "이번 조직개편과 임원인사는 풀스택 AI 메모리 크리에이터로 도약하기 위한 필수적 조치”라고 강조하며 “세계 시장을 선도하는 글로벌 리딩 컴퍼니로서의 경쟁력을 더욱 강화하는 계기가 될 것”이라고 말했다.

2025.12.04 13:49장경윤

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

마이크론, 소비자 사업 철수...'AI 메모리'에 힘 준다

미국 주요 메모리 제조기업 마이크론이 소비자용 메모리 출하를 내년 초 중단한다. 전 세계 AI 인프라 투자로 수요가 폭증하는 AI 데이터센터용 고부가 메모리 사업에 집중하기 위한 전략으로 풀이된다. 마이크론은 소비자용 브랜드 제품 판매 부문인 '크루셜(Crucial)' 사업에서 철수하겠다고 3일 발표했다. 크루셜은 마이크론이 지난 1996년 출시한 소비자용 메모리 및 스토리지 브랜드다. PC에 탑재되는 D램 및 SSD(솔리드스테이트드라이브)를 주력으로 공급해 왔다. 이번 마이크론의 결정은 AI 데이터센터 시장의 급격한 성장세에 따라, 수요가 증가하는 고부가 메모리 사업에 집중하기 위한 전략으로 풀이된다. B2B(기업간거래) 전략 고객향 메모리 공급은 일반 소비자용 대비 수익성이 높고, 장기적인 계약을 체결하기 때문에 사업 안정성이 높다. 수밋 사다나 마이크론 부사장 겸 최고사업책임자(CBO)는 "마이크론은 빠르게 성장하는 시장에서 규모가 크고 전략적인 고객들을 위한 공급 및 지원을 개선하고자, 크루셜 브랜드 사업 철수라는 어려운 결정을 내렸다"고 설명했다. 마이크론은 2026 회계연도 2분기 말인 2026년 2월까지만 크루셜 브랜드 제품을 출하할 예정이다. 기존 제품에 대한 보증 및 지원은 계속 제공한다.

2025.12.04 10:38장경윤

삼성전자, 엔비디아향 HBM4 최종 평가 단계 돌입

삼성전자가 엔비디아향 HBM4(6세대 고대역폭메모리) 공급을 위한 마지막 단계에 들어선다. 이달부터 실제 AI칩과 최종 HBM 샘플을 패키징 및 테스트하는 과정에 착수할 것으로 파악됐다. 그간 삼성전자가 HBM4 성능 및 수율 향상에서 많은 진전을 이뤄냈으나, 현재로서는 HBM4의 적기 상용화 가능성을 단언하기에는 무리가 있다는 평가가 있었다. 엔비디아가 요구하는 충분한 물량의 샘플로 테스트를 거치지 않아, 초기 결과만을 확인할 수 있었기 때문이다. 테스트 일정을 고려하면 삼성전자 HBM4의 상용화 윤곽이 드러나는 시점은 빨라야 내년 1분기께가 될 전망이다. 주요 경쟁사인 SK하이닉스 역시 내년 초까지는 패키징 단에서의 테스트를 지속할 것으로 관측된다. 삼성전자, HBM4 상용화 위한 마지막 평가 목전 3일 지디넷코리아 취재에 따르면, 삼성전자는 이달부터 엔비디아향 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 진행할 계획이다. HBM4는 엔비디아가 내년 하반기 출시할 예정인 차세대 AI 가속기 '루빈'에 처음으로 탑재되는 차세대 HBM이다. 삼성전자를 비롯해 SK하이닉스, 마이크론이 엔비디아로부터 대량으로 샘플을 요청받은 바 있다. 이에 삼성전자는 지난 9월 말부터 엔비디아향으로 CS(커스터머샘플; 양산용으로 평가하는 샘플) 초도 물량을 공급했다. 이후 지난달 최종 샘플에 대한 추가 공급을 실시하며, 엔비디아가 요구하는 샘플 물량을 일정 수준 충족한 것으로 알려졌다. CS 샘플 테스트의 핵심은 2.5D 패키징에 있다. 2.5D 패키징은 HBM과 루빈 칩 같은 AI 가속기를 기판에 실장하는 공정으로, 가운데에 칩과 기판을 연결해주는 얇은 막(인터포저)를 삽입한다. 엔비디아의 경우 대만 주요 파운드리인 TSMC에 이 공정을 맡긴다. TSMC는 자체적으로 개발한 2.5D 패키징 기술인 'CoWoS(칩-온-웨이퍼-온-서브스트레이트)' 양산 라인을 보유하고 있다. 최종 HBM4 샘플이 2.5D 패키징 및 테스트에 돌입한 만큼, 삼성전자는 HBM4의 제품 상용화를 위한 마지막 단계에 접어든 것으로 평가 받는다. 다만 아직까지 삼성전자의 HBM4 상용화 여부를 판단하기에는 이르다는 게 업계의 시각이다. HBM4 자체에 오류가 없더라도, 실제 루빈 칩과의 연결성을 확인하는 2.5D 패키징에서 오류가 발생하면 양산이 불가능하기 때문이다. 해당 사안에 정통한 관계자는 "삼성전자의 최종 HBM4 샘플이 이달부터 2.5D 패키징 및 완성품에 대한 테스트를 받을 예정"이라며 "테스트 일정을 고려하면 빨라야 내년 1분기께 실제 상용화 여부에 대한 윤곽이 드러날 것으로 보인다"고 설명했다. 반도체 패키징 업계 관계자는 "실제 AI 반도체 제조에는 HBM과 AI 가속기, 각종 보조 칩들을 모듈화해서 전체적으로 신뢰성을 봐야하기 때문에 HBM 자체 수율 및 성능과는 결이 다르다"며 "루빈 칩의 상용화 과정에서 CoWoS가 가장 중요한 요소"라고 말했다. 2.5D 패키징 신뢰성 확보까지 속단은 '금물'…내년 초 윤곽 실제로 삼성전자에 앞서 먼저 HBM4 샘플을 공급했던 SK하이닉스도 2.5D 패키징 및 테스트 하는 과정에서 여러 개선 작업이 필요했던 것으로 파악됐다. SK하이닉스가 최근 해외 IR 행사를 통해 "HBM4에 대한 재설계, 인증 지연 문제는 없다"고 밝혔으나, 일부 국지적인 문제 해결을 위해 개선품을 지속해서 만들어왔다는 게 업계의 전언이다. 해당 사안에 정통한 관계자는 "엔비디아의 칩 성능 상향 요구, 이전 세대 대비 HBM4의 I/O(입출력단자) 2배 증가 등으로 CoWoS 단에서 해결해야 할 이슈들이 계속 발생해 왔다"며 "다만 현재는 SK하이닉스가 개선된 샘플 설계를 완료한 상태로, 내부에서도 심각한 위기로 인지하지 않는 것으로 안다"고 밝혔다. 결과적으로 SK하이닉스 역시 내년 초까지 HBM4 최종 샘플에 대한 2.5D 패키징 테스트를 지속할 전망이다. 현재 엔비디아가 메모리 공급사에 제시한 HBM4 공식 퀄(품질) 테스트 일정 완료 시기는 내년 1분기 말로, 그 전까지는 메모리 공급사 모두 HBM의 안정화 및 수율 개선에 총력을 기울일 것으로 관측된다. 반도체 업계 관계자는 "SK하이닉스가 HBM4 최종 샘플에 대한 테스트를 가장 먼저 진행한 만큼 가장 앞서 있으나, 모든 불확실성이 제거되는 시점은 내년 1분기"라며 "루빈 상용화를 위한 각 요소에 필요한 기술의 난이도가 상당히 높아 업계 예상보다 HBM4 및 루빈의 양산 일정이 전체적으로 밀릴 가능성도 높아졌다"고 설명했다.

2025.12.03 14:48장경윤

삼성 세계 최초 12나노급 GDDR7 대통령상…추론 AI 시장서 '각광'

삼성전자의 최첨단 GDDR7 D램이 국가 산업경쟁력 강화에 기여하는 미래전략 기술로 인정 받았다. 해당 D램은 업계 최초로 12나노미터(nm)급 미세 공정을 적용한 고성능·고용량 그래픽 D램으로, 엔비디아 등이 주목하는 추론 AI 시장에서 핵심 역할을 담당할 것으로 관측된다. 삼성전자는 3일 서울 코엑스에서 개최되는 '2025 코리아 테크 페스티벌'에서 12나노급 40Gbps 24Gb GDDR7 D램으로 2025 대한민국 기술대상 대통령상을 수상했다. GDDR은 그래픽 처리에 특화된 D램으로, 일반 D램 대비 대역폭이 높아 한 번에 더 많은 데이터를 전송할 수 있다. GDDR7은 현존하는 GDDR 중 가장 최신 세대에 해당한다. GDDR7은 AI 시장에서 핵심 메모리로 빠르게 자리매김하고 있다. 특히 AI 경쟁의 초점이 기존 학습에서 추론으로 넘어가면서 GDDR7의 가치는 더욱 부각되는 추세다. AI 학습이 더 높은 메모리 용량 및 대역폭을 요구하는 데 비해, AI 추론은 효율성을 더 중시하기 때문이다. GDDR7은 고대역폭메모리(HBM) 대비 비용 효율, 전력효율, 경량성에서 강점을 가지고 있다. AI 시장의 주요 플레이어들 역시 GDDR7을 주목하고 있다. 엔비디아는 지난 9월 공개한 추론 전용 GPU인 루빈 CPX(Rubin CPX)'에 128GB GDDR7을 탑재할 것이라고 밝혀, GDDR7의 시장 입지를 한층 강화할 전망이다. 이에 삼성전자도 엔비디아와의 협력을 통해 시장 주도권을 공고히 할 것으로 관측된다. 김동원 KB증권 연구원은 "최근 엔비디아가 삼성전자에 GDDR7 공급 확대를 대폭 요청해 평택 라인의 생산능력이 두 배 이상 확대될 것"이라며 "가격 프리미엄을 받고 있는 GDDR7이 향후 D램 사업의 수익성 개선을 견인할 것으로 전망한다"고 밝혔다. 한편 삼성전자는 올해 초부터 12나노급 GDDR7 D램 양산에 나섰다. 그래픽 D램 중 최초로 24Gb를 구현했으며, 최대 42.5Gbps 속도 및 총 1.92TB/s 대역폭을 지원한다. 또한 고열전도성 신소재 적용으로 패키지 열저항 특성을 이전 GDDR7 제품 대비 11% 개선하는 데 성공했다.

2025.12.03 11:07장경윤

삼성전자, 16~18일 글로벌 전략회의…내년 사업 전략 수립

삼성전자가 이달 중순 글로벌 전략회의를 진행한다. 이 자리에서는 스마트폰과 반도체 등 핵심 분야 내년 사업 전략이 논의될 것으로 보인다. 2일 재계에 따르면 삼성전자는 오는 16~18일 사흘간 디바이스경험(DX) 및 디바이스솔루션(DS) 부문을 나눠 '하반기 글로벌 전략협의회'를 열 예정이다. 이번 회의는 노태문 DX부문장(사장)과 전영현 DS부문장(부회장)이 각각 회의를 주관할 것으로 알려졌다. 각 부문에서 회의에 참석하는 총 인원은 300명에 달할 전망이다. 세부적으로 DX 부문은 16~17일, DS 부문은 18일 회의를 진행한다. 이재용 회장은 예년처럼 회의에 직접 참석하지 않고 추후 사업 전략 등을 보고받을 것으로 전해진다. 이번 회의에서 DX부문은 '갤럭시S26' 시리즈 등 내년 플래그십 스마트폰의 판매 전략 및 목표 등이 주요 안건에 오를 가능성이 유력하다. 현재 반도체 가격 상승과 환율 변화, 글로벌 공급망 등 대외적인 변수가 산재한 만큼, 노태문 사장을 필두로 대책 마련에 심혈을 기울일 것으로 예상된다. DS부문은 HBM(고대역폭메모리), 2나노미터(nm) 이하의 최첨단 파운드리 공정 등 고부가가치 제품과 최근 AI 산업의 활황으로 가격이 급등하고 있는 범용 메모리 간의 생산 전략 등이 집중 논의될 것으로 관측된다. 한편 삼성SDI·삼성전기 등 주요 관계사들도 이달 전략회의를 통해 내년도 사업계획을 수립할 것으로 알려졌다.

2025.12.02 16:51장경윤

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평

노타·퓨리오사AI, NPU 기술협력…"K-반도체 경쟁력↑"

노타가 퓨리오사AI 손잡고 차세대 신경처리장치(NPU) 기술협력을 추진하며 국내 반도체 경쟁력 강화에 나섰다. 노타는 퓨리오사AI와 NPU 기반 인공지능(AI) 개발을 위한 업무협력을 체결했다고 1일 밝혔다. NPU는 전력 효율성과 고속 추론 성능이 핵심이며, 복잡한 AI 모델 연산을 안정적으로 수행하는 데 필수적이다. 두 기업은 이런 성능을 국내 기술로 구현하기 위해 공동 기술개발과 사업화에 나서기로 했다. 협력 범위는 AI 솔루션 개발·사업화를 비롯한 기술 파트너십 확대, 기술·사업성 검증 프로젝트 등으로 구성됐다. 양사는 상호 기술을 결합해 산업별 요구에 맞춘 고성능 AI 모델 운영 기반을 마련할 계획이다. 노타는 자사 AI 최적화 기술을 활용해 퓨리오사AI의 NPU가 제한된 전력에서도 대규모 모델을 신속하게 구동하도록 지원한다. 이를 통해 NPU 성능 향상과 시장 확대에 기여한다는 전략이다. 두 기업은 로봇, 모빌리티 등 다양한 산업에서 활용 가능한 실증모델 구축에도 협력한다. 또 국내외 시장 진출에서도 공동 전략을 추진할 계획이다. 노타는 이번 협력이 국내 반도체 생태계 강화에도 기여할 것으로 기대했다. AI 모델의 안정적 구동을 위한 최적화 기술을 확보해 AI전환(AX) 요구가 높아지는 산업 전반의 경쟁력을 높이겠다는 구상이다. 채명수 노타 대표는 "기술 시너지를 통해 국내 반도체 경쟁력 강화에 나섰다는 점에서 이번 협력은 큰 의미를 가진다"며 "우리는 AI 최적화 기술로 퓨리오사 NPU의 전력 효율성과 고속 추론 성능을 극대화해 대규모 AI 모델의 안정적 구동을 적극 지원할 것"이라고 말했다. 백준호 퓨리오사AI 대표는 "AI 워크로드가 고도화됨에 따라 추론 환경에서의 인프라 성능과 효율성에 대한 요구는 앞으로 더욱 커질 것이다"며 "노타와의 협력을 통해 퓨리오사 2세대 칩 RNGD 위에서 다양한 최신 AI 모델을 더욱 신속하고 효율적으로 지원할 수 있어 기쁘다"고 밝혔다.

2025.12.01 18:16김미정

딥엑스, 차세대 로봇용 AI 플랫폼 공개...현대차와 협력

온디바이스 AI 반도체 기업 딥엑스는 현대차·기아 로보틱스랩과 함께 세계경제포럼(WEF)의 혁신 AI 기술 MINDS 사례로 선정된 차세대 온디바이스 AI 플랫폼을 공개한다고 1일 밝혔다. 양사가 공동 개발한 온디바이스 AI 제어기는 현재 양산 적용을 위한 기술 검증 단계에 있다. 딥엑스 AI 반도체 DX-M1은 2023년 현대차·기아 로보틱스랩과 전략적 협력을 계기로 서비스 로봇용 제어 플랫폼에서 단계적 적용이 진행돼 왔다. 로봇 제어기에서 중요한 전력 효율·추론 성능·지연 시간 조건을 충족하면서도 5W 이하 전력으로 고성능 추론이 가능한 구조를 갖추고 있어 실내·외 서비스 로봇에 적합하다는 평가를 받는다. 올해 딥엑스와 로보틱스랩은 DX-M1 기반 제어기에 광각·협각 듀얼 ISP 카메라, 로보틱스랩의 비전AI기술을 통합한 차세대 제어기를 개발했다. 이는 지하주차장·지하철역·물류센터 같은 통신 불안정 환경에서도 네트워크 연결에 의존하지 않고 작동 가능한 온디바이스 기반 로봇 지능 구조를 목표로 한다. 이 시스템은 클라우드 연결이 원활하지 않아도 안정적으로 작동하는 로봇이라는 피지컬 AI의 핵심 요구 사항을 충족하기 위한 구조로 설계됐다. 또한 DX-M1이 현대차·기아 로보틱스랩의 안면 인식 시스템 '페이시(Facey)'와 연동되었고 이를 바탕으로 배송로봇 DAL-e 딜리버리는 수령인 안면 인증, 사용자 식별, 맞춤형 안내 등의 기능을 실증하고 있으며, 향후 고도화된 인터랙션 서비스를 제공할 수 있게 됐다. 해당 기술은 12월 3월부터 산업부가 주최하는 코리아 테크 페스티벌과 미국 라스베이거스에서 열리는 'CES 2026'에서 공개될 예정이다. 양사는 생산·물류·모빌리티·스마트시티 등 그룹 전반에서 피지컬 AI 기반 로봇 서비스를 확대하기 위한 파트너십을 단계적으로 넓혀 나갈 계획이다. 딥엑스는 “현대차·기아 로보틱스랩과 함께 로봇 지능 기술의 발전 속도를 더욱 높이며, 피지컬 AI 기반 로봇이 일상과 산업 현장에 자연스럽게 스며드는 시대의 기반을 구축하는 데 핵심적인 역할을 이어갈 예정”이라고 전했다.

2025.12.01 10:16전화평

마이크론, 일본에 14조원 투자…HBM 신공장 구축

미국 반도체 기업 마이크론 테크놀로지가 인공지능(AI) 반도체 수요에 대응하기 위해 일본 서부 지역에 1조5천억엔(약 14조1천억원)을 투자해 신규 공장을 건설한다고 니혼게이자이신문(닛케이)가 보도했다. 29일(현지시간) 외신에 따르면 마이크론은 대만에 집중된 첨단 반도체 생산 거점을 다변화하고 지정학적 리스크를 줄이기 위해 이 같은 대규모 투자를 결정했다. 새로 들어설 공장은 엔비디아의 AI 프로세서 등에 필수적으로 탑재되는 고대역폭메모리(HBM) 생산을 주력으로 할 전망이다. 마이크론은 기존 히로시마 공장 부지 내에 신규 시설을 건립할 예정이며, 내년 5월 착공해 2028년부터 HBM 제품 출하를 시작한다는 목표를 세웠다. 이번 투자에는 일본 정부의 파격적인 지원이 뒷받침됐다. 닛케이는 일본 경제산업성이 이번 마이크론 프로젝트에 최대 5천억 엔(약 4조7천억원)의 보조금을 지원할 계획이라고 전했다. 일본 정부는 2021년부터 반도체 산업 재건을 위해 약 5조7천억 엔(약 53조6천억원)의 예산을 투입해왔다. 다카이치 사나에 총리 내각은 최근 AI·반도체 개발을 추가 지원하기 위한 2525억 엔(약 2조4천억원) 규모의 추경 예산안을 승인했으며, 이는 국회 표결을 앞두고 있다. 앞서 일본 정부는 마이크론 히로시마 공장에 7745억 엔(약 7조3천억원)을 지원한 바 있다. 세계 최대 파운드리 기업인 대만 TSMC와 일본 자국 기업 라피더스 등에도 막대한 자금을 투입하고 있다. 마이크론은 현재 HBM 시장을 주도하고 있는 한국의 SK하이닉스·삼성전자와 치열한 경쟁을 벌이고 있다. 최근 오픈AI·메타 등 글로벌 빅테크 기업들이 AI 서비스 고도화에 나서면서 핵심 부품인 HBM 수요가 급증하고 있는 상황이다.

2025.11.30 12:56진성우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

'K-AI' 주도권 잡을 4개 정예팀은…정부, 첫 심사 발표 임박

홈플러스는 왜 '김병주 MBK 회장 구하기' 앞장설까

로보티즈, 14년 만에 휴머노이드 다시 만든다

코스피, 또 최고치 찍었다…원·달러 환율 10.8원 급등

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.