• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엔비디아'통합검색 결과 입니다. (691건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

컴퓨텍스 2026 기조연설 찾는 AI 반도체 기업 CEO들

타이트라(TAITRA, 대만대외무역발전협회)와 타이베이컴퓨터협회(TCA)가 주최하는 동아시아 최대 규모 ICT 전시회, 컴퓨텍스 타이베이 2026이 오는 6월 2일부터 5일까지 진행된다. 전통적으로 PC 생태계 중심 행사였던 컴퓨텍스는 2020년 이후 생성 AI, 챗GPT와 클로드, 퍼플렉시티 등을 위시한 LLM(거대언어모델), 온디바이스·엣지 AI, AI PC 등 바람을 타고 AI를 중심에 둔 전시회로 옷을 갈아 입었다. 행사 개막까지는 두 달 가량 남았지만 기조연설에 참여하려는 글로벌 반도체 및 플랫폼 기업 CEO들이 공개되며 관심을 모은다. 지난 해 취임한 립부 탄 인텔 CEO가 컴퓨텍스 기조연설에 나서며 네트워크 장비 제조사인 시스코도 기조연설 무대에 오른다. 공식 행사 개막 전날인 6월 1일 오전에는 크리스티아노 아몬 퀄컴 CEO가 기조연설을 진행한다. 최근 출시한 스냅드래곤 X2 엘리트/엘리트 익스트림 기반 윈도 PC에 이어 보급형 시스템반도체(SoC)를 추가 공개할 가능성이 있다. 같은 날 오후에는 제레미 포스터 시스코 수석부사장이 컴퓨텍스 첫 공식 기조연설을 진행한다. AI 처리에 필요한 연산량 확보와 데이터센터부터 엣지까지 아우르는 보안 기반 아키텍처 구현에 대해 설명 예정이다. 공식 개막일인 2일 오전에는 맷 머피 마벨 CEO가 등장한다. 타이트라는 "맷 머피 마벨 CEO가 산업 전반에서 차세대 AI 혁신을 가속화하는 역할을 강조할 예정"이라고 설명했다. 립부 탄 인텔 CEO는 올해 취임 이후 처음으로 컴퓨텍스 기조연설에 직접 등장한다. 그는 작년 컴퓨텍스 기간 중 타이베이를 찾았지만 대만 내 공급망 관계자만 만나는 데 그쳤다. 올 하반기 공개할 '노바레이크' 등 PC용 프로세서 개요를 공개할 것으로 보인다. 작년 컴퓨텍스 기조연설에 처음 참가한 차이리싱 미디어텍 CEO는 3일 오전 기조연설을 진행한다. 엔비디아와 함께 개발하는 윈도 PC용 Arm 기반 SoC인 'N1X/N1'에 대한 언급이 있을지 주목된다. 컴퓨텍스 공식 기조연설에 Arm이 등장할 수 있다는 전망도 나온다. Arm은 단순히 반도체 지적재산권(IP) 공급으로 수익을 거두던 모델에서 벗어나 지난 3월 하순 첫 자체 제품인 'AGI CPU'를 공개하기도 했다.

2026.04.03 08:52권봉석 기자

[유미's 픽] "GPU 넘는다"…삼성·LG·롯데·포스코 가세로 국산 NPU 확산 본격화

국산 신경망처리장치(NPU)를 중심으로 한 국내 인공지능(AI) 산업 재편이 본격화되고 있다. 정부가 50조원 규모의 'K-엔비디아' 육성 프로젝트를 추진하며 정책 드라이브를 강화하는 가운데 민간 기업들도 공공·제조·클라우드·서비스 등 각 영역에서 NPU 도입과 사업화를 서두르는 모습이다. 3일 업계에 따르면 최근 국내 주요 IT·산업 기업들은 그래픽처리장치(GPU) 중심 AI 인프라에서 벗어나 NPU를 기반으로 한 구조 전환을 추진하며 비용 효율과 전력 절감, 데이터 주권 확보를 동시에 노리고 있다. 기술 검증 단계를 넘어 실제 서비스와 인프라로 확산되고 있는 상황을 고려한 것으로, AI 서비스 확산에 따라 추론 수요가 급증하면서 전력 소비와 운영 비용 부담이 커진 점도 한 몫 했다. 정부도 이 같은 변화에 맞춰 정책 지원을 강화하고 있다. 실제 과학기술정보통신부와 금융위원회는 지난달 민관 합동 간담회를 통해 AI 반도체 시장이 범용 GPU 중심에서 저전력·고효율 중심 구조로 전환되고 있다고 진단하고 국산 NPU 산업 육성에 정책 역량을 집중하겠다고 밝혔다. 국민성장펀드를 통해 향후 5년간 50조원을 투입하는 'K-엔비디아' 프로젝트도 추진 중이다. 이에 따라 클라우드 인프라 영역에서도 국산 NPU 적용이 구체화되고 있다. 삼성SDS가 국산 NPU 기반 '서비스형 NPU(NPUaaS)'를 오는 7월 출시하는 것이 대표적 사례다. 삼성SDS는 기존 '서비스형 GPU(GPUaaS)' 중심 구조에서 벗어나 NPU를 포함한 하이브리드 인프라를 구축함으로써 기업들이 AI 워크로드 특성에 따라 연산 자원을 선택할 수 있도록 하겠다는 전략을 내세웠다. 클라우드에서 구독형으로 NPU를 제공함으로써 초기 투자 부담을 낮추고 도입 장벽을 줄인 점도 특징이다. NPU 도입은 공공과 산업 현장을 중심으로도 확대되는 흐름을 보이고 있다. 비용과 전력 효율이 중요한 공공 인프라를 중심으로 적용 검토가 이뤄지면서 초기 수요도 형성되는 분위기다. 특히 공공 및 유통 인프라 분야에서는 비용 경쟁력 확보를 중심으로 NPU 도입이 이뤄지고 있다. 롯데이노베이트는 딥엑스와 협력해 지능형 CCTV와 ITS에 NPU를 적용하며 GPU 대비 총소유비용(TCO) 절감을 추진 중이다. 업계에선 정책 인센티브가 구체화되기 전부터 국산 반도체 적용을 검토하는 등 선제 대응 성격이 강한 사례라고 봤다. 제조 분야에서는 포스코DX가 모빌린트 NPU를 산업용 제어 시스템에 탑재해 설비 단계에서 실시간 AI 분석과 제어가 가능한 구조를 구축하고 있다. 이는 클라우드 중심 AI에서 벗어나 현장 중심의 엣지 AI로 전환하는 흐름을 반영한 것으로, 보안성과 즉시성을 동시에 확보하려는 전략으로 풀이된다. 클라우드와 플랫폼 영역에서도 대응이 이어지고 있다. LG CNS는 NPU 기반 AI 인프라 구축을 확대하고 있으며, LG유플러스는 NPU와 대규모 언어모델(LLM), 인프라를 결합한 'AI 어플라이언스'를 통해 공공·금융 등 폐쇄망 시장을 겨냥하고 있다. 클라우드 의존 없이 자체 환경에서 AI를 구동할 수 있도록 한 점이 특징이다. AI 모델 영역에서는 LG AI연구원과 업스테이지가 중심 역할을 하고 있다. LG AI연구원은 '엑사원(EXAONE)'을 기반으로 국산 NPU와의 최적화를 추진하며 추론 중심 AI 환경에 대응하고 있으며, 업스테이지 역시 퓨리오사AI와 협력해 NPU 기반 생성형 AI 서비스 상용화를 추진 중이다. 이는 모델 단계에서도 GPU 의존도를 낮추려는 시도로 해석된다. 기업용 소프트웨어 분야에서도 변화가 나타나고 있다. 더존비즈온은 퓨리오사AI와 협력해 전사적자원관리(ERP) 등 핵심 업무 시스템에 NPU 기반 AI를 적용하며 공공·금융 시장 확대를 추진하고 있다. 기존 분석 중심 AI에서 벗어나 실제 업무 프로세스에 AI를 접목하려는 움직임이다. 유통 및 시스템통합(SI) 영역에서는 코오롱베니트가 리벨리온과 협력해 NPU 기반 'AI 엑셀러레이션 서비스'를 추진하며 기업 고객 접점을 확대하고 있다. 반도체 기술을 실제 비즈니스 환경에 적용하는 역할로, 시장 확산을 위한 유통 채널로 기능하고 있다. 클라우드 사업자들의 선행 움직임도 영향을 미쳤다. 네이버클라우드는 'AI반도체 팜' 사업을 통해 국산 NPU의 성능과 안정성을 산업 현장에서 검증하며 상용화 기반을 마련했다. 이후 기업들의 사업화 움직임도 이어지고 있다. 업계에선 현재 국산 NPU 사업을 두고 기술 검증 단계를 넘어 상용화 초기 단계로 보고 있다. 동시에 벤더 간 경쟁도 본격화되면서 기업들은 국산 NPU 도입을 전제로 협력 구조도 구축하는 모습이다. 업계 관계자는 "지금은 NPU 도입 여부를 논의하는 단계가 아니라 어떤 기술을 선택할지 경쟁이 시작된 단계"라며 "정부 정책과 민간 인프라가 맞물리면서 AI 반도체 생태계가 빠르게 확산될 것으로 기대된다"고 말했다.

2026.04.03 08:48장유미 기자

엔비디아, DLSS 4.5 6배 멀티 프레임 생성 지원

엔비디아가 1일 AI를 활용해 게임 프레임 수를 향상시킬 수 있는 기능인 DLSS(딥러닝 슈퍼샘플링) 4.5 성능을 강화한다고 밝혔다. DLSS 4.5는 올 초 CES 2026에서 공개된 기술로 지포스 RTX 기반 그래픽카드에서 초당 프레임 수를 최대 4배까지 늘렸다. 이날 공개된 DLSS 4.5 최신 버전은 지포스 RTX 50 시리즈 그래픽카드 장착 PC에서 초당 프레임을 최대 6배까지 높인다. 또 모니터 최대 화면주사율에 맞춰 필요한 프레임만 생성하는 다이내믹 멀티 프레임 생성 기능도 포함했다. 그래픽 부하가 높은 상황에서는 프레임 생성 수준을 상향 조정해 성능 저하를 보완하고, 고주사율 디스플레이에서도 부드러운 화면을 유지한다. 이번에 공개된 업데이트는 다이렉트X 12 기반 게임의 셰이더를 재구축해 로딩 시간을 줄이는 자동 셰이더 컴파일 기능의 베타 프리뷰도 포함하고 있다. 지포스 드라이버와 설정을 관리하는 통합 엔비디아 앱에서 지포스 게임 레디 드라이버 버전을 595.97 이상으로 업데이트한 다음 '베타, 실험적 기능'을 체크하면 DLSS 4.5 새 버전을 구동할 수 있다. 설치 이후 세부 설정은 엔비디아 앱의 '그래픽' 탭에서 전체 또는 게임별로 활성화하고 설정할 수 있다.

2026.04.01 10:22권봉석 기자

오픈AI, 1220억 달러 투자 유치…엔비디아·아마존 참여

오픈AI가 기업공개(IPO) 기대감을 앞세워 1200억 달러(약 183조원) 규모 투자 유치를 마무리했다. 1일 CNBC 등 외신에 따르면 오픈AI는 1220억 달러 투자 라운드를 마쳤다고 밝혔다. 이번 투자로 포스트머니 기준 기업가치는 8520억 달러(약 1284조원)로 평가됐다. 소프트뱅크가 이번 투자 주도기업으로 이름을 올렸으며 안드리슨호로위츠, D.E.쇼벤처스도 참여했다. 이번 투자 규모는 기존 1100억 달러에서 1220억 달러로 확대한 것으로 전해졌다. 오픈AI는 처음으로 은행을 통해 일반 투자자 참여를 열었으며, 개인 투자자로부터 약 30억 달러를 추가로 확보했다. 투자 참여 범위가 기관 중심에서 개인까지 확대된 것이다. 이번 투자에는 아마존이 최대 500억 달러 투자를 약속했고 엔비디아와 소프트뱅크가 각각 300억 달러를 투자했다. 마이크로소프트도 참여했으나 구체적 투자 규모는 공개되지 않았다. 오픈AI는 월 약 20억 달러 매출을 내고 있다. 지난해 연간 매출은 131억 달러 수준이다. 다만 아직 수익을 내지 못하고 있으며 대규모 투자와 인프라 확장으로 비용 부담이 지속되는 상황으로 평가받고 있다. 최근 비용 절감을 위해 일부 지출 계획을 조정하고 영상 앱 '소라' 등 일부 제품을 종료했다. 오픈AI는 "AI는 생산성을 높이고 과학적 발견을 가속하며 사람과 조직이 만들 수 있는 범위를 확장하고 있다"며 "이번 자금은 이 순간에 필요한 규모로 계속 선도할 수 있는 기반을 제공할 것"이라고 밝혔다.

2026.04.01 09:37김미정 기자

이란 혁명수비대 "구글·애플·테슬라 등 18개 미국 기업 타격" 경고

이란 이슬람혁명수비대(IRGC)가 중동 지역 내 미국 기술 및 금융 기업들을 겨냥한 공격 가능성을 공개적으로 경고했다. 31일(현지시간) CBS뉴스 등 외신에 따르면, IRGC는 이날 텔레그램을 통해 미국에 본사를 둔 18개 기업을 공격 대상으로 지목했다. 혁명수비대는 이 기업들이 미국 정부의 정보 활동에 협력하며 공습을 지원했다고 주장했다. IRGC는 성명에서 “반복적인 경고에도 테러 행위가 중단되지 않고 있다”며 “이제부터 테러 작전에 연루된 주요 기관들은 우리의 합법적인 타격 목표가 될 것”이라고 밝혔다. 앞서 지난 3월 초에도 유사한 경고를 내놓으며 공격 대상이 점차 확대되고 있다고 언급한 바 있다. 공격 대상으로 거론된 기업에는 구글, 애플, 마이크로소프트, 메타, IBM, 시스코, 인텔, HP, 오라클, 델, 엔비디아, 팔란티어, 보잉, 테슬라, GE, JP모건, G42, 스파이어 솔루션즈 등이 포함됐다. 주요 빅테크 기업과 금융사, 방위산업체, 반도체 기업 등이 대거 이름을 올렸다. IRGC는 또한 “해당 기업 직원들은 생명을 보호하기 위해 즉시 직장을 떠나야 한다”며 “관련 시설 반경 1㎞ 이내 주민들 역시 안전한 곳으로 대피해야 한다”고 경고했다. 한편 이란군은 별도의 성명을 통해, 이스라엘과 미국의 이란 인프라 공격에 대한 보복 차원에서 이날 새벽 이스라엘 벤구리온 공항 인근과 하이파 지역에 위치한 지멘스 및 AT&T 통신•산업 시설을 드론으로 공격했다고 밝혔다.

2026.04.01 08:11이정현 미디어연구소

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

프리스마크 "日닛토보 T-글래스 공급부족 갈수록 커진다"

일본 소재업체 닛토보(Nittobo)의 T-글래스 공급 부족이 갈수록 커질 것이라고 시장조사업체 프리스마크가 최근 전망했다. 닛토보가 T-글래스 생산능력을 확대하고 있지만 수요 상승폭이 더 크다. 타이완글래스 등 경쟁사의 생산능력 확대 계획까지 고려하면 시장 전체 공급 부족은 완화될 수 있다. 경쟁사의 기술력과 빅테크의 선택이 변수다. T-글래스는 열팽창계수(CTE)가 낮아 '로(Low) CTE'용 동박적층판(CCL) 소재로 사용하는 유리섬유 방적사를 말한다. 인쇄회로기판(PCB)의 원재료로, 애플 아이폰 등 하이엔드 스마트폰뿐 아니라 서버용 반도체 기판 등에도 사용된다. T-글래스는 닛토보의 상품명인데, 닛토보 시장 지위가 독점적이어서 로 CTE용 CCL 유리섬유 방적사를 T-글래스라고 통칭한다. 인공지능(AI) 서버와 데이터센터 등에 사용하는 반도체 기판 면적이 커지면서 엔비디아와 구글, 아마존 등 빅테크는 닛토보의 T-글래스만 찾고 있다. 이 때문에 2024년 하반기부터 T-글래스 수요가 닛토보의 생산능력을 웃돌기 시작했다. 당시 여러 빅테크가 닛토보를 직접 찾아 설비투자를 요청했고, 닛토보도 생산능력을 늘리고 있다. 하지만 수요가 더 빠르게 늘고 있다. 프리스마크에 따르면 올해 1분기 기준 닛토보의 T-글래스 생산능력은 50만제곱미터(㎡)다. 이 시장에서 추격 중인 업체들의 생산능력을 모두 더해도 닛토보 생산능력에 못 미친다. 경쟁사의 생산능력은 ▲타이완글래스(대만) 10만㎡ ▲타이산글래스(중국) 5만~10만㎡ ▲그레이스패브릭테크놀러지(중국) 10만㎡ ▲난야플라스틱(대만) 5만㎡ 등이다. 이들 업체는 빅테크 눈높이에 맞는 기술력을 확보하지 못했고, 닛토보가 이 시장을 사실상 독점하고 있다. 닛토보와 경쟁사 모두 생산능력을 늘리고 있다. 닛토보는 T-글래스 부문에 5억 3000만 달러를 투자할 계획이다. 2028년 닛토보의 T-글래스 생산능력은 올해 상반기의 2배로 커질 수 있다. 2028년 업체별 T-글래스 생산능력 추정치만 보면 닛토보 비중은 55%, 나머지 업체 비중 합계는 45% 수준이다. 하지만, 닛토보 제품으로 한정하면 T-글래스 공급 부족은 올해와 내년에도 이어지고, 2028년에는 더 큰 폭으로 벌어질 것이라고 프리스마크는 전망했다. 프리스마크 자료에 나오진 않았지만, 국내 PCB 업계 한 관계자는 "경쟁사도 빅테크와 T-글래스 기술을 평가 중이지만, 닛토보와 기술력 차이가 크다"며 "빅테크가 닛토보 제품만 사용 중인 방침을 바꾸지 않으면 T-글래스 공급 부족은 당분간 해소되기 어렵다"고 전망했다. 한편, 열팽창계수가 낮으면 고온 공정에서 기판이 덜 휜다. 기판 대면적화와 회로 미세화 요구 대응에 유리하다. 고온 공정에서 미세한 회로를 만들 때 기판이 휘면 회로가 끊어질 수 있다. 국내에선 두산과 LG화학 등이 CCL을 만든다. CCL을 구매해서 반도체 기판을 만드는 국내 업체는 삼성전기와 LG이노텍, 대덕전자, 코리아써키트, 심텍 등이다.

2026.03.29 13:32이기종 기자

칩 보안법, 美하원 외교위 통과...엔비디아·AMD에 '밀수방지' 의무화

미국 하원 외교위원회가 엔비디아, AMD 등 자국 반도체 기업을 대상으로 인공지능(AI) 핵심 기술의 중국 밀수출을 막기 위한 감시 의무를 강화하는 법안을 통과시켰다. 최근 슈퍼마이크로 공동 창업자가 엔비디아 반도체를 중국으로 가공 수출한 혐의로 기소된 사건이 법안 처리에 결정적 도화선이 됐다. 블룸버그 통신은 미 하원 외교위가 '칩 보안법'을 찬성 42표, 반대 0표라는 압도적 표차로 가결해 본회의로 송부했다고 27일(현지시간) 보도했다. 법안 핵심은 엔비디아, AMD 등 AI 반도체 기업들이 자사 제품이 중국으로 유입되지 않도록 검증 체계를 강화하고, 이를 상무부에 보고하도록 의무화하는 것이다. 상무부 장관은 법 시행 후 1년 내에 미승인 칩 이동이나 최종사용자 변경에 대한 보고 규칙을 확정해야 한다. 이번 조치는 도널드 트럼프 행정부가 미국 기술의 글로벌 판매 확대를 위해 일부 규제 완화를 검토하는 상황에서 나와 주목된다. 법안을 주도한 빌 하이징아 의원은 "업계 일각에서 밀수 사실을 인지하지 못했다고 주장하지만, 여전히 해결되지 않은 전용 문제가 있다"며 입법 취지를 설명했다. 다만, 기업들 부담을 고려해 위치 추적 기술이나 원격 작동 중지 기능 탑재를 강제하지는 않는 '가벼운 규제' 방식을 택했다. 기존 보안 비즈니스 관행을 칩 보안 메커니즘으로 인정하는 등 유연성을 뒀다. 상무부 장관은 미국 경쟁력을 해칠 우려가 있을 경우 범정부 협의를 거쳐 규정 일부를 면제할 수 있는 권한도 갖는다. 정치권 압박은 거세지고 있다. 지난주 슈퍼마이크로의 공동 창업자인 월리 리아우가 구속 기소된 직후, 엘리자베스 워런 상원의원 등은 상무부에 중국 및 동남아시아로 향하는 모든 엔비디아 AI 칩과 서버의 수출 라이선스를 일시 중단하고 전면 재검토할 것을 촉구하는 서한을 보내기도 했다. 엔비디아는 이번 사안과 관련해 "수출 규제가 확대됨에 따라 규정 준수 프로그램을 위해 고객 및 정부와 긴밀히 협력하고 있다"는 입장을 밝혔다. 법안이 본회의를 통과해 최종 시행될 경우, AI 가속기 공급망 전반에 걸친 미 당국 감시망은 더욱 촘촘해질 전망이다.

2026.03.28 08:00전화평 기자

[AI는 지금] "규제보다 실행"… 트럼프, 'AI 연합군' 앞세워 반도체·전력망 병목 뚫는다

도널드 트럼프 미국 대통령이 주요 빅테크 수장들을 대통령 과학기술자문위원회(PCAST)에 대거 포함시키며 인공지능(AI) 정책 추진 방식이 한층 구체화되고 있다. 단순 자문기구 구성을 넘어 정부와 산업을 하나의 전략 체계로 묶으려는 분위기다. 28일 로이터 등 주요 외신에 따르면 백악관은 지난 25일 젠슨 황 엔비디아 최고경영자(CEO), 마크 저커버그 메타 CEO, 래리 엘리슨 오라클 회장, 세르게이 브린 구글 공동창업자, 리사 수 AMD CEO 등을 포함한 PCAST 위원 명단을 발표했다. 벤처캐피털 앤드리슨 호로위츠(a16z)의 마크 앤드리슨, 델 테크놀로지스의 마이클 델 등도 이름을 올렸다. 빅테크 CEO 전면 배치…정책-산업 결합 강화 이번 인선은 기업 최고경영자 중심으로 구성됐다는 점에서 이전과 차별화된다. 과거 PCAST가 학계와 연구자 중심의 자문 성격이 강했다면, 이번에는 AI 산업의 핵심 기업들이 정책 설계 구조 안에 직접 참여했다는 것이 주목된다. 구성 면에서도 변화가 뚜렷하다. 엔비디아와 AMD는 AI 연산의 기반인 반도체를, 오라클은 데이터·클라우드 인프라를 맡고 있다. 구글과 메타는 AI 모델과 서비스 생태계를 주도하는 기업들이다. 이에 AI 산업 전반을 아우르는 핵심 기업들이 한자리에 모였다는 평가가 나온다. 이 같은 구성은 정책과 산업의 결합을 강화하려는 의도로 풀이된다. 정부가 방향을 제시하고 기업이 이를 수행하는 기존 방식에서 벗어나, 정책 설계 단계부터 산업계가 함께 참여하는 구조로 전환되고 있다는 분석이다. AI 산업 전반을 정책 체계 안으로 끌어들이려는 시도라는 점에서도 의미가 크다. 앤트로픽 빠지고 오픈AI도 '제외'…선별 기준 '주목' 이번 명단에서 일부 주요 AI 기업이 제외된 점도 주목된다. 특히 앤트로픽과 오픈AI 모두 위원 명단에 포함되지 않았다. 앤트로픽은 AI의 군사·감시 활용에 제한을 두는 정책을 유지해 왔고, 국방부 계약 과정에서도 조건 충돌로 협력이 무산된 바 있다. 이 같은 입장 차이가 정책 자문 참여에도 영향을 미쳤을 가능성이 제기된다. 업계에선 정부의 안보 중심 AI 활용 기조와 기업의 안전 중심 접근 간 간극이 반영된 결과라는 해석도 내놨다. 오픈AI는 국방부와 협력 관계를 이어가고 있음에도 위원회에는 포함되지 않았다. 이미 마이크로소프트와의 협력을 통해 정부 인프라와 연결돼 있는 구조라는 점이 영향을 미쳤을 수 있을 것이란 분석이 나온다. 동시에 이번 위원회가 반도체·클라우드 등 인프라 기업 중심으로 구성됐다는 점도 배경으로 거론된다.테슬라 창업자인 일론 머스크가 제외된 점도 주목된다. 머스크는 AI와 우주 산업에서 영향력이 큰 인물이지만 이번 1차 명단에는 포함되지 않았다. 다만 위원회가 향후 확대될 예정인 만큼 추가 합류 가능성도 배제할 수 없다는 관측도 있다. 업계 관계자는 "이번 인선은 단순한 기술력이나 기업 규모보다 정책 방향과의 정렬 여부를 반영한 결과"라며 "정부 전략에 맞춰 빠르게 실행할 수 있는 기업들이 중심에 배치된 것으로 보인다"고 말했다. 팔란티어 '부재'…자문 밖 실행 라인 역할일 듯 팔란티어가 명단에서 빠진 점도 눈에 띈다. 이 회사는 국방부, 국토안보부, 국세청(IRS) 등 주요 정부 기관과 협력하며 데이터 분석 플랫폼을 제공해 왔고, 연방 계약 규모 역시 빠르게 확대하고 있다. 업계에선 이를 단순 배제라기보다 역할 차이에 따른 결과로 보고 있다. 팔란티어는 자문기구보다 실행 영역에 가까운 기업으로, 정부 데이터 통합과 분석 시스템 운영을 담당하는 구조상 정책 자문보다 실제 현장 적용에서 영향력이 더 큰 것으로 평가되고 있다. 일각에선 기업 특성도 고려됐을 것으로 봤다. 정보기관 협업 이미지가 강한 만큼 공개 자문기구에 포함될 경우 AI 정책이 감시·정보전 중심으로 비칠 수 있다는 점에서 별도의 채널을 통한 협력이 더 적합하다고 판단돼서다. AI 정책 구조 재편…민관 동맹 본격화 이번 PCAST 구성은 AI를 산업 차원을 넘어 국가 전략 자산으로 다루겠다는 의지를 구체화한 것으로도 평가된다. 미국 정부는 반도체, 클라우드, 데이터, 모델 등 주요 영역을 정책 체계 안으로 끌어들이며 민관 협력 구조를 강화하려는 분위기다. 정책 설계는 위원회가 맡고, 실행은 기업과 정부 기관이 담당하는 구조가 형성될 경우 미국의 AI 산업은 보다 통합된 방향으로 재편될 가능성이 크다. 기술 경쟁이 심화되는 가운데 이번 미국 정부와 빅테크 간 협력이 어떤 형태로 확장될지도 주목된다.특히 이번 위원회가 향후 구체적인 정책 결정에도 영향을 미칠 것이라는 관측이 나온다. 반도체와 AI 기술을 둘러싼 대중국 수출 규제, 데이터센터 확장에 필요한 전력망 인프라 확보 등 핵심 현안에서 산업계 의견이 직접 반영될 가능성이 크다는 분석이다. 업계에선 AI 경쟁이 심화되는 상황에서 전력·에너지 문제와 반도체 공급망이 병목으로 떠오르고 있는 만큼, 정부와 기업 간 정책 조율이 더욱 긴밀해질 것으로 보고 있다. 이에 따라 규제 완화와 인프라 투자 방향에서도 변화가 나타날 수 있을 것으로 전망했다. 업계 관계자는 "AI가 산업을 넘어 국가 안보 자산으로 재편되는 과정"이라며 "이번 인선은 기술 자문을 받겠다는 의미를 넘어 정책과 기업이 한 몸처럼 움직이는 구조를 본격화하겠다는 신호에 가깝다"고 밝혔다.

2026.03.28 08:00장유미 기자

국립기상과학원, 엔비디아와 기상·기후 분야 AI 기술협력 확대

기상청 국립기상과학원은 한국형 인공지능(AI) 기상·기후 파운데이션 모델의 본격적인 개발을 앞두고, AI를 활용한 기상예측 국제협력 강화를 위해 엔비디아와 기술 교류를 확대한다. 국립기상과학원은 그간 엔비디아와 어스-2(Earth-2) 기반 시각화, AI 예측 등 다양한 분야에서 기술 교류를 이어왔다. 초단기·중기 예측모델 개발 경험을 공유하는 등 협력을 지속해 왔다. 엔비디아는 지난 1월 관측자료 처리부터 분석장 생산, 초단기·중기 예측, 고해상도 격자 자료 생산체계까지 포괄하는 AI 기반 기상·기후 예측 운영 플랫폼 어스-2를 공개한 바 있다. 국립기상과학원이 개발한 6시간 후의 강수 예측을 위한 AI 초단기 강수예측시스템은 지난해 5월부터 현업으로 운영되고 있다. 여기에서 더 나아가 초단기부터 계절 전망까지 활용가능한 AI 파운데이션 모델 개발을 진행하고 있으며, 엔비디아의 어스-2 활용도 확대할 계획이다. 국립기상과학원은 26일 엔비디아 전문가를 초청해 기술 교류와 협력 확대를 위한 논의의 장을 열었다. 온라인으로 진행된 회의에서는 어스-2 개발자인 스탠 포지와 제프 아디가 아틀라스(ATLAS)의 기술적 특징을 소개했다. 두 기관은 이번 협력을 계기로 AI를 활용한 기상·기후 예측 기술 고도화라는 방향성을 공유하고 접점을 구체화할 계획이다. 국립기상과학원은 이번 기술 교류를 계기로 AI 기반 기상·기후 예측 기술 발전에 대응하고, 기존 수치예보모델과의 상호보완적 발전을 위한 협력이 긴밀해질 것으로 기대하고 있다. 강현석 국립기상과학원장은 “기상예보 분야에서 AI로의 기술 전환이 가속하는 가운데, 이번 협력은 두 기관이 보유한 기술을 공유하고 공동 발전을 도모하는 중요한 계기가 될 것”이라며 “앞으로도 엔비디아와의 긴밀한 협력을 통해, AI 기반 기상·기후 예측 기술을 고도화하고 국제협력 관계망 내에서 주도적인 역할을 해 나가겠다”고 밝혔다.

2026.03.27 15:14주문정 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

넷앱, 엔비디아와 AI 데이터 플랫폼 강화…통합 솔루션 'AIDE' 공개

넷앱이 엔비디아와 협력해 엔터프라이즈 인공지능(AI) 데이터 플랫폼 역량을 강화한다. 데이터 전반을 탐색·이해·거버넌스할 수 있는 통합 데이터 플랫폼을 앞세워 기업의 AI 도입 과정에서 발생하는 데이터 문제를 해소한다는 전략이다. 넷앱은 엔비디아와 함께 설계한 AI 데이터 플랫폼을 기반으로 통합 솔루션 '넷앱 AI 데이터 엔진(AIDE)'을 공개했다고 24일 밝혔다. 회사 측에 따르면 기업이 AI를 도입하는 과정에서 가장 큰 과제는 방대한 글로벌 데이터 자산 전반에서 데이터를 탐색하고 이해하며 거버넌스를 수행하는 것이다. 데이터가 AI의 핵심 자원인 만큼 적합한 데이터를 효율적으로 찾고 활용하는 것이 AI 혁신의 핵심 요소로 꼽힌다. 이에 맞춰 넷앱 AIDE는 자동 생성·지속 업데이트되는 글로벌 메타데이터 카탈로그와 검색 기능을 제공한다. 표준 파일 시스템 메타데이터를 넘어 파일 콘텐츠까지 분석해 데이터를 이동하지 않고도 시맨틱 메타데이터를 확장할 수 있도록 설계됐다. 보안 문제와 비용 부담을 최소화하면서 AI 데이터 파이프라인 전 과정에 최신 데이터를 효율적으로 공급한다는 목표다. 넷앱 AIDE는 이달 중 주요 고객과 파트너를 대상으로 우선 출시되며 오는 8월 정식 상용화될 예정이다. 넷앱은 오픈 기술 생태계를 기반으로 온프레미스와 클라우드 전반에서 다양한 독립 소프트웨어 공급(ISV) 파트너와의 통합을 확대해 나갈 계획이다. 대표적으로 마이크로소프트(MS) 애저 기반 AI 애플리케이션, 구글 클라우드의 버텍스 AI, 랭체인 등 주요 AI 개발 플랫폼 및 프레임워크와의 연계를 통해 고객이 비정형 데이터를 안전하게 활용하고 AI 애플리케이션을 신속하게 구축할 수 있도록 지원할 방침이다. 향후 넷앱은 다양한 배포 옵션을 지원해 인프라 유연성도 확대할 계획이다. AIDE는 다양한 서버 환경에서 실행 가능한 통합형 소프트웨어 솔루션으로, 고객 요구사항에 맞춰 유연하게 적용할 수 있다. 최근 엔비디아 GTC에서 공개된 '엔비디아 RTX 프로 4500·6000 블랙웰 서버 에디션 GPU'를 활용한 환경에서도 AIDE 사용을 지원한다. 아울러 AIDE는 AFF A-시리즈, AFF C-시리즈, FAS 등 넷앱의 기존·신규 스토리지 환경 전반에 걸쳐 배포를 제공한다. 올 여름에는 기능도 한층 강화된다. 하이브리드 클라우드 지원 확대를 통해 온프레미스와 클라우드 전반에서 데이터를 일관되게 활용할 수 있도록 하고 멀티모달 데이터 지원을 통해 시각 데이터를 포함한 다양한 비정형 데이터 활용이 가능해진다. 이와 함께 에이전틱 AI 기능도 도입해 글로벌 데이터 환경 전반에서 안전하고 관리 가능한 에이전틱 워크플로우를 구현할 수 있도록 도울 예정이다. 넷앱은 AI 지원을 강화하기 위해 엔비디아의 모듈형 랙 스케일 스토리지 레퍼런스 아키텍처 '엔비디아 STX'도 지원한다. 해당 아키텍처는 엔비디아 '베라루빈'과 '블루필드-4 DPU'를 기반으로 구성되며 KV 캐시 스토리지를 위한 특화된 메모리 계층을 통해 전력 효율성·처리량·보안성을 향상시킨다. 대규모 AI 연산 환경과 비정형 데이터 스토리지 간 격차를 해소하고 지능형 데이터 처리를 중앙에서 통합적으로 수행하는 것이 핵심이다. 시암 나이르 넷앱 최고제품책임자(CPO)는 "AI를 활용하려는 기업이 데이터에 대한 통제권을 되찾기 위해선 분산형이고 지능적으로 설계된 엔터프라이즈급 데이터 플랫폼이 필요하다"며 "우리는 AIDE를 통해 고성능 통합 스토리지 기반의 AI 환경 구축을 지원한다"고 강조했다. 제레미 포스터 시스코 컴퓨트 부문 수석 부사장 겸 총괄은 "넷앱과 우리는 파트너십을 통해 AI 도입을 가속화하는 엔터프라이즈급 인프라를 제공 중"이라며 "플렉스포드 AI와 AIDE를 결합하면 데이터가 있는 위치로 직접 이동해 데이터 파이프라인 속도를 높이고 더 빠르게 비즈니스 가치를 창출할 수 있다"고 말했다. 제이슨 하디 엔비디아 스토리지 테크놀로지 부문 부사장은 "AI 팩토리에 대한 수요가 증가하면서 기업은 방대한 데이터 자산을 효과적으로 관리하고 활용할 새로운 접근 방식을 필요로 한다"며 "넷앱은 우리 AI 데이터 플랫폼과 통합해 대규모 AI 환경에서 데이터를 효율적으로 관리할 수 있는 프레임워크를 제공할 것"이라고 밝혔다.

2026.03.24 16:10한정호 기자

젠슨 황 "인간 수준 AGI, 이미 달성했다"

젠슨 황 엔비디아 최고경영자(CEO)가 인간 수준의 범용인공지능(AGI)이 이미 달성됐다고 밝혀 주목되고 있다. 더버지, 포브스 등 외신은 23일(현지시간) 젠슨 황 CEO가 렉스 프리드먼 팟캐스트에 출연해 AI 혁명과 엔비디아의 미래 전략을 논의하며 이 같이 발언했다고 보도했다. 해당 인터뷰에서 프리드먼은 '진정한 AGI'를 10억 달러 이상 가치를 지닌 기술 회사를 설립하고 성장·운영할 수 있는 AI로 정의하며, 이런 기술이 향후 5~20년 내 실현 가능한지 젠슨 황에게 질문했다. 이에 대해 황 CEO는 “지금이 바로 그 시점”이라며 “우리는 이미 AGI를 달성했다고 생각한다”고 답했다. 그는 오픈소스 AI 에이전트 플랫폼 '오픈클로(OpenClaw)'를 사례로 들며, AI가 단순한 도구를 넘어 디지털 인플루언서나 사회적 애플리케이션으로 발전할 가능성이 있다고 언급했다. 다만 황 CEO는 현재 AI 에이전트의 한계도 함께 지적했다. 그는 “많은 사람들이 몇 달간 사용하다가 흥미를 잃는다”며 “AI 에이전트가 엔비디아 같은 회사를 만들어낼 확률은 0%”라고 말했다. AI 기술이 빠르게 발전하면서 AGI를 둘러싼 논쟁은 더욱 격화되고 있다. 포브스는 AGI에 대한 명확한 정의가 모호한 점이 개발 시점과 활용 가능성을 판단하기 어렵게 만드는 요인이라고 분석했다. 앞서 샘 알트먼 오픈AI CEO는 지난달 포브스와의 인터뷰에서 “우리는 사실상 AGI를 개발했거나 그에 매우 근접했다”고 밝혔지만, 이후 해당 발언이 비유적 표현이었다고 해명하며 AGI 달성을 위해서는 단일 돌파구가 아닌 여러 단계의 기술적 진전이 필요하다고 설명했다. 사티아 나델라 마이크로소프트 CEO는 “업계가 아직 AGI 수준에는 한참 못 미친다”는 입장을 밝힌 바 있다.

2026.03.24 16:09이정현 미디어연구소

엔비디아 올라탄 두산, 올해 CCL 투자 2배 이상 확대

두산이 반도체기판 핵심 소재인 동박적층판(CCL) 관련 투자 규모를 전년 대비 2.7배 이상 확대한다. 전례 없는 AI 반도체 호황으로 고성능 CCL이 각광받는 가운데, 엔비디아 등 핵심 고객사 수요에 선제 대응하기 위한 전략으로 풀이된다. 24일 두산 사업보고서에 따르면 이 회사는 CCL 설비투자에 올해 약 2444억원을 투자할 계획이다. 앞서 두산 전자BG(비즈니스그룹)는 지난해 CCL 설비투자에 총 896억원을 집행한 바 있다. 전년 투자 규모(386억원) 대비 132% 증가한 수준이다. 올해에는 예상 투자 규모를 2444억원으로 대폭 확대했다. 전년 대비 172%가량 늘었다. 내후년 예상 투자 규모도 2870억원에 달한다. 계획이 실현되는 경우, CCL 분야에 2년간 5000억원이 넘는 설비투자가 집행될 예정이다. 배경은 CCL 시장의 호황에 있다. CCL이 포함된 두산 전자BG 매출은 지난해 1조 8751억원으로 전년 대비 87% 증가했다. CCL은 반도체 PCB(인쇄회로기판)의 핵심 소재 중 하나로, 수지·유리섬유·충진재·기타 화학물질로 구성된 절연층에 동박을 적층해 만든다. 최근 CCL은 AI 반도체를 중심으로 수요가 급증하고 있다. 엔비디아·AMD 등 글로벌 팹리스는 물론, 전세계 CSP(클라우드서비스제공자) 기업들이 자체 AI 가속기 개발에 뛰어들면서 시장 규모가 커지고 있기 때문이다. AI 반도체가 고도화될수록 CCL도 더 뛰어난 고주파·고속·저손실을 갖춘 제품이 필요하다. 두산은 엔비디아의 최신형 AI 가속기 '베라 루빈(Vera Rubin)' 공급망에 주요 CCL 벤더로 진입한 것으로 알려졌다. 아마존·구글 등 고객사 외연도 점차 확장되는 추세다. 덕분에 두산의 국내 증평·김천 CCL 생산라인은 현재 가동률이 100%를 넘어가는 '풀가동' 체제를 유지하고 있다. 두산 관계자는 "이번 CCL 설비투자 계획은 국내외 공장 증설, 설비교체, 유지보수, R&D 등 관련 투자가 반영된 것"이라며 "특히 국내외 사업장 전반에서 투자를 계획 중으로, 사업 환경을 보면서 집행할 예정"이라고 설명했다.

2026.03.24 11:10장경윤 기자

"책상 위 슈퍼컴으로 AI 돌린다"…델, GB300 탑재 워크스테이션 공개

델 테크놀로지스가 엔비디아 차세대 칩을 탑재한 인공지능(AI) 워크스테이션을 대거 공개하며 로컬 기반 AI 인프라 시장 공략에 속도를 낸다. 데이터센터급 성능을 개인 업무 환경으로 확장하고 에이전틱 AI 시대에 최적화된 실행 환경을 제공한다는 목표다. 델 테크놀로지스는 전문가용 워크스테이션 브랜드 '델 프로 프리시전'을 재정비하고 '델 프로 맥스 위드 GB300'을 포함한 신제품 9종을 공개했다고 23일 밝혔다. 프리시전은 수십 년간 전문가용 워크스테이션 시장에서 신뢰를 쌓아온 델의 대표 라인업으로, 이번 복귀를 통해 AI 워크로드에 최적화된 고성능 작업 환경을 다시 전면에 내세웠다. 델은 이번 제품군을 통해 데스크톱·모바일·타워형을 아우르는 통합 포트폴리오를 완성하고 개발부터 운영까지 이어지는 AI 작업 환경을 전방위로 지원할 계획이다. 이번 발표의 핵심은 업계 최초로 엔비디아 GB300 슈퍼칩을 탑재한 '델 프로 맥스 위드 GB300'이다. 이 제품은 최대 20페타플롭의 연산 성능과 748기가바이트(GB) 코히어런트 메모리를 기반으로 최대 1조 개 매개변수 규모 거대 AI 모델을 로컬 환경에서 실행할 수 있도록 설계됐다. 데이터센터에서만 가능했던 엔터프라이즈급 AI 연산을 개인 데스크 환경으로 확장한 책상 위 슈퍼컴퓨터라는 설명이다. 특히 엔비디아 커넥트X-8 스마트 NIC를 활용해 장비 두 대를 연결하면 성능을 두 배로 확장할 수 있어 더 큰 규모의 AI 모델도 처리할 수 있다. 여기에 델의 독자적인 '맥스쿨' 냉각 기술을 적용해 스마트 콜드 플레이트와 듀얼 열교환기를 통해 고부하 작업에서도 성능 저하 없이 안정적인 연산 환경을 유지한다. AI 에이전트 실행 환경도 강화됐다. 해당 제품은 엔비디아 '네모클로' 오픈소스 스택과 '오픈쉘' 런타임을 지원해 외부 클라우드 연결 없이 로컬 환경에서 AI 에이전트를 구축·실행할 수 있다. 기업이 보안 정책을 유지하면서도 자율형 AI를 안전하게 운영하도록 도울 방침이다. 또 '엔비디아 기반 델 AI 팩토리'와 연계해 데스크 환경에서 개발된 AI 모델을 데이터센터로 확장할 수 있는 구조를 제공한다. 로컬에서의 프로토타이핑부터 대규모 배포까지 이어지는 AI 워크플로우를 통합 지원한다는 점이 특징이다. 모바일 워크스테이션 라인업도 대폭 강화됐다. '델 프로 프리시전 7 14·16'은 엔비디아 블랙웰 그래픽처리장치(GPU)를 탑재한 플래그십 모델로, 고성능 그래픽 작업과 AI 추론을 동시에 지원하면서도 이동성을 확보했다. 최대 8테라바이트(TB) PCIe 젠5 스토리지와 4K 탠덤 OLED 디스플레이, 120Hz 주사율을 통해 고사양 작업 환경을 제공한다. 특히 16인치 모델은 최대 50와트(W)급 인텔 코어 울트라 프로세서와 RTX 프로 3000 GPU를 기반으로 복잡한 3D 렌더링과 AI 추론을 처리하며 14인치 모델은 약 1.49kg 무게로 이동성과 성능을 동시에 갖췄다. 두 제품 모두 50 TOPS급 신경망처리장치(NPU)를 통한 AI 가속 기능과 듀얼 팬·베이퍼 챔버 냉각 구조를 적용했다. 타워형 워크스테이션 '델 프로 프리시전 9' 시리즈는 대규모 AI 연산과 시각화 작업에 최적화됐다. T2·T4·T6 모델로 구성되며 최대 86코어 인텔 제온 프로세서와 최대 5개의 엔비디아 RTX 프로 블랙웰 GPU를 지원한다. 최대 4TB 메모리와 316TB 스토리지, 15개 PCIe 슬롯 등 확장성을 기반으로 AI 학습과 시뮬레이션, VFX 작업까지 대응한다. 엔트리급 모바일 워크스테이션 '델 프로 프리시전 5' 시리즈도 함께 공개됐다. 최신 인텔 코어 울트라 프로세서와 RTX 프로 GPU를 기반으로 설계돼 디자인 작업과 데이터 분석 등 다양한 비즈니스 환경에서 안정적인 성능을 제공한다. 슬림형 S 시리즈 모델을 통해 이동성도 강화했다. 델은 이번 신제품군을 통해 다양한 AI 워크로드와 사용 환경을 모두 아우르는 포트폴리오를 완성하고 특히 클라우드 의존도를 줄여 로컬 환경에서 AI를 처리하려는 수요 증가에 대응한다는 목표다. 김경진 한국 델 테크놀로지스 총괄사장은 "에이전틱 AI로의 전환이 가속화되며 클라우드 의존도를 줄이고 로컬 환경에서 AI를 안전하고 효율적으로 운용하려는 수요가 증가하고 있다"며 "전 세계 1위 워크스테이션 제조업체로서 AI 시대에 전문가들이 한계를 뛰어넘는 성과를 낼 수 있도록, 독보적인 포트폴리오를 바탕으로 최상의 워크스테이션 경험을 제공하며 시장의 혁신을 주도해 나갈 계획"이라고 밝혔다.

2026.03.23 17:07한정호 기자

삼성SDS, 국내 최초 B300 GPU 서비스 출시…기업 AI 추론 시장 공략

삼성SDS가 국내 최초로 엔비디아 B300 GPU 기반 클라우드 서비스를 선보이며 기업 AI 추론 시장 공략에 나섰다. 삼성SDS는 클라우드 '삼성 클라우드 플랫폼(SCP)'을 통해 엔비디아 최신 GPU 'B300' 기반 GPU 구독형 서비스(GPUaaS)를 출시했다고 밝혔다. 이번 서비스는 AI 도입이 개발 단계를 넘어 실제 서비스 운영 단계로 확대되는 흐름에 맞춰 고성능 연산 수요를 대응하기 위해 마련됐다. B300 GPU는 고대역폭메모리(HBM3E)를 12단으로 구성해 GPU당 288GB 메모리와 초당 8TB 대역폭을 제공한다. 이는 기존 H100 대비 메모리 용량은 약 3배 이상, 대역폭은 2배 이상 향상된 수준이다. 특히 대규모 언어 모델 실행 과정에서 발생하는 데이터 전송 지연 문제를 줄이며, 연산 대비 메모리 속 이로 인해 AI 에이전트, 이미지 생성, 영상 처리, 코드 생성 등 고성능 연산이 필요한 서비스에서 응답 속도를 낮출 수 있다. 기업은 더 큰 규모의 AI 모델을 안정적으로 운영할 수 있고, 실시간 처리 요구가 높은 업무에도 적용 범위를 확대할 수 있다. 서비스는 구독형 구조로 제공된다. 기업은 필요한 만큼 GPU를 사용하고 비용을 지불하는 방식이다. 초기 인프라 투자 부담을 줄이고 자원 활용 효율을 높일 수 있다. GPU 수급이 어려운 상황에서도 최신 아키텍처를 즉시 활용할 수 있다는 점도 특징이다. 여기에 삼성SDS의 보안 기술이 결합돼 민감한 데이터도 안정적으로 처리할 수 있다. 삼성SDS는 GPUaaS 생태계를 지속적으로 확장해 왔다. 2021년 A100, 2023년 H100에 이어 이번 B300까지 선제적으로 도입하며 클라우드 기반 AI 인프라 경쟁력을 강화해 왔다. 이를 통해 기업 고객이 AI 인프라를 직접 구축하지 않고도 고성능 환경을 활용할 수 있도록 지원하고 있다. 향후 서비스도 확대한다. 삼성SDS는 별도 인프라 비용 없이 사용량 기반으로 과금하는 '서버리스 추론 서비스'와 자동 분산 학습 기능을 제공하는 'AI 학습 서비스'를 2026년 3분기 내 출시할 계획이다. 이호준 삼성SDS 클라우드서비스사업부장 부사장은 "자원 최적화와 에너지 절감 기술을 기반으로 GPU 활용 효율을 높여 왔다"며 "국내 최초 B300 GPU 서비스를 통해 기업의 AI 전환을 적극 지원하겠다"고 밝혔다. 한편 삼성SDS는 공공 클라우드 사업에서도 입지를 확대하고 있다. 대구 데이터센터에 H100 기반 GPU 서비스를 구축했으며, 범정부 초거대 AI 인프라와 지능형 업무 시스템 구축 사업에도 참여하고 있다. 과학기술정보통신부 고성능 컴퓨팅 지원 사업을 통해 중소기업, 스타트업, 연구기관, 대학 등 약 60여 곳에 GPU 자원을 제공하며 AI 생태계 확산에도 기여하고 있다.

2026.03.23 11:53남혁우 기자

슈퍼마이크로 공동창업자, 엔비디아 AI칩 중국 밀반출 혐의로 퇴진

엔비디아 인공지능(AI) 칩을 중국으로 불법 반출한 혐의로 기소된 슈퍼마이크로 공동 창업자가 이사회에서 물러났다. 수십억 달러 규모의 밀반출 정황이 드러나면서 글로벌 반도체 공급망과 미·중 기술 갈등에 미치는 파장이 확산되는 모습이다. 23일 CNBC 등 주요 외신에 따르면 왈리 라우 슈퍼마이크로 공동 창업자는 미국 검찰의 기소 이후 이사회에서 사임했다. 그는 사업개발 수석 부사장과 이사직을 맡고 있었으나 사건이 불거진 직후 자리에서 물러났다. 라우는 엔비디아 AI 칩이 탑재된 서버를 중국으로 밀반출한 혐의로 뉴욕 남부지방검찰청에 의해 기소됐다. 검찰은 라우를 포함한 임직원 3명에게 미국 수출통제법을 위반해 고성능 그래픽처리장치(GPU) 서버를 중국으로 우회 반출한 혐의를 적용했다. 라우는 해당 혐의와 관련해 법원에 출석한 뒤 조건부로 석방된 상태에서 재판 절차를 밟고 있는 것으로 알려졌다. 조사에 따르면 이들은 동남아시아 소재 회사를 중간 거래자로 활용해 허위 서류를 작성하고 물류를 재포장하는 방식으로 최종 목적지가 중국임을 숨겼다. 또 내부 컴플라이언스 검증을 회피하기 위해 가짜 서버를 준비해 감사를 통과시키는 등 조직적으로 규제를 회피한 정황도 드러났다. 해당 사건은 규모 면에서도 이례적으로 평가된다. 검찰은 2024년 이후 약 25억 달러(약 3조 7500억원) 규모의 서버 거래가 이뤄졌으며 이 가운데 최소 5억 달러(약 7500억원) 이상의 물량이 실제로 중국에 흘러 들어간 것으로 보고 있다. 중국계 미국인인 라우는 슈퍼마이크로의 공동 창업자로, 찰스 리앙 최고경영자(CEO)와 함께 회사를 설립한 핵심 인물이다. 창업 초기에는 영업을 담당하며 회사 성장에 기여했으며 이후 글로벌 영업 총괄과 이사회 구성원으로 활동해왔다. 과거에도 그는 회계 문제로 논란에 휘말린 바 있다. 슈퍼마이크로는 2015년부터 2017년까지 매출을 부풀린 혐의로 미국 증권 당국인 증권거래위원회(SEC)의 조사를 받았으며 이 여파로 라우는 당시 회계 책임자와 함께 사임했다. 이후 회사는 약 1750만 달러(약 263억원)의 합의금을 지급하고 상장 거래를 재개한 바 있다. 이번 사건으로 회사는 즉각적인 조치에 나섰다. 슈퍼마이크로는 라우를 포함한 관련 인물들을 직무에서 배제하고 일부는 해임했으며 인텔 출신의 디아나 루나를 컴플라이언스 책임자로 임명하는 등 내부 통제 강화에 나섰다. 이번 사태는 엔비디아와 긴밀한 협력 관계를 유지해온 슈퍼마이크로에 적지 않은 타격을 줄 것으로 전망된다. 슈퍼마이크로는 엔비디아 AI 칩의 주요 고객 중 하나로, 전체 매출의 상당 부분을 AI 서버 사업에서 창출해왔다. 시장 반응도 즉각 나타났다. 기소 사실이 공개된 이후 슈퍼마이크로 주가는 하루 만에 30% 이상 급락했다. 업계에선 이번 사건이 단순한 기업 내부 문제를 넘어 미·중 기술 패권 경쟁 속에서 반도체 수출 통제의 실효성을 둘러싼 시험대가 될 것으로 보고 있다. 특히 엔비디아 최신 AI 칩이 포함된 장비가 우회 경로를 통해 중국으로 유입됐다는 점에서 규제 당국의 추가 조사 가능성도 제기된다. 슈퍼마이크로 측은 "공소장에 적시된 피고인들의 행위는 회사 정책과 수출 규정을 위반한 개인적 일탈"이라며 "정부 수사에 전적으로 협조하고 있다"고 밝혔다.

2026.03.23 09:47한정호 기자

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

테슬라, 연내 자율주행 100억 마일 돌파…현대차는?

"테슬라는 단순한 자동차 회사가 아니라 데이터 회사다." 글로벌 IT 전문 매체 CIO는 테슬라를 이같이 평가했다. 테슬라는 차량 판매를 넘어 데이터와 신경망을 중심으로 한 통합 시스템을 구축하고 있으며, 물리적인 차량 생산은 이 구조의 일부에 불과하다는 분석이다. 특히 테슬라의 핵심 경쟁력은 방대한 데이터에 있다는 점을 강조했다. 22일 업계에 따르면 테슬라는 현재 약 87억8000만 마일(141억2000만㎞)에 달하는 오토파일럿 및 완전자율주행(FSD), 로보택시를 포함한 자율주행 누적 주행 데이터를 확보했다. 글로벌 자율주행 기업 가운데 가장 큰 규모다. 특히 데이터 증가 속도도 가파르다. 테슬라는 2021년 600만 마일(약 965만㎞)에 불과하던 FSD 주행 데이터가 2025년 42억5천만 마일(약 68억4000만㎞)로 급증하며 약 4년 만에 700배 이상 늘었다. 올해 들어서는 50일 만에 추가로 10억 마일(약 16억㎞)이 축적됐다. 현재 테슬라 차량은 하루 약 2천만 마일(약 3218만㎞) 수준의 데이터를 생산하고 있으며, 이 같은 추세를 감안하면 연내 약 100억마일(약 160억㎞)의 누적 데이터를 돌파할 것으로 전망된다. 이는 자율주행 상용화를 위한 핵심 기준으로 거론되는 '임계 데이터 규모'에 근접한 수치다. 특히 일론 머스크 테슬라 최고경영자(CEO)가 2023년 3분기 실적발표에서 "자율주행이 인간보다 훨씬 안전해지려면 대략 100억 마일 수준의 데이터가 필요하다"고 언급한 기준에 근접하는 수치다. 테슬라는 이 같은 데이터를 인공지능(AI) 학습에 활용하고, 무선 업데이트(OTA)를 통해 차량에 반영하는 '데이터-학습-배포' 구조를 구축했다. 이를 통해 자율주행 성능은 시간이 지날수록 지속적으로 개선된다. 테슬라에 따르면 FSD(감독형) 사용 시 약 530만 마일당 1건 수준의 사고가 발생하는 것으로 나타났다. 테슬라는 일반 운전(약 85만 마일당 1건) 대비 약 6~7배 높은 안전성을 보인다고 설명했다. 테슬라 추격 나선 현대차…AI 학습으로 자율주행 데이터 확보 현대자동차그룹은 자율주행 데이터 확보와 활용 측면에서 아직 초기 단계다. 현대차, 기아, 포티투닷, 모셔널 등 계열사별로 데이터가 분산돼 있었고, 서로 다른 시스템으로 인해 데이터 호환성과 활용성에 한계가 있었던 것으로 알려졌다. 이에 현대차그룹은 엔비디아와 협력을 확대하며 데이터 기반 자율주행 체계 구축에 나섰다. 현대차는 '엔비디아 드라이브 하이페리온'을 도입해 CPU·GPU·센서·카메라를 통합한 아키텍처를 구축하고, 자율주행 레벨 2부터 레벨 4까지 확장 가능한 시스템을 마련한다는 계획이다. 또한 그룹 전반에서 수집되는 데이터를 단일 학습 파이프라인으로 통합하고, 영상·언어·행동 데이터를 기반으로 AI 학습과 차량 적용, 데이터 품질 개선으로 이어지는 '데이터 선순환 구조'를 구축한다는 전략이다. 이 같은 데이터 통합은 본격적인 자율주행 탑재를 위한 기반 구축으로 해석된다. 현대차그룹은 연간 약 700만대 이상의 차량을 판매하는 만큼 도로 위에는 수천만대에 달하는 차량이 운행 중인 것으로 추산된다. 이를 데이터로 활용하기 위한 기반을 마련하는 것으로 해석된다. 리처드 첼민스키 포티투닷 SDV 플랫폼 총괄(부사장)은 최근 "아트리아 AI가 이미 활용 가능하다고 판단할 만큼 기술이 충분히 진척됐다"며 실제 차량 탑재를 위한 검토에 착수했다고 밝혔다. 출시 이후에도 실제 주행 데이터를 활용해 성능을 지속 개선하는 구조를 도입한다는 점에서 테슬라와 유사한 전략이다. 현대차는 엔비디아의 자율주행 AI 기술도 적극 활용할 계획이다. 엔비디아는 시각·언어·행동(VLA)을 통합한 AI 모델 '알파마요'와 3D 가상 시뮬레이션 플랫폼 '옴니버스'를 통해 자율주행 AI를 학습시키고 있다. 업계에 따르면 알파마요와 시뮬레이션 환경을 활용하면 가상 환경에서 다양한 주행 상황을 반복 학습할 수 있어 학습 속도를 크게 높일 수 있는 것이 특징이다. 이는 실제 도로 데이터를 기반으로 학습하는 테슬라 방식과 대비된다. 테슬라는 전 세계 차량에서 수집된 실제 주행 데이터를 통해 사람처럼 운전 감각을 학습한다. 반면 엔비디아는 합성 데이터와 가상 환경을 활용해 학습 속도를 높이는 전략을 택했다. 웨이모는 여기에 라이다 기반 정밀 지도 방식을 결합해 안정성을 확보하는 접근을 취하고 있다. 업계에서는 자율주행 경쟁이 단순한 기술 경쟁을 넘어 '데이터 규모와 학습 방식 경쟁'으로 확대되고 있다고 보고 있다. 테슬라가 약 130억㎞ 규모의 실도로 데이터를 기반으로 격차를 벌린 가운데, 현대차는 엔비디아 협력을 통해 데이터 통합과 AI 학습 체계를 구축하며 추격에 나선 상황이다. 업계 한 관계자는 "테슬라가 자율주행 기술력을 빠르게 확장하는 것은 통일된 차량 모델 기반으로 데이터를 축적하기 때문"이라며 "데이터 통합은 수집 속도와 활용 효율 측면에서 필수적인 요소"라고 설명했다.

2026.03.22 09:40김재성 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 국내 위성, 교신은 끝내 안돼…"추락 가능성"

청주 빽다방, 알바생 고소 취하…노동부 조사 결과 발표 임박

[영상] "2~3년 내 AI 빅뱅 온다"…지금 우리가 대비해야 할 것은

"충전 없이 50년"…꿈의 배터리 개발, 어디까지 왔나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.