• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (182건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부, 엔비디아 H200·B200 구입...10월부터 GPU 서비스

정부가 연내 엔비디아의 H200, B200 GPU 1만장을 도입해 국내 클라우드 기업이 AI 연구 개발에 쓰이도록 한다. GPU 구매 발주는 7월에 이뤄질 예정이다. 과학기술정보통신부는 14일 열린 경제관계장관회의에서 이같은 내용이 담긴 첨단 GPU 확보 추진 방안을 발표했다. 추경 예산으로 확보하게 되는 GPU 1만장은 H200 6천400장, B200 3천600장 규모로 수급 계획을 세웠으며 모델 비중은 상황에 따라 조정할 예정이다. GPU 구입에 8천600억원, 클러스터 통합 운영환경에 6천억원의 예산을 분배한다. 정부 예산으로 구입한 GPU를 운용할 클라우드 기업(CSP)에 대한 공모는 내주 예정됐으며 GPU 구매 절차는 7월에 진행, 이르면 오는 10월부터 신규 GPU 클러스터를 통한 국내 기업과 학계의 R&D를 진행키로 했다. 국가AI컴퓨팅센터 주체의 컨소시엄 형태 특수목적법인(SPC)에 참여하는 CSP 선정에는 별도 전문가 위원회가 맡는다. 선정 평가는 ▲재정 투입 대비 컴퓨팅 성능을 포함한 GPU 확보 구축 역량 ▲신속한 GPU 서비스 실행력 ▲GPU 자원 자체 활용 비중과 계획(CSP 운영비 성격 고려) 등을 중점에 뒀다. 선정된 CSP와 추후 권리 등에 관한 5년 단위 협약을 체결하게 된다. 협약에는 정보통신산업진흥원(NIPA)의 GPU 소유권 확보, SPC의 GPU 사용, CSP의 일부 GPU 자원 자체활용 허용 등의 내용이 포함된다. 정부는 특히 월드베스트LLM(WBL)에 선정된 기업에 GPU 자원 이용을 우선 제공한다는 방침이다. WBL은 국가대표 생성형AI 모델을 만들겠다는 취지로, 추경 예산을 통해 이뤄지는 프로젝트다. 과기정통부는 “SPC는 공공지분이 51%로 공공기관운영법에 따른 공공기관 지정 가능 요건에 해당한다”며 “내년 1월로 예상되는 공공기관운영위 심의에서 최종 결정될 사항이나 민간의 자율성을 최대한 보장하는 방향으로 부처 협의 중”이라고 밝혔다.

2025.05.14 11:35박수형

유상임 장관, GPU 확보 위해 방미...엔비디아와 직접 논의

유상임 과학기술정보통신부 장관이 추경으로 마련된 인공지능(AI) 인프라 구축 사업 확대를 위해 이번 주 미국을 찾아 엔비디아를 만난다. 13일 유상임 장관 주재로 열린 4차 AI 컴퓨팅 인프라 특별위원회에서는 첨단 GPU 확보 방안이 논의됐다. 정부는 연내 GPU 1만장 확보를 위해 1조4천600억원의 추경 예산을 편성, 최근 국회 본회의를 통화했다. 이날 특위는 GPU 구매, 구축, 사용에 이르는 전주기 절차를 거쳐 속도감 있게 추진하는 것이 중요하다는 데 뜻을 모았다. 정부는 우선 첨단 대규모 GPU를 신속히 확보, 구축, 운용할 수 있는 클라우드 기업(CSP)을 선정애 GPU 구매를 추진한다. 공모로 선정된 CSP의 기존 데이터센터 상면 내에 확보된 GPU를 순차적으로 구축하게 된다. 이후 국가 AI컴퓨팅 센터 중심으로 순차 구축된 GPU를 활용하며, 국내 산학연과 국가적 프로젝트 지원 등에 전략적으로 배분할 방침이다. 유 장관은 “첨단 GPU 확보는 우리나라 AI 생태계 혁신의 시작”이라며 “민관이 협력해 연내 GPU 확보, 국내 AI 생태계 대상 GPU 지원에 총력을 기울이고 신속한 AI컴퓨팅 인프라 확충이 대한민국 AI 경쟁력 강화로 이어질 수 있도록 만전을 기하겠다”고 말다. 한편 정부는 GPU 구매와 구축에 협력할 CSP 공모에 나설 예정이다.

2025.05.13 15:38박수형

美 상원, 고성능 GPU에 위치 추적 기능 의무화 추진

미국 국회가 AI 처리를 위한 고성능 GPU와 프로세서, 서버 등 제품의 작동 위치를 추적할 수 있는 기술을 도입하기 위한 법안을 추진중이다. 톰 코튼(Tom Cotton) 아칸소 주 상원의원이 제출한 '칩 보안법'(Chip Security Act)은 고성능 반도체 수출이 제한된 중국, 테러 지원 국가인 북한이나 이란 등에 제품이 우회 수출되지 않도록 차단하는 것을 목적으로 했다. AI 처리를 위한 고성능 프로세서와 GPU, 이를 탑재한 서버가 대상이며 군사 목적으로 쓰일 수 있는 일반 전자제품도 대상으로 했다. 엔비디아 지포스 RTX 4090 등 PC용 그래픽카드 역시 규제 대상이다. 이 법안에 따르면 미국 상무부가 수출을 제한하는 고성능 프로세서나 그래픽카드, GPU에 실시간으로 작동하는 위치를 추적할 수 있는 기술을 내장해야 한다. 제품을 수출한 업체는 작동 위치를 추적할 의무를 지며 상무부 장관은 이를 추적할 권한을 지닌다. 법안이 통과되면 미국 상무부와 국방부가 공동으로 1년간 연구를 수행해 필요한 기술을 제품에 탑재하게 된다. 또 법 시행 후 3년간 매년 평가를 실시해 위치 추적에 필요한 최신 보안 기술을 검토해야 한다. 이 법이 시행되면 엔비디아와 AMD, 인텔 등 각종 기업에 추가 부담이 필요하다. 또 작동 위치 추적에 필요한 정보를 전송하는 과정에서 사생활 관련 논란이 있을 것으로 예상된다.

2025.05.13 10:07권봉석

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

인텔, 워크스테이션용 '아크 프로' 2세대 GPU 공개 임박

인텔이 워크스테이션용 '아크 프로' 2세대 GPU를 이르면 이달 하순 진행되는 '컴퓨텍스 타이베이 2025' 기간 중 공개 예정이다. 2023년 '아크 프로 A60' 출시 이후 약 2년만이다. 인텔은 연산 성능과 전력 효율, AI 처리를 최적화한 Xe2 아키텍처 기반 아크 2세대 GPU(배틀메이지)를 지금까지 데스크톱PC용 B570/B580 그래픽카드와 노트북용 코어 울트라 200V(루나레이크) 내 GPU 타일에만 공급했다. 아크 프로 2세대 GPU는 기존 데스크톱PC용으로 출시된 아크 B580(BMG-G21)을 기반으로 최대 24GB 메모리를 탑재해 AI 처리를 강화할 것으로 보인다. 초급 AI 개발자나 보급형 워크스테이션 탑재가 예상된다. 지난 해 9월부터 노트북·데스크톱용 제품 출시 인텔 아크 2세대 GPU는 연산 성능을 개선한 Xe2 코어로 구성됐다. 전세대 Xe 코어 대비 전력 효율과 AI 처리 성능 향상에 중점을 뒀다. AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진이 추가됐고 INT2, INT4, INT8, FP16, BF16 등 AI 연산이 요구하는 자료형을 폭넓게 지원한다. Xe2 코어를 적용한 GPU는 코어 울트라 200V(루나레이크) 프로세서에 내장된 아크 130V/140V GPU, 데스크톱PC용으로 출시된 아크 B570/B580 등이 전부다. 노트북용 코어 울트라 200H(애로우레이크)에는 아크 1세대 GPU에 XMX를 더한 제품이 탑재됐다. 반면 일반 소비자용 제품과 달리 Xe2 아키텍처를 적용한 워크스테이션용 GPU는 현재까지 출시되지 않았다. 티저 이미지로 아크 프로 2세대 GPU 공개 예고 인텔은 2022년 8월 모바일(노트북) 워크스테이션용 '아크 프로 A30M', 데스크톱PC용 '아크 프로 A40·A50'을 시작으로 2023년 '아크 프로 A60·A60M'까지 총 5종의 전문가·워크스테이션용 GPU를 출시했다. 그러나 인텔은 8일 공식 X(구 트위터) 계정에 '새 인텔 아크 프로 GPU가 기다리고 있다. 타이베이에서 만나자'며 아크 프로 GPU 탑재 그래픽카드로 추정되는 티저 이미지를 노출했다. AI·LLM 처리 위해 최대 24GB 메모리 탑재 전망 아크 프로 2세대 제품 관련 정보는 이미 지난 3월 말부터 포착되기 시작했다. 아크 B580의 다이(Die)에 부여된 모델명인 'BMG-G21' 관련 부품이 베트남으로 선적됐다는 사실이 드러난 바 있다. 전 세대 제품인 아크 프로 A60이 탑재 가능한 메모리는 최대 12GB다. 그러나 매개변수(패러미터)가 100억 개 이상인 거대언어모델(LLM) 용량은 8GB에서 10GB를 가볍게 넘어서며 이를 원활히 처리하려면 최소 16GB 이상이 필요하다. BMG-G21(B580)은 Xe2 코어 20개로 구성됐고 최대 24GB 메모리를 탑재할 수 있다. 곧 공개될 아크 프로 그래픽카드도 최대 24GB 메모리를 탑재해 의료 영상 분석, 8K 영상 편집 등 대용량 데이터 처리 최적화를 꾀할 것으로 보인다. 인텔, 이달 하순 타이베이서 브리핑 진행 단 아크 B580 GPU의 성능은 엔비디아 지포스 RTX 4060과 비슷하거나 조금 아래 수준인 것으로 평가된다. 이에 따라 고성능보다는 가격 대비 성능을 앞세워 보급형 워크스테이션이나 AI 개발자를 겨냥할 것으로 보인다. 관련 업계에 따르면 인텔은 이달 하순 컴퓨텍스 타이베이 2025 기간 중 각국 기자단을 대상으로 아크 프로 GPU 관련 브리핑을 진행할 예정이다. 구체적인 제품군(SKU)과 출시 일정도 해당 시점에 공개될 전망이다.

2025.05.09 16:22권봉석

"화웨이만 키워줄 것"…젠슨 황, 美 수출통제 '직격 비판'

엔비디아 젠슨 황 최고경영자(CEO)가 미국 정부의 대중국 반도체 수출 통제가 자국 기업에 심각한 타격을 줄 수 있다고 경고했다. 중국 인공지능(AI) 칩 시장이 향후 수년 내 수백억 달러 규모로 성장할 것으로 전망되는 가운데 미국 기업이 이 기회를 놓치면 산업 경쟁력 전반에 부정적 영향을 줄 수 있다는 판단이다. 8일 CNBC 등 외신에 따르면 황 CEO는 지난달 30일 중국이 AI 칩 수요 측면에서 거대한 시장이라며 미국 기업이 접근하지 못할 경우 "막대한 손실"이 예상된다고 밝혔다. 인터뷰는 이날 워싱턴 D.C.에서 열린 '힐 앤 밸리 포럼' 직후 진행됐다. 엔비디아는 앞서 미국 정부의 수출 규제로 인해 55억 달러(한화 약 7조7천억원) 규모의 매출 손실을 입었다고 밝힌 바 있다. 이번 제재는 엔비디아가 중국용으로 설계한 'H20' 칩에도 적용돼 판매에 필요한 별도 허가를 요구하고 있다. 황 CEO는 중국 시장을 '핵심'으로 규정하며 AI 칩 접근 제한이 미국 내 일자리 창출 기회까지 제한할 수 있다고 우려했다. 그는 중국과의 기술 경쟁에서 화웨이와 같은 토종 기업들이 부상할 가능성도 경고했다. 중국 정부는 최근 수년간 반도체 자립을 위해 수십억 달러를 투입해 왔다. 화웨이는 AI 칩 공급망을 자체 구축하는 전략의 일환으로 최신 '어센드' 시리즈 칩을 개발 중이다. 이는 미국산 그래픽처리장치(GPU)에 대한 의존도를 낮추기 위한 행보다. 또 미국의 제재가 지속되면 화웨이를 비롯한 로컬 경쟁자들이 오히려 유리해질 수 있다는 분석도 제기된다. 이는 장기적으로 미국 반도체 기업의 글로벌 입지에 악영향을 줄 수 있다. 이 같은 상황에서 AMD 역시 15억 달러(한화 약 2조1천억원) 매출 감소를 발표하며 대중국 수출 통제가 업계 전반에 미치는 영향이 확산되고 있다. 특히 AI 응용에 필수적인 GPU를 생산하는 기업들이 직접적인 타격을 입는 중이다. 미국 워싱턴의 정부 산하 씽크탱크인 전략국제문제연구소(CSIS)는 지난 3월 보고서를 통해 "중국이 AI 기술 격차를 상당 부분 좁혔다"며 "미국이 기술 우위를 2년 이상 유지하는 것이 비현실적으로 보이는 상황"이라고 평가했다.

2025.05.08 15:02조이환

일론 머스크, xAI-테슬라 운영 시너지 극대화…슈퍼컴 전력 안정화에 '이것' 활용

일론 머스크 테슬라 최고경영자(CEO)가 이끄는 인공지능(AI) 스타트업 xAI가 슈퍼컴퓨터 '콜로서스(Colossus)'의 전력 공급 안정화를 위해 본격 나선다. 8일 블룸버그통신에 따르면 xAI는 미국 멤피스에 건설 중인 '콜로서스' 프로젝트에 테슬라의 메가팩(Megapack) 배터리를 도입한 것으로 알려졌다. '콜로서스'는 xAI의 거대언어모델(LLM) 학습과 운용을 위해 만들어진 것으로, xAI는 전 세계 최대 규모의 AI 훈련 인프라 중 하나로 이를 키우려고 하고 있다. 초반에는 엔비디아 그래픽처리장치(GPU) 10만 개가 연결된 클러스터로 운영됐으나, 향후에는 100만 개로 늘릴 계획이다. 이에 따라 '콜로서스' 운영에 상당한 전력이 필요할 것으로 예상되면서 xAI는 테슬라 '메가팩'을 대안으로 삼은 것으로 보인다. '메가팩'은 태양광, 풍력 등 재생에너지로 생산된 전력을 저장했다가 필요할 때 사용할 수 있도록 하는 대용량 배터리 시스템이다. 이는 재생에너지의 간헐적인 발전 문제를 해결하고 안정적인 전력 공급을 가능하게 하는 핵심 기술이다. 테슬라의 최근 공시 자료에 따르면 xAI는 지난 2024년 1월부터 올해 2월까지 약 2억3천만 달러(한화 약 3조1천억원)를 메가팩 구매에 투자했다. xAI는 해당 슈퍼컴퓨터 시설을 두 단계에 걸쳐 빠르게 건설하고 있다. 1단계가 완료된 현재 일부 천연가스 터빈은 철거될 예정이다. 이 터빈 사용으로 인해 환경 단체들로부터 비판을 받았던 탓이다. 멤피스 상공회의소는 "xAI가 최근 새롭게 구축된 전력 변전소를 통해 150메가와트(MW)의 전력을 공급 받고 있다"며 "테슬라의 메가팩 배터리도 추가돼 전력 수요 급증이나 정전 사태에 대비할 수 있게 됐다"고 말했다. 테슬라는 전기차 기업으로 잘 알려져 있지만 사명을 '세계를 지속가능한 에너지로 전환시키는 것'으로 내세우며 에너지 사업을 강화하고 있다. 특히 '메가팩'은 전력 수요가 낮고 가격이 저렴할 때 전기를 저장한 후 수요와 가격이 높은 시기에 판매함으로써 수익을 창출하는 새로운 사업 모델로도 주목받고 있다. 블룸버그통신은 "테슬라와 xAI는 이번 일에 대해 공식 입장을 내놓지 않았다"며 "이번 메가팩 도입은 머스크 CEO가 운영하는 5개 기업들 간 시너지를 보여주는 대표적 사례로, 각 기업들의 이해관계가 본격적으로 맞물리기 시작했다는 점에서 주목된다"고 말했다.

2025.05.08 10:06장유미

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤

AI 분야 추경 1.9조원...GPU 확보 1.6조원 투입

1조9천67억원 규모의 인공지능(AI) 분야 추가경정예산이 국회 본회의를 통과했다. 정부 제출안 대비 618억원 증액된 규모다. 과학기술정보통신부는 1일 국회에서 의결된 AI 분야 추경 예산을 바탕으로 국가 AI 경쟁력 강화를 위한 과제를 신속하게 추진하겠다고 밝혔다. 먼저 클러스터링 기반 첨단 GPU 1만장을 연내 확보할 계획이다. 조속한 AI컴퓨팅 인프라 확충을 위해 1조6천341억원의 예산을 신규로 투자해 클러스터링 기반의 첨단 GPU 1만장 분을 연내 확보하고, 민간이 보유한 첨단 GPU 3천장 분량을 임차해 활용도를 지원키로 했다. 국산 AI 반도체의 조기 상용화를 위해 실증 사업도 확대한다. 올해 실증예산을 417억원에서 871억원으로 증액해 국내 유망한 AI반도체 기업들이 골든 타임 내에 NPU 상용화를 지원한다는 계획이다. 과기정통부는 NPU 실증 인프라 외에도 온디바이스 AI, 해외실증 등 신시장 개척을 위한 지원도 강화할 예정이다. 아울러 글로벌 최고수준의 AI 모델 개발을 위해 가칭 월드베스트LLM 프로젝트를 추진한다. 2천136억원 규모의 예산을 통해 국내 5개 정예팀을 선정해 최대 3년동안 GPU, 데이터, 인재 등 필요한 자원을 집중 지원하게 된다. AI 파운데이션 모델 개발에 필요한 GPU는 민간이 보유한 첨단 GPU 임차를 통해 우선 지원하고, 각 팀의 AI 개발 목표 달성에 필요한 데이터 구축, 가공, 활용 비용을 지원할 계획이다. 또 해외 최고급 AI 연구자의 국내 유치를 위해 최대 연 20억원을 지원하는 'AI 패스파인더 프로젝트'를 추진하고, 유치된 인재는 월드베스트LLM 프로젝트 팀에 우선 지원할 예정이다. 세계 최고수준의 AI인재 확보와 양성을 위해 다양한 프로그램을 추진한다. 약 150억원 규모의 예산을 투입해 혁신 AI 인재들이 겨루는 '글로벌 AI챌린지'를 개최한다. AI와 과학기술 융합분야 글로벌 핵심인재 양성하기 위해 국내외 박사후연구원 400명에 최고 수준의 처우 및 집단·융합연구 등을 집중 지원한다. 이밖에 AI의 산업적 활용을 촉진을 지원한다. AI스타트업 성장을 위한 지원을 확대하여, 'AI혁신펀드'의 정부 예산을 1천억원 규모로 증액하는 한편, 100억원의 예산을 추가하여 연구개발특구 내 AI분야 우수한 연구소기업의 AI기술사업화와 AX확산을 도모한다. AI 디지털 취약계층을 위해 배리어프리 키오스크 기술 및 보급 지원에 92억원을 신규로 지원한다. 유상임 과기정통부 장관은 “AI 주도권을 둘러싼 글로벌 결정 속에서 시급한 예산이 확보됐다”며 “과기정통부는 그 어느때 보다 절박한 심정으로 골든 타임을 놓치지 않도록 전방위적인 노력을 기울일 것”이라고 말했다.

2025.05.01 22:53박수형

인텔, AI GPU 전략 재정비...'실리콘 포토닉스'로 활로 모색

인텔이 립부 탄 신임 CEO 취임과 함께 AI 가속기 전략을 전면 재정비하고 있다. 특히 연이은 GPU 출시 지연과 취소로 흔들렸던 AI 하드웨어 로드맵을 새롭게 구축하는 데 총력을 기울이고 있다. 인텔은 가우디 시리즈를 통해 '가성비' 전략으로 AI 가속기 시장에 진입했지만 엔비디아와 AMD가 주도하는 GPU 시장에서 큰 성과를 거두지 못하고 있다. 립부 탄 CEO는 데이터센터와 묶여 있던 AI 부문을 독립 조직으로 분리하고 신임 CTO를 임명하는 등 조직 개편도 단행했다. x86 아키텍처와 광전송 기술의 결합이라는 독자적 접근법으로 대형 하이퍼스케일러 고객을 확보하는 데 집중할 전망이다. 출시 연기·취소·중단에 시달린 인텔 AI GPU 인텔의 AI 처리용 GPU 전략은 출시 시점 지연, 개발 취소, 출시 연기 등으로 계속해서 흔들리고 있다. 2019년부터 개발이 시작된 서버용 GPU '데이터센터 GPU 맥스'는 2021년 시제품 공개, 2022년 11월 출시 이후 미국 아르곤 국립연구소에 구축한 슈퍼컴퓨터 '오로라'(Aurora) 등에 탑재됐지만 지난 해 5월 단종됐다. 데이터센터 GPU 맥스 후속 제품인 '리알토 브리지'(Rialto Bridge) 출시 계획도 2023년 3월 좌절됐다. 이를 대신할 서버용 GPU '팰콘 쇼어'(Falcon Shore)는 개발을 마쳤지만 시장 출시를 포기했다. 지난 1월 말 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "관련 업계 피드백에 따라 팰콘 쇼어는 내부 테스트용으로만 활용하고 외부 판매하지 않을 것"이라고 밝혔다. 가우디 시리즈, 성능 아닌 '가성비'에 초점 현재 인텔의 AI 관련 주력 제품은 GPU가 아닌 AI 연산 가속기 '가우디'(Gaudi)다. 2019년 20억 달러(약 2조 5천530억원)에 인수한 이스라엘 스타트업 업체인 하바나랩스 기술력을 기반으로 2022년 '가우디2', 지난 해 6월 '가우디3'를 출시했다. 인텔은 가우디 시리즈의 강점을 성능이 아닌 '가격 대비 성능'으로 잡고 있다. 가우디3는 엔비디아 H100 기반 시스템 대비 총소유비용(TCO)이 최대 2.5배 더 우수하며, 후속 제품인 H200 대비 소형 AI 모델에서 60%, 대형 모델에서도 최대 30% 더 효율적이라는 것이다. 그러나 경쟁사인 AMD가 AI 가속용 GPU인 MI300 시리즈로 틈새 시장을 꾸준히 넓히는 가운데 가우디3의 실제 판매 실적은 자체 예상 대비 미미하다. 인텔이 AI 소프트웨어 개발을 위해 제공하는 오픈소스 기반 '원API'가 가우디 시리즈를 제한적으로 지원하는 것도 문제다. 립부 탄 인텔 CEO, AI 전략 전면 재수정 이에 지난 3월 취임한 립부 탄 인텔 CEO는 GPU를 포함해 AI 전략 전반 재조정에 나섰다. 먼저 인텔 프로덕트 그룹 내 '데이터센터·AI'(DCAI) 부문에서 AI 부문을 독립시켰다. 또 네트워크·엣지(NEX) 담당 사친 카티(Sachin Katti) 부사장을 최고기술책임자(CTO)와 AI 담당 최고 책임자로 승진시켰다. 지난 주 실적발표 이후 컨퍼런스콜에서 립부 탄 CEO는 "AI 에이전트와 추론 모델이 정의하는 새로운 컴퓨팅 시대에 진입하는 가운데 새로운 AI 워크로드에 대응하기 위해 제품 로드맵을 조정하고 있다"고 설명했다. 재규어 쇼어에 실리콘 포토닉스 통합 가능성 ↑ 재규어 쇼어(Jaguar Shore)는 출시가 좌절된 팰콘 쇼어 후속 제품으로 내년 출시 예정이다. 인텔은 재규어 쇼어에 광전송 기술 '실리콘 포토닉스'를 결합하는 방안도 고려중이다. 광섬유와 레이저를 이용한 데이터 전송은 구리선 대비 더 먼 거리로 대용량 데이터를 주고 받을 수 있다. 이를 처리하려면 광신호를 데이터로 변환해 주고 받는 장치인 '트랜시버'(Transceiver)가 반드시 필요하다. 실리콘 포토닉스는 트랜시버 없이 광섬유를 직접 실리콘에 연결해 데이터를 주고 받기 위한 기술이다. 여러 GPU로 구성되는 클러스터의 데이터 처리량을 극적으로 향상시킬 수 있다. 인텔은 지난 해 6월 광통신 전시회 'OFC 2024' 기간 중 단방향 최대 256GB/s(2048Gbps), 양방향 512GB/s(4096Gbps)로 데이터를 전송하는 광학 컴퓨트 인터커넥트(OCI) 칩렛을 공개하고 시연하기도 했다. 인텔 "x86·실리콘 포토닉스, AI 기회 넓힐 것" 인텔은 재규어 쇼어와 함께 고성능 x86 프로세서, 실리콘 포토닉스, 타일(Tile) 단위 칩렛 설계, 패키징 기술을 활용해 신규 고객사를 확보할 예정이다. 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "실리콘 포토닉스는 랙 스케일 대형 아키텍처에서 매우 중요한 요소이며 인텔은 파운드리 고객사에 실리콘 포토닉스 기술을 제공할 수 있는 유일한 회사"라고 설명했다. 이어 "실리콘 포토닉스가 랙 스케일 아키텍처 구축 기회를 더욱 넓혀줄 것으로 매우 낙관한다. 또한 오픈 x86 역시 강점이다. 고객들은 x86 생태계와 그 소프트웨어를 선호한다. x86으로 AI 인프라를 구축할 수 있다면 매우 관심이 크다. 이미 대형 맞춤형 설계 계약을 하나 체결했고, 추가 계약도 기대한다"고 덧붙였다.

2025.04.29 14:25권봉석

[현장] "HBM, AI 시대의 우라늄"…국회, 초당적 포럼서 반도체 전략 수립 '본격화'

"인공지능(AI) 시대의 진짜 병목은 연산이 아니라 메모리입니다. 그래픽처리장치(GPU)만큼 중요한 건 고대역폭메모리(HBM)이고 이를 못 잡으면 우리는 기술 식민지가 됩니다. HBM은 단순한 메모리가 아니라 설계, 냉각, 패키징, 파운드리까지 연결된 AI 시대의 '고농축 우라늄'입니다. 지금 투자하지 않으면 10년 뒤엔 우리의 미래를 장담할 수 없습니다." 김정호 카이스트 교수는 지난 22일 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼' 발제에서 이같이 말했다. 이날 김 교수는 'HBM이 대한민국을 살린다'는 제목으로 발표에 나서 반도체 설계 주도권 확보와 생태계 재편의 필요성을 강도 높게 강조했다. 이번 행사는 정동영 더불어민주당 의원과 최형두 국민의힘 의원이 공동 주최하고 산업계·학계·정계 주요 인사들이 대거 참석해 토론을 벌였다. SK하이닉스, 삼성전자, 서울대, 스타트업, 과기부 등 다양한 주체가 모인 현장에서는 AI 반도체 생태계 조성을 위한 현실적 방안들이 논의됐다. 김정호 교수 "HBM은 단순한 메모리가 아니다…AI 패권의 핵심 기술" 김정호 카이스트 교수는 이날 발제에서 HBM을 AI 시대의 '순수 우라늄'으로 간주하며 대한민국 반도체 산업이 생존하기 위해 반드시 확보해야 할 전략 자산이라고 강조했다. 그는 HBM이 단순한 메모리 기술을 넘어 컴퓨팅처리장치(CPU)와 GPU 기능까지 통합하게 될 미래를 예견하며 이를 통해서만 한국이 엔비디아와 같은 글로벌 기업과 대등한 협상력을 가질 수 있다고 주장했다. HBM은 기존 디램(DRAM) 대비 훨씬 빠른 속도로 데이터를 주고받을 수 있는 차세대 메모리 기술이다. 수직으로 여러 층의 메모리를 쌓은 구조 덕분에 같은 면적 안에서 더 많은 데이터를 병렬로 처리할 수 있어 대용량 연산이 요구되는 AI 학습과 추론에 최적화돼 있다. 더불어 HBM은 DRAM, 인터포저, 신호무결성(SIPI), 냉각, 재료, 패키징, 파운드리, GPU 설계, 시스템 아키텍처 등 다양한 기술이 융합돼야 구현 가능한 복합 기술 집합체다. 하나의 부품이 아니라 반도체 시스템 전체를 아우르는 '기술의 총합'인 것이다. 김 교수는 한국이 '챗GPT'와 같은 파운데이션 모델 없이도 AI 경쟁력을 확보하려면 엔비디아의 최신 GPU가 최소 수십만 대 필요하다고 말했다. 다만 현실적으로 현재 한국이 보유한 최신 엔비디아 'H100'은 몇천대 수준으로, 예산을 투입해도 엔비디아가 GPU를 이를 공급할 이유가 부족한 상황이다. 이에 제시할 수 있는 유일한 협상 카드가 HBM으로, 이를 기반으로 기술 주권을 확보해 반도체 글로벌 공급망에서 우위를 점해야 한다는 것이 김 교수의 주장이다. AI 기술이 빠르게 고도화되면서 주목받을 연산 병목의 핵심은 GPU가 아니라 HBM이라는 분석 역시 나왔다. 김 교수는 "'챗GPT'를 구동하는 동안 실제로 열을 받아 녹는 것은 GPU가 아니라 HBM"이라며 "토큰 생성 속도 저하의 주요 원인은 메모리 대역폭의 부족에 있다"고 설명했다. 이어 "기존 컴퓨터 구조에서는 저장은 메모리, 계산은 GPU가 맡았지만 AI 시대에는 이 둘 사이의 데이터 전달 속도에서 한계가 발생한다"고 말했다. 이 같은 구조적 병목은 HBM의 역할을 단순한 '빠른 메모리'를 넘어서는 요소로 만든다. 김 교수는 HBM의 기술적 본질을 '데이터를 얼마나 빠르게 GPU로 보내고 다시 받아올 수 있느냐의 싸움'이라고 정의했다. 그는 이를 100층짜리 고층 건물에 비유하며 층을 높이 쌓을수록 내부에서 데이터를 오가는 '고속 엘리베이터' 같은 통로가 필수라고 설명했다. 현재 개발 중인 'HBM4'까지는 이러한 구조를 일정 수준 유지할 수 있지만 몇년 후 등장할 'HBM7'과 같은 차세대 모델로 갈수록 기술적 부담은 폭발적으로 늘어난다. 특히 기존 본딩 공정에서 사용하는 납이 고온에서 열화되는 문제가 있어 더 높은 집적도와 연산량을 감당하려면 냉각 솔루션과 소재 자체의 혁신이 필수적이다. 이러한 배경에서 전체 시스템을 액체에 담가 냉각하는 '침지 냉각(immersion cooling)'이 유력한 차세대 해법으로 주목받고 있다. 단순히 칩을 잘 만드는 것만으로는 한계가 있는 만큼 냉각 설계, 패키징, 파운드리 공정, 시스템 아키텍처 설계까지 아우르는 통합적 기술 전략이 필요한 단계다. 이같은 급박한 상황 속에서 한국은 반도체 산업의 핵심 가치사슬인 설계와 파운드리에서 모두 취약한 위치에 놓여 있는 상황이라는 것이 김 교수의 설명이다. 일례로 'HBM4'부터는 연산 기능이 메모리 내부, 이른바 '베이스 다이(Base Die)'에서 처리되는 구조로 전환되고 있다. 다만 해당 기술의 설계는 엔비디아가, 제조 공정은 대만 TSMC가 주도하고 있어 국내 기업의 입지는 좁아지고 있는 것이다. 김 교수는 이 같은 글로벌 기술 분업 구조 속에서 한국이 기술 주도권을 잃을 가능성을 경고했다. 특히 SK하이닉스는 '베이스 다이' 설계 경험이 부족하고 삼성전자는 생태계에서 실질적 중심을 잃고 있다고 지적했다. 이에 설계와 파운드리 양쪽 모두에 대한 국가 차원의 역량 집중이 필요하다고 강조했다. 그 역시 자신의 연구실에서 HBM의 병목 문제를 해결하기 위한 다양한 실험을 진행 중이다. 여러 층을 쌓아올리는 '멀티타워 아키텍처'와 연산 기능을 메모리 내부에 넣는 'CPU 내장형 메모리' 구조가 대표적이다. 기존 디램을 보조 메모리로 붙이거나 CPU를 직접 설계하는 방식도 병행하고 있으며 이는 최근 엔비디아가 공개한 '블랙웰 시스템'과 유사한 구조다. 또 김 교수는 AI 기술을 활용한 자동 설계 실험도 병행하고 있다. 자연어로 회로를 설계하는 '바이브 코딩'을 통해 학생이 설계한 HBM과 '챗GPT'가 설계한 결과의 성능이 거의 유사했다는 점을 소개하며 인력 부족 문제를 AI가 보완할 수 있다고 강조했다. 김 교수는 "AI는 죽지도 자지도 않지만 사람은 인건비가 든다"며 "AI 기반의 자동화 기술이 앞으로 산업 경쟁력을 좌우할 핵심 수단이 될 것"이라고 주장했다. 발표를 마치며 김 교수는 AI 생태계의 패권 경쟁이 결국 'HBM 기술력'에 수렴된다고 강조했다. AI가 핵무기, 반도체가 우라늄이라면 HBM은 '순수 우라늄'으로, 한국이 이 기술을 확보하지 못하면 글로벌 기술 질서에서 도태될 수밖에 없다는 것이다. 김정호 카이스트 교수는 "이제는 정부가 나서서 HBM 주도권을 위해 전략적으로 투자해야 한다"며 "기업과 학계도 반도체 전문대학원을 신설하고 고급 인재를 체계적으로 길러낼 수 있는 구조로 과감히 개편해야 한다"고 강조했다. 이어 "과거 박정희 대통령이 고속도로를 깔아 자동차 산업을 열고 김대중 대통령이 인터넷망으로 IT 강국의 기반을 만들었듯 이 위기를 기회로 만들 어야 한다"고 말했다. "HBM만으론 부족하다"…산학연이 말한 'AI 반도체 생태계의 조건은? 이날 김 교수의 발표 이후에는 기술 인프라와 생태계 확장을 놓고 산업계·학계·정부 인사 간에 치열한 논의가 벌어졌다. 이날 토론에서는 'HBM 중심 전략'을 넘어서 설계·파운드리·모델·SW까지 포괄하는 통합 생태계 필요성이 제기됐다. HBM에 대한 전략적 인프라 확충은 대체로 공감대가 형성됐다. 다만 실제 현장에선 정부 지원이 한정돼 있어 기술 주도권 확보엔 한계가 있다는 우려가 나왔다. 정상록 SK하이닉스 부사장은 "지난 2023년 삼성과 각각 500억 원씩 지원받았지만 기술 성장성을 반영할 때 보다 세심한 고려가 필요하다"며 "개인적으로 볼때 정부가 HBM이라는 신기술을 보다 감안해서 장기적인 전략을 짜는 것이 좋은 전략일 것으로 생각한다"고 말했다. 정부 역시 이를 인지하고 전략적 대응에 나섰다는 입장이다. 박윤규 정보통신산업진흥원장은 "향후 정부의 전략 투자 중심축 중 하나가 HBM이 될 것"이라며 "우리는 기업의 고충을 실제로 듣고 지원하는 입장에서 인프라와 설계 R&D를 함께 지원하는 방향으로 갈 것"이라고 밝혔다. 스타트업들은 기술 상용화의 '속도'와 '현실'을 문제 삼았다. HBM을 실제 적용하고 있는 기업들 자본, 인재, 시간 모두에서 한계에 부딪히고 있다는 설명이다. 정영범 퓨리오사AI 상무는 "3년 전 'GPT-3'가 나올 당시 HBM3를 선택했는데 다들 만류했다"며 "그럼에도 우리는 한국도 가능하다는 믿음으로 다소 무리하며 밀어붙였고 결과적으로 현명한 선택이 됐다"고 말했다. 칩 하나를 개발하는 데만 수백억 원이 들어가는 현실에서 스타트업은 생존을 위해 정부의 중장기 지원이 절실하다는 호소도 나왔다. 배유미 리벨리온 이사는 "인재, 자본, 시간을 꾸준히 투입해야 하는데 정부가 이 흐름을 끊지 않도록 지원책을 이어가줬으면 한다"고 말했다. 기술 못지않게 인재 확보도 현장의 핵심 과제로 떠올랐다. 고급 설계인력 수요는 폭증하고 있지만 국내 교육·보상 시스템이 이를 받쳐주지 못한다는 지적이다. 이공계 고급 인력의 산업계 유입을 위한 구체적 유인책도 필요하다는 설명 역시 이어졌다. 김영오 서울대 공대 학장은 "AI와 반도체를 동시에 전공할 수 있는 학생들이 필요하다"며 "상위 10~20% 천재 학생들에게는 파격적 보상과 국가 주도 연구기관이 필요하다"고 제안했다. 이어 현대 조현철 상무는 "카이스트 출신들도 산업계보다 학계나 해외로 빠져나간다"며 "산업계로의 유입을 위한 정부 차원의 가이드라인이 필요하다"고 말했다. AI 생태계의 핵심은 '풀스택 경쟁력'이라는 점도 강조됐다. 송대원 LG 상무는 "구글은 이번 '넥스트' 행사에서 GPU부터 모델, 솔루션까지 전방위 생태계를 발표했다"며 "국내도 인프라만 볼 게 아니라 전체 AI 흐름을 같이 키워야 한다"고 말했다. 정부도 이런 문제의식을 반영해 추경 예산을 마련하고 제도 개선을 시도 중이다. 특히 글로벌 수준 인재 유치를 위한 예산이 신설됐다는 점이 눈에 띈다. 송상훈 과기부 실장은 "최대 40억원까지 매칭 지원이 가능한 고급 인재 유치 프로그램을 새로 만들었다"며 "퓨리오사, 리벨리온 같은 기업들이 공학도들의 꿈이 되도록 하겠다"고 말했다. 정동영 더불어민주당 의원은 "HBM 3층 적층 구조를 처음 제안했던 김정호 교수의 주장을 우리 기업들이 진작 받아들였더라면 지금쯤 이들의 국제적 위상이 보다 커졌을 것"이라며 "오늘 산업계, 학계, 정부, 여야가 오늘처럼 한자리에 모인 것 자체가 의미 있고 이 논의가 구체적 실행으로 이어져야 한다"고 말했다. 최형두 국민의힘 의원은 "매주 격주 아침마다 토론을 이어온 것은 각계 리더들이 진심으로 이 문제를 국가 전략으로 보고 있다는 방증"이라며 "AI 추경 예산 반영 여부가 이제 과방위와 예결위 논의에 달려 있는 상황에서 국회 특위 위원으로서 마지막 소위 심사까지 책임지고 반영될 수 있도록 최선을 다하겠다"고 강조했다.

2025.04.23 11:28조이환

한 달 앞으로 다가온 컴퓨텍스 2025, 올해 테마 '넥스트 AI'

타이트라(TAITRA, 대만대외무역발전협회)와 타이베이컴퓨터협회(TCA) 주최로 열리는 동북아시아 최대 규모 IT 전시회, '컴퓨텍스 타이베이 2025'가 다음 달 20일부터 4일간 개최된다. 전통적으로 PC 생태계 중심 행사였던 컴퓨텍스는 2020년 이후 생성 AI, 챗GPT와 클로드, 퍼플렉시티 등을 위시한 LLM(거대언어모델), 온디바이스·엣지 AI, AI PC 등 바람을 타고 AI를 중심에 둔 전시회로 옷을 갈아 입었다. 6월 4일부터 7일까지 4일간 진행된 지난 해 행사에는 2023년(4만 5천명) 대비 두 배 늘어난 8만 5천179명이 방문했다. 올해도 엔비디아를 시작으로 퀄컴, 미디어텍 등 주요 AI 관련 기업들이 기조연설을 진행할 예정이다. 엔비디아, 개막 하루 전날 기조연설 진행 젠슨 황 엔비디아 CEO는 매년 컴퓨텍스 기간마다 타이베이를 찾아 기조연설이나 브리핑을 진행했다. 지난 해에는 난강전람관에 등장해 주요 그래픽카드·서버 제조사 부스를 방문하며 친필 사인을 남겨 대만 현지 언론의 주목을 한 눈에 받았다. 지난 해 엔비디아는 컴퓨텍스 공식 개막일보다 이틀 이른 일요일 저녁에 별도로 기조연설을 진행했다. 올해는 19일 오전 11시부터 난강전람관에서 1km 떨어진 '타이베이 뮤직 센터'로 청중을 모을 예정이다. 최근 2년간 엔비디아가 GPU를 이용한 AI 분야에서 두각을 나타내며 많은 이들의 관심이 집중되고 있는 상황이다. 타이트라와 엔비디아는 현장 참가를 원하는 각국 취재진을 대상으로 별도 코드까지 발급하며 이를 통제하기 위해 안간힘을 쓰고 있다. 퀄컴, 엔비디아와 같은 날 기조연설 예정 퀄컴은 지난 해 크리스티아노 아몬 CEO가 직접 AI PC를 주제로 한 기조연설을 진행하고 삼성전자 등 주요 PC 제조사와 함께 당시 출시를 앞뒀던 스냅드래곤 X 엘리트 탑재 노트북을 공개했다. 올해 기조연설도 크리스티아노 아몬 CEO가 연사로 나서 19일 오후 난강전람관에서 기조연설을 진행한다. 차세대 제품인 스냅드래곤 X 엘리트 2세대(가칭) 관련 성능이나 출시 일정 등 정보가 일부 공개될 가능성이 있다. 퀄컴은 기조연설과 함께 타이베이 시내 별도 행사장에서 AI PC 관련 쇼케이스도 진행할 것으로 보인다. AI PC 보급에 가장 중요한 영향을 미칠 각종 소프트웨어 위주의 전시가 예상된다. AMD·인텔, 아직까지 '무소식' AMD와 인텔은 컴퓨텍스 개막이 한 달 앞으로 다가온 현재까지 구체적인 일정을 공개하지 않은 상황이다. AMD는 공식 기조연설 대신 제품 담당 임원이 진행하는 별도 인터뷰나 브리핑 세션, 각종 쇼케이스 등을 진행할 것으로 보인다. 인텔은 지난 해 팻 겔싱어 전 CEO가 타이베이를 찾아 기조연설과 파트너 미팅 등을 진행했지만 올해 일정은 불투명하다. 난강전람관 안에는 이미 부스를 마련했지만 구체적인 공지는 나오지 않았다. 21일 취재에 응한 PC 업계 관계자들은 "인텔이 올해 컴퓨텍스에서는 PC와 AI, GPU 등 어떤 면에서도 이렇다 할 메시지를 내놓지 못할 것"이라고 예상했다.

2025.04.21 16:15권봉석

"엔비디아, 중국에 RTX 5090D 그래픽카드 출고 중단"

미국 정부가 중국 시장용으로 설계된 H20 GPU 수출을 규제한 여파가 일반 소비자용 그래픽카드까지 확대될 조짐을 보이고 있다. 중국 내 IT 커뮤니티를 중심으로 "엔비디아가 지포스 RTX 5090D 출하를 중단했다"는 전언이 등장했다. 20일 업계에 따르면 엔비디아는 지난 주 중국 시장용으로 설계된 H20 GPU 수출 제한 조치를 공시하며 "H20의 재고와 구매 약정, 관련 충당금 등으로 최대 55억 달러(약 7조 8천556억원) 추가 비용이 들 것"이라고 밝혔다. 중국 IT 커뮤니티 '칩헬'(Chiphell)에 18일 저녁 글을 올린 한 이용자는 그래픽카드 제조사 관계자를 인용해 "엔비디아가 18일 모든 그래픽카드 제조사를 대상으로 지포스 RTX 5090D의 공급을 잠정 중단하라는 공지를 보냈다"고 설명했다. 지포스 RTX 5090D는 미국 정부의 규제를 충족하기 위해 AI 연산 성능을 일반 RTX 5090(3천352 TOPS) 대비 29% 가량 줄인 2천375 TOPS 수준으로 낮췄다. 또 한 PC나 서버에 GPU를 여러 개 설치하는 '멀티 GPU' 구성도 불가능하게 설계됐다. 미국 전임 조 바이든 행정부는 GPU의 연산 성능이나 대역폭 등 성능을 낮추는 조건으로 중국 수출을 허용했으나, 도널드 트럼프 2기 행정부는 이마저도 허용하지 않으며 오히려 더 강화하는 방향으로 나아가고 있다. AMD 역시 지난 2월 중국 시장을 겨냥해 연산 성능을 낮춘 라데온 RX 7650 GRE 그래픽카드를 출시한 데 이어 RDNA 4 아키텍처를 적용한 중국용 제품도 출시할 것으로 예상된다. 그러나 미국 정부의 규제가 강화될 경우 신제품 출시는 지연이나 취소를 겪을 수 있다.

2025.04.20 11:00권봉석

AI 분야 1조8천억원 추경...연내 GPU 1만장 신규 도입

정부가 1조8천억원 규모의 인공지능(AI) 분야 추가경정예산으로 연내 1만장의 GPU를 새롭게 확보하고, 민간이 보유한 GPU 2천600장을 임차 활용키로 했다. 과학기술정보통신부는 18일 국무회의에서 추경안을 바탕으로 지난 15일 경제관계장관회의 겸 산업경쟁력강화 관계장관회의에서 논의된 '국가AI역량 강화방안 후속조치'를 추진한다고 밝혔다. 연내 GPU 1만장 확보에 1조4천600억원을 투입한다. 또한 시급한 국내 AI컴퓨팅 수요에 대응하기 위해 민간이 보유한 첨단 GPU 2천600장분의 추가 임차 활용에 1천723억원을 할당했다. 국산 AI반도체의 조기 상용화를 지원하는 실증사업도 기존 298억원에서 752억원으로 확대한다. 이를 위해 대규모 AI컴퓨팅 상용서비스에 최적화된 국산 NPU 실증 인프라를 구축하고, 온디바이스 AI, 해외 실증 등 신시장 개척을 위한 실증 지원도 확대한다. 또한 국가AI컴퓨팅 센터(SPC)가 선정되면 올해부터 국산 AI반도체가 센터에 본격적으로 도입될 수 있도록 적극 추진한다. 민간 AI컴퓨팅 인프라 투자 촉진을 위한 제도적 지원도 강화한다. 첨단 AI R&D, AI 인프라 투자에 대해 세제지원을 강화하기 위해 올해 3월 조세특례제한법을 개정해 AI를 국가전략기술로 지정했다. 아울러 AI 데이터센터 민간투자 촉진을 위한 입지, 시설, 전력 관련 제도적 지원도 지속해나갈 계획이다. 글로벌 수준의 AI모델 개발을 위해 AI 정예팀을 선정해 지원하는 가칭 월드베스트 LLM 프로젝트를 추진한다. 세계 최고 수준의 AI인재 확보 양성도 지원한다. 혁신 AI 인재들이 겨루는 글로벌 AI챌린지를 하반기에 개최한다. 해외 최고급 AI 연구자를 국내에 유치할 경우 3년간 최대 연 20억원을 지원하는 가칭 AI 패스파인더 프로젝트를 올해 신규로 추진한다. AI융합 분야 글로벌 최상위 연구자를 양성하기 위해, 국내외 우수 박사후연구원 400명에 최고 수준의 처우 및 집단·융합연구 등을 집중 투자한다. AI 스타트업 성장을 지원하기 위해 올해 민관이 합동으로 조성 예정인 900억원 규모의 'AI 혁신펀드'를 2천억원 규모로 확대한다. 유상임 과기정통부 장관은 “AI 주도권을 놓고 촌각을 다투는 글로벌 경쟁속에서 이번 추경은 매우 시의적절하며 중대한 결정”이라며 “과기정통부는 '1년이 늦어지면 경쟁력은 3년 뒤처진다'라는 절박한 각오로 추진과제를 철저히 준비해 AI G3 도약을 위한 기반을 마련해나가겠다”고 말했다.

2025.04.18 11:00박수형

美 의회 "엔비디아 GPU 중국 유출 여부 조사 착수"

미국 의회는 17일(현지시간) 중국 수출이 제한된 고성능 엔비디아 GPU가 우회 공급됐다는 의혹에 대해 공식 조사에 착수한다고 밝혔다. 17일 미국 하원 중국공산당특별위원회는 중국 AI 기업 딥시크(DeepSeek)가 수출 통제 대상인 엔비디아 GPU 약 6만 개로 거대언어모델(LLM)을 훈련했다는 정보를 바탕으로 엔비디아에 관련 기록 제출을 요구했다고 밝혔다. 지난 1월 딥시크 R1 공개시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했다"고 밝혔다. 그러나 위원회는 "딥시크가 H100, A100 등 고성능 GPU를 싱가포르 등 제3국에서 우회 확보했을 가능성이 있다"고 지적했다. 위원회는 2020년 이후 중국이나 아세안 국가에서 499대 이상의 AI GPU를 구매한 모든 고객 목록과 최종 사용자, 거래 날짜, 최종 목적지 등 상세 정보 제출을 요구하고 있다. 싱가포르 이외에 말레이시아로 GPU 수출이 3.6배 이상 늘어나면서 중국으로의 우회 수출지로 말레이시아가 활용되고 있다는 의혹도 제기되고 있다. 엔비디아는 "미국 정부의 수출 규제를 준수하고 있으며 싱가포르 매출 증가는 단순히 결제가 일어난 장소이며 관련 제품은 미국과 대만 등 다른 지역으로 배송되고 중국에 공급되지 않았다"고 반론했다.

2025.04.18 09:37권봉석

美·中 무역전쟁에 발 묶인 엔비디아 'H20' GPU

미국 도널드 트럼프 2기 행정부가 대 중국 GPU 수출 규제를 한층 강화했다. 전임자인 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 트럼프 2기 행정부는 이마저도 무기한 허가하지 않을 방침이다. 엔비디아는 15일(이하 현지시각) 중국 시장용으로 설계된 H20 GPU 수출 제한 조치를 공시하며 "H20의 재고와 구매 약정, 관련 충당금 등으로 최대 55억 달러(약 7조 8천556억원) 추가 비용이 들 것"이라고 밝혔다. 엔비디아 뿐만 아니라 지난 해부터 성능을 제한한 중국 시장용 GPU를 생산하는 AMD에도 유사한 규제가 주어질 가능성이 크다. 한편 이런 규제가 엔비디아의 가장 큰 경쟁자로 꼽히는 중국 화웨이를 키워주는 결과를 낳을 것이라는 관측도 나온다. 엔비디아, 美 정부 규제에 따라 두 차례 GPU 성능 낮춰 미국 정부가 중국 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제에 나선 것은 2022년 10월부터다. 당시 미국 정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 엔비디아는 이들 제품에서 최대 대역폭을 절반인 400GB/s까지 낮춘 A800, H800 GPU를 생산해 공급했다. 그러나 미국 정부가 2023년 10월 규제 범위를 확대하자 성능을 더 낮춘 H20, L20, L2 등 3종을 추가 개발해 이를 작년부터 중국 시장에 공급했다. 이번에 미국 정부가 제동을 건 H20 GPU는 HBM3 메모리 용량을 96GB로 제한하고 메모리 대역폭은 4TB/s, AI 연산 성능은 FP16(부동소수점 16비트) 기준 148 테라플롭스, FP32(부동소수점 32비트) 기준 44 테라플롭스로 제한됐다. H800으로 구현한 LLM '딥시크 R1'이 역린 건드렸나 미국 정부가 H20 GPU의 중국 수출 규제를 강화한 이유는 아직 명확하지 않다. 그러나 지난 1월 중국 AI 스타트업 딥시크(DeepSeek)가 하순 공개한 추론 특화 AI 모델 'R1'이 영향을 미쳤을 것으로 추정된다. 딥시크 R1은 AI 모델 훈련을 위해 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준인 557만6천달러(약 80억원)를 지출한 것으로 알려져 있다. 또 미국 상무부 수출 통제 기준을 준수하는 H800 GPU를 이용했다. 당시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했으며 추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 밝혔다. 실제로 미국 CNBC와 대만 공상시보 등 경제 매체에 따르면 딥시크 R1 공개 이후 텐센트, 알리바바, 바이트댄스 등 중국 주요 IT 기업들이 H20 GPU 발주량을 크게 늘렸다. 엔비디아, 중국 내 최대 경쟁사로 화웨이 꼽아 미국 정부는 거대언어모델(LLM) 등에서 중국의 성장 속도를 지연시키기 위해 GPU 수출 규제를 활용하고 있다. 그러나 이런 규제는 오히려 중국 내 엔비디아 최대 경쟁자로 꼽히는 화웨이 성장을 돕는 결과를 낳을 수 있다. 화웨이가 개발한 어센드(Ascend) 910B는 FP16 기준 320 테라플롭스, INT8(정수 8비트) 기준 640 TOPS(1초당 1조 번 연산)급 성능을 갖춰 엔비디아 A100과 비슷한 수준으로 평가된다. 지난 해 공개된 후속 제품인 어센드 910C는 지난 2월 딥시크가 수행한 추론 벤치마크에서 엔비디아 H100의 60%에 달하는 성능을 냈다. 엔비디아도 지난 2월 말 미국 증권거래위원회에 제출한 연간 보고서에서 주요 경쟁자 중 하나로 2년 연속 화웨이를 꼽았다. 칩과 클라우드 서비스, Arm IP 기반 컴퓨터 프로세서와 네트워킹 제품 등 4개 분야에서 화웨이를 주요 경쟁사로 분류했다. 엔비디아 이어 AMD GPU 사업에도 영향 불가피 미국 정부의 수출 규제 확대는 엔비디아 뿐만 아니라 AMD에도 영향을 미칠 가능성이 크다. AMD는 작년 중국 시장을 겨냥해 성능을 제한한 AI GPU 가속기인 인스팅트 MI309를 설계했지만 미국 상무부는 '여전히 성능이 강력하다'는 이유로 수출을 불허했다. 2023년 11월 중국 시장에서는 데스크톱PC용 지포스 RTX 4090 그래픽카드를 분해해 서버용으로 개조하기도 했지만 올해는 이런 시도가 일어나기 힘들다. 엔비디아가 2월부터 중국 시장에 공급중인 지포스 RTX 5090D 그래픽카드에 이미 여러 제약이 가해졌기 때문이다. 지포스 RTX 5090D 그래픽카드는 미국 정부의 규제를 충족하기 위해 AI 연산 성능을 RTX 5090(3,352 TOPS) 대비 29% 가량 줄인 2,375 TOPS 수준으로 낮췄다. 한 PC나 서버에 GPU를 여러 개 꽂아 성능을 높이는 '멀티 GPU' 구성도 불가능하다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다.

2025.04.16 14:37권봉석

지코어, 렛츠AI에 AI 인프라 제공…"이미지 생성 속도·유연성↑"

지코어가 렛츠AI의 기술 고도화를 도와 맞춤형 이미지 생성 속도와 서비스 확장 가능성을 높였다. 지코어는 렛츠AI에 AI 인프라와 AI 추론 솔루션 '에브리웨어 인퍼런스'를 제공했다고 15일 밝혔다. 렛츠AI는 사용자가 업로드한 이미지나 제품 기반으로 AI가 맞춤형 이미지를 실시간 생성하는 플랫폼이다. 지코어의 엔비디아 H100 그래픽처리장치(GPU) 기반 클라우드 인프라와 에브리웨어 인퍼런스를 적용해 이미지 생성 속도를 높이고 지연 시간을 줄였다. 또 GPU 단위 자원 제공 방식으로 인프라 구축 부담을 최소화하고, 비용 효율성을 이뤘다고 밝혔다. 현재 렛츠AI는 지코어 인프라로 다양한 브랜드와 협업 프로젝트를 진행 중이다. 한 레스토랑 브랜드는 피자 이미지 생성 이벤트에, 스포츠 브랜드 퓨마는 가상 인플루언서의 유니폼 이미지 생성에, 속옷 브랜드 슬로기는 마케팅 이미지 실험에 해당 플랫폼을 활용했다. 지코어는 AI 애플리케이션의 실시간 서비스를 위해 엣지 네트워크 기반 초저지연 환경도 제공하고 있다. 추론 요청을 전 세계 180여 개 엣지 지점 중 사용자와 가장 가까운 위치로 자동 라우팅해 속도를 최적화했다. 미쉬 스트로츠 렛츠AI 대표는 "지코어 덕분에 클릭 몇 번으로 글로벌 배포가 가능해졌고, GPU도 수 시간 내에 온보딩돼 안정적이고 유연한 운영이 가능했다"며 "개발과 인프라팀 작업 효율을 크게 높아졌다"고 말했다. 지코어 세바 베이너 디렉터는 "렛츠AI는 AI 인프라 기반으로 대규모 학습과 추론을 동시 운영하고 있다"며 "향후 영상 생성 등 기능 확장에도 우리 제품이 중심이 될 것"이라고 강조했다.

2025.04.15 11:00김미정

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환

[인터뷰] "엔비디아 사로 잡은 비결, '델 AI 팩토리' 덕분"

"바이 델(Buy Dell·델 제품을 사세요), 바이 델, 바이 델!" 지난 달 18일. 미국 새너제이에서 열린 엔비디아 연례 개발자 회의 GTC 행사에 마련된 델 테크놀로지스 부스에선 '인공지능(AI) 대부'로 불리는 젠슨 황 엔비디아 최고경영자(CEO)가 목청을 높여 이처럼 외쳤다. 컴퓨터를 필요로 하는 이들이라면 누구나 알고 있는 '델'의 PC뿐 아니라 AI 인프라 경쟁력을 인정하며 엔비디아의 가장 최고 파트너라는 점을 치켜 세워준 것이다. AI 열풍이 한창이던 1년 전 엔비디아 GTC 행사에서도 황 CEO는 델 테크놀로지스를 공개 석상에서 언급하며 끈끈한 관계를 과시했다. 당시 황 CEO는 "정보기술(IT)과 관련해 무엇이든 필요한 것이 있다면 델에 전화하면 된다"고 밝혔다. 이는 델 테크놀로지스 주가에도 영향을 줘 지난해 5월 시가총액이 1천억 달러를 넘기도 했다. 이처럼 엔비디아의 두터운 신임을 받고 있는 델 테크놀로지스가 올해 AI 인프라를 전면 업그레이드하며 시장 강자의 면모를 다시 한 번 드러내고 있다. 엔비디아 기반 델 AI 팩토리의 최신 포트폴리오를 앞세워 최근 달궈지고 있는 글로벌 AI 인프라 시장에서 주도권 굳히기에 본격 나선 모습이다. 최근 지디넷코리아와 만난 양원석 델 테크놀로지스 인프라스트럭처 솔루션 사업부 전무는 "우리는 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(end-to-end) AI 솔루션 포트폴리오를 가지고 있다는 것이 강점"이라며 "서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 갖추고 있는 덕분에 글로벌뿐 아니라 한국에서도 서버 부문 1위 업체로 인정 받고 있다"고 운을 뗐다. 그러면서 "글로벌뿐 아니라 한국 스토리지 하드웨어(HW) 및 소프트웨어(SW) 부문 1위 업체로서의 저력을 갖고 있는 만큼, 데이터 및 데이터관리에 대해 전 세계에서 제일 잘 알고 있는 기업이라고 자부할 수 있다"며 "젠슨 황 CEO가 엔비디아 GTC 현장에서 '델'을 언급한 것도 이런 점을 인정한 것이라고 볼 수 있다"고 덧붙였다. 실제로 델 테크놀로지스는 글로벌 AI 인프라 시장에서 경쟁력을 입증 받아 독보적인 점유율을 유지하며 꾸준한 성장세를 보이고 있다. 특히 슈퍼마이크로, HPE 등과 경쟁하고 있는 AI 서버 시장에선 다양한 포트폴리오를 앞세워 압도적인 우위에 올라서 있다는 평가를 받고 있다. 7일 시장조사업체 IDC에 따르면 델 테크놀로지스는 지난해 3분기 전 세계 X86 서버 시장 판매대수 기준으로 11.4%의 점유율을 차지하며 1위를 유지했다. 매출 기준 점유율도 12.4%로 1위를 차지했다. 델 테크놀로지스와 경쟁하고 있는 슈퍼마이크로와 HPE, IEIT 시스템즈, 레노버는 그 뒤를 이었다. 이처럼 델 테크놀로지스가 시장 우위를 견고히 하고 있는 상황에서 전체 서버 시장의 성장세가 높다는 점은 호재로 작용하고 있다. 지난해 4분기 서버 시장 매출은 전년 동기 대비 91% 증가한 733억 달러를 기록, 2019년 이후 두 번째로 높은 성장률을 보였다. 특히 GPU가 내장된 서버 매출은 전년 동기보다 192.6%나 성장해 전체 서버 시장 매출의 절반 이상을 차지할 정도로 급성장한 모습을 보였다. 엔비디아는 전체 출하량의 90% 이상을 차지하며 서버 GPU 분야에서 독주를 이어갔다. 지난해 전체 서버 시장 규모는 2020년 이후 두 배 이상 성장한 2천357억 달러에 달했다. 엔비디아와 밀접한 관계를 맺고 있는 델 테크놀로지스도 지난해 호실적을 기록했다. 특히 AI 서버 출하액은 98억 달러로, 사업을 시작한 지 2년도 채 안되는 기간에 급속도로 성장한 모습을 보였다. AI 관련 기업 고객 역시 2천 곳 이상을 확보한 상태로, 올해 고객사 수가 더 늘어나 AI 매출이 50% 성장할 것으로 예상됐다. 올해 AI 서버 출하액은 약 150억 달러에 달할 것으로 전망했다. 양 전무는 "지난해 엔비디아 GTC에서 처음 선보인 '델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'를 통해 다양한 솔루션과 제품을 선보이며 엄청난 컴퓨팅 파워를 시장에 공급했다고 자부하고 있다"며 "해외뿐 아니라 국내에서도 AI 시장 수요가 점차 '엔터프라이즈 AI'로 이동하고 있는 만큼 올해도 수요는 더 많아질 것으로 보인다"고 설명했다. 이어 "지난해까진 클라우드 서비스 제공자(CSP), 특히 하이퍼스케일러 또는 코어위브 같은 NCP(NVIDIA Cloud Partner) 업체들이 주축이 돼 시장 성장을 주도했지만, 올해는 더 많은 대기업, 대학, 연구기관 등 다양한 분야에서 수요가 많을 듯 하다"며 "10대 미만~수십대 등 작은 규모에서부터 거대 규모에 이르기까지 서버 규모 면에서도 더 다양해질 듯 하다"고 덧붙였다. 양 전무는 최근 국내에서 sLM(small Language Model), 온프레미스에 AI 서버를 두고 API를 사용해 클라우드 업체가 제공하는 AI 서비스와 연결해 사용하는 활용 사례(Use Case)가 늘어나고 있다는 점도 주목했다. 또 엔비디아 'H100' 위주로 형성된 GPU 시장이 향후 블랙웰, 그레이스블랙웰, AMD, 인텔 등 다양한 실리콘으로 확대될 것으로 봤다. 하지만 국내 고객들이 생성형 AI를 도입, 활용할 때 걸림돌이 많아 아직 시장이 활성화 되지 못했다는 점에 대해선 아쉬워 했다. 양 전무는 "국내에선 생성형 AI 활용 시 거버넌스와 개인정보 보호, 법적 규제 등을 고려해야 해 적절한 데이터를 수집·준비하는 과정에 있어 많은 어려움이 있을 수 있다"며 "생성형 AI를 위한 인프라는 기존 데이터센터 인프라 기술과는 달라 이를 위해 내부 역량을 확보하거나, 외부 전문 인력 채용 등을 함께 추진해야 하는 데 쉽지 않은 것이 현실"이라고 분석했다. 이어 "이에 따라 AI와 관련해 데이터 준비, 전략 수립을 위한 컨설팅, 활용 사례 생성 및 구축 등에 있어 전문 서비스를 활용하는 것이 좀 더 안전하고 체계적일 수 있다"며 "비용 측면에서 고가의 GPU에 투자하거나 퍼블릭 클라우드 서비스 사용 시 높은 운영 비용을 감당하는 데 기업들이 부담을 느끼는 경우가 많다"고 덧붙였다. 이 같은 상황에서 양 전무는 델 테크놀로지스가 좋은 대안이 될 것이라고 강조했다. 또 엔터프라이즈 기업의 경우 생성형 AI를 위해 안정적이며 보안 측면에서 신뢰할 수 있고 관리하기 쉬운 데다 데이터와 가까운 곳에 위치한 고성능의 데이터센터 인프라를 구축해야 한다고 조언했다. 양 전무는 "자사 서버 제품들은 효율화 및 생산성 향상을 위한 라이프사이클 관리의 지능적 설계 및 제어가 가능하다"며 "클라우드 인프라의 대부분의 이점도 온프레미스에서 서비스 형태(As a Service)로 제공할 수 있다"고 설명했다. 그러면서 "'델 AI 솔루션'은 경쟁사들에 비해 AI PC부터 엣지, 코어 데이터센터, 클라우드까지 엔드 투 엔드(End-to-end) AI 솔루션 포트폴리오를 갖추고 있는 데다 자사가 국내외서 스토리지 HW 및 SW 부문 1위 업체로서 데이터 및 데이터 관리에 대해 전 세계에서 가장 잘 알고 있다는 것이 강점"이라며 "코로케이션 및 호스팅 공급업체부터 AI 모델의 기반이 되는 반도체 공급업체에 이르기까지 포괄적인 파트너 생태계 스택을 제공하고 있다는 것도 매력적인 요소"라고 덧붙였다. 또 그는 "엔비디아, 마이크로소프트, 퀄컴, AMD, 허깅페이스, 인텔, 메타, 레드햇 등 광범위한 에코시스템을 통해 협력 관계를 탄탄히 구축하고 있는 것도 장점"이라며 "공장 팩토리 레벨에서 준비된 솔루션을 공급할 수 있도록 엔지니어링 단계에서부터 엔비디아와 협력하고 있다는 것도 우리만의 경쟁력"이라고 강조했다. 이 같은 시스템을 바탕으로 델은 국내 서버 시장에서도 1위 자리를 굳건히 지키고 있다. 특히 서버 자체 기술력, 공급망 관리 능력, 영업 능력, 기술 지원 능력 등을 인정 받아 삼성SDS와 NHN클라우드, 엘리스 등 많은 기업들이 델의 서버를 앞 다퉈 도입하고 있다. 해외에서도 마찬가지다. 델 테크놀로지스에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 삼고 있다. 이에 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있는데 델 테크놀로지스는 다양한 제품 및 시스템 덕에 기업들의 상당한 신뢰를 얻고 있는 것으로 나타났다. 양 전무는 "우리는 업계 최신 기술과 오픈·모듈러 아키텍처를 빠르고 적극적으로 수용해 고객들이 이미 투자한 자산을 보호할 수 있도록 지원하고 있다"며 "새로운 기술이 나왔을 때 기존의 장비·설비에서 손쉽게 업그레이드할 수 있도록 함으로써 기업들이 효율적으로 자사 제품을 활용할 수 있게 도울 것"이라고 밝혔다. 그러면서 "특히 곧 출시될 '델 파워엣지 XE8712' 서버는 고객들이 가장 기대해도 좋을 제품"이라며 "2개의 그레이스 CPU와 4개의 블랙웰 GPU를 통합한 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재해 데이터센터 내 AI 성능을 극대화 함으로써 현존하는 AI 서버 중 가장 빠른 속도로 이용할 수 있을 것"이라고 설명했다. 또 델 테크놀로지스가 AI 데이터 관리 측면에서도 상당한 기술 발전을 이끌어 낼 것이라고 자신했다. 특히 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계된 '델 AI 데이터 팩토리 위드 엔비디아'가 중추적 역할을 할 것으로 봤다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 더불어 델이 AI 소프트웨어 분야에서도 엔비디아와의 협력을 통해 기술 발전을 이끌어 냈다고 강조했다. 특히 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합함으로써 AI를 통해 기업들이 의사 결정을 쉽게 내릴 수 있도록 지원에 나선 점을 피력했다. 양 전무는 "그동안에는 마이크로소프트 등 하이퍼스케일러들이 수십만 장의 GPU를 구매해 파운데이션 모델을 만드는 것이 대세였다면, 작년 말부턴 AI를 어떻게 잘 활용할 수 있을지에 대해 고민을 하는 기업들이 더 많아진 듯 하다"며 "점차 일반 기업들이 실제 비즈니스 도움이 될 수 있도록 AI를 사용하는 사례가 많아지고 있는 만큼, AI 인프라에 대한 시장의 관심도 더 커질 듯 하다"고 말했다. 그러면서 "AI 기술 발전으로 서버 신제품 발표 주기도 2년에 한 번 정도에서 최근에는 엔비디아의 움직임에 맞춰 6개월에 한 번으로 짧아질 정도로 빨라진 상황"이라며 "이에 따른 전력 소비, 냉각 등과 관련된 시스템을 잘 갖춰나가기 위해 노력 중인 만큼 많은 기업들이 우리 제품을 선택할 것으로 기대하고 있다"고 덧붙였다. 또 그는 "특히 국내에선 정부에서 국가 AI 컴퓨팅 센터를 추진하고 있는 만큼 실제 구체적인 사업을 진행할 때 우리 제품을 외면하지는 않을 것으로 보인다"며 "엔비디아뿐 아니라 AMD, 인텔 등 다양한 기업들의 GPU를 제공하며 고객들의 선택지를 많이 넓힌 만큼 '델 AI 팩토리'를 통해 시장 변화에 맞춰 탄력적으로 대응함으로써 시장 주도권을 유지하기 위해 더 노력할 것"이라고 강조했다.

2025.04.07 16:48장유미

엔비디아, 아프리카 최초 AI 데이터센터 건립…"디지털 독립성 강화"

엔비디아와 짐바브웨 기업이 아프리카 지역 개발자들의 GPU 접근성 향상과 디지털 독립성 강화를 위해 아프리카 대륙 최초의 인공지능(AI) 데이터센터 건립을 추진한다. 4일 CNN에 따르면 짐바브웨의 기업 카사바 테크놀로지스를 이끄는 스트라이브 마시위아 회장은 최근 엔비디아와 협력해 아프리카 대륙에 AI 팩토리를 구축한다고 발표했다. 양사 협력으로 오는 6월부터 엔비디아 GPU 기반 슈퍼컴퓨터 시스템이 남아프리카공화국에 위치한 카사바 테크놀로지스의 데이터센터에 배치된 후 이집트·케냐·모로코·나이지리아 등 다른 아프리카 국가 내 시설로도 배포될 예정이다. 현재 아프리카는 컴퓨팅파워 부족으로 전 세계 AI 시장에서 상대적으로 뒤처져 있다는 평가를 받는다. 아프리카 대륙 AI 개발자 커뮤니티인 진디(Zindi)에 따르면 아프리카 AI 실무자 중 5%만이 연구개발을 위한 충분한 컴퓨팅 리소스를 이용할 수 있는 것으로 조사됐다. 또 아프리카의 소득 수준에 비해 하드웨어(HW) 비용이 높다는 점도 AI 도입의 주요 장애물 중 하나다. 이 때문에 아프리카 지역 개발자들은 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트(MS) 애저와 같은 해외 클라우드 서비스에 대한 의존도가 높았다. 문제는 클라우드를 통한 지리적 지역 간 데이터 전송에도 많은 비용이 들고 시간도 오래 걸린다는 점이었다. 또 이같은 기술적 장애물 때문에 아프리카 언어와 방언 등 아프리카를 대표하는 AI 훈련 데이터셋이 부족하거나 편향성을 갖는 경우도 많았다. 이에 카사바 테크놀로지스는 엔비디아 GPU 기반 AI 데이터센터를 중심으로 아프리카 대륙 내 기업과 연구자가 안전한 환경에서 AI를 구축·훈련·확장·배포하는 데 필요한 컴퓨팅 성능에 액세스할 수 있도록 보장한다는 방침이다. 이번 엔비디아와 아프리카 기업 간 협력에 대해 비영리 단체 얼라이언스4AI의 알렉스 차도 이사는 "아프리카에는 대규모 GPU 클러스터가 없어 혁신가들의 발목을 잡고 있다"며 "엔비디아의 이번 발표는 GPU에 대한 접근성을 높여 대륙 전역에서 AI 혁명을 주도하는 데 도움이 될 것"이라고 기대했다. 이어 "이제 아프리카 개발자들은 대륙 내에서 데이터를 수집·처리할 수 있게 됐다"며 "아프리카의 빅테크가 AI 커뮤니티에 합류하고 투자함으로써 인재 양성에도 적극 나설 수 있게 되는 등 생태계 전반의 혁신을 가속화할 것"이라고 덧붙였다. 스트라이브 마시위아 회장은 "자사의 AI 팩토리는 혁신이 확장될 수 있는 인프라를 제공해 아프리카 기업, 스타트업 및 연구원들이 최첨단 AI 인프라에 접근할 수 있도록 지원할 것"이라고 밝혔다.

2025.04.04 15:32한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

'플랫폼≠포식자'…지속 가능한 성장 생태계 절실

K-배터리 ‘자금 총력전’ 돌입…중국 추격 맞선 생존 투자

스벅·투썸·팀홀튼, '커피 전쟁' 격화...소비자 선택은?

4월 반도체 수출 '역대 최대'...D램 가격반등 호재

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현