• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI GPU'통합검색 결과 입니다. (296건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형 기자

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호 기자

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤 기자

팬서레이크 Xe3 GPU, 게임 성능 가속 'XeSS-MFG' 기술 투입

[애리조나(미국)=권봉석 기자] 29일 오후(이하 미국 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우가 10월 말 출시를 앞둔 일인칭시점슈팅(FPS) 게임인 '페인킬러 리바이벌' 시연을 시작했다. "이것은 게임 개발사인 안샤 스튜디오와 협력해 처음 공개하는 시연이다. 팬서레이크로 구동되고 있으며 동기화 기능(V싱크)을 끈 1920×1080 해상도에서 초당 220프레임을 소화한다. 오늘 공개할 신기술을 활용해 이런 성능을 구현했다." 이날 톰 피터슨 펠로우는 팬서레이크 내장 GPU 'Xe3'에서 구동되는 AI 기반 프레임 생성 기술 'XeSS-MFG'와 지능형 전력 제어 시스템 등을 현지에 참여한 기자단에 공개했다. Xe3, 전세대 대비 프레임 생성 지연시간 단축 팬서레이크 내장 GPU인 Xe3는 코어 울트라 200V(루나레이크) 내장 'Xe2' GPU 대비 L1 캐시 33% 확대, L2 캐시 16MB 증설 등으로 클록당 명령어 처리(IPC) 성능을 크게 높였다(관련기사 참조). 톰 피터슨 펠로우는 "그래픽 고정함수 유닛 강화와 벡터 엔진 스레드 확장, 개선된 레이 트레이싱 유닛 덕분에 마이크로 벤치마크에서 최대 50% 이상 성능 향상을 달성했다"고 설명했다. 한 프레임을 구성하는 데 필요한 시간은 전 세대(45ms) 절반 수준인 22ms까지 줄어들었다. 렌더 프리패스 단계에서 2.93ms, L2 캐시 확대로 0.39ms, 레지스터 활용 최적화로 1.63ms를 아껴 같은 시간에 더 많은 프레임을 처리하게 됐다. 게임 체감 성능 최대 네 배 강화 'XeSS-MFG' 공개 2020년 이후 출시된 최신 GPU는 상대적으로 처리 시간이 더 짧은 저해상도 화면을 먼저 그린 다음 AI로 해상도를 높이며 초당 프레임 수를 크게 높인다. 인텔은 이 기술에 XeSS(Xe 슈퍼샘플링)라는 이름을 붙였다. 톰 피터슨 펠로우는 "예전에는 모든 프레임을 GPU가 일일이 그려야 했지만 이제는 AI가 저해상도 이미지를 업스케일(SR)하고, AI 프레임 생성(FG)으로 초당 프레임을 높인다"고 설명했다. 팬서레이크 내장 Xe3는 한 단계 나아가 신기능인 XeSS-MFG(다프레임 생성) 기능을 지원한다. 톰 피터슨 펠로우는 "기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하며 체감상 최대 4배 성능 향상 효과가 있다"고 밝혔다. "게임 로딩 시간 단축·끊김 현상 완화 기술 제공" 게임을 처음 실행할 때 로딩 단계에서 그래픽 데이터를 재구성하는 과정을 겪는다. 데스크톱 PC 대비 성능이 제한된 노트북에서는 실제 게임 실행까지 많은 시간이 걸린다. 톰 피터슨 펠로우는 "인텔이 클라우드를 활용해 필요한 데이터를 미리 구성한 다음 게임을 처음 실행하면 이 데이터를 다운로드해 지연 시간을 줄이는 '사전 컴파일 셰이더'를 제공할 것"이라고 밝혔다. 이어 "CPU와 GPU 부하를 실시간으로 감지해 필요할 경우 GPU에 더 많은 전력을 공급하는 기술인 '인텔리전트 바이어스 컨트롤' v3를 이용해 화면 끊김 현상을 최소화할 예정"이라고 설명했다.

2025.10.09 23:37권봉석 기자

인텔 "팬서레이크 내장 GPU, AI 성능 2배↑"

[애리조나(미국)=권봉석 기자] 인텔은 2011년 '빌트인 비주얼'을 내세우며 프로세서 안에 내장 그래픽칩셋을 탑재하기 시작했다. 이후 2018년부터 자체 개발한 Xe GPU 아키텍처를 이용해 내장 그래픽칩셋과 그래픽카드 등을 시장에 공급하고 있다. 지난 해 코어 울트라 200V(루나레이크)에 탑재된 Xe2 코어 기반 GPU는 기본 성능 강화로 1080p 해상도 게임 성능을 강화했다. 코어 울트라 200V의 AI 연산 성능은 GPU 67 TOPS(1초당 1조 번 연산), 신경망처리장치(NPU)는 48 TOPS에 달한다. 인텔 차세대 모바일(노트북)용 프로세서 '팬서레이크'는 GPU AI 연산 성능을 두 배 가까운 120 TOPS, NPU 연산 성능은 소폭 상승한 50 TOPS로 높였다. 여기에 CPU(10 TOPS)를 더하면 최대 연산 성능은 180 TOPS까지 향상된다. 29일 오전(이하 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장에서 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 "GPU와 NPU 강화는 AI와 에이전틱 워크로드(작업)가 등장하며 변화하는 PC 요구사항을 충족하기 위한 것"이라고 설명했다. Xe3 코어 4개/6개 묶음으로 이원화... 최대 12코어 구성 가능 팬서레이크에 탑재될 내장 GPU는 Xe3 코어 기반이며 코드명 '배틀메이지', '아크 B시리즈'라는 이름으로 출시된다. 코어 울트라 200V에 탑재된 GPU는 Xe2 코어 4개와 레이트레이싱 유닛 4개를 한데 묶은 '렌더 슬라이스(조각)' 2개를 이용해 총 8코어로 구성됐다. 팬서레이크의 렌더 슬라이스는 ▲ Xe3 코어·레이트레이싱 유닛 4개 구성 ▲ Xe3 코어·레이트레이싱 유닛 6개 구성 등 총 두 개로 구성된다. 전자는 8코어 CPU(4P+4E)/16코어 CPU(4P+8E/LP 4E)와 결합되며 4코어 렌더 슬라이스 하나만 이용한다. 후자는 16코어 CPU(4P+8E/LP 4E)와 짝을 이루며 6코어 렌더 슬라이스 2개를 활용해 12코어 GPU를 만든다. Xe3, 처리 가능 데이터에 FP8 추가 Xe3 코어는 512비트 벡터 엔진 8개, AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진 8개로 전세대 Xe3 코어와 차이가 없다. 그러나 데이터를 임시 저장하는 캐시를 33% 늘려 지연 시간과 성능을 향상시켰다. XMX 엔진은 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32 등 자료형을 처리할 수 있다. 여기에 정밀도에는 큰 차이가 없지만 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화를 더했다. AI 연산 성능은 INT8 자료형 기준 최대 120 TOPS다. 전 세대인 코어 울트라 200V 프로세서 성능을 GPU 하나만으로 감당하게 됐다. 전세대 대비 GPU 성능 최대 50% 향상 인텔은 Xe2/Xe3 대상으로 실시한 자체 벤치마크 결과를 토대로 Xe3 GPU의 성능이 전 세대 대비 평균 50% 향상됐고 깊이 쓰기(Depth write) 벤치마크에서는 7배 이상 성능이 높아졌다고 설명했다. 톰 피터슨 펠로우는 "Xe3 GPU의 최대 성능은 루나레이크 대비 50% 높아졌고 애로우레이크H 대비 같은 전력에서 40% 더 높은 성능을 낸다"며 "게임용 고성능 노트북뿐만 아니라 휴대성을 강조한 소형·경량 노트북에서도 GPU 경쟁력을 확보했다"고 설명했다. 인텔은 마이크로소프트와 협력해 윈도 운영체제 그래픽 라이브러리인 다이렉트X 12에 Xe3 GPU의 XMX 연산 능력을 활용하는 '협동 벡터'(Cooperative Vectors)도 도입했다. 행사에서는 이를 활용해 2D 이미지로 3차원 입체를 만드는 'NeRF' 기술도 시연했다. NPU 5는 성능보다 작동 효율 향상에 방점 NPU는 소음 감소나 배경 흐림 등 최대한 전력을 적게 소모하며 상시 구동돼야 하는 작업에 최적화됐다. 팬서레이크에 탑재된 NPU 5도 전 세대 'NPU 4' 대비 연산 효율을 높이는 한편 인텔 18A 공정 적용으로 작동 효율을 높였다. NPU 4는 AI 처리에서 주로 쓰이는 MAC(Multiply–accumulate, 곱셈 가산) 연산과 DSP 처리를 수행하는 뉴럴 컴퓨트 엔진을 6개 탑재해 48 TOPS급 성능을 구현했다. 반면 NPU 5는 뉴럴 컴퓨트 엔진 수를 줄이는 대신 MAC를 처리하는 'MAC 어레이' 크기를 2배로 늘렸다. 톰 피터슨 펠로우는 "NPU 5는 FP16 대비 에너지 소모를 50% 줄이면서 유사한 품질을 얻을 수 있는 FP8(부동소수점 8비트)를 지원해 스테이블 디퓨전 등 생성 AI 작업에 필요한 전력량을 108J(줄)에서 30% 낮은 70J(줄)까지 끌어내렸다"고 설명했다. Xe3 4코어 GPU는 인텔 3 공정서 생산 예정 인텔은 노트북용 프로세서에 탑재되는 대부분의 내장·외장 GPU를 대부분 인텔 파운드리가 아닌 대만 TSMC에서 생산했다. 그러나 팬서레이크부터는 GPU 타일 중 Xe3 4코어 내장 제품을 극자외선(EUV) 기반 자체 공정인 인텔 3(Intel 3)에서 생산 예정이다. 팬서레이크는 레이트레이싱과 그래픽 연산에 필요한 각종 요소를 떼어내 GPU 타일로 분리했다. CPU는 그대로 두고 GPU를 더 강력한 제품으로 교체하는 것도 얼마든지 가능하다. 인텔은 이를 위해 더 강력한 GPU인 'Xe3P'도 준비중이다. 톰 피터슨 펠로우는 "CPU(경량 AI 모델), NPU(저전력 상시구동 윈도11 코파일럿+), GPU(대형언어모델 / 생성 AI) 등 3개 요소를 균형있게 강화해 AI 처리를 최적화하는 것이 인텔 목표"라고 강조했다.

2025.10.09 22:45권봉석 기자

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

젠슨 황 엔비디아 CEO가 최근 오픈AI와 AMD가 체결한 대규모 파트너십에 대해 "기발하지만 놀라운 결정"이라고 평가했다. 오픈AI는 지난 6일(이하 현지시간) AMD와 향후 다년간 수 조원 규모의 GPU 공급 계약을 체결하는 한편 도입 성과에 따라 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)를 확보했다. 양사의 계약은 AI 반도체 시장에서 엔비디아의 절대적인 우위를 위협하는 시도로 평가된다. AMD는 그동안 엔비디아에 뒤처진 AI 칩 경쟁에서 반전을 노려왔으며, 주요 클라우드 사업자들도 자체 칩 개발로 경쟁 구도를 강화하고 있다. 젠슨 황 CEO는 8일 CNBC 인터뷰에서 "AMD의 차세대 제품은 아직 완성되기 이전의 제품이지만 이런 상황에서 회사 지분의 10%를 내줬다는 것이 놀랍다"며 "양사의 발상은 독창적이고 한편으로 영리하다"고 평가했다. 젠슨 황 CEO는 인터뷰에서 "오픈AI 관련 투자에서 남는 유일한 아쉬움은 더 많은 금액을 투자하지 못했던 것"이라고 말했다. 젠슨 황 CEO는 이어 지난 9월 말 오픈AI에 향후 10년간 최대 1천억 달러(약 137조원)를 투자하기로 한 계약을 예로 들며 "엔비디아의 투자는 오픈AI에 직접 판매할 수 있는 완전히 다른 방식"이라고 설명했다. 오픈AI는 엔비디아 GPU를 활용한 전력소모 10GW(기가와트) 규모 시스템을 구축할 예정이다. 젠슨 황 CEO는 "이는 최대 500만개의 GPU를 활용하는 수준이며 오픈AI가 GPU 구매를 위한 자금을 유상증자나 융자로 조달할 것"이라고 말했다. 한편 그는 이날 일론 머스크의 인공지능 스타트업 xAI의 자금 조달에도 엔비디아가 참여해 20억 달러(약 2조 8천434억원)를 투자할 것이라고 확인했다. 젠슨 황 CEO는 "이번 기회를 매우 기대하고 있으며 일론 머스크의 사업에는 대부분 동참하고 싶다"고 밝혔다.

2025.10.09 09:44권봉석 기자

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

인공지능(AI) 반도체 선두 주자인 엔비디아가 주도하는 HBM(고대역폭 메모리) 공급망에 균열이 발생하고 있다. 글로벌 빅테크들이 자체 AI 반도체 개발에 주력하는 가운데 챗GPT 개발사인 오픈AI도 최근 삼성전자·SK하이닉스와 중장기적 협력을 발표했다. 이에 따라 이들 메모리 기업의 HBM 시장 확장은 물론 가격 협상력도 동시에 높아질 것으로 기대된다. 9일 업계에 따르면 삼성전자, SK하이닉스 등 주요 메모리 기업들은 중장기적으로 HBM 고객사 다변화를 추진할 계획이다. HBM 시장은 AI 반도체 최대 기업인 엔비디아가 핵심 고객사로 자리해 왔다. 그러나 엔비디아 칩의 독과점 및 높은 구매비용으로 인해 전 세계 빅테크 기업들은 최근 자체 AI ASIC(주문형반도체) 개발을 적극 추진하고 있는 추세다. 구글과 메타, 아마존웹서비스(AWS), 화웨이 등이 대표적인 사례다. 시장조사업체 욜디벨롭먼트의 최근 분석에 따르면 AI ASIC 시장은 지난해 90억 달러에서 오는 2030년 850억 달러로 연평균 45%의 성장률을 보일 것으로 전망된다. 욜디벨롭먼트는 "현재 AI칩 시장은 GPU가 주도하고 있지만, AI AISC이 전략적 대안으로 부상하고 있다"며 "AI칩 업계 중 가장 빠르게 성장하는 분야가 될 것"이라고 설명했다. 오픈AI도 최근 대형 HBM 고객사로 부상하고 있다. 오픈AI는 최첨단 파운드리인 3나노미터(nm) 공정 기반의 자체 AI 반도체 개발을 추진 중인 것으로 알려졌다. 칩 설계는 브로드컴과 양산은 TSMC와 협력하는 구조다. 이와 관련 샘 알트만 오픈AI 대표는 지난 1일 이재용 삼성전자 회장, 최태원 SK 회장 등과 잇따라 만나 메모리(HBM) 공급과 관련한 LOI(의향서)를 체결한 바 있다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 웨이퍼 기준 최대 월 90만장에 달하는 고성능 D램 공급량을 요구한 것으로 알려졌다. 업계가 추산하는 삼성전자·SK하이닉스의 D램 생산능력 합계가 월 120만장 수준이라는 점을 고려하면 막대한 규모다. 고성능 D램에는 HBM과 첨단 공정 기반의 서버용 D램, 저전력 D램(LPDDR), HBM 등이 포함될 것으로 관측된다. 빅테크 기업들의 이 같은 탈(脫) 엔비디아 전략은 삼성전자, SK하이닉스 등 메모리 기업들에게는 기회로 작용할 전망이다. HBM 시장 자체가 커질 뿐만 아니라, 고객사 다변화를 통해 가격 협상력에서 유리한 위치를 점할 수 있기 때문이다. 반도체 업계 관계자는 "오픈AI가 삼성전자, SK하이닉스와 중장기적인 협력을 논의한 만큼 HBM4E 시장부터는 시장 구도에 변화가 예상된다"며 "엔비디아도 구매 비중이 축소되면서 이전만큼 HBM에 대한 단가 인하 압박을 요구하지는 못하게 될 것"이라고 설명했다.

2025.10.09 09:17장경윤 기자

오픈AI, AMD GPU 대규모 도입키로...엔비디아 독주 저지

오픈AI가 AMD과 수조원 규모의 GPU 공급 계약을 체결했다. AMD 지분 10% 매입 옵션이 포함된 초대형 계약으로, AMD 주가는 약 24% 뛰어올랐다. 필라델피아 반도체지수 역시 3% 넘게 급등했다. 6일(현지시간) 오픈AI는 수년에 걸쳐 AMD의 인스팅트(Instinct) MI450 GPU를 총 6기가와트(GW) 규모로 도입한다고 밝혔다. Instinct MI450은 차세대 AMD GPU 제품으로 내년 하반기부터 오픈AI에 공급이 시작될 예정이다. 사실상 엔비디아가 AI GPU 시장에서 독주하고 있는 가운데, AMD가 오픈AI와 협력을 통해 새로운 경쟁 구도를 갖춘 점이 눈길을 끄는 부분이다. 특히 오픈AI가 AI 컴퓨팅 인프라 확장에 나서면서 프로세서 공급망 다변화에 나선 결정이란 점이 주목할 점이다. 오픈AI는 성과에 따라 AMD 보통주 최대 1억6천만 주를 단계적으로 매입하는 권리를 갖게 되며, 이는 AMD 총 지분의 약 10% 수준으로 예상된다. AMD의 리사 수 CEO는 “이번 파트저십은 AMD와 오픈AI의 강점을 결합해 세계에서 가장 야심 찬 AI 구축을 가능하게 하고 AI 생태계를 발전시키는 진정한 윈윈 협력”이라고 말했다. 샘 알트먼 오픈AI 공동 창립자 겸 CEO “협약은 AI의 잠재력을 실현하기 위해 필요한 컴퓨팅 역량을 확보하는 중대한 단계”라며 “AMD의 고성능 칩 기술은 우리가 AI 발전 속도를 높이고 더 많은 사람에게 첨단 AI의 혜택을 빠르게 제공할 수 있도록 도와줄 것”이라고 밝혔다.

2025.10.07 08:38박수형 기자

래블업, GPU 효율 4배 높인 '백엔드 AI'로 AI 대중화에 앞장

“래블업(Lablup)은 AI의 민주화가 목표입니다.” 래블업 관계자는 1일 서울 삼성동 코엑스에서 열린 과학기술정보통신부 공식 AI 주간 'AI페스타 2025'에서 “AI 개발을 힘들어하는 분들이 좀 더 편한 환경에서 누구나 AI를 쓰실 수 있도록 AI의 장벽을 낮출 것”이라며 이같이 밝혔다. 래블업은 랩(Lab)과 업그레이드(Upgrade)의 합성어로, 연구와 업그레이드를 잇는다는 뜻을 담았다. 회사가 지난 2015년 창업 이후 집중해 온 지점은 'AI 접근성'이다. 10년이 지난 오늘날, 오늘날 단순한 툴 제공을 넘어 GPU, NPU 등 대규모 자원을 효율적으로 활용 할 수 있는 백엔드 AI 오케스트레이션 플랫폼으로 입지를 넓혀가고 있다. “백엔드 닷 AI, 엔비디아 대비 GPU 자원 래블업의 핵심 플랫폼은 '백엔드 닷 AI(Backend.AI)'다. 연구자와 기업이 복잡한 설정 없이도 대규모 GPU 자원을 쉽게 띄워 학습과 추론을 실행할 수 있도록 지원한다. 특히 자체 개발한 '슈퍼바이저' 오케스트레이터를 통해 쿠버네티스 대비 오버헤드를 1/4 수준으로 줄였다. “AI 개발 돕는다”...온프레미스 환경에 적합 래블업은 AI 개발 중 반복되는 불편을 줄이기 위한 기능도 제공한다. 먼저 빨리(PALI)는 모델 이름만 입력하면 GPU에 자동 배포돼 즉시 API 엔드포인트(URL)를 제공한다. 연구자나 개발자가 별도의 서버 세팅 없이 오픈AI API처럼 바로 활용할 수 있는 구조다. 패스트트랙(FastTrack)의 경우 데이터 전처리→학습→평가 과정을 드래그앤드롭 방식으로 자동 실행한다. 사용자는 학습 코드 작성에만 집중하고, 반복되는 환경 설정은 플랫폼이 대신 처리한다. 래블업의 플랫폼은 온프레미스 환경에 적합하다. 금융사, 정부기관, 대기업처럼 민감한 데이터를 외부로 유출할 수 없는 기관들이 주요 고객층이다. 실제로 금융사와 통신사 일부가 래블업의 기술을 채용해 AI를 운영하고 있다. 회사는 엔비디아 GPU뿐 아니라 국산 NPU 등 다양한 칩도 지원한다. 래블업 관계자는 “새로운 칩이 나오면 직접 테스트해 지원을 늘려가고 있다”며 “국산 반도체 기업들과의 협업을 적극 추진하고 있다”고 말했다.

2025.10.01 17:06전화평 기자

엘리스그룹, 기업 전용 B2B AI 솔루션 'AI FESTA 2025'서 전시

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)이 10월 2일까지 서울 삼성동 코엑스A홀에서 개최되는 국내 최대 인공지능 전시회 'AI 페스타 2025'에 참가한다. 과학기술정보통신부가 주최하는 AI 페스타 2025에는 글로벌 빅테크를 비롯해 국내 대표 AI 기업 203개가 참여해 부스를 꾸리고, AI 산업 생태계 비전과 협력을 제시한다. 엘리스그룹은 이번 전시회에서 AI 클라우드 인프라부터 AI 교육까지 아우르는 엘리스그룹의 기업 전용 B2B AI 솔루션 전반을 소개한다. 엘리스그룹 부스에서는 올 하반기 새롭게 선보인 엘리스클라우드의 AI 전용 서비스형 인프라(IaaS) 'ECI' 체험을 운영할 예정이다. ECI는 고성능 GPU 인프라 자원을 효율적으로 분배하고, 스케줄링 할 수 있는 가상머신(VM) 기반 플랫폼이다. 또 기업∙기관 고객을 위한 생성형 AI 솔루션 'AI헬피챗' 현장 체험 이벤트도 진행된다. AI헬피챗은 최신 생성형 AI 모델은 물론, PPT 제작과 이미지 생성, 딥 리서치까지 다양한 AI 기능을 하나의 플랫폼에서 사용할 수 있다. 체험이 진행되는 ECI와 AI헬피챗을 비롯해 엘리스그룹의 모든 B2B AI 솔루션은 클라우드 서비스 보안인증인 CSAP IaaS과 정보보안 국제인증인 ISO27701∙27001을 획득한 엘리스클라우드 위에서 작동해 안전한 보안 환경을 갖췄다. 민감 정보를 다루는 학교, 기업, 공공기관 어디에서나 보안에 대한 우려 없이 사용할 수 있다. 김재원 엘리스그룹 대표는 “1만여 개 이상의 AI 교육 고객과 4천 곳 이상의 AI 클라우드 고객의 목소리를 들었을 때, 많은 고객 기관들이 AI 전환에 우려하는 것은 내부 민감 데이터의 보안이었다”며 “안전한 AI 클라우드 인프라 환경을 구축하고, AI 인프라 자원부터 AI 교육까지 유기적으로 연계해 제공하는 엔드 투 엔드 AI 솔루션으로 기업과 기관이 체감할 수 있는 안전한 AX를 선보이겠다”고 말했다.

2025.10.01 09:17백봉삼 기자

퀄컴, '동급 최고 성능' CPU로 PC용 프로세서 시장 뚫는다

퀄컴이 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 모바일 컴퓨팅용 SoC(시스템온칩)인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'를 공개했다. 이번 신규 프로세서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작이다. 내년 상반기에 출시되는 프리미엄 노트북, 태블릿 PC 등에서 탑재될 것으로 알려졌다. 공정은 3나노 공정을 채택했다. 울트라 프리미엄 PC를 위해 설계된 스냅드래곤 X2 엘리트 익스트림은 퀄컴이 자체 설계한 3세대 오라이온 CPU를 탑재했다. 코어 수는 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개다. 해당 CPU는 윈도우에서 가장 빠르고 전력 효율이 뛰어난 성능을 제공하며, 이는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 수준이다. 또한 새로운 퀄컴 아드레노 GPU 아키텍처는 이전 세대 대비 2.3배 높아진 와트당 성능 및 전력 효율을 지원한다. 퀄컴 헥사곤 NPU는 세계에서 가장 빠른 노트북용 NPU인 80 TOPS의 AI 처리 성능을 지원해, 코파일럿 플러스(Copilot+) PC에서 여러 AI 작업을 동시에 처리하는 강력한 경험을 구현한다. 스냅드래곤 X2 엘리트는 프리미엄 PC에서 생산성, 창의성, 엔터테인먼트등 고사양 작업 전반에 걸쳐 강력하고 효율적인 멀티태스킹을 구현한다. 스냅드래곤 X2 엘리트는 ISO 전력 조건에서 최대 31% 더 빠른 속도를 구현하며, 이전 세대 대비 전력 소모를 최대 43% 줄였다. 또한 80 TOPS NPU로 코파일럿+ 및 동시 AI 경험을 처리하도록 설계됐다. 사용자는 이러한 기능을 충전기 없이도 얇고 가벼운 디자인에서 활용할 수 있다. 케다르 콘답(Kedar Kondap), 퀄컴 수석 부사장 겸 컴퓨팅 및 게이밍 부문 본부장은 “스냅드래곤 X2 엘리트는 PC 산업에서의 퀄컴의 리더십을 강화하며, 사용자들이 당연히 누려야 할 경험을 구현하는 성능, AI 처리, 배터리 수명에서 획기적인 도약을 보여준다”며 “퀄컴은 기술 혁신의 한계를 끊임없이 뛰어넘고, 새로운 업계 표준을 제시하는 획기적인 제품을 선보여 PC의 가능성을 재정의해 나가고 있다”고 말했다.

2025.09.25 05:30장경윤 기자

"AI는 클라우드 위에서 실현"…빅테크가 그린 미래 청사진은

인공지능(AI) 시대가 본격화되는 가운데 산업계가 클라우드 없이는 AI도 존재할 수 없다고 입을 모았다. 막대한 연산 자원과 안정적인 인프라를 요구하는 AI가 제대로 작동하려면 클라우드라는 기반 위에서만 가능하다는 공통된 목소리다. 한국클라우드산업협회는 24일 서울 양재 엘타워에서 '클라우드 빅테크 2025'를 개최했다. 이번 행사는 AI와 클라우드의 상호 의존적 관계를 조명하며 글로벌 빅테크와 국내 기업들이 제시하는 혁신 사례를 공유하는 자리로 마련됐다. 최지웅 한국클라우드산업협회장은 개회사를 통해 "클라우드 없이는 AI가 불가능하다"며 '그래픽처리장치(GPU) 공유 서비스나 AI 네이티브 정책 역시 결국 클라우드 기반 위에서 작동해야 한다"고 강조했다. 이어 한국클라우드산업협회가 국가 디지털 경쟁력을 좌우하는 AI·클라우드 융합 생태계 조성에 앞장서겠다는 의지를 밝혔다. 국회 과학기술정보방송통신위원회 최형두 의원은 영상 축사를 통해 AI·클라우드 혁신을 위한 공공·민간의 공동 해법 모색 필요성을 언급하며 정책적·제도적 지원을 아끼지 않겠다고 약속했다. 첫 기조연설에 나선 KT클라우드 감철웅 상무는 '함께 만드는 AI 시장'을 주제로 AI 산업의 현실과 과제를 짚었다. 그는 디지털 전환(DX)에서 AI 전환(AX)으로 산업계 패러다임이 옮겨가는 가운데 우리나라 AI 생태계 활성화를 위한 기업 간 협력의 중요성을 강조했다. 아울러 협력 체계를 기반으로 한 KT클라우드의 'AI 파운드리'와 '검색증강생성(RAG) 스위트', 버티컬 산업 특화 애플리케이션, 마켓플레이스를 통한 AI SaaS 확산 전략 등을 공유했다. 감 상무는 "국내 AI 밸류체인을 튼튼히 구축해야 한국 AI 산업이 성장할 수 있다"고 말했다. 두 번째 연사인 네이버클라우드 유경범 상무는 '초거대 AI 시대의 인프라 진화'를 주제로 소버린 AI 전략과 중요성에 대해 발표했다. 그는 미국의 'AI 액션플랜'을 소개하며 "생성형 AI 확산 속에서 연산 자원 확보와 데이터센터 운영 역량이 국가 경쟁력을 좌우할 것"이라고 진단했다. 이와 관련해 유 상무는 네이버클라우드 자체 거대언어모델(LLM) '하이퍼클로바X'를 중심으로 데이터센터와 GPU 인프라를 확장하고 사우디아라비아·태국 등과 협력해 현지 맞춤형 AI와 공공 서비스를 구축하는 사례를 공유했다. 특히 고객의 문제를 해결하기 위한 턴키 방식 솔루션과 한국수력원자력·한국은행의 프라이빗 클라우드 기반 AI 구축 등의 공공 맞춤형 AX 사례를 발표했다. 유 상무는 "국내 소버린 AI 생태계 활성화를 위해 다양한 기업·기관과 파트너십을 확대할 것"이라고 밝혔다. 마지막으로 아마존웹서비스(AWS) 김경윤 솔루션즈아키텍트 매니저는 '글로벌 혁신을 이끄는 AI·클라우드'를 주제로 발표했다. 그는 AI 인재 양성·인프라·데이터·에이전트 기술 등 AWS AI 스택의 전방위 전략을 소개하며 산업과 사회 전반의 AX 지원 활동을 공유했다. 김 매니저는 "AI는 단일 기술이 아니라 산업과 사회의 문제를 풀어내는 생태계적 접근이 필요하다"며 "우리는 다양한 모델·칩·데이터 플랫폼을 통해 고객들이 상황에 맞는 선택을 할 수 있도록 지원할 것"이라고 설명했다.

2025.09.24 14:19한정호 기자

샘 알트먼, '고비용 AI' 승부수…지능의 대중화 꿈 잠시 접나

오픈AI가 막대한 컴퓨팅 파워를 앞세운 차세대 인공지능(AI) 서비스 유료 모델 실험에 본격 돌입한다. 22일 비즈니스 인사이더에 따르면 샘 알트만 오픈AI 최고경영자(CEO)는 소셜미디어 X를 통해 새로운 '컴퓨팅 집약적 제품' 출시 계획을 밝혔다. 그는 일부 기능은 유료 구독자인 '프로' 이용자에게 먼저 공개하고 일부 신제품에는 추가 요금을 부과할 것이라고 예고했다. 이번 조치는 AI 인프라를 한계까지 밀어붙이는 기술적 실험의 성격을 띤다. 오픈AI는 현재 모델 비용으로 대규모 컴퓨팅 자원을 투입했을 때 어떤 혁신이 가능한지 확인하겠다는 구상이다. 단기적인 유료화 실험과 별개로 오픈AI의 장기 목표는 분명하다. 지능의 비용을 최대한 공격적으로 낮춰 AI 서비스를 대중화하는 것이다. 이번 발표의 배경에는 업계 전반의 극심한 그래픽처리장치(GPU) 확보 경쟁이 있다. 오픈AI를 비롯한 빅테크 기업들은 AI 모델 고도화를 위해 컴퓨팅 파워 확보에 사활을 걸고 있다. 실제로 일론 머스크의 xAI는 AI 모델 '그록4' 훈련에 20만 개가 넘는 GPU를 사용했다고 밝힌 바 있다. 마크 저커버그 메타 CEO 역시 '연구원 1인당 컴퓨팅 파워'를 경쟁 우위로 삼겠다며 GPU 투자에 공격적으로 나서고 있다. 케빈 웨일 오픈AI 최고제품책임자(CPO)는 "우리가 많은 GPU를 확보할수록 우리 모두는 보다 많은 AI를 사용하게 될 것"이라며 "GPU를 추가로 확보하는 족족 즉시 사용하고 있다"고 말했다.

2025.09.22 17:32조이환 기자

정명수 파네시아 "한국형 CXL 기반 '판 링크'로 AI 인프라 혁신"

[대전=전화평 기자] "파네시아(Panmnesia)는 CXL(컴퓨트익스프레스링크)로부터 시작해서 한국형 종합 링크 기술을 만드는 걸 목표로 하고 있습니다." 정명수 파네시아 대표는 지디넷코리아와의 인터뷰에서 "AI 장치 및 가속기 간 연결은 결국 링크가 포인트인데 한국은 연결 반도체 기술이 없다"며 이 같이 말했다. 파네시아는 차세대 AI 인프라를 위한 링크 솔루션을 개발하는 시스템 반도체 스타트업으로, 지난 2022년 설립됐다. 회사는 차세대 인터페이스로 주목되는 CXL을 베이스로 AI 인프라 최적화를 위한 솔루션을 개발하고 있다. 파네시아, 한국형 연결 기술 '판 링크'로 AI 인프라 구축한다 파네시아가 제안한 한국형 연결 기술인 '판 링크(PanLink)'는 대규모 AI를 위한 풀스택 인프라 솔루션이다. 회사의 고도화된 링크 기술의 집약체로 IP(설계자산)부터 하드웨어, 소프트웨어 시스템까지 포괄해 AI 인프라 구축 확장을 돕는다. 이 과정에서 네트워크 연결 없이 1천개 이상의 가속기나 메모리 장치들을 한꺼번에 연결할 수 있다. 정 대표는 "판 링크는 파네시아 링크의 줄임말"이라며 "대규모 AI 모델을 처리하는 과정에서 GPU, 그리고 가속 시스템 장치들 간 빈번하게 발생하는 데이터 교환을 최적화하는 하드웨어와 소프트웨어 스택을 제공한다"고 설명했다. 그러면서 "초대규모 AI 응용을 처리함에 있어 저지연·고대역폭을 달성할 수 있다"고 덧붙였다. 파네시아가 한국형 링크 기술인 판 링크를 제안한 배경에는 AI 인프라 시장의 확장성 제한에 있다. 현재 시장 주류 기술인 대형 스케일 구조는 GPU 간 확장성에 제한되고, 병렬 처리 과정에서 병목이 발생한다. 이를 해결하기 위해서는 CPU, GPU, 메모리 간 연결이 자유로운 구조가 필요하다. 정 대표는 판 링크를 통해 가속기 링크와 차세대 링크들을 통합하는 '하이브리드 링크 아키텍처' 방식도 제안했다. 이 아키텍처는 NV링크(NVLInk), UA링크(UALink) 등으로 연결된 시스템을 CXL 스위치로 연결한다. 하이퍼스케일러 위주로 전환된 시장 변화에 대해서도 강조했다. 현재 전 세계에서 진정한 의미의 하이퍼스케일러라고 할 수 있는 클라우드와 데이터센터 업체는 아마존, 구글, 마이크로소프트, 메타까지 총 4개에 불과하다. 하이퍼스케일러는 방대하고 유연하게 컴퓨팅 인프라를 확장할 수 있는 아키텍처나 역량을 갖춘 거대 클라우드 및 데이터센터 서비스 제공업체를 뜻한다. 일반적인 서버 업체는 개별 서버나 작은 규모의 호스팅 서비스를 제공하는 반면, 하이퍼스케일러는 수십만 대의 서버를 운영하며 방대한 클라우드 인프라를 구축하는 것이다. 정 대표는 "반도체 업체는 셀 수 없는 많은 양의 대중이 고객으로 있다가 아주 똑똑한 하이퍼스케일러 4명 밖에 없는 상황으로 바뀌게 됐다"며 "마켓 자체가 달라진 것"이라고 말했다. 이어 "대부분의 반도체 뿐만 아니라 연결 기술에 대해 얘기를 할 때도 하이퍼스케일러가 나올 수 밖에 없는 이유"라고 덧붙였다. CXL, 다음 시장은 차량용...로보틱스에도 적용 가능 AI 시대로 패러다임이 전환되며 서버의 속도는 경쟁력과 직결되기 시작했다. CPU, GPU, 메모리 간 데이터 전송 속도를 획기적으로 높여주는 CXL이 서버를 중심으로 시장이 확장되는 이유다. 다만 그간 CXL은 서버 외 시장에서는 외면 받아왔다. PC, 모바일 등 소형 기기에는 추가 비용 대비 효율이 좋지 않은 탓이다. 아울러 CXL을 활용하기 위한 하드웨어 추가 비용 역시 간과할 수 없다. 정 대표는 지금까지 서버 시장 안에 갇혀 있던 CXL이 차량용으로도 가능하다고 전했다. 그는 "자동차는 기본적으로 장거리 네트워크를 제거하면서도 운전 중 취합되는 개인 정보의 보안을 철저히 지킬 수 있는 링크가 필요하다"며 "차량에서도 소프트웨어를 최대한 배제하면서 검증이 가능하고 에러가 적은 수준으로 만드는 링크 기술이 포함될 수 있다"고 말했다. 해당 기술은 로보틱스에서도 활용 가능하다. 기본적으로 자율주행 등 차량용 칩은 로봇에 탑재되는 칩과 유사한 형태를 띈다. 자동차용 칩은 결국 로봇에도 탑재 가능한 셈이다. 정 대표는 "로봇이나 우리가 피지컬 AI라고 부르는 것들에 (CXL이) 들어갈 수 있다"며 "작은 로보틱스 안에서 뭔가 계산을 한 다음에 서로 간에 교환을 해야 하는 상황에서 캐시일관성 규칙에 따라 데이터 이동이 없는 CXL을 활용하여 저전력·고효율의 시스템을 구축할 수 있다"고 설명했다. "젊은 엔지니어 많아져야...같이 하는 사람들의 성공을 만드는 게 중요" 정 대표는 파네시아를 통해 젊은 엔지니어들과 경험을 공유할 수 있는 환경을 만드는 게 목표라고 말한다. 그는 "다른 영역과 달리 반도체는 돈이 천문적으로 많이 들어가는 일"이라며 "원가 비용이 몇 천억원인 경우도 많다. 리스크가 크다 보니 사실 기회의 공유가 젊은 분들에게 잘 일어나지 않으며 지역 편차가 매우 크다"고 밝혔다. 파네시아는 반도체 업체로는 유일하게 서울에 팹리스 오피스 그리고 대전에 실리콘 연구·설계 오피스들을 모두 운영하고 있다. 이 중 대전을 중심으로 실리콘 인력을 대거 확충함에 따라 국내에서 하나 뿐인 지방 중심의 반도체 디자인하우스 모델을 만들고 있다. 이를 통해 중앙-지방간 균형 뿐만 아니라 고비용으로 인한 반도체 개발 경험의 기회가 부재한 젊은 엔지니어들을 많이 뽑고 육성하는데 최선을 다하고 있다. 정 대표는 "비경험자(젊은 엔지니어)가 경험자가 될 수 있도록 만들어 주는 것이 파네시아가 가지고 있는 중요한 역할"이라며 "지역 균형 발전과 더불어 아직 경험이 부족한 젊은 엔지니어들에게 기회를 제공하고, 함께하는 모든 이들의 성공을 이루고 싶다"고 포부를 전했다.

2025.09.20 14:21전화평 기자

카카오엔터프라이즈, '하이브리드 GPUaaS' 공개…AI 인프라 장벽 넘는다

인공지능(AI) 확산이 본격화되면서 그래픽처리장치(GPU) 인프라 확보와 비용 최적화가 기업들의 핵심 과제로 떠오른 가운데, 카카오엔터프라이즈가 클라우드와 온프레미스의 장점을 결합한 새로운 형태의 GPU 인프라 서비스를 공개했다. 카카오엔터프라이즈는 17일 서울 강남구 코엑스에서 열린 '델 테크놀로지스 포럼 2025'에서 고성능 AI 인프라를 도입하는 새로운 기준인 '하이브리드 서비스형 GPU(GPUaaS)'를 선보였다. 카카오엔터프라이즈 클라우드부문 이재한 사업본부장은 "글로벌 AI 시장이 급격히 성장하면서 GPU 수요가 폭발적으로 늘고 있지만 막대한 비용 부담이 AI 확산의 큰 장벽으로 작용하고 있다"며 이를 해결하기 위한 대안으로 하이브리드 GPUaaS 서비스를 제안했다. 그는 "기업·기관 고객이 하이브리드 GPUaaS를 통해 클라우드와 온프레미스의 장점만을 결합해 고성능 AI 인프라를 신속하게 도입·운영할 수 있다"며 "이를 통해 ▲GPU 구매·구축 비용 효율화 ▲GPU 클러스터·인프라 통합 관리 ▲GPU 리소스의 유연한 확장과 안정적 운영 등 다양한 이점을 누릴 수 있다"고 설명했다. 하이브리드 GPUaaS는 고객이 카카오클라우드를 통해 GPU 서버를 도입하면 카카오클라우드 데이터센터 내에서 이를 운영·관리해 주는 방식이다. 고객은 GPU를 직접 소유하면서도 클라우드의 확장성과 편의성을 동시에 누릴 수 있다. 이 본부장은 "온프레미스의 최적화된 성능과 클라우드의 유연성을 결합한 AI 인프라 운영의 새로운 개념"이라고 강조했다. 카카오엔터프라이즈는 이날 행사에서 GPU 인프라 최적화에 필요한 핵심 고려 요소로 ▲비용·투자 구조 ▲GPU 사용 기간 ▲유연성·확장성 ▲운영·관리 역량을 꼽았다. 특히 GPU 사용량 변동이 크거나 최신 GPU 도입 속도가 중요한 기업에는 GPUaaS 모델이 적합하며 장기적·고정적 수요가 있는 기업은 온프레미스 방식이 유리하다고 분석했다. 하이브리드 GPUaaS는 이 두 환경의 장점을 결합해 최적의 해법을 제공한다는 설명이다. 아울러 델 서버·스토리지 기반 구축 사례를 소개하며 복잡한 AI 워크로드에서도 일반 GPUaaS 대비 최대 33%, 온프레미스 대비 약 11%의 비용 절감 효과를 확인했다고 밝혔다. 이날 세션 발표 외에도 카카오엔터프라이즈는 카카오클라우드의 하이브리드 GPUaaS를 소개하는 전시 부스를 마련했다. 하이브리드 GPUaaS 도입에 관심이 있는 기업·기관을 대상으로 부스 방문 이벤트와 카카오클라우드 하이브리드 GPUaaS 도입 설문 이벤트 등 다양한 행사를 진행했다. 이 본부장은 "카카오클라우드의 하이브리드 GPUaaS는 GPU 인프라를 한층 더 효율적이고 유연하게 운영할 수 있도록 온프레미스의 최적화 강점과 클라우드의 안정성·편의성을 완벽하게 조합한 혁신적인 엔터프라이즈 솔루션"이라며 "AI 인프라 운영의 새로운 패러다임이 될 것”이라고 강조했다.

2025.09.17 17:04한정호 기자

카카오엔터프라이즈, 신무기 '하이브리드 GPUaaS' 출시…AI 인프라 시장 정조준

카카오엔터프라이즈가 클라우드와 온프레미스의 장점만을 결합한 새로운 고성능 그래픽처리장치(GPU) 공유 서비스를 앞세워 시장 선도에 나선다. 카카오엔터프라이즈는 기업과 기관 고객이 효율·안정·확장성에 대한 부담 없이 대규모 GPU를 원활하게 도입해 활용할 수 있도록 돕는 '하이브리드 서비스형 GPU(GPUaaS)'를 출시했다고 11일 밝혔다. 카카오클라우드의 하이브리드 GPUaaS는 최신 고사양 GPU 구매부터 데이터센터·전력·통합·관리·확장 등에 이르는 인공지능(AI) 인프라 도입 과정을 카카오클라우드 플랫폼으로 통합해 제공하는 엔터프라이즈 솔루션이다. 기업·기관 고객은 하이브리드 GPUaaS를 통해 ▲GPU 구매 및 구축 비용 효율화 ▲GPU 클러스터 및 인프라 통합·관리 ▲GPU 리소스의 유연한 확장 및 안정적 운영 등의 이점을 누릴 수 있다. 카카오클라우드는 데이터센터 상면부터 전력·냉각·고성능 네트워크·소프트웨어(SW) 설치까지 GPU 클러스터 구축에 필요한 전 과정을 담당한다. 또 기업·기관 고객이 더욱 합리적인 비용으로 최신 고사양 GPU를 자산화할 수 있도록 지원하며 구축 기간을 대폭 단축시켜 필요한 시점에 AI 인프라를 제공한다. 하이브리드 GPUaaS를 통해 GPU 운영에 필수적으로 수반되는 전력·냉각·보안·전문 인력 확보 등 숨겨진 비용 요소를 최소화해 운영 효율성을 높일 수 있다는 설명이다. 아울러 표준화·안정성이 입증된 장비와 구성을 기반으로 시행착오를 줄이고 안정적으로 AI 인프라 도입이 가능하다. 카카오클라우드 플랫폼에서 GPU 클러스터 및 IT 인프라를 통합·관리할 수 있으며 AI 서비스 개발을 위해 다양한 서비스형 플랫폼(PaaS)과 서비스형 소프트웨어(SaaS)도 활용할 수 있다. 또 추가 GPU가 필요하거나 새로운 유형의 차세대 GPU가 필요한 경우에는 카카오클라우드 GPUaaS를 활용할 수 있고 GPU 클러스터 확장이 필요할 경우에는 카카오클라우드의 GPU를 신속히 연계해 유연한 확장을 지원한다. 보안 관리와 24시간 상시 모니터링 등 기술 전문 인력의 지원을 통해 안정성과 가용성도 확보할 수 있다. 카카오엔터프라이즈는 전문 인력이 통합·관리하는 하이브리드 GPUaaS 서비스를 확산해 전력과 GPU 수급에 대한 문제를 겪는 대학·연구기관·기업의 AI 연구 개발을 지원할 방침이다. 카카오엔터프라이즈 이용민 클라우드부문장은 "AI 연구 개발 수요 급증으로 고성능 GPU 인프라 수요도 늘고 있지만 데이터센터 상면·전력·냉각 설비·전문 인력 부족으로 GPU 도입에 제약이 있는 것이 현실"이라며 "카카오클라우드의 하이브리드 GPUaaS는 복잡한 장비 투자와 운영 부담을 줄이고 기업과 기관 고객이 고성능 GPU 인프라의 이점에 집중할 수 있도록 지원한다"고 강조했다.

2025.09.11 18:16한정호 기자

"한 곳만 참여해도 유찰 없다"…국가AI컴퓨팅센터 신속 추진

정부가 '국가인공지능(AI)컴퓨팅센터' 3차 공모의 그래픽처리장치(GPU) 확보 규모, 국산 AI 반도체 협력, 평가 방식 등 주요 쟁점에 대한 구체적인 계획을 제시하며 민간 참여를 독려했다. 특히 이번 공모는 국가 AI 인프라의 신속한 구축을 위해 한 개의 컨소시엄만이 참여하더라도 유찰 없이 진행될 예정이다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 11일 서울 강남구 섬유센터에서 열린 '국가AI컴퓨팅센터 사업설명회' 질의응답 시간에 업계의 질문을 받고 데이터센터 구축 방향, 국산 AI 반도체 도입, 글로벌 기업 협력, 평가 절차 등 세부 조건을 설명했다. 과기정통부 김광년 AI컴퓨팅팀장은 "AI 고속도로 구축을 위해 2028년까지 국가AI컴퓨팅센터에서 GPU 1만5천 장 이상을 확보하는 것이 목표고 전체적으로는 2030년까지 5만 장 확충 계획을 갖고 있다"며 "정부가 초기 마중물 투자를 하고 이후 민간이 자유롭게 확충할 수 있도록 지원하겠다"고 강조했다. 이번 공모에서 국산 AI 반도체 도입 의무가 삭제된 것과 관련해서는 "의무 조항은 빠졌지만 평가 요소에서 국산 AI 반도체 활성화가 완전히 사라진 것은 아니다"라고 말했다. 이어 "정부가 요청할 경우 상면 제공이나 운영 관리 협력 등은 사업자가 협조해야 하고 국산 AI 반도체 초기 시장 활성화를 위한 방안도 내부적으로 준비하고 있다"고 설명했다 아울러 GPU 수량 산정은 센터 구축 제안 시 1만5천 장 이상을 제시해야 하며 상한은 없다. 참여 기업 또는 컨소시엄은 자유롭게 조달 계획을 내되 전력 확보 방안과 사업비 계획을 함께 제시해야 한다. 평가 절차에 대한 질문도 나왔다. 김 팀장은 "데이터센터 구축, 특수목적법인(SPC) 설립, AI 서비스까지 복합적인 사업이라 일반적인 평가 체계로는 한계가 있다"며 "분야별 전문가 풀을 별도로 구성해 외부 전문가 평가로 공정성을 확보하겠다"고 밝혔다. 글로벌 기업과의 협력 가능성에 대해서는 "컨소시엄 참여는 물론 단순 협력 형태도 가능하다"며 "기업들이 자유롭게 협력 방안을 구성하면 된다"고 답했다. 국가AI컴퓨팅센터 내에 탑재되는 AI 반도체의 세부 사항도 논의됐다. 정도균 수석은 "GPU·신경망처리장치(NPU)·텐서처리장치(TPU) 등 다양한 AI 가속기를 복수로 제안하는 것도 가능하다"며 "다만 수요 예측과 안정성이 뒷받침돼야 비즈니스 모델이 성립하는 만큼 조달 계획을 명시하되 복수 공급사와의 대응 방안까지 함께 제시해야 한다"고 설명했다 또 신규 데이터센터 구축 시 토지주가 반드시 컨소시엄에 합류해야 한다는 점과 클라우드를 기반으로 공공 GPU 서비스를 제공할 경우 클라우드 보안인증(CSAP)을 취득해야 한다는 점도 확인됐다. 김 팀장은 "이번 공모는 신속한 사업 진행을 위해 컨소시엄이 한 곳만 참여해도 유찰되지 않고 바로 심사가 진행된다"고 밝혔다.

2025.09.11 17:09한정호 기자

'국가AI컴퓨팅센터' 3차 공모 돌입…민간 자율성 키워 재도전

정부가 두 차례 유찰된 '국가인공지능(AI)컴퓨팅센터' 구축 사업의 성공을 위해 민간 참여 확대와 조건 완화를 내세우며 다시 도전에 나섰다. 초대형 연산 인프라를 2028년까지 마련해 국내 AI 경쟁력을 강화하고 해외 주요 국가와 어깨를 나란히 하겠다는 전략이다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 11일 서울 강남구 섬유센터에서 '국가AI컴퓨팅센터 사업설명회'를 열고 3차 공모의 주요 조건과 추진 방향을 공개했다. 이번 사업은 정부가 주도해 민·관 합작 특수목적법인(SPC)을 설립하고 그래픽처리장치(GPU) 등 첨단 AI 반도체 자원을 대규모로 확보해 학계·산업계·스타트업에 지원하는 국가 인프라 프로젝트다. 앞서 1·2차 공모가 높은 초기 투자비와 까다로운 조건으로 연이어 무산되자 정부는 지분 구조를 대폭 완화하고 매수청구권과 국산 AI 반도체 의무 도입 등 핵심 조항을 삭제해 민간 기업의 부담을 줄였다. 과기정통부 김경만 인공지능기반정책관은 "이번 사업은 새 정부가 추구하는 AI 고속도로 구축의 핵심이자 우리나라의 AI 성패를 좌우할 수 있는 사업"이라며 "두 차례 유찰을 겪은 만큼 관계부처와 논의해 요건을 보강했고 기업과 지자체 모두 관심이 큰 만큼 정부도 최대한 지원하겠다"고 밝혔다. 과기정통부 김광년 AI컴퓨팅팀장은 "국가AI컴퓨팅센터는 데이터센터, 클라우드, 초지능 네트워크를 아우르는 새로운 사회간접자본"이라며 "정부가 마중물 투자를 하고 민간 투자를 촉발해 2028년까지 GPU 1만5천 장을 확보하겠다"고 강조했다. 정부는 올해 안에 GPU 1만3천 장, 내년에 1만5천장을 추가 확보하고 슈퍼컴퓨터 6호기를 통해 9천 장을 더해 총 5만 장 이상의 GPU를 조기 확보함으로써 2030년까지 AI 고속도로를 구축한다는 계획이다. 이를 기반으로 민간이 자율적으로 확충을 이어가며 국가 차원의 초대형 AI 연산 인프라를 구성한다는 방침이다. 이번 사업 조건은 앞선 1·2차 공모와 비교해 대폭 조정됐다. 기존에는 공공 51%, 민간 49% 구조의 SPC 지분율이 주요 문제로 꼽혔다. 이에 공공 지분은 30% 미만으로 줄이고 민간 지분을 70% 이상으로 확대해 민간 주도의 경영 자율성을 보장했다. 국산 AI 반도체 도입 의무도 삭제됐다. 다만 정부는 국산 반도체 활성화를 위한 전용존과 연구개발(R&D) 테스트베드 제공 등 지원책을 병행한다. 사업 부지는 비수도권으로 제한되며 2028년 이전 개소가 필수다. 다만 2027년 이전 조기 서비스 개시 기업에는 평가 우대가 주어진다. 전력계통영향평가의 신속한 처리도 지원하며 신재생에너지 등 무탄소 전력을 활용할 경우 가점을 받을 수 있다. 또 이번 공모에서는 단일 기업보다 복수 클라우드 서비스 제공사(CSP)와 통신사업자가 함께 참여하는 컨소시엄에 가점을 줄 방침이다. 또 정부는 센터 구축을 위해 800억원을 출자할 예정이다. 산업은행과 기업은행의 정책금융 대출과 민간 출자 등 총 2조원 이상이 투입된다. 이같은 변화로 업계의 관심도 확인되고 있다. 이준희 삼성SDS 대표는 같은 날 열린 '삼성SDS 리얼 서밋 2025'에서 "국가AI데이터센터 2차 공모 정식 지침서를 오늘 오전에 전달받아 세부 사항을 면밀히 살펴보고 있다"며 "정부가 추진하는 국가 AI 목표에 우리가 기여할 수 있는 여지가 있다면 참여를 긍정적으로 검토하겠다"고 밝혔다. 이날 현장에는 삼성SDS·LG CNS·현대오토에버·신세계아이앤씨 등 주요 IT서비스 기업과 SK텔레콤·KT·LG유플러스 등 통신사, 네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 클라우드 기업 관계자들이 대거 참석했다. 이 외에도 지자체 관계자와 함께 쿠팡과 삼성물산 관계자들도 설명회장을 찾았다. 정부는 다음 달 21일까지 사업계획서를 접수받아 1단계 기술·정책 평가와 2단계 금융심사를 거쳐 연내 우선협상대상자를 선정할 계획이다. 내년 상반기에는 SPC 설립과 자본금 출자 절차를 마무리하고 본격적으로 국가AI컴퓨팅센터 구축에 착수한다는 목표다. NIPA 이병묵 팀장은 "이번 공모에서는 기업들의 부담을 최대한 덜어드리고자 조건을 많이 완화했다"고 말했다. 그러면서 "민간 지분을 70% 이상으로 확대해 경영 자율성을 보장했지만, SPC가 민간 자율로만 운영되면 정책 목표 달성이 어렵다"며 "GPU 자원 확보나 국내 AI 생태계 지원과 같은 정책 목표를 달성할 수 있도록 정부 의견이 의사결정 과정에 반영될 수 있는 협력·성과 관리 방안이 제시되길 기대한다"고 말했다.

2025.09.11 16:52한정호 기자

틸론, 국회 토론회서 DaaS 비전 알린다

클라우드 컴퓨팅 전문기업 틸론(대표 최백준)이 국회에서 개최되는 정책 토론회에 참석해 교육 분야 DaaS(클라우드에서 가상 데스크톱 환경을 제공하는 서비스) 적용 전략과 미래 비전을 제시한다. 틸론은 오는 12일 국회 의원회관에서 개최되는 '대전환 시대, 공공 인공지능(AI)·DaaS로 실현하는 교육 혁신' 정책 토론회에 참석한다고 11일 밝혔다. 이번 토론회에서 틸론 최백준 대표는 DaaS 지원분과위원장 자격으로 기조 발제를 맡아 공공 DaaS 제도화와 교육 현장 확산을 위한 해법을 제안한다. 학령인구 감소와 지역대학 위기, 그리고 AI 교육 수요 급증 속에서 대학의 디지털 인프라 혁신은 시급한 과제로 떠오르고 있는 만큼 토론회를 통해 대안을 도출하겠다는 것이다. 특히 DaaS가 학생들에게 단말기·장소 제약 없는 학습 환경을 제공하고 안전한 AI 실습과 스마트 행정을 동시에 가능하게 하는 국가 전략 인프라임을 강조할 예정이다. 틸론은 이미 다수의 대학과 공공기관에 DaaS 환경을 구축하며 안정성과 보안성을 입증하고 있다는 평가를 받고 있다. 이런 경험을 기반으로 토론회를 통해 ▲제로트러스트 보안 모델 ▲멀티테넌트 기반 자원 관리 ▲GPU 가상화 기반 AI 실습 인프라 ▲스마트 교육행정 플랫폼 등을 핵심 전략으로 공유할 방침이다. 아울러 틸론의 클라우드 DaaS 서비스 TheOtherSpace, 고성능 VDI 플랫폼 Dstation, GPU 가상화 기반의 EVDI(Engineering VDI) 등을 소개하며 실제 교육 현장에서 적용 가능한 스마트캠퍼스 구축 로드맵을 제시한다. 최백준 대표는 "DaaS는 단순한 원격 데스크톱을 넘어 교육격차 해소와 AI 실습 환경 마련을 위한 국가 핵심 인프라"라며 "틸론은 GPU 가상화, 제로트러스트 보안, 고객 맞춤형 커스터마이징을 기반으로 교육계와 함께 차세대 디지털 학습 생태계를 만들어 나가겠다"고 밝혔다.

2025.09.11 11:23김기찬 기자

세 번째 도전 나선 국가AI컴퓨팅센터…업계 "수익성 검증이 최대 관건"

두 차례 유찰로 난항을 겪은 '국가인공지능(AI)컴퓨팅센터' 구축 사업이 조건을 대폭 완화한 재공모로 다시 궤도에 올랐다. 민간 지분 확대와 매수청구권 삭제, 국산 AI 반도체 의무 폐지 등 업계가 줄곧 문제 삼았던 조항을 손질하면서 정부가 민간 참여를 본격적으로 끌어내려는 의지를 드러낸 것이다. 다만 여전히 수익성 구조와 전력 확보, 국산 AI 반도체 실질적 활용 등 과제가 남아 있어 사업 성패는 기업들의 응답과 정부의 구체적 공모 지침 및 후속 조치에 달려 있다는 평가가 나온다. 과학기술정보통신부는 8일 국가AI전략위원회 출범식에서 '국가AI컴퓨팅센터 추진 방안'을 공개하며 사업 공모에 착수한다고 발표했다. 정부는 2028년까지 첨단 그래픽처리장치(GPU) 1만5천 장 이상, 2030년까지 5만 장 이상을 확보해 AI 모델 개발과 서비스 제공을 뒷받침한다는 목표를 제시했다. 이번 사업은 단순한 데이터센터 구축을 넘어 국가 AI 전략의 핵심 인프라, 이른바 'AI 고속도로'를 닦는 작업으로 규정된다. 총사업비는 2조5천억 원 규모에 달하는 초대형 프로젝트다. 앞선 1·2차 공모가 무산된 가장 큰 이유는 민간 경영 자율성을 가로막는 조건이었다. 공공지분 51% 고정 구조로 인해 기업이 절반 이상 출자해도 경영권을 확보하기 어려웠고 센터 청산 시 정부 지분을 기업이 떠안아야 하는 매수청구권, 아직 성능 검증 초기 단계에 있는 국산 AI 반도체 50% 도입 의무가 대표적이다. 업계에서는 "사실상 민간이 정부 정책 목표를 대신 떠안으라는 요구"라는 불만이 제기돼 왔다. 이에 정부는 기존 조건을 완화했다. 이번 출범식에서 발표된 새로운 방안은 민간 지분을 70% 이상으로 확대하고 공공지분을 30% 미만으로 낮췄다. 매수청구권은 삭제돼 민간 투자 리스크가 크게 줄었으며 국산 AI 반도체 도입도 의무가 아닌 자율적 지원 방안으로 전환됐다. 대신 정부는 국산 AI 반도체 활성화를 위해 2025년 2천528억원 규모의 연구개발(R&D)·실증·사업화 예산을 투입하고 국가AI컴퓨팅센터 실증과 연계할 수 있도록 지원한다. 민간 부담 완화를 위한 다양한 정책적 지원책도 내놨다. GPU 자원이 필요한 정부 재정사업에서는 국가AI컴퓨팅센터 활용을 우선 검토하도록 하고 통합투자세액공제를 기존 1~10%에서 최대 25%까지 확대했다. 또 전력계통영향평가 신속 처리, 신재생에너지 활용 시 가점 부여 등도 포함됐다. 입지는 비수도권으로 제한돼 지역 균형 발전과 친환경 데이터센터 건립을 동시에 꾀한다는 구상이다. 조건 변화에 업계도 반응하고 있다. 삼성SDS는 지난 2분기 실적발표 컨퍼런스콜에서 "재공모가 이뤄지면 참여를 긍정적으로 검토할 것"이라고 공식적으로 밝힌 바 있다. 아울러 네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 국내 주요 클라우드 서비스 기업들도 지분율·바이백 조건 완화에 따라 참여 가능성을 열어둔 것으로 알려졌다. 이동통신 3사 역시 수익성 담보가 현실화된다면 가세할 여지가 있는 것으로 전해졌다. 실제 정부 GPU 확보 사업에서는 네이버클라우드·NHN클라우드·카카오 등이 사업자로 선정돼 산학연과 스타트업에 자원 공급을 앞두고 있으며 독자 AI 파운데이션(국가대표 AI) 프로젝트 지원을 위한 GPU 임차 사업에도 SK텔레콤과 네이버클라우드가 참여하고 있다. 이처럼 주요 클라우드 기업과 통신사가 이미 GPU 인프라 조달에 관여하고 있어 국가AI컴퓨팅센터 본 사업에서도 이들의 참여 여부가 사업 성패를 가르는 변수가 될 전망이다. 이번 사업은 정부가 추진하는 'AI 3대 강국' 전략과도 직결된다. 이재명 대통령은 AI를 반도체·에너지와 함께 국가 미래를 좌우할 핵심 생존 전략으로 규정하며 AI 고속도로 구축을 통한 글로벌 3대 AI 강국 진입을 강조해왔다. 앞서 정부는 GPU 확보와 국가대표 AI 개발 사업을 차례로 마무리하면서 국가 AI 전략 1단계를 정리했고 이제 남은 승부처가 바로 국가AI컴퓨팅센터라는 평가가 나온다. 이재명 대통령은 이날 출범식 모두발언에서도 "민간이 주도하고 정부가 뒷받침하는 민관 원팀 전략이 필요하다"며 "민간의 창의성과 역동성이 최대한 발휘될 수 있도록 정부가 전략적 투자로 뒷받침하겠다"고 강조했다. 다만 업계의 시선은 단순히 조건 완화에 머물지 않는다. ▲데이터센터 운영 경험이 있는 사업자가 주도권을 잡을 수 있느냐 ▲막대한 전력 수요를 어떻게 충당할 수 있느냐 ▲사업 수익성을 담보할 수 있느냐는 과제는 여전히 남아 있다. 업계 관계자는 "조건이 이전보다 확실히 개선된 건 맞지만 내부적으로 수익성 구조와 투자 회수 가능성을 놓고 논의가 필요하다"고 밝혔다. 또다른 업계 관계자도 "정부가 지분율·바이백·국산 AI 반도체 도입 의무 등 세 가지 큰 걸림돌을 없앤 건 맞지만, 사업자들이 실제로 가장 중요하게 보는 건 결국 수요와 사업성"이라며 "GPU 수요가 정부 사업을 통해 어느 정도 확보될 수 있다는 목표는 제시됐지만, 실제로 얼마만큼의 수익을 낼 수 있을지는 여전히 불투명하다"고 지적했다. 이어 "이번 조치로 문턱은 확실히 낮아졌지만 기업들이 사업에 참여해 실제 수익을 낼 수 있느냐는 의문이 여전히 남아 있다"며 "정부가 정책적 의지를 보여준 만큼 기업 현장을 반영한 실질적인 수익 모델과 향후 로드맵이 마련되길 바란다"고 덧붙였다.

2025.09.08 17:32한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

오락가락 트럼프, 호르무즈 '프로젝트 프리덤' 일시 중단

기계체조하는 아틀라스 첫 공개..."사람보다 유연해"

'어닝쇼크' 쿠팡, 회복 자신..."물류·공급망 투자 지속"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.