• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (312건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

젠슨 황 "한국, AI 시대 이끌 잠재력 갖췄다"

[경주=권봉석 기자] "AI는 모든 산업을 근본적으로 바꾸고 있다. 단순한 기술이 아니라 새로운 컴퓨팅 플랫폼이며, 인류가 지금까지 만든 어떤 도구보다 강력한 업무 수행 능력을 지녔다." 31일 오후 경북 경주 예술의전당에서 진행 중인 '아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋' 마지막 순서인 특별 연설에서 젠슨 황 엔비디아 최고경영자(CEO)가 이렇게 강조했다. 이날 젠슨 황 CEO는 "20세기 후반부터 지속된 '무어의 법칙'은 한계에 다다랐고 전통적인 CPU 중심 컴퓨팅은 성능과 전력 효율 면에서 정체됐다"며 "엔비디아가 30년 전 발명한 GPU 가속 컴퓨팅이 이 한계를 넘어서는 길을 열었다"고 밝혔다. "AI, 전 세계 생산성 향상과 성장의 원동력 될 것" 젠슨 황 CEO는 "GPU는 단순히 반도체가 아니라 알고리듬과 소프트웨어, 개발자 생태계 전체로 구성된 시스템이다. 엔비디아는 GPU를 연산에 활용할 수 있는 체계인 '쿠다'(CUDA)와 수천 개의 라이브러리를 구축해 컴퓨테이셔널 리소그래피, 양자물리, 분자역학, 로보틱스 등 다양한 분야의 혁신을 가져왔다"고 밝혔다. 그는 이어 "AI는 단순한 소프트웨어가 아니라 스스로 학습하고 추론하는 새로운 형태로 발전했다. 단순한 도구가 아니라 일(work)을 수행하는 존재이며, 전 세계의 산업 생산성을 높이고 GDP 성장의 원동력이 되어 수십조 달러 규모 시장을 만들 것"이라고 전망했다. "올해부터 AI 수익화 본격화... 선순환 구조 완성" 엔비디아는 올 초부터 'AI 인프라' 개념을 내세우고 있다. GPU나 네트워킹 칩 등 단순 반도체를 벗어나 AI를 처리하는 데 필요한 하드웨어와 소프트웨어를 모두 지원하겠다는 것이다. 젠슨 황 CEO는 "AI는 에너지를 지능으로 바꾸는 새로운 산업이다. 필요에 따라 새로운 토큰을 생성하는 GPU 기반 슈퍼컴퓨터가 바로 그 공장이 될 것"이라고 말했다. 이어 현행 서버용 AI GPU 가속기 '그레이스 블랙웰' 시스템을 예로 들어 "이 시스템은 엔비디아 최신 GPU로 구성된 슈퍼컴퓨터로 150만 개 부품으로 구성된 무게 2톤짜리 시스템이며 매우 빠른 속도로 토큰을 생성하는 진정한 AI 공장"이라고 설명했다. 그는 "AI가 올해 처음으로 수익을 내기 시작했다. AI가 생산하는 지능 토큰이 실제 비즈니스 가치로 전환되고 있다. 이로 인해 더 많은 GPU 공장과 데이터센터가 세워지는 선순환 구조가 만들어지고 있다"고 덧붙였다. "한국 기업과 GPU 공급 포함 협력 확대" 젠슨 황 엔비디아 CEO는 기조연설을 앞둔 이날 오후 경주 화백컨벤션센터에서 이재명 대통령과 만나 AI 관련 협력 방안을 논의했다. 한국 정부와 삼성전자, SK그룹, 현대자동차그룹 등에 각각 최대 5만장, 네이버클라우드에 6만장 등 총 26만장의 블랙웰 GPU가 공급된다(관련기사 참조). 젠슨 황 CEO는 "네이버는 세계에서 세 번째로 큰 한국어 대규모 언어모델(LLM)을 개발한 초기 파트너이며 삼성전자는 HBM 메모리와 반도체 제조 기술로, SK그룹과는 AI 팩토리 및 디지털 트윈 분야에서 협력한다. 현대차그룹은 자율주행과 로보틱스에서 AI 팩토리를 구축할 것"이라고 설명했다. "3대 필수 역량 갖춘 한국 AI 산업 성장에 동행할 것" 젠슨 황 CEO는 한국 AI 산업의 잠재력을 높이 평가했다. 그는 "전 세계에서 AI 혁신의 3대 필수 조건인 소프트웨어 전문성, 과학기술 역량, 제조 능력을 모두 갖춘 나라는 극소수인데, 한국은 그중 하나"라고 평가했다. 또 "소프트웨어와 AI 기술, 그리고 제조 역량을 결합하면 로보틱스와 피지컬 AI 분야에서 막대한 기회를 창출할 수 있다. AI 로봇 공장, 자율주행, 의료 로봇 등에서 한국 기업들이 선도적인 역할을 할 것"이라고 설명했다. 마지막으로 그는 "한국은 지난 30년 동안 엔비디아를 환영해줬고, 이제는 함께 새로운 여정을 시작할 때"라며 "엔비디아는 한국이 'AI 국가'(AI Nation)로 도약하는 여정에 동행할 것"이라고 말했다.

2025.10.31 17:07권봉석

엔비디아 블랙웰 26만장 한국행…'AI 인프라 허브' 도약 신호탄

엔비디아가 우리 정부와 주요 기업에 블랙웰 그래픽처리장치(GPU) 26만 장을 공급한다. 정부의 국가AI컴퓨팅센터 구축과 민간 AI 인프라 확충이 함께 맞물리며 한국이 아시아 AI 허브로 도약할 기반이 마련됐다는 평가가 나온다. 31일 엔비디아는 한국 정부와 삼성전자·SK그룹·현대자동차그룹·네이버클라우드 등 5곳에 총 26만 장의 블랙웰 GPU를 공급한다고 발표했다. 이 중 정부는 최대 5만 장을 소버린 클라우드 구축용으로 확보하고, 삼성전자·SK·현대차가 각각 5만 장, 네이버클라우드는 6만 장을 공급받는다. 엔비디아는 이번 협력을 통해 반도체·로보틱스·통신·데이터센터 등 AI 인프라 전반에서 한국 기업들과 협력을 강화한다는 방침이다. 업계에서는 이번 공급 규모가 아시아 최대 수준으로, AI 반도체 확보 경쟁의 중심에 한국이 본격적으로 진입하게 됐다고 평가한다. 네이버클라우드, 엔비디아와 소버린·피지컬 AI 전방위 '협력' 정부는 이번 협력과 맞물려 현재 국가AI컴퓨팅센터 구축 사업을 가속화하고 있다. 과학기술정보통신부는 민관 합작 특수목적법인(SPC)을 설립해 2028년까지 GPU 1만5천 장, 2030년까지 5만 장 이상을 확보할 계획이다. 총사업비는 2조5천억 원 규모로, 정부 800억 원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 국가AI컴퓨팅센터 사업은 AI 연구기관과 스타트업에 연산 자원을 제공하고 민간 클라우드 기업의 기술을 공공 인프라에 접목하는 구조로 설계됐다. 정부는 대규모 GPU 인프라를 공공 연구개발에 활용함으로써 AI 모델 개발 경쟁력과 산업계 접근성을 동시에 높인다는 목표를 세웠다. 이번 공급의 수혜 기업 중 하나인 네이버클라우드는 국가AI컴퓨팅센터 사업에서 삼성SDS 컨소시엄의 주요 파트너로 참여하고 있다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 테크밋업에서 "정부 인프라에 민간 기술 내재화를 결합해 기술 자립 기반을 강화하겠다"며 "국가AI컴퓨팅센터 구축은 네이버의 서비스형 GPU 플랫폼(GPUaaS)을 국가 데이터센터로 확장하는 구조로 발전할 것"이라고 설명했다. 네이버는 이날 오후 엔비디아와 피지컬 AI 플랫폼 공동 개발 협약도 체결했다. 양사는 디지털 트윈과 로보틱스 기술을 결합해 산업 현장을 가상 공간에 정밀하게 구현하고 AI가 분석·판단·제어를 지원하는 시스템을 구축할 계획이다. AI와 클라우드 인프라의 융합을 추진하는 만큼, 네이버클라우드가 담당하는 역할이 커질 전망이다. 김유원 네이버클라우드 대표는 이날 행사에서 "이번 협력은 피지컬 AI 시대의 출발점이 될 것"이라며 "하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 국내 제조 산업의 AI 혁신을 이끌 신뢰받는 기술 파트너가 되겠다"고 밝혔다. 엔비디아와 네이버의 협력은 이번이 처음은 아니다. 네이버클라우드는 초거대언어모델(LLM) '하이퍼클로바X'를 운영하며 엔비디아 GPU를 기반으로 한 고성능 클러스터를 구축한 경험을 갖고 있다. 특히 양사는 최근 태국·모로코 등 해외에서도 '소버린 AI' 인프라 구축을 함께 추진 중이다. 이 외에도 네이버는 엔비디아와 글로벌 투자사 등과 컨소시엄을 구성해 모로코에 블랙웰 GPU 기반 40메가와트(MW)급 AI 데이터센터도 구축 중이다. 해당 프로젝트는 유럽과 중동, 아프리카를 잇는 글로벌 AI 허브로 확장될 예정이며 한국형 AI 인프라 모델의 해외 진출 사례로 주목받고 있다. 국가 AI 인프라 확충 '가속'…AI 생태계 전반 확산 전망 우리나라에서 국가AI컴퓨팅센터 사업과 같이 민간과 공공이 함께 GPU 인프라를 확충하는 구조가 자리 잡으면서 한국이 아시아 AI 산업의 중심지로 부상할 가능성이 높다는 평가가 나온다. 업계 관계자는 "AI 인프라 경쟁력은 GPU 확보 속도와 활용 효율성에 달려 있다"며 "정부와 기업이 함께 대규모 연산 자원을 구축하는 한국형 모델이 아시아 AI 생태계의 새로운 기준이 될 수 있다"고 기대했다. 정부의 국가AI컴퓨팅센터 사업 역시 이번 공급 발표로 추진 동력이 커질 전망이다. 과기정통부는 연내 우선협상대상자 선정을 마무리하고 내년 상반기 SPC 설립과 착공 절차에 착수할 계획이다. 이번 엔비디아의 GPU 공급 발표로 AI 인프라 확충이 가속화되면 산업·학계·연구기관 전반에서 AI 학습 및 응용 환경이 대폭 개선될 것으로 예상된다. 이번 공급은 국가AI컴퓨팅센터 외에도 정부가 추진 중인 독자 AI 파운데이션 모델 프로젝트 등 국가 AI 사업 전반에 직간접적 영향을 미칠 전망이다. 업계에서는 국가 차원에서 GPU 자원이 충분히 확보되면 정부의 AI 연구·산업 지원 정책이 전방위적으로 활성화될 것으로 보고 있다. 엔비디아의 이번 결정은 한국의 AI 인프라 확충 노력에 대한 글로벌 기술 기업의 신뢰가 반영된 결과라는 평가도 나온다. 업계 관계자는 "최근 정부가 AI 인프라 확충을 적극적으로 추진하고 민간이 기술 내재화를 빠르게 진행하고 있는 만큼, 한국은 엔비디아의 아시아 전략에서 핵심 거점으로 부상할 것"이라고 전망했다.

2025.10.31 15:04한정호

엔비디아, 韓 정부·기업에 GPU 26만장 공급

엔비디아가 31일 한국 정부와 기업에 GPU 26만장을 공급하고 AI 인프라와 반도체, 로보틱스, 통신, 데이터센터 등 모든 분야에서 전방위 협력에 나선다고 밝혔다. 현재 국내 시장에 도입된 엔비디아 호퍼 GPU는 기업과 기관을 합쳐 약 6만 5천장 규모로 추산된다. 엔비디아는 한국 정부와 삼성전자, SK그룹, 현대자동차그룹 등에 각각 최대 5만장, 네이버클라우드에 6만장 등 총 26만장의 블랙웰 GPU를 공급한다. 엔비디아 관계자는 "국내 공급될 블랙웰 GPU는 서버용 GB200과 워크스테이션용 RTX 프로 6000 등을 모두 포함한다. 도입이 완료되면 한국 내 엔비디아 GPU 규모는 6만 5천장에서 32만장으로 5배 가까이 늘어날 것"이라고 설명했다. 삼성전자·SK하이닉스, GPU 기반 반도체 설계 가속 도입 삼성전자는 엔비디아 GPU 블랙웰 5만장을 공급받아 반도체 제조 효율과 수율을 높이는 AI 기반 제조·설계 최적화 시스템을 개발한다. 반도체 식각 공정에 쓰이는 포토마스크 생산에 컴퓨터 연산을 활용해 설계 시간을 단축하는 cu리소(cuLitho) 등 AI 반도체 공정 툴이 투입될 예정이다. 또 반도체 생산시설 설계와 최적화에 엔비디아 옴니버스 기술도 활용한다. SK그룹은 SK하이닉스의 반도체 설계 역량 강화, GPU 기반 디지털 트윈 기술을 활용한 공장 자동화, AI 에이전트 개발에 나선다. SK텔레콤은 RTX 6000과 블랙웰 서버를 기반으로 옴니버스 플랫폼을 활용해 로보틱스 및 디지털 트윈 기술을 강화한다. 현대차그룹은 5만장의 블랙웰 GPU로 자율주행과 로보틱스 분야의 AI 모델을 훈련시키고, 30억 달러(약 4조 2천800억원) 규모 피지컬 AI 투자를 정부와 공동 추진한다. 한국 특화 LLM 개발과 소버린 AI 구축 지원 과학기술정보통신부는 지난 8월 선정된 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등 국가대표 AI 기업 다섯 곳과 함께 국내 기업과 기관이 활용할 수 있는 한국형 거대언어모델(LLM) 개발 작업에 착수할 예정이다. 한국형 LLM 개발에는 엔비디아 오픈프레임워크 '니모'(Nemo)를 활용한 오픈모델인 '니모트론'(Nemotron)을 활용한다. 개발된 한국형 LLM은 한국어 중심의 데이터와 문화를 반영한 소버린 AI 개발의 핵심이 될 전망이다. 이를 위해 엔비디아 클라우드 협력사인 네이버클라우드, NHN클라우드와 카카오 등에 최초 1만3천장의 엔비디아 GPU가 공급될 예정이다. LG그룹의 AI 싱크탱크인 LG AI연구원은 엔비디아와 함께 LG의 AI 모델 '엑사원'(EXAONE)을 국내 기업과 스타트업, 학계에 지원하기 위해 협력하고 있다. 최근에는 엑사원을 암 진단에 활용할 수 있도록 스타트업과 학계에 제공하고 있다. 국내 통신 3사와 차세대 6G AI RAN 기술 공동 개발 엔비디아는 이번 주 미국에서 진행된 'GTC 워싱턴' 기간 중 노키아와 협업해 차세대 통신 규격인 6G AI RAN(무선통신네트워크) 처리 기술을 개발할 것이라고 밝힌 바 있다. 국내 시장에서도 삼성전자 등 장비 제조사, 연세대학교와 한국전자통신연구원(ETRI) 등 연구기관, SK텔레콤, KT, LG유플러스 등 통신 3사와 함께 6G AI RAN을 개발할 예정이다. 엔비디아는 "한국 기업·기관과 공동 개발한 6G AI RAN은 GPU 연산 작업을 기지국으로 분산해 운영 비용을 줄이고 기기 배터리 지속 시간을 늘리게 될 것"이라고 설명했다. 양자 컴퓨팅 연구 지원, 스타트업 지원도 확대 엔비디아는 한국과학기술정보연구원(KISTI)과 GPU 기반 양자 컴퓨팅 제어 시스템 연구도 공동으로 진행한다. 내년 상반기 구축될 국가 슈퍼컴퓨터 6호기 '한강'에서 엔비디아 양자 시뮬레이션 쿠다Q(CUDA-Q), 피직스 등을 구동 예정이다. 엔비디아는 스타트업 지원에도 속도를 높인다. 현재 750개 이상의 국내 기업이 엔비디아의 인셉션 프로그램에 참여하고 있으며, 엔비디아는 지원 기업 규모를 1천개 이상으로 확대할 예정이다.

2025.10.31 15:00권봉석

"젠슨 황 가면 우리도 간다"…이재용·정의선 등 5대 그룹 총수, 오늘 APEC 정상만찬 참석

[경주=장유미 기자] 아시아태평양경제협력체(APEC) 정상회의 첫날 경주에서 진행되는 환영 만찬에 국내 5대 그룹 회장과 이해진 네이버 의장이 참석한다. 국내 기업인들 중 유일하게 6명만 APEC 정상회의 만찬에 초대 받았다. 31일 재계에 따르면 이재용 삼성전자 회장과 최태원 SK그룹 회장, 정의선 현대자동차그룹 회장, 구광모 LG그룹 회장, 신동빈 롯데그룹 회장 등 5대 그룹 총수들은 이해진 네이버 의장과 함께 이날 오후 경주에서 진행되는 APEC 정상회의 환영 만찬에 참석한다. 이재명 대통령 부부를 포함해 21개국 정상들도 함께하는 이 만찬에는 APEC 홍보대사인 가수 지드래곤이 참석해 공연을 펼칠 예정이다. 또 이날 경주에서 APEC CEO 서밋 특별연설을 진행하는 젠슨 황 엔비디아 CEO 역시 만찬에 참석할 예정이다. 앞서 젠슨 황 CEO는 전날 이재용 회장, 정의선 회장과 함께 깜짝 '깐부 치킨 회동'을 펼쳐 주목 받기도 했다. 그는 이날 오후 'APEC CEO 서밋'에서 특별연설을 앞두고 이재용 회장, 정의선 회장과 또 다시 만남을 가질 예정으로, 최태원 회장, 이해진 의장도 함께할 것으로 알려졌다. 황 CEO는 이 자리에서 삼성전자, SK, 현대차, 네이버 등 국내 주요 기업에 AI 칩을 공급하는 계약을 체결, 이를 발표할 것으로 전해졌다. 업계에선 이들의 환영 만찬 참석을 두고 한국이 세계 인공지능(AI) 시장을 선도하겠다는 의지를 반영한 것으로 해석했다. 또 재계 총수들이 지난 29일 공식 개막한 APEC 최고경영자(CEO) 서밋부터 경주 현장을 부지런히 드나들며 정부와 호흡을 맞췄다는 점도 고려한 것으로 분석됐다.

2025.10.31 13:39장유미

이재용·정의선, 젠슨 황과 '치맥 회동' 후 지포스 게이머 페스티벌 등장

이재용 삼성전자 회장, 정의선 현대자동차그룹 회장이 30일 밤 엔비디아 '지포스 게이머 페스티벌 2025' 행사를 방문해 축하 메시지를 전달했다. 지포스 게이머 페스티벌 2025는 지포스 GPU 국내 시장 진출 25주년을 기념해 열리는 행사로 최신 게임 시연, 스타크래프트 프로게이머 경기, 태권도 시범단 K타이거즈 시범과 르세라핌 공연 등으로 구성됐다. 이날 저녁 젠슨 황 엔비디아 CEO와 이재용 회장, 정의선 회장은 서울 삼성동 치킨집에서 한 시간 동안 '치맥 회동'을 가졌다. 이후 지포스 GPU 한국 진출 25주년 기념 행사인 '지포스 게이머 페스티벌' 행사장을 찾았다. 메인 무대에 오른 젠슨 황 엔비디아 CEO는 "어떤 회사도 모든 것을 혼자 할 수 없으며 한국의 친구들에게 세계 최고의 치킨인 프라이드 치킨을 먹자고 했다"며 이재용 삼성전자 회장, 정의선 현대차그룹 회장을 무대에 불렀다. 이재용 회장은 "엔비디아는 25년 전 삼성전자 DDR 메모리로 '지포스 256'을 출시했다. 그 때부터 양사는 협력해 왔고 젠슨 황 CEO와 저의 우정도 시작됐다. 그 사이에 부침도 있었지만 지금까지 같이 일해왔다"고 설명했다. 이어 "젠슨 황 CEO는 혁신적인 기업가이며 존경하는 경영인이지만 인간적이고 매력적이다. 정도 많다. 이 멋진 밤을 즐기시길 바라며 여기 계신 분들의 건강과 행복을 기원하겠다"고 마무리했다. 정의선 회장은 "저도 어렸을 때부터 게임을 즐겼고 아이도 리그오브레전드 게임을 좋아해 같이 즐겼다. 당연히 PC에 엔비디아 칩이 들어 있었다. 앞으로는 엔비디아 칩이 자동차와 로보틱스로 들어올 것이며 양사 협력도 더 깊어질 것"이라고 밝혔다. 그는 "앞으로 차 안에서 더 많은 게임을 즐길 수 있도록 할 것이다. 기아자동차는 2019년부터 유럽 시장에서 리그오브레전드 등을 후원하고 있다. 여러분들도 게임 많이 하셔서 엔비디아와 현기차그룹이 더 잘할 수 있도록 도와달라"고 당부했다.

2025.10.30 23:37권봉석

젠슨 황 CEO "한국 시장, 25년 엔비디아 여정의 일부"

APEC CEO 서밋 2025 참가를 위해 한국을 찾은 젠슨 황 엔비디아 CEO가 "한국에 매우 좋은 소식이 많다. 저와 여러 훌륭한 파트너들 사이에 좋은 뉴스가 많다"고 말했다. 젠슨 황 엔비디아 CEO는 이날 저녁 이재용 삼성전자 회장, 정의선 현대자동차그룹 회장과 함께 서울 삼성동 치킨집에서 '치맥 회동'을 가졌다. 이후 같은 날 오후 9시경 지포스 GPU 한국 진출 25주년 기념 행사인 '지포스 게이머 페스티벌' 행사장을 찾아 관람객과 유통사, 제조사 등 파트너사에게 인사했다. 그는 이 자리에서 "이재명 대통령이 발표하기 전까지는 좋은 소식을 미리 말하지 않겠다고 약속했지만, 힌트를 드리자면 로보틱스, 그리고 100% 한국과 관련된 일"이라고 설명했다. 또 "한국에 머무는 동안 많은 미팅을 가질 예정이며 여러 지도자와 만나기를 기대한다"고 덧붙였다. 젠슨 황 CEO는 2010년 이후 15년 만에 한국을 공식 방문했다. 그는 "엔비디아의 첫 시장은 PC 게이밍이었고 한국은 이스포츠라는 새로운 혁명의 중심지였다. 엔비디아와 한국은 이스포츠를 세계적인 현상으로 만들었다"고 말했다. 그는 또 "엔비디아는 오래 전부터 한국과 함께 성장했다. 모든 PC방에 엔비디아 GPU가 있었다. 한국은 엔비디아 여정의 모든 순간에 함께 했으며 여러분들에게 진심으로 감사한다"고 밝혔다. 젠슨 황 CEO는 "여기에 엔비디아 투자자들이 있느냐"고 물은 다음 "엔비디아는 30년 전 'GPU 가속 컴퓨팅'이라는 새로운 연산 방식을 발명했고 이 비전을 실현하는 데 30년이 걸렸다"고 설명했다. 그는 이어 "GPU 가속 컴퓨팅은 미래로 인정받고 있고 모든 컴퓨터 회사, 모든 클라우드 기업이 엔비디아 아키텍처로 전환하고 있다. 지금은 향후 10년에 걸친 플랫폼 전환의 시작점이며, 엔비디아와 AI의 미래는 매우 밝다"고 강조했다. 젠슨 황 엔비디아 CEO는 엔비디아 시가총액이 5조 달러를 돌파한 날 한국을 찾았다. 이에 대해 "이는 매우 감사하고 영광스런 일이다. AI는 인류 역사상 가장 영향력 있고, 가장 효과적인 기술이며 앞으로 세계에서 가장 큰 산업이 될 가능성이 매우 높다"고 전망했다. 이어 "AI는 의료, 운송, 제조, 과학 등 모든 산업에 영향을 미칠 것이며 세계가 경험한 가장 거대한 단일 산업이 될 것"이라고 덧붙였다. 젠슨 황 CEO는 미-중 반도체 수출 규제 관련 협상 상황에 대해 "양국간 논의는 전적으로 도널드 트럼프 대통령의 손에 달렸다. 그는 훌륭한 협상가이며 중국 시진핑 주석과도 아주 좋은 관계를 맺고 있다. 두 분 모두 각자의 나라를 위해 최선의 협상을 할 것이라 믿으며 저도 여러분처럼 그 결과를 기대하고 있다"고 기대감을 드러냈다.

2025.10.30 23:16권봉석

[포토] 젠슨 황·이재용·정의선, 강남서 '치맥 회동'

APEC CEO 서밋 2025 참석차 한국을 찾은 젠슨 황 엔비디아 최고경영자(CEO)와 이재용 삼성전자 회장, 정의선 현대자동차그룹 회장이 30일 오후 7시30분경 강남구 삼성역 인근에서 치맥 회동을 가졌다. 젠슨 황이 한국을 방문한 것은 2010년 이후 15년 만이다. 그는 31일 경주에서 진행될 APEC CEO 서밋 2025에서 삼성전자와 현대자동차그룹 등 국내 주요 기업 협업 방안을 공개하는 한편 국내 기자단을 대상으로 기자간담회도 진행할 예정이다. 이들이 만나기로 한 치킨집 앞에는 회동 세 시간 전부터 국내 취재진과 일반 시민들이 500여 명 이상 몰렸고 인파로 인한 사고를 막기 위해 경찰·소방 인력이 현장 통제에 나섰다. 젠슨 황 엔비디아 CEO는 치맥 회동 자리에서 지포스 GPU 국내 진출 25주년을 기념해 싱글몰트 위스키 25년산, 이달 중순부터 글로벌 시장 공급을 시작한 GB10 탑재 AI 워크스테이션 'DGX 스파크'를 전달했다. 젠슨 황 엔비디아 CEO와 정의선 현대차그룹 회장, 이재용 삼성전자 회장은 같은 치킨집을 이용하던 시민들과 기념 촬영을 하며 약 1시간 동안 회동했다. 잠시 치킨집 밖으로 나온 젠슨 황 엔비디아 CEO는 치킨집 앞에 모인 시민들에게 떡과 치킨, 바나나 우유 등을 나눠주기도 했다. 세 사람은 회동 종료 전 치킨집 포스터에 각각 '환상적인 치맥'(Amazing Chimek) (젠슨 황 엔비디아 CEO), '대박 나세요!' (이재용 삼성전자 회장), '최고입니다' (정의선 현대차그룹 회장)라고 사인했다. 이날 치킨값은 이재용 삼성전자 회장과 정의선 현대차그룹 회장이 결제했다. 두 회장은 같은 시간대에 치킨집에 있던 시민 몫까지 함께 계산했다. 회동 종료 후 소감을 묻는 질문에 이재용 삼성전자 회장은 "좋은 날 아닌가요, 이제는 미국 관세 협정도 타결되고, 살다보니 행복이라는 것이 이렇게 맛있는 것 먹고 그러는 것 아닌가 생각한다"라고 답했다. 젠슨 황 엔비디아 CEO는 회동 종료 후 지포스 GPU 한국 진출 25주년 기념행사 '지포스 게이머 페스티벌 2025' 행사장에 들러 일반 참가자들에게 감사 메시지를 전한 후 주요 그래픽카드사 국내 제조 법인 관계자, 온라인 유통업체 관계자 등을 격려했다.

2025.10.30 22:51권봉석

나무기술, 경량 언어모델로 제조 AI 선도…정부 GPU 지원 사업 선정

나무기술이 정부의 그래픽처리장치(GPU) 지원 사업을 통해 제조 분야 인공지능(AI) 혁신에 박차를 가한다. 나무기술은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에 선정됐다고 29일 밝혔다. 이번 사업은 산업별 AI 기술 고도화를 위한 GPU 인프라 지원 프로그램으로, 나무기술은 제조 현장에 특화된 AI 자율제조 기술 역량을 인정받았다. 나무기술은 공정 데이터와 설비 정보를 실시간으로 분석해 생산 과정의 예측과 제어를 수행할 수 있는 경량 언어모델(SLM)을 설계했다. 복잡한 제조 환경에서도 빠르게 추론하고 효율적으로 연산하도록 구성돼 품질 이상 탐지·공정 최적화·보고서 자동 작성 등 다양한 작업을 지능적으로 지원한다. 이 기능은 생산 현장의 의사결정 속도를 높이고 예측 중심의 운영 체계를 정착시키는 데 활용된다. 현재 나무기술은 GPU·엣지 기반의 실시간 추론 검증을 통해 모델의 안정성과 적용 범위를 확인하고 있으며 포장설비와 바이오 제조 등 실제 산업 현장에서의 실증으로 확장성을 검증하고 있다. 이 과정에는 클라우드 오케스트레이션 플랫폼 '칵테일 클라우드'와 통합 관리 플랫폼 '스페로'가 함께 적용돼 AI 학습·추론·자원 운영을 통합 관리하는 구조를 구현했다. 이를 통해 기업이 자체 데이터를 활용한 안정적인 AI 자율제조 환경을 구축하고 현장 중심의 AI 운영 체계를 구현할 수 있도록 지원한다. 나무기술 관계자는 "이번 선정은 우리가 축적해 온 AI·클라우드 융합 기술력과 산업 현장 중심의 실증 경험이 높은 평가를 받은 결과"라며 "풀스택 아키텍처를 기반으로 제조 산업의 효율성과 품질 경쟁력을 높이며 AI 내재화와 자율화를 향한 기술 혁신의 지속적인 혁신을 추진하고 있다"고 밝혔다. 이어 "제조 분야에서 검증된 기술을 바탕으로 에너지·물류·바이오 등 데이터 중심 산업으로 AI 자율 운영 모델을 확장해 산업별 맞춤형 AI 적용 사례를 넓혀갈 예정"이라고 덧붙였다.

2025.10.29 16:03한정호

컴퓨존, 30일 '지포스 게이머 페스티벌 2025' 출전

IT 전문 쇼핑몰 컴퓨존이 오는 30일 오후 4시부터 서울 삼성동 코엑스 K팝 스퀘어에서 진행되는 엔비디아 행사 '지포스 게이머 페스티벌 2025'(GGF 2025)에 참가한다고 밝혔다. GGF 2025는 지포스 GPU 국내 시장 진출 25주년을 기념해 열리는 행사로 아이온2, 신더시티 등 최신 게임 시연, 전설적인 프로게이머 홍진호(YellOw)와 이윤열(NaDa)의 스타크래프트 경기, 태권도 시범단 K타이거즈 시범과 르세라핌 공연 등으로 구성됐다. 컴퓨존은 행사 당일 오후 4시부터 자체 부스에 인텔 코어 울트라 200S(애로우레이크)와 엔비디아 지포스 RTX 50 시리즈 GPU로 구성한 고성능 조립PC 2종을 전시 예정이다. P2166W(블랙 에디션)은 코어 울트라7 265K 프로세서, 지포스 RTX 5080 GPU로 4K 해상도 게임 구동과 AI 연산에 최적화됐다. 아이웍스5-5160(화이트 에디션)은 코어 울트라5 225F와 지포스 RTX 5070 GPU로 2K 해상도에서 안정적인 프레임을 소화하는 균형형 게이밍 시스템이다. 시연 제품은 컴퓨존 기획전 페이지에서 즉시 구매 가능하며 행사 기간 중 제품 할인과 적립금 추가 지급이 적용된다. 현장 방문 관람객 대상 이벤트도 진행된다. 컴퓨존 관계자는 "이번 행사는 게이밍 생태계를 주도하는 브랜드들이 기술력을 선보이는 자리로, 컴퓨존의 참가가 B2C 시장 내 브랜드 경쟁력 강화를 상징한다"고 설명하고 "이는 오프라인 체험 중심의 마케팅 모델을 선도하는 사례가 될 것"이라고 덧붙였다.

2025.10.29 10:47권봉석

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

인핸스, 정부 GPU 지원사업 선정…LAM 기술 고도화 '박차'

인핸스가 정부 지원 사업에 선정돼 거대행동모델(LAM) 기술 고도화를 통한 국가 인공지능(AI) 혁신에 나선다. 인핸스는 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅자원 활용기반 강화(GPU 확보·구축·운용지원)사업'에 선정됐다고 23일 밝혔다. 이 사업은 기업의 AI컴퓨팅 인프라 확충 및 AI 기술 고도화를 위해 그래픽처리장치(GPU) 자원을 지원하는 사업이다. 인핸스는 이번 사업을 통해 향후 9개월 동안 고성능 GPU를 지원받는다. 이를 기반으로 텍스트와 HTML 혼합 데이터, 반복 작업 태스크 데이터셋을 학습시켜 자사 행동형 AI 모델 'ACT-1'을 고도화할 계획이다. ACT-1은 버튼 클릭·메뉴 선택·필드 입력 등 웹 인터페이스 전반을 자동으로 제어할 수 있는 LAM 기반 솔루션이다. 크롤링과 웹 테스트는 물론 커머스 운영 자동화에 최적화된 기능을 제공한다. 인핸스에 따르면 ACT-1은 최근 글로벌 웹 AI 에이전트 벤치마크 '온라인-마인드2웹 리더보드'에서 구글·오픈AI·앤트로픽의 AI 모델과 함께 최상위권을 달성하며 글로벌 빅테크 기업들과 어깨를 나란히 했다. 인핸스는 지난 5월 팔란티어의 '스타트업 펠로우십'에도 선정되는 등 글로벌 AI 시장에서 기술력을 입증하고 있다. 이승현 인핸스 대표는 "이번 GPU 사업 선정은 국가 차원에서 우리의 웹 AI 에이전트 기술 역량을 입증했다는 점에서 의미가 크다"며 "첨단 AI 기술과 이번에 확보한 GPU 자원을 바탕으로 글로벌 AI 시장에서 경쟁력을 더욱 강화해 나갈 것"이라고 말했다.

2025.10.23 16:51한정호

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석

GPU 의존 낮추는 中…알리바바, AI 추론 효율 높인 독자 기술 공개

알리바바클라우드가 인공지능(AI) 모델 서비스에 필요한 엔비디아 그래픽처리장치(GPU) 사용량을 최대 82% 절감할 수 있는 새로운 컴퓨팅 풀링 시스템을 선보였다. 19일 사우스차이나모닝포스트(SCMP)에 따르면 알리바바클라우드는 '아이게온(Aegaeon)'이라 불리는 시스템을 세 달 넘게 자사 마켓플레이스에서 베타 테스트했다. 그 결과, 수십 개 AI 모델을 서비스하는 데 필요한 엔비디아 H20 GPU 수가 1천192개에서 213개로 줄어드는 효과를 보였다고 밝혔다. 이 연구 결과는 최근 서울에서 열린 '제31회 운영체제 원칙 심포지엄(SOSP)'에서 발표됐다. 알리바바클라우드와 베이징대 공동 연구팀은 "아이게온은 현재 시장에서 대형언어모델(LLM) 동시 처리 과정에 따른 과도한 비용 문제를 처음 구체적으로 보여준 사례"라고 강조했다. 아이게온은 GPU가 여러 모델을 동시에 처리할 수 있도록 '토큰 단위 오토스케일링'을 적용한 점이 특징이다. 이를 통해 GPU는 하나의 모델 출력을 생성하는 도중에도 다른 모델로 전환할 수 있으며 모델 간 전환 시 발생하는 지연시간을 기존 대비 97% 줄였다. 결과적으로 한 개 GPU가 최대 7개의 모델을 동시에 지원할 수 있게 됐다. 이 시스템은 현재 알리바바의 기업용 모델 마켓플레이스인 '바이롄'에 적용돼 있으며 회사의 자체 개발 모델 '큐원' 서비스에도 활용되고 있다. H20은 미국의 수출 통제 조치 이후 엔비디아가 중국용 맞춤형 제품으로 개발한 GPU다. 최근 중국 규제 당국의 백도어 의혹 조사 대상에 올라, 중국 내에서는 화웨이·캄브리콘 등 주요 반도체 기업들이 자체 GPU 개발을 가속화하고 있다. 알리바바클라우드 측은 "아이게온은 LLM의 동시 추론 효율을 혁신적으로 끌어올린 시스템"이라며 "AI 컴퓨팅 자원 활용의 새로운 기준을 제시했다"고 말했다.

2025.10.19 12:22한정호

엔비디아 "블랙웰 GPU 미국서 생산 개시"

엔비디아가 블랙웰 GPU를 미국 애리조나 주 피닉스에 있는 TSMC 시설에서도 생산하겠다고 밝혔다. 도널드 트럼프 2기 행정부의 상호관세와 미국 내 반도체 생태계 육성 관련 압박에 대응할 카드를 얻은 것이다. 17일(미국 현지시간) 엔비디아와 TSMC에 따르면, 양사는 미국 애리조나 주 피닉스에 위치한 TSMC 반도체 생산시설(팹)에서 블랙웰 GPU 생산 개시 기념식을 진행했다. 젠슨 황 엔비디아 CEO는 “미국에서 가장 중요한 칩이 미국 땅에서, TSMC의 가장 진보된 팹에서 제조된 것은 역사상 처음 있는 일”이라며 “이는 제조업 부활, 일자리 창출과 세계에서 가장 중요한 반도체 산업을 미국에 가져오기 위한 비전”이라고 평가했다. 레이 창 TSMC 애리조나 법인 CEO는 “애리조나 진출 후 단기간에 미국산 엔비디아 블랙웰 GPU를 생산한 것은 TSMC의 역량을 증명하는 동시에 엔비디아와 현지 협력사, 인력들의 헌신의 성과”라고 밝혔다. 엔비디아가 블랙웰 GPU 생산에 이용하는 TSMC 공정은 5나노급 'N5'를 개선한 'N4P'다. 엔비디아는 공식 블로그에서 “TSMC 애리조나 팹은 향후 4나노 이하 첨단 공정에서 고성능 반도체를 생산할 예정”이라고 설명했다. 엔비디아 경쟁사인 AMD도 TSMC 애리조나 팹 활용을 검토 중이다. AMD는 지난 4월 이 시설에서 서버용 5세대 에픽 프로세서 반도체 구현과 검증을 마쳤다고 밝히기도 했다. 다만 미국에 본사를 둔 주요 반도체 기업이 TSMC 애리조나 팹에서 모든 물량을 생산하기는 어려울 것으로 보인다. 미국 내 제조비용이 대만을 비롯한 아시아 지역 대비 높고, 반도체 설계·패키징 생태계가 상대적으로 덜 성숙하다는 한계가 존재하기 때문이다.

2025.10.19 03:17권봉석

애플 M5 칩, AI 처리 중심 NPU→GPU로 이동

애플이 아이폰과 아이패드, 맥 컴퓨터의 AI 연산 처리 중심 장치를 신경망처리장치(NPU)에서 GPU로 전환했다. 16일 공개한 아이패드 프로·맥용 SoC(시스템반도체) M5 칩의 GPU 안에 '신경망 가속기'를 내장한다고 밝힌 것이다. 애플 실리콘 M 시리즈는 응용프로그램 처리 등 일반적인 연산에는 CPU를, 그래픽 처리와 일부 병렬 연산에는 GPU를 활용했다. NPU '뉴럴 엔진'은 특정 AI 연산을 실행하는 방식으로 독립적으로 작동했다. 이로 인해 애플의 AI 연산은 높은 효율을 유지했지만, GPU를 통한 AI 연산 확장성은 상대적으로 제한적이었다. 그러나 AI 모델의 용량이 커지고 복잡해지면서 NPU로만 이를 처리하는 방식은 한계에 부딪혔다. GPU는 더 높은 메모리 대역폭과 병렬 연산 유연성을 제공하기 때문에, 복합 AI 워크로드에 더 적합하다. 애플이 GPU에 AI 가속 엔진을 통합한 것은 지금까지 유지해 온 구조를 벗어나 AI 연산 중심 장치를 GPU로 옮기겠다는 의도로 읽힌다. 애플, 2017년부터 A시리즈 칩에 NPU 탑재 애플은 2017년 아이폰8·X에 탑재한 SoC 'A11 바이오닉'에 처음으로 NPU인 뉴럴엔진을 통합했다. 이는 스마트폰 분야 경쟁사인 삼성전자나 퀄컴 대비 수 년을 앞선 시도였다. 애플은 이후 출시한 아이폰용 A시리즈 SoC는 물론 이 구조를 계승해 자체 설계한 PC용 SoC인 애플 실리콘 M시리즈에도 꾸준히 뉴럴엔진을 탑재했다. 뉴럴엔진은 주로 사진·음성·자연어 처리 등 다양한 기능을 처리했다. 지난 해 공개된 애플 실리콘 M4에 탑재된 뉴럴엔진은 INT8(정수, 8비트) 기준 38 TOPS 수준의 연산 성능을 갖췄다. 애플, M5 칩 GPU 구조 개선 애플이 16일 아이패드 프로와 맥북프로 신제품에 탑재한 애플 실리콘 'M5'는 최대 10코어 CPU, 10코어 GPU와 16코어 NPU '뉴럴 엔진'으로 구성됐다. 특기할 점은 GPU 내부에 AI 연산을 가속할 수 있는 '신경망 가속기'를 통합했다는 것이다. 이는 AI 연산을 전용 NPU에만 전담시키던 기존과 달리 대부분의 AI 연산을 GPU로 우선 처리하겠다는 의도로 해석된다. 애플은 이런 구조 변경을 통해 "AI 작업 처리시 M4 대비 최대 4배 성능이 향상됐다"고 설명했다. 기준이 되는 AI 연산의 정밀도(FP16, INT8, FP8)나 벤치마크 방식은 공개되지 않았지만, CPU와 뉴럴 엔진 관련 언급은 나오지 않았다. GPU를 AI 처리의 중심에 둔 것이다. 인텔·AMD, AI 연산에 GPU 우선 활용 AI PC 시장이 본격화되면서, 인텔·퀄컴 등 주요 반도체 업체들도 GPU 기반 AI 연산을 강화하는 전략을 앞다퉈 내세우고 있다. 인텔이 올 연말부터 공급할 코어 울트라 시리즈3(팬서레이크)는 GPU의 AI 연산 성능을 전작(코어 울트라 200V) 대비 두 배 가까운 120 TOPS로 끌어올린 반면 NPU 연산 성능은 소폭 상승한 50 TOPS 수준에 머물렀다. AMD가 공급하는 라이젠 AI 300 시리즈 역시 내장 라데온 GPU의 AI 처리 성능을 강화했다. 새로운 RDNA 3.5 아키텍처는 FP16·INT8 연산을 지원하며, NPU와 GPU가 AI 연산을 병행하는 구조를 구현했다. NPU TOPS보다 시스템 전체 연산 성능 중요도 상승 그동안 AI 연산 성능의 기준은 NPU의 초당 연산 횟수(TOPS)로 나타났다. 그러나 GPU를 활용한 추론이 AI 연산이 주류로 부상하면서 NPU에만 의존할 수 없게 됐다. NPU 뿐만 아니라 GPU, CPU를 모두 조화롭게 활용해야 하는 상황인 것이다. 애플이 AI 연산 처리에 GPU를 앞세운 것은 이런 변화를 반영한 것이다. AI 연산은 더 이상 NPU라는 전용 블록의 역할이 아니라, SoC 전반이 수행해야 하는 가장 중요한 작업이 됐다.

2025.10.16 17:43권봉석

인텔, 추론 특화 GPU '크레센트 아일랜드' 공개

인텔이 14일(미국 현지시간) '2025 OCP 글로벌 서밋' 행사에서 새 아키텍처를 적용한 데이터센터용 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 내년 하반기부터 시제품 공급에 나서겠다고 밝혔다. 인텔은 AI 모델 훈련에 내년 출시를 목표로 현재 개발중인 GPU '재규어 쇼어'를, 훈련을 마친 AI 모델 구동에 크레센트 아일랜드를 투입하는 투트랙 전략을 선택했다. 크레센트 아일랜드는 고성능 서버 등에서 이미 훈련을 마친 AI 모델을 구동하려는 수요에 초점을 맞췄다. 새로운 아키텍처 'Xe3P' 기반으로 고대역폭메모리(HBM) 대비 생산 원가를 낮출 수 있는 LPDDR5X 메모리 160GB와 함께 구성된다. 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 인텔 CTO, 9월 말 "추론 특화 새 GPU 개발중" 인텔은 9월 말 미국 애리조나 주에서 진행한 기술 행사 '인텔 테크투어 US'에서 신규 GPU 출시 가능성을 내비쳤다. 당시 사친 카티 인텔 최고 기술 및 AI 책임자(CTO)는 "관련 업계는 그간 GPU를 활용한 모델 학습과 훈련에 수천 억 달러를 투자했지만 그 결실이 필요한 상황이다. 우리 일상을 바꾸는 것은 AI 훈련이 아니라 추론과 에이전틱 AI"라고 언급했다. 이어 ”현재 메모리 대역폭과 탑재 용량을 늘린 추론 특화 GPU를 개발중이며 토큰 기반 워크로드와 엔터프라이즈급 추론 성능을 낼 것"이라고 설명한 바 있다. 아크 GPU 세 번째 아키텍처 'Xe3P' 적용 인텔이 이날 공개한 크레센트 아일랜드 GPU는 새로운 GPU 아키텍처 'Xe3P' 기반이다. 세대 구분으로는 3세대 '셀레스티얼'에 속한다. 인텔은 2021년 GPU 브랜드 '아크'(Arc)와 함께 각 아키텍처 별로 '배틀메이지', '셀레스티얼', '드루이드' 등 각 아키텍처 별 코드명도 함께 공개했다. 2022년 출시한 노트북용 아크 A350M, 데스크톱용 아크 A750/A770은 '알케미스트'에 속한다. 작년 말 출시된 아크 B570/B580과 올 연말부터 주요 PC 제조사에 공급될 코어 울트라 시리즈3(팬서레이크) 내장 'Xe3' GPU는 두 번째 아키텍처 '배틀메이지'에 기반했다. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 '인텔 테크투어 US' 행사에서 "Xe3P는 내년에 출시될 GPU로 인텔 그래픽 IP에서 상당한 진전을 보일 것"이라고 설명했다. 비용 대비 우위 LPDDR5X 메모리 채택 인텔은 크레센트 아일랜드가 전력 소모와 비용 효율에 최적화된 공랭식 기업용 서버를 위해 설계됐다고 밝혔다. 거대언어모델(LLM)의 정밀도를 결정하는 요소 중 하나로 매개변수(패러미터) 수를 들 수 있다. 매개변수가 클 수록 보다 좋은 결과를 얻을 수 있지만 용량도 그만큼 커진다. 크레센트 아일랜드는 작업공간으로 고대역폭메모리(HBM) 대신 LPDDR5X 메모리 160GB를 탑재한다. 또 추론에 특화된 다양한 자료형 지원을 내세웠다. 코어 울트라 시리즈3의 Xe3 GPU는 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32에 더해 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화도 지원한다. 크레센트 아일랜드 역시 Xe3 GPU에 이어 폭 넓은 자료형을 지원할 것으로 예상된다. 내년 하반기 중 시제품 공급 전망 인텔은 크레센트 아일랜드 구동을 위한 소프트웨어 초기 최적화에는 아크 프로 B시리즈 GPU를 활용한다고 밝혔다. 아크 프로 B시리즈는 지난 5월 컴퓨텍스 타이베이 2025 기간 중 공개한 제품으로 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50' 등 2종으로 구성됐다. 인텔은 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 서버용 GPU '재규어 쇼어'도 현재 개발중 인텔은 현재 AI 연산을 가속할 수 있는 GPU 시장에서 엔비디아나 AMD 대비 열세에 있다. 2019년 인수한 이스라엘 스타트업 '하바나랩스' 기술력을 기반으로 가우디 시리즈를 출시하고 있다. 지난 해 가격 대비 성능을 내세운 '가우디3'를 출시했지만 최대 5억 달러 규모 매출을 예상했던 인텔의 예상에는 미치지 못했다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품에서 GPU만 모은 제품으로 퇴보했다. 올 2월에는 팰콘 쇼어 출시를 백지화하고 내부 테스트용으로만 활용할 것이라고 밝히기도 했다. 내년 출시할 서버용 GPU '재규어 쇼어' 역시 아직까지 시제품이나 구체적인 제원을 공개하지 못했다. 다만 사친 카티 CTO는 "쇼어(Shore) GPU에 대해 매년 예측 가능한 개발 사이클을 이어갈 것"이라고 설명했다.

2025.10.15 08:51권봉석

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

젠슨 황 "한국, AI 시대 이끌 잠재력 갖췄다"

[르포] "韓 치킨, 소문대로 맛있어요"…APEC 참가자들, KB금융·롯데 덕에 K-푸드 '열광'

초호화 출장·위증 논란 '홈앤쇼핑'...재승인 괜찮나

홈플러스 ‘운명의 날’…농협 나서기 어려운 까닭은

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.