• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI GPU'통합검색 결과 입니다. (296건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

NHN 기술 부문, 3분기 매출 8.8%↑…공공·AI 클라우드 사업 호조

NHN이 3분기 기술 부문에서 안정적인 성장세를 이어가며 클라우드 사업 중심의 체질 강화를 가속하고 있다. 특히 NHN클라우드는 정부 공공·AI 인프라 구축과 주요 기관 시스템 전환 사업 성과를 바탕으로 기술 부문 성장을 견인했다. NHN은 10일 올해 3분기 실적 발표 컨퍼런스콜을 통해 기술 부문 매출이 전년 동기 대비 8.8% 증가한 1천118억원을 기록했다고 발표했다. 전 분기 대비로도 7% 증가하며 안정적인 성과를 거뒀다. 이번 성장세는 NHN클라우드의 공공·AI 부문 매출 증가가 견인한 것으로 풀이된다. NHN클라우드는 국가정보원 보안기준 상 등급을 획득하며 공공 클라우드 신뢰를 확보했다. 이를 바탕으로 국가정보자원관리원 대구센터에 상면을 추가로 확보해 주요 정부 시스템 이관 작업을 진행 중이다. 또 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 '그래픽처리장치(GPU) 확보·구축·운용지원 사업'의 최다 구축 사업자로 선정돼 7천6백 장 규모의 엔비디아 B200 GPU를 공급할 계획이다. 내년 1분기부터 본격 가동을 목표로 대규모 수냉식 GPU 클러스터를 구축 중이며 이 사업이 향후 AI 인프라 매출 확대의 발판이 될 전망이다. 공공 클라우드 구축 사례도 잇따르고 있다. NHN클라우드는 SRT 운영 시스템 전체를 클라우드로 전환하며 추석 명절 예매 기간 중 오류 0건을 기록하며 안정성과 확장성을 입증했다. 아울러 중앙보훈병원의 차세대 정보시스템 인프라 전환 사업을 수주해 전국 9개 보훈의료기관의 병원정보시스템을 클라우드 기반으로 일원화하고 있다. 민감한 의료 데이터를 다루는 공공병원 시스템에 클라우드가 도입된 첫 사례로, 의료·공공 클라우드 시장 확장에 속도를 낼 방침이다. 이외에도 NHN 기술 부문은 통합 메시지 플랫폼 '노티피케이션'의 사용량 증가, NHN두레이의 국방부 '국방이음' 협업 플랫폼 수주, 일본 시장에서의 NHN테코러스 클라우드 매니지드 서비스(MSP) 성장세 등으로 글로벌 매출 기반을 강화하고 있다. 김동훈 NHN클라우드 대표는 "GPU 확보 사업을 비롯한 정부 AI 인프라 구축이 내년 1분기 내 시스템 구축을 완료하고 2분기부터 본격적인 매출로 이어질 것"이라며 "국가정보자원관리원 대구센터의 추가 상면 확보를 기반으로 주요 정부 시스템 이관을 주도할 것"이라고 강조했다.

2025.11.10 11:04한정호 기자

"팔리든, 합치든, 함께하든"... AI 반도체, 세 갈래 생존전 시작됐다

AI 반도체 시장이 대전환기에 들어섰다. AI 모델의 단계가 '훈련(Training)'에서 '추론(Inference)'으로 이동하며, 글로벌 빅테크들은 GPU(그래픽처리장치) 이후 시대를 준비하고 있는 것이다. 이에 국내외 AI반도체 스타트업은 인수, 컨소시엄, 고객동맹형으로 생존을 모색하고 있다. 7일 반도체 업계에 따르면 최근 AI 반도체 산업의 무게중심이 훈련용 칩에서 추론용 칩으로 이동하고 있다. 챗GPT를 비롯한 생성형 AI의 확산으로, 서비스 제공 기업들이 대규모 학습보다 실시간 응답 효율성을 높이는 데 집중하면서다. 추론형 칩이 주목받는 이유로 전력 효율과 운영비 절감 효과가 꼽힌다. 대모델 학습이 일회성 작업이라면, 추론은 상시 반복되는 과정이어서 누적 전력 소모가 훨씬 크기 때문이다. 특히 글로벌 데이터센터들이 에너지 절감과 처리 속도 향상을 동시에 요구하면서, GPU 기반 범용 구조 대신 특정 워크로드에 최적화된 전용 ASIC(맞춤형 반도체) 수요가 급증하고 있다. 이 같은 시장 변화는 AI 반도체 스타트업들의 생존 전략에도 직접적인 영향을 미치고 있다. 시장 전체가 여전히 GPU 중심 구조에 의존하고 있는 상황에서 스타트업들은 독자 노선만으로는 수익성을 확보하기 어렵다고 판단하고 있는 것이다. 이에 따라 일부는 대기업 인수에 나서고, 일부는 컨소시엄이나 고객사 공동 설계 방식으로 기술을 시장 안으로 편입시키는 전략을 택하고 있다. 결국 추론 효율 경쟁이 AI칩 산업 전반의 재편으로 이어지고 있는 셈이다. 거대 기업 품으로… '인수 전쟁' 치열 AI 반도체 스타트업들이 가장 많이 택하는 생존 방식은 대기업 인수다. 유망한 스타트업이 빅테크의 생태계에 편입돼 기술·인력·시간을 동시에 거래하는 형태다. 대표적인 예시가 인텔의 삼바노바 인수 추진이다. 삼바노바는 누적 투자액이 10억 달러를 넘겼지만, 후속 자금 유치가 막히며 매각을 검토하고 있다. AI칩 개발은 테이프아웃 이후 양산까지 3년 이상 걸리고 수천억 원이 투입되는 구조라 독자 생존이 어려운 기업들이 매각 협상에 나서는 사례가 늘고 있다. 빅테크에서도 자체 칩 개발을 위해 인수를 시도 중이다. 엔비디아 의존도를 낮추고, 자체 칩 생태계를 구축하기 위함이다. 올해 상반기 있었던 메타의 퓨리오사AI 인수 시도 역시 같은 맥락이다. 메타는 퓨리오사AI 인수에는 실패했으나, 현재 미국 리보스 인수를 추진하고 있다. 소프트뱅크의 경우 앰페어를 65억달러(약 9조4천600억원)에 인수했으며, AMD는 AI 소프트웨어 최적화 스타트업 브리움을 흡수했다. AI 반도체 업계 관계자는 “AI 반도체 스타트업의 인수는 어느 회사나 투자자들이 기대하는 어떤 성과를 내야하는 냉엄한 현실을 보여주는 예시”라면서도 “한편으로는 AI 반도체가 이전에 없던 분야이기 때문에, 어려운 도전에 대해서 똘똘 뭉쳐 있는 스타트업 팀이 성과를 더 내기 좋은 구조다. 대기업도 그래서 스타트업 인수로 눈을 돌리는 것 같다”고 설명했다. 협력으로 버틴다… 대기업 연합형 생존 모델 확산 두 번째 생존 방식은 대기업 컨소시엄이다. 대기업에 종속되는 인수형과 달리 AI 반도체 스타트업이 대기업과 손잡고 운영을 공유하는 구조다. 해당 방식의 대표적인 예시는 국내 AI 반도체 스타트업 리벨리온이다. 리벨리온은 SK텔레콤, SK하이닉스 등 SK그릅과 함께 국산 AI반도체 개발을 위한 전략적 컨소시엄을 꾸려 상용화에 나섰다. 리벨리온은 이 외에도 KT, 네이버 등 국내 대기업과 협력해 시장을 공략하고 있다. 지난해 투자를 받기 시작한 아람코도 대기업 협력 모델 중 하나로 볼 수 있다. 또한 반도체의 전설 짐 켈러가 있는 텐스토렌트와 LG AI연구원, 삼성전자 간 협력처럼 RISC-V(리스크파이브) 기반 IP와 대형 언어모델(LLM) 최적화를 함께 개발하는 형태도 나타나고 있다. 업계에서는 이러한 대기업 연합형 모델이 스타트업의 자금난을 완화하고 공급망 리스크를 줄이는 현실적 대안으로 보고 있다. 다만 협력 구조가 복잡해지는 만큼 스타트업의 장점인 빠른 의사결정이 다소 늦어진다는 점이 한계로 지목된다. 고객과 함께 만든다… 맞춤형 공동 설계 확산 세 번째 방식은 고객동맹 모델이다. 칩 기업이 클라우드·AI 서비스 사업자 등 실제 수요자와 공동으로 반도체를 설계·최적화하는 형태다. 미국 세레브라스시스템즈는 UAE 국부펀드 계열 G42와 협력해 AI 데이터센터 '콘도르 갤럭시'를 구축했다. 양사는 초대형 인공지능 모델 '자이스(Jais)'의 추론 효율을 높이기 위해하드웨어와 소프트웨어를 함께 최적화하는 공동 개발을 진행하고 있다. 초대형 모델 자이스의 추론 효율을 높이기 위한 하드웨어–소프트웨어 공동 최적화를 진행 중이다. 그록은 생성형 AI 서비스 기업인 퍼플렉시티AI, 캐릭터 AI등과 협력해 응용프로그램인터페이스(API) 기반의 추론 성능을 개선하는 서비스형 추론 모델을 운영하고 있다. 그래프코어는 스태빌리티AI, 마이크로소프트, 델과 협력해 이미지 생성 모델에 최적화된 지능처리장치(IPU) 공동 설계를 추진하고 있다. 한 AI반도체 업계 관계자는 “현재 AI반도체 기업들의 생존 방식은 전략이기도 하지만 산업 구조가 강제한 결과”라며 “칩 개발에만 수천억원의 자금이 필요하고, GPU 중심의 생태계가 이어지고 있기 때문에 독자적으로 살아남기 힘든 산업 구조다”라고 말했다.

2025.11.09 14:14전화평 기자

AI 시대, 경쟁 무게는 인프라에서 'AI OS'로

인공지능(AI) 경쟁의 무게추가 인프라에서 운영체제(OS)로 옮겨가고 있다. 수년간 글로벌 기업들은 대규모 그래픽처리장치(GPU) 확보와 슈퍼컴퓨터 구축을 통해 AI 패권을 다퉜지만, 이제는 AI를 효율적으로 운영하고 자율적으로 관리하는 'AI-레디 OS'가 새로운 격전지로 부상하고 있다. 9일 업계에 따르면 AI 생태계의 경쟁력은 단순히 대규모 인프라 확보가 아닌, 이를 얼마나 지능적으로 활용하고 연결할 수 있는가로 이동하고 있다. 특히 AI OS는 AI 모델이 데이터를 학습하고 추론하는 과정을 자동화하며 기존의 인프라 효율을 극대화하는 핵심 소프트웨어(SW) 계층으로 떠올랐다. AI 시대 인프라 경쟁은 오랫동안 하드웨어(HW) 중심이었다. 엔비디아·AMD·인텔 등은 GPU와 AI 서버 시장을 장악하며 AI 산업의 토대를 구축했다. 그러나 최근에는 HW 성능만으로는 AI 서비스의 효율성을 확보하기 어렵다는 인식이 확산되면서 각 기업은 AI 전용 OS와 SW 생태계로 눈을 돌리고 있다. 대표적인 사례가 엔비디아의 '엔비디아 AI 엔터프라이즈'다. GPU 기반 병렬 컴퓨팅 기술인 '쿠다'를 넘어 AI 개발·배포·관리를 위한 통합 OS 플랫폼으로 진화했다. 엔비디아는 이를 통해 기업이 클라우드나 온프레미스 환경을 가리지 않고 동일한 AI 경험을 구현하도록 지원하며 사실상 AI용 OS의 표준으로 자리잡았다. AI OS 경쟁의 확산은 전통적인 리눅스 진영으로도 번지고 있다. 수세는 최근 AI 내장형 리눅스 'SLES 16'을 공개하며 AI가 직접 OS 내부에서 실행·예측·관리되는 '에이전틱 AI' 개념을 도입했다. 이 OS는 기업이 원하는 대형언어모델(LLM)을 자유롭게 연동하고 로컬 환경에서 자율 운영을 구현할 수 있는 개방형 구조를 제공한다. 레드햇 역시 '레드햇 엔터프라이즈 리눅스(RHEL) AI' 배포판을 통해 전통적 리눅스 OS를 AI 워크로드에 최적화된 형태로 발전시켰다. RHEL AI는 AI 모델의 학습·서빙·배포를 안정화하는 LLM옵스 엔터프라이즈 OS로, 클라우드 환경에서의 AI 운영을 단일 체계로 통합하고 있다. 이 흐름은 SW 중심의 데이터 플랫폼 기업으로까지 확장되고 있다. 글로벌 데이터 인프라 기업 배스트 데이터는 AI 시대 전통적인 스토리지가 아니라, AI OS를 만든다고 선언했다. GPU 확장성과 데이터 최적화를 기반으로 AI 학습과 추론을 하나의 OS처럼 통합 관리하는 데이터 기반 OS를 공급 중이다. 배스트 데이터는 이미 SK텔레콤·LG·현대차그룹 포티투닷 등에 AI 플랫폼을 공급하고 있으며 일론 머스크의 xAI, 클라우드 기업 코어위브 등 글로벌 AI 기업도 이 시스템을 기반으로 대규모 GPU 클러스터를 운영하고 있다. 이처럼 HW 기업이 SW와 OS로 확장하는 현상은 단순 사업 다각화를 넘어 AI 생태계 주도권의 재편으로 풀이된다. 과거에는 GPU를 더 많이 보유한 기업이 우위를 점했지만, 이제는 데이터를 더 효율적으로 관리하고 에이전트를 통해 자율적 판단·추론을 수행하는 운영 시스템을 구축하느냐가 경쟁의 관건이 되고 있다. 글로벌 빅테크 역시 자사 OS에 AI를 깊숙이 통합하고 있다. 애플은 '애플 인텔리전스'를 iOS와 맥OS에 내재화해 기기 단위에서의 온디바이스 AI를 구현했고 마이크로소프트(MS)는 '코파일럿+PC'를 통해 윈도우를 AI 중심으로 재설계했다. 구글 역시 안드로이드 OS에 '제미나이'를 통합해 AI OS 전환을 본격화하고 있다. 업계는 이제 AI 경쟁의 본질이 규모에서 효율로 전환됐다고 입을 모은다. 단순히 GPU와 데이터센터를 확보하는 것보다 AI 모델이 스스로 판단하고 관리하는 OS를 얼마나 정교하게 설계하느냐가 기업 경쟁력의 핵심 지표로 떠올랐다 레넌 할락 배스트 데이터 최고경영자(CEO)는 최근 기자간담회에서 "AI 시대에는 하드웨어(HW)보다 데이터를 관리하고 활용할 수 있는 소프트웨어(SW) 계층이 중요하다"며 "AI가 단순히 질문에 답하는 수준을 넘어 사고하고 판단하는 에이전트의 역할을 하려면 이러한 OS적 접근이 필수"라고 강조했다. 국내 업계 관계자는 "AI 인프라 전쟁은 이미 HW 단계를 넘어섰다"며 "이제는 AI가 스스로 최적화하고 의사결정까지 수행하는 AI-레디 OS를 누가 선점하느냐가 미래 AI 패권을 좌우하게 될 것"이라고 말했다.

2025.11.09 10:16한정호 기자

'검색 기업'→'에이전트 플랫폼'...네이버, AI로 정체성 바꾼다

네이버가 내년부터 순차적으로 선보일 인공지능(AI) 에이전트를 통해 기업 정체성을 전면 개편한다. '검색 중심 플랫폼'에서 벗어나 사용자의 의도를 이해하고 직접 행동을 수행하는 'AI 에이전트 플랫폼'으로 진화하겠다는 구상이다. 김범준 네이버 최고운영책임자(COO)는 6일 서울 코엑스에서 개최된 팀네이버 통합 컨퍼런스 '단25'에서 “그동안은 검색 서비스가 가장 대표적인 네이버의 정체성이었다”며 “'원하는 것을 찾아드릴게요'라고 하는 사업자에서 앞으로는 고객이 원하는 것을 수행해 줄 수 있는 에이전트 서비스로서 자사의 정체성을 바꾸겠다”고 언급했다. 이어 “내년 여름정도에는 AI 탭이 출시되면 사용자가 정말로 원하는 것을 제안하는 통합 에이전트의 모습을 보여드릴 수 있을 것”이라고 덧붙였다. 또 그는 네이버의 모든 서비스가 하나의 서비스처럼 유기적으로 연결되는 '심리스한 경험'을 자사 AI 에이전트의 장점으로 꼽았다. 김 COO는 “가게 점원들처럼 적재적소에 나를 도와줄 수 있는 경험이야말로 정말로 부드러운 에이전트 경험이 아닐까 생각한다”며 “온 서비스 AI를 통해 좋은 사용 경험을 제공하면 시간이 지난 후 진짜 훌륭한 에이전트의 표준으로 자리매김할 것”이라고 내다봤다. AI탭서 통합 에이전트 경험 제공…비즈니스 솔루션도 공개 이같은 네이버의 전략은 내년부터 차례로 공개될 AI 에이전트를 바탕으로 실현된다. 이날 네이버는 내년 1분기 AI 쇼핑 서비스 '네이버플러스 스토어'에 쇼핑 에이전트 출시 계획을 알렸다. 이후 2분기에는 통합검색이 AI 에이전트를 기반으로 진화한 'AI탭'을 선보일 예정이다. 이를 위해 네이버는 서비스 전반 데이터와 기술 인프라를 하나로 통합한 '에이전트 N'을 새롭게 구축했다. '에이전트 N'은 온서비스 AI를 통해 축적된 버티컬 AI 역량을 고도화해 사용자의 맥락을 이해하고 다음 행동을 예측 및 제안하며 실행까지 이어지는 구조로 만들어졌다. 네이버는 내년부터 비즈니스 통합 에이전트 '에이전트 N 포 비즈니스'도 공개할 예정이다. 이 서비스는 쇼핑, 광고, 플레이스 등 모든 사업자들을 위한 AI 솔루션으로, 그동안 분산돼 있던 사업자 솔루션과 데이터를 하나의 비즈니스 허브로 통합해 사업자가 AI를 기반으로 비즈니스 환경을 분석하고 상황을 진단, 개선하는데 도움을 준다는 것이 회사 측 설명이다. 피지컬 AI 위해 GPU만 1조원 넘게 투자…미니노이드는 이달 말 사옥 도입 현장에서 네이버는 AI 적용의 다음 단계인 '피지컬 AI' 투자 계획도 구체화했다. 피지컬 AI를 구현하기 위해 국내 최대이자 최고 수준의 인프라를 목표로 AI 생태계 경쟁력을 위한 데이터센터와 컴퓨팅 투자를 적극적으로 확대한다. 내년까지 1조원 이상의 GPU 투자를 진행할 방침이며 네이버 사옥 1784와 각 세종 데이터센터를 연결하는 피지컬 AI의 테스트베드가 본격적으로 운영된다. 네이버클라우드는 이같은 기술과 인프라를 기반으로 산업 특화 AI 생태계를 확장해나간다. 조선, 에너지, 바이오 등 주요 산업 기업과 협력해 AI 기반 공정 운영, 설비 관리, 품질 예측 등 제조 전 과정에서의 AI 활용을 지원한다. 또 산업 현장에 최적화된 기술이 빠르게 자리잡을 수 있도록 뒷받침한다. 피지컬 AI의 하드웨어 부분 중 하나인 로봇 가운데, 매사추세츠공과대학과 네이버가 협력해서 개발하고 있는 소형 휴머노이드 로봇 '미니노이드'도 영상을 통해 모습을 드러냈다. '미니노이드'는 최수연 네이버 대표의 기조연설 중 제시된 영상에서 모습이 잠시 비췄다. 김유원 네이버클라우드 대표는 이달 말부터 '미니노이드'가 제2사옥 네이버1784에서 나타날 것을 예고하기도 했다. 김 대표는 “이달 말쯤 1m 정도 되는 휴머노이드 로봇이 사옥에서 고된 노동에 시달리고 있는 모습을 아마 볼 수 있을 것”이라고 밝혔다. 해당 로봇은 네이버의 로봇 클라우드 '아크'와 웹 기반 로봇 운영체제(OS) '아크 마인드'를 통해 구동된다. 로봇 OS 및 제어 플랫폼은 네이버가 최고 수준의 역량을 가지고 신성장동력을 확보할 수 있을 것이라고 자신하는 분야이기도 하다.

2025.11.06 15:44박서린 기자

최수연 "네이버, 기술력으로 韓 AI 3대 강국 도약 기여"

“새로운 시대를 맞아 한국의 인공지능(AI)은 인프라에서 서비스로, 산업 전반으로 빠르게 확장되고 있다. 반도체·자동차·조선·방산으로 대표되는 한국의 제조업 경쟁력에 네이버의 AI 중심의 소프트웨어 혁신이 만날 때 대한민국 산업의 AI 혁신은 본격화될 것이다. 네이버만의 풀스택 AI 기술 역량을 바탕으로 한국의 AI 3대 강국 도약을 함께 하겠다” 최수연 네이버 대표는 6일 서울 코엑스에서 열린 팀네이버 통합 컨퍼런스 '단25'에서 이같이 말했다. 네이버가 주요 서비스를 중심으로 AI 에이전트를 전면에 도입하고, 반도체·자동차·조선 등 핵심 제조 산업의 AX 경쟁력을 높이는 등 서비스부터 기업 간 거래(B2B)까지 아우르는 두 축의 AI 전략 방향성을 공개한 것이다. 네이버는 주요 서비스에 AI를 접목한 그간의 경험과 기술력을 바탕으로, 쇼핑부터 검색, 광고 등 주요 서비스에 순차적으로 고도화된 에이전트를 본격 도입한다고 밝혔다. 내년 1분기에는 AI 쇼핑 서비스 '네이버플러스 스토어'에 쇼핑 에이전트가 출시될 예정이며, 2분기에는 통합검색이 AI 에이전트를 기반으로 진화한 'AI탭'을 선보일 계획이다. 최 대표는 “사용자는 어떤 검색어를 입력할지 고민하지 않고, '에이전트 N'과의 대화만으로 AI 에이전트가 사용자의 의도를 파악해 원하는 콘텐츠·상품·서비스로 연결하고 실제 행동까지 수행할 것” 이라고 설명했다. 이를 위해 네이버는 서비스 전반의 데이터와 기술 인프라를 하나로 통합한 에이전트 N을 새롭게 구축했다. 에이전트 N은 '온서비스 AI'를 통해 축적된 버티컬 AI 역량을 고도화해 사용자의 맥락을 이해하고 다음 행동을 예측·제안하며 실행까지 완결하는 구조로 설계됐다. 온서비스 AI를 에이전트 N으로 고도화하는 프로젝트를 이끌고 있는 김범준 최고운영책임자(COO)는 에이전트 N이 실제 서비스에 구현돼 구매와 결제까지 이어지는 사례에 대해 미리 공개했다. 김COO는 “다양한 유형의 메타데이터를 확보할 수 있는 자사만의 장점을 살려 쇼핑 에이전트의 경우 실제 구매자와 예약자만 남길 수 있는 리뷰, 판매자와 직접 연결된 재고 데이터 등 신뢰도 높은 데이터 인프라를 구축했으며, 이를 분석하는 기술적 검증 체계도 갖췄다”고 강조했다. 창작자와 비즈니스 파트너를 위한 AI 에이전트 생태계도 열린다. 네이버는 내년부터 순차적으로 비즈니스 통합 에이전트 '에이전트 N 포 비즈니스'를 공개할 예정이다. 이종민 광고 사업 부문장은 “네이버 비즈니스 에이전트는 쇼핑, 광고, 플레이스 등 모든 사업자들을 위한 AI 솔루션”이라며 “그동안 분산돼 있던 사업자 솔루션과 데이터를 하나의 비즈니스 허브로 통합해 사업자가 AI를 기반으로 비즈니스 환경을 분석하고, 현황을 손쉽게 진단, 개선하는데 도움을 줄 것”이라고 설명했다. 또한 네이버는 창작자들이 AI·XR 등 첨단 기술을 활용해 새로운 창작 실험을 이어갈 수 있도록 지원한다. 이재후 네이버앱 서비스 부문장은 “AI와 XR 기술을 통해 크리에이터들이 창작의 영역을 확장하고, 사용자는 초몰입·초실감의 콘텐츠를 경험할 수 있을 것”이라고 언급했다. 이를 위해 네이버는 게임, 음악, OTT 등 다양한 영역의 기업들과 지속적으로 협력을 확대할 예정이다. 뿐만 아니라 네이버는 국내 최대이자 최고 수준의 인프라를 목표로 AI 생태계 경쟁력을 위한 데이터센터와 컴퓨팅 투자를 공격적으로 확대한다. 내년까지 1조원 이상의 그래픽처리장치(GPU) 투자를 진행할 예정이며, 조만간 네이버 제2사옥 1784와 각 세종 데이터센터를 연결하는 '피지컬 AI'의 테스트베드가 본격 운영된다. 최 대표는 “앞으로 자사는 AI 시대에 가장 혁신적이지만 현실적인 파트너로서 기술이 사람과 사회에 더 가까이 닿을 수 있도록 모두를 위한 AI를 만들어 나가겠다”고 밝혔다.

2025.11.06 10:48박서린 기자

네이버 "GPU에 1조원 이상 투자…로봇, 신성장동력으로"

피지컬 인공지능(AI) 시장 공략을 가속화하고 있는 네이버가 그래픽처리장치(GPU)를 포함한 AI 인프라 투자에만 1조원 이상의 투자 계획을 발표했다. 글로벌 로봇 운영체제(OS) 시장 내 글로벌 최고 수준의 기술력을 바탕으로 새로운 신성장동력을 발굴할 방침이다. 김희철 네이버 최고재무책임자(CFO)는 5일 3분기 실적발표 컨퍼런스콜에서 “정확한 수치를 언급하기는 어렵지만, 올해 이미 GPU를 포함한 전체 인프라 투자가 약 1조원 단위로 예상된다”고 말했다. 이어 “다만 GPU 투자에는 미래를 위한 선제적인 투자 외에도 공공기관이나 민간 기업을 상대로 한 GPU 애저 서비스 등 수익과 직접 연동되는 투자도 상당 부분 있을 것으로 예상된다”며 “이를 종합적으로 감안해 재무적 여력이 허용되는 선에서는 적극적인 투자 기조를 이어갈 예정이고, 엔비디아와 이야기했던 GPU 6만장에 대한 활용 역시 이 범주 내에서 고려할 것”이라고 덧붙였다. 피지컬 AI는 로봇이나 자율주행차 등 물리적 기기와 결합된 AI를 일컫는다. 이러한 피지컬 AI 시장을 공략하기 위해 지난달 말 엔비디아와 손을 잡고 최신 GPU 6만장을 확보했다. 또한 이날 컨퍼런스콜에서는 피지컬 AI 시장 공략을 강화하기 위해 반도체, 조선, 방산 등 제조업 파트너사와도 협력을 진행 중이라고 밝힌 바 있다. “글로벌 로봇 시장 점유율 30%…신성장동력 확보할 것” 또한 네이버는 피지컬 AI의 하드웨어 부분 중 하나로 꼽히는 로봇을 신성장동력으로 점찍었다. 최수연 네이버 대표는 “피지컬 AI라는 개념이 나오기 전인 2017년부터 네이버 랩스를 설립해 선행 연구를 해왔다. 특히, 소프트웨어를 핵심 경쟁력으로 삼고 아크와 얼라이크라는 소프트웨어를 개발하는데 집중해왔다”고 말했다. 아크는 다양한 제조사의 로봇들을 통합 관리할 수 있는 표준화된 운영체제(OS)이고, 로봇계에서는 윈도우나 안드로이드의 역할을 수행하는 것을 지향하고 있다. 언라이크는 초정밀 3D 디지털 트윈 기술로 GPS가 닿지 않는 실내에서 로봇이 정확한 위치를 인식할 수 있게 하는 소프트웨어다. 그는 “이러한 선택과 집중 해 온 결과 해당 기술들은 지금 글로벌 최고 수준으로 자부하고 있고, 본사 건물인 네이버 1784를 설립한 3~4년 전 실제 환경을 테스트베드로 활용하면서 글로벌 레퍼런스를 확보하는 단계에 이르렀다”고 설명했다 그러면서 “해당 시장이 굉장히 초기이기 때문에 시장 규모를 말씀드리기는 조심스러운 단계이지만, 자사가 지향하는 로봇 OS 및 제어 플랫폼은 전세계 로보틱스 시장에서 39%를 차지할 것으로 예측하고 있다”며 “이 기술을 통해 새로운 신성장동력을 확보할 수 있을 것으로 기대한다”고 예상했다. 이날 네이버는 3분기 매출액 3조1천381억원, 영업이익 5천706억원의 실적을 공시했다. 매출과 영업이익은 각각 전년 동기 대비 15.6%, 8.6% 성장했다. 당기순이익은 7천347억원을 기록했다.

2025.11.05 11:34박서린 기자

MS, '네오클라우드'에 86조원 투자…AI 인프라 확보 총력

마이크로소프트(MS)가 인공지능(AI) 경쟁 속에서 고성능 그래픽처리장치(GPU) 확보를 목표로 올해 '네오클라우드' 기업에 600억 달러(약 86조원) 규모의 투자를 단행한 것으로 나타났다. 네오클라우드는 AI 모델 학습·추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 새로운 형태의 클라우드 사업자로, 코어위브와 네비우스그룹 등이 대표적이다. 기존 대형 클라우드보다 빠르게 GPU와 전력 등 자원을 확보할 수 있는 것이 강점이다. 5일 블룸버그통신에 따르면 MS는 AI 서비스 수요 급증에 대응하고자 네오클라우드 데이터센터 기업인 엔스케일·아이렌·람다 등과 대규모 계약을 체결했다. 이번 투자는 지난달 초 이후 두 배 가까이 늘어난 규모로, 최근 발표된 두 건의 신규 계약만 100억 달러(약 14조원) 이상에 이른다. 이 중 최대 규모인 230억 달러(약 33조원)는 영국 스타트업 엔스케일에 투입된다. 이번 계약으로 MS는 엔스케일이 운영하는 영국·노르웨이·포르투갈·미국 텍사스 등지의 데이터센터에서 엔비디아의 최신 GPU인 GB300 칩 약 20만 개를 확보하게 된다. MS는 데이터센터를 자체적으로 신속히 확충하기 어려운 상황에서 소규모 인프라 제공업체인 네오클라우드 기업들과의 협력을 확대하고 있다. 최근 공개된 계약 중에는 호주 기업 아이렌과의 97억 달러(약 14조원) 규모 칩 임대 계약, 람다와의 수십억 달러 규모 계약이 포함됐다. 계약 대부분이 5년 단위로 체결된 것으로 알려졌다. 블룸버그 인텔리전스의 아누라그 라나 애널리스트는 "MS의 잇따른 네오클라우드 계약은 업계 전반의 심각한 컴퓨팅 용량 부족 상황을 보여준다"며 "AI 워크로드 급증이 그 원인"이라고 말했다. MS 대변인은 "단기·장기 수요 신호에 기반해 유연성과 선택성을 갖춘 글로벌 인프라 전략을 추진하고 있다"며 "자체 데이터센터, 임차 시설, 제3자 제공업체 활용을 혼합해 전 세계적으로 인프라를 신속히 확장 중"이라고 밝혔다.

2025.11.05 11:22한정호 기자

삼성SDS, 동탄 데이터센터 서관 가동 '임박'…AI 인프라 확충 속도

삼성SDS가 차세대 성장축으로 삼은 인공지능(AI) 클라우드 인프라 확충 핵심 거점인 '동탄 데이터센터' 서관 가동을 앞두고 있다. 내년 1~2월 본격 오픈과 함께 그래픽처리장치(GPU) 기반 AI 클라우드 서비스 매출이 본격 반영되며 회사의 클라우드 사업이 새로운 성장 국면에 진입할 전망이다. 4일 업계에 따르면 삼성SDS는 오는 12월 전력 인입을 완료한 뒤 내년 초 동탄 데이터센터 서관을 본격 가동할 계획이다. 서관은 20메가와트(MW) 규모로 구축돼 있으며 동탄 센터의 동관과 함께 약 2만 대의 서버로 구성된 대규모 AI 전용 인프라를 완성하게 된다. 서관 가동을 통해 삼성SDS의 GPU 및 AI 클라우드 플랫폼인 '삼성 클라우드 플랫폼(SCP)'의 운영·공급이 확대될 전망이다. 그동안 AI 학습용 서버 수요와 클라우드 기반 GPU 인프라 부족으로 제한적이던 AI 서비스 매출도 내년 1분기부터 반영될 것으로 관측된다. 삼성SDS는 AI 클라우드 사업을 중심으로 한 구조 전환에 속도를 내고 있다. 올해 3분기 실적 기준, 전체 사업 부문 가운데 클라우드 부문이 성장세를 보이며 전년 동기 대비 5.9% 증가한 매출 6천746억원을 기록했다. 특히 클라우드 서비스 제공(CSP) 부문은 2천800억원으로 18% 성장했다. 이 같은 성장세를 발판으로 삼성SDS GPU 인프라 확보는 물론 국가 AI 사업에 적극 나섰다. 회사는 정부 주도 대규모 인프라 프로젝트인 '국가AI컴퓨팅센터' 구축 사업에 컨소시엄 주관사로 참여해 총 2조5천억원 규모의 AI 인프라 구축을 이끌 예정이다. 아울러 구미 지역에도 차세대 AI 데이터센터 신설을 추진 중이다. 구미 부지는 이미 확보했으며 설계와 디자인 단계에 들어갔다. 구미 센터는 냉각 효율을 높이기 위한 수랭식 시스템과 재생에너지 사용 확대로 ESG 기준을 충족하는 고효율 인프라로 구축된다. 이호준 삼성SDS 클라우드서비스사업부장은 지난달 30일 실적발표 컨퍼런스콜에서 "동탄 데이터센터 서관은 20MW 규모로 가동 준비 막바지 단계에 있으며 12월 전력 인입 후 내년 1~2월 중 본격 오픈할 예정"이라며 "GPU 및 클라우드 사업 매출이 본격 반영될 것"이라고 밝혔다.

2025.11.04 18:17한정호 기자

AI 팩토리가 미래 산업의 전력망...엔비디아 'NVL72'가 여는 지능 생산 시대

엔비디아가 제시한 'AI 팩토리' 개념이 단순한 데이터센터를 넘어 산업 인프라의 새로운 전력망으로 부상하고 있다. 정구형 엔비디아 코리아 솔루션스 아키텍트 팀장은 4일 서울 강남구 코엑스에서 열린 'SK AI 서밋 2025'에서 “AI 팩토리는 데이터를 투입해 학습하고, 추론하고, 다시 개선하는 지능의 생산 라인”이라며 AI가 AI를 관리하는 구조로 진화하고 있다”고 말했다. “AI 팩토리는 지능을 생산하는 공장” 정 팀장은 AI 팩토리를 “데이터를 넣으면 인사이트를 만들어내는 공장”이라고 정의했다. 그는 엔비디아가 제공하는 AI 블루프린트를 예시로 들었다. 해당 기술은 기업 개발자가 특정 사용 사례에 맞춰 맞춤형 생성형 AI 어플리케이션이나 디지털 트윈 솔루션을 신속하게 구축하고 배포할 수 있도록 설계된 포괄적인 참조 워크플로우 패키지다. 블루프린트는 오픈소스로 공개돼 있다. 정 팀장은 “개발자는 깃허브에서 그대로 클론해 자기 환경에 맞게 수정할 수 있다”고 설명했다. AI 팩토리의 심장 'NVL72' AI 팩토리의 핵심은 NV링크다. NV링크는 엔비디아가 개발한 고속 상호 연결 기술로, 서버 내 GPU 간 통신 속도를 높여 성능을 향상시킨다. 엔비디아가 제시한 NVL72는 기존 GPU 8개가 연결되던 NV링크를 72개까지 확장한 기술이다. 정 팀장은 엔비디아의 차세대 AI 인프라 시스템인 GB200 NVL72를 “에이전틱(Agentic) AI 서빙을 위한 가장 효율적이고 최적화된 플랫폼”이라고 소개했다. 이 시스템은 한 개의 그레이스 CPU와 두 개의 블랙웰 GPU로 구성된 'GB200 슈퍼칩'을 기본 단위로 한다. 각 컴퓨트 트레이에는 슈퍼칩 두 세트가 장착되고, NV링크 스위치 트레이가 네트워크 구조로 연결된다. 정 팀장은 “이전까지는 8개의 GPU가 마더보드 위에서 NV링크로 연결됐지만, NVL72는 NV링크를 외장화해 전체 72개 GPU를 하나의 NV링크 도메인으로 묶는다”며 “모든 트레이가 콘센트 꽂듯이 연결되고, NV링크 케이블이 GPU 간 병목을 없앤다”고 설명했다. 이 구조를 통해 NVL72는 GPU 간 130TB/s의 대역폭을 확보하며, FP8 기준 720 PFLOPS의 학습 성능, FP4 기준 1천440 PFLOPS의 추론 성능을 제공한다. 그는 “NVL72는 훈련용뿐 아니라 추론용으로도 완벽하게 최적화됐다”고 강조했다. 엔비디아, AI 팩토리 운영 시스템 '미션 컨트롤' 지원 NVL72는 냉각·전력·네트워크까지 미션 컨트롤이라는 운영 소프트웨어를 통해 통합 관리된다. 미션 컨트롤은 작동 중 오류가 날 경우 AI가 자동으로 오류를 바로 잡는 운영 시스템이다. 정 팀장은 “GPU가 장애가 나면 미션 컨트롤이 자동으로 복구 작업을 한다”며 “100개 중 2개가 에러라도 나머지 98개를 다시 묶어 작업을 시작한다. 장애가 나도 1분 내에 자동으로 재시작된다”고 전했다. 이 소프트웨어는 BMS(Building Management system)와 연동돼 전력 사용량·냉각 상태·하드웨어 텔레메트리를 한 화면에서 확인할 수 있다. 그는 “전력과 냉각, 센서 데이터가 미션 컨트롤과 연결되고, 그 정보는 그래파나(Grafana) 대시보드에서 한눈에 볼 수 있다”고 말했다. 국내 기업들도 'AI 팩토리' 경쟁 본격화 엔비디아의 AI 팩토리 개념은 국내 주요 그룹의 핵심 전략으로 빠르게 확산 중이다. 삼성전자는 반도체 전 공정에 AI를 접목한 'AI 메가팩토리'를 추진하며 수만 개 GPU 규모의 AI 팩토리 인프라를 구축 중이다. 현대자동차그룹은 약 30억 달러를 투자해 NVL72 기반 'AI 모빌리티 팩토리'를 설계했다. 자율주행·로보틱스·스마트팩토리를 하나의 학습·추론 시스템으로 통합한다. LG전자는 엔비디아 옴니버스 블루프린트로 디지털트윈과 로봇, AI홈을 연결하는 '피지컬 AI 팩토리'를 구현하고 있다. SK하이닉스·SK텔레콤은 반도체·통신 인프라를 묶은 그룹형 AI 팩토리 플랫폼으로 데이터센터 사업화를 추진 중이다. 정 팀장은 발표를 마치며 “AI 팩토리는 더 이상 서버실이 아니라 산업의 전력망”이라고 말했다. 그는 “AI는 이제 모델이 아니라 시스템이다. 그리고 그 시스템을 담는 공장이 바로 AI 팩토리”라며 “AI 팩토리는 전력망처럼 산업 전체를 움직이는 기반이 될 것”이라고 강조했다.

2025.11.04 17:07전화평 기자

슈퍼마이크로, 엔비디아 '베라 루빈' 플랫폼 도입…정부용 AI 인프라 강화

슈퍼마이크로가 엔비디아와의 협력을 강화해 정부 기관의 까다로운 요구사항을 충족하도록 최적화된 첨단 인공지능(AI) 인프라 솔루션을 선보인다. 슈퍼마이크로는 내년 출시 예정인 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션을 출시할 계획이라고 4일 밝혔다. 해당 플랫폼은 이전 세대 블랙웰 울트라 대비 3배 이상 향상된 AI 어텐션 가속 성능을 제공해 복잡한 AI 학습·추론 워크로드를 효율적으로 처리할 수 있도록 지원한다. 슈퍼마이크로는 엔비디아 HGX B300·B200, GB300·GB200, RTX PRO 6000 블랙웰 서버 에디션그래픽처리장치(GPU)를 기반으로 최신 제품군을 확장 중이다. 이 솔루션들은 ▲사이버 보안 및 리스크 탐지 ▲엔지니어링·설계 ▲헬스케어·생명과학 ▲데이터 분석·융합 플랫폼 ▲모델링·시뮬레이션 ▲보안 가상 인프라 등 주요 연방 정부 워크로드를 위한 연산 성능·효율성·확장성을 제공한다. 슈퍼마이크로는 미국 내 제조 역량을 기반으로 모든 정부용 시스템을 캘리포니아 새너제이에 위치한 글로벌 본사에서 개발·구축·검증한다. 이를 통해 무역협정법과 미국산우선구매법(BAA)을 모두 준수하며 공급망 보안을 강화하고 연방 정부의 신뢰성과 품질 요건을 충족한다는 방침이다. 슈퍼마이크로는 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션과 함께 자사 제품 중 가장 컴팩트한 2OU 엔비디아 HGX B300 8-GPU 솔루션도 공개했다. 해당 솔루션은 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS) 기반의 OCP랙 스케일 아키텍처로, 하나의 랙당 최대 144개의 GPU를 지원한다. 이를 통해 정부의 데이터센터 내 대규모 AI 및 고성능 컴퓨터(HPC) 구축에 필요한 성능과 확장성을 제공한다. 또 슈퍼마이크로는 정부용 엔비디아 AI 팩토리 표준 설계를 지원하기 위해 AI 솔루션 제품군을 확장하고 있다. 이 표준 설계는 온프레미스와 하이브리드 클라우드 환경에서 다중 AI 워크로드를 구축·관리할 수 있도록 지원하는 엔드투엔드 풀스택 아키텍처로, 정부 기관의 보안성·신뢰성·확장성 표준을 충족하도록 설계됐다. 새롭게 확장된 제품군에는 엔비디아 GB300 기반 슈퍼 AI 스테이션과 새로운 랙 스케일 엔비디아 GB200 NVL4 HPC 솔루션이 포함된다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "엔비디아와의 긴밀한 협력과 미국 내 제조 역량을 기반으로 미국 연방 정부가 신뢰할 수 있는 AI 구축 파트너로 자리매김하고 있다"며 "실리콘밸리의 중심지인 캘리포니아 새너제이에 본사와 제조시설, R&D 센터를 모두 두고 있어 연방 정부 고객을 위한 선도적 솔루션을 신속히 개발·구축·검증·제조할 수 있는 독보적 역량을 갖췄다"고 강조했다. 이어 "엔비디아와의 오랜 협력 관계를 바탕으로 미국 AI 인프라 개발의 선구자로서의 입지를 더욱 공고히 할 것"이라고 덧붙였다.

2025.11.04 15:29한정호 기자

오픈AI, 아마존과 54조원 규모 클라우드 계약

챗GPT 개발사 오픈AI가 마이크로소프트(MS) 중심의 클라우드 의존 체제를 벗어나 아마존웹서비스(AWS)와 손을 잡았다. 총 380억 달러(약 54조원)에 달하는 초대형 계약으로, 오픈AI는 엔비디아 그래픽처리장치(GPU) 수십만 개를 확보하고 차세대 인공지능(AI) 모델 훈련과 서비스 운영에 필요한 대규모 컴퓨팅 파워를 확보하게 됐다. 4일 로이터 등 외신에 따르면 오픈AI는 AWS와 7년간의 전략적 클라우드 파트너십을 체결하고 AWS의 '아마존 EC2 울트라서버'를 통해 자사 AI 워크로드를 운영하기로 했다. 이번 계약으로 오픈AI는 수십만개의 엔비디아 GB200·GB300 GPU를 활용할 수 있으며 향후 수천만 개의 CPU로 확장 가능한 인프라를 제공받는다. AWS는 내년 말까지 모든 컴퓨팅 용량을 공급한 뒤 2027년 이후 추가 확장 계획도 추진할 예정이다. 이를 통해 오픈AI는 2019년부터 이어온 MS '애저' 클라우드 독점 사용 계약에서 완전히 벗어나며 독립적 인프라 다변화 전략을 본격화했다. 이번 계약은 MS의 우선협상권이 종료된 뒤 성사됐다. 이번 계약은 오픈AI의 폭발적인 연산 수요를 감당하기 위한 행보로도 평가된다. 주요 외신은 "AI 산업의 연산력 경쟁이 인간 수준의 지능을 목표로 가속화되는 가운데, 오픈AI의 계약 규모는 이 부문 최대급"이라고 분석했다. 앞서 오픈AI는 AWS 외에도 구글·오라클 등과도 각각 수천억 달러 규모의 계약을 맺은 바 있다. 다만 시장에서는 오픈AI의 재무 여력에 대한 우려도 제기된다. 미국 증권가 일부에서는 적자 구조인 오픈AI가 수천억 달러 규모의 컴퓨팅 계약 자금을 어떻게 조달할지 의문을 제기했다. 오픈AI는 최근 비영리 구조를 재편하고 기업공개(IPO) 추진 가능성을 시사하며 자금 조달 기반을 넓히고 있다. 이번 계약 발표 후 아마존 주가는 하루 만에 4~5% 급등하며 사상 최고가를 경신했다. 시장에서는 이번 협력을 AWS가 AI 인프라 경쟁력을 재입증한 계기로 보고 있다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "최전선의 AI를 확장하려면 안정적인 대규모 컴퓨팅이 필수적이며 AWS와의 협력은 차세대를 이끌 컴퓨팅 생태계를 강화하고 더 많은 사람에게 첨단 AI를 제공하는 데 도움이 될 것"이라고 밝혔다. 맷 가먼 AWS CEO는 "우리의 최적화된 컴퓨팅 자원은 오픈AI의 방대한 AI 작업을 지원하는 데 독보적인 위치에 있으며 이번 협력이 AI 시대의 핵심 동력이 될 것"이라고 말했다.

2025.11.04 10:03한정호 기자

젠슨 황의 조언 "AI 인프라 조성? AI 공장부터 먼저 지어라"

[경주=권봉석 기자] "한국은 피지컬 AI와 로보틱스를 결합해 세계 제조업 혁신을 주도할 잠재력을 가진 나라다. 성공적인 AI 팩토리 구축이 향후 생태계 성장을 좌우할 것이다." 31일 저녁 경주예술의전당 원화홀에서 국내외 기자단을 마주한 젠슨 황 엔비디아 CEO가 여러 번 강조한 메시지다. 젠슨 황 CEO는 이날 오후 경북 경주 예술의전당에서 진행 중인 '아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋' 마지막 순서인 특별 연설에서 엔비디아가 주도하는 GPU 기반 가속컴퓨팅의 혁신과 AI 산업의 잠재력을 설명했다. "AI 생태계 조성, 인프라 먼저 만들어라" 조언 젠슨 황 CEO는 '국내 AI 생태계 조성을 위해 가장 필요한 것이 무엇인가'라는 질문에 "인프라가 중요하다. GPU를 이용해 AI 구성 요소인 '토큰'을 생산하는 AI 팩토리 없이는 AI를 만들 수 없다"고 단언했다. 이어 "한국 정부와 기업이 도입하기로 한 GPU 26만 장은 스타트업·대학·연구기관이 함께 성장할 토대가 될 것이다. 또 AI는 작동하는 지역을 가리지 않으며 한국은 아시아의 AI 허브로 도약할 기회를 갖고 있다"고 설명했다. 그는 "피지컬 AI는 한국 뿐만 아니라 세계적인 문제인 노동력 부족 문제를 AI와 로봇으로 해결할 수 있으며 한국이 조선·자동차·반도체 등 물리 기반 산업을 보유한 만큼 피지컬 AI를 통해 급속히 성장할 수 있다"고 내다봤다. "차세대 GPU 순항중... 韓 메모리 기술 세계 최고" 엔비디아는 내년 하반기 출시를 목표로 차세대 GPU '루빈'(Rubin)을 개발중이다. 젠슨 황 CEO는 "현재 루빈 GPU 개발은 순조롭게 진행중이며 내년 하반기 출시 일정에도 변함이 없다"고 밝혔다. 고대역폭메모리(HBM) 공급사인 삼성전자와 SK하이닉스에 대해 그는 "두 회사는 집중(SK하이닉스)와 다양성(삼성전자) 등 서로 다른 강점을 지닌 회사다. 두 회사의 HBM4 시제품 모두 정상 작동중이며 앞으로도 꾸준히 협력할 것"이라고 평가했다. 이어 "한국의 메모리 기술은 세계 최고 수준이다. 여러분들은 자부심을 가져도 좋다. 양사 모두 엔비디아 성장을 지탱하는 핵심 축"이라고 극찬했다. "화웨이, 다양한 기술 강점 지녀... 과소평가 금물" 중국 화웨이는 스마트폰용 시스템반도체(SoC) 자체 설계와 생산에서 쌓은 노하우를 바탕으로 최근 AI 가속기 등 반도체로 역량을 확장하고 있다. 젠슨 황 CEO는 이런 화웨이의 행보에 "엔비디아는 세계 최고 AI 인프라 회사로 리더십을 유지하고 있지만, 화웨이를 과소평가하는 것은 어리석은 일"이라고 경계했다. 이어 "화웨이는 5G와 스마트폰, 네트워킹 등 다양한 기술에 강점을 지녔다. 이런 기업과 경쟁을 벌이는 것은 전체 업계와 산업 발전을 촉진할 것"이라고 설명했다. 한편 그는 중국 시장에서 엔비디아 영향력이 축소되는 상황에 아쉬움을 드러냈다. "중국은 크고 중요한 시장이며 개발자들이 많다. 또 엔비디아는 미국 회사이며 미국 AI 기술이 널리 보급되기를 바란다." "AI 경쟁력 우위 확보 위해 모든 요소 1년에 한 번씩 갈아 엎는다" 젠슨 황 CEO는 엔비디아가 경쟁자를 압도할 수 있는 이유로 CPU와 GPU, 네트워킹 칩과 소프트웨어를 통합 개발하는 '극한의 동시 디자인'(Extreme Co-Design)을 들었다. 그는 "AI는 단일 칩이 아니라 시스템의 문제이며, 이를 위해 매년 CPU와 GPU, 네트워킹 칩, 스위치 등 총 6개 칩을 새로 설계하며 아키텍처·시스템·소프트웨어를 동시에 설계한다. 어렵고 힘든 일이지만 다른 회사는 불가능하다"고 강조했다. 약 한 시간 동안 국내외 취재진의 질문에 답한 젠슨 황 CEO는 "컴퓨팅이 60년 만에 완전히 재설계되고 있다. 이제 시작된 AI 산업의 기회는 상상 이상이며 삼성전자와 SK하이닉스 두 파트너와 새로운 시대를 함께 열 것"이라고 말했다.

2025.10.31 21:23권봉석 기자

젠슨 황 "한국, AI 시대 이끌 잠재력 갖췄다"

[경주=권봉석 기자] "AI는 모든 산업을 근본적으로 바꾸고 있다. 단순한 기술이 아니라 새로운 컴퓨팅 플랫폼이며, 인류가 지금까지 만든 어떤 도구보다 강력한 업무 수행 능력을 지녔다." 31일 오후 경북 경주 예술의전당에서 진행 중인 '아시아태평양경제협력체(APEC) 최고경영자(CEO) 서밋' 마지막 순서인 특별 연설에서 젠슨 황 엔비디아 최고경영자(CEO)가 이렇게 강조했다. 이날 젠슨 황 CEO는 "20세기 후반부터 지속된 '무어의 법칙'은 한계에 다다랐고 전통적인 CPU 중심 컴퓨팅은 성능과 전력 효율 면에서 정체됐다"며 "엔비디아가 30년 전 발명한 GPU 가속 컴퓨팅이 이 한계를 넘어서는 길을 열었다"고 밝혔다. "AI, 전 세계 생산성 향상과 성장의 원동력 될 것" 젠슨 황 CEO는 "GPU는 단순히 반도체가 아니라 알고리듬과 소프트웨어, 개발자 생태계 전체로 구성된 시스템이다. 엔비디아는 GPU를 연산에 활용할 수 있는 체계인 '쿠다'(CUDA)와 수천 개의 라이브러리를 구축해 컴퓨테이셔널 리소그래피, 양자물리, 분자역학, 로보틱스 등 다양한 분야의 혁신을 가져왔다"고 밝혔다. 그는 이어 "AI는 단순한 소프트웨어가 아니라 스스로 학습하고 추론하는 새로운 형태로 발전했다. 단순한 도구가 아니라 일(work)을 수행하는 존재이며, 전 세계의 산업 생산성을 높이고 GDP 성장의 원동력이 되어 수십조 달러 규모 시장을 만들 것"이라고 전망했다. "올해부터 AI 수익화 본격화... 선순환 구조 완성" 엔비디아는 올 초부터 'AI 인프라' 개념을 내세우고 있다. GPU나 네트워킹 칩 등 단순 반도체를 벗어나 AI를 처리하는 데 필요한 하드웨어와 소프트웨어를 모두 지원하겠다는 것이다. 젠슨 황 CEO는 "AI는 에너지를 지능으로 바꾸는 새로운 산업이다. 필요에 따라 새로운 토큰을 생성하는 GPU 기반 슈퍼컴퓨터가 바로 그 공장이 될 것"이라고 말했다. 이어 현행 서버용 AI GPU 가속기 '그레이스 블랙웰' 시스템을 예로 들어 "이 시스템은 엔비디아 최신 GPU로 구성된 슈퍼컴퓨터로 150만 개 부품으로 구성된 무게 2톤짜리 시스템이며 매우 빠른 속도로 토큰을 생성하는 진정한 AI 공장"이라고 설명했다. 그는 "AI가 올해 처음으로 수익을 내기 시작했다. AI가 생산하는 지능 토큰이 실제 비즈니스 가치로 전환되고 있다. 이로 인해 더 많은 GPU 공장과 데이터센터가 세워지는 선순환 구조가 만들어지고 있다"고 덧붙였다. "한국 기업과 GPU 공급 포함 협력 확대" 젠슨 황 엔비디아 CEO는 기조연설을 앞둔 이날 오후 경주 화백컨벤션센터에서 이재명 대통령과 만나 AI 관련 협력 방안을 논의했다. 한국 정부와 삼성전자, SK그룹, 현대자동차그룹 등에 각각 최대 5만장, 네이버클라우드에 6만장 등 총 26만장의 블랙웰 GPU가 공급된다(관련기사 참조). 젠슨 황 CEO는 "네이버는 세계에서 세 번째로 큰 한국어 대규모 언어모델(LLM)을 개발한 초기 파트너이며 삼성전자는 HBM 메모리와 반도체 제조 기술로, SK그룹과는 AI 팩토리 및 디지털 트윈 분야에서 협력한다. 현대차그룹은 자율주행과 로보틱스에서 AI 팩토리를 구축할 것"이라고 설명했다. "3대 필수 역량 갖춘 한국 AI 산업 성장에 동행할 것" 젠슨 황 CEO는 한국 AI 산업의 잠재력을 높이 평가했다. 그는 "전 세계에서 AI 혁신의 3대 필수 조건인 소프트웨어 전문성, 과학기술 역량, 제조 능력을 모두 갖춘 나라는 극소수인데, 한국은 그중 하나"라고 평가했다. 또 "소프트웨어와 AI 기술, 그리고 제조 역량을 결합하면 로보틱스와 피지컬 AI 분야에서 막대한 기회를 창출할 수 있다. AI 로봇 공장, 자율주행, 의료 로봇 등에서 한국 기업들이 선도적인 역할을 할 것"이라고 설명했다. 마지막으로 그는 "한국은 지난 30년 동안 엔비디아를 환영해줬고, 이제는 함께 새로운 여정을 시작할 때"라며 "엔비디아는 한국이 'AI 국가'(AI Nation)로 도약하는 여정에 동행할 것"이라고 말했다.

2025.10.31 17:07권봉석 기자

엔비디아 블랙웰 26만장 한국행…'AI 인프라 허브' 도약 신호탄

엔비디아가 우리 정부와 주요 기업에 블랙웰 그래픽처리장치(GPU) 26만 장을 공급한다. 정부의 국가AI컴퓨팅센터 구축과 민간 AI 인프라 확충이 함께 맞물리며 한국이 아시아 AI 허브로 도약할 기반이 마련됐다는 평가가 나온다. 31일 엔비디아는 한국 정부와 삼성전자·SK그룹·현대자동차그룹·네이버클라우드 등 5곳에 총 26만 장의 블랙웰 GPU를 공급한다고 발표했다. 이 중 정부는 최대 5만 장을 소버린 클라우드 구축용으로 확보하고, 삼성전자·SK·현대차가 각각 5만 장, 네이버클라우드는 6만 장을 공급받는다. 엔비디아는 이번 협력을 통해 반도체·로보틱스·통신·데이터센터 등 AI 인프라 전반에서 한국 기업들과 협력을 강화한다는 방침이다. 업계에서는 이번 공급 규모가 아시아 최대 수준으로, AI 반도체 확보 경쟁의 중심에 한국이 본격적으로 진입하게 됐다고 평가한다. 네이버클라우드, 엔비디아와 소버린·피지컬 AI 전방위 '협력' 정부는 이번 협력과 맞물려 현재 국가AI컴퓨팅센터 구축 사업을 가속화하고 있다. 과학기술정보통신부는 민관 합작 특수목적법인(SPC)을 설립해 2028년까지 GPU 1만5천 장, 2030년까지 5만 장 이상을 확보할 계획이다. 총사업비는 2조5천억 원 규모로, 정부 800억 원을 출자하고 민간과 정책금융기관이 나머지를 분담한다. 국가AI컴퓨팅센터 사업은 AI 연구기관과 스타트업에 연산 자원을 제공하고 민간 클라우드 기업의 기술을 공공 인프라에 접목하는 구조로 설계됐다. 정부는 대규모 GPU 인프라를 공공 연구개발에 활용함으로써 AI 모델 개발 경쟁력과 산업계 접근성을 동시에 높인다는 목표를 세웠다. 이번 공급의 수혜 기업 중 하나인 네이버클라우드는 국가AI컴퓨팅센터 사업에서 삼성SDS 컨소시엄의 주요 파트너로 참여하고 있다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 테크밋업에서 "정부 인프라에 민간 기술 내재화를 결합해 기술 자립 기반을 강화하겠다"며 "국가AI컴퓨팅센터 구축은 네이버의 서비스형 GPU 플랫폼(GPUaaS)을 국가 데이터센터로 확장하는 구조로 발전할 것"이라고 설명했다. 네이버는 이날 오후 엔비디아와 피지컬 AI 플랫폼 공동 개발 협약도 체결했다. 양사는 디지털 트윈과 로보틱스 기술을 결합해 산업 현장을 가상 공간에 정밀하게 구현하고 AI가 분석·판단·제어를 지원하는 시스템을 구축할 계획이다. AI와 클라우드 인프라의 융합을 추진하는 만큼, 네이버클라우드가 담당하는 역할이 커질 전망이다. 김유원 네이버클라우드 대표는 이날 행사에서 "이번 협력은 피지컬 AI 시대의 출발점이 될 것"이라며 "하이퍼스케일 AI 인프라와 클라우드 운영 역량을 기반으로 국내 제조 산업의 AI 혁신을 이끌 신뢰받는 기술 파트너가 되겠다"고 밝혔다. 엔비디아와 네이버의 협력은 이번이 처음은 아니다. 네이버클라우드는 초거대언어모델(LLM) '하이퍼클로바X'를 운영하며 엔비디아 GPU를 기반으로 한 고성능 클러스터를 구축한 경험을 갖고 있다. 특히 양사는 최근 태국·모로코 등 해외에서도 '소버린 AI' 인프라 구축을 함께 추진 중이다. 이 외에도 네이버는 엔비디아와 글로벌 투자사 등과 컨소시엄을 구성해 모로코에 블랙웰 GPU 기반 40메가와트(MW)급 AI 데이터센터도 구축 중이다. 해당 프로젝트는 유럽과 중동, 아프리카를 잇는 글로벌 AI 허브로 확장될 예정이며 한국형 AI 인프라 모델의 해외 진출 사례로 주목받고 있다. 국가 AI 인프라 확충 '가속'…AI 생태계 전반 확산 전망 우리나라에서 국가AI컴퓨팅센터 사업과 같이 민간과 공공이 함께 GPU 인프라를 확충하는 구조가 자리 잡으면서 한국이 아시아 AI 산업의 중심지로 부상할 가능성이 높다는 평가가 나온다. 업계 관계자는 "AI 인프라 경쟁력은 GPU 확보 속도와 활용 효율성에 달려 있다"며 "정부와 기업이 함께 대규모 연산 자원을 구축하는 한국형 모델이 아시아 AI 생태계의 새로운 기준이 될 수 있다"고 기대했다. 정부의 국가AI컴퓨팅센터 사업 역시 이번 공급 발표로 추진 동력이 커질 전망이다. 과기정통부는 연내 우선협상대상자 선정을 마무리하고 내년 상반기 SPC 설립과 착공 절차에 착수할 계획이다. 이번 엔비디아의 GPU 공급 발표로 AI 인프라 확충이 가속화되면 산업·학계·연구기관 전반에서 AI 학습 및 응용 환경이 대폭 개선될 것으로 예상된다. 이번 공급은 국가AI컴퓨팅센터 외에도 정부가 추진 중인 독자 AI 파운데이션 모델 프로젝트 등 국가 AI 사업 전반에 직간접적 영향을 미칠 전망이다. 업계에서는 국가 차원에서 GPU 자원이 충분히 확보되면 정부의 AI 연구·산업 지원 정책이 전방위적으로 활성화될 것으로 보고 있다. 엔비디아의 이번 결정은 한국의 AI 인프라 확충 노력에 대한 글로벌 기술 기업의 신뢰가 반영된 결과라는 평가도 나온다. 업계 관계자는 "최근 정부가 AI 인프라 확충을 적극적으로 추진하고 민간이 기술 내재화를 빠르게 진행하고 있는 만큼, 한국은 엔비디아의 아시아 전략에서 핵심 거점으로 부상할 것"이라고 전망했다.

2025.10.31 15:04한정호 기자

엔비디아, 韓 정부·기업에 GPU 26만장 공급

엔비디아가 31일 한국 정부와 기업에 GPU 26만장을 공급하고 AI 인프라와 반도체, 로보틱스, 통신, 데이터센터 등 모든 분야에서 전방위 협력에 나선다고 밝혔다. 현재 국내 시장에 도입된 엔비디아 호퍼 GPU는 기업과 기관을 합쳐 약 6만 5천장 규모로 추산된다. 엔비디아는 한국 정부와 삼성전자, SK그룹, 현대자동차그룹 등에 각각 최대 5만장, 네이버클라우드에 6만장 등 총 26만장의 블랙웰 GPU를 공급한다. 엔비디아 관계자는 "국내 공급될 블랙웰 GPU는 서버용 GB200과 워크스테이션용 RTX 프로 6000 등을 모두 포함한다. 도입이 완료되면 한국 내 엔비디아 GPU 규모는 6만 5천장에서 32만장으로 5배 가까이 늘어날 것"이라고 설명했다. 삼성전자·SK하이닉스, GPU 기반 반도체 설계 가속 도입 삼성전자는 엔비디아 GPU 블랙웰 5만장을 공급받아 반도체 제조 효율과 수율을 높이는 AI 기반 제조·설계 최적화 시스템을 개발한다. 반도체 식각 공정에 쓰이는 포토마스크 생산에 컴퓨터 연산을 활용해 설계 시간을 단축하는 cu리소(cuLitho) 등 AI 반도체 공정 툴이 투입될 예정이다. 또 반도체 생산시설 설계와 최적화에 엔비디아 옴니버스 기술도 활용한다. SK그룹은 SK하이닉스의 반도체 설계 역량 강화, GPU 기반 디지털 트윈 기술을 활용한 공장 자동화, AI 에이전트 개발에 나선다. SK텔레콤은 RTX 6000과 블랙웰 서버를 기반으로 옴니버스 플랫폼을 활용해 로보틱스 및 디지털 트윈 기술을 강화한다. 현대차그룹은 5만장의 블랙웰 GPU로 자율주행과 로보틱스 분야의 AI 모델을 훈련시키고, 30억 달러(약 4조 2천800억원) 규모 피지컬 AI 투자를 정부와 공동 추진한다. 한국 특화 LLM 개발과 소버린 AI 구축 지원 과학기술정보통신부는 지난 8월 선정된 LG AI연구원, 업스테이지, 네이버클라우드, SK텔레콤, NC AI 등 국가대표 AI 기업 다섯 곳과 함께 국내 기업과 기관이 활용할 수 있는 한국형 거대언어모델(LLM) 개발 작업에 착수할 예정이다. 한국형 LLM 개발에는 엔비디아 오픈프레임워크 '니모'(Nemo)를 활용한 오픈모델인 '니모트론'(Nemotron)을 활용한다. 개발된 한국형 LLM은 한국어 중심의 데이터와 문화를 반영한 소버린 AI 개발의 핵심이 될 전망이다. 이를 위해 엔비디아 클라우드 협력사인 네이버클라우드, NHN클라우드와 카카오 등에 최초 1만3천장의 엔비디아 GPU가 공급될 예정이다. LG그룹의 AI 싱크탱크인 LG AI연구원은 엔비디아와 함께 LG의 AI 모델 '엑사원'(EXAONE)을 국내 기업과 스타트업, 학계에 지원하기 위해 협력하고 있다. 최근에는 엑사원을 암 진단에 활용할 수 있도록 스타트업과 학계에 제공하고 있다. 국내 통신 3사와 차세대 6G AI RAN 기술 공동 개발 엔비디아는 이번 주 미국에서 진행된 'GTC 워싱턴' 기간 중 노키아와 협업해 차세대 통신 규격인 6G AI RAN(무선통신네트워크) 처리 기술을 개발할 것이라고 밝힌 바 있다. 국내 시장에서도 삼성전자 등 장비 제조사, 연세대학교와 한국전자통신연구원(ETRI) 등 연구기관, SK텔레콤, KT, LG유플러스 등 통신 3사와 함께 6G AI RAN을 개발할 예정이다. 엔비디아는 "한국 기업·기관과 공동 개발한 6G AI RAN은 GPU 연산 작업을 기지국으로 분산해 운영 비용을 줄이고 기기 배터리 지속 시간을 늘리게 될 것"이라고 설명했다. 양자 컴퓨팅 연구 지원, 스타트업 지원도 확대 엔비디아는 한국과학기술정보연구원(KISTI)과 GPU 기반 양자 컴퓨팅 제어 시스템 연구도 공동으로 진행한다. 내년 상반기 구축될 국가 슈퍼컴퓨터 6호기 '한강'에서 엔비디아 양자 시뮬레이션 쿠다Q(CUDA-Q), 피직스 등을 구동 예정이다. 엔비디아는 스타트업 지원에도 속도를 높인다. 현재 750개 이상의 국내 기업이 엔비디아의 인셉션 프로그램에 참여하고 있으며, 엔비디아는 지원 기업 규모를 1천개 이상으로 확대할 예정이다.

2025.10.31 15:00권봉석 기자

나무기술, 경량 언어모델로 제조 AI 선도…정부 GPU 지원 사업 선정

나무기술이 정부의 그래픽처리장치(GPU) 지원 사업을 통해 제조 분야 인공지능(AI) 혁신에 박차를 가한다. 나무기술은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에 선정됐다고 29일 밝혔다. 이번 사업은 산업별 AI 기술 고도화를 위한 GPU 인프라 지원 프로그램으로, 나무기술은 제조 현장에 특화된 AI 자율제조 기술 역량을 인정받았다. 나무기술은 공정 데이터와 설비 정보를 실시간으로 분석해 생산 과정의 예측과 제어를 수행할 수 있는 경량 언어모델(SLM)을 설계했다. 복잡한 제조 환경에서도 빠르게 추론하고 효율적으로 연산하도록 구성돼 품질 이상 탐지·공정 최적화·보고서 자동 작성 등 다양한 작업을 지능적으로 지원한다. 이 기능은 생산 현장의 의사결정 속도를 높이고 예측 중심의 운영 체계를 정착시키는 데 활용된다. 현재 나무기술은 GPU·엣지 기반의 실시간 추론 검증을 통해 모델의 안정성과 적용 범위를 확인하고 있으며 포장설비와 바이오 제조 등 실제 산업 현장에서의 실증으로 확장성을 검증하고 있다. 이 과정에는 클라우드 오케스트레이션 플랫폼 '칵테일 클라우드'와 통합 관리 플랫폼 '스페로'가 함께 적용돼 AI 학습·추론·자원 운영을 통합 관리하는 구조를 구현했다. 이를 통해 기업이 자체 데이터를 활용한 안정적인 AI 자율제조 환경을 구축하고 현장 중심의 AI 운영 체계를 구현할 수 있도록 지원한다. 나무기술 관계자는 "이번 선정은 우리가 축적해 온 AI·클라우드 융합 기술력과 산업 현장 중심의 실증 경험이 높은 평가를 받은 결과"라며 "풀스택 아키텍처를 기반으로 제조 산업의 효율성과 품질 경쟁력을 높이며 AI 내재화와 자율화를 향한 기술 혁신의 지속적인 혁신을 추진하고 있다"고 밝혔다. 이어 "제조 분야에서 검증된 기술을 바탕으로 에너지·물류·바이오 등 데이터 중심 산업으로 AI 자율 운영 모델을 확장해 산업별 맞춤형 AI 적용 사례를 넓혀갈 예정"이라고 덧붙였다.

2025.10.29 16:03한정호 기자

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호 기자

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

인핸스, 정부 GPU 지원사업 선정…LAM 기술 고도화 '박차'

인핸스가 정부 지원 사업에 선정돼 거대행동모델(LAM) 기술 고도화를 통한 국가 인공지능(AI) 혁신에 나선다. 인핸스는 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅자원 활용기반 강화(GPU 확보·구축·운용지원)사업'에 선정됐다고 23일 밝혔다. 이 사업은 기업의 AI컴퓨팅 인프라 확충 및 AI 기술 고도화를 위해 그래픽처리장치(GPU) 자원을 지원하는 사업이다. 인핸스는 이번 사업을 통해 향후 9개월 동안 고성능 GPU를 지원받는다. 이를 기반으로 텍스트와 HTML 혼합 데이터, 반복 작업 태스크 데이터셋을 학습시켜 자사 행동형 AI 모델 'ACT-1'을 고도화할 계획이다. ACT-1은 버튼 클릭·메뉴 선택·필드 입력 등 웹 인터페이스 전반을 자동으로 제어할 수 있는 LAM 기반 솔루션이다. 크롤링과 웹 테스트는 물론 커머스 운영 자동화에 최적화된 기능을 제공한다. 인핸스에 따르면 ACT-1은 최근 글로벌 웹 AI 에이전트 벤치마크 '온라인-마인드2웹 리더보드'에서 구글·오픈AI·앤트로픽의 AI 모델과 함께 최상위권을 달성하며 글로벌 빅테크 기업들과 어깨를 나란히 했다. 인핸스는 지난 5월 팔란티어의 '스타트업 펠로우십'에도 선정되는 등 글로벌 AI 시장에서 기술력을 입증하고 있다. 이승현 인핸스 대표는 "이번 GPU 사업 선정은 국가 차원에서 우리의 웹 AI 에이전트 기술 역량을 입증했다는 점에서 의미가 크다"며 "첨단 AI 기술과 이번에 확보한 GPU 자원을 바탕으로 글로벌 AI 시장에서 경쟁력을 더욱 강화해 나갈 것"이라고 말했다.

2025.10.23 16:51한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

오락가락 트럼프, 호르무즈 '프로젝트 프리덤' 일시 중단

기계체조하는 아틀라스 첫 공개..."사람보다 유연해"

'어닝쇼크' 쿠팡, 회복 자신..."물류·공급망 투자 지속"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.