• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (387건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 아마존, 'AGI 조건' 걸고 오픈AI에 70조원 베팅…MS 독점 흔들까

아마존이 오픈AI에 최대 500억 달러(약 70조원)를 투자하는 방안을 협상 중인 것으로 전해졌다. 투자금은 일괄 집행이 아닌 단계적 투입 방식으로, 기업공개(IPO)와 인공지능 일반지능(AGI) 달성 여부에 연동되는 조건이 붙는다. 미국 IT 전문 매체 디인포메이션은 26일 오픈AI 경영진과 접촉한 복수의 관계자를 인용해 아마존이 우선 150억 달러를 투자하고, 오픈AI가 상장하거나 AGI에 도달할 경우 350억 달러를 추가 집행하는 방안을 논의 중이라고 보도했다. 오픈AI는 내부적으로 올해 4분기 IPO를 목표로 준비 중인 것으로 알려졌다. 이번 투자 구조는 해당 시점에 맞춘 자금 설계라는 해석이 나온다.이번 자금 조달 라운드는 총 1000억 달러(약 140조원)에 달할 것으로 예상된다. 단일 벤처 투자로는 사상 최대 규모다. 투자 전 오픈AI의 기업가치는 약 7300억 달러로 거론되는데, 이는 글로벌 최상위 기술 기업 시가총액에 근접하는 수준이다. 이번 라운드에는 아마존뿐 아니라 엔비디아 등 주요 빅테크 기업들도 참여를 검토 중인 것으로 전해졌다. CNBC에 따르면 엔비디아는 오픈AI에 최대 300억 달러(약 44조원)를 투자하기 위한 논의를 진행 중인 것으로 알려졌다. 이는 지난해 9월 양사가 발표했던 1000억 달러 규모의 인프라 구축 협력과는 별개로 진행된다. 이번 투자 구조에서 가장 민감한 변수는 AGI다. AGI는 인간과 동등한 범용 지능을 의미하지만, 기술적 기준은 명확히 합의돼 있지 않다. 디인포메이션은 이를 '느슨하게 정의된 이정표'라고 표현했다. 특히 AGI 달성 여부는 오픈AI 이사회가 판단하는 구조로 알려졌다. 이는 350억 달러라는 거액의 추가 투자 집행 여부가 사실상 오픈AI 측 판단에 달려 있을 수 있음을 의미한다. 이에 향후 AGI 선언을 둘러싼 해석 차이와 이해관계 충돌 가능성도 배제할 수 없을 것으로 보인다. 또 오픈AI는 AGI 도달 시 기존 영리 자회사 구조나 투자자 수익 배분 체계가 종료되거나 재편될 수 있도록 설계된 것으로도 알려졌다. 이사회가 AGI를 선언하는 순간 투자 질서 자체가 바뀔 수 있는 구조인 것이다. 이 같은 전환점에서 오히려 대규모 자금을 투입하겠다는 아마존의 조건은 기술적 정점에서 영향력과 우선권을 선점하려는 전략적 판단일 것이란 분석이 나온다. 이번 투자가 현실화할 경우 그동안 오픈AI와 사실상 독점적 협력 관계를 유지해 온 마이크로소프트(MS)와의 파트너십에도 균열이 불가피하다는 관측이 나온다. MS는 애저(Azure) 클라우드를 기반으로 오픈AI 모델을 공급하며 AI 경쟁력을 강화해 왔다. 아마존은 오픈AI가 자사 AWS 인프라와 자체 AI 칩(트레이니엄·Trainium)을 활용하도록 유도해 '애저' 의존도를 낮추기 위해 이 같은 전략을 펼치는 것으로 보인다. 또 투자금의 상당 부분이 현금이 아닌 AWS 인프라 사용권 형태로 제공될 가능성도 거론된다. 이 경우 자금은 다시 AWS 매출로 환수된다. 외형상 투자지만 실질적으로는 장기 인프라 수요를 선점하는 구조다. 아마존이 이미 오픈AI의 최대 경쟁사인 앤트로픽에 80억 달러 이상을 투자한 최대 투자자란 점도 주목할 부분이다. 이를 두고 업계에선 오픈AI, 앤트로픽 등 특정 모델에 종속되지 않겠다는 '멀티 모델' 전략이자, 생성형 AI 핵심 기업들을 AWS 생태계 안에 두려는 포석으로 해석했다. AI 시장의 승자가 확정되지 않은 상황에서 주요 플레이어를 모두 품겠다는 계산도 깔려있는 것으로 분석된다.다만 이번 협상은 여전히 진행 중으로, 최종 투자 규모나 세부 조건은 영리 기업 전환 등 오픈AI의 지배구조 개편 논의와 맞물려 변동될 가능성이 있다. 업계 관계자는 "아마존의 투자는 단순한 재무적 베팅이 아니라 마이크로소프트가 구축한 오픈AI 독점 구도에 균열을 내고 클라우드 인프라 주도권을 되찾기 위한 전략적 움직임"이라며 "AGI와 IPO라는 두 개의 변곡점을 축으로 빅테크 간 세력 균형이 재편될 가능성이 있다"고 분석했다.

2026.02.26 14:38장유미 기자

"앱 찾는 시대 끝났다"…노태문 사장, 구글과 손잡고 'AI OS' 승부수

[샌프란시스코(미국)=전화평 기자] 삼성전자가 구글과 손잡고 스마트폰의 두뇌에 해당하는 운영체제(OS) 단계부터 인공지능을 결합한 '모바일용 AI OS'를 전격 공개했다. 단순히 기능을 추가하는 수준을 넘어, 사용자의 의도를 먼저 읽고 스스로 작동하는 '에이전틱 AI' 시대를 선언한 것이다. 노태문 삼성전자 DX부문장(사장)은 25일(현지시간) 미국 샌프란시스코에서 언팩 행사 이후 가진 기자 간담회에서 "AI가 단일 기능에 국한되지 않고 OS 레벨까지 내려와 여러 서비스와 에코시스템을 유기적으로 연결하는 것, 이것이 바로 삼성이 정의한 AI OS"라며 "갤럭시 S26 시리즈는 이를 구현한 세계 최초의 '모바일 에이전틱 AI폰'"이라고 강조했다. “AI, 앞에 나서지 않고 뒤에서 조용히 돕는 '인프라' 돼야” 노 사장은 AI OS 개발의 배경으로 '사용자 경험의 괴리'를 꼽았다. 삼성전자의 조사에 따르면 모바일 사용자의 81%가 AI의 가치를 인정하면서도, 정작 85%는 활용에 어려움을 느끼고 있는 것으로 나타났다. 이에 대해 노 사장은 "AI는 일부를 위한 특권이 아닌, 누구나 매일 쓰는 기본 인프라가 되어야 한다"며 "삼성은 접근성, 보편성, 신뢰라는 세 가지 기준 아래 AI를 발전시키고 있다"고 설명했다. 이어 "좋은 AI는 화려하게 앞에 나서기보다, 사용자가 일부러 찾지 않아도 뒤에서 조용히 일상을 돕는 '보이지 않는 비서'가 되어야 한다"는 철학을 덧붙였다. 앱 검색 없는 '엔드투엔드' 경험..."신뢰 우선돼야" 이번에 탑재된 AI OS는 구글과의 타이트한 협력을 통해 탄생했다. 기존 안드로이드 체제 위에서 앱을 개별적으로 실행하던 방식에서 벗어나, OS 프레임워크 자체를 AI 최적화 형태로 리메이크했다. 이를 통해 구현된 것이 바로 '에이전틱 AI'다. 노 사장은 "과거처럼 필요한 앱을 일일이 찾아 들어가는 게 아니라, 사용자의 니즈에 따라 데이터가 유기적으로 흐르며 AI가 시작부터 최종 제안까지 '엔드투엔드(End-to-End)'로 처리해준다"고 밝혔다. 예를 들어, 나우 넛지(Now Nudge) 기능은 사용자가 키보드를 입력하거나 화면을 보는 맥락을 실시간으로 인식해 앱 실행 없이도 필요한 정보를 즉각 팝업으로 추천한다. 삼성은 이러한 에이전트 기능을 통해 택시 호출, 배달, 예약 등 실생활 밀접 서비스를 하반기부터 본격적으로 확장해 나갈 계획이다. 노 사장은 AI가 일상의 인프라가 되기 위한 최우선 조건으로 '신뢰'를 꼽았다. 개인의 데이터가 클라우드로 전송되는 것에 대한 불안감을 해소하기 위해 삼성은 온디바이스 AI와 클라우드 AI를 결합한 하이브리드 전략을 고수한다. 그는 "사용자가 안심하고 쓸 수 있도록 데이터 보호와 통제 경험을 지속적으로 강화하겠다"며 "AI 기능을 온디바이스로만 쓸지, 혹은 완전히 끌지까지 소비자가 직접 선택할 수 있는 권한을 부여하는 것이 삼성 갤럭시 AI의 핵심 원칙"이라고 역설했다.

2026.02.26 14:31전화평 기자

델, 실외형 서버 '파워엣지 XR9700' 공개…클라우드랜·엣지 AI 정조준

델 테크놀로지스가 실외 환경에서도 클라우드랜과 엣지 인공지능(AI) 워크로드를 안정적으로 지원할 수 있는 서버 신제품을 선보이며 통신·엣지 인프라 확장에 나섰다. 델 테크놀로지스는 서버 신제품 '델 파워엣지 XR9700'을 공개했다고 26일 밝혔다. 이 제품은 클라우드랜과 엣지 AI 워크로드를 지원하는 폐쇄형 루프 액체 냉각 방식의 완전 밀폐형 러기드 x86 서버다. 델 파워엣지 XR9700은 전신주, 옥상, 건물 외벽 등 외부 환경에 직접 노출되는 옥외 공간에서도 별도의 보호 장비 없이 운용 가능하도록 설계됐다. 기존 데이터센터 인프라가 도달하기 어려운 도심 밀집 지역이나 원격지, 공간 제약이 큰 시설에서도 고성능 컴퓨팅 환경을 구현할 수 있도록 고안된 것이 특징이다. 통신 사업자와 엣지 환경 운영 조직은 전력과 공간 제약으로 인해 컴퓨팅 자원 배치에 어려움을 겪어왔다. XR9700은 IP66 등급의 초소형 인클로저를 적용해 외부 환경으로부터 시스템을 완전히 차단하면서도 필요한 지점에 직접 설치할 수 있도록 지원한다. 특히 유연한 소프트웨어(SW) 정의 아키텍처 기반으로 각 기지국 현장에서 클라우드랜과 오픈랜을 지원하며 데이터가 생성·소비되는 위치에서 엣지 및 AI 애플리케이션을 직접 실행할 수 있도록 설계됐다. 내환경성도 강화했다. 초소형 IP66 등급 인클로저와 GR-3108 클래스 4 인증을 통해 극한의 온도, 먼지, 습기에 노출되는 환경에서도 안정적인 성능을 제공한다는 설명이다. 폐쇄형 루프 액체 냉각과 정교한 열 관리 아키텍처도 적용해 영하 40도에서 영상 46도에 이르는 온도 범위와 직사광선 환경에서도 일관된 운영이 가능하다. 또 15리터의 컴팩트한 폼팩터로 설계돼 전신주, 옥상, 건물 외벽 등에 설치할 수 있고 랙 상면을 차지하지 않는 제로 풋프린트 구조로 기존 무선 장비 중심 공간에서도 통신 및 엣지 워크로드 구현을 돕는다. 성능 측면에서는 인텔 vRAN 부스트와 인텔 AMX 기술이 통합된 인텔 제온 6 SoC를 탑재해 단일 서버에서 최대 15개의 5G 섹터를 지원할 수 있는 처리 성능과 프런트홀 연결성을 제공한다. 클라우드랜에 최적화된 구조를 갖추는 동시에 네트워크 아키텍처와 서비스 요구사항에 따라 워크로드를 유연하게 구동할 수 있도록 했다. XR9700은 델의 엣지 특화 제품군인 '델 파워엣지 XR 시리즈'에 포함되며 기존 관리 툴·SW 스택과 통합된다. 통합 컨트롤러인 'iDRAC'을 통해 원격 가시성과 제어 기능을 제공하고 제로 터치 프로비저닝을 지원한다. 또 파워엣지 XR8720t에서 검증된 동일한 클라우드랜 SW와 호환돼 인증 절차를 간소화하고 통신 환경에서의 구축 속도를 높일 수 있다. 델 파워엣지 XR9700은 올 하반기 중 출시될 예정이다. 김경진 한국 델 테크놀로지스 총괄사장은 "극한의 야외 환경에서도 컴퓨팅 성능에 제약이 발생해서는 안된다"며 "델 파워엣지 XR9700은 기존에는 배치가 불가능했던 장소에까지 클라우드랜, 오픈랜, 엣지 AI 역량을 확장함으로써 네트워크 확장과 엣지 애플리케이션을 위한 새로운 가능성을 열어줄 것"이라고 밝혔다.

2026.02.26 11:19한정호 기자

다나클라우드, 중동 AI 데이터센터 사업 추진…최대 723억원 투자 검토

다나클라우드가 자체 통합 클라우드 플랫폼 '다나IX'를 앞세워 중동 인공지능(AI) 인프라 시장 공략에 본격 나선다. 다나클라우드는 아랍에미리트(UAE) 투자 그룹 아라비안 걸프 인베스트먼트 홀딩스(AGI)와 AI 레디 모듈형 데이터센터 및 클라우드 인프라 공동 개발을 위한 업무협약(MOU)을 체결했다고 25일 밝혔다. 최근 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 서버와 AI 전용 데이터센터 수요가 빠르게 증가하고 있으나 고전력·고밀도 서버를 수용할 수 있는 데이터센터 공급은 충분하지 않은 상황이다. 이에 구축 속도와 확장성을 동시에 확보할 수 있는 모듈형 데이터센터 모델이 현실적 대안으로 주목받고 있다. 이같은 상황에서 이번 협약은 중동 지역 AI 인프라 시장에서 공동 사업 기회를 모색하기 위해 체결됐다. 양사는 AI 레디 모듈형 데이터센터 및 통합 클라우드 인프라 분야를 중심으로 협력 방안을 구체화하고 추진 과정에서 최대 5000만 달러(약 723억원) 범위 내 투자 가능성을 검토할 계획이다. 다나클라우드는 AI 레디 모듈형 데이터센터의 설계·구축·운영, 프로젝트 투자 구조 설계를 담당한다. 특히 자사 통합 클라우드 플랫폼 다나IX를 통해 인프라 구축부터 운영까지 전 과정을 지원한다. 다나IX는 물리적 인프라부터 클라우드 관리, 컨트롤 패널, 엔터프라이즈급 서비스형 인프라(IaaS) 및 서비스형 플랫폼(PaaS)까지 전 계층을 통합 지원하는 플랫폼으로 인프라부터 애플리케이션까지 즉시 운영 가능한 환경을 제공한다. AGI는 UAE를 기반으로 한 투자 그룹으로서 전략적 투자 지원과 사업 구조 설계, 현지 네트워크 연계를 통한 프로젝트 추진을 지원할 방침이다. 모하마드 바하에딘 다나클라우드 대표는 "양사 협력을 바탕으로 현지 시장 수요에 맞춘 인프라 서비스 도입을 위해 노력하겠다"고 말했다. 칼리파 사이프 알 무하르비 AGI 회장은 "AI 레디 모듈형 데이터센터와 고도화된 클라우드 플랫폼은 중동 지역의 장기적 디지털·경제 전략과 맞닿아 있다"며 "이번 협력이 미래 인프라 발전에 기여할 것"이라고 밝혔다. 칼 사이먼 AGI 대표는 "이번 협약을 바탕으로 확장성과 지속가능성을 갖춘 클라우드 및 AI 인프라 기반을 단계적으로 마련해 나가겠다"고 강조했다.

2026.02.25 17:25한정호 기자

정부, 2030년까지 전 시스템 재해복구 구축…민간 클라우드 활용

지난해 국가정보자원관리원(국정자원) 대전센터 화재로 7천여 개 국가 시스템이 멈춰 서는 사태 이후 정부가 공공 정보 인프라 전반에 대한 대수술에 착수한다. 정부 시스템의 재해복구(DR)를 완료하고 민간 클라우드를 적극 활용하는 인공지능(AI) 정부 인프라로 재설계한다는 목표다. 정재웅 AI정부 인프라 거버넌스·혁신 TF리더는 25일 서울 중구 서울스퀘어에서 열린 국가AI전략위원회 제2차 전체회의에서 "2030년까지 1만 5000여 개 정부 정보시스템에 대해 등급별 DR 체계를 완비하고 국민 생명·안전과 직결된 핵심 시스템은 2028~2029년 내 전환을 완료하겠다"고 밝혔다. AI정부 인프라 거버넌스·혁신 TF는 지난해 국정자원 대전센터 화재 이후 이재명 대통령의 지시에 따라 정부 인프라 재설계를 추진해왔다. 대전센터로 중단된 국가 시스템은 완전 복구까지 95일이 걸린 바 있다. 이날 국가AI전략위원회 전체회의는 대한민국 인공지능 행동계획과 AI정부 인프라 거버넌스·혁신 추진 방향을 포함한 5개 안건을 심의·의결하기 위해 마련됐다. 정 리더는 이번 사태를 계기로 드러난 문제를 ▲공공 데이터센터 안전 기준 미흡 ▲재해복구 체계 구축 미비 ▲분산된 거버넌스 구조 등 세 가지로 진단했다. 그는 "서버 배터리 미분리 등 안전 기준이 민간 데이터센터·클라우드 대비 미흡했다"며 "국가 필수 시스템의 액티브-액티브 DR 체계가 제대로 구축되지 않았고 일부 DR도 기관별로 제각각 운영돼 공통 기준이 없었다"고 설명했다. 이어 "예산, 구축·운영, 보안 표준 권한이 분리돼 있어 위기 상황에서 총괄 관리 체계가 부족했다"고 덧붙였다. 이에 TF는 세 가지 축을 중심으로 AI 정부 인프라 혁신안을 마련했다. 우선 정부·공공 데이터센터의 안전 기준을 민간 수준으로 상향하고 화재가 발생한 대전센터는 2030년까지 폐쇄해 단계적으로 새로운 인프라로 이전한다는 계획이다. 아울러 DR 구축 기관에 대해 연 1회 이상 실전 훈련을 의무화해 재난 대응 역량을 제도화할 방침이다. 미래 인프라 설계 원칙으로는 ▲민간 투자 자원 적극 활용 ▲클라우드 기술 도입 ▲지역 분산형 인프라 구축을 제시했다. 이 방안에 맞춰 정부는 1만 5000여 개 국가 시스템을 국가망보안체계(N2SF) 기반 보안 등급(C·S·O)과 가용성 등급(A1~A4)으로 분류해 차등 관리할 계획이다. C(기밀)등급 데이터는 정부가 직접 관리하되, S(민감)·O(공개)등급은 민간 데이터센터와 클라우드를 적극 활용하도록 한다는 목표다. 특히 C등급 핵심 데이터는 대전에 신규 데이터센터 2곳을 구축해 액티브-액티브 체계로 운영하고 광주·대구·대전 등 기존 국정자원의 3축 인프라는 유지한다는 방침이다. 올해는 134개 시스템에 대해 DR 구축을 추진한다. 기획재정부의 '디브레인', 우정사업본부의 우편정보시스템, 행정안전부의 안전지도 시스템 등을 선도 프로젝트로 선정해 표준 모델을 만들 예정이다. 또 50여 개 시스템은 민간 클라우드로 이전해 DR을 강화할 계획이다. 거버넌스 측면에서는 예산·운영·표준 권한을 통합하는 방향의 개편을 추진한다. TF 이후에는 과학기술부총리 산하에 'AI 정부 인프라 거버넌스 혁신 추진단(가칭)'을 구성해 구체적 실행 방안을 마련할 예정이다. 정 리더는 "민간 클라우드와 데이터센터를 적극 활용해 보다 안전하고 유연한 AI 정부 인프라로 재설계하겠다"며 "구체적인 가이드라인 마련과 법·제도 정비도 병행해 실행력을 높이겠다"고 강조했다.

2026.02.25 11:21한정호 기자

베슬AI, GPU 클라우드 서비스 출시…연내 1만장 규모 인프라 구축

베슬AI가 올해 1만 장 규모 최신 그래픽처리장치(GPU) 인프라를 구축해 클라우드 사업 확대에 나선다. 베슬AI는 GPU 자원을 효율적으로 운영하는 서비스 '베슬 클라우드'를 공식 출시했다고 24일 밝혔다. 베슬 클라우드는 분산된 GPU 자원을 활용해 인공지능(AI) 개발 환경의 비용과 운영 부담을 줄이는 데 초점을 맞춘 클라우드 서비스다. 회사 측에 따르면 업계 최소 수준인 분 단위의 과금 체계를 적용했으며 작업을 중단해도 데이터와 환경을 유지하는 '스마트 퍼징' 기능을 통해 유휴 자원 비용을 최소화한다. 장애 발생 시 자동 복구 기능과 다중 클러스터 기능도 지원해 안정적인 운영 환경을 제공한다. 글로벌 보안 통제 기준인 'SOC 2 타입 2' 인증을 획득해 기업 환경에 필요한 신뢰성과 안정성도 확보했다. 이번 출시는 베슬AI가 추진하는 글로벌 인프라 공급망 네오클라우드 전략의 본격적인 실행 단계에 해당한다. 회사는 이스라엘·미국·핀란드·한국을 포함한 6개 지역 데이터센터와 계약을 체결했으며 연내 신규 데이터센터 구축을 포함해 H200·B200·B300 등 GPU 1만 장 규모의 인프라를 단계적으로 확충할 계획이다. 이를 통해 증가하는 고성능 연산 수요에 대응한다는 방침이다. 현재 베슬 클라우드는 미국 피지컬 AI 스타트업부터 국내 대형 금융지주에 이르기까지 100여 개 기업 및 연구기관에서 이용되고 있다. 특히 로보틱스·미세 조정·자율주행 등 고성능 연산이 요구되는 딥테크 분야와 금융권에서 실제 상용 환경에 활용되며 안정성을 검증받고 있다. 베슬 클라우드는 지난 1월 한 달 만에 지난해 베슬AI 전체 연간 매출의 50% 이상을 기록했다. 이는 고성능 연산 자원 운영에 대한 시장 수요가 빠르게 확대되고 있음을 보여주는 지표다. 안재만 베슬AI 대표는 "AI 인프라 경쟁은 단순히 GPU 수량 확보를 넘어 전 세계에 분산된 자원을 얼마나 효율적으로 연결하고 운영하느냐가 핵심"이라며 "확충 중인 GPU 인프라와 이미 확인된 성장 흐름을 기반으로 올해 전년 대비 10배 이상의 매출 성장을 달성하고 네오클라우드 생태계를 글로벌 수준으로 확장해 나가겠다"고 말했다.

2026.02.24 14:13한정호 기자

신세계아이앤씨, 구독형 프라이빗 클라우드 '스파로스 원' 출시…신성장 동력 강화

신세계아이앤씨가 구독형 프라이빗 클라우드 서비스를 출시하며 새로운 성장 동력 강화에 나선다. 신세계아이앤씨는 뉴타닉스와 전략적 협력을 강화하고 뉴타닉스 클라우드 플랫폼 솔루션 기반으로 설계된 AI 레디 엔터프라이즈 구독형 클라우드 서비스 '스파로스 원'을 출시한다고 24일 밝혔다. 이 서비스는 기업이 대규모 초기 투자 없이도 프라이빗 클라우드와 인공지능(AI) 플랫폼을 구축할 수 있도록 유연한 서비스형 클라우드 구독 모델을 제공한다. 신세계아이앤씨에 따르면 스파로스 원은 기존 구축형 인프라 대비 총소유비용(TCO)을 최대 25%까지 절감할 수 있어 AI 기반 서비스 수요 증가에 대응하는 인프라 확장성과 민첩성을 동시에 확보할 수 있다. 솔루션 구성도 기업의 다양한 수요에 맞춰 유연하게 설계됐다. 프라이빗 클라우드 서버 기반 가상화 환경을 구성할 수 있는 엔터프라이즈 전용 인프라 솔루션을 바탕으로 AI 최적화 인프라와 플랫폼 확장, 스토리지와 데이터베이스 솔루션 등의 라인업을 갖췄다. 기업이 자사 IT 환경이나 클라우드 도입 목적에 따라 필요한 특정 기능을 선택해 최적의 인프라를 구축할 수 있도록 지원하며 퍼블릭 클라우드와 연계한 하이브리드 운영도 가능하다. 해당 서비스는 온프레미스 환경에서 전환 중이거나 급속한 데이터 증가로 인해 인프라 확장과 통합 관리가 필요한 기업, 프라이빗 클라우드 이전을 통해 기존 IT 인프라를 현대화하려는 고객을 대상으로 맞춤 설계됐다. 신세계아이앤씨는 뉴타닉스의 공식 지원 파트너(ASP)이자 서비스 프로바이더로서 HD한국조선해양·동원그룹·BNK 금융그룹 등 대규모 클라우드 구축 사업을 진행하며 운영 역량을 확보해왔다. 이번 협력을 기점으로 신세계아이앤씨는 구축형 인프라 중심의 사업 구조를 구독형 서비스로 확장하고 엔터프라이즈 특화 서비스 라인업을 강화해 새로운 성장 동력을 강화한다는 전략이다. 변재근 뉴타닉스 코리아 사장은 "이번 협력은 한국 기업들에게 AI 실험부터 인프라 실현까지의 과정을 단순화하는 AI 스마트 플랫폼을 제공할 것"이라며 "양사는 기업들이 프라이빗 클라우드를 현대화하고 핵심 업무에 적용되는 AI 워크로드를 안전하게 확장하는 데 필요한 기반을 구축할 수 있도록 지원할 것"이라고 말했다. 정필승 신세계아이앤씨 클라우드비즈 담당은 "뉴타닉스와 협력해 서비스형 프라이빗 클라우드 비즈니스로 사업 구조를 확장하고 인프라를 넘어서는 서비스 라인업을 확대해 기업의 성공적인 AI 전환을 지원하는 풀스택 클라우드 기업으로 도약해 나갈 것"이라고 밝혔다.

2026.02.24 10:41한정호 기자

글로벌 IT기업, 잇단 총판 재편…통상적 조정 vs AI 체질 전환

오라클, IBM, 휴렛팩커드엔터프라이즈(HPE) 등 주요 글로벌 IT 기업이 국내 총판 구조를 통합하거나 재선정하며 유통 전략 재정비에 나서고 있다. 업계에서는 이를 단순한 계약 순환 차원의 조정으로 보는 시각과 수익성 압박과 AI, 클라우드 전환에 대응하기 위한 구조 개편이라는 분석이 맞서고 있다. 총판 숫자 조정을 넘어 역할 재정의 단계에 진입했다는 평가도 나온다. 23일 관련 업계에 따르면 글로벌 벤더들은 각자의 전략적 판단에 따라 국내 유통 체계를 손질하고 있다. 한국IBM은 최근 국내 총판사 재선정 절차를 진행 중이다. 기존 총판 3사인 씨플랫폼, 코오롱베니트, 대교CNS를 비롯해 복수 기업이 참여해 발표를 마친 상태다. 업계에서는 이번 재선정이 단순 교체를 넘어 국내 IBM 유통 채널 구조를 압축, 재정렬하는 방향으로 이어질 가능성에 주목하고 있다. HPE는 제품군별로 분산돼 있던 총판 체계를 통합하는 단일화 작업에 착수했다. 서버, 아루바, 주니퍼로 나뉘어 있던 유통 구조를 하나로 묶는 것이 핵심이다. 지난해 인수를 마무리한 주니퍼네트웍스와 기존 사업을 결합해 네트워크, 서버, 스토리지를 통합한 AI 인프라 전략을 강화하려는 행보로 해석된다. 제품 단위 유통에서 인프라 단위 통합 공급 구조로 전환하려는 신호라는 분석이다. 오라클 역시 국내 총판 체계를 조정하며 클라우드 중심 모델로 무게를 옮기고 있다. 유통 단계를 줄이고, 클라우드와 AI 기술 역량이 검증된 파트너에 권한을 집중하는 방향으로 민첩성과 전문성을 강화하려는 움직임이다. 라이선스 판매 중심 구조에서 구독형 클라우드 서비스 중심으로의 전환이 유통 전략 변화로 이어지고 있다는 평가다. 이번 연쇄적인 변화를 두고 업계 일각에서는 '파트너 고착화 방지'를 주된 이유로 꼽는다. 특정 총판과 너무 오래 거래할 경우 발생할 수 있는 매너리즘과 본사의 통제력 약화를 사전에 차단하려는 조치라는 해석이다. 한 IT 업계 고위 관계자는 "벤더 입장에서 특정 총판과 오래 거래하다 보면 가격 정책이나 프로모션 전략이 현장에 제대로 먹히지 않는 '동맥경화' 현상이 올 수 있다"며 "분위기를 쇄신하고 파트너들에 대한 본사의 장악력을 강화하기 위해 주기적으로 판을 조정하는 측면이 있다"고 설명했다. 경기 침체와 대규모 AI 투자에 따른 비용 압박도 무시할 수 없는 요인이다. 글로벌 본사의 수익성 개선 요구가 거세지면서, 관리 비용이 많이 들거나 효율이 떨어지는 파트너를 정리하고 있다는 분석이다. 한 IT 기업 대표는 "요즘 경기가 워낙 어렵다 보니 벤더들이 수수료나 인센티브 구조를 축소·조정하려는 움직임이 뚜렷하다"며 "기존 파트너들의 반발을 무마하고 비용을 절감하기 위해, 통제가 쉬운 새로운 파트너를 찾거나 파트너 수를 줄여 효율을 높이려는 고육지책"이라고 진단했다. 일부 전문가들은 이번 변화 본질은 기술 중심의 시장 재편에 있다고 입을 모은다. 단순히 하드웨어를 유통하는 방식으로는 AI와 클라우드라는 복잡한 기술 트렌드를 감당할 수 없게 됐기 때문이다. 실제로 오라클, IBM 등은 서버와 스토리지뿐만 아니라 소프트웨어와 네트워크까지 통합 제공하는 'AI 풀스택(Full Stack)' 전략을 강화하고 있다. 이를 수행하기 위해서는 단순 유통사가 아닌 기술적 구현 능력을 갖춘 파트너가 필수적이다. 한 업계 전문가는 "과거 총판이 라이선스를 발주하는 역할에 그쳤다면, 지금 시장은 엔드 유저(End User)에게 직접 설치해주고 기술 지원까지 가능한 '리셀러'급 역량을 요구한다"고 지적했다. 이어 "이번 총판 전환은 국내 IT 유통 생태계가 '영업 중심'에서 '기술 중심'으로 재편되는 과정"이라며 "앞으로는 단순 판매가 아니라 설계, 구축, 운영까지 아우르는 기술 기반 파트너 모델로 전환하는 기업만이 생존할 것"이라고 전망했다.

2026.02.23 15:05남혁우 기자

메가존클라우드, 셀키에이아이와 바이오 AI 솔루션 글로벌 사업 확장

메가존클라우드가 바이오 인공지능(AI) 솔루션와 글로벌 사업 확장에 나선다. 메가존클라우드는 셀키에이아이와 경기도 과천 메가존산학연센터에서 차세대 바이오 AI 솔루션 공동 개발 및 글로벌 공동 사업을 위한 전략적 파트너십을 체결했다고 23일 밝혔다. 체결식에는 염동훈 메가존클라우드 대표와 이남용 셀키에이아이 대표를 비롯한 양사 주요 관계자들이 참석했다. 협약을 통해 양사는 메가존클라우드의 글로벌 비즈니스 네트워크와 클라우드 역량을 기반으로 셀키에이아이의 바이오 버티컬 AI 기술·솔루션을 일본과 미국 등 글로벌 시장으로 확장하며 공동 사업 기회를 모색할 계획이다. 메가존클라우드는 클라우드·AI 인프라를 제공하고 셀키에이아이는 자사 바이오 버티컬 AI 에이전트 '바이오이오스'를 메가존클라우드의 인프라 환경에서 운영한다. 양사는 바이오이오스 운영 최적화·고도화 작업을 수행하고 제약·바이오 기업과 병원을 대상으로 도입 컨설팅부터 기술검증(PoC), 운영 지원으로 협력을 확대할 예정이다. 염동훈 메가존클라우드 대표는 "바이오 산업은 데이터 규모와 복잡성이 빠르게 커지고 있어 안정적인 클라우드 인프라와 AI 분석 역량의 결합이 필수"라며 "셀키에이아이 전문 플랫폼이 우리 인프라와 만나 제약·바이오 및 의료 현장에서 활용 가능한 실질적 성과를 만들 수 있도록 협력을 이어가겠다"고 말했다. 이남용 셀키에이아이 대표는 "바이오이오스는 바이오 데이터와 워크플로우를 AI 기반으로 정밀 분석·자동화해 생물학적 인사이트를 효율적으로 도출하고 연구·개발 의사결정을 지원하는 바이오 버티컬 AI 에이전트"라며 "메가존클라우드와의 협력을 통해 보안·운영 안정성과 확장성을 강화하고 국내를 넘어 일본 등 글로벌 시장에서도 경쟁력 있는 바이오 AI 솔루션을 선보이겠다"고 밝혔다.

2026.02.23 10:05한정호 기자

신성이엔지, 통합 모듈형 'AIO'로 AI 데이터센터 시장 공략 가속화

신성이엔지는 냉각·서버 인프라를 하나로 통합한 모듈형 데이터센터 솔루션 'AIO(All In One)'를 자체 개발, 기술 고도화를 완료했다고 23일 밝혔다. AIO는 하부 냉각 시스템과 상부 서버 랙을 수직 일체화한 구조로, 기존 데이터센터처럼 서버실·기계실·공조 설비를 분리 구축할 필요 없이 데이터센터 핵심 기능을 구현한다. 고집적·고발열 환경에 최적화된 설계를 적용해 AI 데이터센터 수요 확대에 대응하는 전략적 플랫폼이다. 공장에서 사전 제작된 모듈을 현장에 설치하는 방식을 적용해 구축 기간을 단축하고, 품질 균일성과 안정성을 동시에 확보했다. 이는 AI·클라우드 사업자들이 요구하는 '신속한 인프라 확장' 니즈와 정확히 맞닿아 있다. 특히 AIO는 공랭 기반 구성과 액체 냉각(DLC) 연계 구성을 모두 지원하는 확장형 플랫폼으로 설계됐다. 초기에는 공랭 기반으로 구축하고, 고성능 GPU 서버 확대로 발열 밀도가 높아지면 액체 냉각 기반으로 전환하는 전략적 운용이 가능하다. 단일 설비가 아닌 '진화 가능한 인프라 플랫폼'이라는 점에서 차별화된다. 구체적 세부 사양은 공개하지 않았으나, AIO는 고집적 서버 환경을 고려한 고풍량·고정압 설계와 다중 안전 설계, 안정적 전원 구조를 갖췄다. 냉각 코일, 팬·모터, 배수 및 필터 시스템, 접근 플로어와 배관 구조까지 하나의 체계로 통합 설계해 공랭식·DLC용 배관을 최소화했으며, 이를 통해 공사 비용과 에너지 손실을 동시에 줄였다. 신성이엔지가 이 같은 통합 구조를 구현할 수 있었던 배경에는 반도체 클린룸 분야에서 축적한 정밀 환경제어 기술이 있다. 50여 년간 초고청정·초정밀 온습도 제어 환경을 구현해온 기술력이 데이터센터 냉각 설계에 그대로 반영됐다. 공기 흐름 제어, 열 부하 대응, 안정적 환경 유지 기술은 AI 데이터센터의 고발열 문제 해결에 직접 연결된다. 최근 AI 연산 수요가 급증하면서 데이터센터의 전력밀도는 과거 대비 크게 상승했다. 기존 범용 공조 방식만으로는 대응이 어려운 구간이 늘어나고 있으며, 공랭과 액체 냉각을 병행하는 하이브리드 전략이 대안으로 부상하고 있다. AIO는 모듈 단위 증설이 가능해 단계적 투자가 용이하며, 실내·실외 겸용 구조로 설계돼 설치 환경 제약도 최소화했다. 신성이엔지는 AIO를 데이터센터 신사업의 핵심 축으로 삼고 실증 프로젝트 확대와 레퍼런스 확보에 집중한다는 계획이다. 김태형 신성이엔지 기술실장은 “AIO는 단순한 냉각 장비가 아니라 냉각·운영 모니터링을 통합한 데이터센터 인프라 플랫폼”이라며 “AI 및 고성능 컴퓨팅(HPC) 환경에서도 안정성과 에너지 효율을 동시에 확보할 수 있도록 고도화했다”고 설명했다. 이어 “ '더 나은 미래, 지속 가능한 환경' 이라는 슬로건 아래 안정성과 경제성, 환경성을 모두 갖춘 차세대 데이터센터 모델을 제시하겠다”고 강조했다.

2026.02.23 09:17장경윤 기자

정부, 고성능 GPU 1만5천장 확충한다…다음주 사업 공고 전망

정부가 올해 1만 5000장 규모의 고성능 그래픽처리장치(GPU)를 추가 확보하는 대형 사업을 다음주 공개할 전망이다. 지난해 1만 3000여 장 도입에 이어 2년 연속 대규모 확충에 나서며 국가 인공지능(AI) 인프라를 강화하는 모습이다. 20일 업계에 따르면 과학기술정보통신부는 '첨단 AI반도체 서버확충 및 통합운영환경 구축' 사업 공고를 이르면 다음주 말께 게시할 예정이다. 공고 시점은 내부 검토 상황에 따라 다소 유동적이지만 최대한 이른 시일 내 공개할 것으로 전해졌다. 이번 사업은 1만 5000장 이상 규모의 GPU를 확보·구축하는 내용으로 설계되고 있다. 총 지원 예산은 약 2조원 규모로 편성됐다. 확보된 자원은 민간 클라우드 서비스 제공업체(CSP)가 구축·운영하는 서비스형 GPU(GPUaaS) 방식으로 제공될 예정이다. 정부의 GPU 확충 정책은 지난해 추경을 통해 1만 3000여 장을 확보하는 등 단계적으로 추진돼 왔다. 이후 엔비디아와의 협력 발표를 계기로 중장기 공급 로드맵이 보다 구체화되면서 확충 속도에 힘이 실린 것으로 평가된다. 당시 정부는 2030년까지 총 26만 장 규모 GPU를 국내에 도입하는 계획을 제시했고 이 가운데 정부 몫은 5만 2000장 수준으로 제시됐다. 올해 추가 확보 사업도 이러한 중장기 로드맵을 이행하는 과정의 연장선이다. 정부는 지난해 약 1만 3000장의 GPU를 확보하고 네이버클라우드·NHN클라우드·카카오를 1차 사업자로 선정한 바 있다. 당시 확보 물량은 엔비디아 B200 1만 80장, H200 3056장으로 구성됐으며 이 중 1만장 이상이 정부 활용분으로 산학연 등에 순차 지원하도록 이뤄졌다. 특히 1차 사업에서는 GPU 통합지원 플랫폼 구축을 통해 산학연과 스타트업이 온라인으로 GPU 자원을 신청·배정받는 구조도 마련됐다. 정부와 운용 사업자들은 실무협의체를 구성해 확보·구축·운용 계획과 배분 일정 등을 점검해왔다. 이를 토대로 최근 정부가 진행하는 GPU 보급 사업에 초거대 AI 모델 개발을 추진하는 스타트업과 대학·연구기관의 관심이 집중되며 신청 수요가 빠르게 늘어난 것으로 전해졌다. 올해 사업은 이같은 기반에 GPU 물량을 더 확대하는 방식이다. 과기정통부 산하 정보통신산업진흥원(NIPA)은 지난달 통합 사업설명회를 통해 올해 GPU 1만 5000장 확보를 목표로 제시하며 국가AI컴퓨팅센터 설립과 병행 추진하겠다는 계획을 밝힌 바 있다. 이번 사업은 지난해 참여했던 네이버클라우드·카카오·NHN클라우드를 비롯해 KT클라우드 등 주요 CSP들의 참여 여부가 관심사로 떠오르고 있다. 이미 GPUaaS 운영 경험과 데이터센터 인프라를 갖춰 공공사업을 진행 중인 만큼 다시 한번 GPU 추가 확보에 나설 가능성이 거론된다. 사업 공고에 따라 단일 사업자, 복수 사업자, 컨소시엄 형태 등 다양한 방식이 검토될 수 있다는 관측도 나온다. 이번에 확보될 GPU는 산학연 연구 수요와 국가 전략 AI 프로젝트 등에 투입될 전망이다. 정부는 지난해 확보 물량을 통해 초대형 클러스터 기반 AI 워크로드 지원 체계를 마련했으며 올해 추가 물량을 통해 지원 범위와 규모를 더욱 확대한다는 구상이다. 사업 일정은 공고 이후 사업자 선정, 협약 체결, GPU 발주 및 구축 순으로 진행될 예정이다. 이와 함께 정부는 삼성SDS 컨소시엄이 수주한 국가AI컴퓨팅센터 구축도 병행하고 있다. 현재 금융 심사가 진행 중이며 관련 절차가 마무리되는 대로 인프라 확충 작업이 이어질 전망이다. 정부는 민간과 협력하는 GPUaaS 모델을 통해 단기 수요에 대응하고 중장기적으로는 국가 차원의 컴퓨팅 인프라를 체계화한다는 방침이다. 과기정통부 관계자는 "최대한 빨리 공고를 내기 위해 준비 중이며 내부 검토를 거쳐 다음주 말쯤 공개될 것으로 예상한다"고 밝혔다. 업계 관계자는 "지난해 사업을 통해 GPUaaS 운영 모델이 어느 정도 안착한 만큼, 올해 추가 물량까지 더해지면 국가에서 추진하는 다양한 AI 개발 프로젝트를 수준 높게 지원할 수 있을 것"이라고 말했다.

2026.02.20 14:52한정호 기자

엔비디아-메타, 초지능 AI 인프라 구축 맞손

엔비디아가 메타 손잡고 온프레미스와 클라우드를 아우르는 인공지능(AI) 인프라 구축에 나섰다. 엔비디아는 훈련·추론에 최적화된 하이퍼스케일 데이터센터 구축을 위해 메타와 장기 파트너십을 체결했다고 20일 밝혔다. 이번 협력을 통해 엔비디아 중앙처리장치(CPU)와 수백만 대 블랙웰·루빈 그래픽처리장치(GPU)가 도입된다. 메타 페이스북 오픈 스위칭 시스템 플랫폼에는 엔비디아 칩셋과 스펙트럼-X 이더넷 스위치가 통합된다. AI 워크로드 확장에 맞춰 네트워크 효율과 처리량을 개선해 운영 시스템의 완성도를 높일 방침이다. 두 기업은 데이터센터 전력 대비 성능을 개선하기 위해 암(Arm) 기반 엔비디아 그레이스 CPU 배포에 협력하고 있다. 이는 그레이스 단독 아키텍처의 첫 대규모 배포 사례다. 소프트웨어(SW) 최적화 투자를 통해 세대별 성능을 지속적으로 올릴 계획이다. 현재 양사는 내년 차세대 CPU '베라'의 대규모 배포 가능성도 검토 중이다. 엔비디아 컨피덴셜 컴퓨팅 기술까지 도입해 사용자 개인정보 보호와 보안성을 한층 강화할 방침이다. 메타는 업계 선도적인 엔비디아 GB300 기반 시스템을 도입하고 온프레미스와 엔비디아 클라우드 파트너(NCP) 환경을 아우르는 통합 아키텍처를 구축한다. 이를 통해 데이터센터 운영을 간소화하는 동시에 성능과 확장성을 극대화할 수 있을 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "우리는 CPU와 GPU, SW, 네트워킹 전반에 걸친 긴밀한 공동 설계를 진행하고 있다"며 "메타 연구진과 엔지니어들이 차세대 AI 혁신을 위한 기반을 구축할 수 있도록 엔비디아 풀스택 플랫폼을 제공하고 있다"고 밝혔다.

2026.02.20 11:04김미정 기자

델, F1 명가 맥라렌과 기술 협력 강화…AI 인프라로 챔피언십 2연패 뒷받침

델 테크놀로지스가 인공지능(AI) 인프라와 고성능 컴퓨팅(HPC)을 앞세워 포뮬러1(F1) 명가 맥라렌 레이싱의 글로벌 모터스포츠 기술 경쟁력 향상에 앞장선다. 델 테크놀로지스는 맥라렌 레이싱 팀과의 파트너십을 강화한다고 19일 밝혔다. 이번 협력 확대로 맥라렌 F1 팀은 델의 AI 인프라와 PC 포트폴리오를 활용해 차량 설계부터 제조, 레이스 운영까지 전 과정의 데이터 기반 역량을 고도화할 계획이다. 델은 맥라렌의 공식 혁신·기술 파트너로서 차량 개발과 성능 혁신을 지원해왔다. F1은 찰나의 순간에 승부가 갈리는 극한의 스포츠로 정교한 엔지니어링과 팀워크, 강력한 IT 인프라가 유기적으로 결합돼야 하는 무대다. 맥라렌은 델과 협력해 AI 기반 솔루션을 차량 설계, 제조, 레이스 운영 전반에 적용하며 데이터 기반 의사결정을 강화해왔다. 양사 협력은 2018년을 시작으로 설계·엔지니어링 환경은 물론 트랙사이드 운영과 실시간 전략 수립 영역까지 범위를 넓혔다. 맥라렌은 2024년과 2025년 F1 컨스트럭터 챔피언십 2연패를 달성했으며 지난해에는 드라이버 챔피언십에서도 성과를 거뒀다. 델 솔루션은 시즌 중 장비 개선과 협업 방식 혁신을 지원하며 이같은 성과를 뒷받침했다. 맥라렌은 델 파워엣지 서버와 HPC 솔루션 등으로 구성된 '델 AI 팩토리'를 기반으로 경기 주말마다 약 1.5테라바이트(TB)에 달하는 데이터를 처리한다. 이를 통해 신속한 시뮬레이션과 디지털 트윈을 구현하고 유압 시스템의 미세한 변화 감지부터 실시간 트랙 조건 대응까지 정밀한 인사이트를 확보 중이다. 또 델 파워스토어와 파워스케일 스토리지 솔루션을 활용해 방대한 데이터를 안정적으로 처리하고 필요 시 인프라를 유연하게 확장한다. 대규모 데이터 모델링과 전산유체역학(CFD) 워크로드를 안정적으로 수행할 수 있는 환경을 구축해 시뮬레이션과 분석 속도를 높이고 전반적인 경기 성과 향상에 기여하고 있다. 델 PC 역시 맥라렌 마스터카드 F1 팀 운영 전반을 지원한다. 트랙 현장과 제조 공장, 글로벌 이동 환경에서도 최신 AI PC를 통해 복잡한 워크플로우를 처리하고 엔지니어와 전략 담당자가 방대한 데이터를 분석해 신속한 의사결정을 내릴 수 있도록 돕는다. 에일리언웨어 게이밍 시스템은 e스포츠 및 시뮬레이션 레이싱 프로그램을 지원하며 실제와 유사한 디지털 환경에서 전략을 테스트하고 고도화하는 데 활용되고 있다. 잭 브라운 맥라렌 레이싱 최고경영자(CEO)는 "델 테크놀로지스와의 파트너십은 혁신과 성능이라는 공동의 가치 위에 구축됐다"며 "델의 기술은 차량 설계부터 레이스 전략까지 팀 운영 전반의 기반을 이루고 있다"고 밝혔다. 리즈 매튜스 델 테크놀로지스 글로벌 브랜드 및 크리에이티브 총괄 수석부사장은 "양사 협력은 극한의 환경에서 기술과 인간의 역량이 결합해 만들어내는 경쟁 우위를 입증함으로써 전세계 고객들에게 청사진을 제시할 것"이라고 말했다.

2026.02.19 10:05한정호 기자

韓 AI반도체, '엔비디아 대항마' 넘어 실전으로

AI 시대의 개막과 함께 반도체 산업의 패러다임이 급변하고 있다. 인공지능 구현에 필수적인 고성능 반도체의 수요가 폭증함에 따라, 엔비디아의 GPU(그래픽처리장치)를 중심으로 한 글로벌 AI 생태계는 그 어느 때보다 공고한 성벽을 쌓아 올렸다. 그러나 최근 AI 시장의 무게추가 모델 학습에서 '추론(Inference)'으로 이동하며 GPU 중심의 시장 구조에 변화의 조짐이 나타나고 있다. 학습에서 추론으로, NPU 시장의 활성화 생성형 AI의 확산은 데이터센터부터 엣지, 온디바이스 전반에 걸쳐 막대한 연산 수요를 창출하고 있다. 초기 시장이 대규모 언어 모델을 학습시키기 위한 GPU 중심이었다면, 이제는 학습된 모델을 실무 서비스에 적용하는 추론 단계가 핵심 경쟁력으로 부상했다. 이 과정에서 AI 연산에 특화된 NPU(신경망처리장치) 시장이 본격적으로 활성화되고 있다. NPU는 범용성을 갖춘 GPU와 달리 AI 알고리즘 처리에 최적화돼 있어, 전력 효율성과 비용 측면에서 압도적인 강점을 가진다. 글로벌 테크 기업들이 효율적인 AI 인프라 구축을 위해 NPU로 눈을 돌리면서, NPU는 GPU의 대안을 넘어 차세대 반도체의 주역으로 자리매김하고 있다. 2026년, 대한민국 AI 반도체 '원년'의 선포 이러한 시장 변곡점에서 국내 AI 반도체 기업들은 글로벌 시장의 주도권을 잡기 위해 총력전을 펼치고 있다. 특히 2026년은 국내 주요 AI 반도체 스타트업들의 기술력이 담긴 칩들이 일제히 시장에 출시되는 시점으로, '한국 AI 반도체의 원년'이라 부르기에 부족함이 없다. 리벨리온, 퓨리오사AI, 딥엑스, 모빌린트 등 국내 기업들은 각기 다른 전략과 포지셔닝을 통해 글로벌 경쟁력 확보에 매진하고 있다. 이들은 단순한 기술 개발을 넘어 시제품(PoC) 단계를 통과하고 실제 양산 및 상용화 단계로 진입하며 실질적인 성과를 증명해야 하는 중요한 기로에 서 있는 셈이다. 생존 전략을 위한 SWOT 분석 [K-AI칩이 온다] 연재 기획은 국내 주요 AI 반도체 및 인프라 기업 7곳을 대상으로 이들의 기술력과 시장 생존 전략을 집중 조명한다. 각 기업의 주력 시장과 포지셔닝, 성능 및 전력 효율성, 그리고 소프트웨어(SW) 경쟁력을 다각도로 분석할 예정이다. 급변하는 글로벌 공급망 리스크와 양산 과제 속에서 국내 기업들이 가진 강점(Strength), 약점(Weakness), 기회(Opportunity), 위협(Threat) 요인을 면밀히 분석함으로써 대한민국 AI 반도체 산업의 현주소와 미래 가능성을 제시하고자 한다.

2026.02.18 16:00전화평 기자

반도체만 독주?...AI인프라 경쟁이 광케이블 수요도 집어 삼켰다

세계적인 AI 인프라 구축 경쟁으로 메모리반도체와 함께 광케이블 수요도 폭발적으로 증가하고 있다는 소식이다. 17일(현지시간) 라이트리딩닷컴에 따르면 AI 투자 경쟁으로 통신사들이 네트워크 구축에 주로 사용하는 G.652.D 광케이블 가격이 지난 1월 75% 올랐는데 이는 7년 만에 최고 수준에 도달한 상황이다. 중국전자부품산업협회는 중국의 4대 광케이블 제조사들이 최대 생산 능력으로 제조 라인을 가동하고 있으며 다른 국가의 제조사도 생산 한계에 가까운 상황에 이르렀다고 밝혔다. 메모리반도체와 같이 광케이블도 공급과 수요 불균형이 단기간에 해소되기 어려운 상황이며 공급 가격 역시 높은 수준을 유지될 것으로 점쳐진다. 푸투증권은 “AI 데이터센터 수요 증가가 광케이블 시장의 주요 동력”이라며 “주요 공급 회사들은 이미 최대 생산 능력으로 가동중이기 때문에 업계 전반에서 물량 증가와 가격 상승이 동시에 나타나는 배경이 됐다”고 설명했다. 이와 같은 시장 상황에 중국의 차이나텔레콤은 광둥성에서 광인터넷 구축 프로젝트를 중단하기에 이르렀다. 중국의 광케이블 시장은 AI 데이터센터 구축과 함께 러시아-우크라이나 전쟁으로 광케이블 수요가 폭증하는 상황에 도달했다. 전쟁 초기부터 드론이 많이 쓰였는데, 2024년 중반부터 양국은 드론을 향한 전파 공격을 피하기 위해 광케이블로 연결된 드론을 배치해왔다. 대부분의 드론 비행 거리는 10~20km에 이르며 일부 드론은 잘 휘어지는 광케이블 G.657.A2를 활용, 30km 이상을 비행하기도 한다. 즉, 전쟁을 위한 드론에도 광케이블이 대량으로 쓰이면서 수요가 폭발적으로 증가했다는 뜻이다. 수요와 공급가격이 동시에 증가하면서 주요 회사들의 실적에도 반영되고 있다. 이를테면 코닝은 지난해 광케이블 사업 부문에서 지난해 4분기 순이익이 71% 증가했다고 밝혔다. 코닝은 메타의 데이터센터에 60억 달러 규모의 광케이블 공급 계약을 체결했는데, 이는 지난해 코닝의 연간 광케이블 부문 매출에 해당하는 수준이다. 이에 코닝의 주가는 올해에만 47% 올랐다. 또 시에나의 주가는 24%, 코리언트 주가는 12% 올랐고, 중국의 최대 광케이블 회사인 YOFC와 헝퉁의 주가는 각각 119%, 55% 상승했다.

2026.02.18 08:09박수형 기자

전력 병목 직면한 美 데이터센터…국내는 규제에 '발목'

인공지능(AI) 산업 확산과 함께 데이터센터가 국가 경쟁력을 좌우하는 핵심 인프라로 부상한 가운데, 국내는 수도권 규제와 전력 계통 관리 등 정책적 과제를 안고 있는 것으로 확인됐다. 글로벌 AI 인프라 경쟁이 본격화되는 상황에서 국내 역시 전력·입지 정책을 어떻게 조율하느냐가 풀어야할 급한 과제로 보인다. 17일 업계에 따르면 미국 뉴욕주에서는 신규 데이터센터 신축·운영 허가를 최소 3년간 중단하는 법안이 발의되는 등 전력망 부담과 지역사회 영향에 대한 우려가 정치권 전반으로 확산되고 있다. 해당 법안은 데이터센터 건설이 지역 전력망과 주거 환경에 미치는 영향을 재검토하자는 취지로, 실제 통과 여부는 미정이지만 조지아·버몬트·버지니아 등에서도 유사한 논의가 이어지고 있다. AI 투자 확대에 따른 전력 수요 급증이 정책 이슈로 떠오른 것이다. 빅테크 기업들도 대응에 나섰다. 마이크로소프트(MS)는 자사 AI 데이터센터 전력 비용이 일반 소비자 요금으로 전가되지 않도록 전력회사와 공공위원회에 충분한 요금 책정을 요구하겠다고 밝혔다. 데이터센터 전력 사용이 가정용 전기요금 인상으로 이어질 수 있다는 우려를 의식한 조치다. 이처럼 미국은 노후 전력망과 급증하는 AI 수요가 맞물리며 전력 병목이 현실화되는 양상이다. 일부 지역에서는 전력 인입 대기 기간이 늘어나거나 인허가가 지연되는 사례도 이어지고 있다. 전력 확보 능력이 곧 AI 인프라 확장 속도를 좌우하는 구조다. 국내는 상황이 다르다. 국내 데이터센터 60% 이상이 수도권에 밀집해 있으며 이로 인한 전력망 부담과 부지 부족 문제가 꾸준히 제기돼 왔다. 이에 정부는 지방 분산 전략과 전력 계통 관리를 병행하는 방향으로 정책을 추진하고 있다. 특히 '분산에너지 활성화 특별법' 시행 이후 전력 다소비 시설에 대한 전력계통영향평가가 의무화되면서 신규 데이터센터는 사전에 전력 공급 가능성을 면밀히 검토받아야 한다. 수도권의 경우 계통 포화 우려로 공급이 제한되는 사례가 늘고 있다. 이 가운데 정부는 지난해부터 AI 데이터센터를 국가전략기술 사업화 시설로 지정해 세제 혜택을 확대하는 방안을 추진해왔다. 대기업 기준 최대 15%의 세액공제가 적용되며 AI 관련 연구개발(R&D) 투자비에 대해서도 추가 공제가 가능하다. 인프라 확충을 위한 정책적 지원과 계통 안정성 확보를 동시에 추구하는 모습이다. 다만 현장에서는 입지와 운영 여건을 종합적으로 고려해야 한다는 목소리도 나온다. 지방은 상대적으로 전력 여력이 있지만 통신망, 전문 인력, 수요처 접근성 등에서 추가 보완이 필요하다는 지적이다. 기업 입장에서는 장기적 운영 안정성과 예측 가능성이 중요한 투자 판단 요소로 꼽힌다. 미국이 전력 절대량 부족이라는 물리적 한계에 직면해 있다면, 한국은 전력 관리와 균형 발전이라는 정책적 과제를 풀어가야 하는 상황이다. AI 데이터센터가 반도체·클라우드·제조 AI 경쟁력과 직결되는 만큼, 전력 수급 안정과 지역 분산 전략을 어떻게 정교화하느냐가 향후 경쟁력을 좌우할 전망이다. 업계 관계자는 "AI 시대 데이터센터는 단순한 시설이 아니라 국가 전략 인프라"라며 "전력 계통 안정성과 지역 균형 발전이라는 정책 목표를 조화롭게 달성할 수 있도록 정부가 산업계와 협력하는 것이 중요할 것"이라고 말했다.

2026.02.17 10:23한정호 기자

삼성전자, 차세대 반도체 생산기지 P5 클린룸 구축 앞당겨…'쉘 퍼스트' 전략

삼성전자가 선제적으로 클린룸을 확보하는 '쉘 퍼스트(shell First)' 전략을 이어간다. 최근 차세대 반도체 생산기지인 P5의 클린룸 구축 시점을 당초 내년 초에서 올해 중반께로 앞당긴 것으로 파악됐다. 17일 업계에 따르면 삼성전자는 최근 평택캠퍼스 5공장(P5)의 클린룸 구축 시기를 6개월가량 앞당겼다. 삼성전자는 내년 초부터 클린룸 구축을 본격적으로 진행할 계획이었다. 이를 위한 인서트(구조물 설치 전 지지 역할의 철물을 삽입하는 과정) 등 사전 작업이 오는 4분기 초로 예정돼 있었다. 그러나 최근 삼성전자는 시공 관련 협력사에 해당 일정을 2분기에 조기 진행해달라고 요청한 것으로 파악됐다. 이에 따라 클린룸 구축 일정도 3분기 초부터 이뤄질 예정이다. 클린룸은 반도체 제조 환경의 오염도와 온도·습도·기압 등 제반 요소를 제어하는 인프라 시설이다. 반도체 제조장비를 투입하기 전에 필수적으로 설치해야 한다. 클린룸 설치 뒤 진행되는 배관 설치도 내년에서 올해 연말로 일정이 앞당겨졌다. 업계 관계자는 "현재 P5 공사 현장은 크레인이 다 투입된 상태로 매우 분주한 분위기"라며 "클린룸 및 배관 협력사들도 삼성전자의 갑작스러운 요청에 대응을 준비하는 상황"이라고 설명했다. P5는 오는 2028년 가동을 목표로 하는 삼성전자의 차세대 반도체 생산기지다. 총 3개 층에 6개의 클린룸이 구축돼, 평택캠퍼스 내 다른 공장(2개 층, 4개 클린룸) 대비 규모가 더 큰 것으로 알려져 있다. P5의 주 생산 제품은 AI 산업의 필수 요소인 고대역폭메모리(HBM)가 될 전망이다. 삼성전자는 최근 보도자료를 통해 "P5는 HBM 생산의 핵심 거점으로 활용될 예정"이라며 "AI·데이터센터 중심의 중·장기 수요 확대 국면에서도 안정적인 공급 대응 역량을 지속적으로 확보해 나갈 예정"이라고 설명한 바 있다. 이번 삼성전자의 결정은 회사가 추진 중인 쉘 퍼스트 전략의 일환으로 풀이된다. 쉘 퍼스트란 클린룸을 선제적으로 건설한 뒤, 실제 생산능력 확대를 위한 설비투자는 시장 수요와 연계해 탄력적으로 운영하는 전략을 뜻한다. 앞서 삼성전자는 지난달 30일 진행한 실적발표 컨퍼런스콜에서 "당사는 이후에도 선제 투자 전략을 유지할 예정"이라며 "신규 팹 공간 투자를 선행해 클린룸을 확보하고, 이후 수요 추이에 따라 증설이 필요한 시점에 설비투자를 빠르게 실행하는 방식으로 투자할 예정"이라고 설명한 바 있다.

2026.02.17 10:11장경윤 기자

경남형 피지컬 AI 시동…엔비디아 B200 품은 제조AI센터 발주

제조 공정 데이터와 실물 설비를 연결하는 피지컬 인공지능(AI)이 차세대 국가 경쟁력으로 부상하는 가운데, 경상남도가 제조업 중심 산업 구조에 특화된 인프라 구축에 나섰다. 고성능 그래픽처리장치(GPU)를 기반으로 한 제조AI 데이터센터를 조성해 도내 중소 제조기업의 AI 전환(AX)을 지원하겠다는 구상이다. 14일 조달청 나라장터에 따르면 경남테크노파크는 경남 제조AI 데이터센터 구축 사업을 발주했다. 총 사업비는 약 56억원 규모로 책정됐다. 사업기간은 계약 체결일로부터 60일로, 비교적 단기간 내 구축을 완료한다는 계획이다. 이번 사업은 지역 주도형 AI 대전환 사업의 일환으로, 공용 GPU 자원을 집적한 데이터센터를 통해 제조 현장에 특화된 AI 학습·추론 환경을 마련하는 것이 핵심이다. 경남 지역 산업 특성과 여건에 맞는 맞춤형 AI센터를 구축하고 공용 GPU 서버 및 엣지컴퓨팅 기반 인프라를 도입해 제조 현장 중심의 AI 서비스를 구현할 전망이다. 특히 고성능 GPU 서버를 중심으로 한 AI 인프라 확충을 통해 도내 중소 제조기업의 AI 활용도를 높이고 서비스 신뢰성을 제고할 계획이다. 사업 범위는 제조AI 및 중소 제조기업 AI 대전환(AX)을 위한 인프라 도입과 데이터센터 구축 전반을 포함한다. 고성능 GPU 서버와 고용량 스토리지 도입, AI 운영 솔루션 구축, 전산실 기반 환경 조성 등이 주요 과업이다. 아울러 기존에 도입된 GPU 서버와 스토리지 등 관련 인프라를 신규 센터로 이전·재배치해 통합 운영 환경을 마련한다. GPU 서버는 10U 랙형 서버 5대로 구성되며 엔비디아 B200 HGX SXM 기반 GPU를 서버당 8개 이상 탑재하도록 요구됐다. 이는 대규모 모델 학습과 분산 연산을 고려한 구성으로, 제조 공정 데이터 분석과 AI 모델 고도화에 대응하기 위한 설계로 풀이된다. 소프트웨어 측면에선 GPU 자원 풀링과 컨테이너 기반 학습·추론 환경을 위한 AI 운영 솔루션이 도입된다. GPU 가상화와 분할 기능을 활용해 단일 대형 모델뿐 아니라 소규모 추론부터 다중 노드 분산 학습까지 폭넓은 워크로드를 소화하기 위한 구조다. 해당 데이터센터는 경남 창원시 의창구 기업연구관 3층에 조성된다. 제안요청서에는 전산실 배치, 이중마루 및 냉복도 컨테인먼트 구성 등 물리적 인프라 요건도 세부적으로 명시됐다. 사업은 계약 이후 세부 수행 계획 수립과 현황 조사, 기반 인프라 구축, 장비 납품·설치, 정보시스템 이전, 통합 시험운영을 거쳐 완료보고 및 검사·검수 단계로 이어진다. 시험운영과 이중화 테스트를 통해 요구 성능 충족 여부를 검증하며 문제 발생 시 교체·증설·보완을 요구할 수 있도록 했다. 특히 기술능력평가 90점, 가격평가 10점 비중으로 종합평가를 실시한다. 기술평가에서는 장비·운용환경 구축, 기반인프라 계획, 정보시스템 이전 방안, 시험 및 안정화, 유지관리 정책 등을 중점적으로 본다. 단순 장비 납품을 넘어 프로젝트 관리 역량과 보안·품질 관리 체계까지 종합 평가 대상이다. 장애 발생 시 4시간 이내 조치 착수, 8시간 이내 복구 등 구체적 대응 기준도 제시돼 운영 안정성을 확보하도록 했다. 업계에선 이번 사업에 GPU 서버·AI 인프라 구축 경험을 보유한 시스템통합(SI) 기업과 데이터센터 전문 업체, 클라우드·AI 플랫폼 기업 등이 관심을 보일 것으로 보고 있다. 특히 엔비디아 B200 HGX 기반 사양이 명시된 만큼 관련 공급 레퍼런스를 확보한 기업 중심의 경쟁이 예상된다. 제조 데이터 특화 AI 운영 역량과 전산실 기반 인프라 구축 경험이 기술평가에서 핵심 변수가 될 것이라는 분석도 나온다. 이번 경남 제조AI데이터센터 구축은 단순한 GPU 집적 사업을 넘어 제조 현장의 설비·공정 데이터와 AI를 연결하는 경남형 피지컬 AI 인프라의 출발점으로 평가된다. 지역 제조기업이 자체적으로 고가의 GPU 자원을 확보하기 어려운 상황에서 공용 데이터센터를 통해 연산·저장·운영 환경을 통합 제공함으로써 AX를 가속화하겠다는 전략이다. 경남테크노파크 측은 "고성능 GPU 기반 제조AI데이터센터를 구축해 도내 중소 제조기업의 AI 대전환을 지원할 계획"이라며 "연산·운용·저장 자원을 통합한 데이터 기반 환경을 조성해 경남 주력산업의 AX를 촉진하겠다"고 밝혔다.

2026.02.14 09:23한정호 기자

엔비디아, 38억 달러 채권 조달 데이터센터 임차…'AI 빚투' 경쟁 가세

엔비디아가 38억 달러(약 5조 5000억원) 규모 하이일드(정크) 채권으로 조성된 미국 내 데이터센터를 장기 임차하기로 하면서 인공지능(AI) 인프라 확충을 위한 자금 조달 경쟁에 본격 합류했다. 13일 블룸버그통신에 따르면 자산운용사 트랙트캐피털이 지원하는 법인은 38억 달러(약 5조 5000억원) 규모 채권을 발행해 미국 네바다주 스토어리카운티에 들어설 200메가와트(MW)급 데이터센터와 변전소 건설 자금 일부를 조달한다. 하이일드 채권은 신용등급이 낮은 대신 상대적으로 높은 금리를 제공하는 투자부적격 채권을 뜻한다. 이번 채권 발행 규모는 당초 계획보다 1억 5000만 달러(약 2165억원) 증액됐으며 수익률은 약 6% 수준에서 논의된 것으로 전해졌다. 이는 AI 인프라 자산에 대한 투자 수요가 여전히 견조하다는 신호로 해석된다. 엔비디아는 해당 시설을 약 16년간 임차하고 이후 10년씩 두 차례 연장할 수 있는 옵션을 확보한 것으로 알려졌다. 직접 건설이 아닌 장기 임차 방식을 택함으로써 대규모 초기 자본 지출 부담을 낮추면서도 안정적인 컴퓨팅 인프라를 확보하려는 전략으로 풀이된다. 최근 데이터센터 개발업체들은 신규 시설 건설 자금을 마련하기 위해 하이일드 채권 시장을 적극 활용하고 있다. 실제로 일부 기업들은 구글의 지원을 받아 채권을 발행했고 또 다른 업체는 엔비디아 주요 파트너이자 네오클라우드 사업자인 코어위브를 주요 임차인으로 내세워 자금을 조달했다. 엔비디아의 이번 행보는 AI 인프라를 둘러싼 '빚투' 흐름과도 맞닿아 있다. 구글 모회사 알파벳은 AI 인프라 투자 재원을 마련하기 위해 최근 150억 달러(약 22조원) 규모 회사채 발행에 나섰으며 이 가운데 40년물 장기채도 포함됐다. 알파벳은 올해 자본지출이 최대 1850억 달러(약 267조원)에 달할 것으로 전망하고 있다. 메타·아마존·마이크로소프트(MS)·오라클 등 주요 하이퍼스케일러들도 채권 시장을 통해 대규모 자금을 조달 중이다. 모건스탠리는 올해 이들 기업의 차입 규모가 4000억 달러(약 577조원)에 이를 것으로 내다봤다. 엔비디아는 자체 데이터센터를 운영하는 동시에 아마존웹서비스(AWS)·MS 애저 등 클라우드 사업자로부터 추가 용량을 임차해 활용 중이다. 회사 측은 AI 기반 칩과 컴퓨터 설계가 복잡해지면서 더 많은 컴퓨팅 파워가 필요해졌다고 밝힌 바 있다. 앤드루 다소리 웨이브렝스 캐피털 매니지먼트 최고투자책임자는 "과거에는 순저축자였던 기업들이 이제는 AI 경쟁에 필요한 자원을 확보하기 위해 적극적으로 자금 조달에 나서고 있다"고 밝혔다.

2026.02.13 15:26한정호 기자

베슬AI, 네오클라우드 앞세워 매출 3.4배↑…글로벌 진출 속도

베슬AI가 지난해 매출과 고객 지표 실적 전반에서 가파른 성장세를 기록하며 국내 인공지능(AI) 인프라 시장에서의 입지를 강화했다. 베슬AI는 2025년 연간 매출이 전년 대비 약 3.4배 성장했다고 13일 밝혔다. 특히 지난달 기준 자사 멀티 클라우드 솔루션을 통해 전년도 연매출의 절반을 넘어서는 수준의 매출을 기록해 눈길을 끌었다. 이를 두고 회사 측은 AI 워크로드를 운영·제공하는 인프라 사업이 빠르게 확대되고 있다고 설명했다. 기업·기관의 도입 문의도 전년 대비 4.3배 이상 늘었다. 거대언어모델(LLM) 확산과 함께 모델 개발 이후의 운영 안정성·비용 효율·자원 활용까지 고려한 AI 인프라 최적화 수요가 본격화된 것으로 풀이된다. 이러한 흐름 속에서 베슬AI는 자사 플랫폼 '베슬 클라우드'를 기반으로 AI 워크로드 운영에 특화된 인프라를 직접 제공하는 네오클라우드 사업자로서의 정체성을 강화하고 있다. 이는 범용 인프라 중심의 기존 클라우드와 달리, AI 연구·개발 및 상용 환경에서 요구되는 운영 효율성과 유연성을 구조적으로 개선한 인프라 운영 모델로 평가된다. 이용자 지표에선 월간 활성 사용자(MAU)는 전년 말 대비 약 3.7배 성장했으며 특히 미국 시장을 중심으로 고객 저변이 빠르게 확대되고 있다. UC버클리와 카네기멜론대학교(CMU) 등 글로벌 주요 대학과 연구기관에서도 도입 사례가 늘어나고 있으며 해외 고객 인입 규모도 전년 대비 약 3배 성장했다. 베슬AI는 현재 15곳 이상의 글로벌 고객·파트너를 확보 중이며 위스콘신 매디슨 대학교와 미네소타 대학교 등 다수 고객이 정식 유료 고객으로 '베슬 클라우드'를 이용 중이다. 국내에선 티맵모빌리티와 한화생명 등 대형 엔터프라이즈 고객과 공공기관 실증 사례를 통해 상용 환경에서의 안정성을 검증했다. 베슬AI는 이러한 성과를 바탕으로 올해 국내 AI 생태계에서 인프라 영역을 대표하는 스타트업으로 자리매김하는 것을 목표로 하고 있다. 특히 지방 AI 전환(AX) 클러스터와 연계한 신경망처리장치(NPU) 데이터센터 사업과 소버린 AI 전략을 통해 공공·정부 영역과의 협력도 확대해 나갈 계획이다. 아울러 베슬AI는 국내에 구축된 AI 인프라 자원을 해외 수요와 연결하는 글로벌 브릿지 전략도 추진 중이다. 이 전략의 일환으로 미국 데이터센터 에너지 최적화 기업 파도 AI와 파트너십을 체결하고 해외 데이터센터 환경에서의 AI 워크로드 운영 및 에너지 효율 최적화 모델을 검증하고 있다. 해당 협력은 국내 AI 인프라를 글로벌 시장에서 활용 가능한 형태로 연결하는 실증 사례로, 국가 차원의 AI 인프라 자원 활용 효율을 높이는 데 기여할 모델로 평가된다. 안재만 베슬AI 대표는 "지난해는 AI 인프라를 실제로 운영하는 현장에서 우리의 역할과 사업성이 수치로 확인된 한 해였다"며 "올해는 베슬 클라우드를 기반으로 한 네오클라우드 사업을 더 고도화해 국내 AI 인프라의 활용 가치를 글로벌 시장으로 확장해 나가겠다"고 밝혔다.

2026.02.13 11:07한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 국내 위성, 교신은 끝내 안돼…"추락 가능성"

"잠이 안 온다"…주주들 고성 이어진 한화솔루션 유증 설명회

[영상] "2~3년 내 AI 빅뱅 온다"…지금 우리가 대비해야 할 것은

"충전 없이 50년"…꿈의 배터리 개발, 어디까지 왔나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.