• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 센터'통합검색 결과 입니다. (542건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오케스트로, '탈VM웨어' 성과 7배↑…가상화 매출 100억원 돌파

오케스트로가 국내 가상화 시장에서 VM웨어 윈백 주도권 선점에 박차를 가한다. 오케스트로는 지난해 수행한 VM웨어 윈백 사례가 전년 대비 약 7배 증가했다고 16일 밝혔다. 브로드컴이 VM웨어 인수 이후 외산 가상화 솔루션들의 라이선스 정책 변경과 가격 인상이 이어지면서 최근 공공기관과 기업을 중심으로 '탈VM웨어' 전환 수요가 본격화되고 있다. 이 가운데 오케스트로는 서버 가상화 솔루션 '콘트라베이스'를 앞세워 국내 가상화 시장에서 윈백 사례를 빠르게 확대 중이다. 이같은 시장 흐름은 매출 성과로도 이어졌다. 지난해 콘트라베이스 매출 중 윈백 매출이 최초로 100억원을 돌파했다. 이는 VM웨어로 고착돼 있던 시장 판도 변화를 상징하는 성과라는 게 회사 측 설명이다. 특히 탈VM웨어 수요가 본격화된 2023년 이후 2년 만에 윈백 레퍼런스는 약 20배, 수주 금액은 약 24배 증가하는 등 성장세를 보이며 콘트라베이스를 중심으로 한 VM웨어 윈백 시장 주도권 선점에 속도를 내고 있다. 성과 요인으로는 오케스트로의 마이그레이션 전문 솔루션 '콘트라베이스 레가토 마이그레이터'가 꼽힌다.레가토는 지속 데이터 보호(CDP) 기반 연속 복제를 통해 초단위 컷 오버 기능을 구현하며 VM웨어 환경에서도 서비스 중단 없이 대규모 워크로드를 안정적으로 이전할 수 있도록 지원한다. 오케스트로는 실제 고객 환경에서 기술 검증과 전환 시뮬레이션을 수행하며 복잡한 시스템과 까다로운 마이그레이션 조건으로 전환을 주저하던 고객에게 전환 안정성과 기술력을 입증해 왔다. 그 결과 검토 단계에 머물던 논의들이 실제 도입으로 이어지고 있다. 이러한 흐름은 공공과 민간 전반의 실제 전환 사례를 통해 확인되고 있다. 오케스트로는 미션 크리티컬한 행정서비스를 제공하는 공공뿐만 아니라, 제조·통신·전자·금융 등 국내 주요 대기업 VM웨어 환경을 콘트라베이스로 전환해왔다. 최근에는 VM웨어 의존도가 높은 일본 시장에서도 단기간에 고객사를 확보하며 글로벌 시장 성과를 내고 있다. 오케스트로는 2018년 창립 이후 외산 가상화 솔루션이 주도하던 국내 시장에서 독자 기술력을 바탕으로 입지를 넓혀왔다. 특히 대규모 데이터센터 환경에서 미션 크리티컬 시스템을 안정적으로 전환·운영할 수 있는 역량을 갖췄다. 아울러 인공지능(AI) 인프라 분야에서도 사업 영역을 확장하고 있다. 지난해 콘트라베이스가 포함된 소버린 AI 클라우드 솔루션 패키지를 일본 AI 데이터센터에 수출하며 그래픽처리장치(GPU) 가상화 기반 대규모언어모델(LLM) 환경을 구현했다. 이를 바탕으로 하드웨어가 결합된 소버린 AI 클라우드 데이터센터 사업도 단계적으로 확대해 나갈 계획이다. 김범재 오케스트로 대표는 "VM웨어 환경에서의 전환은 단순한 시스템 교체가 아니라, 핵심 시스템의 안정성과 서비스 연속성을 동시에 충족해야 하는 고난도 과제"라며 "국내 가상화 시장을 선도하는 기업으로서 그동안 축적한 윈백 경험을 바탕으로 올해도 윈백 사업 중심 시장 확대에 속도를 낼 것"이라고 말했다.

2026.01.16 14:17한정호

TSMC, 올해 설비투자 전년比 25% 이상 확대...AI 붐 장기화 기대감↑

세계 최대 파운드리(반도체 위탁생산) 업체인 대만 TSMC(대만반도체제조)가 AI 반도체 수요 장기화에 대한 강한 자신감을 드러내며 올해 대규모 설비투자 계획과 고성장 전망을 제시했다. TSMC는 현지시간 15일 지난해 4분기 및 연간 실적 발표에서 올해 자본적지출(CAPEX) 규모를 520억~560억달러(약 76조5천388억원~82조3천536억원)로 제시했다. 이는 지난해 대비 최소 25% 이상 늘어난 수준이다. 시장에서는 당초 TSMC가 480억~500억달러 수준의 투자를 집행할 것으로 예상했다. 이번 가이던스가 공격적인 투자 계획으로 평가되는 이유다. 이 같은 투자 확대는 글로벌 빅테크 기업들의 데이터센터 투자 지속성에 대한 우려를 일부 완화하는 신호로도 해석된다. AI 반도체 수요의 바로미터로 꼽히는 TSMC가 설비투자와 함께 매출 성장 전망까지 동시에 상향 제시했기 때문이다. TSMC는 올해 매출이 약 30% 가까이 성장할 것으로 내다봤다. 이는 애널리스트들의 평균 예상치를 웃도는 수준으로, AI 가속기와 고성능컴퓨팅(HPC)용 칩 수요가 예상보다 빠르게 확대되고 있다는 판단이 반영됐다. C.C. 웨이 TSMC 최고경영자(CEO)는 실적 발표 자리에서 “인공지능은 현실이며, 이제 막 시작되고 있다”며 “우리는 이를 하나의 'AI 메가 트렌드'로 보고 있다”고 강조했다. 실적 역시 이러한 자신감을 뒷받침했다. TSMC는 지난해 4분기 순이익으로 5057억대만달러(약 160억달러)를 기록해 시장 예상치를 웃돌았다. 앞서 발표한 매출을 포함해 TSMC는 2025년 연간 매출 1천억달러(약 147조원)를 처음으로 돌파했다. AI 인프라 투자 확대는 TSMC의 고성장을 이끌고 있다. 글로벌 빅테크를 중심으로 1조달러를 웃도는 AI 데이터센터 투자 계획이 추진되면서, 첨단 공정과 대량 생산 능력을 동시에 갖춘 TSMC의 역할은 더욱 커지고 있다. 회사는 최근 2년간 연평균 30% 이상의 매출 성장률을 기록했다. 이번 설비투자는 AI 반도체 생산에 필요한 첨단 공정 확대와 차세대 미세공정 개발, 글로벌 생산기지 구축에 집중될 전망이다. 특히 AI 데이터센터용 칩 수요 증가에 대응하기 위한 생산능력 확충이 핵심이다. 한편 TSMC는 글로벌 생산망 확대에도 속도를 낸다. 미국에 최대 1650억달러를 투자하는 계획을 포함해 일본과 독일에서도 생산 거점을 구축하고 있다. 회사는 이와 동시에 대만에서는 초미세 공정 기술 개발에 역량을 집중해 기술 경쟁력을 유지한다는 전략이다.

2026.01.15 16:43전화평

퓨리오사AI, 망고부스트와 맞손...AI 데이터센터 공략 가속화

AI 반도체 기업 퓨리오사AI와 망고부스트가 차세대 AI 데이터센터 시장 공략을 위해 손을 잡았다. 퓨리오사AI는 망고부스트와 차세대 AI 인프라 기술 공동 개발을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 양사는 이번 협약을 통해 인공지능 및 데이터센터 인프라 분야에서 상호 협력 체계를 구축하고, 기술 교류를 통해 데이터센터 시장에서의 경쟁력을 강화한다는 방침이다. 전 세계 기업들이 본격적으로 인공지능 인프라 구축을 통한 인공지능 전환(AX)에 나서고 있는 가운데 GPU의 높은 전력소비는 인공지능의 빠른 확산에 병목으로 작용하고 있다. 이에 실제 인공지능 서비스 환경이 요구하는 성능을 높은 효율로 구현할 수 있는 반도체 솔루션에 대한 시장 수요가 나날이 폭증하고 있다. 고효율 반도체는 인프라 전성비를 개선시킬 뿐 아니라 냉각 설비, 부지 선정 등 제약요건을 완화시키는 만큼 인프라 구축 시점을 단축시키고 인공지능 전환을 가속화한다. 퓨리오사AI는 AI 연산에 특화된 독자적인 칩 아키텍처 텐서 축약 프로세서(TCP)와 소프트웨어 스택 기술을 보유중이며, HBM을 탑재한 2세대 칩 RNGD(레니게이드) 양산을 이달 말 앞두고 있다. 망고부스트는 고성능 네트워킹에 특화된 DPU(데이터처리장치)및 AI 시스템 성능 최적화 기술을 보유 중이며, 이달 초 400GbE 급 성능을 가진 BoostX DPU 제품군의 양산을 시작했다. 세계적으로 기술력을 인정받은 딥테크 기업간의 협력이라는 점에서 세계적으로 대두되고 있는 인공지능 병목을 해소할 수 있을지 결과가 주목된다. 백준호 퓨리오사AI 대표는 “차세대 AI 데이터센터의 경쟁력은 고성능 AI 반도체와 네트워킹 칩을 얼마나 긴밀하고 효율적으로 결합하느냐에 달려 있다"며 "퓨리오사AI는 망고부스트와의 협력을 통해 대한민국 AI 인프라 기술의 새로운 가능성을 보여주겠다”라고 말했다. 김장우 망고부스트 대표는 “이번 협약은 대한민국을 대표하는 AI 반도체 스타트업 간의 전략적 결합이라는 점에서 의미가 크다”며 “양사의 혁신 기술을 결합해 효율적이고 지속가능한 차세대 데이터센터의 표준을 제시하겠다”고 밝혔다.

2026.01.15 10:19전화평

MS "AI 데이터센터 전기료, 소비자에 전가 안 한다"…지역사회 우선 내세워

인공지능(AI) 데이터센터 확산으로 '전기 먹는 하마' 논란이 거세지는 가운데, 마이크로소프트(MS)가 전력 비용을 소비자에게 전가하지 않겠다는 지역사회 우선 운영 원칙을 내걸며 여론 달래기에 나섰다. 데이터센터 전력 수요가 가정용 전기요금 인상으로 이어질 수 있다는 우려가 커지자, 빅테크가 비용을 직접 부담해야 한다는 압박이 본격화되는 분위기다. 14일 월스트리트저널(WSJ)에 따르면 MS는 미국 내 자사 AI 데이터센터가 사용하는 전력 비용이 일반 소비자 요금으로 넘어가지 않도록 전력회사와 공공위원회에 충분히 높은 요금 책정을 요구하겠다고 밝혔다. MS는 데이터센터 전력 비용이 지역 전기요금 인상으로 이어진다는 반발을 의식해 기업용 요금 체계 개편을 통해 주민 부담을 원천 차단하겠다는 입장이다. 브래드 스미스 MS 사장은 미국 위스콘신주가 초대형 전력 소비 기업에 높은 비용을 청구하는 새로운 요금체계를 마련한 점을 벤치마킹 모델로 제시하며 다른 주에서도 유사 정책이 도입될 수 있도록 추진하겠다고 설명했다. 전력 이슈뿐 아니라 환경 부담 완화도 함께 꺼냈다. 데이터센터 냉각 과정에서 쓰이는 물 사용량을 최소화하고 취수량보다 더 많은 물을 지역사회에 보충하겠다는 약속이다. 이와 함께 지역 일자리 창출, 지방세 인하 요구 중단, AI 교육 및 비영리단체 지원 강화 등도 공약으로 내걸었다. 이번 조치는 데이터센터 확산이 미국 내 정치·사회적 쟁점으로 부상한 흐름과 맞물려 있다. 지난 1년간 미국 내에서는 데이터센터에 대한 지역 반발이 거세진 상황이다. 데이터센터는 생성형 AI 모델을 학습·운영하는 핵심 인프라지만, 막대한 전력 소비로 전력망 부담과 요금 상승 우려를 키우는 시설로 평가된다. 이 때문에 미국 곳곳에서 데이터센터 건립 반대 움직임이 확산되고 있으며 일부 프로젝트는 지역 반발로 지연되거나 중단되는 사례도 이어지고 있다. 도널드 트럼프 미국 대통령도 빅테크의 비용 부담 필요성을 전면에 내세우고 있다. 트럼프 대통령은 SNS를 통해 MS의 전기료 부담 방침을 "미국인이 전력 소비 부담을 떠안지 않도록 하는 조치"라고 평가하며 다른 기업을 향해서도 유사한 대응을 예고했다. 업계 전반으로도 전력 비용과 지역사회 부담을 완화하려는 흐름이 확산하는 모습이다. 앞서 메타는 원전기업들과 대규모 전력 공급 계약을 발표하며 데이터센터 에너지 비용을 전액 부담해 소비자 부담을 줄이겠다는 취지의 입장을 밝힌 바 있다. 브래드 스미스 MS 사장은 "데이터센터가 소모하는 전력 비용을 충당할 수 있을 정도로 높은 요금을 전력 업체와 이를 승인하는 공공위원회가 책정할 수 있도록 요청하겠다"고 강조했다.

2026.01.14 15:37한정호

SK하이닉스, AI 추론 병목 줄이는 '커스텀 HBM' 정조준

SK하이닉스가 향후 다가올 커스텀 HBM(고대역폭메모리) 시대를 위한 무기로 '스트림DQ(StreamDQ)'를 꺼내 들었다. 기존 GPU가 담당해 추론 과정에서 병목 현상을 일으키던 작업을, HBM이 자체적으로 수행해 데이터 처리 성능을 끌어올리는 것이 골자다. GPU 업체 입장에서도 HBM으로 일부 기능을 이전할 수 있기 때문에 칩 설계를 보다 유연하게 할 수 있다는 이점이 있다. SK하이닉스는 해당 기술을 통해 엔비디아 등 주요 고객사와 협의를 진행할 것으로 관측된다. SK하이닉스는 지난 6일(현지시간) 미국 라스베이거스 베니션 호텔에서 'CES 2026' 프라이빗 전시관을 마련하고 커스텀 HBM 기술을 공개했다. 커스텀 HBM 시장 정조준…고객사에 '스트림DQ' 기술 제안 커스텀 HBM은 차세대 버전인 HBM4E(7세대 HBM)부터 본격적으로 적용될 것으로 전망되는 제품이다. 기존 HBM이 표준에 따라 제작됐다면, 커스텀 HBM은 고객사가 원하는 기능을 베이스 다이에 추가하는 것이 가장 큰 차별점이다. 베이스 다이는 HBM을 적층한 코어 다이의 메모리 컨트롤러 기능을 담당하는 칩으로, HBM과 GPU 등의 시스템반도체를 PHY(물리계층)로 연결한다. 기존에는 메모리 회사가 이를 제조했으나, 다양한 로직 기능이 추가되면서 HBM4부터는 주로 파운드리 공정을 통해 양산된다. SK하이닉스는 커스텀 HBM 상용화를 위해 고객사에 스트림DQ라는 기술을 제안하고 있다. 얼마전 막을 내린 CES 2026 전시관이 고객사 대상으로 운영된 만큼, 엔비디아 등 글로벌 빅테크에 적극적인 프로모션을 진행했을 것으로 예상된다. SK하이닉스 관계자는 "스트림DQ는 커스텀 HBM의 한 사례로서, SK하이닉스는 해당 기술을 논문으로도 냈다"며 "고객사가 커스텀 HBM 관련 기술을 우리에게 제안하기도 하지만, 반대로 SK하이닉스가 제시하기도 한다"고 설명했다. GPU 일부 기능 HBM으로 이전…빅테크 부담 덜어준다 스트림DQ 기술은 기존 GPU 내부의 컨트롤러 기능 일부를 HBM의 베이스 다이로 이전하는 것이 주 골자다. 이렇게 되면 GPU 제조사는 칩 내부 공간을 더 넓게 쓸 수 있어, 시스템반도체의 성능 및 효율성 향상을 도모할 수 있다. SK하이닉스 입장에서는 베이스 다이에 GPU 컨트롤러 등을 추가하더라도 큰 부담이 없다. 대만 주요 파운드리인 TSMC의 선단 공정을 적용하기 때문이다. 또한 SK하이닉스는 해당 베이스 다이에 UCIe 인터페이스를 적용해 칩의 집적도를 더 높였다. UCIe는 칩을 기능별 단위로 분할해 제조한 후, 서로 연결하는 최첨단 기술이다. HBM이 '역양자화' 대신 처리…LLM 처리 속도 7배 향상 가능 AI 가속기의 데이터 처리 성능 역시 획기적으로 높아진다. 대규모언어모델(LLM)은 메모리 사용량을 효율적으로 감축하기 위해 낮은 비트 정수로 데이터를 압축하는 '양자화(Quantization)' 과정을 거친다. 이후 실제 연산 과정에서는 데이터를 다시 압축 해제하는 '역양자화(Dequantization)'를 진행한다. 기존 역양자화 작업은 GPU가 담당했다. 그런데 GPU가 역양자화를 진행하면 전체 LLM 추론 시간의 최대 80%를 잡아먹는 메모리 병목 현상을 일으키는 문제가 발생해 왔다. 반면 스트림DQ는 양자화된 정보를 그대로 GPU에 보내는 것이 아니라, HBM 내부에서 데이터가 흘러가는 과정에서 역양자화를 곧바로(on-the-fly) 진행한다. 덕분에 GPU는 별도의 작업 없이 곧바로 연산 작업을 진행할 수 있게 된다. 이처럼 흘러가는(스트림) 데이터를 곧바로 역양자화(DQ)한다는 관점에서 스트림DQ라는 이름이 붙었다. 이를 통해 병목 현상이 발생했던 LLM 추론 처리 속도가 약 7배 이상으로 개선될 수 있다는 게 SK하이닉스의 설명이다. 전체 AI 가속기의 추론 속도 역시 크게 향상될 것으로 기대된다. SK하이닉스 관계자는 "방대한 양의 데이터를 처리하는 시스템반도체를 메모리 근처에 가져다 놓고 데이터 결과값만 받게 하면 시스템적으로 굉장히 효율적"이라며 "프로세싱 니어 메모리(PNM)의 개념으로 볼 수 있다"고 말했다.

2026.01.14 13:48장경윤

HPE "AI 네이티브 전환 확산…인프라 경쟁력 기준 달라진다"

인공지능(AI)이 데이터센터와 네트워킹 인프라의 설계·운영 방식 전반을 재편하면서 향후 인프라 경쟁력 기준 역시 근본적으로 달라질 것이란 전망이 나왔다. AI를 중심으로 한 자동화·자율화 흐름이 본격화되며 데이터센터는 물론 네트워크 운영과 인력 역할까지 구조적 전환이 불가피하다는 분석이다. 13일 HPE가 발표한 올해 데이터센터 및 네트워킹 인프라 분야 주요 전망에 따르면 데이터센터와 네트워킹 인프라는 올해를 기점으로 AI 네이티브 구조로 빠르게 전환될 것으로 전망된다. 워크로드 배치, 장애 예측, 성능 최적화는 물론 에너지 효율 관리와 전력 비용 협상까지 AI가 지원하는 폐쇄형 루프 운영 모델이 확산되며 수동 개입 중심 기존 운영 방식은 점차 한계를 드러낼 것으로 예상된다. 특히 데이터센터 영역에서는 엣지와 AI 결합이 가속화되면서 마이크로 하이퍼스케일러가 새로운 인프라 모델로 부상할 것으로 전망했다. 고속 이더넷과 AI 추론 가속기, 자율 운영 기술을 기반으로 한 소규모 데이터센터가 지역 단위에서 중앙 클라우드 워크로드를 분산 처리하며 엣지는 단순한 보조 인프라를 넘어 전략적 수익 창출 거점으로 역할이 확대될 것으로 분석했다. 네트워크 구조 역시 AI 학습과 추론에 최적화된 방향으로 재편될 것으로 보인다. HPE는 올해 이후 데이터센터 설계 출발점이 컴퓨트가 아닌 네트워크 패브릭이 될 것으로 내다봤다. 조 단위 파라미터 모델 확산과 함께 개방형 고성능 이더넷 기반 AI 패브릭 수요가 증가하면서 네트워크는 애플리케이션을 인지하고 실시간으로 적응하는 지능형 구조로 진화할 것이란 전망이다. 이더넷 자율화도 주요 변화로 꼽혔다. AI 텔레메트리를 내장한 스위치 ASIC을 통해 혼잡 제어와 전력 효율 최적화가 자동으로 이뤄지고 의도 기반 네트워킹은 패브릭 스스로 학습·예측·교정하는 형태로 구현될 것이란 설명이다. 이에 따라 복잡한 CLI 중심의 네트워크 운영 방식은 점차 사라질 것으로 예상했다. 보안 역시 네트워크 패브릭의 기본 요소로 내재화될 것으로 전망했다. 모든 패킷과 포트, 프로세스에 신뢰 점수를 부여하고 분산형 AI 엔진이 이를 실시간 검증하는 구조가 확산되면서 제로 트러스트 데이터센터가 기본 설계 기준으로 자리 잡을 것이란 분석이다. 무선 네트워크 분야에서는 AI 운영관리(Ops)가 핵심 운영 요소로 부상할 것으로 보인다. HPE는 복잡해진 무선 환경에서 AI 기반 운영 없이는 안정적인 네트워크 품질 유지가 어려워질 것으로 내다봤다. AI가 혼잡을 예측하고 RF 동작과 채널 구성을 자동 최적화하면서 기존 수동 튜닝 중심 운영 방식은 점차 사라질 것이란 설명이다. HPE는 에이전틱 AI를 기반으로 한 LAN의 역할 변화도 주목했다. LAN은 단순히 장애를 복구하는 수준을 넘어 사용자 경험을 사전에 예측하고 선제적으로 최적화하는 경험 엔진으로 진화한다는 전망이다. 스위치와 액세스 포인트에 내장된 AI 에이전트가 사용자 행동과 서비스 수요를 분석해 성능 저하를 체감하기 전에 문제를 해결하는 구조가 확산될 것으로 분석했다. 이와 함께 유선·무선·WAN을 넘어 컴퓨트와 스토리지를 아우르는 풀스택 통합 운영이 기본값으로 자리 잡을 것이라고 밝혔다. 기업들은 단일 운영 프레임워크와 공통 AI 거버넌스 하에서 전체 인프라를 관리할 수 있는 환경을 요구하게 되며 경쟁력 기준도 개별 제품 성능이 아닌 통합된 시스템 완성도로 이동할 것이란 전망이다. 인력 측면에서도 변화가 예상된다. HPE는 네트워크 엔지니어 역할이 단순 설정·운영 중심에서 AI 코파일럿과 협업하는 전략적 역할로 진화할 것으로 내다봤다. 생성형 AI가 1차 운영과 장애 대응을 담당하면서 엔지니어는 대규모 자동화를 설계·검증하고 AI를 오케스트레이션하는 역할에 집중하게 될 것이란 설명이다. HPE는 "올해 데이터센터와 네트워킹 인프라는 개별 기술의 집합이 아닌, AI를 중심으로 단일 유기체처럼 동작하는 구조로 진화할 것"이라며 "성공적인 기업은 풀스택 인프라를 단일한 경험으로 제공할 수 있는 전략을 선택하게 될 것"이라고 강조했다.

2026.01.13 15:14한정호

"AI 확산에 데이터센터 투자, 2030년까지 3조 달러 몰린다"

인공지능(AI)과 클라우드 확산으로 글로벌 데이터센터 산업에 향후 수년간 천문학적인 자금이 투입될 전망이다. 서버와 전산 장비는 물론 데이터센터 시설, 전력 인프라까지 대규모 투자가 불가피하다는 분석이 나왔다. 13일 신용평가기관 무디스에 따르면 전 세계 데이터센터 관련 투자 규모는 2030년까지 최소 3조 달러(약 4천411조원)에 이를 것으로 예상된다. 무디스는 최근 보고서를 통해 AI와 클라우드 컴퓨팅 수요 확대를 뒷받침하기 위해 서버, 컴퓨팅 장비, 데이터센터 시설, 신규 전력 설비 전반에 걸쳐 막대한 자본 투입이 필요하다고 밝혔다. 투자 자금 상당 부분은 빅테크 기업들이 직접 부담할 것으로 전망된다. 무디스는 마이크로소프트(MS)·아마존·알파벳·오라클·메타·코어위브 등 미국 내 6개 하이퍼스케일러가 올해 데이터센터 투자에만 약 5천억 달러(약 735조원)를 집행할 것으로 내다봤다. 데이터센터 용량 확장이 지속되는 가운데 이를 운영하기 위한 전력 수요 역시 빠르게 증가하고 있다는 설명이다. 자금 조달 측면에서는 은행권의 역할이 여전히 핵심을 차지하는 한편, 대규모 자본 수요에 대응해 기관투자가들의 참여도 확대될 것으로 분석됐다. 향후 은행과 함께 다른 기관투자가들이 공동으로 금융을 제공하는 사례가 늘어날 것이라는 전망이다. 또 무디스는 미국 내 데이터센터들이 차환 시점에 자산유동화증권(ABS), 상업용 부동산담보부증권(CMBS), 프라이빗 크레딧 시장을 보다 적극적으로 활용할 가능성이 높다고 봤다. 올해 기록적인 자금 발행 이후 신규 금융 규모와 집중도가 더 커질 것으로 예상됐다. 실제 미국 ABS 시장에서는 지난해 약 150억 달러(약 22조원)가 발행된 만큼, 데이터센터 건설 대출을 중심으로 올해 발행 규모가 크게 증가할 것으로 전망했다. AI 확산을 뒷받침하기 위해 필요한 막대한 부채 규모를 두고 일각에서는 거품 우려도 제기되고 있다. 일부 기술이 기대에 못 미칠 경우 주식 및 신용 투자자들에게 부정적인 영향을 미칠 수 있다는 지적이다. 다만 무디스는 신규 데이터센터 건설 수요가 둔화될 조짐은 보이지 않는다고 평가했다. 무디스는 데이터센터 증설 경쟁이 아직 초기 단계에 있으며 향후 12~18개월 동안 글로벌 시장에서 성장세가 이어질 것으로 내다봤다. 장기적으로는 향후 10년 내 필요한 용량을 확보하기 위한 투자가 지속될 것이라는 분석이다. 무디스 존 메디나 수석 부사장은 "불과 3년 전만 해도 존재하지 않았던 챗GPT와 같은 서비스가 이제는 막대한 연산 자원을 사용하고 있다"며 "신기술 등장 속도가 빨라 향후 채택 속도를 정확히 예측하기는 어렵지만, 데이터센터 용량 증설은 결국 필요해질 것"이라고 말했다.

2026.01.13 11:20한정호

암참, 블룸에너지와 SOFC 전력 기술 보급 확대 협력

인공지능(AI) 데이터센터 확산으로 고품질·안정적 전력 수요가 커지는 가운데, 주한미국상공회의소(암참)과 블룸에너지가 분산형 전력 해법 도입을 위한 협력에 나섰다. 암참은 12일 미국 글로벌 청정에너지 기술 기업 블룸에너지와 '지속가능한 산업 인프라 조성 및 스마트 전력 솔루션 확대'를 위한 양해각서(MOU)를 체결했다고 13일 밝혔다. 여의도 IFC 더포럼에서 열린 본 협약식에는 양측 주요 관계자들을 비롯해 주한미국대사관 애런 뱅크스 한국 투자 및 방문 (KIT) 전담 데스크 조정관이 참석해, 이번 파트너십이 한·미 에너지 협력관계에서 갖는 전략적 중요성을 강조했다. 이번 MOU는 대한민국 차세대 AI 데이터센터에 최적화된 고품질·지속가능 전력 솔루션의 도입을 촉진하는 데 목적이 있다. 암참과 블룸에너지는 고체산화물 연료전지(SOFC) 기반 분산형 전력 시스템을 국내 보급에 협력해 나갈 예정이다. 암참은 이 기술이 높은 효율과 신뢰성, 저탄소 특성을 바탕으로 한국의 탄소중립 달성, 에너지 안보 강화, 지속가능한 산업 생태계 구축에 실질적인 기여를 할 것이라고 기대했다. 제임스 김 암참 회장 겸 대표는 “블룸에너지가 암참의 '바이 아메리카' 캠페인 공식 파트너로 함께 하게 된 것을 매우 뜻깊게 생각한다”며 “산업 현장에 최적화된 블룸에너지의 청정에너지 솔루션은 한국의 지속가능한 성장뿐 아니라, 한국이 세계 3대 AI 강국으로 도약하는 데 핵심인 에너지 안보 확보에도 중요한 역할을 할 것”이라고 말했다. 이어 “암참은 한미 양국 간 가교 역할을 통해 혁신과 회복력, 지속가능한 번영이 조화를 이루는 비즈니스 환경 조성에 앞장서고 있다”며, “이번 협약은 한·미 전략적 협력관계를 한층 강화하고, 보다 지속가능한 미래로 나아가는 데 있어 중요한 이정표가 될 것”이라고 덧붙였다. 최준 블룸에너지코리아 대표는 “이번 암참과의 협약은 AI데이터센터 등 차세대 산업 인프라에 필요한 고품질∙안정적 전력을 보다 효과적으로 공급하기 위한 중요한 출발점이자, 한∙미 양국 간 에너지 협력이 강화되고 있음을 보여주는 의미 있는 사례”라고 말했다. 이어 “AI 경쟁력의 핵심은 GPU 이후의 전력 인프라이며, 안정적인 전력 없이는 AI산업의 성장도 불가능하다”며 “글로벌 데이터센터에서 이미 검증된 블룸에너지의 SOFC 기술은 한국이 AI 강국으로 도약하는 과정에서 전환점이 되는 전력 해법이 될 수 있을 것”이라고 말했다. 블룸에너지는 미국 캘리포니아 산호세에 본사를 둔 글로벌 청정에너지 기술기업으로, 독자적인 고체산화물 연료전지(SOFC) 기술을 기반으로 한 고효율·저탄소 분산형 전력 시스템을 제공하고 있다. 이를 통해 산업 및 상업용 고객이 탈탄소화 목표를 달성하는 동시에 에너지 안정성과 고효율의 운영까지 확보할 수 있도록 지원한다. 이번 협약은 암참이 추진 중인 '바이 아메리카' 캠페인 여섯 번째 전략적 파트너십이다. 암참은 올해도 캠페인을 지속적으로 확대해 나가며, 기술, 무역, 지속가능성 분야에서 한미 양국의 핵심 이해관계자들과 협력을 강화하고 양국 경제의 공동 번영에 기여하는 플랫폼으로서의 역할을 이어갈 예정이다.

2026.01.13 09:20류은주

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호

AI데이터센터 전력 발목..."비수도권 유인책·PPA제도 완화 필요"

'AI G3' 도약을 위해 AI 데이터센터(DC) 확충이 필수적이나 수도권의 전력 공급이 뒤따르지 못하는 가운데 안정적인 DC 전력 공급을 위해 비수도권 증축, 직접구매계약(PPA) 활성화, 인허가 등 규제 완화가 해법으로 제시됐다. 박종배 건국대 전기전자공학부 교수는 9일 국회서 열린 DC 전력공급 토론회서 발제를 맡아 "AI DC는 AI 전환(AX)의 중요한 지표"라며 "우리나라의 2018~23년 AI DC 신규 건설 규모는 2천827개로 일본(4천283개), 말레이시아(3천221개) 등 아태지역 국가 중에서도 낮은 편"이라고 말했다. 이어, "AI DC 전력 수요가 늘어나는 상황에서 수도권 중심의 AI DC는 한계를 보이고 있다. 전력계통영향평가 제도 도입 이후 수도권은 송전망 부족으로 2030년까지 단기적으로 신규 허가를 받기 어려운 상황"이라며 "호남권, 영남권 등 지방으로의 DC 분산이 필요하다"고 밝혔다. 박 교수는 특히 "호남권과 제주권은 재생에너지 공급 과잉이 나타나고 있어 재생에너지 기반 AI DC에 적합하다"며 "영남권은 원자력과 LNG를 통해 대규모로 안정적인 전력 공급이 가능한 만큼 고신뢰 전력이 필요한 AI DC를 유치할 수 있다"고 강조했다. 그러면서 "영호남권 등 발전 과잉 지역을 중심으로 직접구매계약(PPA)을 허용하고 송전망 이용료를 감면하는 등 특단의 유인책이 필요하다"고 덧붙였다. 법무법인 광장의 조대근 전문위원 역시 이어진 발제에서 글로벌 사례를 들어 PPA 제도 개선을 제시했다. 그는 "전력 확보를 위해 대상, 규모 등에 제한을 두지 않고 PPA(직접 계약)를 진행하는 아마존, 마이크로소프트 등 기업처럼 한국도 범정부 차원의 PPA 용량 제한 완화와 제도 개선이 필요하다"고 주장했다. 이어, "아마존은 세계 최대 PPA 구매자로, 전력망을 거치지 않고 원전과 직접 연결하는 데이터센터 운영 모델을 구축했다"며 "마이크로소프트는 경제성 문제로 폐쇄된 원전을 재가동하기 위해 20년 장기 PPA를 체결했고, 구글은 전력망 전체를 24시간 무탄소 에너지(CFE)로 운영하는 시스템 구축에 집중하고 있다"고 설명했다. 조 전문위원은 또 "글로벌 빅테크는 PPA 거래 대상, 규모, 기간에 사실상 제한이 없다. 발전원과 직접 계약하고, 현지에서 전력을 소비할 수 있도록 제도가 열려 있다"며 "반면 우리나라는 발전원과 무관한 직접 계약이 제한적이고, 전용 선로 구축 역시 엄격하게 통제되고 있다"고 지적했다. 직접 AI DC를 구축하는 민간에서도 이같은 주문이 쏟아졌다. 조정민 SK브로드밴드 DC사업담당 부사장은 "젠슨황 엔비디아 CEO가 우리나라에 GPU 26만 장을 공급하면 약 800MW 규모 전력이 필요한데 현재는 그걸 운용할 DC가 없는 상황"이라며 "전력 수급을 위해 (정부가) 비수도권에 파격적인 전력 공급안을 제시하는 등 방안을 펼쳐야 한다"고 제안했다. 송준화 한국데이터센터에너지효율협회(KDCEA) 사무국장은 "차세대 GPU는 지금보다 4~5배 많은 전력량을 필요로 한다"며 "PPA 활성화와 사업자 DC구축 시간을 단축하는 방향으로 정책이 수립돼야 한다"고 했다. 정부는 AI DC 확장을 전방위로 지원하고, 안정적인 전력 수급 계획을 마련한다는 방침이다. 양기성 과학기술정보통신부 인공지능기반정책과장은 "과기정통부는 '인허가 타임아웃제(규제 신속 처리)' 등 AI DC 건설 기간 단축안이 담긴 'AIDC 특별법'의 조속한 제정을 추진하는 중"이라며 "지방 DC 구축 인센티브제와 전력 수급에 대한 기본계획을 마련해 AI DC 확장을 지원할 것"이라고 밝혔다다. 토론회를 주최한 이해민 조국혁신당 의원은 "AI DC 확대는 AI G3 도약을 위해 꼭 필요하지만 송전망과 전력계획도 급증하는 AI 수요를 따라가지 못하고 있다"며 "현장에선 PPA 계약 확보와 인허가 등 규제 완화에 대한 목소리가 절박하다"고 했다. 이 의원은 PPA 확대와 평가 면제 등 규제 완화를 골자로 한 '인공지능 데이터센터 진흥에 관한 특별법안'을 지난 8일 대표 발의했다.

2026.01.09 15:56홍지후

엔비디아·오픈AI 파트너 英 엔스케일, 20억 달러 투자 추진…IPO 수순 밟나

엔비디아의 지원을 받는 영국 인공지능(AI) 데이터센터 기업 엔스케일이 대규모 신규 투자 유치에 나설 가능성이 제기됐다. AI 인프라 투자 열기가 이어지는 가운데 '네오클라우드'로 불리는 신흥 AI 하이퍼스케일러들의 몸값과 사업 지속성에 이목이 쏠리고 있다. 9일 블룸버그통신에 따르면 엔스케일은 약 20억 달러(약 2조9천억원) 규모 자금 조달을 목표로 투자자들과 논의를 진행 중이다. 이는 두 차례에 걸쳐 15억 달러(약 2조1천800억원) 이상을 조달한 지 불과 석 달여 만이다. 이번 잠재적 투자 유치를 위해 골드만삭스와 JP모건체이스와 협력 중인 것으로 알려졌다. 다만 논의는 초기 단계로, 최종적으로 거래가 성사되지 않을 가능성도 배제할 수 없다고 소식통들은 전했다. 엔스케일은 2024년 암호화폐 채굴 사업을 시작으로 현재는 고성능 AI 반도체를 클라우드형 서비스로 제공하는 네오클라우드 사업자 중 하나다. 엔스케일은 엔비디아, 오픈AI와의 파트너십을 기반으로 유럽 내 AI 인프라 수요를 흡수하며 빠르게 성장해왔다. 최근 포르투갈에서 마이크로소프트(MS) 및 현지 파트너와 함께 100억 달러(약 14조원)를 투입해 데이터센터를 구축 중이다. 노르웨이와 영국에서도 엔스케일 데이터센터 자원을 임대할 계획이다. 앞서 엔스케일은 지난해 9월과 10월 각각 11억 달러(약 1조6천억원), 4억3천300만 달러(약 6천299억원) 규모 투자를 유치했다. 특히 9월 라운드 투자는 유럽 역사상 최대 규모 시리즈B 투자로 기록됐으며 엔비디아를 비롯해 델·노키아·피델리티·블루아울·포인트72 등이 투자자로 참여했다. 경영진 보강도 눈에 띈다. 엔스케일은 최근 팔란티어 출신의 로런 허위츠를 최고운영책임자(COO)로 영입했고 지난달에는 JP모건에서 20년 이상 근무한 앨리스 타흐타잔을 최고재무책임자(CFO)로, 마이크로소프트 애저 AI·HPC 인프라 부문 임원을 지낸 니디 차펠을 AI 인프라 부문 사장으로 선임했다. 일부 투자자들은 이같은 인사 행보를 향후 기업공개(IPO)를 염두에 둔 포석으로 보고 있다. 최근 네오클라우드 기업들의 주가는 변동성이 확대되는 양상이다. 코어위브는 지난해 3월 상장 이후 주가가 고점 대비 조정받았지만, 현재도 공모가 대비 두 배 수준에서 거래 중이다. 네비우스 그룹은 대형 파트너십을 바탕으로 지난 1년간 주가가 세 배 이상 상승했다. 사안에 정통한 소식통은 "엔스케일은 엔비디아 및 오픈AI와의 협력을 무기로 유럽 내 AI 인프라 수요를 선점하고 있지만, 이번 투자 유치는 시장 상황과 기업가치를 둘러싼 투자자들의 판단에 따라 최종 결정이 내려질 것"이라고 밝혔다.

2026.01.09 11:23한정호

딥엑스, 현대차·바이두와 'CES 파운드리' 개최

글로벌 AI 반도체 기업인 딥엑스는 미국 CTA(전미소비자기술협회)가 공식 주관한 스튜디오 이벤트 'CES 파운드리(Foundry)'를 현지시간 8일 개최했다고 밝혔다. 딥엑스는 이 자리에서 글로벌 파트너사들과 함께 데이터센터 중심 AI의 한계를 넘어 피지컬 AI로의 대전환을 위한 구체적인 해법을 제시했다. 이번 행사는 '가속화되는 피지컬 AI'라는 주제로 실제 양산과 상용 서비스에 참여하고 있는 글로벌 기업들이 피지컬 AI가 직면한 현실적 과제와 해결책을 논의하는 자리로 마련됐다. 행사의 포문을 연 딥엑스 김녹원 대표는 피지컬 AI가 더 이상 미래의 '개념'이 아닌 눈앞의 '현실'이 되고 있음을 강조했다. 김 대표는 “AI의 무게중심이 데이터센터에서 물리적 세계로 이동하고 있다”며, 이 흐름을 가속화하기 위한 하드웨어와 소프트웨어 결합의 필요성을 역설했다. 이 행사에는 현대차 로보틱스랩의 현동진 상무, 바이두 글로벌 에코시스템 AI 매니저인 레인 휴, 엣지 AI 파운데이션의 피트 베르나드 CEO, 윈드리버 산딥 모드바디아 CPO, Ultralytics의 리드 파트너 엔지니어 프란시스코 마티오리가 패널로 참여했다. 각 패널들은 로보틱스, 스마트 팩토리, 엣지 IT 서비스 등 실제 산업 현장에서 ▲데이터센터 의존도 감소 ▲저전력·저발열의 중요성 ▲24시간 연속 운용 안정성 등이 필수적인 요구사항으로 떠오르고 있다고 입을 모았다. 행사 참여한 현대자동차 로보틱스랩 현동진 상무는 “로보틱스는 이제 사회와 산업을 움직이는 핵심 인프라”라며 “이를 가능하게 하는 기반이 바로 피지컬 AI이고 네트워크가 불안정한 현장에서도 스스로 판단하는 온디바이스 AI가 필수적"이라며 "딥엑스와의 협업을 통해 우리는 실제 운영 환경에서 검증된 로봇용 온디바이스 AI를 확보했고, 2026년부터 이를 차세대 로봇과 보안 솔루션에 본격 적용할 예정”이라고 말했다.

2026.01.09 10:32전화평

케이투스, 유럽서 AI 데이터센터 턴키 모델 검증…"韓에도 유효"

케이투스가 통합 턴키 서비스를 통해 대규모 수냉식 인공지능(AI) 데이터센터 구축 속도 단축에 박차를 가한다. 설계·설치·시운전·최적화·가동 전 과정을 하나로 묶은 원스톱 엔드투엔드 서비스를 제공해 복잡한 AI 인프라 구축 과정에서 발생할 수 있는 운영 부담을 줄인다는 목표다. 케이투스는 최근 유럽에서 100캐비닛 규모 고밀도 수냉식 AI 데이터센터를 약 4개월 만에 구축했다고 8일 밝혔다. 이번 프로젝트는 통상 10~12개월이 소요되는 수냉식 AI 데이터센터 구축 기간을 최대 80%가량 단축한 사례로, 고밀도 AI 인프라를 단기간에 구축해야 하는 고객 요구에 대응한 것이 특징이다. 구축 과정에서는 정밀한 성능 테스트와 시스템 튜닝을 병행해 전체 클러스터 성능을 약 20% 향상시켰다. 해당 데이터센터는 전자상거래·핀테크·디지털 미디어 분야를 대상으로 컴퓨팅·스토리지·네트워크 서비스를 제공하는 유럽의 인프라 유니콘 기업을 위해 구축됐다. AI 워크로드 증가에 따라 제한된 일정과 높은 기술 복잡성 속에서 안정적인 고성능 AI 클러스터를 신속히 구축해야 하는 과제를 해결하고자 케이투스와 협력했다. 케이투스는 캐비닛 단위로 사전 제작·검증을 완료하는 모듈형 딜리버리 방식을 적용했다. 수냉 서버와 냉각 분배 장치, 매니폴드, 커넥터 등을 공장에서 단일 시스템으로 통합한 뒤 출하 전 압력 테스트와 번인 테스트를 거쳐 현장 설치 시간을 대폭 줄였다. 현장에서는 데이터홀 주 냉각 루프에 연결한 뒤 최소한의 시운전만으로 즉시 가동이 가능하도록 했다. 또 구축 전 과정에서 전문 서비스팀이 참여해 현장 환경에 맞춘 맞춤형 설계와 시공을 진행했다. 고기밀 핫·콜드 아일 컨테인먼트 설계, 캐비닛 하중 균형을 고려한 구조 보강, 액체냉각 배관 안정성을 높이기 위한 정밀 시공을 통해 장기 운영 안정성과 냉각 효율을 동시에 확보했다. 시스템 설치 이후에는 운영체제·드라이버·소프트웨어 버전 일관성을 유지하는 병렬 배포 기술과 단계별 성능 검증을 통해 클러스터 전체의 안정성과 성능을 끌어올렸다. 그 결과 주요 AI 연산 및 통신 성능 벤치마크에서 약 20% 수준의 성능 개선 효과를 확인했다. 케이투스 코리아 손영락 부사장 겸 AI 최고전략책임자는 "이번 유럽 프로젝트를 통해 검증된 통합 턴키 서비스 모델을 국내에도 적용할 계획"이라며 "한국의 높은 전력비용과 여름철 고온 환경을 고려하면 우리 고효율 액체냉각 솔루션이 특히 유효할 것"이라고 밝혔다. 이어 "기존 공랭식 대비 냉각 효율을 대폭 개선해 전력 사용량을 최대 30% 절감할 수 있어 총소유비용(TCO) 최적화 측면에서 국내 기업들에게 경쟁력 있는 대안을 제공할 것"이라고 덧붙였다.

2026.01.08 17:28한정호

[AI는 지금] xAI, 29조 실탄 확보…"GPU 100만 개 수준 자원 확보"

일론 머스크가 이끄는 xAI가 챗봇 '그록AI'를 둘러싼 논란 속에서도 대규모 자금 조달에 성공했다. xAI 인프라와 차세대 모델 개발에 대한 시장 기대가 논란과 별개로 유지되는 분위기다. xAI는 8일 공식 홈페이지에서 시리즈 E 투자 라운드를 통해 총 200억 달러(약 29조120억원)를 조달했다고 밝혔다. 이는 당초 목표였던 150억 달러(약 21조7천500억원)를 넘어선 규모다. 이번 투자에는 엔비디아와 피델리티매니지먼트 앤드 리서치, 카타르국부펀드(QIA), 발로 에퀴티 파트너스 등이 참여했다. xAI는 투자 발표에서 그록의 이미지, 멀티모달 생성 역량을 주요 성과로 강조한 것으로 전해졌다. xAI는 조달한 자금을 컴퓨팅 인프라 확장에 최우선 투입할 계획이라고 밝혔다. 현재 미국 테네시주 멤피스에 구축 중인 '콜로서스' 데이터센터 중심으로 세계 최대 수준의 AI 슈퍼컴퓨터를 건설할 방침이다. xAI는 "연내 H100 기준 100만 개 이상 그래픽처리장치(GPU)에 해당하는 연산 자원을 확보할 것"이라며 "이는 대규모 모델 학습과 서비스 운영을 동시에 뒷받침하기 위한 전략"이라고 강조했다. 이어 "우리는 향후 대규모 연산 자원을 활용해 강화학습을 전례 없는 수준으로 확장할 것"이라고 덧붙였다. 올해 AI 모델 그록 시리즈도 업그레이드될 예정이다. 그록 지능을 비롯한 추론 능력, 에이전트 수행 역량 고도화에도 자금이 투입된다. 현재 차세대 모델 '그록 5'가 콜로서스 데이터센터에서 개발되고 있다. xAI는 AI 서비스 확장에도 투자를 이어갈 방침이다. 올해 음성 AI와 이미지, 영상 생성 등 멀티모달 기능을 갖춘 서비스를 순차 출시할 계획이다. 해당 서비스를 '엑스(X)' 플랫폼을 연계하는 전략도 추진할 방침이다. X에서 생성되는 실시간 데이터를 AI 서비스에 반영해 장기 연구와 인프라 운영 기반으로 삼겠다는 목표다. 이번 투자 유치는 그록이 성적 대상화된 여성·미성년 이미지를 동의 없이 생성했다는 비판을 받은 가운데 이뤄졌다. 프랑스와 영국 등 일부 국가는 해당 사안을 유럽연합(EU) 디지털서비스법 위반 여부로 검토하고 있다. 영국 가디언은 "xAI는 논란 속에서도 대규모 민간 투자를 확보했다"며 "기술력과 인프라 경쟁력이 투자 판단 핵심 요소로 작용한 것"이라고 분석했다.

2026.01.08 17:07김미정

[유미's 픽] 'K-AI 고속도로'는 아직 심사 중?…7월 착공 공표한 삼성SDS, 정부도 발 맞출까

국가인공지능(AI)컴퓨팅센터 추진 속도가 더딘 가운데 사업 주도권을 쥔 삼성SDS가 처음으로 착공 시점을 공개하며 속도전에 나섰다. 정부가 'AI 3대 강국'과 'K-AI 고속도로'를 외치고 있지만, 실제 움직임은 민간 시계가 더 빠르게 움직이고 있다는 평가가 나온다. 삼성SDS는 7일(현지시간) 'CES 2026' 현장에서 열린 기자간담회에서 국가AI컴퓨팅센터 착공 시점을 올해 7월로 잠정 결정했다고 밝혔다. 금융 심사가 2월 초 마무리되면 4월 1일 특수목적법인(SPC)을 설립하고, 설계 준비를 거쳐 곧바로 공사에 착수한다는 내부 타임라인도 함께 제시했다. 센터 개소 목표는 2028년이다.이준희 삼성SDS 대표는 "7월에 국가AI컴퓨팅센터를 착공한다"며 "현재 기술심사평가를 마치고 금융 부문 심사를 진행하는 중"이라고 말했다. 삼성SDS는 이 자리에서 이미 기술·정책 평가를 통과했고, 남은 절차는 금융 심사뿐이라는 점도 분명히 했다. 그간 '안갯속'처럼 추진돼 왔던 국가AI컴퓨팅센터의 일정이 처음 구체적으로 공개됐다는 점에서 업계에선 향후 정부가 이에 발 맞춰 협조할지를 두고 예의주시하고 있다. 그러나 정부의 행정 절차는 매우 더딘 상태다. 과학기술정보통신부는 지난해 말까지 우선협상대상자 선정을 마무리하겠다는 계획을 세웠지만, 현재까지 금융 심사가 이어지고 있다. 조 단위 자금이 투입되는 대형 프로젝트인 만큼 정책금융기관의 리스크 검토와 국민성장펀드 투자 심사가 겹치며 검토 기간이 길어지고 있는 것으로 전해졌다. 국가AI컴퓨팅센터는 총 2조5천억원 규모의 민관 협력 사업으로, 그래픽처리장치(GPU) 수만 장을 갖춘 초대형 AI 컴퓨팅 인프라를 구축하는 것이 목표다. 기업과 대학, 연구기관, 스타트업에 고성능 연산 자원을 제공하는 'AI 고속도로'의 핵심 거점으로, 정부의 AI 3대 강국 전략을 상징하는 프로젝트이기도 하다. 이처럼 사업 규모와 정책적 상징성이 큰 만큼, 업계에선 실제 사업 속도를 좌우할 핵심 변수로 'SPC 설립 시점'을 꼽고 있다. 국가AI컴퓨팅센터는 민관이 SPC를 세우고, 이 SPC가 구축·운영의 실체가 되는 구조다. 삼성SDS와 네이버클라우드, 카카오, KT 등 컨소시엄 참여사들은 지분 투자자 역할을 맡고, 실제 센터 구축과 운영은 SPC를 중심으로 이뤄진다. 현재로선 금융 심사가 마무리돼야 우선협상대상자 선정과 실시협약, SPC 출범이 연쇄적으로 진행될 수 있다. 이 대표는 "컨소시엄 구성원의 공식적인 역할은 SPC 설립을 위한 지분 투자자"라며 "실제 사업은 SPC가 하는 만큼 SPC를 통해 여러 협상과 논의가 이뤄질 것"이라고 말했다. 이 같은 상황에서 삼성SDS 컨소시엄은 전남 해남 솔라시도 부지를 직접 찾으며 선제 행보에 나섰다. 공모 참여 이후 첫 공식 대외 일정으로, 데이터센터 건립 예정지의 지반 조사 결과와 전력·통신 인프라 여건을 점검했다. 다만 삼성SDS 컨소시엄은 정부의 우선협상대상자 발표 후 5개월도 안 되는 시간에 SPC 설립과 센터 설계, 착공까지 마무리하는 가파른 일정을 소화해야 한다는 점에서 부담을 느끼고 있을 가능성이 높다. 업계 관계자는 "삼성SDS가 정부 결정을 기다리는 동시에 준비는 이미 끝났다는 시그널을 보낸 것"이라며 "정부 입장에서도 더 늦추기 어려운 압박이 될 수 있다"고 분석했다.또 다른 관계자는 "정부의 심사 지연은 곧 '착공 지연'으로 직결될 수 있다"며 "7월 착공이란 민간 계획이 현실이 되려면 정부의 빠른 결단이 필요하다"고 지적했다. 이어 "'AI 3강'이라는 구호가 실행력으로 이어질지, 첫 국가 AI 인프라부터 지연의 상징이 될지는 해남 국가AI컴퓨팅센터 추진에 달렸다"며 "이번 일이 정부 AI 정책의 시험대가 된 분위기"라고 덧붙였다.

2026.01.08 11:55장유미

삼성SDS, 60MW 규모 구미 AI 데이터센터 건립 추진…2029년 가동

삼성SDS는 4천273억원을 투입해 60메가와트(MW) 규모 구미 인공지능(AI) 데이터센터 신규 건립에 박차를 가한다. 삼성SDS는 7일(현지시간) 미국 라스베이거스에서 열린 CES 2026에서 경상북도, 구미시와 구미 AI 데이터센터 건립을 위한 양해각서(MOU)를 체결했다고 밝혔다. 이날 체결식에는 이준희 삼성SDS 대표, 김장호 구미시장, 경상북도 양금희 경제부지사가 참석했다. 구미 AI 데이터센터는 삼성SDS가 지난 2024년 12월 삼성전자로부터 취득한 옛 삼성전자 구미1사업장 부지에 들어서며 가동 예정 시점은 2029년 3월이다. 이번 데이터센터 구축을 통해 삼성SDS는 급증하는 AI 수요에 대응하는 핵심 인프라를 확보하고 구미시 지역 경제 활성화와 AI 산업 생태계 확충에 기여할 계획이다. 구미 AI 데이터센터는 AI·그래픽처리장치(GPU) 중심 서비스에 최적화된 고전력 IT 장비 운영 환경을 목표로, 유연성·확장성·신뢰성을 갖춘 미래 수요 대응형 하이퍼스케일 데이터센터로 건립된다. 삼성SDS는 이러한 하이퍼스케일 데이터센터 운영을 위해 냉각과 전력 인프라 전반에 최신 기술을 적용한다. 서버룸에서 발생하는 고발열에 대응하기 위해 공냉식과 수냉식을 하나의 서버룸에 혼합 적용하는 하이브리드 쿨링 기술을 도입한다. 이를 통해 GPU 등 고전력을 소비하는 서버에 냉수를 직접 공급하고 네트워크나 스토리지 등 상대적으로 발열이 낮은 장비에는 공냉식을 적용함으로써 전력 효율을 높이고 에너지 소비를 최소화할 계획이다. 또 서버룸은 다양한 전력 밀도 랙 운영을 고려해 설계되며 향후 초고전력 랙까지 안정적으로 운영할 수 있는 환경으로 구축된다. 경상북도와 구미시는 이번 MOU를 계기로 삼성SDS의 구미 AI 데이터센터 투자 계획이 원활히 추진될 수 있도록 행정적·제도적 지원에 나선다. 앞서 삼성SDS는 지난 2일 구미 AI 데이터센터 투자를 공시했다. 이날 이사회에서 승인된 투자 금액 4천273억원은 데이터센터 건물 건립과 설비 구축 비용으로, 향후 AI 인프라 확충에 따라 추가 설비 투자가 이뤄질 수 있다는 설명이다. 이준희 삼성SDS 대표는 "구미 AI 데이터센터 투자를 통해 AI 인프라 경쟁력을 강화하는 동시에 구미시 지역 경제 활성화와 산업 생태계 발전에 기여해 나가겠다"고 밝혔다. 양금희 경제부지사는 "이번 협약을 CES 2026 현장에서 체결한 것은 경상북도가 글로벌 시장과 투자자들에게 AI 인프라 투자 최적지로서의 경쟁력과 추진 의지를 분명히 보여준 의미 있는 성과"라고 말했다. 김장호 구미시장은 "이번 협약을 계기로 구미는 AI 인프라를 기반으로 한 미래 산업 중심 도시로 한 단계 더 도약하게 될 것"이라고 강조했다.

2026.01.08 11:33한정호

AI 정책 드라이브 효과…지난해 외국인직접투자 360.5억달러로 역대 최대

새 정부의 인공지능(AI) 정책 드라이브와 함게 경주 APEC 정상회의를 계기로 한 투자유치 활동이 주효해 지난해 외국인직접투자(FDI)가 전년보다 4.3% 증가한 360억5천만 달러로 역대 최대 실적을 기록했다. 투자금 도착도 전년보다 16.3% 증가한 179억5천만 달러로 역대 3위를 기록했다. 남명우 산업통상부 투자정책관 전담직무대리는 7일 “이같은 실적은 글로벌 FDI 축소 추세에도 새 정부 출범 이후 우리 경제와 산업에 대한 신뢰가 회복되고 불확실성이 해소되면서 전반적인 투자심리가 되살아났기 때문”이라고 설명했다. 남 직무대리는 이어 “2025년 APEC 정상회의를 계기로 적극적으로 펼친 투자유치 활동이 주요하게 작용한 것으로 판단된다”고 덧붙였다. 유형별로는 공장이나 사업장을 설립해 직접 운영하기 위한 그린필드형 투자신고가 전년 대비 7.1% 증가하며, 역대 1위 규모인 285억9천만 달러를 기록했다. 기업 지분 인수합병을 위한 M&A형 투자신고는 5.1% 감소한 74억6천만 달러에 그쳤다. 업종별로는 제조업 투자신고 금액이 전년 보다 8.8% 증가한 157억7천만 달러를, 서비스업 투자신고 금액은 6.8% 증가한 190억5천만 달러로 집계됐다. 제조업 투자신고의 경우 화공·금속가공·운송용 기계업종 등을 중심으로 증가했다. 첨단산업에 사용되는 핵심 소재와 관련한 투자가 증가했다. 산업부는 외투기업들이 대외 불확실성에 대응하기 위해 공급망을 강화하기 위한 노력으로 분석했다. 서비스업 투자신고는 유통·정보통신업종 등을 중심으로 증가하고, 금융·보험, 운수·창고업종에서 감소했다. 산업부 측은 AI 데이터센터와 온라인 플랫폼 투자가 두드러지게 증가하면서 유통·정보통신업종 투자신고가 늘어났다고 설명했다. 국가별로는 미국과 EU 투자신고가 증가한 반면에 일본·중국 투자신고는 감소했다. 특히 미국 투자신고는 AI 인프라 소프트웨어 관련 투자와 반도체·배터리 등 첨단산업 관련 투자가 지속 유입되며 86.6% 증가한 97억7천만 달러를 기록했다. EU 투자는 화공과 유통업을 중심으로 유입되며, 35.7% 증가한 69억2천만 달러로 나타났다. 중국 투자는 38% 감소한 35억9천만 달러, 일본 투자도 28.1% 감소한 44억 달러를 기록했다. 남 직무대리는 “중국과 일본은 2024년 이미 많은 투자신고 이후에 투자 이행 단계에 접어들면서 2025년 투자가 줄어든 것”으로 해석했다. 자금별로는 신규투자가 6.8% 감소한 176억5천만 달러, 증액투자는 5.4% 증가한 146억6천만 달러를 기록했다. 장기차관은 37억4천만 달러로 전년 대비 117.7% 증가했다. 신규투자는 서비스업, 증액투자는 제조업을 중심으로 유입됐다. 산업부는 제조업 중심으로 증액투자가 증가한 것은 이미 한국에 진출한 외국인투자기업이 한국의 제조 펀더멘털을 좋게 평가하고 있다는 시그널로 해석했다. 산업부는 지난해 FDI 유치 최대 실적 달성 모멘텀을 이어가기 위해 올해도 지역 발전과 연계된 외국인투자 유치 인센티브를 확대하는 한편, 외국인투자기업에 대한 불합리한 규제를 적극 발굴해 개선할 계획이다.

2026.01.07 15:15주문정

"데이터센터 운영 효율↑"…MS, 美 전력망 시설에 AI 투입

마이크로소프트가 인공지능(AI) 기술로 미국 전력망 관리 효율 높이기에 나섰다. 7일 로이터통신에 따르면 마이크로소프트는 미국 미드컨티넌트 인디펜던트 시스템 오퍼레이터(MISO) 손잡고 중서부 전력 시스템 현대화에 착수했다. 이번 협력 목표는 미국 내 데이터센터 전력 수요가 급증하는 상황에서 AI 기술로 전력망 운영 예측력과 대응 속도 높이기다. 미국 기술 업계는 지난 2년간 장기 전력 공급 계약 체결과 AI 기반 운영 지원을 통해 전력망 기관과 협력해 왔다. 마이크로소프트는 미국 15개 주와 캐나다 매니토바주를 포함해 약 4천200만 명이 사용하는 MISO 전력망에 AI 기술을 공급한다. AI로 날씨로 인한 전력망 교란 예측과 대응, 송전선 계획 수립, 일부 전력망 운영 절차를 가속할 방침이다. 앞서 구글도 지난해 미국 최대 전력망 운영자인 PJM 인터커넥션과 협력해 AI를 활용한 신규 전력 공급원 연결 절차 가속에 나선 바 있다. 이는 AI 데이터센터 확산이 미국 전력 수요를 사상 최고 수준으로 끌어올린 데 따른 대응이다. 니라브 샤 MISO 최고정보·디지털책임자 겸 부사장은 "에너지 다양화와 전기화, 전력 수요 증가, 데이터센터 확산으로 전력망 운영 환경이 빠르게 변하고 있다"며 "이런 변화에 대응하기 위해 협력이 중요해지고 있다"고 말했다.

2026.01.07 09:26김미정

AMD, 올해 투입할 베니스·MI455X 실제 제품 첫 공개

[라스베이거스(미국)=권봉석 기자] AMD가 5일(이하 현지시간) 오후 라스베이거스 팔라조에서 진행한 CES 2026 기조연설 중 서버용 프로세서 '베니스', 인스팅트 MI455X GPU 가속기 등 데이터센터용 신제품 실물을 최초 공개했다. 이날 리사 수 AMD CEO가 공개한 서버용 에픽(EPYC) 프로세서 '베니스'는 젠6(Zen 6) 아키텍처 기반으로 설계된 고성능 CPU 코어를 최대 256개 탑재 예정이다. 이를 통해 전세대 대비 다중작업과 데이터센터 처리 역량이 향상될 예정이다. 리사 수 CEO가 함께 공개한 인스팅트 MI455X AI GPU 가속기는 연산에 특화된 AMD GPU 아키텍처인 CDNA 기반으로 설계됐다. 대규모 AI 모델 학습과 추론 작업을 처리하는 고대역폭 메모리 및 병렬 처리 성능을 MI355X 대비 최대 10배 강화했다. AMD는 지난 해 공개한 개방형 표준 기반 데이터센터급 AI 랙 시스템 '헬리오스 AI 랙' 실물을 기조연설 관람객에게 선보였다. 헬리오스 AI 랙은 서버 CPU, GPU 및 고속 네트워킹을 하나의 랙 단위로 묶은 형태이며 특정 제조사가 아닌 개방형으로 다양한 하드웨어 제조사, 소프트웨어 생태계와 상호운용성을 높인 것이 특징이다. 헬리오스 AI 랙에 탑재되는 트레이는 인스팅트 MI455X GPU 4개, 베니스 프로세서 4개와 HBM4 메모리 432GB로 구성되며 수랭식 냉각 시스템을 적용했다. 리사 수 AMD CEO는 "헬리오스 AI 랙에 젠6 기반 베니스 코어 최대 4천600개, HBM4 메모리 31TB, 1만 8천 코어 GPU 등을 집약해 올해 안에 출시할 것"이라고 밝혔다. 이날 리사 수 AMD CEO는 "2027년 출시 예정인 인스팅트 MI500는 CDNA 6 아키텍처와 HBM4E 메모리 기반으로 대만 TSMC 2나노급(N2) 공정에서 생산 에정이며 현재 순조롭게 개발이 진행중"이라고 설명했다. 이어 "인스팅트 MI500은 4년 전 대비 AI 성능을 최대 1천 배 높일 것"이라고 설명했다.

2026.01.06 17:40권봉석

[SW키트] AI 인프라 비용 폭증 시대…"엣지·분산 클라우드로 탈피"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 전 세계가 인공지능(AI) 인프라 확장으로 비용 부담이 커지고 있는 가운데 분산 클라우드와 온디바이스 AI가 대안으로 부상하고 있다. 이를 통해 중앙집중형 데이터센터 의존도를 낮추고, AI를 효율적으로 구동하기 위한 전략이다. 6일 IT 업계에 따르면 글로벌 AI 인프라 경쟁이 격화하면서 막대한 전력과 비용 부담이 커질 것이란 전망이 나오면서 업계에선 이같은 대안책을 제시하고 있다. 단순히 데이터센터 확장만으로는 전력이나 비용 부담을 그대로 감당하기 어렵다는 판단에서다. 그동안 글로벌 AI 인프라 경쟁력은 그래픽처리장치(GPU) 확보, 데이터센터 확장에 집중됐다. 이에 국내 업계는 이 과정에서 전력과 비용이 천문학적으로 늘어났다는 점을 문제로 지적했다. 딥엑스 김강욱 부사장은 최근 국회 세미나에서 "현재 국가별 AI 자원 격차가 경쟁력 차이로 이어질 수 있다"며 "국내 AI 인프라 규모가 상대적으로 적은 만큼 대안을 마련해야 한다"고 주장했다. 이에 업계는 AI 연산을 중앙에 집중시키지 않는 구조에 눈을 돌리고 있다. 사용자와 가까운 곳에서 AI를 처리해 지연을 줄이고 인프라 부담을 낮추는 방식이다. 대표 사례로 아카마이의 분산 클라우드가 꼽히고 있다. 아카마이는 전 세계 4천400여 개 네트워크 거점(POP) 기반 분산 엣지 플랫폼으로 AI 모델 추론을 수행하고 있다. 중앙 데이터센터 대신 네트워크 엣지단에서 AI 연산을 처리할 수 있는 구조다. 분산 클라우드는 기존 클라우드와 달리 데이터센터에서 연산을 따로 모을 필요가 없다. 사용자와 가까운 엣지 서버에서 필요한 연산을 수행할 수 있어서다. 이에 AI 응답 속도를 높이고 트래픽 부담까지 줄일 수 있다. 이경준 아카마이코리아 대표는 "향후 AI 인프라 핵심은 데이터가 생성되는 곳에서 바로 추론까지 이뤄지는 구조일 것"이라며 "이는 중앙집중형 클라우드보다 성능과 비용을 동시에 관리할 수 있다"고 지디넷코리아 인터뷰를 통해 강조했다. "AI 처리에 클라우드 의존 벗어야" IT 업계는 클라우드에만 의존하는 기존 AI 처리 구조에도 변화가 필요하다고 봤다. 모든 데이터를 원격 서버로 보내야 지식 처리와 판단이 이뤄지는 방식은 전력과 비용 부담을 키울 수 있다는 지적이다. 딥엑스 김강욱 부사장은 개별 단말기에서도 지식 기반 AI 처리가 가능하도록 하는 전략이 필요하다고 강조했다. 일상적인 질의나 판단은 기기 내부에서 처리하고, 복잡한 연산만 클라우드가 맡는 구조다. 딥엑스는 온디바이스 AI용 시스템 반도체를 개발하는 기업이다. 데이터센터용 그래픽처리장치(GPU)와 달리, 저전력·저비용 신경처리장치(NPU)를 설계해 단말기 자체에서 AI 연산이 가능하도록 지원하고 있다. 특히 스마트폰, 가전, 차량, 로봇 등 다양한 기기에 AI를 내장해 중앙 클라우드 의존도를 낮추는 전략을 추진한다. 해당 기술은 최근 바이두에 공급됐으며, 회사는 내년을 목표로 기업공개(IPO) 절차를 밟고 있다. 김 부사장은 "이 같은 구조가 구현되면 대규모 데이터센터를 추가로 짓지 않아도 AI 서비스를 확장할 수 있다"며 "AI 연산을 분산 처리함으로써 전력 소모와 인프라 집중도를 낮출 수 있다"고 밝혔다.

2026.01.06 13:38김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

8나노 몰리고, 4나노 안정…탄력받는 삼성 파운드리

로봇용 OLED 시장 노리는 삼성·LG…넘어야 할 2가지 과제

"조선·플랜트 용접 자동화 가속"…제이씨티, 협동로봇 '제품화' 승부수

[AI는 지금] 독파모 '패자부활전' 할까 말까…"혜택 크다" vs "역효과"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.