• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (456건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버, 국가AI컴퓨팅센터 참여…"완전 이중화로 복원력 높인다"

네이버클라우드가 끊김 없는 인공지능(AI) 인프라 구축과 국가 차원의 AI 역량 강화에 나선다. 최근 발생한 국가정보자원관리원(국정자원) 데이터센터 화재로 안정성과 복구체계의 중요성이 커지는 가운데, 자체 기술과 이중화 아키텍처를 기반으로 국가AI컴퓨팅센터 사업에 참여하며 민·관을 아우르는 고신뢰 AI 데이터센터 모델을 제시한다는 방침이다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크밋업에서 "AI 인프라는 이제 확보보다 효율이 핵심이며 한쪽 장애에도 멈추지 않는 구조가 곧 경쟁력"이라고 강조했다. 이어 "우리는 춘천과 세종, 수도권에 걸쳐 완전 이중화된 네트워크와 복구 체계를 갖춰 어떤 상황에서도 서비스를 이어갈 수 있다"고 덧붙였다. 네이버는 지난 2022년 판교 데이터센터 화재 당시 일부 서비스가 영향을 받았지만 설계 단계부터 다중 백업 구조를 갖춰 빠르게 우회 복구할 수 있었다. 하나의 데이터센터에 의존하지 않고 여러 센터를 분산 운용하는 것이 주효했다는 설명이다. 이 CIO는 이를 AI 시대의 인프라 복원력으로 평가했다. 이날 행사에서는 최근 이슈가 된 국정자원 화재 사고와 복구 대책, 국가AI컴퓨팅센터 사업 참여와 관련한 네이버클라우드의 방향이 공유됐다. 이 CIO는 "우리는 삼성SDS와 함께 국가AI컴퓨팅센터 구축에 공동 참여하고 있다"며 "정부가 AI 인프라 확충에 집중하고 있는 만큼 민간이 보유한 기술 내재화 경험을 공공 인프라로 확장할 좋은 기회"라고 말했다. 또 그는 "그래픽처리장치(GPU), 인력, 데이터 세 가지가 AI 경쟁력의 핵심"이라며 "국가가 보유한 질 좋은 데이터를 민간이 잘 활용할 수 있도록 지원하고 우리도 내부 데이터와 모델 역량을 국가 인프라에 결합해 기술 자립 기반을 강화하겠다"고 밝혔다. 이어 "국가AI컴퓨팅센터 구축 사업은 단순한 인프라 공급이 아니라 네이버의 서비스형 GPU(GPUaaS) 플랫폼을 국가 수준의 AI 데이터센터에도 적용하는 구조로 확장될 것"이라고 덧붙였다. 네이버클라우드 노상민 센터장은 재해 대응과 안정성 강화를 위한 시스템을 소개했다. 노 센터장에 따르면 리튬이온 화재는 완전한 예방이 어렵기에 각 세종 데이터센터에는 기존 소화가스에 더해 배터리실 전용 스프링클러가 설치됐다. 화재 시 소화가스와 물 분사 시스템을 병행해 초기 진화 효율을 높인 것이다. 노 센터장은 "춘천·세종뿐 아니라 수도권과 충청, 경남권에도 임차 데이터센터를 다수 확보해 서비스 이원화 투자를 이어가고 있다"며 "물리적 피해가 발생하더라도 빠르게 서비스 전환이 가능하다"고 강조했다. 이어 "모든 데이터센터는 동일한 프로세스와 정책으로 운영된다"며 "자가든 임대든 동일 기준으로 대응할 수 있는 일원화 체계가 중요하다"고 덧붙였다. 최근 전력 사용량과 냉각 기술 부담이 급증하는 상황에 대해서도 설명이 이어졌다. 노 센터장은 "GPU 서버의 전력 밀도가 기존 CPU 대비 2~3배 높아지면서 공기 냉각만으로는 한계가 있다"며 "각 세종에서는 다이렉트 리퀴드 쿨링(DLC) 방식을 도입하고 향후 액침냉각도 병행할 계획"이라고 말했다. 이어 "전력 효율과 안정성, 환경 영향까지 고려한 냉각 기술 내재화를 지속 추진 중"이라고 덧붙였다. 데이터센터 시장 전반의 구조적 어려움에 대한 지적도 제기됐다. AI 수요 증가 이후 국내 데이터센터 상면과 전력이 모두 부족한 상황이며 수도권 전력 규제와 인구 감소 등으로 지방 운영 환경이 어렵다는 지적이다. 노 센터장은 "규제 완화와 전문 인력 양성 등 정책적 지원이 필요하다"고 말했다. 끝으로 이 CIO는 향후 AI 인프라 사업 목표를 밝혔다. 그는 "우리는 이미 내부 AI 워크로드를 대규모로 운영하고 있고 이 경험을 국가AI컴퓨팅센터 구축 등 공공 영역으로도 확장할 자신이 있다"며 "AI 인프라가 우리만의 자산이 아니라 국가의 성장 엔진이 되도록 기술 자립 기반을 완성하겠다"고 강조했다.

2025.10.28 09:02한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

"韓 의료 소버린 AI, 국가 경쟁력 문제…원주에 특화 데이터센터 마련돼야"

"의료 분야는 인공지능(AI) 도입에 따른 혜택을 국민들이 빠르게 체감할 수 있는 분야인 만큼 의료 인공지능 전환(AX)이 조속히 진행돼야 합니다. 정부와 업계, 지역사회의 관심과 노력이 필요한 상황으로, 앞으로 AI가 의료 현장에서 의료인과 환자들의 편의를 증진할 수 있도록 정부에서도 지속 노력하겠습니다." 류제명 과학기술정보통신부 2차관은 27일 서울 관악구 서울대학교에서 진행된 '의료 AI 데이터센터 구축의 경제적 효과 평가' 세미나에서 영상을 통해 이처럼 축사를 전했다. 과기정통부는 지난 2017년부터 암, 치매 등 다양한 질환에 특화된 AI 진단 솔루션 개발, AI 앰뷸런스 등 다양한 의료 혁신을 지원해오고 있다. 하지만 지난 2022년 말 '챗GPT' 등장 후 생성형 AI 시장이 빠르게 확산되면서 의료 AI 시장도 변화를 맞고 있다. 특히 구글 딥마인드는 단백질 분자 구조를 분석하는 AI 모델 '알파폴드'를 통해 신약 개발의 새로운 가능성을 열었다. 템퍼스AI는 임상·분자 데이터와 AI를 결합해 암을 비롯한 다양한 질환의 맞춤치료와 임상시험 설계를 지원하는 정밀 의료 플랫폼을 개발해 시장의 주목을 받았다. 국내에서도 루닛이 의료영상 판독 및 AI 바이오마커를 통해 조기 암 검진을 지원하는 기술을 보유한 것으로 알려져 관심이 집중됐다. 뷰노 역시 의료 영상·생체신호 데이터를 AI로 분석해 진단 및 예후 리스크를 조기에 탐지하는 솔루션을 앞세워 시장 공략에 본격 나섰다. 이날 세미나에서 발표를 맡은 유병준 서울대 교수는 "의료 데이터는 인간이 처리하기엔 방대하고, 인간의 분석 능력만으로는 진단·예후 예측·치료 의사결정에 필요한 패턴을 탐지할 수 없기 때문에 AI가 필수적"이라며 "AI는 복합적 변수를 동시에 고려하는 데 특화돼 있다"고 설명했다. 그러면서 "특히 글로벌 AI 시대를 맞아 한국형 의료 소버린 AI는 국가 경쟁력의 문제"라며 "자국 AI 인프라 구축으로 정보 주권을 확보하는 동시에 한국 환자군 특성·진료 데이터에 최적화된 서비스를 제공할 수 있는 국내 맞춤형 의료 AI를 개발해 나갈 필요가 있다"고 덧붙였다. 이를 위해 유 교수는 '의료 AI 데이터센터' 구축이 선제적으로 이뤄져야 한다고 강조했다. 의료 소버린 AI 클러스터 구축을 위한 필수적 기반이 마련돼야 이를 중심으로 첨단의료기기 기업, 제약 연구소들이 활발히 기술력을 끌어올리고 빠르게 성장할 수 있다고 진단했다. 또 그는 의료 AI 데이터센터를 구축하면 의료 서비스 효율화와 진료비 진감, 연구개발 생산성 향상, AI 산업의 민간 투자 확대 등 다양한 편익이 발생할 것이라고 봤다. 이를 금액으로 환산 시 연평균 1조6천억원의 사회적 편익과 2조5천억원의 산업 파급효과가 있을 것으로 예상했다. 유 교수는 "인프라 확충에 따라 공공 데이터 활용률도 높아질 것"이라며 "의료 AI 기업의 진입장벽이 완화되며 지역별 의료 접근성 개선으로 환자 후생이 증대될 것"이라고 전망했다. 이어 "신경망처리장치(NPU) 등 국산 반도체의 성능을 실시간으로 평가, 튜닝할 수 있는 현실적인 테스트 베드로서도 의료 AI 데이터센터가 역할을 할 수 있을 것"이라며 "국가 의료 AI 생태계의 확장과 글로벌 경쟁력 확보를 위한 전략적 실물옵션으로서 중요한 역할을 할 것"이라고 부연했다. 이처럼 최근 '의료 AI 데이터센터' 구축에 대한 필요성이 높아지고 있는 가운데 유 교수는 이날 세미나에서 강원도 원주시가 생태계를 마련하는데 최적지라고 평가했다. 서울 접근성이 높은데다 교통 환경이 잘 갖춰져 있어서다. 데이터센터 부지로 고려되고 있는 곳에 SK, KT, LG 등 정보통신망 인프라까지 잘 갖춰져 있다는 점도 유리한 요소로 꼽았다. 유 교수는 "원주는 홍수발생이 가능한 극한 상황에서도 침수 가능성이 없는 지리적 입지와 국민건강보험공단, 건강보험심사평가원, 대한적십자사, 연세대 원주세브란스 병원 등이 위치해 있어 의료 생태계가 이미 어느 정도 구축돼 있다는 것도 강점"이라며 "에너지 발전 등 친환경 에너지를 활용하기에도 적합한 지역이어서 데이터센터의 수도권 집중 완화를 해소할 수 있고 전력 공급 문제도 해소할 수 있는 대안이 될 것"이라고 강조했다. 원주시도 지난해 12월부터 '의료 AI 데이터센터' 유치를 위해 힘을 쏟고 있다. 현재 원주시 단구동에 9만9천386㎡(약 3만64평) 부지를 확보하고 40MW(메가와트) 3개동으로 구성된 총 120MW 데이터센터 건립 계획을 추진 중이다. 이에 이날 세미나에 참석한 이들은 한 목소리로 원주에 '의료 AI 데이터센터'를 구축할 수 있도록 정부에서 적극 지원해줘야 한다고 강조했다. 해외 거대언어모델(LLM) 기반 서비스가 민감한 환자 정보 유출 위험이 큰 만큼 자국 AI 인프라 구축으로 정보 주권을 확보해 국내 맞춤형 의료 AI를 개발할 수 있는 환경을 빠르게 마련해야 한다고 목소리를 높였다. 유 교수는 "인프라가 확충되면 공공 데이터 활용률도 높아질 것"이라며 "의료 AI 기업의 진입장벽이 완화되며 지역별 의료 접근성 개선으로 환자 후생이 증대될 것"이라고 강조했다. 장병탁 서울대 헬스케어AI연구원장이 좌장으로 진행된 종합 토론에서도 비슷한 의견들이 제기됐다. 특히 전성민 가천대 교수는 '원주 의료 AI 데이터센터 구축 프로젝트'가 NPU 기반 효율성을 통해 비용 대비 높은 경제적 타당성을 확보하는 동시에 의료 소버린 AI와 국산 NPU 테스트베드라는 국가 전략적 목표를 달성한다는 점에서 하루 빨리 추진돼야 한다고 강조했다.전 교수는 "궁극적으로 이 인프라가 우리나라 '탑 탤런트의 창업 플랫폼으로 기능하고 의료 AI 분야에서 글로벌 경쟁력을 확보하기 위해서는 벤처캐피탈의 적극적 투자 유도와 데이터 활용 및 인허가 관련 규제 혁신이 반드시 수반돼야 한다"며 "의료 AI 데이터센터는 단순 인프라를 넘어 국가 산업 발전, 지역 균형 발전, 보건 혁신에 기여하는 국가 전략적 가치를 제공할 것"이라고 밝혔다. 법무법인 대율 백주선 변호사도 의료 AI 데이터센터 구축을 위해 기술적·경제적 타당성뿐 아니라 관계 법령 정비와 법률적 지원이 함께 추진돼야 한다고 강조했다. 또 의료 데이터 산업의 발전을 위해선 법적 안정성과 데이터 주권 확보가 필수적이라고 주장했다. 백 변호사는 "병원 임상데이터는 반드시 비식별화·IRB 승인·연구동의 절차를 거쳐야 하며 공공 의료 데이터는 국내 인프라에서 관리해 해외 규제·유출 위험을 차단해야 한다"며 "데이터센터 구축을 통해 검증체계를 마련하면 기업의 임상시험·인증비용을 줄이고 국제 기준 대응력을 높일 수 있다"고 밝혔다. 이 외에도 정구민 국민대 교수는 원주시가 우리나라 의료 AI 데이터를 효과적으로 관리할 수 있는 최적지라고 기대했다. 소윤창 IBM 킨드릴코리아 본부장은 정부가 의료 소버린 AI 데이터센터에 엔드유저로 참여해 '알파 커스터머' 역할을 이행하며 국산 NPU의 실증 및 검증의 기회를 제공하고 이를 통해 글로벌 시장으로 진출할 수 있는 계기를 만들어야 한다고 주장했다. 장병탁 서울대 헬스케어AI연구원장은 "의료 AI 데이터센터는 단순히 데이터를 모으는 시설이 아니라 국산 AI 반도체의 실증 무대이자, 대한민국의 우수 인재들이 미래 산업을 개척할 수 있는 창업의 요람"이라며 "정부와 민간의 협력, 과감한 규제 혁신을 통해 이 전략적 인프라가 성공적으로 구축되기를 기대한다"고 말했다. 이재욱 서울대 AI연구원장은 "현재 원주시가 추진 중인 의료 AI 데이터센터 구축은 단순한 인프라 확충을 넘어 의료 데이터의 안전한 활용과 AI 기반 의료 서비스의 혁신을 가능하게 하는 핵심 전략 사업"이라며 "지역의 균형 발전과 더불어 국내 의료 산업 전반의 경쟁력 제고에 중대한 기여를 할 것으로 기대하고 있다"고 밝혔다. 이어 "서울대 AI연구원에서도 앞으로 AI 기술이 산업, 의료, 사회 전반에 긍정적인 변화를 이끌어 낼 수 있도록 플랫폼으로서의 역할을 다 할 것"이라며 "이번 세미나가 새로운 협력과 (의료 AI) 혁신의 출발점이 되기를 바란다"고 마무리했다.

2025.10.27 15:59장유미

[유미's 픽] '경주 APEC' 건너 뛰는 샘 알트먼, 오픈AI 韓 직접 투자 계획은 언제?

샘 알트먼 오픈AI 최고경영자(CEO)가 오는 28일부터 31일까지 경북 경주에서 열리는 'APEC CEO 서밋 코리아 2025'에 불참한다. 이미 올 들어 두 차례나 한국을 찾았던 데다 직전 방문이 이달 초였다는 점을 감안해 이처럼 결정한 것으로 풀이된다. 오픈AI는 공식 자료를 통해 알트먼 대표가 APEC CEO 서밋에 참석하지 않는다고 24일 밝혔다. 이 서밋은 대한상공회의소가 APEC 정상회의 공식 부대행사로 주관하는 아시아·태평양 지역 최대 민간 경제포럼이다. 최태원 대한상의 회장 겸 SK그룹 회장, 이재용 삼성전자 회장, 정의선 현대차그룹 회장, 구광모 LG그룹 회장 등 국내 주요 대기업 오너를 비롯해 젠슨 황 엔비디아 CEO, 손정의 소프트뱅크 회장, 맷 가먼 아마존웹서비스(AWS) CEO, 사이먼 칸 구글 APAC 부사장 등 글로벌 기업인 1천700여 명이 참여할 것으로 알려졌다. 업계에선 황 CEO와 AI 인프라 프로젝트인 '스타게이트'를 오픈AI와 함께 이끄는 손정의 회장이 경주를 찾는 만큼 알트먼 CEO도 합류할 것으로 그간 관측했다. 이들이 만나 글로벌 AI·반도체 산업의 새로운 밑그림을 'APEC CEO 서밋'에서 그려갈 것으로 기대했지만, 불발됐다. 하지만 알트먼 CEO는 올 들어 한국 시장에 상당히 공 들이는 모습이다. 지난 2월 방한해 이재용 삼성전자 회장과 최태원 SK그룹 회장, 정신아 카카오 대표를 만나 AI 데이터센터와 AI 솔루션 사업에 대한 협력을 논의한 바 있다. 또 지난 1일 한국을 찾아 이 대통령을 비롯해 배경훈 과학기술정보통신부 장관, 이재용 회장, 최태원 회장, 이준표 SBVA 대표 등을 만난 바 있다. 당시 오픈AI는 삼성전자, SK하이닉스와 각각 디램(DRAM) 웨이퍼 공급 계약을 체결했고, 과기정통부와 함께 국내 AI 데이터센터 개발을 추진하겠다고 합의한 바 있다. SBVA와는 국내 AI 스타트업 지원 방안을 논의했다. 지난 달에는 한국 사무소도 공식 개소했다. 챗GPT 유료 구독자 수가 미국에 이어 2위라는 점에서 AI 시장 내 한국이 경쟁력이 있다고 본 것이다. 업계에선 AI 생태계에서 소프트웨어를 장악한 오픈AI가 반도체와 같은 하드웨어에서도 주도권을 쥐기 위해 한국 시장 내 존재감을 키우고 있다고 봤다. 인간의 뇌처럼 복잡한 AI 연산을 수행하기 위해서는 '가속기' 역할을 하는 그래픽처리장치(GPU)를 대량으로 확보해야 하는데 현재 이 시장을 엔비디아가 장악하고 있어서다. 업계 관계자는 "오픈AI가 보기엔 재주는 곰이 부리고 돈은 엉뚱한 사람이 가져가는 구조인 셈"이라며 "오픈AI가 소프트웨어와 하드웨어를 합쳐 자신들이 이 시대를 이끌겠다는 빅 픽처를 앞세워 삼성전자, SK하이닉스 등 반도체 기업을 보유한 한국에 공 들이고 있는 것"이라고 분석했다. 오픈AI는 최근 들어 좀 더 한국과의 접점을 확대하기 위해 지난 23일 '한국에서의 AI : 오픈AI의 경제 청사진' 보고서를 발표했다. 이 보고서에서 AI 기술 잠재력을 극대화하면서도 위험을 최소화하기 위해 결단력 있는 인프라 투자와 글로벌 협력이 필수적이라고 강조했다. 특히 데이터센터와 발전 시설, 이를 연결하는 네트워크 등 물리적 인프라가 AI 리더십의 기반이 된다고 말했다. 오픈AI는 한국이 반도체 공급망, 디지털 인프라, 인적 역량에서 강점을 지닌 만큼 글로벌 AI 경쟁에서 중요한 전환점을 맞이했다고 평가했다. 또 한국이 AI 생태계의 중심으로 도약하기 위해서는 ▲GPU·컴퓨팅 자원 부족 해소를 위한 글로벌 협력 ▲안정적인 AI 모델 운영 역량 확보 ▲책임 있는 데이터 거버넌스 체계 구축이 필요하다고 제언했다. 오픈AI 측은 "한국의 대규모 모델은 우수한 연구 성과를 내고 있지만 산업 전반에서의 배포는 제한적일 수 있다"며 "오픈AI와 같은 프런티어 개발자들이 축적한 대규모·안정적 배포 역량을 활용해 안전하고 효과적인 AI 도입을 가속화할 수 있다"고 강조했다. 또 오픈AI는 한국의 소버린 AI 정책 기조를 유지하면서도 글로벌 기업과의 협력을 병행하는 이중 트랙 전략도 제안했다. 그 대표 사례로 이달 초 과학기술정보통신부, 삼성전자, SK와 체결한 협약을 들었다. 오픈AI는 삼성전자, SK와 각각 D램 웨이퍼 공급 계약을 맺고 과기정통부와 함께 국내 AI 데이터센터 개발에 협력하기로 했다. 이를 통해 한국은 오픈AI의 '스타게이트' 프로젝트에 참여하게 됐다는 평가도 나온다. 하지만 일각에선 오픈AI가 한국 정부와 협력키로 했지만 직접 투자 계획을 구체적으로 밝히지 않았다는 점에서 아쉬움을 드러내고 있다. 오픈AI가 직접 AI 인프라를 구축하는 것이 아닌, 한국 정부와 기업이 인프라를 마련하면 오픈AI가 그 시설을 활용하거나 협력 파트너로 들어오는 구조라는 점에서다. 업계 관계자는 "오픈AI뿐 아니라 올 들어 앤트로픽, 코히어 등 글로벌 AI 기업들이 잇따라 한국에 공식 진출하며 정부, 기업 공략에 적극 나서고 있다"며 "이들의 한국 시장 진출과 전방위 협력 의지는 국내 대기업의 혁신을 촉진하고 AI 생태계 전반에 활력을 불어넣을 수 있지만, 직접 투자 측면에선 소극적이어서 아쉽다"고 지적했다. 이와 관련해 크리스 리헤인 오픈AI 글로벌대외협력 최고책임자는 "(한국 내 데이터센터 구축에 대해) 현재 한국 정부 및 민간 파트너들과 함께 입지, 모델, 운영방식 등을 검토 중"이라며 "오픈AI가 직접 투자하거나 공동 운영하는 등 여러 옵션이 열려있다"고만 밝혔다.

2025.10.24 17:21장유미

美 마이크론, 2세대 '소캠' 샘플 출하…엔비디아향 저전력 D램 시장 공략

미국 마이크론이 AI 서버용 차세대 저전력 메모리인 소캠(SOCAMM, Small Outline Compression Attached Memory Module)의 2세대 샘플을 출하하는 데 성공했다. 마이크론은 192GB(기가바이트) 용량 및 최대 동작속도 9.6Gbps의 소캠2 샘플을 주요 고객사에 전달했다고 22일 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈이다. 저전력 D램인 LPDDR을 4개씩 집적해 전력 효율성을 높였으며, 데이터 전송 통로인 I/O(입출력단자) 수가 694개로 대역폭이 비교적 높다. 기존 LPDDR 단품을 온보드(납땜)로 붙이는 방식과 달리 메모리를 탈부착할 수 있어 성능 업그레이드 및 유지보수에도 용이하다. 마이크론이 이번에 발표한 샘플은 2세대 소캠에 해당한다. 이전 세대 대비 동일한 크기에서 50% 더 많은 용량을 구현했다. 또한 이번 소캠2에는 마이크론의 1γ(감마) LPDDR5X가 탑재됐다. 1γ는 국내 반도체 업계에서는 1c(6세대 10나노급) D램에 대응하는 공정으로, 현재 개발된 D램 중 가장 최신 세대에 해당한다. 마이크론은 "소캠2의 향상된 용량은 실시간 추론 워크로드에서 최초 토큰 생성 시간(TTFT)을 80% 이상 단축시킬 수 있어 성능 향상에 크게 기여한다"며 "최첨단 1γ D램은 이전 세대 대비 20% 이상 전력 효율을 향상시켜, 대규모 데이터센터 클러스터의 전력 설계 최적화를 더 강화한다"고 설명했다. 마이크론은 이번 소캠2 샘플 공급으로 엔비디아와의 협력을 더욱 강화할 것으로 전망된다. 현재 엔비디아는 차세대 AI 반도체인 '루빈'에 소캠을 적용할 계획으로, 이에 따라 삼성전자, SK하이닉스 등도 소캠2 양산화를 준비 중이다. 라즈 나라시만 마이크론 클라우드 메모리 사업부 수석 부사장은 "마이크론은 저전력 D램 분야에서 입증된 리더십을 바탕으로 소캠2 모듈이 차세대 AI 데이터센터 구동에 필수적인 데이터 처리량, 에너지 효율, 용량 등을 제공할 수 있도록 보장한다"고 밝혔다.

2025.10.23 09:28장경윤

리벨리온-Arm, 차세대 AI인프라 솔루션 협력 강화

AI반도체 스타트업 리벨리온이 미국 캘리포니아 산호세에서 열린 개방형 데이터센터 기술 컨퍼런스인 'OCP 글로벌 서밋 2025'에서 'Arm 토탈 디자인(ATD)' 파트너로 공식 합류했다고 20일 밝혔다. 이는 지난 9월 시리즈 C 투자 라운드에서 Arm의 전략적 투자를 유치한 데 이어, 양사가 차세대 AI 인프라 개발과 상용화 협력을 한층 강화하는 행보다. ATD는 '네오버스 CSS' 기반 맞춤형 시스템 개발을 가속화하기 위해 구성된 글로벌 협력 생태계다. 리벨리온은 AI반도체 스타트업으로는 최초로 ATD 파트너로 합류해, 우수한 연상 성능과 에너지 효율성을 갖춘 AI데이터센터 수요에 함께 대응한다. 네오버스 CSS는 Arm의 칩 설계 인프라 개발을 위한 플랫폼이다. 리벨리온은 최근 공개한 리벨쿼드(REBEL-Quad)로 칩렛 기반 AI 반도체 설계 역량을 입증했으며, 이를 토대로 리벨 아키텍처 중심의 제품 로드맵을 확대하고 있다. 이러한 기술력을 기반으로 Arm과 협력해 ATD 생태계에서 고성능·저전력 AI 반도체를 차세대 AI 데이터센터 인프라에 적용할 계획이다. 이 과정에서 Arm의 네오버스 CSS는 리벨리온의 AI 반도체와 자연스럽게 통합되어, 확장성과 에너지 효율을 갖춘 인프라 구현을 뒷받침한다. 이번 협력은 단순한 기술 제휴를 넘어 양사의 전략적 파트너십으로 이어지고 있다. Arm은 리벨리온의 시리즈 C 투자에 참여하며 협력 관계를 한층 강화했고, 이를 기반으로 생성형 AI 워크로드에 최적화된 솔루션을 공동 개발한다는 계획이다. ATD 합류 역시 이러한 협력의 연장선에 있으며, 양사는 앞으로도 AI 데이터센터 분야 전반에서 긴밀한 파트너십을 지속해 나갈 예정이다. 에디 라미레즈 Arm 인프라 사업부 부사장은 “AI 연산 수요가 급격히 증가하는 가운데, 더 빠르고 효율적이며 확장가능한 인프라는 필수 조건이 되었다”며, “리벨리온의 ATD 합류를 통해 검증된 Arm 네오버스 CSS와 리벨리온의 AI반도체가 결합해, AI 인프라 혁신의 새로운 장을 열 것”이라고 말했다. 박성현 리벨리온 대표는 “이번 ATD 파트너 합류는 리벨리온이 고성능·저전력 AI 반도체 솔루션을 차세대 인프라 수요에 맞춰 확장할 수 있는 중요한 계기”라며, “앞으로 출시될 리벨 시리즈에도 Arm의 검증된 네오버스(Neoverse) CSS를 적용해, 대규모 데이터센터에 최적화된 솔루션을 제공하고 고객이 성능과 지속가능성을 모두 확보할 수 있도록 지원하겠다”고 밝혔다.

2025.10.20 10:40전화평

골드만삭스, AI 인프라 금융시장 진출…전담조직 신설

골드만삭스가 인공지능(AI) 시대의 핵심 인프라인 데이터센터를 비롯한 대규모 AI 인프라 금융시장 공략에 나선다. 글로벌 인프라 금융을 담당할 새 조직을 신설해 AI 데이터센터, 전력 공급시설, 국방 및 에너지 프로젝트까지 포괄하는 초대형 금융 딜에 집중할 계획이다. 19일 월스트리트저널(WSJ)에 따르면 골드만삭스는 글로벌 뱅킹·마켓 부문 내에 '인프라 및 실물자산 금융' 전담팀을 신설했다. 이 팀은 AI 데이터센터와 같은 차세대 인프라 프로젝트에 자금을 직접 대출하거나, 관련 부채를 매입할 투자자를 모집하는 역할을 맡는다. 최근 전 세계적으로 AI 모델 학습과 운영에 필요한 데이터센터, 전력 인프라, 그래픽처리장치(GPU) 등 고성능 연산 자원 수요가 폭발적으로 증가하면서 금융권의 자금 공급 경쟁이 치열해지고 있다. 골드만삭스의 새로운 조직은 AI 인프라 외에도 유료도로·공항 등 전통 인프라 재건 및 신흥국 개발 프로젝트, 신재생에너지 및 액화천연가스(LNG) 생산설비, 각국의 국방비 증가에 따라 늘어난 군수산업 금융까지 포괄할 예정이다. 골드만삭스는 이미 자산운용 고객을 위한 다양한 금융상품을 확충하고 있으며 새 조직을 통해 일부 대출은 자체 보유하고 나머지는 보험사나 유동화 시장을 통해 분산시킬 계획이다. 이를 통해 대체투자 및 자산관리 부문의 성장 동력을 강화한다는 목표다. WSJ은 이번 조직 개편이 골드만삭스의 대출 기반 수익 다각화 전략의 일환이라고 분석했다. 실제로 회사의 채권·통화·상품(FICC) 금융 부문 수익은 지난해 1분기 6억5천100만 달러(약 9천275억원)에서 올해 분기당 10억 달러(약 1조4천억원)를 돌파하며 급성장했다. 골드만삭스는 "새로운 인프라 금융 조직은 AI와 에너지 전환 등 글로벌 메가트렌드에 대응하기 위한 핵심 플랫폼이 될 것"이라고 말했다.

2025.10.19 12:21한정호

[AI는 지금] 300억 달러 조달한 메타, 데이터센터 투자에 빚 부담 덜어낸 비결은?

글로벌 인공지능(AI) 시장 내 패권 잡기에 속도를 높이고 있는 마크 저커버그 메타 최고경영자(CEO)가 초대형 데이터센터 '하이페리온' 프로젝트를 위해 대규모 자금 유치에 성공했다. AI 경쟁이 연산력 중심으로 재편되는 상황에서 자본 효율성과 기술 주권을 동시에 잡는 전략을 취해 업계의 주목을 받고 있다. 17일 블룸버그통신에 따르면 메타는 미국 루이지애나주에 짓고 있는 '하이페리온' 데이터센터 부지 개발을 위해 300억 달러(약 41조원) 규모의 자금조달에 성공했다. 이는 민간 자본이 참여한 사상 최대 규모의 데이터 인프라투자로 평가된다. 이를 위해 앞서 미국 투자은행 모건스탠리는 270억 달러 부채와 25억 달러 지분을 묶어 특수목적법인(SPV)을 설립했다. 사모펀드 블루아울캐피털·핌코(PIMCO) 등 금융기관도 자금조달 파트너로 뛰어들었다. 이번 거래에서 메타는 블루아울캐피털과 하이페리온 부지를 공동 소유하되 20%의 지분만 유지키로 합의했다. 또 SPV 구조에 따라 메타가 직접 차입을 하지 않았다는 점에서 자금 부담도 다소 덜었다. 직접 돈을 빌리기보다 SPV가 자금을 차입하고 메타는 개발자·운영자·임차인 역할만 담당하는 식이다. 다만 일정 부분 자산 가치 보증 조건은 포함된 것으로 알려졌다.이로써 메타는 신용등급(AA-)을 유지하면서도 대규모 AI 인프라 투자를 이어갈 수 있는 구조를 확보했다. 또 외부 파트너와의 공동 개발로 기술 기업과 투자자들은 윈윈(win-win) 효과를 얻을 것으로 보인다. 블룸버그통신은 "AI와 데이터 수요 증가로 인해 대규모 차입은 점점 늘어나고 있는 추세"라며 "이번 일은 대형 테크기업들이 신용등급을 해치지 않으면서도 초대형 데이터센터를 개발할 수 있는 새로운 자금 조달 모델로 주목받고 있다"고 말했다. 실제 올해 9월 말까지 미국 채권시장에서 테크 기업들이 조달한 금액은 약 1천570억 달러로, 전년 동기 대비 70%나 증가했다. 메타는 전 세계에 29개 데이터센터 설립 및 운영 중으로, 올해만 AI 관련 인프라 프로젝트 등에 최대 720억 달러(약 102조원)의 자본을 지출할 예정이어서 부담이 큰 상태였다. 다른 빅테크들도 자금 부담을 덜기 위해 다양한 방안을 마련 중이다. 실제 오픈AI는 미국 내 데이터센터 구축을 위해 오라클과 수십억 달러 규모의 컴퓨팅 파워 공급 계약을 맺고 5년 단위의 확장 계획을 세우고 있다. 세계 최대자산운용사 블랙록과 엔비디아·마이크로소프트(MS)·xAI 등은 'AI 인프라 파트너십(AIP)'이라는 투자 컨소시엄을 꾸리고, 데이터센터 설계·운영사인 '얼라인드 데이터 센터'를 400억 달러(약 56조원)에 인수하기로 합의했다. 업계 관계자는 "AI 데이터센터 투자는 규모가 워낙 크기 때문에 기업들이 자금 확보에 대해 고민이 많다"며 "이번 일을 계기로 기업들이 재무제표에 직접 부채를 올리지 않고 자산을 분리하는 구조가 확산될 것"이라고 전망했다. 메타는 하이페리온 데이터센터를 통해 외부 클라우드 의존도도 낮출 것으로 기대하는 눈치다. 오는 2029년 완공되는 하이페리온 데이터센터는 메타가 전 세계에 보유한 약 25개 데이터센터 가운데 최대 규모다. 총 400만 제곱피트(약 37만㎡) 부지에 들어서며 완공 시 최대 5기가와트(GW)의 전력을 소모할 예정이다. 이는 미국 가정 400만 가구의 전력 사용량에 해당한다. 업계 관계자는 "이 시설은 메타의 AI 모델 학습·추론용 핵심 연산 허브가 될 것"이라며 "엔비디아 H100·B100급 그래픽처리장치(GPU) 수십만 개를 동시에 구동할 수 있는 규모로, 메타가 아마존웹서비스(AWS)나 MS 애저(Azure) 같은 외부 클라우드 의존도를 낮추고 자체 AI 인프라 비중을 높이려는 시도로 보인다"고 분석했다. 이어 "이는 곧 'AI 컴퓨트 주권' 확보로 이어질 것"이라며 "AI 모델의 크기가 급증하고 전력 수요가 폭증하는 상황에서 자체 인프라를 보유한 기업만이 지속 가능한 AI 경쟁력을 확보할 수 있기 때문"이라고 덧붙였다. 또 다른 관계자는 "AI 시장의 경쟁력은 더 이상 데이터나 알고리즘이 아닌 연산력·전력·자본 구조의 효율성으로 이동하고 있다"며 "메타의 이번 거래는 그 전환을 대표하는 사례"라고 봤다.

2025.10.17 17:35장유미

엔비디아 지원받는 美 스타트업, 에너지 자급형 AI 데이터센터 착공

엔비디아의 지원을 받는 풀사이드가 코어위브와 함께 미국 텍사스 서부에 초대형 데이터센터 단지를 짓는다. 전력 생산부터 인공지능(AI) 컴퓨팅까지 모두 자체적으로 해결하는 자급형 AI 허브를 구축한다는 목표다. 17일 월스트리트저널(WSJ)에 따르면 풀사이드와 코어위브는 텍사스 서부 유전지대의 대규모 목장 부지에 '호라이즌 프로젝트'를 추진한다. 부지 규모는 뉴욕 센트럴파크의 3분의 2에 달하는 약 200만 제곱미터(㎡)로, 축구장 300개 크기와 맞먹는다. 이 지역은 미국 내 최대 셰일가스 생산지인 퍼미언 분지 중심부로, 양사는 인근에서 생산되는 천연가스를 직접 활용해 데이터센터의 전력을 자체 공급하는 방식을 채택했다. 이번 프로젝트를 통해 풀사이드는 12월부터 코어위브가 제공하는 엔비디아 AI 컴퓨팅 리소스를 활용할 계획이다. 장기적으로는 최대 2기가와트(GW) 규모의 데이터센터를 함께 구축한다. 풀사이드는 현재 기업가치 140억 달러(약 19조원)를 목표로 20억 달러(약 2조8천억원) 규모의 투자 유치를 진행 중이다. 지난해에는 5억 달러(약 7천억원)를 조달하며 엔비디아가 전략적 투자자로 참여했다. 코어위브는 이번 프로젝트의 주요 입주사이자 핵심 고객으로 참여한다. 1단계로 250메가와트(MW) 규모의 데이터센터를 구축해 내년 말 완공을 목표로 하고 있으며 이후 500MW 규모로 확장하는 2단계 계획도 검토 중이다. 풀사이드는 코어위브와 함께 AI 컴퓨팅 인프라의 신속한 구축을 목표로 호라이즌 프로젝트에 박차를 가할 계획이다. 아이소 칸트 풀사이드 공동창업자는 "AI 인프라 경쟁의 핵심은 전력 규모가 아니라 얼마나 빠르게 실제 데이터센터를 지을 수 있느냐에 달려 있다"며 "우리 산업이 직면한 진짜 병목은 물리적 건설 속도"라고 말했다.

2025.10.17 14:54한정호

브로드컴, AI 네트워킹 칩 '토르 울트라' 공개

미국 반도체 기업 브로드컴이 인공지능(AI) 전용 네트워킹 칩 '토르 울트라(Thor Ultra)'를 공개하며, AI 인프라 시장을 무대로 엔비디아와의 경쟁을 한층 격화시키고 나섰다. 로이터는 AI 모델이 작동하는 데이터센터 내에서 수많은 연산 칩을 서로 연결할 수 있게 해 주는 핵심 연결장치 역할을 맡는다고 현지시간 14일 보도했다. 브로드컴 측은 이 칩이 기존 제품 대비 대역폭을 두 배 이상 강화했다고 밝혔다. 브로드컴은 이번 발표 직전인 13일 챗GPT 제작사 오픈AI에 대해 2026년 하반기부터 적용할 10GW(기가와트) 규모의 맞춤형 AI 칩을 공급하기로 한 파트너십을 발표한 바 있다. 이 계약은 AI 가속기 시장에서 엔비디아가 가진 지배력에 대한 도전으로 풀이된다. 브로드컴 최고경영자 호크 탄은 자사가 AI 관련 사업에서 겨냥하는 2027년 시장 규모로 600억~900억달러(약 85조~128조원)를 제시한 바 있다. 2024 회계연도 브로드컴의 AI 매출은 약 122억달러(17조4천167억원) 수준이었다. 또 최근에는 AI 데이터센터 맞춤형 칩 수주 규모가 100억 달러에 달하는 새 고객을 확보한 사실도 알려졌다. 네트워킹 칩은 데이터센터 운영에서 '정보의 흐름'을 관리하는 핵심 인프라 요소로, 클라우드 기업들이 대규모 AI 시스템을 구축할 때 필수적이다. 브로드컴은 구글과 협업해 AI 칩 설계에도 참여해 왔으며, 회사는 네트워킹 칩과 AI 칩이라는 두 축으로 수익을 다변화하고 있다. 브로드컴 관계자는 “분산형 클러스터 환경에서 네트워크는 대규모 연결을 가능케 하는 핵심 요소”라며 “GPU 업체가 네트워킹 분야까지 진입하려는 것은 당연한 흐름”이라고 말했다.

2025.10.15 11:26전화평

3분기 외국인직접투자 18% 감소 206.5억 달러…AI·데이터센터 등 정보통신은 늘어

산업통상자원부는 3분기(7~9월) 누적 외국인직접투자 신고액이 지난해 같은 기간보다 18% 감소한 206억5천만 달러, 도착액은 2% 감소한 112억9천만 달러를 기록했다고 15일 밝혔다. 유법민 산업통상부 투자정책관은 “2025년 3분기 투자신고는 18% 감소한 206억5천만 달러로 작년 3분기 역대 최대 투자신고 실적(251억8천만 달러) 달성에 따른 역기저 효과가 나타나며 투자 의향을 의미하는 투자신고는 지난해 같은 기간 보다 감소했지만 지난 5년 평균 누적 3분기 신고 수준인 203억5천만 달러를 소폭 상회했다”고 설명했다. 유형별로는 그린필드 신고가 6.1% 감소한 177억7천만 달러, 인수합병(M&A) 신고는 M&A 시장 위축에 따른 대형 인수 건이 줄어들며 54% 감소한 28억8천만 달러를 기록, 전체적인 투자 신고감소 원인으로 작용했다. 국가별로는 미국이 화공·유통·정보통신 업종 중심으로 투자가 유입되며 58.9% 증가한 49억5천만 달러를 기록한 반면에 뗘는 36.6% 감소한 25억1천만 달러, 중국과 일본은 각각 36.9%와 22.8% 감소한 28억9천만 달러와 36억2천만 달러에 그쳤다. 업종별로는 제조업이 29.1% 감소한 87억3천만 달러를 기록했다. 운송용 기계(8억8천만 달러, 27.2%), 기타 제조(2억 달러, 93.4%) 등에서 증가하고 전기·전자(28억5천만 달러, 36.8%), 화공(24억3천만 달러, 13.8%) 등에서 감소했다. 서비스업은 유통(20억8천만 달러, 122.5%), 정보통신(17억9천만 달러, 25.7%) 업종 위주로 신고가 증가하고 금융·보험(41억3천만 달러, 43.6%) 등에서 하락해 전체적으로 6.9% 감소한 111억1천만 달러를 기록했다. 3분기 투자도착은 2% 감소한 112억9천만 달러로 지난해 3분기 수준을 소폭 하회했다. 지역경제 활성화와 고용 창출 효과가 있는 그린필드 도착이 23% 증가한 82억1천만 달러를 기록한 반면에 M&A 자금도착은 36.5% 감소한 30억7천만 달러에 그쳤다. 국가별로는 미국(29억9천만 달러, 99.7%)과 중국(4억5천만 달러, 35.5%) 도착이 증가한 반면에 EU(24억8천만 달러, 41.8%), 일본(4억5천만 달러, 60.5%) 도착은 감소했다. 업종별로는 제조업(29억7천만 달러, 25.5% 감소)은 화공(13억6천만 달러, 80.9%)과 운송용기계(1억4천만 달러, 6.9%) 등의 분야에서 투자 유입이 증가하고 전기·전자(7억9천만 달러, 37.7%)와 기계장비·의료정밀(3억1천만 달러, 43.3%) 등에서 감소했다. 서비스업은 유통업(15억4천만 달러, 210.3% 증가), 정보통신(10억8천만 달러, 24.1% 증가) 등의 업종 덕분에 10.3% 증가한 78억6천만 달러를 기록했다. 특히, AI 관련 데이터센터·자율주행 소프트웨어·로보틱스 등 정보통신업을 중심으로 AI 분야 도착이 이어졌다. 유법민 국장은 “상반기 국내 정치상황 불안과 미국 통상정책 불확실성 지속, M&A 시장 위축으로 인한 대형 M&A 감소로 3분기 누적 신고실적은 감소했으나 정보통신 분야 중심 AI 분야 투자가 지속돼 한국 경제의 펀더멘탈에 대한 외국인 투자가들의 신뢰가 유지되고 있는 것으로 보인다”고 분석했다. 산업부는 외국인투자 유치를 위해 현금·입지지원 등 다양한 인센티브를 활용해 국내외 잠재적 투자기업 발굴·유치를 지속할 계획이다. 특히 AI, 반도체, 소재·부품·장비 등 그린필드 첨단산업을 타겟팅한 해외 IR, 국내 진출 외투기업을 대상으로 추가 투자 수요를 발굴하는 지역순회 IR 등 다양한 국내·외 투자유치 활동을 전개할 예정이다.

2025.10.15 11:22주문정

韓서 인색한 구글, 印 투자는 '펑펑'…14조 데이터센터 건설 추진

구글이 인도 남부에 14조원 이상 투자해 데이터센터 구축에 나선다. 한국에선 고정밀지도 데이터 국외반출 허용을 요구하면서도 데이터센터는 안 짓겠다는 구글이 인도에선 대규모 투자에 나서 논란이 예상된다. 14일 블룸버그통신에 따르면 구글은 인도에 향후 5년간 AI 인프라 허브 구축을 위해 약 150억 달러를 투자할 계획이다. 이는 구글이 인도에 단행한 최대 규모의 투자다. 특히 남부 안드라프라데시주 항구도시 비샤카파트남에는 2년 이내에 100억 달러(약 14조2천730억원)를 투자해 1GW(기가와트) 규모 데이터센터를 지을 예정이다. 고탐 아다니 아다니커넥스는 "이 프로젝트에 구글과 함께 참여할 것"이라며 "인도 2위 이동통신사 바르티 에어텔도 협력할 것"이라고 말했다. 이번 프로젝트를 통해 이 지역은 인도 정부의 AI 산업 가속화 계획의 핵심 거점이 될 것으로 보인다. 안드라프라데시 주 정부는 오는 2029년까지 데이터센터 용량을 6GW로 확대하는 것을 목표로 하고 있다. 데이터센터 단지는 AI 인프라와 대규모 전력망 등도 갖춘다. 구글까지 데이터센터 투자에 나서면서 인도는 AI 수요 급증 속 최대 수혜국 중 하나로 급부상했다. 앞서 '챗GPT' 개발사인 오픈AI는 남부 지역에 1GW 규모 데이터센터 설립을 위해 부지 물색에 나섰고, 아마존도 2030년까지 127억 달러(약 18조1천293억원)를 투자해 클라우드 인프라를 구축키로 했다. 상업용부동산서비스업체 CBRE그룹에 따르면 인도 데이터센터 시장 규모는 2027년까지 1천억 달러(약 142조7천700억원) 규모로 성장할 것으로 추정된다. 나라 로케시 인도 안드라프라데시주 인적자원개발부 장관 "비사카파트남 데이터센터만 해도 구글의 투자액이 100억 달러를 넘는다"며 "이건 단순히 일자리 창출의 문제가 아닌 그보다 더 큰 파급 효과와 경제 활동을 일으키는 것"이라고 강조했다. 토머스 쿠리안 구글 클라우드 최고경영자(CEO)는 "이 AI 허브는 완전한 AI 인프라를 제공하도록 설계됐다"며 "구글 자체의 필요뿐 아니라 인도 내 기업가, 기업, 기관들의 수요까지 충족할 것"이라고 밝혔다. 반면 구글은 한국 투자에는 상당히 인색한 모습을 보이고 있다. 국내에서의 수익 극대화를 위해 '정밀지도 국외 반출'을 요청하면서도 정부의 요구는 정작 수용하지 않고 있어서다. 국내 업계는 지도 데이터가 저장된 데이터센터와 같은 고정 사업장을 국내에 둬야 정부가 위성사진 수정·지도 정보 문제점을 법적으로 통제할 수 있다고 보고 있다. 정부 역시 국내 데이터센터 설치를 반출 조건으로 내걸었다. 하지만 구글은 데이터센터를 특정 지역에 설치하는 것은 다양한 요인을 고려해 결정할 사안이라고 강조하고 있다. 또 정부의 반출 조건 대부분을 수용하면서도 국내 데이터센터 설치는 안된다는 방침을 고수하고 있다. 유영석 구글 코리아 커뮤니케이션 총괄은 지난 달 9일 기자간담회에서 "구글 지도는 전 세계 20억 명의 사용자가 동시에 접속하는 서비스로 막대한 컴퓨팅 파워가 필요하다"며 "이를 위해 세계에 분산된 데이터센터에서 동시다발적으로 처리해야 한다"고 설명했다. 일각에선 구글이 데이터센터를 만들지 않으려는 것이 한국에서 법인세를 납부하지 않기 위한 회피책이라고 보고 있다. 국내 온라인 플랫폼 서비스 이용자 10명 중 7명은 구글과 같은 글로벌 빅테크의 국내 법인세 납부 회피가 부당하다고 생각하는 것으로 나타났다. 구글은 망 사용료와 관련해서도 최대 3천500억원을 지난해 납부하지 않은 것으로 알려졌다. 국회 과학기술정보방송통신위원회 소속 최수진 의원은 "망 이용에 따른 대가 지불은 시장의 합리적 질서임에도 구글이 압도적인 세계 시장 지배력을 무기로 돈을 내지 않고 연간 약 2천억∼3천억원 이상의 '공짜 혜택'을 누리는 것은 전형적인 시장 실패 사례"라며 "국내 정보통신기술(ICT) 기업에 대한 역차별 문제를 해소하려면 '망 무임승차 방지법' 통과와 함께 기업 간 망 이용 계약 협상 과정에서 정부의 적극적인 중재가 필수적"이라고 강조했다.

2025.10.14 17:42장유미

[AI는 지금] 脫 엔비디아 노린 오픈AI, 브로드컴과 일 낸다…삼성·SK도 득 볼까

엔비디아 의존도를 낮추기 위해 본격 나선 오픈AI가 브로드컴과 자체 인공지능(AI) 칩셋 개발을 공식화하며 대형 데이터센터 구축에 속도를 낼 것으로 보인다. 이번 일은 직접 계약을 맺은 브로드컴뿐 아니라 브로드컴에 고대역폭메모리(HBM)를 공급하는 반도체 업계에도 호재로 작용할 전망이다. 14일 블룸버그통신에 따르면 '챗GPT' 개발사인 오픈AI는 브로드컴과 맞춤형 칩셋 및 네트워킹 장비 개발을 위해 협력한다. 이를 위해 오픈AI는 수백억 달러 규모의 투자를 진행할 예정으로, 하드웨어 설계에도 직접 나선다. 오픈AI는 내년 하반기부터 관련 장비가 탑재된 서버 랙을 설치하기 시작해 총 10기가와트(GW) 규모 데이터센터 구축에 나설 계획이다. 10GW는 원전 10개에 해당하는 전력량으로, 뉴욕시의 전체 전력 소모량과 비슷하다. 하드웨어 구축은 2029년 말 완료될 예정으로, 오픈AI 맞춤형 AI 칩셋이 장착될 랙에는 브로드컴 이더넷, PCIe 및 광 연결 솔루션이 포함된다. 브로드컴은 맞춤형 하드웨어가 탑재된 서버랙을 오픈AI 또는 오픈AI의 클라우드 파트너가 운영하는 시설에 배치할 예정이다. 그렉 브록먼 오픈AI 공동창업자 겸 사장은 "10GW의 컴퓨팅 파워만으로는 인공일반지능(AGI) 달성이라는 우리의 비전을 실현하기에는 턱없이 부족하다"며 "이는 우리가 가야 할 길에 비하면 아주 작은 시작에 불과하다"고 말했다. 오픈AI와 브로드컴의 협업설은 그간 꾸준히 제기돼 왔다. 특히 혹 탄 브로드컴 최고경영자(CEO)가 지난 달 실적 발표에서 고객명은 언급하지 않고 대규모 계약을 체결했다고 밝힌 후 시장에서는 오픈AI라는 추측이 제기된 바 있다. 이번에 양 사가 구체적인 공급 시기, 물량 등을 공개하며 계약 체결을 공식화하면서 반도체 업계에도 화색이 돌고 있다. 특히 브로드컴 주가는 이날 뉴욕 증시에서 9.88% 급등해 눈길을 끌었다. 덩달아 엔비디아는 2.82%, TSMC와 마이크론은 각각 7.92%, 6.15% 올랐다. 일각에선 브로드컴에 SK하이닉스와 삼성전자가 HBM을 공급하고 있다는 점에서 향후 수혜를 입을 것이란 기대감도 내비쳤다. SK하이닉스는 HBM3E 공급 계약을 체결한 상태로, 내년 하반기부터 일부 HBM4 물량을 브로드컴에 공급할 계획으로 알려졌다. 삼성전자도 브로드컴에 HBM3E를 공급 중으로, 브로드컴을 비롯한 주요 반도체 설계사와 차세대 HBM4 공급을 현재 논의 중이다. 샘 알트먼 오픈AI CEO가 지난 1일 방한해 이재용 삼성전자 회장, 최태원 SK그룹 회장과 만남을 가진 것도 긍정적인 요소다. 이 때 삼성전자, SK하이닉스는 오픈AI가 주도하는 초거대 AI 인프라 구축 프로젝트인 '스타게이트'의 핵심 파트너로 합류했다. 오는 2029년까지 5천억 달러(약 700조원)를 들여 세계 곳곳에 짓는 AI 데이터센터에 두 회사의 최신 HBM 등 첨단 반도체가 대거 들어간다는 점에서 기대감이 커지고 있다. 오픈AI는 두 회사에 웨이퍼 기준 월 최대 90만 장 규모의 HBM 공급을 요청한 것으로 알려졌다. 이는 전 세계 HBM 생산 능력의 두 배가 넘는 수준으로, 올해 HBM 시장 규모가 340억 달러(약 48조원)인 것을 감안하면 100조원 넘는 신규 수요가 생기는 셈이다. 오픈AI의 이 같은 움직임은 엔비디아 의존도를 낮추기 위한 것으로 분석된다. 현재 AI 반도체 시장은 엔비디아가 80% 이상을 장악, 그래픽처리장치(GPU) 공급·가격 결정까지 주도하고 있다. 오픈AI는 AMD에 이어 브로드컴과도 계약에 나서면서 공급망 다변화와 연산 자립 기반을 마련하며 엔비디아의 독점 구조를 깨기 위해 노력 중이다. 그러나 컴퓨팅 자원 부족 문제가 심화되면서 올 들어 엔비디아와도 꾸준하게 협업을 이어가고 있다. 지난 달 엔비디아가 오픈AI의 새로운 인프라 구축을 지원하기 위해 최소 10GW 규모의 컴퓨팅 용량 확보를 목표로 최대 1천억 달러를 투자한다고 발표한 것이 대표적이다. AMD와도 지난 주 6GW 규모의 프로세서 도입을 위해 협력키로 했다. 다만 업계에선 오픈AI가 이에 투입될 대규모 자금을 어떻게 마련할 지에 대해 의문을 품고 있다. 현재 1GW의 AI 컴퓨팅 용량을 구축하려면 칩 비용만 약 350억 달러가 소요되는데, 10GW면 3천500억 달러 이상이다. 이번 브로드컴과의 계약은 지분 투자나 주식 교환이 포함되지 않아 엔비디아와 AMD와의 협력과는 차별화된다. 두 회사는 칩 구매 자금 조달 방식에 대해서는 언급을 피했지만, 더 많은 컴퓨팅 파워 확보를 통해 서비스 매출을 확대하는 것으로 자금 조달 계획을 세우고 있는 것으로 보인다. 오픈AI는 지금까지 여러 건의 대형 투자를 유치하며 급속도로 성장해왔으나, 막대한 현금을 투입해 오는 2030년쯤에야 흑자를 낼 것으로 관측됐다. 업계 관계자는 "오픈AI가 자체 칩셋 개발에 나선 이유는 비용 절감과 효율성 확대 때문"이라며 "투자 유치·협력과 별개로 엔비디아·AMD 밖으로 GPU 선택지를 넓히려는 의도도 있다"고 분석했다. 그러면서 "오픈AI가 브로드컴·오라클·AMD·코어위브 등과 발표한 AI 인프라 투자 규모는 이미 1조 달러를 훌쩍 넘어섰다"며 "현재로선 오픈AI의 공격적인 인프라 계약이 실제 이뤄질 수 있을지 의문"이라고 덧붙였다.

2025.10.14 16:05장유미

'반도체 훈풍' 맞은 삼성전자, 4분기도 수익 성장 예고

삼성전자가 올 3분기 업계 예상을 웃도는 호실적을 기록했다. 전 세계 AI 인프라 투자 확대에 따라 고부가 D램 수요가 확대되는 한편, 파운드리 가동률도 점진적인 회복세를 보이고 있다. 4분기에도 메모리 가격 상승 및 출하량 확대가 예상되는 만큼, 삼성전자 반도체 사업의 수익성은 더 개선될 전망이다. 14일 삼성전자는 올 3분기 연결기준으로 매출 86조원, 영업이익 12조1천억원의 잠정 실적을 기록했다고 공시했다. 전기 대비 매출은 15.33%, 영업이익은 158.55% 증가했으며, 전년동기 대비 매출은 8.72%, 영업이익은 31.81% 증가했다. 또한 이번 실적은 증권가 컨센서스인 10조1천419억원을 크게 상회하는 수준이다. 업계는 이번 호실적의 배경으로 주요 사업인 DS(반도체) 분야의 수익성 확대를 지목하고 있다. DS부문의 3분기 영업이익은 7조원 내외로 추산된다. 해당 분기 AI 서버를 중심으로 D램 가격 및 출하량이 증가했으며, HBM(고대역폭메모리)도 용량 기준으로 10억 초중반대의 Gb(기가비트) 출하량으로 전분기 대비 성장을 기록한 것으로 분석된다. 지난해 4분기 이후 3개분기 연속 2조원대의 적자를 기록했던 비메모리 사업도 올 3분기 적자폭이 1조원대로 축소되는 등 회복세를 보이고 있다. 7나노미터(nm) 등 주력 공정의 고객사 확보, 내부 모바일 AP(애플리케이션 프로세서)·CIS(CMOS 이미지센서) 생산량 확대로 가동률이 상승한 덕분이다. 4분기에는 반도체 부문의 수익성이 더 크게 개선될 전망이다. 시장조사업체 트렌드포스에 따르면 4분기 전체 D램의 평균판매가격은 전분기 대비 13~18%의 상승세가 예상된다. 트렌드포스는 "주요 CSP(클라우드서비스제공자) 기업들이 내년 서버용 D램 수급을 크게 늘릴 것으로 예상된다"며 "반면 공급업체들은 HBM4(6세대 HBM)에 생산능력을 크게 할당하고 있어, DDR5 공급은 여전히 불안정한 상황"이라고 설명했다. 반도체 업계 관계자는 "4분기에도 D램·낸드 시장이 성장할 것으로 예상되고, HBM은AMD 등 주요 고객사향 출하량이 전분기 대비 상승할 전망"이라며 "올 하반기 뿐만이 아니라 내년까지 메모리 사업의 구조적인 호황이 예상되는 상황"이라고 말했다.

2025.10.14 11:02장경윤

TI, 엔비디아 등 협력사와 AI 데이터센터 아키텍처 구축 지원

텍사스인스트루먼트(TI)는 13일부터 16일까지 미국 캘리포니아 새너제이에서 개최되는 오픈 컴퓨트 서밋(OCP)에서 새로운 설계 리소스와 전력 관리 칩을 공개한다고 14일 밝혔다. TI는 이번 발표를 통해 인공지능(AI) 연산 수요를 충족하고 전력 관리 아키텍처를 12V에서 48V, 800VDC까지 확장할 수 있도록 지원하는 전력 관리 솔루션을 제시한다. 먼저 백서 '첨단 AI 컴퓨팅 성장을 대비한 전력 공급의 트레이드오프'에서는 엔비디아와의 협업을 통해 800VDC 전력 아키텍처를 지원하는 솔루션 개발 방향을 공개한다. 향후 2~3년 내 IT 랙 전력이 1MW를 초과할 것으로 예상되는 만큼, TI는 고효율·고전력 밀도 에너지 변환을 실현하기 위한 전력 공급 구조의 재검토와 시스템 수준의 설계 과제를 다룬다. 또한 고부하 AI 워크로드를 위한 30kW AI 서버 전원 공급 유닛 설계도 함께 공개한다. TI의 듀얼 스테이지 전원 공급장치 레퍼런스 설계는 3상 3레벨 플라잉 커패시터 역률 보정(PFC) 컨버터와 듀얼 델타-델타 3상 인덕터-인덕터-커패시터(LLC) 컨버터로 구성돼 있으며, 단일 800V 출력 또는 분리된 출력 구성 모두를 지원한다. TI는 또한 여러 첨단 전력 장치를 선보인다. 5mm×5mm QFN 패키지에 두 개의 전력 단을 통합한 2상 스마트 전력 스테이지 CSD965203B는 위상당 최대 100A의 피크 전류를 제공하며, 시장에 출시된 제품들 중 가장 높은 피크 전력 밀도를 구현한다. 엔지니어는 이 장치를 통해 소형 PCB 내에서도 위상 수와 전력 용량을 쉽게 확장할 수 있다. 또한 2상 스마트 전력 모듈 CSDM65295은 9mm×10mm×5mm의 소형 패키지에서 최대 180A의 피크 전류를 제공하며, 두 개의 전력 단계와 인덕터를 트랜스 인덕터 전압 조절(TLVR) 옵션과 함께 통합해 높은 효율과 우수한 열 성능을 구현한다. 또한 질화갈륨(GaN) 기반 중간 버스(Bus) 컨버터 LMM104RM0는 58.4mm×36.8mm 크기의 쿼터 브릭 폼팩터에서 최대 1.6kW의 출력을 제공하며, 97.5% 이상의 입력-출력 변환 효율을 달성한다. 이 디바이스는 경부하 구간에서도 높은 효율을 유지하며, 여러 모듈 간의 능동 전류 공유를 가능하게 한다. 최신 AI 데이터 센터는 효율적인 전력 관리, 센싱, 데이터 변환을 위해 다양한 핵심 반도체 솔루션을 필요로 한다. TI는 새로운 설계 리소스와 폭넓은 전력 관리 포트폴리오를 기반으로 데이터센터 설계자와 협력해 발전소의 전력 생성부터 GPU의 로직 게이트에 이르기까지 효율적이고 안전한 전력 관리를 구현할 수 있도록 지원한다. 크리스 수코스키 TI 데이터센터 부문 총괄 매니저는 “데이터센터는 AI의 확산과 함께 단순한 서버 공간을 넘어 고도화된 전력 인프라의 중심으로 진화하고 있다. 이러한 수요를 충족하기 위해서는 확장 가능한 전력 인프라와 높은 전력 효율이 필수적"이라며 "TI의 새로운 전력 관리 솔루션은 설계자들이 800VDC 전환을 지원하는 첨단 전력 아키텍처를 보다 쉽게 구현할 수 있도록 돕는다”고 말했다. TI는 이번 OCP를 통해 최신 전력 관리 기술을 소개하고, 데이터센터 전력 아키텍처의 미래 방향을 제시한다. 전시는 OCP 부스 C17번에서 진행되며, 15일에 데셩 궈 TI 시스템 및 애플리케이션 엔지니어가 '첨단 데이터센터 AC/DC 분배 및 변환 전력 아키텍처'를 주제로 발표한다. 또한 같은 날 프라딥 셰노이 TI 컴퓨팅 파워 기술 책임자는 '미래 데이터센터를 위한 직렬 스택 전력 공급 아키텍처'를 주제로 포스터 세션을 진행한다.

2025.10.14 09:44장경윤

마이크로칩, 업계 최초 3나노 공정 PCIe Gen 6 스위치 출시

마이크로칩테크놀로지는 차세대 스위치텍(Switchtec) Gen 6 PCIe 스위치 제품군을 출시한다고 14일 밝혔다. 스위치텍 Gen 6 제품군은 업계 최초로 3나노미터(3nm) 공정으로 제조된 PCIe Gen 6 스위치로, 전력 소비를 줄이고 고밀도 AI 시스템 연결을 위해 최대 160레인을 지원하도록 설계됐다. 또한 하드웨어 루트 오브 트러스트와 보안 부팅 등 고급 보안 기능을 포함하며, CNSA 2.0(상업용 국가보안알고리즘)을 준수하는 포스트 퀀텀 안전(Post-Quantum Safe) 암호 기술을 채택해 강화된 보안을 제공한다. 이전 세대의 PCIe 기술은 CPU, GPU, 메모리, 스토리지 간 데이터 전송에서 대역폭 병목 현상을 일으켜 데이터의 활용도가 떨어지고 불필요한 연산 사이클이 발생하는 문제를 초래했다. 새로운 PCIe 6.0 표준은 PCIe 5.0 대비 두 배인 레인당 64GT/s의 대역폭을 제공해, 가장 강력한 AI 액셀러레이터(AI Accelerator)에 안정적으로 데이터를 공급할 수 있는 필수 데이터 파이프라인을 제공한다. 스위치텍 Gen 6 PCle 스위치는 CPU, GPU, SoC, AI 액셀러레이터, 스토리지 간의 고속 연결을 구현하며, 데이터센터 설계자들이 차세대 AI 및 클라우드 인프라의 잠재력을 최대한 활용할 수 있도록 지원한다. 브라이언 멕카슨 마이크로칩 데이터센터 솔루션 사업부 부사장은 “AI 시대의 급속한 혁신은 데이터센터 아키텍처가 기존의 전통적 설계에서 벗어나, 컴퓨팅 자원을 공유하는 풀 기반 아키텍처로 전환하도록 이끌고 있다”고 말하며 “마이크로칩은 검증된 스위치텍 제품 라인을 PCIe 6.0으로 확장함으로써 주요 컴퓨팅 리소스 간의 직접적 통신이 용이해지도록 변화를 지원하고 있으며, 지금까지 생산한 것 중 전례 없는 가장 강력하고 에너지 효율적인 스위치를 제공하게 됐다”고 말했다. 스위치텍 Gen 6 스위치는 고성능 인터커넥트로서 서버 랙에서 GPU 간 간단하고 직접적인 연결을 가능케 해 신호 손실을 최소화하고 AI 패브릭이 요구하는 낮은 지연시간을 유지하는데 중요하다. PCIe 6.0 표준은 플로우 컨트롤 유닛(FLIT) 모드, 경량 순방향 오류 수정(FEC) 시스템, 동적 자원 할당 기능을 새롭게 도입해 특히 AI 워크로드에서 흔한 소규모 패킷의 데이터 전송의 효율성과 안정성을 대폭 향상시켰다. 그 결과 전체 처리량은 증가하고, 실효 지연은 감소한다. 스위치텍 Gen 6 PCIe 스위치는 20개의 포트와 10개의 스택을 갖추고 있으며, 각 포트는 핫플러그 및 서프라이즈 플러그 컨트롤러를 내장하고 있다. 또한 멀티 호스트 도메인을 연결하고 분리할 수 있는 논트랜스페어런트 브리징(NTB)과 단일 도메인 내 1:N 데이터 분배를 위한 멀티캐스트도 지원한다. 이 스위치는 고급 오류 격리 기능, 종합적인 진단 및 디버깅 기능, 다양한 I/O 인터페이스, 그리고 x8 및 x16 분기 옵션을 제공하는 통합 MIPS 프로세서로 설계되었다. 입출력 기준 클록은 각 스택별로 4개의 입력 클록을 사용하는 PCIe 스택 기반이다. 마이크로칩의 전체 PCIe 스위치 포트폴리오에 대한 자세한 내용은 웹사이트를 방문하면 확인할 수 있다.

2025.10.14 09:44장경윤

GS칼텍스, 데이터센터용 직접액체냉각유체 출시

GS칼텍스가 액체냉각의 두 가지 방식인 액침냉각과 직접액체냉각 시장에 모두 진출하게 됐다. GS칼텍스는 데이터센터 산업 분야 에너지 효율화를 위한 직접액체냉각유체 '킥스 DLC 플루이드 PG25'를 출시했다고 14일 밝혔다. GS칼텍스가 이번에 출시한 직접액체냉각유체 '킥스 DLC 플루이드 PG25'는 인체와 환경에 미치는 영향을 최소화하기 위해 화장품 원료로 널리 사용되는 프로필렌글라이콜과 부식 방지 기능이 우수한 유기산(OAT) 첨가제를 활용해 개발했다. 직접액체냉각은 서버 내 중앙처리장치(CPU)나 그래픽처리장치(GPU) 같은 고발열 전자부품에 냉각판을 부착하고 그 안으로 직접액체냉각유체를 순환시켜 냉각하는 기술이다. 액침냉각유에 전자기기를 담가 냉각하는 액침냉각과 함께 최근 데이터센터 산업 분야에서 주목하고 있는 냉각 기술이다. 액침냉각과 직접액체냉각 모두 기존 공기 냉각보다 에너지 효율이 높다. 액체냉각 중에서는 액침냉각이 서버 전체적으로 에너지 효율이 더 높은 기술이지만, 직접액체냉각은 서버 내 발열량이 특히 높은 CPU, GPU와 같은 국소적 냉각에 보다 효과적인 특징을 가지고 있어 사용자의 목적 및 환경에 따라 선택적으로 사용할 수 있다. GS칼텍스 관계자는 “향후 직접액체냉각유체와 액침냉각유 등 액체냉각 제품을 활용하여 데이터센터를 비롯한 다양한 산업분야별 고객사들과 협력해 에너지 효율화를 위한 노력을 지속해 나가겠다“고 밝혔다. 한편, GS칼텍스는 이번 직접액체냉각유체 출시 이전에 2023년 국내 최초로 액침냉각유 '킥스 이머전 플루이드 S'를 출시한 이후, 액침냉각유 기술 개발, 제품 실증, 시장 확대를 위해 국내외 데이터센터 산업 생태계 내 기업들과 협력을 진행해왔다. 2024년에는 삼성SDS 데이터센터에, 올해는 LG유플러스 평촌 데이터센터에 액침냉각유를 공급하고 실증해왔다. 또한 미국에 본사를 둔 글로벌 서버 제조 회사 슈퍼마이크로컴퓨터와 협력해 올해 GS칼텍스 대전 기술연구소 내 액침냉각 시스템을 구축하고 AI 서버를 대상으로 열관리 성능 및 안정성 평가를 자체 진행하고 있다. 지난달에는 GS건설 및 SDT와 데이터센터 에너지 사용량 저감을 위한 액침냉각 기술 개발 및 실증을 추진하고 있다. GS칼텍스는 액침냉각유를 공급하고, 액침냉각유 활용 전주기에 걸쳐 필요한 기술 솔루션을 제공하기로 했다. GS건설은 대규모 액침냉각시스템 도입을 고려한 데이터센터 설계 기술과 사전 제작된 모듈을 현장에서 조립하는 프리패브 공법이 결합된 액침냉각형 데이터센터 설계 기술을 개발하고 실증을 진행한다. SDT는 액침냉각 시스템인 '아쿠아랙'을 공급하고, 시스템 실증 운영 및 최적화를 통해 실증 데이터를 확보하고 에너지 저감 효과를 검증할 계획이다.

2025.10.14 09:01류은주

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 낸드 계열사 지분 中에 전량매각…고부가 메모리 집중

[지디 코믹스] 판교 대기업 다니는 김부장 딸 결혼식

아우디, F1 첫 진출 앞두고 '레이싱 머신' 디자인 콘셉트 공개

이재명, 재계 총수와 주말 회동…팩트시트 후속 논의

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.