• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (124건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

노타, 유탑소프트와 온디바이스 AI 튜터 개발 '맞손'…비용 효율화 실현

노타가 인공지능(AI) 에듀테크 기업 유탑소프트와 손잡고 온디바이스 AI 튜터 개발에 나선다. 노타는 지난 18일 유탑소프트와 온디바이스 AI 기반 교육 서비스 사업 협력을 위한 양해각서(MOU) 체결식을 진행했다고 19일 밝혔다. 이번 체결식은 유탑소프트가 보유한 교육 업체 대상 AI 튜터 개발 역량과 노타의 AI 경량화 기술을 결합해 교육 전용 디바이스에 최적화된 생성형 AI 기반 AI 튜터 서비스를 상용화하고자 마련됐다. 양사가 구상 중인 온디바이스 AI 튜터는 외부 서버를 거치지 않고 태블릿 기기 자체에서 AI 튜터가 구동되는 방식을 기본으로 하되, 추론의 결과가 많이 필요한 경우에 한해 외부 서버와 연동하는 하이브리드 방식의 적용이 검토되고 있다. 기존 생성형 AI 기반 서비스의 고질적인 문제로 꼽히는 ▲막대한 서버 운영 비용 ▲네트워크 지연 속도 ▲데이터 보안 문제를 효율적으로 개선한다는 목표다. 향후 협력이 구체화되면 유탑소프트는 우선적으로 영어 스피킹 특화 AI 튜터 모델과 거대언어모델(LLM) 기반 문제은행 특화 AI 튜터 모델의 기획과 개발을 주도할 계획이다. 이에 맞춰 노타는 자사 핵심 기술인 AI 모델 최적화 플랫폼 '넷츠프레소'를 활용해 데이터 기반 파인튜닝 및 해당 AI 튜터 모델을 태블릿 등의 하드웨어(HW) 성능에 맞춰 압축·최적화하는 과정에서 긴밀히 협력해 나갈 방침이다. 이를 통해 구현되는 AI 튜터 솔루션은 학생 사용자수 증가에 따라 기하급수적으로 늘어나는 AI 서비스 운용 비용을 획기적으로 절감할 수 있을 것이라는 게 회사 측 설명이다. 또 인터넷 연결이 원활하지 않은 환경에서도 학생들이 끊김 없이 AI 튜터의 질문·답변 서비스를 이용할 수 있어 학습 효율성을 극대화할 전망이다. 김성범 유탑소프트 대표는 "노타와의 협력은 에듀테크 시장의 화두인 비용 효율화와 개인화 교육을 동시에 실현하는 계기가 될 것"이라며 "교육 업체가 고비용의 LLM 도입으로 발생되는 운영 비용의 부담을 하이브리드 지원 온디바이스 AI 튜터를 통해 합리적이고 안전한 솔루션을 교육 업체에 제공하겠다"고 밝혔다. 채명수 노타 대표는 "교육 업체를 위한 AI 서비스 모델 경량화는 HW 제약이 많은 모바일 교육 환경에서 필수적인 기술"이라며 "유탑소프트의 풍부한 교육 서비스 구축 경험이 우리의 온디바이스 AI 기술과 만나 실제 교육 현장에서 의미 있는 혁신 사례를 만들 수 있도록 적극 지원하겠다"고 말했다.

2025.12.19 15:32한정호

지난해 PCB 시장 규모 117조원…中 점유율 60% 압도적 1위

한국 PCB 및 반도체패키징 산업협회(KPCA)는 세계 각국 유관 협회와 PCB(인쇄회로기판) 생산량을 총집계한 '2024년 글로벌 PCB 생산 보고서'를 발간했다고 18일 밝혔다. KPCA협회는 전세계 각국 회원들로부터 매년 생산 데이터를 취합하고, 이를 글로벌 시장 분석에 반영하는 역할을 수행하고 있다. 한국은 IC(집적회로) 패키지 기판, 고다층PCB 분야에서 중요한 글로벌 공급국으로 자리매김하고 있어, KPCA의 데이터 기여도는 전세계 보고서에서 높은 신뢰도를 가진 것으로 평가된다. 2024년 전 세계 PCB 총생산 규모는 117조5천517억원(861억7천200만 달러)으로 집계됐다. 중국이 전체의 60% 이상(71조4천707억원)을 차지하며 압도적인 생산국 지위를 유지했으며, 대만·한국·일본은 첨단 패키징 중심 고부가가치 제품 공급국으로 뒤를 이었다. 한국은 12조6천402억원 규모로 세계 4위 PCB 생산국을 기록했으며, 특히 IC 기판 분야에서 강력한 경쟁력을 보였다. 대만과 일본은 고신뢰성 및 반도체용 패키징 기판 중심의 안정적인 생산 체제를 유지했다. 북미·유럽은 방산 및 산업용PCB 중심의 제한적 시장 체제를 유지하고 있으며, 인도·기타 아시아는 '차이나+1' 전략 확산으로 성장세가 본격화되고 있다. 전체 시장 중 고다층(MLB), HDI, IC Substrate 등 첨단 패키징용 제품이 절반 이상을 차지하며, 반도체 패키징 고도화가PCB 산업의 핵심 성장동력으로 지속될 전망이다. 국내 PCB 산업은 글로벌 PCB 시장에서 통신 장비 분야 비중 40.5%로 세계 최고 수준을 기록하며, 5G·서버·네트워크용 고부가가치 PCB 수요를 선도하고 있다. 이어 컴퓨터·비즈니스 장비 분야가 19.7%, 자동차 전장용 PCB가 17.5%로 산업별 수요가 균형을 이루고 있다. 또한 국내 PCB 산업은 5G, 서버, AI·HPC 관련 기판 수요를 적극 반영하며 첨단 패키징과 고부가가치PCB 중심으로 발전하고 있다. 특히 IC 기판, HDI·고다층PCB, 리지드-플렉스 등 전략 산업 기반을 확보함으로써 글로벌 공급망에서 핵심적인 역할을 수행하고 있다. 최근에는 유리 기판(TGV) 기술이 센서 및 고신뢰성 모듈 패키징 분야에서 주목받고 있다. 저온 접합·초미세 배선 공정을 통한 유리 기판 기반 모듈은AI, 자동차, 바이오 등 첨단 산업용 패키징에서 활용도가 높아, 한국 기업들의 첨단 패키징 경쟁력을 더욱 강화하고 있다. 안영우 KPCA협회 사무총장은 “산업별 PCB 수요 구조와 첨단 패키징 기술의 결합은 한국 제조업 경쟁력과 전략 산업 방향성을 보여주는 핵심 지표”라며 "한국PCB 산업이 AI·반도체 패키징·통신 인프라 중심으로 고도화 및 고부가 가치화되고 있다"고 강조했다.

2025.12.18 16:33장경윤

SK하이닉스 32Gb 서버용 D램, 업계 첫 인텔 호환성 검증

SK하이닉스가 업계 최초로 10나노급 5세대(1b) 32Gb 기반 고용량 서버용 D램 모듈 제품인 256GB DDR5 RDIMM을 인텔 '제온 6' 플랫폼에 적용하기 위한 '인텔 데이터센터 인증' 절차를 통과했다고 18일 밝혔다. RDIMM은 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터 또는 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다. 이번 인증 절차는 미국에 위치한 인텔의 첨단 연구시설인 어드밴스드 데이터센터 디벨롭먼트 랩에서 진행됐다. 이 곳에서 SK하이닉스는 수차례의 다면 평가를 거쳐 이번 제품이 제온 플랫폼과 결합했을 때 신뢰할 수 있는 성능과 호환성, 품질을 갖췄다는 결과를 얻었다. 회사는 이에 앞서 올해 1월, 10나노급 4세대(1a) 16Gb 기반 256GB 제품에 대한 인증도 받은 바 있다. SK하이닉스는 "서버용 CPU 시장을 선도하는 인텔의 최신 서버 플랫폼과의 호환성을 업계 최초로 검증 받으며 당사의 고용량 DDR5 모듈 기술력이 글로벌 최고 수준임을 입증했다"며 "이를 발판으로 글로벌 주요 데이터센터 사업자들과의 협력을 확대하고, 급증하는 서버 고객들의 수요에 적기 대응해 차세대 메모리 시장 리더십을 이어 가겠다"고 강조했다. 차세대 AI 인프라에서 메모리는 성능을 좌우하는 핵심 요소로 부상하고 있다. 최근 AI 추론 모델들이 단순 답변 생성을 넘어 복잡한 논리적 사고 과정을 수행하면서, 실시간으로 처리해야 하는 데이터량이 기하급수적으로 늘어나고 있기 때문이다. 방대한 데이터를 빠르고 안정적으로 처리하려면 고용량·고성능 메모리가 필수적이며, 이에 따른 시장 수요도 급증하고 있다. 회사는 이번 제품이 늘어나는 시장 수요에 부응하는 최적의 설루션이라고 강조했다. 회사 개발진은 "이번 제품을 탑재한 서버는 32Gb 128GB 제품을 채용했을 때 대비 16% 추론 성능이 향상된다"며 "32Gb D램 단품 칩을 활용한 설계로 전력 소모량도 기존 1a 기반 16Gb 256GB 제품보다 최대 약 18%까지 줄였다"고 설명했다. 이에 따라, 전성비를 중시하는 데이터센터 고객들의 높은 관심이 예상된다. 이상권 SK하이닉스 부사장(DRAM상품기획 담당)은 “서버용 DDR5 D램 시장에서 주도권을 확실히 하면서 고객 요구에 신속하게 대응할 수 있게 됐다”며 “풀 스택 AI 메모리 크리에이터로서 고성능·저전력·고용량 메모리 수요 확산에 적극 대응해 고객들의 만족을 이끌어 내겠다”고 말했다. 디미트리오스 지아카스 인텔 플랫폼 아키텍처 부사장은 "양사가 긴밀히 협력해 기술 완성도를 높인 결과 좋은 성과를 거뒀고, 메모리 기술 발전에도 기여하게 됐다"며 "고용량 모듈은 급증하는 AI 워크로드(Workload) 수요에 대응하며, 데이터센터 고객들이 원하는 성능과 효율성도 크게 향상시킬 것"이라고 말했다.

2025.12.18 09:39장경윤

슈퍼마이크로, 엔비디아 HGX B300 수냉식 서버 출하…고집적·고효율 인프라 구현

슈퍼마이크로가 고집적·고효율 인공지능(AI) 인프라 수요에 대응하기 위해 엔비디아 최신 그래픽처리장치(GPU) 플랫폼을 적용한 수냉식 서버 솔루션을 전면에 내세웠다. 하이퍼스케일 데이터센터와 AI 팩토리를 겨냥한 이번 신제품을 통해 GPU 집적도와 에너지 효율을 동시에 끌어올린다는 전략이다. 슈퍼마이크로는 엔비디아 HGX B300 기반 4U 및 2-OU(OCP) 수냉식 솔루션 출시·출하를 시작했다고 15일 밝혔다. 이번에 선보인 제품은 엔비디아 블랙웰 아키텍처 기반으로 설계됐으며 슈퍼마이크로의 데이터센터 빌딩 블록 솔루션(DCBBS)이 핵심 구성 요소로 자리 잡았다. 신제품은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 고성능 연산과 높은 GPU 집적도를 충족하는 동시에 전력·냉각 효율을 개선한 것이 특징이다. 특히 수냉식(DLC) 기술을 적용해 고전력 GPU 환경에서도 안정적인 운영이 가능하도록 설계됐다. 2-OU(OCP) 수냉식 솔루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격에 맞춰 구성됐다. 랙당 최대 144개의 GPU를 탑재할 수 있는 고수준의 집적도를 제공하며 블라인드-메이트 매니폴드 커넥션과 모듈형 GPU·CPU 트레이 아키텍처를 통해 서비스성과 확장성을 동시에 확보했다. 이를 통해 제한된 공간에서 보다 많은 AI 워크로드를 처리할 수 있도록 지원한다. 해당 시스템은 엔비디아 블랙웰 울트라 GPU 8개를 단일 노드에 탑재해 GPU당 최대 1천100와트(W)의 전력을 소화한다. 단일 ORV3 랙은 최대 18개 노드, 총 144개의 GPU 구성이 가능하며 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로의 1.8메가와트(MW) 인로우 CDU를 통해 대규모 클러스터로 확장할 수 있다. 이같이 구성된 슈퍼클러스터는 최대 1천152개의 GPU까지 확장 가능하다. 함께 공개된 4U 전면 I/O 수냉식 솔루션은 기존 19인치 EIA 랙 환경을 그대로 활용할 수 있도록 설계됐다. 대규모 AI 팩토리에 이미 구축된 표준 랙 인프라에서도 2-OU(OCP) 솔루션과 동일한 연산 성능과 냉각 효율을 제공한다. 특히 DLC 기술을 통해 시스템 발열의 최대 98%를 수냉식으로 제거해 에너지 효율을 높이고 소음을 줄였다. 엔비디아 HGX B300 기반 두 솔루션은 시스템당 최대 2.1테라바이트(TB)의 HBM3e GPU 메모리를 지원한다. 이를 통해 대규모언어모델(LLM) 학습과 멀티모달 추론 등 고부하 AI 워크로드를 보다 효율적으로 처리할 수 있도록 돕는다. 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-4 이더넷과 결합할 경우 커넥트X-8 슈퍼NICs를 통해 최대 800기가비피에스(Gb/s)의 네트워크 처리량도 확보할 수 있다는 설명이다. 운영 효율성과 총소유비용(TCO) 절감도 이번 제품의 핵심 요소다. 슈퍼마이크로의 DLC-2 기술은 데이터센터 에너지 사용량을 최대 40%까지 줄이고 45도 온수 냉각 방식을 적용해 물 사용량도 최소화한다. 기존 냉각수나 압축기가 필요 없는 구조로, 데이터센터 운영 부담을 낮췄다. 또 DCBBS 기반으로 L11·L12 단계의 사전 검증을 거쳐 랙 단위로 출하돼 대규모 AI 인프라 구축 시 가동 준비 시간을 단축할 수 있도록 지원한다. 찰스 리앙 슈퍼마이크로 최고경영자(CEO)는 "이번에 선보인 엔비디아 HGX B300 기반 수냉식 솔루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다"며 "업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 솔루션으로, 단일 랙에서 최대 144개의 GPU를 지원하고 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다"고 강조했다. 이어 "우리는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며 준비 시간 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드투엔드를 통합 제공한다"고 덧붙였다.

2025.12.15 16:41한정호

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

AI 열풍 속 메모리 슈퍼사이클…"2026년까지 호황 지속"

AI 열풍이 메모리 반도체 시장의 사이클을 근본적으로 바꾸고 있다. 올해 D램, 낸드플래시 가격이 잇따라 급등하며 강한 회복세를 보인 데 이어, 내년에도 호황이 이어질 것이란 전망에 힘이 실리고 있기 때문이다. 업계 안팎에서는 수요에 비해 공급이 부족할 것이라는 진단을 내놓으며 슈퍼사이클 지속 가능성을 강조하고 있다. 9일 시장조사업체 트렌드포스에 따르면 올해 메모리 가격은 1분기 바닥을 찍은 뒤 3분기 급등, 4분기까지 높은 가격대를 유지하는 흐름을 보였다. D램은 HBM(고대역폭메모리)과 DDR5 중심의 공급 전환으로 레거시 DDR4 부족 현상이 심화되면서 가격이 예상보다 가파르게 올랐다. 3분기에는 주요 세트업체의 재고 확보 수요가 겹치는 양상까지 나타났으며, 4분기에는 서버·PC D램 전반으로 인상 흐름이 확산됐다. 낸드플래시는 1분기까지 공급과잉에 시달렸지만, 감산과 투자 축소 효과로 3분기부터 반등하기 시작했다. 특히 SSD·데이터센터향 제품의 주문이 늘면서 4분기에는 구조적인 타이트 구간에 접어들었다. 트렌드포스는 올해 완제품 기준 BOM(부품원가)이 8~10% 증가한 것으로 분석했다. 韓 메모리 양사 “AI 메모리 수요가 공급 앞선다” 삼성전자와 SK하이닉스 등 국내 메모리 양사도 2026년까지 메모리 수요가 유지될 것으로 전망했다. AI용 메모리인 HBM, DDR5, SSD 중심의 전략을 이어가겠다는 것이다. 삼성전자는 최근 컨퍼런스콜에서 “HBM3E와 차세대 HBM4 공급을 확대하더라도 2026년까지는 수요가 공급을 웃도는 구조가 유지될 것”이라고 밝혔다. 아울러 DDR5·LPDDR5X, 고용량 QLC SSD 등 고부가 제품군 비중도 지속 확대할 계획이다. SK하이닉스 역시 주요 고객사와의 협의를 근거로 “내년 HBM 공급 물량은 이미 상당 부분 소진됐다”고 밝혔다. 회사는 HBM과 서버용 DRAM, 고성능 SSD 생산 능력 강화를 위해 내년 설비투자(Capex)를 상향 조정할 방침이다. 해외 매체들은 SK하이닉스의 HBM 공급이 2027년까지 사실상 예약 완료 상태라고 보도하기도 했다. 증권가 “2026년까지 호황 지속 전망” 이에 국내 증권업계는 내년 메모리 업황에 대해 매우 낙관적인 전망을 내놓고 있다. 대신증권은 최근 보고서를 통해 “D램과 낸드 모두 2026년까지 호황이 이어질 가능성이 크다”고 분석했다. 보고서에 따르면 D램 수요 증가율은 30% 이상, 서버 D램은 40%대 성장까지 예상된다. 반면 D램 비트 공급 증가율은 20% 수준, 낸는 17% 안팎에 그쳐 수요를 따라가지 못할 것으로 봤다. 메모리 재고도 D램은 2~3주, 낸드는 약 6주로 추정돼 공급이 빠듯한 상황이라는 분석이다. 해외에서도 비슷한 전망이 나오고 있다. 노무라증권은 “메모리 슈퍼사이클이 최소 2027년까지 이어질 것”이라며 SK하이닉스를 최대 수혜주로 제시했다. D램과 낸드 가격 상승률 전망도 내년 기준 각각 50%, 60%대로 상향했다. 다만 HBM 가격 조정 가능성이 변수로 지적된다. 하나증권은 “AI 서버 수요가 견조하더라도 HBM 가격은 2026년 이후 두 자릿수 조정이 나타날 수 있다”며 “물량은 부족하지만 가격은 피크아웃 국면에 접어들 수 있다”고 분석했다.

2025.12.09 16:08전화평

삼성전기, 내년 초 필리핀 팹 증설 추진…'MLCC' 호황 대응

삼성전기가 내년 초부터 AI 서버용 적층세라믹캐패시터(MLCC) 생산능력 확대를 추진한다. 최근 필리핀 법인의 증설을 위한 준비에 나선 것으로 파악됐다. 급증하는 AI 인프라 투자에 선제적으로 대응하려는 전략으로 풀이된다. 1일 업계에 따르면 삼성전기는 내년 1분기부터 필리핀 소재의 MLCC 양산라인을 증설할 계획이다. MLCC는 회로에 전류가 일정하게 흐르도록 조절하고, 부품 간 전자파 간섭현상을 막아주는 전자부품이다. 스마트폰, PC 등 IT제품과 서버, 자동차 등 산업 전반에서 필수적으로 활용되고 있다. 현재 삼성전기의 MLCC는 주로 중국 톈진과 필리핀 라구나주 칼람바시 소재의 공장 2곳에서 양산되고 있다. 국내 수원 및 부산사업장은 R&D 및 원재료 제조에 집중하고 있다. 삼성전기는 이 중 필리핀 MLCC 공장의 증설을 지속 고려해 왔다. 올 4분기 설비투자를 위한 협력망을 구성하는 등 구체적인 준비에 나선 것으로 파악됐다. 이르면 올 1분기부터 실제 투자에 나설 전망이다. 구체적인 투자 규모는 밝혀지지 않았으나, 삼성전기의 연간 투자 규모를 고려하면 수천억원의 투자가 집행될 것으로 관측된다. 또한 이달 초에는 장덕현 삼성전기 사장이 부산사업장에서 페르디난드 마크로스 필리핀 대통령을 만나, 필리핀 경제특구청(PEZA) 및 MLCC 투자를 위한 협약을 체결한 바 있다. 전자부품 업계 관계자는 "삼성전기는 중국 톈진에서 전장용 MLCC를, 필리핀에서는 AI 서버용 MLCC를 주력으로 양산해 왔다"며 "필리핀 MLCC 공장 건설 계획이 조만간 구체화될 것으로 안다"고 설명했다. AI 서버용 MLCC는 최근 글로벌 빅테크 기업들의 공격적인 AI 인프라 투자 확대에 따라 수요가 빠르게 증가하는 추세다. AI 서버에는 일반 서버 대비 약 10배 이상의 MLCC가 탑재되며, 소형·고용량을 요구하기 때문에 부가가치가 높다. 이에 삼성전기도 MLCC 사업에서 호황을 맞고 있다. MLCC가 포함된 삼성전기의 컴포넌트 공장 가동률은 지난해 연 81% 수준에서 올해 3분기 기준 99%로 사실상 '풀가동' 체제에 접어들었다.

2025.12.01 10:34장경윤

AI 반도체 열폭주 시대…데이터센터 식히는 '2상 냉각' 뜬다

인공지능(AI) 반도체 성능 경쟁이 뜨거워지면서 데이터센터의 가장 큰 문제로 '열'이 부상했다. 기존 공랭식(공기냉각)은 이미 수년 전 한계에 도달했고, 수랭식(액체냉각) 역시 전력밀도 증가 속도를 따라잡지 못하고 있다. GPU·HBM 탑재 AI 칩의 발열량이 폭증하면서 냉각 방식의 전환이 데이터센터 업계의 핵심 과제로 떠오른 것이다. 28일 여의도 FKI타워컨퍼런스홀에서 열린 '전자기기 및 데이터센터 첨단 방열 기술 집중 교육'에서는 이 같은 문제에 대한 해답으로 '2상 냉각' 기술이 제안됐다. 문강석 LG전자 책임연구원은 “AI 칩의 발열 특성상 기존 냉각 구조만으로는 앞으로 2~3년 내에도 대응이 쉽지 않다”며 “칩 단위에서 열을 직접 제어하는 방식이 필요하다”고 지적했다. 증발·응축 활용하는 2상 냉각… 소켓당 2kW, 랙당 100kW 대응 2상 냉각은 냉매가 칩 표면에서 끓어 증발하고, 다시 응축돼 순환하는 구조로 동작한다. 액체와 기체가 오가는 과정에서 잠열을 활용하기 때문에 1상 액체 냉각(물 기반)보다 월등한 열 제거 성능을 낸다. 문 연구원은 “비전도성 냉각액이 콜드플레이트로 들어가 칩에서 증발한 뒤 응축기를 거쳐 다시 순환하는 구조”라며 “이 방식으로 소켓당 2~2.5kW, 렉당 100kW까지 대응 가능하다”고 설명했다. 이는 최근 AI 서버 밀도 증가와 함께 업계가 직면한 냉각 한계를 정면으로 넘어서는 수준이다. 특히 2상 액침냉각은 서버 전체를 비전도성 유체에 담가 열을 제거하는 구조로, PUE(전력효율지수)를 크게 낮출 수 있다. 미국, 유럽 등 글로벌 데이터센터 기업들이 공격적으로 검토하는 기술이다. 공랭·1상 수랭의 구조적 한계… “이미 정점을 지나고 있다” 기존 냉각 방식의 물리적 한계도 자세히 언급됐다. 팬 기반 공랭은 소음·부피·전력 소모 증가로 운영 비용 급증하고 있으며, 히트파이프는 중력·자세·길이 제약으로 고열밀도 칩 대응이 어렵다. 1상(단상) 수랭식의 경우 물리적 구조 자체에 근본적 한계를 갖는다. 이 방식은 물이 상태 변화 없이 온도를 올려가며 열을 흡수하는 구조라 냉매의 비열·열전도도 같은 물성 한계에 부딪힐 수밖에 없다. 채널을 더 좁게 만들거나 유량을 늘려도 압력손실만 커지고 펌프 전력 소모가 급증해 효율이 거의 올라가지 않는 '정체 구간'에 도달한다. 문 연구원은 “현재 데이터센터의 대부분이 단상 액체 냉각을 쓰지만 AI 칩 발열량을 고려하면 한계가 빠르게 오고 있다”며 “2상 냉각 없이 열을 안정적으로 제거하려면 전체 시스템 비용이 폭증할 것”이라고 말했다. AI 칩 발열은 더 뜨거워진다… 2상 냉각은 '미래형'이 아닌 '필연' AI 반도체는 앞으로 더 높은 열설계전력(TDP)을 요구할 것이 확실시된다. GPU·HBM 통합 구조, 고대역 패키지, 미세공정 전환은 곧 더 높은 열밀도로 이어지는 것이다. 이에 칩 제조사와 서버 OEM, 데이터센터 사업자 등은 냉각 기술을 단순 선택지가 아닌 성능·전력·비용을 좌우하는 핵심 인프라로 보고 있다. 문 연구원은 “AI 서버의 발열은 앞으로 더 올라갈 수밖에 없다”며 “지금 속도라면 기존 냉각으로는 감당이 어렵다. 결국 2상 냉각이 데이터센터에서 표준으로 자리 잡게 될 것”이라고 밝혔다.

2025.11.28 17:09전화평

삼성SDS "AI 시대 데이터 폭증…효율적 스토리지 전략이 기업 경쟁력 좌우"

인공지능(AI) 전환이 가속화되며 기업이 다루는 데이터의 양과 복잡성이 폭발적으로 증가하고 있다. 데이터 일관성과 무결성을 확보하는 동시에 장기 보관까지 고려한 스토리지 전략이 기업 경쟁력의 핵심 요소로 떠오른 가운데 삼성SDS가 효율적인 클라우드 스토리지 활용 방안을 제시했다. 삼성SDS는 13일 '기업의 데이터 신뢰성을 높이는 스토리지 구현 전략'을 주제로 '삼성SDS 클라우드 토크' 온라인 웨비나를 개최했다. 이번 세션에서는 삼성클라우드플랫폼(SCP) 스토리지를 기반으로 데이터 일관성 유지, 백업·복구 체계, 장기 보관 전략 등 기업 IT 환경의 핵심 과제가 집중적으로 다뤄졌다. 발표를 맡은 삼성SDS SCP사업팀 김현웅 프로는 현재 기업들이 직면한 데이터 환경 변화를 소개했다. AI, 빅데이터 분석 등 디지털 기술 확산으로 데이터가 폭발적으로 증가하고 있으며 전 세계 데이터의 90%가 최근 2년 사이 생성됐다는 추정 결과를 강조했다. 이에 복수 서버가 동시에 데이터를 처리하는 환경이 보편화되면서 데이터 일관성과 안정성 확보 중요성도 커지고 있다고 설명했다. 기업이 겪는 주요 고민 역시 이같은 변화와 연결된다. ▲고가용성 환경에서의 일관성 유지 ▲안정적인 데이터 복구 ▲폭증하는 데이터를 장기 보관할 수 있는 확장성 등이 기업 IT 인프라 구축에서 핵심 검토 요소로 떠오르고 있다. 삼성SDS는 이러한 수요에 대응하기 위해 SCP 기반 블록·파일·오브젝트·아카이브 스토리지로 구성된 포트폴리오를 제시했다. 블록 스토리지는 고성능·고가용성이 필요한 데이터베이스·메일 서버 등에 적합하고 파일 스토리지는 여러 서버가 네트워크를 통해 데이터를 손쉽게 공유하는 구조다. 오브젝트 스토리지는 인터넷 URL 기반 접근으로 확장성이 높으며 아카이브 스토리지는 오브젝트 데이터를 장기간 보관하기 위한 저비용 스토리지로 소개됐다. 김 프로는 "AI 시대, 어떤 서버에 접속하더라도 동일하고 정확한 데이터가 유지돼야 한다"며 "고가용성 환경에서 여러 서버가 하나의 스토리지를 공유해 데이터의 무결성을 유지하려면 각 스토리지 종류에 맞는 연결 방식을 갖춰야 한다"고 말했다. 실제 SCP 콘솔을 활용한 파일 스토리지 실습도 이뤄졌다. 서버 운영체제(OS)에 맞춘 프로토콜(NFS/CIFS) 선택, 파일 스토리지 생성 및 연결 방식, 오토스케일링 전환 시 콘텐츠를 오브젝트 스토리지로 이전하는 절차 등이 시연됐다. 오브젝트 스토리지는 아마존웹서비스(AWS)의 S3 스토리지와도 호환돼 CLI 명령어 기반 데이터 이관도 지원한다. 데이터 보호와 복구 전략도 중요한 주제로 다뤄졌다. SCP 파일 스토리지는 특정 시점의 데이터를 그대로 저장하는 스냅샷 기능을 제공하며 오브젝트 스토리지는 변경 이력을 축적하는 버전 관리 기능을 제공한다. 이를 통해 실수로 데이터가 삭제되거나 덮어 쓰인 경우에도 원하는 시점으로 복구할 수 있다. 필요시 저비용 구조의 아카이브 스토리지로 데이터를 이관해 보존 기간을 늘릴 수도 있다. SCP의 아카이브 스토리지는 자동 확장·축소되는 용량 구조, 오브젝트 대비 낮은 비용, 3시간 이내 검색·복구 기능 등을 지원한다. 김 프로는 "아카이브 스토리지는 법적·제도적 요건에 따라 수년 이상 데이터를 보관해야 하는 제조·금융·의료 등 산업군에서 활용성이 크다"며 "다른 클라우드 사업자들의 스토리지 서비스와 비교해 비용 구조가 효율적이고 가격 측면에서도 경쟁력이 높다"고 설명했다. 삼성SDS는 대규모 이차전지 제조사 A사의 아카이브 스토리지 적용 사례도 소개했다. 이차전지 생산 과정에서 생성되는 이미지 데이터를 15년 이상 보관해야 하는 법적 규제에 맞춰 SCP의 아카이브 스토리지를 도입함으로써 데이터 관리 비용과 운영 복잡성 문제를 개선했다. 국내외 사업장의 데이터를 삼성SDS 수원 데이터센터의 아카이브 스토리지로 통합했고 유지보수 기간 제한 문제도 해결했다. 특히 유럽 사업장 이미지 데이터 이관 기간을 기존 대비 약 6개월 이상 단축하는 효과를 얻었다. 김 프로는 "데이터 폭증 시대에는 일관성과 무결성을 보장하는 고가용성 스토리지 구성, 안정적인 백업·복구, 비용 효율적인 장기 보관 구조 확보가 필수"라며 "SCP 스토리지는 이러한 요건을 충족하는 플랫폼으로 기업의 데이터 경쟁력을 높일 수 있다"고 강조했다.

2025.11.13 15:36한정호

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평

수세, AI 내장형 리눅스 시대 개막…SLES 16 출시

수세(SUSE)가 인공지능(AI)을 운영체제(OS) 내부에 내장한 차세대 리눅스 배포판을 선보인다. 수세는 '수세 리눅스 엔터프라이즈 서버 16(SLES 16)'을 공식 출시했다고 4일 밝혔다. 이번 버전은 AI 기반 자동 관리와 예측형 운영 기능을 제공하며, 업계 최장 수준인 16년의 지원 주기를 보장한다. 수세는 이번 신제품을 통해 리눅스 운영체제(OS) 수준에서 AI를 직접 실행·활용할 수 있는 '에이전틱 AI(Agentic AI)' 개념을 처음 도입했다. SLES 16은 '모델 컨텍스트 프로토콜(MCP)' 표준을 구현해 특정 AI 공급업체에 종속되지 않는 개방형 구조를 제공한다. 이를 통해 기업은 원하는 대형언어모델(LLM)을 자유롭게 연동하고, 로컬 환경에서 AI 기반 자율 운영을 구현할 수 있다. SLES 16은 자동화된 운영 관리와 복원 기능을 대폭 강화했다. 시스템 업그레이드, 소프트웨어 패치, 구성 변경 등을 즉시 되돌릴 수 있는 '즉각 롤백 기능'이 기본 제공되며, 클라우드 이미지에서도 기본 활성화된다. 또한 재현 가능한 빌드 기반으로 설계돼, 고객이 소스 검증이나 재구축을 직접 수행할 수 있다. 이는 소프트웨어 자재 명세서(SBOM)와 최고 수준의 보안 인증(EAL4+)을 충족하는 투명한 개발 프로세스를 기반으로 한다. 이번 버전은 기존 리눅스 배포판 간 기술 격차를 최소화하는 구성요소를 포함해, 다른 환경에서 전환 시의 기술 장벽을 낮췄다. 또한 예측 가능한 업데이트와 단순한 유지관리 체계를 제공해, 장기적 안정성과 비용 절감 효과를 동시에 달성할 수 있도록 설계됐다. 수세는 SLES 16 출시와 함께 AI 기능을 통합한 전체 제품군을 2025년 11월 4일부터 고객과 파트너에게 순차적으로 제공한다. 수세 릭 스펜서비즈니스 크리티컬 리눅스 부문 총괄은 "모든 CIO와 CTO는 인프라 효율 극대화를 위해 AI를 활용해야 하지만, 단일 생태계에 묶이는 리스크를 감수해선 안 된다"고 말했다. 이어 "SLES 16은 새로운 팀 구성이나 별도 도구 체계 없이도 운영 효율을 향상시킬 수 있는 개방형 AI 인프라를 제공한다"며 "보안·규정 준수·자동화 역량에 16년 라이프사이클을 더해 혁신성과 안정성을 동시에 갖춘 최초의 엔터프라이즈 리눅스"라고 강조했다.

2025.11.04 18:21남혁우

코오롱베니트, 델·리벨리온과 건설 현장 안전 'AI 어플라이언스' 출시

코오롱베니트가 델 테크놀로지스, 리벨리온과 협력해 건설 현장을 위한 올인원 어플라이언스를 출시한다. 코오롱베니트는 자체 개발한 안전 관제 시스템 '인공지능(AI) 비전 인텔리전스'를 상용화하며 델·리벨리온의 고성능 솔루션을 결합해 프리패키지 형태로 출시한다고 30일 밝혔다. 이는 지난해 코오롱글로벌 건설 현장에서 진행한 실증 검증을 마친 데 이어, 본격적인 시장 공급으로 이어진 성과다. 새롭게 출시된 AI 비전 인텔리전스 올인원 어플라이언스는 코오롱베니트가 자체 개발한 AI 모델과 리벨리온의 신경망처리장치(NPU), 델의 파워엣지 R760xa 서버를 결합한 AI 프리패키지 제품이다. 델 파워엣지 R760xa 서버는 고수준의 성능과 자동화 기능을 갖춘 플랫폼으로 안정성과 확장성을 보장한다. 리벨리온의 AI 반도체는 그래픽처리장치(GPU) 대비 우수한 에너지 효율성과 연산 속도를 제공해 CCTV 기반 추론 성능을 강화한다. 여기에 코오롱베니트의 AI 모델이 결합돼 안전모 미착용, 위험구역 진입, 중장비 접근 등 건설 현장의 다양한 위험 상황을 실시간으로 탐지하고 이를 정교한 언어 알림으로 변환해 사고 예방 효과를 극대화한다. AI 비전 인텔리전스는 이번 상용화에 앞서 코오롱베니트·코오롱글로벌·리벨리온·위시 등 4사가 참여한 컨소시엄을 통해 개념 검증 과정을 거쳤다. 코오롱베니트는 방대한 건설 현장 CCTV 영상과 운영 데이터를 정제·분석해 실제 환경에 특화된 멀티모달 AI 모델을 완성했다. 코오롱글로벌은 현장의 실제 운영 데이터를 제공하고 기능 요구사항을 구체화했으며 리벨리온은 자체 AI 반도체 NPU '아톰'을 기반으로 한 고성능 관제 서버를 구성했다. 위시는 시각 정보와 언어 정보를 동시에 출력하는 관제 솔루션을 제공해 현장에서 발생하는 위험 요소를 더욱 정밀하게 포착할 수 있도록 했다. 이 과정을 통해 모델은 위험 상황 탐지 정확도를 크게 높였고 PoC 단계에서 현장 실효성을 입증했다는 설명이다. 코오롱베니트는 이번에 선보인 어플라이언스를 건설 산업을 넘어 제조·물류 등의 다양한 분야로 적용 영역을 확대해 나갈 계획이다. 강이구 코오롱베니트 대표는 "글로벌 기업과 국내 선도 기업과의 협력을 통해 고객이 신속하게 AI 혁신을 체감할 수 있는 프리패키지 서비스를 선보이게 됐다"며 "앞으로도 AI를 기반으로 사업 성과를 가속화하며 고객의 비즈니스 혁신을 지원하는 AI 전환 조력자로 성장해 나갈 것"이라고 말했다.

2025.10.30 17:33한정호

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

세종 부용산에 숨 쉬는 네이버의 AI 심장, '각 세종' 가보니

세종시 부용산 자락에 자리한 네이버의 두 번째 데이터센터 '각 세종'. 겉으로는 조용하지만 내부는 쉼 없이 움직이는 거대한 기술 생태계다. 인공지능(AI) 시대 핵심 인프라로 불리는 이곳을 직접 찾아가 봤다. 네이버클라우드는 지난 27일 각 세종 데이터센터에서 테크밋업을 개최하고 AI 인프라 운영 기술과 친환경 설계 시스템을 공개했다. 이날 현장에서는 AI 서비스의 핵심인 그래픽처리장치(GPU) 서버, 냉각 기술, 전력 구조, 자율주행 로봇 시스템까지 살펴볼 수 있었다. 첫 방문지는 서버 IT 창고였다. 자산 관리 구역임에도 인력의 움직임은 거의 없었다. 대신 '가로'와 '세로'로 불리는 로봇이 서버를 실어 나르며 작동 중이었다. 이 로봇들은 자산 입출고를 자동화해 사람의 개입 없이 서버를 적재하고 회수하는 역할을 한다. 매년 5천 대 이상의 서버를 교체할 수 있는 효율성을 갖췄다. 로봇은 카메라와 센서를 기반으로 서버 위치를 스스로 인식하고 높이 3m 랙에도 정확히 접근한다. 자율주행 로봇 가로는 최대 400㎏의 장비를 운반할 수 있으며 내부 동선은 네이버클라우드의 통합 로봇 관제 플랫폼 '아크' 시스템으로 관리된다. 이어진 공간은 냉각 기술의 핵심인 '나무'였다. 이는 네이버가 자체 개발한 외기 냉각 시스템으로, 자연 바람을 활용해 서버의 열을 식히는 구조다. 네이버 김예원 도슨트는 "각 세종에 적용된 나무 3세대는 계절과 기후에 따라 외기 모드를 자동 전환하는 하이브리드 시스템"이라며 "일반 냉동 방식 대비 최대 73%의 전력 효율을 달성했다"고 설명했다. 서버실에서 발생하는 열은 폐열 회수 시스템을 통해 재활용된다. 바닥 난방과 겨울철 도로 제설용 스노우멜팅 시스템에 쓰이며 센터의 에너지 순환 구조를 완성한다. 이러한 각 세종의 전력효율지수(PUE)는 1.1 수준으로, 글로벌 하이퍼스케일 센터 중에서도 최상위 등급이다. GPU 서버실에 들어서면 공기의 흐름이 달라진다. 고전력 서버에서 발생한 열은 천장을 통해 배출되고 바닥과 벽면을 따라 차가운 공기가 순환한다. 각 세종은 정전이나 장애에 대비해 전력 인입선로를 이중화했으며 무정전전원장치(UPS)와 비상 발전기를 통해 72시간 이상 자가 전력을 유지할 수 있다. 운영 효율을 높이기 위해 각 세종은 로봇 기반 자산 관리와 자율주행 셔틀 '알트비' 시스템도 도입했다. 축구장 41개 크기의 부지를 이동하며 인력과 장비를 운반하는 이 셔틀은 네이버랩스의 자율주행 기술과 네이버클라우드의 관제 시스템이 결합된 결과물이다. 센터의 중앙 제어실은 각종 수치를 실시간으로 모니터링하는 관제의 두뇌 역할을 맡고 있었다. 온습도, 전력 사용량, GPU 랙당 전력 밀도, 네트워크 트래픽이 실시간으로 표시되고 외부 사고나 트래픽 급증 상황에 즉각 대응할 수 있도록 구성됐다. 김 도슨트는 "각 세종은 국내 데이터센터 중 유일하게 네트워크망·전력·데이터 모두를 이중화한 구조"라며 "정전이나 장애가 발생해도 즉시 복구 가능한 구조로 설계됐다"고 말했다. 센터 외부의 친환경 설계도 눈에 띄었다. 옥상에는 태양광 발전 설비가, 지하에는 지열 냉난방 시스템이 적용돼 있으며 서버실에서 발생한 폐열은 다시 에너지로 순환된다. 네이버에 따르면 이 구조를 통해 연간 이산화탄소 배출량을 약 1만5천 톤 줄일 수 있고 이는 나무 225만 그루를 심는 효과와 맞먹는다. 또 각 세종은 세계적 친환경 건축 인증인 리드 플래티넘 등급을 획득했다. 세종 부용산의 단단한 화강암 지반 위에 세워진 이 건물은 규모 7의 지진에도 견디는 내진 특등급으로 설계됐다. 각 세종은 향후 증축을 통해 270메가와트(MW) 전력 수용 규모로 확장될 예정이다. 완공 시에는 세종시 전체 인구의 전력 소비량에 맞먹는 AI 인프라가 된다. 네이버클라우드 노상민 센터장은 "각 세종은 단순히 데이터를 보관하는 공간이 아니라 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼"이라며 "지속가능성과 효율, 복원력을 모두 갖춘 하이퍼스케일 인프라로 설계됐다"고 강조했다.

2025.10.28 09:03한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

[현장] 슈퍼마이크로 "점유율 25% 목표"…AI 데이터센터로 韓 공략

슈퍼마이크로가 데이터센터는 하나의 컴퓨터라는 비전 아래 공장에서 전체 시스템을 사전 조립해 완제품으로 공급하는 '랙 스케일' 전략을 선포했다. 인공지능(AI) 도입 시간을 단축하는 '타임 투 온라인(TTO)'을 핵심 무기로 국내 시장을 공략하는 행보다. 슈퍼마이크로는 24일 서울 롯데호텔에서 국내 첫 공식 기자간담회를 개최했다. 지난 2021년 한국 지사 설립 이후 파트너사 중심의 사업을 이어오다 처음으로 국내 미디어와 공식적으로 만나는 자리다. 이날 발표를 맡은 김성민 슈퍼마이크로 코리아 상무는 AI 시대의 복잡성을 먼저 지적했다. 김 상무는 "AI는 서버 1대 만으로 구동하는 것이 어렵다"며 "여러 대의 시스템들이 유기적으로 몰려서 네트워크까지 포함해 동작을 해야 하기 때문"이라고 설명했다. 이에 더해 AI 인프라 도입의 발목을 잡는 것은 바로 이 복잡성과 구축 시간이다. 김 상무에 따르면 기존에는 고객이 서버는 A사에서, 네트워크 스위치는 B사에서 따로 구매한 뒤 소프트웨어 설치와 네트워크 연결까지 직접 해결해야 하는 복잡성이 컸다. 이러한 문제에 대한 슈퍼마이크로의 해법은 '데이터센터 빌딩 블록 솔루션(DCBBS)'이다. 이는 서버 부품을 레고처럼 조립하던 1세대 빌딩 블록을 넘어 서버, 스위치, 냉각탑, 소프트웨어까지 데이터센터 구성 요소 전체를 하나의 '플러그 앤 플레이' 랙으로 통합 제공하는 전략이다. 김 상무는 이 모든 과정을 '수직적으로 다 통합'해 제공한다고 강조했다. 공장에서 테스트까지 마친 완제품을 배송하기 때문에 고객은 전원과 네트워크 케이블만 연결하면 즉시 AI 서비스를 시작할 수 있다는 설명이다. 이같은 전략의 대표적인 성공 사례는 엑스에이아이(xAI)가 이미 보인 바 있다. 김 상무는 "엔비디아 'H100' 그래픽 처리장치(GPU) 5만 장이 넘는 6천144대의 수냉식 시스템을 122일 만에 가능하게 했다"며 "122일이면 넉 달"이라고 역설했다. 이어 "이는 상당히 획기적인 마일스톤으로, '타임 투 온라인'의 경쟁력을 보여주는 사례"라고 설명했다. 이 비전을 현실로 만드는 핵심 기술은 차세대 수냉식 냉각 'DLC-2'다. 랙당 130kW가 넘는 AI 서버 발열을 공냉식으로 감당하기는 불가능해졌기 때문이다. 이에 'DLC-2'는 컴퓨팅 처리장치(CPU), GPU를 넘어 시스템 발열의 98%를 물로 직접 냉각한다. 이를 통해 데이터센터 전력사용효율(PUE)를 공냉식 1.5 수준에서 1.1까지 낮추고 전력 소비를 40% 절감한다. 김 상무는 "일반 GPU가 구동되는 데이터센터는 스마트워치에서 (소음) 알람이 올 정도"라며 "이에 비해 DLC-2는 50dB 수준으로 일반 조용한 사무실과 비슷하다"고 설명했다. 현재 슈퍼마이크로는 이같은 솔루션을 월 5천 대 랙 규모로 생산 중이며 이 중 2천 대가 수냉식 랙이다. 이 회사는 국내에서는 클라우드 서비스 제공업체(CSP)와 '소버린 AI' 구축이 필요한 기업 및 기관을 공략한다. 중기적으로는 국내 수냉식 냉각(DLC) 솔루션 시장 점유율 25% 달성을 목표로 제시했다. 김성민 상무는 "젠슨 황이 '데이터센터가 새로운 컴퓨터'라고 말했듯 이제 데이터센터 자체가 컴퓨터 하나로 움직이는 세상"이라며 "아키텍처 설계부터 제조, 테스트까지 우리가 전부 끝내고 배송해 '타임 투 온라인'을 최소화하는 것이 가장 큰 경쟁력"이라고 밝혔다.

2025.10.24 13:33조이환

로옴, 100V 내압 파워 MOSFET 'RS7P200BM' 출시

반도체 전문기업 로옴(ROHM)이 업계 최고 수준의 SOA(Safe Operating Area) 내량을 실현한 100V 내압 파워 MOSFET 'RS7P200BM'을 개발했다고 23일 밝혔다. 신제품은 5060사이즈(5.0mm × 6.0mm) 패키지를 적용했으며, 48V 계통 전원을 사용하는 AI 서버의 핫스왑 회로 및 배터리 보호용 전원 회로 등 산업기기에 최적화된 제품이다. 기존 대비 소형화·고밀도 실장 실현 RS7P200BM은 로옴이 2025년 5월에 출시한 AI 서버용 MOSFET 'RY7P250BM'(DFN8080-8S) 대비 한층 더 소형화된 DFN5060-8S 패키지를 채택했다. 이를 통해 공간 효율성을 높이고, 고밀도 실장이 필요한 서버 및 산업기기 전원 설계에 유리한 구조를 구현했다. 신제품은 VDS=48V 조건에서 펄스 폭 10ms 시 7.5A, 1ms 시 25A의 높은 SOA 내량을 확보했다. 또한, 트레이드오프 관계에 있는 ON 저항을 4.0mΩ 수준으로 낮춰, 동작 시 발열을 최소화했다. 이로써 서버 전원의 고효율화 및 냉각 부하 경감, 나아가 전력 비용 절감에도 기여할 수 있다. 2025년 9월부터 양산 개시… 온라인 구매도 가능 로옴은 해당 제품의 양산을 2025년 9월부터 시작했으며, 샘플 가격은 800엔(한화 7천500원)이다. 칩1 스탑(chip 1 Stop)과 코어스탶 온라인(CoreStaff Online) 등 주요 전자부품 유통 사이트를 통해 온라인 구매가 가능하다. 로옴은 “이번 신제품을 시작으로, AI 서버를 비롯한 48V 계통 전원 대응 제품 라인업을 지속 확충할 계획”이라며 “이를 통해 고효율·고신뢰성 솔루션을 제공함으로써, 지속 가능한 ICT 인프라 구축 및 저전력화에 기여할 것”이라고 전했다.

2025.10.23 11:18전화평

"여기는 데이터가 살아있는 '여기어때 D&A센터' 입니다"

“데이터가 라벨링된 데이터 카탈로그를 연구개발성으로 실험해 보는 조직은 많지만, 실제 업무에 적용하는 곳은 그렇게 많지 않습니다. 생각한 것이 바로 회사 업무에 적용되는 경험을 해볼 수 있는 '즉시성'이 여기어때 D&A센터만의 강점입니다.” 인공지능(AI) 돌풍이 불며 대다수 회사에서 근간이 되는 데이터와 AI를 다루는 조직을 우후죽순 만들고 있다. 하지만 만들어진 기능이 실제로 고객 서비스나 회사 서버에 적용되는 사례는 드물다. 온라인여행(OTA) 업계도 예외는 아니다. 이 가운데 개발자가 구상한 기능을 데이터와 AI를 활용해 회사 프로그램 내에 적용시켜 볼 수 있는 회사가 있다. 여기어때는 데이터에 친숙하고, AI에 열린 회사 분위기를 통해 개발자 이상을 사내에서 현실화시킬 수 있도록 하고 있다. 이같은 기능을 구현하려면 데이터와 이를 다루는 조직이 매우 중요하다. 조민석 여기어때 D&A센터장을 만나 센터가 하는 일, 강점, 앞으로 그리고 있는 목표 등에 대한 이야기를 들어봤다. 데이터사이언스실→D&A센터로 탈바꿈…데이터 정리 '주력' 여기어때 D&A센터는 이름 그대로 데이터와 AI를 다루는 곳으로, 기존 데이터사이언스실을 개편한 조직이다. 데이터와 AI 기술을 활용해 서비스·업무 혁신에 집중하기 위해 만들어졌다. 비즈니스, 서비스 효율화 및 개선에 적합한 AI 모델을 연구하고 적용하는 역할을 전문적으로 수행할 뿐만 아니라, 현업에 영향을 줄 수 있는 데이터를 생성하고 AI 기능을 만드는 업무도 담당한다. 조직이 개편되면서 영업 혹은 프로덕트 등 조직별로 파편화돼 있던 데이터 업무를 합친 것이 특징이다. 조 센터장은 “원래는 (센터에) AI가 없었다”며 “각 부서별로 데이터 조직이 흩어져있었다. 조직별로 각각 데이터를 다루는 인력이 따로 있었는데, 체계를 갖추고 보다 시너지를 내기 위해 통합 조직으로 새롭게 재탄생한 것”이라고 설명했다. 현업에 영향을 줄 수 있는 자료를 만드는 만큼 데이터 체계를 정리하고, 뼈대를 세우는 일도 주된 업무 중 하나다. 업무 부서별로 산재된 데이터를 한 번에 볼 수 있도록 관리해야 더 큰 성과를 창출할 수 있기에 데이터를 통합하고, 체계적으로 분류해 각 업무에 더 잘 활용될 수 있는 기획에 전념하고 있다. D&A센터가 없을 때는 원하는 정보를 얻으려면 해당 데이터를 잘 아는 회사 사람들을 수소문해야 했지만, 이제는 그럴 필요가 없어진 것이다. 예를 들어 국내외 호텔을 모두 취급하는 여기어때 앱에서 이를 잘 분류해 보여주고, 데이터를 기반으로 필요한 콘텐츠를 만들거나 리뷰 데이터를 요약해서 알기 쉽게 시각화하는 일을 수행한다. 고객들이 가장 쉽게 마주하는 푸시 메시지나 행사 페이지를 만들 때도 사용된다. 자연어 기반으로 “7월에 애완동물을 키우는 고객이 갈 만한 여행지를 추천해줘”와 같은 질문을 하면 회사 내부 데이터를 기반으로 데이터를 산출해 마케팅 포인트를 잡아주는 방식이다. 정리된 데이터는 데이터 카탈로그서 '두각'…여기어때만의 강점은? 데이터별로 잘 정리(라벨링)된 자료는 '데이터 카탈로그'에서 활용되는데, 사용자 중심으로 구성된 데이터 카탈로그도 여기어때 D&A센터만의 차별점이다. 데이터 카탈로그는 조직이 수집, 처리하는 모든 데이터의 보관함을 뜻한다. 조 센터장은 “기존 회사들은 어떤 데이터가 어디에 있는지 관리자들이 알아보기 쉽게 분류돼 있고 정리된 '관리' 중심이었다면, 여기어때는 사용자가 쉽게 알 수 있는 '사용자' 중심”이라고 강조했다. 이어 “데이터 조직이 통합된 지 얼마 안 됐기 때문에 데이터를 정리하는 세대를 뛰어넘고 원하는 정보부터 접근할 수 있는 체계를 만든 것”이라고 부연했다. 원하는 정보에 빠르게 접근할 수 있게 되면서 업무 효율성도 한층 높아지는 결과를 가져올 것으로 기대된다. 조 센터장은 “보통 일반적인 업무 프로세스에 데이터 탐색이 80%, 분석이 20% 정도 쓰인다는 일반적인 통계가 있다”며 “여기어때의 데이터 카탈로그를 활용하면 탐색에 걸리는 시간을 절반으로 줄일 수 있지 않을까 싶다”고 예상했다. 그 중에서도 조 센터장은 개발자들이 원하는 기능을 회사 서버에서 빠르게 구현해 볼 수 있다는 점을 D&A센터만의 독보적인 강점으로 꼽았다. 그는 “빅데이터나 AI가 유행하면 회사에서는 '해봐'라고 말하지만 연구하는 것에서 끝나는 경우가 많고, 경영진들은 실제 프로젝트에 이를 안 받아들이는 경우가 굉장히 많다”고 언급했다. 그러면서 “하지만 여기어때는 대표부터 데이터에 친화적이고 기술에 대한 이해도가 높다. 또 데이터를 활용한 기술이 적용되도록 하는 환경이 조성돼 있다”면서 “자신이 직접 만든 것이 대고객 혹은 회사 내부 서버에 적용되는 경험을 해볼 수 있는 것이 의미가 크다고 생각한다”고 덧붙였다. 데이터 카탈로그, 칭찬 '일색'…“고객 혜택까지 이어지는 것이 꿈” 데이터와 AI를 중심으로 조직을 통합하고 관련 기능을 정비한 이후 긴 시간이 흐르지는 않았지만, 회사 내부에서는 만족도가 높다. 조 센터장은 쑥스러워하면서도 “데이터를 다루는 구성원들은 거의 다 데이터 카탈로그를 신청해서 사용하고 있다. 다들 만족하는 게 가장 크다”고 자신했다. 여기어때는 긍정적인 반응을 이끌어낸 데이터 카탈로그의 사용성을 조직 전체로 확대하고, 이를 고객 혜택으로까지 이어지게 하는 것을 최종 목표로 삼았다. 조 센터장은 “프로덕트 오너(PO), 경영진들까지 이 시스템(데이터 카탈로그)을 통해 커뮤니케이션할 수 있게 하는 게 센터장으로서의 목표”라며 “정합성이 좋은 데이터를 담은 데이터 카탈로그를 활용해 서비스를 만들어 회사도 성장하고 고객에게도 혜택을 주는 것까지 이어지도록 하는 것이 큰 그림”이라고 밝혔다.

2025.10.23 08:30박서린

오라클 "AI 서버 임대사업, 이익률 40%까지 끌어올릴 것"

오라클이 최근 부진한 것으로 알려진 인공지능(AI) 서버 임대 사업의 수익성을 두고 투자자 달래기에 나섰다. 이 부문의 총이익률이 향후 30~40% 수준의 고수익 사업으로 성장할 것으로 자신하며 단기 수익성 논란이 과도하다는 입장이다. 클레이 마고요크 오라클 공동 최고경영자(CEO)는 17일 애널리스트 브리핑에서 "AI 데이터센터 부문은 현재 성장 초기 단계로, 향후 매출 확대에 따라 이익률이 크게 개선될 것"이라며 "완성 단계에 이르면 30~40%의 총이익률을 달성할 수 있을 것"이라고 말했다. 이어 "엔비디아 그래픽처리장치(GPU)를 기반으로 한 AI 클라우드 인프라 사업은 장기 계약 구조를 가지고 있다"며 "매출이 누적될수록 원가 부담이 줄어드는 구조"라고 덧붙였다. 앞서 미국 IT 전문매체 디인포메이션은 내부 문서를 인용해 오라클의 AI 서버 임대 사업 총이익률이 최근 5개 분기 평균 16% 수준에 머물렀다고 보도했다. 이는 전체 사업 마진(70%) 대비 현저히 낮다. 또 최신형 엔비디아 '블랙웰' GPU를 활용한 일부 계약에서는 손실을 기록했다는 내용도 포함돼 시장의 우려를 불러왔다. 여기에 시장에선 오픈AI와 체결한 5년간 3천억 달러 규모 오라클 클라우드 인프라스트럭처(OCI) 이용 계약 관련해서도 오픈AI 등 AI 기업들의 비용 지불 능력에 의문을 표하고 있다. 이에 오라클은 AI 인프라 사업은 초기 구축 비용이 크지만, 장기적으로는 계약 단가와 가동률이 높아지면서 자연스럽게 이익률이 개선된다고 반박했다. 마고요크 CEO는 "우리는 AI 시장의 초기에 투자비를 선제적으로 집행하고 있다"며 "고객 기반이 빠르게 확장되고 있어 내년부터는 수익성이 가시화될 것"이라고 밝혔다. 시장 일각에서도 오라클의 편을 들었다. 일본 금융그룹 미즈호 측은 아직 초기 단계인 AI 인프라 사업의 낮은 총이익률은 통상적이라고 평가하면서 사업규모가 커짐에 따라 25% 수준까지 개선될 것이란 전망을 내놨다. 오라클은 현재 오픈AI, 메타 등 대형 AI 개발사에 엔비디아 GPU 서버를 임대하며 시장을 넓히고 있다. 이 부문은 오라클의 전체 클라우드 인프라 사업 가운데 가장 빠르게 성장하는 영역으로 꼽힌다. 업계에 따르면 오라클은 올해부터 엔비디아의 최신 GPU 공급 계약을 확대하면서 미국과 유럽, 일본, 싱가포르 등에 대규모 AI 데이터센터를 건설 중이다. 오라클은 이러한 인프라 확충을 통해 오는 2026년까지 클라우드 인프라 매출을 두 배 이상 확대한다는 계획이다. AI 인프라 시장은 현재 마이크로소프트, 아마존웹서비스(AWS), 구글클라우드 등 기존 빅테크 기업과 오라클, 코어위브 등 신흥 사업자 간 경쟁이 치열하게 전개되고 있다. 일부 업체는 고객 확보를 위해 GPU 임대 단가를 낮추는 출혈 경쟁을 벌이고 있지만, 오라클은 저가 경쟁에 참여하지 않겠다는 입장이다. 마고요크 CEO는 "우리는 수익성 있는 성장을 중시한다"며 "고객이 대규모로 확장할 수 있는 안정적 환경을 제공하는 것이 우리의 강점"이라고 말했다. 전문가들은 오라클이 제시한 30~40% 이익률 달성이 가능하다고 보면서도, GPU 조달 비용과 전력·유지비 부담을 얼마나 효율적으로 관리하느냐가 관건이라고 분석했다. 미국 데이터센터 전문매체 데이터센터 다이내믹스는 "GPU 인프라 사업의 본질은 설비투자(CAPEX) 회수 속도에 달려 있다"며 "AI 수요가 유지된다면 오라클의 목표는 현실적이지만, 경쟁이 심화될 경우 단가 압박이 불가피할 것"이라고 밝혔다.

2025.10.17 11:11장유미

삼성전기·LG이노텍, 높아진 3분기 '호실적' 기대감

삼성전기·LG이노텍의 올 3분기 수익성 개선에 대한 기대감이 높아지고 있다. 유리한 환율 효과와 더불어, 핵심 사업에 대한 수요 개선세가 일어난 데 따른 효과다. 12일 업계에 따르면 삼성전기, LG이노텍 등 국내 중 부품기업들은 3분기 업계 예상을 웃도는 실적을 기록할 것으로 분석된다. IBK투자증권은 최근 보고서를 통해 삼성전기의 3분기 매출액 예상치를 기존 2조8천84억원에서 2조8천593억원으로 상향 조정했다. 영업이익 역시 기존 2천447억원에서 2천571억원으로 올렸다. 김운호 IBK투자증권 연구원은 "패키지기판과 컴포넌트(MLCC) 사업부 모두 AI, 서버 수요 개선으로 2분기 대비 물량이 증가할 것으로 기대된다"며 "가격은 이전에 예상한 환율 대비 개선된 영향으로 상승했다"고 설명했다. 키움증권도 삼성전기의 3분기 영업이익이 2천553억원으로 시장 컨센서스인 2천430억원을 웃돌 것으로 전망했다. AI 서버 및 전장용 수요 확대, IT 제품의 성수기 효과 등으로 MLCC 양산 라인 가동률이 전분기 대비 5%p 오른 95%를 기록한 덕분이다. 김소원 키움증권 연구원은 "컴포넌트 사업부의 영업이익률이 14.4%로 3년 내 최고치를 기록할 것으로 예상된다"며 "MLCC 재고는 4주 이하로 정상 수준(5~6)을 지속 하회하고 있다"고 밝혔다. LG이노텍은 핵심 사업인 카메라모듈 판가 인하 압박의 완화, 유리한 환율 등으로 수익성을 방어할 것으로 예상된다. 또한 주요 고객사인 애플의 최신형 스마트폰인 '아이폰17' 시리즈의 수요에 따라, 4분기에도 추가적인 성장 동력을 확보할 전망이다. 양승수 메리츠증권 연구원은 "LG이노텍의 3분기 실적은 매출액 4조9천749억원, 영업이익 1천677억원으로 영업이익 기준 시장 컨센서스인 1천651억원을 소폭 상회할 전망"이라며 "아이폰 17 시리즈 수요의 견조함은 4분기 실적에 업사이드로 연결될 가능성이 높고, 3분기는 환율 효과가 주된 이익 개선 요인으로 작용할 것"이라고 밝혔다.

2025.10.12 09:42장경윤

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

정부 위약금 면제 판단에...KT "해킹 보상안 조속히 발표"

배민 독주에 균열...새해 승부처는 ‘AI 효율화’

분리 매각 카드 꺼낸 홈플러스…마트는 어떻게 되나

쿠팡 사실상 '1만원' 보상...부정 여론 잠잠해질까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.