• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터센터'통합검색 결과 입니다. (511건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

미스트랄, AI 인프라 자립 '속도'…8억 3000만 달러 조달

미스트랄AI가 유럽에 자체 데이터센터를 구축해 인공지능(AI) 인프라 확대에 나섰다. 30일(현지시간) 테크크런치 등 외신에 따르면 미스트랄AI는 프랑스 파리 인근 브뤼예르르샤텔에 엔비디아 칩 기반 데이터센터를 구축하기 위해 8억 3000만 달러(약 1조 2600억원) 규모 부채를 조달한 것으로 전해졌다. 해당 시설은 올 2분기 가동을 목표로 한다. 이번 데이터센터는 미스트랄AI가 지난해부터 추진해 온 인프라 전략 연장선이다. 아서 멘슈 미스트랄AI 최고경영자(CEO)는 지난해 2월 다양한 자금 조달 방안을 검토하겠다고 밝힌 바 있다. 미스트랄AI는 유럽 전역 인프라 확장에도 속도를 내고 있다. 스웨덴에 14억 달러(약 2조 1000억원)를 투자해 데이터센터를 포함한 AI 인프라를 구축할 계획이다. 또 내년 유럽에 200메가와트(MW) 규모 연산 용량을 배치할 방침이다. 미스트랄AI는 지금까지 총 28억 유로 넘는 자금을 확보했다. 제너럴캐털리스트를 비롯한 ASML, 앤드리슨호로위츠, 라이트스피드, DST글로벌 등이 투자에 참여했다. 멘슈 CEO는 "유럽 내 인프라 확장은 고객을 지원하고 AI 혁신과 자율성이 유럽 중심에 머물도록 하는 데 중요하다"며 "정부 기업 연구기관이 자체 AI 환경 구축 수요를 보이는 만큼 투자를 지속할 것"이라고 밝혔다.

2026.03.31 09:31김미정 기자

스타클라우드, 2500억 투자 유치…우주 데이터센터 유니콘 등극

우주 데이터센터 구축을 목표로 하는 스타트업 스타클라우드가 1억 7000만 달러(약 2579억원) 규모 시리즈 A 투자를 유치했다. 31일 테크크런치 등 외신에 따르면 스타클라우드는 11억 달러(약 1조 6692억원)의 기업가치를 인정받으며 와이콤비네이터 졸업 후 가장 빠르게 유니콘 반열에 오른 스타트업 중 하나가 됐다. 이번 투자는 벤치마크와 EQT벤처스가 주도했다. 데모데이 이후 17개월 만에 성사됐다. 지상 데이터센터가 전력, 부지, 규제 문제에 직면하면서 이를 우주로 확장하려는 시도가 투자 확대의 배경으로 분석된다. 스타클라우드는 이번 라운드를 포함해 총 2억 달러를 확보했다. 2025년 11월 엔비디아 H100 GPU를 탑재한 첫 위성을 발사했다. 올해 하반기에는 블랙웰 칩과 AWS 서버 블레이드 등을 탑재한 '스타클라우드2'를 발사할 계획이다. 차세대 데이터센터 우주선 '스타클라우드3' 개발도 진행한다. 이 장비는 200킬로와트 전력을 사용하는 3톤급으로, 스페이스X의 '스타십' 로켓을 통해 발사될 예정이다. 스타링크 위성 배치 방식인 '페즈 디스펜서' 구조에 맞춰 설계된다. 필립 존스턴 CEO는 발사 비용이 킬로그램당 500달러 수준까지 낮아질 경우 전력 비용이 kWh당 0.05달러 수준으로 떨어져 지상 데이터센터와 경쟁이 가능할 것으로 전망했다. 다만 스타십 상용화가 핵심 변수다. 회사는 2028~2029년 상용 발사를 예상하고 있다. 사업 모델은 두 가지다. 먼저 궤도상 위성에 연산 서비스를 제공한다. 이후 발사 비용이 낮아지면 지상 데이터센터의 연산을 우주로 분산 처리하는 구조로 확장한다는 계획이다. 회사는 첫 위성에서 AI 모델 학습과 '제미니' 실행을 수행했다고 설명했다. 다만 기술적 과제는 여전히 크다. 고성능 GPU의 발열을 처리할 냉각 기술과 안정적인 전력 공급이 필요하다. 스타클라우드2에는 대형 전개형 라디에이터가 탑재될 예정이다. 또한 수백, 수천 개 GPU를 연결하려면 위성 간 고속 레이저 통신도 확보해야 한다. 시장 경쟁도 본격화되고 있다. 에테르플럭스, 구글 '프로젝트 선캐처', 에테로 등이 유사 사업을 추진 중이다. 스페이스X 역시 최대 100만 개 위성을 활용한 분산 컴퓨팅 구상을 추진하고 있다. 필립 존스턴 CEO는 "스페이스X는 주로 그록(Grok)과 테슬라의 작업 처리를 위한 용도에 집중하고 있다"며 "반면 우리는 에너지 및 인프라 서비스 플레이어로서 접근하고 있기 때문에 충분히 공존할 수 있다"고 밝혔다.

2026.03.31 09:25남혁우 기자

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

국방부가 생성형 인공지능(AI) 기반 국방 데이터 인프라 구축을 위한 첫 단계 사업에 착수했다. 대규모 그래픽처리장치(GPU) 서버를 중심으로 한 인프라를 구축해 국방 AI 서비스 운영 기반을 마련하고 향후 국방 통합 AI 데이터센터 구축을 위한 실증 데이터를 확보한다는 구상이다. 30일 조달청 나라장터에 따르면 국방부 산하 국방통합데이터센터(DIDC)는 최근 '2026년 국방통합AI데이터센터 실증 목적 GPU 서버 구축사업' 입찰을 공고했다. 이번 사업은 국방 AI 데이터센터 구축을 위한 초기 실증 사업으로, GPU 자원 확보와 함께 AI 인프라 운영·관리 체계를 구축하는 것이 핵심이다. 사업 예산은 약 216억원 규모로 책정됐으며 계약 후 210일 이내 수행될 예정이다. 특히 일반경쟁입찰 계약방식으로 평가 비중은 기술 90%, 가격 10%로 구성됐다. 이번 사업은 지난해 구축된 국방 생성형 AI '국방 생성형 AI(GeDAI, Generative Defense AI)' 서비스의 안정적 운영을 지원하기 위한 후속 인프라 확장 성격을 띤다. 국방부는 GeDAI를 실증 수단으로 활용해 GPU 수요와 국방 데이터 활용 요구사항을 도출하고 향후 데이터센터 구축 시 기준으로 활용할 계획이다. 사업 범위는 단순 장비 도입을 넘어선다. 우선 대규모 AI 추론 서비스를 위한 GPU 서버와 클라우드 관리 서버, 고속 네트워크 및 스토리지 등 핵심 인프라가 구축된다. 이와 함께 GPU 가상화 기반 서비스형 플랫폼(PaaS), 백업 시스템, 관제 및 보안 솔루션도 포함된다. 특히 GPU 서버는 엔비디아 B300 기반 고성능 장비로 구성되며 서버 간 최대 800기가비피에스(Gbps)급 네트워크를 통해 대규모 AI 추론 환경을 구현하는 것이 목표다. 이를 바탕으로 국방 데이터 기반 AI 모델 학습과 추론을 동시에 지원하는 고성능 인프라가 마련될 전망이다. 사업은 착수 이후 ▲환경 조사 및 요구사항 분석 ▲아키텍처 상세 설계 ▲장비 설치 및 시험평가 ▲보안 측정 및 검수 ▲안정화 단계로 진행된다. 이후 무상 하자보수 및 운영 안정화까지 포함된 전체 구축 사이클이 약 7개월 내 완료될 예정이다. 국방부는 이번 사업을 통해 GPU 자원을 확대하고 각 군과 수요기관에 AI 서비스를 제공할 수 있는 기반을 마련한다는 방침이다. 또 민·군 협력 기반 AI 연구개발 환경을 조성하고 향후 전군 단위 AI 서비스 확산을 위한 인프라 표준 확보에도 활용된다. 이번 사업은 향후 추진될 국방 통합 AI 데이터센터 구축의 전초 단계로 평가된다. 앞서 정부는 2030년까지 최대 5만 개 GPU를 투입하는 대규모 국방 AI 인프라 구축 계획을 밝힌 바 있다. 이번 실증 사업이 핵심 기반이 될 것이라는 예상이 나온다. 국방부 측은 사업 제안요청서를 통해 "AI 과학기술 강군 육성을 위해 기존 국방 생성형 AI 서비스를 안정적으로 운영·관리할 수 있도록 정보시스템을 증설한다"며 "GPU 기반 인프라 구축을 통해 효율적이고 안정적인 AI 서비스 제공 환경을 마련할 것"이라고 밝혔다.

2026.03.30 17:44한정호 기자

파두, CFMS 2026 참가..."아시아 AIDC 공략 강화"

데이터센터 반도체 기업 파두가 27일 중국 선전에서 개최된 '차이나 플래시 마켓 서밋(CFMS) 2026'에 참가해 중국과 아시아 잠재 고객을 발굴하겠다고 30일 밝혔다. 올해 8회차를 맞아 '사이클을 넘어, 가치 창출'이란 주제로 개최된 CFMS에는 유수의 반도체 기업 등 1500개 이상 기업들이 참가했다. 파두의 Gen5 컨트롤러와 이를 기반으로 한 완제품 SSD는 글로벌 데이터센터 고객들을 통해 성능과 전력 효율성이 검증된 솔루션이다. 현재 글로벌 CSP 및 OEM 업체에 채택됐다. 하이퍼스케일 데이터센터 AI 환경에 최적화한 Gen5 컨트롤러는 최대 14GB/s 순차 읽기 속도, 초당 340만 건(3.4M IOPS) 랜덤 읽기 성능, 7W 미만 전력 효율을 지원한다. 차세대 Gen6 컨트롤러는 AI 데이터센터 환경에서 요구되는 초고속 데이터 처리 성능과 함께 높은 성능에서도 전력 효율을 유지하는 아키텍처를 갖췄다. 기존 Gen5 컨트롤러 대비 2배 이상 향상된 최대 28.5GB/s 순차 읽기 속도, 6.9M IOPS 랜덤 읽기 성능과 함께 8W 미만 전력 효율을 제공해 AI 데이터센터 비용 효율을 높이도록 지원한다. Gen6 컨트롤러는 개발을 마쳤다. 올해 하반기부터 납품할 예정이다. 플렉스 SSD는 고객 각각의 AI 워크로드에 맞춰 기업용 SSD(eSSD)를 설계하도록 지원하는 파두의 맞춤형 플랫폼이다. 고객 필요에 맞게 양산 규모, 브랜드, 펌웨어, 하드웨어를 유연하게 선택할 수 있다. 기존 제조업자 개발방식(ODM)과 달리 고객 수요에 따라 고객 자체 브랜드로 펌웨어와 하드웨어를 최적화해 공급할 수 있다. 강뢰(康雷, 캉레이) 파두 중국법인장은 행사에서 '스토리지의 경계를 확장하다: AI 데이터센터를 위한 차세대 SSD'란 주제로 기조연설했다. 그는 오늘날 AI 추론 서버에는 훈련 서버 대비 더욱 많은 수의 SSD와 높은 SSD 성능∙용량이 요구돼 Gen5, Gen6 도입이 가속된다는 점에 주목하며 파두 최신 컨트롤러와 플렉스 SSD 솔루션을 소개했다. 남이현 파두 대표는 "CFMS 등 해외 전시회를 기반으로 마케팅 활동을 활발하게 펼쳐 고객 다변화와 글로벌 시장 공략을 가속하겠다"며 "올해 1분기에만 수주액이 1500억원을 돌파하며 본격 성장하고 있고 흑자전환도 가시화되는 등 올해는 매출과 이익이 함께 퀀텀점프하는 원년이 될 것"이라고 말했다.

2026.03.30 09:52전화평 기자

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

산일전기, 2대주주 지분 9.98% 블록딜 완료…"유동성 확보 목적"

변압기 제조업체 산일전기는 회사 2대주주 강은숙씨가 산일전기 지분 9.98%를 유럽계 국부펀드를 포함한 글로벌 투자기관에 매각했다고 27일 밝혔다. 강은숙씨는 본인이 보유한 지분 19.06% 가운데 9.98%를 시간외대량매매(블록딜) 방식으로 매각했다. 주당 매각가는 14만 7000원으로 총거래 규모는 4490억원이다. 지분 매각으로 강씨 지분율은 19.06%에서 9.09%로 9.97%포인트 낮아졌다. 산일전기 최대주주는 지분 35.82%를 보유한 박동석 대표다. 박동석 대표 지분율은 변동이 없다. 그외 특수관계인을 포함한 최대주주 지분율은 55.04%에서 45.07%로 낮아졌다. 강씨의 이번 산일전기 주식 매각 사유는 보유주식 매각을 통한 자금 확보다. 산일전기 관계자는 "당사는 주식 거래량이 상대적으로 적어, 이번 거래가 회사의 유동주식수 증대에 긍정적 영향을 미치고, 사업적으로는 인공지능(AI) 데이터센터 등 성장 산업 확장을 통한 매출 성장으로 주주가치를 높일 것으로 기대한다"고 말했다.

2026.03.27 09:32장경윤 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

에퀴닉스, AI 시대 데이터센터 인재 키운다…글로벌 투자 확대

에퀴닉스가 글로벌 데이터센터 산업의 인력 부족 문제에 대응하기 위해 인재 양성 투자를 확대한다. 인공지능(AI)과 디지털 전환 확산에 따른 인프라 수요 증가에 맞춰 교육·채용 연계를 강화한다는 목표다. 에퀴닉스는 디지털 인프라 분야 차세대 기술 인재 양성을 위한 글로벌 투자 계획을 발표했다고 25일 밝혔다. 이번 이니셔티브는 국제 데이터센터의 날을 맞아 공개됐으며 고급 기술 인력 일자리 기회를 확대하고 지역 사회 기반 인재 생태계를 강화하는 데 초점을 맞췄다. 핵심 프로그램은 '패스웨이 투 테크'의 글로벌 확대다. 해당 프로그램은 14~18세 학생을 대상으로 데이터센터 운영 분야 진입 경로를 제공하는 초기 인재 양성 과정이다. 기존 미국과 아시아태평양 일부 지역에서 약 2000명을 대상으로 운영된 바 있다. 이를 전 세계 에퀴닉스 데이터센터로 확대해 청년층의 산업 진입을 지원한다. 참가자는 전문가 멘토링, 데이터센터 투어, 실습 중심 교육 등을 통해 디지털 인프라 환경을 직접 경험할 수 있다. 인턴십과 견습 프로그램으로 이어지는 경력 경로도 제공해 접근성이 낮지만 수요가 높은 고임금 기술 직군 진입을 돕는다는 설명이다. 아울러 글로벌 데이터센터 기술자 교육 연합도 출범한다. 에퀴닉스 재단은 비영리 단체 제너레이션과 협력해 교육 커리큘럼 개발과 채용 연계를 추진하며 브라질을 시작으로 글로벌 확장을 계획 중이다. 글로벌 운영 견습 프로그램도 확대된다. 브라질·프랑스·독일·미국·싱가포르·영국 등 주요 시장에서 통합된 교육과정을 도입해 인턴십과 초기 경력 프로그램을 강화하고 현장 중심 기술 인력 양성 체계를 구축할 예정이다. 또 '러닝 랩' 프로그램을 통해 데이터센터 인프라 운영에 필요한 실무 역량 교육도 제공한다. 전기 시스템, 냉각·공조, 안전, 시설 운영 등 핵심 기술을 현장 중심으로 학습할 수 있도록 설계됐다. 에퀴닉스는 이러한 프로그램을 올해부터 미주, 유럽·중동·아프리카(EMEA), 아시아태평양 지역에 순차적으로 도입해 글로벌 인재 파이프라인을 구축할 계획이다. 라우프 압델 에퀴닉스 글로벌 운영 수석 부사장은 "데이터센터는 디지털 세계의 심장이자 글로벌 연결의 핵심 인프라"라며 "AI로 인한 인프라 수요 증가에 대응하기 위해 미래 기술 인재 양성에 지속적으로 투자할 것"이라고 말했다. 브랜디 갤빈 모란디 에퀴닉스 최고인사책임자(CPO)는 "우리는 조기 인재 양성과 지역 사회 기반 기회 확대를 통해 업계에 필요한 숙련 인재를 확보하고 있다"며 "교육과 실무 경험을 결합해 새로운 기술 인재를 발굴·육성해 나갈 것"이라고 밝혔다.

2026.03.25 16:47한정호 기자

Arm, AGI CPU 시연 "저전력·고성능으로 효율 극대화"

[샌프란시스코(미국)=권봉석 기자] Arm은 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 데이터센터용 IP(지적재산권) '네오버스'를 활용한 자체 개발 제품 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스 v3'를 활용해 설계된 첫 완제품이다. AGI CPU는 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. 오후에 아태지역 기자단 대상으로 진행된 시연에서는 AGI CPU를 AI 워크로드 전반을 조율하는 장치로 활용하고 NPU·GPU 등 가속기와 결합하는 하이브리드 AI 아키텍처를 제시했다. 이날 Arm 관계자는 영상 변환과 추론을 동시에 수행하는 시나리오를 전제로 "기존 x86 프로세서는 최대 성능으로 작동시 성능 저하가 발생해 영상 처리시 버퍼링이 발생한다. 반면 Arm AGI CPU는 초당 30프레임으로 영상을 변환해 버퍼링 없는 영상 처리를 수행할 수 있다."고 설명했다. 이어 "기존 CPU는 전력 소모가 커서 냉각을 위해 2U 단위 큰 부피를 차지하며 한 랙에 넣을 수 있는 서버 수도 제한된다. 반면 AGI CPU는 1U 서버에서도 공랭이 가능하기 때문에 더 작은 폼팩터로 더 많은 서버를 랙에 배치할 수 있다"고 설명했다. SAP AI 모델 기반 시연에서는 CPU의 역할 변화가 구체적으로 제시됐다. 시연을 진행한 Arm 관계자는 "라우터, 링커, 검증기, 스코어러 등 다수의 에이전트가 협업해 리스크를 평가하는 작업은 기존에 많은 시간이 걸렸지만 AGI CPU는 이를 수 시간으로 단축할 수 있다"고 밝혔다. 고객 서비스 자동화 시연은 이메일을 자동으로 분류하고 고객에게 직접 전화를 거는 8개 에이전틱 AI가 동시 실행되는 환경을 보여줬다. 대부분의 에이전트는 AGI CPU에서 실행되며 복잡한 추론은 국내 AI 스타트업인 리벨리온 NPU 가속기를 활용했다. Arm 관계자는 "AGI CPU를 기반으로 필요할 경우 외부 가속기를 유연하게 통합 가능하며 이를 활용해 각종 이메일을 기존 대비 두 배 이상의 속도로 처리할 수 있다"고 설명했다. Arm은 기존 x86 서버 기반으로 작성된 코드를 Arm 기반으로 변환하기 위한 도구도 함께 시연했다. AI 에이전트가 기존 코드와 컨테이너를 분석해 자동으로 수정하는 한편 성능이 저하되는 병목구간에서 Arm AI 가속 명령어인 SVE를 적용해 추가 최적화를 지원한다. 전자설계자동화(EDA) 워크로드 시연에서는 실제 반도체 설계 환경 활용 사례를 보였다. AGI CPU에 내장된 최대 136개 코어를 활용해 더 많은 작업을 짧은 시간에 소화해 개발 단계를 단축할 수 있다. Arm 관계자는 "기존에는 지멘스나 시높시스 솔루션을 클라우드에서 활용해야 했지만 AGI CPU를 활용하면 시뮬레이션과 전력 분석 등 메모리 집약적 작업을 온프레미스 환경에서수행할 수 있다"고 밝혔다.

2026.03.25 16:18권봉석 기자

SK텔레콤 "Arm AGI CPU 활용 AI 데이터센터 사업 확장"

[샌프란시스코(미국)=권봉석 기자] SK텔레콤이 24일(현지시간) Arm AGI CPU와 리벨리온 AI 가속기를 활용해 AI 데이터센터 인프라 사업을 확장하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 기조연설에서 에이전틱 AI 추론 처리에 특화된 CPU 완제품 첫 제품인 'AGI CPU'를 공개했다. 정석근 SK텔레콤 최고기술책임자(CTO)는 이날 영상메시지에서 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장할 것"이라고 설명했다. 이어 "자체 개발한 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써, 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 덧붙였다. 이날 현장에서 만난 리벨리온 관계자는 "에이전틱 AI는 CPU 효율이 매우 중요하며 NPU 가속기를 단순히 결합하는 것이 아니라 시스템 차원 통합의 필요성이 크다"고 설명했다. 이어 "올 하반기부터 리벨리온 NPU와 Arm AGI CPU를 결합한 솔루션을 바탕으로 SK텔레콤과 벤치마킹을 진행할 예정이며 구체적인 일정은 Arm AGI CPU 기반 서버 공급업체와 논의중"이라고 덧붙였다. 이 관계자는 "에이전틱 AI로 인해 추론 시장 확장이 예상되며 리벨리온은 Arm 글로벌 파트너사로 Arm의 네트워크를 활용해 SK텔레콤을 시작으로 추후 다른 고객사까지 솔루션 보급 확대를 계획중"이라고 밝혔다.

2026.03.25 09:40권봉석 기자

[현장] LG CNS, 현신균 대표 연임…"M&A 폭넓게 검토"

LG CNS가 지난해 역대 최대 실적을 기반으로 한 인공지능(AI) 중심 성장 전략과 경영 체제 안정화를 동시에 다졌다. 연임에 성공한 현신균 대표는 향후 3년간 회사의 AI 전환(AX) 사업을 본격화하며 미래 성장 동력 확보에 속도를 낼 방침이다. LG CNS는 24일 서울 마곡 LG사이언스파크 E9동에서 '제39기 정기주주총회'를 개최했다. 이날 주총은 상정 안건들이 큰 이견 없이 의결돼 약 25분 만에 빠르게 종료됐다. 이날 주총에선 감사보고, 영업보고, 내부회계관리제도 운영실태 보고 등 3건의 보고사항이 공유됐다. 이어 ▲제39기 재무제표 승인의 건 ▲정관 일부 변경의 건 ▲이사 선임의 건 ▲감사위원회 위원 선임의 건 ▲이사 보수 한도 승인의 건 등 주요 안건이 상정됐으며 모두 원안대로 가결됐다. 재무제표 승인 안건에서는 LG CNS의 실적 성장세가 강조됐다. 회사는 지난해 연결 기준 매출 6조 1295억원, 영업이익 5518억원, 영업이익률 9.0%를 기록하며 역대 최대 실적을 달성했다. AI·클라우드 중심의 기술 리더십 확보와 금융·공공 분야 AX 사업 확대가 실적을 견인했다는 설명이다. 현금배당 지급은 중간배당 주당 750원, 결산배당 주당 1100원으로 총 주당 1850원이다. 실적 개선에 따른 주주환원 기조를 이어간 것으로 풀이된다. 정관 변경 안건에서는 사업 구조 변화와 제도 개선 방향이 반영됐다. 회사는 마이데이터 사업 철수에 따라 관련 사업 목적을 정관에서 삭제하고 사업목적을 현행화했다. 아울러 전자주주총회 도입, 집중투표제 배제 조항 삭제, 사외이사 명칭을 '독립이사'로 변경, 감사위원 분리선출 확대 및 '합산 3% 룰' 반영 등 개정 상법 사항을 정관에 반영했다. 이사 선임 안건에서는 현신균 대표가 사내이사로 재선임되며 연임에 성공했다. 임기는 3년으로 2029년까지다. 송광륜 최고재무책임자(CFO)는 사내이사로 신규 선임됐으며 정환 고려대 교수는 사외이사로 재선임됐다. 이성주 서울대 교수 역시 감사위원이 되는 사외이사로 재선임됐다. 감사위원 선임도 함께 이뤄졌다. 정환 교수는 감사위원으로 재선임됐고 이성주 교수는 분리선출 방식의 감사위원으로 선임됐다. 이사 보수 한도는 전년과 동일한 50억원으로 승인됐으며 전년도 집행액은 약 20억 8000만원 수준이다. 현 대표는 이날 인사말을 통해 회사의 사업 성과와 전략 방향을 강조했다. 그는 "지난해에는 고객의 디지털 전환을 함께 하며 새로운 비즈니스 가치를 창출하는 디지털 비즈니스 이노베이터로서 지속 성장했다"며 "AI·클라우드 분야에서 기술 리더십을 강화하고 금융·공공 영역에서도 주요 AX 사업을 잇따라 수주하며 시장 경쟁력을 확보했다"고 말했다. 이어 "글로벌 딜리버리 네트워크(GDN)와 AI 네이티브 개발(AIND)을 고도화해 고객이 필요로 하는 AI 기술과 서비스를 빠르고 정확하게 제공하겠다"며 AX 중심 사업 강화 의지를 드러냈다. 주총 이후 기자들과의 질의응답에서는 향후 투자 전략과 신사업 방향에 대한 질문이 이어졌다. 현 대표는 "피지컬 AI는 로봇 관련 기술검증(PoC)를 진행 중"이라며 "피지컬 AI뿐 아니라 다양한 영역의 인수합병(M&A)도 폭넓게 검토 중"이라고 말했다. 또 LG그룹이 주력하고 있는 AI 데이터센터 사업과 관련해선 "AI 데이터센터는 LG그룹 역량을 모아 추진 중"이라고 설명했다. 자사주 소각 계획에 대해선 현재 별도의 추진 계획은 없다는 입장을 밝혔다. 아울러 최근 체결한 팔란티어와의 전략적 파트너십과 관련한 구체적 시너지 및 향후 계획에 대해선 말을 아꼈다. 현신균 LG CNS 대표는 "고객의 AX 여정을 주도하는 AX 컴퍼니로서 국내 사업 입지를 더욱 확고히 하고 새로운 시장을 적극 개척해 미래 성장을 이끌 핵심 동력을 지속 발굴해 나가겠다"고 밝혔다.

2026.03.24 11:20한정호 기자

홍범식 LGU+ "LG 그룹사 역량 결집, AIDC DBO 사업 본격화"

LG유플러는 24일 서울 용산 사옥에서 제30기 정기 주주총회를 열고 데이터센터 DBO 사업 본격화를 위해 정관 사업 목적에 '데이터센터 설계 운영 구축 관련 운용업과 관련 용역 및 공사업'을 추가했다. 홍범식 LG유플러스 CEO(최고경영자)는 이날 AI 데이터센터(AIDC)와 관련된 질의에서 "LG전자의 차세대 액체 냉각 솔루션, LG에너지솔루션의 안정적인 전력 공급 시스템과 에너지 효율화 기술 등 그룹의 역량을 하나로 결집해 AIDC 경쟁력을 갖추겠다"며 "AI 기반 DC 인프라 운영시스템을 구축 중"이라고 말했다. 그러면서 "MWC 26에서 발표한 '비욘드(Beyond) AI' 비전은 단순히 AI 기술을 도입하는 것을 넘어 AI가 항상 최적의 환경에서 상시 가동될 수 있도록 지원하겠다는 당사의 강력한 의지를 담고있다"고 강조했다. 이날 주총에선 정관변경 승인 외에도 재무제표 승인, 이사 선임, 감사위원회 위원이 되는 사외이사 선임, 감사위원회 위원 선임, 이사 보수한도 승인 등 6개 안건이 모두 원안대로 의결됐다. 지난해 영업수익 15조 4517억원, 영업이익 8921억원, 당기순이익 5092억원의 재무제표를 승인했다. 기말 배당금이 보통주 1주당 전년보다 10원 늘어난 410원으로결정됨에 따라 연간 배당금은 총 660원으로 확정됐다. 이사 보수한도는 전년과 같은 50억원으로 유지됐다. 상법 개정에 따라 집중투표제 배제 조항을 삭제하고, 사외이사 명칭을 '독립이사'로 변경했다. 분리선출 감사위원은 1명에서 2명으로 확대했다. 이사 선임 안건에서는 여명희 최고재무책임자 겸 최고리스크관리책임자가 2023년에 이어 사내이사로 재선임됐다. 기타비상무이사엔 이상우 LG 경영전략부문장이 선임됐다. 사외이사와 감사위원으로는 엄윤미 재단법인 씨앗 등기이사와 송민섭 서강대 경영학과 교수가 선임됐다. 홍 CEO는 “더욱 단단한 신뢰를 기반으로 성공 경험을 축적하고 이를 확장해 나가는 한 해를 만들겠다”며 “고부가가치 중심의 B2B AX 사업을 확장해 수익 구조를 혁신하고 주주가치 제고를 위한 기업가치 제고 계획을 성실히 이행하겠다”고 밝혔다.

2026.03.24 11:20홍지후 기자

홍범식 LGU+ "글로벌 최고 수준으로 보안 강화"

LG유플러스가 최근 IMSI 핸드폰 번호 적용 관련 보안 우려를 의식한 듯 신뢰 기반 소통을 강조했다. 선제적 예방 체계를 기반으로 보안과 안전을 강화하겠다는 방침이다. 홍범식 LG유플러스 최고경영자(CEO)는 24일 서울 용산구 LG유플러스 사옥에서 열린 제 30기 정기 주주총회에서 "올해 LG유플러스는 더욱 단단한 '신뢰'를 기반으로 가입자와 함께 성공 경험을 축적하고, 그 성공을 확장해 나가는 한 해를 만들겠다"며 "'선제적 예방' 체계를 강화함으로써 보안, 품질, 안전을 글로벌 최고 수준으로 끌어올리겠다"고 밝혔다. 그러면서 "통신 산업의 기본인 '품질, 보안, 안전'을 경영의 최우선 원칙으로 삼고 이를 더욱 공고히 하겠다"고 덧붙였다. 가입자 경험의 혁신도 강조했다. 홍 CEO는 "디지털 혁신으로 복잡함은 줄이고 고객에게 진정으로 필요한 가치를 전달하겠다"고 말했다. AI 데이터센터(AI DC)관련 B2B 사업의 확대도 언급했다. 홍 CEO는 "고부가가치 중심의 B2B AX 사업을 확장해 수익 구조를 혁신하겠다"며 "자체 데이터센터의 견조한 성장을 바탕으로 AIDC DBO 사업을 가속화하고, 에이전틱 AICC 등 신사업 성장을 통해 변화하는 시장 환경에 민첩하게 대응하며 차별화된 성장을 실현하겠다"고 강조했다. 주주 중심 경영을 핵심 가치로 삼고, 주주 환원을 강화하겠다는 의지도 강조했다. 홍 CEO는 "주주가치 제고를 위한 '기업가치 제고 계획'을 성실히 이행하겠다"며 "수익성 개선을 기반으로 주주환원율을 확대하고, 자사주 소각 및 매입을 탄력적으로 운영하며, 주주와 성장의 결실을 나눌 수 있도록 최선을 다하겠다"고 말했다.

2026.03.24 09:49홍지후 기자

파두, 신임 CRO에 김진수 서울대 교수 영입

데이터센터 반도체 전문기업 파두가 김진수 서울대학교 컴퓨터공학과 교수를 최고연구책임자(CRO)로 영입했다고 23일 밝혔다. 파두는 이번 CRO 영입을 통해 인공지능(AI) 데이터센터에 최적화된 차세대 스토리지 시스템 개발로 사업 영역을 본격 확장한다. 연구는 이미 착수한 상태며 올해 중 첫 번째 개념검증(POC)을 선보일 예정이다. 김 교수는 서울대학교 컴퓨터공학과에서 컴퓨터 아키텍처 및 시스템 소프트웨어를 연구해온 국내 최고 권위의 전문가다. 네이버 파일 시스템 개발에 핵심적으로 참여하는 등 대규모 스토리지 소프트웨어와 시스템 설계 양면에서 탁월한 산학협력 성과를 창출한 경력을 보유하고 있다. 김 신임 CRO는 “파두는 글로벌 AI 데이터센터 생태계에서 이미 기술력을 검증받은 기업”이라며 “컴퓨터 아키텍처와 시스템 소프트웨어의 관점에서 차세대 스토리지의 새로운 가능성을 함께 열어가고 싶다"고 밝혔다. 김 CRO가 이끄는 연구팀은 이미 AI 데이터센터에 특화된 차세대 스토리지 시스템과 전용 SSD 개발에 착수했다. 파두는 하드웨어와 소프트웨어를 통합 설계하는 방식으로, 기존 범용 스토리지 제품이 충족하지 못하는 AI 워크로드의 대용량·초고속·고효율 요구를 해결하는 솔루션을 개발할 계획이다. 파두는 올해 중 첫 번째 POC를 공개하며 AI 데이터센터 스토리지 분야의 기술 방향성과 혁신 역량을 업계에 선보일 예정이다. 남이현 대표는 "기업용 SSD에서 쌓아온 기술력과 시장의 신뢰가 이제 본격적인 사업 성과로 이어지고 있다"며 "김진수 CRO와 함께 AI 데이터센터 스토리지라는 새로운 도전을 시작하게 되어 뜻 깊다"고 전했다. 이어 "SSD를 넘어 스토리지 시스템 전체를 혁신함으로써 미래 AI 데이터센터에서 없어서는 안 될 핵심 기업으로 성장해 나가겠다"고 덧붙였다.

2026.03.23 13:26전화평 기자

신세계I&C, 미국 AI 투자 첫 검토…정용진 회장 'AI 승부수' 가속

신세계I&C가 인공지능(AI) 비즈니스 강화를 위해 신세계그룹의 미국 투자 법인을 통한 첫 투자에 나선다. 최근 그룹 차원의 AI 투자 확대 흐름과 맞물린 중장기 전략으로 풀이된다. 23일 관련 업계에 따르면 신세계I&C는 최근 이사회를 열고 신세계그룹의 미국 투자 법인 퍼시픽얼라이언스벤처스(PAV)가 운영하는 'PAV 펀드' 투자 안건을 승인했다. 퍼시픽얼라이언스벤처스는 신세계그룹이 글로벌 기술 기업 발굴과 전략적 투자를 위해 설립한 미국 현지 투자 법인이다. 유망 스타트업 발굴과 신기술 확보를 위한 전진기지 역할을 맡고 있으며 최근에는 그룹 디지털 전환 전략에 맞춰 AI, 클라우드 등 기술 분야로 투자 범위를 확대하고 있다. 그동안 신세계I&C는 바알리플랫폼, 워프솔루션 등 국내 기술 기업 중심으로 투자를 진행해왔다. 해당 법인을 통해 해외 투자에 참여하는 것은 이번이 처음이다. 신세계I&C 관계자는 "기술 기업 투자는 국내에서도 이전부터 이어온 것"이라며 "이번에 대상이 미국이라는 점이 처음일 뿐"이라고 설명했다. 다만 현재까지 구체적인 투자 대상은 정해지지 않았다. 그는 "펀드 투자 승인만 이뤄진 상황으로, 어느 기업에 투자할지는 아직 결정된 바 없다"며 "현 단계에서 특정 기술이나 기업과의 연관성을 말하기는 어렵다"고 밝혔다. 현재 신세계I&C는 '스파로스 AI 계산대' 등 오프라인 리테일 현장에 적용 가능한 AI 솔루션 확대에 주력하고 있다. 이번 투자는 기존 사업과 별도로 글로벌 기술 확보를 통해 AI 경쟁력을 강화하려는 중장기 전략으로 해석된다. 관련 업계는 이번 투자가 그룹 차원의 AI 전략과 궤를 같이하는 행보라고 보고 있다. 신세계그룹은 유통 서비스에 AI를 접목하는 수준을 넘어, 인프라부터 응용 서비스까지 전 과정을 아우르는 방향으로 확장을 추진하고 있다. 신세계그룹은 미국 스타트업 '리플렉션AI'와 한국 소버린 AI 팩토리 구축을 위한 전략적 파트너십을 체결하고 국내 AI 데이터센터 건립 계획을 발표했다. 정용진 신세계그룹 회장이 직접 미국 샌프란시스코를 찾아 양해각서를 체결하는 등 AI를 미래 성장 기반으로 삼겠다는 의지를 드러냈다. 이 같은 흐름은 알리바바와의 협업에서도 확인된다. 신세계그룹은 중국 알리바바그룹과 합작법인을 설립하고, G마켓을 중심으로 향후 3년간 3천억원을 투입해 AI 기반 검색과 추천 기능 고도화를 추진하고 있다. 신세계I&C 측은 이번 투자와 데이터센터 사업 간 직접적인 연계성은 아직 없다는 입장이다. 신세계I&C 관계자는 "그룹 차원에서 AI 투자 확대 기조는 이어지고 있다"면서도 "데이터센터는 별도 추진되는 사업으로 이번 투자와는 분리된 사안"이라고 말했다.

2026.03.23 11:34남혁우 기자

LG전자 류재철 "올해 로봇 사업 원년"...AIDC 냉각 솔루션 확장

LG전자가 가전 중심 사업에서 벗어나 로봇 핵심 부품과 인공지능(AI) 데이터센터 냉각 인프라 등 고수익 B2B(기업 간 거래) 부문 역량을 결집한다. AI 기술 확산과 글로벌 공급망 재편이라는 거시적 변화 속에서 기존 하드웨어 제조 역량을 인프라 솔루션으로 전환해 성장 밀도를 높이겠다는 전략적 포석으로 풀이된다. LG전자는 23일 서울 여의도 LG 트윈타워에서 제24기 정기 주주총회를 개최하고, 로봇 액추에이터 사업화, AI 데이터센터(AIDC)용 액체냉각 솔루션 고도화 등 미래 전략 사업의 구체적 실행 방안을 발표했다. 류재철 LG전자 최고경영자(CEO)는 인사말에서 "LG전자는 AI가 사업 근간을 바꾸고 글로벌 공급망이 재편되는 변곡점에 서 있다"며 "시장 불확실성은 커졌지만, 이를 독보적 역량과 시너지를 낼 수 있는 '성장의 밀도를 높일 결정적 기회'로 삼겠다"고 밝혔다. 4대 미래 전략사업 제시…"로봇 사업 본격화 원년" 선포 류 사장은 주총에서 LG전자 미래를 이끌 ▲로봇 ▲AIDC 냉각솔루션 ▲스마트팩토리 ▲AI홈 등 4대 미래 전략사업을 공식화했다. 로봇 사업에 대해서는 강력한 추진 의지를 피력했다. 그는 "최근 피지컬 AI와 로봇 관련 기술의 발전 속도가 예상을 뛰어넘고 있다"며 "올해를 '로봇 사업 본격화 원년'으로 삼고 세부 전략을 속도감 있게 실행하겠다"고 강조했다. 핵심은 로봇 움직임을 결정하는 핵심 구동계 '액추에이터'의 B2B 사업화다. LG전자는 로봇 원가 40% 이상을 차지하는 액추에이터를 직접 설계·생산하는 전용 브랜드 '악시움(AXIUM)'을 앞세워 글로벌 로봇 제조사 공략에 나선다. 류 사장은 "가전 사업에서 확보한 연간 4500만대 규모 모터 기술력과 양산 인프라를 로봇 부품 사업에 이식할 것"이라며 "단순 기기 판매를 넘어 수십조 원 규모 로봇 부품 시장에서 핵심 공급사로 자리매김하겠다"고 설명했다. AI 데이터센터 겨냥한 액체냉각 및 CDU 개발 가속 또 다른 핵심 축인 AIDC 냉각솔루션 사업은 AI 인프라 수요 급증에 맞춰 기술 진화를 서두르고 있다. 열 문제를 해결하기 위해 기존 공기 냉각 방식에서 차세대 '액체냉각' 솔루션으로 전환을 서두르고 있는 것이다. 이재성 ES사업본부장(사장)은 "액체냉각 시스템 핵심인 CDU 등 요소 부품의 자체 개발 능력과 생산역량을 확대하고 있다"며 "데이터센터는 클라이언트별 일대일 설계 요구가 많은 만큼, 고객 맞춤형 설계 역량을 강화해 글로벌 빅테크 기업의 인프라 파트너로 진입하겠다"고 밝혔다. 이는 가전 분야 고효율 인버터 및 부품 기술력을 B2B 인프라 시장에 적용해 고수익을 창출하겠다는 전략이다. 인도 등 '글로벌 사우스 2.0' 전략…B2C 리더십을 B2B로 전이 지정학 변화에 대응하기 위해 인도 등 '글로벌 사우스' 시장을 단순한 생산거점이 아닌 전략적 핵심기지로 육성하는 '글로벌 사우스 2.0' 전략도 본격 가동한다. 인도와 브라질, 사우디아라비아 등 지역에서 2030년까지 매출을 2배로 올리는 게 목표다. 특히 인도 현지 완결형 사업체계를 구축해 생산부터 기술 지원까지 현지에서 즉각 대응할 수 있는 구조를 완성할 계획이다. 류 사장은 "글로벌 사우스 거점에 스마트팩토리 솔루션을 적용해 제조원가 경쟁력을 극대화할 것"이라며 "포스트 차이나로 부상한 이들 시장은 불확실한 경영환경에서 LG전자의 강력한 성장동력이 될 것"이라고 기대했다. LG전자는 이를 바탕으로 B2B 육성사업 매출과 이익을 2030년까지 지난해보다 각각 1.7배, 2.4배 수준으로 성장시킬 계획이다. AX 기반 제조 혁신…2년 만에 수주잔고 5000억원 확보 미래 사업 실행력을 뒷받침하기 위해 인공지능 전환(AX)을 통한 업무 프로세스 재설계도 추진한다. LG전자는 제품 개발기간 단축과 고정비 절감 등 그간 가시화한 AX 성과를 영업, 마케팅, 생산 등 전사 차원으로 확대해 향후 2~3년 내에 업무 생산성을 30% 이상 높이겠다는 목표를 제시했다. LG전자는 "스마트팩토리 사업은 전담 조직 설립 2년 만에 5000억원 수주잔고를 기록하며 가시적 성과를 내고 있다"고 밝혔다. 회사는 이를 타 산업군 제조 혁신을 돕는 고수익 B2B 솔루션으로 육성해, 외부환경에도 흔들리지 않는 견고한 성장 기반을 증명해 보이겠다는 방침이다.

2026.03.23 11:32전화평 기자

[AI 고속도로] '베라루빈' 도입·연내 구축 가능할까…정부 GPU 확충 쟁점은

정부가 '인공지능(AI) 고속도로' 구현을 위한 2조원 규모 최신 그래픽처리장치(GPU) 확충 사업에 착수한다. 엔비디아가 공개한 차세대 GPU '베라루빈' 도입 가능성까지 포함되면서 사업 방향과 세부 기준에 대한 업계 관심이 높아지고 있다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 20일 서울 포스코타워 역삼에서 '2026년 AI컴퓨팅자원 활용기반 강화사업(GPU 확보·구축·운용지원)' 공모 사업설명회를 개최했다. 이날 현장에선 사업 구조와 평가 기준, 데이터센터 요건 등을 설명하고 현장 질의응답을 진행했다. 이병묵 NIPA AI인프라확충팀장은 "단기간 성패가 좌우되는 AI 시장에서 국가 차원의 첨단 GPU를 수요가 높은 곳에 조기 확보해 서비스로 지원할 계획"이라며 "민관 협력을 통해 AI 컴퓨팅 인프라를 즉각 확충하고 생태계 활력과 글로벌 경쟁 기반을 동시에 확보하겠다"고 밝혔다. 이날 설명회에는 지난해 사업에 선정된 네이버클라우드·NHN클라우드·카카오엔터프라이즈를 비롯해 KT클라우드 등 국내 클라우드 서비스 제공사(CSP)와 엘리스그룹이 자리했다. 또 삼성SDS·LG CNS 등 SI 기업과 메가존클라우드·디딤365, 레드햇·클러쉬, 델·HPE·IBM·넷앱·슈퍼마이크로 등 인프라 기업, 엔비디아·AMD·인텔, MS·구글 클라우드, SK텔레콤·쿠팡 등 60여개 기업 200여 명이 참석했다. 현장 질의응답에선 차세대 GPU 도입 기준을 비롯해 데이터센터 구축 방식, 글로벌 공급망 위협과 환율 변동에 따른 비용 부담, 연내 구축 일정 등 주요 쟁점을 중심으로 사업 참여를 검토하는 기업들의 질의가 이어졌다. 특히 베라루빈 도입 여부와 구축 일정 간 균형, 국내 인프라 중심 운영 원칙 등이 핵심 관심사로 부각됐다. 최신 GPU 중심 평가…베라루빈 도입 기준·일정 변수는 -사업 요건의 비용 대비 높은 GPU 성능은 어떤 기준으로 평가되나. "경제성 항목은 단순히 장비 수량을 많이 확보하는 개념이 아니라, 최신 GPU 기준으로 성능 대비 얼마나 효율적으로 제안하느냐를 보는 것이다. 동일한 예산 안에서 최신 아키텍처 GPU를 얼마나 확보할 수 있는지가 핵심이다. 구형 GPU를 대량으로 제안하는 방식보다는 최신 GPU 중심으로 실제 AI 학습과 추론에 적합한 성능을 확보했는지가 평가 포인트가 된다. 성능 대비 비용, 그 성능이 실제 AI 활용에 얼마나 적합한지를 종합적으로 볼 것이다." -베라루빈 제안 시 클러스터 구축 기준은 어떻게 적용되나. "베라루빈은 아직 구체적인 구성 방식이나 클러스터 단위가 완전히 정형화되지 않은 차세대 GPU다. 기존 블랙웰 계열과 동일한 기준을 그대로 적용하기는 어려울 수 있다. 이 부분은 칩 제조사와 공급망을 통해 확인해야 하는 영역이다. 제안 단계에선 가능한 범위에서 구성 계획을 제시하되, 세부 기준은 제조사 스펙과 실제 공급 조건을 반영해 판단하게 된다. 중요한 것은 차세대 GPU 도입 의지와 실현 가능성이다." -특정 제조사의 GPU만을 고려해 평가가 이뤄지는지. "이번 사업은 특정 칩 제조사를 배제하거나 제한하려는 것이 아니라, 국가 차원에서 AI 인프라를 가장 빠르게 확보하는 것이 목적이다. 현재 시장에서 대규모 AI 모델 학습과 서비스에 가장 널리 활용되는 최신 GPU를 중심으로 판단하게 된다. 다양한 선택지가 있을 수 있지만 실제 활용성과 안정성, 공급 가능성을 종합적으로 고려할 수밖에 없다." -베라 루빈 출시 일정과 연내 구축 목표가 충돌할 경우 기준은. "기본적으로 이번 사업은 연내 구축과 서비스 개시가 중요한 목표다. 다만 차세대 GPU 도입은 평가에서 우대 요소로 반영된다. 베라 루빈의 경우 일반적인 글로벌 공급 일정과 달리 국내 도입 시점이 앞당겨질 가능성도 있다. 관계 부처와 제조사 간 협의를 통해 국내 물량 확보를 추진해 왔다. 결국 일정과 최신성 두 요소를 함께 고려하되, 현실적인 공급 상황을 반영해 판단할 것이다." -GPU 납기 지연 등 변수 발생 시 일정 조정이 가능한가. "사업자가 최종 선정된 이후 협약 단계에서 시장 상황을 반영해 일부 조정은 가능하다. 기본 원칙은 유지하되, 실제 납기나 공급 이슈가 불가피하게 발생하는 경우까지 일률적으로 적용하기는 어렵다. 협약 과정에서 합리적으로 논의할 수 있는 여지는 있다." "국내 데이터센터 집적이 원칙"…냉각 인프라도 예산에 포함 -복수 데이터센터를 활용한 구축·운용이 가능한가. "데이터센터를 여러 개 제안하는 것은 가능하다. 다만 사업에서 요구하는 최소 클러스터 단위는 반드시 동일 공간 또는 동일 층에 물리적으로 집적돼야 한다. 대규모 AI 연산을 위해서는 GPU 간 통신 지연을 최소화하는 구조가 필요하기 때문이다. 따라서 분산 배치는 가능하지만, 핵심 클러스터는 집적형으로 구성해야 한다." -동일 제조사 내 서로 다른 GPU 모델을 혼합해 제안할 수 있나. "가능은 하지만 단순 혼합이 아니라, 각각의 GPU 구성에 대한 명확한 목적과 타당성을 제시해야 한다. 어떤 워크로드에 어떤 GPU를 쓰는지, 클러스터 단위 기준을 어떻게 충족하는지를 설명해야 한다. 단순히 여러 모델을 섞는 방식은 설득력이 떨어질 수 있다." -해외 데이터 연동이나 네트워크 활용은 원천 불가능한가. "사업의 기본 원칙은 국내 데이터센터에서 GPU를 직접 운영·통제하는 것이다. 국가 AI 인프라라는 특성상 데이터 주권과 보안이 중요하다. 다만 실제 운영 과정에서 필요한 세부 사항은 추가 논의를 통해 정리할 수 있다." -수냉 배관 등 데이터센터 공사 비용도 사업 지원비에 포함되나. "GPU 서버가 최고 성능을 낼 수 있도록 필요한 환경이라면 통합 구축 범위에 포함해 제안할 수 있다. 단순히 장비만 도입하는 것이 아니라 실제 운영 가능한 인프라를 구축하는 것이 목적이다. 전력·냉각·네트워크까지 포함한 전체 시스템 관점에서 제안하는 것이 중요하다." -콜드플레이트 등 냉각 구성 요소는 어떻게 반영해야 하나. "세부적인 하드웨어 구성은 서버 벤더와 칩 제조사 기준을 따르는 것이 바람직하다. GPU 성능을 충분히 발휘할 수 있는 구성이라면 관련 부대장비까지 포함해 제안하면 된다. 단순 장비 나열이 아니라 완성된 인프라로서 제안해야 한다." 환율 변수에도 제안가 기준…"사업 종료 후 관리는 정부가" -환율 변동에 따른 가격 차이는 추후 어떻게 반영되나. "기본적으로는 제안 시점에서 확보한 가격을 기준으로 본다. 공모 사업 특성상 사후 정산 구조이기 때문에 가격 변동이 발생하더라도 그 기준을 중심으로 관리하게 된다." -환율 급등 등 외부 변수 발생 시 대응은. "원칙은 제안 가격 기준이다. 다만 전쟁이나 글로벌 공급망 충격과 같은 불가피한 상황이 발생할 경우에는 협약 단계에서 논의가 필요할 수 있다. 모든 변수를 사전에 규정하기는 어렵지만 현실적인 범위에서 대응할 예정이다." -정부 활용분과 기업 자체 활용분은 어떤 기준으로 산정되나. "정부 활용분에 대해 요구되는 최소 클러스터 규모를 먼저 충족해야 하고 그 이후 남는 자원을 자체 활용분으로 설정하는 구조다. GPU 종류나 성능이 서로 다른 경우에는 단순 장수 기준만으로 판단하지 않고 도입 비용과 활용 목적까지 함께 고려해 전체 구성의 타당성을 평가한다. 단순 비율이 아니라 정부 활용 목적에 부합하는지와 자원 배분의 합리성을 종합적으로 볼 것이다." -정부 활용분 GPU에 대한 수요는 보장되나. "수요 모집과 배분은 정부가 담당한다. 사업자는 인프라를 제공하고 운영을 지원하는 역할을 수행하게 된다. 수요 확보 부담을 사업자에게 전가하는 구조는 아니다." -사업 종료 후 GPU 자산은 어떻게 되나. "GPU와 부대장비는 NIPA 자산으로 관리된다. 이후 처리 방식은 관련 규정과 절차에 따라 결정된다. 매각이나 이전 등 다양한 방안을 검토할 예정이다."

2026.03.20 17:58한정호 기자

[AI는 지금] 오픈AI 인프라 전략 흔들리나…'스타게이트' 전면 수정, 왜

오픈AI가 난항을 겪고 있는 대규모 인공지능(AI) 인프라 프로젝트 '스타게이트'의 운영 조직을 3개 그룹으로 재편하고 리더십 교체에 나섰다. 자체 데이터센터를 직접 구축하는 계획을 접고 주요 클라우드 업체로부터 서버를 임대하는 방식으로 전략을 전면 수정한 데 따른 후속 조치다. 자금 조달 난항과 수요 전망 변화가 맞물리면서 AI 인프라 확보 방식이 근본적으로 바뀌고 있다는 분석이 나온다. 18일(현지시간) IT 전문 매체 디인포메이션에 따르면 오픈AI는 스타게이트 컴퓨팅 조직을 ▲데이터센터 기술 설계 ▲클라우드·칩 업체 상업 파트너십 ▲현장 시설 운영 등 세 그룹으로 나누고 각 부문에 새 책임자를 배치했다. 해당 조직은 기존까지 그렉 브록만 오픈AI 사장 직속으로 운영돼 왔다. 인프라 총괄에는 인텔 최고기술책임자(CTO) 출신 사친 카티가 선임됐다. 인텔에서 네트워크·엣지 그룹(NEX)을 이끌며 수십만 개 그래픽처리장치(GPU)를 연결하는 초고속 네트워킹과 분산 컴퓨팅 분야를 총괄했던 인물이다. 카티는 지난해 11월 오픈AI에 합류했으며 이번 개편을 통해 스타게이트 전략 재정비를 총괄하게 됐다. 오픈AI는 이달 초 텍사스주 애빌린의 오라클 스타게이트 확장 사업에서도 손을 뗐다. 자금 조달 협상이 장기화된 데다 수요 전망이 달라지면서 계약을 파기한 것으로 전해졌다. 이 회사는 최신 엔비디아 칩에 맞춰 새로 설계할 수 있는 신규 부지를 선호하고 있으며 현재 여러 주에 걸쳐 6곳 이상의 후보지를 개발 중이다. 이 같은 전략 전환은 오픈AI가 자금 조달에 어려움을 겪고 있기 때문으로 보인다. 오픈AI는 당초 데이터센터를 직접 짓는 방식을 추진했으나, 대출 기관들이 상환 능력에 의구심을 제기하면서 계획이 장기 지연됐다. 결국 아마존웹서비스(AWS)·구글 클라우드·AMD·세레브라스 등과 공급 계약을 맺고 외부 인프라를 활용하는 방향으로 선회했다. 이에 따라 2030년까지 컴퓨팅 투자 목표도 기존 1조4000억 달러에서 6000억 달러(약 870조원)로 절반 이상 줄었다. 오픈AI는 차세대 컴퓨팅 자원으로 엔비디아의 '베라 루빈' 플랫폼을 채택하고, 올 하반기 1기가와트(GW) 규모 용량 확보를 목표로 하고 있다. 이번 전략 전환은 단순한 자금 문제를 넘어 AI 인프라의 구조적 딜레마를 드러낸다는 평가도 나온다. 물리적 인프라 구축 주기와 AI 수요 변화 속도 간의 간극이 좁혀지지 않는 한 대형 데이터센터 공사 일정을 수요에 맞추는 것 자체가 어렵다는 점에서다. 이에 오픈AI는 '설계 주권은 내부에, 시공은 외부에' 맡기는 분리 전략을 택한 분위기다. 카티 영입의 핵심 목적도 데이터센터 직접 구축이 아닌 인프라 설계 관련 지식재산권(IP) 통제를 겨냥한 행보로 풀이된다. 또 조직을 기술 설계·파트너십·현장 운영으로 3분할한 것도 이 같은 전략 구조를 반영한다. 업계 관계자는 "데이터센터를 직접 짓지 않더라도 설계 IP를 쥐고 있으면 협상력은 유지된다"며 "오픈AI가 노리는 건 구축이 아닌 통제"라고 봤다. 이 같은 전략은 새로운 부담 요인도 안고 있다. AWS, 구글 클라우드 등 인프라 공급 기업들이 동시에 AI 서비스 시장에서 오픈AI의 직접 경쟁자로 존재하기 때문이다. 공급망 의존과 시장 경쟁이 동시에 형성되는 구조로, 협력사에 인프라 주도권을 내어주면서 서비스 시장에서는 맞붙어야 하는 모순적 구도다. 특히 오픈AI가 최근 공들이고 있는 AI 쇼핑·에이전틱 AI 서비스가 이 모순을 더욱 부각시킨다는 시각도 있다. 에이전트 서비스의 수익성은 추론 비용을 얼마나 낮추느냐에 달려 있는데, 핵심 인프라를 경쟁사에 의존하는 구조에서는 비용 통제에 근본적인 한계가 있다는 지적이 나온다.업계 관계자는 "AI 모델 성능이 평준화되는 시점에 승부처는 인프라 효율로 옮겨간다"며 "오픈AI가 설계 IP 내재화에 성공하느냐가 중장기 경쟁력의 핵심 변수"라고 말했다.

2026.03.19 17:39장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

KT 조직개편...박윤영號 첫날 '본질·성장' 속도전

[현장] 조항 손질 나선 AI 기본법…"미래 세대 보호·신뢰 회복까지 담아야"

고용노동부, '빽다방 알바 고소 논란' 감독...더본코리아 "법무담당 급파"

[단독] KT클라우드 수장 교체, 사업 모델 전환 신호탄?…IPO 변수될까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.