• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 인프라'통합검색 결과 입니다. (289건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 300억 달러 조달한 메타, 데이터센터 투자에 빚 부담 덜어낸 비결은?

글로벌 인공지능(AI) 시장 내 패권 잡기에 속도를 높이고 있는 마크 저커버그 메타 최고경영자(CEO)가 초대형 데이터센터 '하이페리온' 프로젝트를 위해 대규모 자금 유치에 성공했다. AI 경쟁이 연산력 중심으로 재편되는 상황에서 자본 효율성과 기술 주권을 동시에 잡는 전략을 취해 업계의 주목을 받고 있다. 17일 블룸버그통신에 따르면 메타는 미국 루이지애나주에 짓고 있는 '하이페리온' 데이터센터 부지 개발을 위해 300억 달러(약 41조원) 규모의 자금조달에 성공했다. 이는 민간 자본이 참여한 사상 최대 규모의 데이터 인프라투자로 평가된다. 이를 위해 앞서 미국 투자은행 모건스탠리는 270억 달러 부채와 25억 달러 지분을 묶어 특수목적법인(SPV)을 설립했다. 사모펀드 블루아울캐피털·핌코(PIMCO) 등 금융기관도 자금조달 파트너로 뛰어들었다. 이번 거래에서 메타는 블루아울캐피털과 하이페리온 부지를 공동 소유하되 20%의 지분만 유지키로 합의했다. 또 SPV 구조에 따라 메타가 직접 차입을 하지 않았다는 점에서 자금 부담도 다소 덜었다. 직접 돈을 빌리기보다 SPV가 자금을 차입하고 메타는 개발자·운영자·임차인 역할만 담당하는 식이다. 다만 일정 부분 자산 가치 보증 조건은 포함된 것으로 알려졌다.이로써 메타는 신용등급(AA-)을 유지하면서도 대규모 AI 인프라 투자를 이어갈 수 있는 구조를 확보했다. 또 외부 파트너와의 공동 개발로 기술 기업과 투자자들은 윈윈(win-win) 효과를 얻을 것으로 보인다. 블룸버그통신은 "AI와 데이터 수요 증가로 인해 대규모 차입은 점점 늘어나고 있는 추세"라며 "이번 일은 대형 테크기업들이 신용등급을 해치지 않으면서도 초대형 데이터센터를 개발할 수 있는 새로운 자금 조달 모델로 주목받고 있다"고 말했다. 실제 올해 9월 말까지 미국 채권시장에서 테크 기업들이 조달한 금액은 약 1천570억 달러로, 전년 동기 대비 70%나 증가했다. 메타는 전 세계에 29개 데이터센터 설립 및 운영 중으로, 올해만 AI 관련 인프라 프로젝트 등에 최대 720억 달러(약 102조원)의 자본을 지출할 예정이어서 부담이 큰 상태였다. 다른 빅테크들도 자금 부담을 덜기 위해 다양한 방안을 마련 중이다. 실제 오픈AI는 미국 내 데이터센터 구축을 위해 오라클과 수십억 달러 규모의 컴퓨팅 파워 공급 계약을 맺고 5년 단위의 확장 계획을 세우고 있다. 세계 최대자산운용사 블랙록과 엔비디아·마이크로소프트(MS)·xAI 등은 'AI 인프라 파트너십(AIP)'이라는 투자 컨소시엄을 꾸리고, 데이터센터 설계·운영사인 '얼라인드 데이터 센터'를 400억 달러(약 56조원)에 인수하기로 합의했다. 업계 관계자는 "AI 데이터센터 투자는 규모가 워낙 크기 때문에 기업들이 자금 확보에 대해 고민이 많다"며 "이번 일을 계기로 기업들이 재무제표에 직접 부채를 올리지 않고 자산을 분리하는 구조가 확산될 것"이라고 전망했다. 메타는 하이페리온 데이터센터를 통해 외부 클라우드 의존도도 낮출 것으로 기대하는 눈치다. 오는 2029년 완공되는 하이페리온 데이터센터는 메타가 전 세계에 보유한 약 25개 데이터센터 가운데 최대 규모다. 총 400만 제곱피트(약 37만㎡) 부지에 들어서며 완공 시 최대 5기가와트(GW)의 전력을 소모할 예정이다. 이는 미국 가정 400만 가구의 전력 사용량에 해당한다. 업계 관계자는 "이 시설은 메타의 AI 모델 학습·추론용 핵심 연산 허브가 될 것"이라며 "엔비디아 H100·B100급 그래픽처리장치(GPU) 수십만 개를 동시에 구동할 수 있는 규모로, 메타가 아마존웹서비스(AWS)나 MS 애저(Azure) 같은 외부 클라우드 의존도를 낮추고 자체 AI 인프라 비중을 높이려는 시도로 보인다"고 분석했다. 이어 "이는 곧 'AI 컴퓨트 주권' 확보로 이어질 것"이라며 "AI 모델의 크기가 급증하고 전력 수요가 폭증하는 상황에서 자체 인프라를 보유한 기업만이 지속 가능한 AI 경쟁력을 확보할 수 있기 때문"이라고 덧붙였다. 또 다른 관계자는 "AI 시장의 경쟁력은 더 이상 데이터나 알고리즘이 아닌 연산력·전력·자본 구조의 효율성으로 이동하고 있다"며 "메타의 이번 거래는 그 전환을 대표하는 사례"라고 봤다.

2025.10.17 17:35장유미 기자

엔비디아 지원받는 美 스타트업, 에너지 자급형 AI 데이터센터 착공

엔비디아의 지원을 받는 풀사이드가 코어위브와 함께 미국 텍사스 서부에 초대형 데이터센터 단지를 짓는다. 전력 생산부터 인공지능(AI) 컴퓨팅까지 모두 자체적으로 해결하는 자급형 AI 허브를 구축한다는 목표다. 17일 월스트리트저널(WSJ)에 따르면 풀사이드와 코어위브는 텍사스 서부 유전지대의 대규모 목장 부지에 '호라이즌 프로젝트'를 추진한다. 부지 규모는 뉴욕 센트럴파크의 3분의 2에 달하는 약 200만 제곱미터(㎡)로, 축구장 300개 크기와 맞먹는다. 이 지역은 미국 내 최대 셰일가스 생산지인 퍼미언 분지 중심부로, 양사는 인근에서 생산되는 천연가스를 직접 활용해 데이터센터의 전력을 자체 공급하는 방식을 채택했다. 이번 프로젝트를 통해 풀사이드는 12월부터 코어위브가 제공하는 엔비디아 AI 컴퓨팅 리소스를 활용할 계획이다. 장기적으로는 최대 2기가와트(GW) 규모의 데이터센터를 함께 구축한다. 풀사이드는 현재 기업가치 140억 달러(약 19조원)를 목표로 20억 달러(약 2조8천억원) 규모의 투자 유치를 진행 중이다. 지난해에는 5억 달러(약 7천억원)를 조달하며 엔비디아가 전략적 투자자로 참여했다. 코어위브는 이번 프로젝트의 주요 입주사이자 핵심 고객으로 참여한다. 1단계로 250메가와트(MW) 규모의 데이터센터를 구축해 내년 말 완공을 목표로 하고 있으며 이후 500MW 규모로 확장하는 2단계 계획도 검토 중이다. 풀사이드는 코어위브와 함께 AI 컴퓨팅 인프라의 신속한 구축을 목표로 호라이즌 프로젝트에 박차를 가할 계획이다. 아이소 칸트 풀사이드 공동창업자는 "AI 인프라 경쟁의 핵심은 전력 규모가 아니라 얼마나 빠르게 실제 데이터센터를 지을 수 있느냐에 달려 있다"며 "우리 산업이 직면한 진짜 병목은 물리적 건설 속도"라고 말했다.

2025.10.17 14:54한정호 기자

오라클 카란 바타 부사장 "AI 인프라 경쟁, 속도보다 유연성이 핵심"

[라스베이거스(미국)=남혁우 기자] "고객에게 필요한 것은 특정 칩이나 속도보다 원하는 기술을 자유롭게 선택할 수 있는 유연성이다." 오라클 카란 바타 오라클 클라우드 인프라(OCI) 제품 부사장은 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드'에서 이같이 말하며 고객이 다양한 기술을 선택해 활용할 수 있는 개방형 인프라 전략이 오라클의 핵심 경쟁력이라고 강조했다. 카란 바타 부사장은 "지난해 이후 OCI에 대한 글로벌 고객의 관심이 폭발적으로 늘었다"며 "스테이트 스트리트 같은 글로벌 금융기관을 중심으로 아마존웹서비스(AWS), 마이크로소프트 애저 등과 함께 오라클 클라우드를 병행하는 멀티클라우드 환경이 빠르게 확산되고 있다"고 말했다. 그는 오라클의 개방형 인프라 핵심 전략 중 하나로 '멀티클라우드 유니버설 크레딧 모델(UCM)' 제도를 대표적인 변화로 꼽았다. 바타 부사장은 "UCM은 하나의 예산으로 여러 클라우드에서 오라클 서비스를 동일한 조건으로 사용할 수 있게 해준다"며 "기업은 각 클라우드별로 예산을 미리 나누지 않고, 필요할 때마다 원하는 클라우드에서 자원을 쓸 수 있다"고 설명했다. 이어 "이는 복잡한 멀티클라우드 환경을 단일 계약으로 단순화하면서도 유연성을 확보할 수 있는 구조"라고 덧붙였다. 최근 브로드컴의 VM웨어 라이선스 정책 변경으로 인해 기업들이 클라우드 이전 전략을 재검토하면서 대안에 대한 관심이 높아지고 있다. 이에 대해 바타 부사장은 "고객들은 기존 시스템을 유지하는 동시에 새로운 AI 기반 서비스를 도입하려 한다"며 "이 과정에서 기술적 종속성과 라이선스 제약 문제를 최소화하기 위해 두 환경을 분리해 운영하는 경우가 많다"고 말했다. 다만 AI 분야는 매주 새로운 모델과 하드웨어가 등장하는 빠른 시장이다. 오라클은 이러한 환경에서 고객이 특정 기술사에 묶이지 않고, 원하는 시점에 원하는 인프라를 선택할 수 있는 유연성을 핵심 가치로 보고 있다. 그는 "고객사의 요구에 대응하기 위해 OCI는 데디케이티드 리전 25를 핵심 솔루션으로 제시하고 있다"며 "이 모델은 고객 데이터센터 내부에서 GPU와 AI 워크로드를 완전한 주권형 환경으로 운영할 수 있도록 지원한다"고 설명했다. AI월드에서 공개한 데디케이티드 리전 25는 기업 자체 데이터센터 내에서 오라클 클라우드 인프라 전반을 직접 운영할 수 있도록 지원하는 소버린 클라우드 모델이다. 이를 통해 금융·공공기관 등 데이터 주권이 중요한 조직은 내부 보안 정책을 유지하면서도, 퍼블릭 클라우드 수준의 확장성과 자동화를 동시에 확보할 수 있다. 특히 3랙 규모의 규모의 소규모 인프라에서도 구축할 수 있어 도입 부담이 적다는 점이 특징이다. AI 인프라 역시 유연성 확보를 위해 특정 칩 제조사에 종속되지 않는 구조를 확보하고 있다. 바타 부사장은 "엔비디아, AMD, Arm 등 고객이 어떤 칩을 원하든 선택할 수 있도록 지원한다"며 "이를 위해 CPU, GPU, 네트워크, 광학 부품을 모듈형으로 구성해 필요에 따라 교체·확장할 수 있는 구조로 설계된 '엑셀러론' 아키텍처를 선보였다고 설명했다. 이어 "AI 시대의 경쟁력은 속도가 아니라 고객이 원하는 인프라를 자유롭게 구성할 수 있는 유연성"이라고 강조했다. 더불어 급증하는 그래픽처리장치(GPU) 수요에 대응하기 위해 오라클은 여러 데이터센터 건물에 분산된 GPU 클러스터를 하나의 시스템처럼 연결할 수 있는 '멀티플래너' 기술을 OCI를 통해 제공하고 있다. 바타 부사장은 "대규모 고객뿐 아니라 일반 기업도 이 기술을 활용해 안정적인 AI 학습 환경을 구축할 수 있다"며 "GPU뿐 아니라 전력, 냉각, 광케이블, 네트워크 등 전체 인프라를 최적화할 수 있도록 서비스를 제공하고 있다"고 말했다. 끝으로 그는 "모든 클라우드에서 오라클 데이터베이스를 배포할 수 있도록 개방형 구조와 데디케이티드 리전25를 적극적으로 선보일 계획"이라며 "오라클은 화려한 기술 경쟁보다 인프라의 본질인 성능·보안·비용 효율성에 집중할 것"이라고 강조했다.

2025.10.16 19:52남혁우 기자

오픈AI는 왜 오라클과 '스타게이트' 함께 했나

[라스베이거스(미국)=남혁우 기자] 오픈AI가 역대 최대 규모 초대형 인공지능(AI) 인프라 구축 사업인 '스타게이트(Stargate)' 프로젝트를 하면서 오라클과 손을 잡았다. 두 회사가 손을 맞잡게 된 배경에는 초거대 AI 모델 훈련 과정에서 발생한 컴퓨팅 한계가 있었다. GPT-4 등 대규모 모델 개발 가속화으로 발생한 전력, 인프라 부족을 오라클 클라우드 인프라(OCI)를 통해 해소하며 기술적 신뢰성을 확인했기 때문이다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 최고경영자(CEO)는 기조강연 중 피터 호에셀레 오픈AI 부사장과 함께 스타게이트 프로젝트의 추진 배경과 협력 과정을 주제로 대담을 나눴다. 피터 호에셀레 부사장은 "1년 전 오라클을 처음 찾았을 당시 오픈AI는 새로운 모델을 훈련할 컴퓨팅 자원이 절대적으로 부족했다"며 "당시 오라클이 단기간에 200메가와트(MW)에 달하는 컴퓨팅 용량을 제공하면서 전환점을 맞이할 수 있었다"고 밝혔다. 그는 "불과 몇 년 전만 해도 5MW만으로도 대형 데이터센터로 평가받던 시절이었다"며 "200MW급 인프라를 지원할 수 있다는 것은 업계 판도를 바꾸는 수준"이라고 설명했다. 오라클은 단순한 컴퓨팅 자원 제공에 그치지 않고 보안 요건과 클러스터 설계, 전력 효율성까지 반영한 지능형 클라우드 인프라를 오픈AI와 함께 공동 설계(Co-Design)했다. 이를 통해 오픈AI는 모델 훈련용 자원을 즉시 확장할 수 있었고, 제품 출시 시 수주 단위의 지연 없이 서비스를 가동할 수 있게 됐다. 피터 부사장은 이러한 협력을 통해 오픈AI의 AI 인프라가 새로운 국면에 들어설 수 있었다고 강조했다. 그는 "AI는 이제 연구실 단계를 넘어, 전력·실리콘·네트워크·보안 등 모든 요소를 동시에 최적화하는 산업화 단계에 진입했다"고 밝혔다. 또 "기존에는 모델 훈련(training)과 추론(inference)을 분리해 운영했지만, 이제는 모델이 상시 학습하며 데이터를 실시간으로 반영하는 체계로 발전했다"며 "이런 지속 학습 구조를 유지하려면 오라클 OCI처럼 유연하고 확장성 높은 인프라가 필수적"이라고 설명했다. 오픈AI는 현재 오라클과 함께 '스타게이트(Stargate)' 프로젝트를 본격 추진 중이다. 이 프로젝트는 전 세계 주요 거점에 초거대 AI 학습용 데이터센터를 구축해 글로벌 수준의 컴퓨팅 네트워크를 완성하는 것을 목표로 한다. 피터 부사장은 스타게이트 프로젝트를 진행하는 과정에서 이미 오라클과의 협업이 가져온 성과를 확인했다고 밝혔다. 그는 "미국 텍사스주 애빌린(Abilene)에 건설된 데이터센터는 불과 11개월 만에 완공됐다"며 "이전에는 같은 규모의 센터를 짓는 데 4년 가까이 걸렸다"고 말했다. 이어 "오라클 팀이 기술적 세부 사항을 완벽히 이해하고 신속하게 대응해준 덕분에, 내부 승인과 엔지니어링 절차에 걸리는 시간을 크게 단축할 수 있었다"며 "이는 단순한 협력이 아니라, 공동 설계(Co-Design)로 운영 효율을 극대화한 결과"라고 평가했다. 오픈AI은 애빌린을 비롯해 최근 발표한 스타게이트 아르헨티나처럼 세계 각국에 데이터센터를 적극적으로 구축 중이다. 피터 부사장은 "UAE 등 여러 국가에서 인프라를 확충하고 있다"며 "각국의 보안 및 정책 요건은 오라클이 일원화해 관리하고 있다"고 말했다. 이어 "AI 산업의 글로벌 확장은 기술만으로는 불가능하며 정책·보안·규제 환경까지 함께 고려해야 한다"며 "오라클은 각국의 보안 인증과 정책 요건을 완벽히 충족하는 '원스톱 파트너' 역할을 하고 있다"고 평가했다. 클레이 마고요크 오라클 CEO는 "오픈AI와의 협력은 단순한 인프라 계약을 넘어 AI 산업의 구조적 변화를 이끄는 동반자 관계"라고 평가했다. 이어 "양사가 보여준 실행 속도와 기술 결합력은 AI 인프라 산업화의 새로운 기준이 될 것"이라며 "오라클은 앞으로도 글로벌 AI 혁신 기업과 함께 차세대 인프라 표준을 만들어가겠다"고 밝혔다

2025.10.16 04:27남혁우 기자

틱톡, 제타바이트급 10억 이용자 트래픽 관리…"해답은 OCI"

[라스베이거스(미국)=남혁우 기자] 틱톡이 전 세계 10억 명에 달하는 이용자 트래픽을 안정적으로 처리하기 위해 오라클 클라우드 인프라(OCI)를 핵심 인프라로 채택했다. 양사는 초대형 데이터 전송과 폭증하는 글로벌 사용자 수요에 대응하기 위해 네트워크 계층까지 통합한 협력 구조를 구축했다. 이를 통해 틱톡은 제타바이트(ZB)급 스토리지와 초당 수백 테라비트 퍼 세컨드(Tbps)급 네트워크 환경을 안정적으로 운영하고 있다. 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드 2025'에서 클레이 마고요크 오라클 CEO와 첸 팡페이 바이트댄스 인프라엔지니어링 책임자가 직접 대담을 통해 대규모 트래픽 대응 전략과 양사의 협력 모델을 공개했다. 첸 팡페이 책임자는 "틱톡의 미션은 창의성을 영감하고 즐거움을 전하는 것으로 이를 실현하기 위한 글로벌 인프라의 규모는 상상을 초월한다"고 말했다. 이어 "현재 전 세계적으로 10억명 이상이 틱톡을사용하고 있으며 미국 내만 해도 1억7천만 명의 사용자가 매일 2천만 개 이상의 영상을 생성하고 있다"고 밝혔다. 틱톡은 이 같은 폭증하는 사용자 기반을 지원하기 위해 수백만 대의 서버, ZB급 스토리지, 그리고 수백 Tbps의 네트워크 용량을 운영 중이다. 특히 750만 개 이상의 미국 중소기업(SMB)이 틱톡을 마케팅과 커머스 채널로 활용하고 있어, 안정적인 인프라가 서비스 품질을 좌우하는 핵심 요소로 작용하고 있다. 틱톡과 오라클은 단순한 클라우드 파트너십을 넘어 네트워크 계층까지 공동 설계한 협력 모델을 구축했다. 첸 책임자는 "양사는 100Gbps에서 400Gbps로 전송 속도를 높이며, 인프라 성능의 한계를 함께 극복하고 있다"고 설명했다. 이 과정에서 틱톡의 월간 활성 사용자(MAU)는 2021년 이후 60% 이상 증가했다. 오라클은 이를 뒷받침하기 위해 데이터센터 간 초고속 전송 경로를 최적화하고, 트래픽 급증 구간에 대한 실시간 확장 기능을 제공하고 있다. 첸 책임자는 "오라클과의 네트워크 통합 덕분에 트래픽 폭주 상황에서도 영상 지연이나 서비스 중단이 거의 발생하지 않았다"고 말했다. 틱톡의 급격한 성장에는 쇼핑 기능과 라이브스트리밍 서비스가 큰 역할을 했다. 첸 팡페이는 "블랙프라이데이 같은 대형 쇼핑 이벤트 기간에는 트래픽이 하루 만에 2배 이상 급증한다"며 "이를 예측해 대응할 수 있도록 오라클과 함께 용량 계획(capacity planning)을 세운다"고 설명했다. 이 계획은 공급망 관리(Supply Chain Planning)와 유사한 구조로, 특정 시점에 필요한 자원을 정확히 확보하는 것을 목표로 한다. 반면, 예측이 어려운 트래픽 급변 상황에는 '지능형 부하분산 시스템(Smart Load Balancing)'이 작동한다. 이 시스템은 오라클 클라우드 인프라의 텔레메트리 데이터, 데이터센터 온도, 전력 사용량 등 실시간 환경 정보를 결합해 자원을 자동 조정함으로써 서비스 안정성을 유지한다. 첸 책임자는 "틱톡은 단순히 지연시간으로 인프라 품질을 평가하지 않는다"며 "사용자가 영상을 끝까지 시청하는지, 좋아요를 누르는지 등 행동 데이터를 기반으로 서비스 품질을 판단한다"고 말했다. 그는 또 "작은 코드 버그나 케이블 손상 같은 미세한 결함도 전체 서비스 품질을 저하시킬 수 있다"며 "이를 방지하기 위해 오라클과 공동 안정성 목표(Joint Stability Goals)를 설정하고 양사 최고경영진이 직접 협력체계를 후원하고 있다"고 밝혔다. 첸은 "문제가 발생하면 두 팀이 같은 대시보드와 화이트보드를 공유하며 실시간으로 조치한다"며 "비결은 없다. 매일 꾸준히 협력하고 문제를 함께 해결하는 것뿐"이라고 덧붙였다. 클레이 마고요크 오라클 CEO는 "틱톡 덕분에 오라클도 세계적 수준의 인프라 운영 역량을 한층 끌어올릴 수 있었다"며 파트너십에 감사를 전했다. 첸 팡페이는 "틱톡은 단순한 엔터테인먼트 앱이 아니라 수백만 명의 창작자와 중소기업이 기회를 얻는 플랫폼으로 성장했다"며 "오라클과의 협력이 그 성장을 가능하게 했다"고 말했다. 이어 "틱톡의 경제적·사회적 영향력을 담은 '임팩트 리포트'에서 보다 자세한 내용을 확인할 수 있다"며 "앞으로도 창작자, 브랜드, 사용자 모두에게 긍정적 변화를 이끄는 플랫폼으로 진화하겠다"고 덧붙였다.

2025.10.16 03:28남혁우 기자

브로드컴, AI 네트워킹 칩 '토르 울트라' 공개

미국 반도체 기업 브로드컴이 인공지능(AI) 전용 네트워킹 칩 '토르 울트라(Thor Ultra)'를 공개하며, AI 인프라 시장을 무대로 엔비디아와의 경쟁을 한층 격화시키고 나섰다. 로이터는 AI 모델이 작동하는 데이터센터 내에서 수많은 연산 칩을 서로 연결할 수 있게 해 주는 핵심 연결장치 역할을 맡는다고 현지시간 14일 보도했다. 브로드컴 측은 이 칩이 기존 제품 대비 대역폭을 두 배 이상 강화했다고 밝혔다. 브로드컴은 이번 발표 직전인 13일 챗GPT 제작사 오픈AI에 대해 2026년 하반기부터 적용할 10GW(기가와트) 규모의 맞춤형 AI 칩을 공급하기로 한 파트너십을 발표한 바 있다. 이 계약은 AI 가속기 시장에서 엔비디아가 가진 지배력에 대한 도전으로 풀이된다. 브로드컴 최고경영자 호크 탄은 자사가 AI 관련 사업에서 겨냥하는 2027년 시장 규모로 600억~900억달러(약 85조~128조원)를 제시한 바 있다. 2024 회계연도 브로드컴의 AI 매출은 약 122억달러(17조4천167억원) 수준이었다. 또 최근에는 AI 데이터센터 맞춤형 칩 수주 규모가 100억 달러에 달하는 새 고객을 확보한 사실도 알려졌다. 네트워킹 칩은 데이터센터 운영에서 '정보의 흐름'을 관리하는 핵심 인프라 요소로, 클라우드 기업들이 대규모 AI 시스템을 구축할 때 필수적이다. 브로드컴은 구글과 협업해 AI 칩 설계에도 참여해 왔으며, 회사는 네트워킹 칩과 AI 칩이라는 두 축으로 수익을 다변화하고 있다. 브로드컴 관계자는 “분산형 클러스터 환경에서 네트워크는 대규모 연결을 가능케 하는 핵심 요소”라며 “GPU 업체가 네트워킹 분야까지 진입하려는 것은 당연한 흐름”이라고 말했다.

2025.10.15 11:26전화평 기자

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호 기자

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤 기자

안랩클라우드메이트, 청년 AI 스타트업에 AWS 계정 지원한다

안랩의 인공지능 전환(AX)·MSP 전문 자회사 안랩클라우드메이트가 청년 인공지능(AI) 스타트업을 위한 신규 AWS(아마존 웹 서비스) 계정 크레딧 지원 이벤트를 연다. 안랩클라우드메이트(대표 김형준, 고창규)는 이같은 내용을 골자로 한 이벤트를 진행하고, 신청 기업을 모집한다고 29일 밝혔다. 이번 이벤트에서 안랩클라우드메이트는 미래 AI 혁신을 이끌 청년 스타트업을 육성하고, 함께 성장할 비즈니스 파트너사를 모색할 계획이다. 신청 기업 기준으로는 구체적으로 기업 대표자의 연령이 만 39세 이하이면서 창업 업력 7년 이내의 국내 법인 중 ▲AI 솔루션 및 서비스 개발 ▲AI 기반 연구 및 기술 상용화 ▲AI 활용 비즈니스 모델 구축 등 하나 이상의 분야에서 AI 기술을 활용하는 기업 선착순 10개사다. 안랩클라우드메이트는 이날부터 내달 31일까지 신규 AWS 계정을 개설하고 고객 등록을 완료한 기업에 AWS 사용료를 등록 완료 월을 포함해 최대 3개월간 100만원까지 지원한다. 다만 선착순 마감 시 이벤트가 조기 종료될 수 있다. 지원 기업으로 선정된 스타트업은 ▲웹사이트나 애플리케이션을 빠르게 구축할 수 있는 서버 및 스토리지 인프라 ▲데이터베이스, 서버리스 등 운영 효율을 높여주는 관리형 서비스 ▲AI 모델 개발 및 분석 환경 ▲안정적인 보안·모니터링 체계 등 AWS의 주요 서비스를 비용 부담 없이 경험할 수 있다. 이에 안랩클라우드메이트는 "초기 자금이 부족한 스타트업이 제품 아이디어를 빠르게 실현할 수 있는 기회가 될 것으로 기대한다"고 밝혔다. 안랩클라우드메이트 최광호 COO는 "이번 이벤트는 초기 청년 스타트업이 AWS 인프라를 안정적으로 시작할 수 있도록 지원하는 동시에, AI 기반 혁신을 빠르게 실현할 수 있는 토대를 마련하기 위한 것"이라며 "앞으로도 안랩클라우드메이트는 보유한 AX 및 클라우드 역량을 결합해 스타트업이 글로벌 무대에서 성장할 수 있도록 맞춤형 지원을 강화하겠다"고 밝혔다.

2025.09.29 18:39김기찬 기자

디지털리얼티 "AI 추론 폭증 시대, 인프라 냉각·전력 효율화 필수"

"인공지능(AI) 산업은 모델 훈련에서 추론 중심으로 전환되고 있습니다. 데이터센터 전략도 이에 맞춰 바뀌어야 합니다. 특히 냉각과 전력 효율, 네트워크 성능 개선이 필요합니다. 성공적인 AI 운영은 타이밍을 잘 맞춘 인프라 전략에서 나옵니다." 디지털리얼티 릭 무어 글로벌 플랫폼 혁신 총괄은 최근 지디넷코리아와 만나 AI를 안정적이고 효율적으로 운영하기 위한 인프라 전략을 이같이 강조했다. 무어 총괄은 크리스 샤프 최고기술책임자(CTO) 산하 조직에서 전 세계 데이터센터를 총괄하고 있다. 특히 AI 인프라 최적화를 비롯한 토크노믹스, 액체 냉각 기술 표준화 등 차세대 데이터센터 설계 방향을 이끌고 있다. 무어 총괄은 "AI 산업은 거대 모델을 구축하던 훈련(training) 단계에서 실시간으로 사용자 요청에 대응하는 추론(inference) 단계로 빠르게 넘어가고 있다"고 설명했다. 구글과 오픈AI, 앤트로픽 등 글로벌 기업이 대규모 모델을 완성하고 이를 비즈니스에 적용하는 단계에 들어섰다는 설명이다. 그는 "추론 과정은 훈련보다 훨씬 많은 요청을 처리해야 한다"며 "특히 에이전틱 AI가 확산하면 실시간으로 수 백만 건 넘는 추론이 매일 발생할 것"이라고 전망했다. 무어 총괄은 이런 변화에 대응하려면 데이터센터 역시 새롭게 설계돼야 한다고 설명했다. 훈련 단계에선 일정 기간 동안 계획적으로 대규모 연산을 수행했지만, 추론 단계에서는 예측하기 어려운 사용자 요청이 실시간으로 몰릴 수 있기 때문이다. 그는 "추론 환경에서는 인프라 부하 패턴이 불규칙하게 나타난다"며 "기업은 이를 감당하기 위해 고밀도 전력 인프라와 효율적 냉각 시스템, 지연 적은 네트워크를 확보해야 한다"고 강조했다. 디지털리얼티는 이런 변화를 반영해 추론 전용 인프라 투자를 확대하고 있다. 생성형 AI뿐 아니라 에이전틱 AI 확산으로 늘어나는 연산 수요를 안정적이고 경제적으로 지원하는 것이 목표다. 무어 총괄은 전력·네트워킹 효율을 위한 전략으로 액체 냉각을 꼽았다. 그는 "액체 냉각을 적용하면 전력 효율을 최대 30%까지 높일 수 있다"며 "우리는 글로벌 전 지역에 적용할 수 있는 액체 냉각 표준을 개발 중"이라고 밝혔다. 이어 "기업들이 새로운 냉각 기술을 사전에 테스트할 수 있도록 '디지털리얼티 이노베이션 랩(DRIL)'을 운영하고 있다"며 "시장 반응이 좋아 대기 수요가 있다"고 덧붙였다. "토크노믹스로 인프라 투자 효율↑"...양자 센터 개척 '시동' 무어 총괄은 기업이 AI 인프라 투자 효율성을 높이는 것이 필수적이라고 재차 강조했다. 무어 총괄은 "많은 기업이 AI 모델을 위해 대규모 데이터센터 공간과 네트워크, 서버를 확보하지만 정작 시스템이 얼마나 많은 토큰을 생산하는지 모른다"며 "이 때문에 투자대비수익률(ROI)를 제대로 산출하지 못한다"고 지적했다. 이에 "투자 대비 효과를 정밀하게 측정해야 한다"고 이유를 밝혔다. 디지털리얼티는 효율적 AI 인프라 투자를 위해 토크노믹스 개념을 도입했다. 토크노믹스는 AI 시스템이 실제 생산하는 '토큰'을 단위 삼아 투자 효과를 계산하는 방식이다. 기업이 토큰당 비용을 정확히 파악하면 클라우드를 임대할지, 자체 인프라를 구축할지와 같은 핵심 의사결정을 훨씬 합리적으로 내릴 수 있다는 게 무어 총괄 설명이다. 디지털리얼티는 미래 기술에 필요한 인프라 구축에도 힘쓰고 있다. 양자 AI를 차세대 핵심 기술로 보고 있다. 양자 AI는 금융 보안, 사기 탐지, 생명과학 유전체 분석처럼 초고속 계산이 필요한 분야에서 새로운 혁신을 이끌 잠재력을 지닌다. 이달 미국 뉴욕에 양자 AI 슈퍼컴퓨팅 데이터센터를 세웠다. 릭 무어는 "인프라 개선은 더 이상 후순위가 될 수 없다"며 "기업이 초기 단계부터 냉각과 전력 밀도, 네트워크 연결을 전략적으로 고려해야 AI 투자의 가치를 극대화할 수 있을 것"이라고 강조했다.

2025.09.29 15:00김미정 기자

"미래 결합상품의 주된 항목은 AI...통신비 개념 바꿔야"

OTT에 이어 AI가 국민들의 일상에 밀접하게 다가오면서 통신비의 개념을 다시 세워야 한다는 전문가의 진단이 제기되면서 이목을 끈다. 방송통신 결합상품 비중이 통신사 전체 결합상품의 80%를 넘어서는 가운데 OTT 결합 요금제가 빠르게 확산되고 있고, 향후 AI 서비스를 번들로 묶은 결합상품이 확산될 가능성이 매우 크기 때문이다. 신민수 한양대 교수는 29일 더불어민주당 조인철 의원과 한국경영과학회가 주최한 AI 인프라 정책방향 토론회에 발제를 맡아 “AI 시대의 증폭하는 트래픽을 활용한 소비자 후생 증대에 한계가 있는 통신서비스 중심의 기존 통신비 개념은 정보통신비로 재정립이 시급하다”고 밝혔다. 통계청이 통신 중심으로 바라보는 통신비 개념은 OTT와 AI를 포함한 정보통신비로 살펴야 한다는 뜻이다. 이미 유료 구독 서비스인 OTT가 통신 요금에 묶이고 있다. 특히 OTT 이용료 인상에 따라 스트리밍와 인플레이션을 더한 '스트림플레이션'이란 용어까지 나왔다. 그런 가운데 챗GPT, 퍼플렉시티 등 주요 AI 서비스가 한달 20달러 수준의 유료 서비스로 속속 확산됐고 정부의 실태조사에 따르면 유료 AI 서비스를 이용할 의향이 있다는 국민이 90%에 육박했다. AI 서비스 역시 OTT와 같이 임의적인 요금인상 가능성을 지울 수 없고, AI 서비스가 통신사의 결합상품에 포함될 가능성이 높은 점을 고려하면 정보통신비 개념을 고쳐야 한다는 설명이다. 통계청의 통신비 개념은 국가 정책 수립의 기초 자료로 쓰이기 때문이다. 신 교수는 “결합상품에서 정보통신비 각 항목의 실질 부담액을 별도로 조사할 필요가 있고, OTT와 AI의 임의적인 요금 책정과 인상에 대한 규제 방안을 마련하는 것도 필요하다”며 “통신사들이 OTT 제휴를 통해 저렴한 가격을 제공하는 가격할인 이용자 대리인을 맡고 있는데, AI 서비스 시대에 이용자 대리인 역할을 강화하도록 요금 설정의 자율권을 높여야 한다”고 말했다. 이어, “정보통신비는 항목별 비용의 단순 합계가 아닌 정보통신 서비스 이용 편익의 총비용 개념으로 재정립해야 한다”고 강조했다. AI 주무부처인 과학기술정보통신부의 통신 정책 전환이 필요하다는 의견도 제시됐다. 모정훈 연세대 교수는 “과기정통부는 조직 개편을 통해 AI 분야를 총괄 조정하는 과학기술부총리 조직으로 격상됐다”며 “AI를 위한 정보통신(AI for 정보통신), 정보통신을 위한 AI 관점에서 통신 중심의 기존 정책 기조를 벗어나 투자 촉진, 품질 개선, 투자 재원 마련 등의 정책 패러다임을 바꿔야 한다”고 했다. 속도 혁신에서 AI 융합 중심으로의 기술과 서비스 프레임 전환과 이용자 수요 변화 등을 고려할 때 이동통신 품질평가 정책의 변화가 필요하다고 꼽았다. 이를테면 ▲이용자가 체감할 수 있는 새로운 품질 평가 기준 마련 ▲AI와 융합하는 서비스 혁신 반영 ▲이를 통한 통신사간 AI 투자 경쟁 확보 ▲ AI 저전력 연관 지표 추가 등의 방안을 제안했다. 모 교수는 또 “향후 빅테크 중심의 트래픽 급증이 전망되는 만큼 공정한 계약 체결 거부와 대가 지급 회피 등 대형 CP의 협상력 남용을 방지하고 협상의 비대칭 구조를 보완할 '공정한 망 이용계약 제도화'가 필요하다”고 말했다.

2025.09.29 11:39박수형 기자

코람코, 신규 대형 '가산 데이터센터' 가동…10조 투자 청사진 제시

코람코자산운용(코람코)이 새로운 대형 데이터센터 '케이스퀘어데이터센터 가산(가산 IDC)'을 가동하며 국내 대표 디지털 인프라 투자 플랫폼으로 도약하겠다는 청사진을 밝혔다. 부지 매입부터 개발·운영까지 전 과정을 독자적으로 수행한 첫 프로젝트인 만큼, 이번 성과를 발판 삼아 2032년까지 10조원 규모 데이터센터 투자와 전문 리츠 상장 등 장기 전략을 본격화할 계획이다. 코람코는 가산 IDC의 가동식을 열고 본격적인 운영에 돌입했다고 26일 밝혔다. 이번 프로젝트는 코람코가 2021년 직접 부지를 매입해 개발을 주도한 첫 데이터센터 사업으로 착수 4년여 만의 성과다. 이날 가동식에는 박형석 코람코자산운용 대표를 비롯해 현대건설·LG유플러스·키움증권 관계자 등 100여 명이 참석했다. 가산 IDC는 약 1만2천467평 규모로 지하 3층에서 지상 11층까지 총 14개 층으로 건립됐다. 건물 높이는 84.7m이며 철골철근콘크리트 구조로 시공됐다. 시설 내에는 총 2천446개의 서버랙을 수용할 수 있으며 IT 로드는 26메가와트(MW)에 달한다. 특히 층별 서버랙 수를 차등 배치하고 전력수요를 효율적으로 분산해 고밀도 환경에서의 안정적 운영을 지원한다. 시공은 현대건설이 맡아 고효율 냉방, 실시간 에너지 모니터링, 자연 냉각 프리쿨링 기술 등 최신 에너지·안전 기술을 반영했다. 데이터센터 운영은 LG유플러스가 담당해 시설의 물리적 안정성과 운영 고도화를 맡는다. 한국전력으로부터 총 40MW의 수전 용량을 확보했으며 시설 인근 대림변전소와 대방변전소에서 각각 전력을 공급받을 수 있는 이중화 체계를 갖췄다. 냉각방식도 직접 수냉 방식을 적용해 에너지 효율을 글로벌 최고 수준으로 유지할 수 있도록 설계됐다. 최근 서울은 전력 수급과 지역 규제로 인해 신규 데이터센터 공급이 극도로 제한된 상황이다. 이에 대해 코람코 측은 "가산 IDC는 서울 도심에서 보기 드문 신규 대형 데이터 인프라 자산으로, 인공지능(AI)·클라우드·빅데이터 수요가 폭발적으로 증가하는 시장에 즉각 대응할 수 있는 핵심 인프라로 자리매김할 것"이라고 밝혔다. 이어 "특히 강남·판교 IT밸리와의 뛰어난 접근성을 기반으로 글로벌 클라우드 서비스 제공자와 국내 대형 IT 기업들의 수요를 선점할 수 있을 것으로 기대된다"고 덧붙였다. 코람코는 경쟁 운용사들이 완공된 데이터센터를 매입해 운용하는 방식과 달리 부지 발굴부터 자금 조달, 설계·인허가, 시공, 자산관리, 시설 운영까지 직접 수행하는 전 과정을 내재화했다고 강조했다. 코람코는 데이터센터 전담 조직인 '데이터센터본부'를 조직해 전문 인력을 한데 모으고 1조원 규모의 데이터센터 전용 블라인드펀드도 출시한다. 향후 국내 최초 데이터센터 리츠 상장을 추진하며 투자자들에게 안정적인 투자 기회를 제공할 계획이다. 현재 코람코는 가산 IDC 외에도 수도권과 부산을 아우르는 대규모 데이터센터 개발을 동시에 추진하고 있다. 경기 안산 성곡 일원에서는 약 40MW급 대형 IDC를 글로벌 대체투자운용사 브룩필드의 자회사 DCI와 협력해 개발 중이다. 의정부 용현 산업단지에서는 연면적 약 2만5천 제곱미터(㎡) 규모의 티어 3급 대형 데이터센터를 조성하고 있다. 또 부산 사하구 장림동에서도 연면적 약 4만6천900㎡, 수전 용량 40MW 규모의 초거대급 데이터센터를 착공할 예정이다. 국내 최대 통신망 허브 도시인 부산의 입지적 장점을 활용해 글로벌 클라우드 서비스 기업 수요를 선점한다는 전략이다. 특히 데이터센터본부를 주축으로 2028년까지 약 5조원의 펀딩과 2032년까지 총 10조원 규모의 데이터센터 투자를 실현할 계획이다. 이를 통해 약 1.4기가와트(GW) 규모의 수전 용량과 1GW IT 로드를 단독 운용하는 국내 유일의 자산운용사로 자리매김한다는 목표다. 장기적으로는 데이터센터 전문 리츠 상장을 통해 투자자들에게 안정적이고 지속 가능한 수익 기회를 제공한다는 구상이다. 박형석 코람코 대표는 "가산 IDC의 본격 가동은 우리가 데이터센터 개발과 운영 전 과정에 걸쳐 독자적인 전문성을 확보했음을 입증한 성과"라며 "서울 내 희소한 신규 데이터센터 공급을 통해 국내외 투자자들에게 안정성과 차별성을 동시에 제공하고 대한민국 대표 디지털 인프라 투자 플랫폼으로 도약하겠다"고 말했다.

2025.09.26 17:41한정호 기자

韓 클라우드 시장 노리는 알리바바, 내년에 데이터센터 또 연다

알리바바 클라우드가 한국 클라우드 시장 공략을 강화하기 위해 내년 국내에 세 번째 데이터센터를 구축한다. 정확한 입지는 공개되지 않았으나 인공지능(AI)과 클라우드 수요가 급증하는 상황에서 국내 인프라 확충에 속도를 내겠다는 전략이다. 알리바바 클라우드는 26일(현지시간) 연례 기술 행사인 '압사라 컨퍼런스 2025'에서 브라질·프랑스·네덜란드 등 신규 지역 진출과 함께 한국·멕시코·일본·말레이시아·두바이에 데이터센터를 추가로 건립한다고 발표했다. 이로써 알리바바 클라우드는 전 세계 29개 지역에서 91개 가용 영역을 운영하게 된다. 알리바바 클라우드 인텔리전스 그룹 페이페이 리 글로벌 사업 총괄은 "AI는 기업 비즈니스 혁신의 기반 자체를 완전히 바꾸고 있다"며 "이번 글로벌 인프라의 전략적 확장은 혁신적 사고를 가진 고객들의 늘어나는 수요에 부응하기 위한 것"이라고 말했다. 앞서 알리바바 클라우드는 지난 6월 서울에서 열린 기자간담회에서 두 번째 데이터센터 설립을 공식화한 바 있다. 당시 윤용준 알리바바 클라우드 한국 지사장은 신규 인프라 구축을 통해 국내 고객사 확보에 속도를 내겠다는 의지를 밝혔다. 이번 제3 데이터센터 발표는 그 연장선상으로, 한국 시장을 전략적 요충지로 삼아 공격적인 투자를 이어간다는 목표다. 알리바바는 지난 2016년 한국 시장에 진출한 뒤 2022년과 올해 각각 서울에 데이터센터를 열며 국내 기업 지원을 강화해왔다. 이번 데이터센터 추가 구축 발표는 국내 생성형 AI 서비스 확산과 이에 따른 인프라 수요 급증에 대응하기 위한 포석으로 풀이된다. 현재까지 알리바바 제3 데이터센터의 구체적인 입지는 공개되지 않았으나, 업계에서는 수도권을 중심으로 한 설립 가능성에 무게가 실린다. 특히 알리바바 클라우드는 기존에 주력했던 게임 분야를 넘어 이커머스·인터넷·유통 등 다양한 산업군의 고객사 확보에도 공을 들이고 있다. 이를 위해 인력과 인프라를 지속적으로 확충하며 국내 기업들의 디지털 전환 수요에 대응해왔다. 실제 가격 경쟁력과 AI 모델 '큐원'의 기술력을 앞세워 AI 솔루션 기업 유니바, 네이버 자회사 스노우, 이커머스 라이브 스트리밍 기업 라라스테이션 등을 지원했다. 국내 데이터센터 추가 구축은 이같은 리테일·인터넷 비즈니스 산업 고객 확보를 가속하는 행보로 평가된다. 윤 지사장은 "국내 고객들이 안심하고 쓸 수 있는 컴플라이언스와 보안 체계 마련에 많은 투자를 이어왔다"며 "추가 데이터센터 설립은 한국 시장에 대한 지속적인 투자 의지이자 국내 기업들의 AI 전환을 적극 지원하기 위한 중요한 이정표"라고 강조했다.

2025.09.26 16:56한정호 기자

"AI 복잡성 해결"…에퀴닉스, 분산형 AI 인프라 공개

에퀴닉스가 인공지능(AI) 워크로드를 더 빠르게 실행하는 분산형 인프라를 내놨다. 에퀴닉스는 에이전틱 AI를 포함한 차세대 AI 혁신을 뒷받침하는 새로운 접근 방법인 분산형 AI 인프라를 AI 서밋서 26일 공개했다. 이번 발표에는 ▲분산형 AI 구축을 지원하는 AI 사용 가능한 새로운 백본 ▲신규 솔루션을 검증할 수 있는 글로벌 AI 솔루션 랩▲차세대 워크로드를 지원하는 패브릭 인텔리전스가 포함됐다. 기업이 AI 에이전트와 같은 차세대 AI 툴을 구축하고자 할 때, 기존 IT 아키텍처에 대한 재고가 필요하다. 에퀴닉스의 분산형 AI는 정적 모델에서 독립적으로 추론과 행동, 학습이 가능한 자율적 에이전틱 AI로의 진화를 비롯해 현대 지능형 시스템의 규모와 속도, 복잡성을 지원하도록 설계됐다. 기존 애플리케이션과 달리 AI는 분산되어 있으며, 학습, 추론, 데이터 독립성에 대해 상이한 인프라를 요구한다. 이러한 요구를 충족하기 위해 전세계적으로 분산되고 상호연결되며 대규모 워크로드에서도 뛰어난 성능을 보일 수 있도록 구축된 새로운 유형의 인프라가 필요하다. 에퀴닉스는 77개 시장에서 270개 넘는 데이터센터를 연결하는 완전히 프로그래밍 가능하고 AI에 최적화된 네트워크를 보유함으로써 지리적 경계를 넘어 이 같은 환경을 통합하는 독보적인 위치에 있다는 평을 받고 있다. 에퀴닉스는 이를 통해 지능형 시스템이 필요한 모든 곳에서 신뢰도 높고 안전하게 운영될 수 있도록 지원한다. 패브릭 인텔리전스는 온디맨드 글로벌 상호연결 서비스 에퀴닉스 패브릭을 강화하는 소프트웨어(SW) 계층이다. 실시간 텔레메트리 기반 가시성을 제공하고 라우팅과 세그먼테이션을 동적으로 조정해 네트워크 운영을 자동화한다. 이를 통해 기업은 수작업을 줄이고 배포 속도를 높이며 AI의 확장성과 속도에 맞춘 연결 환경을 구현할 수 있다. 패브릭 인텔리전스는 2026년 1분기 출시 예정이다. 또 에퀴닉스는 10개국 20개 지역에 '글로벌 AI 솔루션 랩'을 열어 기업이 업계 선도 AI 파트너와 협력할 수 있는 테스트 환경을 제공한다. 이 공간에서 기업은 새로운 아이디어를 빠르게 검증하고 프로덕션 수준의 AI 구축으로 이어갈 수 있다. 위험을 줄이면서 혁신적인 공동 솔루션 개발이 가능해지는 점도 핵심이다. 에퀴닉스의 AI 에코시스템은 2천개 이상의 글로벌 파트너로 구성됐으며 벤더 중립적 구조를 유지하고 있다. 기업은 이 생태계를 통해 최첨단 AI 추론 서비스를 쉽게 검색하고 활용할 수 있다. 특히 2026년 1분기 출시 예정인 '그록클라우드'를 포함한 고성능 플랫폼에 직접 접근해 맞춤형 구축 없이 빠르게 AI를 배포하고 확장할 수 있다. 이러한 인프라는 제조 분야의 예측 유지 보수, 리테일 최적화, 금융 사기 탐지 등 다양한 산업 현장에서 즉각적인 의사결정과 지연 없는 데이터 처리를 가능하게 한다. 에퀴닉스는 2026년부터 엣지와 리전 전반에서 AI 워크로드를 안정적이고 규정 준수 환경에서 운영할 수 있도록 지원할 계획이다. 존 린 에퀴닉스 최고 비즈니스 책임자(CBO)는 "AI가 점점 더 분산되고 동적으로 진화하는 상황에서 안전하고 효율적이며 대규모로 연결하는 것이 핵심 과제"라며 "우리 글로벌 플랫폼은 데이터를 사용자 가까이 이동시키고 새로운 기회를 빠르게 실현할 수 있는 무한한 연결성을 제공한다"고 말했다.

2025.09.26 15:45김미정 기자

AMD, 코히어와 소버린 AI 강화 글로벌 AI 협력 확대

AMD는 보안 중심 엔터프라이즈 AI 기업인 코히어(Cohere)와의 글로벌 협력을 확대한다고 현지시간 24일 발표했다. 코히어 고객사들은 회사 전체 AI 제품군을 AMD 인스팅트 GPU 기반 인프라에서 사용할 수 있다. 이를 통해 전 세계 기업 및 소버린 AI 프로젝트는 성능과 총 소유 비용(TCO)에 대한 목표를 달성할 수 있는 더 많은 선택지를 확보하고, AI 계획의 현실화를 앞당길 수 있게 된다. 또한, AMD는 코히어의 노스 플랫폼을 자사의 내부 엔터프라이즈 AI 포트폴리오에 통합할 계획이다. 이에 따라 코히어의 기술은 AMD 내부 및 엔지니어링 AI 워크로드의 핵심 요소로 활용된다. 닉 프로스트 코히어 공동 설립자는 "AMD 인스팅트 GPU에서 코히어의 여러 모델과 노스를 사용할 수 있게 되면서 AMD와의 관계를 더욱 확장하게 되어 기쁘다”며 “공공 및 민간 부문 고객들이 우리의 기본 모델 및 보안 최적화된 엔터프라이즈 AI 제품 전체를 AMD 인프라에서 실행할 수 있게 되면, 코히어의 AI 배포 방법이 훨씬 더 큰 유연성을 갖게 될 것”이라고 말했다. 이어 "AMD는 AI 인프라를 통해 매력적인 TCO를 제공하기 때문에 전 세계 소버린 AI 프로젝트의 훌륭한 선택지가 될 것"이라고 덧붙였다. 밤시 보파나 AMD AI 부문 수석 부사장은 “코히어의 풀스택 AI 솔루션이 AMD 인스팅트 인프라에 배포할 수 있게 되면서 기업과 정부는 뛰어난 성능, 효율성 및 메모리 용량 등을 바탕으로 AI를 확장할 수 있게 되었다”며 “AMD의 AI 컴퓨팅 플랫폼을 통해 고객들은 총 소유 비용과 에너지 효율이라는 두 가지 이점을 동시에 누릴 수 있어 기업과 정부가 AI 혁신을 가속화하는 데 큰 이점이 될 것"이라고 말했다.

2025.09.25 16:58전화평 기자

뉴타닉스 "韓 AI·클라우드 전환의 전략 파트너 될 것"

뉴타닉스가 단순하고 일관된 클라우드 플랫폼을 중심으로 한국 기업의 IT 인프라 혁신과 이를 통한 경쟁력 강화를 지속 지원하겠다는 의지를 밝혔다. 뉴타닉스는 25일 서울 여의도 페어몬트 앰배서더 호텔에서 '닷넥스트 온 투어 서울 2025' 미디어 라운드테이블을 개최해 최신 기술 비전과 주요 고객 사례를 발표했다. 행사에서 뉴타닉스 마이크 펠런 필드 엔지니어링 부문 수석 부사장은 "우리는 웹 백엔드와 엔드유저 워크로드 지원에서 출발해 현대화된 클러스터링 기반 인프라와 통합된 클라우드 플랫폼으로 서비스를 진화해왔다"며 "인공지능(AI)·클라우드 시대에 필요한 확장성과 보안을 지원하겠다"고 강조했다. 뉴타닉스 클라우드 플랫폼은 데이터센터·엣지·퍼블릭 클라우드 어디서든 단일한 환경을 제공해 복잡성을 줄이고 기업 고객이 업무를 간소화하도록 돕는 솔루션으로 주목받고 있다. 특히 아마존웹서비스(AWS)·마이크로소프트·구글 등 글로벌 클라우드와의 협력을 기반으로 엔터프라이즈 AI와 쿠버네티스 기반 서비스를 다양한 IT 인프라 환경에서 안정적으로 제공한다는 목표다. 뉴타닉스 제이 투제스 아시아태평양·일본(APJ) 지역 부사장은 한국 시장의 가파른 성장세를 강조했다. 투제스 부사장은 "아태지역 전반에서 AI 도입이 전략적 필수 요소로 자리 잡았고 특히 한국 기업들은 빠른 속도로 AI와 클라우드 네이티브 애플리케이션을 채택하고 있다"며 "컨테이너화와 마이크로서비스 아키텍처(MSA) 도입이 확산되면서 우리 플랫폼의 강점이 더욱 부각되고 있다"고 설명했다. 이어 "우리는 최근 회계연도에서 전세계 매출 18% 성장을 기록했고 한국은 전년 대비 50% 이상 성장하며 두 자릿수 성장률을 보였다"고 덧붙였다. 또 뉴타닉스는 2020년부터 신세계아이앤씨와 협력해 엔터프라이즈 AI 및 클라우드 서비스를 공동 개발했다. 이 파트너십을 바탕으로 국내 기업의 대규모언어모델(LLM) 활용, 스토리지 최적화, 컨테이너 기반 애플리케이션 개발 등을 지원하고 있다. 아울러 클라우드 네이티브 전환으로 뚜렷한 성과를 거둔 GC녹십자의 사례도 제시됐다. GC녹십자 김홍구 IT인프라팀장은 "뉴타닉스 플랫폼을 도입해 기존 서버의 60% 이상을 이전하고 효율성과 비용 절감을 달성했다"며 "최근에는 뉴타닉스 쿠버네티스 플랫폼을 기반으로 제조실행시스템(MES)도 컨테이너 환경으로 전환하며 무중단 운영과 민첩한 품질 관리, 비용 절감 효과를 얻고 있다"고 말했다. 변재근 뉴타닉스코리아 사장은 "글로벌 솔루션 기업을 넘어 한국의 디지털 혁신을 뒷받침하는 전략적 파트너가 되겠다"며 "신세계아이앤씨·GC녹십자의 사례처럼 더 많은 고객들의 IT 인프라 전환과 비즈니스 혁신을 지원하겠다"고 강조했다.

2025.09.25 14:11한정호 기자

"AI는 클라우드 위에서 실현"…빅테크가 그린 미래 청사진은

인공지능(AI) 시대가 본격화되는 가운데 산업계가 클라우드 없이는 AI도 존재할 수 없다고 입을 모았다. 막대한 연산 자원과 안정적인 인프라를 요구하는 AI가 제대로 작동하려면 클라우드라는 기반 위에서만 가능하다는 공통된 목소리다. 한국클라우드산업협회는 24일 서울 양재 엘타워에서 '클라우드 빅테크 2025'를 개최했다. 이번 행사는 AI와 클라우드의 상호 의존적 관계를 조명하며 글로벌 빅테크와 국내 기업들이 제시하는 혁신 사례를 공유하는 자리로 마련됐다. 최지웅 한국클라우드산업협회장은 개회사를 통해 "클라우드 없이는 AI가 불가능하다"며 '그래픽처리장치(GPU) 공유 서비스나 AI 네이티브 정책 역시 결국 클라우드 기반 위에서 작동해야 한다"고 강조했다. 이어 한국클라우드산업협회가 국가 디지털 경쟁력을 좌우하는 AI·클라우드 융합 생태계 조성에 앞장서겠다는 의지를 밝혔다. 국회 과학기술정보방송통신위원회 최형두 의원은 영상 축사를 통해 AI·클라우드 혁신을 위한 공공·민간의 공동 해법 모색 필요성을 언급하며 정책적·제도적 지원을 아끼지 않겠다고 약속했다. 첫 기조연설에 나선 KT클라우드 감철웅 상무는 '함께 만드는 AI 시장'을 주제로 AI 산업의 현실과 과제를 짚었다. 그는 디지털 전환(DX)에서 AI 전환(AX)으로 산업계 패러다임이 옮겨가는 가운데 우리나라 AI 생태계 활성화를 위한 기업 간 협력의 중요성을 강조했다. 아울러 협력 체계를 기반으로 한 KT클라우드의 'AI 파운드리'와 '검색증강생성(RAG) 스위트', 버티컬 산업 특화 애플리케이션, 마켓플레이스를 통한 AI SaaS 확산 전략 등을 공유했다. 감 상무는 "국내 AI 밸류체인을 튼튼히 구축해야 한국 AI 산업이 성장할 수 있다"고 말했다. 두 번째 연사인 네이버클라우드 유경범 상무는 '초거대 AI 시대의 인프라 진화'를 주제로 소버린 AI 전략과 중요성에 대해 발표했다. 그는 미국의 'AI 액션플랜'을 소개하며 "생성형 AI 확산 속에서 연산 자원 확보와 데이터센터 운영 역량이 국가 경쟁력을 좌우할 것"이라고 진단했다. 이와 관련해 유 상무는 네이버클라우드 자체 거대언어모델(LLM) '하이퍼클로바X'를 중심으로 데이터센터와 GPU 인프라를 확장하고 사우디아라비아·태국 등과 협력해 현지 맞춤형 AI와 공공 서비스를 구축하는 사례를 공유했다. 특히 고객의 문제를 해결하기 위한 턴키 방식 솔루션과 한국수력원자력·한국은행의 프라이빗 클라우드 기반 AI 구축 등의 공공 맞춤형 AX 사례를 발표했다. 유 상무는 "국내 소버린 AI 생태계 활성화를 위해 다양한 기업·기관과 파트너십을 확대할 것"이라고 밝혔다. 마지막으로 아마존웹서비스(AWS) 김경윤 솔루션즈아키텍트 매니저는 '글로벌 혁신을 이끄는 AI·클라우드'를 주제로 발표했다. 그는 AI 인재 양성·인프라·데이터·에이전트 기술 등 AWS AI 스택의 전방위 전략을 소개하며 산업과 사회 전반의 AX 지원 활동을 공유했다. 김 매니저는 "AI는 단일 기술이 아니라 산업과 사회의 문제를 풀어내는 생태계적 접근이 필요하다"며 "우리는 다양한 모델·칩·데이터 플랫폼을 통해 고객들이 상황에 맞는 선택을 할 수 있도록 지원할 것"이라고 설명했다.

2025.09.24 14:19한정호 기자

오픈AI, 690조원 규모 '스타게이트' 확장…美 전역에 초대형 AI 인프라 구축

오픈AI가 미국 내 초대형 데이터센터 프로젝트 '스타게이트'를 본격 확대하며 인공지능(AI) 인프라 경쟁 주도권 강화에 박차를 가한다. 오라클과 손정의 회장이 이끄는 소프트뱅크가 동참하면서 총투자 규모는 5천억 달러(약 690조 원)에 달할 전망이다. 24일 블룸버그통신에 따르면 오픈AI·오라클·소프트뱅크는 미국 내 신규 5곳의 AI 데이터센터 부지를 확정하고 착공에 돌입했다. 이번 프로젝트는 미국 텍사스 애빌린에 마련된 첫 번째 거점 데이터센터를 시작으로 뉴멕시코, 오하이오, 텍사스 내 다른 지역, 중서부 지역까지 확장된다. 이번 추가 확장만으로 스타게이트의 계획 용량은 약 7기가와트(GW)에 이르며 올해 말까지 10GW 확보라는 당초 목표를 앞당겨 달성할 수 전망이다. 이와 함께 엔비디아는 차세대 칩 공급을 담당하며 오픈AI 지분 투자에도 나선다. 오픈AI는 올해 약 130억 달러(약 18조원)의 매출 달성을 예상하고 있으며 현금 흐름과 부채 조달을 통해 대규모 인프라 건설 비용을 충당한다는 계획이다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "AI를 뒷받침할 컴퓨팅 자원이 반드시 필요하다"며 "스타게이트를 통해 우리는 역사적인 진전을 이루고 있으며 이는 인류의 미래 혁신을 위한 초석이 될 것"이라고 강조했다. 클레이 마구이크 오라클 CEO는 "확장성과 보안성을 갖춘 우리의 AI 인프라가 오픈AI의 비즈니스 성장을 뒷받침하고 있다"며 "폭발적으로 증가하는 수요에 대응하기 위해 클라우드 인프라를 유례없는 속도로 확장하고 있다"고 말했다. 손정의 소프트뱅크 회장은 "스타게이트는 우리의 혁신적 데이터센터 설계와 에너지 전문성을 활용해 AI의 미래를 위한 확장 가능한 컴퓨팅을 제공하고 있다"며 "오픈AI·오라클과 함께 인류 발전을 이끄는 새로운 시대를 열 것"이라고 밝혔다.

2025.09.24 09:41한정호 기자

'AI 3대 강국' 위한 AI 인프라 정책 토론회 열린다

더불어민주당 조인철 의원과 한국경영과학회는 오는 29일 오전 10시 국회의원회관 9 간담회의실에서 'AI 3강 도약 달성을 위한 AI 인프라 정책 방향' 토론회를 공동 개최한다. 토론회는 'AI'를 둘러싼 미중 패권경쟁이 심화하는 가운데 우리나라의 현 주소를 진단하고, 'AI 3강 도약'을 위해 우리나라가 지향해야 할 AI 인프라, 정보통신서비스, 사이버 보안 분야의 정책 대전환 방안에 대해 정부와 학계 전문가들의 의견이 제시될 예정이다. 특히 긴박한 글로벌 환경과 사이버 위협 속에서 정부 정책을 비판적으로 고찰하고 국가 AI 인프라 강화 및 지속 가능성 제고를 위한 실질적인 방안들이 논의된다. 이경원 동국대 교수(정보통신정책학회 회장)가 좌장을 맡아 진행하는 토론회 1부에서 신민수 한양대 교수가 'AI 3대 강국 도약의 필수 요소, AI 인프라 구축 촉진을 위한 정책 전환 방향'을 주제로 민간의 AI 데이터센터 투자 촉진을 위한 4대 정책 방향과 함께 AI 시대에 대비한 '정보통신비' 개념 재정립 방향을 제안할 예정이다. 모정훈 연세대 교수는 '지속 가능한 AI 기반사회를 위한 통신 인프라와 공정한 망 이용정책'을 주제로 이동통신 품질평가 정책의 전환 방향과 AI 인프라 가치의 지속 가능성 확보를 위한 실질적인 방안들을 제안하고, 박기웅 세종대 교수는 'AI 시대 사이버보안 패러다임의 변화 그리고 세상 속 칼과 방패'를 주제로 범국가 차원의 사이버 침해 대응 역량 강화를 위한 사이버 보안 정책 방향을 제시한다. 토론회 2부에서는 김경만 과학기술정보통신부 인공지능기반정책관, 김도훈 경희대 교수, 노창희 디지털산업정책연구소 소장, 안정민 한림대 교수, 한석현 서울YMCA 시민중계실 실장, 홍인기 경희대 교수가 토론자로 참석한다. 조인철 의원은 “AI를 둘러싼 글로벌 격변의 시대 속 지금은 AI 인프라 확충과 함께 통신 정책과 정보보호 패러다임의 대전환이 필요한 시점”이라며 “이번 토론회가 우리 앞에 놓인 난제들을 해결하고 'AI 3강 도약'의 초석을 놓는 자리가 되기를 기대한다”고 말했다.

2025.09.23 17:40박수형 기자

엔비디아, 오픈AI 140조원 규모 투자...'AI 동맹' 체결

엔비디아가 오픈AI에 최대 1천억 달러(약 140조원)를 투자하며 대규모 인공지능(AI) 데이터센터 구축에 나선다. 세계 AI 산업을 주도하는 두 기업이 손을 잡으면서 차세대 AI 인프라 경쟁이 본격화되고 있다. 23일 블룸버그통신에 따르면 엔비디아는 오픈AI와 전략적 파트너십을 체결하고 10기가와트(GW) 규모의 데이터센터 인프라를 공동 구축하기로 했다. 이는 원전 10기에 해당하는 막대한 전력량으로, 엔비디아의 차세대 AI 칩과 네트워킹 장비가 투입된다. 투자금은 단계적으로 집행되며 첫 100억 달러(약 14조원)는 1GW 규모 컴퓨팅 파워가 배치될 때 투입될 예정이다. 이번 파트너십은 오픈AI가 마이크로소프트(MS)·오라클·소프트뱅크와 함께 진행 중인 '스타게이트' 인프라 구축 프로젝트를 보완하는 성격을 지닌다. 엔비디아의 막대한 투자와 첨단 칩 기술이 결합되면서 기존 프로젝트의 성과를 극대화하고 오픈AI의 인프라 확장 속도를 크게 앞당길 것으로 평가된다. 엔비디아는 오픈AI를 핵심 고객으로 유지하며 치열한 AI 칩 경쟁에서 우위를 강화할 수 있을 것으로 전망된다. 일각에서는 엔비디아가 이번 계약을 통해 오픈AI의 지분도 확보할 것이라는 관측도 나온다. 이 소식은 뉴욕 증시에서도 즉각 반영됐다. 엔비디아 주가는 전 거래일 대비 3% 이상 상승하며 장중 최고가를 경신했다. 시장은 이번 협력이 양사 모두에게 막대한 시너지 효과를 가져올 것으로 보고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 "10GW는 400만~500만 개 그래픽처리장치(GPU) 출력에 해당하며 이는 올해 엔비디아 전체 출하량과 맞먹고 지난해 대비 2배 수준"이라며 "오픈AI와의 이번 프로젝트는 규모 면에서 기념비적"이라고 말했다. 샘 올트먼 오픈AI CEO는 "엔비디아와 함께 구축 중인 인프라를 통해 새로운 AI 혁신을 창출하고 이를 대규모로 사람들과 기업에 제공할 것"이라고 밝혔다.

2025.09.23 11:03한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.