• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (367건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아는 왜 액침냉각을 인증하지 않을까

데이터센터 전력 효율을 높이기 위한 냉각 기술 경쟁이 본격화되고 있지만, 업계에서는 한 가지 의문이 여전히 남아 있다. 엔비디아는 왜 액침냉각(Immersion Cooling)에 공식 인증을 부여하지 않는가이다. 현재 엔비디아는 고성능 GPU 서버에 적용할 수 있는 냉각 방식으로 D2C(Direct to Chip) 액체냉각만 공식 지원하고 있다. 반면, GPU 전체를 특수 절연액에 담가 열을 제거하는 액침냉각은 아직 인증 리스트에 포함되지 않았다. 이는 액침냉각 기술이 상용화 단계로 넘어가는 데 있어 가장 큰 문턱으로 꼽힌다. 업계 “엔비디아의 수익 구조가 걸림돌” 12일 업계에 따르면 엔비디아가 액침냉각에 공식 인증을 부여하지 않는 직접적인 이유로 수익 구조와 생태계 통제 문제가 거론된다. 단순한 기술 완성도의 문제가 아니라, 향후 데이터센터 시장에서의 주도권과 직결된 사안이라는 분석이다. 냉각 업계 한 관계자는 “엔비디아가 현재 인증하고 있는 D2C 방식 액체냉각은 랙 단위에서 적용되는 구조”라며 “GPU와 서버 판매 구조에는 큰 변화가 없다”고 설명했다. 반면 액침냉각은 서버 전체를 액체에 담그는 방식인 만큼, 냉각 솔루션이 서버 설계와 패키징의 중심으로 올라설 수밖에 없다는 점에서 차이가 크다. “액침은 서버까지 팔 수 있는 구조” 다른 전문가는 액침냉각과 기존 액체냉각의 가장 큰 차이를 '판매 단위'에서 찾았다. D2C 방식 액체냉각은 랙 단위 또는 인프라 확장 수준에서 적용되지만, 액침냉각은 서버 자체가 하나의 완성 제품이 된다는 것이다. 다른 냉각 업계 관계자는 “액침냉각이 본격화되면 냉각 업체는 단순 단품 공급사가 아니라 서버 랙 시스템 및 쿨링시스템을 결합한 통합 솔루션 공급자가 된다”며 “이는 GPU 중심으로 구축된 엔비디아의 기존 사업 구조와는 결이 다른 방향”이라고 설명했다. 즉, 액침냉각이 확산될 경우 냉각 기술을 보유한 업체가 서버 설계와 구성의 주도권을 쥘 수 있고, 이는 엔비디아가 주도해온 GPU-서버 생태계에 변화를 가져올 수 있다는 의미다. 엔비디아가 액침냉각 인증에 신중할 수 밖에 없는 이유다. 언젠가는 넘어야 할 선택지 다만 업계에서는 엔비디아가 액침냉각을 영구적으로 배제하기는 어려울 것으로 보고 있다. AI 학습과 추론 수요가 폭발적으로 증가하면서 GPU 집적도와 전력 밀도 역시 한계치에 다다르고 있기 때문이다. 냉각 업계 관계자는 “전력 밀도가 지금보다 더 올라가면 D2C 방식만으로는 대응이 어려운 시점이 올 수밖에 없다”며 “그때가 되면 엔비디아 역시 액침냉각을 하나의 선택지로 검토할 가능성이 크다”고 내다봤다.

2025.12.12 16:31전화평

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

브로드컴발 훈풍에 삼성·SK 메모리 수요 '청신호'

브로드컴의 맞춤형 AI 가속기 사업이 확장되고 있다. 최근 구글 AI칩의 추가 주문을 확보했으며, AI칩 고객사 수도 기존 4곳에서 5곳으로 늘었다. 이에 따라 AI칩에 고성능 D램, HBM(고대역폭메모리) 등을 공급하는 삼성전자, SK하이닉스도 지속적인 성장동력을 확보할 수 있을 것으로 예상된다. 11일(현지시간) 브로드컴은 회계연도 2025년 4분기(11월 2일 종료) 매출 180억2천만 달러를 기록했다고 밝혔다. 전분기 대비로는 13%, 전년동기 대비 28% 증가했다. 이번 브로드컴 매출은 증권가 컨센서스인 174억6천600만 달러를 상회하는 실적이다. 특히 AI 반도체 매출이 65억 달러로 전년동기 대비 74% 증가하면서 전 사업군 중 가장 강력한 성장세를 나타냈다. 브로드컴은 자체 보유한 반도체 설계 역량을 바탕으로 구글·메타·오픈AI 등 글로벌 IT 기업들의 AI 반도체 개발 및 제조를 지원해 왔다. 해당 고객사들은 엔비디아의 AI 가속기 대비 범용성은 떨어지지만, 전력 및 비용 효율성이 높은 AI 가속기 개발에 열을 올리고 있다. 브로드컴은 "고객사들이 거대언어모델(LLM) 학습 및 추론 어플리케이션을 통한 플랫폼 수익화에 맞춤형 AI 가속기(XPU)를 더욱 적극적으로 활용하고 있다"며 "이 덕분에 맞춤형 가속기 사업이 전년동기 대비 2배 이상 성장했다"고 설명했다. 최근 성과 역시 주목할 만 하다. 지난 3분기 미국 AI 스타트업 앤트로픽은 브로드컴과 100억 달러 규모의 구글 AI 가속기 TPU(텐서처리장치)를 주문한 바 있다. 올 4분기에는 앤트로픽으로부터 내년 말 납품 예정인 110억 달러 규모의 추가 계약을 체결했다. 또한 브로드컴은 최근 5번째 맞춤형 가속기 고객사를 확보하는 데 성공했다. 고객사명은 밝히지 않았으나, 10억 달러 규모의 주문으로 2026년 말 제품을 공급할 것으로 알려졌다. 중장기적으로는 오픈AI와의 협업을 통한 성장이 기대된다. 브로드컴은 "오픈AI는 자체 AI 가속기 도입을 위해 다년간의 노력을 진행 중"이라며 "오픈AI와의 10GW(기가와트) 규모의 계약은 오는 2027~2029년에 걸쳐 달성될 것"이라고 말했다. 이처럼 브로드컴의 AI 가속기 사업 확장은 삼성전자, SK하이닉스 등 국내 메모리 기업들의 제품 수요를 촉진하는 요소로 작용한다. AI 가속기에는 고성능 D램과 HBM(고대역폭메모리) 등이 대거 탑재된다. 특히 삼성전자, SK하이닉스의 전체 HBM 공급량에서 비(非) 엔비디아가 차지하는 비중은 점차 늘어날 전망이다. 구글은 올해 HBM3E 12단을 탑재한 AI 가속기를 출시한 데 이어, 내년에도 HBM3E 기반의 차세대 제품을 지속 출시할 예정이다. 메타, AWS 등도 내년 HBM3E 수요를 적극 견인할 것으로 보인다.

2025.12.12 10:57장경윤

브로드컴, 100억 달러 규모 미스터리 고객 정체는 '앤트로픽'

브로드컴이 지난 9월 실적 발표에서 언급했던 '미스터리 고객'의 정체가 앤트로픽으로 밝혀졌다. 당시 약 1천억 달러(약 13조원) 규모 맞춤형 인공지능(AI) 칩 주문을 한 것으로 알려져 업계의 관심을 받았다. 12일 브로드컴의 혹 탄 최고경영자(CEO)는 4분기 실적 발표 컨퍼런스콜에서 9월에 공개했던 1천억달러 규모의 맞춤형 AI 랙 주문을 낸 4번째 XPU 고객이 앤트로픽이라고 공식 밝혔다. 그는 "앤트로픽에 최신 구글 텐서 프로세싱 유닛(TPU) 아이언우드 랙을 공급하기 위해 100억 달러 규모의 주문을 받았다"고 밝힘과 동시에 "최근 분기에 추가로 110억 달러 규모의 주문을 했다"고 덧붙였다. 이로써 앤트로픽과 브로드컴 간 계약 규모는 총 210억 달러에 달하게 됐다. 브로드컴은 통상 대형 고객사를 공개하지 않지만, 지난 9월 실적 발표 당시 구체적인 이름을 밝히지 않은 채 특정 고객사와 대규모 맞춤형 칩 계약을 체결했다고 언급해 투자자들의 궁금증을 자아낸 바 있다. 당시 오픈AI가 아니냐는 추측이 제기되었으나, 브로드컴 측은 이를 부인했었다. 이번 발표에 대해 일부에선 앤스로픽과 구글 간의 협력 관계가 더욱 공고해지고 있음을 알리기 위한 것으로 분석도 제기된다. 브로드컴은 구글의 맞춤형 칩인 TPU 생산을 지원하고 있으며 이번 앤스로픽 계약 건에서는 단순 칩 공급을 넘어 서버 랙 전체를 납품하는 형태를 취하고 있기 때문이다. 이번 발표에서 브로드컴은 새로운 다섯 번째 고객을 확보했다고 밝혔다. 기업명이 공개되지 않은 이 업체는 4분기 10억 달러 규모의 주문을 했다고 밝혔다. 애널리스트들은 브로드컴과 구글의 협력으로 TPU가 엔비디아 GPU의 대안으로 부상할 것으로 주목하고 있다. 최근 칩보다 전력 제약이 AI의 주요 병목 현상으로 부상하면서 구글의 맞춤형 ASIC과 전력 효율적인 설계가 클라우드 사업 성장의 의미 있는 동력이 될 수 있다는 분석이다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 앤트로픽의 TPU 사용 대폭 확대 결정이 "수년간 경험한 강력한 가격 대비 성능과 효율성"을 반영한다고 밝혔다.

2025.12.12 10:08남혁우

오라클, "AI가 DB 안으로"…AI 데이터베이스 26ai로 차별화 승부

오라클이 데이터를 밖으로 빼내지 않고 데이터베이스에서 바로 인공지능(AI)을 실행하는 방식을 앞세워 AI 데이터플랫폼 기업으로 거듭나겠다고 선언했다. 한국오라클은 11일 서울 강남구 아셈타워에서 미디어 브리핑을 열고 오라클 AI 월드 2025의 주요 발표 내용을 국내 시장 관점에서 재정리했다. 올해 처음 개최된 오라클 AI 월드는 기존 글로벌 연례 행사였던 '오라클 클라우드월드'의 이름을 바꾼 것으로 클라우드 인프라와 데이터베이스, 애플리케이션 전반을 AI 중심으로 재편하는 전략이 집중적으로 소개된 무대다. 행사에서 나정옥 한국오라클 부사장(클라우드 엔지니어링 총괄)은 AI 전략의 출발점을 'AI를 위한 데이터'가 아니라 '데이터를 위한 AI(AI for Data)'라고 규정했다. 그는 "AI 도입의 성패는 '데이터 이동'을 얼마나 줄이느냐에 달렸다"며 "오라클은 데이터를 AI 모델로 가져가는 비효율을 없애고, 데이터가 저장된 바로 그곳에 AI를 심는 '데이터 중심' 전략으로 시장 판도를 바꾸겠다"고 강조했다. 나 부사장은 "오픈AI가 오라클을 선택한 이유도 타사가 수년 걸릴 대규모 클러스터를 1년이 채 안 되는 기간에 구축할 수 있는 인프라 역량 때문"이라며 "AI를 위해 데이터를 밖으로 빼내지 않는다는 원칙 아래, 데이터가 머무는 자리로 AI를 가져오는 것이 오라클 전략의 핵심"이라고 말했다. 차세대 인프라 전략은 장진호 상무가 설명했다. 그는 오라클 클라우드 인프라(OCI)의 기존 '젠2(Gen 2)' 클라우드 아키텍처를 AI 워크로드에 맞게 재설계한 '엑셀러론(Acceleron)' 기반 인프라를 소개했다. 엑셀러론은 GPU 간 연결 구조와 네트워크, 스토리지를 모두 AI 학습·추론에 맞게 최적화한 구조로, 수십만개의 GPU를 하나의 거대한 클러스터로 묶는 것이 특징이다. 실제로 오라클은 엔비디아 GPU를 최대 80만개까지 단일 클러스터로 연결하는 'OCI 제타스케일10(Zettascale10)' 아키텍처를 공개했으며, 미국 텍사스 애빌린에 오픈AI와 함께 구축 중인 '스타게이트' 슈퍼클러스터의 기반 패브릭으로 적용하고 있다. 장 상무는 "엑셀러론은 단순히 하드웨어를 늘린 것이 아니라, 네트워크와 스토리지까지 전 계층을 AI 워크로드에 맞춰 다시 설계한 인프라"라며 "이미 13만장 규모 GPU 클러스터를 운영 중이고, 제타스케일10을 통해 80만장 수준까지 확장하는 '물리적 체급'의 차이를 보여줄 것"이라고 말했다. 데이터베이스 측면에서는 '오라클 AI 데이터베이스 26ai'가 프레임 전환의 중심에 섰다. 오라클은 기존 '오라클 데이터베이스 23ai'에서 선보였던 AI 벡터 검색, 셀렉트 AI 기능을 발전시켜 26ai에 통합했다. 조경진 상무는 "벡터 검색은 기계가 사람처럼 문맥과 의미를 이해하게 만드는 핵심 기술"이라며 "오라클은 별도 벡터 데이터베이스를 따로 구축하지 않고도, 기존 데이터베이스 안에서 관계형 데이터와 문서, 이미지 같은 비정형 데이터를 함께 벡터로 다루고 검색할 수 있다"고 설명했다. 그는 "개발자는 익숙한 SQL과 JSON, 그래프, 공간 데이터 위에 AI 벡터 검색을 얹어, 복잡한 인프라를 다시 짜지 않고도 LLM, RAG 같은 고급 AI 기능을 구현할 수 있다"고 덧붙였다. 실제 시연에서는 자연어로 "이번 달 배송 지연 건수는?"이라고 묻자, 셀렉트 AI가 데이터베이스 스키마 정보를 바탕으로 SQL을 자동 생성해 결과를 반환하는 화면이 소개됐다. 오라클 셀렉트 AI는 자연어를 SQL로 변환하고, 필요할 경우 기업 문서와 로그를 벡터로 변환해 함께 조회하는 방식으로 '대화하듯 데이터에 질의'하는 경험을 제공한다. 조 상무는 "결국 중요한 것은 LLM이 아니라 기업 고유 데이터"라며 "데이터베이스 안에 AI를 내장해 개발자와 데이터 분석가가 기존 워크플로를 거의 바꾸지 않고도 AI 기능을 쓰게 하는 것이 목표"라고 말했다. 데이터 플랫폼 전략은 김태완 상무가 맡았다. 그는 파편화된 데이터를 하나로 엮는 '오라클 AI 데이터 플랫폼'과 '오픈 데이터 레이크하우스', '제로 ETL(Zero-ETL)' 전략을 함께 제시했다. 김 상무는 "이제 데이터가 어디에 있든 상관없는 '오픈 데이터' 시대"라며 "오라클의 전략은 데이터를 복제하거나 옮기는 작업을 최소화해, 이동에 드는 시간과 비용을 없애는 '제로 ETL'을 실현하는 것"이라고 강조했다. 그는 "AWS, 마이크로소프트 애저, 구글 클라우드 등과의 멀티클라우드 연동을 통해, 여러 클라우드에 흩어진 데이터를 데이터 사일로 없이 하나의 논리적 플랫폼처럼 다루게 하는 것이 목표"라고 설명했다. 보안과 규제 준수 측면에서 오라클은 '프라이빗 AI'를 핵심 차별점으로 내세웠다. 나정옥 부사장은 "많은 기업이 비싼 GPU를 도입해 놓고도, 데이터 반출과 규제 이슈 때문에 실제 업무에는 쓰지 못하고 있다"며 "오라클은 'AI를 위해 데이터를 밖으로 빼내지 않는다'는 철학 아래, 데이터가 저장된 데이터베이스와 데이터 레이크, 애플리케이션 주변에 AI를 심는 구조를 택했다"고 말했다. 그는 "데이터 주권과 규제가 중요한 금융, 공공, 제조 기업이 기존 보안·거버넌스 체계를 그대로 유지한 상태에서 고성능 AI를 쓸 수 있도록 하는 것이 오라클 프라이빗 AI의 지향점"이라고 부연했다.

2025.12.11 21:50남혁우

과기정통부 "AI 3대 강국, 정부·민간 협력 생태계 구축해 달성한다"

"인공지능(AI)을 국가 성장의 핵심축으로 삼고 민간과 함께 생태계를 구축하겠습니다." 과학기술정보통신부 장기철 인공지능데이터진흥과장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 국가 AI 경쟁력 강화와 디지털 인프라 전환에 대해 이같이 밝혔다. 지디넷코리아가 주최한 ACC 2025는 AI와 클라우드 분야의 실질적 비즈니스 성과 창출 방안을 모색하는 대표 기술 컨퍼런스다. 올해 행사에는 과기정통부 비롯해 구글 클라우드·삼성SDS·뉴타닉스 코리아·아카마이·알리바바 클라우드·나무기술 등 글로벌 및 국내 주요 기업들이 대거 참여해 성황을 이뤘다. 이날 장 과장은 글로벌 'AI 3대 강국(AI G3)' 도약을 목표로 하는 정부의 AI 정책 확대 로드맵을 공유했다. 그는 "현재 우리나라 AI의 수준은 미국·중국을 뒤따르는 3위권 그룹으로, 앞으로는 압도적인 3강을 굳히는 것이 목표"라고 말했다. 특히 글로벌 AI 모델 평가 지표에서 LG AI연구원의 '엑사원', 업스테이지 '솔라' 모델이 상위권에 오른 점을 언급하며 "우리도 톱티어 모델을 만들 역량이 있다"고 덧붙였다. 정부는 AI G3 도약을 위해 내년 대규모 예산을 투입한다. 정부 AI 예산 10조원, 국민성장펀드를 통한 AI 투자 30조원 등을 통해 GPU·데이터·반도체·모델·인재까지 이어지는 AI 풀스택 역량을 모두 강화한다는 방침이다. 특히 2030년까지 엔비디아 26만 장 그래픽처리장치(GPU)를 확보하는 계획을 바탕으로 한국형 'AI 고속도로' 구축에 속도를 낼 전망이다. 장 과장은 AI 인재 문제도 시급한 과제로 꼽았다. 국내에서 충분한 GPU를 써볼 기회가 없어 연구자들이 해외로 빠져나가는 현실을 타개하고자 정부는 ▲해외 AI 인재 특별비자 도입 ▲AI대학원·AX 융합대학원 확대 ▲AI 스타펠로우십 지원 등 제도 개선을 추진하고 있다. 또 '독자 AI 파운데이션 모델 프로젝트'에도 속도를 낸다. 장 과장은 "프롬 스크래치 기술을 갖춘 우수 국내 AI 기업들과 함께 글로벌 톱 모델 확보에 도전한다"며 "공공·민간의 데이터와 GPU, 인재 등 기술과 정부 지원 역량을 결합해 글로벌 모델 10위권에 진입할 것"이라고 밝혔다. AI 기반 국가 대전환 전략도 소개됐다. 제조·지역·공공·과학 분야로 구분된 AX 전략을 통해 AI 로봇·AI 공장·AI 복지·AI 납세 관리 등 전 산업·행정 분야의 디지털 혁신을 동시 추진한다는 구상이다. 장 과장은 "대통령 직속 국가AI전략위원회를 중심으로 범부처 협업을 강화해 AI 정부로 전환되고 있다"고 강조했다. 아울러 지난 9월 국가정보자원관리원 화재 사고 이후 국가가 운영하는 디지털 인프라의 안정성 확보 대책도 언급됐다. 그는 "국가에서 관리하는 데이터센터들이 민간 클라우드를 더 많이 활용할 수 있도록 방안을 마련 중"이라며 "국가AI전략위원회에서 별도 대책을 준비하고 있어 이른 시일 내 발표될 것"이라고 말했다. 장 과장은 AI G3 도약을 위한 향후 정부의 역할도 공유했다. 예산 측면에서는 마중물 역할을, 산업 측면에서는 규제 완화와 공공 조달을 통한 초기 시장 조성을 핵심 방향으로 제시했다. 그는 "정부가 AI에 있어 모든 것을 다 할 수 있다고 생각하지 않는다"며 "민간이 AI 비즈니스를 잘할 수 있도록 적절한 제도와 환경을 만드는 데 집중하겠다"고 말했다.

2025.12.11 17:34한정호

래블업 "인간 지능 대체 시도 활발…수직 통합·오픈 생태계 해법으로"

래블업이 인간의 지능을 대체하고자 하는 시도가 활발하게 일어나는 현 시점에 기술적 문제의 해결법으로 수직 통합과 대규모 오픈 생태계 진입을 제시했다. 김준기 래블업 최고기술책임자(CTO)는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "AI 기술이 등장하면서 이전에는 슈퍼컴퓨터를 동원해야만 계산할 수 있었던 연산들이 적은 개수의 서버로 수행할 수 있게 되면서 AI 모델이 저정밀도 환경에서도 잘 작동한다는 깨달음을 얻게 됐다"며 "고도화된 AI 모델을 만들고 이를 통해 인간의 지능을 대체하는 시도들이 활발하게 일어나고 있는 게 현재 시점"이라고 말했다. 'ACC 2025'는 지디넷코리아가 주관·주최하고 과학기술정보통신부, 래블업, 네이버 등이 후원하는 컨퍼런스다. 이 자리에서 김 CTO는 "경제적인 동인에 따라 그래픽처리장치(GPU)의 아키텍처가 점점 빈틈없이 메워지기 시작했다"며 "이전에는 인간의 고유한 지적 활동으로 취급됐던 지능이 산업적 측면에서 재화나 물품으로 취급될 수 있다는 시각이 나왔다"고 설명했다. 또 그는 이 과정에서 고장 등의 현실적인 문제가 발생했으나, 래블업은 이같은 컴퓨팅 인프라를 관리하는 데 필요한 여러 기술적 어려움과 고민들을 숨겨주는 것을 목표로 하고 있다고 언급했다. 이를 위해 이 회사는 오픈소스 개발 단계에서 여러 엔터프라이즈 확장 기능을 붙이는 방식을 추구하고 있다. 또 간단한 PC 스케일부터 클라우드까지 가능한 일관된 경험을 제공하는 것을 목표로 개발을 이어가고 있는 상황이다. 김 CTO는 "다양한 층위에서 사실 공통된 원리들이 적용되는데 이를 시스템 디자인에 얼마나 잘 녹여낼 수 있느냐에 대한 고민을 많이 하고 있다"며 "보안에 대한 문제도 고민 중"이라고 말했다. 그는 기술적으로 아무리 복잡한 문제를 해결했어도 이를 실제 고객에게 공급하고 기술 지원을 할 것이냐는 어려운 문제라고 토로했다. 김 CTO는 "기술적 관점에서 가능한 수직 통합을 해 모든 요소를 우리 통제 하에 두겠다는 것이 하나의 방향"이라며 "요즘 고민하는 것은 어느 정도 안정성 등이 검증된 대규모 오픈 생태계인 '거인의 어깨'에 올라타는 전략"이라고 언급했다. 다만 래블업은 AI 시장이 이제 시작 단계에 있다고 보고 다양한 특화 환경에 맞는 AI 반도체 등장을 염두에 두고 특정 벤더에 종속되지 않는 형태의 디자인에 대한 개발을 내부적으로 이어오고 있다고 강조했다. 김 CTO는 "지능 인프라를 공급하는 회사로 다양한 기술적 문제를 해결해나가고 있다"며 "이런 부분이 여러분들의 의사결정과 연구개발에 도움이 됐으면 좋겠다"고 밝혔다.

2025.12.11 16:53박서린

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평

딥엑스, 30W로 수백 채널 영상 AI 구현 전용 칩셋 출시

초저전력 온디바이스 AI 반도체 기업 딥엑스는 수백 채널 규모의 영상 AI 분석을 단 30W 수준에서 처리하는 비디오 인텔리전스 전용 칩셋 'DX-H1 V-NPU'를 공식 출시했다고 8일 밝혔다. 이번 제품은 그동안 GPU 서버와 별도 코덱 장비에 나뉘어 있던 영상 입력·압축·AI 추론 과정을 하나의 카드로 통합했다. 대규모 영상 AI 인프라의 전력, 비용, 복잡도를 동시에 줄이는 것을 목표로 한다. DX-H1 V-NPU는 멀티 채널 디코딩·인코딩·트랜스코딩 엔진과 전용 NPU 아키텍처를 한 칩 안에 집적한 올인원 비디오 인텔리전스 솔루션이다. 기존에는 다수의 카메라 스트림을 처리하기 위해 GPU 서버 여러 대와 별도의 하드웨어 코덱 장비를 병렬로 구성해야 했지만, DX-H1 V-NPU는 한 장의 카드에서 영상 스트림 입력부터 전처리, AI 추론, 재인코딩까지를 연속적인 파이프라인으로 처리하도록 설계됐다. 그 결과 동일한 채널 수 기준으로 GPU 대비 약 80%의 하드웨어 비용과 약 85%의 전력 비용을 절감하면서도 24시간 실시간 추론 성능을 유지할 수 있다는 것이 회사 측 설명이다. 이는 데이터센터의 전력난, ESG 요구, GPU 수급 불확실성이 커지는 상황에서, 도시·산업 현장의 영상 AI 수요를 지속 가능하게 뒷받침할 수 있는 구조적 대안이라는 점에서 의미가 크다. 딥엑스는 DX-H1 V-NPU가 비디오 인텔리전스 인프라의 기본 설계 철학 자체를 바꾸는 제품이라고 보고 있다. GPU는 범용 연산 능력이 강점이지만, 다채널 영상 입출력과 실시간 스트리밍에 최적화된 구조는 아니다. 반면 DX-H1 V-NPU는 영상 스트림이 분 단위가 아니라 초 단위로 쏟아지는 환경에서, 각 채널을 끊김 없이 받아들이고 AI 모델 추론을 통과시킨 뒤 다시 압축해 내보내는 작업에 맞춰 메모리 계층 구조와 연산 스케줄링을 최적화했다. 딥엑스는 “대규모 영상 AI가 더 이상 범용 GPU의 여분 리소스를 빌려 쓰는 영역이 아니라, 전용 칩셋 위에서 돌아가는 '하나의 산업'으로 자리 잡게 될 것”이라고 전망했다. 한편 딥엑스는 내년 1월 6일부터 9일까지 미국 라스베이거스에서 열리는 'CES 2026'에서 DX-H1 V-NPU를 전 세계 최초로 공식 공개하고, CTA가 새로 신설한 'CES 파운드리(Foundry)' 세션을 주최해 글로벌 파트너들과 함께 피지컬 AI 시대의 산업 비전과 기술 로드맵을 제시할 예정이다.

2025.12.08 09:33전화평

퀄컴, 아태 AI 스타트업 육성 시동…15개팀 성과 서울서 공개

퀄컴이 아시아·태평양(APAC) 지역 온디바이스 AI 생태계 확장을 위한 '퀄컴 AI 혁신 프로그램(QAIPI) 2025 APAC 데모데이' 행사를 5일 오후 서울 용산구 퀄컴코리아 사옥에서 진행했다. QAIPI는 퀄컴이 올해 APAC 대상으로 처음 진행한 프로그램이다. 한국과 일본, 싱가포르 등 3개 나라에서 총 15개 스타트업을 선정해 6개월 동안 퀄컴의 엣지 AI 플랫폼 기반 기술 멘토링 등을 제공했다. 또 올해 데모데이 행사 개최지를 서울로 선택했다. 5일 오전 퀄컴코리아에서 국내 기자단과 만난 이비 타이 퀄컴 타이완 사업개발 디렉터는 "한국은 세계 최고 수준 ICT 인프라와 스타트업 생태계, 기업·투자자 네트워크로 적합한 시장"이라고 설명했다. "선정 스타트업에 퀄컴 기술과 글로벌 진출 지원" 퀄컴은 올해 APAC 지역에서 '퀄컴 AI 혁신 프로그램 2025'를 시작하고 한국·일본·싱가포르에서 총 15개 유망 스타트업을 선정했다. 선정 팀들은 디바이스·제품 키트 지원, 5천 달러(약 736만원) 상당 특허 출원 인센티브도 지원받았다. 이비 타이 디렉터는 "선정된 스타트업의 요구사항을 파악해 모바일과 AI PC, IoT 등 다양한 퀄컴 엣지 AI 플랫폼을 활용한 솔루션 개발을 지원했다. 또 글로벌 시장 진출을 위한 디자인·지식재산권(IP) 교육, 특허 전략 컨설팅, 비즈니스 워크숍도 제공했다"고 설명했다. 이어 "오늘 오후 진행될 데모데이 행사에서는 한국을 포함해 총 15개 스타트업이 헬스케어, 로보틱스, 스마트시티, 산업용 AI 등 다양한 분야의 엣지 AI 솔루션을 발표하고 라이브 데모를 선보이며, 지난 6개월간의 협력 성과를 공유한다"고 덧붙였다. 반야에이아이 "퀄컴, 한국 특화 AI 모델 구현 적극 지원" QAPI에 선정된 국내 스타트업 중 한 곳인 '반야에이아이'는 올해 3월 설립됐다. 이 회사 김 안토니오 최고기술책임자(CTO)는 "어려움을 겪는 사회적 약자를 위해 '지혜'를 빌려주는 AI 기술을 개발하고 있다"고 설명했다. 이어 "온디바이스 AI는 개인 프라이버시나 민감 정보를 외부로 공개하지 않아도 챗GPT 수준의 사려 깊은 인공지능을 만들 수 있다. 오픈소스 기반으로 자체 개발한 AI 모델을 튜닝하고 훈련해 사용하고 있다"고 설명했다. 퀄컴은 반야에이아이와 협업 과정에서 스냅드래곤 X 엘리트 탑재 기기를 제공했다. 김 안토니오 CTO는 "내장 아드레노 GPU 성능이 강화돼 온디바이스 AI를 원활히 실행할 수 있다"고 평가했다. 반야에이아이는 한국어 기반 모델을 퀄컴 실리콘에 최적화하는 과정에서 퀄컴의 기술 지원을 받았다. 김 안토니오 CTO는 "2주에 한 번씩 퀄컴 기술진과 미팅을 하며 어려운 부분에 대해 도움을 받고, 매번 많은 자료를 제공받는 등 긴밀히 협업했다"고 설명했다. "아두이노 인수로 스타트업 지원 가속... 유니콘 탄생 희망" 이비 타이 퀄컴 타이완 사업개발 디렉터는 "올해 APAC 전역에서 수준 높은 지원자들이 몰렸다. 이 중 ▲AI 혁신성 ▲산업적·사회적 영향 ▲퀄컴 기술과의 시너지 ▲플랫폼 적합성을 따져 스타트업을 선정했다"고 설명했다. 이어 "특허 출원 인센티브 과정에서 모든 지적재산권은 해당 스타트업에 귀속되며 퀄컴은 관여하지 않는다. 또 기술적으로 뛰어난 곳은 내부 사업부나 고객사와 연결해 상용화 기회를 제공하는 등 장기 성장도 돕는다"고 말했다. 최근 인수한 아두이노 관련해 그는 "스타트업이 퀄컴 플랫폼 위에서 더 빠르게 AI 응용프로그램을 구현할 수 있도록 생태계를 강화하는 효과가 있다"고 설명했다. 이비 타이 디렉터는 "한국·일본·싱가포르 등 주요 국가 스타트업이 시장을 탐색하고 글로벌로 나아갈 수 있도록 지원하겠다는 입장을 밝히며, 향후 유니콘 기업이 탄생하는 데 기여할 수 있다면 큰 의미가 있을 것"이라고 덧붙였다.

2025.12.07 09:31권봉석

AWS, 'AI 팩토리' 공개…"엔비디아 컴퓨팅 결합"

아마존웹서비스(AWS)가 고객의 기존 인프라를 고성능 인공지능(AI) 환경으로 바꿔주는 서비스를 내놨다. AWS는 5일까지 미국 라스베이거스에서 열린 'AWS 리인벤트 2025'에서'AWS AI 팩토리'를 공개했다고 6일 밝혔다. 이는 고객의 기존 데이터센터에 전용 AWS AI 인프라를 구축하는 방식이다. AWS AI 팩토리는 최신 엔비디아 AI 컴퓨팅과 자체 트레이니움 칩 등 AI 가속기를 결합했다. 여기에 AWS의 고속 저지연 네트워킹과 아마존 베드록, 아마존 세이지메이커 같은 포괄적인 AI 서비스를 함께 제공한다. 이 통합 인프라를 AWS가 배포·관리한다. 고객은 마치 프라이빗 AWS 리전처럼 AWS AI 팩토리를 활용해 보안성이 높고 지연 시간이 짧은 접근을 할 수 있다. 별도 계약 없이 주요 파운데이션 모델에 접근할 수 있는 관리형 서비스도 이용할 수 있다. 이는 구축 기간과 운영 복잡성을 줄여 조직이 핵심 비즈니스 목표에 집중하도록 돕는다. AWS는 엔비디아와의 오랜 협력 관계를 확대해 고객의 자체 데이터센터 내 대규모 언어 모델 구축 운영을 가속화한다. 양사는 AWS 니트로 시스템, EFA 네트워킹 등 기술을 결합해 최신 엔비디아 그레이스 블랙웰, 베라 루빈 플랫폼을 지원한다. 이 통합은 고객이 시장 출시 시간을 단축하고 더 나은 성능을 달성하도록 돕는다. 이 서비스는 전 세계 정부의 모든 기밀 등급을 포함한 민감한 워크로드 실행이 가능하도록 AWS의 엄격한 보안 기준을 충족한다. AWS는 사우디아라비아 기업 휴메인과 전략적 파트너십을 맺고 최대 15만 개의 AI 칩이 포함된 최초의 'AI 존'을 구축하고 있다. 이안 벅 엔비디아 부사장 겸 하이퍼스케일 HPC 총괄은 "AWS AI 팩토리는 엔비디아의 최신 그레이스 블랙웰, 베라 루빈 아키텍처와 AWS의 안전하고 고성능의 인프라 및 AI 소프트웨어 스택을 결합했다"며 "조직이 강력한 AI 역량을 훨씬 짧은 시간 안에 구축하고 혁신에 오롯이 집중할 수 있도록 돕는다"고 밝혔다.

2025.12.06 20:00김미정

구글 TPU 파트너 플루이드스택, 기업가치 10조원 '눈앞'…대형 데이터센터 투자 시동

글로벌 인공지능(AI) 인프라 시장에서 신흥 강자로 떠오른 플루이드스택이 대규모 자금 조달에 나서며 기업가치가 70억 달러(약 10조원)에 이를 것이라는 전망이 나왔다. 구글 텐서처리장치(TPU) 생태계를 뒷받침하며 존재감을 키운 가운데, 대규모 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축을 본격화하면서 업계의 시선이 집중되고 있다. 5일 디인포메이션 등 외신에 따르면 플루이드스택은 약 7억 달러(약 1조원) 규모의 신규 투자 유치를 추진 중이며 투자 라운드가 성사될 경우 기업가치는 70억 달러(약 10조원) 수준까지 상승할 것으로 관측된다. 이번 투자 라운드는 전 오픈AI 연구원이 설립한 시추에이셔널 어웨어니스가 주도하며 알파벳(구글)과 골드만삭스가 참여 논의를 진행 중인 것으로 알려졌다. 플루이드스택은 최근 구글의 TPU를 대규모로 임대·호스팅하며 주목받고 있다. 특히 '제미나이 3' 학습에 활용된 TPU 인프라를 공급한 핵심 파트너로 알려지면서 글로벌 AI 인프라 생태계에서 빠르게 입지를 넓히는 중이다. 그동안 엔비디아 그래픽처리장치(GPU) 임대 중심이었던 사업 구조도 TPU 중심으로 전환을 가속하고 있다. 회사는 지금까지 주식 기반 조달보다는 차입금에 의존해 서버 구축 비용을 조달해왔고 올해 초에는 엔비디아 등 AI 칩을 담보로 100억 달러(약 14조원) 이상의 신용 승인도 확보한 것으로 전해졌다. 올해에만 구글과 두 건의 데이터센터 개발 계약을 체결한 것도 주목된다. 플루이드스택은 테라울프·사이퍼 마이닝과 함께 데이터센터 프로젝트를 진행 중이다. 해당 계약에서 구글은 플루이드스택이 자금을 갚지 못하는 상황이 오면 대신 빚을 갚아주기로 한 '보증인' 역할까지 맡아 지원했다. 이는 AI 인프라 수요 급증 속에서 기술 기업과 금융기관이 새로운 방식으로 데이터센터 투자를 확대하는 흐름과 맞물려 있다. 플루이드스택은 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 발표했다. 내년 가동을 목표로 하는 이 프로젝트는 프랑스 정부가 AI 경쟁력 확보를 위해 추진하는 대규모 전략의 핵심으로 평가된다. 회사는 현재 메타·하니웰 등과의 파트너십도 강화하며 글로벌 AI 기업들과 협력을 확대하고 있다.

2025.12.05 14:43한정호

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

트럼프-젠슨 황 회동...중국향 AI 칩 수출 재개 가닥

미국 대통령 도널드 트럼프가 세계 최대 AI 반도체 업체 엔비디아의 젠슨 황 CEO와 만나 첨단 AI 칩의 중국 수출 통제 문제를 논의했다고 로이터가 3일(현지시간) 보도했다. 트럼프 대통령은 황 CEO를 “똑똑한 사람”이라고 평가하며 “그는 내 입장을 잘 안다”고 말했다. 이번 논의는 미국 정부가 엔비디아 GPU 'H200'을 중국에 판매할지 검토 중인 가운데 이뤄졌다. H200은 엔비디아의 전세대 제품이다. 판매가 허용된다면 중국 시장 접근이 재개된다는 의미로, 반도체 업계와 글로벌 AI 생태계에 적지 않은 파장이 예상된다. 황 CEO는 같은 날 미국 의회를 찾아 “미국 내 주별(州)로 나뉜 규제가 AI 기술 발전을 느리게 한다”며 규제 완화를 촉구했다. 아울러 일부에서 나오는 반출 우려에 대해선, “AI 서버용 GPU는 무게·가격·전력 소비량이 매우 커, 대규모 밀수는 현실적으로 어렵다”고 반박했다. 엔비디아 측은 즉각적인 공식 입장을 내놓지 않았으며, 이번 회동을 계기로 미국 내 수출 통제 정책과 중국을 포함한 글로벌 시장 사이 줄다리기가 한층 격화될 전망이다.

2025.12.04 10:52전화평

KT, 충북청주강소특구에 GPU 구독서비스 제공

KT가 충북대 산학협력단 강소특구 지원센터에 고성능 GPU 구독형 서비스 'K GPUaaS'를 제공한다고 4일 밝혔다. K GPUaaS는 KT가 확보한 엔비디아의 GPU 'H100'을 월 구독 형태로 이용할 수 있는 서비스로 지난 9월 출시됐다. 초기 인프라 구축 비용이나 유지보수 부담을 줄여 AI 개발 속도와 경쟁력을 효율적으로 향상시킬 수 있다. 충북청주강소특구는 충북대학교가 운영하는 기술 핵심 연구기관으로 스마트 IT부품과 시스템이 중점 특화 사업이다. KT는 이곳에 K GPUaaS를 적용해 AI 개발과 학습에 최적화된 고성능 GPU 기반의 컴퓨팅 환경을 제공하고 있다. GPU 활용을 위한 전문 컨설팅을 비롯해 오픈 이노베이션 프로그램 등 AI 개발과 사업화 전반에 필요한 자원도 함께 지원한다. KT는 이번 사례를 시작으로 국내의 다양한 기업과 기관으로 K GPUaaS의 활용 범위를 넓힐 계획이다. AI 딥러닝 모델 학습과 추론, 데이터 분석 등 고성능 연산이 필요했던 기업·기관의 GPU 접근성을 높일 것으로 기대하고 있다. 한편 K GPUaaS는 초고속 네트워크 기술인 '인피니밴드(InfiniBand)'를 바탕으로 GPU 서버 간 지연 없는 통신을 제공해 대규모 분산 학습 환경을 구현한다. 또 GPU 가상화 분할 기술로 하나의 GPU를 여러 단위로 나누어 작업량에 따라 자원을 배분, 조정할 수 있도록 해 GPU 활용 효율을 높였다. 모든 GPU 인프라와 데이터, 네트워크는 국내에서 관리되어 고객의 데이터가 해외로 유출될 우려는 낮췄다. 유서봉 KT 엔터프라이즈부문 AX사업본부장은 “K GPUaaS가 첫 레퍼런스를 확보해 구독형 GPU 시장 확대를 위한 기반을 마련했다”며 “앞으로 더 많은 고객이 비용에 대한 부담 없이 고성능 GPU와 분산 학습에 최적화된 환경을 이용할 수 있도록 지원해 국내 AI 개발 생태계의 활성화에 기여하겠다”고 말했다.

2025.12.04 09:10박수형

"GPU부터 LLM까지 한 번에"…메이머스트·H2O.ai, 국내 풀스택 AI 공략 박차

메이머스트가 글로벌 인공지능(AI) 플랫폼 기업 H2O.ai와 손잡고 한국 엔터프라이즈 시장 공략에 박차를 가한다. 메이머스트가 보유한 온프레미스 인프라 역량에 H2O.ai의 AI 플랫폼을 더해 현장에 맞는 풀스택 AI를 구현하겠다는 계획이다. 이를 통해 기업들의 AI 도입 장벽을 낮추고, 적용 범위를 전 산업으로 넓혀가겠다는 포부다. 박상현 메이머스트 대표와 H2O.ai 제이미 림 아시아태평양(APJ) 파트너십 리드는 1일 경기 하남시 메이머스트 사무실에서 한국 시장 진출 전략을 공개했다. 메이머스트는 온프레미스 기반 AI 인프라와 클라우드, 보안, 네트워크, 가상 데스크톱(VDI)까지 아우르는 기술 기업이다. GPU 서버와 스토리지, 네트워크, HCI를 설계·구축하고 자체 개발한 기계학습운영(MLOps), 그래픽처리장치(GPU) 자원 관리 솔루션으로 AI 인프라 운영을 자동화·최적화하는 데 강점을 가진다. 전체 인력의 상당수가 엔지니어로 구성된 기술 중심 조직이라는 점도 특징이다. 이 같은 인프라, 플랫폼 역량을 바탕으로 국내 엔터프라이즈의 디지털 전환과 AI 도입을 지원해 왔다. H2O.ai는 미국에 본사를 둔 글로벌 AI 플랫폼 기업이다. 예측형 AI와 생성형 AI를 모두 지원하는 엔터프라이즈 AI 플랫폼을 제공하며 하나의 대규모언어모델(LLM)이나 특정 클라우드에 종속되지 않는 구조를 지향한다. 은행, 통신, 헬스케어 등 규제가 강한 산업에서 수많은 예측형 AI 레퍼런스를 확보했고, 이를 기반으로 생성형 AI 애플리케이션 빌더, MLOps 기능을 통합한 플랫폼으로 진화했다. 온프레미스, 프라이빗 클라우드, 망분리 환경에서도 구축이 가능한 소위 소버린 AI 역량을 갖춘 점이 글로벌에서 높은 평가를 받고 있다. 두 회사가 파트너십을 맺게 된 배경에는 각자의 강점과 한국 시장의 특성이 맞물려 있다. 메이머스트 입장에서는 GPU 인프라와 MLOps, 보안·네트워크까지는 자체 포트폴리오를 보유하고 있다. 다만 그 위에서 실제 비즈니스 가치를 만드는 예측형·생성형 AI 소프트웨어 계층은 프로젝트마다 다른 솔루션을 얹는 방식에 의존해 왔다. 풀스택을 표방하면서도 최상단 플랫폼이 고정되지 않아, 장기적인 서비스·유지보수 구조를 설계하는 데 한계가 있었다는 설명이다 H2O.ai는 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 된다. 박상현 대표는 "그동안 메이머스트는 풀스택을 표방해 왔지만 정작 최상단 플랫폼이 고정돼 있지 않다 보니 장기적인 서비스나 유지보수 구조를 설계하는 데 한계가 있었다"며 "H2O.ai가 바로 이 상단을 채워주는 단일 플랫폼이자, 다양한 LLM과 산업별 유스케이스를 담은 AI 엔진 역할을 하게 될 것"이라고 강조했다. H2O.ai 입장에서는 데이터 주권과 망분리 요구가 강한 한국 시장을 본격적으로 공략하기 위해, 온프레미스 인프라와 AI 팩토리 구축 경험을 가진 로컬 파트너가 필요했다. H2O.ai의 예측형·생성형 AI 플랫폼과 메이머스트의 온프레미스 인프라·MLOps가 결합하면, 클라우드부터 폐쇄망까지 아우르는 엔드투엔드 AI 레퍼런스를 만들 수 있다는 판단이 맞아 떨어졌다는 것이다. 제이미 림 리드는 "메이머스트가 GPU 클러스터와 스토리지, 네트워크, 보안을 모두 아우르는 아키텍처 역량을 갖추고 있다"며 "더불어 실제 엔터프라이즈 프로젝트에서 보여준 실행 속도와 조직 문화가 인상적이었다 "고 말했다. 두 회사가 내세운 키워드는 'AI 풀스택'이다. 메이머스트가 제공하는 하드웨어 인프라에 예측형과 생성형 AI를 모두 지원하는 H2O.ai 플랫폼을 결합해 인프라부터 모델 개발·검증·운영까지를 하나의 패키지로 제공하는 구조로 제공한다는 방침이다. 고객사 입장에서는 인프라 벤더, 소프트웨어 벤더, 운영 파트너를 따로 관리할 필요 없이, 하나의 풀스택 파트너를 통해 AI 도입을 추진할 수 있게 되는 셈이다. AI 풀스택을 완성한 양사는 우선 국내에서 가시적인 성공 사례를 만드는 데 집중할 계획이다. 우선 규제가 강한 산업을 중심으로 1~2건의 대표 레퍼런스를 확보한 뒤, 이를 다른 산업과 파트너 생태계로 확산하는 전략이다. 이를 위해 메이머스트는 멀티노드 GPU 환경과 스토리지, 네트워크, 보안 솔루션을 한곳에 모은 데모센터를 'AI 팩토리 쇼룸'으로 고도화하고 있다. 여기에 H2O.ai 플랫폼을 얹어 고객이 실제 업무 데이터를 활용해 예측형·생성형 AI 모델을 시험해 보고, 인프라 구성과 성능을 동시에 검증할 수 있는 환경을 제공할 계획이다. 사업 목표도 풀스택 관점에서 재정비했다. 박 대표는 "단순 하드웨어 납품에 머무르지 않고, AI 플랫폼과 컨설팅·운영 서비스를 묶은 비즈니스 모델로 전환할 것"이라며 "소프트웨어, 서비스 매출 비중을 단계적으로 확대한다는 구상을 내놨다. H2O.ai 역시 한국을 아시아태평양 지역의 핵심 레퍼런스 허브로 삼고, 국내에서 검증한 AI 팩토리 아키텍처와 운영 경험을 인근 국가로 수출하는 방안을 함께 모색하고 있다. 올해 말 예정이었던 상장(IPO) 계획은 내부 논의 끝에 일정을 뒤로 미루기로 했다. AI 온프레미스 인프라, 클라우드, 보안, 플랫폼을 동시에 영위하는 유사 상장사가 국내에 거의 없어 적절한 비교 기업을 찾기 어렵고, 시장이 제시한 기업가치 수준도 회사가 보는 성장 잠재력에 비해 낮게 형성됐다는 판단에서다. 박상현 대표는 "IPO를 창업자의 엑시트 수단이 아니라 성장 자본을 조달하는 과정으로 본다"며 "AI 풀스택 전략과 H2O.ai와의 파트너십 성과를 실적과 수익성으로 입증한 뒤, 기업가치가 충분히 인정받을 수 있는 시점에 상장을 추진하겠다"고 입장을 밝혔다.

2025.12.01 11:34남혁우

GPU 26만장 활용 방안 논의...과기정통부 워킹그룹 발족

류제명 과학기술정보통신부 차관은 27일 삼성전자, 현대자동차, SK텔레콤, 네이버 측 사장급 관계자들과 GPU 워킹그룹을 발족했다. 이를 통해 대한민국의 AI 강국 도약을 위한 GPU 26만장 전략적 확보와 활용 계획을 심층 논의하기 시작햇다. 과기정통부는 지난 APEC 등을 계기로 정부와 민간이 첨단 GPU 26만장 확보를 추진키로 한 데 이어, 이날 GPU 워킹그룹 발족을 통해 국가적 관점에서 실질적 이행 계획과 구체적인 향후 대응 전략 등 워킹 플랜을 논의하는 장을 마련했다. 워킹그룹 참석자들은 정부와 민간의 GPU 확보 활용 전략을 공유하고, 국내 AI 생태계 활성화를 위한 상호 협력 방안과 글로벌 AI 경쟁력 강화를 위한 중장기 대응 전략도 의견을 나눴다. 류제명 과기정통부 차관은 “이번 GPU 워킹그룹 발족은 APEC 계기로 한 대통령님의 엔비디아 젠슨황 대표, 주요 AI기업 접견 후속조치”라며 “AI 시대의 핵심 인프라인 첨단 GPU 대규모 확보와 전략적 활용 등을 통해 구체적 성과 창출을 지향하는 본격 협력 단계로의 발전을 의미한다”고 말했다.

2025.11.27 19:19박수형

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

엔비디아는 왜 액침냉각을 인증하지 않을까

국정자원 화재 후 최대 격전지된 'DR'…대형·중견 IT서비스 기업 각축전

[써보고서] 접으면 폰, 펼치면 10형 태블릿...'갤럭시 Z 트라이폴드'

"금값, 720만원까지 간다"…골드만삭스 전망, 근거는?

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.