• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'gpu'통합검색 결과 입니다. (335건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, 추론 특화 GPU '크레센트 아일랜드' 공개

인텔이 14일(미국 현지시간) '2025 OCP 글로벌 서밋' 행사에서 새 아키텍처를 적용한 데이터센터용 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 내년 하반기부터 시제품 공급에 나서겠다고 밝혔다. 인텔은 AI 모델 훈련에 내년 출시를 목표로 현재 개발중인 GPU '재규어 쇼어'를, 훈련을 마친 AI 모델 구동에 크레센트 아일랜드를 투입하는 투트랙 전략을 선택했다. 크레센트 아일랜드는 고성능 서버 등에서 이미 훈련을 마친 AI 모델을 구동하려는 수요에 초점을 맞췄다. 새로운 아키텍처 'Xe3P' 기반으로 고대역폭메모리(HBM) 대비 생산 원가를 낮출 수 있는 LPDDR5X 메모리 160GB와 함께 구성된다. 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 인텔 CTO, 9월 말 "추론 특화 새 GPU 개발중" 인텔은 9월 말 미국 애리조나 주에서 진행한 기술 행사 '인텔 테크투어 US'에서 신규 GPU 출시 가능성을 내비쳤다. 당시 사친 카티 인텔 최고 기술 및 AI 책임자(CTO)는 "관련 업계는 그간 GPU를 활용한 모델 학습과 훈련에 수천 억 달러를 투자했지만 그 결실이 필요한 상황이다. 우리 일상을 바꾸는 것은 AI 훈련이 아니라 추론과 에이전틱 AI"라고 언급했다. 이어 ”현재 메모리 대역폭과 탑재 용량을 늘린 추론 특화 GPU를 개발중이며 토큰 기반 워크로드와 엔터프라이즈급 추론 성능을 낼 것"이라고 설명한 바 있다. 아크 GPU 세 번째 아키텍처 'Xe3P' 적용 인텔이 이날 공개한 크레센트 아일랜드 GPU는 새로운 GPU 아키텍처 'Xe3P' 기반이다. 세대 구분으로는 3세대 '셀레스티얼'에 속한다. 인텔은 2021년 GPU 브랜드 '아크'(Arc)와 함께 각 아키텍처 별로 '배틀메이지', '셀레스티얼', '드루이드' 등 각 아키텍처 별 코드명도 함께 공개했다. 2022년 출시한 노트북용 아크 A350M, 데스크톱용 아크 A750/A770은 '알케미스트'에 속한다. 작년 말 출시된 아크 B570/B580과 올 연말부터 주요 PC 제조사에 공급될 코어 울트라 시리즈3(팬서레이크) 내장 'Xe3' GPU는 두 번째 아키텍처 '배틀메이지'에 기반했다. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 '인텔 테크투어 US' 행사에서 "Xe3P는 내년에 출시될 GPU로 인텔 그래픽 IP에서 상당한 진전을 보일 것"이라고 설명했다. 비용 대비 우위 LPDDR5X 메모리 채택 인텔은 크레센트 아일랜드가 전력 소모와 비용 효율에 최적화된 공랭식 기업용 서버를 위해 설계됐다고 밝혔다. 거대언어모델(LLM)의 정밀도를 결정하는 요소 중 하나로 매개변수(패러미터) 수를 들 수 있다. 매개변수가 클 수록 보다 좋은 결과를 얻을 수 있지만 용량도 그만큼 커진다. 크레센트 아일랜드는 작업공간으로 고대역폭메모리(HBM) 대신 LPDDR5X 메모리 160GB를 탑재한다. 또 추론에 특화된 다양한 자료형 지원을 내세웠다. 코어 울트라 시리즈3의 Xe3 GPU는 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32에 더해 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화도 지원한다. 크레센트 아일랜드 역시 Xe3 GPU에 이어 폭 넓은 자료형을 지원할 것으로 예상된다. 내년 하반기 중 시제품 공급 전망 인텔은 크레센트 아일랜드 구동을 위한 소프트웨어 초기 최적화에는 아크 프로 B시리즈 GPU를 활용한다고 밝혔다. 아크 프로 B시리즈는 지난 5월 컴퓨텍스 타이베이 2025 기간 중 공개한 제품으로 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50' 등 2종으로 구성됐다. 인텔은 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 서버용 GPU '재규어 쇼어'도 현재 개발중 인텔은 현재 AI 연산을 가속할 수 있는 GPU 시장에서 엔비디아나 AMD 대비 열세에 있다. 2019년 인수한 이스라엘 스타트업 '하바나랩스' 기술력을 기반으로 가우디 시리즈를 출시하고 있다. 지난 해 가격 대비 성능을 내세운 '가우디3'를 출시했지만 최대 5억 달러 규모 매출을 예상했던 인텔의 예상에는 미치지 못했다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품에서 GPU만 모은 제품으로 퇴보했다. 올 2월에는 팰콘 쇼어 출시를 백지화하고 내부 테스트용으로만 활용할 것이라고 밝히기도 했다. 내년 출시할 서버용 GPU '재규어 쇼어' 역시 아직까지 시제품이나 구체적인 제원을 공개하지 못했다. 다만 사친 카티 CTO는 "쇼어(Shore) GPU에 대해 매년 예측 가능한 개발 사이클을 이어갈 것"이라고 설명했다.

2025.10.15 08:51권봉석

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤

팬서레이크 Xe3 GPU, 게임 성능 가속 'XeSS-MFG' 기술 투입

[애리조나(미국)=권봉석 기자] 29일 오후(이하 미국 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우가 10월 말 출시를 앞둔 일인칭시점슈팅(FPS) 게임인 '페인킬러 리바이벌' 시연을 시작했다. "이것은 게임 개발사인 안샤 스튜디오와 협력해 처음 공개하는 시연이다. 팬서레이크로 구동되고 있으며 동기화 기능(V싱크)을 끈 1920×1080 해상도에서 초당 220프레임을 소화한다. 오늘 공개할 신기술을 활용해 이런 성능을 구현했다." 이날 톰 피터슨 펠로우는 팬서레이크 내장 GPU 'Xe3'에서 구동되는 AI 기반 프레임 생성 기술 'XeSS-MFG'와 지능형 전력 제어 시스템 등을 현지에 참여한 기자단에 공개했다. Xe3, 전세대 대비 프레임 생성 지연시간 단축 팬서레이크 내장 GPU인 Xe3는 코어 울트라 200V(루나레이크) 내장 'Xe2' GPU 대비 L1 캐시 33% 확대, L2 캐시 16MB 증설 등으로 클록당 명령어 처리(IPC) 성능을 크게 높였다(관련기사 참조). 톰 피터슨 펠로우는 "그래픽 고정함수 유닛 강화와 벡터 엔진 스레드 확장, 개선된 레이 트레이싱 유닛 덕분에 마이크로 벤치마크에서 최대 50% 이상 성능 향상을 달성했다"고 설명했다. 한 프레임을 구성하는 데 필요한 시간은 전 세대(45ms) 절반 수준인 22ms까지 줄어들었다. 렌더 프리패스 단계에서 2.93ms, L2 캐시 확대로 0.39ms, 레지스터 활용 최적화로 1.63ms를 아껴 같은 시간에 더 많은 프레임을 처리하게 됐다. 게임 체감 성능 최대 네 배 강화 'XeSS-MFG' 공개 2020년 이후 출시된 최신 GPU는 상대적으로 처리 시간이 더 짧은 저해상도 화면을 먼저 그린 다음 AI로 해상도를 높이며 초당 프레임 수를 크게 높인다. 인텔은 이 기술에 XeSS(Xe 슈퍼샘플링)라는 이름을 붙였다. 톰 피터슨 펠로우는 "예전에는 모든 프레임을 GPU가 일일이 그려야 했지만 이제는 AI가 저해상도 이미지를 업스케일(SR)하고, AI 프레임 생성(FG)으로 초당 프레임을 높인다"고 설명했다. 팬서레이크 내장 Xe3는 한 단계 나아가 신기능인 XeSS-MFG(다프레임 생성) 기능을 지원한다. 톰 피터슨 펠로우는 "기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하며 체감상 최대 4배 성능 향상 효과가 있다"고 밝혔다. "게임 로딩 시간 단축·끊김 현상 완화 기술 제공" 게임을 처음 실행할 때 로딩 단계에서 그래픽 데이터를 재구성하는 과정을 겪는다. 데스크톱 PC 대비 성능이 제한된 노트북에서는 실제 게임 실행까지 많은 시간이 걸린다. 톰 피터슨 펠로우는 "인텔이 클라우드를 활용해 필요한 데이터를 미리 구성한 다음 게임을 처음 실행하면 이 데이터를 다운로드해 지연 시간을 줄이는 '사전 컴파일 셰이더'를 제공할 것"이라고 밝혔다. 이어 "CPU와 GPU 부하를 실시간으로 감지해 필요할 경우 GPU에 더 많은 전력을 공급하는 기술인 '인텔리전트 바이어스 컨트롤' v3를 이용해 화면 끊김 현상을 최소화할 예정"이라고 설명했다.

2025.10.09 23:37권봉석

인텔 "팬서레이크 내장 GPU, AI 성능 2배↑"

[애리조나(미국)=권봉석 기자] 인텔은 2011년 '빌트인 비주얼'을 내세우며 프로세서 안에 내장 그래픽칩셋을 탑재하기 시작했다. 이후 2018년부터 자체 개발한 Xe GPU 아키텍처를 이용해 내장 그래픽칩셋과 그래픽카드 등을 시장에 공급하고 있다. 지난 해 코어 울트라 200V(루나레이크)에 탑재된 Xe2 코어 기반 GPU는 기본 성능 강화로 1080p 해상도 게임 성능을 강화했다. 코어 울트라 200V의 AI 연산 성능은 GPU 67 TOPS(1초당 1조 번 연산), 신경망처리장치(NPU)는 48 TOPS에 달한다. 인텔 차세대 모바일(노트북)용 프로세서 '팬서레이크'는 GPU AI 연산 성능을 두 배 가까운 120 TOPS, NPU 연산 성능은 소폭 상승한 50 TOPS로 높였다. 여기에 CPU(10 TOPS)를 더하면 최대 연산 성능은 180 TOPS까지 향상된다. 29일 오전(이하 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장에서 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 "GPU와 NPU 강화는 AI와 에이전틱 워크로드(작업)가 등장하며 변화하는 PC 요구사항을 충족하기 위한 것"이라고 설명했다. Xe3 코어 4개/6개 묶음으로 이원화... 최대 12코어 구성 가능 팬서레이크에 탑재될 내장 GPU는 Xe3 코어 기반이며 코드명 '배틀메이지', '아크 B시리즈'라는 이름으로 출시된다. 코어 울트라 200V에 탑재된 GPU는 Xe2 코어 4개와 레이트레이싱 유닛 4개를 한데 묶은 '렌더 슬라이스(조각)' 2개를 이용해 총 8코어로 구성됐다. 팬서레이크의 렌더 슬라이스는 ▲ Xe3 코어·레이트레이싱 유닛 4개 구성 ▲ Xe3 코어·레이트레이싱 유닛 6개 구성 등 총 두 개로 구성된다. 전자는 8코어 CPU(4P+4E)/16코어 CPU(4P+8E/LP 4E)와 결합되며 4코어 렌더 슬라이스 하나만 이용한다. 후자는 16코어 CPU(4P+8E/LP 4E)와 짝을 이루며 6코어 렌더 슬라이스 2개를 활용해 12코어 GPU를 만든다. Xe3, 처리 가능 데이터에 FP8 추가 Xe3 코어는 512비트 벡터 엔진 8개, AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진 8개로 전세대 Xe3 코어와 차이가 없다. 그러나 데이터를 임시 저장하는 캐시를 33% 늘려 지연 시간과 성능을 향상시켰다. XMX 엔진은 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32 등 자료형을 처리할 수 있다. 여기에 정밀도에는 큰 차이가 없지만 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화를 더했다. AI 연산 성능은 INT8 자료형 기준 최대 120 TOPS다. 전 세대인 코어 울트라 200V 프로세서 성능을 GPU 하나만으로 감당하게 됐다. 전세대 대비 GPU 성능 최대 50% 향상 인텔은 Xe2/Xe3 대상으로 실시한 자체 벤치마크 결과를 토대로 Xe3 GPU의 성능이 전 세대 대비 평균 50% 향상됐고 깊이 쓰기(Depth write) 벤치마크에서는 7배 이상 성능이 높아졌다고 설명했다. 톰 피터슨 펠로우는 "Xe3 GPU의 최대 성능은 루나레이크 대비 50% 높아졌고 애로우레이크H 대비 같은 전력에서 40% 더 높은 성능을 낸다"며 "게임용 고성능 노트북뿐만 아니라 휴대성을 강조한 소형·경량 노트북에서도 GPU 경쟁력을 확보했다"고 설명했다. 인텔은 마이크로소프트와 협력해 윈도 운영체제 그래픽 라이브러리인 다이렉트X 12에 Xe3 GPU의 XMX 연산 능력을 활용하는 '협동 벡터'(Cooperative Vectors)도 도입했다. 행사에서는 이를 활용해 2D 이미지로 3차원 입체를 만드는 'NeRF' 기술도 시연했다. NPU 5는 성능보다 작동 효율 향상에 방점 NPU는 소음 감소나 배경 흐림 등 최대한 전력을 적게 소모하며 상시 구동돼야 하는 작업에 최적화됐다. 팬서레이크에 탑재된 NPU 5도 전 세대 'NPU 4' 대비 연산 효율을 높이는 한편 인텔 18A 공정 적용으로 작동 효율을 높였다. NPU 4는 AI 처리에서 주로 쓰이는 MAC(Multiply–accumulate, 곱셈 가산) 연산과 DSP 처리를 수행하는 뉴럴 컴퓨트 엔진을 6개 탑재해 48 TOPS급 성능을 구현했다. 반면 NPU 5는 뉴럴 컴퓨트 엔진 수를 줄이는 대신 MAC를 처리하는 'MAC 어레이' 크기를 2배로 늘렸다. 톰 피터슨 펠로우는 "NPU 5는 FP16 대비 에너지 소모를 50% 줄이면서 유사한 품질을 얻을 수 있는 FP8(부동소수점 8비트)를 지원해 스테이블 디퓨전 등 생성 AI 작업에 필요한 전력량을 108J(줄)에서 30% 낮은 70J(줄)까지 끌어내렸다"고 설명했다. Xe3 4코어 GPU는 인텔 3 공정서 생산 예정 인텔은 노트북용 프로세서에 탑재되는 대부분의 내장·외장 GPU를 대부분 인텔 파운드리가 아닌 대만 TSMC에서 생산했다. 그러나 팬서레이크부터는 GPU 타일 중 Xe3 4코어 내장 제품을 극자외선(EUV) 기반 자체 공정인 인텔 3(Intel 3)에서 생산 예정이다. 팬서레이크는 레이트레이싱과 그래픽 연산에 필요한 각종 요소를 떼어내 GPU 타일로 분리했다. CPU는 그대로 두고 GPU를 더 강력한 제품으로 교체하는 것도 얼마든지 가능하다. 인텔은 이를 위해 더 강력한 GPU인 'Xe3P'도 준비중이다. 톰 피터슨 펠로우는 "CPU(경량 AI 모델), NPU(저전력 상시구동 윈도11 코파일럿+), GPU(대형언어모델 / 생성 AI) 등 3개 요소를 균형있게 강화해 AI 처리를 최적화하는 것이 인텔 목표"라고 강조했다.

2025.10.09 22:45권봉석

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

젠슨 황 엔비디아 CEO가 최근 오픈AI와 AMD가 체결한 대규모 파트너십에 대해 "기발하지만 놀라운 결정"이라고 평가했다. 오픈AI는 지난 6일(이하 현지시간) AMD와 향후 다년간 수 조원 규모의 GPU 공급 계약을 체결하는 한편 도입 성과에 따라 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)를 확보했다. 양사의 계약은 AI 반도체 시장에서 엔비디아의 절대적인 우위를 위협하는 시도로 평가된다. AMD는 그동안 엔비디아에 뒤처진 AI 칩 경쟁에서 반전을 노려왔으며, 주요 클라우드 사업자들도 자체 칩 개발로 경쟁 구도를 강화하고 있다. 젠슨 황 CEO는 8일 CNBC 인터뷰에서 "AMD의 차세대 제품은 아직 완성되기 이전의 제품이지만 이런 상황에서 회사 지분의 10%를 내줬다는 것이 놀랍다"며 "양사의 발상은 독창적이고 한편으로 영리하다"고 평가했다. 젠슨 황 CEO는 인터뷰에서 "오픈AI 관련 투자에서 남는 유일한 아쉬움은 더 많은 금액을 투자하지 못했던 것"이라고 말했다. 젠슨 황 CEO는 이어 지난 9월 말 오픈AI에 향후 10년간 최대 1천억 달러(약 137조원)를 투자하기로 한 계약을 예로 들며 "엔비디아의 투자는 오픈AI에 직접 판매할 수 있는 완전히 다른 방식"이라고 설명했다. 오픈AI는 엔비디아 GPU를 활용한 전력소모 10GW(기가와트) 규모 시스템을 구축할 예정이다. 젠슨 황 CEO는 "이는 최대 500만개의 GPU를 활용하는 수준이며 오픈AI가 GPU 구매를 위한 자금을 유상증자나 융자로 조달할 것"이라고 말했다. 한편 그는 이날 일론 머스크의 인공지능 스타트업 xAI의 자금 조달에도 엔비디아가 참여해 20억 달러(약 2조 8천434억원)를 투자할 것이라고 확인했다. 젠슨 황 CEO는 "이번 기회를 매우 기대하고 있으며 일론 머스크의 사업에는 대부분 동참하고 싶다"고 밝혔다.

2025.10.09 09:44권봉석

AI 칩 '큰손' 떠오른 오픈AI...삼성·SK HBM 확장 기회 열려

인공지능(AI) 반도체 선두 주자인 엔비디아가 주도하는 HBM(고대역폭 메모리) 공급망에 균열이 발생하고 있다. 글로벌 빅테크들이 자체 AI 반도체 개발에 주력하는 가운데 챗GPT 개발사인 오픈AI도 최근 삼성전자·SK하이닉스와 중장기적 협력을 발표했다. 이에 따라 이들 메모리 기업의 HBM 시장 확장은 물론 가격 협상력도 동시에 높아질 것으로 기대된다. 9일 업계에 따르면 삼성전자, SK하이닉스 등 주요 메모리 기업들은 중장기적으로 HBM 고객사 다변화를 추진할 계획이다. HBM 시장은 AI 반도체 최대 기업인 엔비디아가 핵심 고객사로 자리해 왔다. 그러나 엔비디아 칩의 독과점 및 높은 구매비용으로 인해 전 세계 빅테크 기업들은 최근 자체 AI ASIC(주문형반도체) 개발을 적극 추진하고 있는 추세다. 구글과 메타, 아마존웹서비스(AWS), 화웨이 등이 대표적인 사례다. 시장조사업체 욜디벨롭먼트의 최근 분석에 따르면 AI ASIC 시장은 지난해 90억 달러에서 오는 2030년 850억 달러로 연평균 45%의 성장률을 보일 것으로 전망된다. 욜디벨롭먼트는 "현재 AI칩 시장은 GPU가 주도하고 있지만, AI AISC이 전략적 대안으로 부상하고 있다"며 "AI칩 업계 중 가장 빠르게 성장하는 분야가 될 것"이라고 설명했다. 오픈AI도 최근 대형 HBM 고객사로 부상하고 있다. 오픈AI는 최첨단 파운드리인 3나노미터(nm) 공정 기반의 자체 AI 반도체 개발을 추진 중인 것으로 알려졌다. 칩 설계는 브로드컴과 양산은 TSMC와 협력하는 구조다. 이와 관련 샘 알트만 오픈AI 대표는 지난 1일 이재용 삼성전자 회장, 최태원 SK 회장 등과 잇따라 만나 메모리(HBM) 공급과 관련한 LOI(의향서)를 체결한 바 있다. 샘 알트만 오픈AI 대표는 양사와의 만남에서 웨이퍼 기준 최대 월 90만장에 달하는 고성능 D램 공급량을 요구한 것으로 알려졌다. 업계가 추산하는 삼성전자·SK하이닉스의 D램 생산능력 합계가 월 120만장 수준이라는 점을 고려하면 막대한 규모다. 고성능 D램에는 HBM과 첨단 공정 기반의 서버용 D램, 저전력 D램(LPDDR), HBM 등이 포함될 것으로 관측된다. 빅테크 기업들의 이 같은 탈(脫) 엔비디아 전략은 삼성전자, SK하이닉스 등 메모리 기업들에게는 기회로 작용할 전망이다. HBM 시장 자체가 커질 뿐만 아니라, 고객사 다변화를 통해 가격 협상력에서 유리한 위치를 점할 수 있기 때문이다. 반도체 업계 관계자는 "오픈AI가 삼성전자, SK하이닉스와 중장기적인 협력을 논의한 만큼 HBM4E 시장부터는 시장 구도에 변화가 예상된다"며 "엔비디아도 구매 비중이 축소되면서 이전만큼 HBM에 대한 단가 인하 압박을 요구하지는 못하게 될 것"이라고 설명했다.

2025.10.09 09:17장경윤

오픈AI, AMD GPU 대규모 도입키로...엔비디아 독주 저지

오픈AI가 AMD과 수조원 규모의 GPU 공급 계약을 체결했다. AMD 지분 10% 매입 옵션이 포함된 초대형 계약으로, AMD 주가는 약 24% 뛰어올랐다. 필라델피아 반도체지수 역시 3% 넘게 급등했다. 6일(현지시간) 오픈AI는 수년에 걸쳐 AMD의 인스팅트(Instinct) MI450 GPU를 총 6기가와트(GW) 규모로 도입한다고 밝혔다. Instinct MI450은 차세대 AMD GPU 제품으로 내년 하반기부터 오픈AI에 공급이 시작될 예정이다. 사실상 엔비디아가 AI GPU 시장에서 독주하고 있는 가운데, AMD가 오픈AI와 협력을 통해 새로운 경쟁 구도를 갖춘 점이 눈길을 끄는 부분이다. 특히 오픈AI가 AI 컴퓨팅 인프라 확장에 나서면서 프로세서 공급망 다변화에 나선 결정이란 점이 주목할 점이다. 오픈AI는 성과에 따라 AMD 보통주 최대 1억6천만 주를 단계적으로 매입하는 권리를 갖게 되며, 이는 AMD 총 지분의 약 10% 수준으로 예상된다. AMD의 리사 수 CEO는 “이번 파트저십은 AMD와 오픈AI의 강점을 결합해 세계에서 가장 야심 찬 AI 구축을 가능하게 하고 AI 생태계를 발전시키는 진정한 윈윈 협력”이라고 말했다. 샘 알트먼 오픈AI 공동 창립자 겸 CEO “협약은 AI의 잠재력을 실현하기 위해 필요한 컴퓨팅 역량을 확보하는 중대한 단계”라며 “AMD의 고성능 칩 기술은 우리가 AI 발전 속도를 높이고 더 많은 사람에게 첨단 AI의 혜택을 빠르게 제공할 수 있도록 도와줄 것”이라고 밝혔다.

2025.10.07 08:38박수형

래블업, GPU 효율 4배 높인 '백엔드 AI'로 AI 대중화에 앞장

“래블업(Lablup)은 AI의 민주화가 목표입니다.” 래블업 관계자는 1일 서울 삼성동 코엑스에서 열린 과학기술정보통신부 공식 AI 주간 'AI페스타 2025'에서 “AI 개발을 힘들어하는 분들이 좀 더 편한 환경에서 누구나 AI를 쓰실 수 있도록 AI의 장벽을 낮출 것”이라며 이같이 밝혔다. 래블업은 랩(Lab)과 업그레이드(Upgrade)의 합성어로, 연구와 업그레이드를 잇는다는 뜻을 담았다. 회사가 지난 2015년 창업 이후 집중해 온 지점은 'AI 접근성'이다. 10년이 지난 오늘날, 오늘날 단순한 툴 제공을 넘어 GPU, NPU 등 대규모 자원을 효율적으로 활용 할 수 있는 백엔드 AI 오케스트레이션 플랫폼으로 입지를 넓혀가고 있다. “백엔드 닷 AI, 엔비디아 대비 GPU 자원 래블업의 핵심 플랫폼은 '백엔드 닷 AI(Backend.AI)'다. 연구자와 기업이 복잡한 설정 없이도 대규모 GPU 자원을 쉽게 띄워 학습과 추론을 실행할 수 있도록 지원한다. 특히 자체 개발한 '슈퍼바이저' 오케스트레이터를 통해 쿠버네티스 대비 오버헤드를 1/4 수준으로 줄였다. “AI 개발 돕는다”...온프레미스 환경에 적합 래블업은 AI 개발 중 반복되는 불편을 줄이기 위한 기능도 제공한다. 먼저 빨리(PALI)는 모델 이름만 입력하면 GPU에 자동 배포돼 즉시 API 엔드포인트(URL)를 제공한다. 연구자나 개발자가 별도의 서버 세팅 없이 오픈AI API처럼 바로 활용할 수 있는 구조다. 패스트트랙(FastTrack)의 경우 데이터 전처리→학습→평가 과정을 드래그앤드롭 방식으로 자동 실행한다. 사용자는 학습 코드 작성에만 집중하고, 반복되는 환경 설정은 플랫폼이 대신 처리한다. 래블업의 플랫폼은 온프레미스 환경에 적합하다. 금융사, 정부기관, 대기업처럼 민감한 데이터를 외부로 유출할 수 없는 기관들이 주요 고객층이다. 실제로 금융사와 통신사 일부가 래블업의 기술을 채용해 AI를 운영하고 있다. 회사는 엔비디아 GPU뿐 아니라 국산 NPU 등 다양한 칩도 지원한다. 래블업 관계자는 “새로운 칩이 나오면 직접 테스트해 지원을 늘려가고 있다”며 “국산 반도체 기업들과의 협업을 적극 추진하고 있다”고 말했다.

2025.10.01 17:06전화평

엘리스그룹, 기업 전용 B2B AI 솔루션 'AI FESTA 2025'서 전시

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)이 10월 2일까지 서울 삼성동 코엑스A홀에서 개최되는 국내 최대 인공지능 전시회 'AI 페스타 2025'에 참가한다. 과학기술정보통신부가 주최하는 AI 페스타 2025에는 글로벌 빅테크를 비롯해 국내 대표 AI 기업 203개가 참여해 부스를 꾸리고, AI 산업 생태계 비전과 협력을 제시한다. 엘리스그룹은 이번 전시회에서 AI 클라우드 인프라부터 AI 교육까지 아우르는 엘리스그룹의 기업 전용 B2B AI 솔루션 전반을 소개한다. 엘리스그룹 부스에서는 올 하반기 새롭게 선보인 엘리스클라우드의 AI 전용 서비스형 인프라(IaaS) 'ECI' 체험을 운영할 예정이다. ECI는 고성능 GPU 인프라 자원을 효율적으로 분배하고, 스케줄링 할 수 있는 가상머신(VM) 기반 플랫폼이다. 또 기업∙기관 고객을 위한 생성형 AI 솔루션 'AI헬피챗' 현장 체험 이벤트도 진행된다. AI헬피챗은 최신 생성형 AI 모델은 물론, PPT 제작과 이미지 생성, 딥 리서치까지 다양한 AI 기능을 하나의 플랫폼에서 사용할 수 있다. 체험이 진행되는 ECI와 AI헬피챗을 비롯해 엘리스그룹의 모든 B2B AI 솔루션은 클라우드 서비스 보안인증인 CSAP IaaS과 정보보안 국제인증인 ISO27701∙27001을 획득한 엘리스클라우드 위에서 작동해 안전한 보안 환경을 갖췄다. 민감 정보를 다루는 학교, 기업, 공공기관 어디에서나 보안에 대한 우려 없이 사용할 수 있다. 김재원 엘리스그룹 대표는 “1만여 개 이상의 AI 교육 고객과 4천 곳 이상의 AI 클라우드 고객의 목소리를 들었을 때, 많은 고객 기관들이 AI 전환에 우려하는 것은 내부 민감 데이터의 보안이었다”며 “안전한 AI 클라우드 인프라 환경을 구축하고, AI 인프라 자원부터 AI 교육까지 유기적으로 연계해 제공하는 엔드 투 엔드 AI 솔루션으로 기업과 기관이 체감할 수 있는 안전한 AX를 선보이겠다”고 말했다.

2025.10.01 09:17백봉삼

점점 뜨거워지는 AI 데이터센터, 액침 냉각으로 식힌다

인공지능(AI)의 발전 속도는 눈부시다. 대규모 언어 모델(LLM)과 생성형 AI는 산업 전반의 판도를 바꾸며 새로운 기회를 열어주고 있다. 그러나 그 혁신의 뒤편에는 '발열'이라는 물리적 한계가 도사리고 있다. AI의 두뇌 역할을 하는 GPU, CPU 등 반도체가 고성능 연산을 지속하는 순간, 엄청난 열이 발생하기 때문이다. 이 열을 제어하지 못하면 속도를 높이기는커녕 성능 저하와 장비 손상으로 이어진다. 액침냉각, 공랭식 한계 뛰어넘다 최동훈 GRC 이사는 이 같은 문제의 해답으로 '액침냉각'을 지목한다. 공기로 발열을 제어하는 '공랭식' 기술이 한계에 다다랐기 때문이다. 최 이사는 “냉각 시스템은 오작동률이 낮은 게 중요한데, 공랭식은 그런 부분에서 좀 약하다”며 “서버가 공기 안에서 돌면 먼지 등 이물질이 쌓일 수 밖에 없기 때문이다. 공기가 없는 곳이 가장 좋다”고 말했다. 아울러 “서버의 발열이 심해지며 공랭식을 계속 활용하기 힘들어졌다”며 “액체를 사용하는 수랭식이 더 적합하고, 특정 반도체만을 식히는 게 아니라 보드까지 전부 액체에 담구는 액침냉각이 발열을 제어하는 데 가장 효과적이다”라고 설명했다. 액침냉각은 발열이 심한 서버를 비전도성 액체에 직접 담가 냉각하는 방식이다. 기존 공랭식보다 훨씬 높은 열 전달 효율을 제공한다. 에너지 소비를 획기적으로 줄일 수 있어, AI 인프라를 구축하는 오늘날 관심이 집중되는 기술이다. 전력 효율 급상승...”3~5년 이내 상용화될 것” 자원 낭비도 훨씬 줄어든다. 공랭식은 데이터센터 내 온도를 낮춰 서버를 차갑게 식히는 방식이다. 이 때 칠러의 온도를 낮추기 위해 상당량의 물이 필요하다. 물이 열 교환기를 거쳐 데이터센터 내부에 찬 바람을 불어넣는 원리다. 액침냉각은 서버를 직접 액체에 담구는 만큼 이 과정이 필요하지 않다. 물이 낭비되지 않으며, 별도의 냉각 과정이 필요없어 에너지 효율이 훨씬 높다. 최 이사는 “기존 공랭식은 데이터센터 쿨링에 전체 전력 중 30~40%를 사용했다”며 “액침냉각이 적용될 경우 이게 3%까지 줄어든다. 남은 전력을 서버로 돌릴 수 있어 파워 역시 올릴 수 있다”고 설명했다. 실제 지표로도 액침냉각의 효율성을 확인할 수 있다. 데이터센터의 효율은 PUE(전력효율지수)를 통해 확인 가능하다. PUE는 데이터센터 전체 전력 소비량 중 IT 장비 전력 소비량을 측정해 계산하는 지표다. 1.0에 가까울수록 효율성이 높다. 일반적인 공랭식 데이터센터의 PUE는 1.5~2.0 수준이다. 이 때 데이터센터 전체 전력 중 약 40%가 냉각 장치에 사용된다. 반면, 액침냉각은 1.03에 불과하다. 최 이사는 “싱가포르에서는 데이터센터 PUE가 1.2 미만으로 설계를 해야만 한다는 제한을 두고 있다”며 “자원에 한계가 있기 때문에, 앞으로는 공랭식만으로 서버를 구축하는 건 어려울 것”이라고 내다봤다. 이에 글로벌 업체들은 액침냉각 방식을 수용한 데이터센터를 구축하고 있다. 현재 시장 주류 방식인 공랭식, 액체냉각과 더불어 액침냉각 인프라까지 한번에 탑재한 데이터센터를 짓는 것이다. 그는 “최근에 관계사들을 만나보면 기술 전반을 활용할 수 있는 데이터센터 구축으로 방향을 잡고 있다”고 말했다. 그러면서 “3~5년 이내로 액침냉각이 상용화될 것”이라고 내다봤다. 액침냉각 스페셜리스트 GRC GRC는 지난 2009년 미국에서 설립된 액침냉각 전문 기업이다. 액침냉각을 전문으로 하는 회사로서는 가장 오래됐다. 액침냉각 관련해 총 19개 특허를 보유하고 있으며, 8개 특허가 인증을 받고 있다. 해당 기술과 관련해 특허수가 가장 많다. 현재 글로벌 서버업체인 델(Dell), HP 등과 협업하고 있으며, 국내에서는 SK엔무브, 현대오일뱅크 등과 협력 중이다.

2025.09.30 13:11전화평

퀄컴 차세대 AI PC 프로세서, 컴퓨팅·AI 성능서 경쟁사 '압도'

퀄컴이 올해 공개한 차세대 AI 프로세서의 성능을 자신했다. 실제 벤치마크 테스트 결과, CPU·GPU·NPU 등 모든 분야에서 이전 세대 대비 및 경쟁사 대비 뛰어난 성능을 구현한 것으로 나타났다. 퀄컴은 지난 23~25일(현지시간) 미국 하와이에서 개최된 '스냅드래곤 서밋' 행사를 통해 차세대 AI PC용 프로세서인 '스냅드래곤 X2 엘리트'의 성능을 공개했다. 스냅드래곤 X2 엘리트는 성능에 따라 일반 모델과 익스트림 모델로 나뉜다. 두 모델 모두 첨단 파운드리 공정인 3나노미터(nm)를 기반으로 하며, 내년 상반기부터 상용화가 시작될 예정이다. 초고성능의 익스트림 모델의 경우 18코어(12 프라임 코어+6 퍼포먼스 코어)를 갖췄으며, 3세대 퀄컴 오라이온 CPU를 탑재했다. 해당 CPU는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 성능을 제공한다. GPU는 이전 세대 대비 2.3배 높아진 와트 당 성능 및 전력 효율을, NPU는 80 TOPS의 AI 처리 성능을 지원한다. 퀄컴은 올해 서밋에서 해당 칩셋에 대한 벤치마크 결과를 공개했다. 설명에 따르면, 이번 스냅드래곤 X2 엘리트 익스트림의 벤치마크 성능은 주요 경쟁사의 칩셋을 크게 웃도는 수준이다. CPU 긱벤치(Geekbench) 6.5버전 테스트 점수는 멀티코어 기준 2만3천491점으로 인텔 코어 울트라 9 285H(1만7천680점), 애플 M4(1만5천146점)를 모두 앞선다. GPU 벤치마크(UL3DMark Solar Bay)도 90.06점으로 50~60점대인 인텔, 애플, AMD 칩셋 대비 크게 높은 것으로 나타났다. NPU 벤치마크(긱벤치 AI 1.5 버전) 역시 8만8천615점으로 애플 M4(5만2천193점), 인텔 코어 울트라 9 288V(4만8천566점) 등을 능가했다. 퀄컴 관계자는 "해당 칩에 탑재된 퀄컴 오라이온 CPU는 동급 최고 성능의 CPU로, 경쟁사 대비 싱글코어에서는 최대 41%, 멀티코어에서는 최대 2배 더 빠르다"며 "GPU와 NPU도 경쟁사 대비 우월한 성능을 보여준다"고 설명했다. 실제로 기자가 위 벤치마크 항목에 대해 실제 테스트를 진행해 본 결과, CPU 벤치마크는 싱글코어 4천83점, 멀티코어 2만3천349점으로 나타났다. 퀄컴이 제시한 기준치인 싱글코어 4천50~4천89점, 멀티코어 2만2천835~2만3천768점에 부합한다. GPU 벤치마크도 89.68FPS로 기준치(84.37~90.47)에 부합했으며, NPU는 긱벤치 AI 1.5 버전에서 8만9천157점으로 기준치(8만4천58~8만8천919)를 초과하기도 했다.

2025.09.29 22:00장경윤

에이수스코리아, 국내 4대 도시서 AI 솔루션 세미나 진행

에이수스코리아는 대전과 광주, 부산, 대구 등 전국 4대 도시에서 인텔·씨게이트와 AI 컴퓨팅 솔루션 세미나를 진행했다고 밝혔다. 에이수스는 GPU 공급사인 엔비디아와 함께 강력한 GPU 컴퓨팅 기술력을 바탕으로 최근 국내 서버 시장에 적극적으로 접근하고 있다. 에이수스는 세미나에서 서버, 사물인터넷(IoT) 엣지 클라이언트, 미니 PC 등 인텔과 엔비디아 솔루션 기반 다양한 제품을 소개하고 솔루션 구축 방향에 대한 정보를 공유했다. 소개된 주요 제품은 엔비디아 HGX B200/B300 기반 AI 워크스테이션과 서버, 개인 개발자와 AI 전문가를 위해 설계된 엔비디아 GB10 기반 워크스테이션 '어센트 GX10' 등이다. 파트너사인 인텔코리아는 서버용 제온6 프로세서의 AI 처리 성능과 기능, AI 가속기 가우디3를 소개했다. 씨게이트는 AI 워크로드 처리 전/후 과정에서 생성되는 대용량 데이터 저장에 적합한 고용량 30TB 하드디스크 드라이브와 엔비디아 GPU 기반 에이수스 서버와 연계되는 통합 스토리지 서버와 소프트웨어 솔루션을 공개했다. 강인석 에이수스코리아 지사장은 "에이수스는 엔터프라이즈 서버를 비롯해 IoT, 미니 PC, 산업용 메인보드 등 폭넓은 라인업을 보유하고 있으며, 엔비디아, 인텔, 씨게이트와의 협업을 통해 구성된 완성도 높은 솔루션을 갖췄다"고 밝혔다. 이어 "이번에 전국 4대 도시에서 진행한 세미나는 지역별 특성을 공유하고, 최신 정보를 전달하는 대화의 장으로 큰 의미가 있으며 앞으로도 시장의 다양한 요구사항에 적극 대응하기 위해 정기적인 소통의 장을 마련할 것"이라고 덧붙였다.

2025.09.26 11:36권봉석

퀄컴, '동급 최고 성능' CPU로 PC용 프로세서 시장 뚫는다

퀄컴이 24일(한국시간 25일) 미국 하와이에서 열린 '스냅드래곤 서밋'에서 모바일 컴퓨팅용 SoC(시스템온칩)인 '스냅드래곤 X2 엘리트 익스트림'과 '스냅드래곤 X2 엘리트'를 공개했다. 이번 신규 프로세서는 지난 2023년 공개된 컴퓨트 플랫폼 '스냅드래곤 X 엘리트'의 후속작이다. 내년 상반기에 출시되는 프리미엄 노트북, 태블릿 PC 등에서 탑재될 것으로 알려졌다. 공정은 3나노 공정을 채택했다. 울트라 프리미엄 PC를 위해 설계된 스냅드래곤 X2 엘리트 익스트림은 퀄컴이 자체 설계한 3세대 오라이온 CPU를 탑재했다. 코어 수는 이전 세대(최대 12개) 대비 크게 늘어난 최대 18개다. 해당 CPU는 윈도우에서 가장 빠르고 전력 효율이 뛰어난 성능을 제공하며, 이는 ISO(국제 표준) 전력 조건에서 경쟁사 대비 최대 75% 향상된 수준이다. 또한 새로운 퀄컴 아드레노 GPU 아키텍처는 이전 세대 대비 2.3배 높아진 와트당 성능 및 전력 효율을 지원한다. 퀄컴 헥사곤 NPU는 세계에서 가장 빠른 노트북용 NPU인 80 TOPS의 AI 처리 성능을 지원해, 코파일럿 플러스(Copilot+) PC에서 여러 AI 작업을 동시에 처리하는 강력한 경험을 구현한다. 스냅드래곤 X2 엘리트는 프리미엄 PC에서 생산성, 창의성, 엔터테인먼트등 고사양 작업 전반에 걸쳐 강력하고 효율적인 멀티태스킹을 구현한다. 스냅드래곤 X2 엘리트는 ISO 전력 조건에서 최대 31% 더 빠른 속도를 구현하며, 이전 세대 대비 전력 소모를 최대 43% 줄였다. 또한 80 TOPS NPU로 코파일럿+ 및 동시 AI 경험을 처리하도록 설계됐다. 사용자는 이러한 기능을 충전기 없이도 얇고 가벼운 디자인에서 활용할 수 있다. 케다르 콘답(Kedar Kondap), 퀄컴 수석 부사장 겸 컴퓨팅 및 게이밍 부문 본부장은 “스냅드래곤 X2 엘리트는 PC 산업에서의 퀄컴의 리더십을 강화하며, 사용자들이 당연히 누려야 할 경험을 구현하는 성능, AI 처리, 배터리 수명에서 획기적인 도약을 보여준다”며 “퀄컴은 기술 혁신의 한계를 끊임없이 뛰어넘고, 새로운 업계 표준을 제시하는 획기적인 제품을 선보여 PC의 가능성을 재정의해 나가고 있다”고 말했다.

2025.09.25 05:30장경윤

"AI는 클라우드 위에서 실현"…빅테크가 그린 미래 청사진은

인공지능(AI) 시대가 본격화되는 가운데 산업계가 클라우드 없이는 AI도 존재할 수 없다고 입을 모았다. 막대한 연산 자원과 안정적인 인프라를 요구하는 AI가 제대로 작동하려면 클라우드라는 기반 위에서만 가능하다는 공통된 목소리다. 한국클라우드산업협회는 24일 서울 양재 엘타워에서 '클라우드 빅테크 2025'를 개최했다. 이번 행사는 AI와 클라우드의 상호 의존적 관계를 조명하며 글로벌 빅테크와 국내 기업들이 제시하는 혁신 사례를 공유하는 자리로 마련됐다. 최지웅 한국클라우드산업협회장은 개회사를 통해 "클라우드 없이는 AI가 불가능하다"며 '그래픽처리장치(GPU) 공유 서비스나 AI 네이티브 정책 역시 결국 클라우드 기반 위에서 작동해야 한다"고 강조했다. 이어 한국클라우드산업협회가 국가 디지털 경쟁력을 좌우하는 AI·클라우드 융합 생태계 조성에 앞장서겠다는 의지를 밝혔다. 국회 과학기술정보방송통신위원회 최형두 의원은 영상 축사를 통해 AI·클라우드 혁신을 위한 공공·민간의 공동 해법 모색 필요성을 언급하며 정책적·제도적 지원을 아끼지 않겠다고 약속했다. 첫 기조연설에 나선 KT클라우드 감철웅 상무는 '함께 만드는 AI 시장'을 주제로 AI 산업의 현실과 과제를 짚었다. 그는 디지털 전환(DX)에서 AI 전환(AX)으로 산업계 패러다임이 옮겨가는 가운데 우리나라 AI 생태계 활성화를 위한 기업 간 협력의 중요성을 강조했다. 아울러 협력 체계를 기반으로 한 KT클라우드의 'AI 파운드리'와 '검색증강생성(RAG) 스위트', 버티컬 산업 특화 애플리케이션, 마켓플레이스를 통한 AI SaaS 확산 전략 등을 공유했다. 감 상무는 "국내 AI 밸류체인을 튼튼히 구축해야 한국 AI 산업이 성장할 수 있다"고 말했다. 두 번째 연사인 네이버클라우드 유경범 상무는 '초거대 AI 시대의 인프라 진화'를 주제로 소버린 AI 전략과 중요성에 대해 발표했다. 그는 미국의 'AI 액션플랜'을 소개하며 "생성형 AI 확산 속에서 연산 자원 확보와 데이터센터 운영 역량이 국가 경쟁력을 좌우할 것"이라고 진단했다. 이와 관련해 유 상무는 네이버클라우드 자체 거대언어모델(LLM) '하이퍼클로바X'를 중심으로 데이터센터와 GPU 인프라를 확장하고 사우디아라비아·태국 등과 협력해 현지 맞춤형 AI와 공공 서비스를 구축하는 사례를 공유했다. 특히 고객의 문제를 해결하기 위한 턴키 방식 솔루션과 한국수력원자력·한국은행의 프라이빗 클라우드 기반 AI 구축 등의 공공 맞춤형 AX 사례를 발표했다. 유 상무는 "국내 소버린 AI 생태계 활성화를 위해 다양한 기업·기관과 파트너십을 확대할 것"이라고 밝혔다. 마지막으로 아마존웹서비스(AWS) 김경윤 솔루션즈아키텍트 매니저는 '글로벌 혁신을 이끄는 AI·클라우드'를 주제로 발표했다. 그는 AI 인재 양성·인프라·데이터·에이전트 기술 등 AWS AI 스택의 전방위 전략을 소개하며 산업과 사회 전반의 AX 지원 활동을 공유했다. 김 매니저는 "AI는 단일 기술이 아니라 산업과 사회의 문제를 풀어내는 생태계적 접근이 필요하다"며 "우리는 다양한 모델·칩·데이터 플랫폼을 통해 고객들이 상황에 맞는 선택을 할 수 있도록 지원할 것"이라고 설명했다.

2025.09.24 14:19한정호

샘 알트먼, '고비용 AI' 승부수…지능의 대중화 꿈 잠시 접나

오픈AI가 막대한 컴퓨팅 파워를 앞세운 차세대 인공지능(AI) 서비스 유료 모델 실험에 본격 돌입한다. 22일 비즈니스 인사이더에 따르면 샘 알트만 오픈AI 최고경영자(CEO)는 소셜미디어 X를 통해 새로운 '컴퓨팅 집약적 제품' 출시 계획을 밝혔다. 그는 일부 기능은 유료 구독자인 '프로' 이용자에게 먼저 공개하고 일부 신제품에는 추가 요금을 부과할 것이라고 예고했다. 이번 조치는 AI 인프라를 한계까지 밀어붙이는 기술적 실험의 성격을 띤다. 오픈AI는 현재 모델 비용으로 대규모 컴퓨팅 자원을 투입했을 때 어떤 혁신이 가능한지 확인하겠다는 구상이다. 단기적인 유료화 실험과 별개로 오픈AI의 장기 목표는 분명하다. 지능의 비용을 최대한 공격적으로 낮춰 AI 서비스를 대중화하는 것이다. 이번 발표의 배경에는 업계 전반의 극심한 그래픽처리장치(GPU) 확보 경쟁이 있다. 오픈AI를 비롯한 빅테크 기업들은 AI 모델 고도화를 위해 컴퓨팅 파워 확보에 사활을 걸고 있다. 실제로 일론 머스크의 xAI는 AI 모델 '그록4' 훈련에 20만 개가 넘는 GPU를 사용했다고 밝힌 바 있다. 마크 저커버그 메타 CEO 역시 '연구원 1인당 컴퓨팅 파워'를 경쟁 우위로 삼겠다며 GPU 투자에 공격적으로 나서고 있다. 케빈 웨일 오픈AI 최고제품책임자(CPO)는 "우리가 많은 GPU를 확보할수록 우리 모두는 보다 많은 AI를 사용하게 될 것"이라며 "GPU를 추가로 확보하는 족족 즉시 사용하고 있다"고 말했다.

2025.09.22 17:32조이환

美·中 무역 전쟁에 또 발목 잡힌 엔비디아

500억 달러(약 69조원) 규모로 추산되는 중국 AI 시장에 진입하려는 엔비디아의 시도가 미국과 중국 정부의 무역 전쟁으로 인한 규제에 번번이 가로막히고 있다. 지난 4월 미국 상무부의 수출 규제에 가로막혔던 서버용 GPU H20 수출은 젠슨 황 엔비디아 CEO의 설득 끝에 7월부터 재개됐다. 그러나 이번엔 성능을 낮춘 엔트리 서버·워크스테이션용 GPU 'RTX 프로 6000D'가 중국 국가인터넷정보판공실(CAC)의 규제에 걸렸다. 미국의 수출 규제 강화와 중국 정부의 구매 금지령이 맞물리면서, 엔비디아는 세계 최대 AI 시장 중 하나인 중국에서 사업 전략을 전면 재검토해야 하는 상황에 놓였다. 블랙웰 기반 GPU RTX 프로 6000D RTX 프로 6000D는 엔비디아 워크스테이션용 GPU 'RTX 프로 6000'을 기반으로, 미국 상무부의 대 중국 수출 규제에 부합하도록 연산 성능과 대역폭을 낮춘 제품이다. 서버용 H20이 '호퍼(Hopper)' 아키텍처 기반인 반면, RTX 프로 6000D는 최신 '블랙웰(Blackwell)' 아키텍처를 채택했다. 단 AI 가속기의 연산 속도를 높이기 위해 흔히 쓰이는 고대역폭 메모리(HBM) 대신 일반 PC 그래픽카드용 GDDR7 메모리를 탑재했다. 도널드 트럼프 미국 대통령은 지난 8월 초 “전투기 수출 시 성능을 20% 제한하듯, 블랙웰 기반 GPU의 중국 수출용 제품은 성능을 30%~50% 낮춘 버전이 될 것”이라고 밝힌 바 있다. 미국 정부는 용인, 중국 정부는 '구매 차단' 명령 미국 정부는 아직 RTX 프로 6000D에 대한 별도 규제를 내놓지 않았다. JP모건 등 금융권은 올 하반기 엔비디아가 RTX 프로 6000D를 최대 150만 장까지 중국에 판매할 수 있을 것으로 전망했다. 그러나 중국 CAC는 최근 알리바바, 텐센트, 바이두, 바이트댄스 등 자국 빅테크 기업에 RTX 프로 6000D 구매 중단을 지시했다. CAC는 "외국산 GPU에는 보안 위협이 존재하며, 화웨이 등 중국 기업이 생산하는 AI 가속용 반도체가 이미 동등한 성능을 확보했다"고 주장했다. 中 정부, 2019년 멜라녹스 인수까지 재조사 중국 정부는 GPU뿐 아니라 엔비디아의 네트워킹 기술에도 문제를 제기했다. 엔비디아가 2019년 인수한 미국 네트워크 기업 '멜라녹스'(Mellanox)가 독점 우려를 일으킨다는 것이다. 멜라녹스 인수 이후 엔비디아는 CPU·GPU·메모리 간 데이터 처리를 최적화하는 DPU(데이터처리장치) '블루필드' 칩을 생산해왔다. 이 칩은 데이터 암호화·전송을 전담해 데이터센터 효율을 크게 높인다. 중국 국가시장감독관리총국(SAMR)은 지난 15일 "엔비디아의 멜라녹스 인수가 중국 반독점법 위반 소지가 있다"며 심층 심사 재개를 공식 발표했다. 중국 정부가 이를 반독점으로 문제삼으면 엔비디아는 블루필드 사업을 매각해야 할 수 있다. 엔비디아 中 점유율 50%로 하락... 견제 지속될 듯 한때 95%를 넘던 엔비디아의 중국 AI GPU 시장 점유율은 현재 절반 수준까지 떨어졌다. 화웨이와 캠브리콘 등 중국 토종 반도체 기업들이 정부 지원을 기반으로 빠르게 성장하며 엔비디아의 빈자리를 채우고 있기 때문이다. 중국 정부는 자국 업체가 미국산 제조사의 GPU와 동등한 수준, 혹은 버금가는 수준의 경쟁력을 확보할 때까지 엔비디아의 중국 내 사업을 지속적으로 견제할 것으로 예상된다. 엔비디아 GPU를 둘러싼 미중 갈등은 기술 패권 경쟁·국가 안보 논리·산업 전략이 맞물린 복합적 문제로 단시일 내 해소되지 않을 것으로 보인다. 현재 각종 규제는 엔비디아만 겨냥하고 있지만 AMD나 인텔 등 다른 업체도 충분히 대상이 될 수 있다. 젠슨 황 엔비디아 CEO는 BBC 인터뷰에서 "트럼프 대통령은 미국의 승리를, 시진핑 주석은 중국의 승리를 바란다"며 "양국 모두 원하는 결과를 얻는 것도 불가능하지 않으며, 대화를 통해 해법을 찾을 수 있다"고 밝혔다.

2025.09.22 16:21권봉석

정명수 파네시아 "한국형 CXL 기반 '판 링크'로 AI 인프라 혁신"

[대전=전화평 기자] "파네시아(Panmnesia)는 CXL(컴퓨트익스프레스링크)로부터 시작해서 한국형 종합 링크 기술을 만드는 걸 목표로 하고 있습니다." 정명수 파네시아 대표는 지디넷코리아와의 인터뷰에서 "AI 장치 및 가속기 간 연결은 결국 링크가 포인트인데 한국은 연결 반도체 기술이 없다"며 이 같이 말했다. 파네시아는 차세대 AI 인프라를 위한 링크 솔루션을 개발하는 시스템 반도체 스타트업으로, 지난 2022년 설립됐다. 회사는 차세대 인터페이스로 주목되는 CXL을 베이스로 AI 인프라 최적화를 위한 솔루션을 개발하고 있다. 파네시아, 한국형 연결 기술 '판 링크'로 AI 인프라 구축한다 파네시아가 제안한 한국형 연결 기술인 '판 링크(PanLink)'는 대규모 AI를 위한 풀스택 인프라 솔루션이다. 회사의 고도화된 링크 기술의 집약체로 IP(설계자산)부터 하드웨어, 소프트웨어 시스템까지 포괄해 AI 인프라 구축 확장을 돕는다. 이 과정에서 네트워크 연결 없이 1천개 이상의 가속기나 메모리 장치들을 한꺼번에 연결할 수 있다. 정 대표는 "판 링크는 파네시아 링크의 줄임말"이라며 "대규모 AI 모델을 처리하는 과정에서 GPU, 그리고 가속 시스템 장치들 간 빈번하게 발생하는 데이터 교환을 최적화하는 하드웨어와 소프트웨어 스택을 제공한다"고 설명했다. 그러면서 "초대규모 AI 응용을 처리함에 있어 저지연·고대역폭을 달성할 수 있다"고 덧붙였다. 파네시아가 한국형 링크 기술인 판 링크를 제안한 배경에는 AI 인프라 시장의 확장성 제한에 있다. 현재 시장 주류 기술인 대형 스케일 구조는 GPU 간 확장성에 제한되고, 병렬 처리 과정에서 병목이 발생한다. 이를 해결하기 위해서는 CPU, GPU, 메모리 간 연결이 자유로운 구조가 필요하다. 정 대표는 판 링크를 통해 가속기 링크와 차세대 링크들을 통합하는 '하이브리드 링크 아키텍처' 방식도 제안했다. 이 아키텍처는 NV링크(NVLInk), UA링크(UALink) 등으로 연결된 시스템을 CXL 스위치로 연결한다. 하이퍼스케일러 위주로 전환된 시장 변화에 대해서도 강조했다. 현재 전 세계에서 진정한 의미의 하이퍼스케일러라고 할 수 있는 클라우드와 데이터센터 업체는 아마존, 구글, 마이크로소프트, 메타까지 총 4개에 불과하다. 하이퍼스케일러는 방대하고 유연하게 컴퓨팅 인프라를 확장할 수 있는 아키텍처나 역량을 갖춘 거대 클라우드 및 데이터센터 서비스 제공업체를 뜻한다. 일반적인 서버 업체는 개별 서버나 작은 규모의 호스팅 서비스를 제공하는 반면, 하이퍼스케일러는 수십만 대의 서버를 운영하며 방대한 클라우드 인프라를 구축하는 것이다. 정 대표는 "반도체 업체는 셀 수 없는 많은 양의 대중이 고객으로 있다가 아주 똑똑한 하이퍼스케일러 4명 밖에 없는 상황으로 바뀌게 됐다"며 "마켓 자체가 달라진 것"이라고 말했다. 이어 "대부분의 반도체 뿐만 아니라 연결 기술에 대해 얘기를 할 때도 하이퍼스케일러가 나올 수 밖에 없는 이유"라고 덧붙였다. CXL, 다음 시장은 차량용...로보틱스에도 적용 가능 AI 시대로 패러다임이 전환되며 서버의 속도는 경쟁력과 직결되기 시작했다. CPU, GPU, 메모리 간 데이터 전송 속도를 획기적으로 높여주는 CXL이 서버를 중심으로 시장이 확장되는 이유다. 다만 그간 CXL은 서버 외 시장에서는 외면 받아왔다. PC, 모바일 등 소형 기기에는 추가 비용 대비 효율이 좋지 않은 탓이다. 아울러 CXL을 활용하기 위한 하드웨어 추가 비용 역시 간과할 수 없다. 정 대표는 지금까지 서버 시장 안에 갇혀 있던 CXL이 차량용으로도 가능하다고 전했다. 그는 "자동차는 기본적으로 장거리 네트워크를 제거하면서도 운전 중 취합되는 개인 정보의 보안을 철저히 지킬 수 있는 링크가 필요하다"며 "차량에서도 소프트웨어를 최대한 배제하면서 검증이 가능하고 에러가 적은 수준으로 만드는 링크 기술이 포함될 수 있다"고 말했다. 해당 기술은 로보틱스에서도 활용 가능하다. 기본적으로 자율주행 등 차량용 칩은 로봇에 탑재되는 칩과 유사한 형태를 띈다. 자동차용 칩은 결국 로봇에도 탑재 가능한 셈이다. 정 대표는 "로봇이나 우리가 피지컬 AI라고 부르는 것들에 (CXL이) 들어갈 수 있다"며 "작은 로보틱스 안에서 뭔가 계산을 한 다음에 서로 간에 교환을 해야 하는 상황에서 캐시일관성 규칙에 따라 데이터 이동이 없는 CXL을 활용하여 저전력·고효율의 시스템을 구축할 수 있다"고 설명했다. "젊은 엔지니어 많아져야...같이 하는 사람들의 성공을 만드는 게 중요" 정 대표는 파네시아를 통해 젊은 엔지니어들과 경험을 공유할 수 있는 환경을 만드는 게 목표라고 말한다. 그는 "다른 영역과 달리 반도체는 돈이 천문적으로 많이 들어가는 일"이라며 "원가 비용이 몇 천억원인 경우도 많다. 리스크가 크다 보니 사실 기회의 공유가 젊은 분들에게 잘 일어나지 않으며 지역 편차가 매우 크다"고 밝혔다. 파네시아는 반도체 업체로는 유일하게 서울에 팹리스 오피스 그리고 대전에 실리콘 연구·설계 오피스들을 모두 운영하고 있다. 이 중 대전을 중심으로 실리콘 인력을 대거 확충함에 따라 국내에서 하나 뿐인 지방 중심의 반도체 디자인하우스 모델을 만들고 있다. 이를 통해 중앙-지방간 균형 뿐만 아니라 고비용으로 인한 반도체 개발 경험의 기회가 부재한 젊은 엔지니어들을 많이 뽑고 육성하는데 최선을 다하고 있다. 정 대표는 "비경험자(젊은 엔지니어)가 경험자가 될 수 있도록 만들어 주는 것이 파네시아가 가지고 있는 중요한 역할"이라며 "지역 균형 발전과 더불어 아직 경험이 부족한 젊은 엔지니어들에게 기회를 제공하고, 함께하는 모든 이들의 성공을 이루고 싶다"고 포부를 전했다.

2025.09.20 14:21전화평

카카오엔터프라이즈, '하이브리드 GPUaaS' 공개…AI 인프라 장벽 넘는다

인공지능(AI) 확산이 본격화되면서 그래픽처리장치(GPU) 인프라 확보와 비용 최적화가 기업들의 핵심 과제로 떠오른 가운데, 카카오엔터프라이즈가 클라우드와 온프레미스의 장점을 결합한 새로운 형태의 GPU 인프라 서비스를 공개했다. 카카오엔터프라이즈는 17일 서울 강남구 코엑스에서 열린 '델 테크놀로지스 포럼 2025'에서 고성능 AI 인프라를 도입하는 새로운 기준인 '하이브리드 서비스형 GPU(GPUaaS)'를 선보였다. 카카오엔터프라이즈 클라우드부문 이재한 사업본부장은 "글로벌 AI 시장이 급격히 성장하면서 GPU 수요가 폭발적으로 늘고 있지만 막대한 비용 부담이 AI 확산의 큰 장벽으로 작용하고 있다"며 이를 해결하기 위한 대안으로 하이브리드 GPUaaS 서비스를 제안했다. 그는 "기업·기관 고객이 하이브리드 GPUaaS를 통해 클라우드와 온프레미스의 장점만을 결합해 고성능 AI 인프라를 신속하게 도입·운영할 수 있다"며 "이를 통해 ▲GPU 구매·구축 비용 효율화 ▲GPU 클러스터·인프라 통합 관리 ▲GPU 리소스의 유연한 확장과 안정적 운영 등 다양한 이점을 누릴 수 있다"고 설명했다. 하이브리드 GPUaaS는 고객이 카카오클라우드를 통해 GPU 서버를 도입하면 카카오클라우드 데이터센터 내에서 이를 운영·관리해 주는 방식이다. 고객은 GPU를 직접 소유하면서도 클라우드의 확장성과 편의성을 동시에 누릴 수 있다. 이 본부장은 "온프레미스의 최적화된 성능과 클라우드의 유연성을 결합한 AI 인프라 운영의 새로운 개념"이라고 강조했다. 카카오엔터프라이즈는 이날 행사에서 GPU 인프라 최적화에 필요한 핵심 고려 요소로 ▲비용·투자 구조 ▲GPU 사용 기간 ▲유연성·확장성 ▲운영·관리 역량을 꼽았다. 특히 GPU 사용량 변동이 크거나 최신 GPU 도입 속도가 중요한 기업에는 GPUaaS 모델이 적합하며 장기적·고정적 수요가 있는 기업은 온프레미스 방식이 유리하다고 분석했다. 하이브리드 GPUaaS는 이 두 환경의 장점을 결합해 최적의 해법을 제공한다는 설명이다. 아울러 델 서버·스토리지 기반 구축 사례를 소개하며 복잡한 AI 워크로드에서도 일반 GPUaaS 대비 최대 33%, 온프레미스 대비 약 11%의 비용 절감 효과를 확인했다고 밝혔다. 이날 세션 발표 외에도 카카오엔터프라이즈는 카카오클라우드의 하이브리드 GPUaaS를 소개하는 전시 부스를 마련했다. 하이브리드 GPUaaS 도입에 관심이 있는 기업·기관을 대상으로 부스 방문 이벤트와 카카오클라우드 하이브리드 GPUaaS 도입 설문 이벤트 등 다양한 행사를 진행했다. 이 본부장은 "카카오클라우드의 하이브리드 GPUaaS는 GPU 인프라를 한층 더 효율적이고 유연하게 운영할 수 있도록 온프레미스의 최적화 강점과 클라우드의 안정성·편의성을 완벽하게 조합한 혁신적인 엔터프라이즈 솔루션"이라며 "AI 인프라 운영의 새로운 패러다임이 될 것”이라고 강조했다.

2025.09.17 17:04한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

LG·벤츠, AI 전장·배터리서 '빅딜' 기대…"폭넓은 협의 나눴다"

"이래도 안 봐?"...디즈니플러스, 오리지널 6편으로 韓 시장 잡는다

최신 밈부터 직원 꿀팁까지…GS25 '더블 100만' 팔로워 성공기

SKT, MNO-AI 양대 사내회사 중심 조직개편

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.