• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (308건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

이재용·정의선, 젠슨 황과 '치맥 회동' 후 지포스 게이머 페스티벌 등장

이재용 삼성전자 회장, 정의선 현대자동차그룹 회장이 30일 밤 엔비디아 '지포스 게이머 페스티벌 2025' 행사를 방문해 축하 메시지를 전달했다. 지포스 게이머 페스티벌 2025는 지포스 GPU 국내 시장 진출 25주년을 기념해 열리는 행사로 최신 게임 시연, 스타크래프트 프로게이머 경기, 태권도 시범단 K타이거즈 시범과 르세라핌 공연 등으로 구성됐다. 이날 저녁 젠슨 황 엔비디아 CEO와 이재용 회장, 정의선 회장은 서울 삼성동 치킨집에서 한 시간 동안 '치맥 회동'을 가졌다. 이후 지포스 GPU 한국 진출 25주년 기념 행사인 '지포스 게이머 페스티벌' 행사장을 찾았다. 메인 무대에 오른 젠슨 황 엔비디아 CEO는 "어떤 회사도 모든 것을 혼자 할 수 없으며 한국의 친구들에게 세계 최고의 치킨인 프라이드 치킨을 먹자고 했다"며 이재용 삼성전자 회장, 정의선 현대차그룹 회장을 무대에 불렀다. 이재용 회장은 "엔비디아는 25년 전 삼성전자 DDR 메모리로 '지포스 256'을 출시했다. 그 때부터 양사는 협력해 왔고 젠슨 황 CEO와 저의 우정도 시작됐다. 그 사이에 부침도 있었지만 지금까지 같이 일해왔다"고 설명했다. 이어 "젠슨 황 CEO는 혁신적인 기업가이며 존경하는 경영인이지만 인간적이고 매력적이다. 정도 많다. 이 멋진 밤을 즐기시길 바라며 여기 계신 분들의 건강과 행복을 기원하겠다"고 마무리했다. 정의선 회장은 "저도 어렸을 때부터 게임을 즐겼고 아이도 리그오브레전드 게임을 좋아해 같이 즐겼다. 당연히 PC에 엔비디아 칩이 들어 있었다. 앞으로는 엔비디아 칩이 자동차와 로보틱스로 들어올 것이며 양사 협력도 더 깊어질 것"이라고 밝혔다. 그는 "앞으로 차 안에서 더 많은 게임을 즐길 수 있도록 할 것이다. 기아자동차는 2019년부터 유럽 시장에서 리그오브레전드 등을 후원하고 있다. 여러분들도 게임 많이 하셔서 엔비디아와 현기차그룹이 더 잘할 수 있도록 도와달라"고 당부했다.

2025.10.30 23:37권봉석

젠슨 황 CEO "한국 시장, 25년 엔비디아 여정의 일부"

APEC CEO 서밋 2025 참가를 위해 한국을 찾은 젠슨 황 엔비디아 CEO가 "한국에 매우 좋은 소식이 많다. 저와 여러 훌륭한 파트너들 사이에 좋은 뉴스가 많다"고 말했다. 젠슨 황 엔비디아 CEO는 이날 저녁 이재용 삼성전자 회장, 정의선 현대자동차그룹 회장과 함께 서울 삼성동 치킨집에서 '치맥 회동'을 가졌다. 이후 같은 날 오후 9시경 지포스 GPU 한국 진출 25주년 기념 행사인 '지포스 게이머 페스티벌' 행사장을 찾아 관람객과 유통사, 제조사 등 파트너사에게 인사했다. 그는 이 자리에서 "이재명 대통령이 발표하기 전까지는 좋은 소식을 미리 말하지 않겠다고 약속했지만, 힌트를 드리자면 로보틱스, 그리고 100% 한국과 관련된 일"이라고 설명했다. 또 "한국에 머무는 동안 많은 미팅을 가질 예정이며 여러 지도자와 만나기를 기대한다"고 덧붙였다. 젠슨 황 CEO는 2010년 이후 15년 만에 한국을 공식 방문했다. 그는 "엔비디아의 첫 시장은 PC 게이밍이었고 한국은 이스포츠라는 새로운 혁명의 중심지였다. 엔비디아와 한국은 이스포츠를 세계적인 현상으로 만들었다"고 말했다. 그는 또 "엔비디아는 오래 전부터 한국과 함께 성장했다. 모든 PC방에 엔비디아 GPU가 있었다. 한국은 엔비디아 여정의 모든 순간에 함께 했으며 여러분들에게 진심으로 감사한다"고 밝혔다. 젠슨 황 CEO는 "여기에 엔비디아 투자자들이 있느냐"고 물은 다음 "엔비디아는 30년 전 'GPU 가속 컴퓨팅'이라는 새로운 연산 방식을 발명했고 이 비전을 실현하는 데 30년이 걸렸다"고 설명했다. 그는 이어 "GPU 가속 컴퓨팅은 미래로 인정받고 있고 모든 컴퓨터 회사, 모든 클라우드 기업이 엔비디아 아키텍처로 전환하고 있다. 지금은 향후 10년에 걸친 플랫폼 전환의 시작점이며, 엔비디아와 AI의 미래는 매우 밝다"고 강조했다. 젠슨 황 엔비디아 CEO는 엔비디아 시가총액이 5조 달러를 돌파한 날 한국을 찾았다. 이에 대해 "이는 매우 감사하고 영광스런 일이다. AI는 인류 역사상 가장 영향력 있고, 가장 효과적인 기술이며 앞으로 세계에서 가장 큰 산업이 될 가능성이 매우 높다"고 전망했다. 이어 "AI는 의료, 운송, 제조, 과학 등 모든 산업에 영향을 미칠 것이며 세계가 경험한 가장 거대한 단일 산업이 될 것"이라고 덧붙였다. 젠슨 황 CEO는 미-중 반도체 수출 규제 관련 협상 상황에 대해 "양국간 논의는 전적으로 도널드 트럼프 대통령의 손에 달렸다. 그는 훌륭한 협상가이며 중국 시진핑 주석과도 아주 좋은 관계를 맺고 있다. 두 분 모두 각자의 나라를 위해 최선의 협상을 할 것이라 믿으며 저도 여러분처럼 그 결과를 기대하고 있다"고 기대감을 드러냈다.

2025.10.30 23:16권봉석

[포토] 젠슨 황·이재용·정의선, 강남서 '치맥 회동'

APEC CEO 서밋 2025 참석차 한국을 찾은 젠슨 황 엔비디아 최고경영자(CEO)와 이재용 삼성전자 회장, 정의선 현대자동차그룹 회장이 30일 오후 7시30분경 강남구 삼성역 인근에서 치맥 회동을 가졌다. 젠슨 황이 한국을 방문한 것은 2010년 이후 15년 만이다. 그는 31일 경주에서 진행될 APEC CEO 서밋 2025에서 삼성전자와 현대자동차그룹 등 국내 주요 기업 협업 방안을 공개하는 한편 국내 기자단을 대상으로 기자간담회도 진행할 예정이다. 이들이 만나기로 한 치킨집 앞에는 회동 세 시간 전부터 국내 취재진과 일반 시민들이 500여 명 이상 몰렸고 인파로 인한 사고를 막기 위해 경찰·소방 인력이 현장 통제에 나섰다. 젠슨 황 엔비디아 CEO는 치맥 회동 자리에서 지포스 GPU 국내 진출 25주년을 기념해 싱글몰트 위스키 25년산, 이달 중순부터 글로벌 시장 공급을 시작한 GB10 탑재 AI 워크스테이션 'DGX 스파크'를 전달했다. 젠슨 황 엔비디아 CEO와 정의선 현대차그룹 회장, 이재용 삼성전자 회장은 같은 치킨집을 이용하던 시민들과 기념 촬영을 하며 약 1시간 동안 회동했다. 잠시 치킨집 밖으로 나온 젠슨 황 엔비디아 CEO는 치킨집 앞에 모인 시민들에게 떡과 치킨, 바나나 우유 등을 나눠주기도 했다. 세 사람은 회동 종료 전 치킨집 포스터에 각각 '환상적인 치맥'(Amazing Chimek) (젠슨 황 엔비디아 CEO), '대박 나세요!' (이재용 삼성전자 회장), '최고입니다' (정의선 현대차그룹 회장)라고 사인했다. 이날 치킨값은 이재용 삼성전자 회장과 정의선 현대차그룹 회장이 결제했다. 두 회장은 같은 시간대에 치킨집에 있던 시민 몫까지 함께 계산했다. 회동 종료 후 소감을 묻는 질문에 이재용 삼성전자 회장은 "좋은 날 아닌가요, 이제는 미국 관세 협정도 타결되고, 살다보니 행복이라는 것이 이렇게 맛있는 것 먹고 그러는 것 아닌가 생각한다"라고 답했다. 젠슨 황 엔비디아 CEO는 회동 종료 후 지포스 GPU 한국 진출 25주년 기념행사 '지포스 게이머 페스티벌 2025' 행사장에 들러 일반 참가자들에게 감사 메시지를 전한 후 주요 그래픽카드사 국내 제조 법인 관계자, 온라인 유통업체 관계자 등을 격려했다.

2025.10.30 22:51권봉석

나무기술, 경량 언어모델로 제조 AI 선도…정부 GPU 지원 사업 선정

나무기술이 정부의 그래픽처리장치(GPU) 지원 사업을 통해 제조 분야 인공지능(AI) 혁신에 박차를 가한다. 나무기술은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅 자원 활용 기반 강화(GPU 임차 지원)' 사업에 선정됐다고 29일 밝혔다. 이번 사업은 산업별 AI 기술 고도화를 위한 GPU 인프라 지원 프로그램으로, 나무기술은 제조 현장에 특화된 AI 자율제조 기술 역량을 인정받았다. 나무기술은 공정 데이터와 설비 정보를 실시간으로 분석해 생산 과정의 예측과 제어를 수행할 수 있는 경량 언어모델(SLM)을 설계했다. 복잡한 제조 환경에서도 빠르게 추론하고 효율적으로 연산하도록 구성돼 품질 이상 탐지·공정 최적화·보고서 자동 작성 등 다양한 작업을 지능적으로 지원한다. 이 기능은 생산 현장의 의사결정 속도를 높이고 예측 중심의 운영 체계를 정착시키는 데 활용된다. 현재 나무기술은 GPU·엣지 기반의 실시간 추론 검증을 통해 모델의 안정성과 적용 범위를 확인하고 있으며 포장설비와 바이오 제조 등 실제 산업 현장에서의 실증으로 확장성을 검증하고 있다. 이 과정에는 클라우드 오케스트레이션 플랫폼 '칵테일 클라우드'와 통합 관리 플랫폼 '스페로'가 함께 적용돼 AI 학습·추론·자원 운영을 통합 관리하는 구조를 구현했다. 이를 통해 기업이 자체 데이터를 활용한 안정적인 AI 자율제조 환경을 구축하고 현장 중심의 AI 운영 체계를 구현할 수 있도록 지원한다. 나무기술 관계자는 "이번 선정은 우리가 축적해 온 AI·클라우드 융합 기술력과 산업 현장 중심의 실증 경험이 높은 평가를 받은 결과"라며 "풀스택 아키텍처를 기반으로 제조 산업의 효율성과 품질 경쟁력을 높이며 AI 내재화와 자율화를 향한 기술 혁신의 지속적인 혁신을 추진하고 있다"고 밝혔다. 이어 "제조 분야에서 검증된 기술을 바탕으로 에너지·물류·바이오 등 데이터 중심 산업으로 AI 자율 운영 모델을 확장해 산업별 맞춤형 AI 적용 사례를 넓혀갈 예정"이라고 덧붙였다.

2025.10.29 16:03한정호

컴퓨존, 30일 '지포스 게이머 페스티벌 2025' 출전

IT 전문 쇼핑몰 컴퓨존이 오는 30일 오후 4시부터 서울 삼성동 코엑스 K팝 스퀘어에서 진행되는 엔비디아 행사 '지포스 게이머 페스티벌 2025'(GGF 2025)에 참가한다고 밝혔다. GGF 2025는 지포스 GPU 국내 시장 진출 25주년을 기념해 열리는 행사로 아이온2, 신더시티 등 최신 게임 시연, 전설적인 프로게이머 홍진호(YellOw)와 이윤열(NaDa)의 스타크래프트 경기, 태권도 시범단 K타이거즈 시범과 르세라핌 공연 등으로 구성됐다. 컴퓨존은 행사 당일 오후 4시부터 자체 부스에 인텔 코어 울트라 200S(애로우레이크)와 엔비디아 지포스 RTX 50 시리즈 GPU로 구성한 고성능 조립PC 2종을 전시 예정이다. P2166W(블랙 에디션)은 코어 울트라7 265K 프로세서, 지포스 RTX 5080 GPU로 4K 해상도 게임 구동과 AI 연산에 최적화됐다. 아이웍스5-5160(화이트 에디션)은 코어 울트라5 225F와 지포스 RTX 5070 GPU로 2K 해상도에서 안정적인 프레임을 소화하는 균형형 게이밍 시스템이다. 시연 제품은 컴퓨존 기획전 페이지에서 즉시 구매 가능하며 행사 기간 중 제품 할인과 적립금 추가 지급이 적용된다. 현장 방문 관람객 대상 이벤트도 진행된다. 컴퓨존 관계자는 "이번 행사는 게이밍 생태계를 주도하는 브랜드들이 기술력을 선보이는 자리로, 컴퓨존의 참가가 B2C 시장 내 브랜드 경쟁력 강화를 상징한다"고 설명하고 "이는 오프라인 체험 중심의 마케팅 모델을 선도하는 사례가 될 것"이라고 덧붙였다.

2025.10.29 10:47권봉석

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호

네이버클라우드 "AI 인프라 기술 내재화…GPUaaS로 혁신 이끈다"

네이버클라우드가 인공지능(AI) 풀스택 기술을 앞세워 글로벌 AI 인프라 시장을 선도하겠다는 비전을 밝혔다. 그래픽처리장치(GPU) 자원 확보를 넘어 설계·운영·플랫폼까지 아우르는 서비스 전략을 바탕으로 AI 산업 확장에 나선다는 목표다. 네이버클라우드 이상준 최고기술책임자(CIO)는 지난 27일 각 세종 데이터센터에서 열린 테크 밋업에서 "GPU 확보와 운영 기술 내재화의 균형을 통해 글로벌 수준의 AI 인프라 경쟁력을 완성하고 있다"고 강조했다. 이어 "각 춘천·세종 데이터센터는 AI 워크로드 전체를 통합적으로 제어할 수 있는 풀스택 AI 인프라"라며 "인프라를 하나의 시스템으로 통합 설계·운영할 수 있는 능력은 국내는 물론 글로벌에서도 손꼽힌다"고 덧붙였다. 그는 AI 데이터센터를 정보의 인프라가 아닌 지능의 인프라로 정의하며 AI 학습·추론·서빙을 아우르는 완전한 생태계를 구축하는 것이 네이버의 핵심 전략이라고 설명했다. 특히 중심 거점 인프라는 네이버클라우드가 지난 2023년 개소한 각 세종 데이터센터다. 이날 행사에서 네이버클라우드 노상민 센터장은 각 세종의 설계 철학과 기술적 차별점을 소개했다. 그는 "각 세종은 10년 전 춘천에서 시작된 네이버의 하이퍼스케일 데이터센터 노하우를 집대성한 결과물"이라며 "데이터 보관을 넘어 AI·클라우드·로보틱스 등 미래 기술이 융합되는 플랫폼 역할을 한다"고 말했다. 노 센터장은 특히 '각'이라는 이름에 담긴 상징성을 강조했다. 네이버의 각 데이터센터는 팔만대장경을 750년간 보관해 온 장경각의 정신을 현대적으로 계승한 것으로, 데이터를 안전하고 지속가능하게 보관·활용하며 이를 통해 새로운 가치를 창출하겠다는 의미를 담고 있다. 각 세종은 춘천 대비 6.7배 이상 규모로 확장된 초대형 하이퍼스케일 센터로, 내진 규모 7.0을 견디는 설계와 전력사용효율(PUE) 1.1 수준의 글로벌 친환경 기준도 충족하고 있다. 또 각 세종은 국내 데이터센터 최초로 자율주행 로봇을 활용한 서버 이동 시스템을 시범 도입했다. 넓은 캠퍼스 환경에서 반복적인 장비 운반 작업을 자동화해 효율성과 안전성을 높이는 것이 목표다. 노 센터장은 "네이버랩스와 협력해 운반 로봇인 '세로·가로'를 도입 중이며 앞으로 서버 운반 시간 단축과 산업재해 예방 효과를 동시에 기대하고 있다"고 설명했다. 각 세종의 또 다른 차별점은 냉각 기술이다. AI 연산이 집중되는 GPU 서버 환경에 맞춰 직접외기·간접외기·냉수를 병행하는 하이브리드 냉각 시스템을 적용했다. 이는 계절별로 냉각 모드를 자동 전환해 에너지 효율과 안정성을 동시에 확보하는 방식이다. 네이버는 액침냉각과 수냉식 냉각 특허도 확보해 차세대 냉각 기술 로드맵을 준비 중이다. 데이터센터 운영 측면에서도 예측 가능한 인프라 구현이 강조됐다. 각 세종은 전력·냉각·서버 운용을 완전히 분리하면서도 유기적으로 통합한 이중화 아키텍처로 설계됐다. GPU 자원은 자동 복구 기능과 실시간 모니터링을 통해 장애 발생 시에도 무중단 운영이 가능하며 모든 서버는 도입 전 성능·전력 효율·운용성을 표준화 검증 절차를 거친다. 노 센터장은 "우리는 춘천 데이터센터 운영을 통해 이미 글로벌 수준의 안정성을 입증했다"며 "각 세종은 그 경험을 바탕으로 더 높은 수준의 내진·화재·침수 대응 체계를 구축했으며 파트너사와 함께 월 1회 이상 실전 대응 훈련을 진행 중"이라고 밝혔다. 이 CIO는 이같은 AI 인프라 기술 내재화를 핵심 경쟁력으로 꼽았다. 그는 "GPU 서버뿐 아니라 특화 스위치, 고속 네트워크, 대용량 스토리지까지 모두 자체적으로 설계·운영하고 있다"며 "데이터센터 설계부터 검증, 배치, 장애 복구까지 모든 단계를 내재화한 덕분에 빠르게 변화하는 AI 시장에서도 즉각 대응이 가능하다"고 강조했다. 네이버의 AI 모델 및 플랫폼 '하이퍼클로바X'는 이러한 인프라 위에서 작동 중이다. 모델의 학습·추론·배포 모두 이 인프라 상에서 구현돼 개발자는 인프라 제약 없이 AI를 연구·운영할 수 있고 GPU 자원 배분과 전력 효율을 실시간으로 제어할 수 있다. 이 플랫폼을 통해 네이버는 내부에서 검증된 기술을 외부 고객에게 확장하는 서비스형 GPU(GPUaaS) 사업 모델을 추진하고 있다. 이미 주요 산업 기업들과 협력 중이며 향후 정부·엔터프라이즈·중소기업 영역으로 생태계를 넓혀갈 계획이다. 이 CIO는 "그동안 축적한 AI 인프라 운영 역량을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 만들 것"이라며 "AI 인프라가 특정 기업의 자산을 넘어 산업 전반의 성장 기반이 되도록 하겠다"고 말했다.

2025.10.28 09:01한정호

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

인핸스, 정부 GPU 지원사업 선정…LAM 기술 고도화 '박차'

인핸스가 정부 지원 사업에 선정돼 거대행동모델(LAM) 기술 고도화를 통한 국가 인공지능(AI) 혁신에 나선다. 인핸스는 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 추진하는 'AI컴퓨팅자원 활용기반 강화(GPU 확보·구축·운용지원)사업'에 선정됐다고 23일 밝혔다. 이 사업은 기업의 AI컴퓨팅 인프라 확충 및 AI 기술 고도화를 위해 그래픽처리장치(GPU) 자원을 지원하는 사업이다. 인핸스는 이번 사업을 통해 향후 9개월 동안 고성능 GPU를 지원받는다. 이를 기반으로 텍스트와 HTML 혼합 데이터, 반복 작업 태스크 데이터셋을 학습시켜 자사 행동형 AI 모델 'ACT-1'을 고도화할 계획이다. ACT-1은 버튼 클릭·메뉴 선택·필드 입력 등 웹 인터페이스 전반을 자동으로 제어할 수 있는 LAM 기반 솔루션이다. 크롤링과 웹 테스트는 물론 커머스 운영 자동화에 최적화된 기능을 제공한다. 인핸스에 따르면 ACT-1은 최근 글로벌 웹 AI 에이전트 벤치마크 '온라인-마인드2웹 리더보드'에서 구글·오픈AI·앤트로픽의 AI 모델과 함께 최상위권을 달성하며 글로벌 빅테크 기업들과 어깨를 나란히 했다. 인핸스는 지난 5월 팔란티어의 '스타트업 펠로우십'에도 선정되는 등 글로벌 AI 시장에서 기술력을 입증하고 있다. 이승현 인핸스 대표는 "이번 GPU 사업 선정은 국가 차원에서 우리의 웹 AI 에이전트 기술 역량을 입증했다는 점에서 의미가 크다"며 "첨단 AI 기술과 이번에 확보한 GPU 자원을 바탕으로 글로벌 AI 시장에서 경쟁력을 더욱 강화해 나갈 것"이라고 말했다.

2025.10.23 16:51한정호

Arm "루멕스 CSS, AI 처리 속도 최대 5배 강화"

영국 반도체 설계 전문기업 Arm은 지난 9월 프리미엄 스마트폰과 PC를 겨냥한 반도체 IP인 루멕스(Lumex) 컴퓨트 서브시스템(CSS)를 공개했다. CPU와 GPU, 이를 지원하는 소프트웨어와 개발자 도구를 통합해 주요 파운드리의 2, 3나노급 공정에서 고성능 시스템반도체(SoC) 개발을 돕는다. 21일 오후 국내 기자단과 만난 제임스 맥니븐 Arm 클라이언트 사업부 부사장은 "루멕스 CSS는 프리미엄 스마트폰에서 중간급 기기까지 AI 연산 성능을 손쉽게 강화할 수 있다"고 설명했다. 이어 "차세대 AI 응용프로그램 구동시 최고의 배터리 효율, 게임 등에서 최고의 시각적 경험을 위해 설계됐다. 루멕스 CSS를 활용하는 파트너사들이 CPU와 GPU를 요구사항에 맞게 자유롭게 조합할 수 있어 유연성이 극대화됐다"고 설명했다. C1 CPU IP, AI 처리 위한 SME2 명령어 내장 Arm은 고성능 처리가 필요한 CPU IP(지적재산권)로 코어텍스-X(Cortex-X)를, 중간/저전력 처리가 필요한 CPU IP로 코어텍스-A(Cortex-A)를 공급해 왔다. 루멕스 CSS에 포함된 CPU IP는 C1 클러스터로 기존 코어텍스-X, A를 대체한다. 성능과 배터리 지속시간, 효율과 예산 등에 따라 총 4개 코어를 용도에 맞게 선택할 수 있다. 제임스 맥니븐 부사장은 "C1 울트라 코어는 최고 성능을 내는 플래그십 CPU 코어로 전년 대비 성능을 25% 향상시켰다. C1 프리미엄은 울트라급 성능을 유지하면서 칩 면적을 35% 줄여 서브플래그십 기기에 적합하다. C1 프로와 나노는 전력 효율 중심의 설계로, 중보급형 제품군에 적합할 것"이라고 밝혔다. C1 CPU 코어에는 AI 연산에 주로 쓰이는 행렬 곱셈 등 연산을 처리하기 위한 SME2 명령어가 내장된다. 이를 이용해 음성인식, 번역, 생성 AI 등 각종 AI 처리 속도를 전세대 대비 5배 향상시켰다. 제임스 맥니븐 부사장은 "C1 CPU 코어를 묶은 클러스터는 SME2 명령어를 활용해 2-3GHz로 작동시 2-6 TOPS(1초당 1조번 연산)를 처리 가능하며 작동 속도 향상시 더 높아질 수 있다"고 설명했다. 더 큰 코어 크기로 전력을 더 많이 쓰는 인텔·AMD 등 x86 기반 프로세서의 CPU 코어는 통상 8-10 TOPS 정도의 성능을 낸다. 루멕스 CSS가 스마트폰 등 저전력 기기를 위한 반도체 IP인 것을 감안하면 전력 효율 면에서는 분명 우위에 있다. 말리 G1 울트라 GPU, 레이트레이싱 성능 2배 향상 루멕스 CSS에 포함된 새 GPU IP인 말리 G1 울트라는 그래픽과 AI 추론 성능이 각각 20% 향상, 프레임당 소비 전력은 9% 절감, 레이트레이싱(RT) 성능은 두 배 향상됐다. 빛과 사물 사이에 비치는 그림자, 반사광 등을 보다 현실에 가깝게 표현하는 레이트레이싱 기능은 과거 PC용 고성능 GPU에서만 가능한 기술로 간주됐다. 그러나 2022년부터 삼성전자(엑시노스 2200)와 퀄컴(스냅드래곤8 2세대) 등이 모바일 기기용 SoC에 레이트레이싱을 투입한 이후 모바일 기기의 GPU 성능을 파악하는 지표 중 하나로 레이트레이싱 성능이 자리잡았다. 이날 제임스 맥니븐 부사장도 말리 G1 울트라의 레이트레이싱 성능 향상을 특히 강조했다. 그는 "RTUv2 아키텍처는 단일 광선 추적 방식을 채택해 보다 현실감 있는 조명을 구현하며, 코어당 전용 RT 하드웨어를 탑재해 효율성과 성능을 모두 높였다"고 밝혔다. "내년 GPU 활용 AI 연산 가속 예정" 루멕스 CSS는 최근 공개된 타사 모바일 SoC와 달리 NPU(신경망처리장치)는 포함하지 않았다. 제임스 맥니븐 부사장은 "CPU에서 AI 연산을 처리하는 것이 오히려 더 지연 시간이 낮고 개발자들도 SME2 명령어를 보다 널리 활용할 수 있다"고 설명했다. 그러나 주요 반도체 제조사들은 상시 저전력 연산과 전처리 등에 강력한 성능을 내는 NPU와 함께 GPU도 동시에 강화하고 있다. 수 억개 매개변수(패러미터)로 구성된 거대언어모델(LLM) 등 처리에는 GPU의 성능이 더 필요하다. 제임스 맥니븐 부사장 역시 "말리 G1 울트라에 포함된 레이트레이싱 유닛은 불칸(Vulkan) API를 활용한 그래픽 처리에 최적화됐고 일부 API를 이용하면 이를 연산에도 활용할 수 있다"고 설명했다. 그는 이어 "GPU에 신경망(뉴럴) 관련 처리를 더해 AI 연산 성능을 강화하겠다는 취지를 지난 8월에 이미 밝힌 바 있다. 현재는 상세한 내용을 공개할 수 없지만 AI 처리 성능 처리 면에서 비약적인 발전이 있을 것"이라고 설명했다.

2025.10.22 15:35권봉석

GPU 의존 낮추는 中…알리바바, AI 추론 효율 높인 독자 기술 공개

알리바바클라우드가 인공지능(AI) 모델 서비스에 필요한 엔비디아 그래픽처리장치(GPU) 사용량을 최대 82% 절감할 수 있는 새로운 컴퓨팅 풀링 시스템을 선보였다. 19일 사우스차이나모닝포스트(SCMP)에 따르면 알리바바클라우드는 '아이게온(Aegaeon)'이라 불리는 시스템을 세 달 넘게 자사 마켓플레이스에서 베타 테스트했다. 그 결과, 수십 개 AI 모델을 서비스하는 데 필요한 엔비디아 H20 GPU 수가 1천192개에서 213개로 줄어드는 효과를 보였다고 밝혔다. 이 연구 결과는 최근 서울에서 열린 '제31회 운영체제 원칙 심포지엄(SOSP)'에서 발표됐다. 알리바바클라우드와 베이징대 공동 연구팀은 "아이게온은 현재 시장에서 대형언어모델(LLM) 동시 처리 과정에 따른 과도한 비용 문제를 처음 구체적으로 보여준 사례"라고 강조했다. 아이게온은 GPU가 여러 모델을 동시에 처리할 수 있도록 '토큰 단위 오토스케일링'을 적용한 점이 특징이다. 이를 통해 GPU는 하나의 모델 출력을 생성하는 도중에도 다른 모델로 전환할 수 있으며 모델 간 전환 시 발생하는 지연시간을 기존 대비 97% 줄였다. 결과적으로 한 개 GPU가 최대 7개의 모델을 동시에 지원할 수 있게 됐다. 이 시스템은 현재 알리바바의 기업용 모델 마켓플레이스인 '바이롄'에 적용돼 있으며 회사의 자체 개발 모델 '큐원' 서비스에도 활용되고 있다. H20은 미국의 수출 통제 조치 이후 엔비디아가 중국용 맞춤형 제품으로 개발한 GPU다. 최근 중국 규제 당국의 백도어 의혹 조사 대상에 올라, 중국 내에서는 화웨이·캄브리콘 등 주요 반도체 기업들이 자체 GPU 개발을 가속화하고 있다. 알리바바클라우드 측은 "아이게온은 LLM의 동시 추론 효율을 혁신적으로 끌어올린 시스템"이라며 "AI 컴퓨팅 자원 활용의 새로운 기준을 제시했다"고 말했다.

2025.10.19 12:22한정호

엔비디아 "블랙웰 GPU 미국서 생산 개시"

엔비디아가 블랙웰 GPU를 미국 애리조나 주 피닉스에 있는 TSMC 시설에서도 생산하겠다고 밝혔다. 도널드 트럼프 2기 행정부의 상호관세와 미국 내 반도체 생태계 육성 관련 압박에 대응할 카드를 얻은 것이다. 17일(미국 현지시간) 엔비디아와 TSMC에 따르면, 양사는 미국 애리조나 주 피닉스에 위치한 TSMC 반도체 생산시설(팹)에서 블랙웰 GPU 생산 개시 기념식을 진행했다. 젠슨 황 엔비디아 CEO는 “미국에서 가장 중요한 칩이 미국 땅에서, TSMC의 가장 진보된 팹에서 제조된 것은 역사상 처음 있는 일”이라며 “이는 제조업 부활, 일자리 창출과 세계에서 가장 중요한 반도체 산업을 미국에 가져오기 위한 비전”이라고 평가했다. 레이 창 TSMC 애리조나 법인 CEO는 “애리조나 진출 후 단기간에 미국산 엔비디아 블랙웰 GPU를 생산한 것은 TSMC의 역량을 증명하는 동시에 엔비디아와 현지 협력사, 인력들의 헌신의 성과”라고 밝혔다. 엔비디아가 블랙웰 GPU 생산에 이용하는 TSMC 공정은 5나노급 'N5'를 개선한 'N4P'다. 엔비디아는 공식 블로그에서 “TSMC 애리조나 팹은 향후 4나노 이하 첨단 공정에서 고성능 반도체를 생산할 예정”이라고 설명했다. 엔비디아 경쟁사인 AMD도 TSMC 애리조나 팹 활용을 검토 중이다. AMD는 지난 4월 이 시설에서 서버용 5세대 에픽 프로세서 반도체 구현과 검증을 마쳤다고 밝히기도 했다. 다만 미국에 본사를 둔 주요 반도체 기업이 TSMC 애리조나 팹에서 모든 물량을 생산하기는 어려울 것으로 보인다. 미국 내 제조비용이 대만을 비롯한 아시아 지역 대비 높고, 반도체 설계·패키징 생태계가 상대적으로 덜 성숙하다는 한계가 존재하기 때문이다.

2025.10.19 03:17권봉석

애플 M5 칩, AI 처리 중심 NPU→GPU로 이동

애플이 아이폰과 아이패드, 맥 컴퓨터의 AI 연산 처리 중심 장치를 신경망처리장치(NPU)에서 GPU로 전환했다. 16일 공개한 아이패드 프로·맥용 SoC(시스템반도체) M5 칩의 GPU 안에 '신경망 가속기'를 내장한다고 밝힌 것이다. 애플 실리콘 M 시리즈는 응용프로그램 처리 등 일반적인 연산에는 CPU를, 그래픽 처리와 일부 병렬 연산에는 GPU를 활용했다. NPU '뉴럴 엔진'은 특정 AI 연산을 실행하는 방식으로 독립적으로 작동했다. 이로 인해 애플의 AI 연산은 높은 효율을 유지했지만, GPU를 통한 AI 연산 확장성은 상대적으로 제한적이었다. 그러나 AI 모델의 용량이 커지고 복잡해지면서 NPU로만 이를 처리하는 방식은 한계에 부딪혔다. GPU는 더 높은 메모리 대역폭과 병렬 연산 유연성을 제공하기 때문에, 복합 AI 워크로드에 더 적합하다. 애플이 GPU에 AI 가속 엔진을 통합한 것은 지금까지 유지해 온 구조를 벗어나 AI 연산 중심 장치를 GPU로 옮기겠다는 의도로 읽힌다. 애플, 2017년부터 A시리즈 칩에 NPU 탑재 애플은 2017년 아이폰8·X에 탑재한 SoC 'A11 바이오닉'에 처음으로 NPU인 뉴럴엔진을 통합했다. 이는 스마트폰 분야 경쟁사인 삼성전자나 퀄컴 대비 수 년을 앞선 시도였다. 애플은 이후 출시한 아이폰용 A시리즈 SoC는 물론 이 구조를 계승해 자체 설계한 PC용 SoC인 애플 실리콘 M시리즈에도 꾸준히 뉴럴엔진을 탑재했다. 뉴럴엔진은 주로 사진·음성·자연어 처리 등 다양한 기능을 처리했다. 지난 해 공개된 애플 실리콘 M4에 탑재된 뉴럴엔진은 INT8(정수, 8비트) 기준 38 TOPS 수준의 연산 성능을 갖췄다. 애플, M5 칩 GPU 구조 개선 애플이 16일 아이패드 프로와 맥북프로 신제품에 탑재한 애플 실리콘 'M5'는 최대 10코어 CPU, 10코어 GPU와 16코어 NPU '뉴럴 엔진'으로 구성됐다. 특기할 점은 GPU 내부에 AI 연산을 가속할 수 있는 '신경망 가속기'를 통합했다는 것이다. 이는 AI 연산을 전용 NPU에만 전담시키던 기존과 달리 대부분의 AI 연산을 GPU로 우선 처리하겠다는 의도로 해석된다. 애플은 이런 구조 변경을 통해 "AI 작업 처리시 M4 대비 최대 4배 성능이 향상됐다"고 설명했다. 기준이 되는 AI 연산의 정밀도(FP16, INT8, FP8)나 벤치마크 방식은 공개되지 않았지만, CPU와 뉴럴 엔진 관련 언급은 나오지 않았다. GPU를 AI 처리의 중심에 둔 것이다. 인텔·AMD, AI 연산에 GPU 우선 활용 AI PC 시장이 본격화되면서, 인텔·퀄컴 등 주요 반도체 업체들도 GPU 기반 AI 연산을 강화하는 전략을 앞다퉈 내세우고 있다. 인텔이 올 연말부터 공급할 코어 울트라 시리즈3(팬서레이크)는 GPU의 AI 연산 성능을 전작(코어 울트라 200V) 대비 두 배 가까운 120 TOPS로 끌어올린 반면 NPU 연산 성능은 소폭 상승한 50 TOPS 수준에 머물렀다. AMD가 공급하는 라이젠 AI 300 시리즈 역시 내장 라데온 GPU의 AI 처리 성능을 강화했다. 새로운 RDNA 3.5 아키텍처는 FP16·INT8 연산을 지원하며, NPU와 GPU가 AI 연산을 병행하는 구조를 구현했다. NPU TOPS보다 시스템 전체 연산 성능 중요도 상승 그동안 AI 연산 성능의 기준은 NPU의 초당 연산 횟수(TOPS)로 나타났다. 그러나 GPU를 활용한 추론이 AI 연산이 주류로 부상하면서 NPU에만 의존할 수 없게 됐다. NPU 뿐만 아니라 GPU, CPU를 모두 조화롭게 활용해야 하는 상황인 것이다. 애플이 AI 연산 처리에 GPU를 앞세운 것은 이런 변화를 반영한 것이다. AI 연산은 더 이상 NPU라는 전용 블록의 역할이 아니라, SoC 전반이 수행해야 하는 가장 중요한 작업이 됐다.

2025.10.16 17:43권봉석

인텔, 추론 특화 GPU '크레센트 아일랜드' 공개

인텔이 14일(미국 현지시간) '2025 OCP 글로벌 서밋' 행사에서 새 아키텍처를 적용한 데이터센터용 추론 특화 GPU '크레센트 아일랜드'(Crescent Island)를 공개하고 내년 하반기부터 시제품 공급에 나서겠다고 밝혔다. 인텔은 AI 모델 훈련에 내년 출시를 목표로 현재 개발중인 GPU '재규어 쇼어'를, 훈련을 마친 AI 모델 구동에 크레센트 아일랜드를 투입하는 투트랙 전략을 선택했다. 크레센트 아일랜드는 고성능 서버 등에서 이미 훈련을 마친 AI 모델을 구동하려는 수요에 초점을 맞췄다. 새로운 아키텍처 'Xe3P' 기반으로 고대역폭메모리(HBM) 대비 생산 원가를 낮출 수 있는 LPDDR5X 메모리 160GB와 함께 구성된다. 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 인텔 CTO, 9월 말 "추론 특화 새 GPU 개발중" 인텔은 9월 말 미국 애리조나 주에서 진행한 기술 행사 '인텔 테크투어 US'에서 신규 GPU 출시 가능성을 내비쳤다. 당시 사친 카티 인텔 최고 기술 및 AI 책임자(CTO)는 "관련 업계는 그간 GPU를 활용한 모델 학습과 훈련에 수천 억 달러를 투자했지만 그 결실이 필요한 상황이다. 우리 일상을 바꾸는 것은 AI 훈련이 아니라 추론과 에이전틱 AI"라고 언급했다. 이어 ”현재 메모리 대역폭과 탑재 용량을 늘린 추론 특화 GPU를 개발중이며 토큰 기반 워크로드와 엔터프라이즈급 추론 성능을 낼 것"이라고 설명한 바 있다. 아크 GPU 세 번째 아키텍처 'Xe3P' 적용 인텔이 이날 공개한 크레센트 아일랜드 GPU는 새로운 GPU 아키텍처 'Xe3P' 기반이다. 세대 구분으로는 3세대 '셀레스티얼'에 속한다. 인텔은 2021년 GPU 브랜드 '아크'(Arc)와 함께 각 아키텍처 별로 '배틀메이지', '셀레스티얼', '드루이드' 등 각 아키텍처 별 코드명도 함께 공개했다. 2022년 출시한 노트북용 아크 A350M, 데스크톱용 아크 A750/A770은 '알케미스트'에 속한다. 작년 말 출시된 아크 B570/B580과 올 연말부터 주요 PC 제조사에 공급될 코어 울트라 시리즈3(팬서레이크) 내장 'Xe3' GPU는 두 번째 아키텍처 '배틀메이지'에 기반했다. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 '인텔 테크투어 US' 행사에서 "Xe3P는 내년에 출시될 GPU로 인텔 그래픽 IP에서 상당한 진전을 보일 것"이라고 설명했다. 비용 대비 우위 LPDDR5X 메모리 채택 인텔은 크레센트 아일랜드가 전력 소모와 비용 효율에 최적화된 공랭식 기업용 서버를 위해 설계됐다고 밝혔다. 거대언어모델(LLM)의 정밀도를 결정하는 요소 중 하나로 매개변수(패러미터) 수를 들 수 있다. 매개변수가 클 수록 보다 좋은 결과를 얻을 수 있지만 용량도 그만큼 커진다. 크레센트 아일랜드는 작업공간으로 고대역폭메모리(HBM) 대신 LPDDR5X 메모리 160GB를 탑재한다. 또 추론에 특화된 다양한 자료형 지원을 내세웠다. 코어 울트라 시리즈3의 Xe3 GPU는 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32에 더해 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화도 지원한다. 크레센트 아일랜드 역시 Xe3 GPU에 이어 폭 넓은 자료형을 지원할 것으로 예상된다. 내년 하반기 중 시제품 공급 전망 인텔은 크레센트 아일랜드 구동을 위한 소프트웨어 초기 최적화에는 아크 프로 B시리즈 GPU를 활용한다고 밝혔다. 아크 프로 B시리즈는 지난 5월 컴퓨텍스 타이베이 2025 기간 중 공개한 제품으로 Xe2 코어를 20개 내장한 '아크 프로 B60', 16개 내장한 '아크 프로 B50' 등 2종으로 구성됐다. 인텔은 크레센트 아일랜드 탑재 GPU 시제품을 주요 고객사에 내년 하반기 중 공급 예정이다. 서버용 GPU '재규어 쇼어'도 현재 개발중 인텔은 현재 AI 연산을 가속할 수 있는 GPU 시장에서 엔비디아나 AMD 대비 열세에 있다. 2019년 인수한 이스라엘 스타트업 '하바나랩스' 기술력을 기반으로 가우디 시리즈를 출시하고 있다. 지난 해 가격 대비 성능을 내세운 '가우디3'를 출시했지만 최대 5억 달러 규모 매출을 예상했던 인텔의 예상에는 미치지 못했다. 2022년 5월 처음 개발 계획을 밝혔던 '팰콘 쇼어'는 CPU와 GPU, 메모리를 자유롭게 조합할 수 있는 제품에서 GPU만 모은 제품으로 퇴보했다. 올 2월에는 팰콘 쇼어 출시를 백지화하고 내부 테스트용으로만 활용할 것이라고 밝히기도 했다. 내년 출시할 서버용 GPU '재규어 쇼어' 역시 아직까지 시제품이나 구체적인 제원을 공개하지 못했다. 다만 사친 카티 CTO는 "쇼어(Shore) GPU에 대해 매년 예측 가능한 개발 사이클을 이어갈 것"이라고 설명했다.

2025.10.15 08:51권봉석

"GPU 만으론 한계...AI 데이터센터 상면 확보해야"

정부의 대규모 GPU 확보 계획이 나왔으나 데이터센터 상면이 부족할 수 있다는 지적이 제기됐다. 국회 과학기술정보방송통신위원회 소속 김우영 의원(더불어민주당)은 “GPU 만으로는 AI 경쟁력이 완성되지 않는다”며 GPU+ 데이터센터 인프라 패키지로 정책 지원을 촉구했다. 김우영 의원실에 따르면 당장 배치할 수 있는 GPU 1만3천장 가운데 1만장을 NHN, 카카오, 네이버 등 주요 클라우드사업자(CSP) 데이터센터에 순차 배치 예정이고 약 3천장은 운영비와 제반비용 등을 고려해 기업이 자체 활용할 예정이다. 다만, 수도권 집중 배치 경향과 GPU 클러스터 특성을 고려하면 향후 추가 물량은 전력, 냉각, 상면 확충 없이는 효율적 수용이 어렵다는 지적이 나온다. 의원실이 분석한 자료에 따르면 내년 목표인 약 2만장의 GPU 를 데이터센터에 설치하기 위해서는 최소 30~40MW, 2030년 목표인 5만장에는 112MW 이상의 전력이 필요하다. 최신 AI 가속기인 NVIDIA H200, B200급 GPU는 서버당 10kW 이상을 요구하며, 20~40kW 급 전력과 고효율 냉각 시스템이 필수적이다. 반면 현재 수도권 데이터센터의 대부분은 저밀도 공랭식 구조로 설계되어 20~40kW급 고밀도 전력, 고효율 냉각을 요구하는 최신 AI 서버에 적합한 'AI-Ready 상면'을 즉시 확보하기 어렵다. 이미 수도권 데이터센터의 공실률은 7% 미만으로 포화 상태이며 고밀도 전력과 고효율 냉각을 지원하는 AI-Ready 상면은 전체의 5% 미만으로 추정된다. 이에 정부는 대전 KISTI 슈퍼컴센터에 9천장 규모 GPU 설치를 추진 중이며, 비수도권 지역을 대상으로 한 국가AI컴퓨팅센터 공모도 진행 중이다. 김 의원은 “정부가 당장 연내에 확보할 1 만여 장의 GPU 는 물론 앞으로 들여올 4만장의 GPU를 '어디에, 어떻게 설치할지'에 대한 구체적인 계획과 인프라를 함께 마련해야 한다 “ 고 강조했다. 이어, “정부도 상면과 전력 문제를 인식하고 패키지 조달과 민관합작(SPC), 세액공제 , 성장펀드 등 정부가 제시한 제도적 지원을 속도감 있게 실행하고 AI-Ready 상면 표준 확보를 위한 정책적 노력을 다해야 한다”고 덧붙였다. 이와 함께 AI데이터센터진흥특별법 논의에 정부가 적극 참여하며, 단기적으로는 국내외 전문 기업들이 운영하는 고밀도 코로케이션 상면 활용 등을 통해 GPU 를 배치하는 전략도 제시됐다. 김 의원은 “AI 진짜 인프라는 반도체만이 아니라 전력, 냉각, 네트워크, 그리고 AI-Ready 상면까지 포함된다”며 “GPU 구축에 필요한 기반을 튼튼히 다져야 향후 정부의 대규모 마중물과 민간의 투자가 투입될 AI 인프라 투자가 더욱 큰 성과로 이어질 수 있다”고 말했다.

2025.10.13 08:50박수형

AI 확산에 '네오클라우드' 부상…GPU 인프라 지형 변화

생성형 인공지능(AI) 확산으로 그래픽처리장치(GPU) 연산 수요가 급증하면서 AI 전용 클라우드 서비스를 내세운 '네오클라우드' 기업들이 주목받고 있다. 기존 클라우드보다 빠른 GPU 공급과 합리적인 가격을 앞세워 AI 기업들의 선택지를 넓히고 있다는 평가다. 12일 업계에 따르면 코어위브·람다랩스·크루소·네비우스 등이 대표적인 네오클라우드 기업으로 각광받고 있다. 이들은 엔비디아 GPU를 기반으로 기업 고객에게 맞춤형 연산 자원을 제공 중이다. 네오클라우드는 AI 모델 학습과 추론을 위한 고성능 GPU를 서비스형(GPUaaS)으로 제공하는 사업자들을 일컫는다. 최근 AI 시장 성장세에 따라 GPU 수급이 어려워지자 일부 기업들은 기존 대형 클라우드 대신 네오클라우드를 이용해 연산 자원을 확보하고 있다. 웹호스팅 리뷰 업체 호스팅어드바이스 의료·금융·자동차 등 산업 분야를 대상으로 실시한 설문조사에 따르면, 응답 기업 10곳 중 9곳이 네오클라우드를 사용 중이거나 도입을 검토 중인 것으로 나타났다. 특히 코어위브는 네오클라우드 시장의 대표 주자로 꼽힌다. 엔비디아의 투자를 받으며 성장한 이 회사는 오픈AI·마이크로소프트(MS)·메타 등과 대형 계약을 체결했고 최근에는 약 12조원 규모로 비트코인 채굴 기업 코어사이언티픽을 인수해 데이터센터 전력 인프라를 확보했다. 가격 경쟁력도 눈길을 끈다. 업타임인스티튜트 조사에 따르면 북미 기준 엔비디아 H100 GPU를 빌릴 때 네오클라우드의 평균 비용은 약 34달러로, 아마존웹서비스(AWS)·MS·구글 등 하이퍼스케일러의 3분의 1 수준이다. AI 전용 인프라에 집중해 불필요한 구성 요소를 줄인 덕분이다. 최근에는 금융권 자금도 몰리고 있다. 블랙스톤·칼라일 등 미국 주요 금융사는 코어위브와 람다, 크루소 등 네오클라우드 기업이 보유한 GPU를 담보로 약 16조 원 규모 대출을 실행했다. 이들 기업은 확보한 자금으로 GPU와 데이터센터를 추가 매입하며 인프라를 확장하고 있다. 엔비디아 역시 네오클라우드와의 협력을 강화하고 있다. 빅테크 기업들의 자체 칩 개발 가능성을 염두에 두고 GPU 판매처를 다변화하기 위한 전략으로, 코어위브·네비우스·크루소 등 AI 전용 클라우드 기업에 투자와 기술 지원을 확대하고 있다. 업계는 네오클라우드를 하이퍼스케일러의 경쟁자이자 보완자로 보고 있다. MS와 구글은 일부 AI 연산을 네오클라우드에서 처리하고 있으며 수요 급증에 대응하기 위한 협력 구조를 형성 중이다. 시장조사기관 ABI리서치는 이같은 네오클라우드와 GPUaaS 시장 규모가 2030년까지 약 90조원에 이를 것으로 전망했다. 보고서는 "AI 인프라 구축 수요가 늘면서 네오클라우드가 하이퍼스케일러와 함께 시장의 한 축으로 자리 잡을 가능성이 높다"고 분석했다. 전문가들은 네오클라우드의 확산이 일시적 현상이라기보다 GPU 인프라 구조 변화의 일부라고 평가한다. 다만 일부 기업의 부채 의존도나 GPU 공급 편중 문제는 향후 리스크 요인으로 꼽힌다. 업계 관계자는 "AI 모델 학습과 서비스 고도화가 이어지는 한 GPU 수요는 지속적으로 늘어날 것"이라며 "네오클라우드는 특정 영역에서 중요한 역할을 맡겠지만, 장기적으로는 비용 안정성과 지속 가능성이 관건이 될 것"이라고 말했다.

2025.10.12 13:24한정호

美, UAE에 엔비디아 반도체 수출 승인…양국 AI 협력 가속화

엔비디아가 아랍에미리트(UAE)로 고성능 GPU를 수출할 수 있게 됐다. 미국·아랍에미리트간 AI 인프라 구축을 위한 동맹 관계가 강화된 데 따른 수혜로 풀이된다. 블룸버그통신은 미국 상무부가 지난 5월 타결된 미국·아랍에미리트 양자 AI 협정에 따라 엔비디아에 AI 반도체 수출 허가증을 발급했다고 9일(현지시간) 보도했다. 블룸버그는 사안에 정통한 소식통을 인용해 "당국은 고객사 명시를 거부했으나, 승인된 수출 건은 오라클을 포함한 미국 기업의 아랍에미리트 현지 투자 프로젝트를 위한 것"이라며 "G42와 같은 아랍에미리트 기업들에 대한 허가는 발급되지 않았다"고 설명했다. 이번 조치는 도날드 트럼프 미국 대통령 취임 이후 걸프 지역에 엔비디아 AI 반도체 판매 허가를 허가한 첫 사례다. 앞서 미국은 지난 5월 아랍에미리트와 수도 아부다비에 5GW(기가와트)급 데이터센터 건설을 위한 협약을 체결한 바 있다. 해당 프로젝트는 오픈AI를 비롯해 오라클, 시스코, 소프트뱅크, G42 등 주요 빅테크 기업들이 함께 참여한다. 아랍에미리트 역시 향후 10년간 미국에 1조4천억 달러에 달하는 거금을 투자하겠다는 계획을 세우는 등, 미국과의 AI 인프라 투자 협력을 강화하고 있다. 한편 엔디비아의 아랍에미리트향 GPU 수출 허가증이 발급되는 시기는 아직 불분명한 것으로 알려졌다. 블룸버그는 "허가 시기는 아랍에미리트의 구체적인 투자 계획이 어떻게 전개되는 지에 따라 달라질 것"이라고 밝혔다.

2025.10.10 14:46장경윤

팬서레이크 Xe3 GPU, 게임 성능 가속 'XeSS-MFG' 기술 투입

[애리조나(미국)=권봉석 기자] 29일 오후(이하 미국 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장. 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우가 10월 말 출시를 앞둔 일인칭시점슈팅(FPS) 게임인 '페인킬러 리바이벌' 시연을 시작했다. "이것은 게임 개발사인 안샤 스튜디오와 협력해 처음 공개하는 시연이다. 팬서레이크로 구동되고 있으며 동기화 기능(V싱크)을 끈 1920×1080 해상도에서 초당 220프레임을 소화한다. 오늘 공개할 신기술을 활용해 이런 성능을 구현했다." 이날 톰 피터슨 펠로우는 팬서레이크 내장 GPU 'Xe3'에서 구동되는 AI 기반 프레임 생성 기술 'XeSS-MFG'와 지능형 전력 제어 시스템 등을 현지에 참여한 기자단에 공개했다. Xe3, 전세대 대비 프레임 생성 지연시간 단축 팬서레이크 내장 GPU인 Xe3는 코어 울트라 200V(루나레이크) 내장 'Xe2' GPU 대비 L1 캐시 33% 확대, L2 캐시 16MB 증설 등으로 클록당 명령어 처리(IPC) 성능을 크게 높였다(관련기사 참조). 톰 피터슨 펠로우는 "그래픽 고정함수 유닛 강화와 벡터 엔진 스레드 확장, 개선된 레이 트레이싱 유닛 덕분에 마이크로 벤치마크에서 최대 50% 이상 성능 향상을 달성했다"고 설명했다. 한 프레임을 구성하는 데 필요한 시간은 전 세대(45ms) 절반 수준인 22ms까지 줄어들었다. 렌더 프리패스 단계에서 2.93ms, L2 캐시 확대로 0.39ms, 레지스터 활용 최적화로 1.63ms를 아껴 같은 시간에 더 많은 프레임을 처리하게 됐다. 게임 체감 성능 최대 네 배 강화 'XeSS-MFG' 공개 2020년 이후 출시된 최신 GPU는 상대적으로 처리 시간이 더 짧은 저해상도 화면을 먼저 그린 다음 AI로 해상도를 높이며 초당 프레임 수를 크게 높인다. 인텔은 이 기술에 XeSS(Xe 슈퍼샘플링)라는 이름을 붙였다. 톰 피터슨 펠로우는 "예전에는 모든 프레임을 GPU가 일일이 그려야 했지만 이제는 AI가 저해상도 이미지를 업스케일(SR)하고, AI 프레임 생성(FG)으로 초당 프레임을 높인다"고 설명했다. 팬서레이크 내장 Xe3는 한 단계 나아가 신기능인 XeSS-MFG(다프레임 생성) 기능을 지원한다. 톰 피터슨 펠로우는 "기준 프레임 두 개로 최대 세 개 중간 프레임을 AI로 생성하며 체감상 최대 4배 성능 향상 효과가 있다"고 밝혔다. "게임 로딩 시간 단축·끊김 현상 완화 기술 제공" 게임을 처음 실행할 때 로딩 단계에서 그래픽 데이터를 재구성하는 과정을 겪는다. 데스크톱 PC 대비 성능이 제한된 노트북에서는 실제 게임 실행까지 많은 시간이 걸린다. 톰 피터슨 펠로우는 "인텔이 클라우드를 활용해 필요한 데이터를 미리 구성한 다음 게임을 처음 실행하면 이 데이터를 다운로드해 지연 시간을 줄이는 '사전 컴파일 셰이더'를 제공할 것"이라고 밝혔다. 이어 "CPU와 GPU 부하를 실시간으로 감지해 필요할 경우 GPU에 더 많은 전력을 공급하는 기술인 '인텔리전트 바이어스 컨트롤' v3를 이용해 화면 끊김 현상을 최소화할 예정"이라고 설명했다.

2025.10.09 23:37권봉석

인텔 "팬서레이크 내장 GPU, AI 성능 2배↑"

[애리조나(미국)=권봉석 기자] 인텔은 2011년 '빌트인 비주얼'을 내세우며 프로세서 안에 내장 그래픽칩셋을 탑재하기 시작했다. 이후 2018년부터 자체 개발한 Xe GPU 아키텍처를 이용해 내장 그래픽칩셋과 그래픽카드 등을 시장에 공급하고 있다. 지난 해 코어 울트라 200V(루나레이크)에 탑재된 Xe2 코어 기반 GPU는 기본 성능 강화로 1080p 해상도 게임 성능을 강화했다. 코어 울트라 200V의 AI 연산 성능은 GPU 67 TOPS(1초당 1조 번 연산), 신경망처리장치(NPU)는 48 TOPS에 달한다. 인텔 차세대 모바일(노트북)용 프로세서 '팬서레이크'는 GPU AI 연산 성능을 두 배 가까운 120 TOPS, NPU 연산 성능은 소폭 상승한 50 TOPS로 높였다. 여기에 CPU(10 TOPS)를 더하면 최대 연산 성능은 180 TOPS까지 향상된다. 29일 오전(이하 현지시간) 미국 애리조나 주 '인텔 테크투어 US' 행사장에서 톰 피터슨 인텔 아키텍처, 그래픽·소프트웨어 펠로우는 "GPU와 NPU 강화는 AI와 에이전틱 워크로드(작업)가 등장하며 변화하는 PC 요구사항을 충족하기 위한 것"이라고 설명했다. Xe3 코어 4개/6개 묶음으로 이원화... 최대 12코어 구성 가능 팬서레이크에 탑재될 내장 GPU는 Xe3 코어 기반이며 코드명 '배틀메이지', '아크 B시리즈'라는 이름으로 출시된다. 코어 울트라 200V에 탑재된 GPU는 Xe2 코어 4개와 레이트레이싱 유닛 4개를 한데 묶은 '렌더 슬라이스(조각)' 2개를 이용해 총 8코어로 구성됐다. 팬서레이크의 렌더 슬라이스는 ▲ Xe3 코어·레이트레이싱 유닛 4개 구성 ▲ Xe3 코어·레이트레이싱 유닛 6개 구성 등 총 두 개로 구성된다. 전자는 8코어 CPU(4P+4E)/16코어 CPU(4P+8E/LP 4E)와 결합되며 4코어 렌더 슬라이스 하나만 이용한다. 후자는 16코어 CPU(4P+8E/LP 4E)와 짝을 이루며 6코어 렌더 슬라이스 2개를 활용해 12코어 GPU를 만든다. Xe3, 처리 가능 데이터에 FP8 추가 Xe3 코어는 512비트 벡터 엔진 8개, AI 연산에 필요한 XMX(Xe 행렬 확장) 엔진 8개로 전세대 Xe3 코어와 차이가 없다. 그러나 데이터를 임시 저장하는 캐시를 33% 늘려 지연 시간과 성능을 향상시켰다. XMX 엔진은 INT2(정수 2비트), INT4, INT8, FP16(부동소수점 16비트), BF16, TF32 등 자료형을 처리할 수 있다. 여기에 정밀도에는 큰 차이가 없지만 연산 속도가 더 빠르고 배터리 소모가 적은 FP8(부동소수점 8비트) 양자화를 더했다. AI 연산 성능은 INT8 자료형 기준 최대 120 TOPS다. 전 세대인 코어 울트라 200V 프로세서 성능을 GPU 하나만으로 감당하게 됐다. 전세대 대비 GPU 성능 최대 50% 향상 인텔은 Xe2/Xe3 대상으로 실시한 자체 벤치마크 결과를 토대로 Xe3 GPU의 성능이 전 세대 대비 평균 50% 향상됐고 깊이 쓰기(Depth write) 벤치마크에서는 7배 이상 성능이 높아졌다고 설명했다. 톰 피터슨 펠로우는 "Xe3 GPU의 최대 성능은 루나레이크 대비 50% 높아졌고 애로우레이크H 대비 같은 전력에서 40% 더 높은 성능을 낸다"며 "게임용 고성능 노트북뿐만 아니라 휴대성을 강조한 소형·경량 노트북에서도 GPU 경쟁력을 확보했다"고 설명했다. 인텔은 마이크로소프트와 협력해 윈도 운영체제 그래픽 라이브러리인 다이렉트X 12에 Xe3 GPU의 XMX 연산 능력을 활용하는 '협동 벡터'(Cooperative Vectors)도 도입했다. 행사에서는 이를 활용해 2D 이미지로 3차원 입체를 만드는 'NeRF' 기술도 시연했다. NPU 5는 성능보다 작동 효율 향상에 방점 NPU는 소음 감소나 배경 흐림 등 최대한 전력을 적게 소모하며 상시 구동돼야 하는 작업에 최적화됐다. 팬서레이크에 탑재된 NPU 5도 전 세대 'NPU 4' 대비 연산 효율을 높이는 한편 인텔 18A 공정 적용으로 작동 효율을 높였다. NPU 4는 AI 처리에서 주로 쓰이는 MAC(Multiply–accumulate, 곱셈 가산) 연산과 DSP 처리를 수행하는 뉴럴 컴퓨트 엔진을 6개 탑재해 48 TOPS급 성능을 구현했다. 반면 NPU 5는 뉴럴 컴퓨트 엔진 수를 줄이는 대신 MAC를 처리하는 'MAC 어레이' 크기를 2배로 늘렸다. 톰 피터슨 펠로우는 "NPU 5는 FP16 대비 에너지 소모를 50% 줄이면서 유사한 품질을 얻을 수 있는 FP8(부동소수점 8비트)를 지원해 스테이블 디퓨전 등 생성 AI 작업에 필요한 전력량을 108J(줄)에서 30% 낮은 70J(줄)까지 끌어내렸다"고 설명했다. Xe3 4코어 GPU는 인텔 3 공정서 생산 예정 인텔은 노트북용 프로세서에 탑재되는 대부분의 내장·외장 GPU를 대부분 인텔 파운드리가 아닌 대만 TSMC에서 생산했다. 그러나 팬서레이크부터는 GPU 타일 중 Xe3 4코어 내장 제품을 극자외선(EUV) 기반 자체 공정인 인텔 3(Intel 3)에서 생산 예정이다. 팬서레이크는 레이트레이싱과 그래픽 연산에 필요한 각종 요소를 떼어내 GPU 타일로 분리했다. CPU는 그대로 두고 GPU를 더 강력한 제품으로 교체하는 것도 얼마든지 가능하다. 인텔은 이를 위해 더 강력한 GPU인 'Xe3P'도 준비중이다. 톰 피터슨 펠로우는 "CPU(경량 AI 모델), NPU(저전력 상시구동 윈도11 코파일럿+), GPU(대형언어모델 / 생성 AI) 등 3개 요소를 균형있게 강화해 AI 처리를 최적화하는 것이 인텔 목표"라고 강조했다.

2025.10.09 22:45권봉석

젠슨 황 "오픈AI-AMD 협력은 독창적이고 영리한 전략"

젠슨 황 엔비디아 CEO가 최근 오픈AI와 AMD가 체결한 대규모 파트너십에 대해 "기발하지만 놀라운 결정"이라고 평가했다. 오픈AI는 지난 6일(이하 현지시간) AMD와 향후 다년간 수 조원 규모의 GPU 공급 계약을 체결하는 한편 도입 성과에 따라 AMD 보통주 최대 1억 6천만 주를 매입할 수 있는 권리(워런트)를 확보했다. 양사의 계약은 AI 반도체 시장에서 엔비디아의 절대적인 우위를 위협하는 시도로 평가된다. AMD는 그동안 엔비디아에 뒤처진 AI 칩 경쟁에서 반전을 노려왔으며, 주요 클라우드 사업자들도 자체 칩 개발로 경쟁 구도를 강화하고 있다. 젠슨 황 CEO는 8일 CNBC 인터뷰에서 "AMD의 차세대 제품은 아직 완성되기 이전의 제품이지만 이런 상황에서 회사 지분의 10%를 내줬다는 것이 놀랍다"며 "양사의 발상은 독창적이고 한편으로 영리하다"고 평가했다. 젠슨 황 CEO는 인터뷰에서 "오픈AI 관련 투자에서 남는 유일한 아쉬움은 더 많은 금액을 투자하지 못했던 것"이라고 말했다. 젠슨 황 CEO는 이어 지난 9월 말 오픈AI에 향후 10년간 최대 1천억 달러(약 137조원)를 투자하기로 한 계약을 예로 들며 "엔비디아의 투자는 오픈AI에 직접 판매할 수 있는 완전히 다른 방식"이라고 설명했다. 오픈AI는 엔비디아 GPU를 활용한 전력소모 10GW(기가와트) 규모 시스템을 구축할 예정이다. 젠슨 황 CEO는 "이는 최대 500만개의 GPU를 활용하는 수준이며 오픈AI가 GPU 구매를 위한 자금을 유상증자나 융자로 조달할 것"이라고 말했다. 한편 그는 이날 일론 머스크의 인공지능 스타트업 xAI의 자금 조달에도 엔비디아가 참여해 20억 달러(약 2조 8천434억원)를 투자할 것이라고 확인했다. 젠슨 황 CEO는 "이번 기회를 매우 기대하고 있으며 일론 머스크의 사업에는 대부분 동참하고 싶다"고 밝혔다.

2025.10.09 09:44권봉석

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

[포토] 젠슨 황·이재용·정의선, 강남서 '치맥 회동'

장재훈 현대차 부회장 "수소, 에너지전환 핵심 축…초격차로 대비"

"입장료 이상 득템"...'컬리뷰티페스타' 첫날 가보니

"케데헌 한복·오징어게임 팽이치기 체험하러 오세요"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.