• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'그래픽 처리 장치'통합검색 결과 입니다. (29건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

NHN클라우드, GPU로 호남 공략…중소벤처 AI 도입·사업화 가속

NHN클라우드가 호남 지역 손잡고 인공지능(AI) 생태계 구축에 나섰다. NHN클라우드는 중소벤처기업진흥공단, 인공지능산학연협회와 3자 간 업무협약을 체결했다고 7일 밝혔다. 협약은 호남 지역 AI 중소벤처기업 성장 지원과 제조 현장 AX 확산을 목표로 뒀다. 이번 협약은 정책과 인프라 교육을 결합한 통합 지원 모델 구축에 초점 맞춰졌다. 정부의 5극3특 전략과 광주 전남 행정통합 기조에 맞춰 지역 AI 산업 생태계를 조성하려는 움직임이다. 중소벤처기업진흥공단은 정책자금 투융자와 수출 지원 창업 지원을 통해 AI 도입 기업의 사업화를 지원한다. 기업 성장 단계별 맞춤 프로그램과 컨설팅으로 경쟁력 강화도 뒷받침한다. AI산학연협회는 지원 대상 기업을 발굴하고 기관 간 연계를 담당한다. 산업 현장 수요를 전달하고 정책과 인프라가 효과적으로 적용될 수 있도록 조율하는 역할을 맡는다. NHN클라우드는 클라우드 크레딧과 보안 기술 개발 지원을 제공한다. 그래픽처리장치(GPU) 기반 AI 인프라를 통해 기업이 초기 투자 부담 없이 AI 개발과 서비스를 수행할 수 있도록 돕는다. 조한교 중소벤처기업진흥공단 인력성장이사는 "이번 협약을 통해 AI 기술 도입을 고민하는 중소벤처기업이 자금 교육 인프라를 동시에 지원받을 수 있는 기반이 마련됐다"며 "앞으로도 AI 도입 기업 현장의 애로를 해소하고 중소벤처기업이 성장해 나갈 수 있도록 적극 지원하겠다"고 밝혔다.

2026.04.07 16:58김미정 기자

정부, 국가 AI 프로젝트에 GPU 3000장 투입…52개 과제 선정

정부가 범부처 인공지능(AI) 프로젝트에 그래픽처리장치(GPU) 3천장을 공급한다. 과학기술정보통신부는 1일 제6회 과학기술관계장관회의를 서면 개최해 '범국가적 AI 혁신을 위한 국가 AI 프로젝트 선정안'을 심의 의결했다. 총 28개 부처에서 121개 과제가 접수됐고 평가를 거쳐 25개 부처 52개 과제가 최종 선정됐다. 이번 프로젝트는 정부가 확보한 그래픽처리장치(GPU) 자원을 각 부처 사업과 연계해 지원하는 구조다. 정부는 확보한 GPU 1만장 중 약 3000장을 이번 프로젝트에 배분한다. 선정 기준은 국가 전략적 중요성과 기술·사회적 파급 효과, 정부 주도 필요성이다. 정부는 전문가 평가와 심사위원회를 거쳐 우선순위를 정했으며 과제별 인터뷰를 통해 GPU 배분 규모를 조정했다고 발표했다. 주요 과제로는 소프트웨어 정의 차량(SDV) 전환 기반 AI 미래차 자율주행 모델 고도화, 산업 특화 파운데이션 모델 개발, AI 스타트업 기술 상용화, 한국형 기상 기후 AI 모델, AI 기본의료, AI 융합콘텐츠, 북극항로 예측 기술 등이다. 정부는 과제 착수 시점에 맞춰 이달부터 GPU를 순차 배분할 계획이다. 사용이 늦어지는 자원은 별도 포털을 통해 산학연 단기 수요에 재배분해 활용도를 높인다. GPU 사용 현황을 매월 점검해 이용률이 낮거나 목적 외 사용이 발생하면 회수 후 재배분할 방침이다. 이를 통해 자원 관리 효율성을 높이겠다는 의도다. 배경훈 부총리 겸 과학기술정보통신부 장관은 "정부 마중물 투자를 바탕으로 구축하는 AI 고속도로의 토대 위에서 각 부처가 주도하는 범국가적 AI 혁신이 생길 것"이라며 "민관 AI 수요를 지속적으로 파악해 정부 GPU 자원이 적재적소에 배분될 수 있도록 총력을 다하겠다"고 밝혔다.

2026.04.01 23:37김미정 기자

"비용 10% 미만·유연한 조건"… 정부 GPU 파격 지원에 AI 업계 환호

인공지능(AI) 연구개발 수요 확대 속 정부의 산학연 대상 그래픽처리장치(GPU) 지원 정책이 본격화되자 업계에서는 긍정적인 반응을 보이고 있다. 16일 과학기술정보통신부가 민간 GPU 임차와 정부 GPU 추가 배분을 병행하는 방식으로 산학연에 GPU 자원을 확대 지원하기로 하자 업계는 AI 생태계 조성과 연구 환경 개선 측면에서 의미 있는 정책이라고 평가했다. 임정환 모티프 최고경영자(CEO)는 "산학연에 GPU가 다량 공급된다는 사실 자체는 매우 긍정적으로 본다"며 "대학과 연구기관에서는 GPU 부족 때문에 하고 싶었던 실험이나 연구를 못 하는 경우가 많았는데 이런 기회가 늘어날 수 있다"고 말했다. 이어 "기술 개발은 다양한 곳에 자원이 분산돼 여러 아이디어가 실험될 때 발전하는 측면이 크다"며 "생태계 조성 관점에서도 의미 있는 정책 방향"이라고 평가했다. 김동환 포티투마루 대표는 "자부담금도 민간 클라우드 서비스 제공사(CSP) 대비 10%도 안 되는 저렴한 구조이고 특히 학계를 무상으로 지원하는 것은 정말 잘한 일"이라고 평가했다. 이어 지원 단서 조항은 자유 공모에 가까워 유연하게 접근할 수 있다는 점도 장점으로 꼽았다. 특히 이번 지원 사업은 과거 GPU 지원 사업 한계로 지적된 부분을 적극적으로 극복했다는 점에서도 호평을 받고 있다. 한 업계 관계자는 "지원 기간이 4개월로 확보돼 1개 프로젝트를 가지고 몇 가지 시도를 해보면서 제대로 한 번 돌려볼 수 있는 여유가 생겼다"며 "전체적으로 현장의 목소리를 많이 듣고 고민을 상당히 많이 해서 과제를 기획한 것 같다"고 말했다. 그동안 제기됐던 쪼개기식 단기 지원 등 기존 사업의 문제점들을 상당 부분 해소했다는 평가다. 업계에서는 이번 정책이 단순한 자원 공급을 넘어 AI 산업 생태계 확장으로 이어질 수 있다는 기대도 나온다. 한 AI 기업 관계자는 "정부가 AI 컴퓨팅 인프라를 확충하려는 방향성 자체는 산업 발전을 위해 필요하다"며 "특히 스타트업이나 연구기관 입장에서는 GPU 확보가 가장 큰 장벽 중 하나이기 때문에 일정 부분 도움이 될 것"이라고 말했다. 다만 실제 현장에서 체감 효과를 극대화하기 위해서는 앞으로도 세심한 지원 조건과 운영 방식이 중요하다는 의견도 있다. 다른 AI 기업 대표는 "정부 지원 자체는 환영하지만 과거 사례를 보면 지원을 받는 대신 학습 데이터 공개나 결과물 공개 같은 조건이 붙는 경우가 있었다"며 "이런 조건이 과도하면 기업 입장에서는 참여가 부담스러울 수 있다"고 지적했다. 또 다른 관계자 역시 GPU 사용 기간과 운영 방식의 중요성을 거듭 당부했다. 그는 "GPU를 활용하려면 데이터 업로드와 학습 환경 구축 등에 시간이 걸리는데 지원 기간이 짧거나 자원이 쪼개져 제공되면 오히려 활용이 어려울 수 있다"며 "실제 개발과 연구에 충분히 사용할 수 있는 환경을 지속적으로 만들어가는 것이 중요하다"고 말했다. 정부는 이번 GPU 임차 사업과 추가 GPU 배분을 통해 산학연의 AI 연구개발 환경을 개선하고 AI 컴퓨팅 인프라 기반을 확대한다는 계획이다. 업계는 이러한 정책 방향에는 공감하면서도 실제 연구와 산업 현장에서 안정적이고 지속적인 지원에 대한 필요성도 강조했다. 박정호 뉴엔AI 전무(CTO)는"부족한 연상 능력을 확보 할 수 있어 반가운 소식"이라며 "다만 단순히 GPU만 지원 하기 보다는 AI옵스같은 통화 운영 환경으로 지원해 주면 보다 좋은 성과를 기대할 수 있을 것"이라고 조언했다. 김동환 대표는 "AI 기술이 성장하기 위해선 단기 지원뿐 아니라 장기적인 인프라 구축 전략이 병행돼야 국내 AI 기업과 연구기관의 경쟁력을 높일 수 있을 것"이라며 "정부가 지속적으로 GPU 인프라를 확충하고 안정적인 활용 환경을 마련하는 것이 중요하다"고 강조했다.

2026.03.16 18:52남혁우 기자

과기정통부, GPU 2천 장 추가 지원… "산·학·연 인프라 가속화"

과학기술정보통신부가 국내 산업계와 학계, 연구계 인공지능(AI) 연구개발 역량 강화를 위해 그래픽처리장치(GPU)를 추가로 지원한다. 과학기술정보통신부는 GPU 임차 사업 공급 클라우드 기업(CSP) 공모와 함께 정부 GPU 약 2천장 이상의 추가 활용을 위한 산업계 사용자 모집 공모를 시작한다고 16일 밝혔다. 정부는 AI 경쟁력과 기술 주권 확보를 위해 GPU 자원을 핵심 전략 자산으로 보고 'AI 고속도로 구축'을 주요 국정과제로 추진하고 있다. 이에 2025년 추가경정예산을 통해 첨단 GPU 1만3천장을 확보했으며, 올해도 약 2조8백억원 규모의 GPU 확보 사업을 추진 중이다. 정부는 GPU 확보와 구축에 시간이 필요한 점을 고려해 민간 클라우드 기업이 보유한 GPU 자원을 활용하는 임차 방식 지원도 병행하기로 했다. 이를 통해 산학연 연구기관과 기업이 단기간에도 인공지능 개발에 필요한 연산 자원을 활용할 수 있도록 한다는 계획이다. GPU 임차 사업은 고성능컴퓨팅지원사업과 AI연구용컴퓨팅지원프로젝트 두 개 사업으로 구성된다. 두 사업 모두 국내에서 GPU 서비스를 제공할 수 있는 클라우드 기업을 대상으로 공급 사업자를 선정한다. 먼저 고성능컴퓨팅지원사업은 3월16일부터 4월16일까지 공모가 진행된다. 산업계에 약 1천장 규모, 정확히는 1천60장 이상의 GPU를 공급할 사업자를 선정할 예정이다. 중소기업과 스타트업 등 산업계가 소규모 AI 컴퓨팅 자원을 효율적으로 사용할 수 있도록 서버 2대 이하, GPU 단위 형태로 유연하게 자원을 제공할 수 있는 운영 역량을 평가한다. 선정된 공급 기업은 AI 학습에 최적화된 GPU 기반 고성능 컴퓨팅 환경과 개발 환경을 제공하게 된다. AI연구용컴퓨팅지원프로젝트 사업은 학계와 연구기관을 대상으로 진행된다. 3월16일부터 4월6일까지 공모가 진행되며 약 960장 이상의 GPU를 제공할 클라우드 사업자를 선정한다. 연구용 대규모 연산 자원 제공 능력과 연구개발 환경 지원 역량 등을 종합적으로 평가해 공급사를 결정할 예정이다. 선정된 사업자는 거대언어모델 등 초거대 인공지능 연구 개발에 필요한 대규모 컴퓨팅 자원과 연구 환경을 지원하게 된다. 정부가 보유한 GPU 자원도 추가로 산업계에 공급된다. 과기정통부는 2025년 추가경정예산으로 확보한 GPU 가운데 추가 활용이 가능한 약 2천장 이상을 산업계에 배분하기 위한 '첨단 GPU 활용 지원 사업' 2026년 2차 사용자 공모도 함께 추진한다. 이번 사용자 공모는 중소기업과 스타트업을 중심으로 단기 수요에 대응하기 위한 것이다. 신청 기간은 3월16일부터 3월30일까지이며, 평가 절차를 거쳐 4월 초부터 GPU 자원을 공급할 계획이다. 사용 기간은 4개월 이내 단기 활용 중심으로 운영된다. 정부는 이번 지원을 통해 국내 산학연이 겪고 있는 대규모 연산 자원 부족 문제를 완화하고 인공지능 학습과 추론 기반 서비스 및 모델 개발을 촉진할 수 있을 것으로 기대하고 있다. 최동원 과기정통부 인공지능인프라정책관은 "AI 컴퓨팅 인프라 역량은 국가 인공지능 경쟁력을 좌우하는 핵심 요소"라며 "민간과 정부 GPU 자원을 동시에 활용해 국내 AI 컴퓨팅 인프라 확충과 산업 경쟁력 강화를 적극 지원하겠다"고 말했다.

2026.03.16 16:29남혁우 기자

과기정통부, 2조 투입해 'AI 고속도로' 깐다…AI G3 행보 박차

대한민국이 '인공지능(AI) 3대 강국'으로 도약하기 위한 핵심 인프라인 'AI 고속도로 구축' 사업이 본격적인 닻을 올렸다. 과학기술정보통신부는 국내 AI 생태계 활성화를 이끌 첨단 그래픽처리장치(GPU)를 확보하고 구축·운영할 민간 클라우드 서비스 제공사(CSP)를 공모한다고 13일 밝혔다. AI 시대 두뇌로 불리는 GPU는 방대한 데이터를 실시간으로 학습하고 추론하는 데 필수적인 연산 자원이다. 최근 초거대 AI 모델의 고도화로 GPU는 단순 하드웨어를 넘어 국가의 기술 주권을 결정짓는 핵심 전략 자산으로 부상했다. 하지만 천문학적인 도입 비용으로 인해 민간 기업이 자체적으로 대규모 투자를 단행하기에는 부담이 컸던 것이 사실이다. 이에 정부는 과감한 마중물 투자를 단행한다. 지난해 추가경정예산 1.4조 원을 투입해 첨단 GPU 1.3만 장을 확보한 데 이어, 올해는 2.08조 원 규모의 대규모 투자를 통해 민간의 AI 도전 문턱을 획기적으로 낮출 계획이다. 이번 공모는 국내에서 클라우드 기반 GPU 서비스 제공 및 운영이 가능한 사업자를 대상으로 4월 13일 오후 3시까지 진행된다. 참여를 희망하는 기업은 데이터센터 상면 확보는 물론, 구체적인 GPU 조달·구축 계획과 향후 서비스 운영 방안을 제시해야 한다. 특히 과기정통부는 차세대 GPU 출시 및 메모리 가격 상승 등 불확실한 시장 상황 속에서도 최신 고성능 인프라를 안정적으로 제공할 수 있는 역량 있는 사업자를 선정할 방침이다. 평가 항목에는 ▲투입 예산 대비 높은 성능 목표 ▲대규모 클러스터링 구축 ▲최신 기종 GPU(블랙웰급 이상, 베라루빈 등 제안 시 우대) 공급 계획 ▲정부 활용 자원 비중 ▲보안성 및 안정성 등이 포함된다. 정부는 이번 사업을 통해 확보한 첨단 GPU 자원을 국내 산·학·연 AI 개발자 및 연구진에게 안정적으로 공급해 혁신적인 AI 연구개발을 지원할 계획이다. 공모 관련 세부 사항을 안내하는 사업설명회는 오는 3월 20일 오후 2시 포스코타워 역삼(4층 이벤트홀)에서 열린다. 배경훈 과기정통부 장관은 “작년 추경을 통해 확보한 정부 GPU는 현장의 뜨거운 반응과 함께 3월 초부터 본격적으로 산·학·연에 공급되고 있다”며, “첨단 GPU를 추가로 확보해 더 많은 기업과 연구자들이 좋은 아이디어를 AI로 구현해 볼 수 있도록 지원하고, 더 많은 팀이 도전할 수 있도록 정부가 함께 뛰겠다”고 강조했다.

2026.03.12 17:34남혁우 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

[SW키트] 구글, '파이토치·TPU' 길 연다…엔비디아 '쿠다' 장벽 깨지나

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 구글·메타가 인공지능(AI) 개발자 표준 도구인 '파이토치'를 구글클라우드의 텐서처리장치(TPU)에서도 원활히 구동할 수 있도록 만드는 전략을 추진하면서, 엔비디아의 그래픽처리장치(GPU)·쿠다(CUDA) 중심 구조가 흔들릴 수 있다는 전망이 나오고 있다. 18일 외신에 따르면 구글클라우드는 메타와 협력해 파이토치를 구글 TPU에서 실행할 수 있는 기술 개발에 착수한 것으로 전해졌다. 업계는 엔비디아 GPU 인프라에 묶여 있던 AI 개발 생태계를 보다 개방형으로 전환하고, 동시에 구글클라우드의 자체 칩 활용도를 높이기 위한 전략적 행보로 해석하고 있다. 파이토치는 AI 모델 개발과 학습에 사용되는 소프트웨어(SW) 도구다. 전 세계 AI 개발자들 사이에서 사실상 표준 도구로 자리 잡았으며, AI 연구와 서비스 개발 현장에서 가장 널리 활용되는 프레임워크로 평가받고 있다. 그동안 파이토치는 GPU 환경에서 최고 성능을 내도록 최적화됐다. 특히 GPU 연산 과정에서 엔비디아의 병렬 컴퓨팅 플랫폼인 '쿠다'를 거치는 구조가 고착되면서, 업계에서는 자연스럽게 '파이토치·엔비디아'라는 공식이 형성됐다. 개발자 입장에서도 파이토치와 쿠다를 함께 사용하는 것이 가장 쉽고 빠른 선택지였기 때문이다. 이 과정에서 엔비디아는 GPU 하드웨어(HW)와 쿠다 소프트웨어(SW)를 결합한 강력한 생태계를 구축할 수 있었다. 쿠다는 GPU의 성능을 AI 연산에 활용할 수 있도록 돕는 SW로, AI 모델과 GPU를 연결해주는 일종의 다리 역할을 한다. 개발자가 파이토치로 만든 AI 모델을 GPU에서 실행하려면 쿠다를 반드시 거쳐야 하는 구조라서다. GPU가 AI 연산 시장에서 사실상 독점적 지위를 차지해온 만큼, 쿠다 생태계 역시 강한 락인(lock-in) 효과를 만들어 왔다. 반면 구글의 TPU는 파이토치와의 연결성이 상대적으로 떨어졌다. 파이토치 사용자가 TPU를 이용하려면 별도의 개발 도구를 익히거나 추가 설정과 작업을 거쳐야 했고, 이는 TPU 선택의 진입 장벽으로 작용해 왔다. 이번 구글·메타 협력은 단순히 TPU 활용 범위 확장보다는 파이토치 사용자가 TPU를 보다 쉽게 선택할 수 있는 환경을 만드는 데 초점이 맞춰졌다. 파이토치가 TPU에서도 자연스럽게 작동할 경우, 개발자들은 특정 GPU 생태계에 얽매이지 않고 비용, 전력 효율, 칩 공급 상황 등에 따라 인프라를 선택할 수 있다. 이에 엔비디아의 쿠다 중심 락인 효과도 점차 약화될 수 있다는 관측이 나온다. 업계에서는 단기간 내 엔비디아의 AI 인프라 지배력이 흔들리기는 어렵다는 시각이 우세하다. 국내 한 개발자는 "쿠다 중심으로 축적된 개발자 경험과 SW 자산, 방대한 라이브러리 생태계는 여전히 강력하다"며 "실질적인 변화가 나타나기까지는 앞으로 5~6년 이상의 시간이 필요할 것"이라고 내다봤다.

2025.12.19 13:46김미정 기자

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미 기자

중국 AI 강자 딥시크, 엔비디아 블랙웰 밀반입 의혹

중국 인공지능(AI)업체 딥시크가 미국의 대중국 수출 제한을 피하기 위해 제3국을 통해 엔비디아 그래픽처리장치(GPU)를 반입했다는 의혹이 제기됐다. 11일 미국 디인포메이션은 복수 관계자를 인용해 딥시크가 엔비디아 '블랙웰' 아키텍처 기반 GPU 수천 개를 밀반입해 새 AI 모델을 개발 중이라고 단독 보도했다. 그동안 중국 내 여러 AI 기업이 엔비디아 칩 사용이 가능한 해외 지역에서 차세대 모델 실험을 이어온 것으로 알려졌다. 딥시크 역시 동남아 지역에 위치한 중국 외 자본의 데이터센터 기반으로 테스트 환경을 구축해 왔다. 보통 GPU나 서버가 제3국 데이터센터에 설치되면 엔비디아·델·슈퍼마이크로 등 장비 공급사 엔지니어들이 현장을 방문해 수출 통제 규정을 지켰는지 최종 점검한다. 내부 소식통들은 딥시크가 점검을 마친 뒤 서버를 부품 단위로 해체해 중국 본토로 반입해 사용했다고 주장했다. 앞서 도널드 트럼프 미국 대통령은 중국에 대해 구세대 '호퍼' 기반 H200 칩은 반출을 허용했지만, 최신 블랙웰과 차세대 루빈 아키텍처는 허용 대상에 포함되지 않는다고 밝힌 바 있다. 딥시크는 해당 논란에 대해 공식 입장을 내놓지 않고 있다. 엔비디아는 "장비를 설치한 뒤 다시 해체해 몰래 반출한다는 이른바 '유령 데이터센터' 사례는 접수한 바 없다"며 "제보가 들어오면 모두 확인한다"고 밝혔다. 이날 로이터는 "최근 엔비디아가 칩 위치를 추적할 수 있는 소프트웨어(SW) 기능을 새로 개발했다"며 "우회 반입 자체가 크게 제한될 수 있다"고 분석했다.

2025.12.11 10:06김미정 기자

"엔비디아 GPU 있어도 전기세 걱정"…AI 인재 육성 막힌 대학 현실

"국내 대학이 엔비디아 그래픽처리장치(GPU)를 확보하기 시작했습니다. 그러나 사용량이 늘어날수록 매월 수십억원에 달하는 전기료 압박을 겪고 있습니다. 이를 해결할 수 있는 보호 장치가 절실합니다." 연세대 한순구 경제학과 교수는 9일 일 국회 본청에서 열린 과학기술정보방송통신위원회 공청회에서 AI 인재 양성 걸림돌에 대해 이같은 사례를 공유했다. 인재 배출을 위한 인프라 보급 정책이 새로운 문제를 낳고 있다는 설명이다. 한 교수는 GPU 전기값이 부담스럽다는 교내 공대 교수 목소리를 공유했다. 그는 "우리 학교는 매달 몇십억 씩 드는 전기값을 감당하기 어려운 상황으로 보인다"며 "정부가 엔비디아 GPU를 학교에 제공해도 전기세 때문에 마음 놓고 쓸 수 없는 것으로 알고 있다"고 말했다. 학교가 GPU 활용을 위한 내부 결재와 예산 압박으로 장비 사용에 부담을 느낀다는 설명이다. 정부가 AI 인재 양성을 위해 대학에 GPU를 제공하지만, 막상 대학은 전기료로 이를 제대로 돌리지 못하는 실정이다. 앞서 정부는 대학을 비롯한 연구소, 스타트업 등이 고성능 GPU를 활용할 수 있도록 'AI 컴퓨팅 자원 임차 지원' 제도를 운용하기 시작했다. 이 제도는 엔비디아 GPU를 정부가 대량 확보한 뒤 공공·산학연 기관에 클라우드 형태로 제공하는 식이다. 또 GPU 서버 단위·카드 단위 등으로 선택해 임차할 수 있다. 이날 국내 AI 인재 해외 유출은 여전하다는 목소리도 나왔다. 국내 AI 대학원에서도 박사급 인재가 배출되기 시작했지만, 유능한 인재는 해외 빅테크나 연구소로 떠난다는 지적이다. 최재식 김재철AI대학원 교수는 "앞으로 해외로 떠난 AI 인재를 국내로 귀환시키는 '순환형 인재 육성 모델'이 절실하다"고 주장했다. 한순구 교수도 "미국과 중국에 인재를 보내서 기술을 습득시킨 뒤 다시 한국으로 오게 만드는 모델도 만드는 게 좋을 것"이라고 강조했다. 더불어민주당 최형두 의원은 "현재 아시아 최고 수준의 이공계·자연계 졸업생을 한국으로 유치하는 제도를 만들고 있다"며 "이를 위해 영주권·국적 취득 절차 간소화와 장기 연구비자 확대 등을 추진하고 있다"고 설명했다. 이어 "이는 국내 대학·연구기관의 교수·연구인력 부족 문제를 완화하는 효과도 있을 것"이라고 기대했다.

2025.12.09 15:49김미정 기자

샘 알트먼, '고비용 AI' 승부수…지능의 대중화 꿈 잠시 접나

오픈AI가 막대한 컴퓨팅 파워를 앞세운 차세대 인공지능(AI) 서비스 유료 모델 실험에 본격 돌입한다. 22일 비즈니스 인사이더에 따르면 샘 알트만 오픈AI 최고경영자(CEO)는 소셜미디어 X를 통해 새로운 '컴퓨팅 집약적 제품' 출시 계획을 밝혔다. 그는 일부 기능은 유료 구독자인 '프로' 이용자에게 먼저 공개하고 일부 신제품에는 추가 요금을 부과할 것이라고 예고했다. 이번 조치는 AI 인프라를 한계까지 밀어붙이는 기술적 실험의 성격을 띤다. 오픈AI는 현재 모델 비용으로 대규모 컴퓨팅 자원을 투입했을 때 어떤 혁신이 가능한지 확인하겠다는 구상이다. 단기적인 유료화 실험과 별개로 오픈AI의 장기 목표는 분명하다. 지능의 비용을 최대한 공격적으로 낮춰 AI 서비스를 대중화하는 것이다. 이번 발표의 배경에는 업계 전반의 극심한 그래픽처리장치(GPU) 확보 경쟁이 있다. 오픈AI를 비롯한 빅테크 기업들은 AI 모델 고도화를 위해 컴퓨팅 파워 확보에 사활을 걸고 있다. 실제로 일론 머스크의 xAI는 AI 모델 '그록4' 훈련에 20만 개가 넘는 GPU를 사용했다고 밝힌 바 있다. 마크 저커버그 메타 CEO 역시 '연구원 1인당 컴퓨팅 파워'를 경쟁 우위로 삼겠다며 GPU 투자에 공격적으로 나서고 있다. 케빈 웨일 오픈AI 최고제품책임자(CPO)는 "우리가 많은 GPU를 확보할수록 우리 모두는 보다 많은 AI를 사용하게 될 것"이라며 "GPU를 추가로 확보하는 족족 즉시 사용하고 있다"고 말했다.

2025.09.22 17:32조이환 기자

오픈AI, '엔비디아 그늘' 벗어날까…브로드컴 손잡고 AI 반도체 '독립 선언'

오픈AI가 엔비디아 의존도 탈피를 목표로 자체 인공지능(AI) 칩 생태계 구축에 전격 나섰다. 7일 파이낸셜타임스(FT) 등 외신에 따르면 오픈AI는 미국 반도체 기업 브로드컴과 손잡고 내년부터 자체 설계한 AI 칩을 출하한다. 이번 협력을 통해 혹 탄 브로드컴 최고경영자(CEO)가 언급했던 100억 달러(한화 약 13조7천억원) 규모의 '미스터리 고객'이 오픈AI였음이 확인됐다. 이 소식에 브로드컴 주가는 9.4% 급등해 시가총액 1조6천억 달러(한화 약 2천200조원)를 돌파했다. 오픈AI의 행보는 구글, 아마존, 메타 등 빅테크 경쟁사들의 전략을 뒤따르는 것이다. 이들 역시 AI 모델 훈련과 서비스 운영을 위해 맞춤형 반도체 개발에 막대한 투자를 이어오고 있다. 이는 현재 AI 칩 시장을 장악한 엔비디아의 독주 체제에 균열을 일으킬 중대 변수로 꼽힌다. HSBC 등 시장 분석가들은 내년년부터 브로드컴의 맞춤형 칩 사업 성장률이 엔비디아를 넘어설 수 있다고 전망했다. 오픈AI는 개발 중인 차세대 모델 'GPT-5' 등 기하급수적으로 늘어나는 연산 수요를 감당하기 위해 컴퓨팅 파워 확보에 사활을 걸어왔다. 샘 알트먼 CEO는 향후 5개월 내 컴퓨팅 설비를 두 배로 늘리겠다고 공언한 바 있다. 오픈AI는 생산된 칩을 외부에 판매하지 않고 내부 서비스 운영에만 투입할 계획이다. 혹 탄 브로드컴 CEO는 "(오픈AI와의 계약이) 즉각적이고 상당히 큰 수요를 가져왔다"며 "내년부터 해당 고객을 위한 칩을 매우 강력하게 출하할 것"이라고 밝혔다.

2025.09.07 06:00조이환 기자

정부, 'AI 특화 파운데이션 모델' 개발 본격화…다음달까지 공모

정부가 기존 '독자 인공지능(AI) 파운데이션 모델 프로젝트'와 병행해 국가 강점 분야를 겨냥한 '특화 파운데이션 모델' 개발이라는 투트랙 전략으로 글로벌 시장 선점에 나선다. 과학기술정보통신부(과기정통부)는 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다고 5일 밝혔다. 접수는 다음달 13일까지 진행해 평가를 통해 총 2개 팀을 선정한다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 지원 기간은 오는 11월부터 내년 9월까지다. 1단계에 5개월 간 지원한 후 단계평가를 거쳐 2단계 지원 여부를 결정한다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 특정 전문 분야에서 우리나라가 가진 강점을 AI 기술과 결합해 독자적인 특화 모델과 서비스를 확보하는 것이 목표다. 특히 이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다. 정부는 모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침이다. 이 프로젝트에는 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하고 대기업은 주관사가 아닌 참여사로만 함께할 수 있다. 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 평가는 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 이뤄진다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 프로젝트에 사용될 GPU는 엘리스그룹이 공급한다. 수냉식 냉각 기술이 적용된 이동식 모듈형 데이터센터를 통해 제공돼 에너지 효율을 높이고 안정적인 운영을 지원한다. 최종 평가에서 우수한 성과를 낸 과제는 정부가 구매한 GPU를 추가로 지원받아 후속 모델 개발을 이어갈 수 있다. 과기정통부는 오는 15일 서울 엘타워에서 사업설명회를 열어 구체적인 내용을 안내할 계획이다. 배경훈 과학기술정보통신부 장관은 "'독자 AI 파운데이션 모델' 프로젝트와 병행해 글로벌 시장에서 경쟁력을 갖춘 특화 파운데이션 모델 확보하는 것은 국가 AI 생태계 확장 측면에서 굉장히 중요하다"며 "이번 프로젝트를 통해 AI 기술역량과 노하우가 교류되는 산·학·연 협력체계가 한층 강화돼 국내 생태계가 활성화되길 기대한다"고 밝혔다.

2025.09.05 16:01조이환 기자

정부, '특화 AI' 사업자 선정 9월 초 '윤곽'…GPU 지원 2차 기회 열린다

정부가 추진하는 '특화 인공지능(AI)' 모델 육성 사업이 이달 초 본격적인 사업자 선정 절차에 돌입할 전망이다. '독자 AI 파운데이션 모델' 프로젝트에 이은 후속 지원책으로, AI 기술 경쟁의 핵심 자원인 그래픽처리장치(GPU)를 확보할 '제2의 기회'가 열리면서 업계의 이목이 쏠린다. 1일 업계에 따르면 과학기술정보통신부는 이달 초 '(가칭)인공지능 특화모델 프로젝트' 참여팀 공모를 시작할 예정이다. 당초 지난달 말 공고가 예상됐으나 정부의 내부 조율을 거쳐 9월 초로 구체화돼 가는 것으로 전해졌다. 이번 사업은 범용 거대언어모델(LLM)과 달리 특정 산업 분야에 최적화된 AI를 육성하는 데 초점을 맞춘다. 의료, 제조 등 전문 분야에서 즉각적인 성과를 낼 수 있는 특화 모델을 확보해 글로벌 시장을 선점한다는 복안이다. 이를 위해 정부는 엘리스그룹으로부터 추가 확보한 엔비디아의 최신 GPU 'B200' 512장을 지원한다. 앞서 '독자 AI 파운데이션 모델' 프로젝트 사업자로 최종 선정된 ▲네이버클라우드 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 등 5개 팀 외 기업들에게는 기술 개발에 필수적인 컴퓨팅 자원을 확보할 절호의 기회다. 이 때문에 이번 공모는 '독자 AI' 사업에 선정되지 못했거나 막대한 GPU 자원 확보에 어려움을 겪던 AI 기업들의 지원책으로 여겨지며 높은 관심을 받아왔다. 과기정통부 관계자는 이와 관련해 "현재 부처 내에서 공개 시점을 내부 조율하고 있다"며 "9월 초반 정도에는 정해질 듯하다"고 말했다.

2025.09.01 10:32조이환 기자

[현장] 'AI 고속도로' 시동…정부, GPU 3.5~3.7만장 조기 확보 선언

과학기술정보통신부가 인공지능(AI) 경쟁력을 좌우할 첨단 그래픽처리장치(GPU) 확보를 오는 2030년 목표보다 앞당겨 추진한다. AI 골든타임 얼마 안 남은 가운데 정부가 마중물 역할을 맡아 민간이 재투자와 생태계 활성화에 나서야 한다는 점을 강조하며 경고했다. 과기정통부는 29일 카카오 데이터센터 안산에서 정보통신산업진흥원(NIPA), 카카오, NHN클라우드, 네이버클라우드와 함께 'AI 고속도로 협약식 및 간담회'를 열고 GPU 인프라 확대와 데이터센터 규제 개선 방안을 논의했다. 현장에서는 정부와 3개 클라우드사 간 GPU 공급이 이날부터 본격 시작됐다는 점이 확인됐다. 배 장관은 올해 1만3천장, 내년 1만5천장 GPU를 확보하고 슈퍼컴퓨터 도입분까지 합쳐 총 3만5천~3만7천장을 마련하겠다고 말했다. 당초 매년 5천장씩 균등 확보하던 계획을 대폭 앞당긴 셈이다. 그는 미·중 경쟁 구도 속에서 2~3년 내 승부를 봐야 한다는 인식을 밝히며 올해와 내년에 대규모로 확보해 기업과 학계가 조기에 연구개발과 서비스를 만들어낼 수 있도록 하겠다고 했다. 이번 협약식은 단순한 선언을 넘어 GPU 조기 공급의 출발점이라는 의미도 크다. 정부는 클라우드 3사에 1만3천장을 배분하기 시작해 오는 12월에는 중소기업·스타트업을 대상으로도 지원을 연다. 배 장관은 규제 개선의 필요성도 언급했다. 그는 현재 건축법·소방법 등 파편화된 규제로 데이터센터가 종합시설임에도 불구하고 불명확한 부분이 많다며 이를 묶어 해결할 수 있는 특별법 제정을 준비 중이라고 말했다. 특구 지정에 대해서는 지역 안배와 거점 배치로 접근하겠다는 방안이다. 지역별 AX 프로젝트, SPC 사업과 연계해 클러스터형 허브를 구축하는 방안을 고려하고 있는 것이다. 토론회에서 업계는 GPU 사업의 수익성 문제를 제기했다. 업계는 초기 정부 지원이 상수는 아니라는 점을 지적했고 3년 내 자체 경쟁력을 갖추지 못하면 시장 전체가 흔들릴 수 있다며 클라우드사들이 AI 인프라 기반 수익 모델을 마련해야 한다는 의견을 제시했다. 네이버클라우드 김유원 대표는 정부의 GPU 투자가 기업 투자를 자극해 성공적으로 작동했다며 장기적으로는 AI가 산업 전반에 부가가치를 만들어야 진정한 생태계가 형성될 것이라고 평가했다. 김동훈 NHN클라우드 대표는 정부가 인프라 기회를 많이 열어준 것은 감사하다면서도 클라우드 사업자들도 자체 기술 혁신 속도를 높이지 않으면 글로벌 경쟁에서 밀릴 수 있다고 지적했다. 카카오 김세웅 부사장은 GPU 클러스터링 경험을 공유했다. 그는 2천장 이상을 묶어 효율 75~80%까지 끌어올렸고 R&D를 통해 5%만 개선해도 수백장 효과를 낼 수 있다는 점을 강조했다. 배 장관은 "정부가 마중물 역할에 그치지 않고 AI 전환의 토대를 마련하겠다"며 "민간이 수익성과 지속 가능성을 고민해 함께 생태계를 완성해달라"고 당부했다. 이어 "정부와 민간이 함께 한국 AI 시장 생태계를 만들어야 하며 시간이 많지 않은 만큼 반드시 조기 경쟁력을 확보해야 한다"고 강조했다.

2025.08.29 17:23조이환 기자

[현장] 배경훈 장관 "GPU 5만장 확보 서두른다…AI 인프라 시장, 정부가 마중물"

배경훈 과학기술정보통신부 장관이 인공지능(AI) 연구와 산업 혁신을 뒷받침할 컴퓨팅 자원을 대규모로 확충하겠다는 의지를 밝혔다. 오는 2030년까지 추진하던 그래픽처리장치(GPU) 확보 계획을 앞당겨 정부가 마중물 역할을 하고 민간은 재투자와 생태계 활성화에 나서 달라는 당부다. 과학기술정보통신부는 29일 카카오 안산 데이터센터에서 'AI 고속도로 현장 간담회'를 개최했다. 배 장관은 이날 모두발언에서 올해 GPU 1만3천장, 내년 1만5천장 확보를 시작으로 오는 2030년까지 총 5만장을 마련할 계획이라고 밝혔다. 간담회에는 카카오·NHN·네이버클라우드 등 주요 클라우드 기업과 정보통신산업진흥원(NIPA) 관계자들이 참석했다. 배 장관은 GPU 수급난으로 학계와 기업이 어려움을 겪는 현실을 언급하며 정부가 먼저 연구개발과 서비스 혁신을 위한 기반을 마련하겠다고 했다. 그는 "학계가 마음껏 GPU를 쓰고 기업이 저렴한 비용으로 인프라를 활용할 수 있어야 한다"며 "결국 시장이 형성돼야 기업의 재투자가 이어질 수 있다"고 강조했다. 그는 또 미국산 GPU 의존도가 높지만 국내 신경망처리장치(NPU) 성능과 가격 경쟁력이 빠르게 개선되고 있다며 클라우드 사업자들에게 국내 칩 도입을 적극 검토해달라고 요청했다. 이를 통해 국산 반도체의 시장 기회를 확대하고 AI 인프라 자립 기반을 강화하겠다는 구상이다. 이번 간담회는 정부가 'AI 고속도로' 조기 구축 의지를 확인하고 내년도 GPU 확보 이행 상황과 지속가능한 데이터센터(AIDC) 모델을 점검하기 위해 마련됐다. 배 장관은 "정부가 먼저 마중물이 돼 연구개발과 서비스 환경을 마련하겠다"며 "민간이 재투자와 시장 생태계 활성화에 적극 나서 달라"고 당부했다.

2025.08.29 16:55조이환 기자

과기정통부 '장·차관 원팀'…이틀간 '인프라·데이터' 족쇄 풀기 총력전

과학기술정보통신부 새 지도부가 인공지능(AI) 산업 육성을 위해 규제 혁신에 집중하고 있다. AI 3대 강국(G3) 도약을 위해 핵심 기반인 인프라와 데이터 분야의 해묵은 과제를 해결하겠다는 목표를 분명히 한 것이다. 25일 업계에 따르면 과학기술정보통신부는 이틀간 장관과 차관이 연이어 현장을 찾아 업계 의견을 수렴했다. 배경훈 장관은 지난 24일 AI 데이터센터(AIDC) 관련 기업들과, 류제명 제2차관은 이날 데이터 규제 관련 기업 및 전문가들과 각각 간담회를 가졌다. 배경훈 장관은 세종시 네이버 데이터센터에서 열린 간담회에서 AIDC를 '든든한 토양'으로 규정했다. 그는 정부가 '마중물' 역할을 해 가격 경쟁력 확보를 지원하겠다고 밝혔다. 업계는 이 자리에서 전력 공급난, 과도한 건축 규제, 높은 초기 투자 비용 등 현실적 어려움을 건의했다. 류제명 차관은 데이터 규제 혁신 간담회에서 AI 발전의 '원유'가 데이터라고 강조했다. 그는 과거 정부부터 이어진 데이터 규제 문제를 더 이상 미루지 않겠다고 선언하며 규제 샌드박스 활성화 등 구체적인 해결 의지를 보였다. 배경훈 장관, AIDC 현장 직접 찾아…'전력·규제' 문제 해결 약속 배경훈 장관은 'AIDC 현장 간담회'를 주재하며 AIDC 활성화를 가로막는 현실적 과제에 대한 업계의 목소리를 직접 들었다. 참석자들은 AIDC가 국가 경쟁력의 핵심 기반이라는 데 동의하며 전력, 규제, 비용 문제가 시급히 해결돼야 한다고 입을 모았다. 특히 안정적인 전력 공급과 비현실적 규제가 최우선 과제로 꼽혔다. 이준희 삼성SDS 사장은 현장과 맞지 않는 건축 규정과 전력 공급 문제를, 하민용 SK텔레콤 부사장은 전력구매계약(PPA) 허용을 포함한 인허가·세제 혜택 종합 정책 패키지를 요청했다. 막대한 초기 투자 비용과 사업 지연 문제도 도마에 올랐다. 김동훈 NHN클라우드 대표는 정부가 선제적으로 부지와 전력을 확보해 제공하는 모델을 제안했고 최지웅 KT클라우드 대표는 3년 이상 소요되는 구축 기간을 단축할 인허가 간소화와 설비 투자 세제 혜택이 절실하다고 밝혔다. 학계와 협회에서는 더 근본적인 해법이 제시됐다. 박윤규 정보통신산업진흥원장은 AIDC를 사회간접자본(SOC)으로 보고 관련 규제를 일괄 해결할 '특별법' 제정을, 이경무 서울대 교수는 산업계와 학계의 단절 문제 해결을 촉구했다. 이에 배경훈 과기정통부 장관은 현장 건의를 정책에 신속히 반영하겠다고 화답했다. 배 장관은 "취임 후 매일 양복을 입었지만 오늘 운동화를 신고 편하게 왔다"며 "초심을 잃지 않고 AI 문제만큼은 형식에 얽매이지 않고 유연하고 신속하게 접근하겠다는 의지를 보여드리고 싶었다"고 말했다. 류제명 차관, '데이터 족쇄' 직접 푼다…'해묵은 규제' 정면돌파 선언 류제명 제2차관은 AI 발전에 필수적인 데이터 문제를 해결하기 위해 기업 및 법률 전문가들과 머리를 맞댔다. 류 차관은 AI 발전의 '원유'가 데이터라고 강조하며 과거 정부부터 이어진 데이터 규제 문제를 더 이상 미루지 않겠다는 뜻을 분명히 했다. 그는 "이 문제를 계속 끌고 시간을 낭비할 시간이 없다"며 "데이터 규제 분야의 날카로운 비평가로 꼽히는 구태언 변호사에게 발제를 맡긴 것 역시 문제를 회피하지 않고 제대로 부딪쳐 해결하겠다는 의지였다"고 설명했다. 이어 간담회에 참석한 업스테이지, 루닛 등 AI 기업들은 현실적인 어려움을 설명했다. 업계는 혁신적인 아이디어를 사업화하는 과정에서 여전히 데이터 관련 규제가 제약 요인이 되고 있다고 밝히며 공공 데이터 활용을 위한 규제 샌드박스 활성화 등을 제언했다. 이에 류 차관은 이번 간담회가 일회성 행사가 아님을 분명히 했다. 류제명 과기정통부 제2차관은 "데이터 문제는 한두 번의 간담회로 끝낼 문제가 아니고 장애물 제거 작업을 끝낼 때까지 해야 하는 이슈"라며 "국가AI위원회를 중심으로 데이터 규제 혁신이 차질 없이 추진되도록 최선을 다하겠다"고 강조했다.

2025.07.25 11:34조이환 기자

한국퀀텀컴퓨팅, 초고성능 AI 데이터센터 구축…GPUaaS 시장 진출

한국퀀텀컴퓨팅(KQC, 대표 김준영)이 초고성능 인공지능(AI) 전용 그래픽처리장치(GPU) 인프라를 구축하고 본격적인 클라우드 기반 고성능 컴퓨팅 서비스(GPUaaS) 시장에 뛰어든다. KQC는 엔비디아(NVIDIA)의 최신 H200 GPU를 기반으로 한 'AI GPU 팜(AI GPU Farm)'을 디지털엣지 부평 데이터센터에 구축한다고 3일 밝혔다. 이와 함께 오는 4일부터 GPU 기반 서비스형 컴퓨팅(GPUaaS)을 정식 출시한다. 이를 통해 생성형 AI, 초거대 언어모델(LLM), 고성능 데이터 분석, 복잡한 시뮬레이션 등 연산 집약형 워크로드를 위한 인프라를 안정적이고 합리적인 가격으로 제공할 계획이다. 김준영 대표는 "KQC의 GPU 팜은 빅테크, AI 스타트업은 물론 복잡한 연산이 필요한 산업계, 국가 연구기관, HPC 센터까지 폭넓은 수요가 기대된다"며 "장기적으로는 양자컴퓨팅 인프라와도 연계한 고도화된 클라우드 서비스를 선보일 것"이라고 밝혔다. 이번에 구축된 AI GPU 팜은 엔비디아의 호퍼(Hopper) 아키텍처 기반 H200 GPU를 병렬로 배치한 클러스터 형태로 구성됐다. H200은 기존 H100 대비 메모리 용량과 속도가 대폭 향상된 제품으로, 특히 내장된 트랜스포머 엔진(Transformer Engine)을 통해 LLM 훈련과 추론 작업의 효율을 극대화할 수 있다. GPUaaS 서비스는 물리서버 수준의 성능을 제공하는 전용 환경에서 GPU를 직접 활용할 수 있으며, LLM, 멀티모달 AI, AI 코파일럿 등 새로운 AI 수요에 맞춰 유연한 자원 할당이 가능하다. GPU 가상화 및 공유 기능도 제공돼 여러 사용자가 동시에 GPU 자원을 효율적으로 사용할 수 있다. 서비스에는 엔비디아 AI Enterprise 소프트웨어 스택이 포함돼 최신 AI 개발 환경도 지원한다. 사용자들은 컴퓨팅, 스토리지, 네트워크 리소스를 필요에 따라 탄력적으로 조정할 수 있으며, 종량제 기반 요금제를 통해 초기 투자 부담 없이 경제적으로 인프라를 활용할 수 있다. 또한 예측 분석 기능과 자동화된 인프라 관리 도구를 통해 운영 효율성과 예산 관리 능력도 강화된다. KQC는 지난 6월 아이티센그룹과 GPUaaS 사업 협력을 위한 업무협약(MOU)을 체결하며 서비스 기반 확대에 나선 바 있다. KQC 김창회 전무는 "이번 GPUaaS 서비스는 안정성과 가격 측면에서 매우 경쟁력 있는 구조"라며 "시장 수요에 맞춰 다양한 시스템을 지속적으로 선보일 계획"이라고 말했다.

2025.07.03 10:18남혁우 기자

정부, '1.6조원' 규모 GPU 대전 시작…"WBL 훈련용 반도체, 민간과 함께 확보"

과학기술정보통신부가 민간 클라우드 기업들과 손잡고 총 1조6천300억원 규모의 그래픽처리장치(GPU) 확보·임차 사업을 추진한다. 세계 최고 수준의 초거대 언어모델 개발과 국내 산학연의 인공지능(AI) 인프라 확충을 위한 행보다. 과기정통부와 정보통신산업진흥원은 29일 서울 강남 코엑스에서 클라우드 기업을 대상으로 GPU 확보·임차 사업 통합설명회를 개최했다. 이달 1차 추가경정예산을 통해 관련 예산을 확정한 이후 다음달 4주차까지 협력 기업 공모에 본격 착수한 상태다. 이번 사업은 ▲총 1조4천600억원 규모의 GPU 확보 사업과 ▲1천723억원 규모의 GPU 임차 사업으로 구성된다. 확보 사업은 정부와 민간이 협력해 첨단 GPU를 직접 구매·구축하는 방식이고 임차 사업은 클라우드 기업이 보유한 GPU를 임차해 활용하는 구조다. 임차된 GPU는 가칭 '월드 베스트 LLM(WBL)' 프로젝트와 국내 산학연 등에 지원될 예정이다. 정부는 국내 고성능 연산 자원 부족 문제를 해소하고 AI 기술의 자립 기반을 확보하는 데 사업의 목적이 있다고 설명했다. 설명회 현장에선 사업 개요와 정책 방향 외에도 공모 절차, 평가 기준, 지원 조건 등의 세부 사항이 구체적으로 안내됐다. 참석자들은 질의응답을 통해 공모 준비에 필요한 사항들을 직접 확인할 수 있었다. 과기정통부와 정보통신산업진흥원(NIPA)은 다음달 4주차까지 공모 접수를 마감하고 오는 7월 중 평가와 협약 체결을 마무리할 계획이다. 이후 GPU 인프라 확보 및 배포를 신속히 추진하겠다는 입장이다. 과기정통부는 "보다 구체적인 공모 내용과 사업 안내는 과기정통부 및 NIPA 홈페이지를 통해 확인할 수 있다"고 밝혔다.

2025.05.29 17:18조이환 기자

"AI가 만든 코드, 기술 발전 가속"…구글 딥마인드, 진화형 알고리즘 '알파이볼브' 개발

구글 딥마인드가 알고리즘을 설계하고 성능까지 개선하는 인공지능(AI)을 선보였다. 언어모델 기반의 코드 생성 능력에 진화적 평가 구조를 결합해 대규모 컴퓨팅 인프라부터 수학적 난제까지 범용 최적화가 가능해진 것이다. 16일 구글 공식 블로그에 따르면 딥마인드는 지난 14일 코드 기반의 알고리즘을 진화시키는 AI 시스템 '알파이볼브'를 발표했다. 이 시스템은 구글의 최신 언어모델 '제미나이' 시리즈에 자동 평가 알고리즘을 접목한 구조로, 구글의 데이터센터·칩 설계·AI 모델 학습 등 실제 운영 환경에 투입돼 성능을 입증했다. '알파이볼브'는 기존의 함수 단위 코드 생성과 달리 수백 줄 규모의 복잡한 알고리즘 전체를 설계할 수 있는 구조다. 속도 중심의 '제미나이 플래시'와 논리 구조를 강화하는 '제미나이 프로'를 병행 활용해 코드 제안을 생성한다. 이렇게 생성된 코드는 자동 평가 시스템이 정확성, 속도, 자원 활용도 등을 따져서 평가하고 성능이 좋은 코드만 다음 세대에 반영된다. 처음 성과를 낸 분야는 구글의 데이터센터 스케줄링이다. 이 시스템은 내부 클러스터 관리 도구인 보그(Borg)에 적용돼 일부 자원만 남은 서버를 더 잘 활용할 수 있도록 새로운 방식의 스케줄링 규칙을 만들어냈다. 사람이 읽고 관리하기 쉬운 단순한 코드 형태로 제공돼 전체 컴퓨팅 자원의 0.7%를 꾸준히 절약할 수 있게 됐다. 칩 설계 영역에서도 적용 사례가 나왔다. '알파이볼브'는 구글 텐서플로우 처리장치(TPU) 내 고성능 산술 연산 회로에서 불필요한 비트를 제거하는 베릴로그(Verilog) 코드를 제안했다. 이는 기능 검증을 거쳐 차세대 설계에 반영된 상태로, AI가 하드웨어 설계 언어 수준에서 의미 있는 구조 개선을 제안할 수 있음을 입증하는 계기가 됐다. 특히 구글 '제미나이' 모델 학습에 쓰이는 행렬 곱셈 연산을 최적화해 속도를 23% 끌어올렸다. 전체 학습 시간도 1% 줄었으며 기존에는 수주가 걸리던 커널 최적화 작업이 수일 내 자동 실험으로 가능해졌다. 반복 작업 부담이 줄어들면서 연구 효율도 함께 높아졌다. 사람이 직접 손대지 않던 그래픽처리장치(GPU) 저수준 명령어 영역에서도 성과가 나왔다. '플래시어텐션' 커널에서 최대 32.5%의 속도 향상을 기록했으며 기존 컴파일러 최적화를 넘어선 성능이라는 평가를 받는다. AI가 병목 지점을 스스로 찾아내고 개선 방향까지 제시한 사례로, 실제 코드 개선 작업의 효율성을 높이는 데 기여하고 있다. 수학 난제를 해결하는데도 기존 한계를 뛰어넘는 성과를 냈다. 일례로 복소수 4×4 행렬 곱셈 문제에서 기존보다 곱셈 횟수를 더 줄인 새로운 알고리즘을 찾아냈는데 이는 지난 1969년 수학자 스트라센이 세운 기록을 처음으로 넘어선 사례다. 수십 년간 누구도 개선하지 못한 수학적 구조 자체를 AI가 새롭게 설계해낸 것이다. 이외에도 이 시스템은 수학 분석, 기하학, 조합론, 수론 등 다양한 미해결 문제 50여 개에 적용됐다. 전체의 약 75%에서 기존 최고 해법을 재현했고 심지어 20%의 경우에는 보다 나은 해법을 제시했다. 구글 딥마인드는 현재 '피플+AI 리서치' 팀과 함께 '알파이볼브'의 사용자 인터페이스를 개발 중으로, 학술 연구자 대상 얼리 액세스 프로그램을 준비하고 있다. 일반 공개 여부는 추후 검토할 예정이나 명확한 평가 구조를 갖는 알고리즘 문제라면 어떤 분야에도 적용 가능한 구조라는 점에서 범용 기술로의 확장 가능성이 거론된다. 소재 개발, 신약 설계, 에너지 최적화, 공정 자동화 등 연산 기반 과학 영역 전반에 대한 활용이 논의되고 있다. 알렉산더 노비코프 딥마인드 연구원은 "우리는 평가자가 명확한 문제에 집중하고 있다"며 "자동화된 피드백 루프를 통해 성능을 지속적으로 개선할 수 있다"고 설명했다. 마테이 벌로그 딥마인드 연구원은 "'알파이볼브'는 일반적 AI 시스템임에도 불구하고 알파텐서보다 더 나은 성과를 냈다"며 "실제 문제에 곧바로 적용 가능한 과학 도구는 연구 현장에서도 드문 경험"이라고 말했다.

2025.05.16 09:58조이환 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

'오딘' 이어 '제우스'까지…하반기 MMORPG 경쟁 재점화

1만1000mAh 대용량 배터리폰 나오나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.