• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (276건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

카카오엔터프라이즈, '하이브리드 GPUaaS' 공개…AI 인프라 장벽 넘는다

인공지능(AI) 확산이 본격화되면서 그래픽처리장치(GPU) 인프라 확보와 비용 최적화가 기업들의 핵심 과제로 떠오른 가운데, 카카오엔터프라이즈가 클라우드와 온프레미스의 장점을 결합한 새로운 형태의 GPU 인프라 서비스를 공개했다. 카카오엔터프라이즈는 17일 서울 강남구 코엑스에서 열린 '델 테크놀로지스 포럼 2025'에서 고성능 AI 인프라를 도입하는 새로운 기준인 '하이브리드 서비스형 GPU(GPUaaS)'를 선보였다. 카카오엔터프라이즈 클라우드부문 이재한 사업본부장은 "글로벌 AI 시장이 급격히 성장하면서 GPU 수요가 폭발적으로 늘고 있지만 막대한 비용 부담이 AI 확산의 큰 장벽으로 작용하고 있다"며 이를 해결하기 위한 대안으로 하이브리드 GPUaaS 서비스를 제안했다. 그는 "기업·기관 고객이 하이브리드 GPUaaS를 통해 클라우드와 온프레미스의 장점만을 결합해 고성능 AI 인프라를 신속하게 도입·운영할 수 있다"며 "이를 통해 ▲GPU 구매·구축 비용 효율화 ▲GPU 클러스터·인프라 통합 관리 ▲GPU 리소스의 유연한 확장과 안정적 운영 등 다양한 이점을 누릴 수 있다"고 설명했다. 하이브리드 GPUaaS는 고객이 카카오클라우드를 통해 GPU 서버를 도입하면 카카오클라우드 데이터센터 내에서 이를 운영·관리해 주는 방식이다. 고객은 GPU를 직접 소유하면서도 클라우드의 확장성과 편의성을 동시에 누릴 수 있다. 이 본부장은 "온프레미스의 최적화된 성능과 클라우드의 유연성을 결합한 AI 인프라 운영의 새로운 개념"이라고 강조했다. 카카오엔터프라이즈는 이날 행사에서 GPU 인프라 최적화에 필요한 핵심 고려 요소로 ▲비용·투자 구조 ▲GPU 사용 기간 ▲유연성·확장성 ▲운영·관리 역량을 꼽았다. 특히 GPU 사용량 변동이 크거나 최신 GPU 도입 속도가 중요한 기업에는 GPUaaS 모델이 적합하며 장기적·고정적 수요가 있는 기업은 온프레미스 방식이 유리하다고 분석했다. 하이브리드 GPUaaS는 이 두 환경의 장점을 결합해 최적의 해법을 제공한다는 설명이다. 아울러 델 서버·스토리지 기반 구축 사례를 소개하며 복잡한 AI 워크로드에서도 일반 GPUaaS 대비 최대 33%, 온프레미스 대비 약 11%의 비용 절감 효과를 확인했다고 밝혔다. 이날 세션 발표 외에도 카카오엔터프라이즈는 카카오클라우드의 하이브리드 GPUaaS를 소개하는 전시 부스를 마련했다. 하이브리드 GPUaaS 도입에 관심이 있는 기업·기관을 대상으로 부스 방문 이벤트와 카카오클라우드 하이브리드 GPUaaS 도입 설문 이벤트 등 다양한 행사를 진행했다. 이 본부장은 "카카오클라우드의 하이브리드 GPUaaS는 GPU 인프라를 한층 더 효율적이고 유연하게 운영할 수 있도록 온프레미스의 최적화 강점과 클라우드의 안정성·편의성을 완벽하게 조합한 혁신적인 엔터프라이즈 솔루션"이라며 "AI 인프라 운영의 새로운 패러다임이 될 것”이라고 강조했다.

2025.09.17 17:04한정호

애플 A19 프로, 싱글스레드 성능서 AMD 라이젠 제쳤다

애플의 차세대 모바일 AP(어플리케이션 프로세서) A19 프로(A19 Pro)가 PC용 고성능 데스크톱 칩을 능가하는 성능을 기록했다. 최근 공개된 Geekbench 6 벤치마크 결과에서 A19 프로는 AMD의 최신 데스크톱 프로세서 라이젠 9 9950X를 싱글스레드 성능에서 앞섰다. IT 전문매체 탐스하드웨어는 A19 프로가 싱글스레드 점수 3천895점을 기록해 전작 A18 프로 대비 11% 향상됐다고 최근 보도했다. 또 A19 프로는 퀄컴 스냅드래곤 8 엘리트보다 약 36%, 라이젠 9 9950X보다도 11.8% 높은 성능을 보였다. 멀티스레드 성능 역시 A18 프로 대비 약 12% 개선됐다. 이번 성능 향상은 단순한 클럭 속도 증가가 아닌 마이크로아키텍처 개선에서 비롯된 것으로 분석된다. A19 프로는 2개의 고성능 코어(최대 4.26GHz)와 4개의 고효율 코어로 구성돼 있으며, 브랜치 예측 능력과 캐시 메모리 용량을 확대했다. 특히 고효율 코어의 L3 캐시는 전 세대 대비 50% 증가했다. 제조는 TSMC의 3나노 N3P 공정을 적용했다. GPU 성능 개선 폭은 더 크다. 긱벤치6 그래픽 테스트에서 A19 프로는 전작 대비 37% 높은 점수를 기록하며, 아이패드 에어 M2·M3 칩 수준의 그래픽 성능을 보여줬다. 애플이 별도 수치를 공개하지 않았음에도 벤치마크 결과만으로도 AMD 통합 GPU와 견줄 수 있는 성능이라는 평가가 나온다. 탐스하드웨어는 "A19프로 GPU는 배경 흐림(게임의 피사계 심도, 실시간 멀티 레이어 합성, 비디오 배경 흐림 등에 중요)과 가우시안 흐림(후반 처리, 비전 처리, FPU 연산에 중요)에서 이전 모델 대비 가장 뛰어난 성능을 보여준다"고 평가했다.

2025.09.14 07:50전화평

카카오엔터프라이즈, 신무기 '하이브리드 GPUaaS' 출시…AI 인프라 시장 정조준

카카오엔터프라이즈가 클라우드와 온프레미스의 장점만을 결합한 새로운 고성능 그래픽처리장치(GPU) 공유 서비스를 앞세워 시장 선도에 나선다. 카카오엔터프라이즈는 기업과 기관 고객이 효율·안정·확장성에 대한 부담 없이 대규모 GPU를 원활하게 도입해 활용할 수 있도록 돕는 '하이브리드 서비스형 GPU(GPUaaS)'를 출시했다고 11일 밝혔다. 카카오클라우드의 하이브리드 GPUaaS는 최신 고사양 GPU 구매부터 데이터센터·전력·통합·관리·확장 등에 이르는 인공지능(AI) 인프라 도입 과정을 카카오클라우드 플랫폼으로 통합해 제공하는 엔터프라이즈 솔루션이다. 기업·기관 고객은 하이브리드 GPUaaS를 통해 ▲GPU 구매 및 구축 비용 효율화 ▲GPU 클러스터 및 인프라 통합·관리 ▲GPU 리소스의 유연한 확장 및 안정적 운영 등의 이점을 누릴 수 있다. 카카오클라우드는 데이터센터 상면부터 전력·냉각·고성능 네트워크·소프트웨어(SW) 설치까지 GPU 클러스터 구축에 필요한 전 과정을 담당한다. 또 기업·기관 고객이 더욱 합리적인 비용으로 최신 고사양 GPU를 자산화할 수 있도록 지원하며 구축 기간을 대폭 단축시켜 필요한 시점에 AI 인프라를 제공한다. 하이브리드 GPUaaS를 통해 GPU 운영에 필수적으로 수반되는 전력·냉각·보안·전문 인력 확보 등 숨겨진 비용 요소를 최소화해 운영 효율성을 높일 수 있다는 설명이다. 아울러 표준화·안정성이 입증된 장비와 구성을 기반으로 시행착오를 줄이고 안정적으로 AI 인프라 도입이 가능하다. 카카오클라우드 플랫폼에서 GPU 클러스터 및 IT 인프라를 통합·관리할 수 있으며 AI 서비스 개발을 위해 다양한 서비스형 플랫폼(PaaS)과 서비스형 소프트웨어(SaaS)도 활용할 수 있다. 또 추가 GPU가 필요하거나 새로운 유형의 차세대 GPU가 필요한 경우에는 카카오클라우드 GPUaaS를 활용할 수 있고 GPU 클러스터 확장이 필요할 경우에는 카카오클라우드의 GPU를 신속히 연계해 유연한 확장을 지원한다. 보안 관리와 24시간 상시 모니터링 등 기술 전문 인력의 지원을 통해 안정성과 가용성도 확보할 수 있다. 카카오엔터프라이즈는 전문 인력이 통합·관리하는 하이브리드 GPUaaS 서비스를 확산해 전력과 GPU 수급에 대한 문제를 겪는 대학·연구기관·기업의 AI 연구 개발을 지원할 방침이다. 카카오엔터프라이즈 이용민 클라우드부문장은 "AI 연구 개발 수요 급증으로 고성능 GPU 인프라 수요도 늘고 있지만 데이터센터 상면·전력·냉각 설비·전문 인력 부족으로 GPU 도입에 제약이 있는 것이 현실"이라며 "카카오클라우드의 하이브리드 GPUaaS는 복잡한 장비 투자와 운영 부담을 줄이고 기업과 기관 고객이 고성능 GPU 인프라의 이점에 집중할 수 있도록 지원한다"고 강조했다.

2025.09.11 18:16한정호

"한 곳만 참여해도 유찰 없다"…국가AI컴퓨팅센터 신속 추진

정부가 '국가인공지능(AI)컴퓨팅센터' 3차 공모의 그래픽처리장치(GPU) 확보 규모, 국산 AI 반도체 협력, 평가 방식 등 주요 쟁점에 대한 구체적인 계획을 제시하며 민간 참여를 독려했다. 특히 이번 공모는 국가 AI 인프라의 신속한 구축을 위해 한 개의 컨소시엄만이 참여하더라도 유찰 없이 진행될 예정이다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 11일 서울 강남구 섬유센터에서 열린 '국가AI컴퓨팅센터 사업설명회' 질의응답 시간에 업계의 질문을 받고 데이터센터 구축 방향, 국산 AI 반도체 도입, 글로벌 기업 협력, 평가 절차 등 세부 조건을 설명했다. 과기정통부 김광년 AI컴퓨팅팀장은 "AI 고속도로 구축을 위해 2028년까지 국가AI컴퓨팅센터에서 GPU 1만5천 장 이상을 확보하는 것이 목표고 전체적으로는 2030년까지 5만 장 확충 계획을 갖고 있다"며 "정부가 초기 마중물 투자를 하고 이후 민간이 자유롭게 확충할 수 있도록 지원하겠다"고 강조했다. 이번 공모에서 국산 AI 반도체 도입 의무가 삭제된 것과 관련해서는 "의무 조항은 빠졌지만 평가 요소에서 국산 AI 반도체 활성화가 완전히 사라진 것은 아니다"라고 말했다. 이어 "정부가 요청할 경우 상면 제공이나 운영 관리 협력 등은 사업자가 협조해야 하고 국산 AI 반도체 초기 시장 활성화를 위한 방안도 내부적으로 준비하고 있다"고 설명했다 아울러 GPU 수량 산정은 센터 구축 제안 시 1만5천 장 이상을 제시해야 하며 상한은 없다. 참여 기업 또는 컨소시엄은 자유롭게 조달 계획을 내되 전력 확보 방안과 사업비 계획을 함께 제시해야 한다. 평가 절차에 대한 질문도 나왔다. 김 팀장은 "데이터센터 구축, 특수목적법인(SPC) 설립, AI 서비스까지 복합적인 사업이라 일반적인 평가 체계로는 한계가 있다"며 "분야별 전문가 풀을 별도로 구성해 외부 전문가 평가로 공정성을 확보하겠다"고 밝혔다. 글로벌 기업과의 협력 가능성에 대해서는 "컨소시엄 참여는 물론 단순 협력 형태도 가능하다"며 "기업들이 자유롭게 협력 방안을 구성하면 된다"고 답했다. 국가AI컴퓨팅센터 내에 탑재되는 AI 반도체의 세부 사항도 논의됐다. 정도균 수석은 "GPU·신경망처리장치(NPU)·텐서처리장치(TPU) 등 다양한 AI 가속기를 복수로 제안하는 것도 가능하다"며 "다만 수요 예측과 안정성이 뒷받침돼야 비즈니스 모델이 성립하는 만큼 조달 계획을 명시하되 복수 공급사와의 대응 방안까지 함께 제시해야 한다"고 설명했다 또 신규 데이터센터 구축 시 토지주가 반드시 컨소시엄에 합류해야 한다는 점과 클라우드를 기반으로 공공 GPU 서비스를 제공할 경우 클라우드 보안인증(CSAP)을 취득해야 한다는 점도 확인됐다. 김 팀장은 "이번 공모는 신속한 사업 진행을 위해 컨소시엄이 한 곳만 참여해도 유찰되지 않고 바로 심사가 진행된다"고 밝혔다.

2025.09.11 17:09한정호

'국가AI컴퓨팅센터' 3차 공모 돌입…민간 자율성 키워 재도전

정부가 두 차례 유찰된 '국가인공지능(AI)컴퓨팅센터' 구축 사업의 성공을 위해 민간 참여 확대와 조건 완화를 내세우며 다시 도전에 나섰다. 초대형 연산 인프라를 2028년까지 마련해 국내 AI 경쟁력을 강화하고 해외 주요 국가와 어깨를 나란히 하겠다는 전략이다. 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 11일 서울 강남구 섬유센터에서 '국가AI컴퓨팅센터 사업설명회'를 열고 3차 공모의 주요 조건과 추진 방향을 공개했다. 이번 사업은 정부가 주도해 민·관 합작 특수목적법인(SPC)을 설립하고 그래픽처리장치(GPU) 등 첨단 AI 반도체 자원을 대규모로 확보해 학계·산업계·스타트업에 지원하는 국가 인프라 프로젝트다. 앞서 1·2차 공모가 높은 초기 투자비와 까다로운 조건으로 연이어 무산되자 정부는 지분 구조를 대폭 완화하고 매수청구권과 국산 AI 반도체 의무 도입 등 핵심 조항을 삭제해 민간 기업의 부담을 줄였다. 과기정통부 김경만 인공지능기반정책관은 "이번 사업은 새 정부가 추구하는 AI 고속도로 구축의 핵심이자 우리나라의 AI 성패를 좌우할 수 있는 사업"이라며 "두 차례 유찰을 겪은 만큼 관계부처와 논의해 요건을 보강했고 기업과 지자체 모두 관심이 큰 만큼 정부도 최대한 지원하겠다"고 밝혔다. 과기정통부 김광년 AI컴퓨팅팀장은 "국가AI컴퓨팅센터는 데이터센터, 클라우드, 초지능 네트워크를 아우르는 새로운 사회간접자본"이라며 "정부가 마중물 투자를 하고 민간 투자를 촉발해 2028년까지 GPU 1만5천 장을 확보하겠다"고 강조했다. 정부는 올해 안에 GPU 1만3천 장, 내년에 1만5천장을 추가 확보하고 슈퍼컴퓨터 6호기를 통해 9천 장을 더해 총 5만 장 이상의 GPU를 조기 확보함으로써 2030년까지 AI 고속도로를 구축한다는 계획이다. 이를 기반으로 민간이 자율적으로 확충을 이어가며 국가 차원의 초대형 AI 연산 인프라를 구성한다는 방침이다. 이번 사업 조건은 앞선 1·2차 공모와 비교해 대폭 조정됐다. 기존에는 공공 51%, 민간 49% 구조의 SPC 지분율이 주요 문제로 꼽혔다. 이에 공공 지분은 30% 미만으로 줄이고 민간 지분을 70% 이상으로 확대해 민간 주도의 경영 자율성을 보장했다. 국산 AI 반도체 도입 의무도 삭제됐다. 다만 정부는 국산 반도체 활성화를 위한 전용존과 연구개발(R&D) 테스트베드 제공 등 지원책을 병행한다. 사업 부지는 비수도권으로 제한되며 2028년 이전 개소가 필수다. 다만 2027년 이전 조기 서비스 개시 기업에는 평가 우대가 주어진다. 전력계통영향평가의 신속한 처리도 지원하며 신재생에너지 등 무탄소 전력을 활용할 경우 가점을 받을 수 있다. 또 이번 공모에서는 단일 기업보다 복수 클라우드 서비스 제공사(CSP)와 통신사업자가 함께 참여하는 컨소시엄에 가점을 줄 방침이다. 또 정부는 센터 구축을 위해 800억원을 출자할 예정이다. 산업은행과 기업은행의 정책금융 대출과 민간 출자 등 총 2조원 이상이 투입된다. 이같은 변화로 업계의 관심도 확인되고 있다. 이준희 삼성SDS 대표는 같은 날 열린 '삼성SDS 리얼 서밋 2025'에서 "국가AI데이터센터 2차 공모 정식 지침서를 오늘 오전에 전달받아 세부 사항을 면밀히 살펴보고 있다"며 "정부가 추진하는 국가 AI 목표에 우리가 기여할 수 있는 여지가 있다면 참여를 긍정적으로 검토하겠다"고 밝혔다. 이날 현장에는 삼성SDS·LG CNS·현대오토에버·신세계아이앤씨 등 주요 IT서비스 기업과 SK텔레콤·KT·LG유플러스 등 통신사, 네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 클라우드 기업 관계자들이 대거 참석했다. 이 외에도 지자체 관계자와 함께 쿠팡과 삼성물산 관계자들도 설명회장을 찾았다. 정부는 다음 달 21일까지 사업계획서를 접수받아 1단계 기술·정책 평가와 2단계 금융심사를 거쳐 연내 우선협상대상자를 선정할 계획이다. 내년 상반기에는 SPC 설립과 자본금 출자 절차를 마무리하고 본격적으로 국가AI컴퓨팅센터 구축에 착수한다는 목표다. NIPA 이병묵 팀장은 "이번 공모에서는 기업들의 부담을 최대한 덜어드리고자 조건을 많이 완화했다"고 말했다. 그러면서 "민간 지분을 70% 이상으로 확대해 경영 자율성을 보장했지만, SPC가 민간 자율로만 운영되면 정책 목표 달성이 어렵다"며 "GPU 자원 확보나 국내 AI 생태계 지원과 같은 정책 목표를 달성할 수 있도록 정부 의견이 의사결정 과정에 반영될 수 있는 협력·성과 관리 방안이 제시되길 기대한다"고 말했다.

2025.09.11 16:52한정호

틸론, 국회 토론회서 DaaS 비전 알린다

클라우드 컴퓨팅 전문기업 틸론(대표 최백준)이 국회에서 개최되는 정책 토론회에 참석해 교육 분야 DaaS(클라우드에서 가상 데스크톱 환경을 제공하는 서비스) 적용 전략과 미래 비전을 제시한다. 틸론은 오는 12일 국회 의원회관에서 개최되는 '대전환 시대, 공공 인공지능(AI)·DaaS로 실현하는 교육 혁신' 정책 토론회에 참석한다고 11일 밝혔다. 이번 토론회에서 틸론 최백준 대표는 DaaS 지원분과위원장 자격으로 기조 발제를 맡아 공공 DaaS 제도화와 교육 현장 확산을 위한 해법을 제안한다. 학령인구 감소와 지역대학 위기, 그리고 AI 교육 수요 급증 속에서 대학의 디지털 인프라 혁신은 시급한 과제로 떠오르고 있는 만큼 토론회를 통해 대안을 도출하겠다는 것이다. 특히 DaaS가 학생들에게 단말기·장소 제약 없는 학습 환경을 제공하고 안전한 AI 실습과 스마트 행정을 동시에 가능하게 하는 국가 전략 인프라임을 강조할 예정이다. 틸론은 이미 다수의 대학과 공공기관에 DaaS 환경을 구축하며 안정성과 보안성을 입증하고 있다는 평가를 받고 있다. 이런 경험을 기반으로 토론회를 통해 ▲제로트러스트 보안 모델 ▲멀티테넌트 기반 자원 관리 ▲GPU 가상화 기반 AI 실습 인프라 ▲스마트 교육행정 플랫폼 등을 핵심 전략으로 공유할 방침이다. 아울러 틸론의 클라우드 DaaS 서비스 TheOtherSpace, 고성능 VDI 플랫폼 Dstation, GPU 가상화 기반의 EVDI(Engineering VDI) 등을 소개하며 실제 교육 현장에서 적용 가능한 스마트캠퍼스 구축 로드맵을 제시한다. 최백준 대표는 "DaaS는 단순한 원격 데스크톱을 넘어 교육격차 해소와 AI 실습 환경 마련을 위한 국가 핵심 인프라"라며 "틸론은 GPU 가상화, 제로트러스트 보안, 고객 맞춤형 커스터마이징을 기반으로 교육계와 함께 차세대 디지털 학습 생태계를 만들어 나가겠다"고 밝혔다.

2025.09.11 11:23김기찬

세 번째 도전 나선 국가AI컴퓨팅센터…업계 "수익성 검증이 최대 관건"

두 차례 유찰로 난항을 겪은 '국가인공지능(AI)컴퓨팅센터' 구축 사업이 조건을 대폭 완화한 재공모로 다시 궤도에 올랐다. 민간 지분 확대와 매수청구권 삭제, 국산 AI 반도체 의무 폐지 등 업계가 줄곧 문제 삼았던 조항을 손질하면서 정부가 민간 참여를 본격적으로 끌어내려는 의지를 드러낸 것이다. 다만 여전히 수익성 구조와 전력 확보, 국산 AI 반도체 실질적 활용 등 과제가 남아 있어 사업 성패는 기업들의 응답과 정부의 구체적 공모 지침 및 후속 조치에 달려 있다는 평가가 나온다. 과학기술정보통신부는 8일 국가AI전략위원회 출범식에서 '국가AI컴퓨팅센터 추진 방안'을 공개하며 사업 공모에 착수한다고 발표했다. 정부는 2028년까지 첨단 그래픽처리장치(GPU) 1만5천 장 이상, 2030년까지 5만 장 이상을 확보해 AI 모델 개발과 서비스 제공을 뒷받침한다는 목표를 제시했다. 이번 사업은 단순한 데이터센터 구축을 넘어 국가 AI 전략의 핵심 인프라, 이른바 'AI 고속도로'를 닦는 작업으로 규정된다. 총사업비는 2조5천억 원 규모에 달하는 초대형 프로젝트다. 앞선 1·2차 공모가 무산된 가장 큰 이유는 민간 경영 자율성을 가로막는 조건이었다. 공공지분 51% 고정 구조로 인해 기업이 절반 이상 출자해도 경영권을 확보하기 어려웠고 센터 청산 시 정부 지분을 기업이 떠안아야 하는 매수청구권, 아직 성능 검증 초기 단계에 있는 국산 AI 반도체 50% 도입 의무가 대표적이다. 업계에서는 "사실상 민간이 정부 정책 목표를 대신 떠안으라는 요구"라는 불만이 제기돼 왔다. 이에 정부는 기존 조건을 완화했다. 이번 출범식에서 발표된 새로운 방안은 민간 지분을 70% 이상으로 확대하고 공공지분을 30% 미만으로 낮췄다. 매수청구권은 삭제돼 민간 투자 리스크가 크게 줄었으며 국산 AI 반도체 도입도 의무가 아닌 자율적 지원 방안으로 전환됐다. 대신 정부는 국산 AI 반도체 활성화를 위해 2025년 2천528억원 규모의 연구개발(R&D)·실증·사업화 예산을 투입하고 국가AI컴퓨팅센터 실증과 연계할 수 있도록 지원한다. 민간 부담 완화를 위한 다양한 정책적 지원책도 내놨다. GPU 자원이 필요한 정부 재정사업에서는 국가AI컴퓨팅센터 활용을 우선 검토하도록 하고 통합투자세액공제를 기존 1~10%에서 최대 25%까지 확대했다. 또 전력계통영향평가 신속 처리, 신재생에너지 활용 시 가점 부여 등도 포함됐다. 입지는 비수도권으로 제한돼 지역 균형 발전과 친환경 데이터센터 건립을 동시에 꾀한다는 구상이다. 조건 변화에 업계도 반응하고 있다. 삼성SDS는 지난 2분기 실적발표 컨퍼런스콜에서 "재공모가 이뤄지면 참여를 긍정적으로 검토할 것"이라고 공식적으로 밝힌 바 있다. 아울러 네이버클라우드·KT클라우드·NHN클라우드·카카오엔터프라이즈 등 국내 주요 클라우드 서비스 기업들도 지분율·바이백 조건 완화에 따라 참여 가능성을 열어둔 것으로 알려졌다. 이동통신 3사 역시 수익성 담보가 현실화된다면 가세할 여지가 있는 것으로 전해졌다. 실제 정부 GPU 확보 사업에서는 네이버클라우드·NHN클라우드·카카오 등이 사업자로 선정돼 산학연과 스타트업에 자원 공급을 앞두고 있으며 독자 AI 파운데이션(국가대표 AI) 프로젝트 지원을 위한 GPU 임차 사업에도 SK텔레콤과 네이버클라우드가 참여하고 있다. 이처럼 주요 클라우드 기업과 통신사가 이미 GPU 인프라 조달에 관여하고 있어 국가AI컴퓨팅센터 본 사업에서도 이들의 참여 여부가 사업 성패를 가르는 변수가 될 전망이다. 이번 사업은 정부가 추진하는 'AI 3대 강국' 전략과도 직결된다. 이재명 대통령은 AI를 반도체·에너지와 함께 국가 미래를 좌우할 핵심 생존 전략으로 규정하며 AI 고속도로 구축을 통한 글로벌 3대 AI 강국 진입을 강조해왔다. 앞서 정부는 GPU 확보와 국가대표 AI 개발 사업을 차례로 마무리하면서 국가 AI 전략 1단계를 정리했고 이제 남은 승부처가 바로 국가AI컴퓨팅센터라는 평가가 나온다. 이재명 대통령은 이날 출범식 모두발언에서도 "민간이 주도하고 정부가 뒷받침하는 민관 원팀 전략이 필요하다"며 "민간의 창의성과 역동성이 최대한 발휘될 수 있도록 정부가 전략적 투자로 뒷받침하겠다"고 강조했다. 다만 업계의 시선은 단순히 조건 완화에 머물지 않는다. ▲데이터센터 운영 경험이 있는 사업자가 주도권을 잡을 수 있느냐 ▲막대한 전력 수요를 어떻게 충당할 수 있느냐 ▲사업 수익성을 담보할 수 있느냐는 과제는 여전히 남아 있다. 업계 관계자는 "조건이 이전보다 확실히 개선된 건 맞지만 내부적으로 수익성 구조와 투자 회수 가능성을 놓고 논의가 필요하다"고 밝혔다. 또다른 업계 관계자도 "정부가 지분율·바이백·국산 AI 반도체 도입 의무 등 세 가지 큰 걸림돌을 없앤 건 맞지만, 사업자들이 실제로 가장 중요하게 보는 건 결국 수요와 사업성"이라며 "GPU 수요가 정부 사업을 통해 어느 정도 확보될 수 있다는 목표는 제시됐지만, 실제로 얼마만큼의 수익을 낼 수 있을지는 여전히 불투명하다"고 지적했다. 이어 "이번 조치로 문턱은 확실히 낮아졌지만 기업들이 사업에 참여해 실제 수익을 낼 수 있느냐는 의문이 여전히 남아 있다"며 "정부가 정책적 의지를 보여준 만큼 기업 현장을 반영한 실질적인 수익 모델과 향후 로드맵이 마련되길 바란다"고 덧붙였다.

2025.09.08 17:32한정호

'국가AI컴퓨팅센터' 구축 재도전…정부, GPU 5만장 확보 나선다

국가 차원의 인공지능(AI) 전략 컨트롤타워인 국가AI전략위원회가 공식 출범하면서 정부가 'AI 고속도로' 구축을 위한 '국가AI컴퓨팅센터' 추진 방안을 발표했다. 앞선 두 차례 공모가 유찰되며 표류했던 사업이 민간 참여 확대와 조건 완화를 통해 재추진되면서 업계 관심이 다시 집중될 전망이다. 과학기술정보통신부는 8일 서울스퀘어에서 열린 국가AI전략위원회 출범식 및 제1차 전체회의에서 '국가 AI컴퓨팅센터 추진 방안'을 공개하며 국가AI컴퓨팅센터 구축을 위한 사업 공모에 착수한다고 발표했다. 정부는 이번 사업을 통해 2028년까지 첨단 그래픽처리장치(GPU) 1만5천 장 이상을 확보하고 민관 협력으로 2030년까지 총 5만 장 이상을 마련할 계획이다. 이 AI컴퓨팅 인프라를 기반으로 AI 모델 개발과 서비스 제공을 뒷받침한다는 목표다. 앞서 올 상반기 진행된 1·2차 공모는 ▲민관합작 특수목적법인(SPC) 설립 시 공공지분 51% 고정 ▲센터 청산 시 기업의 정부 지분 매수청구권(바이백) ▲2030년까지 국산 AI 반도체 50% 이상 도입 의무 등 민간에 불리한 조건이 걸림돌이 되며 모두 유찰됐다. 이에 정부는 이번 추진 방안에서 민간 지분을 70% 이상으로 확대하고 공공지분은 30% 미만으로 낮춰 경영 자율성을 보장했다. 또 매수청구권은 삭제하고 국산 AI 반도체 도입 의무도 없애 민간이 자율적으로 지원 방안을 제시하도록 했다. 대신 국책은행은 원금 우선 회수가 가능한 우선주 형태로 참여해 초기 투자 위험을 분담하기로 했다. 정부는 이번 방안에 정책적 지원책도 대거 담았다. 우선 정부 재정사업 추진 시 GPU 자원이 필요한 경우 국가AI컴퓨팅 센터 활용을 우선 검토하도록 해 초기 수요를 확보할 방침이다. 또 통합투자세액공제 비율을 기존 1~10%에서 최대 25%까지 확대하고 전력계통영향평가를 신속 처리해 기업의 인프라 구축 부담을 줄이기로 했다. 아울러 친환경·무탄소 에너지 사용 시 평가에서 가점을 부여하는 등 지속가능성도 강조했다. 센터 구축 방식과 입지는 민간이 제안하도록 하되 지역 균형발전을 위해 비수도권으로 제한된다. 서비스와 요금도 민간 주도로 운영하지만, 대학·연구소·스타트업 등 산학연 지원 방안을 반드시 포함해야 하며 2027년 이전 조기 개시 시 가점을 부여한다. 특히 국산 AI 반도체 활성화와 글로벌 기업 협력은 필수 과제로, 민간이 가능한 최적의 방안을 제시해야 하고 이는 평가에 반영된다. 정부는 별도로 올해 2천528억원 규모의 국산 AI 반도체 연구개발(R&D)과 실증·사업화 예산을 투입해 초기 시장 활성화를 지원한다. 이번 사업자 선정은 1단계 기술·정책 평가와 2단계 금융 심사를 거쳐 진행된다. 컨소시엄에는 반드시 데이터센터와 AI 컴퓨팅 서비스 기업이 포함돼야 하며 복수 클라우드·통신사 컨소시엄이 우대된다. 사업 공모는 8일부터 다음 달 21일까지 진행되며 참여계획서는 다음 달 20~21일 접수한다. 과기정통부는 12월까지 평가와 금융 심사를 마치고 내년 상반기 SPC 설립과 2028년까지 센터 개소를 목표로 하고 있다. 배경훈 과기정통부 장관은 "첨단 GPU 5만 장을 조속히 확보해 AI 생태계 활성화를 위한 기폭제로 활용하고자 한다"며 "향후 국가AI컴퓨팅센터가 AI 모델·서비스, 첨단 AI 반도체 등 AI 생태계 성장의 플랫폼이자 AI 고속도로의 핵심 거점으로서 AI 3대 강국 도약을 뒷받침할 것으로 기대한다"고 밝혔다.

2025.09.08 15:26한정호

오픈AI, '엔비디아 그늘' 벗어날까…브로드컴 손잡고 AI 반도체 '독립 선언'

오픈AI가 엔비디아 의존도 탈피를 목표로 자체 인공지능(AI) 칩 생태계 구축에 전격 나섰다. 7일 파이낸셜타임스(FT) 등 외신에 따르면 오픈AI는 미국 반도체 기업 브로드컴과 손잡고 내년부터 자체 설계한 AI 칩을 출하한다. 이번 협력을 통해 혹 탄 브로드컴 최고경영자(CEO)가 언급했던 100억 달러(한화 약 13조7천억원) 규모의 '미스터리 고객'이 오픈AI였음이 확인됐다. 이 소식에 브로드컴 주가는 9.4% 급등해 시가총액 1조6천억 달러(한화 약 2천200조원)를 돌파했다. 오픈AI의 행보는 구글, 아마존, 메타 등 빅테크 경쟁사들의 전략을 뒤따르는 것이다. 이들 역시 AI 모델 훈련과 서비스 운영을 위해 맞춤형 반도체 개발에 막대한 투자를 이어오고 있다. 이는 현재 AI 칩 시장을 장악한 엔비디아의 독주 체제에 균열을 일으킬 중대 변수로 꼽힌다. HSBC 등 시장 분석가들은 내년년부터 브로드컴의 맞춤형 칩 사업 성장률이 엔비디아를 넘어설 수 있다고 전망했다. 오픈AI는 개발 중인 차세대 모델 'GPT-5' 등 기하급수적으로 늘어나는 연산 수요를 감당하기 위해 컴퓨팅 파워 확보에 사활을 걸어왔다. 샘 알트먼 CEO는 향후 5개월 내 컴퓨팅 설비를 두 배로 늘리겠다고 공언한 바 있다. 오픈AI는 생산된 칩을 외부에 판매하지 않고 내부 서비스 운영에만 투입할 계획이다. 혹 탄 브로드컴 CEO는 "(오픈AI와의 계약이) 즉각적이고 상당히 큰 수요를 가져왔다"며 "내년부터 해당 고객을 위한 칩을 매우 강력하게 출하할 것"이라고 밝혔다.

2025.09.07 06:00조이환

정부, 'AI 특화 파운데이션 모델' 개발 본격화…다음달까지 공모

정부가 기존 '독자 인공지능(AI) 파운데이션 모델 프로젝트'와 병행해 국가 강점 분야를 겨냥한 '특화 파운데이션 모델' 개발이라는 투트랙 전략으로 글로벌 시장 선점에 나선다. 과학기술정보통신부(과기정통부)는 정보통신산업진흥원(NIPA)과 함께 'AI 특화 파운데이션 모델 프로젝트'에 참여할 팀을 공모한다고 5일 밝혔다. 접수는 다음달 13일까지 진행해 평가를 통해 총 2개 팀을 선정한다. 선정된 팀에는 최신 그래픽처리장치(GPU)인 엔비디아 'B200'을 팀당 256장(32노드)씩 총 512장 규모로 지원한다. 지원 기간은 오는 11월부터 내년 9월까지다. 1단계에 5개월 간 지원한 후 단계평가를 거쳐 2단계 지원 여부를 결정한다. 이번 사업은 범용 모델을 개발하는 '독자 AI 파운데이션 모델 프로젝트'와는 별개로 추진된다. 특정 전문 분야에서 우리나라가 가진 강점을 AI 기술과 결합해 독자적인 특화 모델과 서비스를 확보하는 것이 목표다. 특히 이번 프로젝트는 개발된 모델을 오픈소스로 공개해 국내 AI 생태계 전반의 기술력을 끌어올리는 것을 지향한다. 정부는 모델의 오픈소스 공개 수준에 따라 참여 기업의 사업비 부담을 다르게 적용해 적극적인 개방을 유도할 방침이다. 이 프로젝트에는 국내 AI 기업과 대학 연구기관 등이 단독 또는 컨소시엄을 구성해 참여할 수 있으며 참여팀이 적용 분야와 개발 방법론 등을 주도적으로 제시해야 한다. 대학은 반드시 주관이나 참여기관으로 참여해야 하고 대기업은 주관사가 아닌 참여사로만 함께할 수 있다. 해외 기업 역시 모델 개발이 아닌 글로벌 서비스 개발에 한해서만 참여가 가능하다. 평가는 ▲기술력 및 개발경험 ▲개발 목표 ▲시장성 및 파급효과 등 세 가지 기준을 중심으로 이뤄진다. 평가위원회는 참여팀이 제시한 목표 달성 여부와 성과의 혁신성을 5개월 단위로 점검해 후속 지원을 결정할 방침이다. 프로젝트에 사용될 GPU는 엘리스그룹이 공급한다. 수냉식 냉각 기술이 적용된 이동식 모듈형 데이터센터를 통해 제공돼 에너지 효율을 높이고 안정적인 운영을 지원한다. 최종 평가에서 우수한 성과를 낸 과제는 정부가 구매한 GPU를 추가로 지원받아 후속 모델 개발을 이어갈 수 있다. 과기정통부는 오는 15일 서울 엘타워에서 사업설명회를 열어 구체적인 내용을 안내할 계획이다. 배경훈 과학기술정보통신부 장관은 "'독자 AI 파운데이션 모델' 프로젝트와 병행해 글로벌 시장에서 경쟁력을 갖춘 특화 파운데이션 모델 확보하는 것은 국가 AI 생태계 확장 측면에서 굉장히 중요하다"며 "이번 프로젝트를 통해 AI 기술역량과 노하우가 교류되는 산·학·연 협력체계가 한층 강화돼 국내 생태계가 활성화되길 기대한다"고 밝혔다.

2025.09.05 16:01조이환

스마일서브, 엔비디아·AMD 아우른 '올라마' 기반 GPU 클라우드 출시

스마일서브가 인공지능(AI) 서비스 개발 기업을 겨냥해 '올라마(Ollama)' 프레임워크 기반의 솔루션을 새롭게 선보인다. 스마일서브는 대규모 언어 모델(LLM) 구축에 최적화된 그래픽처리장치(GPU) 클라우드 및 서버 호스팅 상품을 출시했다고 1일 밝혔다. 이번 상품은 올라마 프레임워크 기반으로 AMD와 엔비디아 GPU를 혼합해 다양한 선택지를 제공하는 것이 특징이다. 올라마는 GPU·신경망처리장치(NPU) 호환성이 넓어 가성비 높은 LLM 모델 구축 환경을 원하는 개발자와 서비스 기업 사이에서 각광받고 있다. 올해 초 저가형 게임용 GPU에서도 LLM 서비스 운용이 가능하다는 점이 알려지면서 엔비디아 주가에 일시적 영향을 줄 정도로 주목을 받은 바 있다. 스마일서브는 AMD 라이젠 CPU 내장 GPU, 라데온 RX 9600 XT, W6800 프로 GPU 등을 자사 '클라우드브이' 서버 호스팅 서비스에 적용했다. 기존 엔비디아 중급 GPU 라인업은 올라마 전용 구성으로 리뉴얼해 새롭게 선보일 계획이다. 스마일서브는 데이터센터에서 활용도가 낮았던 내장 GPU도 올라마를 통해 LLM 서비스에 적용할 수 있게 됐으며 이를 활용해 8GB VRAM 환경을 지원하는 신규 서버 호스팅 상품을 출시했다. 스마일서브 이유미 대리는 "8GB VRAM 환경에서도 젬마 3 4B 모델을 포함한 중소형 LLM 모델 설치가 가능하다"며 "내장 GPU만으로 업무 자동화나 간단한 챗봇 운영이 가능해졌다"고 말했다. 이어 "DDR5 기반 라이젠 PC와 노트북 내장 GPU에서도 설치가 가능해 저비용 개발 환경을 원하는 이용자라면 자사 블로그 가이드를 참고해 직접 구현할 수 있다"고 덧붙였다. 새롭게 추가된 라데온 GPU도 눈에 띈다. 지난 6월 출시된 RX 9060 XT는 가성비 최강으로 평가받는 제품으로, 16GB VRAM을 탑재해 젬마 3 12B 등 중대형 모델도 안정적으로 지원한다. 함께 출시된 라데온 프로 W6800은 32GB VRAM을 갖춰 젬마 3 27B 같은 초대형 모델도 무리 없이 운영할 수 있다. 스마일서브는 이 GPU 기반으로 자사 챗봇을 개발 중이며 응답 정확도를 90% 수준까지 끌어올린 상태다. 정식 서비스는 이달 중 출시될 예정이다. 엔비디아 중급 GPU 라인업도 올라마 특화 GPU 클라우드 서비스 '아이윈브이'에서 새롭게 전면 배치된다. 이 라인업은 최소 16GB VRAM부터 최대 96GB까지 지원하는 다양한 GPU로 구성됐다. 특히 GDDR7 VRAM을 탑재한 제품군을 중심으로 LLM 운영에서 발생할 수 있는 메모리 부족 문제를 해결하는 데 초점을 맞췄다. 스마일서브는 장기 이용자 대상 1년 약정 시 정가 대비 50% 할인 혜택을 제공하는 프로모션도 준비 중이다. 스마일서브 관계자는 "GPU 호스팅 상품은 GPU 가격뿐 아니라 서버·전력·공간·회선 등 다양한 요소가 단가에 영향을 주기에 가격을 낮추기 쉽지 않지만, 신규 론칭 단계에서 최대한 비용을 억제하고 가성비를 확보했다"고 밝혔다.

2025.09.01 17:55한정호

정부, '특화 AI' 사업자 선정 9월 초 '윤곽'…GPU 지원 2차 기회 열린다

정부가 추진하는 '특화 인공지능(AI)' 모델 육성 사업이 이달 초 본격적인 사업자 선정 절차에 돌입할 전망이다. '독자 AI 파운데이션 모델' 프로젝트에 이은 후속 지원책으로, AI 기술 경쟁의 핵심 자원인 그래픽처리장치(GPU)를 확보할 '제2의 기회'가 열리면서 업계의 이목이 쏠린다. 1일 업계에 따르면 과학기술정보통신부는 이달 초 '(가칭)인공지능 특화모델 프로젝트' 참여팀 공모를 시작할 예정이다. 당초 지난달 말 공고가 예상됐으나 정부의 내부 조율을 거쳐 9월 초로 구체화돼 가는 것으로 전해졌다. 이번 사업은 범용 거대언어모델(LLM)과 달리 특정 산업 분야에 최적화된 AI를 육성하는 데 초점을 맞춘다. 의료, 제조 등 전문 분야에서 즉각적인 성과를 낼 수 있는 특화 모델을 확보해 글로벌 시장을 선점한다는 복안이다. 이를 위해 정부는 엘리스그룹으로부터 추가 확보한 엔비디아의 최신 GPU 'B200' 512장을 지원한다. 앞서 '독자 AI 파운데이션 모델' 프로젝트 사업자로 최종 선정된 ▲네이버클라우드 ▲업스테이지 ▲SK텔레콤 ▲NC AI ▲LG AI연구원 등 5개 팀 외 기업들에게는 기술 개발에 필수적인 컴퓨팅 자원을 확보할 절호의 기회다. 이 때문에 이번 공모는 '독자 AI' 사업에 선정되지 못했거나 막대한 GPU 자원 확보에 어려움을 겪던 AI 기업들의 지원책으로 여겨지며 높은 관심을 받아왔다. 과기정통부 관계자는 이와 관련해 "현재 부처 내에서 공개 시점을 내부 조율하고 있다"며 "9월 초반 정도에는 정해질 듯하다"고 말했다.

2025.09.01 10:32조이환

서버용 AI칩, 향후 5년간 성장세 견조…"370兆 규모 성장"

글로벌 빅테크의 AI 인프라 투자가 지속됨에 따라, 관련 시스템반도체 시장도 향후 5년간 견조한 성장세를 기록할 전망이다. 30일 시장조사업체 옴디아에 따르면 AI 데이터센터용 프로세서 시장은 오는 2030년 2천860억 달러(한화 약 370조원)에 도달할 것으로 분석된다. 현재 AI용 시스템반도체 시장은 미국 엔비디아가 주도하고 있다. 이 회사는 오랜 시간 쌓아올린 GPU 기술력을 토대로, AI 데이터센터에 최적화된 고성능 AI 가속기를 개발하고 있다. 엔비디아의 주요 경쟁사인 AMD 역시 AI 가속기 시장 확대에 열을 올리고 있다. 아울러 글로벌 CSP(클라우드서비스제공자) 기업들은 AI 데이터센터를 위한 자체 주문형반도체(ASIC) 개발에 뛰어들고 있다. 구글의 TPU(텐서처리장치) '아이언우드', AWS(아마존웹서비스)의 '트레이니엄', 화웨이 '어센드(Ascend)' 등이 대표적인 사례다. 이에 따라 GPU 및 AI 가속기 시장 규모는 지난해 1천230억 달러에서 올해 2천70억 달러로 약 67% 성장할 전망이다. 나아가 오는 2030년에는 2천860억 달러에 도달할 것으로 예상된다. 카운터포인트리서치는 "데이터 센터향 투자에서 AI 인프라 지출이 차지하는 비중은 내년 정점을 찍고 이후 점차 완화될 것"이라며 "주된 성장 요인은 AI 애플리케이션 확산과 추론 모델에 대한 수요 증가 등"이라고 설명했다. 젠슨 황 엔비디아 CEO 역시 최근 진행된 실적발표에서 "AI 가속기에 대한 CSP 기업들의 단기, 중기 수요는 모두 강력하다"며 "2030년까지 3조~4조 달러 규모의 AI 인프라 투자가 진행될 전망"이라고 밝힌 바 있다.

2025.08.30 14:02장경윤

[현장] 'AI 고속도로' 시동…정부, GPU 3.5~3.7만장 조기 확보 선언

과학기술정보통신부가 인공지능(AI) 경쟁력을 좌우할 첨단 그래픽처리장치(GPU) 확보를 오는 2030년 목표보다 앞당겨 추진한다. AI 골든타임 얼마 안 남은 가운데 정부가 마중물 역할을 맡아 민간이 재투자와 생태계 활성화에 나서야 한다는 점을 강조하며 경고했다. 과기정통부는 29일 카카오 데이터센터 안산에서 정보통신산업진흥원(NIPA), 카카오, NHN클라우드, 네이버클라우드와 함께 'AI 고속도로 협약식 및 간담회'를 열고 GPU 인프라 확대와 데이터센터 규제 개선 방안을 논의했다. 현장에서는 정부와 3개 클라우드사 간 GPU 공급이 이날부터 본격 시작됐다는 점이 확인됐다. 배 장관은 올해 1만3천장, 내년 1만5천장 GPU를 확보하고 슈퍼컴퓨터 도입분까지 합쳐 총 3만5천~3만7천장을 마련하겠다고 말했다. 당초 매년 5천장씩 균등 확보하던 계획을 대폭 앞당긴 셈이다. 그는 미·중 경쟁 구도 속에서 2~3년 내 승부를 봐야 한다는 인식을 밝히며 올해와 내년에 대규모로 확보해 기업과 학계가 조기에 연구개발과 서비스를 만들어낼 수 있도록 하겠다고 했다. 이번 협약식은 단순한 선언을 넘어 GPU 조기 공급의 출발점이라는 의미도 크다. 정부는 클라우드 3사에 1만3천장을 배분하기 시작해 오는 12월에는 중소기업·스타트업을 대상으로도 지원을 연다. 배 장관은 규제 개선의 필요성도 언급했다. 그는 현재 건축법·소방법 등 파편화된 규제로 데이터센터가 종합시설임에도 불구하고 불명확한 부분이 많다며 이를 묶어 해결할 수 있는 특별법 제정을 준비 중이라고 말했다. 특구 지정에 대해서는 지역 안배와 거점 배치로 접근하겠다는 방안이다. 지역별 AX 프로젝트, SPC 사업과 연계해 클러스터형 허브를 구축하는 방안을 고려하고 있는 것이다. 토론회에서 업계는 GPU 사업의 수익성 문제를 제기했다. 업계는 초기 정부 지원이 상수는 아니라는 점을 지적했고 3년 내 자체 경쟁력을 갖추지 못하면 시장 전체가 흔들릴 수 있다며 클라우드사들이 AI 인프라 기반 수익 모델을 마련해야 한다는 의견을 제시했다. 네이버클라우드 김유원 대표는 정부의 GPU 투자가 기업 투자를 자극해 성공적으로 작동했다며 장기적으로는 AI가 산업 전반에 부가가치를 만들어야 진정한 생태계가 형성될 것이라고 평가했다. 김동훈 NHN클라우드 대표는 정부가 인프라 기회를 많이 열어준 것은 감사하다면서도 클라우드 사업자들도 자체 기술 혁신 속도를 높이지 않으면 글로벌 경쟁에서 밀릴 수 있다고 지적했다. 카카오 김세웅 부사장은 GPU 클러스터링 경험을 공유했다. 그는 2천장 이상을 묶어 효율 75~80%까지 끌어올렸고 R&D를 통해 5%만 개선해도 수백장 효과를 낼 수 있다는 점을 강조했다. 배 장관은 "정부가 마중물 역할에 그치지 않고 AI 전환의 토대를 마련하겠다"며 "민간이 수익성과 지속 가능성을 고민해 함께 생태계를 완성해달라"고 당부했다. 이어 "정부와 민간이 함께 한국 AI 시장 생태계를 만들어야 하며 시간이 많지 않은 만큼 반드시 조기 경쟁력을 확보해야 한다"고 강조했다.

2025.08.29 17:23조이환

[현장] 배경훈 장관 "GPU 5만장 확보 서두른다…AI 인프라 시장, 정부가 마중물"

배경훈 과학기술정보통신부 장관이 인공지능(AI) 연구와 산업 혁신을 뒷받침할 컴퓨팅 자원을 대규모로 확충하겠다는 의지를 밝혔다. 오는 2030년까지 추진하던 그래픽처리장치(GPU) 확보 계획을 앞당겨 정부가 마중물 역할을 하고 민간은 재투자와 생태계 활성화에 나서 달라는 당부다. 과학기술정보통신부는 29일 카카오 안산 데이터센터에서 'AI 고속도로 현장 간담회'를 개최했다. 배 장관은 이날 모두발언에서 올해 GPU 1만3천장, 내년 1만5천장 확보를 시작으로 오는 2030년까지 총 5만장을 마련할 계획이라고 밝혔다. 간담회에는 카카오·NHN·네이버클라우드 등 주요 클라우드 기업과 정보통신산업진흥원(NIPA) 관계자들이 참석했다. 배 장관은 GPU 수급난으로 학계와 기업이 어려움을 겪는 현실을 언급하며 정부가 먼저 연구개발과 서비스 혁신을 위한 기반을 마련하겠다고 했다. 그는 "학계가 마음껏 GPU를 쓰고 기업이 저렴한 비용으로 인프라를 활용할 수 있어야 한다"며 "결국 시장이 형성돼야 기업의 재투자가 이어질 수 있다"고 강조했다. 그는 또 미국산 GPU 의존도가 높지만 국내 신경망처리장치(NPU) 성능과 가격 경쟁력이 빠르게 개선되고 있다며 클라우드 사업자들에게 국내 칩 도입을 적극 검토해달라고 요청했다. 이를 통해 국산 반도체의 시장 기회를 확대하고 AI 인프라 자립 기반을 강화하겠다는 구상이다. 이번 간담회는 정부가 'AI 고속도로' 조기 구축 의지를 확인하고 내년도 GPU 확보 이행 상황과 지속가능한 데이터센터(AIDC) 모델을 점검하기 위해 마련됐다. 배 장관은 "정부가 먼저 마중물이 돼 연구개발과 서비스 환경을 마련하겠다"며 "민간이 재투자와 시장 생태계 활성화에 적극 나서 달라"고 당부했다.

2025.08.29 16:55조이환

글로벌 AI 추론 시장 급성장…한국 NPU 기업, 기회 잡을까

AI 추론 시장이 확대됨에 따라 글로벌 빅테크들은 GPU(그래픽처리장치) 의존도를 줄이고 있다. 가격이 비싸고, 발열량이 높은 GPU를 대신할 차세대 제품을 찾는 것이다. 대안으로 떠오르고 있는 칩이 AI 추론에 특화된 NPU(신경망처리장치)다. AI 연산에 특화된 구조가 낮은 전력으로도 높은 효율을 구사할 수 있게 만들어졌다. 대표적인 글로벌 기업이 미국 쌈바노바(SambaNova)와 그로크(Groq)다. 이들 기업은 이미 독자 생태계를 앞세워 시장 내 입지를 쌓아가고 있다. 이 같은 상황에 국내 업체인 리벨리온과 퓨리오사AI가 본격적으로 도전장을 내밀며 글로벌 NPU 기술 경쟁이 가속화되는 양상이다. AI 추론 시장 성장세...NPU 시장 전망 긍정적 28일 업계에 따르면 글로벌 AI 추론 시장은 가파르게 성장할 전망이다. 시장조사업체 마케츠앤마케츠는 추론 시장이 올해 약 106억달러(약 14조7천976억원)를 기록한 뒤, 오는 2030년 약 255억달러(약 35조5천980억원)까지 성장할 것으로 내다봤다. 연평균 약 19%에 달하는 성장률이다. 이에 따라 추론형 NPU 시장도 동반 성장할 것으로 점쳐진다. 다양한 AI 애플리케이션이 더 많은 추론 처리량, 낮은 지연, 높은 에너지 효율을 요구하며, 이를 가장 잘 대응할 수 있는 것이 추론형 NPU이기 때문이다. 삼일PwC경영연구원은 보고서를 통해 “AI에 사용되는 반도체 중 CPU, GPU 시장은 이미 기술 성숙 단계 진입했으며, 최적화된 저전력·고효율 ASIC(주문형반도체) 중심의 추론형 AI 반도체(NPU) 시장이 성장 중”이라고 분석했다. 美 쌈바노바·그로크, 자체 시장 구축 중 특히 NPU 시장에서 두각을 드러내는 업체는 쌈바노바와 그로크다. 양사 모두 미국의 스타트업이다. 먼저 쌈바노바는 데이터플로우 아키텍처 기반의 NPU와 자체 소프트웨어를 통합 제공하며 초대형 언어모델(LLM) 훈련과 추론을 아우른다. 고객에게 하드웨어뿐 아니라 모델·플랫폼까지 묶어 공급하는 방식으로 미국 정부, 금융기관 등 대형 고객을 확보했다. 업계 안팎에서는 자체적인 생태계를 구축했다는 점을 특징으로 지목한다. 그로크는 추론에 극단적으로 특화된 칩을 양산한다. 자체 칩과 소프트웨어를 통해 수백만 토큰 단위의 실시간 추론 속도를 구현하며, 클라우드 기반 'LLM 서빙 서비스'를 사업 모델로 삼았다. 대규모 데이터센터에서 고속 검색·RAG(검색증강생성) 서비스에 적합하다는 평가다. 하드웨어 판매보다 클라우드 추론 서비스로 수익을 내고 있다. 韓 AI반도체 도약 조건은 효율성·맞춤형 시장 공략...리벨리온, 리벨쿼드 공개 업계 안팎에서는 국내 AI 반도체 기업들이 글로벌 경쟁에서 승부를 내려면 두 가지 전략에 집중해야 한다고 보고 있다. 첫째, 전력 효율성에서 확실한 우위를 확보해야 한다는 점이다. 데이터센터의 전력 소비와 운영비용이 AI 확산의 최대 걸림돌로 떠오르는 상황에서, 효율이 곧 경쟁력으로 직결된다는 주장이다. 둘째, 맞춤형 시장 공략이다. 엔비디아처럼 범용 GPU로 모든 영역을 장악하기는 현실적으로 어렵다. 대신 통신사, 공공기관, 금융, 국방 등 특정 산업에 특화된 '맞춤형 추론형 NPU'로 영역을 넓히는 것이 현실적인 전략이다. 실제로 국내 AI반도체 스타트업인 리벨리온과 퓨리오사AI 모두 저전력·고효율 NPU를 앞세워 데이터센터·통신사·공공기관 등 특화 수요처를 공략하고 있다. 이런 가운데 리벨리온은 현지시간 27일 미국 핫칩스에서 차세대 NPU 리벨 쿼드(Rebel-Quad)를 공개했다. 이 칩은 삼성전자 4nm(나노미터, 10억분의 1m) 공정을 통해 양산되며, 엔비디아 블랙웰 수준의 성능을 자랑한다. 그러면서도 에너지 부담은 획기적으로 줄여준다. 박성현 리벨리온 대표는 “AI 산업은 GPU라는 단일 AI 하드웨어만으로는 감당하기 어려울 정도로 빠르게 커졌다”며, “리벨쿼드는 B200급 플래그십 GPU에 버금가는 성능을 유지하면서도 에너지 부담을 획기적으로 줄일 수 있는 지속가능한 AI시대의 대안으로, 리벨리온은 향후 초거대 AI 모델을 누구나 더 쉽고 효율적으로 활용할 수 있는 시대를 열어갈 것”이라고 말했다.

2025.08.28 09:14전화평

[유미's 픽] 젠슨 황 만난 최수연, 엔비디아 최신 GPU 확보 속도낼까

최수연 네이버 대표가 한미정상회담 경제사절단 일원으로 참가해 젠슨 황 엔비디아 최고경영자(CEO)를 만난 가운데 국내에서 가장 먼저 최신 그래픽처리장치(GPU)인 B300을 끌어 들여 AI 인프라 경쟁력을 높일지 주목된다. 26일 업계에 따르면 최 대표는 지난 25일(현지시간) 미국 워싱턴DC 윌러드 호텔에서 열린 한미 비즈니스 라운드 테이블에 참석해 황 CEO와 대화를 나눴다. 양측의 대외 공식 회동은 지난 5월 대만에서 만난지 3개월 만이다. 앞서 최 대표는 지난해 6월 말에도 이해진 네이버 이사회 의장과 함께 미국 캘리포니아주 산타클라라 엔비디아 본사에서 황 CEO와 만난 적 있다. 이는 엔비디아의 제안으로 성사된 만남으로, 당시 김유원 네이버클라우드 대표도 함께 만나 '소버린 AI' 모델 구축 방안에 대해 논의했다. 소버린 AI는 데이터센터를 특정 국가 안에 짓고 그 국가의 자체 인프라와 데이터로 구축하는 AI 모델을 뜻한다. 업계에선 AI 반도체 인프라를 공급할 새 시장으로 소버린 AI를 주목하고 있던 엔비디아가 수년 전부터 'AI 주권'을 강조하며 이 시장을 공략해온 네이버와 협업 관계를 더 강화하기 위한 의도라고 분석했다. 황 CEO는 그간 소버린 AI를 여러 차례 강조하며 업체들과의 생태계 조성에 적극 앞장서 왔다. 특히 지난 해 2월 두바이에서 열린 세계정부정상회의(WGS)에선 "데이터와 AI에 대한 국가 소유권을 강조한 소버린 AI가 전 세계 지도자들에게는 엄청난 기회"라며 "모든 국가는 자체적인 AI를 구축·소유할 필요가 있다"고 강조해 눈길을 끌었다. 네이버도 빅테크에 종속되지 않은 소버린 AI를 글로벌 진출 전략으로 내세워 다양한 성과를 거둬왔다. 지난해 3월에는 사우디 아람코와 파트너십을 체결해 중동 지역에 최적화된 소버린 클라우드 및 수퍼앱 구축, 아랍어 중심 소버린 AI 개발에 협력하기로 했다. 올해 5월에는 태국 AI·클라우드 플랫폼 기업 '시암 AI 클라우드'와 태국어 기반 거대언어모델(LLM), 관광 특화 AI 에이전트 공동 개발을 위한 협약을 맺기도 했다. 국내에서도 네이버는 정부의 굵직한 사업에 참여해 AI 인프라 역량을 인정 받고 있다. 네이버클라우드는 최근 정부의 ▲GPU 임차 사업 ▲GPU 확보 사업 모두 사업자로 선정된 상태로, GPU 임차 사업을 통해 엔비디아 H100 GPU 1천24장을 정부에 제공할 예정이다. 또 1조4천600억원 규모 GPU 확보 사업 이행을 위해 함께 사업자로 선정된 NHN클라우드, 카카오엔터프라이즈 등과 함께 실무 협의를 진행하고 있다. 최 대표는 올해 2분기 실적발표 컨퍼런스콜에서 "AI 모델과 클라우드 서비스 역량까지 풀스택으로 확보한 국내 유일 사업자인 만큼 향후 성장률이 높아질 것"이라며 "그동안 자체 기술로 준비해 온 인프라와 AI 생태계가 이제는 글로벌 기회로 확장되고 있다"고 강조했다. 여기에 조만간 정부가 '국가AI컴퓨팅센터 구축 사업'의 공모 조건을 완화해 3차 공모에 나설 예정으로, 네이버클라우드의 참여가 기대되고 있는 상황이다. 국가AI컴퓨팅센터 구축 사업은 정부가 국내 AI 경쟁력 강화를 위해 추진하는 대형 인프라 프로젝트로, 대학·연구소·스타트업 등 국내 AI 생태계 전반에 고성능 컴퓨팅 자원을 안정적으로 제공하기 위해 비수도권에 1엑사플롭스(EF)급 초대형 GPU 인프라를 구축하는 것이 핵심이다. 2030년까지 총 사업 규모는 최대 2조5천억원에 달한다. 이 같은 상황에서 최 대표와 황 CEO의 만남이 네이버클라우드뿐 아니라 향후 우리나라 정부 GPU 관련 사업에서도 유리하게 작용할 지 주목된다. 특히 엔비디아가 현재 주력 AI 칩인 블랙웰(B200)의 개량형 '블랙웰 울트라(B300)' 출시를 올해 3분기로 예고한 가운데 이를 국내에 빠르게 도입할 가교 역할을 할 수 있을지도 기대된다. 현재 국내 기업이나 정부에선 B300 도입 계획을 세우지 못했으나, 영국 네비우스 그룹, 구글 클라우드, 에퀴닉스 등 해외 기업들은 잇따라 관련 계획을 내놓고 있다. 이날 현장에서 양측이 어떤 대화를 나눴는지 공개되지 않았지만, 업계에선 이들이 향후 협력 방안과 AI 시장 동향을 간략히 주고 받았을 것으로 예상됐다. 업계 관계자는 "엔비디아는 GPU에 특화된 개발 플랫폼 '쿠다'를 앞세워 AI 반도체 시장의 압도적인 '원톱'으로 자리 잡은 기업"이라며 "엔비디아가 먼저 네이버에 미팅을 제안하고 만남을 종종 갖는 것은 엔비디아로부터 독립하기 위한 빅테크들의 자체칩 개발, 협업 등 '반(反) 엔비디아' 동맹 움직임 속 우군을 확보하려는 차원"이라고 해석했다. 그러면서 "앞으로는 GPU를 누가 더 빨리, 더 많이, 더 안정적으로 확보하느냐에 따라 국가와 기업의 미래가 결정될 수도 있다"며 "네이버로선 엔비디아와의 협력 강화를 통해 최신 GPU를 빠르게 확보함으로써 자체 클라우드 경쟁력뿐 아니라 국가 AI 인프라 확충에도 많은 기여를 할 수 있을 것으로 보여 앞으로의 역할이 더욱 기대된다"고 덧붙였다.

2025.08.26 18:13장유미

SSD-프로세서 직결 난항…HBF가 돌파구 될까

“SSD(솔리드스테이트드라이브)를 프로세서에 직접 연결하는 기술은 오랜 시간 꾸준히 연구됐습니다. 그러나 실제 적용에는 다소 난항을 겪는 상황입니다.” 26일 한 반도체 업계 관계자는 현재 SSD 연결 기술에 대해 이 같이 평했다. CPU, GPU 등 프로세서와 SSD를 직접 연결하기 어렵다는 것이다. 이 같은 상황이 발생한 가장 큰 이유는 메모리와 스토리지의 역할 차이에서 기인한다. CPU 등 프로세서는 연산을 하기 위해 매우 빠른 데이터 접근이 필요하다. 그래서 접근 속도가 빠른 D램과 직접 연결돼 동작한다. 반면 SSD는 저장장치라서 접근 속도가 D램 대비 다소 느리다. CPU가 SSD를 주 메모리처럼 쓰면 연산 속도가 크게 떨어질 수 밖에 없다. 그럼에도 불구하고 SSD와 프로세서를 직접 연결하려는 이유는 데이터 이동 비용을 절감하기 위해서다. 현재 반도체 구조에서 프로세서가 SSD 데이터를 사용하려면 SSD-낸드플래시 컨트롤러-D램-프로세서 단계를 거쳐야 한다. 반도체가 데이터 이동에서 발열이 발생한다는 점을 고려하면, 에너지 낭비가 심한 셈이다. 대규모 데이터센터에서는 비용 문제와도 직결된다. 이에 글로벌 반도체 기업들은 프로세서와 SSD를 직접 연결하기 위한 연구를 진행 중이다. 대표적인 기업이 엔비디아다. 엔비디아는 IBM, 여러 대학들과 손을 잡고 GPU를 위한 대용량 가속기 메모리 기술 BaM(Big Accelerator Memory)을 개발하기도 했다. BaM은 차세대 전송 프로토콜 NVMe(비휘발성 기억장치 익스프레스)를 통해 SSD와 GPU를 직접 연결하는 기술이다. HBF, SSD 연결 판도 바꿀 게임체인저될까 업계에서는 HBF(High Bandwidth Flash)가 SSD와 프로세서간 연결을 바꿀 게임체인저로 보고 있다. HBF는 D램과 유사한 방식으로 프로세서에 더 가까이 배치된 플래시 메모리다. HBM(고대역폭메모리)이 D램을 적층한 제품이라면, HBF는 플래시를 쌓아 올린 메모리다. 두 제품 모두 메모리 적층을 통해 대역폭을 대폭 넓혔다는 공통점을 갖고 있다. HBF가 HBM처럼 정보 처리를 빠른 속도로 할 수 있는 것이다. SSD와 프로세서 연결간 문제로 지적되던 속도 문제를 해결한 셈이다. 다만, 아직 넘어야할 장애물이 존재한다. HBF를 구현하기 위한 일종의 인프라 구축이 어렵다는 의견이다. HBF를 오가는 블록 스토리지(일종의 데이터 묶음)의 단위가 크기 때문이다. 정명수 카이스트 교수는 “블록 스토리지가 커서 I/O 그래뉴얼리티(한 번의 입출력으로 접근하거나 전송할 수 있는 데이터 블록의 최소 단위)가 기존과 다르다”며 “큰 정보량을 한 번에 움직일 수 있을만한 소프트웨어 등 인프라가 필요하다”고 말했다.

2025.08.26 16:25전화평

"남부 이어 서부도 맡았다"…코난테크, 국내 발전사 생성형 AI 구축 앞장

코난테크놀로지가 국내 발전사 생성형 인공지능(AI) 구축에 나선다. 코난테크놀로지는 지난 18일 한국서부발전의 '생성형 AI 플랫폼 구축 용역' 사업자로 선정됐다고 26일 밝혔다. 사업은 착수일로부터 1년간 진행되며 사업비는 총 37억원 규모다. 서부발전은 업무 자동화와 디지털 혁신을 선도하기 위해 AI 인프라와 현장 밀착형 플랫폼 구축 사업을 본격 추진한다. 이를 위해 생성형 AI 플랫폼 도입에 필요한 전 과정을 통합 발주했다. 또 전 직원이 활용할 수 있는 고성능 생성형 AI 플랫폼과 검색증강생성(RAG) 연동 어시스턴스를 제공할 계획이다. 나아가 서부발전 정보시스템과 연계해 업무 자동화를 지원하는 AI 에이전트를 개발·적용할 예정으로, 이는 발전사 최초의 시도다. 또 모바일 오피스 영역까지 AI 적용 범위를 확대해 조직 전반의 생산성과 효율성을 높여 나갈 방침이다. 코난테크놀로지는 이번 사업에서 H200 그래픽처리장치(GPU) 등 고성능 그래픽카드와 80테라바이트(TB) 전용 스토리지, AI 전용 네트워크 등 첨단 인프라를 구축한다. 더불어 한국어 특화 거대언어모델(LLM)과 자체 미세조정된 경량화거대언어모델(sLLM)을 도입해 내부 데이터와 연동되는 하이브리드 생성형 AI 환경을 제공할 예정이다. 서부발전은 전사 차원의 생성형 AI 플랫폼 도입을 통해 직원들의 AI 활용 역량을 강화하고 조직 전반의 업무 효을 제고를 기대하고 있다. 서부발전 관계자는 "AI는 현재 공공기관에 던져진 가장 중요한 화두"라며 "이번 사업을 계기로 AI 기반 업무 혁신을 본격화 해 나가겠다"고 밝혔다. 코난테크놀로지는 지난해 6월 한국남부발전 '생성형 AI 구축 및 학습용역' 사업에 이어 서부발전 LLM 구축까지 연속 수주함으로써 발전사 대상 생성형 AI 사업에서 확고한 주도권을 확보하게 됐다. 김영섬 코난테크놀로지 대표는 "연이은 수주는 곧 당사 기술에 보내주신 신뢰라 여긴다"며 "발전 분야에서의 AI 수준이 곧 국가 에너지 경쟁력과 직결되는 만큼 사명감을 갖고 임하겠다"고 말했다.

2025.08.26 09:23장유미

1조4천억 GPU 확보사업 본격화…정부-클라우드 3사, 실무협의체 가동

과학기술정보통신부가 1조4천600억원 규모 '그래픽처리장치(GPU) 확보 사업'의 차질 없는 이행을 위해 정보통신산업진흥원(NIPA)·NHN클라우드·카카오·네이버클라우드와 실무협의체를 발족했다. 실무협의체는 21일 양재 엘타워에서 1차 회의를 개최했다. 이번 회의에는 과기정통부 인공지능(AI)기반정책관, NIPA AI인프라본부장, NHN클라우드·카카오·네이버클라우드의 사업 총괄책임자 등이 참석했다. 이들은 ▲사업자별 GPU 확보·구축·운용 계획 ▲애로사항 ▲국내 AI 생태계에 GPU 배분·지원을 위한 가칭 'GPU 통합지원 플랫폼' 구축 계획 등을 폭넓게 논의했다. 또 밀도 있는 점검을 위해 실무협의체를 수시 개최하기로 뜻을 모았다. 특히 1차 회의에서는 사업자별 GPU 확보·구축과 관련해 미국 관세 등의 영향은 크지 않은 상황으로 확인됐으며 향후에도 대내외 리스크 요인 등을 지속 점검·관리해 나가기로 합의했다. 아울러 ▲오는 10월까지 GPU 통합지원 플랫폼 구축 추진 ▲11월까지 국내 산학연 등을 대상으로 1차 GPU 지원 신청 접수 및 전문가 평가 진행 ▲12월부터 GPU 순차 지원 등을 위해 더욱 긴밀히 협력해 나가기로 했다. 과기정통부 김경만 인공지능기반정책관은 "이번 실무협의체는 대한민국 AI 생태계 성장과 이에 필요한 AI컴퓨팅 인프라 지원을 위한 첫걸음"이라며 "앞으로도 실무협의체를 수시 가동해 사업 진행 상황 등을 점검함으로써 차질 없는 국내 AI컴퓨팅 인프라 구축·지원에 최선을 다하겠다"고 밝혔다.

2025.08.21 10:00한정호

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI, 韓 미래 비전 밝힌다...'초거대 AI 서밋' 30일 개막

누리호 4호 왜 하필 자정에 쏠까..."이유는 KAI 때문"

AI 시대, 'HR의 현재와 미래' 바로 짚고 전망한다

바퀴 휴머노이드, 韓 제조현장 바꾼다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.