• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPU'통합검색 결과 입니다. (216건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아, 루빈 울트라·파인만 AI칩 공개…"차세대 HBM 탑재"

엔비디아가 인공지능(AI) 반도체 산업의 주도권을 유지하기 위한 차세대 GPU를 추가로 공개했다. 오는 2027년 HBM4E(7세대 고대역폭메모리)를 탑재한 '루빈 울트라'를, 2028년에는 이를 뛰어넘을 '파인만(Feynman)' GPU를 출시할 예정이다. 파인만에 대한 구체적인 정보는 아직 공개되지 않았지만, '차세대 HBM(Next HBM)'을 비롯해 다양한 혁신 기술이 적용될 것으로 전망된다. 18일(현지시간) 젠슨 황 엔비디아 최고경영자(CEO)는 미국 실리콘밸리 새너제이 컨벤션 센터에서 열린 연례행사인 'GTC 2025' 무대에 올라 AI 데이터센터용 GPU 로드맵을 발표했다. 이날 발표에 따르면, 엔비디아는 최신형 AI 가속기인 '블랙웰' 시리즈의 최고성능 제품인 '블랙웰 울트라'를 올해 하반기 출시한다. 해당 칩은 12단 HBM3E(5세대 HBM)를 탑재했으며, AI 성능을 이전 세대 대비 1.5배 높인 것이 특징이다. 이어 엔비디아는 HBM4를 탑재한 '루빈' 시리즈를 내년 하반기 출시한다. 루빈부터는 기존 '그레이스' CPU가 아닌 '베라' CPU가 채용된다. 루빈의 최고성능 제품인 루빈 울트라는 내후년인 2027년 하반기께 출시가 목표다. 루빈 울트라에는 HBM4E가 채용돼, 메모리 성능이 블랙웰 울트라 대비 8배나 늘어난다. 그동안 드러나지 않았던 차차세대 AI 가속기에 대한 정보도 공개됐다. 엔비디아는 루빈 이후의 제품명을 파인만으로 확정했다. 미국의 저명한 이론 물리학자인 리처드 파인만에서 이름을 따왔다. 엔비디아는 파인만에 대해 차세대 HBM(Next HBM)을 탑재한다고 기술했다. 다만 구체적인 세대명은 공개하지 않았다. 파인만은 오는 2028년 출시될 예정이다.

2025.03.19 08:43장경윤

"삼성SDS도 신뢰한 AI 팩토리"…델-엔비디아, 기업용 AI 시장 공략 '박차'

델 테크놀로지스가 엔비디아와 손잡고 인공지능(AI) 인프라를 전면 업그레이드한다. 기업들의 AI 도입 장벽을 낮추고 혁신 속도를 끌어올려 시장 경쟁력을 강화하려는 행보다. 델 테크놀로지스는 18일 온라인 미디어 브리핑에서 '엔비디아 기반 델 AI 팩토리'의 최신 포트폴리오를 공개했다. 엔비디아의 'GTC 2025'와 동시에 열린 이번 간담회에서는 엔비디아와 델의 협력 성과가 집중 조명됐다. 델은 AI PC, 서버, 스토리지, 네트워킹 등 AI 인프라 전반을 아우르는 신제품을 대거 선보였다. 이날 발표를 진행한 바룬 차브라 델 인프라 및 텔레콤 마케팅 수석 부사장은 AI의 본격적인 산업 적용이 시작되면서 기업들은 AI 도입에 있어 여러 장애물을 마주하고 있는 점을 지적했다. 차브라 부사장에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 직면해 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있다. 이에 따라 델은 엔비디아와의 협력을 통해 이 같은 시장 수요를 적극 공략할 계획이다. 실제로 델은 이번 브리핑에서 AI PC 시장 공략을 위한 신제품을 대거 선보였다. '델 프로 맥스 AI PC' 라인업에는 엔비디아의 최신 '그레이스 블랙웰' 아키텍처가 적용됐다. 기존 데이터센터에서만 활용되던 AI 개발용 그래픽처리장치(GPU) 성능을 데스크톱에서도 구현한 것이 특징이다. 연구자와 개발자를 위한 소형 워크스테이션뿐 아니라 784기가바이트(GB) 메모리와 20페타플롭스(PFLOPS) 성능을 갖춘 고성능 AI 개발용 PC도 함께 공개됐다. 데이터센터 부문에서도 델과 엔비디아의 협력은 강화된다. 차브라 부사장에 따르면 델은 엔비디아의 최신 블랙웰 GPU와 커넥트X8 슈퍼닉스를 지원한다. 특히 곧 출시될 '델 파워엣지 XE 8712(PowerEdge XE8712)' 서버는 노드당 2개의 그레이스 CPU와 4개의 블랙웰 GPU를 탑재해 데이터센터 내 AI 성능을 극대화할 것으로 예상된다. 한 랙에 144개의 GPU를 수용할 수 있어 초고밀도 AI 연산 환경을 구축할 수 있다. AI 데이터 관리 역시 델의 핵심 혁신 분야 중 하나다. 이를 위해 '델 AI 데이터 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'는 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계됐다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 차브라 부사장은 "AI의 성능을 극대화하려면 데이터를 빠르게 처리하고 안전하게 보관하는 것이 필수"라며 "우리 AI 데이터 팩토리는 대규모 AI 워크로드를 보다 효율적으로 운영할 수 있도록 설계돼 기업들의 AI 도입 속도를 한층 끌어올릴 것"이라고 설명했다. AI 소프트웨어 분야에서도 델과 엔비디아의 협력은 이어지고 있다. 델은 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합했다. 이에 따라 기업들은 AI가 단순한 질의응답을 넘어 스스로 의사 결정을 내릴 수 있는 시스템을 구축할 수 있게 됐다. 회사는 AI 인프라 구축뿐만 아니라 AI 네트워킹 및 배포 서비스도 강화하고 있다. 네트워크 최적화, GPU 서버 구축, 다중 벤더 환경 통합 등 다양한 AI 전문 서비스를 제공하며 AI 프로젝트의 초기 단계부터 운영까지 전 과정을 지원한다. 이같이 AI 도입이 빠르게 확산되면서 델과 엔비디아의 협력도 지속적인 탄력을 받고 있다. 양사는 지난해 GTC에서 '델 AI 팩토리 위드 엔비디아'를 공개한 이후 지난 1년간 100개 이상의 신규 AI 제품을 출시하고 2천 개 이상의 고객을 확보했다. 특히 삼성SDS는 델과 협력해 AI 팩토리를 구축했으며 이를 통해 모델 정확도를 98%까지 향상시키고 업무 생산성을 70% 이상 개선한 것으로 알려졌다. 스콧 구 삼성SDS 클라우드 서비스 사업부문 부사장은 델-엔비디아 협력을 두고 "우리는 모든 고객을 위한 AI 팩토리를 구축하고 있다"며 "이를 서비스 형태로 안전하게 제공하거나 고객의 자체 환경에 배포할 수 있도록 하고 있다"고 말했다. 향후에도 델은 엔비디아와 협력해 AI 시장에서의 입지를 더욱 강화할 계획이다. 바룬 초프라 델 수석 부사장은 "우리는 엔비디아와 AI 도입을 가속화할 수 있는 완벽한 파트너"라며 "AI 생태계 전반에서 기업들이 혁신을 실현할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 08:32조이환

엔비디아 'GTC 2025' 개막...젠슨 황 입 주목

엔비디아가 생성형 인공지능(AI)과 고성능 컴퓨팅 미래 비전을 제시한다. 엔비디아는 17일부터 21일(현지시간)까지 미국 캘리포니아 산호세에서 'GPU 테크놀로지 컨퍼런스(GTC) 2025'를 개최해 AI 시대 필요한 차세대 그래픽처리장치(GPU)를 비롯한 AI 칩, 소프트웨어(SW) 플랫폼을 발표한다. 이번 행사는 세션 약 1천개, 연사 2천명, 전시 400개로 구성됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 18일 오전 10시 SAP 센터에서 기조연설을 진행한다. 매년 글로벌 기술 업계는 황 CEO 발표 내용에 주목했다. 엔비디아는 이번 황 CEO 연설이 AI와 고성능 컴퓨팅 기술에 초점을 맞출 예정이라고 밝혔다. 로보틱스, 소버린 AI, AI 에이전트, 자동차 분야 관련 발표도 진행된다. 다수 외신은 이번 행사에서 블랙웰 칩 라인업 업그레이드 버전이 공개될 가능성이 크다고 봤다. 앞서 황 CEO는 최근 실적 발표에서 차세대 블랙웰 B300 시리즈 '블랙웰 울트라'가 올해 하반기 출시될 예정이라고 밝힌 바 있다. 블랙웰 울트라는 기존보다 더 높은 컴퓨팅 성능을 제공하며, 288GB 메모리를 탑재했다. 메모리 집약적인 AI 모델을 실행하고 학습하는 데 적합할 것이라는 평가를 받고 있다. 차세대 GPU 시리즈인 '루빈'도 이번 GTC에서 언급될 것이란 분석도 이어지고 있다. 루빈은 2026년 출시 예정이다. 테크크런치는 "이번 행사에 루빈 이후 제품에 대한 내용도 일부 공개될 전망"이라며 "루빈 울트라 GPU 혹은 루빈 다음 세대의 GPU 아키텍처일 수도 있다"고 봤다. 엔비디아는 '퀀덤 데이'를 통해 양자 컴퓨팅 전략도 제시한다. 양자 컴퓨팅 분야 주요 인사들과 양자 애플리케이션 개발을 위한 로드맵을 논의할 예정이다. 외신은 엔비디아가 올해 행사 성과가 비즈니스에 영향 미칠 것이라고 봤다. 초기 블랙웰 GPU 과열 문제와 미국 수출 통제로 인한 관세 우려가 엔비디아 주가 하락으로 이어진 바 있다. 여기에 중국 AI 스타트업 딥시크가 딥시크-R1 모델을 출시하면서 투자자들은 고성능 GPU 수요에 대한 우려를 표하고 있다. 이 외에도 엔비디아는 이번 GTC에서 글로벌 기업과 연구 기관, 정부와 맺은 전략적 협업 사례와 성과도 소개한다고 밝혔다. 개발자와 기술 전문가를 위한 교육 세션을 전년보다 확대했다. 또 데이터 보안 등 AI 윤리적 측면을 다룬 토론회도 진행될 예정이다. 엔비디아는 "이번 GTC는 AI와 가속 컴퓨팅 미래를 결정짓는 중요한 자리가 될 것"이라며 "기술 혁신을 선도하고 글로벌 산업의 발전을 이끄는 계기가 될 것"이라고 공식 홈페이지를 통해 밝혔다.

2025.03.16 09:21김미정

"AI 강국 위해 컴퓨팅 인프라 확충...GPU 조기 확보 절실"

한국이 AI 강국 G3로 도약하기 위해서는 컴퓨팅 인프라, 특히 GPU 확보가 '생존의 문제'라는 진단이 나왔다. 이에 정부와 산업계는 한목소리로 GPU 인프라 확충의 시급성을 강조하며 국회의 빠른 대응을 촉구했다. 송상훈 과학기술정보통신부 정보통신정책실장은 12일 국회 의원회관에서 정동영, 최형두 의원과 정보통신산업진흥원(NIPA) 주최로 열린 'AI G3 강국을 위한 신기술 전략 조찬 포럼'에서 "AI G3 강국으로 가기위해 여러가지 계획들을 신속하고 계획대로 집행해야 한다"며 "여야 국정협의체에서 진행되고 있는 추경이 신속하게 합의가 돼 예산이 계획대로 집행될 수 있도록 뜻을 모아달라"고 촉구했다. 최근 정부는 AI 강국 도약을 위한 대규모 컴퓨팅 인프라 확충 계획을 발표했다. 특히 AI 모델 개발에 필수적인 GPU(그래픽처리장치) 확보에 총력을 기울이겠다는 방침이다. 송 실장은 "최근 글로벌 AI 패권 경쟁은 딥시크 돌풍으로 새로운 국면에 진입하고 있다"며 "중국 스타트업 딥시크의 혁신을 새로운 기회로 삼아 우리나라 가용 자원을 총 결집하여 국가 AI 역량을 한 단계 도약시켜야 한다"고 강조했다. 현재 한국은 AI 인프라가 부족한 상황이다. 송 실장은 "천문학적 자본을 앞세운 빅테크들의 AI 인프라 확충 전쟁 속에서 우리 연구자와 기업들은 인프라 부족을 호소하고 있다"며 "선도국 대비 1년 이상의 기술 격차가 있다"고 진단했다. 정부, AI 3대 전략 발표...인프라·모델·전환 가속화 추진 정부는 ▲AI 컴퓨팅 인프라 확충 ▲차세대 AI 모델 개발 ▲AI 전환 가속화라는 3대 전략을 수립했다. 송 실장은 "이 전략들을 바탕으로 글로벌 탑 수준의 AI 모델을 세계 최고 수준의 인재가 개발할 수 있도록 정부는 적극 지원하겠다"며 "개발된 우리의 AI 모델로 신성장과 신시장을 발굴하고 산업·공공 분야 적용을 통해 국가 AI 전환을 가속화하겠다"고 밝혔다. 정부는 2026년 상반기까지 총 1.8만 장의 첨단 GPU를 확보할 계획이며, 이 중 1만 장은 민관 협력을 통해 연내에 확보해 국가 AI 컴퓨팅 센터를 조기에 가동한다는 방침이다. 송 실장은 "당장 현장의 시급한 AI 컴퓨팅 수요에 대응하기 위해 광주 AI 데이터센터, 민간 클라우드 등 국내에서 보유하고 있는 GPU 자원의 AI 기업 활용을 우선 지원하겠다"고 밝혔다. 또한 2030년까지 국가 AI 컴퓨팅 센터 내 국산 AI 반도체 비중을 50%까지 끌어올릴 예정이다. 민간 투자 촉진을 위해 AI를 국가 전략 기술로 지정해 세제 지원을 강화하고, 비수도권 AI 데이터센터 설치 시 전력 개통 기간 단축, 입지 다변화, 시설 설치 기준 최소화 등 제도 개선도 추진한다. 송 실장은 "지난 6월 조세특례제한법 개정으로 AI 인프라 투자에 대한 세제 지원이 강화됐다"며 "앞으로도 전력과 입지·시설 관련 제도 개선을 지속적으로 추진하겠다"고 설명했다. 이와 함께 '월드 베스트 AI팀' 프로젝트를 통해 정예팀을 선발하고 단기간에 글로벌 탑 수준의 LLM을 개발할 수 있도록 지원하며, '글로벌 AI 챌린지' 개최로 최고 인재를 발굴하고 1조 원 규모의 범용 인공지능 R&D도 추진한다. 아울러 교육, 법률, 의료 등 분야별 특화 생성형 AI 개발과 국산 AI 모델의 초기 시장 창출을 위한 부처 협력형 선도 프로젝트도 진행할 계획이다. 송 실장은 "AI 컴퓨팅 인프라 확충을 시작으로 국가 AI 역량을 강화하여 AI G3 도약을 실현해 나가겠다"며 "국회를 비롯한 학계, 산업계의 많은 협력과 지원이 필요하다"고 강조했다. "GPU 확보 시급"...산업계 목소리 쏟아져 이날 포럼에 참석한 기업 대표들은 한목소리로 AI 인프라를 구축해야 한다며, 특히 GPU 확보의 시급성을 강조했다. SK텔레콤 이영탁 부사장은 "AI 강국이 되기 위해서는 생태계가 중요하다. AI 컴퓨팅 인프라 확충이 정말 중요한데, 특히 GPU가 당장 시급하다"며 "민간과 잘 협의해서 AI 컴퓨팅 인프라 생태계가 함께 발전할 수 있도록 해야 한다"고 밝혔다. 모빌린트 신동주 대표도 "당장 AI 반도체와 GPU 확충에 부족한 부분이 있어 중요하다"며 "국산 반도체 비중을 늘려야 한다"고 주장했다. 퓨리오사 백준호 대표는 "AI 컴퓨팅 인프라 확충이 필요하다"며 "최근 AI 모델에서 혁신을 이룬 기업들, 예를 들어 딥시크나 오픈AI 등은 대부분 스타트업"이라고 강조했다. 이어 그는 "혁신기업들이 등장할 수 있는 토대를 위해 스타트업에 컴퓨팅 인프라를 지원해 생태계를 만들어주면 좋겠다"고 제안했다. 리벨리온 신성규 CFO는 "딥시크의 사례를 살펴보면 컴퓨팅 인프라를 훈련과 추론으로 나눠 준비했다"며 "정부의 2030년까지 국산 반도체 비중을 높이는 계획은 감사하지만, 처음 인프라 도입 단계인 올해부터 5%라도 국산 AI 반도체가 함께 구축되는 것이 중요하다"고 말했다. 한편 'AI G3 강국을 위한 신기술 전략 조찬 포럼'은 지난해 진행된 AI·모빌리티 신기술전략의 시즌2로 기획됐다. 현장에는 국회, 정부, 산학연 전문가 20여명 참석해 AI 산업 발전을 위한 신기술, 트렌드, 정책, R&D 등을 논의했다.

2025.03.12 11:01최지연

유상임 장관 "AI 분야 9개월 지체하면 3년 기술 격차 벌어져"

유상임 과학기술정보통신부 장관은 "인공지능(AI) 분야에서 9개월 정도 지체하면 경쟁국과 3년 정도 기술 격차가 발생하는 문제를 감당할 수밖에 없다"고 밝혔다. 유 장관은 11일 정부서울청사에서 열린 부처 핵심과제 브리핑에서 "(국가 AI 경쟁력) 간극은 따라가기 쉽지 않다"며 이같이 말했다. 국가 AI 경쟁력 강화를 위한 컴퓨팅 인프라 확충의 시급성을 강조한 과기정통부가 우려하는 부분은 GPU 수급을 위한 예산 마련이다. 추가경정예산을 통해 GPU를 사들여야 하는데 쉽지 않다는 뜻이다. 유 장관은 "올해 GPU를 도입하기 어려운 상황이 주무부처 장관으로서 우려스럽다"고 토로했다. 앞서 지난달 정부는 2030년까지 GPU를 3만장 확보한다는 기존 계획을 2027년까지 앞당기고, 연내 AI 컴퓨팅센터를 열어 GPU 1만장 확보를 추진해야 한다고 밝혔다. 국제 협력의 중요성도 강조했다. 유 장관은 "과학기술 분야에서 미국과의 글로벌 R&D가 중요하다"며 "특히 해외에 있는 우수 인재들을 한국으로 유치하는 것이 시급하다"고 말했다. 최근 한-스페인 과기공동위원회, 한-EU 연구혁신의 날, 한-EU 공동위 등을 개최하며 국제 과학기술 협력의 네트워크를 확대하고 있다. AI 기본법과 관련해서는 "EU에 이어 두 번째로 제정된 기본법으로, 19개 개정안을 담아 지능 위주로 설계했다"며 "규제를 최소화하고 AI 발전에 따라 유연하게 대응하겠다"고 밝혔다. 과기정통부는 과학기술 인재 육성에도 박차를 가하고 있다. 올해 30여개 대학의 약 5만 명 석박사급 학생들에게 연구생활 장려금을 지원할 계획이다. 지난 2월27일에는 '미래 과학자와의 대화' 행사를 개최해 대통령, 과학 장학생, 국제 과학 올림픽 수상자들을 초청하는 등 차세대 과학기술 인재 육성에 힘을 쏟고 있다. 또한 연구 성과를 산업으로 연결시켜 국가 경쟁력에 기여할 수 있는 건강한 기술 생태계를 만들 계획이다. 출연기관의 거점 역할과 기술 사업화, 전문 회사 육성, 기술의 스케일업, 기술 창업과 성장 지원 등을 ICT, 소재 분야 등에서 맞춤형으로 설계할 예정이다. 이와 함께 과기정통부는 3월 중 주요 추진 계획을 발표했다. 양자전략위원회 출범, 차세대 원자력 확보 로드맵 마련, 중고폰 안심거래 인증제도 도입 등이 그 내용이다. 특히 차세대 원자력 확보 로드맵은 AI 확산에 따른 급증하는 전력 수요에 대비하기 위한 방안이다. 또한 과기정통부는 지난 2월 알뜰폰 도매대가 고시 개정을 통해 출시된 '1만 원대 5G 20기가 데이터 요금제'가 좋은 반응을 얻고 있다고 밝혔다. 이에 대해 류제명 네트워크정책실장은 "현재 3개 사업자가 해당 요금제를 출시했으며, 약 10개 사업자가 준비 중"이라며 "가입 추세가 기존 요금제 대비 2배에 달할 정도로 인기가 높다"고 설명했다. 유 장관은 "국가적 위기 상황에서 정치적 상황 때문에 대응이 미뤄져서는 안 된다"며 "여야를 막론하고 함께 대응해야 한다"고 강조했다.

2025.03.11 16:48최지연

KISTI, 아세안 국가에 HPC·AI 인프라 "이식"

한국과학기술정보연구원(원장 이식, 이하 KISTI)이 아세안 10개 회원국을 대상으로 인공지능(AI)을 활용한 디지털 역량 강화에 나섰다. KISTI는 아세안 회원국의 데이터 및 AI 활용을 위한 HPC 인프라 구축 기념행사를 인도네시아 자카르타에 위치한 인니연구혁신청(BRIN)에서 개최했다고 11일 밝혔다. 한-아세안 디지털 혁신 플래그십 프로젝트(KADIF) 일환으로 추진 중인 HPC 인프라 및 역량 강화 사업은 한국 정부가 공여하는 한-아세안 협력기금(AKCF) 지원을 받아 2024년 9월부터 2028년까지 수행한다. 4년 동안 1천만 달러(한화 약 147억 원) 규모의 예산으로 아세안 회원국에 고성능컴퓨터(HPC)기반 활용 환경을 제공한다. 아세안 회원국은 브루나이, 인도네시아, 말레이시아, 미얀마, 필리핀, 싱가포르, 태국, 베트남, 라오스, 캄포디아 등 10개국이다 사업 목표는 데이터, 인공지능을 활용한 디지털 역량 강화다. 주요 사업 내용은 ▲초고성능컴퓨터 인프라구축 ▲과학기술 지식 정보서비스(NTIS) 플랫폼 구축 ▲HPC·AI 활용 등 연수 교육이다. 4년간 160명을 교육시킬 계획이다. 현재 태국과 싱가포르를 제외한 아세안 회원 8개국은 초고성능컴퓨팅인프라가 없는 실정이다. 특히 데이터, AI 등의 역량의 핵심인 GPU나 신경망처리장치(NPU) 기반의 초고성능 컴퓨팅 환경이 열악하다. 이식 원장은 "HPC 운영, 인공지능 기술 등 KISTI의 내부 역량을 활용해 아세안 국가들의 디지털 기술 경쟁력 확보에 이바지할 것"이라고 말했다. 까으 끔 후은(Kao Kim Hourn) 아세안 사무총장은 “이번 한국과 아세안과의 핵심 연구인프라인 HPC 구축 사업으로 아세안 국가의 디지털 및 과학기술 경쟁력 제고에 크게 기여할 것"으로 기대하며 "더 나아가 한-아세안 간 지속적인 디지털 협력체계 구축을 적극적으로 지원할 것”이라고 언급했다.

2025.03.11 10:31박희범

"국내 30개 병원에 H100 GPU 총 3,840장 필요"

의료분야 데이터센터 구축과 생성형 AI를 개발하기 위해 최소 30개 병원에 각가 H100 GPU 128장(랙2개)씩 총 3천840장을 확보해야 한다는 주장이 제기됐다. 아주대학교 박래웅 의료정보연구센터장은 10일 국회의원회관에서 열린 바이오헬스디지털혁신포럼 창립총회 및 세미나에서 이같이 주장했다. 이 창립총회는 바이오헬스디지털혁신포럼(공동의장 최수진, 노연홍)과 대한의료데이터협회(회장 정명예) 등이 주최했다. 박 센터장은 세미나에서 "중앙식 대규모 데이터센터 구축 대신 30개 병원에 일정 수준 이상 GPU를 구축해야 한다"며 "소요 비용으로 총 2천억 원 정도 들 것"으로 예상했다. 박 센터장은 네트워크로 과기정통부 코렌(KOREN, 차세대 네트워크 선도 연구시험망' 이용을 제안했다. 또 AI 학습 방법은 '연합학습'기법이 적합할 것이라고 지적했다. "이 시스템은 병원 데이터가 외부로 반출되지 않기 때문에 병원이 보유한 거의 모든 의료 데이터를 AI학습에 활용할 수 있을 것입니다." 이에 앞서 을지대학교 강민수 스마트의료정보학부 교수(의료원 전산처 통합전산센터장)은 '우리나라의 의료데이터 혀황과 나아갈 길'에 대해 주제발표했다. 강 교수는 AI 기반 의료 데이터 산업의 중요성을 강조하며 고품질 의료 데이터의 필요성에 대해 목소리를 높였다. 강 교수는 또 의료 데이터 산업 활성화가 "신약개발 속도, 특히 초기 연구단계를 획기적으로 앞당길 것"이라며 "의료 비용 절감 및 경제적 가치 창출 등도 장점"이라고 언급했다. 강 교수는 의료데이터 산업 조성 주요 과제로 데이터 표준화 및 상호 운용성 확보 법적 윤리적 문제와 데이터 보안 및 개인정보 보호 강화 기술인프라 구축 전문인력 양성 등을 곱았다. 전상표 대한의료데이터협회 부회장이 좌장을 맡아 진행한 패널 토론에서는 보건복지부 백영하 보건의료데이터진흥과장, 과기정통부 김수정 데이터진흥과장, 산업통상자원부 김정대 바이오융합산업과장, 양희철 법무법인 명륜 변호사, 한국과학기술정보연구원 소대섭 책임연구원, 이주철 특허법인 해안 대표, 강민수 교수 등이 참석했다. 김수정 데이터진흥과장은 "최근 AI에서 핵심은 컴퓨팅 파워와 인재, 데이터"라며 "바이오 중요성 잘 인식하고 있고, 의료를 최우선으로 지원하고 싶다"고 언급했다. 소대섭 책임연구원은 이날 토론 시사점으로 차별화된 국가 전략 추진의 필요성 범정부 차원의 전주기적 거버넌스 확립 국가적 투자 확대 한국형 혁신사례 발굴 등의 필요성을 강조해 관심을 끌었다. 한편 이날 창립총회에는 국민의힘 국회의원들이 대거 참석했다. 권영세 비상대책위원장과 권성동 원내대표, 김상훈 정책위의장를 비롯한 추경우, 김장겸 의원 등이 창립총회를 찾았다.

2025.03.10 16:05박희범

정부 "국가AI컴퓨팅센터 참여 기업, GPU 공급 확약서 내야"

2조5천억원 규모 '국가인공지능(AI)컴퓨팅센터' 구축 사업에 참여하려는 기업들은 고성능 칩을 안정적으로 확보할 수 있다는 것을 증명하기 위해 'AI 반도체 공급 확약서'를 내야 하는 것으로 전해졌다. 9일 국가AI컴퓨팅센터 구축 공모지침서에 따르면 정부는 공모 신청 기업에 최신 AI 반도체를 채택하려 한 이유와 국내외 AI 반도체 조달 가능 여부를 사업 참여계획서에 제시해야 한다고 밝혔다. 기업은 확보 대상 그래픽처리장치(GPU) 등 공급 확약서와 공급업체 협력 방안을 제시해야 한다. 또 2045년까지 AI 컴퓨팅 서비스를 안정적으로 운영할 방안과 요금 체계를 마련해야 한다. 이는 사업 지속 가능성을 확보하기 위한 조치로, 현금 흐름과 운영 비용 등을 고려한 장기 수익 모델도 포함이다. 기업은 향후 센터를 확장할 경우에 대비해 대지 확보 방안이나 늘어날 전력 용량을 충당할 방안도 제출해야 한다. 신청 기업 센터의 전력효율지수(PUE) 목표와 달성 방안, 전력 안정성 강화를 위한 방안을 제시해야 한다. 참여 기업을 대표하는 법인은 국내에 주 사업장을 둔 기간통신사업자나 부가통신사업자, 데이터센터·클라우드 사업자가 맡아야 한다는 지침도 필수다. 정부는 글로벌 경쟁력 강화와 운영 노하우 확산을 위해 통신사와 클라우드 기업이 컨소시엄을 구성할 경우 가점을 부여하기로 했다. 글로벌 기업과의 협력 방안도 중요하게 평가될 예정이다. 국내 통신사인 SK텔레콤과 KT, LG유플러스는 이번 사업에 참여 의사를 밝힌 상태다. SK텔레콤과 KT는 아마존웹서비스(AWS)와 협력을 추진 중이다. LG유플러스는 마이크로소프트와 손잡았다. 정부는 이 외에도 전력 공급 확보, 국내산 AI 반도체 활용 여부 등을 우대 조건에 포함했다. 국가 AI 컴퓨팅 센터 사업의 최종 사업자는 올해 6월경 결정된다. 현재 업계 관계자들은 사업 참여에 대해 신중한 입장을 보였다. 일부는 센터 구축과 운영에 따른 기업 부담이 크다는 우려도 표했다. 특히 AI 컴퓨팅 지원과 전산 장비 노후화 대책 마련, GPU·국산 AI 반도체 가격 변동, 전력 비용 상승, 기술·시장 변화에 대한 대응책을 민간 기업이 자체적으로 마련해야 한다는 점을 부담 요인으로 꼽았다. 클라우드 업계 한 관계자는 "해당 사업은 국가 차원의 대규모 AI 연산 자원을 확보하는 것이 목적이지만, 센터 운영 과정에서 AI 솔루션을 원활히 실행하기 위한 추가적인 관리 부담이 예상된다"고 지적했다. 또 다른 데이터센터 업계 관계자는 "정부가 기업에 요구하는 조건이 많아 수익성을 유지하는 것이 쉽지 않을 수 있다"며 "정부가 어느 정도의 지원을 제공할지가 중요한 관건"이라고 말했다.

2025.03.09 17:10김미정

[유미's 픽] "엔비디아 H100 특별 할인"...삼성SDS가 광고 나선 이유는

"구독형 그래픽처리장치(GPUaaS) 고민, 삼성SDS가 모두 해결해드립니다." 삼성SDS는 지난 7일 고객사들을 대상으로 '엔비디아 H100 특별 할인'이라는 제목으로 광고 메일을 발송했다. 해당 메일에는 삼성SDS GPUaaS가 좋은 이유 3가지와 함께 ▲최초 사용 후 6개월 간 특별 할인 혜택 제공 ▲최적의 상품 구성 및 견적 제안 등 프로모션 정보가 함께 기재돼 눈길을 끌었다. 삼성SDS가 이처럼 GPUaaS 프로모션 안내 메일을 발송한 것은 최근 관련 시장이 빠르게 성장하며 경쟁이 치열해졌기 때문이다. 인공지능(AI) 기술 개발에 필수인 엔비디아의 그래픽처리장치(GPU)가 고가인 탓에 부담을 느낀 기업들이 자체 구축을 하지 않고 빌려 쓰는 것으로 방향을 틀면서 수요도 폭발적으로 증가하는 분위기다. 9일 시장조사기관 포춘 비즈니스 인사이트에 따르면 글로벌 GPUaaS 시장 규모는 2023년 32억3천만 달러(약 4조7천억원), 지난해 43억1천만 달러(약 5조7천400억원)에서 매년 35.8%씩 성장해 2032년에 498억4천만 달러(약 72조936억원) 규모로 성장할 전망이다. GPUaaS는 AI 인프라를 갖춘 기업들이 클라우드를 통해 가상 환경에서 GPU를 사용자의 주문에 맞춰 할당하고 빌려주는 서비스다. 저렴한 가격으로 인터넷 연결을 통해 필요한 만큼 고성능 GPU에 접근이 가능하다는 점에서 비용 부담을 줄이려는 중견·중소기업들에게 대안으로 떠오르고 있다. 업계 관계자는 "GPUaaS는 AI 모델 학습과 추론 과정에서 GPU를 필요한 시간에만 사용할 수 있어서 기업들이 GPU를 구매하거나 고정적으로 할당받아야 하는 비용 부담을 크게 줄일 수 있다는 것이 장점"이라며 "필요할 때만 유연하게 사용할 수 있도록 해 GPUaaS를 제공하는 기업들은 AI 스타트업 등 타겟 고객들에게 AI 개발의 경제성과 효율성을 부여할 수 있다"고 설명했다. 현재 국내에서 GPUaaS 사업을 전개하는 곳은 아직까지 많지 않다. 최신 GPU를 확보한 데이터센터를 구축하고 있어야 가능한 사업인 만큼, 투자 비용이 많이 들어서다. 업계 관계자는 "GPUaaS 사업은 일종의 AI 인프라 사업으로, 시설이 갖춰져야 서비스를 만들어 운영할 수 있는 것"이라며 "초반에 엄청 투자해놓고 장기적으로 고객을 확보해 수익을 쌓아가는 장치성 산업인 만큼 일반 IT 서비스 기업들이 접근하기는 쉽지 않다"고 말했다. 이에 국내에선 데이터센터를 갖추고 있는 일부 클라우드 기업들과 AI 사업에 투자 속도를 높이고 있는 통신사들을 중심으로 GPUaaS 시장 경쟁에 불을 지피고 있다. 국내에서 서울 상암·수원·구미·춘천·동탄 등 5곳에 데이터센터를 운영 중인 삼성SDS는 지난해부터 GPUaaS 사업을 시작해 생성형 AI를 활용하고자 하는 행정·공공기관에 최적화된 클라우드 서비스를 제공하고 있다. 이곳은 삼성 클라우드 플랫폼(SCP)을 기반으로 GPUaaS 사업을 펼치고 있는 상태로, 엔비디아 호퍼 아키텍처 기반 GPU인 'H100'을 약 1천 장가량 확보하고 있는 것으로 알려졌다. 공식적으로 'H100' 약 1천 장을 확보했다고 밝힌 NHN클라우드도 지난해 오픈한 광주 AI 데이터센터를 기반으로 GPUaaS 사업 확대에 나섰다. 광주 AI데이터센터는 연산량 기준 88.5PF(페타플롭스), 저장 용량 107PB(페타바이트) 등 최고사양 GPU 인프라를 갖춘 AI 데이터센터다. NHN클라우드 측은 정부의 AI 투자 확대 기조 움직임에 따라 광주 AI 데이터센터의 활용도가 더욱 높아질 것으로 예상하고 있다. 업계에선 향후 수년간 시장에 공급 가능한 'PPP 형태'의 AI 데이터센터로서 공공부문 AI 대전환을 위한 정부향 GPU 공급 시 대응에 가장 적합하다는 평가를 내놓기도 했다. NHN클라우드 관계자는 "이에 기반해 올해부터 광주 AICA(인공지능산업융합사업단)와의 GPU 공급 계약 매출 인식을 본격화하고 오는 2029년까지 안정적 매출로 이어갈 계획"이라며 "광주 AI 데이터센터를 기반으로 AI 강국 도약을 위한 '마중물' 역할을 수행할 것"이라고 포부를 밝혔다. KT클라우드는 양보다 질로 승부하는 전략을 택했다. 'H100'을 앞세운 경쟁사들과 달리 연산 처리 능력과 전력 효율성이 더 개선된 엔비디아 호퍼 아키텍처 기반의 'H200'을 AI 인프라에 적용하며 GPUaaS 사업 경쟁력을 끌어올렸다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. KT클라우드 관계자는 "현재 AI 인프라가 필요한 국내 다수의 공공기관과 AI 스타트업을 대상으로 사용량 기반의 탄력적인 GPU 자원 이용이 가능한 GPUaaS를 제공 중"이라며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 밝혔다. 카카오클라우드도 올해 전사 매출을 견인할 핵심 사업으로 GPUaaS를 점찍고 관련 기술 고도화 및 가격 경쟁력 확보에 나섰다. 이곳은 현재 엔비디아 A100, V100, T4 등 다양한 고성능 GPU 인스턴스를 지원하고 있는 상태로, 엔지니어링 최적화를 통해 GPU의 성능을 극대화했다는 점을 차별화 포인트로 내세우고 있다. 특히 가상머신(VM)과 GPU를 같은 가상 네트워크 환경에 위치시켜 데이터 전송 속도를 기존 대비 50배 더 높였다. 여러 개의 GPU를 연결한 'GPU 클러스터'의 데이터 전송 속도를 높이기 위해 설계된 네트워크 기술인 전용 인피니밴드 구성으로 최대 4배 확장된 대역폭과 저지연 환경도 지원 중이다. 카카오엔터프라이즈는 올해 AI, 금융, 모빌리티 등 분야의 다양한 고객사례 확보를 지속하며 AI 모델 개발 및 학습, 서비스 제공을 위한 핵심 인프라로 GPUaaS 사업 가속화할 계획이다. 또 LG CNS, 베스핀글로벌 등 대형 클라우드 관리(MSP) 업체들과의 전략적 파트너십을 강화해 중소·중견기업(SMB) 및 스타트업 지원, 지역 거점 중심 공공 클라우드 확산 등에 집중할 방침이다. 네이버클라우드는 지난해 데이터 관리 업체 데이터얼라이언스와 손잡고 GPUaaS 사업을 진행 중이다. 데이터얼라이언스가 선보인 GPU 공유 플랫폼인 '지큐브'를 통해 유휴 GPU를 공급하는 식이다. 통신사 중에선 SK텔레콤이 가장 적극적이다. 지난해부터 GPUaaS 사업에 뛰어든 이곳은 자회사 SK브로드밴드의 가산 데이터센터에 GPU를 탑재한 후 'SKT GPUaaS'를 출시하며 고객 확보에 집중하고 있다. 이를 위해 엔비디아로부터 GPU를 직접 공급받는 GPU 구독 서비스 기업 람다와 협력 체계를 구축한 상태로, 3년 안에 최소 1천 대 이상의 GPU를 확보한다는 계획이다. 현재 엔비디아 'H100'을 배치했으며 'H200'도 올해 1분기 안에 도입할 예정이다. 업계 관계자는 "GPUaaS 공급 기업들은 기존에 제공하고 있던 구독형 인프라 서비스(IaaS)에 GPU를 추가한 형태로 보다 더 높은 부가가치를 창출할 수 있다는 점에서 해당 사업에 매력을 느끼고 있다"며 "AI 기업들은 고성능 컴퓨팅 자원이 필요하지만 자체적으로 해결하기에 비용 부담이 크다는 점에서 GPUaaS에 많은 관심을 보이고 있다"고 밝혔다. 이어 "GPUaaS 공급 기업들은 사업 경쟁력을 높이고자 최신 GPU 확보를 위해 점차 글로벌 기업들과의 협업에도 적극 나서는 분위기"라고 덧붙였다.

2025.03.09 08:59장유미

인텔 "보안은 끝없는 여정...제품 개발부터 출시 이후까지 지속 관리"

"보안 보증은 목적지가 없는 여정입니다. 인텔에서는 세계적 수준의 표준에 맞춰 프로그램과 프로세스를 지속적으로 평가하고 진화하며, 개선 및 적응을 추구합니다. 이것이 보안 우선 서약의 본질입니다." 4일 오전 원격으로 진행된 인터뷰에서 제리 브라이언트(Jerry Bryant) 인텔 보안 커뮤니케이션·사고 대응 담당 시니어 디렉터가 이렇게 설명했다. 인텔은 지난 2월 중순 보안관련 시장조사업체인 ABI리서치에 의뢰해 발간한 '2024 인텔 제품 보안 보고서'를 공개하고 지난 1년간 각종 제품과 서비스에서 발견된 보안 취약점과 대응 상황을 소개했다. 보고서에 따르면 인텔은 지난 한 해 동안 총 374개의 취약점을 해결했으며, 그중 96%가 선제적 조치로 발견됐다. 특히 하드웨어 취약점 21개는 모두 인텔 내부 인력이 발견한 것이다. 보안 관련 지속 투자로 경쟁사 대비 높은 수준 유지 ABI리서치가 평가한 보안 대비 태세 평가에서 인텔은 82.2점으로 업계 1위를 차지했다. 이는 2위 퀄컴(68.5점)과 상당한 격차를 보이는 수치다. 제리 브라이언트 시니어 디렉터는 "인텔은 보안 개발 라이프사이클(SDL) 프로그램, PSIRT, 혁신적인 버그 바운티 프로그램, 적극적인 보안 연구 역량, 장기 보존 및 지원 랩, 예측 가능한 인텔 플랫폼 업데이트 프로세스로 보안에 지속적 투자중"이라고 설명했다. 보고서에 따르면 지난 해 인텔 제품에서 발견된 하드웨어 신뢰 기반(root-of-trust) 취약점은 경쟁사인 AMD의 33% 수준으로 적었다. 이러한 격차에 대해 브라이언트 디렉터는 인텔의 체계적 접근법을 강조했다. "인텔 내 하드웨어 신뢰 보안을 담당하는 팀은 보안 우선 사고방식으로 체계적인 접근 방식을 이용해 제품을 개발하도록 돕고 있다. 보안은 인텔 문화에 깊이 뿌리 박혀 있고, 직원들은 이를 달성하기 위해 최선을 다하고 있다." 지난 해 하드웨어 취약점 전부 내부에서 발견 인텔은 지난 해 하드웨어 관련 보안 취약점 중 전체 21개를 모두 내부 연구와 검토 과정에서 해결하고 이에 대한 해결책을 내놨다. 제리 브라이언트 시니어 디렉터는 이것이 인텔의 보안 연구 역량을 잘 보여준다고 설명했다. "외부 위협과 공격 방법이 끊임없이 진화하고 있으며, 아무도 완벽한 보안을 보장할 수 없다는 것은 누구나 아는 사실이다. 그러나 인텔은 이런 문제를 해결하기 위한 인적 자원을 보유하고 있다." 그는 이어 "최종 제품이 실리콘으로 생산되기 전에 특정 분야에서 발생할 수 있는 문제를 미리 찾아내고 제거하고 있으며 '장기 보존 및 지원 연구실' 역량을 활용해 현재 발견된 문제가 이미 출시된 다른 제품에도 존재하는지 파악하고 있다"고 설명했다. 전체 취약점 중 53% 버그 바운티로 발견... 보안 업계와 협력 주요 소프트웨어·하드웨어 업체들은 보안 취약점을 발견하는 개인이나 보안 회사에 보상금 등을 지급하는 '버그 바운티' 프로그램을 진행한다. 인텔 버그 바운티 프로그램은 지난 해 전체 취약점의 53%를 발견하는 성과를 거뒀다. 제리 브라이언트 시니어 디렉터는 "버그 바운티 프로그램의 이런 성과는 단시일 안에 만들어지지 않았다"며 "2018년부터 시작해 보안 전문가/학계와 적극적으로 협력해 얻은 성과"라고 설명했다. 그는 "인텔은 단순한 버그 바운티 프로그램에서 한 단계 더 나아가 2022년부터 '서킷 브레이커 프로젝트'를 시작했다. 인텔 엔지니어가 보안 관련 연구진이 하드웨어나 펌웨어에도 집중할 수 있도록 일정 기간동안 이를 지원하고 있다"고 설명했다. 이어 "현재까지 다른 실리콘 공급업체는 인텔 '서킷 브레이커 프로젝트'와 비슷한 프로그램을 운영하지 않는 것으로 안다"고 덧붙였다. 일정한 업데이트 주기로 사전 검증 효율 향상 인텔은 현재 매 분기별로 제품이나 소프트웨어 관련 보안 취약점을 공개하고 패치와 업데이트를 적용하는 '인텔 플랫폼 업데이트'(IPU) 프로세스를 운영중이다. 제리 브라이언트 시니어 디렉터는 "하드웨어와 펌웨어 업데이트 주기를 일정하게 유지하면서 전체 생태계가 일정한 날짜에 최종 업데이트를 제공할 수 있다는 것이 가장 큰 장점"이라고 설명했다. 그는 대규모 PC 제조사를 예로 들어 "이들 업체는 수백 개의 제품에 업데이트를 적용하고 검증해야 한다. 예측 가능한 업데이트 주기는 사전 검증과 리소스 투입 효율성을 높인다"고 설명했다. 제리 브라이언트 시니어 디렉터는 "인텔은 문제를 찾아 완화하는 인력의 역량과 절차에 대해 자신감을 가지고 있다. 문제가 발생한다면 인텔 플랫폼 업데이트 등 관련 절차를 통해 생태계에 해결 방법을 신속하게 제공하는 충분한 능력을 가지고 있다"고 강조했다.

2025.03.04 16:24권봉석

SKC, MWC25 첫 참가…반도체 '글라스기판' 실물 전시

SKC는 3~6일(현지 시간)까지 열리는 세계 최대 모바일 전시회인 'MWC25'에서 글라스기판을 선보인다고 3일 밝혔다. SKC는 SK텔레콤이 운영하는 전시관 내 AI DC (AI 데이터센터)구역에서 글라스기판을 실물 전시한다. '혁신적인 AI, 미래를 앞당기다'를 주제로 조성되는 이번 전시는 AI 데이터센터(이하 AI DC) 관련 주요 기술과 AI 기반 통신 인프라에 관한 연구 성과가 총망라됐다. 글라스기판은 AI DC구역에서 대규모 데이터를 처리하는 데 필요한 핵심 기술로 소개된다. 특히 SK하이닉스의 고대역폭 메모리인 HBM3E와 데이터센터용 고성능 SSD 스토리지와 함께 전시되며 AI 통합 솔루션을 제시할 예정이다. 글라스기판은 초미세회로 구현이 가능하고 MLCC 등 다양한 소자를 내부에 넣어 표면에 대용량 중앙처리장치(CPU)와 그래픽처리장치(GPU)를 얹을 수 있다. 글라스기판을 반도체 패키징에 적용하면 전력 소비와 패키지 두께는 절반 이상으로 줄어들고 데이터 처리 속도는 기존 대비 40% 빨라진다. SKC관계자는 “세계 최초 반도체 글라스기판 상업화 기업으로서 지난 CES2025에 이어 이번 MWC25에서도 기술 우수성을 전 세계에 선보일 것”이라며 “목표로 했던 연말 글라스기판 상업화를 통해 전 세계가 주목하는 AI 기술 고도화에 기여할 수 있길 기대한다”고 말했다.

2025.03.03 11:09장경윤

레노버 "AI 활용도 높일 소프트웨어 2종 기본 탑재"

[요코하마(일본)=권봉석 기자] 국내외 주요 PC 제조사들은 지난 해 하반기 이후 CPU, GPU와 NPU(신경망처리장치)를 내장한 프로세서 기반 AI PC를 출시하고 있다. 그러나 프로세서의 역량을 끌어낼 소프트웨어가 부족하다는 지적이 나온다. 레노버는 올 초부터 글로벌 시장에 공급할 인텔 코어 울트라 시리즈2(루나레이크) 기반 아우라 에디션 AI PC에 AI 활용도를 높일 수 있는 소프트웨어를 기본 탑재 예정이다. 27일 오전(이하 현지시각) 일본 요코하마에서 진행된 '레노버 아우라 에디션 AI PC' 행사에서 그레고리 베(Gregory Beh) 레노버 아태지역 PC·스마트 디바이스 매니저는 "아우라 에디션에 기본 탑재되는 두 가지 솔루션은 AI PC의 새로운 가능성을 제시할 것"이라고 설명했다. 라마3 기반 문서 요약 기능 탑재 '레노버 AI 나우' 레노버 AI 나우는 메타 라마3 거대언어모델(LLM)을 최적화해 탑재한 생산성 도구다. 파워포인트, 엑셀, PDF, 문서를 스캔한 JPEG 파일 등 다양한 문서를 읽어들여 문서 요약, 지식 저장소 구축이 가능하다. 이들 처리에 필요한 모든 기능은 클라우드 도움 없이 기기 내장 CPU와 GPU, NPU 연산 성능만 활용해 작동한다. 이용시마다 별도 요금이나 구독료가 필요하지 않으며 개인정보나 민감한 정보를 외부로 유출시키지 않는다는 장점을 지녔다. 개인 지식 저장소에 포함되지 않은 정보를 검색할 때는 오픈AI 챗GPT 기반 클라우드 시스템에 접속해 필요한 정보를 추가로 검색하는 것도 가능하다. 다양한 설정 돕는 생성 AI 기반 'PC 어시스턴트' 레노버 AI 나우는 100개 이상의 복잡한 설정에 쉽게 접근할 수 있는 'PC 어시스턴트' 기능도 함께 내장했다. PC의 프로세서나 메모리 용량 등 제원 정보 확인, 고유 번호 확인 등 기초적인 내용부터 복잡한 설정까지 챗봇으로 확인할 수 있다. 내장된 서비스 챗봇 '레나'(Lena)는 메모리 업그레이드, SSD 용량 업그레이드나 PC 문제 해결과 관련된 도움말을 제공한다. 그레고리 베 매니저는 "레노버 AI 나우는 지난 해 9월 데이터 처리 적정성, 개인정보 보호 등을 인증하는 UL솔루션 AI 모델 투명성 평가에서 다이아몬드 등급 인증을 획득했다"고 설명했다. 스테이블 디퓨전3 기반 '크리에이터 존'으로 이미지 생성 레노버 크리에이터 존은 콘텐츠 제작자가 생성 AI를 활용해 사진이나 이미지 등 다양한 결과물을 생성할 수 있는 소프트웨어다. 텍스트 기반 설명이나 간단한 스케치를 기반으로 이용자 지시에 따라 결과물을 생성할 수 있다. 크리에이터 존은 스테이블 디퓨전 3를 기반으로 작동하며 내장 GPU를 활용해 원하는 이미지를 무제한으로 생성할 수 있다. AI 모델은 지속적으로 업데이트가 가능하다. '참조 이미지' 기능은 기존 이미지나 사진을 바탕으로 이용자 프롬프트에 따라 완전히 새로운 이미지를 생성한다. "AI 개인화 필요... 고유 소프트웨어로 지원" 일부 요가 노트북에는 어도비 크리에이티브 클라우드 2개월 이용권이 제공된다. 크리에이터 존으로 생성한 이미지를 수정해 보다 나은 결과물을 만들 수 있다. 그레고리 베 매니저는 "AI는 모든 사람을 위한 무한한 가능성을 열어줄 뿐만 아니라, 개인을 위해 작동해야 한다"고 강조했다. 이어 "모든 사람들이 다양한 방식으로 콘텐츠를 만들어낼 수 있도록 적절한 개인화 도구가 필요하며 레노버는 양대 소프트웨어를 이용해 맞춤형 PC 경험과 지식 저장소 개인화를 제공할 것"이라고 덧붙였다.

2025.02.27 17:41권봉석

KAIST 석·박사 15명, 챗GPT와 딥시크로 수능 미적분 풀어보니…

올해 수능 수학 30번 문항을 챗GPT와 딥시크에게 물었다. 30번은 미적분 문제다. 전국 수험생들의 14%만이 맞췄다. 과연 어느 생성형 인공지능(AI)이 올바른 답을 제시했을까. KAIST 테라랩(지도교수 김정호)이 지난 주 챗GPT와 딥시크의 성능과 활용성, 경쟁력의 비밀을 공개하는 세미나를 개최했다. 이 세미나에는 테라랩 소속 석·박사과정생 15명이 참여했다. 이날 서은지 연구생(전기및전자공학과 석사과정)이 딥시크를 활용해 테스트한 결과를 공개해 눈길을 끌었다. 이 시험에서 서 연구생은 리즈닝(추론가능 LLM) 모델로 챗GPT-o1과 딥시크-R1(1.5B)을 썼다. 이 결과 GPT-o1은 7분 40초만에 정답 17을 제시했다. 반면 R1은 정답 도출에 실패했다. 서 연구생은 이외에도 수리1, 추리2, 코딩1문제를 각각 테스트한 결과도 공개했다. 이 결과에 따르면 단순 수리 문제는 양쪽 AI 모두 맞췄다. 이어 진행한 숫자 야구 게임에서는 GPT-o1의 경우 18분간 10번의 시도로 정답을 냈고, R1은 55분간 15번을 시도했으나 갈피를 잡지 못했다. 삼성이 시행하는 직무적성검사(GSAT)도 테스트했다. 3단 논법에서 전제1과 결론을 제시한 뒤 전제2를 묻는 질문이다. 이 질문에 GPT-o1은 25초만에 정답을 도출했다. 반면 R1은 1분 동안 리즈닝까지 했지만, 답을 맞히지 못했다. 그러나 코딩의 2가지 오류 탐지에서는 GPT-o1이 46초간 한 개의 오류만 해결한 반면, R1은 몇 초 동안 2가지를 모두 해결했다. 서 연구생은 "GPT-o1이 고난도 수리나 추론해결이 정확한 반면 R1은 코딩 오류 탐지가 정확했다"며 "제품 출시 2개월 된 R1이 이 같은 성능을 보인다는 측면에서 대단하다"고 평가했다. 언어와 수학에선 R1, 프로그래밍에선 오픈AI-o1이 강력 이어 김지훈 연구생(전기및전자공학과 박사과정)은 AI 벤치마크별 성능 비교 자료를 공개해 관심을 끌었다. 미국고교수학경시대회(AIME2024) 문제로는 R1이 79.8점, 오픈AI-o1은 79.2점으로 R1이 미세하게 앞섰다. MATH-500(고급수학문제)이나 소프트웨어 엔지니어링 벤치마크(SWE-벤치)에서도 0.3~0.9점 가량 R1이 좋은 점수를 받았다. 그러나 검색없이 해결하는 대학원 수준 문제(GPQA)에서는 오픈AI-o1가 75.7점으로, 71.5점을 받은 R1보다 4.2점이 높게 나왔다. 또 영어나 수학, 중국어 등의 문제에서는 R1이, 프로그래밍 최적화에서는 오픈AI-o1이 강력했다. 최성욱 연구생(전기및전자공학과 박사과정)은 딥시크의 기업 전반을 공개하며 "딥시크는 연구자와 엔지니어 150명과 데이터 자동화 연구팀 31명만으로 개발했고, 오픈AI는 1천200명의 인력이 투입됐다"고 설명했다. 최 연구생은 또 딥시크 서비스 차단 이슈를 거론하며 "우리나라를 포함해 미국, 일본, 호주, 이탈리아, 대만이 접속을 차단하거나 사용금지, 앱 다운로드 금지 등으로 규제 중"이라고 덧붙였다. LLM이 기초..."우리나라 GPU 10만장정도 보유 희망" 김근우 연구생(전기및전자공학과 박사과정)은 딥시크 R1-제로의 학습 방법론(GRPO)으로 주목 받았다. 김 연수생은 이 방법론에서 R1-제로의 특징을 가치평가 모델과 보상인공지능 모델을 사용하지 않는 경량화된 강화학습으로 분석했다. 이외에 이들은 △딥시크-V3의 기본 아키텍처 △R1-제로에서의 강화학습 △오픈소스 생태계 △기업소개 및 기술적 배경 등을 주제로 자료를 공개했다. 김정호 교수는 "딥시크 R1 등장이 경쟁 체제 문제를 넘어, 결국 전의 전쟁으로 발전하고 있다"며 "지금은 거대언어모델(LLM)에 머물지 않고 미디어 LLM, 멀티모달 에이전트, AI로봇, 피지컬 AI를 넘어 범용인공지능(AGI), 초인공지능(ASI) 시대로 가는 시작점"이라고 말했다. 김 교수는 또 "이 가운데 LLM이 기초"라며 "정부도 K-LLM 개발하겠다고 한다. 우리나라 GPU 보유숫자가 10만장까지 갔으면 좋겠다"라고 덧붙였다. 김 교수는 "딥시크가 주목받는 이유로 저비용, 자체 개발, 챗GPT 동급성능, 1년만에 개발 등을 꼽을수 있다"며 "딥시크 AI에는 학습코드와 학습 데이터가 공개되지 않는 등 비밀이 많이 숨어 있는 것 같다"고 평가했다.

2025.02.26 17:16박희범

엔비디아, AI 네트워크 칩으로 시스코 실리콘 원 선정

시스코(Cisco)와 엔비디아(NVIDIA)가 기업의 인공지능(AI) 도입을 가속화하기 위해 파트너십을 확대한다. 26일 시스코와 엔비디아는 AI 지원 데이터 센터 네트워크 구축을 단순화하기 위해 포트폴리오 간 통합 아키텍처를 구축할 것이라고 밝혔다. 이번 파트너십의 핵심은 시스코의 실리콘 원(Silicon One)과 엔비디아의 스펙트럼-X(Spectrum-X) 이더넷 네트워킹 플랫폼의 결합이다. 엔비디아는 고성능 AI 데이터센터 구축을 위한 네트워킹 플랫폼인 '스펙트럼-X'에 사용할 핵심 네트워크 칩으로 시스코의 실리콘을 선정했다. 이를 통해 시스코가 유일한 네트워크 칩셋 공급업체가 된다는 설명이다. 또한, 시스코는 엔비디아의 스펙트럼 실리콘과 운영체제 소프트웨어를 결합한 시스템을 구축해 고객들이 데이터센터에서 시스코 네트워킹과 엔비디아 기술을 동시에 표준화할 수 있도록 지원할 계획이다. 이번 협력을 통해 두 회사는 AI 워크로드를 위한 고성능, 저지연, 에너지 효율적인 연결을 제공해 데이터센터, 클라우드, 사용자 간의 원활한 통합을 지원한다는 방침이다. 또한, 고객들은 기존 관리 도구와 프로세스를 활용하여 프론트엔드와 백엔드 네트워크를 아우르는 공통 아키텍처로 AI 인프라 투자 최적화에 나선다. 시스코는 2025년 중반까지 실리콘 스위치를 스펙트럼-X 및 엔비디아의 참조 아키텍처와 호환되도록 업데이트할 계획이다. 여기에는 기존 및 향후 출시될 시스코 넥서스, 시스코 하이퍼패브릭, 시스코 UCS 제품이 포함된다. 시스코의 척 로빈스 회장 겸 CEO는 "기업들은 AI를 신속하고 효과적으로 배포해야 하는 압박을 받고 있으며, 많은 리더들이 투자와 위험 간의 균형을 맞추는 데 어려움을 겪고 있다"며 "시스코와 엔비디아는 고객들의 이러한 장벽을 제거하고, 인프라 투자를 최적화하여 AI의 잠재력을 활용할 수 있도록 협력하고 있다"라고 말했다. 엔비디아의 젠슨 황 창립자 겸 CEO는 "AI는 빛의 속도로 발전하며 모든 산업을 혁신할 것"이라며 "엔비디아 스펙트럼-X는 이러한 AI를 위해 강화되고 초고속화된 이더넷"이라고 설명했다. 이어 "시스코의 기업 플랫폼과 글로벌 도달 범위와 함께 우리는 전 세계 기업들이 AI로의 전환을 위해 최첨단 엔비디아 인프라를 구축하도록 도울 것"이라고 말했다.

2025.02.26 16:44남혁우

KT클라우드, 구독형 GPU에 엔비디아 'H200' 적용…고성능 AI 인프라로 고객 확보 가속

KT클라우드가 엔비디아의 최신 그래픽처리장치(GPU)를 인공지능(AI) 인프라에 적용하며 GPU 서비스를 한층 강화한다. AI 학습과 추론 워크로드 최적화를 앞세워 공공기관·스타트업 고객 확보에 나서기 위함이다. KT클라우드는 자사의 AI 훈련 서비스에 엔비디아 'H200'을 도입해 AI 인프라 성능을 개선한다고 24일 밝혔다. 기존 'H100' 기반의 AI 훈련 서비스에 최신 GPU를 추가해 연산 처리 성능과 전력 효율을 향상시키는 것이 이 프로젝트의 핵심이다. KT클라우드는 사용량 기반의 '서비스로의 GPU(GPUaaS)'를 제공하며 AI 학습과 추론 영역에 최적화된 인프라를 구축해왔다. 특히 AI 훈련 서비스는 대규모 GPU 노드 클러스터링과 동적할당 제어 기능을 통해 대량의 연산 작업을 효율적으로 처리할 수 있도록 설계됐다. GPU 노드 클러스터링은 여러 GPU 서버를 하나의 클러스터로 묶어 연산 성능을 극대화하는 기술로, 대규모 AI 학습에서 병렬 연산을 최적화하는 데 핵심적인 역할을 한다. 또 동적할당 제어 기능은 사용자의 작업량에 맞춰 자원을 실시간으로 배분하고 불필요한 자원 낭비를 줄여 최적의 GPU 성능을 유지한다. 이번 'H200' 도입은 이러한 기능을 보다 강화해 고성능 AI 학습 환경을 지원할 것으로 기대된다. 'H200'은 엔비디아 '호퍼(Hopper)' 아키텍처 기반의 최신 GPU로, 이전 모델인 'H100' 대비 연산 처리 능력과 전력 효율성이 개선됐다. 특히 메모리 대역폭이 확대돼 대규모 AI 모델 학습과 추론 성능을 극대화할 수 있는 것이 특징이다. KT클라우드는 GPU뿐만 아니라 신경망 처리 장치(NPU) 기반 AI 인프라도 확장하고 있다. 리벨리온과 협력해 'AI 서브 NPU' 서비스를 운영 중이며 오는 5월 출시될 리벨리온의 '아톰 맥스'를 적용해 소형언어모델(sLM) 성능을 검증할 계획이다. 또 미국 반도체 설계업체 암페어와도 AI 반도체 협력을 논의하며 기술 역량을 강화하고 있다. 공공 분야 대응도 강화한다. 회사는 올해 하반기 공공기관을 대상으로 AI 추론 전용 상품의 클라우드 서비스 보안 인증(CSAP) 절차를 진행할 계획으로 이로써 공공기관에서도 안전하게 AI 추론 서비스를 이용할 수 있도록 지원할 예정이다. 공용준 KT클라우드 클라우드본부장은 "이번 엔비디아 'H200' 도입으로 글로벌 수준의 AI 인프라를 확보하게 됐다"며 "앞으로 AI 인프라뿐만 아니라 AI운영(AIOps) 등 포트폴리오를 확대해 AI 기술 경쟁력을 강화하고 고객의 다양한 니즈에 대응해 나가겠다"고 말했다.

2025.02.24 11:21조이환

'AI 3대 강국' 목표 세운 韓, 대규모 투자 시동…조준희 "산업용 LLM에 주목해야"

최근 우리나라 정부가 인공지능(AI) 분야를 국가 전략 기술로 지정하고 집중 지원에 나선 가운데 국내 기업들이 산업용 거대언어모델(LLM) 개발에 적극 나서야 한다는 주장이 나왔다. 23일 업계에 따르면 조준희 한국소프트웨어협회장은 최근 자신의 소셜미디어(SNS) 페이스북 계정을 통해 "AI는 국가적으로 전략물자 수준 이상으로 생각해야 되고, 일종의 '핵무기'와 같다고 봐야 된다"며 "앞으로는 우리를 보호하는 무기로서의 AI를 가질 것이냐, AI 핵우산에 기댈 것이냐의 선택일 것"이라고 강조했다. 그러면서 "산업 보국을 위해서는 기업 수와 고용이 동반해서 늘어야 되는데 그런 면에서 우리가 소홀히 보고 있는 산업용 LLM 시장에 큰 기대감을 가지고 있다"며 "특히 제조 강국으로서의 산업 특화 LLM 개발 부분은 수출 측면에서도 선전 할 수 있다고 생각한다"고 덧붙였다. 조 회장이 이처럼 주장하고 나선 것은 최근 우리나라에서 AI 산업 발전을 위해 정부와 기업이 다각도로 방안을 모색하고 있는 상황에서 방향성을 제시하기 위한 것으로 분석된다. 앞서 정부는 지난 20일 제3차 국가AI위원회 회의를 진행해 '국가대표 정예팀'을 선발하는 한편, 빠른 시간 안에 세계 최고 수준의 LLM을 개발할 수 있도록 데이터와 그래픽처리장치(GPU) 등을 전폭 지원하겠다는 계획을 내놓은 바 있다. 특히 AI 컴퓨팅 인프라 확충을 위해 단기적으로는 내년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충하기로 했다. 1만 장은 국가AI컴퓨팅센터를 중심으로 올해 안에 마련하고 나머지 8천여 장은 슈퍼컴퓨터 6호기 구축을 통해 확보한다. 장기적으로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올려 저전력·고성능의 국산 AI 반도체 경쟁력을 높인다는 계획이다. 초기에는 엔비디아 등의 GPU를 쓰되 국산 AI 반도체의 성능을 검증해 점차 비율을 늘린다는 방침이다. 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보도 추진하고 있다. 약 1조원을 투입할 계획으로, 현재 예비타당성 조사가 진행 중이다. 이에 대해 조 회장은 "국가 AI 역랑 강화 방안들은 어려운 환경에서 시기 적절하고 정교하게 잘 만들어졌다"며 "실행에 만전을 기하면 승산이 있다고 본다"고 말했다. 정부가 이처럼 나선 것은 AI 주도권을 둘러싼 글로벌 시장 경쟁이 갈수록 격화되고 있어서다. 미국은 지난 달 오픈AI, 오라클을 중심으로 AI 데이터센터에 약 730조원을 투자하는 '스타게이트 프로젝트'를 발표했다. 이에 질세라 유럽연합(EU)은 'AI기가팩토리 프로젝트'를 포함해 300조원가량을 투자키로 했다. 프랑스도 AI데이터센터에 약 163조원을 투자할 것이란 계획을 최근 공개했다. 하지만 우리나라는 미국, 중국에 이어 'AI 3대 강국'을 목표로 하고 있지만 '쩐의 전쟁'에선 다소 밀리는 모양새다. 한국은 일단 글로벌 AI 생태계에서 싱가포르·영국·프랑스와 함께 3위권으로 평가 되고 있지만, 고성능 AI 모델을 개발하기에는 국내 인프라가 부족하다는 지적을 받고 있다. 실제 지난해 기준 우리나라가 보유한 엔비디아의 AI 반도체 'H100'은 약 2천 개로, 미국 빅테크 메타의 15만 개, 마이크로소프트(MS)의 15만 개에 비해 상당히 낮은 수치다. 기술격차도 갈수록 커지고 있다. 미국과는 지난해 3월 기준 1.3년에 달했고 유럽과는 1년, 중국과는 0.9년의 차이가 났다. AI 고급 인재의 해외 이탈도 많아지면서 기술 개발에도 상당히 어려움을 겪고 있다. 이에 카카오는 자체 LLM 개발 중심 전략에서 선회해 오픈AI와 손을 잡았다. LLM 개발에 수천억원이 든다는 점에서 부담이 컸기 때문이다. 하지만 업계에선 카카오의 이 같은 전략에 대해 상당한 아쉬움을 드러냈다. 카카오가 파운데이션 AI 모델 개발에 소요되는 대규모 투자 비용을 절감하는 효과가 있겠지만, 자체적인 AI 역량 확보가 어려워져 향후 해외 진출에 어려움을 겪을 수도 있다고 판단해서다. 조 회장은 "국내 국민 메신저를 운영하는 대기업의 미국 LLM기업과의 제휴는 AI가 국가 기간산업이라는 철학이 부재한 보여주기식의 쉬운 접근"이라며 "(이 같은 전략은) 성공하기 어려울 것"이라고 주장했다. 이어 "AI는 LLM, GPU, 고대역폭메모리(HBM), 프로세싱-인-메모리(PIM), 클라우드, 양자 등 대규모 융합 산업으로, 어느 하나도 포기할 수 없는 주요 테크산업인 만큼 협업과 종합적인 접근이 중요하다"며 "올해 (우리나라가 AI기본법과 관련해) 세부 규정과 시행령을 더 정교하게 만들어서 미국 빅테크 기업을 적절히 견제하고 국내 산업을 증진시킬 수 있도록 (모두의) 균형있는 노력이 필요할 것"이라고 덧붙였다.

2025.02.23 15:37장유미

정부, AI바우처·인프라 지원…"기업 경쟁력 강화"

정부가 올해 인공지능(AI)바우처와 고성능컴퓨팅 지원 사업으로 국내 AI 역량 강화에 나섰다. 과학기술정보통신부와 정보통신산업진흥원은 20일 서울 코엑스 아셈볼룸홀에서 열린 '2025년 AI바우처·고성능컴퓨팅 지원사업' 통합 설명회에서 지원 계획을 이같이 밝혔다. 올해 AI바우처 지원 사업은 총 270억원 규모로 130개 내외 과제를 선정·지원한다. AI 솔루션을 보유한 공급기업은 연중 수시 모집한다. 수요기업은 수요처에 따라 일반, AI반도체, 소상공인, 글로벌 4개 분야로 구분해 공모 형태로 과제를 모집한다. 수요기업은 공급기업 중 자사에 적합한 기업과 AI 솔루션을 선택해 사업계획서를 제출하면 된다. 선정 평가를 통해 지원 대상으로 선정될 경우 AI바우처를 지원받을 수 있다. 고성능컴퓨팅 지원 사업은 올해 700개 과제를 목표로 한다. 정부와 민간 클라우드 기업 AI반도체 개발기업이 협력한다. 그래픽처리장치(GPU)와 신경망처리장치(NPU) 등 고성능 AI 연산 인프라를 제공한다. 학습용 GPU는 500개 과제를 지원한다. A100 2장, H100 1장, H100 2장 등으로 구성됐다. 국산 추론용 NPU는 200개 과제에 60탑스(TOPS), 120TOPS, 240TOPS를 제공해 산업 현장 적용성을 높인다. 정부는 기업이 해당 인프라를 통해 연구개발 비용을 줄이고 생산성과 품질을 높일 것으로 기대한다고 밝혔다. AI 솔루션 공급기업은 시장 진출 기회를 넓힐 수 있고 수요기업은 최적의 기술을 도입해 디지털 전환 속도를 끌어올릴 것이란 이유에서다. 과기정통부 김경만 AI기반정책관은 "첨단 AI 기술 확보와 경쟁력 향상을 위해 기업과 연구자가 필요로 하는 AI 컴퓨팅 인프라 공급은 필수"라며 "지원 사업을 통해 기업 생산성과 품질 개선으로 기업의 AI 활용 역량과 경쟁력이 제고되길 바란다"고 강조했다.

2025.02.20 13:30김미정

정부 "GPU 우선 확보…세계 수준 LLM 만든다"

과학기술정보통신부가 인공지능(AI) 컴퓨팅 인프라를 확충하면서 즉시, 단기, 중장기 등 3단계에 걸친 마스터플랜을 가동키로 했다. 20일 열린 국가인공지능위원회 3차 회의에서 과기정통부는 이같은 내용을 담은 'AI컴퓨팅 인프라 확충을 통한 국가 AI역량 강화 방안'을 발표했다. AI컴퓨팅인프라 특별위원회와 당정협의회에서 논의된 내용을 담은 것으로, 새해 경제정책방향에 따라 1분기 내 수립 예정이던 대책을 딥시크 돌풍으로 앞당겨 마련한 방안이다. 내년 상반기까지 GPU 1.8만장 확보...H100 416장 우선 지원 이 방안에 따라, 정부는 인공지능 컴퓨팅 인프라 확충 3단계에 걸친 마스터플랜을 가동한다. 당장 현장에 시급한 AI 컴퓨팅 수요에 대응하기 위해 광주AI데이터센터, 민간 클라우드 등 이미 국내에 보유하고 있는 GPU 자원을 활용해 우선 지원한다. 현재 국내에 있는 엔비디아 H100 880장 가운데 정부가 416장을 확보하고 있는데 이를 지원하겠다는 뜻이다. 이후 2026년 상반기까지 1만8천 장 규모의 첨단 GPU를 확충한다. 그 중 1만 장은 국가 AI컴퓨팅 센터를 중심으로 민관 협력을 통해 연내 확보하고, 나머지 8천여 장도 슈퍼컴퓨터 6호기 구축을 통해 확보할 예정이다. 마지막 중장기 단계로 2030년까지 국가AI컴퓨팅센터 내 국산 AI 반도체 비중을 50%로 끌어올리는 등 저전력 고성능의 국산 AI 반도체 경쟁력 제고도 지원한다. 민간의 AI 컴퓨팅 인프라 투자를 촉진하기 위해 세제지원, 전력 입지 등 제도적 기반도 강화한다. AI를 조세특례제한법 상 국가전략기술로 지정해 첨단 AI R&D 등 우대 공제율 30~50%, AI 통합투자 우대 공제율 15~35% 등에 대한 세제지원을 확대한다. 비수도권에 AI데이터센터 구축 시 전력계통 영향평가 우대를 검토하고, 항만배후단지, 공항지원시설 등으로 입지 다변화, 승강기 미술품 설치 최소기준 적용 등 전력 입지 시설에 관한 제도개선 등도 지속 추진한다. 국산 AI 반도체의 성장도 적극 지원한다. 국산 인공지능 반도체를 토대로 글로벌 수준의 개방형 HW-SW 기술생태계를 조성하여 대규모 고성능 시스템의 최적 운용을 뒷받침한다. 이를 통해 대규모 수요 창출과 동시에 기술개발 성과의 실증과 사업화도 지원한다. WBL 프로젝트 추진...AGI 구현 1조 단위 예타 검토 국가AI컴퓨팅센터 등 인프라 확충을 계기로 독자적 인공지능 모델 경쟁력 확보를 본격 추진한다. AI 국가대표 프로젝트인 가칭 월드베스트LLM(WBL) 프로젝트를 신규 추진할 계획이다. AI 정예팀을 선발하고 단시간에 세계 최고 수준의 대형언어모델을 개발할 수 있도록 필요한 데이터, GPU 등 핵심 인프라를 전폭 지원한다. 또한 AI 분야의 도전적인 문제를 해결하기 위해 국내외 최고 인재가 팀을 이뤄 겨루는 대규모 경진대회인 '글로벌 AI 챌린지'도 개최한다. 세계적인 AI 분야 석학들과 대국민 평가 등을 통해 최고 인재의 참여를 유도하고 입상자에 대해서는 창업 지원이나 WBL 정예팀 기업에 채용을 연계하는 등 파격적인 인센티브를 제공한다. 아울러 장기적으로는 생성형 인공지능을 넘어 범용인공지능(AGI) 구현에 필요한 핵심 원천기술 확보를 위해 1조원 규모에 달하는 기술개발을 추진한다. 고급 AI 인재 양성체계도 고도화한다. 지난해 뉴욕에 개소한 '글로벌 AI 프론티어랩'을 영미권을 넘어 유럽 등으로 확대하는 방안을 추진하여 세계를 선도하는 연구그룹과의 공동연구를 강화한다. 이와 더불어 국내 AI 신진연구자의 창의도전적 연구를 지원하는 프로그램도 신설한다. 기업이 원하는 실전 역량을 갖춘 최고 인재를 양성하기 위해 교사, 교재, 수업 없이 실전형 혁신 교육을 지원하는 '이노베이션 아카데미'를 확대하고, '기업-대학 협력형 AX 대학원' 신설을 추진할 계획이다. 글로벌 우수 인재 유치도 대폭 지원한다. WBL 프로젝트와 연계해 정예팀 기업이 필요로 하는 글로벌 인공지능 핵심 인재를 국내에 유치할 경우 인건비, 연구비, 체재비 등 파격적인 지원방안을 적극 검토할 계획이다. 이밖에 '우리 AI 컴퓨팅 인프라'를 통해 '우리 AI 인재'가 개발한, '우리 AI 모델'로 국가 AI 전환을 가속화한다. 우수한 국산 AI 모델의 초기시장 창출을 위해, 우리의 독자적 특화 데이터를 학습한 생성형 인공지능을 의료(맞춤형 치료 건강관리), 법률(대국민 법률정보 제공), 공공(행정업무 효율화) 등 다양한 분야에 접목하는 부처 협력형 선도 프로젝트를 추진한다. 유상임 과기정통부 장관은 “AI 패권경쟁은 기업 간 대결을 넘어 국가가 전면에 나서는 경쟁으로 변화하고 있다”며 “우리의 대응이 1년 늦어지면 경쟁력은 3년이 뒤처진다는 각오로 AI 컴퓨팅 인프라와 핵심인재 육성 확보에 전폭적이고 속도감 있는 투자를 추진하겠다”고 말했다. 이어, “우리나라가 이미 보유한 잠재력을 최대한 활용하고 부족한 부분은 빠르게 보완하는 등 국가의 인공지능 역량을 강화해 인공지능 3대 강국으로 도약하겠다”고 밝혔다.

2025.02.20 11:30박수형

글로벌 톱수준 LLM 개발 추진...데이터 개방 확대

정부가 세계 최고 수준의 대형언어모델(LLM) 개발을 추진한다. 이를 위해 데이터와 GPU 컴퓨팅 인프라 등 가용 가능한 자원을 집중한다는 방침이다. 국가인공지능위원회는 20일 3차 위원회 회의를 열어 이같은 내용을 담은 'AI컴퓨팅 인프라 확충을 통한 국가AI역량 강화방안' 등을 논의했다. 위원장을 맡고 있는 최상목 대통령 권한대행 부총리는 모두발언을 통해 “글로벌 AI환경이 급변하면서 위기감이 고조되고 있지만 우리에게는 새로운 기회로, AI 3대 강국 도약을 위해 민관이 힘을 모아 국가 AI역량 강화를 빠르게 추진해야 할 중대한 시점”이라며 “정부는 빠른 시일내에 세계 최고수준의 AI모델을 개발할 수 있도록 집중 지원하고, AI 핵심인재 양성과 해외 우수인재 유치를 강화하겠다”고 밝혔다. 이어, “컴퓨팅 자원과 데이터 등 인프라를 확충하고, AI 활용과 산업화에서 세계 1등이 될 수 있도록 AI 스타트업 육성과 시장 창출을 지원하겠다”고 밝혔다. 민간전문가 발제에서는 최수연 네이버 대표가 글로벌 AI현황 및 국내 대응방향을 주제로 트럼프 행정부 AI정책과 중국 딥시크AI 개발이 우리 산업계에 주는 시사점을 소개하고, 민간 AI원천기술 개발을 위한 정부의 인프라 투자와 산업전반의 AI전환 지원을 강조했다. 이날 관계부처에서는 과학기술정보통신부가 'AI컴퓨팅 인프라 확충을 통한 국가AI역량 강화방안', 중소벤처기업부가 'AI스타트업 육성을 통한 AI 활용 확산방안', 개인정보보호위원회가 'AI데이터 확충 및 개방 확대방안' 등의 안건을 발표했다. 월드베스트 LLM 프로젝트 추진 미국과 중국 등 치열한 경쟁이 전개되는 글로벌 AI 생태계에서 우리나라의 AI 경쟁력을 획기적으로 제고할 수 있도록 세계 수준의 AI 모델 개발과 최고급 인재 양성을 추진하고, AI 컴퓨팅 자원 및 데이터 등 인프라를 확충하고 전면적인 AI 산업화와 국가 AI 전환을 가속화한다. 먼저 'AI국가대표 정예팀'을 선발해 글로벌 톱 수준의 LLM 개발을 목표로 데이터, GPU 등 연구자원을 집중 지원하는 가칭 '월드 베스트 LLM 프로젝트'를 추진하기로 했다. 정예팀이 필요한 글로벌 핵심인재를 유치할 수 있도록 연구비 등 지원을 확대한다. 우수 AI 모델은 공공과 민간 영역으로 활용을 확산하고, AI 연구자들과 개방형 혁신을 가속화할 수 있는 공유 체계를 마련한다. 이와 함께 미래 AI 경쟁력 확보를 위해 1조원 규모의 범용 인공지능(AGI, 예타진행) 핵심원천기술 확보에 도전한다. 최고급 AI 인재를 양성 확보하기 위해 AI분야 도전적 문제를 해결하는 '글로벌 AI챌린지'를 개최를 추진하고, 지난해 미국에 개소한 '글로벌 AI 프론티어 랩'을 유럽 등 다른 국가로 확대할 계획이다. 아울러 국내 AI 신진연구자를 집중 지원하는 프로그램을 마련하고 기업이 원하는 AI 융합 인재를 양성하기 위해 산학 협력형 AX 대학원 신설을 추진하고, 혁신형 교육을 강화할 계획이다. 슈퍼컴 6호기에 GPU 1.8만장 확보...학습 데이터 추가 개방 현장의 시급한 AI컴퓨팅 수요에 신속히 대응하기 위해 내년 상반기까지 국가AI컴퓨팅센터, 슈퍼컴 6호기에 총 1.8만장 규모의 컴퓨팅 자원(GPU)을 확보한다. 이와 함께 AI 밸류체인 전반에 세제지원을 강화하고 전력, 입지 관련 제도개선 등으로 AI 데이터센터에 대한 민간투자를 활성화한다. 국가 AI컴퓨팅 센터를 통해 국산 AI반도체와 AI 모델을 패키지로 실증하고, AI반도체 HW-SW기술력 강화를 지원한다. AI 학습을 위한 양질의 공공 민간데이터를 확충하고 개방을 확대한다. 그간 자율주행 분야에만 허용되었던 비정형 원본데이터(영상 등) 활용을 사회적 산업적으로 필요한 분야로 확대하고 AI 연구에 필요한 기간동안 데이터를 안정적으로 활용할 수 있도록 개인정보 활용특례를 마련한다. 또 범죄 예방 등 공익적 AI개발을 위해 개인정보를 활용할 수 있도록 적법 처리근거를 확대한다. 의료, 국방 등 민감분야의 합성데이터와 생성형 AI 고도화를 위한 미디어, 산업 제조, 금융 등 분야별 특화 데이터를 개방한다. 공공데이터 중 AI 수요가 높은 비정형데이터, 합성데이터 등을 국가중점데이터로 적극 개방한다. 공공기관의 가명처리 내부 운영체계를 개선하고, 공공기관 경영평가 등에 가명정보 제공실적을 반영해 공공데이터 개방을 촉진한다. AI 선도 프로젝트 가동...AI 서비스 확산 국내 기업이 개발한 AI 서비스가 국내외 시장에 조기 확산되어 수요 창출과 경쟁력 강화로 이어질 수 있도록 AI 선도 프로젝트를 추진한다. 의료, 법률, 미디어 문화, 재난 안전 등 산업 파급력과 대국민 체감이 높은 분야를 중심으로 부처 협업을 통해 생성형 AI 기반의 서비스를 개발한다. 이와 함께 민관 협력 이노베이션 사업 등을 활용해 대기업과 스타트업이 협업해 특정 산업 문제해결에 특화된 분야별 AI서비스를 개발하고, 산업 업종별 자율제조 선도 프로젝트의 성공 사례를 스마트 공장 구축을 통해 확산할 계획이다. AI 공급 역량 강화를 위해 AI 스타트업의 성장을 지원한다. 기업 간 협력 방식의 AI 모델 개발을 지원해 제조, 금융 등 분야별 AI서비스 전문 스타트업을 육성하고, 제조 AI 전문기업 100개를 지정해 기업당 최대 100억원 규모의 융자 보증 등 자금, 인력, 판로 확대 등을 집중 지원한다. 이와 함께 올해 융자, 보증 등 중소기업 신규 유동성 공급총량의 60%(5.7조원)를 AI 반도체 등 혁신성장 분야에 집중 지원하고, 2027년까지 정부, 민간 자금 등 약 3조원 규모의 AI 집중펀드를 조성해 AI 스타트업에 대한 자금지원을 대폭 확대한다.

2025.02.20 11:30박수형

엘리스클라우드, 오픈소스 AI 생태계 최적화 솔루션 선보여

엘리스그룹(대표 김재원)의 AI 특화 클라우드 '엘리스클라우드'가 오픈소스를 포함한 다양한 범용 AI 모델을 클라우드 환경에서 안전하고 편리하게 사용할 수 있는 솔루션을 20일 공개했다. 엘리스클라우드는 기존 머신러닝(ML) API 기능을 업그레이드해 오픈소스 AI 모델을 맞춤형 AI 인프라에서 활용할 수 있는 'ML API 라이브러리' 기능을 선보였다. 이번 업그레이드의 특징은, 별도의 설치, 설정 없이 다양한 오픈소스 AI 모델도 편리하게 쓸 수 있는 최적화된 GPU·NPU 환경을 제공하는 것이다. API 기반 솔루션이 제공되는 일반 상용 AI 모델과 달리 오픈소스 AI 모델은 사용하는 모델에 따라 환경을 설정해야 하고, 원하는 특정 작업에 맞추는 파인 튜닝과정이 필요하다. 이런 어려움을 해소하기 위해 엘리스클라우드는 GPU·NPU 환경을 각 오픈소스 모델에 최적화하고, 최적화된 API를 제공한다. 딥시크의 R1, 메타의 라마 등 오픈소스를 포함한 다양한 AI 모델에 따라 맞춤형으로 구성한 고성능 AI 인프라 환경에서 AI 챗봇 등을 개발하고 관리, 배포까지 간편히 할 수 있다. 엘리스클라우드가 협약을 맺은 퓨리오사AI, 리벨리온의 최신 NPU를 활용한 고성능 컴퓨팅 서비스도 제공한다. 엣지데이터센터인 엘리스 AI PMDC(Portable Modular Data Center, 이동형 모듈러 데이터 센터) 기반의 프라이빗 클라우드 환경에서 실행돼 민감한 데이터의 외부 유출도 방지한다. 엘리스 AI PMDC는 모듈 단위로 구성이 가능해 물리적 격리가 가능하고, AI 수요 변화에 민첩하게 대응하는 것은 물론 전력효율지수(PUE)를 1.27까지 낮춰 뛰어난 에너지 효율도 갖췄다. 엘리스클라우드는 연내 운영을 목표로 1기당 1MW급 AI PMDC를 설계 및 구축하고 있다. 고밀도 전력과 발열을 안정적으로 관리하기 위해 공간 최적화 설계와 직접액체냉각(DLC) 기술을 도입, 업계 최고 수준인 랙 당 160kW전력으로 엔비디아 B100을 비롯한 최신 고성능 GPU를 지원하도록 설계된다. 김재원 엘리스그룹 대표는 "현재 고성능 GPU H100 5천장까지 수용할 수 있는 AI PMDC 설계·구축했고, 이는 국내 클라우드 기업 중 최대 규모일 것으로 예상한다"며 "엘리스클라우드 사업 본격화를 위해 GPU 확보에 더불어 R&D를 통한 기술 혁신과 투자에 집중하겠다"고 밝혔다.

2025.02.20 11:21백봉삼

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

트럼프 "캐나다와 무역협상 중단"…디지털세 문제 삼아

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

우주에서 신발 만든다…어떤 깜짝 혁신 나올까

내란 특검, 윤석열 대면조사 시작...체포 방해, 비화폰 삭제 지시 대상

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.