• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI GPU'통합검색 결과 입니다. (296건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엔비디아 '블랙웰' 칩 수요 쾌청…삼성·SK HBM 성장 기회

엔비디아가 AI 반도체 산업의 성장세를 자신했다. 미국의 대중 수출 규제 여파에도 최첨단 AI 반도체인 '블랙웰'의 수요가 강력하고, 전 세계 AI 인프라 투자가 활발히 진행되고 있기 때문이다. 초고성능 AI 반도체인 'GB300' 역시 올 3분기 초 차질없이 양산이 시작될 것으로 전망된다. 이에 따라 국내 주요 메모리 업체인 삼성전자, SK하이닉스의 HBM(고대역폭메모리) 사업도 지속적인 성장의 기회를 잡을 수 있을 것으로 기대된다. 中 수출 규제, AI 산업 성장세 등 불확실성 '해소' 이날 엔비디아는 2026년 회계연도 1분기(올해 2~4월) 매출액 440억6천만 달러를 기록했다고 밝혔다. 전년동기 대비 69%, 전분기 대비 12% 증가한 수치다. 영업이익도 232억7천만 달러(Non-GAAP 기준)로 전년동기 대비 43%, 전분기 대비 6% 증가했다. 다만 데이터센터 매출액은 391억1천만 달러로 증권가 컨센서스(약 393억 달러)를 소폭 하회했다. 미국 트럼프 2기 행정부의 수출 규제 강화로 중국향 AI 반도체 'H20'의 판매가 전면 금지된 데 따른 영향이다. 엔비디아는 해당 규제로 1분기 45억 달러의 손실이 발생했으며, 2분기에도 80억 달러의 추가 손실이 있을 것으로 추산했다. 그럼에도 엔비디아는 2분기(5~7월) 매출 가이던스를 약 450억 달러로, 기존 증권가 컨센서스인 455억에 근접한 수준을 제시했다. H20의 수출 금지에도 최신형 AI 반도체인 블랙웰 시리즈의 수요가 견조한 덕분이다. 문준호 삼성증권 연구원은 "엔비디아의 2분기 매출 전망치는 전분기 대비 2% 증가에 그치나, H20의 손실 반영을 제외하면 14%의 성장세"라며 "그만큼 블랙웰의 수요는 같은 기간 더 좋아졌고, 이번 실적 발표에서 불확실성 요인이 다수 해소된 것도 중요한 대목"이라고 설명했다. GB300 양산 임박…SK하이닉스 HBM 훈풍 나아가 엔비디아는 올 하반기에도 전 세계 AI 인프라 투자로 인한 지속적인 성장을 자신했다. 젠슨 황 엔비디아 CEO는 ▲ 추론형 AI의 수요 증가 ▲ AI 확산 규정의 철폐 ▲ 엔터프라이즈 AI 시장의 본격적인 성장 ▲ 리쇼어리 정책 대두로 인한 '옴니버스' 등 산업용 AI 수요 증가 등 네 가지를 주요 배경으로 꼽았다. 견조한 AI 산업의 성장세는 국내 메모리 제조업체인 삼성전자, SK하이닉스에게도 긍정적이다. 특히, AI 반도체의 핵심인 HBM(고대역폭메모리)를 엔비디아 주력으로 공급하는 SK하이닉스의 매출 확대가 두드러질 전망이다. 엔비디아는 올 하반기 12단 HBM3E(5세대 HBM)를 탑재한 최신형 AI 반도체 'GB300'를 출시할 예정이다. GB300은 이달 초 주요 CSP(클라우드서비스제공자)에게 샘플이 공급됐으며, 오는 7월께 양산이 시작될 것으로 예상된다. 엔비디아 역시 GB300에 당초 적용하기로 했던 신규 보드 플랫폼의 채용을 미루는 등 제품 안정성 강화에 만전을 기하는 분위기다. SK하이닉스와 엔비디아간 내년 HBM 공급량 협의도 마무리 단계에 접어들었다. 이르면 다음달 최종 결정이 내려질 것으로 알려졌다. 특히, 엔비디아의 차세대 AI 반도체인 '루빈'에 탑재되는 HBM4(6세대 HBM)의 가격 및 물량이 주요 변수로 작용하고 있다.

2025.05.29 14:07장경윤 기자

"엔비디아, 中 겨냥해 저가형 블랙웰 AI칩 출시 예정"

엔비디아가 이르면 6월부터 '블랙웰' 기반의 신규 저성능 AI 반도체를 양산할 계획이라고 로이터통신이 25일 보도했다. 블랙웰은 엔비디아가 출시한 AI 가속기 중 가장 최신 세대의 아키텍처다. 당초 엔비디아는 중국 시장을 겨냥해 '호퍼' 아키텍처 기반의 'H20'을 공급해 왔으나, 최근 미국의 대중(對中) 반도체 수출 규제 수위 강화로 공급이 어려워졌다. 이에 엔비디아는 신규 AI 가속기로 중국 시장을 지속 공략하려는 것으로 풀이된다. 해당 칩은 엔비디아의 'RTX 프로 6000D' GPU를 기반으로 하며, HBM(고대역폭메모리) 대신 최신형 그래픽 D램인 GDDR7를 채용했다. 가격은 6천500~8천 달러 사이로, H20의 가격인 1만~1만2천 달러 대비 크게 낮은 수준이다. 또한 TSMC의 첨단 패키징 기술인 CoWoS(Chip-on-Wafer-on-Substrate)도 활용되지 않는다. CoWoS는 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 2.5D 패키징의 일종이다. 지난해 회계연도 기준으로, 중국은 엔비디아의 전체 매출에서 13%를 차지하는 주요한 시장이다. 엔비디아가 미국의 규제를 피해 새롭게 칩을 설계하는 것은 이번이 세 번째다. 한편 신규 칩의 구체적인 이름은 아직 밝혀지지 않았다. 중국 증권사 GF증권은 '6000D', 또는 'B40'으로 명명될 가능성이 높다고 밝힌 바 있다.

2025.05.25 09:05장경윤 기자

[현장] "AI가 바꾼 냉각 시스템…공랭은 한계, '액침 냉각'이 해답"

"미래의 인공지능(AI) 데이터센터를 운용하려면 현재 활용되는 공랭식으로는 불가능하고 액침 냉각 방식만이 가능할 것입니다." 한국데이터센터에너지효율협회(KDCEA) 송준화 사무국장은 23일 서울 여의도 FKI타워에서 열린 '데이터센터 냉각시스템 개발 및 구축 사례와 효율적 운영방안' 세미나에서 AI 시대의 데이터센터 냉각 방식에 대해 이같이 강조했다. 이날 세미나는 업계 종사자들을 대상으로 공조·냉각 시스템, 액침냉각·액침냉각유, 무정전전원장치(UPS), 히트펌프, 액화가스(LNG) 냉열·지열 등 데이터센터 관련 내용들을 폭넓게 알리기 위해 마련됐다. 최근 AI 시대를 맞아 데이터가 급격히 증가하고 IT 인프라의 가동률이 높아지고 있다. 이에 데이터센터의 안정적인 운영을 위한 서버·스토리지 및 네트워킹 장비의 과열을 방지하는 냉각 기술의 필요성이 커지고 있다. 데이터센터의 안정적 운영뿐 아니라 탄소 배출 저감 등 환경적 지속 가능성을 높이기 위한 차원에서도 효율적인 냉각 방식은 전 세계적으로 주목받는 상황이다. 현재 우리나라에서 주로 상용화된 냉각 방식은 수전을 활용한 차가운 공기를 이용해 IT 장비의 발열을 제어하는 공랭식이다. 해외에서는 액체로 장비를 직접 냉각하는 '다이렉트 리퀴드 쿨링(DLC)'과 '다이렉트 투 칩(D2C)', 액침 냉각 방식 등 더욱 고도화된 시스템이 활발히 개발·도입되고 있다. 송 사무국장은 "현재 우리나라에서 이용되는 공랭식으로는 데이터센터의 '전력사용효율지수(PUE)'가 높아지는 데 한계가 있다"며 "공랭식은 전기를 많이 사용할 수밖에 없어 외부 공기를 간접적으로 활용하는 방식도 통용되고 있다"고 설명했다. 이어 "아직까지 국내에는 직접 냉각 방식과 액침 냉각이 구현된 데이터센터 환경은 없으며 테스트베드 정도만 존재하는 상황"이라고 덧붙였다. 데이터센터의 냉각 방식이 고도화돼야 하는 이유는 AI의 발전과 맞닿아 있다. 현재 데이터센터 내 대부분의 랙당 전력 집적도는 6~10키로와트(kW) 수준인 데 반해, AI 서비스 운용을 위한 최신 그래픽처리장치(GPU)가 탑재된 랙의 집적도는 40~100kW에 달한다. 나아가 엔비디아의 블랙웰 GPU를 탑재한 서버의 집적도는 130kW에 달할 것으로 알려졌다. 이에 대해 송 사무국장은 "랙 당 전력 집적도가 큰 폭으로 상승하면서 전력 공급 설비의 구조가 변화하고 있다"며 "집적도가 오르다 보니 발열량도 증가하는데, 이러한 발열량을 더 이상 공랭식으로는 해결할 수 없어 수냉식 시스템이 주목받는 것"이라고 말했다. 앞으로 다량의 GPU를 구동하기 위해선 전력량과 이에 따른 발열을 통제할 수 있는 액침 냉각 방식을 도입하는 것이 필수적이라는 설명이다. 송 사무국장은 냉각 방식의 더딘 발전 외에도 전문인력 부족과 낮은 지역 수용성이 국내 데이터센터 산업 발전을 저해하는 요소로 꼽았다. 송 사무국장은 "한 개 데이터센터에 적어도 20명의 전문인력이 배치돼야 하지만 신규 인력 공급이 매우 부족한 상황"이라며 "열섬 현상, 소음, 전자파 등을 우려하는 지역 주민들의 반발에 부딪혀 데이터센터 관련 사업이 중단되거나 취소되는 일도 늘어나고 있다"고 설명했다. 산업부의 데이터센터 지역 분산 정책과 전력계통영향평가, 국토부의 제로에너지빌딩 인증 등의 규제도 국내 데이터센터 산업에 장애요인으로 영향을 미치고 있다. 송 사무국장은 "제로에너지빌딩 인증은 친환경·신재생 에너지를 활용한 에너지 자립률을 20%까지 올려야 하는 것"이라며 "데이터센터에서는 현실적으로 달성하기 불가능한 조건"이라고 밝혔다. 그러면서 "정부에서는 데이터센터의 지역 분산 정책을 적극 추진하고 있다"며 "AI는 클라우드에 비해 네트워크 의존도가 상대적으로 높지 않아 지방에서 상업용 AI 데이터센터를 운용하는 것이 가능할 것"이라고 전망했다.

2025.05.23 13:07한정호 기자

엘리스클라우드 "최신 GPU·국산 NPU 이용 기관 수 반년 만에 9배↑"

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)의 AI 특화 클라우드 솔루션 '엘리스클라우드' 이용 기관 수가 9배 이상 급성장했다고 22일 밝혔다. 지난해 11월부터 올해 5월까지 6개월 만의 성과다. 엘리스클라우드는 고성능 GPU와 NPU를 모두 제공하는 AI 특화 클라우드다. 다수의 스타트업, AI 연구실 등에서 활발히 활용되어 왔으며, 지난해 하반기부터 기업, 대학 고객이 크게 늘어나고 있는 추세다. 특히 신규 프로젝트, 학기 등이 시작되는 3월부터 엘리스클라우드 도입 문의가 늘어나고 있으며, 이용 기관 수 역시 이에 발맞춰 상승하고 있다. 올해 3월부터 5월까지 월 평균 성장세는 50% 이상으로 나타났다. AI 데이터 관리부터 프로젝트, AI 모델 개발 및 배포까지 가능한 원스톱 AI 클라우드 솔루션을 구축한 결과다. 또 올해 3월 클라우드 보안인증인 CSAP IaaS를 획득함으로써 보안역량을 입증 받아 CSAP를 필수로 하는 공공 기관은 물론, 데이터 보안을 중요시하는 기업의 관심도 높아지고 있다고 회사는 설명했다. 엘리스클라우드 이용자 수 역시 서비스 도입 초기인 2023년 6월 대비 2025년 3월, 21개월 만에 약 74배 증가하는 성과를 거뒀다. AI 도입을 원하지만 AI 모델 활용에 어려움을 느끼던 고객들을 고려해 편의성을 높인 다양한 AI 특화 서비스를 선보인 덕이다. 엘리스는 AI 모델에 대한 높아진 관심을 반영해 지난 2월 오픈소스를 포함한 다양한 범용 AI 모델을 별다른 설치 없이 편리하게 사용할 수 있는 최적화된 'ML API 라이브러리' 기능을 선보였다. 고객이 체감하는 가장 큰 혜택인 합리적인 가격은 엘리스클라우드만의 경쟁력이다. 회사에 따르면 이용자는 글로벌 클라우드와 동일한 조건으로 엘리스클라우드를 사용할 경우 77% 이상 비용을 절감할 수 있다. 이는 엘리스가 자체 기술로 개발한 클라우드 인프라를 활용해 AI에만 특화한 클라우드 솔루션을 제공해 가능하다. AI 모델을 효율적으로 운영할 수 있도록 NPU에 최적화된 솔루션도 제공한다. 엘리스는 AI에 특화한 고성능의 GPU와 NPU를 모두 제공 가능한 CSP로서 국산화한 GPU, NPU 클라우드 기술을 확보하고 있다. 김재원 엘리스그룹 대표는 "엘리스클라우드는 AI PMDC 기반으로는 국내에서 가장 많은 GPU 이용 기관을 보유하고 있다. 지속적인 성장세를 기록하고 있다"며 "특히 지난해부터 엔비디아 H100을 인피니밴드 기반 클러스터로 제공해 큰 성장을 기록했다. 이를 발판 삼아 올해 공공 부문과 해외까지 시장을 확대하고 다양한 고객 레퍼런스를 확보할 수 있도록 더욱 도약할 것"이라고 말했다.

2025.05.22 17:27백봉삼 기자

AMD, 워크스테이션용 GPU '라데온 AI 프로 R9700' 공개

[타이베이(대만)=권봉석 기자] AMD가 21일 오전(이하 현지시간) 타이베이 그랜드 하얏트 호텔에서 글로벌 기자간담회를 진행하고 워크스테이션용 라데온 GPU와 스레드리퍼 프로세서, 일반 소비자용 라데온 그래픽카드를 공개했다. 라데온 AI 프로 R9700은 8K 고해상도 동영상 편집과 VFX(특수효과), 고성능 AI 추론을 위해 새로 설계된 워크스테이션용 GPU다. 2세대 AI 가속기를 탑재해 전 세대 대비 처리 성능을 최대 2배로 높이고 32GB 메모리로 대용량 AI 모델 실행에 최적화됐다. 라이젠 스레드리퍼 9000 시리즈는 워크스테이션과 하이엔드 데스크톱을 위한 프로세서다. 최상위 모델인 라이젠 스레드리퍼 프로 9995WX는 96코어 192스레드로 작동한다. 경쟁사인 인텔 동급 제온 프로세서 대비 80% 이상 높은 성능을 낸다. 루카 로시 레노버 인텔리전트 디바이스 그룹 총괄은 이날 "스레드리퍼 9000 시리즈를 탑재한 새로운 워크스테이션인 '씽크스테이션 P8'을 출시할 예정"이라고 설명했다. 라데온 RX 9060 XT는 1440p 해상도에서 부드러운 게이밍 경험을 제공하는 것을 목표로 개발됐다. 머신러닝 기반 업스케일 기술인 FSR 4를 지원하며 전 세대 대비 레이트레이싱 처리량이 두 배 향상됐다. INT4(정수, 4비트) 정밀도 기준 연산 성능은 821 TOPS(1초 당 1조 번 연산)다. AMD는 올 하반기 출시할 차세대 FSR 기술인 '레드스톤'(Redstone)도 함께 공개했다. 전후 프레임과 인근 픽셀을 활용해 노이즈는 줄이고 성능을 높일 수 있는 것이 핵심이다. 잭 후인 AMD 컴퓨팅 및 그래픽 그룹 수석 부사장은 "이번 제품들은 크리에이터, 게이머, 전문가에게 성능과 효율성을 제공하여 한계를 뛰어넘고 창의성을 높일 수 있도록 지원하는 AMD의 비전이 담겨있다"고 밝혔다. 스레드리퍼 9000 시리즈와 라데온 AI 프로 R9700은 오는 7월부터 시장에 공급된다. 라데온 RX 9060 XT는 8GB/16GB 등 두 개 모델로 공급되며 권장가는 각각 299달러(약 42만원), 349달러(약 49만원)로 책정됐다. 글로벌 출시는 6월 5일(미국 기준)이나 국내는 현충일 등 연휴를 감안해 다음 주인 6월 9일부터 시장 공급 예정이다.

2025.05.21 17:43권봉석 기자

유상임 장관, 엔비디아 찾아 GPU 확보 논의...NIPA 협약 체결

유상임 과학기술정보통신부 장관이 지난 14일부터 미국을 찾아 엔비디아와 AI 인프라 구축을 위한 업무협약을 이끌어냈다. 엔비디아 초청을 받아 미국 본사를 방문한 유상임 장관은 제이 퓨리 총괄 부사장, 칼리스타 레드몬드 부사장 등 엔비디아 주요 임원들과 대한민국 AI 인프라 역량 확충을 비롯해 AI 생태계 역량 강화를 위한 협력방안을 논의했다. 정보통신산업진흥원(NIPA)은 엔비디아와 업무협약을 체결, 연내 원활한 첨단 엔비디아 GPU 확보 등 AI 인프라 구축을 위해 협력하기로 했다. 유 장관은 방미 첫날 브랜던 카 연방통신위원회(FCC) 위원장과 면담을 갖고, 전 세계적인 위협이 되고 있는 통신 해킹에 대한 협력 방안을 찾았다. 이 자리에서 한국의 'IoT 보안인증제도'와 FCC의 '사이버 트러스트 마크'의 추진 현황을 공유하며, 양국의 IoT 기업들이 상대국에서 중복 인증을 받는 부담을 줄이고 국민들도 IoT 기기를 안심하고 사용할 수 있도록 한미 양국이 IoT 보안 기준 등에 대해 공유할 필요성을 공감했다. 아울러 양측의 6G 개발과 표준활동에 대해 공유했다. 또 해저 케이블 보안에 대해 지속적인 협력관계를 이어나가기로 뜻을 모았다. 유 장관은 15일 美 백악관 과학기술정책실(OSTP) 린 파커 부실장을 만나 한미 과학기술 협력에 차질없는 추진 방안에 대해 논의하였다. 유 장관은 먼저 한국의 글로벌 R&D 현황을 공유하며 미국과의 협력 내용을 설명하였다. 아울러 R&D 환경 변화에도 한미 간 차질없는 협력을 강조하였다. OSTP측에서는 한국에서 참고할 수 있도록 이번 트럼프 2기 행정부의 투자 우선순위를 공유하고, 이를 바탕으로 R&D 정책 변화를 강구하고 있음을 밝혔다. 특히 유 장관은 민감국가 지정 등의 상황으로 연구보안의 중요성이 증대되고 있는 상황을 설명하였고, 양측은 현재 연구보안 정책을 공유하고, 상호 긴밀히 협력해나가기로 했다. 미측은 트럼프 행정부 1기 때 발표된 연구보안 관련 대통령 각서를 기반으로 이행을 강화해나갈 것이라는 점을 강조했다. 이밖에 미국 국립과학재단, 에너지부(DOE) 산하 페르미 국립가속기연구소, 미국과학진흥협회(AAAS) 등과 의견을 나눴다. 유 장관은 “한국의 글로벌 공동연구 투자 규모 중 미국과의 협력 비중이 가장 큰 현실에서 트럼프 2기 행정부의 변화된 R&D 정책방향과 연구보안 강화 정책이 우리 R&D에 미치는 영향을 빨리 파악하고 대응하는 것이 중요하다”며 “방미를 계기로 미측과 차질없는 협력을 이어가기로 하였고, 이번에 논의한 내용을 한미 R&D 정책에 반영할 계획”이라고 밝혔다. 그는 또 “엔비디아와의 GPU 협력 모색에 착수한 바, 국내 AI 연구환경이 대폭 개선되기를 기대한다”고 강조했다.

2025.05.18 13:17박수형 기자

정부 "다음주 GPU 1만장 확보 사업 공모…복수 CSP 선정 가능성"

정부가 인공지능(AI) 인프라 필수 요소인 그래픽처리장치(GPU) 확보를 위해 민관 협력을 본격화한다. 국내 클라우드 기업을 선정해 데이터센터에 GPU 1만 장을 설치·운영하게 하고, 이를 산학연이 활용하는 방식으로 추진할 방침이다. 과학기술정보통신부는 16일 서울 LW컨벤션센터에서 '최첨단 GPU 확보추진방안' 브리핑을 열고 연내 GPU 확보 청사진을 제시했다. 과기정통부는 정보통신산업진흥원(NIPA) 주관으로 연내 1만장 규모의 GPU 확보 사업을 추진한다. 국내 클라우드 서비스 제공업체(CSP) 간 경쟁을 통해 대상 기업을 선정할 방침이다. 선정된 CSP는 기존 데이터센터 인프라를 활용해 전력, 냉각, 네트워크 등 정비를 마친 뒤 순차적으로 GPU를 구축하고 실서비스로 전환한다. 사업 기간은 5년이다. 앞서 정부는 GPU 확보를 위해 1조4천600억원 추경 예산을 편성했다. 구매 대상은 엔비디아의 H200, B200, 블랙웰 등 고성능 GPU다. 확보된 GPU는 NIPA가 소유하되 국가 컴퓨팅AI센터(SPC)가 사용권을 갖는다. 공모 신청은 다음 주부터다. NIPA가 7월까지 CSP 심사·선정을 진행한다. 심사는 서면평가와 발표, 현장실사를 포함한 절차로 진행된다. 이후 올해 10월까지 GPU 전량을 확보해 선정 CSP에 공급한다. 과기정통부 장기철 인터넷진흥과 과장은 평가 기준이 효율성과 신속성이라고 밝혔다. 정부 재정 투입 대비 얼마나 높은 성능·효율을 확보할 수 있는지, 데이터센터에 GPU를 얼마나 빨리 구축할 수 있는지, GPU 서비스를 신속히 구동할수 있는지가 핵심이라는 설명이다. 정부는 이번 사업에서 복수 CSP가 선정될 수 있다고 밝혔다. 다만 단독으로 가격, 상면, 구축 속도, 활용 계획 등에서 타사 대비 경쟁력 뚜렷한 기업이 있으면 단일 선정될 가능성도 있다. 장기철 과장은 "평가 기준은 기존 SPC 참여 여부, 비용 대비 효율성, 인프라 구축 역량 등"이라고 설명했다. 그러면서 "GPU의 자사 활용 비중 하한선은 명시하지 않기로 했다"며 "다만 공공성과 산업계 파급력 중심으로 평가 기준이 마련될 것"이라고 덧붙였다. 이어 그는 "구체적 평가 항목과 선정 기준 등이 구체적으로 정해지지 않았다"며 "이달 중 공모 신청 브리핑을 추가로 열겠다"고 말했다. 과기정통부 엄열 정보통신정책관은 "이번 사업은 민관이 함께 AI 패권 경쟁에 대응하는 중요한 계기가 될 것"이라며 "국가 전체 경쟁력 강화에 기여하는 방향으로 사업을 추진하겠다"고 밝혔다.

2025.05.16 13:21김미정 기자

"AI가 만든 코드, 기술 발전 가속"…구글 딥마인드, 진화형 알고리즘 '알파이볼브' 개발

구글 딥마인드가 알고리즘을 설계하고 성능까지 개선하는 인공지능(AI)을 선보였다. 언어모델 기반의 코드 생성 능력에 진화적 평가 구조를 결합해 대규모 컴퓨팅 인프라부터 수학적 난제까지 범용 최적화가 가능해진 것이다. 16일 구글 공식 블로그에 따르면 딥마인드는 지난 14일 코드 기반의 알고리즘을 진화시키는 AI 시스템 '알파이볼브'를 발표했다. 이 시스템은 구글의 최신 언어모델 '제미나이' 시리즈에 자동 평가 알고리즘을 접목한 구조로, 구글의 데이터센터·칩 설계·AI 모델 학습 등 실제 운영 환경에 투입돼 성능을 입증했다. '알파이볼브'는 기존의 함수 단위 코드 생성과 달리 수백 줄 규모의 복잡한 알고리즘 전체를 설계할 수 있는 구조다. 속도 중심의 '제미나이 플래시'와 논리 구조를 강화하는 '제미나이 프로'를 병행 활용해 코드 제안을 생성한다. 이렇게 생성된 코드는 자동 평가 시스템이 정확성, 속도, 자원 활용도 등을 따져서 평가하고 성능이 좋은 코드만 다음 세대에 반영된다. 처음 성과를 낸 분야는 구글의 데이터센터 스케줄링이다. 이 시스템은 내부 클러스터 관리 도구인 보그(Borg)에 적용돼 일부 자원만 남은 서버를 더 잘 활용할 수 있도록 새로운 방식의 스케줄링 규칙을 만들어냈다. 사람이 읽고 관리하기 쉬운 단순한 코드 형태로 제공돼 전체 컴퓨팅 자원의 0.7%를 꾸준히 절약할 수 있게 됐다. 칩 설계 영역에서도 적용 사례가 나왔다. '알파이볼브'는 구글 텐서플로우 처리장치(TPU) 내 고성능 산술 연산 회로에서 불필요한 비트를 제거하는 베릴로그(Verilog) 코드를 제안했다. 이는 기능 검증을 거쳐 차세대 설계에 반영된 상태로, AI가 하드웨어 설계 언어 수준에서 의미 있는 구조 개선을 제안할 수 있음을 입증하는 계기가 됐다. 특히 구글 '제미나이' 모델 학습에 쓰이는 행렬 곱셈 연산을 최적화해 속도를 23% 끌어올렸다. 전체 학습 시간도 1% 줄었으며 기존에는 수주가 걸리던 커널 최적화 작업이 수일 내 자동 실험으로 가능해졌다. 반복 작업 부담이 줄어들면서 연구 효율도 함께 높아졌다. 사람이 직접 손대지 않던 그래픽처리장치(GPU) 저수준 명령어 영역에서도 성과가 나왔다. '플래시어텐션' 커널에서 최대 32.5%의 속도 향상을 기록했으며 기존 컴파일러 최적화를 넘어선 성능이라는 평가를 받는다. AI가 병목 지점을 스스로 찾아내고 개선 방향까지 제시한 사례로, 실제 코드 개선 작업의 효율성을 높이는 데 기여하고 있다. 수학 난제를 해결하는데도 기존 한계를 뛰어넘는 성과를 냈다. 일례로 복소수 4×4 행렬 곱셈 문제에서 기존보다 곱셈 횟수를 더 줄인 새로운 알고리즘을 찾아냈는데 이는 지난 1969년 수학자 스트라센이 세운 기록을 처음으로 넘어선 사례다. 수십 년간 누구도 개선하지 못한 수학적 구조 자체를 AI가 새롭게 설계해낸 것이다. 이외에도 이 시스템은 수학 분석, 기하학, 조합론, 수론 등 다양한 미해결 문제 50여 개에 적용됐다. 전체의 약 75%에서 기존 최고 해법을 재현했고 심지어 20%의 경우에는 보다 나은 해법을 제시했다. 구글 딥마인드는 현재 '피플+AI 리서치' 팀과 함께 '알파이볼브'의 사용자 인터페이스를 개발 중으로, 학술 연구자 대상 얼리 액세스 프로그램을 준비하고 있다. 일반 공개 여부는 추후 검토할 예정이나 명확한 평가 구조를 갖는 알고리즘 문제라면 어떤 분야에도 적용 가능한 구조라는 점에서 범용 기술로의 확장 가능성이 거론된다. 소재 개발, 신약 설계, 에너지 최적화, 공정 자동화 등 연산 기반 과학 영역 전반에 대한 활용이 논의되고 있다. 알렉산더 노비코프 딥마인드 연구원은 "우리는 평가자가 명확한 문제에 집중하고 있다"며 "자동화된 피드백 루프를 통해 성능을 지속적으로 개선할 수 있다"고 설명했다. 마테이 벌로그 딥마인드 연구원은 "'알파이볼브'는 일반적 AI 시스템임에도 불구하고 알파텐서보다 더 나은 성과를 냈다"며 "실제 문제에 곧바로 적용 가능한 과학 도구는 연구 현장에서도 드문 경험"이라고 말했다.

2025.05.16 09:58조이환 기자

[현장] 마음AI "GPT 다음은 피지컬AI…자율주행 농기계 등서 성과"

국내 인공지능(AI) 기업 마음AI는 생성형 AI 다음으로 피지컬 AI(Physical AI) 시대가 올 것이라고 내다봤다. 최홍섭 마음AI 기술 부문 대표는 15일 서울 삼성동 코엑스에서 열린 국제인공지능대전(AI엑스포)에서 'GPT 이후 우리는 어떤 AI를 만들어야 하는가'를 주제로 발표했다. 최 대표는 “오픈AI가 만든 생성형 AI 'GPT' 사용자는 한 달에 5억명”이라며 “경쟁 제품 '제미나이'와 '클로드'가 1억명 안 되는 점을 감안하면 대단한 수준”이라고 평가했다. 그러면서 “올해 초 젠슨 황 엔비디아 최고경영자(CEO)가 'GPT 이후 세상을 바꿀 AI는 피지컬 AI'라고 했다”며 “피지컬 AI는 몸통이 있는 AI로 쉽게 말해 로봇인데, 휴머노이드(인간 형태 로봇)와 자율주행 자동차가 대표”라고 전했다. 최 대표는 “마음AI는 2023년부터 'AI로 로봇을 제어하는 기술 만들어야겠다'고 생각했다”며 “자율주행부터 시작해 상용화까지 성공했다”고 말했다. 주력 제품으로 자율주행 농기계를 소개했다. 이는 과수원에서 나무 사이를 비집고 다니며 농약을 뿌린다. 최 대표는 “넓은 과수원에서 사람이 직접 농약 뿌리려면 시간이 오래 걸리는데다 인건비도 부담”이라며 “인체에 해롭기까지 하다”고 지적했다. 그는 “마음AI 자율주행 농기계는 퀄컴 개발 엔진보다 뛰어난 자체 개발 엔진을 가졌다”며 “건설·국방 로봇으로 영역을 넓힐 것”이라고 강조했다.

2025.05.15 17:03유혜진 기자

정부, 엔비디아 H200·B200 구입...10월부터 GPU 서비스

정부가 연내 엔비디아의 H200, B200 GPU 1만장을 도입해 국내 클라우드 기업이 AI 연구 개발에 쓰이도록 한다. GPU 구매 발주는 7월에 이뤄질 예정이다. 과학기술정보통신부는 14일 열린 경제관계장관회의에서 이같은 내용이 담긴 첨단 GPU 확보 추진 방안을 발표했다. 추경 예산으로 확보하게 되는 GPU 1만장은 H200 6천400장, B200 3천600장 규모로 수급 계획을 세웠으며 모델 비중은 상황에 따라 조정할 예정이다. GPU 구입에 8천600억원, 클러스터 통합 운영환경에 6천억원의 예산을 분배한다. 정부 예산으로 구입한 GPU를 운용할 클라우드 기업(CSP)에 대한 공모는 내주 예정됐으며 GPU 구매 절차는 7월에 진행, 이르면 오는 10월부터 신규 GPU 클러스터를 통한 국내 기업과 학계의 R&D를 진행키로 했다. 국가AI컴퓨팅센터 주체의 컨소시엄 형태 특수목적법인(SPC)에 참여하는 CSP 선정에는 별도 전문가 위원회가 맡는다. 선정 평가는 ▲재정 투입 대비 컴퓨팅 성능을 포함한 GPU 확보 구축 역량 ▲신속한 GPU 서비스 실행력 ▲GPU 자원 자체 활용 비중과 계획(CSP 운영비 성격 고려) 등을 중점에 뒀다. 선정된 CSP와 추후 권리 등에 관한 5년 단위 협약을 체결하게 된다. 협약에는 정보통신산업진흥원(NIPA)의 GPU 소유권 확보, SPC의 GPU 사용, CSP의 일부 GPU 자원 자체활용 허용 등의 내용이 포함된다. 정부는 특히 월드베스트LLM(WBL)에 선정된 기업에 GPU 자원 이용을 우선 제공한다는 방침이다. WBL은 국가대표 생성형AI 모델을 만들겠다는 취지로, 추경 예산을 통해 이뤄지는 프로젝트다. 과기정통부는 “SPC는 공공지분이 51%로 공공기관운영법에 따른 공공기관 지정 가능 요건에 해당한다”며 “내년 1월로 예상되는 공공기관운영위 심의에서 최종 결정될 사항이나 민간의 자율성을 최대한 보장하는 방향으로 부처 협의 중”이라고 밝혔다.

2025.05.14 11:35박수형 기자

유상임 장관, GPU 확보 위해 방미...엔비디아와 직접 논의

유상임 과학기술정보통신부 장관이 추경으로 마련된 인공지능(AI) 인프라 구축 사업 확대를 위해 이번 주 미국을 찾아 엔비디아를 만난다. 13일 유상임 장관 주재로 열린 4차 AI 컴퓨팅 인프라 특별위원회에서는 첨단 GPU 확보 방안이 논의됐다. 정부는 연내 GPU 1만장 확보를 위해 1조4천600억원의 추경 예산을 편성, 최근 국회 본회의를 통화했다. 이날 특위는 GPU 구매, 구축, 사용에 이르는 전주기 절차를 거쳐 속도감 있게 추진하는 것이 중요하다는 데 뜻을 모았다. 정부는 우선 첨단 대규모 GPU를 신속히 확보, 구축, 운용할 수 있는 클라우드 기업(CSP)을 선정애 GPU 구매를 추진한다. 공모로 선정된 CSP의 기존 데이터센터 상면 내에 확보된 GPU를 순차적으로 구축하게 된다. 이후 국가 AI컴퓨팅 센터 중심으로 순차 구축된 GPU를 활용하며, 국내 산학연과 국가적 프로젝트 지원 등에 전략적으로 배분할 방침이다. 유 장관은 “첨단 GPU 확보는 우리나라 AI 생태계 혁신의 시작”이라며 “민관이 협력해 연내 GPU 확보, 국내 AI 생태계 대상 GPU 지원에 총력을 기울이고 신속한 AI컴퓨팅 인프라 확충이 대한민국 AI 경쟁력 강화로 이어질 수 있도록 만전을 기하겠다”고 말다. 한편 정부는 GPU 구매와 구축에 협력할 CSP 공모에 나설 예정이다.

2025.05.13 15:38박수형 기자

"화웨이만 키워줄 것"…젠슨 황, 美 수출통제 '직격 비판'

엔비디아 젠슨 황 최고경영자(CEO)가 미국 정부의 대중국 반도체 수출 통제가 자국 기업에 심각한 타격을 줄 수 있다고 경고했다. 중국 인공지능(AI) 칩 시장이 향후 수년 내 수백억 달러 규모로 성장할 것으로 전망되는 가운데 미국 기업이 이 기회를 놓치면 산업 경쟁력 전반에 부정적 영향을 줄 수 있다는 판단이다. 8일 CNBC 등 외신에 따르면 황 CEO는 지난달 30일 중국이 AI 칩 수요 측면에서 거대한 시장이라며 미국 기업이 접근하지 못할 경우 "막대한 손실"이 예상된다고 밝혔다. 인터뷰는 이날 워싱턴 D.C.에서 열린 '힐 앤 밸리 포럼' 직후 진행됐다. 엔비디아는 앞서 미국 정부의 수출 규제로 인해 55억 달러(한화 약 7조7천억원) 규모의 매출 손실을 입었다고 밝힌 바 있다. 이번 제재는 엔비디아가 중국용으로 설계한 'H20' 칩에도 적용돼 판매에 필요한 별도 허가를 요구하고 있다. 황 CEO는 중국 시장을 '핵심'으로 규정하며 AI 칩 접근 제한이 미국 내 일자리 창출 기회까지 제한할 수 있다고 우려했다. 그는 중국과의 기술 경쟁에서 화웨이와 같은 토종 기업들이 부상할 가능성도 경고했다. 중국 정부는 최근 수년간 반도체 자립을 위해 수십억 달러를 투입해 왔다. 화웨이는 AI 칩 공급망을 자체 구축하는 전략의 일환으로 최신 '어센드' 시리즈 칩을 개발 중이다. 이는 미국산 그래픽처리장치(GPU)에 대한 의존도를 낮추기 위한 행보다. 또 미국의 제재가 지속되면 화웨이를 비롯한 로컬 경쟁자들이 오히려 유리해질 수 있다는 분석도 제기된다. 이는 장기적으로 미국 반도체 기업의 글로벌 입지에 악영향을 줄 수 있다. 이 같은 상황에서 AMD 역시 15억 달러(한화 약 2조1천억원) 매출 감소를 발표하며 대중국 수출 통제가 업계 전반에 미치는 영향이 확산되고 있다. 특히 AI 응용에 필수적인 GPU를 생산하는 기업들이 직접적인 타격을 입는 중이다. 미국 워싱턴의 정부 산하 씽크탱크인 전략국제문제연구소(CSIS)는 지난 3월 보고서를 통해 "중국이 AI 기술 격차를 상당 부분 좁혔다"며 "미국이 기술 우위를 2년 이상 유지하는 것이 비현실적으로 보이는 상황"이라고 평가했다.

2025.05.08 15:02조이환 기자

파네시아, CXL 개발자 컨퍼런스서 'CXL 3.x' 스위치 솔루션 공개

국내 팹리스 스타트업 파네시아는 올해 국내 기업으로서 유일하게 CXL 개발자 컨퍼런스(CXL DevCon)에 참가해 고출력(high fan-out) CXL 3.x 스위치 기반 프레임워크를 선보였다고 7일 밝혔다. CXL DevCon은 CXL 표준을 제정하는 CXL 컨소시엄에서 주관하는 공식행사로서, 올해 2회차를 맞았다. 지난달 29일, 30일 양일간 미국 캘리포니아주 산타 클라라에서 진행됐다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. PCIe(PCI 익스프레스)를 기반으로 다수의 장치를 하나의 인터페이스로 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 파네시아는 올해 국내 기업으로서는 유일하게 전시 기업으로 참여해 대표 제품인 고출력 CXL 3.x 스위치와 이를 기반으로 한 프레임워크를 선보였다. 파네시아가 선보인 고출력 CXL 3.x 스위치는 서로 다른 CXL 장치들을 캐시 일관성이 보장된 하나의 시스템으로 통합하는 가교 역할을 한다. 파네시아가 자체 개발한 저지연 CXL IP를 기반으로 개발된 데에 더해, 한꺼번에 더 많은 장치를 연결할 수 있는 고출력 SoC 구조를 가짐으로 시스템의 평균적인 홉 수를 줄여 지연시간을 최소화한다. 또한 파네시아의 스위치는 여러 대의 스위치를 다수의 계층으로 연결하는 멀티-레벨 스위칭(multi-level switching) 기능, 그리고 각 장치가 장착되는 물리적 위치인 '포트'를 기준으로 장치 간의 논리적인 연결 구조와 연결 경로를 유연하게 설정하는 포트-기반 라우팅(port-based routing, PBR) 기능을 모두 지원한다. 뿐만 아니라 CPU, GPU, 메모리 등 모든 종류의 시스템 장치에 대한 연결을 지원하기 때문에, 수많은 시스템 장치들을 다양한 형태와 조합으로 연결해 고객의 요구에 맞는 대규모 시스템을 구축하는 데 용이하다. 파네시아는 이번 전시회에서 CXL 3.x 스위치를 활용해 CXL 서버 노드를 여러 개 연결해 구축한 'CXL Composable Server'도 출품했다. 각 서버 노드에는 파네시아의 또 다른 제품인 CXL IP를 활용해 개발한 CPU, GPU, 메모리 장치 등이 종류별로 장착돼 있다. 덕분에 고객들은 그때그때 필요한 장치가 장착된 노드를 추가로 장착해 수요에 알맞은 형태로 시스템을 구축할 수 있다. 파네시아는 해당 프레임워크를 기반으로 검색증강생성(RAG), 대규모언어모델(LLM) 등의 AI 응용 및 과학 시뮬레이션을 가속하는 데모를 시연하며, 행사에 참석한 CXL 전문기업들로부터 많은 주목을 받았다. 파네시아 관계자는 “CXL 3.x 스위치 기술을 다룬 발표와 출품은 파네시아가 유일했다”며 “CXL 컨소시엄의 리더들에게도 CXL 3.x 스위치는 새로운 기술이기에, 이번 파네시아의 출품작과 발표에 많은 관심을 보인 것 같다”고 말했다.

2025.05.07 14:56장경윤 기자

AI 분야 추경 1.9조원...GPU 확보 1.6조원 투입

1조9천67억원 규모의 인공지능(AI) 분야 추가경정예산이 국회 본회의를 통과했다. 정부 제출안 대비 618억원 증액된 규모다. 과학기술정보통신부는 1일 국회에서 의결된 AI 분야 추경 예산을 바탕으로 국가 AI 경쟁력 강화를 위한 과제를 신속하게 추진하겠다고 밝혔다. 먼저 클러스터링 기반 첨단 GPU 1만장을 연내 확보할 계획이다. 조속한 AI컴퓨팅 인프라 확충을 위해 1조6천341억원의 예산을 신규로 투자해 클러스터링 기반의 첨단 GPU 1만장 분을 연내 확보하고, 민간이 보유한 첨단 GPU 3천장 분량을 임차해 활용도를 지원키로 했다. 국산 AI 반도체의 조기 상용화를 위해 실증 사업도 확대한다. 올해 실증예산을 417억원에서 871억원으로 증액해 국내 유망한 AI반도체 기업들이 골든 타임 내에 NPU 상용화를 지원한다는 계획이다. 과기정통부는 NPU 실증 인프라 외에도 온디바이스 AI, 해외실증 등 신시장 개척을 위한 지원도 강화할 예정이다. 아울러 글로벌 최고수준의 AI 모델 개발을 위해 가칭 월드베스트LLM 프로젝트를 추진한다. 2천136억원 규모의 예산을 통해 국내 5개 정예팀을 선정해 최대 3년동안 GPU, 데이터, 인재 등 필요한 자원을 집중 지원하게 된다. AI 파운데이션 모델 개발에 필요한 GPU는 민간이 보유한 첨단 GPU 임차를 통해 우선 지원하고, 각 팀의 AI 개발 목표 달성에 필요한 데이터 구축, 가공, 활용 비용을 지원할 계획이다. 또 해외 최고급 AI 연구자의 국내 유치를 위해 최대 연 20억원을 지원하는 'AI 패스파인더 프로젝트'를 추진하고, 유치된 인재는 월드베스트LLM 프로젝트 팀에 우선 지원할 예정이다. 세계 최고수준의 AI인재 확보와 양성을 위해 다양한 프로그램을 추진한다. 약 150억원 규모의 예산을 투입해 혁신 AI 인재들이 겨루는 '글로벌 AI챌린지'를 개최한다. AI와 과학기술 융합분야 글로벌 핵심인재 양성하기 위해 국내외 박사후연구원 400명에 최고 수준의 처우 및 집단·융합연구 등을 집중 지원한다. 이밖에 AI의 산업적 활용을 촉진을 지원한다. AI스타트업 성장을 위한 지원을 확대하여, 'AI혁신펀드'의 정부 예산을 1천억원 규모로 증액하는 한편, 100억원의 예산을 추가하여 연구개발특구 내 AI분야 우수한 연구소기업의 AI기술사업화와 AX확산을 도모한다. AI 디지털 취약계층을 위해 배리어프리 키오스크 기술 및 보급 지원에 92억원을 신규로 지원한다. 유상임 과기정통부 장관은 “AI 주도권을 둘러싼 글로벌 결정 속에서 시급한 예산이 확보됐다”며 “과기정통부는 그 어느때 보다 절박한 심정으로 골든 타임을 놓치지 않도록 전방위적인 노력을 기울일 것”이라고 말했다.

2025.05.01 22:53박수형 기자

[현장] "HBM, AI 시대의 우라늄"…국회, 초당적 포럼서 반도체 전략 수립 '본격화'

"인공지능(AI) 시대의 진짜 병목은 연산이 아니라 메모리입니다. 그래픽처리장치(GPU)만큼 중요한 건 고대역폭메모리(HBM)이고 이를 못 잡으면 우리는 기술 식민지가 됩니다. HBM은 단순한 메모리가 아니라 설계, 냉각, 패키징, 파운드리까지 연결된 AI 시대의 '고농축 우라늄'입니다. 지금 투자하지 않으면 10년 뒤엔 우리의 미래를 장담할 수 없습니다." 김정호 카이스트 교수는 지난 22일 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼' 발제에서 이같이 말했다. 이날 김 교수는 'HBM이 대한민국을 살린다'는 제목으로 발표에 나서 반도체 설계 주도권 확보와 생태계 재편의 필요성을 강도 높게 강조했다. 이번 행사는 정동영 더불어민주당 의원과 최형두 국민의힘 의원이 공동 주최하고 산업계·학계·정계 주요 인사들이 대거 참석해 토론을 벌였다. SK하이닉스, 삼성전자, 서울대, 스타트업, 과기부 등 다양한 주체가 모인 현장에서는 AI 반도체 생태계 조성을 위한 현실적 방안들이 논의됐다. 김정호 교수 "HBM은 단순한 메모리가 아니다…AI 패권의 핵심 기술" 김정호 카이스트 교수는 이날 발제에서 HBM을 AI 시대의 '순수 우라늄'으로 간주하며 대한민국 반도체 산업이 생존하기 위해 반드시 확보해야 할 전략 자산이라고 강조했다. 그는 HBM이 단순한 메모리 기술을 넘어 컴퓨팅처리장치(CPU)와 GPU 기능까지 통합하게 될 미래를 예견하며 이를 통해서만 한국이 엔비디아와 같은 글로벌 기업과 대등한 협상력을 가질 수 있다고 주장했다. HBM은 기존 디램(DRAM) 대비 훨씬 빠른 속도로 데이터를 주고받을 수 있는 차세대 메모리 기술이다. 수직으로 여러 층의 메모리를 쌓은 구조 덕분에 같은 면적 안에서 더 많은 데이터를 병렬로 처리할 수 있어 대용량 연산이 요구되는 AI 학습과 추론에 최적화돼 있다. 더불어 HBM은 DRAM, 인터포저, 신호무결성(SIPI), 냉각, 재료, 패키징, 파운드리, GPU 설계, 시스템 아키텍처 등 다양한 기술이 융합돼야 구현 가능한 복합 기술 집합체다. 하나의 부품이 아니라 반도체 시스템 전체를 아우르는 '기술의 총합'인 것이다. 김 교수는 한국이 '챗GPT'와 같은 파운데이션 모델 없이도 AI 경쟁력을 확보하려면 엔비디아의 최신 GPU가 최소 수십만 대 필요하다고 말했다. 다만 현실적으로 현재 한국이 보유한 최신 엔비디아 'H100'은 몇천대 수준으로, 예산을 투입해도 엔비디아가 GPU를 이를 공급할 이유가 부족한 상황이다. 이에 제시할 수 있는 유일한 협상 카드가 HBM으로, 이를 기반으로 기술 주권을 확보해 반도체 글로벌 공급망에서 우위를 점해야 한다는 것이 김 교수의 주장이다. AI 기술이 빠르게 고도화되면서 주목받을 연산 병목의 핵심은 GPU가 아니라 HBM이라는 분석 역시 나왔다. 김 교수는 "'챗GPT'를 구동하는 동안 실제로 열을 받아 녹는 것은 GPU가 아니라 HBM"이라며 "토큰 생성 속도 저하의 주요 원인은 메모리 대역폭의 부족에 있다"고 설명했다. 이어 "기존 컴퓨터 구조에서는 저장은 메모리, 계산은 GPU가 맡았지만 AI 시대에는 이 둘 사이의 데이터 전달 속도에서 한계가 발생한다"고 말했다. 이 같은 구조적 병목은 HBM의 역할을 단순한 '빠른 메모리'를 넘어서는 요소로 만든다. 김 교수는 HBM의 기술적 본질을 '데이터를 얼마나 빠르게 GPU로 보내고 다시 받아올 수 있느냐의 싸움'이라고 정의했다. 그는 이를 100층짜리 고층 건물에 비유하며 층을 높이 쌓을수록 내부에서 데이터를 오가는 '고속 엘리베이터' 같은 통로가 필수라고 설명했다. 현재 개발 중인 'HBM4'까지는 이러한 구조를 일정 수준 유지할 수 있지만 몇년 후 등장할 'HBM7'과 같은 차세대 모델로 갈수록 기술적 부담은 폭발적으로 늘어난다. 특히 기존 본딩 공정에서 사용하는 납이 고온에서 열화되는 문제가 있어 더 높은 집적도와 연산량을 감당하려면 냉각 솔루션과 소재 자체의 혁신이 필수적이다. 이러한 배경에서 전체 시스템을 액체에 담가 냉각하는 '침지 냉각(immersion cooling)'이 유력한 차세대 해법으로 주목받고 있다. 단순히 칩을 잘 만드는 것만으로는 한계가 있는 만큼 냉각 설계, 패키징, 파운드리 공정, 시스템 아키텍처 설계까지 아우르는 통합적 기술 전략이 필요한 단계다. 이같은 급박한 상황 속에서 한국은 반도체 산업의 핵심 가치사슬인 설계와 파운드리에서 모두 취약한 위치에 놓여 있는 상황이라는 것이 김 교수의 설명이다. 일례로 'HBM4'부터는 연산 기능이 메모리 내부, 이른바 '베이스 다이(Base Die)'에서 처리되는 구조로 전환되고 있다. 다만 해당 기술의 설계는 엔비디아가, 제조 공정은 대만 TSMC가 주도하고 있어 국내 기업의 입지는 좁아지고 있는 것이다. 김 교수는 이 같은 글로벌 기술 분업 구조 속에서 한국이 기술 주도권을 잃을 가능성을 경고했다. 특히 SK하이닉스는 '베이스 다이' 설계 경험이 부족하고 삼성전자는 생태계에서 실질적 중심을 잃고 있다고 지적했다. 이에 설계와 파운드리 양쪽 모두에 대한 국가 차원의 역량 집중이 필요하다고 강조했다. 그 역시 자신의 연구실에서 HBM의 병목 문제를 해결하기 위한 다양한 실험을 진행 중이다. 여러 층을 쌓아올리는 '멀티타워 아키텍처'와 연산 기능을 메모리 내부에 넣는 'CPU 내장형 메모리' 구조가 대표적이다. 기존 디램을 보조 메모리로 붙이거나 CPU를 직접 설계하는 방식도 병행하고 있으며 이는 최근 엔비디아가 공개한 '블랙웰 시스템'과 유사한 구조다. 또 김 교수는 AI 기술을 활용한 자동 설계 실험도 병행하고 있다. 자연어로 회로를 설계하는 '바이브 코딩'을 통해 학생이 설계한 HBM과 '챗GPT'가 설계한 결과의 성능이 거의 유사했다는 점을 소개하며 인력 부족 문제를 AI가 보완할 수 있다고 강조했다. 김 교수는 "AI는 죽지도 자지도 않지만 사람은 인건비가 든다"며 "AI 기반의 자동화 기술이 앞으로 산업 경쟁력을 좌우할 핵심 수단이 될 것"이라고 주장했다. 발표를 마치며 김 교수는 AI 생태계의 패권 경쟁이 결국 'HBM 기술력'에 수렴된다고 강조했다. AI가 핵무기, 반도체가 우라늄이라면 HBM은 '순수 우라늄'으로, 한국이 이 기술을 확보하지 못하면 글로벌 기술 질서에서 도태될 수밖에 없다는 것이다. 김정호 카이스트 교수는 "이제는 정부가 나서서 HBM 주도권을 위해 전략적으로 투자해야 한다"며 "기업과 학계도 반도체 전문대학원을 신설하고 고급 인재를 체계적으로 길러낼 수 있는 구조로 과감히 개편해야 한다"고 강조했다. 이어 "과거 박정희 대통령이 고속도로를 깔아 자동차 산업을 열고 김대중 대통령이 인터넷망으로 IT 강국의 기반을 만들었듯 이 위기를 기회로 만들 어야 한다"고 말했다. "HBM만으론 부족하다"…산학연이 말한 'AI 반도체 생태계의 조건은? 이날 김 교수의 발표 이후에는 기술 인프라와 생태계 확장을 놓고 산업계·학계·정부 인사 간에 치열한 논의가 벌어졌다. 이날 토론에서는 'HBM 중심 전략'을 넘어서 설계·파운드리·모델·SW까지 포괄하는 통합 생태계 필요성이 제기됐다. HBM에 대한 전략적 인프라 확충은 대체로 공감대가 형성됐다. 다만 실제 현장에선 정부 지원이 한정돼 있어 기술 주도권 확보엔 한계가 있다는 우려가 나왔다. 정상록 SK하이닉스 부사장은 "지난 2023년 삼성과 각각 500억 원씩 지원받았지만 기술 성장성을 반영할 때 보다 세심한 고려가 필요하다"며 "개인적으로 볼때 정부가 HBM이라는 신기술을 보다 감안해서 장기적인 전략을 짜는 것이 좋은 전략일 것으로 생각한다"고 말했다. 정부 역시 이를 인지하고 전략적 대응에 나섰다는 입장이다. 박윤규 정보통신산업진흥원장은 "향후 정부의 전략 투자 중심축 중 하나가 HBM이 될 것"이라며 "우리는 기업의 고충을 실제로 듣고 지원하는 입장에서 인프라와 설계 R&D를 함께 지원하는 방향으로 갈 것"이라고 밝혔다. 스타트업들은 기술 상용화의 '속도'와 '현실'을 문제 삼았다. HBM을 실제 적용하고 있는 기업들 자본, 인재, 시간 모두에서 한계에 부딪히고 있다는 설명이다. 정영범 퓨리오사AI 상무는 "3년 전 'GPT-3'가 나올 당시 HBM3를 선택했는데 다들 만류했다"며 "그럼에도 우리는 한국도 가능하다는 믿음으로 다소 무리하며 밀어붙였고 결과적으로 현명한 선택이 됐다"고 말했다. 칩 하나를 개발하는 데만 수백억 원이 들어가는 현실에서 스타트업은 생존을 위해 정부의 중장기 지원이 절실하다는 호소도 나왔다. 배유미 리벨리온 이사는 "인재, 자본, 시간을 꾸준히 투입해야 하는데 정부가 이 흐름을 끊지 않도록 지원책을 이어가줬으면 한다"고 말했다. 기술 못지않게 인재 확보도 현장의 핵심 과제로 떠올랐다. 고급 설계인력 수요는 폭증하고 있지만 국내 교육·보상 시스템이 이를 받쳐주지 못한다는 지적이다. 이공계 고급 인력의 산업계 유입을 위한 구체적 유인책도 필요하다는 설명 역시 이어졌다. 김영오 서울대 공대 학장은 "AI와 반도체를 동시에 전공할 수 있는 학생들이 필요하다"며 "상위 10~20% 천재 학생들에게는 파격적 보상과 국가 주도 연구기관이 필요하다"고 제안했다. 이어 현대 조현철 상무는 "카이스트 출신들도 산업계보다 학계나 해외로 빠져나간다"며 "산업계로의 유입을 위한 정부 차원의 가이드라인이 필요하다"고 말했다. AI 생태계의 핵심은 '풀스택 경쟁력'이라는 점도 강조됐다. 송대원 LG 상무는 "구글은 이번 '넥스트' 행사에서 GPU부터 모델, 솔루션까지 전방위 생태계를 발표했다"며 "국내도 인프라만 볼 게 아니라 전체 AI 흐름을 같이 키워야 한다"고 말했다. 정부도 이런 문제의식을 반영해 추경 예산을 마련하고 제도 개선을 시도 중이다. 특히 글로벌 수준 인재 유치를 위한 예산이 신설됐다는 점이 눈에 띈다. 송상훈 과기부 실장은 "최대 40억원까지 매칭 지원이 가능한 고급 인재 유치 프로그램을 새로 만들었다"며 "퓨리오사, 리벨리온 같은 기업들이 공학도들의 꿈이 되도록 하겠다"고 말했다. 정동영 더불어민주당 의원은 "HBM 3층 적층 구조를 처음 제안했던 김정호 교수의 주장을 우리 기업들이 진작 받아들였더라면 지금쯤 이들의 국제적 위상이 보다 커졌을 것"이라며 "오늘 산업계, 학계, 정부, 여야가 오늘처럼 한자리에 모인 것 자체가 의미 있고 이 논의가 구체적 실행으로 이어져야 한다"고 말했다. 최형두 국민의힘 의원은 "매주 격주 아침마다 토론을 이어온 것은 각계 리더들이 진심으로 이 문제를 국가 전략으로 보고 있다는 방증"이라며 "AI 추경 예산 반영 여부가 이제 과방위와 예결위 논의에 달려 있는 상황에서 국회 특위 위원으로서 마지막 소위 심사까지 책임지고 반영될 수 있도록 최선을 다하겠다"고 강조했다.

2025.04.23 11:28조이환 기자

한 달 앞으로 다가온 컴퓨텍스 2025, 올해 테마 '넥스트 AI'

타이트라(TAITRA, 대만대외무역발전협회)와 타이베이컴퓨터협회(TCA) 주최로 열리는 동북아시아 최대 규모 IT 전시회, '컴퓨텍스 타이베이 2025'가 다음 달 20일부터 4일간 개최된다. 전통적으로 PC 생태계 중심 행사였던 컴퓨텍스는 2020년 이후 생성 AI, 챗GPT와 클로드, 퍼플렉시티 등을 위시한 LLM(거대언어모델), 온디바이스·엣지 AI, AI PC 등 바람을 타고 AI를 중심에 둔 전시회로 옷을 갈아 입었다. 6월 4일부터 7일까지 4일간 진행된 지난 해 행사에는 2023년(4만 5천명) 대비 두 배 늘어난 8만 5천179명이 방문했다. 올해도 엔비디아를 시작으로 퀄컴, 미디어텍 등 주요 AI 관련 기업들이 기조연설을 진행할 예정이다. 엔비디아, 개막 하루 전날 기조연설 진행 젠슨 황 엔비디아 CEO는 매년 컴퓨텍스 기간마다 타이베이를 찾아 기조연설이나 브리핑을 진행했다. 지난 해에는 난강전람관에 등장해 주요 그래픽카드·서버 제조사 부스를 방문하며 친필 사인을 남겨 대만 현지 언론의 주목을 한 눈에 받았다. 지난 해 엔비디아는 컴퓨텍스 공식 개막일보다 이틀 이른 일요일 저녁에 별도로 기조연설을 진행했다. 올해는 19일 오전 11시부터 난강전람관에서 1km 떨어진 '타이베이 뮤직 센터'로 청중을 모을 예정이다. 최근 2년간 엔비디아가 GPU를 이용한 AI 분야에서 두각을 나타내며 많은 이들의 관심이 집중되고 있는 상황이다. 타이트라와 엔비디아는 현장 참가를 원하는 각국 취재진을 대상으로 별도 코드까지 발급하며 이를 통제하기 위해 안간힘을 쓰고 있다. 퀄컴, 엔비디아와 같은 날 기조연설 예정 퀄컴은 지난 해 크리스티아노 아몬 CEO가 직접 AI PC를 주제로 한 기조연설을 진행하고 삼성전자 등 주요 PC 제조사와 함께 당시 출시를 앞뒀던 스냅드래곤 X 엘리트 탑재 노트북을 공개했다. 올해 기조연설도 크리스티아노 아몬 CEO가 연사로 나서 19일 오후 난강전람관에서 기조연설을 진행한다. 차세대 제품인 스냅드래곤 X 엘리트 2세대(가칭) 관련 성능이나 출시 일정 등 정보가 일부 공개될 가능성이 있다. 퀄컴은 기조연설과 함께 타이베이 시내 별도 행사장에서 AI PC 관련 쇼케이스도 진행할 것으로 보인다. AI PC 보급에 가장 중요한 영향을 미칠 각종 소프트웨어 위주의 전시가 예상된다. AMD·인텔, 아직까지 '무소식' AMD와 인텔은 컴퓨텍스 개막이 한 달 앞으로 다가온 현재까지 구체적인 일정을 공개하지 않은 상황이다. AMD는 공식 기조연설 대신 제품 담당 임원이 진행하는 별도 인터뷰나 브리핑 세션, 각종 쇼케이스 등을 진행할 것으로 보인다. 인텔은 지난 해 팻 겔싱어 전 CEO가 타이베이를 찾아 기조연설과 파트너 미팅 등을 진행했지만 올해 일정은 불투명하다. 난강전람관 안에는 이미 부스를 마련했지만 구체적인 공지는 나오지 않았다. 21일 취재에 응한 PC 업계 관계자들은 "인텔이 올해 컴퓨텍스에서는 PC와 AI, GPU 등 어떤 면에서도 이렇다 할 메시지를 내놓지 못할 것"이라고 예상했다.

2025.04.21 16:15권봉석 기자

AI 분야 1조8천억원 추경...연내 GPU 1만장 신규 도입

정부가 1조8천억원 규모의 인공지능(AI) 분야 추가경정예산으로 연내 1만장의 GPU를 새롭게 확보하고, 민간이 보유한 GPU 2천600장을 임차 활용키로 했다. 과학기술정보통신부는 18일 국무회의에서 추경안을 바탕으로 지난 15일 경제관계장관회의 겸 산업경쟁력강화 관계장관회의에서 논의된 '국가AI역량 강화방안 후속조치'를 추진한다고 밝혔다. 연내 GPU 1만장 확보에 1조4천600억원을 투입한다. 또한 시급한 국내 AI컴퓨팅 수요에 대응하기 위해 민간이 보유한 첨단 GPU 2천600장분의 추가 임차 활용에 1천723억원을 할당했다. 국산 AI반도체의 조기 상용화를 지원하는 실증사업도 기존 298억원에서 752억원으로 확대한다. 이를 위해 대규모 AI컴퓨팅 상용서비스에 최적화된 국산 NPU 실증 인프라를 구축하고, 온디바이스 AI, 해외 실증 등 신시장 개척을 위한 실증 지원도 확대한다. 또한 국가AI컴퓨팅 센터(SPC)가 선정되면 올해부터 국산 AI반도체가 센터에 본격적으로 도입될 수 있도록 적극 추진한다. 민간 AI컴퓨팅 인프라 투자 촉진을 위한 제도적 지원도 강화한다. 첨단 AI R&D, AI 인프라 투자에 대해 세제지원을 강화하기 위해 올해 3월 조세특례제한법을 개정해 AI를 국가전략기술로 지정했다. 아울러 AI 데이터센터 민간투자 촉진을 위한 입지, 시설, 전력 관련 제도적 지원도 지속해나갈 계획이다. 글로벌 수준의 AI모델 개발을 위해 AI 정예팀을 선정해 지원하는 가칭 월드베스트 LLM 프로젝트를 추진한다. 세계 최고 수준의 AI인재 확보 양성도 지원한다. 혁신 AI 인재들이 겨루는 글로벌 AI챌린지를 하반기에 개최한다. 해외 최고급 AI 연구자를 국내에 유치할 경우 3년간 최대 연 20억원을 지원하는 가칭 AI 패스파인더 프로젝트를 올해 신규로 추진한다. AI융합 분야 글로벌 최상위 연구자를 양성하기 위해, 국내외 우수 박사후연구원 400명에 최고 수준의 처우 및 집단·융합연구 등을 집중 투자한다. AI 스타트업 성장을 지원하기 위해 올해 민관이 합동으로 조성 예정인 900억원 규모의 'AI 혁신펀드'를 2천억원 규모로 확대한다. 유상임 과기정통부 장관은 “AI 주도권을 놓고 촌각을 다투는 글로벌 경쟁속에서 이번 추경은 매우 시의적절하며 중대한 결정”이라며 “과기정통부는 '1년이 늦어지면 경쟁력은 3년 뒤처진다'라는 절박한 각오로 추진과제를 철저히 준비해 AI G3 도약을 위한 기반을 마련해나가겠다”고 말했다.

2025.04.18 11:00박수형 기자

美·中 무역전쟁에 발 묶인 엔비디아 'H20' GPU

미국 도널드 트럼프 2기 행정부가 대 중국 GPU 수출 규제를 한층 강화했다. 전임자인 조 바이든 행정부는 연산 성능이나 대역폭 등 성능을 낮추는 선에서 수출을 허용했지만 트럼프 2기 행정부는 이마저도 무기한 허가하지 않을 방침이다. 엔비디아는 15일(이하 현지시각) 중국 시장용으로 설계된 H20 GPU 수출 제한 조치를 공시하며 "H20의 재고와 구매 약정, 관련 충당금 등으로 최대 55억 달러(약 7조 8천556억원) 추가 비용이 들 것"이라고 밝혔다. 엔비디아 뿐만 아니라 지난 해부터 성능을 제한한 중국 시장용 GPU를 생산하는 AMD에도 유사한 규제가 주어질 가능성이 크다. 한편 이런 규제가 엔비디아의 가장 큰 경쟁자로 꼽히는 중국 화웨이를 키워주는 결과를 낳을 것이라는 관측도 나온다. 엔비디아, 美 정부 규제에 따라 두 차례 GPU 성능 낮춰 미국 정부가 중국 대상으로 AI 가속과 머신러닝, 딥러닝용 GPU 수출 규제에 나선 것은 2022년 10월부터다. 당시 미국 정부는 엔비디아 A100, H100 등 GPU를 포함해 AMD 제품까지 수출 규제 대상에 포함시켰다. 엔비디아는 이들 제품에서 최대 대역폭을 절반인 400GB/s까지 낮춘 A800, H800 GPU를 생산해 공급했다. 그러나 미국 정부가 2023년 10월 규제 범위를 확대하자 성능을 더 낮춘 H20, L20, L2 등 3종을 추가 개발해 이를 작년부터 중국 시장에 공급했다. 이번에 미국 정부가 제동을 건 H20 GPU는 HBM3 메모리 용량을 96GB로 제한하고 메모리 대역폭은 4TB/s, AI 연산 성능은 FP16(부동소수점 16비트) 기준 148 테라플롭스, FP32(부동소수점 32비트) 기준 44 테라플롭스로 제한됐다. H800으로 구현한 LLM '딥시크 R1'이 역린 건드렸나 미국 정부가 H20 GPU의 중국 수출 규제를 강화한 이유는 아직 명확하지 않다. 그러나 지난 1월 중국 AI 스타트업 딥시크(DeepSeek)가 하순 공개한 추론 특화 AI 모델 'R1'이 영향을 미쳤을 것으로 추정된다. 딥시크 R1은 AI 모델 훈련을 위해 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준인 557만6천달러(약 80억원)를 지출한 것으로 알려져 있다. 또 미국 상무부 수출 통제 기준을 준수하는 H800 GPU를 이용했다. 당시 엔비디아는 "딥시크가 활용한 GPU는 미국 수출 규정을 준수했으며 추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 밝혔다. 실제로 미국 CNBC와 대만 공상시보 등 경제 매체에 따르면 딥시크 R1 공개 이후 텐센트, 알리바바, 바이트댄스 등 중국 주요 IT 기업들이 H20 GPU 발주량을 크게 늘렸다. 엔비디아, 중국 내 최대 경쟁사로 화웨이 꼽아 미국 정부는 거대언어모델(LLM) 등에서 중국의 성장 속도를 지연시키기 위해 GPU 수출 규제를 활용하고 있다. 그러나 이런 규제는 오히려 중국 내 엔비디아 최대 경쟁자로 꼽히는 화웨이 성장을 돕는 결과를 낳을 수 있다. 화웨이가 개발한 어센드(Ascend) 910B는 FP16 기준 320 테라플롭스, INT8(정수 8비트) 기준 640 TOPS(1초당 1조 번 연산)급 성능을 갖춰 엔비디아 A100과 비슷한 수준으로 평가된다. 지난 해 공개된 후속 제품인 어센드 910C는 지난 2월 딥시크가 수행한 추론 벤치마크에서 엔비디아 H100의 60%에 달하는 성능을 냈다. 엔비디아도 지난 2월 말 미국 증권거래위원회에 제출한 연간 보고서에서 주요 경쟁자 중 하나로 2년 연속 화웨이를 꼽았다. 칩과 클라우드 서비스, Arm IP 기반 컴퓨터 프로세서와 네트워킹 제품 등 4개 분야에서 화웨이를 주요 경쟁사로 분류했다. 엔비디아 이어 AMD GPU 사업에도 영향 불가피 미국 정부의 수출 규제 확대는 엔비디아 뿐만 아니라 AMD에도 영향을 미칠 가능성이 크다. AMD는 작년 중국 시장을 겨냥해 성능을 제한한 AI GPU 가속기인 인스팅트 MI309를 설계했지만 미국 상무부는 '여전히 성능이 강력하다'는 이유로 수출을 불허했다. 2023년 11월 중국 시장에서는 데스크톱PC용 지포스 RTX 4090 그래픽카드를 분해해 서버용으로 개조하기도 했지만 올해는 이런 시도가 일어나기 힘들다. 엔비디아가 2월부터 중국 시장에 공급중인 지포스 RTX 5090D 그래픽카드에 이미 여러 제약이 가해졌기 때문이다. 지포스 RTX 5090D 그래픽카드는 미국 정부의 규제를 충족하기 위해 AI 연산 성능을 RTX 5090(3,352 TOPS) 대비 29% 가량 줄인 2,375 TOPS 수준으로 낮췄다. 한 PC나 서버에 GPU를 여러 개 꽂아 성능을 높이는 '멀티 GPU' 구성도 불가능하다. 다만 국내 주요 메모리 기업들에게 미칠 악영향은 제한적일 것으로 분석된다. 현재 SK하이닉스는 엔비디아의 AI 가속기에 필요한 HBM(고대역폭메모리)을 대거 공급하고 있으며, 삼성전자 역시 지속적으로 공급망 진입을 시도 중이다.

2025.04.16 14:37권봉석 기자

지코어, 렛츠AI에 AI 인프라 제공…"이미지 생성 속도·유연성↑"

지코어가 렛츠AI의 기술 고도화를 도와 맞춤형 이미지 생성 속도와 서비스 확장 가능성을 높였다. 지코어는 렛츠AI에 AI 인프라와 AI 추론 솔루션 '에브리웨어 인퍼런스'를 제공했다고 15일 밝혔다. 렛츠AI는 사용자가 업로드한 이미지나 제품 기반으로 AI가 맞춤형 이미지를 실시간 생성하는 플랫폼이다. 지코어의 엔비디아 H100 그래픽처리장치(GPU) 기반 클라우드 인프라와 에브리웨어 인퍼런스를 적용해 이미지 생성 속도를 높이고 지연 시간을 줄였다. 또 GPU 단위 자원 제공 방식으로 인프라 구축 부담을 최소화하고, 비용 효율성을 이뤘다고 밝혔다. 현재 렛츠AI는 지코어 인프라로 다양한 브랜드와 협업 프로젝트를 진행 중이다. 한 레스토랑 브랜드는 피자 이미지 생성 이벤트에, 스포츠 브랜드 퓨마는 가상 인플루언서의 유니폼 이미지 생성에, 속옷 브랜드 슬로기는 마케팅 이미지 실험에 해당 플랫폼을 활용했다. 지코어는 AI 애플리케이션의 실시간 서비스를 위해 엣지 네트워크 기반 초저지연 환경도 제공하고 있다. 추론 요청을 전 세계 180여 개 엣지 지점 중 사용자와 가장 가까운 위치로 자동 라우팅해 속도를 최적화했다. 미쉬 스트로츠 렛츠AI 대표는 "지코어 덕분에 클릭 몇 번으로 글로벌 배포가 가능해졌고, GPU도 수 시간 내에 온보딩돼 안정적이고 유연한 운영이 가능했다"며 "개발과 인프라팀 작업 효율을 크게 높아졌다"고 말했다. 지코어 세바 베이너 디렉터는 "렛츠AI는 AI 인프라 기반으로 대규모 학습과 추론을 동시 운영하고 있다"며 "향후 영상 생성 등 기능 확장에도 우리 제품이 중심이 될 것"이라고 강조했다.

2025.04.15 11:00김미정 기자

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환 기자

  Prev 11 12 13 14 15 Next  

지금 뜨는 기사

이시각 헤드라인

[유미's 픽] AI가 들러리인가…하정우·임문영 두 축 선거판으로

오락가락 트럼프, 호르무즈 '프로젝트 프리덤' 일시 중단

기계체조하는 아틀라스 첫 공개..."사람보다 유연해"

'어닝쇼크' 쿠팡, 회복 자신..."물류·공급망 투자 지속"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.