• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'DGX-A100 GPU'통합검색 결과 입니다. (189건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"GPU 1.5만장 연내 구입"...글로벌 경쟁에 마음 급해진 정부

정부가 연내 국가AI컴퓨팅센터에 구축할 GPU 1만5천 장을 확보하겠다는 뜻을 밝혔다. 당초 GPU 확보 계획은 2030년까지 3만 장이었는데 이 가운데 절반을 조기에 구축하겠다는 뜻이다. 유상임 과학기술정보통신부 장관은 4일 2025년 핵심과제 추진상황 브리핑을 직접 맡아 “국가AI컴퓨팅센터에 올해 GPU 1만5천 장을 구축하면 좋겠다”며 “2027년까지 3만개를 구축하겠다”고 밝혔다. 국가AI위원회 출범 당시 목표로 제시한 3만 장의 GPU 수량은 생성형AI 시장에서 돌풍을 일으킨 오픈AI의 챗GPT 서비스가 쓰고 있는 GPU를 추산한 값이다. 당시 국내에 도입된 GPU는 2천 장 수준으로 파악됐다. 즉, 3만 당의 GPU로 국내에서 민간 기업과 연구기관들이 글로벌 톱티어 서비스에 뒤지지 않은 AI 연구개발 환경을 갖추게 하겠다는 뜻이다. 유 장관은 “국가AI위원회 출범 당시에 3만 장의 GPU를 구입한다고 했는데, GPT-4o가 나오고 또 지금처럼 딥시크가 나오면서 이 변화가 생각보다 굉장히 빠르게 진행되는 상황이 왔다”고 운을 뗐다. 이어, “글로벌에서는 이미 10만 장을 깔고 가는데, 2030년에나 가서 3만 장을 해봐야 의미가 없는 상황이다”며 “가급적 GPU를 2030년이 아니라 2026년 말, 늦어도 2027년 초까지는 3만 장이 마련돼야지만 우리나라도 AI 부분의 연구개발 쪽에 부족함이 없겠다고 생각한다”고 밝혔다. 유 장관은 또 “다른 국가 예산 677조 원의 원예산 중에서 1조 원 정도를 AI에 쓰는 게 그게 무리냐 했을 때 저는 절대 무리라고 생각하지 않는다”며 “최근에 프랑스가 5조 원이라는 돈을 국가 자금으로 썼다”고 했다. 다만 이같은 계획을 실현하기 위해서는 예산 책정을 유연하게 접근할 수밖에 없는 상황이다. 국회 야권에서 AI와 R&D에 최소 5조원 이상의 추경이 필요하다는 뜻을 밝힌 데 대해 구체적인 답을 내놓지는 않았지만, 추경이 이뤄진다면 GPU 확보에 무게를 싣겠다고 했다. 유 장관은 “(추경이 편성된다면) AI GPU 구입은 반드시 이뤄지면 좋겠다”고 밝혔다. 그러면서 “굳이 민간이 하는 일인데 GPU를 국가가 사고, 국가가 컴퓨팅센터를 만들고 이렇게 생각할 수도 있겠지만 국내 기업이 몇 조 원을 들여 막 살수는 없는 상황”이라며 “미국 같은 경우 거대자본이 움직이지만 우리 기업은 그 수준은 아니기 때문에 정부가 마중물이 되어야 한다고 생각한다”고 덧붙였다. AI 외교 행보에도 집중한다. 유 장관은 오는 10일 프랑스에서 열리는 'AI 행동 정상회의' 대표로 참석해 글로벌 AU 규범 논의를 주도한다는 계획이다. 이 자리에서 세계에서 두 번째로 제정한 AI기본법 내용을 공유하고 국제AI안전연구소네트워크 의장국 수임을 제안할 예정이다. 프랑스 일정을 마친 뒤에는 벨기에로 이동해 호라이즌 유럽 본부를 찾은 뒤 오는 13일부터 미국에서 열리는 미국과학진흥협회 연례행사에 참가한다. 한편, 이달 중으로 공정거래위원회가 이동통신 3사를 단말기유통법과 관련해 담합 혐의로 수조원의 과징금 제재 논의를 시작하는 것을 두고 “민간 분야에 대한 정부 부처의 과한 것은 원치 않는다는 입장”이라며 말을 아꼈다.

2025.02.04 18:10박수형

[김미정의 SW키트] 정부, 연내 GPU 1만5000개 확보 공언…업계 "현실성 부족"

정부가 글로벌 인공지능(AI) 개발 트렌드에 맞춰 연내 그래픽처리장치(GPU) 1만5천 개를 확보하겠다고 발표한 가운데 업계에선 실현 가능성이 작다는 지적이 이어지고 있다. 조 단위에 달하는 예산 집행부터 공간 확보, 전력 문제 등 넘어야 할 산이 많다는 이유에서다. 유상임 과학기술정보통신부 장관은 4일 정부서울청사에서 열린 '2025년 핵심과제 추진 상황에 대한 대국민 보고 브리핑'에서 AI 개발 경쟁력인 GPU 확보 계획을 이같이 밝혔다. 정부의 인프라 투자를 통해 국내도 딥시크-R1에 준하는 저비용·고효율 모델을 확보하겠다고 자신감을 내비쳤다. 정부는 애초 국가AI위원회 출범 당시 2030년까지 GPU 3만 장을 도입하겠다고 발표했으나 최근 중국 딥시크가 AI 생태계에 돌풍을 일으켜 이같은 전략을 발표한 것이다. 2030년을 목표로 전략을 추진했다간 뒤처질 수 있다는 판단에서다. 딥시크-R1은 중국 AI 스타트업 딥시크가 지난달 출시한 오픈소스 모델이다. 딥시크는 사전 연구와 실험을 제외한 모델 훈련에 557만6천 달러(약 80억원)들었다고 밝혔다. 이는 메타가 AI 개발에 투입한 비용의 10분의 1 수준이다. R1은 저사양 칩으로도 고성능 기능을 제공한다는 평가를 받고 있다. 같은 날 샘 알트먼 오픈AI 최고경영책임자(CEO)가 방한해 정신아 카카오 대표와 이재용 삼성전자 회장, 최태원 SK그룹 회장, 김창한 크래프톤 대표를 만나 AI 관련 사업 협력 방안을 논의했다. 일각에서는 해외 기업의 협업과 정부의 인프라 투자가 한국 AI 생태계 경쟁력을 끌어올릴 수 있을 것이란 기대감을 내비쳤다. "선언적 발표 가능성"…예산 미확정·물량 확보 이슈 지적 업계에선 정부의 GPU 확보 계획에 현실성이 부족하다고 지적했다. 정부가 충분한 예산과 전략 문제, 공간 확보에 대한 준비를 철저히 하고 이를 발표한 것인지 의문이라는 주장이다. 이번 정부 발표가 선언적 발언에 그칠 수 있다는 가능성에 무게를 두고 있다. 익명을 요청한 한 업계 관계자는 "GPU 1만5천 장을 구입하려면 약 2조가 필요하다"며 "여기에 설치 등 인프라 비용까지 합치면 수조 단위 예산이 들 것"이라고 설명했다. 이어 "GPU 작동 시 발생하는 전력 문제 해결과 공간 확보도 중요하다"며 "철저한 준비 없이 연내 계획 실현은 힘들 것"이라고 말했다. 정부가 GPU 구입을 위한 예산을 확정하지 않은 상태인 것으로 전해졌다. 당초 과기정통부는 국가 AI컴퓨팅센터 구축과 GPU 3만 장 구입을 위해 4조원을 투자하겠다고 발표한 바 있다. 정부와 민간은 2조원씩 마련하기로 했다. 또 다른 업계 관계자는 "현재 이를 위한 예산 배정이 확정되지 않았다"며 "예산 확보가 미정인 상태에서 구입 비용을 어디서 마련할 수 있을지 의문"이라고 지적했다. 예산이 있어도 문제다. 엔비디아가 GPU 물량을 연내 정부에 공급할지 불확실해서다. 그동안 엔비디아는 GPU 물량을 대량 신청하는 기업·정부에 공급 우선권을 주는 사례가 있기는 하다. 다만 100% 장담할 수는 없다. 그는 "정부가 1만5천 장을 한번에 주문한다고 해서 엔비디아가 주문 우선권을 무조건 준다는 보장도 없다"며 "향후 추가 발표를 지켜봐야 할 것"이라고 말했다.

2025.02.04 17:37김미정

엔비디아 "딥시크 AI 혁신, GPU 수요 더 증가시킬 것"

엔비디아가 27일(미국 현지시간) 중국 AI 스타트업 딥시크(DeepSeek)가 공개한 새 AI 모델 'R1'에 대해 긍정적인 평가를 내왔다. 딥시크 R1은 20일 공개된 추론 특화 AI 모델이다. 자체 테스트 결과에 따르면 딥시크 R1은 일부 테스트에서 오픈AI의 추론 특화 모델 'o1'보다 나은 성능을 보였다. 또 2022년 미국 상무부의 수출 통제 조치를 우회하기 위해 엔비디아가 성능을 낮춘 H800 GPU를 이용했다. 모델 훈련에 든 순수 비용은 557만6천달러(약 80억원)이며 메타가 라마(LLaMa) 등 AI 모델 개발에 투입한 비용의 10% 수준이다. 지난 주 알렉산더 왕 스케일AI CEO는 미국 CNBC와 인터뷰에서 "딥시크가 미국 정부의 수출 규제를 우회해 고성능 GPU를 썼을 것"이라고 주장했다. 그러나 엔비디아는 "시크가 사용한 GPU가 미국의 수출 규정을 완전히 준수했다"고 확인했다. 27일 미국 증권 시장에서는 딥시크 R1 이후 비교적 성능이 낮은 GPU로 고성능 AI 모델 개발이 활발해질 것이라는 전망에 따라 엔비디아 주가가 크게 하락했다. 1주당 가격은 지난 주 대비 16.86% 하락한 118.58달러(약 17만 2천원)로 마감했고 시가총액은 6천억 달러(약 868조원) 가까이 줄었다. 미국 CNBC에 따르면 엔비디아는 "딥시크는 탁월한 AI 발전의 사례이며, 사용 가능한 모델과 완전한 수출 통제 준수 하에 구축된 컴퓨팅을 활용하여 새로운 모델을 생성하는 방법을 잘 보여준다"고 밝혔다. 엔비디아 관계자는 이어 "추론은 상당히 많은 엔비디아 GPU와 고성능 네트워킹이 필요하다. 이와 같은 딥시크의 혁신이 GPU 수요를 더욱 증가시킬 것"이라고 전망했다.

2025.01.28 16:22권봉석

엔비디아 '지포스 RTX 5090' 성능 공개... 전작比 최대 40% ↑

엔비디아가 올 초 CES 2025 기조연설에서 공개한 지포스 RTX 5090의 테스트 결과가 국내외 IT 매체를 통해 24일 오전 0시경 일제히 공개됐다. 지포스 RTX 5090은 블랙웰(Blackwell) 아키텍처 기반 PC용 GPU이며 5세대 텐서 코어, 4세대 레이트레이싱(RT) 코어, 최대 GDDR7 32GB 메모리를 활용해 게임 등 3D 성능과 AI 처리 성능을 강화했다. 미국과 일본 등 주요 IT 매체 테스트 결과에 따르면 지포스 RTX 5090은 전세대(RTX 4090) 대비 벤치마크 프로그램에서는 최대 40% 성능 향상을 보였다. 4K(3840×2160 화소) 해상도에서도 전작 대비 30% 성능이 향상됐다. 3D마크 '스틸노매드' 벤치마크에서 51% 점수 향상 일본 PC워치는 24일 "지포스 RTX 5090 파운더스 에디션 그래픽카드와 전세대 제품(RTX 4090 파운더스 에디션) 성능을 비교한 결과 3D마크 등 벤치마크에서 성능 향상이 눈에 띈다"고 밝혔다. 이 매체는 "3D마크에 추가된 다이렉트X 12 기반 '스틸노매드' 실행시 RTX 5090은 14,060점, RTX 4090은 9,301점으로 51% 점수가 높아졌다. 레이트레이싱 성능 테스트인 '포트로얄' 점수 역시 RTX 4090(26,193점) 대비 39% 더 높다"고 밝혔다. 미국 PC 전문매체 톰스하드웨어는 "3D마크 다이렉트X 레이트레이싱 기능 테스트에서 RTX 4090이 초당 137.91 프레임, RTX 5090이 108.64 프레임이 나왔으며 드라이버 튜닝이나 업데이트가 필요한 상황"이라고 설명했다. 4K 해상도 게임에서 평균 30% 가량 성능 향상 톰스하드웨어는 4K 해상도, 그래픽 수준 '울트라'로 설정한 상태에서 16개 게임의 초당 프레임 수 평균을 낸 결과도 공개했다. RTX 5090은 초당 105.6프레임, RTX 4090은 초당 84.4 프레임이었다. 이 매체는 "4K 해상도, 그래픽 수준 '높음'이 RTX 5090의 명확한 소비층이며 적절한 디스플레이가 있다면 더 높은 해상도로 구동하는 것도 가능할 것"이라고 밝혔다. PC워치 역시 4K 해상도의 성능 향상에 주목했다. 이 매체는 "RTX 5090은 마이크로소프트 플라이트 시뮬레이터 2024에서 RTX 4090 대비 48% 성능 향상, F1 24에서는 24-26%, 사이버펑크 2077에서 28-32% 성능 향상이 있었다"고 밝혔다. "4K 해상도서 최대 성능 발휘... 추가 최적화 필요" 톰스하드웨어는 "지포스 RTX 5090은 4K 해상도와 최대 그래픽 설정으로 게임을 즐기려는 소비자에게 가장 적합한 선택이며 모든 게이머가 갖고 싶어하지만 극소수만 살 수 있는 제품"이라고 평가했다. 이어 "이 GPU의 드라이버와 소프트웨어가 아직 완전히 성숙하지 않았으며, 일부 게임과 애플리케이션에서 추가 최적화가 필요한 상황"이라고 덧붙였다. PC워치는 "RTX 5090의 성능은 전작인 RTX 4090을 뛰어넘고 DLSS 4의 멀티프레임 생성 기능은 유용하지만 실제 게임에서 더 폭넓은 검증이 필요하다"고 언급했다. 국내 시장에 2월 초부터 본격 공급 예정 지포스 RTX 5090 탑재 그래픽카드는 오는 1월 말 출시 예정이다. 시장 수요에 비해 적은 초기 물량 탓에 당분간 시장에서 쉽게 구하기 힘들 것으로 보인다. 영국 IT 온라인 유통업체 OCUK는 "지포스 RTX 5090 그래픽카드 재고가 10대 미만이며 출시 시 물량은 두 자릿수에 그칠 것으로 예상된다. 한 단계 아래 제품인 지포스 RTX 5080 재고도 수백 개에 그칠 전망"이라고 밝혔다. 지포스 RTX 5090 그래픽카드는 국내 시장에 2월 초부터 본격 공급 예정이다. 24일 한 제조사 관계자는 "RTX 5090 탑재 그래픽카드 샘플이 23일에야 국내에 들어왔고 제조 시설이 있는 중국도 연휴 기간이 겹쳐 초기 물량은 적을 것"이라고 말했다. 주요 제조사들은 국내 가격에 가장 큰 영향을 미치는 기준 환율 책정에도 고심중이다. 또다른 제조사 관계자는 "현재 원-달러 환율이 1천450원 아래로 떨어졌지만 설 연휴 중 추이를 봐야 하는 상황"이라고 설명했다.

2025.01.24 13:41권봉석

씨이랩, GPU 클러스터 솔루션 '아스트라고' 업데이트…AI 인프라 관리 '혁신'

씨이랩이 인공지능(AI) 인프라 효율성 극대화와 그래픽처리장치(GPU) 관리 혁신을 위한 방안을 제시했다. 씨이랩은 지난 16일 서울 엘타워에서 열린 'HPE 파트너데이'에서 GPU 클러스터 관리 솔루션 '아스트라고'의 신규 기능과 성공 사례를 발표했다고 17일 밝혔다. 이번 행사는 HPE 파트너사를 대상으로 최신 기술 트렌드와 협력 방안을 공유하기 위해 마련됐다. 아스트라고는 쿠버네티스 기반으로 설계돼 AI 워크로드를 효과적으로 관리하며 GPU 자원의 최적화를 지원한다. HPE 원뷰와의 완벽한 연동을 통해 소프트웨어와 하드웨어를 단일 플랫폼에서 관리할 수 있는 것이 강점이다. 이번에 새롭게 추가된 레드피시 연동 기능은 실시간 모니터링과 원격 제어를 제공해 운영 효율성을 높였다. '크레이' 제품과의 간단한 연동 및 베이스보드 관리 컨트롤러(BMC) 포트 활용으로 시스템 로그 확인도 가능하다. 씨이랩은 오픈소스 기반으로 솔루션을 개발해 별도의 라이선스 비용 부담을 없앴다. 또 구독형 모델을 통해 기업과 공공기관이 경제적인 방식으로 AI 인프라를 도입하도록 지원하고 있다. 유진수 씨이랩 매니저는 "'아스트라고'는 고객이 AI 인프라를 효율적으로 운영하며 비용을 절감할 수 있도록 돕는 솔루션"이라며 "HPE 원뷰와 레드피시 연동을 통해 GPU 클러스터 관리의 새로운 표준을 만들어 갈 것"이라고 밝혔다.

2025.01.17 10:23조이환

망고부스트, AI 추론 최적화 소프트웨어 '망고 LLM부스트' 출시

망고부스트는 AI 추론 성능을 향상시키는 시스템 최적화 소프트웨어 '망고 LLM부스트(Mango LLMBoost)'를 공식 출시했다고 16일 밝혔다. 망고 LLM부스트는 시스템 스케줄 조정, 커널 최적화, 독자적인 데이터 프리패칭 기술, 최신 GPU를 최대한 활용한 모델 양자화(Quantization) 기술을 활용한다. 이를 통해 경쟁사 LLM 추론 엔진 대비 최대 12.6배 성능 향상과 92%의 비용 절감을 달성했다. 망고 LLM부스트은 GPU 호환성, 다중 모델 배포 및 관리 기능, 간편한 배포, 오픈 API 호환성이 강점이다. 엔비디아와 AMD의 주요 GPU와 모두 호환되고, Llama, Mixtral, Gemma, Qwen2, Llava, Phi3, Chameleon, MiniCPM, GLM-v4 등 다양한 채팅 및 멀티모달 모델에서 검증됐다. 또 단일 추론 서버에서 자동 리소스 할당을 통한 효율적 배포와 관리를 가능하게 한다. 망고부스트의 웹 서빙 및 스트리밍 API를 포함한 종단 간(End-to-End) 배포 옵션을 제공하며, GPU 및 실행 모델에 따라 최적의 구성을 자동으로 선택한다. OpenAI API를 사용하는 기존 AI 애플리케이션에 손쉽게 통합할 수 있어서 편리하다. 망고부스트 관계자는 "망고 LLM부스트는 경쟁 솔루션 대비 압도적인 성능 향상과 비용 절감 효과를 증명하며, 정식 출시 전부터 강력한 도입 의향을 보인 빅테크 해외 지사에서 도입을 앞두고 있다"고 밝혔다. 김장우 망고부스트 CEO는 "망고 LLM부스트의 출시는 시스템 레벨의 성능과 효율성을 향상시키기 위한 망고부스트의 지속적인 노력을 보여주는 중요한 이정표이다"라며 "당사의 DPU 전문성은 데이터 센터 효율성 개선이라는 사명에 중심 역할을 해왔으며, 망고 LLM부스트는 하드웨어 및 소프트웨어 레이어를 모두 최적화함으로써, AI 추론 워크로드 수행의 성능과 효율성이라는 핵심 과제를 해결한다"고 전했다.

2025.01.16 14:30이나리

김재원 대표 "엘리스그룹, 에듀테크 기업에서 AI 기업으로"

AI 에듀테크 기업으로 잘 알려진 엘리스그룹(대표 김재원)은 인프라·데이터·플랫폼·콘텐츠 등 AI에 필요한 모든 것을 통합 제공하는 'AI 솔루션 기업'으로 자리매김하고 있다. 김재원 엘리스그룹 대표는 본격적인 AI 시대를 맞아 새해 이런 변화에 더욱 속도를 낸다는 계획이다. 엘리스그룹에 따르면, 회사는 AI 교육이 필요한 기업 또는 기관이 몰입도 높은 비대면(가상화) 실습 환경 아래에서 교육생들의 학습 관리를 편리하게 할 수 있는 '엘리스LXP' 플랫폼을 서비스 중이다. 이 플랫폼을 통해 ▲초중고 공교육 ▲취준생 및 재직자 직무교육 ▲산업 맞춤형 디지털 전환 교육 등 다양한 교육 콘텐츠가 제공된다. SK·LG·현대차 등 국내 대기업뿐만 아니라, 서울대·카이스트 등 대학과 정부·공공기관 총 5천300여 곳에서 맞춤형 디지털 전환 교육을 하고 있다. 관리자는 엘리스LXP에서 학습 데이터를 분석하고 시각화한 AI 대시보드를 통해 교육생들을 보다 효율적으로 관리함으로써 이수율을 높일 수 있다. 나아가 거대언어모델(LLM) 기반으로 만들어진 AI 챗봇(AI 헬피)을 통해 학습자들의 질문에 대한 맞춤형 답변도 빠르게 할 수 있다. 아울러 '엘리스테스트'는 개발자 채용 평가부터 재직자 역량 평가, 대규모 경진대회 등 온라인 테스트 환경을 지원한다. 부정행위 방지 기능과 다양한 테스트 콘텐츠, 체계적 온보딩 시스템과 안정적 서버환경 등은 엘리스테스트의 강점이다. 이동형 모듈러 데이터센터 구축...강력한 AI 인프라 제공 엘리스그룹은 다양한 환경의 AI 연구·개발·배포를 위한 안정적인 GPU를 제공하는 '엘리스클라우드' 사업도 키워나가고 있다. 엔비디아의 A100·H100 등 강력한 GPU 서버 스펙을 바탕으로 AI 데이터센터를 구축한 상태다. 회사는 지난해 델 테크놀로지스로부터 엔비디아 H100 텐서코어 GPU를 탑재한 델 파워엣지 서버와 네트워킹 스위치를 도입해 데이터센터 인프라를 업그레이드한 바 있다. 특히 엘리스그룹은 델 테크놀로지스와의 협력을 통해 엘리스클라우드에 모듈 단위로 탄력적인 인프라 확장이 가능한 이동형 모듈러 데이터센터(PMDC) 방식을 적용했다. 엘리스그룹 전력 밀도는 랙당 20~40kW로, 국내 데이터센터 평균(3.3kW)보다 효율성이 높다. 아울러 회사는 GPU·NPU를 효율적으로 이용할 수 있는 동적 할당 기술을 적용해 사용자가 필요로 하는 만큼 실시간으로 컴퓨팅 자원을 할당받을 수 있게 했다. 이를 통해 비용을 낮추면서도 AI·디지털 전환 관련 교육 과정을 원활히 받을 수 있는 환경을 갖추게 됐다. 최근에는 AI 반도체 스타트업 리벨리온과 상호 협력 업무협약을 맺고, 리벨리온 NPU 기반 클라우드 플랫폼 구축을 위한 기술 협력을 진행한 뒤 이를 바탕으로 글로벌 데이터센터 진출에도 힘을 모으기로 했다. 엘리스클라우드 PUE(전력 효율 지수)는 1.27이며, 지난해 8월 정보보안에 대한 글로벌 인증(ISO 27001·27701)을 획득하기도 했다. "엘리스그룹은 AI 기업" 2015년 회사를 창업한 김재원 대표는 엘리스그룹을 'AI 기업'으로 정의했다. 재직자 대상으로 디지털 전환과 AI 교육을 통해 업무 효율성을 높여주고, 취준생들에게는 대학과 산업 간의 격차를 줄여주는 부트캠프를 통해 이들이 AI에 대한 이해도와 전문성을 갖추도록 돕기 때문이다. 특히 엘리스클라우드를 통해 AI 연구팀이나 전문가들이 안정적인 클라우드 및 컴퓨팅 환경에서 AI 모델링 프로젝트를 수행하도록 지원해서다. 재작년과 작년에는 각각 국방부 대규모 AI 해커톤과 한국천문연구원의 태양 흑점 이미지 분석 AI 해커톤에 고성능 GPU 환경을 제공했다. “엘리스클라우드는 AI 전문 인프라입니다. 기존 AI 해커톤의 경우 예산 안에서 진행이 불가능했는데, 저희는 참가자들에게 고성능 환경을 제공하고 적게는 3분의 1, 많게는 10분의 1 예산 안에서 고성능 클라우드 환경을 제공해드리고 있습니다. AI 클라우드 인프라를 구성함에 있어 기존 데이터센터는 고전력이 아니다 보니 어렵고, 그렇다고 고가의 GPU 서버 인프라를 구성하기도 쉽지 않았는데 엘리스클라우드는 PMDC를 통해 비용 단가를 낮추면서도 안정성은 높였습니다. 쓰는 만큼 시간당 과금되기 때문에 효율적 이용도 가능합니다.” 기업 또는 기관들은 업무 생산성 향상을 위해 디지털 전환이 필요할 때 엘리스그룹의 다양한 플랫폼과 콘텐츠, 인프라 등을 취사선택해 사용하면 된다. AI 기업으로서 안정적인 서버가 필요하다면 엘리스클라우드를, AI 등 디지털 전환 교육이 필요하다면 엘리스LXP 플랫폼을 통해 대상에 맞는 엘리스의 콘텐츠를 제공하면 되는 식이다. “모든 정부 기관과 기업들의 AI 디지털 전환이 필요한 때라고 생각합니다. 그렇지 않으면 강대국들에 의해 도태될 수밖에 없겠죠. 저마다 속도는 다를 수 있겠지만, 결국 AI는 전기처럼 쓰게 될 테니, 이런 방향에 필요한 교육과 인프라를 제공하려 합니다.” "클라우드 인프라·기술력에 계속 투자할 것" 엘리스그룹의 올해 목표는 엘리스클라우드를 통한 더 큰 성장이다. 지난해 실적은 전년보다 성장하긴 했지만 기대만큼 크진 않았다고 김 대표는 말했다. AI 도입이 빠르게 확산되는 것은 맞지만, 아직은 기대만큼 그 속도가 빠르지 않은 것 같다고. 그는 AI의 더 빠른 도입을 위해서는 시간과 기술적 요인들이 더 필요하다고 말했다. 김 대표는 앞으로도 클라우드 인프라와 기술력에 계속 투자한다는 방침이다. 또 사내에 AI 전문 연구원들이 다수 있어 경쟁사 대비 AI 교육에 있어서는 훨씬 전문성이 있다고 자부했다. 나아가 AI 밸류 체인이 완성된 만큼, 올해는 클라우드 인프라와 기술력 투자에 집중한다는 방침이다. “약 3년 전 엔비디아 A100을 구매해서 계속 연구하다 2023년부터 내부에서 활용할 수 있게 개발했습니다. 그 후 AI 교육, 해커톤 등에서 활용할 수 있도록 했고, 지난해부터 기능을 강화하면서 외부 세일즈를 진행해 작년 처음으로 클라우드 매출이 발생했습니다. 강의, 콘텐츠 제작, 플랫폼 기능 확대에 이어 AI 인프라 세일즈까지 AI 밸류 체인 전주기를 완성했습니다. 이를 강화하는 것이 올해 목표이고요. 저희는 AI를 통해 실제 매출을 내고, 이를 클라우드 인프라와 기술력에 재투자하고 있습니다.” 김 대표는 앞으로 AI가 사람들의 업무와 실생활에 녹아들며 계속 발전할 것으로 내다봤다. 반면, 글로벌 시장에서는 엄청나게 빠른 속도로 발전하고 활용하는 이런 기술들이 국내 정치적·사회적 이슈들에 뒤처지는 것에는 아쉬움을 표했다. “더 이상 휴대폰 없이 일한다는 건 불가능하듯, AI 없이 일을 하면 비효율이 분명 발생할 겁니다. 앞으로 AI의 실생활 활용에 대한 부분이 강조될 텐데, 이를 지탱할 인프라에 대한 강화도 필요하죠. 어마어마한 속도로 발전될 AI를 활용하게 될 글로벌 경쟁에서 뒤처지지 않게 우리도 정진해야 한다고 생각합니다.”

2025.01.16 14:30백봉삼

SK하이닉스, 엔비디아에 'HBM4' 조기 공급...6월 샘플·10월 양산할 듯

SK하이닉스가 이르면 올해 6월 엔비디아에 HBM4(6세대 고대역폭메모리) 샘플을 출하할 계획인 것으로 파악됐다. 이르면 3분기말께부터 제품 공급이 시작될 것으로 관측된다. 당초 하반기 공급에서 일정을 다소 앞당긴 것으로, SK하이닉스는 차세대 HBM 시장을 선점하기 위해 양산화 준비를 서두르고 있다. 15일 업계에 따르면 SK하이닉스는 오는 6월 HBM4의 첫 커스터머 샘플(CS)을 고객사에 조기 공급하는 것을 목표로 세웠다. HBM4는 HBM은 여러 개의 D램을 수직으로 적층한 차세대 메모리다. 현재 5세대 제품인 HBM3E까지 상용화에 이르렀다. HBM4는 이르면 내년 하반기 양산이 시작될 것으로 전망된다. HBM4는 데이터 전송 통로인 I/O(입출력 단자) 수를 이전 세대 대비 2배 많은 2048개로 집적해 성능을 극대화했다. 엔비디아의 경우 당초 2026년 차세대 고성능 GPU '루빈(Rubin)' 시리즈에 12단 적층 HBM4를 탑재하기로 했었으나, 계획을 앞당겨 올 하반기 출시를 목표로 하고 있다. 이에 따라 SK하이닉스도 HBM4 개발에 속도를 내고 있다. 회사는 엔비디아향 HBM4 공급을 위한 전담 개발팀을 꾸리고, 지난해 4분기 HBM4 테이프아웃을 완료했다. 테이프아웃이란 연구소 수준에서 진행되던 반도체 설계를 완료하고, 도면을 제조 공정에 보내는 과정이다. 이후 SK하이닉스는 HBM4의 샘플을 고객사에 보내는 일정도 당초 올 하반기에서 6월로 앞당겼다. 해당 샘플은 고객사에 제품을 양산 공급하기 전 인증을 거치기 위한 커스터머 샘플로 알려졌다. HBM4 양산화를 위한 마지막 단계에 돌입한다는 점에서 의미가 있다. 사안에 정통한 관계자는 "엔비디아도 올해 하반기로 시험 양산을 당길만큼 루빈에 대한 초기 출시 의지가 생각보다 강한 것으로 보인다"며 "이에 맞춰 SK하이닉스 등 메모리 기업도 샘플의 조기 공급을 추진하고 있다. 이르면 3분기 말께는 제품 공급이 가능할 것"이라고 설명했다. HBM4는 주요 메모리 기업들의 차세대 고부가 메모리 시장의 격전지가 될 전망이다. 삼성전자는 HBM4에 탑재되는 D램에 1c(6세대 10나노급 D램)을 탑재할 계획이다. 경쟁사인 SK하이닉스와 마이크론이 1b D램을 기반으로 하는 것과 달리, 한 세대 앞선 D램으로 성능에서 차별점을 두겠다는 전략으로 풀이된다. 마이크론 역시 최근 진행한 회계연도 2025년 1분기(2024년 9~11월) 실적발표에서 "오는 2026년 HBM4의 본격적인 양산 확대를 진행할 계획"이라고 밝힌 바 있다.

2025.01.15 13:29장경윤

AI칩 주도권 노리는 삼성…"서버·폰·TV용 NPU 모두 개발 중"

"NPU의 성장 가능성은 매우 높다. 삼성에서도 '마하'와 같은 클라우드용 NPU와 스마트폰에서 활용 가능한 온-디바이스용 NPU 등 여러 개발 프로젝트를 가동하고 있다. 특히 삼성리서치는 TV용 NPU를 개발하고 있다." 김대현 삼성리서치 글로벌AI센터장은 14일 여의도 국회의원회관에서 회사의 AI 가속기 발전 동향에 대해 이같이 밝혔다. NPU 성장성 유망…삼성도 서버·폰·TV 등 NPU 전방위 개발 현재 AI 반도체 시장은 글로벌 팹리스인 엔비디아의 고성능 GPU(그래픽처리장치)가 사실상 독과점 체제를 이루고 있다. GPU는 복수의 명령어를 동시에 처리하는 병렬 처리 방식이기 때문에, 방대한 양의 데이터를 반복적으로 연산해야 하는 AI 산업에 적극적으로 채용되고 있다. 김 센터장은 "엔비디아 GPU가 AI 데이터센터를 구축하는 가장 보편적인 반도체가 되면서, 이를 얼마나 확보하느냐가 AI 경쟁력의 바로미터가 됐다"며 "마이크로소프트나 메타가 수십만개를 확보한 데 비해, 삼성의 경우 1만개 내외로 아직 부족한 것이 사실"이라고 말했다. 특히 엔비디아는 자사 GPU 기반의 AI 모델 학습, 추론을 완벽하게 지원하는 소프트웨어 스택 '쿠다(CUDA)'를 제공하고 있다. 덕분에 개발자들은 대규모 AI 모델 학습 및 추론을 위한 다양한 툴을 활용할 수 있다. 다만 향후에는 NPU(신경망처리장치) 등 대체제가 활발히 쓰일 것으로 전망된다. NPU는 컴퓨터가 데이터를 학습하고 자동으로 결과를 개선하는 머신러닝(ML)에 특화된 칩이다. GPU 대비 범용성은 부족하나 연산 효율성이 높다. 김 센터장은 "NPU는 AI만 집중적으로 잘하는 반도체로, GPU가 AI 성능이 100이라면 NPU는 1000정도"라며 "엔비디아의 칩이 너무 비싸기 때문에, 글로벌 빅테크 기업들도 각각 성능과 효율성을 극대화한 맞춤형 AI 가속기를 개발하고 있다"고 설명했다. 삼성전자도 데이터센터, 온-디바이스AI 등 다양한 산업을 위한 NPU를 개발 중인 것으로 알려졌다. 김 센터장은 "삼성에서도 NPU 하드웨어와 소프트웨어, AI 모델에 이르는 전 분야를 개발하고 있고, 내부적으로 여러 개의 NPU 개발 프로젝트를 진행 중"이라며 "마하와 비슷한 또 다른 프로젝트가 있고, 삼성리서치는 TV용 NPU를 개발 중"이라고 설명했다. 앞서 삼성전자는 네이버와 협력해 자체 AI 가속기인 '마하'를 공동 개발해 왔으나, 양사 간 이견이 커져 프로젝트가 무산됐다. 대신 삼성전자는 자체 인력을 통해 AI 가속기 개발을 지속하기로 한 바 있다. 국내 AI칩 생태계 크려면…하드웨어·소프트웨어 균형 지원 필요 리벨리온, 퓨리오사AI 등 국내 스타트업도 데이터센터용 NPU를 자체 설계해 왔다. 각 기업은 국내 및 해외 테크 기업과 활발히 협력하면서 본격적인 시장 진입을 추진하고 있다. 김 센터장은 "국내 AI 반도체 스타트업들이 성공하기 위해서는 하드웨어와 소프트웨어 분야를 균형있게 지원해줄 수 있는 방안이 필요하다"며 "현재 이들 기업이 투자에만 의존하고 있지만, 궁극적으로는 데이터센터 기업과 연동돼 자생할 수 있는 생태계를 조성할 수 있도록 해줘야 한다"고 강조했다. 한편 이번 김 센터장의 발표는 고동진 국회의원이 주최한 '엔비디아 GPU와 함께 이야기되고 있는 TPU와 NPU 기술 등에 대한 현황분석 간담회'에서 진행됐다. 고동진 의원은 "우리나라의 AI 반도체 생태계 강화를 위해서는 국내 기업들을 활용한 데이터센터 인프라 구축이 필요하다"며 "엔비디아, 구글, 아마존 등 기존 주요 기업의 인프라를 쓰는 동시에, 국내 스타트업의 시스템반도체를 테스트베드화해서 1년 반 안에 수준을 끌어올리는 방향으로 가야한다고 생각한다"고 말했다.

2025.01.14 10:53장경윤

델·슈퍼마이크로에 밀리던 HPE, 일론 머스크 덕에 AI 서버 시장서 존재감 '업'

일론 머스크 테슬라 최고경영자(CEO)가 운영하는 소셜네트워크 X(옛 트위터)가 인공지능(AI) 서비스 강화를 위해 HPE의 서버를 택했다. 머스크가 설립한 AI 스타트업 xAI와 서버를 공유하기 위한 것으로, 이번 일로 AI 서버 시장 내 HPE의 위상도 한층 올라섰다는 평가다. 13일 블룸버그통신 등에 따르면 X는 최근 AI 서버를 새롭게 구축하기 위해 HPE와 10억 달러(약 1조4천700억원)가 넘는 계약을 맺은 것으로 알려졌다. 이번 계약은 AI 서버 업체인 델 테크놀로지스, 슈퍼마이크로 등도 참여한 경쟁 입찰을 거쳐 지난해 말 마무리됐다. AI 서버 비용 중 일반적으로 그래픽처리장치(GPU)가 절반을 차지한다는 점을 고려해 볼 때 이번 계약에서 GPU는 5억 달러 규모로, 1만 개 이상의 엔비디아 '블랙웰' GPU가 투입될 것으로 추산됐다. 머스크 CEO의 이 같은 움직임은 그가 공동 창립했지만 떠난 챗GPT 개발사 오픈AI를 의식한 행보로 풀이된다. 머스크 CEO는 지난 2023년 xAI를 설립한 후 인재 채용은 물론, 수십억 달러 규모의 투자 유치, 미국 테네시주 멤피스 내 데이터센터 건설 등으로 글로벌 AI 시장에서 xAI의 경쟁력을 강화해 오픈AI를 뛰어 넘기 위해 안간힘을 쓰고 있다. 특히 최근에는 xAI를 위한 자체적인 데이터센터를 미국 전역에 건설하며 AI 인프라 강화에 총력을 기울이고 있다. X와 xAI는 AI 인프라를 공유하는 것으로 알려진 만큼, 새로운 서버는 xAI의 AI 챗봇 '그록' 개발과 운영에 활용될 가능성이 크다. 앞서 xAI는 지난달부터 X를 통해 '그록'의 무료 버전을 제공해왔으나, 최근 앱까지 출시하며 이용자 확보에 본격 나선 상태다. '그록' 앱은 이번에 초기 베타 서비스로 미국에서만 아이폰 앱스토어에 먼저 출시됐다. 이번 일로 HPE도 시장 내 입지가 더 높아질 것으로 보인다. HPE는 그간 AI 서버 시장에서 델 테크놀로지스, 슈퍼마이크로에 비해 존재감이 다소 밀리는 분위기였다. xAI가 세계 최대 규모인 데이터센터 '콜로서스'에도 델 테크놀로지스, 슈퍼마이크로만 택했다는 소식이 전해지기도 했다. 블룸버그통신은 "HPE의 AI 서버 사업은 델과 슈퍼마이크로에 비해 상대적으로 뒤처진 것으로 여겨져 왔다"며 "하지만 이번 계약으로 HPE에 대한 xAI의 신뢰가 드러났다"고 평가했다. 그러면서 "AI 서버에는 엔비디아를 비롯한 여러 회사의 고성능 칩이 탑재돼 있다"며 "HPE의 수냉식 기술이 이번 계약에 중요한 역할을 한 것으로 보인다"고 덧붙였다. 이처럼 xAI 외에도 마이크로소프트, 아마존 등 빅테크들이 최근 AI 인프라에 투자 속도를 높이고 있다는 점에서 AI 서버 시장은 앞으로도 훈풍이 불 것으로 보인다. 아마존웹서비스(AWS)는 이달 들어 미국 조지아주의 데이터센터 확장을 위해 최소 110억 달러(약 15조원)를 투입하겠다고 밝혔다. 지난해 12월에는 미국 오하이오주에 데이터 센터 확장을 위해 2030년까지 230억 달러(약 33조원)를 지원하겠다고 발표했다. 마이크로소프트도 올해 6월까지 데이터센터에 800억 달러(약 118조원)를 투자하겠다고 밝혔다. 비저블 알파의 조사에 따르면 MS의 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 시너지 리서치 그룹은 데이터센터 인프라 지출이 지난해 34% 증가한 2천820억 달러에 이를 것으로 추산했다. 시너지 리서치 그룹은 "지난해에는 엔비디아의 폭발적인 성장이 단연 주목됐다"며 "하지만 이 중 많은 부분은 서버 및 시스템 공급업체의 매출 증가를 통해 나타났다"고 설명했다.

2025.01.13 10:41장유미

SKT, 가산 AI데이터센터 오픈...엔비디아 H100기반 클라우드 출시

SK텔레콤은 지난 12월30일 가산 AI 데이터센터(AIDC)를 오픈하고, 시범 운영을 마친 뒤 AI 클라우드 서비스인 'SKT GPUaaS'를 출시했다고 13일 밝혔다. SK텔레콤은 지난 SK AI 서밋 2024에서 AI 인프라 슈퍼 하이웨이 구축 전략을 발표한 뒤 연말 조직 개편에서 AIDC 사업부를 별도 조직으로 신설하며 'AI 인프라' 사업 본격화에 속도를 내고 있다. 새롭게 오픈한 가산 AIDC는 랙당 전력밀도가 국내 최고 수준인 44kW로 국내 데이터센터 랙 당 평균 전력밀도인 4.8kW의 약 9배에 달하는 등 고밀도 GPU 서버 운영 환경에 최적화된 데이터 코로케이션 환경을 제공한다. 엔비디아 H100 기반 'SKT GPUaaS' 출시… 람다와 1년 준비 'SKT GPUaaS'는 미국 람다와 지난 약 1년간 함께 준비한 구독형 AI 클라우드이다. 이를 위해 가산 AIDC에 람다의 한국 리전을 유치했다. 아시아태평양 지역에 처음으로 생기는 람다의 리전이다. SK텔레콤은 지난해 2월 AIDC 사업 본격 추진을 위한 첫 번째 글로벌 행보로 글로벌 GPU 클라우드 회사인 람다(Lambda)에 투자를 진행했다. 2012년 AI 엔지니어들이 설립한 람다는 글로벌 빅테크 기업들을 대상으로 AI 클라우드 서비스를 제공하는 GPUaaS 기업으로, SK텔레콤은 람다와의 협력을 통해 GPU의 안정적 확보를 기반으로 AI 클라우드 시장 공략에 본격 나설 계획이다 SK텔레콤이 출시한 GPUaaS는 엔비디아 GPU H100을 기반으로 한다. 서비스 구독을 원하는 기업 고객은 AI 서비스 규모나 목적에 따라 GPU 수량과 기간을 선택하고 단독 서버, 방화벽, 전용회선 등 맞춤형 패키지를 구성할 수 있다. 고객사는 독자적인 GPU를 사용해 안정적 AI 학습과 추론을 시행할 수 있다. 방화벽과 전용 회선을 활용할 경우 보안성 역시 크게 강화할 수 있다. 또한 고객의 AI 작업량이 급격히 늘어나더라도 단독 서버에 GPU를 손쉽게 추가할 수 있어 추가 시설 투자에 대한 부담을 크게 덜 수 있다. 또한 GPUaaS는 퍼블릭 클라우드와 상호 연동이 가능하다. 기업 고객이 기존에 사용하던 클라우드를 그대로 활용하면서 SK텔레콤의 GPU 컴퓨팅 파워를 이용할 수 있는 것이다. GPUaaS와 SK텔레콤의 'AI 클라우드 매니저'를 함께 활용하면 GPU 자원을 보다 효율적으로 관리할 수 있다. 'AI 클라우드 매니저'는 수많은 GPU 자원을 마치 한 대의 컴퓨터처럼 관리해 GPU 성능을 극대화하고, AI 개발을 위한 학습 소요 시간을 단축하도록 지원하는 솔루션이다. GPUaaS 가격은 약정 기간, GPU 개수, 선불형의 과금 형태에 따라 탄력적으로 책정했다. 예컨대 고객이 24개월 동안 32개의 GPU를 원할 경우 이에 맞는 가격을 설정하는 방식이다. 1개월, 2개월 등 단기 서비스 이용도 가능하다. SK텔레콤은 GPUaaS 출시를 기념해 특별 프로모션도 진행한다. 2월 말까지 약 2개월 간 구독 가격의 20% 할인한다. GPU 교체 보상 프로그램, 클라우드 비용 최적화 컨설팅 등의 이벤트도 시행할 예정이다. 1분기 중 H200 도입 SK텔레콤은 GPUaaS 정식 출시 전부터 100개가 넘는 기업들이 구체적인 내용 문의를 받았다. 특히 대기업, 중소기업뿐만 아니라 AI를 연구하는 각종 대학과 연구 기관에서도 큰 관심을 보였다. 기업들은 GPUaaS를 이용하고 싶은 이유에 대해 ▲고성능 GPU 활용 따른 AI 모델 학습 기간 단축 ▲GPU를 합리적인 가격에 짧은 기간도 이용 가능 ▲서버 구매와 데이터센터 운영 고민 없이 GPU 자원 바로 사용 등으로 꼽았다. 이와 함께 SK텔레콤은 1분기 중 최신 GPU인 H200도 도입할 예정이다. 국내 최초로 H200을 도입해 국내 기업들이 보다 빠르게 AI 기술과 서비스를 개발할 수 있는 환경을 조성하고, GPUaaS 고객 확대에도 박차를 가할 계획이다. 김명국 SK텔레콤 GPUaaS사업본부장은 “GPUaaS 출시는 AI 데이터센터 사업이 고객에게 다가가는 첫번째 사례로 SK텔레콤이 AI 인프라 핵심 사업자로 자리매김하는데 의미가 크다”며, “국가 AI 경쟁력을 높이는 GPU 팜으로 구축하겠다"고 말했다.

2025.01.13 09:16박수형

"AI 추경, 신중하고 전략적인 접근 필요"…안철수 의원, GPU 외에도 예산 배분 촉구

국민의힘 안철수 의원이 인공지능(AI) 산업 발전을 위한 추가경정 예산 편성에는 신중하고 전략적인 접근이 필요하다는 입장을 밝혔다. 안철수 의원은 10일 'AI 3대강국 도약 특별위원회' 2차 회의를 마친 뒤 기자들과 만나 AI 예산 편성 방향에 대한 의견을 밝혔다. 특히 그는 기술 발전 속도를 종합적으로 검토하며 예산 집행 계획을 세울 필요성을 강조했다. 안 의원은 "AI 추경이 시급한 시점이라 빠른 시일 내 정부와 논의해 추경이 편성되도록 할 예정"이라며 "예산을 그래픽처리장치(GPU)에만 쏟지 말고 아니라 신경망처리장치(NPU)와 AI 칩 등에 대해서도 투입하는 것을 검토하는 등 고민이 필요하다"고 강조했다. 업계에 따르면 현재 국회에서는 AI 산업 진흥을 위한 1조원 규모의 추가경정 예산이 필요하다는 목소리가 나오고 있다. 지난해 삭감된 약 4조원 가량의 예산 중 일부를 활용해 AI 기술 경쟁력을 확보해야 한다는 주장이다. 안 의원은 기자들의 예산 사용처 관련 질문에 GPU 구매만으로 모든 예산을 소진하는 것은 정답이 아니라며 반도체 기술이 급속도로 발전하고 있는 상황에서 최신 기술을 확보하되 효율성을 중시하는 접근이 필요하다고 언급했다. 이날 AI특위 2차회의에서는 각 부처 관계자들이 AI 산업 현황을 공유하고 '국가 AI 전략'을 기반으로 향후 정책 방향을 논의했다. AI특위는 이후 기업 현장을 방문해 의견을 청취하고 이를 정책에 반영할 계획이다. 안 의원은 "AI 관련 예산 논의뿐 아니라 민생 경제 회복과 미래 투자 방안을 함께 고려해야 한다"며 "최고 기술을 무조건 확보하는 것보다 전략적 계획이 중요하다"고 강조했다.

2025.01.10 17:14조이환

AMD, 제약회사에 투자…"우리 AI칩으로 신약 개발"

미국 반도체 회사 AMD가 제약회사에 투자했다. AMD는 생명과학 기업 앱사이 상장 지분에 사모투자하는 방식으로 2천만 달러(약 290억원)를 투입했다고 미국 월스트리트저널(WSJ)이 지난 8일(현지시간) 보도했다. WSJ은 경쟁사 엔비디아처럼 AMD도 생명과학 분야에서 인공지능(AI) 칩으로 입지를 다지려 한다고 평가했다. 마크 페이퍼마스터 AMD 최고기술책임자(CTO)는 “다른 시장으로 시야를 넓히고 있다”며 “사회에 곧바로 영향을 미칠 의료 분야를 우선한다”고 말했다. 숀 매클레인 앱사이 창업자는 “앱사이는 AI 칩을 470개 넘게 쓰고 있다”며 “대부분 엔비디아 GPU”라고 설명했다. 하지만 “AMD의 GPU로 바꾸기 시작한다”며 “신약을 개발하기 위해 엄청난 양을 계산하는 데 필요한 비용이 줄어들 것”이라고 기대했다. 엔비디아도 2023년 생명과학 업체 리커전파마슈티컬스에 5천만 달러를 투자하고 AI를 기반으로 신약을 개발하기 위한 하드웨어를 지원했다.

2025.01.10 10:42유혜진

엔비디아 젠슨황 "삼성 HBM 성공 확신...설계는 새로 해야"

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아의 젠슨 황 최고경영자(CEO)가 삼성전자 고대역폭메모리(HBM)에 대해 “새로 설계해야 한다”고 말했다. HBM은 D램 여러 개를 수직으로 쌓아 기존 D램보다 정보 처리 속도를 끌어올린 메모리 반도체다. SK하이닉스와 미국 마이크론이 엔비디아에 공급하고 있다. 삼성전자는 납품에 앞서 품질 테스트 중이다. 황 CEO는 7일(현지시간) 세계 최대 가전·정보기술(IT) 전시회 'CES 2025'가 개막한 미국 라스베이거스 퐁텐블루호텔에서 열린 기자간담회에서 '삼성전자 HBM을 왜 이리 오래 시험하느냐'는 물음에 “오래 걸리는 게 아니다”라며 “한국은 서두르려 한다”고 답했다. 황 CEO가 삼성전자 HBM을 공개적으로 지적한 일은 이번이 처음이다. 다만 그는 “엔비디아가 처음 쓴 HBM은 삼성전자가 만든 것이었다”며 “내일(8일)이 수요일이라고 확신할 수 있듯 삼성전자 성공을 확신한다”고 덧붙였다. 황 CEO는 소비자용 그래픽처리장치(GPU) 신제품 '지포스 RTX 50'에 마이크론 그래픽더블데이터레이트(GDDR)7을 쓴다고 밝힌 이유도 언급했다. 그는 “삼성전자와 SK하이닉스는 그래픽 메모리가 없는 것으로 안다”며 “그들도 하느냐”고 되물었다. 이어 “삼성전자와 SK하이닉스는 엔비디아의 가장 큰 공급업체 중 두 곳”이라며 “매우 훌륭한 메모리 반도체 기업”이라고 평가했다. GDDR7은 영상과 그래픽을 처리하는 초고속 D램이다. 마이크론뿐 아니라 삼성전자와 SK하이닉스도 생산한다. 한편 황 CEO는 곧 최태원 SK그룹 회장과 만날 것으로 보인다. '이번 CES 기간 최 회장을 만나느냐'는 질문에 황 CEO는 “만날 예정”이라며 “기대하고 있다”고 답했다.

2025.01.08 11:13유혜진

"새해 AI 서버 출하량 28% 증가 전망"…HBM3E 공급 기대↑

AI 수요 확산에 따라 데이터센터 AI 서버 시장이 지난해 이어 올해도 가파른 성장세를 이어갈 전망이다. AI 서버 출하량 증가에 따라 고대역폭메모리(HBM) 공급 증가에 대한 기대감도 커졌다. 7일 시장조사업체 트렌드포스에 따르면 지난해 AI 서버 출하량은 전년 대비 46% 증가했고, 올해는 전년 대비 28% 증가할 전망이다. 또 올해 전체 서버 출하량에서 AI 서버가 차지하는 비중이 15% 이상으로 확대될 것으로 전망된다. 지난해 전체 서버 시장은 지난해 3천60억 달러(약 449조7천862억원)를 기록했고, 이 중 AI 서버는 2천50억 달러(약 301조8천888억원)로 67%의 높은 비중을 차지했다. 올해는 AI 칩의 평균판매가격(ASP)의 상승에 힘입어 AI 서버 시장은 2천980억 달러(약 438조3천546억원)로 성장하고, 전체 서버 시장에서 비중도 72%까지 확대될 것으로 전망된다. 지난해 미국과 중국의 서버 OEM 업체들과 클라우드 서비스 제공업체(CSP)들의 엔비디아의 '호퍼' GPU를 구매하면서 전체 AI 서버 시장 성장을 이끌어 왔다. 올해는 엔비디아의 차세대 GPU '블랙웰'이 시장 성장의 핵심 동력이 될 것으로 보인다. 지난해 출시된 엔비디아 블랙웰은 2080억개의 트랜지스터를 집적한 GPU로 2022년 출시된 '호퍼' 시리즈 보다 데이터 연산 속도가 2.5배 빠르다. 블랙웰은 사양에 따라 B100과 B200 모델로 구분된다. AI 가속기 제품군인 GB100과 GB200에는 각각 블랙웰 GPU 1개, GB200에는 블랙웰 GPU 2개가 탑재되며, 그레이스 CPU 1개, 24GB(기가바이트) HBM3E 8단 제품 8개도 함께 탑재된다. 주목할 만한 점은 올해 3분기 출시 예정인 차세대 엔비디아 AI 서버 GB300에는 36GB HBM3E 12단 제품 8개가 탑재된다는 것이다. 현재 SK하이닉스가 유일하게 HBM3E 8단 및 12단 제품을 모두 양산해 엔비디아에 공급하고 있으며, 마이크론은 SK하이닉스에 이어 두번째로 8단 제품 공급과 함께 12단 제품 샘플링을 진행 중이다. 삼성전자는 연내 HBM3E 제품 공급을 목표로 하고 있다. 트렌드포스는 “연초에는 계절적 요인으로 인한 영업일수 감소가 예상되어, GB 랙 시리즈 출하량은 2분기까지 눈에 띄는 증가세를 보이지 않을 것”이라며 “하지만 올해 3분기에 B300과 GB300 솔루션이 출시되면서 블랙웰 기반 GB랙 시리즈의 출하량이 더욱 증가할 것으로 예상된다”고 말했다. 엔비디아 외에도 클라우드 서비스 제공업체(CSP)들의 독자 AI 칩 개발에 속도를 내면서 AI 서버 시장과 HBM 성장에 영향을 줄 전망이다. 지난해는 구글이 자체 AI 칩 출하량에서 선두를 달렸으며, AWS는 200% 이상의 급격한 성장률을 기록했다. 트렌드포스는 “올해 AWS의 자체 AI 칩 출하량이 전년 대비 70% 이상 성장할 전망”이라며 “특히 자사의 퍼블릭 클라우드 인프라와 이커머스 플랫폼과 관련된 AI 애플리케이션용 트레이니엄(Trainium) 칩 개발에 더욱 집중할 계획이다”고 말했다.

2025.01.07 10:24이나리

엔비디아, 이스라엘 스타트업 런ai 인수

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아가 이스라엘 스타트업 런에이아이(Run:ai)를 인수했다고 미국 블룸버그통신이 30일(현지시간) 보도했다. 엔비디아는 지난 4월 런ai를 인수하겠다고 나섰다. 인수 금액을 밝히지 않았지만, 시장에서는 7억 달러(약 1조원)로 알려졌다. 런ai는 AI 작업을 실행하는 그래픽처리장치(GPU)의 자원 활용도를 최적화하는 소프트웨어를 개발한다. 2018년 설립 초기부터 엔비디아와 협력했다. 엔비디아 GPU에 한정됐던 AI 최적화 소프트웨어 사용처를 AI 생태계 전반으로 넓힐 계획이다. 엔비디아는 AI 칩 시장의 80% 이상을 장악하고 있다. 이에 미국 법무부는 이번 인수로 AI 신생 회사가 사라질 수 있다는 우려에 반독점 조사를 착수한 것으로 전해졌다.

2024.12.31 14:23유혜진

韓 소부장, 엔비디아·TSMC 기술혁신 발맞춰 신시장 개척

엔비디아·TSMC 등 글로벌 빅테크 기업들이 AI 산업의 주도권을 유지하기 위한 기술 변혁을 지속하고 있다. 이에 국내 소부장 기업들도 차세대 제품 양산화를 위한 테스트를 진행하고 있는 것으로 파악됐다. 30일 업계에 따르면 국내 소부장 기업들은 엔비디아 및 TSMC의 차세대 기술 도입에 맞춰 신제품 양산을 추진하고 있다. 엔비디아는 내년 출시할 차세대 AI 가속기인 'B300'부터 소켓 방식을 적용하는 방안을 검토 중이다. B300은 엔비디아가 지난 3월 공개한 AI 반도체 '블랙웰' 시리즈 중 가장 성능이 높은 제품으로, HBM3E(5세대 고대역폭메모리) 12단을 탑재한다. 그간 엔비디아의 AI 가속기는 고성능 GPU와 HBM, 인터페이스 등을 메인 기판에 모두 집적하는 온-보드(on-board) 형식으로 제작돼 왔다. 반면 소켓은 GPU를 기판에 실장하지 않고, 별도로 탈부착하는 방식이다. AI 가속기를 소켓 방식으로 변경하는 경우 GPU 불량에 따른 문제에 효율적으로 대응할 수 있게 된다. GPU 및 기판의 제조 안정성도 높일 수 있다. 다만 GPU와 기판을 안정적으로 연결해야 하는 것이 과제로 꼽힌다. 현재 엔비디아향 소켓은 한국 및 대만의 후공정 부품업체가 주력으로 공급하고 있다. 이들 기업은 올 4분기 AI 가속기용 소켓 샘플을 공급한 것으로 알려졌다. 실제 양산에 돌입하는 경우 내년 중반부터 출하량을 늘릴 수 있을 것으로 관측된다. 엔비디아의 핵심 파트너인 대만 TSMC도 자체 개발한 'CoWoS' 기술을 고도화하고 있다. CoWoS는 넓은 기판 모양의 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 첨단 패키징이다. 특히, TSMC는 기존 대비 소형화된 인터포저를 사용하는 CoWoS-L을 최신형 HBM에 적용하고 있다. 이러한 기조에 따라 계측 분야에서도 변화가 감지되고 있다. 기존 CoWoS-L에 구현된 회로의 배선폭은 2마이크로미터 이상이다. 그러나 CoWoS-L의 집적도가 높아지면서, 배선폭 역시 더 좁은 1마이크로미터 내외가 요구되고 있다. 기존 CoWoS의 회로 계측은 3D 광학 검사를 활용해 왔다. 그러나 배선폭이 1마이크로미터로 줄어들게 되면 성능의 한계로 계측이 힘들어진다. 이에 TSMC는 AFM(원자현미경) 기술을 CoWoS에 적용하는 방안을 추진 중이다. 국내 장비업체도 복수의 AFM 장비를 공급해 품질 테스트를 거치고 있는 것으로 파악된다. AFM은 탐침을 시료 표면에 원자 단위까지 접근시켜, 탐침과 표면 간의 상호작용을 통해 시료를 계측하는 장비다. 기존 광학식 대비 속도는 느리지만, 매우 미세한 수준까지 계측이 가능하다. 때문에 기존 AFM은 주로 초미세 공정과 직결된 전공정 영역에서 활용돼 왔다. TSMC가 CoWoS 패키징에 AFM을 양산 도입하는 경우, AFM의 적용처가 최첨단 패키징 분야로도 확장될 수 있을 것으로 전망된다.

2024.12.30 11:22장경윤

샤오미, 신규 1만대 GPU 클러스터 투자로 AI 역량 확장

중국 샤오미가 1만대 규모의 GPU 클러스터를 구축하며 인공지능(AI) 대형모델 개발에 박차를 가하고 있다. 27일 이코노믹 데일리에 따르면 샤오미는 지난해 4월 레이쥔 CEO가 이끄는 1200명 규모의 AI 대형모델 연구개발팀을 출범했으며, 당시 6500대의 GPU를 확보한 상태다. 올해 5월 샤오미는 자체 개발한 대규모 언어모델 'MiLM'이 공식 등록 요건을 통과했다고 발표했다. 레이쥔 CEO는 샤오미의 스마트 음성비서 '샤오아이'가 월간 1억2천만 대의 활성 디바이스를 보유하고 있다고 밝혔다. 지난 8월 샤오미그룹의 쩡쉐중 수석부사장 겸 모바일사업부 총괄은 퀄컴, 미디어텍과의 긴밀한 기술협력을 바탕으로 AI 대형모델 애플리케이션을 곧 출시할 것이라고 공개한 바 있다. 샤오미는 AR 글래스 등 다른 하드웨어 솔루션보다 모바일 기기 개발에 주력하고 있다. 레이쥔 CEO는 지난해 연례 연설에서 샤오미가 온디바이스 대형 모델을 탑재한 모바일 기기의 데모를 성공적으로 실행했다고 밝혔다. 또 회사는 13억 개의 매개변수로 작동하는 모델은 일부 시나리오에서 클라우드 수준의 성능을 달성했으며, 60억 개의 매개변수를 가진 더 큰 모델도 개발했다. 샤오미는 꾸준히 AI 개발에 힘써왔다. 2016년 첫 비전 AI팀을 구성한 이래, 7년간 6차례의 확장을 거치며 3000명 이상의 구성원으로 확대됐다. 이후 비전, 음성, 음향, 지식 그래프, NLP, 기계학습, 멀티모달 시스템 등 다양한 AI 기술에서역량을 축적해왔다. 샤오미는 다른 기업들과 달리 경량화 구현과 로컬 배포에 중점을 둔 대형모델 기술 개발 방향을 설정하고 있는 것이 특징이다.

2024.12.28 11:37이나리

"한국, 2년내 GPU 3만 개 확보…AI 성장엔진 멈춰선 안돼"

"4대 과학기술원에 GPU 보유수량을 조사해보니, 전무하더라. 국내 기관에 2년 내 3만개 정도 확보할 것이다." 유상임 장관 과학기술정보통신부 장관이 23일 세종에서 '장,차관,본부장과 출입기자 송년회'에서 "대학이든 연구소든 GPU 컴퓨팅 인프라가 안 돼 있어 연구 못하겠다는 것에서는 벗어나야 한다'"며 이같이 말했다. 유 장관은 이날 인사말에서 "비상계엄이나 탄핵 국면이지만, 과학기술정보통신부는 빈틈없이 미래를 준비해 나갈 것이다. AI 중심 과학기술 및 디지털이 대한민국 성장 엔진이다. 절대 멈춰선 안 된다"고 강조했다. 유 장관은 이어 "과기정통부는 흔들림 없이 맡은 바 소임을 해 나갈 것"이라고 언급했다. 이어 진행된 과기정통부 기자단과의 질의응답에서 기술사업화를 묻은 질문에 유 장관은 "우리나라 사업화율이 OECD 바닥"이라며 "기술산업화 생태계를 재직하는 동안 구축할 수 있나 회의도 있었다"며 설명을 이어갔다. 유 장관은 "과학기술 분야 R&D는 기술성숙도(TRL) 4~5단계에서 멈추게 되어 있다. 이는 잘못된 것"이라며 "이 생태계는 우리만 해선 안 된다"고 지적했다. 다른 부처와의 협력의 중요성을 강조하며 "TRL 1~9단계의 사업화 생태계를 만들기 위해서는 범부처 형태로 가야하고, 올해 내 관련부서 다 같이 제조 분야 등의 산업화 초안을 만들어 나갈 것"이라고 유 장관은 언급했다. 대통령이 위원장인 국가우주위원회 개최가 미뤄지고 있는 것에 대해선 "모든 일정을 정상 수행중이지만, 정치적 불안정성으로 인해 출범이 다소 늦어질 수는 있다. 하지만 과기 사업 자체가 영향 받는다고는 생각하지 않는다"며 단호한 사업 추진 의지를 드러냈다. 유 장관은 또 게임체인저의 하나인 양자 분야에 대해선 "시간이 좀 있어야 한다. 현실화하면 파급력 엄청나지만, 지금은 초기 단계'라고 진단하며 "양자 전담 인력도 적고, 생태계도 갖춰지지 않아 인력유입 집중할 때라 본다"고 말했다. 유 장관은 "과기정통부는 이에 대응해 준비 중이고, 국무총리가 위원장인 양자전력위원회도 계획대로 되고 있지만, 시기적으로 늦어질 수는 있다"며 "인력양성과 국제공동연구 등으로 선진국과 눈높이 맞춰 대비하면 10년 후엔 큰 이슈가 될 것"으로 내다봤다. R&D 예산 규모에 대해선 "국가 예산의 R&D 비중 5%를 얘기를 하는데, 대략 33.5조~34조 원 정도 된다"며 "과기분야가 중요하지 않아서가 아니라, 컨센서스가 많지 않다. 기여도에 회의적"이라고 유 장관은 언급했다. 유 장관은 "산업 생태계가 갖춰져 사업화가 잘 이루어진다면 R&D 예산을 50조, 100조 늘리는 것은 문제되지 않을 것"이라며 "정치권도 이에는 반대 안 할 것"이라고 덧붙였다. 최근 정치 현안에 대해 "대한민국이 어디로 가야하는지 봐야하는데, 정치적 테두리 내에서만 보기 때문에 대한민국 경제가 취약해지고 있다"며 "정치일정이 잘 나와줄수 있으면 좋겠다"고 바람도 제시했다. 유 장관은 이외에 4대 과기원 육성 전략과 관련한 질문에서 "4대 과기원 GPU 수가 제로였고, 2년 내 3만개 확보할 것"이라며 "대학이든 연구소든 GPU 컴퓨팅 인프라가 안 되어 있어 연구 못하겠다는 것에서는 벗어나야 한다"고 강조했다. 한편 이날 과기정통부 출입기자단은 과장급 및 실국장급을 대상으로 1사 1투표를 통해 소통왕을 선정했다. 소통왕에는 과장급에서 최문기 연구성과확산촉진과장과 남영준 주파수정책과장, 실국장급에서 류제명 네트워크정책실장과 홍순정 미래인재정책국장이 선정됐다.

2024.12.23 15:04박희범

트렌드포스 "엔비디아 '블랙웰' 서버랙 대량 공급 내년 2~3분기로 지연"

엔비디아의 최신 AI 반도체 '블랙웰'이 탑재된 AI 서버랙 'GB200'의 대량 공급 시기가 최대 3분기까지 늦춰진다는 전망이 나왔다. 18일 시장조사업체 트렌드포스는 엔비디아 AI 서버랙 'GB200'이 설계 최적화에 어려움을 겪으면서 대량 공급 시기가 내년 2~3분기로 지연된다고 전망했다. 고속 상호 연결 인터페이스, 열설계전력(TDP) 등에 추가 최적화 작업이 필요하다는 설명이다. 트렌드포스는 “블랙웰 GPU 칩 생산은 4분기부터 소량 출하가 가능하지만, AI 서버 시스템은 설계 요구 사항과 여타 부품들의 공급망 조정이 필요한 상황”이라며 “이에 따라 AI 서버 랙의 올해 말 출하량은 업계 기대치에 미치지 못할 것으로 보인다”고 말했다. 다만, 일부 고객사를 대상으로 GB200 서버랙의 소량 공급은 4분기부터 시작됐다. 이번 지연 소식은 앞서 11월 17일 IT 매체 디인포메이션이 보도한 내용과 맥을 같이한다. 디인포메이션은 엔비디아 직원을 인용해 “GB200 서버랙에서 블랙웰 GPU를 연결할 때 과열 현상이 발상해 엔비디아가 서버OEM사들에게 설계 변경을 요구했다”며 “서버 랙 제조사들은 최악의 경우 내년 6월 말쯤에야 제품을 공급할 수 있을 것”이라고 전했다. 이번 공급 지연은 빅테크 기업들의 AI 개발에 차질을 줄 수 있다는 우려가 제기된다. 메타와 구글은 이미 100억 달러 규모의 GB200 40만개를 구매했고, 마이크로소프트도 6만5000개를 주문한 상태다. 트렌드포스는 GB200 NVL72 모델이 내년 전체 서버 공급량의 80%를 차지할 것으로 예상했다. 엔비디아 블랙웰은 2080억개의 트랜지스터를 집적한 그래픽처리장치(GPU)로 사양에 따라 B100, B200으로 나뉜다. 블랙웰은 지난 2022년 나온 '호퍼' 시리즈 보다 데이터 연산 속도가 2.5배 빠르다. 지난 3월 첫 공개돼 당초 2분기 출시가 목표였지만, 설계 결함으로 4분기로 연기돼 양산 중이다. 'GB200' AI 가속기는 2개의 블랙웰 GPU, 1개의 그레이스 중앙처리장치(CPU), HBM3E 8단 16개가 탑재된 제품이다. GB200 서버는 랙에 집적되는 개수에 따라 GB200 NVL3, GB200 NVL72 등으로 나뉜다. GB200 NVL72에는 72개 블랙웰 GPU, 36개의 CPU가 탑재되며, 엔비디아 독자 기술인 5세대 NVLink로 고속 연결을 구현했다. GB200 서버시스템은 종전의 H100보다 성능이 30배, 에너지 효율성이 25배 좋다. 다만 고성능에 따른 발열 문제가 과제로 떠올랐다. GB200 NVL72의 열설계전력(TDP)은 140kW로, 현재 주력 제품인 HGX AI 서버(60~80kW)의 두 배에 달한다. 이에 서버제조사들은 기존 공랭식에서 수랭식 냉각 솔루션으로의 전환을 서두르고 있다. 한편, GB200 서버랙 공급 지연 우려가 크지 않다는 주장도 나온다. 델 테크놀로지스의 마이클 델 CEO는 지난 11월 19일 SNS를 통해 GB200 NVL72 서버랙 출하가 시작됐다고 알렸다. 또 지난 11월 20일 엔비디아 실적 컨퍼런스콜에서 젠슨 황 엔비디아 CEO는 “올 4분기에 과거 예상보다 더 많은 블랙웰 GPU를 공급할 수 있을 것으로 기대한다”고 밝혔다. 이날 콜렛 크레스 엔비디아 CFO 역시 "각종 고객사의 블랙웰 수요에 맞춰 공급 확대에 최선을 다하고 있으며 올 4분기 블랙웰 매출이 당초 예상인 50~60억 달러를 넘어설 것"이라고 설명했다.

2024.12.18 10:01이나리

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

윤곽 잡힌 K-로봇 청사진…자원 효율적 안배 집중해야

"갤S25 엣지, 더 싸게 사자"...자급제폰 온라인몰서 인기

닛산 몰락·혼다 후퇴 '후진하는 일본차'..."남일 아냐"

"기술이 뚫려도 제도가 막았어야"...유심 해킹 민낯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현