• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'그래픽처리장치'통합검색 결과 입니다. (18건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI가 만든 코드, 기술 발전 가속"…구글 딥마인드, 진화형 알고리즘 '알파이볼브' 개발

구글 딥마인드가 알고리즘을 설계하고 성능까지 개선하는 인공지능(AI)을 선보였다. 언어모델 기반의 코드 생성 능력에 진화적 평가 구조를 결합해 대규모 컴퓨팅 인프라부터 수학적 난제까지 범용 최적화가 가능해진 것이다. 16일 구글 공식 블로그에 따르면 딥마인드는 지난 14일 코드 기반의 알고리즘을 진화시키는 AI 시스템 '알파이볼브'를 발표했다. 이 시스템은 구글의 최신 언어모델 '제미나이' 시리즈에 자동 평가 알고리즘을 접목한 구조로, 구글의 데이터센터·칩 설계·AI 모델 학습 등 실제 운영 환경에 투입돼 성능을 입증했다. '알파이볼브'는 기존의 함수 단위 코드 생성과 달리 수백 줄 규모의 복잡한 알고리즘 전체를 설계할 수 있는 구조다. 속도 중심의 '제미나이 플래시'와 논리 구조를 강화하는 '제미나이 프로'를 병행 활용해 코드 제안을 생성한다. 이렇게 생성된 코드는 자동 평가 시스템이 정확성, 속도, 자원 활용도 등을 따져서 평가하고 성능이 좋은 코드만 다음 세대에 반영된다. 처음 성과를 낸 분야는 구글의 데이터센터 스케줄링이다. 이 시스템은 내부 클러스터 관리 도구인 보그(Borg)에 적용돼 일부 자원만 남은 서버를 더 잘 활용할 수 있도록 새로운 방식의 스케줄링 규칙을 만들어냈다. 사람이 읽고 관리하기 쉬운 단순한 코드 형태로 제공돼 전체 컴퓨팅 자원의 0.7%를 꾸준히 절약할 수 있게 됐다. 칩 설계 영역에서도 적용 사례가 나왔다. '알파이볼브'는 구글 텐서플로우 처리장치(TPU) 내 고성능 산술 연산 회로에서 불필요한 비트를 제거하는 베릴로그(Verilog) 코드를 제안했다. 이는 기능 검증을 거쳐 차세대 설계에 반영된 상태로, AI가 하드웨어 설계 언어 수준에서 의미 있는 구조 개선을 제안할 수 있음을 입증하는 계기가 됐다. 특히 구글 '제미나이' 모델 학습에 쓰이는 행렬 곱셈 연산을 최적화해 속도를 23% 끌어올렸다. 전체 학습 시간도 1% 줄었으며 기존에는 수주가 걸리던 커널 최적화 작업이 수일 내 자동 실험으로 가능해졌다. 반복 작업 부담이 줄어들면서 연구 효율도 함께 높아졌다. 사람이 직접 손대지 않던 그래픽처리장치(GPU) 저수준 명령어 영역에서도 성과가 나왔다. '플래시어텐션' 커널에서 최대 32.5%의 속도 향상을 기록했으며 기존 컴파일러 최적화를 넘어선 성능이라는 평가를 받는다. AI가 병목 지점을 스스로 찾아내고 개선 방향까지 제시한 사례로, 실제 코드 개선 작업의 효율성을 높이는 데 기여하고 있다. 수학 난제를 해결하는데도 기존 한계를 뛰어넘는 성과를 냈다. 일례로 복소수 4×4 행렬 곱셈 문제에서 기존보다 곱셈 횟수를 더 줄인 새로운 알고리즘을 찾아냈는데 이는 지난 1969년 수학자 스트라센이 세운 기록을 처음으로 넘어선 사례다. 수십 년간 누구도 개선하지 못한 수학적 구조 자체를 AI가 새롭게 설계해낸 것이다. 이외에도 이 시스템은 수학 분석, 기하학, 조합론, 수론 등 다양한 미해결 문제 50여 개에 적용됐다. 전체의 약 75%에서 기존 최고 해법을 재현했고 심지어 20%의 경우에는 보다 나은 해법을 제시했다. 구글 딥마인드는 현재 '피플+AI 리서치' 팀과 함께 '알파이볼브'의 사용자 인터페이스를 개발 중으로, 학술 연구자 대상 얼리 액세스 프로그램을 준비하고 있다. 일반 공개 여부는 추후 검토할 예정이나 명확한 평가 구조를 갖는 알고리즘 문제라면 어떤 분야에도 적용 가능한 구조라는 점에서 범용 기술로의 확장 가능성이 거론된다. 소재 개발, 신약 설계, 에너지 최적화, 공정 자동화 등 연산 기반 과학 영역 전반에 대한 활용이 논의되고 있다. 알렉산더 노비코프 딥마인드 연구원은 "우리는 평가자가 명확한 문제에 집중하고 있다"며 "자동화된 피드백 루프를 통해 성능을 지속적으로 개선할 수 있다"고 설명했다. 마테이 벌로그 딥마인드 연구원은 "'알파이볼브'는 일반적 AI 시스템임에도 불구하고 알파텐서보다 더 나은 성과를 냈다"며 "실제 문제에 곧바로 적용 가능한 과학 도구는 연구 현장에서도 드문 경험"이라고 말했다.

2025.05.16 09:58조이환

"지포스 RTX와 쿠다로 무장"…엔비디아 'LM 스튜디오' 성능 폭발

엔비디아가 지포스 그래픽처리장치(GPU)와 쿠다를 기반으로 자체 로컬 거대언어모델(LLM) 실행 도구의 성능을 대폭 강화했다. 로딩·응답 속도 향상과 더불어 개발자 제어 기능을 확장해 로컬 AI 활용 생태계를 본격적으로 견인하는 전략이다. 엔비디아는 최근 'LM 스튜디오' 0.3.15 버전을 발표했다고 12일 밝혔다. 이번 버전은 지포스 '레이 트레이싱 익스피리언스(RTX)' GPU 환경에서 성능을 최대 27%까지 끌어올릴 수 있게 '쿠다' 그래프와 플래시 어텐션 최적화를 적용했다. 지포스 'RTX 20' 시리즈부터 최신 블랙웰 GPU까지 폭넓은 하드웨어 호환성도 확보했다. 'LM 스튜디오'는 고성능 추론과 데이터 보안을 동시에 확보할 수 있는 로컬 LLM 실행 도구다. '라마.cpp(llama.cpp)' 기반 런타임을 바탕으로 오프라인에서도 모델 실행이 가능하고 오픈AI 응용 프로그램 인터페이스(API) 호환 엔드포인트로도 작동해 맞춤형 워크플로우에 쉽게 통합된다. 새 버전은 '툴_초이스(tool_choice)' 패러미터를 도입해 도구 호출 방식에 대한 세밀한 제어를 제공한다. 외부 도구 연동 여부를 개발자가 지정하거나 모델이 동적으로 결정하게 할 수 있어 검색 증강 생성(RAG), 에이전트 파이프라인 등에 최적화된 구조를 제공한다. 시스템 프롬프트 편집기도 새롭게 설계돼 복잡하거나 장문 프롬프트에 대한 대응력이 향상됐다. 프리셋 기반의 다양한 모델과 양자화 방식도 지원되며 '젬마', '라마3', '미스트랄', '오르카' 등 주요 오픈소스 모델이 모두 포함됐다. 이같은 구조는 '옵시디언'과 같은 노트 기반 앱에 플러그인 형태로 연결돼 텍스트 생성, 연구 요약, 노트 검색을 클라우드 없이 수행할 수 있게 한다. 이 모든 과정은 'LM 스튜디오' 내의 로컬 서버를 통해 이뤄져 빠르고 프라이버시 중심의 상호작용이 가능하다. 성능 개선의 핵심은 '라마.cpp' 백엔드에 적용된 쿠다 그래프와 플래시 어텐션이다. 쿠다 그래프는 컴퓨팅처리장치(CPU) 호출 횟수를 줄여 모델 처리량을 최대 35%까지 높였다. 플래시 어텐션은 메모리 부담 없이 긴 컨텍스트 대응 능력을 강화하며 최대 15% 속도 향상을 이끌었다. RTX GPU 사용자라면 별도 설정 없이도 '쿠다 12.8' 기반의 성능 향상을 경험할 수 있다. 드라이버 호환 시 자동 업그레이드가 적용되며 얇은 노트북부터 고성능 워크스테이션까지 전 범위 RTX 인공지능(AI) PC에서 효율적인 추론이 가능하다. 'LM 스튜디오'는 윈도우, 맥OS, 리눅스에서 모두 실행 가능하며 무료로 다운로드해 사용할 수 있다. 데스크톱 채팅, 오픈AI API 개발자 모드 등 다양한 인터페이스도 제공된다. 엔비디아 측은 "'LM 스튜디오' 최신 업데이트는 RTX AI PC에서 최고의 성능과 유연성을 제공한다"며 "로컬 LLM 도입 장벽을 낮추고 사용자의 AI 실험과 배포를 적극 지원할 것"이라고 밝혔다.

2025.05.12 15:33조이환

"화웨이만 키워줄 것"…젠슨 황, 美 수출통제 '직격 비판'

엔비디아 젠슨 황 최고경영자(CEO)가 미국 정부의 대중국 반도체 수출 통제가 자국 기업에 심각한 타격을 줄 수 있다고 경고했다. 중국 인공지능(AI) 칩 시장이 향후 수년 내 수백억 달러 규모로 성장할 것으로 전망되는 가운데 미국 기업이 이 기회를 놓치면 산업 경쟁력 전반에 부정적 영향을 줄 수 있다는 판단이다. 8일 CNBC 등 외신에 따르면 황 CEO는 지난달 30일 중국이 AI 칩 수요 측면에서 거대한 시장이라며 미국 기업이 접근하지 못할 경우 "막대한 손실"이 예상된다고 밝혔다. 인터뷰는 이날 워싱턴 D.C.에서 열린 '힐 앤 밸리 포럼' 직후 진행됐다. 엔비디아는 앞서 미국 정부의 수출 규제로 인해 55억 달러(한화 약 7조7천억원) 규모의 매출 손실을 입었다고 밝힌 바 있다. 이번 제재는 엔비디아가 중국용으로 설계한 'H20' 칩에도 적용돼 판매에 필요한 별도 허가를 요구하고 있다. 황 CEO는 중국 시장을 '핵심'으로 규정하며 AI 칩 접근 제한이 미국 내 일자리 창출 기회까지 제한할 수 있다고 우려했다. 그는 중국과의 기술 경쟁에서 화웨이와 같은 토종 기업들이 부상할 가능성도 경고했다. 중국 정부는 최근 수년간 반도체 자립을 위해 수십억 달러를 투입해 왔다. 화웨이는 AI 칩 공급망을 자체 구축하는 전략의 일환으로 최신 '어센드' 시리즈 칩을 개발 중이다. 이는 미국산 그래픽처리장치(GPU)에 대한 의존도를 낮추기 위한 행보다. 또 미국의 제재가 지속되면 화웨이를 비롯한 로컬 경쟁자들이 오히려 유리해질 수 있다는 분석도 제기된다. 이는 장기적으로 미국 반도체 기업의 글로벌 입지에 악영향을 줄 수 있다. 이 같은 상황에서 AMD 역시 15억 달러(한화 약 2조1천억원) 매출 감소를 발표하며 대중국 수출 통제가 업계 전반에 미치는 영향이 확산되고 있다. 특히 AI 응용에 필수적인 GPU를 생산하는 기업들이 직접적인 타격을 입는 중이다. 미국 워싱턴의 정부 산하 씽크탱크인 전략국제문제연구소(CSIS)는 지난 3월 보고서를 통해 "중국이 AI 기술 격차를 상당 부분 좁혔다"며 "미국이 기술 우위를 2년 이상 유지하는 것이 비현실적으로 보이는 상황"이라고 평가했다.

2025.05.08 15:02조이환

[현장] "HBM, AI 시대의 우라늄"…국회, 초당적 포럼서 반도체 전략 수립 '본격화'

"인공지능(AI) 시대의 진짜 병목은 연산이 아니라 메모리입니다. 그래픽처리장치(GPU)만큼 중요한 건 고대역폭메모리(HBM)이고 이를 못 잡으면 우리는 기술 식민지가 됩니다. HBM은 단순한 메모리가 아니라 설계, 냉각, 패키징, 파운드리까지 연결된 AI 시대의 '고농축 우라늄'입니다. 지금 투자하지 않으면 10년 뒤엔 우리의 미래를 장담할 수 없습니다." 김정호 카이스트 교수는 지난 22일 국회 의원회관에서 열린 'AI G3 강국 신기술 전략 조찬 포럼' 발제에서 이같이 말했다. 이날 김 교수는 'HBM이 대한민국을 살린다'는 제목으로 발표에 나서 반도체 설계 주도권 확보와 생태계 재편의 필요성을 강도 높게 강조했다. 이번 행사는 정동영 더불어민주당 의원과 최형두 국민의힘 의원이 공동 주최하고 산업계·학계·정계 주요 인사들이 대거 참석해 토론을 벌였다. SK하이닉스, 삼성전자, 서울대, 스타트업, 과기부 등 다양한 주체가 모인 현장에서는 AI 반도체 생태계 조성을 위한 현실적 방안들이 논의됐다. 김정호 교수 "HBM은 단순한 메모리가 아니다…AI 패권의 핵심 기술" 김정호 카이스트 교수는 이날 발제에서 HBM을 AI 시대의 '순수 우라늄'으로 간주하며 대한민국 반도체 산업이 생존하기 위해 반드시 확보해야 할 전략 자산이라고 강조했다. 그는 HBM이 단순한 메모리 기술을 넘어 컴퓨팅처리장치(CPU)와 GPU 기능까지 통합하게 될 미래를 예견하며 이를 통해서만 한국이 엔비디아와 같은 글로벌 기업과 대등한 협상력을 가질 수 있다고 주장했다. HBM은 기존 디램(DRAM) 대비 훨씬 빠른 속도로 데이터를 주고받을 수 있는 차세대 메모리 기술이다. 수직으로 여러 층의 메모리를 쌓은 구조 덕분에 같은 면적 안에서 더 많은 데이터를 병렬로 처리할 수 있어 대용량 연산이 요구되는 AI 학습과 추론에 최적화돼 있다. 더불어 HBM은 DRAM, 인터포저, 신호무결성(SIPI), 냉각, 재료, 패키징, 파운드리, GPU 설계, 시스템 아키텍처 등 다양한 기술이 융합돼야 구현 가능한 복합 기술 집합체다. 하나의 부품이 아니라 반도체 시스템 전체를 아우르는 '기술의 총합'인 것이다. 김 교수는 한국이 '챗GPT'와 같은 파운데이션 모델 없이도 AI 경쟁력을 확보하려면 엔비디아의 최신 GPU가 최소 수십만 대 필요하다고 말했다. 다만 현실적으로 현재 한국이 보유한 최신 엔비디아 'H100'은 몇천대 수준으로, 예산을 투입해도 엔비디아가 GPU를 이를 공급할 이유가 부족한 상황이다. 이에 제시할 수 있는 유일한 협상 카드가 HBM으로, 이를 기반으로 기술 주권을 확보해 반도체 글로벌 공급망에서 우위를 점해야 한다는 것이 김 교수의 주장이다. AI 기술이 빠르게 고도화되면서 주목받을 연산 병목의 핵심은 GPU가 아니라 HBM이라는 분석 역시 나왔다. 김 교수는 "'챗GPT'를 구동하는 동안 실제로 열을 받아 녹는 것은 GPU가 아니라 HBM"이라며 "토큰 생성 속도 저하의 주요 원인은 메모리 대역폭의 부족에 있다"고 설명했다. 이어 "기존 컴퓨터 구조에서는 저장은 메모리, 계산은 GPU가 맡았지만 AI 시대에는 이 둘 사이의 데이터 전달 속도에서 한계가 발생한다"고 말했다. 이 같은 구조적 병목은 HBM의 역할을 단순한 '빠른 메모리'를 넘어서는 요소로 만든다. 김 교수는 HBM의 기술적 본질을 '데이터를 얼마나 빠르게 GPU로 보내고 다시 받아올 수 있느냐의 싸움'이라고 정의했다. 그는 이를 100층짜리 고층 건물에 비유하며 층을 높이 쌓을수록 내부에서 데이터를 오가는 '고속 엘리베이터' 같은 통로가 필수라고 설명했다. 현재 개발 중인 'HBM4'까지는 이러한 구조를 일정 수준 유지할 수 있지만 몇년 후 등장할 'HBM7'과 같은 차세대 모델로 갈수록 기술적 부담은 폭발적으로 늘어난다. 특히 기존 본딩 공정에서 사용하는 납이 고온에서 열화되는 문제가 있어 더 높은 집적도와 연산량을 감당하려면 냉각 솔루션과 소재 자체의 혁신이 필수적이다. 이러한 배경에서 전체 시스템을 액체에 담가 냉각하는 '침지 냉각(immersion cooling)'이 유력한 차세대 해법으로 주목받고 있다. 단순히 칩을 잘 만드는 것만으로는 한계가 있는 만큼 냉각 설계, 패키징, 파운드리 공정, 시스템 아키텍처 설계까지 아우르는 통합적 기술 전략이 필요한 단계다. 이같은 급박한 상황 속에서 한국은 반도체 산업의 핵심 가치사슬인 설계와 파운드리에서 모두 취약한 위치에 놓여 있는 상황이라는 것이 김 교수의 설명이다. 일례로 'HBM4'부터는 연산 기능이 메모리 내부, 이른바 '베이스 다이(Base Die)'에서 처리되는 구조로 전환되고 있다. 다만 해당 기술의 설계는 엔비디아가, 제조 공정은 대만 TSMC가 주도하고 있어 국내 기업의 입지는 좁아지고 있는 것이다. 김 교수는 이 같은 글로벌 기술 분업 구조 속에서 한국이 기술 주도권을 잃을 가능성을 경고했다. 특히 SK하이닉스는 '베이스 다이' 설계 경험이 부족하고 삼성전자는 생태계에서 실질적 중심을 잃고 있다고 지적했다. 이에 설계와 파운드리 양쪽 모두에 대한 국가 차원의 역량 집중이 필요하다고 강조했다. 그 역시 자신의 연구실에서 HBM의 병목 문제를 해결하기 위한 다양한 실험을 진행 중이다. 여러 층을 쌓아올리는 '멀티타워 아키텍처'와 연산 기능을 메모리 내부에 넣는 'CPU 내장형 메모리' 구조가 대표적이다. 기존 디램을 보조 메모리로 붙이거나 CPU를 직접 설계하는 방식도 병행하고 있으며 이는 최근 엔비디아가 공개한 '블랙웰 시스템'과 유사한 구조다. 또 김 교수는 AI 기술을 활용한 자동 설계 실험도 병행하고 있다. 자연어로 회로를 설계하는 '바이브 코딩'을 통해 학생이 설계한 HBM과 '챗GPT'가 설계한 결과의 성능이 거의 유사했다는 점을 소개하며 인력 부족 문제를 AI가 보완할 수 있다고 강조했다. 김 교수는 "AI는 죽지도 자지도 않지만 사람은 인건비가 든다"며 "AI 기반의 자동화 기술이 앞으로 산업 경쟁력을 좌우할 핵심 수단이 될 것"이라고 주장했다. 발표를 마치며 김 교수는 AI 생태계의 패권 경쟁이 결국 'HBM 기술력'에 수렴된다고 강조했다. AI가 핵무기, 반도체가 우라늄이라면 HBM은 '순수 우라늄'으로, 한국이 이 기술을 확보하지 못하면 글로벌 기술 질서에서 도태될 수밖에 없다는 것이다. 김정호 카이스트 교수는 "이제는 정부가 나서서 HBM 주도권을 위해 전략적으로 투자해야 한다"며 "기업과 학계도 반도체 전문대학원을 신설하고 고급 인재를 체계적으로 길러낼 수 있는 구조로 과감히 개편해야 한다"고 강조했다. 이어 "과거 박정희 대통령이 고속도로를 깔아 자동차 산업을 열고 김대중 대통령이 인터넷망으로 IT 강국의 기반을 만들었듯 이 위기를 기회로 만들 어야 한다"고 말했다. "HBM만으론 부족하다"…산학연이 말한 'AI 반도체 생태계의 조건은? 이날 김 교수의 발표 이후에는 기술 인프라와 생태계 확장을 놓고 산업계·학계·정부 인사 간에 치열한 논의가 벌어졌다. 이날 토론에서는 'HBM 중심 전략'을 넘어서 설계·파운드리·모델·SW까지 포괄하는 통합 생태계 필요성이 제기됐다. HBM에 대한 전략적 인프라 확충은 대체로 공감대가 형성됐다. 다만 실제 현장에선 정부 지원이 한정돼 있어 기술 주도권 확보엔 한계가 있다는 우려가 나왔다. 정상록 SK하이닉스 부사장은 "지난 2023년 삼성과 각각 500억 원씩 지원받았지만 기술 성장성을 반영할 때 보다 세심한 고려가 필요하다"며 "개인적으로 볼때 정부가 HBM이라는 신기술을 보다 감안해서 장기적인 전략을 짜는 것이 좋은 전략일 것으로 생각한다"고 말했다. 정부 역시 이를 인지하고 전략적 대응에 나섰다는 입장이다. 박윤규 정보통신산업진흥원장은 "향후 정부의 전략 투자 중심축 중 하나가 HBM이 될 것"이라며 "우리는 기업의 고충을 실제로 듣고 지원하는 입장에서 인프라와 설계 R&D를 함께 지원하는 방향으로 갈 것"이라고 밝혔다. 스타트업들은 기술 상용화의 '속도'와 '현실'을 문제 삼았다. HBM을 실제 적용하고 있는 기업들 자본, 인재, 시간 모두에서 한계에 부딪히고 있다는 설명이다. 정영범 퓨리오사AI 상무는 "3년 전 'GPT-3'가 나올 당시 HBM3를 선택했는데 다들 만류했다"며 "그럼에도 우리는 한국도 가능하다는 믿음으로 다소 무리하며 밀어붙였고 결과적으로 현명한 선택이 됐다"고 말했다. 칩 하나를 개발하는 데만 수백억 원이 들어가는 현실에서 스타트업은 생존을 위해 정부의 중장기 지원이 절실하다는 호소도 나왔다. 배유미 리벨리온 이사는 "인재, 자본, 시간을 꾸준히 투입해야 하는데 정부가 이 흐름을 끊지 않도록 지원책을 이어가줬으면 한다"고 말했다. 기술 못지않게 인재 확보도 현장의 핵심 과제로 떠올랐다. 고급 설계인력 수요는 폭증하고 있지만 국내 교육·보상 시스템이 이를 받쳐주지 못한다는 지적이다. 이공계 고급 인력의 산업계 유입을 위한 구체적 유인책도 필요하다는 설명 역시 이어졌다. 김영오 서울대 공대 학장은 "AI와 반도체를 동시에 전공할 수 있는 학생들이 필요하다"며 "상위 10~20% 천재 학생들에게는 파격적 보상과 국가 주도 연구기관이 필요하다"고 제안했다. 이어 현대 조현철 상무는 "카이스트 출신들도 산업계보다 학계나 해외로 빠져나간다"며 "산업계로의 유입을 위한 정부 차원의 가이드라인이 필요하다"고 말했다. AI 생태계의 핵심은 '풀스택 경쟁력'이라는 점도 강조됐다. 송대원 LG 상무는 "구글은 이번 '넥스트' 행사에서 GPU부터 모델, 솔루션까지 전방위 생태계를 발표했다"며 "국내도 인프라만 볼 게 아니라 전체 AI 흐름을 같이 키워야 한다"고 말했다. 정부도 이런 문제의식을 반영해 추경 예산을 마련하고 제도 개선을 시도 중이다. 특히 글로벌 수준 인재 유치를 위한 예산이 신설됐다는 점이 눈에 띈다. 송상훈 과기부 실장은 "최대 40억원까지 매칭 지원이 가능한 고급 인재 유치 프로그램을 새로 만들었다"며 "퓨리오사, 리벨리온 같은 기업들이 공학도들의 꿈이 되도록 하겠다"고 말했다. 정동영 더불어민주당 의원은 "HBM 3층 적층 구조를 처음 제안했던 김정호 교수의 주장을 우리 기업들이 진작 받아들였더라면 지금쯤 이들의 국제적 위상이 보다 커졌을 것"이라며 "오늘 산업계, 학계, 정부, 여야가 오늘처럼 한자리에 모인 것 자체가 의미 있고 이 논의가 구체적 실행으로 이어져야 한다"고 말했다. 최형두 국민의힘 의원은 "매주 격주 아침마다 토론을 이어온 것은 각계 리더들이 진심으로 이 문제를 국가 전략으로 보고 있다는 방증"이라며 "AI 추경 예산 반영 여부가 이제 과방위와 예결위 논의에 달려 있는 상황에서 국회 특위 위원으로서 마지막 소위 심사까지 책임지고 반영될 수 있도록 최선을 다하겠다"고 강조했다.

2025.04.23 11:28조이환

[현장] 한국인공지능산업협회 "AI 전환은 생존 문제"…산업 현안 집중 조명

한국인공지능산업협회(AIIA)가 국내 인공지능(AI) 산업계의 현안을 짚고 기술 대응 방향을 모색하는 만남의 장을 열었다. AI 인프라와 소프트웨어(SW) 테스트 분야의 현안을 조명해 업계의 변화 속도를 조명하기 위함이다. AIIA는 15일 서울 양재동 엘타워에서 'AI는 어디에나 있다'를 주제로 '제49회 AIIA 조찬포럼'을 개최했다. 이날 행사에서는 이동기 SK텔레콤 랩장이 AI 인프라 구축과 서비스로서의 그래픽처리장치(GPUaaS)를, 이혜진 티벨 이사가 소프트웨어(SW) 테스트에서의 AI 활용 사례를 주제로 각각 발표했다. 양승현 AIIA 협회장은 "최근 모델 컨텍스트 프로토콜(MCP)과 화웨이 AI 칩의 등장 등 가파른 기술의 발전으로 시장의 방향성이 바뀌고 있다"며 "AI 인프라 전환은 더 이상 선택이 아닌 생존의 문제"라고 말했다. "AI 데이터센터는 새로운 제조업"…SKT 랩장의 경고와 해법은 이날 첫 발표를 맡은 이동기 SK텔레콤 AI 데이터센터랩장은 AI 인프라 구축 프로젝트와 GPU 서비스 전환 흐름을 집중 조명했다. 그는 AI 데이터센터가 전통적인 서버룸 중심의 데이터센터 개념에서 탈피한 근본적 전환이 이뤄지고 있다고 진단했다. 발표에 따르면 AI 데이터센터는 네 가지 축을 중심으로 구체화된다. ▲GPU 서버로 구성된 고성능 컴퓨팅 인프라 ▲액체 냉각 기반의 첨단 쿨링 시스템 ▲분산형 친환경 에너지 설비 ▲자원·비용·성능을 통합 관리하는 최적화 소프트웨어가 핵심이다. 이 랩장은 AI 데이터센터의 등장을 '토큰 공장' 개념으로 비유했다. 단순한 컴퓨팅 자원이 아닌 AI 추론과 학습을 통해 대규모 토큰을 실시간 생산해내는 AI 팩토리로 진화하고 있다는 설명이다. 실제로 젠슨 황 엔비디아 CEO도 "AI 데이터센터는 새로운 종류의 제조업이 되고 있다"고 강조한 바 있다. 이 과정에서 가장 큰 변화를 맞는 영역은 냉각과 전력 인프라다. 기존 공랭 방식은 고집적 GPU 서버를 감당할 수 없기 때문이다. 냉각 방식도 지속적으로 진화하고 있다. 단순히 직접 냉각 뿐만 아니라 서버 자체를 냉각장치 안에 넣는 '침수형'과 '정밀 액체분사형' 냉각 기술도 함께 발전 중이다. 다만 침수 방식은 물의 무게 탓에 상면당 하중이 기존 대비 최대 4배까지 증가할 수 있어 구조 설계부터 다시 짜야 한다는 부담이 뒤따른다. 이러한 흐름은 글로벌 무대에서도 극단적으로 전개되고 있다. 일론 머스크는 xAI의 파운데이션 모델인 '그록3' 개발을 위해 폐공장을 매입해 10만 장 규모의 GPU 팩토리를 구축하려다 전력과 냉각 시스템 병목에 부딪힌 바 있다. 결국 전국에서 발전기를 조달하고 미국 내 이동식 냉각 장비의 4분의 1을 임대해 대응하는 방식으로 급조된 데이터센터를 운영한 바 있다. GPU 장비의 고가·단명화 추세에 대한 우려도 제기됐다. 이동기 랩장은 "직접 센터를 지어도 몇 달 만에 장비가 구형이 될 수 있다"며 "GPU 인프라의 진화 속도를 감안할 때 이를 보유하는 것보다 서비스 형태로 이용하는 쪽이 현실적인 선택이 되고 있다"고 말했다. SK텔레콤은 이를 해결하기 위해 GPUaaS 모델을 도입하고 있다. 미국 람다랩스와의 협력을 통해 최신 GPU 클러스터를 국내 기업들에게 제공 중이며 연내 온디맨드 상품도 출시할 계획이다. 람다는 '인피니밴드' 기반의 대형 클러스터를 동적으로 나눠 쓰는 '원클릭 클러스터' 기술을 강점으로 내세우고 있다. 이 랩장은 "AI 데이터센터 구축에 필요한 총비용의 약 70%가 GPU 인프라에 투입된다"며 "GPUaaS는 전력, 공간, 업그레이드 리스크를 모두 분산시킬 수 있는 해법"이라고 강조했다. "AI가 SW 테스트하는 시대"…티벨, 자동화 넘어 '테스트옵스'로 간다 이날 두 번째 발표자로 나선 이혜진 티벨 이사는 SW 테스트 분야에서 AI 기술이 어떻게 활용되고 있는지를 소개했다. 그는 "테스트는 기술이 아니라 신뢰"라는 격언을 강조하며 자동화와 AI 기반 도구들이 궁극적으로 확보해야 할 목표는 '품질에 대한 신뢰'라고 밝혔다. 티벨은 금융, 교육, 전자상거래 등 다양한 분야의 품질 보증 서비스를 제공하는 테스트 전문 기업이다. 이 회사는 기존 수작업 기반의 테스트를 넘어 자동화 테스트, AI 기반 검증 기술, 테스트 운영 환경 설계까지 사업 영역을 확대하고 있다. 특히 음성 기반 테스트 자동화, 대규모 고객민원(VOC) 처리 시스템, 거대언어모델(LLM) 결과 신뢰성 검증 등 다양한 R&D 성과도 함께 공개했다. 이 이사는 먼저 테스트의 부재가 초래한 사고들을 사례로 제시하며 테스트의 중요성을 강조했다. 그는 나사의 화성 기후 탐사선 폭발 사고, 아마존웹서비스(AWS)의 대규모 장애, 영국 은행 시스템 마비 등의 사례를 언급하며 테스트 실패는 곧 신뢰 손실로 직결된다는 점을 보였다. 이러한 상황에 대응해 티벨이 제시한 테스트 기술의 진화는 다음과 같다. ▲사람이 직접 케이스를 설계하는 매뉴얼 테스트 ▲반복 작업과 지속적 통합(CICD) 연동 중심의 자동화 테스트 ▲AI 기반의 시나리오 생성, 이상 탐지, 유저 인터페이스(UI) 변경 인식이 가능한 지능형 테스트 ▲자율주행처럼 스스로 복구하고 실행하는 '자율 테스트'가 그것이다. 특히 음성 기반 서비스 검증을 위한 자동화 기술도 소개됐다. 텍스트투사운드(TTS)·사운드투텍스트(STT)·자연어처리(NLP) 기술을 결합해 발화된 음성과 AI의 응답을 비교·분석해 유사도를 측정하고 결과를 자동으로 아틀라시안의 이슈 트래킹 툴인 '지라(JIRA)'에 업데이트하는 구조다. AI 기술을 테스트에 접목한 주요 활용 사례도 다양했다. 머신러닝을 통한 오류 패턴 분석, 테스트 로그 기반의 신규 케이스 추출, NLP 기반 요구사항 문서 분석, UI 탐색 자동화, 테스트 코드 자동 생성 등이다. 이 이사는 테스트 운영 환경을 자동화하는 '테스트옵스'의 중요성도 함께 강조했다. 그는 "단순 자동화 기술이 아니라 테스트 설계부터 실행·결과 관리까지 전체 프로세스를 자동화하는 게 진정한 진화"라며 "이를 위해 우리는 오픈소스 기반 기술을 적극 채택하고 고객사 인프라에 맞춰 유연한 환경을 구현하고 있다"고 밝혔다. 이혜진 티벨 이사는 발표를 마치며 "AI 도구가 아무리 고도화돼도 테스트의 본질은 신뢰이며 그 신뢰는 사람이 만든다"며 "자동화는 도구로, 품질에 대한 맥락 이해와 판단은 여전히 사람의 몫"이라고 강조했다.

2025.04.15 10:06조이환

"GPU 72장 돌려야 답 나온다"…엔비디아, AI 추론 '끝판왕' 내놔

엔비디아가 복잡한 사고력 기반 AI 모델 확대에 맞춰 새로운 추론 성능 전략을 공개한다. 점점 더 많은 연산을 요구하는 AI 모델 등장에 따른 글로벌 평가 기준 변화에 선제 대응하려는 조치다. 3일 업계에 따르면 엔비디아는 지난 1일 정오 온라인으로 진행한 프리브리핑에서 AI 성능 벤치마크인 '엠엘퍼프(MLPerf)' 추론 AI 부문의 변화에 대응하기 위한 기술 전략을 공개했다. 이번 행사는 국제 컨소시엄 엠엘커먼스(MLCommons)가 '사고 기반 AI'인 추론 모델을 평가 항목에 포함하려는 움직임에 초점을 맞췄다. 엠엘퍼프는 AI 모델의 훈련(training)과 추론(inference) 성능을 하드웨어·소프트웨어 통합 기준으로 측정하는 글로벌 표준 벤치마크다. 엠엘커먼스가 주도하는 이 평가 항목은 업계 기술 흐름에 따라 주기적으로 갱신된다. 최근에는 단순 예측을 넘어 복잡한 추론과 의사결정을 요구하는 리즈닝 모델이 AI 기술의 중심으로 떠오르면서 해당 항목의 공식 도입 논의가 본격화되고 있다. 엔비디아는 아직 리즈닝 모델 항목이 공식 도입되지는 않았지만 차기 엠엘퍼프 버전에서는 채택 가능성이 높다고 판단하고 있다. 이를 선제적으로 대비하기 위해 회사는 중국의 AI 스타트업인 딥시크가 개발한 생성형 AI 모델을 활용해 복잡한 사고 기반 작업에서의 추론 성능을 시연했다. 이처럼 복잡한 추론 모델이 확산되면서 AI 추론 환경 전반에도 근본적인 변화가 일고 있다. 추론 연산량이 전례 없이 폭증하고 있는 상황에서 과거에는 단일 그래픽처리장치(GPU)나 단일 노드에서 충분했던 작업들이 이제는 다수 GPU를 동시 투입하는 복잡한 병렬 연산 없이는 처리할 수 없다는 것이 엔비디아의 분석이다. 이에 더해 추론 모델의 확산은 AI 개발의 모든 단계에서 연산 자원의 수요를 급격히 증가시키고 있다. 엔비디아는 모델 재학습(retraining), 도메인 맞춤화(post-training), 테스트 시점 확장(test-time scaling) 등에서 연산량이 기하급수적으로 늘고 있다고 분석했다. 특히 테스트 단계에서도 추론 정확도를 높이기 위한 병렬 연산 수요가 계속해서 증가하고 있다는 점을 강조했다. 이에 이날 엔비디아는 고성능 시스템 예시로 'GB200 MBL'을 제시했다. 해당 시스템은 총 72개의 GPU를 동시 연동하며 복잡한 추론을 빠르게 처리할 수 있도록 설계됐다. 회사는 이러한 대규모 병렬 환경이 향후 추론 표준이 될 것으로 보고 있다. 엠엘커먼스 역시 추론 모델을 엠엘퍼프의 공식 평가 항목에 포함하기 위한 논의를 본격적으로 시작한 상황이다. 현재 다양한 기술 커뮤니티와 협업을 통해 평가 기준과 워크로드 확장을 준비하고 있다. 공식 도입 시점은 아직 정해지지 않았으나 실증 사례와 모델 테스트가 계속 이어지고 있어 연내 도입이 확정될 가능성도 있다. 엔비디아 관계자는 "모델의 크기와 지능이 커짐에 따라 연산량이 모든 단계에서 폭증하고 있다"며 "재학습, 도메인 최적화, 테스트 시점 스케일링 모두 고성능 GPU를 요구한다"고 설명했다. 이어 "72개의 GPU처럼 다수의 칩을 동시에 작동시켜야 하는 이유가 바로 이 때문"이라고 덧붙였다.

2025.04.03 01:00조이환

"삼성SDS도 신뢰한 AI 팩토리"…델-엔비디아, 기업용 AI 시장 공략 '박차'

델 테크놀로지스가 엔비디아와 손잡고 인공지능(AI) 인프라를 전면 업그레이드한다. 기업들의 AI 도입 장벽을 낮추고 혁신 속도를 끌어올려 시장 경쟁력을 강화하려는 행보다. 델 테크놀로지스는 18일 온라인 미디어 브리핑에서 '엔비디아 기반 델 AI 팩토리'의 최신 포트폴리오를 공개했다. 엔비디아의 'GTC 2025'와 동시에 열린 이번 간담회에서는 엔비디아와 델의 협력 성과가 집중 조명됐다. 델은 AI PC, 서버, 스토리지, 네트워킹 등 AI 인프라 전반을 아우르는 신제품을 대거 선보였다. 이날 발표를 진행한 바룬 차브라 델 인프라 및 텔레콤 마케팅 수석 부사장은 AI의 본격적인 산업 적용이 시작되면서 기업들은 AI 도입에 있어 여러 장애물을 마주하고 있는 점을 지적했다. 차브라 부사장에 따르면 현재 기업들은 ▲비용 통제 ▲데이터 관리 ▲기존 시스템과의 통합 ▲전문 인력 부족을 주요 도전 과제로 직면해 전체 중 77%의 기업이 AI 인프라 구축을 위해 '단일 벤더'를 선호하고 있다. 이에 따라 델은 엔비디아와의 협력을 통해 이 같은 시장 수요를 적극 공략할 계획이다. 실제로 델은 이번 브리핑에서 AI PC 시장 공략을 위한 신제품을 대거 선보였다. '델 프로 맥스 AI PC' 라인업에는 엔비디아의 최신 '그레이스 블랙웰' 아키텍처가 적용됐다. 기존 데이터센터에서만 활용되던 AI 개발용 그래픽처리장치(GPU) 성능을 데스크톱에서도 구현한 것이 특징이다. 연구자와 개발자를 위한 소형 워크스테이션뿐 아니라 784기가바이트(GB) 메모리와 20페타플롭스(PFLOPS) 성능을 갖춘 고성능 AI 개발용 PC도 함께 공개됐다. 데이터센터 부문에서도 델과 엔비디아의 협력은 강화된다. 차브라 부사장에 따르면 델은 엔비디아의 최신 블랙웰 GPU와 커넥트X8 슈퍼닉스를 지원한다. 특히 곧 출시될 '델 파워엣지 XE 8712(PowerEdge XE8712)' 서버는 노드당 2개의 그레이스 CPU와 4개의 블랙웰 GPU를 탑재해 데이터센터 내 AI 성능을 극대화할 것으로 예상된다. 한 랙에 144개의 GPU를 수용할 수 있어 초고밀도 AI 연산 환경을 구축할 수 있다. AI 데이터 관리 역시 델의 핵심 혁신 분야 중 하나다. 이를 위해 '델 AI 데이터 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)'는 기업들이 AI 데이터를 더 빠르게 처리하고 보다 안전하게 보호할 수 있도록 설계됐다. 이 플랫폼은 대량의 데이터를 실시간으로 받아들이는 데이터 인제스천 기능을 지원하며 GPU 가속 기반 '스파크 쿼리'를 활용해 기존 대비 최대 220% 향상된 속도로 데이터를 분석하고 처리할 수 있다. 차브라 부사장은 "AI의 성능을 극대화하려면 데이터를 빠르게 처리하고 안전하게 보관하는 것이 필수"라며 "우리 AI 데이터 팩토리는 대규모 AI 워크로드를 보다 효율적으로 운영할 수 있도록 설계돼 기업들의 AI 도입 속도를 한층 끌어올릴 것"이라고 설명했다. AI 소프트웨어 분야에서도 델과 엔비디아의 협력은 이어지고 있다. 델은 '에이전트 AI' 시스템 개발을 지원하는 엔비디아의 AI 개발 프레임워크인 '에이전틱 AI'와 이를 위한 AI 최적화 도구를 AI 팩토리에 통합했다. 이에 따라 기업들은 AI가 단순한 질의응답을 넘어 스스로 의사 결정을 내릴 수 있는 시스템을 구축할 수 있게 됐다. 회사는 AI 인프라 구축뿐만 아니라 AI 네트워킹 및 배포 서비스도 강화하고 있다. 네트워크 최적화, GPU 서버 구축, 다중 벤더 환경 통합 등 다양한 AI 전문 서비스를 제공하며 AI 프로젝트의 초기 단계부터 운영까지 전 과정을 지원한다. 이같이 AI 도입이 빠르게 확산되면서 델과 엔비디아의 협력도 지속적인 탄력을 받고 있다. 양사는 지난해 GTC에서 '델 AI 팩토리 위드 엔비디아'를 공개한 이후 지난 1년간 100개 이상의 신규 AI 제품을 출시하고 2천 개 이상의 고객을 확보했다. 특히 삼성SDS는 델과 협력해 AI 팩토리를 구축했으며 이를 통해 모델 정확도를 98%까지 향상시키고 업무 생산성을 70% 이상 개선한 것으로 알려졌다. 스콧 구 삼성SDS 클라우드 서비스 사업부문 부사장은 델-엔비디아 협력을 두고 "우리는 모든 고객을 위한 AI 팩토리를 구축하고 있다"며 "이를 서비스 형태로 안전하게 제공하거나 고객의 자체 환경에 배포할 수 있도록 하고 있다"고 말했다. 향후에도 델은 엔비디아와 협력해 AI 시장에서의 입지를 더욱 강화할 계획이다. 바룬 초프라 델 수석 부사장은 "우리는 엔비디아와 AI 도입을 가속화할 수 있는 완벽한 파트너"라며 "AI 생태계 전반에서 기업들이 혁신을 실현할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 08:32조이환

AMD, 제약회사에 투자…"우리 AI칩으로 신약 개발"

미국 반도체 회사 AMD가 제약회사에 투자했다. AMD는 생명과학 기업 앱사이 상장 지분에 사모투자하는 방식으로 2천만 달러(약 290억원)를 투입했다고 미국 월스트리트저널(WSJ)이 지난 8일(현지시간) 보도했다. WSJ은 경쟁사 엔비디아처럼 AMD도 생명과학 분야에서 인공지능(AI) 칩으로 입지를 다지려 한다고 평가했다. 마크 페이퍼마스터 AMD 최고기술책임자(CTO)는 “다른 시장으로 시야를 넓히고 있다”며 “사회에 곧바로 영향을 미칠 의료 분야를 우선한다”고 말했다. 숀 매클레인 앱사이 창업자는 “앱사이는 AI 칩을 470개 넘게 쓰고 있다”며 “대부분 엔비디아 GPU”라고 설명했다. 하지만 “AMD의 GPU로 바꾸기 시작한다”며 “신약을 개발하기 위해 엄청난 양을 계산하는 데 필요한 비용이 줄어들 것”이라고 기대했다. 엔비디아도 2023년 생명과학 업체 리커전파마슈티컬스에 5천만 달러를 투자하고 AI를 기반으로 신약을 개발하기 위한 하드웨어를 지원했다.

2025.01.10 10:42유혜진

엔비디아 젠슨황 "삼성 HBM 성공 확신...설계는 새로 해야"

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아의 젠슨 황 최고경영자(CEO)가 삼성전자 고대역폭메모리(HBM)에 대해 “새로 설계해야 한다”고 말했다. HBM은 D램 여러 개를 수직으로 쌓아 기존 D램보다 정보 처리 속도를 끌어올린 메모리 반도체다. SK하이닉스와 미국 마이크론이 엔비디아에 공급하고 있다. 삼성전자는 납품에 앞서 품질 테스트 중이다. 황 CEO는 7일(현지시간) 세계 최대 가전·정보기술(IT) 전시회 'CES 2025'가 개막한 미국 라스베이거스 퐁텐블루호텔에서 열린 기자간담회에서 '삼성전자 HBM을 왜 이리 오래 시험하느냐'는 물음에 “오래 걸리는 게 아니다”라며 “한국은 서두르려 한다”고 답했다. 황 CEO가 삼성전자 HBM을 공개적으로 지적한 일은 이번이 처음이다. 다만 그는 “엔비디아가 처음 쓴 HBM은 삼성전자가 만든 것이었다”며 “내일(8일)이 수요일이라고 확신할 수 있듯 삼성전자 성공을 확신한다”고 덧붙였다. 황 CEO는 소비자용 그래픽처리장치(GPU) 신제품 '지포스 RTX 50'에 마이크론 그래픽더블데이터레이트(GDDR)7을 쓴다고 밝힌 이유도 언급했다. 그는 “삼성전자와 SK하이닉스는 그래픽 메모리가 없는 것으로 안다”며 “그들도 하느냐”고 되물었다. 이어 “삼성전자와 SK하이닉스는 엔비디아의 가장 큰 공급업체 중 두 곳”이라며 “매우 훌륭한 메모리 반도체 기업”이라고 평가했다. GDDR7은 영상과 그래픽을 처리하는 초고속 D램이다. 마이크론뿐 아니라 삼성전자와 SK하이닉스도 생산한다. 한편 황 CEO는 곧 최태원 SK그룹 회장과 만날 것으로 보인다. '이번 CES 기간 최 회장을 만나느냐'는 질문에 황 CEO는 “만날 예정”이라며 “기대하고 있다”고 답했다.

2025.01.08 11:13유혜진

엔비디아, 이스라엘 스타트업 런ai 인수

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아가 이스라엘 스타트업 런에이아이(Run:ai)를 인수했다고 미국 블룸버그통신이 30일(현지시간) 보도했다. 엔비디아는 지난 4월 런ai를 인수하겠다고 나섰다. 인수 금액을 밝히지 않았지만, 시장에서는 7억 달러(약 1조원)로 알려졌다. 런ai는 AI 작업을 실행하는 그래픽처리장치(GPU)의 자원 활용도를 최적화하는 소프트웨어를 개발한다. 2018년 설립 초기부터 엔비디아와 협력했다. 엔비디아 GPU에 한정됐던 AI 최적화 소프트웨어 사용처를 AI 생태계 전반으로 넓힐 계획이다. 엔비디아는 AI 칩 시장의 80% 이상을 장악하고 있다. 이에 미국 법무부는 이번 인수로 AI 신생 회사가 사라질 수 있다는 우려에 반독점 조사를 착수한 것으로 전해졌다.

2024.12.31 14:23유혜진

머스크 AI슈퍼컴 '콜로서스', 엔비디아 칩 100만개 품는다

일론 머스크 테슬라 최고경영자(CEO)가 지난해 세운 인공지능(AI) 스타트업 xAI가 AI 슈퍼컴퓨터 '콜로서스'에 엔비디아 칩 100만개를 탑재한다. 4일(현지시간) 파이낸셜타임스(FT)에 따르면 미국 테네시주 멤피스상공회의소는 이날 xAI가 콜로서스에 탑재하는 엔비디아 그래픽처리장치(GPU)를 100만개로 늘릴 계획이라고 밝혔다. 그 동안 콜로서스는 엔비디아 GPU 10만개가 연결된 클러스터로 운영해왔다. xAI는 2개월 전에는 이를 현재의 2배인 20만개로 늘리겠다고 발표한 바 있다. 상공회의소는 xAI의 확장 계획을 지원하기 위해 엔비디아·델·슈퍼마이크로컴퓨터도 멤피스에 사업장을 설립하기로 했다고 전했다. 콜로서스는 인공지능 챗봇 서비스 '그록(Grok)'을 훈련하는 데 쓰인다. 그록은 경쟁 챗봇인 챗GPT와 퍼플렉시티에 비해 후발주자다. 머스크 CEO는 "콜로서스가 세계 최대 AI 슈퍼컴퓨터"라며 "세계에서 가장 강한 AI 훈련 시스템"이라고 말했다.

2024.12.05 16:55유혜진

엔비디아, 시총 1위 밀려나…'블랙웰' 악재로 주가 1.8% 하락

세계 최고 인공지능(AI) 반도체 기업 엔비디아가 애플에 시가총액 1위 자리를 내줬다. 18일(현지시간) 미국 나스닥증권거래소에서 엔비디아는 전 거래일보다 1.83달러(1.29%) 내린 140.15달러로 마감했다. 시가총액은 3조4천379억 달러(약 4천788조원)다. 이날 애플은 3.02달러(1.34%) 오른 228.02달러로 거래를 끝냈다. 시총은 3조4천467억 달러로, 엔비디아보다 88억 달러 많다. 엔비디아는 지난 5일 시총 1위에 오른 뒤 13일 만에 2위로 내려왔다. 이날 엔비디아 주가가 하락한 것은 차세대 AI 칩 '블랙웰' 출시가 미뤄져 실적에 타격을 줄 수 있다는 우려 때문이다. 미국 정보기술(IT) 전문 매체 디인포메이션은 최근 엔비디아의 블랙웰을 서버에 연결하면 과열된다고 보도했다. 지난 3월 블랙웰을 처음 선보인 엔비디아는 2분기 이를 내놓기로 했으나 결함을 발견해 출시를 미뤘다.

2024.11.19 10:58유혜진

델 테크놀로지스, 新 인프라·서비스 공개…AI 팩토리 '확대'

델 테크놀로지스가 인공지능(AI) 구축·운영을 간소화할 수 있는 새로운 인프라 솔루션과 전문 서비스를 발표해 고객사를 지원한다. 델 테크놀로지스는 '델 AI 팩토리' 포트폴리오에 신형 서버, 랙 시스템, AI 전문 서비스를 추가했다고 19일 밝혔다. 델은 이번 업데이트를 통해 대규모 AI 환경에서 데이터 접근과 관리의 효율성을 높이고 고성능 컴퓨팅을 지원할 계획이다. 이번에 공개된 '델 IRSS'는 공장 통합형 랙 스케일 시스템으로 델 스마트 쿨링 기술이 적용돼 플러그 앤 플레이 방식의 고효율 AI 인프라를 제공한다. 델은 설치 후 패키징 폐기물 처리와 노후 하드웨어 재활용 서비스도 지원해 지속 가능성을 강화할 예정이다. 델 파워엣지 'XE9685L'은 수랭식 4U 서버로 최대 96개의 그래픽처리장치(GPU)를 지원하며 AI와 머신러닝 워크로드에 최적화됐다. 공랭식 모델인 'XE7740'은 4U 크기에서 최대 16개의 GPU 구성이 가능해 생성형 AI 모델의 효율적 운영을 돕는다. 이같이 엔비디아 기반 델 AI 팩토리는 새로운 GPU 지원 옵션을 통해 최대 1.9배 성능을 향상시킨다. 또 신규 검색 증강 생성(RAG) 서비스 '델 에이전틱 RAG'를 도입해 대규모 데이터 세트에서 복잡한 쿼리와 RAG 작업을 개선할 수 있도록 했다. 델은 AI 구축을 간소화하기 위한 전문 서비스도 함께 선보였다. 지속 가능한 데이터 센터 구축, 데이터 관리 체계화, AI 네트워크 설계 서비스 등 다양한 분야에서 고객을 지원할 예정이다. 김경진 델 테크놀로지스 한국 총괄사장은 "AI를 구축하려는 기업들이 점점 복잡한 과제에 직면하고 있다"며 "진일보한 AI 솔루션을 통해 고객이 더 스마트하게 대응할 수 있도록 돕겠다"고 말했다.

2024.11.19 10:16조이환

AMD, 직원 1000명 줄인다…엔비디아와 경쟁 집중

미국 반도체 회사 AMD가 1천명을 해고한다. 인공지능(AI) 반도체에 집중하기 위해서다. 13일(현지시간) 미국 경제방송 CNBC에 따르면 리사 수 AMD 사장은 이날 성명을 내고 “불행히도 인력의 약 4%를 줄이려 한다”며 “우리 자원을 가장 큰 성장 기회에 맞추겠다”고 밝혔다. AMD가 미국 증권거래위원회에 낸 자료를 보면 지난해 말 기준 AMD 직원은 2만6천명이다. 직원의 4%를 이번에 내보내는 셈이다. AMD는 경쟁사 엔비디아가 이끄는 인공지능 반도체 칩 시장에서 입지를 다지기 위해 이같이 결정했다고 CNBC는 분석했다. AMD는 데이터센터 AI 가속기를 만든다며 메타(옛 페이스북)와 마이크로소프트 같은 회사가 엔비디아 제품 대안으로 구매하는 'MI300X'가 포함된다고 소개했다. AMD는 엔비디아에 이어 세계에서 두 번째로 큰 그래픽처리장치(GPU) 생산 업체다. 엔비디아가 80% 이상의 시장을 차지한다. CNBC는 OpenAI '챗GPT'를 비롯한 프로그램을 개발하는 데 쓰는 핵심 소프트웨어를 엔비디아가 개발했다고 설명했다. AMD 주가는 올해 5% 하락한 반면 엔비디아는 200% 치솟아 세계에서 가장 가치 있는 상장 기업이 됐다고 평가했다.

2024.11.14 11:26유혜진

소프트뱅크, 엔비디아 '블랙웰' 탑재 슈퍼컴 만든다

일본 투자 회사 소프트뱅크그룹이 세계 최고 인공지능(AI) 반도체 기업 엔비디아 신제품 '블랙웰' 칩을 탑재한 최초의 슈퍼컴퓨터를 개발하기로 했다. 젠슨 황(황런쉰) 엔비디아 최고경영자(CEO)와 손 마사요시(손정의) 소프트뱅크그룹 회장은 13일(현지시간) 일본 도쿄에서 열린 '엔비디아 AI 서밋(Summit·정상회의)'에서 함께 무대에 올라 이같은 계획을 발표했다고 미국 블룸버그통신이 보도했다. 소프트뱅크 통신사업부는 광범위한 서비스를 지원하기 위해 일본에서 가장 강력한 AI 슈퍼컴퓨터를 구축할 것이라고 밝혔다. 컴퓨터 프로세서와 AI 가속기 칩을 결합한 엔비디아 'DGX B200' 제품을 기반으로 한다. 이어 더 발전한 '그레이스 블랙웰'을 활용하기로 했다. 블룸버그는 2019년 초까지 엔비디아 지분 4.9%를 가졌던 소프트뱅크가 칩을 둘러싸고 유리한 자리를 확보했다고 평가했다. 세계 기술 기업이 엔비디아의 새로운 칩을 저마다 가장 먼저 손에 넣길 간절히 원하지만 생산 차질로 출시가 미뤄졌다고 블룸버그는 설명했다. 또 AI 산업 발전 속도를 따라잡으려는 소프트뱅크의 야심이 보인다며 엔비디아는 대형 미국 고객 의존도를 낮추려 한다고 분석했다. 이 자리에서 황 CEO는 “손 회장은 '시장이 엔비디아 가치를 이해하지 못한다'고 했었다”고 전했다. 소프트뱅크가 엔비디아 주식을 팔지 않았더라면 지분 가치가 현재 1천780억 달러(약 250조원)에 달할 것이라며 손 회장은 황 CEO 어깨에 기대 우는 시늉을 했다. 소프트뱅크는 엔비디아를 인수하려고 세 번 시도했으나 모두 실패했다. 손 회장은 2016년 7월 소프트뱅크가 영국 반도체 설계 업체 Arm을 인수한 다음 날 개인적으로 황 CEO에게 엔비디아 인수를 제안했다. 소프트뱅크는 같은 해 12월 엔비디아 주식을 4.9% 사들였다. 2019년 주가가 급락하자 시장 압력을 받고 모두 팔았다. 2020년에는 소프트뱅크가 엔비디아에 Arm을 매각하는 대신 엔비디아 주식을 8% 취득하기로 계약했지만 미국과 유럽에서 경쟁법 위반 우려가 나와 2022년 쓴 잔을 들었다.

2024.11.14 10:58유혜진

TSMC, 내년 반도체 CoWoS 패키징 가격 인상…엔비디아, 수긍

세계 1위 반도체 파운드리(위탁생산) 회사 대만 TSMC가 내년 첨단 패키징 기술 CoWoS(Chip on Wafer on Substrate) 가격을 인상하는 데 엔비디아가 받아들였다고 대만 시장조사업체 트렌드포스가 4일(현지시간) 보도했다. 엔비디아는 세계 인공지능(AI) 반도체 1위 업체다. 제조 물량을 모두 TSMC에 맡기는 것으로 알려졌다. 트렌드포스는 미국 투자은행(IB) 모건스탠리 보고서를 인용해 TSMC가 CoWoS 패키징 가격 10~20% 인상을 검토 중이며, 엔비디아로부터 내년 가격 인상을 승인받았다고 전했다. 모리스 창 TSMC 창업자는 최근 3분기 실적을 발표하며 “CoWoS 수요가 공급을 훨씬 앞지른다”고 밝힌 바 있다. TSMC가 올해 CoWoS 생산량을 지난해보다 2배 이상 늘릴 계획임에도 불구하고 여전히 공급이 부족하다는 설명이다. TSMC는 공급망을 안정하기 위해 패키징·테스트 회사와 손잡고 생산 능력을 확대하고 있다. CNA가 인용한 업계 소식통에 따르면 ASE와 그 자회사 스필(SPIL)이 백엔드 CoWoS-S oS(on-Substrate) 공정에서 TSMC와 협력하고 있다. ASE는 내년까지 TSMC의 CoWoS-S oS 패키징 물량의 40~50%를 처리할 전망이다. ASE그룹은 고급 패키징에 투자하며 TSMC와 발 맞추고 있다. ASE는 2026년 10월 완공 예정인 대만 가오슝 K28 공장에서 CoWoS 생산량을 늘릴 것이라고 지난달 발표했다. SPIL은 센트럴타이완사이언스파크 부지에 4억1천900만 대만 달러(약 181억원)를 투자해 CoWoS 제조 역량을 키웠다. 추가 부지를 확보하는 데 필요한 37억2천만 대만 달러도 배정했다. 다음 달 미국 공장 완공을 앞둔 TSMC는 InFO 및 CoWoS 패키징 용량을 확장하기 위해 현지 후공정 업체 앰코와도 업무협약을 맺었다. CNA는 업계 소식통을 통해 미국 애플이 TSMC 애리조나 4나노미터(1㎚=10억분의 1m) 공정에서 애플리케이션 프로세서(AP)를 위탁생산하면, 앰코의 CoWoS 물량을 활용할 수 있다고 전했다. TSMC 공장에서 주문형반도체(ASIC)와 그래픽처리장치(GPU)를 만드는 다른 미국 인공지능(AI) 반도체 기업도 앰코의 CoWoS 패키징을 사용할 것으로 예상된다.

2024.11.05 13:22유혜진

오픈AI, 자체 AI 칩 개발 '시동'…2026년 첫 출시 목표

오픈AI가 자체 인공지능(AI) 칩 개발에 박차를 가하며 글로벌 AI 반도체 시장에 본격 진출한다. 29일 로이터 통신에 따르면 오픈AI는 브로드컴 및 TSMC와 협력해 자사 시스템을 지원할 첫 AI 칩을 제작할 계획이다. AMD 칩을 엔비디아와 함께 추가 도입해 AI 인프라에 필요한 칩 수요를 충족하려는 계획도 세웠다. 오픈AI는 당초 모든 칩을 자체적으로 제작하는 '파운드리 네트워크' 구축을 고려했으나 높은 비용과 시간 문제로 해당 계획을 철회하고 대신 자체 설계 칩 개발에 집중하기로 한 것으로 알려졌다. 브로드컴은 오픈AI와 협력해 AI 시스템에 최적화된 칩 설계에 참여하고 TSMC가 해당 칩을 제조할 예정이다. 이를 통해 오픈AI는 자체 칩을 통한 AI 인프라 운영에 안정성과 효율성을 더할 수 있을 것으로 기대된다. 또 오픈AI는 AMD 칩을 추가 도입해 엔비디아 의존도를 낮추고 AI 칩 공급망을 다각화할 방안을 모색 중이다. 이는 안정적인 칩 공급망 확보와 비용 절감을 위한 전략으로 풀이된다. 다만 오픈AI는 로이터의 보도에 대해 논평을 하지 않았다. 로이터는 "오픈AI의 독자적인 칩 개발은 AI 인프라 비용 절감과 칩 공급망 안정성 확보를 목표로 한다"며 "이러한 전략은 치열한 AI 경쟁 속에서 오픈AI가 칩 공급 다각화와 비용 절감을 통해 경쟁력을 높이려는 움직임"이라고 분석했다.

2024.10.30 08:48조이환

엔비디아 "다가오는 100조 달러 기술혁명 시대…카카오 AI 기업으로 만들겠다"

"엔비디아는 인공지능(AI) 산업에서의 새로운 혁명을 이끌고 있습니다. 카카오와의 협력을 통해 카카오를 AI 네이티브 기업으로 전환시키고 글로벌 시장에서 선두로 도약할 수 있도록 지원하겠습니다." 타이 맥커처 엔비디아 수석 부사장은 23일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 밝혔다. '이프카카오 2024'는 카카오 그룹이 AI와 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련된 행사로, 지난 22일부터 사흘간 진행되고 있다. 이날 맥커처 부사장은 '엔비디아 AI 네이티브 컴퍼니' 키노트 세션에서 엔비디아의 AI 전략과 카카오와의 협업 계획을 상세히 소개했다. 그는 AI가 촉발하고 있는 새로운 산업 혁명과 그 거대한 시장 규모에 대해 강조하며 카카오가 이 흐름의 중심에 설 수 있다고 전망했다. 그는 "AI는 약 100조 달러(한화 약 13경원) 규모의 새로운 산업 혁명을 일으키고 있다"며 "카카오는 AI 공장을 통해 데이터를 지식으로 전환해 다양한 산업 분야에서 혁신을 주도할 것"이라고 말했다. 현재 엔비디아는 카카오의 AI 모델 개발, 머신러닝 운영(MLOps) 플랫폼 구축, 서비스 통합 등을 지원하며 카카오의 AI 전환을 가속화하고 있다. 특히 최신 그래픽처리장치(GPU)인 'GH200'과 텐서RT 거대언어모델(LLM) 라이브러리를 활용해 카카오의 AI 모델 추론 성능을 극대화할 계획이다. 맥커처 부사장은 "현재 카카오의 알파팀과 인프라팀과 긴밀히 협력하고 있다"며 "참조 아키텍처와 블루프린트를 제공함으로써 카카오가 시장에 더 빠르게 진입할 수 있도록 돕겠다"고 설명했다. 또 그는 엔비디아의 그래픽 전송 네트워크(GDN)를 활용한 기술적 솔루션을 강조했다. GDN은 AI 모델의 동시 처리와 지연 시간 문제를 해결해 챗봇, 의료 분야, 경로 최적화 등 다양한 애플리케이션에서 높은 성능을 제공한다. 그는 "GDN은 동시성 문제와 지연 시간을 최소화해 사용자에게 최상의 경험을 제공한다"며 "카카오의 다양한 서비스에 적용돼 사용자 만족도를 높일 것"이라고 말했다. 엔비디아는 지난 1993년 비디오 게임을 좋아하는 컴퓨터 연구자들의 스타트업으로 출발한 바 있다. 게임 장비 회사로 시작했음에도 GPU 기술과 컴퓨팅 기술의 지속적인 발전으로 인해 AI와 가속 컴퓨팅 분야의 선두주자로 성장했다. 그중 하나의 핵심 기술로 맥커처 부사장은 '쿠다(CUDA)' 플랫폼을 꼽았다. 그는 "2006년부터 일관된 프로그래밍 인터페이스를 제공한 '쿠다' 플랫폼을 통해 개발자 생태계를 구축했다"며 "이를 기반으로 우리는 지속적인 AI 혁신을 지원해왔다"고 밝혔다. 이러한 기술력은 카카오의 글로벌 경쟁력 강화에도 큰 기여를 할 예정이다. 엔비디아의 기술 지원을 통해 카카오가 금융, 모빌리티 등 다양한 서비스에 AI를 적용할 수 있을 것이기 때문이다. 이를 통해 사용자에게 혁신적인 경험을 제공하고 편의성을 향상시킬 수 있다. 맥커처 부사장은 가속 컴퓨팅의 중요성을 다시 한번 강조했다. 그는 "우리가 운영하는 AI 홈페이지를 통해 누구나 최신 AI 모델을 경험하고 자신의 환경에 적용해 볼 수 있다"며 "가속 컴퓨팅은 AI의 필수 요소로, 이를 통해 전체 소유 비용을 줄이고 혁신을 가속화할 수 있다"고 말했다. 그러면서 "지속적으로 솔루션을 제공함으로써 카카오가 AI 분야에서 글로벌 리더로 도약하게끔 함께 노력할 것"이라고 강조했다.

2024.10.23 15:00조이환

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[써보고서] 괴물 카메라를 가진 폰 '샤오미 15 울트라'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현