• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인텔 AI 가속기'통합검색 결과 입니다. (6건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "이번엔 글로벌 공략"…AI 조직 개편 나선 네이버, 인텔 협업 더 높일까

"인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔습니다. (앞으로) 인텔과 함께 글로벌 시장을 타깃으로 다양한 인공지능(AI) 기반 클라우드 서비스를 공동 개발할 것입니다." 김유원 네이버클라우드 대표가 최근 인텔과의 협력 강화에 대한 의지를 드러내며 인공지능(AI) 반도체 전략 재편에도 속도를 내고 있다. 삼성전자와 인공지능(AI) 반도체 '마하' 주도권을 두고 갈등을 벌이다 사실상 프로젝트가 무산되자, 자체 반도체 개발보다 인텔과 협업으로 선회하는 분위기다. 2일 업계에 따르면 네이버클라우드는 지난 4월 조직 개편과 비정기 인사를 진행하며 반도체 조달 전략에 변화를 줬다. 하이퍼스케일 AI 부서에 소속된 이동수 이사를 전무로, 권세중 리더를 이사로 승진시킨 동시에 해당 조직 이름을 'AI 컴퓨팅 솔루션'으로 변경한 것이다. 특히 이 전무가 인텔과 네이버가 공동으로 설립한 AI 반도체 연구소를 총괄했다는 점에서 이번 승진에 관심이 쏠린다. 이 전무는 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하는 데 앞장 선 인물로, 삼성전자와 함께 추진하던 '마하' 프로젝트에도 관여를 한 바 있다. 하지만 지난 해 하반기께 삼성전자와의 협업이 물거품되면서 인텔, 카이스트와 힘을 합쳐 탈(脫)엔비디아 중심의 AI 생태계 확대를 위해 노력해 왔다. 업계 관계자는 "네이버는 초거대 AI인 '하이퍼클로바X'를 업데이트 하고 싶어도 클라우드 운영 비용 부담이 갈수록 커지면서 쉽지 않았던 상황"이라며 "인텔은 AI 칩 시장 진출을 위해 엔비디아 타도가 불가피한 만큼 양사의 니즈가 서로 맞는 상황"이라고 밝혔다. AI 컴퓨팅 솔루션 부서에서 실무를 총괄해왔던 권 이사도 승진과 함께 대외 협력과 기술 기획까지 맡게 되며 영향력을 키웠다. 권 이사는 한국과학기술원(KAIST)에서 전기 및 전자공학 박사 학위를 취득한 AI 전문가로, 2018년부터 3년간 삼성전자에서 일한 경험이 있다. 이곳에서 AI 가속기용 하드웨어 시뮬레이션과 검증, 시뮬레이터 개발, 딥러닝 모델 압축 등 관련 업무를 담당하다가 2021년 7월에 네이버로 자리를 옮겼다. 2023년 1월부터는 네이버클라우드에서 리더직을 맡으며 삼성전자와 '마하' 프로젝트를 이끌었다. 업계 관계자는 "네이버가 당초 추론 영역에 자체 AI 반도체를 적용해 AI 인프라 구축 비용을 낮추려는 계획을 갖고 있었지만, 삼성전자와 관계가 어긋난 후 AI 반도체 조달 전략 방향을 대거 수정했다"며 "칩 개발 비용과 양산 시점을 고려했을 때 채산성이 떨어질 것이란 예상이 나온 것도 프로젝트를 끝까지 추진하지 못한 이유"라고 말했다. 이에 네이버클라우드는 올 들어 AI 전략 방향을 대거 수정하고 나섰다. 그간 네이버의 AI 선행 기술을 총괄했던 하정우 전 네이버클라우드 AI 이노베이션 센터장이 지난 달 15일 대통령실 AI미래기획수석으로 발탁되며 인력 공백이 생기게 된 것도 다소 영향을 줬다. 이곳은 조만간 파편화 됐던 AI 조직을 하나로 통합해 업무 효율성을 높일 것으로 알려졌다. 업계 관계자는 "하 수석이 맡았던 자리는 네이버의 '소버린 AI' 전략에 대한 근거를 마련하기 위한 것으로, 하 수석은 재직 당시 기술보다는 대외 활동에 집중했던 것으로 안다"며 "네이버가 조만간 조직 개편을 통해 하 수석이 있었던 조직을 없애고, 그 자리도 없애면서 기술력 강화에 좀 더 역량을 집중시키려는 움직임을 보이고 있다"고 밝혔다. 그러면서 "최근 인텔, 카이스트와 함께 추진했던 '가우디 공동 연구'를 마무리 지은 후 양사가 협업과 관련해 새로운 계획 마련에 나선 것으로 안다"며 "이번 조직 개편도 이를 준비하기 위해 선제적으로 나선 것으로 보인다"고 덧붙였다. 일각에선 네이버클라우드가 인텔과의 협업 성과에 대해 기대 이상으로 만족하고 있는 만큼, 향후 인텔 AI 가속기인 '가우디'를 대거 도입할 것으로 예상했다. 실제 지난 5월 진행된 양사의 '가우디 공동 연구 성과 공유 간담회'에선 엔비디아 그래픽처리장치(GPU) 없이도 비용 효율성을 높인 결과물들이 대거 공개됐다. 특히 네이버클라우드는 데이터센터 환경에서 인텔 가우디를 기반으로 LLM 성능을 검증한 결과, 오픈소스 모델 '라마' 기준으로 엔비디아 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혀 주목 받았다. 또 이 자리에서 이 전무는 AI 반도체 생태계 강화를 위해 서비스 기업과 반도체 기업이 실험 결과를 나누고 기술적 문제를 공유할 수 있는 소통 창구 마련이 필요하다는 점을 강조하고 나서 향후 인텔과의 협업을 계속하겠다는 뜻을 내비쳤다. 다만 양사는 향후 프로젝트에 대한 구체적인 계획을 현재 내놓지는 못하고 있다. 최근 인텔 내부 리더십 교체에 다소 발목 잡힌 모양새다. 하지만 네이버클라우드는 AI 컴퓨팅 솔루션 부서를 향후 인텔과의 협업 강화 방향에 맞춰 운영할 것으로 예상된다. 네이버클라우드 관계자는 "인텔과의 산학 연구는 현재 일단락 된 상태로, 현재는 다음 단계를 위해 양사가 잠시 숨 고르기를 하고 있는 상황"이라며 "앞으로의 협력 방향은 인텔에서 결정하는 것에 따라 정해질 듯 하다"고 말했다. 인텔 관계자는 "최근 우리 측 최고경영자(CEO)가 변경되면서 네이버 측과의 협업 방향에도 향후 많은 변화가 있을 듯 하다"며 "양사의 협업 의지는 여전히 굳건한 상황으로, 제온 프로세서 기반의 서비스와 AI 기반 클라우드 서비스 쪽으로 초점을 맞춰 협업이 진행되지 않을까 싶다"고 설명했다. 김유원 네이버클라우드 대표는 지난 1일 '2025 인텔 AI 서밋 서울'에 참석해 "인텔 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 양사의 협력 범위와 깊이가 꾸준히 확장되고 있다"며 "(앞으로) 인텔과 기술 혁신, 해외 진출이라는 두 축에서 협력을 확대해 나갈 것"이라고 강조했다.

2025.07.02 16:34장유미

'인텔 지원군' 슈퍼마이크로, 고성능 '제온' 탑재한 서버로 시장 공략

인텔이 데이터센터 서버에 적용되는 칩 시장 내 입지 확대를 위해 적극 나서고 있는 가운데 슈퍼마이크로컴퓨터가 든든한 지원군으로 나섰다. 슈퍼마이크로는 인텔 제온 6900 시리즈 프로세서(P-코어) 기반의 고성능 X14 서버를 대량으로 출하하고 있다고 15일 밝혔다. 이 서버는 엄청난 양의 그래픽처리장치(GPU)를 요구하는 작업 환경은 물론, 대규모 AI, 클러스터 규모 고성능컴퓨팅(HPC) 등 고성능 워크로드에 최적화된 새로운 아키텍처와 업그레이드된 기술을 제공한다. 슈퍼마이크로 X14 서버는 수냉식 냉각 기능을 제공하는 GPU 최적화 플랫폼 등의 모델로 출시된다. 슈퍼마이크로는 점프 스타트 프로그램 등을 통해 X14 서버를 원격 테스트 및 검증할 수 있도록 지원하고 있다. 이번 일로 인텔이 시장 내 입지를 탄탄하게 굳힐 수 있을지도 주목된다. 현재 시장에서는 GPU 가속 서버의 73%가 호스트 CPU로 '인텔 제온'을 사용하고 있다. 인텔은 AI 가속기 시장에서도 CPU 리더십을 기반으로 고객사들이 보다 비용 효율적인 시스템을 구축할 수 있을 것으로 보고 있다. 찰스 리앙 슈퍼마이크로 사장 겸 최고경영자(CEO)는 "현재 대량으로 출하되고 있는 X14 서버는 전 세계 고객에게 강력한 기능과 향상된 성능을 제공한다"며 "새로운 애플리케이션에 최적화 기술을 탑재한 전체 제품군을 출시할 수 있던 것은 자사만의 서버 빌딩 블록 솔루션(Server Building Block Solutions) 설계 덕분"이라고 말했다. 이어 "다양한 규모의 솔루션을 공급할 수 있는 글로벌 역량과 타의 추종을 불허하는 자체 개발 수냉식 냉각 솔루션을 통해 업계를 최고 성능 컴퓨팅을 향한 새로운 시대로 이끌 것"이라고 덧붙였다.

2025.01.15 11:26장유미

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

네이버 "인텔 '가우디2' 기반 생성 AI 생태계 구축 목표"

인텔이 네이버와 AI 가속기 '가우디2'(Gaudi 2)를 이용한 LLM(거대언어모델)과 소프트웨어 생태계 확대에 나선다. 네이버클라우드는 인텔 개발자 클라우드 상에 구축된 가우디2 인스턴스를 활용해 LLM 구축 가능성을 평가하는 한편 국내 대학교·스타트업과 협업해 가우디2 기반 오픈소스 모델 등을 공동 개발할 예정이다. 11일 오전 서울 여의도 한경협회관에서 인텔코리아 주최로 진행된 질의응답에서 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버와 인텔 협력 결과물이 오픈소스로 제공되면 학계와 스타트업의 AI 소프트웨어 개발의 문턱을 크게 낮출 수 있다. 국산 소프트웨어 대중화 면에서 큰 의미가 있다"고 강조했다. ■ 네이버 "가우디2 기반 고성능 LLM 모델 개발 목표" 인텔은 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 네이버와 협업을 발표했다. 당일 기조연설에 등장한 하정우 네이버클라우드 AI 혁신센터장은 "생성 AI 생태계 확대를 위한 공동 연구소 설립, 가우디2 성능 평가, LLM(거대언어모델) 인스턴스 제공을 위해 인텔과 협업할 것"이라고 밝혔다. 하정우 혁신센터장은 "가우디2 가속기는 AI 전용 설계를 통해 와트당 성능과 총소유비용(TCO) 측면에서 뛰어난 성능을 낸다. 이번 인텔과 협력을 통해 고성능, 비용 효율 인프라 기반으로 강력한 LLM 기반 모델을 개발하는 것이 목표"라고 설명했다. ■ "가우디2, 하드웨어 특성·성능 면에서 좋은 평가" 이날 오전 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버는 현재 거의 모든 서비스에 AI 기술을 접목하고 있으며 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"고 설명했다. 이어 "많은 반도체를 평가하고 분석하는 과정에서 인텔 가우디2 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었고 이것을 향후 네이버 서비스와 융합하려면 생태계와 소프트웨어 확보가 필요하다"고 밝혔다. 이날 네이버클라우드 관계자는 "일부 언론 관측처럼 이번 협업에 네이버 사옥이나 데이터센터 내에 물리적인 공간을 확보하는 것은 아니다. 평가는 가우디2가 적용된 인텔 개발자 클라우드를 활용할 것"이라고 밝혔다. ■ "가우디2 기반 최적화 코드로 개발 문턱 낮출 것" 이동수 이사는 "현재 LLM 기반 코드 최적화는 고수준 언어가 아닌 어셈블리어(기계어) 수준에서 이뤄지지만 이런 기술력을 갖춘 엔지니어는 극히 드물다"고 설명했다. 이어 "엔비디아 쿠다 역시 하드웨어가 바뀔 때마다 코드를 바꿔야 한다. 이런 난점때문에 엔비디아 역시 별도 개발 없이 기업들이 그대로 쓸 수 있는 바이너리(실행파일)를 제공하고 있다"고 설명했다. 권세중 네이버클라우드 리더는 "국내 대학과 스타트업은 GPU나 가속기 활용이 어려워 연구에 어려움을 겪는다. 국내 상위권 대학 내 연구실과 협업을 논의중이며 이들이 가우디2 기반 코드를 오픈소스로 공개하면 어려움을 덜 수 있을 것"이라고 밝혔다. ■ "삼성전자 마하1도 활용... 생태계 확장이 우선" 이동수 이사는 "가우디2 역시 성능 대비 전력 효율성이 뛰어나며 LLM이나 서비스 운영에 여전히 장점을 지니고 있다. 이번 인텔과 협업은 소프트웨어나 생태계 확장에 중점을 둔 것이며 소프트웨어나 드라이버 등이 안정된 가우디2로 진행할 것"이라고 설명했다. 반도체 업계에 따르면 네이버는 LLM 처리에 특화된 삼성전자 AI 반도체 '마하1'을 이르면 올 연말부터 공급받아 활용할 예정이다. 이동수 이사는 "인텔과 삼성전자 모두 중요한 협력사이며 함께 생태계 확장을 하는 것이 목표다. 마하1이나 가우디2는 모두 초기 단계이며 모델 학습·훈련이나 추론 등 용도를 정해둔 것은 아니다"라고 밝혔다.

2024.04.11 11:15권봉석

인텔 "가우디3 AI 가속기, 오는 3분기 출시"

인텔이 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 차세대 AI 가속기 '가우디3'(Gaudi 3) 성능과 출시 일정을 공개했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 지난 해 말 팻 겔싱어 인텔 CEO가 가우디3 시제품을 공개하고 "'파워 온'(실제 작동)에 성공했다"고 밝히기도 했다. 가우디3는 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 이날 인텔은 가우디3가 전작 대비 BF16 연산 성능은 최대 4배, 메모리 대역폭은 1.5배 향상될 것이라고 밝혔다. 또 70억/130억개 매개변수를 지닌 라마2(Llama2) 모델 훈련 시간을 엔비디아 H100 대비 절반으로 줄였다고 설명했다. 인텔은 델테크놀로지스, HPe, 레노버, 슈퍼마이크로 등 주요 고객사에 이번 분기부터 시제품을 공급하고 3분기부터 대량 생산에 들어간다. 또 개발자 클라우드에 가우디3를 적용해 실제 출시 전 개발을 도울 예정이다.

2024.04.10 10:36권봉석

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성·LG전자 2분기 실적 잠정치 발표…9일 美 상호관세 유예 종료

EU "AI법 유예 없다"…내년까지 전면 시행 방침 유지

美, AI 반도체 우회 수출 차단…말레이시아·태국에도 규제 추진

전 국민 최대 45만원 '소비쿠폰' 지급…21일부터 신청

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.