• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'가우디'통합검색 결과 입니다. (20건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, AI GPU 전략 재정비...'실리콘 포토닉스'로 활로 모색

인텔이 립부 탄 신임 CEO 취임과 함께 AI 가속기 전략을 전면 재정비하고 있다. 특히 연이은 GPU 출시 지연과 취소로 흔들렸던 AI 하드웨어 로드맵을 새롭게 구축하는 데 총력을 기울이고 있다. 인텔은 가우디 시리즈를 통해 '가성비' 전략으로 AI 가속기 시장에 진입했지만 엔비디아와 AMD가 주도하는 GPU 시장에서 큰 성과를 거두지 못하고 있다. 립부 탄 CEO는 데이터센터와 묶여 있던 AI 부문을 독립 조직으로 분리하고 신임 CTO를 임명하는 등 조직 개편도 단행했다. x86 아키텍처와 광전송 기술의 결합이라는 독자적 접근법으로 대형 하이퍼스케일러 고객을 확보하는 데 집중할 전망이다. 출시 연기·취소·중단에 시달린 인텔 AI GPU 인텔의 AI 처리용 GPU 전략은 출시 시점 지연, 개발 취소, 출시 연기 등으로 계속해서 흔들리고 있다. 2019년부터 개발이 시작된 서버용 GPU '데이터센터 GPU 맥스'는 2021년 시제품 공개, 2022년 11월 출시 이후 미국 아르곤 국립연구소에 구축한 슈퍼컴퓨터 '오로라'(Aurora) 등에 탑재됐지만 지난 해 5월 단종됐다. 데이터센터 GPU 맥스 후속 제품인 '리알토 브리지'(Rialto Bridge) 출시 계획도 2023년 3월 좌절됐다. 이를 대신할 서버용 GPU '팰콘 쇼어'(Falcon Shore)는 개발을 마쳤지만 시장 출시를 포기했다. 지난 1월 말 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "관련 업계 피드백에 따라 팰콘 쇼어는 내부 테스트용으로만 활용하고 외부 판매하지 않을 것"이라고 밝혔다. 가우디 시리즈, 성능 아닌 '가성비'에 초점 현재 인텔의 AI 관련 주력 제품은 GPU가 아닌 AI 연산 가속기 '가우디'(Gaudi)다. 2019년 20억 달러(약 2조 5천530억원)에 인수한 이스라엘 스타트업 업체인 하바나랩스 기술력을 기반으로 2022년 '가우디2', 지난 해 6월 '가우디3'를 출시했다. 인텔은 가우디 시리즈의 강점을 성능이 아닌 '가격 대비 성능'으로 잡고 있다. 가우디3는 엔비디아 H100 기반 시스템 대비 총소유비용(TCO)이 최대 2.5배 더 우수하며, 후속 제품인 H200 대비 소형 AI 모델에서 60%, 대형 모델에서도 최대 30% 더 효율적이라는 것이다. 그러나 경쟁사인 AMD가 AI 가속용 GPU인 MI300 시리즈로 틈새 시장을 꾸준히 넓히는 가운데 가우디3의 실제 판매 실적은 자체 예상 대비 미미하다. 인텔이 AI 소프트웨어 개발을 위해 제공하는 오픈소스 기반 '원API'가 가우디 시리즈를 제한적으로 지원하는 것도 문제다. 립부 탄 인텔 CEO, AI 전략 전면 재수정 이에 지난 3월 취임한 립부 탄 인텔 CEO는 GPU를 포함해 AI 전략 전반 재조정에 나섰다. 먼저 인텔 프로덕트 그룹 내 '데이터센터·AI'(DCAI) 부문에서 AI 부문을 독립시켰다. 또 네트워크·엣지(NEX) 담당 사친 카티(Sachin Katti) 부사장을 최고기술책임자(CTO)와 AI 담당 최고 책임자로 승진시켰다. 지난 주 실적발표 이후 컨퍼런스콜에서 립부 탄 CEO는 "AI 에이전트와 추론 모델이 정의하는 새로운 컴퓨팅 시대에 진입하는 가운데 새로운 AI 워크로드에 대응하기 위해 제품 로드맵을 조정하고 있다"고 설명했다. 재규어 쇼어에 실리콘 포토닉스 통합 가능성 ↑ 재규어 쇼어(Jaguar Shore)는 출시가 좌절된 팰콘 쇼어 후속 제품으로 내년 출시 예정이다. 인텔은 재규어 쇼어에 광전송 기술 '실리콘 포토닉스'를 결합하는 방안도 고려중이다. 광섬유와 레이저를 이용한 데이터 전송은 구리선 대비 더 먼 거리로 대용량 데이터를 주고 받을 수 있다. 이를 처리하려면 광신호를 데이터로 변환해 주고 받는 장치인 '트랜시버'(Transceiver)가 반드시 필요하다. 실리콘 포토닉스는 트랜시버 없이 광섬유를 직접 실리콘에 연결해 데이터를 주고 받기 위한 기술이다. 여러 GPU로 구성되는 클러스터의 데이터 처리량을 극적으로 향상시킬 수 있다. 인텔은 지난 해 6월 광통신 전시회 'OFC 2024' 기간 중 단방향 최대 256GB/s(2048Gbps), 양방향 512GB/s(4096Gbps)로 데이터를 전송하는 광학 컴퓨트 인터커넥트(OCI) 칩렛을 공개하고 시연하기도 했다. 인텔 "x86·실리콘 포토닉스, AI 기회 넓힐 것" 인텔은 재규어 쇼어와 함께 고성능 x86 프로세서, 실리콘 포토닉스, 타일(Tile) 단위 칩렛 설계, 패키징 기술을 활용해 신규 고객사를 확보할 예정이다. 미셸 존스턴 홀타우스 인텔 프로덕트 그룹 CEO는 "실리콘 포토닉스는 랙 스케일 대형 아키텍처에서 매우 중요한 요소이며 인텔은 파운드리 고객사에 실리콘 포토닉스 기술을 제공할 수 있는 유일한 회사"라고 설명했다. 이어 "실리콘 포토닉스가 랙 스케일 아키텍처 구축 기회를 더욱 넓혀줄 것으로 매우 낙관한다. 또한 오픈 x86 역시 강점이다. 고객들은 x86 생태계와 그 소프트웨어를 선호한다. x86으로 AI 인프라를 구축할 수 있다면 매우 관심이 크다. 이미 대형 맞춤형 설계 계약을 하나 체결했고, 추가 계약도 기대한다"고 덧붙였다.

2025.04.29 14:25권봉석

네이버-인텔 협력, 결실 맺었다…'가우디2', 엔비디아 'A100' 성능 추월

네이버와 인텔이 인공지능(AI) 반도체 협업을 진행하는 가운데 성능 실험 결과에서 인텔의 '가우디2'가 엔비디아의 'A100' 대비 더 높은 처리량과 짧은 처리시간을 보였다. 이에 업계 내부에서는 '가우디'가 가격과 수급 문제를 동시에 잡을 수 있는 AI칩의 대안이라는 분석을 내놓고 있다. 8일 스퀴즈비츠가 공개한 '시냅스AI v1.19' 실험 결과에 따르면 '가우디2'는 이전 버전인 v1.18에서 성능이 부족했던 '어텐션 커널(Attention Kernel)' 부분을 크게 개선하면서 '엔비디아 A100'보다 최대 40% 높은 처리 속도를 기록했다. 일례로 1천개의 토큰을 입력데이터로 처리하는 경우 '가우디2'는 초당 3천600개의 토큰을 처리하며 처리 시간도 28ms(밀리초)로 'A100'의 초당 3천400개, 33ms보다 빨랐다. 토큰 개수를 2천개(2K)로 늘려도 '가우디2'는 초당 2천900개의 작업을 처리하고 38밀리초(ms)가 걸려 'A100'의 초당 2천750개, 42밀리초보다 우수한 성능을 보여줬다. '가우디2'의 성능이 크게 향상된 이유는 '연속형 페이지 어텐션(Contiguous PagedAttention)'과 '파이프라인 페이지 어텐션(Pipelined PagedAttention)'이라는 기술 덕분이다. 이 기술은 메모리를 더 효율적으로 활용하고 연산 작업을 동시에 여러 개 처리할 수 있어 이전에 부족했던 '어텐션 커널(Attention Kernel)'의 성능을 크게 개선했다. 네이버와 여러 스타트업이 함께 개발한 소프트웨어가 이 성능 개선에 중요한 역할을 했다는 평가도 나왔다. 스퀴즈비츠는 이 결과가 독립적으로 이뤄진 테스트임을 강조하며 '가우디2'는 가격 대비 성능 면에서 주목받는 AI 칩임을 지적했다 하정우 네이버 센터장은 페이스북을 통해 "'가우디'가 쓸 만지 의문을 가지시는 분들께 스퀴즈비츠의 실험 결과를 공유한다"며 "적어도 인퍼런스에서 경쟁력은 확실히 보여 경기 침체가 우려되는 상황에서 가성비 좋은 '가우디'가 꽤 괜찮다"고 밝혔다. 이같은 하 센터장의 발언은 그래픽처리장치(GPU) 시장을 사실상 독점해온 엔비디아에 대한 대안 마련에 네이버가 적극적으로 나서고 있음을 시사한다. 인텔과 스퀴즈비츠가 진행한 최적화 연구 과정에 네이버가 적극 관여해 거대언어모델(LLM) 서비스 요구사항과 평가 방법을 전달한 점도 주목받고 있다. 네이버와 인텔의 협업은 지난해 4월부터 본격화됐다. 엔비디아 칩의 독주로 인한 가격 폭등과 칩 공급 불안이 대두되면서 LLM 학습과 추론에 필요한 인프라를 안정적으로 마련해야 한다는 요구가 커진 것이다. 이에 인텔은 가우디 칩을 개발·공급하고 네이버는 대학·스타트업과 함께 이를 활용한 소프트웨어 생태계 조성에 주력하며 새로운 AI 가속기 대안을 구축하고 있다. 이번 '가우디2'가 엔비디아 'A100'을 앞서는 성능을 입증함으로써 '가성비 AI 칩 시대'가 열릴 것이라는 기대가 업계에서는 한층 높아졌다. 가우디 기반 소프트웨어는 오픈소스를 지향한다는 점이 특징이다. 네이버와 인텔은 스타트업, 대학 등 다양한 파트너와 협력해 오픈소스 플랫폼을 개발하고 있으며 보다 많은 개발자와 기업이 AI 반도체 생태계에 참여할 수 있도록 지원하고 있다. 이와 더불어 지난해 팻 겔싱어 인텔 대표의 사임 소식이 전해졌지만 양사 협력에는 큰 영향을 미치지 않은 것으로 관측된다. 또 '가우디3'로의 협력 확대 가능성도 열려있어 LLM 시장에서 네이버·인텔 연합이 지속적으로 경쟁력을 확보할 수 있다는 업계 전망도 나온다. 겔싱어 대표의 사임과 '가우디 3' 협력 가능성에 대한 기자의 질문에 네이버 관계자는 "현재까지 협업이 차질 없이 진행되고 있다"며 "다만 '가우디 3'로의 협력 확장은 아직 구체적으로 확정된 바 없다"고 밝혔다.

2025.01.08 17:11조이환

네이버 D2SF에서 투자한 스타트업 10곳 'CES 2025' 참여

네이버 D2SF은 자사가 투자한 스타트업 10팀이 세계 최대 IT·가전 기술 전시회 'CES 2025'에 참여한다고 27일 밝혔다. 대부분은 이미 글로벌에서 비즈니스를 활발히 진행 중인 곳으로, 이번 'CES 2025'를 통해 글로벌 존재감을 한층 넓히고 시장 확대에 나설 것으로 기대된다. 네이버 D2SF가 투자한 스타트업 중 이번 'CES 2025'에 참가하는 곳은 ▲젠젠에이아이 ▲큐빅 ▲가우디오랩 ▲누비랩 ▲제제듀 ▲더웨이브톡 ▲레티널 ▲블루닷 ▲모빌테크 ▲뷰런테크놀러지로, AI부터 몰입형 기술(Immersive Technology), 모빌리티, 디지털트윈에 이르기까지 다양한 기술 분야를 아우르고 있다. 이 중 ▲AI 오디오 기술 스타트업 '가우디오랩' ▲AI 합성 데이터 기술 기업 '젠젠에이아이' ▲AI 식습관 관리 솔루션을 개발한 '누비랩' ▲미생물 센서 전문 스타트업 '더웨이브톡'은 'CES 2025 혁신상'을 수상하기도 했다. 먼저, AI 영역에서 젠젠에이아이는 국방・방위, 보안・관제 등 도메인 특화 합성 데이터 생성 플랫폼 '젠젠스튜디오'와 이를 통해 생성한 합성 데이터를 선보인다. 큐빅은 별도의 프롬프트 입력 없이 간단한 마우스 조작만으로 합성 데이터를 제작할 수 있는 플랫폼과 이를 기반으로 데이터 분석, 검증 등을 이어갈 수 있는 azoo 솔루션을 전시한다. 각 버티컬 분야에 특화해 AI 솔루션을 개발한 스타트업들도 출전한다. 먼저 오디오 분야에서 가우디오랩은 혁신상을 수상한 기술을 적용해, AI 기반 저작권 문제 음원 탐지 및 교체 솔루션 '가우디오 뮤직 리플레이스먼트'의 데모를 선보인다. 누비랩은 어린이용 AI 식습관 코칭 솔루션 '냠냠키즈'를, 에듀테크 스타트업 제제듀는 AI 풀이 첨삭 및 맞춤 학습 플랫폼 '체리팟'을 전시할 계획이다. 더웨이브톡은 혁신상을 수상한 실시간 박테리아 측정 장비를 공개한다. 몰입형 기술 영역에서 레티널은 독자적인 광학 모듈 기술을 기반으로 글로벌 통신사 그룹과 협력한 결과물인 AR 스마트글래스를 시연하고, 블루닷은 영상 콘텐츠 품질 개선 및 용량 최적화 솔루션을 선보인다. 모빌리티 및 디지털 트윈 영역에서 모빌테크는 라이다 센서 기술을 활용해 실제 환경을 디지털 트윈으로 구축하는 과정과 데이터 수집 및 매핑 디바이스 'Replica Lite'의 실물을 전시한다. 자율주행 기술 스타트업 뷰런테크놀로지는 차세대 라이다 센서인 Vue X를 최초 공개한다. 양상환 네이버 D2SF 센터장은 “네이버 D2SF 전체 포트폴리오 110여 개 팀 중에서 약 80%가 이미 글로벌 비즈니스에 본격 나서고 있을 만큼 글로벌 시장 공략에 대한 스타트업의 니즈가 더욱 높아지고 있는 상황”이라며 “내년에는 북미 현지 스타트업을 한층 공격적으로 발굴하고, 현지 기업·투자사·창업가 네트워크 강화해 한국 스타트업의 글로벌 성장을 적극 돕겠다”라고 말했다.

2024.12.27 09:21안희정

인텔, 인플렉션 AI와 기업용 AI 시스템 구축 협력

인텔은 8일 인플렉션 AI와 기업용 AI 시스템 '인플렉션 포 엔터프라이즈' 구축을 위해 협력한다고 밝혔다. 인플렉션 포 엔터프라이즈는 공감형, 대화형, 직원친화 AI 기능을 제공하는 시스템으로 가우디 AI 가속기와 인텔 타이버 AI 클라우드 기반으로 구축된다. 인플렉션 AI는 하드웨어 테스트와 모델 구축 등 초기 비용을 절감하며 클라우드를 활용해 각 기업에 적합한 AI 환경을 구축할 수 있다. 또 Pi 응용프로그램으로 강화된 미세 조정 및 인간 피드백 기반 강화학습으로 조직 전체 생산성과 일관성을 향상시킨다. 인텔과 인플렉션 AI는 인텔이 이 솔루션의 초기 고객이 될 것으로 예상하며, 인텔 내부에 인플렉션 포 엔터프라이즈를 도입하기 위해 협력하고 있다. 인플렉션 포 엔터프라이즈는 현재 AI 클라우드에서 작동하며 내년 1분기부터 가우디3 AI 가속기를 탑재한 AI 어플라이언스도 출시 예정이다. 이 어플라이언스는 가우디3 기반으로 엔비디아 등 경쟁사 제품 대비 최대 2배 높은 가격 대비 성능, 128GB 고대역폭 메모리를 활용해 총소유비용(TCO)을 줄일 수 있다. 저스틴 호타드 인텔 DCAI(데이터센터·AI) 사업 총괄(수석부사장)은 "이번 인플렉션 AI와 전략적 협업을 통해 즉각적이고 높은 영향력을 발휘하는 AI 솔루션의 새로운 기준을 제시하고 있다"고 밝혔다. 테드 쉘튼 인플렉션 AI 최고운영책임자(COO)는 "엔터프라이즈 조직은 단순한 일반 상용 AI 이상의 것이 필요하지만, 스스로 모델을 파인 튜닝할 전문성이 부족하다. 이번 협력을 통해 이러한 문제를 해결하는 AI 시스템을 제공하게 되었으며, 인텔 가우디에서 얻는 성능 향상을 통해 모든 기업의 요구를 충족하도록 확장할 수 있다"고 밝혔다. 인텔과 인플렉션 AI는 개발자들이 강력하고 인간 중심적인 인플렉션 3.0 시스템을 활용하여 중요한 소프트웨어 도구를 생성할 수 있는 인플렉션 포 엔터프라이즈를 구축할 수 있도록 지원 예정이다.

2024.10.08 09:44권봉석

인텔 "제온6, AI·HPC 데이터센터에 최적 제품"

"현재 AI 관련 처리 시장이 주로 GPU에 주목하고 있지만 AI는 여전히 초기 단계이며 CPU 역시 GPU 못지 않게 다양한 작업을 처리한다. 엔터프라이즈 데이터베이스, 대형 ERP(전사적 자원관리) 처리에는 여전히 CPU 코어의 성능 향상이 중요하다." 26일 오전 서울 여의도에서 진행된 제온6 프로세서·가우디3 AI 가속기 브리핑에서 나승주 인텔코리아 상무가 제온6 프로세서 강점에 대해 이렇게 설명했다. 인텔이 25일 전세계 출시한 제온6 6900P 프로세서는 고성능 P(퍼포먼스) 코어를 최대 3개 타일에 분할해 집적하는 방식으로 한 소켓 당 코어 수를 최대 128개까지 늘렸다. 2018년 이후 코어 수를 앞세워 서버·데이터센터 시장을 파고든 AMD 에픽(EPYC) 프로세서와 동등한 수준까지 올라왔다. 이날 나승주 인텔코리아 상무는 "제온6 6900P 프로세서는 코어당 고성능 제품을 원하는 고객을 위한 제품이며 조만간 주요 OEM에서 오늘 출시한 인텔 제품을 탑재한 서버를 국내 출시 예정"이라고 밝혔다. ■ 인텔 3 기반 코어 다이 3개로 최대 128코어 구현 제온6 6900P 프로세서는 프로세서 코어를 포함한 컴퓨트 다이(Die)는 EUV(극자외선)를 활용한 인텔 3(Intel 3) 공정에서, 메모리와 각종 가속기를 포함한 I/O 다이는 인텔 7(Intel 7) 공정에서 생산했다. 나승주 상무는 "성능과 집적도가 중요한 컴퓨트 다이는 최신 공정을, 제조 원가와 작동 주파수 등에서 요구사항이 큰 I/O 다이는 한 세대 전 공정인 인텔 7을 활용한 것"이라고 설명했다. 최대 128개 코어를 탑재할 수 있는 UCC는 컴퓨트 다이 3개, 최대 86개 코어를 탑재할 수 있는 XCC 모델은 컴퓨트 다이 2개, 최대 48개 코어를 탑재하는 HCC는 컴퓨트 다이 1개로 구성된다. PCI 익스프레스 5.0 레인(lane, 데이터 전송 통로)와 메모리 대역폭을 축소한 LCC 모델은 최대 16개 코어를 탑재한다. 각 타일은 반도체 평면 연결 기술인 인텔 EMIB로 연결된다. 이 중 128개 코어 탑재 UCC 모델이 우선 공급되며 나머지 모델은 내년 초부터 시장에 공급된다. ■ MRDIMM·CXL 2.0 타입3로 최대 3TB 메모리 운용 가능 인메모리 데이터베이스 등 대용량 데이터 처리시 가능한 한 많은 데이터를 메모리에 올려야 처리 효율을 높일 수 있다. 제온6 6900P는 DDR5-6400MHz와 MRDIMM 8400MHz 메모리와 CXL 2.0 타입3를 활용해 최대 3TB 메모리를 운용할 수 있다. MRDIMM(멀티랭크 DIMM)은 디램 메모리 집적도를 두 배로 높여 최대 접근 가능한 메모리 용량을 늘려서 성능을 30-50% 가량 높일 수 있다. 나승주 상무는 "현재 삼성전자, SK하이닉스, 마이크론 등 주요 메모리 제조사와 협업하고 있다"고 설명했다. CXL(컴퓨트 익스프레스 링크) 기술은 PCI 익스프레스 기반으로 디램을 유연하게 확장할 수 있다. 제온6는 CXL로 연결된 메모리 모듈까지 메모리와 직접 연결된 상태로 활용할 수 있다. 나승주 상무는 "데이터센터 업데이트 후 남은 DDR4 메모리를 모아 CXL 2.0 방식으로 연결하면 메모리 탑재 비용은 줄이면서 더 큰 메모리 용량을 쓸 수 있고 성능 저하는 프로세서와 직접 연결된 메모리 대비 3%에 불과해 효율적"이라고 밝혔다. ■ AI 처리 확대 위한 명령어 추가... BF16/FP16 모두 지원 AI 처리의 대부분은 행렬(matrix) 형태로 구성된 데이터를 처리하는 과정으로 진행된다. 제온6 P시리즈는 이를 처리하는 내장 가속기인 AMX(고급 벡터 확장)에 FP16(부동소수점 16비트) 처리 기능을 추가했다. 나승주 상무는 "제온6 6972P(96코어)는 메타 라마2(Llama-2) 70억 매개변수 챗봇, GPT-J 60억 매개변수 요약 등 AI 추론 실행시 전 세대 대비 2배 이상, AMD 에픽 9654(96코어) 대비 최대 5배 이상 빠른 성능을 낸다"고 밝혔다. 이어 "GPU를 이용한 AI 가속시에도 전통적인 서버용 프로세서는 데이터 전처리, 전송은 물론 CPU에서 더 효율적으로 처리 가능한 AI 워크로드를 실행하고 있으며 엔비디아 HGX/MGX와 조합해 더 나은 성능을 낼 수 있다"고 밝혔다. ■ "가우디3, 개방형 생태계에 최적화" 인텔은 가우디3 AI 가속기도 10월부터 국내외 시장에 공급 예정이다. 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 나승주 상무는 "가우디3 성능 비교 결과 80억 매개변수 내장 메타 라마3 처리에서 엔비디아 H100 대비 9% 더 나은 성능을 내지만 가격은 2/3 수준이다. 비용 대비 효율성은 약 2배이며 향후 소프트웨어 최적화로 더 개선될 것"이라고 밝혔다. 그는 또 "가우디3는 업계 표준인 이더넷 기술을 활용하는 개방형 생태계에 최적화된 제품이며 가격 효율성 측면에서 강점을 지녔다. 엔비디아 등 특정 제조사에 종속되는 것을 원하지 않는 고객사에게 충분한 장점을 제공할 것"이라고 덧붙였다.

2024.09.26 16:26권봉석

인텔, P코어 128개 탑재 제온6 6900P 프로세서 출시

인텔이 24일(미국 현지시간) 고성능 P(퍼포먼스) 코어만 모은 제온6 6900P 프로세서와 가우디3(Gaudi 3) AI 가속기를 출시했다. 인텔은 지난 해 제온 프로세서 라인업을 성능 중시 P코어 탑재 제품과 고효율·저전력 E코어 탑재 제품으로 개편한다고 밝힌 바 있다. 탑재한 코어가 다르지만 DDR5 메모리와 PCI 익스프레스 5.0, CXL 등 동일한 규격을 지원한다. 제온6 6900P는 HPC(고성능 컴퓨팅)과 모델링/시뮬레이션, 빅데이터와 인메모리 분석 등 고성능이 필요한 작업 대상으로 최적화됐다. 3나노급 인텔 3(Intel 3) 공정에서 생산한 P코어를 최대 128개 탑재했다. 인텔은 제온6 6900P와 함께 차세대 AI 가속기인 가우디3(Gaudi 3)를 공개하고 오는 4분기부터 공급한다고 밝혔다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로, 가우디3 가속기 사이 데이터 전송은 업계 표준 기술인 200Gbps 이더넷으로 처리한다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 현재 전세계 10개 이상의 글로벌 공급업체가 가우디3 기반 솔루션을 공급 계획중이다. 인텔은 델테크놀로지스, 슈퍼마이크로 등 주요 서버 업체와 함께 제온6 프로세서와 가우디3로 구성된 검색-증강 생성(RAG) 맞춤형 솔루션을 공급 예정이다. IBM은 내년부터 자체 데이터센터와 클라우드를 혼합한 하이브리드 환경과 온프레미스 환경에 모두 가우디3를 적용 예정이며 왓슨x 클라우드에도 가우디3를 통합 예정이다.

2024.09.25 09:04권봉석

인텔 가우디3 AI 가속기, 신규 고객사로 IBM 확보

인텔이 곧 출시할 AI 가속기 '가우디3'(Gaudi 3)가 대형 고객사인 IBM을 확보했다. 양사는 29일(미국 현지시간) 공동으로 "IBM 클라우드 고객사에 내년 초부터 가우디3를 제공할 것"이라고 밝혔다. IBM은 자체 데이터센터와 클라우드를 혼합한 하이브리드 환경과 온프레미스 환경에 모두 가우디3를 적용 예정이며 왓슨x 클라우드에도 가우디3를 통합 예정이다. 현재 대부분의 클라우드 서비스 제공업체(CSP)가 이미 시장을 선점한 엔비디아 하드웨어·소프트웨어 환경에 종속된 상황이다. 인텔은 이런 상황에서 전세계 10위권 내 CSP 중 하나인 IBM을 가우디3 고객사로 확보해 고민을 덜었다. ■ 가우디3, 엔비디아 대비 납기·가격 면에서 강점 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급(N5) 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간을 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama 2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공 예정이다. ■ AI 운영 비용 부담 느끼는 CSP 고객사 겨냥 인텔은 올 3분기 출시할 가우디3 고객사 확보를 위해 많은 노력을 기울였다. 지난 6월 컴퓨텍스 2024 기조연설 당시 팻 겔싱어 CEO는 가우디3의 가격 대비 성능을 강조하며 "덜 쓰고 더 얻을 수 있다"고 강조했다. 인텔은 "인텔과 IBM은 서버·데이터센터용 5세대 제온 스케일러블 프로세서(에메랄드래피즈)와 결합한 가우디3를 통해 총소유비용(TCO)을 낮추면서 AI를 활용할 수 있는 수단을 제공하는 것이 목적"이라고 설명했다. 이어 "5세대 제온과 가우디3는 데이터센터와 클라우드의 기업용 AI 워크로드를 지원하면서 소프트웨어 스택 제어, 워크로드와 응용프로그램 관리 단순화, 비용 절감을 실현할 수 있을 것"이라고 덧붙였다. ■ 올해 가우디3 공급 매출도 증가 예상 앨런 피콕(Alan Peacock) IBM 클라우드 총괄 매니저는 "IBM 클라우드에서 인텔 가우디3 가속기를 활용하면 고객들에게 비용 성능을 최적화하는 유연한 AI 솔루션을 제공할 수 있다"고 밝혔다. 양사는 클라우드와 온프레미스의 장점을 결합한 IBM 가상프라이빗클라우드(VPC)에 가우디3를 통합해 기존 x86 기반 인프라 구축 기업의 응용프로그램 실행 속도와 이용자 경험을 개선할 예정이다. 인텔은 올 한해 가우디3 공급으로 5억 달러(약 6천672억원) 매출을 올릴 것으로 예상했다. 이번 IBM 공급 계약으로 가우디3 매출도 늘어날 것으로 보인다.

2024.08.30 09:40권봉석

신세계I&C가 밝힌 AX 시대 클라우드 최적화 전략은?

신세계아이앤씨가 AX(AI Experience) 시대를 맞아 클라우드를 최적화하기 위한 전략을 공유하는 자리를 가졌다. 신세계아이앤씨는 최근 클라우드 세미나 '저니 투 더 클라우드(JOURNEY to the CLOUD)'를 열었다고 26일 밝혔다. 이번 세미나는 AI 기술 확산되며 다양한 클라우드 아키텍처 기반의 인프라로 복잡성이 심화되는 상황에서 효율적인 클라우드 인프라 전략을 논의하기 위해 마련됐다. 올해로 2회째를 맞이한 이번 행사에는 뉴타닉스, 인텔코리아 등 클라우드 파트너사와 함께 대상정보기술, 삼양데이터시스템, 동원산업, 네파 등 주요 기업 관계자 60여 명이 참석했다. 신세계아이앤씨는 AX 시대 클라우드 최적화 전략을 위해 유연성, 비용 효율성, 보안성이 가장 중요하다고 설명했다. 하이브리드·멀티 클라우드에 최적화된 프로세스로 운영 효율을 높이는 것은 물론 다양한 AI 서비스 별 맞춤형 클라우드 전환도 민첩하게 대응할 수 있는 전략이 필요하다고 강조했다. 또 '스파로스 CMP'를 활용해 프라이빗 클라우드부터 퍼블릭 클라우드 자원까지 통합 관리하며 하이브리드, 멀티 클라우드 전략까지 확장할 수 있는 로드맵도 제시했다. 이 밖에도 인텔의 AI 가속기 '가우디(Gaudi)' 기반 개방형 생태계 구축을 위한 전략과 함께 엔터프라이즈 전반에서 고객의 AI 여정을 가속화할 수 있는 뉴타닉스의 플랫폼 'GPT 인어박스(GPT in a box)'에 대한 구축 사례도 공개했다. 신세계아이앤씨는 가상화 솔루션 이관부터 프라이빗 클라우드, 퍼블릭 클라우드, 하이브리드 클라우드까지 클라우드 전 분야에 대해 컨설팅, 인프라 구축은 물론 클라우드 네이티브 애플리케이션 개발, 운영 분야까지 클라우드 인프라 풀스텍 서비스를 제공하며 클라우드 비즈니스를 꾸준히 확대 중이다. 형태준 신세계아이앤씨 대표는 "다양한 AI 기술 기반의 서비스가 빠르게 변하고 확산되면서 수많은 데이터와 파라미터 학습에 대응할 수 있는 가변적인 인프라 설계와 비용 효율성까지 고려한 클라우드 전략이 필요한 시점"이라며 "신속하고 안정적인 데이터 처리 역량은 물론, 비용 효율성, 유연성을 향상시켜 기업의 디지털 전환을 더욱 가속화할 수 있도록 지원할 것"이라고 말했다.

2024.06.26 10:29장유미

[유미's 픽] "이젠 수익 내자"…삼성 제친 '반도체 1위' 인텔, SW서도 존재감 드러낼까

"소프트웨어 사업에서 이젠 수익을 내야 합니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 2021년 6월 VM웨어에서 최고기술책임자(CTO)로 활동하고 있던 그렉 라벤더를 인텔 CTO로 영입하며 이처럼 주문했다. 그간 인텔이 컴퓨터 하드웨어 회사로 꾸준한 성장세를 보였지만, 소프트웨어 시장에선 크게 존재감을 드러내지 못했던 탓이다. 인텔에서 VM웨어로 자리를 옮겼다가 다시 인텔로 돌아온 겔싱어 CEO는 소프트웨어에서 수익을 내지 못하고 있는 것이 답답하게만 느껴졌다. 19일 업계에 따르면 겔싱어 CEO가 합류하기 전인 2020년 인텔의 전체 매출 700억 달러 중 소프트웨어 매출은 1억 달러 정도에 불과했다. 겔싱어 CEO는 취임 직후 소프트웨어 사업을 강화하기 위해 자체 개발 및 인수에 나서 관련 매출을 50%까지 늘리겠다는 목표를 세웠다. 이를 위해 겔싱어 CEO는 VM웨어에서 한솥밥을 먹던 그렉 라벤더 CTO를 지난 2021년 6월 인텔에 합류시켰다. 또 소프트웨어를 담당하는 부문과 고성능 컴퓨팅 및 그래픽에 특화된 부문도 새롭게 만들었다. 겔싱어 CEO는 인텔에서 30년 가까이 근무한 후 스토리지 업체 EMC를 거쳐 9년 간 엔터프라이즈 클라우드 소프트웨어 업체인 VM웨어 CEO로 있으며 소프트웨어 사업의 중요성을 일찌감치 알아봤다. 이에 겔싱어 CEO는 새롭게 조직한 인텔의 소프트웨어 및 고급 기술 그룹(Software and Advanced Technology Group)을 라벤더 CTO가 이끌도록 했다. 라벤더 CTO는 VM웨어 전에 시티그룹, 시스코, 선 마이크로시스템즈 등을 거쳤다. 라벤더 CTO 외에도 인텔 직원 중 소프트웨어 개발자들이 차지하는 비중은 상당하다. 실제 지난 2022년 기준 전 세계 12만 임직원 중 14%인 1만7천여 명이 소프트웨어 엔지니어로 일했는데, 이는 전 세계 빅테크 기업 중 톱3에 꼽히는 규모다. 현재는 1만9천여 명으로 늘었다. 밥 오도넬 테크낼리시스 리서치 수석 애널리스트는 "많은 이들이 인텔에 대해 잘 모르는 사실 중 하나는 하드웨어 엔지니어보다 소프트웨어 엔지니어가 더 많다는 것"이라며 "IoT와 엣지 및 HPC를 확장하는 데에는 방대한 소프트웨어가 필요하고, 이를 조직적으로 뒷받침하는 것이 도움이 된다"고 말했다. 인텔은 삼성전자와 세계 1, 2위를 다투는 종합 반도체 기업으로 잘 알려져 있지만, 반도체를 설계하고 제조하는 하드웨어 기술력뿐 아니라 소프트웨어에도 역량을 꾸준히 쏟고 있다. 기술 개발 축이 소프트웨어 쪽으로 옮겨가고 있다는 것을 빨리 인지한 덕분이다. 실제 2009년에는 임베디드 소프트웨어 업체인 윈드리버를 8억8천400만 달러에, 2011년에는 보안 업체인 맥아피를 76억8천만 달러에 인수했다. 인텔은 반도체 사업 역량 강화를 위해 필요하다는 명분을 내세우며 두 회사를 모두 사들였다. 하지만 인텔은 예상과 달리 맥아피 보안 기술을 인텔칩에 통합하는 작업을 제대로 이뤄내지 못했다. 결국 2016년에는 사모펀드에 인텔이 갖고 있던 맥아피 주요 지분을 42억 달러에 매각해 아쉬움을 남겼다. 임베디드 칩 비즈니스를 강화하기 위해 인텔이 인수했던 윈드리버 역시 제대로 사업을 펼치지 못한 채 2018년 사모펀드에 재매각됐다. 이처럼 뼈 아픈 과거를 묻고 인텔은 같은 해 개방형 통합 프로그래밍 모델 '원API(OneAPI)'를 적극 개발하고 나섰다. 이는 개발자가 CPU(중앙처리장치), GPU(그래픽처리장치), FPGA(프로그래밍이 가능한 반도체) 등 어떤 하드웨어를 사용해도 단 하나의 코드만으로 교차가 된다는 점이 강점으로 꼽혔다. 덕분에 칩별로 코드를 달리 개발해야 하는 시간이 줄었을 뿐 아니라, 인텔이 개발자 소스 코드 오류점검(디버깅), 기계어 번역(컴파일러) 등 소프트웨어 성능 최적화를 위한 여러 도구를 모두 무료로 오픈해 비용도 훨씬 절감됐다. 하지만 수익에는 크게 도움되지 못했다. 이에 인텔은 겔싱어 CEO 체제에서 수익성 확보를 위해 다른 면모를 보여주고 있다. 특히 서비스형 소프트웨어(SaaS) 사업을 앞세워 완제품보다는 소프트웨어 제작자들을 겨냥한 제품과 서비스들을 전진배치시키는 모습을 보였다. 매니지드 AI 서비스인 씨엔브이알지.아이오(Cnvrg.io)와 클라우드 최적화 서비스인 그래뉼레이트(Granulate) 등이 대표적인 예로, 다양한 유형 데이터센터 인프라들에 걸쳐 워크로드를 관리하고 최적화할 필요가 있는 조직들을 위해 SaaS를 제공하고자 힘썼다. 겔싱어 CEO는 2022년 5월 개최한 비전 2022 행사에서 "보다 많은 SaaS를 제공할 뿐 아니라 보다 많은 SaaS들을 인수할 것"이라며 "소프트웨어는 반도체 역량 강화를 위한 솔루션"이라고 강조했다. 최근에는 AI 시장을 노리고 모듈식 개방형 소프트웨어 플랫폼 '타이버™ 비즈니스 솔루션 포트폴리오'도 공개했다. 오는 3분기에 출시될 예정인 '타이버'는 기업이 엣지 및 인공지능 애플리케이션을 대규모로 개발·배포·관리할 수 있게 지원하며, 오픈비노(OpenVINO) 인공지능 추론 런타임을 내장해 효율적인 인공지능 솔루션 개발이 가능하다. 인텔은 우리나라 기업인 네이버와 손잡고 '가우디2'를 활용한 소프트웨어 플랫폼 구축에도 나섰다. '가우디2'는 인텔이 엔비디아 GPU(그래픽처리장치)에 대항하고자 만든 AI 가속기다. 엔비디아의 서버용 AI 반도체 'H100' 가격은 약 5천만원에 달하지만, 인텔 '가우디2' 가격은 'H100' 대비 3분의 1에 그친다는 점에서 가격 경쟁력이 있다. 인텔은 'H100' 대비 전력 효율이 두 배 이상 높고 AI 모델 실행이 1.5배 더 빠른 '가우디3'도 최근 공개했다. 인텔과 네이버는 지난 4월 대전 카이스트 공동연구소를 설립해 '가우디'를 기반으로 vLLM(시각거대언어모델) 운영을 위한 여러 실험도 진행하고 있다. 이와 관련해 라벤더 CTO는 다음달께 잠시 한국에 방문해 진행 상황 점검에 나설 것으로 알려졌다. 또 인텔은 개발자들에게 파이토치 표준화 등을 구현하는 식으로 지원함으로써 자사 소프트웨어 생태계 조성에 박차를 가할 계획이다. 업계 관계자는 "AI를 비롯한 하드웨어 대부분이 소프트웨어를 통해 최적화 될 때 성능을 더 높일 수 있다"며 "소프트웨어 개발자 생태계를 조성해 인텔 하드웨어가 더 많은 곳에서 더 혁신적인 솔루션을 쓸 수 있도록 함으로써 경쟁사들과 격차를 벌리려는 것이 인텔의 전략인 듯 하다"고 분석했다. 그러면서 "소프트웨어 생태계를 만드는 것은 하드웨어처럼 물건을 팔아 바로 수익을 볼 수 있는 구조가 아니라, 10년 이상 막대한 투자를 하며 인고의 과정을 거쳐야만 비로소 경쟁력을 갖출 수 있는 분야"라며 "GPU 업계 1위 엔비디아의 개발 플랫폼 '쿠다'가 점유하고 있는 공고한 생태계를 깨고 인텔이 소프트웨어 시장에서도 얼마나 존재감을 드러낼 지에 따라 AI 주도권도 잡을 수 있을 것"이라고 덧붙였다. 라벤더 CTO는 "인텔은 어떠한 종류의 개방형 가속 컴퓨팅 환경에서도 고객이 인공지능을 개발할 수 있도록 요구 조건을 맞추고 있다"며 "앞으로도 최고의 AI용 하드웨어 및 소프트웨어를 제공함으로써 고객 수요를 맞추고, 최대한 빠르게 역량을 구축하기 위해 노력할 것"이라고 말했다.

2024.06.19 09:48장유미

인텔, 개방형 AI 생태계로 反엔비디아 전선 구축..."韓 협력 중요"

인텔이 인공지능(AI) 개방형 생태계를 구축하기 위해 국내 기술 업체들과 협력을 가속화한다. 엔비디아가 독점하고 있는 그래픽처리장치(GPU) 시장에서 차세대 AI 가속기 '가우디3'을 토대로 경쟁력을 키우려는 전략이다. 저스틴 호타드 인텔 데이터센터·AI 사업 총괄 수석 부사장은 5일 서울 서초구 JW 메리어트 호텔에서 열린 '인텔 AI 서밋 서울 2024'에서 인텔의 AI 전략을 소개하고 국내 업체들과의 협업의 중요성을 강조했다. 호타드 부사장은 “한국 기업들과의 파트너십이 AI 미래 비전의 중심에 있다”며 “네이버와 삼성, SK하이닉스 등 기업들과 장기적인 파트너십을 갖고 협력하고 있다”고 말했다. 또 “삼성메디슨과 SKT 등 다방면 협업이 이뤄지고 있다”고 덧붙였다. 그는 “삼성과 LG가 디바이스 협력사로서 중요한 기업”이라며 “이런 파트너들과 함께 AI PC 시대를 열어가는 것에 대해서 큰 기대를 가지고 있다”고 밝혔다. 네이버와 협력 관계는 갖게 된 배경에 대해서는 “네이버가 글로벌 클라우드 프로바이더로서 자체 파운데이션 모델을 구축하고 있는 혁신 기업이기 때문에 파트너로 선정했다”며 “네이버 파운데이션 모델은 광범위한 이용 사례를 갖춰 새로운 기회나 아이디어를 테스트할 수 있는 좋은 파트너”라고 설명했다. 인텔은 앞서 네이버와 AI 가속기 '가우디2'를 이용해 거대언어모델(LLM)과 소프트웨어 생태계 확대에 나선다고 밝힌 바 있다. 장기적인 협력을 위해 국내 대학교·스타트업과 함께 AI 공동연구센터(NICL)도 설립하기로 했다. 호타드 부사장은 엔비디아 제품 대비 인텔 제품이 갖는 장점에 대한 질문에는 3가지 측면을 꼽았다. 개방형 플랫폼·생태계와 총소유비용(TCO), 워크로드의 최적화를 제시했다. 그는 “가우디3은 시장에 존재하는 다른 솔루션 대비, 가격 대비 성능에서 가장 강력한 제품이라고 생각한다”며 “인텔은 균형 잡힌 접근 방식을 통해 효율성을 극대화했다”고 전했다. 이어 “인텔의 우선순위는 핵심 고객들, 생태계 파트너들과 협력하는 것”이라며 “AI는 강력한 개방형 생태계를 필요로 한다. 네이버도 비슷한 비전을 가지고 있기에 인텔이 전략적으로 파트너십을 통해 이러한 목표를 수행해가고자 한다”고 포부를 밝혔다.

2024.06.05 15:15신영빈

인텔 "가우디3, 납기·비용·성능 모두 뛰어난 엔비디아 대체재"

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 AI 가속기 '가우디3'의 가격 대비 성능을 강조했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 전세계 10개 이상의 글로벌 공급업체가 올 3분기부터 가우디3 기반 솔루션을 공급 계획중이다. ■ "네이버도 가우디 선택했다...TCO·TTM에서 엔비디아 대비 우위" 이날 팻 겔싱어 인텔 CEO는 "현재 클라우드 이용 현황을 보면 전체 워크로드 중 60%가 클라우드에서 실행되며 생성된 데이터 중 80%가 여전히 활용되지 않는 상황"이라고 설명했다. 이어 "LLM(거대언어모델)에 기업이나 기관의 데이터를 더한 검색증강생성(RAG)은 잠자는 데이터를 활용할 수 있는 기회를 줄 것이다. 6월부터 내년 1분기에 걸쳐 출시될 제온6 프로세서와 가우디 가속기는 이를 바꿀 수 있다"고 설명했다. 현재 AI용 GPU 시장은 엔비디아가 독식하고 있다. 팻 겔싱어 CEO는 "기업들은 대안과 개방형 구조를 원한다. 또 제품/서비스 출시 시간(TTM)을 단축하고 총소유비용을 낮추길 희망하고 있다"고 지적했다. 이어 "한국 네이버클라우드가 가우디를 쓰고 있다. 또 오픈소스 리눅스 재단과 기업용 AI 플랫폼 구축에 협업하고 있으며 제온6와 가우디가 기업 AI 워크로드에 도움을 줄 것"이라고 강조했다. ■ "가우디3, 덜 쓰고 더 얻을 수 있는 '가성비' 가속기" 팻 겔싱어 CEO는 올 3분기부터 공급될 차세대 가속기 가우디3에 대해 "같은 규모 클러스터 구성시 엔비디아 H100에서 추론 성능은 2배이며 H200 GPU 대비 경쟁력을 갖고 있다"고 설명했다. 인텔 자체 성능비교에 따르면 가우디3 8천192개 클러스터 구성시 같은 규모 엔비디아 H100 클러스터 대비 학습 시간은 40% 단축할 수 있다. 또 700억 개 매개변수로 구성된 LLM인 메타 라마2(Llama2) 구동시 가우디3 64개 클러스터는 엔비디아 H100 대비 최대 15% 빠른 학습 처리량을 제공할 예정이다. 팻 겔싱어 CEO는 "가우디3는 '덜 쓰고 더 얻을 수' 있는 AI 가속기"라며 가우디3의 개방성도 강조했다. 그는 "가우디3는 업계 표준 인터페이스인 이더넷으로 작동하며 파이토치 등 오픈소스 AI 프레임워크에 최적화됐고 수십만 개의 AI 모델을 지원한다"고 말했다. ■ 가우디3 솔루션 공급 업체 10개 이상으로 확대 가우디3는 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 인텔은 이날 가우디3 기반 AI 서버 공급업체로 델테크놀로지스, HPe, 레노버, 슈퍼마이크로에 더해 폭스콘, 기가바이트, 인벤텍, 콴타, 위스트론 등 총 10개 이상 글로벌 업체가 참여하고 있다고 밝혔다.

2024.06.04 19:01권봉석

KAIST-네이버-인텔, AI 반도체 시장에 '도전장'

새로운 인공지능 반도체의 생태계 구축을 위해 KAIST(총장 이광형)와 네이버, 인텔이 손을 맞잡았다. KAIST는 30일 대전 KAIST 본원에서 네이버클라우드(대표 김유원)와 'NIK AI 공동연구센터'(NAVER· intel · KAIST AI Research Center) 설립과 운영에 관한 업무협약(MOU)을 체결했다. 이 협약은 인공지능 반도체·인공지능 서버와 클라우드·데이터센터 등의 성능개선 및 최적의 구동을 위한 오픈소스용 첨단 소프트웨어 개발 등이 미션이다. 첨단 반도체 CPU 설계부터 파운드리까지 역량을 보유한 인텔이 기존의 중앙처리장치(CPU)를 넘어 인공지능 반도체 '가우디(GAUDI)'를 최적의 환경에서 구동하기 위해 오픈소스용 소프트웨어 개발 등을 목적으로 국내 대학에 공동연구센터를 설립하기는 KAIST가 처음이다. KAIST-네이버-인텔, AI 반도체 시장 도전장 반도체 업계에서는 이들 세 기관의 전략적 제휴에 주목했다. 하드웨어나 소프트웨어 기술과 역량을 융합, 새로운 인공지능 반도체 생태계가 구축될 계기가 확보될 것으로 기대했다. 특히, 시장과 기술 주도권 확보를 위해 네이버와 인텔이 KAIST와 함께 AI반도체 시장에 도전장을 내민 것으로 보고 있다. KAIST 측은 “인텔이 인공지능과 반도체 분야 오픈소스용 소프트웨어 개발파트너로 네이버와 KAIST를 선택한 것은 전략적으로 매우 큰 의미가 있다”고 강조했다. 네이버클라우드가 지닌 컴퓨팅·데이터베이스·인공지능 등 네이버 클라우드 플랫폼(NAVER Cloud Platform) 기반의 다양한 인공지능 서비스 역량과 인텔의 차세대 인공지능 칩 기술, 그리고 KAIST가 갖추고 있는 세계적인 수준의 전문인력과 소프트웨어 연구 능력이 결합해 인공지능 반도체 분야에서 기존과는 다른 창조적이면서도 혁신적인 생태계 조성을 성공적으로 이뤄낼 것으로 기대하는 분위기다. 이날 협약식에는 KAIST 측에서 이광형 총장을 비롯해 이균민 교학부총장, 이상엽 연구부총장, 전기및전자공학부 김정호 교수 등이 참석했다. 네이버클라우드 측에선 김유원 대표와 하정우 AI 이노베이션 센터장, 이동수 하이퍼스케일 AI 담당 이사 등 주요 경영진이 참석했다. NIK AI 공동연구센터 상반기 구축, 7월부터 본격 연구 KAIST와 네이버클라우드는 이번 협약을 계기로 오는 6월까지 KAIST에 'NIK AI 공동연구센터를 구축하고 7월부터 본격 연구에 착수할 계획이다. 센터장은 KAIST와 네이버클라우드 측에서 같이 맡기로 했다. HBM(고대역폭메모리) 등 인공지능 반도체 설계와 인공지능 응용설계(AI-X) 분야에서 세계적인 석학으로 꼽히는 김정호 전기및전자공학부 교수와 인공지능 반도체 설계 및 인공지능 소프트웨어 전문가인 이동수 이사다. 또 KAIST 전산학부 성민혁 교수와 네이버클라우드 권세중 리더가 각각 부센터장을 맡아 공동연구센터를 이끈다. 공동연구센터 운영 기간은 3년이다. 다만, 연구성과와 참여기관의 필요에 따라 연장하기로 했다. KAIST에서는 이 센터 R&D에 인공지능과 소프트웨어 분야 전문가인 20명 내외의 교수진과 100여 명의 석·박사 대학원생들이 대거 참여한다. 초기 2년간은 인텔의 하바나랩스가 개발한 인공지능 학습 및 추론용 칩(Chip) '가우디(GAUDI)'를 위한 플랫폼 생태계 공동 구축을 목적으로 20~30개 규모의 산학 연구과제를 진행한다. 자연어 처리, 컴퓨터 비전과 머신러닝 등 주로 인공지능 분야 오픈소스용 소프트웨어 개발 위주로 연구가 이뤄진다. 자율 주제 연구가 50%, 인공지능 반도체의 경량화 및 최적화에 관한 연구가 각각 30%와 20%를 차지한다. 가우디2 기반 연구결과 매년 오픈사이트 공개 예정 이를 위해 네이버와 인텔은 네이버 클라우드 플랫폼 기반의 '가우디2(GAUDI2)'를 KAIST 공동연구센터에 제공한다. KAIST 연구진은 '가우디2'를 이용한 논문 등 연구 실적을 매년 공개할 계획이다. 이 밖에 인공지능·클라우드 등 각자가 보유한 역량 외에 공동 연구에 필요한 각종 인프라 시설(Infrastructure)과 장비 등을 공유하기로 했다. 또 연구 인력의 상호 교류를 위해 공동연구센터에 필요한 공간과 행정인력은 KAIST가 지원한다. KAIST 김정호 교수는 “가우디 시리즈의 활용을 통해 인공지능 개발, 반도체 설계와 운영 소프트웨어 개발 등에서 기술 노하우를 쌓을 것으로 기대한다”며 “대규모 인공지능 데이터센터 운영 경험과 향후 연구개발에 필요한 인공지능 컴퓨팅 인프라를 확보할 수 있다는 점에서 이번 공동연구센터 설립이 큰 의미가 있다”고 강조했다. 김유원 네이버클라우드 CEO는 "우리나라를 10~20년 먹여살릴 근본기술을 개발하고, 이 기술이 생태계 위에서 존재하도록 할 것"이라며 "돈벌이에 급급한 회사가 아니라, 진정 생태계 동반자 역할에 최선을 다할 것"이라고 말했다. 네이버클라우드 이동수 이사는 “네이버클라우드는 KAIST와 함께 다양한 연구를 주도해 나가며 하이퍼클로바X 중심의 인공지능 생태계가 확장되기를 기대한다”며, “공동연구센터를 통해 국내 인공지능 연구가 보다 활성화되고 인공지능 칩 생태계의 다양성이 확보되기를 바란다”라고 덧붙였다.

2024.04.30 10:28박희범

[유미's 픽] "인텔·삼성도 반했다"…네이버클라우드에 러브콜 보낸 이유

"네이버는 아시아에서 엄청난 인공지능(AI) 모델을 구축한 대단한 회사입니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 진행된 '인텔 비전 2024' 행사에서 네이버와의 협업을 깜짝 발표했다. 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하기 위한 것으로, 네이버는 AI 시장에서의 글로벌 경쟁력을 단 번에 입증했다. 25일 업계에 따르면 인텔이 네이버를 파트너로 삼은 것은 네이버클라우드의 '하이퍼클로바X' 때문이다. 미국과 중국의 갈등이 고조되는 상황 속에 오픈 AI(GPT-3·2020년)·화웨이(판구·2021년)와 손을 잡기가 쉽지 않았던 탓도 있다. 특히 오픈AI는 마이크로소프트(MS)와 이미 파트너십을 체결해 끈끈한 관계를 유지하고 있어 인텔과 협업에 나서기가 쉽지 않았던 것으로 알려졌다. MS는 오픈AI와 파트너십을 체결한 후 지난해 100억 달러를 투자하는 등 2019년부터 총 130억 달러를 투자, 지분 49%를 보유하고 있다. MS는 지난해 11월 공개한 AI용 그래픽처리장치(GPU) '마이아100'을 오픈AI를 통해 테스트 중이다. 화웨이는 미국이 중국에 대한 견제 강도를 높이고 있다는 점에서 협업을 하기 쉽지 않은 상태다. 이곳은 2019년부터 미국 정부의 블랙리스트 기업 명단에 올라 있다. 이에 따라 인텔은 전 세계에서 세 번째로 자체 거대언어모델(LLM)을 개발한 네이버클라우드에 러브콜을 보냈다. 네이버클라우드는 지난 2021년 국내 최초로 초거대 AI 모델 '하이퍼클로바'를 공개한 후 지난해 8월 이를 고도화한 '하이퍼클로바X'를 공개한 상태였다. '하이퍼클로바X'가 글로벌 경쟁력을 갖추고 있다는 점도 인텔의 흥미를 일으켰다. 최근 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이 탓에 '하이퍼클로바X'는 국내외 다양한 곳에서 활용되며 AI 생태계 확장을 가속화하고 있다. 국내 금융, 교육, 조선뿐 아니라 리걸테크, 게임, 유통, 모빌리티, 헬스케어 등 산업 전반에 걸쳐 활용되고 있다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업도 수주했다. 이 같은 성과에 힘입어 네이버클라우드는 인텔의 AI 칩 소프트웨어 생태계 구축에 필요한 파트너로 낙점됐다. 양사는 앞으로 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 지원할 방침이다. 인텔의 AI 가속기 칩인 '가우디' 기반의 IT 인프라를 다양한 대학과 스타트업에 제공하는 게 핵심이다. 이들은 '가우디'를 기반으로 소프트웨어 개발과 산학 연구 과제 등을 운영할 방침이다. 이를 위해 네이버클라우드와 인텔은 'AI 공동연구센터(NICL)'도 설립한다. 물리적인 센터를 설립한다기 보다 한국과학기술원(KAIST·카이스트)·서울대학교·포항공과대학교(POSTECH·포스텍)를 포함한 국내 20여 개 연구실·스타트업이 참여해 온라인상에서 유기적으로 연구 결과를 공유하는 식으로 운영될 것으로 알려졌다. 또 인텔은 네이버클라우드에 '가우디2'를 제공해 '하이버클로바X'를 테스트에 활용할 수 있도록 제공하는 한편, 일부 현물 투자도 진행하는 것으로 파악됐다. 네이버 측은 '가우디2'로 자체 LLM 구축에 박차를 가할 방침이다. 인텔 관계자는 "네이버 측과 이전부터 오랫동안 협업하며 신뢰를 쌓아왔고 국내 소프트웨어 생태계를 '가우디' 기반으로 만들어보자는 뜻이 맞아 이번에도 손을 잡게 됐다"며 "네이버가 '가우디'를 통해 '하이퍼클로바X'를 어떤 분야에 활용하면 효율적인지 찾아가는 과정이 당분간 이어질 것으로 보인다"고 말했다. 네이버클라우드도 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로 '하이퍼클로바X'를 보다 합리적인 비용에 고도화할 계획이다. 나아가 미래 고부가가치 AI 신사업을 발굴·육성하고, 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다. 김유원 네이버클라우드 대표는 "네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않다"며 "더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다"고 설명했다. 업계에선 네이버클라우드가 인텔과의 협업을 계기로 비용 절감 문제도 해소할 수 있을 것으로 봤다. 현재 AI칩 시장을 독점하고 있는 엔비디아의 GPU의 가격은 천정부지로 오른 상태로, 'H100'의 경우 공급 부족 현상 탓에 가격이 1개당 5천만원이 넘는 것으로 알려졌다. 이에 업체들은 엔비디아 중심의 AI 가속기를 대체할 만한 대안을 계속 찾고 있는 상황이다. 네이버 역시 지난해 비용 문제로 기존 AI 모델을 구동하는데 쓰던 엔비디아의 GPU를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 인텔도 이 점을 노리고 지난 9일 '인텔 비전 2024'를 통해 '가우디3'를 공개했다. AI 학습과 추론에 모두 사용할 수 있는 신형 AI 가속기로, 인텔은 이 제품이 엔비디아의 제품인 'H100'보다 성능과 효율은 높다고 주장했다. LLM은 평균 50% 이상 빠르게 훈련시킬 수 있고 에너지 효율은 40% 뛰어난데 가격은 'H100'보다 더 저렴하다는 점이 강점이다. 업계 관계자는 "AI 가속기가 현재 엔비디아의 GPU처럼 범용으로 쓸 수 있는 것은 아니다"며 "네이버가 '가우디'를 어떤 워크로드에서 얼마나 효율적으로 잘 사용하고, 그 결과물을 내놓을지에 따라 양사의 사업에 대한 평가가 달라지게 될 것"이라고 말했다. 그러면서 "인텔은 이번 공동 연구를 '가우디' 성능 입증의 수단으로 활용할 수 있을 것"이라며 "네이버클라우드 역시 '하이퍼클로바X' 중심의 생태계 확장을 노릴 수 있을 것"이라고 덧붙였다. AI칩 주도권 확보를 노리는 삼성전자도 네이버클라우드에 도움의 손길을 내밀었다. AI반도체는 크게 학습용과 추론용으로 나뉘는데, 양사는 추론형 AI 반도체 '마하1' 공동 개발에 나선 상태다. 인텔 '가우스'와는 성격이 달라 경쟁 대상이 아니다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화된 것으로 평가된다. '마하1'은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다. 업계 관계자는 "현재 AI반도체는 공급 부족 상태로, 엔비디아의 GPU가 사실상 학습용과 추론용으로 모두 쓰이고 있다"며 "추론형인 '마하1'의 가격은 엔비디아 'H100'의 10분의 1수준인 500만원 정도에 책정될 것으로 보여 가격 경쟁력을 갖출 것으로 보인다"고 말했다. 이어 "네이버클라우드가 인텔, 삼성전자 등과 손을 잡는 것은 AI 반도체의 재고 한계와 높은 비용에 대한 부담이 크게 작용한 듯 하다"며 "시장 진입이 어려운 인텔, 삼성과 엔비디아 GPU 수급이 어려워 '하이퍼클로바X'를 업데이트하기 쉽지 않은 네이버 측의 협업은 현재로선 불가피한 선택인 듯 하다"고 덧붙였다.

2024.04.25 10:44장유미

인텔 "서버·AI PC서 메타 라마3 구동 지원"

인텔은 19일 메타가 공개한 생성 AI LLM(거대언어모델) 라마3(Llama 3)를 제온 프로세서와 가우디 AI 가속기, 코어 울트라 탑재 AI PC 등에서 지원한다고 밝혔다. 메타가 공개한 라마3는 오픈소스 생성 AI 모델이며 데이터셋 중 비영어권 데이터 비중을 5%까지 높였다. 현재 매개변수 80억 개, 700억 개 버전이 선 공개됐다. 매개변수 4천억 개 버전은 현재 데이터셋 훈련중이다. 인텔은 가우디 AI 가속기, 제온/코어 울트라 프로세서와 아크 GPU로 메타가 선공개한 매개변수 80억/700억 개 버전의 구동을 검증했다고 밝혔다. 인텔은 파이토치(PyTorch), 딥스피드, 인텔 옵티멈 하바나 라이브러리, 인텔 파이토치 익스텐션 등 오픈소스 소프트웨어로 수행한 자체 벤치마크 결과도 공개했다. 인텔이 2분기 중 출시할 P코어 제온6 프로세서는 80억 개 모델 추론 구동시 4세대 제온 스케일러블 프로세서 대비 지연 시간을 절반으로 단축했다. 또 700억 개 버전에서 토큰 하나당 지연시간을 0.1초 미만으로 줄였다. 코어 울트라 프로세서는 내장 아크 GPU를 이용해 라마3 구동시 사람이 읽을 수 있는 것보다 더 빠른 속도로 토큰을 생성했다. Xe 행렬곱셈 확장(XMX)을 내장한 아크 A770은 16GB 메모리를 활용해 라마3 처리를 가속한다. 가우디2 AI 가속기는 라마2 3개 모델(70억개, 130억개, 7천억개)에 이어 라마3 모델도 구동했다. 올 하반기 출시될 가우디3 AI 가속기도 라마3를 지원한다. 인텔은 향후 매개변수를 늘리고 성능을 강화한 라마3 모델도 지속 지원할 예정이다.

2024.04.19 10:24권봉석

델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원

델테크놀로지스는 고성능 AI 서버 '델 파워엣지 XE9680'에 '인텔 가우디 3' AI 가속기 지원을 추가한다고 15일 밝혔다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화 할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. XE9680은 가우디3 가속기를 추가함으로써 더 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블 프로세서를 2개를 장착했으며, 가장 고난도의 AI·ML 워크로드에 대한 데이터 처리 및 분석에 최적화됐다. 기존 하드웨어 성능을 뛰어넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 이 제품은 AI 가속화의 새로운 기준을 제시하며, 비즈니스 성과를 촉진하는 신속하고 실행 가능한 인사이트를 제공한다. 인텔 가우디 3 AI 가속기를 탑재한 '파워엣지 XE9680' 서버 모델은 올해 안에 국내 출시될 계획이다 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 필수적인 스펙을 갖췄다. 가우디3는 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결 가능해 인프라를 단순화하고 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 향상시킨다. 델은 최근 포레스터웨이브 보고서에서 AI 분야 선도 기업으로 선정됐다. IT 및 데이터 과학자가 AI를 적용하고 생산성을 높일 수 있도록 포괄적인 솔루션을 제공함으로써 엔드투엔드 환경의 생성형AI 성과를 이끌어낸다는 평가를 받으며 전략과 오퍼링 측면 모두에서 높은 점수를 획득했다. 김경진 한국델테크놀로지스의 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”며 “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고, 미래에 필요하게 될 요구 성능에 대비하는 동시에 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 강조했다.

2024.04.15 11:39김우용

네이버 "인텔 '가우디2' 기반 생성 AI 생태계 구축 목표"

인텔이 네이버와 AI 가속기 '가우디2'(Gaudi 2)를 이용한 LLM(거대언어모델)과 소프트웨어 생태계 확대에 나선다. 네이버클라우드는 인텔 개발자 클라우드 상에 구축된 가우디2 인스턴스를 활용해 LLM 구축 가능성을 평가하는 한편 국내 대학교·스타트업과 협업해 가우디2 기반 오픈소스 모델 등을 공동 개발할 예정이다. 11일 오전 서울 여의도 한경협회관에서 인텔코리아 주최로 진행된 질의응답에서 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버와 인텔 협력 결과물이 오픈소스로 제공되면 학계와 스타트업의 AI 소프트웨어 개발의 문턱을 크게 낮출 수 있다. 국산 소프트웨어 대중화 면에서 큰 의미가 있다"고 강조했다. ■ 네이버 "가우디2 기반 고성능 LLM 모델 개발 목표" 인텔은 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 네이버와 협업을 발표했다. 당일 기조연설에 등장한 하정우 네이버클라우드 AI 혁신센터장은 "생성 AI 생태계 확대를 위한 공동 연구소 설립, 가우디2 성능 평가, LLM(거대언어모델) 인스턴스 제공을 위해 인텔과 협업할 것"이라고 밝혔다. 하정우 혁신센터장은 "가우디2 가속기는 AI 전용 설계를 통해 와트당 성능과 총소유비용(TCO) 측면에서 뛰어난 성능을 낸다. 이번 인텔과 협력을 통해 고성능, 비용 효율 인프라 기반으로 강력한 LLM 기반 모델을 개발하는 것이 목표"라고 설명했다. ■ "가우디2, 하드웨어 특성·성능 면에서 좋은 평가" 이날 오전 이동수 네이버클라우드 하이퍼스케일 AI담당 이사(박사)는 "네이버는 현재 거의 모든 서비스에 AI 기술을 접목하고 있으며 좋은 AI 반도체 확보는 서비스 경쟁력 확보에 직결된다"고 설명했다. 이어 "많은 반도체를 평가하고 분석하는 과정에서 인텔 가우디2 가속기의 하드웨어 특징과 성능 면에서 좋은 결과를 얻었고 이것을 향후 네이버 서비스와 융합하려면 생태계와 소프트웨어 확보가 필요하다"고 밝혔다. 이날 네이버클라우드 관계자는 "일부 언론 관측처럼 이번 협업에 네이버 사옥이나 데이터센터 내에 물리적인 공간을 확보하는 것은 아니다. 평가는 가우디2가 적용된 인텔 개발자 클라우드를 활용할 것"이라고 밝혔다. ■ "가우디2 기반 최적화 코드로 개발 문턱 낮출 것" 이동수 이사는 "현재 LLM 기반 코드 최적화는 고수준 언어가 아닌 어셈블리어(기계어) 수준에서 이뤄지지만 이런 기술력을 갖춘 엔지니어는 극히 드물다"고 설명했다. 이어 "엔비디아 쿠다 역시 하드웨어가 바뀔 때마다 코드를 바꿔야 한다. 이런 난점때문에 엔비디아 역시 별도 개발 없이 기업들이 그대로 쓸 수 있는 바이너리(실행파일)를 제공하고 있다"고 설명했다. 권세중 네이버클라우드 리더는 "국내 대학과 스타트업은 GPU나 가속기 활용이 어려워 연구에 어려움을 겪는다. 국내 상위권 대학 내 연구실과 협업을 논의중이며 이들이 가우디2 기반 코드를 오픈소스로 공개하면 어려움을 덜 수 있을 것"이라고 밝혔다. ■ "삼성전자 마하1도 활용... 생태계 확장이 우선" 이동수 이사는 "가우디2 역시 성능 대비 전력 효율성이 뛰어나며 LLM이나 서비스 운영에 여전히 장점을 지니고 있다. 이번 인텔과 협업은 소프트웨어나 생태계 확장에 중점을 둔 것이며 소프트웨어나 드라이버 등이 안정된 가우디2로 진행할 것"이라고 설명했다. 반도체 업계에 따르면 네이버는 LLM 처리에 특화된 삼성전자 AI 반도체 '마하1'을 이르면 올 연말부터 공급받아 활용할 예정이다. 이동수 이사는 "인텔과 삼성전자 모두 중요한 협력사이며 함께 생태계 확장을 하는 것이 목표다. 마하1이나 가우디2는 모두 초기 단계이며 모델 학습·훈련이나 추론 등 용도를 정해둔 것은 아니다"라고 밝혔다.

2024.04.11 11:15권봉석

인텔 "가우디3 AI 가속기, 오는 3분기 출시"

인텔이 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 차세대 AI 가속기 '가우디3'(Gaudi 3) 성능과 출시 일정을 공개했다. 가우디3는 2022년 5월 출시된 가속기인 가우디2 후속 제품이며 TSMC 5나노급 공정에서 생산된다. 지난 해 말 팻 겔싱어 인텔 CEO가 가우디3 시제품을 공개하고 "'파워 온'(실제 작동)에 성공했다"고 밝히기도 했다. 가우디3는 96MB S램과 128GB HBM2e 메모리를 이용해 최대 대역폭 3.7TB/s를 구현했다. 서버용 프로세서와 PCI 익스프레스 5.0 규격으로 연결되며 200Gbps 이더넷으로 서로 연결된다. 서버용 OCP 가속화 모듈인 HL-325L, HL-325L을 8개 탑재한 UBB 표준 모듈인 HLB-325, 워크스테이션에 장착 가능한 확장 카드인 HL-338 등 3개 형태로 시장에 공급된다. 이날 인텔은 가우디3가 전작 대비 BF16 연산 성능은 최대 4배, 메모리 대역폭은 1.5배 향상될 것이라고 밝혔다. 또 70억/130억개 매개변수를 지닌 라마2(Llama2) 모델 훈련 시간을 엔비디아 H100 대비 절반으로 줄였다고 설명했다. 인텔은 델테크놀로지스, HPe, 레노버, 슈퍼마이크로 등 주요 고객사에 이번 분기부터 시제품을 공급하고 3분기부터 대량 생산에 들어간다. 또 개발자 클라우드에 가우디3를 적용해 실제 출시 전 개발을 도울 예정이다.

2024.04.10 10:36권봉석

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

네이버부터 MS까지 인정한 CES 혁신기업 '가우디오랩' 오디오 기술

2015년 출범한 가우디오랩은 가상현실(VR) 오디오 기술 스타트업으로, 12일 폐막한 CES2024까지 총 세 차례 CES 무대에 출전했다. CES 무대에 나오는 족족 서로 다른 기술들로 혁신상을 받은 가우디오랩은 올해도 AI 기반 실시간 소음제거·음성강화 솔루션 '저스트 보이스(Just VOICE)'로 혁신상을 수상했다. 올해 CES 현장에서 만난 가우디오랩 창업자인 오현오 대표는 “저스트 보이스는 시끄러운 소음이 계속되는 환경에서도 목소리만 따로 추출할 수 있는 AI 기술”이라며 “기타·드럼·피아노 등 악기 소리도 분리하고, 특정 음원 추출과 가사 자막 싱크 등 영역에서 다양하게 활용될 수 있다”고 말했다. 가우디오랩 CES 부스에는 저스트 보이스를 비롯해, 이전 혁신상 수상작인 음량 평준화 기술(LM1)과 공간 음향 기술(GSA), 그리고 사운드 생성AI '폴리(FALL-E)'가 배치됐다. 어떤 디바이스로도 언제 어디서나 노래방 기능을 즐길 수 있게 만드는 '지 싱(G Sing)'과 웹 사이트 기반 '가우디오 스튜디오' 역시 눈길을 끌었다. CES 세 번 출전에, 모두 혁신상을 받은 가우디오랩. 오 대표는 “내년에는 생성AI 기반 서비스로 활로를 넓힐 계획”이라며 “최고 혁신상을 목표로, 시장 가능성이 엿보인 생성AI 분야를 공략하며 올 한해 기술 고도화에 만전을 기할 것”이라고 말했다. 오 대표는 폴리를 내세워 생성AI 시장 공략에 나선다. 가우디오랩 폴리는 이용자가 이미지·텍스트를 입력하면, AI가 백색 잡음에서 명령어에 해당하는 소리를 자동으로 만들어낸다. 가령 나무가 부서지거나 쓰러지는 소리, 산사태 효과음, 제설 차량 소리 등을 생성한다. 그간 네이버 스타트업 양성기관인 D2SF와 소프트뱅크벤처스, CJ인베스트먼트 등 국내 유수 기업에서 투자받은 가우디오랩. 이번엔 글로벌 기업으로부터 '러브콜'을 받았다. 가우디오랩 전시장에는 마이크로소프트(MS) 수장 사티아 나델라 최고경영자(CEO)가 깜짝 방문했다. 나델라 CEO는 가우디오랩 폴리에 엄지를 치켜세웠다. 오 대표는 “MS 실무진들이 먼저 찾아와 (나델라 CEO 방문을) 귀띔했다”며 “구체적인 사업 협력 등을 논의한 건 아니지만, 우리 아이템에서 가능성을 본 것 같아 기쁘다”고 했다. 오 대표는 “우리 기술은 세계 최고 수준의 분리도와 음질, 낮은 연산량으로 고성능을 뿜어낼 수 있다고 자신한다”며 “글로벌 시장에서 성과를 내겠다”고 강조했다.

2024.01.15 17:52김성현

인텔 팻 겔싱어 "AI 기술, 선한 방향으로 이끌 수 있다"

[라스베이거스(미국)=권봉석 기자] "나는 IT 업계에 40년 가까이 몸담았지만 기술은 그저 중립적인 존재이며 선이나 악을 따질 수 없다. 어떻게 활용하느냐에 따라 결과가 달라질 수 있다. AI를 포함한 모든 기술을 여전히 선한 방향으로 이끌 수 있다." 팻 겔싱어 인텔 CEO가 9일 오후(한국시간 9일 오전) 라스베이거스 베네시안 호텔 팔라조 볼룸에서 CNBC 나스닥 담당 크리스티나 파치네벨로스 기자와 진행한 대담 형식 기조연설에서 이렇게 설명했다. 팻 겔싱어 CEO는 최근 생성 AI에 대한 규제의 목소리가 불거지는 상황에 대해 "기술은 제품보다, 제품은 사업보다, 사업은 규제보다 훨씬 빨리 진보한다. 많은 기업들이 생성 AI와 규제 사이의 간극을 좁힐 수 있도록 관련된 논의에 참여하게 될 것"이라고 전망했다. 이어 "앞으로 AI 관련 우려가 더 늘어날 것이며 이를 위해 관련 기술을 보다 투명하고 명확하게 하는 것이 인텔의 목표다. AI 관련 기술이 통제 없이 세상 밖에 나가지 않게 해야 한다"고 덧붙였다. ■ "AI PC, 와이파이처럼 급속히 보급될 것" PC 관련 업계는 AI PC가 시장에 혁신을 가져오고 교체 수요도 이끌어낼 것이라고 전망하고 있다. 그러나 이런 시각과 일반인들의 인식에는 여전히 간극이 있다. 팻 겔싱어 CEO는 와이파이 기술을 예로 들며 "와이파이 관련 첫 제품이 나오고 2-3년간은 아무런 일이 일어나지 않았다. 그러나 센트리노 플랫폼을 만들고 추진하자 어느 순간부터 카페나 호텔에 와이파이가 깔렸다"고 설명했다. 이어 "세계는 현재 20년 전과 전혀 같지 않으며 AI 성능을 갖춘 PC는 이용자 인터페이스를 바꿀 것이다. AI PC 역시 센트리노 기술과 같은 순간을 맞을 것이며 새로운 폼팩터 기기가 등장하고 클라우드 대신 PC에서 관련 작업을 처리하게 될 것"이라고 전망했다. ■ "물량과 생태계 협력 통해 AI PC 경쟁에서 승리할 것" 인텔은 지난 달 NPU를 탑재한 코어 울트라 프로세서를 출시하며 AI PC 경쟁에 뛰어들었다. 팻 겔싱어 CEO는 "인텔은 충분한 수량과 함께 생태계 협력과 뛰어난 제품으로 경쟁에서 승리할 것"이라고 설명했다. 팻 겔싱어 CEO는 올 연말 출시할 차세대 서버용 AI 가속기 '가우디3'(Gaudi 3)에 대해서도 언급했다. 그는 "가우디3는 현재 초기 시험과 디버깅 작업 중이며 몇 달 후 주요 고객사에 시제품이 공급될 것이다. 이스라엘에 있는 하바나랩스 팀이 차질없이 목표를 수행중"이라고 설명했다.

2024.01.10 17:37권봉석

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현