• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'제온'통합검색 결과 입니다. (35건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

레노버-인텔, 제온6 탑재 '씽크시스템 V4' 공개

레노버는 인텔 제온6 프로세서를 탑재한 '레노버 씽크시스템 V4 포트폴리오'를 12일 발표했다. 새 포트폴리오는 새로운 AI 구현 솔루션을 통해 고객이 워크플로우에 AI를 원활하게 통합하도록 지원하고, 목표 워크로드의 성능 및 효율성 극대화에 최적화된 서버들도 새로 선보인다. 레노버의 새로운 AI 기반 시스템 매니지먼트 솔루션은 생성형 AI를 활용해 점점 더 분산되는 컴퓨팅 네트워크에 걸쳐 배포 및 구성을 자동화하고 단순화한다. 차세대 씽크시스템 V4 포트폴리오는 기업 고유의 데이터를 활용해 기업의 의사결정을 지원하고, 관리 효율성과 생산성을 높이며 정보를 보호한다. 레노버 씽크시스템 V4 포트폴리오는 고급 성능과 효율성 및 관리 기능으로 모든 비즈니스에서의 AI 접근성을 높여준다. 랙 밀도와 방대한 트랜잭션 데이터에 최적화돼 기업, CSP, 고성능 컴퓨팅 및 통신 기업의 데이터 센터에서의 처리 성능을 극대화할 수 있다. 씽크시스템 V4 포트폴리오는 레노버의 공학기술과 인텔 제온 프로세서를 통해 랙당 4배 이상의 코어를 제공하고 성능을 4.3배까지 향상시킨다. 새로운 레노버 씽크시스템 SD520 V4 서버는 극도의 랙 밀도와 효율성을 보유하고 있으며, 2U 섀시에 최대 225% 더 많은 코어2를 탑재해 초밀도 처리 기능을 제공하고 웹 트랜잭션 수를 늘릴 경우 처리량을 최대 3.18배까지 향상 가능하다. 이전 버전 대비 3배 이상의 스토리지를 보유하고 있어 컴퓨팅 집약적인 트랜잭션 워크로드에 이상적인 대역폭의 메모리를 제공해 온라인 뱅킹, 전자상거래, CSP 등의 처리 속도에 있어서 효율성을 제고한다. 새로운 레노버 씽크시스템 SR630 V4는 클라우드 규모, 통신사 5G 코어 및 이커머스 워크로드를 위한 전력을 재구성해 최대 42% 더 빠른 미디어 트랜스코딩으로 랙당 성능을 극대화한다. 고객사는 서버를 활용해 관리 프로세스를 효율화하고 다운타임 최소화 및 리소스 활용 최적화를 통해 비용을 절감할 수 있다. 전력 소비를 줄이면서 통신사 코어 애플리케이션의 성능을 극대화하는 인텔의 혁신적인 E-코어를 탑재한SR630 V4는 PCIe 5 IO 및 DDR5 메모리를 통해 애플리케이션 대역폭을 최대 2배까지 향상시키는 고성능과 워크로드 최적화 기능을 갖췄다. 새로운 AI의 시대의 도래와 함께 레노버의 인프라는 고객이 안심하고 혁신에 집중할 수 있도록 설계됐다. 점점 더 정교해지는 보안 위협에 대비하고 NIST SP800-193 플랫폼 펌웨어 복원력(PFR)을 비롯한 최고 수준의 비즈니스 연속성을 지원한다. 또한, AI 기반 펌웨어 코드 검사와 최신 규정 준수를 통해 보안을 강화해 잠재적 위협을 차단한다. 레노버는 10년 이상에 걸쳐 액체 냉각을 통해 에너지 효율적인 컴퓨팅을 선도해왔다. 기업들이 더 스마트한 결과를 위해 컴퓨팅 성능을 지속적으로 향상시키는 가운데, 레노버 넵튠 액체 냉각 혁신은 액체를 통해 열을 제거하여 최대 40%의 전력 소비를 절감하며 AI가 요구하는 고성능을 충족시킨다. 씽크시스템 V4의 레노버 넵튠 액체 냉각 기술은 다중 노드, 기존 엔터프라이즈, HPC 및 AI 최적화 서버의 전력 소비를 감축해 모든 규모의 기업이 AI 경쟁력과 발전 역량을 갖출 수 있도록 지원한다. 레노버는 GPU, CPU, 소프트웨어, 서포트를 적절히 조합하여 엣지부터 클라우드까지 업계에서 가장 포괄적인 AI 지원 포트폴리오를 보유하고 있다. 새로운 인텔 제온 6는 개별 가속기 추가 없이도 효율적이고 신속하게 가장 까다로운 워크로드를 처리할 수 있도록 하여 모든 단계에서의 AI 접근성을 확보한다. 인텔 프로세서와 레노버의 특수 설계 엔지니어링에 기반한 새로운 V4 인프라 포트폴리오는 모든 규모의 AI 워크로드 접근성을 높이도록 설계됐다. 최대 200억 개의 매개변수를 가진 모델에서 CPU 기반 AI 추론 솔루션, 주요 AI 워크로드를 위한 CPU+GPU 솔루션, 최대 1750억 개 이상의 매개변수에 대한 모델링 및 훈련을 위한 GPU-리치 솔루션까지 제공한다. 수미르 바티아 레노버 인프라스트럭처솔루션그룹(ISG) 아시아태평양 사장은 “레노버와 인텔은 데이터 센터를 하이브리드 클라우드와 엣지 기술을 통해 전환하는 등 오랜 혁신의 역사를 이끌어 왔다”며 “모두를 위한 더 스마트한 AI라는 레노버의 비전 아래 이번 차세대 인프라는 뛰어난 성능과 접근성으로 기업이 하이브리드 AI 인프라를 활용하고 데이터 가치를 극대화하도록 지원할 것”이라 밝혔다. 윤석준 레노버 글로벌 테크놀로지 부사장은 “생성형 AI 등에 의해 혁신이 가속화되며, AI는 국내 CIO의 31%가 게임 체인저로 인식할 정도로 산업에 혁신을 일으키고 있다”며 “이러한 혁신의 시대에 레노버는 고객사들의 성공적인 AI통합 여정을 지원하는 데 전념한다”고 강조했다. 그는 “인텔의 기술력이 탑재된 씽크시스템 V4 포트폴리오는 국내 기업들의 의사결정 효율화와 생산성 향상에 기여해, 비즈니스 성공 파트너로서 레노버의 역할을 공고히 할 것”이라 덧붙였다.

2024.06.12 16:14김우용

인텔, E코어 기반 서버용 칩 '제온6 6700E' 출시

[타이베이(대만)=권봉석 기자] 인텔이 4일(이하 대만 현지시간) 마이크로 웹서비스와 미디어 서버 시장을 겨냥한 E(에피션트) 코어 기반 제온6(Xeon 6, 6세대) 6700E 프로세서를 출시했다. 4일 오전 대만 타이베이 난강전시관에서 진행된 기조연설에서 팻 겔싱어 인텔 CEO는 "최근 데이터센터는 높은 연산 성능과 소켓당 밀도, 에너지 효율을 요구하며 이것이 우리가 해결해야 할 과제"라고 설명했다. 이어 "오늘 출시하는 E코어 제온6 프로세서는 현대 데이터센터의 업데이트에 필요하며 1와트당 성능을 개선했다. 5N4Y(4년간 5개 공정) 로드맵의 세 번째 공정인 인텔 3(Intel 3)에서 생산했다"고 설명했다. ■ 메모리 채널과 PCIe 레인 따라 두 종류로 세분화 인텔은 지난 해 제온 프로세서 라인업을 성능 중시 P코어 탑재 제품과 고효율·저전력 E코어 탑재 제품으로 개편한다고 밝힌 바 있다. 탑재한 코어가 다르지만 DDR5 메모리와 PCI 익스프레스 5.0, CXL 등 동일한 규격을 지원한다. P코어 제품은 HPC(고성능 컴퓨팅)과 모델링/시뮬레이션, 빅데이터와 인메모리 분석 등에 최적화된 반면 E코어 제품은 클라우드 네이티브 애플리케이션, 콘텐츠 전송 네트워크, 네트워크 마이크로서비스를 겨냥했다. 이날 출시된 제온6 6700E 프로세서는 E코어를 최대 144개 탑재할 수 있고 듀얼 소켓 구성이 가능하다. 향후 출시될 6900 시리즈 대비 메모리 채널은 최대 8개, PCI 익스프레스 5.0 레인(lane, 데이터 전송통로)은 88개까지 쓸 수 있다. ■ "2세대 제온 도입 주기 도래... 전환시 서버 수 1/3 줄어든다" 제온6 6700E 프로세서는 과거 '시에라포레스트'로 불리던 제품이며 소규모 웹서비스와 OTT 등 미디어 서비스를 겨냥했다. 이날 인텔은 "2020년 출시된 2세대 제온 스케일러블 프로세서 기반 서버를 제온6 기반으로 대체하면 서버 대수를 1/3 수준으로 줄이고 전력 소모와 이산화탄소(CO2) 방출을 크게 줄일 수 있다"고 설명했다. 이어 "미디어 서버에서 144개 동영상 스트림 처리시 초당 프레임 처리 속도는 2세대 제온 서버가 628fps, 제온6가 2천638fps로 처리 성능이 4배 이상 늘어난다"고 설명했다. ■ "SAP, 제온6 교체 후 최대 25% 성능 향상" 인텔은 고객사 사례를 소개하며 "이베이가 제온6 기반 서버에서 테스트한 결과 현재 가장 강력한 경쟁사 솔루션 대비 와트당 성능은 25% 앞선다"고 설명했다. 이어 "SAP는 기존 운용 소프트웨어 환경을 제온6 기반 서버에서 테스트한 결과 별도 소프트웨어 최적화 없이 최대 25% 성능 향상, 60% 전력 절감 효과를 얻었다"고 덧붙였다. 인텔은 오는 3분기에 P코어 탑재 제온6 6900P 시리즈(개발명 '그래나이트래피즈')를, 내년 1월에 E코어 탑재 제온 6900E, P코어 탑재 제온 6700P 등을 출시 예정이다.

2024.06.04 17:41권봉석

인텔 제온 기반 '오로라' 슈퍼컴, 세계서 가장 빠른 AI 성능 달성

인텔과 HPE가 지난 해 6월 미국 아르곤 국립연구소에 구축한 슈퍼컴퓨터 '오로라'(Aurora)가 가장 빠른 AI 성능을 달성했다. 인텔과 HPE, 아르곤 국립연구소는 13일(독일 현지시간) 독일 함부르크에서 열리는 ISC 하이퍼포먼스 2024 컨퍼런스에서 "오로라가 전체 연산 성능에서 1.012 EFLOPS(엑사플롭스, 초당 부동소수점 연산을 100경번 수행), AI 연산 성능에서 10.6 AI EFLOPS를 달성했다"고 밝혔다. 오로라는 HBM(고대역폭 메모리)을 내장한 제온 CPU 맥스 2개, 데이터센터 GPU 맥스 6개를 내장한 블레이드 서버 1만 624개로 구성됐다. 전체 CPU는 2만 1천248개, GPU는 6만 3천744개다. 인텔은 부동소수점 연산을 병렬처리하는 성능을 측정하는 HPL(고성능 린팩) 벤치마크에서 오로라에 탑재된 블레이드 서버 중 87%인 9천234개 노드만 활용해 1.012 EFLOPS를 달성했다고 밝혔다. 또 AI에 필요한 32·64비트 부동소수점 연산 성능을 측정하는 HPL-MxP(고성능 린팩-복합정도) 벤치마크 성능은 10.6 AI 엑사플롭스로 14일 현재 가장 빠르다고 설명했다. 세계 슈퍼컴퓨터 연산 성능 순위를 1년에 두 번 집계해 발표하는 '톱500' 순위표도 이 날 2024년 6월 기준으로 갱신됐다. 1위 슈퍼컴퓨터는 2023년 순위에 처음 등장한 미국 에너지부 오크리지 국립연구소 소속 '프론티어'이며 최대 1.206 엑사플롭스 연산이 가능하다. 오로라는 1.012 엑사플롭스, 마이크로소프트 애저 클라우드에 설치된 4세대 제온 기반 슈퍼컴퓨터 '이글'은 561페타플롭스로 3위에 올랐다. 톱500 재단은 "오로라는 현재 완전히 가동되지 않지만 엑사스케일 장벽을 공식적으로 넘어선 두 번째 슈퍼컴퓨터이며 지난 해 11월(585.34 페타플롭스) 대비 성능이 크게 향상됐다"고 설명했다.

2024.05.14 09:41권봉석

세계 16위 성능 美 슈퍼컴퓨터, 6.5억원에 팔렸다

2017년 전세계 연산 속도 순위 16위에 올랐던 미국 정부 연구소 슈퍼컴퓨터가 도입 7년만에 공매 절차로 정리됐다. 낙찰 가격은 도입 원가에 크게 못 미치는 48만 달러(약 6억 5천232만원)다. 공매 대상이 된 슈퍼컴퓨터는 2017년 미국 국립대기연구센터(NCAR) 와이오밍 슈퍼컴퓨터 센터에 도입된 '샤이엔'(Cheyenne)이다. 샤이엔은 SGI(2016년 HPe에 피인수)가 공급한 제품이며 인텔 제온 E5-2697v4(2.3GHz, 16코어) 프로세서 8천 76개, DDR4-2400 메모리 모듈 313TB로 구성됐다. 도입 당시 성능은 최대 5.34 페타플롭스(PFLOPS, 초당 1천조 번 부동소수점연산)로 2012년 도입된 슈퍼컴퓨터인 옐로스톤(1.5 페타플롭스)의 3배 이상이었다. 2017년 도입 당시 전세계 슈퍼컴퓨터 성능 순위인 '톱500'에서 16위에 올랐다. NCAR은 당초 5년 주기로 슈퍼컴퓨터를 교체하던 관행에 따라 2022년 샤이엔을 교체할 예정이었다. 그러나 코로나19로 촉발된 공급망 불안정과 반도체 수급난 등으로 시기를 놓쳤다. 미국 연방총무청(GSA)은 지난 4월 말 샤이엔을 불용자산으로 경매에 부쳤다. 전체 중량 9.5톤에 이르는 전체 시스템 해체/운송 비용은 모두 낙찰자가 부담하는 조건이다. 슈퍼컴퓨터는 일반 공랭식 대비 열을 효과적으로 식힐 수 있는 수랭식 냉각장치를 이용한다. NCAR은 "냉매를 순환하는 케이블이 빠지는 문제를 겪고 있으며 계산 노드 중 약 1% 가량이 수리 불가능한 메모리 모듈 고장으로 오류를 낸다"고 밝혔다. 경매 시작 가격은 2만 7천달러(약 3천670만원)로 시작했지만 경매 마감일인 3일 27만 달러(약 3억 6천693만원)를 넘어섰다. 최종 낙찰 가격은 48만 달러(약 6억 5천232만원)로 확장됐다. 샤이엔에 탑재된 제온 E5-2697v4 프로세서는 작동 상태 등에 따라 중고 시장에서 약 6만원 대에 거래된다. 프로세서만 판매할 경우 약 4억 8천456만원을 건질 수 있다. 또 DDR4-2400 메모리를 모두 매각할 경우 30만 달러(약 4억 770만원) 가량을 얻는다. 서버를 구성하는 랙 등을 고철로 처리하면 추가 수익도 기대할 수 있다. NCAR 와이오밍 슈퍼컴퓨터센터는 샤이엔을 대체할 슈퍼컴퓨터로 지난 해 7월 '데레초'(Derecho)를 도입해 가동중이다. 데레초는 AMD 3세대 에픽 7763(64코어, 2.45GHz) 프로세서 5천 58개와 엔비디아 A100 GPU 328개로 샤이엔의 3배 이상인 19.87 페타플롭스를 구현했다.

2024.05.05 08:49권봉석

인텔, 1분기 순익 전망치 웃돌아...매출 17.4조원 전년比 9% ↑

인텔은 25일(미국 현지시간) 올 1분기 실적 발표를 통해 매출 127억 달러(약 17조 4천371억원), 영업이익은 주당 0.18달러를 기록했다고 밝혔다. 주력 제품인 PC 프로세서 매출이 두 자릿수로 폭발적으로 상승하고 영업이익도 순손실에서 흑자로 전환했다. 다만 2분기 전망치는 작년 수준을 벗어나지 못할 전망이다. 올 1분기 인텔 매출은 총 127억 달러(약 17조 4천371억원)로 전년 동기(117억 달러) 대비 9% 상승했다. 그러나 올 초 인텔 전망치(112억~132억 달러)를 크게 벗어나지 않았다. 주당 영업이익은 전년 동기 0.04달러 순손실에서 0.18달러 흑자로 전환했다. 실적 발표 전 시장 전망치인 0.14달러를 상회했다. 인텔은 올 1월부터 내부 조직을 파운드리·비 파운드리와 자회사 등으로 재편하고 각종 실적도 이에 맞게 3개 그룹으로 나눠 집계 중이다. PC·서버용 프로세서와 네트워크·엣지 제품을 개발하는 프로덕트 그룹 매출은 119억 달러(약 16조 3천589억원)으로 전년 대비 17% 상승했다. 특히 코어 울트라 등 PC용 프로세서를 담당하는 클라이언트 컴퓨팅 그룹 매출은 75억 달러(약 10조 3천072억원)로 전년 대비 31% 늘었다. 반면 네트워크·엣지(NEX) 매출은 전년 대비 8% 하락한 14억 달러(약 1조 9천237억원)를 기록했다. 내부·외부 제품 생산과 공정 개발, 공급망 관리를 담당하는 파운드리 그룹 매출은 44억 달러(약 6조 460억원)로 전년 동기 대비 10% 줄었다. 알테라(FPGA)와 모빌아이 등 기타 부문 매출은 7억 7천500만 달러(약 1조 647억원)로 전년 대비 46% 감소했다. 인텔은 올 2분기 매출을 최저 125억 달러(약 17조 1천737억원)에서 135억 달러(18조 5천476억원)로 예상했다. 작년 2분기(129억 달러, 약 16조 5천442억원) 대비 오히려 감소할 수 있다는 것이다.

2024.04.26 10:21권봉석

인텔 "서버·AI PC서 메타 라마3 구동 지원"

인텔은 19일 메타가 공개한 생성 AI LLM(거대언어모델) 라마3(Llama 3)를 제온 프로세서와 가우디 AI 가속기, 코어 울트라 탑재 AI PC 등에서 지원한다고 밝혔다. 메타가 공개한 라마3는 오픈소스 생성 AI 모델이며 데이터셋 중 비영어권 데이터 비중을 5%까지 높였다. 현재 매개변수 80억 개, 700억 개 버전이 선 공개됐다. 매개변수 4천억 개 버전은 현재 데이터셋 훈련중이다. 인텔은 가우디 AI 가속기, 제온/코어 울트라 프로세서와 아크 GPU로 메타가 선공개한 매개변수 80억/700억 개 버전의 구동을 검증했다고 밝혔다. 인텔은 파이토치(PyTorch), 딥스피드, 인텔 옵티멈 하바나 라이브러리, 인텔 파이토치 익스텐션 등 오픈소스 소프트웨어로 수행한 자체 벤치마크 결과도 공개했다. 인텔이 2분기 중 출시할 P코어 제온6 프로세서는 80억 개 모델 추론 구동시 4세대 제온 스케일러블 프로세서 대비 지연 시간을 절반으로 단축했다. 또 700억 개 버전에서 토큰 하나당 지연시간을 0.1초 미만으로 줄였다. 코어 울트라 프로세서는 내장 아크 GPU를 이용해 라마3 구동시 사람이 읽을 수 있는 것보다 더 빠른 속도로 토큰을 생성했다. Xe 행렬곱셈 확장(XMX)을 내장한 아크 A770은 16GB 메모리를 활용해 라마3 처리를 가속한다. 가우디2 AI 가속기는 라마2 3개 모델(70억개, 130억개, 7천억개)에 이어 라마3 모델도 구동했다. 올 하반기 출시될 가우디3 AI 가속기도 라마3를 지원한다. 인텔은 향후 매개변수를 늘리고 성능을 강화한 라마3 모델도 지속 지원할 예정이다.

2024.04.19 10:24권봉석

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

커세어, 워크스테이션용 DDR5 ECC 메모리 출시

커세어가 15일 오류 정정 기능을 내장한 'WS DDR5 RDIMM 메모리 키트'를 출시했다. WS DDR5 RDIMM 메모리 키트는 입출력 오류를 정정할 수 있는 ECC 기능을 내장해 정밀한 수치 계산이 필요한 워크스테이션에 최적화됐다. 최대 속도는 6,400MHz이며 인텔 XMP 3.0, AMD EXPO를 지원한다. 인텔 4세대 제온 스케일러블 프로세서, AMD 라이젠 스레드리퍼 7000 시리즈와 호환된다. 16/32GB 모듈로 작동 속도와 클록 레이턴시에 따라 64GB(16GB×4), 128GB(16GB×8, 32GB×4), 256GB(32GB×8) 용량 중 선택할 수 있다. 제품 단종 전까지 문제 제품을 교환 가능한 제한 보증 서비스가 적용되며 국내 판매 가격은 미정.

2024.04.15 10:19권봉석

인텔 "올 2분기 중 P·E코어 제온6 출하"

인텔이 9일(미국 현지시간) 미국 애리조나 주 피닉스에서 진행된 '인텔 비전' 행사에서 올 2분기 출시할 서버용 프로세서 정식 명칭과 출시 일정을 공개했다. 인텔은 2017년 제온 프로세서 라인업을 재정비하고 'n세대 제온 스케일러블 프로세서' 명칭을 적용했다. 이후 2021년 3세대, 지난 해 4세대·5세대 제온까지 이 명명법을 유지했다. 그러나 올 2분기부터 출시할 제온 프로세서는 '제온6'(Xeon 6)로 이름을 단순화했다. '제온' 명칭은 그대로 두고 세대별 구분을 위한 숫자만 늘어나는 형태다. 이 명명법은 앞으로 데이터센터와 클라우드, 엣지 등 모든 제온에 적용된다. 인텔은 올 2분기 중 성능 중시 작업을 우선한 P코어 제온6(개발명 그래나이트래피즈)를 먼저 시장에 공급한다. 이후 클라우드 컴퓨팅 등 코어 수가 중요한 작업을 위한 E코어 제온6(개발명 시에라포레스트)가 출시된다. 두 제품 모두 EUV(극자외선) 기반 공정 '인텔 3'에서 생산된다.

2024.04.10 10:37권봉석

엠지알브이-제온스, '코리빙 운영 관리 디지털전환' 협업한다

부동산 임팩트 디벨로퍼 엠지알브이(MGRV, 대표 조강태)는 부동산 통합관리 플랫폼 기업인 제온스와 '코리빙 운영 관리 디지털 전환을 위한 업무협약'을 체결했다고 28일 밝혔다. 엠지알브이는 1인 가구 증가세와 이에 따른 국내 코리빙 저변 확대 기조에 발맞춰 운영 지점 확대 및 주거 솔루션 고도화에 박차를 가하고 있다. 이번 업무협약은 온·오프라인 상에서 끊김없는 코리빙 고객 경험을 구축하기 위한 첫걸음이다. 이번 업무협약을 통해 엠지알브이는 제온스의 부동산 임대관리 솔루션인 '이지램스'를 도입하고 온·오프라인 코리빙 운영 솔루션을 클라우드에 통합 구축한다. 작년 말 연동 및 최적화 작업을 마쳤으며, 올 1월부터 약 2개월간의 베타테스트를 통해 운영 적합성 확인 후 이번 MOU를 계기로 정식 도입한다. 이지램스 도입으로 엠지알브이는 고객들에게 발송할 각종 고지서, 계약서 등의 전자 문서를 단일화된 플랫폼에서 제공 및 통합 관리함으로써 운영 효율을 극대화할 수 있다. 고객들의 코리빙 이용 편의성도 강화한다. 맹그로브 입주를 희망하는 고객들은 '맹그로브' 앱을 통해 실시간으로 ▲지점 및 객실 타입별 공실 확인 ▲입주 가능 일자와 예상 월 이용료 조회 ▲투어 신청까지 한 번에 가능한 원스톱 솔루션을 이용할 수 있다. 또 수납 및 청구와 같은 기능도 도입돼 입주 후 고객들의 생활 편의도 향상될 전망이다. 해당 기능은 올 상반기 내로 적용 예정이다. 이 외에도 양사는 코리빙의 운영 관리 효율성을 극대화하는 한편 디지털 전환을 통한 양질의 서비스 제공을 위해 상호 협력할 방침이다. 제온스는 다수 기업의 임대·자산관리 솔루션을 구축하고 운영하는 기업이다. 이지램스 플랫폼을 기반으로 롯데호텔 시니어 레지던스 관리 플랫폼, 신세계그룹 통합자산관리 플랫폼을 구축, 운영 중이다. 이 외에도 챗 GPT와 같은 생성형 AI 검색 기능도 개발 중이다. 이번 디지털 전환을 이끈 엠지알브이 DX 그룹은 지난 6월 설립됐다. IoT, AI 기반 언택트 기술뿐 아니라 PMS, 공간 입출입 제어, 온·오프라인 커뮤니티 프로그램 연동 등 다양한 주거 경험 혁신을 위한 서비스를 개발해 차별화된 주거 경험을 제공하고자 노력하고 있다. 엠지알브이 DX 그룹 총괄 이성배 최고개발책임자는 "코리빙은 급증하는 1인 가구에 최적화된 주거 솔루션으로, 운영 역량과 최신 기술이 결합돼 단순한 물리적 공간 그 이상의 가치를 제공한다"며 "지역과 기간의 제약이 없는 유연한 삶의 토대 구축을 목표로 주거용 부동산 시장에서의 기술 혁신에 앞장설 것"이라고 밝혔다. 김인섭 제온스 대표는 "향후 부동산 자산관리 시장에 전문성이 꾸준히 요구될 것으로 예상된다"면서 "코리빙과 같은 주거 및 오피스, 리테일 등 다양한 임대관리 니즈에 대응할 수 있는 이지램스를 통해 고객사와 임차인 모두에게 최적의 서비스를 제공할 것"이라고 말했다.

2024.03.28 14:06백봉삼

엔비디아, DGX B200에 인텔 제온 5세대 프로세서 채택

엔비디아가 19일(미국 현지시간 18일) 공개한 AI 연산 플랫폼 'DGX B200'에 인텔 5세대 제온 프로세서(에메랄드래피즈)를 탑재했다. DGX B200은 x86 기반 생성 AI를 처리하기 위한 플랫폼이다. 차세대 AI GPU인 블랙웰 B200 텐서코어 GPU를 8개 탑재했고 AI 모델 훈련 속도는 최대 72페타플롭스(PFLOPS), 추론 속도는 최대 144 페타플롭스다. 엔비디아는 DGX B200을 구성하는 x86 프로세서로 인텔 5세대 제온 프로세서인 '제온 플래티넘 8570' 프로세서 두 개를 탑재했다. 제온 플래티넘 8570은 기본 작동 클록 2.1GHz, 최대 작동 클록 4GHz이며 캐시 메모리 300MB를 탑재했다. DGX H100에 탑재된 제온 플래티넘 8480C(기본 2.0GHz, 최대 3.8GHz, 캐시 메모리 105MB) 대비 작동 클록이 향상됐고 캐시 메모리는 3배 늘어났다. 인텔 4세대/5세대 제온 프로세서는 소켓 차원에서 호환 가능하며 기존 서버 업체가 개발한 서버에서 프로세서만 교체해 업그레이드 가능하다. 엔비디아는 2020년 출시된 DGX A100에 AMD 2세대 에픽(EPYC) 프로세서를 탑재했지만 지난 해 1월 출시한 DGX H100부터 인텔 제온 프로세서로 전환했다. 2022년 6월 젠슨황 엔비디아 CEO는 "인텔 제온 스케일러블 프로세서는 뛰어난 싱글스레드(1코어) 성능을 지녔다"고 선정 동기를 밝힌 바 있다. 엔비디아 DGX B200은 올해 안에 출시 예정이며 가격은 미정.

2024.03.19 08:22권봉석

인텔, 반도체 제조 역량 모아 '파운드리 그룹'에 집중

인텔이 2021년 3월 발표한 'IDM(종합반도체기업) 2.0' 전략의 마지막 단계인 대규모 조직개편에 돌입한다. 반도체 제조와 제품 설계 조직간의 독립성을 확보하기 위한 절차다. 인텔은 올해 '인텔 파운드리 서비스'를 '인텔 파운드리 그룹'으로 격상하는 한편 제품 개발과 설계를 담당하는 조직을 '인텔 프로덕트 그룹'으로 통합한다. 양대 그룹은 여전히 인텔 아래서 사업을 영위하며 분사 예정은 없다는 것이 인텔 측 설명이다. 인텔은 반도체 생산과 설계를 분리해 외부 파운드리 고객사의 비밀 준수를 도모하는 한편 경쟁사까지 아우르는 생산 역량을 확보할 방침이다. 단 AMD나 퀄컴 등 주요 경쟁사가 인텔에 핵심 제품 생산을 위탁할 수 있는지는 미지수다. ■ 제품 제조/개발 관련 두 그룹으로 조직개편 지난 해까지 인텔 조직은 일반 소비자용 코어 프로세서를 설계·생산하는 클라이언트 컴퓨팅 그룹(CCG), 제온 프로세서 등 서버용 제품을 생산하는 데이터센터·AI(DCAI), 네트워크·엣지(NEX), 반도체를 생산하는 인텔 파운드리 서비스(IFS) 그룹 등으로 구성됐다. 그러나 올해부터는 인텔 파운드리 서비스를 인텔 파운드리 그룹으로 한 차원 격상하고 기술 개발, 글로벌 제조 및 공급망과 내부·외부 제품 생산 등을 책임진다. 각종 공정 개발 역시 파운드리 그룹에서 담당한다. 팻 겔싱어 인텔 CEO는 지난 21일(미국 현지시간) 'IFS 다이렉트 커넥트 2024' 행사 이후 질의응답에서 "파운드리·프로덕트 그룹 사이에는 분명한 선이 있으며 올해 안에 인텔 파운드리를 독립적으로 분리하기 위해 준비할 것"이라고 밝혔다. 코어·제온 프로세서와 기타 제품을 설계·개발하는 조직은 3개로 나눠져 있었지만 새로 만들어진 인텔 프로덕트 그룹으로 통합됐다. FPGA 사업을 담당하는 프로그래머블 솔루션 그룹(PSG)은 올해부터 분사해 독립적인 조직으로 운영될 예정이다. ■ "파운드리·프로덕트 그룹, 독립적·상호의존적 운영" 인텔은 "파운드리 그룹과 프로덕트 그룹은 어디까지나 독립적이면서 상호 의존적으로 운영될 것"이라고 설명했다. 또 일각에서 나오는 추측과 달리 "두 그룹 중 한 곳을 분사할 계획은 없다"고 강조했다. AMD는 TSMC는 물론 자체 파운드리를 분사해 설립한 글로벌파운드리에 반도체 제조를 위탁하며 생산 비용을 절감했다. 그러나 TSMC의 7·5·3나노급 등 미세공정은 AMD만 이용하는 것이 아니다. 이런 탓에 AMD는 생산량 확보를 위해 제품 생산 비율을 수시로 조정하고 있다. 단 파운드리 그룹이 프로덕트 그룹의 수주를 항상 안정적으로 확보할 수 있는 것도 아니다. 프로덕트 그룹도 생산 단가나 와트 당 성능, 단위 면적 당 트랜지스터 집적도나 제품 성격을 고려해 경우에 따라서는 TSMC나 삼성전자 등 외부 파운드리 업체를 선택할 수 있다. ■ "인텔 파운드리, 전체 수주량 150억 달러로 상승" 옴디아 등 시장조사업체에 따르면 2022년 기준 대만 TSMC의 매출은 750억 달러(약 97조 500억원)다. 같은 기간 삼성전자 파운드리 사업부 매출은 208억 달러(약 26조 5천400억원)를 기록했다. 지난 해 인텔 IFS의 전체 매출은 9억 5천200만 달러(약 1조 2천671억원)이며 이는 내부 제품 생산을 제외한 금액이다. 또 외부 고객사 전체 수주 규모는 최근 공개된 마이크로소프트 수주 건을 포함해 약 150억 달러(약 19조 9천650억원)에 달한다. 파운드리 그룹은 프로덕트 그룹이 생산을 의뢰하는 코어·제온 프로세서 등 제품의 생산 물량과 추가 비용 등을 모두 매출로 기록할 예정이다. 이를 모두 합치면 이르면 올해 안, 늦어도 내년 중에는 인텔 파운드리가 삼성전자 파운드리 매출액을 따라잡을 가능성이 커졌다. ■ '모두를 위한 파운드리' 구상, 경쟁사도 흡수할까 팻 겔싱어 인텔 CEO는 24일 IFS 다이렉트 커넥트 기조연설 이후 질의응답에서 "인텔 파운드리가 엔비디아, AMD는 물론 구글이 설계하는 TPU 칩, 아마존이 AWS를 위해 설계한 추론용 칩에 쓰이기를 원한다"고 밝힌 바 있다. 단 팻 겔싱어 CEO의 구상대로 최근 PC용 칩 분야에서 스냅드래곤 X 엘리트를 내세워 경쟁자로 부상한 퀄컴, 혹은 라이젠·에픽 등 프로세서를 생산하는 AMD가 과연 경쟁사에 제품 생산을 위탁할 수 있는지는 미지수다. 실제로 2021년 7월 '인텔 액셀러레이티드' 행사 당시 팻 겔싱어 CEO는 "퀄컴이 제품 중 일부를 2024년부터 인텔 20A 공정에서 생산할 것"이라고 설명했다. 그러나 이후 인텔 행사에서 퀄컴이 언급된 적은 없다. 팻 겔싱어 CEO는 지난 해 9월 '인텔 이노베이션 2023' 행사 당시 "퀄컴은 반도체 업계의 좋은 동반자이지만 아직까지는 웨이퍼를 공급하는 고객사가 아니다. 그러나 미래에는 고객사가 되기를 바란다"고 밝힌 바 있다.

2024.02.26 16:55권봉석

인텔, 제온 맥스 756개 탑재 HPC '카디널' 공개

인텔은 델테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(OSC)와 협업한 최첨단 고성능 컴퓨팅(HPC) 클러스터인 '카디널(Cardinal)'을 23일 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 특별히 설계됐다. AI와 머신 러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 새로운 클러스터는 2016년에 출시된 오웬스 클러스터를 대체할 시스템보다 더 대규모의 업그레이드다. 카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈를 활용한 이기종 시스템이다. 총 3만9천312 CPU 코어를 제공하는 756개 맥스 시리즈 CPU 9470 프로세서와, 128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리를 탑재했다. 단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다. 32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어 GPU 4개를 탑재했으며, 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2 인피니밴드로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공한다. 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업 처리가 가능하다. 인텔 데이터 센터 AI 솔루션 제품군 총괄 오기 브르기치 부사장은 “인텔 제온 CPU 맥스 시리즈는 가장 널리 채택된 AI 프레임워크와 라이브러리를 활용해 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지"라며 "이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 밝혔다.

2024.02.23 11:33김우용

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

인텔, 데이터센터·AI 그룹 총괄에 저스틴 호타드 선임

인텔이 HPE 출신 저스틴 호타드를 영입하고 오는 2월 1일부로 데이터센터·AI 그룹(DCAI) 총괄 겸 수석부사장에 선임한다고 밝혔다. 산드라 리베라 데이터센터·AI 그룹 전임 총괄은 올 초부터 프로그래머블 솔루션스 그룹 CEO로 이동했다. 저스틴 호타드 수석부사장은 1997년 모토로라(현 레노버)를 시작으로 2007년 NCR 등을 거쳐 2015년부터 지난 해까지 HPE 등에 재직했다. HPE에서는 수석 부사장 겸 고성능 컴퓨팅, AI 및 연구소 총괄을 역임했다. 팻 겔싱어 인텔 CEO는 "저스틴 호타드 수석부사장은 데이터센터 및 AI 분야 성장과 혁신 분야에서 인상적인 경력을 보유하고 있다. 또 세상을 변화시키는 기술을 개발한다는 인텔 비전에 전적으로 공감하고 있으며, 향후 수십년 간 고객 역량을 강화하는데 기여할 인텔의 역할에 대해서도 열정을 가지고 있다"고 밝혔다. 저스틴 호타드 수석부사장은 인텔 경영진 소속으로 팻 겔싱어 CEO에게 직속 보고하며 서버용 제온 프로세서, GPU와 가속기를 포함한 데이터센터 제품군을 책임지게 된다.

2024.01.05 11:36권봉석

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현