• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'제온'통합검색 결과 입니다. (44건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, 반도체 제조 역량 모아 '파운드리 그룹'에 집중

인텔이 2021년 3월 발표한 'IDM(종합반도체기업) 2.0' 전략의 마지막 단계인 대규모 조직개편에 돌입한다. 반도체 제조와 제품 설계 조직간의 독립성을 확보하기 위한 절차다. 인텔은 올해 '인텔 파운드리 서비스'를 '인텔 파운드리 그룹'으로 격상하는 한편 제품 개발과 설계를 담당하는 조직을 '인텔 프로덕트 그룹'으로 통합한다. 양대 그룹은 여전히 인텔 아래서 사업을 영위하며 분사 예정은 없다는 것이 인텔 측 설명이다. 인텔은 반도체 생산과 설계를 분리해 외부 파운드리 고객사의 비밀 준수를 도모하는 한편 경쟁사까지 아우르는 생산 역량을 확보할 방침이다. 단 AMD나 퀄컴 등 주요 경쟁사가 인텔에 핵심 제품 생산을 위탁할 수 있는지는 미지수다. ■ 제품 제조/개발 관련 두 그룹으로 조직개편 지난 해까지 인텔 조직은 일반 소비자용 코어 프로세서를 설계·생산하는 클라이언트 컴퓨팅 그룹(CCG), 제온 프로세서 등 서버용 제품을 생산하는 데이터센터·AI(DCAI), 네트워크·엣지(NEX), 반도체를 생산하는 인텔 파운드리 서비스(IFS) 그룹 등으로 구성됐다. 그러나 올해부터는 인텔 파운드리 서비스를 인텔 파운드리 그룹으로 한 차원 격상하고 기술 개발, 글로벌 제조 및 공급망과 내부·외부 제품 생산 등을 책임진다. 각종 공정 개발 역시 파운드리 그룹에서 담당한다. 팻 겔싱어 인텔 CEO는 지난 21일(미국 현지시간) 'IFS 다이렉트 커넥트 2024' 행사 이후 질의응답에서 "파운드리·프로덕트 그룹 사이에는 분명한 선이 있으며 올해 안에 인텔 파운드리를 독립적으로 분리하기 위해 준비할 것"이라고 밝혔다. 코어·제온 프로세서와 기타 제품을 설계·개발하는 조직은 3개로 나눠져 있었지만 새로 만들어진 인텔 프로덕트 그룹으로 통합됐다. FPGA 사업을 담당하는 프로그래머블 솔루션 그룹(PSG)은 올해부터 분사해 독립적인 조직으로 운영될 예정이다. ■ "파운드리·프로덕트 그룹, 독립적·상호의존적 운영" 인텔은 "파운드리 그룹과 프로덕트 그룹은 어디까지나 독립적이면서 상호 의존적으로 운영될 것"이라고 설명했다. 또 일각에서 나오는 추측과 달리 "두 그룹 중 한 곳을 분사할 계획은 없다"고 강조했다. AMD는 TSMC는 물론 자체 파운드리를 분사해 설립한 글로벌파운드리에 반도체 제조를 위탁하며 생산 비용을 절감했다. 그러나 TSMC의 7·5·3나노급 등 미세공정은 AMD만 이용하는 것이 아니다. 이런 탓에 AMD는 생산량 확보를 위해 제품 생산 비율을 수시로 조정하고 있다. 단 파운드리 그룹이 프로덕트 그룹의 수주를 항상 안정적으로 확보할 수 있는 것도 아니다. 프로덕트 그룹도 생산 단가나 와트 당 성능, 단위 면적 당 트랜지스터 집적도나 제품 성격을 고려해 경우에 따라서는 TSMC나 삼성전자 등 외부 파운드리 업체를 선택할 수 있다. ■ "인텔 파운드리, 전체 수주량 150억 달러로 상승" 옴디아 등 시장조사업체에 따르면 2022년 기준 대만 TSMC의 매출은 750억 달러(약 97조 500억원)다. 같은 기간 삼성전자 파운드리 사업부 매출은 208억 달러(약 26조 5천400억원)를 기록했다. 지난 해 인텔 IFS의 전체 매출은 9억 5천200만 달러(약 1조 2천671억원)이며 이는 내부 제품 생산을 제외한 금액이다. 또 외부 고객사 전체 수주 규모는 최근 공개된 마이크로소프트 수주 건을 포함해 약 150억 달러(약 19조 9천650억원)에 달한다. 파운드리 그룹은 프로덕트 그룹이 생산을 의뢰하는 코어·제온 프로세서 등 제품의 생산 물량과 추가 비용 등을 모두 매출로 기록할 예정이다. 이를 모두 합치면 이르면 올해 안, 늦어도 내년 중에는 인텔 파운드리가 삼성전자 파운드리 매출액을 따라잡을 가능성이 커졌다. ■ '모두를 위한 파운드리' 구상, 경쟁사도 흡수할까 팻 겔싱어 인텔 CEO는 24일 IFS 다이렉트 커넥트 기조연설 이후 질의응답에서 "인텔 파운드리가 엔비디아, AMD는 물론 구글이 설계하는 TPU 칩, 아마존이 AWS를 위해 설계한 추론용 칩에 쓰이기를 원한다"고 밝힌 바 있다. 단 팻 겔싱어 CEO의 구상대로 최근 PC용 칩 분야에서 스냅드래곤 X 엘리트를 내세워 경쟁자로 부상한 퀄컴, 혹은 라이젠·에픽 등 프로세서를 생산하는 AMD가 과연 경쟁사에 제품 생산을 위탁할 수 있는지는 미지수다. 실제로 2021년 7월 '인텔 액셀러레이티드' 행사 당시 팻 겔싱어 CEO는 "퀄컴이 제품 중 일부를 2024년부터 인텔 20A 공정에서 생산할 것"이라고 설명했다. 그러나 이후 인텔 행사에서 퀄컴이 언급된 적은 없다. 팻 겔싱어 CEO는 지난 해 9월 '인텔 이노베이션 2023' 행사 당시 "퀄컴은 반도체 업계의 좋은 동반자이지만 아직까지는 웨이퍼를 공급하는 고객사가 아니다. 그러나 미래에는 고객사가 되기를 바란다"고 밝힌 바 있다.

2024.02.26 16:55권봉석

인텔, 제온 맥스 756개 탑재 HPC '카디널' 공개

인텔은 델테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(OSC)와 협업한 최첨단 고성능 컴퓨팅(HPC) 클러스터인 '카디널(Cardinal)'을 23일 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 특별히 설계됐다. AI와 머신 러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수적으로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 새로운 클러스터는 2016년에 출시된 오웬스 클러스터를 대체할 시스템보다 더 대규모의 업그레이드다. 카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈를 활용한 이기종 시스템이다. 총 3만9천312 CPU 코어를 제공하는 756개 맥스 시리즈 CPU 9470 프로세서와, 128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리를 탑재했다. 단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다. 32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어 GPU 4개를 탑재했으며, 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2 인피니밴드로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공한다. 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업 처리가 가능하다. 인텔 데이터 센터 AI 솔루션 제품군 총괄 오기 브르기치 부사장은 “인텔 제온 CPU 맥스 시리즈는 가장 널리 채택된 AI 프레임워크와 라이브러리를 활용해 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지"라며 "이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 밝혔다.

2024.02.23 11:33김우용

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

인텔, 데이터센터·AI 그룹 총괄에 저스틴 호타드 선임

인텔이 HPE 출신 저스틴 호타드를 영입하고 오는 2월 1일부로 데이터센터·AI 그룹(DCAI) 총괄 겸 수석부사장에 선임한다고 밝혔다. 산드라 리베라 데이터센터·AI 그룹 전임 총괄은 올 초부터 프로그래머블 솔루션스 그룹 CEO로 이동했다. 저스틴 호타드 수석부사장은 1997년 모토로라(현 레노버)를 시작으로 2007년 NCR 등을 거쳐 2015년부터 지난 해까지 HPE 등에 재직했다. HPE에서는 수석 부사장 겸 고성능 컴퓨팅, AI 및 연구소 총괄을 역임했다. 팻 겔싱어 인텔 CEO는 "저스틴 호타드 수석부사장은 데이터센터 및 AI 분야 성장과 혁신 분야에서 인상적인 경력을 보유하고 있다. 또 세상을 변화시키는 기술을 개발한다는 인텔 비전에 전적으로 공감하고 있으며, 향후 수십년 간 고객 역량을 강화하는데 기여할 인텔의 역할에 대해서도 열정을 가지고 있다"고 밝혔다. 저스틴 호타드 수석부사장은 인텔 경영진 소속으로 팻 겔싱어 CEO에게 직속 보고하며 서버용 제온 프로세서, GPU와 가속기를 포함한 데이터센터 제품군을 책임지게 된다.

2024.01.05 11:36권봉석

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 낸드 계열사 지분 中에 전량매각…고부가 메모리 집중

[지디 코믹스] 판교 대기업 다니는 김부장 딸 결혼식

아우디, F1 첫 진출 앞두고 '레이싱 머신' 디자인 콘셉트 공개

비아그라에 또 이런 효능이?..."선천성 난청 치료 도움 가능성 판명"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.