• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인텔 제온 프로세서'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔, 14나노 기반 10세대 보급형 CPU 단종절차 돌입

인텔이 14나노급 공정에서 생산되는 데스크톱PC용 10세대 코어 프로세서 단종 절차에 들어갔다. 이번에 단종되는 10세대 코어 프로세서는 2020년 2분기 출시된 제품이며 14나노 공정 후반기에 생산됐다. 현재는 성능보다는 단가가 중요한 사무용·업무용, 조달 납품용 PC에 주로 탑재된다. 인텔은 해당 프로세서 최종 주문을 내년 초까지 받은 후 마지막 생산 과정을 거쳐 내년 7월 생산을 완전 중단할 예정이다. 국내 주요 PC 제조사 관계자들은 단종 절차가 시장에 큰 영향을 주지 않을 것으로 전망했다. ■ 인텔, '제품변경안내' 통해 10세대 CPU 단종 예고 인텔은 지난 1일 PC 제조사와 유통사 등 고객사를 대상으로 발행하는 공지문인 '제품변경안내'(PCN)를 통해 일반 소비자용(박스)·제조사용(트레이) 10세대 코어 프로세서 단종 방침을 밝혔다. PCN에 따르면 코어 i5-10400F/10500/10600, 코어 i3-10100F/10105/10300/10305와 펜티엄 골드·셀러론 등 중저가 보급형 PC에 널리 쓰이는 프로세서는 물론 제온 W-1250 등 엔트리급 워크스테이션용 프로세서까지 30종 이상이 단종된다. 단 단종과 무관하게 고객지원은 지속된다. 일반 소비자용 박스 제품은 국내 유통 채널에서, 완제PC에 내장된 프로세서 불량은 각 제조사가 처리한다. ■ 국내 PC 업계 "단종 영향 크지 않을 것" 취재에 응한 국내 PC 업계 관계자들은 인텔의 단종 조치가 제품 생산 등에 큰 영향을 주지는 않을 것으로 예상했다. 한 중견 제조사 관계자는 "실제 판매량은 12세대 코어 프로세서(엘더레이크) 탑재 제품 판매량이 더 높으며 AMD 라이젠 프로세서 기반 PC 판매량도 늘어난 상황"이라고 설명했다. 또 다른 관계자는 "12세대 코어 프로세서나 AMD 라이젠 프로세서 등 대체 제품이 있어 향후 제품 생산에는 차질이 없다. 단종보다는 오히려 단가 상승이 더 큰 문제가 될 수 있다"고 밝혔다. 일반 소비자 대상 제품 판매에도 큰 영향은 없을 것으로 보인다. 커넥트웨이브 가격비교서비스 다나와 관계자는 "단종 대상 제품의 판매 점유율은 대부분 지난 해 하반기 이후 큰 의미 없는 수준인 1% 미만으로 하락했다"고 설명했다. 이어 "단종 예고 이후 국내 시장에서 재고가 소진되며 판매량이 일시적으로 늘어날 수는 있을 것"이라고 덧붙였다. ■ 주력 제품 생산 공정, EUV 기반 인텔 4/3으로 이동 인텔은 이미 14나노급 공정에서 생산하던 프로세서 중 상당수를 정리한 상태다. 14나노급 공정에서 생산되던 데스크톱PC용 11세대 코어 프로세서(로켓레이크)는 지난 해 2월 단종 예고를 거쳐 올 2월 생산을 마무리했다. 현재 주력 제품은 인텔 7(Intel 7), EUV 기반 인텔 4/3 공정에서 생산되며 하반기 주력 제품으로 꼽히는 루나레이크(Lunar Lake)는 대만 TSMC N3B 공정을 이용한다. 내년 7월 10세대 코어 프로세서가 단종되면 14나노급 공정에는 상당한 여유가 생긴다. 그러나 14나노급 공정 활용 방안이 마땅치 않다는 것이 문제다. 인텔은 2018년 하반기 코어·제온 프로세서 수급난을 겪으며 14나노급 생산 시설을 크게 확충했다. 수십 억 달러의 비용을 들인 시설을 놀려 두는 것도 바람직하지 않다. ■ 인텔, 14나노급 공정 활용 위해 올 초 UMC와 협업 인텔은 올 초 대만 파운드리인 UMC(聯華電子)와 14나노급 공정을 개선한 12나노급 반도체 생산 공정을 공동 개발하기로 했다. 그러나 양산 시점은 2027년 이후이며 아직 가시적인 성과도 나오지 않았다. 인텔 관계자는 내년 7월 이후 14나노급 공정 활용 방안과 신규 고객사 확보 여부 등 지디넷코리아 질의에 "확정된 사항이 없다"고 답했다.

2024.07.04 16:53권봉석

인텔, 반도체 제조 역량 모아 '파운드리 그룹'에 집중

인텔이 2021년 3월 발표한 'IDM(종합반도체기업) 2.0' 전략의 마지막 단계인 대규모 조직개편에 돌입한다. 반도체 제조와 제품 설계 조직간의 독립성을 확보하기 위한 절차다. 인텔은 올해 '인텔 파운드리 서비스'를 '인텔 파운드리 그룹'으로 격상하는 한편 제품 개발과 설계를 담당하는 조직을 '인텔 프로덕트 그룹'으로 통합한다. 양대 그룹은 여전히 인텔 아래서 사업을 영위하며 분사 예정은 없다는 것이 인텔 측 설명이다. 인텔은 반도체 생산과 설계를 분리해 외부 파운드리 고객사의 비밀 준수를 도모하는 한편 경쟁사까지 아우르는 생산 역량을 확보할 방침이다. 단 AMD나 퀄컴 등 주요 경쟁사가 인텔에 핵심 제품 생산을 위탁할 수 있는지는 미지수다. ■ 제품 제조/개발 관련 두 그룹으로 조직개편 지난 해까지 인텔 조직은 일반 소비자용 코어 프로세서를 설계·생산하는 클라이언트 컴퓨팅 그룹(CCG), 제온 프로세서 등 서버용 제품을 생산하는 데이터센터·AI(DCAI), 네트워크·엣지(NEX), 반도체를 생산하는 인텔 파운드리 서비스(IFS) 그룹 등으로 구성됐다. 그러나 올해부터는 인텔 파운드리 서비스를 인텔 파운드리 그룹으로 한 차원 격상하고 기술 개발, 글로벌 제조 및 공급망과 내부·외부 제품 생산 등을 책임진다. 각종 공정 개발 역시 파운드리 그룹에서 담당한다. 팻 겔싱어 인텔 CEO는 지난 21일(미국 현지시간) 'IFS 다이렉트 커넥트 2024' 행사 이후 질의응답에서 "파운드리·프로덕트 그룹 사이에는 분명한 선이 있으며 올해 안에 인텔 파운드리를 독립적으로 분리하기 위해 준비할 것"이라고 밝혔다. 코어·제온 프로세서와 기타 제품을 설계·개발하는 조직은 3개로 나눠져 있었지만 새로 만들어진 인텔 프로덕트 그룹으로 통합됐다. FPGA 사업을 담당하는 프로그래머블 솔루션 그룹(PSG)은 올해부터 분사해 독립적인 조직으로 운영될 예정이다. ■ "파운드리·프로덕트 그룹, 독립적·상호의존적 운영" 인텔은 "파운드리 그룹과 프로덕트 그룹은 어디까지나 독립적이면서 상호 의존적으로 운영될 것"이라고 설명했다. 또 일각에서 나오는 추측과 달리 "두 그룹 중 한 곳을 분사할 계획은 없다"고 강조했다. AMD는 TSMC는 물론 자체 파운드리를 분사해 설립한 글로벌파운드리에 반도체 제조를 위탁하며 생산 비용을 절감했다. 그러나 TSMC의 7·5·3나노급 등 미세공정은 AMD만 이용하는 것이 아니다. 이런 탓에 AMD는 생산량 확보를 위해 제품 생산 비율을 수시로 조정하고 있다. 단 파운드리 그룹이 프로덕트 그룹의 수주를 항상 안정적으로 확보할 수 있는 것도 아니다. 프로덕트 그룹도 생산 단가나 와트 당 성능, 단위 면적 당 트랜지스터 집적도나 제품 성격을 고려해 경우에 따라서는 TSMC나 삼성전자 등 외부 파운드리 업체를 선택할 수 있다. ■ "인텔 파운드리, 전체 수주량 150억 달러로 상승" 옴디아 등 시장조사업체에 따르면 2022년 기준 대만 TSMC의 매출은 750억 달러(약 97조 500억원)다. 같은 기간 삼성전자 파운드리 사업부 매출은 208억 달러(약 26조 5천400억원)를 기록했다. 지난 해 인텔 IFS의 전체 매출은 9억 5천200만 달러(약 1조 2천671억원)이며 이는 내부 제품 생산을 제외한 금액이다. 또 외부 고객사 전체 수주 규모는 최근 공개된 마이크로소프트 수주 건을 포함해 약 150억 달러(약 19조 9천650억원)에 달한다. 파운드리 그룹은 프로덕트 그룹이 생산을 의뢰하는 코어·제온 프로세서 등 제품의 생산 물량과 추가 비용 등을 모두 매출로 기록할 예정이다. 이를 모두 합치면 이르면 올해 안, 늦어도 내년 중에는 인텔 파운드리가 삼성전자 파운드리 매출액을 따라잡을 가능성이 커졌다. ■ '모두를 위한 파운드리' 구상, 경쟁사도 흡수할까 팻 겔싱어 인텔 CEO는 24일 IFS 다이렉트 커넥트 기조연설 이후 질의응답에서 "인텔 파운드리가 엔비디아, AMD는 물론 구글이 설계하는 TPU 칩, 아마존이 AWS를 위해 설계한 추론용 칩에 쓰이기를 원한다"고 밝힌 바 있다. 단 팻 겔싱어 CEO의 구상대로 최근 PC용 칩 분야에서 스냅드래곤 X 엘리트를 내세워 경쟁자로 부상한 퀄컴, 혹은 라이젠·에픽 등 프로세서를 생산하는 AMD가 과연 경쟁사에 제품 생산을 위탁할 수 있는지는 미지수다. 실제로 2021년 7월 '인텔 액셀러레이티드' 행사 당시 팻 겔싱어 CEO는 "퀄컴이 제품 중 일부를 2024년부터 인텔 20A 공정에서 생산할 것"이라고 설명했다. 그러나 이후 인텔 행사에서 퀄컴이 언급된 적은 없다. 팻 겔싱어 CEO는 지난 해 9월 '인텔 이노베이션 2023' 행사 당시 "퀄컴은 반도체 업계의 좋은 동반자이지만 아직까지는 웨이퍼를 공급하는 고객사가 아니다. 그러나 미래에는 고객사가 되기를 바란다"고 밝힌 바 있다.

2024.02.26 16:55권봉석

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

젠슨 황 "AI 10년 대전환 본격화…2등은 없다"

MS "멀티 에이전트 시대 온다…'애저 AI 파운드리' 역할 커져"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현