• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'CPU'통합검색 결과 입니다. (39건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"인텔 코어 울트라 200S 플러스, 코어 수 늘리고 가성비 강화"

"코어 울트라 200S 플러스 프로세서는 코어 수를 늘리고 작동 클록을 높여 게임과 다중작업 성능을 개선했다. 제한된 예산으로 보다 쉽게 선택할 수 있도록 가격 대비 성능에 중점을 둔 제품이다." 13일 오전 서울 여의도 FKI타워에서 진행된 '인텔 데스크톱 퍼포먼스 워크샵' 행사에서 주민규 인텔코리아 한국 채널영업본부장(전무)이 이렇게 강조했다. 인텔은 지난 3월 데스크톱 PC용 프로세서인 코어 울트라7 270K 플러스, 코어 울트라5 250K 플러스와 워크스테이션용 GPU인 아크 프로 B70/B65를 출시한 바 있다. 인텔코리아는 이날 행사에서 국내 IT·게임 전문기자 대상으로 이들 제품의 특징을 소개하고 실제 시연도 진행했다. "코어 울트라 200S 플러스, 가성비 강화" 코어 울트라 200S 플러스는 고성능 P(퍼포먼스) 코어 대신 저전력·고효율 E코어 4개를 확대했다. 게임 이외에 스트리밍, 영상 제작, 소셜미디어 업로드 등 다양한 작업을 수행할 때 성능을 향상시키는 데 주안점을 뒀다. 주민규 전무는 "현재 메모리와 SSD, 그래픽카드 등 PC를 구성하는 주요 부품 가격이 크게 상승해 데스크톱 PC 구매가 쉽지 않다. 이런 상황 속에서 현실적인 예산으로 최고의 성능을 제공하는 것이 바람직하다는 것이 인텔의 판단"이라고 설명했다. 코어 울트라7 270K 플러스는 P코어 작동 클록을, 코어 울트라5 250K 플러스는 E코어 작동 클록을 각각 100MHz씩 향상시켰다. 내부 다이 사이 통신 속도를 최대 900MHz 높여 지연시간을 줄이고 DDR5 메모리 지원 속도도 7200MHz까지 높였다. 주 전무는 "과거에는 기존 제품 대비 개선점이 있는 제품에 대해 '리프레시'라는 명칭을 적용했다. 그러나 이번에는 '플러스'라는 명칭을 썼는데 각종 최적화 기술 등이 추가된 것을 감안했다"고 밝혔다. "전 세대 대비 최대 39% 가량 성능 향상" 코어 울트라 200S 플러스는 E코어를 늘려 멀티코어(다중작업) 성능과 반응 속도 개선에 중점을 뒀다. 전 세대 대비 게임 성능 향상 폭은 코어 울트라7 270K 플러스가 최대 39%, 코어 울트라5 250K 플러스는 최대 24% 수준이다. 주 전무는 "인텔 자체 테스트 결과 시네벤치, 블렌더 등 다중작업 환경에서 코어 울트라7 270K 플러스는 AMD 라이젠 7 9700X 대비 80% 이상, 코어 울트라5 250K 플러스는 라이젠 5 9600X 대비 90% 이상 성능이 향상된다"고 설명했다. 인텔코리아가 코어 울트라7 270K 플러스와 라이젠 9 9900X 프로세서 대상으로 수행한 벤치마크에서는 다중작업과 게임 등에서 적게는 8%, 많게는 32% 가량 우위를 보였다는 설명이다. 주 전무는 "CPU 성능은 클록 당 명령어 처리 수(IPC)에 좌우된다. 새로 도입된 '인텔 바이너리 최적화 기술(IBOT)'을 이용하면 명령어 실행 방식을 최적화해 더 많은 명령어를 실행할 수 있다"고 밝혔다. "아크 프로 B70, 32GB 메모리 탑재 가성비 GPU" 인텔은 올해 워크스테이션용 GPU 시장에 아크 프로 B390과 아크 프로 B70/B65를 투입하고 있다. 아크 프로 B390은 Xe3 GPU 12코어로 구성된 제품이며 1월 출시된 코어 울트라 시리즈3(팬서레이크)에 내장된다. 아크 프로 B70/B65는 각각 Xe2 GPU 32/24코어, GDDR6 32/24GB 메모리를 탑재해 중소규모 기업과 개발자가 대형 언어모델(LLM)을 로컬 환경에서 직접 구동할 수 있다. 아크 프로 B70 기준 AI 연산 성능은 최대 367 INT8 TOPS(초당 1조 회 연산) 수준이다. 주 전무는 "현재 워크스테이션 비중은 노트북 형태(모바일) 제품이 60%, 전통적인 데스크톱 형태가 40% 가량이다. 노트북용 CPU/GPU의 성능이 높아지고 휴대성을 개선하면서 모바일 워크스테이션의 수요도 늘고 있다"고 설명했다. 이어 "32GB 메모리를 탑재한 워크스테이션용 GPU 중 1천달러(약 149만원) 이하에서 도입할 수 있는 제품은 현재 아크 프로 B70이 유일하다. GDDR7 24GB 메모리를 탑재한 엔비디아 RTX 프로 4000 GPU와 비교할 때 응답 속도와 달러 당 토큰 등에서 우위"라고 설명했다. 시네벤치 R23 성능비교 시연도 현장 진행 인텔코리아는 이날 코어 울트라7 270K 플러스와 AMD 라이젠 9 9900X를 이용한 벤치마크도 진행했다. CPU 코어만으로 3D 화면을 구성하며 속도와 소요 시간을 측정하는 벤치마크 프로그램인 '시네벤치 R23'이 활용됐다. 시네벤치는 코어 수가 많을 수록 더 높은 점수를 받을 수 있다는 특성을 지녔다. 현장 벤치마크에서 AMD 라이젠 9 9900X(12코어)는 30826점, 코어 울트라7 270K(P8+E16)는 39865점을 기록했다. 시연을 진행한 조민성 인텔코리아 상무는 "코어 울트라7 270K 플러스는 P코어 기본 성능이 높아 한 체급 높은 라이젠 9 9900X와도 충분히 비교 가능한 수준이다. 3D 화면을 구성하는 '블렌더' 역시 최대 23% 더 높은 성능을 낸다"고 설명했다.

2026.05.13 15:12권봉석 기자

'반도체기판 1위' 日이비덴, 2026회계연도 매출 20% 상승 전망

전세계 반도체 기판 1위 일본 이비덴이 2026회계연도(2026년 4월~2027년 3월) 매출이 전년비 20% 상승할 것이라고 밝혔다. 상반기보다 하반기가 더 좋을 것이라고 예고했다. 이비덴이 지난 11일 발표한 2025회계연도(2025년 4월~2026년 3월) 실적은 매출 4162억엔(약 3조9200억원), 영업이익 620억엔(약 5800억원) 등이다. 전년비 매출과 영업이익은 12.7%, 30.3% 뛰었다. 2025회계연도 반도체기판 매출 23% 상승 이비덴에서 고부가 반도체 기판인 플립칩(FC)-볼그리드어레이(BGA) 등을 담당하는 전자 부문 매출은 2433억엔(약 2조2900억원)으로, 전년비 23.4% 올랐다. 이 부문 영업이익은 452억엔(약 4300억원)으로, 68.5% 뛰었다. 이비덴 전체 실적에서 전자 부문 비중은 58.5%였다. 세라믹 부문 매출(826억엔)과 영업이익(76억엔)은 전년비 각각 1.8%, 37.4% 줄었다. 이비덴은 2026회계연도 전체 매출을 전년비 20.1% 상승한 5000억엔(약 4조7100억원)으로 전망했다. 영업이익 전망치는 45.1% 뛴 900억엔(약 8500억원)이다. FC-BGA 등 전자 부문 매출은 같은 기간 35.6% 뛴 3300억엔(약 3조1100억원), 영업이익은 65.8% 뛴 750억엔(약 7100억원)을 기록할 것이라고 전망했다. 이 수치는 지난해 10월 전망했던 매출 3100억엔(약 2조9200억원), 영업이익 570억엔(약 5400억원)보다 많다. 2026회계연도 중에서도 상반기(2026년 4~9월)보다 하반기(2026년 10월~2027년 3월) 실적이 더 좋을 것이라고 예상했다. 상반기 매출 전망치는 2300억엔(약 2조2000억원), 하반기 매출 전망치는 2700억엔(약 2조5000억원)이다. 영업이익도 상반기는 380억엔(약 3600억원), 하반기는 520억엔(약 4900억원)으로 예고했다. 이비덴은 전자 부문 매출도 상반기(1500억엔)보다 하반기(1800억엔)에 높을 것이라고 예상했다. 영업이익 전망치도 상반기(330억엔)보다 하반기(420억엔)가 더 많다. 이비덴은 수요가 늘고 있는 인공지능(AI) 그래픽처리장치(GPU) 외에도, AI 추론에 특화한 주문형 반도체(ASIC) 수요가 크게 상승할 것이라고 예상했다. AI 중심축이 학습에서 지능으로 바뀌면서 범용 중앙처리장치(CPU) 수요도 늘 것이라고 전망했다. 이비덴은 "반도체 기판 대형화와 다층화 등으로, 서버 CPU와 AI 가속기 기판에 필요한 SAP(Semi Additive Process) 공법 수요가 반도체 기판 업계 공급능력을 상회할 것"이라며 "하이엔드 시장에서 압도적 점유율을 유지하겠다"고 밝혔다. 이어 "지난 2월 발표한 5000억엔(약 4조7100억원) 규모 설비투자를 계획대로 집행하고, 시장과 고객 요구에 대응하겠다"며 "기존 공장 생산능력을 극대화하고 유연하게 활용하면서 차기 투자와 생산전략을 검토하겠다"고 덧붙였다. 삼성전기도 FC-BGA 라인 보완·증설투자 집행 FC-BGA 등 반도체 기판 시장에서 이비덴과 경쟁 중인 삼성전기도 FC-BGA 생산라인 보완·증설투자를 집행 중이다. 지난달 30일 삼성전기는 1분기 실적발표에서 '2분기 실적 전망'을 묻는 질문에 "2분기에 AI, 서버, 네트워크, 전장 관련 수요 증가가 이어지고, 적층세라믹커패시터(MLCC)와 FC-BGA의 빡빡한 수급 상황이 심해질 것으로 전망한다"고 답했다. 이어 "하반기에도 관련 수요 강세, 그리고 장기공급계약 확대와 평균판매가격 상승 효과가 이어질 것으로 예상한다"며 "하반기에는 더 큰 폭의 실적 확대를 기대한다"고 말했다. 삼성전기는 당시 "2027년 이후 차세대 제품 공급 확대를 위한 투자도 적극 검토 중"이라며 "AI 데이터센터 관련 고부가 패키지 기판 수요 급등에 대응해 FC-BGA 사업 규모를 확대할 계획"이라고 강조했다. 지난해 하반기 이미 업계에선 삼성전기의 FC-BGA 생산능력이 2027년까지 완판됐다는 관측이 나왔다.

2026.05.12 09:51이기종 기자

삼성·SK도 주목…차세대 AI 메모리 'MRDIMM' 표준 완성 임박

차세대 서버용 D램 모듈 'MRDIMM(Multiplexed Rank Dual In-line Memory Module)'의 2세대 표준이 완성 단계에 접어들었다. 해당 모듈은 인공지능(AI) 데이터센터에 최적화한 메모리로, 고대역폭메모리(HBM)와 더불어 수요가 빠르게 확대될 것으로 기대된다. 삼성전자, SK하이닉스 역시 시장 선점을 위해 제품을 개발해 왔다. 5일 업계에 따르면 국제반도체표준화기구(JEDEC)는 MRDIMM 2세대 표준에 대한 개발 마무리 단계에 접어들었다. MRDIMM은 AI·고성능컴퓨팅(HPC) 작업에 최적화한 차세대 서버용 D램 모듈이다. 모듈 기본 동작 단위인 랭크(Rank)를 2개 동작시킬 수 있어 데이터 처리 속도가 빠르다. MRDIMM은 메모리 업계 최신 기술로, 그간 표준화와 상용화가 이뤄지지 않았다. MRDIMM을 지원하는 중앙처리장치(CPU)도 현재로선 인텔 '제온 6' 등 소수에 불과하다. 그러나 삼성전자·SK하이닉스·마이크론 등 주요 메모리 기업은 향후 수요 확대를 예상해, 선제적으로 MRDIMM 제품을 개발하고 있다. 전세계 주요 반도체 기업들이 차세대 제품 표준을 정하는 기구인 JEDEC도 MRDIMM 생태계 강화에 힘쓰고 있다. 최근 2세대 MRDIMM 표준을 거의 완성한 상태다. 또한 JEDEC은 1만2800MT/s(1MT/s는 초당 100만번 데이터 전송) 속도를 구현하는 2세대 MRDIMM 표준 설계 도면을 개발하고 있다. 1세대 제품 속도가 8800MT/s급임을 고려하면, 45%가량 성능이 향상됐다. 최근 AI 데이터센터 내 메모리와 시스템반도체 간 데이터 병목 현상 문제가 대두한 만큼, MRDIMM은 HBM과 더불어 채용량이 늘어날 것으로 기대된다. HBM은 그래픽처리장치(GPU)와 함께 집적돼 AI 연산 처리를, MRDIMM은 CPU가 직접 접근하는 메인 메모리 역할을 담당한다.

2026.05.05 12:11장경윤 기자

인텔·AMD, x86 생태계 공동 전선...신규 ISA 'APX' 공개

PC·서버용 x86 프로세서 부문 경쟁사인 인텔과 AMD가 x86 명령어 체계(ISA) 개선에 함께 나서고 있다. AI 연산용 ACE에 이어 성능 개선용 x86 아키텍처용 차세대 핵심 기술(Advanced Performance Extensions, APX)까지 공개하며 Arm 서버 CPU 확산에 대응한 공동 전선을 구축했다. 양사는 AI 관련 연산을 CPU 차원에서 실행하기 위한 표준 ISA인 'ACE' 제정을 추진중이며 최근 더 많은 레지스터로 성능을 확장한 'APX'를 공개했다. 내부 구현 방식은 각사 CPU 설계에 따라 달라도, 명령어 동작 규격은 통일해 소프트웨어 호환성을 높이겠다는 것이다. 이는 Arm 지적재산권(IP)을 활용한 서버·데이터센터용 프로세서가 잇달아 등장하는 가운데 x86 생태계 경쟁력을 강화하기 위한 시도로 해석된다. 인텔·AMD, 2024년 10월 자문 그룹 결성 인텔과 AMD는 2024년 10월 레노버 연례 행사 '테크월드 2024' 기간 중 x86 명령어의 호환성은 유지하고 확장성을 강화하기 위한 'x86 생태계 자문 그룹'을 결성했다. 양사는 당시 "AI 워크로드, 칩렛(Chiplet) 설계, 3D 패키징, 시스템 아키텍처의 진화가 가속화되는 상황에서 x86의 역할은 오히려 더 중요해지고 있다"고 강조했다. 이 그룹에는 델테크놀로지스, 메타, 레노버, 구글, 마이크로소프트, 오라클, 레드햇, HP 등 PC·서버·소프트웨어 업체가 모두 참여중이다. 인텔은 2023년 16비트 관련 요소를 완전히 걷어낸 새 ISA인 'x86-S'를 추진했지만 자문그룹 출범 이후 이를 중단하기도 했다. 자문 그룹, 출범 이후 표준안 지속 개발 x86 생태계 자문 그룹은 출범 이후 기존의 복잡한 인터럽트 모델을 단순화하고 지연 시간을 줄이는 새로운 인터럽트 처리 구조인 'FRED', 메모리 관련 보안 문제를 강화할 수 있는 기술 '체크태그(ChkTag)' 등을 공동 개발했다. 이 중 '체크태그'는 메모리 공간에 일종의 꼬리표(태그)를 붙여 프로그램이 메모리에 접근할 때 이를 확인(체크)한다. 메모리 관련 보안상 문제를 해결할 수 있는 수단으로 이르면 내년부터 양사 새 프로세서에 적용될 가능성이 있다. 양사는 AI 연산을 CPU 차원에서 처리하기 위한 새 ISA인 'AI 연산 확장(ACE)'도 함께 정의했다. AI 연산에 자주 쓰이는 2차원 행렬 연산을 GPU뿐 아니라 CPU에서도 효율적으로 처리할 수 있도록 표준화했다. 연산 효율 높인 새 ISA 'APX' 제안 x86 생태계 자문 그룹은 29일(현지시간) 공식 블로그를 통해, 일반적인 연산을 담당하는 '범용 레지스터(GPR)'를 현행 16개에서 최대 32개까지 늘린 새 체계인 '고급성능확장(APX)'에 대한 상세 내용을 공개했다. '레지스터'는 CPU 내 각종 연산 회로에 가장 가까운 초고속 저장장치로 각종 연산에 필요한 데이터를 담는다. 이 레지스터 수를 최대한 늘려서 더 많은 값을 저장하고 불필요한 데이터 입출력을 줄이겠다는 것이다. 자문 그룹은 "APX는 CPU 코어가 차지하는 면적이나 전력 소비를 크게 높이지 않으면서 성능을 높이기 위한 용도로 설계됐다"며 "레지스터 증가로 메모리 접근 과정에서 발생하는 전력 소비와 지연시간을 줄이고, 데이터 처리 명령 효율도 높일 수 있다"고 설명했다. APX는 레지스터 확대 외에도 조건부 명령어를 늘려 분기 예측 실패로 인한 성능 저하를 줄이는 방향으로 설계됐다. 데이터센터 내 Arm CPU 비중 증가추세 현재 대부분의 AI 서비스는 클라우드 상에서 실행된다. 이를 뒷받침하는 주요 클라우드 서비스 업체는 Arm 네오버스 IP를 활용한 프로세서를 자체 개발해 투입하고 있다. 또 Arm 역시 지난 3월 네오버스 IP 기반 자체 제작 프로세서인 'AGI CPU'를 공개했다. 인텔 제온과 AMD 에픽 등 기존 x86용 프로세서의 입지가 좁아지고 있는 것이다. 시장조사업체 카운터포인트리서치는 지난 4월 "맞춤형 반도체 기반 AI 서버 시장에서 Arm 기반 프로세서 점유율은 작년 약 25%지만 2029년에는 최소 90% 이상을 차지할 것"이라고 전망했다. 인텔·AMD, x86 호환성 바탕으로 확장 나서 인텔과 AMD는 Arm 진영이 갖지 못한 기존 x86 기반 응용프로그램 호환성으로 맞서고 있다. 기존 구축된 운영체제와 응용프로그램 등에서 호환성을 유지하며 성능을 높이겠다는 것이 APX의 기본 구상이다. 자문 그룹은 "APX에 최적화되지 않은 기존 소프트웨어와 호환성은 유지 예정이며 재컴파일 시 APX를 활용할 수 있다. 컴파일 없이 실행되는 워크로드도 런타임이 업데이트되는 대로 혜택을 볼 수 있을 것"이라고 전망했다. 이어 "APX의 기능 추가는 기존 x86 ISA의 가변 길이 명령어 인코딩 구조 때문으로 호환성을 유지하면서 최소한의 변경으로 구현할 수 있는 장점 때문"이라고 설명했다.

2026.05.04 16:11권봉석 기자

인텔 "데이터센터 내 CPU 비율, GPU 추월 가능"

인텔이 23일(현지시각) 올 1분기 실적발표 이후 진행된 컨퍼런스 콜에서 "에이전틱 AI 수요 등으로 CPU 수요가 크게 늘어나고 있으며 향후 데이터센터 내 CPU 비율이 GPU를 넘어설 수 있다"고 전망했다. 이날 인텔이 내놓은 1분기 실적에 따르면 서버용 제온6 프로세서를 공급하는 데이터센터 및 AI(DCAI) 그룹 매출은 전년 동기 대비 22% 성장한 51억 달러(약 7조 5480억원) 매출을 기록했다. 립부 탄 인텔 CEO는 "AI 처리가 추론으로 이동하는 상황에서 작업 조율과 제어, 다양한 에이전트와 데이터 관리 측면에서 CPU가 더 효율적"이라고 설명했다. 이어 "과거 CPU:GPU 비율은 1:8이었지만 현재는 1:4까지 왔다. 앞으로는 CPU:GPU 비율이 1:1로 동등해지거나 CPU 비중이 더 커질 수 있다"고 강조했다. "공급량 부족으로 기회 놓쳐... 수율 개선 위해 노력" 단 서버용 주력 제품을 생산하는 인텔 3 공정의 공급 부족은 작년 4분기에 이어 1분기에도 영향을 미쳤다. 데이비드 진스너 CFO 역시 "1분기 충족하지 못한 수요에 대해 구체적인 숫자를 밝힐 수 없지만 'b(10억 달러)'로 시작하는 의미 있는 수준"이라며 이를 간접적으로 시인했다. 이어 "인텔 7, 인텔 3, 인텔 18A 등 세 개 공정의 웨이퍼 투입량을 늘리고 있다. 립부 탄 CEO가 수율과 처리량 확보를 위해 인텔 파운드리 담당자들을 독려했고 1분기 의미있는 성과를 얻었다"고 설명했다. 코어 울트라 시리즈3(팬서레이크), 제온6+(클리어워터 포레스트) 등을 생산하는 인텔 18A 공정 수율에 대해서는 "구체적인 수치를 공개할 수 없지만 올 연말 달성했던 목표를 연 중반까지 달성할 수 있을 것"이라고 설명했다. "패키징·ASIC 사업에서 수십억 달러 매출 예상" 립부 탄 CEO는 인텔 파운드리 사업의 한 분야인 맞춤형반도체(ASIC)과 관련해 "인텔은 CPU와 패키징, 첨단 공정을 모두 갖추고 있어 고객사 요구에 최적화된 실리콘을 생산할 수 있는 특별한 위치에 있다"고 설명했다. 데이비드 진스너 CFO는 "작년 9월 케이던스 출신 스리니바산 아이옌가 수석부사장과 립부 탄 CEO가 ASIC 사업을 시작했고 연간 10억 달러(약 1조 4820억원) 규모 매출이 예상된다"고 설명했다. 각종 패키징 관련 사업에 대해 "당초 수억 달러 규모 수요를 예측했지만 현재는 수십억 달러 규모 매출이 예상된다"며 "수주 잔고량(백로그)가 이미 증가한 상태이며 이를 처리하기 위해 말레이시아(페낭) 내 시설 확장에 나선 상태"라고 밝혔다. "테라팹, 반도체 수요 충족 위한 공동 프로젝트" 인텔 1분기 실적 발표 전날인 22일(현지시간) 일론 머스크 테슬라 CEO는 1분기 실적발표에서 "반도체 생산시설 신규 건립을 위한 테라팹 프로젝트에 인텔 14A(1.4나노급) 공정을 활용할 것"이라고 밝힌 바 있다. 립부 탄 CEO는 "일론 머스크와 나는 글로벌 반도체 공급망이 AI 수요의 급격한 증가를 따라가지 못한다는 문제 인식을 공유한다"며 "공정과 제조에서 혁신적인 방법을 함께 연구하는 매우 폭넓은 관계"라고 설명했다. 다만 테라팹 운영 방식이 인텔이 주도하는 방식인지, 혹은 공정 기술을 라이선스하는 방식인지를 묻는 질문에는 구체적인 답변을 피했다. 그는 "향후 테라팹 관련 내용을 진행하며 추후 구체적인 내용을 공개할 예정이며 기다려 달라"고 답했다. "올해 수율 등 개선해 시장 수요 충족에 주력" 립부 탄 CEO는 x86 기반 프로세서 제조사인 AMD와 서버 시장에서 경쟁에 대해 "현재 로드맵을 계속 조정하고 있다. 현행 제온6 프로세서의 차세대 제품인 '코랄래피즈'에는 하이퍼스레딩(SMT) 기술을 투입해 경쟁력을 확보할 것"이라고 설명했다. Arm에 대해서는 "Arm은 IP 라이선스 모델을 효과적으로 운용해 왔고 아마존과 구글이 Arm 기반 네오버스 CSS로 자체 CPU를 만드는 것은 새로운 일이 아니다"라고 평가했다. 그는 컨퍼런스 콜 말미에 "작년에는 인텔이 생존하기 위해 노력했다면 지금은 얼마나 빨리 공급량을 늘리느냐가 더 큰 문제"라며 "2026년은 실행의 해로 수율, 생산성, 사이클 타임을 개선해 수요를 따라잡겠다"고 강조했다.

2026.04.24 09:32권봉석 기자

[카드뉴스] AI 비서 시대, 컴퓨터 두뇌가 모자라요

안녕하세요, AMEET 기자입니다. 요즘 AI 비서들이 숙제도 대신하고 일정도 알아서 척척 짜주는 시대가 됐는데요, 이 똑똑한 친구들을 돌리려면 컴퓨터 두뇌, 즉 CPU가 필요하다는 거 알고 계셨나요? 그런데 지금 전 세계 데이터센터들이 CPU 부족으로 비상이 걸렸어요. 고성능 CPU를 주문하면 무려 6개월에서 1년 가까이 기다려야 하는 상황이라니, 마치 인기 많은 맛집에서 예약을 기다리는 것 같죠? 여기서 주목할 건 바로 우리나라 반도체 기업들의 기회예요. 삼성전자 같은 한국 기업들은 메모리와 CPU를 함께 만들 수 있는데, 이게 레고 블록을 조립하듯 고객 맞춤형으로 솔루션을 제공할 수 있다는 뜻이에요. 단순히 부품만 파는 게 아니라 맞춤형 통합 솔루션으로 승부를 걸 수 있는 거죠. 다만 2027년부터는 큰 기업들이 자체 칩을 만들기 시작하면서 상황이 바뀔 수 있어서, 그 전에 빠르게 체제 전환을 마쳐야 한다고 하네요. AI 시대, 한국 반도체가 단순 공급자가 아닌 똑똑한 파트너로 자리잡을 수 있을지 앞으로가 더욱 기대되네요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.22 08:20AMEET

데이터센터의 '조용한 반란', 주인공은 다시 CPU로

안녕하세요 AMEET 기자입니다. 불과 1~2년 전만 해도 AI라고 하면 모두가 엔비디아의 GPU만 떠올렸죠. 하지만 2026년 현재, 시장의 공기는 묘하게 바뀌고 있습니다. AI 비서라 불리는 '에이전트'가 우리 일상에 깊숙이 들어오면서, 정작 GPU에 명령을 내리고 전체 시스템을 조율할 '두뇌'인 중앙처리장치(CPU)가 부족해지고 있기 때문입니다. 오늘은 이 뜨거운 열기 뒤에 숨겨진 전문가들의 치열한 논쟁과 한국 반도체 산업이 마주한 숙제를 짚어보려 합니다. 똑똑해진 AI 비서가 불러온 '두뇌'의 귀환 지금 데이터센터 현장에서는 이례적인 일이 벌어지고 있습니다. 보통 AI 연산을 위해 GPU를 4대나 8대 정도 설치할 때 CPU는 딱 1대만 들어가는 구조거든요. 그런데 최근 AI 비서 기술이 발전하면서 이 1대의 CPU가 처리해야 할 일이 감당 못 할 정도로 늘어났습니다. AI가 단순히 질문에 답하는 수준을 넘어 스스로 계획을 세우고 실행하는 '에이전트' 역할을 수행하게 되면서, 똑똑한 CPU에 대한 수요가 폭발한 것이죠. 상황이 이렇다 보니 최신 CPU는 구하고 싶어도 못 구하는 귀한 몸이 됐습니다. 가격은 자고 일어나면 오르고, 반도체 기업들은 물량을 대느라 비상이 걸렸죠. 특히 우리 한국 기업들에게는 아주 반가운 소식도 있습니다. 내년인 2026년부터 양산될 예정인 차세대 고성능 메모리 'HBM4'가 이 CPU들과 찰떡궁합을 보여줄 것으로 기대되기 때문입니다. 메모리만 잘 만들던 삼성전자 같은 기업들이 이제는 CPU와 메모리를 하나로 묶는 통합 패키징 기술을 앞세워 판 자체를 흔들 수 있는 기회가 온 셈입니다. AI 전문가들이 진단한 시장의 충돌과 논점의 이동 이 현상을 두고 AI 전문가들 사이에서는 꽤나 격렬한 대화가 오갔습니다. 처음에는 단순히 "CPU가 부족하니 계속 잘 팔릴 것"이라는 낙관론이 지배적이었지만, 논의가 깊어질수록 흥미로운 반전들이 튀어나왔습니다. 첫 번째 논쟁 : 이 폭등은 언제까지 계속될까? 많은 전문가가 2026년까지는 CPU 수요가 꺾이지 않을 것이라고 봅니다. 하지만 한쪽에서는 강력한 경고를 던지기도 했습니다. 반도체 산업은 항상 '부족하다가도 한순간에 넘쳐나는' 고질적인 주기가 있는데, 지금의 가격 폭등이 2027년쯤이면 공급 과잉으로 변해 거품이 빠질 수 있다는 것이죠. 수요가 영원할 것처럼 보이지만, 결국 공장이 늘어나면 가격은 떨어질 수밖에 없다는 시장의 냉정한 논리입니다. 두 번째 논쟁 : AI가 스스로 다이어트를 한다면? 가장 날카로운 대립이 있었던 지점은 'AI 기술의 효율화'였습니다. 지금은 하드웨어 성능으로 밀어붙이는 시대지만, 앞으로 소프트웨어 기술이 좋아져서 AI가 훨씬 적은 힘으로도 똑같이 똑똑하게 작동하게 된다면 어떻게 될까요? 그렇게 되면 굳이 비싸고 전기를 많이 먹는 고성능 CPU를 고집할 이유가 사라집니다. 전문가들은 이 '기술적 효율화'가 하드웨어 수요를 갉아먹을 변수가 될 것인지, 아니면 오히려 더 많은 사람이 AI를 쓰게 만들어 전체 시장을 키울 것인지를 두고 팽팽하게 맞섰습니다. 세 번째 논쟁 : 빅테크의 '자급자족'이라는 거대한 파도 토론의 끝자락에서 전문가들이 가장 우려한 대목은 구글이나 아마존 같은 거대 IT 기업들의 움직임이었습니다. 이들은 더 이상 남이 만든 CPU를 비싸게 사서 쓰고 싶어 하지 않습니다. 이미 자신들의 데이터센터에 딱 맞는 '전용 칩'을 직접 만들기 시작했거든요. 이렇게 빅테크 기업들이 스스로 칩을 조달하기 시작하면, 범용 CPU 시장은 큰 타격을 입을 수밖에 없습니다. 이는 우리 반도체 기업들이 단순한 부품 공급자를 넘어, 각 기업에 맞춤형 솔루션을 제공하는 파트너로 진화해야만 살아남을 수 있다는 절박한 결론으로 이어졌습니다. 여러 의견이 엇갈렸지만, 전문가들이 공통으로 고개를 끄덕인 지점도 있었습니다. 적어도 2026년까지는 CPU와 메모리가 함께 부족한 현상이 지속될 것이며, 한국 기업들이 가진 '이종 집적(서로 다른 반도체를 하나로 합치는 기술)' 역량이 세계 시장에서 아주 강력한 무기가 될 것이라는 점입니다. 또한, AI 데이터센터가 먹어 치우는 전력 문제를 해결하지 못하면 아무리 좋은 반도체도 무용지물이 될 것이라는 경고에도 모두가 동의했습니다. 반면, 2027년 이후에도 제품 가격이 계속 오를 수 있을지, 그리고 빅테크 기업들의 자체 칩 개발이 얼마나 빨리 시장을 잠식할지에 대해서는 끝내 합의점을 찾지 못했습니다. 이는 결국 기술의 발전 속도와 시장의 논리가 어디서 균형을 잡느냐에 따라 결정될 문제입니다. AI가 세상을 바꾸고 반도체 지형도를 뒤흔들고 있는 것은 분명해 보입니다. 하지만 이 거대한 흐름 속에서 어떤 기술을 선택하고, 얼마만큼의 위험을 감수할지를 결정하는 것은 결국 숫자가 아닌 인간의 몫입니다. CPU 품귀라는 현상 너머에 있는 기술의 본질을 꿰뚫어 보는 안목이 그 어느 때보다 필요한 시점입니다. 지금까지 AMEET 기자였습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.21 11:10AMEET

SKT, CPU에 NPU 더해 AI 추론 서버 성능 검증

ARM의 AGI CPU와 리벨리온의 리벨카드로 AI 추론 성능을 높이는 솔루션을 개발하고 이를 SK텔레콤 AI 데이터센터에서 실증한다. SK텔레콤이 지난 9일 ARM, 리벨리온과 차세대 AI 인프라 혁신을 위한 전략적 업무협약을 체결했다. AI 산업이 AI 모델을 만드는 '학습'에서 실제 서비스를 제공하는 '추론'으로 패러다임 변화가 이뤄지면서 AI 인프라의 핵심과제도 학습을 위한 막대한 연산 능력보다는 얼마나 적은 전력으로 얼마나 빠르고 저렴하게 AI 서비스를 제공할 수 있느냐로 변하고 있다. 특히 추론은 365일 쉬지 않고 작동해야 되기 때문에 전력 효율이 곧 비용 경쟁력과 직결된다. AI 추론은 학습과 달리 상대적으로 가벼운 연산을 빠르고 반복적으로 처리하는 작업이다. GPU는 이런 추론 작업에도 사용할 수 있지만, 마치 대형 트럭으로 택배를 배달하는 것처럼 과도한 전력을 소모하고 비용이 높다. 이에 업계에서는 추론에 특화된 전용 칩, 즉 NPU가 대안으로 부상하고 있다. NPU에 CPU를 결합하는 이유도 명확하다. 실제 AI 서비스 운영에서는 AI 연산 외에도 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 등 다양한 범용 처리가 동시에 필요하다. CPU가 시스템의 '관제탑' 역할을 하며 데이터 흐름과 시스템 운영을 총괄하고, NPU가 AI 추론 연산을 전담하는 이종 컴퓨팅 구조는 시스템의 성능과 효율을 높일 수 있다. 'Arm AGI CPU'는 ARM이 35년 역사상 처음으로 직접 생산에 나선 데이터센터용 프로세서로, AI 추론 서비스에 최적화된 것이 특징이다. 리벨리온의 리벨카드도 대규모 AI 추론에 특화된 NPU다. 두 칩을 한 서버 안에 탑재해 CPU가 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, NPU가 AI 추론 연산을 전담하면 전력 효율을 높이고 운영 비용을 줄일 수 있다. SK텔레콤은 이러한 방식이 대규모 AI 서비스를 운영하는 데이터센터에서 효율적인 서버 아키텍처라고 설명했다. ARM과 리벨리온은 이미 지난 3월 진행된 'Arm 에브리웨어' 행사에서 각 사의 칩을 결합하여 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간으로 시연하며, 대규모 데이터센터에서의 상용화 가능성을 보여줬다. SK텔레콤은 AI DC에서 CPU와 NPU를 결합한 AI 추론 컴퓨팅의 성능을 검증하고, 특히 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1)을 운영하는 방안도 검토하고 있다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공함으로써 AI 데이터센터 경쟁력을 더욱 강화해 나가겠다”고 말했다. 에디 라미레즈 ARM 클라우드 AI 사업부 GTM 부사장은 “AI 추론의 급속한 성장은 대규모 배포에 최적화된 새로운 데이터센터 인프라 수요를 촉진하고 있다”며, “SK텔레콤, 리벨리온과 같은 파트너는 Arm AGI CPU를 구축하고 AI 추론 인프라를 현대화하는 데 있어 중요한 역할을 하고 있다”고 전했다. 리벨리온의 오진욱 CTO는 “리벨리온은 압도적인 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당하게 됐다”며, “AI 특화 인프라 구축을 위해 각 분야 전문가들이 원팀으로 뭉친 이번 협력은 업계에서도 매우 유의미한 선례가 될 것으로 기대한다”고 강조했다.

2026.04.11 03:42박수형 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

LG이노텍, PC CPU용 FC-BGA 양산 언제쯤?

LG이노텍의 PC 중앙처리장치(CPU)용 플립칩(FC)-볼그리드어레이(BGA) 양산은 언제 성사될 수 있을까. FC-BGA는 고부가 반도체 기판이지만, 그중에서도 면적이 큰 PC CPU용, 서버 CPU용 FC-BGA가 하이엔드 제품으로 분류된다. LG이노텍은 그간 PC 칩셋 등에 적용할 수 있는 로엔드 FC-BGA 등은 납품했지만 PC CPU용은 아직 대량 공급한 사례가 없다. PC CPU용 제품 공급이 성사되면 LG이노텍 FC-BGA 사업에 이정표가 될 수 있다. 1년 전인 2025년 4월 LG이노텍은 "2024년 PC 칩셋용 FC-BGA를 양산했다"며 "올해(2025년) PC CPU용 FC-BGA 시장에 진입하고, 이르면 내년(2026년)에 인공지능(AI)·서버용 FC-BGA를 양산하는 것이 목표"라고 밝힌 바 있다. 8일 업계에 따르면 LG이노텍은 잠재 고객과 PC CPU용 등 여러 FC-BGA 샘플을 평가 중인 것으로 파악됐다. LG이노텍의 PC CPU용 FC-BGA 납품 시점 전망은 엇갈리지만, "이르면 올해 안 양산 공급이 가능할 것"이란 예상도 나온다. LG이노텍은 PC CPU 중에서도 우선 로엔드 PC CPU용 FC-BGA 납품을 노릴 것으로 예상된다. 한 업계 관계자는 "LG이노텍이 당장은 로엔드 PC CPU용 FC-BGA 시장부터 진입할 가능성이 있다"며 "향후 관련 매출 상승과 품목 확대를 기대할 수 있다"고 밝혔다. 반도체 기판 업황은 LG이노텍에 긍정적이다. 최근 AI 산업 수요 확대로 서버 CPU용 FC-BGA 수요가 급증하자 일본 이비덴과 신코덴키, 삼성전기, 대만 유니마이크론 등 주요 반도체 기판 업체는 PC CPU용보다 수익성이 높은 서버 CPU용 FC-BGA에 주력하고 있다. LG이노텍 입장에서 PC CPU용 FC-BGA 시장에 진입할 수 있는 문이 커졌다. 삼성전기가 지난 2022년 말부터 AMD에 서버용 FC-BGA를 납품한 것도 2020년 시작된 코로나19 영향이 컸다. 당시 재택근무와 원격학습이 확대되며 FC-BGA 수요가 급등하자 CPU 시장에서 인텔보다 점유율이 낮은 AMD는 FC-BGA 공급망을 안정적으로 확보하기 위해 삼성전기, 유니마이크론 등과 서버용 FC-BGA 공급계약을 맺었다. LG이노텍은 PC CPU용 FC-BGA를 양산해야 서버용 시장에도 진입할 수 있다. 지난해 4월 LG이노텍은 "서버용 FC-BGA는 아직 양산하지 않고 있지만, 내부적으로 20층 이상 라지 바디 제품을 검증했고, 실질적 기술은 확보했다"며 "향후 (서버용 FC-BGA) 양산 관점에서 어느 정도 생산수율로 의미있게 끌고 가느냐가 중요할 것"이라고 밝히기도 했다. LG이노텍이 서버용 FC-BGA까지 양산하려면 추가 투자가 필요하다. 일반적으로 서버용 FC-BGA를 양산하려면 조 단위 투자를 집행해야 하는 것으로 알려졌다. LG이노텍은 지난 2022년 4130억원 투자 발표로 FC-BGA 시장 진출을 공식화했다. 이후에도 FC-BGA 부문에 추가 투자했지만 서버용 FC-BGA를 만들 수 있는 생산능력은 확보하지 못했다. LG이노텍은 지난달 공개한 2025년 사업보고서에서 "FC-BGA는 글로벌 고객 추가 확보로 양산 확대를 추진하고 있다"고 밝혔다. 지난해 반도체 기판 사업 영업이익률(매출 1조 7200억원, 영업이익 1288억원)은 7.5%까지 회복했다. 2024년의 4.8%보다 2.7%포인트 개선됐다.

2026.04.08 12:21이기종 기자

에이디테크놀로지, 2029년 매출 1.1조원 정조준…"마벨·브로드컴 모델로 진화"

"수동적으로 고객 설계를 기다리던 과거의 디자인 서비스(DSP)에서 벗어나, 마벨이나 브로드컴처럼 특정 애플리케이션에 맞는 독자 IP와 아키텍처를 시장에 먼저 제안하고 기술을 리딩하는 기업으로 거듭나겠습니다." 박준규 에이디테크놀로지 대표는 7일 성남 판교 기회발전소에서 열린 기자간담회에서 회사의 미래 비전에 대해 이같이 밝혔다. 단순 반도체 설계 지원을 넘어 커스텀 CPU(중앙처리장치)를 기반으로 한 시스템 설계역량을 앞세워 시장을 선도하는 기업 형태로 사업구조를 바꾸겠다는 계획이다. 오는 2029년 매출 목표는 1조1000억원이다. 지난해 매출(1645억원)의 6.7배다. 비즈니스 모델 전환 적중… 지난해 흑자 전환 달성 에이디테크놀로지는 고부가가치 및 양산 과제 중심으로 사업구조를 재편하며 지난해 흑자 전환했다. 지난해 영업이익은 28억5000만원이다. 매출은 1645억원으로 전년비 54.4% 성장했다. 당기순이익은 34억3000만원을 달성하며 2년 연속 적자에서 벗어났다. 매출총이익률(GPM)은 전년비 8.2%포인트(p) 상승했다. 이는 기술 진입장벽이 높은 선단공정 중심 수주와 함께, 초기 기획부터 최종 양산까지 전 과정을 아우르는 턴키(Turn-key) 솔루션 비중을 확대한 결과다. 개발로만 끝나는 단발성 과제를 지양하고 장기 수익 창출이 가능한 턴키 프로젝트 비중을 끌어올린 점이 이익 창출 기반이 됐다. 회사는 이미 확보한 수주를 바탕으로 올해 3000억원, 2027년 4000억원 등 연 매출을 기록할 것으로 전망했다. 2나노 차세대 플랫폼 'ADP 620', 미국 '케니'와 선행 협력 매출 1조원 고지를 밟기 위한 핵심 무기는 삼성전자 2nm(나노미터, 10억분의 1m) 선단 공정 기반의 차세대 커스텀 CPU 플랫폼 'ADP 620'이다. 이 플랫폼은 엔비디아 등이 장악한 거대 클라우드 시장 대신, 전력 효율과 맞춤형 설계가 필수인 엣지 인프라와 소버린 AI 시장을 정조준한다. ADP 620은 ARM의 '네오버스(Neoverse) V3' 아키텍처를 탑재한다. 2.5D 패키징 기술을 활용해 AI 가속기 등을 칩렛 형태로 결합할 수 있는 구조다. 회사는 이전 세대 플랫폼을 통해 쌓은 860건 설계 경험과 170건 이상 선단공정 협력 레퍼런스를 바탕으로 독보적 플랫폼을 구축했다. 플랫폼 양산을 위한 첫 대형 프로젝트 파트너로 북미 AI 통신망 특화 팹리스 케니가 낙점됐다. 에이디테크놀로지의 커스텀 CPU와 케니의 네트워크 제어 유닛, AI 가속기를 하나의 칩렛으로 통합해 기지국 트래픽 관리와 AI 연산을 동시 처리하는 설계다. 이를 통해 에너지 효율을 기존 대비 15배가량 높일 수 있으며, 내년 2분기 테이프아웃(설계완료)을 목표로 속도를 내고 있다. 당초 ADP 620 파트너로 언급됐던 리벨리온의 NPU 우선 적용은 다소 밀렸다. 리벨리온이 기존에 개발한 가속기 칩 양산과 상장 준비 등 당면 과제에 역량을 집중하고 있기 때문이다. 대신 에이디테크놀로지는 리벨리온과 현재 세대 이후 대규모 모델을 다루는 다음 세대 가속기 적용을 놓고 기술을 검토하고 있다. 박 대표는 "작년 2025년은 그간 치열하게 다진 기술적 기틀이 대형 프로젝트 성과로 연결되며 설계 전문성을 입증한 변곡점이었다"며 "단순 디자인 설계를 넘어 최적 아키텍처를 선제 제안하는 주도적 파트너로서, 글로벌 시장 내 대체 불가능한 설계 자산으로 독보적 위상을 선점하겠다"고 강조했다.

2026.04.07 15:25전화평 기자

Arm, AGI CPU 시연 "저전력·고성능으로 효율 극대화"

[샌프란시스코(미국)=권봉석 기자] Arm은 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 데이터센터용 IP(지적재산권) '네오버스'를 활용한 자체 개발 제품 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스 v3'를 활용해 설계된 첫 완제품이다. AGI CPU는 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. 오후에 아태지역 기자단 대상으로 진행된 시연에서는 AGI CPU를 AI 워크로드 전반을 조율하는 장치로 활용하고 NPU·GPU 등 가속기와 결합하는 하이브리드 AI 아키텍처를 제시했다. 이날 Arm 관계자는 영상 변환과 추론을 동시에 수행하는 시나리오를 전제로 "기존 x86 프로세서는 최대 성능으로 작동시 성능 저하가 발생해 영상 처리시 버퍼링이 발생한다. 반면 Arm AGI CPU는 초당 30프레임으로 영상을 변환해 버퍼링 없는 영상 처리를 수행할 수 있다."고 설명했다. 이어 "기존 CPU는 전력 소모가 커서 냉각을 위해 2U 단위 큰 부피를 차지하며 한 랙에 넣을 수 있는 서버 수도 제한된다. 반면 AGI CPU는 1U 서버에서도 공랭이 가능하기 때문에 더 작은 폼팩터로 더 많은 서버를 랙에 배치할 수 있다"고 설명했다. SAP AI 모델 기반 시연에서는 CPU의 역할 변화가 구체적으로 제시됐다. 시연을 진행한 Arm 관계자는 "라우터, 링커, 검증기, 스코어러 등 다수의 에이전트가 협업해 리스크를 평가하는 작업은 기존에 많은 시간이 걸렸지만 AGI CPU는 이를 수 시간으로 단축할 수 있다"고 밝혔다. 고객 서비스 자동화 시연은 이메일을 자동으로 분류하고 고객에게 직접 전화를 거는 8개 에이전틱 AI가 동시 실행되는 환경을 보여줬다. 대부분의 에이전트는 AGI CPU에서 실행되며 복잡한 추론은 국내 AI 스타트업인 리벨리온 NPU 가속기를 활용했다. Arm 관계자는 "AGI CPU를 기반으로 필요할 경우 외부 가속기를 유연하게 통합 가능하며 이를 활용해 각종 이메일을 기존 대비 두 배 이상의 속도로 처리할 수 있다"고 설명했다. Arm은 기존 x86 서버 기반으로 작성된 코드를 Arm 기반으로 변환하기 위한 도구도 함께 시연했다. AI 에이전트가 기존 코드와 컨테이너를 분석해 자동으로 수정하는 한편 성능이 저하되는 병목구간에서 Arm AI 가속 명령어인 SVE를 적용해 추가 최적화를 지원한다. 전자설계자동화(EDA) 워크로드 시연에서는 실제 반도체 설계 환경 활용 사례를 보였다. AGI CPU에 내장된 최대 136개 코어를 활용해 더 많은 작업을 짧은 시간에 소화해 개발 단계를 단축할 수 있다. Arm 관계자는 "기존에는 지멘스나 시높시스 솔루션을 클라우드에서 활용해야 했지만 AGI CPU를 활용하면 시뮬레이션과 전력 분석 등 메모리 집약적 작업을 온프레미스 환경에서수행할 수 있다"고 밝혔다.

2026.03.25 16:18권봉석 기자

르네 하스 Arm CEO "IP·CSS에 새 선택지인 AGI CPU 추가"

[샌프란시스코(미국)=권봉석 기자] "CPU와 AI는 어디에나 존재하며, Arm은 이를 위한 선택권과 기술 기반을 제공한다. 오늘 공개한 Arm AGI CPU는 AI 시대 데이터센터 혁신의 중심이 될 것이다." 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사장에서 각국 기자단과 마주한 르네 하스 Arm CEO가 강조한 메시지다. 이날 Arm은 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. "AGI CPU, 고객사 요청으로 개발 시작" 르네 하스 CEO는 이날 고객사 요청으로 AGI CPU 개발을 시작했다고 설명하고 "2년 전부터 시작한 시스템반도체 프레임워크인 '컴퓨트서브시스템(CSS)'을 이용해 복잡한 반도체를 빠른 시간 안에 개발할 수 있었다"고 말했다. 이어 "AGI CPU라는 이름도 'AI 에브리웨어'와 'CPU의 필수성'을 결합한 전략적 의미를 담고 있다. 기술 트렌드와 시장 요구사항을 동시에 반영했다"고 덧붙였다. 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 AGI CPU 개발 의미에 대해 "Arm의 강점은 고객 맞춤형 포트폴리오 제공으로 소프트웨어 생태계를 강화하고 시장 기회를 확대하는 것"이라고 설명했다. "네오버스 기반 S/W, AGI CPU와 호환성 확보" AGI CPU는 GPU와 각종 가속기를 CPU로 연결하는 인터페이스에 PCI 익스프레스 6.0을 활용했다. 모하메드 아와드 수석부사장은 "이는 현 세대 표준에서 최적의 선택이었다. 엔비디아 규격인 NV링크도 CSS 기반으로 적용 가능하며 향후 지원을 검토중"이라고 설명했다. CPU 코어 한 개를 두 개처럼 활용하는 동시멀티스레딩(SMT) 기술을 쓰지 않은 이유에 대해 "에이전틱 AI는 메모리와 입출력 대역폭 최적화가 중요하며 SMT는 오히려 성능을 하락시킬 수 있다"고 설명했다. 그는 "클라우드 환경에서 네오버스 기반으로 개발된 소프트웨어는 별도 작업 없이 AGI CPU에서 활용 가능하다"며, AGI CPU와 기존 네오버스 아키텍처 호환성이 개발자와 소프트웨어 생태계에 높은 호환성과 유연성을 제공한다고 설명했다. "AGI CPU, 기존 제품과 직접 경쟁하지 않을 것" 구글 클라우드, 아마존웹서비스, 마이크로소프트는 네오버스 CSS를 활용해 각자 자사 프로세서를 만들고 있다. 모하메드 아와드 수석부사장은 "데이터센터 시장은 크고 맞춤형 제품에 대한 수요가 크다. Arm AGI CPU는 기존 제품과 직접 경쟁하지 않는다"고 설명했다. 그는 저전력·고효율 E(에피션트)코어를 최대 288개 넣은 인텔 제온6+(클리어워터포레스트) 등 기존 x86 서버용 프로세서 대비 AGI CPU가 우위에 있다고 주장했다. "경쟁사 제품은 CPU 코어 수 향상에 집중했지만 AGI CPU는 메모리 대역폭과 전체 시스템 아키텍처 최적화를 중심으로 설계됐다." "고객사에 다양한 선택지 제공해 시장 확장할 것" 르네 하스 CEO는 "AGI CPU를 포함해 엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장 기회가 있을 것"이라고 설명했다. 이어 "고객사가 필요에 따라 IP, CSS, AGI CPU를 자유롭게 선택할 수 있으며 단일 고객에 국한되지 않고 다양한 맞춤형 제품으로 시장을 확장할 계획"이라고 덧붙였다.

2026.03.25 10:29권봉석 기자

SK텔레콤 "Arm AGI CPU 활용 AI 데이터센터 사업 확장"

[샌프란시스코(미국)=권봉석 기자] SK텔레콤이 24일(현지시간) Arm AGI CPU와 리벨리온 AI 가속기를 활용해 AI 데이터센터 인프라 사업을 확장하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 기조연설에서 에이전틱 AI 추론 처리에 특화된 CPU 완제품 첫 제품인 'AGI CPU'를 공개했다. 정석근 SK텔레콤 최고기술책임자(CTO)는 이날 영상메시지에서 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장할 것"이라고 설명했다. 이어 "자체 개발한 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써, 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 덧붙였다. 이날 현장에서 만난 리벨리온 관계자는 "에이전틱 AI는 CPU 효율이 매우 중요하며 NPU 가속기를 단순히 결합하는 것이 아니라 시스템 차원 통합의 필요성이 크다"고 설명했다. 이어 "올 하반기부터 리벨리온 NPU와 Arm AGI CPU를 결합한 솔루션을 바탕으로 SK텔레콤과 벤치마킹을 진행할 예정이며 구체적인 일정은 Arm AGI CPU 기반 서버 공급업체와 논의중"이라고 덧붙였다. 이 관계자는 "에이전틱 AI로 인해 추론 시장 확장이 예상되며 리벨리온은 Arm 글로벌 파트너사로 Arm의 네트워크를 활용해 SK텔레콤을 시작으로 추후 다른 고객사까지 솔루션 보급 확대를 계획중"이라고 밝혔다.

2026.03.25 09:40권봉석 기자

삼성전자·SK하이닉스 "Arm과 함께 AGI CPU 생태계 구축"

[샌프란시스코(미국)=권봉석 기자] 삼성전자와 SK하이닉스 등 국내 메모리 반도체 선두기업이 24일(현지시간) Arm과 협력해 AI 생태계 확대를 지원하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 완제품 CPU 첫 제품인 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스'를 활용해 설계된 첫 완제품 CPU다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 이날 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "AGI CPU는 주요 메모리 제조사와 협업 없이 구현이 불가능했다"고 설명했다. 전영현 삼성전자 DS부문장(부회장)은 영상 메시지에서 "AI 워크로드가 증가함에 따라, 성능 향상은 로직, 메모리, 첨단 패키징 기술 전반에 걸친 긴밀한 공동 최적화에 더욱 크게 좌우된다"고 밝혔다. 이어 "Arm AGI CPU와 같은 목적에 맞게 설계된 AI 컴퓨팅 플랫폼은 실리콘 설계, 메모리 통합, 첨단 공정 기술을 활용한 제조 혁신 전반에서 보다 긴밀한 협력을 가능하게 한다. 이는 AI 에코시스템에 있어 중요한 이정표가 될 것"이라고 덧붙였다. 곽노정 SK하이닉스 사장은 "AI 데이터센터가 발전함에 따라, AI 워크로드에 최적화된 플랫폼에는 최신 애플리케이션에 필요한 용량과 대역폭을 제공하는 첨단 메모리 기술이 필수적"이라고 밝혔다. 이어 "Arm AGI CPU를 통한 목적에 맞게 설계된 AI 컴퓨팅의 도입은 에코시스템에 있어 중요한 이정표가 될 것이다. 앞으로도 차세대 AI 인프라 발전을 위한 Arm과 파트너십이 지속되길 기대한다"고 말했다.

2026.03.25 09:03권봉석 기자

Arm "에이전틱 AI 시대, CPU 중요성 더 커진다"

[샌프란시스코(미국)=권봉석 기자] "현재 AI 인프라 관련 관심사가 GPU에 집중됐다. CPU가 상대적으로 주목을 덜 받고 있지만 CPU와 GPU는 상호 보완 관계에 있다. AI의 발전과 에이전틱 AI 등장으로 앞으로 CPU의 역할은 줄어드는 것이 아니라 오히려 더 커질 것이다." 24일(현지시간) 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 르네 하스 Arm CEO가 이렇게 강조했다. Arm은 이날 행사에서 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. 르네 하스 Arm CEO는 "AI가 고도화될수록 연산 자체보다 이를 조직하고 처리하는 과정이 더 중요해진다”며, GPU 중심으로 인식되던 AI 컴퓨팅 구조에서 CPU의 역할이 다시 부각되고 있다고 덧붙였다. "소프트뱅크 Arm 인수 이후 포트폴리오 확장" 르네 하스 Arm CEO는 "지금까지 출하된 Arm 기반 반도체는 3500억 개 이상이며 이는 지금까지 지구에 존재했던 전체 인구의 약 세 배에 달하는 수준이다. 또 전세계 가구당 평균 약 160개의 Arm 반도체가 쓰이고 있다"고 설명했다. 르네 하스 CEO는 Arm이 극적인 변화를 겪게 된 시점을 일본 소프트뱅크 피인수 시점인 2016년으로 짚었다. "인수 이후 플랫폼을 각 산업별(버티컬)로 확장했고 스마트폰을 벗어나 클라우드, 사물인터넷(IoT)로 확장했다." 이어 이런 Arm의 성장 기반으로 '생태계'를 강조했다. 그는 "30년 이상 축적된 저전력 설계 기술과 글로벌 파트너십이 오늘날 Arm의 경쟁력을 만든 핵심"이라고 말했다. "에이전트 부하 감당 위한 CPU 역할 더 커질 것" 르네 하스 CEO는 "업계 일각에서는 CPU의 시대가 지났고 AI는 GPU 등을 활용한 '가속 컴퓨팅'으로만 처리된다는 시각이 확산됐지만 이는 지나친 단순화다. AI 등장 이전 클라우드 환경이 CPU 중심으로 움직였던 것처럼, CPU의 역할은 더 커졌다"고 지적했다. 이어 "오늘날 사용자가 PC나 스마트폰에서 프롬프트를 입력하면, 가속기가 토큰을 생성하더라도 이를 요청·분배·조율하고 결과를 다시 사용자에게 전달하는 과정은 CPU가 담당한다"고 덧붙였다. 르네 하스 CEO는 "에이전트는 인간보다 빠르게, 그리고 24시간 지속적으로 요청을 생성하며 데이터센터에 부하를 가한다"며 CPU의 역할이 더 커질 것으로 전망했다. "AGI CPU, 기존 CPU 한계 극복 위한 새로운 제품" 이날 Arm은 주요 클라우드서비스공급자(CSP) 등에 공급하던 데이터센터용 CPU IP인 '네오버스'를 기반으로 한 'AGI CPU'도 공개했다(관련기사 참조). 르네 하스 CEO는 "Arm 자체 전망에 따르면 앞으로 1GW 데이터센터 당 최대 1200만 개의 CPU가 필요하다. 이처럼 CPU 수요는 커지는 반면 가용 전력과 공간이 제약된 데이터센터에서 이를 확대하기는 쉽지 않다"고 설명했다. 이어 "AGI CPU는 지금까지 등장한 서버용 CPU가 안고 있는 한계를 극복하기 위해 처음부터 새롭게 설계된 제품"이라고 설명했다. 메타·오픈AI, AGI CPU 고객사로 참여 메타는 Arm AGI CPU 최초 고객사이자 공동 개발 파트너다. 오픈AI는 AGI CPU 초기 도입 고객사로 참여했다. 이날 산토시 자나단 메타 인프라 책임자는 "급증하는 AI 수요와 데이터센터 확장 과정에서 전력·효율·성능을 동시에 해결할 필요성이 커졌으며, 이를 위해 Arm과 긴밀히 협력해 새로운 CPU 설계에 직접 관여했다"고 설명했다. 케빈 웨일 오픈AI 최고제품책임자는 "오픈AI는 AI 모델 고도화와 서비스 확장 과정에서 만성적인 컴퓨팅 부족 문제를 겪고 있으며, 특히 제한된 전력 환경에서 더 많은 연산을 수행해야 하는 과제에 직면해 있다"고 설명했다. "데이터센터 부문, 향후 149조 규모 시장 열 것" 르네 하스 CEO는 기조연설 말미에 AGI CPU를 통한 시장 확대 가능성과 매출 성장에 대한 구체적인 전망도 제시했다. 그는 "현재 Arm의 AI 데이터센터 관련 사업이 약 300억 달러(약 44조 9100억원) 규모이며 AGI CPU를 통해 향후 약 1000억 달러(149조 7000억원) 수준의 시장 기회가 열릴 것"이라고 전망했다. 이어 "엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장으로 확장 가능하다"고 강조했다.

2026.03.25 08:43권봉석 기자

Arm, 서버용 CPU 공급 나선다...에이전틱 AI 겨냥 'AGI CPU' 공개

[샌프란시스코(미국)=권봉석 기자] 영국 반도체 지적재산권(IP) 기업 Arm이 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 에이전틱 AI에 최적화된 CPU 완제품인 'Arm AGI CPU'를 공개했다. 이날 기조연설에서 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "에이전틱 AI가 등장하면서 다양한 에이전트와 데이터를 주고 받고 서버 내 작업을 조율하는 CPU의 역할이 커지고 있다"고 설명했다. 이어 "AGI CPU는 성능과 확장성, 효율성 등 3개 요소를 염두에 두고 처음부터 에이전틱 AI를 위해 설계됐다"고 덧붙였다. TSMC 3나노 기반 최대 136개 Arm 코어 탑재 AGI CPU는 Arm이 팹리스와 클라우드서비스공급자(CSP), 하이퍼스케일러에 공급하는 CPU IP인 네오버스 v3 기반으로 설계됐다. 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 또 각종 가속기와 GPU 사이에 최대 성능을 낼 수 있도록 최신 규격인 PCI 익스프레스 6.0 레인(lane, 데이터 전송 통로)을 96개 내장했다. CPU 다이 생산에는 대만 TSMC 3나노급 공정을 이용한다. 이날 현장에서 만난 Arm 관계자는 "TSMC 3나노급 중 어떤 공정을 이용하는지는 구체적으로 밝힐 수 없다"고 답했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. "AGI CPU, 지속 성능과 효율에서 x86 대비 우위" 이날 Arm은 인텔과 AMD 등 기존 x86 기반 서버용 프로세서 대비 AGI CPU가 대역폭과 전력 소모 등에서 더 많은 이점을 가지고 있다고 강조했다. 모하메드 아와드 Arm 수석부사장은 "기존 x86 프로세서는 작동 클록을 올리는 방식으로 성능을 강화했지만 전력 소모도 증가한다. 또 한 코어를 두 개처럼 쓰는 SMT 기술을 활용해도 메모리 대역폭 등 병목현상으로 실제 성능 향상은 크지 않다"고 지적했다. 이어 자체 예측 결과를 바탕으로 "AGI CPU는 장시간 지속 성능과 전력 효율, 랙당 지속 성능 등 3개 지표에서 x86 프로세서 대비 1.7배 이상 우위에 있는 킬러 제품"이라고 자평했다. 레노버, 슈퍼마이크로 등 주요 서버 제조사는 Arm AGI CPU 기반 서버를 시장에 공급 예정이다. 또 메타와 오픈AI 등 클라우드 관련 업체도 AGI CPU를 자사 AI 인프라에 도입하겠다고 밝혔다. 국내에서는 SK텔레콤과 리벨리온이 AGI CPU를 도입할 예정이다. 르네 하스 Arm CEO는 "오늘 공개한 AGI CPU를 시작으로 내년에는 차세대 제품인 'AGI CPU 2', 또 이 프로세서의 기반이 되는 네오버스 CSS V4 등 후속 제품을 지속적으로 투입할 예정"이라고 밝혔다.

2026.03.25 06:57권봉석 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"수십억원 손실도"…삼성전자 노조 파업, 소부장 업계 '비상등'

"정용진 회장 혁신 통했다"...이마트, 1Q 영업익 14년 만에 최대

레드햇 APJ 부사장 "韓 시장, 아태 지역서 '기술 주권' 수준 높아"

쿠팡 개인정보 유출 조사 마무리…개인정보위 "곧 결정"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.