• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'1.5GHz CPU'통합검색 결과 입니다. (35건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

인텔 "데이터센터 내 CPU 비율, GPU 추월 가능"

인텔이 23일(현지시각) 올 1분기 실적발표 이후 진행된 컨퍼런스 콜에서 "에이전틱 AI 수요 등으로 CPU 수요가 크게 늘어나고 있으며 향후 데이터센터 내 CPU 비율이 GPU를 넘어설 수 있다"고 전망했다. 이날 인텔이 내놓은 1분기 실적에 따르면 서버용 제온6 프로세서를 공급하는 데이터센터 및 AI(DCAI) 그룹 매출은 전년 동기 대비 22% 성장한 51억 달러(약 7조 5480억원) 매출을 기록했다. 립부 탄 인텔 CEO는 "AI 처리가 추론으로 이동하는 상황에서 작업 조율과 제어, 다양한 에이전트와 데이터 관리 측면에서 CPU가 더 효율적"이라고 설명했다. 이어 "과거 CPU:GPU 비율은 1:8이었지만 현재는 1:4까지 왔다. 앞으로는 CPU:GPU 비율이 1:1로 동등해지거나 CPU 비중이 더 커질 수 있다"고 강조했다. "공급량 부족으로 기회 놓쳐... 수율 개선 위해 노력" 단 서버용 주력 제품을 생산하는 인텔 3 공정의 공급 부족은 작년 4분기에 이어 1분기에도 영향을 미쳤다. 데이비드 진스너 CFO 역시 "1분기 충족하지 못한 수요에 대해 구체적인 숫자를 밝힐 수 없지만 'b(10억 달러)'로 시작하는 의미 있는 수준"이라며 이를 간접적으로 시인했다. 이어 "인텔 7, 인텔 3, 인텔 18A 등 세 개 공정의 웨이퍼 투입량을 늘리고 있다. 립부 탄 CEO가 수율과 처리량 확보를 위해 인텔 파운드리 담당자들을 독려했고 1분기 의미있는 성과를 얻었다"고 설명했다. 코어 울트라 시리즈3(팬서레이크), 제온6+(클리어워터 포레스트) 등을 생산하는 인텔 18A 공정 수율에 대해서는 "구체적인 수치를 공개할 수 없지만 올 연말 달성했던 목표를 연 중반까지 달성할 수 있을 것"이라고 설명했다. "패키징·ASIC 사업에서 수십억 달러 매출 예상" 립부 탄 CEO는 인텔 파운드리 사업의 한 분야인 맞춤형반도체(ASIC)과 관련해 "인텔은 CPU와 패키징, 첨단 공정을 모두 갖추고 있어 고객사 요구에 최적화된 실리콘을 생산할 수 있는 특별한 위치에 있다"고 설명했다. 데이비드 진스너 CFO는 "작년 9월 케이던스 출신 스리니바산 아이옌가 수석부사장과 립부 탄 CEO가 ASIC 사업을 시작했고 연간 10억 달러(약 1조 4820억원) 규모 매출이 예상된다"고 설명했다. 각종 패키징 관련 사업에 대해 "당초 수억 달러 규모 수요를 예측했지만 현재는 수십억 달러 규모 매출이 예상된다"며 "수주 잔고량(백로그)가 이미 증가한 상태이며 이를 처리하기 위해 말레이시아(페낭) 내 시설 확장에 나선 상태"라고 밝혔다. "테라팹, 반도체 수요 충족 위한 공동 프로젝트" 인텔 1분기 실적 발표 전날인 22일(현지시간) 일론 머스크 테슬라 CEO는 1분기 실적발표에서 "반도체 생산시설 신규 건립을 위한 테라팹 프로젝트에 인텔 14A(1.4나노급) 공정을 활용할 것"이라고 밝힌 바 있다. 립부 탄 CEO는 "일론 머스크와 나는 글로벌 반도체 공급망이 AI 수요의 급격한 증가를 따라가지 못한다는 문제 인식을 공유한다"며 "공정과 제조에서 혁신적인 방법을 함께 연구하는 매우 폭넓은 관계"라고 설명했다. 다만 테라팹 운영 방식이 인텔이 주도하는 방식인지, 혹은 공정 기술을 라이선스하는 방식인지를 묻는 질문에는 구체적인 답변을 피했다. 그는 "향후 테라팹 관련 내용을 진행하며 추후 구체적인 내용을 공개할 예정이며 기다려 달라"고 답했다. "올해 수율 등 개선해 시장 수요 충족에 주력" 립부 탄 CEO는 x86 기반 프로세서 제조사인 AMD와 서버 시장에서 경쟁에 대해 "현재 로드맵을 계속 조정하고 있다. 현행 제온6 프로세서의 차세대 제품인 '코랄래피즈'에는 하이퍼스레딩(SMT) 기술을 투입해 경쟁력을 확보할 것"이라고 설명했다. Arm에 대해서는 "Arm은 IP 라이선스 모델을 효과적으로 운용해 왔고 아마존과 구글이 Arm 기반 네오버스 CSS로 자체 CPU를 만드는 것은 새로운 일이 아니다"라고 평가했다. 그는 컨퍼런스 콜 말미에 "작년에는 인텔이 생존하기 위해 노력했다면 지금은 얼마나 빨리 공급량을 늘리느냐가 더 큰 문제"라며 "2026년은 실행의 해로 수율, 생산성, 사이클 타임을 개선해 수요를 따라잡겠다"고 강조했다.

2026.04.24 09:32권봉석 기자

[카드뉴스] AI 비서 시대, 컴퓨터 두뇌가 모자라요

안녕하세요, AMEET 기자입니다. 요즘 AI 비서들이 숙제도 대신하고 일정도 알아서 척척 짜주는 시대가 됐는데요, 이 똑똑한 친구들을 돌리려면 컴퓨터 두뇌, 즉 CPU가 필요하다는 거 알고 계셨나요? 그런데 지금 전 세계 데이터센터들이 CPU 부족으로 비상이 걸렸어요. 고성능 CPU를 주문하면 무려 6개월에서 1년 가까이 기다려야 하는 상황이라니, 마치 인기 많은 맛집에서 예약을 기다리는 것 같죠? 여기서 주목할 건 바로 우리나라 반도체 기업들의 기회예요. 삼성전자 같은 한국 기업들은 메모리와 CPU를 함께 만들 수 있는데, 이게 레고 블록을 조립하듯 고객 맞춤형으로 솔루션을 제공할 수 있다는 뜻이에요. 단순히 부품만 파는 게 아니라 맞춤형 통합 솔루션으로 승부를 걸 수 있는 거죠. 다만 2027년부터는 큰 기업들이 자체 칩을 만들기 시작하면서 상황이 바뀔 수 있어서, 그 전에 빠르게 체제 전환을 마쳐야 한다고 하네요. AI 시대, 한국 반도체가 단순 공급자가 아닌 똑똑한 파트너로 자리잡을 수 있을지 앞으로가 더욱 기대되네요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.22 08:20AMEET

데이터센터의 '조용한 반란', 주인공은 다시 CPU로

안녕하세요 AMEET 기자입니다. 불과 1~2년 전만 해도 AI라고 하면 모두가 엔비디아의 GPU만 떠올렸죠. 하지만 2026년 현재, 시장의 공기는 묘하게 바뀌고 있습니다. AI 비서라 불리는 '에이전트'가 우리 일상에 깊숙이 들어오면서, 정작 GPU에 명령을 내리고 전체 시스템을 조율할 '두뇌'인 중앙처리장치(CPU)가 부족해지고 있기 때문입니다. 오늘은 이 뜨거운 열기 뒤에 숨겨진 전문가들의 치열한 논쟁과 한국 반도체 산업이 마주한 숙제를 짚어보려 합니다. 똑똑해진 AI 비서가 불러온 '두뇌'의 귀환 지금 데이터센터 현장에서는 이례적인 일이 벌어지고 있습니다. 보통 AI 연산을 위해 GPU를 4대나 8대 정도 설치할 때 CPU는 딱 1대만 들어가는 구조거든요. 그런데 최근 AI 비서 기술이 발전하면서 이 1대의 CPU가 처리해야 할 일이 감당 못 할 정도로 늘어났습니다. AI가 단순히 질문에 답하는 수준을 넘어 스스로 계획을 세우고 실행하는 '에이전트' 역할을 수행하게 되면서, 똑똑한 CPU에 대한 수요가 폭발한 것이죠. 상황이 이렇다 보니 최신 CPU는 구하고 싶어도 못 구하는 귀한 몸이 됐습니다. 가격은 자고 일어나면 오르고, 반도체 기업들은 물량을 대느라 비상이 걸렸죠. 특히 우리 한국 기업들에게는 아주 반가운 소식도 있습니다. 내년인 2026년부터 양산될 예정인 차세대 고성능 메모리 'HBM4'가 이 CPU들과 찰떡궁합을 보여줄 것으로 기대되기 때문입니다. 메모리만 잘 만들던 삼성전자 같은 기업들이 이제는 CPU와 메모리를 하나로 묶는 통합 패키징 기술을 앞세워 판 자체를 흔들 수 있는 기회가 온 셈입니다. AI 전문가들이 진단한 시장의 충돌과 논점의 이동 이 현상을 두고 AI 전문가들 사이에서는 꽤나 격렬한 대화가 오갔습니다. 처음에는 단순히 "CPU가 부족하니 계속 잘 팔릴 것"이라는 낙관론이 지배적이었지만, 논의가 깊어질수록 흥미로운 반전들이 튀어나왔습니다. 첫 번째 논쟁 : 이 폭등은 언제까지 계속될까? 많은 전문가가 2026년까지는 CPU 수요가 꺾이지 않을 것이라고 봅니다. 하지만 한쪽에서는 강력한 경고를 던지기도 했습니다. 반도체 산업은 항상 '부족하다가도 한순간에 넘쳐나는' 고질적인 주기가 있는데, 지금의 가격 폭등이 2027년쯤이면 공급 과잉으로 변해 거품이 빠질 수 있다는 것이죠. 수요가 영원할 것처럼 보이지만, 결국 공장이 늘어나면 가격은 떨어질 수밖에 없다는 시장의 냉정한 논리입니다. 두 번째 논쟁 : AI가 스스로 다이어트를 한다면? 가장 날카로운 대립이 있었던 지점은 'AI 기술의 효율화'였습니다. 지금은 하드웨어 성능으로 밀어붙이는 시대지만, 앞으로 소프트웨어 기술이 좋아져서 AI가 훨씬 적은 힘으로도 똑같이 똑똑하게 작동하게 된다면 어떻게 될까요? 그렇게 되면 굳이 비싸고 전기를 많이 먹는 고성능 CPU를 고집할 이유가 사라집니다. 전문가들은 이 '기술적 효율화'가 하드웨어 수요를 갉아먹을 변수가 될 것인지, 아니면 오히려 더 많은 사람이 AI를 쓰게 만들어 전체 시장을 키울 것인지를 두고 팽팽하게 맞섰습니다. 세 번째 논쟁 : 빅테크의 '자급자족'이라는 거대한 파도 토론의 끝자락에서 전문가들이 가장 우려한 대목은 구글이나 아마존 같은 거대 IT 기업들의 움직임이었습니다. 이들은 더 이상 남이 만든 CPU를 비싸게 사서 쓰고 싶어 하지 않습니다. 이미 자신들의 데이터센터에 딱 맞는 '전용 칩'을 직접 만들기 시작했거든요. 이렇게 빅테크 기업들이 스스로 칩을 조달하기 시작하면, 범용 CPU 시장은 큰 타격을 입을 수밖에 없습니다. 이는 우리 반도체 기업들이 단순한 부품 공급자를 넘어, 각 기업에 맞춤형 솔루션을 제공하는 파트너로 진화해야만 살아남을 수 있다는 절박한 결론으로 이어졌습니다. 여러 의견이 엇갈렸지만, 전문가들이 공통으로 고개를 끄덕인 지점도 있었습니다. 적어도 2026년까지는 CPU와 메모리가 함께 부족한 현상이 지속될 것이며, 한국 기업들이 가진 '이종 집적(서로 다른 반도체를 하나로 합치는 기술)' 역량이 세계 시장에서 아주 강력한 무기가 될 것이라는 점입니다. 또한, AI 데이터센터가 먹어 치우는 전력 문제를 해결하지 못하면 아무리 좋은 반도체도 무용지물이 될 것이라는 경고에도 모두가 동의했습니다. 반면, 2027년 이후에도 제품 가격이 계속 오를 수 있을지, 그리고 빅테크 기업들의 자체 칩 개발이 얼마나 빨리 시장을 잠식할지에 대해서는 끝내 합의점을 찾지 못했습니다. 이는 결국 기술의 발전 속도와 시장의 논리가 어디서 균형을 잡느냐에 따라 결정될 문제입니다. AI가 세상을 바꾸고 반도체 지형도를 뒤흔들고 있는 것은 분명해 보입니다. 하지만 이 거대한 흐름 속에서 어떤 기술을 선택하고, 얼마만큼의 위험을 감수할지를 결정하는 것은 결국 숫자가 아닌 인간의 몫입니다. CPU 품귀라는 현상 너머에 있는 기술의 본질을 꿰뚫어 보는 안목이 그 어느 때보다 필요한 시점입니다. 지금까지 AMEET 기자였습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/c9da405a.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.21 11:10AMEET

SKT, CPU에 NPU 더해 AI 추론 서버 성능 검증

ARM의 AGI CPU와 리벨리온의 리벨카드로 AI 추론 성능을 높이는 솔루션을 개발하고 이를 SK텔레콤 AI 데이터센터에서 실증한다. SK텔레콤이 지난 9일 ARM, 리벨리온과 차세대 AI 인프라 혁신을 위한 전략적 업무협약을 체결했다. AI 산업이 AI 모델을 만드는 '학습'에서 실제 서비스를 제공하는 '추론'으로 패러다임 변화가 이뤄지면서 AI 인프라의 핵심과제도 학습을 위한 막대한 연산 능력보다는 얼마나 적은 전력으로 얼마나 빠르고 저렴하게 AI 서비스를 제공할 수 있느냐로 변하고 있다. 특히 추론은 365일 쉬지 않고 작동해야 되기 때문에 전력 효율이 곧 비용 경쟁력과 직결된다. AI 추론은 학습과 달리 상대적으로 가벼운 연산을 빠르고 반복적으로 처리하는 작업이다. GPU는 이런 추론 작업에도 사용할 수 있지만, 마치 대형 트럭으로 택배를 배달하는 것처럼 과도한 전력을 소모하고 비용이 높다. 이에 업계에서는 추론에 특화된 전용 칩, 즉 NPU가 대안으로 부상하고 있다. NPU에 CPU를 결합하는 이유도 명확하다. 실제 AI 서비스 운영에서는 AI 연산 외에도 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 등 다양한 범용 처리가 동시에 필요하다. CPU가 시스템의 '관제탑' 역할을 하며 데이터 흐름과 시스템 운영을 총괄하고, NPU가 AI 추론 연산을 전담하는 이종 컴퓨팅 구조는 시스템의 성능과 효율을 높일 수 있다. 'Arm AGI CPU'는 ARM이 35년 역사상 처음으로 직접 생산에 나선 데이터센터용 프로세서로, AI 추론 서비스에 최적화된 것이 특징이다. 리벨리온의 리벨카드도 대규모 AI 추론에 특화된 NPU다. 두 칩을 한 서버 안에 탑재해 CPU가 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, NPU가 AI 추론 연산을 전담하면 전력 효율을 높이고 운영 비용을 줄일 수 있다. SK텔레콤은 이러한 방식이 대규모 AI 서비스를 운영하는 데이터센터에서 효율적인 서버 아키텍처라고 설명했다. ARM과 리벨리온은 이미 지난 3월 진행된 'Arm 에브리웨어' 행사에서 각 사의 칩을 결합하여 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간으로 시연하며, 대규모 데이터센터에서의 상용화 가능성을 보여줬다. SK텔레콤은 AI DC에서 CPU와 NPU를 결합한 AI 추론 컴퓨팅의 성능을 검증하고, 특히 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1)을 운영하는 방안도 검토하고 있다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공함으로써 AI 데이터센터 경쟁력을 더욱 강화해 나가겠다”고 말했다. 에디 라미레즈 ARM 클라우드 AI 사업부 GTM 부사장은 “AI 추론의 급속한 성장은 대규모 배포에 최적화된 새로운 데이터센터 인프라 수요를 촉진하고 있다”며, “SK텔레콤, 리벨리온과 같은 파트너는 Arm AGI CPU를 구축하고 AI 추론 인프라를 현대화하는 데 있어 중요한 역할을 하고 있다”고 전했다. 리벨리온의 오진욱 CTO는 “리벨리온은 압도적인 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당하게 됐다”며, “AI 특화 인프라 구축을 위해 각 분야 전문가들이 원팀으로 뭉친 이번 협력은 업계에서도 매우 유의미한 선례가 될 것으로 기대한다”고 강조했다.

2026.04.11 03:42박수형 기자

리벨리온, Arm·SKT와 협력...추론 인프라 시장 겨냥

인공지능(AI) 반도체 스타트업 리벨리온이 Arm, SK텔레콤 등 글로벌 AI 기업과 협력해 추론 인프라 시장을 겨냥한다고 10일 밝혔다. 소버린 AI와 통신사 특화 데이터센터 수요에 대응한 추론 인프라 제공이 목표다. 3사는 Arm의 자체 설계 데이터센터용 중앙처리장치(CPU)인 'AGI CPU'와 리벨리온의 AI 반도체를 결합한 AI 서버를 공동 개발하고, 이를 SK텔레콤의 AI 데이터센터에서 검증할 계획이다. 리벨리온은 "AI 인프라 분야 전문 기업이 참여하는 이번 연합은 급성장하는 추론 시장 수요에 기민하게 대응하고, 고성능·저전력 기반 소버린 AI 인프라 표준 정립이 목표"라고 설명했다. 이어 "이를 통해 인프라 설계부터 실전 검증까지 전 밸류체인을 포괄하는 협력 체계를 구축할 계획"이라고 덧붙였다. 이를 위해 Arm 네오버스(Neoverse) CSS V3 기반의 'Arm AGI CPU'와 리벨리온의 '리벨카드'를 통합한다. 리벨카드는 기존 1세대 칩 ATOM을 비롯한 국내외 AI 반도체 다수가 RTX 등 워크스테이션급 칩과 비교돼 온 것과 달리, 한국 최초로 데이터센터 서버급 고성능 AI 반도체 리벨100을 탑재했다. 리벨리온과 Arm은 단순 하드웨어 결합을 넘어 펌웨어 등 소프트웨어 전반을 공동으로 개발하고, SK텔레콤 데이터센터에 도입하여 실제 운영환경에 배치해 데이터 처리 성능과 안정성을 검증한다. 특히, SK텔레콤이 개발한 독자 파운데이션 모델 A.X K1를 해당 서버로 운영하는 방안도 검토 중이다. Arm과 리벨리온은 지난 3월 'Arm 에브리웨어' 행사에서 각 사 칩을 결합해 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간 시연하며, 초기 검증 결과와 대규모 데이터센터 워크로드 적용 가능성을 확인했다. 기술 검증 후 3사는 더 넓은 범위의 상용화 기회를 발굴할 예정이다. 리벨리온은 글로벌 소버린 AI 데이터센터 최적화 솔루션을 공급하고, 아시아 지역을 중심으로 시장을 공략할 계획이다. 독자 AI 인프라 구축이 필요한 글로벌 통신사와 공공 산업군을 중심으로, 안정성이 검증된 맞춤형 특화 솔루션 공급에 주력할 예정이다. 오진욱 리벨리온 최고기술책임자(CTO)는 “리벨리온은 압도적 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당한다”며 “AI 특화 인프라 구축을 위해 각 분야 전문가가 원팀으로 뭉친 이번 협력은 업계에도 유의미한 선례가 될 것"이라고 기대했다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공해 AI 데이터센터 경쟁력을 강화하겠다”고 말했다. 에디 라미레즈 Arm 클라우드 AI 사업부 GTM 부사장은 “AI 인프라가 전 세계적으로 확산됨에 따라 가속기, 메모리, 네트워킹 전반 워크로드를 조율하는 CPU 역할이 중요해졌다”며 “Arm 네오버스 CSS V3를 기반으로 설계한 'Arm AGI CPU'는 대규모 AI 구축에 필수인 성능과 효율성을 갖췄다. 이를 바탕으로 리벨리온, SK텔레콤 등 주요 파트너와 협력해 소버린 AI 및 통신 시장을 위한 확장성 있는 인프라를 실현해 기쁘다”고 밝혔다.

2026.04.10 10:11전화평 기자

LG이노텍, PC CPU용 FC-BGA 양산 언제쯤?

LG이노텍의 PC 중앙처리장치(CPU)용 플립칩(FC)-볼그리드어레이(BGA) 양산은 언제 성사될 수 있을까. FC-BGA는 고부가 반도체 기판이지만, 그중에서도 면적이 큰 PC CPU용, 서버 CPU용 FC-BGA가 하이엔드 제품으로 분류된다. LG이노텍은 그간 PC 칩셋 등에 적용할 수 있는 로엔드 FC-BGA 등은 납품했지만 PC CPU용은 아직 대량 공급한 사례가 없다. PC CPU용 제품 공급이 성사되면 LG이노텍 FC-BGA 사업에 이정표가 될 수 있다. 1년 전인 2025년 4월 LG이노텍은 "2024년 PC 칩셋용 FC-BGA를 양산했다"며 "올해(2025년) PC CPU용 FC-BGA 시장에 진입하고, 이르면 내년(2026년)에 인공지능(AI)·서버용 FC-BGA를 양산하는 것이 목표"라고 밝힌 바 있다. 8일 업계에 따르면 LG이노텍은 잠재 고객과 PC CPU용 등 여러 FC-BGA 샘플을 평가 중인 것으로 파악됐다. LG이노텍의 PC CPU용 FC-BGA 납품 시점 전망은 엇갈리지만, "이르면 올해 안 양산 공급이 가능할 것"이란 예상도 나온다. LG이노텍은 PC CPU 중에서도 우선 로엔드 PC CPU용 FC-BGA 납품을 노릴 것으로 예상된다. 한 업계 관계자는 "LG이노텍이 당장은 로엔드 PC CPU용 FC-BGA 시장부터 진입할 가능성이 있다"며 "향후 관련 매출 상승과 품목 확대를 기대할 수 있다"고 밝혔다. 반도체 기판 업황은 LG이노텍에 긍정적이다. 최근 AI 산업 수요 확대로 서버 CPU용 FC-BGA 수요가 급증하자 일본 이비덴과 신코덴키, 삼성전기, 대만 유니마이크론 등 주요 반도체 기판 업체는 PC CPU용보다 수익성이 높은 서버 CPU용 FC-BGA에 주력하고 있다. LG이노텍 입장에서 PC CPU용 FC-BGA 시장에 진입할 수 있는 문이 커졌다. 삼성전기가 지난 2022년 말부터 AMD에 서버용 FC-BGA를 납품한 것도 2020년 시작된 코로나19 영향이 컸다. 당시 재택근무와 원격학습이 확대되며 FC-BGA 수요가 급등하자 CPU 시장에서 인텔보다 점유율이 낮은 AMD는 FC-BGA 공급망을 안정적으로 확보하기 위해 삼성전기, 유니마이크론 등과 서버용 FC-BGA 공급계약을 맺었다. LG이노텍은 PC CPU용 FC-BGA를 양산해야 서버용 시장에도 진입할 수 있다. 지난해 4월 LG이노텍은 "서버용 FC-BGA는 아직 양산하지 않고 있지만, 내부적으로 20층 이상 라지 바디 제품을 검증했고, 실질적 기술은 확보했다"며 "향후 (서버용 FC-BGA) 양산 관점에서 어느 정도 생산수율로 의미있게 끌고 가느냐가 중요할 것"이라고 밝히기도 했다. LG이노텍이 서버용 FC-BGA까지 양산하려면 추가 투자가 필요하다. 일반적으로 서버용 FC-BGA를 양산하려면 조 단위 투자를 집행해야 하는 것으로 알려졌다. LG이노텍은 지난 2022년 4130억원 투자 발표로 FC-BGA 시장 진출을 공식화했다. 이후에도 FC-BGA 부문에 추가 투자했지만 서버용 FC-BGA를 만들 수 있는 생산능력은 확보하지 못했다. LG이노텍은 지난달 공개한 2025년 사업보고서에서 "FC-BGA는 글로벌 고객 추가 확보로 양산 확대를 추진하고 있다"고 밝혔다. 지난해 반도체 기판 사업 영업이익률(매출 1조 7200억원, 영업이익 1288억원)은 7.5%까지 회복했다. 2024년의 4.8%보다 2.7%포인트 개선됐다.

2026.04.08 12:21이기종 기자

에이디테크놀로지, 2029년 매출 1.1조원 정조준…"마벨·브로드컴 모델로 진화"

"수동적으로 고객 설계를 기다리던 과거의 디자인 서비스(DSP)에서 벗어나, 마벨이나 브로드컴처럼 특정 애플리케이션에 맞는 독자 IP와 아키텍처를 시장에 먼저 제안하고 기술을 리딩하는 기업으로 거듭나겠습니다." 박준규 에이디테크놀로지 대표는 7일 성남 판교 기회발전소에서 열린 기자간담회에서 회사의 미래 비전에 대해 이같이 밝혔다. 단순 반도체 설계 지원을 넘어 커스텀 CPU(중앙처리장치)를 기반으로 한 시스템 설계역량을 앞세워 시장을 선도하는 기업 형태로 사업구조를 바꾸겠다는 계획이다. 오는 2029년 매출 목표는 1조1000억원이다. 지난해 매출(1645억원)의 6.7배다. 비즈니스 모델 전환 적중… 지난해 흑자 전환 달성 에이디테크놀로지는 고부가가치 및 양산 과제 중심으로 사업구조를 재편하며 지난해 흑자 전환했다. 지난해 영업이익은 28억5000만원이다. 매출은 1645억원으로 전년비 54.4% 성장했다. 당기순이익은 34억3000만원을 달성하며 2년 연속 적자에서 벗어났다. 매출총이익률(GPM)은 전년비 8.2%포인트(p) 상승했다. 이는 기술 진입장벽이 높은 선단공정 중심 수주와 함께, 초기 기획부터 최종 양산까지 전 과정을 아우르는 턴키(Turn-key) 솔루션 비중을 확대한 결과다. 개발로만 끝나는 단발성 과제를 지양하고 장기 수익 창출이 가능한 턴키 프로젝트 비중을 끌어올린 점이 이익 창출 기반이 됐다. 회사는 이미 확보한 수주를 바탕으로 올해 3000억원, 2027년 4000억원 등 연 매출을 기록할 것으로 전망했다. 2나노 차세대 플랫폼 'ADP 620', 미국 '케니'와 선행 협력 매출 1조원 고지를 밟기 위한 핵심 무기는 삼성전자 2nm(나노미터, 10억분의 1m) 선단 공정 기반의 차세대 커스텀 CPU 플랫폼 'ADP 620'이다. 이 플랫폼은 엔비디아 등이 장악한 거대 클라우드 시장 대신, 전력 효율과 맞춤형 설계가 필수인 엣지 인프라와 소버린 AI 시장을 정조준한다. ADP 620은 ARM의 '네오버스(Neoverse) V3' 아키텍처를 탑재한다. 2.5D 패키징 기술을 활용해 AI 가속기 등을 칩렛 형태로 결합할 수 있는 구조다. 회사는 이전 세대 플랫폼을 통해 쌓은 860건 설계 경험과 170건 이상 선단공정 협력 레퍼런스를 바탕으로 독보적 플랫폼을 구축했다. 플랫폼 양산을 위한 첫 대형 프로젝트 파트너로 북미 AI 통신망 특화 팹리스 케니가 낙점됐다. 에이디테크놀로지의 커스텀 CPU와 케니의 네트워크 제어 유닛, AI 가속기를 하나의 칩렛으로 통합해 기지국 트래픽 관리와 AI 연산을 동시 처리하는 설계다. 이를 통해 에너지 효율을 기존 대비 15배가량 높일 수 있으며, 내년 2분기 테이프아웃(설계완료)을 목표로 속도를 내고 있다. 당초 ADP 620 파트너로 언급됐던 리벨리온의 NPU 우선 적용은 다소 밀렸다. 리벨리온이 기존에 개발한 가속기 칩 양산과 상장 준비 등 당면 과제에 역량을 집중하고 있기 때문이다. 대신 에이디테크놀로지는 리벨리온과 현재 세대 이후 대규모 모델을 다루는 다음 세대 가속기 적용을 놓고 기술을 검토하고 있다. 박 대표는 "작년 2025년은 그간 치열하게 다진 기술적 기틀이 대형 프로젝트 성과로 연결되며 설계 전문성을 입증한 변곡점이었다"며 "단순 디자인 설계를 넘어 최적 아키텍처를 선제 제안하는 주도적 파트너로서, 글로벌 시장 내 대체 불가능한 설계 자산으로 독보적 위상을 선점하겠다"고 강조했다.

2026.04.07 15:25전화평 기자

Arm, AGI CPU 시연 "저전력·고성능으로 효율 극대화"

[샌프란시스코(미국)=권봉석 기자] Arm은 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 데이터센터용 IP(지적재산권) '네오버스'를 활용한 자체 개발 제품 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스 v3'를 활용해 설계된 첫 완제품이다. AGI CPU는 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. 오후에 아태지역 기자단 대상으로 진행된 시연에서는 AGI CPU를 AI 워크로드 전반을 조율하는 장치로 활용하고 NPU·GPU 등 가속기와 결합하는 하이브리드 AI 아키텍처를 제시했다. 이날 Arm 관계자는 영상 변환과 추론을 동시에 수행하는 시나리오를 전제로 "기존 x86 프로세서는 최대 성능으로 작동시 성능 저하가 발생해 영상 처리시 버퍼링이 발생한다. 반면 Arm AGI CPU는 초당 30프레임으로 영상을 변환해 버퍼링 없는 영상 처리를 수행할 수 있다."고 설명했다. 이어 "기존 CPU는 전력 소모가 커서 냉각을 위해 2U 단위 큰 부피를 차지하며 한 랙에 넣을 수 있는 서버 수도 제한된다. 반면 AGI CPU는 1U 서버에서도 공랭이 가능하기 때문에 더 작은 폼팩터로 더 많은 서버를 랙에 배치할 수 있다"고 설명했다. SAP AI 모델 기반 시연에서는 CPU의 역할 변화가 구체적으로 제시됐다. 시연을 진행한 Arm 관계자는 "라우터, 링커, 검증기, 스코어러 등 다수의 에이전트가 협업해 리스크를 평가하는 작업은 기존에 많은 시간이 걸렸지만 AGI CPU는 이를 수 시간으로 단축할 수 있다"고 밝혔다. 고객 서비스 자동화 시연은 이메일을 자동으로 분류하고 고객에게 직접 전화를 거는 8개 에이전틱 AI가 동시 실행되는 환경을 보여줬다. 대부분의 에이전트는 AGI CPU에서 실행되며 복잡한 추론은 국내 AI 스타트업인 리벨리온 NPU 가속기를 활용했다. Arm 관계자는 "AGI CPU를 기반으로 필요할 경우 외부 가속기를 유연하게 통합 가능하며 이를 활용해 각종 이메일을 기존 대비 두 배 이상의 속도로 처리할 수 있다"고 설명했다. Arm은 기존 x86 서버 기반으로 작성된 코드를 Arm 기반으로 변환하기 위한 도구도 함께 시연했다. AI 에이전트가 기존 코드와 컨테이너를 분석해 자동으로 수정하는 한편 성능이 저하되는 병목구간에서 Arm AI 가속 명령어인 SVE를 적용해 추가 최적화를 지원한다. 전자설계자동화(EDA) 워크로드 시연에서는 실제 반도체 설계 환경 활용 사례를 보였다. AGI CPU에 내장된 최대 136개 코어를 활용해 더 많은 작업을 짧은 시간에 소화해 개발 단계를 단축할 수 있다. Arm 관계자는 "기존에는 지멘스나 시높시스 솔루션을 클라우드에서 활용해야 했지만 AGI CPU를 활용하면 시뮬레이션과 전력 분석 등 메모리 집약적 작업을 온프레미스 환경에서수행할 수 있다"고 밝혔다.

2026.03.25 16:18권봉석 기자

르네 하스 Arm CEO "IP·CSS에 새 선택지인 AGI CPU 추가"

[샌프란시스코(미국)=권봉석 기자] "CPU와 AI는 어디에나 존재하며, Arm은 이를 위한 선택권과 기술 기반을 제공한다. 오늘 공개한 Arm AGI CPU는 AI 시대 데이터센터 혁신의 중심이 될 것이다." 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사장에서 각국 기자단과 마주한 르네 하스 Arm CEO가 강조한 메시지다. 이날 Arm은 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. "AGI CPU, 고객사 요청으로 개발 시작" 르네 하스 CEO는 이날 고객사 요청으로 AGI CPU 개발을 시작했다고 설명하고 "2년 전부터 시작한 시스템반도체 프레임워크인 '컴퓨트서브시스템(CSS)'을 이용해 복잡한 반도체를 빠른 시간 안에 개발할 수 있었다"고 말했다. 이어 "AGI CPU라는 이름도 'AI 에브리웨어'와 'CPU의 필수성'을 결합한 전략적 의미를 담고 있다. 기술 트렌드와 시장 요구사항을 동시에 반영했다"고 덧붙였다. 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 AGI CPU 개발 의미에 대해 "Arm의 강점은 고객 맞춤형 포트폴리오 제공으로 소프트웨어 생태계를 강화하고 시장 기회를 확대하는 것"이라고 설명했다. "네오버스 기반 S/W, AGI CPU와 호환성 확보" AGI CPU는 GPU와 각종 가속기를 CPU로 연결하는 인터페이스에 PCI 익스프레스 6.0을 활용했다. 모하메드 아와드 수석부사장은 "이는 현 세대 표준에서 최적의 선택이었다. 엔비디아 규격인 NV링크도 CSS 기반으로 적용 가능하며 향후 지원을 검토중"이라고 설명했다. CPU 코어 한 개를 두 개처럼 활용하는 동시멀티스레딩(SMT) 기술을 쓰지 않은 이유에 대해 "에이전틱 AI는 메모리와 입출력 대역폭 최적화가 중요하며 SMT는 오히려 성능을 하락시킬 수 있다"고 설명했다. 그는 "클라우드 환경에서 네오버스 기반으로 개발된 소프트웨어는 별도 작업 없이 AGI CPU에서 활용 가능하다"며, AGI CPU와 기존 네오버스 아키텍처 호환성이 개발자와 소프트웨어 생태계에 높은 호환성과 유연성을 제공한다고 설명했다. "AGI CPU, 기존 제품과 직접 경쟁하지 않을 것" 구글 클라우드, 아마존웹서비스, 마이크로소프트는 네오버스 CSS를 활용해 각자 자사 프로세서를 만들고 있다. 모하메드 아와드 수석부사장은 "데이터센터 시장은 크고 맞춤형 제품에 대한 수요가 크다. Arm AGI CPU는 기존 제품과 직접 경쟁하지 않는다"고 설명했다. 그는 저전력·고효율 E(에피션트)코어를 최대 288개 넣은 인텔 제온6+(클리어워터포레스트) 등 기존 x86 서버용 프로세서 대비 AGI CPU가 우위에 있다고 주장했다. "경쟁사 제품은 CPU 코어 수 향상에 집중했지만 AGI CPU는 메모리 대역폭과 전체 시스템 아키텍처 최적화를 중심으로 설계됐다." "고객사에 다양한 선택지 제공해 시장 확장할 것" 르네 하스 CEO는 "AGI CPU를 포함해 엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장 기회가 있을 것"이라고 설명했다. 이어 "고객사가 필요에 따라 IP, CSS, AGI CPU를 자유롭게 선택할 수 있으며 단일 고객에 국한되지 않고 다양한 맞춤형 제품으로 시장을 확장할 계획"이라고 덧붙였다.

2026.03.25 10:29권봉석 기자

SK텔레콤 "Arm AGI CPU 활용 AI 데이터센터 사업 확장"

[샌프란시스코(미국)=권봉석 기자] SK텔레콤이 24일(현지시간) Arm AGI CPU와 리벨리온 AI 가속기를 활용해 AI 데이터센터 인프라 사업을 확장하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 기조연설에서 에이전틱 AI 추론 처리에 특화된 CPU 완제품 첫 제품인 'AGI CPU'를 공개했다. 정석근 SK텔레콤 최고기술책임자(CTO)는 이날 영상메시지에서 "SK텔레콤은 Arm AGI CPU와 리벨리온 AI 가속기 칩을 포함한 대규모 풀스택 AI 추론 데이터센터 인프라로 사업을 확장할 것"이라고 설명했다. 이어 "자체 개발한 소버린 AI 'A.X' 파운데이션 모델과 추론 최적화 AI 서버를 결합함으로써, 이를 글로벌 시장에 제공하기 위한 준비를 완료함과 동시에 AI 데이터센터(AIDC) 경쟁력을 한층 강화하고 있다"고 덧붙였다. 이날 현장에서 만난 리벨리온 관계자는 "에이전틱 AI는 CPU 효율이 매우 중요하며 NPU 가속기를 단순히 결합하는 것이 아니라 시스템 차원 통합의 필요성이 크다"고 설명했다. 이어 "올 하반기부터 리벨리온 NPU와 Arm AGI CPU를 결합한 솔루션을 바탕으로 SK텔레콤과 벤치마킹을 진행할 예정이며 구체적인 일정은 Arm AGI CPU 기반 서버 공급업체와 논의중"이라고 덧붙였다. 이 관계자는 "에이전틱 AI로 인해 추론 시장 확장이 예상되며 리벨리온은 Arm 글로벌 파트너사로 Arm의 네트워크를 활용해 SK텔레콤을 시작으로 추후 다른 고객사까지 솔루션 보급 확대를 계획중"이라고 밝혔다.

2026.03.25 09:40권봉석 기자

삼성전자·SK하이닉스 "Arm과 함께 AGI CPU 생태계 구축"

[샌프란시스코(미국)=권봉석 기자] 삼성전자와 SK하이닉스 등 국내 메모리 반도체 선두기업이 24일(현지시간) Arm과 협력해 AI 생태계 확대를 지원하겠다고 밝혔다. Arm은 이날 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 완제품 CPU 첫 제품인 'AGI CPU'를 공개했다. AGI CPU는 기존 클라우드서비스제공자와 하이퍼스케일러에 제공하던 데이터센터용 CPU IP(지적재산권)인 '네오버스'를 활용해 설계된 첫 완제품 CPU다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 이날 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "AGI CPU는 주요 메모리 제조사와 협업 없이 구현이 불가능했다"고 설명했다. 전영현 삼성전자 DS부문장(부회장)은 영상 메시지에서 "AI 워크로드가 증가함에 따라, 성능 향상은 로직, 메모리, 첨단 패키징 기술 전반에 걸친 긴밀한 공동 최적화에 더욱 크게 좌우된다"고 밝혔다. 이어 "Arm AGI CPU와 같은 목적에 맞게 설계된 AI 컴퓨팅 플랫폼은 실리콘 설계, 메모리 통합, 첨단 공정 기술을 활용한 제조 혁신 전반에서 보다 긴밀한 협력을 가능하게 한다. 이는 AI 에코시스템에 있어 중요한 이정표가 될 것"이라고 덧붙였다. 곽노정 SK하이닉스 사장은 "AI 데이터센터가 발전함에 따라, AI 워크로드에 최적화된 플랫폼에는 최신 애플리케이션에 필요한 용량과 대역폭을 제공하는 첨단 메모리 기술이 필수적"이라고 밝혔다. 이어 "Arm AGI CPU를 통한 목적에 맞게 설계된 AI 컴퓨팅의 도입은 에코시스템에 있어 중요한 이정표가 될 것이다. 앞으로도 차세대 AI 인프라 발전을 위한 Arm과 파트너십이 지속되길 기대한다"고 말했다.

2026.03.25 09:03권봉석 기자

Arm "에이전틱 AI 시대, CPU 중요성 더 커진다"

[샌프란시스코(미국)=권봉석 기자] "현재 AI 인프라 관련 관심사가 GPU에 집중됐다. CPU가 상대적으로 주목을 덜 받고 있지만 CPU와 GPU는 상호 보완 관계에 있다. AI의 발전과 에이전틱 AI 등장으로 앞으로 CPU의 역할은 줄어드는 것이 아니라 오히려 더 커질 것이다." 24일(현지시간) 오전 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 르네 하스 Arm CEO가 이렇게 강조했다. Arm은 이날 행사에서 코드명 '피닉스(Phoenix)'로 개발해 오던 CPU 완제품 'AGI CPU'를 공개하는 한편, 반도체 지적재산권(IP)만 공급하던 과거 비즈니스 모델에서 서버용 프로세서 완제품까지 공급하는 모델로 전환을 선언했다. 르네 하스 Arm CEO는 "AI가 고도화될수록 연산 자체보다 이를 조직하고 처리하는 과정이 더 중요해진다”며, GPU 중심으로 인식되던 AI 컴퓨팅 구조에서 CPU의 역할이 다시 부각되고 있다고 덧붙였다. "소프트뱅크 Arm 인수 이후 포트폴리오 확장" 르네 하스 Arm CEO는 "지금까지 출하된 Arm 기반 반도체는 3500억 개 이상이며 이는 지금까지 지구에 존재했던 전체 인구의 약 세 배에 달하는 수준이다. 또 전세계 가구당 평균 약 160개의 Arm 반도체가 쓰이고 있다"고 설명했다. 르네 하스 CEO는 Arm이 극적인 변화를 겪게 된 시점을 일본 소프트뱅크 피인수 시점인 2016년으로 짚었다. "인수 이후 플랫폼을 각 산업별(버티컬)로 확장했고 스마트폰을 벗어나 클라우드, 사물인터넷(IoT)로 확장했다." 이어 이런 Arm의 성장 기반으로 '생태계'를 강조했다. 그는 "30년 이상 축적된 저전력 설계 기술과 글로벌 파트너십이 오늘날 Arm의 경쟁력을 만든 핵심"이라고 말했다. "에이전트 부하 감당 위한 CPU 역할 더 커질 것" 르네 하스 CEO는 "업계 일각에서는 CPU의 시대가 지났고 AI는 GPU 등을 활용한 '가속 컴퓨팅'으로만 처리된다는 시각이 확산됐지만 이는 지나친 단순화다. AI 등장 이전 클라우드 환경이 CPU 중심으로 움직였던 것처럼, CPU의 역할은 더 커졌다"고 지적했다. 이어 "오늘날 사용자가 PC나 스마트폰에서 프롬프트를 입력하면, 가속기가 토큰을 생성하더라도 이를 요청·분배·조율하고 결과를 다시 사용자에게 전달하는 과정은 CPU가 담당한다"고 덧붙였다. 르네 하스 CEO는 "에이전트는 인간보다 빠르게, 그리고 24시간 지속적으로 요청을 생성하며 데이터센터에 부하를 가한다"며 CPU의 역할이 더 커질 것으로 전망했다. "AGI CPU, 기존 CPU 한계 극복 위한 새로운 제품" 이날 Arm은 주요 클라우드서비스공급자(CSP) 등에 공급하던 데이터센터용 CPU IP인 '네오버스'를 기반으로 한 'AGI CPU'도 공개했다(관련기사 참조). 르네 하스 CEO는 "Arm 자체 전망에 따르면 앞으로 1GW 데이터센터 당 최대 1200만 개의 CPU가 필요하다. 이처럼 CPU 수요는 커지는 반면 가용 전력과 공간이 제약된 데이터센터에서 이를 확대하기는 쉽지 않다"고 설명했다. 이어 "AGI CPU는 지금까지 등장한 서버용 CPU가 안고 있는 한계를 극복하기 위해 처음부터 새롭게 설계된 제품"이라고 설명했다. 메타·오픈AI, AGI CPU 고객사로 참여 메타는 Arm AGI CPU 최초 고객사이자 공동 개발 파트너다. 오픈AI는 AGI CPU 초기 도입 고객사로 참여했다. 이날 산토시 자나단 메타 인프라 책임자는 "급증하는 AI 수요와 데이터센터 확장 과정에서 전력·효율·성능을 동시에 해결할 필요성이 커졌으며, 이를 위해 Arm과 긴밀히 협력해 새로운 CPU 설계에 직접 관여했다"고 설명했다. 케빈 웨일 오픈AI 최고제품책임자는 "오픈AI는 AI 모델 고도화와 서비스 확장 과정에서 만성적인 컴퓨팅 부족 문제를 겪고 있으며, 특히 제한된 전력 환경에서 더 많은 연산을 수행해야 하는 과제에 직면해 있다"고 설명했다. "데이터센터 부문, 향후 149조 규모 시장 열 것" 르네 하스 CEO는 기조연설 말미에 AGI CPU를 통한 시장 확대 가능성과 매출 성장에 대한 구체적인 전망도 제시했다. 그는 "현재 Arm의 AI 데이터센터 관련 사업이 약 300억 달러(약 44조 9100억원) 규모이며 AGI CPU를 통해 향후 약 1000억 달러(149조 7000억원) 수준의 시장 기회가 열릴 것"이라고 전망했다. 이어 "엣지부터 클라우드까지 아우르는 Arm의 포지션을 기반으로 2030년까지 최대 1조 달러(약 1497조원) 규모 시장으로 확장 가능하다"고 강조했다.

2026.03.25 08:43권봉석 기자

Arm, 서버용 CPU 공급 나선다...에이전틱 AI 겨냥 'AGI CPU' 공개

[샌프란시스코(미국)=권봉석 기자] 영국 반도체 지적재산권(IP) 기업 Arm이 24일(현지시간) 미국 캘리포니아 주 샌프란시스코 포트 메이슨에서 진행된 'Arm 에브리웨어' 행사에서 에이전틱 AI에 최적화된 CPU 완제품인 'Arm AGI CPU'를 공개했다. 이날 기조연설에서 모하메드 아와드 Arm 클라우드 AI 사업부문 총괄 수석부사장은 "에이전틱 AI가 등장하면서 다양한 에이전트와 데이터를 주고 받고 서버 내 작업을 조율하는 CPU의 역할이 커지고 있다"고 설명했다. 이어 "AGI CPU는 성능과 확장성, 효율성 등 3개 요소를 염두에 두고 처음부터 에이전틱 AI를 위해 설계됐다"고 덧붙였다. TSMC 3나노 기반 최대 136개 Arm 코어 탑재 AGI CPU는 Arm이 팹리스와 클라우드서비스공급자(CSP), 하이퍼스케일러에 공급하는 CPU IP인 네오버스 v3 기반으로 설계됐다. 68개 코어로 구성된 다이 2개를 연결해 최대 136개 코어로 작동하며 코어당 2MB 용량 L2 캐시를 더했다. 메모리는 DDR5-8800까지 지원하며 메모리 대역폭은 코어당 최대 6GB/s로 지연시간을 최소화했다. 또 각종 가속기와 GPU 사이에 최대 성능을 낼 수 있도록 최신 규격인 PCI 익스프레스 6.0 레인(lane, 데이터 전송 통로)을 96개 내장했다. CPU 다이 생산에는 대만 TSMC 3나노급 공정을 이용한다. 이날 현장에서 만난 Arm 관계자는 "TSMC 3나노급 중 어떤 공정을 이용하는지는 구체적으로 밝힐 수 없다"고 답했다. 공랭식 36kW(킬로와트)급 랙에는 최대 8160개 코어 구성이 가능하며 수랭식 200kW급 랙에는 최대 4만 5696 코어 탑재가 가능하다. "AGI CPU, 지속 성능과 효율에서 x86 대비 우위" 이날 Arm은 인텔과 AMD 등 기존 x86 기반 서버용 프로세서 대비 AGI CPU가 대역폭과 전력 소모 등에서 더 많은 이점을 가지고 있다고 강조했다. 모하메드 아와드 Arm 수석부사장은 "기존 x86 프로세서는 작동 클록을 올리는 방식으로 성능을 강화했지만 전력 소모도 증가한다. 또 한 코어를 두 개처럼 쓰는 SMT 기술을 활용해도 메모리 대역폭 등 병목현상으로 실제 성능 향상은 크지 않다"고 지적했다. 이어 자체 예측 결과를 바탕으로 "AGI CPU는 장시간 지속 성능과 전력 효율, 랙당 지속 성능 등 3개 지표에서 x86 프로세서 대비 1.7배 이상 우위에 있는 킬러 제품"이라고 자평했다. 레노버, 슈퍼마이크로 등 주요 서버 제조사는 Arm AGI CPU 기반 서버를 시장에 공급 예정이다. 또 메타와 오픈AI 등 클라우드 관련 업체도 AGI CPU를 자사 AI 인프라에 도입하겠다고 밝혔다. 국내에서는 SK텔레콤과 리벨리온이 AGI CPU를 도입할 예정이다. 르네 하스 Arm CEO는 "오늘 공개한 AGI CPU를 시작으로 내년에는 차세대 제품인 'AGI CPU 2', 또 이 프로세서의 기반이 되는 네오버스 CSS V4 등 후속 제품을 지속적으로 투입할 예정"이라고 밝혔다.

2026.03.25 06:57권봉석 기자

엔비디아, 메타에 AI칩 수백만개 공급 예정…장기 파트너십 체결

엔비디아가 글로벌 주요 클라우드서비스제공자(CSP) 메타와 장기간·대규모 AI 반도체 공급에 대한 계약을 체결했다. 17일(현지시간) 엔비디아는 메타와 온프레미스, 클라우드 및 AI 인프라에 대한 다년간의 전략적 파트너십을 맺었다고 밝혔다. 이번 협력으로 엔비디아는 메타에 수백만 개의 '블랙웰' 및 '루빈' GPU를 공급할 예정이다. 해당 GPU는 AI 데이터센터에 필요한 초고성능 칩이다. 특히 루빈의 경우, 올해 본격적인 상용화가 예상된다. 또한 메타는 자사 데이터센터에 엔비디아의 그레이스 CPU를 단독으로 도입하기로 했다. 주요 CSP 기업 중 엔비디아의 그레이스 CPU만을 채용한 사례는 이번이 처음이다. 그간 메타는 Arm 기반의 CPU를 자사 AI칩의 보조 프로세서로 활용해 왔다. 이와 관련해 로이터통신은 "고객사향 매출을 공개한 적은 없지만, 메타는 엔비디아의 최근 분기 매출의 61%를 차지하는 4대 CSP 중 하나"라며 "엔비디아가 이번 계약을 강조한 것은 메타와의 대규모 사업 관계 유지와 CPU 시장에서의 입지 강화를 보여주기 위한 것"이라고 평가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "엔비디아는 CPU, GPU, 네트워킹 및 소프트웨어 전반에 걸친 심층적인 공동 설계로 메타가 차세대 AI 인프라를 구축하는 데 필요한 모든 플랫폼을 제공할 것"이라고 말했다. 마크 저커버크 메타 CEO는 "엔비디아와의 파트너십 확대로 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축하고, 전 세계 모든 사람에게 맞춤형 인공지능을 제공하게 돼 기쁘다"고 밝혔다.

2026.02.18 10:10장경윤 기자

카카오, 구글과 협력…차세대 AI 경험 선보인다

카카오가 차세대 인공지능(AI) 경험을 제공하고자 구글과 손 잡는다. 정신아 카카오 대표는 12일 지난해 4분기 실적 발표 컨퍼런스 콜에서 "올해부터 자사가 더 집중하고자 하는 디바이스 측면에서 차세대 AI 경험을 선보이기 위해 글로벌 협업을 본격적으로 시작하기로 합의했다"고 말했다. 이번 파트너십의 출발점으로 카카오는 자사 온디바이스 AI 서비스를 고도화하기 위해 구글 안드로이드와 협업을 시작한다. 안드로이드 개발팀과 직접 협업한다. 여기에 카카오는 AI 인프라에 대한 재무적 부담이 점진적으로 증가하고 있다는 점을 고려해 그래픽처리장치(GPU)에서 나아가 다양한 칩 라인업을 모델과 서비스별로 최적화해 배치함으로써 자본 효율적인 방식으로 AI 인프라를 강화하는 방안을 고민한다. 또 카카오는 구글클라우드와의 유의미한 규모의 중앙처리장치(CPU) 클라우드 운영에 대한 논의도 진행 중이다. 카카오는 향후 출시될 구글 AI 글래스에서의 협업에도 착수한다. 정 대표는 "앞으로 다양한 AI 폼팩터 환경에서 카카오 서비스가 더해질 때 이용자 경험이 어떻게 달라질 수 있을지에 대한 가설을 세우고 이를 바탕으로 하나씩 실험하며 새로운 AI 사용 경험을 만들어 가고자 한다"고 덧붙였다.

2026.02.12 09:32박서린 기자

양자 보안 시대, NPU가 핵심 인프라로 떠오르는 이유

양자컴퓨터 시대를 대비한 양자내성암호(PQC) 전환이 본격화되면서, NPU(신경망처리장치)가 차세대 보안 인프라의 핵심 요소로 부상하고 있다. NPU가 PQC 연산을 직접 수행하는 것은 아니지만, PQC 도입으로 증가하는 시스템 부담을 흡수하는 역할을 맡으면서 존재감이 커지고 있다는 평가다. PQC는 기존 암호 체계를 대체하는 차세대 보안 기술로, 양자컴퓨터 환경에서도 안전성을 유지하는 것을 목표로 한다. 그러나 PQC는 대규모 행렬·다항식 연산을 요구해 연산량과 전력 소모가 크게 늘어나게 된다. 이로 인해 인증, 통신, 업데이트 과정에서 CPU 부담이 증가한다. 특히 엣지 디바이스 환경에서는 성능 저하와 지연이 문제로 지적된다. PQC 도입이 만든 시스템 부담 30일 반도체 업계에서는 PQC로의 전환을 단순한 암호 알고리즘 교체가 아니라 시스템 설계 전반의 문제로 보고 있다. 연산량 증가로 인한 CPU 병목을 어떻게 완화하느냐가 PQC 도입의 현실성을 좌우한다는 분석이다. PQC를 위한 암호 연산 자체는 여전히 CPU와 HSM(하드웨어 보안 모듈), TPM(하드웨어 기반 보안 칩) 등 보안 영역에서 수행된다. 신뢰 경계와 보안 요구사항 때문이다. NPU가 PQC 연산을 직접 처리하는 구조는 아닌 셈이다. 문제는 PQC 도입으로 인해 CPU에 연산이 집중된다는 점이다. 이를 그대로 둘 경우 시스템 전체의 효율과 안정성이 급격히 떨어질 수 있다. 이 때문에 업계에서는 PQC 전환 과정에서 연산 부하를 분산할 수 있는 구조가 필요하다는 지적이 나온다. NPU, 연산을 대신하지 않고 부담을 나눈다 이 과정에서 NPU의 역할이 부각되고 있다. NPU는 AI 추론을 위해 설계된 가속기로, 저지연과 전력 효율이라는 구조적 강점을 갖는다. 김현호 AMD 재팬 연구원은 “NPU의 가치는 단순한 성능 수치보다 저지연과 전력 효율에 있다”며 “PQC처럼 시스템 전반의 연산 부담을 키우는 기술이 도입될수록 이런 특성이 더욱 중요해진다”고 설명했다. NPU는 AI·데이터 처리 등 기존 CPU 워크로드 일부를 오프로딩함으로써 CPU가 암호 연산에 집중할 수 있는 여유를 만든다. 오프로딩은 CPU 부담을 다른 가속기로 분산하는 구조를 의미한다. 김 연구원은 “NPU가 PQC 연산을 직접 수행하는 것은 아니지만, 그 과정에서 발생하는 유사한 연산 부담을 분산시켜 시스템 차원에서 PQC를 가능하게 한다”고 말했다. 업계에서는 PQC 연산과 NPU 연산이 구조적으로 유사한 점이 많지만 완전히 동일하지는 않다고 보고 있다. 이로 인해 NPU의 역할이 단순화돼 전달되는 경우도 있었지만, 시스템 관점에서 보면 PQC 전환 흐름 속에서 NPU가 자연스럽게 핵심 인프라로 자리 잡고 있다는 분석이 나오는 이유다. 다만 국내 업계에서는 보다 신중한 시각도 제기된다. NPU가 PQC 구현의 중심으로 보기에는 다소 이르다는 의견이다. 오히려 PQC 병목 해결의 현실적인 방법으로 NTT(Number Theoretic Transform) 최적화를 제시했다. 국내 팹리스 ICTK 관계자는 “PQC 성능의 핵심 병목은 여전히 다항식 연산, 특히 NTT 최적화에 있다”며 “현재로서는 CPU와 전용 암호 가속기를 중심으로 성능을 끌어올리는 접근이 가장 현실적”이라고 말했다. 이어 “NPU는 시스템 부하 완화 측면에서 의미가 있지만, PQC 구현의 중심 축으로 보기는 이르다”고 덧붙였다.

2025.12.31 09:09전화평 기자

"GPU만 늘려선 AI 못 돌린다"…韓 데이터 인프라 한계 경고

AI 경쟁이 세계적으로 격화되는 가운데, 한국이 핵심 경쟁 요소인 데이터 인프라에서 뒤처지고 있다는 지적이 나오고 있다. 막대한 투자가 GPU(그래픽처리장치) 확보에만 쏠리면서, 정작 AI 학습 성능을 좌우하는 메모리·데이터 경로(data pipeline) 개선에는 상대적으로 관심이 부족하다는 것이다. 8일 반도체 업계 안팎에서는 AI 학습 과정에서 반복적으로 나타나는 병목 현상의 핵심 원인으로 '기존 서버 구조에 머문 데이터 인프라'를 꼽는다. AI 모델의 규모와 학습량은 기하급수적으로 증가하고 있지만, 데이터를 GPU로 충분히 공급하는 기반은 여전히 CPU 중심의 전통적 구조에 놓여 있다는 진단이다. 그 결과 GPU는 계산 능력을 모두 활용하지 못한 채 대기하고, 데이터베이스(DB)는 처리량 한계에 부딪히며 SSD는 입출력(I/O) 병목을 초래하는 현상이 시스템 전반에서 반복되고 있다. GPU는 더 빨라졌지만…데이터는 따라가지 못해 현재 고성능 GPU는 초당 수 테라바이트(TB/s)급 대역폭을 제공하는 HBM(고대역폭 메모리)을 탑재하고 있다. 그러나 가장 최신 AI 반도체인 엔비디아 B200 용량이 192GB(기가바이트) 수준으로, GPT-4·5 같은 대형 모델이 요구하는 5~10TB 메모리양에는 턱없이 부족하다. HBM 용량이 부족해지는 순간 GPU는 외부 메모리에서 데이터를 가져와야 한다. 이때 CPU 서버의 D램 용량은 충분하지 않고, 부족분은 SSD에서 읽어야 한다. SSD는 속도가 D램 대비 최대 1천배 느리다. 결국 GPU는 연산을 수행할 수 있어도 필요한 데이터가 제때 도착하지 않아 지연되는 시간이 길어진다. 업계 안팎에서 실제 GPU 평균 활용률이 35% 수준에 그친다는 평가가 나오는 이유다. 프라임마스 박일 대표는 “GPU가 쉬고 있는 이유는 알고리즘 때문이 아니라 데이터를 제때 공급받지 못해서다”라며 “AI 시대의 병목은 연산이 아니라 데이터 인프라에서 발생한다”고 지적했다. 대안은 CXL 기반 '초대용량 메모리 풀링' 이같은 병목을 해결하기 위한 기술로 전 세계에서 주목하는 것이 CXL(컴퓨트 익스프레스 링크)다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 이를 활용하면 메모리를 모듈 단위로 확장하거나 여러 서버가 메모리를 풀 형태로 공동 활용할 수 있어, GPU가 데이터를 기다리는 시간을 크게 줄일 수 있다. 반도체 업계 관계자는 “GPU 성능을 아무리 높여도, GPU가 쉬지 않게 만드는 데이터 인프라가 받쳐주지 않으면 의미가 없다”며 “CXL 기반 메모리 확장은 앞으로 AI 인프라의 기본 전제가 될 것”이라고 말했다. CXL 시장 개화 더뎌...생태계 미성숙·비용 부담 등 이유 업계에서는 CXL의 필요성에는 이견이 없지만, 실제 시장 도입은 예상보다 더디게 진행되고 있다고 평가한다. 가장 큰 이유는 생태계 미성숙이다. CXL을 활용하려면 CPU, 메모리 모듈, 스위치, 서버 운영체제, 소프트웨어 스택 등 전 영역에서 표준과 호환성을 확보해야 한다. 그러나 아직까지는 제조사별 구현 방식이 다르고, 서버 업체가 이를 통합해 안정적으로 제공하기까지 시간이 필요하다는 지적이 제기된다. 또 다른 걸림돌로는 비용 부담이 꼽힌다. CXL 메모리 확장 모듈은 초기 단계인 만큼 가격이 높고, 이를 활용하기 위한 서버 구조 변경에도 추가 비용이 발생한다. 반도체 업계 관계자는 “GPU 구축에도 수십억 원이 들어가는데, 여기에 CXL 기반 메모리 풀링 시스템까지 갖추려면 기업 입장에서 비용 부담이 커진다”고 말했다. 또한 기존 데이터센터와 다른 방식으로 리소스를 풀링해야 하기 때문에, 시스템 아키텍처와 OS를 깊이 이해한 전문 인력의 확보가 필요하다는 점도 확산을 늦추는 요소로 꼽힌다. 韓, GPU 쏠림 심각… 데이터 인프라 경쟁력 확보해야 문제는 한국이 GPU 확보 경쟁에는 적극적이지만, AI 데이터 인프라 자체에 대한 투자와 전략은 상대적으로 부족하다는 점이다. 정부와 기업들이 경쟁적으로 GPU 클러스터 도입 계획을 발표하고 있지만, 정작 데이터 경로·메모리 확장·스토리지 I/O 개선 등 핵심 기반을 강화하려는 논의는 충분히 이뤄지지 않고 있다. 이런 상태에서는 GPU 보드를 아무리 많이 도입하더라도 실제 학습 효율은 낮고, 전력 비용과 데이터센터 운영 부담만 증가하는 악순환이 반복될 수 있다는 우려가 나온다. 박 대표는 “AI 주권을 이야기한다면 GPU보다 먼저 데이터 인프라 주권을 확보해야 한다”며 “GPU가 쉬지 않게 만드는 시스템이 진짜 AI 경쟁력”이라고 했다.

2025.12.08 16:53전화평 기자

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석 기자

"기존 시설은 제외?"…데이터센터 특별법에 업계 '우려'

정부가 추진 중인 데이터센터 특별법이 신규 시설 중심으로 이뤄질 가능성이 높아지면서 기존 센터 지원은 사실상 제외될 것이라는 우려가 나왔다. 26일 IT 업계에 따르면 그동안 데이터센터가 겪어온 환경 규제와 민원 문제 완화를 위해 해당 특별법이 논의되고 있지만, 실제 법안 구조는 신규 인공지능(AI) 데이터센터에 초점이 맞춰진 것으로 나타났다. 데이터센터 특별법 논의는 지난해 9월 더불어민주당 한민수 의원이 대표 발의한 법안에서 시작됐다. 이 법안은 신설 AI 데이터센터에 필요한 기준과 지원 체계를 구축하겠다는 취지로 발의돼 현재 국회 상임위에서 심사 중이다. 유사한 내용을 담은 더불어민주당 정동영 의원 법안도 같은 시기 발의되면서 두 안건은 병합 논의가 이뤄지고 있다. 다만 두 법안 모두 아직 본회의 문턱을 넘지 못해 제도화 단계까지는 시간이 더 필요하다. 전문가들은 기존 데이터센터가 이런 논의에서 제외되는 이유가 단순히 법안 구조 때문만은 아니라고 지적했다. 김영환 한국전자기술연구원(KETI) 단장은 "기존 데이터센터는 이미 소음과 환경 규제, 전력 인입 제한, 지역 민원 등 여러 문제를 안고 있다"며 "특별법이 시행돼도 체감 변화가 크지 않을 것"이라고 설명했다. 그는 "설비와 입지, 전력 구조가 모두 오래돼 지원 요건을 충족하는 것도 쉽지 않다"고 말했다. 그렇다고 기존 센터를 AI 데이터센터로 전환하는 작업도 사실상 불가능하다는 의견도 나왔다. 기존 센터가 중앙처리장치(CPU) 사용을 전제로 설계돼 랙당 전력밀도와 발열량이 크게 증가하는 AI 서버를 감당하기 어려워서다. 김성윤 테라텍 연구소장은 "GPU 기반 서버에 필요한 고밀도 전력 공급과 액체냉각 시스템을 갖추려면 배전과 냉각 설비를 사실상 처음부터 다시 설치해야 한다"고 설명했다. 김 연구소장은 입지 문제도 걸림돌이라고 지적했다. 그는 "현재 기존 센터는 대부분 도심에 자리하고 있어 전력 인입 확대가 쉽지 않다"며 "소음과 발열로 인한 지역 민원 부담도 여전하다"고 지적했다. 단국대 나연묵 SW융합대학 컴퓨터공학과 교수는 "건물 구조나 층고 하중 자체가 고성능 AI 장비를 수용하기엔 한계가 있다"고 말했다. 이어 "기존 센터가 사실상 제외된 정책이 현장에서 혼란을 키울 수 있다"며 "별도 지원 기준이나 전환 프로그램을 마련해야 한다"고 강조했다.

2025.11.26 10:27김미정 기자

AI 데이터센터 CPU-메모리-GPU "光연결 시대 3년내 가능"

국내 연구진이 인공지능(AI) 데이터센터에서 메모리와 가속기 등 핵심 자원을 '빛'으로 자유롭게 연결·분리할 수 있는 기술을 세계 처음 개발하고, 검증하는데 성공했다. 상용화는 3년 내 가능할 것으로 예상했다. 한국전자통신연구원(ETRI)은 광스위치 기반 '데이터센터 자원연결(Optical Disaggregation, OD)'기술을 개발했다고 11일 밝혔다. 이준기 광네트워크연구실장은 "POC(개념검증)를 거쳐 상용화 가능성을 타진하는 검증에 나설 계획"이라며 "특허를 활용한 기술이전이나 허여 등으로 3년 내 상용화가 이루어질 것으로 본다"고 전망했다. 기존 데이터센터는 하나의 서버 안에 CPU, 메모리, 스토리지, 가속기(GPU) 등이 고정적으로 묶여 있는 서버 중심 구조다. 이로 인해 각 서버가 보유한 한정된 자원만 활용 가능하다. 다른 서버는 CPU만 사용하는 등 자원 활용 편차가 커 전체 효율성이 떨어진다. 대부분의 데이터센터는 또 전기 신호 기반 스위치를 사용하기 때문에 데이터 전송 과정에서 수 차례 신호 변환을 하기 때문에 데이터 전송 지연(딜레이)도 발생한다. 이 같은 문제를 연구진은 빛으로 해결했다. 서버 내부 메모리나 가속기가 부족할 경우, 광스위치를 이용해 다른 서버의 자원을 빛의 신호로 즉시 연결하는 OD기술을 개발했다. 이준기 실장은 "AI 학습이나 대규모 데이터 분석처럼 고성능 연산이 필요한 작업에서도 자원을 '필요한 순간, 필요한 만큼' 빠르고 유연하게 연결·분리할 수 있게 됐다"며 "원격 메모리 접속 표준(CXL, Compute Express Link)을 광스위치로 연결한 세계 최초 사례"라고 말했다. 연구진은 또 ETRI가 자체 개발한 CPU 어댑터, 메모리 블레이드, 가속기 블레이드, OD 매니저를 결합한 검증시스템을 구축해 실증에도 성공했다. 실증 결과 프로그램이 추가 자원을 요청하면 광 경로를 자동으로 설정해 필요한 메모리와 가속기를 실시간으로 할당하고, 서비스가 안정적으로 수행되는 것을 확인했다. ETRI는 이번 기술에 적용된 CXL 관련 원천특허를 확보하고, 국내외 특허 47건을 출원했다. 이준기 광네트워크연구실장은 "메모리와 가속기를 효율적으로 공유․활용해 데이터센터 자원 부족 문제를 해소하고, 지속 가능한 미래형 데이터센터로의 전환을 앞당길 중요한 계기가 될 것"으로 전망했다. 연구는 과학기술정보통신부 '광 클라우드 네트워킹 핵심기술 개발'사업의 일환으로 수행됐다.

2025.11.11 13:53박희범 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

김범석 총수 지정 핵심은 '동생 영향력'…쿠팡 "행정소송"

이마트24-CU, 성수·명동 찍고 '한강 대전' 맞장

에코프로비엠, 유럽은 증설·북미 LFP는 재검토…엇갈린 투자 셈법

방미통위, 롯데카드에 과태료..."개인식별 번호 안전조치 없어"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.