• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'엣지'통합검색 결과 입니다. (140건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

QAI, LG전자-데브크라-가람IDC와 하이브리드 퀀텀엣지 데이터센터 구축

퀀텀 AI 전문기업 큐에이아이(QAI, 대표 임세만)는 LG전자, 데브크라, 가람아이디씨와 하이브리드 퀀텀엣지 데이터센터 구축을 위한 업무협약을 체결했다고 27일 밝혔다. 이날 행사에는 임세만 대표를 비롯한 김재환 LG전자 어플라이드영업실 실장, 박은식 데브크라 CEO, 김영태 가람아이디씨 대표 등이 참석했다. 4개사는 데이터센터 사업 기획부터 구축, 운영에 이르는 전방위적인 협력 체계를 가동한다. QAI는 데이터센터 사업 기획 및 개발을 총괄한다. 하이브리드 퀀텀 AI 데이터센터(AIDC) 및 엣지 AI 데이터센터 사업 모델 개발과 시스템 설계를 주도하고, 핵심 장비(GPU·QPU·NPU) 구축과 최적화를 지원한다. LG전자는 데이터센터 인프라 핵심인 전용 고효율 HVAC(공기조화기술) 솔루션 공급과 에너지 관리 시스템 등 관련 장비의 제조 및 기술 지원을 담당한다. 데브크라는 플랫폼 개발 및 테넌트 영업, 가람아이디씨는 지역별 현장 영업과 시스템 설치와 지속적인 현장 최적화 관리를 책임지기로 했다. 4개사는 향후 민관협력형(PPP) AI 데이터센터 사업 모델 발굴을 위한 사업별 별도 컨소시엄도 구성하기로 했다. 해외 AIDC 시장 진출을 위한 전략적 파트너십도 체결한다. 임세만 QAI 대표는 “이번에 완성할 하이브리드 퀀텀 엣지 데이터센터를 기반으로 기존 전력 및 연산 효율의 한계를 극복하고, 전 세계 다양한 산업군에 최적화된 컴퓨팅 환경과 혁신적인 비즈니스 모델을 선보일 것"이라고 밝혔다. 큐에이아이는 양자 컴퓨팅과 인공지능(AI) 기술을 결합, 산업 전반 난제를 해결하고자하는 딥테크 전문 기업이다. 금융 포트폴리오 최적화, 신약 후보 물질 발굴, 물류 경로 효율화 등 기존 컴퓨팅으로는 해결하기 어려운 복잡한 문제에 '양자-고전 하이브리드 알고리즘'을 적용, 최적의 솔루션을 제공한다.

2026.03.27 09:32박희범 기자

아카마이, 4400개 엣지로 AI 추론 속도·비용 개선

아카마이가 글로벌 엣지 인프라 기반으로 분산형 인공지능(AI) 추론 체계를 강화해 실시간 AI 처리 성능을 높였다. 아카마이는 4400개 엣지 거점을 활용한 'AI 그리드 지능형 오케스트레이션'을 출시했다고 18일 밝혔다. 이는 엔비디아 AI 인프라를 통합한 인퍼런스 클라우드로 엣지·코어 전반에서 AI 워크로드를 지능형으로 분산 처리하는 구조다. 이번 기술 핵심은 AI 요청을 실시간으로 배분하는 오케스트레이터다. 토큰당 비용과 첫 응답 시간 처리량을 동시에 고려해 최적의 인프라로 워크로드를 자동 배치한다. 이를 통해 기업은 기존 중앙 집중형 대비 효율성과 성능을 개선할 수 있다. 아카마이는 시맨틱 캐싱과 지능형 라우팅을 결합해 비용 효율성을 높였다. 고성능 GPU는 고난도 작업에 집중 배치하고 일반 요청은 엣지에서 처리해 전체 인프라 활용도를 끌어올린 구조다. 오픈소스 기반 클라우드를 통해 대규모 데이터 처리에도 유연하게 대응한다. 아카마이는 엣지 기반 처리로 실시간 응답성도 강화했다고 밝혔다. 게임에서는 밀리초 단위 상호작용을 지원하고, 금융에서는 로그인 순간 개인화 서비스를 제공한다. 미디어 분야에서는 실시간 트랜스코딩과 더빙까지 분산 환경에서 수행할 수 있다. 코어 인프라는 대규모 AI 연산을 담당한다. 엔비디아 블랙웰 그래픽처리장치(GPU) 기반 클러스터를 통해 거대언어모델(LLM)과 멀티모달 추론 같은 고부하 작업을 처리하며 엣지와 역할을 분담한다. 이를 통해 코어와 엣지를 연결한 연속적 컴퓨팅 구조를 구현했다. 아카마이는 엣지부터 코어까지 이어지는 인프라를 통해 서비스 수준 계약(SLA) 관리도 강화했다. 블루필드 데이터 처리 유닛(DPU) 기반 네트워킹으로 성능과 보안을 동시에 확보했다. 기업은 이를 통해 다양한 AI 워크로드를 안정적으로 운영할 수 있다. 아담 카론 아카마이 최고운영책임자(COO) 겸 총괄 매니저는 "이번 솔루션은 분산 아키텍처 기반으로 AI 추론을 외부로 확장하는 길을 제시한다"고 밝혔다.

2026.03.18 11:08김미정 기자

아바텍, 올해 '신사업' MLCC 매출 200억원 노린다...작년 85억원 그쳐

아바텍이 올해 적층세라믹커패시터(MLCC) 매출 목표를 200억원 이상으로 정한 것으로 17일 파악됐다. 지난해 85억원의 2배 이상이다. MLCC는 전자제품 내에서 전기 흐름을 조절하고 부품간 전자파 간섭을 막는 부품이다. 아바텍이 올해 MLCC 매출 목표를 200억원 이상으로 결정한 배경에는 이스라엘 태양광 인버터 기업 솔라엣지의 투자 재개가 있다. 앞서 아바텍은 "2022년 8월 세계 1위 태양광 인버터 기업 솔라엣지와 공급계약을 맺었다. (중략) 연간 수백억원 규모 MLCC 공급을 예상한다"고 밝힌 바 있다. 이때 아바텍이 솔라엣지로부터 올릴 것으로 기대했던 MLCC 매출은 연 300억원 내외였다. 솔라엣지의 영업손익이 2023년 4000만달러(약 600억원) 흑자에서 2024년 17억달러(약 2조 5300억원) 적자로 바뀌면서 관련 투자가 중단됐고, 아바텍의 MLCC 매출도 2023년 205억원에서 2024년 3억원으로 급감했다. 아바텍은 지난 2023년 발표했던 900억원 신규 투자 종료일도 2027년 7월로 3년여 연기했다. 2023년 당시에는 2024년 10월까지 투자를 마치겠다고 밝혔는데, 두 차례 정정 공시로 투자 종료일이 밀렸다. 아바텍은 솔라엣지에 MLCC 공급을 재개한다고 밝힌 지난해 10월 국내 IT 대기업 L사 계열 3사에도 MLCC를 공급한다고 밝혔다. L사는 LG디스플레이 등 LG그룹 전자계열사를 말한다. 아바텍은 지난 2024년 상반기 같은해 3분기 IT·전장용 MLCC를 L사(LG그룹) 관계사에 납품하고, 4분기부터 현대차기아의 1·2차 협력사에 공급할 것이라고 기대했다. 이때 2024~2025년 MLCC 라인 증설 계획도 밝혔다. 아바텍의 MLCC 라인은 아직 1개다. 연도별 MLCC 라인 가동률은 2023년 62%, 2024년 27%, 2025년 36% 등에 그쳤다. 아바텍의 지난해 4분기 MLCC 매출은 53억원이었다. 3분기 누적 매출 32억원보다 더 많은 매출을 4분기에 올렸다. 솔라엣지의 투자 재개 영향이다. 아바텍의 MLCC 사업은 관계사인 아바코에도 중요하다. 아바코는 아바텍의 MLCC 라인 증설 투자 900억원 중 60% 수준 매출을 기대해 왔다. 지난해 아바텍의 전사 실적은 매출 809억원, 영업이익 61억원 등이었다. 전년비 매출은 4% 줄었고, 영업이익은 6% 늘었다. 사업별 매출은 유기발광다이오드(OLED)와 액정표시장치(LCD)의 유리기판 식각 등 디스플레이 장비 723억원, MLCC 85억원 등이었다. 전년비 디스플레이 장비 매출은 소폭 줄었고, MLCC 매출은 늘었다. 지난해 MLCC 매출 85억원은 지난 2023년 205억원의 40% 수준에 그친다.

2026.03.17 16:28이기종 기자

퀄컴, 핵스터와 아두이노 우노 Q 개발자 대회 개최

퀄컴과 자회사 아두이노, 엣지 임펄스가 개발자 커뮤니티 핵스터와 함께 아두이노 우노 Q를 활용한 글로벌 개발자 대회를 개최한다. 아두이노 우노 Q는 퀄컴 드래곤윙 QRB2210 MPU와 STM32 마이크로컨트롤러를 결합한 사물인터넷(IoT)용 플랫폼이다. 엣지용 머신러닝 모델 개발을 지원하는 소프트웨어 플랫폼 '엣지 임펄스' 등 다양한 개발 리소스를 활용할 수 있다. 이번에 진행되는 "아두이노 우노 Q와 앱을 활용한 미래 발명 대회"는 아두이노 우노Q를 활용해 AI, IoT, 로보틱스, 엣지 컴퓨팅 분야 혁신을 가속하는 것이 목적이다. 참가 자격은 학생과 취미 개발자, 전문 엔지니어 등 모든 수준의 개발자를 대상으로 한다. 산업용 IoT, 홈 자동화, 로보틱스, 게임, 사회적 영향 등 다양한 분야에서 실제 문제를 해결하는 프로젝트를 출품할 수 있다. 프로젝트 진행은 아두이노 스케치와 파이썬 응용프로그램, AI 모델을 한 워크플로우 안에서 처리할 수 있는 '아두이노 앱 랩'을 활용한다. 엣지 임펄스를 활용하면 데이터 학습과 AI 모델 최적화를 통해 머신러닝 기능을 손쉽게 구현할 수 있다. 우승 팀과 개인에게는 상금과 함께 핵스터를 통한 글로벌 홍보 기회를 제공한다. '베스트 인 쇼(Best in Show)' 수상자에게는 오는 10월 진행되는 전시회 '메이커페어 로마 2026' 참가비를 전액 지원한다. 대회 일정과 참가 규정 등은 핵스터에서 확인할 수 있다. 조건을 충족하는 일부 참가자에게 별도 신청을 통해 아두이노 우노 Q 보드를 무료 제공한다.

2026.03.16 10:34권봉석 기자

"서버도 온디바이스도 해답은 LPDDR...전력 장벽 뚫는다"

"이제 저전력은 모바일만의 전유물이 아닙니다. 서버와 온디바이스 인공지능(AI), 어느 영역에서도 전력효율을 확보하지 못하면 생존할 수 없는 시대가 왔습니다. 그 중심에 저전력 D램(LPDDR)이 있습니다." 반도체 설계 자산(IP) 기업 오픈엣지테크놀로지(이하 오픈엣지) 이성현 대표는 최근 지디넷코리아 인터뷰에서 AI 시장 흐름이 '전력 효율'로 수렴한다고 진단했다. 과거 스마트폰 등 모바일 기기에 주로 쓰이던 LPDDR이 이제는 차세대 LPDDR6 표준 등장과 함께 데이터센터 서버와 로봇, 자동차 등 AI가 탑재되는 모든 곳의 핵심 메모리 표준으로 부상했다는 설명이다. 서버의 전력 병목 현상과 온디바이스의 배터리 및 발열 한계를 동시에 해결할 수 있는 유일한 열쇠가 바로 LPDDR이기 때문이다. 전력 병목에 갇힌 AI… 서버·엣지 가리지 않는 LPDDR 확산 최근 반도체 업계에서 눈에 띄는 변화는 LPDDR 메모리의 전방위 확산이다. 과거 스마트폰의 전유물이었던 LPDDR은 이제 데이터센터 서버와 온디바이스 AI 기기의 핵심 규격으로 자리 잡았다. 해법으로 등장한 것이 서버용 LPDDR 솔루션이다. 특히 최근 주목받는 쏘캠(SOCAMM) 같은 규격은 LPDDR의 저전력 특성을 서버 환경에 이식해 전력 소모는 낮추면서도 데이터 처리 대역폭은 극대화한다. 동시에 온디바이스 AI 시장 성장도 LPDDR 수요를 견인하고 있다. 이 대표는 "자율주행차, 로봇, 휴머노이드 등 물리적 제약이 큰 엣지 디바이스에서는 배터리 효율과 발열 관리가 제품 완성도를 결정한다"며 "트랜스포머 기반 대형 AI 모델을 기기 내부에서 구동하기 위해 LPDDR6 같은 고성능·저전력 IP 역할이 그 어느 때보다 중요해졌다"고 분석했다. "면적 50% 절감 혁신"… 9년 준비로 일군 메모리 시스템 통합 IP 오픈엣지는 창업 초기부터 LPDDR 시대 도래를 예견하고 꾸준히 준비해왔다. 메모리 컨트롤러와 물리 계층(PHY)을 아우르는 '메모리 시스템 IP'를 계속 연구한 것이 대표적이다. 현재 전세계에서 두 가지 핵심 IP를 통합 솔루션으로 제공하며 최적화할 수 있는 기업은 시높시스, 케이던스 등 글로벌 IP 거인을 포함해도 손에 꼽는다. 특히 오픈엣지 기술력은 PPA(전력·성능·면적) 측면에서 강점이 있다. 오픈엣지의 PHY IP는 동일 성능 대비 면적을 최대 50%까지 줄였다. 팹리스(반도체 설계전문) 입장에서는 생산 단가를 획기적으로 낮추면서도 고성능을 유지할 수 있는 최적 솔루션인 셈이다. 경쟁력은 글로벌 시장에서 실적으로 증명되고 있다. 전체 매출 70% 이상이 해외에서 나온다. 그 중에는 일본 르네사스, 미국 마이크론 등 글로벌 반도체 거인도 있다. 오픈엣지는 차세대 LPDDR6 표준 개발 단계부터 참여하며 기술 표준을 선도하는 전략을 취하고 있다. "구매 전 가상설계 환경 제공"… 팹리스 리스크 지우는 '칩 스케치' 전략 오픈엣지의 또 다른 성장축은 고객사 설계 문턱을 낮추는 플랫폼 전략이다. IP 산업의 특성상 단 한 번의 설계 오류는 칩 개발 실패와 막대한 손실로 이어진다. 진입장벽이 높은 이유다. 이를 방지하기 위해 구축한 플랫폼이 '오픈엣지스퀘어'다. 오픈엣지스퀘어는 일종의 디지털 영업 플랫폼이다. 일반적으로 팹리스가 새로운 IP를 검토하려면 내부 서버에 복잡한 EDA 환경을 구축하고 인력을 투입해야 한다. 오픈엣지스퀘어는 이를 클라우드로 옮겨왔다. 로그인만 하면 어디서든 오픈엣지의 최신 IP를 칩 설계안에 대입해 볼 수 있다. 이때 핵심 기능이 '칩 스케치'다. 칩 스케치는 사실상 시스템온칩 (SoC) 반도체 설계 및 성능 최적화 툴로, 명칭처럼 칩을 그리기 전에 밑그림을 그려보는 기능이다. EDA와 비슷하다. 팹리스로선 비싼 EDA 라이선스를 쓰기 전에 이 IP가 내 설계에 맞는지 확인해 볼 수 있다. 이 대표는 "고객사가 우리 IP를 도입했을 때 얻을 수 있는 이점을 데이터로 직접 확인하게 함으로써 설계 리스크를 낮춘다"며 "이는 단순한 IP 공급자를 넘어 고객의 제품 성공을 돕는 전략 파트너로서 위치를 공고히 하는 전략"이라고 설명했다. IP 업계, 요행은 없다 2026년은 오픈엣지에 수익성 개선 분수령이 될 전망이다. 지난해 미중 갈등과 업황 부진으로 지연됐던 글로벌 프로젝트가 본격화되고 있고, 국내에서도 'K-온디바이스 AI 반도체' 과제 등으로 새로운 수요가 창출되고 있다. 이 대표는 "지난 2년간 오픈엣지에 우호적이지 않은 시장 환경이었음에도 연구개발(R&D) 투자를 확대해, 기회가 왔을 때 대응할 수 있는 잠재력을 길렀다"고 밝혔다. 그러면서 "IP 업계에 갑작스러운 행운이나 신데렐라는 없다"며 "오직 검증된 트랙 레코드(실적)만 고객 신뢰를 얻는 유일한 길"이라고 강조했다.

2026.03.12 15:22전화평 기자

TI, MCU 제품군 확장…"모든 기기에 엣지 AI 구현 지원"

텍사스인스트루먼트(TI)가 엣지 인공지능(AI) 기능을 갖춘 두 개의 새로운 마이크로컨트롤러(MCU) 제품군을 11일 공개했다. 새롭게 공개한 MSPM0G5187 및 AM13Ex MCU 제품군은 TI가 전체 임베디드 프로세싱 포트폴리오 전반에 엣지 AI를 구현하겠다는 전략을 뒷받침하는 제품이다. 두 제품군 모두 TI 타이니엔진(TinyEngine) 신경망처리장치(NPU)를 통합했다. 타이니엔진 NPU는 딥러닝 추론 작업을 최적화하도록 설계한 MCU 전용 하드웨어 가속기다. 엣지 환경에서 처리 지연을 줄이고 에너지 효율을 높인다. TI의 임베디드 프로세싱 포트폴리오는 CC스튜디오(CCStudio) 통합개발환경(IDE)을 포함한 포괄적 개발 생태계를 기반으로 한다. 엔지니어들은 IDE가 제공하는 생성형 AI 기능을 활용해 간단한 자연어 입력만으로 코드 개발, 시스템 구성, 디버깅을 빠르게 수행할 수 있다. 이는 TI 데이터와 결합된 업계 표준 에이전트 및 모델로 구현된다. TI는 웨어러블 헬스 모니터, 가정용 회로 차단기의 실시간 모니터링, 휴머노이드 로봇의 피지컬 AI 등 다양한 전자 디바이스에서 엣지 AI 도입을 가속하고 있다. 아미카이 론 TI 임베디드 프로세싱 및 DLP 부문 수석부사장은 "TI는 약 50년 전 디지털 신호 프로세서를 발명하며 오늘날 엣지 AI 처리 기반을 마련했다"며 "범용 MCU와 고성능 실시간 MCU를 포함한 전체 MCU 포트폴리오에 타이니엔진 NPU를 통합함으로써 차세대 혁신을 이끌고 있다"고 말했다. 밥 오도넬 테크날리시스 리서치 사장 겸 수석 연구원은 "현재 업계 관심은 대형 시스템온칩(SoC0을 위한 AI 가속과 NPU에 집중되고 있지만, 실제로 더 흥미롭고 파급력 있는 일부 AI 애플리케이션은 MCU 같은 소형 칩에서도 구현될 수 있다"며 "엣지 기반 AI 가속 애플리케이션은 소비자 전자제품을 더욱 지능적으로 만들고 산업용 디바이스의 효율성을 높일 수 있다"고 말했다.

2026.03.11 14:34장경윤 기자

AMD, CPU 강화한 라이젠 임베디드 SoC로 엣지 AI 공략 확대

AMD가 실시간 대응이 필요한 로봇과 스마트 공장, 의료기기 등 임베디드 AI 시장 공략을 강화한다. 올해 CES 2026에서 공개한 '라이젠 AI 임베디드 P100' 프로세서의 CPU 코어 수를 기존 최대 6개에서 12개까지 늘린 신규 모델을 추가하며 라인업을 늘렸다. 이는 실시간 처리가 요구되는 산업용 AI 환경에서 지연 시간을 줄이며 병렬 처리 능력을 강화하기 위한 행보로 해석된다. CPU 코어 증가에 따라 P100 시리즈 프로세서의 AI 연산 능력도 높아졌다. CPU·GPU·NPU를 통합한 플랫폼 AI 연산 성능도 최대 80 TOPS 수준까지 향상됐다. 엣지 AI 환경 고려한 P100 시리즈 1월 공개 AMD가 1월 공개한 라이젠 AI 임베디드 P100 시리즈는 젠5(Zen 5) 기반 CPU와 RDNA 3.5 아키텍처 기반 GPU, XDNA 2 NPU 등 AI 연산에 필요한 3대 처리장치를 통합했다. CPU는 x86 아키텍처 기반 운영체제와 응용프로그램 실행을, GPU는 카메라와 센서로 입력된 영상을 이용한 각종 사물 인식과 AI 모델 실행을 담당한다. 반면 NPU는 센서 등 데이터 처리를 위한 상시구동 AI 모델을 CPU나 GPU 대신 실행해 부담을 줄인다. CPU나 GPU로 처리해야 할 데이터를 전처리하는 단계에도 활용된다. AMD는 P100 시리즈 공개 당시 "3개 요소를 통합한 이기종 컴퓨팅 구조를 통해 실시간 제어와 영상 분석, AI 추론 등 다양한 워크로드를 칩 하나에서 처리할 수 있다"고 설명했다. CPU 코어 8/12 탑재 제품군 추가 투입 AMD는 9일(현지시간) P100 시리즈의 라인업을 한 단계 확장했다. CPU 최대 코어 수를 6개에서 두 배인 12코어로 늘린 제품을 추가 투입했다. CPU AI 연산 성능을 6 TOPS(1초당 1조 번 연산)로 높였고 GPU 24 TOPS, NPU 50 TOPS를 포함한 플랫폼 전체 AI 연산 성능은 최대 80 TOPS까지 향상됐다. AMD 관계자는 사전 브리핑에서 "CPU 코어가 늘어나도 전체 다이와 기판을 합친 패키지 크기는 기존 제품과 같다"고 밝혔다. 기존 P100 기반 기기를 생산하던 임베디드 업체 등이 폼팩터나 기판을 유지하며 용도 별로 성능을 달리할 수 있다는 의미다. 다양한 작업 동시 수행 위해 CPU 강화 P100 시리즈의 CPU 코어 수 확대는 산업용 기기에 필요한 연산 성능 수준이 최근 2~3년간 급격히 높아진 것과도 관련이 있다. 예를 들어 스마트 공장 환경에서는 산업용 PC가 공정 제어와 머신비전 분석, 사용자 인터페이스 처리, 데이터 분석을 동시에 수행한다. 로봇 시스템 역시 센서 데이터 처리와 경로 계획, AI 기반 물체 인식 등 다양한 작업을 동시에 처리해야 한다. AMD는 CPU와 GPU, NPU 중 CPU 코어 확대를 통해 시스템 전체의 병렬 처리 성능을 높이는 방향을 선택했다. CPU 코어 수가 증가하면 이러한 워크로드를 여러 코어에 분산해 실행할 수 있어 지연 시간을 줄이고 실시간 처리 성능을 높일 수 있다. 공장 자동화·의료 영상 분석 등 활용 전망 CPU 코어를 강화한 P100 시리즈는 엣지 AI 연산 능력을 기반으로 다양한 산업 분야에서 활용될 것으로 예상된다. AMD가 예측한 대표적인 적용 분야로는 공장 자동화 환경의 머신비전 검사 시스템과 산업용 PC, 자율 이동 로봇과 물류 로봇, 의료 영상 분석 장비 등이 있다. 이들 시스템은 다수의 센서와 카메라 데이터를 실시간으로 처리해야 하기 때문에 CPU와 GPU, NPU가 통합된 구조가 유리하다. 특히 의료 장비의 경우 초음파나 내시경 영상 분석과 AI 기반 진단 보조 기능을 동시에 수행할 수 있어 엣지 기반 의료 AI 구현에도 활용할 수 있다. 산업용 기기 수명 고려해 최대 10년간 공급 P100 시리즈는 x86 명령어체계의 가장 큰 강점인 호환성과 가상화를 활용해 윈도와 우분투 리눅스, RTOS 등 여러 운영체제를 동시에 구동할 수 있다. 예를 들어 공장 자동화나 의료 기기용 사용자 인터페이스는 윈도 환경에서, 실시간 제어는 RTOS 환경에서 동시에 분리 실행하는 방식이다. 공급 주기는 산업용 기기의 장기 운영을 고려해 최종 공급 후 최대 10년간이며 영하 40도에서 영상 105도까지 넓은 범위 안에서 작동하도록 설계됐다. AMD는 현재 4/6코어 기반 P100 프로세서 시제품을 고객사에 공급중이며 오는 2분기부터 대량 생산 예정이다. 이번에 공개된 8/12코어 제품도 시제품 공급중이며 올 하반기 생산을 목표로 하고 있다.

2026.03.10 06:00권봉석 기자

딥엑스, 'K-AI칩' 기대주서 시장 안착 시험대로… 냉정한 현장 평가 넘을까

온디바이스 AI의 시대가 열렸다. 모든 연산을 거대 데이터센터에 의존하던 방식에서 벗어나 스마트폰, 로봇, 가전 등 기기 자체에서 AI를 구동하려는 기술 트랜드가 대세다. 이 시장의 핵심은 '전성비'(전력 대비 성능)이다. 배터리로 구동되거나 좁은 공간에 탑재되는 엣지 기기 특성상, 열 발생을 최소화하면서도 고성능 연산을 뽑아내는 NPU(신경망처리장치) 기술이 성패를 가른다. 국내 대표적인 팹리스 업체인 딥엑스는 이러한 흐름을 타고 글로벌 시장 공략에 나섰다. 현대자동차, 바이두 등 국내외 대기업과 협력하며 시장 공략에 속도를 내고 있다. 다만 국가 과제 탈락과 소프트웨어 완성도 논란 등 실질적인 실무 안착을 위해 넘어야 할 산이 적지 않다. [강점: Strength] 현대차·바이두가 선택한 '저전력·저발열' 기술력 딥엑스의 강점은 에너지 효율성이다. 딥엑스는 인공지능 연산 시 발생하는 전력 소모를 혁신적으로 줄이면서도, 별도의 냉각 팬 없이 구동할 수 있는 저발열 설계 기술을 확보했다. 이는 고온 환경에서 작동해야 하는 산업용 로봇이나 전력 효율이 생명인 스마트 모빌리티 분야에서 강력한 차별점으로 작용한다. 이러한 기술력은 글로벌 대기업과의 파트너십으로 이어지고 있다. 현대자동차와 로봇 및 스마트 모빌리티 분야에서 협력 중이며, 중국 최대 ICT 기업인 바이두(Baidu)와도 AI 생태계 구축을 위한 손을 잡았다. 엔트리급 비전 솔루션부터 고성능 연산 모델까지 대응 가능한 4종의 제품 라인업을 동시에 갖춰, 가전·보안·로봇 등 다양한 산업군의 요구에 즉각 대응할 수 있는 체계를 완성했다는 평가를 받는다. 비즈니스 가시화에도 속도를 내고 있다. 1세대 칩 'DX-M1'을 지난해 하반기부터 양산하기 시작하며 본격적인 시장 진입을 시도 중이다. 딥엑스 관계자는 “현재 1세대 칩을 양산해 국내외 기업들과 사업을 활발히 진행하고 있다”며 “조만간 시장에서 유의미한 성과를 보여줄 수 있을 것”이라고 자신감을 내비쳤다. [약점: Weakness] 'K-AI 온디바이스' 과제와 소프트웨어 완성도 그러나 실제 산업 현장의 평가는 차갑다. 딥엑스는 최근 산업통상자원부가 추진하는 'K-온디바이스 AI반도체 기술 개발' 과제 중 로봇 관련 부문에서 수요 기업과 연결되지 못했다. 로봇 부문에는 LG전자, 두산로보틱스, 대동 등이 참여한 걸로 알려졌다. 로보틱스 기술 관련 중요한 레퍼런스를 차지할 기회를 놓치게 된 것이다. 업계에서는 해당 사업에서 딥엑스가 선정되지 않은 주된 원인 중 하나로 소프트웨어의 완성도를 꼽는다. 익명을 요청한 반도체 업계 관계자는 “딥엑스의 칩을 검토한 일부 고객사들 사이에서 하드웨어를 뒷받침할 소프트웨어 최적화 수준이 실제 현장에 즉각 도입하기에는 아직 보완이 필요하다는 목소리가 나온다”며 “물론 이전보다 개선되고는 있으나, 대규모 양산 프로젝트에 적용하기 위한 실무적인 신뢰성 검증이 과제로 남아있다”고 분석했다. 이에 대해 딥엑스 관계자는 "SDK는 오픈소스로 풀려 있고, 꾸준히 업데이트 중"이라고 말했다. [기회: Opportunity] 온디바이스 AI 시장 개막… '엣지'의 대전환 시장 환경 자체는 딥엑스에게 우호적이다. 보안과 응답 속도 등 이유로 엣지 단에서의 직접 연산 수요가 폭발하고 있기 때문이다. 기존 GPU 기반 환경이 효율성 문제로 한계에 부딪히면서 NPU(신경망처리장치) 전용 칩으로의 전환이 빨라지고 있다는 점이 기회로 작용한 셈이다. 김귀영 헤일로 한국지사장은 “온디바이스 AI 시장이 본격적으로 열리며 국내외 엣지 AI 반도체 기업들에게 큰 기회가 왔다”며 “딥엑스, 모빌린트 등 국내 기업들이 함께 성장할 수 있는 적기인 것은 분명하다”고 진단했다. [위협: Threat] 글로벌 선두 '헤일로'와 격차 및 실질 수주 불확실성 가장 실질적인 위협은 글로벌 선두권 기업과의 격차다. 이스라엘의 '헤일로(Hailo)'는 엣지 AI 반도체 점유율 세계 1위로, 이미 전 세계적인 양산 레퍼런스를 보유하고 있다. 글로벌 업체들이 개발 중인 자동차, 로봇 등 온디바이스 AI 디바이스에 헤일로의 칩이 탑재된다. 딥엑스가 개발 중인 제품군이 헤일로와 직접적으로 경쟁하는 만큼, 글로벌 시장에서 이 벽을 넘지 못할 경우 안착이 예상보다 더뎌질 수 있다. 또한 대형 제조사들이 자사 기기에 최적화된 칩을 직접 설계하려는 '내재화' 움직임도 위협적이다. 잠재적 고객사가 강력한 경쟁자로 변모하는 시장 환경 속에서 딥엑스가 범용 칩으로서 독보적인 경제성과 소프트웨어 편의성을 조속히 증명하지 못한다면 설 자리는 점점 좁아질 수밖에 없다는 분석이다.

2026.03.08 08:56전화평 기자

데이터센터 밖으로 확장된 AI…서버 업계, '엣지 AI' 경쟁 가속

인공지능(AI) 인프라의 중심이 데이터센터에서 현장으로 이동하고 있다. 생성형 AI 확산으로 대규모 모델 학습뿐 아니라 실시간 추론 수요가 빠르게 증가하면서 제조 현장, 매장, 통신 기지국 등 데이터가 생성되는 장소에서 바로 AI를 활용하는 '엣지 AI'가 차세대 인프라로 떠오르고 있다. 5일 업계에 따르면 글로벌 서버 기업들은 데이터센터 중심의 기존 AI 인프라 전략을 넘어 제조·리테일·통신·로봇 등 산업 현장에서 AI 연산을 처리하는 엣지 인프라 구축 경쟁에 속도를 내고 있다. 특히 델 테크놀로지스, HPE, 슈퍼마이크로 등 주요 서버 기업들이 엣지 환경에서 AI 추론을 수행할 수 있는 특화 서버와 네트워크 솔루션을 잇달아 선보이며 시장 공략에 나서고 있다. 엣지 AI는 데이터를 중앙 데이터센터로 보내 처리하는 대신 데이터가 생성되는 현장에서 즉시 분석과 의사결정을 수행하는 방식이다. 실시간 처리가 필요한 산업에서 지연 시간을 줄이고 네트워크 비용을 낮출 수 있다는 점에서 스마트팩토리·리테일·자율주행·로봇 등 다양한 산업에서 활용 가능성이 주목받고 있다 포춘비즈니스인사이트 등 주요 시장조사업체에 따르면 글로벌 엣지 AI 시장 규모는 2024년 약 200억 달러(약 29조원) 수준에서 2030년 1천억 달러(약 146조원)로 연평균 20% 이상 성장할 전망이다. 서버 기업들은 이같은 흐름에 맞춰 엣지 환경에 최적화된 AI 인프라를 잇따라 내놓고 있다. 델 테크놀로지스는 최근 실외 환경에서도 AI 워크로드를 처리할 수 있는 서버 '파워엣지 XR9700'을 공개하며 엣지 AI 시장 공략을 강화했다. 해당 서버는 전신주나 옥상 등 외부 환경에서도 설치할 수 있도록 설계됐으며 통신 기지국과 원격지에서 클라우드 무선 접속망(RAN)과 엣지 AI 애플리케이션을 직접 실행할 수 있도록 지원한다. HPE 역시 엣지 인프라 전략을 강화하고 있다. MWC26에서 'HPE 프로라이언트 컴퓨트 EL9000 섀시'와 'EL140 젠12 서버' 기반 AI 인프라를 공개하며 코어 데이터센터부터 통신 기지국 등 엣지 환경까지 AI 워크로드를 처리하는 플랫폼을 제시했다. 해당 솔루션은 통신사와 서비스 사업자가 증가하는 AI 트래픽을 처리하고 엣지 환경에서 AI 서비스를 제공할 수 있도록 설계된 것이 특징이다. 슈퍼마이크로도 통신 네트워크와 결합한 엣지 AI 인프라 확대에 나섰다. 회사는 AI-RAN을 지원하는 서버 시스템을 공개하고 노키아·SK텔레콤 등 글로벌 통신사와 협력해 통신망에서 AI 워크로드를 처리하는 분산형 인프라 활용 사례를 선보였다. 이 시스템은 그래픽처리장치(GPU) 기반 AI 서버를 활용해 엣지 AI를 위한 네트워크 최적화와 자동화를 지원한다. 글로벌 네트워크 기업들도 엣지 AI 경쟁에 뛰어들고 있다. 시스코는 분산형 AI 환경을 지원하기 위한 '유니파이드 엣지' 플랫폼을 공개하며 컴퓨팅·네트워킹·스토리지·보안을 하나의 인프라로 통합했다. 데이터가 생성되는 지점에서 실시간 AI 추론을 수행하는 분산형 AI 환경을 구현한다는 전략이다. 클라우드 기업 역시 AI 추론을 엣지로 확장하는 움직임을 보이고 있다. 대표적으로 아카마이는 엔비디아 AI 인프라를 기반으로 한 '인퍼런스 클라우드'를 공개하며 데이터센터에서 인터넷 엣지까지 AI 추론을 확장하는 분산형 AI 플랫폼 구축에 나서고 있다. 스마트 커머스와 실시간 금융 의사결정, 산업용 로봇 등 다양한 AI 서비스에 대응한다는 계획이다. 업계에선 엣지 AI가 향후 피지컬 AI 확산을 뒷받침할 핵심 인프라가 될 것으로 보고 있다. 공장 자동화와 자율주행, 로봇 등 물리 세계와 연결된 AI 서비스는 밀리초 단위의 실시간 데이터 처리 능력이 요구되기 때문이다. 이에 기존 데이터센터 중심 AI 인프라와 함께 산업 현장과 초고속 네트워크 환경에 맞춤화된 분산형 엣지 AI 인프라 역시 성장할 것이라는 전망이 나온다. 데이터센터 업계 관계자는 "AI 산업이 모델 학습 중심에서 실제 서비스와 산업 적용 단계로 넘어가면서 데이터가 생성되는 현장에서 AI를 처리하는 엣지 인프라가 주목받고 있다"며 "향후 스마트팩토리와 로봇, 자율주행 등 피지컬 AI 확산과 함께 엣지 AI 서버 시장도 성장할 것"이라고 말했다.

2026.03.05 14:12한정호 기자

델, 실외형 서버 '파워엣지 XR9700' 공개…클라우드랜·엣지 AI 정조준

델 테크놀로지스가 실외 환경에서도 클라우드랜과 엣지 인공지능(AI) 워크로드를 안정적으로 지원할 수 있는 서버 신제품을 선보이며 통신·엣지 인프라 확장에 나섰다. 델 테크놀로지스는 서버 신제품 '델 파워엣지 XR9700'을 공개했다고 26일 밝혔다. 이 제품은 클라우드랜과 엣지 AI 워크로드를 지원하는 폐쇄형 루프 액체 냉각 방식의 완전 밀폐형 러기드 x86 서버다. 델 파워엣지 XR9700은 전신주, 옥상, 건물 외벽 등 외부 환경에 직접 노출되는 옥외 공간에서도 별도의 보호 장비 없이 운용 가능하도록 설계됐다. 기존 데이터센터 인프라가 도달하기 어려운 도심 밀집 지역이나 원격지, 공간 제약이 큰 시설에서도 고성능 컴퓨팅 환경을 구현할 수 있도록 고안된 것이 특징이다. 통신 사업자와 엣지 환경 운영 조직은 전력과 공간 제약으로 인해 컴퓨팅 자원 배치에 어려움을 겪어왔다. XR9700은 IP66 등급의 초소형 인클로저를 적용해 외부 환경으로부터 시스템을 완전히 차단하면서도 필요한 지점에 직접 설치할 수 있도록 지원한다. 특히 유연한 소프트웨어(SW) 정의 아키텍처 기반으로 각 기지국 현장에서 클라우드랜과 오픈랜을 지원하며 데이터가 생성·소비되는 위치에서 엣지 및 AI 애플리케이션을 직접 실행할 수 있도록 설계됐다. 내환경성도 강화했다. 초소형 IP66 등급 인클로저와 GR-3108 클래스 4 인증을 통해 극한의 온도, 먼지, 습기에 노출되는 환경에서도 안정적인 성능을 제공한다는 설명이다. 폐쇄형 루프 액체 냉각과 정교한 열 관리 아키텍처도 적용해 영하 40도에서 영상 46도에 이르는 온도 범위와 직사광선 환경에서도 일관된 운영이 가능하다. 또 15리터의 컴팩트한 폼팩터로 설계돼 전신주, 옥상, 건물 외벽 등에 설치할 수 있고 랙 상면을 차지하지 않는 제로 풋프린트 구조로 기존 무선 장비 중심 공간에서도 통신 및 엣지 워크로드 구현을 돕는다. 성능 측면에서는 인텔 vRAN 부스트와 인텔 AMX 기술이 통합된 인텔 제온 6 SoC를 탑재해 단일 서버에서 최대 15개의 5G 섹터를 지원할 수 있는 처리 성능과 프런트홀 연결성을 제공한다. 클라우드랜에 최적화된 구조를 갖추는 동시에 네트워크 아키텍처와 서비스 요구사항에 따라 워크로드를 유연하게 구동할 수 있도록 했다. XR9700은 델의 엣지 특화 제품군인 '델 파워엣지 XR 시리즈'에 포함되며 기존 관리 툴·SW 스택과 통합된다. 통합 컨트롤러인 'iDRAC'을 통해 원격 가시성과 제어 기능을 제공하고 제로 터치 프로비저닝을 지원한다. 또 파워엣지 XR8720t에서 검증된 동일한 클라우드랜 SW와 호환돼 인증 절차를 간소화하고 통신 환경에서의 구축 속도를 높일 수 있다. 델 파워엣지 XR9700은 올 하반기 중 출시될 예정이다. 김경진 한국 델 테크놀로지스 총괄사장은 "극한의 야외 환경에서도 컴퓨팅 성능에 제약이 발생해서는 안된다"며 "델 파워엣지 XR9700은 기존에는 배치가 불가능했던 장소에까지 클라우드랜, 오픈랜, 엣지 AI 역량을 확장함으로써 네트워크 확장과 엣지 애플리케이션을 위한 새로운 가능성을 열어줄 것"이라고 밝혔다.

2026.02.26 11:19한정호 기자

에이수스, 자율주행로봇·로보틱스용 엣지 AI PC 출시

에이수스코리아가 11일 자율주행로봇(AMR)과 로보틱스, 컴퓨터 비전 분야에 특화된 엣지 AI 컴퓨터 'PE1000U'를 출시했다. PE1000U는 CPU와 GPU, NPU를 통합한 인텔 코어 울트라5 235U, 코어 울트라7 265U 프로세서를 활용해 모터 등 제어, AI 추론과 그래픽 워크로드를 동시에 처리하며 지연시간을 최소화한다. 크기는 가로·세로 각각 160×110mm, 높이는 63mm로 공간 제약이 있는 환경에서 쉽게 배치할 수 있다. 내부 열 관리에는 냉각팬 대신 CPU와 메모리에서 발생하는 열을 식히는 알루미늄 방열판을 적용했다. 전면 USB 단자, 산업용 장비 제어를 위한 9핀 시리얼(COM) 포트, 2.5G 이더넷 2개 등 확장 단자로 센서, 카메라, 네트워크와 연결 가능하다. 차량과 데이터를 주고 받는 CAN 버스 2개를 내장했다. 디스플레이포트와 HDMI 단자를 이용해 4K 모니터를 최대 2개 연결 가능하며 AMR 및 차량 탑재 환경을 고려하여 9~36V의 광범위한 DC 전원 입력을 지원한다. 5Grms 진동, 작동 온도 영하 25도에서 70도 등 미 국방성 내구성 표준인 MIL-STD-810H를 충족해 실내 공장부터 실외 키오스크까지 다양한 환경에 설치할 수 있다. 에이수스 PE1000U 제원과 적용 사례 등은 에이수스 IoT 공식 웹사이트에서 제공된다.

2026.02.11 16:05권봉석 기자

시스코 수석 부사장 "피지컬 AI 핵심은 네트워킹 보안…PQC 투자 확대"

"피지컬 인공지능(AI) 시대 제조업 핵심은 네트워킹 기술입니다. 디바이스와 클라우드, 데이터센터, 애플리케이션 간 연결 상태가 어느 때보다 강력하고 안전해야 합니다. 네트워킹이 강해야 디바이스 간 오류·충돌 없이 원활한 피지컬 AI 시스템을 구현할 수 있을 것입니다." 비카스 뷰타니 시스코 보안 라우팅 및 산업용 사물인터넷(IoT) 수석 부사장 및 총괄매니저는 최근 지디넷코리아 인터뷰에서 이같이 밝혔다. 그는 현재 프로덕트팀에서 시스코 제품 개발 전 과정을 총괄하고 있다. 뷰타니 수석 부사장은 피지컬 AI 시대에 제조 기업이 네트워킹 보안 기준을 더 높게 볼 것이라고 내다봤다. 그는 네트워킹 강화 기술로 강력한 인프라와 초저지연, 가시성, 보안을 꼽았다. 그는 해당 기능을 모두 제공할 수 있는 솔루션으로 '유니파이드 엣지' 플랫폼을 제시했다. 이 플랫폼은 컴퓨팅, 네트워킹, 스토리지, 보안을 한 시스템으로 결합해 데이터 생성 지점에서 실시간 추론과 에이전틱 워크로드를 지원한다. 이를 통해 중앙 데이터센터 중심의 기존 AI 인프라 한계를 극복하고, 엣지 기반의 분산형 AI 환경을 구현할 계획이다. 뷰타니 수석 부사장은 AI 시대 제조 현장 요구사항을 충족하려면 강력한 인프라가 필수라고 강조했다. 그는 "예컨대 머신비전은 품질 모니터링을 위해 분당 4000 프레임 규모 데이터를 처리해야 한다"며 "일반적인 네트워킹 환경에선 불가능한 규모"라고 설명했다. 이어 "이런 고도 기술을 성공적으로 활용하려면 고성능 이더넷 전원 장치(PoE) 기술과 10기가(G)급 연결성 등 강력한 인프라가 필수"라고 말했다. 그러면서 "유니파이드 엣지는 물리적 디바이스가 급증하는 현장에서도 데이터 병목 현상 없이 애플리케이션과 소통할 수 있는 고성능 기능을 제공할 수 있다"고 덧붙였다. 뷰타니 수석 부사장은 결함 탐지 시 즉각적인 대응도 유니파이드 엣지로 수행할 수 있다고 말했다. 그는 "이 플랫폼은 공장 생산 라인 내 그래픽처리장치(GPU)와 신경처리장치(NPU) 처리 역량을 직접 구현할 수 있다"며 "과거 클라우드 응답을 기다리며 발생했던 지연 시간을 없앨 수 있다"고 말했다. 이어 "고객은 현장에서 실시간으로 의사결정을 내리는 동시에 사이버 보안까지 강화할 수 있는 셈"이라고 설명했다. 뷰타니 수석 부사장은 네트워크 구조가 복잡해질수록 보안 사고 확산을 막는 계층화된 방어 체계가 중요해질 것이라고 내다봤다. 그는 "최근 전 세계 기업 보안최고책임자(CISO)는 '평면적 네트워크(Flat Network)' 취약점을 우려하고 있다"며 "계층 방어 시스템에 관심을 쏟고 있다"고 설명했다. 이에 발맞춰 시스코는 '사이버 비전'을 대안으로 제시하고 있다. 사이버 비전이 머신 레벨 트래픽에 100% 가시성을 제공한다는 이유에서다. 이를 통해 모든 자산을 논리적으로 계층화하고, 보안 정책을 적용한다. 고객은 특정 구역 보안 문제가 공장 전체로 퍼지는 것을 차단할 수 있다. 시스코는 스플렁크 인수를 통해서도 보안 가시성 확보에 주력해 왔다. 뷰타니 수석 부사장은 "네트워킹과 보안, 공정 데이터를 한 통합 저장소에 모을 수 있다"며 "이는 우리만 갖고 있는 유일한 기술"이라고 강조했다. 네트워크 복잡성 겪는 韓 제조업…'디자인 인'으로 극복 최근 국내 제조 현장이 20년 이상 된 노후 설비와 최첨단 IT 시스템이 혼재돼 네트워크 복잡성을 겪고 있다. 이에 국내 제조업에선 새 시스템 도입을 망설이는 분위기가 이어지고 있다. 뷰타니 수석 부사장은 이런 국내 제조 시장 특수성을 정확히 인식하고 있다고 밝혔다. 그는 "한국 제조 현장이 차세대 스마트 팩토리로 발전하려면 시스템 통합 아키텍처부터 도입해야 한다"고 주장했다. 뷰타니 수석 부사장은 한국에서 장비를 판매하는 공급자 역할을 넘어설 것이라고 강조했다. 그는 "한국 기업 환경에 최적화된 미래형 네트워크 설계를 도울 것"이라며 "관련 전문 컨설턴트를 현장에 직접 투입하고 있다"고 설명했다. 이어 "복잡하게 얽힌 기존 인프라를 정리하고, IT와 OT가 유기적으로 연결되는 안정적인 디지털 전환 로드맵을 제시할 것"이라고 덧붙였다. 그는 시스코가 추진 중인 '디자인 인(Design-in)' 전략에도 주목했다. 이는 파트너사가 로봇 등 신제품을 개발하는 초기 설계 단계부터 시스코 보안·네트워크 기술을 내재화하는 방식이다. 이를 통해 파트너사는 설계 시점부터 보안 무결성을 검증하는 '시큐어 부팅'과 '이동 중인 데이터' 보호 기술을 적용해 데이터 탈취나 변조를 원천 차단할 수 있다. 데이터 손실 시 신속한 복구를 돕는 기술로 실시간 로봇 운영 신뢰도를 극대화할 수 있다. 대표 디자인 인 국내 사례는 HL로보틱스 파트너십이다. 두 기업은 자율주행 주차 로봇 '파키'에 시스코 인프라를 설계 시점부터 결합했다. 협력 핵심은 초신뢰 무선 백홀 솔루션 'CURWB(Cisco Ultra-Reliable Wireless Backhaul)'와 'MPO(Multi Path Operation)' 기술에 있다. CURWB는 파키 전용 통신 표준으로 채택됐으며 복잡한 공간에서도 데이터 끊김을 방지하는 역할을 한다. 신속한 복구를 돕는 MPO 기술은 실시간 운영 신뢰도를 높인다. 뷰타니 수석 부사장은 "우리는 이미 1년간 현장 검증을 통해 기술 성능을 입증했다"며 "향후 고속 이동 환경 최적화 등 공동 연구를 지속할 것"이라고 밝혔다. 이어 "이는 개발 완료 후 장비를 도입하던 관행을 깬 대표 사례"라며 "제품 완성도를 설계 시점부터 확보한 셈"이라고 강조했다. "기존 보안 한계 넘을 것…10년 바라보고 PQC 투자" 뷰타니 부사장은 기존 보안 체계 한계를 극복하기 위한 시스코 전략도 소개했다. 우선 '양자 내성 암호화(PQC)' 기술 투자도 대폭 강화한다고 밝혔다. 그는 "양자 시대에 해독 불가능한 수준의 보안력을 확보하는 것이 관건"이라며 "네트워킹 경로 신뢰도를 보장하기 위한 취지"라고 설명했다. 이어 "보안을 단발성 위협 대응으로 봐선 안 된다"며 "향후 10년 미래를 내다보는 장기적인 시각이 필요하다"고 재차 강조했다. 그는 서버에 저장된 정적인 정보뿐 아니라 데이터가 이동하는 전 과정에 보안을 적용해야 한다고 봤다. 뷰타니 부사장은 "전송 중 발생할 수 있는 데이터 탈취나 변조를 원천 차단하는 기술 개발에 주력해야만 네트워크 신뢰를 유지할 수 있다"고 말했다. 뷰타니 수석 부사장은 "우리는 고객사가 스스로 보안 취약점과 노출 상태를 상시 평가할 수 있도록 도울 것"이라며 "차세대 제품군을 통해 이를 단계별로 해결해 나가는 장기 거버넌스를 제공할 것"이라고 말했다.

2026.02.10 16:11김미정 기자

모빌린트, 스페이스린텍과 AI 기반 차세대 우주 페이로드 기술 협력

AI 반도체 전문기업 모빌린트는 우주 의약 전문기업 스페이스린텍과 함께 AI 기반 우주 페이로드 기술 공동 개발 및 협력을 위한 전략적 업무협약(MOU)을 체결했다고 6일 밝혔다. 이번 협약은 양사가 상호 신뢰를 바탕으로 각 사의 핵심 역량과 기술을 결합해, 우주 산업 전반에서 활용 가능한 AI 기술 협력의 기본 방향과 주요 협력 내용을 정하기 위해 추진됐다. 양사는 본 협약을 통해 모빌린트의 NPU(신경망처리장치)를 활용한 AI 기술과 우주 환경에 적용 가능한 기술을 결합한다. 이후 우주 산업 관련 기술 공동 개발 및 응용 가능성을 함께 모색할 계획이다. 특히 우주 환경에 적합한 저전력 AI 반도체 솔루션의 최적화와 우주 산업과 연계된 다양한 기술 적용 분야에 대해 협력을 추진한다는 방침이다. 또한 양사는 본 협약을 바탕으로 기술 개발을 위한 인력, 시설, 장비, 기술 등 보유 자원을 상호 활용하며, 공동 연구 결과에 대한 대내외 홍보와 기술 확산에도 협력할 예정이다. 이번 협력은 우주 산업 분야에서 AI 기술 활용 가능성을 확대하고, 양사의 기술 경쟁력을 기반으로 한 중장기적 협력 관계를 구축하기 위한 첫 단계로, 향후 구체적인 공동 연구 및 사업화 논의로 이어질 전망이다. 신동주 모빌린트 대표는 "온디바이스·엣지 AI에 강점을 가진 모빌린트의 NPU 기술을 우주 환경으로 확장하는 중요한 계기가 될 것"이라며 "스페이스린텍과의 협력을 통해 우주 산업에서도 실질적인 AI 활용 가치를 만들어가겠다"고 말했다. 윤학순 스페이스린텍 대표는 "우주의약 페이로드에는 궤도에서 생성되는 데이터를 즉시 판단 및 처리하고, 이상 징후를 스스로 감지해 운용 리스크를 낮추는 '온보드 AI' 역량이 중요하다"며 "양사의 기술 역량을 결합해 지능형 우주의약 연구 모듈을 구현하고, 상용화 가능한 플랫폼 기술 성과로 연결해 나가겠다"고 전했다.

2026.02.06 09:59전화평 기자

퀄컴, 'AI 이노베이터 프로그램 2026' 참가 스타트업 모집

퀄컴이 한국과 싱가포르, 일본 등 아태지역 AI 스타트업 육성 프로그램 '퀄컴 AI 이노베이터 프로그램(QAIPI) 2026 - APAC'을 출범하고 참가 희망 스타트업을 모집한다. 퀄컴 AI 이노베이터 프로그램은 지난 해 처음 시작된 프로그램이다. 한국·일본·싱가포르에서 선발된 15개 스타트업 대상으로 6개월간 퀄컴 엔지니어 기술 지원과 하드웨어 개발 키트, 제품 구현을 위한 비즈니스 워크숍 등 기회를 제공했다. 올해 프로그램은 모바일 기기용 스냅드래곤 플랫폼, 사물인터넷용 드래곤윙 플랫폼에 이어 이탈리아 스타트업 '아두이노' IP 기반 '아두이노 우노 Q' 개발보드를 활용해 엣지 AI 기반 지능형 솔루션 개발을 지원한다. 오는 5월 1일까지 신청한 한국, 일본, 싱가포르에 설립 및 등록된 스타트업 중 혁신성, 기술적 실현 가능성, 잠재적 사회적 영향력 및 상업적 연관성을 기준으로 참가 기업을 선발한다. 멘토링 멘토링 단계에서는 1:1 기술 가이드, 온라인 교육, 기술 지원과 함께 퀄컴 기술 기반 하드웨어 플랫폼 및 개발 키트가 제공된다. 제품 개발을 위한 최대 1만 달러(약 1천447만원)의 지원금, 특허 출원 인센티브 5천 달러(약 723만원)도 지원한다. 프로그램 종료 후 선발된 스타트업은 올 하반기 진행되는 데모 데이에 참석해 아태지역의 기술 혁신을 이끄는 업계 리더, 투자자, 잠재적 협력사에 제품과 기술을 선보일 수 있다. 권오형 퀄컴 APAC 대표는 "QAIPI 프로그램을 통해 스타트업이 아이디어를 확장 가능한 솔루션으로 발전시킬 수 있도록 지원하고, 하이브리드 및 엣지 AI를 활용해 저전력, 고효율, 강화된 프라이버시를 갖춘 지능형 제품 개발을 돕고 있다"고 설명했다. 수딥토 로이 퀄컴 엔지니어링 부사장 겸 글로벌 생태계 개발 프로그램 리드는 "작년 처음 진행된 QAIPI를 통해 AI가 다양한 분야로 빠르게 확장되고 있음을 확인했다"며 "올해 참가한 스타트업들이 실제 환경에서의 기술 및 제품 도입을 가속화하고 글로벌 혁신 생태계를 더욱 강화하기를 기대한다"고 밝혔다.

2026.02.03 10:14권봉석 기자

오케스트로, 여의도에 도심형 엣지 데이터센터 구축…소버린 AI 겨냥

오케스트로가 여의도 신사옥 부지에 도심형 엣지 인공지능(AI) 데이터센터를 구축해 고객의 소버린 AI 수요 대응에 나선다. 오케스트로는 DCK와 소버린 AI 클라우드 데이터센터 구축을 위한 업무협약(MOU)을 체결했다고 28일 밝혔다. 협약식은 지난 22일 서울 여의도 오케스트로 본사에서 열렸으며 양사 주요 관계자들이 참석했다. 생성형 AI 확산으로 그래픽처리장치(GPU) 기반 AI 인프라 수요가 빠르게 증가하는 가운데, 최근 데이터 주권과 보안, 비용 통제가 가능한 프라이빗 AI 환경에 대한 관심이 높아지고 있다. 특히 금융·공공·대기업을 중심으로 퍼블릭 클라우드의 제약을 벗어나 데이터와 운영 정책을 직접 통제할 수 있는 소버린 AI 환경을 도입하려는 움직임도 본격화된 상황이다. 이번 협약은 프라이빗 클라우드 기반 소버린 AI 클라우드 데이터센터를 구축하기 위해 추진됐다. 양사는 오케스트로 여의도 신사옥 부지를 활용해 도심형 엣지 AI 데이터센터를 조성하고 이를 고객 전용 소버린 AI 클라우드 데이터센터로 구현할 계획이다. 여의도에 조성될 이 센터는 5메가와트(MW)급 규모로, GPU 기반 대규모 AI 워크로드와 국산 AI 반도체(NPU), 국산 거대언어모델(LLM)까지 연계할 수 있도록 설계된다. 외부 클라우드나 공용 자원에 의존하지 않는 전용 환경을 통해 고객이 데이터와 운영 정책을 직접 설정하고 관리할 수 있는 안전한 프라이빗 소버린 AI 환경을 구현하는 것이 목표다. 특히 랙당 최대 30키로와트(kW)를 수용할 수 있는 고밀도 전력·냉각 설계와 수냉식 냉각 설비를 적용해 고성능 GPU 운영에 필요한 대규모 AI 전용 인프라를 구현하는 것이 강점이다. 랙 후면 도어 열교환기(RDHx) 방식을 적용해 공랭 기반 장비의 배기열을 수냉으로 제거하는 구조로 설계해 고밀도 GPU 환경에서도 열을 효과적으로 제어할 수 있다는 설명이다. 오케스트로는 해당 데이터센터에 자사 AI·클라우드 풀스택 솔루션을 적용해 AI 서비스부터 클라우드 인프라, 통합 운영 관리까지 하나의 아키텍처로 제공할 계획이다. 이를 통해 고객은 자체 데이터센터를 구축하거나 별도 운영 인력을 투입하지 않고도 통합된 소프트웨어·하드웨어·상면 서비스를 기반으로 프라이빗 AI 인프라를 운영할 수 있다. 해당 데이터센터의 설계·구축은 DCK가 전담한다. 양사는 개발·인허가부터 설계·조달·시공(EPC), 운영, 영업에 이르기까지 데이터센터 구축 전 과정에 걸쳐 협력한다. DCK는 전국 주요 거점에서 AI 특화 데이터센터 개발을 추진해 왔으며 최근 수도권 내 도심형 엣지 AI 데이터센터 인허가를 확보하는 등 데이터센터 설계·구축 역량을 보유 중이다. 오케스트로는 이번 협약을 통해 여의도 도심형 엣지 AI 데이터센터를 기반으로 한 소버린 AI 데이터센터 구축을 단계적으로 확대할 방침이다. DCK가 보유한 마곡·청담 AI 데이터센터에도 자사 AI·클라우드 풀스택 솔루션을 적용해 산업별 AI 인프라 수요에 대응할 계획이다. 김범재 오케스트로 대표는 "여의도 신사옥에 소버린 AI 클라우드 데이터센터를 구축하는 것은 우리 AI 인프라 전략을 구체화하는 중요한 과정"이라며 "고밀도 전력·냉각 설계를 통해 고성능 GPU를 안정적으로 운영할 수 있는 프라이빗 AI 데이터센터를 구축하고 주요 거점으로 단계적 확장해 소버린 AI 환경 구축을 본격화할 것"이라고 말했다.

2026.01.28 17:00한정호 기자

신세계아이앤씨-에이수스, 미니 PC로 고성능 AI 계산대 구현

글로벌 PC·서버 제조사 에이수스는 27일 신세계그룹 IT 계열사 신세계아이앤씨가 에이수스 초소형 PC 'NUC' 기반으로 AI 계산대 솔루션을 구현해 운영 효율과 고객 경험을 동시에 향상시키고 있다고 밝혔다. 신세계아이앤씨는 카메라로 영상을 인식하는 '스파로스 AI' 컴퓨터 비전 기술을 활용해 바코드 인식없는 AI 계산대를 개발해 도입하고 있다. 이는 레이저와 바코드 스캐너 대신 풀HD(1920×1080 화소)급 영상으로 초당 30장 이상의 이미지를 수집·분석해 상품을 인식하고 결제를 처리하는 솔루션이다. 스파로스 AI 비전 기술이 적용된 AI 계산대 구현에는 초소형 미니PC인 에이수스 NUC 13 프로가 활용됐다. NUC 13 프로는 인텔 13세대 코어 i5 프로세서와 아이리스 Xe 내장 GPU를 활용해 고가 외장 GPU 없이 AI 비전 모델을 구동할 수 있다. CPU와 GPU 등 모든 자원을 AI 연산에 활용할 수 있는 인텔 소프트웨어개발키트(SDK)인 오픈비노(OpenVINO)도 제공된다. 복잡한 이미지 처리와 AI 추론을 클라우드 도움 없이 매장 내 키오스크에서 직접 수행하면서 네트워크 지연과 보안 문제를 최소화하고 인터넷 장애 상황에서도 안정적인 운영이 가능하다. 신세계아이앤씨는 다수 이용자 매장에서 키오스크 실증을 진행해 안정성을 검증했다. 현장 IT 인력이 부족한 무인 매장이나 소형 점포에서도 별도의 전문 지원 없이 설치·운영이 가능해 유지보수 비용이 크게 줄었다. 여러 상품을 한꺼번에 계산대 위에 올려 놓아도 약 1초만에 인식이 완료되며 기존 셀프 계산대 대비 대기 시간은 25% 수준으로 줄였다. 인식 정확도는 99.5%에 달했으며, 신선식품처럼 형태가 일정하지 않은 상품도 별도 학습 과정 없이 실시간 등록·인식할 수 있어 활용 범위가 넓다. 신세계아이앤씨는 이 솔루션을 '스파로스 AI' 등 자사 비전 AI 기술과 결합해 상품 미인식이나 계산 누락을 방지하는 손실 방지 기능까지 구현했다. 이를 바탕으로 일반 리테일 매장을 대상으로 본격적인 상용화에 나설 예정이다. 에이수스는 2023년 7월 인텔 미니 PC 'NUC' 제조·판매 등 사업권을 인수한 이후 NUC 브랜드로 임베디드·게이밍·사무용 제품을 개발해 주요 시장에 공급중이다. 27일 에이수스코리아 관계자는 "NUC는 소형 폼팩터와 다양한 입출력 포트, CPU와 GPU를 활용한 엣지 AI로 설치 장소나 조건에 구애받지 않고 키오스크와 산업 현장의 자동화 구현 등 다목적으로 활용할 수 있다는 것이 가장 큰 장점"이라고 설명했다.

2026.01.27 16:47권봉석 기자

"CDN 한계 넘는다"…아카마이, 보안·클라우드·AI로 성장 전환 가속

아카마이 테크놀로지스가 장기간 이어졌던 성장 정체를 벗어나 사업 구조 전환에 따른 새로운 성장 국면에 진입하고 있다는 분석이 나왔다. 22일 업계에 따르면 모건스탠리는 지난 12일 발표한 보고서에서 아카마이에 대한 투자의견을 기존 '비중축소'에서 '비중확대'로 두 단계 상향 조정하고 목표주가를 83달러에서 115달러로 높였다. 이는 아카마이가 기존 콘텐츠 전송(CDN) 중심 기업에서 보안, 클라우드 인프라, 인공지능(AI) 기반 서비스 기업으로의 전환이 가시화되고 있다는 판단에 따른 것이다. 아카마이의 전통적인 핵심 사업이었던 콘텐츠 전송 부문은 수년간 두 자릿수 매출 감소를 기록하며 전체 성장의 부담 요인으로 작용해 왔다. 그러나 최근 들어 감소 폭이 크게 완화되면서 안정화 국면에 접어들고 있는 것으로 평가됐다. 모건스탠리는 글로벌 웹 트래픽 회복, 경쟁사들의 시장 이탈로 인한 산업 구조 재편, 가격 경쟁 완화 등을 배경으로 콘텐츠 전송 사업의 연간 매출 감소율이 향후 마이너스(-)2~3% 수준으로 낮아질 것으로 전망했다. 여기에 월드컵과 올림픽 등 대형 글로벌 스포츠 이벤트가 트래픽 증가 요인으로 작용할 가능성도 언급됐다. 아카마이 매출의 절반 이상을 차지하는 보안 사업은 비교적 안정적인 성장세를 유지하며 핵심 역할을 충실히 하고 있다. 웹방화벽(WAF), 봇 방어, 디도스(DDoS) 보호 등 기존 보안 서비스는 성숙 단계에 접어들었지만, API 보안 전문 기업 노네임(Noname)과 마이크로세그멘테이션 솔루션 가디코어(Guardicore) 등 고성장 제품군이 이를 상쇄하고 있는 것으로 나타났다.모건스탠리는 "신성장 보안 영역은 연 30% 이상 성장 중"이라며 "이를 기반으로 보안 부문 전체 매출은 2027년까지 연평균 약 8% 성장이 가능할 것"이라고 전망했다. 아카마이는 최근 클라우드 인프라와 AI 인퍼런스 사업에서도 두각을 나타내고 있다. 이곳은 2022년 리노드 인수 이후 퍼블릭 클라우드 사업을 본격 확대해 왔으며 이 중 클라우드 인프라 서비스(CIS)는 연 40% 이상의 고성장을 지속할 것으로 전망됐다. 특히 2025년 말 출시한 '아카마이 인퍼런스 클라우드'는 엔비디아 블랙웰 그래픽처리장치(GPU)를 기반으로 한 엣지 AI 추론 서비스로, 지연시간과 데이터 이동 비용 측면에서 기존 대형 퍼블릭 클라우드 대비 차별성을 갖춘 것으로 평가된다. 모건스탠리는 IDC 전망을 인용해 "2030년까지 전체 AI 추론 수요의 약 50%가 엣지에서 처리될 가능성이 있다"며 "전 세계 4천400개 이상 PoP(접속점)을 보유한 분산 엣지 네트워크를 앞세운 아카마이가 이 시장에서 구조적 수혜를 입을 수 있다"고 분석했다. 이 같은 사업 구조 변화는 실적 전망에도 반영되고 있다. 모건스탠리는 아카마이의 2027년 매출을 약 47억8천만 달러, 주당순이익(EPS)을 8.20달러로 제시했다. 이는 시장 컨센서스를 소폭 웃도는 수준이다. 현재 주가는 2027년 예상 실적 기준 주가수익비율(PER) 약 11배로, 동종 클라우드 및 보안 기업 대비 낮은 수준에 머물러 있다. 모건스탠리는 "성장 정상화 가능성이 아직 주가에 충분히 반영되지 않았다"며 "중장기적으로 밸류에이션 재평가 여지가 있다"고 평가했다. 그러면서 "아카마이는 더 이상 단순한 콘텐츠 전송 기업이 아니라 글로벌 엣지 네트워크를 기반으로 보안과 클라우드, AI 인프라를 결합한 플랫폼 기업으로 진화하고 있다"며 "현재는 이러한 전략적 전환이 실질적인 성장으로 연결되기 시작하는 중요한 변곡점"이라고 덧붙였다.

2026.01.22 09:52장유미 기자

[기고] 엣지 AI 시대, 10억개의 생각하는 기계들

최근 한 글로벌 클라우드 서비스 장애로 수백만 대의 스마트 기기가 동시에 멈추는 사례가 있었다. 스마트홈 시스템은 명령에 응답하지 않았고, 집안의 수십 개 스마트 기기들이 제 기능을 잃었다. 기기는 '스마트'하다고 표방하지만, 클라우드 연결이 끊기면 가장 단순한 명령조차 수행할 수 없다는 역설. 이는 단순한 장애를 넘어 우리가 기술을 설계하는 방식 자체의 문제를 드러낸다. 폭발하는 데이터, 피할 수 없는 선택 문제의 근원은 데이터의 폭발적 증가다. IDC의 전망에 따르면 IoT 디바이스만으로도 2025년부터 매년 80제타바이트 이상의 데이터가 생성될 것으로 예상된다. 2020년 대비 20% 이상 증가한 규모다. 더 놀라운 것은 디바이스별 데이터 생성의 양극화다. 단순 센서는 하루에 수 메가바이트를 생성하는 반면, 자율주행차는 하루에 최대 20테라바이트를 생성한다. 이 모든 데이터를 클라우드로 전송하는 것은 현실적으로 불가능하다. 업계 전망은 명확하다. 2035년까지 전체 데이터의 74%가 기존 데이터센터 외부에서 처리될 것으로 예측되며, 그 절반 이상이 데이터가 발생하는 현장, 즉 디바이스 자체에서 처리될 것이다. 엣지 AI로의 전환은 더 이상 선택지가 아니라 필수 전략이 되었다. 엣지 AI의 진정한 가치: 속도와 보안 엣지 AI의 핵심 가치는 마이크로초 단위의 초저지연 처리에 있다. 산업 현장에서 기계의 미세한 진동을 실시간 분석해 고장을 예측하려면 어떻게 될까? 데이터를 클라우드로 보내 분석하는 수백 밀리초는 치명적이다. 엣지에서 즉시 처리하면 고장 징후 포착과 즉각적인 대응이 가능해진다. 보안 측면에서도 결정적인 장점이 있다. 점점 더 많은 기기가 연결되는 시대에 민감한 데이터와 프라이버시 보호는 필수다. 엣지 AI는 디바이스를 벗어나지 않고 데이터를 처리하므로, 중앙 서버로의 전송 과정에서 발생하는 보안 위협을 근본적으로 줄일 수 있다. 일상에 이미 스며든 엣지 AI 흥미롭게도 엣지 AI의 활용은 우리가 생각하는 것보다 훨씬 일상적이다. AI 세탁기는 세탁 사이클마다 15~40%의 에너지를 절감한다. 전기 모터의 전류 패턴만으로 타이어 압력을 측정하는 가상 센서도 상용화되었다. 태양광 패널에서는 전기 아크를 정밀하게 감지하여 화재를 예방한다. '평범한' AI가 전 세계 수십억 개 노드에 배포될 때, 그 누적 효과는 상상 이상이다. 개별 기기에서 절감되는 에너지, 방지되는 고장, 연장되는 수명 - 이들이 모여 사회 전체의 효율성과 지속 가능성을 근본적으로 바꾼다. 기술의 민주화: 도구의 중요성 하지만 하드웨어만으로는 부족하다. 아무리 강력한 AI 가속기를 탑재한 칩이 있어도, 이를 실제로 활용할 수 있는 도구가 있어야 한다. 모델 탐색부터 학습, 최적화, 배포까지 전체 워크플로를 지원하는 통합 툴체인이 필수다. 사전 최적화된 AI 모델 라이브러리가 있다면 개발자는 즉시 프로토타입을 만들 수 있고, 더 빠르게 시장에 나갈 수 있다. 이것이 현실화되고 있다. ST마이크로일렉트로닉스에서만 2025년 한 해 동안 16만 개 이상의 엣지 AI 프로젝트가 진행되었다. 이는 단순한 수치가 아니라, 엣지 AI 기술이 이미 산업의 중심으로 이동했음을 보여준다. 제품 설계 패러다임의 변화 엣지 AI는 한 단계 더 나아가 제품 설계 방식 자체를 근본적으로 바꾼다. 전통적 엔지니어링은 규칙 기반이었다. 엔지니어가 문제를 정의하고 모든 예외 상황의 대응 논리를 미리 코딩했다. 이 방식은 예측 가능한 환경에서는 효과적이지만, 급변하는 실제 세계에는 취약하다. AI 기반 접근법은 완전히 다르다. 시스템은 데이터로부터 직접 패턴을 학습하고 환경 변화에 스스로 적응한다. 엔지니어가 예상하지 못한 상황에서도 동작하며, 제품 수명 주기 전반에 걸쳐 지속적으로 진화하는 '살아있는' 시스템을 실현한다. 지능의 여정: 독립에서 협력으로 디바이스의 진화 궤적이 이를 잘 보여준다. 1980년대에는 독립형 마이크로컨트롤러가 정해진 로직만 수행했다. 2000년대에는 클라우드와 연결되었지만 실질적인 '두뇌'는 여전히 클라우드에 있었다. 기기는 센서 역할만 했다. 지금은 디바이스 자체가 감지하고, 추론하고, 행동한다. 클라우드와는 선택적으로 연결하되, 독립적으로도 지능형 작업을 수행한다. 제어의 시대에서 연결의 시대를 거쳐, 이제 진정한 인텔리전스의 시대가 열렸다. 기계들이 각자 생각할 수 있게 된 것이다. 더 이상 먼 미래가 아니다 10억 개의 AI 가속 마이크로컨트롤러가 움직이는 세상은 더 이상 상상의 영역이 아니다. 엣지 AI는 이제 틈새 기술이 아니라, 제품의 설계, 제조, 운영 방식을 재편하는 기본 도구다. 그리고 이를 통해 기다리고 있는 것은 무엇인가? 수십억 개의 사물이 각자 생각하면서도 유기적으로 연결된 세상이다. 그곳에서는 각 기기가 더 똑똑해질수록, 우리 세상은 더 효율적이고, 더 안전하고, 더 지속 가능해질 것이다.

2026.01.14 15:54박준식 컬럼니스트

Arm "엣지 AI, 사용자 만족도 좌우...웨어러블·IoT에도 필수"

[라스베이거스(미국)=권봉석 기자] "클라우드에만 의존하는 AI는 인터넷 연결 속도나 전파 감도에 많은 영향을 받는다. 사용자는 인터넷 연결이 문제인 상황에서도 AI 기능에 문제가 있다고 여길 수 있다. 지연 시간이나 비용 면에서도 효율적이지 않다." 7일(이하 현지시간) 오전, 라스베이거스 베니션 엑스포 내 미팅룸에서 기자단과 마주한 크리스 버기(Chris Bergey) Arm 엣지 AI 사업부문 총괄 수석부사장(EVP)은 '엣지 AI가 왜 필요한가'라는 질문에 이렇게 답했다. 크리스 버기 총괄 수석부사장은 이어 "Arm은 CPU 기반 AI 가속 명령어인 SME2, Armv9 명령어 체계, CPU·GPU·NPU 가속 등 다양한 기술을 통해 스마트폰뿐 아니라 웨어러블과 IoT 기기까지 엣지 AI를 지원하고 있다"고 설명했다. "엣지 AI, 클라우드 AI 회사들이 더 관심 많다" 크리스 버기 총괄 수석부사장은 이날 "엣지 AI를 일반 소비자보다 더 적극적으로 도입하고 싶어하는 것은 오히려 클라우드 기반 AI 회사들"이라고 설명했다. 비용, 성능, 사용자 경험 측면에서 엣지 AI가 주는 이점이 더 크기 때문이다. 그는 6일 레노버 테크월드 기조연설에서 Arm 고객사 수장인 크리스티아노 아몬 퀄컴 CEO의 발언도 인용했다. 당시 크리스티아노 아몬 퀄컴 CEO는 "엣지 데이터를 더 많이 가진 사람이 경쟁에서 이길 것"이라고 발언했다. 크리스 버기 총괄 수석부사장은 "나도 크리스티아노 아몬 CEO의 말에 동의한다. 결국 AI의 종착점은 엣지와 클라우드를 결합한 하이브리드 모델이 될 것이고, 클라우드 기반 기업일수록 오히려 엣지 AI에 관심이 많다"고 설명했다. "CPU 기반 AI 가속 명령어 'SME2', 실시간 처리에 강점" 크리스 버기 총괄 수석부사장은 "Arm은 CPU, GPU, 신경망처리장치(NPU)를 모두 활용해 엣지 AI 성능을 극대화하고 있다"고 강조했다. 이어 "CPU에서 실행되는 AI 가속 명령어 'SME2'는 성능 면에서는 NPU에 뒤질 수 있다. 그러나 지연 시간이 짧고 메모리 근접성이 뛰어나 실시간 처리에 강점을 지닌다. 또 큰 AI 워크로드는 NPU로 분산해 처리할 수 있다"고 설명했다. 또 "현재 퀄컴, 미디어텍 등 다양한 제조사가 SME를 지원하는 시스템반도체를 출시했고 앞으로 신제품은 물론 기존 제품에서도 소프트웨어 업데이트를 통해 SME 활용 사례가 늘어날 것"이라고 내다봤다. 그는 Arm이 GPU를 활용한 신경망 가속 기술 개발에도 분명한 계획을 가지고 있다고 말했다. "대부분의 응용프로그램이 AI 기능 구현에 CPU와 GPU만 활용하는 상황이다. GPU를 활용한 AI 가속 기능은 분명히 필요하며, 향후 GPU에 신경망 가속 기능을 통합해 모바일 환경에서도 데스크톱 수준의 AI 가속을 낮은 전력으로 구현할 계획이다." "AI 탑재 웨어러블 기기에도 하이브리드 AI는 필수" 크리스 버기 총괄 수석부사장은 이날 "애플워치 등장 이후 멈춰 있던 시장에 메타와 샤오미 등 다양한 회사가 확장현실(XR) 글래스와 신경 추적 손목밴드 등 다양한 AI 탑재 기기를 출시하며 활력을 불어넣고 있다"며 AI의 중요성을 역설했다. 그는 스마트 글래스를 예로 들며 "이런 웨어러블 기기에도 엣지 AI는 반드시 필요하다"고 설명했다. "스마트 글래스는 충분하지 않은 배터리와 부피·크기 제약 때문에 무작정 성능을 높이기 어렵다. 또 클라우드에만 의존하는 것은 지연시간 면에서 효율적이지 않다. 결국 스마트폰 등 기기와 역할을 분담하는 하이브리드 처리 모델이 필요하다." "Arm CSS, 최적 레시피 고객사에 제공하는 전략적 도구" Arm은 현재 CPU와 GPU, NPU 등 시스템반도체(SoC)의 여러 구성 요소를 한데 묶어 '컴퓨트 서브시스템'(CSS)이라는 형태로 고객사에 제공하고 있다. 크리스 버기 총괄 수석부사장은 "Arm CSS는 Arm이 제공할 수 있는 최고 성능의 CPU와 이를 통한 구현, 제품화 레시피를 제조사(OEM)와 개발자에게 제공하는 전략적 도구"라고 평가했다. 그는 "CSS를 공급받는 고객사는 필요에 따라 CSS 구성 요소 중 CPU나 GPU 등 필요한 요소만 최종 제품에 활용할 수 있다. 이를 통해 가능한 한 많은 회사가 엣지 AI를 구현할 수 있도록 돕고 있다"고 설명했다. "AI 경험, 소비자의 기대치 높이는 역할 할 것" 크리스 버기 총괄 수석부사장은 "AI는 스마트폰을 넘어 거의 모든 기기에 확산되고 있다. 삼성전자가 TV에 AI를 적용해 축구 경기 화질을 개선한 사례처럼 필요성이나 관심을 보이는 사례가 점차 늘어나고 있는 상황"이라고 설명했다. 그는 "터치스크린이 처음 등장했을 때 그랬던 것처럼 AI를 통한 경험은 앞으로 소비자가 기기에 기대하는 기준을 바꾸는 역할을 할 것"이라고 덧붙였다.

2026.01.09 14:00권봉석 기자

[SW키트] AI 인프라 비용 폭증 시대…"엣지·분산 클라우드로 탈피"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 전 세계가 인공지능(AI) 인프라 확장으로 비용 부담이 커지고 있는 가운데 분산 클라우드와 온디바이스 AI가 대안으로 부상하고 있다. 이를 통해 중앙집중형 데이터센터 의존도를 낮추고, AI를 효율적으로 구동하기 위한 전략이다. 6일 IT 업계에 따르면 글로벌 AI 인프라 경쟁이 격화하면서 막대한 전력과 비용 부담이 커질 것이란 전망이 나오면서 업계에선 이같은 대안책을 제시하고 있다. 단순히 데이터센터 확장만으로는 전력이나 비용 부담을 그대로 감당하기 어렵다는 판단에서다. 그동안 글로벌 AI 인프라 경쟁력은 그래픽처리장치(GPU) 확보, 데이터센터 확장에 집중됐다. 이에 국내 업계는 이 과정에서 전력과 비용이 천문학적으로 늘어났다는 점을 문제로 지적했다. 딥엑스 김강욱 부사장은 최근 국회 세미나에서 "현재 국가별 AI 자원 격차가 경쟁력 차이로 이어질 수 있다"며 "국내 AI 인프라 규모가 상대적으로 적은 만큼 대안을 마련해야 한다"고 주장했다. 이에 업계는 AI 연산을 중앙에 집중시키지 않는 구조에 눈을 돌리고 있다. 사용자와 가까운 곳에서 AI를 처리해 지연을 줄이고 인프라 부담을 낮추는 방식이다. 대표 사례로 아카마이의 분산 클라우드가 꼽히고 있다. 아카마이는 전 세계 4천400여 개 네트워크 거점(POP) 기반 분산 엣지 플랫폼으로 AI 모델 추론을 수행하고 있다. 중앙 데이터센터 대신 네트워크 엣지단에서 AI 연산을 처리할 수 있는 구조다. 분산 클라우드는 기존 클라우드와 달리 데이터센터에서 연산을 따로 모을 필요가 없다. 사용자와 가까운 엣지 서버에서 필요한 연산을 수행할 수 있어서다. 이에 AI 응답 속도를 높이고 트래픽 부담까지 줄일 수 있다. 이경준 아카마이코리아 대표는 "향후 AI 인프라 핵심은 데이터가 생성되는 곳에서 바로 추론까지 이뤄지는 구조일 것"이라며 "이는 중앙집중형 클라우드보다 성능과 비용을 동시에 관리할 수 있다"고 지디넷코리아 인터뷰를 통해 강조했다. "AI 처리에 클라우드 의존 벗어야" IT 업계는 클라우드에만 의존하는 기존 AI 처리 구조에도 변화가 필요하다고 봤다. 모든 데이터를 원격 서버로 보내야 지식 처리와 판단이 이뤄지는 방식은 전력과 비용 부담을 키울 수 있다는 지적이다. 딥엑스 김강욱 부사장은 개별 단말기에서도 지식 기반 AI 처리가 가능하도록 하는 전략이 필요하다고 강조했다. 일상적인 질의나 판단은 기기 내부에서 처리하고, 복잡한 연산만 클라우드가 맡는 구조다. 딥엑스는 온디바이스 AI용 시스템 반도체를 개발하는 기업이다. 데이터센터용 그래픽처리장치(GPU)와 달리, 저전력·저비용 신경처리장치(NPU)를 설계해 단말기 자체에서 AI 연산이 가능하도록 지원하고 있다. 특히 스마트폰, 가전, 차량, 로봇 등 다양한 기기에 AI를 내장해 중앙 클라우드 의존도를 낮추는 전략을 추진한다. 해당 기술은 최근 바이두에 공급됐으며, 회사는 내년을 목표로 기업공개(IPO) 절차를 밟고 있다. 김 부사장은 "이 같은 구조가 구현되면 대규모 데이터센터를 추가로 짓지 않아도 AI 서비스를 확장할 수 있다"며 "AI 연산을 분산 처리함으로써 전력 소모와 인프라 집중도를 낮출 수 있다"고 밝혔다.

2026.01.06 13:38김미정 기자

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

[현장] MS "AI 에이전트 보안은 달라야…예측·자율형으로"

"K뷰티·기념품 없는 게 없네"...올리브영 ‘센트럴 명동 타운’ 가보니

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.