• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'추론'통합검색 결과 입니다. (52건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

MS, 차세대 AI 추론칩 '마이아 200' 공개…"아마존보다 3배 빨라"

마이크로소프트가 자체 개발한 2세대 인공지능(AI) 가속기를 공개했다. 경쟁사 보다 높은 성능을 강조하며 AI 인프라 시장 리더십 강화에 나설 전망이다. 이번 신제품은 AI 추론(Inference) 효율성을 극대화하는 데 초점을 맞췄으며 오픈AI의 최신 모델인 'GPT-5.2'를 지원하는 핵심 동력이 될 것으로 주목받고 있다. 26일 마이크로소프트는 자사 블로그를 통해 TSMC의 3나노(nm) 공정을 기반으로 제작된 새로운 AI 칩 '마이아200(Maia 200)'을 발표했다. 마이아 200은 대규모언어모델(LLM) 구동의 핵심인 '토큰 생성' 비용을 절감하는 데 방점을 두고 설계됐다. TSMC의 3나노(nm) 공정을 적용해 칩 하나에 1천400억 개 이상의 트랜지스터를 집적해 연산 밀도를 극대화했다. 메모리 아키텍처 또한 대규모 모델 처리에 최적화됐다. 초당 7테라바이트(TB)의 데이터 전송 속도를 자랑하는 216GB 고대역폭메모리(HBM3e)를 탑재했으며 272MB의 온칩 SRAM을 더해 데이터 병목 현상을 최소화하고 처리 속도를 높였다. 연산 성능은 750와트(W) 전력 소모 범위 내에서 4비트(FP4) 정밀도 기준 10 페타플롭스(PFLOPS), 8비트(FP8) 기준 5 페타플롭스 이상의 성능을 발휘한다. 마이크로소프트 측은 마이아 200은 아마존웹서비스(AWS)의 '트레이니움(Trainium) 3세대' 대비 4비트 성능에서 3배 앞서며 구글의 '7세대 TPU'보다 뛰어난 8비트 연산 능력을 확보하며 추론 가속기 시장의 새로운 기준을 제시했다고 강조했다. 마이크로소프트 클라우드 및 AI 그룹의 스콧 거스리 수석 부사장은 "마이아 200은 하이퍼스케일러가 만든 칩 중 가장 강력한 성능을 자랑하는 퍼스트 파티 칩"이라며, "오늘날 가장 큰 모델을 쉽게 구동할 뿐만 아니라 미래의 더 거대한 모델까지 감당할 수 있는 여유 성능을 갖췄다"고 강조했다. 마이아 200은 출시 후 마이크로소프트의 거대 AI 생태계를 지탱하는 중추적인 역할을 맡게 된다. 오픈AI 최신 모델인 GPT-5.2를 포함한 다양한 모델을 서비스하는 데 투입되며 마이크로소프트 파운드리와 마이크로소프트 365 코파일럿의 가격 대비 성능 효율을 크게 개선할 예정이다. 또 마이크로소프트 초지능팀은 마이아 200을 활용해 차세대 자체 모델을 위한 합성 데이터 생성 및 강화 학습을 수행한다. 고품질의 도메인 특화 데이터를 더 빠르고 효율적으로 생성하여 AI 모델 훈련 파이프라인을 가속화하겠다는 전략이다. 시스템 수준에서의 혁신도 돋보인다. 마이아 200은 표준 이더넷 기반의 독자적인 2계층 스케일업 네트워크 설계를 도입했다. 칩당 2.8TB/s의 양방향 대역폭을 제공하며, 최대 6,144개의 가속기를 하나의 클러스터로 묶어 효율적인 대규모 추론 작업을 가능케 한다. 마이크로소프트는 개발자들을 위한 마이아 소프트웨어 개발 키트(SDK) 프리뷰도 함께 공개했다. 이 SDK는 파이토치(PyTorch) 통합, 트리톤(Triton) 컴파일러, Maia 전용 저수준 프로그래밍 언어 등을 포함하여 개발자가 하드웨어 성능을 최대로 끌어내면서도 이기종 하드웨어 간 모델 이식을 쉽게 할 수 있도록 돕는다. 마이아200은 미국 아이오와주 디모인 인근의 'US 센트럴' 데이터센터 리전에 이미 배치되었으며 이어 애리조나주 피닉스 인근의 'US 웨스트 3' 리전으로 확장될 예정이다. 이번 마이아200의 출시는 AI 인프라 시장에서 엔비디아 의존도를 낮추고 자체 칩 경쟁력을 통해 AI 서비스의 수익성을 극대화하려는 마이크로소프트의 강력한 의지가 반영된 것으로 풀이된다. 스콧 거스리 부사장은 "마이아 200은 칩 설계부터 데이터센터 배포까지 엔드-투-엔드(End-to-End) 검증을 통해 실리콘 출시 후 며칠 만에 실제 AI 모델을 구동하는 데 성공했다"며 "이는 타사 대비 절반 이하의 시간으로 단축된 획기적인 성과"라고 밝혔다.

2026.01.27 09:46남혁우 기자

엑세스랩, 퀄컴 기반 Arm 추론 어플라이언스 출시

Arm CPU 기반 데이터센터 전문기업인 엑세스랩이 23일 퀄컴 AI 추론 솔루션 기반 저전력·고성능 AI 추론용 어플라이언스 'V-랩터 Q100'을 출시했다. V-랩터 Q100은 엑세스랩이 자체 개발한 Arm 기반 저전력 CPU와 퀄컴 클라우드 AI 100 울트라 가속기를 활용해 AI 추론과 에너지 효율성, 확장성을 노렸다. 퀄컴 클라우드 AI 100 울트라는 퀄컴이 개발한 SoC와 LPDDR4 128GB 메모리를 활용해 INT8(정수 8비트) AI 연산을 초당 870 TOPS(1초당 1조 번 연산), FP16(부동소수점 16비트) 연산은 288 테라플롭스로 처리한다. 김상표 퀄컴코리아 사장은 "퀄컴은 생성 AI와 지능형 엣지 컴퓨팅 수요 급증에 따라 IoT 제품과 솔루션 포트폴리오를 확장중이며 엑세스랩과의 협업을 시작으로 온프레미스 어플라이언스 시장을 적극 공략하고 포트폴리오를 더욱 확대할 것"이라고 밝혔다. 유명환 엑세스랩 대표이사는 "퀄컴과 협업으로 출시한 AI 추론용 Arm CPU 서버 어플라이언스를 시작으로 향후 퀄컴과의 지속적인 기술 개발과 협업을 통해 온프레미스 어플라이언스와 AI 인프라의 글로벌 표준을 만들어가겠다"고 밝혔다.

2026.01.23 10:59권봉석 기자

[현장] STT GDC, 가산에 첫 데이터센터 연다…韓 코로케이션 시장 본격 진출

글로벌 데이터센터 전문기업 STT GDC가 국내 첫 데이터센터를 올해 6월 가동하며 한국 시장 공략에 본격 나선다. 인공지능(AI)·클라우드 수요 확대에 대응하는 AI-레디 인프라를 앞세워 국내 코로케이션 시장에서 입지를 구축할 계획이다. 허철회 STT GDC 코리아 대표는 22일 서울 여의도 FKI타워에서 진행한 기자간담회에서 "가산에 들어서는 'STT 서울1'을 시작으로 한국 시장에서 AI·클라우드 수요를 안정적으로 받쳐줄 인프라를 단계적으로 확대해 나가겠다"고 밝혔다. STT GDC는 싱가포르에 본사를 둔 글로벌 데이터센터 전문기업으로, 12개국에서 100개 이상의 데이터센터를 운영하며 총 IT 부하 용량 2기가와트(GW) 이상을 확보하고 있다. 고성능·고효율·저탄소 데이터센터 인프라를 기반으로 아마존·마이크로소프트·구글 등 글로벌 하이퍼스케일러들을 지원해왔다. STT GDC가 한국을 전략 시장으로 설정한 배경에는 AI 확산에 따른 데이터센터 수요 급증이 있다. 허 대표는 "AI 지출 확대와 에이전틱 AI, AI 서비스형 소프트웨어(SaaS) 등 시장이 빠르게 커지고 있다"며 "이에 맞춰 데이터센터 인프라뿐 아니라 저지연 네트워크·해저 케이블 등 연결성까지 중요해지고 있다"고 설명했다. 특히 허 대표는 앞으로 데이터센터 수요를 주도할 핵심 축으로 '추론'을 지목했다. 그는 "AI 애플리케이션과 추론 중심 워크로드가 늘수록 데이터센터의 수도권 입지와 네트워크가 더 중요해질 것"이라고 진단했다. 이런 흐름에 한국 시장도 소버린 AI와 그래픽처리장치(GPU) 확산 정책이 맞물리며 전력 수요가 크게 늘고 있다는 게 STT GDC의 판단이다. 허 대표는 정부가 엔비디아와 체결한 GPU 26만 장 도입 논의 등으로 인해 추가 전력 수요가 발생할 수 있으며 2030년에는 국내 데이터센터 전력 수요가 3GW 수준까지 필요해질 수 있다고 언급했다. STT GDC가 이번에 첫 거점으로 공개한 STT 서울1은 서울 금천구 가산동에 위치한 AI 데이터센터로, 최대 IT 부하 30메가와트(MW)를 수용하도록 설계됐다. STT GDC는 이 센터를 기반으로 국내 고객의 AI·클라우드 인프라 수요에 대응하는 동시에, 글로벌 확장과 연계한 코로케이션 서비스를 제공하겠다는 구상이다. STT 서울1은 주·예비 2회선 이중화 기반 22.9kV 전력 인입, 분산형 중복 구성 방식 무정전전원장치(UPS), N+1 비상발전기 등 안정성을 고려한 전력 설계를 갖췄다. 최대 부하 기준 24시간 무급유 발전이 가능한 연료탱크를 구축했고 업타임 티어 3 TCCD·TCCF 인증과 무중단 유지보수·내결함성 설계도 추진한다. 건물은 지하 2층부터 지상 10층까지 멀티스토리 구조로 설계됐으며 데이터센터 특성상 층고가 높아 체감 높이는 일반 아파트 약 20층 수준에 해당한다. STT GDC는 도심 내 제한된 부지에서 전력·설비 집적도를 극대화하기 위해 이같은 구조를 선택했다고 밝혔다. 네트워크는 망중립 구조를 기반으로 2개의 독립된 MDF실과 3개의 인입 경로를 구성해 복수 통신사 및 다양한 연결 옵션을 확보했다. 냉각은 설계 전력사용효율(PUE) 1.3 미만을 목표로 중앙 냉수식 냉방 설비와 팬월 유닛 등을 적용해 AI 워크로드에 대비한 열관리 효율을 높인다는 방침이다. 나아가 STT GDC는 액침 냉각 등 차세대 냉각 기술도 글로벌 본사 차원에서 검증하고 있다. 슈나이더 일렉트릭, 아이스오토프와 협력해 액침 냉각 기술검증(PoC)을 진행했고 인도 법인도 액체 냉각 기술 연구·테스트를 추진 중이다. 국내 센터 운영 전략으로는 인하우스 중심 운영을 강조했다. STT GDC 코리아 양재석 운영센터장은 "다수 데이터센터 사업자가 운영을 외주화하는 것과 달리, 우리는 운영 핵심 기능을 자체 인력으로 수행한다"며 "글로벌 하이퍼스케일러 지원 경험을 바탕으로 국내에서도 동일한 표준과 교육 체계를 적용할 계획"이라고 밝혔다. STT GDC는 한국 시장이 글로벌 하이퍼스케일러뿐 아니라 국내 클라우드 사업자와 소버린 AI 프로젝트 확대로 수요 구조가 빠르게 바뀌고 있다고 진단했다. 이에 대해 허 대표는 "연도별 수요·공급 변동성이 커지는 만큼 단계적 확장과 안정적 운영 역량이 중요해졌다"며 "향후 한국 내 추가 데이터센터 부지 확보도 검토 중"이라고 말했다. 끝으로 "AI 시대 데이터센터는 단순히 전력을 공급하는 시설이 아니라, 고밀도 워크로드를 안정적으로 처리하면서도 지속가능성을 함께 달성해야 한다"며 "재생에너지 확대와 냉각 혁신을 바탕으로 한국에서도 장기적으로 경쟁력 있는 데이터센터 플랫폼을 구축해 나가겠다"고 강조했다.

2026.01.22 16:33한정호 기자

"CDN 한계 넘는다"…아카마이, 보안·클라우드·AI로 성장 전환 가속

아카마이 테크놀로지스가 장기간 이어졌던 성장 정체를 벗어나 사업 구조 전환에 따른 새로운 성장 국면에 진입하고 있다는 분석이 나왔다. 22일 업계에 따르면 모건스탠리는 지난 12일 발표한 보고서에서 아카마이에 대한 투자의견을 기존 '비중축소'에서 '비중확대'로 두 단계 상향 조정하고 목표주가를 83달러에서 115달러로 높였다. 이는 아카마이가 기존 콘텐츠 전송(CDN) 중심 기업에서 보안, 클라우드 인프라, 인공지능(AI) 기반 서비스 기업으로의 전환이 가시화되고 있다는 판단에 따른 것이다. 아카마이의 전통적인 핵심 사업이었던 콘텐츠 전송 부문은 수년간 두 자릿수 매출 감소를 기록하며 전체 성장의 부담 요인으로 작용해 왔다. 그러나 최근 들어 감소 폭이 크게 완화되면서 안정화 국면에 접어들고 있는 것으로 평가됐다. 모건스탠리는 글로벌 웹 트래픽 회복, 경쟁사들의 시장 이탈로 인한 산업 구조 재편, 가격 경쟁 완화 등을 배경으로 콘텐츠 전송 사업의 연간 매출 감소율이 향후 마이너스(-)2~3% 수준으로 낮아질 것으로 전망했다. 여기에 월드컵과 올림픽 등 대형 글로벌 스포츠 이벤트가 트래픽 증가 요인으로 작용할 가능성도 언급됐다. 아카마이 매출의 절반 이상을 차지하는 보안 사업은 비교적 안정적인 성장세를 유지하며 핵심 역할을 충실히 하고 있다. 웹방화벽(WAF), 봇 방어, 디도스(DDoS) 보호 등 기존 보안 서비스는 성숙 단계에 접어들었지만, API 보안 전문 기업 노네임(Noname)과 마이크로세그멘테이션 솔루션 가디코어(Guardicore) 등 고성장 제품군이 이를 상쇄하고 있는 것으로 나타났다.모건스탠리는 "신성장 보안 영역은 연 30% 이상 성장 중"이라며 "이를 기반으로 보안 부문 전체 매출은 2027년까지 연평균 약 8% 성장이 가능할 것"이라고 전망했다. 아카마이는 최근 클라우드 인프라와 AI 인퍼런스 사업에서도 두각을 나타내고 있다. 이곳은 2022년 리노드 인수 이후 퍼블릭 클라우드 사업을 본격 확대해 왔으며 이 중 클라우드 인프라 서비스(CIS)는 연 40% 이상의 고성장을 지속할 것으로 전망됐다. 특히 2025년 말 출시한 '아카마이 인퍼런스 클라우드'는 엔비디아 블랙웰 그래픽처리장치(GPU)를 기반으로 한 엣지 AI 추론 서비스로, 지연시간과 데이터 이동 비용 측면에서 기존 대형 퍼블릭 클라우드 대비 차별성을 갖춘 것으로 평가된다. 모건스탠리는 IDC 전망을 인용해 "2030년까지 전체 AI 추론 수요의 약 50%가 엣지에서 처리될 가능성이 있다"며 "전 세계 4천400개 이상 PoP(접속점)을 보유한 분산 엣지 네트워크를 앞세운 아카마이가 이 시장에서 구조적 수혜를 입을 수 있다"고 분석했다. 이 같은 사업 구조 변화는 실적 전망에도 반영되고 있다. 모건스탠리는 아카마이의 2027년 매출을 약 47억8천만 달러, 주당순이익(EPS)을 8.20달러로 제시했다. 이는 시장 컨센서스를 소폭 웃도는 수준이다. 현재 주가는 2027년 예상 실적 기준 주가수익비율(PER) 약 11배로, 동종 클라우드 및 보안 기업 대비 낮은 수준에 머물러 있다. 모건스탠리는 "성장 정상화 가능성이 아직 주가에 충분히 반영되지 않았다"며 "중장기적으로 밸류에이션 재평가 여지가 있다"고 평가했다. 그러면서 "아카마이는 더 이상 단순한 콘텐츠 전송 기업이 아니라 글로벌 엣지 네트워크를 기반으로 보안과 클라우드, AI 인프라를 결합한 플랫폼 기업으로 진화하고 있다"며 "현재는 이러한 전략적 전환이 실질적인 성장으로 연결되기 시작하는 중요한 변곡점"이라고 덧붙였다.

2026.01.22 09:52장유미 기자

[기자수첩] 새해 시험대에 오른 국내 AI 반도체

2026년 새해 신경망처리장치(NPU) 시장이 본격적으로 열리고 있다. 그리고 이 변화의 중심에는 국내 인공지능(AI) 반도체 업체들이 서 있다. AI 산업의 무게 중심이 학습에서 추론으로 이동하면서, 그동안 기술력은 갖췄지만 시장의 문턱 앞에 서 있던 국내 AI 반도체 기업들에게 처음으로 현실적인 무대가 펼쳐지고 있다. 생성형 AI는 더 이상 연구실 안의 기술이 아니다. 산업 현장과 서비스, 디바이스 전반으로 빠르게 확산되면서 AI의 가치는 '얼마나 큰 모델을 학습했는가'보다 '얼마나 빠르고 효율적으로 판단할 수 있는가'로 옮겨가고 있다. 실시간 응답성, 전력 효율, 비용 구조는 이제 선택이 아닌 필수 조건이다. 이 변화는 자연스럽게 추론에 최적화된 NPU를 AI 반도체 경쟁의 중심으로 끌어올리고 있다. 기존 GPU 중심 구조는 여전히 강력하지만, 추론 환경에서는 전력 소모와 운영 비용이라는 현실적인 한계를 드러내고 있다. 특히 AI가 데이터센터를 넘어 엣지와 온디바이스, 산업 인프라로 확산될수록 이러한 부담은 더 크게 체감된다. 특정 연산에 최적화된 구조를 갖춘 NPU가 주목받는 이유다. 그리고 이 영역은 글로벌 빅테크보다 국내 AI 반도체 업체들이 상대적으로 경쟁력을 발휘할 수 있는 시장으로 평가받는다. 이 지점에서 국내 팹리스 생태계의 현실을 보여주는 사례를 하나 짚어볼 필요가 있다. 비록 NPU 기업은 아니지만, 파두는 국내 팹리스 가운데 드물게 글로벌 고객과의 협력을 통해 실질적인 성과를 만들어낸 기업이다. 샌디스크 등과의 협업을 통해 저장장치(SSD) 컨트롤러 시장에서 매출과 레퍼런스를 확보하며, 국내 팹리스도 글로벌 시장에서 통할 수 있다는 가능성을 가장 먼저 입증해왔다. 그러나 파두가 최근 상장 당시 자본시장법 위반혐의로 검찰에 불구속기소 되면서 국내 팹리스 산업이 안고 있는 구조적 취약성 역시 함께 드러났다. 기술력과 사업 성과를 쌓아가고 있던 기업조차 시장 신뢰와 제도적 리스크 앞에서는 쉽게 흔들릴 수 있다는 점이다. 이는 특정 기업의 문제라기보다, 이제 막 추론 시장이라는 기회를 맞이한 국내 AI 반도체 업계 전반에 던지는 경고에 가깝다. 이 같은 맥락에서 추론용 NPU를 개발하는 국내 AI 반도체 업체들 역시 같은 시험대에 서 있다고 볼 수 있다. 기술만으로는 충분하지 않고, 시장과 자본, 제도가 함께 뒷받침돼야 하는 것이다. 지금 필요한 것은 이미 달리고 있는 말의 속도를 줄이는 일이 아니라, 박차를 가할 수 있도록 힘을 실어주는 환경이다. 국내 AI 반도체 기업들은 그동안 추론용 NPU를 핵심 사업 전략으로 내세워왔다. 전력 효율과 성능 대비 비용, 특정 워크로드 최적화 등에서 차별화를 시도해왔지만, 시장 자체가 충분히 열리지 않아 성과를 가시화하기 어려웠다. 2026년을 기점으로 추론 수요가 빠르게 늘어나면서 이제는 기술적 설득이 아니라 실제 적용 사례와 지속 가능한 사업 구조가 경쟁력을 가르는 단계로 접어들고 있다. 정책과 산업 환경도 국내 업체들에게 유리하게 움직이고 있다. GPU 의존도를 낮추고 AI 인프라의 선택지를 넓히려는 흐름 속에서, 국산 NPU를 활용한 실증과 도입 논의가 이어지고 있기 때문이다. 이는 기술 자립을 넘어, 국내 AI 반도체가 글로벌 시장에서 신뢰할 수 있는 선택지가 될 수 있는지를 가늠하는 시험대다. 그리고 그 시험은 이미 시작됐다. 결국 관건은 하나다. 국내 AI 반도체 업체들이 추론 시장에서 '가능성 있는 대안'이 아니라 '검증된 경쟁자'로 자리 잡을 수 있느냐다. 자율주행, 로봇, 헬스케어, 스마트 디바이스처럼 늑장이 허용되지 않는 영역에서 NPU의 존재감이 커질수록, 그 답은 더욱 분명해질 것이다. 새해엔 가능성을 말하는 해가 아니다. 국내 AI 반도체 업체들이 추론 시장에서 실제 성과로 평가받는 해다. 달리는 말이 멈추지 않도록, 지금은 채찍을 들 때가 아니라 힘을 실어줘야 할 때다. 무대는 이미 열렸다.

2026.01.08 14:51전화평 기자

카카오, '카나나-2' 오픈소스 공개…에이전틱 AI 최적화

카카오는 허깅페이스에 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다고 19일 밝혔다. 카카오는 지난해 자체 개발 AI 모델 '카나나'의 라인업을 선보인 이래, 경량 사이즈의 모델부터 고난이도 문제 해결에 특화된 '카나나-1.5'까지 꾸준히 오픈소스로 추가 공개해왔다. 이번에 선보인 '카나나-2' 모델은 성능과 효율을 개선한 최신 연구 성과로, 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 '동료'와 같은 AI 구현에 초점을 맞췄다. 이번에 공개된 모델은 총 3종으로 기본 모델인 ▲베이스, 사후 학습을 통해 지시 이행 능력을 높인 ▲인스트럭트, 이번에 처음 선보이는 ▲추론 특화 모델로 구성됐다. 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 웨이트(학습된 매개변수 값)를 모두 공개한 점이 특징이다. 카나나-2는 에이전틱 AI 구현의 핵심인 도구 호출 기능과 사용자 지시 이행 능력이 향상됐다. 이전 모델(카나나-1.5-32.5b) 대비 다중 대화 도구 호출 능력을 3배 이상 향상시켰으며, 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다. 지원 언어도 기존 한국어, 영어에서 ▲한국어 ▲영어 ▲일본어 ▲중국어 ▲태국어 ▲베트남어까지 6개로 확장해 활용도를 높였다. 기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력을 효율적으로 처리하는 방식인 'MLA' 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 'MoE' 구조를 적용했다. 이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있게 됐으며, 추론 시 필요한 파라미터만 활성화 해 연산 비용과 응답 속도가 개선됐다. 대규모 동시 접속 요청을 빠르게 처리하는 성능 진화를 만들었다. 성능 지표에서 인스트럭트 모델의 경우 동일한 구조의 최신 모델 'Qwen3-30B-A3B'와 유사한 수준을 달성했다. 이달 한국정보과학회와 공동 개최한 'AI 에이전트 경진대회'에서 참가자들에게 선공개돼 실제 에이전트 개발 환경에서의 활용 능력이 검증되기도 했다. 추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보였다. 카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 이와 함께 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과 온 디바이스 경량화 모델의 고도화를 지속적으로 추진할 계획이다.

2025.12.19 10:00박서린 기자

앤트로픽, 구글 TPU 핵심 파트너와 AI 데이터센터 구축 '박차'

인공지능(AI) 인프라 경쟁이 본격화되는 가운데, 앤트로픽이 구글의 핵심 파트너로 떠오른 네오클라우드 기업 플루이드스택과 초대형 데이터센터 구축에 박차를 가한다. 18일 월스트리트저널(WSJ)에 따르면 플루이드스택은 미국 루이지애나주에 건설되는 대규모 AI 데이터센터에서 앤트로픽이 활용할 고성능 컴퓨팅 클러스터 운영을 맡게 됐다. 해당 프로젝트는 단계별로 확장되는 구조로, 초기에는 약 245메가와트(MW) 규모의 연산 용량이 제공될 예정이다. 이 인프라는 앤트로픽이 대규모 언어모델(LLM)을 학습·운영·확장하는 데 활용된다 . 이번 협력에서 플루이드스택은 단순 임대 사업자를 넘어 AI 연산 인프라 운영의 중심 역할을 맡는다. 회사는 구글 텐서처리장치(TPU) 생태계의 핵심 파트너로, 최근 '제미나이 3' 학습용 TPU 인프라를 공급하며 급부상했다. TPU 중심 전략을 앞세워 AI 모델 개발사들의 엔비디아 그래픽처리장치(GPU) 의존도를 낮추는 동시에 대형 데이터센터와 AI 슈퍼컴퓨팅 인프라 구축에 속도를 내고 있다 . 플루이드스택은 현재 약 7억 달러(약 1조345억원) 규모의 신규 투자 유치를 추진 중이며 투자 성사 시 기업가치는 70억 달러(약 10조원)에 이를 것으로 전망된다. 구글과 골드만삭스가 투자 논의에 참여한 것으로 알려졌고 프랑스에 100억 유로(약 17조원) 규모의 AI 슈퍼컴퓨팅 센터를 구축하는 계획도 공개했다. 이는 글로벌 AI 인프라 수요가 급증하는 가운데, 기술 기업과 금융권이 결합한 새로운 데이터센터 투자 모델을 대표하는 사례로 평가된다. 앤트로픽 역시 공격적인 인프라 투자에 나서고 있다. 회사는 총 500억 달러(약 73조원)를 투입해 미국 내 맞춤형 AI 데이터센터를 구축할 계획이며 텍사스와 뉴욕을 시작으로 내년부터 순차 가동한다. 이 과정에서 플루이드스택과의 협력은 앤트로픽이 안정적인 연산 자원과 전력을 확보하는 핵심 축으로 작동할 전망이다. 업계에서는 앤트로픽의 대규모 인프라 투자가 오픈AI, 메타 등 경쟁사들의 초대형 프로젝트에 대응하기 위한 전략적 선택으로 보고 있다. 생성형 AI 성능 경쟁이 연산 능력과 전력 확보 경쟁으로 확산되면서 클라우드 사업자의 위상도 빠르게 높아지고 있다는 분석이 나온다. 플루이드스택이 단기간에 구글과 앤트로픽을 지원하는 글로벌 AI 인프라 핵심 사업자로 부상한 배경도 이같은 흐름과 맞물려 있다 . 앤트로픽은 "이번 데이터센터 구축을 통해 보다 강력하고 안전한 AI 시스템을 개발하고 과학적 발견과 산업 전반의 혁신을 가속화할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.18 13:31한정호 기자

삼성전자, 엔비디아향 '소캠2' 공급 임박…샘플 평가·표준화 협력

삼성전자와 엔비디아가 AI 메모리 분야에서 긴밀한 협력을 더 강화하고 있다. LPDDR(저전력 D램) 기반 차세대 서버 메모리 모듈에 대한 평가를 진행 중인 것은 물론, 공식 표준화 작업도 함께 진행 중이다. 양사 간 협업은 내년 초부터 본격적인 시너지 효과를 발휘할 것으로 기대된다. 삼성전자는 18일 공식 뉴스룸을 통해 고객사에 SOCAMM(소캠; Small Outline Compression Attached Memory Module)2 샘플을 공급하고 있다고 밝혔다. 소캠은 엔비디아가 독자 표준으로 개발해 온 차세대 메모리 모듈로, 저전력 D램인 LPDDR을 4개씩 집적한다. 기존 모듈(RDIMM) 대비 데이터 전송 통로인 I/O(입출력단자) 수가 많아, 데이터 처리 성능의 척도인 대역폭이 높다는 장점이 있다. 소캠2는 2세대 소캠으로서, RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공한다. 또한 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장해야 했지만, 소캠2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있다. 삼성전자가 개발한 소캠2는 내년 초부터 본격 상용화될 전망이다. 현재 삼성전자는 1b(5세대 10나노급) D램을 기반으로 소캠2를 개발해, 주요 고객사인 엔비디아와 퀄(품질) 테스트를 거치고 있는 것으로 알려졌다. 삼성전자는 "서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다"며 "특히 엔비디아와의 기술 협업을 통해 소캠2를 엔비디아 가속 인프라에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다"고 밝혔다. 소캠2의 공식 표준화 작업도 마무리 단계에 접어들었다. 현재 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다. 디온 헤리스 엔비디아 HPC 및 AI 인프라 솔루션 총괄 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 피지컬 AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며 "삼성전자와의 지속적인 기술 협력을 통해 소캠2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

2025.12.18 11:04장경윤 기자

오픈AI, 한 달 만에 GPT-5.2 공개…구글 제미나이에 반격 나섰다

구글 제미나이의 거센 추격 속에서 오픈AI가 한 달 만에 프런티어 모델 'GPT-5.2'를 내놓으며 정면 돌파에 나섰다. 챗GPT 트래픽 감소와 내부 '코드 레드' 비상 체제까지 겹친 상황에서 강화된 성능의 신모델이 경쟁 구도를 다시 뒤흔들 것이라는 평가가 나온다. 오픈AI는 11일(현지시간) GPT-5.2 시리즈를 출시한다고 발표했다. 새 모델은 즉답·사고·프로 등 세 가지 모드로 구성되며 전문 지식 업무와 장시간 에이전트 실행에 최적화된 것이 특징이다. GPT-5.2는 챗GPT 유료 구독자에게 순차 제공되며 개발자들은 API를 통해 즉시 이용할 수 있다. GPT-5.1은 앞으로 3개월 뒤 지원이 종료된다. 이번 공개는 단순한 기능 업그레이드를 넘어 최근 제미나이 3의 급성장으로 흔들린 인공지능(AI) 시장 판도에 오픈AI가 다시 우위를 확보하려는 전략으로 풀이된다. 시장조사업체 시밀러웹에 따르면 챗GPT 트래픽 점유율은 1년 전 87%에서 최근 71.3%까지 떨어진 반면, 구글 제미나이는 같은 기간 5.7%에서 15.1%로 뛰어올랐다. 내부적으로도 샘 알트먼 오픈AI 최고경영자(CEO)는 직원들에게 코드 레드를 선언하며 챗GPT 모델 품질 개선을 최우선 과제로 지시한 바 있다. 이번에 공개된 GPT-5.2는 추론·코딩·수학·장문 분석·비전·도구 활용 등 전 영역에서 성능이 향상됐다. 오픈AI 자체 평가에서 사고 모드는 70.9%, 프로 모드는 74.1%를 기록해 인간 전문가와 대등하거나 능가하는 수준으로 평가됐다. 이전 버전 GPT-5의 38.8%와 비교하면 압도적인 성장이다. SWE 벤치마크에서도 80%를 기록하며 구글 제미나이 3 프로(76.2%)를 넘어섰고 앤트로픽 클로드 오퍼스4.5(80.9%)와도 1% 미만 차이에 불과한 것으로 나타났다. 또 사고 모드의 환각 오류율은 6.2%로 전작 대비 약 30% 감소했으며 긴 문서 맥락 이해와 이미지·그래프 분석 능력, 다단계 업무 처리 능력도 상향됐다. 복잡한 논리·수학 문제 해결 과정에 있어서도 이전보다 38% 적은 오류를 냈고 추론·코딩·과학 벤치마크에서도 최고치를 기록했다. 개발자들을 위한 API 측면에서는 추론 강도를 선택할 수 있는 다섯 단계의 옵션을 제공해 복잡한 프로젝트 수행 능력을 강화했다. 오픈AI 피지 시모 최고제품책임자(CPO)는 "GPT-5.2는 스프레드시트 제작, 프레젠테이션 구성, 코드 작성, 이미지 이해, 장문 맥락 추론, 도구 활용 등 실제 업무에서 큰 경제적 가치를 제공하도록 설계됐다"고 설명했다. 이번 공개는 오픈AI가 빠른 속도로 AI 모델을 출시하는 전환점으로 평가된다. GPT-5.1 발표 후 불과 한 달 만의 출시로, 이는 챗GPT 서비스를 시작한 2022년 이후 가장 짧은 주기다. 월스트리트저널과 여러 외신은 오픈AI가 내부 비상 상황 속에서 제미나이 3 프로의 벤치마크 공세를 의식해 GPT-5.2 출시 일정을 당긴 것으로 분석했다. 이번 GPT-5.2 공개로 오픈AI·구글·앤트로픽 간 경쟁이 한층 격렬해질 전망이다. 한편 오픈AI 내부에서는 고도화된 추론 모델 중심 전략이 높은 연산 비용 부담으로 이어질 수 있다는 우려도 제기되고 있다. 업계에서는 오픈AI의 추론 비용 상당 부분이 클라우드 이용료가 아닌 현금으로 지불되고 있다는 관측도 나온다. 오픈AI는 "더 효율적인 모델 구조와 강화된 성능을 통해 동일 비용 대비 더 높은 지능을 제공하는 방향으로 나아가고 있다"며 "앞으로도 안전성과 신뢰성을 강화하고 사용자가 기대하는 품질을 꾸준히 발전시켜 나가겠다"고 밝혔다.

2025.12.12 10:08한정호 기자

배스트데이터 "AI 경쟁력, 학습 아닌 추론 중심 데이터 구조가 결정한다"

"기업이 그래픽처리장치(GPU) 구축에 막대한 비용을 투입해도 인공지능(AI) 학습에만 활용해서는 실제 성과와 연결되지 않습니다. 앞으로의 경쟁력은 추론 중심 데이터 활용 구조를 얼마나 빨리 갖추느냐에 달려 있습니다." 배스트데이터 송성환 이사는 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 AI 시대 데이터 플랫폼의 중요성에 대해 이같이 밝혔다. 송 이사는 올해 AI 시장 변화의 핵심 키워드를 추론 확장으로 규정했다. 또 최근 GPU 세대 교체 주기가 빨라지고 모델링 개발 속도가 비약적으로 높아지는 가운데 기업들이 여전히 학습 중심 사고방식에 갇혀 있다고 지적했다. 그는 "데이터 활용성이 뒷받침되지 않으면 AI 투자 대비 기업 생산성은 올라가지 않는다"며 실시간 서비스와 맞닿은 AI 데이터 파이프라인의 중요성을 강조했다. 특히 AI 활용을 위한 데이터 파이프라인을 입수·가공·저장이 아닌 사용자·에이전트가 즉시 활용할 수 있는 마지막 액션 단계까지 이어지는 구조로 재정의해야 한다고 주장했다. 샘플링 데이터나 가공 데이터로 학습을 수행하는 것을 넘어 고객 요청에 대한 즉각적 응답성과 실시간 추론이 핵심이라는 설명이다. 송 이사는 이같은 요구를 해결하기 위한 배스트데이터의 'AI 운영체제(OS)' 전략을 소개했다. 배스트데이터는 창립 초기 스토리지 기업으로 출발해 현재는 데이터 수집부터 변환·쿼리·임베딩·검색증강생성(RAG)까지 연결하는 AI 데이터 플랫폼으로 영역을 확장했다. 배스트데이터는 AI OS를 기반으로 어떠한 AI 인프라와 솔루션 환경에서든 투입된 데이터를 자동 변환하고 대형 클라우드 서비스 사업자(CSP) 및 엔비디아가 제공하는 서비스와의 직접 연동과 아웃풋을 창출한다. 배스트데이터 핵심 기술은 독자적으로 개발한 '분리 자원 공유 구조(DASE)' 아키텍처다. DASE는 컨트롤러와 데이터 노드가 완전히 분리된 구조로 기업의 모든 데이터 풀을 공유한다. 이를 통해 장애가 발생해도 운영 영향이 없고 스토리지 컨트롤러·쿼리 엔진·데이터 엔진 등 다양한 역할을 하나의 노드에 유연하게 배치할 수 있도록 지원한다. 이 구조는 최근 글로벌 벤더들이 뒤따라 채택하고 있는 방식이라는 게 송 이사의 설명이다. DASE 위에는 '엘리멘트 스토어'라는 통합 데이터 레이어가 구축돼 있다. 이는 정형·비정형·반정형 데이터를 어떤 프로토콜로 받아도 동일한 방식으로 저장·관리할 수 있도록 설계된 구조다. 투입된 데이터는 자동으로 표준 데이터베이스(DB) 포맷으로 변환할 수 있고 빠른 인덱싱을 위한 카탈로그 기능도 제공해 실시간 데이터 쿼리·분석을 지원한다. 아울러 배스트데이터는 DB 기능을 OS 레벨에서 기본 제공한다. 사용자는 별도 설치 없이 콘솔에서 몇 번의 클릭만으로 스키마와 테이블을 구성할 수 있다. 주요 쿼리 엔진이 내장돼 데이터 이동 없이 데이터 앞쪽에서 직접 연산을 수행할 수 있다. 벡터 네이티브 DB 기능도 포함돼 있어 멀티모달 AI·검색증강생성(RAG)·임베딩 서비스 구축에 필요한 모든 요소를 단일 플랫폼으로 통합했다. 아울러 '싱크엔진', '인사이트엔진', 멀티 콘텍스트 프로토콜(MCP) 오퍼레이터 등도 단일 플랫폼 내에서 서비스한다. 해당 기능들은 외부 솔루션, 내부 스토리지, 로그·이벤트 데이터 등 다양한 소스를 자동 통합하고 여러 AI 모델을 OS 수준에서 연동해 엔드투엔드 AI 파이프라인 자동화를 구현한다. 이러한 기술력을 앞세워 글로벌 시장에서 가파른 성장세를 보이고 있다. 배스트데이터는 올해 포브스 'AI 50'에 선정됐으며, 세계 최대 GPU 클라우드 기업 중 하나인 코어위브가 약 2조5천억원 규모의 투자를 단행해 데이터 플랫폼으로 채택했다. 송 이사는 "AI 운영의 성패는 데이터를 얼마나 빠르고 일관되게 활용 가능한 형태로 전환하느냐에 달려 있다"며 "이 전환의 모든 과정을 하나의 데이터 플랫폼 OS로 통합해 기업이 AI 생산성을 극대화할 수 있도록 지원하겠다"고 강조했다.

2025.12.11 16:15한정호 기자

IBM, 16조원에 컨플루언트 인수…AI 시대 실시간 데이터 패권 노린다

IBM이 인공지능(AI) 시대 핵심 자원으로 떠오른 실시간 데이터 시장을 선점하기 위해 컨플루언트를 품고 기업용 AI 경쟁력 강화에 박차를 가한다. 9일 월스트리트저널(WSJ)에 따르면 IBM은 실시간 데이터 전문기업 컨플루언트를 주당 31달러(약 4만5천원), 총 110억 달러(약 16조원) 규모에 인수하기로 합의했다. 이번 거래는 IBM이 최근 수년간 단행한 인수 중 최대 규모로, 실시간 데이터 스트리밍 플랫폼을 통해 AI 서비스 전반의 성능과 속도를 끌어올리려는 전략으로 풀이된다. 컨플루언트는 대규모 AI 모델이 사용하는 실시간 데이터 스트림을 관리·처리하는 기술을 제공하는 기업으로, 리테일·금융·테크 산업에서 수요가 급증하고 있다. AI 추론 과정에서 발생하는 방대한 데이터 흐름을 실시간으로 처리해야 하는 기업에게는 필수적 기술로 자리 잡았다. 이번 인수 소식이 알려지자 컨플루언트 주가는 장중 30% 가까이 급등했다. IBM은 이번 인수를 통해 기존의 하이브리드 클라우드·자동화·데이터 플랫폼에 컨플루언트 기술을 통합하며 기업용 스마트 데이터 플랫폼을 구축할 계획이다. AI를 활용하는 모든 애플리케이션에 대해 실시간 정제 데이터 접근성을 높인다는 목표다. 컨플루언트는 이미 앤트로픽·아마존웹서비스(AWS)·구글 클라우드·마이크로소프트(MS) 등 주요 클라우드·AI 기업들과 협력해 왔으며 6천500곳 이상의 고객사를 보유하고 있다. IBM과도 지난 5년 동안 일부 솔루션 영역에서 파트너십을 이어온 바 있다. IBM은 최근 AI 중심 사업 재편에 속도를 내고 있다. 2023년 앱티오, 지난해 하시코프 인수에 이어 올해 컨플루언트를 품으면서 AI·클라우드·자동화 생태계 전반을 빠르게 확장 중이다. 또 IBM은 사내에서 AI 에이전트 도입을 가속해 수백 명의 HR 업무를 대체하는 등 AI 기반 조직 전환을 추진하고 있다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "컨플루언트 인수를 통해 기업들이 생성형 AI와 에이전틱 AI를 더 빠르고 효과적으로 배치할 수 있도록 지원할 것"이라고 말했다.

2025.12.09 14:51한정호 기자

삼성 세계 최초 12나노급 GDDR7 대통령상…추론 AI 시장서 '각광'

삼성전자의 최첨단 GDDR7 D램이 국가 산업경쟁력 강화에 기여하는 미래전략 기술로 인정 받았다. 해당 D램은 업계 최초로 12나노미터(nm)급 미세 공정을 적용한 고성능·고용량 그래픽 D램으로, 엔비디아 등이 주목하는 추론 AI 시장에서 핵심 역할을 담당할 것으로 관측된다. 삼성전자는 3일 서울 코엑스에서 개최되는 '2025 코리아 테크 페스티벌'에서 12나노급 40Gbps 24Gb GDDR7 D램으로 2025 대한민국 기술대상 대통령상을 수상했다. GDDR은 그래픽 처리에 특화된 D램으로, 일반 D램 대비 대역폭이 높아 한 번에 더 많은 데이터를 전송할 수 있다. GDDR7은 현존하는 GDDR 중 가장 최신 세대에 해당한다. GDDR7은 AI 시장에서 핵심 메모리로 빠르게 자리매김하고 있다. 특히 AI 경쟁의 초점이 기존 학습에서 추론으로 넘어가면서 GDDR7의 가치는 더욱 부각되는 추세다. AI 학습이 더 높은 메모리 용량 및 대역폭을 요구하는 데 비해, AI 추론은 효율성을 더 중시하기 때문이다. GDDR7은 고대역폭메모리(HBM) 대비 비용 효율, 전력효율, 경량성에서 강점을 가지고 있다. AI 시장의 주요 플레이어들 역시 GDDR7을 주목하고 있다. 엔비디아는 지난 9월 공개한 추론 전용 GPU인 루빈 CPX(Rubin CPX)'에 128GB GDDR7을 탑재할 것이라고 밝혀, GDDR7의 시장 입지를 한층 강화할 전망이다. 이에 삼성전자도 엔비디아와의 협력을 통해 시장 주도권을 공고히 할 것으로 관측된다. 김동원 KB증권 연구원은 "최근 엔비디아가 삼성전자에 GDDR7 공급 확대를 대폭 요청해 평택 라인의 생산능력이 두 배 이상 확대될 것"이라며 "가격 프리미엄을 받고 있는 GDDR7이 향후 D램 사업의 수익성 개선을 견인할 것으로 전망한다"고 밝혔다. 한편 삼성전자는 올해 초부터 12나노급 GDDR7 D램 양산에 나섰다. 그래픽 D램 중 최초로 24Gb를 구현했으며, 최대 42.5Gbps 속도 및 총 1.92TB/s 대역폭을 지원한다. 또한 고열전도성 신소재 적용으로 패키지 열저항 특성을 이전 GDDR7 제품 대비 11% 개선하는 데 성공했다.

2025.12.03 11:07장경윤 기자

"AI는 버블이 아닌 현실... 퀄컴, 미래 위한 성능 갖출 것"

[샌디에이고(미국)=권봉석 기자] "AI는 버블이 아니라 추론을 바탕으로 한 본격적인 활용 단계에 진입하고 있다. 퀄컴은 CPU·NPU·메모리 대역폭 전반에서 확실한 기술 리더십을 기반으로 PC 시장의 변화를 주도할 것이다." 11일(이하 현지시간) 오후, 미국 캘리포니아 주 샌디에이고 소재 퀄컴 본사에서 국내 기자단과 마주한 케다르 콘답 퀄컴 수석부사장 겸 컴퓨트·게이밍 본부장이 이렇게 강조했다. 케다르 콘답 수석부사장은 퀄컴 스냅드래곤 PC와 크롬북 생태계 확장, 휴대용 게이밍 기기 카테고리를 총괄하는 인사다. 퀄컴이 자체 개발한 Arm 호환 새 CPU 코어 '오라이언'(Oryon)을 탑재한 스냅드래곤 X 엘리트 플랫폼 개발과 상용화를 주도했다. 그는 이날 "앞으로 온디비아스 AI는 산업별 특화 모델 중심으로 확산될 것이며, 더 복잡하고 무거운 AI 모델에 대비할 수 있도록 강력한 성능을 가진 NPU와 메모리 여유폭(헤드룸)을 제공하는 것이 진정한 미래 대비 설계"라고 설명했다. "스냅드래곤 X2 시리즈 강점? 성능·배터리·AI" 케다르 콘답 수석부사장은 스냅드래곤 X2 시리즈의 강점으로 강력한 성능과 긴 배터리 지속시간, 80 TOPS 급 NPU를 이용한 AI 성능과 폼팩터 다양성을 꼽았다. 그는 "퀄컴은 지난 해 출시한 스냅드래곤 X 엘리트/플러스 등 3개 제품 모두에서 45 TOPS급 NPU와 동일한 DDR 메모리 대역폭을 적용해 모든 가격대에서 비슷한 품질의 사용자 경험을 제공했다"고 밝혔다. 이어 "향후 더 무거운 AI 모델과 산업별 특화 응용프로그램까지 원활하게 수행할 수 있도록 NPU 성능과 메모리 대역폭을 충분히 확보했다. 이는 미래 대비 전략의 일환으로, 수년 후 AI 기술 발전 속도까지 감안한 설계라는 의미다. "AI, 실제 생활에 변화... 퀄컴도 AI 적극 활용" 케다르 콘답 본부장은 AI가 실제 업무와 생활을 어떻게 바꾸고 있는지 다양한 사례도 소개했다. "법률 분야에선 스폿드래프트(SpotDraft) 애플리케이션이 퀄컴 NPU 최적화로 변호사의 요약·의견 생성 업무를 가속하고 있으며, 개인 창작 영역에서는 텍스트를 기반으로 한 동영상 생성이 이미 실용 단계에 진입했다." 그는 "퀄컴 내부에서도 전사적으로 회의 노트 요약, 코드 작성, 고객 이슈 분석 등 모든 조직이 AI를 적극 활용하고 있다"며, AI가 업무 효율과 생산성 향상에 이어지고 있다고 밝혔다. AI 변화 대응 위해 협업·성능 강화 중시 케다르 콘답 수석부사장은 "AI는 현재 전례 없는 속도로 변화하고 있으며 이를 위해 애니싱LLM, 넥사 등 툴·프레임워크 업체와의 협업, 모델 종속성을 줄이는 오케스트레이션 레이어 구축, 더 무거운 모델을 위한 충분한 성능 확보에 중점을 뒀다"고 말했다. 이어 "현재 PC 플랫폼에서 80 TOPS 수준의 NPU를 제공하는 곳은 퀄컴뿐이며 향후 등장할 차세대 AI 워크로드도 기존 하드웨어에서 안정적으로 구동될 수 있다. 이것이 바로 '미래 대비' 전략"이라고 부연했다. 기기 원격 관리 '스냅드래곤 가디언', 완전한 통제권 제공 퀄컴은 스냅드래곤 X2 플랫폼에 기기 원격 제어와 위치 기반 정보를 바탕으로 응용프로그램 실행 여부를 제어하는 '스냅드래곤 가디언' 기능을 추가했다. 케다르 콘답 수석부사장은 "스냅드래곤 가디언은 기업 내 IT 관리자와 일반 소비자 대상으로 자녀 보호를 위한 지오펜싱, 기기 위치 확인, 분실 추적 같은 관리 기능을 지원한다"고 설명했다. 이어 "기업 환경에서는 악성 행위 탐지 시 원격 조치가 가능하며, 전원이 다시 연결되면 즉시 관리자가 원하는 명령을 수행할 수 있다. 다만 이 과정에서 소비자와 기업 모두에게 기기 관리에 대한 완전한 통제권을 제공하는 것이 퀄컴 목표"라고 설명했다. "AI 보편화 곧 온다... 이를 위한 '미래 대비' 설계 적용" 케다르 콘답 수석부사장은 "아직 많은 사람들이 실감하지 못하고 있지만 AI는 아이부터 어른까지 모든 소비자의 일상 속으로 스며들 것"이라고 내다봤다. 이어 "아주 가까운 시점에 AI는 우리가 매일 사용하는 모든 기기 위에서 자연스럽게 동작하며 삶을 크게 향상시킬 것이다. 그리고 이러한 환경을 가능하게 한 것이 바로 NPU, 메모리, CPU 등 하드웨어 설계 단계에서부터 고려한 '미래 대비' 전략"이라고 강조했다.

2025.11.20 09:00권봉석 기자

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평 기자

튜링 논문, 국제 자연어처리 학회 'EMNLP 2025'서 채택

추론 AI 에이전트 개발사 튜링(대표 최민규)의 논문이 자연어처리(NLP) 학회인 'EMNLP 2025'에 채택됐다고 11일 밝혔다. EMNLP은 국제언어학회(ACL·Association for Computational Linguistics) 산하 세계 3대 자연어처리 학회 중 하나다. 글로벌 빅테크 기업과 주요 연구기관의 최신 AI 연구 성과를 평가한다. 특히 실용성을 강조해 실무 적용 가능한 연구를 중심으로 엄격하게 심사하며 매년 높은 경쟁률을 기록하고 있다. 튜링의 논문은 튜링 AI팀(김정훈·남진우·조근식)이 주도한 연구로, EMNLP 인더스트리 트랙에 채택됐다. 이 트랙은 학술적 기여보다 실제 산업 현장에서의 효과성을 기준으로 평가하는 부문으로 지난해에는 애플·엔비디아·구글 등 글로벌 빅테크 기업들의 논문이 다수 게재됐다. 특히 이번에 참여한 기업 중 국내 스타트업 단일 기업 논문으로는 튜링이 유일하게 채택됐다. 튜링 AI팀 남진우 팀장을 중심으로 김정훈 연구원, 조근식 연구원이 참여한 이번 논문은 'Computational Blueprints: Generating Isomorphic Math Problems with Large Language Models'이다. 대형언어모델(LLM)을 활용해 대량의 수학 유사 문항을 생성하는 새로운 방법론인 'CBIT(Computational Blueprint for Isomorphic Twins)' 프레임워크를 제안했다. 지금까지 LLM으로 생성된 문항들이 교육적 타당성이 보장되지 못해 실제 교육산업에 활용되지 못한 점을 주목, AI가 생성한 수학 문항의 실제 교육 현장 적용 가능성을 입증했다. 튜링은 학생들을 대상으로 CBIT 문항 생성 실험을 진행해 높은 생성 정확도와 효율성을 달성했다. 초등학교 4학년부터 고등학교 3학년을 대상으로 진행된 실험은 기존 대비 생성 정확도를 최대 83배까지 향상시키고, 생성 비용은 최대 42.3배 절감할 수 있다는 결과를 보였다. 동시에 누적 18만 건 이상의 상호작용 기록 중 오류 신고율이 전문가가 직접 제작한 문항보다 20% 낮은 것으로 나타나 AI가 생성한 수학 문항의 실질적인 교육 적용이 가능함을 뒷받침했다. 남진우 튜링 AI팀 팀장은 “이번 연구를 통해 튜링은 학생의 학습 효율을 높이기 위해 문제를 추천하던 단계를 넘어, 문제를 스스로 생성하고 검증할 수 있는 AI를 구현했다”며 “앞으로도 튜링은 AI 중심의 개인화된 교육 혁신을 주도하며 현장에 가장 효과적인 방식으로 적용해 STEM 학습에 새로운 물결을 만들어갈 것”이라고 말했다. 튜링은 지난 8월 이번 튜링 AI 모델이 적용된 이공계 특화 AI 에이전트 'GPAI'를 출시했다. 인도와 미국 등지에서 이공계 학생들을 중심으로 사용자를 빠르게 확보하고 있다. 향후 튜링은 추론 AI 에이전트 개발사로서 교육을 넘어 AI 기반 공학 시뮬레이션과 모델링 기능을 탑재해 박사와 교수진도 폭넓게 활용할 수 있는 연구 도구로 발전시킬 계획이다. 최민규 튜링 대표는 “이번 EMNLP 논문 채택은 튜링이 추론 AI 에이전트 개발사로서 선도적인 기술력을 가졌다는 것을 증명하는 것이다”며 “튜링은 논리·추론·수학 특화 AI에 지속적으로 집중하며 정확성을 무기로 글로벌 시장을 공략할 것이다”고 말했다.

2025.11.11 10:53백봉삼 기자

"팔리든, 합치든, 함께하든"... AI 반도체, 세 갈래 생존전 시작됐다

AI 반도체 시장이 대전환기에 들어섰다. AI 모델의 단계가 '훈련(Training)'에서 '추론(Inference)'으로 이동하며, 글로벌 빅테크들은 GPU(그래픽처리장치) 이후 시대를 준비하고 있는 것이다. 이에 국내외 AI반도체 스타트업은 인수, 컨소시엄, 고객동맹형으로 생존을 모색하고 있다. 7일 반도체 업계에 따르면 최근 AI 반도체 산업의 무게중심이 훈련용 칩에서 추론용 칩으로 이동하고 있다. 챗GPT를 비롯한 생성형 AI의 확산으로, 서비스 제공 기업들이 대규모 학습보다 실시간 응답 효율성을 높이는 데 집중하면서다. 추론형 칩이 주목받는 이유로 전력 효율과 운영비 절감 효과가 꼽힌다. 대모델 학습이 일회성 작업이라면, 추론은 상시 반복되는 과정이어서 누적 전력 소모가 훨씬 크기 때문이다. 특히 글로벌 데이터센터들이 에너지 절감과 처리 속도 향상을 동시에 요구하면서, GPU 기반 범용 구조 대신 특정 워크로드에 최적화된 전용 ASIC(맞춤형 반도체) 수요가 급증하고 있다. 이 같은 시장 변화는 AI 반도체 스타트업들의 생존 전략에도 직접적인 영향을 미치고 있다. 시장 전체가 여전히 GPU 중심 구조에 의존하고 있는 상황에서 스타트업들은 독자 노선만으로는 수익성을 확보하기 어렵다고 판단하고 있는 것이다. 이에 따라 일부는 대기업 인수에 나서고, 일부는 컨소시엄이나 고객사 공동 설계 방식으로 기술을 시장 안으로 편입시키는 전략을 택하고 있다. 결국 추론 효율 경쟁이 AI칩 산업 전반의 재편으로 이어지고 있는 셈이다. 거대 기업 품으로… '인수 전쟁' 치열 AI 반도체 스타트업들이 가장 많이 택하는 생존 방식은 대기업 인수다. 유망한 스타트업이 빅테크의 생태계에 편입돼 기술·인력·시간을 동시에 거래하는 형태다. 대표적인 예시가 인텔의 삼바노바 인수 추진이다. 삼바노바는 누적 투자액이 10억 달러를 넘겼지만, 후속 자금 유치가 막히며 매각을 검토하고 있다. AI칩 개발은 테이프아웃 이후 양산까지 3년 이상 걸리고 수천억 원이 투입되는 구조라 독자 생존이 어려운 기업들이 매각 협상에 나서는 사례가 늘고 있다. 빅테크에서도 자체 칩 개발을 위해 인수를 시도 중이다. 엔비디아 의존도를 낮추고, 자체 칩 생태계를 구축하기 위함이다. 올해 상반기 있었던 메타의 퓨리오사AI 인수 시도 역시 같은 맥락이다. 메타는 퓨리오사AI 인수에는 실패했으나, 현재 미국 리보스 인수를 추진하고 있다. 소프트뱅크의 경우 앰페어를 65억달러(약 9조4천600억원)에 인수했으며, AMD는 AI 소프트웨어 최적화 스타트업 브리움을 흡수했다. AI 반도체 업계 관계자는 “AI 반도체 스타트업의 인수는 어느 회사나 투자자들이 기대하는 어떤 성과를 내야하는 냉엄한 현실을 보여주는 예시”라면서도 “한편으로는 AI 반도체가 이전에 없던 분야이기 때문에, 어려운 도전에 대해서 똘똘 뭉쳐 있는 스타트업 팀이 성과를 더 내기 좋은 구조다. 대기업도 그래서 스타트업 인수로 눈을 돌리는 것 같다”고 설명했다. 협력으로 버틴다… 대기업 연합형 생존 모델 확산 두 번째 생존 방식은 대기업 컨소시엄이다. 대기업에 종속되는 인수형과 달리 AI 반도체 스타트업이 대기업과 손잡고 운영을 공유하는 구조다. 해당 방식의 대표적인 예시는 국내 AI 반도체 스타트업 리벨리온이다. 리벨리온은 SK텔레콤, SK하이닉스 등 SK그릅과 함께 국산 AI반도체 개발을 위한 전략적 컨소시엄을 꾸려 상용화에 나섰다. 리벨리온은 이 외에도 KT, 네이버 등 국내 대기업과 협력해 시장을 공략하고 있다. 지난해 투자를 받기 시작한 아람코도 대기업 협력 모델 중 하나로 볼 수 있다. 또한 반도체의 전설 짐 켈러가 있는 텐스토렌트와 LG AI연구원, 삼성전자 간 협력처럼 RISC-V(리스크파이브) 기반 IP와 대형 언어모델(LLM) 최적화를 함께 개발하는 형태도 나타나고 있다. 업계에서는 이러한 대기업 연합형 모델이 스타트업의 자금난을 완화하고 공급망 리스크를 줄이는 현실적 대안으로 보고 있다. 다만 협력 구조가 복잡해지는 만큼 스타트업의 장점인 빠른 의사결정이 다소 늦어진다는 점이 한계로 지목된다. 고객과 함께 만든다… 맞춤형 공동 설계 확산 세 번째 방식은 고객동맹 모델이다. 칩 기업이 클라우드·AI 서비스 사업자 등 실제 수요자와 공동으로 반도체를 설계·최적화하는 형태다. 미국 세레브라스시스템즈는 UAE 국부펀드 계열 G42와 협력해 AI 데이터센터 '콘도르 갤럭시'를 구축했다. 양사는 초대형 인공지능 모델 '자이스(Jais)'의 추론 효율을 높이기 위해하드웨어와 소프트웨어를 함께 최적화하는 공동 개발을 진행하고 있다. 초대형 모델 자이스의 추론 효율을 높이기 위한 하드웨어–소프트웨어 공동 최적화를 진행 중이다. 그록은 생성형 AI 서비스 기업인 퍼플렉시티AI, 캐릭터 AI등과 협력해 응용프로그램인터페이스(API) 기반의 추론 성능을 개선하는 서비스형 추론 모델을 운영하고 있다. 그래프코어는 스태빌리티AI, 마이크로소프트, 델과 협력해 이미지 생성 모델에 최적화된 지능처리장치(IPU) 공동 설계를 추진하고 있다. 한 AI반도체 업계 관계자는 “현재 AI반도체 기업들의 생존 방식은 전략이기도 하지만 산업 구조가 강제한 결과”라며 “칩 개발에만 수천억원의 자금이 필요하고, GPU 중심의 생태계가 이어지고 있기 때문에 독자적으로 살아남기 힘든 산업 구조다”라고 말했다.

2025.11.09 14:14전화평 기자

퀄컴 "모든 분야 커버할 수 있는 기술 기업으로 변화중"

크리스티아노 아몬 퀄컴 CEO는 5일(미국 현지시간) 올 3분기(회계연도 기준 2025년 4분기) 실적 발표 이후 이어진 컨퍼런스 콜에서 "퀄컴은 소비전력 5W에서 500W 범위 전반을 커버하는 기술 기업으로 변화하고 있다"고 밝혔다. 이어 "모바일을 넘어 데이터센터·로보틱스·자동차·웨어러블로 사업 다각화가 진전되고 있으며 모든 분야에서 기술 선도를 위해 노력하겠다"고 덧붙였다. 퀄컴은 10월 말 자체 개발한 오라이온 CPU와 헥사곤 NPU를 조합한 추론 특화 AI 시스템반도체(SoC) 2종, AI200/250을 공개했다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. 크리스티아노 아몬 CEO 역시 "퀄컴은 데이터센터 시장에서 추론 중심 경쟁력 확보에 주력하고 있다. 2020년 첫 제품인 '클라우드 AI 100'을 바탕으로 이미 소프트웨어 생태계는 구축됐고 이를 바탕으로 SoC에서 탑재 카드, 랙으로 이어지는 솔루션을 개발 중"이라고 설명했다. 이어 "AI200 및 AI250은 GPU와 고대역폭메모리(HBM)로 구성된 기존 가속기 구조 대신 DDR 메모리와 PCI 익스프레스 기반 설계로 토큰당 전력 효율과 연산 밀도를 높이기 위해 새로운 아키텍처로 설계 중"이라고 설명했다. 애플은 보급형 아이폰인 아이폰16e와 아이폰 에어에 자체 개발한 5G 모뎀인 C1을 탑재하고 있다. 아카시 팔키왈라 퀄컴 CFO/COO는 "올 3분기 핸드셋 부문 매출 중 상당수는 안드로이드 프리미엄 고객사 중심이며 애플의 비중은 제한적"이라고 설명했다. 크리스티아노 아몬 CEO는 "삼성전자에 공급되는 모바일용 SoC 스냅드래곤의 비중은 올해 출시된 갤럭시S25에서는 100%이지만 내년 출시될 갤럭시S26에서는 75% 가량이 될 것"이라고 전망했다. 최근 삼성전자와 구글이 출시한 확장현실(XR) 헤드셋 '갤럭시 XR'은 퀄컴 스냅드래곤 XR2+ 2세대 플랫폼 기반으로 개발됐다. 크리스티아노 아몬 CEO는 "AI 스마트 글래스 시장의 확산이 가속화되고 있으며, XR이 단순히 AR·VR 기기에 국한되지 않고, AI가 내장된 개인형 기기 시장으로 확장되고 있다"고 설명했다. 이어 "스마트 글래스, 워치, 이어버드 등 다양한 폼팩터의 AI 웨어러블 디바이스가 새로운 대형 시장을 형성하고 이런 트렌드가 퀄컴의 핵심 성장 기회가 될 수 있다"고 덧붙였다.

2025.11.06 09:25권봉석 기자

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석 기자

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤 기자

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

HBM4 출하 경쟁 '과열'...엔비디아 수급 전략이 공급망 핵심 변수

"또 실패는 없다"…구글이 AI 글래스 '킬러앱'에 카톡 찜한 이유

"피지컬 GPT, 한국이 선도할 수 있다"

저평가주 외인 매수세에...SK텔레콤 주가 고공행진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.