• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'디 올 뉴 팰리세이드 2.5 터보 가솔린'통합검색 결과 입니다. (326건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[ZD SW 투데이] 아이티센클로잇, '화성 AI 자율주행 허브' 공로상 수상 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆ 아이티센클로잇, 화성 AI 자율주행 허브 공로상 수상 아이티센클로잇은 '화성 AI 자율주행 허브' 개소식에서 자율주행 모빌리티 운영 플랫폼 인프라 구축에 기여한 성과를 인정받아 공로상을 수상했다. 이번 수상은 아이티센클로잇이 화성시 서부권 일대에서 진행되는 국내 최대 규모의 도심 자율주행 실증 사업에서 확장성과 초저지연성을 동시에 갖춘 하이브리드 클라우드 인프라를 성공적으로 설계·구축한 공로를 인정받은 결과다. 화성 AI 자율주행 허브는 향후 교통약자 이동지원, 수요응답형 대중교통 등 8대 공공분야 자율주행 서비스를 실증하게 되며, 아이티센클로잇이 구축한 인프라는 이러한 서비스들이 안정적으로 구동되고 확장될 수 있는 중추적인 역할을 담당하게 된다. ◆ 뉴엔AI, 아시아·태평양 고성장 기업 3년 연속 선정 뉴엔AI가 영국 파이낸셜타임즈와 글로벌 리서치 기관 스태티스타가 공동 선정한 '2026 아시아·태평양 지역 고성장 기업 500'에 선정됐다. 뉴엔AI는 22년간 축적된 비정형 구어체 데이터 분석 노하우와 이를 AI와 결합한 기술 스택을 보유하고 있다. 자체 개발한 비정형 데이터 특화 파운데이션 모델 '퀘타(Quetta) LLMs'과 독립적인 검색 증강 생성(RAG) 아키텍처를 구축해 기업 데이터 보안과 분석의 신뢰도를 동시에 확보했다. 더불어 이미지와 영상 데이터까지 통합 분석할 수 있는 멀티모달 LLM' 구축 및 운영하며 소비자의 시각적 트렌드까지 입체적으로 파악해 더욱 정밀한 AI 트렌드 분석 서비스를 제공하고 있다. ◆디토닉, 주요 서비스 4종 GS인증 1등급 선정 디토닉은 지오하이커, 디닷허브 , 디닷이뷰에 이어 데이터 연계 솔루션 '디닷허브 시티링크 에이전트'(이하 시티링크)가 GS인증 1등급 인증을 받았다고 밝혔다. 시티링크는 지자체 및 기관의 스마트시티 데이터를 표준화된 방식으로 안전하게 전송·연계하는 핵심 역할을 수행한다. 이를 통해 광역단체 간은 물론, 광역단체와 기초단체 사이에서도 심리스한 데이터 통합을 지원한다. 이들 4개 SW를 통해 디토닉은 복잡한 데이터를 실시간으로 수집·가속·분석하고 표준화된 방식으로 전송하는 엔드투엔드 AI 데이터 파이프라인 구축을 위한 기술적 완결성을 확보했다고 밝혔다. ◆솔트웨어, 데이터브릭스 AI 데이 서울 2026 참가 솔트웨어는 데이터브릭스 AI 데이 서울 2026에 부스 파트너사로 참가했다. 이번 부스에서 솔트웨어는 데이터브릭스 지니를 활용한 AI 서비스 확장 데모를 중심으로 분산 데이터 환경 통합부터 AI 전환, 생성형 AI 보안 대응까지 통합적으로 지원하는 솔루션을 현장에서 선보였다. 솔트웨어는 A 인프라 설계부터 플랫폼 구축·운영까지 아우르는 통합 기술 솔루션을 제공한다. 레거시 시스템을 운영 중인 제조·R&D 조직, 복합 데이터 환경(PLM·ERP 등)을 가진 기업, AI 도입 초기 단계 조직 등 다양한 기업 환경에 맞는 고객 환경에 맞춘 도입 로드맵을 제시하고 있다. ◆에이아이웍스, 국내 카드사 '비대면 기업카드 심사 고도화' 프로젝트 수주 에이아이웍스가 국내 주요 카드사 '비대면 기업카드 신청 및 심사 프로세스 고도화' 프로젝트를 수주했다. 이번 프로젝트는 비대면 채널에서의 기업카드 신청·심사·발급 전 과정에 AI 기술을 적용해 업무 효율과 고객 경험을 동시에 혁신하는 것을 목표로 한다. 에이아이웍스는 이번 프로젝트에서 비대면 인증부터 심사·발급까지 모든 과정을 아우르는 지능형 프로세스를 구축한다. 구체적으로 ▲비대면 카드 신청 및 접수 기능 개선 ▲기업 정보 처리 자동화 ▲심사 및 발급 프로세스 자동화 ▲심사 지원 AI 서비스 개발 등을 포괄한다.

2026.04.02 18:10남혁우 기자

디토닉 시티링크, TTA 'GS인증 1등급' 인증 획득

디토닉(대표 전용주)은 자사의 데이터 연계 솔루션 '디닷허브 시티링크 에이전트'(이하 시티링크)가 한국정보통신기술협회(TTA)로부터 GS인증 1등급을 인증받았다고 2일 밝혔다. 시티링크는 지자체 및 기관의 스마트시티 데이터를 표준화된 방식으로 안전하게 전송·연계하는 핵심 역할을 수행한다. 이를 통해 광역단체 간은 물론, 광역단체와 기초단체 사이에서도 심리스(Seamless)한 데이터 통합을 지원한다. 디토닉은 이번 인증 이전에도 ▲시공간 데이터 처리를 가속화해 현장 데이터를 AI에 즉시 공급하는 '지오하이커' ▲온톨로지 기술을 활용한 AI 데이터 플랫폼 '디닷허브' ▲대규모 디스플레이 장비를 제어하는 인텔리전스 디스플레이 플랫폼 '디닷이뷰'가 GS 1등급 인증을 받았다. 이들 4개 SW를 통해 디토닉은 복잡한 데이터를 실시간으로 수집·가속·분석하고 표준화된 방식으로 전송하는 'End-to-End' AI 데이터 파이프라인 구축을 위한 기술적 완결성을 확보했다. 이들 기술은 이기종 시스템 간 결합이 필수적인 스마트시티, 스마트팩토리, 스마트리테일, 스마트방산 등 초연결성이 요구되는 모든 산업 분야로 확장 가능하다. 특히 서로 다른 도메인에서도 표준화된 '유니버설 데이터 인터페이스'를 제공해 데이터 병목 현상을 해결하고, AI 도입 속도를 획기적으로 높이는 핵심 인프라 기능을 한다. 시장에서의 실질적인 기대효과도 크다. GS 1등급 SW는 ▲국가·공공기관 우선구매 대상 지정 ▲조달청 나라장터 등록 시 가점 부여 ▲국가·공공기관 수의계약 자격 취득 등 제도적 우선권을 부여받는다. 디토닉은 이를 발판으로 국가 차원의 AI 데이터 인프라 구축 사업을 주도하며 시장 지배력을 강화할 계획이다. 디토닉 관계자는 “이번 인증은 데이터의 시작과 끝을 책임지는 디토닉의 통합 솔루션 완성도를 국가로부터 인정받은 것”이라며 “검증된 4대 핵심 기술의 유기적인 연계를 통해 고객이 AI 데이터 중심의 의사결정을 가장 빠르고 안전하게 내릴 수 있도록 지원하겠다”고 말했다.

2026.04.02 10:08백봉삼 기자

디엘지, 넥스트엘레베이션과 스타트업 발굴·육성 협력

법무법인 디엘지(DLG Law Corporation, 대표변호사 조원희·안희철)가 넥스트엘레베이션(대표 마영민)과 함께 혁신적인 아이디어와 기술력을 보유한 스타트업을 발굴하고 육성하기 위해 손을 잡았다. 두 기관은 지난 27일 서울 강남구에 위치한 법무법인 디엘지에서 '스타트업 발굴 및 육성을 위한 전략적 업무협약(MOU)'을 체결했다. 이번 협약은 넥스트엘레베이션의 우수한 창업 인프라와 법무법인 디엘지의 전문 법률 역량을 결합, 유망 스타트업이 안정적인 토대 위에서 창업 활동 전반에 전념할 수 있게 협력하는 것을 목적으로 했다. 전문 법률 자문부터 글로벌 진출 리스크 검토까지 협약을 통해 양 기관은 스타트업 생태계 활성화를 위한 5가지 핵심 분야에서 적극 협력한다. 구체적으로 ▲육성 기업 대상 맞춤형 법률 자문 및 지원 ▲스타트업 역량 강화를 위한 법무·규제·IP(지식재산권) 교육 프로그램 공유 ▲투자 유치 및 글로벌 진출 시 법적 리스크 사전 검토 ▲액셀러레이팅 프로그램 내 법률 멘토링 및 세미나 공동 기획 등이다. 특히 양측은 스타트업들이 흔히 겪는 규제 해소 문제와 해외 시장 진출 시의 법률적 걸림돌을 사전에 방지할 수 있게 인적·물적 자원을 아낌없이 교류하기로 합의했다. 양 기관 전문 역량 결합으로 시너지 창출 법무법인 디엘지는 스타트업과 기술 벤처 자문에 특화한 로펌이다. 인공지능(AI), 블록체인, 핀테크 등 첨단 산업 분야에서 깊이 있는 전문성을 자랑한다. 특히 법무법인 디엘지는 이공계 출신의 변호사들이 다수 포진, 기술 이해도가 높으며, 이를 바탕으로 다양한 산업군을 폭넓게 이해하고 실질적인 멘토링을 제공할 수 있다는 차별화된 강점을 지니고 있다. 단순한 법률 대리인을 넘어 기업의 '법적 안전망'으로서 글로벌 네트워크를 활용해 한국 기업의 해외 진출과 복잡한 규제 대응을 돕는 전략적 파트너 역할을 하고 있다. 이번 협약의 파트너인 넥스트엘레베이션은 혁신적인 사업 론칭을 꿈꾸는 창업자들을 위해 비즈니스 아이디어 구상부터 성장에 필요한 전 과정을 지원하는 액셀러레이터다. 특히 유망한 스타트업을 조기 발굴, 밀착형 1대 1 맞춤 멘토링과 투자 유치 기회를 제공하며 창업 생태계의 가교 역할을 수행하고 있다. 성장 단계별 맞춤형 지원 시스템 구축 양 기관은 협약 체결을 기점으로 스타트업의 창업 초기 단계부터 스케일업에 이르기까지 전 주기에 걸친 장기적인 파트너십을 이어갈 예정이다. 이를 통해 스타트업이 복잡한 법적 리스크에 대한 부담을 덜고, 오로지 기술 혁신과 비즈니스 성장에만 집중할 수 있는 건강한 창업 환경을 조성하는 데 앞장설 계획이다. 법무법인 디엘지 안희철 대표변호사는 “단순한 법률 대리인을 넘어 스타트업의 탄생부터 글로벌 시장 진출까지 전 과정을 함께하는 '법적 안전망' 역할을 수행할 것”이라며 “넥스트엘레베이션의 우수한 육성 인프라와 디엘지의 전문성이 시너지를 내 혁신 기업들이 규제나 리스크에 가로막히지 않고 글로벌 유니콘으로 성장할 수 있게 적극 지원하겠다”고 밝혔다.

2026.03.31 14:21방은주 기자

[카드뉴스] AI가 똑똑해지면 메모리가 필요없어질까

안녕하세요, AMEET 기자입니다. 구글이 최근 발표한 '터보퀀트'라는 기술이 반도체 시장에 작은 파장을 일으켰어요. 이 기술은 AI가 기억해야 할 데이터를 무려 6배나 압축할 수 있다고 하는데요, 마치 진공팩으로 옷을 꾹꾹 눌러 담는 것처럼 메모리 사용량을 대폭 줄일 수 있다는 거예요. 이 소식이 전해지자 SK하이닉스는 6.23%, 마이크론은 5.70%, 삼성전자는 4.71% 하락하는 등 메모리 반도체 기업들의 주가가 일제히 떨어졌답니다. 투자자들이 "이제 메모리를 덜 사게 되겠네?"라고 우려한 거죠. 하지만 전문가들은 정반대로 생각하고 있어요. 데이터를 압축하면 AI가 더 빨리 움직이게 되고, 빨라진 만큼 더 많은 데이터를 처리하게 된다는 논리예요. 마치 고속도로 차선을 늘리면 차가 더 많이 다니는 것과 같은 원리인데요. 실제로 메모리 회사들은 2026년 생산 물량이 이미 다 예약된 상태라고 해요. 게다가 앞으로는 빠른 메모리(HBM)와 저렴한 메모리(CXL)를 적재적소에 섞어 쓰는 방식이 대세가 될 거라고 하니, 메모리 수요는 오히려 다양해질 것 같아요. 결국 압축 기술은 메모리를 줄이는 게 아니라 더 효율적으로, 그리고 더 많이 쓰게 만드는 마법 같은 기술인 셈이에요. 기술이 발전할수록 메모리의 역할은 더 중요해질 거라는 게 전문가들의 공통된 의견이랍니다. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.28 08:04AMEET

이글루, 하이브리드 XDR 플랫폼 '스파이더 이엑스디' GS 인증 획득

인공지능(AI) 기반 보안 운영·분석 플랫폼 기업 이글루코퍼레이션(대표 이득춘)은 하이브리드 확장형 탐지·대응(Hybrid XDR) 플랫폼 '스파이더 이엑스디(SPiDER ExD)'가 GS(Good Software) 인증 1등급과 국가정보원 보안기능확인서를 동시에 획득했다고 27일 밝혔다. 최근 조달청 '우수조달물품' 공식 지정에 이은 이번 성과로, 이글루코퍼레이션은 제품의 신뢰성과 경쟁력을 국가 공인 기관으로부터 다시 한번 인정받게 됐다. SPiDER ExD는 이글루코퍼레이션의 자율형 보안운영센터(Autonomous SOC) 구현을 위한 핵심 솔루션이다. 온프레미스와 클라우드를 아우르는 하이브리드 환경에서 사용자·계정·자산에 대한 가시성을 제공하고, 통합 사용자 인터페이스(UI) 구조에 기반한 일원화된 위협 탐지와 분석, 자동화 대응을 수행한다. 이번 인증 획득은 SPiDER ExD 플랫폼의 핵심 요소인 하이브리드 환경 가시성 확보와 보안 운영·위협 대응 자동화(SOAR) 연동에 기반한 자동 대응의 안정성과 우수성을 검증받은 결과다. 이글루코퍼레이션은 이번 인증 획득을 계기로 국가 및 공공 기관의 국가 망 보안체계(N2SF) 구축 지원에도 속도를 낸다. 현재 본사 내에 공공 클라우드와 차세대 인프라 환경에 부합하는 N2SF 체계를 체험할 수 있는 '실증형 데모룸'을 구축 중이며, 개정된 사이버보안 실태 평가지표에 최적화된 N2SF 핵심 요건 점검 시스템도 선보일 계획이다. 더불어 제로 트러스트 6대 핵심 요소(Pillar)를 아우르는 주요 기업들과의 협업을 통해, 연동 범위도 지속적으로 확대할 방침이다. 이득춘 이글루코퍼레이션 대표는 "SPiDER ExD의 이번 인증 획득은 이글루코퍼레이션의 차세대 기술력이 국가 보안 기준을 완벽히 충족했음을 의미한다"며 "검증된 원천기술을 바탕으로, 공공 및 기업 고객들이 안전하고 지능적인 자율형 보안운영센터를 구축할 수 있도록 전폭적으로 지원하겠다"고 밝혔다.

2026.03.27 21:32김기찬 기자

터보퀀트, AI 메모리 문제 해결할까

최근 공개된 터보퀀트가 인공지능(AI) 메모리 문제를 해결할 지에 관심이 쏠렸다. KAIST는 전기및전자공학부 한인수 교수가 참여한 구글 리서치, 딥마인드, 뉴욕대 공동 연구팀이 인공지능(AI) 모델의 고질적인 한계로 꼽혀온 메모리 과부하 문제를 해결할 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)'를 공개했다고 27일 밝혔다. AI 모델은 입력 데이터를 벡터 형태로 바꾼 뒤, 벡터 간 유사도를 계산해 작동한다. 이 과정에서 고정밀 데이터를 사용하기 때문에 막대한 메모리 자원이 필요한 점이 주요 한계로 지적돼 왔다. 터보퀀트는 이러한 고정밀 데이터를 더 적은 비트로 압축해 표현하는 '양자화' 기술을 활용한다. 소수점 데이터를 정수로 근사하는 방식으로, 핵심 정보는 유지하면서도 저장 용량과 연산 부담을 크게 줄이는 기술이다. 이번 연구에서 터보퀀트는 AI 모델 내부 정보를 효율적으로 압축해 정확도 저하를 거의 없이 최대 6배까지 메모리를 절감했다. 특히 AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소한 점이 핵심 성과다. 터보퀀트의 핵심은 두 단계로 나누어진 양자화 구조다. 먼저 1단계에서는 입력 데이터를 무작위로 회전(Random Rotation)시킨 뒤 각 요소를 개별적으로 양자화한다. 이 과정은 데이터 내 극단값(outlier)을 줄여 압축 효율을 높이는 역할을 한다. 해당 방식은 한인수 교수가 참여한 기존 연구 '폴라퀀트(PolarQuant)'에서도 활용된 바 있다. 이어 2단계에서는 1단계에서 발생한 오차를 다시 한 번 양자화한다. 이때 적용되는 QJL(Quantized Johnson-Lindenstrauss) 기법은 데이터를 {-1, 1} 값만으로 표현하는 초경량(1비트) 방식으로, 정보 손실을 최소화하면서도 연산 효율을 극대화할 수 있다. 이러한 기술적 발전은 반도체 메모리 시장에도 중장기적인 활력을 불어넣을 것으로 기대된다. 한인수 교수는 “AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다”며, “이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다”고 설명했다. 한 교수는 또 “앞으로 대규모 AI 모델을 보다 효율적으로 운영할 수 있는 핵심 기반 기술로 활용될 것으로 기대한다”고 덧붙였다.

2026.03.27 17:20박희범 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

"AI 웨어러블로 아웃도어 퍼포먼스 한계 넘는다"

등산, 러닝 등 아웃도어 활동에 최적화된 웨어러블 외골격 '하이퍼쉘X 시리즈' 확산에 속도가 붙고 있다. 서비스로봇솔루션 전문 기업 브이디로보틱스가 26일부터 29일까지 서울 코엑스에서 개최되는 '2026 서울국제스포츠레저산업전(SPOEX 2026, 이하 스포엑스)'에 참가해 차세대 아웃도어 웨어러블 AI '하이퍼쉘(Hypershell)'을 선보인다. 브이디로보틱스는 최근 신세계백화점 강남점 리빙관에서 국내 최고 수준의 객단가를 기록하는 고객층을 대상으로 하이엔드 로봇 가전의 가능성을 입증한 바 있다. 회사는 이번 스포엑스 무대를 통해 아웃도어와 스포츠 마니아들을 타겟으로 하이퍼쉘의 압도적인 퍼포먼스 증강 기술을 집중적으로 알릴 계획이다. AI 기반 파워 증강 기술로 구현하는 '초개인화' 트레이닝 브이디로보틱스는 이번 전시에서 하이퍼쉘X 시리즈의 플래그십 모델인 '울트라'를 필두로 프리미엄 아웃도어용 라인업을 대거 전시한다. 하이퍼쉘X 시리즈는 AI 기반 파워 증강 기술을 통해 사용자의 움직임을 실시간으로 감지하고 보조하는 것이 특징이다. 이는 단순히 신체 부하를 덜어주는 것을 넘어, 사용자의 움직임을 실시간으로 보조함으로써 러닝, 등산, 트레킹, 산책, 골프 등 다양한 아웃도어 환경에서 최적의 퍼포먼스를 이끌어낸다. 지형별 성능 체험할 수 있는 '하이퍼쉘 체험존' 운영 현장 부스에서는 관람객들이 기술력을 직접 체감할 수 있도록 '체험존'이 마련된다. 하이퍼쉘 전용 트레드밀 존에는 전문 직원이 상주해 고객의 사용 목적에 맞는 모델을 추천하며, 관람객들은 직접 제품을 착용하고 평지, 오르막, 내리막 보행을 하며 하이퍼쉘X의 성능을 안전하게 체험할 수 있다. 이를 통해 관람객들은 일상 속 신체 능력 증강 효과를 즉각적으로 데이터와 체감으로 확인하게 된다. 아웃도어를 넘어 하이엔드 라이프스타일 웨어러블로 확장 브이디로보틱스는 이번 스포엑스 참가를 기점으로 하이퍼쉘이 아웃도어를 넘어 여행, 산책 등 생활 전반에서 활용 가능한 일상 속 '하이엔드 웨어러블 로봇'으로 자리매김하도록 인지도를 강화할 방침이다. 특히 앱을 통한 정밀한 제어 기술을 통해 국내 웨어러블 로봇 시장을 선도해 나갈 계획이다. 브이디로보틱스 관계자는 “신세계 강남점 팝업을 통해 하이엔드 라이프스타일의 새로운 가능성을 확인했다면, 이번 스포엑스는 전문 스포츠·레저 시장에서 하이퍼쉘의 독보적인 기술력을 증명하는 자리가 될 것”이라며, “차별화된 체험 콘텐츠를 통해 고객들이 기존에 경험해보지 못한 웨어러블 로봇 기술을 직접 느끼길 기대한다”고 강조했다. 한편, 브이디로보틱스는 이번 스포엑스 기간 중 부스를 방문해 체험을 완료하고 설문 등에 참여한 고객들을 대상으로 특별 프로모션과 현장 이벤트를 진행할 예정이다.

2026.03.26 10:09전화평 기자

스테이블코인 간 교환은 곧 외환거래…효율적 시스템 갖추려면

스테이블코인 간 교환은 사실상 외환(FX) 거래와 마찬가지다. USDT↔USDC, USDC↔EURC처럼 서로 다른 통화, 발행사, 체인 간 스왑은 슬리피지와 수수료에 극도로 민감하다. 수십억~수백억 단위의 대규모 거래에서는 몇 bp 차이가 손익을 가르기도 한다. 이 지점에서 인텐트-솔버 모델의 장점이 두드러진다. AMM처럼 항상 깊은 풀을 유지할 필요 없이, 솔버가 중앙화거래소(CEX), 장외거래(OTC), 기관 간 직거래 등에서 그때그때 필요한 유동성을 조달한다. 복수의 유동성 소스를 나눠 활용하고 개인간개인(P2P) 매칭을 동원해 가격 충격을 최소화한다. 동일 거래 기준 자동화 마켓메이커(AMM) 대비 슬리피지를 10분의 1 수준으로 줄일 수 있다. 또 윈터뮤트, 점프크립토 같은 글로벌 마켓메이커가 솔버로 참여하면서, 일반 사용자도 사실상 기관급 환전 서비스를 이용할 수 있는 구조가 완성되고 있다. “한국형 스테이블코인 FX 정산 레이어가 필요하다” 국내 블록체인 기업 수호아이오는 스테이블코인 기반 외환 정산 시스템 '이지스(Ezys) FX'를 “차세대 스테이블코인 FX·정산 인프라”로 정의한다. 은행·핀테크·환전 사업자가 솔버로 참여하는 인텐트 기반 FX 네트워크를 지향한다. 이지스FX에서 인텐트 제출자는 주로 외국인 관광객 결제 앱, 전자결제대행(PG)사, 증권사·거래소의 토큰증권(ST) 플랫폼, 글로벌 결제·송금 핀테크, 유통·플랫폼 기업 등이 해당된다. 일본인 관광객 대상 결제 서비스로 예를 들어 보자. 일본인 이용자는 엔화 기반 카드로 결제하고 싶어하고, 한국 가맹점은 원화 정산을 원한다. 이때 백엔드에서 스테이블코인 기반 FX가 발생한다. 이지스FX 구조에서 PG사가 던지는 인텐트는 "오늘 들어온 결제 중 5억원 상당 금액을 30초 안에 원화 스테이블코인으로 정산해줘. 최대 수수료는 0.3%, 스프레드는 0.1% 이내"로 간단하다. 그렇다면, 누가 솔버가 될 수 있을까. 이지스FX에선 은행·증권사·환전 사업자·글로벌 유동성 공급자(LP)가 솔버 역할을 맡는다. 인텐트가 들어오면 호가와 조건을 자동으로 제시한다. •A은행: "0.09% 스프레드, 5초 이내 정산" •B핀테크: "0.05% 스프레드, 20초 이내 정산" •C글로벌 LP: "0.03% 스프레드, 40초 이내 정산" 수호아이오의 이지스FX인 '이지스'는 인텐트 발신자가 사전에 등록한 정책에 따라 최적의 솔버를 선택한다. 정산 속도 수수료 등의 효과 이지스FX 활용 시 기업 입장에서 체감할 수 있는 변화는 세 가지다. 첫째, 정산 속도다. 기존 은행 간 해외 송금은 T+1~T+2(1~2영업일)가 표준이다. 그러나 이지스FX에서는 수십 초~수 분 내 정산이 가능하다. 결제 사업자 입장에서는 환 리스크 노출 시간이 사실상 제로에 가까워진다. 두번째는 수수료다. 전통 은행 FX 거래에서 스프레드는 0.3~1.0% 수준이 일반적이지만, 복수 솔버 경쟁이 발생하는 이지스 구조에서는 0.03~0.1% 수준으로 줄일 수 있다. 월 거래액 100억원 기준으로 연간 수 천만원의 비용 절감 효과를 볼 수 있다. 세번째는 운영 복잡도다. PG사나 핀테크가 직접 체인·브릿지·거래소를 연동할 필요 없이, 인텐트 한 줄로 복잡한 FX 로직을 외부화할 수 있다. 국경을 넘나드는 FX 허브 이지스FX는 국내 결제·송금 시장만 겨냥하지 않는다. 수호아이오는 유럽 규제형 토큰증권 거래소 21X와 제휴를 맺고, 원화 기반 스테이블코인이 유럽 토큰증권 시장으로 흘러갈 수 있는 인프라를 구축하고 있다. 프로토콜 카우스왑, 유니스왑X가 온체인에서 하던 역할을, 이지스FX가 원화·기관·규제 환경에 맞게 재구성해 수행한다. 리스크도 수반...모니터링 체계 갖춰야 효율이 올라가면 새로운 리스크가 따라오기도 한다. 인텐트-솔버 구조는 새로운 유형의 리스크를 수반한다. 리스크는 기존의 스마트컨트랙트 코드 감사만으로 잡아낼 수 없다. 시장 불안 상황에서 솔버들이 자금을 회수하면, 계약 코드가 안전하더라도 실행이 지연되거나 중단될 수 있다. 시스템이 '기술적으로는 문제없음'이지만 '경제적으로는 작동 불가'인 상태가 될 수 있다. 불투명성도 문제다. 솔버의 실행 전략은 비공개다. 시스템은 유동성이 조용히 특정 솔버에게 집중될 때까지 외관상 정상적으로 보일 수 있다. 집중화 압력은 구조적 문제로 이어진다. 자본력이 풍부한 솔버일수록 더 낮은 스프레드로 경쟁할 수 있어, 시간이 지남에 따라 소수 업체가 주문 흐름을 장악하는 현상이 심화된다. 이미 카우스왑과 유니스왑X은 소수의 전문 솔버가 전체 거래량의 80% 이상을 처리하는 현상이 나타나고 있다. 이는 치명적인 결함은 아니지만, 인텐트 기반 프로토콜을 모니터링해야 한다는 것을 보여준다. 감사만으로는 충분하지 않으며, 유동성 분배·솔버 집중도·경제적 스트레스에 대한 회복력 또한 핵심 지표로 활용해야 한다. 업계가 이러한 딜레마를 크게 세 가지 방식으로 해결하고자 한다. 솔버 다양성 정책(특정 솔버의 점유율 상한 설계), 최소 응찰 의무화(소액 인텐트에도 반드시 응찰하도록 하는 규칙), 스마트컨트랙트 기반 자동 패널티(이행 불이행 시 온체인에서 즉시 집행)가 그것이다. 표준화가 시작됐다…ERC-7683 인텐트 기반 크로스체인 시스템이 확산되면서, 각 프로토콜마다 다른 인텐트 포맷을 통일하려는 움직임이 본격화되고 있다. 이더리움 생태계에서 논의 중인 프로토콜 ERC-7683은 크로스체인 인텐트 프레임워크를 공식 표준으로 정의하고, 네트워크 간 상호운용성을 개선하는 것을 목표로 한다. 표준화의 의미는 크다. 인텐트 포맷이 통일되면 사용자는 어떤 프로토콜을 사용하든 동일한 방식으로 인텐트를 제출할 수 있고, 솔버는 여러 네트워크의 인텐트를 단일 시스템으로 처리할 수 있다. 인텐트 기반 FX 인프라 간 공통 언어를 쓰는 셈이다. 인텐트-솔버 아키텍처의 확산은 개발자와 아키텍트의 역할도 바꾼다. 핵심은 두 가지다. 어떤 의도 포맷을 정의할 것인가(통화쌍, 금액, 최대 스프레드, 마감 시간, 리스크 허용 범위, 규제 요건의 구조화), 그리고 어떤 솔버 네트워크를 설계·개방할 것인가(참여 자격, 호가 정책, 담합 리스크 감시 체계)가 핵심 설계 과제다. 정교한 설계를 위해 점검해야 할 것 인텐트-솔버 아키텍처 설계 시 점검 사항은 세 가지다. 첫째, 서비스의 FX 처리 구조를 파악하는 것이다. PG사·결제 플랫폼을 운영하거나 연동하고 있다면, 현재 스프레드·정산 시간·실패율을 수치로 기록해둬야 한다. 둘째, 인텐트를 정의할 수 있는 역량을 키워야 한다. “어떤 조건이면 이 거래를 수락하겠다”는 비즈니스 로직을 구조화된 인텐트 포맷으로 표현해야 한다. 앞으로 FX 인프라 협상력의 핵심이 될 것으로 보인다. 셋째, 솔버 네트워크 참여 가능성을 타진해야 한다. 유동성이나 FX 역량이 있는 기관이라면, 솔버로 참여해 수수료·스프레드 수익을 가져가는 구조를 검토할 시점이다. 크로스체인 인텐트는 단순한 기술 개선이 아니다. 사용자가 브리지·가스 토큰·최종성 기간을 이해하도록 강요하는 대신, 결과를 명시하고 복잡성을 시장에 위임하도록 하는 철학적 전환이다. 앞으로는 누가 더 정교하게 인텐트와 솔버 네트워크를 설계할 수 있는지가 경쟁력이다. 스테이블코인을 배달 앱 쓰듯 쉽게 환전하는 시대는 이미 시작됐다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

"스테이블코인도 배달 앱 쓰듯 쉽게 환전할 수 있어야"

지난 2024년 글로벌 스테이블코인 일평균 결제 거래량은 약 270억 달러를 넘어섰다. 이는 비자(VISA)·마스터카드의 일평균 결제 규모와 맞먹는 수준이다. 스테이블코인의 결제 규모는 커졌지만, 정작 실제 거래에 쓰려면 통화 간 교환인 온체인 외환(FX)이 필수다. USDT를 원화 스테이블코인으로, 엔화 스테이블코인을 EURC로 바꾸는 과정이 매끄럽지 않으면 스테이블코인은 결제 수단이 아니라 보유 수단에 그친다. 바로 이 지점에서 기존 자동화 마켓메이커(AMM) 방식의 한계가 수면 위로 드러나고 있다. 동시에 인텐트(의도)와 솔버(해결안 제공자) 아키텍처가 대안으로 빠르게 부상하고 있다. AMM에서 인텐트로…셀프 주유소와 배달 앱 차이 항공편을 예약한다고 상상해보자. 이 경우 우리가 직접 항공사에 전화하지 않고, 연료 계약을 협상하지도 않고, 항공 교통 관제를 조율하지도 않는다. 단지 앱을 열고 날짜를 입력하고 원하는 시간대의 비행을 예약, 결제하면 된다. 나머지는 시스템이 처리한다. 온체인 자산 교환은 이 방식과는 반대다. 유니스왑 같은 AMM 중심 구조에서는 사용자가 직접 어느 풀에 유동성이 얼마나 있는지, 어떤 슬리피지를 감수할지, 어떤 체인에서 실행할지 모두 결정해야 했다. 마치 비행기 탑승 전 항공기 정비 매뉴얼과 미국 연방항공청(FAA) 규정을 모두 이해해야 하는 일종의 '셀프 주유소' 모델인 셈이다. 문제는 규모가 커질수록 AMM의 비효율이 선명해진다는 것이다. 100억원 규모의 USDT→USDC 스왑을 단일 AMM 풀에 던지면 슬리피지가 0.3~0.5%까지 발생한다. 10bp(0.1%)가 '비싼 수준'으로 취급되는 기관 FX 시장에서 이는 용납하기 어려운 비용이다. 인텐트 기반 모델은 이 경험을 근본적으로 바꾼다. 사용자는 더 이상 어디서, 어떻게 바꿀지 고민하지 않아도 된다. "솔라나에 USDC 500개가 있는데, 이더리움 지갑으로 이더리움 1개를 받고 싶다"처럼 원하는 결과(조건)만 정하고 서명하면 된다. 경로를 지정하지 않고, 유동성을 관리하지 않고, 결제를 조정하지 않아도 된다. 결과는 사용자가 결정하고, 나머지는 시스템이 알아서 처리한다. "실행 먼저, 정산은 나중에"…패러다임의 핵심 인텐트 기반 시스템이 기존 브리지와 근본적으로 다른 점은 순서에 있다. 전통적인 크로스체인 브리지는 엄격하고 순차적인 흐름을 따른다. 자산이 소스 체인에 잠기고, 암호학적 증명이 생성 검증된 후에야 목적지 체인에서 자금이 해제된다. 모든 단계는 다음 단계가 시작되기 전에 암호학적 확인이 이뤄져야 한다. 수학적 원리가 정확성을 보장하지만, 안정성에는 대가가 따르기 마련이다. 그 대가는 지연 시간이다. 초기 레이어(L)2 브리지에서는 며칠이 걸리기도 했고, 지금도 수 초~수 분을 대기해야 한다. 인텐트 시스템은 이 모델을 완전히 뒤집는다. 실행이 먼저 이뤄지고, 정산은 나중에 이뤄진다. 암호학적 최종성을 기다리지 않고도 자금을 즉시 수령할 수 있다. 검증은 백그라운드에서 비동기적으로 처리된다. 기존 브리지는 시스템이 반응할 때까지 사용자가 기다려야 했다면, 인텐트 기반 시스템은 사용자가 다른 작업을 하는 동안에도 시스템이 작동한다. 중요한 것은 인텐트가 암호학적 보장을 제거하는 것이 아니라는 점이다. 단지 그 보장을 정산 계층으로 옮긴다. 사용자는 솔버의 유동성을 바탕으로 즉각적인 실행을 경험하고, 암호학적 검증은 그 이후에 이뤄진다. 인텐트-솔버의 교과서 인텐트-솔버 구조는 이미 온체인에서 충분히 검증된 모델이다. 그 중에서도 카우스왑(CoW Swap), 유니스왑X, 어크로스 프로토콜은 공통 패턴을 공유한다. 세 프로토콜의 공통점은 분명하다. 사용자는 인텐트만 제출하고, 거래 실패·경로 선택·가스비 최적화는 솔버가 책임지는 구조다. 솔버는 스프레드·수수료에서 보상을 가져가고, 경쟁을 통해 자연스럽게 효율이 높아진다. 경제적으로 보면, 솔버는 전통적인 브리지 운영자보다 고빈도 유동성 공급자(마켓메이커)에 더 가깝다. 카우스왑의 경우, 동일한 거래를 일반 AMM에서 실행했을 때 대비 평균 0.2~0.4%의 가격 개선 효과가 있다. 100억원 규모의 거래라면 2000만~4000만원의 비용 차이가 발생한다. 속도만의 문제가 아냐…3가지 트릴레마 크로스체인 전송 시 단축되는 밀리초는 어딘가에서 비롯된다. 속도는 매혹적이지만, 공짜가 아니다. 실제로 크로스체인 인프라에는 동시에 최적화할 수 없는 세 가지 요소가 존재한다. •엄격한 암호학적 최종성 → 느리다 •즉각적인 사용자 경험 → 유동성이 필요하다 •풍부한 유동성 → 솔버 집중화를 촉진한다 전통적인 브리지는 최종성을 극대화하며, 의도 기반 시스템은 속도를 극대화한다. 유동성 집중은 조용한 압력 지점이 된다. 이 트릴레마(3개 중 2개만 선택 가능한 구조적 딜레마)는 각 프로토콜의 아키텍처 선택에 그대로 반영된다. 실제로 브릿지 프로토콜 어크로스처럼 인텐트 기반으로 설계된 시스템은 수 초 내 실행이 가능하다. 반면 크로스체인 브릿지 프로토콜인 스타게이트(Stargate)의 버스 모드처럼 배치 처리 방식은 비용을 절감하는 대신 지연 시간이 늘어난다. 서클의 USDC 전용 크로스체인 전송 시스템인 CCTP는 소각-발행 구조로 유동성 풀 자체를 배제하지만, 특정 자산에만 적용된다. 체인링크의 프로토콜 CCIP는 프로그래밍 가능성과 강력한 보안을 우선시하는 메시징 레이어로, 단순 토큰 전송이 아닌 복잡한 크로스체인 로직 처리에 강점이 있다. 이렇듯 정답은 하나가 아니다. 전송 규모, 리스크 허용 범위, 사용자 기대치, 자산 유형에 따라 적합한 아키텍처가 달라진다. 기관 재무 부서는 CCIP 방식의 암호학적 보증을 선호할 수 있고, 일반 사용자는 어크로스 방식의 빠른 속도를 선호한다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

현대 팰리세이드 전동시트 SW 설계 미흡…자발적 리콜

국토교통부는 현대자동차·기아·KG모빌리티·BMW코리아가 제작·수입·판매한 24개 차종 40만8942대에서 제작 결함이 발견돼 자발적으로 시정조치한다고 24일 밝혔다. 현대차는 최근 발생한 전동시트 관련 사고와 관련해 팰리세이드 등 2개 차종 5만7987대의 2열·3열 전동시트 제어기 소프트웨어(SW) 설계 미흡으로 탑승자나 사물과의 접촉을 감지하지 못해 안전에 지장을 줄 가능성이 있어 20일부터 무선 SW 업데이트(OTA)로 시정조치를 진행하고 있다. 현대차는 이번 리콜로 전동시트가 접히는 기능 해제를 더욱 쉽게 하고, 기능 작동 시 접촉 감지 구간을 확대하는 등의 개선이 이뤄진다고 전했다. SW업데이트가 완료되면 기존에 재시동 후 스위치를 조작해야 하던 게 스위치 조작 한번으로 전동시트 작동을 해제할 수 있다. 또 시트 자동 접힘은 테일게이트가 열렸을 때만 작동하고 시트를 접거나 펼칠 때 승객이나 물체가 닿으면 반응하는 구간이 확대된다. 현대차는 추가로 안전성 강화를 위한 전동시트 작동 방법 개선도 검토 중이다. 개선 사항이 확정되면 4월 중 추가 리콜할 계획이다. 현대차는 또 3열 좌측 안전띠 버클 배선 설계 미흡으로 안전띠가 체결되지 않아도 경고장치가 작동하지 않는 팰리세이드 등 2개 차종 4만1143대를 안전기준 부적합으로 4월 10일부터 시정조치에 들어간다. 기아 카니발 20만1841대는 저압연료라인 설계 미흡으로 인해 연료가 누유돼 주행중 시동꺼짐이나 화재 발생 가능성이 있어 25일부터 시정조치에 들어간다. KG모빌리티는 토레스 등 3개 차종 7만8293대는 냉각팬 저항 코일의 열적 부하와 과열로 화재 발생 가능성이 있어 16일부터 시정조치를 진행하고 있다. BMW 520i 등 18개 차종 2만9678대는 에어컨 배선 설계 미흡으로 에어컨 필터 교체 과정에서 배선이 손상돼 단락이 발생하면 화재 발생 가능성이 있어 24일부터 시정조치한다. 차량 리콜 대상 여부와 구체적인 결함 사항은 자동차리콜센터에서 차량번호나 차대번호를 입력하면 확인할 수 있다.

2026.03.24 08:11주문정 기자

사전예약 3일만 2천대 돌파…BMW 첨단 기술 집약한 iX3

BMW코리아가 선보인 차세대 전기차 '더 뉴 BMW iX3'가 사전예약 단계부터 폭발적인 반응을 얻고 있다. 예약 시작 직후 인증이 이어지며 시장의 기대감을 입증했다. BMW코리아는 23일 더 뉴 iX3이 사전예약 개시 사흘 만에 2천대를 돌파했다고 밝혔다. 이 같은 예약 속도는 수입차 시장에서는 이례적인 기록으로, 전기차 수요와 BMW 브랜드 경쟁력이 맞물린 결과로 분석된다. BMW코리아는 전기차 라인업이 10종에 달하며 3030기의 누적 충전기를 확보해 수입차 업계 최대 규모를 갖췄다. 또한 전기차를 쉽고 간편하게 체험할 수 있는 멤버십 프로그램 'BMW BEV 멤버십'을 운영하고 있다. 현장 분위기도 뜨거웠다. 이날 서울 중구 BMW 차징 허브 라운지에서 진행 중인 '더 뉴 BMW iX3 오픈 스튜디오'에서 만난 BMW코리아 관계자는 "사전예약 이전부터 뜨거운 관심을 받아왔다"며 "시작 한 시간도 채 되지 않아 예약이 1천대를 넘기기도 했다"고 말했다. 지난 20일부터 진행된 오픈 스튜디오에는 차량을 직접 확인하려는 방문객들의 발길이 이어지고 있다. 별도 예약 없이 차량을 살펴볼 수 있어 소비자 체험 기회도 넓혔다. 실제로 BMW 및 전기차 관련 온라인 커뮤니티에서는 iX3 계약 인증이 이어지고 있다. 일부 고객들은 "프리뷰를 다녀왔는데 실물이 훨씬 낫다"며 만족감을 나타냈다. 더 뉴 iX3는 BMW의 차세대 플랫폼 '노이어 클라쎄' 기술이 적용된 순수 전기 SAV다. 외관은 수직형 키드니 그릴과 미래지향적 조명 디자인을 적용했고, 실내에는 'BMW 파노라믹 iDrive'가 처음 탑재됐다. 이는 헤드업 디스플레이와 중앙 디스플레이를 통합해 직관적인 사용자 경험을 제공한다. iX3는 주행 성능과 디지털 기술이 강점이다. 차량에는 4개의 '슈퍼브레인'이 탑재돼 주행, 보조 시스템, 인포테인먼트를 통합 제어하며, 처리 성능은 기존 대비 약 20배 향상됐다. 6세대 eDrive 기술을 기반으로 800V 고전압 시스템을 적용해 유럽인증(WLTP) 기준 최대 805㎞ 주행이 가능하다. 급속 충전 시 10분 만에 최대 372㎞ 주행거리를 확보할 수 있는 점도 특징이다. 더 뉴 BMW iX3에는 중국 EVE 에너지의 대형 원통형 배터리가 탑재됐다. 노이어 클라쎄 플랫폼에 맞춰 개발된 6세대 배터리 시스템으로, 에너지 밀도를 높이고 열 관리 효율을 개선한 것이 특징이다. EVE에너지에 따르면 실주행 기준 최대 1007.7㎞에 달하는 주행거리를 확보하며 BMW 역사상 가장 높은 효율을 구현했다. 파워트레인 성능은 합산 최고출력 469마력, 최대토크 65.8kg·m를 발휘하며 정지 상태에서 시속 100km까지 4.9초 만에 도달한다. 더 뉴 iX3 가격은 ▲50 xDrive M 스포츠 8690만원 ▲M 스포츠 프로 9190만원으로 책정됐으며, 국내 출시는 3분기 예정이다. 한편 BMW코리아는 사전예약 고객에게 충전 카드와 차량 관리 프로그램 등 초기 구매 혜택도 제공한다.

2026.03.23 14:13김재성 기자

잘 나가던 팰리세이드 판매 '급제동'…북미 리콜 비용 1천억원 전망

현대자동차가 대형 스포츠유틸리티차(SUV) '디 올 뉴 팰리세이드' 일부 모델 리콜을 결정하면서 국내에서도 약 5만 7474대가 대상에 포함될 것으로 전망된다. 증권업계는 리콜 비용이 발생하더라도 현대차 실적에 미치는 영향은 제한적일 것으로 보면서도 손실 규모는 약 1000억원 수준에 이를 것으로 추산했다. 16일 업계에 따르면 현대차는 미국에서 자발적 시정조치(리콜) 절차를 진행 중인 팰리세이드 차량과 관련해 국내 리콜 계획을 이르면 이번주 중 공지할 전망이다. 현대차는 "구체적인 일정은 밝힐 수 없지만 최대한 신속히 고객에게 안내할 예정"이라고 밝혔다. 현대차 북미법인은 지난 13일(현지시간) 2026년형 팰리세이드 리미티드와 캘리그래피 트림의 판매를 미국과 캐나다에서 일시 중단하고 리콜 절차를 진행 중이라고 밝혔다. 2·3열 전동 시트가 특정 상황에서 탑승자나 물체와의 접촉을 제대로 감지하지 못할 가능성이 확인됐기 때문이다. 이번 조치는 지난 7일 미국 오하이오주에서 팰리세이드 전동 시트와 관련한 사고로 2세 여아가 숨진 사건 이후 이뤄졌다. 현대차는 사고 경위에 대해서는 현재 조사 중이며, 구체적인 내용은 아직 확인되지 않았다고 설명했다. 리콜 대상은 북미 시장에서 약 6만 8500대로, 미국 6만 515대, 캐나다 7967대 규모다. 해당 차량은 모두 한국에서 생산돼 수출된 모델이다. 팰리세이드는 지난해 국내에서 5만 9506대가 팔렸고 10만 여대가 수출됐다. 국내에서도 동일 사양이 적용된 차량이 리콜 대상에 포함될 전망이다. 업계에 따르면 지난해 '디 올 뉴 팰리세이드' 출시 이후부터 올해 3월 11일까지 생산된 차량 기준 국내 약 5만 7474대가 해당될 것으로 보인다. 증권업계는 이번 리콜이 현대차 실적에 미치는 영향은 크지 않을 것으로 보고 있다. 메리츠증권에 따르면 리콜 조치는 ▲소프트웨어 업데이트 ▲하드웨어 개선 ▲렌터카 제공 등으로 구성될 전망이다. 소프트웨어 업데이트만으로 문제 해결이 가능할 경우 비용 부담은 제한적일 것으로 예상된다. 다만 센서나 모듈 교체 등 하드웨어 수리가 필요할 경우 차량당 최대 800 달러(약 120만원) 수준의 비용이 발생할 수 있다. 이를 북미 지역 전체 리콜 대상 차량 약 6만 8500대에 적용하면 총 비용은 약 1000억원 수준으로 추산된다. 현대차의 올해 영업이익 컨센서스가 약 12조 9000억원 수준인 점을 고려하면 리콜 비용은 약 0.8% 수준으로 실적 영향은 제한적일 것이라는 분석이다. 김귀연 대신증권 연구원은 보고서를 통해 "OTA 방식의 소프트웨어 업데이트로 리콜이 마무리될 경우 펀더멘털 영향은 크지 않을 것"이라며 "생산 차질이나 리콜 비용 부담도 제한적인 수준에 그칠 가능성이 높다"고 분석했다. 다만 인명 피해 사고가 발생한 만큼 향후 집단소송이나 징벌적 손해배상 등 추가 법적 리스크 가능성은 지속적인 확인이 필요하다는 평가가 나온다. 이번 리콜로 현대차 패밀리카 대표 모델로 자리 잡은 팰리세이드의 브랜드 이미지가 훼손될 수 있다는 우려도 나온다. 현대차는 현재 미국 도로교통안전국(NHTSA)에 리콜 계획을 제출하는 절차를 진행 중이며, 전동 시트 접촉 감지 기능을 개선하기 위한 무선 소프트웨어 업데이트(OTA)도 이달 말 제공할 예정이다. 국내 국토부에도 이번주 중 신고 및 협의를 진행할 것으로 전망된다. 한편 팰리세이드는 지난해 전기 오일 펌프 과열로 화재 발생 가능성이 제기되면서 리콜이 진행된 바 있다.

2026.03.16 15:06김재성 기자

기아, e스포츠 선수에 'PV5 WAV' 지원…휠체어 이동 지원

기아가 e스포츠 구단 디플러스 기아(Dplus Kia) 소속 권재혁 선수에게 휠체어 이용자를 위한 전기차 '더 기아 PV5 WAV'를 전달했다. 기아는 15일 서울 성수동 '기아 언플러그드 그라운드'에서 전달식을 열고 권재혁 선수에게 PV5 WAV 차량을 지원했다고 밝혔다. 행사에는 정원정 기아 국내사업본부장(부사장)과 DK 이준영 부대표, 권재혁 선수가 참석했다. 2007년생인 권재혁 선수는 디플러스 기아 챌린저스 팀 소속 리그 오브 레전드 프로게이머다. 이번 차량은 선수 소속 기간 동안 무상 임대 방식으로 제공되며 연습장 이동과 원정 경기 등 선수 활동 전반의 이동 편의성을 높일 것으로 기대된다. PV5 WAV는 휠체어 탑승 가능 차량의 약자로, 휠체어 이용 승객의 이동 편의를 고려해 설계된 전기차다. 국내 전기차 최초로 측면 출입 방식을 적용했으며, 개구폭 775mm 슬라이딩 도어와 수동식 인플로어 2단 슬로프를 통해 인도에서 바로 휠체어 탑승이 가능하도록 했다. 또 휠체어 고정 장치와 3점식 안전벨트를 적용해 탑승객 안전성을 확보했으며, 한국산업표준(KS) 권장 사양의 수동식·전동식 휠체어가 이용 가능한 유효폭 740mm 공간을 확보했다. 권재혁 선수는 "기아의 철학이 담긴 PV5 WAV를 받게 돼 감사하다"며 "경기에만 집중할 수 있는 환경을 만들어 준 만큼 더 좋은 모습으로 보답하겠다"고 말했다. 기아는 교통약자 이동 지원 사업도 확대하고 있다. 사회공헌 프로그램 '기아 초록여행'에 PV5 WAV 차량을 신규 투입해 서울, 부산, 광주, 제주 등 4개 권역에서 운영할 예정이다. 기아 초록여행은 교통약자의 이동과 여행을 지원하기 위해 특수 개조 차량을 무상 대여하는 프로그램으로 2012년 시작됐다. 현재 전국 8개 권역에서 운영 중이며 누적 이용자는 10만 명을 넘었다. 기아 관계자는 "PV5 WAV가 이동의 제약 없이 원하는 곳으로 나아갈 수 있도록 돕는 동반자가 되길 바란다"며 "앞으로도 모두가 자유로운 이동의 기쁨을 누릴 수 있도록 다양한 활동을 이어갈 것"이라고 말했다.

2026.03.15 13:38김재성 기자

현대차, 북미서 팰리세이드 일부 판매 중단…전동 시트 끼임 사고 영향

현대자동차가 2026년형 대형 스포츠유틸리티차(SUV) '팰리세이드' 일부 트림의 판매를 중단하고 리콜을 추진한다. 2·3열 전동 시트가 탑승자나 물체와의 접촉을 제대로 감지하지 못할 가능성이 확인됐기 때문이다. 현대차 북미법인은 13일(현지시간) 2026년형 팰리세이드 리미티드와 캘리그라피 트림의 판매를 미국과 캐나다에서 일시 중단한다고 밝혔다. 현대차에 따르면 특정 상황에서 2·3열 전동 시트가 탑승자나 물체와의 접촉을 의도한 대로 감지하지 못할 수 있는 문제가 확인됐다. 해당 문제는 2·3열 전동 폴딩 작동 시뿐 아니라 2열 원터치 틸트·슬라이드 기능을 사용할 때도 발생할 수 있는 것으로 알려졌다. 현대차는 이와 관련해 미국 도로교통안전국(NHTSA)에 리콜을 제출하는 절차를 진행 중이다. 리콜 대상은 2026년형 팰리세이드 리미티드와 캘리그라피 트림 약 6만8500대다. 이 가운데 미국이 6만515대, 캐나다가 7967대다. 국내에서는 5만7474대가량이 진행될 것으로 관측된다. 현대차는 현재 리콜 수리 방안을 개발 중이며 수리가 완료되면 차주에게 무상으로 제공할 예정이다. 수리 완료 전까지는 희망 고객에게 렌터카를 제공하는 방안도 마련했다. 아울러 현대차는 임시 조치로 전동 시트 접촉 감지 기능을 개선하는 OTA(무선 소프트웨어 업데이트)도 준비하고 있다. 해당 업데이트는 이달 말 제공될 예정이며 시스템의 접촉 감지 성능과 안전성을 높이기 위한 조치다. 다만 이는 최종 리콜 수리를 대체하는 조치는 아니다. 현대차는 또 팰리세이드와 관련된 사고로 2세 여아가 숨진 비극적인 사건이 있었다고 밝혔다. 다만 사고 경위는 현재 조사 중이며 구체적인 내용은 아직 확인되지 않았다고 설명했다. 현대차는 차량 소유주에게 2·3열 전동 시트를 사용할 때 탑승자나 물체, 특히 어린이가 좌석이나 접힘 영역에 없는지 확인할 것을 당부했다. 고객 안내는 이메일과 차량 텔레매틱스, 전화 연락, 언론 공지 등을 통해 진행되고 있다. 현대차는 "고객 안전이 최우선이며 추가적인 리콜 수리와 소프트웨어 업데이트 관련 정보는 준비되는 대로 안내할 예정"이라고 밝혔다.

2026.03.14 18:55김재성 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

AI 예산 10조원 돌파했지만…"반도체·인프라 편중 여전"

[AI는 지금] 기업들 고민 파고든 딥시크, '초저가' V4로 오픈AI 흔들까

가짜 늑구 사진에 경찰도 속는 AI 시대...허위정보 대응책은

정부, 'K-AI 파트너십' 가동..."민관 모아 AI 강국 도약"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.