• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'파나메라 터보 S E-하이브리드'통합검색 결과 입니다. (664건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"삼성 갤럭시 S26 FE, 엑시노스 2500·120Hz 화면 탑재"

삼성전자가 올해 선보일 것으로 예상되는 가성비 스마트폰 '갤럭시 S26 FE'의 주요 사양이 벤치마크 사이트 긱벤치에서 포착됐다. IT매체 샘모바일은 최근 모델 번호 'SM-S741U'를 가진 삼성전자 제품이 긱벤치 데이터베이스에 등록됐다고 보도했다. 해당 매체는 모델 번호를 근거로 이 제품이 갤럭시 S26 FE일 가능성이 높다고 분석했다. 이번에 확인된 정보에 따르면, 해당 기기에는 모델번호 'S5E9955' 칩셋, 즉 엑시노스 2500이 탑재된 것으로 나타났다. 이는 갤럭시Z플립 7에 적용된 프로세서와 동일한 것으로, 올해 출시된 갤럭시 S26 시리즈에 들어간 엑시노스 2600과는 차별화된다. 또한 8GB 램과 안드로이드 17 기반 원UI 9를 구동하는 것으로 확인됐다. 긱벤치6 테스트 결과, 단일 코어 점수는 2426점, 멀티 코어 점수는 8004점을 기록했다. 이는 동일한 칩셋을 탑재한 갤럭시Z플립 7 대비 단일 코어에서 약 15%, 멀티 코어에서 약 8% 높은 성능을 보였다. 업계에서는 폼팩터 확대로 인한 발열 관리 성능 개선이 영향을 미친 것으로 보고 있다. 디스플레이는 중국 CSOT의 6.7인치 OLED 패널이 적용되며, 120Hz 주사율을 지원할 것으로 예상된다. 이와 함께 화면 내장형 지문 인식 센서, 스테레오 스피커, IP68 등급의 방진·방수 기능도 탑재될 전망이다. 저장 용량은 128GB, 256GB, 512GB 등 세 가지 옵션으로 출시될 가능성이 제기된다. 카메라는 광학식 손떨림 보정(OIS)을 지원하는 5000만 화소 메인 카메라를 비롯해 1200만 화소 초광각, 800만 화소 망원 카메라(3배 줌•OIS)가 구성될 것으로 보인다. 전면 카메라는 1200만 화소가 적용되며, 전·후면 주요 카메라 모두 4K 60프레임 영상 촬영을 지원할 전망이다. 이 밖에도 4900mAh 배터리와 45W 고속 유선 충전을 지원하며, ▲5G 통신 ▲와이파이 7 ▲블루투스 5.4 ▲NFC ▲USB 타입-C 포트 등 최신 연결 기능을 갖출 것으로 예상된다.

2026.04.06 08:58이정현 미디어연구소

[유미's 픽] "GPU 넘는다"…삼성·LG·롯데·포스코 가세로 국산 NPU 확산 본격화

국산 신경망처리장치(NPU)를 중심으로 한 국내 인공지능(AI) 산업 재편이 본격화되고 있다. 정부가 50조원 규모의 'K-엔비디아' 육성 프로젝트를 추진하며 정책 드라이브를 강화하는 가운데 민간 기업들도 공공·제조·클라우드·서비스 등 각 영역에서 NPU 도입과 사업화를 서두르는 모습이다. 3일 업계에 따르면 최근 국내 주요 IT·산업 기업들은 그래픽처리장치(GPU) 중심 AI 인프라에서 벗어나 NPU를 기반으로 한 구조 전환을 추진하며 비용 효율과 전력 절감, 데이터 주권 확보를 동시에 노리고 있다. 기술 검증 단계를 넘어 실제 서비스와 인프라로 확산되고 있는 상황을 고려한 것으로, AI 서비스 확산에 따라 추론 수요가 급증하면서 전력 소비와 운영 비용 부담이 커진 점도 한 몫 했다. 정부도 이 같은 변화에 맞춰 정책 지원을 강화하고 있다. 실제 과학기술정보통신부와 금융위원회는 지난달 민관 합동 간담회를 통해 AI 반도체 시장이 범용 GPU 중심에서 저전력·고효율 중심 구조로 전환되고 있다고 진단하고 국산 NPU 산업 육성에 정책 역량을 집중하겠다고 밝혔다. 국민성장펀드를 통해 향후 5년간 50조원을 투입하는 'K-엔비디아' 프로젝트도 추진 중이다. 이에 따라 클라우드 인프라 영역에서도 국산 NPU 적용이 구체화되고 있다. 삼성SDS가 국산 NPU 기반 '서비스형 NPU(NPUaaS)'를 오는 7월 출시하는 것이 대표적 사례다. 삼성SDS는 기존 '서비스형 GPU(GPUaaS)' 중심 구조에서 벗어나 NPU를 포함한 하이브리드 인프라를 구축함으로써 기업들이 AI 워크로드 특성에 따라 연산 자원을 선택할 수 있도록 하겠다는 전략을 내세웠다. 클라우드에서 구독형으로 NPU를 제공함으로써 초기 투자 부담을 낮추고 도입 장벽을 줄인 점도 특징이다. NPU 도입은 공공과 산업 현장을 중심으로도 확대되는 흐름을 보이고 있다. 비용과 전력 효율이 중요한 공공 인프라를 중심으로 적용 검토가 이뤄지면서 초기 수요도 형성되는 분위기다. 특히 공공 및 유통 인프라 분야에서는 비용 경쟁력 확보를 중심으로 NPU 도입이 이뤄지고 있다. 롯데이노베이트는 딥엑스와 협력해 지능형 CCTV와 ITS에 NPU를 적용하며 GPU 대비 총소유비용(TCO) 절감을 추진 중이다. 업계에선 정책 인센티브가 구체화되기 전부터 국산 반도체 적용을 검토하는 등 선제 대응 성격이 강한 사례라고 봤다. 제조 분야에서는 포스코DX가 모빌린트 NPU를 산업용 제어 시스템에 탑재해 설비 단계에서 실시간 AI 분석과 제어가 가능한 구조를 구축하고 있다. 이는 클라우드 중심 AI에서 벗어나 현장 중심의 엣지 AI로 전환하는 흐름을 반영한 것으로, 보안성과 즉시성을 동시에 확보하려는 전략으로 풀이된다. 클라우드와 플랫폼 영역에서도 대응이 이어지고 있다. LG CNS는 NPU 기반 AI 인프라 구축을 확대하고 있으며, LG유플러스는 NPU와 대규모 언어모델(LLM), 인프라를 결합한 'AI 어플라이언스'를 통해 공공·금융 등 폐쇄망 시장을 겨냥하고 있다. 클라우드 의존 없이 자체 환경에서 AI를 구동할 수 있도록 한 점이 특징이다. AI 모델 영역에서는 LG AI연구원과 업스테이지가 중심 역할을 하고 있다. LG AI연구원은 '엑사원(EXAONE)'을 기반으로 국산 NPU와의 최적화를 추진하며 추론 중심 AI 환경에 대응하고 있으며, 업스테이지 역시 퓨리오사AI와 협력해 NPU 기반 생성형 AI 서비스 상용화를 추진 중이다. 이는 모델 단계에서도 GPU 의존도를 낮추려는 시도로 해석된다. 기업용 소프트웨어 분야에서도 변화가 나타나고 있다. 더존비즈온은 퓨리오사AI와 협력해 전사적자원관리(ERP) 등 핵심 업무 시스템에 NPU 기반 AI를 적용하며 공공·금융 시장 확대를 추진하고 있다. 기존 분석 중심 AI에서 벗어나 실제 업무 프로세스에 AI를 접목하려는 움직임이다. 유통 및 시스템통합(SI) 영역에서는 코오롱베니트가 리벨리온과 협력해 NPU 기반 'AI 엑셀러레이션 서비스'를 추진하며 기업 고객 접점을 확대하고 있다. 반도체 기술을 실제 비즈니스 환경에 적용하는 역할로, 시장 확산을 위한 유통 채널로 기능하고 있다. 클라우드 사업자들의 선행 움직임도 영향을 미쳤다. 네이버클라우드는 'AI반도체 팜' 사업을 통해 국산 NPU의 성능과 안정성을 산업 현장에서 검증하며 상용화 기반을 마련했다. 이후 기업들의 사업화 움직임도 이어지고 있다. 업계에선 현재 국산 NPU 사업을 두고 기술 검증 단계를 넘어 상용화 초기 단계로 보고 있다. 동시에 벤더 간 경쟁도 본격화되면서 기업들은 국산 NPU 도입을 전제로 협력 구조도 구축하는 모습이다. 업계 관계자는 "지금은 NPU 도입 여부를 논의하는 단계가 아니라 어떤 기술을 선택할지 경쟁이 시작된 단계"라며 "정부 정책과 민간 인프라가 맞물리면서 AI 반도체 생태계가 빠르게 확산될 것으로 기대된다"고 말했다.

2026.04.03 08:48장유미 기자

로보락, iF 디자인 어워드 본상 6관왕

글로벌 스마트 홈 브랜드 로보락이 'iF 디자인 어워드 2026' 제품 디자인 부문에서 총 6개의 본상을 수상했다고 2일 밝혔다. 독일 국제포럼디자인이 주관하는 iF 디자인 어워드는 세계 3대 디자인상 중 하나로, 전 세계 전문가들로 구성된 심사위원단이 ▲혁신성 ▲기능성 ▲완성도 등을 기준으로 심사를 진행한다. 로보락은 올해 제품 디자인 부문 내 가전 및 가든 카테고리에서 수상하며 제품의 혁신적인 디자인과 기능성을 인정받았다. 수상 제품에는 2026년 신제품 로봇청소기 'S10 MaxV Ultra'(S10 맥스V 울트라), 'S10 MaxV Slim'(S10 맥스V 슬림), 'Qrevo Curv 2 Flow'(Q레보 커브2 플로우) 등이 포함됐으며, 이 중 S10 MaxV Slim은 상반기 내 국내 출시를 앞두고 있다. 가전 카테고리 본상을 수상한 S10 맥스V 울트라와 S10 맥스V 슬림은 로보락의 2026년 플래그십 로봇청소기다. 어댑트리프트 섀시 3.0 시스템을 갖춰 약 8.8cm 문턱(이중 문턱 기준)을 넘을 수 있으며, 최대 3만6000Pa의 흡입력으로 안정적인 청소 성능을 제공한다. 또한 리트랙트센스 내비게이션 시스템을 통해 초슬림 본체의 강점을 극대화했으며, 높이 7.95cm의 낮은 공간까지 진입해 정밀한 탐색과 청소가 가능하다. Q레보 커브2 플로우는 로보락 최초로 롤러형 물걸레를 탑재한 로봇청소기로, 분당 최대 220회 회전하는 초광폭 롤러형 물걸레 구조인 스피라플로우 시스템을 통해 보다 정밀하고 위생적인 청소를 구현한다. 가든 카테고리에서는 로봇 잔디깎이 'RockNeo Q1'(락네오 Q1)과 'RockMow Q1'(락모우 Q1)이 본상을 수상했다. 해당 제품들은 북미 및 유럽 시장에서 판매되고 있으며, AI 기반 스마트 매핑 기능을 통해 정밀한 잔디 관리가 가능하다. 또한 경사 지형에서도 안정적인 주행 성능을 제공한다. 로보락 관계자는 “이번 iF 디자인 어워드 2026 수상은 제품 설계 전반에 걸친 혁신성과 사용자 중심 디자인을 인정받은 결과”라며 “앞으로도 기술과 디자인을 결합한 차별화된 제품으로 글로벌 경쟁력을 강화해 나갈 것”이라고 말했다.

2026.04.02 10:28전화평 기자

갤S26 울트라, 유럽 7개국 소비자연맹지 평가 1위

삼성전자는 지난 2월 출시된 플래그십 스마트폰 '갤럭시 S26 울트라'가 유럽 주요 7개국 소비자연맹지 스마트폰 평가에서 1위를 차지했다고 2일 밝혔다. '갤럭시 S26 울트라'는 ▲영국 '위치' ▲프랑스 '크 슈아지르 ▲이탈리아 '알트로콘슈모' ▲스페인 '오씨유' ▲포르투갈 '데코 프로테스트' ▲벨기에 '테스트 아차트' ▲스웨덴 '레드앤론' 등 유럽 주요 국가의 소비자연맹지들이 꼽은 최고의 스마트폰에 선정됐다. 유럽 주요 국가의 소비자연맹지는 제품의 성능과 가격등을 전문가가 비교해 소비자에게 제공하고 있으며, 소비자 비영리 단체에서 발간해 시장과 소비자의 신뢰도가 높다. 평가는 지난달 11일 갤럭시 S26 시리즈가 출시한 이후 진행됐다. 특히, 이탈리아와 스페인, 포르투갈, 벨기에에서는 각 소비자연맹지의 전문가들이 테스트한 제품 중 최고를 의미하는 'Best of Test' 어워드를 획득했다. 영국의 소비자연맹지 '위치'는 스마트폰 랭킹에 '갤럭시 S26 울트라'를 총점 87점의 1위로 발표하며, "모든 실험실 테스트에서 뛰어난 성능을 보여줬다"며, 특히 새로운 '프라이버시 디스플레이'의 보안 성능을 높게 평가했다. 공동 2위는 85점을 받은 '갤럭시 S25 울트라'와 '갤럭시 S25+'가 선정되며 상위권을 갤럭시 스마트폰이 휩쓸었다. 프랑스의 소비자연맹지 '크 슈아지르'도 '갤럭시 S26 울트라'를 17.0점으로 1위에 선정했고, "사진의 디테일이 뛰어나고 색감이 생생하며 저조도 환경에서도 성공적으로 촬영된다"며, "수평고정 모드로 흔들림을 최소화한 동영상 또한 훌륭하다"라고 평가했다. 이탈리아 소비자연맹지 '알트로콘슈모'는 '갤럭시 S26 울트라'에 84점을 주며 1위로 선정했다. 연맹지는 "약 51.5시간을 기록한 배터리 수명과 60W 유선 및 25W 무선 충전이 인상적이다"며, 텍스트 설명만을 통해 이미지 편집이 가능한 포토 어시스트의 갤럭시 AI 기능도 호평했다. 스페인 소비자연맹지 '오씨유'는 '갤럭시 S26 울트라'를 "단점이 없는 폰" 이라며, "뛰어난 내구성과 디스플레이 품질, 배터리 수명, 카메라 성능 등 모든 부분이 훌륭하다"고 평가하며 84점으로 1위 이유를 설명했다. 한편, 삼성전자의 '갤럭시 S26 울트라'는 지난달 4일 스페인 바르셀로나에서 개최된 '모바일 월드 콩그레스 2026(MWC26)'에서 '최고 전시 제품상(Best in Show)'을 수상하며 심사위원단으로부터 '모바일 기술의 한계를 확장하며, 프라이버시 디스플레이와 같이 사용자가 일상에서 체감할 수 있는 가치를 제공하는 제품'이라는 평가를 받았다.

2026.04.02 09:58전화평 기자

[유미's 픽] 독파모 탈락 오명 지울까...'KT 수장' 박윤영, LG AI 성공 방정식 이식 총력

박윤영 대표 체제로 본격 전환된 KT가 대대적인 조직 개편과 외부 인재 영입을 통해 인공지능(AI) 전략 재정비에 나섰다. 지난해 '독자 인공지능(AI) 파운데이션 모델(독파모)' 프로젝트 탈락 이후 AI 사업에 난항을 겪던 KT가 'AX(AI 전환)'를 전면에 내세운 박 대표의 리더십을 통해 시장에서 다시 존재감을 키울 수 있을지 주목된다. 1일 업계에 따르면 KT는 기존 조직을 AX사업부문, AX미래기술원, IT부문으로 재편해 사업·기술·운영 기능을 분리했다. 임원 조직은 약 30% 축소하고 전체 임원의 20%도 외부 인재로 채웠다. 특히 AX사업부문장으로 삼정KPMG컨설팅 대표 출신 박상원 전무를, AX미래기술원장에는 LG AI연구원 에이전틱 AI그룹장을 맡았던 최정규 상무를 내정해 주목된다. 또 AX미래기술원 산하 에이전틱AI 랩장으로 네이버 AI 기반 통·번역 서비스 '파파고' 개발 주역인 김준석 한화생명 AI실장을 영입했고, AX데이터랩장도 외부 출신인 이상봉 상무를 수장으로 발탁했다. 이처럼 KT가 외부 전문가를 대거 수혈한 배경에는 과거 AI 전략이 체계적으로 이뤄지지 않았다는 지적이 이어져왔기 때문이다. 특히 지난해 정부가 추진한 독파모 프로젝트에서 KT는 초기 단계에서 탈락하며 경쟁사 대비 기술력과 실행력 모두에서 부족하다는 평가를 받았다. 당시에는 조직 간 역할이 모호하고 책임 구조가 불명확하다는 지적도 제기됐다. 이후 내부 혼선도 이어졌다. 특히 자체 AI 모델 '믿:음K 2.0' 개발을 주도했던 신동훈 최고AI책임자(CAIO)는 올 초 회사를 떠나 NC AI로 복귀해 눈길을 끌었다. 이번 인사에선 유서봉 AX사업본부장(상무)과 배순민 AI 퓨처랩장(상무), 윤경아 에이전틱 AI랩장(상무), 김훈동 AXD 본부장(상무) 등 AI 관련 임원들이 잇따라 이탈했다. '믿:음K 2.0' 데모 서비스 역시 공개 약 3개월 만인 올해 3월 종료돼 전략 지속성에 의문도 제기됐다. 또 KT는 자체 모델을 강조했지만 주요 서비스에서는 외부 기술 의존도가 높았다. 실제 '지니 TV AI 에이전트'에는 마이크로소프트(MS)의 애저 오픈AI 서비스가 적용됐고 자체 모델은 일부 콜센터 등에 제한적으로 활용되는 수준에 그쳤다. 이 같은 상황에서 KT는 박 대표 체제에서 AI 사업 전략 대수술에 돌입했다. 특히 최정규 AX미래기술원장 내정자를 중심으로 LG AI연구원이 구축한 '초거대 모델 개발–서비스 확산' 구조를 내부에 이식해 기술과 사업 간 연결을 강화하려는 움직임을 보이고 있다. LG는 정부가 추진한 '독자 AI 파운데이션 모델' 사업자로 선정되며 기술력을 입증한 데 이어 초거대 AI '엑사원(EXAONE)'을 계열사 전반에 확산시키며 연구 성과를 실제 사업으로 연결하는 데 성공했다는 평가를 받는다. 업계 관계자는 "최정규 내정자는 LG AI 연구원의 사업 구조를 설계·운영해온 인물"이라며 "KT가 최 내정자를 영입해 해당 성공 방정식을 빠르게 내재화하려는 것으로 보인다"고 해석했다. 업계에선 KT가 이번 조직 개편을 기점으로 앞으로 범용 대형언어모델(LLM) 경쟁보다 산업별 특화 AI와 에이전틱 AI 중심으로 AI 전략을 재편할 것으로 예상했다. 금융, 공공, 통신 등 특정 산업에 최적화된 모델을 통해 기업 고객 대상 AX 사업을 확대하고 단순 질의응답을 넘어 실제 업무를 수행하는 '실행형 AI' 구현에도 더 속도를 낼 것으로 관측했다. 이를 위해 자체 모델과 외부 협력을 병행하는 '멀티 AI 전략'도 유지할 것으로 전망된다. 마이크로소프트(MS), 팔란티어 등과의 협업을 기반으로 단기간 서비스 경쟁력을 확보하는 동시에 자체 모델 '믿:음'을 고도화해 차별화 포인트를 확보할 것이란 기대감도 나온다. 업계 관계자는 "KT가 글로벌 빅테크와의 정면 경쟁보다는 통신 인프라와 데이터 강점을 활용한 산업형 AI에 집중할 것으로 보인다"며 "이번 개편은 독파모 탈락 이후 드러난 문제를 외부 인재 영입과 구조 재설계를 통해 보완하려는 시도란 점에서 단순 조직 개편이 아닌 '전략 리셋'으로 봐야 한다"고 분석했다. 일각에선 외부 인재 중심 조직이 내부와 충돌할 가능성이 있고 자체 모델과 외부 플랫폼을 병행하는 전략이 기술적 복잡성을 높일 수 있다는 점에서 우려도 나타냈다. 특히 AI 투자가 실제 수익으로 이어질 수 있을지가 향후 전략의 지속 가능성을 좌우할 핵심 요소로 꼽힌다. 업계 관계자는 "KT의 승부는 AI를 얼마나 빠르게 사업화하느냐에 성패가 달려 있다"며 "조직 개편과 인재 영입을 통해 마련한 구조적 기반이 실제 AX 사업 성과로 이어질 지는 미지수"라고 밝혔다. 그러면서 "KT는 이번 조직 개편을 통해 AI 전략의 방향성을 다시 세운 만큼 이제는 결과로 증명해야 하는 단계"라며 "향후 1~2년 내 의미 있는 사업 성과가 나오지 않을 경우 전략 자체가 다시 시험대에 오를 수 있다"고 덧붙였다.

2026.04.01 15:33장유미 기자

"어지러움 없이 2D를 3D로"…엑스리얼, AR 글래스 'XREAL 1S' 출시

글로벌 증강현실(AR) 글래스 기업 엑스리얼(XREAL)이 고질적인 '멀미' 문제를 원천 차단한 신제품을 공개하며 AR 기기 대중화 선언에 나섰다. 엑스리얼은 1일 서울 강남구 레드버튼 컬쳐스테이에서 기자간담회를 열고, 독자 개발한 전용 프로세서 'X1칩'을 탑재한 신제품 'XREAL 1S'를 국내에 공식 출시했다. 이번 신제품은 화면이 머리를 따라다니며 발생하던 어지러움을 해결했다. 엑스리얼 1S는 자체 개발한 X1칩을 통해 세계 최초로 글래스 단독의 '네이티브 3DoF(자유도)' 기능을 구현해 냈다. 이 기술을 적용하면 사용자가 고개를 돌려도 화면이 공간상 고정된 위치에 안정적으로 유지되며, 120Hz 주사율과 3ms의 초저지연 성능이 결합해 실제 물리적인 스크린을 보는 듯한 편안함을 제공한다. 외부 기기나 별도의 애플리케이션에 의존하지 않는 점도 특징이다. 기기 자체에 탑재된 OSD(On-Screen Display) 메뉴를 통해 밝기, 화면 모드, 크기, 주사율, 3단계 전자 변색 등을 즉각적으로 조작해 독립적인 사용 환경을 구축하는 것이다. 2D 영상에서 3D로 실시간 변환하는 기능을 지원한다. X1칩이 기존 2D 영상을 실시간으로 분석해 입체 영상으로 바꿔주기 때문에, 전용 3D 콘텐츠를 별도로 구매할 필요 없이 유튜브나 OTT, 게임 등을 원터치로 3D 시네마처럼 즐길 수 있다. 하드웨어 사양도 높다. 소니의 0.68인치 마이크로 OLED(유기발광다이오드) 패널을 적용해 1200p 해상도와 700니트(nit)의 밝기를 구현했다. 시야각(FOV)은 전작인 에어2 대비 30% 넓어진 52도로 확장됐으며, 16대 18, 21대 9, 32대 9 등 다양한 울트라 와이드 스크린 비율을 글래스 내에서 직접 전환할 수 있다. 오디오 부문은 프리미엄 음향 브랜드 보스(BOSE)와 협업해 뛰어난 공간감을 제공한다. 아울러 82g의 초경량 설계와 동공 간 거리(IPD) 조절 기능, 코에 가해지는 압력을 최소화한 차세대 코받침을 적용해 장시간 착용의 편의성을 극대화했다. 엑스리얼 1S의 국내 출시가는 65만원으로 책정됐다. 1일부터 네이버 스마트스토어(엑스리얼코리아 공식몰)를 통해 정식 판매에 돌입하며, 향후 쿠팡과 토스쇼핑 등으로 온라인 판매 채널을 순차 확대할 예정이다. 공식 출시를 기념해 오는 8일까지 제품을 구매하는 모든 고객에게 5만5000원 상당의 전용 액세서리 '엑스리얼 HUB'를 무상 증정하는 프로모션도 진행된다. 양영화 엑스리얼 매니저는 "AR 기기의 수요층이 소수의 얼리 어답터에서 일반 소비자, 직장인, 게이머 등 대중으로 넓어지고 있다"며 "이에 발맞춰 엑스리얼 코리아는 국내 콘텐츠 파트너와의 협업, 팝업 스토어 중심의 체험 마케팅 확대, 맞춤형 고객 지원 체계 구축 등 4대 로컬라이즈 전략을 공격적으로 전개할 방침"이라고 전했다.

2026.04.01 12:56전화평 기자

中企용 신용카드 재출시…아마존, 'U.S. 뱅코프'로 발급사 변경

아마존이 중소기업용 신용카드 재출시를 앞두고 발급사를 기존 아메리칸익스프레스에서 U.S. 뱅코프로 바꿨다. 31일(현지시간) 블룸버그 등 외신에 따르면 아마존은 향후 몇 달 내 재출시할 두 가지 중소기업용 신용카드의 발급사로 U.S. 뱅코프를 선정했다고 밝혔다. U.S. 뱅코프는 마스터카드 네트워크를 활용해 기존 아메리칸익스프레스를 대체하며 새로운 프라임 비즈니스 카드와 아마존 비즈니스 카드를 발급하게 된다. 개편된 카드 상품은 아마존 외 결제에서도 이전보다 많은 보상을 제공할 예정이다. U.S. 뱅코프는 현재 140만 개 이상의 중소기업 고객과 거래하고 있으며 향후 이러한 기업들을 대상으로 은행 및 카드 서비스를 더욱 확대할 계획이다. 코트니 켈소 수석 부사장은 “자사는 카드 발급과 가맹점 결제 서비스를 모두 제공한다”며 “전체 역량을 활용해 중소기업 고객의 요구를 더 잘 충족할 수 있다”고 설명했다. 군잔 케디아 U.S. 뱅코프 최고경영자(CEO)는 지난해 취임 이후 결제 사업 강화를 핵심 전략 과제로 제시해왔다. 해당 은행은 지난해 아메리칸익스프레스 출신 켈소 수석 부사장을 카드 발급 사업 책임자로 영입했으며 오랜 기간 근무한 임원 마크 런켈이 가맹점 결제 사업을 총괄하고 있다. 이번 결정은 아메리칸익스프레스에 타격으로 작용할 전망이다. 아메리칸익스프레스는 2018년 아마존과 제휴를 맺고 중소기업용 신용카드 발급을 맡아왔다. 줄리 타우젠트 아메리칸익스프레스 대변인은 “공동 브랜드 계약은 갱신되지 않는 경우도 있다”며 “아마존과의 기존 제휴는 변화가 있지만 여전히 아마존은 중요한 파트너다. 고객에게 가치있는 서비스를 제공하기 위해 협력을 이어갈 것”이라고 말했다.

2026.04.01 09:04박서린 기자

[유미's 픽] "하루 83회, 15초씩"…올림픽대로에 뜬 LG CNS, 옥외광고 나선 까닭은

"하루 83회, 15초씩 나오고 있으니 이 구간 지나실 때 눈 크게 뜨고 봐주세요." LG CNS가 최근 'AX=LG CNS'라는 옥외광고를 시작해 주목 받고 있다. 창사 이래 처음 진행하는 옥외광고다. 올해 인공지능 전환(AX) 기업으로 자리매김하기 위한 움직임에 열중하는 모양새다. 31일 업계에 따르면 LG CNS는 지난 16일부터 서울 올림픽대로를 중심으로 옥외광고를 시작하며 공식 인스타그램을 통해 인증샷 이벤트를 진행하고 있다. AX 기업이란 이미지를 대중들에게 알리기 위한 행보다. 광고를 보거나 이벤트에 참여한 이들은 LG CNS에 대한 호감을 갖게 된 계기가 됐다는 평가를 내놓고 있다. LG CNS가 올림픽대로를 옥외광고 게재 공간으로 택한 것은 'AX 기업' 전환 메시지를 강하게 각인시키기에 적절하다고 판단해서다. 올림픽대로는 서울 동서를 관통하는 대표 간선도로로, 하루에 차량 수십만 대 이상 통행하는 핵심 교통축이다. 출퇴근 시간대에는 정체 구간이 많아 체류 시간이 길어지는 특성이 있다. 이 같은 환경은 짧은 시간 반복 노출이 가능한 옥외광고 효과를 극대화한다. 실제로 '하루 83회, 15초 노출'이라는 메시지는 단순 노출량을 넘어 반복 학습 효과(메모리 리텐션)를 유도하는 설계다.업계 관계자는 "이번 일은 LG CNS에 대한 브랜드 인지도 제고를 넘어 AX 기업 전환 메시지를 시장 전반에 확산시키는 역할을 할 것으로 보인다"며 "특히 기업간거래(B2B) 중심 기업이 대중 접점을 확대했다는 점에서 기업 이미지 재정립과 고객 기반 확대에도 긍정적인 영향을 미칠 것으로 예상된다"고 밝혔다. 업계에선 LG CNS가 이번 캠페인을 통해 AI 전환 기업으로서 입지를 선점하고 사업 경쟁력 강화로 이어질 지 주목하고 있다. 특히 현신균 LG CNS 사장이 올해 3대 핵심 추진 과제로 설정한 ▲글로벌 AX·로봇 전환(RX) ▲사업 이행 역량 강화 ▲글로벌 시장 입지 확대 등을 추진하는데 긍정적인 효과를 줄 것으로 기대했다.업계 관계자는 "이번 캠페인은 단순한 브랜드 홍보를 넘어 AX 전략과 기술 역량을 시장에 선제적으로 각인시키고 이를 실제 사업 기회로 연결하려는 의도가 담긴 것으로 보인다"며 "대외 메시지와 내부 실행 전략이 맞물릴 경우 시너지 효과가 극대화될 것"이라고 분석했다. LG CNS는 현재 공공, 금융, 제약·바이오 등 전 산업 영역에서 AX 사업을 확대하며 실질적인 성과를 통해 기술 경쟁력을 입증하고 있다. ▲한국은행과의 '에이전틱 AI 기반 디지털화폐 자동결제 시스템' 실증 ▲정부 '독자 AI 파운데이션 모델 프로젝트' 참여 ▲대형 공공·금융 프로젝트 수주 등은 LG CNS가 AX 시장에서 선도 사업자로 자리매김하고 있음을 보여주는 사례로 꼽힌다. 이 같은 사업 성과는 실적 성장으로 이어지고 있다. LG CNS는 지난해 매출 6조원을 돌파하며 역대 최대 실적을 기록했다. 매출과 영업이익 모두 6년 연속 최고치를 경신했다. 특히 AI·클라우드 사업이 전체 성장을 견인하며 AX 중심 사업 구조로 체질 개선이 본격화됐다는 평가도 받았다.현 대표는 "(지난해) AI, 클라우드 등에서는 기술 리더십을 통해 선도적 지위를 확고히 했고, 금융·공공 영역에서는 주요 AX 사업을 연이어 수주하며 시장 경쟁 우위를 확인했다"며 "어려운 경제 여건 속에서도 DX·AX 전문 파트너로서 지속적인 성장을 이어가며 역대 최대 경영성과를 이뤄냈다"고 밝혔다. 그러면서 "고객이 필요로 하는 AI 기술과 서비스를 빠르고 정확하게 제공할 수 있도록 AX 전문 기술역량을 강화하겠다"며 "이제 고객의 AX 여정을 주도하는 'AX 컴퍼니'로서 국내 사업에서의 입지를 더욱 확고히 하고 새로운 시장을 적극 개척하며 미래 성장을 견인할 핵심 동력을 꾸준히 발굴하고자 한다"고 덧붙였다. 글로벌 행보도 넓히고 있다. 올 들어 오픈AI, 팔란티어 등 글로벌 빅테크와 협력을 통해 기업용 AI 서비스 역량을 강화하는 한편, 해외 AI 데이터센터 구축 등으로 사업 영역을 확장 중이다. 단순 SI 사업자를 넘어 AI 기반 서비스 기업으로 전환하려는 전략의 일환으로 해석된다. 이처럼 실제 사업 성과와 기술 경쟁력을 기반으로 한 AX 전략은 LG그룹 차원의 방향성과도 맞물린다. 구광모 LG그룹 회장이 최근 사장단 회의에서 AX를 '생존 전략'으로 규정하며 속도감 있는 실행을 강조한 가운데 업계에선 LG CNS가 핵심 실행 축으로 역할을 확대할 것으로 기대하고 있다. 현 사장 역시 AX를 중심으로 글로벌 사업 확대와 신성장 동력 확보를 지속 추진하겠다는 의지를 밝히며 이 같은 흐름에 발 맞추는 분위기다. LG CNS도 올 들어 AX 중심 사업 구조로 빠르게 전환하며 중장기 성장 기반을 더욱 공고히 하고 있다. 특히 공공과 금융을 넘어 제조·바이오 등 다양한 산업군으로 AX 적용 범위를 확장하고 있는 만큼, 향후 산업 전반의 디지털 혁신을 주도하는 핵심 사업자로 자리매김할 가능성에 무게가 실린다. 또 에이전틱 AI, 피지컬 AI 등 차세대 기술 영역까지 선제적으로 대응하고 있다는 점도 긍정적으로 평가된다. 단순한 시스템 구축을 넘어 AI가 스스로 판단하고 실행하는 형태의 서비스로 진화하면서 기업 고객의 생산성과 효율성을 동시에 끌어올릴 수 있는 기반을 마련했다는 분석이다. 글로벌 시장 공략 역시 본격화할 것으로 예상되는 가운데 올해 또 다시 역대급 매출을 달성할 수 있을지도 주목된다. AI 데이터센터 구축, 글로벌 금융 시스템 수출 등 해외 사업 확장이 가시화되는 가운데 AX 역량을 기반으로 한 레퍼런스 확보가 LG CNS의 경쟁력으로 작용할 것이란 관측이 나온다. 특히 글로벌 빅테크와의 협업을 통해 기술 경쟁력을 끌어올리는 동시에 자체 플랫폼을 활용한 차별화 전략이 강화되고 있다는 점도 기대 요소다. 업계 관계자는 "AX는 더 이상 선택이 아닌 기업 생존을 좌우하는 핵심 경쟁 요소로 자리 잡았다"며 "LG CNS처럼 기술 역량과 사업 경험을 동시에 확보한 기업이 시장 주도권을 가져갈 가능성이 높다"고 말했다.

2026.03.31 16:17장유미 기자

[유미's 픽] "GPU만 사오면 끝?"…정부, 1.5만장 구축 사업서 '설계 능력' 보는 까닭

정부의 대규모 그래픽처리장치(GPU) 인프라 사업 경쟁이 장비 확보에서 운용 능력 중심으로 재편되고 있다. 최신 GPU 도입 여부보다 이를 얼마나 효율적으로 설계·운영할 수 있는지가 올해 사업 선정의 핵심 변수로 떠오른 가운데, 정부가 국내 기업들의 인프라 경쟁력을 끌어올리기 위해 본격 나선 모양새다. 30일 업계에 따르면 과학기술정보통신부는 다음달 13일까지 GPU 1만5000장을 구축하기 위한 사업자 공모에 나선다. 총 2조800억원을 투입해 GPU 서버와 부대 장비를 구매한 후 산·학·연에 공급할 예정으로, 최신 GPU를 신속히 확보하고 이를 대규모로 묶어(클러스터링) 구축·운용할 수 있는 민간 기업을 선정한다는 방침이다. 앞서 정부는 지난해 추가경정예산 1조4000억원을 투입해 확보한 엔비디아 B200 등 첨단 GPU 1만3000장을 NHN클라우드, 네이버클라우드, 카카오엔터프라이즈 등을 통해 구축했다. 또 이 물량을 최근 산·학·연에 3000장, 국가 프로젝트에 4000장, 독자 AI 파운데이션 모델에 3000장씩 배분했다. 또 지난 25일부터 산학연을 대상으로 2000장에 대한 추가 공모에도 들어갔다. 올해 5월 중 선정될 사업자는 연내 GPU 1만5000장 구축 및 서비스를 개시해 2031년 12월 31일까지 운영하게 된다. 이 물량 역시 산·학·연 및 국가 프로젝트를 대상으로 자원 배분과 운영이 이어진다. 이병묵 NIPA AI인프라확충팀장은 "올해 블랙웰급 이상의 최신 GPU 1만5000장 확보를 목표로 한다"며 "고성능 GPU를 대규모로 공급할 수 있는 사업자가 높은 평가를 받을 것"이라고 말했다. 정부는 이번 사업을 통해 참여 기업들의 기술 경쟁력을 끌어올린다는 목표다. 그간 GPU 물량 싸움 중심으로 인프라 구축 사업을 펼친 결과 수행 과정에서 한계가 곳곳에서 드러났던 탓이다. 특히 지난해 처음 GPU 구축 사업에 나서면서 일부 기업들이 H100, B200급을 확보해두고도 소프트웨어, 구성 문제로 실제 성능 효율이 낮은 사례가 발생하자 정부가 이에 대해 문제의식을 크게 느낀 것으로 알려졌다. 대규모 GPU 클러스터는 데이터 흐름과 메모리 구조, 네트워크 구성에 따라 전체 성능이 좌우되는 만큼 단일 장비 성능만으로는 효율을 담보하기 어렵다.또 B200 도입에 따라 수냉식 등 최신 냉각 기술을 적용해야 함에도 불구하고 하중 보강 공사, 구조 변경 등이 빠르게 뒷받침 되지 못해 구축 일정이 지연되는 사례도 벌어지자 정부가 난감해 한 것으로 전해졌다. 업계 관계자는 "정부가 GPU 1만3000장 구축 사업을 진행하면서 GPU만 사오면 끝나면 사업이 아니란 점을 뼈저리게 느낀 듯 하다"며 "지난해엔 얼마나 GPU를 많이 확보하고 싸게 제안했는지를 중점적으로 들여다 본 탓에 정작 운용능력이 뒷받침되지 않아 정부도 속앓이를 많이 한 것으로 안다"고 지적했다. 이에 정부는 올해 사업 평가 기준을 대폭 수정했다. 단순한 장비 확보 능력보다 실제 운영 효율을 검증할 수 있는 요소들을 대거 평가 체계에 포함한 것이다. 실제 이번 사업의 주요 평가 항목 및 배점을 살펴보면 절반인 50점이 사업 준비도 및 경쟁력에 배정됐다. 이 중 인프라 준비도(18점)와 구축 계획의 구체성(32점)은 핵심 평가 항목으로 제시됐다. 특히 데이터센터 상면 확보 여부를 비롯해 전력·냉각 설비, 네트워크 구성, 자원 관리 체계 등 물리적·논리적 인프라를 종합적으로 검증하겠다는 방침을 내세웠다. 이는 단순 가격 경쟁이나 물량 확보보다 실제 대규모 GPU 클러스터를 구축해 안정적으로 운영할 수 있는 역량을 우선 보겠다는 의미다. 특히 32점이 배정된 구축계획 우수성은 정부가 이번 사업을 사실상 '설계 능력 평가'로 보고 있음을 보여준다. 어떤 GPU를 얼마나 들여오겠다는 수준을 넘어 이를 어떤 구조로 묶고 어떤 일정으로 구축하며 실제 서비스 단계까지 어떻게 연결할 것인지를 구체적으로 입증해야 높은 점수를 받을 수 있는 구조란 점에서다. 업계 관계자는 "GPU 활용 효율을 입증할 수 있는 성능 지표 제시가 요구되면서 사업자들의 부담이 한층 커진 상황"이라며 "실제 연산 효율을 얼마나 끌어올릴 수 있는지에 대한 구체적인 방법론과 결과를 함께 제시해야 하기 때문"이라고 말했다. 업계에선 이를 두고 정부가 사업 방향을 '물량 경쟁'에서 '효율 경쟁'으로 전환한 것으로 보고 있다. 동일한 GPU 환경에서도 메모리 활용 방식, 데이터 전송 구조, 추론 엔진 설계에 따라 처리 성능과 비용 효율이 크게 달라지기 때문이다. 이 과정에서 메모리 처리 구조와 데이터 흐름 최적화 등 소프트웨어 역량이 핵심 변수로 부상하고 있다. GPU 연산 성능이 높아도 메모리 대역폭이나 데이터 처리 구조가 이를 뒷받침하지 못할 경우 전체 성능이 제한되는 구조적 한계 때문이다. 이에 일부 기업들은 이러한 병목 현상을 해소하기 위해 추론 엔진 최적화, 모델 경량화, 데이터 처리 구조 개선 등 다양한 기술 경쟁을 벌이고 있다. 같은 GPU를 사용하더라도 운영 방식에 따라 처리 가능한 작업량이 크게 달라져서다. 업계 관계자는 "정부가 차세대 GPU인 '베라루빈' 제안 시 평가에 우대 조건으로 반영할 수 있도록 한 것도 이러한 흐름과 맞닿아 있다"며 "단순 도입 여부보다 고성능 장비를 안정적으로 운용할 수 있는 인프라 설계 능력을 함께 보겠다는 의미"라고 해석했다. 다만 베라루빈과 같은 차세대 GPU는 수냉 기반 구조 등으로 인해 기존 대비 장비 무게와 전력 요구 수준이 크게 높아지는 만큼, 일각에선 이를 수용할 수 있는 데이터센터 인프라 확보 여부가 새로운 변수가 될 것으로 봤다. 실제 올해 사업에서는 데이터센터 하중 구조를 사전에 점검해 제출하도록 하는 요건이 추가된 것으로 알려졌다. 지난해 일부 사업자가 수냉식 장비 도입 과정에서 구조 보강 문제로 일정 지연을 겪은 경험이 반영된 결과다. 업계 관계자는 "작년에는 장비 확보와 단가 경쟁이 중심이었다면, 올해는 성능 효율과 운영 구조까지 함께 검증하는 방향으로 완전히 바뀌었다"며 "실제 서비스를 돌릴 수 있는 수준의 설계 역량을 갖추지 않으면 사업 참여 자체가 쉽지 않은 구조"라고 밝혔다. 전문가들은 이번 사업이 국내 AI 인프라 경쟁 방식 자체를 바꾸는 계기가 될 것으로 보고 있다. 단순한 하드웨어 투자에서 벗어나 소프트웨어와 운영 기술까지 포함한 종합 경쟁력 확보가 요구되고 있기 때문이다. 또 다른 관계자는 "이제는 GPU를 얼마나 확보했는지가 아니라 같은 자원으로 얼마나 높은 효율을 내느냐가 경쟁력의 핵심"이라며 "이번 사업은 국내 기업들이 글로벌 수준의 인프라 운용 역량을 갖추도록 유도하는 전환점이 될 것"이라고 말했다.

2026.03.30 16:27장유미 기자

[카드뉴스] AI가 똑똑해지면 메모리가 필요없어질까

안녕하세요, AMEET 기자입니다. 구글이 최근 발표한 '터보퀀트'라는 기술이 반도체 시장에 작은 파장을 일으켰어요. 이 기술은 AI가 기억해야 할 데이터를 무려 6배나 압축할 수 있다고 하는데요, 마치 진공팩으로 옷을 꾹꾹 눌러 담는 것처럼 메모리 사용량을 대폭 줄일 수 있다는 거예요. 이 소식이 전해지자 SK하이닉스는 6.23%, 마이크론은 5.70%, 삼성전자는 4.71% 하락하는 등 메모리 반도체 기업들의 주가가 일제히 떨어졌답니다. 투자자들이 "이제 메모리를 덜 사게 되겠네?"라고 우려한 거죠. 하지만 전문가들은 정반대로 생각하고 있어요. 데이터를 압축하면 AI가 더 빨리 움직이게 되고, 빨라진 만큼 더 많은 데이터를 처리하게 된다는 논리예요. 마치 고속도로 차선을 늘리면 차가 더 많이 다니는 것과 같은 원리인데요. 실제로 메모리 회사들은 2026년 생산 물량이 이미 다 예약된 상태라고 해요. 게다가 앞으로는 빠른 메모리(HBM)와 저렴한 메모리(CXL)를 적재적소에 섞어 쓰는 방식이 대세가 될 거라고 하니, 메모리 수요는 오히려 다양해질 것 같아요. 결국 압축 기술은 메모리를 줄이는 게 아니라 더 효율적으로, 그리고 더 많이 쓰게 만드는 마법 같은 기술인 셈이에요. 기술이 발전할수록 메모리의 역할은 더 중요해질 거라는 게 전문가들의 공통된 의견이랍니다. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.28 08:04AMEET

터보퀀트, AI 메모리 문제 해결할까

최근 공개된 터보퀀트가 인공지능(AI) 메모리 문제를 해결할 지에 관심이 쏠렸다. KAIST는 전기및전자공학부 한인수 교수가 참여한 구글 리서치, 딥마인드, 뉴욕대 공동 연구팀이 인공지능(AI) 모델의 고질적인 한계로 꼽혀온 메모리 과부하 문제를 해결할 차세대 양자화 알고리즘 '터보퀀트(TurboQuant)'를 공개했다고 27일 밝혔다. AI 모델은 입력 데이터를 벡터 형태로 바꾼 뒤, 벡터 간 유사도를 계산해 작동한다. 이 과정에서 고정밀 데이터를 사용하기 때문에 막대한 메모리 자원이 필요한 점이 주요 한계로 지적돼 왔다. 터보퀀트는 이러한 고정밀 데이터를 더 적은 비트로 압축해 표현하는 '양자화' 기술을 활용한다. 소수점 데이터를 정수로 근사하는 방식으로, 핵심 정보는 유지하면서도 저장 용량과 연산 부담을 크게 줄이는 기술이다. 이번 연구에서 터보퀀트는 AI 모델 내부 정보를 효율적으로 압축해 정확도 저하를 거의 없이 최대 6배까지 메모리를 절감했다. 특히 AI 추론 과정에서 가장 큰 장애물로 꼽히는 메모리 병목 문제를 효과적으로 해소한 점이 핵심 성과다. 터보퀀트의 핵심은 두 단계로 나누어진 양자화 구조다. 먼저 1단계에서는 입력 데이터를 무작위로 회전(Random Rotation)시킨 뒤 각 요소를 개별적으로 양자화한다. 이 과정은 데이터 내 극단값(outlier)을 줄여 압축 효율을 높이는 역할을 한다. 해당 방식은 한인수 교수가 참여한 기존 연구 '폴라퀀트(PolarQuant)'에서도 활용된 바 있다. 이어 2단계에서는 1단계에서 발생한 오차를 다시 한 번 양자화한다. 이때 적용되는 QJL(Quantized Johnson-Lindenstrauss) 기법은 데이터를 {-1, 1} 값만으로 표현하는 초경량(1비트) 방식으로, 정보 손실을 최소화하면서도 연산 효율을 극대화할 수 있다. 이러한 기술적 발전은 반도체 메모리 시장에도 중장기적인 활력을 불어넣을 것으로 기대된다. 한인수 교수는 “AI 모델의 성능이 커질수록 메모리 사용량이 급격히 증가하는 것이 가장 큰 한계로 지적되어 왔다”며, “이번 연구는 이러한 병목을 효과적으로 줄이면서도 정확도를 유지할 수 있는 새로운 방향을 제시했다”고 설명했다. 한 교수는 또 “앞으로 대규모 AI 모델을 보다 효율적으로 운영할 수 있는 핵심 기반 기술로 활용될 것으로 기대한다”고 덧붙였다.

2026.03.27 17:20박희범 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

S2W, 32조 매출 대만 에이수스에 '퀘이사' 공급

에스투더블유(S2W, 대표 서상덕)가 대만 타이베이에 본사를 둔 세계적인 정보기술(IT) 기업 '에이수스(ASUS)'에 자사 기업 및 기관용 보안 AI 솔루션 '퀘이사(QUAXAR)'를 공급한다고 25일 밝혔다. 에이수스는 게이밍 노트북 및 메인보드·그래픽카드 등의 핵심 부품 분야에서 세계시장 점유율 1위를 기록하고 있는 대만의 대표적인 컴퓨터 하드웨어 제조사다. 1989년 설립됐다. 2025년 기준 32조 원을 상회하는 매출을 달성한 글로벌 브랜드다. 2026년 3월 기준 시가총액은 약 4322억 대만달러(한화 약 20조 3400억 원) 이며, 2025년 매출은 전년 대비 26% 성장한 약 6889억 대만달러(한화 약 32조 4300억 원)를 기록했다. 설계·제조·유통 등이 유기적으로 연계된 IT 하드웨어 산업은 어느 한 지점의 보안 공백이 공급망 전체의 마비로 이어질 수 있는 연쇄적 리스크를 내재하고 있기 때문에, 잠재적 위험을 조기에 식별하고 선제적으로 관리할 수 있는 고도의 가시성을 확보하는 것이 비즈니스의 연속성을 보장하고 운영 안정성을 강화하기 위한 필수 요건이다. S2W가 공급하는 '퀘이사'는 고객사가 내부 시스템만으로는 파악하기 어려운 외부 공격 징후를 신속·정확하게 포착하고 이에 대응할 수 있게 지원하는 AI 기반의 사이버 위협 인텔리전스(CTI) 플랫폼이다. S2W는 에이수스가 자사의 방대한 기술 자산과 경영 정보, 브랜드 가치 등을 보호할 수 있도록 보안의 사각지대를 해소하는 데 기여한다는 계획이다. 이외에도 S2W는 작년 말 대만 최대의 글로벌 컨테이너 선사 '에버그린해운(Evergreen Marine)'을 고객으로 유치한 데 이어 최근에는 애플(Apple) 협력사인 백라이트 모듈 제조업체 '래디언트 옵토일렉트로닉스(Radiant Opto-Electronics)'와도 보안 서비스 계약을 체결, IT·제조·물류 등 주요 산업군을 중심으로 현지 기업 간 거래(B2B) 시장 진출을 본격화하고 있다. 이유경 S2W 해외사업총괄은 “증권거래소·철도공사 등의 공공 레퍼런스 및 중화텔레콤(CHT) 산하의 유수 보안 기업 'CHT시큐리티(CHT Security)'와의 파트너십을 기반으로 최근 수개월 간 대만 B2B 시장에서 의미 있는 성과를 지속적으로 창출해왔다”라며 “글로벌 기업의 요구사항에 부합하는 우수한 제품성을 연이어 입증한 만큼, 앞으로는 파트너 네트워크를 폭넓게 확장하며 고객 접점을 확대하고 실적 성장을 가시화하는 데 주력할 것”이라고 말했다.

2026.03.26 09:24방은주 기자

[유미's 픽] 'AI G3' 외치지만 실무 인력 태부족…인력난 해결 '절실'

이재명 정부가 인공지능(AI) 3대 강국(G3) 도약을 목표로 천문학적인 예산을 쏟아붓고 있지만, 이를 현장에서 집행할 행정 조직의 '실행력'에 빨간불이 켜졌다. 정책의 외연은 '부총리급' 위상에 걸맞게 커진 반면, 실무를 뒷받침할 인력과 직제는 과거 수준에 머물러 있어 자칫 '정책 동력 상실'로 이어질 수 있다는 지적이 나온다. 25일 정부에 따르면 과학기술정보통신부 내에서 약 2조원 규모의 '그래픽처리장치(GPU) 확보 사업'과 4조원 규모의 '국가 AI 컴퓨팅 센터 구축' 등 핵심 인프라 사업을 전담하는 실무 인력은 단 5명에 불과한 것으로 확인됐다. 이들은 단순한 자원 배분 업무를 넘어 ▲GPU 임대 운영 및 성과 평가 ▲범국가적 AI 컴퓨팅 인프라 R&D 기획 ▲활용 전략 수립 등 전문성이 요구되는 고난도 업무를 동시에 수행하고 있다. 1인당 관리해야 하는 사업 예산 규모만 '조 단위'다. 업계 관계자는 "연초부터 쏟아지는 정책 보고와 사업 공고 준비로 해당 조직의 업무 강도는 이미 임계치를 넘어선 상태"라며 "올 초 이재명 대통령이 격려의 의미로 피자를 보낼 만큼 고충이 크지만, 상징적 격려보다 시급한 것은 실질적인 인력 보강"이라고 꼬집었다. 조직 규모 면에서도 부처 간 '조직 비대칭' 현상이 뚜렷하다. 국가 AI 정책을 총괄하는 과기정통부 AI정책실 인력은 74명(2국 체계)인 반면, 공공 AI 전환을 담당하는 행정안전부 인공지능정부실은 190명(3국 체계)으로 두 배가 넘는 규모다. 정책의 컨트롤타워보다 집행 조직의 규모가 더 큰 구조다.과기정통부 역시 AI 조직을 실 단위로 격상시켰으나, 실질적인 인력과 직제는 정책 수요를 따라가지 못하고 있다. 실제 AI정책실 신설 이전 약 49명이던 인력은 개편 이후에도 74명 수준으로 늘어나는 데 그쳤다. 국가 AI 정책의 기획과 실행 기능이 한 조직에 집중돼 있음에도 불구하고 여전히 '2개 정책관(국) 체제'에 머물러 있다. ▲정책기획관(39명)과 ▲인프라정책관(34명)이 정책 총괄부터 안전, 인재 양성, 데이터, 산업 지원까지 도맡고 있어 기능 분산이 충분하지 않다는 지적이다. 특히 폭발적으로 늘어난 정책 수요에 대응할 정규직 정원이 제때 뒷받침되지 못하면서 부처 내 인력 운용의 기형화도 심화되고 있다. 대규모 예산이 투입되는 핵심 인프라 사업의 상당수가 정식 직제가 아닌 태스크포스(TF)나 임시 직제 중심으로 운영되면서 정책의 연속성마저 위협받는 상황이다.반면 행정안전부는 인공지능정부정책국(71명), 인공지능정부서비스국(65명), 인공지능정부기반국(53명) 등 3개 국 체계를 기반으로 정책·서비스·인프라 기능을 분리해 운영하고 있다. 여기에 각 부처와 산하기관에서 선발한 169명의 'AI 리더' 조직까지 별도로 두고 공공 AI 확산을 추진 중이다. 다만, 행안부는 인공지능정부실 190명 전체를 AI 전담 인력으로 보는 것은 부정확하다는 입장이다. 정부24, 모바일 신분증, 데이터 등 디지털 행정 인력이 포함된 수치로, 실제 AI 관련 인력은 이보다 훨씬 적은 수준이라는 것이다. 행안부 관계자는 "공공 디지털 전환 전반을 수행하는 조직 특성상 단순 인원 비교는 적절하지 않다"며 "AI 전담 기준으로 보면 타 부처와 큰 차이가 없거나 오히려 적을 수 있다"고 말했다.업계 관계자는 "국가 전략을 짜는 부처보다 집행 부처의 덩치가 훨씬 큰 엇박자가 이어지고 있다"며 "행안부는 정책, 서비스, 인프라 기능을 3개 국으로 명확히 분리해 전문성을 높인 반면, 국가 AI 정책의 컨트롤타워인 과기정통부는 상대적으로 빈약한 체급으로 '험지'를 돌파하고 있는 셈"이라고 지적했다. 이 같은 인력난의 근본 원인은 중앙부처의 조직과 정원을 관리하는 행정안전부와의 협의 구조 때문으로 분석된다. 이 탓에 과기정통부가 인력 확대를 요청하더라도 '공무원 정원 동결' 기조나 부처 간 형평성 논리에 가로막히면 반영되기 어렵다. AI 정책을 총괄하는 부처가 필요로 하는 인력을 자체적으로 확보하기 어려운 구조인 것이다. 특히 과기정통부 장관이 부총리급으로 격상되고 AI가 국가 전략의 핵심으로 자리 잡았음에도 이를 실무적으로 뒷받침할 정규 인력 확충은 사업 규모를 따라가지 못하고 있다는 지적도 나오고 있다. 정책의 위상과 조직 현실 간 괴리가 커지고 있는 셈이다. 이로 인해 범부처 협업이 필요한 AI 정책이 실제 집행 단계에서는 특정 부처에 업무가 집중되는 현상도 나타나고 있다. 일부 부처가 소관 업무를 이유로 정책 수행에 적극적으로 나서지 않는 사례도 있는 것으로 전해졌다. 업계 관계자는 "AI 정책은 예산뿐 아니라 이를 실제로 집행할 조직과 인력이 핵심"이라며 "정책을 총괄하는 부처에 걸맞은 인력과 체계가 갖춰지지 않으면 현장 부담은 계속 커질 수밖에 없다"고 말했다.또 다른 관계자는 "우리나라의 AI G3 도약은 예산 규모가 아니라 정책의 집행 속도와 전문성에서 결정된다"며 "현장의 병목 현상을 해소하기 위해 행안부와 기재부가 전향적으로 조직 확충에 협력해야 한다"고 강조했다.

2026.03.25 17:26장유미 기자

갤S26 출시 2주만 이통사 지원금 15만→50만원

이동통신 3사가 삼성전자 갤럭시 S26 시리즈 출시 2주만에 지원금을 15만원대에서 약 50만원으로 올렸다. 25일 업계에 따르면, 이통3사는 일제히 S26 시리즈 지원금을 대폭 올렸다. 구체적으로 SK텔레콤은 월 8만 9000원 요금제 지원금을 15만원에서 48만원으로, KT는 월 9만원 요금제 지원금을 15만원에서 50만원으로, LG유플러스는 월 8만 5000원 요금제 지원금을 15만 1000원에서 50만원으로 올렸다. 지난 11일 갤럭시 S26 시리즈 공식 출시가 이뤄진 후 2주 만에 이통사 지원금이 3배 넘게 오른 것은 이례적이다. 이통사 지원금 상향은 단말기 출시 후 최소 한 달 후, 수요가 둔화된 시점에서 판매 촉진을 위해 이뤄지기 때문이다. 이번 지원금 인상은 시장 주도권을 놓치지 않으려는 제조사 간 경쟁이 투영된 결과라는 게 업계 시각이다. 이통사 공통지원금은 제조사와의 전략적 협의를 거쳐 결정되며, 상당 부분 제조사의 재원 분담을 통해 조성되는 것으로 알려졌다. 삼성전자 갤럭시S26 시리즈와 아이폰17e가 같은 날 출시됐지만, S26 시리즈는 가격 경쟁력에서 밀리는 모양새다. S26 시리즈는 전작보다 평균 5만 원가량 가격이 오른 반면, 아이폰 17e는 플래그십 성능을 갖추고, 용량을 늘리면서도 가격을 전작과 동일한 99만원을 유지했다. 플래그십과 보급형 모델을 직접 비교하긴 어렵지만, 소비자 체감 메리트에선 분명한 차이가 발생했다. 이에 업계는 제조사가 가격 부담을 느낀 소비자 이탈을 막기 위해 지원금 확대 전략을 펼친다고 보고 있다. 업계 관계자는 “이통3사가 한날한시에 지원금을 상향한 것은 이통사 자체 판단이라기 보단 제조사가 영향을 미친 것”이라며 “S26 시리즈 출고가가 올라간 만큼 지원금 상향을 통해 실질적인 기기 가격을 내리려는 전략으로 풀이된다”고 설명했다. 다른 관계자도 “갤럭시S26 시리즈와 아이폰17e 동시 출시로 제조사 간 경쟁이 격화한 가운데, 가성비 핸드폰으로 인식된 99만원 아이폰과의 가격 경쟁을 위해 보조금을 상향한 것으로 보인다”고 말했다.

2026.03.25 16:32홍지후 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자 '43조 파업' 가시화..."당장 영향은 제한적이지만…"

"ERP는 기업의 두뇌"…SAP, AI 결합한 '자율형 기업' 시대 연다

바다에 깔린 디지털 대동맥...AI시대 국가 필수 자산

쿠팡 개인정보 유출 조사 마무리…개인정보위 "곧 결정"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.