• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'구글 최상위 도메인 [ 텔레 ON4989 ] 전국구전문1등광고 구글상위법인장광고업체,U5n'통합검색 결과 입니다. (4207건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[영상] 인구 감소 위기, 해답은 '에이전틱 AI'…"AI 역량이 곧 개인·기업 경쟁력"

"앞으로는 인구 감소로 인해 1명이 여러 사람의 몫을 해내야만 국가와 기업의 경쟁력을 유지할 수 있습니다. 일부에선 AI에게 일자리를 대체당할 것이란 우려가 있지만 지금은 내 업무에 AI를 적극적으로 접목해 대체 불가능한 '스페셜리스트'로 도약해야 할 시기입니다." 26일 비아이매트릭스에서 인공지능(AI) 전환(AX) 컨설팅을 총괄하는 전규화 상무는 AI 시대의 일자리 변화와 직장인의 생존 전략에 대해 이같이 말했다. 단순 지식 검색 넘어 실무 수행…에이전틱 AI 부상 최근 생성형 AI 시장 핵심 화두는 에이전틱 AI다. 과거 거대언어모델(LLM)이 지식과 정보를 기반으로 답변을 제공하는 역할에 머물렀다면 에이전틱 AI는 이메일 발송, 데이터 정리, 코드 작성과 검증 등 실제 업무를 수행하는 단계로 확장됐다. 전 상무는 "작년까지만 해도 기업들은 사내 규정집을 학습시켜 조언을 구하는 수준의 AI를 도입했지만, 실행 주체가 되지 못해 한계를 느꼈다"며 "이제는 AI가 직접 업무를 수행하는 에이전트 시대로 전환되면서 도입 수요가 빠르게 증가하고 있다"고 설명했다. 도입 방식도 변화하고 있다. 오픈소스 대규모언어모델(LLM)을 기업 환경에 맞게 파인튜닝(미세조정)하는 대신, 성능이 검증된 글로벌 AI에 사내 그룹웨어, 전사적자원관리(ERP), 데이터베이스 등 기존 시스템을 API 형태로 연결하는 방식이 확산되고 있다. AI가 다양한 업무 도구를 활용하도록 만들어 실제 업무 흐름에 투입하는 전략이다. 기업 시장에서 가장 큰 장벽으로 꼽히는 보안 문제에 대해서도 방향성을 제시했다. 전 상무는 "비아이매트릭스의 에이전트는 외부 인터넷망이 아닌 내부망에서만 동작하도록 설계돼 데이터 유출을 원천 차단한다"며 "데이터 권한 체계를 준수하고 현업 업무 범위 내 코드만 생성하도록 통제하고 있다"고 밝혔다. "AI가 아니라 활용이 변수"…도피보다 접목이 생존 전략 AI 열풍 이면에서 지속되고 있는 'AI의 일자리 대체 우려'에 대해 전 상무는 명확히 선을 그었다. 그는 일부 청년층과 직장인 사이에서 '어차피 AI에 대체될 것'이라는 인식으로 무기력에 빠지거나 다른 직군으로 급히 방향을 바꾸는 현상이 나타나고 있다며 이는 적합한 해결법이 아니라고 지적했다. 전 상무는 "이 같은 불안은 AI를 충분히 이해하지 못하거나 실제 업무에 적용해보지 않은 데서 오는 경우가 많다"며 "실제로는 AI가 사람을 대체하는 것이 아니라 AI를 잘 쓰는 사람이 사람을 대체하는 구조로 바뀌고 있다"고 강조했다. 핵심은 일의 소멸이 아니라 일하는 방식의 변화라는 설명이다. 반복적이고 정형화된 업무는 AI가 빠르게 대체하는 반면, 도메인 지식과 판단, 커뮤니케이션이 결합된 영역은 오히려 중요성이 커지고 있다는 것이다. 전 상무는 "환경의 변화에 따라 개인과 기업의 생존 전략 역시 달라져야 하는 만큼 막연한 두려움으로 방향을 바꾸기보다 현재 맡고 있는 업무에 AI를 적극 활용해 더 빠르고 정확하게 일할 수 있는 역량을 갖춰야 한다"며 "이 과정에서 스페셜리스트로 성장하는 것이 중요하다"고 조언했다. 특히 인구 감소가 가속화되는 상황에서 AI의 역할은 더욱 커질 전망이다. 그는 "앞으로는 한 사람이 여러 역할을 수행해야 하는 구조가 불가피하다"며 "이때 AI 활용 능력은 개인과 기업 모두의 핵심 경쟁력이 될 것"이라고 말했다. 전규화 상무는 "비아이매트릭스는 20년간 코딩을 줄이는 방향으로 성장해왔고 이제는 AI 에이전트가 이를 대체하는 시대를 맞고 있다"며 "현재 상황을 위기가 아닌 기회로 보고 있으며 AI 중심 기업으로의 전환을 통해 새로운 성장 기회를 만들 것"이라고 밝혔다.

2026.03.27 16:28남혁우 기자

[AI는 지금] "이미지도 자체 기술로"…脫 오픈AI 노린 MS, 멀티모달 경쟁 본격화

마이크로소프트(MS)가 자체 개발한 이미지 생성 모델 '마이(MAI)-이미지-2'를 최근 공개하며 인공지능(AI) 시장 주도권 확보 경쟁에 본격적으로 나섰다. 오픈AI 등 외부 모델 의존에서 벗어나 기술 내재화를 추진하는 동시에 코파일럿 중심 생태계를 강화하려는 전략적 행보로 풀이된다. 27일 업계에 따르면 MS는 지난 19일 자사 AI 슈퍼인텔리전스 팀이 개발한 텍스트-이미지 변환 모델 '마이-이미지-2'를 공개했다. 해당 모델은 성능 평가 플랫폼 아레나 리더보드에서 상위권에 오르며 구글, 오픈AI와 함께 글로벌 이미지 생성 경쟁 구도에 진입했다. 이번 모델은 무스타파 술레이먼 MS AI 최고경영자(CEO)가 이끄는 초지능 팀에서 개발됐다. MS는 이를 통해 이미지 생성 분야에서도 독자 기술 기반을 강화하겠다는 방침이다.술레이먼 CEO는 "우리는 이 모델 출시로 세계 3대 텍스트 이미지 변환 연구소로 도약하게 됐다"며 "초지능 팀은 앞으로 더 많은 것을 선보일 예정인 만큼 기대해 달라"고 밝혔다.이처럼 MS가 자체 모델을 전면에 내세운 것은 오픈AI에 대한 의존도를 낮추려는 전략으로 분석된다. MS는 그간 오픈AI에 대규모 투자를 단행하며 협력 관계를 유지해왔지만, 핵심 AI 기능을 외부에 의존할 경우 비용 부담과 서비스 통제력에 한계가 있다는 평가를 받아왔다. 이에 MS는 자체 모델 확보를 통해 비용 구조를 개선하고 기능, 정책, 업데이트 방향을 독자적으로 설계할 수 있는 기반 마련에 본격 나선 것으로 보인다. 기술 경쟁 측면에서는 멀티모달 AI 시장을 겨냥한 행보로 읽힌다. 최근 AI 산업은 빅테크를 중심으로 텍스트에서 이미지, 음성, 영상까지 아우르는 멀티모달로 빠르게 확장되고 있다. 단일 모델이 다양한 형태의 데이터를 이해하고 생성하는 능력도 플랫폼 경쟁력의 핵심 요소로 자리잡고 있다. 시장 성장세도 가파르다. 글로벌 시장조사업체 그랜드뷰리서치는 멀티모달 AI 시장이 2024년 약 17억3000만 달러에서 2030년 108억9000만 달러 규모로 확대될 것으로 내다봤다. 또 콘텐츠 제작, 광고, 게임, 커머스 등 산업 전반에서 시각 콘텐츠 자동화 수요가 급증하고 있어 멀티모달 영역이 향후 핵심 성장 축이 될 것으로 관측됐다. 이 같은 분위기에 맞춰 MS는 '마이-이미지-2'를 앞세워 멀티모달 시장 내 주도권을 잡기 위해 속도를 낼 것으로 보인다. '마이-이미지-2'는 자연광과 질감, 공간감을 정교하게 구현하는 사실감은 물론, 이미지 내 긴 문장과 복잡한 타이포그래피를 안정적으로 생성하는 기능을 핵심 경쟁력으로 내세웠다. 이는 기존 이미지 생성 모델의 한계로 지적되던 텍스트 표현 문제를 개선한 것으로, 디자인·콘텐츠 제작 영역까지 활용 범위를 넓힐 수 있다는 점에서 주목된다. 제품 전략 측면에서는 코파일럿 생태계와의 결합이 눈에 띈다. MS는 해당 모델을 '코파일럿'과 '빙' 이미지 생성기에 단계적으로 적용할 계획이다. 워드, 파워포인트 등 생산성 도구와 연계될 경우 문서 작성 과정에서 이미지 생성이 기본 기능으로 자리잡을 가능성이 높다. 이는 텍스트 중심 생산성 도구를 멀티모달 플랫폼으로 확장하려는 시도다. 기업 시장 공략도 병행된다. MS는 현재 일부 기업 고객을 대상으로 API를 제공하고 있으며 향후 마이크로소프트 파운드리를 통해 개발자 접근성을 확대할 예정이다. 또 광고·마케팅 기업 등 대량 이미지 생성 수요를 겨냥해 이미지 AI를 산업용 생산 도구로 확장하기 위해 적극 나설 것으로 보인다. 다만 현재 서비스는 기능과 정책 측면에서 일부 제약이 있다. 생성 속도 지연과 사용 횟수 제한, 이미지 비율 고정, 편집 기능 부재 등이 대표적이다. 콘텐츠 필터링 기준도 비교적 엄격하게 적용되고 있다. 이는 기업용 서비스에서 요구되는 안정성과 리스크 관리를 반영한 설계로 해석된다. 업계 관계자는 "MS가 이미지 생성까지 자체 모델로 내재화하면서 AI 경쟁의 판이 텍스트에서 멀티모달 전반으로 빠르게 확장되고 있다"며 "향후 플랫폼 주도권은 얼마나 다양한 데이터를 하나의 경험으로 통합하느냐에 달려 있을 것"이라고 말했다.

2026.03.27 15:56장유미 기자

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

애플, '시리' 외부 AI 챗봇 연동…제미나이·클로드 개방

애플이 음성 비서 시리를 외부 인공지능(AI) 서비스에 개방하면서 시장 확장에 나섰다. 26일(현지시간) 테크크런치 등 외신에 따르면 애플은 차기 운영체제(OS) 'iOS 27'에서 시리를 전면 개편하고 외부 AI 챗봇을 연동하는 익스텐션 시스템 도입을 준비 중인 것으로 전해졌다. 앱스토어에 등록된 AI 서비스가 별도 계약 없이 시리와 연결될 수 있도록 하는 식이다. 익스텐션 시스템에서는 사용자가 설치한 구글 '제미나이'와 앤트로픽 '클로드' 등을 시리에서 직접 호출해 활용할 수 있다. 질문마다 이용할 AI 서비스를 선택하는 방식도 지원될 것으로 나타났다. 외부 챗봇은 시리뿐 아니라 애플 인텔리전스 기능 전반과 연동돼 활용 범위가 확대된다. 설정 메뉴에서는 연동 서비스 활성화 여부를 직접 관리할 수 있도록 구성될 예정이다. 외신은 애플이 기존 오픈AI '챗GPT' 중심 연동에서 벗어나 멀티 AI 구조를 추진한다는 점에서 의미 있다고 봤다. 이를 통해 외부 AI 서비스를 빠르게 추가하고 OS 전반에 AI 활용을 확산할 것이란 분석이다.; 애플은 앱스토어 기반으로 외부 AI 구독 서비스 결제 과정에 개입해 수익을 확대하는 전략도 병행할 방침이다. 현재 챗GPT 결제에서도 자체 결제 시스템을 통해 수익을 확보하고 있는 구조를 확장하려는 움직임이다. 이번 개편은 구글과 협력해 시리 성능을 강화하는 작업과는 별개로 진행된다. 기존 협력이 기술 고도화에 초점을 맞췄다면 이번 전략은 외부 AI 생태계를 끌어들이는 것이 핵심이다. 향후 퍼플렉시티를 비롯한 아마존 알렉사, 메타 AI, xAI 그록, 마이크로소프트 코파일럿 등 다양한 AI 서비스가 애플 플랫폼에 들어올 가능성도 제기된다. 다만 모든 AI를 허용할지 여부는 아직 확정되지 않았다. 애플은 오는 6월 8일 세계개발자회의(WWDC)에서 iOS 27과 관련 AI 전략을 공개할 계획이다. 시리 인터페이스 개편과 검색 기능 통합 등 추가 변화도 함께 발표될 것으로 예상된다.

2026.03.27 14:39김미정 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

삼성전자, SK하이닉스의 고대역폭메모리(HBM) 출하량이 올해에도 큰 폭의 성장을 이어갈 전망이다. 삼성전자의 경우 엔비디아와 브로드컴, AMD 등 고객사 수요로 출하량이 100억Gb(기가비트)를 넘길 것으로 관측된다. SK하이닉스는 최근 엔비디아향 HBM4에서 성능 논란을 겪었지만, 적정한 성능 선에서 제품을 공급하는 데 무리가 없을 것이라는 평가가 중론이다. 결과적으로 양사 모두 연초 설정했던 HBM 출하량 계획에서 큰 변동은 없을 것으로 보인다. 27일 업계에 따르면 삼성전자, SK하이닉스의 올해 HBM 출하량은 용량 기준 도합 300억Gb에 달할 전망이다. 삼성전자, HBM 출하량 100Gb 돌파 전망…HBM4 성과 두각 삼성전자는 올해 HBM 생산량을 지난해 대비 3배 이상 확대하겠다는 목표를 세우고 있다. 황상준 삼성전자 메모리개발담당 부사장은 지난 16일(현지시간) 미국에서 열린 'GTC 2026'에서 "HBM 생산을 빠르게 확대하고 있다. 올해는 지난해 대비 3배 이상 수준으로 늘릴 계획"이라고 밝힌 바 있다. 삼성전자의 지난해 총 HBM 출하량은 40억Gb 내외로 추산된다. 이를 고려하면 올해 출하량 목표치는 110억Gb 내외에 달할 전망이다. 실제로 삼성전자는 지난해 말께 올해 HBM 사업 전략을 구상하는 단계에서 이 같은 성장세를 자신한 것으로 전해진다. 당시 차세대 제품인 HBM4가 엔비디아로부터 긍정적인 피드백을 받았고, AMD와 브로드컴 등 타 고객사와의 공급 협의도 사실상 마무리 단계에 접어들어서다. 브로드컴은 구글, 오픈AI 등 빅테크의 AI 반도체를 위탁 생산하고 있다. 특히 엔비디아는 삼성전자 HBM4의 가장 큰 고객사가 될 전망이다. 삼성전자는 HBM의 코어 다이로 1c(6세대 10나노급) D램을, 컨트롤러 역할의 베이스 다이는 자사 파운드리 4나노미터(nm) 공정을 채택했다. 두 다이 모두 경쟁사 대비 공정이 고도화됐다. 이를 토대로 삼성전자는 엔비디아가 높인 HBM4 성능 기준을 가장 먼저 충족했다는 평가를 받았다. 당초 국제반도체표준화기구(JEDEC)가 정한 HBM4의 성능은 8Gbps급이었으나, 엔비디아는 이를 11.7Gbps 수준까지 요구했다. HBM3E 제품에서는 브로드컴이 가장 큰 고객사로 꼽힌다. 구글은 자체 제작한 AI 반도체 TPU(텐서처리장치)에 HBM을 탑재하고 있으며, 올해는 HBM3E 기반의 v7p 버전의 물량을 크게 확대할 것으로 알려졌다. 반대로 삼성전자의 HBM 출하량이 더 늘어날 가능성은 높지 않다는 평가다. 올해 말까지 삼성전자가 확보 가능한 1c D램의 생산능력은 월 13만장 수준이다. 이 중 대부분이 HBM에 할당된 상태로, 추가적인 생산능력 확보가 어려운 상황인 것으로 관측된다. SK하이닉스, 성능 논란 속에서도 당초 출하량 계획 변동 無 SK하이닉스의 올해 HBM 출하량은 전년(120억Gb 수준) 대비 60%가량 증가한 200억Gb 내외에 달할 전망이다. 이 중 3분의 2가량이 엔비디아에 할당된 것으로 파악된다. 상반기에는 HBM3E를 주력으로 공급하고, 하반기부터 HBM4 공급량이 확대될 예정이다. 최근 SK하이닉스는 엔비디아향 HBM4 공급에 차질이 생길 수 있다는 우려에 휩싸인 바 있다. 엔비디아가 상향 조정한 HBM4 성능을 만족시키기 어렵다는 이유에서다. SK하이닉스의 HBM4는 코어다이로 1b(5세대 10나노급) D램을, 베이스다이로 TSMC의 12나노 공정을 채택했다. 삼성전자 대비 레거시(성숙) 공정에 해당한다. 실제로 SK하이닉스의 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 난항을 겪었다. 코어 다이 최상부층까지 전력이 제대로 도달되지 않는 문제가 가장 큰 요인으로 지목된다. 이에 SK하이닉스는 일부 회로를 수정하는 방안으로 개선 작업을 진행해 왔다. 다만 SK하이닉스가 당초 계획한 엔비디아향 HBM 공급량에 변동이 생길 가능성은 극히 적은 것으로 관측된다. 엔비디아가 HBM4의 성능을 최대 11.7Gbps까지 요구하기는 했으나, 10Gbps 등 하위 성능의 제품도 동시에 수급하기 때문이다. 최상위 제품만 도입하는 경우 최첨단 최신 AI 칩인 '베라 루빈'을 충분히 양산하지 못할 수 있어, 이 같은 전략을 짠 것으로 풀이된다. 곽노정 SK하이닉스 사장도 최근 열린 SK하이닉스 정기 주주총회 현장에서 "고객사와의 협의로 약간의 믹스 조정은 하고 있으나, 당초 계획했던 전체 HBM 출하량에서 큰 변화는 없다"고 밝힌 바 있다. 반도체 업계 관계자는 "HBM4가 상용화 시점에 접어들면서 다양한 성능, 고객사 관련 이슈들이 떠오르고 있으나, 삼성전자와 SK하이닉스 모두 당초 계획했던 HBM 출하량 변동에서 큰 조정은 없는 상황"이라며 "HBM 총 공급능력이 수요를 크게 밑도는 수준이라, 결국 양사 제품이 무난하게 잘 팔릴 것이라는 게 중론"이라고 설명했다.

2026.03.27 11:07장경윤 기자

장현국 넥써쓰 대표 "웹4 시대, AI 에이전트가 게임의 새 축"

"에이전트 게임이 휴먼 게임을 대체하지는 않을 겁니다. 인간이 재미있게 플레이하는 영역은 그대로 있겠지만, 에이전트 게임이라는 새로운 영역이 큰 축으로 추가될 것이라 생각합니다." 장현국 넥써쓰 대표는 최근 경기도 판교에 위치한 넥써쓰 사옥에서 기자와 만나 이같이 말했다. 넥써쓰는 블록체인 게임 플랫폼으로 출발하고, 현재 AI 에이전트 게임 생태계를 개척하고 있는 국내 게임 개발사다. 현재는 웹3를 비롯해 웹2와 웹4를 아우르는 유기적인 3축 전략을 통해 각 환경에 최적화된 비전을 제시했다. 1100만 에이전트 돌파…새로운 영역 탄생의 신호 넥써쓰는 지난달 4일 텍스트 기반 머드 게임 '몰티로얄'을 출시했다. 생존을 목표로 하는 이 게임은 기존 게임과 달리 AI가 직접 플레이어로 참여하는 것이 특징이다. 사람은 AI가 스스로 판단하고 생존해 나가는 과정을 관찰하며 승패의 몰입감을 경험할 수 있다. 몰티로얄은 26일 기준 누적 참여 에이전트(AI) 수 1100만개를 넘어섰다. 장 대표는 이 수치를 단순 성장 지표가 아닌 게임 산업에 새로운 영역이 탄생하는 신호로 읽었다. 에이전트 게임의 수요를 확인함과 동시에 사람에게도 통할 것이라는 판단에서다. 장 대표는 에이전트 게임이 시장의 새로운 축으로 자리 잡을 것이라 확신하며, 그 근거로 두 가지를 제시했다. 첫째는 '실증 경험'이다. 에이전트를 게임 세계에 보내놓고 그 플레이 과정을 관찰하며 관리하는 과정 자체가 이용자에게 충분한 재미를 준다는 점을 직접 확인했다는 설명이다. 둘째는 '기존 게임 업계의 트렌드'이다. 팬데믹 시기에는 이용자의 80%가 직접 게임을 플레이했다면, 현재는 약 50%가 게임을 '시청'하는 형태로 소비 양상이 변했다. 이처럼 '보는 게임'이 주류로 부상한 상황에서, '방치형 키우기' 게임처럼 자동화된 플레이에 익숙한 이용자층이 두텁다는 점도 강조했다. 웹4 게임이란? 넥써쓰는 웹4를 '사람 대신 AI가 활동하는 환경'으로 정의했다. 기존 웹3의 블록체인 인프라 위에 AI가 더해져, 이들이 스스로 판단하고 경쟁하며 실질적인 경제 가치를 창출하는 것이 골자다. 장 대표는 웹4 기반 게임 환경을 구축하기 위해 "에이전트가 참여할 수 있는 '게임'과 에이전트간의 결제 및 토큰 전송이 가능한 '플랫폼', 게임 속 성과가 토큰 가치에 영향을 미칠 수 있는 '토크노믹스(토큰+이코노믹)'가 필요하다"고 설명했다. 이어 그는 "지금 웹4 시장은 이제 막 시작 단계라서 표준이 없다"며 "이제서야 표준을 만들기 위한 시도들이 시장에서 많이 이뤄지고 있고, 게임 업계에서는 넥써쓰가 거의 유일하다"고 덧붙였다. 게임체인·게임허브·에이전트버스, 3축으로 연결되는 전략 넥써쓰는 현재 게임체인(웹3)부터 게임허브(웹2), 에이전트버스(웹4)로 이어지는 3축 전략을 병행하고 있다. 장 대표는 "처음에는 게임체인, 즉 블록체인 게임 플랫폼을 만들면서 결제·커뮤니티·스트리밍 등 서비스를 개발했는데, 이것들이 굳이 웹3 게임만을 위한 서비스일 필요가 없다는 걸 깨달았다"고 말했다. 여기에 애플·구글의 결제 독점이 무너지면서 대안 솔루션에 대한 수요가 급증했고, AI 덕분에 연간 1만 개 수준이던 게임 출시가 10만 개 수준으로 늘어나 1인 개발자를 위한 종합 지원 플랫폼의 필요성이 커졌다. 이러한 흐름에서 탄생한 전략이 '게임허브'다. 게임 자체는 건드리지 않고 운영에 필요한 외적인 솔루션을 통합 제공하는 방식이며, 웹2 게임이 점차 웹3·웹4로 진화할 수 있는 경로가 된다는 설명이다. 실제 사례로 장 대표는 최근 선보인 '씰M 온 크로쓰'를 들었다. 그는 "이미 2년 이상 서비스하던 게임을 잠시 내렸다가 다시 올린 것인데, 게임 자체는 단 하나도 바꾸지 않았다"며 "블록체인을 붙이고 넥써쓰 플랫폼 솔루션을 연동했을 뿐인데, 매출이 100배 이상 뛰었다"고 밝혔다. 현재 씰M 온 크로쓰는 웹3 게임 플랫폼 '크로쓰 플레이'를 통해 200만 이상의 사전 가입자를 확보했고, 100명 이상의 크리에이터가 스트리밍 플랫폼 '크로쓰 웨이브'에서 방송 중이며, '크로쓰 샵' 매출 비중이 전체의 30%를 넘었다. 글로벌 출시 이후 이용자가 급증하며 아시아 서버까지 추가했다. 장 대표는 이러한 구조가 웹4로 이어질 수 있다고 설명했다. 그는 "다음 단계는 기존 웹2 게임에 에이전트 전용 서버를 하나 별도로 만드는 것이다. 기존 휴먼 서비스는 그대로 두고, 에이전트만 플레이하는 서버를 추가해 추가 매출과 새로운 재미를 만드는 것"이라며 "이 작업을 빠르면 4월 안에 자체 게임에 먼저 적용할 계획"이라고 밝혔다. 이와 함께 넥써쓰는 이용자가 자신만의 AI 에이전트를 손쉽게 만들고 크로쓰 생태계 게임에 직접 참여시킬 수 있는 플랫폼 '크로쓰 클로'도 빠른 시일 내 선보일 계획이다. 개발자가 아닌 일반 이용자도 에이전트를 만들어 게임에 참여할 수 있는 진입로를 여는 셈이다. 1~2년 후 블록체인 게임 시장은 어디로 장 대표는 블록체인 게임의 미래를 모바일 게임 시장에 비유하며 강한 자신감을 내비쳤다. 그는 "아이폰이 등장한 2007년부터 드래곤플라이트가 흥행한 2013년 전까지 게임 업계 누구도 모바일 게임이 주류가 될 것이라 믿지 않았다"고 회상했다. 이어 "당시의 불신과 달리 현재 글로벌 게임 시장이 약 300조 가까이 되는데, 그중 모바일 게임이 절반"이라고 덧붙였다. 혁신의 과정에는 반드시 '무지와 오해'가 따른다는 신념도 피력했다. 그는 "모두가 성공을 확신한다면 그것은 혁신이 아니라 누구나 하는 일일 뿐이며, 대중은 성공한 뒤에야 처음부터 믿었던 것처럼 착각한다"고 주장했다. 아울러 블록체인 게임을 향한 세간의 회의적인 시각에 대해서는 "경쟁 우위를 선점할 수 있는 기회"라고 자신했다. 웹4의 핵심인 AI 에이전트 시장에 대해서도 낙관적인 전망을 내놓았다. 장 대표는 "전 세계적으로 '오픈클로'와 같은 오픈소스 AI 에이전트가 주목받고 있다"며 "이미 엔비디아와 텐센트 등 글로벌 빅테크 기업들은 오픈클로 관련 기능들을 선보이고 있다"고 밝혔다. 향후 시장 전망에 대해서는 "결국 모든 게임이 토큰을 발행하게 될 것"이라고 단언했다. 물론 블록체인 기술이 곧 성공을 담보하는 것은 아니다. 그는 "매년 출시되는 6만여 개의 게임 중 성공이라는 단어를 붙일 만한 게임은 1000개도 안 될 것"이라며 "그래서 출시하는 게임 모두 성공하는 것이 블록체인 게임의 미래는 아니다"고 말했다.

2026.03.27 10:39진성우 기자

SNS에 부는 봄바람...봄코디·봄아우터 콘텐츠↑

SNS에는 화보처럼 꾸며진 룩북 사진이 넘쳐나지만, 일상복으로 어울리지 않거나 제품 가격이 부담스러운 경우가 많다. 이에 출근·주말 데이트 등 상황에 맞춰 실용성과 가성비를 모두 챙긴 코디를 제안하는 패션 인플루언서들이 주목받고 있다. 글로벌 SNS 데이터 분석 기업 피처링의 내부 분석 자료에 따르면, 완연해진 봄 날씨의 영향으로 3월 4주차 소셜미디어에서는 봄 의류 코디 관련 콘텐츠가 급격히 증가한 것으로 나타났다. 지난달 대비 '봄코디', '봄아우터' 해시태그는 각각 254%, 590% 늘었으며, 특히 '봄코디'는 3월 한 달간 인스타그램에서 총 734건의 콘텐츠가 노출됐다. SPA 브랜드로 고급스러운 출근룩 연출 패션 인플루언서 민룩(@_min_look)은 주로 자라, 유니클로 등 SPA 브랜드에서 클래식하고 세련된 무드를 강조하는 데일리 출근룩을 제안한다. 특히 계절별 신상 대신 입어보기 콘텐츠는 착용 후기와 함께 소재·핏·가격 등 자세한 정보를 함께 제공해 인기를 끌고 있다. 최근 유니클로에서 명품 브랜드 프라다 무드 가성비 패션 아이템을 제안한 릴스 콘텐츠의 경우 누적 조회수 11.8만회를 기록해 팔로워 대비 높은 성과를 냈다. 지난달 해당 인플루언서는 패션 카테고리에서 15.7%의 반응률(ER·Engagement Rate)로 최상위 순위권에 포함됐다. ER은 좋아요·댓글·공유와 같은 콘텐츠 반응을 팔로워 수로 나눈 값으로, 인플루언서가 업로드한 콘텐츠의 실질적 영향력을 가늠하는 성과 지표로 활용되고 있다. 파스텔 감성 얹은 봄 맞이 개강룩 김가훤의 이모저모 유튜버는 독특하면서도 화사한 색감의 데일리룩 코디를 제안한다. SPA 브랜드뿐만 아니라 테무·쉬인 등 중국 패션 플랫폼에서 구매 가능한 아이템도 적극적으로 소개해, 저렴한 가격대의 룩북 정보를 원하는 팬들 사이에서 입소문을 얻고 있다. 지난 1월 업로드된 민트·브라운 색조합 코디룩은 조회수 203만, 댓글 303개를 기록하고 있으며, 최근 업로드된 쇼츠 콘텐츠는 평균 조회수 12만회를 기록하고 있다. 이는 유사 그룹 중 상위 13%에 해당한다. 중학생 때 산 옷 활용 코디 틱톡커 시뇨리는 중학생 때 산 옷을 활용한 빈티지 코디로 화제가 됐다. 특유의 비비드한 컬러 조합과 귀여운 외모로 13~17세 여성 팬층에게 사랑받고 있다. 최근 게시된 30개 콘텐츠의 평균 ER은 50.3%를 기록하고 있으며, 이는 유사 그룹 평균(22.4%) 대비 2배 이상을 웃도는 성과다. 보다 자세한 내용은 피처링이 발간한 '피처링 PICK! 인플루언서 랭킹 리포트 3월호'에서 상세히 확인할 수 있으며, 자료 다운로드는 피처링 홈페이지 '유용한 자료'에서 가능하다.

2026.03.27 10:22백봉삼 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

펀플러스 '파운데이션: 우주 전선', 양대 마켓 및 맥 플랫폼 정식 출시

펀플러스는 파라마운트와 공동 개발한 모바일·PC 크로스 플랫폼 SF 전략 RPG '파운데이션: 우주 전선'을 구글 플레이스토어, 애플 앱스토어, Mac 플랫폼에 정식 출시했다고 27일 밝혔다. 이 게임은 서양 SF의 기초를 확립한 아이작 아시모프의 대표작 '파운데이션'을 원작으로 한다. 이용자는 정체불명의 우주 트레이더가 되어 '해리 셀던', '뮬' 등 주요 캐릭터들과 조우하며 우주 역사를 뒤흔드는 방대한 서사를 직접 체험하게 된다. 기존의 고정된 좌표 기반 시스템에서 벗어나, 우주선 자체가 거점이 되는 '이동형 우주 기지 시스템'을 도입한 것이 특징이다. 이용자들은 수십 곳의 성계를 자유롭게 항해하며 미지의 영역을 탐사하고 무역 루트를 개척할 수 있다. 또한 승무원 모집, 기술 연구, 시설 건설 등 다양한 시뮬레이션 요소와 수백 명 규모의 길드가 성간 패권을 다투는 대규모 전쟁 콘텐츠를 제공한다. 전투는 함선들이 맞붙는 우주전과 행성 표면에서 펼쳐지는 '챔피언 분대 지상 슈팅 전투'로 구성된 듀얼 시스템을 채택해 전략성을 극대화했다. 황금기 SF 우주 분위기를 구현하기 위해 세계적인 거장들도 제작에 참여했다. '스텔라리스' 시리즈 작곡가 안드레아스 발데토프트가 음향과 배경 음악을 공동 제작했으며, '스타 아틀라스'의 유명 디자이너 게리 산체스와 간 나라란이 전함 디자인을 맡아 디테일을 완성했다. 펀플러스는 정식 출시를 기념해 튜토리얼을 완료하고 우편 기능을 해금한 모든 신규 이용자에게 행동 포션 10개, 금속과 물 각각 1만개, 갤럭시 코인 4000개를 즉시 지급한다. 게임 접속 2일 차에는 레전더리 등급의 한국 여성 요원 챔피언 '배주리'를 무료로 제공한다. 출시 첫 주에는 코어 레벨 10 달성 이용자를 대상으로 한정 이벤트 '[꽃피는 약속]'이 진행된다. 오는 4월 2일 이전에 접속한 이용자는 매일 로그인과 트레이더 네트워크 의뢰를 통해 다양한 성장 재료와 '미스터리 대형 보상'을 추가로 수령할 수 있다.

2026.03.27 10:08정진성 기자

"브랜딩도 AI로 효율화"…챗GPT 대신 '애피어' 써야하는 이유

개인정보 보호 강화와 매체 환경 변화로 퍼포먼스 마케팅의 효율이 예전 같지 않다는 평가가 나오면서, 디지털 광고 시장에서 '브랜딩'이 핵심 과제로 떠오르고 있다. 단순히 광고비를 더 집행하는 방식만으로는 성과를 내기 어려워진 만큼, 소비자가 브랜드를 인지하고 자발적으로 찾게 만드는 구조를 구축해야 장기적인 투자 대비 성과(ROI)도 높일 수 있다는 판단에서다. 애피어코리아는 이 같은 변화에 맞춰 에이전틱 AI를 기반으로 브랜딩 캠페인의 제작·집행·최적화 전 과정을 효율화하겠다는 전략을 내세우고 있다. 성과형 광고 솔루션을 기반으로 쌓아온 역량 위에 브랜딩 기능을 더해, 퍼포먼스와 브랜드 인지도를 함께 끌어올리겠다는 구상이다. 이보혁 애피어코리아 애드 클라우드 솔루션 세일즈 총괄은 최근 지디넷코리아와의 인터뷰에서 “챗GPT 등장 이후 생성형 AI가 수면 위로 드러나면서 마케터들도 실제 업무에서 AI가 어떻게 쓰이는지 체감하게 됐다”며 “이제는 소재 제작과 보고, 캠페인 기획과 최적화까지 전반적으로 훨씬 빠르고 간편해졌다”고 말했다. 애피어는 ▲광고(Advertising Cloud) ▲개인화(Personalization Cloud) ▲데이터(Data Cloud) 등 3개 축의 포트폴리오를 운영하고 있다. 각 퍼널 단계에서 마케터의 핵심성과지표(KPI) 달성을 지원하는 이른바 '풀퍼널' 솔루션 구조다. 특히 회사는 최근 브랜딩 영역을 강조하고 있다. 이 총괄은 “성과형 광고는 기본적으로 계속 중요하지만, 브랜드 인지도가 함께 받쳐줘야 광고 효율도 더 극대화될 수 있다”며 “브랜딩은 별개의 영역이 아니라 성과를 더 끌어올리는 기반”이라고 설명했다. AI+전문가 결합…크리에이티브 완성도·ROI 동시 개선 애피어는 브랜딩 캠페인의 핵심 요소로 타깃팅·소재·인벤토리 세 가지를 꼽는다. 어떤 이용자에게 광고를 보여줄지, 어떤 형식의 크리에이티브를 내보낼지, 어느 매체와 지면에 노출할지를 유기적으로 설계해야 성과가 난다는 판단이다. 타깃팅은 산업군별 캠페인 운영 경험과 시장 인사이트를 바탕으로 진행한다. 소재 제작에서는 자체 생성 AI 모델과 에이전트를 활용해 영상이나 인터랙티브 광고를 기획·생성하고, 인벤토리 운영 단계에서는 광고주의 예산과 목표에 맞춰 연동된 매체 중 가장 효율적인 노출 조합을 제안하는 방식이다. 애피어가 내세우는 차별점은 AI만으로 결과물을 끝내지 않는다는 데 있다. 애드 클라우드 내 '디렉터 에이전트'가 크리에이티브 제작을 지원하되, 최종 단계에서는 내부 숙련 인력이 파인튜닝을 맡아 완성도를 높인다. 범용 생성형 AI만으로 제작한 영상은 아직 이질감이 남을 수 있는 만큼, 브랜드 가이드라인과 산업 특성을 이해한 전문가의 손질이 필요하다는 설명이다. 회사 측은 이 구조가 비용 효율 측면에서도 강점이 있다고 보고 있다. 기존에는 고품질 브랜딩 영상 제작에 많은 시간과 비용이 따로 투입됐지만, 애피어는 캠페인 운영 안에서 크리에이티브 제작 부담을 낮추는 방식으로 광고주가 절감한 자원을 실제 광고 집행과 노출 확대에 더 집중할 수 있도록 돕겠다는 구상이다. 제작비 부담이 브랜딩의 가장 큰 진입 장벽이었던 만큼, 이를 낮춰 결과적으로 전체 ROI를 높이겠다는 것이다. 광고 운영 자동화도 주요 포인트다. 애피어는 광고 성과를 분석해 증분 효과를 판단하는 'ROI 에이전트', 영상 및 크리에이티브 방향을 지원하는 '디렉터 에이전트', 인터랙티브 광고 제작을 돕는 '코딩 에이전트' 등을 운영하고 있다. 룰렛형 광고나 플레이어블 광고처럼 구현 난도가 높은 포맷도 기존 영상이나 시안, 녹화본 등을 바탕으로 보다 손쉽게 전환할 수 있도록 지원한다는 설명이다. 이 과정에서 AI는 24시간 작동하며 광고 성과를 분석하고, 반응이 좋은 소재나 타깃에 노출과 예산을 더 배분하는 방식으로 실시간 최적화를 수행한다. 특정 연령대나 세그먼트에서 성과가 좋은 광고 유형을 빠르게 파악해 확대하고, 성과가 낮은 소재는 변형하거나 교체하는 대응도 보다 민첩하게 할 수 있다는 것이다. 주력 분야 게임·커머스...금융·뷰티 등으로도 확대 이 총괄은 커머스와 게임은 애피어의 기존 주력 분야라고 강조했다. 커머스 시장에서는 신규 고객 유입보다 휴면 고객 재활성화, 재구매 유도, 충성 고객 전환이 더 중요해진 만큼 상품 추천 알고리즘과 리타깃팅 역량이 핵심이 된다는 게 회사 측 판단이다. 게임 분야에서도 신규 이용자 확보와 복귀 유저 전환, 결제 확대 등 성과형 마케팅 경험을 축적해 왔다. 국내 퍼포먼스 사례도 있다. 애피어에 따르면 넥슨의 '던전앤파이터 모바일' 출시 캠페인에서는 출시 1주 차에서 4주 차까지 레벨 완료율이 6.9% 상승했고, 인앱 결제 건수는 1.4배 증가했다. '카트라이더 러쉬플러스'는 출시 후 45일 시점에 다운로드 감소 추세가 나타났지만, 리인게이지먼트 솔루션 도입 뒤 리타깃팅 유저 전환율(CVR)이 55% 증가하고 인앱 결제 건수는 16% 늘었다. 지마켓 사례에서는 거래액(GMV) 확대와 안정적인 광고수익률(ROAS) 달성을 목표로 리타깃팅 솔루션을 적용한 결과, 고가치 고객 중심 전략으로 목표 ROAS를 안정적으로 달성했다고 회사는 설명했다. 생성형 AI를 활용한 광고 문구는 기존 고정 타이틀 대비 클릭률(CTR)을 25% 이상 끌어올리는 데 기여했다. 브랜딩 관련 글로벌 사례도 제시했다. 한 글로벌 패션 브랜드는 오프라인 중심 전략에서 온라인 전환을 추진하는 과정에서 정교한 타깃팅을 통해 ROAS 100% 이상을 달성했고, 한 럭셔리 호텔 브랜드는 브랜드 인지도 제고와 함께 실제 예약률을 113% 높였다. 이 총괄은 "브랜딩 수요가 큰 업종으로 금융, 항공, 뷰티를 꼽을 수 있다"며 "금융과 항공은 신뢰도와 브랜드 세이프티가 중요해 고품질 크리에이티브와 정교한 노출 설계가 필요하고, 뷰티는 제품 수가 많고 트렌드 변화가 빨라 다품종·다포맷 소재를 빠르게 생산해야 하는 수요가 크기 때문"이라고 말했다. 금융권 브랜딩 캠페인의 경우에도 단순 관심사 타깃팅이 아니라 실시간 맥락 기반 접근을 강조했다. 예를 들어 금융 앱이나 관련 콘텐츠를 실제로 이용하는 시점의 인벤토리를 중심으로 카테고리 기반 타깃팅을 설계해, 해당 이용자에게 금융사나 자산운용사의 브랜드 메시지를 노출하는 방식이다. 단순 다운로드 유도보다는 브랜드 자체의 긍정적 인지 형성에 초점을 맞춘 전략이다. 왜 챗GPT 대신 애피어인가…기업 맥락 학습한 에이전트가 차별점 애피어는 범용 대형언어모델(LLM)과의 차이도 분명히 했다. 최근 기업들이 챗GPT 등 범용 AI를 적극 도입하고 있지만, 실제 비즈니스 문제를 해결하는 데는 한계가 있다는 것이다. 범용 LLM은 일반적인 생성 작업에는 유용하지만, 기업의 퍼스트파티 데이터와 브랜드 가이드라인, 고객 맥락, 내부 워크플로우까지 충분히 이해한 상태에서 의사결정을 내리기는 어렵다는 설명이다. 애피어는 이 지점에서 자사 솔루션의 의미가 있다고 본다. 단순히 AI 모델을 쓰는 데 그치는 것이 아니라, 퍼블릭 LLM의 성능을 활용하되 기업 고유의 맥락과 데이터를 결합해 실제 업무에 맞게 작동하는 에이전트로 최적화하는 것이 핵심이라는 것이다. 회사 측은 이를 '퍼블릭과 프라이빗의 가교'라고 표현했다. 이 총괄은 “많은 기업이 범용 LLM을 도입하고 있지만 기업마다 목적과 메시지, 운영 방식이 다르기 때문에 그대로 적용하는 데는 한계가 있다”며 “중요한 것은 기업에 맞는 형태로 AI를 작동시키는 것”이라고 말했다. 애피어는 AI 에이전트 구축 과정을 신입사원 온보딩에 비유했다. 신입사원이 입사 후 회사 시스템과 정산 방식, 업무 기준을 익히듯, AI 에이전트도 기업의 데이터와 맥락, 목적을 학습하는 과정이 필요하다는 의미다. 한 번 세팅해 끝나는 것이 아니라 지속적으로 최적화되면서 점점 더 해당 기업에 맞는 결과물을 내놓게 된다는 설명이다. 이 총괄은 "현재 디지털 환경은 구글과 메타 등 다양한 채널로 분산돼 있어 고객 여정을 통합적으로 이해하기가 점점 더 어려워지고 있다"며 "애피어의 UCP(Universal Commerce Protocol)는 이러한 파편화된 환경에서도 고객의 행동을 연결해 이해할 수 있도록 돕고, 이를 기반으로 보다 정교한 마케팅과 의사결정을 가능하게 한다"고 강조했다. 이 과정에서 중요한 것은 오랜 기간 축적해 온 브랜드·캠페인 운영 노하우와 시장 이해도를 바탕으로 각 기업에 맞는 모델과 운영 방식을 설계하는 일이라는 점도 언급됐다. 이 총괄은 "아시아태평양 시장에서 시작해 글로벌로 확장해 온 만큼 국가별 문화와 규제, 현지 감성에 대한 이해를 바탕으로 해외 캠페인까지 지원할 수 있다"고 자신했다. 예를 들어 한국 기업이 해외 시장을 겨냥한 광고를 집행하려 할 때, 단순 번역이 아니라 현지에서 어떤 소재와 메시지가 통하는지, 어떤 규제를 고려해야 하는지까지 함께 컨설팅할 수 있다는 것이다. 한국 지사에는 세일즈와 고객 커뮤니케이션을 담당하는 인력이 있고, 각 지역 지사에도 현지 인력이 배치돼 있어 로컬라이징 대응도 가능하다고 했다. 기업용 AI에서 특히 중요한 요소로는 '신뢰도'를 제시했다. 최근 애피어는 AI의 환각 현상을 줄이고, 스스로 확신이 낮은 상황에서는 인간의 개입이 필요하다는 신호를 줄 수 있도록 기술을 고도화하고 있다고 설명했다. 개인용 AI는 일부 오류가 큰 문제가 아닐 수 있지만, 기업 환경에서는 잘못된 판단이 비용 손실로 이어질 수 있는 만큼 정확성과 한계 인식이 모두 중요하다는 판단이다. 이 총괄은 AI 시대 마케터들의 역할에 대한 조언도 잊지 않았다. 그는 “마케터들이 AI 때문에 내 자리가 대체되는 것 아니냐는 우려를 많이 하지만, 결국 중요한 것은 AI를 잘 쓰는 마케터가 되는 것”이라며 “시장에는 AI 솔루션이 너무 많기 때문에 각 회사에 맞는 솔루션을 발굴하고 활용하는 능력 자체가 경쟁력이 될 것”이라고 말했다. 마지막으로 “AI가 사람을 완전히 대체한다기보다, AI를 잘 다루는 사람과 그렇지 않은 사람의 격차가 더 커질 가능성이 있다”고 덧붙였다.

2026.03.27 10:05안희정 기자

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

"챗봇 쓰면 지출 4.7배↑"…메이시스 데이터 공개

미국 최대 백화점 체인 메이시스가 인공지능(AI) 기반 쇼핑 어시스턴트를 도입하며 온라인 매출 반등에 나섰다. 해당 서비스를 이용한 고객의 지출이 비이용 고객 대비 4배 이상 늘어난 것으로 나타나면서다. 26일(현지시간) 블룸버그통신에 따르면 메이시스가 AI 챗봇 '애스크 메이시스(Ask Macy's)'를 도입해 웹사이트 방문자의 약 절반을 대상으로 수주간 시험 운영한 결과, 이용 고객의 지출이 비이용 고객보다 약 4.75배 높은 것으로 집계됐다. 이 서비스는 구글의 생성형 AI 플랫폼 '제미나이'를 기반으로 한다. 유통업체들이 잇따라 AI 쇼핑 기능 도입에 나서는 것은 고객 이탈 우려 때문이다. 소비자들이 자사 플랫폼 대신 오픈AI의 챗GPT 등 외부 AI 서비스를 통해 상품을 탐색할 가능성이 커지고 있어서다. 맥스 마그니 메이시스 최고고객·디지털책임자(CCDO)는 “모든 유통업체가 해법을 찾기 위해 단계적으로 접근하고 있다”며 “아직 누구도 정답을 찾지 못한 초기 시장”이라고 말했다. AI 쇼핑 도입은 이미 업계 전반으로 확산되는 추세다. PwC에 따르면 매출 기준 미국 상위 20개 유통업체 가운데 약 40%가 AI 기반 쇼핑 어시스턴트를 도입했다. 일부 기업이 2024년 관련 서비스를 선보였지만, 본격적인 확산은 2025년 중반 이후 이뤄졌다. 다만 기술 수준에는 편차가 크다. 알리 퍼먼 PwC 소비자시장 부문 책임자는 “효과적인 AI는 단순한 챗봇이 아니라 상품 구성과 고객 취향을 이해하는 개인 쇼핑 에이전트에 가깝다”고 설명했다. 아직 매출 및 수익성에 대한 데이터는 제한적이지만, 전반적인 효과는 긍정적인 방향으로 나타나고 있다는 평가다. 메이시스의 'Ask Macy's'는 현재 앱을 포함한 전 디지털 플랫폼에서 운영 중이다. 특히 정장에 어울리는 신발과 벨트를 추천하는 '코디 완성' 기능과 가상 피팅 기능에 대한 반응이 높은 것으로 나타났다. 가상 피팅은 고객이 상품 착용 모습을 미리 확인할 수 있도록 지원한다. 오프라인 매장에서도 해당 기능 활용이 확대되고 있다. 매장에서 직접 착용해볼 시간이 부족한 고객을 대상으로 직원들이 가상 피팅 기능을 활용하고 있다는 설명이다. 회사 측은 AI 챗봇 이용 고객의 높은 지출이 구매 의도와도 관련이 있을 수 있다고 보고 있다. 행사나 모임을 앞두고 빠르게 상품을 찾는 고객이 AI 기능을 적극 활용할 가능성이 높다는 분석이다. 메이시스는 이러한 고객 데이터를 기반으로 기술 고도화를 지속하고 있다는 입장이다. 챗봇 성능 개선 과정에는 수천 명의 직원이 참여했다. 드레스 추천 시 주요 브랜드가 노출되지 않는 문제를 개선하기 위해 알고리즘을 수정했고, 지역별 날씨 차이를 반영해 상품 추천을 달리하는 기능도 보완했다. 초기에는 챗봇의 응답 방식이 다소 기계적이라는 지적도 있었다. 아동용 티셔츠를 추천할 때 단순 목록만 제시하는 방식이었다. 현재는 “밝은 색과 차분한 색 중 어떤 것을 선호하느냐”는 식의 대화형 표현으로 개선됐다. 마그니는 “AI는 지속적으로 학습하며 진화하고 있다”고 말했다.

2026.03.27 09:12김민아 기자

"AI개발사 넘어 AI산업 선도"...아크릴, 창립 15주년 기념식

인공지능(AI) 인프라 전문기업 아크릴(대표 박외진)이 독보적인 'AX(AI 전환) 풀스택 역량'을 바탕으로 AI 개발사를 넘어, AI 산업 트렌드를 선도하고 미래 방향을 제시하는 기업으로 자리매김하고 있다. 인공지능 전환(AX) 인프라전문 기업 아크릴(대표 박외진)이 24일 120여명의 임직원과 업계 주요 관계자들이 참석한 가운데 창립 15주년 기념행사를 개최했다. 아크릴은 2011년 3월 설립 이후 자체 개발한 통합 AX 플랫폼 '조나단(Jonathan)'을 기반으로 공공, 의료, 보험 등 다양한 산업군의 AI 전환(AX)을 이끌어왔다. 특히, 단순한 AI 모델 개발을 넘어 데이터 전처리부터 모델 학습, 배포, 운영(MLOps)까지 AI 도입의 전 과정을 지원하는 '엔드투엔드(End-to-End)' 기술력을 인정받아 기술특례상장으로 작년 12월 코스닥 시장에 입성했다. 이 회사의 가장 큰 경쟁력은 '실질적인 수익화가 가능한 도메인 특화 AX 솔루션'이다. 아크릴은 삼성서울병원, 카톨릭 성모 병원, 연세의료원, 경북대 병원 등 국내 주요 대학 병원들과 협력해 식약처로부터 품목 허가를 받은 의료 인공지능 기반 소프트웨어 의료 기기 개발에도 성공했다. 이날 행사에서 아크릴은 AX 인프라 솔루션 '조나단(Jonathan)'의 기술 업데이트 계획도 발표하고, 실제 기업 경영 환경에서의 AI 활용 사례와 함께 아크릴이 지향하는 AX 내재화의 가치 및 미래 전략을 공유했다. 특히 아크릴은 전 임직원을 대상으로 한 '바이브 코딩 해커톤 대회'도 별도 부대행사로 진행하며 AI의 효용성을 증명했다. 개발자와 비개발자 구분 없이 전 임직원이 AI를 손쉽게 활용할 수 있음을 보여주는 한편, 조나단이 차세대 AI 표준 모델로 기능할 수 있는 가능성도 제시했다. 이 대회는 35분이라는 짧은 시간 안에 AI 도구만을 활용해 서비스를 구현하는 것을 목표로 진행됐다. 이를 통해 AI 기반 업무 방식의 확장 가능성과 1인당 생산성 극대화의 잠재력을 보여줬다. 바이브 코딩은 대규모 언어 모델(LLM)에 프롬프트(명령어)를 입력해 프로그램을 구현하는 방식이다. 아크릴은 “현재 AI는 업무와 실생활 전반에서 폭넓게 활용되는 실질적인 도구로 자리 잡기 시작했다”며 “당사는 이러한 AI 구현의 핵심이 되는 다양한 인프라 구축 솔루션을 전문적으로 제공하고 있다”고 설명했다. 이어 “우리 회사는 개발자 뿐 아니라 인사, 재무, 마케팅 등 비개발 직군을 포함한 120명 전 임직원이 실무에 AI를 적극 활용하고 있다”며 “전 구성원이 각자의 업무 영역에서 AI를 활용해 문제 해결, 의사결정, 실행 속도 향상을 이끄는 'AI 디렉터형 조직'으로 진화하고 있다”고 덧붙였다. 아크릴은 앞으로도 내부에서 검증한 AI 활용 경험과 기술력을 바탕으로 조나단 등 주력 솔루션을 지속 고도화하고, 실효성 높은 AX 모델을 제시함으로써 산업 전반의 AI 기반 디지털 혁신을 이끄는 기업으로 성장해 나갈 방침이다.

2026.03.26 21:56방은주 기자

데브시스터즈 '쿠키런: 오븐스매시', 글로벌 정식 출시

데브시스터즈(대표 조길현)는 프레스에이에서 개발한 모바일 배틀 액션 게임 '쿠키런: 오븐스매시'가 26일 글로벌 시장에 정식 출시됐다고 밝혔다. 쿠키런: 오븐스매시는 쿠키런 특유의 캐주얼한 액션에 실시간 이용자 간 대결(PvP) 재미를 더한 배틀 액션 게임이다. 세련된 어반판타지 세계관의 도시 '플래터시티'를 배경으로 개성 있는 쿠키들이 빠른 템포의 스타일리시한 전투를 펼치는 것이 특징이다. 쿠키런 지식재산권(IP) 최초로 글로벌 사전 등록자 수 300만명을 돌파하며 높은 관심을 받은 바 있다. 출시 시점에는 6가지의 전투 모드와 20종의 쿠키를 선보인다. 다양한 특성과 역할을 보유한 쿠키들과 전투의 판도를 뒤집을 수 있는 스펠 카드를 전략적으로 활용해 긴장감 넘치는 승부를 경험할 수 있다. 3 대 3 팀전 모드인 ▲캐슬브레이크 ▲젤리레이스 ▲노움배틀 ▲드랍더비트 ▲스매시파이트와 개인전인 ▲와일드로얄 모드는 약 3분간의 플레이타임 내에 다양한 재미를 느낄 수 있도록 구성됐다. 전투 외의 플레이 경험도 풍부하게 제공한다. 광장에서는 다른 유저와 교류하거나 다양한 인터랙션을 경험할 수 있다. 쿠키 커스터마이징도 자유로워 머리와 몸, 무기 등 개별 착장이 가능한 부위별 파츠를 자유롭게 조합 가능하다. 쿠키런: 오븐스매시는 정식 출시를 기다려온 유저들을 위해 다양한 이벤트를 진행한다. 런칭 기념 출석부에서는 연속 출석 시 에픽 쿠키와 코스튬 세트를 확정 획득할 수 있다. 소원을 향해 스매시! 오븐크라운 획득 챌린지는 게임을 플레이해 오븐크라운을 획득하면 자동으로 응모되며, 추첨을 통해 소원권과 인게임 재화, 구글 플레이 기프트카드 등 200만원 상당의 경품을 제공한다. 출시 이후에는 정기적인 업데이트를 통해 신규 쿠키와 콘텐츠를 지속적으로 선보일 예정이다. PvP 액션 게임으로서 '보는 재미'를 살려 유명 게임 크리에이터들과 함께하는 '크리에이터 서바이벌'도 출시와 함께 오픈한다. 쿠키런: 오븐스매시는 베트남에 본사를 두고 있는 전문 퍼블리셔 및 개발사인 VNGGames를 통해 동남아와 대만, 홍콩 등 아시아 9개 지역 퍼블리싱을 진행한다. 26일부터 해당 지역 대상 사전 등록도 시작된다.

2026.03.26 19:50진성우 기자

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

해긴, 신작 모바일 야구 게임 '2026 프로야구GO!' 구글·애플 앱마켓 출시

해긴(대표 이영일)은 신작 모바일 야구 게임 '2026 프로야구GO!'를 구글 플레이와 애플 앱스토어에 정식 출시했다고 26일 밝혔다. 2026 프로야구GO!는 국내 프로야구 리그(KBO) 공식 라이선스를 획득해 실제 구단 및 선수 데이터를 기반으로 제작된 캐주얼 스포츠 게임이다. 기존의 복잡하고 정교한 조작 위주의 야구 게임에서 벗어나, 누구나 손쉽게 나만의 구단을 관리하고 선수들을 성장시킬 수 있는 매니지먼트의 재미를 극대화한 것이 특징이다. 특히 이번 신작은 2025년부터 프로야구 원년인 1982년까지 연도별 정규 시즌과 포스트시즌을 치를 수 있는 콘텐츠 흐름을 갖췄다. 이용자는 현재 스타 플레이어는 물론, 과거 레전드 선수, 추억 속 구단 유니폼 등을 게임 내에서 만나볼 수 있다. 그래픽 측면에서는 친숙한 SD 캐릭터를 채택해 야구 본연의 역동적인 움직임을 캐주얼하게 풀어 냈다. 또 이용자가 직접 경기를 조작하지 않아도 팀이 스스로 성장하는 자동 육성 시스템과 간편한 로스터 관리 기능을 지원한다. 이 밖에도 같은 구단을 응원하는 '팬클럽' 시스템, 길드 단위로 진행되는 점령전 등 이용자 간의 커뮤니티와 경쟁을 즐길 수 있는 즐길 거리를 제공한다. 해긴 관계자는 "2026 프로야구GO!는 야구를 시청하고 즐기지만 기존 게임들이 다소 어렵게 느껴졌던 라이트 이용자부터, 옛 시절의 야구를 그리워하는 올드 팬들까지 모두 아우를 수 있는 게임"이라며 "2026년 정규 시즌 개막과 함께 야구팬들에게 새로운 즐거움을 드릴 수 있도록 최선을 다하겠다"고 전했다.

2026.03.26 19:04진성우 기자

구글 미트·팀즈·줌 다 제쳤다…언어 전문가 96%, '딥엘 보이스' 선택

딥엘의 인공지능(AI) 음성 번역 솔루션이 번역 품질과 자막 안정성 두 영역에서 구글 미트·마이크로소프트(MS) 팀즈·줌의 내장 번역 기능을 모두 앞섰다는 독립 연구 결과가 나왔다. 26일 슬레이터가 딥엘 의뢰로 수행한 독립 벤치마크 연구에 따르면 한↔영을 포함한 14개 언어 조합 블라인드 테스트에서 '딥엘 보이스 포 줌(DeepL Voice for Zoom)'은 번역 품질 96.4점, '딥엘 보이스 포 팀즈(DeepL Voice for Teams)'는 96.3점을 기록했다. 반면 타 플랫폼 평균은 87~89점이었다. 주요 번역 오류 발생률은 타 플랫폼 대비 평균 76% 낮았으며 번역 합격률은 79%로 타 플랫폼 평균 42%를 크게 웃돌았다. 블라인드 평가에 참여한 언어 전문가 96%가 딥엘 보이스를 1순위로 선택했다. 자막 안정성에서도 딥엘 보이스가 앞섰다. 딥엘 보이스 포 줌은 자막 안정성 88.6점, 딥엘 보이스 포 팀즈는 85.8점을 기록했으며, 자막 변화 및 깜빡임 현상은 MS 팀즈 대비 평균 37.6%, 줌 대비 평균 54.7% 감소했다. 보고서는 자막이 빈번하게 수정될 경우 번역이 정확해도 실제 회의 활용성이 떨어진다고 지적했다. 슬레이터는 프레임 단위 분석으로 깜빡임·흔들림·수정 빈도까지 함께 측정했다. 이번 연구는 28명의 현직 언어 전문가를 통해 영어→한국어·일본어·스페인어·프랑스어·독일어·이탈리아어·포르투갈어, 7개국어→영어 등 14개 언어 조합을 블라인드 심사하는 방식으로 진행됐다. 슬레이터는 분석 방법과 결과에 대한 편집권을 전적으로 유지했다고 밝혔다. 딥엘은 이번 연구 결과를 바탕으로 다음 달 16일 글로벌 업데이트를 통해 딥엘 보이스의 주요 기능 개선 및 플랫폼 간 협업 기능 확장을 공개할 예정이다. 야렉 쿠틸로브스키 딥엘 창업자 겸 최고경영자(CEO)는 "현직 언어 전문가들이 하나의 솔루션을 압도적으로 선호한 것은 시장의 방향성을 보여주는 분명한 신호"라며 "딥엘 보이스가 번역 품질과 자막 안정성 영역에서 새로운 기준을 제시하고 있음을 입증했다"고 강조했다.

2026.03.26 18:38이나연 기자

그라비티 게임 비전 '라그나로크 오리진 클래식', 한국 포함 아시아 권역 정식 출시

그라비티 홍콩 지사인 그라비티 게임 비전(GGV)은 MMORPG 신작 '라그나로크 오리진 클래식'을 한국, 대만·홍콩·마카오, 동남아시아 지역에 정식 출시했다고 26일 밝혔다. PC와 모바일 멀티 플랫폼으로 출시된 '라그나로크 오리진 클래식'의 PC 클라이언트는 공식 홈페이지에서, 모바일 버전은 각 지역 구글플레이 및 애플 앱스토어에서 다운로드할 수 있다. 이번 신작의 핵심은 월간 패스 운영을 통해 이용자들이 실력 및 전략 중심으로 게임을 즐길 수 있는 환경 지향이다. 원작의 세계관과 직업 체계를 적용해 클래식한 감성을 살리면서도, 성장 시스템 간소화와 플레이 타임 최적화로 전반적인 편의성을 대폭 향상했다. 앞서 진행된 비공개테스트(CBT)에서도 이용자들은 전투 본연의 재미와 개발진의 적극적인 소통 및 피드백 수용에 긍정적인 평가를 내린 바 있다. GGV는 정식 출시와 함께 전승 2차 직업을 한 번에 공개하고 스탯 격차를 줄여 직업 간 밸런스를 맞췄다. 이용자들은 기본 던전 파밍만으로도 핵심 자원을 충분히 얻을 수 있으며, 주요 콘텐츠인 '낙원섬 탐색' 완료 시 전용 탈것인 '딸기 포포 탄산수'와 칭호 '소다 갱 세이지'를 해금할 수 있다. 아울러 타 지역 이용자들에게 자신의 문화를 소개하는 '도시 응원' 콘텐츠를 통해 문화 토템 연동 시 전용 칭호와 프로필 프레임 등을 보상으로 지급한다. 정식 출시 기념 다채로운 이벤트도 열린다. 7일간 이벤트 퀘스트 완료 시 연회 추첨권을 지급해 당첨자에게 카드첩, 탈것, 코인 등을 선물한다. 출시 축하 의미로 다음 달 1일 오전 6시 59분까지는 '노래 경연 대회'를 열고 투표 상위 200위 내 참가자에게 한정 칭호, 코스튬, 프로필 프레임 등을 제공한다. 또한 같은 달 5일 오전 1시 59분까지 MVP 보스를 가장 먼저 처치한 상위 3개 팀에 한정 칭호와 골드 코인을 증정하며, 길드전 상위 10위권 팀에는 전용 길드 칭호와 아이콘을 지급한다. 이 밖에도 펫, 카드, 코스튬, 육성 아이템 등을 얻을 수 있는 여러 이벤트가 진행되며, 사전 예약자 전용 쿠폰(머리 장식, 탈것) 지급 및 정식 출시 이후 순차적인 혜택 쿠폰 공개가 예정되어 있다. 김진환 GGV 사장은 "이용자분들이 오랫동안 바라왔던 순수한 모험의 재미를 라그나로크 오리진 클래식에 완벽히 구현했다"며 "과감한 시스템 개편과 함께 실력과 전략의 비중을 높인 전투 설계로 라그나로크 오리진의 명성을 이어갈 것이라 기대한다"고 밝혔다.

2026.03.26 17:00정진성 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 탑재 국내위성 "수차례 교신 시도"

[르포] 배터리 증설 멈춰도 장비 혁신은 지속…미래 준비하는 CIS 공장

[AI 리더스] "AI 통제 권한 주체는 시민...K-디지털 공론장 절실"

트럼프 "2~3주간 이란에 대대적 공격...종전 협상도 진행"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.