• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'구글'통합검색 결과 입니다. (743건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

구글, 양자컴퓨터 암호화폐 해킹 위협 가시화 경고…"필요 자원 10배 줄었다"

구글 연구진이 암호화폐 보안 시스템을 뚫는 데 필요한 양자 컴퓨터 자원이 기존 예상보다 10배가량 적게 든다는 연구 결과를 내놨다. 양자컴퓨터를 이용한 암호화폐 해킹 위협이 현실적인 문제로 가시화되고 있어 대안 마련이 필요하다는 지적이다. 지난 30일(현지시간) 구글 양자 AI는 개선된 양자 알고리즘을 통해 기존보다 훨씬 적은 양자 자원으로 암호화폐 핵심 암호 체계를 해독할 수 있다는 백서를 발표했다. 이번 연구는 암호화폐 거래 서명에 사용되는 256비트 타원곡선 이산로그 문제를 중심으로 진행됐다. 타원곡선 암호(ECC)는 공개키와 개인키를 이용해 거래를 검증하는 방식으로, 현재 비트코인과 이더리움 등 대부분의 블록체인에서 사용되는 핵심 보안 기술이다. 연구진에 따르면 최적화된 쇼어 알고리즘을 적용할 경우 1천200개 미만의 논리 큐비트와 수천만 회 연산으로 개인키를 추출할 수 있다. 물리 큐비트 기준으로는 50만 개 미만에서도 공격이 가능할 것으로 추정됐다. 이는 과거 연구에서 예측했던 자원 요구량에 비해 약 10분의 1 수준으로 줄어든 것이다. 연구진은 충분한 성능을 갖춘 양자 시스템이 완성된다면 단 몇 분 만에 암호 해독 공격이 완료될 수 있다며, 추후 대규모 양자컴퓨터가 상용화될 경우 블록체인 시스템 전반에 치명적인 취약점이 발생할 수 있다고 경고했다. 주요 공격 모델로는 트랜잭션(거래)이 전송되어 확정되기 전의 짧은 시간 동안 개인키를 탈취해 자금을 빼돌리는 '결제 중(On-spend)' 공격과, 주소를 재사용하거나 오랫동안 방치되어 공개키가 노출된 지갑을 노리는 '보관 중(At-rest)' 공격이 꼽혔다. 특히 소유자가 비밀번호를 잃어버렸거나 더 이상 관리하지 않는 방대한 규모의 '휴면 자산(Dormant digital assets)'은 새로운 암호 체계로의 업데이트가 불가능해 양자 해커들의 가장 손쉬운 먹잇감이 될 것으로 우려된다. 다만 비트코인의 작업증명(PoW) 방식 자체는 이러한 양자 알고리즘에 직접적으로 취약하지 않은 것으로 나타났다. 구글 연구진은 해킹의 청사진이 악용되는 것을 막기 위해, 세부 회로도를 공개하는 대신 '영지식 증명(Zero-knowledge proof)'을 활용하여 해킹 기술을 숨긴 채 연구 결과를 검증받는 책임감 있는 정보 공개 방식을 택했다. 이들은 당장 현재의 블록체인 시스템이 뚫리는 것은 아니라고 선을 그었다. 그러나 하드웨어의 발전과 알고리즘의 최적화가 동시에 이루어지면서 위협이 현실화되는 시기가 기존 예상보다 훨씬 앞당겨졌다고 경고했다. 이번 백서는 학계 및 업계의 빠른 피드백과 논의를 촉발하기 위해 공개된 것으로 아직 공식적인 동료 평가를 거치지 않은 상태다. 연구 결과에 대한 과학적 검증 절차는 향후 진행될 예정이다. 구글 연구진은 "이 연구의 목표는 디지털 경제의 핵심인 암호화폐 생태계의 장기적인 건전성을 지키는 것"이라며 "양자 공격에 내성을 가진 포스트 양자 암호(PQC) 표준으로의 전환을 즉각 준비해야 한다"고 촉구했다. 또한 단기적으로는 공개키 노출을 줄이고 지갑 주소 재사용을 피하는 등의 조치가 필요하다고 권고했다.

2026.04.02 11:27남혁우 기자

스마트폰+라디오맵 합치니 112로 전화 건 아파트 동·호수까지 다나와

112나 119로 걸려온 응급 전화 위치를 즉각 추정할 수 있는 기술이 개발됐다. 스마트폰 와이파이 신호와 라디오 맵(신호 지문 지도)을 결합해 실내 위치를 정밀하게 파악할 수 있다. KAIST는 한동수 전산학부 교수 연구팀이 스마트폰 무선랜(Wi-Fi) 신호와 실제 주소 정보를 결합해 전국 단위 무선랜 라디오맵을 구축할 수 있는 원천 기술을 개발했다고 2일 밝혔다. 정확도는 아파트의 경우 동 및 호수 파악이 가능하다. 대형 쇼핑몰이나 대학 등의 실내라면 최소 3m, 최대오차 7m정도 된다는 것이 연구팀 설명이다. 한동수 교수는 전화통화에서 "정밀 위치 인프라를 구현하는 핵심 기술"이라며 "8년 개발, 10여 건의 특허를 냈다. 구글·애플 등 글로벌 빅테크 중심 위치 서비스 구조를 바꿀 '위치 주권' 기술"이라고 자평했다. 한 교수는 또 "최근 1대 5,000 정밀지도(건물·도로 등을 상세하게 담은 국가 핵심 공간 데이터) 해외 반출 논란과 맞물려 데이터 주권 확보의 중요성이 커지고 있다"며 "글로벌 빅테크 의존도를 낮추고 '위치 주권'을 실현할 수 있는 대안으로 국가 단위 라이오맵 구축을 제안한다"고 말했다. 이 기술의 핵심인 라디오맵은 무선랜 신호와 그 신호가 수집된 위치 정보를 연계시켜 저장한 DB다. 라디오맵이 구축된 건물이나 지역에서는 스마트폰과 같은 이동기기가 수신한 무선랜 신호 정보를 기반으로 해당 이동기기 위치를 추정할 수 있다. 스마트폰 앱 사용 과정에서 수집되는 무선랜 신호와 해당 위치 실제 주소 정보를 자동으로 결합, 특정 장소마다 고유한 '신호 패턴 지도(신호 지문)'를 구축하자는 것이 골자다. 실제 연구팀은 대전시 가스 검침 앱을 활용한 실증 결과, 아파트 가정마다 평균 30여 개 무선랜 신호가 탐지됐고, 이를 기반으로 도시 단위 라디오맵을 구축할 수 있을 것으로 내다봤다. 이외에 연구팀은 공간과 위치를 통합시키는 지오LLM(Geo대형언어모델) 기법에도 활용 가능하다고 설명했다. 지오LLM 기법은 연속적인 위치 정보로부터 장소 맥락과, 활동 맥락, 시간 맥락을 추출하고 챗봇을 통해 표출함으로써 위치 정보를 더 다양하고 유용하게 활용할 수 있는 기술이다. 지리정보를 LLM에 통합한 모델로 보면 된다. 연구팀은 정밀 위치 데이터는 최근 주목받는 자율주행이나 로봇, 물류 등 미래 AI 산업에서도 핵심 인프라라고 강조했다. 한동수 교수는 "실종자 수색 등 긴급 구조 상황에서 수백 미터에 달하던 위치 오차를 크게 줄여 골든타임 확보에 기여할 것"이라며 "특정 장소에서만 결제가 가능하도록 하는 '위치 기반 인증' 기술로 활용될 경우, 명의 도용이나 원격 결제 등 금융사고 예방에도 도움을 줄 수 있다"고 설명했다. 한 교수는 또 "이번 성과는 관련 산업 전반의 경쟁력을 높이는 기반이 될 것"이라며 "정부 주도로 통신사, 플랫폼 기업, 연구기관이 협력하는 민관 공동 인프라를 구축해야한다. 이는 국가 데이터 주권과 직결되는 핵심 자산”이라고 덧붙였다. 연구는 과학기술정보통신부와 한국연구재단, 그리고 소방청 및 산업기술기획평가원(KEIT) 지원을 받아 수행했다.

2026.04.02 09:06박희범 기자

김종철 위원장, 구글에 "앱마켓 수수료 인하 조속히 시행해달라"

김종철 방송미디어통신위원회 위원장이 윌슨 화이트 구글 글로벌공공정책총괄 부사장에 “12월로 예정된 (앱마켓 수수료율 인하) 국내 적용 시기를 조속히 시행될 수 있도록 노력해달라”고 요청했다. 김종철 위원장은 윌슨 화이트 부사장과 카라 베일리 구글 안드로이드 생태계전략담당 부사장이 정부과천청사를 찾아 면담을 가진 자리에서 “구글의 긍정적 변화로 앱마켓 생태계에 실질적인 변화가 기대된다”면서 이같이 말했다. 이날 구글 본사 임원들은 방미통위를 찾아 앱마켓 구글플레이의 결제 수수료율 인하 방침과 취지에 대해 설명했다. 구글에 따르면 구글플레이 수수료를 30%에서 최대 20%로 하향 조정한다. 구글플레이는 그동안 연 매출 100만 달러 초과 분에 대해 30%의 수수료를 부과해왔는데 앱마켓이라는 새로운 시장 생태계에서 독점적 지위를 누린다는 비판을 받아왔다. 국내 인앱결제 관련 법안이 시행되고 유럽연합에서도 규제 대상에 올랐고 자국인 미국 시장에서도 논란이 되자 수수료 정책에 변화를 준 것이다. 일률적인 30% 인앱결제 수수료와 달리 앞으로는 15~20%의 서비스 수수료에 5%의 결제 수수료를 구분해 부과된다. 신규 설치 건은 20%, 기존 설치 건은 25%가 되는 식이다. 외부 결제수단도 사실 일률적으로 적용해왔는데 이에 대한 문호도 넓힌다는 방침이다. 이와 같은 정책 변화는 6월부터 유럽과 미국 지역을 시작으로 한국에는 올해 12월에 적용 예정이다. 김 위원장은 면담에서 적용 시기를 조속히 시행해달란 점과 함께 국내 중소형 개발자와 앱마켓 생태계 전반의 상생 방안을 마련해달라고 당부했고, 구글 측은 적극 노력하겠다고 화답했다. 그러면서 김 위원장은 “앞으로도 공정하고 지속가능한 앱 생태계가 조성될 수 있도록 구글의 지속적인 관심과 노력을 당부한다”고 강조했다.

2026.04.01 16:08박수형 기자

구글, 차세대 '픽셀11 프로' 렌더링 공개

올 여름 출시가 예상되는 구글 플래그십 스마트폰 '픽셀11 프로'의 디자인을 엿볼 수 있는 렌더링이 공개됐다. IT매체 안드로이드헤드라인은 31일(현지시간) IT팁스터 온리크스와 함께 케이스 제조업체에 제공된 CAD 도면을 기반으로 구글 픽셀11 프로의 렌더링을 제작해 보도했다. 공개된 렌더링에서 픽셀11 프로의 후면 카메라 바는 그대로 유지되나 이전 모델과 달리 카메라 바 전체가 검은 색으로 바뀌고 모듈을 둘러싼 프레임에만 본체 색상이 적용되는 것을 확인할 수 있다. 화면 베젤은 여전히 비교적 얇지만, 경쟁사 제품들과 비교하면 두꺼운 편이다. 최근 내년에 출시될 20주년 기념 아이폰이 1.1㎜ 화면 베젤을 채택할 것이라는 소문이 있는 점을 고려하면 더욱 그렇다. 크기는 152.7 x 71.8 x 8.4㎜로 픽셀10 프로와 동일하며 두께만 아주 약간 얇다. 7코어 칩셋으로 예상되는 구글 텐서 G6 프로세서가 탑재될 것으로 보이나 미디어텍 M90으로 변경될 가능성도 거론되고 있다. 디스플레이도 이전 모델과 동일한 6.3인치 LTPO 아몰레드 디스플레이를 탑재할 예정이다. 구글은 치솟는 램 가격에도 불구하고 픽셀11 프로에 16GB 램, 128GB 저장 용량을 유지할 가능성이 높다고 안드로이드헤드라인은 전했다. 현재 램 가격 상황을 고려할 때, 가격 인상 효과를 상쇄하기 위해 램 용량을 12GB로 낮추는 방안도 고려해 볼 수 있을 것으로 보인다. 실제로 다른 안드로이드 스마트폰 브랜드들도 가격 상승 여력을 감안하면 램 용량을 줄이는 추세다. 하지만, 프로 모델은 128GB 저장 용량을 없애고 작년에 출시된 픽셀 10 프로 XL 처럼 256GB부터 시작할 것으로 기대되고 있다. 구글 픽셀 11 시리즈는 올해도 8월에 출시될 것으로 예상된다.

2026.04.01 15:27이정현 미디어연구소

미국·이란 종전 분위기…군부는 "빅테크 공격"

미국과 이란이 종전 가능성을 내비치고 있는 가운데 군부가 18개 미국 기업에 공격을 가하겠다고 경고해 그 배경에 관심이 쏠리고 있다. 이슬람혁명수비대(IRGC)는 31일(현지시간) 공식 성명을 통해 "이란 지도자가 추가 사망할 경우, 구글을 비롯한 18개 기업은 파괴를 예상해야 한다”고 경고했다고 와이어드가 이란 국영 프레스TV를 인용 보도했다. IRGC는 지난 3월초에도 미국 기업에 대한 공격을 경고했다. 하지만 당시 별다른 공격은 가해지지 않았다. 그런데 이번에는 정확한 공격 시간까지 예고해 관심을 끌었다. 이날 IRGC는 공격 시간을 1일 오후 8시(테헤란 시간 기준, 한국시간 2일 오전 1시30분)로 제시했다. 18개 공격 대상 기업도 적시했다. IRGC는 마이크로소프트, 구글, 애플, 메타, 오라클, 인텔, HP, IBM, 시스코, 델, 팔란티어, 엔비디아, 테슬라, JP모건, GE, 보잉 등이 공격 대상이 될 것이라고 경고했다. 이와 함께 아랍에미리트 AI 기업인 G42와 스파이어 솔루션즈도 공격할 것이라고 밝혔다. IRGC는 성명에서 “이란에서 테러가 발생할 때마다 이 기업들은 파괴를 면치 못할 것이다”고 경고했다. 특히 IRGC는 “이들의 핵심 기관들이 테러리스트들의 첩보 활동에 관여했다”면서 직원들에게 회사에서 떠나라고 경고했다. 미국 기업과 함께 테러 대상으로 지목된 G42는 아랍에미리트의 AI 생태계 핵심 기업으로 꼽힌다. 아랍에리미트 국부펀드인 무파달라와 미국 회사 마이크로소프트, 실버레티크, 달리오 페밀리 오피스 등이 주요 투자자이다. G42와 함께 공격 대상으로 지목된 스파이어 솔루션즈는 두바이에 터를 잡고 있는 사이버 보안 기업이다. 이 회사는 중동과 아프리카 지역 정부, 금융기관, 통신사, 에너지 회사 등과 긴밀하게 협업하고 있다. 이란은 3월 초에도 비슷한 경고를 한 바 있다. 당시에도 이스라엘과 연결된 미국 회사와 기반 시설들을 지목하면서 공격 경고를 했다. 이 때 공격 대상으로 지목된 것은 구글, 마이크로소프트, 팔란티어, IBM, 엔비디아, 오라클이었다. 하지만 당시에 별다른 공격은 가해지지 않았다. 이번에 거론된 회사들 중 많은 곳들은 아랍에미리트를 비롯한 페르시아만 지역에 지역 사무소, 클라우드 시설, 데이터 센터 등을 운영하고 있다. 지난 3월초에는 이란 드론 부대가 아랍에미리트와 바레인에 있는 아마존 웹서비스(AWS)의 데이터센터를 공습했다. 당시 공격으로 서비스가 차단되고 일부 기술 기반 시설들이 위험에 노출되기도 했다.

2026.04.01 13:49김익현 미디어연구소장

이란 혁명수비대 "구글·애플·테슬라 등 18개 미국 기업 타격" 경고

이란 이슬람혁명수비대(IRGC)가 중동 지역 내 미국 기술 및 금융 기업들을 겨냥한 공격 가능성을 공개적으로 경고했다. 31일(현지시간) CBS뉴스 등 외신에 따르면, IRGC는 이날 텔레그램을 통해 미국에 본사를 둔 18개 기업을 공격 대상으로 지목했다. 혁명수비대는 이 기업들이 미국 정부의 정보 활동에 협력하며 공습을 지원했다고 주장했다. IRGC는 성명에서 “반복적인 경고에도 테러 행위가 중단되지 않고 있다”며 “이제부터 테러 작전에 연루된 주요 기관들은 우리의 합법적인 타격 목표가 될 것”이라고 밝혔다. 앞서 지난 3월 초에도 유사한 경고를 내놓으며 공격 대상이 점차 확대되고 있다고 언급한 바 있다. 공격 대상으로 거론된 기업에는 구글, 애플, 마이크로소프트, 메타, IBM, 시스코, 인텔, HP, 오라클, 델, 엔비디아, 팔란티어, 보잉, 테슬라, GE, JP모건, G42, 스파이어 솔루션즈 등이 포함됐다. 주요 빅테크 기업과 금융사, 방위산업체, 반도체 기업 등이 대거 이름을 올렸다. IRGC는 또한 “해당 기업 직원들은 생명을 보호하기 위해 즉시 직장을 떠나야 한다”며 “관련 시설 반경 1㎞ 이내 주민들 역시 안전한 곳으로 대피해야 한다”고 경고했다. 한편 이란군은 별도의 성명을 통해, 이스라엘과 미국의 이란 인프라 공격에 대한 보복 차원에서 이날 새벽 이스라엘 벤구리온 공항 인근과 하이파 지역에 위치한 지멘스 및 AT&T 통신•산업 시설을 드론으로 공격했다고 밝혔다.

2026.04.01 08:11이정현 미디어연구소

구글 딥마인드 '젠캐스트', 기상예측 부정확한 이유 있었다

구글 딥마인드가 지난 2024년 공개한 인공지능(AI) 기상 예측 모델 '젠캐스트'가 제트기류 등 작거나 중간규모 공기흐름을 통한 기상 예측에서는 정확도가 떨어지는 것으로 확인됐다. 광주과학기술원(GIST)은 윤진호 환경·에너지공학과 교수 연구팀이 국내외 협력 연구로 구글 딥마인드 '젠캐스트'가 날씨 예보 핵심 원리인 '나비효과'를 실제 대기처럼 충분히 재현하지 못하는 근본적인 한계를 규명했다고 31일 밝혔다. 연구는 윤진호 교수(교신저자)와 김희수 석사과정생(제1저자)이 주도하고, 류지훈 미국 유타주립대 박사후연구원, 손석우 서울대 지구환경과학부 교수, 정지훈 세종대 환경융합공학과 교수, 김형준 KAIST 문술미래전략대학원 교수가 공동저자로 참여했다. 연구 결과는 국제학술지 'npj 클라이밋 앤 애트모스페릭 사이언스'에 온라인으로 게재됐다. 김희수 석사과정생은 전화통화에서 "태풍같은 큰 규모에서는 젠캐스트 기상예측에 문제가 없었지만, 중간규모 이하 기상 예측에서는 정확도가 떨어졌다"며 "이유는 예측을 생성할 때 사용한 노이즈가 예보 과정에서 완전히 제거되지 않고 남아 있음을 확인했다"고 설명했다. 그는 또 "젠캐스트뿐 아니라 유사한 방식의 AI 기상예측 모델에서도 비슷한 특성이 나타난다"며 "현재 널리 쓰이는 성능 지표만으로는 AI 모델이 실제 대기 물리를 제대로 반영하는지 판단하기 어렵다는 점을 보여주는 것"이라고 부연 설명했다. 젠캐스트는 구글 딥마인드가 지난 2024년 공개한 AI 기상예측 모델이다. 대규모 과거 기상 데이터를 학습한 뒤 '확산 모델'을 활용해 확률적 방식으로 수일에서 최대 약 2주(15일) 범위의 날씨를 예측한다. 날씨 예보는 초기 조건의 아주 작은 차이가 시간이 지남에 따라 크게 확대되는 '나비효과' 영향을 받는다. 이러한 특성 때문에 기상청 등에서는 초기 조건을 조금씩 달리해 여러 번 예측을 수행하는 '앙상블 예보'를 통해 예측 불확실성을 확률적으로 산출하고 있다. 실제 유럽중기예보센터 수치예보모델(ECMWF IFS)은 날씨예보 방정식에 기반한 비선형적 특성을 활용해, 초기 조건의 작은 차이가 시간이 지나며 점차 증폭되고 다양한 경로의 미래 상태로 자연스럽게 전개되도록 설계돼 있다. 이를 통해 날씨 불확실성과 극한 기상 발생 가능성을 확률적으로 평가한다. 반면 젠캐스트 같은 AI 기반 기상예측 모델은 물리 방정식 대신 데이터를 학습해 예측을 수행한다. 동일한 초기 상태에서 시작해 예보 과정에서 '무작위 잡음'(노이즈)을 주입하고 이를 제거하는 방식을 통해 서로 다른 예측 결과(앙상블 멤버)를 생성한다. 이에 연구팀이 지난 2021년 52주간 제트기류가 흐르는 대기상층(9~10km)에서 운동에너지 변화를 놓고, 유럽중기예보센터 수치예보모델과 젠캐스트의 예보를 비교 분석했다. 그 결과 기존 수치예보 모델에서는 '나비효과'가 나타난 반면, 젠캐스트에서는 예보 과정에서 주입된 잡음이 실제 대기에서처럼 자연스럽게 확산되지 않고 특정 규모에 머무르며 인위적인 흔적처럼 남는 구조적 한계가 있음이 확인됐다. 김희수 석사과정생은 "실제 대기에서는 서로 다른 규모의 흐름이 상호작용하며 에너지가 이동하고 날씨가 형성되지만, 젠캐스트에서는 이러한 규모 간 상호작용이 상대적으로 약해 현실적인 대기 흐름을 충분히 재현하지 못하는 것으로 나타났다"고 설명했다. 젠캐스트는 태풍같은 큰 규모의 흐름은 비교적 잘 모델링하면서도, 구름 형성이나 폭풍 발달과 밀접한 중간 규모 이하에서는 에너지 흐름이 비정상적으로 유지되고 실제 대기와 다른 '잡음 형태'의 패턴이 나타나는 특징도 확인됐다는 것이 연구팀 설명이다. 윤진호 교수는 "현재 AI 모델이 생성하는 다양한 예측 결과(앙상블)가 물리 법칙에 따른 불확실성이라기보다 통계적 다양성에 기반할 가능성을 시사한다"며 "AI 기상예측 모델의 성능 평가에서 정확도뿐 아니라 물리적 타당성을 함께 검증할 필요가 있다"고 말했다.

2026.03.31 09:25박희범 기자

[AI는 지금] 컨플루언트 품은 IBM, 데이터 스트리밍서 존재감 확대…AWS·MS와 경쟁

IBM이 데이터 스트리밍 기업 컨플루언트를 인수하며 인공지능(AI) 데이터 인프라 시장의 경쟁 구도에 변화가 나타나고 있다. 중립 플랫폼으로 자리잡았던 컨플루언트가 IBM 진영에 편입되면서 AWS·마이크로소프트·구글·IBM 중심의 경쟁 구도가 형성되는 양상이다. IBM 역시 이번 일로 실시간 데이터와 메인프레임, AI 플랫폼을 결합한 인프라 경쟁에 본격 나선 모습이다. 30일 업계에 따르면 IBM은 지난 17일 공식 뉴스룸을 통해 약 110억 달러(한화 16조 5880억원)에 컨플루언트 인수를 완료했다고 발표했다. 컨플루언트는 아파치 카프카(Kafka) 기반 데이터 스트리밍 플랫폼으로, 포춘 500대 기업의 40%를 포함해 6500여 개 기업이 활용하는 대표 솔루션이다. 이번 인수는 기업용 AI 도입 과정에서 핵심 과제로 지목돼 온 데이터 문제를 겨냥한 것으로 해석된다. 기업 내 데이터가 여러 시스템에 분산돼 있고 일정 주기로 묶어 처리되는 구조에서는 AI가 실시간 상황을 반영하기 어렵기 때문이다. 이로 인해 실제 운영 환경에서 AI 활용이 제한된다는 지적이 이어져 왔다. 컨플루언트는 데이터를 생성되는 즉시 연결·전달하는 스트리밍 기술을 제공하며 이 같은 문제를 해결해왔다. IBM은 컨플루언트를 통해 AI 모델과 에이전트가 실시간 데이터를 기반으로 작동하는 환경을 구축하겠다는 전략이다. 데이터 스트리밍의 중요성은 이미 업계 전반에 확산된 상태다. AWS(Kinesis), 구글(Pub/Sub), 마이크로소프트(Event Hub) 등 주요 클라우드 사업자들은 이미 관련 서비스를 제공하고 있다. 컨플루언트 역시 카프카 기반 표준 플랫폼으로 자리잡으며 기업 데이터 인프라의 핵심 축으로 활용돼 왔다. 이번 인수는 데이터 스트리밍 기술의 위상을 재확인하는 동시에 시장 구조 변화의 계기로 작용하고 있다. 중립적 플랫폼이던 컨플루언트가 IBM에 편입되면서 기업들의 선택지가 줄어들어 데이터 스트리밍 시장은 클라우드 사업자 중심 경쟁 구도 속에서 진영 경쟁이 한층 심화된 양상이다. IBM 내부적으로는 전략적 전환의 성격이 짙다. 그동안 IBM은 컨설팅과 레거시 시스템에서 강점을 보였지만, 클라우드와 AI 플랫폼 경쟁에서는 존재감이 약하다는 평가를 받아왔다. 이번 인수를 통해 실시간 데이터 처리 역량을 확보하면서 왓슨x(watsonx), IBM Z와 결합된 통합 인프라를 구축하게 됐다. 특히 IBM Z(메인프레임)와 컨플루언트의 결합은 금융·제조 등 핵심 산업에서 차별화된 경쟁력을 제공할 수 있는 요소로 꼽힌다. 기업의 핵심 트랜잭션 데이터를 실시간으로 AI 워크플로우에 연결할 수 있는 구조가 마련되면서 기존 레거시 시스템의 활용 가치도 재조명되고 있다. 컨설팅 사업 측면에서도 시너지가 기대된다. IBM은 데이터 아키텍처 구축부터 AI 적용, 운영까지 단일 벤더로 제공할 수 있는 체계를 확보하게 됐다. 이는 대형 기업 고객을 대상으로 한 통합 프로젝트 확대와 맞물릴 가능성이 있다. 롭 토마스 IBM 소프트웨어 부문 최고상업책임자(CCO)는 "거래는 초 단위로 이뤄지고 AI 의사 결정은 그만큼 빠르게 이뤄져야 한다"며 "컨플루언트와의 결합을 통해 기업이 실시간으로 데이터를 이동시키고 즉각적인 의사결정을 내릴 수 있는 기반을 제공하게 됐다"고 말했다.

2026.03.30 17:17장유미 기자

"챗GPT 기록, 제미나이서 그대로 본다"…구글, 외부 챗봇 정보 연동

구글이 챗GPT 등 외부 인공지능(AI) 서비스에 기록된 채팅 내용을 '제미나이'에 연동하는 기능을 도입한다. 구글은 AI 서비스 전환 장벽을 낮추기 위해 이같은 업그레이드를 추진한다고 공식 홈페이지를 통해 30일 밝혔다. 현재 제미나이 서비스에 접속하면 해당 공지를 확인할 수 있다. 제미나이 사용자는 서비스 설정 메뉴에서 '가져오기 옵션'을 선택한 뒤 챗GPT 등 기존 AI 앱에서 생성한 정보를 복사해 붙여넣기만 하면 된다. 이번 기능은 이용자 선호와 관계 정보 등 개인 맥락을 제미나이가 그대로 이해하도록 하는 데 초점 맞췄다. 관심사나 가족 정보, 성장 배경 등 기존에 입력했던 주요 정보를 재설정하지 않아도 된다. 구글은 챗봇 간 채팅 기록 이전 기능도 제공한다고 밝혔다. 이용자는 다른 AI 서비스에서 내보낸 파일을 업로드해 과거 대화를 검색하고 이어서 사용할 수 있다. 제미나이는 기존 대화뿐 아니라 지메일, 포토, 검색 기록 등과 연동해 응답을 구성하는 개인화 기능도 강화했다. 이를 통해 여행 계획이나 일정 추천 등에서 보다 맥락 기반 결과를 제공하는 구조다. 구글은 "가장 유용한 AI 어시스턴트는 사용자 이해를 바탕으로 작동해야 한다"며 "새로운 전환 도구를 통해 이용자가 빠르고 안전하게 제미나이로 이동할 수 있다"고 밝혔다.

2026.03.30 08:44김미정 기자

[카드뉴스] AI가 똑똑해지면 메모리가 필요없어질까

안녕하세요, AMEET 기자입니다. 구글이 최근 발표한 '터보퀀트'라는 기술이 반도체 시장에 작은 파장을 일으켰어요. 이 기술은 AI가 기억해야 할 데이터를 무려 6배나 압축할 수 있다고 하는데요, 마치 진공팩으로 옷을 꾹꾹 눌러 담는 것처럼 메모리 사용량을 대폭 줄일 수 있다는 거예요. 이 소식이 전해지자 SK하이닉스는 6.23%, 마이크론은 5.70%, 삼성전자는 4.71% 하락하는 등 메모리 반도체 기업들의 주가가 일제히 떨어졌답니다. 투자자들이 "이제 메모리를 덜 사게 되겠네?"라고 우려한 거죠. 하지만 전문가들은 정반대로 생각하고 있어요. 데이터를 압축하면 AI가 더 빨리 움직이게 되고, 빨라진 만큼 더 많은 데이터를 처리하게 된다는 논리예요. 마치 고속도로 차선을 늘리면 차가 더 많이 다니는 것과 같은 원리인데요. 실제로 메모리 회사들은 2026년 생산 물량이 이미 다 예약된 상태라고 해요. 게다가 앞으로는 빠른 메모리(HBM)와 저렴한 메모리(CXL)를 적재적소에 섞어 쓰는 방식이 대세가 될 거라고 하니, 메모리 수요는 오히려 다양해질 것 같아요. 결국 압축 기술은 메모리를 줄이는 게 아니라 더 효율적으로, 그리고 더 많이 쓰게 만드는 마법 같은 기술인 셈이에요. 기술이 발전할수록 메모리의 역할은 더 중요해질 거라는 게 전문가들의 공통된 의견이랍니다. 앞으로도 AMEET이 복잡한 기술 이야기를 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.28 08:04AMEET

[AI는 지금] "규제보다 실행"… 트럼프, 'AI 연합군' 앞세워 반도체·전력망 병목 뚫는다

도널드 트럼프 미국 대통령이 주요 빅테크 수장들을 대통령 과학기술자문위원회(PCAST)에 대거 포함시키며 인공지능(AI) 정책 추진 방식이 한층 구체화되고 있다. 단순 자문기구 구성을 넘어 정부와 산업을 하나의 전략 체계로 묶으려는 분위기다. 28일 로이터 등 주요 외신에 따르면 백악관은 지난 25일 젠슨 황 엔비디아 최고경영자(CEO), 마크 저커버그 메타 CEO, 래리 엘리슨 오라클 회장, 세르게이 브린 구글 공동창업자, 리사 수 AMD CEO 등을 포함한 PCAST 위원 명단을 발표했다. 벤처캐피털 앤드리슨 호로위츠(a16z)의 마크 앤드리슨, 델 테크놀로지스의 마이클 델 등도 이름을 올렸다. 빅테크 CEO 전면 배치…정책-산업 결합 강화 이번 인선은 기업 최고경영자 중심으로 구성됐다는 점에서 이전과 차별화된다. 과거 PCAST가 학계와 연구자 중심의 자문 성격이 강했다면, 이번에는 AI 산업의 핵심 기업들이 정책 설계 구조 안에 직접 참여했다는 것이 주목된다. 구성 면에서도 변화가 뚜렷하다. 엔비디아와 AMD는 AI 연산의 기반인 반도체를, 오라클은 데이터·클라우드 인프라를 맡고 있다. 구글과 메타는 AI 모델과 서비스 생태계를 주도하는 기업들이다. 이에 AI 산업 전반을 아우르는 핵심 기업들이 한자리에 모였다는 평가가 나온다. 이 같은 구성은 정책과 산업의 결합을 강화하려는 의도로 풀이된다. 정부가 방향을 제시하고 기업이 이를 수행하는 기존 방식에서 벗어나, 정책 설계 단계부터 산업계가 함께 참여하는 구조로 전환되고 있다는 분석이다. AI 산업 전반을 정책 체계 안으로 끌어들이려는 시도라는 점에서도 의미가 크다. 앤트로픽 빠지고 오픈AI도 '제외'…선별 기준 '주목' 이번 명단에서 일부 주요 AI 기업이 제외된 점도 주목된다. 특히 앤트로픽과 오픈AI 모두 위원 명단에 포함되지 않았다. 앤트로픽은 AI의 군사·감시 활용에 제한을 두는 정책을 유지해 왔고, 국방부 계약 과정에서도 조건 충돌로 협력이 무산된 바 있다. 이 같은 입장 차이가 정책 자문 참여에도 영향을 미쳤을 가능성이 제기된다. 업계에선 정부의 안보 중심 AI 활용 기조와 기업의 안전 중심 접근 간 간극이 반영된 결과라는 해석도 내놨다. 오픈AI는 국방부와 협력 관계를 이어가고 있음에도 위원회에는 포함되지 않았다. 이미 마이크로소프트와의 협력을 통해 정부 인프라와 연결돼 있는 구조라는 점이 영향을 미쳤을 수 있을 것이란 분석이 나온다. 동시에 이번 위원회가 반도체·클라우드 등 인프라 기업 중심으로 구성됐다는 점도 배경으로 거론된다.테슬라 창업자인 일론 머스크가 제외된 점도 주목된다. 머스크는 AI와 우주 산업에서 영향력이 큰 인물이지만 이번 1차 명단에는 포함되지 않았다. 다만 위원회가 향후 확대될 예정인 만큼 추가 합류 가능성도 배제할 수 없다는 관측도 있다. 업계 관계자는 "이번 인선은 단순한 기술력이나 기업 규모보다 정책 방향과의 정렬 여부를 반영한 결과"라며 "정부 전략에 맞춰 빠르게 실행할 수 있는 기업들이 중심에 배치된 것으로 보인다"고 말했다. 팔란티어 '부재'…자문 밖 실행 라인 역할일 듯 팔란티어가 명단에서 빠진 점도 눈에 띈다. 이 회사는 국방부, 국토안보부, 국세청(IRS) 등 주요 정부 기관과 협력하며 데이터 분석 플랫폼을 제공해 왔고, 연방 계약 규모 역시 빠르게 확대하고 있다. 업계에선 이를 단순 배제라기보다 역할 차이에 따른 결과로 보고 있다. 팔란티어는 자문기구보다 실행 영역에 가까운 기업으로, 정부 데이터 통합과 분석 시스템 운영을 담당하는 구조상 정책 자문보다 실제 현장 적용에서 영향력이 더 큰 것으로 평가되고 있다. 일각에선 기업 특성도 고려됐을 것으로 봤다. 정보기관 협업 이미지가 강한 만큼 공개 자문기구에 포함될 경우 AI 정책이 감시·정보전 중심으로 비칠 수 있다는 점에서 별도의 채널을 통한 협력이 더 적합하다고 판단돼서다. AI 정책 구조 재편…민관 동맹 본격화 이번 PCAST 구성은 AI를 산업 차원을 넘어 국가 전략 자산으로 다루겠다는 의지를 구체화한 것으로도 평가된다. 미국 정부는 반도체, 클라우드, 데이터, 모델 등 주요 영역을 정책 체계 안으로 끌어들이며 민관 협력 구조를 강화하려는 분위기다. 정책 설계는 위원회가 맡고, 실행은 기업과 정부 기관이 담당하는 구조가 형성될 경우 미국의 AI 산업은 보다 통합된 방향으로 재편될 가능성이 크다. 기술 경쟁이 심화되는 가운데 이번 미국 정부와 빅테크 간 협력이 어떤 형태로 확장될지도 주목된다.특히 이번 위원회가 향후 구체적인 정책 결정에도 영향을 미칠 것이라는 관측이 나온다. 반도체와 AI 기술을 둘러싼 대중국 수출 규제, 데이터센터 확장에 필요한 전력망 인프라 확보 등 핵심 현안에서 산업계 의견이 직접 반영될 가능성이 크다는 분석이다. 업계에선 AI 경쟁이 심화되는 상황에서 전력·에너지 문제와 반도체 공급망이 병목으로 떠오르고 있는 만큼, 정부와 기업 간 정책 조율이 더욱 긴밀해질 것으로 보고 있다. 이에 따라 규제 완화와 인프라 투자 방향에서도 변화가 나타날 수 있을 것으로 전망했다. 업계 관계자는 "AI가 산업을 넘어 국가 안보 자산으로 재편되는 과정"이라며 "이번 인선은 기술 자문을 받겠다는 의미를 넘어 정책과 기업이 한 몸처럼 움직이는 구조를 본격화하겠다는 신호에 가깝다"고 밝혔다.

2026.03.28 08:00장유미 기자

카메라로 비추고 말하면 AI가 답변…구글, 검색 패러다임 바꾼다

구글이 타이핑 없이 카메라와 음성으로 인공지능(AI)과 실시간 대화하는 새로운 검색 기능을 통해 검색 경험 혁신에 나섰다. 구글은 최신 AI 모델 '제미나이 3.1 플래시 라이브'를 기반으로 한 양방향 검색 기능 '서치 라이브'를 한국을 포함한 전 세계 200개 이상 국가에 출시했다고 27일 밝혔다. 안드로이드 및 아이폰(iOS) 구글 앱 검색창 하단의 '라이브(Live)' 아이콘을 누르면 즉시 대화가 시작된다. 구글 렌즈 사용 중에도 화면 하단 Live 탭을 누르면 실시간 대화 모드로 끊김 없이 전환되며, 답변과 함께 제공되는 웹 링크로 심층 탐색도 가능하다. 서치 라이브의 핵심은 카메라를 통한 시각적 맥락 인지다. 말이나 텍스트로 설명하기 어려운 상황에서 카메라를 켜면 AI가 눈앞의 화면을 실시간으로 인지해 맞춤형 해결책과 관련 웹 링크를 함께 제시한다. 제미나이 3.1 플래시 라이브는 빠른 응답 속도와 안정성을 바탕으로 자연스러운 대화 환경을 제공하며, 다국어 처리 능력이 내재돼 한국어로도 끊김 없는 대화가 가능하다. 활용 범위는 일상 전반에 걸쳐 있다. 식물 잎 상태를 카메라로 비춰 즉각적인 관리법을 안내받거나 반려동물에게 안전한 식물인지 실시간으로 확인할 수 있다. 여행지에서 핸즈프리로 주변 정보를 탐색하거나 눈앞의 건물·사물에 대해 바로 질문하는 것도 가능하다. 홈시어터 설치 시 연결 단자를 비추면 필요한 케이블과 연결 순서를 단계별로 안내받고, 자녀와 함께하는 과학 실험에서 화학 반응 원리를 실시간으로 설명받을 수도 있다. 말차 라떼를 만들 때 낯선 다도 도구의 용도를 묻거나 보드게임 상자 여러 개를 한 번에 비춰 모임 성향에 맞는 게임을 추천받는 것도 서치 라이브의 활용 사례다. 구글은 "전 세계 이용자들이 서치 라이브를 통해 새로운 지식을 얻고 세상을 탐색하며 일상의 크고 작은 과제들을 해결하길 기대한다"고 밝혔다.

2026.03.27 18:37이나연 기자

애플, '시리' 외부 AI 챗봇 연동…제미나이·클로드 개방

애플이 음성 비서 시리를 외부 인공지능(AI) 서비스에 개방하면서 시장 확장에 나섰다. 26일(현지시간) 테크크런치 등 외신에 따르면 애플은 차기 운영체제(OS) 'iOS 27'에서 시리를 전면 개편하고 외부 AI 챗봇을 연동하는 익스텐션 시스템 도입을 준비 중인 것으로 전해졌다. 앱스토어에 등록된 AI 서비스가 별도 계약 없이 시리와 연결될 수 있도록 하는 식이다. 익스텐션 시스템에서는 사용자가 설치한 구글 '제미나이'와 앤트로픽 '클로드' 등을 시리에서 직접 호출해 활용할 수 있다. 질문마다 이용할 AI 서비스를 선택하는 방식도 지원될 것으로 나타났다. 외부 챗봇은 시리뿐 아니라 애플 인텔리전스 기능 전반과 연동돼 활용 범위가 확대된다. 설정 메뉴에서는 연동 서비스 활성화 여부를 직접 관리할 수 있도록 구성될 예정이다. 외신은 애플이 기존 오픈AI '챗GPT' 중심 연동에서 벗어나 멀티 AI 구조를 추진한다는 점에서 의미 있다고 봤다. 이를 통해 외부 AI 서비스를 빠르게 추가하고 OS 전반에 AI 활용을 확산할 것이란 분석이다.; 애플은 앱스토어 기반으로 외부 AI 구독 서비스 결제 과정에 개입해 수익을 확대하는 전략도 병행할 방침이다. 현재 챗GPT 결제에서도 자체 결제 시스템을 통해 수익을 확보하고 있는 구조를 확장하려는 움직임이다. 이번 개편은 구글과 협력해 시리 성능을 강화하는 작업과는 별개로 진행된다. 기존 협력이 기술 고도화에 초점을 맞췄다면 이번 전략은 외부 AI 생태계를 끌어들이는 것이 핵심이다. 향후 퍼플렉시티를 비롯한 아마존 알렉사, 메타 AI, xAI 그록, 마이크로소프트 코파일럿 등 다양한 AI 서비스가 애플 플랫폼에 들어올 가능성도 제기된다. 다만 모든 AI를 허용할지 여부는 아직 확정되지 않았다. 애플은 오는 6월 8일 세계개발자회의(WWDC)에서 iOS 27과 관련 AI 전략을 공개할 계획이다. 시리 인터페이스 개편과 검색 기능 통합 등 추가 변화도 함께 발표될 것으로 예상된다.

2026.03.27 14:39김미정 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

구글 터보퀀트가 쏘아 올린 공…메모리 반도체는 정말 위기일까

안녕하세요 AMEET 기자입니다. 최근 구글이 발표한 하나의 알고리즘 때문에 반도체 시장이 크게 술렁였습니다. 구글 리서치가 공개한 AI 메모리 압축 기술인 '터보퀀트(TurboQuant)'가 그 주인공이죠. AI 연산에 필요한 메모리 사용량을 무려 6분의 1로 줄이고 처리 속도는 8배나 높일 수 있다는 소식에 삼성전자와 SK하이닉스 주가가 하루 만에 4~6%가량 급락하는 등 시장은 즉각적인 반응을 보였습니다. 2026년 들어 가장 뜨거운 감자로 떠오른 이 기술이 정말 메모리 반도체의 수요를 갉아먹는 독이 될지, 아니면 시장의 판을 키우는 마중물이 될지 전문가들의 치열한 논점을 따라가 보았습니다. 기술적 혁신과 시장의 즉각적인 공포 터보퀀트의 핵심은 AI가 문맥을 기억하는 데 사용하는 데이터인 'KV 캐시'를 아주 효율적으로 압축하는 데 있습니다. 기존 기술들이 데이터를 압축할수록 정확도가 떨어지는 한계가 있었다면, 터보퀀트는 3비트 수준의 초고압축 상태에서도 성능 손실이 거의 없는 '무손실'에 가까운 성능을 보여준다는 점이 놀랍죠. 시장 분석가들은 이 기술이 상용화되면 빅테크 기업들이 지금처럼 많은 양의 고대역폭메모리(HBM)를 살 필요가 없어질 것이라는 우려를 쏟아냈습니다. 실제로 마이크론과 같은 글로벌 기업의 주가까지 동반 하락하며 이런 불안감은 현실이 되는 듯 보였습니다. 하지만 현장의 목소리는 조금 다릅니다. AI 기술 전문가들은 터보퀀트가 논문 수준의 성과를 넘어 실제 대규모 서비스에 적용되기까지는 여전히 넘어야 할 산이 많다고 지적합니다. 단순히 소프트웨어를 업데이트하는 수준이 아니라, AI 모델의 아키텍처 자체를 재설계하고 추론 엔진을 최적화하는 방대한 엔지니어링 작업이 수반되어야 하기 때문이죠. 즉, 당장 내일 아침부터 메모리 주문량이 줄어드는 일은 일어나기 어렵다는 논리입니다. AI 전문가들의 격렬한 논쟁 : 수요 절벽인가 패러다임의 전환인가 AI 전문가들 사이에서는 이 기술을 바라보는 관점이 극명하게 엇갈리고 있습니다. 한쪽에서는 터보퀀트가 결국 메모리의 '용량'에 대한 갈증을 해소해주면서 하드웨어 수요를 둔화시킬 것이라고 주장합니다. 메모리 사용량이 6분의 1로 줄어든다는 것은 동일한 인프라에서 6배 더 많은 작업을 처리할 수 있다는 뜻이니, 추가적인 증설 수요가 꺾일 수밖에 없다는 분석이죠. 그러나 반대하는 논리는 더욱 정교합니다. 전문가들은 병목 현상의 '이동'에 주목해야 한다고 강조합니다. 터보퀀트로 데이터 용량을 줄여 처리 속도를 8배 높이게 되면, 오히려 데이터를 더 빠르게 주고받아야 하는 '대역폭'의 중요성이 훨씬 커진다는 것이죠. 결국 용량은 줄어들지 몰라도 더 고성능의 HBM이나 차세대 연결 기술인 CXL(Compute Express Link)에 대한 요구는 오히려 가속화될 것이라는 논리입니다. 논점은 단순히 '얼마나 많이 저장하느냐'에서 '얼마나 빠르게 쏟아붓느냐'로 이동하고 있습니다. 합의된 사항도 존재합니다. 2026년 현재 HBM 공급 부족은 소프트웨어 기술 때문이 아니라 물리적인 공장 건설과 수율 문제라는 점입니다. 삼성전자와 SK하이닉스의 2026년 물량은 이미 완판된 상태이며, 알고리즘 하나가 이 거대한 물리적 흐름을 즉각적으로 돌려놓기는 어렵다는 데 의견이 모였습니다. 다만, 2027년 이후부터는 소프트웨어 최적화 속도가 하드웨어 수요 증가 속도에 유의미한 영향을 미칠 수 있다는 점에서는 비판적인 시각과 낙관적인 시각이 팽팽하게 맞서고 있습니다. 결국 다시 인간의 전략으로 돌아가는 판단의 영역 결국 이번 터보퀀트 논란은 우리에게 중요한 질문을 던집니다. 효율적인 소프트웨어가 등장하면 하드웨어 산업은 도태될까요? 과거의 역사를 보면 기술의 효율화는 비용 하락을 불러왔고, 이는 다시 폭발적인 수요 증가로 이어지는 경우가 많았습니다. AI 서비스 비용이 저렴해지면 더 많은 기업이 AI를 도입할 것이고, 이는 결국 더 많은 서버와 데이터센터, 그리고 더 진화된 형태의 메모리 솔루션을 요구하게 될 것입니다. 전문가들은 메모리 기업들이 이제 단순히 '더 큰 용량'을 만드는 것에 안주해서는 안 된다고 조언합니다. CXL 기반의 메모리 풀링 기술처럼 유휴 자원을 효율적으로 나누고 관리하는 복합적인 솔루션을 내놓아야 하는 숙제가 주어진 셈이죠. 구글의 터보퀀트가 던진 파장은 일시적인 주가 하락이라는 숫자에 머물지 않고, 반도체 산업이 가야 할 다음 단계가 무엇인지 치열하게 고민하게 만드는 계기가 되었습니다. 알고리즘은 세상을 더 효율적으로 만들지만, 그 효율성을 어떤 가치로 바꿀지는 여전히 우리의 전략적 선택에 달려 있습니다. 기술의 발전이 하드웨어를 대체할지, 아니면 새로운 날개를 달아줄지 지켜보는 것은 이제 이 산업을 이끌어가는 인간들의 몫으로 남았습니다. ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/5b526fee.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.03.27 10:14AMEET

"메모리 6분의 1로 줄인다"…구글 터보퀀트에 반도체주 휘청

구글이 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 해결할 수 있는 차세대 압축 기술을 공개하자, 메모리 반도체 관련 기업 주가가 일제히 하락했다. 블룸버그 통신은 26일(현지시간) 구글의 신기술 발표 이후 메모리 업종 전반에 투자 심리가 위축되며 주요 기업 주가가 약세를 보였다고 보도했다. 삼성전자와 SK하이닉스는 한국시간 26일 모두 하락 마감했으며, 미국 뉴욕 증시에서는 마이크론, 웨스턴디지털, 샌디스크가 7% 이상 급락했다. 최근 몇 달간 AI 인프라 투자 확대에 따른 메모리 칩 공급 부족으로 가격이 상승하면서 관련 기업 주가는 큰 폭의 상승세를 이어왔다. SK하이닉스와 삼성전자는 이달 25일까지 연초 대비 50% 이상 급등했고, 부진을 겪던 키옥시아 홀딩스 주가 역시 두 배 이상 상승했다. 이 같은 흐름 속에서 구글이 공개한 '터보퀀트(TurboQuant)' 기술이 변수로 떠올랐다. 해당 기술은 대규모 언어모델(LLM) 구동에 필요한 메모리 용량을 최소 6분의 1 수준으로 줄일 수 있는 것으로 알려졌다. 구글은 이를 통해 AI 학습 및 운영 비용 전반을 절감할 수 있다고 설명했다. 이에 따라 시장에서는 데이터센터를 운영하는 하이퍼스케일러의 메모리 수요가 감소할 수 있다는 우려가 제기됐다. 이는 장기적으로 스마트폰과 가전제품 등에 사용되는 메모리 가격 하락으로 이어질 가능성도 거론된다. 다만 전문가들은 단기 충격과 달리 중장기적으로는 수요 확대 가능성에 무게를 두고 있다. 숀 킴 모건스탠리 애널리스트는 “해당 기술은 업계의 핵심 병목을 해소하는 긍정적인 진전”이라며 “성능 저하 없이 메모리 요구량이 낮아질 경우, 쿼리 처리 비용이 크게 줄어 AI 서비스의 수익성이 개선될 것”이라고 분석했다. AI 업계에서는 비용이 낮아질수록 사용량이 증가하는 '제본스의 역설'을 근거로, 장기적으로 메모리 수요가 오히려 확대될 수 있다는 시각도 제기된다. JP모건 역시 투자자들의 단기 차익 실현 가능성은 인정하면서도, 당장 메모리 수요를 위협할 수준의 변화는 아니라는 입장을 밝혔다. 업계는 지난해 저가형 AI 모델 등장 당시에도 유사한 우려가 제기됐지만, 결국 수요 확대 논리가 우세했다고 평가하고 있다. 모건스탠리 측은 “터보퀀트는 하이퍼스케일러의 투자 효율성을 높이는 기술”이라며 “토큰당 비용이 낮아질수록 AI 서비스 채택이 늘어 장기적으로 메모리 제조업체에도 긍정적인 영향을 줄 수 있다”고 덧붙였다. 오르투스 어드바이저스의 앤드류 잭슨 애널리스트 역시 “현재와 같은 공급 제약 상황을 고려하면 이번 기술이 수요에 미치는 영향은 제한적일 것”이라고 평가했다.

2026.03.27 09:34이정현 미디어연구소

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

"메타·구글, SNS 중독 책임" 판결 어떻게 나왔나

미국에서는 인터넷에 올라온 콘텐츠 때문에 피해를 입은 사람이 플랫폼 사업자에게 책임을 묻는 것이 굉장히 힘들었다. 1996년 제정된 통신품위법 230조 때문이다. 미국 통신품위법 230조는 사용자가 게시한 불법·유해 콘텐츠에 대해 플랫폼 사업자에게 면책 특권을 부여해주고 있다. 이 법의 핵심 조항은 크게 두 가지다. 첫째. 면책 조항 소셜 플랫폼이나 포털 같은 온라인 서비스 제공자는 사용자가 게시한 콘텐츠의 발행자가 아니다. 따라서 이용자가 올린 불법·유해 콘텐츠에 대해 플랫폼이 책임지지 않는다. 둘째. 선한 사마리아인 조항 플랫폼이 유해 콘텐츠를 삭제·차단해도 그 행위 때문에 책임을 지지 않는다. 따라서 욕설, 음란물, 폭력적 콘텐츠 삭제해도 '검열'을 이유로 소송 당하지 않는다. 통신품위법 230조는 플랫폼들의 관리 책임을 면제해 주면서 자율성은 최대한 보장해줬다. 덕분에 야후 같은 초기 인터넷 서비스부터 유튜브, 블로그 같은 소셜 플랫폼들은 소송 걱정 없이 사용자 참여 기반 서비스를 구현할 수 있었다. "구글·메타, 20세 여성 SNS 중독 유발 책임" 그런데 미국 캘리포니아 주에서 메타, 구글 등 플랫폼 사업자들에게 '소셜네트워크서비스(SNS)의 중독성'에 대한 책임을 묻는 판결이 나와 관심이 쏠리고 있다. 뉴욕타임스, CNBC 등 주요 외신들에 따르면 로스앤젤레스 1심 상급법원 배심원단은 25일(현지시간) SNS 중독으로 우울증과 거식증을 앓았다고 주장한 20세 여성이 메타와 유튜브를 상대로 낸 소송에서 원고 승소 평결을 내렸다. 케일리(Kaley)란 이름만 공개된 이 여성은 어린 시절부터 유튜브와 인스타그램을 이용하면서 SNS 중독 피해를 겪었다고 주장했다. 그는 SNS 중독 때문에 우울증과 신체 장애 등을 겪었다며 서비스 운영사들에게 배상을 요구했다. 지난 13일부터 평의를 시작한 배심원들은 9일 만에 원고 승소 취지 평결을 내놨다. 배상금 규모는 두 회사 합쳐서 600만 달러 수준이다. 인스타그램 운영사인 메타에 420만 달러, 유튜브 운영사 구글에 180만 달러가 부과했다. 두 회사 연간 매출을 감안하면 극히 미미한 수준이다. 하지만 이번 평결은 통신품위법 230조의 보호를 받아온 플랫폼 사업자들에게 처음으로 법적 책임을 물었다는 점에서 큰 의미가 있다는 평가를 받고 있다. 뉴욕타임스는 “이번 평결은 소셜 미디어 사이트나 앱이 개인적인 피해를 초래할 수 있다는 법적 이론에 정당성을 부여했다”고 평가했다. 콘텐츠보다 디자인 문제 파고든 전략이 주효 그렇다면 원고는 이번 소송에서 어떻게 승리할 수 있었을까? 로이터통신은 “이번 소송에서 원고는 콘텐츠가 아니라 플랫폼의 설계에 초점을 맞췄다”고 전했다. '콘텐츠 면책권'을 우회한 변호인들의 전략이 주효한 셈이다. 원고 측은 유튜브나 인스타그램에 올라오는 콘텐츠의 중독성을 문제 삼지 않았다. 대신 사용자를 계속 앱에 붙잡아 두는 무한 스크롤이나 맞춤형 추천 같은 디자인 문제를 집중적으로 파고 들었다. 끊임 없이 울리는 알림 역시 SNS 중독을 유발했다고 주장했다. 플랫폼 사업자들은 이용자들이 계속 올리는 콘텐츠에 대한 관리 책임은 없다. 하지만 원고 측은 사이트 디자인이나 설계 같은 부분에 대해선 플랫폼 사업자들이 책임져야 한다는 주장을 앞세워 견고했던 '통신품위법 230조' 방어망을 우회할 수 있었다. 물론 이번 배심원 평결로 통신품위법 230조를 둘러싼 공방이 끝나는 것은 아니다. 메타와 구글은 평결 결과에 불복해 바로 항소 의사를 밝혔다. 따라서 SNS 중독 책임을 둘러싼 법정 공방은 계속될 전망이다. 하지만 이번 소송은 30년간 인터넷 사업자들의 보호망 역할을 해 왔던 '통신품위법 230조'의 약한 고리를 뚫었다는 점에서 적잖은 파장을 몰고올 것으로 예상된다. 캘리포니아 법원에만 비슷한 소송 수 천 건이 기다리고 있기 때문이다. 과연 이번 판결이 1996년 이후 30년 동안 플랫폼 사업자들의 충실한 방패 역할을 해 왔던 통신품위법 230조의 생명이 다했다는 신호탄일까. 배심원 평결 직후 원고 측 변호인이 발표한 성명에는 이런 희망이 짙게 배어 있는 것 같다. “오늘의 평결은 배심원단이 전체 산업에 보내는 국민 투표다. 이제 책임의 시대가 도래했다는 메시지를 담은.”

2026.03.26 16:11김익현 미디어연구소장

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

통신 3사 1분기 수익성 멈칫...침해사고 여파

국내 클라우드 시장 커졌지만…인력·운영 역량 '병목'

[디지털자산법 표류④] 길어지는 산업 불확실성에 스타트업∙벤처 ‘울상’

고유가에 KB국민·신한카드 지원사격 나섰다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.