• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능'통합검색 결과 입니다. (4441건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

[AI는 지금] "실험 대신 시뮬레이션"…메타, 뇌 기반 'AI 월드모델' 경쟁 본격화

메타가 인간 뇌 활동을 예측하는 인공지능(AI) 모델을 공개했다. 데이터 처리 중심이던 AI 경쟁이 인간 인지 구조를 모사하는 '뇌 기반 기술'로 확장되면서 산업 패러다임 전환의 신호탄이 될 것이란 분석이 나온다. 메타는 27일 자사 공식 블로그를 통해 시각·청각·언어 자극에 따른 뇌 반응을 예측하는 기초 모델 '트라이브 v2(TRIBE v2, TRImodal Brain Encoder)'를 발표했다. 이 모델은 오디오·영상·텍스트를 동시에 처리하는 구조를 기반으로 자극에 따른 뇌 활동을 디지털 형태로 예측·재현하는 것이 특징이다. '트라이브 v2'는 700명 이상의 피실험자와 500시간 이상의 기능적 자기공명영상(fMRI) 데이터를 학습했다. 이를 통해 약 7만 개 뇌 영역(voxel)의 반응을 정밀하게 예측할 수 있으며 학습하지 않은 자극에도 대응하는 '제로샷' 성능을 확보했다. 이 모델은 개별 뇌 측정 데이터를 넘어 인간의 공통된 반응 패턴을 모델링했다는 점에서도 주목된다. 실제 fMRI 데이터가 노이즈에 영향을 받는 것과 달리 '트라이브 v2'는 집단 평균에 가까운 '표준화된 뇌 반응'을 생성할 수 있다. 업계에선 이번 기술이 신경과학 연구 방식의 전환을 가져올 가능성에 주목하고 있다. 기존에는 실험마다 뇌 촬영이 필요했지만, 모델 기반 시뮬레이션을 통해 실험 과정을 대체할 수 있어 연구 효율성이 크게 개선될 수 있다는 분석이다. 산업적 활용 범위도 넓다. 의료 분야에서는 신경 질환 진단과 신약 개발 과정에서 활용 가능성이 제기된다. 임상 이전 단계에서 뇌 반응을 예측하는 방식으로 개발 비용과 시간을 줄일 수 있기 때문이다. AI와 로보틱스 분야에서는 인간의 감각·인지 구조를 반영한 차세대 모델 설계로 이어질 수 있다는 전망이 나온다. 콘텐츠 산업에서도 변화가 예상된다. 이용자의 감정과 몰입도를 뇌 반응 수준에서 분석할 수 있게 되면서 콘텐츠 제작과 추천 방식이 한층 정교해질 수 있다. 업계 관계자는 "이 모델은 단순한 응용 기술이 아니라 산업 전반의 의사결정 방식을 바꿀 수 있는 인프라 성격이 강하다"며 "콘텐츠, 의료, 로보틱스 모두에서 사람이 어떻게 반응하는지를 실험 없이 예측할 수 있다는 점에서 파급력이 클 것으로 보인다"고 밝혔다. 업계에선 이번 기술이 메타가 강조해온 '월드모델' 구현과도 맞닿아 있다는 분석을 내놨다. 외부 자극에 대한 인간의 인지 반응을 직접 모델링함으로써 단순 데이터 학습을 넘어 인간처럼 세상을 이해하고 예측하는 AI 구조에 한 발 더 다가섰다는 평가다. 특히 시각·청각·언어 정보를 통합해 공통 표현으로 처리한 뒤 이를 뇌 반응과 연결한 구조는 현실 세계를 내부적으로 시뮬레이션하는 월드모델의 핵심 요소를 반영한 것으로 분석됐다. 이처럼 다양한 산업으로 확장 가능한 범용 모델이라는 점에서 메타는 논문과 코드, 모델 가중치를 공개하는 오픈소스 전략을 병행했다. 신경과학 기반 AI 생태계에서 기술 확산과 표준 선점을 동시에 노린 행보로 해석된다. 메타는 "트라이브 v2는 수개월이 걸리던 신경과학 실험을 수초 단위 계산으로 전환할 수 있는 기반 모델"이라며 "뇌 반응 시뮬레이션을 통해 연구와 의료, AI 개발 전반을 가속화할 것"이라고 밝혔다.

2026.03.27 11:01장유미 기자

쉴드AI, 투자 추가 유지…기업가치 127억 달러

쉴드AI가 투자를 추가 유치해 인공지능(AI) 시장에서 입지를 넓혔다. 26일(현지시간) 테크크런치 등 외신에 따르면 쉴드AI는 15억 달러(약 2조 2600억원) 규모 시리즈G 투자를 유치했다. 이번 투자 라운드는 사모펀드어드벤트와 JP모건체이스투자그룹이 주도했다. 쉴드AI는 블랙스톤이 운용하는 펀드에 5억 달러(약 7500억원) 규모 우선주를 매각했다. 또 2억 5000만 달러(약 3770억원) 대출 라인도 확보했다. 확보한 자금은 비행 시뮬레이션 기업 애슐론테크놀로지 인수에 활용될 예정이다. 이번 투자로 쉴드AI 기업가치는 지난해 3월 기준 53억 달러(약 7조 900억원)에서 약 1년 만에 140% 상승한 127억 달러(약 19조 1200억원)로 책정됐다. 기업가치 급등 배경에는 자율비행 소프트웨어(SW) 하이브마인드의 미 공군 사업 채택이 작용했다는 분석도 나오고 있다. 하이브마인드는 지난 2월 미 공군 협동전투기 드론 시제품 프로그램 공급자로 선정됐다. 이 과정에서 쉴드AI 솔루션은 경쟁사 안두릴 전투기 '퓨리'와 운용되는 구조로 채택됐다. 테크크런치는 "미 공군이 차세대 전투 드론 기술을 단일 업체에 의존하지 않으려는 전략을 택했다"며 "쉴드AI와 앤듀릴 간 경쟁과 협력이 동시에 진행되는 구조"라고 분석했다.

2026.03.27 10:46김미정 기자

[기고] AI 전략 핵심 과제로 떠오른 '백업'

오는 31일은 세계 백업의 날이다. 이날은 전통적으로 IT 리더들이 데이터 보호 전략을 점검하도록 환기하는 계기였다. 2026년 현재 상황은 근본적으로 달라지고 있다. 백업은 단순한 데이터 보관이 아니라 '에이전틱 엔터프라이즈' 핵심 기반을 지키는 문제다. 완전히 자동화된 AI 랜섬웨어가 전례 없는 속도와 규모로 24시간 내내 시스템을 탐색하는 시대에 살고 있다. 크라우드스트라이크의 2026 글로벌 위협 보고서에 따르면, 2025년 AI 기반 공격은 전년 대비 89% 증가했으며, 공격자가 최초 침입 이후 내부 시스템으로 확산되는 데 걸리는 평균 시간은 단 29분으로 줄었다. 이는 2024년 대비 65% 빨라진 수치다. 거대언어모델(LLM)을 활용해 침입을 자동화하고 확장하는 이른바 '바이브 해킹'은 새로운 디지털 격차를 만들어내고 있다. 한쪽에는 AI 기반 위협에 맞춰 시스템을 고도화한 조직이 있는 반면, 다른 한쪽에는 여전히 백업을 전략적 자산이 아닌 단순한 보험 수준으로 인식하는 조직이 있다. 이제 글로벌 기업은 단순한 데이터 보호를 넘어, 다층적인 사이버 복원력을 갖춰야 한다. 기존 예방 중심 보안에 더해 공격이 발생하더라도 수일이 아닌 수분 또는 수시간 내에 복구할 수 있는 역량이 필요하다. AI 에이전트가 실시간 고객 경험을 주도하는 환경에서 다운타임은 더 이상 단순한 불편이 아니라 이사회 차원의 위기이자 브랜드 존속에 직결되는 문제다. 수십 년 동안 인프라 조직은 원칙을 하나를 유지해 왔다. 백업 데이터와 운영 데이터를 동일한 하드웨어에 두지 않는 것이다. 이는 물리적 보안과 성능을 모두 고려한 선택으로, 과거에는 백업 작업이 고성능 애플리케이션의 리소스를 잠식하는 경우가 많았기 때문이다. 현재 고성능 플래시 스토리지의 처리 성능은 이러한 제약을 사실상 해소했다. 동시에 물리적 분리가 곧 보안을 의미하던 시대도 지나갔다. 네트워크에 연결되고 관리자에 의해 운영되는 에어갭(air-gap) 시스템은 벤더와 관계없이 실질적인 격리 환경이라고 보기 어렵다. 기술적으로는 백업과 운영 데이터를 동일한 플랫폼에서 운용하는 것이 가능해졌지만, 복구 속도가 가장 중요한 리스크 지표가 된 지금, 기존 IT 아키텍처의 기준은 '논리적 분리'로 재정의되고 있다. 공격 후 진정한 복원력을 확보하기 위해서는 SIRE(Secure Isolated Recovery Environment)가 필요하다. 이는 공격자의 접근으로부터 보호되고, 기존 인프라와 논리적으로 분리된 데이터 환경이다. 포렌식 분석과 데이터 정화, 핵심 서비스 고속 복구를 돕는다. 따라서 이제는 질문이 달라져야 한다. "운영 데이터와 백업 데이터가 같은 시스템에 있는가?"가 아니라 "백업 환경이 물리적으로 격리되어 있고, 시스템 침해 상황에서도 쓰기 방지가 보장되는가?"가 더 중요한 기준이다. 많은 조직이 3월 31일을 계기로 데이터 보호 체계를 점검하지만, 이제는 특정한 하루가 아닌 연중 지속적인 관리가 필요하다. 특히 랜섬웨어 대응 관점에서 복구 서비스수준협약(SLA)은 새로운 기준으로 자리 잡고 있다. 많은 규제 산업에서 핵심 서비스 복구 시간은 더 이상 목표가 아니라 기본 요건이 됐다. 현대 기업에게 구식 백업 전략은 단순한 기술적 한계를 넘어 중대한 컴플라이언스 리스크다. 보험사나 수사기관의 포렌식 조사로 주요 스토리지가 봉쇄되는 상황에서도 즉시 운영 가능한 대체 환경을 확보하는 전략이 필요하다. 2026 세계 백업의 날은 여전히 중요한 메시지를 던진다. 그러나 AI가 무기화된 시대에 '설정해 두고 잊어버리는' 방식은 더 이상 유효하지 않다. 진정한 안정성은 통합 생태계에서 나온다. 보안이 강화된 데이터 플랫폼, 연계된 위협 탐지, 능동적인 대응 전략이 유기적으로 작동할 때 비로소 가능하다. 데이터는 이제 가장 중요한 자산이자 동시에 가장 취약한 자산이기 때문이다.

2026.03.27 10:39전인호 에버퓨어코리아 지사장 컬럼니스트

오픈AI, 챗GPT 광고 두 달 만에 1억 달러 돌파…새 수익모델 만드나

오픈AI가 무료 사용자들에게 적용한 광고 모델이 초기 흥행에 성공하며 새로운 수익원 확보 기대감이 높아지고 있다. 26일(현지시간) CNBC 등 외신에 따르면 오픈AI는 미국 파일럿 프로그램 시작 두 달도 채 되지 않아 광고 사업 연환산 매출(ARR) 1억 달러를 돌파했다고 밝혔다. 현재 오픈AI는 600개 이상 광고주와 협력 중이다. 광고 도입 이후 개인정보 보호와 관련된 신뢰 지표에서도 유의미한 변화는 나타나지 않은 것으로 전해졌다. 회사는 미국 성과를 기반으로 캐나다, 호주, 뉴질랜드 등으로 테스트 확대를 검토하고 있다. 오픈AI는 지난 1월 미국 내 무료 사용자와 '챗GPT 고' 구독자를 대상으로 광고 테스트를 시작했다. 기존 구독 중심 수익 구조에서 벗어나 광고를 새로운 매출원으로 확보하기 위한 전략이다. 당시 업계에서는 생성형 AI 서비스에 광고를 도입하는 데 대한 우려가 적지 않았다. AI 답변 과정에 광고가 개입될 경우 정보의 중립성과 신뢰성이 훼손될 수 있다는 지적이 제기됐다. 특히 검색처럼 활용되는 챗GPT 특성상 광고와 정보의 경계가 모호해질 수 있다는 점이 핵심 논란이었다. 경쟁사인 앤트로픽은 이를 정면으로 비판했다. 첫 슈퍼볼 광고 캠페인에서 "AI는 사용자를 설득하거나 영향을 미치는 도구가 아니라 신뢰할 수 있는 조력자여야 한다"는 메시지를 내세웠다. 광고 기반 수익 모델이 AI 응답을 왜곡할 수 있다는 점을 우회적으로 지적한 것이다. 이에 대해 오픈AI는 광고 운영이 매우 제한적으로 이뤄지고 있다는 점을 강조했다. 미국 내 무료 및 '고(Go)' 사용자 가운데 약 85%가 광고 노출 대상이지만 실제 일일 기준 광고를 접하는 비율은 20% 미만이다. 사용자 경험을 우선 고려한 설계라는 설명이다. 광고는 챗GPT 응답 하단에 별도 표시되며 답변 내용에는 영향을 주지 않도록 설계됐다. 광고임을 명확히 구분하고 18세 미만 사용자에게는 노출되지 않는다. 정치, 건강, 정신 건강 등 민감한 주제 주변에도 광고를 배치하지 않는다. 다만 일부 광고주 사이에서는 보수적인 운영 방식에 대한 불만도 나온다. 광고 확장 속도가 기대보다 느리다는 지적이다. 일부 기업은 캠페인 확대 지연에 아쉬움을 나타낸 것으로 알려졌다. 오픈AI는 "현재는 초기 테스트 단계로 광고를 본격 확대하기보다 사용자 경험을 충분히 검증하는 데 집중하고 있다"며 "사용자와 광고주 모두에서 긍정적인 초기 신호가 확인되고 있다"고 밝혔다.

2026.03.27 10:37남혁우 기자

[안광섭의 AI 진테제] 메모리 주식 흔든 구글 '터보퀀트'

지난 수요일 미국 증시에서 흥미로운 장면이 연출됐다. 나스닥 100이 상승하는 와중에 메모리 반도체 주식만 역행했다. 샌디스크 -5.7%, 웨스턴 디지털 -4.7%, 씨게이트 -4%, 마이크론 -3%. 방아쇠를 당긴 건 구글 리서치가 공개한 터보퀀트(TurboQuant)라는 압축 알고리즘이다. 'AI가 메모리를 덜 쓰게 해주는 기술'이라는 헤드라인만 보면 메모리 업체들에게 악재처럼 보인다. 그런데 이 기술이 실제로 줄이는 것은 GPU 위의 임시 기억 공간이지, 서버에 꽂히는 HBM(High Bandwidth Memory)이나 DRAM 모듈이 아니다. 시장이 읽은 신호와 기술이 말하는 신호 사이에 간극이 있고, 그 간극 너머에는 AI 하드웨어 전체에 걸친 더 큰 질문이 놓여 있다. 터보퀀트가 실제로 하는 일 AI가 대화를 이어갈 때, 앞에서 한 말을 기억하려면 KV 캐시(Key-Value Cache)라는 임시 메모리에 정보를 저장해야 한다. 대화가 길어질수록 이 메모리는 기하급수적으로 늘어나고, AI 서비스 비용을 끌어올리는 주범 중 하나다. '터보퀀트'는 이 임시 기억을 최대한 작게 압축하면서도 내용을 거의 그대로 유지하는 알고리즘이다. 추가 학습이나 파인튜닝(fine-tuning, 특정 분야 추가 학습)이 필요 없다. 핵심은 2단계 구조다. 1단계인 폴라퀀트(PolarQuant)는 데이터에 무작위 회전을 적용해 값들의 분포를 균일하게 만든다. 크기가 제각각인 짐을 한번 뒤섞어 비슷한 규격으로 정리하는 것과 비슷하다. 이렇게 하면 동일한 상자에 효율적으로 담을 수 있다. 2단계인 QJL(양자화된 존슨-린덴스트라우스)은 1차 압축 이후 남은 잔여 오차를 단 1비트로 한 번 더 보정한다. 논문에 따르면, 이 2단계 접근법 덕분에 3.5비트에서 원래 모델과 사실상 동일한 품질을 유지하고, 10만 4천 토큰 길이의 테스트에서도 100% 정확도를 보였다. 압축률은 4.5배 이상이다. 다만 짚어야 할 대목이 있다. 구글 블로그에서 강조한 '최대 8배 속도 향상'은 어텐션 로짓 연산이라는 특정 단계에서의 수치다. 전체 추론 처리량의 8배가 아니다. '6배 메모리 축소'도 블로그와 논문 사이에 미세한 차이가 있다. 논문은 좀 더 보수적으로 '4.5배 이상'이라고 표현한다. 수치가 발표 채널에 따라 다르게 포장되는 것은 기술 뉴스를 읽을 때 늘 주의해야 할 부분이다. 시장의 논리, 그리고 그 한계 시장의 추론은 단순했다. AI가 메모리를 6분의 1만 써도 된다면 메모리 수요가 줄어드는 것 아닌가? 올해 메모리 주식들이 워낙 많이 올랐기 때문에 차익 실현의 구실이 필요했던 측면도 있다. 그러나 한 발짝 뒤로 물러서면, KV 캐시와 HBM은 같은 '메모리'라는 단어를 쓰지만 작동하는 층위가 다르다는 점이 보인다. KV 캐시는 LLM(대규모 언어 모델)이 대화 중 이전 계산을 저장하는 GPU 위의 임시 공간이다. 반면 HBM 수요는 모델의 훈련과 추론 전체에 걸친 대역폭 병목에서 발생한다. 트렌드포스(TrendForce)에 따르면 2026년 HBM 수요는 전년 대비 70% 이상 증가할 전망이고, 뱅크오브아메리카(BofA)는 올해 HBM 시장 규모를 약 546억 달러(전년 대비 58% 성장)로 추정한다. SK하이닉스, 삼성, 마이크론 모두 2026년 HBM 물량은 사실상 완판 상태라고 밝히고 있다. 비유하자면 이렇다. '터보퀀트'는 사무실 책상 위의 메모 정리법을 개선한 것이고, HBM 수요는 건물 자체에 더 많은 사무실이 필요한 것이다. 메모 정리가 잘 된다고 건물 수요가 줄지는 않는다. 오히려 한 사무실에서 더 많은 일을 처리할 수 있으니 건물을 더 짓고 싶어질 수도 있다. 건설에서 최적화로, 국면 전환 신호 필자가 '터보퀀트' 자체보다 더 흥미롭게 보는 것은 이 뉴스에 시장이 반응한 방식이다. 메모리 주식만의 이야기가 아니기 때문이다. 좀 더 넓게 보면 지금 AI 하드웨어 스택 전체가 같은 질문을 받고 있다. 엔비디아는 2026 회계연도에 매출 2159억 달러, 순이익률 약 56%라는 전례 없는 실적을 기록했지만, 주가는 지난해 10월 고점 대비 약 15% 낮은 수준에서 움직이고 있다. 마이크론도 이틀 전 역대 최고 분기 실적(매출 238억6000만 달러, 매출총이익률 74.4%)을 발표했지만, 시장의 관심은 "250억 달러 이상의 설비투자를 감당할 수 있느냐"에 쏠렸다. GPU도 빠지고, DRAM도 빠지고, NAND 스토리지도 빠지고 있다. 시장이 묻고 있는 진짜 질문은 "이 속도의 인프라 투자가 지속 가능한가?"다. 마이크로소프트, 메타, 알파벳, 아마존 4사의 2026년 설비투자 가이던스 합산이 약 6500억 달러에 달한다. 인류 역사에서 단일 목적에 투입된 민간 자본 중 가장 큰 규모에 속한다. GTM(Go-To-Market) 전략 관점에서 보면, 모든 기술 인프라 사이클에는 '건설 국면'과 '최적화 국면'이 있다. 건설 국면에서는 "일단 깔아라"가 전략이다. 최적화 국면에서는 "깔아놓은 것의 효율을 어떻게 극대화할 것인가"가 전략이 된다. 터보퀀트, 엔비디아가 같은 'ICLR 2026(International Conference on Learning Representations, 4월 23일 ~ 4월 27일)'에서 발표할 KVTC(KV Cache Transform Coding, 최대 20배 압축), 하이퍼스케일러들의 자체 칩 개발, 이 모든 움직임은 최적화 국면의 신호다. 그렇다고 이것이 약세 신호인가. 필자는 아니라고 본다. 최적화 국면은 성장의 끝이 아니라 성장이 성숙해지는 과정이다. 다만 시장이 가격에 반영하는 방식이 달라질 뿐이다. 건설 국면에서는 "다 사라"였다면, 최적화 국면에서는 누가 이 효율화의 수혜자이고 누가 비용을 부담하는가를 가려야 한다. 핵심은 시간 축 구분 '터보퀀트' 같은 소프트웨어 최적화가 하드웨어 수요 증가 속도에 영향을 줄 수 있는 것은 2027년 이후의 이야기다. 2026년의 메모리 공급 부족은 물리적인 팹 건설과 수율의 문제이고, 알고리즘으로 해결되는 영역이 아니다. 시장이 이 두 가지 시간 축을 혼동할 때, 그것이 곧 기회이기도 하고 리스크이기도 하다. 터보퀀트 원본 논문(https://arxiv.org/abs/2504.19874)은 2025년 4월 28일에 공개됐다. 약 1년 전 제안된 기술이 학회 발표를 앞두고 재조명되면서 시장을 흔든 것이다. 기술 자체는 새롭지 않았지만, 시장이 읽는 타이밍은 달랐다. 정리하면 이렇다. 터보퀀트는 AI 추론 효율을 한 단계 끌어올리는 의미 있는 기술이다. 그러나 메모리 주식이 빠진 이유는 이 기술 하나가 아니라, AI 하드웨어 스택 전반에 걸친 '건설에서 최적화로'의 국면 전환 신호를 시장이 읽기 시작했기 때문이다. 기술 층위를 이해하고 시간 축을 구분할 수 있다면, 변동성 속에서 더 나은 판단을 내릴 수 있다. 지금 필요한 것은 공포도 낙관도 아닌, 어떤 메모리가 줄고 어떤 메모리가 느는지를 가려내는 눈이다. ■ 필자 안광섭은... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.03.26 19:20안광섭 컬럼니스트

데이터브릭스, 개방형 SIEM '레이크워치' 출시…비대칭적 위협 상황 타개

데이터브릭스가 인공지능(AI) 에이전트를 활용해 인간이 대응하기 어려운 수준의 복잡성과 속도로 공격하는 사이버 위협에 대안을 제시한다. 데이터브릭스는 개방형 에이전틱 보안 정보 및 이벤트 관리(SIEM) '레이크워치'를 공개했다고 26일 밝혔다. 현재 프라이빗 프리뷰 형태로 제공되는 레이크워치는 보안, IT, 비즈니스 데이터를 단일 거버넌스 환경으로 통합해 AI 기반의 위협 탐지와 대응을 돕는 플랫폼이다. 개방형 형식과 생태계를 채택하여 고객이 특정 벤더에 종속(Lock-in)되는 것을 방지하며, 멀티모달 데이터를 대규모로 수집·보관·분석하면서도 총소유비용(TCO)을 최대 80%까지 절감할 수 있는 것이 특징이다. 최근 사이버 보안 환경은 인간 중심의 방어 체계가 감당하기 어려운 속도와 복잡성을 지닌 AI 기반 위협에 직면해 있다. 공격자들은 AI 에이전트를 활용해 시스템의 취약점을 끊임없이 탐색하고 이른바 '머신 속도(Machine Speed)'로 공격을 퍼붓고 있다. 반면 방어 기업들은 불완전한 데이터와 수동 워크플로우, 폐쇄적인 아키텍처 등으로 인해 대응에 한계를 겪어왔다. 특히 높은 데이터 수집 비용 부담으로 인해 최대 75%에 달하는 보안 데이터를 분석하지 못하고 폐기하는 실정이다. 레이크워치는 이러한 '비대칭적 위협 상황'을 타개하기 위해 개발됐다. 데이터를 별도로 이동하거나 복제할 필요 없이 개방형 형식으로 통합해, 수년 치의 방대한 데이터를 경제적으로 분석할 수 있다. 또한 텍스트뿐만 아니라 영상, 음성 등 멀티모달 데이터 분석을 지원하여 사회공학적 기법을 활용한 공격이나 내부자 위협, 각종 이상 징후를 정확히 식별해 낸다. 이를 바탕으로 다수의 AI 에이전트가 탐지, 분류, 위협 헌팅(Threat Hunting)을 자동화함으로써, 공격자와 동일한 머신 속도의 강력한 방어력을 제공한다 알리 고드시 데이터브릭스 CEO는 "AI 기반 공격은 이미 인간 중심 보안 체계를 넘어섰다"며 "레이크워치는 개방형 데이터 아키텍처와 에이전틱 보안 역량을 결합해 기존 SIEM을 대체할 것"이라고 밝혔다. 이어 "보안 조직은 더 높은 가시성과 속도를 갖춰야 한다"고 말했

2026.03.26 18:07남혁우 기자

위세아이텍, 데이터·AI 기반 중앙은행 인프라 운영 맡는다

위세아이텍이 한국은행 디지털혁신실 핵심 시스템 통합 운영 사업을 따내며 데이터·AI 기반 금융 인프라 시장에서 입지를 확대했다. 위세아이텍은 한국은행이 발주한 '디지털혁신실 통합 운영용역' 사업의 우선협상대상자로 선정된 이후 최종 계약을 체결했다고 26일 밝혔다. 이번 사업은 약 61억원 규모이며 수행 기간은 총 15개월이다. 한국은행의 데이터 기반 경제 분석 체계와 AI 활용 환경을 안정적으로 운영하기 위한 핵심 프로젝트다. 위세아이텍은 사업을 통해 한국은행 디지털혁신실이 운영하는 주요 정보시스템 전반을 맡는다. 조사연구플랫폼, 금융·경제 스냅샷, 데이터 카탈로그, 데이터 레이크, AI 언어모형, 통합업무정보관리시스템 등이 포함된다. 단순 유지보수를 넘어 시스템 운영 전반을 책임지는 구조다. 운영 범위도 확대됐다. 시스템 안정성 확보는 물론 데이터 품질 관리와 데이터 기반 연구 지원까지 수행한다. 이를 통해 한국은행 내부에서 데이터를 보다 체계적으로 활용할 수 있는 환경을 구축한다는 계획이다. 특히 데이터 활용 편의성 개선에 초점을 맞췄다. 데이터 카탈로그를 중심으로 분산된 데이터 자산을 통합 관리한다. 검색과 공유 기능을 강화해 업무 효율성을 높이고 데이터 접근성을 개선한다는 전략이다. AI 활용 측면에서도 고도화를 추진한다. '한국은행 AI 언어모형' 운영을 통해 경제·금융 질의응답 기능을 지원한다. 내부 규정과 지침에 대한 검색과 해석 기능도 강화한다. 사용자 맞춤형 분석 환경 구축이 목표다. 김다산 위세아이텍 대표는 "중앙은행 특성상 높은 수준의 안정성과 보안이 요구된다"며 "자사가 보유한 데이터 관리 역량과 AI 기술을 바탕으로 데이터 중심 업무 환경이 안정적으로 자리잡도록 지원하겠다"고 말했다.

2026.03.26 17:38남혁우 기자

메가존클라우드·체크포인트 맞손…AI 런타임 방어부터 클라우드 관제까지

메가존클라우드와 체크포인트가 인공지능(AI) 보안과 클라우드 보안 시장 공략을 위해 손을 잡았다. 메가존클라우드는 체크포인트 소프트웨어와 'AI 네이티브와 클라우드 보안 시장 공략'을 위한 전략적 파트너십을 체결했다고 3월 26일 밝혔다. 양사는 전날 경기도 과천 메가존산학연센터에서 협약식을 열고 AI와 클라우드 보안 전반에 걸친 협력 방안을 구체화했다. 주요 협력 내용은 라케라(Lakera) 플랫폼 기반 AI LLM 모델 가드레일 구축, AI 레드팀 애플리케이션 보안 컨설팅과 운영, 클라우드 전반에 대한 지속적 위협 노출 관리(CTEM) 체계 구축, 맞춤형 보안 아키텍처 설계 및 24시간 365일 관제 서비스 제공 등이다. 체크포인트의 라케라 플랫폼은 AI 서비스 실행 중 발생하는 실시간 데이터 유출과 프롬프트 인젝션 공격을 탐지하고 대응하는 런타임 보안 기술이다. 입력값 검증부터 출력값 필터링, AI 에이전트 이상 행위 탐지까지 전 과정 보호를 지원한다. 양사는 이를 기반으로 국내 시장에 AI LLM 런타임 보안 컨설팅과 구축, 운영 서비스를 본격 제공할 계획이다. 여기에 최신 공격 시나리오를 반영한 AI 레드팀 서비스도 함께 추진한다. 클라우드 보안 영역에서는 CTEM 체계 구축에 집중한다. 메가존클라우드는 체크포인트 솔루션을 활용해 고객의 클라우드 인프라 전반을 점검하고, 노출된 취약점과 유출된 계정 정보를 실시간으로 식별한다. 이후 자동화된 보안 개선 프로세스를 적용해 인공지능 전환(AX)과 디지털 전환(DX) 환경에서의 위험 요소를 지속적으로 관리한다. 메가존클라우드의 보안 조직인 HALO 유닛은 이번 협력을 통해 역량을 한층 강화한다. HALO는 클라우드 기반 보안 관제 서비스(MSSP)를 제공해온 조직으로, 향후 AI 기반 보안 관제 센터(AI-SOC)로 확장할 계획이다. 이를 통해 보안 탐지와 대응을 넘어 AI 기반 자동화 운영까지 영역을 넓힌다는 전략이다. 체크포인트는 '사전 예방(Prevention-First)' 중심 보안 전략과 자체 위협 인텔리전스인 '쓰렛클라우드 AI(ThreatCloud AI)', 통합 보안 플랫폼 '인피니티(Infinity)'를 기반으로 글로벌 시장을 공략하고 있다. 최근에는 라케라를 비롯해 사이아타, 사이버인트, 베리티, 사이클롭스 등 보안 기술 기업을 잇달아 인수하며 AI와 CTEM 시장 선점에 속도를 내고 있다. 양사는 다음달 4월 2일 서울 인터컨티넨탈 파르나스 그랜드볼룸에서 열리는 메가존클라우드 '아이콘 2026' 행사에서도 협력 성과를 공개한다. 체크포인트는 행사 현장에서 부스를 운영하며 AI 보안과 CTEM 관련 기술과 전략을 국내 고객과 파트너에게 소개할 예정이다. 위수영 메가존클라우드 HALO 유닛장은 "AI를 포함한 풀스택 보안 솔루션을 갖춘 체크포인트와의 협력을 통해 HALO의 end-to-end 보안 역량을 강화하게 됐다"며 "양사의 기술과 서비스를 결합해 고객에게 한층 진보된 보안 환경을 제공하겠다"고 밝혔다.

2026.03.26 17:11남혁우 기자

"AI 때문에 실직하면 월 150만원"…美서 첫 시범 운영

인공지능(AI)으로 인해 일자리를 잃은 노동자를 지원하기 위한 기본소득 프로그램이 미국에서 이번 주부터 시범 운영된다. IT 뉴스레터 '블러드 인 더 머신'은 25일(현지시간) 해당 프로그램이 본격 운영에 들어갔다고 보도했다. 블러드 인더 머신은 미국 IT 저널리스트 브라이언 머천트가 운영하는 뉴스레터다. 이번 프로그램은 AI로 영향을 받은 노동자 25~50명을 대상으로 1년간 매달 1000달러(약 150만원)를 지급하는 소규모 시범 사업이다. 이 사업은 비영리 단체 'AI 커먼즈 프로젝트'와 '왓 위 윌(What We Will)'이 공동으로 운영하며, 'AI 배당금(AI Dividend)'이라는 이름으로 추진된다. 프로젝트 관계자들은 초기 자금으로 약 30만 달러(약 4억5000만 원)를 확보했으며, 향후 빠른 확대를 기대하고 있다고 밝혔다. 이들은 2026년까지 총 300만 달러(약 45억 원)를 지급하는 것을 목표로 주요 AI 기업들의 참여를 유도할 계획이다. 'AI 배당금' 주최자 중 한 명인 소프트웨어 개발자이자 강사인 케이틀린 코트는 최근 프로그래밍 수업 수강생들의 취업을 돕는 과정에서 심각한 문제에 직면하게 되었다고 밝혔다. 그는 IT 업계의 임원과 관리자들이 코파일럿과 클로드를 적극 활용하면서 신입 프로그래머 채용 시장이 위축되고 있다고 밝혔다. 그는 "학생들이 어렵게 얻은 일자리조차도 대부분 수준 낮은 업무였고, 진정한 엔지니어링 업무를 할 수 있는 기회가 주어지는 것이 아니라, AI가 작성한 코드의 일부를 검토하고 검증하는 반복적인 작업에 그쳤다"고 지적했다. 다만 'AI 배당금'이라는 개념에 대해서는 비판적 시각도 제기된다. IT매체 기즈모도는 해당 개념이 AI 비판론자들의 반감을 살 수 있다고 지적했다. 한편 샘 알트먼 오픈AI 최고경영자(CEO)는 AI 확산에 따른 사회적 영향을 완화하기 위한 방안으로 보편적 기본소득(UBI)을 지지해 온 인물이다. UBI는 개인의 기본적인 생활을 보장하기 위해 조건 없이 지급되는 소득을 의미하며, 알트먼은 관련 실험에도 자금을 지원해왔다. 다리오 아모데이 앤트로픽 CEO 역시 UBI에 대해 “아무것도 없는 것보다는 낫다”면서도 “모두가 기여할 수 있는 사회를 선호한다”고 밝힌 바 있다.

2026.03.26 17:10이정현 미디어연구소

AI·SW 인재 양성 본격화…KOSA-경기도교육청, 취업 연계 협력 강화

한국인공지능·소프트웨어산업협회(KOSA)와 경기도교육청이 직업계고 학생 인공지능(AI)·소프트웨어(SW) 취업 역량 강화를 위해 손잡았다. KOSA는 경기도교육청 취창업지원센터와 '직업계고 학생 AI, SW 산업 분야 취업 역량 강화를 위한 업무협약(MOU)'을 체결했다고 26일 밝혔다. 협약식은 서울 송파구 KOSA 본원에서 열렸으며 서성일 상근부회장과 김혜리 취창업지원센터장 등 양 기관 주요 관계자가 참석했다. 이번 협약은 빠르게 성장하는 AI, SW 산업 환경에 대응해 직업계고 학생들에게 실무 중심 교육을 제공하고, 이를 취업까지 연결하는 체계를 구축하는 데 초점을 맞췄다. 단순 교육 지원을 넘어 현장 경험과 채용까지 이어지는 구조를 마련한다는 점에서 의미가 있다. 양 기관은 협약을 통해 직업계고 학생 대상 현장실습 교육과정을 공동으로 설계하고 운영할 계획이다. 또한 협회가 보유한 산업체 네트워크를 활용해 학생들에게 현장실습 기회를 제공하고, 취업까지 연계하는 지원 체계를 마련한다. 이와 함께 학생들의 취업 경쟁력 강화를 위한 협력 모델도 지속적으로 고도화할 방침이다. 특히 올해 상반기에는 경기도 내 특성화고 학생을 대상으로 KOSA AI, SW 교육센터에서 실무 중심 교육과정을 운영한다. 피지컬 AI, 소프트웨어 테스트 등 산업 현장에서 요구되는 기술을 반영해 교육 콘텐츠를 구성하고, 현장 적응력을 높이는 데 집중한다. 이와 함께 참여 학생들에게는 산업체 현장실습뿐 아니라 빅테크 기업 오피스 투어 기회도 제공된다. 교육과정을 이수한 학생을 대상으로는 취업처 발굴과 채용 연계 지원도 적극 추진할 계획이다. 서성일 KOSA 상근부회장은 "이번 협약을 통해 학생들이 산업 현장과 가까운 환경에서 실질적인 경험을 쌓고, 협회 네트워크를 기반으로 양질의 일자리로 이어질 수 있도록 지원하겠다"고 밝혔다. 김혜리 경기도교육청 취창업지원센터장은 "AI, SW 산업 변화 속도가 빠른 만큼 학생들이 현장에서 바로 활용할 수 있는 역량을 갖추는 것이 중요하다"며 "KOSA와 협력을 통해 실효성 있는 교육과 취업 연계를 추진하겠다"고 말했다.

2026.03.26 16:54남혁우 기자

[AI는 지금] "메모리 병목 뚫었다"…구글, '터보퀀트'로 AI 인프라 판 바꿀까

구글이 생성형 인공지능(AI) 운영의 최대 걸림돌로 꼽히는 '메모리 병목 현상'을 소프트웨어 혁신으로 풀어낸 차세대 압축 기술을 선보여 AI, 클라우드 업계도 들썩이고 있다. 하드웨어 추가 투입 없이 알고리즘만으로 메모리 사용량을 6배 줄이고 연산 속도를 최대 8배 높이는 혁신 기술인 만큼 비용 절감뿐 아니라 AI 인프라의 효율과 경쟁 구도를 동시에 흔들 수 있는 변수가 될 지 주목된다.26일 업계에 따르면 구글은 지난 24일 공식 블로그를 통해 '터보퀀트' 기술을 공개하고 대규모언어모델(LLM)과 벡터 검색 전반에서 메모리 병목을 완화할 수 있는 압축 알고리즘을 제시했다. 터보퀀트는 LLM의 임시 기억장치인 'KV 캐시'를 3비트 수준으로 압축해 정확도 손실 없이 메모리 사용량을 최소 6배 줄이는 기술이다. LLM은 고차원 벡터 데이터를 기반으로 작동하는 구조로, 이 데이터를 저장하는 'KV 캐시'가 막대한 메모리를 요구한다. 이로 인해 처리 속도와 비용이 동시에 증가하는 문제가 지적돼 왔다. 터보퀀트는 기존 압축 방식과 달리 데이터 값을 직접 줄이는 대신, 벡터의 표현 구조를 재구성하는 방식으로 접근한다. 좌표계를 변환해 데이터 구조를 단순화하는 '폴라퀀트'와 고차원 데이터의 거리와 관계를 유지하면서 오차를 최소화하는 'QJL(Quantized Johnson-Lindenstrauss)' 기법을 결합해 최소한의 손실로 압축 효율을 극대화했다. 구글은 "이 기술은 대규모 벡터 데이터를 최소한의 메모리로 처리하면서도 의미적 유사도를 정확하게 유지할 수 있도록 설계됐다"며 "LLM뿐 아니라 대규모 벡터 검색 시스템에서도 속도와 효율을 동시에 개선할 수 있다"고 설명했다. 이 기술은 오는 4월 열리는 ICLR 2026에서 정식 발표될 예정으로, 구체적인 성능과 적용 범위에 대한 추가 검증 결과도 공개될 전망이다. 업계에선 이 기술이 AI 모델 경쟁의 축이 변화하고 있음을 보여준다고 평가했다. 그동안 생성형 AI는 파라미터 규모 확대를 중심으로 발전해 왔지만, 실제 운영 단계에서는 메모리 사용과 데이터 이동이 주요 병목으로 작용해왔다. 터보퀀트는 연산량을 일부 늘리는 대신 메모리 사용을 줄이는 방식으로 이 균형을 재조정하며 동일한 하드웨어로 더 많은 작업을 처리할 수 있는 기반을 제공한다. 소프트웨어 측면에서도 의미가 크다. 터보퀀트는 모델을 재학습하지 않고 추론 단계에서 바로 적용할 수 있는 기술로, 기존 AI 모델과 인프라를 그대로 활용하면서 효율을 개선할 수 있다. 이는 AI 경쟁이 모델 개발 중심에서 실행 효율과 시스템 최적화 중심으로 이동하고 있음을 시사한다. 향후에는 KV 캐시 관리, 메모리 기반 스케줄링, 추론 엔진 최적화 등이 핵심 기술 영역으로 부상할 전망이다. AI 인프라 구조에도 변화가 예상된다. 지금까지는 GPU 연산 성능 확보가 핵심 과제로 꼽혔지만, 실제로는 메모리 대역폭과 용량이 성능을 좌우하는 경우가 많았다. 터보퀀트는 메모리 병목을 완화함으로써 GPU 활용도를 높이고 동일 자원으로 더 많은 추론 작업을 처리할 수 있게 한다. 이는 데이터센터 운영 효율을 크게 끌어올리는 요인으로 작용할 수 있다. 클라우드 사업자 입장에서는 비용 구조와 경쟁 전략 모두에 영향을 미친다. 메모리 사용 감소는 단위 추론 비용을 낮추는 동시에 더 많은 트래픽을 처리할 수 있는 여력을 제공한다. 비용이 낮아질수록 AI 서비스 사용량이 증가하는 특성을 감안하면 총 수요는 감소하기보다 확대될 가능성이 높다. 시장에선 터보퀀트 발표 이후 메모리 반도체 수요 둔화 가능성을 반영해 관련 종목이 약세를 보이기도 했다. 다만 업계에선 효율 개선이 오히려 더 긴 문맥 처리, 더 많은 사용자, 더 복잡한 서비스로 이어지면서 새로운 수요를 창출할 수 있다는 시각도 있다. 이 기술에 따른 온디바이스 AI 확산 가능성도 주목된다. 메모리 제약으로 인해 제한적이었던 모바일 환경에서도 보다 복잡한 LLM을 구동할 수 있는 여지가 생기기 때문이다. 이는 개인화 AI, 프라이버시 중심 서비스, 스마트폰 기반 AI 에이전트 확산으로 이어질 수 있을 것이란 기대감을 높이고 있다. 이종욱 삼성증권 연구원은 "효율적인 AI 모델은 전체 비용을 낮춰 더 많은 AI 계산 수요를 불러온다"며 "최적화 모델들은 반도체 자원을 줄이는 것이 아니라 같은 자원으로 더 높은 성능의 AI 서비스를 구현하는 데 사용되고 있다"고 분석했다.그러면서 "AI 업체들이 비용 경쟁이 아니라 성능 경쟁을 하는 한 비용 최적화는 반도체 수요에 영향을 미치지 않을 것"이라며 "(반도체 업계가) 걱정해야 할 순간은 AI로 더 할 수 있는 기능이 별로 없거나 AI 업체들이 경쟁을 멈출 때"라고 덧붙였다.

2026.03.26 16:43장유미 기자

[현장] MS "AI 에이전트 보안은 달라야…예측·자율형으로"

"인공지능(AI) 시대에 보안은 솔루션에 별도 덧붙이는 기능이 아닙니다. 제품 설계부터 개발, 배포, 운영까지 전 과정에 기본 적용되는 시스템입니다. 우리는 보안 위협을 예측·대응하는 기능을 솔루션에 결합했습니다. 앞으로 자율형 보안 체계를 강화하는 것이 목표입니다." 믹 듄 마이크로소프트 아시아태평양(APAC) 수석 보안 자문 책임자는 26일 서울 코엑스에서 열린 '마이크로소프트 AI 투어 서울 2026'에서 AI 시대 보안 전략을 이같이 제시했다. 그는 AI 시대에 보안을 제품 설계부터 운영까지 전 과정에 내재화하는 '시큐어 퓨처 이니셔티브'를 중심 전략으로 내세웠다. 마이크로소프트는 이 전략 실현을 위해 엔지니어 약 35000명을 투입했다. 듄 책임자는 보안 시스템 운영 방식이 바뀌어야 한다고 주장했다. 위협을 확인하고 대응하는 사후적 구조에서 벗어나 스스로 상황을 판단하고 미리 대응하는 자율형 보안이 기업 필수 시스템이라는 설명이다. 그는 해결책으로 마이크로소프트 통합 보안 플랫폼 'AI 퍼스트 엔드투엔드 시큐리티 플랫폼(AI-first end-to-end security platform)'을 제시했다. 이는 마이크로소프트 '디펜더'와 '퍼뷰' '엔트라' '센티널' '시큐리티 코파일럿' 기능을 한데 합친 보안 플랫폼이다. 여기서 디펜더는 엔드포인트, 정체성, 클라우드 워크플로, 이메일 전반의 위협 방어를 맡는다. 퍼뷰는 클라우드 앱과 디바이스, AI 시스템 전반 데이터를 보호한다. 엔트라는 사용자와 에이전트에 최소권한 원칙 기반 접근 통제를 적용한다. 센티널은 각종 보안 신호와 맥락을 연결해 점차 자율적인 보안 조치 작업을 맡는다. 시큐리티 코파일럿은 이 플랫폼에서 더 빠르고 지능적으로 위협에 대응할 수 있게 인간 작업자를 지원한다. 듄 책임자는 AI 에이전트 보안 강화를 위한 체계를 별도 마련했다고 밝혔다. 마이크로소프트는 '에이전트 365'로 에이전트 생성·사용·권한을 통합 관리하는 환경을 구축했다. 이를 통해 거버넌스와 보안을 동시에 확보하는 것이 핵심이다. 듄 책임자는 개발 단계에서도 보안을 기본값으로 적용했다고 강조했다. 개발자가 AI 개발 플랫폼 '마이크로소프트 파운드리' 내 관리·보안 제어 영역인 '컨트롤 플레인'을 통해 모델과 에이전트를 설계하는 초기 단계부터 보안 기능을 적용할 수 있다는 이유에서다. 또 '시큐리티 데시보드 포 AI'로 전반적인 위험 신호를 통합적으로 파악하고 우선순위로 대응할 수도 있다. 듄 책임자는 애저를 비롯한 마이크로포스트 365, 깃허브, 윈도 등 플랫폼 환경을 단일 보안 체계로 연결했다고 밝혔다. 보안팀은 개발 단계에서 발견된 취약점 정보를 운영 환경까지 이어서 관리할 수 있다. AI가 자동으로 수정 방안을 제시해 대응 속도까지 높일 수 있다. 그는 "앞으로 보안 방식은 사후 대응에서 사전 대응 중심으로 바뀌고 있다"며 "기존처럼 문제가 발생한 뒤 대응하는 것은 너무 늦다"며 "사전 대응으로 위험 자체를 미리 줄여야 한다"고 당부했다.

2026.03.26 16:13김미정 기자

AI 도입 확산 속 기밀 유출·환각 우려…클루커스, '클루스피어'로 원천 차단

기업 업무용 인공지능(AI) 도입이 본격화되면서 무분별한 외부 AI 사용에 따른 데이터 유출과 '비인가 AI(섀도우 AI)' 문제가 새로운 보안 리스크로 떠오르고 있다. 이에 클루커스가 기업 내 모든 AI 사용 흐름을 중앙에서 통제하고 관리할 수 있는 엔터프라이즈 AI 플랫폼을 선보이며 AI 운영 관리 시장 공략에 나섰다. 클루커스는 26일 서울 강남구 코엑스에서 열린 '마이크로소프트 AI 투어 서울'에 프리미어 스폰서로 참가해 엔터프라이즈 AI 플랫폼 '클루스피어(ClooSphere)'를 처음으로 공개했다. AI 게이트웨이 기반 통제…데이터·소스코드 유출 사전 차단 김신영 부사장이 현장에서 소개한 클루스피어는 기업이 AI 도입 이후 운영 단계에서 겪는 보안, 데이터 통제, 품질 관리 등의 문제를 해결하고 AI 활용을 효율화할 수 있도록 지원하는 플랫폼이다. 이 플랫폼은 AI 게이트웨이를 중심으로 모든 요청과 응답을 중앙에서 통제하는 구조가 특징이다. 이를 통해 기업이 허용한 모델과 데이터만 사용할 수 있도록 제한하고 모든 사용 기록을 추적하며 섀도우 AI와 소스코드나 기업기밀 등 민감 데이터 유출을 구조적으로 차단할 수 있다. 보안 기능은 클루스피어의 핵심 경쟁력으로 제시됐다. 플랫폼은 입력과 출력 단계에서 데이터를 검증하고 필요 시 자동 마스킹을 적용한다. 또한 권한 기반 접근 제어(RBAC)를 통해 부서별 접근 권한을 구분하고, AI가 열람할 수 있는 정보 범위를 세밀하게 설정할 수 있다. 프롬프트 인젝션과 같은 공격도 차단한다. 기업 기밀 정보가 외부로 전송되는 것을 원천적으로 막고, 모든 AI 사용 로그와 트래픽을 기록해 이상 사용 여부를 추적할 수 있도록 했다. 개발 조직을 위한 보안 기능도 강조됐다. 코드 생성 AI 사용 시 발생할 수 있는 내부 소스코드 유출을 막기 위해 모든 트래픽을 게이트웨이를 통해 관리한다. 외부로 전송되는 코드나 데이터는 정책에 따라 차단하거나 필터링할 수 있으며, 인가된 저장소와 환경에서만 AI 도구를 사용할 수 있도록 설정할 수 있다. 클루스피어는 온프레미스 환경을 기반으로 제공돼 외부 통신과 데이터 유출 위험을 최소화한다. 동시에 애저 오픈AI, AWS, 구글 등 다양한 AI 모델과 연동할 수 있어 기업 정책에 맞는 유연한 운영이 가능하다. 김 부사장은 "기업 내에서 같은 AI를 사용하더라도 직책마다 접근 가능한 데이터는 명확히 구분돼야 한다"며 "이 기준을 시스템적으로 통제하는 것이 중요하다"고 강조했다. 이어 "AI는 도입보다 운영이 더 중요하다"며 "클루스피어는 AI 사용을 막는 것이 아니라 안전하게 지속 활용할 수 있도록 관리하는 플랫폼"이라고 설명했다. 지식·DB·API 통합…기업 맞춤형 AI 구현 클루스피어는 기업 환경에 최적화된 AI 구성을 지원한다. 지식 기반, 데이터베이스, 용어 사전, API 연결 등 4대 축을 중심으로 내부 시스템과 데이터를 통합한다. 국내 환경을 고려해 HWP 파일 등 사내 문서를 인식할 수 있으며, 업무 용어를 학습시켜 기업 특화 AI를 구현할 수 있다. 또한 기존 시스템과 API를 연동해 실제 업무 프로세스에 AI를 적용할 수 있다. AI 결과에 대한 검증 기능도 제공된다. 응답 품질을 점수화하고, 어떤 데이터와 도구를 기반으로 결과가 생성됐는지 추적할 수 있어 오류 분석과 품질 개선에 활용할 수 있다. 클루커스는 이번 클루스피어를 통해 기존 클라우드 운영 관리(MSP)에 AI 운영 관리 영역을 결합할 계획이다. 이를 통해 기업의 AI 도입부터 운영까지 전 과정을 지원하는 통합 관리 서비스를 제공한다는 전략이다. 김 부사장은 "속도, 품질, 보안 사이에서 기업이 원하는 균형을 맞추는 것이 핵심"이라며 "클루스피어는 기업 AI 운영의 표준 플랫폼으로 자리잡을 것"이라고 밝혔다.

2026.03.26 16:12남혁우 기자

델, 양자·AI 시대 사이버보안 강화…PC·데이터센터 '계층형 방어' 구축

델 테크놀로지스가 양자컴퓨팅과 인공지능(AI) 확산으로 고도화되는 차세대 사이버 위협에 대응하기 위해 디바이스부터 데이터센터까지 전 영역을 아우르는 '설계 기반 보안'과 '사이버 복원력' 강화 전략을 본격화한다. 델 테크놀로지스는 새로운 보안 설계와 사이버 복원력 기능을 발표했다고 26일 밝혔다. 이번 발표는 양자컴퓨팅과 AI로 인해 기존 암호화 체계가 약화될 가능성이 커지는 상황에서 보호·탐지·복구 전 과정을 아우르는 보안 체계를 강화하는 데 초점을 맞췄다. 델은 디바이스 보안 기반을 강화하고 사고 이후 복원력을 높이는 동시에 AI 데이터 플랫폼 전반으로 위협 탐지 범위를 확장하는 전략을 제시했다. 델에 따르면 AI 시대 사이버 공격은 더욱 정교해지고 있으며 특히 양자컴퓨팅 기술이 기존 암호화와 소프트웨어(SW) 무결성 검증 체계를 무력화할 가능성이 제기되고 있다. 이에 미래 공격에 대응할 수 있는 디바이스 설계, 피해를 최소화하는 복원력, AI 데이터 환경 전반에 걸친 탐지 역량 확보가 핵심 과제로 부상 중이다. 델은 PC부터 데이터센터까지 기술 스택 전반에 계층형 방어 전략을 적용해 이러한 위협에 대응한다는 방침이다. 우선 기업용 PC 제품군에 '양자 대응' 보안 기능을 도입해 펌웨어 단계부터 보안을 내재화했다. 이를 통해 기존 보안 도구로 탐지하기 어려운 공격이나 재설치 이후에도 은폐되는 위협까지 차단할 수 있도록 했다. 핵심 하드웨어(HW) 보안 요소인 임베디드 컨트롤러(EC)는 양자 내성 서명을 활용해 펌웨어 업데이트를 검증하며 BIOS와 EC의 이중 검증 구조를 통해 변조된 펌웨어 실행을 원천 차단한다. 또 BIOS 검증 기능은 델 클라우드에 저장된 신뢰 기준값과 비교해 변조 여부를 확인하고 이상 발생 시 즉각 경고를 제공해 신속한 대응을 지원한다. 암호화와 디지털 서명을 기반으로 공급망 보안 리스크까지 줄인다는 목표다. 사이버 복원력 측면에선 AI 기반 복구 기술을 강화했다. 델 조사에 따르면 전 세계 기업 중 실제 공격이나 훈련 상황에서 최소한의 영향으로 복구에 성공한 비율은 40%에 불과한 것으로 나타났다. 이에 델은 '파워프로텍트' 포트폴리오를 고도화해 랜섬웨어를 조기에 탐지하고 복구 시간을 단축하는 데 집중했다. 이번에 업데이트된 파워프로텍트 데이터 매니저는 AI 기반 어시스턴트를 통해 긴급 상황에서 운영 환경에 맞는 복구 가이드를 제공한다. '파워스토어' 스냅샷을 활용한 이상 탐지 기능으로 랜섬웨어 징후도 조기에 식별한다. 분산된 시스템을 단일 대시보드에서 관리할 수 있어 운영 효율성을 높였다. 파워프로텍트 데이터도메인 제품군도 강화됐다. 신규 'DD3410' 어플라이언스는 백업 속도를 최대 2배, 데이터 복구 속도를 46% 향상시켜 사고 이후 빠른 정상화를 지원한다. 최신 운영체제는 TLS 1.3을 지원하며 미국 국립표준기술연구소(NIST)의 암호화 요구사항을 충족하도록 설계했다. 해당 제품은 2U 폼팩터에서 8테라바이트(TB)부터 40TB까지 확장 가능하며 다양한 파트너와 SW 생태계를 지원한다. 아울러 파워프로텍트 사이버 리커버리와 사이버센스는 구축 절차를 간소화해 도입 속도를 높였다. 사이버 리커버리 에센셜은 사전 검증된 아키텍처를 기반으로 최소한의 입력만으로 구축을 지원하며 DD3410을 통해 소규모 환경에서도 엔터프라이즈급 복구 역량을 구현할 수 있도록 했다. '오라클 RAC' 환경에 대한 분석 지원도 추가해 보호 범위를 확장했다. 양자 대응 보안 기능은 올해 출시될 기업용 PC에 적용된다. 파워프로텍트 데이터 매니저와 데이터도메인 운영체제는 현재 글로벌 시장에서 제공 중이다. 데이터도메인 DD3410은 다음 달 15일부터 출시된다. 김경진 한국 델 테크놀로지스 총괄사장은 "양자컴퓨팅 기술이과에이전틱 AI의 부상이 현재의 데이터 암호화나 디지털 서명 체계를 무력화하는 시대가 조만간 도래할 수 있다"며 "지난 10년 가까이 포스트 양자 암호 기술과 사이버 복원력 및 설계 기반 보안에 투자하며 이러한 변화에 대비해 온만큼, 고객이 복잡성을 줄이고 미래 위협에 선제적으로 대응할 수 있도록 지원할 것"이라고 밝혔다.

2026.03.26 15:36한정호 기자

[AI는 지금] 삼성 브라우저 올라탄 퍼플렉시티, AI 검색 주도권 잡을까

퍼플렉시티가 삼성전자와 협력해 자사 인공지능(AI) 기술을 탑재한 삼성 인터넷 브라우저를 출시하며 모바일 브라우저 시장 공략에 나섰다. 대화형 AI를 브라우저에 결합해 검색 트래픽 주도권 확보에 나선 전략으로 풀이된다. 퍼플렉시티는 26일 삼성전자와 전략적 협력을 맺고 AI 기능이 통합된 '삼성 브라우저'를 공식 출시했다. 이 브라우저에는 퍼플렉시티 API 기반 대화형 AI '브라우징 어시스트(Browsing Assist)'가 탑재됐다. 브라우징 어시스트는 사용자가 보고 있는 웹페이지 맥락을 이해해 자연어 질의응답, 페이지 요약, 추가 탐색 등을 지원한다. 웹페이지를 벗어나지 않고도 정보를 탐색할 수 있으며 탭 관리나 브라우징 기록 탐색 등도 대화형 인터페이스로 수행할 수 있다. 모바일과 PC 간 실시간 연동을 통해 갤럭시 스마트폰과 윈도우 환경에서 일관된 사용 경험을 제공하는 점도 특징이다. 퍼플렉시티는 이번 협업을 위해 검색 API와 에이전트 API를 통합한 전용 AI API를 구축했다. 해당 기술은 삼성 전용 인프라 환경에서 운영되며 자체 AI 브라우저 '코멧(Comet)' 개발 과정에서 축적한 기술력이 반영됐다. 이번 협업은 양사 모두에게 전략적 확장 기회로 평가된다. 퍼플렉시티는 브라우저 레벨에서 사용자 접점을 확보하며 서비스 확산 기반을 넓혔고, 삼성전자는 기본 브라우저에 차별화된 AI 기능을 결합해 경쟁력을 강화하게 됐다. 특히 퍼플렉시티의 접근 방식 변화가 주목된다. 퍼플렉시티는 자체 브라우저 개발을 병행하고 있지만, 이번에는 독자 브라우저로 이용자를 확보하기보다 기존 브라우저에 AI를 내장하는 방식을 택했다. 사용자가 별도 서비스를 찾아가지 않아도 되는 구조로, 삼성 인터넷이라는 기본 탑재 브라우저를 통해 대규모 사용자 기반에 직접 접근하려는 전략이다. 이는 사업 구조를 바꾸는 움직임이라기보다 유통 전략의 변화로 해석된다. 퍼플렉시티는 기존에도 AI 기반 답변형 검색 서비스를 제공해 왔으나, 이번 협업은 해당 검색 경험을 브라우저 내부로 확장하는 데 초점이 맞춰져 있다. 브라우저에서 곧바로 대화형 탐색이 가능해지면서 검색 접근 방식 자체를 바꾸려는 시도로 분석된다. 업계에선 이번 일에 따른 시장 점유율 변화 가능성에 주목했다. 기본 탑재 브라우저에 대화형 AI 기능이 결합될 경우 사용자 이탈을 줄이고 이용 빈도를 높일 수 있을 것으로 판단돼서다.하지만 현재 삼성 인터넷 브라우저의 점유율은 여전히 미미하다. 삼성 기기 기반 사용자층에 의존하는 구조로, 아직까진 글로벌 점유율 확대에 한계를 보이고 있다. 실제 시장 조사 기관 스탯카운터에 따르면 글로벌 기준 삼성 인터넷 브라우저 점유율은 약 2% 수준에 머물러 있다. 모바일에서는 약 4%대 점유율로, 크롬과 사파리에 이어 3위권을 유지하고 있지만 비중은 크지 않다. 다만 국내 시장에서는 영향력이 상대적으로 크다. 삼성 인터넷은 전체 브라우저 시장에서 약 12% 수준 점유율을 기록하고 있으며 모바일 기준으로는 약 24% 수준으로 크롬(30% 후반대)을 추격하고 사파리(20% 초중반대)와 2위 경쟁을 벌이고 있다. 이 같은 구조에선 기능 차별화가 점유율 경쟁으로 이어질 가능성이 높을 것으로 기대된다. 업계에선 기본 탑재 브라우저에 AI 기능이 결합될 경우 사용자 이탈을 줄이고 이용 빈도를 높이는 효과가 나타날 것으로 보고 있다. 브라우저 내에서 검색과 탐색이 동시에 이뤄지는 환경이 자리 잡을 경우 점유율 상승으로 이어질 가능성도 제기된다. 모리타 준 퍼플렉시티 아시아태평양 대표는 "갤럭시 사용자들이 일상적인 검색 환경에서 퍼플렉시티 AI를 경험할 수 있게 됐다"며 "삼성과 협력을 통해 AI 기반 탐색 경험을 지속적으로 고도화할 것"이라고 밝혔다.

2026.03.26 14:40장유미 기자

AI 인프라 허브로 부상한 인도…재벌 아다니, 메타·구글과 협력 모색

인도 대표 재벌 가우탐 아다니가 이끄는 아다니 그룹이 글로벌 빅테크와 손잡고 데이터센터 사업 확장에 속도를 낸다. 인도를 글로벌 인공지능(AI)·클라우드 인프라 핵심 거점으로 키운다는 목표다. 25일(현지시간) 블룸버그통신에 따르면 아다니 그룹은 최근 메타·구글 등 미국 기술 대기업과 데이터센터 사업 협력을 위한 논의를 진행 중인 것으로 알려졌다. 이번 협의는 아다니 그룹이 추진 중인 1000억 달러(약 150조원) 규모 디지털 인프라 투자 전략의 일환으로 평가된다. 그룹은 초대형 데이터센터 구축과 AI·클라우드 서비스에 필수적인 토지와 재생에너지를 동시 공급하는 사업자로 자리매김한다는 방침이다. 월마트의 인도 전자상거래 자회사 플립카트도 협상에 참여한 것으로 전해졌다. 아다니 그룹은 인도 각 지역에서 데이터센터 부지를 물색 중이며 현재 논의는 초기 단계로 구체적인 위치는 아직 확정되지 않았다. 이같은 움직임은 인도를 둘러싼 글로벌 AI 인프라 경쟁이 한층 격화되고 있음을 보여준다. 인도는 빠르게 성장하는 경제와 방대한 인구 기반을 바탕으로 해외 투자와 기술 기업을 끌어들이고 있으며 이에 맞춰 데이터센터 시장 역시 급성장 중이다. 컨설팅업체 KPMG에 따르면 인도의 데이터센터 전력 용량은 2030년까지 8기가와트(GW)를 넘어설 전망이다. 이는 현재 대비 약 5배 수준이다. 아다니 그룹은 이미 AI 인프라 확대에 공격적으로 나서고 있다. 오는 2035년까지 1000억 달러(약 150조원)를 투입해 친환경 기반 AI 데이터센터를 구축할 계획이다. 이 투자는 서버·전력 인프라 등 연관 산업에서 장기적으로 1500억 달러(약 225조원) 규모의 투자 유발 효과를 창출할 것으로 보고 있다. 이와 함께 글로벌 기업들의 현지 시장 투자도 이어지고 있다. 아마존은 2030년까지 인도 클라우드 인프라에 약 127억 달러(약 19조원)를 투자할 계획이며 오픈AI 역시 1GW 규모 데이터센터 구축을 검토 중이다. 인도 내 기업 간 경쟁도 치열하다. 릴라이언스는 110억 달러(약 16조원) 규모 데이터센터 프로젝트를 추진 중이며 타타그룹 역시 외부 투자 유치를 통해 사업 확대에 나섰다. 업계에선 인도가 AI·클라우드 인프라의 차세대 글로벌 허브로 부상하고 있다는 평가가 나온다. 대규모 수요와 정부의 디지털 정책, 글로벌 기업들의 투자 경쟁이 맞물리며 초거대 AI 인프라 집적지로 빠르게 변모하고 있다는 분석이다. 아다니 그룹은 "데이터센터와 재생에너지를 결합한 통합 인프라를 앞세워 글로벌 AI 시대의 핵심 공급자로 자리잡겠다"고 밝혔다.

2026.03.26 14:39한정호 기자

[현장] MS 부사장 "챗봇 도입이 능사 아냐…조직 운영부터 AI 중심 설계해야"

"기업이 채팅창에 인공지능(AI)을 도입하는 게 해답이 아닙니다. 직원이 매일 사용하는 앱 안에 AI를 자연스럽게 넣어야 합니다. 기업은 AI 중심으로 업무 구조와 조직 운영 방식을 재설계해야 성과를 볼 수 있습니다." 스콧 거스리 마이크로소프트 클라우드·AI 그룹 수석부사장은 26일 서울 코엑스에서 열린 '마이크로소프트 AI 투어 서울 2026'에서 이같이 밝혔다. 프론티어 트랜스포메이션은 AI를 업무 보조 도구를 넘어 조직 운영 구조와 비즈니스 프로세스 전반을 AI 중심으로 재편하는 것을 의미한다. 이를 통해 임직원 AI 경험 강화와 고객 참여 혁신, 비즈니스 프로세스 재설계, 혁신 가속화를 동시에 도출할 수 있다는 설명이다. 거스리 부사장은 "기업이 단순히 AI를 채팅 창에 추가하는 것이 관건이 아니다"며 "사람들이 매일 사용하는 도구 안에 AI가 스며들어 있어야 한다"고 강조했다. 이에 발맞춰 마이크로소프트는 코파일럿 시리즈 최신 업데이트를 소개했다. '마이크로소프트 365 웨이브 3'는 '워크IQ' 기반으로 워드를 비롯한 엑셀, 파워포인트, 아웃룩 등 주요 앱 내에서 사용자별 업무 맥락을 반영한 개인화된 에이전트 경험을 제공한다. 특히 코파일럿 코워크는 사용자가 목표를 제시하면 워크IQ를 바탕으로 이메일, 일정, 문서 등 '마이크로소프트 365' 앱 전반 데이터를 통합할 수 있게 됐다. 이를 통해 여러 단계의 업무를 계획·실행할 수 있다. 해당 기능은 프론티어 프로그램 사용자에게 우선적으로 제공 중이다. 거스리 부사장은 글로벌 코파일럿 도입 현황도 공개했다. 현재 코파일럿을 채택한 포춘 500대 기업 비중은 90%를 넘어섰으며, 유료 이용자 수는 전년 대비 160% 이상, 일일 활성 사용자 수는 10배 증가한 것으로 집계됐다. 3500명 이상 대규모 도입 기업 수도 3배 늘어난 것으로 확인됐다. 마이크로소프트는 5월부터 새로운 통합 엔터프라이즈 플랜 마이크로소프트 365 E7(프론티어 스위트)을 통해 더욱 안전한 환경에서 지능형 에이전트를 제공한다고 밝혔다. 해당 플랜은 기존 E5 플랜에 코파일럿과 에이전트 365를 결합한 제품군이다. 엔트라를 비롯한 디펜더, 인튠, 퍼뷰 등 마이크로소프트 주요 보안 솔루션이 포함됐다. 마이크로소프트 손잡은 한국 기업…"사용경험 강화" 한 목소리 이날 마이크로소프트 제품군으로 AI 에이전트를 구축한 국내 기업이 무대에 올라 성과를 발표했다. KT는 '마이크로소프트 365 코파일럿'으로 AI를 조직 중요한 자산으로 전환했다고 밝혔다. 사내 데이터를 중앙화하고 연동 환경을 구축함으로써 직원들이 각자 역할과 업무에 맞는 맞춤형 AI 에이전트를 직접 설계할 수 있는 생태계를 조성했다. 현대백화점그룹은 마이크로소프트 '애저 오픈AI' 기반 쇼핑 큐레이션 '헤이디'를 통해 오프라인 고객 경험을 혁신했다. 상황 인식형 추천과 다국어 지원을 통해 고객 만족도 4.51점을 기록했으며, 헤이디 사용 건수는 오픈시점 월 9천 건에서 현재 월 8만 건으로 9배 증가한 것으로 나타났다. 연세대의료원은 현장 의료진이 직접 AI 앱을 개발하는 '시민 개발자' 환경을 구축해 80여 개의 특화 앱을 임상 워크플로에 통합했다고 밝혔다. 내달 도입 예정인 '라운딩 코파일럿'으로 차트 검토 시간을 단축해 의사 1인당 하루 최대 1.8 진료 시간을 추가한 것으로 전해졌다. 리얼월드는 마이크로소프트 손잡고 로봇 조작 모델을 비롯한 피지컬 AI 기술 고도화에 나서고 있다. 리얼월드는 '애저 블롭 스토리지'와 '애저 데이터 레이크' 기반으로 산업 데이터를 체계적으로 저장·관리하는 인프라를 마련하고 있다. 이를 통해 모델 학습과 반복 실험의 효율을 높이고 있다. 향후 산업용 데이터 샌드박스를 통해 기업 고객이 제조·물류 환경에서 피지컬 AI를 보다 안전하게 검증하고 도입할 수 있도록 지원할 계획이다. 조원우 한국마이크로소프트 대표는 "AI 전환은 더 이상 도입 여부 문제가 아니라 이를 어떻게 측정 가능한 실질적 비즈니스 성과로 연결하느냐에 달려 있다"며 "빠르게 변화하는 산업 환경 속에서 오늘 공개된 혁신 사례와 세션을 통해 비즈니스 가치를 발굴하고 운영 효율을 높이며, 조직 경쟁력을 강화할 수 있는 실행 중심의 로드맵에 대한 영감과 인사이트를 얻길 바란다"고 말했다.

2026.03.26 14:38김미정 기자

전력·인허가에 묶인 AI 인프라…데이터센터 특별법, 규제 완화 속도낸다

인공지능(AI) 경쟁력의 핵심 기반으로 꼽히는 데이터센터 구축을 둘러싼 제도 정비가 본격화됐다. 국회에서 'AI 데이터센터 진흥 특별법'이 첫 문턱을 넘으면서 전력·입지·인허가 등 산업 전반의 구조적 병목 해소 기대가 커지고 있다. 26일 업계에 따르면 국회 과학기술정보방송통신위원회는 지난 24일 법안심사소위원회를 열고 'AI 데이터센터 지원에 관한 특별법'을 통과시켰다. 이번 법안은 정동영·조인철·한민수·황정아 의원과 김장겸 의원, 이해민 의원이 각각 발의한 6개 법안을 병합한 대안이다. 법안소위 통과는 입법 절차의 초기 단계지만, 여야 간 이견 없이 처리됐다는 점에서 향후 상임위원회와 법제사법위원회, 본회의 통과 가능성도 높다는 평가가 나온다. 이번 특별법은 AI 데이터센터를 국가 경쟁력을 좌우하는 전략 인프라로 규정하고 인허가 절차 간소화와 입지 규제 완화, 세제 지원, 전력 확보 지원 등을 골자로 한다. 특히 비수도권 데이터센터에 대한 전력계통영향평가 면제와 발전사업자와의 직접 전력구매계약(PPA) 허용이 핵심으로 꼽힌다. 생성형 AI 확산으로 고성능 그래픽처리장치(GPU) 기반 연산 수요가 급증하면서 데이터센터는 단순 설비를 넘어 AI 경쟁력을 좌우하는 핵심 기반으로 부상했다. 업계에선 전력 확보와 인허가 지연이 국내 AI 인프라 투자 확대를 가로막는 대표적인 요인으로 지목돼 왔다. 클라우드 업계 관계자는 "AI 서비스 수준과 경쟁력은 결국 인프라에서 갈린다"며 "전력과 인허가 불확실성이 줄어들면 민간 투자 환경도 빠르게 개선될 것"이라고 말했다. 특히 이번 법안은 행정 절차 측면에서의 변화가 주목된다. 과학기술정보통신부가 인허가 창구 역할을 맡아 관계 부처 협의를 일괄 처리하고 일정 기간 내 결과를 도출하는 '타임아웃제'를 도입한다. 이에 따라 데이터센터 구축 인허가 절차가 최대 150일 내 처리되는 구조가 마련될 전망이다. 과기정통부 관계자는 "특별법은 창구 일원화와 함께 시설·입지·전력 특례를 포함하는 구조"라며 "데이터센터 구축 과정에서 과도하게 적용되던 승강기, 주차장, 전기차 충전시설, 미술품 설치 의무 등 규제를 완화하고 입지 해석을 명확히 해 기업 부담을 줄이는 데 초점을 맞췄다"고 설명했다. 데이터센터 업계 관계자는 "그동안 지자체, 한전, 산업부 등 여러 기관을 각각 상대해야 해 사업 일정이 지연되는 경우가 많았다"며 "과기정통부가 창구 역할을 맡아 조정해주는 구조는 현장에서 체감도가 클 것"이라고 말했다. 전력 특례 역시 산업 영향 측면에서 핵심 변수로 꼽힌다. AI 데이터센터는 전력 비용이 전체 운영비의 상당 부분을 차지하는 구조로, 안정적이고 예측 가능한 전력 확보가 사업성에 직결된다. 이번 법안에 포함된 PPA 특례와 전력계통영향평가 면제는 이러한 부담을 완화하기 위한 장치다. 다만 전력 특례를 둘러싼 부처 간 시각차는 여전히 남아 있는 것으로 알려졌다. 기후에너지환경부는 특정 산업에 대한 별도 전력 특례 도입보다는 기존 분산에너지 제도 틀 안에서 접근해야 한다는 입장을 유지해온 것으로 전해졌다. 또 PPA를 개별 산업에 확대 적용할 경우 제도 형평성과 전력시장 구조에 영향을 줄 수 있다는 점도 고려해야 한다는 시각이다. 이에 대해 업계에선 AI 데이터센터의 특수성을 감안한 별도 제도 필요성을 강조하고 있다. 데이터센터 업계 관계자는 "AI 데이터센터는 일반 산업과 비교하기 어려울 정도로 전력 수요가 큰 구조"라며 "전력 특례가 마련되지 않으면 국내 투자 유치 경쟁력 확보에도 한계가 있을 수 있다"고 말했다. 입지 측면에선 비수도권 데이터센터 유치에도 긍정적인 영향을 미칠 것으로 예상된다. 발전소 인근에서 직접 전력을 조달할 수 있는 환경이 조성될 경우 지방 입지의 경제성이 높아질 수 있어서다. 정부는 이번 특별법이 통과될 경우 단순 인프라 구축을 넘어 클라우드 생태계 전반을 활성화한다는 구상이다. 과기정통부가 창구 역할을 맡아 인허가와 부처 협의를 조정하고 기술 개발과 인력 양성 지원까지 연계하는 방안을 검토 중이다. 법안은 현재 법안소위 단계를 통과한 만큼 향후 상임위원회, 법제사법위원회, 본회의 등 입법 절차를 거치며 세부 내용이 조정될 가능성도 남아있다. 데이터센터 업계 관계자는 "법안소위 통과로 방향성은 확인됐지만, 전력 특례와 인허가 개선이 실제 사업 환경에서 얼마나 체감될지가 관건"이라며 "남은 입법 절차에서 실효성이 가려질 것"이라고 밝혔다.

2026.03.26 14:15한정호 기자

문체부 AI 행보…'조직·기준·현장' 3개 키워드 눈길

문화체육관광부가 3월 들어 AI 대응을 조직 신설, 기준 제시, 현장 사업으로 빠르게 구체화하고 있다. 단순히 계획을 세우고 문제를 인식하는 선에 그치지 않고 빠르게 다양한 분야에 적용하는 실제 움직임을 보이고 있다는 점이 눈길을 끈다. 3월 들어 문체부는 AI 대응 전담 조직을 꾸리고, 생성형 AI 저작권 판단의 기준선을 제시했으며, 예술·관광 현장에서는 AI 융합 사업을 실제로 움직이기 시작했다. 조직을 세우고, 기준을 만들고, 현장 적용까지 연결한 것이다. 문화정책 전반을 AI 시대에 맞게 재편하려는 실질적 전환 신호로 해석된다. 문체부의 AI 행보에서 나타나는 공통 분모 중 첫 번째 키워드는 조직이다. 문체부는 현재 문화미디어산업실 산하에 문화인공지능정책과를 두고 있다. 문체부 조직안내에 따르면 이 부서는 문화 AI 전략 수립과 제도 기반 마련, AI 콘텐츠 진흥 관련 업무, 범정부 협의 대응, 콘텐츠·저작권·관광·체육 분야 AI 사업 총괄, 문화 분야 AI 학습데이터 발굴·구축 등을 맡고 있다. AI를 개별 사업의 보조 수단이 아니라 문화행정 전반을 가로지르는 정책 의제로 끌어올린 셈이다. 두 번째 키워드는 기준이다. 문체부는 지난 2월 26일 '생성형 AI의 저작물 학습에 대한 저작권법상 공정이용 안내서'를 공개했다. 이 안내서에는 생성형 AI 학습 맥락에서 공정이용 판단 시 검토해야 할 요소들이 담겼다. 생성형 AI 확산으로 권리자와 개발사, 이용자 사이의 혼선이 커지는 상황에서 정부가 저작권 판단의 기본 틀을 먼저 제시했다는 점에서 의미가 적지 않다. 세 번째 키워드는 '현장'이다. 문체부가 원칙 제시에 머물지 않고 이를 다양한 분야에 적용하려는 모습을 이어오고 있다. 예술 분야에서는 AI를 실제 사업 모델과 서비스로 연결하는 시도가 본격화했다. 문체부와 예술경영지원센터는 지난 25일 '2026 AI+기술융합 오픈이노베이션' 사업 참여 예술기업 모집에 들어갔다. 이를 통해 예술기업과 선도기업 간 협업 과제를 발굴해 실증하는 구조를 가동한다는 방침이다. 이런 방식은 AI를 문화예술 담론의 화두에 그치지 않고 제작과 유통, 공간 경험을 바꾸는 도구로 끌어들이려는 움직임으로 볼 수 있다. 관광 분야에서도 비슷한 흐름이 확인된다. 지난 3월 25일에는 한국관광공사의 '2026년 관광기업 데이터·AI 활용 지원' 입찰이 마무리 됐다. AI 기조가 콘텐츠와 예술에 머무르지 않고 문체부가 크게 집중하고 있는 산업인 관광 분야까지 확장되고 있음을 보여준다. 콘텐츠 업계의 한 관계자는 "현장 적용 범위가 넓어질수록 문체부 AI 정책의 성격도 실험 단계에서 산업 지원 단계로 옮겨갈 가능성이 높아진다는 면에서 지켜볼 필요가 있다"라고 말했다. 이런 흐름은 문체부가 연초부터 예고했던 정책 기조의 연장선에 가깝다. 문체부는 1월 발표한 2026년 케이-콘텐츠 인재양성 사업에서 'AI 기반 창작부터 분야별 전문성까지'를 내세웠고, 2026년 콘텐츠 분야 업무보고에서도 현장형 제작과 AI 활용, 콘텐츠 제작공정의 AI 혁신을 주요 방향으로 제시했다. 연초에 인재와 제작 환경 차원의 방향을 제시하고, 2월에는 저작권 기준을 정리했으며, 3월에는 조직과 현장 사업으로 이어붙인 셈이다. 문체부가 이달 보여준 AI 행보는 준비 단계에 머무르기보다는 실행 단계로 신속한 진입에 가까웠다. 조직을 만들고, 기준을 세우고, 현장 사업으로 연결하는 흐름이 한 달 안에 이어지면서 AI는 문화정책의 주변 이슈가 아니라 실제 집행 과제로 올라섰다. 3월이 출발점이었다면, 이제 시선은 그 다음 단계로 향한다. 이 흐름이 콘텐츠 제작 환경과 저작권 질서, 산업 지원 체계를 아우르는 후속 정책으로 이어질 수 있을지 주목된다.

2026.03.26 12:55김한준 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK HBM, 올해도 잘 팔린다...양사 도합 300억Gb 달할 듯

[현장] MS "AI 에이전트 보안은 달라야…예측·자율형으로"

"K뷰티·기념품 없는 게 없네"...올리브영 ‘센트럴 명동 타운’ 가보니

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.