• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'트랜스폼'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

AWS 트랜스폼, 개발자 483년치 업무량 '순삭'

아마존웹서비스(AWS)가 에이전틱 AI 기반 현대화 서비스 'AWS 트랜스폼'으로 기업의 기술 부채를 줄이고 대규모 애플리케이션 전환을 가속하고 있다. AWS는 'AWS 트랜스폼(AWS Transform)'을 앞세워 기업의 기술 부채를 해소하고 전사적 애플리케이션 현대화를 지원하고 있다고 23일 밝혔다. 이 서비스는 애플리케이션 분석부터 코드 변환, 테스트, 배포까지 전 과정을 자동화한 에이전틱 AI 기반 마이그레이션·현대화 플랫폼이다. 기술 부채는 기업 혁신을 저해하는 핵심 요인으로 지적된다. 포레스터에 따르면 기업 IT 예산의 약 20%가 기술 부채 관리에 사용되고 있다. 시스템 및 소프트웨어 저널 연구에서는 개발자가 업무 시간의 평균 23%를 기술 부채 해결에 소모하는 것으로 나타났다. 액센츄어는 미국에서만 기술 부채로 인한 연간 비용이 2조 4100억 달러에 달한다고 분석했다. AWS는 약 20년간 축적한 마이그레이션·현대화 경험을 바탕으로 대규모 환경에서도 속도와 정확성을 동시에 확보할 수 있도록 설계했다고 설명했다. 지난해 5월 15일 정식 출시 이후 고객들은 18억 줄 이상의 코드를 분석했다. 이를 통해 총 100만9000 시간 이상의 수작업을 절감했다. 개발자 기준 약 483년치 작업량에 해당한다는 설명이다. AWS 트랜스폼은 .NET 애플리케이션 현대화뿐 아니라 SQL 서버 데이터베이스의 아마존 오로라 포스트그레SQL 전환, 레거시 UI 프레임워크 개선, 배포 프로세스 고도화 등 전 스택 윈도우 현대화를 지원한다. AWS는 이를 통해 최대 5배 빠른 전환 속도와 최대 70%의 운영 비용 절감 효과를 기대할 수 있다고 밝혔다. 실제 사례도 제시됐다. 익스페리언(Experian)은 7개 레거시 .NET 애플리케이션을 현대화하며 개발자 노력을 40% 줄였다. 약 300일 분량의 엔지니어 작업도 절감했다. 아이데미아(IDEMIA)는 기존 대비 4배 빠른 속도로 현대화를 완료했다. 닷넷(.NET) 8 전환을 통해 보안 태세를 강화하고 총소유비용(TCO)을 30% 절감했다. 그루포트레스인테르나시오날은 13만5천 줄의 코드 현대화 과정에서 작업 노력을 70% 줄였다. 2개월의 팀 작업 시간을 절감했고, 그래비톤(Graviton) 기반 워크로드로 인프라 비용을 40% 이상 낮췄다. AWS는 반복적인 코드 업그레이드와 런타임 전환을 자동화하는 'AWS 트랜스폼 커스텀'도 제공한다. 자바(Java), 노드js, 파이썬 업그레이드 등 일반적인 전환 시나리오에 즉시 적용할 수 있다. 일부 프로젝트에서는 실행 시간을 80% 이상 단축했다. 에어캐나다(Air Canada)는 수천 개의 AWS 람다(AWS Lambda) 함수에서 사용 중이던 노드.js 16 런타임을 20으로 전환하며 전환 작업 시간을 90% 단축했다. 프로젝트 전체 시간과 비용도 80% 절감했다. 메인프레임 환경에서도 효과가 나타났다. BMW 그룹은 테스트 시간을 75% 줄이고 테스트 커버리지를 60% 확대했다. 이타우는 분석 단계 시간을 96% 단축했다. 테스트 생성 작업은 97% 간소화했다. 테스트 커버리지는 4배 확대했고, 마이그레이션 속도는 75% 가속했다. VM웨어 환경에서는 애플리케이션 종속성 분석과 마이그레이션 계획 수립을 자동화한다. CSL은 29개 데이터센터, 1천72개 애플리케이션의 초기 마이그레이션 계획 수립 시간을 10배 단축했다. 최소 10주 반의 작업 시간을 절감했다. 애플리케이션 발견 시간은 12배 줄였고, 라이선스 및 데이터센터 비용 절감을 통해 운영 비용을 30% 낮췄다. AWS는 액센츄어, 캡제미니, 페가시스템즈 등과 협력해 산업별 요구사항을 반영한 '컴포저블 트랜스포메이션'을 제공하고 있다. 금융, 헬스케어 등 규제 산업에서도 산업 특화 지식과 워크플로우를 현대화 과정에 적용할 수 있도록 지원한다는 방침이다.

2026.02.23 16:43남혁우 기자

AWS, '트랜스폼' 에이전틱 AI 강화…코드·애플리케이션 현대화 속도 높인다

아마존웹서비스(AWS)가 클라우드 기반 애플리케이션 현대화를 가속하는 솔루션 업데이트를 선보였다. AWS는 '리인벤트 2025'에서 코드와 애플리케이션를 빠르게 현대화할 수 있는 'AWS 트랜스폼'의 새로운 에이전틱 AI 기능을 발표했다고 9일 밝혔다. 이번 업데이트는 모든 코드, API, 프레임워크, 기업 고유 언어까지 아우르며 조직 전체의 소프트웨어(SW) 자산을 신속하게 현대화하는 것을 목표로 한다. AWS에 따르면 기업들은 일반적으로 기술 부채 해소를 위해 전체 개발 시간의 30%를 소모하면서 혁신에 투입할 수 있는 자원을 잠식해왔다. AWS 트랜스폼은 이러한 문제를 해결하기 위해 닷넷(.NET) 애플리케이션, VM웨어 기반 시스템, 메인프레임 등 다양한 환경을 자동 분석·변환하는 기능을 제공해 기존 대비 최대 4배 이상 빠른 현대화를 지원해 왔다. AWS 트랜스폼을 통해 고객들은 약 11억 줄의 코드 분석과 81만 시간 이상의 수동 작업 절감 효과를 얻었다는 게 회사 측 설명이다. 이번에 도입된 '트랜스폼 커스텀' 기능은 조직이 자체적으로 개발해 온 고유 시스템까지 현대화 범위를 확장했다. 자바·노드JS·파이썬 등 주요 언어 업그레이드는 물론 맞춤형 변환 기능을 통해 내부 프로그래밍 언어와 프레임워크까지 처리한다. 에이전틱 AI 기반 변환으로 반복적이고 일관된 품질의 코드 전환을 가능케 하며 자동 피드백을 통해 변환 정확도도 지속 개선하도록 설계됐다. 이를 통해 기업은 수백·수천 개의 애플리케이션에 걸쳐 변환 작업을 빠르게 확장할 수 있다. 실제 사례도 속속 나오고 있다. 에어캐나다는 수천 개의 AWS 람다 함수를 며칠 만에 현대화하는 데 성공하며 기존 방식 대비 시간과 비용을 80% 절감했다. 글로벌 제조기업 지원 솔루션 기업 QAD 역시 기존 고객의 전사적자원관리(ERP) 업그레이드 난제를 해결하기 위해 AWS 트랜스폼을 도입해 18만 줄 이상의 레거시 코드를 자동 처리하고 생산성과 품질을 동시에 끌어올렸다. AWS 트랜스폼은 윈도우 기반 시스템 전체를 오픈소스 클라우드 네이티브 환경으로 전환하는 기능도 대폭 강화했다. 닷넷 애플리케이션, SQL 서버, UI 프레임워크 등을 일괄 현대화하는 풀스택 윈도우 전환 속도가 최대 5배 빨라졌다. 라이선스 및 운영 비용도 최대 70% 절감했다. 팀프론트는 AWS 트랜스폼을 활용해 단 2주 만에 80만 줄의 코드를 현대화하며 대규모 전환 프로젝트의 가능성을 입증했다. 회사는 현재 SQL 서버에서 포스트그레SQL로의 전환과 애플리케이션 현대화를 함께 진행 중이며 이를 통해 고객에게 더 높은 수준의 서비스 제공이 가능해졌다고 평가했다. AWS는 메인프레임과 VM웨어 환경 전환을 위한 기능도 강화했다. 메인프레임용 신규 에이전트는 레거시 코드의 비즈니스 기능 단위 분석, 도메인 분해, 테스트 자동화 등을 지원해 기존에 수개월 소요되던 작업을 단축한다. VM웨어용 트랜스폼 기능은 대규모 네트워크 마이그레이션과 보안 검토를 자동화해 복잡한 인프라 전환을 간소화한다. 또 AWS 파트너사가 자체 도구와 지식을 통합해 고객 맞춤형 워크플로를 구성할 수 있는 조합가능성 이니셔티브도 새롭게 도입했다. 산제이 브라마와르 QAD 레드존 최고경영자(CEO)는 "AWS 트랜스폼을 통해 이전에는 2주가 걸리던 현대화 작업이 이제는 단 3일 만에 완료되며 생산성을 60~70% 향상시키고 연간 7천500시간 이상의 개발 시간을 절약했다"며 "최신 QAD 어댑티브 ERP 플랫폼으로 전환하는 과정을 획기적으로 단축했고 이는 단순 현대화가 아니라 가속화"라고 말했다. 팀프론트의 바비 랜드 최고제품기술책임자(CPTO)는 "AWS 트랜스폼을 통해 단 2주 만에 80만 줄의 코드를 현대화하는 초기 성과를 거뒀으며 방대한 코드베이스를 수 개월이 아닌 단 수 주 만에 변환할 수 있음을 입증했다"며 "이를 통해 현대화를 가속화하고 현장 서비스 소프트웨어 기업 고객들에게 더 나은 서비스를 제공할 수 있게 됐다"고 밝혔다.

2025.12.09 17:20한정호 기자

AWS, '트랜스폼'으로 레거시 시장 정조준…AI, 마이그레이션도 대신한다

아마존웹서비스(AWS)가 기업 인프라 현대화와 마이그레이션 속도를 최대 4배까지 끌어올리는 인공지능(AI) 서비스를 시장에 내놓았다. 에이전트를 통해 코드 변환부터 인프라 재구성까지 자동화해 IT 자산 구조의 효율화가 가능해졌다. AWS는 기업 워크로드 현대화를 지원하는 'AWS 트랜스폼'을 공식 출시했다고 20일 밝혔다. 이 서비스는 지난해 리인벤트에서 선보였던 아마존 'Q 디벨로퍼' 기능을 확장한 형태로, 닷넷, 메인프레임, VM웨어 등 주요 레거시 시스템의 마이그레이션을 자동화한다. AWS의 거대언어모델(LLM), 머신러닝, 그래프 신경망 등을 활용해 기존 수작업 중심의 이전 절차를 단축하는 데 초점이 맞춰졌다. '트랜스폼'은 단순한 코드 변환 도구를 넘어 전문 어시스턴트처럼 작동한다. 기업은 AI와 채팅하며 프로젝트 목표와 맥락을 공유하고 마이그레이션 계획 수립부터 비용 분석, 코드 리뷰, 배포 준비까지 전 과정을 자동화된 방식으로 제어할 수 있다. 단순 자동화를 넘어 부서 간 협업을 위한 웹 기반 작업 환경이 함께 제공되는 것이다. 서브모듈인 '닷넷 에이전트'는 윈도우에서 리눅스로의 포팅을 지원해 서버 라이선스 비용, 유지보수 부담 등을 줄이고 전체 비용을 최대 40%까지 절감한다. 자연어 기반 커뮤니케이션을 통해 프로젝트 목표를 정의하면 에이전트가 종속성 분석, 리팩토링, 테스트 실행, 실행 가능 여부까지 검토해준다. 또 다른 서브모듈인 메인프레임 에이전트는 코볼 등 고전 언어 기반 애플리케이션을 자바 및 포스트그레SQL 기반 환경으로 변환한다. 그래프 신경망 기반 분석으로 모놀리식 구조를 모듈화하고 상태 전이 그래프 등 기법으로 리팩토링 정확도를 높인다. 이 과정을 통해 수년 걸리던 작업을 수개월 내로 단축할 수 있다는 것이 AWS의 설명이다. 'VM웨어 에이전트'는 네트워크 구성과 서버 마이그레이션을 자동화해 수작업 대비 최대 90%까지 시간을 줄인다. 에이전트는 애플리케이션 검색, 종속성 매핑 등을 처리한다. 사용자는 리뷰와 승인을 통해 과정을 제어할 수 있다. AWS는 그래프 기반 AI 기술을 바탕으로 종속성과 트래픽 패턴을 분석하고 이행 계획을 수 분 안에 자동 생성할 수 있다고 강조했다. 과거 수주 이상 소요되던 네트워크 구성 작업도 1시간 이내 완료가 가능하다는 것이다. 히토시 오카야마 노무라연구소 총괄 매니저는 "'트랜스폼' 덕분에 일반적으로 수주 이상 걸리던 복잡한 코드 분석을 1주일 만에 마무리할 수 있었다"며 "AI 에이전트가 프로그램 간 관계와 비즈니스 로직을 파악해주는 덕분에 문서화와 검증의 부담이 크게 줄었다"고 밝혔다.

2025.05.20 10:44조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"AI발 '해킹 대재앙' 이미 시작됐다"

이마트24-CU, 성수·명동 찍고 '한강 대전' 맞장

LG전자 "엔비디아와 로봇·AIDC·모빌리티 협력 논의"

[현장] 윤송이 전 엔씨 사장 "AI 시대 진짜 경쟁력은 가장 인간다운 인간"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.