• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (13374건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

나무기술 "한국형 AI 에이전트 수요 급증…'NAA'로 시장 정조준"

"현재 한국 기업 환경에 맞춘 인공지능(AI) 에이전트 수요가 급증하고 있습니다. 우리는 온프레미스·클라우드 환경을 아우르는 지능형 플랫폼으로 국내 기업을 공략할 방침입니다. AI 에이전트에 내부 시스템·데이터베이스(DB)를 자연스럽게 연결해 업무 생산성 향상을 도울 것입니다." 나무기술 고우주 최고AI책임자(CAIO) 겸 상무는 11일 호텔신라 다이너스티홀에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 AI 에이전트 플랫폼 '나무 AI 에이전트(NAA)'전략을 이같이 소개했다. NAA는 거대언어모델(LLM) 활용을 넘어 실제 워크플로까지 실행하는 기업형 에이전트다. 고객 요구에 맞춘 기능을 구성할 수 있어 업무 단위 자동화를 수행할 수 있다. 플랫폼에는 전문 보고서 생성을 비롯한 템플릿 기반 리포트 생성, 단계별 탐색을 수행하는 딥리서치 기능까지 포함됐다. 고 상무는 NAA 주요 특징으로 내부 DB 연동 기능을 갖춘 'DB챗'을 꼽았다. DB챗은 텍스트-투-프로그래밍 언어(SQL) 기반 모델을 통해 DB 질의를 자동화한다. 사용자는 주소만 입력해 손쉽게 연결을 구성할 수 있다. 이를 통해 질의응답(Q&A) 챗봇, 심층 보고서 등 구조화된 분석 결과를 빠르게 도출할 수 있다. 나무기술은 클로드의 '스킬스'와 유사한 에이전트 스킬 기능도 NAA에 제공한다. 고 상무는 "이는 에이전트가 작업 단계를 자동 계획·실행하도록 설계됐다"며 "고객은 복잡한 업무 절차를 단시간에 자동화할 수 있다"고 설명했다. 고 상무는 민감 데이터 처리를 위한 '인텔리전트 라우팅' 기술도 도입했다. 이 기능은 민감도 낮은 질문을 API 모델로 처리하고, 내부 문서나 보안 요구 높은 질의를 온프레미스 비전언어모델(VLM)으로 전환하는 식이다. 그는 "이런 구조는 성능과 보안, 비용을 동시에 고려한 하이브리드 처리 체계"라고 밝혔다. 나무기술은 NAA에 기존 머신러닝(ML)과 딥러닝 모델을 에이전트 구조에 통합하는 기능도 도입했다. 수요 예측, 시계열 분석, 사기 탐지 등 기존 알고리즘을 에이전트화 하는 식이다. 이를 통해 AI 챗봇, 보고서 생성, 분석 워크플로 등 다양한 형태로 알고리즘 응용이 가능하다. NAA는 쿠버네티스 기반 멀티노드 확장 전략도 지원한다. 그래픽처리장치(GPU) 클러스터 환경에서 애플리케이션과 외부 API, 다양한 에이전트를 모델 컨텍스트 프로토콜(MCP)까지 연동해 통합 운영하는 식이다. 고 상무는 "이는 대규모 엔터프라이즈 환경에서도 확장성을 갖춘 셈"이라고 말했다. 고 상무는 "AI 도입은 단일 서비스가 아니라 전사적 구조를 재정비하는 과정"이라며 "기업이 요구사항 정의와 파일럿 실행을 체계화하면 NAA가 실질적 생산성 향상에 기여할 것"이라고 강조했다.

2025.12.11 16:49김미정

오픈서베이 "AI 리서치로 기업만의 지식 엔진 구축하는 시대 연다"

"오픈서베이는 단순한 도구 이상의 역할을 목표로 합니다. 궁극적으로는 기업의 리서치 결과가 한 번 쓰고 버려지는 자산이 아니라 지식 자산으로 축적되도록 하는 것입니다. 결국에는 우리 회사 데이터로 학습한 우리만의 지식 엔진을 가질 수 있습니다." 박희원 오픈서베이 본부장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 이같이 밝혔다. 또 인공지능(AI) 기반 리서치가 기업 의사결정 구조와 데이터 활용 방식을 근본적으로 바꾸고 있다고도 강조했다. 박 본부장은 이날 발표에서 오늘날 기업들이 빠르게 변화하는 시장 환경 속에서 속도와 비용이라는 두 가지 딜레마를 동시에 겪고 있다고 진단했다. 기존 리서치는 설계부터 보고서 작성까지 한 달 이상 걸려 기업이 제때 활용하기 어렵다. 여기에 예산은 줄어드는데 각 조직의 데이터 요구는 오히려 늘고 있어 리서치의 효율성 문제가 더욱 부각되고 있다. 오픈서베이는 이 같은 문제의 해법으로 외주 중심 방식을 벗어나 기업이 스스로 설계·수집·분석·해석까지 수행하는 '기업 주도 리서치'를 제시했다. 이를 가능하게 한 핵심 도구가 '데이터 스페이스(Data Space)'다. 데이터 스페이스는 리서치 전 과정을 하나의 시스템에서 처리할 수 있도록 설계된 플랫폼이다. 박 본부장은 "데이터 스페이스는 문서와 이메일, 엑셀 작업에 의존하던 아날로그식 리서치의 비효율을 제거해 준다"며 "비전문가도 손쉽게 조사 설계와 분석을 수행할 수 있게 만든 환경"이라고 소개했다. 여기에 오픈서베이는 14년간 축적된 프로젝트 데이터와 패널 응답 패턴, 자동화된 분석 엔진을 바탕으로 AI 보고서 기능을 구현해 리서치 속도를 대폭 끌어올렸다. 그 결과 평균 17일 걸리던 리서치 전체 과정은 4일로, 보고서 작성은 1일 이내로 단축됐다는 게 오픈서베이 측의 설명이다. AI 보고서는 통계적으로 검증된 데이터를 기반으로 작성되도록 '디터미니스틱 레이어'를 적용해 신뢰성을 확보하고, 그 위에 전문가 사고 흐름을 반영하는 '제너레이티브 레이어'를 더해 자연스러운 해석을 생성한다. 그는 "통계적 사실을 단단히 고정한 뒤 그 위에 전문가의 논리를 얹는 방식으로 신뢰성과 품질을 동시에 확보했다"고 말했다. 오픈서베이는 앞으로 검색 기반 리서치, AI 합성 패널, 설문 자동 생성 등 차세대 기능도 단계적으로 도입할 계획이다. 특히 자체 패널 데이터를 학습한 합성 패널 기술은 실제 소비자 반응을 시뮬레이션할 수 있어 주목받고 있다. 박 본부장은 "리서치를 두 달짜리 프로젝트가 아니라 하루 또는 다음 날 해결할 수 있는 업무로 바꾸는 것이 목표"라며 "이는 리서치가 필요 없어진다는 뜻이 아니라, 누구나 쉽고 빠르게 리서치를 수행하는 시대가 온다는 의미"라고 설명했다.

2025.12.11 16:44전화평

엔키화이트햇 LLM 기반 침투테스트 기술 '신기술' 공식 인정

오펜시브 보안 전문 기업 엔키화이트햇(대표 이성권)은 '적응형 스캔을 활용한 공격표면 탐지 및 LLM 기반 침투테스트 기술'이 산업통상자원부 국가기술표준원으로부터 NET(New Excellent Technology, 신기술) 인증을 획득했다고 10일 밝혔다. 국가기술표준원은 국내에서 최초로 개발되거나 기존 기술을 혁신적으로 개선해 상용화와 기술 거래를 촉진한 우수 기술을 대상으로 신기술(NET) 인증을 부여한다. 엔키화이트햇은 외부 노출 IT 자산을 자동으로 탐지하고, 거대언어모델(LLM) 기반 AI가 실제 위협 여부를 판단해 공격자 관점의 침투테스트까지 자동화하는 핵심 기술로 인증을 획득했다. 이 기술은 거대언어모델이 웹 페이지의 구조와 문맥을 직접 이해해 단순 패턴 기반의 검증 도구로 판별하기 힘든 공격 코드를 자동 생성하고 취약점을 검증하는 것이 핵심이다. 또한, 대상 서버의 상태를 반영해 트래픽을 자동 분산하는 '적응형 스캔' 기술을 적용해 서비스 안정성을 확보한 점이 기존 기술과의 차별점으로 평가받았다. 엔키화이트햇은 이번 기술의 성능 시험에서 공격표면 식별 97% 이상의 높은 탐지율과 100%의 공개 취약점 재현 코드 제공 성공률을 확보하며 기존 도구 대비 기술적 우위를 증명했다. 특히 평균 80시간 이상 소요되는 수작업 점검을 자동화해 위협 탐지 및 대응 시간(MTTD/MTTR)을 50% 이상 획기적으로 감소시켰다. 이성권 엔키화이트햇 대표는 “이번 신기술(NET) 인증은 엔키화이트햇의 기술력이 국내 최고 수준임을 국가로부터 공인받은 의미 있는 성과”라며, “단순 탐지를 넘어 AI가 공격자 관점에서 직접 검증까지 수행하는 기술로, 기업들은 수동적인 방어에서 벗어나 능동적이고 효율적인 보안 체계를 구축할 수 있을 것”이라고 말했다. 엔키화이트햇은 이번 인증 기술이 핵심 엔진으로 적용된 자사의 올인원 오펜시브 보안 플랫폼 '오펜(OFFen)' 을 앞세워, 공공 및 금융 시장 공략을 본격화하고 국내외 시장에서 기술 표준화를 주도해 나갈 계획이다.

2025.12.11 16:32김기찬

KAILA, 'AI 리터러시 글로벌 컨퍼런스 2025' 성료

한국AI리터러시협회(KAILA)가 판교 스타트업캠퍼스에서 'AI 리터러시 글로벌 컨퍼런스 2025'를 열고 윤리와 책임을 기반으로 한 AI 활용을 국가 경쟁력 과제로 논의했다. 한국AI리터러시협회는 이번 컨퍼런스가 교육자, 공무원, 기업 실무자, 연구자 등 다양한 현장 전문가 200여명이 참여한 가운데 AI 리터러시를 전면에 내세운 행사로 치러졌다고 10일 밝혔다. 이번 행사는 단순 기술 동향 소개가 아니라 교육과 산업 현장에서 AI를 어떻게 책임 있게 활용할 것인지 사회적 신뢰를 훼손하지 않는 기준을 어떻게 세울 것인지에 초점을 맞춰 진행됬다. 기조발제를 맡은 이선종 KAILA 회장은 'AI 시대 개인의 경쟁력'을 주제로 AI 리터러시의 필요성을 강조했다. 이 회장은 "AI는 단순 도구가 아니라 인간의 판단과 사회적 신뢰를 직접적으로 흔드는 기술"이라며 "윤리와 법, 비판적 이해를 기반으로 한 AI 리터러시는 교육현장은 물론 기업 환경에 내재된 실체적인 위험요소이며 시급한 과제"라고 지적했다. 그특히 학교와 기업 모두에서 '편리하니까 일단 쓰고 보자'는 태도에서 벗어나, 리스크를 이해하고 책임 있는 활용 원칙을 세우는 일이 급선무라고 강조했다. 해외 기관의 참여도 눈길을 끌었다. 싱가포르 디지털 에듀케이션 의회(DEC) 대니 비엘릭 회장은 영상 연설을 통해 "AI 리터러시는 글로벌 차원의 공동 과제이며 한국 KAILA의 활동이 중요한 기여가 될 것"이라고 말했다. 호주 AI 리터러시 랩의 더글러스 이커설 박사는 해외 교육 현장에서의 AI 활용 사례와 리터러시 모델을 소개하며, 교사와 학생이 실제 수업 속에서 어떻게 AI 도구를 이해하고 비판적으로 사용하는지 구체적인 실천 사례를 공유했다. 국내 연구 결과도 발표됐다. 한국청소년정책연구원 이창동 선임연구원은 전국 청소년 6천700명을 대상으로 진행한 AI 리터러시 실태 조사 결과를 공개했다. 조사에 따르면 청소년들은 챗봇, 이미지 생성기 등 AI 도구를 활발히 사용하고 있지만 저작권 침해, 개인정보 노출, 허위 정보 생성 등 위험에 대한 인식은 상대적으로 낮은 것으로 나타났다. 이 연구원은 "AI 활용 능력과 위험 인식 사이의 격차가 커질수록 부정행위, 사이버 괴롭힘, 허위 정보 확산과 같은 문제가 심화될 수 있다"며 청소년 대상 체계적인 AI 리터러시 교육의 필요성을 강조했다. AWS, 대학, 산업계, AI 윤리 전문가가 참여한 패널토론에서는 최근 사회 현장에서 나타나는 구체적인 문제들이 논의됐다. 패널들은 대학 과제와 시험에서의 AI 활용이 어디까지 허용돼야 하는지, 기업 내부 정보가 생성형 AI 도구를 통해 외부로 유출될 수 있는 가능성, 프라이버시 침해와 감시 강화 우려, 업무·학습 현장에서의 AI 도구 오남용 등 사례를 짚었다. 이어 규제 중심 접근을 넘어, 기관·기업·학교가 스스로 지킬 수 있는 '실효성 있는 AI 활용 기준'과 내부 가이드라인 마련이 시급하다고 입을 모았다. KAILA는 이번 컨퍼런스를 계기로 교육계와 산업계를 아우르는 AI 리터러시 프레임워크를 정교화하고, 기업을 대상으로 한 윤리적 AI 활용 세미나와 국제 협력 사업을 확대할 계획이다. 협회는 오는 2025년 상반기에는 'AI 리터러시'를 공식 출간하고, 교강사 양성 과정과 공공기관·기업 대상 AI 리터러시 진단 프로그램도 본격화한다는 구상이다. 행사 당일 선착순 100명에게 제공된 신간는 현장에서 높은 관심을 받으며, 교육·기업 현장의 실무 지침서로 자리매김할 가능성을 보여줬다는 평가다. 이선종 회장은 "오늘의 논의는 결론이 아니라 출발점"이라며 "한국 사회가 AI 시대의 새로운 기준을 세우는 데 KAILA가 지속적으로 역할을 하겠다"고 말했다. 그는 앞으로도 국내외 기관과 협력해 AI 리터러시 교육과 진단, 정책 제안을 병행하며, 윤리와 책임을 기반으로 한 AI 활용 문화를 확산하겠다고 밝혔다.

2025.12.11 16:28남혁우

배스트데이터 "AI 경쟁력, 학습 아닌 추론 중심 데이터 구조가 결정한다"

"기업이 그래픽처리장치(GPU) 구축에 막대한 비용을 투입해도 인공지능(AI) 학습에만 활용해서는 실제 성과와 연결되지 않습니다. 앞으로의 경쟁력은 추론 중심 데이터 활용 구조를 얼마나 빨리 갖추느냐에 달려 있습니다." 배스트데이터 송성환 이사는 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 AI 시대 데이터 플랫폼의 중요성에 대해 이같이 밝혔다. 송 이사는 올해 AI 시장 변화의 핵심 키워드를 추론 확장으로 규정했다. 또 최근 GPU 세대 교체 주기가 빨라지고 모델링 개발 속도가 비약적으로 높아지는 가운데 기업들이 여전히 학습 중심 사고방식에 갇혀 있다고 지적했다. 그는 "데이터 활용성이 뒷받침되지 않으면 AI 투자 대비 기업 생산성은 올라가지 않는다"며 실시간 서비스와 맞닿은 AI 데이터 파이프라인의 중요성을 강조했다. 특히 AI 활용을 위한 데이터 파이프라인을 입수·가공·저장이 아닌 사용자·에이전트가 즉시 활용할 수 있는 마지막 액션 단계까지 이어지는 구조로 재정의해야 한다고 주장했다. 샘플링 데이터나 가공 데이터로 학습을 수행하는 것을 넘어 고객 요청에 대한 즉각적 응답성과 실시간 추론이 핵심이라는 설명이다. 송 이사는 이같은 요구를 해결하기 위한 배스트데이터의 'AI 운영체제(OS)' 전략을 소개했다. 배스트데이터는 창립 초기 스토리지 기업으로 출발해 현재는 데이터 수집부터 변환·쿼리·임베딩·검색증강생성(RAG)까지 연결하는 AI 데이터 플랫폼으로 영역을 확장했다. 배스트데이터는 AI OS를 기반으로 어떠한 AI 인프라와 솔루션 환경에서든 투입된 데이터를 자동 변환하고 대형 클라우드 서비스 사업자(CSP) 및 엔비디아가 제공하는 서비스와의 직접 연동과 아웃풋을 창출한다. 배스트데이터 핵심 기술은 독자적으로 개발한 '분리 자원 공유 구조(DASE)' 아키텍처다. DASE는 컨트롤러와 데이터 노드가 완전히 분리된 구조로 기업의 모든 데이터 풀을 공유한다. 이를 통해 장애가 발생해도 운영 영향이 없고 스토리지 컨트롤러·쿼리 엔진·데이터 엔진 등 다양한 역할을 하나의 노드에 유연하게 배치할 수 있도록 지원한다. 이 구조는 최근 글로벌 벤더들이 뒤따라 채택하고 있는 방식이라는 게 송 이사의 설명이다. DASE 위에는 '엘리멘트 스토어'라는 통합 데이터 레이어가 구축돼 있다. 이는 정형·비정형·반정형 데이터를 어떤 프로토콜로 받아도 동일한 방식으로 저장·관리할 수 있도록 설계된 구조다. 투입된 데이터는 자동으로 표준 데이터베이스(DB) 포맷으로 변환할 수 있고 빠른 인덱싱을 위한 카탈로그 기능도 제공해 실시간 데이터 쿼리·분석을 지원한다. 아울러 배스트데이터는 DB 기능을 OS 레벨에서 기본 제공한다. 사용자는 별도 설치 없이 콘솔에서 몇 번의 클릭만으로 스키마와 테이블을 구성할 수 있다. 주요 쿼리 엔진이 내장돼 데이터 이동 없이 데이터 앞쪽에서 직접 연산을 수행할 수 있다. 벡터 네이티브 DB 기능도 포함돼 있어 멀티모달 AI·검색증강생성(RAG)·임베딩 서비스 구축에 필요한 모든 요소를 단일 플랫폼으로 통합했다. 아울러 '싱크엔진', '인사이트엔진', 멀티 콘텍스트 프로토콜(MCP) 오퍼레이터 등도 단일 플랫폼 내에서 서비스한다. 해당 기능들은 외부 솔루션, 내부 스토리지, 로그·이벤트 데이터 등 다양한 소스를 자동 통합하고 여러 AI 모델을 OS 수준에서 연동해 엔드투엔드 AI 파이프라인 자동화를 구현한다. 이러한 기술력을 앞세워 글로벌 시장에서 가파른 성장세를 보이고 있다. 배스트데이터는 올해 포브스 'AI 50'에 선정됐으며, 세계 최대 GPU 클라우드 기업 중 하나인 코어위브가 약 2조5천억원 규모의 투자를 단행해 데이터 플랫폼으로 채택했다. 송 이사는 "AI 운영의 성패는 데이터를 얼마나 빠르고 일관되게 활용 가능한 형태로 전환하느냐에 달려 있다"며 "이 전환의 모든 과정을 하나의 데이터 플랫폼 OS로 통합해 기업이 AI 생산성을 극대화할 수 있도록 지원하겠다"고 강조했다.

2025.12.11 16:15한정호

Odoo "중소기업 AI 전환, '데이터 전산화' 선행돼야"

"우리나라 기업의 99%를 차지하는 중소·중견기업에게 인공지능(AI) 전환은 자동차 부품을 갈아 끼우듯 간단한 문제가 아닙니다. AI 도입에 앞서 업무 데이터의 전산화가 반드시 선행돼야만 실질적인 성과를 낼 수 있습니다." 최지훈 Odoo팀장은 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 AI 도입 전 필수 선결 과제에 대해 이같이 밝혔다. 그는 "고객서비스(CS) 채널에 AI 챗봇을 도입하더라도 구매 이력·재고·생산 현황 데이터와 연동되지 않으면 반쪽짜리 서비스에 불과하다"면서 "이를 해결하기 위해 개별 시스템을 응용프로그램 인터페이스(API)로 연결하는 것은 배보다 배꼽이 더 큰 비용과 복잡성을 초래한다"며 AI 도입의 실패 사례로 '데이터 고립' 문제를 지적했다. 최 팀장은 Odoo의 가장 큰 경쟁력으로 '오픈소스 기반의 유연성'을 꼽았다. 폐쇄적인 타사 서비스형 소프트웨어(SaaS) 솔루션과 달리 Odoo는 소스 코드 레벨의 통제권을 제공해 기업의 워크플로우에 맞춘 자유로운 커스터마이징을 지원한다. 그는 "Odoo 마켓플레이스에는 2025년 기준 4만 개 이상의 앱이 등록돼 있다"며 "기업은 검증된 전사적 자원관리(ERP) 코어 위에 필요한 AI 기능만 얹어 효율을 극대화할 수 있다"고 설명했다. 아울러 Odoo는 기업의 규모와 보안 요구사항에 따라 ▲완전 관리형(SaaS) ▲부분 관리형(PaaS, 서비스형 플랫폼) ▲자체 관리(온프레미스) 중 최적의 호스팅 방식을 선택할 수 있는 유연함도 갖췄다. 이날 발표에서는 Odoo의 70여 개 비즈니스 앱에 탑재된 실질적인 AI 기능들도 소개됐다. ▲이커머스 검색 엔진 최적화(SEO) 및 상품 설명 생성 ▲공급망 관리(SCM) 수요 예측 및 동적 원가 계산 ▲고객 관계 관리(CRM) 리드 스코어링 및 승률 분석 ▲HR 급여 이상 징후 감지 등 업무 전반에 걸쳐 AI가 유기적으로 작동한다. 최 팀장은 대기업과 달리 자원·인프라가 부족한 중소기업에게는 통합성·유연성을 갖춘 솔루션이 필수적이라고 강조했다. 그는 "Odoo는 전 세계에서 유일하게 전사적 자원관리(ERP) 코어까지 오픈소스로 제공하는 솔루션"이라며 "기업의 니즈에 따라 고객 관계 관리(CRM), 재고 관리, 회계 등 필요한 모듈만 부분적으로 선택해 도입하거나 기존 시스템과 연동할 수 있는 유연함이 강점"이라고 소개했다. 그러면서 최 팀장은 개발 지식이 없어도 AI 기능을 구현할 수 있는 'Odoo 스튜디오'가 최근 주목받고 있다고 피력했다. 그는 "드래그 앤 드롭만으로 AI 필드를 생성하고, 자연어 프롬프트를 통해 맥락을 인식하는 나만의 AI 에이전트를 만들 수 있다"며 개발 편의성을 강조했다. 개발 생산성을 높여주는 '바이브 코딩' 기술과 자산 소유권 보장 정책도 눈길을 끌었다. 최 팀장은 "파이썬 기반의 친화적인 개발 환경과 AI 코딩 도구를 통해 개발 기간을 압도적으로 단축할 수 있다"며 "특히 오픈소스 기반이기 때문에 구축된 시스템의 소유권이 100% 고객에게 귀속되기 때문에 특정 벤더에 종속될 우려가 없다"고 말했다. 끝으로 최 팀장은 성공적인 디지털 전환(DX)을 위한 로드맵으로 ▲데이터 통합 ▲업무 자동화 ▲AI 도입 ▲생태계 확장의 4단계를 제시했다. 그는 "Odoo는 오픈소스와 클라우드를 결합해 기업이 가장 빠르고 효율적으로 AI 시대를 선도할 수 있도록 돕는 파트너가 될 것"이라고 마무리했다.

2025.12.11 15:49진성우

HPE "이더넷 기반 AI 패브릭, 인피니밴드 대안 넘는다"

HPE가 AI 데이터센터 백엔드 네트워크의 해법으로 '오픈 이더넷'을 제시했다. 인피니밴드 대비 성능·비용·구축 유연성에서 더 높은 효율을 보이는 만큼 TCO(총소유비용)를 절반가량 낮출 수 있다고 주장했다. 김현준 HPE 이사는 11일 서울 신라호텔에서 열린 'ACC 2025' 행사에서 AI 워크로드를 위한 고성능 네트워크 구축 전략을 소개하며 AI 백엔드 패브릭의 핵심 기술 방향이 '오픈 이더넷'이라는 점을 강조했다. 그는 HPE와 주니퍼의 합병 이후 강화된 데이터센터 포트폴리오를 기반으로 "AI 인프라의 중심이 빠르게 이더넷으로 이동하고 있다"고 말했다. 김 이사는 이날 발표에서 AI 백엔드 네트워크 기술 선택에서 가장 많이 제기되는 '인피니밴드(InfiniBand) vs 이더넷(Ethernet)' 논쟁을 정면으로 다뤘다. 그는 "그래픽처리장치(GPU) 간 통신을 어떻게 처리하느냐가 핵심"이라며 "이제는 이더넷이 성능·비용·구축 유연성 모두에서 현실적인 선택지로 자리 잡았다"고 말했다. 특히 TCO 측면에서 이더넷이 약 절반 수준으로 비용 효율을 확보할 수 있다는 점을 강조하며 "개방형 생태계를 기반으로 여러 벤더와 조합이 가능하다는 점 역시 큰 장점"이라고 덧붙였다. AI 트래픽 특성은 이더넷 최적화 필요성을 뒷받침한다. 김 이사는 AI 트래픽을 "소수의 거대 플로우가 오가는 구조"라고 설명하며, 이 흐름을 안정적으로 처리하려면 패킷 로스를 사실상 0에 가깝게 줄여야 한다고 말했다. 또 그는 "원격 직접 메모리 접근(RDMA) 기반 AI 트래픽은 0.1% 수준의 로스만 발생해도 성능이 급격히 떨어진다"며 혼잡 제어(DCQCN)와 로드밸런싱 알고리즘의 중요성을 강조했다. HPE는 이를 위해 명시적 혼잡 알림(ECN)·우선순위 기반 흐름 제어(PFC) 기반 혼잡 제어와 정적 부하 분산(SLB)·동적 부하 분산(DLB)·글로벌 부하 분산(GLB)·반응형 부하 분산(RLB) 등 다양한 로드밸런싱 기술을 적용하고 있다고 설명했다. 김 이사는 "AI 패브릭의 목적은 전체 네트워크 용량을 균등하게 활용하면서 로스를 없애는 것"이라며 "DLB 기반 동적 로드밸런싱이 기존 동일 비용 다중 경로 라우팅(ECMP)보다 확실한 성능 우위를 보인다"고 말했다. 실제 테스트 결과도 공개됐다. HPE는 자체 테스트 랩에서 AI 모델을 직접 학습시키며 네트워크 성능을 검증하고 있다. 김 이사는 "AI 인프라는 장비 스펙이 아니라 잡 완료 시간(JCT) 으로 성능을 판단해야 한다"며 "딥러닝 기반 추천 모델(DLRM)·양방향 인코더 기반 언어 모델(BERT) 등의 테스트에서 이더넷 패브릭이 안정적인 처리 시간을 보였다"고 강조했다. 또 그는 "AI 백엔드 네트워크는 더 이상 특정 기술에 종속된 구조가 아니라 개방형 이더넷 기반에서 고성능을 구현하는 방향으로 전환되고 있다"며 "HPE·주니퍼 통합 포트폴리오와 최신 스위치 제품군을 통해 고객이 향후 GPU 세대 변화까지 대응할 수 있도록 지원하겠다"고 밝혔다.

2025.12.11 15:45전화평

델 테크놀로지스 "내년 핵심 키워드는 거버넌스와 에이전트"

"기술이나 활용 사례만으로는 성공을 보장할 수 없습니다. 내년 기업과 정부가 인공지능(AI)을 활용한 가시적인 성과를 이루려면 명확한 '거버넌스' 확립이 무엇보다 중요합니다." 델 테크놀로지스 존 로즈 글로벌 최고기술책임자(CTO)는 11일 진행한 온라인 미디어 간담회에서 2026년 AI 기술 전망 및 시장 전략을 공유하며 이같이 강조했다. "거버넌스 없인 성과도 없다"…무질서한 도입 끝내고 우선순위 정해야 그는 내년을 관통할 5대 핵심 AI 키워드로 ▲거버넌스 ▲지식 계층 ▲자율 에이전트 ▲회복탄력성 ▲소버린 AI를 지목했다. 특히 로즈 CTO는 이 중에서도 거버넌스와 자율 에이전트를 2026년 기업의 생존과 직결된 핵심 승부처로 꼽았다. 첫 번째 키워드로 선정된 거버넌스는 AI를 실무에 본격적으로 도입함에 따라 시행착오를 줄이고 실제 성과를 내기 위해선 체계적인 관리 가이드라인이 필수적이라는 진단이다. 로즈 CTO는 "현재 전 세계 1천 개가 넘는 규제 기관이 각기 다른 AI 정책을 쏟아내고 있다"며 "분절되고 혼란스러운 외부 규제에 대응할 효율적인 틀이 필요하다"고 지적했다. 보다 중요하게 강조된 것은 기업 내부의 거버넌스다. 그는 "수백 명의 최고정보책임자(CIO)를 만나본 결과 그래픽처리장치(GPU)를 얼마나 확보했느냐 보다 '어떤 프로젝트를 우선순위에 두고 운영에 올릴지'를 정하는 프레임워크가 성패를 갈랐다"고 설명했다. 이어 "명확한 우선순위 없이 흥미 위주의 실험에만 리소스를 낭비하는 상황을 경계해야 한다"며 "적절한 거버넌스와 인프라를 결합하면 1을 투자해 10배, 많게는 30배 수준의 손익 개선 효과를 거둘 수 있다"고 강조했다. 두 번째 승부처인 자율 에이전트는 일하는 방식을 근본적으로 바꾸며 기업 생산성을 가파르게 상승시킬 핵심 기술로 소개됐다. 로즈 CTO는 "앞으로 AI 에이전트는 단순한 도구가 아니라 디지털 구성원으로서 팀에 합류하게 될 것"이라고 예고했다. 그는 진정한 자율 에이전트의 조건으로 ▲거대언어모델(LLM) ▲기업 고유 정보를 담은 지식 레이어 ▲외부 도구와 소통하는 프로토콜 ▲다른 에이전트와의 협업 능력을 제시했다. 실제로 델의 공장에서는 에이전트가 생산팀의 일정과 인수인계를 조율해 작업 흐름을 최적화하고 있다. 그는 "최고 수준 엔지니어의 노하우를 에이전트에 이식해 주니어 엔지니어가 '최고 전문가의 코칭을 받으며 일하는 듯한' 효과를 내는 실험도 진행 중"이라며 "사람이 하기엔 비효율적인 고객관계관리(CRM) 데이터 정리 같은 작업도 이제 에이전트의 몫"이라고 밝혔다. 이와 함께 델은 나머지 3가지 기술 트렌드에 대해서도 구체적인 전망을 내놨다. 지식 계층은 기업이 보유한 레거시 데이터를 벡터 데이터베이스나 지식 그래프 등 AI가 이해 가능한 수학적 형태로 변환·저장하는 인프라를 뜻한다. 로즈 CTO는 AI 도입 과정에서 지식 계층이 기업의 새로운 IT 표준이 될 것으로 예측했다. 회복탄력성은 최근 잦은 시스템 장애를 방지하고 안정적인 업무환경을 조성하기 위한 것으로, AI와 에지(Edge) 기술을 활용, 스스로 복구하고 방어하는 전략이 주목받을 것으로 봤다. 소버린 AI는 기업이나 정부의 민감 데이터를 보호하는 차원을 넘어 각 산업에 특화된 서비스를 위한 필수 요소가 될 것으로 예측됐다. 로즈 CTO는 "소버린 인프라는 향후 국방 로봇의 백엔드 시스템, 국가 인증이 필요한 AI 리스 서비스, 여러 국가가 안전하게 협업하는 'AI 교류의 장'으로서 산업 전반의 핵심 기반 시설이 될 것"이라고 내다봤다. 소버린 AI 기반 아시아 제조시장 혁신 본격화 피터 마스 아시아태평양·일본·중국(APJC) 총괄 사장은 이러한 핵심 키워드를 바탕으로 아시아 시장 공략을 고도화하겠다고 밝혔다. 특히 '제조업 혁신'과 '소버린 AI'가 양대 축이다. 마스 총괄은 "올해 전 세계 3천 곳 이상의 고객이 델과 함께 AI 팩토리를 구축했는데, APJC 지역이 매우 중요한 비중을 차지하고 있다"고 말했다. 아태지역에서는 티어2 클라우드와 소버린 인프라, 대형 엔터프라이즈를 아우르는 AI 서버 수요가 급증하고 있다. 그는 인도 조호(Zoho), 일본 GMO 인터넷, 샌디스크 등의 사례를 들며 고객들이 델 인프라를 기반으로 데이터 주권을 지키며 AI 서비스를 확장하고 있다고 소개했다. 마스 총괄은 "아시아의 가장 큰 기회는 제조업이며 그 중에서도 로보틱스"라며 "델은 로봇 기계 자체가 아닌, 로봇 제조사의 개발·생산 환경을 AI 기반으로 현대화하는 '백엔드 혁신'에 집중하고 있다"고 설명했다. 또 델은 로봇이 방대한 데이터를 학습하고 자율 주행과 작업 능력을 고도화하려면 탄탄한 AI 팩토리 인프라가 필요하다고 봤다. 이 과정에서 소버린 인프라와 에이전트, 지식 계층 기술이 융합돼야 한다고도 분석했다. 로즈 CTO는 "아시아는 AI 시대로 가장 빠르게 진입하고 있다"며 "특히 소버린 인프라와 에이전트를 제대로 활용하려면 파편화된 규제를 정리하는 외부 거버넌스와 기업 내부의 우선순위·보안·책임 체계를 포함한 내부 거버넌스가 필수적"이라고 조언했다.

2025.12.11 14:54남혁우

아카마이 "엣지로 '초저지연' AI 추론 시대 열 것"

"인공지능(AI) 경쟁력은 모델 크기가 아니라 완성된 모델을 얼마나 빠르고 안정적으로 실행할 수 있는지에 달렸습니다. 초저지연 AI 추론 환경이 중요해진 이유입니다. 추론에 강한 엣지 인프라 전략이 AI 서비스 성패를 가를 것입니다." 아카마이코리아 강상진 상무는 11일 호텔신라 다이너스티홀에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 초저지연 AI 추론 인프라 중요성을 이같이 밝혔다. 그는 "현재 AI 비용 구조에서 추론이 70~95%를 차지할 만큼 압도적"이라며 "학습에 쓰이는 비용은 전체 5~25% 수준에 그친다"고 설명했다. 이어 "이는 소수 빅테크 기업만이 초대형 학습을 수행하고, 다수 기업은 완성된 모델을 서비스에 통합해 활용하는 방식으로 전환했기 때문"이라고 배경을 밝혔다. 강 상무는 초저지연 AI 추론 중요성이 더 높아질 것이라고 내다봤다. 추론 단계에서 발생하는 지연은 서비스 품질과 사용자 경험에 직접적인 영향을 미친다는 이유에서다. 그는 "기존 중앙 집중형 리전으로는 초저지연 요구를 총족하기 힘들다"고 말했다. 현재 아카마이는 전 세계 4천400여 개 네트워크 거점(POP) 기반으로 한 분산 엣지 플랫폼으로 AI 모델의 추론을 지역 단위로 나누고 있다. 이는 폭증하는 추론을 지역 단위로 나눠 AI 서비스 지연을 최대한 줄일 수 있는 구조다. 그는 "일반적인 리전 기반 접근이 100밀리세컨드(ms) 수준의 지연을 보인다면, 엣지 기반 추론은 5~10ms까지 줄일 수 있다"며 "이 속도 차이가 새로운 AI 시장을 좌우하게 될 것"이라고 강조했다. 아카마이는 엣지 추론 효과가 즉각적으로 드러나는 영역으로 게임이나 이커머스, 사물인터넷(IoT), 자율주행·5G 분야를 꼽았다. 예를 들어 동시 접속자가 많은 모바일 게임이나 ms 단위의 반응이 필요한 스마트 디바이스는 중앙 서버와의 거리가 길어질수록 성능 저하가 뚜렷하다. 반면 엣지에서 추론을 수행하면 사용자 인근에서 AI가 반응하기 때문에 성능과 안정성을 동시에 확보할 수 있다는 설명이다. 강 상무는 "AI 추론 시대는 곧 엣지 시대"라며 "분산 네트워크를 통한 엣지 전략이 기업 AI 서비스 품질을 좌우할 것"이라고 강조했다.

2025.12.11 14:50김미정

바이트플러스 "AI, 이제 '사람' 아닌 'AI'가 통제"

바이트플러스가 이제는 사람이 인공지능(AI)을 컨트롤하는 시대가 아닌 'AI가 AI를 컨트롤 하는 시대'가 될 것이란 전망을 내놨다. 이미나 바이트플러스 솔루션즈 아키텍트는 11일 서울 중구 신라호텔에서 열린 'ACC 2025'에서 "이것이 바이트플러스가 제안하는 자동화의 미래"라며 "자사 생성형 AI 솔루션은 단순히 콘텐츠를 만드는 것이 아니라 스스로 검증하고 분석하고 지휘한다"고 강조했다.'ACC 2025'는 지디넷코리아가 주관, 주최하고 과학기술정보통신부, 바이트플러스, 네이버 등이 후원하는 행사다. 먼저 이 솔루션즈 아키텍트는 생성형 AI를 활용한 콘텐츠 제작이 여전히 어려운 이유로 프롬프트 작성의 어려움, 수동 반복 생성, 파편화된 워크 플로우, 일관성의 부재, 부족한 제어 가능성, 수동 후반 작업을 꼽았다. 그는 이같은 문제를 해결하기 위한 방법으로 자사 크리에이티브 에이전트를 제시했다. 바이트플러스의 크리에이티브 에이전트는 AI 에이전트가 초거대 언어모델(LLM) 뿐만 아니라 이미지 생성 모델, 영상 생성 모델, 디지털 휴먼, 3D 모델에 이르기까지 수많은 생성형 AI 솔루션을 통합 지휘하는 것이 특징이다. 이 솔루션즈 아키텍트는 "크리에이티브 에이전트는 생성형 AI 솔루션 뿐만 아니라 기타 솔루션까지 모두 통합 지휘해 고품질 콘텐츠를 순식간에 만들어 주는 멀티모달 자동화 파이프라인"이라고 설명했다. 크리에이티브 에이전트를 구현하는 데는 바이트플러스의 이미지 생성 모델 '씨드림(seedream)' 4.5, 영상 생성 모델 '씨댄스(seedance)' 1.0, 디지털 휴먼 모델 '옴니휴먼(omnihuman) 1.0'이 필요하다. 그는 바이트플러스의 크리에이티브 에이전트의 장점으로 낮은 비용과 빠른 제작속도, 일관성 등을 들었다. 이 솔루션즈 아키텍트는 "비용은 극적으로 낮아지고 또 제작 속도는 혁신적으로 올라간다"며 "이 모든 콘텐츠는 압도적인 일관성을 가지게 되고 누구나 고품질 콘텐츠를 만들 수 있어 (콘텐츠) 제작 장벽 자체가 사라진다"고 말했다. 또 이 솔루션즈 아키텍트는 "더 이상 사람이 AI 컨트롤 하는 시대가 아니다"며 "AI가 AI를 컨트롤함으로써 복잡한 작업 과정을 완벽하게 자동화시킨다"고 마무리했다.

2025.12.11 14:48박서린

기업 85% "클라우드 네이티브 전환 필요"…실행은 여전히 초기 단계

인공지능(AI) 확산과 함께 인프라 전환의 필요성이 커지고 있지만 여전히 많은 기업들이 실행에 어려움을 겪고 있는 것으로 나타났다. 11일 오케스트로가 발표한 클라우드 네이티브 전환 실태 조사 결과에 따르면 전체 응답자의 84.7%가 '클라우드 네이티브 전환이 필요하다'고 답했으며 이 가운데 절반 이상은 '매우 필요하다'고 응답했다. 이번 조사는 지난달 기업 및 공공기관 IT 종사자 8천978명을 대상으로 진행됐다. 조사에 따르면 클라우드 네이티브 전환 필요성에 대한 인식이 확산되면서 실제 준비 현황에 대한 관심도 높아지고 있다. 그러나 전환 수준은 여전히 초기 단계에 머물러 있는 것으로 나타났다. 전환을 완료했거나 절반 이상 진행 중이라고 응답한 비율은 18.4%에 불과했다. 대부분 초기 논의 단계(39.5%)에 머물러 있거나, 일부 업무에만 시범 적용(27.6%)하는 데 그쳤다. 전환에 대한 공감대는 형성됐지만 실행으로 이어지지 못하는 현실적 한계도 뚜렷했다는 게 오케스트로 측 설명이다. 기업들이 전환 과정에서 가장 많이 겪는 어려움은 운영 복잡성으로 조사됐다. ▲운영 복잡성 증가(18.3%)와 ▲레거시 시스템의 복잡성(17.4%)이 주요 제약 요인으로 꼽혔고 ▲전문 인력 부족(16.9%) ▲보안·규제 부담(10.5%)이 뒤를 이었다. 복잡해진 클라우드 환경도 전환 필요성을 높이는 배경으로 지목됐다. 응답자의 82.9%는 멀티‧하이브리드 환경의 운영 복잡성이 클라우드 네이티브 전환 필요성에 영향을 미친다고 답했다. 클라우드 환경을 안정적으로 운영하기 위해 구조적인 전환이 필요하다는 인식이 확산되고 있다. 클라우드 네이티브 전환을 통해 기대하는 효과도 분명했다. ▲인프라 운영 자동화 향상(24.9%)이 가장 높은 응답을 얻었고 ▲AI 서비스 대응 속도 향상(19.7%) ▲재해복구(DR)·복구력 강화(16.8%)가 뒤를 이었다. 이 밖에도 ▲신규 서비스 출시·배포 속도 향상(15.6%) ▲비용 효율성 제고(15.6%) 등 다양한 기대가 고르게 나타났다. 클라우드 네이티브 전환 논의가 확산되면서 운영 안정성과 서비스 연속성 확보가 기업의 핵심 과제로 부상하고 있다. 오케스트로는 이에 대응해 전환부터 AI 인프라 최적화, DR 전략까지 아우르는 풀스택 소버린 AI 클라우드 아키텍처를 기반으로 전환과 운영 안정성을 동시에 지원한다는 목표다. 오케스트로는 KT클라우드와 공동 투자한 국가정보자원관리원 대구 민관협력형(PPP) 클라우드 존 운영 경험을 바탕으로 컨설팅·설계·구축·운영까지 전환의 전 과정을 직접 수행하고 있다. 자체 개발한 마이크로서비스 아키텍처(MSA) 분석 자동화 툴을 활용해 레거시 시스템 분석 시간을 기존 대비 약 10분의 1로 단축하고 복잡한 환경에서도 신속하고 체계적인 전환을 돕고 있다. 이러한 기술력과 경험을 기반으로 오케스트로는 클라우드 네이티브 전환을 선도하는 리딩 기업으로 자리매김한다는 방침이다. 특히 AI 인프라 운영 효율화를 위해 서버 가상화 솔루션 '콘트라베이스'와 클라우드 네이티브 운영관리 플랫폼 '비올라'를 기반으로 그래픽처리장치 가상화(GPUaaS)와 노드·리소스 통합 관리를 구현하며 고성능 AI 워크로드의 안정적 운영을 지원 중이다. 아울러 오케스트로는 최근 DR 전문 기업 인수를 통해 연속 데이터 보호(CDP) 기술을 포함한 DR 전 영역의 핵심 역량을 내재화·고도화해 왔다. 이를 기반으로 콘트라베이스는 액티브-스탠바이와 실시간 이중화 구성을 모두 지원해 장애 상황에서도 안정적인 복구 환경을 제공한다. 김범재 오케스트로 대표는 "많은 기업들이 클라우드 네이티브 전환의 필요성은 인식하고 있지만 복잡한 환경과 기술적 제약으로 실행에 어려움을 겪고 있다"며 "고객의 안정적인 클라우드 네이티브 전환과 운영 효율성뿐만 아니라 서비스 연속성까지 확보할 수 있도록 적극 지원하겠다"고 말했다.

2025.12.11 13:56한정호

삼성SDS "기업 발목 잡는 클라우드 장애…맞춤 DR로 대비해야"

"현재 기업이 가장 두려워하는 건 클라우드 시스템이 갑자기 멈추는 순간입니다. 클라우드 장애 한 번이 매출 손실로 바로 이어지기 때문입니다. 우리는 고객 맞춤형 재해복구(DR) 기술로 신속한 장애 대응과 기업 운영 연속성을 보장할 수 있습니다." 삼성SDS 최정진 그룹장은 11일 호텔신라 다이너스티홀에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 DR로 서비스 중단 위험 줄이는 방안을 이같이 제시했다. 최 그룹장은 DR의 핵심 요소로 비즈니스 영향 분석과 복구 절차 마련, 자동화, 정기 테스트, 위험 점검을 꼽았다. 그는 "이 기준이 모두 갖춰져야 클라우드에 장애가 발생해도 빠르고 정확한 대응이 가능하다"고 강조했다. 최 그룹장은 이런 요소가 삼성SDS의 DR 서비스에 모두 접목됐다고 주장했다. 그는 "우리는 기업별 상황에 맞춘 복구 전략을 제공할 수 있다"며 "빠른 복구가 필요한 서비스부터 비용 효율성을 중시하는 환경까지 폭넓은 선택지가 마련됐다"고 자신했다. 그는 DR 대표 활용 방식으로 '파일럿 라이트'와 '콜드'를 제시했다. 두 방식은 대규모 장비를 상시 운영하기 어려운 제조업이나 해외 법인의 IT 환경에서 유용한 대안으로 꼽히고 있다. 기업은 비용과 복구 속도 사이에서 균형을 맞춰 적절한 DR 전략을 선택할 수 있다. 파일럿 라이트 방식은 서비스 운영에 꼭 필요한 최소 시스템만 평상시에 켜 두고, 장애가 발생하면 나머지 서버를 빠르게 확장해 서비스를 복구하는 구조다. 최 그룹장은 "핵심 기능은 바로 복구할 수 있도록 유지하면서도 전체 인프라를 상시 운영하지 않아 비용을 크게 줄일 수 있다"고 강조했다. 콜드 방식은 재해복구를 위한 자원을 평소에 꺼두고, 데이터만 다른 센터에 백업해 두는 방식이다. 최 그룹장은 "클라우드 장애가 발생하면 백업 데이터 기반으로 서버를 새로 띄우고 서비스를 복원한다"며 "비용 부담이 적은 대신 복구 시간이 더 소요되는 구조"라고 말했다. 최 그룹장은 기업이 자체 데이터센터뿐 아니라 외부 클라우드를 사용하더라도 삼성SDS의 DR센터와 연결해 복구 체계를 구축할 수 있다고 강조했다. 고객은 클라우드 광역통신망(WAN)을 비롯한 가상사설망(VPN), 전용회선 가운데 보안 수준, 비용 부담, 속도 요구에 따라 적합한 네트워크 방식을 선택하면 된다. 삼성SDS는 DR 운영 복잡성을 줄이기 위해 자동화 기능도 강화했다. 최 그룹장은 "복구 절차를 코드로 표준화해 인적 오류를 줄였다"며 "시나리오 기반 자동 복구를 통해 보안 대응 속도를 높였다"고 강조했다. 특히 대시보드 기반 점검 기능은 복구 진행 상태를 직관적으로 보여줄 수 있어 운영 인력 부담을 낮춘다. 서버 기동과 데이터 불러오기, 점검 절차도 자동으로 처리돼 실제 장애 상황에서 복구 효율을 높인다는 설명이다. 최 그룹장은 "우리는 시스템 통합(SI)에 주력할 때부터 DR에 굉장히 강했다"며 "클라우드 기업으로 전환하면서 클라우드형 DR까지 제일 잘 할 수 있는 기업으로 성장할 것"이라고 자신했다.

2025.12.11 13:55김미정

알리바바클라우드 "영상 생성 AI '완 2.5', 경쟁사 모델보다 압도적 가성비"

"현재 인터넷에서 생성되는 콘텐츠의 약 50%를 인공지능(AI)이 만들고 있습니다. 알리바바클라우드는 영상 생성 AI 모델 '완 2.5'를 통해 누구나 합리적인 비용으로 고품질의 비디오와 이미지를 제작할 수 있는 환경을 지원합니다." 알리바바클라우드 임종진 테크 리드는 11일 서울 중구 신라호텔에서 열린 'AI & 클라우드 컨퍼런스 2025(ACC 2025)'에서 자사의 최신 AI 영상 모델(VLM)인 '완 2.5 프리뷰(Wan 2.5-Preview)'를 소개하며 이같이 강조했다. 임 리드는 이번 발표에 앞서 알리바바그룹의 대규모 투자를 언급했다. 그는 "에디 우 알리바바클라우드 회장이 올해 초 향후 3년 간 AI와 인프라 리소스에 75조원을 투자하겠다고 밝혔다"며 "이 중심에 비디오 파운데이션 모델 '통이(Tongyi)'가 있다"고 설명했다. 이어 "통이 2.6 모델은 이르면 차주 중 공개될 것으로 예상한다"고 덧붙였다. 임 리드는 이날 발표의 핵심인 '완 2.5 프리뷰' 모델의 강력한 멀티모달 기능을 시연했다. 그는 "완 2.5는 텍스트·이미지·오디오·비디오 등의 입·출력을 모두 지원하는 네이티브 다중 모델 프레임워크"라며 "모델 학습 단계에서는 인간 피드백 기반 강화 학습(RLHF)라는 아키텍처를 채택해 자연스러운 결과물을 만들어낸다"고 소개했다. 특히 영상과 음향의 정교한 동기화 기능이 주목받았다. 임 리드는 "탁구공이 튀는 소리나 스키를 탈 때 얼음이 갈리는 소리까지 영상과 거의 정확히 일치시킬 수 있다"며 "한국어 립싱크 또한 어색함 없이 구현 가능하다"고 설명했다. 기존 이미지 생성 AI의 고질적인 문제였던 '텍스트 렌더링' 능력도 대폭 개선됐다. 임 리드는 "한글이나 영어 텍스트가 깨지지 않고 정확하게 생성된다"며 "복잡한 시스템 아키텍처 다이어그램이나 플로우 차트까지 전문가급으로 그려낼 수 있어 업무 활용도가 높다"고 강조했다. 임 리드는 경쟁사 대비 압도적인 '가성비'를 완 모델의 최대 강점으로 꼽았다. 그는 "720p 해상도의 10초 영상을 생성할 때 경쟁사 모델들은 약 3~5달러가 소요되지만, 완 2.5는 단 1달러면 충분하다"며 "대량의 콘텐츠를 발주하면 추가 할인이 제공될 수 있어 비용 절감에 크게 도움될 것"이라고 자신했다. 기업 실무자를 위한 구체적인 활용 팁도 제시했다. 임 리드는 "단순한 명령어보다는 조명·카메라 구도·렌즈 종류 등 구체적인 '힌트'를 프롬프트에 포함해야 고품질의 결과물을 얻을 수 있다"고 조언했다. 아울러 자사에서 완 모델로 제작한 영상과 이에 활용된 프롬프트를 예시로 정리한 자료도 공유했다. 임 리드는 "완 2.5 프리뷰는 현재 웹사이트와 API를 통해 바로 사용할 수 있다"며 "알리바바클라우드의 AI 솔루션을 통해 기업들이 비즈니스 혁신을 이루길 바란다"고 밝혔다.

2025.12.11 13:16진성우

"소름 끼친다" 비판에…맥도날드, AI 제작 광고 결국 비공개

맥도날드가 최근 논란에 휩싸인 인공지능(AI) 제작 크리스마스 광고를 비공개 처리했다고 BBC 등 외신들이 10일(현지시간) 보도했다. 맥도날드 네덜란드는 생성형 AI 기술을 이용해 약 45초 분량의 크리스마스 광고를 제작해 지난 6일 맥도날드 네덜란드 유튜브 채널에 공개했다. 문제가 된 광고는 크리스마스연휴 동안 발생할 수 있는 문제들을 묘사하며 그 시간을 맥도날드와 함께 보내는 것이 더 낫다는 메시지를 담고 있다. 네덜란드 회사 TBWA/Neboko와 미국업체 더스위트샵이 제작했다. 하지만, 광고가 공개되자 시청자들의 혹평이 쏟아졌다. 광고 속 기괴하게 생긴 등장인물, 어색한 장면전환, 짜깁기한 듯한 영상 구성 등이 지적됐다. 한 이용자는 "올해 본 광고 중 가장 끔찍한 광고"라고 혹평했으며 "소름 끼친다" "편집이 엉망이다"라는 댓글이 이어졌다. 논란이 커지자 맥도날드 네덜란드는 9일 영상을 비공개로 전환했다. 이 회사는 성명을 통해 “이번 일이 회사가 AI의 효과적인 활용을 을 모색하는 과정에서 중요한 교훈이 됐다”고 밝혔다. 생성형 AI 광고는 최근 코카콜라 등 글로벌 브랜드들이 적극 활용하며 트렌드로 떠오르고 있다. 하지만, 생성형 AI로 제작된 영상 클립은 영상 길이가 길어질수록 왜곡될 가능성이 높아 대부분의 클립은 대략 6~10초 정도다. 45초 분량을 제작하기 위해서는 수많은 조각 영상이 필요하며, 합성 과정에서 부자연스러운 전환이 발생할 가능성이 높다는 지적이 나온다. 광고 제작사 더스위트샵의 멜라니 브리지 최고경영자(CEO)는 “제작 과정이 약 7주 간 진행됐고, 팀원들은 거의 잠을 자지 않고 수천 번의 테이크를 촬영한 후, 여러 번의 거쳐 완성도를 높였다"며, "이건 AI가 꾸민 속임수가 아닌 영화와 같은 제작과정을 거쳤다”고 밝혔다. 한편 AI 광고 제작에 대한 반응은 엇갈리고 있다. 분석업체 소셜 스프라우트서에 따르면 온라인 댓글 작성자 중 61%가 해당 광고에 대해 긍정적인 반응을 보였다. 하지만, AI 광고에 대해서는 여전히 의견이 갈리고 있는 상황이다. 코카콜라는 올해 두 번째 AI 크리스마스 광고를 선보이며 긍정적인 반응을 이끌어냈으나, 발렌티노 등 일부 브랜드는 "싸구려 같다" "게으른 제작 방식"이라는 비판을 받기도 했다.

2025.12.11 13:10이정현

카카오, AI 기반 광고 지원 '모먼트AI' 출시

카카오는 인공지능(AI) 기반 광고 운영 지원 서비스 '카카오모먼트 AI(이하 모먼트AI)'를 정식 출시했다고 11일 밝혔다. 모먼트 AI는 광고 데이터를 해석하고 운영 방향을 제안하는 기능을 제공해 모먼트 광고 플랫폼을 활용하고 싶으나 운영에 어려움을 겪는 자영업자와 중소상공인의 광고 집행 효율을 높이기 위한 서비스다. 복잡한 설정과 분석 과정을 AI가 대신 수행함으로써 광고주는 캠페인 개선에 필요한 조치를 쉽게 확인하고 선택할 수 있다는 것이 회사 측 설명이다. 광고주별 캠페인 데이터를 분석해 18점부터 100점까지 최적화 점수를 제공하며 점수는 ▲최근 성과 변화 ▲경쟁 상황 ▲소재 피로도 등을 종합해 산출해 점수 상승에 영향을 줄 수 있는 실행 제안을 함께 제시한다. 광고주는 제안된 조치를 북마크하거나 설정 화면으로 바로 이동해 반영할 수 있다. 또한 ▲예산 ▲클릭률(CTR) ▲전환율(CVR) 등 주요 지표를 기준으로 경쟁 광고주의 성과를 비교할 수 있다. 업종 내 평균 대비 현재 위치는 분위 단위로 제공돼 광고 경험이 적은 사업자도 성과 수준을 객관적으로 파악하고 예산 배분과 소재 전략 설정에 참고할 수 있다. 모먼트 AI는 고객 행동 분석 기능도 제공한다. 이용자가 광고 인지 후 방문·고려·전환에 이르는 과정을 4단계 퍼널로 분석해 이탈 시점을 확인할 수 있다. 광고주는 각 단계별 ▲연령대 ▲관심사 ▲선물하기·톡딜 이용 패턴 등 행동 데이터를 함께 볼 수 있다. 모든 퍼널 분석 데이터는 개인정보 보호를 위해 K-익명성 기준을 적용해 제공한다. 카카오는 모먼트 AI를 광고 운영 전 과정에서 의사결정을 지원하는 서비스로 확장할 계획이다. ▲향후 목표 설정 ▲예산 배분 ▲타겟 정의 ▲소재 실험 등 전략 수립 기능을 추가하고 소재 자동 생성과 시뮬레이터 기반 A/B 테스트 기능도 제공할 예정이다. 광고 리포트 분석부터 전략 수립과 집행에 이르는 전 과정을 AI가 단계적으로 지원하는 모델을 목표로 하고 있다. 카카오 관계자는 “광고를 직접 운영하는 사업자가 데이터를 해석하는 데 어려움을 겪지 않도록 실행 가능한 개선 방안을 바로 확인할 수 있도록 설계했다”며 “앞으로 광고 운영 전 과정에서 AI가 의사결정을 지원할 수 있도록 기능을 확대해 나갈 계획”이라고 말했다.

2025.12.11 13:07박서린

KT, 삼성전자와 AI-RAN 상용망 검증 성공

KT가 상용 통신망에서 AI-RAN 기술 검증에 성공했다고 11일 밝혔다. KT와 삼성전자가 공동 개발한 AI-RAN은 기지국이 단말과 주고받는 데이터를 실시간 분석해 각 사용자에게 최적의 네트워크 환경을 제공하는 차세대 기술이다. AI-RAN은 단순한 네트워크 최적화를 넘어 6G 시대에 필수인 초저지연·초고속·초연결이 가능한 지능형 네트워크의 출발점으로 꼽힌다. KT와 삼성전자는 2023년부터 AI-RAN 공동 연구를 이어왔다. 올해는 엔비디아와 다자간 업무협약을 체결해 그래픽처리장치(GPU) 기반 AI-RAN 연구 개발도 본격적으로 추진 중이다. 이번 AI-RAN 상용망 검증은 경기도 성남시 지역에서 진행됐다. 하루 평균 약 1만8천명의 사용자가 AI-RAN 기술이 적용된 네트워크를 이용했다. 검증 결과, 반복적으로 발생하던 일부 이용자의 셀(하나의 기지국이 서비스를 제공하는 영역) 간 이동 시 끊김 등 문제가 크게 줄어든 것을 확인할 수 있었다. 또 유사한 이동 패턴을 가진 다른 이용자들의 품질도 함께 개선돼 셀 전체의 네트워크 품질도 향상됐다. 이는 AI-RAN 기술이 실제 상용 환경에서도 효과적으로 작동한다는 점을 입증했다. 기존 국내외 통신망은 대부분 셀 단위로 네트워크를 최적화했다. 이로 인해 셀에 연결된 모든 사용자에게 동일한 네트워크 설정값이 적용돼 개별 사용자의 상황이나 특성을 세밀하게 반영하기 어렵다. KT와 삼성전자는 이러한 문제를 해결하기 위해 사용자 맞춤형 네트워크 품질 제공이라는 새로운 접근 방식을 도입했다. 신호 세기와 품질 변화 흐름 등 실시간 품질 데이터를 활용해 문제 발생 가능성을 미리 예측하고, 각 사용자의 상황에 맞춰 최적화된 설정값을 제공하는 방식이다. 이를 통해 복잡한 환경에서도 안정적인 연결을 보장한다. 개선된 체감 품질도 기대할 수 있게 됐다. 이번 성과는 AI 기반 네트워크 혁신이 실제 환경에서 가능함을 보여준다. 6G 시대 핵심 기술 확보를 위한 중요한 이정표로도 평가된다. 정진국 삼성전자 삼성리서치 차세대통신연구센터장 부사장은 “AI가 실제 통신망에서 사용자 경험 향상을 가져올 수 있다는 것을 명확히 확인한 중요한 성과”라며 “두 연구소는 지속적인 기술 고도화와 검증을 통해 AI 중심의 미래 통신 기술을 선도해 나가겠다”고 말했다. 이종식 KT 미래네트워크연구소장은 “이번 검증은 AI가 네트워크 운영을 사용자 중심으로 혁신할 수 있다는 가능성을 입증한 성과”라며 “KT는 삼성전자와 함께 기술을 고도화해 안정적이고 끊김 없는 서비스를 제공하겠다”고 말했다. 이어 “6G 핵심 기술 확보에 앞장서 고객 가치를 혁신해 나가겠다”고 덧붙였다.

2025.12.11 13:01진성우

KT클라우드 "차세대 인프라 기술 선도"…실증 허브 'AI 이노베이션 센터' 공개

KT클라우드가 미래형 인공지능(AI) 데이터센터 기술을 실증하는 'AI 이노베이션 센터'를 공개하며 차세대 인프라 주도권 확보에 나섰다. 고성능 그래픽처리장치(GPU) 서버, 다이렉트 투 칩(D2C) 수냉식 냉각, AI 전용 네트워크 등 실제 운영 환경 구현을 통해 국내 AI 데이터센터 표준을 선도한다는 목표다. KT클라우드 허영만 DC본부장은 11일 서울 양천구 목동 'AI 이노베이션 센터'에서 열린 미디어 투어에서 "AI 데이터센터 인프라를 실제 운영 서버와 동일하게 구현해 기술을 검증하고 업계가 필요로 하는 표준 데이터를 선제적으로 제공하겠다"고 강조했다. 이날 공개된 AI 이노베이션 센터 내부는 'AI 스튜디오'와 'AI 인프라 랩스'로 구성됐다. AI 스튜디오는 주요 기술 요소를 시각적으로 설명하는 쇼룸 개념 공간으로, D2C 콜드플레이트 구조와 액침 냉각 모형을 비롯해 KT클라우드가 자체 개발한 '패스파인더' 전력 제어 시스템 등이 전시됐다. AI 인프라 랩스는 실제 냉각·전력·네트워크가 실시간으로 작동하는 실증 공간으로 구성됐다. 특히 이 센터에는 D2C 수냉식 냉각 실증 환경이 마련됐다. KT클라우드는 엔비디아 B200·NVL72급 초고발열 서버 환경을 재현하기 위해 최대 140키로와트(kW) 랙형과 64kW 서버형 부하기를 자체 개발했다. 해당 부하기는 실제 고비용 서버를 직접 구매하지 않고도 냉각 성능을 정밀 시험할 수 있는 장비로, 글로벌 기준 시운전 절차에 맞춰 실증을 완료했다. KT클라우드는 이 기술을 이미 가산 AI 데이터센터에 국내 최초로 상용화해 적용 중이다. 이날 투어 현장에서는 D2C 시스템이 실제 부하를 처리하는 모습도 공개됐다. 랙형 부하기는 100kW 부하에서 약 33도, 120kW에서는 35도 수준의 안정적인 온도를 유지한다. 서버형 부하기 역시 고성능 GPU 운용 온도인 45도 수준에 맞춰 안정성을 확보했다. 'PG25' 냉각 용액의 반응성 검증과 마이크로 필터 기반 이물질 차단 등 품질 관리 체계도 구현했다. KT클라우드는 액침 냉각도 기술검증(PoC)을 통해 실질적 성과를 확보했다고 밝혔다. 2023년 용산 데이터센터 시험 결과, 액침 냉각은 최대 60% 전력 절감 효과와 PUE 1.08~1.33 수준의 고효율을 실증했다. 시장 요구가 확대되면 상용화 적용 범위를 더욱 넓힐 계획이다. AI 네트워크도 고도화했다. 센터에는 글로벌 기업 아리스타와 협력해 이더넷 형태의 'RoCEv2' 기반 AI 전용 네트워크를 구축했으며 기존 엔비디아 인피니밴드 네트워크보다 비용 효율·확장성·운영 편의성을 강화했다. 차세대 AI 네트워크 표준인 'UEC'로 자연스럽게 진화 가능한 구조를 갖췄다는 설명이다. 전력 인프라 역시 KT클라우드가 직접 개발한 AI 서버랙이 적용됐다. 글로벌 오픈 컴퓨트 프로젝트(OCP) 커뮤니티 규격을 기반으로 20kW 이상 고밀도 전력을 지원하고 DC 48V 기반 전력 공급으로 효율을 높였다. 세부 모듈이 모두 교체·확장 가능한 구조라 고객 맞춤형 구성이 용이하다는 점도 소개됐다. 또 다른 핵심 기술은 '패스파인더'다. 이는 KT클라우드가 특허 등록한 솔루션으로, 데이터센터 전력 흐름을 AI가 실시간 분석해 장애·부하 변화에 따라 최적 경로로 자동 전환하는 시스템이다. 디지털트윈 기반 시뮬레이션도 제공해 데이터센터 운영 신뢰성을 높인다. 'DIMS 인사이트' 역시 관심을 모았다. 이 솔루션은 전력·냉각·보안 등 시설 데이터를 AI가 분석해 장애를 사전 예측하고 예지 정비 기능을 수행한다. 예측 기반 운영 체계로 인력 효율성을 개선하고 운영비 절감 효과 향상을 돕는다. AI 이노베이션 센터에 위치한 자율주행 점검 로봇도 실제 운용 환경에서 시연됐다. 로봇은 온·습도·소음·조도·가스 등 환경 요소를 실시간 감지하고 열화상 카메라로 과열·화재 징후를 탐지한다. 감지 정보는 관제 시스템과 연동돼 조기 알림과 원격 제어가 가능하다. 이를 통해 KT클라우드는 장기적으로 운영 인력을 현재 60~70명에서 3분의 1 수준으로 줄여 지능형 자동화 체계를 구축할 방침이다. KT클라우드의 중장기 AI 데이터센터 로드맵도 공개됐다. 2030년까지 총 320메가와트(MW) 규모의 AI 데이터센터 전력 인프라를 확보할 계획으로, 내년 신규 개소할 부천·개봉·안산 센터도 모두 액체 냉각을 기반으로 설계할 예정이다. 이 외에도 소형 모듈식 원자로(SMR) 연계 가능성도 기술적 검토 단계에서 연구 중이다. KT클라우드 허영만 DC본부장은 "AI 데이터센터 기술은 이제 빠르게 표준화 단계로 진입하고 있다"며 "우리는 실증 기반 기술 내재화를 통해 고객이 더 빠르게, 더 정확하게 의사결정할 수 있는 환경을 제공할 것"이라고 말했다.

2025.12.11 12:27한정호

[AI는 지금] 구글 추격도 힘든데…'코드레드' 오픈AI, 챗GPT 오류에 난감

제미나이를 앞세운 구글의 맹추격에 중대경보(코드레드)를 내린 오픈AI가 또 다시 비상상황에 직면했다. 자사 인공지능(AI) 챗봇 챗GPT가 안드로이드 기기에서 오류가 또 발생한 탓이다. 오픈AI는 10일 오후 2시 41분(미국 서부시간 기준)부터 3시 27분까지 약 46분간 안드로이드 기기 이용자를 중심으로 오류 발생율이 증가했다고 공지했다. 이번 오류는 단순 로그인뿐 아니라 대화, GPT 호출, 검색, 파일 업로드 등 총 13개 기능에서 감지된 것으로 나타났다. 기업 고객이 많이 쓰는 API 호출, 연구용 기능인 딥리서치, 신규 서비스인 에이전트 기능 일부 역시 영향을 받았다. 오픈AI는 문제 발생 약 30분 후인 오후 3시 15분께 긴급 조치 적용을 마쳤다. 또 10여 분간의 추가 모니터링을 거쳐 모든 기능이 정상화됐다고 설명했다. 다만 구체적인 장애 원인에 대해서는 별도로 입장을 내놓지 않았다. 챗GPT가 장애를 일으킨 것은 이번뿐만 아니다. 지난 11월 18일에는 웹 인프라 제공업체 클라우드플레어(Cloudflare)의 네트워크 장애 여파로 접속이 한동안 막힌 바 있다. 또 6월 19일, 7월 여러 차례, 9월 3일 등 올해에만 최소 5회 이상 오류가 보고됐다. 특히 지난 6월에는 전 세계적인 장애에 대해 사과하며 챗GPT 플러스, 프로, 팀 등을 이용 중인 유료 구독자들에게 보상안을 제공하기도 했다. 업계에선 최근 구글의 매서운 추격 속에 잦은 챗GPT 장애까지 발생하자 오픈AI가 직면한 위기감이 더욱 부각됐다고 분석했다. 실제 구글은 최근 '제미나이3 프로'를 출시한 후 높은 성능과 '나노바나나 프로' 등의 이미지 생성·편집 기능을 앞세워 이용자 수를 빠르게 늘려 나가고 있다. 반면 오픈AI는 챗GPT 이용자 수 감소세로 속앓이를 하고 있는 상태다. 이는 수치로도 증명됐다. 시장조사업체 시밀러웹의 집계에 따르면 1년 전만 해도 87%에 달했던 챗GPT의 생성AI 트래픽 점유율은 12월 초 71.3%까지 감소했다. 하지만 제미나이의 점유율은 같은 기간 5.7%에서 약 3배로 늘어나 15.1%를 기록했다. 이 탓에 샘 알트먼 오픈AI 최고경영자(CEO)는 최근 사내에 중대경보 상황임을 선언하면서 다른 업무를 일단 접고 챗GPT 모델 개선에 집중하라고 주문했다. 또 사내에 공개한 메모에서 곧 출시될 새 추론 모델이 내부 평가에서 제미나이3 프로를 앞서고 있다고 강조하며 분위기를 다잡는 모습을 보였다. 오픈AI는 이달 말 'GPT-5.2'를 선보일 예정으로, 구글의 움직임을 의식해 발표 시기를 조금 더 앞당길 가능성이 있는 것으로 전해졌다. 하지만 이번 챗GPT 장애 문제로 알트먼 CEO의 계획은 다소 틀어질 것으로 보인다. 또 모델 경쟁의 핵심이 성능 못지 않게 서비스 신뢰성을 기반으로 한다는 점에서 '챗GPT'의 잦은 장애가 이용자 이탈 가능성을 높이는 위험 요소가 될 것이란 우려도 나온다. 업계 관계자는 "그동안 오픈AI의 독주 체제였지만, 지금은 그 자리를 빼앗길 수 있다는 위기감이 내부적으로 명백해진 듯 하다"며 "성능 비교 지표에서 구글에 밀리는 흐름을 끊기 위해 오픈AI가 대응에 나서려던 순간 이 같은 장애가 또 발생했다는 점에서 사용자 충성도를 더 약화시킬 가능성이 높다"고 분석했다.

2025.12.11 12:25장유미

뉴타닉스 "AI 도입, 멋진 모델보다 '단순함'과 '운영 전략'이 우선"

뉴타닉스가 생성형 인공지능(AI) 도입을 망설이는 기업들에게 단순하고 확장 가능한 AI 인프라와 IT 주도형 플랫폼 전략을 해법으로 제시했다. 뉴타닉스 코리아 마이클 신 시스템 엔지니어링 전무는 11일 서울 신라호텔에서 열린 '인공지능(AI)&클라우드 컨퍼런스 2025(ACC 2025)'에서 AI도입 과정의 어려움을 살펴보며 이를 해결하기 위한 도입 전략을 소개했다. 그는 "기업들이 AI를 도입하는 이유는 결국 생산성과 수익성을 높이기 위한 것"이라며 "이 목표를 달성하려면 처음 설계 단계에서부터 인프라와 운영 방식을 함께 생각해야 한다"고 강조했다. 신 전무는 AI 도입을 고민하는 기업들이 먼저 스스로에게 던져야 할 질문을 세 가지로 정리했다. ▲어떤 모델을 쓸 것인지 ▲어떤 부서와 업무에 AI를 적용할 것인지 ▲그래픽처리장치(GPU) 수급과 비용 현실 등을 감안해 인프라를 어떻게 확장해 나갈 것인지다. 그는 "지금 당장 수천 개의 GPU를 살 수 있는 기업은 거의 없다"며 "처음부터 크게 시작하는 것보다 작게 시작하되 수요에 맞춰 자연스럽게 확장할 수 있는 구조가 중요하다"고 말했다. AI 도입 과정에서 뚜렷한 목표와 구체적인 계획 없이 우선 도입을 추지하려는 관행도 지적했다. 신 전무는 "공공과 민간을 막론하고 'AI를 도입하지 않으면 예산조차 받을 수 없다'는 말이 나올 정도로 압박이 심하지만, 정작 실무자들은 무엇부터 손대야 할지 몰라 막막해하는 경우가 태반"이라고 현장의 고충을 짚었다. 이어 "성공적인 AI 프로젝트는 '이 기술로 무엇을 할 수 있을까'라는 막연한 기대가 아니라 '우리 조직의 어떤 업무부터, 어떻게 적용할 것인가'를 명확히 정의하는 것에서 출발해야 한다"고 조언했다. 더불어 폭발적으로 늘어난 AI 모델 생태계에 대해서는 기회와 위험이 공존한다고 평가했다. 신 전무는 "현재 공개된 모델이 100만 개가 넘고 매주 수 많은 신규 모델이 등장한다"며 "각 모델의 특성과 규제 이슈를 따져보지 않고 '좋다더라'는 말만 믿고 도입했다가 나중에 개인정보 수집이나 라이선스 문제로 발목을 잡히는 경우가 나올 수 있다"고 경고했다. 그러면서 "예전에 웹, 애플리케이션 서버, 데이터베이스를 표준화해 공통 인프라 위에서 애플리케이션을 운영했듯 생성형 AI도 장기적으로는 모델과 추론, 데이터를 하나의 통합 플랫폼에서 관리하는 구조가 필요하다"고 말했다. 뉴타닉스가 제시한 해법의 핵심은 IT가 주도권을 가지는 AI 플랫폼이다. 신 전무는 뉴타닉스 클라우드 플랫폼 위에 쿠버네티스 환경과 '뉴타닉스 엔터프라이즈 AI(NAI)'를 결합한 구조를 소개했다. NAI는 다양한 모델과 추론 서버를 라이브러리처럼 등록하고, 중앙에서 관리할 수 있는 플랫폼이다. 그는 "허깅페이스나 엔비디아에서 몇 번의 클릭으로 모델을 가져오고 추론 서버 구성을 자동화한 뒤 대시보드에서 엔드포인트 수와 GPU 사용률, 토큰 요청량을 한눈에 볼 수 있게 하는 것이 목표"라고 설명했다. 이 과정에서 조직 내 역할 분담의 중요성도 강조했다. 신 전무는 "AI 인프라와 플랫폼은 기존 인프라를 관리하던 IT 조직이 맡고, 데이터 사이언티스트와 기계학습 운영(MLOps) 엔지니어는 모델과 애플리케이션에 집중해야 한다"고 말했다. 이어 "비싸고 구하기 어려운 인력을 인프라 관리에 쓰는 것은 비효율적"이라며 "AI 인프라를 IT와 보안 엔지니어의 시야 안에 두는 것이 보안과 컴플라이언스 측면에서도 훨씬 안전하다"고 강조했다. 쿠버네티스 운영의 현실적인 어려움을 극복하기 위한 방안도 제시했다. 그는 "쿠버네티스는 15주마다 새 버전이 나오고 15개월이면 기술 지원이 종료된다"며 "여러 AI 벤더가 각자 쿠버네티스 클러스터를 들고 들어오면, 기업 입장에서는 버전 관리와 보안 검증, 업그레이드를 클러스터마다 따로 해야 하는 상황이 벌어진다"고 설명했다. 뉴타닉스 쿠버네티스 플랫폼은 CNCF 표준을 따르지만 실제 운영과 업그레이드는 뉴타닉스가 책임지는 방식으로 운영된다. 또 IT 인프라팀은 공통 플랫폼만 관리하고, 개발자와 데이터팀은 그 위에서 자유롭게 도구를 선택해 쓸 수 있도록 설계됐다. 신 전무는 내년 이후 본격화될 에이전틱 AI 시대를 대비하기 위해서도 공통 플랫폼이 필수라고 강조했다. 그는 "에이전트 환경에서는 리즈닝, 임베딩, 검색증강생성(RAG), 리랭킹, 가드레일 등 여러 모델이 얽혀 돌아가는데, 애플리케이션마다 따로 GPU와 인프라를 얹어 구성하면 관리와 비용, 보안이 모두 폭증한다"고 지적했다. 뉴타닉스는 에이전트와 툴까지 NAI 안에서 라이브러리 형태로 재사용하고 통제할 수 있도록 하는 기능을 개발 중이며, 이를 통해 에이전틱 AI의 전 과정을 하나의 플랫폼에서 운영하는 것이 목표라고 설명했다. 마이클 신 전무는 "AI 도입에서 중요한 것은 '최고 성능의 모델'을 찾는 것이 아니라 '우리 조직이 감당할 수 있는 단순한 구조와 운영 방식을 먼저 정하는 것'"이라고 강조했다. 이어 "작게 시작하되 확장 가능한 인프라와, IT가 책임지고 운영하는 AI 플랫폼을 갖추는 것이 성공적인 AI 여정의 출발점"이라며 "뉴타닉스가 그 설계와 운영을 함께 고민하는 파트너가 되겠다"고 말했다.

2025.12.11 11:49남혁우

레드햇-리벨리온, NPU 기반 '오픈시프트 AI' 출시…추론 환경 개선

레드햇이 리벨리온 손잡고 신경처리장치(NPU) 기반 플랫폼을 개발해 인공지능(AI) 추론 환경을 개선했다. 레드햇은 리벨리온과 '리벨리온 NPU 기반 레드햇 오픈시프트 AI'를 발표했다고 11일 밝혔다. 이 플랫폼은 레드햇 오픈시프트 AI, 리벨리온의 NPU, 가상거대언어모델(vLLM) 엔진을 결합해 엔터프라이즈급 풀스택 AI 추론 환경을 제공한다. 리벨리온 NPU는 AI 추론에 특화된 아키텍처다. 그래픽처리장치(GPU) 대비 에너지 효율을 높여 데이터센터 구축·운영 비용을 줄인다. 또 자체 소프트웨어(SW) 스택과 오픈소스 프레임워크 지원을 통해 GPU와 유사한 개발 환경을 제공한다. 새 솔루션은 하드웨어(HW)부터 모델 서빙까지 전 영역을 아우르는 풀스택 구조를 제공한다. 리벨리온 SW 스택은 레드햇 오픈시프트 AI에서 네이티브 실행돼 배포 속도를 높인다. 레드햇 오픈시프트 인증을 받은 NPU 오퍼레이터는 온프레미스·멀티클라우드 환경에서 모두 작동한다. 해당 플랫폼은 랙 스케일 NPU와 vLLM 기반으로 고처리량, 저지연, 전력 효율성을 제공한다. 이를 통해 고객은 LLM 등 다양한 추론 워크로드를 안정적으로 운영할 수 있다. 데이터 온프레미스 유지와 규제 준수 측면에서도 강화된 보안 환경을 제공한다. 코어에서 엣지까지 선형 확장을 지원해 배포 유연성도 확보했다. 브라이언 스티븐스 레드햇 AI 부문 수석부사장 겸 최고기술책임자(CTO)는 "우리 솔루션을 리벨리온의 NPU와 통합해 엔터프라이즈에 검증된 풀스택 대안을 제공할 것"이라며 "고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다"고 밝혔다. 박성현 리벨리온 대표는 "이번 협력으로 기업들이 보다 효율적이고 안전하게 AI 서비스를 확장할 수 있도록 지원할 것"이라며 "GPU 중심 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것"이라고 밝혔다.

2025.12.11 11:48김미정

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

KT CEO 최종후보 D-1...이사회 선택은

누누티비 폐쇄 2년…불법 스트리밍 ‘풍선효과’ 줄어들까

설 선물 사전예약 서두른 홈플러스...왜?

'SPHBM4' 표준 제정 임박…삼성·SK AI 메모리 새 국면 예고

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.