• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'아키텍처'통합검색 결과 입니다. (26건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI 고속도로] 정부가 점찍은 '베라루빈'…국내 안착 가능할까

정부가 '인공지능(AI) 고속도로' 구축을 위해 차세대 그래픽처리장치(GPU) 확보에 속도를 내는 가운데, 엔비디아의 최신 아키텍처 '베라루빈' 도입이 핵심 과제로 떠오르고 있다. 기존 시스템과 다른 구조와 높은 인프라 요구 조건 등으로 인해 업계에선 국내 안착 가능성을 두고 신중론이 확산되는 분위기다. 29일 업계에 따르면 과학기술정보통신부는 약 2조원 규모의 AI 컴퓨팅 인프라 구축 사업을 추진하며 최신 GPU 확보에 나섰다. 특히 '블랙웰'급 이상 차세대 GPU 아키텍처인 베라루빈을 제안할 경우 평가에서 우대하는 방안을 검토하면서 업계 관심이 집중되고 있다. 이번 사업은 단순 GPU 물량 확보를 넘어 최신 아키텍처 기반 대규모 클러스터 구축을 목표로 한다. 최소 256노드, 2048장 이상 GPU를 하나의 클러스터로 구성하는 조건이 제시되며 전력·냉각·네트워크 등 데이터센터 전반의 인프라 역량이 핵심 평가 요소로 반영된다. 정부가 베라루빈 도입까지 열어둔 것은 글로벌 AI 경쟁이 물량에서 세대 경쟁으로 전환됐다는 판단이 작용한 것으로 풀이된다. 실제 최신 GPU 확보 시점이 AI 서비스 경쟁력으로 직결되는 상황에서 차세대 칩 선점이 중요해졌다는 분석이다. 다만 업계 시각은 다소 엇갈린다. 베라루빈은 기존 x86 기반 중앙처리장치(CPU)와 GPU 조합이 아닌 'Arm' 아키텍처 기반 CPU와 GPU를 결합한 슈퍼칩 구조로 설계돼 기존 인프라와 호환성이 보장되지 않는 새로운 플랫폼이기 때문이다. 이같은 구조적 차이는 장비 도입을 넘어 운영 방식 자체의 변화를 요구할 전망이다. 기존 GPU 서버가 서버 단위로 확장되는 구조였다면 베라루빈은 랙 단위에서 수십 개 GPU를 하나의 시스템처럼 묶어 사용하는 형태로 설계돼 인프라 설계와 운영 난도가 크게 높아질 수 있다는 예상이다. 문제는 국내 환경에서 이러한 초대형 시스템을 수용할 준비가 충분하지 않다는 점이다. 현재 국내 GPU 인프라는 대부분 일반적인 서버 중심 GPU 구조인 NVL8 기반으로 운영되고 있으며 슈퍼칩 시스템 도입 사례는 사실상 전무한 것으로 평가된다. 비용 부담도 가장 큰 장벽으로 꼽힌다. 베라루빈은 수십억~수백억 원 단위의 장비 투자와 함께 고밀도 전력 공급, 액체 냉각 설비 등 별도 인프라 구축이 필수적이다. 업계에선 상징적 도입은 가능하겠지만 대규모 확산은 쉽지 않을 것이라는 전망이 나온다. 전력과 냉각 문제도 핵심 변수다. 베라루빈과 같은 차세대 GPU는 기존 공랭 방식으로는 감당이 어려운 수준의 발열을 발생시키며 다이렉트 리퀴드 쿨링(DLC) 등 액체 냉각 기술이 필수로 요구된다. 이는 국내 데이터센터 설계 자체를 바꾸는 수준의 변화로 이어질 수 있다. 이 과정에서 인프라 구축뿐 아니라 운영 역량도 중요한 요소로 부각된다. AI 인프라는 단순 장비 도입이 아니라 데이터센터, GPU 클러스터, AI 플랫폼이 유기적으로 결합된 형태로 운영돼야 하며 이를 안정적으로 관리할 수 있는 경험과 노하우가 요구된다. 또 다른 변수는 활용성이다. 베라루빈은 단순 연산 성능을 넘어 추론 중심 AI 시대를 겨냥한 플랫폼으로 평가되지만, 이를 실제 서비스에 적용하기 위해서는 소프트웨어 최적화와 운영 체계 구축이 필수적이다. 정부 역시 이러한 현실을 인지하고 있는 분위기다. 베라루빈 도입을 강제 조건이 아닌 우대 요소로 설정하고 블랙웰 등 기존 GPU와 병행 도입을 허용하는 등 유연한 접근을 취하고 있다. 이번 사업은 단순한 GPU 확보를 넘어 국내 AI 인프라 구조 전환의 시험대가 될 전망이다. 최신 아키텍처 도입을 통한 경쟁력 확보와 현실적인 인프라 제약 사이에서 균형을 찾는 것이 관건으로 꼽힌다. 데이터센터 업계 관계자는 "베라루빈은 기술적으로 매력적이지만 전력·냉각·비용 등 현실적인 허들이 높아 국내에서 빠르게 확산되기는 쉽지 않을 것"이라며 "결국 일부 선도 사업자를 중심으로 제한적 도입이 이뤄질 가능성이 크다"고 말했다. 과기정통부 관계자는 "차세대 GPU 도입은 국내 AI 경쟁력 확보를 위한 중요한 선택지"라며 "공급 상황과 인프라 여건을 고려해 민간과 협력하면서 현실적인 방식으로 도입을 추진해 나가겠다"고 밝혔다.

2026.03.29 14:32한정호 기자

스테이블코인 간 교환은 곧 외환거래…효율적 시스템 갖추려면

스테이블코인 간 교환은 사실상 외환(FX) 거래와 마찬가지다. USDT↔USDC, USDC↔EURC처럼 서로 다른 통화, 발행사, 체인 간 스왑은 슬리피지와 수수료에 극도로 민감하다. 수십억~수백억 단위의 대규모 거래에서는 몇 bp 차이가 손익을 가르기도 한다. 이 지점에서 인텐트-솔버 모델의 장점이 두드러진다. AMM처럼 항상 깊은 풀을 유지할 필요 없이, 솔버가 중앙화거래소(CEX), 장외거래(OTC), 기관 간 직거래 등에서 그때그때 필요한 유동성을 조달한다. 복수의 유동성 소스를 나눠 활용하고 개인간개인(P2P) 매칭을 동원해 가격 충격을 최소화한다. 동일 거래 기준 자동화 마켓메이커(AMM) 대비 슬리피지를 10분의 1 수준으로 줄일 수 있다. 또 윈터뮤트, 점프크립토 같은 글로벌 마켓메이커가 솔버로 참여하면서, 일반 사용자도 사실상 기관급 환전 서비스를 이용할 수 있는 구조가 완성되고 있다. “한국형 스테이블코인 FX 정산 레이어가 필요하다” 국내 블록체인 기업 수호아이오는 스테이블코인 기반 외환 정산 시스템 '이지스(Ezys) FX'를 “차세대 스테이블코인 FX·정산 인프라”로 정의한다. 은행·핀테크·환전 사업자가 솔버로 참여하는 인텐트 기반 FX 네트워크를 지향한다. 이지스FX에서 인텐트 제출자는 주로 외국인 관광객 결제 앱, 전자결제대행(PG)사, 증권사·거래소의 토큰증권(ST) 플랫폼, 글로벌 결제·송금 핀테크, 유통·플랫폼 기업 등이 해당된다. 일본인 관광객 대상 결제 서비스로 예를 들어 보자. 일본인 이용자는 엔화 기반 카드로 결제하고 싶어하고, 한국 가맹점은 원화 정산을 원한다. 이때 백엔드에서 스테이블코인 기반 FX가 발생한다. 이지스FX 구조에서 PG사가 던지는 인텐트는 "오늘 들어온 결제 중 5억원 상당 금액을 30초 안에 원화 스테이블코인으로 정산해줘. 최대 수수료는 0.3%, 스프레드는 0.1% 이내"로 간단하다. 그렇다면, 누가 솔버가 될 수 있을까. 이지스FX에선 은행·증권사·환전 사업자·글로벌 유동성 공급자(LP)가 솔버 역할을 맡는다. 인텐트가 들어오면 호가와 조건을 자동으로 제시한다. •A은행: "0.09% 스프레드, 5초 이내 정산" •B핀테크: "0.05% 스프레드, 20초 이내 정산" •C글로벌 LP: "0.03% 스프레드, 40초 이내 정산" 수호아이오의 이지스FX인 '이지스'는 인텐트 발신자가 사전에 등록한 정책에 따라 최적의 솔버를 선택한다. 정산 속도 수수료 등의 효과 이지스FX 활용 시 기업 입장에서 체감할 수 있는 변화는 세 가지다. 첫째, 정산 속도다. 기존 은행 간 해외 송금은 T+1~T+2(1~2영업일)가 표준이다. 그러나 이지스FX에서는 수십 초~수 분 내 정산이 가능하다. 결제 사업자 입장에서는 환 리스크 노출 시간이 사실상 제로에 가까워진다. 두번째는 수수료다. 전통 은행 FX 거래에서 스프레드는 0.3~1.0% 수준이 일반적이지만, 복수 솔버 경쟁이 발생하는 이지스 구조에서는 0.03~0.1% 수준으로 줄일 수 있다. 월 거래액 100억원 기준으로 연간 수 천만원의 비용 절감 효과를 볼 수 있다. 세번째는 운영 복잡도다. PG사나 핀테크가 직접 체인·브릿지·거래소를 연동할 필요 없이, 인텐트 한 줄로 복잡한 FX 로직을 외부화할 수 있다. 국경을 넘나드는 FX 허브 이지스FX는 국내 결제·송금 시장만 겨냥하지 않는다. 수호아이오는 유럽 규제형 토큰증권 거래소 21X와 제휴를 맺고, 원화 기반 스테이블코인이 유럽 토큰증권 시장으로 흘러갈 수 있는 인프라를 구축하고 있다. 프로토콜 카우스왑, 유니스왑X가 온체인에서 하던 역할을, 이지스FX가 원화·기관·규제 환경에 맞게 재구성해 수행한다. 리스크도 수반...모니터링 체계 갖춰야 효율이 올라가면 새로운 리스크가 따라오기도 한다. 인텐트-솔버 구조는 새로운 유형의 리스크를 수반한다. 리스크는 기존의 스마트컨트랙트 코드 감사만으로 잡아낼 수 없다. 시장 불안 상황에서 솔버들이 자금을 회수하면, 계약 코드가 안전하더라도 실행이 지연되거나 중단될 수 있다. 시스템이 '기술적으로는 문제없음'이지만 '경제적으로는 작동 불가'인 상태가 될 수 있다. 불투명성도 문제다. 솔버의 실행 전략은 비공개다. 시스템은 유동성이 조용히 특정 솔버에게 집중될 때까지 외관상 정상적으로 보일 수 있다. 집중화 압력은 구조적 문제로 이어진다. 자본력이 풍부한 솔버일수록 더 낮은 스프레드로 경쟁할 수 있어, 시간이 지남에 따라 소수 업체가 주문 흐름을 장악하는 현상이 심화된다. 이미 카우스왑과 유니스왑X은 소수의 전문 솔버가 전체 거래량의 80% 이상을 처리하는 현상이 나타나고 있다. 이는 치명적인 결함은 아니지만, 인텐트 기반 프로토콜을 모니터링해야 한다는 것을 보여준다. 감사만으로는 충분하지 않으며, 유동성 분배·솔버 집중도·경제적 스트레스에 대한 회복력 또한 핵심 지표로 활용해야 한다. 업계가 이러한 딜레마를 크게 세 가지 방식으로 해결하고자 한다. 솔버 다양성 정책(특정 솔버의 점유율 상한 설계), 최소 응찰 의무화(소액 인텐트에도 반드시 응찰하도록 하는 규칙), 스마트컨트랙트 기반 자동 패널티(이행 불이행 시 온체인에서 즉시 집행)가 그것이다. 표준화가 시작됐다…ERC-7683 인텐트 기반 크로스체인 시스템이 확산되면서, 각 프로토콜마다 다른 인텐트 포맷을 통일하려는 움직임이 본격화되고 있다. 이더리움 생태계에서 논의 중인 프로토콜 ERC-7683은 크로스체인 인텐트 프레임워크를 공식 표준으로 정의하고, 네트워크 간 상호운용성을 개선하는 것을 목표로 한다. 표준화의 의미는 크다. 인텐트 포맷이 통일되면 사용자는 어떤 프로토콜을 사용하든 동일한 방식으로 인텐트를 제출할 수 있고, 솔버는 여러 네트워크의 인텐트를 단일 시스템으로 처리할 수 있다. 인텐트 기반 FX 인프라 간 공통 언어를 쓰는 셈이다. 인텐트-솔버 아키텍처의 확산은 개발자와 아키텍트의 역할도 바꾼다. 핵심은 두 가지다. 어떤 의도 포맷을 정의할 것인가(통화쌍, 금액, 최대 스프레드, 마감 시간, 리스크 허용 범위, 규제 요건의 구조화), 그리고 어떤 솔버 네트워크를 설계·개방할 것인가(참여 자격, 호가 정책, 담합 리스크 감시 체계)가 핵심 설계 과제다. 정교한 설계를 위해 점검해야 할 것 인텐트-솔버 아키텍처 설계 시 점검 사항은 세 가지다. 첫째, 서비스의 FX 처리 구조를 파악하는 것이다. PG사·결제 플랫폼을 운영하거나 연동하고 있다면, 현재 스프레드·정산 시간·실패율을 수치로 기록해둬야 한다. 둘째, 인텐트를 정의할 수 있는 역량을 키워야 한다. “어떤 조건이면 이 거래를 수락하겠다”는 비즈니스 로직을 구조화된 인텐트 포맷으로 표현해야 한다. 앞으로 FX 인프라 협상력의 핵심이 될 것으로 보인다. 셋째, 솔버 네트워크 참여 가능성을 타진해야 한다. 유동성이나 FX 역량이 있는 기관이라면, 솔버로 참여해 수수료·스프레드 수익을 가져가는 구조를 검토할 시점이다. 크로스체인 인텐트는 단순한 기술 개선이 아니다. 사용자가 브리지·가스 토큰·최종성 기간을 이해하도록 강요하는 대신, 결과를 명시하고 복잡성을 시장에 위임하도록 하는 철학적 전환이다. 앞으로는 누가 더 정교하게 인텐트와 솔버 네트워크를 설계할 수 있는지가 경쟁력이다. 스테이블코인을 배달 앱 쓰듯 쉽게 환전하는 시대는 이미 시작됐다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

"스테이블코인도 배달 앱 쓰듯 쉽게 환전할 수 있어야"

지난 2024년 글로벌 스테이블코인 일평균 결제 거래량은 약 270억 달러를 넘어섰다. 이는 비자(VISA)·마스터카드의 일평균 결제 규모와 맞먹는 수준이다. 스테이블코인의 결제 규모는 커졌지만, 정작 실제 거래에 쓰려면 통화 간 교환인 온체인 외환(FX)이 필수다. USDT를 원화 스테이블코인으로, 엔화 스테이블코인을 EURC로 바꾸는 과정이 매끄럽지 않으면 스테이블코인은 결제 수단이 아니라 보유 수단에 그친다. 바로 이 지점에서 기존 자동화 마켓메이커(AMM) 방식의 한계가 수면 위로 드러나고 있다. 동시에 인텐트(의도)와 솔버(해결안 제공자) 아키텍처가 대안으로 빠르게 부상하고 있다. AMM에서 인텐트로…셀프 주유소와 배달 앱 차이 항공편을 예약한다고 상상해보자. 이 경우 우리가 직접 항공사에 전화하지 않고, 연료 계약을 협상하지도 않고, 항공 교통 관제를 조율하지도 않는다. 단지 앱을 열고 날짜를 입력하고 원하는 시간대의 비행을 예약, 결제하면 된다. 나머지는 시스템이 처리한다. 온체인 자산 교환은 이 방식과는 반대다. 유니스왑 같은 AMM 중심 구조에서는 사용자가 직접 어느 풀에 유동성이 얼마나 있는지, 어떤 슬리피지를 감수할지, 어떤 체인에서 실행할지 모두 결정해야 했다. 마치 비행기 탑승 전 항공기 정비 매뉴얼과 미국 연방항공청(FAA) 규정을 모두 이해해야 하는 일종의 '셀프 주유소' 모델인 셈이다. 문제는 규모가 커질수록 AMM의 비효율이 선명해진다는 것이다. 100억원 규모의 USDT→USDC 스왑을 단일 AMM 풀에 던지면 슬리피지가 0.3~0.5%까지 발생한다. 10bp(0.1%)가 '비싼 수준'으로 취급되는 기관 FX 시장에서 이는 용납하기 어려운 비용이다. 인텐트 기반 모델은 이 경험을 근본적으로 바꾼다. 사용자는 더 이상 어디서, 어떻게 바꿀지 고민하지 않아도 된다. "솔라나에 USDC 500개가 있는데, 이더리움 지갑으로 이더리움 1개를 받고 싶다"처럼 원하는 결과(조건)만 정하고 서명하면 된다. 경로를 지정하지 않고, 유동성을 관리하지 않고, 결제를 조정하지 않아도 된다. 결과는 사용자가 결정하고, 나머지는 시스템이 알아서 처리한다. "실행 먼저, 정산은 나중에"…패러다임의 핵심 인텐트 기반 시스템이 기존 브리지와 근본적으로 다른 점은 순서에 있다. 전통적인 크로스체인 브리지는 엄격하고 순차적인 흐름을 따른다. 자산이 소스 체인에 잠기고, 암호학적 증명이 생성 검증된 후에야 목적지 체인에서 자금이 해제된다. 모든 단계는 다음 단계가 시작되기 전에 암호학적 확인이 이뤄져야 한다. 수학적 원리가 정확성을 보장하지만, 안정성에는 대가가 따르기 마련이다. 그 대가는 지연 시간이다. 초기 레이어(L)2 브리지에서는 며칠이 걸리기도 했고, 지금도 수 초~수 분을 대기해야 한다. 인텐트 시스템은 이 모델을 완전히 뒤집는다. 실행이 먼저 이뤄지고, 정산은 나중에 이뤄진다. 암호학적 최종성을 기다리지 않고도 자금을 즉시 수령할 수 있다. 검증은 백그라운드에서 비동기적으로 처리된다. 기존 브리지는 시스템이 반응할 때까지 사용자가 기다려야 했다면, 인텐트 기반 시스템은 사용자가 다른 작업을 하는 동안에도 시스템이 작동한다. 중요한 것은 인텐트가 암호학적 보장을 제거하는 것이 아니라는 점이다. 단지 그 보장을 정산 계층으로 옮긴다. 사용자는 솔버의 유동성을 바탕으로 즉각적인 실행을 경험하고, 암호학적 검증은 그 이후에 이뤄진다. 인텐트-솔버의 교과서 인텐트-솔버 구조는 이미 온체인에서 충분히 검증된 모델이다. 그 중에서도 카우스왑(CoW Swap), 유니스왑X, 어크로스 프로토콜은 공통 패턴을 공유한다. 세 프로토콜의 공통점은 분명하다. 사용자는 인텐트만 제출하고, 거래 실패·경로 선택·가스비 최적화는 솔버가 책임지는 구조다. 솔버는 스프레드·수수료에서 보상을 가져가고, 경쟁을 통해 자연스럽게 효율이 높아진다. 경제적으로 보면, 솔버는 전통적인 브리지 운영자보다 고빈도 유동성 공급자(마켓메이커)에 더 가깝다. 카우스왑의 경우, 동일한 거래를 일반 AMM에서 실행했을 때 대비 평균 0.2~0.4%의 가격 개선 효과가 있다. 100억원 규모의 거래라면 2000만~4000만원의 비용 차이가 발생한다. 속도만의 문제가 아냐…3가지 트릴레마 크로스체인 전송 시 단축되는 밀리초는 어딘가에서 비롯된다. 속도는 매혹적이지만, 공짜가 아니다. 실제로 크로스체인 인프라에는 동시에 최적화할 수 없는 세 가지 요소가 존재한다. •엄격한 암호학적 최종성 → 느리다 •즉각적인 사용자 경험 → 유동성이 필요하다 •풍부한 유동성 → 솔버 집중화를 촉진한다 전통적인 브리지는 최종성을 극대화하며, 의도 기반 시스템은 속도를 극대화한다. 유동성 집중은 조용한 압력 지점이 된다. 이 트릴레마(3개 중 2개만 선택 가능한 구조적 딜레마)는 각 프로토콜의 아키텍처 선택에 그대로 반영된다. 실제로 브릿지 프로토콜 어크로스처럼 인텐트 기반으로 설계된 시스템은 수 초 내 실행이 가능하다. 반면 크로스체인 브릿지 프로토콜인 스타게이트(Stargate)의 버스 모드처럼 배치 처리 방식은 비용을 절감하는 대신 지연 시간이 늘어난다. 서클의 USDC 전용 크로스체인 전송 시스템인 CCTP는 소각-발행 구조로 유동성 풀 자체를 배제하지만, 특정 자산에만 적용된다. 체인링크의 프로토콜 CCIP는 프로그래밍 가능성과 강력한 보안을 우선시하는 메시징 레이어로, 단순 토큰 전송이 아닌 복잡한 크로스체인 로직 처리에 강점이 있다. 이렇듯 정답은 하나가 아니다. 전송 규모, 리스크 허용 범위, 사용자 기대치, 자산 유형에 따라 적합한 아키텍처가 달라진다. 기관 재무 부서는 CCIP 방식의 암호학적 보증을 선호할 수 있고, 일반 사용자는 어크로스 방식의 빠른 속도를 선호한다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다. • 2025 ~ 현재: Noone21 대표이사, 포항공대 CCBR(Center for Cryptocurrency & Blockchain Research) 부센터장 • 2023 ~ 현재: 수호아이오 사업 및 전략 고문 • 2018 ~ 2023: 람다256 대표이사 • 2016 ~ 2018: SK텔레콤 전무이사 (서비스 플랫폼) • 2008 ~ 2016: 삼성전자 무선사업부 상무이사 (삼성페이, 챗온)

2026.03.25 10:16박재현 컬럼니스트

'베프'처럼 나를 이해할 AI 반도체 세계 첫 개발...2027년 제품화

챗GPT가 내 속마음까지 알아주는 베스트 프렌드(Best Friend)라면? 유회준 KAIST 인공지능반도체대학원 전기및전자공학부 교수 연구팀이 17일 KAIST AI빌딩에서 기자간담회를 갖고, 사용자 특성에 맞춰 스스로 진화하는 개인 맞춤형 거대언어 모델(LLM) 가속기 '소울메이트(SoulMate)'를 공개했다. 유 교수는 이날 "핵심은 챗GPT와 같은 LLM을 사용자가 스스로 학습시킬 수 있다는 것"이라며 "클라우드 없이도 사용자 대화 스타일과 선호도에 맞춰 반응하는 온디바이스 AI 기술을 개발했다"고 설명했다. 연구팀은 기억된 대화 내용을 바탕으로 맞춤형 답변을 생성하는 검색증강생성(RAG) 기술과 사용자 피드백을 즉각 반영해 학습하는 로우 랭크 미세조정(LoRA) 기술을 반도체 내부에 직접 구현했다. 홍성연 전기및전자공학부 박사과정 연구원(제1저자)은 "온디바이스 개인화 LLM 구현에는 거대한 장벽이 존재한다"며 "기존 고성능 LLM 시스템은 보통 100억 개 이상의 파라미터와 8GB 이상의 대용량 메모리를 요구한다. 단일 질의에도 1조 번 이상 연산이 필요하다"고 말했다. 문제는 이 같은 데이터 처리절차에 일반적인 모바일 하드웨어 처리 능력을 수십 배 이상 초과한다는 점이다. 대부분 서비스가 연산을 클라우드 서버에 전적으로 의존하게 되는데, 이에는 3가지 문제가 있다. 우선 첫 번째 단어가 생성되기까지 걸리는 시간(TTFT)이 400ms를 넘길 경우 사용자는 대화가 끊긴다고 느끼며 몰입도가 급격히 저하된다. 개인 신상과 관련한 보안 문제도 있다. 연구팀이 이를 한 방에 해결하기 위해 실시간 피드백과 학습, 즉각 반응이 가능한 혁신적인 인공지능 반도체 전용 시스템온칩(SoC)을 개발했다. 하드웨어 수준에 검색 증강 생성(RAG)과 온칩 미세 조정 기능을 통합한 개인화 LLM 시스템 온 칩인 '소울메이트'를 개발한 것. 연구팀은 삼성 28nm CMOS 공정을 통해 20.25mm² 면적의 칩으로 구현했다. 모바일 기기 내에서 LLM의 막대한 연산량과 메모리 병목 현상을 해결하기 위해 3가지 혁신적인 하드웨어 아키텍처를 도입했다. 3개 아키텍처는 ▲ 혼합 랭크 토큰 처리 아키텍처(MRNE) ▲ 유사도 기반 시퀀스 처리 아키텍처(SMU) ▲ 부울 프리미티브 MX 텐서 코어 (BPMX)다. MRNE는 문장 내 토큰별 중요도를 실시간 판단, 연산 정밀도를 유동적으로 조절하는 기술이다. 이를 통해 연구팀은 사용자 인터페이스(UI) 상에서 첫 번째 토큰이 생성되기까지의 지연 시간(TTFT)을 기존 대비 75.0~82.5% 단축했다. SMU는 '사용자 적응(UA)' 과정에서 불필요한 데이터 이동과 연산을 최소화한다. 학습에 소모되는 에너지를 61.7~76.2% 절감했다. BPMX를 통해 연구팀은 복잡한 부동소수점 연산을 효율적인 부울 논리 체계로 변환, 연산기 자체 피크 전력을 66.1% 절감하면서도 높은 연산 정밀도를 유지하는 데 성공했다. 홍성연 박사과정 연구원은 "32MB 규모의 데이터베이스를 통해 과거 대화 이력을 즉각적으로 참조(RAG)하고, 사용자의 교정이나 말투 선호도를 실시간 반영해 모델을 최적화한다"며 "특히 메타가 개발한 오픈소스 대규모언어모델 'LLaMA 3.2-1B'를 탑재한 시연에서, 클라우드 연결 없이도 63.1ms라는 매우 빠른 응답 속도를 나타냈다"고 설명했다. 유회준 교수는 "초저전력, 실시간 개인화 LLM 가속을 성공적으로 구현, 기술적 완성도를 입증했다"며 "기존 온디바이스 AI 가속 시스템 대비 지연 시간은 최대 82.5% 단축하고 사용자 학습 에너지는 76.2% 절감하는 세계 최고 수준의 효율을 달성했다"고 말했다. 유 교수는 또 "스마트폰, 웨어러블 기기, 개인형 AI 디바이스 등 차세대 플랫폼과 결합해 진정한 개인화 인공지능 서비스 시대를 열 것"이라며 "교원 창업기업 '온뉴로AI'를 통해 2027년께 제품화할 예정"이라고 덧붙였다. 이 연구 결과는 최근 미국 샌프란시스코에서 열린 국제고체회로설계학회(ISSCC)에서 '하이라이트 논문'으로 소개됐다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) 정보통신방송혁신인재양성사업 지원을 받아 수행됐다.

2026.03.17 07:31박희범 기자

IBM, 양자·슈퍼컴 결합 시대 연다…참조 아키텍처 공개

IBM이 양자 컴퓨팅을 기존 슈퍼컴퓨팅 환경에 결합하기 위한 새로운 아키텍처를 공개했다. 양자 프로세서와 고성능 컴퓨팅(HPC)을 통합해 차세대 계산 모델 구현에 나선다는 목표다. IBM은 양자 중심 슈퍼컴퓨팅을 구현하기 위한 업계 최초의 참조 아키텍처를 공개했다고 13일 밝혔다. 이 아키텍처는 양자 프로세서(QPU)가 중앙처리장치(CPU)·그래픽처리장치(GPU)와 함께 온프레미스 환경, 연구기관, 클라우드 등 다양한 컴퓨팅 환경에서 동시에 활용될 수 있도록 설계된 것이 특징이다. 단일 컴퓨팅 방식만으로 해결하기 어려운 과학 문제를 양자와 고전 컴퓨팅 결합으로 해결하는 새로운 계산 모델이라는 설명이다. IBM은 양자 시스템과 기존 컴퓨팅 시스템을 단일 통합 환경으로 묶어 연산 효율을 높였다. 양자 하드웨어(HW)를 CPU·GPU 클러스터, 고속 네트워크, 공유 스토리지 등 클래식 인프라와 결합해 대규모 계산 작업과 알고리즘 연구를 안정적으로 처리할 수 있도록 지원한다. 또 키스킷(Qiskit)을 비롯한 개방형 소프트웨어(SW)와 오케스트레이션 기능을 제공해 연구자와 개발자가 기존 개발 환경과 도구를 그대로 활용하면서 양자 컴퓨팅 기능에 접근할 수 있도록 했다. 이를 통해 화학· 신소재·최적화 등 다양한 분야에서 양자 컴퓨팅의 실제 활용 가능성을 높인다는 목표다. IBM은 이미 여러 연구 프로젝트에서 양자 중심 슈퍼컴퓨팅 접근 방식의 가능성을 확인했다고 밝혔다. IBM과 맨체스터대·옥스퍼드대·ETH 취리히·EPFL·레겐스부르크대 연구진은 세계 최초로 '하프-뫼비우스 분자'를 합성하고 양자 중심 슈퍼컴퓨터로 전자 구조를 검증하는 연구를 진행했다. 또 클리블랜드 클리닉은 303개 원자로 구성된 트립토판 케이지 미니 단백질을 양자 중심 슈퍼컴퓨팅 기반으로 시뮬레이션했으며 IBM과 일본 이화학연구소(RIKEN), 시카고대 연구진은 특정 양자 시스템의 최저 에너지 상태 계산에서 기존 방식보다 높은 정확도를 기록했다. IBM은 글로벌 연구기관 및 파트너들과 함께 해당 참조 아키텍처를 지속 확장할 계획이다. IBM과 렌셀러 폴리테크닉 대학교(RPI)는 양자 자원과 HPC 자원을 하나의 워크플로로 연결하기 위한 스케줄링과 오케스트레이션 기술을 공동 개발 중이다. 향후 양자 중심 알고리즘을 발전시키며 다양한 산업 분야에서 활용 범위를 넓힐 방침이다. 제이 감베타 IBM 리서치 총괄사장은 "40여 년 전 리처드 파인만은 양자 물리 현상을 직접 시뮬레이션할 수 있는 컴퓨터를 상상했다"며 "우리는 그 비전을 현실로 만들기 위해 연구를 이어왔다"고 강조했다. 이어 "앞으로의 컴퓨팅은 양자 프로세서와 고성능 클래식 컴퓨팅이 함께 작동하는 양자 중심 슈퍼컴퓨팅으로 발전할 것"이라고 말했다.

2026.03.13 11:30한정호 기자

[현장] 레드햇 "AI 운영 핵심은 추론 인프라…오픈소스 플랫폼 지원 확대"

레드햇이 기업의 인공지능(AI) 도입 확대에 맞춰 AI 추론 인프라와 하이브리드 클라우드 기반 플랫폼 지원을 강화한다. 그래픽처리장치(GPU) 활용 효율과 AI 운영 거버넌스를 동시에 확보하는 플랫폼 전략을 앞세워 AI 서비스 구축과 운영을 지원한다는 목표다. 최원영 한국레드햇 전무는 11일 양재 엘타워에서 열린 '레드햇 테크데이'에서 "기업이 AI 서비스를 운영하려면 추론 아키텍처와 GPU 활용 전략을 포함한 통합 플랫폼 접근이 필요하다"며 "오픈소스 기반 플랫폼 '레드햇 AI'를 통해 AI 도입·운영을 지속 지원할 것"이라고 강조했다. 이날 행사는 AI-레디 하이브리드 클라우드 플랫폼 구축 전략을 주제로 기업 AI 환경 구축을 위한 인프라와 플랫폼 전략을 공유하는 자리로 마련됐다. 행사에는 300여 명의 고객과 파트너가 참석했다. 최 전무에 따르면 최근 생성형 AI와 멀티 에이전트 기반 서비스가 확산되면서 AI 모델의 실제 서비스 단계인 추론 영역의 중요성이 커지고 있다. AI 에이전트는 단순 질의응답을 넘어 계획 수립, 도구 호출, 결과 검증 등 여러 단계를 거치기에 연산량과 토큰 사용량이 크게 증가하는 추세다. 그는 "AI 에이전트 기반 서비스는 단순한 거대언어모델(LLM) 응답보다 훨씬 많은 추론 연산이 필요하다"며 "이 과정에서 GPU 자원을 얼마나 효율적으로 활용하느냐가 기업 AI 운영의 핵심 과제가 되고 있다"고 설명했다. 레드햇은 이를 지원하고자 '오픈시프트'를 중심으로 한 레드햇 AI 플랫폼 전략을 추진 중이다. 해당 플랫폼은 다양한 오픈소스 기반 AI 도구를 통합해 기업 환경에서 안정적으로 운영할 수 있도록 지원한다. 레드햇 AI 플랫폼은 ▲AI 엔터프라이즈 ▲오픈시프트 AI ▲엔터프라이즈 리눅스 AI ▲AI 인퍼런스 서버 등으로 구성된다. 특히 가상 거대언어모델(vLLM) 기반 AI 인퍼런스 서버를 통해 다양한 GPU와 가속기 환경에서 대규모 AI 모델을 효율적으로 운영할 수 있도록 지원한다. 또 GPU 자원을 여러 사용자와 서비스가 유연하게 공유할 수 있는 서비스형 GPU(GPUaaS) 구조도 제공한다. 기업이 보유한 GPU 자원을 보다 효율적으로 활용하고 AI 인프라 비용 부담을 줄인다는 목표다. 레드햇은 최근 글로벌 오픈소스 커뮤니티와 함께 엔비디아와 AMD GPU, 구글 텐서처리장치(TPU), 나아가 국내 AI 반도체 기업 리벨리온의 신경망처리장치(NPU) 등 다양한 AI 가속기에 대한 최적화도 진행 중이다. AI 플랫폼 생태계 확대도 박차를 가한다. 레드햇은 엔비디아와 협력해 DGX 시스템에 AI 플랫폼을 통합하는 '레드햇 AI 팩토리 위드 엔비디아' 협력 모델을 지난달 발표했다. 현재 엔비디아 블랙웰 플랫폼과 통합됐으며 향후 차세대 루빈 플랫폼과의 연계도 추진할 계획이다. 이날 행사에선 한전KDN이 레드햇 오픈시프트 기반 클라우드 네이티브 환경을 통해 전력 제어 시스템을 현대화하는 프로젝트 사례도 소개됐다. 한전KDN은 현재 10년 규모의 변전소 원격 감시·제어 시스템(SCADA) 개발 프로젝트를 진행 중이다. 기존 시스템 중심 구조에서 벗어나 유연성과 확장성을 갖춘 클라우드 플랫폼 기반으로 전환하는 것이 목적이다. 배선준 한전KDN 차장은 "전력 제어 시스템은 수많은 변전소에서 데이터를 수집하고 실시간으로 제어해야 하기에 안정성과 운영 효율성이 무엇보다 중요하다"며 "레드햇 오픈시프트 플랫폼을 통해 개발 자동화와 지속적 통합·배포(CI/CD) 체계를 구축하고 클라우드 네이티브 전환을 추진 중"이라고 밝혔다. 이어 "컨테이너 기반 환경으로 장애 발생 시 영향 범위를 격리하고 신속하게 대응할 수 있는 구조를 구축해 한국전력 제어 시스템을 고도화할 것"이라고 덧붙였다. 레드햇은 오픈소스 기반 플랫폼이 기업의 기존 IT 인프라와 AI 워크로드를 통합 운영하는 데 적합하다고 강조했다. 특히 하이브리드 클라우드 환경에서 애플리케이션과 AI 서비스를 단일 플랫폼 레드햇 AI에서 관리할 수 있다는 점을 주요 강점으로 내세웠다. 최 전무는 "AI도 기존 IT 환경과 마찬가지로 보안과 거버넌스를 함께 고려해야 한다"며 "기업이 기존 IT 운영 플랫폼 위에서 AI를 통합적으로 관리할 수 있도록 지원할 것"이라고 말했다.

2026.03.11 15:46한정호 기자

SBVA, 얀 르쿤 설립 'AMI'에 500억원 투자

에스비브이에이(SBVA)가 얀 르쿤 교수가 설립한 글로벌 프론티어 랩 'AMI'의 시드 라운드에 약 500억원(3천만 유로) 투자했다고 11일 밝혔다. 이번 라운드에는 그레이크로프트 파트너스, 캐세이 이노베이션, 히로 캐피털 등 글로벌 기관 투자자와 엔비디아가 참여했다. 이와 함께 제프 베이조스 아마존 창업자와 에릭 슈미트 전 구글 회장 등 글로벌 IT 산업을 대표하는 상징적 인물들도 자금을 보탰다. 이번 투자는 SBVA의 기존 '2023 알파 코리아 펀드', '알파 인텔리전스 펀드'와 더불어 새롭게 결성된 '알파 AI 아키텍처 펀드'를 통해 이뤄졌다. 특히 이번 펀드에는 쿠팡, 두산 등 국내외 유수의 기업 및 기관들이 유한책임투자자(LP)로 참여해, 차세대 AI 아키텍처의 산업 확장을 위한 협력 기반을 마련했다. AMI를 이끄는 얀 르쿤은 메타의 Facebook AI Research(FAIR) 설립자이자 퀸 엘리자베스 공학상, ACM 튜링상 등 과학 및 공학 분야에서 세계 최고 수준의 상을 수상한 현대 딥러닝의 근간을 만든 인물이다. AMI는 자기지도학습과 공동 임베딩 기반 예측 아키텍처(JEPA)를 중심으로 한 '월드 모델'을 개발해, AI가 인간처럼 세상을 이해하고 추론하는 '실천적 지능'을 구현하는 것이 목표다. SBVA는 AMI와 아시아 산업 생태계를 잇는 전략적 파트너 역할을 수행한다. 특히 대기업 네트워크를 통한 기술 실증(PoC)으로 산업 현장의 혁신을 지원하는 한편, 로보틱스·제조·AI 분야 등 다양한 피투자사와의 기술 협업을 통해 국내 스타트업이 차세대 월드 모델 아키텍처를 선제적으로 활용하고 글로벌 시장에 동반 진출할 수 있는 협력 생태계를 구축한다는 방침이다. AMI 관계자는 “SBVA의 지원과 장기적인 과학 연구에 대한 의지에 깊은 감사를 드린다. SBVA가 재무적 투자자를 넘어 아시아 생태계를 아우르는 전략적 파트너로 함께하게 된 것은 AMI의 글로벌 비전과 도전적 목표를 잘 보여주는 사례”라며 “이번 파트너십은 한국을 포함한 아시아 전역에서 긴밀한 협력 관계를 구축하는 데 중요한 전환점이 될 것”이라고 말했다. 장유진 SBVA 상무는 “AMI는 물리적 세계를 이해하는 '월드 모델'을 선도하는 핵심 기업”이라면서 “이번 투자가 AI의 패러다임이 '피지컬 AI'로 전환되는 변곡점에서, 한국과 아시아의 산업 생태계가 차세대 AI 기술과 전략적으로 결합되는 중요한 계기가 될 것으로 기대한다”고 밝혔다.

2026.03.11 08:48백봉삼 기자

[독파모 4파전] 트릴리온랩스, 추가 공모 탈락…"독자 아키텍처 개발 지속"

과학기술정보통신부 '독자 AI 파운데이션 모델(독파모)' 추가 공모에 도전한 트릴리온랩스가 최종 탈락했다. 회사는 결과를 수용하되, 프롬 스크래치 기반 독자 아키텍처 개발 기조를 이어가겠다는 입장이다. 트릴리온랩스는 20일 과기정통부가 발표한 독파모 추가 공모 선정 결과에 대해 "이번 독자 파운데이션 모델 구축 사업 결과를 겸허히 수용한다"고 밝혔다. 이날 과기정통부는 독파모 추가 공모 심층평가 결과 모티프테크놀로지스를 정예팀으로 추가 선정했다고 발표했다. 이번 평가에는 모티프테크놀로지스와 트릴리온랩스 두 컨소시엄이 참여했으며 두 팀 모두 역량을 인정받았지만 최종 선정은 모티프테크놀로지스에 돌아갔다. 이에 대해 트릴리온랩스는 해당 사업이 본격 논의되기 이전부터 가중치 초기화 단계부터 설계하는 독자 모델 개발의 중요성을 강조해 왔다고 설명했다. 이미 자체 아키텍처 설계와 새로운 구조에 대한 연구·개발을 지속해왔으며 이번 결과와 무관하게 기술적 방향성을 유지한다는 입장이다. 회사 측은 "해당 사업이 논의되기 이전부터 프롬 스크래치 기반 독자 모델 개발의 중요성을 강조해 왔으며 이미 그 길을 묵묵히 걸어오고 있었다"며 "이번 결과는 아쉽지만 트릴리온랩스의 방향은 달라지지 않는다"고 밝혔다. 이어 "가중치 초기화부터 설계하는 독자 아키텍처와 새로운 구조에 대한 도전을 앞으로도 멈추지 않을 것"이라며 "소중한 경험과 기회를 준 점에 감사드리며 향후 또 다른 기회가 주어진다면 더욱 준비된 모습으로 다시 도전하겠다"고 덧붙였다.

2026.02.20 16:57한정호 기자

ETRI·SKT·LGU·에스넷ICT, 6G 네트워크 '두뇌' 기술 확보…세션 처리효율도 40% 개선

국내 연구진이 AI가 스스로 제어하는 6G 네트워크 '두뇌'를 개발했다. 한국전자통신연구원(ETRI)은 6G 시대 핵심 인프라로 주목받는 '지능형 서비스 프로그래머블 모바일 코어 네트워크' 기술 개발에 성공했다고 19일 밝혔다. 기술 개발에는 SK텔레콤, LG유플러스, 에스넷ICT 등이 참여했다. 고남석 모바일코어네트워크연구실장은 "국내 최초로 '지능형 6G 코어'를 구현했다. 6G 핵심 인프라의 혁신적 진전이다"라고 자평하며 "AI 제어와 네트워크 자동화의 결합을 통해 AI-네이티브 6G 실현의 실질적 기반을 마련한 것”이라고 말했다. 이 기술은 인공지능(AI)이 네트워크를 스스로 학습하고 제어할 수 있다. 서비스 요구에 따라 유연하게 동작하는 자율형 6G 코어 네트워크 구현을 목표로 개발됐다. 기존 5G 코어 네트워크가 비교적 정적인 세션 관리 구조를 기반으로 운영됐다면, 이번에 개발한 6G 코어는 AI 기반으로 서비스별 세션·경로·품질(QoS)을 실시간 최적화한다. 특히 서비스 특성에 맞게 데이터 전송 경로를 설정할 수 있는 '인터넷프로토콜 버전6(IPv6) 세그먼트 라우팅(SRv6)' 기술을 적용해 세션과 경로를 자동 구성·조정하기 때문에 서비스 특성에 맞는 통신 품질 제공이 가능하다. 연구진은 이를 위해 ▲AI 내재형 제어·사용자 평면 구조(SBA 확장형) ▲지능형 자동화 및 신뢰성 검증 모듈 ▲AI 응용 서비스 학습·추론 최적화 기술을 구현했다. 성능 검증 결과, 정해진 통로로 보내는 기존 '패킷 기반 무선 데이터 서비스(GPRS) 터널링 프로토콜(GTP)'기반 구조대비 세션 처리 효율이 40% 향상된 것으로 나타났다. 또 서비스별 차별화된 경로 설정과 지연·대역폭 등 통신 품질 정밀 제어가 가능하다는 것도 확인했다. 연구팀은 "AI 강화학습 기반 정책 추천 기능을 적용해 운용자 개입없이 세션과 트래픽을 제어하는 엔드-투-엔드 AI 자동화(Level 3) 수준을 달성했다"고 말했다. 이는 네트워크 전 구간에서 AI가 정책을 자율적으로 판단·적용해 세션과 트래픽을 제어하는 단계에 도달했음을 의미한다. 이기술은 현재 이동통신 표준화 기구(3GPP) 시스템 아키텍처를 담당하는 기술 작업반(SA2)이 표준화를 논의 중이다. 연구팀은 이와 관련 60건이상 핵심 특허를 출원했다. ETRI는 향후 고도화된 서비스 기반 아키텍처(SBA) 기반 코어·전달망 융합 기술과 저궤도 위성 통신 지원 구조 개발 등을 통해 서비스·컴퓨팅·네트워크가 통합되는 차세대 6G 코어 아키텍처 구현을 추진할 계획이다. 또한 국제 표준화와 글로벌 협력을 통해 6G 지능형 코어 기술 주도권 확보에 나설 방침이다. 정태식 네트워크연구본부장은 "AI 기반 자율 제어와 네트워크 자동화를 통해 운용자 개입을 최소화함으로써 통신사 운용 효율을 높이고, 운용 비용 절감과 자원 활용 최적화에 기여할 것"으로 기대했다. 연구는 과학기술정보통신부와 정보통신기획평가원(IITP) '6G 핵심기술개발사업' 지원을 받았다.

2026.02.19 15:14박희범 기자

[AI 리더스] 신현석 투라인클라우드 공동대표 "MSA 기술로 AI 도입·확산 조력자 될 것"

"AI를 '말하는 기술'이 아니라, 기업에서 실제로 '일하게 만드는 기술'로 구현하는 최고의 파트너가 되겠습니다." 신현석 투라인클라우드 공동대표는 13일 서울 강남 사옥에서 지디넷코리아와 만나 이같은 포부를 밝혔다. 그는 많은 기업이 AI 도입을 추진하는 가운데, 투라인클라우드가 보유한 마이크로서비스 아키텍처(MSA) 역량을 앞세워 기존 IT 구조를 AI·클라우드 친화적으로 재설계하고 고객 업무 환경에 안정적인 안착을 지원한다는 목표다. 신 대표는 마이크로소프트(MS)와 아마존웹서비스(AWS), SK C&C(현 SK AX) 등 국내외 주요 IT 기업에서 클라우드 사업과 파트너 전략을 이끌어온 인물이다. 이후 스마일게이트 베트남 법인장을 맡아 현지 법인 설립과 사업 안착을 주도하며 아시아 시장 경험을 쌓았다. 최근 투라인클라우드에 공동대표로 합류해 중장기 성장 전략과 글로벌 확장을 이끌고 있다. AI 도입 최대 장벽 '레거시'…MSA로 해결한다 신 대표는 현재 기업들이 AI 도입에 어려움을 겪는 가장 큰 이유로 레거시 시스템과 AI 사이의 단절을 꼽았다. AI 자체에 대한 관심은 높지만, 기존 시스템과 어떻게 연결해야 할지에 대한 해법이 부족하다는 것이다. 그는 "대부분 기업 시스템은 여전히 모놀리식 구조에 묶여 있다"며 "이 상태에서는 새로운 AI 기술이 나와도 실제 업무에 적용하기가 쉽지 않다"고 지적했다. 단순 챗봇이나 시범 사업 수준을 넘지 못하는 사례가 반복되는 배경도 이 때문이라는 설명이다. 투라인클라우드는 이 문제를 AI 연결 구조라는 관점에서 접근 중이다. 기존 레거시 시스템을 유지한 채 AI를 안전하게 연결할 수 있는 중간 계층을 MSA와 클라우드를 기반으로 먼저 구축하는 방식이다. 신 대표는 "AI 도입을 위해 시스템을 전면 개편하기보다는 단계적 전환을 하는 것이 비용과 리스크를 동시에 줄일 수 있다"며 "변화가 잦거나 트래픽이 많은 영역부터 점진적으로 마이크로서비스로 전환함으로써 AI 도입과 이후 성과를 만드는 것이 현실적인 전략"이라고 말했다. 이같은 접근은 공공과 금융 시장에서도 유효하다고 봤다. 보안과 안정성이 중요한 산업일수록 통제 가능한 AI 도입과 점진적 MSA 전환이 필요하다는 설명이다. 이에 투라인클라우드는 ▲AI 자동화 플랫폼 '투라코' ▲MSA 전환을 지원하는 'MSAP.ai' ▲DaaS 기반 스마트워크 솔루션 '하이퍼덱스'를 통해 기업 AI 실행 환경 구축을 전방위적으로 지원하고 있다. 공동대표 체제·사옥 통합…조직 실행력 강화 신 대표 합류와 함께 투라인클라우드는 공동대표 체제와 강남 사옥 통합 이전을 동시에 추진하며 조직 실행력을 강화했다. 이를 통해 전략과 실행이 분리되지 않는 구조를 만들겠다는 구상이다. 공동대표 체제에서 기존 현승엽 대표는 재무 안정성과 조직 운영, 기술 실행의 안정성을 책임지고 신 대표는 사업·영업·인사를 총괄하며 시장 확장과 글로벌 전략에 집중한다. 여기에 최근 서울 강남으로 사옥을 통합 이전하면서 분산돼 있던 개발·영업·운영 조직이 한 공간에서 협업하는 구조를 갖췄다. 기술 개발부터 고객 대응, 파트너 협업까지 의사결정과 실행 속도를 높이기 위한 물리적 기반을 마련했다. 그간 현 대표가 클라우드 네이티브와 MSA 기반 기술 역량을 탄탄하게 구축해온 만큼, 신 대표는 이를 바탕으로 한 파트너 생태계 확장과 해외 진출 등 스케일아웃 전략에 집중한다. 특히 사옥 통합 이전 후 AI 자동화 플랫폼과 MSA, DaaS 솔루션·영업 조직을 하나의 기술 흐름으로 묶어 시너지를 창출한다는 목표다. 신 대표는 "전사 조직이 한 공간에 모이면서 기술과 사업 전략이 현장에서 바로 맞물려 돌아가는 구조가 만들어졌다"며 "빠른 판단과 안정적인 실행의 균형을 이룰 것"이라고 설명했다. 올해 핵심 전략은 파트너십…시장 확장 속도 높인다 신 대표는 올해 투라인클라우드가 추진할 핵심 전략으로 파트너십 확대를 꼽았다. AI와 MSA 전환 수요가 빠르게 늘어나는 상황에서 다양한 산업과 고객 환경에 보다 신속하게 대응하기 위해 파트너와 함께 성장하는 구조가 필요하다는 판단에서다. 신 대표는 "AI와 MSA 전환은 특정 산업이나 고객군에 국한되지 않고 전방위적으로 확산되고 있다"며 "파트너와 함께 사업을 확장해야 더 많은 고객에게 빠르게 가치를 전달할 수 있다"고 말했다. 파트너가 투라인클라우드가 보유한 솔루션을 기반으로 직접 사업을 수행하고 각자 강점을 결합해 시장을 키우는 구조를 만들겠다는 설명이다. 이를 위해 투라인클라우드는 파트너 전략 전담 조직을 구성하고 공동 사업 모델과 수익 분배 구조를 정비할 방침이다. 단발성 프로젝트 중심 협업이 아닌 반복 가능한 사업과 구독형 수익으로 이어질 수 있는 구조를 만드는 데 초점을 맞췄다. 이같은 파트너 전략은 국내 시장에만 국한되지 않는다. 한국에서 검증한 사업 모델을 해외 시장으로 확산한다는 목표다. 현지 CSP와 로컬 파트너를 중심으로 일본과 베트남, 인도네시아 등 아시아 시장에서 동일한 사업 구조를 단계적으로 적용할 계획이다. 신 대표는 "국내에서 축적한 기술과 사업 경험을 파트너와 함께 확산시키는 것이 글로벌 전략의 핵심"이라며 "파트너십 전략은 우리와 파트너의 성장을 가속하는 동시에 클라우드·MSA·AI 시장 전체를 키우는 동력이 될 것"이라고 강조했다. "AI 도입 고민, 앞장서 해결하는 회사 되겠다" 신 대표는 투라인클라우드의 중장기 비전을 기업 AI 도입의 출발점이 되는 회사로 정의했다. AI를 도입해야 한다는 공감대는 형성됐지만, 어디서부터 어떻게 시작해야 할지 명확한 답을 찾지 못한 기업들에게 현실적인 출발점과 실행 경로를 제시하겠다는 포부다. 이를 위해 투라인클라우드는 기존 SI 중심 사업 구조에서 벗어나 플랫폼·구독 기반 모델로의 전환을 추진하고 있다. AI를 기존 시스템과 연결하는 플랫폼을 중심으로 AI 에이전트가 실제로 업무를 수행할 수 있는 실행 환경과 DaaS 기반 업무 환경을 결합해 기업 AI 전환을 단계적으로 지원한다는 전략이다. 특히 지속적으로 활용되고 확장 가능한 구조를 만드는 데 초점을 맞췄다. 아시아 시장 공략을 위한 준비도 본격화한다. 한국에서 축적한 기술과 사업 경험을 바탕으로 베트남과 일본, 인도네시아를 중심으로 현지 파트너 및 CSP와 협력해 동일한 사업 모델을 단계적으로 확산할 계획이다. 국내에서 검증한 구조를 현지 환경에 맞게 적용해 재현성을 높인다는 방침이다. 신 대표는 "많은 기업이 AI 전환의 필요성을 인식하고 있지만, 이를 장기적인 성과로 연결하는 과정에서는 여전히 구조적인 과제가 존재한다"며 "레거시 시스템 중심 모놀리식 구조에서는 새로운 기술을 유연하게 적용하고 반복적으로 개선하는 데 한계가 있다"고 설명했다. 이어 "이러한 한계를 MSA와 클라우드 기술력으로 해소하는 것이 우리가 지향하는 역할"이라며 "AI를 도입하려는 기업들이 어떻게 추진해야 할지 고민할 때, 가장 먼저 앞장서서 돕는 회사가 되겠다"고 강조했다.

2026.01.13 10:49한정호 기자

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

엔비디아가 차세대 그래픽처리장치(GPU) 아키텍처 '베라 루빈'의 본격적인 상용화를 앞두면서 서버·클라우드 업계 전반의 긴장감이 높아지고 있다. 10일 외신과 업계에 따르면 루빈 GPU 단일 칩 기준 소비 전력이 1천와트를 넘길 수 있다는 전망이 나오면서, 인프라 경쟁 초점이 성능에서 전력과 냉각 설계로 이동하는 분위기다. 엔비디아는 최근 CES 2026에서 베라 루빈 플랫폼이 이미 양산 단계에 돌입했으며 올해 하반기부터 주요 클라우드 사업자와 서버 파트너를 통해 본격 공급될 것이라고 밝혔다. 루빈은 기존 블랙웰을 잇는 차세대 GPU 아키텍처로, 대규모 인공지능(AI) 학습과 장거리 추론에 필요한 연산 밀도를 크게 끌어올리는 데 초점을 맞췄다. 베라 루빈은 단일 GPU를 넘어 CPU·네트워크·보안·스토리지를 하나의 슈퍼컴퓨터로 통합한 랙 스케일 아키텍처다. 루빈 GPU와 베라 CPU, NV링크 6 스위치, 블루필드-4 DPU, 차세대 네트워킹 인터페이스를 결합해 데이터 이동 병목을 최소화하고 확장된 컨텍스트 처리와 고밀도 연산 환경을 지원하도록 설계됐다. 이같은 비약적 성능 향상과 함께 전력 소모 역시 급격히 증가할 것으로 관측된다. 업계에서는 베라 루빈 기반 GPU가 최대 부하 시 단일 가속기 기준 소비 전력이 1천와트를 넘어설 가능성이 높다고 보고 있다. 이는 기존 공랭 기반 서버 설계로는 안정적인 운용이 어렵다는 의미로, 데이터센터 인프라 전반의 구조적 변화가 불가피하다는 평가다. 냉각 방식 변화는 이미 가시화되고 있다. 엔비디아는 베라 루빈 랙이 100% 액체 냉각을 전제로 설계됐다고 밝혔다. 특히 45도 섭씨의 고온수를 활용한 직접 수냉 방식으로 냉각할 수 있어 별도의 칠러 없이도 데이터센터 운영이 가능하다는 점을 강조하고 있다. 이러한 변화에 서버 제조사들도 발 빠르게 대응하고 있다. 슈퍼마이크로는 베라 루빈 NVL72 및 HGX 루빈 NVL8을 지원하는 수냉식 AI 서버를 공개하고 제조 역량과 냉각 기술을 확대하겠다는 전략을 내놨다. 고밀도 GPU 집적 환경에서 공랭의 한계를 넘어서는 직접 액체 냉각(DLC)이 핵심 경쟁력으로 부상하고 있다는 판단이다. 클라우드 사업자들의 준비도 본격화되는 모습이다. 아마존웹서비스(AWS)는 엔비디아 루빈 플랫폼을 자사 클라우드 인프라에 결합해 고객들에게 제공할 계획을 공식화했다. 기존 인프라에 GPU를 단순 추가하는 방식이 아니라 전력 밀도와 냉각 구조를 포함한 데이터센터 설계 전반을 재검토하는 단계에 들어갔다는 설명이다. 신흥 AI 인프라 기업인 '네오클라우드' 사업자들의 움직임도 눈에 띈다. 네비우스는 미국과 유럽 데이터센터를 기반으로 루빈 NVL72 시스템을 제공할 계획이며 코어위브는 올 하반기부터 루빈 NVL72 랙을 자사 AI 인프라에 도입할 예정이다. 이들 기업은 자체 오케스트레이션과 진단 플랫폼을 통해 고전력 AI 서버를 관리하는 전략을 택하고 있다. 이번 베라 루빈 발표는 향후 데이터센터 운영 전략에도 직접적인 영향을 미칠 전망이다. 고전력·고발열 AI 서버를 수용하기 위해 랙 단위 전력 인입 용량을 확대하고 수냉 전용 존을 별도로 설계하는 방안이 검토되고 있는 상황이다. 코로케이션 데이터센터 사업자들 역시 AI 고객 유치를 위해 전력 밀도와 냉각 역량을 핵심 경쟁 요소로 삼는 분위기다. 엔비디아는 루빈 아키텍처가 전력 효율 측면에서도 진전을 이뤘다고 설명했다. 내부 테스트 기준으로 루빈은 이전 세대인 블랙웰 대비 학습 성능은 3.5배, 추론 성능은 최대 5배 향상됐으며 토큰당 연산 비용도 크게 낮아졌다. 다만 전체 시스템 전력 사용량이 증가하는 만큼, 효율 개선과 물리적 한계 사이의 균형이 과제로 제기된다. 업계에서는 베라 루빈을 기점으로 AI 인프라 경쟁 양상이 달라질 것으로 보고 있다. 단순히 GPU 성능을 얼마나 빠르게 도입하느냐보다, 이를 안정적으로 운용할 수 있는 전력·냉각·운영 역량이 클라우드와 서버 업체의 경쟁력을 좌우하는 요소로 부상할 것이라는 분석이다. 데이터센터 냉각 전문기업 액셀시어스의 루카스 베란 제품 마케팅 디렉터는 "AI 서버 전력과 발열 수준이 공랭의 한계를 넘어서면서 액체 냉각은 더 이상 선택지가 아니다"라며 "베라 루빈은 데이터센터 냉각 방식 전환을 앞당기는 계기가 될 것"이라고 말했다.

2026.01.10 09:01한정호 기자

[AI는 지금] 배경훈, 'K-AI' 탈락 발표 앞두고 '공정 심사' 약속…정부 기준 '주목'

"독자 인공지능(AI) 파운데이션 모델 개발 프로젝트(K-AI) 평가는 객관적이고 공정하게 진행될 것입니다." 배경훈 과학기술정보통신부 장관이 '독자 AI 파운데이션 모델 개발 프로젝트' 1차 탈락자 발표를 앞두고 심사를 공정하게 할 것이란 의지를 드러냈다. 최근 평가 기준과 독자성 판단을 둘러싼 논쟁이 이어지는 가운데 정부가 명확한 기술 기준과 판단 체계를 갖춰 심사에 나서겠다는 메시지를 내놓은 것으로 풀이된다. 배 장관은 8일 자신의 소셜 미디어(SNS)를 통해 글로벌 오픈소스 AI 플랫폼 '허깅페이스'에서 독파모 모델들이 주목받고 있는 사례를 소개하며 오픈소스를 기반으로 각국이 AI '사용자'를 넘어 '개발자'가 될 수 있음을 강조했다. 배 장관은 "(우리나라의) 세계적 수준 AI 모델 (개발) 도전은 계속되고 있고 각종 지표에서의 반응도 긍정적"이라면서도 "(독파모) 평가는 윤리적 측면에서도 모두가 공감할 수 있어야 비로소 'K-AI' 타이틀을 유지하게 된다"고 언급했다. 배 장관의 이 발언은 단순한 원칙 선언을 넘어 독자 AI를 어떻게 정의하고 무엇을 기준으로 평가할 것인지에 대한 보다 명확한 기준 정립이 필요하다는 업계의 지적에 따른 것으로 분석된다. 또 정부가 이번 논란을 불식시키기 위해 공정한 기준으로 평가에 나설 것이란 의지를 드러낸 것으로도 보인다. 앞서 정부는 지난해 8월 네이버클라우드, 업스테이지, SK텔레콤, NC AI, LG AI연구원을 'K-AI' 국가대표로 선정한 바 있다. 오는 15일께 한 팀을 탈락시킬 1차 발표를 앞둔 상태로, 각 사가 제시한 목표치 도달 여부와 기술적 완성도, 독자성 등을 종합적으로 판단할 예정이다. 일단 정부가 지난해 'K-AI' 사업자 선정과 관련해 공개한 공문에선 해외 모델의 파인튜닝이나 파생형 개발은 독자 모델로 간주하지 않는다는 원칙을 제시했다. 그러나 구체적으로 명확한 기준을 제시하지 않아 업계에선 '독자성' 기준을 두고 혼선을 빚고 있다. 특히 최근에는 독자 모델 개발에서 중국을 포함한 해외 AI 모델의 아키텍처, 인코더, 학습 방식 등을 어디까지 활용할 수 있는지를 두고 논란이 가열되고 있다. 일각에선 글로벌 오픈소스 생태계에서 검증된 구조를 참고하는 것이 불가피하다는 의견도 있지만, 학습된 가중치나 핵심 모델을 그대로 사용하는 경우 독자성 판단이 달라질 수 있다는 반론도 만만치 않다.업계 관계자는 "독자 AI 파운데이션 모델을 가르는 핵심은 아키텍처가 아니라 가중치"라며 "구조는 참고할 수 있지만, 가중치를 처음부터 어떻게 학습했고 누가 통제하느냐가 소버린 AI의 기준"이라고 강조했다. 이어 "중국 모델을 구조로 가중치를 0으로 두고 재설계해 처음부터 자체 완전 학습을 시킨 경우라면 프롬 스크래치로 인정받을 수 있다"며 "하지만 기존 해외 모델의 가중치를 활용해 성능을 개선한 단계는 인정되지 않는다"고 덧붙였다. 그러면서 "AI 모델에서 비전·오디오 인코더 역시 지능의 핵심 요소"라며 "이를 미국, 중국 등 외부 모델에서 그대로 가져와 활용한 경우 독자 AI 모델로 정부가 바라봐선 안될 것"이라고 강조했다. 업계에선 정부가 글로벌에서 통용되고 있는 여러 기준들을 토대로 공정한 심사에 나설 수 있을지 주목하고 있다. 현재 글로벌 기술 문헌과 주요 연구 기관, 오픈소스 커뮤니티 등 여러 곳에서 공통적으로 지목하고 있는 '독자성' 기준은 ▲기존 모델의 학습된 가중치를 그대로 활용하거나 이를 기반으로 미세조정한 경우 ▲무작위 초기화 상태에서 독자 데이터와 학습으로 모델을 새롭게 구축한 경우로 나뉜다. 이는 IBM, 허깅페이스 등 주요 AI 플랫폼과 학계에서도 일반적으로 받아들여지고 있는 기준이다. 특히 특정 국가나 기업의 모델을 차용했는지 여부보다 그 결과물에 대한 통제권과 수정·개선 역량이 누구에게 있는지가 핵심 판단 요소로 꼽힌다.이 같은 논쟁은 최근 정부와 업계에서 확산되는 '소버린 AI' 논의와도 맞닿아 있다. 소버린 AI는 단순히 중국이나 미국 등 특정 국가의 모델을 쓰느냐의 문제가 아니라, 핵심 지능을 구성하는 가중치와 학습 과정에 대해 자국이 얼마나 통제권을 확보하고 있는가를 따지는 개념이다. 업계에선 이승현 포티투마루 부사장이 최근 공개한 '소버린 AI 2.0(T-클래스)' 분류체계가 하나의 참고 기준이 된다고 보고, 정부가 이를 반영해 심사에 나설 것을 희망했다. 이 분류체계는 AI 모델을 ▲설계(Code) ▲지능(Weights) ▲기원(Data)이라는 세 가지 요소로 나눠 단계별로 구분한다. 또 아키텍처 참조 자체보다 가중치를 처음부터 독자적으로 학습했는지를 중요한 분기점으로 삼는다. 업계 관계자는 "이 같은 접근이 중국 모델 차용 여부를 둘러싼 논쟁을 감정적 공방이 아닌, 기술적·제도적 판단의 문제로 전환할 수 있다"며 "정부가 명확한 기준을 제시하고 이를 일관되게 적용한다면 불필요한 오해와 소모적 논쟁도 자연스럽게 줄어들 것"이라고 말했다. 전문가들은 배 장관이 강조한 '객관적이고 공정한 심사'가 실질적인 의미를 가지려면 최종 선정 결과보다 판단 기준과 적용 과정이 명확히 설명되는 것이 중요하다고 지적했다.

2026.01.08 15:55장유미 기자

칵테일아이오-클로아이, AI 클라우드 동맹 구축…공공·민간 확산 시동

칵테일아이오가 인공지능(AI) 기반 비전 및 거대언어모델(LLM) 전문기업 클로아이와 손잡고 AI 클라우드 시장 활성화에 박차를 가한다. 칵테일아이오는 클로아이와 AI 클라우드 시장 개척 및 성장을 위한 전략적 업무협약(MOU)을 체결했다고 18일 밝혔다. 최근 양사는 대형 공공기관의 클라우드 네이티브 전환 사업을 공동으로 수행해 완료한 바 있다. 이를 기반으로 향후 전개될 클라우드 네이티브 관련 사업에서도 전략적 협력 관계를 더욱 강화해 나갈 계획이다. 이번 협약에 따라 ▲AI 클라우드 시장 확대를 위한 공동 전략 수립 ▲기술·정보 교류 강화 ▲고객 가치 창출을 위한 협업 체계 구축 등 다양한 분야에서 상호 협력이 추진된다. 특히 클로아이의 AI·LLM·클라우드 네이티브 아키텍처 전문성과 칵테일아이오의 서비스형 플랫폼(PaaS) 기반 클라우드 네이티브 기술력을 결합해 시장 경쟁력을 높이고 공동의 성장을 도모한다는 전략이다. 협약의 첫 단계로 양사는 다음 달 16일 '마이크로서비스 아키텍처(MSA) 전환으로 완성하는 클라우드 네이티브 성공전략'을 주제로 공동 콜라보 웨비나를 개최한다. 웨비나에선 클라우드 네이티브 환경 전환에 필요한 기술적 인사이트와 실질적인 적용 전략을 제시할 예정이다. AI 기반 아키텍처 적용 사례와 PaaS 플랫폼 활용 방안을 중심으로 구성해 대형 공공기관 프로젝트의 성공 경험과 주요 인사이트를 최초로 공개한다. 양사는 향후에도 AI·클라우드 기반 사업 영역을 확대하며 다양한 공동 기술 세미나·고객 협업·플랫폼 연계 사업 등 중장기적 비즈니스 시너지를 지속적으로 창출해 나갈 계획이다. 김성룡 클로아이 대표는 "우리 솔루션의 핵심인 AI·LLM 기술과 ML옵스, LLM옵스로 이어지는 클라우드 아키텍처 구축 역량과 칵테일아이오의 클라우드 네이티브 기술력이 결합하면 기업의 AI·클라우드 전환 속도를 획기적으로 높일 수 있다"며 "이번 협약을 통해 시장에서 요구하는 통합형 AI 클라우드 전략을 함께 제시해 나갈 것"이라고 말했다. 이영수 칵테일아이오 대표는 "AI 클라우드 시장은 기술 완성도와 실제 적용 가능성이 모두 요구되는 영역"이라며 "양사의 협력은 고객의 성공적인 디지털 전환을 견인하는 중요한 이정표가 될 것"이라고 강조했다.

2025.11.18 18:06한정호 기자

윈드리버, 블랙박스 손잡고 엣지·클라우드 전환 '가속'

윈드리버가 블랙박스와 손잡고 산업·제조·소매·금융·자동차·통신 산업 전반의 클라우드 전환과 엣지 인프라 혁신을 가속화한다. 윈드리버는 블랙박스와 전략적 파트너십을 체결하고 다양한 시장에 차세대 지능형 엣지 및 프라이빗 클라우드 솔루션을 제공한다고 20일 밝혔다. 이번 협업을 통해 윈드리버는 마이그레이션 기능을 갖춘 '윈드리버 클라우드 플랫폼'과 엔터프라이즈 리눅스 'eLxr 프로'를 블랙박스의 글로벌 통합 역량 및 고객 접근 방식과 결합한다. 이를 기반으로 기업의 인프라 현대화와 운영 혁신을 지원할 계획이다. 윈드리버 클라우드 플랫폼은 가상화·컨테이너화된 애플리케이션을 위한 분산형 쿠버네티스 솔루션으로, 자동화와 분석 기능을 통해 복잡한 클라우드 아키텍처를 효율적으로 운영할 수 있도록 돕는다. 오픈소스 기반의 eLxr 프로는 엔터프라이즈급 보안과 장기 지원을 제공해 클라우드에서 엣지까지 확장 가능한 안정적인 인프라 환경 구축을 지원한다. 블랙박스는 윈드리버와의 계약을 바탕으로 통합 엣지 인프라 구축, 중앙 집중식 오케스트레이션, 인공지능(AI) 워크로드 지원 등 다양한 영역에서 기술 협업을 이어갈 예정이다. 윈드리버 대럴 조던 스미스 최고매출책임자(CFO)는 "이번 파트너십을 통해 고객은 신뢰할 수 있는 시스템 통합, 운영 지원, 배포 범위가 뒷받침되는 검증된 고성능 엣지 및 클라우드 아키텍처를 더 빠르게 구현할 수 있다"며 "이를 통해 혁신을 가속화하고 위험을 줄이며 클라우드에서 엣지를 잇는 전체 환경을 더 스마트하게 운영할 수 있다"고 강조했다. 산지브 베르마 블랙박스 최고경영자(CEO)는 "윈드리버와 함께 통합 전문성을 결합해 효율성을 높이고 혁신을 앞당기며 새로운 수익원을 창출하는 데 유리한 입지를 확보하게 됐다"며 "이번 파트너십을 통해 하이퍼컨버지드 및 엣지 컴퓨팅에 진출함으로써 디지털 인프라 혁신의 선두에서 장기적인 가치를 창출하고자 한다"고 말했다.

2025.10.20 17:48한정호 기자

델 테크놀로지스 "AI 성공, 인프라가 좌우한다"…차세대 기술 전략 공개

"최고의 인공지능(AI) 모델도 적절한 인프라 없이는 속도와 효율 면에서 뒤처질 수밖에 없습니다. 엔드투엔드 포트폴리오와 개방형 생태계를 통해 기업들의 AI 도입 여정을 적극 지원하겠습니다." 김경진 델 테크놀로지스 한국 총괄사장은 17일 서울 삼성동 코엑스에서 열린 '델 테크놀로지스 포럼 2025'에서 이같이 강조했다. 이날 행사에는 업계 관계자·고객사·파트너사·학생 등 1만여 명이 참석했으며 AI를 주제로 한 기조연설과 세션, 체험 부스 전시 진행돼 성황을 이뤘다. 기조연설을 맡은 델 테크놀로지스 비벡 모힌드라 수석부사장은 AI 전략의 핵심으로 데이터 중심 접근법을 강조했다. 그는 "전세계 기업들이 AI 도입의 필요성을 인식하고 있지만 준비된 조직은 많지 않다"며 "AI를 데이터에 가까운 곳으로 가져가야 하며 데이터센터나 엣지에서 워크로드를 수행하는 편이 62% 이상 비용 효율적"이라고 설명했다. 모힌드라 부사장은 델의 AI 전략을 뒷받침하는 5가지 신념을 공유했다. ▲데이터 우선 ▲엣지 데이터 활용 ▲용도별 최적 모델 활용 ▲개방형 모듈형 아키텍처 ▲광범위한 파트너 생태계다. 그는 "대형 AI 모델 하나로는 모든 문제를 해결할 수 없으며 특정 목적에 맞춘 소형 모델들이 더 빠르고 효과적일 수 있다"며 "이미 3천여 고객사가 '델 AI 팩토리'를 통해 다양한 AI 도입 사례를 구현했다"고 밝혔다 또 급증하는 데이터센터 전력 소모 문제를 지적하며 냉각 에너지를 60% 절감할 수 있는 '리어 도어 히트 익스체인저(eRHDx)' 기술을 소개했다. 유상모 델 테크놀로지스 부사장은 데이터 폭증에 대응하는 분리형 데이터센터 아키텍처와 차세대 AI PC의 필요성을 강조했다. 그는 "AI PC는 직원들의 높은 기대치 충족, 비용 효율성 확보, 데이터 및 개인정보 보호 강화라는 세 가지 이유에서 반드시 주목해야 할 혁신"이라고 말했다. 델은 신경망처리장치(NPU)를 탑재한 델 프로 AI PC 시리즈와 검증된 개발 툴 모음인 AI 스튜디오를 통해 기업들이 AI 워크로드를 최대 75% 빠르게 구현할 수 있다고 설명했다. 아울러 PC부터 데이터센터, 클라우드까지 이어지는 전 영역의 포트폴리오를 통해 AI 인프라를 종합적으로 지원하겠다는 전략을 제시했다. 외부 연사들도 AI 혁신 사례를 공유했다. 김재원 엘리스그룹 최고경영자(CEO)는 그래픽처리장치(GPU) 수급 부족 속에서 3개월 만에 구축 가능한 AI 특화 모듈러 데이터센터를 소개하며 온프레미스와 퍼블릭 클라우드 사이의 새로운 해법이라고 설명했다. 이교구 수퍼톤의 CEO는 청중과 함께 진화하는 보이스 AI 기술을 시연하며 기술과 창의성의 결합 가능성을 제시했다. 국내 파트너사들도 대거 참여해 현장의 열기를 더했다. 코오롱베니트는 데이터 보호와 'AI 인 어 박스' 패키지 솔루션을, 인성정보는 델 파워플렉스 기반 하이퍼컨버지드 인프라 성과를, 이노그리드는 멀티 클라우드 관리 플랫폼 '탭클라우드잇'을 전시했다. 김경진 사장은 "AI 기술이 매일 바뀌는 가운데 우리는 고객의 긴 AI 도입 여정을 돕겠다"며 "국내외 파트너들과 함께 AI 인프라와 솔루션의 도입·확장을 지원할 것"이라고 강조했다.

2025.09.17 13:39한정호 기자

[크리스의 SW아키텍트⑭] 반복되는 전산 먹통 해법은?...코드가 문제 아니다

최근 몇 년간 우리는 국가 행정망, 홈택스, 공공 앱 등 대국민 서비스가 예고 없이 멈춰서는 '먹통' 사태를 반복적으로 경험했다. 그때마다 정부는 임시방편으로 서버를 증설하고 코드를 수정했지만, 근본적인 문제는 해결되지 않은 채 또 다른 장애를 예고하고 있다. 이 문제의 뿌리는 개별 시스템의 오류가 아니다. 지난 20년간 대한민국 전자정부를 지탱해 온 아키텍처의 구조적인 한계와 그로 인해 누적된 거대한 '기술 부채'가 문제다. 대한민국 전자정부 발전을 이끈 '전자정부 표준프레임워크'는 분명 큰 성과를 거뒀다. 특정 기술과 업체에 대한 종속성을 줄이고 개발 표준을 확립해 IT 생태계에 기여한 공은 지대하다. 하지만 10년이면 강산도 변하는 기술의 세계에서, 이 프레임워크는 이제 혁신을 가로막는 기술적 족쇄가 돼가고 있다. 스프링(Spring) 특정 버전에 기반한 이 거대한 단일 구조(Monolithic)는 클라우드 네이티브, 마이크로서비스, 그리고 AI 에이전트와 같은 현대적인 아키텍처 패러다임을 수용하기에는 너무 무겁고 경직돼 있다. 여기에 '망 분리' 라는 정책적 특수성은 문제를 더욱 악화시킨다. 보안을 위해 내부 업무망과 외부 인터넷망을 분리하는 것은 당연한 조치이지만, 이는 부처 간 데이터의 벽을 더욱 높이는 결과를 낳았다. 민간 기업이 클라우드 기반의 최신 AI 서비스를 자유롭게 활용하며 데이터 사일로를 허물기 위해 노력하는 동안, 공공 부문은 물리적으로 단절된 인프라 안에서 데이터를 연계하는 것조차 거대한 도전이 됐다. 이는 AI의 연료인 데이터가 흐르지 못하게 막는 동맥경화와 같다. 이러한 구조적 문제 위에서 AI를 도입하려는 시도는 밑 빠진 독에 물 붓기와 같다. 예를 들어, AI 기반의 맞춤형 복지 서비스를 제공한다고 가정해보자. 한 국민에게 최적의 서비스를 추천하기 위해서는 보건복지부, 고용노동부, 국세청 등 여러 부처의 데이터가 실시간으로 필요하다. 하지만 현재의 아키텍처에서는 각 부처의 데이터를 API로 즉시 연계하는 것이 아니라, EAI나 ESB와 같은 낡은 연계 기술을 통해 배치(Batch) 방식으로 데이터를 주고받는 것이 현실이다. AI가 어제 데이터를 가지고 오늘의 문제를 해결하려는 셈이다. 물론 정부도 이러한 문제점을 인식하고 변화를 모색하고 있다. 대통령 직속 '디지털플랫폼정부 위원회(디플정)'를 중심으로 부처 간 데이터의 칸막이를 허물고, 공공 데이터를 API 형태로 적극 개방해 민간과 협력하는 생태계를 만들려는 노력이 대표적이다. 이는 '하나의 정부'를 지향하며 데이터 기반의 과학적 행정을 구현하려는 올바른 방향이다. 하지만 이러한 정책적 비전이 현장에서 성공적으로 구현되기 위해서는, 이를 뒷받침할 수 있는 기술적 청사진, 즉 아키텍처의 근본적인 혁신이 반드시 병행돼야 한다. SW 아키텍트로서 이 난제를 해결하기 위한 해법은 명확하다. 첫째, 전자정부 표준프레임워크의 점진적 해체(Decomposition)를 시작해야 한다. 모든 시스템을 한 번에 바꾸는 '빅뱅' 방식은 또 다른 재앙을 낳을 뿐이다. 국민 체감도가 높은 핵심 서비스부터 마이크로서비스(MSA)와 이벤트 기반 아키텍처(EDA)로 전환, 표준프레임워크라는 거대한 모체에서 점진적으로 분리해내는 '스트랭글러 피그(Strangler Fig)' 전략이 필요하다. 둘째, 망 분리 환경의 한계를 극복하기 위한 '보안 API 게이트웨이(Secure API Gateway)' 를 중심으로 한 데이터 허브 구축이 시급하다. 이는 물리적 망은 분리하되, 엄격한 인증과 권한 관리, 그리고 모든 데이터 흐름에 대한 감사 추적이 가능한 논리적 '데이터 고속도로'를 만드는 것이다. 이를 통해 민간의 '데이터 메시'처럼 각 부처가 자신의 데이터를 안전하게 '상품'으로 제공하고, 다른 부처는 이를 API를 통해 실시간으로 소비하는 '통제된 상호운용성(Controlled Interoperability)' 을 확보할 수 있다. 셋째, 이 모든 변화의 중심에는 AI의 판단을 신뢰하고 책임질 수 있는 '설명가능 AI(XAI)' 아키텍처가 전제되어야 한다. AI가 특정인에게 복지 혜택을 추천했다면, 어떤 법령과 어떤 데이터를 근거로 그런 결정을 내렸는지 투명하게 설명할 수 있어야 행정의 신뢰성이 담보된다. 이는 기술을 넘어 민주주의의 원칙을 아키텍처로 구현하는 것이다. 결국 공공 서비스의 혁신은 단순히 새로운 AI 기술을 도입하는 것을 넘어, 과거의 성공 방정식이었던 낡은 아키텍처를 과감히 재설계하는 용기에서 시작된다. 이러한 원칙은 국가 안보와 직결된 국방 분야에서 OODA 루프(관찰-판단-결심-행동)를 AI로 구현할 때 더욱 중요해진다. 지금까지 우리는 다양한 산업 현장에서 AI가 요구하는 아키텍처의 변화를 살펴보았다. 하지만 이 모든 기술의 중심에는 결국 '사람'이 있다. 다음 편에서는 이 모든 혁신이 궁극적으로 인간의 삶을 어떻게 향상시켜야 하는지, '인간 중심의 SW 아키텍처' 에 담긴 철학과 윤리에 대해 깊이 있게 논의해보고자 한다. ◆ 나희동 크리스컴퍼니 대표는... -정보관리기술사 (54회), SW아키텍트 (CPSA), 수석감리원 -전남대학교 산업공학과, 서울과학기술대학교 컴퓨터공학 석사 -CMU SEEK 1기 MSE, UTD SW MBA 수료 -전/투이컨설팅 SW아키텍처 담당 이사, 마르미III 개발참여 -전/싸이버로지텍 기술연구소 및 플랫폼사업본부 상무 -전/동양시스템즈 솔루션사업본부 본부장

2025.09.14 08:06나희동 컬럼니스트

[인터뷰] '로봇 페퍼'의 아버지 "현재 AI는 가짜…韓과 손잡고 美·中 넘겠다"

"현재의 인공지능(AI)는 막대한 데이터와 에너지에 의존하는 통계 기계일 뿐 진정한 지능이 아닙니다. 우리는 인간의 뇌처럼 적은 에너지로 스스로 학습하고 '이해'하는 차세대 AI, '오가닉 AI'를 통해 이 한계를 넘어서고자 합니다. 한국과 같은 기술 강국과 손잡고 미국과 중국이 주도하는 현 AI 경쟁의 판도를 바꾸고 싶습니다." 브루노 메조니에 어나더브레인 최고경영자(CEO)는 9일 서울 종로구 락고재에서 열린 '오가닉 AI' 출간 기념 기자간담회에서 이같이 말했다. 그는 이날 인간의 뇌 구조에서 영감을 받은 차세대 AI 모델 '오가닉 AI'를 국내에 처음 소개했다. 메조니에 CEO는 휴머노이드 로봇의 세계적인 선구자로 꼽힌다. 그는 지난 2005년 알데바란 로보틱스를 설립해 세계적으로 유명한 휴머노이드 로봇 '나오'와 '페퍼'를 탄생시켰다. 이후 회사를 일본 소프트뱅크 그룹에 매각하기까지 서비스 로봇 시장을 개척하며 '페퍼의 아버지'라는 별칭을 얻었다. 메조니에 CEO는 현재 주류인 딥러닝과 거대언어모델(LLM)이 막대한 데이터와 전력을 소모하는 통계 모델에 불과하며 진정한 지능이 아니라고 선을 그었다. 그는 과거 자신이 개발한 로봇들이 주변 상황을 이해하지 못했던 한계를 지적하며 기존 AI 기술의 근본적인 문제점을 극복하기 위해 오가닉 AI를 개발했다고 강조했다. "통계뿐인 AI는 가라"…뇌처럼 '생각'하는 오가닉 AI 온다 어나더브레인의 오가닉 AI는 기존 AI가 1960년대 이론에 기반한 '인공신경망'을 모방한 것과 근본부터 다르다. 실제 인간의 뇌가 정보를 처리하는 핵심 영역인 대뇌피질의 에서 영감을 받아 설계됐기 때문이다. 그는 실제 뇌는 뉴런이 스파게티처럼 얽힌 구조가 아니라고 단언했다. 대신 110여 개 뉴런으로 구성된 초소형 정보처리 단위 '마이크로컬럼(Microcolumn)'이 네트워크처럼 연결돼 지능을 발현한다고 설명했다. 이 구조는 1981년 노벨상 수상 연구를 통해 입증된 과학적 사실이다. 이 '마이크로컬럼'은 뇌의 모든 영역에서 동일하게 발견된다. 시각 정보가 입력되면 시각을 처리하고 청각 신호가 들어오면 소리를 인지하는 식이다. 이는 단 하나의 알고리즘이 모든 종류의 정보를 이해하고 처리하는 '스위스 군용 칼(Swiss Army Knife)' 같은 역할을 할 수 있다는 의미다. 메조니에 CEO가 이 같은 확신을 얻게 된 계기는 한국과 인연이 깊다. 그는 과거 한 콘퍼런스에서 만난 김대식 카이스트 교수의 추천으로 세계적인 AI 연구자인 제프 호킨스의 저서 '지능에 대해서(On Intelligence)'를 접한 뒤 인생이 바뀌었다고 회고했다. 이를 통해 인간 뇌 지능의 작동 원리에 대한 깊은 통찰을 얻었다. 이러한 뇌 구조의 장점은 압도적인 효율성이다. 오가닉 AI는 수십억 개 이상의 데이터를 요구하는 기존 AI와 달리 소량의 데이터만으로도 즉각적인 학습이 가능하다고 메조니에 CEO는 설명했다. 그는 "외계인이 등장하는 영화를 처음 볼 땐 놀라지만 두 번째부터는 바로 알아본다"며 "뇌는 그렇게 작동한다"고 말했다. 오가닉 AI가 실현될 경우 AI의 전력 소모량 역시 혁신적으로 절감될 것으로 기대된다. 인간의 뇌가 지능 활동에 단 5와트(W)의 에너지를 사용하는 것처럼 오가닉 AI는 메가와트(MW)가 아닌 밀리와트(mW) 단위의 초저전력으로 구동된다는 설명이다. 어나더브레인은 이 기술을 클라우드 연결 없이 독립적으로 작동하는 반도체 칩 형태로 구현할 계획이다. 이 칩이 상용화되면 인터넷 연결이 없는 환경에서도 기기 스스로 생각하고 판단하는 진정한 '자율 AI' 시대가 열린다는 것이다. 회사는 이론을 현실로 증명하기 위한 데모 개발에 박차를 가하고 있다. 지난 7월 이미 절반을 완성했으며 연말까지 최종 버전을 선보이는 것이 목표다. 향후 스마트 센서를 비롯해 자율주행차, 드론, 위성 등 다양한 산업 분야에 오가닉 AI 칩이 탑재될 것으로 기대된다. 한 번도 겪어보지 못한 돌발 상황에서도 스스로 최적의 결정을 내리는 것이 핵심 경쟁력이라는 설명이다. 어나더브레인은 이를 위해 내년을 중요한 변곡점으로 삼고 있다. 본격적인 투자 유치와 함께 칩 생산 및 센서 분야의 글로벌 대기업과 파트너십을 구축해 시장을 선점하겠다는 것이 회사의 전략이다. 메조니에 CEO "최종 목표는 AGI…결과로 증명할 것" 이어진 기자와의 질의응답에서는 오가닉 AI의 실체와 미래에 대한 질문이 쏟아졌다. 특히 현재까지의 개발 성과를 묻는 말에 메조니에 CEO는 강한 자신감을 내비쳤다. 그는 "현재 결과물에 매우 만족하기에 이 자리에 올 수 있었다"며 "우리 이사회조차 결과에 놀라워했다"고 밝혔다. 메조니에 CEO에 따르면 현재까지 완성된 데모는 두 가지 핵심 성과를 입증했다. 기존 거대언어모델(LLM)이 수많은 데이터를 사전학습해야 하는 것과 달리 ▲실시간 학습이 가능하다는 점과 ▲하나의 시스템으로 시각과 청각 정보를 동시에 처리할 수 있다는 점이다. 그는 "투자자들이 '너무 아름다워서 사실 같지 않다'고 말해 증명이 필요했다"며 "연말까지 선보일 데모의 목표는 명확하다"고 설명했다. 어나더브레인은 올해 하반기에 최종 데모를 통해 단순히 사람을 인식하는 것을 넘어 '두 사람이 발표하고 있다'는 식의 상황의 맥락과 목적까지 이해하는 추상적 사고 능력을 가진 아키텍처를 선보일 예정이다. 시장 선두주자인 엔비디아의 로봇 칩 출시 등 빅테크와의 경쟁 구도에 대한 질문도 나왔다. 이에 메조니에 CEO는 데모가 아직 개발 중이라 상용 계약은 없다고 인정하면서도 오가닉 AI만이 가질 수 있는 경쟁력을 피력했다. 일례로 프랑스 국방부는 현재 어나더브레인의 위성 방어 시스템 기술에 큰 관심을 보이고 있다. 기존에 없던 새로운 방식의 공격에 계속 노출되는 국방 분야에서는 과거 데이터에 의존하는 딥러닝 AI가 명확한 한계를 드러내기 때문이다. 오가닉 AI는 데이터가 거의 없는 미지의 상황에서도 스스로 판단하고 대응할 수 있어 현재 트랜스포머 기술과는 달리 독자적인 시장을 공략할 수 있다는 설명이다. 어나더브레인의 장기적인 목표는 범용인공지능(AGI)이다. 메조니에 CEO는 "작은 칩은 진공청소기에, 크고 밀도 높은 칩은 자율주행차에 탑재하는 등 확장 가능한 형태가 될 것"이라고 강조했다. 미래 로봇의 기능에 대해서는 '유추 기반 의사결정'이 핵심이 될 것이라고 내다봤다. 인간의 뇌는 항상 다음에 일어날 일을 예측하고 예측이 빗나갈 때 주의를 기울이는데 오가닉 AI가 과거 경험과 유사성을 바탕으로 미래를 예측하고 스스로 행동하는 것이 가능해질 것이라는 설명이다. 메조니에 CEO는 마지막으로 한국 시장의 중요성을 거듭 강조했다. 그는 "한국과 프랑스는 미국과 중국에 뒤처진 AI 경쟁에서 같은 상황에 놓여있다"며 "이 레이스에서 다시 승리하려면 차세대 기술로 바로 점프해야만 한다"고 말했다.

2025.09.09 14:49조이환 기자

투라인클라우드, MSA·DaaS 강화로 국내외 클라우드 시장 공략 박차

투라인클라우드가 사업 다각화와 브랜드 리뉴얼을 바탕으로 국내외 클라우드 시장에서 영향력을 확대하고 있다. 투라인클라우드는 마이크로서비스아키텍처(MSA)와 서비스형 데스크톱(DaaS)을 양대 축으로 삼아 공공·금융·기업 고객을 동시에 겨냥하며, 안정성과 혁신성을 두루 갖춘 클라우드 기업으로 자리매김할 계획이라고 28일 밝혔다。 투라인클라우드는 지난해 말 NHN크로센트의 서비스형 데스크톱 사업부를 인수하며 가상 데스크톱 서비스 역량을 대폭 강화했다. NHN크로센트는 보안과 안정성을 기반으로 한 다수의 가상 데스크톱 구축·운영 경험을 보유해왔던 만큼 이번 인수를 통해 투라인클라우드는 공공과 금융 분야의 엄격한 보안 요건을 충족하는 동시에 민간기업과 중소·중견기업에도 비용 효율적인 가상 데스크톱 서비스를 제공할 수 있는 기반을 마련했다. 올해 초에는 오픈마루와 손잡고 인공지능 기반 마이크로서비스 전환 플랫폼 '엠에스에이피.ai'를 공동 출시했다. 이 플랫폼은 애플리케이션 설계, 개발, 배포, 운영 등 마이크로서비스 전환 전 과정을 인공지능으로 자동화해 복잡한 환경에서도 안정성과 효율성을 보장한다. 공공과 민간을 아우르는 애플리케이션 현대화와 클라우드 네이티브 전환 수요가 증가하는 가운데 '엠에스에이피.ai'는 디지털 전환을 촉진하는 핵심 솔루션으로 주목받고 있다. 브랜드 차원의 변화도 병행됐다. 투라인클라우드는 지난봄 사명을 '투라인코드'에서 '투라인클라우드'로 바꾸며 '클라우드 중심 기술 기업'이라는 정체성을 강화했다. 이를 통해 고객 접점을 넓히고 브랜드 인지도를 높여 시장 공략 속도를 끌어올린다는 계획이다. 현재 투라인클라우드는 마이크로서비스 전환 솔루션 '투라코', 인공지능 자동화 플랫폼 '엠에스에이피.ai', 서비스형 데스크톱 플랫폼 '하이퍼덱스'를 중심으로 애플리케이션 현대화, 원격 근무 환경 구축, 보안 중심의 클라우드 인프라 제공 등 폭넓은 서비스 포트폴리오를 갖췄다. 특히 망 분리, 데이터 로컬 저장 금지, 외부 서비스형 소프트웨어(SaaS) 접근 통제 등 공공·금융권 특화 보안 요구를 충족하면서, 민간 시장에서도 유연하고 경제적인 대안을 제시하고 있다. 현승엽 투라인클라우드 대표는 "NHN크로센트 서비스형 데스크톱 사업부 인수, 엠에스에이피.ai 출시, 사명 변경은 단발적 이벤트가 아니라 성장 로드맵의 일부"라며 "브랜드 인지도를 강화하는 동시에 국내외 디지털 전환 시장에서 영향력을 더욱 넓혀가겠다"고 강조했다.

2025.08.28 14:25남혁우 기자

[크리스의 SW아키텍트⑪] 4300조 금융...AI혁신, 낡은 아키텍처가 발목

지난 10편에 걸쳐 AI 시대를 맞이하는 기업이 기술 부채를 넘어 '데이터 메시'와 '컨텍스트 아키텍처'를 통해 어떻게 '실행 중심 시스템 (SoA)'으로 나아갈 수 있는지 살펴봤다. 이러한 아키텍처 혁신 필요성은 특정 산업에 국한되지 않는다. 특히 가장 거대하고 가장 절실히 변화의 압력을 받는 곳이 있다. 바로 3.1조 달러(약 4300조 원) 규모의 AI 혁신이 예고된 금융 산업이다. 금융권은 지금 AI라는 거대한 파도 앞에서 지난 수십 년간 쌓아 올린 견고한 성채, 즉 레거시 시스템이 오히려 생존을 위협하는 족쇄가 되는 역설적인 상황에 직면해 있다. 금융만큼 AI의 잠재력이 큰 분야도 드물다. 실시간 사기 탐지(FDS), 초 단위로 움직이는 알고리즘 트레이딩, 고객 개개인의 신용도를 정밀히 평가하는 신용평가 모델, 그리고 자산 관리 서비스까지, AI는 금융의 모든 영역에서 인간의 한계를 뛰어넘는 정확성과 속도를 약속한다. 하지만 이러한 눈부신 미래의 이면에는 어두운 현실이 존재한다. 실제로 금융 전문 리서치 기관인 PYMNTS Intelligence가 Galileo와 협업해 발간한 'The New Digital Banking Tracker' 보고서에 따르면, 금융기관의 75%가 낡은 디지털 뱅킹 인프라 문제로 새로운 금융 솔루션 도입에 어려움을 겪고 있으며, 바로 이 레거시 시스템이 AI 도입의 가장 큰 발목을 잡고 있다고 분석한다. 이는 마치 최첨단 자율주행 엔진을 수십 년 된 증기 기관차에 얹으려는 시도와 같다. 문제의 핵심은 금융권의 레거시 시스템이 '안정성'과 '기록'을 최우선 가치로 설계된 '기록 중심 시스템(system of Record, SoR)' 이라는 데 있다. 수십 년 전 메인프레임 환경에서 탄생한 이 시스템들은 트랜잭션의 정확한 기록과 보관에는 뛰어나지만, AI 시대가 요구하는 실시간 데이터 스트리밍, 동적인 워크로드 처리, 그리고 끊임없는 실험과 학습에는 구조적으로 부적합하다. 데이터는 상품별, 채널별로 분리된 사일로에 갇혀 있고, 통합된 모놀리식(Monolithic) 구조는 특정 기능을 개선하거나 새로운 AI 서비스를 추가하는 것을 극도로 어렵게 만든다. 물론 금융권도 지난 몇년전부터 AI를 활용해왔다. SoR에 쌓인 방대한 데이터를 분석해 사기 거래 패턴을 찾아내거나 고객을 분류하는 등 '통찰 중심 시스템(system of Insight, SoI)' 을 구축하려 노력했다. 하지만 이는 대부분 과거 데이터를 분석해 '사후적' 통찰을 얻는 수준에 머물렀다. AI가 진정한 가치를 발휘하려면, 통찰을 넘어 고객의 목표 달성을 위해 실시간으로 움직이는 '실행 중심 시스템(system of Action, SoA)' 으로 진화해야 한다 . 이렇게 되면 고객이 단순한 소비자에서 프로슈머를 넘어 기업의 시스템과 함께 새로운 가치를 생산하는 공동가치 창출경험을 공유하는 새로운 기업구조가 가능해진다. 이러한 상황에서는 톱다운(Top-Down)방식 엔터프라이즈 아키텍처(EA)의 한계가 드러난다. 예측 가능한 시스템을 위해 오랜 시간 공들여 청사진을 그리는 TOGAF나 Zachman 같은 전통적 프레임워크는, 살아있는 데이터를 먹고 끊임없이 변화하며 학습해야 하는 AI의 속성을 담아낼 수 없다. 따라서 금융권에는 완전히 새로운 설계 철학인 소위 가트너에서 주창하고 있는 '복합 적응형(Composite Adaptive Architecture, CAA)'가 필요하다. 이는 AI가 시스템의 일부가 아니라, 시스템 자체가 AI의 두뇌처럼 작동하도록 설계하는 것을 의미한다. 이 새로운 아키텍처의 핵심 원칙을 REVOC 프레임워크로 요약할 수 있다. 이는 실시간(Real-Time), 이벤트 기반(Event-Driven), 다기능성(Versatile), 조율(Orchestrated), 그리고 상황인지(Contextual)의 앞 글자를 딴 것으로, AI 시대 금융 아키텍처가 나아갈 방향을 제시한다. 데이터는 더 이상 하루에 한 번 배치로 처리되는 것이 아니라, 밀리초 단위의 실시간으로, 고객의 행동이라는 이벤트에 즉각 반응해야 한다. 아키텍처는 정형, 비정형 등 모든 종류의 데이터를 소화할 수 있도록 다기능성을 갖춰야 하며, 수많은 AI 에이전트와 마이크로서비스들이 고객의 목표를 위해 일사불란하게 조율돼야 한다. 그리고 이 모든 것의 중심에는 고객의 과거와 현재, 의도까지 파악하는 깊은 상황인지 능력이 자리 잡고 있어야 한다. 결국 금융권이 진정한 AI 네이티브로 거듭나기 위해서는 기존 시스템에 AI 기능을 덧붙이는 수준을 넘어, 데이터 메시(Data Mesh), 지속적 컨텍스트 계층(Contextual Persis-tency Layer), 그리고 마이크로서비스 아키텍처(MSA) 및 클라우드 네이티브(Cloud Native) 라는 세 기둥을 중심으로 시스템의 체질을 완전히 개선해야 한다. 물론 이는 수십 년간 운영해 온 시스템의 심장을 바꾸는 것과 같은 고통스럽고 비용이 많이 드는 과정이다. 하지만 선택의 여지가 없다. AI라는 혁명적인 기술은 금융 산업에 전례 없는 기회를 제공하는 동시에, 과거의 기술 부채를 더 이상 외면할 수 없도록 만드는 강력한 '청구서'를 보내고 있다. 이 청구서에 응답해 아키텍처의 근본적인 혁신을 선택하는 금융기관만이 미래의 승자가 될 것이다. 다음 편에서는 AI 혁신이 제조업과 같은 전통적인 기업이 AI 네이티브로 전환하기 위해 어떤 아키텍처적 과제에 직면해 있는지 구체적으로 살펴보겠다. ◆ 나희동 크리스컴퍼니 대표는... -정보관리기술사 (54회), SW아키텍트 (CPSA), 수석감리원 -전남대학교 산업공학과, 서울과학기술대학교 컴퓨터공학 석사 -CMU SEEK 1기 MSE, UTD SW MBA 수료 -전/투이컨설팅 SW아키텍처 담당 이사, 마르미III 개발참여 -전/싸이버로지텍 기술연구소 및 플랫폼사업본부 상무 -전/동양시스템즈 솔루션사업본부 본부장

2025.08.23 16:37나희동 컬럼니스트

Arm, 아마존 AI반도체 책임자 영입…자체 칩 개발 본격화

반도체 설계기업 Arm이 아마존 출신 핵심 인재를 영입하며 자체 칩 개발에 속도를 내고 있다. 20일 로이터통신 등 외신에 따르면 Arm은 최근 아마존에서 AI반도체 개발 디렉터를 맡아온 라미 시노(Rami Sinno)를 새 임원으로 선임했다. 시노는 아마존의 AI 학습용 칩 트라니움과 추론용 칩 인퍼런티아 개발을 주도한 인물로, 업계에서 'AI 전용 하드웨어' 설계 경험을 두루 갖춘 전문가로 평가받는다. 그동안 Arm은 직접 칩을 만들지 않고, CPU 아키텍처와 IP(설계자산)를 설계해 애플·엔비디아 등 글로벌 고객사에 라이선스하는 방식으로 수익을 내왔다. 하지만 최근 르네 하스 CEO는 “칩렛(chiplets)과 완전한 시스템 제작 가능성을 검토 중”이라며 사업 확장 의지를 드러냈다. Arm의 이 같은 전략 전환은 소프트뱅크 그룹(SoftBank) 산하에서 수익 다변화를 꾀하는 차원으로 해석된다. Arm 기술은 전 세계 스마트폰에 널리 사용되고 있으며, 데이터센터 시장에서도 AMD·인텔과 경쟁하며 점유율을 확대하고 있다. 이번 시노 영입을 계기로 Arm은 고객사와의 협력 구조에서 직접 경쟁자로 부상할 수 있다는 관측도 나온다. 앞서 Arm은 HPE 출신 시스템 설계자 니콜라스 듀베, 인텔·퀄컴 출신 칩 설계자 스티브 할터를 영입한 바 있다. 여기에 시노까지 합류하면서 AI 칩과 시스템 수준의 제품 개발 역량은 한층 강화될 전망이다.

2025.08.20 18:15전화평 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

대통령도 꼬집은 담합 과징금 액수...더 세질까

군 특화 'AI 슈퍼컴' 만든다…국방부, GPU 실증 프로젝트 시동

이재현 CJ 회장, ‘올리브영 명동 타운’서 쇼핑…장바구니 봤더니

박윤영號 KT, 기존 조직장 대거 물갈이

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.