• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'하이브리드 AI'통합검색 결과 입니다. (32건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

QAI, '상업용 양자-AI 하이브리드' 서비스 시작

큐에이아이(대표 임세만, 이하 QAI)가 '상업용 양자-AI 하이브리드 데이터센터' 첫 번째 상용 서비스 분야로 '바이오 신약 개발'을 선정, 시장 공략에 본격 나선다. QAI는 바이오엔시스템스와 전략적 파트너십을 체결하고 자사의 양자-AI 하이브리드 인프라에 바이오엔시스템스 AI 신약 분석 플랫폼을 탑재한다고 19일 밝혔다. 양사는 이번 협력을 통해 기존 컴퓨팅 환경의 한계를 넘어선 고효율의 신약 개발 환경을 구현하고, 양자 컴퓨팅 기술의 실질적인 산업적 가치를 입증하겠다는 계획이다. 검증된 바이오 데이터, 'KREO SC-20'과 '큐브스택' 인프라 위에서 초고속 구현 QAI가 이번 서비스 구현을 위해 구축한 핵심 인프라는 20큐비트 초전도체 양자 컴퓨터 'KREO SC-20'과 이를 제어하는 초저지연 하이브리드 퀀텀 클라우드 솔루션 '큐브스택'이다. QAI는 이 강력한 하드웨어 및 솔루션 기반 위에 바이오엔시스템스의 AI 신약 분석 플랫폼 'AISPA(AI-Supported Protein Analytix)'를 연동한다. AISPA는 바이오엔시스템스가 15년 이상 축적한 100종 이상의 항체 데이터와 수십만 건의 시료 분석 경험이 집약된 플랫폼이다. QAI는 이 플랫폼에 양자 컴퓨팅 특유의 병렬 처리 기술을 접목한다. 단백질의 물리화학적 특성을 해석하는 과정에서 발생하는 방대한 연산 시나리오를 QAI의 하이브리드 시스템으로 처리, 분석의 정밀도를 유지하면서도 결과 도출 속도를 단축시킬 수 있게 됐다. '분석'에서 '설계'까지… 하반기 AI 설계 플랫폼 '짝' 서비스 확대 양사는 이번 파트너십을 계기로 단순 분석 지원을 넘어 신약 '설계' 영역으로 기술 협력을 확대한다. 이를 위해 올 하반기 중 AI 바이오 의약품 설계 플랫폼인 '짝'의 고도화를 완료하고 서비스를 시작한다는 계획이다. 짝은 바이오엔시스템스가 AIaaS 전문 기업 데브크라와 전략적 파트너십을 체결하고 공동 개발한 플랫폼이다. 특정 항원 정보만으로 최적의 결합 물질을 찾아내는 '드 노보 합성' 기술을 기반으로 한다. 기존의 대조 방식과 달리 AI가 타겟에 최적화된 물질을 직접 설계하는 혁신적인 방식이다. QAI의 인프라 환경에서 구동될 이 서비스는 분리·정제 공정 최적화 물질 설계부터 정밀 분석 도구 설계까지 지원한다. 고객사가 별도의 고가 장비 없이도 최첨단 양자 AI 기술을 활용할 수 있도록 접근성을 높일 예정이다. 이를 통해 바이오엔시스템스는 후보물질 발굴부터 분석에 이르는 전 과정을 아우르는 'CRADO(Contract Research Analysis and Development Organization)' 비즈니스 모델을 구체화할 방침이다. 서정근 바이오엔시스템스 대표는 "당사가 보유한 고품질의 바이오 데이터가 QAI의 양자 컴퓨팅 기술과 결합함으로써 신약 개발의 패러다임을 바꿀 혁신적인 모멘텀을 마련했다"며 "양자-AI 하이브리드 솔루션을 통해 분석의 정밀도를 극대화하고 고객사에 신약 설계의 효율성을 제공하는 글로벌 디스커버리 플랫폼 기업으로 거듭날 것"이라고 말했다. 임세만 QAI 대표는 “국내 기술로 구축된 양자-AI 하이브리드 인프라가 바이오엔시스템스의 독보적인 데이터와 만나 바이오 산업의 기술적 수준을 한 단계 끌어올리는 기폭제가 될 것”이라며 “앞으로도 다양한 산업군과의 협력을 통해 퀀텀 AI가 비즈니스의 병목 현상을 해결하는 핵심 인프라로 자리 잡도록 노력하겠다”고 밝혔다.

2026.01.19 10:01백봉삼 기자

Arm "엣지 AI, 사용자 만족도 좌우...웨어러블·IoT에도 필수"

[라스베이거스(미국)=권봉석 기자] "클라우드에만 의존하는 AI는 인터넷 연결 속도나 전파 감도에 많은 영향을 받는다. 사용자는 인터넷 연결이 문제인 상황에서도 AI 기능에 문제가 있다고 여길 수 있다. 지연 시간이나 비용 면에서도 효율적이지 않다." 7일(이하 현지시간) 오전, 라스베이거스 베니션 엑스포 내 미팅룸에서 기자단과 마주한 크리스 버기(Chris Bergey) Arm 엣지 AI 사업부문 총괄 수석부사장(EVP)은 '엣지 AI가 왜 필요한가'라는 질문에 이렇게 답했다. 크리스 버기 총괄 수석부사장은 이어 "Arm은 CPU 기반 AI 가속 명령어인 SME2, Armv9 명령어 체계, CPU·GPU·NPU 가속 등 다양한 기술을 통해 스마트폰뿐 아니라 웨어러블과 IoT 기기까지 엣지 AI를 지원하고 있다"고 설명했다. "엣지 AI, 클라우드 AI 회사들이 더 관심 많다" 크리스 버기 총괄 수석부사장은 이날 "엣지 AI를 일반 소비자보다 더 적극적으로 도입하고 싶어하는 것은 오히려 클라우드 기반 AI 회사들"이라고 설명했다. 비용, 성능, 사용자 경험 측면에서 엣지 AI가 주는 이점이 더 크기 때문이다. 그는 6일 레노버 테크월드 기조연설에서 Arm 고객사 수장인 크리스티아노 아몬 퀄컴 CEO의 발언도 인용했다. 당시 크리스티아노 아몬 퀄컴 CEO는 "엣지 데이터를 더 많이 가진 사람이 경쟁에서 이길 것"이라고 발언했다. 크리스 버기 총괄 수석부사장은 "나도 크리스티아노 아몬 CEO의 말에 동의한다. 결국 AI의 종착점은 엣지와 클라우드를 결합한 하이브리드 모델이 될 것이고, 클라우드 기반 기업일수록 오히려 엣지 AI에 관심이 많다"고 설명했다. "CPU 기반 AI 가속 명령어 'SME2', 실시간 처리에 강점" 크리스 버기 총괄 수석부사장은 "Arm은 CPU, GPU, 신경망처리장치(NPU)를 모두 활용해 엣지 AI 성능을 극대화하고 있다"고 강조했다. 이어 "CPU에서 실행되는 AI 가속 명령어 'SME2'는 성능 면에서는 NPU에 뒤질 수 있다. 그러나 지연 시간이 짧고 메모리 근접성이 뛰어나 실시간 처리에 강점을 지닌다. 또 큰 AI 워크로드는 NPU로 분산해 처리할 수 있다"고 설명했다. 또 "현재 퀄컴, 미디어텍 등 다양한 제조사가 SME를 지원하는 시스템반도체를 출시했고 앞으로 신제품은 물론 기존 제품에서도 소프트웨어 업데이트를 통해 SME 활용 사례가 늘어날 것"이라고 내다봤다. 그는 Arm이 GPU를 활용한 신경망 가속 기술 개발에도 분명한 계획을 가지고 있다고 말했다. "대부분의 응용프로그램이 AI 기능 구현에 CPU와 GPU만 활용하는 상황이다. GPU를 활용한 AI 가속 기능은 분명히 필요하며, 향후 GPU에 신경망 가속 기능을 통합해 모바일 환경에서도 데스크톱 수준의 AI 가속을 낮은 전력으로 구현할 계획이다." "AI 탑재 웨어러블 기기에도 하이브리드 AI는 필수" 크리스 버기 총괄 수석부사장은 이날 "애플워치 등장 이후 멈춰 있던 시장에 메타와 샤오미 등 다양한 회사가 확장현실(XR) 글래스와 신경 추적 손목밴드 등 다양한 AI 탑재 기기를 출시하며 활력을 불어넣고 있다"며 AI의 중요성을 역설했다. 그는 스마트 글래스를 예로 들며 "이런 웨어러블 기기에도 엣지 AI는 반드시 필요하다"고 설명했다. "스마트 글래스는 충분하지 않은 배터리와 부피·크기 제약 때문에 무작정 성능을 높이기 어렵다. 또 클라우드에만 의존하는 것은 지연시간 면에서 효율적이지 않다. 결국 스마트폰 등 기기와 역할을 분담하는 하이브리드 처리 모델이 필요하다." "Arm CSS, 최적 레시피 고객사에 제공하는 전략적 도구" Arm은 현재 CPU와 GPU, NPU 등 시스템반도체(SoC)의 여러 구성 요소를 한데 묶어 '컴퓨트 서브시스템'(CSS)이라는 형태로 고객사에 제공하고 있다. 크리스 버기 총괄 수석부사장은 "Arm CSS는 Arm이 제공할 수 있는 최고 성능의 CPU와 이를 통한 구현, 제품화 레시피를 제조사(OEM)와 개발자에게 제공하는 전략적 도구"라고 평가했다. 그는 "CSS를 공급받는 고객사는 필요에 따라 CSS 구성 요소 중 CPU나 GPU 등 필요한 요소만 최종 제품에 활용할 수 있다. 이를 통해 가능한 한 많은 회사가 엣지 AI를 구현할 수 있도록 돕고 있다"고 설명했다. "AI 경험, 소비자의 기대치 높이는 역할 할 것" 크리스 버기 총괄 수석부사장은 "AI는 스마트폰을 넘어 거의 모든 기기에 확산되고 있다. 삼성전자가 TV에 AI를 적용해 축구 경기 화질을 개선한 사례처럼 필요성이나 관심을 보이는 사례가 점차 늘어나고 있는 상황"이라고 설명했다. 그는 "터치스크린이 처음 등장했을 때 그랬던 것처럼 AI를 통한 경험은 앞으로 소비자가 기기에 기대하는 기준을 바꾸는 역할을 할 것"이라고 덧붙였다.

2026.01.09 14:00권봉석 기자

서울 청담동에 20큐비트 양자컴퓨터센터 생긴다…"3월부터 누구나 이용"

누구나 웹을 통해 양자 하이브리드 자원을 이용할 수 있는 20큐비트 초전도 양자컴퓨터(KREO SC-20)가 오늘 3월까지 서울 첨담동에 구축, 서비스에 들어간다. 퀀텀 AI 전문기업 큐에이아이(대표 임세만, 이하 QAI)는 풀스택 양자기술 전문기업 SDT(대표 윤지원)와 '하이브리드 양자 컴퓨팅 시스템 구축' 계약을 체결하고, 상업용 목적으로는 국내 최초로 20큐비트 초전도 양자 컴퓨터(KREO SC-20)를 구매했다고 8일 밝혔다. 이 양자 컴퓨터는 서울 강남 청담동 QAI AI데이터센터에 'AIDC 1호점'이라는 이름으로 구축한다. 서비스 시점은 오는 3월 내로 잡았다. QAI가 도입하는 시스템은 하드웨어부터 소프트웨어, 클라우드 플랫폼까지 SDT 풀스택 기술력이 집약됐다. 주요 도입 사양은 ▲20큐비트 초전도체 양자 컴퓨터 'KREO SC-20' ▲초저지연 하이브리드 퀀텀 클라우드 솔루션 '큐브스택(QubeStack)' ▲액침 냉각 시스템 '아쿠아랙(AquaRack)' ▲NVIDIA DGX B200 GPU 서버 등이다. 특히 '큐브스택'은 양자 컴퓨터(QPU)와 고전 컴퓨터(GPU)를 초저지연 네트워크로 연결, 복잡한 데이터 전처리와 제어는 GPU가 맡고 핵심 연산은 QPU가 수행하는 최적의 워크플로우를 구현할수 있다. 화학, 금융, 물류 등 산업 현장의 난제를 실질적으로 해결할 수 있는 컴퓨팅 파워를 제공한다는 것이 QAI 복안이다. QAI는 또 올해 내 AIDC 2호도 설립할 계획이다. 기존 CPU와 GPU에 양자 처리 장치(QPU)를 결합, 최적화, 시뮬레이션 등 특정 연산에서 압도적인 효율을 내는 '양자 하이브리드(Quantum Hybrid)' 서비스를 강남 청담동 1호 센터와 2호 센터를 시작으로, 향후 서울 주요 도심은 물론 지방 거점 도시에도 '도심형 양자 하이브리드 AI 데이터센터'를 지속 오픈할 계획이다. 전국 어디서든 기업들이 즉각적으로 양자 컴퓨팅 파워를 활용할 수 있는 '초연결 양자 생태계'를 만들겠다는 전략이다. QAI는 향후 국산 NPU(신경망처리장치)까지 결합한 'CPU-GPU-NPU-QPU' 4중 하이브리드 모델을 구축, 고전력·고비용 구조의 기존 데이터센터 한계를 극복하고 한국형 '소버린(Sovereign) AI' 인프라를 완성한다는 청사진을 제시했다. 임세만 QAI 대표는 “AI 산업은 막대한 자금력을 앞세운 미국 빅테크 기업들이 초거대 GPU 인프라를 독점하며 기술 장벽을 높이고 있다. 후발 주자인 국내 기업이 동일한 GPU 중심 인프라 경쟁만으로는 이들을 넘어서기 어려운 구조"라며 "글로벌 빅테크 기업들이 장악한 기존 AI 데이터센터(AIDC) 시장에 대한 도전장으로 봐달라"고 말했다. 큐에이아이(QAI)는 양자 컴퓨팅과 인공지능(AI) 기술을 결합, 산업 전반 난제를 해결하는 딥테크 전문 기업을 지향한다. 금융 포트폴리오 최적화, 신약 후보 물질 발굴, 물류 경로 효율화 등 기존 컴퓨팅으로는 해결하기 어려운 복잡한 문제에 '양자-고전 하이브리드 알고리즘'을 적용해 최적의 솔루션을 제공하고 있다.

2026.01.08 10:48박희범 기자

[인터뷰] "AI 인프라 폭증 시대…해법은 카카오클라우드 하이브리드 GPUaaS"

"인공지능(AI) 서비스가 커질수록 인프라 비용 부담이 수익성을 잠식하는 구조가 고착화되고 있습니다. 이제는 클라우드만으로는 이 문제를 해결하기 어렵습니다." 카카오엔터프라이즈 이재한 클라우드부문 사업본부장은 최근 서울 코엑스에서 열린 '2025 데이터·클라우드 진흥주간'에서 지디넷코리아와 만나 이같이 강조했다. AI 인프라 시장이 학습 중심에서 추론 중심으로 전환되는 과정에서 기업들이 비용 구조의 한계를 직면한다는 설명이다. 이 본부장은 "AI 서비스가 확산될수록 추론 트래픽이 급증하고 이에 따라 고가 그래픽처리장치(GPU) 사용이 불가피해진다"며 "매출이 늘수록 인프라 비용도 함께 증가하는 역설적인 상황이 이미 현실화되고 있다"고 진단했다. 카카오엔터프라이즈는 이러한 구조적 문제의 해법으로 '하이브리드 서비스형 GPU(GPUaaS)'를 제시하고 있다. 하이브리드 GPUaaS는 고객이 GPU 서버를 자산으로 보유하되, 카카오클라우드의 단일 콘솔과 플랫폼을 통해 퍼블릭 클라우드 GPUaaS와 동일한 방식으로 운영·관리할 수 있도록 한 모델이다. 초기 개발이나 기술검증(PoC) 단계에서는 클라우드 GPU를 활용해 민첩성을 확보하고 서비스가 본궤도에 오르면 GPU 자산화를 통해 중장기 총소유비용(TCO)을 낮추는 방식이 핵심이다. 이를 통해 클라우드의 유연성과 온프레미스의 비용 효율성을 동시에 확보할 수 있다. AI 추론 시대의 비용 딜레마, '하이브리드 GPUaaS'로 풀다 AI 인프라 시장의 가장 큰 변화는 추론 비용이 학습 비용을 추월하는 시점이 도래하고 있다는 점이다. 글로벌 리서치와 카카오엔터프라이즈의 분석에 따르면 내년을 전후로 AI 서비스의 총비용 구조에서 추론이 차지하는 비중이 학습을 넘어설 것으로 전망된다. 문제는 기존 '클라우드 온리' 전략이 이러한 환경에서 수익성 악화를 가속화할 수 있다는 점이다. 서비스 이용량이 늘수록 GPU 사용량이 증가하고 이는 곧 비용 증가로 직결된다. 일부 글로벌 AI 기업들이 대규모 자체 데이터센터 구축과 자산화 전략으로 회귀하는 배경도 여기에 있다. 이 본부장은 "국내 스타트업과 중소기업 입장에서는 대규모 온프레미스 구축이 현실적으로 쉽지 않다"며 "전력·상면·냉각·운영 인력까지 고려하면 초기 진입 장벽이 매우 높다"고 말했다. 실제 국내에서 최신 엔비디아 B200·B300급 GPU를 수용할 수 있는 데이터센터는 제한적이며 랙당 전력 밀도 역시 주요 제약 요소로 작용하고 있다. 이러한 상황에서 단순한 온프레미스 전환은 또 다른 부담으로 작용할 수 있다는 설명이다. 카카오엔터프라이즈는 이 지점에서 하이브리드 전략이 현실적인 대안이 된다고 바라봤다. 고정 수요는 자산화된 GPU로 처리하고 변동성이 큰 수요는 클라우드 GPUaaS로 흡수하는 구조다. 이 모델을 적용할 경우 퍼블릭 클라우드 GPUaaS 대비 약 33% 수준의 TCO 절감 효과를 기대할 수 있고 고객이 직접 온프레미스를 구축하는 방식과 비교해도 약 10~20% 비용 효율성이 개선된다는 것이 카카오엔터프라이즈의 분석이다. 이 본부장은 "결국 AI 서비스가 성장할수록 기업의 고민은 어떻게 GPU를 더 싸고 안정적으로 쓰느냐로 수렴한다"며 "하이브리드 GPUaaS는 그 질문에 대한 가장 현실적인 답"이라고 말했다. 운영·확장·가시성까지…"민첩성과 수익성 동시 확보 지원" 하이브리드 GPUaaS의 차별점은 단순 비용 절감에 그치지 않는다. 카카오엔터프라이즈는 유연성·효율성·가시성을 핵심 가치로 제시하고 있다. 먼저 유연성 측면에서 고객은 평상시에는 전용 GPU 자산을 활용해 최대 효율을 확보하고 트래픽이 급증할 경우 클라우드 GPU로 즉시 확장할 수 있다. 모든 자원은 하나의 VPC와 단일 콘솔에서 관리된다. 효율성 측면에서는 GPU 자원 할당과 회수, 모델 학습·배포·서빙까지 머신러닝 운영관리(MLOps) 기반 자동화를 지원한다. 이를 통해 유휴 GPU 발생을 최소화하고 운영 인력 부담을 줄일 수 있다. 가시성 역시 핵심 요소다. 물리적으로 분산된 GPU 자원을 단일 대시보드에서 모니터링하고 사용량·가동률·비용을 통합적으로 파악할 수 있어 TCO 관리가 용이하다. 보안 측면에서도 금융권 수준의 클라우드 서비스 제공사(CSP) 안정성 평가를 충족한 데이터센터 환경을 기반으로 서비스를 제공한다. 이는 규제 산업으로의 확장 가능성을 뒷받침하는 요소다. 이 본부장은 "하이브리드 GPUaaS는 금융권과 공공기관, 대규모 엔터프라이즈를 중심으로 도입 사례가 확산되고 있다"며 "전력과 상면 확보가 어려운 고객일수록 수요가 빠르게 늘고 있다"고 밝혔다. "GPU는 싸게만 쓰는 게 아니다"…플랫폼·통합 모니터링으로 차별화 카카오엔터프라이즈는 하이브리드 GPUaaS를 단순한 인프라 상품이 아니라 AI 플랫폼 전략의 출발점으로 보고 있다. 이 본부장은 "GPU 비용만 낮춘다고 AI 경쟁력이 생기는 것은 아니다"라며 "GPU를 얼마나 효율적으로 운영·관리하고 AI 개발과 서비스로 연결할 수 있느냐가 더 중요해지고 있다"고 설명했다. 이를 위해 카카오엔터프라이즈는 GPU 자원 통합 관리와 모니터링을 중심으로 한 AI 플랫폼 고도화를 추진하고 있다. 온프레미스 GPU와 카카오클라우드 GPUaaS는 물론, 외부에 분산된 GPU 자원을 일원화해서 하나의 대시보드로 통합 관리하는 방향을 준비 중이다. 이 본부장은 "고객 입장에서는 GPU가 어느 인프라에 있든 상관없이 하나의 콘솔에서 쓰는 것이 중요하다"며 "하이브리드 GPUaaS는 이런 통합 관리 전략을 실현하기 위한 기반"이라고 말했다. 특히 GPU 사용 현황, 가동률, 성능, 비용을 실시간으로 모니터링하고 학습·추론 워크로드를 효율적으로 배치하는 기능이 핵심이다. 이를 통해 불필요한 유휴 자원을 줄이고 AI 서비스 운영 단계에서의 비용 예측 가능성을 높인다는 구상이다. 카카오엔터프라이즈는 이러한 통합 운영 역량이 향후 AI 플랫폼 경쟁력의 핵심 요소가 될 것으로 보고 있다. 단순히 GPU를 제공하는 것을 넘어 AI 모델 학습부터 배포·서빙·운영까지 이어지는 전체 흐름을 플랫폼 차원에서 지원하겠다는 전략이다. 카카오엔터프라이즈 이재한 본부장은 "AI 비즈니스가 지속 가능하게 성장하려면 인프라 비용을 통제할 수 있는 구조가 필요하다"며 "카카오클라우드의 하이브리드 GPUaaS는 AI를 위한 멀티·하이브리드 전략의 한 축으로 자리 잡을 것"이라고 강조했다. 이어 "하이브리드 GPUaaS를 통해 고객이 성장 단계에 맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 적극 돕겠다"고 덧붙였다.

2025.12.21 16:19한정호 기자

"AI 추론 비용 내년부터 폭증…하이브리드 GPUaaS가 부담 덜 것"

카카오엔터프라이즈가 인공지능(AI) 인프라의 새로운 대안으로 '하이브리드 서비스형 그래픽처리장치(GPUaaS)를 제안했다. 내년에 AI 서비스가 더 많이 이용되면서 클라우드 비용이 급증할 것으로 예상되는 만큼 유연성과 경제성을 동시에 확보하는 가장 현실적인 해법이 '하이브리드 GPUaaS'가 될 것으로 판단해서다. 카카오엔터프라이즈는 지난 16일 과학기술정보통신부가 주최하는 '2025 AI를 위한 데이터&클라우드 진흥주간' 행사에 이재한 클라우드부문 사업본부장이 참여해 이처럼 강조했다고 17일 밝혔다. 오는 19일까지 서울 강남구 코엑스 그랜드볼룸에서 열리는 '데이터&클라우드 진흥주간'은 '모두를 위한 AI, AI를 위한 데이터&클라우드'라는 슬로건 아래 데이터 및 클라우드 업계 관계자들이 모여 최신 기술, 산업 동향, 미래 방향 등을 공유할 수 있는 자리다. 이재한 카카오엔터프라이즈 클라우드부문 사업본부장은 이번 행사에 참석해 "2026년에는 AI 추론에 드는 비용이 학습 비용을 추월할 전망"이라며 "AI 서비스가 더 많이 이용될수록 추론에 소요되는 클라우드 비용이 급증하면서 AI 서비스 기업 및 기관의 적자폭이 커지는 구조적인 문제에 직면할 가능성이 높다"고 내년 AI 서비스 시장을 전망했다. 이어 "GPU는 AI 모델과 서비스 개발에 필수 요소이나, GPUaaS(서비스형 GPU)는 비용 부담이 높고 온프레미스 방식은 구축이나 상면 확보, 운영 등의 부담이 높다는 측면이 있다"며 "AI 서비스 기업 및 기관은 비즈니스 성장 단계에 따라 빠르게 증가하는 클라우드 비용을 절감할 수 있는 방법을 고민하며, GPU 등 자산 확보를 통한 수익성 개선 방안을 염두에 두어야한다"고 강조했다. 카카오엔터프라이즈는 이러한 AI 서비스 기업 및 기관의 부담을 해소할 수 있도록 고객이 GPU를 자산으로 소유하고 카카오클라우드가 GPU 클러스터를 구축 및 운영하는 새로운 형태의 하이브리드 GPUaaS를 선보인 바 있다. 카카오클라우드의 하이브리드 GPUaaS는 불확실한 초기 개발 및 기술 검증(PoC) 단계에서는 클라우드를 통해 투자 리스크를 최소화하며 민첩성을 확보하고, 비즈니스가 본 궤도에 오르는 시기에 자산화를 통해 효율적으로 수익성을 개선할 수 있도록 지원한다. 이 사업본부장은 "우리의 하이브리드 GPUaaS는 클라우드의 '유연성'과 소유의 '경제성' 등 두 가치를 동시에 확보할 수 있는 가장 현실적이고 강력한 해답"이라며 "우리는 AI 서비스 기업 고객과 기관의 클라우드 전략 파트너로서 고객이 불확실한 비즈니스 환경에서도 성장 단계에 발맞춰 민첩성과 수익성을 동시에 확보할 수 있도록 가장 효율적이고 안정적인 방안을 제시할 것"이라고 말했다.

2025.12.17 15:27장유미 기자

넷앱 "데이터 인프라가 AI 경쟁력 좌우…내년 韓 공공·금융·소버린 공략"

넷앱이 내년 한국 시장에서 하이브리드 클라우드와 인공지능(AI) 데이터 인프라를 축으로 공공·금융, 소버린 AI 영역 공략을 본격화하겠다는 전략을 제시했다. 유재성 한국넷앱 대표는 17일 서울 교촌치킨 선릉점에서 열린 연말 미디어 데이에서 "AI 논의는 이미 실험을 지나 실행 단계로 넘어왔지만 이를 실제 운영으로 연결하지 못하는 이유는 데이터 인프라에 있다"고 말했다. AI가 실험 단계를 넘어 실제 비즈니스 성과로 이어지기 위해서는 데이터 인프라의 근본적인 전환이 필요하다는 진단이다. 유 대표는 최근 기업들의 AI 도입 흐름에 대해 "모델 성능이나 알고리즘보다 중요한 것은 데이터를 얼마나 잘 통합·관리하고 거버넌스를 적용해 운영할 수 있느냐"라며 "제대로 된 데이터 기반 없이는 AI도 확장될 수 없다"고 설명했다. 이같은 문제의식은 넷앱이 제시한 내년 핵심 전략과도 맞닿아 있다. 넷앱은 ▲AI 데이터 서비스 ▲보안이 강화된 데이터 프로덕션 환경 ▲유연한 하이브리드 클라우드 환경 구축을 3대 축으로 한국 시장을 공략할 계획이다. 특히 온프레미스와 클라우드를 분리된 환경이 아닌 하나의 데이터 흐름으로 연결하는 데 초점을 맞추고 있다. 유 대표는 "하이브리드 클라우드를 단순히 온프레미스와 퍼블릭 클라우드 두 환경의 병렬 구조로 보는 것이 아니라, 고객이 가장 최적의 조건에서 데이터를 활용할 수 있도록 연결하는 것이 핵심"이라며 "여기에 AI를 데이터 서비스 전반에 어떻게 접목할 것인지가 중요하다"고 강조했다. 공공·금융 시장에 대한 접근 전략도 공유했다. 그는 "공공과 금융 분야는 보안과 규제가 까다로운 만큼 진입 장벽이 높지만, 장기적으로 반드시 성장 엔진으로 만들어야 할 영역"이라며 "지금까지 상대적으로 비중이 낮았던 이 시장에서 내년부터는 본격적인 기회를 만들어갈 것"이라고 밝혔다. 특히 최근 화두로 떠오른 국가 차원 '소버린 AI' 전략에 있어서도 데이터 인프라 기업으로서 유의미한 포지셔닝을 하겠다는 목표를 소개했다. 넷앱은 고객 부담을 낮추기 위한 사업 모델 변화도 병행한다. 기존의 일회성 투자 방식에서 벗어나 구독형 모델을 확대하고 인프라 사업자 및 서비스 파트너와의 협업을 통해 새로운 서비스 형태를 개발한다는 구상이다. 한국의 하이브리드 클라우드 시장이 아직 초기 단계라는 점도 언급했다. 유 대표는 "현재는 가상화 초창기처럼 고객 인식과 시장 성숙도에 차이가 있는 상황"이라며 "가격 경쟁이 아닌 기술 경쟁력으로 승부할 수 있도록 시장을 키워나갈 것"이라고 덧붙였다. 유 대표는 "AI 시대의 경쟁력은 결국 데이터를 얼마나 안전하고 유연하게 다룰 수 있느냐에 달려 있다"며 "공공·금융, 소버린 AI 환경에서도 신뢰할 수 있는 데이터 인프라를 제공하는 파트너로 자리매김하겠다"고 강조했다.

2025.12.17 14:30한정호 기자

AMAT, 최첨단 하이브리드 본딩 시스템 앞세워 로직·HBM 시장 공략

어플라이드머티어리얼즈(AMAT)가 최첨단 하이브리드 본딩 시스템으로 AI 반도체 시장 공략에 나섰다. 해당 시스템은 본딩 공정에 필요한 주요 공정을 단일로 통합해, 생산성 및 효율을 10배 이상 끌어 올린 것이 특징이다. 향후에는 HBM(고대역폭메모리) 분야에도 적용하는 것을 목표로 하고 있다. 어플라이드머티어리얼즈코리아는 26일 서울 인터컨티넨탈 파르나스에서 기자간담회를 열고 회사의 최첨단 하이브리드 본딩 시스템에 대해 이같이 밝혔다. 통합 시스템으로 본딩 시간 대폭 감소…로직 넘어 HBM 적용 목표 어플라이드는 이번 간담회를 통해 최첨단 전공정 및 후공정, 계측용 신규 장비를 발표했다. 3종 장비 모두 AI 산업을 위한 고성능 로직·메모리 반도체 제조 공정을 타겟으로 한다. 가장 먼저 소개된 '키넥스(Kinex)' 본딩 시스템은 업계 최초의 D2W(다이-투-웨이퍼) 하이브리드 본더 통합 시스템이다. 하이브리드 본딩은 기존 칩 연결에 필요한 미세한 범프(Bump)를 제거하고, 칩과 칩을 직접 접합해 패키징 성능 및 밀도를 높이는 기술이다. 현재 최첨단 파운드리 공정에 적용되고 있으며, 향후에는 HBM(고대역폭메모리)용 본딩 공정에서도 상용화될 것으로 기대된다. 어플라이드는 주요 반도체 후공정 장비기업 베시(Besi)와 협력해, 하이브리드 본딩 공정의 핵심 단계를 하나의 시스템으로 통합했다. 투입된 웨이퍼의 세정 및 표면 활성화, 칩 정렬, 어닐링 등을 거쳐 실제 하이브리드 본딩이 진행되는 전 과정을 수행한다. 허영 어플라이드 하이브리드 본딩 기술 디렉터는 "키넥스는 본딩에 필요한 6가지 공정을 단일 시스템에 통합해, 각 장비를 개별적으로 두는 구조 대비 생산성 및 효율성을 높일 수 있다"며 "키넥스 시스템을 통한 본딩 공정의 소요 시간은 1시간으로, 10시간 이상이 필요했던 기존 구조 대비 시간을 대폭 줄일 수 있다"고 설명했다. 현재 키넥스 시스템은 다수의 고객사에 도입되고 있다. 로직 분야에서는 양산 적용됐으며, 메모리 분야에서는 개발 단에서 장비가 운용되고 있는 것으로 관측된다. 최첨단 증착, 전자빔 계측 시스템도 개발 또한 어플라이드는 GAA(게이트-올-어라운드) 공정을 위한 '센투라 엑스테라(Centura Xtera)' 증착 시스템을 공개했다. GAA는 반도체를 구성하는 트랜지스터에서 전류가 흐르는 채널 4개면을 모두 감싸는 기술이다. 기존 3개면을 감싸는 핀펫(FinFET) 구조 대비 데이터 처리 속도, 전력 효율성 등을 높일 수 있다. 삼성전자 등 주요 파운드리 기업이 3나노미터(nm) 이하 공정부터 적용하기 시작했다. 해당 증착 시스템은 통합 선세정(Pre-clean) 및 식각 공정을 포함한 저용량 챔버 구조를 갖췄다. 덕분에 기존 증착 대비 가스 사용량을 50% 줄이면서도 공백(Void) 없이 GAA 트랜지스터를 형성한다. 함께 발표된 '프로비전(PROVision) 10'은 GAA 공정을 적용한 첨단 로직 칩은 물론, 차세대 D램과 3D 낸드 등에 적용할 수 있는 전자빔 계측 시스템이다. 업계 최초로 냉전계 방출(CFE) 기술을 적용해 기존 열전계 방출(TFE) 대비 나노미터(nm) 단의 이미지 해상도를 최대 50% 높인다. 이미징 속도도 최대 10배 빠르다. 엑스테라 및 프로비전 시스템은 최첨단 로직 및 메모리 고객사 채택되고 있다. 박광선 어플라이드 대표는 "AI 산업의 발달로 고성능 반도체에 대한 수요가 증가하면서, 최첨단 파운드리 및 패키징 기술들이 떠오르고 있다"며 "어플라이드는 관련 분야에서 강력한 솔루션을 제공하고 있어, 내년 뿐만이 아니라 향후에도 경쟁력을 발휘할 것"이라고 말했다.

2025.11.26 13:40장경윤 기자

델·MS, 하이브리드 클라우드 동맹…데이터·보안·워크플레이스까지 한 번에

델 테크놀로지스(이하 델)가 마이크로소프트 애저와의 통합을 확대해 하이브리드 클라우드 환경을 단순화하고 스토리지·보안·PC까지 아우르는 서비스로 기업 디지털 전환을 지원한다. 25일 델의 바룬 차브라 인프라 솔루션 그룹 부사장은 마이크로소프트와의 협력을 강화해 주요 제품군 전반을 애저 및 애저 로컬(Azure Local)과 긴밀히 통합한다고 밝혔다. 델이 애저에 통합하는 주요 제품은 델 프라이빗 클라우드, 델 파워스토어, 델 파워스케일, 델 파워프로텍트, AI PC 등이다. 이를 온프레미스 인프라와 애저와 통합해 하나의 운영 계층처럼 활용하며 퍼블릭·프라이빗·온프레미스에 분산된 워크로드를 통합된 정책과 도구로 관리하도록 돕는다는 방침이다. 바룬 차브라 부사장은 "이미 많은 고객이 애저를 쓰고 있지만 중요한 워크로드는 여전히 데이터센터에 남아 있다"며 "이 둘을 따로 관리하지 않고 하나의 클라우드처럼 운영하고 싶어 하는 수요가 빠르게 늘고 있다"고 말했다. 델 프라이빗 클라우드는 지능형 오케스트레이션과 개방형 모듈식 인프라를 기반으로 하이브리드·프라이빗 클라우드를 쉽게 구축하고 운영할 수 있게 설계된 솔루션이다. 이번 통합 확대로 델 프라이빗 클라우드는 애저 로컬 지원을 확대해 자동화된 라이프사이클 관리, 컴퓨트·스토리지의 독립적인 확장, 향후 환경 변화에 대응 가능한 분리형 아키텍처를 제공한다. 이를 통해 기업은 애저와 유사한 개발·운영 경험을 유지한 채 온프레미스 인프라를 구성할 수 있어 퍼블릭과 온프레미스를 따로 관리해야 하는 부담을 줄일 수 있다. 주력 NVMe 올플래시 스토리지인 델 파워스토어도 애저 로컬과 본격적으로 통합된다. 파워스토어는 엔드 투 엔드 NVMe 아키텍처와 상시가동형 데이터 절감 기능을 제공하며, 5대1 데이터 감소를 보증하는 것이 특징이다. 여기에 초고속 NVMe 성능과 유연한 아키텍처를 더해, 애저 로컬 환경에서 컴퓨트와 스토리지를 분리한 구조를 구현하도록 돕는다. 애플리케이션은 애저 로컬에서 구동하고 데이터는 파워스토어에 보관하는 구조로 설계해, 규제와 데이터 주권을 고려하는 산업에서도 하이브리드 클라우드를 보다 유연하게 도입하도록 지원한다. 바룬 차브라 부사장은 "클라우드의 민첩성과 엔터프라이즈 스토리지의 신뢰성을 결합해 애저 로컬 위에 보다 스마트한 하이브리드 환경을 만들 수 있다"고 말했다. 클라우드 복잡성을 해소하기 위한 스토리지 해법으로는 '델 파워스케일 포 애저(Dell PowerScale for Azure)'가 제시됐다. 이 서비스는 고성능 엔터프라이즈 파일 스토리지인 파워스케일을 애저 생태계 내 네이티브 매니지드 서비스 형태로 제공한다. 물리 장비를 직접 도입하는 대신, 델이 애저 상에서 구축·업데이트·운영·모니터링을 전담해 온프레미스와 클라우드 전반에 걸친 비정형 데이터 관리를 단순화한다. 애저용 파워스케일은 단일 네임스페이스에서 최대 8.4PB까지 빠르고 효율적으로 확장할 수 있으며, NFS·SMB·S3 등 다중 프로토콜을 동시에 지원한다. 이를 통해 전통적인 파일 워크로드부터 클라우드 네이티브 애플리케이션까지 폭넓은 사용 사례를 수용하고 특정 공급업체에 종속되지 않는 아키텍처 구성을 가능하게 한다. 데이터가 온프레미스에 있든 애저 클라우드에 있든 동일한 인터페이스와 운영 경험을 제공하는 것도 강점으로 꼽힌다. 델이 단일 공급자로서 배포·업그레이드·모니터링·지원 전 과정을 책임지는 만큼, 사용자는 강력하고 사전 예방적인 관리 기능을 바탕으로 운영 부담을 줄일 수 있다. 사이버 복원력 측면에서는 '델 파워프로텍트 백업 서비스 포 애저(Dell PowerProtect Backup Services for Azure)'가 강화됐다. 이 서비스는 애저 및 애저 로컬 환경 전반에서 하이브리드 워크로드를 일관되게 보호하고 자동화된 복구 기능으로 비즈니스 연속성을 유지하도록 돕는다. 델과 마이크로소프트는 공동 솔루션을 통해 보안을 강화하고, 운영 중단을 최소화하며, 멀티클라우드 전반에서 백업·복구 운영을 단순화하는 것을 목표로 한다. 워크플레이스 현대화를 위한 AI PC 전략도 함께 제시됐다. 델은 윈도 11과 마이크로소프트 365에 최적화된 델 AI PC 포트폴리오를 통해 차세대 업무 환경 구현을 지원하고 있다. 개발자는 마이크로소프트 인튠과 델 AI PC 생태계 지원 체계를 활용해 온디바이스 AI 애플리케이션을 쉽게 구축·배포할 수 있다. AI 프로세서를 탑재한 델 AI PC는 주요 AI 워크로드를 로컬에서 처리함으로써 업무 자동화, 보안 강화, 사용자 경험 개인화, 운영 비용 절감 등을 동시에 추구한다. 서비스 측면에서는 마이크로소프트 특화 델 테크놀로지스 프로페셔널 서비스가 제공된다. 이 서비스는 애저 및 애저 로컬 기반 환경에서 도입 가속화와 효율성 향상을 지원하고, 기업이 전략적 목표에 맞춰 안전하고 지능적으로 인프라를 현대화하도록 돕는다. 이를 통해 생산성을 높이는 동시에 복원력을 강화하고, 측정 가능한 결과를 바탕으로 투자 효과를 확인할 수 있다. 바룬 차브라 부사장은 "고객은 더 이상 퍼블릭과 프라이빗, 온프레미스와 클라우드를 따로 나눠 생각하지 않는다"며 "어디에서 실행하든 동일한 보안 정책과 데이터 관리, 운영 경험을 제공하는 것이 중요하다"고 강조했다. 이어 "마이크로소프트와의 협력을 통해 델은 애저 환경에서 검증된 인프라와 스토리지를 서비스 형태로 제공하고 있다"며 "온프레미스와 애저를 하나의 클라우드처럼 느끼게 만드는 것이 델 하이브리드 전략의 목표"라고 덧붙였다.

2025.11.25 11:26남혁우 기자

온다, 호스피탈리티 특화 멀티모달 AI 모델 개발

호스피탈리티 AI 기업 온다(대표 오현석)가 자체 개발한 멀티모달 AI 모델을 허깅 페이스에 공개하며, 국내 숙박 산업에서 실증된 AI 기술력을 입증했다고 18일 밝혔다. 이번에 공개된 모델은 8천여 장의 자체 구축 객실 이미지 데이터셋과 한국어 특화 자연어처리 기술을 결합한 하이브리드 AI다. 서로 다른 공급사로부터 제공되는 객실 정보를 자동으로 표준화해 96.5%의 높은 정확도를 달성했다. 온라인여행플랫폼(OTA)을 비롯한 숙박 유통 플랫폼은 다수의 공급사로부터 동일 호텔의 객실 데이터를 수집하지만, 공급사마다 객실명 표기 방식이 상이해 심각한 데이터 불일치 문제가 발생한다. 온다 AI Lab은 이 문제를 해결하기 위해 비전 트랜스포머 기반의 이미지 분류 모델과 한국어 특화 언어모델을 결합한 하이브리드 아키텍처를 설계했다. 이미지 모델은 침실, 거실, 욕실 등 객실 구성요소를 자동 인식하도록 학습됐다. 텍스트 모델은 '디럭스', '오션뷰', '얼리체크인' 등 숙박 도메인의 특화 용어의 의미를 분석하여 객실 유사도를 정밀하게 측정한다. 또 두 모델의 출력값을 가중 융합해 최종 유사도 점수를 산출하는 앙상블 기법을 적용, 동일한 침대 이미지를 사용하나 뷰가 다른 객실처럼 단일 이미지나 텍스트로는 구분이 어려운 엣지 케이스에서도 높은 정확도를 유지했다. 온다는 AI의 한계를 인정하고, 신뢰도 기반 하이브리드 워크플로우를 구축했다. 모델이 산출한 각 예측 결과에 신뢰도 점수를 부여하고, 설정된 기준 점수 이하의 케이스는 숙박 도메인 전문가가 최종 검토하는 AI-전문가 협업 구조를 도입해 실무 환경에서의 안정성과 신뢰성을 동시에 확보했다. 오현석 온다 대표는 "AI 시대에 진짜 경쟁력은 모델 자체가 아니라 모델을 학습시킬 수 있는 양질의 도메인 데이터와 실무 적용 능력"이라며 "온다는 8년간 쌓아온 데이터와 호스피탈리티 산업에 대한 깊은 이해를 바탕으로, 실제로 작동하는 AI를 만들 수 있는 몇 안 되는 기업"이라고 말했다. 온다는 향후 이 기술을 확장해 객실 어메니티 자동 인식, 뷰 타입 분류, 이미지 품질 평가 등 다양한 AI 기반 자동화 솔루션을 상용화할 계획이다.

2025.11.18 16:18백봉삼 기자

바로AI, 'HACC'로 데이터센터 패러다임 바꾼다…현장형 AI 인프라 확산

바로AI가 차세대 하이브리드 데이터센터 모델 '하이브리드 모듈러 AI 컴퓨팅센터(HACC)'를 공개하며 초대형 데이터센터 중심의 AI 인프라 패러다임을 전환한다. 셀 단위로 확장 가능한 모듈형 구조와 자체 리퀴드 쿨링 기술을 기반으로 효율성·확장성·친환경성을 모두 갖춘 새로운 AI 인프라 생태계를 제시한다는 목표다. 바로AI는 오는 29일 경기도 평택에 하이브리드 AI 컴퓨팅센터 '바로 스페이스'를 공식 개소한다고 28일 밝혔다. 이번 시설은 바로AI가 독자 개발한 HACC 아키텍처를 국내 최초로 구현한 사례로, 리퀴드쿨링 방식의 멀티 그래픽처리장치(GPU) 서버를 셀 단위로 표준화해 복제·확장할 수 있는 구조를 채택했다. HACC는 기존 초대형 중앙집중식 데이터센터와 달리, AI 연구소·대학·산업 현장 등 수요지 가까이에 설치 가능한 현장형 컴퓨팅 인프라다. 각 셀은 전력·냉각·네트워킹·클러스터 관리 모듈을 독립적으로 갖춰 필요에 따라 병렬로 복제·확장할 수 있다. 약 250~500키로와트(kW)의 전력만 확보되면 기존 건물 내에서도 설치가 가능하며 도심 빌딩이나 연구시설에서도 안정적으로 운영할 수 있다. 이 같은 모듈러 구조는 초기 투자비를 줄이고 수요 증가에 따라 점진적으로 확장할 수 있는 장점을 지닌다. GPU 세대 교체 시에도 기존 셀과 혼합 운용이 가능해 백워드 호환성을 확보할 수 있다. 이용덕 바로AI 대표는 "세계가 하이퍼스케일 데이터센터에 집중하고 있지만 GPU 세대 교체 속도와 가동률 리스크를 고려하면 모든 AI 워크로드를 중앙에 몰아넣는 방식은 비효율적"이라며 "HACC는 작게 시작해 수요에 맞춰 확장하고 리퀴드 쿨링 기반의 고효율 구조로 운영비를 줄이는 현실적 대안"이라고 설명했다. HACC의 핵심 하드웨어(HW)는 바로AI가 자체 개발한 리퀴드 쿨링 멀티 GPU 서버 '포세이돈'이다. 이 서버는 CPU·GPU·전원부 전체를 폐쇄형 냉각라인으로 냉각하는 특허 기술을 탑재해 공랭식 대비 열 제거 효율을 5배 이상 높였다. 풀로드 상태에서도 39데시벨(dB)의 저소음 수준을 유지하며 GPU 온도는 50~60°C에서 일정하게 유지돼 서버 수명과 안정성이 크게 향상된다. 전력 사용량은 기존 대비 30~35% 절감되고 팬 구동전력은 약 90% 감소해 AI 학습 효율을 극대화한다. 또 재활용형 쿨런트를 적용한 순환형 냉각 구조로 탄소배출을 줄였으며 전력사용효율(PUE) 1.1 이하 수준의 친환경 설계를 목표로 한다. 이같은 고효율·저소음 구조 덕분에 포세이돈 서버는 국내 주요 대학·병원·연구소 등에서 의료 AI 분석, 방위·산업용 AI, 거대언어모델(LLM) 연구 등에 활용되고 있다. 특히 건국대학교 의대 연구팀이 바로AI 인프라를 기반으로 IEEE 주최 'AI 기반 알츠하이머 평가 세계대회'에서 1위를 차지하며 기술력의 국제 경쟁력을 입증했다. 평택 바로 스페이스는 바로AI가 지난 7월부터 직접 설계·운영한 테스트베드 센터의 노하우를 기반으로 구축됐다. 서비스형 GPU(GPUaaS) 환경을 갖췄으며 전력·냉각·보안까지 통합 관리하는 데이터센터 관리 시스템을 자체 개발해 실시간으로 전력·온도·클러스터 상태가 최적화되도록 설계됐다. 이를 통해 바로AI는 설계부터 서버·클라우드·운영·유지보수까지 통합 제공하는 풀스택 AI 인프라 기업으로 자리매김한다는 목표다. 정부가 국가 차원의 '소버린 AI' 전략을 추진하는 가운데, 바로AI는 HACC를 대형 데이터센터를 보완하는 균형축으로 제시할 방침이다. 중앙 인프라가 국가적 허브 역할을 한다면 HACC는 산업·도시·기관별 현장에서 실시간 데이터를 처리하는 분산형 거점으로 기능한다. 의료·국방·재난 등 민감한 영역에서는 현장형 AI 컴퓨팅센터를 두는 것이 효율적이고 안전하다는 설명이다. 바로AI는 평택 바로 스페이스를 글로벌 HACC 거점으로 삼아 향후 동남아·중동·중남미 등 에너지 인프라가 취약한 지역에도 빠르게 구축 가능한 수출형 모델로 확장할 계획이다. ODA 및 EDCF 등 정부 원조 자금과 연계한 AI 인프라 보급 사업을 추진 중이며 이를 통해 글로벌 소버린 AI 네트워크 구축을 목표로 한다. 아울러 바로AI는 HACC를 단순한 인프라가 아닌 AI 산업 생태계의 플랫폼으로 발전시키겠다는 비전도 밝혔다. 대학·연구소·기업이 하나의 HACC 위에서 협력하고 데이터와 전력, AI 기술이 유기적으로 연결되는 하이브리드 AI 네트워크 사회를 만든다는 목표다. 이 대표는 "AI 산업의 미래는 결국 데이터·컴퓨팅·소프트웨어 세 축이 어떻게 연결되느냐에 달려 있다"며 "특히 데이터 주권이 중요한 시대일수록 현장 가까이에 있는 하이브리드형 데이터센터가 핵심 인프라가 될 것"이라고 강조했다. 이어 "HACC는 단순한 기술이 아니라 AI를 모든 산업과 일상 속으로 확산시키는 새로운 방식의 인프라"라고 덧붙였다.

2025.10.28 15:40한정호 기자

아이티센클로잇, '하이브리드 AI'로 제조 AX 시장 본격 공략

아이티센클로잇(대표 이세희)이 독자적인 '하이브리드 인공지능(AI)' 기술을 앞세워 제조 AI 전환(AX) 시장 공략에 속도를 내고 있다. 비전 AI와 생성형 AI를 결합한 새로운 접근법으로 품질 검사, 생산성, 물류 자동화 등 제조 현장의 난제를 해결하겠다는 전략이다. 아이티센클로잇은 서울 양재 aT센터에서 열리는 '2025 제조혁신코리아'에 참가해, '머신러닝(ML) & 생성형 AI(Gen AI) 멀티모달 기반의 제조/물류 프로세스 혁신'을 주제로 한 전시 부스를 운영한다고 23일 밝혔다. 22일부터 24일까지 진행하는 이번 전시를 통해 국내 제조기업들의 디지털 전환을 지원할 다양한 AI 솔루션을 선보인다. 특히 회사는 품질 검사 고도화, 생산 효율 향상, 물류 자동화 등 제조업의 핵심 과제를 해결하기 위해 비전 AI와 생성형 AI를 결합한 '하이브리드 AI' 기술을 공개한다. 기존 비전 AI가 정형화된 불량을 탐지하는 데 그쳤다면 생성형 AI는 학습되지 않은 비정형 이상 징후까지 인식할 수 있다. 두 기술의 융합으로 AI 모델의 한계를 넘어선 차세대 품질 관리 시스템이 구현된다. 아이티센클로잇은 이번 전시에서 자동차, 식음료, 전자부품 등 산업 현장에 적용된 실제 성공 사례와 데이터를 공유한다. 방문객들은 불량률을 획기적으로 줄이고 생산성과 효율성을 동시에 높인 구체적인 프로젝트 결과를 직접 확인할 수 있다. 또한 현장에서 '제조 현장의 AI 전환'을 주제로 맞춤형 기술 상담 부스도 운영한다. 제조기업 관계자들은 엔지니어와 함께 설비 데이터 분석, 품질 이상 탐지, AI 기반 생산성 향상 방안 등 현실적인 적용 전략을 심층적으로 논의할 수 있다. 아이티센클로잇은 구글 클라우드 프리미어 파트너로서 대규모 고객사를 대상으로 다수의 AI·클라우드 프로젝트를 성공적으로 수행한 경험을 보유하고 있다. 이를 기반으로 제조 산업 전반의 AI 전환을 주도하며, 국내 제조 AI 시장의 본격적인 혁신을 이끌어 나갈 계획이다. 아이티센클로잇 관계자는 "이번 전시는 AI 기술이 제조 현장의 고질적 문제를 실제로 어떻게 해결했는지를 보여주는 자리"라며 "당사의 차별화된 AI 아키텍처와 노하우를 바탕으로, 제조 AX 전환을 위한 현실적 해법과 경쟁력을 제공할 것"이라고 말했다.

2025.10.23 14:41남혁우 기자

오라클, 'AI 에브리웨어' 전략 확장…클라우드 넘어 온프레미스까지

[라스베이거스(미국)=남혁우 기자] 오라클이 '인공지능(AI) 에브리웨어(AI Everywhere)' 전략을 한 단계 확장했다. 클라우드 중심의 AI 통합을 넘어 온프레미스와 하이브리드, 멀티클라우드 어디서나 동일한 AI 기능을 제공하는 현실적 배포 전략으로 진화했다. 오라클 후안 로이자 DB 기술 부문 총괄 부사장과 T.K. 아난드 헬스케어 및 애널리틱스 부문 총괄 부사장은 15일(현지시간) 미국 라스베이거스에서 열린 '오라클 AI 월드'에서 AI 에브리웨어 전략의 새로운 방향성을 제시했다. 로이자 부사장은 오라클의 AI 데이터 플랫폼이 단일 통합 스위트(Suite) 형태로 작동하도록 설계돼 있다고 설명했다. 단순히 여러 서비스를 연결하는 수준이 아니라 데이터베이스·오픈소스·레이크하우스·AI 에이전트까지 하나로 결합한 통합형 아키텍처를 지향한다는 것이다. 이를 위해 오라클은 데이터베이스, 데이터 관리, 레이크하우스, 애플리케이션 개발 전반에 AI 벡터와 대규모 언어모델(LLM)을 적용하는 등 전체 구조를 재설계 중이다. 로이자 부사장은 "고객이 여러 서비스를 직접 연결할 필요 없이 오라클이 내부적으로 완전하게 통합해 하나의 플랫폼처럼 느껴지게 하는 것이 목표"라며 "AI 데이터 플랫폼을 통해 데이터 수집·분석·활용까지 일관된 환경을 제공한다"고 말했다. 그는 "데이터를 자연어로 질의하고 AI가 이를 이해해 즉시 결과를 반환하는 환경이 현실화됐다"며 "이제 AI는 기업 데이터 아키텍처의 중심에서 작동한다"고 덧붙였다. 로이자 부사장은 이러한 변화를 'AI 기반 재건축(AI-driven rearchitecture)'으로 정의하며 "모든 오라클 기술은 이제 AI를 전제로 설계되고 있다"고 강조했다. 이번 발표의 가장 큰 변화는 AI 에브리웨어가 더 이상 클라우드 전용 전략이 아니라는 점이다. 로이자 부사장은 "우리는 고객에게 클라우드 이전을 강요하지 않으며 오히려 AI를 고객이 있는 곳으로 가져간다"고 말했다. 이어 "규제나 보안상의 이유로 데이터를 클라우드로 옮길 수 없는 기업도 많다"며 "이제 오라클은 그 고객의 데이터센터 안에 완전한 AI 데이터센터를 구축할 수 있다"고 설명했다. 오라클은 이를 위해 AI 벡터 기능과 오픈웨이트 대규모 언어모델(LLM) 지원을 강화했다. 고객은 온프레미스 데이터베이스 환경에서 AI 벡터를 직접 생성할 수 있으며 오픈소스 모델을 내려받아 로컬 환경에서 학습과 추론을 수행할 수 있다. 또 REST API를 통해 오픈AI나 제미나이(Gemini) 같은 외부 LLM과 연동할 수 있어 데이터는 내부에 그대로 둔 채 모델만 호출하는 방식으로 작동한다. 로이자 부사장은 LLM의 환각(hallucination) 문제에 대해서도 신중한 입장을 보였다. 그는 "AI는 불과 같아 잘 다루면 혁신이지만 제어하지 않으면 위험하다"고 비유했다. 이어 "특히 재무나 의료처럼 정확성이 중요한 영역에서는 잘못된 AI 응답이 곧 검증 실패로 이어진다"며 "AI 플랫폼의 신뢰성 확보가 무엇보다 중요하다"고 강조했다. 이에 따라 오라클은 가드레일 구조와 결과 검증 체계를 강화하고 있다. LLM의 응답은 확률 기반으로 작동하기 때문에, AI 결과의 신뢰도를 계산하고 검증하는 기능을 데이터베이스와 통합했다. 로이자 부사장은 "AI를 쉽게 쓸 수 있도록 하되, 아무나 함부로 쓸 수 없게 설계하는 것이 오라클의 방향"이라고 설명했다. T.K. 아난드 부사장은 오라클의 AI 데이터 플랫폼이 단순한 데이터 관리 도구가 아니라 엔드투엔드(End-to-End) 비즈니스 실행 플랫폼으로 발전하고 있다고 밝혔다. 그는 "AI의 진정한 가치는 인텔리전스에서 행동으로 이어질 때 나온다"며 "AI 에이전트 스튜디오(Agent Studio)를 통해 사용자가 직접 AI 에이전트를 만들고, 데이터 분석 결과를 실제 업무에 연결할 수 있다"고 말했다. 이어 "AI는 어디서나 쓸 수 있어야 하지만 아무렇게나 써서는 안 된다"며 "우리는 AI를 고객의 데이터가 있는 곳으로 가져가며 그곳에서 가장 안전하고 효율적으로 작동하도록 만들 것"이라고 말했다.

2025.10.16 07:09남혁우 기자

우주청 "2031년 이후 500Km가는 1t짜리 드론 개발"

우주항공청이 무게 1t으로 500km 이상 비행이 가능한 고중량·장기리 드론 시스템 개발에 나선다. 14일 대전 컨벤션센터 그랜드볼룸에서 우주항공청이 마련한 대한민국 항공혁신 추진전략 로드맵 공청회에서 이광병 항공혁신임무설계프로그램장은 "항공혁신 추진전략 구현이 힘들고 어려운 길이지만, 반드시 가야할 길"이라며 이같이 말했다. 이광병 프로그램장은 "지난 4월 항공혁신 추진전략을 만들었고, 이번 공청회서 여론을 수렴한뒤 이달 내 추진전략 로드맵을 발표할 것"이라며 "현재 우주청은 국가항공지도 전략을 도출 중"이라고 설명했다. 이 프로그램장은 "사실 너무 광범위하고, 이를 수행할 예산도 확보되지 않았다"며 "가야할 방향과 내용을 논의해 다부처가 협력해야 한다는 것을 감안해 들어달라"고 덧붙였다. 우주청은 항공분야 로드맵을 위해 5개 추진전략을 제시했다. 5개 추진전략은 △미래 첨단 항공모빌리티 구현 △친환경 항공기술 확보 △AI 기반 융복합 기술 연구 △핵심 부품·장비 국산화 △시험·평가 및 생산 인프라 구축 등이다. 요약하면 미래항공모빌리티, 드론, 엔진 개발에 초점이 맞춰져 있다. 미래첨단 항공모빌리티 구현을 위해 우주청은 ▲미래 항공 모빌리티(AAV) 분야 G5진입 ▲고중량·장거리 드론 시스템 개발 ▲마하 5이상 극초음속 추진 시스템 선행연구 등을 세부 실행 방안으로 제시했다. 미래 항공모빌리티(AAV)는 내년부터 개발에 착수한다. 10년이 넘는 장기 계획으로 하이브리드 추진 AAV 핵심기술을 개발할 계획이다. 우선 AAV 체계종합 및 시험평가를 거쳐 인증 및 상용화에 들어간다는 것이 우주청 복안이다. 또 드론 시스템 개발을 위해 1단계로 내년까지 사업 기획, 2027년부터 2031년까지 유상하중 400kg, 항속거리 300km급 중형 드론표준 플랫폼을 개발한 뒤 2단계로 다양한 수송환경에 따른 임무중심 운용기술 및 핵심부품 국산화 개발, 그리고 3단계로 2031년이후 유상하중 1000kg, 항속거리 500km급 고중량·장거리 수송형 드론을 개발할 계획이다. 이와함께 마하5이상 극초음속 추진시스템 선행연구에도 착수한다. 올해부터 터빈기반 복합 사이클(TBCC) 엔진 축소형 시제 개발과 극초음속추진기술 센터 운영, TBCC 엔진 중간규모 시제 및 실규모 시제 개발을 이어간다. 친환경 항공기술로는 20km 장기체공 무인기 기술 고도화를 중심으로 개발에 나선다. 또 융복합 기술로는 AI기반 완전 자율비행 기술 및 고성능, 다기능 융합형 무인기 개발 등이 목표다. 이외 배터리나 가스터빈 엔진기술 확보, 디지털 트윈 기반 시뮬레이션이나 모빌리티 부품 및 장비 시험/평가/생산 인프라 구축, 항공AI를 위한 데이터 댐 구축 계획 등이 거론됐다. 우주청 김현대 항공혁신부문장은 개회사에서 "로드맵은 항공선진 5대 강국으로 도약하기 위한 전략이자 미래 방향"이라며 "이를 위해선 단순한 기술 발전을 넘어 구조적 혁신과 생태계 변환이 필요하다"고 강조했다. 이어진 패널 토론은 신의섭 전북대 항공우주공학과 교수가 좌장을 맡았다. 패널로는 이융교 한국항공우주연구원 항공혁신연구소장, 김경남 대한항공 항공기술연구원장, 그리고 우주청에서 이광병 임무설계프로그램장, 최미진 임무보충프로그램장, 박성민 미래항공기프로그램 서기관이 참석했다. 이들 패널과 청중에서는 △드론 규모나 체급별 접근 모색 △드론 시장 중국 장악 대응 △예산 확보 방안 △다부처 협력 여부 △드론의 수요 중심 시스템화 △사업화 방안 필요성 △에어버스 등 중대형 항공기 산업 지원 여부 △인력 양성 △첨단기술 개발위한 국제협력 체계 여부 등에 대해 거론했다.

2025.10.14 16:20박희범 기자

퀄컴·휴메인, '에이전틱 AI' 혁신 위해 손잡았다

[하와이(미국)=장경윤 기자] 퀄컴과 휴메인(Humain)이 기업(엔터프라이즈)용 AI의 시장의 판도를 바꾸기 위해 손을 잡았다. 휴메인의 소프트웨어와 퀄컴의 하드웨어 기술을 결합해 효율적이면서도 통합적인 '에이전틱 AI'를 구현하는 것이 핵심이다. 특히 양사의 협업은 '하이브리드 AI'를 중심으로 전개될 전망이다. 크리스티아노 아몬 퀄컴 최고경영자(CEO)는 25일(한국시간 26일) 미국 하와이에서 열린 '스냅드래곤 서밋 2025' 행사에서 타레크 아민 휴메인 CEO와의 대담을 진행했다. 이날 휴메인은 에이전틱 AI 기능을 지원하는 차세대 AI PC '호라이즌 프로(Horizon Pro)를 발표했다. 에이전틱 AI는 사용자의 최소한의 개입만으로도 AI가 목표 설정부터 계획 수립, 작업, 결과 학습 등 전 과정을 스스로 수행하는 기술을 뜻한다. 휴메인은 에이전틱 AI를 구현할 핵심 운영체제인 '휴메인 원(One)'을 자체 개발했다. 휴메인 원은 사용자의 니즈를 예측하고 의사결정을 도와주는 적응형 인터페이스를 통해 엔터프라이즈 운영 전반을 돕는다. 특히 법무, 재무, 조달 등 기존 개별적으로 운영돼 온 솔루션을 하나로 통합한 것이 특징이다. 타레크 아민 휴메인 CEO는 "예를 들어 과거에는 급여 지급을 위해 ERP 시스템과 엑셀, 은행 포털, 급여 지급, 사후 감사 등의 복잡한 과정을 거쳤다"며 "반면 휴메인 원에서는 급여 이체만 명령하면 전 과정이 자동으로 처리된다. 예전에는 11명이 필요했던 HR 부서를 한명과 AI 비서만으로 운영할 수 있다"고 설명했다. 해당 기능이 온디바이스 AI에서 구현된다는 것도 장점이다. 온디바이스 AI는 기기 스스로 AI 기능을 수행하는 기술로, 클라우드를 거치지 않기 때문에 개인정보 보안에 유리하다. 데이터 처리의 효율성 및 속도도 향상된다. 호라이즌 프로는 퀄컴의 고성능 PC 프로세서인 '스냅드래곤 X 엘리트' 시리즈를 기반으로 한다. 특히 초고성능을 지원하는 울트라 모델의 경우, 퀄컴이 올해 서밋에서 공개한 최신형 칩인 '스냅드래곤 X2 엘리트'를 채용했다. 타레크 아민 휴메인 CEO는 "퀄컴은 우리의 아이디어를 받아줄 수 있는 몇 안되는 회사 중 하나로, 호라이즌 프로 역시 퀄컴 엔지니어들과 9개월간 공동 개발해 왔다"며 "퀄컴의 스냅드래곤 X2 엘리트를 특히나 더 좋아한다"고 강조했다. 양사 주요 임원진은 하이브리드 AI의 중요성에 대해서도 뜻을 같이했다. 특정 업무의 경우 클라우드 기반의 방대한 데이터 처리가 필요하기 때문에, 클라우드와 온디바이스를 오가는 하이브리드 AI 운용이 필요하다. 크리스티아노 아몬 퀄컴 CEO는 "기기에서 300억~400억 파라미터 모델을 실현할 수 있다면 대부분의 엔터프라이즈 운영은 기기만으로 해결이 가능하고, 부족한 부분만 클라우드로 보완하면 된다"며 "이것이 업계가 필요로 하는 조화고, 퀄컴과 휴메인이 함께 선도해 나갈 것"이라고 밝혔다. 타레크 아민 휴메인 CEO는 "동의한다. 대규모 모델도 가치가 있지만 특정 분야에 특화된 소규모언어모델(SLM)이 더 절실하다"며 "우리는 기기 자체에서 실행하고, 필요한 경우만 클라우드와 연동하는 하이브리드 AI 구조를 만들고 있다"고 응답했다.

2025.09.26 09:44장경윤 기자

[기고] 에이전틱 AI 시대, 하이브리드 클라우드 전략 다시 짜야

브로드컴의 VM웨어 인수로 인해 하이브리드 클라우드 전략 전반에 격변이 일어났다. 기업 IT 팀들이 라이선스 조건의 변화를 목격하면서 인프라에 대한 오랫동안 지속된 가정들에 대한 의문이 제기되기 시작했고, 인공지능(AI)이 IT 전략을 재정의하는 역할에 대한 추측이 이를 더욱 부채질했다. 이런 새로운 사고의 배경에는 에이전틱 AI가 있다. 에이전틱 AI는 최소한 감독 하에 스스로 의사결정을 내리고 자율적으로 행동하며, 사용자·다른 시스템과 상호작용할 수 있는 시스템이다. '낡은 것은 버리고 새로운 것을 받아들이자'는 흐름은 빠르게 클라우드 아키텍처를 재고해야 한다는 것으로 이어졌고, 이는 에이전틱 AI에 대한 투자가 가속화된 것으로 나타나고 있다. 하이브리드 클라우드는 오랫동안 임시방편으로 여겨져 온 경향이 있다. 일부 조직들이 퍼블릭 클라우드가 맞지 않을 때 기본적으로 선택하는 옵션이었던 것이다. 하지만 오늘날 하이브리드 클라우드는 대규모 혁신을 위한 최적의 모델로 부상하고 있으며, 특히 데이터 프라이버시, 컴플라이언스, 성능이 중요한 분야에서 더욱 그렇다. 퍼블릭 클라우드는 방대한 확장성과 편의성을 제공해 대규모 AI 모델 훈련과 생성형 AI 애플리케이션 구현에 이상적이다. 하지만 에이전틱 AI 시스템은 지역화된 추론, 빠른 피드백 루프, 상황 인식 능력을 요구한다. 의료 워크플로, 금융 리스크 엔진, 통신 아키텍처에 내장되든 상관없이 하이브리드 시스템은 지연시간, 에너지 오버헤드, 규제 리스크를 더 효과적으로 관리할 수 있다. 유연성과 범위를 고려할 때, 에이전틱 AI에 대한 활발한 수요가 있다는 것은 그리 놀라운 일이 아니다. 최근 전망에 따르면 에이전틱 AI는 2030년까지 의료 분야에서만 연간 35-40% 성장할 것으로 예상되며, 금융 부문에서는 향후 10년간 전 세계적으로 40배 이상의 에이전틱 AI 도입 증가가 예상된다. 이는 소프트웨어 진화뿐만 아니라 인프라 진화도 요구한다. AI 에이전트는 클라우드에서 훈련하고, 엣지에서 작동하며, 레거시 시스템과 통합하고 지속적으로 학습하는 등 다양한 환경에서 작동해야 한다. 이는 인프라도 마찬가지로 분산되고 유연하며 탄력적이어야 함을 의미한다. 이것이 바로 하이브리드 클라우드가 필요한 지점이다. 이런 맥락에서 많은 CIO들이 직면한 과제는 혁신과 운영·규제 요구사항 균형을 맞추는 것이다. 사실 에이전틱 AI는 비즈니스 이익을 가져다주지만 실제로는 이를 더 쉽게 만들어주지는 않는다. 복잡하고 대부분 조직의 IT 환경의 특성을 고려할 때 잠재적 위험으로 가득 차 있다. 인프라는 많은 기반을 커버해야 하며, 이것이 하이브리드 클라우드가 작동하는 지점이다. 여러 환경에서 하이브리드 클라우드는 민감하지 않은 컴퓨팅 집약적 워크로드(모델 훈련 등)를 퍼블릭 클라우드에서 처리하는 동시에, 추론과 민감한 데이터 처리는 사용자 가까이 또는 주권 경계 내에서 유지할 수 있는 방법을 성공적으로 입증했다. 그 결과 조직들은 프라이버시나 제어를 타협하지 않으면서도 더 빠르게 혁신할 수 있다. 자율성과 확장성을 하나로 적절하게 설계, 구성, 관리된 하이브리드 클라우드 아키텍처는 유연성 이상을 제공한다. 그래야 결코 잠들지 않는 AI 시스템을 위한 운영 백본을 제공할 수 있다. 에이전틱 AI는 클라우드와 엣지에서 실시간으로 원활하게 작동해야 하며, 종종 지연시간, 컴플라이언스, 제어에 대한 엄격한 요구사항을 갖고 있다. 하이브리드 모델은 훈련 워크로드를 중앙화된 인프라로 이동시키는 동시에 추론이 결정이 내려지는 곳 가까이에서 실행될 수 있게 한다. 병원 병동이든, 금융 거래 데스크든, 물류 허브든 상관없이 말이다. 일부 제공업체들은 시장 수요에 빠르게 대응하여 유연한 하이브리드 아키텍처를 통해 이러한 요구를 해결하고 있다. 예를 들어 알리바바 클라우드의 압사라 스택(Apsara Stack)은 퍼블릭 클라우드 역량을 프라이빗 환경으로 가져와 코어, 엣지, 온프레미스 위치에서 훈련 및 추론 워크로드의 일관된 배포를 가능하게 한다. 이런 솔루션들은 더 스마트한 에너지 사용과 더 나은 비즈니스 연속성의 문을 연다. 처리를 지역화하고 불필요한 데이터 이동을 줄임으로써 하이브리드 배포는 조직들이 점점 더 엄격해지는 환경·사회·지배구조(ESG) 목표를 달성하고 AI 에너지 수요를 관리하는 데 도움을 줄 수 있다. 동시에 디지털 서비스가 더 자율적이고 상시 가동되면서 핵심 요구사항인 더 탄력적인 재해복구와 인프라 장애 조치를 제공한다. 결국 하이브리드 클라우드는 그 자체로 강력한 솔루션임을 입증한다. 에이전틱 AI가 필요로 하는 확장성, 복잡성, 맥락 인식 능력을 모두 지원할 수 있기 때문이다. 무엇보다 비용, 컴플라이언스, 성능 측면에서 새로운 리스크를 발생시키지 않으면서도 이 모든 것을 실현할 수 있다는 점이 하이브리드 클라우드의 핵심 강점이다. 에이전틱 AI가 시스템 작동 방식을 재정의할 뿐만 아니라 인프라 설계 방식도 재정의하고 있다는 것은 분명하다. 분산 하이브리드 인프라는 조직들이 혁신, 규제, 탄력성을 종종 동시에 관리하는 방식의 중심이 되고 있다. 가상화 분야의 최근 격변은 이러한 초점을 더욱 부각시켰을 뿐이다. 현재 우리가 목격하고 있는 현상은 조직들이 기존 시스템 의존성에서 벗어나면서, 하이브리드 클라우드가 어쩔 수 없는 절충안이 아니라 전략적 선택으로 자리 잡고 있다는 것이다. 하이브리드 클라우드는 이 시대가 요구하는 아키텍처인 동시에 IT 리더와 팀원들이 간절히 필요로 하던 해답이기도 하다.

2025.09.22 10:39필릭스 리우 컬럼니스트

카카오엔터프라이즈, '하이브리드 GPUaaS' 공개…AI 인프라 장벽 넘는다

인공지능(AI) 확산이 본격화되면서 그래픽처리장치(GPU) 인프라 확보와 비용 최적화가 기업들의 핵심 과제로 떠오른 가운데, 카카오엔터프라이즈가 클라우드와 온프레미스의 장점을 결합한 새로운 형태의 GPU 인프라 서비스를 공개했다. 카카오엔터프라이즈는 17일 서울 강남구 코엑스에서 열린 '델 테크놀로지스 포럼 2025'에서 고성능 AI 인프라를 도입하는 새로운 기준인 '하이브리드 서비스형 GPU(GPUaaS)'를 선보였다. 카카오엔터프라이즈 클라우드부문 이재한 사업본부장은 "글로벌 AI 시장이 급격히 성장하면서 GPU 수요가 폭발적으로 늘고 있지만 막대한 비용 부담이 AI 확산의 큰 장벽으로 작용하고 있다"며 이를 해결하기 위한 대안으로 하이브리드 GPUaaS 서비스를 제안했다. 그는 "기업·기관 고객이 하이브리드 GPUaaS를 통해 클라우드와 온프레미스의 장점만을 결합해 고성능 AI 인프라를 신속하게 도입·운영할 수 있다"며 "이를 통해 ▲GPU 구매·구축 비용 효율화 ▲GPU 클러스터·인프라 통합 관리 ▲GPU 리소스의 유연한 확장과 안정적 운영 등 다양한 이점을 누릴 수 있다"고 설명했다. 하이브리드 GPUaaS는 고객이 카카오클라우드를 통해 GPU 서버를 도입하면 카카오클라우드 데이터센터 내에서 이를 운영·관리해 주는 방식이다. 고객은 GPU를 직접 소유하면서도 클라우드의 확장성과 편의성을 동시에 누릴 수 있다. 이 본부장은 "온프레미스의 최적화된 성능과 클라우드의 유연성을 결합한 AI 인프라 운영의 새로운 개념"이라고 강조했다. 카카오엔터프라이즈는 이날 행사에서 GPU 인프라 최적화에 필요한 핵심 고려 요소로 ▲비용·투자 구조 ▲GPU 사용 기간 ▲유연성·확장성 ▲운영·관리 역량을 꼽았다. 특히 GPU 사용량 변동이 크거나 최신 GPU 도입 속도가 중요한 기업에는 GPUaaS 모델이 적합하며 장기적·고정적 수요가 있는 기업은 온프레미스 방식이 유리하다고 분석했다. 하이브리드 GPUaaS는 이 두 환경의 장점을 결합해 최적의 해법을 제공한다는 설명이다. 아울러 델 서버·스토리지 기반 구축 사례를 소개하며 복잡한 AI 워크로드에서도 일반 GPUaaS 대비 최대 33%, 온프레미스 대비 약 11%의 비용 절감 효과를 확인했다고 밝혔다. 이날 세션 발표 외에도 카카오엔터프라이즈는 카카오클라우드의 하이브리드 GPUaaS를 소개하는 전시 부스를 마련했다. 하이브리드 GPUaaS 도입에 관심이 있는 기업·기관을 대상으로 부스 방문 이벤트와 카카오클라우드 하이브리드 GPUaaS 도입 설문 이벤트 등 다양한 행사를 진행했다. 이 본부장은 "카카오클라우드의 하이브리드 GPUaaS는 GPU 인프라를 한층 더 효율적이고 유연하게 운영할 수 있도록 온프레미스의 최적화 강점과 클라우드의 안정성·편의성을 완벽하게 조합한 혁신적인 엔터프라이즈 솔루션"이라며 "AI 인프라 운영의 새로운 패러다임이 될 것”이라고 강조했다.

2025.09.17 17:04한정호 기자

한화세미텍, 내년 초 하이브리드 본더 출시…차세대 HBM 겨냥

한화세미텍이 차세대 HBM(고대역폭메모리) 시장을 겨냥해 내년 초 하이브리드본더 장비를 출시할 계획이다. 한화세미텍은 10일부터 12일까지 대만 타이페이에서 열리는 국제 반도체 박람회 '세미콘타이완 2025'에서 하이브리드본더 청사진을 담은 차세대 첨단 반도체 패키징 장비 개발 로드맵을 발표했다고 10일 밝혔다. 개발 로드맵에 따르면 한화세미텍은 ▲2024년 TC본더 'SFM5 Expert' ▲2025년 CoW(Chip-on-Wafer) 멀티칩본더 'SFM5 TnR' ▲플럭스리스본더 'SFM5 Expert+' ▲하이브리본더 'SHB2 Nano'를 내년 초 출시할 계획이다. 반도체 장비 시장에서 가장 큰 관심을 받고 있는 하이브리드본더는 고대역폭 메모리(HBM) 성능과 생산 효율을 크게 향상시킬 것으로 기대된다. 현재 HBM 제조에 주로 사용되는 TC본더는 범프(납과 같은 전도성 돌기)에 열과 압력을 가해 칩과 칩을 붙인다. 이와 달리 하이브리드본더는 별도의 범프 없이 칩을 붙일 수 있어 20단 이상의 고적층칩 제조에 필수적인 장비로 평가받고 있다. 칩 사이 범프가 없기 때문에 전기신호 손실을 최소화할 수 있어 반도체 성능도 크게 향상된다. 세미콘타이완 2025에서는 멀티칩본더, 플럭스리스본더, 하이브리드본더 등 주요 차세대 장비를 선보인다. 이 중 SFM5 TnR을 포함한 일부 장비는 현장에서 직접 구동 시연을 할 예정이다. 한화세미텍 첨단 패키징 장비의 특징은 뛰어난 품질관리 능력과 고도의 정확성이다. 특히, 하이브리드본더의 경우 금속과 비금속 본딩 과정에서 틈(Void)가 생기지 않게 하는 게 무엇보다 중요하다. 곧 선보일 2세대 하이브리드본더 장비는 본딩시 위치 오차범위 0.1μm(마이크로미터) 단위의 수준으로 정밀 정렬이 가능하다. 이는 머리카락 굵기(약 100μm)의 1/1000 정도의 초정밀 본딩 기술 덕분이다. 박영민 한화세미텍 반도체장비사업부 사업부장은 “한화세미텍은 앞서 2022년 하이브리드본더 1세대 장비를 고객사에 성공적으로 납품했다”며 “현재 개발 중인 2세대 장비는 내년 1분기 고객사 평가를 받을 수 있도록 준비 중”이라고 밝혔다. 한화세미텍 관계자는 “올해 업계 최고 수준의 TC본더를 성공적으로 공급한 데 이어 차세대 패키징 장비를 곧 출시할 예정”이라면서 “기술 개발에 더욱 속도를 내 시장을 선도하는 반도체 종합 제조 솔루션 기업으로 자리잡을 것”이라고 밝혔다.

2025.09.10 12:52장경윤 기자

[인터뷰] 찰스 샌즈버리 CEO, 취임 2년만에 클라우데라 흑자 전환 성공…비결은?

"향후 3~5년 동안 각 기업들이 인공지능(AI) 프로젝트를 추진하는데 있어 우리 기술이 핵심 구성요소가 되길 기대하고 있습니다. 앞으로 제품 품질과 고객 지원, 시장 확장에 집중해 시장에서 제 때 적절한 기회를 잡는 것이 목표입니다." 찰스 샌즈버리 클라우데라 최고경영자(CEO)는 지난 7일 싱가포르 마리나 베이 샌즈 컨벤션 센터에서 진행된 '이볼브 25 싱가포르(Evolve25 Singapore)' 행사에 참석한 후 기자와 만나 앞으로의 경영 목표에 대해 이처럼 밝혔다. 지난 2023년 8월 클라우데라에 합류한 샌즈버리 CEO는 ASG 테크놀로지스, 어태치 메이트 그룹 등 소프트웨어 업계에서 20년 이상 전략, 재무, 운영 분야의 전문가로 활약했던 인물로, 클라우데라의 수익 개선에 상당한 기여를 한 것으로 평가되고 있다. 클라우데라는 지난 2008년 설립된 후 지금까지 하이브리드 데이터 플랫폼으로서 입지를 탄탄하게 구축해 왔다. 한 때 빅데이터 오픈소스 소프트웨어(SW) 시장의 선두 주자였으나, 이제는 이를 넘어 데이터 전반을 효율적으로 관리할 수 있는 유일한 회사가 됐다. 특히 2018년 발표한 데이터 관리 솔루션 '클라우데라 데이터 플랫폼(CDP)'은 클라우데라를 데이터 플랫폼 회사로 거듭나게 한 대표 서비스로 우뚝 올라섰다. 올해 상반기 기준 클라우데라가 전 세계에서 관리하는 데이터 양은 25EB(엑사바이트)에 달하는데, 이는 하이퍼스케일러와 견줄만한 규모다. 테라바이트(TB)로 환산하면 2천500만 TB로, 주요 경쟁사가 처리하는 것에 비해 약 100배 규모다. 다만 지난 2021년 사모펀드인 KKR과 CD&R에 인수될 당시에는 상황이 마냥 좋지는 않았다. 2019년에는 경쟁사인 호튼웍스를 인수하며 잘 나가는 듯 했으나, 통합 과정에서 어려움을 겪었고 적자 상태에 빠졌다. 결국 클라우데라는 사모펀드에 매각되면서 비상장 회사로 전환됐고 수익 정상화를 위해 다각도로 노력해왔다. 특히 샌즈버리 CEO가 2년 전 클라우데라에 합류하면서 조직 문화에 많은 변화가 생겼다. 상장기업 때와 달리 복잡한 외부 보고 체계에서 벗어나 내부 운영과 전략 결정에 더 유연성을 갖게 되며 업무 효율성이 높아졌다. 샌즈버리 CEO는 "4년 전 사모펀드에 인수된 후 호튼웍스와 클라우데라의 통합 작업, CDP으로의 전환 등 중요한 구조조정과 기술투자를 효과적으로 수행할 수 있었다"며 "모든 직원에게 지분을 부여해 '주인 의식' 문화도 조성했는데, 이는 공공시장에선 실행하기 어려운 방식이었다"고 설명했다. 덕분에 클라우데라는 빠르게 수익 개선에 성공해 지난해 기준 수억 달러의 영업이익을 달성했다. 연간 매출은 10억 달러를 돌파했고, 통신·금융·제조·의료·제약·에너지 등 여러 분야의 글로벌 10대 기업의 70~90%가 데이터 분석에 클라우데라를 사용하게 됐다. 여기에 샌즈버리 CEO는 취임한 후 2년간 AI 시대에 맞춰 클라우데라의 역량을 강화해 나가며 경쟁사들과의 격차를 더욱 벌렸다. 지난해 6월 AI 운영 플랫폼 회사 베르타를 인수한 것이 대표적이다. 베르타는 클라우데라의 머신러닝 팀에 합류해 AI 로드맵을 추진하는 중추적 역할을 맡았다. 같은 해 11월에 품은 옥토파이도 AI 관련 기술력을 높이기 위해 인수했다. 다차원 데이터 계보와 메타데이터 관리 기술을 제공해 클라우데라의 데이터 아키텍처를 보완하고 있다. 두 회사를 인수함으로써 클라우데라는 데이터 품질 및 신뢰성이 향상되는 효과를 얻었다. 클라우데라는 쿠버네틱스 관리 역량도 강화하기 위해 지난 5일 체코 쿠버네티스 플랫폼 기업 타이쿤도 인수했다. 이번 일로 퍼블릭 클라우드와 온프레미스, 소버린 클라우드, 폐쇄망 등 다양한 환경에서 데이터·AI 워크로드를 유연하게 배포하고 운영할 수 있는 통합 컨트롤 플레인을 확보하게 됐다는 평가를 받았다. 샌즈버리 CEO는 "타이쿤 인수를 통해 제품의 배포·업그레이드 편의성이 획기적으로 개선됐다"며 "이는 스노우플레이크나 데이터브릭스 등 SaaS 모델 기반 기업들이 따라올 수 없는 우리만의 강점으로 부상 중"이라고 강조했다. 그러면서 "최근 14개월 간 3건의 기술 중심 기업들을 인수하고 3억 달러 이상을 제품 개선에 투자해 최근 AI 스튜디오, AI 워크벤치 등의 서비스를 출시하게 됐다"며 "우리는 고객이 필요로 하는 기술을 만들기 위해 다양한 방면으로 노력 중"이라고 설명했다. 이어 "앞으로도 신속한 제품 역량 확보 및 시장 출시 가속화를 위해 특정 지역에 얽매이지 않고 글로벌하게 기술 중심으로 인수 대상을 탐색할 것"이라며 "M&A는 단순히 기술뿐 아니라 전문 인력과 노하우를 함께 확보하는 전략으로 접근해 나갈 것"이라고 덧붙였다. 클라우데라는 AI칩 강자인 엔비디아와의 협력을 통해서도 AI 시대에 맞는 기술을 선보이기 위해 노력 중이다. 현재는 엔비디아 기업용 AI SW 플랫폼 중 'NIM 마이크로서비스'를 자사 머신 러닝에 통합해 빠르고 안전한 생성형 AI 워크플로우를 제공 중이다. 또 엔비디아, 델과 협업해 'AI 인 어 박스(AI-in-a-Box)'라는 최적화된 통합 솔루션을 개발 중이다. 이 제품은 그래픽처리장치(GPU) 기반 환경에서 성능을 극대화하도록 설계됐으며 고객이 복잡한 GPU 최적화 없이 바로 AI 프로젝트를 시작할 수 있게 도와준다. 샌즈버리 CEO는 "이 같은 노력 덕분에 전통적인 '데이터 레이크 플랫폼' 중심 기업이란 이미지에서 벗어나 AI 기반의 매출 비중이 큰 폭으로 커질 수 있었다"며 "(AI 시대를 맞춰) 대형 기업들이 전면적인 클라우드 전환에 실패하면서 우리의 하이브리드 모델이 재조명되고 있다"고 말했다. 또 그는 "기업들이 단순 챗봇이나 요약 기능을 넘어 진정한 AI 에이전트를 구축하려면 탄탄한 데이터 거버넌스, 접근 권한 관리, 통합 데이터 환경이 필수"라며 "그러나 많은 기업들이 이 부분에서 어려움을 겪으면서 우리 역할이 더 중요해지고 있다"고 짚었다. 이에 맞춰 샌즈버리 CEO는 최근 유럽의 일반개인정보보호법GDPR), 한국의 마이데이터 등 각국 데이터 주권 규제가 강화되고 있다는 점도 고려해 사업을 확장해 나갈 것이란 의지를 보였다. 그는 "우리는 보안과 접근 제어 설정이 가능한 유연한 제품 아키텍처를 제공 중"이라며 "각 지역의 현지 파트너 및 전문 인력들이 이를 고객의 규제 환경에 맞게 설정하도록 지원하고 있다는 점에서 큰 문제가 되진 않을 것 같다"고 설명했다. 그러면서 "온프레미스와 클라우드 환경을 모두 지원하는 하이브리드 구조를 갖추고 있어 민감한 데이터를 클라우드로 이전하기 어려운 금융, 정부, 의료 분야 고객을 공략하는 데 우리만의 강점이 있다고 본다"며 "과거에는 가능한 모든 워크로드를 클라우드로 이전하는 것이 목표였다면, 이제는 보안 및 통제 등의 이유로 온프레미스를 활용해 AI를 활용하고 싶어하는 기업들이 점차 늘어나고 있다는 점은 우리에게 기회가 되고 있다"고 부연했다. 이를 바탕으로 샌즈버리 CEO는 앞으로 클라우데라를 AI 시대의 핵심 인프라 제공자로 키우겠다는 목표를 드러냈다. 또 고객 접점 강화와 기술 투자, 시장 인지도 제고를 통해 자연스럽게 더 큰 수익을 실현할 수 있는 기반을 다질 것이란 포부도 밝혔다. 샌즈버리 CEO는 "앞으로 고객들이 AI라는 '금광'을 찾을 수 있도록 그 여정을 돕는 가장 좋은 도구를 제공하기 위해 나설 것"이라며 "앞으로 어떤 AI 기술이 등장하든 기업들이 신뢰할 수 있는 데이터 위에 원하는 AI 모델을 선택해 자유롭게 사용할 수 있는 기반을 제공할 것"이라고 피력했다.

2025.08.11 09:23장유미 기자

"기업 AI 도입, 쉽지 않네"…'데이터 플랫폼 강자' 클라우데라가 제시한 해결책은?

[싱가포르=장유미 기자] 전 세계 하이브리드 데이터 플랫폼 시장을 선도하고 있는 클라우데라가 인공지능(AI) 에이전트 시대를 맞아 기업들의 대응력을 높일 수 있는 새로운 해법 제시에 나선다. AI를 도입하기 위해선 데이터 분석이 기업의 필수 요소가 된 만큼 이번 일로 클라우데라의 존재감도 더 커질 전망이다. 클라우데라는 7일(현지시간) 싱가포르 마리나 베이 샌즈 컨벤션 센터에서 '이볼브 25 싱가포르(Evolve25 Singapore)' 행사를 열고 온프레미스, 클라우드 등 다양한 환경에서 AI를 쉽게 도입할 수 있는 방안을 제시했다. 최근 생성형 AI가 업무 방식에 근본적 변화를 일으키고 있지만 아직 기업들이 이를 도입하는데 어려움을 겪고 있다는 판단에서다. 실제 클라우데라가 진행한 조사에 따르면 전 세계 IT 및 데이터 담당 임원 중 96%는 올해 AI 에이전트의 활용을 확대할 계획인 것으로 나타났다. 하지만 기업들은 AI 에이전트 도입 시 데이터 프라이버시 문제(53%), 시스템 통합 장벽(40%), 높은 구현 비용(39%) 등의 이유로 제대로 활용하기 어려워했다. 가트너 역시 오는 2027년까지 AI 에이전트 프로젝트의 40% 이상이 투자수익률(ROI) 저조와 복잡성 증가로 중단될 것이라 예측한 바 있다. 이에 클라우데라는 이날 행사에서 '어디서든 AI와 함께하는 데이터 혁신(Bringing AI to Your Data – Anywhere)'을 주제로 기업들이 어떤 환경에서도 쉽게 AI를 구축할 수 있는 서비스를 새롭게 선보였다. 클라우드뿐 아니라 온프레미스에서도 프라이빗 AI를 구축할 수 있게 한 것으로, 방화벽 내부에서 그래픽처리장치(GPU) 기반의 생성형 AI 기능을 안전하게 사용할 수 있는 것이 특징이다. 또 내재된 거버넌스 기능과 하이브리드 이동성을 기반으로 자체 데이터센터 내에 소버린 클라우드의 구축·확장을 지원한다. 이 같은 서비스는 클라우데라가 퍼블릭 클라우드, 온프레미스 모두에서 동일한 클라우드 네이티브 서비스를 통해 데이터 라이프사이클 전반을 제공하는 유일한 기업이기에 가능했다. 클라우데라는 경쟁사들과 달리 검증된 오픈소스를 기반으로 어떤 환경에서든 일관된 클라우드 경험을 제공한다. 또 기업이 AI를 적용하고 모든 형태의 데이터를 100% 제어할 수 있도록 지원해 보안, 거버넌스, 실시간 및 예측적 인사이트도 향상시킨다는 평가를 받는다. 찰스 샌즈버리 클라우데라 최고경영자(CEO)는 "좋은 AI는 안전성, 신뢰성, 좋은 품질을 가진 데이터가 뒷받침돼야 한다"며 "우리는 기업들이 클라우드, 온프레미스 등 다양한 환경에서 데이터를 관리하고 접근할 수 있도록 도와주는 도구와 기능을 제공하고 있다"고 설명했다. 이어 "공공 데이터뿐 아니라 프라이빗 데이터를 포함한 전체 정보를 기반으로 고객이 더 나은 결정을 내리고 실질적인 결과를 만들어 낼 수 있게 도와주고 있다"며 "고객 상당수가 헬스케어, 금융, 정부 기관 등 규제가 엄격한 산업군에 속해있다는 점을 감안한 것"이라고 덧붙였다. 또 클라우데라는 이번 행사에서 온프레미스 고객을 위한 데이터 서비스 개선 사항도 발표한다. 여기에는 ▲클라우데라 AI 인퍼런스 ▲향상된 인증서 관리 ▲AI 워크벤치 성능 향상 ▲향상된 데이터 엔지니어링 접근 제어 ▲하이브 쿼리 기록 ▲일반적인 취약 및 노출 지점 대폭 감소 등이 포함된다. 더불어 클라우데라는 전 세계에서 가장 혁신적이고 영향력 있는 데이터 및 AI 이니셔티브를 선정하는 '2025 데이터 임팩트 어워드' 시상식을 이번에 함께 진행한다. 또 지난 6일에는 연례 파트너 프리뷰 행사를 통해 지역 전반에 걸쳐 데이터 및 AI 성과를 가속화하는 데 기여를 한 주요 파트너 시상식을 진행했다. 이번에 수상한 곳은 ▲IBM 컨설팅 ▲KPMG ▲캡제미니 ▲AWS 등이다. 리무스 림 클라우데라 APAC 및 일본 지역 수석 부사장은 "데이터를 안전하고 책임감 있게 실시간으로 활용하는 기업이 미래 산업을 이끌 것"이라며 "이는 AI를 구축하는 것을 넘어 모든 AI 기반 결정에 신뢰, 영향력, 회복탄력성을 부여하는 것을 의미한다"고 말했다. 클라우데라는 '이볼브25' 행사에서 '행동 가속, 혁신 가속(Accelerate Action, Accelerate Innovation)'을 주제로 '테크 업계 여성 리더' 세션도 개최한다. 또 글로벌 스폰서인 아마존웹서비스(AWS), 델, 엔비디아를 비롯해 테크데이터 등 지역 스폰서, OCBC, 알리안츠, 보다폰 아이디어 등 주요 고객사와 파트너, 업계 리더들이 한 자리에 모여 다양한 혁신 사례를 논의하는 자리도 마련된다. 특히 금융, 통신, 석유, 리테일 산업의 주요 고객은 개별 세션과 워크숍을 진행한다. 샌즈버리 CEO는 "AI와 데이터 분석이 기업의 필수 요소가 되면서 성공 사례를 선보이고 기술의 이점을 이해하기 위한 실습 교육이 중요해졌다"며 "'이볼브25'는 세계에서 가장 포괄적인 데이터, AI 행사 중 하나로, 고객, 파트너, 산업 혁신 리더들이 협력, 교류하며 데이터 관리, 분석, AI의 다음 단계를 모색할 수 있는 기회를 제공한다"고 말했다.

2025.08.07 10:00장유미 기자

한미반도체 "국내외 HBM4 본더 장비도 전량 수주 자신"

ㄲ한미반도체가 향후 경쟁이 치열해질 것으로 예상되는 HBM4(6세대 고대역폭메모리)용 TC 본더 시장에서도 독점적인 지위를 차지할 것으로 자신했다. 또한 주요 고객사로부터 차세대 장비인 플럭스리스 본더를 주문 받아, 올 하반기 납품을 시작할 예정이다. 30일 한미반도체는 여의도 포스트타워에서 '2025년 2분기 잠정실적 리뷰 설명회'를 열고 회사의 주요 사업 현황 및 향후 기술 로드맵에 대해 이같이 밝혔다. "주요 고객사 HBM4용 TC본더, 전량 수주 자신" 한미반도체는 국내 주요 반도체 후공정 장비업체다. 특히 열·압착을 통해 칩과 웨이퍼를 붙이는 TC본더 분야에 주력하고 있다. TC본더는 여러 개의 D램을 수직으로 적층한 뒤 TSV(실리콘관통전극)로 연결하는 HBM(고대역폭메모리) 제조에 필수적으로 활용된다. 현재 한미반도체는 HBM 분야에서 SK하이닉스는 물론, 북미 주요 메모리 기업을 고객사로 확보한 상태다. 한미반도체는 올 2분기 매출 1천800억원, 영업이익 863억원을 기록했다. 전년동기 대비 매출은 45.8%, 영업이익은 55.7% 증가했다. 영업이익률은 47.9%다. 하반기 실적을 포함하면 연간으로 8천억원~1조1천억원의 매출을 기록할 것으로 내다봤다. 하반기 HBM4용 설비투자가 본격화되는 시점에도 시장 선점을 자신했다. 김정영 한미반도체 부사장은 "한미반도체는 주요 HBM 고객사와 오랜 시간 협업해오며 양산 경험을 쌓아온 기업으로, 하루아침에 이 지형이 바뀌지 않을 것으로 보고 있다"며 "주요 고객사의 모든 HBM4용 TC본더를 당사가 수주할 것이라고 자신한다"고 강조했다. 특히 해외 시장의 경우, 한미반도체 TC본더 마진이 국내 대비 30~40%가량 높은 것으로 알려졌다. 이에 한미반도체는 TC본더를 비롯한 전체 사업에서 해외 매출 비중 확대를 적극 추진 중이다. 해외 또 다른 고객사의 HBM용 TC본더 수요도 향후 발생할 것으로 기대하고 있다. 김 부사장은 "올해 해외 고객사로부터 대규모 주문이 들어올 것으로 예상하고 있고, 논의도 그러한 방향으로 진행하고 있다"며 "올해와 내년에 걸쳐 작년 주문량의 2배 증가를 상정하고 이를 충족하기 위한 생산능력 확충을 진행 중"이라고 밝혔다. 플럭스리스 본더, 올해 납품 예정…하이브리드 본더도 개발 중 향후 기술 로드맵에 대해서는 HBM4·4E부터 플럭스리스 본딩이 적용될 것으로 전망했다. 플럭스는 기존 TC본딩에서 접합을 도와주기 위해 쓰이던 소재다. 이 플럭스를 쓰지 않는 대신, 접합 간격을 더 줄여 HBM 패키지 두께를 얇게 하는 데 유리한 기술이 플럭스리스 본딩이다. 김 부사장은 "주요 고객사로부터 이미 플럭스리스 본더를 주문 받아, 올해 납품을 준비 중"이라며 "플럭스리스 본더를 개발 중인 해외 경쟁사들도 있지만, 당사 장비는 기존 TC본더 투자분에 대해 업그레이드가 가능해 시장 지배력을 지속할 수 있을 것"이라고 밝혔다. 이후 차세대 HBM에 적용될 하이브리드 본더 시장도 대응하고 있다. 하이브리드 본딩은 칩과 웨이퍼 구리 배선을 직접 붙이는 기술로, 기존 TC 본더와 달리 범프(Bump)를 쓰지 않는다. 덕분에 HBM 패키지 두께를 더 줄이고 방열 특성을 높일 수 있다. 이에 한미반도체는 테스 등 국내 장비기업과의 기술 협력으로 하이브리드 본더를 개발하고 있다. 하이브리드 본더 등 차세대 제품 생산을 위한 신규 공장에도 1천억원을 투자하기로 했다. 한미반도체의 하이브리드 본더 출시 시기는 2027년으로 전망된다. 이를 통해 HBM과 최첨단 시스템반도체 시장을 순차적으로 공략할 계획이다.

2025.07.30 15:50장경윤 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

中, 엔비디아 H200 수입 준비…자국 AI칩 동시 활용

괴테는 모든 것을 말하진 않았다, 그리고 '업계 전문가'도

게임시장 소비자 직접 판매 'D2C 시대' 온다

'서학개미' 확대에 원·달러 일평균 807억 달러 움직였다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.