• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'와라! 편의점'통합검색 결과 입니다. (62416건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

이연수 NC AI 대표 "모두가 크리에이터…다른 기업과 협력 원해"

"기술을 소개하는 세미나보다는 네트워킹을 통해 협력을 얘기하고, AI와 관련한 후속사업들을 같이 얘기하고 싶다." 지난 8일 대전에서 열린 한국인공지능시스템포럼(의장 유회준 KAIST 교수) 조찬 강연회에서 이연수 NC AI 대표가 회사를 소개하며 참석자들에 던진 메시지다. 평범한 인사말이지만, "혼자보다 모두와 함께 일하고 싶다"는 메시지를 담았다. 이날 행사에 굳이 김민재 CTO를 동행한 이유이기도하다. 후속 사업 아이템이나 함께 할 사업 기회를 찾겠다는 의지의 표현으로 읽혔다. "NC AI는 게임 회사에서 출발했다. 2011년 TF가 생기고, 리서치 본부가 300명 정도됐다. 분사하면서 가진 미션은 "모두가 크리에이터가 될 수 있다. 모두가 디렉터가 될 수 있다"였다." NC AI는 사실 지난해 '독자 인공지능(AI) 파운데이션 모델 프로젝트(독파모) 1차평가에서 탈락하며 성장통을 겪기도 했으나, 최종적으로 국가대표 5개사 가운데 하나로 선정됐다. 이 대표는 AI시대 인간의 역할을 거론하며 "NC AI는 게임 AI에서 다양한 산업특화 AI로 확장중"이라고 말했다. 5대 확장 분야는 ▲NCSOFT를 위한 사내AI기술 ▲게임 산업장 ▲콘텐츠 AI ▲완전히 다른 산업 ▲글로벌 등을 꼽았다. "생성형 AI에 가장 적합한 회사였다. 분사하면서 돈도 많이 썼으니, 돈 좀 벌어보라는 말을 들었다. 다양한 사업으로 기술 확장을 시도중인데, 그 모델이 바로 바르코(VARCO)와 배키(VAETKI)다." 이 대표는 "에이전트 게임에서는 이미 MPC 챗봇이 많이 동작하고 있다. LMM(거대언어모델) 리즈닝 레그(RAG) 기술들이 다 쓰이고 있다. 7개 게임 1천만 유저에 대해 동시접속 100만까지도 에이전트와 번역을 지원한다"고 언급했다. 이 대표는 또 "오디오나 번역은 이미 빅테크들이 잘하고 있다"며 NC AI만의 강점으로 3D를 언급했다. 규모 큰 게임 개발에는 애니메이터만 200~300명 "3D 구현은 단순히 영상만을 생성하는 일이 아니다. 게임 화면에서 때리면 리얼하게 부서져야 하고, 자율로 움직여야하는 등 상호작용이 일어나야 한다. 그러다보니, 큰 게임들은 개발자만 500명이다. 그런데 그 가운데 200~300명 정도가 애니메이터다." 이 대표는 "기존에 손으로 직접 3D를 제작하고, 스캔하고 애니메이션화하는 과정들을 자동화했다"며 "프롬프트로 만들거나 컨셉 아트 이미지를 가져다 3D형태로 메시부터 텍스처링, 애니메이션까지 같이 할 수 있는 통합 툴을 제공한다. 이것이 NC AI가 글로벌 사스(SaaS ) 플랫폼으로 가는 가장 중요한 기술"이라고 강조했다. 피지컬AI와 관련해서는 "1,000만 유저가 40만~50만 동시접속 상황에서 LLM을 돌리면 서버 비용이 엄청나게 커진다"며 "모델이 크지 않더라도 여러 가지 리즈닝이나 딥서치 기술 등을 잘 결합하면, 두 번째 중간급 모델들도 '환각현상' 없이 서비스가 가능하다"고 설명했다. NC AI가 끊임없이 기술개발을 하는 이유에 대해 이 대표는 "어느 순간 하드웨어가 너무 싸질 수도 있다. 전세계 연구자들도 다양한 방향으로 연구를 한다. 큰 모델만 연구하고 있지 않다"며 "미래를 위해 경량화된 모델들을 많이 연구하고 있고 그런 기술들을 계속 확보해 나갈 필요가 있다"고 말했다. "기술 의존성을 낮추는 등 언젠가 하드웨어적인 인프라가 잘 갖춰졌을 때는 독자 개발 능력도 필요하다. 그런 측면서 NC AI가 잘하는 비전이나 3D 분야에서 바르코 비전을 베키 비전으로 해서 산업이나 로봇에 특화된 비전 모델을 연구하고 서비스하려 한다." 이 대표는 "대부분 스타트업으로 출발할 때 엣지있는 기술을 가지고 시작한다. 그러나 NC AI는 처음부터 통합적인 서비스를 많이 했다. 그래서 풀스탭으로 기업 파트너가 되서 서비스와 컨설팅하는 것을 지향한다"고 덧붙였다. "최근 많이 얘기하는 피지컬 AI는 NC AI가 잘할 수 있는 디지털 트윈과 월드모델 등에서 역할을 찾고 있고, 잘할 수 있을 것이라고 판단한다." 이어 마이크를 넘겨 받은 김민재 CTO는 "다양한 산업 분야에서 기술 POC(개념증명)을 진행 중"이라며 "조선, 제철, 물류, 서비스 등 다양한 환경에서 WM(월드모델), RFM(로보틱 파운데이션 모델),디지털트윈 등을 수행 중이다. 도메인 노하우를 축적해 새로운 환경에서 개발 주기를 단축하고자 한다"고 설명했다. 주로 기술적인 설명을 이어간 김민재 CTO는 하이드리드 캡처기술이나 스캔기반 디지털트윈 제작과정, 뉴럴 렌더링기술, 가상세계에서 학습된 지능을 물리적 실제와 결합해 자율형 인공지능을 구현하는 기술 등에 대해 자세히 소개했다. 한편 강연뒤 필드에서 AI R&D 전문 기업으로 성장중인 채영환 시즌 대표가 천문학적인 비용이 들어가는 파운데이션 모델 효용성과 대안을 언급해 관심을 끌었다.

2026.04.11 14:02박희범 기자

[AI는 지금] 엔비디아, GPU 시장서 86% 독주 가능한 까닭은

인공지능(AI) 인프라 경쟁의 승패가 반도체 성능보다 이를 뒷받침하는 소프트웨어(SW) 생태계에서 갈리고 있는 것으로 나타났다. 엔비디아의 독주 역시 그래픽처리장치(GPU) 하드웨어 우위만이 아니라 20년 가까이 축적한 쿠다(CUDA) 중심 SW 스택이 만든 구조적 진입장벽의 결과라는 분석이 나왔다. 11일 소프트웨어정책연구소(SPRi)가 발간한 'AI 인프라 경쟁에서 소프트웨어의 구조적 역할' 보고서에 따르면 올해 전 세계 AI 지출은 2조5000억 달러에 이를 전망이다. 이 가운데 절반 이상은 서버·가속기·데이터센터 등 인프라에 집중될 것으로 예상된다. 특히 데이터센터 GPU 시장에서 엔비디아는 약 86%의 매출 점유율을 확보하며 압도적 우위를 유지하고 있다. 보고서는 이 같은 지배력이 단순한 칩 성능만으로 설명되지 않는다고 짚었다. 동일한 H100 GPU를 사용하더라도 컴파일러, 가속 라이브러리, 드라이버 최적화 수준에 따라 실제 처리량이 3배 이상 벌어질 수 있어서다. AI 인프라의 본질적 경쟁력은 '칩 위에서 얼마나 효율적으로 연산을 구현하느냐'에 달려 있다는 의미다. 연구진은 AI 인프라를 개발 프레임워크, 컴파일러, 가속 라이브러리, 드라이버·런타임, 하드웨어의 5계층으로 구분했다. ▲개발자가 AI 모델을 설계할 때 사용하는 '파이토치'나 '잭스(JAX)' 같은 개발 도구부터 ▲이를 각 반도체에 맞는 실행 코드로 바꿔주는 '엑스엘에이(XLA)', '티브이엠(TVM)', '텐서알티(TensorRT)' 기반 컴파일러 ▲연산 속도를 끌어올리는 '쿠디엔엔(cuDNN)', '큐블라스(cuBLAS)' 등 가속 소프트웨어 ▲최하단 드라이버에 이르기까지 전 계층이 특정 하드웨어에 맞춰 최적화되며 락인(lock-in) 구조를 형성한다고 분석했다. 특히 보고서는 ▲최적화 비대칭으로 특정 칩으로 수렴하는 '성능 종속' ▲소프트웨어 선택이 곧 하드웨어 경로를 결정하는 '설계 종속' ▲폐쇄형 드라이버 구조가 물리적 대체를 막는 '구조적 종속'의 세 가지 메커니즘을 제시했다. 이미 특정 라이브러리와 '쿠다' 경로에 맞춰 최적화된 대규모 AI 모델 코드를 다른 칩용으로 재작성·검증하는 데 막대한 인력과 시간이 들어 하드웨어 교체 자체가 사실상 시스템 재구축에 가깝다고 봤다. 또 이 세 요소가 중첩될수록 전환 비용은 기하급수적으로 커진다고 설명했다. 주요국 전략도 뚜렷하게 대비됐다. 미국에서 엔비디아는 '쿠다' 생태계를 통해 성능·구조적 종속을 동시에 구축했고, 구글은 TPU(텐서 처리장치·대규모 AI 학습에 특화한 자체 반도체), 엑스엘에이(XLA), 잭스를 수직 통합해 별도의 설계 종속 경로를 구축했다. 중국 화웨이 역시 자사 AI 칩 '어센드(Ascend)'와 전용 소프트웨어 플랫폼 '칸(CANN)', AI 개발 프레임워크 '마인드스포어(MindSpore)'를 하나로 묶은 체계를 통해 자국 내 유사 생태계를 내재화하고 있는 것으로 평가됐다. 국내 신경망처리장치(NPU) 업계에는 기회와 과제가 동시에 제시됐다. 보고서는 한국 NPU 생태계가 파이토치 네이티브 지원과 가상거대언어모델(vLLM) 연동을 통해 프레임워크 진입에는 성공했지만, 컴파일러·라이브러리 계층의 성능 격차와 운영 레퍼런스 부족이 시장 확산의 걸림돌이라고 진단했다. 국내 AI 반도체 기업들 역시 전용 컴파일러 고도화와 거대언어모델(LLM) 추론 소프트웨어 최적화에 역량을 집중하며 쿠다 의존도를 낮추는 데 공을 들이고 있다. 업계에선 단순 칩 가격 경쟁력보다 전력 효율, 소프트웨어 유지보수, 개발 인력 재교육 비용을 모두 합친 총소유비용(TCO) 관점에서 엔비디아 대비 우위를 입증해야 실제 클라우드 사업자와 대기업 도입으로 이어질 수 있다고 보고 있다. 보고서 역시 TCO 기반 평가체계 도입을 핵심 정책 과제로 제시했다. 이에 연구진은 칩 설계 중심 지원에서 벗어나 컴파일러·런타임·소프트웨어개발키트(SDK)를 포함한 풀스택 SW 육성으로 정책 패러다임을 전환해야 한다고 제언했다. 특히 쿠다 의존도를 낮추기 위한 오픈엑스엘에이(OpenXLA)·엠엘아이알(MLIR) 등 글로벌 오픈소스 표준 프로젝트 참여 확대와 공공 AI 데이터센터 기반 실증 환경 조성이 시급한 과제로 제시됐다. 최근 유엑스엘 재단(UXL Foundation)처럼 특정 가속기 벤더에 종속되지 않는 멀티벤더 표준 생태계가 확산하는 만큼, 국내 기업들도 글로벌 소프트웨어 표준 경쟁에 선제적으로 합류해야 한다고 분석했다. 보고서는 "K-NPU 확산의 병목은 칩 자체보다 소프트웨어 최적화와 운영 생태계 규모에 있다"며 "공공 AI 데이터센터를 활용한 대규모 실증과 글로벌 오픈소스 표준 참여를 통해 성능 격차와 레퍼런스 부족의 악순환을 끊어야 한다"고 말했다.

2026.04.11 13:11장유미 기자

중기부 추경 1조6900억 확정...스타트업에 6719억

중소벤처기업부(중기부)는 2026년 제1차 추가경정예산이 10일 국회 본회의를 거쳐 1조 6903억원으로 확정됐다고 밝혔다. 이번 추경은 ①수출 중소기업의 중동 전쟁 피해 최소화에 4622억원 ②소상공인 등의 민생안정에 4952억원 ③청년 일자리 지원을 위한 스타트업 열풍 조성에 6719억원 ④지역 중소 제조기업 AI 전환에 610억원 등 4대 분야를 집중적으로 지원하기 위한 사업으로 구성됐다. 국회 심의 과정에서 전통시장과 지역 상권의 소비 진작을 위해 소상공인시장진흥기금의 재원을 활용해 온누리상품권 사업을 확대해야 한다는 의견이 제기되었고, 이에 중기부는 시기와 규모 등 구체적인 사항을 향후 재정 당국과 협의할 예정이다. 한성숙 중기부 장관은 “중동 전쟁으로 어려움을 겪고 있는 수출기업 및 소상공인의 경영 안정과 청년 일자리를 창출하는 스타트업·지역기업의 혁신성장을 뒷받침할 수 있게 이번 추경에 반영된 지원예산을 신속히 집행하겠다”고 밝혔다.

2026.04.11 13:11방은주 기자

메모리 품귀 '장기화' 진입… 韓 팹리스 수급난 고조

글로벌 메모리 반도체 공급 부족으로 국내 인공지능(AI) 반도체 등 팹리스(설계 전문) 업계 전반에 메모리 수급 차질이 우려되고 있다. 메모리 제조사들이 생산라인을 선단 공정에 집중하면서 고대역폭메모리(HBM)는 물론 범용 D램 제품군 전반에서 품귀 현상이 발생함에 따라, 칩 구동에 필수인 메모리 부품 확보가 최우선 과제로 부상했다. 11일 반도체 업계에 따르면 국내 팹리스 업체들의 메모리 반도체 확보 물량이 양산 이력 등에 따라 양극화된 것으로 파악됐다. 국내 주요 팹리스 업체인 리벨리온과 퓨리오사AI, 모빌린트, 딥엑스, 하이퍼엑셀 등은 올해 메모리 보릿고개 현상을 예상하고 지난해부터 물량 선제 확보에 주력한 것으로 알려졌다. 하지만, 이들보다 규모가 작거나 양산 이력이 적은 업체는 메모리 수급난에 따른 사업 차질 가능성을 배제하기 어려운 상황인 것으로 전해진다. 양산이력 따라 수급량 차이… "빅테크 경쟁 심화" 반도체 공급망에서는 팹리스 업체 규모와 실질적 양산 이력에 따라 메모리 수급 상황이 명확하게 갈린다. 파운드리와 메모리 제조사들은 한정된 생산라인 내에서 대규모로 양산하며 꾸준히 전망치를 제공해 온 대형 고객사 위주로 물량을 배정하는 경향이 강하다. 연간 대규모 양산 이력이 있는 중견 팹리스나 상용화 단계에 진입한 국내 신경망처리장치(NPU) 업체들은 수급을 이어가고 있다. 반면, 상대적으로 양산 이력이 적거나 본격 상용화를 준비하는 신규 업체들은 메모리 벤더 우선순위에서 밀려나고 있다. 아울러 국내 팹리스 업체들은 한정된 메모리 물량을 두고 자금력이 풍부한 글로벌 빅테크 기업과 직접 경쟁해야 하는 상황이다. AI 반도체 업계 관계자는 "국내 AI 반도체 스타트업들은 메모리 수급을 위해 빅테크와 경쟁해야 하다보니 수급이 쉽지만은 않다"며 "갈수록 메모리 벤더와 맺는 파트너십이 중요할 것으로 보인다"고 말했다. 레거시 단종·빅테크 수요 쏠림… 수급난 '장기화' 진입 업계에서는 물량 선제 확보가 단기 대응책에 그치고, 메모리 공급난이 점차 장기화 국면으로 접어들었다고 분석한다. LPDDR4와 DDR4 등 레거시 모델 단종이 임박했다는 관측도 나온다. 구형 메모리 단종에 따라 수요가 LPDDR5와 DDR5 규격으로 급격히 쏠릴 것으로 예상되지만, 메모리 제조사들의 신규 규격 라인 증설 속도는 이러한 수요 전환을 즉시 따라가기 어려운 구조다. 팹리스 업체도 가격이 급등한 DDR4 대신 고객사 요구에 맞춰 DDR5 호환 규격으로 설계를 전환하고 있어 수요 쏠림이 가중되고 있다. 글로벌 리딩 기업의 시스템 설계 변화도 장기 수급 불안을 부추기는 요소다. 업계에서는 엔비디아 등이 전력 소비량 감축을 위해 향후 HBM 대신 LPDDR 채택을 확대할 것이라는 관측이 제기된다. 이 경우 모바일 및 엣지 디바이스용으로 주로 쓰이던 LPDDR 물량 상당수가 빅테크의 AI 가속기용으로 흡수되면서, 팹리스 업계의 메모리 확보 어려움은 갈수록 커질 수 있다. 장기화 조짐을 보이는 공급난은 팹리스 생태계 전반에 연쇄 영향을 미치고 있다. 국내에서 원활하게 메모리 물량을 확보하지 못한 일부 팹리스는 대만 난야 등 해외 반도체 기업을 찾아가 물량 확보를 시도한 것으로 파악된다. 부족한 수급량은 팹리스 업계 생산 차질로 직결된다. 칩 생산량을 탄력적으로 늘리지 못하는 업체들은 기존 고객사에 약속한 샘플 물량 공급에만 집중하고, 추가 물량 요청이나 신규 공급에는 대응하지 못하는 것이다. 한 반도체 업계 관계자는 "현재 메모리 수급난은 장기화될 가능성이 크다"며 "당장은 어떻게 버틴다 해도, 양산을 본격 시작하면 국내 팹리스들의 상황이 악화될 가능성이 크다"고 내다봤다.

2026.04.11 10:05전화평 기자

[박준성의 SW] AI 에이전트 아키텍처는?

서비스 지향 아키텍처(SOA, Service-Oriented Architecture)는 2000년대 초 W3C에서 웹서비스 표준(SOAP, WSDL 등)을 제정하면서 더욱 본격화됐다. 아마존은 2002년에 SOA를 회사의 SW 개발 표준으로 채택했고, 이후 IaaS의 중요한 기반이 되었다. 아마존이 클라우드 서비스를 Amazon Web Services라 부른 배경과도 관련이 있다. 가트너에 따르면 2000년대 말에는 조사 기업의 80% 이상이 SOA를 도입하거나 검토했다. 아마존은 대규모 고객과 트랜잭션을 처리하기 위한 높은 확장성과 빠른 변화 대응을 위해 2000년대 중반 이후 개발 조직을 소규모 팀으로 나누고, 각 팀이 소수의 SOA 서비스를 소유하며 이를 독립적으로 배포하는 구조를 발전시켰다. 이 과정에서 SOA는 점차 마이크로서비스 아키텍처(Microservice Architecture, MSA)로 진화했고, 결국 MSA는 데브옵스(DevOps)를 효과적으로 구현하기 위한 SOA의 진화된 아키텍처로 볼 수 있다. 2010년대 초반부터 ThoughtWorks, Pivotal Software, IBM 등의 컨설팅 및 플랫폼 업체들은 아마존, 넷플릭스 등 웹 스케일 기업들이 적용하던 SOA 구현 패턴을 '마이크로서비스 아키텍처'라는 용어로 정립·확산시키며 일반 기업으로 전파하기 시작했다. 한편 가트너에 따르면, 2010년대 중반 이후 많은 기업들이 MSA 전환의 복잡성과 와해성으로 인해 순수한 마이크로서비스 대신 더 큰 서비스 단위를 사용하고 DB 공유를 허용하는 접근(일명 Gartner가 'miniservice'라고 부른 방식)을 채택하는 경향을 보였다. 국내서도 2010년대 중반부터 2020년대 초까지 많은 기업들이 MSA에 대한 충분한 이해 없이 과도한 기대 속에 도입을 추진했다. 이후 시간이 지나면서 이러한 접근의 한계가 드러나자, 일부 기업에서는 보다 단순하고 관리 가능한 구조로의 재조정이 이뤄지고 있다. 이 과정에서 Modulith(Modular Monolith, 모듈리스)가 주목받고 있으며, 이는 SOA의 일부 원칙을 재해석한 아키텍처 스타일로 볼 수 있다. Modulith는 애플리케이션을 논리적인 모듈 단위로 분할하고, 모듈 간에는 명확히 정의된 인터페이스를 통해 상호작용하도록 하면서도, 물리적으로는 하나의 애플리케이션으로 통합해 배포하는 구조다. 아래 표는 2005년경 확산되기 시작한 웹 서비스 기반의 SOA, 2015년경 확산되기 시작한 MSA, 그리고 2025년 확산되기 시작한 Modulith가 적용하는 아키텍처 패턴들을 비교, 보여주고 있다. 표에서 노란색 부분이 Modulith 적용 패턴들이다. 지난 20년간 SOA 구현 기술들은 크게 발전했다. 이에 따라 Modulith에서는 웹서비스(Web Services)보다는 레스트(REST) 스타일을, 전통적인 ESB나 상용 애플리케이션 서버 중심 구조보다는 애플리케이션 프레임워크, 이벤트 기반 통신, API 계층 등의 보다 경량화된 접근을 상황에 따라 활용하는 경향이 있다. 다만 이러한 기술들은 필수 요소라기보다 선택적으로 적용된다. 한편 MSA에서 강조되던 서비스별 DB 소유, Event Sourcing, 서비스별 독립적 배포 등의 패턴은 운영 복잡성 때문에 Modulith에서는 일반적으로 단순화되거나 제한적으로 적용된다. (박준성, The Complete Guide to SOA, MSA and Modulith, KOSTA Online, 2025: https://www.kosta-online.com/post/the-complete-guide-to-soa-msa-and-modulith) Modulith의 개발 프로세스는 DevOps 특징 중 하나인 팀별 독립적 배포는 적용하지 않지만, 릴리즈 사이클 단축과 신뢰성 향상을 위한 CI/CD, IaC, 모니터링·트레이싱·로깅을 통한 Dev와 Ops 간의 긴밀한 피드백 루프는 그대로 유지한다. 한편 AI 에이전트의 비결정적(확률적)이고 상태를 가지는 실행 특성과 ReAct-Reflection 루프를 고려한 개발·운영 방식은 일반적으로 AgentOps라고도 불린다. Modulith와 MSA의 중간 형태에 해당하는 아키텍처 스타일도 존재한다. 이러한 접근에서는 애플리케이션을 마이크로서비스보다 더 큰, 더 적은 수의 서비스로 분할하고, DB 공유를 허용하는 경우가 많으며 필요에 따라 일부 분리하기도 한다. 또한 완전한 서비스별 독립 배포 대신 필요에 따라 부분적으로 분리 배포를 허용한다. 이 범주에 속하는 SOA 아키텍처 스타일로는 가트너가 2017년 언급한 'miniservice' 접근과, Mark Richards와 Neal Ford가 정리한 Service-Based Architecture(SBA)가 있다. 결국 하나의 애플리케이션 전체를 특정 SOA 아키텍처 스타일로 일괄 적용하기보다는, 각 유스케이스 또는 비즈니스 서브도메인별로 다양한 설계 및 구현 패턴 중 적합한 것을 선택하는 하이브리드(Hybrid) 접근이 실무적으로 효과적인 방식으로 널리 받아들여지고 있다. 국내에서도 마이크로서비스 하이프(Hype)에 영향을 받아 과도한 MSA 교육과 파일럿 프로젝트, 그리고 운영 복잡성으로 어려움을 겪었던 사례들이 있었으나, 최근에는 이러한 접근에 대한 재평가가 이루어지면서 보다 현실적인 아키텍처 선택이 이루어지고 있다. Spring Boot, Spring Modulith, Express, NestJS, Django, FastAPI, Flask 등 애플리케이션 프레임워크의 발전으로 REST 기반 서비스 구현의 생산성은 크게 향상되었지만, SOA 서비스 식별, API 설계, 서비스 컴포지션, 서비스 인벤토리 관리, 그리고 서비스 거버넌스 확립은 여전히 높은 수준의 아키텍처 역량과 공학적 훈련을 요구한다. 따라서 단순한 기술 도입에 대한 투자보다는 SOA의 기본 원칙과 서비스 설계 역량에 대한 체계적인 투자가 더욱 중요하다. AI 시대를 맞아 생성형 AI 및 AI 에이전트 기반의 AI-Native 애플리케이션은 GitHub Copilot과 Claude Code와 같은 AI 코딩 도구 및 에이전트 기반 개발 도구를 활용하여 개발되고 있다. 이러한 애플리케이션은 기능을 명확히 분리하고 재사용성을 높이기 위해 SOA 스타일의 구조가 매우 적합하며, 실제로 서비스 단위로 분해된 구조로 구현되는 경우가 많다. 아래 그림은 SOA 스타일로 구성된 AI 에이전트의 논리적 아키텍처를 보여주며, 각 블록은 기능적으로 분리된 논리적 서비스(또는 컴포넌트)로 이해할 수 있다. 이러한 구조에서 에이전트는 여러 서비스를 동적으로 조합하고 오케스트레이션하는 역할을 수행한다. (박준성, AI Agent의 허허 실실, KOSTA Online, 2026: https://www.kosta-online.com/post/ai-agent-hype-and-reality) 외부 이벤트가 에이전트를 트리거하면, 오케스트레이터(Orchestrator), 즉 워크플로우 레이어가 상황 인지(Perception) 서비스를 호출하여 에이전트 목표 정의, 달성 정도, 세션 히스토리 등의 상황 정보를 확보한 후, 프롬프트 조립(Prompt Assembly) 서비스를 호출하여 프롬프트를 조립한다. 워크플로우는 RAG 서비스를 호출해 기업 내 정보를 확보하고, 프롬프트를 보완한 후, 행동 계획(Planning) 서비스를 호출한다. 이 서비스는 LLM 추론을 통해 행동(Action) 계획을 수립한다. LLM 서비스의 AI 추론은 Gen AI 벤더들이 제공하는 기본 모델(Foundation Model)을 모델 레지스트리 또는 API를 통해 사용한다. 워크플로우는 다음에 정책(Policy) 서비스를 호출하여 계획된 행동이 정책, 보안, 예산 등의 제약 조건을 위반하지 않는지 검증한다. 워크플로우는 검증된 행동 계획을 실행하는 데 필요한 툴들을 선정하고, MCP를 통해 툴(MCP 서버)에 접근하여 호출한다. 워크플로우는 다음에 행동 실행(execution) 서비스를 호출하여 관련 실행 시스템들을 수행시킨다. 행동 실행 서비스는 코레오그래피를 통해 에이전트 간 통신 프로토콜(일명 A2A) 서비스를 가동하여 타 에이전트들을 실행시킬 수 있다. 행동 실행 서비스가 계획된 행동을 실행하는 동안, 코레오그래피를 통해 모니터링(Monitoring) 서비스를 작동시켜 실행 로그와 소요 비용을 기록하고, 평가(evaluation) 서비스를 가동시켜 행동 실행 결과를 평가한다. 또한 학습 서비스를 가동시켜 평가 결과로부터 학습(Learning)된 교훈을 기록한다. 학습된 교훈은 직접적인 모델 파라미터 학습에는 제한적으로만 활용되며, 주로 프롬프트, RAG, 정책 등에 피드백된다. 따라서 생성형 AI 에이전트는 상황적응적(Adaptive) AI 시스템이지만, 전통적인 의미의 지속적 학습형 AI와는 차이가 있다. 워크플로우는 행동 실행 계획의 자동 실행이 완료되면, 정책 서비스를 호출하여 행동 실행 결과의 적합성을 판단한다. 다음, 상황 인지 서비스를 호출하여 행동 실행의 결과 상황을 업데이트하고, 에이전트 종료 결정(Termination) 서비스를 호출하여 에이전트 반복 주기의 계속 또는 종료 여부를 결정한다. 반복 주기가 계속될 경우에는 오케스트레이터가 상황 인지 서비스, 프롬프트 조립 서비스 순으로 다시 다음 주기를 시작한다. 생성형 AI의 본질적 허점이 유발하는 오류(Hallucination)와 위험을 완화하고 통제하기 위해, 사람(전문가)이 프롬프트 조립, 행동 계획, 행동 실행, 정책 검증, 평가, 학습, 에이전트 종료 등 여러 단계에 개입하여 에이전트 산출물의 품질을 보완하고 책임져야 하는 경우가 많다. 생성형 AI 에이전트의 물리적 배포 아키텍처는 MSA, SBA, Modulith 중 하나를 선택하는 문제가 아니라, 이들 아키텍처 스타일을 어떻게 조합할 것인가의 문제이다. 보다 구체적으로는, AI 에이전트를 구성하는 어떤 기능 또는 서비스는 모노리스(Monolith)로 통합 배포하고, 어떤 부분은 서비스별로 독립 배포하는 것이 적절한지를 판단해야 한다. 또한 서비스별 독립 배포를 적용할 경우에도 데이터의 특성에 따라 DB를 분리할 것인지, 일부 공유할 것인지에 대한 전략적 선택이 필요하다. 다음에서는 이러한 AI 에이전트의 물리적 아키텍처 구현 패턴에 대해 살펴본다. 아래 그림은 생성형 AI 에이전트의 물리적 배포 아키텍처를 보여주며, 빨간색 선은 물리적 배포 단위를 나타낸다. 사용자, 웹모바일 앱, API 게이트웨이 등 클라이언트 단에서 에이전트 레이어를 호출한다. 에이전트들은 워크플로우, 프롬프트, 정책 등을 포함한다. 에이전트들은 같은 비즈니스 도메인에 속한 것들끼리 묶어 도메인별로 단위 서비스로 설계하고 각 서비스를 별개 팀에게 배정할 수 있지만, 에이전트 계층 전체를 모노리스로 통합하여 배포하는 게 일반적으로 권장된다. 극단적인 Scalability나 Agility를 요구하는 서비스에 대해서만 예외적으로 MSA를 적용할 수 있다. 빠르게 반복되는 에이전트 루프 속에서 워크플로우가 비결정적(Nondeterministic)이고, 따라서 에이전트 호출도 실행 시에 동태적으로 결정되기 때문에, 에이전트들을 물리적으로 분산할 경우 일관된 상태 관리 및 컨텍스트 유지, 서비스 및 툴의 버전관리, 서비스 간 의존성 관리, 트레이싱/로깅/메트릭 등의 관측성(Observability) 확보, 디버깅 등 유지보수 및 운영의 복잡성이 크게 증가하며, 네트워크 지연과 분산 실행의 실패 복구 문제도 성능에 영향을 미칠 수 있다. 플랫폼 레이어의 Core 서비스들은 오케스트레이터, 상황 인지 및 정책 서비스와 에이전트 루프, 즉 행동 계획 → 행동 실행 → 모니터링 → 평가 → 학습 서비스들을 포함한다. Cross-Cutting 서비스들은 프롬프트/형상 관리, 관측성 관리, 원가 트래킹, 보안/접근 제어 등을 포함한다. 플랫폼을 구성하는 서비스들은 빠른 속도로 반복되는 Tightly-Coupled 런타임으로 여러 서비스로 분산하여 배포하기보다는 모노리스로 통합하여 배포하는 것이 일반적으로 유리하다. 비즈니스 로직을 실행하는 도메인 서비스 레이어는 Bounded Context 단위로 SOA 서비스를 설계하여 미니 서비스나 마이크로 서비스로 구현하거나 필요에 따라 Modulith 내부에 포함할 수 있다. 외부 시스템이나 인프라 시스템의 경우에는 이미 독립적으로 배포 가능한 SOA 서비스 형태로 제공되는 게 일반적이다. 이와 같이 AI 에이전트 시스템은 전반적으로 Modulith, Miniservice(Service-Based Architecture), Microservice가 조합된 하이브리드 아키텍처로 구성하는 것이 실무적으로 효과적인 접근이다. ◆ 필자 박준성은... 서울대 경영학 학사 및 석사, 미국 오하이오주립대 전산학/산업공학 학제간 박사를 취득했다. 미국 아이오와대학(University of Iowa)에서 MIS 분야 종신교수로 재직하면서 미국 INFORMS 통신학회 회장을 역임했다. 중국 청화대학 전산학과 초빙교수를 지낸 후 2001년 귀국, 삼성SDS에서 S급 임원 및 CTO로 재직하면서 미국 HP의 전략자문위원을 역임했다. 2010년 이후 KAIST 산업공학과에 S급 초빙교수로 재직하면서 미국 국제SW공학협회(SEMAT) 회장, 미국 OMG의 SW공학 커널(Essence) 국제표준 제개정위원장도 지냈다. 또 삼성전자, LG전자, 현대자동차, 한국마이크로소프트 등 많은 대중소기업과 정부기관에서 SW자문역 및 임직원 교육을 수행했다. 2019년 이후 한국SW기술진흥협회(KOSTA) 회장으로 재직하고 있으며, 'KOSTA Online'이란 무료 SW교육 동영상 과정 및 블로그 사이트를 운영하고 있다.

2026.04.11 09:53박준성 컬럼니스트

[안광섭의 AI 진테제⑤] AI시대 디딤돌과 걸림돌

지난 4월 7일, 일본 내각이 개인정보보호법(APPI) 개정안을 승인했다. AI 개발을 위해 개인정보를 제3자에게 제공하거나 민감정보를 수집할 때 개인의 사전 동의를 면제하는 내용이 핵심이다. 단, 데이터가 통계 처리나 AI 모델 학습처럼 개인을 특정할 수 없는 형태로만 사용될 때에 한한다. 마쓰모토 히사시 디지털 담당 장관은 현행법이 AI 개발과 활용에 매우 큰 장애물이라고 못 박았다. 법을 고치지 않으면 일본이 AI 경쟁에서 뒤처진다는 위기감이 입법으로 직결된 셈이다. 일본의 이 같은 움직임은 이번이 처음은 아니다. 이미 2018년 저작권법 제30조의4를 개정해 'AI 학습 목적의 저작물 이용'을 상업·비상업 구분 없이 폭넓게 허용한 바 있다. 당시에도 저작권자 단체의 거센 반발이 있었지만, 아베 정부는 4차 산업혁명 대비를 명분으로 밀어붙였다. 2025년 5월에는 AI 촉진법(AI Promotion Act)을 제정했고, 올해 4월 이번 개인정보보호법 개정안까지-저작권, AI 거버넌스, 개인정보 세 영역을 일관된 방향으로 정비해 온 것이다. 법률이 데이터의 흐름을 설계하고 있는 구조다. 이 뉴스를 접하면서 필자가 주목한 것은 일본 APPI 개정안 자체보다, 바로 며칠 전 국내에서 벌어진 일련의 사건들과의 대비다. 하룻밤의 에너지, 그리고 백 번째 수동 검색 지난 4월 7일, 오마이뉴스에 흥미로운 기사가 실렸다. 개발자 박정환 씨가 하룻밤 만에 대한민국 법령 6907건, 개정 이력 8만1538건을 깃(Git, 소프트웨어 버전관리 시스템) 저장소에 올린 이야기다. 법령이 깃에 올라가면 무엇이 달라지는가. 민법이 언제 어떻게 바뀌었는지를 명령어 한 줄로 추적할 수 있고, 특정 시점의 법률 상태를 즉시 복원할 수 있으며, 6907개 법령 전체를 대상으로 키워드 검색을 할 수 있다. 무엇보다 법령 전체가 AI가 읽을 수 있는 마크다운(Markdown) 텍스트로 구조화돼 있어, AI 기반 법령 질의응답 시스템을 구축하기가 훨씬 쉬워진다. 더 인상적인 것은 광진구청 류승인 주무관의 사례다. 경영학과 출신인 류 주무관은 법제처 데이터 17만 건을 AI가 직접 호출할 수 있는 MCP(Model Context Protocol, AI가 외부 도구와 데이터를 표준화된 방식으로 연결하는 프로토콜) 서버로 만들어 공개했다. 64개의 구조화된 도구로 감싸서, 어떤 AI 모델이든 법률·시행령·행정규칙·판례를 한 번에 검색하고 맥락을 연결해 가져올 수 있게 한 것이다. 류 주무관은 이 프로젝트를 소개하면서 "법제처를 백 번째 수동 검색하다 지친 공무원이 만든 것"이라고 했다. 코딩 전공자가 아닌 공무원이, AI의 도움을 받아 이 작업을 해냈다. 노마다마스라는 개발자가 만든 'K-스킬' 프로젝트도 같은 맥락이다. SRT 예매, 서울 지하철 실시간 도착정보, KBO 경기 결과, 한글(HWP) 문서 변환 같은 한국에서만 필요한 기능들을 AI가 쓸 수 있도록 모아놓은 오픈소스 스킬 모음집이다. 챗PT든 클로드든 제미나이든, 외국에서 만든 AI가 한국 생활을 이해할 수 없는 부분을 채워주는 일종의 '한국 생활력 교육'이다. 정부24 등본 발급, 홈택스 세금 신고, 카카오T 택시 호출까지 로드맵에 올라와 있다. 이 세 가지 사례의 공통점은 명확하다. 모두 AI 시대에 필요한 인프라를 개인이 자발적으로 만들어내고 있다는 것이다. 그리고 그 에너지의 원천은 '답답함'이다. 법제처 검색이 답답하니까, 공공 서비스가 AI와 연결되지 않으니까, 한국형 데이터가 AI에 없으니까, 스스로 만들었다. 한국이 잘하고 있는 것들 여기서 짚어야 할 것이 있다. 한국의 공공데이터 생태계가 형편없다는 뜻이 아니라는 점이다. 오히려 한국은 공공데이터 개방에서 세계적으로 앞서 있는 나라다. OECD 공공데이터 평가에서 2015년부터 4회 연속 세계 1위를 달성했고, 공공데이터포털(data.go.kr)에는 10만 개 이상 데이터셋이 오픈(Open) API 형태로 공개돼 있다. 국가법령정보센터가 API를 열어두고 있기 때문에 박정환 씨의 프로젝트가, 류승인 주무관의 MCP 서버가 가능했던 것이다. 올해 1월 22일에는 우리나라에서도 인공지능기본법이 시행됐다. EU AI Act에 이어 세계 두 번째로 포괄적 AI 법률을 마련, 처음으로 시행한 것으로 고영향 AI와 생성형 AI에 대한 투명성·안전성 의무를 규정하고, 대통령 직속 국가인공지능위원회의 법적 근거를 마련했다. 2026년 정부 AI 예산은 10조 1000억 원으로 전년(3조 3000억 원) 대비 3배 이상 증가했다. 개인정보보호위원회도 'AI 프라이버시팀'을 신설하고, 생성형 AI 개발·활용을 위한 개인정보 처리 안내서를 발간했으며, 가명정보 처리 기준 합리화와 '개인정보 이노베이션존' 구축에 나서고 있다. 한마디로, 에너지도 있고 기반도 있다. 부족한 것은 다른 곳에 있다. 법률과 안내서 사이 간극 일본 APPI 개정안의 핵심 설계를 다시 보자. 주목할 것은 단순한 '규제 완화'가 아니라 '규제 완화+처벌 강화'의 동시 패키지라는 점이다. 데이터를 AI 학습에 쓸 수 있도록 동의 요건을 완화하면서, 동시에 데이터를 부정 취득하거나 악의적으로 사용한 기업에는 부당이득 상당의 과징금을 신설했다. 16세 미만 아동의 안면 데이터 수집에는 부모 동의와 '최선의 이익(best interests)' 심사를 의무화했다. 풀 것은 과감히 풀되, 악용에는 실질적 이빨을 갖추었다. 그리고 이 모든 것이 '법률' 수준에서 이뤄졌다. 한국의 현재 상황과 비교하면, 가장 큰 차이는 바로 이 '수준'에 있다. 한국에서 AI 학습을 위한 개인정보 활용은 개인정보보호법 본문이 아니라 '안내서', '가이드라인', '사전적정성 검토'의 영역에서 다뤄지고 있다. 개인정보보호법에 AI 학습 데이터 활용 특례를 신설하는 법안이 여러 건 발의되어 있지만, 본격적 심의에 이르지 못한 채 그 사이를 행정 해석이 메우고 있는 형국이다. 안내서와 법률의 차이는 격식의 차이가 아니다. 법률은 기업에 예측 가능성을 준다. "이 조건을 충족하면 동의 없이 데이터를 사용할 수 있다"는 명확한 근거가 법에 있으면, 기업은 투자와 개발에 나설 수 있다. 안내서는 해석의 여지를 남긴다. 담당자가 바뀌면 해석도 바뀔 수 있고, 사후에 위반으로 판정될 리스크를 기업이 온전히 떠안아야 한다. 20년간 GTM(Go To Market) 전략을 수립해 온 필자의 경험상, 기업이 신기술 도입을 주저하는 가장 큰 이유는 기술의 미성숙이 아니라 규제의 불확실성이다. "해도 되는 건지 안 되는 건지 모르겠다"는 상태가 가장 치명적이다. 저작권 영역도 마찬가지다. 일본이 2018년 저작권법 제30조의4로 AI 학습 목적의 저작물 이용을 명시적으로 허용한 반면, 한국은 아직 텍스트·데이터마이닝(TDM) 면책 규정이 저작권법에 도입되지 않았다. 포괄적 공정이용 조항(제35조의5)의 해석에 맡겨져 있을 뿐이다. 한 인터넷기업 법무팀 임원이 수많은 원저작자에게 개별 허가를 받는 것은 사실상 불가능하고, 최악의 경우 형사처벌까지 받을 수 있어 연구를 시도하지 못한다고 토로한 바 있는데, 이 상황이 수년째 근본적으로 달라지지 않았다. 규제 선행론이 놓치는 것 필자가 우려하는 것은 한국 정부 전체의 방향이 아니다. 인공지능기본법 제정, 공공데이터 개방 성과, AI 예산 대폭 증액-이 모든 것은 올바른 방향이다. 문제는 이 흐름과 별개로, 몇몇 영역에서 '일단 규제부터' 만들자는 움직임이 현장의 에너지를 꺾을 수 있다는 점이다. AI 기술은 아직 가능성의 영역에 있다. 어디까지 할 수 있는지, 어떤 문제가 실제로 발생하는지를 충분히 경험하기 전에 촘촘한 규제를 먼저 세우면, 결과적으로 시도 자체를 억제하게 된다. 류승인 주무관이 법제처 MCP 서버를 만들 수 있었던 것은, 공공데이터 API가 열려 있었고, 그것을 활용하는 데 별도의 허가나 심의가 필요 없었기 때문이다. 만약 "공공데이터를 AI에 연결하려면 사전 영향 평가를 받아야 한다"는 규정이 먼저 생겼다면, 그는 여전히 법제처를 수동 검색하고 있었을 것이다. 일본의 접근에서 배울 것은 '규제 해제'가 아니다. '규제의 순서'다. 일본은 먼저 데이터를 풀고(저작권법 2018, 개인정보보호법 2026), 악용에 대한 처벌을 동시에 강화하는 구조를 선택했다. 가능성을 열어주되, 잘못에는 확실한 책임을 묻는 방식이다. EU가 AI Act로 사전 규제를 촘촘히 세운 것과는 의도적으로 다른 경로를 택한 것이다. 한국의 인공지능기본법도 EU보다는 '산업 진흥'에 무게를 두고 설계됐다. 이 방향 자체는 올바르다. 그러나 하위 법령과 가이드라인이 구체화되는 과정에서, 실무 현장의 불확실성을 줄여주는 쪽이 아니라 의무와 심사를 추가하는 쪽으로만 흘러간다면, 법의 취지와 실행 사이에 괴리가 벌어질 수 있다. 가속화를 위한 세 가지 필자가 보기에, 한국이 AI 시대를 가속화하기 위해 지금 가장 필요한 것은 세 가지다. 첫째, 공공데이터의 AI 친화적 공개를 표준으로 삼는 것이다. 국가법령정보센터가 API를 열어둔 것은 좋은 출발이었지만, 데이터가 처음부터 마크다운, JSON((Javascript Object Notation), CSV(Comma-Separated Values) 같은 표준 형식으로 공개됐다면 박정환 씨가 하룻밤을 쓸 이유가 없었다. 모든 공공데이터를 AI가 바로 읽을 수 있는 형태로 제공하고, 주요 공공 서비스에 MCP를 붙이는 것, 이것만으로도 민간의 자발적 에너지가 폭발적으로 확산될 수 있다. 둘째, AI 학습을 위한 데이터 활용의 법적 근거를 '안내서'가 아니라 '법률'로 명확히 하는 것이다. 개인정보 활용 특례든, 저작권법의 TDM(Text and Data Mining) 면책 조항이든, 기업과 개발자가 "이것은 해도 되는 것"이라고 확신할 수 있는 법적 근거가 필요하다. 일본처럼 '완화+처벌 강화' 패키지로 설계하면, 프라이버시 보호와 혁신 촉진 사이의 균형점을 법률 수준에서 잡을 수 있다. 셋째, 규제의 순서를 '사전 허가'에서 '사후 책임'으로 전환하는 것이다. 현장에서 먼저 시도하고, 문제가 발생하면 확실히 책임을 묻는 구조가, 시도 자체를 사전에 심사하는 구조보다 혁신에 유리하다. 인공지능기본법이 과태료 계도 기간을 1년 이상 두기로 한 것은 이 방향의 좋은 신호다. 이 정신이 하위 법령과 가이드라인 전반으로 확산돼야 한다. 현장의 에너지를 믿어야 할 때 일본의 APPI 개정을 무비판적으로 받아들이자는 것이 아니다. 옵트아웃(opt-out, 사후 거부) 기회를 의무화하지 않은 것은 프라이버시 관점에서 정당한 우려가 있으며, 야당과 시민단체의 반발도 예상된다. 한국이 일본과 같은 방식을 그대로 따를 필요도 없다. 그러나 한 가지는 분명하다. 광진구청의 류승인 주무관, 개발자 박정환 씨, K-스킬의 노마다마스-이들이 보여준 것은 한국에 이미 AI 시대를 가속화할 에너지가 넘친다는 것이다. 공무원이 답답해서 직접 MCP를 만들고, 개발자가 하룻밤을 써서 법령 전체를 AI 친화적 형태로 전환하고, 비전공자가 AI와 협업해 한국형 스킬을 오픈소스로 공유한다. 이 에너지는 규제가 만들어낸 것이 아니다. 공공데이터가 열려 있었고, 이를 활용하는 데 장벽이 낮았기 때문에 자연스럽게 분출된 것이다. 정부가 할 일은 이 에너지에 법적 기반을 깔아주는 것이다. 규제로 방향을 통제하려 하는 것이 아니라, 법률로 예측 가능성을 주고, 데이터를 표준 형식으로 열어주고, 악용에만 확실한 책임을 묻는 것. 일본이 법을 고치는 데 반해 그 속도로 한국이 안내서만 만들고 있다면 아쉬운 일이지만, 한국의 현장이 보여주는 에너지를 감안하면 제도적 뒷받침만 갖춰지 순간 가속은 충분히 가능하다. 대한민국이 세계 최고의 AI 생태계를 가지는 것이 꿈이 아닌 이유는, 기술이 준비돼서가 아니라 사람이 이미 움직이고 있기 때문이다. ◆필자 안광섭은..... 세종대학교 경영학과 교수이자 OBF(Oswarld Boutique Consulting Firm) 리드 컨설턴트다. 대학에서 경영데이터 관리, 비즈니스 애널리틱스 등 데이터 분석을 가르치는 한편, 현장에서는 GTM 전략과 인공지능 전략 컨설팅을 이끌며 기술과 비즈니스의 접점을 설계하고 있다. AI 대화 시스템의 기억 아키텍처(HEMA) 연구로 학술 논문을 발표했으며, 매일 글로벌 AI 논문을 큐레이션하는 Daily Arxiv 프로젝트를 운영하고 있다. 고려대학교 KBMA 기술경영전문대 석사과정을 졸업했다. 저술한 책으로 '생각을 맡기는 사람들: 호모 브레인리스'가 있다.

2026.04.11 09:03안광섭 컬럼니스트

"300도에도 안 터진다"…열폭주 차단한 나트륨 배터리 나왔다

중국 연구진이 배터리 셀 내부에 이른바 '스마트 방화벽'을 형성해 열폭주 현상을 효과적으로 차단할 수 있는 혁신적인 나트륨 배터리를 개발했다. 과학매체 인터레스팅엔지니어링은 중국과학원(CAS) 물리학연구소 후용성 교수가 이끄는 연구진이 해당 논문을 국제 학술지 '네이처 에너지(Nature Energy)'에 발표했다고 최근 보도했다. 연구진은 나트륨 이온 배터리의 열 폭주 현상을 물리적으로 차단하는 자체 보호 기능을 갖춘 불연성 전해질을 개발했다. 특히 이번 기술은 고용량 배터리에서도 높은 수준의 안전성을 구현한 첫 사례로 평가된다. 열 폭주 현상 종식 배터리는 특정 온도 이상으로 상승할 경우 내부 반응이 가속되며 더 많은 열을 발생시키는 '역 폭주' 현상이 발생한다. 이는 온도 상승이 통제 불가능한 수준으로 이어지며 폭발이나 화재를 유발할 수 있어, 전기차와 대규모 에너지 저장 시스템에서 핵심적인 안전 문제로 꼽힌다. 이를 해결하기 위해 연구진은 자가보호 기능을 갖춘 가소성 비연소 전해질(PNE)을 적용했다. 해당 전해질은 온도가 섭씨 150도를 초과하면 액체에서 고체로 빠르게 변하며 배터리 내부에 치밀한 차단막을 형성한다. 이를 통해 열 전달을 효과적으로 차단하고, 과열이 치명적인 고장으로 이어지는 것을 방지한다. 연구진은 "기존의 단일 방어막과 달리 액체 상태의 PNE는 급격한 상변화를 거쳐 밀도가 높은 물리적 장벽으로 고체화 되며 열 확산을 차단하고 배터리 고장에서 흔히 발생하는 화재나 폭발을 방지할 수 있다"고 설명했다. “영하 40도에서 60도까지 안정적으로 작동” 연구팀은 3.5암페어시(Ah) 용량의 원통형 나트륨 이온 전지를 통해 기술을 검증했다. 못 관통, 고온 노출 등 극한 조건에서 진행된 테스트에서도 해당 배터리는 연기나 화재, 폭발 징후를 보이지 않았다. 또한 섭씨 300도에 달하는 환경에서도 안정성을 유지했다. 안전성 뿐 아니라 성능도 유지됐다. 해당 배터리는 211Wh/kg의 에너지 밀도를 기록해 기존 첨단 나트륨 이온 배터리와 유사한 수준을 달성했으며, 영하 40도에서 60도에 이르는 넓은 온도 범위에서도 안정적으로 작동했다. 4.3V 이상의 고전압 환경에서도 안정성이 유지된 것으로 나타났다. 연구진은 “이번 성과는 전기차와 대형 트럭, 대규모 전력망 에너지 저장 시스템 등 높은 안전성이 요구되는 분야에서 나트륨 이온 배터리의 상용화를 앞당길 것”이라고 밝혔다.

2026.04.11 09:00이정현 미디어연구소

[영상] "아이폰 울트라, 배터리·두께 모두 잡았다"

애플이 올해 처음으로 선보일 것으로 예상되는 폴더블 아이폰의 배터리 용량과 두께 등 세부 사양을 담은 렌더링 영상이 공개됐다고 IT매체 폰아레나가 최근 보도했다. 유명 IT 팁스터 존 프로서는 폴더블 아이폰 '아이폰 울트라(가칭)'의 렌더링 영상을 유튜브 채널 '프론트페이지 테크'를 통해 최근 공개했다. 그 동안 알려진 정보에 따르면, 폴더블 아이폰은 기존 시중에 출시된 대부분의 폴더블폰보다 길이는 짧고 너비는 더 넓은 형태를 갖출 것으로 예상된다. 이번에 공개된 렌더링은 아이폰 울트라의 외관 디자인을 보다 구체적으로 보여준다. 존 프로서에 따르면 해당 제품은 화면을 접었을 때 두께가 약 9.5㎜, 펼쳤을 때는 약 4.5㎜ 수준이 될 전망이다. 이는 펼쳤을 때 5.6㎜ 두께의 아이폰 에어, 4.2㎜로 알려진 갤럭시Z폴드7과 비교해도 충분한 경쟁력을 갖춘 수치다. 배터리 용량은 5800mAh 수준이 될 것으로 전망된다. 이는 4400mAh 배터리를 탑재한 갤럭시Z폴드7과, 5000mAh 탑재가 예상되는 갤럭시Z폴드8보다 높은 수치로, 배터리 성능 측면에서 우위를 점할 가능성이 제기된다. 또한 아이폰 울트라의 일부 모델에는 메인 내부 디스플레이 좌측 상단의 펀치홀 카메라 대신 언더디스플레이 카메라(UDC)가 적용될 것으로 예상된다. 이 기술이 실제 적용될 경우, 화면을 가리는 요소가 줄어들어 보다 몰입감 있는 시청 경험을 제공할 것으로 보인다. 폰아레나는 제품 디자인과 '아이폰 울트라'라는 명칭에 대해 다소 아쉬움을 나타내면서도, 5800mAh 대용량 배터리와 슬림한 디자인, 언더디스플레이 카메라 탑재가 현실화될 경우 기대감을 가질 만하다고 평했다. 아울러 폴더블폰의 고질적인 문제로 지적돼 온 화면 주름이 개선된다면 경쟁력 있는 제품이 될 것이라고 덧붙였다.

2026.04.11 07:30이정현 미디어연구소

TSMC, 1분기 최대 실적 경신…AI칩 호황 증명

대만 TSMC가 분기 기준 사상 최대 매출을 또 한번 경신했다. 인공지능(AI) 반도체 수요 지속 증가에 따른 수혜다. 업계는 TSMC가 16일 1분기 실적발표에서 AI 반도체에 대해 어떠한 전망을 제시할 지 주목하고 있다. 앞서 TSMC가 발표한 월별 매출에 따르면 1분기 총 1조1341억 대만달러(약 52조9000억원)의 매출을 올렸다. 전년 동기 대비 35.1% 증가한 수치다. 회사 기준 역대 최대 분기 실적에 해당한다. TSMC는 지난해 2분기부터 매 분기마다 역대 최대 실적을 경신하고 있다. 또한 이번 매출은 회사 기존 전망치 상단에 위치하는 수준이다. TSMC는 지난해 4분기 실적발표에서 올해 1분기 매출액 전망치를 346억∼358억달러(약 51조2000억원~53조원)로 제시했다. 다가올 실적발표 컨퍼런스콜에서는 영업이익, 공정별 매출 비중 등이 구체적으로 드러날 전망이다. 업계는 TSMC가 AI 반도체 수요 급증으로 또 한번 예상을 뛰어넘는 전망치를 제시할 수 있을 지 주목하고 있다. TSMC의 최첨단 3나노미터(nm), 2나노 공정은 공급부족 현상을 겪고 있다. 엔비디아, 애플 등 글로벌 빅테크의 차세대 칩 주문이 활발한 덕분이다. 지난해 4분기 기준 TSMC의 전체 매출에서 3나노 공정이 차지하는 비중은 28%로 역대 최고치를 기록한 바 있다.

2026.04.11 07:00장경윤 기자

SKT, CPU에 NPU 더해 AI 추론 서버 성능 검증

ARM의 AGI CPU와 리벨리온의 리벨카드로 AI 추론 성능을 높이는 솔루션을 개발하고 이를 SK텔레콤 AI 데이터센터에서 실증한다. SK텔레콤이 지난 9일 ARM, 리벨리온과 차세대 AI 인프라 혁신을 위한 전략적 업무협약을 체결했다. AI 산업이 AI 모델을 만드는 '학습'에서 실제 서비스를 제공하는 '추론'으로 패러다임 변화가 이뤄지면서 AI 인프라의 핵심과제도 학습을 위한 막대한 연산 능력보다는 얼마나 적은 전력으로 얼마나 빠르고 저렴하게 AI 서비스를 제공할 수 있느냐로 변하고 있다. 특히 추론은 365일 쉬지 않고 작동해야 되기 때문에 전력 효율이 곧 비용 경쟁력과 직결된다. AI 추론은 학습과 달리 상대적으로 가벼운 연산을 빠르고 반복적으로 처리하는 작업이다. GPU는 이런 추론 작업에도 사용할 수 있지만, 마치 대형 트럭으로 택배를 배달하는 것처럼 과도한 전력을 소모하고 비용이 높다. 이에 업계에서는 추론에 특화된 전용 칩, 즉 NPU가 대안으로 부상하고 있다. NPU에 CPU를 결합하는 이유도 명확하다. 실제 AI 서비스 운영에서는 AI 연산 외에도 데이터 입출력, 네트워크 통신, 메모리 관리, 작업 스케줄링 등 다양한 범용 처리가 동시에 필요하다. CPU가 시스템의 '관제탑' 역할을 하며 데이터 흐름과 시스템 운영을 총괄하고, NPU가 AI 추론 연산을 전담하는 이종 컴퓨팅 구조는 시스템의 성능과 효율을 높일 수 있다. 'Arm AGI CPU'는 ARM이 35년 역사상 처음으로 직접 생산에 나선 데이터센터용 프로세서로, AI 추론 서비스에 최적화된 것이 특징이다. 리벨리온의 리벨카드도 대규모 AI 추론에 특화된 NPU다. 두 칩을 한 서버 안에 탑재해 CPU가 데이터 처리와 시스템 운영 등 범용 연산을 담당하고, NPU가 AI 추론 연산을 전담하면 전력 효율을 높이고 운영 비용을 줄일 수 있다. SK텔레콤은 이러한 방식이 대규모 AI 서비스를 운영하는 데이터센터에서 효율적인 서버 아키텍처라고 설명했다. ARM과 리벨리온은 이미 지난 3월 진행된 'Arm 에브리웨어' 행사에서 각 사의 칩을 결합하여 오픈 AI의 언어모델인 GPT OSS 120B 기반의 에이전틱 AI 서비스를 실시간으로 시연하며, 대규모 데이터센터에서의 상용화 가능성을 보여줬다. SK텔레콤은 AI DC에서 CPU와 NPU를 결합한 AI 추론 컴퓨팅의 성능을 검증하고, 특히 독자 개발한 AI 파운데이션 모델 에이닷엑스 케이원(A.X K1)을 운영하는 방안도 검토하고 있다. 이재신 SK텔레콤 AI 사업개발 담당은 “추론에 최적화된 인프라와 독자 파운데이션 모델 A.X K1을 결합한 풀 패키지를 제공함으로써 AI 데이터센터 경쟁력을 더욱 강화해 나가겠다”고 말했다. 에디 라미레즈 ARM 클라우드 AI 사업부 GTM 부사장은 “AI 추론의 급속한 성장은 대규모 배포에 최적화된 새로운 데이터센터 인프라 수요를 촉진하고 있다”며, “SK텔레콤, 리벨리온과 같은 파트너는 Arm AGI CPU를 구축하고 AI 추론 인프라를 현대화하는 데 있어 중요한 역할을 하고 있다”고 전했다. 리벨리온의 오진욱 CTO는 “리벨리온은 압도적인 성능과 전력 효율을 갖춘 '리벨카드'와 풀스택 소프트웨어 경쟁력을 바탕으로 차세대 AI 데이터센터를 지탱하는 핵심 축을 담당하게 됐다”며, “AI 특화 인프라 구축을 위해 각 분야 전문가들이 원팀으로 뭉친 이번 협력은 업계에서도 매우 유의미한 선례가 될 것으로 기대한다”고 강조했다.

2026.04.11 03:42박수형 기자

쏠리드, 6G 국책과제 'AI-Native 무선 인터페이스 개발' 주관기관 선정

쏠리드가 과학기술정보통신부 차세대 네트워크(6G) 산업기술개발 세부사업인 'AI-Native 응용서비스 지원 AI-Native 무선 인터페이스 기술 개발' 과제의 주관연구개발기관으로 최종 선정됐다고 10일 밝혔다. AI-RAN이 차세대 통신의 핵심 화두로 부상하고, 미국 AT&T 등 글로벌 통신사들이 수백억 달러 규모의 네트워크 현대화 투자(CAPEX)를 잇따라 발표하면서 국내 통신장비 섹터에 대한 시장의 관심이 그 어느 때보다 뜨거운 시점에 이뤄진 결과라 주목된다. 과제는 2028년 12월까지 33개월간 수행되며, 총 사업비는 86억 5000만원 규모다. 쏠리드는 과제 주관기관으로서 서울대, KAIST, 포항공대, UNIST, 연세대, 중앙대 등 국내 최고 수준의 연구 역량을 보유한 대학들과 TTA, LG유플러스를 포함한 산학연 협력체계를 구축해 과제를 수행하며, 과제 종료 시점에는 상용화 직전 단계인 시스템 시제품 실증(TRL7) 수준의 결과물을 확보할 계획이다. 쏠리드는 분산안테나시스템(DAS)을 중심으로 한 실내외 커버리지 솔루션 분야에서 글로벌 통신사를 고객으로 확보하며 시장을 선도해 왔다. 최근 ▲저궤도 위성통신 국책과제 주관 ▲MWC26에서 6G NTN ESA 기반 안테나 기술 공개 ▲미국 NTIA 주관 오픈랜 국책 과제 수주 등 위성, 6G, AI 영역으로 기술 포트폴리오를 빠르게 확장하고 있다. AI-Native 과제는 기존 위성통신 과제에 이어 두 번째 6G 관련 국책 R&D로, 쏠리드의 중장기 기술 전략이 정부 및 학계로부터 대외적으로 인정받았음을 의미한다. 쏠리드가 특히 주목하는 부분은 AI-Native 무선 인터페이스 기술과 자사 핵심 역량인 DAS의 결합 시너지다. 6G 환경에서는 초저지연, 초신뢰 요구와 서비스 환경 변화에 따른 지능형 자동 최적화 필요성이 급격히 증대된다. AI 기반 무선 학습·최적화 기술을 접목한 6G DAS 솔루션은 글로벌 통신사들의 AI-RAN 전환 수요와 직결되는 만큼 향후 쏠리드의 핵심 경쟁력이자 새로운 성장동력이 될 것으로 전망된다. 쏠리드 관계자는 “MWC26 이후 AI-RAN과 6G에 대한 글로벌 시장의 기대가 폭발적으로 커지고 있는 가운데 이번 과제 선정을 통해 AI-Native 무선 기술의 기반 역량을 선제적으로 내재화하겠다”며 “산학연 파트너들과 함께 대규모 데이터 기반 실증, 국제 표준화 연계, 성능 지표 고도화를 단계적으로 추진해 성과의 산업 확산 가능성을 지속 확대해 나갈 것”이라고 말했다.

2026.04.11 03:30박수형 기자

과기정통부 추경 787억원 확정...청년 창업지원-전통기업 AX 확대

과학기술정보통신부는 10일 국회 본회의에서 총 787억원 규모의 부처 소관 추가경정예산안이 의결됐다고 밝혔다. 중동전쟁에서 비롯된 고유가, 고물가 복합 위기 상황에서도 미래 성장동력이 위축되지 않도록 청년들과 기업들의 부담을 완화하고 회복과 성장을 지원하기 위한 사업들을 담고 있다. 특히 외부 충격에 취약한 청년 창업가들의 혁신역량을 강화하고, 전통기업들이 AI전환(AX)을 통해 생산성을 제고하는 데 집중 지원한다. 국내 에너지 자립도를 높이고, 국내 주력 산업의 저탄소 경쟁력을 확보하기 위한 탄소포집활용기술(CCU)의 조기 상용화를 위한 예산도 포함됐다. 구체적으로 KAIST 등 4대 과학기술원과 연구개발특구를 거점으로 과학 중점 창업도시를 구축하기 위한 지원을 확대한다. 4대 과학기술원이 함께하는 통합 창업리그를 통해 청년 기술창업팀을 발굴하고 청년 기술창업팀을 발굴하고 과학기술원별 창업 특화프로그램을 통해 팀빌딩과 사업모델 고도화, 글로벌 진출 등을 연계 지원한다. 연구개발특구를 중심으로 지역별 딥테크 창업을 활성화하기 위해 기술 발굴부터 창업, 초기 스케일업 등 지역 안착까지 단계별 맞춤형 프로그램을 지원한다. 또 AX를 희망하는 제조업 등 전통 기업이 청년 창업기업의 AX 솔루션을 구매하고 활용할 수 있도록 바우처를 지원한다. 이를 통해 전통기업의 생산성과 효율성을 높이고, 청년 AI기업은 안정적인 초기 판로를 개척하는 상생형 AX 모델을 확산한다. 이밖에 석유화학, 철강 공정에서 발생하는 이산화탄소를 포집해 항공유, 친환경 선박유 등 고부가화합물로 전환하는 대규모 이산화탄소포집 활용(CCU) 실증설비의 조기 상용화를 추진한다. 특히 추경을 통해 확보된 예산으로 생산공정 설계, 대형 장비 발주와 토목 기초 공사를 연내 착수해 2028년 실증설비 준공을 차질없이 추진하고 이를 통해 상용화 시점을 앞당길 계획이다. 배경훈 부총리는 “대내외적으로 불확실성이 큰 시기이지만, 우리 청년과 기업들이 위기를 딛고, 회복과 성장의 길로 나아갈 수 있는 환경을 만드는데 최선을 다하겠다”며 “국회와 정부가 긴급히 마련한 소중한 추경 예산이 하루빨리 민생현장에 도달할 수 있도록 집행에 만전을 다하겠다”고 말했다.

2026.04.11 03:19박수형 기자

[인사] 과학기술정보통신부

◇ 국장급 승진 및 파견 ▲ 국가바이오혁신위원회지원단 윤성훈 ◇ 과장급 전보 ▲ 과학기술정책과장 정건영 ▲ 국립전파연구원 지원과장 어정욱 ▲ 국립전파연구원 전파자원기획과장 김선근

2026.04.11 03:10박수형 기자

26.2조 전쟁추경 국회 통과...국민 70%에 10만~60만원 지원

26조 2000억 원 규모의 추가경정예산안이 10일 국회 본회의에서 통과됐다. 정부가 국회에 추경안을 제출한 지 10일 만이다. 여야는 이날 오후 10시 10분에 열린 본회의에서 재석 의원 244명 중 찬성 214명으로 추경안을 의결했다. 추경은 유가 부담 완화와 이에 따른 민생 안저으 산업 피해 최소화, 공급망 안정 등이 주요 골자다. 특히 소득 하위 70% 국민에게 소득 수준에 따라 10만~60만 원을 지원하는 고유가 피해 지원금이 편성됐다. 고유가에 따른 농어민 부담을 완화하기 위해 농기계 유가연동보조금 신설, 농림 어업인 면세경유 유가 연동 보조금 상향, 연안여객선 유류비 부담 완화, 무기질 비료 지원 확대 등이 반영됐다. K-패스를 한시적으로 반값 할인하는 대중교통 지원 예산과 나프타 수급 안정화를 위해 예산은 일부 증액됐고 TBS 지원 예산은 야당 반발에 따라 철회됐다. 우원식 국회의장은 “정말 어렵게 만들어진 예산이고 국회에서 여러 논의를 통해 신중하게 토론한 결과인 만큼 정부도 조금의 차질도 없이 제대로 적기에 잘 집행될 수 있도록 최선을 다해 주길 바란다”고 했다. 정부는 11일 김민석 국무총리 주재로 임시 국무회의를 열어 추경안을 의결할 방침이다.

2026.04.11 03:07박수형 기자

[카드뉴스] 중동전쟁, 왜 멈추지 않을까

안녕하세요, AMEET 기자입니다. 중동에서 벌어지는 이스라엘과 하마스의 전쟁, 2023년 10월부터 지금까지 계속되고 있는데요. 왜 이렇게 쉽게 끝나지 않는 걸까요? 겉으로 보면 두 나라의 싸움 같지만, 실제로는 훨씬 복잡한 이야기가 숨어 있어요. 이란이라는 큰 나라가 뒤에서 하마스를 계속 지원하고 있거든요. 이란이 100을 지원하면 하마스에게 75가 전달되고, 실제 전투 능력은 50 정도로 유지되는 구조인데요. 이스라엘은 자국 안전을 위해 하마스를 제거하려 하지만, 공격할수록 하마스는 더 결속하고 이란의 지원도 강화되는 악순환이 반복되고 있어요. 여기에 미국과 이란의 큰 나라 경쟁, 종교와 이념의 차이까지 얽혀 있어서 마치 끝나지 않는 술래잡기 같은 상황이죠. 이 문제가 우리와 상관없다고요? 천만의 말씀이에요! 중동 분쟁으로 국제 유가가 오르고, 그 여파로 우리나라 기름값과 물가도 도미노처럼 연쇄적으로 올라가고 있거든요. 각자 멈추고 싶어도 자기만의 이유 때문에 멈출 수 없는 상황, 복잡한 이해관계가 얽혀 있어서 당분간은 계속될 수밖에 없어 보여요. 전쟁은 단순한 힘 싸움이 아니라 종교, 이념, 정치적 이익이 복잡하게 뒤엉킨 문제라는 걸 기억해두시면 좋을 것 같아요. 복잡한 세상 이야기, AMEET이 앞으로도 쉽게 풀어드릴게요! ▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/ee6a242d.html ▶ 지디넷코리아가 리바랩스 'AMEET'과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 'AI의 눈' 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)

2026.04.10 22:42AMEET

각국, 지구환경기금 9차 재원 보충에 39억 달러 공약

4년간의 자금 조달 약속, 2030 환경 목표를 향한 개발도상국의 가속화된 행동 지원 워싱턴, 2026년 4월 10일 /PRNewswire/ -- 공여국들이 지구환경기금(Global Environment Facility, GEF)의 9차 재원 보충 주기에 초기 39억 달러를 공약하며 다자간 협력을 통한 국제 환경 목표 달성에 대한 강력한 의지를 표명했다. 이 중요한 자금은 GEF가 자연 친화적 개발에 대한 투자를 강화하고, 개발도상국들이 가장 시급한 우선 과제를 해결하며, 생태계는 물론 사람들에게도 도움이 되는 글로벌 환경 혜택을 창출할 수 있도록 지원할 것이다. 강력하고 야심 찬 4년간의 자금 조달 라운드를 위한 추가 공약은 최종 재원 보충 패키지가 승인될 5월 말 GEF 이사회 회의까지 이루어질 것으로 예상된다. 전문은 영어, 프랑스어, 스페인어로 확인할 수 있다. GEF의 클로드 가스콩(Claude Gascon) 임시 최고경영자 겸 의장은 "이번 재원 보충은 명확한 메시지를 전달한다. 세계는 경쟁하는 우선순위 속에서도 자연을 포기하지 않고 있다. 우리 공여국들은 이 도전에 응하여 지구의 더 긍정적인 미래를 향한 대담한 약속을 했다. GEF-9 주기의 향후 4년은 2030 환경 목표를 달성하기 위한 이 높은 야망의 추진력을 반영할 것"이라고 말했다. GEF-9 투자 주기는 2026년 7월부터 2030년 6월까지를 아우른다. 향후 4년간 GEF의 야망과 접근 방식을 정의하는 네 가지 포괄적 우선 과제는 다음과 같다. 통합 및 통합 프로그램 혼합 금융 전 정부적 및 전 사회적 접근 최빈개도국(LDC) 및 군소도서개발국(SIDS)을 위한 강력한 자금 지원, 그리고 토착민 및 지역 공동체(IPLC)에 대한 지원의 대폭 확대 제71차 GEF 이사회 회의는 2026년 5월 31일부터 6월 3일까지 우즈베키스탄 사마르칸트에서 개최된다. 이 회의는 개별 국가 공약이 공개 발표될 제8차 GEF 총회에 앞서 열린다. GEF 소개 지구환경기금(GEF)은 세계 최대의 다자간 환경 기금이다. GEF 산하 기금들은 지구의 가장 시급한 과제를 통합적인 방식으로 해결하기 위해 협력한다. GEF의 자금 지원은 개발도상국들이 복잡한 과제를 해결하고 국제 환경 목표 달성을 향해 나아갈 수 있도록 돕는다. 지난 30년간 GEF는 주로 보조금 형태로 270억 달러 이상을 제공했으며, 국가 주도 우선 프로젝트를 위해 1550억 달러를 추가로 조성했다. 자세한 내용은 www.thegef.org를 방문해 확인할 수 있다.

2026.04.10 21:10글로벌뉴스

슈퍼마이크로, 새로운 골드 시리즈 엔터프라이즈 서버 솔루션으로 배포 시간 단축

컴퓨팅, AI, 스토리지, 인텔리전트 엣지 워크로드 전반에 걸쳐 최적 구성된 즉시 출하 가능 서버 솔루션으로 고객 혜택 제공 산호세, 캘리포니아, 2026년 4월 10일 /PRNewswire/ -- AI/ML, HPC, 클라우드, 스토리지, 5G/엣지 분야의 토탈 IT 솔루션 제공업체인 슈퍼마이크로(Supermicro, Inc., NASDAQ: SMCI)가 엔터프라이즈 AI, 컴퓨팅, 스토리지, 인텔리전트 엣지 워크로드에 최적화된 사전 구성형 골드 시리즈 엔터프라이즈 서버 솔루션을 발표했다. 새로운 골드 시리즈는 성능 최적화 단일 프로세서 및 듀얼 프로세서 서버를 포함한 슈퍼마이크로의 시장 검증 제품군을 기반으로 한 25개 이상의 다양한 서버 시스템으로 구성된다. 골드 시리즈는 CPU, GPU, 메모리, 스토리지 및 기타 핵심 컴포넌트가 사전 구성되어 있으며, 일반적으로 영업일 기준 3일 이내에 슈퍼마이크로 창고에서 출하할 수 있다. Gold Series Server Solutions 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 최고경영자는 "엔터프라이즈 워크로드 운영에 필요한 모든 것을 갖춘 골드 시리즈를 고객에게 직접 출하함으로써 업계 최고 수준의 서버 포트폴리오를 더욱 빠르게 제공하고, 리드 타임을 크게 단축하며 온라인 전환 시간을 가속화한다"고 말했다. 이어 "고객들은 이러한 구성이 출하 전에 워크로드에 최적화되고 검증되었을 뿐만 아니라, 이 서버 플랫폼들이 전 세계 데이터 센터에 대규모로 배포되었다는 사실을 알고 골드 시리즈 시스템을 신뢰감 있게 주문할 수 있다"고 덧붙였다. 자세한 내용 또는 특정 구성 정보는 https://www.supermicro.com/en/products/gold-series를 방문해 확인할 수 있다. 네 가지 별도의 워크로드 카테고리로 구분된 슈퍼마이크로 골드 시리즈 시스템은 특정 엔터프라이즈 워크로드에 최적화된 컴포넌트로 구성된다. 엔터프라이즈 컴퓨팅 - 탁월한 성능과 유연성을 제공하는 베스트셀러 하이퍼(Hyper), 클라우드DC(CloudDC), 슈퍼블레이드®(SuperBlade®), 마이크로클라우드(MicroCloud), 그랜드트윈®(GrandTwin®) 랙마운트 서버 엔터프라이즈 AI - LLM, 생성형 AI, 추천 시스템을 포함한 AI 추론 및 학습을 위한 GPU 가속에 최적화된 시스템 엔터프라이즈 스토리지(Enterprise Storage) - 고처리량 저지연 NVMe 플래시부터 대규모 데이터 레이크 및 오브젝트 스토리지까지 현대 기업의 데이터 스토리지 요구 사항을 지원하도록 설계된 다양한 아키텍처 인텔리전트 엣지(Intelligent Edge) - 소매, 제조, 스마트 시티를 지원하기 위해 엣지 위치에서 유연하고 효율적인 컴퓨팅을 가능하게 하는 소형 폼팩터 골드 시리즈 시스템을 사전 구성함으로써 슈퍼마이크로는 맞춤형 솔루션 대비 비용 효율적인 가격과 더 짧은 리드 타임을 제공해 고객들이 시장 출시 목표를 더 빠르게 달성할 수 있도록 한다. 슈퍼마이크로 골드 시리즈 서버는 현재 미국 창고에서 즉시 출하 가능하며, 슈퍼마이크로를 통해 직접 또는 슈퍼마이크로의 공인 파트너 네트워크를 통해 주문할 수 있다. 슈퍼마이크로 소개 슈퍼마이크로(NASDAQ: SMCI)는 애플리케이션 최적화 토탈 IT 솔루션 분야의 글로벌 리더다. 캘리포니아주 산호세에서 설립 및 운영되는 슈퍼마이크로는 엔터프라이즈, 클라우드, AI, 5G 텔코/엣지 IT 인프라를 위한 시장 최초 혁신을 제공하는 데 헌신하고 있다. 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어, 지원 서비스를 갖춘 토탈 IT 솔루션 제공업체다. 슈퍼마이크로의 메인보드, 전력, 섀시 설계 전문성은 개발 및 생산을 더욱 강화해 글로벌 고객을 위한 클라우드부터 엣지까지 차세대 혁신을 가능하게 한다. 제품은 미국, 아시아, 네덜란드에서 자체 설계 및 제조되며, 규모와 효율성을 위한 글로벌 운영을 활용하고 TCO 개선 및 환경 영향 최소화(그린 컴퓨팅)에 최적화되어 있다. 수상 경력에 빛나는 서버 빌딩 블록 솔루션즈®(Server Building Block Solutions®) 포트폴리오는 고객들이 다양한 폼팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력, 냉각 솔루션(공조, 자연 공냉 또는 액체 냉각)을 지원하는 유연하고 재사용 가능한 빌딩 블록으로 구축된 광범위한 시스템 제품군에서 선택해 정확한 워크로드와 애플리케이션에 맞게 최적화할 수 있도록 한다. Supermicro, Server Building Block Solutions, We Keep IT Green은 Super Micro Computer, Inc.의 상표 및/또는 등록 상표다. 기타 모든 브랜드, 명칭, 상표는 각 소유자의 자산이다. 사진 - https://mma.prnasia.com/media2/2953395/Super_Micro_Gold_Series_Server_Solutions.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2026.04.10 21:10글로벌뉴스

아디옌, 엔터프라이즈 결제, 유동성 관리, 지급을 단일 플랫폼으로 통합하는 인텔리전트 머니 무브먼트 출시

뉴욕, 2026년 4월 10일 /PRNewswire/ -- 선도적인 기업들이 선택하는 글로벌 핀테크 플랫폼 아디옌(Adyen)이 4월 9일 결제, 유동성 관리, 지급을 단일 플랫폼에서 연결하는 새로운 제품 인텔리전트 머니 무브먼트(Intelligent Money Movement)를 발표했다. 대형 글로벌 기업을 위해 설계된 이 솔루션은 엣시(Etsy), 익스피디아 그룹(Expedia Group), 빈티드(Vinted)와 같은 기업들이 더 빠르게 자금을 이동하고, 현금 보유 현황을 실시간으로 파악하며, 운영 복잡성을 줄일 수 있도록 한다. 글로벌 기업에 금융 운영은 분산된 제공업체의 부담으로 여전히 복잡한 상태로 남아 있다. 고객 결제는 여러 통화로 카드, 계좌 이체, 현지 결제 수단을 통해 이루어지는 반면, 고객, 외부 공급업체, 파트너들은 더 빠르고 유연한 자금 접근을 기대한다. 재무팀은 현금 흐름 라이프사이클의 다양한 부분을 관리하기 위해 분산된 금융 제공업체들의 패치워크를 헤쳐나가야 한다. 아디옌의 에단 탠다우스키(Ethan Tandowsky) 최고 재무 책임자는 "글로벌 커머스는 실시간으로 이루어지지만 자금 이동은 여전히 분산된 단계로 진행된다"고 말했다. 이어 "인텔리전트 머니 무브먼트는 결제, 유동성 관리, 지급 간의 격차를 해소하기 위해 설계됐다. 단일 플랫폼에서 자금 라이프사이클을 통합함으로써 기업들이 더 빠르게 자본에 접근하고, 운전 자본 효율성을 향상하며, 더 선제적인 재무 결정을 내릴 수 있도록 한다. 지난 몇 년간 CFO들은 AI 도입과 경제적 상황으로 인한 급격한 변화와 불확실성에 대처해야 했다. 재무 담당자들이 더 민첩하게 행동할 수 있도록 지원하면 사업과 운영에 진정한 가치를 제공할 수 있다"고 덧붙였다. 이러한 복잡성은 기업이 시장과 수익 흐름을 확장함에 따라 심화된다. 평균적인 기업은 5~6개의 주요 은행과 거래하고, 40개 이상의 별도 은행 계좌를 관리하며, 12개의 수금 및 지급 제공업체를 보유하고 있다. 자금 이동을 관리하고 현금 흐름에 대한 가시성을 확보하기 위해 재무 담당자들은 자원 집약적인 수동 또는 맞춤형 프로세스에 자주 의존한다. 이는 인수로 인한 기술 부채나 호환되지 않는 레거시 시스템 위에 더해지는 경우 더욱 어려워진다. 아디옌과 보스턴 컨설팅 그룹(Boston Consulting Group)의 공동 재무 보고서에 따르면 최고 재무 책임자의 48%가 투명성과 정확한 유동성 예측을 최우선 과제로 꼽고 있으며, 재무팀이 수금 및 지급 관리에 20% 이상의 시간을 소비하고 있다고 보고했다. 인텔리전트 머니 무브먼트는 아디옌의 핵심 역량을 통해 독보적으로 구동된다. 단일 통합 플랫폼: 인수된 기술과 서드파티 통합의 패치워크에 의존하는 많은 제공업체와 달리, 아디옌은 전체 핀테크 스택을 단일 플랫폼으로 구축했다. 이를 통해 하나의 시스템 내에서 결제, 유동성 관리, 지급이 가능하다. 글로벌 은행 라이선스: 아디옌은 미국, 영국, 유럽에 걸쳐 자체 은행 라이선스를 보유한 소수의 핀테크 기업 중 하나다. 이 인프라는 결제망 및 카드 결제 시스템에 대한 직접 연결을 구현해 중개자와 자금 정산 시간을 줄인다. 인텔리전트 머니 무브먼트 제품은 보험, 소매 마켓플레이스, 모빌리티 및 배달 플랫폼, 온라인 여행사 등 대규모로 복잡한 결제 및 지급 흐름을 관리하는 기업들을 위해 설계됐다. 익스피디아 그룹 글로벌 결제 부문의 징 양(Jing Yang) 부사장은 "여행 업계에서 여행자의 초기 예약부터 최종 호스트 지급까지 전 세계적으로 자금을 이동하는 복잡성은 높은 수준의 회복력과 신뢰를 필요로 한다"고 말했다. 이어 "인텔리전트 머니 무브먼트를 통해 수금과 지급을 통합함으로써 단일 플랫폼에서 전체 금융 라이프사이클을 더 잘 관리할 수 있게 됐다. 이는 운영 복잡성을 줄이고 호스트들이 원활하고 안정적인 경험을 받을 수 있도록 보장한다"고 밝혔다. 빈티드 결제 부문의 모데스타스 투르사(Modestas Tursa) 부사장은 "단일 플랫폼에서 자금 흐름을 통합하는 것이 빈티드페이(VintedPay)의 확장성을 위한 핵심 동력이다. 동일한 인프라를 통해 수금과 지급을 관리함으로써 운영을 간소화하고 금융 서비스를 확장하는 데 필요한 안정성을 확보했다"고 말했다. 이어 "이 설정으로 회원들에게 안정적인 경험을 제공하는 데 집중할 수 있게 됐다"고 덧붙였다. 인텔리전트 머니 무브먼트에 관한 자세한 내용은 여기에서 확인할 수 있다. 아디옌 소개 아디옌(AMS: ADYEN)은 선도적인 기업들이 선택하는 핀테크 플랫폼이다. 단일 글로벌 솔루션에서 엔드투엔드 결제 역량, 데이터 기반 인사이트, 금융 제품을 제공함으로써 아디옌은 기업들이 더 빠르게 목표를 달성할 수 있도록 지원한다. 전 세계에 사무소를 두고 메타(Meta), 우버(Uber), H&M, 이베이(eBay) 및 마이크로소프트(Microsoft) 등의 기업과 협력하고 있다. 아디옌은 일상적인 사업 활동의 일환으로 제품을 지속적으로 개선하고 확장한다. 새로운 제품과 기능은 보도자료와 회사 웹사이트의 제품 업데이트를 통해 발표된다. 로고 - https://mma.prnasia.com/media2/1490851/Logo__Adyen_green_RGB_Logo.jpg?p=medium600

2026.04.10 20:10글로벌뉴스

ETRI 원장 후보 김봉태·박세웅·백용순 박사 선정

한국전자통신연구원(ETRI) 원장 후보 3배수로 김봉태 럭사 기술고문과 박세웅 서울대학교 전기·정보공학부 교수, 백용순 한국전자통신연구원 입체통신연구소장이 선정됐다. 국가과학기술연구회는 10일 한국전자통신연구원 원장후보자심사위원회를 개최하고 이같이 후보자 3인을 이사회에 추천하기로 결정했다. 김봉태 럭사 기술고문은 서울대 전자공학과를 나온뒤 미국 노스캐롤라이나대에서 컴퓨터공학 전공으로 박사학위를 받았다. ETRI서 네트워크연구본부장과 미래전략연구소장, 차세대통신연구부문 소장, 원장대행 등을 역임했다. 박세웅 서울대 교수는 서울대 전기공학과를 졸업하고 미국 펜실베이니아대에서 시스템공학 전공으로 박사학위를 받았다. 서울대 정보화본부장과 한국통신학회장을 지냈다. 백용순 ETRI 책임연구원은 서울대 물리학과를 졸업했다. 미국 센트랄 플로리다대학CREOL(광학및포토닉스대학)서 물리학 전공으로 박사학위를 받았다. 현 입체통신연구소장이다. ETRI 광무선원천연구본부장을 지냈다. 국가과학기술연구회는 조만간 이사회를 열어 3배수 가운데 최종후보 1인을 결정할 예정이다.

2026.04.10 19:13박희범 기자

LGU+, AWS 기반 AI 플랫폼 구축...인프라 운영 자동화

LG유플러스는 아마존웹서비스(AWS)가 주최한 '2026 Modern Agentic applications Day' 행사에서 AI 모델을 실제 서비스로 안정적으로 운영하기 위한 플랫폼 구축 사례를 공개했다고 10일 밝혔다. 생성형 AI와 에이전트 기술을 활용한 인프라 운영 자동화를 주제로 열린 행사에서 LG유플러스는 기존 온프레미스 중심의 AI 개발 환경을 클라우드와 연계한 유연한 구조로 전환하고, AI 개발부터 서비스 운영까지 전 과정을 효율적으로 연결한 플랫폼 구축 경험을 공유했다. 플랫폼은 AI 모델 개발과 서비스 운영 단계 사이에서 발생하던 단절을 줄이는 데 초점을 맞췄다. 그동안 AI 모델의 학습, 평가, 배포, 운영이 각각 분리돼 진행되면서 서비스 전환 과정에서 반복적인 작업이 발생했는데, 이를 하나의 흐름으로 통합한 것이 핵심이다. LG유플러스는 AI를 한 번 개발하고 끝내는 구조가 아니라 항상 서비스에 바로 활용할 수 있는 '모델 준비 상태(Model Ready)'를 유지하는 것이 중요하다고 보고 플랫폼을 설계했다. 데이터 수집부터 학습, 평가, 배포, 운영까지 전 과정을 하나의 파이프라인으로 연결해 개발자와 운영자가 보다 일관된 기준과 환경에서 AI를 다룰 수 있도록 했다. 이를 위해 LG유플러스는 AWS의 관리형 쿠버네티스 서비스인 Amazon EKS를 기반으로 한 하이브리드 인프라 아키텍처를 도입했다. 자체 보유한 온프레미스 GPU 인프라를 Amazon EKS 클러스터의 하이브리드 노드로 통합하고, 클러스터 전체를 중앙에서 제어하는 쿠버네티스 컨트롤 플레인은 AWS 완전관리형 서비스로 운영해 플랫폼 관리 부담을 줄였다. 인프라 관리보다 플랫폼 안정성과 서비스 품질 개선에 더욱 집중할 수 있는 환경을 마련했다. GPU 자원 활용 방식도 개선했다. GPU를 장비 단위로 고정 할당하는 기존 방식 대신 필요한 만큼 자원을 유연하게 배분하는 구조를 적용해 GPU 미사용 시간을 줄였다. 이에 AI 모델 학습이나 서비스 제공이 필요한 시점에 GPU 자원을 보다 효율적으로 활용할 수 있게 됐다. LG유플러스는 플랫폼 구축 과정에서 AI를 서비스 관점에서 안정적으로 운영할 수 있는 구조와 기준을 설계하는 데 주력했다고 설명했다. 플랫폼이 인프라와 자원 관리 부담을 줄여주면서 AI 서비스를 더 빠르게 제공하고, 품질과 운영 안정성을 지속적으로 높일 수 있는 기반을 갖췄다는 설명이다. 권기덕 LG유플러스 AX엔지니어링랩(Lab)장은 “LG유플러스는 AX 서비스 가속화를 위해 데이터 수집부터 모델 개발, 배포, 운영, GPU 운영까지 아우르는 AI-DLC(AI 주도 개발 라이프사이클) 기반 엔지니어링 플랫폼 역량을 강화하고 있다”며 “앞으로도 AWS와의 기술 협력을 통해 AI 서비스 품질과 운영 안정성을 지속적으로 높여 나가겠다”고 말했다.

2026.04.10 18:55홍지후 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

미·이란 종전협상 결렬...밴스 "핵 포기 확약 못받아"

LGU+, 내일부터 유심 업데이트-무료 교체

'미토스'에 놀란 세계..."사이버보안 새 시대 예고"

하나만 잘해선 안 된다…AI 열풍에 ‘하이브리드’ 인재 각광

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.