• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'급✅➡️전 대명상조 카툑892jms 내구제 빠르게'통합검색 결과 입니다. (7761건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

데이터·학습·운영 통합…투모로 '하빌리스 콘솔' 플랫폼 전략

로봇 산업에서도 플랫폼 경쟁이 본격화되고 있다. 로봇이 실제 환경에서 데이터를 수집하고 학습하며 운영되는 전 과정을 통합적으로 관리하는 시스템이 상용화의 핵심 경쟁력으로 떠오른다. 이러한 흐름 속에서 투모로로보틱스가 공개한 '하빌리스 콘솔'은 피지컬 AI 산업이 개별 알고리즘이 아닌 통합 플랫폼을 필요로 하는 이유를 보여주는 사례로 주목된다. 투모로로보틱스는 장병탁 서울대 컴퓨터공학부 교수가 바이오인텔리전스 연구실을 기반으로 설립한 로봇 피지컬 AI 기업이다. 장 교수는 현재 산업통상부가 추진하는 휴머노이드 M.AX 얼라이언스 위원장을 맡아 로봇 두뇌 개발을 주도하고 있다. 회사는 로봇이 실제 환경에서 스스로 학습하고 작업을 수행할 수 있도록 하는 피지컬 AI 핵심 기술인 로보틱스 파운데이션 모델(RFM)을 개발하고 있다. 투모로로보틱스 '하빌리스 브레인'은 로봇의 판단을 담당하는 엔진, '하빌리스 콘솔'은 원격 조작과 시연, 피드백, 학습 커리큘럼 관리 등을 연결하는 운영 관제 시스템이다. 이 중 하빌리스 콘솔은 로봇 제어, 데이터 수집, 데이터 증강, 학습, 추론, 시각화를 하나의 사용자 친화적 인터페이스로 묶은 엔드투엔드 머신러닝운영(MLOps) 파이프라인 플랫폼이다. 피지컬 AI 경쟁 기준도 바뀌고 있다. 모델 정확도를 높이는 것을 넘어 로봇이 실제 공간에서 데이터를 수집하고 학습하며 작업을 수행하는 전 과정을 얼마나 효율적으로 운영할 수 있는지가 상용화 핵심 요소로 떠오르고 있다. 피지컬 AI는 챗봇이나 다른 생성형 AI와는 본질적으로 다르다. 텍스트를 생성하는 것이 아니라 현실 세계의 물체와 공간, 사람과의 상호작용을 다루기 때문이다. 성능 기준도 달라진다. '얼마나 똑똑하게 답을 생성하는지'보다 '얼마나 오래, 안정적으로 사람 개입 없이 작동할 수 있는지'가 더 중요하다. 현장 환경이 변해도 얼마나 빠르게 적응할 수 있는지도 핵심 요소로 꼽힌다. 투모로로보틱스가 최근 공개한 '하빌리스 베타' 논문 역시 이러한 문제의식을 담고 있다. 기존 피지컬 AI 연구가 단일 성공률 지표에 지나치게 집중돼 있다는 점을 지적하며, 실제 산업 환경에서는 생산성과 신뢰성을 함께 평가해야 한다고 강조한다. 논문은 시간당 작업 수(TPH)와 사람 개입 간 평균 운용 시간(MTBI) 지표를 제안했다. 장시간 연속 운용 환경에서의 성능 효율을 평가해야 한다는 것이다. 로봇은 한 번 학습시켜 끝나는 시스템이 아니다. 실제 환경에서 데이터를 모으고, 사람이 직접 시범을 보이거나 오류를 교정하고 그 데이터를 다시 학습에 반영한 뒤 현장에 재배포하는 과정이 반복돼야 한다. 즉 피지컬 AI 경쟁력은 데이터 수집, 학습, 배포, 운영, 피드백이 지속적으로 이어지는 구조를 얼마나 잘 구축했느냐에 달려 있다. 로봇 산업은 그동안 뛰어난 모델이나 하드웨어를 개별적으로 선보이는 데 집중해왔다. 그러나 실제 산업 현장에서는 그것만으로 충분하지 않았다. 시연에서는 잘 동작하던 로봇도 현장에 배치되면 다양한 변수에 부딪힌다. 조명 변화, 물체의 편차, 작업 순서 변화, 장시간 운용에 따른 오류, 예외 상황 등이 끊임없이 발생하기 때문이다. 결국 필요한 것은 단순한 개발 도구가 아니라 로봇을 실제로 운영하고 지속적으로 개선할 수 있는 플랫폼이다. 하빌리스 콘솔은 로봇 제어부터 데이터 축적, 모델 개선, 추론, 시각화까지를 하나의 인터페이스에서 연결함으로써 이러한 문제를 해결하려는 시도다. 피지컬 AI 상용화 핵심 과제가 연구보다 운영에 있다는 점을 보여주는 사례다. 피지컬 AI 플랫의 중요성은 크게 세 가지 측면에서 커지고 있다. ▲데이터 확보 속도 ▲현장 재현성과 확장성 ▲온디바이스 실전성이다. 다양한 환경에서 여러 로봇을 안정적으로 운영하려면 공통된 플랫폼이 필요하기 때문이다. 투모로로보틱스는 빠른 데이터 수집과 자동 학습, 초고속 온디바이스 추론을 핵심 경쟁력으로 내세우고 있다. 기업용 소프트웨어가 개별 기능 중심에서 통합 운영 플랫폼 중심으로 발전했듯, 로보틱스도 앞으로는 좋은 모델 하나보다 전체 시스템을 운영할 수 있는 플랫폼을 가진 기업이 시장을 주도할 것이라는 게 회사 측 분석이다. 투모로로보틱스 관계자는 "피지컬 AI 시대 플랫폼은 단순한 대시보드가 아니라 로봇이 생성하는 데이터를 모으고 학습을 자동화하며 현장 성능을 다시 모델 개선으로 연결하는 지능 생산 시스템"이라며 "앞으로 로봇 산업 경쟁력은 단일 모델이 아니라 이러한 학습과 운영이 반복되는 플랫폼에 달려 있다"고 말했다.

2026.03.17 10:43신영빈 기자

LGU+, Rocky Linux 기반으로 엔터프라이즈 리눅스 운영 혁신

라이선스 비용 급등•벤더 종속 해소… CIQ와 함께 장기 안정성 확보 대한민국 서울, 2026년 3월 17일 /PRNewswire/ -- LG유플러스가 엔터프라이즈 리눅스 환경의 비용 구조와 벤더 종속 문제를 해결하기 위해 Rocky Linux from CIQ(RLC) 를 도입하고, CIQ로부터 장기 기술 지원을 받는 안정적인 운영 체계를 구축했다고 밝혔다. LG유플러스는 이동통신, 초고속 인터넷, IPTV를 비롯해 데이터센터 및 기업용 IT 서비스를 폭넓게 운영하는 국내 대표 통신사로, 대규모 인프라 환경에서의 안정성과 비용 예측 가능성을 핵심 과제로 관리해 왔다. 그러나 최근 수년간 기존 엔터프라이즈 리눅스 환경의 라이선스 갱신 비용이 최대 3배까지 상승하면서, 장기적인 비용 관리와 벤더 종속성에 대한 부담이 커졌다. 이에 LG유플러스는 오픈소스 기반이면서도 엔터프라이즈급 안정성과 장기 지원을 동시에 제공할 수 있는 대안을 검토했고, 그 결과 Rocky Linux와 CIQ를 선택했다. LG유플러스는 Rocky Linux 기반 표준 운영 체계를 구축하고, CIQ의 공식 지원을 통해 보안 패치, 업데이트, 장기 유지보수에 대한 안정성을 확보했다. 이를 통해 라이선스 비용에 대한 예측 가능성을 높이는 동시에, 인프라 운영의 유연성과 기술 선택의 자유도를 강화할 수 있게 됐다. LG유플러스 안세훈 수석 아키텍트는"대규모 인프라를 운영하는 통신사 입장에서 운영체제는 단순한 기술 요소가 아니라, 비용과 안정성, 서비스 품질 전반에 영향을 미치는 핵심 기반"이라며 "Rocky Linux from CIQ와 CIQ 엔지니어링 팀의 장기 지원을 통해 비용 구조를 보다 명확히 관리하면서도, 안정적인 엔터프라이즈 운영 환경을 지속적으로 유지할 수 있을 것으로 기대한다"고 말했다. CIQ의 조현진 한국 총괄 지사장은"LG유플러스는 비용 효율성과 기술적 안정성을 동시에 고려해야 하는 대표적인 대규모 엔터프라이즈 고객"이라며 "CIQ는 Rocky Linux의 설립 지원 파트너로서, LG유플러스가 벤더 종속에서 벗어나 장기적으로 신뢰할 수 있는 인프라 운영 모델을 구축할 수 있도록 지속적으로 지원할 것"이라고 밝혔다. LG유플러스는 이번 Rocky Linux 도입을 통해 단기적인 비용 절감뿐 아니라, 장기적인 인프라 전략 측면에서도 보다 유연하고 지속 가능한 운영 기반을 마련했다는 평가다. 향후 LG유플러스는 다양한 서비스 영역에서 Rocky Linux 기반 인프라 활용을 점진적으로 확대해 나갈 계획이다. Rocky Linux와 CIQ Rocky Linux는 안정성과 개방성을 기반으로 빠르게 확산되고 있는 오픈소스 엔터프라이즈 리눅스 배포판이다. CIQ는 Rocky Linux 프로젝트의 설립 지원 및 서비스 스폰서로, Rocky Linux from CIQ 를 통해 보안된 소프트웨어 공급, 장기 지원, 그리고 엔터프라이즈 환경에 최적화된 기술 서비스를 제공하고 있다. 자세한 내용은 https://ciq.com/products/rocky-linux/ 에서 확인할 수 있다. CIQ 소개 CIQ는 일상적인 워크로드부터 고성능 컴퓨팅(HPC)과 AI에 이르기까지, 다양한 현대적 요구를 충족하는 안전하고 고성능의 소프트웨어 인프라를 제공하는 기업이다. Rocky Linux, Warewulf, Ascender, Apptainer 등 주요 오픈소스 인프라 프로젝트를 주도하거나 기여해 온 오픈소스 전문 기업이다. 미디어 문의Cristin ConnellyCathey.co (CIQ 홍보 대행)cristin@cathey.co 로고 - https://mma.prnasia.com/media2/2832135/CIQ_Logo.jpg?p=medium600

2026.03.17 10:10글로벌뉴스

미 법원 "언노운월즈 CEO 복직시켜야"…크래프톤 "동의 안해, 다각적 대응 검토"

크래프톤이 자회사 언노운 월즈의 전 경영진이 제기한 부당해고 및 운영권 박탈 관련 소송에서 패소해 전 최고경영자(CEO)를 복직시키라는 미국 법원의 판결을 받았다고 게임스팟 등 외신이 16일(현지시간) 보도했다. 보도에 따르면 미국 델라웨어주 형평법원은 테드 길 전 CEO의 즉각적인 복직과 함께 서브노티카 2 얼리 액세스 출시 운영권 및 스팀 접근 권한 반환을 명령했다. 그에게 다른 창립자들을 재고용할 권한이 있다고 명시했으며, 전 경영진이 성과급을 확보할 수 있는 실적 달성 기한 역시 오는 9월 15일까지로 연장했다. 법원은 크래프톤이 정당한 사유 없이 핵심 직원을 해고하고 운영권을 부당하게 장악했다고 판단했다. 전 경영진이 해고 직전 게임 데이터를 무단 백업했다는 사측의 주장에 대해서도, 회사의 작업물을 보호하기 위한 조치였을 뿐 기밀을 유지하고 즉각 반환했기에 정당한 해고 사유가 될 수 없다고 일축했다. 법원은 크래프톤이 성과급 지급을 피하고자 챗GPT의 조언을 구한 정황도 드러났다고 밝혔다. 다만 법원은 언노운월즈 전 경영진이 크래프톤에 청구한 손해배상액 관련으로는 판단을 내리지 않았다. 또한 찰리 클리블랜드와 맥스 맥과이어의 복직 청구는 거부했다. 이번 소송은 '서브노티카 2'의 얼리 액세스 출시에 따른 최대 2억 5000만 달러(약 3400억원) 규모의 실적 기반 추가 보상금(Earnout) 지급을 두고 지난해 불거졌다. 크래프톤은 지난해 경영진의 태만 때문에 '서브노티카2'의 개발이 지연됐다며, 테드 길, 맥스 맥과이어 등 경영진을 해고하고 스티브 파푸트시스 스트라이킹 디스턴스 스튜디오 대표를 선임했다. 이에 전 경영진은 크래프톤이 보상금 지급을 피하기 위해 부당한 압력을 가하고 자신들을 해고했다고 주장해 왔다. 크래프톤 측은 이번 판결에 대해 즉각 유감을 표명했다. 크래프톤 관계자는 "이번 판결에 정중히 동의하지 않으며, 향후 대응 방향에 대해 다양한 가능성을 검토하고 있다"며 "이번 판결은 언노운 월즈 전 경영진이 제기한 손해배상 청구나 서브노티카 2와 관련된 실적 기반 추가 보상 문제를 다룬 것이 아니며, 해당 사안에 대한 소송 절차는 계속 진행될 예정"이라고 밝혔다. 이어 "크래프톤은 언제나 플레이어를 모든 의사결정의 중심에 두고 있다"며 "지난 몇 달 동안 크래프톤과 언노운 월즈는 게임의 완성도를 높이고 얼리 액세스 출시를 준비하는 데 집중해 왔으며, 개선된 버전을 플레이어들에게 가능한 한 빠르게 선보일 수 있기를 기대하고 있다. 크래프톤의 최우선 과제는 변함없이 서브노티카 팬들에게 최고의 게임 경험을 제공하는 것"이라고 덧붙였다.

2026.03.17 10:08정진성 기자

잡코리아·알바몬, AI 중심 메인 개편으로 클릭·지원 데이터↑

잡코리아와 알바몬(대표 윤현준)이 서비스 메인 개편 한 달 만에 이용자들의 공고 클릭률, 지원 전환율이 대폭 상승했다고 17일 밝혔다. 회사는 AI 추천 공고를 메인 전면에 배치하고, 서비스 이용자 경험(UX)을 전면 개편했다. 잡코리아는 '오늘의 AI Insight'를 신설해 AI가 분석한 맞춤형 가이드, 키워드, 추천 공고를 제공했다. 알바몬도 자체 AI 솔루션 '룹(LOOP Ai)'이 적용된 개인화 맞춤 공고 제공 및 가입·이력서 작성 절차를 대폭 간소화했다. 메인 화면 변화 성과는 컸다. 잡코리아와 알바몬의 구직자 공고 클릭률(CTR)은 개편 전보다 각각 298%, 158%씩 성장했다. 공고 지원으로 전환율(CVR) 역시 잡코리아는 개편 시점 적용된 '추천 3.0' 고도화에 힘입어 기존 '추천 2.0' 대비 약 35% 증가했다. 알바몬은 새 메인 UI 적용으로 이전대비 지원 전환율이 119% 증가한 것으로 나타났다. 잡코리아 관계자는 "개편을 통해 구직자들이 가장 필요로 하던 AI 기반 개인화 맞춤 공고를 제공한 성과"라고 말했다. 알바몬은 회원가입과 이력서 작성 필수 입력 절차를 줄인 결과 최근 한달 간 통합 개인회원 가입 전환율이 기존 대비 2배 이상 늘었다. 특히 기존 6단계에 걸쳤던 이력서 작성 과정은 3단계로 축소해 가입부터 공고 지원까지 빠르게 가능하도록 개편했다. 또한 소셜(SNS) 간편 가입 기능 확대를 통해 서비스 접근성을 높였고, 기존 대비 10% 이상 소셜 가입률을 높였다. 잡코리아는 AI 기술력을 기반으로 컨텍스트 링크 실현을 위한 추천 정확도를 지속 고도화할 예정이다. 구직자 행동 데이터와 직무, 스킬, 산업군 등 폭넓은 정보를 정교하게 연결하고, 상반기 출시 예정인 기업·구직자용 AI 에이전트와 시너지로 채용 경험을 혁신할 계획이다. 이외에도 잡코리아의 성과형 채용 상품에 자체 AI 랭킹 모델을 적용하고, 기업과 구직자에게 보다 적합한 공고가 노출될 수 있도록 신규 기능을 추가할 예정이다. 김요섭 잡코리아 최고기술책임자는 "구직자 중심으로 AI 기능 탑재, 앱 디자인, 상품 구조 개편 등 모든 요소들을 개편한 결과 실제 서비스 만족도 상승으로 이어져 의미가 크다"며 "빠르게 변화하는 채용 시장에 맞춰 최적화된 정보를 제공하기 위해 노력하고, AI 에이전트 개발 및 상용화를 통해 구직 경험을 지속적으로 혁신해 나갈 것"이라고 말했다.

2026.03.17 10:05백봉삼 기자

[AI는 지금] "모델 개발만으론 부족"…사모펀드 손잡는 오픈AI·앤트로픽, 왜?

앤트로픽에 이어 오픈AI도 글로벌 사모펀드와 함께 기업용 인공지능(AI) 확산을 위한 합작회사 설립을 추진한다. AI 모델 경쟁이 심화되면서 기술 개발을 넘어 기업 현장에 AI를 적용해 수익을 창출하는 'AI 배포 시장' 경쟁이 본격화된 분위기다. 16일(현지시간) 블룸버그에 따르면 오픈AI는 TPG, 브룩필드 자산운용, 베인캐피털 등 글로벌 사모펀드와 합작사 설립을 위한 논의를 진행 중인 것으로 알려졌다. 합작사의 기업가치는 약 100억 달러(약 15조원) 수준으로, 사모펀드 투자자들은 약 40억 달러를 투자하는 방안을 거론 중인 것으로 전해졌다. 이번 합작 투자와 관련해 피지 시모 오픈AI 애플리케이션 부문 최고경영자(CEO)는 오픈AI 기술 배포 부서를 구축하는 것이라고 설명했다. 다만 참여 기업이나 자금 조달 규모, 기업가치 평가 등에 대해서는 직접적인 언급을 하지 않았다. 관련 사모펀드들 역시 공식 입장을 내지 않았다. 업계에선 이번 움직임이 AI 기업들의 사업 전략 변화와 맞닿아 있다고 보고 있다. 초거대 AI 모델 개발 경쟁이 치열해지면서 막대한 컴퓨팅 인프라와 연구개발 비용이 필요해졌고, 이를 상쇄하기 위해 기업 고객 기반의 서비스 확산이 중요해지고 있기 때문이다. 또 단순히 AI 모델을 제공하는 수준을 넘어 기업 내부 데이터와 업무 프로세스에 AI를 적용하는 '배포'와 '운영' 영역도 새로운 시장으로 부상하고 있다고 봤다. 실제로 AI 기업들은 금융, 의료, 제조 등 다양한 산업에서 기업용 AI 활용 사례 확대에 집중하고 있다. 기업 환경에서는 AI 모델 자체보다 기존 시스템과의 연동, 데이터 관리, 업무 자동화 등 실제 운영 단계에서의 적용이 중요한 만큼, 이를 지원하는 서비스 조직이 필요하다는 판단에서다. 오픈AI 경쟁사인 앤트로픽 역시 유사한 전략을 모색하고 있다. IT 전문 매체 디인포메이션 등에 따르면 앤트로픽은 블랙스톤, 헬만앤프리드먼(H&F) 등 사모펀드와 기업용 AI 컨설팅 합작법인 설립을 논의 중인 것으로 알려졌다. 해당 합작사는 사모펀드가 보유한 포트폴리오 기업을 대상으로 AI 모델 '클로드'를 도입하고 업무 자동화와 데이터 분석 등 기업 운영 전반의 효율화를 지원하는 역할을 맡을 것으로 전해졌다. 이처럼 사모펀드가 AI 기업의 주요 협력 파트너로 부상하는 배경에는 방대한 기업 네트워크가 있다. 대형 사모펀드는 제조, 의료, 부동산 등 다양한 산업에 걸쳐 수십에서 수백 개에 이르는 기업을 포트폴리오로 보유하고 있으며 투자 기업의 경영 전략에도 일정 부분 관여하는 경우가 많다. 이러한 구조가 AI 기술을 단기간에 여러 기업에 확산시킬 수 있는 유통 채널로 작용할 수 있다는 평가다.사모펀드 입장에서도 AI 도입은 투자 기업의 비용 절감과 생산성 향상을 동시에 기대할 수 있는 전략으로 꼽힌다. 일부 투자사들은 포트폴리오 기업 내 기존 SaaS(서비스형 소프트웨어) 구독 비용을 줄이고 AI 기반 자동화 도구로 일부 업무를 대체하는 방안도 검토하는 것으로 전해졌다. 오픈AI가 마이크로소프트의 소프트웨어 생태계를 통해 기업 시장에 AI를 확산시키고 있는 것과 달리, 앤트로픽은 주로 클라우드 기반 API와 파트너십을 중심으로 모델을 공급해 왔다는 점도 이번 협력 모델의 배경으로 꼽힌다. 기업 현장에서 실제 활용 사례를 늘리기 위해서는 안정적인 기업 고객 접점 확보가 필요하다는 판단이 작용했다는 분석이다. 이 같은 흐름이 기업용 소프트웨어 시장에도 일정 부분 영향을 미칠 것이라는 전망도 나온다. 기업이 AI를 활용해 내부 자동화 도구나 데이터 분석 시스템을 자체 구축할 경우 프로젝트 관리나 보고서 자동화 등 일부 경량 소프트웨어 영역에서 대체 가능성이 제기되고 있기 때문이다. 다만 업계에선 AI가 기존 SaaS를 단기간에 대체하기보다는 기존 플랫폼 위에 기능을 추가하는 방식으로 활용이 확대될 가능성이 크다고 보고 있다. 오픈AI는 최근 기업의 AI 도입을 지원하기 위한 서비스도 강화하고 있다. 지난달에는 기업들이 AI 에이전트를 보다 쉽게 구축하고 관리할 수 있도록 지원하는 서비스 '프론티어'를 공개했다. 업계 관계자는 "생성형 AI 경쟁이 모델 성능을 넘어 실제 기업 환경에서 얼마나 빠르게 적용되고 확산되느냐로 이동하고 있다"며 "AI 기업들이 사모펀드와 협력하는 것은 기술 판매를 넘어 기업 운영 전반에 AI를 이식하려는 새로운 사업 모델로 볼 수 있다"고 말했다.

2026.03.17 10:01장유미 기자

[현장] "의료 AI, 멀티모달 시스템으로 성장…환자 미래 상태 예측"

"의료 인공지능(AI)은 질병을 판별하는 도구를 넘어설 전망입니다. 임상 데이터와 영상, 유전체 정보를 통합 분석하는 멀티모달 시스템으로 발전할 것입니다. 환자 맞춤형 질병 예측·치료를 통합 지원하는 '의료 파운데이션 모델'이 의료 AI 성장을 지원할 것입니다." 예종철 한국과학기술원(KAIST) 김재철AI대학원 교수는 17일 서울 양재 엘타워에서 열린 한국인공지능산업협회(AIIA) 조찬포럼에서 의료 AI 진화 방향성을 이같이 제시했다. 예 교수는 기존 의료 AI 연구가 주로 특정 질환을 판독하는 영상 진단 모델 중심으로만 발전해 왔다고 설명했다. 다만 이는 환자에게 완전한 치료를 제공하지 않는다고 지적했다. 그는 "의사는 영상뿐 아니라 임상 기록, 유전체 정보 등 다양한 데이터를 종합적으로 분석해 치료 결정을 내린다"며 "의료 AI가 진단만 하는 역할만으론 충분하지 않다"고 설명했다. 예 교수는 차세대 의료 AI는 영상뿐 아니라 의료 데이터와 임상 실험 자료, 유전체 정보를 종합 분석하는 멀티모달 시스템으로 발전할 것이라고 내다봤다. 그는 이런 시스템을 '의료 파운데이션 모델'로 정의했다. 실제 의료 AI 연구에서는 환자 정보를 종합 분석해 맞춤형 질병 진단과 예측, 치료법을 제시하는 모델 연구가 한창이다. 우선 환자 과거 의료 기록을 시간 순서로 분석해 질병 발생 가능성을 예측하는 모델이 등장하고 있다. 영국 대규모 의료 데이터베이스(DB)인 'UK 바이오뱅크' 연구에서는 환자 의료 이벤트 데이터 기반으로 10년 내 질병 발생 위험을 예측할 수 있다는 결과가 발표됐다. 대규모 의료 데이터 기반 모델 개발도 확대되고 있다. 미국 EMR 기업 에픽은 약 3억명 환자 데이터가 포함된 '코스모스(Cosmos)' 데이터셋 기반으로 의료 예측 모델을 구축하고 있는 것으로 알려졌다. 그는 최근 거대언어모델(LLM)을 활용한 의료 지식 시스템도 빠르게 확산한 것으로 나타났다. 그는 의료 질의응답 플랫폼 '오픈에비던스(OpenEvidence)'를 관련 사례로 들었다. 실제 미국 의사 40%가 오픈에비던스를 진료 과정에 활용한 것으로 집계됐다. 예 교수는 "의료 AI가 의사의 의사결정을 지원하는 방향으로 활용 범위가 확대되고 있다"며 "궁극적으로 임상 데이터와 영상, 유전체 정보를 통합 분석하는 멀티모달 시스템으로 발전할 것"이라고 설명했다.

2026.03.17 09:37김미정 기자

알리바바그룹, 큐웬 연구팀·앱 부문 등 통합…CEO 직속으로 개편

알리바바그룹이 자사의 인공지능(AI) 서비스와 개발 프로젝트를 하나로 묶는 새로운 사업 부문을 설립한다. 이는 AI를 통해 수익을 창출하겠다는 의지를 보여주는 대목이다. 16일(현지시간) 블룸버그 등 외신에 따르면 알리바바는 자사 AI 모델 '큐웬'을 개발하는 연구팀과 소비자용 애플리케이션 부문, 주요 AI 관련 제품들을 에디 우 최고경영자(CEO)가 이끄는 새로운 조직으로 이동시킬 계획이다. 알리바바 토큰 허브(ATH)라는 이름의 이 조직은 슬랙과 유사한 협업 앱 '딩톡'과 스마트 글라스 등 쿼크(Quark) 브랜드 기기도 함께 총괄하게 된다. 이번 조직 개편은 최근 큐웬 프로젝트의 핵심 연구 책임자가 갑작스럽게 퇴사하면서 알리바바의 AI 전략에 대한 의문이 제기된 상황에서 이뤄졌다. 회사는 연구, 제품 개발, 디자인 등 여러 팀 간 협업을 강화해 AI 개발 속도를 높이겠다는 구상이다. 또한 조직 이름에 토큰을 사용한 것은 AI 서비스를 이용할 때 기업들이 과금하는 연산 단위를 의미하는 것으로, AI 수익화를 명확히 하겠다는 의도를 보여준다는 평가다. 알리바바는 이번 개편과 함께 추가 투자 계획이 있는지 밝히지 않았지만, 기업 고객을 대상으로 한 AI 서비스 판매 전략을 강화하고 GPT와 유사한 모델인 큐웬의 확산을 촉진하려는 목적이 있는 것으로 해석된다. 그러나 중국에서는 AI 기술을 수익으로 연결하는 일이 쉽지 않은 상황이다. 중국 소비자들이 소프트웨어 구독료 지불에 상대적으로 소극적이기 때문이다. 알리바바와 미니맥스 등 중국 AI 기업들은 오픈AI와 같은 미국 빅테크들보다 수익화에 어려움을 겪고 있다. 또한 중국의 많은 AI 모델은 오픈소스 형태로 무료 제공되면서 엔트로픽과 같은 기업들과 매출 격차가 커지고 있다. 우 CEO는 “ATB는 하나의 핵심 목표를 중심으로 구축됐다”며 “토큰을 만들고, 토큰을 제공하며, 토큰을 활용하는 것”이라고 말했다. 이어 “나는 ATH를 직접 이끌며 AI 사업 전반의 전략적 협력을 강화하고, 업무 전반에 AI를 깊이 통합하며 빠르게 움직일 수 있는 민첩성을 유지하겠다”고 덧붙였다. 이번 주 분기 실적 발표를 앞두고 있는 알리바바는 그동안 주로 기업 고객을 대상으로 한 AI 및 클라우드 솔루션 판매에 집중해왔지만 지난해에는 큐웬 앱을 소비자용으로 개편하기도 했다. 이 앱은 지난달 춘절 기간 대규모 '홍바오' 기획전을 진행했음에도 바이트댄스의 AI 챗봇 '도우바오'에 비해 뒤처져 있다. 이번 조직 개편으로 알리바바는 다시 기업용 AI 사업에 더 많은 자원을 투입할 가능성도 나오고 있다. 또한 알리바바는 가까운 시일 내 기업을 위한 에이전트형 AI 서비스를 출시할 방침이다. 사안에 정통한 관계자들에 따르면 알리바바는 빠르면 이번 주 큐웬 모델을 기반으로 한 기업용 AI 에이전트를 발표할 가능성이 있다. 이 서비스는 향후 이커머스 타오바오와 핀테크 서비스 알리페이 등 다른 서비스와 점진적으로 통합될 계획이다.

2026.03.17 09:37박서린 기자

삼성전자, 엔비디아 '4나노' 새 추론 칩 만든다

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자 파운드리와의 협력을 공식적으로 언급했다. 엔비디아의 최신형 AI 가속기 '베라 루빈' 기반 시스템과 결합되는 그록(Groq)의 언어처리장치(LPU)를 삼성 파운드리에서 양산하는 구조다. 젠슨 황 CEO는 16일(현지시간) 미국 캘리포니아 새너제이에서 열린 'GTC 2026' 기조연설에서 AI 칩 생산 파트너를 소개하는 과정에서 "삼성전자가 그록3 LPU 칩을 제조하고 있다"고 밝혔다. 그록은 엔비디아가 지난해 말 약 29조원을 들여 우회 인수한 팹리스 스타트업이다. 거대언어모델(LLM)의 추론 작업 속도를 높이는 LPU를 전문으로 개발해 왔다. 그록3 LPU는 이 기업의 최신 칩으로, 4나노미터(nm) 공정 기반으로 알려졌다. 젠슨 황 CEO는 "삼성이 우리를 위해 그록3 LPU 칩을 제조하고 있다. 지금 가능한 한 최대한 빠르게 생산을 늘리고 있다"며 "삼성에게 정말 감사드린다"고 강조했다. 그록3 LPU는 현재 양산 단계에 들어갔다. 젠슨 황 CEO가 예상한 출하 시점은 오는 3분기다. 이번 발언은 삼성 파운드리가 엔비디아의 차세대 AI 칩 생산에 참여하고 있음을 공개적으로 언급한 것으로, AI 반도체 공급망에서 양사의 협력이 긴밀하게 이어지고 있음을 보여주는 대목으로 평가된다. 또한 삼성전자는 지난 2월 엔비디아향 HBM4(6세대 고대역폭메모리) 양산 출하를 공식 발표한 바 있다. 이를 통해 삼성전자는 엔비디아 AI 생태계 확장을 위한 메모리·파운드리 공급사로서 협력 영역을 더 확장할 수 있게 됐다.

2026.03.17 09:34장경윤 기자

KT, 하이오더 실시간 이용 테이블 수 20만대 돌파

KT는 프리미엄 테이블오더 서비스 '하이오더'의 실시간 이용 테이블 수가 20만 대를 넘어섰다고 17일 밝혔다. 하이오더는 2023년 5월 출시 이후 외식업을 중심으로 설치 매장이 빠르게 늘어났다. 최근에는 호텔, 병원, 산후조리원, 종교시설, 크루즈 등 비외식 업종으로 도입이 확산되고 있다. KT는 안정적인 네트워크와 전국 AS 인프라를 기반으로 소상공인 매장 주문, 결제 환경을 디지털화해 왔다. KT는 하이오더 20만 대 돌파를 기념해 가입자 참여형 이벤트를 진행한다. 하이오더 4행시 이벤트 참여자 가운데 1000명을 추첨해 '네이버페이' 3000원권을 제공한다. 또 '테이블오더 후기 이벤트'를 통해 실제 사용 경험을 공유한 고객 중 우수 후기 1명에게 100만원 상당의 경품을 제공하고, 5명에게는 10만원 상당의 상품을 증정한다. KT는 참여자 500명에게 스타벅스 커피쿠폰 1만원권을 제공한다.

2026.03.17 09:27홍지후 기자

OTT 모아, 한중 콘텐츠 교류 위한 '콘텐츠 생태계' 구축 강조

아시아 콘텐츠 전문 OTT 모아(MOA)가 '2026 중국드라마산업컨퍼런스(CDC 2026)'에 한국 OTT 대표로 초청돼 한중 콘텐츠 협력 방안과 전략을 논의했다. 중국드라마제작산업협회가 주최하는 CDC 2026은 산업 주요 인사를 비롯해 약 2000여명의 관계자, 플랫폼, 제작사, 유통사가 대거 참여하는 권위 있는 전문 컨퍼런스다. 올해는 AI 기반 제작 산업과 '마이크로 숏폼' 등 중국 내 최신 동향을 공유하고, 글로벌 플랫폼 간의 협력 가능성을 모색하는 자리로 평가받았다. 안해조 MOA 대표는 컨퍼런스에서 아이치이(iQIYI), 뷰(Viu) 등 글로벌 메이저 플랫폼들과 함께 패널로 참여해 한국 OTT 시장에 대해 “약 5000만 명의 인구 규모에도 불구하고, 글로벌 OTT와 로컬 플랫폼 간의 치열한 경쟁 체제를 갖춘 아시아에서 가장 역동적인 스트리밍 소비 시장”이라고 설명했다. 이어 “빠르게 변화하고 고도화되는 한국 시청자들의 패턴을 정확히 이해하는 것이 글로벌 협업의 핵심”이라고 강조했다. 안 대표는 또 단순한 콘텐츠 시청을 넘어선 콘텐츠 생태계 구축 중요성을 역설하며 MOA의 향후 비전을 제시했다. MOA는 현재 스트리밍 서비스를 넘어 팬들이 실시간으로 소통하고 즐길 수 있는 '복합 콘텐츠 생태계' 구축을 목표로 하고 있다. 안 대표는 “앞으로 팬들과의 유대 관계가 더욱 중요해질 것”이라며 “공동 마케팅과 부가 프로모션은 물론, 오프라인 팬 이벤트와 굿즈 제작 등을 통해 중국 드라마와 한국 팬을 잇는 강력한 생태계를 조성하겠다”고 밝혔다. 그러면서 “한국 시청자들은 외국 콘텐츠에도 개방적이며, 글로벌 OTT와 로컬 플랫폼 간 경쟁이 치열해 늘 새로운 콘텐츠에 대한 수요가 존재한다”며 “한국 시장은 단순한 시청을 넘어, 작품이 인기를 얻으면 강력한 팬덤을 형성하고 온라인에서 활발히 논의되는 특징이 있다”고 덧붙였다.

2026.03.17 09:26박수형 기자

엔비디아, AI 팩토리용 추론 운영체제 '다이나모 1.0' 공개…블랙웰 성능 최대 7배 향상

엔비디아가 대규모 생성형 인공지능(AI)와 에이전틱 AI 추론을 지원하기 위한 새로운 오픈소스 소프트웨어(SW)를 선보이며 AI 인프라 시장 확대에 나섰다. 엔비디아는 미국 새너제이에서 열린 'GTC 2026' 행사에서 AI 추론 운영 소프트웨어 '엔비디아 다이나모(NVIDIA Dynamo) 1.0'을 17일 발표했다. 다이나모 1.0은 대규모 AI 추론을 효율적으로 운영할 수 있도록 설계된 오픈소스 기반 SW다. AI 데이터센터에서 GPU와 메모리 자원을 효율적으로 관리하고 다양한 추론 작업을 분산 처리할 수 있도록 돕는다. 특히 엔비디아의 차세대 GPU 플랫폼인 블랙웰(Blackwell)과 결합해 대규모 AI 서비스 환경에서 높은 확장성과 성능을 제공하는 것이 특징이다. 최근 생성형 AI 서비스가 실제 산업 환경으로 빠르게 확산되면서 데이터센터에서는 다양한 AI 요청을 동시에 처리해야 하는 상황이 늘고 있다. 이러한 환경에서는 GPU 자원 관리와 작업 분배를 효율적으로 수행하는 오케스트레이션 기술이 핵심 과제로 떠오르고 있다. 엔비디아는 다이나모를 통해 이러한 문제를 해결하겠다는 전략이다. 컴퓨터에서 운영체제가 하드웨어와 애플리케이션을 조율하듯, 다이나모는 AI 데이터센터에서 GPU와 메모리를 통합적으로 관리하며 복잡한 AI 추론 작업을 조정하는 역할을 수행한다. 엔비디아에 따르면 최근 진행된 벤치마크 테스트에서 다이나모는 블랙웰 GPU 기반 AI 추론 성능을 최대 7배까지 향상시킨 것으로 나타났다. 또한 무료 오픈소스 형태로 제공돼 AI 서비스 기업들이 토큰 처리 비용을 낮추고 GPU 인프라 활용도를 높이는 데 도움을 줄 것으로 기대된다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "AI 추론은 모든 AI 애플리케이션과 에이전트의 핵심 엔진"이라며 "다이나모는 AI 팩토리를 위한 최초의 운영 체제와 같은 역할을 하며 전 세계 AI 생태계 확장을 가속화할 것"이라고 말했다. 다이나모는 GPU 간 데이터 이동과 메모리 활용을 최적화하는 기능도 포함하고 있다. 예를 들어 AI 에이전트가 긴 프롬프트를 처리할 때 이전 단계에서 생성된 정보를 가장 많이 보유한 GPU로 작업을 자동 배분하고, 필요 없는 데이터는 외부 스토리지로 이동시켜 메모리 부담을 줄인다. 엔비디아는 다이나모를 다양한 AI 개발 프레임워크와도 연동했다. 랭체인, vLLM, SG랭(SGLang), LM캐시(Cache), llm-d 등 주요 오픈소스 프로젝트에 엔비디아 텐서RT-LLM 최적화 기능을 통합해 추론 성능을 향상시켰다. 또한 GPU 간 데이터 전송을 위한 NIXL, 메모리 관리를 위한 KVBM, 대규모 확장을 지원하는 그로브(Grove) 등 핵심 기술도 모듈 형태로 제공한다. 엔비디아의 AI 추론 플랫폼은 글로벌 클라우드 기업과 AI 스타트업, 대형 기업 등 다양한 파트너사에서 활용되고 있다. 주요 클라우드 사업자로는 아마존 웹 서비스(AWS), 마이크로소프트 애저, 구글 클라우드, 오라클 클라우드 인프라스트럭처(OCI)가 있으며, 알리바바 클라우드, 코어위브, 네비우스, 투게더 AI 등도 파트너로 참여하고 있다. AI 스타트업 가운데서는 퍼플렉시티와 커서 등이 플랫폼을 도입했으며, 글로벌 기업 중에서는 페이팔, 바이트댄스, 핀터레스트, 쿠팡, 소프트뱅크 등도 활용하고 있다. 코어위브의 제품·엔지니어링 부문 수석 부사장 첸 골드버그는 "AI 서비스가 시험 단계에서 대규모 운영 환경으로 확장되면서 이를 지원할 인프라 역시 더욱 유연하게 변화해야 한다"며 "다이나모는 복잡한 AI 에이전트 환경에서도 안정적인 운영과 높은 성능을 제공한다"고 말했다. 네비우스 CTO 다닐라 슈탄 역시 "대규모 AI 추론 환경에서는 GPU 성능뿐 아니라 이를 효율적으로 활용하는 소프트웨어가 중요하다"며 "엔비디아의 소프트웨어 스택은 예측 가능한 성능과 빠른 배포를 가능하게 한다"고 설명했다. 핀터레스트 CTO 맷 마드리갈은 "수억 명의 사용자에게 실시간 멀티모달 AI 경험을 제공하려면 대규모 인텔리전스 인프라가 필요하다"며 "다이나모를 통해 AI 배포 환경을 더욱 효율적으로 운영하고 사용자 경험을 강화할 수 있을 것"이라고 말했다.

2026.03.17 08:54남혁우 기자

LS에코에너지, 말레이시아 데이터센터에 버스덕트 첫 공급

LS에코에너지(대표 이상호)가 말레이시아 하이퍼스케일 데이터센터에 버스덕트를 처음으 공급하며 아세안 데이터센터 전력 인프라 시장 공략을 확대하고 있다. LS에코에너지는 베트남 자회사 LSCV가 글로벌 IT 기업이 말레이시아에서 추진 중인 하이퍼스케일 데이터센터에 버스덕트를 공급하는 계약을 체결했다고 17일 밝혔다. 이번 계약은 약 800만 달러(약 120억원) 규모로, LSCV는 말레이시아 조호르바루 지역의 데이터센터 구축 일정에 맞춰 제품을 순차적으로 공급할 계획이다. 하이퍼스케일 데이터센터는 AI와 클라우드 서비스 운영을 위해 구축되는 초대형 데이터센터다. 대규모 전력 공급이 필수적인 만큼 대용량 전력 전송이 가능한 버스덕트가 핵심 인프라로 활용되고 있다. 조호르바루는 전력 수급과 부지 확보 여건이 좋아 글로벌 빅테크 기업들의 신규 데이터센터 투자 거점으로 부상하고 있다. LSCV는 지난해 10월 인도네시아 데이터센터 수주에 이어 이번 말레이시아 진출까지 이어지며 아세안 시장 확대에 속도를 내고 있다. 이상호 LS에코에너지 대표는 “AI와 클라우드 확산으로 데이터센터 시장이 빠르게 성장하면서 전력 인프라 수요도 함께 확대되고 있다”며, “버스덕트와 전력케이블을 아우르는 전력 인프라 사업을 강화해 아세안 데이터센터 시장에서 수주를 지속 확대해 나가겠다”고 말했다. AI 데이터센터 확산으로 글로벌 버스덕트 시장이 빠르게 성장하고 있다. LS전선은 국내 버스덕트 시장 점유율 1위 기술력을 바탕으로 구미와 LS에코에너지 베트남 사업장을 중심으로 제품을 공급하고 있으며, 북미 수요 대응을 위해 멕시코에 신규 공장도 건설 중이다.

2026.03.17 08:41류은주 기자

웨카, 턴키 엔비디아 AI 데이터 플랫폼 솔루션으로 AI 팩토리 배포 기간 수개월에서 수분으로 단축

새로운 뉴럴메시 AI 데이터 플랫폼, AI 개념 검증과 수익성 있는 프로덕션 간의 격차 해소… 엔비디아와 함께 확장 가능한 비즈니스 인텔리전스 및 더 빠른 AI 성과 제공 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, AI 팩토리 구축에 최적화된 구성 가능한 고성능 인프라를 제공하는 엔터프라이즈 전용 뉴럴메시™(NeuralMesh™) AI 데이터 플랫폼(AIDP)의 일반 출시를 발표했다. 엔비디아(NVIDIA) AI 데이터 플랫폼 레퍼런스 디자인을 기반으로 한 이 솔루션은 AI 팩토리에 AI 준비 데이터를 신속하게 공급하는 엔드투엔드 시스템이다. 그 결과 AI 프로젝트 일정이 수개월에서 수분으로 단축되며, 조직은 생태계 전반의 최고 수준 기술을 활용해 프로덕션 규모의 에이전트형 AI 애플리케이션을 구현할 수 있게 된다. WEKA and NVIDIA accelerate enterprise-ready AI factories 뉴럴메시의 독자적인 적응형 아키텍처를 활용한 이 솔루션은, 조직이 AI 개념을 개념 검증(POC) 단계에서는 작동하게 할 수 있지만 프로덕션 규모로 확장하는 데 지속적으로 어려움을 겪는다는 가장 고질적인 엔터프라이즈 AI 문제를 해결한다. 170개 이상의 특허와 10년 이상의 AI 네이티브 스토리지 혁신을 기반으로 구축된 뉴럴메시는 어떤 경쟁 스토리지 플랫폼도 복제할 수 없는 토대 위에서, AI 환경이 엑사바이트 규모 이상으로 확장될수록 더 빠르고 견고해지는 유일한 솔루션이다. AI 팩토리 데이터 인프라가 엔터프라이즈 AI 아키텍처의 핵심 계층으로 자리 잡는 가운데, 뉴럴메시는 현재 고객들이 POC와 프로덕션 배포 간의 격차를 좁힐 수 있도록 지원하고 있다. 어그먼티드 메모리 그리드™(Augmented Memory Grid™)와 함께 뉴럴메시를 실행하는 고객은 추론 워크로드에서 GPU당 6.5배 더 많은 토큰을 처리할 수 있으며, 이는 기존 인프라를 개조한 방식 대비 전용 아키텍처의 복합적 이점을 반영한 수치다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "기업들이 이제 내부적으로 AI 팩토리를 배포하며 생태계 전반에 걸쳐 추론 중심으로 대대적인 전환이 이루어지고 있다. 이러한 기업들은 신속한 AI 성과를 요구하며, 신뢰성, 보안 및 최적의 가격 대비 성능 및 비용 효율성이라는 엔터프라이즈 기본 요건을 갖춘 턴키 솔루션이 필요하다"고 말했다. 이어 "웨카의 뉴럴메시 AIDP는 항상 가동되는 AI 팩토리를 운영하는 데 필요한 모든 것, 즉 탁월한 스토리지 성능과 프로덕션 규모에서 AI를 운영화하는 데 필요한 유연한 아키텍처를 조직에 제공한다. AI 여정을 막 시작하는 조직과 엔비디아 풀스택 구축을 운영 중인 조직 모두에서 뉴럴메시 AIDP는 성장에 따라 원활하게 확장된다"고 덧붙였다. 엔비디아 스토리지 기술 부문의 제이슨 하디(Jason Hardy) 부사장은 "프로덕션 환경에서의 에이전트형 AI 구축은 데이터와 추론 콘텍스트의 지속적이고 일관된 흐름 관리에 새로운 초점을 요구한다"고 말했다. 이어 "엔비디아 AI 데이터 플랫폼을 활용함으로써 웨카의 뉴럴메시 AIDP와 같은 솔루션은 안정적이고 대규모 에이전트형 추론에 필요한 영구적 콘텍스트 계층을 제공한다"고 밝혔다. 하나의 시스템으로 모든 AI 워크로드 처리: 엔드투엔드 AI 팩토리 구현 AI 팩토리는 기업에 AI를 대규모로 운영하도록 설계된 전용 프로덕션 시스템을 제공하지만, 데이터가 저장되는 위치를 넘어 콘텍스트와 지속적인 데이터 이동을 능동적으로 지원하는 스토리지 역량을 요구한다. 웨카의 지능형 적응형 스토리지 시스템인 뉴럴메시는 AI 팩토리 워크로드가 요구하는 지속적인 데이터 루프 성능을 제공한다. 비즈니스 성과 가속화를 위한 즉시 사용 가능한 AI 애플리케이션 뉴럴메시 AIDP는 기업과 AI 클라우드 제공업체가 즉시 배포 가능한 하나의 플랫폼에서 검색부터 추론까지 AI 운영을 통합할 수 있도록 한다. 엔비디아(NVIDIA RTX 6000 PRO 서버 에디션 GPU 및 신규 발표된 NVIDIA RTX 4500 PRO 서버 에디션 GPU 포함)를 비롯해 레드햇(Red Hat), 스펙트로 클라우드(Spectro Cloud), 슈퍼마이크로(Supermicro)의 하드웨어 및 소프트웨어 옵션이 사전 통합되어 있어, 조직은 수개월에 걸친 AI 통합 작업을 생략할 수 있다. 이 플랫폼은 팀이 기반 인프라 관리보다 인텔리전스 산출에 집중할 수 있도록 간소화된 솔루션을 제공한다. 이는 시맨틱 검색, 비디오 검색 및 요약(VSS), 신약 개발을 위한 알파폴드(AlphaFold), AIQ/에이전트형 RAG 등 다양한 수직 산업에 걸쳐 활용 가능한 비즈니스 사용 사례를 위한 즉시 사용 가능한 파이프라인을 제공한다. 이러한 AI 애플리케이션은 이미 기업 및 연구 고객들이 주요 분야에서 성과를 창출하는 데 활용되고 있다: 헬스케어 및 생명과학: 여러 연구에 걸쳐 환자 하위 그룹을 식별하고, 극저온 전자현미경과 같은 데이터 집약적 워크플로우에서 발견을 가속화한다. 금융 서비스: 데이터가 유입되는 즉시 초기 시장 신호를 감지하고, 공유되고 안전한 리소스로 지식 접근을 제도화한다. 공공 부문: 키워드가 아닌 맥락과 의미를 기반으로 잠재적 위협을 탐지하고, 소스 전반에 걸쳐 증거 합성을 자동화해 의사결정 주기를 개선한다. 피지컬 AI 및 로보틱스: 실제 데이터 수집부터 재훈련된 모델 배포까지의 루프를 단축해 플릿 성능, 신뢰성, 시장 출시 시간을 향상시킨다. 웨카의 시몬 벤-다비드(Shimon Ben-David) 최고기술책임자는 "프로덕션 AI에서 부족한 부분은 추론 모델이나 컴퓨팅 파워가 아니다. AI 팩토리 파이프라인을 통합하고 진정한 확장성을 갖추게 하는 효율적인 플랫폼이 부재한 것"이라고 말했다. 이어 "뉴럴메시 AIDP는 AI의 프로덕션 및 수익성 격차를 해소하고, 기업의 실험을 본격적인 운영으로 전환하며, 차세대 에이전트부터 헬스케어 애플리케이션까지 모든 분야에서 AI를 경제적으로 실현 가능하게 만들기 위해 설계됐다"고 덧붙였다. 파트너 및 고객 지지 인용 레드햇 AI 및 인프라 파트너 부문의 라이언 킹(Ryan King) 부사장은 "AI를 프로덕션으로 전환하려면 기술 이상의 것, 즉 일관성과 제어가 필요하다. 레드햇 오픈시프트(Red Hat OpenShift) 기반의 레드햇 AI 엔터프라이즈와 뉴럴메시 AI 데이터 플랫폼을 함께 사용함으로써, 조직은 거버넌스나 보안을 희생하지 않고도 엔터프라이즈 프로덕션이 요구하는 규모로 온프레미스 및 클라우드 환경 전반에서 데이터 집약적 AI 파이프라인을 실행할 수 있다"고 말했다. 네이사(Neysa)의 아닌디야 다스(Anindya Das) 공동 창업자 겸 최고기술책임자는 "AI의 진정한 과제는 더 이상 모델 교육이 아니다. 예측 가능한 성능과 비용으로 프로덕션 환경에서 대규모로 안정적으로 운영하는 것이 문제이다. 대부분의 AI 이니셔티브가 정체되는 지점도 바로 여기다. 뉴럴메시 AI 데이터 플랫폼은 당사의 AI 가속 클라우드인 네이사 벨로시스(Neysa Velocis)와 통합되어 이 문제를 직접적으로 해결한다. 이는 복잡한 인프라를 엮는 운영 부담 없이 AI 워크로드를 신뢰할 수 있는 시스템으로 운영할 수 있는 방법을 팀에 제공한다"고 덧붙였다. 출시 정보 뉴럴메시 AI 데이터 플랫폼 솔루션은 어플라이언스 방식의 시스템으로 현재 출시되어 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문해 데모를 체험할 수 있다. 뉴럴메시 AIDP에 관한 추가 정보: 블로그: weka.io/blog/ai-ml/neuralmesh-aidp-built-to-operationalize-AI-at-enterprise-scale/ 솔루션 웹페이지: weka.io/product/neuralmesh-aidp/ 웨카 소개 웨카는 지능형 및 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 실행 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(Fortune) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우해 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표이다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934370/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

웨카, 엔비디아 BlueField-4 STX에서 더 낮은 토큰당 비용으로 토큰 출력 극대화

뉴럴메시 및 증강 메모리 그리드의 엔비디아 STX 통합으로 동일한 GPU 환경에서 토큰 생산량 6.5배 증가, AI 기업의 추론 비용 대폭 절감 캘리포니아 산호세 및 캠벨, 2026년 3월 16일 /PRNewswire/ -- GTC 2026: AI 스토리지 및 메모리 시스템 기업 웨카(WEKA)가 3월 16일, 엔비디아(NVIDIA) STX 레퍼런스 아키텍처와 자사 뉴럴메시™(NeuralMesh™) 소프트웨어의 통합을 발표했다. 뉴럴메시에서 구동되는 웨카의 혁신적인 증강 메모리 그리드™(Augmented Memory Grid™) 메모리 확장 기술은 엔비디아 STX를 지원해 에이전트형 AI 팩토리에 고처리량 콘텍스트 메모리 스토리지를 제공하며, 세션, 도구 및 작업 전반에 걸쳐 장문 콘텍스트 추론을 원활하게 구현한다. NVIDIA Vera Rubin NVL72, NVIDIA BlueField-4, 그리고 NVIDIA Spectrum-X 이더넷을 활용한 엔비디아 STX 기반 뉴럴메시 솔루션은 콘텍스트 메모리에서 초당 토큰 수를 4~10배 향상시키는 동시에, AI 워크로드에 대해 초당 최소 320GB 읽기 및 150GB 쓰기 처리량을 지원할 것으로 예상되며, 이는 기존 AI 스토리지 플랫폼 처리량의 두 배 이상이다. WEKA and NVIDIA unlock cost-efficient AI inference at scale 공유 KV 캐시 인프라로 추론 비용 문제 해결 에이전트형 시스템, 특히 소프트웨어 엔지니어링 애플리케이션의 확장은 냉혹한 진실을 드러낸다. 오늘날 AI 경제성은 메모리 인프라 계층에서 결정된다는 것이다. 모든 대규모 추론 플릿은 메모리 한계에 직면한다. GPU의 제한된 고대역폭 메모리(HBM)가 빠르게 소진되고, 키-값(KV) 캐시가 삭제되며, 콘텍스트가 손실되고, 시스템은 이미 완료한 작업을 반복하도록 강요받는다. 이러한 아키텍처적 비효율은 추론 비용을 급등시킨다. 해답은 에이전트, 사용자, 세션 전반에 걸쳐 콘텍스트를 유지하는 공유 KV 캐시 인프라다. 이는 중복 연산을 제거하고, 토큰 처리량을 유지하며, 예측 가능한 성능을 보장한다. 공유 KV 캐시 인프라 없이는 동시 사용자와 에이전트가 증가할수록 부담이 커진다. 비용은 오르고, 사용자 경험은 저하되며, 추론 플릿은 규모가 커질수록 운영하기 더 어려워진다. 엔비디아는 콘텍스트 메모리를 위한 STX를 통해 이러한 핵심 추론 병목 문제를 해결하기 위한 청사진을 제시하고 있다. 콘텍스트 메모리 스토리지: 에이전트형 AI 팩토리의 기반 엔비디아 STX 아키텍처 기반의 웨카 공동 설계 솔루션을 통해 AI 클라우드, 기업 및 AI 모델 개발사는 GPU를 최고 생산성으로 운영하고, 대용량 토큰 생산을 지속하며, 대규모 추론을 보다 에너지 및 비용 효율적으로 만드는 데 필요한 인프라 기반을 배포할 수 있다. 퍼머스(Firmus)와 같은 선도적인 AI 혁신 기업 및 클라우드 제공업체들은 이미 뉴럴메시의 증강 메모리 그리드로 추론 경제성을 혁신하고 있다. 퍼머스의 다니엘 커니(Daniel Kearney) 최고기술책임자는 "실제 AI는 연구실에서 구동되지 않는다. 전력 제약, 냉각 한계, 끊임없는 워크로드 수요가 존재한다. 퍼머스는 바로 그러한 환경을 위해 만들어졌다. 엔비디아 AI 인프라와 결합한 웨카 증강 메모리 그리드는 초당 최대 6.5배 높은 토큰 처리량과 4배 빠른 첫 번째 토큰 생성 시간(TTFT)을 대규모로 제공하며, 동일한 GPU 환경에서 더 높은 성능을 달성할 수 있음을 입증한다. 뉴럴메시와 증강 메모리 그리드를 엔비디아 기반의 AI 팩토리 및 엔비디아 STX 레퍼런스 아키텍처에 통합함으로써, 대규모의 예측 가능하고 효율적인 추론을 위한 가장 빠른 콘텍스트 메모리 네트워크를 제공할 수 있게 될 것"이라고 말했다. 뉴럴메시와 엔비디아 STX: 에이전트형 AI를 위한 전용 설계 뉴럴메시는 170개 이상의 특허를 기반으로 구축된 웨카의 지능형 적응형 스토리지 시스템이다. 풀스택 STX 레퍼런스 아키텍처 전반에서 구동되며, 조직이 고성능 AI 데이터 서비스를 표준화하고 에이전트형 AI 성과를 가속화하는 데 필요한 차세대 스토리지를 제공한다. 웨카의 증강 메모리 그리드는 GPU 메모리 외부에서 KV 캐시를 풀링하고 유지하는 전용 메모리 확장 계층으로, 추론 워크로드가 증가하더라도 장문 콘텍스트 세션을 안정적으로 유지하고 동시성을 높게 유지한다. GTC 2025에서 처음 공개되어 오늘 뉴럴메시 고객들에게 일반 출시된 증강 메모리 그리드는 NVIDIA Grace CPU와 BlueField-3 DPU 환경에서 슈퍼마이크로(Supermicro)와 함께 검증되어, AI 경제성을 개선하는 다양한 이점을 제공한다: 더 빠른 사용자 경험: 뉴럴메시의 증강 메모리 그리드는 첫 번째 토큰 생성 시간을 최대 4~20배 단축해, 실제 부하 상황에서도 AI 에이전트와 애플리케이션의 응답성을 유지한다. 동일한 하드웨어로 더 많은 수익: 인프라 추가 없이 GPU당 6.5배 더 많은 토큰을 처리한다. 대규모에서의 지속적인 성능: 증강 메모리 그리드는 세션, 에이전트 및 콘텍스트 윈도우가 증가하더라도 높은 KV 캐시 적중률을 유지하며, DRAM 전용 아키텍처에서 발생하는 성능 급락을 방지한다. GPU 네이티브 효율성: BlueField-4 통합은 CPU에서 스토리지 데이터 경로를 오프로드해 GPU의 완전한 생산성을 유지하고 I/O 병목을 제거한다. 웨카의 리란 즈비벨(Liran Zvibel) 공동 창업자 겸 최고경영자는 "코딩 LLM이 발전하면서 생산성이 100~1000배 증가하는 소프트웨어 엔지니어링 분야의 에이전트형 AI 사용 사례 도입이 전례 없이 확산되고 있다. 코딩 어시스턴트가 거의 변하지 않는 코드베이스와 프롬프트에 대해 반복적으로 호출할 때, 웨카의 증강 메모리 그리드는 콘텍스트 윈도우가 엄청난 길이로 늘어나더라도 중복 프리필을 강제하는 대신 캐싱된 콘텍스트를 재사용한다. 이는 응답 시간을 크게 단축하고 동일한 인프라에서 동시 실행 가능한 사용자 수를 대폭 늘린다"고 말했다. 이어 "웨카는 1년여 전 콘텍스트 메모리 스토리지의 필요성을 처음 파악하고 GTC 2025에서 증강 메모리 그리드를 출시했다. 이제 엔비디아 STX는 조직이 NVIDIA BlueField-4 및 NVIDIA Spectrum-X 이더넷을 포함한 최첨단 엔비디아 베라 루빈(NVIDIA Vera Rubin) 아키텍처에서 스토리지 및 메모리 확장 인프라를 운영할 수 있는 길을 열어준다. 엔비디아 STX용 뉴럴메시에서 증강 메모리 그리드를 구동하면 AI 경제성을 획기적으로 변화시키는 탁월한 성능과 효율성을 직접 실현할 수 있다"고 덧붙였다. 출시 정보 웨카의 증강 메모리 그리드는 현재 뉴럴메시와 함께 상업적으로 이용 가능하다. 오늘날 메모리 한계 문제를 해결하지 않는 조직은 이후 더 어렵고 비싼 방식으로 확장해야 할 것이다. 에이전트 워크로드가 증가하고 콘텍스트 윈도우가 확장됨에 따라, DRAM 전용 아키텍처는 복합적인 비용 문제에 직면한다. 동시 사용자나 세션이 추가될수록 재연산 오버헤드, GPU 유휴 시간, 운영 비용이 증가하기 때문이다. 지금 영구적 KV 캐시를 위한 아키텍처를 구축하는 조직은 기다리는 조직 대비 구조적인 비용 및 성능 우위를 갖게 될 것이다. 뉴럴메시에 관한 자세한 내용은 weka.io/NeuralMesh에서 확인할 수 있다. 증강 메모리 그리드에 관한 자세한 내용은 weka.io/augmented-memory-grid에서 확인할 수 있다. weka.io/nvidia에서 자세한 내용을 확인하거나, GTC 2026 부스 #1034에서 웨카를 직접 방문할 수 있다. 웨카 소개 웨카는 지능형 적응형 메시 스토리지 시스템인 뉴럴메시™ 바이 웨카®(NeuralMesh™ by WEKA®)를 통해 조직이 AI 워크플로우를 구축, 운영 및 확장하는 방식을 혁신하고 있다. 워크로드가 확장될수록 느려지고 취약해지는 기존 데이터 인프라와 달리, 뉴럴메시는 확장할수록 더 빠르고 강력하며 효율적으로 변하면서 AI 환경에 동적으로 적응해 엔터프라이즈 AI 및 에이전트형 AI 혁신을 위한 유연한 기반을 제공한다. 포춘(FORTUNE) 50대 기업의 30%가 신뢰하는 뉴럴메시는 주요 기업, AI 클라우드 제공업체, AI 개발사가 GPU를 최적화하고 AI를 더 빠르게 확장하며 혁신 비용을 절감할 수 있도록 지원한다. 자세한 내용은 www.weka.io 또는 링크드인 및 엑스(X)를 팔로우하여 확인할 수 있다. WEKA와 W 로고는 WekaIO, Inc.의 등록 상표다. 본 문서에 포함된 기타 상호는 해당 소유자의 상표일 수 있다. WEKA: The Foundation for Enterprise AI 사진 - https://mma.prnasia.com/media2/2934399/WEKA_and_NVIDIA.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo_new.jpg?p=medium600

2026.03.17 07:10글로벌뉴스

셀레브라이트, 세상을 더 안전하게 만드는 혁신적인 에이전틱 AI 솔루션 Genesis 출시로 수사 패러다임 변화 예고

Genesis, 형사 및 수사관과 긴밀히 협력해 수주 걸리던 업무를 수분 단위로 단축하고 방대한 디지털 증거를 실행 가능한 인사이트로 전환 버지니아주 타이슨스 코너 및 이스라엘 페타티크바, 2026년 3월 16일 /PRNewswire/ -- 공공 및 민간 부문을 위한 AI 기반 디지털 수사 및 인텔리전스 솔루션 분야의 글로벌 리더인 셀레브라이트(Cellebrite)(NASDAQ: CLBT)가 16일 수사 방식의 혁신을 목표로 개발된 새로운 목적형 에이전틱 AI 제품 Cellebrite Genesis의 얼리 액세스를 도입했다고 발표했다. Genesis의 얼리 엑세스 권한을 얻은 호주 경찰청(Australian police agency)의 한 대테러 수사관은 "표적 테러 공격 이후 우리는 Genesis에 얼리 엑세스 권한을 얻었고 즉시 그 한계를 시험하기 시작했다. 그 결과 수십 명의 숙련된 분석가에게서나 기대할 수 있었던 품질과 속도로 증거를 식별하고 단서를 생성했다. 특히 업로드된 인텔리전스 프로필에서 핵심적인 새로운 정보를 도출하는 등 예상치 못한 결과를 만들어 냈고, 이는 수사의 계산 방식과 일정 자체를 완전히 바꾸며 우리가 가능하다고 생각했던 범위를 넘어서는 성과를 가져왔다"고 말했다. 셀레브라이트는 매년 150만 건 이상의 수사에 활용되는 글로벌 수사 기술 분야의 선도 기업으로, 10년 이상 AI 기술을 수사 분석에 적용해 온 실적을 보유하고 있다. Cellebrite Genesis는 정밀성, 수사의 엄격함, 공공 안전 수준의 안전장치를 갖춘 혁신적인 에이전틱 AI를 즉시 제공함으로써 수사관은 미제 사건에 새로운 활력을 불어넣고 마약, 인신매매, 아동 대상 범죄 등 다양한 수사를 강화할 수 있다. 셀레브라이트의 토머스 E. 호건(Thomas E. Hogan) 최고경영자(CEO)는 "공공 안전 기관들은 더 적은 자원으로 더 많은 업무를 수행해야 하는 상황에 놓여 있다. 예산 압박은 커지고 있으며 수사 인력 확보는 갈수록 어려워지고 있고, 디지털 증거의 양은 계속 증가하고 있다. Genesis는 이러한 환경을 근본적으로 바꿀 것이다. 이 솔루션은 다양한 유형의 증거가 가진 미묘한 차이와 맥락, 관련성을 이해하는 정확하고 방어 가능한 AI를 제공한다. 우리는 약 20년에 걸친 디지털 포렌식 경험과 최첨단 에이전틱 AI를 결합해 초인적인 속도와 포렌식 수준의 정확도로 작동하는 수사 파트너를 만들었다. 이는 사회에 긍정적인 변화를 가져올 혁신적인 기술이다"라고 강조했다. Cellebrite Genesis는 모바일 포렌식 데이터, 통화 내역 기록(Call Detail Records), 문서, 메시지, 이미지, 영상 등 다양한 데이터를 직관적이고 대화형 방식으로 분석해 즉시 활용 가능한 인사이트로 전환한다. 분석가나 수사관이라면 누구나 몇 분 내에 플랫폼 사용법을 익힐 수 있다. 또한 Genesis는 독립적으로 배포할 수 있을 뿐 아니라 다른 셀레브라이트 솔루션과 함께 활용해 다양한 데이터 소스와 범죄 유형, 복잡한 수사 상황에서 수사 속도를 크게 높일 수 있다. 셀레브라이트 로넨 아르몬(Ronnen Armon) 최고제품 및 기술책임자(CPTO)는 "Genesis는 수십 년간 축적된 신뢰할 수 있는 증거 분석과 법정에서 입증된 결과, 그리고 축적된 경험을 바탕으로 개발된 목적형 인텔리전스 레이어인 Cellebrite AI로 구동된다. 우리는 실행 가능하고 방어 가능한 정보에 접근, 추출, 디코딩 및 표면화하는 방법을 그 누구보다 잘 알고 있다. Genesis는 이러한 역량을 수사팀이 직접 활용할 수 있도록 제공하며, AI 기술을 통해 더 빠르게 진실에 도달할 수 있도록 지원한다"고 전했다. Genesis는 원본 증거를 기반으로 온디맨드 방식의 인사이트를 제공한다. 수사 데이터는 최고 수준의 보안과 개인정보 보호 기준에 따라 관리되며, 미국 국립표준기술연구소(National Institute of Standards and Technology, NIST) 프레임워크와 서비스 조직 통제 2(Service Organization Control 2, SOC 2) 규정을 준수한다. 또한 모든 단계에서 고객이 완전한 통제권을 유지할 수 있도록 설계됐다. 셀레브라이트의 기술은 매년 전 세계적으로 150만 건 이상의 수사에 활용되며 7000곳 이상의 고객이 아동 착취, 살인, 테러, 국경 보안, 성범죄, 펜타닐 관련 범죄 및 기타 조직범죄, 인신매매, 사기, 지식재산권 침해, 금융 범죄, 내부 조사, 전자증거개시(eDiscovery) 사건 등 합법적으로 승인된 다양한 수사를 해결하도록 지원하는 동시에 기관의 규정과 광범위한 규제 요건을 준수하도록 보장한다. 제품 구매: Cellebrite Genesis는 현재 얼리 액세스 프로그램을 통해 이용 가능하다. 셀레브라이트 연례 사용자 콘퍼런스 C2C에서 Cellebrite Genesis와 Cellebrite Guardian Investigate를 직접 체험할 수 있다. 자세한 내용 확인 및 등록은 여기에서 확인할 수 있다. 웹사이트 및 소셜 미디어 플랫폼 관련 안내 본 보도자료에 포함되거나 접근 가능한 웹사이트 및 소셜 미디어 플랫폼에 대한 언급은 해당 사이트에 포함된 정보를 본 보도자료에 참조로 편입한다는 의미가 아니며, 해당 정보는 본 보도자료의 일부로 간주되어서는 안 된다. 셀레브라이트 소개 셀레브라이트(Cellebrite, 나스닥: CLBT)는 디지털 수사 및 정보 솔루션 분야의 글로벌 선도기업으로, 지역사회와 국가, 기업을 보호하는 것을 사명으로 삼고 있다. 전 세계 7000여 개 법 집행 기관, 국방•정보 기관, 기업들이 셀레브라이트의 인공지능(AI) 기반 소프트웨어 포트폴리오를 신뢰하고 있으며, 이를 통해 법적 증거 능력을 갖춘 디지털 데이터에 보다 쉽게 접근해 이를 수사에 효과적으로 활용하고 있다. 셀레브라이트의 기술은 고객이 연간 150만 건 이상의 법적으로 승인된 수사를 보다 신속하게 수행하도록 지원하며, 국가 안보를 강화하고, 운영 효율성과 효과를 제고하는 한편, 첨단 모바일 연구 및 애플리케이션 보안을 지원한다. 클라우드, 온프레미스, 하이브리드 환경에서 제공되는 셀레브라이트의 기술은 전 세계 고객이 임무를 완수하고, 공공 안전을 증진하며, 데이터 프라이버시를 보호할 수 있도록 돕는다. 자세한 정보는 www.cellebrite.com 및 https://investors.cellebrite.com/investors, 소셜 미디어(@Cellebrite)에서 확인할 수 있다. 문의처: 미디어빅터 쿠퍼(Victor Cooper)셀레브라이트 기업 커뮤니케이션 및 콘텐츠 전략 수석 이사victor.cooper@cellebrite.com+1 404.804.5910 투자자 관계앤드루 크레이머(Andrew Kramer)셀레브라이트 투자자 관계 부사장investors@cellebrite.com+1 973.206.7760 로고 – https://mma.prnasia.com/media2/2855183/Cellebrite_Logo.jpg?p=medium600

2026.03.16 23:10글로벌뉴스

"AI 기반 해킹 공격 89% 급증...평균 침입 시간 29분"

글로벌 클라우드 기반 사이버보안 기업 크라우드스트라이크(CrowdStrike)가 280개 이상의 공격 세력을 추적 및 분석한 '2026 글로벌 위협 보고서'를 16일 발표했다. AI가 공격을 가속하고 기업의 공격 표면을 확대하고 있다고 밝혔다. 보고서에 따르면 2025년 사이버 범죄 평균 침입 시간은 29분으로 단축됐다. 가장 빠른 공격 시간은 27초에 불과했다. 공격자들은 AI 시스템 자체를 새로운 공격 표적으로 삼아 90개 이상의 조직에서 생성형 AI 도구에 악성 프롬프트를 삽입했고, AI 개발 플랫폼까지 침투 경로로 활용했다. 혁신이 가속할수록 공격자의 악용 또한 뒤따른다고 보고서는 진단했다. AI 기반 공격 활동은 전년 대비 89% 증가했다. 공격자들은 정찰, 자격 증명 탈취, 탐지 회피 전반에 걸쳐 AI를 무기화했다. 회사는 "침입은 이제 신뢰된 계정, SaaS 애플리케이션, 클라우드 인프라를 통해 이뤄지며 겉으로는 정상 활동처럼 보인다. 그만큼 보안팀이 대응할 수 있는 시간은 빠르게 줄어들고 있다. AI는 공격을 가속하는 요인이자 동시에 새로운 공격 대상이 되고 있다"고 밝혔다. AI는 새로운 공격 표면, 프롬프트는 새로운 악성코드 보고서에 따르면, 공격자들은 90개 이상 조직에서 합법적인 생성형 AI 도구에 악성 프롬프트를 주입해 자격 증명과 가상자산 탈취 명령을 생성했다. 또 AI 개발 플랫폼 취약점을 이용해 시스템 내 지속성을 확보하고 랜섬웨어를 배포했으며, 신뢰된 서비스를 가장한 악성 AI 서버를 운영해 기밀 데이터를 가로챘다. 역대 최단 침입 기록...2024년 보다 65% 빨라져 AI가 공격을 가속하면서 사이버 범죄 평균 침입 시간은 2024년 대비 65% 더 빨라져 29분으로 단축됐다. 가장 빠른 공격은 단 27초 만에 발생했으며, 한 침입 사례에서는 최초 접근 후 4분 만에 데이터 유출이 시작됐다. AI 기반 공격 확대로 국가 배후 위협과 사이버 범죄 가속 AI 기반 공격은 89% 증가했다. 러시아 연계 공격 세력인 팬시 베어(FANCY BEAR)는 LLM 기반 악성코드(Lamehug)를 배포해 정찰 및 문서 수집을 자동화했다. 사이버 범죄 그룹 펑크 스파이더(PUNK SPIDER)는 AI 생성 스크립트를 활용해 자격 증명 유출을 가속하고 포렌식 증거를 삭제했으며, 북한 연계 공격 세력인 페이머스 천리마(FAMOUS CHOLLIMA)는 AI로 생성한 가상 인물을 활용해 내부자 공격을 확대했다. 중국 및 북한 연계 공격 급증 2025년 중국 연계 공격은 38% 증가했다. 특히 물류 산업을 겨냥한 공격이 85%나 증가하며 가장 큰 증가폭을 보였다. 중국 연계 공격자들이 악용한 전체 취약점 중 67%는 즉각적인 시스템 접근으로 이어졌고, 40%는 인터넷에 노출된 엣지 장비를 표적으로 삼았다. 북한 연계 공격은 페이머스 천리마의 활동이 두 배 이상 증가하며 130% 이상 급증했다. 프레셔 천리마(PRESSURE CHOLLIMA)의 14억 6천만 달러(약 2조 1천억 원) 규모 가상자산 탈취는 사상 최대 규모의 단일 금융 범죄 사건으로 기록됐다. 제로데이 및 클라우드 악용 증가 공격자들이 초기 접근, 원격 코드 실행, 권한 상승을 위해 제로데이를 무기화하면서 취약점의 42%가 공개 전 악용됐다. 클라우드 환경을 노린 침입은 전체적으로 37% 증가했으며, 정보 수집을 목적으로 클라우드 환경을 겨냥한 국가 연계 위협 행위자의 활동은 266% 증가했다. 애덤 마이어스(Adam Meyers) 크라우드스트라이크 공격 대응 작전 총괄은 “현 상황은 AI 군비 경쟁을 방불케 한다”며 “침입 시간 단축은 공격 양상이 어떻게 달라지고 있는지를 보여주는 가장 명확한 지표다. 공격자들은 초기 접근 이후 내부 확산까지 단 몇 분 만에 진행하고 있다. AI는 공격 의도부터 실행까지 걸리는 시간을 단축시키는 동시에, 기업의 AI 시스템을 공격 대상으로 만들고 있다. 보안팀이 우위를 확보하려면 공격자보다 더 빠르게 움직여야 한다”고 말했다. 크라우드스트라이크 이번 '2026 글로벌 위협 보고서'의 자세한 내용은 크라우드스트라이크 홈페이지를 통해 확인할 수 있다. 한편 크라우드스트라이크는 글로벌 사이버 보안 전문기업이다. 클라우드 네이티브 플랫폼으로 기업의 엔드포인트, 클라우드 워크로드, 신원, 데이터를 보호하기 위해 현대 보안을 재정의했다. 크라우드스트라이크 시큐리티 클라우드(CrowdStrike Security Cloud)와 AI를 기반으로 한 크라우드스트라이크 팔콘(CrowdStrike Falcon) 플랫폼은 실시간 공격 지표, 위협 인텔리전스, 진화하는 적의 전술 및 기업 전체에서 얻은 풍부한 원격 측정으로 매우 정확한 탐지, 자동화된 보호 및 복구, 위협 헌팅, 취약점 우선 관찰 서비스를 제공한다고 회사는 밝혔다. 또 클라우드 내에서 단일 경량 에이전트 아키텍처로 구축한 팔콘 플랫폼은 신속하고 확장 가능한 배포, 우수한 보호 및 성능, 복잡성 감소 등 즉각적인 가치 실현을 제공한다.

2026.03.16 22:19방은주 기자

디지서트, IDC 선정 '인증서 수명주기 관리' 부문 리더 뽑혀

글로벌 디지털 트러스트(Digital Trust) 전문기업 디지서트(DigiCert, 한국지사장 나정주)는 글로벌 IT 시장조사업체 IDC가 발행한 'IDC 마켓스케이프: 전 세계 인증서 수명주기 관리(Certificate Lifecycle Management, CLM) 2026 벤더 평가' 보고서에서 리더 기업으로 선정됐다고 16일 밝혔다. 이번 IDC 마켓스케이프 보고서는 인증서 유효 기간이 지속적으로 단축되고, 복잡한 하이브리드 및 클라우드 환경에서 머신 아이덴티티가 급증하는 시장 환경의 변화를 반영했다. 디지서트는 조직의 공개키 기반구조(Public Key Infrastructure, PKI) 현대화와 인증서 운영 자동화를 지원하는 우수한 역량을 바탕으로 이번 보고서에서 리더 기업으로 평가받았다고 회사는 설명했다. IDC의 제니퍼 글렌(Jennifer Glenn) 애널리스트는 “현재 CLM 시장은 명백한 변곡점에 도달했다. 인증서 관련 장애는 이미 애플리케이션, 공급망, 디지털 서비스 전반에 광범위한 영향을 미치고 있다"면서 "인증서 갱신 주기가 지속적으로 단축되며, 기업이 양자 내성 암호(Post-Quantum Cryptography, PQC) 도입을 시작함에 따라 그 위험은 더욱 심화될 것"이라고 분석했다. 또 "이러한 배경에서 IDC는 CLM 시장의 중요성을 반영해 최초로 'CLM 부문 IDC 마켓스케이프' 보고서를 발간했다"라며 "이번 보고서는 글로벌 디지털 신뢰가 핵심 과제로 부상한 현재 상황에서 벤더들이 자동화, 확장성, 암호화 환경 변화에 어떻게 대응하고 있는지 명확하고 체계적으로 파악할 수 있도록 지원"고 설명했다. 보고서에 따르면 디지서트는 특히 다음과 같은 강점으로 높은 점수를 받았다. -운영 효율 극대화 및 자동화: 디지서트 트러스트 라이프사이클 매니저(Trust Lifecycle Manager, TLM)는 대규모 인증서 운영을 최소한의 인력으로 자동 처리할 수 있도록 지원한다. 디지서트 TLM을 도입한 고객사들은 장치 및 사용자 인증서 작업의 상당 부분을 자동화해 운영 리소스를 대폭 절감하고 있다. -비용 최적화 및 SaaS 유연성: 기존 인하우스 PKI를 디지서트 TLM SaaS로 전환한 기업들은 하이브리드 환경 내 S/MIME, 프라이빗 및 퍼블릭 TLS 관리 비용을 큰 폭으로 낮췄다. -글로벌 서비스 가용성: 매니지드 서비스 형태로 제공되는 TLM은 전 세계 다양한 지역과 기업 규모에 맞춤형 CLM 자동화 및 기술 지원을 제공한다. 디지서트는 최근 시트릭스 넷스케일러(Citrix NetScaler) 및 F5와의 통합을 완료하면서 자동화 생태계를 빠르게 확장하고 있다. 이는 강화되는 컴플라이언스 요건과 양자 내성 암호 시대로의 전환에 대비하려는 기업들의 수요에 선제적으로 대응하기 위한 전략이다. 디지서트의 디피카 차우한(Deepika Chauhan) 최고 제품 책임자(CPO)는 “디지털 신뢰 환경 변화가 이미 복잡한 기업들의 보안 과제를 더욱 가중시키고 있으며, 인증서 중단 사태는 계속해서 뉴스 헤드라인을 장식하고 있다”면서 “다양한 도전과제로 업계 난관이 커지는 가운데 CLM은 디지털 신뢰 구현에 필수 요소로 자리잡고 있으며, 이에 해당 시장을 집중적으로 다룬 최초의 IDC 마켓스케이프 보고서 발표는 매우 시의적절하다”고 짚었다. 한편, 디지서트의 TLM를 포함한 주요 보안 솔루션은 국내 공식 총판사인 SK네트웍스서비스를 통해 기업 맞춤형 컨설팅 및 기술 지원과 함께 공급되고 있다. 한편 디지서트는 디지털 신뢰 분야 글로벌 선도 기업으로, 포춘 500대 기업의 90%를 포함해 전 세계 10만 곳 이상의 고객사를 보유하고 있다 .핵심 플랫폼인 'DigiCert ONE'을 통해 PKI, DNS, 인증서 생애주기 관리(CLM)를 단일 환경에서 통합 제공한다. 또 AI 기반 자동화 역량을 바탕으로 대규모 인증서 운영과 복잡한 보안 환경을 효율적으로 관리할 수 있게 지원한다. 양자 내성 암호(PQC) 등 차세대 보안 기술 전환을 선제적으로 지원하며 미래 IT 환경에서도 지속 가능한 디지털 신뢰를 제공하고 있다고 회사는 밝혔다.

2026.03.16 21:19방은주 기자

'9년 뚝심' 퓨리오사AI, 양산 칩 내놓고 실증 시험대 올라

글로벌 AI 산업이 인프라 확장에 따라 학습에서 추론영역으로 급격히 이동하면서 전 세계 데이터센터는 전력 수급과 운영 비용이라는 거대한 장벽에 직면해 있다. 현재 데이터센터의 약 80%가 15kW 미만의 저전력 인프라에 묶여 있어, 엔비디아의 고전력 솔루션을 무작정 도입하기 어려운 상황이다. 시장은 단순히 연산 속도가 빠른 칩이 아니라, 기존 설비 내에서 최대의 경제성(ROI)을 뽑아낼 수 있는 실질적인 대안을 요구하고 있다. 2017년 설립된 국내 1세대 NPU(신경망처리장치) 기업 퓨리오사AI는 이 지점을 파고든다. 지난 9년간 축적한 소프트웨어(SW) 풀스택 기술력을 바탕으로, 하드웨어의 물리적 한계를 최적화된 알고리즘으로 극복하는 전략을 취하고 있다. 지난 1월 말 TSMC로부터 2세대 양산형 칩 '레니게이드(RNGD)' 실리콘을 국내 업체 중 가장 먼저 수령하며 실전 등판 준비를 마친 퓨리오사AI는 이제 단순한 기술 검증을 넘어 실제 대규모 양산을 통한 시장 안착이라는 시험대에 올랐다. [강점: Strength] 메타가 주목한 SW 기술력과 '실물 칩' 기반 선제적 라인업 퓨리오사AI의 핵심 경쟁력은 하드웨어 하위 스택을 지원하는 소프트웨어 역량이다. 과거 글로벌 빅테크 메타(Meta)가 퓨리오사AI의 소프트웨어 스택 유효성을 검토해 인수를 타진했을 정도로, 이들의 최적화 기술은 업계 내에서 높은 평가를 받는다. AI 반도체 업계 관계자는 "지난 2024년 핫칩스 당시 메타가 퓨리오사AI의 데모를 본 뒤 인수 제안이 나온 걸로 안다"며 "퓨리오사AI의 소프트웨어 팀은 업계에서도 잘하는 걸로 정평이 나 있다"고 말했다. 특히 최근 배포된 SDK(소프트웨어개발도구)는 추론 효율을 극대화하기 위한 기능적 업데이트에 집중했다. 핵심 기술인 '하이브리드 배칭'은 서로 다른 연산 특성을 가진 복수의 사용자 요청을 통합 처리해 하드웨어 자원의 유휴 시간을 줄인다. 또한 '프리픽스 캐싱' 기능을 통해 LLM 추론 시 첫 토큰 생성 속도를 높이고 전체 처리량을 이전 버전 대비 2배 이상 개선했다. 여기에 국내 경쟁사들보다 앞서 2세대 양산형 실물 칩을 확보했다는 점은 시장 대응력 측면에서 고지를 점하게 했다. 통상 반도체는 설계 완료 후 실제 칩이 나오기까지 수개월의 시간이 소요되는데, 퓨리오사AI는 이미 확보된 실물 실리콘을 바탕으로 즉각적인 성능 검증과 고객사 PoC(개념검증)에 돌입했다. 이는 단순히 설계도 상의 수치를 제시하는 수준을 넘어, 고객사가 자신의 데이터센터 환경에 칩을 직접 꽂아보고 실시간 성능을 확인할 수 있음을 의미한다. 이러한 선점 효과를 활용해 제품군을 세분화하는 전략에도 속도를 내고 있다. 연산 성능 중심의 '레니게이드 맥스', 메모리 대역폭을 확장한 '플러스', HBM(고대역폭 메모리) 대신 GDDR을 탑재해 60W급 초저전력을 구현한 '레니게이드 S'까지 라인업을 구성했다. 가장 먼저 칩을 수령한 만큼 시장의 피드백을 빠르게 반영해 제품을 최적화할 수 있으며, 고객사의 인프라 제약 조건에 맞춰 즉각적인 커스텀 솔루션을 제공할 수 있다는 점은 글로벌 시장 안착을 위한 강력한 무기가 될 전망이다. [약점: Weakness] 지난해 매출 약 70억원…"자본 전쟁 속 체력 검증대" 퓨리오사AI가 직면한 가장 냉혹한 현실은 화려한 기술적 지표와 대비되는 재무적 성적표다. 업계에 따르면 퓨리오사AI의 지난해 매출은 약 70억원 안팎으로 추산된다. 이는 경쟁사인 리벨리온이 같은 기간 달성한 약 350억원 매출의 5분의 1 수준이다. 9년이라는 최장 업력을 보유했음에도 불구하고, 매출 규모 면에서는 후발 주자에게 선두 자리를 내어준 모양새다. 이러한 실적 열세의 근본 원인으로는 1세대 칩인 'VNPU'의 시장 안착 부진이 꼽힌다. 전 세대 제품이 실제 서비스 현장에서 충분한 상용화 레퍼런스를 구축하지 못하면서, 기업의 현금 창출 능력이 제한됨은 물론 차세대 칩인 레니게이드에 대한 시장의 신뢰도에도 심리적 부담을 안기고 있다. 1세대의 판매고가 2세대의 양산 자금으로 이어지는 선순환 구조를 만들지 못했다는 점은 뼈아픈 대목이다. 특히 현재 글로벌 AI 반도체 시장이 단순한 '기술력 대결'을 넘어 막대한 물량을 쏟아붓는 '자본 전쟁'으로 치닫고 있다는 점은 퓨리오사AI에 더 큰 위협이다. 독자적인 스타트업 형태를 유지하고 있는 퓨리오사AI로서는 카드당 천만원 수준의 고가 칩을 수만 개 단위로 양산하기 위한 자금 동원력이 사업 스피드를 결정짓는 절대적인 변수가 될 수 밖에 없다. 결국 전 세대 칩의 낮은 판매량이 남긴 재무적 공백을 2세대 양산 과정에서 얼마나 빠르게 메우느냐가 향후 생존을 결정지을 핵심 과제가 될 전망이다. [기회: Opportunity] '대통령이 먼저 찾은 기업'…9년 업력의 국가적 대표성 퓨리오사AI는 국내 최장수 NPU 기업으로서 대한민국 AI 반도체의 상징적 존재다. 실제로 이재명 대통령은 대선 후보 시절, AI 반도체 산업 강조를 위한 첫 현장 행보로 퓨리오사AI를 방문했다. 이러한 정책적 상징성은 현 정부의 강력한 지지와 정책 자금 투입으로 이어지는 기회 요인이 되고 있다. 오랜 업력은 투자 시장에서도 신뢰의 근거가 되고 있다. 퓨리오사AI는 2017년 설립 이후 9년간 꾸준한 연구개발과 성과를 통해 독보적인 위치를 점해왔다. 이는 신생 업체가 단기간에 따라잡기 힘든 무기다. 특히 퓨리오사AI는 네이버 D2SF, DSC인베스트먼트, 산업은행 등 유수의 투자사들로부터 대규모 자금을 수혈받으며 성장의 발판을 마련했다. 최근 시장에서 평가받는 기업 가치(밸류)는 약 3조원 수준에 달한다. 퓨리오사AI는 이를 발판으로 상반기 내 최대 5억 달러(약 7천500억원)의 대규모 펀딩을 마무리할 계획이다. 이러한 투자 시장의 뜨거운 러브콜은 양산 단계에 진입한 퓨리오사AI의 기술적 가치를 글로벌 시장이 높게 평가하고 있다는 방증이다. 퓨리오사AI 관계자는 "양산 개시 이후 국내외 기관들의 투자 관심이 매우 뜨겁다"며 "현재 추진 중인 펀딩을 통해 확보한 자금을 바탕으로 글로벌 경쟁력을 갖춘 양산 체계를 더욱 공고히 할 것"이라고 전했다. [위협: Threat] 생산 거점 이원화 논란과 실제 수요처 확보의 불확실성 비즈니스 관점에서의 위협은 실질적인 수주 성과에 대한 시장의 의구심이다. 정부의 정책적 자금을 지원받으며 성장했음에도 양산 파운드리를 해외(TSMC)로 결정한 것은 기술적 선택과는 별개로 국내 산업 생태계 기여도 측면에서 아쉬움 섞인 시선을 받고 있다. 특히 업계에서는 실제 주문량과 양산 규모 사이의 괴리에 주목하고 있다. 디자인하우스 관계자는 "TSMC 쪽에 대량의 구매주문(PO)을 넣을 것이라는 이야기가 들리지만, 현재 확보된 고객사인 LG 물량만으로는 그 규모가 매칭되지 않는다"고 지적했다. 이어 "지난해 매출이 50억~70억원 남짓했던 회사가 갑자기 1천억원을 얘기하는 상황인데, 명확한 고객이 보이지 않는 상태에서 공격적인 양산은 자칫 큰 리스크가 될 수 있다"며 "투자를 받기 위한 제스처로 보일 수 있다"고 우려를 표했다.

2026.03.16 17:18전화평 기자

[유미's 픽] 클라우드 생태계 만든 AWS, 스무살 됐다…MS·구글 추격 속 전략 시험대

아마존웹서비스(AWS)가 올해 창립 20주년을 맞아 클라우드 컴퓨팅 선구자로 걸어온 행보를 재조명받고 있다. 2006년 스토리지 서비스 하나로 출발한 AWS는 기업의 IT 인프라 구조를 근본적으로 바꿔놨다. 지금은 인공지능(AI) 시대 핵심 인프라 플랫폼으로 새로운 성장 국면을 맞이하고 있다. AWS는 지난 2006년 3월 14일 처음 선보인 스토리지 서비스 '아마존 S3(Simple Storage Service)'로 첫 발을 내디뎠다. 이 서비스는 기업이나 개발자가 데이터센터를 구축해야 했던 기존 방식에서 벗어나 인터넷을 통해 데이터 저장과 컴퓨팅 자원을 사용할 수 있도록 한 것이 특징이다. 같은 해 서버 컴퓨팅 서비스인 EC2(Elastic Compute Cloud)가 추가되면서 클라우드 기반 인프라 모델도 본격적으로 확산됐다. 당시 기술 스타트업의 가장 큰 장벽은 초기 인프라 투자였다. 데이터 저장을 위한 서버를 구매하고 향후 용량을 예측해야 했고 수만 달러 규모의 하드웨어 비용을 선투자해야 했다. AWS는 이를 사용량 기반 과금(pay-as-you-go) 방식으로 전환하면서 기업이 필요할 때만 컴퓨팅 자원을 사용하는 환경을 만들었다. 초기 AWS 사용자 사례는 클라우드 인프라가 산업 구조를 어떻게 바꿀 수 있는지 잘 보여줬다. 영상 제작 협업 도구를 개발하던 스타트업은 S3를 활용해 대용량 데이터를 원격에서 처리할 수 있게 됐다. 음성 녹취 서비스 기업은 서버 장애 이후 데이터를 클라우드로 이전하면서 저장 비용과 운영 부담을 크게 줄였다. 미국 버클리대학 '스타더스트앳홈(Stardust@home)' 연구 프로젝트는 수백만 개의 현미경 이미지를 클라우드에 저장하고 전 세계 시민 과학자들이 참여하는 연구 환경을 구축했다. 이처럼 클라우드는 단순한 서버 임대 서비스를 넘어 누구나 대규모 데이터 처리 인프라를 사용할 수 있는 플랫폼으로 발전했다. 현재 AWS는 데이터베이스, 분석, 사물인터넷(IoT), 머신러닝, 양자컴퓨팅 등 240개 이상 서비스를 제공하는 클라우드 플랫폼으로 확대됐다. 덕분에 AWS는 최대 클라우드 사업자로 입지를 굳혔다. 시장조사업체 시너지 리서치 그룹에 따르면 지난해 AWS는 글로벌 클라우드 인프라 시장 점유율은 30%로 1위를 유지하고 있다. 마이크로소프트 애저(Azure)가 약 20%, 구글 클라우드가 약 13%로 그 뒤를 따르고 있다. 생성형 인공지능(AI) 확산 이후 클라우드 경쟁 구도는 새로운 국면에 들어섰다. 특히 AI 플랫폼 경쟁에서 마이크로소프트와 구글이 빠르게 영향력을 확대하면서 AWS 자리를 위협하고 나섰다. 실제 마이크로소프트는 오픈AI와의 협력을 기반으로 챗GPT와 코파일럿 등 생성형 AI 서비스를 기업 시장에 빠르게 확산시키며 클라우드 시장에서 존재감을 드러내고 있다. 구글 역시 제미나이 모델과 AI 개발 플랫폼 버텍스 AI(Vertex AI) 등을 앞세워 AI 기술 경쟁력을 강화하고 있다. 이 같은 상황 속에 업계에선 AWS가 AI 기술 경쟁보다는 인프라 플랫폼 전략에 집중하고 있다고 평가했다. AWS는 현재 기업이 다양한 AI 모델을 활용할 수 있도록 하는 서비스 '아마존 베드록'을 중심으로 AI 플랫폼을 확대하고 있다. 베드록은 앤트로픽, 메타, 스태빌리티AI 등 다양한 모델을 선택적으로 사용할 수 있는 구조를 갖췄다. 또 AWS는 자체 AI 반도체인 트레이니엄과 인퍼런시아를 통해 AI 학습과 추론 비용을 낮추는 전략도 추진하고 있다. 이는 엔비디아 그래픽처리장치(GPU) 의존도를 줄이고 AI 인프라 경쟁력을 확보하려는 전략으로 해석된다. 하지만 AWS는 AI 확산에 따른 인프라 수요 증가에 대응해야 하는 과제를 안고 있다. 생성형 AI 확산으로 데이터 처리 수요가 급증하면서 대규모 데이터센터 투자와 에너지 확보 문제가 클라우드 산업의 주요 이슈로 떠오르고 있다. 특히 AI 데이터센터는 막대한 전력과 냉각 설비가 필요해 전력 확보와 운영 효율성이 향후 클라우드 사업 경쟁력의 핵심 요소가 될 것으로 예상된다. 이에 AWS는 AI 워크로드 증가에 대응하기 위해 글로벌 데이터센터 확충과 인프라 투자를 확대하고 있는 것으로 알려졌다.데이터 주권과 규제 환경 변화도 변수다. 유럽과 일부 국가에서는 데이터의 국외 이전과 클라우드 의존도에 대한 규제 논의가 확대되고 있다. 각국이 데이터 보호 정책을 강화하면서 글로벌 클라우드 기업들은 지역 데이터센터 구축이나 현지 파트너십 확대 등 대응 전략 마련이 필요한 상황이다. 이에 AWS는 유럽과 아시아 등 주요 지역에서 데이터센터를 확대하며 지역 내 데이터 처리 요구에 대응하고 있다. 업계에선 향후 AWS의 경쟁력이 AI 플랫폼 역량과 인프라 운영 능력에 달려 있다고 분석했다. 클라우드가 이미 IT 인프라의 기본 구조로 자리 잡은 만큼, AI 시대의 핵심 플랫폼으로서 어떤 생태계를 구축하느냐가 다음 성장 단계의 관건이 될 것으로 봤다. 맷 가먼 AWS 최고경영자(CEO)는 자신의 소셜미디어(SNS)를 통해 "인프라의 무거운 부담을 없애고 개발자들이 혁신에 집중할 수 있도록 하자는 단순한 아이디어에서 AWS가 시작됐다"며 "오늘날 전 세계 수백만 고객이 사용하는 플랫폼으로 성장했다"고 말했다. 이어 "2005년 AWS에 인턴으로 합류해 서비스가 공개되기 전부터 지켜봤다"며 "단순한 스토리지 서비스가 스타트업과 기업, 정부를 지원하는 글로벌 클라우드 플랫폼으로 발전하는 과정을 직접 경험했다"고 강조했다. 그러면서 "20년이 지난 지금도 '고객의 목소리를 듣고 개발자들의 장벽을 제거하겠다'는 우리의 미션은 변하지 않았다"며 "AI가 새로운 가능성을 열고 있는 지금, 고객들이 다음에 무엇을 구축하게 될지가 가장 흥미로운 질문"이라고 덧붙였다.

2026.03.16 17:06장유미 기자

과기정통부, 추경 예산 활용 중기 2242곳 무상 보안 점검

과학기술정보통신부는 한국인터넷진흥원(KISA, 원장 이상중), 한국정보보호산업협회(KISIA, 회장 김진수)와 함께 2025년 제2차 추경 예산을 활용해 지역·중소기업의 보안역량 강화를 지원했다고 16일 밝혔다. 최근 발생한 다수 침해사고로 국민 불편과 불안이 컸던 가운데, 지역 및 중소기업은 예산·인력·정보 부족으로 사이버 위협에 대한 사전 대비와 대응능력이 상대적으로 부족하다는 지적이 많았다. 이에 과기정통부는 2025년 2차 추경(총 32.4억)을 통해 소정의 예산을 확보, 이들에 대한 보안역량 강화 사업을 추진했다. 우선, IT 자산 보유기업 2242개사를 대상으로 기본적인 보안 취약점 점검(일명 공격표면점검(Attack Surface Management)으로 외부에 노출된 자산 공격표면(홈페이지, 이메일, 서버 등) 관리 도구를 활용해 취약점을 탐지·발굴하는 점검 방법)을 무상으로 진행했고, 발견된 취약점(약 9만건)에 대해서는 기업별 분석보고서와 전문가 컨설팅(유선 및 대면)을 제공, 위협에 노출된 상황을 기업이 빠르게 판단하고, 신속히 조치할 수 있게 밀착 지원했다. 또 전국 주요 기업 보안담당자 및 CISO를 대상으로 최근 발생한 사이버보안 사고사례 전파, 침해사고 예방 방법 및 신고·대응 요령 등 긴급 보안 교육에 총 567개사 757명이 참여하는 한편, 이번 교육을 국내 정보보호기업의 매출 신장의 기회로 연계하기 위해 총 22개의 보안기업이 참여하는 제품상담회를 병행, 500여 건의 상담 성과를 거뒀다. 이외에 추경을 통해 중소기업 스스로 IT 자산을 정확하게 식별하고, 현 보안 수준을 손쉽게 진단하는 한편, 가용할 수 있는 예산 범위 내에서 중요도에 따라 보안 투자의 우선순위 및 정부 지원 프로그램을 안내하는 중소기업용 보안투자 가이드를 웹 도구로 개발해 기업이 활용할 수 있게 했다. 이 보안투자 가이드는 KISA 지역정보보호센터(risc.kisa.or.kr) 홈페이지에서 관심 있는 기업 누구나 무료로 사용할 수 있고, 보안성 검토 등을 거쳐 2분기 내 제공할 예정이다. 임정규 과기정통부 정보보호네트워크정책관은 “지역 경제 버팀목인 중소기업은 생산·제조 등 산업 공급망의 핵심을 담당하고 있지만 여건이 부족해 사이버 위협 사각지대에 놓여있다"면서 "추경사업을 통한 성과를 바탕으로 중소기업의 보안역량 강화를 위한 지원을 강화해 나가겠다”고 밝혔다.

2026.03.16 16:41방은주 기자

  Prev 51 52 53 54 55 56 57 58 59 60 Next  

지금 뜨는 기사

이시각 헤드라인

美 연방정부 AI 활용 2년 새 4배…MS·구글·팔란티어가 깔았다

車산업 SDV 전환 속도내지만…SW·AI 인력 확보는 '난항'

과금보다 '재미'…넷마블 '게임 본질' 집중 전략, 글로벌 적중

삼성전자, 1분기 태블릿 출하량 12.6% 감소...애플은 7.9%↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.