• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'텔레그램채널인원유입 [텔레 𝐎𝐍𝟒𝟗𝟖𝟗] 텔레그램회원 작업 tW1j'통합검색 결과 입니다. (5425건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

디노티시아, 'AI 스토리지' 전략 공식화… "2030년 매출 1조 달성"

AI 인프라 기업 디노티시아가 생성형 AI의 고질적인 한계인 기억력 문제를 해결할 차세대 AI 스토리지 전략을 공개했다. 디노티시아는 3일 서울시 강남구에서 기자간담회를 열고 차세대 AI 스토리지 아키텍처를 발표했다. 이를 통해 AI가 데이터를 직접 소비하는 패러다임을 구축하고 2030년 매출 1조원을 달성한다는 목표다. "AI가 데이터를 직접 소비한다"...스토리지 패러다임의 전환 이날 간담회에서 정무경 대표는 생성형 AI 확산과 함께 데이터 활용 방식이 근본적으로 변하고 있다고 진단했다. 과거에는 인간이 필요한 정보를 수동으로 검색했다면, 이제는 AI 에이전트가 스토리지에 저장된 방대한 비정형 데이터를 직접 탐색하고 추론에 활용하는 시대로 접어들었다는 분석이다. 정 대표는 “기존 스토리지 시스템은 단순 보관에 치중해 AI의 빠른 연산 속도를 뒷받침하지 못했다”며 “디노티시아의 AI 스토리지는 데이터를 저장하는 공간을 넘어, AI가 즉각적으로 정보를 읽고 추론에 반영하는 '실행 계층'의 역할을 수행할 것”이라고 강조했다. 특히 기업 데이터의 85% 이상이 미활용 비정형 데이터인 상황에서, 이를 AI가 이해할 수 있는 지능형 지식으로 자동 변환하는 것이 사업의 핵심이다. 3대 기억 체계 통합 및 엔비디아 생태계와 완벽 호환 디노티시아가 제시한 AI 스토리지 아키텍처는 AI의 기억을 세 가지 계층으로 통합 관리한다. ▲RAG(검색 증강 생성) 기반의 '외부 지식(External Knowledge)', ▲사용자와의 상호작용을 축적해 개인 맞춤형 서비스를 가능케 하는 '장기 기억(Long-term Memory)', ▲그리고 추론 속도를 결정짓는 '단기 작업 메모리(KV Cache)'가 그 주인공이다. 디노티시아는 엔비디아 ICMS와 호환되는 KV 캐시 스토리지 기술을 통해 AI 추론의 고질적인 병목 현상을 해결했다. 이를 통해 대규모 서비스 환경에서도 끊김 없는 초고속 성능을 보장하며, 차세대 에이전틱 AI를 위한 최적의 데이터 인프라를 제공한다는 계획이다. 세계 최초 전용 반도체 'VDPU'와 소프트웨어 '씨홀스'의 시너지 디노티시아 경쟁력의 최전선에는 자체 설계한 벡터 데이터 연산 가속 반도체인 'VDPU(Vector Data Processing Unit)'가 있다. VDPU는 스토리지 내 데이터에 직접 액세스하여 연산함으로써 데이터 전송 지연을 최소화하며, 기존 CPU나 GPU 기반 소프트웨어 방식 대비 시멘틱 검색(의미 기반 검색) 성능을 최대 20배까지 끌어올린다. 여기에 고성능 벡터 데이터베이스 소프트웨어인 '씨홀스(Seahorse)'를 결합해 하드웨어와 소프트웨어가 통합된 단일 데이터 스택을 완성했다. 이를 통해 기업용 데이터센터는 물론, 개인용 AI NAS(네트워크 저장장치) 시장까지 아우르는 확장성을 확보했다. 클라우드에 데이터를 올리는 것에 거부감을 느끼는 개인 사용자를 위해, 온디바이스 환경에서 보안을 유지하며 데이터를 처리하는 퍼스널 AI 시장도 공략할 계획이다. 글로벌 제조사와 기술 검증 진행… 2030년 매출 1조원 목표 이러한 기술력을 바탕으로 현재 글로벌 시장에서의 협력도 가시화되고 있다. 노홍찬 디노티시아 CDO(최고데이터책임자)는 “현재 글로벌 스토리지 및 서버 제조사들과 VDPU 기술 적용을 위한 PoC(기술 검증)를 진행 중”이라고 밝혔다. 전용 칩 양산 전 단계임에도 글로벌 제조사들과 협업을 논의하며 기술의 실효성을 확인하고 있다는 설명이다. 디노티시아는 지난해 소프트웨어 솔루션 판매를 통해 약 31억5천만원의 매출을 기록했다. 회사는 2025년 말 VDPU 칩 설계를 완료하고 2026년 하반기 제품 출시를 거쳐 2027년부터 본격적인 양산 체제에 진입할 계획이다. 노 CDO는 “AI 에이전트 확산에 따른 스토리지 수요 증가가 사업 기회가 될 것”이라며 “양산이 본격화되는 시점을 기점으로 성장을 가속화해 2030년 연 매출 1조 원을 달성하는 글로벌 AI 인프라 기업으로 거듭나겠다”고 말했다. 정무경 대표는 “AI 모델이 사고의 논리를 담당하는 두뇌라면, 디노티시아는 그 두뇌에 방대한 지식과 기억을 실시간으로 공급하는 중추신경계 역할을 할 것”이라며 “상용화와 글로벌 시장 확대를 통해 실질적인 성과로 가치를 증명하겠다”고 전했다.

2026.03.03 17:04전화평 기자

[AI는 지금] 자체 LLM '노바' 후순위 밀리나...오픈AI 손잡은 아마존, 노림수는?

아마존웹서비스(AWS)가 오픈AI에 대한 대규모 투자와 함께 전략적 협력 확대를 발표하면서 자체 거대언어모델(LLM) 전략에 변화를 줄지 관심이 쏠린다. 2024년 말 '노바' 브랜드로 자체 LLM을 공개했지만, 최근 들어 앤트로픽, 오픈AI 등 다른 AI 기업들과 협력 범위를 넓히면서 '노바'가 후순위로 밀린 것 아니냐는 지적도 나온다. AWS코리아는 3일 서울 역삼 본사에서 열린 신년 기자간담회에서 아마존이 오픈AI에 총 500억 달러(약 70조원)를 투자할 계획을 공개적으로 밝혔다. 우선 150억 달러를 투자하고 향후 수개월 내 특정 조건이 충족되는 시점에 추가로 350억 달러를 투자할 예정이다. 이번 협력은 단순 지분 투자에 그치지 않는다. 양사는 오픈AI 모델 기반의 '상태 유지 런타임 환경(Stateful Runtime Environment)'을 공동 개발하고 있다. 이 기능은 AWS의 AI 플랫폼 '아마존 베드록(Amazon Bedrock)'을 통해 제공될 예정이다. 상태 유지 런타임은 모델이 이전 작업 맥락을 기억하고 다양한 소프트웨어 도구와 데이터 소스에 접근해 연속적인 업무를 수행할 수 있도록 지원하는 구조다. 기업 고객의 AI 애플리케이션과 에이전트가 기존 AWS 인프라와 긴밀하게 통합되도록 설계됐다는 점에서 단순 모델 연동을 넘어 운영 체계 수준의 협력으로 해석된다. 인프라 계약도 확대됐다. 오픈AI와 AWS는 기존 380억 달러 규모의 다년 계약을 8년에 걸쳐 총 1000억 달러 규모로 확장하기로 했다. 이에 따라 오픈AI는 AWS 인프라에서 약 2기가와트(GW) 규모의 트레이니움(Trainium, AWS가 자체 개발한 AI 학습용 반도체) 컴퓨팅 용량을 확보하게 된다. 이 계약에는 트레이니움3와 2027년부터 공급될 차세대 트레이니움4 칩이 포함됐다. 트레이니움4는 메모리 대역폭과 고대역폭 메모리(HBM) 용량을 확장해 대규모 AI 학습 및 추론 수요를 지원하도록 설계됐다. 양사는 아마존 개발자들이 고객 대상 AI 제품과 에이전트에 활용할 수 있도록 오픈AI 모델을 맞춤화하는 작업도 병행한다. AWS 환경에 최적화된 형태로 모델을 조정해 제공하는 방식이다. 일각에선 아마존의 이 같은 움직임을 두고 자체 LLM 전략에 대한 자신감이 떨어진 것 아니냐는 의구심을 드러내고 있다. 자체 모델을 보유한 상황에서 외부 최상위 모델 기업과 대규모 동맹을 맺는 것은 기술 격차를 인정한 신호 아니냐는 해석을 내놨다.하지만 업계에선 이번 협력을 AWS의 '멀티 모델' 전략 강화로 해석하고 있다. 아마존은 이미 오픈AI의 경쟁사인 앤트로픽에 80억 달러 이상을 투자한 최대 투자자다. 오픈AI와 앤트로픽을 동시에 포섭하는 구조는 특정 모델에 대한 종속을 최소화하려는 움직임으로 읽힌다. 이는 AI 시장의 승자가 확정되지 않은 상황에서 주요 모델 사업자를 모두 AWS 인프라 생태계 안에 두겠다는 전략으로 분석된다.이번 움직임은 글로벌 클라우드 3강 구도와도 밀접하게 연결돼 있다. 마이크로소프트는 오픈AI와의 긴밀한 협력을 바탕으로 GPT 기반 '코파일럿'을 전면에 내세워 애저(Azure) 경쟁력을 강화하고 있다. 구글 역시 자체 LLM '제미나이'를 중심으로 구글 클라우드와 워크스페이스 전반에 AI 기능을 통합하며 존재감을 키우는 중이다. 이처럼 두 경쟁사가 각각 '전략 모델'을 앞세워 클라우드 수요를 흡수하는 구조를 구축하자 AWS도 대응 전략 강화에 본격 나선 분위기다. 자체 LLM 노바를 통해 기술 주권과 비용 통제력을 확보하는 한편, 오픈AI와 앤트로픽까지 포섭해 모델 선택권을 넓히는 '투트랙' 방식을 택한 것이다. 이는 특정 모델에 종속되기보다 주요 모델을 모두 자사 인프라 위에서 구동되도록 만드는 멀티 모델 전략으로 해석된다. 또 오픈AI 워크로드를 AWS 인프라와 자체 AI 칩 위에서 구동하도록 함으로써 클라우드 사업자 간 AI 워크로드 유치 경쟁이 한층 격화될 것이라는 관측도 제기된다. 모델 경쟁의 승패와 무관하게 인프라 수요를 확보하는 구조를 강화하는 것이다. 외부 모델 협력 확대와는 별개로 AWS는 자체 LLM 전략도 더 강화할 계획이다. 노바는 베드록 내 자체(1P) 모델로 운영되며 계층형 라인업 확장이 이어지고 있는 상태다. 국내에서는 통신·교육 기업을 중심으로 노바 적용 사례가 확대되고 있으며 비용 효율성과 데이터 통제 측면에서 경쟁력을 확보하고 있는 것으로도 평가되고 있다. AWS 관계자는 "오픈AI 협력이 자체 LLM 노바 전략에 영향을 주는 것은 아니다"며 "노바는 독립적으로 지속 고도화해 제공할 계획"이라고 밝혔다. 이어 "본사 차원에서도 라인업을 계속 확장하고 있다"며 "이번 오픈AI 협력 발표는 엔터프라이즈 시장을 공략하기 위한 것"이라고 덧붙였다.

2026.03.03 16:36장유미 기자

[단독] 정부, '두바이 AI 페스티벌' 참여 잠정 보류…"미·이란 갈등 여파"

정부가 오는 4월 초 아랍에미리트(UAE) 두바이에서 열리는 행사 참여를 잠정 보류한 것으로 확인됐다. 3일 IT 업계 관계자에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 내달 6~7일 개최되는 '두바이 AI 페스티벌' 참여 잠정 보류를 관계자들에게 공지한 것으로 전해졌다. 두바이 AI 페스티벌은 두바이에서 매년 열리는 글로벌 AI 행사다. 전 세계 AI 리더·기업·정부 기관이 모여 AI 혁신, 비즈니스 협력, 투자 기회, 정책 논의를 진행하는 장이다. 올해는 두바이 월드 트레이드 센터(DWTC)에서 개최된다. 앞서 정부는 이 행사에서 한국관을 구축해 현지 네트워킹·기업 지원, 포럼 운영을 추진할 예정이었다. NIPA는 한국관·포럼 운영 용역도 별도 모집하는 공고를 내기도 했다. 익명을 요청한 AI 업계 관계자는 "최근 미국 이란 간 군사적 긴장감이 고조되면서 전시 참여가 무산됐다"며 "현지 안전 문제를 최우선으로 고려하기 위한 조치"라고 말했다. 이어 "4월 말 예정된 정부의 사우디 행사도 불투명한 상황"이라며 "현재 사우디에 제안 작업 중인 건이 선정된다 하더라도 현지에 갈 수 없을 듯 하다"고 이유를 설명했다. 이에 대해 NIPA 관계자는 "현재 상황은 잠정 보류"라며 "취소 여부는 상황 주시 후 추후에 검토할 예정"이라고 밝혔다.

2026.03.03 16:08김미정 기자

현대차∙테슬라, 휴머노이드 로봇 시장서 격돌

향후 휴머노이드 로봇 시장이 급성장할 것으로 전망되는 가운데 현대자동차와 테슬라의 경쟁이 본격화되고 있다고 과학매체 인터레스팅엔지니어링이 2일(현지시간) 보도했다. 현대자동차는 2020년 12월 로봇 개발사 보스턴다이내믹스를 인수하며 로봇 산업의 주요 플레이어로 부상했다. 테슬라 역시 휴머노이드 로봇 '옵티머스'를 공개하며 시장의 이목을 집중시킨 상태다. 현대차는 올해 초 CES 2026에서 사람처럼 유연하고 민첩한 움직임을 구현한 '아틀라스' 로봇을 선보였다. 이후 2주간 주가가 약 80% 급등하며 시장의 높은 기대감을 반영하기도 했다. 아틀라스∙옵티머스 로봇, 각각의 장점은? 시장 분석가들은 아틀라스를 테슬라 옵티머스의 핵심 경쟁 제품으로 보고 있다. 아틀라스는 최대 50㎏의 하중을 운반할 수 있어 옵티머스(20㎏)보다 적재 능력이 뛰어난 것으로 알려졌다. 또한 사람 크기의 로봇 손에 56개의 자유도를 구현했고, 고성능 액추에이터와 정밀 동작 제어 기술 등 로봇 공학 측면에서 높은 완성도를 갖췄다는 평가다. 현대차는 로봇의 인지 능력 고도화를 위해 구글 딥마인드와 협력하고 있으며, 액추에이터 및 공급망 지원을 위해 엔비디아, 현대모비스 등과도 파트너십을 맺고 있다. 반면 테슬라 옵티머스는 테슬라의 완전자율주행(FSD) 소프트웨어를 기반으로 한 엔드 투 엔드 신경망을 활용하는 점이 차별화 요소로 꼽힌다. 옵티머스의 키는 약 1.73m, 무게는 57㎏이며, 1회 충전으로 약 8시간 작동이 가능하다. 일론 머스크 테슬라 최고경영자(CEO)는 옵티머스의 가격을 2만~3만 달러 사이로 제시하며, 대량 생산과 원가 절감을 통해 시장 접근성을 높이겠다는 전략을 내세우고 있다. 이에 비해 현대차는 초기에는 차량 부품 키팅(kitting)과 같은 대량·반복적 산업 공정에 아틀라스를 우선 투입할 계획이다. 초기 비용이 다소 높더라도 고빈도 산업 작업에 먼저 적용해 실질적 생산성 향상을 노린다는 방침이다. 현대차는 2028년부터 미국 조지아주에 위치한 현대차그룹 메타플랜트 아메리카(HMGMA)를 포함한 여러 시설에 로봇을 배치하고, 2030년까지 보다 복잡한 조립 공정으로 적용 범위를 확대할 계획이다. 2050년까지 5조 달러 시장 성장 자동차 제조업체들이 로봇 산업에서 유리한 위치에 있다는 분석도 나온다. 휴머노이드 로봇은 배터리, 전기 모터, 센서, 인공지능(AI) 등 전기차와 유사한 핵심 부품을 활용하기 때문이다. 글로벌 투자은행 모건스탠리는 휴머노이드 로봇 시장이 2050년까지 5조 달러 규모로 성장할 것으로 전망했다. 테슬라와 현대자동차 모두 이러한 성장 가능성에 기대를 걸고 시장 선점에 나서고 있다. 인터레스팅엔지니어링은 현대차의 산업 중심 전략과 보스턴다이내믹스의 기술적 전통이 저렴하고 다재다능한 휴머노이드를 지향하는 테슬라의 비전과 대조를 이룬다고 평가했다. 다만 어느 쪽이 경쟁에서 우위를 점하든, 두 기업 모두 향후 글로벌 노동 시장에 변화를 가져올 휴머노이드 로봇 시대를 여는 핵심 주체가 될 것이라고 전망했다.

2026.03.03 15:48이정현 미디어연구소

기업 데이터 80%가 비정형...AI자산으로 전환 어떻게

지능형 데이터 플랫폼 전문기업 데이터스트림즈(대표 이영상)는 지난 26일 'AI 거버넌스와 데이터 리니지-비정형 데이터를 AI 자산으로 전환하라'를 주제로 웨비나를 개최, 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법론과 솔루션을 제시했다고 밝혔다. 이번 웨비나는 올 1월 시행된 AI 기본법 이후 기업이 요구받고 있는 AI의 투명성, 안전성, 책임성 확보를 위한 대응 방안을 중심으로 진행했다. 특히 기업 내 방대한 비정형 데이터가 AI 활용의 핵심 자산이 될 수 있음에도 불구, 관리 체계 부재로 실제 활용에는 한계가 있다는 점이 주요 문제로 제기됐다. 데이터스트림즈는 발표를 통해 AI 도입 실패의 근본 원인이 기술이나 예산이 아닌 '데이터 거버넌스 부재'에 있다고 진단했다. 대부분의 기업이 문서, 이메일, 이미지 등 다양한 비정형 데이터를 보유하고 있지만 이를 체계적으로 관리하지 못하면서 AI 모델의 신뢰성과 품질 확보에 어려움을 겪고 있다는 설명이다. 특히 데이터스트림즈의 독자 아키텍처인 'M-DOSA(Meta Data Oriented Service Architecture)'가 주목을 받았다. 'M-DOSA'는 메타데이터 카탈로그를 모든 데이터 서비스의 중심에 두는 설계 철학이다. 비정형 문서에서 추출한 필드와 정형 데이터베이스의 컬럼을 카탈로그 매핑 테이블로 연결한다. 이를 통해 종이 신청서에서 출발한 데이터가 SQL 파이프라인을 거쳐 AI 모델에 이르기까지의 전 과정을 하나의 리니지 캔버스에서 끊김 없이 추적할 수 있다. 이날 웨비나에서는 데이터스트림즈의 'Q-Track' AI를 기반으로 비정형 데이터를 AI 자산으로 전환하는 구체적인 방법을 시연했다. 시연에서는 비정형 문서 업로드 → OCR 기반 자동 구조화 → AI의 개인정보 자동 탐지 → 데이터 스튜어드의 최종 승인(Human-in-the-Loop) → ODS에서 AI 모델까지 전 구간 리니지 자동 생성의 4단계 파이프라인을 소개했다. 또 개인정보 자동 탐지와 함께 주민등록번호 등 복원 불가 항목에 대한 단방향 해싱, 감사 목적 복원이 필요한 항목에 대한 양방향 암호화 등 비식별화 자동 적용 기능을 공개했다. 아울러 데이터 생성부터 활용까지의 흐름을 노드 그래프로 시각화, 전사 데이터 이동 경로를 추적할 수 있는 데이터 리니지 체계를 통해 AI 기본법 컴플라이언스 대응이 가능하다는 점도 강조했다. 특히 기존 수일에서 수주가 소요되던 감사 소명 작업을 'Q-Track AI'를 통해 1분 이내에 자동 생성할 수 있다는 점도 참석자들의 주목을 받았다. 발표를 맡은 데이터스트림즈 AI전략사업본부 AI개발팀 곽두일 수석은 17년간 공공·금융·의료·제조 등 다양한 산업 영역에서 40건 이상의 엔터프라이즈 AI PoC를 수행한 경험을 바탕으로, 비정형 데이터를 정형 데이터 수준으로 관리, AI 신뢰성과 활용도를 동시에 높이는 방법론을 시연했다. 그는 기업이 보유한 비정형 데이터를 정형 데이터 수준으로 관리할 수 있을 때 AI 신뢰성과 활용도가 함께 향상될 수 있다고 설명했다. 데이터스트림즈는 이번 웨비나를 통해 AI 경쟁력의 핵심이 모델이 아닌 데이터 관리 역량에 있음을 강조하며, 준비된 기업과 그렇지 않은 기업 간 격차는 향후 더욱 확대될 것으로 전망했다. 이영상 데이터스트림즈 대표는 "AI 기본법이 시행된 지금, 데이터 거버넌스 없이 기업용 AI를 운영하는 것은 더 이상 선택의 문제가 아니다"며 "비정형 데이터를 AI 자산으로 전환하는 M-DOSA 기반 AI 거버넌스가 2027년 기업 AI 경쟁력의 핵심 기준이 될 것" 이라고 밝혔다.

2026.03.03 14:48방은주 기자

SK하이닉스, HBM4 '성능 점프' 비책 짰다…新패키징 기술 도입 추진

차세대 고대역폭메모리 HBM4 시장을 놓고 삼성전자와 SK하이닉스 간 주도권 경쟁이 치열합니다. AI 시대의 핵심 인프라로 성장한 HBM4는 글로벌 메모리 1위 자리를 놓고 벌이는 삼성과 SK의 자존심이 걸린 한판 승부이자 대한민국 경제의 미래이기도 합니다. HBM4 시장을 기점으로 차세대 메모리 기술은 물론 공급망까지 두 회사의 미래 AI 비전이 완전히 다른 양상으로 흘러갈 수 있기 때문입니다. 지디넷코리아가 창과 방패의 싸움에 비유되는 삼성과 SK 간 치밀한 AI 메모리 전략을 4회에 걸쳐 진단해 봅니다. (편집자주) SK하이닉스가 고대역폭메모리(HBM)용 패키징 기술 변혁을 꾀한다. 대대적인 공정 전환 없이 HBM의 안정성과 성능을 강화할 수 있는 기술을 고안해, 현재 검증을 진행 중인 것으로 파악됐다. 실제 상용화가 이뤄지는 경우, 엔비디아가 요구하는 HBM4(6세대)의 최고 성능 달성은 물론 차세대 제품에서의 성능 강화도 한층 수월해질 것으로 예상된다. 이에 해당 기술의 성패에 업계의 이목이 쏠린다. 3일 지디넷코리아 취재를 종합하면 SK하이닉스는 HBM 성능 강화를 위한 새로운 패키징 기술 적용을 추진하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 뒤, 실리콘관통전극(TSV)를 뚫어 연결한 메모리다. 각 D램은 미세한 돌기의 마이크로 범프를 접합해 붙인다. HBM4의 경우 12단 적층 제품부터 상용화된다. SK하이닉스는 현재 HBM4의 초도 양산을 시작했다. HBM4의 리드타임(제품 양산, 공급에 필요한 전체 시간)이 6개월 내외인 만큼, 엔비디아와의 공식적인 퀄(품질) 테스트 마무리에 앞서 선제적으로 제품을 양산하는 개념이다. HBM4 공급은 문제 없지만…최고 성능 구현 고심 그간 업계에서는 SK하이닉스 HBM4의 성능 및 안정성 저하를 우려해 왔다. 엔비디아가 HBM4의 최대 성능(핀 당 속도)을 당초 제품 표준인 8Gbps를 크게 상회하는 11.7Gbps까지 요구하면서, 개발 난이도가 급격히 상승한 탓이다. 실제로 SK하이닉스 HBM4는 AI 가속기를 결합하는 2.5D 패키징 테스트 과정에서 최고 성능 도달에 어려움을 겪어, 올해 초까지 일부 회로의 개선 작업을 거쳐 왔다. 이에 따라 본격적인 램프업(대량 양산) 시점도 당초 업계 예상보다 일정이 늦춰진 상황이다. 다만 업계 이야기를 종합하면, SK하이닉스가 엔비디아향 HBM4 공급에 큰 차질을 겪을 가능성은 현재로선 매우 낮은 수준이다. 주요 배경은 공급망에 있다. 엔비디아가 HBM4에 높은 사양을 요구하고 있긴 하지만, 이를 고집하는 경우 올 하반기 최신형 AI 가속기 '루빈'을 충분히 공급하는 데 제약이 생길 수 있다. 현재 HBM4에서 가장 좋은 피드백을 받고 있는 삼성전자도 수율, 1c D램 투자 현황 등을 고려하면 당장 공급량을 확대하기 어렵다. 때문에 업계는 엔비디아가 초기 수급하는 HBM4의 성능 조건을 10Gbps대로 완화할 가능성이 유력하다고 보고 있다. 반도체 전문 분석기관 세미애널리시스는 최근 보고서를 통해 "엔비디아가 루빈 칩의 총 대역폭을 당초 22TB/s로 목표했으나, 메모리 공급사들은 엔비디아의 요구 사항을 충족하는 데 어려움을 겪고 있는 것으로 파악된다"며 "초기 출하량은 이보다 낮은 20TB/s(역산하면 HBM4 핀 당 속도가 10Gbps급)에 가까울 것으로 예상한다"고 밝혔다. 반도체 업계 관계자는 "HBM 공급망은 단순 속도가 아니라 수율·공급망 안정성 등 어려 요소가 고려돼야 하기 때문에, SK하이닉스가 가장 많은 물량을 공급할 것이라는 전망은 여전히 유효하다"며 "다만 최고 성능 도달을 위한 개선 작업도 지속적으로 병행하는 등 기술적으로 안주할 수 없는 상황"이라고 말했다. HBM 성능 한계 돌파할 '신무기' 준비…현재 검증 단계 이와 관련, 현재 SK하이닉스는 HBM4 및 차세대 제품에 적용하는 것을 목표로 새로운 패키징 공법 도입을 시도하고 있다. 업계가 지목하는 HBM4 성능 제약의 가장 큰 요인은 입출력단자(I/O) 수의 확장이다. I/O는 데이터 송수신 통로로, HBM4의 경우 이전 세대 대비 2배 증가한 2048개가 구현된다. 그런데 I/O 수가 2배로 늘면 밀집된 I/O끼리 간섭 현상이 발생할 수 있다. 또한 전압 문제로 하부층의 로직 다이(HBM 밑에서 컨트롤러 역할을 담당하는 칩)에서 가장 높은 상부층까지 전력이 충분히 전달되기가 어렵다. 특히 SK하이닉스는 주요 경쟁사인 삼성전자 대비 한 세대 이전의 1b(5세대 10나노급) D램을 채용한다. 로직 다이도 TSMC의 12나노미터(nm) 공정으로, 삼성전자(삼성 파운드리 4나노) 대비 집적도가 낮다. 때문에 기술적으로 I/O 수 증가에 따른 문제에 취약하다. 대대적 공정 전환 없이 HBM 성능·안정성 향상…상용화 여부 주목 이에 SK하이닉스는 새로운 패키징 공법으로 새로운 비책을 마련하고 있는 것으로 파악됐다. 핵심은 ▲코어 다이 두께 향상, 그리고 ▲D램 간 간격(Gap) 축소다. 우선 일부 상부층 D램의 두께를 이전보다 두껍게 만든다. 기존엔 HBM4의 패키징 규격(높이 775마이크로미터)을 맞추기 위해 D램의 뒷면을 얇게 갈아내는 씨닝 공정이 적용된다. 다만 D램이 너무 얇아지면 칩 성능이 저하되거나 외부 충격에 쉽게 손상을 받을 수 있다. 때문에 SK하이닉스는 D램의 두께 향상으로 HBM4의 안정성을 강화하려는 것으로 풀이된다. 또한 D램 간 간격을 더 줄여, 전체 패키징 두께가 늘어나지 않도록 하는 동시에 전력 효율성을 높였다. 각 D램의 거리가 가까워지면 데이터가 더 빠르게 도달하게 되고, D램 최상층으로 전력이 도달하는 데 필요한 전력이 줄어들게 된다. 관건은 구현 난이도다. D램 간 간격이 줄어들면 MUF(몰디드언더필) 소재를 틈에 안정적으로 주입하기 힘들어진다. MUF는 D램의 보호재·절연체 등의 역할을 담당하는 소재로, 고르게 도포되지 않고 공백(Void)가 생기면 칩의 불량을 야기할 수 있다. SK하이닉스는 이를 해결할 수 있는 새로운 패키징 기술을 고안해냈다. 구체적인 사안은 밝혀지지 않았으나, 대대적인 공정 및 설비 변화 없이 D램 간격을 안정적인 수율로 줄일 수 있는 것이 주 골자다. 최근 진행된 내부 테스트 결과 역시 긍정적인 것으로 알려졌다. 만약 SK하이닉스가 해당 기술을 빠르게 상용화하는 경우, HBM4 및 차세대 제품에서 D램 간격을 효과적으로 줄일 수 있을 것으로 예상된다. 반대로 해당 기술이 양산 적용에 난항을 겪을 가능성도 남아 있다. 사안에 정통한 관계자는 "SK하이닉스가 기존 HBM의 한계를 극복하기 위한 새로운 패키징 공법을 고안해, 현재 검증 작업을 활발히 거치고 있다"며 "대규모 설비투자 없이 HBM 성능을 개선할 수 있기 때문에 상용화 시에는 파급 효과가 적지 않을 것"이라고 설명했다.

2026.03.03 14:29장경윤 기자

로보슨, F&B 자동화 승부수…모듈형 '프라이닉 솔루션' 출격

서비스 로봇 기업 로보슨은 2분기 자동 튀김 제어기 신제품 출시와 함께 모듈형 자동화 솔루션을 본격화한다고 3일 밝혔다. 지난해 선보인 모델을 개선해 가격 경쟁력과 설치 편의성을 높인 업그레이드 버전을 내놓고, 나아가 협동로봇을 결합한 통합 솔루션으로 F&B 자동화 시장을 공략한다. 로보슨은 지난해 제품 판매 경험을 바탕으로 현장 적용성과 개선 과제를 반영해 올해 2분기 내 단가를 낮추고 설치를 보다 간편화한 제품으로 강화해 출시할 예정이다. 단일 장비 판매를 넘어 프라이닉·협동로봇이 결합된 모듈형 솔루션을 선보인다는 게 중장기 목표다. 자동 튀김 제어기 '프라이닉'에 협동로봇을 결합해 조리 공정 전반을 자동화하는 구조를 고안하고 있다. 단품 장비가 아닌 모듈화된 패키지 형태로 제공함으로써 매장 환경에 따라 유연하게 확장 가능한 자동화 모델을 제시하겠다는 구상이다. 로보슨 주력 제품인 프라이닉은 기존 튀김기 측면이나 상단에 장착하는 자동 튀김 제어 시스템이다. 고온의 기름 앞에서 조리사가 직접 수행하던 바스켓 흔들기와 털기 작업을 자동화해 안전성과 작업 효율을 동시에 높인다. 버튼 조작만으로 최대 8개 이상의 메뉴를 저장할 수 있으며, 음성 안내 기능을 통해 조작 편의성을 높였다. '흔들기 모드'로 식재료 간 점착을 방지하고, '털기 모드'로 조리 후 유분을 제거해 일정한 품질을 유지하도록 돕는다. 로보슨은 자체 개발 제품인 프라이닉은 물론, 호시자키 제빙기 및 생맥주 디스펜서, 린나이 튀김기 등 글로벌 시장에서 검증된 전문 조리 기기들과 로봇을 유연하게 결합할 수 있다는 점을 강점으로 내세웠다. 한편 로보슨은 중국 마이크로 인텔리전스 자회사 에자일봇 로보틱스와 업무협약을 체결하고, 한국 공식 대리점으로서 기술 공급에 나선다. 고정밀 로봇 제어 기술을 확보하면서 국내 F&B 자동화에 한 단계 높은 기술적 완성도를 제시할 계획이다. 로보슨 관계자는 "우리의 모토는 언제나 고객의 성공에 있다"라며 "단순한 기기 보급을 넘어 서비스 산업 현장의 문제점을 함께 고민하고, 가장 현실적이면서도 혁신적인 대안을 제시하는 파트너가 될 것"이라고 말했다.

2026.03.03 14:09신영빈 기자

[현장] 오픈AI 손잡은 AWS, 기업용 에이전틱 AI 강화…韓 생태계 전환 뒷받침

아마존웹서비스(AWS)가 챗GPT 개발사 오픈AI와 전략적 파트너십을 맺고 기업용 에이전틱 인공지능(AI) 시장 선점에 나선다. 양사는 아마존 베드록 기반 '상태 유지 런타임 환경'을 공동 개발하고 오픈AI 프런티어를 AWS 인프라에 통합해 개발부터 운영·거버넌스까지 아우르는 차세대 AI 에이전트 플랫폼을 구축한다는 전략이다. 김기완 AWS코리아 솔루션즈 아키텍트 총괄은 3일 서울 역삼 AWS코리아 오피스에서 열린 신년 기자간담회에서 "AI는 단순한 어시스턴트를 넘어 독립적인 비즈니스 역할을 수행하는 에이전트 단계로 진화하고 있다"며 "오픈AI와 협력해 기업들이 에이전트를 보다 안전하고 확장 가능한 방식으로 개발·운영할 수 있도록 지원하겠다"고 밝혔다. 김 총괄은 올해 핵심 기술 트렌드로 에이전틱 AI 확산을 꼽았다. 생성형 AI가 개별 모델 중심의 활용에 머물렀다면 이제는 여러 에이전트가 역할을 나눠 협업하는 멀티 에이전트 구조로 발전하고 있다는 설명이다. 특히 기업 환경에선 외부 거대언어모델(LLM)뿐 아니라 내부 데이터, 실시간 정보, 각종 업무 시스템과의 연동이 필수적인 만큼 단일 모델만으로는 한계가 있다는 점을 강조했다. 이를 위해 AWS는 '아마존 베드록 에이전트코어'를 통해 기업용 에이전트의 프로덕션 배포에 필요한 런타임·메모리·권한 관리·정책·코드 인터프리터·브라우저·옵저버빌리티·평가 기능 등을 통합 제공 중이다. 에이전트가 독립적으로 의사결정을 수행하되, 일정 금액 이상 환불과 같은 고위험 업무는 사람의 승인 절차를 거치도록 하는 등 거버넌스 체계도 함께 설계하도록 지원한다. 이번 오픈AI와의 협력은 이같은 에이전틱 플랫폼을 한층 강화하는 데 초점이 맞춰졌다. 양사는 아마존 베드록을 통해 상태 유지 런타임 환경을 공동 개발할 계획으로, 이는 에이전트가 컨텍스트를 유지하고 이전 작업을 기억하며 다양한 도구와 데이터 소스를 넘나들 수 있도록 지원하는 환경이다. 특히 AWS는 오픈AI가 지원하는 엔터프라이즈급 AI 에이전트 플랫폼 프런티어의 독점 제3자 클라우드 배포 파트너로 참여해 기업이 공유 컨텍스트와 내장 거버넌스를 갖춘 AI 에이전트 팀을 구축·운영할 수 있도록 지원한다는 목표다. 양사는 AI 워크로드 확대에 대비해 컴퓨팅 인프라도 대폭 강화한다. 오픈AI는 AWS 인프라를 통해 약 2기가와트(GW) 규모의 트레이니움 AI칩 용량을 활용하게 된다. 아마존은 오픈AI에 총 500억 달러(약 73조원)를 투자할 계획이다. 이를 통해 대규모 학습과 추론 비용을 낮추고 기업 고객이 별도 인프라 구축 없이 필요한 만큼 AI 성능을 활용할 수 있는 기반을 마련한다는 구상이다. 김 총괄은 에이전틱 AI 확산이 클라우드 마이그레이션 수요와도 맞물려 있다고 진단했다. 기업이 AI를 전사적으로 도입하려면 확장성과 보안을 갖춘 클라우드 환경이 필수적이라는 설명이다. AWS는 'AWS 트랜스폼'을 통해 기존 닷넷·자바·VM웨어 환경을 AI 기반으로 현대화하고 있으며 실제 국내 고객이 마이그레이션 기간을 절반으로 단축하고 비용을 30% 이상 절감한 사례도 소개했다. 또 개발 방식 자체를 AI 중심으로 재설계하는 'AI-개발 라이프사이클(DLC)' 방법론도 제시했다. 기존 애자일·워터폴 방식이 사람 중심 프로세스였다면, AI-DLC는 AI가 계획을 수립하고 인간이 이를 검증·보완하는 구조로 전환해 요구사항 정의부터 초기 버전 서비스 구현까지의 기간을 대폭 줄이는 접근법이다. 국내 AWS 고객 중 웅진씽크빅은 해당 방법론을 적용해 기존 대비 4주가량 개발 기간을 단축한 바 있다. AWS는 한국 시장에 대한 지원도 강화한다. 특히 김 총괄은 국내 기업들이 로보틱스·디지털 트윈 등 피지컬 AI 영역에 높은 관심을 보이고 있다고 언급했다. 그는 "피지컬 AI는 온디바이스뿐 아니라 클라우드에서의 대규모 학습과 데이터 관리가 병행돼야 한다"며 "국내 스타트업과 대기업이 글로벌 수준의 AI 서비스를 구현할 수 있도록 인프라와 플랫폼 차원에서 지원을 확대하겠다"고 밝혔다. 이어 "에이전틱 AI 시대의 경쟁력은 단순히 모델 성능이 아니라 이를 안전하게 운영하고 확장할 수 있는 플랫폼 역량에서 결정된다"며 "오픈AI와의 협력을 포함해 개발·운영·거버넌스를 아우르는 통합 에이전틱 AI 환경을 제공함으로써 한국 기업들의 AI 전환을 뒷받침하겠다"고 강조했다.

2026.03.03 13:32한정호 기자

인크로스, AI 배너 제작 자동화 '리사이즈애드' 시범 실시

SK네트웍스 통합 마케팅 전문 자회사 인크로스는 생성형 AI 기술을 활용한 배너 제작 자동화 에이전트 '리사이즈애드(ResizeAD)'의 오픈 베타 테스트(OBT)를 3일부터 실시한다고 밝혔다. OBT는 31일까지 약 한 달간 진행된다. 인크로스는 OBT에 참여하는 기업 및 개인 고객에 200 크레딧 무료 제공(배너 200개 무료), 유상 크레딧 특별가 적용(건당 1500원), 90일간 재다운로드 무제한 서비스 등을 제공한다. 정식 런칭 후에는 가격이 인상될 예정이라고 회사 측은 설명했다. 리사이즈애드는 AI 전문기업 넥서스AI가 개발하고 인크로스가 국내 사업권을 보유해 운영하는 서비스다. 마케터나 디자이너가 원본 파일 하나만 업로드하면 네이버 구글 등 주요 광고 플랫폼을 비롯해 다양한 매체의 규격에 맞춰 배너 규격을 자동으로 변환하고 생성해주는 것이 핵심 기능이다. 기존 이미지 크기 변환 툴과 달리 리사이즈애드는 'AI에이전트' 개념을 도입했다. 리사이즈애드는 원본 디자인의 레이어 구조를 정밀 분석한 뒤, 규격 변경 시 발생하는 빈 공간을 생성형 AI 기술로 자연스럽게 확장하고 생성한다. 텍스트 자동 줄바꿈, CTA 버튼 최적 배치 등 세부 가이드라인도 매체별로 자동 적용돼 즉시 사용 가능한 수준의 결과물을 제공한다. 이를 통해 디자이너가 일일이 수작업으로 수정해야 했던 반복 업무를 획기적으로 줄여주며, 디자인 퀄리티도 유지할 수 있다. 회사 측은 리사이즈애드 도입 시 기존 디자인 에이전시 대비 약 80% 이상의 비용 절감이 가능하며, 제작 시간도 시간 단위에서 분 단위로 단축될 것으로 예상된다고 강조했다. 손윤정 인크로스 대표는 “리사이즈애드는 단순한 업무 효율화 도구를 넘어 마케터의 생산성을 강화하는 AI에이전트 역할을 할 것”이라며 “앞으로도 인크로스는 우수한 AI 기술 기업과의 파트너십을 통해 광고주와 대행사의 업무 편의성을 강화하고, 고객들이 창의적인 전략 수립에 집중할 수 있는 마케팅 환경을 만들어 가겠다”고 밝혔다.

2026.03.03 10:59홍지후 기자

캐논코리아, '2026 캐논 마스터즈' 8인 선정

캐논코리아가 올해 국내 사진·영상 창작자 지원 프로그램 '캐논 마스터즈'로 활약할 전문가 8명을 공개했다. 캐논 마스터즈 프로그램은 2015년부터 국내 사진·영상 분야 최고 전문가들에게 제품과 기술, 서비스를 지원하며 창의적 작품 활동을 장려해왔다. 이들은 캐논 장비를 활용해 작품을 창작하며 관련 의견을 제시한다. 올해 캐논 마스터즈로 활동할 전문가는 ▲ 사진 분야 강영호/안주영/이종렬/임재천 작가 등 4명 ▲ 영상 분야 김우형/최윤만/홍정표 촬영감독, 신우석 연출감독 등 총 8명이다. 올해 새로 합류한 김우형 촬영감독은 팩션과 멜로 등 폭넓은 장르의 작품에 참여한 바 있다. 신우석 감독은 지난 해 APEC 경주 홍보 영상으로 주목받은 '돌고래유괴단' 대표다. 임재천 작가는 캐논 카메라를 활용해 촬영한 '한국의 발견' 등 작업에 지속적으로 참가했다. 안주영 작가는 바자, 보그, 엘르 등의 매거진부터 샤넬, 디올 등 명품 패션 브랜드 캠페인을 진행한 전문 포토그래퍼다. 캐논코리아는 올해 활동할 마스터즈 8인의 작업 방식과 창작의 인사이트를 향후 온·오프라인 이벤트를 통해 일반 창작자에게도 소개할 예정이다. 박정우 캐논코리아 대표이사는 "캐논코리아는 대중문화를 선도하는 8인의 마스터즈 활동 지원 뿐만 아니라 그 결과물을 대중과 공유하며 국내 사진·영상 문화 성장을 견인해 나갈 것"이라고 밝혔다.

2026.03.03 10:46권봉석 기자

AMD, '라이젠 AI 400' 데스크톱 PC·워크스테이션으로 확대

AMD가 2일(현지시간) 지난 1월 CES 2026에서 공개한 AI PC용 프로세서 '라이젠 AI 400(고르곤 포인트)'을 데스크톱 PC와 모바일 워크스테이션으로 확장한다고 밝혔다. 라이젠 AI 400 시리즈는 기존 제품(라이젠 AI 300) 아키텍처 기반으로 메모리 속도와 작동 클록, GPU와 신경망처리장치(NPU) 등 전반적인 성능을 개선했다. 윈도11 코파일럿+ 기능이 요구하는 40 TOPS를 넘는 최대 60 TOPS급 NPU로 로컬 AI 연산 수요가 증가하는 기업 환경을 겨냥했다. 마이클 노드퀴스트 AMD 클라이언트 제품 마케팅 담당 부사장은 사전브리핑에서 "데스크톱 PC용 라이젠 AI 400 프로세서는 데스크톱 수준의 성능과 모바일 수준의 효율성을 동시에 제공하는 것이 핵심”이라고 밝혔다. 라이젠 AI 400, 60 TOPS NPU 앞세워 데스크톱으로 확장 데스크톱 PC용 라이젠 AI 400 프로세서는 소켓 AM5 기반 기존 메인보드와 호환성을 갖췄고 코어 수와 작동 클록, 캐시 메모리와 GPU/NPU 성능을 달리해 총 12종이 공급된다. 인텔 코어 울트라 시리즈3(팬서레이크) 등 경쟁 제품 대비 NPU 성능을 60 TOPS까지 끌어올려 기업 환경에서 AI 기반 업무 자동화와 보안 기능을 클라우드 도움 없이 로컬에서 처리할 수 있도록 설계됐다. 최상위 제품인 라이젠 AI 7 450G는 젠5 아키텍처 기반 8코어 CPU와 라데온 860M 8코어 GPU, 50 TOPS NPU로 구성된다. 라이젠 AI 7 450GE 등 모델명에 'E'가 붙은 제품은 소모 전력을 35W로 낮춰 엣지나 미니 PC 등 소형 폼팩터를 겨냥했다. 데스크톱 PC용 라이젠 AI 400 프로세서는 레노버와 델테크놀로지스 등 PC 제조사에 먼저 공급 예정이다. 올 2분기부터 탑재 제품이 출시 예정이며 일반 시장 공급 여부는 미정이다. 모바일 워크스테이션용 프로세서도 추가 공개 AMD는 엔지니어링, 콘텐츠 제작, 데이터 분석 등 전문 업무에 적합한 모바일 워크스테이션용 프로세서인 라이젠 AI 프로 400 시리즈도 함께 공개했다. 마이클 노드퀴스트 부사장은 “AI PC가 일반 소비자용 노트북에서 모바일 워크스테이션으로 확장하고 있다"며 "더 큰 화면과 향상된 성능을 통해 전문 작업 환경에서도 AI 기능을 활용할 수 있게 될 것"이라고 밝혔다. AMD는 이 플랫폼이 CPU·GPU·NPU를 활용하는 하이브리드 AI 처리 구조를 갖춰 설계, 제조, 미디어 등 다양한 산업 분야에서 생산성을 높일 수 있다고 강조했다. 주요 독립 소프트웨어 벤더(ISV) 인증을 통해 전문 애플리케이션과의 호환성도 강화했다. 라이젠 AI 프로 400 시리즈를 탑재한 모바일 워크스테이션은 올 2분기부터 델테크놀로지스, HP, 레노버 등 주요 제조사를 통해 출시 예정이다. 기업용 원격 관리 기술 'AMD 프로'도 지원 라이젠 AI 프로 400 시리즈는 AMD의 원격 관리 기술 'AMD 프로'를 지원한다. 데스크톱 PC용 라이젠 AI 400 프로세서도 AMD 프로를 지원하는 제품이 추가 공급 예정이다. 마이클 노드퀴스트 부사장은 "AMD 프로 기술은 단순한 부가 기능이 아니라 기업 고객이 AI PC를 안전하게 도입할 수 있도록 설계된 플랫폼"이라고 설명했다. 그는 이어 "AI PC 도입이 확산되더라도 기존 관리 체계와 호환되는 것이 중요하다”며, 원격 관리와 대규모 배포를 지원하는 표준화된 관리 기능을 통해 IT 부서의 부담을 줄일 수 있다"고 설명했다.

2026.03.03 10:37권봉석 기자

체크포인트 "기업, 매주 평균 약 2천건 사이버공격 받아"

글로벌 사이버 보안 전문기업으로 나스닥 상장사인 체크포인트 소프트웨어 테크놀로지스(Check Point Software Technologies)가 글로벌 사이버 공격 동향에 대한 14번째 연례 분석 보고서인 '2026년 사이버 보안 보고서'를 발표했다고 3일 밝혔다. 보고서에 따르면 기업들은 지난해 매주 평균 약 2천(정확히 1968건)건의 사이버 공격을 경험했다. 2023년 이후 70% 증가한 수치다. 이는 공격자들이 자동화 및 AI를 활용해 더 민첩하게 행동하고, 규모를 쉽게 확장하며, 여러 공격 표면에서 동시에 활동하고 있기 때문이다. AI는 업계에서 가장 빠른 보안 변화 중 하나로 기업들이 공격 발생, 확산 및 차단 방식에 대한 기존 가정을 재평가하게 만들고 있다. 과거에는 리소스가 풍부한 공격자들만 사용 가능했었던 기법들이 이제는 널리 보급돼 모든 규모의 조직을 대상으로 더욱 개인화되고, 조직적이며, 확장 가능한 공격을 가능하게 하고 있다. 체크포인트의 로템 핀켈스타인(Lotem Finkelstein) 리서치 부문 부사장은 “AI는 사이버 공격의 물량 뿐 아니라 공격 방식 자체를 변화시키고 있다”며 “공격자들은 수동적인 작업에서 점점 더 높은 수준의 자동화로 이동하고 있으며, 자율적인 기술의 초기 징후도 나타내고 있다. 이러한 변화에 대응하기 위해서는 AI 시대에 맞는 보안 기반을 재검토하고, 위협이 확산되기 전에 차단해야 한다"고 짚었다. 아래는 이번 보고서의 주요 내용이다. 보고서는 인간의 기만(Human Deception)과 기계 속도의 자동화를 결합한 통합형 다채널 공격으로의 뚜렷한 변화를 강조했다. -AI 기반 공격 자율성 증가: AI는 공격 워크플로우 전반에 걸쳐 점점 더 많이 통합돼 정찰, 소셜 엔지니어링 및 운영 의사 결정을 가속화한다. 3개월 동안 기업의 89%는 위험한 AI 프롬프트를 경험했으며, 약 41개 프롬프트 중 1개는 고위험으로 분류돼 AI가 일상적인 비즈니스 워크플로에 통합됨에 따라 새로운 위험으로 드러나고 있다. -랜섬웨어 공격 지속적인 세분화와 규모 확장: 랜섬웨어 생태계는 더 작고 전문화된 그룹으로 분산돼 랜섬웨어 피해자 수가 지난해 대비 53% 증가했으며, 서비스형 랜섬웨어(RaaS) 그룹도 50% 늘어났다. 이제 AI는 타겟팅, 협상 및 운영 효율성을 가속화하는 데에도 사용되고 있다. -소셜 엔지니어링 공격은 이메일을 넘어 확장 중: 공격자들은 이메일, 웹, 전화, 협업 플랫폼 등 다양한 채널을 통해 공격을 조직적으로 수행하고 있다. 특히, 클릭픽스(ClickFix, 사용자가 무심코 클릭하거나 복사·붙여넣기 같은 행동을 하도록 유도해 스스로 악성코드를 실행하게 만드는 사회공학 기반 공격 기법) 관련 공격은 500% 급증했는데, 사용자 조작을 위해 사기성 기술 프롬프트를 사용했다. 또한, 전화 기반 사칭 공격은 더욱 체계적인 기업 침입 시도로 진화하고 있다. AI가 브라우저, SaaS 플랫폼, 협업 도구에 통합됨에 따라 디지털 작업 공간은 공격자들이 악용할 수 있는 중요한 신뢰 영역으로 부상하고 있다. -엣지 및 인프라 취약점으로 인한 노출 증가: 모니터링되지 않는 엣지 디바이스, VPN 어플라이언스, IoT 시스템이 정상적인 네트워크 트래픽에 섞여 운영 중계 지점으로 사용되는 사례가 증가하고 있다. -AI 인프라에서 새로운 위험 등장: 체크포인트 자회사인 라케라(Lakera)의 분석에 따르면, 검토 대상인 1만 개의 MCP(Model Context Protocol) 서버 중 40%에서 보안 취약점이 발견됐다. 이는 AI 시스템, 모델, 에이전트가 기업 환경에 내장됨에 따라 노출 위험이 증가하고 있다는 것을 보여준다. ■ 보안 리더들을 위한 권장 사항 이번 체크포인트의 '2026년 사이버 보안 리포트'는 AI 기반 위협에 대한 방어가 단순히 더 빠르게 대응하는 것이 아니라 보안 설계 및 시행 방식을 재고해야 한다는 것을 보여준다. 체크포인트는 이번 보고서에서 관찰된 동향을 바탕으로 조직에 다음과 같은 사항을 권장했다. -AI 시대에 맞는 보안 기반 재검토: AI 기반 공격은 머신 속도 위협에 맞춰 설계되지 않은 환경 전반에서 속도, 자동화 및 신뢰를 악용한다. 조직은 자율적이고, 조직적인 공격을 조기에 차단하기 위해 네트워크, 엔드포인트, 클라우드, 이메일 및 SASE 전반에 걸친 보안 제어를 재평가해야 한다. -안전한 AI 도입 활성화: AI가 일상적인 워크플로에 통합됨에 따라 AI 사용을 차단하면 위험이 증가할 수 있다. 보안 팀은 고위험 프롬프트, 데이터 유출 및 오용으로 인한 노출을 줄이기 위해 승인된 AI 사용과 비승인 AI 사용 모두에 대해 거버넌스와 가시성을 적용해야 한다. -디지털 워크스페이스 보호: 소셜 엔지니어링 공격은 이제 이메일, 브라우저, 협업 툴, SaaS 애플리케이션 및 음성 채널까지 확산됐다. 보안 전략은 인간의 신뢰와 AI 기반 자동화가 교차하는 워크스페이스를 보호해야만 한다. -엣지 및 인프라 강화: 모니터링되지 않는 엣지 디바이스, VPN 어플라이언스 및 IoT 시스템은 더 은밀한 침입 경로로 악용되고 있다. 이러한 자산을 적극적으로 파악하고, 보호하면 숨겨진 취약점과 공격자의 지속성을 줄일 수 있다. -예방 우선 접근 방식 도입: 공격이 머신 속도로 실행되는 상황에서 위협이 확산(Lateral Movement)되기 전에 차단하려면 예방 중심의 보안이 필수적이며, 그렇지 않은 경우 데이터 손실이나 금전적 갈취가 발생할 수 있다. -하이브리드 환경 전반에 걸친 가시성 통합: 온프레미스, 클라우드 및 엣지 환경 전반에 걸쳐 일관된 가시성과 보안 강화 조치를 통해 사각지대를 줄이고, 복잡성을 낮추며, 복원력을 향상시킬 수 있다. 한편 체크포인트는 전 세계 10만개 이상의 조직을 보호하기 위해 AI 기반 사이버 보안 솔루션을 활용하는 디지털 신뢰 기반의 선도적인 기업이다. 이 회사의 예방 우선 접근 방식은 인피니티 플랫폼(Infinity Platform)과 오픈 가든 생태계(Open Garden Ecosystem)를 통해 업계 최고의 보안 효율성을 제공하면서 동시에 리스크를 줄여 준다.

2026.03.03 09:52방은주 기자

[문화엔진] AI미학: 대체 가능하다는 믿음

'문화엔진'은 우리 문화의 가치 재창출을 위해 칼럼니스트의 비평적 시각과 기자의 보도적 시각을 입체적으로 구성한 시리즈입니다. 이 연재는 이창근 예술경영학박사를 비롯한 현장 전문가와 지디넷코리아 문화산업팀 기자가 함께 집필하며, 독자에게 문화정책·콘텐츠산업·예술현장에 대한 새 소식을 전하고 인사이트를 제시합니다. 이를 통해 K-컬처가 미래산업의 엔진으로 재조명되기를 기대합니다. [편집자주] 새로운 패러다임은 언제나 새로운 전제를 요구한다. 최근 우리 사회에서는 AI를 축으로 무엇이 대체 가능하며, 무엇이 대체 불가능한지에 대한 인식 판단이 화두가 되고 있다. 이러한 유일성에 대한 집착은 주로 시장 중심적인 욕망과 더불어 작동해 왔다. 하지만 명료한 사실은 모든 개인은 이미 유일하고, 예술작품 역시 그 자체로 유일하다는 것이다. 희소성을 설계하는 일. 즉, 희소하지 못할 것이라는 인식을 지속적으로 심어내는 일은 두려움의 줄기를 타고 종(種)의 존재가치에 대한 신념을 흔들고 있다. 본질에 대한 혼란 위에는 표상만이 남은 인간의 행동양식과 예술작품 위에 씐 위상으로 구성된 가상의 시류가 생성된다. 이는 중앙집권적 특질을 지닌 유일무이한 레퍼런스들로, 가상과 실제를 오가며 신인류의 일상에 자리하고 있다. 이 과정에서 생성되는 묘한 두려움을 정면으로 자극하는 문장이 있다. “When AI gets super intelligent, it might just replace us.” - 제프리 힌튼(Geoffrey Hinton) 인식 심기 'AI의 아버지'라고 불리는 제프리 힌튼(Geoffrey Hinton)은 초지능(ASI) 시대에 대해 위와 같이 우려했다. 여기에서 'replace'라는 키워드는 평소보다 강한 울림을 준다. 우리는 종종 사랑이나 우정의 깊이감을 표현할 때 그 마음을 표현하기 위하여 “그 무엇으로도 대체할 수 없다”라는 말을 사용하곤 했다. 근래에 더욱 빈번히 들리는 “인간이 대체될 수 있다”라는 문장은 마음의 출처보다는 인간을 하나의 기능 단위로 인식해 버리는 시류를 반영한다. 이러한 흐름은 예술 영역에서도 분명히 드러난다. 2020~2021년 반짝 전성기를 맞았던 NFT(Non-Fungible Token)는 그 이름 자체에 '대체 불가능하다'라는 출사표를 내세운 바 있다. 하지만 블록체인 위의 디지털 증표는 복제 가능한 이미지에 인위적 유일성을 부여하는 장치였다. 당시 작품을 NFT화하는 것에 대해 단색화 거장 박서보는 “내 그림 자체가 이미 대체 불가능한 것이다”라는 입장을 표했다. 이 반응은 굉장히 단순하면서 본질적이다. 작품의 유일성은 기술이 부여하기 이전에 작가가 작품을 완성한 시점으로부터 비롯된다는 전제를 환기하기 때문이다. 결론적으로 이러한 존재론적 해프닝은 현재로서 가상과 실제에 대한 친밀도와 관련한 지분을 저울질해보는 테스트 차원의 시도에 그쳤다. AI-인간-예술의 일상적 관계 NFT가 블록체인의 속성을 통해 유일성을 확보하려 했다면, AI는 그가 탑재한 '지성에 기반한 제작 능력'을 통해 새로운 위상을 형성하고 있다. 그 능력은 디자인, 미술, 음악 등 예술뿐 아니라 산업 분야에서 창·제작의 도구로서 긍정적인 의미로 광범위하게 사용되기도 한다. 예컨대 AI스토리텔러 오한별 작가의 '미니 리퍼블릭(Mini Republic)'과 같은 작업은 인간의 기획과 AI의 생성 능력이 결합한 사례다. 이때 AI는 창작을 대체하는 존재라기보다, 서사의 구조를 확장하는 협력자에 가깝다. 반면, AI라는 기술 자체가 예술의 주제를 대변해 버리는 것은 완전히 다른 영역이다. AI가 예술의 매체를 넘어 예술 자체의 정당성을 대체하려 할 때, 우리는 무엇을 얻고 무엇을 잃게 되는가? 나아가, 예술이 지닌 뚜렷한 고유성은 무엇인가? 예술의 기원을 거슬러 올라가면 '미(美)에 대한 인식'이라는 감각의 문제에 도달한다. 그러나 동시대의 예술에 대한 접근 양상은 순수한 쾌/불쾌에 대한 감각보다는 기술적 효용성에, 미감적 판단보다는 이성적 판단에 더욱 관심을 두는 듯 하다. 정의하기 어려운 것들에 대한 불편함에 머무르기에는 불리한 시대다. 예술에 있어서 주관적 보편성을 획득하는 것은 더욱 도전적인 영역이 되었다. 하지만 그것을 감각하는 인간의 주관적 감정은 유효하며 여전히 고유하다. 우리는 지능의 계산적 영역과 미학의 경험적 영역을 충분히 응시해보며, 인간-예술-AI가 상호 간 대체하기보다 보완적 관계로 공존하는 방향을 가늠해 볼 수 있다. 인간은 분명히 경험하고 머문다. 설명하기 어려운 감정을 겪으며, 불확실함을 견딘다. 결론에 도달하기 어려움을 알기에 섣부른 결론을 다량으로 쏟아내어 버리는 현 시대에, 보다 현실적인 대안으로 늘 과정위에 있어왔던 유일한 한 사람의 일상을 떠올려본다. 글 = 최지원 현대미술가, 『AI와 미디어아트』(커뮤니케이션북스, 2025) 저자 필자 최지원 작가 최지원은 아날로그와 디지털을 가로지르는 현장 예술가다. 서울대학교 미술대학에서 동양화를 전공하고 동 대학원에서 미술학석사를 받았다. 회화·드로잉 창작을 비롯해 융합형 미디어콘텐츠 제작을 병행한다. 현재 청주대학교 예술대학 객원교수로 활동하고 있다. 지디넷코리아 [문화엔진] 시리즈 필진으로 합류해 현대미술·AI·예술철학 비평을 연재한다.

2026.03.03 09:12최지원 컬럼니스트

텔레픽스, 우주 개척자 펠로십 2명 선발 실전 투입해보니…경쟁률 75대 1

우주 AI 종합 솔루션 기업 텔레픽스(대표 조성익)가 지난해 12월 모집한 인재 육성 프로그램 '우주 개척자 펠로십(Cosmo Pioneers Fellowship)' 1기 프로그램을 마무리하고 조만간 2기 모집에 들어간다고 3일 밝혔다. 1기 프로그램은 지난 1월 5일부터 2월 27일까지 약 두 달간 진행됐다. 2명 모집에 150명이 몰려 75대 1의 높은 경쟁률을 기록했다. 이번 펠로십은 기존 학력·경력 중심 채용 방식에서 벗어나 지원자 잠재력과 실제 문제 해결 역량을 중심으로 선발하는 '역량 기반' 모델을 적용한 것이 특징이다. 실전 과제 수행을 중심으로 평가를 진행했다. 선발 인력은 SW(소프트웨어) 엔지니어 직군에서 부산소프트웨어마이스터고 3학년 박동현 군, AI(인공지능) 엔지니어 직군에서 서울대학교 컴퓨터공학과 2학년 윤성현 씨가 각각 선발됐다. 텔레픽스는 기존 채용과 동일한 수준의 기준을 적용해 기술 역량과 성장 가능성을 종합적으로 검증했다고 설명했다. 선발된 참가자들은 곧바로 실전 프로젝트에 투입했다. AI 분야에서는 위성 AI 기술 고도화를 위한 최신 연구 과제를 참가자와 공동으로 수행한 결과, 실전 연구 경험을 축적하고 기술 내재화 성과를 동시에 거뒀다. 두 달간의 집중 연구를 통해 주요 해외학회 발표가 가능한 수준의 성과를 도출했다. 현재 관련 논문은 작성 마무리 단계다. SW 분야 참가자는 위성 데이터 처리 및 서비스 개발 과정 등 현업 프로젝트에 직접 참여해 실제 서비스 수준의 기능 구현과 코드 개선을 수행하며 실질적인 개발 역량을 입증했다. AI 엔지니어로 참여한 윤성현 씨는 “학교에서 배운 지식을 실제 산업 환경에 적용해보고 싶어 지원했다”며 “위성영상 활용 딥러닝 성능을 개선하는 과정에서 방향을 설정하는 데 어려움이 있었지만 멘토의 피드백을 바탕으로 목표를 구체화하고 기존 방법론을 체계적으로 실험하며 연구 문제를 정의하고 검증하는 역량을 기를 수 있었다”고 말했다. SW 엔지니어로 참여한 박동현 군은 “실제 서비스 코드와 시스템을 다루며 산업에 대한 이해가 개발자에게 얼마나 중요한지 체감했다”며 “이번 경험을 계기로 우주·항공 분야에 대한 이해를 갖춘 개발자로 성장하고 싶다는 방향성을 갖게 됐다”고 말했다. 조성익 텔레픽스 대표는 “뉴스페이스 시대에는 복잡한 문제를 끝까지 해결하는 능력이 무엇보다 중요하다. 실제로 이번 1기에서 역량 중심의 선발에 대한 가능성을 확인할 수 있었다”며 “텔레픽스는 위성 데이터 분석부터 시스템 구현까지 AI 기반으로 통합하는 우주 AI 기업으로서 다양한 배경의 인재들과 함께 산업의 패러다임을 바꿔 나가겠다”고 말했다. 텔레픽스는 이번 1기 성과를 토대로 2기 펠로십 모집을 추진중이다. 오는 여름에는 인공위성 시스템 개발 등 위성 하드웨어 분야까지 선발 범위를 넓힐 예정이다.

2026.03.03 09:10박희범 기자

팝업스튜디오, AI 개발 프레임워크 '비킷' 무료 출시

팝업스튜디오(대표 김태형)가 AI 네이티브 개발 프레임워크 '비킷'을 구글 제미나이 CLI, 오픈AI Codex 등 글로벌 주요 바이브 코딩 서비스에 공식 출시했다고 3일 밝혔다. 팝업스튜디오는 바이브 코딩 플랫폼인 '클로드 코드' 버전을 지난달 출시한 바 있다. 이번 비킷의 주요 플랫폼 출시는 단순한 도구 공급을 넘어, 개발 지식이 없는 비개발자도 자신이 원하는 서비스로 즉각 창업에 도전할 수 있는 '바이브 코딩' 생태계 형성에 기여한다는 데 큰 의미가 있다. 비킷은 바이브 코딩 입문자부터 숙련된 프로그래머까지 PDCA(Plan-Do-Check-Act) 방법론을 기반으로 탄탄한 서비스를 만들 수 있도록 돕는 AI 자동화 프레임워크다. 가장 큰 장점은 바이브 코딩 입문자에게도 전문 개발자의 설계 및 구현 흐름을 AI가 아키텍트 수준으로 가이드한다는 점이다. 예를 들어 비킷의 'gap-detector' 스킬은 최초 기획서와 최종 완성 서비스를 비교해 완성도가 90점 미만일 경우, 제품 완성도를 끌어올리기 위한 재작업을 추천한다. 또 바이브 코딩 시 소모되는 토큰을 최적화하기 위해 스스로 판단하여 적절한 AI 모델을 선택·사용하는 기능도 갖췄다. 팝업스튜디오의 시뮬레이션에 따르면, 비킷 도입 시 기존 10명 규모의 팀이 수행하던 프로젝트를 단 1명의 '바이버(바이브 코딩으로 제품을 만드는 사람)'가 수행할 수 있다. 이는 연간 10억원 이상의 인건비 및 커뮤니케이션 비용 절감 효과를 가져오며, 최소 기능 제품 개발 기간을 기존 3~6개월에서 최대 1주로 단축시킨다. 팝업스튜디오는 개인 빌더를 위한 서비스에 이어, 조만간 기업용 솔루션인 '비킷 엔터프라이즈'를 출시할 예정이다. 이는 AI를 중심으로 개발 프로세스를 전면 개편하려는 기업들을 타깃으로 하며, 현재 파트너 기업들과 실증 사업(PoC)을 활발히 진행 중이다. 김태형 팝업스튜디오 대표는 "bkit의 주요 플랫폼 출시는 코딩을 몰라도 아이디어만 있다면 누구나 시스템을 설계하고 구현할 수 있는 시대가 왔음을 의미한다"며 "스마트폰 시대의 카카오톡처럼, 바이브 코딩 시대에는 팝업스튜디오가 창업과 개발의 새로운 표준이 될 것"이라고 밝혔다.

2026.03.03 08:38백봉삼 기자

[보안리더] 최원혁 누리랩 대표 "안티 피싱&스미싱 국내 최고 자부"

"누구나 약 2만 원만 있으면 도메인을 구매할 수 있는데 한 달간 정상사이트인 것처럼 위장하고 있다 피해자가 정보를 입력하면 정보를 탈취하고 사이트를 폐쇄합니다. 이런 피싱 사이트와 메일이 인공지능(AI) 발달로 더욱 정교해지고 있습니다." 최원혁 누리랩 대표는 최근 지디넷코리아와 인터뷰에서 "정상 사이트와 피싱 사이트를 육안으로 구분하는 게 쉽지 않다. 직접 사이트에 접속해보기 전까지는 미리 알 수 있는 방법도 많지 않다"면서 이 같이 밝혔다. 누리랩은 AI 기반 안티 피싱·스미싱 전문 기업이다. AI 기술을 통해 인터넷 주소(URL)가 정상인지 여부를 판별해주고, 지속적으로 생겨나는 악성 URL을 탐지하는 '애스크URL(askURL)' 서비스를 주력 비즈니스로 하고 있다. "피싱 공격, 한 달간 정상 사이트인 척하다 '돌변'…개인정보 탈취 위협" 최 대표는 피싱 사이트 정교함을 경고했다. "예를 들면 쿠팡의 경우 'coupang.com'이라는 사이트가 있다고 했을 때, 'coupang1.com'이라는 도메인을 공격자가 구매한다. 이후 한 달간 'coupang1.com'에 접속해도 정상적인 쿠팡 사이트와 연결되도록 리디렉션(브라우저가 웹 서버에 어떤 URL을 요청했을 때 다른 URL로 연결되는 것)해 놓는다"며 "한 달여간 정상적인 사이트로 연결되니 구글 등에 쿠팡을 검색해도 'coupang1.com' 사이트가 표시되기 시작하고, 피싱 사이트로 전환해야겠다고 마음먹은 순간부터 정상 사이트가 아닌 정상 쿠팡 화면인 것처럼 꾸며놓은 'coupang1.com' 사이트에 연결되게 설정해놓는다"고 설명했다. 이어 "구글에 쿠팡을 검색해 접속하던 사용자들은 'coupang1.com' 사이트에 접속해도 정상적인 쿠팡 사이트로 인지해 계정정보를 입력하고 로그인을 시도한다"며 "그 순간 계정정보는 외부 서버로 탈취되고 개인정보 유출이 일어나는 것이다"고 짚었다. 최 대표는 이메일에 실행 파일을 첨부하고 첨부파일을 클릭하면 해킹이 일어나는 수법은 이메일 보안 솔루션의 고도화로 점차 사라졌으나, 이같은 피싱 사이트로 유도해 계정을 탈취하는 사례는 늘고 있다고 진단했다. 아울러 피싱 메일의 경우 실행 파일을 직접 첨부하기 보다 정상적인 메일의 정상적인 첨부파일을 첨부하고, 본문 내에서 피싱 사이트로 연결되는 URL을 첨부하는 식으로 변화하고 있다고 강조했다. 이 경우 이메일 보안 솔루션에서 탐지가 어렵기 때문이다. 최 대표는 "이런 피싱 수법은 AI로 더욱 고도화했다"며 "홈페이지 정보만 주면 AI가 진짜 홈페이와 똑같이 만들어준다"고 밝혔다. 그는 "예를 들면 마이크로소프트, 애플, DHL 등 글로벌 기업 홈페이지 로그인 페이지를 AI를 통해 만들어내고 있다"고 경고하면서 "다만 기존에 있던 사이트를 모방한 것이기 때문에 완벽하지는 않다. 정상 사이트에서 클릭하면 연결되는 수많은 URL를 모두 똑같이 복제하는 것은 불가능하기 때문에, 공격자들은 메인 화면과 로그인 화면만 흉내내는 것이 전부"라고 피싱 사이트를 구별하는 법도 소개했다. "askURL에 입력하면 해당 URL이 피싱인지 알려줘...분석 결과도 AI가 표시" 피싱 사이트나 의심스러운 URL을 확실하게 확인할 수 있는 방법이 있다. 누리랩의 'askURL'이다. 최 대표는 이날 인터뷰에서 askURL의 관리자 화면을 직접 보여주며 핵심 기능을 설명했다. askURL은 'askURL.io'에 접속해 의심스러운 URL을 입력하기만 하면 알아서 해당 URL이 피싱인지, 사기인지, 성인·불법도박 사이트인지 확인해 결과를 알려준다. 탐지율은 99.9%에 달한다. 이날 최 대표는 누리랩의 메인 홈페이지 URL을 입력한 결과를 보여줬다. 최 대표는 "URL이 정상인지 아닌지 여부만 판별해주는 것이 아니라 도메인 정보를 모두 수집해 결과를 표시하며, AI가 해당 사이트가 정상인지 아닌지 판단한 근거에 대해 상세히 설명해준다"며 "심지어 피싱 사이트의 경우 잠깐 생겼다가 사이트가 폐쇄·재생성되는 경우가 많은데, 사이트가 닫히기 전 화면을 캡처해 표시해준다. 이후 비슷한 사이트가 다시 생겨난다고 하더라도 이전 피싱 사이트에서 사용된 사진이나 도메인 정보가 일치하면 askURL에서 자동으로 피싱으로 분류하는 것도 가능하다"고 설명했다. 누리랩이 하루 평균 수집하는 URL만 70만건에 달한다. 한국인터넷진흥원(KISA)에서 제공하고 있는 악성 URL을 탐지하는 보호나라 서비스에도 누리랩의 엔진이 탑재돼 있다. 그는 "나이스평가정보에서 제공하는 URL 해킹안심 서비스도 누리랩 기술이 기반"이라고 덧붙였다. "안심하고 URL 들어갈 수 있는 세상 만들겠다…'안전한.한국' 곧 출시" 피싱 사이트에 계정정보나 개인정보를 입력하면 공격자는 외부 서버로 해당 정보를 빼돌린 뒤 다크웹이나 텔레그램 등 채널을 통해 정보를 사고판다. 혹은 이런 정보를 바탕으로 또 다른 피싱 범죄에 악용하기도 한다. 그만큼 URL 하나만 잘못 접근하더라도 피해는 이중, 삼중으로 불어날 수 있다. 최 대표는 우리 국민이 안심하고 URL을 사용할 수 있도록, 또 안전한 URL임을 어느 누구나 한 눈에 확인할 수 있도록 하는 '안전한 한국' 서비스를 곧 출시할 예정이다. 최 대표는 "어느 사이트인지 한 눈에 확인하기 어려울 정도로 긴 URL을 압축시켜주는 서비스가 있다. 대표적으로 'bit.ly/~~' 등으로 시작하는 URL을 받아본 적이 있을 텐데, 이는 피싱 URL이 아니라 긴 URL을 '비틀리(bitly)'라는 업체를 통해 짧게 압축한 URL이다"라며 "그러나 이 URL 압축 서비스는 피싱 사이트도 압축할 수 있다는 한계가 있다. 이에 많은 공격자들이 피싱 사이트를 'bit.ly/~~' 등의 형태로 URL을 압축해 제공한다. 이러면 해당 사이트가 피싱 사이트인지 정상 사이트인지 들어가보기 전까지 확인할 수 없다는 문제가 발생한다"고 말했다. 그는 "누리랩도 비틀리와 같은 URL 압축 서비스를 조만간 선보일 예정이다. 단 askURL의 데이터베이스를 활용해 피싱사이트의 경우 압축·변환하지 않도록 필터링하는 기능을 탑재한다"며 "바로 '안전한.한국' 서비스"라고 소개했다. '안전한.한국'은 누리랩이 선보이는 서비스이자, URL이다. '안전한.한국' 사이트에 압축하고 싶은 URL을 입력하면 '안전한.한국/○○○' 등의 형식으로 URL을 변환해준다. 이에 URL에 포함된 '안전한.한국'만 확인해도 누리랩이 검증한 안전한 URL임을 한 눈에 확인할 수 있도록 했다. 실제 기자가 '안전한.한국' 서비스에 지디넷코리아 홈페이지 URL을 입력하자, 'www.zdnet.co.kr'이라는 URL이 '안전한.한국/틀림없이.비싼.신고' URL로 변환됐다. '안전한.한국/틀림없이.비싼.신고'를 주소창에 다시 입력하자 지디넷코리아 홈페이지로 연결됐다. 최 대표는 "아직 완성된 서비스는 아니기 때문에 조만간 서비스를 완성해 선보일 계획이다. 한국어로 URL 압축하는 것 뿐 아니라 영어 URL로 안전하게 압축하는 방법도 있다"고 소개하며 "단순한 URL 압축이 아니라 피싱 사이트까지 필터링되기 때문에 안전한 인터넷 환경 조성에 이바지할 수 있을 거라고 생각한다"고 밝혔다. 누리랩은 LG유플러스, 나이스평가정보 등에 askURL 서비스를 공급하고 있다. B2B로 계약을 맺은 기업에는 별도 서버를 열어 사내에서 이용하는 URL 탐색 서비스를 별도로 관리한다. 공개적으로 URL 데이터를 수집하지 않으며, 고객사만의 askURL 환경을 구성해주는 것이 핵심이다. "포렌식에서 안티피싱까지…세계 1위 기업 도약하겠다" 최 대표는 1997년 경일대 컴퓨터공학과를 졸업한 이듬해 백신을 중심으로 한 사이버보안 전문 기업 하우리를 공동 창업, CTO로 일했다. 10년간 하우리에서 재직하다 2008년 퇴사 후 지난 2011년 누리랩을 개인사업자로 창업했다. 누리랩은 창업 초기 대검찰청으로부터 포렌식 과제를 받아 수행하는 기업이었다. 이후 과제가 확대되며 2015년부터 현재 법인의 형태를 갖춘 누리랩이 탄생했다. 최 대표는 "2017년부터 대검찰청에서 주는 과제가 개발 업무가 아닌 유지보수에 치중되기 시작했다. 이에 직원들 인건비도 나오지 않는 수준까지 도달했고, 자체 제품에 대한 니즈가 생기기 시작했다"며 "2018년부터 안티 랜섬웨어, 백신 분야에 다시 집중하기 시작했다. 백신 프로그램을 메일에 적용하다 보니 자연스럽게 URL과 문서에 첨부되는 악성코드들을 많이 접하게 됐다"고 밝혔다. 그는 "이런 가운데 2022년께 생성형 AI가 등장하면서 수작업으로 URL을 수집·분석하던 것에서 나아가 자동화할 수 있는 수준까지 발전하게 됐다"며 "이것이 askURL의 초기 모델이 됐다"고 설명했다. askURL은 초기 모델서부터 큰 인기를 끌었다. 여러 기업에서 러브콜을 보냈고, 업그레이드를 거듭해서 현재 askURL까지 만들어냈다. 누리랩은 지난해 65억 원의 매출을 올렸다. 올해 목표는 85억 원이다. 최 대표는 "충분히 달성 가능한 목표치"라면서 "2027년에는 100억 원을 기록할 것"이라고 내다봤다. 3년 후에는 상장할 계획도 있다. 이미 지난해 연말 결산 때 IPO(기업 공개)가 다음 목표라고 제시한 상태다. 최 대표는 누리랩이 온라인상의 모든 사기, 피싱 행위를 잡아낼 수 있는 플랫폼으로 성장하겠다는 청사진과 함께 글로벌 1위 안티 피싱 전문 기업으로 도약하겠다는 포부도 밝혔다. "전 세계를 타깃으로 사업을 확장할 예정"이라면서 "현재 알제리에 askURL을 공급하고 있으며, 카타르와도 도입 논의가 가시화되고 있다. 다음 타깃은 일본이다. 일본에서 이미 피싱협회에 가입하는 등 성과를 내고 있다. 일본 피싱 협회는 일본에 지사를 두고 있어야 가입할 수 있는데, 누리랩은 askURL의 우수한 성능을 인정받아 협회 내 가입 투표를 만장일치로 통과해 지사 없이도 피싱 협회에 가입한 유일한 기업이다"라고 설명했다. 이어 최 대표는 "일본이 끝이 아니다. EDR(엔드포인트 탐지 및 대응)에서 세계 1위를 꼽으라 하면 크라우드스트라이크를 지목하듯, 안티 피싱 분야에서 세계 1위를 꼽으라 하면 누리랩이 되게 할 것"이라면서 "압도적인 AI 학습량으로 세계 무대에서 실력을 입증해 내겠다"고 강조했다. 최원혁 누리랩 대표는..... ◆ 학력 2015.02 : 동국대학교 정보통신공학과 컴퓨터공학 박사 수료 2001.02 : 동국대학교 국제정보대학원 정보보호학 석사 졸업 1997.02 : 경일대학교 컴퓨터공학 학사 졸업 ◆ 경력 2015.03 - 현 재 : (주)누리랩 대표이사/연구소장 (법인전환) 2011.05 - 2015.03 : 누리랩 대표 (개인 사업자) 2011.11 - 2014.03 : (주)잉카인터넷 보안기술 CSO 이사 2009.09 - 2010.10 : (주)터보테크 난독화 솔루션 개발 팀장 1998.05 - 2008.08 : (주)하우리 CTO/연구소장 (창업멤버, 백신 개발 총괄) ◆ 이력 2025.05 - 현 재 : 민관합동조사단 위원 (과학시술정보통신부장관 임명) 2025.05 - 현 재 : 제6기 사이버보안전문단 (한국인터넷진흥원 임명) 2022.04 - 현 재 : 경찰청 사이버안보 해킹조직 연구회 전문위원 2021.03 - 현 재 : 사이버작전사령부 자문위원 2020.09 - 현 재 : 이화여자대학교 엘텍공과대학 소프트웨어학부 사이버보안전공 겸임교수 2022.01 - 2022.12 : 중소벤처기업진흥공단 정책모니터링단 위원 2021.09 - 2024.08 : 경희사이버대학교 IT·디자인융합학부 AI사이버보안전공 겸임교수 2021.03 - 2023.08 : 고려대학교 인공지능사이버보안학과 겸임교수 2019.09 - 2020.08 : 국민대학교 산학협력 멘토위원 2016.09 - 2017.08 : 김포대학교 사이버보안과 외래교수 2014.03 - 2016.02 : 사이버보안전문단 (미래창조과학부 임명) 2009.03 - 2013.02 : 동국대학교 국제정보대학원 정보보호학과 사이버포렌식전공 교수 2004.10 - 2014.03 : 방통위 민간합동조사단 운영위원 1995.10 - 현 재 : 공개용 백신 (키콤백신) 개발

2026.03.02 21:38김기찬 기자

플랫폼 규제, 통상 이슈로 번지나…"법·경제·IT 정책 아우른 정교한 설계 필요"

온라인 플랫폼 규제를 둘러싼 법·경제·통상 쟁점이 한미 통상 이슈로까지 확산되는 가운데, 학계가 규제 설계의 정교화 필요성을 공식 제기했다. 경쟁법·산업조직·정보통신정책 분야 3개 학회는 최근 서울 한국 프레스센터에서 공동학술대회를 열고 자사우대 규제, 글로벌 빅테크 차별 논란, 입법의 집행 가능성 등을 집중 점검하며 “플랫폼 고유 특성을 반영한 실효적 규율 체계가 필요하다”고 강조했다. “플랫폼 특성 반영한 규제 설계 부족” 조성익 KDI 산업시장정책연구부장은 '플랫폼의 특성과 규율제도 개선방향에 대한 논의' 발표에서, 플랫폼의 고유 특성과 기존 법 집행 간의 접점을 구체화하는 작업이 충분치 않았다고 지적했다. 그는 “플랫폼만의 특성이 기존 법 집행에 어떤 문제를 초래하는지 구체화하고, 이를 토대로 규제 제도를 설계하는 논의는 상대적으로 부족했다”고 밝혔다. 조 부장은 전통적 규제를 플랫폼에 적용할 경우 인접 영역에서의 효율성 증진 효과를 함께 검토해야 하며, 플랫폼의 거래조건 설정 능력을 실질적으로 반영하는 방식으로 제도를 정비할 필요가 있다고 강조했다. 이효영 국립외교원 교수는 '한미 디지털 규제 이슈와 국제통상법적 쟁점' 발표에서 한국의 플랫폼 규제 논의가 미국 빅테크 기업에 대한 차별 이슈로 비화하며 한미 통상 현안으로 부각되고 있다고 진단했다. 그는 국제통상법적 관점에서 쟁점과 시사점을 면밀히 검토할 필요성을 제기했다. 정재훈 이화여대 법학전문대학원 교수는 '플랫폼 규제의 쟁점과 과제' 발표에서 현재 경쟁법 집행 수준의 적정성과 보완 필요성을 짚었다. 그는 “시장과 산업에 미치는 영향이 크고 비교법적으로 편차가 있는 제도를 개편할 경우, 제도 설계 당시 예상과 다른 결과가 나타날 가능성도 유의해야 한다”고 강조했다. 자사우대·통상마찰·입법 실효성 쟁점 부상 김성환 아주대 경제학과 교수는 자사우대 규제와 관련해 차별 행위의 결과와 효과에 초점을 맞춰야 한다고 밝혔다. 아울러 플랫폼 결합심사에서 봉쇄 효과를 추정할 때 플랫폼의 본질적 특성을 고려해야 하며, 규제 대상 사전 지정 시 동태적 경쟁 구조와 글로벌·로컬 플랫폼 간 차이도 반영해야 한다고 강조했다. 이주형 서울시립대 법학전문대학원 교수는 미국 연방대법원의 관세 무효 판결과 Section 301 조사 가능성 등을 언급하며, 온라인 플랫폼 규제가 한미 간 주요 통상 이슈로 부상할 수 있다고 진단했다. 다만 미국 내에서도 반독점 집행의 정치화에 대한 비판과 보호주의적 접근을 경계하는 목소리가 존재하고, 일본 등도 경쟁법적 규제를 진행 중인 만큼 국제협력 차원의 공동 접근 가능성도 제시했다. 박미영 국회입법조사처 입법조사관은 다수의 플랫폼 규제 법안이 발의되며 핵심 쟁점을 포착해 왔으나, 집행 가능성과 효과 평가 체계가 충분히 법안에 내장돼 있는지는 의문이라고 평가했다. 플랫폼 특성과 시장 영향에 대한 분석 부족이 반복적으로 지적되는 만큼, 입법 설계의 고도화가 필요하다는 지적이다. 송상민 법무법인 선운 고문은 플랫폼 시장의 역동성을 감안해 동태적 변화 가능성을 적극 검토해야 한다고 밝혔다. 다만 네트워크 효과가 강해 진입장벽이 높은 경우에는 단순 위법행위 금지명령을 넘어 경쟁 복원을 위한 시정조치 방안도 고민할 필요가 있다고 제언했다. 심재한 한국경쟁법학회장은 “이번 학술대회가 혁신 동력을 유지하면서도 공정한 경쟁 질서를 확립하기 위한 최적의 지향점을 모색하는 계기가 되길 기대한다”며 “3학회가 앞으로도 시의성 있는 주제에 대해 학제 간 논의를 이어가겠다”고 밝혔다.

2026.03.02 20:38안희정 기자

유파이스페이스, MWC 바르셀로나 2026서 AI 최적화 1.6T 오픈 네트워킹 포트폴리오 공개

바르셀로나, 스페인 2026년 3월 2일 /PRNewswire/ -- 오픈 네트워킹 솔루션 선도 기업 유파이스페이스(UfiSpace)가 MWC 바르셀로나 2026(MWC Barcelona 2026, Hall 5, Stand 5A61)에서 AI에 최적화된 1.6T 네트워킹 포트폴리오를 공개했다. 이번 포트폴리오에는 대규모 AI 배포 환경에서 요구되는 확장성, 성능, 보안 수요에 대응하기 위해 S9331-64HO AI 패브릭 스위치와 S9630-32HO 보안 집선 플랫폼가 포함됐다. AI 인프라가 하이퍼스케일 아키텍처로 전환됨에 따라, 독점 네트워크 설계가 확장을 제약하고 비용을 증가시키는 요인으로 자주 지목돼 왔다. 유파이스페이스의 오픈 네트워킹 모델은 AI 워크로드 수요에 맞춰 용량을 확장할 수 있도록 지원하여 사업자가 아키텍처 유연성을 유지하면서도 투자 효율을 최적화할 수 있도록 돕는다. 고성능 AI 패브릭 및 보안 전송 S9331-64HO는 AI 백엔드 패브릭 요구사항을 충족하도록 설계됐다. Broadcom® Tomahawk 6 칩셋을 기반으로 구축된 이 시스템은 102.4Tbps라는 스위칭 용량을 제공해 고밀도 GPU 클러스터를 지원한다. 적응형 라우팅과 혼잡 제어를 포함한 고급 트래픽 관리 기능은 작업 완료 시간(JCT)을 단축하고, 컴퓨팅 효율을 개선하며, AI 학습 주기를 가속화하도록 설계됐다. S9630-32HO는 AI 패브릭을 전송 계층까지 확장한다. Broadcom® Qumran 4D 칩셋을 기반으로 하는 이 플랫폼은 선속 MACsec 및 IPsec 암호화를 제공해 성능 저하 없이 안전한 집선을 구현한다. OpenZR+ 광학 모듈과 함께 배치할 경우 전송 거리가 최대 400킬로미터에 달해 분산형 AI 인프라 전반에서 AI 데이터센터 상호연결(DCI) 및 백본 현대화 요구사항을 충족한다. 지속가능성과 1.6T 로드맵 1.6T 네트워킹 플랫폼은 전례 없는 대역폭과 성능을 제공하는 동시에, 상당한 열 및 전력 관리 과제를 수반한다. 유파이스페이스는 MWC 바르셀로나에서 고밀도 네트워크 환경의 제약을 해결하기 위한 AI 대응형 네트워킹 솔루션을 선보이고 있다. 또한 오는 3월 17일부터 19일까지 미국 로스앤젤레스에서 열리는 OFC 2026에서 차세대 1.6T 광 네트워킹 인터페이스의 열 요구사항을 지원하고 전력사용효율(PUE)을 개선하기 위해 설계된 첨단 액체 냉각 솔루션도 시연할 예정이다. 발표 끝 유파이스페이스 소개유파이스페이스는 통신사업자, 클라우드 서비스 제공업체, 하이퍼스케일 데이터센터를 대상으로 오픈 네트워킹 솔루션을 공급하는 선도 기업이다. 상용 실리콘과 디스어그리게이티드(disaggregated) 아키텍처를 활용해 고객이 더욱 민첩하고 확장 가능하며 비용 효율적인 차세대 네트워크를 구축할 수 있도록 지원한다. 소셜 미디어 채널 팔로우: LinkedIn, Facebook, YouTube

2026.03.02 18:10글로벌뉴스

슈퍼마이크로, AI-RAN 및 소버린 AI 솔루션 지원 확대…고성능•고효율•확장형 AI 인프라 제공

최신 CPU 및 GPU를 탑재한 최첨단 인프라 솔루션으로 AI 네이티브 통신 네트워크 및 안전하고 확장 가능한 AI 팩토리 구현 노키아, SK텔레콤, 텔레노어 등 글로벌 파트너와 협력해 MWC 바르셀로나에서 실제 적용 사례 시연 캘리포니아 산호세 및 스페인 바르셀로나, 2026년 3월 2일 /PRNewswire/ -- AI/ML, HPC, 클라우드, 스토리지, 5G/엣지를 위한 토털 IT 솔루션 제공업체인 슈퍼마이크로(Supermicro, Inc., 나스닥: SMCI)가 소버린 AI(Sovereign AI) 플랫폼과 인공지능 무선 접속망(Artificial Intelligence-Radio Access Network, AI-RAN)을 구동하는 인프라 솔루션에 대한 지원을 확대한다고 발표했다. 슈퍼마이크로와 생태계 파트너들은 세계 최대 통신 산업 행사인 모바일 월드 콩그레스 바르셀로나(Mobile World Congress Barcelona(MWC))에서 성능, 효율성, 확장성을 결합한 최신 실제 적용 사례를 선보인다. AI-RAN and Sovereign AI solutions 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 최고경영자(CEO)는 "RAN에 AI를 대규모로 구현하려면 통신 네트워크에 최적화된 인프라가 필요하다"면서 "통신 사업자들이 네트워크 전반에 지능을 내재화하고 소버린 AI 전략을 발전시킴에 따라, 슈퍼마이크로의 유연한 Data Center Building Block Solutions®(DCBBS)와 심층적인 생태계 협력은 데이터 주권과 장기적 확장성을 보장하는 고성능, 에너지 효율 솔루션의 신속한 구축을 가능하게 한다"고 밝혔다. 슈퍼마이크로의 통신(Telco) 제품에 대한 자세한 정보는 다음 웹사이트에서 확인할 수 있다: https://www.supermicro.com/en/solutions/ai/telco 통신 사업자들이 더 높은 효율성과 자동화를 추구함에 따라 통신 네트워크에서 AI 도입이 빠르게 확산되고 있다. AI-RAN은 주파수, 에너지, 성능을 최적화하기 위해 무선 접속망(RAN)에 지능을 내장하는 동시에 사업자와 최종 사용자를 위한 AI 솔루션을 구동하는 분산 네트워크를 구축한다. AI-RAN은 통신 네트워크의 고유한 요구사항을 충족하면서 확장 가능하고 비용 효율적인 방식으로 설계된 인프라 솔루션을 필요로 한다. 슈퍼마이크로는 NVIDIA Aerial RAN Computer(ARC) 설계에 부합하는 폭넓은 AI-RAN 시스템을 확장하고 있으며, NVIDIA Blackwell 아키텍처를 비롯해 향후 출시될 최신 NVIDIA ARC-Pro를 지원하는 제품을 선보일 예정이다. ARS-111L-FR은 분산형 RAN 워크로드를 위해 설계된 1U 숏뎁스(short-depth) 시스템이다. 이 시스템은 NVIDIA Grace™ CPU C1을 탑재했으며, 고속 네트워킹을 위한 NVIDIA ConnectX Ethernet® 어댑터와 호환된다. 또한 서버는 NVIDIA L4와 같은 AI 워크로드용 로우 프로파일 GPU 카드를 최대 2개까지 장착할 수 있는 공간을 갖추고 있다. ARS-221GL-NR은 최대 2개의 이중 폭(double-width) NVIDIA GPU를 지원하는 고성능 2U Grace Superchip 시스템이다. 슈퍼마이크로는 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU를 지원하도록 시스템을 개선해 통신 네트워크 전반에서 까다로운 AI 워크로드를 실행할 수 있도록 했다. ARS-111GL-NHR은 통합 GPU와 CPU-GPU 간 900GB/s NVLink® 상호 연결을 갖춘 1U GH200 Grace Hopper™ Superchip 시스템이다. 초고속 칩 간 대역폭은 NVIDIA BlueField® 데이터 처리 장치(data processing units, DPU) 및 ConnectX Ethernet 어댑터와 결합되어, NVIDIA Grace Hopper를 연구 및 네트워크 엣지에서의 AI 추론을 위한 강력하고 유연한 시스템으로 만든다. 소버린 AI는 기업이 자체적으로 통제하는 인프라, 데이터 환경, 규제 준수 프레임워크 내에서 인공지능을 개발, 배포 및 관리할 수 있는 역량을 의미한다. 소버린 AI 플랫폼에 대한 수요 증가는 통신 사업자들에게 안전한 자국 내 AI 인프라를 서비스 형태로 제공하고 디지털 경제에서 새로운 수익 창출원을 확보할 수 있는 전략적 기회를 제공한다. 대규모 소버린 AI를 구현하려면 강력하고 확장 가능하며 에너지 효율적인 인프라가 필요하다. 슈퍼마이크로의 혁신적인 DCBBS는 조직이 AI 데이터 센터를 신속하게 구축하고 확장할 수 있도록 설계됐다. 모듈형 아키텍처는 확장을 간소화하고, 고급 열 및 전력 설계는 운영 효율성을 향상시킨다. 슈퍼마이크로는 MWC에서 업계 선도 기업들과 협력해 AI 가속을 촉진하는 실제 구축 사례와 활용 사례를 시연한다. 북유럽 지역의 선도적인 통신 사업자인 텔레노어(Telenor)는 노르웨이 최초의 소버린 AI 클라우드 플랫폼인 텔레노어 AI 팩토리(Telenor AI Factory)를 출시했다. 기업, 스타트업, 공공 부문 조직을 위해 설계된 이 플랫폼은 엔비디아 GPU 가속 인프라를 노르웨이 내에서 전적으로 제공해 데이터가 국경을 벗어나지 않도록 보장한다. 텔레노어 AI 팩토리는 보안, 확장성, 지속 가능성을 결합함으로써 AI 도입 장벽을 낮추고 시장 출시 시간을 단축하며 민감 데이터 규제를 지원한다. 이를 통해 텔레노어는 단순한 통신 사업자가 아닌 소버린 AI 서비스의 전략적인 제공업체로 자리매김하고 있다. 한국의 대표 통신 사업자인 SK텔레콤(SK Telecom)은 대규모 AI 워크로드 및 국가 경쟁력 강화를 위해 설계된 소버린 AI 인프라 플랫폼 해인 클러스터(Haein Cluster)를 구축했다. 이 클러스터는 NVIDIA Blackwell GPU를 탑재한 1000대 이상의 슈퍼마이크로 AI 서버로 구성되어 국내 최고 수준의 AI GPU 클러스터 중 하나를 형성한다. SK텔레콤의 가산 AI 데이터 센터에 호스팅된 이 클러스터는 훈련, 추론, 모델 개발을 위한 서비스형 GPU(GPU-as-a-Service)를 제공한다. 해인은 국내에서 안전하게 기업 및 국가 AI 프로젝트를 지원하며 서비스 기회를 확대하고 있다. 글로벌 통신, 네트워크 인프라 및 기술 혁신 기업인 노키아(Nokia)는 슈퍼마이크로 하드웨어를 기반으로 한 여러 솔루션을 선보이고 있다. AnyRAN은 모바일 통신 사업자 및 기업이 모든 인프라에 클라우드 네이티브 소프트웨어를 배포할 수 있도록 지원해 무선 접속망(radio access networks, RAN) 구축에 유연성을 제공하도록 설계된 노키아의 소프트웨어 제품군이다. 슈퍼마이크로의 1U Grace Hopper 시스템 ARS-111GL-NHR은 AnyRAN 구동이 검증됐다. 또한 노키아는 Supermicro AS-8125GS-TNMR2 서버 기반의 하이브리드 AI/ML 훈련 및 추론용 검증 인프라 설계를 소개한다. 베트남 5G 네트워크 인프라 솔루션 상위 기업인 비엣텔 하이테크(Viettel High Tech)는 개방형 무선 접속망(Open RAN) 표준 기반의 대규모 5G 네트워크를 구축했다. 비엣텔 하이테크는 개방형 분산 인프라 채택을 통해 신기술 및 애플리케이션 구현 속도를 높이고 상당한 비용 절감을 달성했다. 비엣텔 하이테크 인프라에 사용된 시스템 중 하나는 슈퍼마이크로의 1U 숏뎁스 엣지 서버로, 5G 및 고도화된 무선 네트워크에 최적의 유연성과 성능 및 혁신성을 제공한다. AI-RAN 및 소버린 AI 네트워크를 위한 슈퍼마이크로 솔루션에 대한 자세한 내용은 2026년 3월 2일부터 5일까지 바르셀로나에서 열리는 MWC 2026의 2D35 부스에서 확인할 수 있다. 슈퍼 마이크로 컴퓨터 소개 슈퍼마이크로(나스닥: SMCI)는 애플리케이션에 최적화된 토탈 IT 솔루션 분야의 글로벌 선도 기업이다. 미국 캘리포니아주 산호세에 설립되어 운영 중이며, 엔터프라이즈, 클라우드, AI, 5G 통신/엣지 IT 인프라를 위한 혁신적인 솔루션을 시장에 신속히 제공하는 데 주력하고 있다. 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 포함한 토탈 IT 솔루션을 제공한다. 슈퍼마이크로의 마더보드, 전원 및 섀시 설계 전문 지식은 당사의 개발 및 생산을 더욱 강화하여 전 세계 고객을 위해 클라우드에서 에지에 이르는 차세대 혁신을 가능하게 한다. 당사의 제품은 규모와 효율성을 위해 글로벌 운영을 활용하고 총소유비용(TCO)을 절감하고 환경 영향을 최소화하도록(그린 컴퓨팅) 최적화되어 자체적으로(미국, 아시아 및 네덜란드에서) 설계 및 제조된다. 수상 경력을 보유한 Server Building Block Solutions® 포트폴리오를 통해 고객은 다양한 폼팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(공조, 자연 공냉 또는 액체 냉각)을 지원하는 유연하고 재사용 가능한 빌딩 블록을 기반으로 특정 워크로드와 애플리케이션에 맞춰 시스템을 최적화할 수 있다. Supermicro, Server Building Block Solutions 및 We Keep IT Green은 Super Micro Computer, Inc.의 상표 및/또는 등록 상표다. 기타 모든 브랜드, 명칭 및 상표는 해당 소유자의 자산이다. 사진 - https://mma.prnasia.com/media2/2922501/Supermicro_MWC_AI_RAN_Image.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2026.03.02 17:10글로벌뉴스

[박희범의 과학카페] 출연연 휴머노이드 데이터 공개 '천리길'…그래도 한걸음씩 가야

과학기술정보통신부가 휴머노이드 개발을 가속화하기 위한 전초전을 시작했다. 출연연구기관을 모아 휴머노이드 전략 협의체를 발족한 것. 목표는 서로가 맞물려 있는 데이터 등 오픈 플랫폼 구조 확보와 기술 개발 속도 등 2개다. 휴머노이드 개발은 미국 제네시스 미션에 대응한 K-문샷 핵심 미션이다. 단순한 기능적 로봇을 뛰어넘는 피지컬 AI의 결정판으로 주목받고 있다. 지난 달 말 대전서 열린 '출연연 휴머노이드 전략 협의체' 1차회의는 로봇과 관련한 기관 7개가 모였다. 출연연에서는 한국기계연구원(KIMM)을 비롯한 한국과학기술연구원(KIST), 한국전자통신연구원(ETRI), 한국생산기술연구원(KITECH), 한국철도기술연구원(KRRI)과 대학에서 KAIST와 GIST가 참여했다. 오프라인만 과기정통부를 포함해 총 28명이 모여 각자 가진 역량을 어떻게 모아 공개할 것인지 머리를 맞댔다. 이날 행사에는 줌기능을 이용한 온라인 참가 기관도 5개나 됐다. GIST는 버스 안에서 접속해 회의에 참가했다. 그만큼 절박하고, 절실하게 다가왔다. 이날 논의 테이블 위에 올라온 사업은 KIMM이 지난해부터 주도중인 총 2,194억 원 규모의 휴머노이드 엔지니어 및 하우스키퍼 개발과 KIST가 최근 공개한 한국형 차세대 휴머노이드를 지향하는 카펙스(KAPEX)와 이의 고도화다. 고도화에만 2026~2030년 485억 원 정도 필요하다. 데이터-바디-지능 역량 한 곳에 모을 방안 강구 이날 협의체 회의 골자는 휴머노이드 개발에서 핵심인 데이터와 바디, 지능 역량을 어떻게 한 곳에 모아 활용할 것인가였다. 이를 모아 궁극적으로 우리나라 기업들이 데이터든 뭐든 쉽게 활용할 오픈 플랫폼을 만들겠다는 것이다. 과기정통부 입장은 "데이터를 공개하는 방안을 찾아달라. 필요한건 다 지원한다"로 집약됐다. 회의 서두는 운경숙 기초원천연구정책관이 풀었다. "협의체는 브레인과 바디, 데이터 등 3대 핵심 분과로 운영한다. 모두가 원팀이 돼야 한다. 과기정통부도 여러 부서가 참여하고 2차관실에서도 협력한다. 나아가 부처간 협력도 할 것이다. 산업부는 제조현장 확산을 담당할 것이고, 우리 부는 데이터 결집 등을 맡아 연계한다. 산업체 협력은 말할 것도 없다. 중요한 부분이 각자 연구개발을 진행하는 등 최대한 존중할 것이지만, 데이터는 하나로 결집되야 한다. 데이터 활용을 어덯게 하느냐에 따라 이 협의체 성패가 좌우된다. 기관이 보유한 데이터를 최대한 개방하고 공유한다는 점을 특별히 유념해 달라. 데이터 공개를 위한 추가 예산 확보 등은 얘기해달라. 4월 1일부터 예산작업하니 적극 제안해달라." 윤 정책관은 협의체를 만든 취지에 대해선 이렇게 설명했다. "휴머노이드도 미국이나 중국이 글로벌 주도권 다툼을 시작했다. 우리도 총력을 다해야 한다. 좋은 결과를 내려면, 각자 분산형 연구로는 모자란 부분이 생긴다. 그건 모두가 동의하는 부분이다. 분산 연구에 따른 중복 투자나 연구단절을 방지하고 역량을 결집하기 위해 협의체를 만들었다." "분산연구 단점 해소 차원서라도 협업 절실하지만…" 그러나 이날 논의에 참가한 출연연구기관 입장은 대체로 어떻게 할 것인지를 논의하기 보다는 "이런 저런 점이 어렵다"는 쪽에 맞춰졌다. 어려운 이유에 대해 ▲기술 개발 공정 상 데이터를 당장 확보하는 것의 어려움 ▲데이터 포맷이나 정의, 표준 규약 등 서로 안맞거나 다른 부분에 대한 정리의 필요성 ▲데이터가 아무리 작은 작업도 테라급인데 이를 위한 컴퓨팅 파워 선결과제 ▲GPU 확보 ▲데이터 수집도 중요하지만, 검수 인력이 전체의 30~40% 필요한데, 이에 대한 대비 및 확보여부 ▲참여기관, 특히 기업 입장서는 데이터가 자산이고 경쟁력이라는 점 ▲데이터를 사고 판다는 측면에서 과제의 재정비 필요성 ▲데이터를 모아도 하드웨어가 다르면 소용 없기 때문에 일정기간 과도기 필요 등이 제시됐다. 또 ▲독자 플랫폼 만들자는 것은 말이 안된다 ▲시뮬레이터를 만들어 튜닝하며 협업환경부터 시도 ▲데이터를 마구 뿌리기보다 가이드라인을 정비하고, 수집-정제-가공 샘플 케이스 만들어 피드백부터 하자 ▲개방형 생태계 당장 만드는 것 쉽지 않다. 먼저 챌린지 태스크 디자인을 해보자 ▲하드웨어는 휴머노이드 개념도 없다 ▲이기종 하드웨어에 대한 데이터 활용 전략 수립 필요성▲자존심이 뭐 중요하냐, 남들 것 가져다 쓸 수있는것 쓰고 모자란 걸 채우자 등등 다양한 의견이 개진됐다. 이날 3시 30분부터 진행된 회의 대부분은 데이터 공개에 모아졌다. 가능하면 올해 내 데이터를 공개할 기반을 마련해 달라는 것이 과기정통부 입장이었다. "이렇게 하자, 그게 어렵다면 최소한의 공개 시스템이라도 만들어 시범적으로라도 해보자"는 설득적 입장을 주로 폈다. 논의는 예정시간보다 25분 초과했다. 원팀 논의가 생각보다 어렵고, 할 일도 엄청 많아 보였다. 그런데, KIST와 KIMM은 이미 여러 기관과 조인해 협업 연구를 진행 중이다. 애초부터 합쳐 개발했으면 모를까, 이들 2개 역량을 합친다고 효과가 나올까. 과기정통부는 KIMM과 KIST이 양산하는 데이터 프로토콜을 맞춰 기업에 공개하라는 주문이 최종 목표다. 국가차원서 휴머노이드 연구개발 판 들여다봐야 휴머노이드 개발에서 나오는 데이터를 서로 공유하고, 원팀이 되어 역량을 결집하자는, 명제는 단순하다. 그런데, 이 문제를 풀기 위해서는 부총리급 직위와 역량이 필요해 보인다. 과기정통부나 출연연구기관 뿐만이 아니라 우리나라 로봇 개발 전체의 판을 놓고 들여다봐야 하기 때문이다. KIMM이 주도하는 사업만도 ETRI와 KITECH, KAIST,GIST,서울대, DGIST, 성균관대, DLA,UCLA,뉴욕주립대, MIT, CWU, 에이로봇, 라이온로보틱스, LG전자, 등등 22개 기관으로 구성돼 있다. KIST는 KAIST와 연세대, 고려대, 엔비디아, KITECH, 위로보틱스, DGIST, LG전자, LG이노텍, LG에너지솔류션, 라이온로보틱스 등을 구상 중이다. 이미 판이 벌어졌다. 새로 짜면 모를까, 이미 벌어진 판을 새로 수습하기는 더 어렵다. 배경훈 부총리겸 과학기술정보통신부 장관이 올해 초 업무보고에서 휴머노이드 개발 속도를 강조한 바 있어, 협의체 가동이속도를 낼 것으로는 보인다. 그러나 한편으로는 걱정도 된다. 그동안 정부가 매년 몇 천 억원씩 들여 추진해온 인공지능 학습용 데이터셋 구축사업 성과를 잘 알기 때문이다.

2026.03.02 15:09박희범 기자

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

아르테미스 2호 실렸던 국내 위성 6만8천km서 "미약신호"

"잠이 안 온다"…주주들 고성 이어진 한화솔루션 유증 설명회

[디지털자산법 표류④] 길어지는 산업 불확실성에 스타트업∙벤처 ‘울상’

고유가에 KB국민·신한카드 지원사격 나섰다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.