• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'GPT-4 성능'통합검색 결과 입니다. (39건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

정부 "AI기본법, 위험 대비 제도일 뿐…과도 규제 아냐"

"고영향·고성능 인공지능(AI) 개념은 향후 위험에 대비하기 위한 제도입니다. 현재 기준에서 실제 규제 대상인 AI는 사실상 없습니다." 과학기술정보통신부는 지난 20일 서울 광화문에서 출입기자 대상으로 진행한 'AI기본법 시행 대비 설명회'에서 이같이 밝혔다. 정부는 오는 22일 세계 첫 AI기본법을 시행한다. 최소 1년간 유예 기간을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정에서 겪는 혼란을 줄이기 위해 기업들에 상담과 컨설팅 중심 지원 체계를 가동한다. 이날 발표자로 나선 김경만 과기정통부 AI정책실장은 AI 기본법이 규제를 위한 법이 아니라 AI 산업 진흥을 기본 방향으로 설계된 법률이라는 점을 재차 강조했다. 그는 "AI 기본법 전체 조항 중 약 80% 이상이 AI 산업 진흥을 위한 내용으로 구성됐다"고 근거를 제시했다. 김 실장은 AI기본법 핵심 규제 대상으로 꼽히는 고영향·고성능 AI에 대해 현재 기준에선 적용 대상이 없다는 점도 짚었다. 과도한 규제가 현실화할 것이라는 업계 우려를 선제적으로 위한 조치다. 김 실장은 "고영향 AI는 에너지·원자력·교통 등 고위험 영역에서 중대한 위험 업무에 활용돼야 한다"며 "사람 개입 없이 전자동으로 작동하는 경우에만 해당한다"고 밝혔다. 이어 "AI기본법에서 이 모든 조건이 성립돼야 고영향 AI라 정의할 수 있다"고 덧붙였다. 정부는 현재 기준에서 고영향 AI에 해당할 가능성 있는 사례로 자율주행 레벨 4 이상 시스템을 언급했다. 그는 "채용 추천이나 대출 심사 보조처럼 사람이 최종 판단하는 구조는 규제 대상에서 제외"라고 강조했다. 김 실장은 고성능 AI에 적용되는 안전성 확보 의무 또한 현실적 규제 대상이 없는 상태라고 설명했다. 향후 고성능 AI 여부는 누적 연산량과 기술 수준 등 여러 조건을 종합해 판단할 방침이다. 그는 "현재 국내외 통틀어 해당 기준을 충족하는 AI는 없다"고 선그었다. 그러면서 "고성능 AI 안전성 의무는 현 시점 기술을 규제하기보다는 향후 초고성능 AI 등장에 대비한 사전적 장치"라고 설명했다. "AI 워터마크 의무는 사업자만...최소 구분 장치" 정부는 AI 기본법 규제 조항인 투명성 의무 적용 범위도 제시했다. 이 의무는 AI 서비스나 제품을 이용자에게 제공하는 사업자에게만 적용된다. AI 생성 결과물을 이용하는 개인이나 일반 이용자는 규제 대상이 아니다. 김 실장은 "AI 결과물이 서비스 내부에서 제공되는 경우에는 이용자가 AI 서비스를 사용하고 있다는 사실만 알리면 된다"며 "외부로 반출되는 경우 일반 생성물은 메타데이터 등 비가시적 워터마크 방식이 허용된다"고 설명했다. 정부는 딥페이크 생성물처럼 실제와 구별이 어려운 경우에만 사람이 인식할 수 있는 표시가 필요하다고 밝혔다. 김 실장은 "AI 투명성 의무는 유통 단계에서 최소한 구분 장치를 두기 위한 취지"라고 덧붙였다. 그는 "AI 기술 발전 속도가 매우 빠른 만큼 법을 고정된 규제로 운영하기보다는 시행 과정에서 지속적으로 점검하고 보완하는 방향으로 운용할 계획"이라며 "이를 위해 산업계와 학계, 시민사회, 국회가 참여하는 열린 논의 구조를 마련하겠다"고 강조했다.

2026.01.21 12:48김미정

HPE, 리테일 특화 네트워킹·서버 포트폴리오 확장…AI 네이티브 지원

HPE가 엣지 연결성과 인공지능(AI) 기반 운영을 결합한 솔루션을 앞세워 리테일 업계 IT 인프라 안정성과 효율 향상에 나선다. HPE는 고객 운영 환경 전반에서 연결성·보안·인사이트·성능 향상을 지원하는 리테일 특화 포트폴리오를 확장한다고 15일 밝혔다. 이번 발표는 백오피스와 물류창고부터 매장 전면, 커브사이드 픽업까지 리테일 전 영역에서 거래·데이터·쇼핑 경험을 안정적으로 관리하도록 지원하는 데 초점을 맞췄다. 리테일 운영 핵심 요구사항으로 꼽히는 복원력 있는 연결성과 보안성을 강화하고 AI 네이티브 기반 인사이트와 보증 기능을 결합해 현장 운영 신뢰성을 높이겠다는 전략이다. HPE는 최근 세계 최대 유통 박람회 'NRF 2026'에서 브랜치 엣지 구간의 HPE 아루바 네트워킹 CX 스위칭과 미스트 AI옵스 기반 셀프 드라이빙 네트워크, 코어 영역 최신 HPE 논스톱 솔루션을 결합한 리테일 솔루션을 선보였다. 이를 통해 매장 내 운영과 고객 경험을 안정적으로 뒷받침하기 위한 성능과 신뢰성을 제공한다는 설명이다. 코어 인프라 측면에서는 거래 연속성이 특히 중요한 환경을 위해 설계된 HPE 논스톱 컴퓨트 NS9 X5 및 NS5 X5 솔루션을 제시했다. 해당 솔루션은 수요가 몰리는 시간대에도 거래를 중단 없이 유지하고 데이터를 안정적으로 제공하도록 지원해 결제 처리, 재고 관리 등 백엔드 핵심 애플리케이션의 가용성을 높이는 데 초점을 맞췄다. 엣지 영역에서는 HPE 아루바 네트워킹 CX 6000 스위치 시리즈에 새로운 8포트 모델을 추가했다. 컴팩트한 크기와 완전 무소음 설계를 적용해 계산대나 천장 틈새 공간 등 제한된 공간에서도 구축이 가능하다는 점을 내세웠다. POS 단말과 IoT 디바이스, 직원용 시스템을 안전하게 연결할 수 있도록 8포트 PoE 및 논-PoE 모델을 포함했으며 기존 대비 향상된 PoE 용량으로 무선 액세스 포인트·카메라·센서 등 리테일 현장 디바이스를 지원한다. 또 네트워크 인프라를 재구성하지 않고도 디지털 사이니지, 스마트 체크아웃, 엣지 분석 등 신규 서비스를 매장 내에 도입할 수 있도록 구성했다. 고급 텔레메트리와 IoT 장치 탐색·상태 점검, 전체 시스템 모니터링 기능을 통해 셀프 드라이빙 운영을 지원하고 연결 끊김을 줄이며 에너지 사용에 대한 인사이트도 제공한다는 설명이다. 운영 가시성과 인사이트 기능도 강화했다. HPE는 미스트 AI옵스 기반 리테일 인사이트 활용 범위를 확대하기 위해 마비스 가상 네트워크 어시스턴트를 HPE 주니퍼 네트워킹 프리미엄 애널리틱스와 통합했다. 이를 통해 위치 인텔리전스와 고객 참여도·체류 분석 등 네트워크 성능 데이터를 마비스 자연어 인터페이스에서 활용할 수 있게 됐다. 사후 대응 중심의 문제 해결 방식에서 사전 예방적 의사결정으로 전환하도록 돕는다는 목표다. 사용자 경험 보증 분야에서는 HPE 아루바 네트워킹 센트럴의 일부인 HPE 아루바 네트워킹 UXI가 조기 경보 시스템 역할을 수행한다고 설명했다. 와이파이 7을 지원하는 UXI 센서는 업그레이드나 네트워크 변경으로 인한 문제를 사용자에게 영향을 미치기 전에 식별해 매출 보호에 기여할 수 있다는 점을 강조했다. HPE 논스톱 컴퓨트는 리테일 분야의 디지털·AI 전환 수요 증가에 맞춰 성능과 확장성, 데이터 보호 기능을 강화했다. 다세대 클러스터링을 통해 최대 4천 개 노드까지 선형적·분산형 확장을 지원하며 내부 벤치마크 기준으로 NS8 X4 대비 NS9 X5 성능 용량을 최대 15% 높였다고 밝혔다. 투명 데이터 암호화(TDE) 기능을 통해 민감한 고객 데이터 보안을 강화하고 데이터 프라이버시 및 규제 요건 대응에도 초점을 맞췄다. HPE는 논스톱 컴퓨트와 아루바 네트워킹 CX 스위칭 솔루션을 HPE 그린레이크 클라우드 플랫폼을 통해 서비스 형태로 제공해 리테일러가 구독 기반 모델로 IT 투자를 유연하게 조정할 수 있도록 지원한다. 이와 함께 엣지부터 코어까지 통합 데이터 패브릭을 구축해 고객 참여도와 운영 효율성을 동시에 강화하는 기반을 마련한다는 전략도 제시했다. HPE 논스톱 컴퓨트 솔루션과 HPE 아루바 네트워킹 CX 6000 스위치 시리즈는 현재 HPE 및 전 세계 공식 파트너를 통해 제공되고 있다. HPE 수자이 하지엘라 캠퍼스·브랜치 부문 총괄 부사장은 "복원력을 갖춘 엣지 연결성, 셀프 드라이빙 AI 네이티브 운영, 내결함성 컴퓨트를 결합했다"며 "이를 통해 리테일러가 지금과 향후 쇼핑 수요를 충족하는 데 필요한 인사이트, 자동화, 보증을 제공함으로써 리테일 인프라의 기준을 한 단계 끌어올리고 있다"고 강조했다. 이어 "대규모 환경에서도 연속적인 운영과 일관된 성능을 구현해 모든 거래가 중요하고 모든 경험이 가치 있는 차세대 리테일 시대에 신뢰를 구축할 수 있도록 지원할 것"이라고 덧붙였다.

2026.01.15 17:40한정호

지미션, KISA 지능형 CCTV 인증 획득…공공안전 기술력 입증

지미션이 실시간으로 이상행동을 감지하는 CCTV 기술력을 입증했다. 지미션은 한국인터넷진흥원(KISA)으로부터 지능형 CCTV 성능 시험 인증 중 '배회' 분야 인증을 획득했다고 9일 밝혔다. 이 인증은 KISA가 주관하는 국내 유일 공인 인증 제도로, 침입·배회·유기 등 다양한 이상상황을 탐지하는 알고리즘 정확도를 평가해 인증한다. 이번 성과는 지미션에서 운영 중인 AX융합연구소 산하 AX랩팀에서 연구개발(R&D)을 진행한 결과다. 그간 AX랩팀은 오탐지율을 최소화하고 정밀 탐지 능력을 향상시키는 데 주력해 왔다. 인증받은 배회 탐지 기술은 지능형 CCTV의 핵심 기능 중 하나로, 특정 구역 내에서 비정상적으로 머무르거나 수상한 행동을 보이는 객체를 정확히 식별해내는 기술이다. 이는 스마트시티, 무인 매장, 산업 현장 등에서 보안 관제 및 위험 예방을 위한 필수 요소 중 하나로 평가된다. 지미션은 해당 알고리즘을 AI 영상 분석 플랫폼 '덱스마(DEXMA)'의 핵심 엔진으로 활용할 예정이다. 이 솔루션은 영상 수집부터 설정·인식·알림·분석까지 전 과정을 인공지능(AI) 기반으로 자동화하며 산업 현장 안전성과 운영 효율성을 동시에 높인다. 지미션은 이번 성과를 바탕으로 화재·낙상·침입 등 복합적인 이상행동 감지 분야까지 적용 범위를 확장하며 스마트시티·공공안전·제조 등 다양한 산업과 협력을 모색할 방침이다. 앞서 지미션은 생성형 AI 기술을 담당하는 AXIOM팀, 물리 기반 AI를 연구하는 AX랩팀, 실증·사업화를 담당하는 AXR&D팀으로 구성된 AX융합연구소를 출범했다. 이를 통해 R&D와 기술 사업화를 통합한 구조를 구축 중이며 B2B 특화 AI 솔루션 기업으로서 입지를 빠르게 확대해 나가고 있다. 한준섭 지미션 대표는 "이번 KISA 인증은 우리가 보유한 AI 영상 분석 기술의 신뢰성과 실효성을 국가 공인 기관으로부터 인정받은 중요한 사례"라며 "AX융합연구소를 중심으로 현실 세계와 연결되는 피지컬 AI 기술을 강화해 보다 안전하고 똑똑한 사회를 만드는 데 기여하겠다"고 말했다.

2026.01.09 16:02한정호

정부, AI 인프라 지원 체계화한다…'고성능컴퓨팅' 운영기관 공모

정부가 국내 인공지능(AI) 기업과 연구기관을 대상으로 체계적인 고성능컴퓨팅 인프라 지원에 나선다. 8일 정보통신산업진흥원(NIPA)에 따르면 최근 과학기술정보통신부와 NIPA는 올해 '고성능컴퓨팅지원 사업'을 총괄 운영할 전문 운영기관을 공개 모집하며 본격적인 사업 준비에 착수했다. 이 사업은 민간이 보유한 최신 그래픽처리장치(GPU) 자원과 국산 AI 반도체(NPU) 활용을 지원해 국내 AI 기업 및 기관의 경쟁력과 사업화 역량을 강화하는 것이 목적이다. 지난해 정부는 AI 연구·개발 연산 인프라를 확대하기 위해 정부 추경 예산을 바탕으로 이 사업을 추진해왔다. 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 선정했다. 올해도 추진되는 사업 총 예산 규모는 174억원이 책정됐다. 이 중 167억원은 GPU·NPU 등 연산자원 공급 비용으로, 7억원은 운영기관의 사업 운영비로 편성됐다. 사업 기간은 운영기관과의 협약 체결일부터 올해 12월 31일까지다. 특히 이번 공모를 통해 선정되는 전문 운영기관은 사업 전반을 총괄하게 된다. 공급사와 사용자 모집·선정, 자원 배분 및 사용 관리, 성과 조사와 우수 사례 발굴, 사업 정산 등 사업 운영 전 과정을 맡는다. 이번 사업을 통해 총 1천 개 내외의 국내 중소·벤처기업과 대학·병원·연구기관 등이 지원 대상이 될 예정이다. AI 모델 학습을 위한 GPU 자원뿐 아니라 국산 AI 반도체를 활용한 추론 서비스까지 포함해 기술 검증과 상용화 연계를 동시에 수행할 방침이다. 운영기관 신청 자격은 비영리기관·협단체 또는 중소기업이며 컨소시엄 구성도 가능하다. 단독 신청의 경우에도 적격 평가를 통해 운영기관으로 선정될 수 있다. 선정 평가는 사업 이해도, 고성능컴퓨팅 자원 운영 역량, 국산 AI 반도체 활용 관리 방안, 성과 관리 체계 등을 종합적으로 고려해 진행된다. 사업 추진 과정에서는 사용자와 공급사에 대한 체계적인 관리가 강조된다. 운영기관은 사용자 선정 이후 중간 점검과 결과 평가를 수행하고 GPU 사용률 관리, NPU 기반 추론 단계별 검증, 기술 지원 체계 구축 등을 통해 자원의 효율적 활용을 도모해야 한다. 아울러 정부는 사업 성과를 정량·정성적으로 평가하기 위해 설문조사와 성과 조사도 병행한다. AI 제품·서비스 개발 성과, 매출 창출, 특허·논문 실적, 투자 유치 등 사업화 지표를 중심으로 우수 성과 기업·기관을 선정해 사례집 제작과 성과 보고회도 추진할 계획이다. 운영기관 모집 공고의 사업계획서 접수는 이달 21일부터 다음 달 2일까지 진행된다. 이후 사전검토와 선정평가, 협약 체결 절차를 거쳐 다음 달 말 최종 운영기관이 확정된다. NIPA 측은 "고성능컴퓨팅 자원과 국산 AI 반도체 활용 지원을 통해 기업·연구기관이 기술 개발과 사업화에 집중할 수 있는 환경을 조성하는 것이 목표"라며 "전문 운영기관 운영을 통해 지원 전 과정을 체계적으로 관리하고 수요 기업의 실제 활용 성과가 산업 경쟁력 강화로 이어질 수 있도록 사업을 운영할 계획"이라고 밝혔다.

2026.01.08 10:49한정호

카카오, 사람처럼 자기 점검하는 멀티모달 언어모델 공개

카카오는 가벼운 일상 대화부터 논리적 사고가 필요한 복잡한 문제 해결까지 하나의 모델로 처리할 수 있는 자체 개발 신규 AI 모델 '카나나-v-4b-하이브리드'의 성능을 공개했다고 5일밝혔다. 새로운 모델은 지난해 7월 허깅페이스를 통해 오픈소스로 공개한 '카나나-1.5-v-3b'를 토대로 개발됐다. 단순히 이미지를 텍스트로 변환하거나 이를 설명하는 수준을 넘어 사람처럼 정보를 종합하고 계산하며 스스로 검산하는 자기 점검 과정을 거치는 것이 특징이다. 이를 통해 인공 지능 모델이 가진 환각 현상을 최소화할 수 있으며 복잡한 형태의 표나 영수증, 수학 문제 등 까다롭고 복합적인 문제나 상황에서 발생하기 쉬운 계산 실수나 조건 누락을 줄이고 정확도를 높였다. 카나나-v-4b-하이브리드 모델의 높은 성능을 위해 카카오는 단계별로 정교하게 설계된 학습 과정을 적용했다. ▲기초 학습 ▲장문 사고 사슬(Long CoT) ▲오프라인 강화학습 ▲온라인 강화학습으로 이어지는 4단계의 고도화된 학습 절차를 거쳤다. 한국어 논리 전개 능력에서 경쟁력을 입증하기도 했다. 기존 글로벌 모델들의 경우 한국어 질문을 영어로 번역해 사고한 뒤 재번역해 답하는 과정에서 맥락과 논리가 결여되는 한계점을 보였으나 이 모델은 한국어 질문을 있는 그대로 이해하고 사고하도록 훈련됐다. 이런 한국어 성능을 바탕으로 대학수학능력시험 사회탐구나 수학 등의 문제에서 한국어의 미묘한 조건들을 놓치지 않고 높은 정답률을 기록했다. 한국의 교육 체계를 기반으로 하는 AI 학력 평가 벤치마크인 'KoNET'에서는 92.8점을 획득했다. 이밖에도 유사한 크기의 글로벌 모델 큐웬3-VL-4B, 인턴VL3.5-4B, GPT-5-나노 및 국내 모델과의 성능 평가에서 ▲과학과 공학 ▲일반 시각 질의응답 ▲문서 이해 등의 영역에서 뛰어난 성능을 기록했으며, 수학과 과학 등 복잡한 추론이 필요한 영역과 일반 시각 이해 능력에서는 글로벌 모델을 뛰어넘는 성과를 보였다는 것이 회사 측 설명이다. 카카오는 향후 사용자가 모델을 선택할 필요 없이 AI가 질문의 복잡도를 스스로 판단한 뒤 일반·추론 모드를 직접 자동 전환해 동작할 수 있는 형태로 고도화해 갈 계획이다. 이를 통해 하나의 대화창에서 단순한 질문과 복잡한 분석 요청에 대해 자연스럽고 끊김 없는 사용 경험을 제공하면서 최적의 리소스를 활용하는 비용 효율적 모델을 선보일 예정이다. 김병학 카카오 카나나 성과리더는 “카나나-v-4b-하이브리드는 한국어 환경에서 가장 자연스럽고 정확하게 생각하고 답변할 수 있는 모델로, 일상과 복잡한 작업을 모두 하나의 AI에 맡길 수 있는 혁신적인 연구 성과”라며 “한국어에 특화된 높은 성능과 효율을 갖춘 자체 AI 모델 개발을 통해 글로벌 무대에서 경쟁력을 높이고, 국내 AI 생태계 발전의 선도 역할을 이어가겠다”고 말했다.

2026.01.05 11:01박서린

퓨어스토리지-뉴타닉스, 가상화 환경 겨냥 통합 인프라 솔루션 출시…벤더 종속 완화

퓨어스토리지가 뉴타닉스와 손잡고 가상화 환경을 겨냥한 통합 인프라 솔루션을 선보였다. 고성능 올플래시 스토리지와 하이퍼컨버지드 인프라(HCI)를 결합해 기업의 인프라 현대화와 벤더 종속성 완화를 동시에 노린다는 전략이다. 퓨어스토리지는 뉴타닉스와 협력해 '퓨어스토리지 플래시어레이'와 '뉴타닉스 클라우드 인프라스트럭처'를 결합한 통합 솔루션을 공식 출시했다고 17일 밝혔다. 이번 통합 솔루션은 뉴타닉스 클라우드 인프라의 운영 단순성과 퓨어스토리지 플래시어레이의 고성능 아키텍처를 결합한 것이 특징이다. 라이선스 비용 상승과 특정 벤더 종속성 심화로 기존 가상화 환경에 대한 재검토가 확산되는 가운데, 유연성과 성능을 모두 갖춘 대안으로 제시됐다. 해당 솔루션은 복잡한 가상 머신(VM) 환경과 고성능 데이터베이스(DB), 차세대 AI 워크로드까지 지원할 수 있도록 설계됐다. 기업은 간편한 배포와 직관적인 관리 환경을 기반으로 미션 크리티컬한 데이터 집약형 워크로드를 안정적으로 운영할 수 있다는 설명이다. 특히 애플리케이션 응답성과 민첩성을 높여 현대적인 풀스택 가상 인프라 구축을 지원한다. 뉴타닉스 환경에서 각 v디스크(vDisk)는 퓨어스토리지 플래시어레이 볼륨을 기반으로 구성된다. 이를 통해 VM 단위로 스냅샷이나 서비스 품질(QoS)과 같은 스토리지 서비스를 세분화해 적용할 수 있으며 개별 VM에 설정된 정책을 지속적으로 유지할 수 있다. 특정 VM의 워크로드가 인접 VM에 영향을 주지 않도록 정밀한 제어도 가능하다. 플래시어레이는 고성능 엔터프라이즈 환경을 겨냥한 올플래시 스토리지로, 글로벌 압축과 중복 제거를 통해 높은 데이터 효율성을 제공한다. NVMe 기반 모듈형 아키텍처를 적용해 컴퓨트와 스토리지를 분리했으며 워크로드 전반에서 서브밀리초 수준의 응답 시간을 구현한다. 무중단 인플레이스 업그레이드와 '에버그린' 아키텍처를 통해 장기적인 운영 효율성도 강화했다. 또 뉴타닉스 프리즘 제어 플레인과 완전히 통합돼 단일 인터페이스에서 VM 단위 스냅샷과 데이1·데이2 운영을 수행할 수 있다. 비동기 복제 기능을 비롯해 향후 액티브 재해복구(DR)와 액티브클러스터 기능도 제공될 예정으로, 비즈니스 연속성 강화를 지원한다. 아울러 뉴타닉스 AHV가 기본 내장 하이퍼바이저로 제공돼 별도의 라이선스 비용 없이 엔터프라이즈급 성능과 확장성을 제공한다. 정책 기반 마이크로 세분화를 지원하는 뉴타닉스 플로우를 통해 VM 간 트래픽을 정밀하게 제어하고 보안 및 규제 요구사항 대응도 가능하다. 익스피디언트 앤서니 잭맨 최고혁신책임자(CIO)는 "이번 협력은 업계가 기다려온 파트너십"이라며 "이번 솔루션을 통해 인프라 현대화와 더불어 기존 투자 자산을 최대한 활용하면서도 고객에게 보장된 성능과 최대한의 유연성을 제공할 수 있게 됐다"고 말했다.

2025.12.17 15:43한정호

토종 클라우드, AI 확산에 '액체 냉각' 승부수…데이터센터 설계 바뀐다

국내 클라우드 업계가 인공지능(AI) 확산에 따른 고성능 그래픽처리장치(GPU) 수요 증가에 대응하기 위해 데이터센터 냉각 기술 고도화에 속도를 낸다. 기존 공랭 방식으로는 한계에 이른 고발열 GPU 환경에서 액체 냉각이 필수 기술로 부상하면서 주요 기업들이 실증과 상용화를 병행하는 경쟁 구도가 형성되고 있다. 12일 업계에 따르면 국내 주요 클라우드 서비스 제공사(CSP)는 엔비디아 최신 GPU 도입에 맞춰 데이터센터 냉각 방식을 공기 냉각에서 액체 냉각 중심으로 전환하고 있다. GPU 성능이 급격히 고도화되면서 랙당 전력 밀도가 수십 킬로와트(kW) 수준까지 상승한 것이 배경이다. 대표적으로 KT클라우드가 액체 냉각 상용화에 발 빠르게 나서고 있다. 최근 개소한 가산 AI 데이터센터에 GPU 칩에 냉각판을 직접 부착해 냉각수를 순환시키는 '다이렉트 투 칩(D2C)' 방식 액체 냉각을 적용했다. 회사는 엔비디아 B200, NVL72급 고발열 서버 환경을 가정한 실증을 통해 안정적인 온도 유지와 전력 효율 개선 효과를 확인했다. KT클라우드는 서울 목동과 용산에 실증 허브 역할의 AI 이노베이션 센터를 운영하며 액체 냉각 기술 검증 범위를 넓히고 있다. 이 센터에서는 실제 운영 환경과 동일한 조건에서 수냉식과 액침 냉각을 시험하고 있으며 향후 기술 데이터를 업계와 공유해 표준화 논의에도 활용할 계획이다. 네이버클라우드는 액체 냉각을 포함한 하이브리드 냉각 전략을 통해 단계적 전환을 추진한다. 각 세종 데이터센터에 직접외기·간접외기·냉수를 병행하는 냉각 구조를 적용했으며 고밀도 GPU 존을 중심으로 차세대 냉각 기술 도입을 준비 중이다. 더 나아가 액침 냉각과 직접액체냉각(DLC)에 대한 개념검증(PoC)을 진행 중이며 향후 센터 증설 구간에 이를 반영한다는 목표다. NHN클라우드도 수냉 기술을 앞세워 최근 정부 GPU 확보 사업에서 존재감을 드러냈다. 정부가 도입하는 엔비디아 B200 물량의 75%가량을 구축하는 사업자로 선정됐으며 제안 기업 가운데 유일하게 수냉식 냉각 시스템 적용을 제안했다. 고발열 특성이 강한 B200의 안정적 운용을 위해선 수냉이 필수적이라는 점이 평가에 반영된 것으로 풀이된다. NHN클라우드는 확보한 B200 GPU를 대규모 클러스터로 구성해 내년 초부터 순차적으로 가동할 계획이다. 사전 실증을 통해 수냉식 냉각의 안정성과 운영 경험을 축적해 왔으며 고성능 AI 워크로드에 최적화된 데이터센터 운영 환경을 구축할 방침이다. 전문가들은 AI 확산에 따라 데이터센터 냉각이 단순한 설비 요소를 넘어 핵심 경쟁력이 되고 있다고 분석한다. 엔비디아 블랙웰 계열 GPU는 랙당 100kW를 넘는 전력을 요구해 공랭 방식으로는 대응이 어렵고 액체 냉각을 전제로 한 인프라 설계가 불가피하다는 설명이다. AI 데이터센터 설계 단계에서부터 냉각을 전력·네트워크와 함께 하나의 시스템으로 통합하는 움직임도 나타난다. GPU 연산 밀도가 높아질수록 특정 장비 단위의 냉각 성능뿐 아니라 전체 시설 구조와 열 흐름을 고려한 설계가 필요하다는 판단이다. 이에 기존 데이터센터를 단순 개조하는 방식으로는 한계가 있어 초기 설계 단계부터 전력·냉각·구조 하중을 고려한 AI 전용 데이터센터 구축이 진행되고 있다. 실제 KT클라우드는 내년 신규 개소할 부천·개봉·안산 센터를 모두 액체 냉각 기반으로 설계한다. 네이버클라우드도 액체 냉각을 중점으로 두고 각 세종 추가 증설에 나선다. NHN클라우드 역시 정부 사업을 통해 확보한 엔비디아 GPU의 수냉 클러스터를 양평 데이터센터에 구축한다. 데이터센터 업계 관계자는 "고집적 GPU를 수용하기 위해 국내 클라우드 사업자들이 액체 냉각 기술 도입을 확대 중"이라며 "내년을 기점으로 기업 고객들의 AI 인프라 수요도 본격화될 것"이라고 전망했다. 이어 "앞으로는 액체 냉각을 전제로 한 데이터센터 설계 역량이 클라우드 기업의 장기 경쟁력을 좌우하게 될 것"이라고 덧붙였다.

2025.12.12 15:49한정호

LG전자, 퀄컴과 미래 AIDV 시대 선도

LG전자가 글로벌 반도체 기업 퀄컴 테크날러지스와 함께 개발한 생성형 AI 기반 차량용 고성능 컴퓨팅 장치(HPC)를 공개하며 AIDV(인공지능중심차량) 시대를 선도하는 앞선 기술력을 선보인다. LG전자는 내년 1월 6일부터 나흘간 미국 라스베이거스에서 열리는 'CES 2026'에서 자동차의 두뇌 역할을 하는 HPC에 적용되는 온디바이스 AI 솔루션인 'AI 캐빈 플랫폼'을 완성차 고객사를 대상으로 최초 공개한다고 11일 밝혔다. LG전자는 새로운 AI 캐빈 플랫폼이 적용된 디지털 콕핏을 통해 SDV(소프트웨어중심차량)를 넘어 새로운 미래 모빌리티 트렌드로 떠오르고 있는 AIDV 기술들을 소개할 계획이다. AI 캐빈 플랫폼은 시각 정보를 분석하는 비전 언어 모델(VLM)을 비롯해 대형 언어 모델(LLM), 이미지 생성 모델 등 오픈소스 기반의 다양한 생성형 AI 모델들을 LG전자의 차량용 인포테인먼트 시스템에 적용해 탑승자의 차량 내 경험을 새롭게 만든다. AI 캐빈 플랫폼에는 퀄컴의 고성능 오토모티브 솔루션인 '스냅드래곤 콕핏 엘리트'가 탑재됐다. 스냅드래곤 콕핏 엘리트가 구현하는 뛰어난 컴퓨팅 성능으로 모든 AI 연산은 차량 내에서 자체적으로 처리된다. 외부 AI 서버와의 통신이 필요 없어 보다 빠르고 안정적이며, 보안 측면에서도 외부 유출 가능성이 차단되어 한층 더 안심할 수 있다. AI 캐빈 플랫폼은 차량 내외부 카메라를 통해 입수한 주변 환경, 탑승자의 상태 등을 AI가 분석해 상황에 맞는 가이드를 제공한다. 아울러 이미지 생성 모델을 통해 맞춤형 이미지도 제공한다. LG전자는 올해 초 열린 CES 2025에서도 퀄컴과 함께 차량용 인포테인먼트 시스템과 첨단 운전자보조 시스템을 하나의 장치로 통합 제어하는 HPC 플랫폼을 공개하는 등 퀄컴과 긴밀한 협업을 이어가고 있다. 이 플랫폼은 퀄컴의 '스냅드래곤 라이드 플렉스' 시스템온칩(SoC)을 기반으로 차량 내 다양한 기능을 단일 컨트롤러에 통합함으로써 비용과 성능 두 마리 토끼를 동시에 잡았다는 평가를 받았다. 은석현 LG전자 VS사업본부장(부사장)은 “글로벌 시장에서 입증된 기술력과 신뢰도를 바탕으로 강력한 파트너십을 확대함으로써 SDV를 넘어 AIDV로의 전환도 주도해 나갈 것”이라고 말했다.

2025.12.11 10:20전화평

IBM, 16조원에 컨플루언트 인수…AI 시대 실시간 데이터 패권 노린다

IBM이 인공지능(AI) 시대 핵심 자원으로 떠오른 실시간 데이터 시장을 선점하기 위해 컨플루언트를 품고 기업용 AI 경쟁력 강화에 박차를 가한다. 9일 월스트리트저널(WSJ)에 따르면 IBM은 실시간 데이터 전문기업 컨플루언트를 주당 31달러(약 4만5천원), 총 110억 달러(약 16조원) 규모에 인수하기로 합의했다. 이번 거래는 IBM이 최근 수년간 단행한 인수 중 최대 규모로, 실시간 데이터 스트리밍 플랫폼을 통해 AI 서비스 전반의 성능과 속도를 끌어올리려는 전략으로 풀이된다. 컨플루언트는 대규모 AI 모델이 사용하는 실시간 데이터 스트림을 관리·처리하는 기술을 제공하는 기업으로, 리테일·금융·테크 산업에서 수요가 급증하고 있다. AI 추론 과정에서 발생하는 방대한 데이터 흐름을 실시간으로 처리해야 하는 기업에게는 필수적 기술로 자리 잡았다. 이번 인수 소식이 알려지자 컨플루언트 주가는 장중 30% 가까이 급등했다. IBM은 이번 인수를 통해 기존의 하이브리드 클라우드·자동화·데이터 플랫폼에 컨플루언트 기술을 통합하며 기업용 스마트 데이터 플랫폼을 구축할 계획이다. AI를 활용하는 모든 애플리케이션에 대해 실시간 정제 데이터 접근성을 높인다는 목표다. 컨플루언트는 이미 앤트로픽·아마존웹서비스(AWS)·구글 클라우드·마이크로소프트(MS) 등 주요 클라우드·AI 기업들과 협력해 왔으며 6천500곳 이상의 고객사를 보유하고 있다. IBM과도 지난 5년 동안 일부 솔루션 영역에서 파트너십을 이어온 바 있다. IBM은 최근 AI 중심 사업 재편에 속도를 내고 있다. 2023년 앱티오, 지난해 하시코프 인수에 이어 올해 컨플루언트를 품으면서 AI·클라우드·자동화 생태계 전반을 빠르게 확장 중이다. 또 IBM은 사내에서 AI 에이전트 도입을 가속해 수백 명의 HR 업무를 대체하는 등 AI 기반 조직 전환을 추진하고 있다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "컨플루언트 인수를 통해 기업들이 생성형 AI와 에이전틱 AI를 더 빠르고 효과적으로 배치할 수 있도록 지원할 것"이라고 말했다.

2025.12.09 14:51한정호

나인랩스, 시리즈 A 30억원 규모 투자 유치

데이터센터 및 AI 서버용 열관리 전문기업 나인랩스는 4일 대형 증권사와 벤처캐피털을 통해 30억원 규모 시리즈 A 투자를 유치했다고 밝혔다. 나인랩스는 카본 3D 프린터 시스템과 시제품 제작 사업을 중심으로 한 정밀공정 전문 기업이다. 최근에는 설계·가공 역량을 바탕으로 데이터센터와 고성능 서버용 반도체 직접냉각(D2C) 방식 액체냉각 솔루션으로 포트폴리오를 확장했다. 나인랩스 D2C 액체냉각 솔루션은 고성능 작동시 높은 열을 내는 CPU·GPU 표면에 냉각부를 직접 접촉시켜 구동된다. 기존 공랭식 간접냉각 대비 열전달 효율이 높고 소비 에너지를 줄이는 효과가 있으며 고집적·고전력 서버 환경에서 안정적으로 발열을 관리해 AI·고성능 컴퓨팅(HPC) 서버 인프라 핵심 기술로 꼽힌다. 주요 시장조사업체에 따르면 글로벌 액체냉각 시장은 AI 서버 전환 가속화에 따라 향후 5년간 연평균 25% 이상 성장할 것으로 기대된다. 주요 클라우드 및 통신사들도 D2C 등 액체냉각 기술 도입을 활발하게 검토중이다. 나인랩스는 이번에 유치한 30억원을 이용해 콜드플레이트, 소형 매니폴드, UQD 등 D2C 액체냉각 솔루션 핵심 부품의 설계 고도화와 양산 체계 구축에 나설 예정이다. 또 국내외 데이터센터/서버 사업자와 기술검증 협력 프로젝트도 확대한다. 박성호 나인랩스 대표이사는 "이번 30억원 규모 시리즈 A 투자 유치는 나인랩스의 기술 완성도와 글로벌 시장 성장 가능성을 동시에 인정받은 의미있는 이정표로 향후 고효율·친환경 액체냉각 솔루션을 통해 글로벌 데이터센터 및 AI 인프리 시장에서 새로운 표준을 만들어가겠다"고 밝혔다.

2025.12.04 15:02권봉석

티맥스티베로, '민생회복 소비쿠폰' 시스템 뒷받침…무중단 DB 성능 입증

티맥스티베로가 행정안전부의 민생회복 소비쿠폰 정책 시행 기간 동안 시스템 핵심 인프라를 운영하며 안정적인 사업 수행을 지원했다. 티맥스티베로는 민생회복 소비쿠폰 시스템에서 데이터베이스관리시스템(DBMS) '티베로 DB'를 운영했다고 1일 밝혔다. 민생회복 소비쿠폰 시스템은 경기 침체로 어려움을 겪는 국민을 지원하기 위해 정부가 구축한 정책 인프라로, 카드사·주민센터·제휴은행 등에서 접수된 신청 정보를 집계하고 행안부 등록 데이터와 실시간 대조해 지원 자격을 검증하는 역할을 수행했다. 이 과정에서 짧은 구축 일정과 폭발적인 트랜잭션 처리라는 조건 아래, 높은 신뢰성과 검증된 성능을 갖춘 DBMS가 필요했다. 티베로는 이러한 요구에 부합해 클라우드 환경에서 고가용성 기반 서비스를 제공하며 정책 시행 기간 동안 폭증한 접속량과 대규모 데이터 검증 요청을 무중단으로 처리했다. 이를 통해 공공 서비스 운영에 요구되는 안정성을 입증했으며 이번 프로젝트는 전국 규모의 신청·검증 업무를 안정적으로 수행해 국산 DBMS 기술력의 신뢰성을 재확인한 사례로 평가된다. 티베로는 지난 2020년 '긴급재난지원금 지급 시스템'에도 적용돼 대규모 동시 접속을 안정적으로 처리하며 성능을 입증한 바 있다. 이같은 경험은 이번 민생회복 소비쿠폰 시스템에서도 높게 평가돼 주요 인프라로 재선정됐다는 설명이다. 현재 티베로는 차세대지방세입정보시스템, KT 통합고객정보시스템 등 국가 및 민간의 핵심 시스템에서도 고성능·고안정성 데이터 처리를 제공 중이다. 또 티베로는 최근 국가정보자원관리원 화재를 계기로 정부가 대국민 서비스의 연속성과 신뢰성 강화를 위해 재해복구(DR) 체계 고도화를 추진하는 흐름에 맞춰, 액티브 DR 기반의 기술 역량을 강화하고 공공기관의 무중단 서비스 요구에 선제적으로 대응하고 있다. 이번 사업에서 입증된 안정적 운영 경험을 기반으로 고가용성 데이터 인프라 지원 체계를 지속적으로 확장하며 국산 DBMS 기술 신뢰성을 한층 더 공고히 한다는 목표다. 박경희 티맥스티베로 대표는 "공공 서비스에서 안정적인 운영은 필수 요건"이라며 "이번 사업을 전 기간 성공적으로 지원한 것은 국산 DBMS 기술력의 경쟁력을 다시 한번 증명한 결과"라고 말했다. 이어 "앞으로도 공공·금융·기업 시장 전반에서 데이터 자주성을 강화하는 데 기여하겠다"고 밝혔다.

2025.12.01 15:41한정호

자동차 필름식번호판 품질 개선한다…반사성능 최대 6배 높여

국토교통부는 자동차 필름식번호판 품질과 성능개선을 위해 '자동차 등록번호판 등의 기준에 관한 고시'를 27일 일부 개정한다. 필름식번호판은 2017년 전기자동차에 처음 도입하고 2020년 일반자동차에 확대 도입됐다. 국가상징 문양과 국가축약문자·홀로그램 등의 디자인 적용으로 위·변조 방지효과가 있으며, 재귀반사식 필름을 적용해 야간 시인성이 높다. 국토부 관계자는 “도입초기 단속 장비 인식성능 부족으로 인한 낮은 반사성능 적용과, 필름이라는 재료의 한계로 인해 들뜸·박리 등 품질불량 문제가 발생해 소비자의 불편이 계속돼 왔다”며 “국토부는 품질과 야간 시인성을 개선해 교통안전을 확보하고자 '자동차 필름식번호판 성능 및 품질개선 연구'를 진행해, 그 결과를 반영해 개정안을 마련했다”고 설명했다. 국토부는 필름 접착력과 내온도·연료저항성 등 시험기준을 강화해 필름식 번호판 품질을 개선하고 필름식번호판 제작을 위해 등록번호판 발급 대행자(내마모성·방수성·청정성·연료저항성·문자 색상 등)와 필름 제작자(색상·반사성능·내후성·내마모성·내온도·접착력·내충격성 등), 원판제작자(재질·규격·접착력·내충격성·내굽힘성 등)가 받아야 하는 품질검사 항목을 정했다. 또 현행 필름식번호판 반사성능을 현행 3~12칸델라에서 20~30칸델라로 최대 6배 개선해 야간 시인성을 개선했다. 필름식번호판 생산정보(필름·원판·등록번호판)를 표기하고, 번호판 보증기간을 최초 발급일로부터 5년으로 명문화해 생산자 책임성을 강화했다. 배소명 국토부 자동차운영보험과장은 “이번 고시개정을 통해 필름식번호판의 불량문제와 반사성능 부족으로 인한 불편이 개선될 것”이라며 “앞으로 등록번호판 제작관리 및 인증제품 사후관리 제도 역시 법령개정을 통해 마련할 계획”이라고 밝혔다. 고시 개정안은 27일 발령하고, 1년의 준비기간을 거쳐 2026년 11월 28일부터 시행한다.

2025.11.25 18:14주문정

앤트로픽, 차세대 AI '클로드 오퍼스4.5' 출시…챗GPT·제미나이 제쳤다

앤트로픽이 차세대 인공지능(AI) 모델 '클로드 오퍼스4.5'를 선보이며 코딩·에이전트·사무 작업 자동화 등 다양한 영역에서 경쟁사 대비 우수성을 앞세워 시장 공략에 속도를 낸다. 특히 소프트웨어 엔지니어링(SWE) 벤치마크에서 세계 최고 수준의 성능을 기록하며 기업용 AI 시장 공략을 본격화한다. 앤트로픽은 자사 AI 모델 중 최상위 모델인 '오퍼스'의 최신 버전 클로드 오퍼스4.5를 24일(현지시간) 출시했다. 오퍼스4.5는 복잡한 추론과 고난도 전문 작업 수행에 최적화된 모델로, 기존 오퍼스 대비 코딩 자동화·버그 수정·다단계 작업 수행 능력이 크게 강화됐다. 국제 표준 벤치마크 결과에 따르면 SWE-벤치에서 80.9%의 정확도를 기록해 오픈AI GPT-5.1 코덱스 맥스(77.9%), 구글 제미나이 3 프로(76.2%)를 앞섰다. 또 기존 학습 데이터 없이 AI가 스스로 문제를 해결하는 ARC-AGI-2 평가에서도 37.6%를 기록하면서 경쟁 모델 대비 우수한 성능을 보였다. 앤트로픽은 "오퍼스4.5가 몇 주 전만 해도 우리의 '소넷4.5' 모델이 해결하지 못한 문제까지 풀어낸다"며 "실제 시험 환경에서 인간 지원자보다 높은 점수를 기록했다"고 설명했다. 아울러 내부 테스트에서도 SWE-벤치 다국어 테스트 8개 중 7개 부문에서 1위를 차지한 것으로 나타났다. 새 모델은 사무 자동화 기능도 강화됐다. 재무 분석, 프레젠테이션 작성, 스프레드시트 처리 등 사무용 워크플로우에 특화된 업데이트가 적용됐으며 마이크로소프트(MS) 엑셀 내에서 직접 클로드를 활용할 수 있는 기능도 추가됐다. 이를 통해 기업 고객은 엑셀 기반 데이터 분석과 문서 작업을 자연어로 수행하게 됐다. 개발자 도구도 확장됐다. 장기 실행형 에이전트 기능과 데스크톱·크롬 환경에서의 클로드 활용성 개선, 자동 요약을 통한 긴 대화 맥락 유지 기능 등을 추가했다. AI 연산량을 조절하는 '노력 매개변수'를 적용해 동일 성능 대비 필요한 토큰 수를 50% 가까이 줄인 것도 특징이다. API 가격 역시 대폭 인하됐다. 오퍼스4.5 API 요금은 100만 토큰당 입력 5달러·출력 25달러로 기존 대비 3분의 1 수준으로 낮아졌다. 모델은 클로드 앱, API, 아마존웹서비스(AWS)·애저·구글 클라우드를 통해 즉시 이용할 수 있다. 앤트로픽은 "오퍼스 4.5를 통해 다양한 산업에서 생산성과 문제 해결 능력을 한 단계 더 끌어올릴 수 있을 것"이라고 밝혔다.

2025.11.25 10:37한정호

아마존, 美 정부 AI 인프라에 최대 74조원 투자

전자상거래 업체 아마존이 미국 정부 기관에 인공지능(AI), 고성능 컴퓨팅 서비스를 제공하기 위한 역량을 확충하고자 최대 500억 달러(약 73조7천750억원)를 투자한다. 24일(현지시간) 블룸버그 등 외신에 따르면 아마존은 블로그에서 아마존웹서비스(AWS)가 내년에 신규 데이터센터를 착공해 최종적으로 1.3GW 규모의 추가 용량을 확보할 것이라고 밝혔다. 이번 신규 데이터센터는 AWS의 연방 정부 고객을 위해 설계됐다. AWS는 미국 정부 고객에게 엄격한 보안 기준을 충족하도록 설계된 전용 시설에서 서비스를 제공한다. 이같은 기준에는 데이터 처리 방식, 상업 프로젝트와의 분리, 직원 국적 등과 관련된 규정이 포함된다. 또 AWS는 정부 기관에 아마존의 AI 도구 제품군, 파트너사 앤트로픽의 모델, 엔비디아와 아마존 자체 칩 제조 부서에서 만든 칩을 제공할 계획이다. 현재 AWS는 1만1천개 이상의 정부 기관을 지원하고 있으며, 회사는 900개 이상의 데이터센터에서 해당 서비스를 제공하고 있다.

2025.11.25 09:16박서린

제네시스, 고성능 마그마로 재도약…럭셔리 모터스포츠 핵심

제네시스 브랜드(제네시스)가 출범 10년을 맞아 '럭셔리 고성능' 브랜드 마그마를 본격화한다. 제네시스는 20일(현지시간) 프랑스 남부 르 카스텔레 지역에 위치한 폴 리카르 서킷에서 '마그마 월드 프리미어' 행사를 개최하고 브랜드 최초의 고성능 모델 'GV60 마그마'를 처음으로 공개했다. GV60 마그마는 내년 1월 한국을 시작으로 유럽, 북미 등 글로벌 시장에 순차적으로 출시될 예정이다. 'GV60 마그마'는 지난해 제네시스가 고성능 영역 진출을 공식화하며 선보인 'GV60 마그마 콘셉트'를 기반으로 개발된 첫 양산형 모델이다. GV60 마그마의 전면부는 기존 GV60보다 전폭을 넓히고 차체 높이를 낮춰 낮고 넓은 비율을 기반으로 안정적인 자세를 구현했다. 공기 흐름과 냉각 성능을 보조하는 3홀 형태로 새롭게 설계된 범퍼와 무채색 중심의 파차 등을 적용해 고성능 이미지를 강조했다. 측면은 전고를 20㎜ 낮추고, 와이드 펜더와 275㎜ 광폭 타이어를 적용했다. 윈도 프레임 등 외장 몰딩은 유광 블랙으로 마감해 크롬 사용을 최소화했다. 후면부는 루프라인과 연결된 윙 타입의 리어 스포일러를 통해 다운포스를 형성해 차량의 양력을 줄여 주행 안정성을 확보했다. 실내는 시트, 도어 트림, 센터 콘솔 등 주요 부위에 스웨이드 계열의 샤무드 소재가 사용됐으며, 내장 컬러에 따라 오렌지 및 그레이 스티치, 퀼팅, 시트벨트를 적용했다. 버튼, 스위치, 엠블럼은 블랙 하이그로시 또는 다크 메탈 소재로 마감했다. 운전대는 블랙 엠블럼, 오렌지 컬러 등 마그마 전용 요소를 적용했다. GV60 마그마는 전후륜 모터 합산 최고 출력 448kW(609 마력), 최대 토크 740Nm을 발휘한다. 부스트 모드에서는 478kW(650마력), 790Nm까지 상승하며, 최고 속도는 시속 264㎞다. 런치컨트롤 사용 시 정지 상태에서 시속 200㎞까지 10.9초 만에 도달이 가능하다. GV60 마그마는 조종 안정성과 주행 컨트롤의 완성도, 승차감도 강화했다. 내장형 고급 전자제어 서스펜션(ECS)과 EoT(End-of-Travel) 제어 시스템을 적용해 코너링 안정성과 편안한 승차감을 동시에 확보했다. 이외에도 전륜에는 하이드로 G부싱, 후륜 크로스멤버에는 듀얼 레이어 부싱을 사용해 진동과 충격을 줄였으며 ▲전륜 모노블럭 캘리퍼 ▲대구경 디스크 ▲GG 고마찰 소재 후륜 브레이크 패드를 통해 제동 성능도 강화했다. GV60 마그마에는 현대차그룹 최초로 전동 기능을 탑재한 '마그마 전용 파워 10-Way 버킷시트'도 적용됐다. 이는 통풍, 메모리, 쿠션 익스텐션 등의 기능을 제공해 운전자에게 편안함과 지지감을 선사한다. 타이어는 마그마 전용으로 개발된 21인치 휠과 광폭 썸머 타이어가 장착됐으며, 노면 소음을 제어하는 ANC-R을 기본 탑재했다. 또한 고속 주행 시 풍절음 개선을 위한 ▲윈드쉴드 ▲전후석 도어 글래스 차음 필름 ▲강화된 도어 실링 등의 적용을 통해 NVH(소음·진동·불쾌음) 정숙성을 높였다. GV60 마그마는 차별화된 주행 경험을 제공하기 위한 다양한 마그마 전용 특화 기능을 갖췄다. 아울러 운전자 몰입감을 높이기 위한 제네시스 마그마 전용 디지털 인터페이스, 사운드, 주행 피드백도 탑재했다. 전용 가상 사운드 시스템도 적용됐다. 주행 중 전기차 액티브 사운드 디자인(e-ASD+)을 활성화하면 마그마만의 주행 감성을 담은 전기 사운드를 경험할 수 있으며, 가상 변속 시스템(VGS) 기능을 더할 경우 고성능 6기통 엔진에서 영감을 받은 깊이 있는 사운드가 탑승객에게 풍부한 몰입감을 제공한다. 또한 내비게이션 시스템(AVN)의 마그마 전용 페이지에서는 VGS, HPBC, 퍼포먼스 타이머, 페달 개도량을 포함한 다양한 주행 관련 기능 및 정보를 직관적으로 보여준다. 이날 제네시스는 브랜드 퍼포먼스 비전 '럭셔리 고성능'의 정점을 보여주는 콘셉트 모델 '마그마 GT 콘셉트'도 최초 공개했다. 마그마 GT 콘셉트 GT 레이싱 클래스 진출을 목표로 개발한 모델로 향후 10년간 구축할 퍼포먼스 헤리티지의 방향성을 가장 이상적으로 제시한 것이 특징이다. 이와 함께 제네시스는 ▲GV60 마그마 콘셉트 ▲G80 마그마 스페셜 ▲G80 전동화 마그마 콘셉트 ▲X 그란 베를리네타 콘셉트 ▲G80 마그마 스페셜 ▲G80 마그마 스페셜 프로토타입 ▲X 그란 레이서 콘셉트 ▲G90 윙백 콘셉트 ▲X 그란 쿠페 콘셉트 ▲G70 트랙 택시 등 주요 차량을 전시했다. 호세 무뇨스 현대자동차 대표이사 사장은 "제네시스는 럭셔리 브랜드 사상 가장 빠른 속도로 글로벌 판매 100만 대를 달성했다"며 "마그마는 제네시스의 앞으로의 10년이 더욱 중요해질 것임을 선언하는 상징으로, 한국의 혁신과 글로벌 비전을 결합해 새로운 기준을 제시할 것"이라고 밝혔다.

2025.11.21 02:00김재성

슈퍼마이크로, 'AMD MI355X' 탑재 공냉식 서버 출시…AI 포트폴리오 확대

슈퍼마이크로가 AMD의 그래픽처리장치(GPU)를 탑재한 차세대 서버 제품군을 선보이며 인공지능(AI) 워크로드 성능 강화 포트폴리오를 확대한다. 슈퍼마이크로는 'AMD 인스팅트 MI355X' GPU 탑재 10U 공냉식 서버를 출시했다고 20일 밝혔다. 이번 솔루션은 AMD 인스팅트 MI355X GPU의 고성능을 공냉식 냉각 환경에서 구현하려는 기업을 위해 설계됐으며 우수한 성능·확장성·전력 효율성을 제공한다. 슈퍼마이크로 빅 말얄라 테크놀로지·AI부문 수석부사장은 "우리의 데이터센터 빌딩 블록 솔루션(DCBBS)은 검증된 서비스를 시장에 공급하는 과정에서 AMD 솔루션과 같은 최첨단 기술을 신속하게 통합할 수 있도록 한다"고 강조했다. 이어 "새로운 AMD 인스팅트 MI355X GPU 공냉식 솔루션 추가로 우리 AI 제품군을 확장·강화하며 고객들의 차세대 데이터센터 구축에 다양한 선택지를 제공할 수 있게 됐다"고 덧붙였다. 슈퍼마이크로는 이번 10U 공냉식 서버 출시를 통해 수냉식 및 공냉식 기반 고성능 제품군을 확장했다. 해당 솔루션은 업계 표준 OCP 가속기 모듈(OAM)을 활용해 GPU당 288GB의 HBM3e 메모리와 8TB/s 대역폭을 제공한다. 또 TDP가 1천 와트(W)에서 1천400W로 증가함에 따라 기존 8U MI350X 공냉식 시스템 대비 최대 두 자릿수의 성능 향상이 이뤄져 데이터를 빠르게 처리할 수 있다. 이번 제품군 확장으로 슈퍼마이크로 고객은 공냉식과 수냉식 인프라 모두에서 랙당 성능을 효율적으로 확장할 수 있다는 설명이다. 특히 이번 GPU 솔루션은 클라우드 서비스 제공 업체와 엔터프라이즈 환경 전반에서 대규모 AI 및 추론 워크로드에 최대 성능을 제공하도록 설계됐다. AMD 트래비스 카 데이터센터 GPU 사업부문 비즈니스 개발 담당 부사장은 "슈퍼마이크로와 협력해 공냉식 AMD 인스팅트 MI355X GPU를 시장에 선보여 고객들은 기존 인프라에서도 고급 AI 성능을 보다 쉽게 도입할 수 있게 됐다"며 "양사는 성능과 효율성 분야의 선두주자로서 전 세계 데이터센터의 혁신을 가속화하는 차세대 AI 및 고성능컴퓨팅(HPC) 솔루션을 제공하고 있다"고 말했다.

2025.11.20 17:19한정호

[유미's 픽] 정부 고성능컴퓨팅 지원사업, GPU 활용 어려움에 추가 모집 나서

정부 추경 예산으로 추진된 '고성능컴퓨팅 지원사업'이 사업 초기부터 일부 조정 과정을 겪고 있다. 인공지능(AI) 기술 개발을 위한 그래픽처리장치(GPU) 자원 확보에 나섰지만, 일부 기관에서는 운영 인력과 기술적 여건이 충분하지 않아 참여를 재검토하는 사례가 나타나고 있다. 7일 업계에 따르면 과학기술정보통신부와 정보통신산업진흥원(NIPA)은 지난 4일 '2025년 추경 고성능컴퓨팅 지원사업'의 추가 사용자 모집 공고를 게시했다. 당초 선정된 일부 사업자가 GPU 활용에 어려움을 호소하며 참여를 포기함에 따라, 남은 자원을 효율적으로 배분하기 위한 조치라는 설명이다. NIPA 관계자는 "사용자들을 최종 선정했지만, 갑자기 포기한 곳들이 생겨 추가 모집 공고를 부랴부랴 내게 됐다"며 "사용자들이 (GPU) 자원이 필요하다고 신청해놓고, 막상 지원하려고 하니 '지금 단계에선 필요 없다'고 답변한 곳들이 있었다"고 말했다. 이어 "자원 할당한 후 안내 메일 보낼 때까지도 아무런 말이 없다가 갑자기 포기하는 사례가 발생해 우리 측에서도 당황스러운 상태"라며 "사용자가 없는데 (그냥 두고) 어떻게 할 수 없어서 모집 공고를 다시 내게 됐다"고 덧붙였다. 이번 일로 남게된 H100 물량은 310장 내외다. 사업 기간은 내년 1월부터 6월 30일까지로 ▲H100 1~4장을 선택할 수 있는 1트랙 사용자와 ▲GPU 8장 이상을 서버 단위로 지원받는 2트랙 사용자를 선별한다. 일단 신청은 H100을 기준으로 신청하지만, H100 1장당 A100 4장 또는 H200 1장당으로 향후 환산해 배정된다. 당초 정부는 올해 말까지 AI 연구·개발 연산 인프라를 확대하기 위해 정부 추경 예산을 바탕으로 이 사업을 추진해왔다. 사업 공급사로는 삼성SDS·KT클라우드·엘리스클라우드 등 3개사를 이미 선정한 상태였다. 삼성SDS와 엘리스클라우드는 각각 H100 GPU 200장과 400장을, KT클라우드는 H200 GPU 400장 수준을 공급키로 했다. 이전까지는 사용자당 H100 GPU 2장 수준을 제공하던 방식이었으나, 올해는 과제 단위로 수백 장 규모 GPU를 묶어 지원한다는 점에서 업계의 많은 관심을 받았다. 그간 글로벌 초거대 AI 경쟁 속에서 연산 인프라 부족이 국내 연구·개발의 발목을 잡고 있다는 지적이 일자 정부가 전폭적으로 지원에 나섰기 때문이다. 업계 관계자는 "세계 주요 국가들은 이미 대규모 GPU 자원을 기반으로 초거대 모델을 개발 중이지만, 국내는 민간·공공 연구조직 모두 자원 확보가 어렵다는 지적이 꾸준히 제기돼 왔다"며 "이 탓에 정부가 국내 AI 산업 경쟁력을 강화시키고자, 민간 클라우드 기업을 통해 연구자들에게 안정적이고 대규모의 GPU 환경을 산학연에 제공하고자 한 것"이라고 설명했다. 하지만 이번에 GPU 지원 포기자들이 속출하면서 정부의 노력은 헛수고가 됐다. 또 심사 과정에서 제대로 된 사업자들을 걸러내지 못했다는 점에서 비판의 목소리도 나온다. 더불어 정작 현장의 기술적 준비 수준이 매우 낮은 상황에서 고성능 GPU를 쓰는 것이 의미가 없다는 사실이 고스란히 드러났다는 분석도 있다. 업계 관계자는 "국내 AI 연구·산업의 격차가 이번에 여실히 드러난 것"이라며 "일부 선도 기관이나 기업은 H100급 GPU를 필요로 하지만, 다수는 아직 모델 최적화나 대규모 학습 수준에 도달하지 못한 상태로 볼 수 있다"고 말했다. 이어 "인프라보다 인력·소프트웨어 생태계·데이터 파이프라인이 병목이라는 현실이 드러난 듯 해 안타깝다"며 "최신 GPU 확보에만 혈안돼 정부가 현실을 제대로 보고 있지 못한 사례로 보여진다"고 덧붙였다. 이 같은 상황에서 현재 정부가 AI 인프라 투자를 위해 관련 예산을 크게 늘리고 최첨단 GPU 확보에 사활을 걸고 있다는 점도 우려되는 부분이다. 이재명 정부는 'AI 3대 강국(AI G3)'을 목표로 AI 관련 내년 예산안 규모를 올해보다 80% 가까이 늘린 10조1천398억원으로 책정했다. 앞서 두 차례 단행된 추가경정예산(추경)을 포함해 올해 AI 예산은 5조6천567억원이다. 이 대통령은 지난 4일 국회에서 열린 시정연설을 통해 "농경 사회에서 산업 사회로, 산업 사회에서 정보 사회로 전환해 왔던 것처럼 AI 사회로의 전환은 필연"이라며 "'AI 3대 강국' 도약을 위한 대전환에 10조1천억원을 편성했다"고 재차 강조했다. 이 중 내년 AI 예산에서 첨단 GPU 확보 예산으로 2조1천87억원을 배정했다는 점에서 우려된다. 이 대통령은 GPU 1만5천 장을 추가 구매해 정부 목표인 3만5천 장을 조기 확보할 것이라고 공언한 상태다. 여기에 정부는 엔비디아에서 GPU 26만 장을 한국에 공급키로 했다는 점에서도 기대감을 키우고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 지난 달 말 '아시아태평양경제협력체(APEC) 정상회의 및 CEO 서밋'을 계기로 방한 해 한국 정부 및 기업에 26만 장을 공급하겠다고 밝힌 바 있다. 정부가 확보한 GPU는 5만 장이다. 업계 관계자는 "다른 클라우드 업체들도 H100 등 고성능 GPU를 확보해 기업, 연구기관 등에 제공하고 있지만, 실제 가동률은 절반도 못미치는 수준"이라며 "정부가 GPU만 바라보느라 인재 확보나 양질의 데이터 제공, 사용자 관점에 입각한 AI 규제 마련 등에는 상대적으로 정책이 부실하다"고 꼬집었다. 이어 "질 좋은 하드웨어는 갖다 놨지만, 현재 상태로는 공장에다 사람 없이 장비만 사다 놓고 내버려 두는 꼴"이라며 "기술력, 인재 없이 첨단 GPU만 우리나라가 구입한다고 경쟁적으로 나서는 것은 결국 GPU 공급사인 엔비디아에게만 좋은 것"이라고 덧붙였다.

2025.11.07 16:22장유미

HD현대重, 4689억원 규모 장보고-Ⅱ 성능개량사업 수주

HD현대중공업이 잠수함 성능개량 체계개발 사업을 수주하며 잠수함 분야 축적된 기술력을 인정받게 됐다. HD현대중공업은 방위사업청과 4천689억원 규모 장보고-Ⅱ(214급) 잠수함 3척에 대한 성능개량 체계개발사업 계약을 체결했다고 30일 밝혔다. 이번에 수주한 성능개량 사업은 10년 이상 노후된 장보고-Ⅱ 잠수함 9척 가운데 3척이다. 전투체계, 예인선배열 소나, 기뢰회피 소나, 부이형 안테나 등* 핵심 장비를 최신형으로 교체한다. HD현대중공업은 앞서 장보고-Ⅰ(209급) 잠수함 성능개량을 수행한 LIG넥스원과 협력해 2033년까지 성능개량을 완료할 계획이다. 214급(배수량 1천800톤급) 잠수함은 2007년부터 2020년까지 순차적으로 실전배치된 대한민국 해군의 주력 잠수함이다. HD현대중공업은 독일 외 국가에서는 처음으로 공기불요장치(AIP)가 적용된 214급 잠수함의 선도함인 '손원일함'을 포함해 총 9척 가운데 6척을 건조했다. HD현대중공업은 HD현대미포와의 합병을 추진하고 있다. 이를 통해 특수선 사업 역량을 한층 강화해 향후 함정 사업 분야 경쟁력을 크게 제고할 계획이다. 주원호 HD현대중공업 함정·중형선사업부 사장은 “이번 잠수함 성능개량 체계개발 사업 수주는 HD현대중공업의 잠수함 분야 축적된 노하우와 경쟁력을 인정받았다는 데 큰 의미가 있다”며 “214급 장보고-Ⅱ 잠수함을 장보고-Ⅲ급 수준의 첨단 잠수함으로 업그레이드해 대한민국 해양안보 핵심 전력으로서의 위상을 공고히 하는데 이바지할 것”이라고 말했다. HD현대중공업은 지난해 1월 착수한 장보고-Ⅱ 잠수함 '윤봉길함'의 창정비를 계약일보다 35일 앞당겨 지난 6월 조기 인도한 바 있다. 또한, 美 해군 7함대 소속의 4만1천톤급 화물보급함 'USNS 앨런 셰퍼드'함의 정기 정비 사업을 지난달부터 수행하는 등 함정 유지보수(MRO) 분야를 선도하고 있다.

2025.10.30 12:48류은주

SK하이닉스, AI 낸드 제품군 확장…성능·대역폭·용량 다 잡는다

SK하이닉스는 지난 13~16일(현지시간) 미국 캘리포니아주 새너제이(San Jose)에서 진행된 '2025 OCP(오픈 컴퓨트 프로젝트) 글로벌 서밋' 행사에 참가해 차세대 낸드 스토리지 제품 전략을 발표했다고 27일 밝혔다. SK하이닉스는 "AI 추론 시장이 급성장하면서 많은 데이터를 신속하고 효율적으로 처리할 수 있는 낸드 스토리지 제품 수요가 크게 확대되고 있다"며 "이에 당사는 'AIN(에이아이엔, AI-NAND) 패밀리' 라인업을 구축해 AI 시대에 최적화된 솔루션 제품으로 고객들의 수요를 충족시키겠다"고 말했다. SK하이닉스는 행사 둘째 날 진행된 이그제큐티브 세션에 김천성 부사장(eSSD Product Development 담당)이 발표자로 나서 AIN 패밀리를 소개했다. AIN 패밀리는 성능, 대역폭, 용량 세 가지 측면에서 각각 최적화된 낸드 솔루션 제품들로, 데이터 처리 속도 향상과 저장 용량 극대화를 구현한 제품군이다. AIN P(Performance)는 대규모 AI 추론 환경에서 발생하는 방대한 데이터 입출력을 효율적으로 처리하는 솔루션이다. AI 연산과 스토리지 간 병목 현상을 최소화해 처리 속도와 에너지 효율을 대폭 향상시킨다. 이를 위해 회사는 낸드와 컨트롤러를 새로운 구조로 설계 중이며, 2026년말 샘플 출시 계획이다. 이와 달리 AIN D(Density)는 저전력, 저비용으로 대용량 데이터를 저장하는데 초점을 맞춘 고용량 솔루션으로 AI 데이터 보관에 적합하다. 기존 QLC(쿼드레벨셀) 기반 TB(테라바이트)급 SSD보다 용량을 최대 PB(페타바이트)급으로 높이고, SSD의 속도와 HDD의 경제성을 동시에 구현한 중간 계층 스토리지를 목표로 하고 있다. 마지막으로 AIN B(Bandwidth)는 낸드를 적층해 대역폭을 확대한 솔루션이다. 이는 'HBFTM'로 불리는 기술을 적용한 회사의 제품명이다. HBF은 디램을 적층해 만든 HBM과 유사하게 낸드 플래시를 적층해서 만든 제품을 뜻한다. 글로벌 최고 수준의 HBM 개발, 생산 역량을 보유한 SK하이닉스는 AI 추론 확대, LLM* 대형화에 따른 메모리 용량 부족 문제를 해결하기 위해 일찍부터 AIN B 연구에 착수했다. 대용량, 저비용의 낸드에 HBM 적층 구조를 결합한 것이 핵심이다. 회사는 AIN B를 HBM과 함께 배치해 용량 문제를 보완하는 구조 등 다양한 활용 방안을 검토하고 있다. SK하이닉스는 AIN B 생태계 확대를 위해 지난 8월 HBF 표준화 양해각서(MOU)를 체결한 미국 샌디스크와 함께 14일 저녁 OCP 행사장 인근 과학 기술 센터(The Tech Interactive)에서 글로벌 빅테크 관계자들을 초청해 'HBF 나이트(Night)'를 열었다. 국내외 교수진이 참가해 패널 토의로 진행된 이날 행사에는 수십여 명의 업계 주요 아키텍트(시스템 설계 전문가)와 기술진들이 참석했다. 이 곳에서 회사는 낸드 스토리지 제품 혁신을 가속화하기 위한 업계 차원의 협력을 제안했다. 안현 SK하이닉스 개발총괄 사장(CDO)은 “이번 OCP 글로벌 서밋과 HBF 나이트를 통해 AI 중심으로 급변하는 시장 환경에서 '글로벌 AI 메모리 솔루션 프로바이더'로 성장한 SK하이닉스의 현재와 미래를 선보일 수 있었다”며 “차세대 낸드 스토리지에서도 고객과 다양한 파트너와 협력해 AI 메모리 시장의 핵심 플레이어로 올라설 수 있도록 할 것”이라고 말했다.

2025.10.27 08:59장경윤

시큐아이 "사이버 위협 AI가 대응한다…방화벽도 성능 향상"

시큐아이(대표 정삼용)가 플래그십 컨퍼런스인 '시큐아이 맥스 서밋(SECUI MAX SUMMIT) 2025'을 개최하며 고성능 프리미엄급 방화벽, 고성능·지능형 ZTNA(제로트러스트 기반 네트워크 접근) 방화벽 등 신제품을 소개했다. 시큐아이는 23일서울 중구 웨스틴조선호텔에서 플래그십 컨퍼런스인 '시큐아이 맥스 서밋 2025' 개최 전 기자간담회를 개최했다. 시큐아이 맥스 서밋은 시큐아이가 최상위 수준의 보안 역량과 기술 비전을 선보이는 컨퍼런스다. 올해는 'Maximize your Security'를 주제로 진행됐다. 이날 기자간담회에서 정삼용 시큐아이 대표는 "시큐아이는 지난 14년 동안 네트워크 보안 분야에서 국내 1위를 유지하고 있고, 치열한 글로벌 보안 시장에서도 선전하고 있다"면서 "시큐아이는 고성능, 통합, 그리고 인공지능(AI)라는 3가지 테마를 중심으로 제품을 계속 발전시켜 나갈 것"이라고 밝혔다. 정 대표는 "구체적으로 시큐아이는 고성능 하드웨어가 탑재된 'BLUEMAX NGF PRO'와 AI 기반 통합 위협 대응 플랫폼을 기반으로 보안의 풀 스택(Full Stack) 을 완비하고 이를 지속적으로 고도화해 고객의 보안성을 극대화할 것"이라고 강조했다. "위협 인텔리전스의 자동화" 시큐아이 'TARP' 이날 시큐아이는 자체 TI(위협 인텔리전스) 플랫폼인 'STIC'과 연동되는 'TARP' 플랫폼에 대해 소개했다. TARP는 네트워크, 엔드포인트, 서버 등 다양한 보안 영역의 위협을 AI 기반으로 자동 분석 및 대응하는 통합 위협 대응 플랫폼이다. STIC이 국내 최대 규모의 TI를 확보하고 있는 만큼, 이와 연계한 TARP 플랫폼을 통해 사이버 위협 대응 역량을 강화하겠다는 복안으로 풀이된다. 김형동 시큐아이 보안서비스실장은 "최근 해커들이 AI와 관련된 기술을 적극적으로 활용하기 시작하면서 최근 보안 사고들이 빈번해지고 있다"면서 "이러한 보안 위협에 대응하기 위해서는 보안 솔루션, TI, 위협 대응 플랫폼 관제 등 3가지 축이 핵심"이라고 설명했다. 김 실장은 "다만 가장 큰 문제는 제로데이 취약점 공격 등과 같은 기존의 TI만으로는 대응하기 어려운 공격에 대처하기 어렵다는 점"이라며 "시큐아이의 STIC은 악성파익 8억건, 악성 URL 3천만건 등 최대 규모의 TI를 보유하고 있고, 다크웹 모니터링도 진행 중"이라고 밝혔다. 김 실장 발표에 따르면 스틱은 위협 정보 수집, 알려지지 않는 위협 탐지, 자연어 기반의 컨텍스트 등 핵심적인 요소로 구정되는데, 시큐아이는 각각의 요소별로 AI 기술을 적용해 수작업으로 이뤄지는 부분들을 자동화할 수 있는 방안을 TARP에 적용한 것으로 알려졌다. 김 실장은 "타프는 4세대 관제 시스템이라고 통칭되는 XDR로 확장 및 개발을 준비하고 있다"면서 "여러 IT 장비들의 로그를 복합적으로 수집해서 AI 기반의 행위 분석을 통해 자동화 대응을 하는 것이 핵심"이라고 말했다. 끝으로 그는 "해커들이 AI 기반의 창으로 공격을 감행하고 있다. 그렇다면 보안업계는 AI 방패를 사용해서 방어해야 한다"며 "시큐아이는 여러 보안 솔루션에 AI 기술을 접모했을뿐 아니라 유기적인 결합을 통해 보안 서비스를 제공하고 있기 때문에 새로운 보안 위협에도 충분히 대응할 수 있다고 판단된다"고 강조했다. 고성능·지능형·제로트러스트 방화벽 'BLUEMAX NGF PRO'…한계 넘었다 고성능·지능형 ZTNA 차세대 방화벽인 'BLUEMAX NGF PRO'에 대해서는 조원용 시큐아이 개발실장이 소개했다. BLUEMAX NGF PRO는 시큐아이가 자체 개발한 고성능 전용 프로세서를 탑재한 차세대 고성능 프리미엄 방화벽이다. 기존 제품 대비 최대 16배 이상의 성능을 갖춘 것으로 알려졌다. 조 실장은 "올해 상반기만 하더라도 침해사고가 1034건이 보고됐으며, 이 수치는 전년 대비 15%가 늘어난 것이다. 이런 추세라면 올해는 2200건이 넘을 것으로 예상되며, 이미 통신사나 금융권, 카드사, 인터넷 서비스 업체 등에서 정보 유출 사고들이 발생한 바 있다"고 진단하며 "이와 더불어 인터넷 트래픽도 증가하고 있고, 이 중에서도 암호화된 트래픽이 계속해서 늘어나고 있다. 최근 기업들의 AI, 클라우드 사용이 확대됨에 따라 외부에 있는 클라우드 서비스를 이용하게되고, 이런 트래픽들이 대부분 암호화돼 있다는 것"이라고 진단했다. 그는 "즉 네트워크 보안 장비들이 처리해야될 트래픽이나 복호화, 암호화 연산 등으로 인해 점점 더 해야 될 일들이 가중되고 있다는 것"이라며 "이에 점점 방화벽의 역할이 변화하고 있고, 기존 네트워크 보안 수준을 넘어 위험에 대해 대응할 수 있는 네트워크 시큐리티 플랫폼으로의 가장 코어 역할을 하고 있다"고 밝혔다. 조 실장은 "방화벽이 네트워크 보안의 코어 역할을 수행하기 위해서는 트래픽을 고속으로 처리할 수 있는 고속 패킷 처리 플랫폼을 기반으로 알려진 공격뿐 아니라 알려지지 않은 공격도 위험 분석 서비스와 연계해 대응할 수 있는 체계로의 변모가 필요하다"고 강조했다. 그는 시큐아이의 BLUEMAX NGF PRO는 보안 기능들은 컨트롤 플랜에서 동작하고, 고속 패킷 처리가 필요한 부분에 대해서는 각각의 전용 프로세서를 기반으로 오프로딩 처리하기 때문에 각각의 분야에서 분석과 대응에 있어 더욱 효율화했다고 밝혔다. 또한 알려지지 않은 신규 위협을 방화벽이 자체적으로 해결할 수 없기 때문에 이런 부분을 보완하고자 AI 기반의 위험 분석 서비스와 연계해 분석을 실행하고, 분석 결과를 토대로 방화벽이 대응할 수 있는 '지능형' 체계를 갖췄다고 설명했다. 또 단순 정책 기반의 트래픽 접근 허용 방식이 아니라 인사 정보와 연동해 올바른 사용자인지, 올바른 디바이스인지 확인하는 등 제로트러스트 기반의 방화벽임을 강조했다. 시큐아이에 따르면 BLUEMAX NGF PRO는 총 6개의 라인업이 현재 계획돼 있다. 우선 올해 연말 2종(레거시 1종, 차세대 1종)을 출시하고, 이후 단계적으로 출시할 예정인 신제품이다. 조 실장은 "시큐아이가 가진 강점을 기반으로 글로벌 시장으로 진출해 고성능 지능형 방화벽으로의 도약을 목표로 BLUEMAX NGF PRO를 구상했다"며 "향후에도 그 목표를 계속해서 개선하고 발전시키도록 하겠다"고 다짐했다.

2025.10.23 11:08김기찬

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"규제 사정권 밖이라지만"…AI 기본법 첫날, 책임 경계에 업계 '촉각'

'어쩔수가 없는' 자동화…사람 사라진 풀무원 공장 가보니

BTS 컴백 공연 광화문서 열린다...서울시, 조건부 허가

'AI기본법' 세계 첫 시행…KOSA, 정책 역할 확대로 존재감 ↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.