• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'【텔@ 𝗯𝘀𝗲𝗰𝗿𝗲𝘁𝟳】 몸캠피싱협박 협박할때 해결 몸캠피싱협박 협박할때 해결👨‍💼 몸캠피싱협박 협박할때 해결👨‍💼 몸캠피싱협박 협박할때 해결 몸캠피싱협박 협박할때 해결'통합검색 결과 입니다. (7082건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'양자 오류, AI로 해결한다'…엔비디아, '가속양자연구센터' 공개

엔비디아가 인공지능(AI) 슈퍼컴퓨터와 양자컴퓨팅을 통합한 차세대 가속 양자 슈퍼컴퓨터 개발에 나섰다. 고성능 AI 인프라를 활용해 양자 오류 수정과 하드웨어 개발을 지원함으로써 양자컴퓨팅 상용화를 앞당긴다는 전략이다. 엔비디아는 19일 GTC 글로벌 AI 컨퍼런스에서 '엔비디아 가속 양자 연구 센터(NVAQC)'를 공식 발표했다. NVAQC는 AI 슈퍼컴퓨팅과 양자 처리 장치(QPU)를 통합하는 하이브리드 양자컴퓨팅 센터다. 특정 계산의 경우 양자컴퓨터가 월등히 빠르지만 아직 오류가 많고 소프트웨어(SW) 등의 부족으로 단독 수행이 제한된다. 이에 AI 슈퍼컴퓨터를 통해 오류를 수정하고 계산 결과를 효율적으로 처리하기 위함이다. 이 센터는 엔비디아 GB200 NVL72 시스템과 엔비디아 퀀텀2 인피디밴드 네트워크 플랫폼을 기반으로 구축되며 총 576개의 엔비디아 블랙웰 GPU가 탑재됐다. 여기에 퀀티넘, 큐에라, 퀀텀머신 등 양자컴퓨팅 전문 기업의 양자프로세서(QPU)를 연결해 하이브리드 시스템을 구성한다. 또 NVAQC는 쿠다(CUDA)-Q 플랫폼을 기반으로, 양자 및 고전 컴퓨팅 간 빠른 전환과 컨텍스트 변경이 가능한 환경을 제공한다. 단일 애플리케이션 내에서 두 컴퓨팅 패러다임을 자유롭게 활용할 수 있으며, 새로운 양자 알고리즘 개발과 하이브리드 컴퓨팅 연구를 보다 효율적으로 수행할 수 있도록 지원한다. 엔비디아는 이를 통해 양자 오류 수정 및 디코딩, 양자 알고리즘 시뮬레이션, AI 기반 디코더 개발 등 실용적 양자 컴퓨팅 실현에 필요한 핵심 과제들을 해결해 나갈 방침이다. 엔비디아는 NVAQC를 통해 우선적으로 큐비트 오류 수정에 집중할 계획이다. 오류 수정은 양자 컴퓨팅의 실용화를 위해 해결해야 할 주요 과제 중 하나다. 문제는 오류 식별 및 수정 과정은 고난이도의 연산을 요구하며 일반적인 컴퓨터로는 실시간 대응이 어렵다는 것이다. 이에 따라 엔비디아는 NVAQC의 AI 슈퍼컴퓨팅을 활용해 디코딩 속도를 가속화하고 저지연, 병렬화, AI 기반 디코더를 엔비디아 GB200 그레이스 블랙웰 슈퍼칩 상에서 구현할 계획이다. 양자 컴퓨팅 기업 큐에라는 엔비디아와 협력해 새로운 오류 수정 코드를 개발하고, 복잡한 양자 회로 시뮬레이션을 통해 성능을 검증하는 프로젝트를 추진한다. 하버드 대학교 교수이자 하버드 양자 이니셔티브 공동 디렉터인 미하일 루킨 교수는 "NVAQC는 오류 수정 코드와 디코더를 발견, 검증, 개선하는 데 필수적인 도구로, 전체 산업이 실용적 양자 컴퓨팅에 한 걸음 더 다가갈 수 있도록 해줄 것"이라고 강조했다. 더불어 양자컴퓨터와 기존 컴퓨팅 인프라의 통합으로 양자컴퓨팅 상용화 가속에 나선다. 엔비디아와 협력 중인 퀀텀머신은 수백만 큐비트 데이터를 초저지연, 고대역폭으로 처리할 수 있도록 GB200 슈퍼칩과 QPU 간 고속 인터페이스 구현에 나선다. 엔비디아는 DGX 퀀텀 시스템과 쿠다-Q를 중심으로 NVAQC를 차세대 양자 컴퓨팅 혁신의 중심지로 육성한다는 계획이다. 이를 통해 실용적 양자 컴퓨터 구현을 위한 기반을 구축한다는 방침이다. 티모시 코스타 엔비디아 컴퓨터 지원 공학, 양자 및 쿠다-X 부문 수석 디렉터는 "NVAQC는 차세대 양자 장치로의 확장을 지원하는 오랫동안 기다려온 도구를 제공할 것"이라며 "양자 하드웨어와의 긴밀한 통합을 통해 AI 모델의 학습 및 배포, 양자 시뮬레이션이 가능한 공간으로서 중요한 역할을 하게 될 것"이라고 밝혔다.

2025.03.19 10:31남혁우

지코어-미란티스, AI 모델 배포 효율성 강화 협력

지코어가 인공지능(AI) 추론 워크로드 배포 효율성을 높이기에 나섰다. 지코어가 오는 21일까지 미국 새너자이에서 열리는 AI 컨퍼런스 'GTC 2025'에서 미란티스와 협력한다고 19일 밝혔다. 이번 협력은 지코어의 AI 추론 솔루션 '에브리웨어 인퍼런스'를 미란티스의 오픈소스 플랫폼 관리 솔루션 '코어던트'에 통합하는 것이 핵심이다. 코어던트는 멀티 클라우드·하이브리드 환경에서 인프라 운영을 지원하는 솔루션이다. 이번 통합으로 기업은 그래픽처리장치(GPU) 등 컴퓨팅 자원을 최적화하고 AI 모델 배포를 간소화할 수 있다. 또 성능 모니터링과 비용 관리 기능이 향상되며, 지역별 데이터 주권 규정 준수도 용이해진다. AI 모델은 클라우드뿐만 아니라 온프레미스, 하이브리드, 엣지 환경에서도 배포 가능해졌다. 기업은 이를 활용해 대규모 AI 추론을 신속하게 운영할 수 있다. 알렉스 프리들랜드 미란티스 최고경영자(CEO)는 "오픈소스 기술은 글로벌 인프라 운영의 자율성과 제어권을 유지하는 데 중요한 역할을 한다"며 "지코어와의 협력으로 머신러닝 운영(MLOps)과 플랫폼 엔지니어가 직면한 문제 해결이 더욱 가속화될 것"이라고 말했다. 지코어 세바 베이너 엣지 클라우드·AI 제품 디렉터는 "이번 협력은 AI 추론 과정에서 발생하는 문제를 해결하기 위한 것"이라며 "기업이 AI 프로젝트를 보다 신속하게 시장에 출시하고 투자대비수익률(ROI)를 개선하는 데 기여할 것"이라고 밝혔다. 미쉬 스트로츠 렛츠AI CEO는 "기존 AI 모델 배포에는 많은 시간과 리소스가 필요했다"며 "이번 협력으로 몇 번의 클릭만으로 모델을 배포하고, 새로운 GPU도 몇 시간 내에 온보딩할 수 있어 생산성이 크게 향상될 것"이라고 평가했다.

2025.03.19 10:26김미정

천재교육이 제시하는 '수친자'되기 위한 학습법은

올해 중학교 1학년부터 적용된 2022개정 교육과정 중 수학 영역에 학생들이 변화에 잘 적응하기 위해 천재교육이 자사 교재를 활용한 학습법을 19일 제시했다. 천재교육은 초중등 수학의 영역이 통일된 2022개정 교육과정에서는 '수와 연산, 변화와 관계, 도형과 측정, 자료와 가능성' 네 개의 영역으로 통합됐다고 설명했다. 이는 교과 과정을 단순화하고 초중등 수학 교과의 학년별 연결성과 위계성을 강화하기 위함이다. 또, 다수의 학생들이 공통적을 어려워하는 부분은 삭제하고 전체적인 수학 교육 흐름상 필요한 부분으로 추가하는 방향으로 변화됐다고 덧붙였다. 단순 문제 풀이가 아닌 구조적 이해에 기반한 수학 공부의 필요성 강조하고 있는 것이다. 핵심 개념 학습을 강화하고, 융합적 사고력과 문제 해결 능력을 키우는 것을 목표로 하기 위해서다. 또한, 데이터 분석과 AI 활용 능력을 배양해 수학을 실생활과 연결하는 학습 환경을 조성한다. 특히, 기존 중학교 수학에 포함됐던 일부 고난도 개념이 고등학교 과정으로 이동하면서 기하 증명의 간소화, 이차방정식 및 무리수 연산 축소 등 난이도 조정이 이뤄졌다는 설명이다. 반면, 확률, 통계 등 실생활과 밀접한 개념이 강조되며 개념 중심 학습의 중요성이 더욱 커졌다. 성취 기준도 기존 '이해한다' 또는 '해결할 수 있다'에서 '설명할 수 있다'로 변경돼, 단순한 문제 풀이보다 개념을 깊이 이해하고 이를 실생활에 적용하는 능력이 요구된다. 회사 측에 따르면 2022 개정 교육과정에 따라 중학교 1학년 수학의 단원 구성과 학습 내용도 변화했다. 예를 들어, 기존 중학교 3학년 과정이었던 '대푯값' 개념이 1학년으로 이동하면서 중앙값, 최빈값 등을 조기에 학습하게 됐다. 이에 따라 새로 접하는 개념을 정확히 이해하고 다양한 문제에 적용해보는 연습이 필요하다 . 과거에는 정답을 맞히는 것이 중요했다면, 이제는 문제 해결 과정을 평가하기 때문에 어떻게 문제를 해결했는지 논리와 사고 과정을 꼼꼼히 점검하는 것도 필수가 됐다. 정해진 풀이법을 기계적으로 따르는 것이 아니라, 다양한 접근 방식을 고민하고 같은 문제라도 여러 시각에서 분석하며 풀어보는 것이 중요하다. 회사는 새로운 교육과정에 맞춰 수학 개념을 탄탄하게 다지고 실력을 단계적으로 높이려면 적절한 학습 도구가 필요하다고 강조했다. 천재교육의 '체크체크' 시리즈는 개념 학습부터 문제 적용까지 체계적으로 구성된 교재로, 개정 교육과정의 핵심 내용을 반영해 학습 효과를 극대화했다. '체크체크 베이직'은 개념을 짧고 쉽게 이해할 수 있도록 세분화한 기초 개념서다. 개정 교육과정에서 강조하는 개념 중심 학습과 단계별 이해 과정을 충실히 반영해, 수학을 처음 접하는 학생이나 개념 이해에 어려움을 느끼는 학생도 부담 없이 학습할 수 있도록 구성됐다. 개념 설명 후 즉시 적용할 수 있는 연습 문제를 제공해 자연스럽게 개념을 익히도록 돕는다. '체크체크 수학'은 개정 교육과정에서 강조하는 '설명할 수 있는 학습'을 반영해 개념 학습과 반복 연습을 통해 기본기를 다지고, 내신 대비까지 할 수 있도록 구성됐다. 개념을 시각적으로 정리해 학습 부담을 줄이는 한편, 개념 학습 직후 확인 문제를 제공해 학습 내용을 점검할 수 있다. 기출문제, 중단원 문제, 서술형 문제, 창의융합 문제 등 다양한 유형의 문제를 포함해 새로운 교육과정이 강조하는 창의력과 문제 해결력을 기르는 데 효과적이다. 특히, 개념을 실생활과 연결하는 문제를 강화해 학생들이 배운 내용을 실제 상황에서 적용할 수 있도록 구성됐다. 천재교육 중고등수학부문 마영희부문장은 “새로운 교육과정에서는 단순한 연산을 넘어 개념의 원리를 이해하고 문제 해결 과정을 중시하는 학습이 요구된다”며 “체계적으로 구성된 교재를 활용하면 학생들이 수학을 보다 친숙하게 받아들이고 꾸준한 학습 습관을 기를 수 있을 것”이라고 말했다.

2025.03.19 08:52안희정

웨카, 엔비디아 통합 및 인증 확대… GTC 2025에서 Augmented Memory Grid 공개

NVIDIA AI Data Platform으로 AI 추론 가속화와 함께 엔비디아 클라우드 파트너 및 엔터프라이즈 배포를 위한 새로운 스토리지 인증 획득 캘리포니아주 새너제이 및 캠벨, 2025년 3월 19일 /PRNewswire/ -- AI 네이티브 데이터 플랫폼 회사인 웨카(WEKA)가 미국 캘리포니아주 새너제이에서 열리고 있는 GTC 2025에서 NVIDIA AI Data Platform 레퍼런스 디자인과의 통합을 발표했다. 이와 더불어 웨카는 에이전틱 AI(Agentic AI)와 추론 모델의 미래를 대비해 최적화된 AI 인프라를 제공할 목적으로 엔비디아 스토리지 인증도 획득했다. 더불어 웨카는 NVIDIA GB200 NVL72를 사용하는 NVIDIA Cloud Partner(NCP) Reference Architecture에 대한 새로운 인증과 엔비디아 NVIDIA Enterprise Reference Architecture를 사용하는 엔터프라이즈 AI 공장에 배포하기 위한 NVIDIA-Certified System™ Storage 지정을 발표했다. Optimizing AI Infrastructure for the Future of Agentic AI 웨카는 또한 WEKA Data Platform 소프트웨어를 엔비디아의 가속 컴퓨팅, 네트워킹, 엔터프라이즈 소프트웨어와 통합해 AI 추론 속도를 높이고, 초당 처리되는 토큰 수를 극대화해 토큰의 효율성을 획기적으로 향상시키는 새로운 Augmented Memory Grid™ 기능을 공개했다. 웨카의 고성능 스토리지로 AI 에이전트 성능 강화NVIDIA AI Data Platform은 에이전틱 AI 시대를 위한 기업 인프라를 재정의하고 있다. NVIDIA Blackwell 플랫폼, NVIDIA BlueField® DPU, NVIDIA Spectrum-X™ 네트워킹, NVIDIA AI Enterprise 소프트웨어를 기업용 스토리지와 통합해 데이터를 실행 가능한 인텔리전스로 변환하는 맞춤형 레퍼런스 디자인을 제공한다. 이제 기업들은 WEKA Data Platform 소프트웨어로 NVIDIA AI Data Platform의 이점을 활용해 AI 쿼리 에이전트를 비즈니스 지식에 연결하고, 복잡한 추론에 대해 최고의 AI 추론 성능과 더 높은 정확도를 보여주는, 대규모 확장이 가능한 엔터프라이즈 AI용 고성능 파운데이션을 생성할 수 있다. WEKA Augmented Memory Grid로 AI 메모리 장벽을 깨다AI 에이전트의 자율적 의사 결정, 복잡한 문제 해결, 적응형 학습 기능을 계속 확장함에 따라 더 긴 컨텍스트 창을 지원할 수 있는 AI 인프라의 필요성이 확대되면서, 모델의 매개 변수가 증가하고, 시스템 메모리 요구 사항이 증가하고 있다. WEKA Augmented Memory Grid를 사용하는 AI 모델은 1테라바이트로 고정된 오늘날의 용량 증가량 대신 테라바이트의 세 자릿수 크기인 페타바이트로 용량을 추가해 대규모 모델 추론에 맞게 메모리를 확장할 수 있다. 이와 동시에 WEKA Augmented Memory Grid는 마이크로초 수준의 지연이란 메모리 속도에 가까운 성능으로 더 빠른 토큰 처리가 가능해 전례 없는 추론 결과를 얻을 수 있다. 주요 이점은 다음과 같다. 첫 번째 토큰 도달 시간 극적으로 단축: 10만 5000개의 토큰을 처리할 때 WEKA Augmented Memory Grid는 프리필(prefill) 컨텍스트를 재계산하는 시간 대비 첫 번째 토큰 도달 시간을 41배 단축했다. 토큰 처리 최적화: 추론 클러스터는 클러스터 전체에서 더 높은 토큰 처리량을 달성할 수 있고, 전체 추론 시스템의 토큰 처리 비용을 최대 24%까지 낮출 수 있다. 새로운 엔비디아 스토리지 인증으로 엔터프라이즈 AI 혁신 앞당겨 WEKApod™ Nitro Data Platform Appliance는 NVIDIA HGX H200, B200, GB200 NVL72를 통해 NVIDIA Cloud Partner(NCP) 배포를 위한 최초의 고성능 스토리지 솔루션 중 하나로 인증을 받음으로써 AI 개발자와 혁신가를 위한 NCP 제공업체의 인프라 서비스를 강화한다. WEKApod 어플라이언스는 고성능 밀도와 전력 효율성을 제공해, 단일 8U 엔트리 레벨 구성으로 최대 1152개의 GPU를 지원할 수 있다. WEKApod™ Nitro 어플라이언스는 NVIDIA-Certified System을 갖춘 NVIDIA Enterprise Reference Architecture 지침에 따라 AI 공장을 구축하는 기업을 위한 새로운 NVIDIA-Certified Systems Storage 지정을 획득했다. 이 인증은 WEKA Data Platform이 엔비디아의 우수 사례와 호환되어 광범위한 엔터프라이즈 AI와 HPC 워크로드를 위해 최적의 스토리지 성능과 효율성 및 확장성을 보장한다는 것을 입증해준다. 나일레쉬 파텔(Nilesh Patel) 웨카 최고제품책임자(CPO)는 "웨카는 엔비디아와의 협력을 통해 NVIDIA AI Data Platform을 가진 조직에 고성능 AI 스토리지 솔루션을 제공함으로써 AI 혁신을 억제하고 모델의 성능과 인프라 효율성을 저하시키는 데이터 문제를 해결하고 있다"면서 "음속 장벽 돌파가 항공우주 혁신에 새로운 지평을 열었듯이 WEKA Augmented Memory Grid는 AI 메모리 장벽을 허물고, GPU 메모리를 확장하고, NVIDIA AI Data Platform 전반에 걸쳐 토큰의 효율성을 최적화하고 있다. 이러한 혁신은 AI 토큰 경제를 변화시켜 성능 저하 없이도 더 낮은 비용으로 더 빠른 혁신을 이루게 해줄 것이다"라고 덧붙였다. 롭 데이비스(Rob Davis) 엔비디아 스토리지 네트워킹 기술 담당 부사장은 "에이전틱 AI와 추론 모델의 힘을 활용하려는 기업이 이처럼 까다로운 워크로드를 처리하려면 전례 없는 효율성과 확장성이 필요하다"면서 "엔비디아와 웨카의 기술을 합치면 AI 에이전트가 추론 과정에서 최첨단 속도와 정확성으로 데이터에 액세스하고 데이터를 처리할 수 있다"고 말했다. 제공 시기 NVIDIA Blackwell 시스템용 웨카의 NCP 레퍼런스 아키텍처는 이달 말 말부터 판매된다. WEKA Augmented Memory Grid 기능은 2025년 봄에 WEKA Data Platform 고객에게 제공될 예정이다. 추가 정보 블로그 참조: 새로운 Augmented Memory Grid, AI 추론 인프라 경제학에 혁명 일으켜 웨카, NVIDIA Blackwell 및 웨카와 함께 AI 추론의 잠재력 발휘 엔비디아 GTC 2025 방문객은 GTC 엑스포 홀에 있는 웨카 부스를 방문하면 새로운 WEKA Augmented Memory Grid 기능을 시연해 볼 수 있다. 고객 추천사 투게더 AI(Together AI) 처장(Ce Zhang) 투게더 AI 최고기술책임자(CTO)는 "투게더 AI에는 속도와 효율성에 집착한다. 그래서 업계에서 가장 빠른 추론 속도를 제공하는 Together Interference Engine을 구축했다. 웨카의 Augmented Memory Grid 기능을 활용해 프롬프트 캐싱(prompt caching)에 소요되는 시간을 줄이고 여러 노드에서 이 캐시를 활용하는 유연성을 개선해 지연 시간을 줄이고 투게더 AI를 기반으로 모델을 구축하는 50만 명이 넘는 AI 개발자에게 혜택을 제공할 수 있게 되어 기쁘다"고 말했다. 요타 데이터 서비시즈(Yotta Data Services)엔비디아 클라우드 파트너인 요타 데이터 서비시즈의 공동 설립자 겸 전무이사인 서닐 굽타(Sunil Gupta) CEO는 "WEKA Data Platform은 인도에서 가장 빠른 AI 슈퍼컴퓨팅 플랫폼인 Yotta Shakti Supercloud의 성능과 확장성을 향상시키는 데 핵심적인 역할을 한다. 웨카의 혁신적인 Augmented Memory Grid 기능과 NVIDIA Blackwell 배포를 위한 고성능 데이터 저장소 인증은 클라우드 규모에서 AI의 효율성을 향상시킨다. 웨카는 GPU 메모리를 확장하고 Shakti Supercloud 제품군 전체에서 활용도를 극대화함으로써 AI 성능 향상, 더 빠른 추론, 더 나은 비용 효율성을 제공할 수 있도록 지원한다"고 말했다. 웨카 소개웨카는 AI 시대를 위해 구축된 기업 데이터 스택에 대한 새로운 방식을 설계하고 있다. WEKA® Data Platform은 클라우드와 어디에나 설치할 수 있는 AI 기반 아키텍처가 갖춰진 AI 인프라의 표준을 설정해 온-프레미스와 클라우드 및 엣지 환경에서 데이터의 원활한 이동을 보장한다. 이 플랫폼은 종래의 데이터 사일로를 GPU, AI 모델 트레이닝과 추론 그리고 기타 성능 집약적인 워크로드를 가속하는 동적 데이터 파이프라인으로 변환해 보다 작업 효율성 상승, 에너지 소비 감소, 관련 탄소 배출 저하를 유도한다. 웨카는 전 세계에서 가장 혁신적인 기업과 연구 조직들이 복잡한 데이터 문제를 해결해 더욱 신속하고 지속 가능한 방식으로 발견, 통찰, 결과에 도달할 수 있도록 지원하고 있으며, 여기에는 포춘 50대 기업 중 12개가 포함되어 있다. www.weka.io를 더 자세한 정보를 확인하거나, 링크드인과 엑스(X)를 통해 웨카와 연결하기 바란다. 웨카와 웨카 로고는 웨카아이오 주식회사(WekaIO, Inc.)의 등록상표이다. 여기에서 사용된 기타 트레이드 명칭들은 각 소유자의 상표일 수 있다. 사진 - https://mma.prnasia.com/media2/2643877/PR_WEKA_NVIDIA_GTC2025.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo.jpg?p=medium600

2025.03.19 07:10글로벌뉴스

"AI 에이전트 시대 주도"…엔비디아, 추론 강화 돕는 SW 공개

엔비디아가 인공지능(AI) 에이전트 시대 본격화를 위한 기술 로드맵을 공개했다. AI 에이전트 개발·유지에 필요한 소프트웨어(SW) 기술을 비롯한 오픈소스 추론 모델 시리즈, 기업용 AI 워크플로 솔루션까지 잇따라 선보였다. 엔비디아는 17~21일까지(현지시간) 미국 새너제이에서 열리는 개발자 회의 'GTC 2025' 미디어 프리브리핑에서 AI 에이전트 개발·추론 강화에 필요한 SW 기술을 공개했다. 이를 통해 AI 에이전트 기술 생태계를 선점하고 기업용 AI 시장에서 주도권을 확보 하려는 전략이다. 이번에 발표할 주요 SW 제품으로는 AI 추론 모델 성능 강화를 돕는 '엔비디아 다이나모(NVIDIA Dynamo)'와 오픈소스 모델 '라마 네모트톤(Llama Nemotron)' 시리즈, '엔비디아 IQ 블루프린트'다. 엔비디아는 해당 제품 모두 AI 에이전트 구축 필수 요소로 자리잡을 것이라 재차 강조했다. '엔비디아 다이나모'로 AI 모델 추론 강화 이번 행사에서 엔비디아는 '엔비디아 다이나모'를 발표한다. 엔비디아 다니어모는 대규모 AI 추론 모델 성능을 올리는 오픈소스 소프트웨어(SW)다. 엔비디아 다이나모는 전체 데이터센터에서 분산·분해 방식으로 작동한다. 분산 방식은 하나의 AI 작업을 여러 개 GPU로 나눠 동시 처리하는 식이다. 기존에는 단일 GPU가 연산을 수행하는 방식이었다면, 다이나모는 동일 작업을 여러 GPU가 협력해 처리하도록 설계됐다. 이를 통해 대량 데이터를 더 빠르고 효율적으로 분석할 수 있다는 설명이다. 엔비디아는 다이나모 분해 방식도 핵심 요소로 꼽았다. 이 방식은 AI 모델이 하나의 질문을 받으면 이를 작은 단위로 쪼개 여러 GPU에 나눠 연산을 수행한다. 이후 최종 결과를 합치는 식이다. 이는 GPU 간 연산 부담을 줄이고 처리 속도를 높일 수 있다. 특히 데이터센터 내 수백~수천 개 GPU가 동시에 운영될 경우, 다이나모 최적화 기술이 GPU 성능 향상을 극대화할 수 있다. 다이나모는 해당 작동방식에 기반해 쿼리 하나를 최대 1천개 그래픽장치(GPU)로 확장할 수 있도록 설계됐다. 기존 방식보다 GPU 활용도를 높여 동일 개수의 GPU로도 처리량을 두 배까지 늘릴 수 있다. AI 모델이 데이터 처리하는 속도가 늘면 자연스럽게 비용 절감 효과와 처리 가능한 데이터 양도 는다. 향후 AI 기반 서비스 운영 효율성을 높이는 핵심 요소로 작용할 전망이다. 여기에 엔비디아의 최신 GPU 네트워크 기술 'NY링크'를 결합하면 성능 향상 폭이 더욱 커진다. NY링크는 GPU 간 데이터 전송 속도를 높이는 기술이다. AI 모델 연산 과정에서 병목현상을 줄이는 역할을 한다. 이를 통해 같은 개수의 GPU를 사용하면서도 최대 30배까지 처리 성능을 끌어올릴 수 있다. 이 외에도 다이나모는 파이토치(PyTorch)를 비롯한 텐서RT, sglang 등 다양한 AI 프레임워크와 호환되는 개방형 아키텍처를 지원한다. 이를 통해 기존 AI 모델을 변경하지 않고도 성능을 개선할 수 있다. 엔비디아는 "딥시크처럼 대규모 데이터를 처리하는 모델은 연산량이 많아 GPU의 확장성이 중요하다"며 "다이나모는 이런 대형 모델 연산 부담을 효과적으로 분산시키는 역할을 한다"고 강조했다. "똑똑한 AI 에이전트 구축"…오픈소스 모델 '라마 네모트론' 시리즈 엔비디아는 AI 에이전트 추론 능력 강화를 위해 새 오픈소스 AI 모델 '라마 니모트론(Llama Nemotron)' 시리즈를 내놨다. 이는 비즈니스 환경에서 즉시 활용 가능한 AI 추론 모델이다. 주로 복잡한 문제 해결을 위한 고급 AI 에이전트 구축에 사용된다. 메타의 오픈소스 모델 '라마' 기반으로 작동한다. 엔비디아는 "해당 모델은 알고리즘적으로 가지치기 과정을 거쳐 모델 크기를 줄였다"며 "이로 인해 컴퓨팅 자원을 덜 소모하면서도 정확도를 유지할 수 있게 최적화됐다"고 설명했다. 또 "사후학습 기법을 통해 라마 니모트론 모델을 더욱 개선했다"고 말했다. 그러면서 "주로 수학 문제 해결과 도구 호출, 명령어 처리, 대화 기능 등 여러 분야에서 최상의 추론 성능을 발휘할 수 있다"고 말했다. 라마 니모트론 모델군은 '나노(Nano)'와 '수퍼(Super)' '울트라(Ultra)' 버전으로 이뤄졌다. 나노는 해당 모델 크기에서 가장 높은 추론 정확도를 제공한다. 수퍼는 단일 데이터센터 GPU에서 가장 빠른 처리 속도를 제공한다. 울트라는 데이터센터급 멀티 GPU 환경에서 AI 에이전트 추론 정확도 극대화를 돕는 모델이다. 나노와 수퍼는 이번 GTC에서 NIM 마이크로서비스 형태로 제공된다. 울트라 모델은 추후 공개된다. 해당 모델 시리즈는 데이터셋 관련 기술과 패키지 형태로 제공된다. 이 데이터셋은 엔비디아가 생성한 600억 개 토큰으로 구성한 합성 데이터셋이다. 약 36만 시간의 H100 GPU 추론 수행과 4만 5천 시간의 인간 주석 작업을 통해 개발됐다. 이 외에도 해당 모델 시리즈는 추론 기능을 온·오프(toggle on/off)할 수 있는 옵션도 제공한다. 이는 오픈 모델에서는 드문 기능인 것으로 평가받고 있다. '엔비디아 IQ 블루프린트'로 AI 에이전트 유연성 높였다 엔비디아는 '엔비디아 IQ 블루프린트'를 출시했다. 해당 솔루션은 4월부터 이용 가능하다. IQ 블루프린트는 개발자가 NIM으로 AI 에이전트를 구축하고 이를 엔터프라이즈 비즈니스 시스템과 연결하게 돕는 AI 워크플로 도구다. 이를 통해 AI 에이전트가 텍스트, 이미지, 영상 등 여러 데이터 유형을 검색·활용할 수 있게 지원한다. 웹 검색이나 다른 AI 에이전트와 같은 외부 도구 활용도 가능하다. 또 다수 AI 에이전트가 팀을 이뤄 협력할 때 개발자가 AI 시스템 작동 과정을 모니터링하고 성능을 개선할 수 있도록 가시성과 투명성을 제공한다. 엔비디아는 "IQ 블루프린트를 활용하면 AI 에이전트 정확도를 높이고, 복잡한 작업 처리 시간을 몇 시간에서 몇 분으로 단축할 수 있다"고 강조했다. 또 엔비디아는 주요 데이터 스토리지 기업과 협력해 AI 데이터 플랫폼을 개발 중이라고 밝혔다. 해당 플랫폼에는 네모 리트리버와 IQ 블루프린트, 블랙웰 GPU, 스펙트럼-X 네트워킹, 블루필드 DPU 등이 포함된다. 이를 통해 실시간에 가까운 데이터 기능을 제공할 방침이다. 엔비디아는 "앞으로 엔터프라이즈 데이터가 AI 에이전트를 위한 핵심 자원으로 활용될 전망"이리며 데이터 플랫폼 개발 배경을 밝혔다. 그러면서 "현재 기업 데이터 저장 시스템은 단순히 파일을 저장하고 제공하는 역할만 수행하고 있다"며 "AI 에이전트가 도입되면, 기업은 데이터 저장·관리 시스템을 지식 제공 시스템으로 전환할 수 있다"고 강조했다.

2025.03.19 05:02김미정

"손·발 달린 AI"…엔비디아, 로봇·자율주행 위한 '물리 AI' 본격화

엔비디아가 '피지컬 인공지능(AI)' 기술을 앞세워 로보틱스·자율주행·의료 산업 공략에 나선다. 시뮬레이션과 합성 데이터를 결합함으로써 AI가 물리적 환경에서 직접 행동하는 시대를 대비해 휴머노이드 로봇·의료 로봇·자율주행차를 위한 핵심 기술을 준비하는 모양새다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열리는 'GTC 2025'에서 물리 AI 관련 주요 기술을 공개한다. 지난 17일 개최돼 닷새간 진행되는 이 행사에서 회사는 ▲디지털 트윈 기반 시뮬레이션 '옴니버스' ▲AI 물리 세계 모델 '코스모스' ▲로봇 및 자율주행 플랫폼 '아이작' 등 다양한 신기술을 발표할 예정이다. 회사는 물리 AI 개발을 위해 세 가지 핵심 컴퓨팅 인프라인 'DGX', '옴니버스·코스모스', 'AGX'를 기반으로 산업 혁신을 추진한다. AI 학습부터 시뮬레이션, 실제 배포까지 모든 과정에서 최적화된 엔드투엔드 솔루션을 제공하는 것이 목표다. 디지털 트윈 기반의 '옴니버스'는 로봇·자율주행차의 가상 환경 테스트를 지원한다. AI는 현실 세계 데이터를 그대로 학습하기 어려운 경우가 많다. 이를 해결하기 위해 엔비디아는 옴니버스를 활용해 현실과 유사한 가상 공간을 구축하고 AI가 실제 환경에서 작동하기 전에 충분한 시뮬레이션을 거칠 수 있도록 했다. '코스모스'는 AI가 물리 세계를 이해할 수 있도록 돕는 '월드 파운데이션 모델'을 제공한다. '코스모스 예측' 모델은 AI가 시각적 데이터를 분석해 특정 대상의 다음 행동을 예측하도록 지원한다. '코스모스 리즌' 모델은 이미지·영상 속 사물의 속성을 분석하고 맥락을 이해하는 기능을 수행한다. 또 엔비디아는 로봇 개발을 위한 '아이작(Isaac)' 시리즈를 공개한다. 이 시리즈는 휴머노이드 로봇, 물류 로봇, 의료 로봇 등 다양한 분야에 활용할 수 있도록 설계됐다. '아이작 그루트 N1'은 세계 최초의 오픈형 휴머노이드 AI 모델이다. 이 모델은 특정 로봇 제조사에 종속되지 않고 다양한 하드웨어 환경에서 활용할 수 있다. 또 AI가 빠르게 적응하도록 설계된 '듀얼 시스템 아키텍처'를 적용해 직관적이고 정교한 작업 수행이 가능하다. 의료 산업에도 AI 도입이 본격화되고 있다. 엔비디아는 제너럴 일렉트릭 헬스케어와 협력해 '아이작 헬스케어' 플랫폼을 개발했다. 이 플랫폼은 AI를 활용한 의료 영상 분석·로봇 수술·자동화 진단을 지원한다. 특히 초음파·엑스레이 분석에 AI를 도입해 정확도를 높이는 데 초점을 맞췄다. 엔비디아는 자동차를 '운송 로봇'으로 정의하고 자율주행 AI 개발을 위한 투자도 강화하고 있다. 이를 위해 GM·현대차 등과 협력해 AI 팩토리·자율주행 기술을 공동 개발하고 있다. GM과의 협력은 엔비디아가 자동차 산업에서 차지하는 역할을 보여주는 대표적인 사례다. GM은 자율주행차 개발을 위한 클라우드 AI 학습부터 디지털 트윈 활용을 통한 제조까지 엔비디아 기술을 전방위적으로 도입하고 있다. 현대차는 AI 학습 및 시뮬레이션 개발에서 엔비디아와 협력 중이며 향후 자율주행 차량용 AI 시스템 개발로 협력을 확장할 가능성이 크다. 엔비디아는 자율주행의 안전성을 높이기 위해 '할로스(Halos)'라는 풀스택 자동차 안전 시스템도 발표했다. 이 시스템은 차량 설계 단계에서부터 AI 기반 안전 검증을 진행하고 실제 차량 운행 중에도 AI의 위험 감지 능력을 강화하는 역할을 한다. AI 모델을 학습시키려면 방대한 데이터가 필요하나 실제 환경에서 모든 데이터를 수집하는 것은 불가능하다. 이를 해결하기 위해 엔비디아는 AI 학습을 위한 '합성 데이터 블루프린트'를 공개했다. 이 기술을 활용하면 소수의 실제 데이터만으로도 수십만 건 이상의 AI 학습 데이터를 생성할 수 있다. 일례로 기존에는 사람이 직접 촬영하거나 수집해야 했던 로봇 동작 데이터를 시뮬레이션으로 자동 생성해 AI 학습 시간을 크게 단축할 수 있다. 실제로 엔비디아는 150개의 GPU로 단 11시간 만에 78만 개의 휴머노이드 로봇 동작 데이터를 생성했다. 이는 기존 방식 대비 50배 이상의 생산성 향상을 의미한다. 이같이 엔비디아는 이번 GTC 2025에서 AI가 단순한 소프트웨어가 아니라 현실 세계에서 직접 작동하는 '물리 AI'로 확장될 것임을 강조했다. 레브 레바레디언 엔비디아 옴니버스 부문 부사장은 "AI는 단순히 데이터를 분석하는 도구에서 벗어나 실제 환경에서 동작하는 기술로 진화하고 있다"며 "디지털 트윈·합성 데이터·자율주행·로보틱스 기술을 통해 물리 AI 시장을 선도할 것"이라고 말했다. 알리 카니 엔비디아 오토모티브 부문 부사장은 "자율주행 기술의 상용화를 위해 AI의 안전성과 신뢰성이 핵심 과제가 될 것"이라며 "다양한 AI 안전 솔루션을 통해 업계 표준을 만들어가겠다"고 밝혔다.

2025.03.19 05:00조이환

AI, 훈련 없이도 사진·영상 이해…메타 MILS 공개

대형 언어 모델(LLM), 훈련 없이 시각·청각 능력 발휘 메타 AI와 UC 버클리 연구진이 발표한 연구에 따르면, 대형 언어 모델(LLM)은 추가적인 훈련 없이도 이미지, 비디오, 오디오를 이해하고 생성하는 능력을 갖출 수 있는 것으로 나타났다. 연구진은 이 과정을 가능하게 하는 'MILS(Multimodal Iterative LLM Solver)' 기법을 개발했다. MILS는 LLM의 테스트 타임 최적화(test-time optimization) 능력을 활용해 멀티모달 데이터를 처리할 수 있도록 하는 방식이다. 기존 멀티모달 AI 모델들은 특정 데이터셋을 기반으로 훈련해야 했지만, MILS는 이러한 과정 없이도 이미지 캡셔닝(image captioning), 영상과 오디오 이해 및 생성, 스타일 변환(style transfer) 등 다양한 작업을 수행할 수 있다. 연구에 따르면, MILS는 LLM이 자체적으로 해결책을 생성하고, 멀티모달 모델이 이를 평가하여 피드백을 제공하는 방식으로 작동한다. 이러한 반복적인 최적화 과정을 거치면서 MILS는 최적의 결과를 도출할 수 있다. MILS의 핵심 원리: 생성하고 평가하며 스스로 발전 MILS의 가장 큰 특징은 훈련 없이도 멀티모달 데이터를 처리할 수 있는 능력이다. 기존의 모델들은 이미지 캡셔닝을 위해 이미지-텍스트 페어 데이터로 훈련되어야 했지만, MILS는 이러한 과정 없이도 이미지, 영상, 오디오 데이터를 해석할 수 있다. 예를 들어, MILS는 일반적인 LLM을 생성기(GENERATOR)로 활용하고, CLIP 같은 멀티모달 모델을 평가기(SCORER)로 활용한다. MILS가 생성한 후보 결과물은 평가 모델을 통해 점수를 매겨 다시 피드백되며, 이 과정을 반복하면서 성능을 점진적으로 향상시킨다. 연구진은 이 과정을 통해 MILS가 "emergent zero-shot capabilities", 즉 새로운 데이터나 작업을 훈련 없이 처리할 수 있는 능력을 갖추게 된다고 설명했다. MILS는 단순히 이미지 캡셔닝뿐만 아니라 텍스트-이미지 생성(text-to-image generation), 스타일 변환(style transfer), 멀티모달 산술(cross-modal arithmetic) 등 다양한 작업에도 적용될 수 있다. 연구진은 MILS를 활용하여 스타일 변환을 수행하고, 다양한 이미지 스타일을 적용하는 실험에서도 성공적인 결과를 보였다고 밝혔다. MILS의 실험 결과: 기존 모델과 비교해 경쟁력 있는 성능 연구진은 MILS의 성능을 기존의 멀티모달 모델들과 비교 평가했다. 대표적인 실험 결과는 다음과 같다. 이미지 캡셔닝(Image Captioning): MILS는 기존의 이미지 캡셔닝 모델과 비교하여 경쟁력 있는 성능을 기록했다. MSCOCO 데이터셋을 기준으로, BLEU4, CIDEr, METEOR, SPICE 등의 평가 지표에서 기존 모델들과 대등하거나 더 나은 성능을 보였다. 비디오 캡셔닝(Video Captioning): MILS는 MSR-VTT 데이터셋을 활용한 실험에서도 기존 비디오 캡셔닝 모델과 비교해 강력한 성능을 보였다. 특히, 훈련 없이도 기존의 HowTo100M과 VideoCC3M 데이터셋을 활용한 모델과 유사한 수준의 성능을 기록했다. 오디오 캡셔닝(Audio Captioning): Clotho 데이터셋을 활용한 실험에서는 기존의 Zero-shot Audio Captioning 모델(ZerAuCap)보다 높은 METEOR 및 SPICE 점수를 기록하며, 문맥적으로 더 정확한 캡션을 생성할 수 있음을 보여주었다. 텍스트-이미지 생성(Text-to-Image Generation): MILS를 사용해 최신 텍스트-이미지 생성 모델(예: LDM, FLUX.1)에서 품질을 향상시키는 실험을 진행했다. 연구진이 수행한 인간 평가에서 MILS를 적용한 생성 이미지가 더욱 높은 품질과 텍스트 일치도를 보였다. 스타일 변환(Style Transfer): MILS는 훈련 없이도 특정 스타일을 이미지에 적용하는 능력을 보였다. 연구진은 Gram Matrix 기반 거리 측정 방식을 SCORER로 활용해 스타일 변환을 성공적으로 수행했다. 멀티모달 산술(Cross-Modal Arithmetic): MILS는 이미지와 오디오를 결합해 새로운 텍스트 설명을 생성하는 실험에서도 효과적인 결과를 도출했다. 예를 들어, "잔디 위에 있는 학"이라는 이미지와 "해변에서 파도가 치는 소리"라는 오디오 설명을 결합하여 "해변가에서 파도를 바라보는 학"이라는 새로운 개념을 생성할 수 있었다. MILS의 확장 가능성과 AI 모델의 발전, 훈련 없이도 창작과 분석이 가능하다 MILS는 훈련 없이 멀티모달 AI 시스템을 구축할 수 있다는 점에서 기존 모델과 차별화된다. 특히, 새로운 데이터셋이나 작업에 대해 즉각적인 적응이 가능하다는 점에서 AI 연구 및 산업에서 활용 가치가 클 것으로 보인다. 연구진은 MILS의 성능이 LLM과 멀티모달 모델의 발전에 따라 더욱 향상될 것이라고 전망했다. 예를 들어, LLM의 연산 속도가 향상되거나, 컨텍스트 길이가 증가하면 MILS의 최적화 과정이 더욱 빨라지고 효율적으로 작동할 수 있다. 또한, 멀티모달 AI 모델이 개선될수록 MILS의 성능도 자연스럽게 향상될 것으로 예상된다. 향후 MILS는 영상, 3D 모델링, 로봇 비전 등 더 다양한 영역에 적용될 가능성이 있다. 특히, 실시간 비디오 분석이나 AI 기반 디자인 생성 등 보다 복잡한 멀티모달 작업에도 적용될 수 있을 것이라는 기대가 크다. 이번 연구 결과는 AI 모델이 훈련 없이도 다양한 감각 정보를 처리할 수 있음을 입증하며, 향후 AI의 멀티모달 이해 능력을 한층 더 발전시키는 계기가 될 것으로 보인다. FAQ Q. MILS는 기존 AI 모델과 어떻게 다른가요? A. 기존 모델은 이미지·오디오 이해를 위해 훈련 데이터가 필요했지만, MILS는 훈련 없이도 즉시 다양한 멀티모달 작업을 수행할 수 있습니다. LLM이 스스로 후보 답변을 생성하고, 평가 모델이 이를 검토하며 점진적으로 개선하는 방식으로 작동합니다. 이를 통해 AI가 새로운 데이터나 작업에도 빠르게 적응할 수 있습니다. Q. MILS가 실제로 어떤 성능을 보였나요? A. 이미지·비디오·오디오 캡셔닝에서 기존 훈련 기반 모델과 비슷하거나 더 나은 성능을 보였습니다. 예를 들어, 이미지 캡셔닝 실험에서 METEOR 및 SPICE 점수에서 기존 모델을 능가했습니다. 텍스트-이미지 생성 및 스타일 변환에서도 MILS 기반 생성 이미지가 더 높은 품질을 기록했습니다. Q. MILS는 앞으로 어떤 분야에서 활용될 수 있나요? A. MILS는 영상 분석, 3D 모델링, 로봇 비전 등 더 복잡한 멀티모달 작업에 적용될 수 있습니다. 실시간 AI 응용 프로그램에서 데이터 없이 즉각적으로 적응하는 시스템 개발에도 활용될 가능성이 큽니다. LLM과 멀티모달 AI 기술이 발전할수록 MILS의 활용 가능성도 더욱 커질 것입니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.18 22:19AI 에디터

AI로 바이오·식품 분야 GMP 인증 관리 편리하게

AI 영상분석 전문기업 씨이랩(코스닥 189330, 대표 이우영)이 바이오·식품위생 산업의 제조품질관리기준(GMP) 인증관리에 특화한 AI 기반 자동 품질관리 솔루션 'XAIVA-On-Device (엑스아이바 온디바이스)'를 출시했다. 18일 회사에 따르면, 'XAIVA-On-Device'는 최첨단 비전AI 기술을 통해 제조 현장의 품질관리 문제를 실시간으로 해결한다. 청정 구역 내 등급별로 준수해야 하는 현장 전문가의 위생복 착용 여부 및 객체 움직임, 이상 행동을 실시간으로 분석한다. 특히 1초 이내에 얼굴 및 전신 검사를 완료하며, GMP 위반 사항을 발견하면 즉시 관리자에게 알림을 제공해 신속한 대응이 가능하다. 씨이랩은 이번 솔루션에 자사의 AI 모델 경량화 기술을 적용해 저사양 하드웨어 환경에서도 효율적이고 경제적인 운영을 가능하게 했다. 또한 이동식 키오스크 형태로 설계해 다양한 현장 환경에 맞는 유연한 설치 및 이동성을 제공한다. 특히 'XAIVA-On-Device'는 분석 결과를 GMP 규정에 맞는 표준 보고서 형태로 자동 생성해 관리자의 편리성과 업무 효율성을 높여준다. 99% 이상의 높은 정확도를 확보해 기존 인력 중심의 수동 점검 방식 대비 신뢰도와 정확성을 크게 개선했다. 이우영 씨이랩 대표는 “XAIVA-On-Device는 엄격한 GMP 규정을 완벽히 학습한 AI 모델을 탑재한 제품으로, 제조 현장의 품질과 안전성을 획기적으로 향상시킨 솔루션"이라면서 “국내를 넘어 글로벌 GMP 관리 시장을 겨냥한 제품"이라고 밝혔다. 씨이랩은 향후 국내외 바이오 및 식품 산업을 대상으로 다양한 프로모션을 전개하고, 엔비디아 GTC 등 세계 전시회를 통한 해외 시장 진출과 글로벌 파트너십 구축을 본격화할 예정이다. 한편 씨이랩(코스닥 189330)은 2010년 설립한 비전AI 전문기업이다. AI 기반으로 대용량 영상 데이터 분석에 특화한 기술을 인정받아 2021년 2월 코스닥에 상장했다. 주요 사업은 △AI를 통한 실시간 영상분석(VidiGo, X-AIVA) △AI 학습용 합성데이터 생성(X-GEN) △GPU 툴링 솔루션(AstraGo)이다. AI 컴퓨팅 분야의 선도기업인 엔비디아(NVIDIA) 플랫폼에 자사 솔루션을 탑재해 판매하는 어플라이언스 사업에서 경쟁력을 확보했다.

2025.03.18 18:17방은주

[영상] 양자컴퓨터 상용화?...IBM "우린 이미 진행 중"

IBM이 양자컴퓨터의 상용화 현황과 기술적 진전, 향후 계획을 발표하며 양자컴퓨팅 시대의 본격적인 개막을 예고했다. 18일 표창희 IBM 퀀텀 아시아 퍼시픽 총괄 상무는 양자컴퓨터가 특정 산업에서 이미 상용화 단계에 진입했으며, 앞으로 더 빠른 기술 발전을 통해 산업 전반에서 활용도가 확대될 것이라고 영상을 통해 밝혔다. 표 상무는 "양자컴퓨터의 상용화는 단순히 일상에서 사용되는 제품이 된다는 의미가 아니라, 실제 산업 문제 해결에 활용되는 것을 기준으로 봐야 한다"며 "자동차, 금융, 화학, 물류, 인공지능(AI) 분야에서 이미 양자컴퓨터가 실무에 적용돼 복잡하고 난해한 문제들을 기존 슈퍼컴퓨터로는 어려웠던 방식으로 해결하고 있다"고 설명했다. 메르세데스-벤츠는 양자컴퓨터를 활용해 전기차 배터리 소재 연구를 진행 중이며, JP모건 등 글로벌 금융사는 시장 데이터를 분석해 금융 리스크를 관리하고 상품 개발에 양자 기술을 적용하고 있다. 또한 클리블랜드 클리닉을 비롯한 미국 의료 재단 및 모더나, 화이자 등 제약 기업들은 양자 컴퓨터를 통해 신약 개발의 효율성을 높이고 있다. 이 외에도 엑슨모빌, 오크리지 국립연구소 등 에너지 및 신소재 분야의 연구기관과 기업들이 양자컴퓨팅을 활용 중이다. 표 상무는 현재 IBM의 퀀텀 네트워크를 통해 250개 이상의 글로벌 기업, 대학, 스타트업이 협업 및 공동 연구를 진행하고 있다고 밝혔다. IBM은 2021년 127큐빗 '이글(Eagle)' 프로세서를 발표한 데 이어 1천121큐빗 '콘도르(Condor)' 프로세서로 큐빗 품질과 연산 게이트 수를 향상시켰다. 2029년 내에 10억 게이트 이상의 양자 컴퓨터 개발을 통해 '양자우월성' 달성을 목표로 하고 있다. 표 상무는 "2029년까지 양자 컴퓨터에서 발생하는 오류를 완전히 수정할 수 있는 기술 개발을 완료할 전망"이라며 "그 시점이면 양자컴퓨터가 산업계 전반에서 본격적으로 활용될 것”이라고 전망했다. 이어 "양자컴퓨터는 AI에 이어 모든 산업을 바꿀 혁신적 기술"이라며 "기업들은 사전에 기술 역량을 확보하고 변화에 선제적으로 대응해야 한다"는 조언도 덧붙였다.

2025.03.18 18:03남혁우

국민의힘 "홈플 대주주 MBK 의혹 진상규명해야"

국민의힘이 원내대책회의에서 홈플러스와 대주주인 MBK 파트너스가 어떠한 자구책도 없이 법정관리를 전격 신청해 논란이 되고 있다며, 사기성 채권 발행과 배임 등 여러 의혹 등을 철저히 진상 규명하겠다고 했다. MBK가 홈플러스에 과도한 인수 금융 상환 부담을 떠넘겨 회사 경쟁력을 훼손했다며, 김병주 MBK 회장의 역외 탈세 의혹 등을 근거로 배임 및 탈세 혐의에 대한 본격적인 조사가 필요하다는 여론이 높아지고 있다는 점도 강조했다. 김상훈 국민의힘 정책위의장은 18일 오전 서울 여의도 국회에서 열린 당 원내대책 회의에서 "소상공인과 개인 채권자, 국민 연금 등의 피해가 우려되는 만큼 금융 당국과 함께 철저한 진상규명과 재발 방지 대책을 마련하겠다"며 이같이 말했다. 김 정책위의장은 특히 "지난 2015년 국민연금이 홈플러스에 6천억 넘는 자금을 투자했다"며 "만기 이자율을 감안하면 9천억원 이상을 회수해야 하지만 현재까지 3천131억원만 회수된 것으로 알려졌다"고 꼬집었다. 지난 4일 홈플러스와 대주주인 MBK파트너스는 기업회생절차(법정관리)를 신청했다. 하지만 구체적 자구책을 제시하지 않았고, 신용등급 하락을 인지한 상황에서 5천949억원 규모의 각종 채권을 발행했는지 등을 놓고 논란이 이어지고 있다. 김 의장은 최근 여론 조사 결과를 거론하며 "리얼미터 발표에 따르면 전체 응답자의 68.7%가 홈플러스의 채권 사기 발행, 배임, 탈세 의혹에 대해 MBK파트너스까지 조사를 확대해야 한다고 응답했다"며 MBK에 대한 책임론을 재차 꺼내들었다. 나아가 "응답자 69%는 홈플러스 인수 당시 사용된 차입 매수 방식에 대한 규제가 필요하다고 답했다"며 MBK가 주로 활용하는 '투기성 빚투' 기업 인수에 제동이 필요하다는 점을 우회적으로 내비쳤다. 국회 정무위 긴급 현안질의에 불참한 김병주 MBK 회장에 대한 질타도 이어졌다. 김 정책위의장은 "MBK 창업주 김병주 회장은 소상공인 결제 대금 문제 해결을 위해 사재출연 의사를 밝혔지만 국민 70% 가까이는 이같은 해명을 신뢰하지 않을 뿐만 아니라 사재 출연 범위에 대해서도 아직까지 구체적으로 언급이 없는 상황"이라고 문제를 제기했다. 이어 "김병주 회장의 역외 탈세 의혹 등을 근거로 배임 및 탈세 혐의에 대한 본격적인 조사가 필요하다는 여론이 높아지고 있다"고도 덧붙였다. 김 회장은 오늘 오전 열린 국회 정무위 긴급현안질의에 증인으로 채택됐지만 중국 출장을 이유로 불참했다. 이와 관련해 정무위 여당 간사인 국민의힘 강민국 의원은 “검은 머리 외국인 김병주 회장에 대한 국민들의 분노가 하늘을 찌른다”며 “국회에 출석할 때까지 계속 청문회를 개최하고 부족하다면 국정조사도 해야 한다”고 말했다.

2025.03.18 17:20김윤희

MiTAC, 클라우드페스트 2025에서 에너지 효율적인 서버 혁신 공개하며 지속 가능한 클라우드 컴퓨팅 강화

러스트, 독일 2025년 3월 18일 /PRNewswire/ -- MiTAC 홀딩스 코퍼레이션(MiTA Holdings Corp., TSE: 3706)의 자회사이자 서버 플랫폼 설계 분야의 선도적인 제조업체인 MiTAC 컴퓨팅 테크놀로지 코퍼레이션(MiTAC Computing Technology Corp.)이 3월 17일부터 20일까지 독일 유로파파크에서 열리는 인터넷 인프라 산업 행사인 '클라우드페스트(CloudFest) 2025' H12 및 H13번 부스에서 에너지 효율적인 최신 클라우드 및 AI 기반 서버 플랫폼을 공개한다. AMD EPYC™ 9005 시리즈와 Intel® Xeon® 6 프로세서를 특징으로 하는 이 플랫폼은 지속 가능한 컴퓨팅, 최적화된 전력 효율성 달성, 고성능 클라우드 인프라 개발을 위한 MiTAC의 노력이 빚어낸 결과물이다. Empowering Sustainable Cloud Computing: MiTAC Delivers Energy-Efficient Server Innovations at CloudFest 2025 에너지 효율적인 컴퓨팅으로 클라우드 지속 가능성 향상 클라우드와 AI 워크로드가 계속 증가하면서 데이터 센터는 전력 소비를 줄이는 동시에 성능을 향상해야 하는 과제가 직면했다. MiTAC 컴퓨팅은 높은 컴퓨팅 성능과 에너지 효율성의 균형을 유지하는 서버 솔루션 설계로 이러한 과제를 해결하며, 기업과 클라우드 제공업체가 운영 비용과 탄소 발자국을 최소화할 수 있도록 돕고 있다. MiTAC의 최신 서버 플랫폼은 전력 효율적인 프로세서 아키텍처, 지능형 워크로드 관리, 첨단 열 설계 등을 통합해 조직의 과도한 에너지 소비 방지 및 컴퓨팅 자원 확장을 지원한다. MiTAC은 내장된 가속화 기술, 최적화된 메모리 대역폭, 고속 연결성을 통해 와트당 성능 효율성을 극대화하는 솔루션을 제공한다. 인텔 기반 솔루션: AI 기반 워크로드를 위한 성능과 효율성 달성 MiTAC은 AI, 클라우드, 기업용 애플리케이션에 최적화된 전력 효율적인 고성능 컴퓨팅 서버인 2U 듀얼 소켓 MiTAC R2520G6 등 인텔 기반 라인업을 선보인다. 이 라인업은 최대 8TB의 DDR5 메모리, 5개의 PCIe 5.0 x16 슬롯, U.2와 E1.S SSD를 위한 유연한 스토리지 구성을 지원함으로써 전력 효율성을 유지하면서 성능을 확장할 수 있다. MiTAC 플랫폼은 Intel Xeon 6 프로세서를 통합함으로써 AI 워크로드를 위한 내장형 가속기 및 고속 I/O와 최적화된 전력 활용 기능을 제공해 현대 데이터 센터에 지속 가능한 고성능 컴퓨팅을 보장한다. AMD 기반 솔루션: 지속 가능한 설계로 컴퓨팅 파워 극대화 MiTAC의 AMD EPYC™ 9005 시리즈 기반 플랫폼은 와트당 성능 효율성 면에서 최첨단 성능을 자랑하며 클라우드와 AI 제공업체가 에너지 효율성을 극대화하면서 워크로드를 확장할 수 있도록 지원한다. MiTAC TYAN GC68C-B8056은 1U 단일 소켓 서버로, 고밀도 클라우드와 AI 워크로드에 최적화되어 있다. 이 서버는 24개의 DDR5 DIMM 슬롯, 12개의 공구 없이 교체 가능한 2.5인치 NVMe U.2 핫스왑 베이, 현대적인 클라우드 환경을 지원하는 고효율 열 설계가 특징이다. AMD EPYC™ 9005 시리즈 프로세서가 통합되어 있어 업계 최고의 컴퓨팅 성능을 보장하는 동시에 전력 소비를 낮게 유지함으로써 기업이 성능 저하 없이도 지속 가능성을 향상시킬 수 있도록 지원한다. MiTAC의 솔루션은 AMD EPYC™ 9005 시리즈 프로세서를 활용함으로써 낮은 에너지 소비로 고성능 컴퓨팅을 보장하면서 기업이 처리 효율성을 유지하면서 데이터 센터 전력 수요를 줄일 수 있게 돕는다. MiTAC은 또한 높은 확장성을 요구하는 클라우드 서비스 제공업체를 위해 설계된 2U 멀티노드 서버인 MiTAC TYAN TD76-B8058를 선보일 예정이다. AMD EPYC™ 9004 시리즈 프로세서로 구동되는 이 플랫폼은 4개의 프론트 서비스 노드, 16개의 DDR5 RDIMM 슬롯, 4개의 핫스왑 E1.S 드라이브 트레이, 2개의 NVMe M.2 슬롯, 그리고 PCIe 5.0과 OCP 3.0 LAN 메자닌 슬롯(mezzanine slot)을 통한 유연한 확장을 특징으로 한다. 이것은 에너지 효율성을 유지하면서 강력한 성능을 제공하므로, 클라우드와 AI 애플리케이션 모두에 신뢰할 수 있는 선택이다. 클라우드페스트 2025에서 MiTAC 부스 방문은 지속 가능한 서버 혁신을 탐색할 기회 MiTAC의 최신 인텔 및 AMD 기반 서버 플랫폼은 에너지 효율적인 클라우드 컴퓨팅의 미래를 보여주면서 기업에 최첨단의 지속 가능한 고성능 솔루션을 제공한다. 클라우드페스트 2025에 마련된 MiTAC의 H12 및 H13번 부스를 방문하면 이러한 혁신이 어떻게 클라우드의 지속 가능성을 향상시키고, 전력 효율을 최적화하고, AI와 클라우드 컴퓨팅의 미래를 주도하는지 알아볼 수 있다. MiTAC 컴퓨팅 테크놀로지 코퍼레이션 소개 MiTAC 홀딩스의 자회사인 MiTAC 컴퓨팅 테크놀로지 코퍼레이션은 1990년대부터 업계에서 쌓아온 전문 지식을 바탕으로 포괄적이면서 에너지 효율적인 서버 솔루션을 제공한다. AI, 고성능 컴퓨팅(HPC), 클라우드, AI, 엣지 컴퓨팅을 전문으로 하며, 기본 구성 요소 수준뿐만 아니라 무엇보다 성능과 통합이 가장 중요한 시스템과 랙(rack) 수준에서도 타협 없는 품질을 보장하기 위해 엄격한 방법을 사용한다. 품질에 대한 이런 전방위적 노력은 MiTAC 컴퓨팅이 업계의 다른 회사들과 차별을 두는 요소다. MiTAC 컴퓨팅은 하이퍼스케일 데이터 센터, HPC, AI 애플리케이션을 위해 맞춤형 플랫폼을 제공하고 최적의 성능과 확장성을 보장한다. MiTAC 컴퓨팅은 연구개발(R&D)과 제조에서 글로벌 지원에 이르는 분야에서 확보한 글로벌 입지와 엔드투엔드(end-to-end) 역량을 바탕으로 각 기업만의 특별한 니즈를 충족하기 위해 설계된 유연한 고품질의 솔루션을 제공한다. MiTAC 컴퓨팅은 최근 인텔 DSG와 타이안(TYAN)의 서버 제품을 통합하고, 최신 AI 및 액체 냉각 발전을 활용해 혁신, 효율성, 신뢰성 면에서 두각을 나타내면서 기업이 미래의 도전에 대처할 수 있도록 지원하고 있다. MiTAC 컴퓨팅 테크놀로지 코퍼레이션 웹사이트: https://www.mitaccomputing.com/

2025.03.18 17:10글로벌뉴스

한국글로벌보건연맹, CEPI와 국제협력 강화

한국글로벌보건연맹(이하 연맹)이 CEPI(전염병대비혁신연합)와 최근 간담회를 갖고, 전염병 및 넥스트 팬데믹 대비를 위한 미래전략 수립과 혁신 해결방안 모색 등 협력 방안을 논의했다고 18일 밝혔다. 연맹은 글로벌 보건분야에서 한국의 리더십 역량을 강화하고 국내 산업계의 참여‧투자 촉진 등을 목적으로 지난해 11월 창립된 민간전문가단체이다. CEPI는 신종감염병 대비 백신개발 및 접근성 등을 위해 2017년 설립됐으며, 글로벌보건안보를 위해 백신개발과 팬데믹 대응 혁신을 주도하는 국제보건 민관협력기구로 새로운 신종전염병(Disease X) 발견시 100일 이내에 백신을 개발해 배포하는 '100일 미션'을 통해 신속한 대응으로 전염병이 글로벌 팬데믹으로 확산하기 전에 통제하는 것을 목표로 하고 있다. CEPI는 전염병과 팬데믹 위협 대처를 위한 백신 개발 및 제조 등에 31억 달러를 투자해 왔으며, 이중 우리나라 기업 및 기관이 받은 투자금은 약 3억5천만 달러에 달한다. 한국 정부는 2020년 CEPI에 가입한 이래 CEPI에 5천100만 달러를 지원했다. 여의도 콘래드호텔에서 열린 간담회에는 연맹에서 원희목 이사장(서울대 특임교수)과 권덕철 감사(전 보건복지부 장관), 성백린 이사 (백신실용화기술개발사업단 단장), 안재용 이사(SK 바이오사이언스 CEO), 이재국 이사(한국제약바이오협회 부회장), 제롬 김 이사(국제백신연구소 사무총장), 주인숙 사무총장 등이 참석했고, CEPI에서는 리처드 헤쳇(Richard Hatchett) 대표를 비롯한 방한 대표단이 참석했다. 간담회가 진행된 지난 14일은 WHO가 2020년 코로나 19를 팬데믹으로 선언한 지 5주년이 되는 때로, 참석자들은 코로나19 경험을 통해 글로벌 보건안보 강화를 위한 국제사회의 소통과 공조체제가 얼마나 중요한지를 재확인했다. 또 최근 대외적 정치적 환경변화와 도전과제 등을 짚어보고, CEPI의 미래전략 및 '100일 미션' 등을 진전시키는 방안에 대해 논의했다. 원희목 연맹 이사장은 인사말을 통해 “미래 팬데믹 예방‧대비‧대응의 혁신 이니셔티브를 주도하고 있는 CEPI의 헌신과 리더십에 감사드린다”며 “연맹은 정부의 ODA 지원 확대와 함께 산업 발전의 선순환 체계 조성이 매우 중요하다는 점에 대해 적극적으로 목소리를 내겠다”고 밝혔다. 현재 CEPI는 2027년-2031년 CEPI 3.0 전략과 혁신방안 개발에 집중하고 있는 가운데, 연맹 참석자들과 함께 향후 10~15년 동안 세계의 팬데믹 예방‧대비‧대응 생태계를 형성할 요인들에 대해 논의했다. 구체적으로 mRNA 및 AI와 같은 기술력, 국제정치적 환경, 경제적 환경, 각국의 보건의료체계 및 정부의 지도력, 민간 파트너십, 국제적 공조체계, 각국의 국민 건강과 생명 보호 및 국제보건간 긴밀한 상관성에 대한 국민 인식 및 공론화 등 사회적 요인들에 대해 다양한 의견을 나누었다. 리처드 헤쳇 대표는 “현재는 매우 어려운 환경이며, 지금까지 유럽 및 아시아를 비롯한 세계의 이해관계자들의 다양한 관점과 난제들에 대해 경청하고 있다”며 “이같이 불확실한 때에 한국이 국제사회에서의 리더십과 위상을 강화할 수 있는 훌륭한 기회가 있다”고 강조했다. 또 최근 르완다에서 진행된 '100일 미션' 시뮬레이션 사례를 소개하면서 다른 나라로 확대할 예정이라고 밝히면서, 이의 평가요소로 정부의 주도적 역할, R&D 등 기술력, 생산시설, 신속한 임상 및 테스트 적용력, 신속한 허가제도, 민간부문의 역량 등이 갖춰져 있어야 성공할 수 있다고 판단했다. 한편 대표단은 방한 중에 국제백신연구소, 질병관리청 등과 미팅을 가진 것으로 알려졌다. 연맹은 “앞으로도 CEPI의 중요한 한국 민간 파트너로서 대화와 협업을 지속해 나가고, 우리 정부의 CEPI에 대한 투자 확대 지원활동과 함께 보건다자기구에 대한 정부차원의 지원에 대한 사회적 인식을 높이는 소통 확대에 적극 나서겠다”고 밝혔다.

2025.03.18 16:57조민규

한국디지털정부협회 출범…공공SW 장애 해소·민간 협력 본격화

잦은 공공 소프트웨어(SW) 장애를 해결하고 디지털정부 생태계를 지원하기 위한 한국디지털정부협회가 정식 출범했다. 한국디지털정부협회는 18일 서울 중구 한국지능정보사회진흥원(NIA) 서울사무소 대회의실에서 창립 총회를 개최했다. 협회 창립을 맞아 실시한 이번 총회에서는 협회 회장 선출 및 정관 제정과 함께 사업 계획을 발표했다. 협회장으로는 전 국가정보자원관리원장인 중앙대학교 강동석 교수가 선임됐다. 강 회장은 발기인 대표를 맡아 한국디지털정부협회 출범을 이끌어왔다. 한국디지털정부협회는 디지털정부의 발전과 관련 산업 진흥을 통해 대국민 행정 서비스 개선 및 국가 경쟁력 향상을 목표로 한다. 그동안 소프트웨어(SW), 클라우드 등 각 산업 분야별 협회가 존재하지만 디지털정부 사업을 개선하기 위해 전부문을 아우르는 민간 구심적 역할이 필요하다는 의견이 제기되며 창립이 결정됐다. 협회는 디지털정부 진흥을 위해 관련 제도를 조사 및 연구하며, 적합한 기술에 대한 기준을 제시하고 품질 검증에 나선다. 범정부 공통 서비스와 플랫폼 보급을 지원하고 디지털정부 확산을 위한 신사업을 발굴하며 정부와 기업의 경쟁력 확산에 이바지할 계획이다. 또한 올해는 주요 사업으로 ▲디지털정부 발전을 위한 민관 포럼 ▲정부 R&D사업 수행 ▲디지털정부 조사·연구 등 정부위탁사업 수행 ▲저변확장을 위한 교육사업 추진 ▲디지털정부 홍보·대외협력 등을 선정하고 추진한다. 한국디지털정부협회는 부회장사 10개사와 이사가 15개사가 가입했으며 연내 100개사 이상의 회원사를 확보할 계획이다. 강동석 한국디지털정부협회장은 "우리 협회는 디지털 정부에 참여하는 모든 산업 분야를 아우르는 협력 플랫폼을 구축하고 민간 협력을 강화해 디지털정부 생태계를 조성하는 것을 목표로 하고 있다"며 "목표를 달성하기 위한 모든 노력들이 회원사들의 공동 이익으로 이어지도록 최선을 다하겠다"고 말했다.

2025.03.18 16:45남혁우

"이번엔 품을까"…구글, 보안기업 '위즈' 인수에 300억 달러 투입할 듯

구글의 모회사 알파벳이 클라우드 컴퓨팅과 사이버 보안 영역을 강화하기 위해 회사 역사상 최대 규모의 인수합병(M&A) 투자를 단행할 것으로 보인다. 18일 월스트리트저널(WSJ), 테크크런치 등 외신에 따르면 알파벳은 약 300억 달러(한화 약 43조4천610억원)를 투입해 지난해 여름 결렬된 스타트업 '위즈(Wiz)'의 인수 협상을 재추진하고 있다. 앞서 양사는 230억 달러(한화 약 33조3천270억원) 가치로 협상을 진행했지만 무산된 바 있다. 이번 협상에선 토마스 쿠리안 구글 클라우드 최고경영자(CEO)가 적극 나서 양사 거래가 성사될 가능성이 높아진 상황이다. 위즈는 뉴욕과 이스라엘에 본사를 둔 클라우드 보안 소프트웨어(SW) 기업으로, 주요 클라우드 서비스 공급 업체(CSP)들과 협력 중이다. 최근 클라우드 서비스와 생성형 인공지능(AI)의 수요 확산에 따라 사이버 보안의 중요성도 함께 커지는 상황이다. 이에 구글은 위즈를 인수함으로써 아마존웹서비스(AWS), 마이크로소프트(MS) 대비 뒤처지는 자사 클라우드 부문 글로벌 시장 점유율과 경쟁력을 강화한다는 방침이다. 구글 클라우드는 위즈의 클라우드 보안 제품이 자사 고객층에 적합할 것으로 기대하고 있다. 또 위즈의 연간 반복 매출(ARR)도 매력적인 요소다. 위즈의 ARR은 지난해 7월 5억 달러(한화 약 7천256억원)에 달했다. 올해는 10억 달러(한화 약 1조4천512억원)에 이르는 ARR을 달성할 것으로 전망됐다. 다만 이번 협상을 진전시키기 위해 해결해야 할 주요 과제도 남아 있다. 구글 본사와 구글 클라우드 간 의견 차이 때문이다. 앞서 지난 위즈 인수 협상이 결렬된 이유를 두고 구글이 위즈를 독립 사업부로 유지할지, 클라우드 사업 부문에 통합할지를 두고 의견이 갈렸기 때문이라는 분석이 나온 바 있다. 이에 이번 협상에선 양측의 명확한 합의가 필요하다는 지적이 나온다. 뿐만 아니라 미국 바이든 행정부 시기 대규모 합병에 대한 높은 규제 조사도 이들 협상 결렬에 영향을 미쳤다. 주요 투자사들은 이번 대형 거래 과정을 두고 현 트럼프 행정부에선 합병 규제를 완화할지 주목하고 있다. WSJ는 "구글의 이번 위즈 인수가 수년간 기업공개(IPO) 및 M&A 시장에서 수익 창출에 어려움을 겪어 온 벤처 캐피털리스트들(VC)에게 희망적인 신호가 될 것"이라고 전망했다.

2025.03.18 16:37한정호

희귀질환 환아, 조기진단 방안 마련 시급…진단 지연에 더욱 고통

“태어났을 때 안저 검사는 받지 못해 중요한 진단 기회를 놓쳤고, 생후 30일 무렵 이상을 감지했지만, 여러 병원을 전전하며 적절한 검사를 받지 못해 치료 기회를 잃어 시력을 보존하지 못했다”(희귀질환 환아 보호자) 희귀질환자들이 질병을 진단받기 위해 병원을 전전하는 것으로 나타나 조기진단 체계 도입이 시급하다는 지적이다. 지난 17일 국민의힘 안상훈 의원(보건복지위원회) 주최, 한국희귀‧난치성질환연합회(이하 연합회) 주관으로 열린 '희귀질환 조기진단 방안 마련을 위한 정책토론회'에서 희귀질환을 앓고 있는 어린이들이 적시에 진단받지 못하고 여러 의료기관을 전전하는 '진단방랑' 문제를 집중 조명하고, 정책 대안을 모색했다. 특히 희귀질환을 앓고 있는 환아 보호자들이 진단 과정에서 겪는 현실적인 어려움을 공유하고, 실질적인 조기진단 방안을 모색하기 위해 마련됐으며, 조기진단 체계가 확립되지 않은 국내 상황에 대해 의료계 및 정책 전문가들이 개선책을 논의했다. 발제에 나선 조성윤 삼성서울병원 교수는 희귀질환 환자들이 평균 4.7년 동안 여러 병원을 전전하며 진단이 지연되는 구조적 문제를 지적하며, “진단 지연은 환자와 보호자에게 큰 심리적, 경제적 부담을 주며, 치료 기회를 놓칠 수 있다. 이를 해결하기 위해 국가 차원의 체계 구축과 병원 간 협력이 필수적”이라고 강조했다. 또 연세대학교 치과대학병원 강정민 교수는 일본의 영유아 구강검진을 활용한 조기진단 사례를 소개했다. 그는 “일본은 저인산효소증 환아 110명 이상을 조기에 발굴한 사례가 있다. 이와 같은 국가 차원의 조기 진단 체계 구축은 우리나라에도 큰 도움이 될 것”이라며 “국내에서도 구강검진 항목에 저인산효소증 관련 지표를 포함시킬 필요가 있다”고 강조했다. 이어진 종합토론에서는 희귀질환 환아 보호자들이 직접 진단 과정에서 겪은 어려움을 증언했고, 한국희귀난치성질환연합회 정진향 사무총장, 질병관리청 희귀질환관리과 김지영 과장, 보건복지부 건강증진과 박지민 사무관이 참여해 희귀질환 조기진단 체계 구축을 위한 정책적 개선 방향을 논의했다. 저인산효소증 환아 보호자는 “저인산효소증은 증상이 다른 질환과 유사해 조기에 발견되지 않으면 정확한 진단까지 오랜 시간이 걸릴 수 있다”며 “유전자 검사와 선별검사가 보다 체계적으로 이루어진다면 조기 발견이 가능해질 것이다. 하지만 현재 급여 기준이 제한적이어서 진단 이후에도 실질적인 치료 기회를 얻기 어려운 환자들이 많다”라고 호소했다. 또 소아희귀난치성안과질환 환아 보호자는 “우리 아이는 태어나면서부터 모든 신생아 검사를 통과했지만, 정작 안저 검사는 받지 못해 중요한 진단 기회를 놓쳤다. 생후 30일 무렵 이상을 감지했지만, 여러 병원을 전전하며 적절한 검사를 받지 못해 결국 뒤늦게 진단받아 시력을 보존하지 못했고, 치료의 기회를 잃었다”라며 안타까운 사연을 전했다. 패널로 나선 연합회 정진향 사무총장은 “진단이 늦어진다는 것은 치료 기회가 사라진다는 것”이라며 “특히나 저인산효소증, 소아난치성안과질환, 척수성근위축증과 같이 치료제, 외과 수술 등 치료 방법이 있음에도 진단받지 못해 치료의 기회를 놓치거나 생명을 잃는 안타까운 현실에서 이제라도 벗어나기 위해 정부가 실질적인 정책을 마련해야 한다”고 촉구했다. 안상훈 의원은 “우리나라의 세계적인 의료기술이 많은 질환에 대해 조기 발견과 치료 성과를 높이고 있음에도 불구하고, 여전히 많은 희귀질환 환아들이 시스템 미흡으로 적시에 진단받지 못하고 치료 기회를 놓치고 있다”며 “해외 선진국들은 희귀질환 조기진단을 위한 체계적인 노력을 기울이고 있는 것철먼 우리나라도 해외 사례를 참고해 조기진단 체계를 강화해야 한다”고 촉구했다. 또 “특히 일본 사례를 참고해 영유아 구강검진 문진항목에 저인산효소증 관련 항목을 포함하는 등 실질적인 대책이 마련되어야 한다”며 “이번 토론회를 통해 도출된 정책적 제언들이 실질적인 제도 개선으로 이어질 수 있도록 보건복지부를 비롯한 관계기관들과 협의해 나가겠다”고 밝혔다. 김재학 연합회 회장은 인사말을 통해 “희귀질환 환아의 생명은 단순한 의료 접근성의 문제가 아니라, 국가가 책임지고 해결해야 할 사회적 과제”라며 “아이들이 확진을 받기까지 오랜 시간이 걸리는 현재의 구조는 개선돼야 한다. 진단이 늦어질수록 치료 기회를 놓치는 것은 물론, 환자와 가족의 삶까지도 피폐해지는 만큼 조기진단 체계 마련이 더 이상 미뤄져서는 안 된다”고 강조했다.

2025.03.18 16:29조민규

"10년 정도 공들이면 우리나라서도 노벨과학상 나올 것"

"오는 2027년까지 내 임기동안에는 어렵겠지만, 10년 정도 공 들이면 우리나라에서도 노벨 과학상이 나올 것으로 봅니다." 한국과학기술한림원 정진호 원장이 18일 서울에서 기자간담회를 갖고, 한림원 운영 방향과 상반기 현안에 대해 설명하는 자리를 마련했다. 이 자리에서 정 원장은 "노벨상이 목적이 되어선 안되지만, 다음 번엔 한국에서 나와야 한다"며 "현재 과학기술정보통신부와 기획안을 협의 중"이라고 말했다. 정 원장은 "노벨상을 뒷받침하기 위해선 5년 정도의 현행 과제 단위 투자로는 안된다. 예를 들어 반도체나 AI나 집중 투자한뒤 5년 뒤 쯤 경쟁이 끝나면 그 다음은 어쩔거냐"며 이 같이 언급했다. "장기적인 관점에서 보면 기초 및 원천 분야 투자와 응용분야 투자를 칼같이 자를 수 없습니다. 그러나 기초가 무너지면 남는게 아무 것도 없습니다. 이 균형을 잡을 시스템을 만들자는 것입니다." 정 원장은 인재 유출과 관련 일각에서의 과학기술인 정년 연장 주장을 의식한 듯 "정년 연장 등이 필요하다고 생각하진 않는다"고 단호히 언급하며 "차제에 고경력 과학기술자의 활용 발판을 마련할 계획"이라고 말했다. 또 지난해 골프 및 외유 등 기관장 리더십 논란과 관련해서는 올 한해동안 거버넌스 개편, 감사기능 강화, 각종 규정 보완 등을 통해 해결책을 찾을 것이라고 덧붙였다. 정 원장은 무엇보다 기관의 폐쇄적인 운영 구조를 타파하기 위해 외부 의견을 적극 수렴해 나갈 방침이다. 정 원장은 이날 세 가지 추진 목표도 제시했다. 한림원 회원은 한국과학기술의 탁월성을 보여주는 역할모델이기에 엄정하고 선진적인 회원 심사제도를 도입하는 등 과기계 업적 평가 표준을 제시할 방침이다. 또 과학기술 정책에 대해 투트랙으로 대응하는 방안도 내놨다. 과학기술 현안 및 학문 분야별 중점 이슈는 기존처럼 상향식(바텀-업)으로 주제를 발굴하되, 국가 R&D 투자와 방향의 변화 등이 있을 경우 하향식(톱-다운)으로 빠르게 대응해 정책 사업의 전환을 요구할 계획이다. 두뇌 자원의 만성화된 해외 유출을 막기 위해선 전세대를 아우르는 과학기술인 사기 진작 방안을 준비중이라고 언급했다. 한편 이날 행사에는 김성진 총괄 부원장도 참석했다. 김 부원장은 한림원 설립이래 첫 여성 부원장이다.

2025.03.18 16:23박희범

오픈소스 AI 잇달아 등장···보안은?

중국 인공지능(AI) 스타트업이 만든 고성능 AI 제품 '딥시크(DeepSeek)'가 미국 오픈AI의 '챗GPT'보다 저렴한 비용으로 개발됐다는 소식이 세상을 놀라게 했다. 특히 딥시크는 오픈소스로 공개, 더 화제를 모았다. 오픈소스 소프트웨어는 소스 코드를 공개해 누구나 그 코드를 보고 쓸 수 있는 소프트웨어를 뜻한다. 하지만 딥시크는 정보가 빠져나갈 수 있다는 우려도 함께 낳았다. 미국은 해군이 발빠르게 딥시크를 못 쓰게 막았고, 한국도 국방부·외교부·산업통상자원부·과학기술정보통신부 등과 KB국민은행·하나은행·우리은행·케이뱅크 등 은행, 현대자동차그룹 등 기업이 금지했다. 개인정보위원회는 딥시크 사용을 공식적으로 금지하기도 했다. 국가정보원은 딥시크를 검증했더니 ▲과도하게 개인정보를 수집하고 ▲입력 정보를 학습 정보로 쓰며 ▲광고주와 정보를 공유하는 한편 ▲국외 서버에 저장하는 문제점을 확인했다고 밝혔다. 딥시크의 보안 우려는 오픈소스를 사용했기 때문이기도 하다. 오픈소스를 사용한 AI는 보안에 안전할까? 전문가들은 “딥시크 같은 게 어떤 질문을 받으면 이상하게 답하는지 살펴야 한다”고 조언한다. 줄잇는 오픈소스 AI...LG·딥시크·메타·미스트랄 등 잇달아 선보여 오픈소스는 모두에게 열린 자원이므로 이를 활용하면 비교적 저렴한 비용으로 AI 모델을 개발할 수 있다. 중국 딥시크와 미국 메타(페이스북 모회사), 프랑스 미스트랄 등 오픈AI보다 늦게 뛰어든 기업들이 줄줄이 무기를 들고 나올 수 있는 배경이다. 한국도 빠지지 않았다. LG AI연구원은 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC)에서 '엑사원 딥'을 선보이며 오픈소스 플랫폼에 배포했다. 엑사원 딥은 단순한 지식 기반이 아니라 스스로 가설을 세우고 이를 검증하는 방식으로 문제를 푼다. 미국 AI 스타트업 글리터컴퍼니는 최근 메타 '라마' 오픈소스를 쓰기 시작했다. 라마가 무료인 덕에 오픈AI 모델만 쓸 때보다 모델 사용료를 70% 아낀 것으로 알려졌다. 다만 악성 AI '웜GPT(WormGPT)' 같은 것까지 만들 수 있다는 단점이 치명적이다. 웜GPT는 오픈소스로 만들어진 해킹 도구다. 챗봇에게 “이 사이트를 공격하자”거나 “악성 파일을 만들자”고 시킬 수 있다. 기자도 일전에 '보안 초짜기자 해킹 체험기'를 쓰려고 인터넷에서 쉽게 내려받을 수 있었다. 이처럼 누구나 손댈 수 있는 위험물이다. 전문가들 "AI, 정보 모을수록 두 얼굴...보안 취약점이 발견되면 누군가 해킹 도구 만들어 뿌려" 전문가들은 AI가 정보를 모으는 게 양날의 칼이라고 짚었다. 세종사이버대 정보보호학과 교수인 박영호 한국정보보호학회장은 “AI는 정보를 먹을수록 커진다”며 “그만큼 개인정보가 빠져나가는 게 문제”라고 말했다. 내가 유튜브로 언제, 어디서, 무슨 영상을 보는지가 전부 정보라는 얘기다. 알고리즘으로 사용자의 취미나 정치 성향도 알 수 있다. 순천향대 정보보호학과 명예교수인 염흥열 한국개인정보보호책임자(CPO)협의회장은 “오픈소스 취약성을 이용해 AI 보안 시스템을 공격하면 AI가 의도된 대로 동작하지 않고 탈옥 등의 방법으로 악성코드나 대규모 살상 무기 등을 만드는 데 악용될 수 있다”며 “AI가 처리하는 개인정보를 빼돌리도록 쓰일 수도 있다”고 분석했다. 윤두식 이로운앤컴퍼니 대표도 “딥시크 같은 게 어떤 질문을 받으면 이상하게 답하는지 살펴야 한다”며 “학습된 개인정보를 추출하거나 편향적인 답변을 유도하고 악성코드나 무기 제조법 등을 만들라고 이끌어 AI가 나쁘게 답변하는지 점검할 수 있다”고 설명했다. 그러면서 “딥시크 사이트 사용자의 개인정보와 그가 입력한 기록 등이 다른 사이트에 퍼지면 개인정보가 유출되는 셈”이라고 덧붙였다. 이로운앤컴퍼니는 AI 보안 수준을 높이는 서비스를 제공하는 회사다. 이희찬 스틸리언 연구소장은 “오픈소스 AI 행위를 예측하기 어려워 취약점을 검증하기도 힘들다”며 “소스 코드가 공개됐더라도 AI 모델이 복잡하다”고 진단했다. 스틸리언은 모바일 앱 보안 솔루션을 공급하는 업체다. 김택완 한국오픈소스협회장은 “애플이 운영체제 'iOS' 보안이 취약하다고 알아채면 개선해 알려준다”며 “오픈소스 모델은 누가 공지하지 않아 사용자가 스스로 '새로고침' 않으면 취약한 옛 모델을 계속 쓸 수밖에 없다”고 지적했다. 또 “보안 취약점이 발견되면 누군가 해킹 도구를 만들어 뿌린다”며 “해커가 이 도구로 10군데 시도하다가 1군데라도 뚫리면 해킹된다”고 지적했다. 이화영 사이버안보연구소 부소장은 “오픈소스 AI 모델 보안이 취약한지 알아보려면 LLM 정보를 아는 게 먼저”라며 “서비스 구조와 정보 흐름을 파악하고 LLM 애플리케이션을 운용할 때 일어날 수 있는 위협을 예상해 목록을 짤 필요가 있다”고 조언했다. 또 “조직에서 오픈소스를 얼마나 활용하는지 판단하고, 오픈소스에서 보안을 위협하는 요소를 살펴봐야 한다”고 권유했다. "LLM방화벽·필터 등으로 점검" 전문가들은 '내가 무슨 AI 도구의 어떤 버전을 쓰는지' 스스로 지켜보다가 새로운 버전을 찾으면 고쳐 써야 한다고 입을 모았다. AI를 안전하게 쓸 수 있는 인터넷 환경도 주문했다. 김택완 오픈소스협회장은 “우리는 수많은 소프트웨어를 쓰고 버전도 쏟아지는 만큼 업데이트 우선순위를 정하는 게 좋다”며 “내가 쓰는 소프트웨어가 내게 얼마나 중요한지, 얼마나 자주 쓰는지, 내 시스템을 얼마나 망가뜨리는지 위험도를 생각해야 한다"고 권했다. 이희찬 연구소장은 “오픈소스 AI를 외부에서 접속할 수 없는 내부망에서 활용하거나 AI 안전 수준을 높이는 기술(AI safety)을 적용해야 한다"고 조언했다. 염흥열 교수는 “인공지능 시스템을 개발하고 운영하는 조직은 AI 관리 체계를 갖춰야 한다”며 “무엇이 인공지능 시스템을 위협하는지 식별해 꾸준히 감시해야 한다”고 진단했다. 이어 “국제표준(ISO/IEC 42001)에 근거한 인공지능 관리 체계를 제3자 인증기관으로부터 인증받는 것도 방법”이라고 예를 들었다. 윤두식 대표는 ▲사용자 요청과 응답으로 말미암아 민감한 정보를 가려내고 없애는 '거대언어모델(LLM) 방화벽' ▲AI 모델에 전달되는 입력을 미리 점검해 금지된 정보를 막는 '프롬프트 필터링(Prompt Filtering)' ▲모델이 학습할 때 개인정보가 포함되지 않게끔 '학습 정보 정제' ▲생성된 응답을 실시간 살펴봐 부적절한 응답을 막는 'LLM 결과 필터링'을 해결책으로 꼽았다. 이화영 부소장은 “AI 모델 출력 결과나 학습 정보에 민감한 내용이 이씨는지 점검할 필요가 있다”며 “악성코드 탐지, 스팸 메일 필터링, 비정상적인 네트워크 트래픽 탐지 같은 사이버 보안 작업에 AI를 활용하는 것도 방법”이라고 말했다. 박영호 교수는 “브레이크가 좋아야 자동차를 안전하고도 빠르게 몰 수 있듯 AI를 활발하게 쓰려면 윤리 의식과 제도가 뒷받침돼야 한다”며 “이미 모든 기기에 사물인터넷(IoT)을 쓰는 만큼 안전 수준도 높여야 한다”고 강조했다.

2025.03.18 16:22유혜진

"딥시크보다 작고 더 강하다"…LG, 엔비디아 GTC서 '엑사원 딥'으로 AI 시장 재편

LG AI연구원이 추론 인공지능(AI) 모델을 오픈소스로 자체 개발해 고성능 AI 연구·개발 분야에서 글로벌 경쟁력을 증명했다. LG AI연구원은 18일 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC)에서 '엑사원 딥'을 소개하고 오픈소스 플랫폼을 통해 모델을 배포했다. 이 모델은 글로벌 오픈소스 AI 플랫폼 허깅페이스(Hugging Face)를 통해 다운로드할 수 있으며 다양한 성능 평가 데이터도 동시에 공개됐다. '엑사원 딥'은 기존 AI와 달리 단순한 지식 기반이 아니라 스스로 가설을 세우고 이를 검증하는 방식으로 문제를 해결하는 에이전틱(Agentic) AI 개념을 적용한다. 현재 미국 오픈AI·구글, 중국 딥시크·알리바바 등 소수의 기업만이 자체 추론 AI를 보유한 상태로, LG AI연구원의 이번 발표는 글로벌 AI 패권 경쟁에 본격적으로 뛰어들겠다는 선언으로 해석된다. 특히 320억 패러미터의 '엑사원 딥-32B'는 6천710억 패러미터의 딥시크 'R1'에 비해 5% 밖에 되지 않는 규모만으로도 최고 수준의 성능을 기록했다. 한국어 강점을 기반으로 지난해 수능 수학 영역에서 94.5점의 최고점을 기록했으며 선택과목인 확률과 통계, 미적분, 기하에서도 1등급을 달성했다. 또 수학(MATH)-500 테스트에서 95.7점을 받으며 수학적 논리 추론 능력을 입증했다. LG AI연구원은 '엑사원 딥'의 성능 평가 데이터를 허깅페이스에 즉시 공개하며 모델의 논리적 사고력과 문제 해결 능력을 비교할 수 있도록 했다. 박사 수준의 과학 문제 해결 능력을 평가하는 GPQA 다이아몬드 테스트에서 66.1점을 기록했으며 코딩 능력을 평가하는 라이브코드벤치(LiveCodeBench)에서도 59.5점을 기록하며 경쟁력을 보였다. '엑사원 딥-32B' 외에도 경량 모델인 '엑사원 딥-7.8B'와 온디바이스 초경량 모델인 '엑사원 딥-2.4B'가 함께 공개됐다. 경량 모델은 32B 대비 24% 크기지만 성능을 95%까지 유지하고 온디바이스 모델은 7.5% 크기로도 86% 성능을 유지해 실용성과 경제성을 동시에 확보했다. 특히 온디바이스 모델은 외부 서버와의 연결 없이 기기 내부에서 데이터를 처리할 수 있어 보안성과 개인정보 보호 측면에서 강점을 지닌다. 이러한 특징은 스마트폰, 자동차, 로봇 등 다양한 산업에서 온디바이스 AI의 활용이 빠르게 증가할 것으로 전망되는 상황에서 큰 강점을 가질 것으로 전망된다. 연구원은 LG전자, LG유플러스 등 계열사와 협력해 모델을 고도화하고 온디바이스 AI 시장을 선도할 계획이다. 또 AI 기술의 경량화와 고성능 최적화를 통해 기업과 연구소에서 효율적으로 활용할 수 있도록 지속적으로 개선해 나간다는 방침이다. 이번 발표는 지난달 국가인공지능위원회에서 열린 국내 AI 산업 경쟁력 진단 간담회에서 딥시크 R1급 모델을 오픈소스로 공개하겠다고 예고한 지 단 1개월 만에 벌어진 일이다. 이에 업계에서는 빠른 개발 속도와 기술 최적화 전략을 LG의 강점으로 주목하고 있다. 실제로 미국의 비영리 AI 연구기관인 에포크 AI는 '엑사원 딥'을 '주목할 만한 AI 모델(Notable AI Models)'로 선정한 바 있다. LG AI연구원 관계자는 "딥시크 'R1'급 모델을 공개하겠다는 예고 후 한 달여 만에 '엑사원 딥'을 발표하게 됐다"며 "모델 크기를 줄이면서도 성능을 유지하는 것이 우리 AI 기술의 핵심"이라고 밝혔다. 구광모 LG 대표는 올해 신년사에서 "새로운 영역에 도전하고 전에 없던 가치를 만든 많은 순간들이 쌓여 지금의 LG가 됐다"며 "AI와 같은 첨단 기술을 일상에서 편리하게 사용할 수 있게 해 소중한 시간을 보다 즐겁고 의미 있는 일에 쓰는 새로운 라이프 스타일을 만들어 갈 것"이라고 강조했다.

2025.03.18 16:17조이환

금융·IT 합종연횡 소호은행 컨소시엄…'소상공인' 특화 인뱅 기대감↑

제4인터넷전문은행 예비인가 신청일이 일주일 남짓 남은 가운데, 소상공인 특화 인터넷전문은행이 이번엔 출범할 것이라는 기대감이 커지고 있다. 18일 금융업계에 따르면 제4인터넷전문은행에 출사표를 던진 컨소시엄 중 한국소호은행 컨소시엄에 가장 많은 전통 금융사가 주주로 참여하고, 금융당국이 심사 기준으로 내세운 혁신 서비스를 공급할 수 있는 기술력을 보유한 곳도 컨소시엄에 합류해 인터넷전문은행 설립 가능성을 높게 점친다. 금융감독당국은 기존 금융사들이 하지 못했던 금융 서비스 공급을 중점적으로 심사한다. 한국소호은행 컨소시엄은 소상공인 대상 경영 관리 서비스(캐시노트)와 전업 개인사업자신용평가사(한국평가정보)를 보유한 한국신용데이터(KCD)가 주축이라 소상공인 전문 금융 서비스 공급에 큰 무리가 없을 것으로 점쳐진다. 소상공인에 대한 금융 공급 중 걸림돌인 데이터 부족이나 신용평가모형(CSS)의 부적확성을 해결할 수 있을 것이라는 것이다. 한국평가정보는 은행업권 6곳으로부터 투자를 유치했다. 한국소호은행 컨소시엄 측은 "사업장의 매출, 현금 흐름, 단골 비중, 지역 내 경쟁력 등 입체적인 데이터를 바탕으로 업종과 사업장 생애주기에 맞는 차별화된 신용평가와 금융서비스를 제공할 것"이라고 부연했다. 이밖에 네 번째 인터넷전문은행에서 강화된 자본력 평가에서도 무난한 점수를 받을 것으로 관측된다. 이미 한국소호은행 컨소시엄에는 우리은행과 농협은행이 합류 의사를 밝혔으며 하나은행과 부산은행도 추가 참여를 검토 중이다. 비대면 은행으로 만들어지지만 우리은행과 농협은행의 전국 인프라와 영업망 등을 활용할 수 있다는 점도 강점이다. 금융뿐만 아니라 메가존클라우드와 아이티센과 같은 IT 기업도 참여 의사를 밝혔다. 메가존클라우드는 금융산업 특화 클라우드 인프라, 고객 데이터 보호, 보안 기술, 생성형 인공지능(AI) 서비스까지 접목하는 역할을 담당할 예정이다. 아이티센은 통합 인프라 구축 운영 등을 도맡을 것으로 점쳐진다. 신서진 KCD 소호은행TF 담당 상무는 “현재 모든 준비가 마무리 단계에 접어들었다. 국내 최초로 '소상공인을 위한 1번째 은행'을 출범시키기 위해 모든 참여사가 힘을 모으고 있다”며 “26일 인가 서류 접수 때까지 차례로 주요 주주를 공개할 예정이다”라고 밝혔다.

2025.03.18 16:12손희연

이진숙 "방통위 정상화, 국회 몫 상임위원부터 추천해달라"

이진숙 방송통신위원장이 18일 “하루 바삐 국회 몫 상임위원 3인을 추천해 주실 것을 강력하게 촉구한다”고 밝혔다. 이 위원장은 이날 오후 정부과천청사에서 브리핑을 열어 “방통위 정상화를 위한 근본적인 해결책은 방통위법 개정을 하는 것이 아니라, 국회 몫 상임위원 3인을 조속히 추천해 방통위의 5인 체제를 복원하는 것”이라며 이같이 말했다. 지난달 국회 본회의를 통과한 방통위 설치법 개정안이 국무회의에서 재의요구가 결정되면서 마련된 브리핑 자리다. 야당 주도로 국회를 통과한 이 법안은 방통위의 회의 의사정족수를 3인 이상으로 한다는 내용이 주요 골자다. 이 위원장은 “방통위 의사정족수를 3인으로 엄격하게 규정하는 것은 중앙행정기관으로서 방통위의 상시적 행정기능 수행을 어렵게 할 가능성이 높다”며 “개정안처럼 의사정족수를 상임위원 정원 5인의 과반수인 3인 이상의 출석으로 규정하게 되면 여러 가지 사유로 위원 공석이 발생할 때 상시적인 행정행위가 어려워질 수 있다”고 우려했다. 권익위원회, 개인정보보호위원회, 금융위원회 등 다른 합의제 기관에서도 의사정족수를 두지 않고 재적위원을 기준으로 삼는다는 예를 들기도 했다. 국회 추천 이후 30일이 경과하면 임명한 것으로 간주한다는 법안 내용에 대해서는 대통령 임명권 침해와 권력분립 원칙 위배라고 봤다. 이 위원장은 “대통령의 행정부 공무원에 대한 임명권은 행정권의 본질적인 부분으로, 국회가 그 실질을 침해하는 것은 권력분립의 원칙에 반하게 된다”며 “국회가 추천한 사람이 추천일로부터 30일이 지나면 임명된 것으로 간주하는 것은 사실상 국회가 임명권을 행사하는 것이 되어 대통령의 임명권을 형해화하는 것으로 헌법상 권력분립 원칙에 위배된다”고 지적했다. 이어, “대통령의 임명권 행사 시한을 30일로 제한하면, 고위 공직자 검증을 충분히 하기 어려워 방통위의 공정성과 전문성이 훼손될 우려가 있다”고 덧붙였다. 방통위 의사체계 구조를 바꾸는 점에 대해 협의와 사회적 공감대를 먼저 거쳐야 한다는 의견을 내놓기도 했다. 이 위원장은 “방송관계 법안은 방송의 공정성과 독립성을 위해 여야 합의를 통해 입법안을 마련해온 전례를 고려해 개정안에 대한 신중한 재논의와 사회적 합의 형성이 반드시 선행돼야 한다”고 말했다.

2025.03.18 15:49박수형

  Prev 81 82 83 84 85 86 87 88 89 90 Next  

지금 뜨는 기사

이시각 헤드라인

한·미 관세협상 막판 총력전...정부·재계 총출동

직장 '꼰대'는 누가·언제·어떻게 될까...HR 전문가 5인의 생각

삼계탕 2만원 시대...복날 보양식 '가성비' 더 따진다

[기자수첩] 현대차그룹의 글로벌 1위 완성차 꿈은 왜 무산됐나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.