• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI '통합검색 결과 입니다. (7851건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

사이냅소프트-디딤365, 공공·민간 AI 솔루션 시장 공략 맞손

사이냅소프트(대표 전경헌)가 디딤365와 공공과 민간기업 인공지능(AI) 솔루션 공략을 위해 힘을 합친다. 사이냅소프트는 디딤365와 'AI 사업 협력을 위한 업무협약(MOU)'을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 '사이냅 도큐애널라이저'와 'DidimVSM' 솔루션을 연계하여 상호 시너지를 극대화할 계획이다. 특히, 성공적인 LLM 구축을 위해 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 하였다. 사이냅소프트의 '사이냅 도큐애널라이저'는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한, 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 마크다운(Markdown), XML 형식의 정형 데이터로 전환한다. 디딤365의 'DidimVSM'은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션으로, 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화하여 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. ▲PDF, DOC, HWP, IMAGE 등 다양한 문서 파일을 업로드 및 처리해 효율적인 데이터 관리 ▲클릭 기반의 웹 GUI 제공으로 편리하게 데이터 수집 및 데이터 처리를 수행할 수 있는 편의 기능 ▲수집된 벡터 데이터를 체계적으로 관리하고 분석하여 최적의 벡터 데이터 활용 환경을 제공한다. 사이냅소프트 전경헌 대표는 "최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고 있다. 양사는 RAG 시스템 구축에 필수적인 양질의 데이터 확보와 효율적인 데이터 처리 역량을 가지고 있다. 양사의 전문성을 결합하여 고품질 데이터 RAG구축을 통해 정교한 LLM 구축을 지원하게 될 것"이라고 밝혔다. 디딤365 AI/빅데이터 부문 김상래 대표는 "양사간 전략적 파트너십을 통해 디지털 전환이 필요한 공공기관 및 민간 기업을 대상으로 최적의 AI 솔루션을 제공할 예정"이라며 "앞으로도 공공기관 및 기업의 디지털 전환을 선도하고, 국내 AI·빅데이터·클라우드 생태계 확장에 기여할 것"이라고 밝혔다.

2025.02.19 09:59남혁우

[기고] AI 시대 클라우드 보안 강화에 3D 통합 전략 필수

급격한 인공지능(AI) 시장 성장은 새로운 기회와 도전 과제를 동시에 가져왔다. 그 중 '보안'은 윤리와 콘텐츠 안전성, 사이버 공격 등 AI 개발 과정에서 가장 우려되는 이슈 중 하나다. 또 최근 유명인사나 인플루언서의 모습을 실제처럼 위조하는 데 악용되는 딥페이크가 가장 큰 위험 요소로 떠오르고 있기도 하다. 최신 생성형 AI 기술이 피싱과 랜섬웨어 공격에 활용되면서 해커들은 더욱 빠르고 정교한 피싱 이메일을 제작하고 있다. AI 도구를 통한 랜섬웨어 최적화가 새로운 트렌드로 자리잡아 사이버 위협을 더욱 심화하고 있다. 다행히 AI는 보안을 강화할 강력한 도구로도 사용될 수 있다. 이 기술은 보안 운영 효율성과 정확성을 크게 향상시키며, 사용자에게 위협을 탐지하고 예방할 수 있는 고도화된 대응 방안을 제공하기 때문이다. 결국 AI 기술을 사용하는 공격자와 방어자가 끊임없이 기술 발전을 거듭하며 치열한 공방을 이어가는 재미있는 상황이 펼쳐지고 있는 것이다. 최근 AI 어시스턴트를 활용한 보안 강화 사례가 급증하고 있으며, 알리바바클라우드 보안 센터도 이에 발맞춰 중국 내 사용자 대상으로 새로운 AI 어시스턴트를 출시했다. 이 솔루션은 알리바바클라우드의 자체 거대언어모델(LLM) 큐원(Qwen) 기반으로 보안 컨설팅, 경고 분석, 사고 조사, 대응 등 다양한 보안 운영을 지원한다. 지난해 말 기준, 이 AI 어시스턴트는 이미 99%의 위험 감지 알림을 처리했으며, 중국 사용자 88%에게 서비스를 제공하며 빠르게 자리 잡고 있다. 특히 멀웨어 탐지 분야에서는 LLM의 코드 이해, 생성, 요약 기능을 활용해 악성 파일을 효과적으로 탐지하고 방어할 수 있다. 더 나아가 LLM의 강력한 추론 기능을 통해 이상 징후를 신속하게 감지하고 오탐을 줄여 탐지 정확도를 높임으로써 보안 엔지니어의 업무 효율성을 크게 향상시키고 있다. 이는 AI 어시스턴트가 단순한 자동화 도구를 넘어, 점점 더 정교한 사이버 보안 파트너로 진화하고 있음을 보여준다. 멀티·하이브리드 클라우드, 데이터 복잡성·보안 비용↑ 최근 많은 기업이 멀티 클라우드와 하이브리드 클라우드 환경을 도입하면서 IT 인프라의 복잡성이 더욱 증가하고 있다. 스태티스타 조사에 따르면, 지난해 기준 전 세계 기업 73%가 하이브리드 클라우드를 사용하고 있으며, IDC는 아시아 태평양 지역 기업의 약 90%가 멀티 클라우드를 도입했다고 보고했다. 그러나 이런 트렌드는 오히려 보안 관리 비용을 증가시키는 치명적인 단점이 있다. 기업들은 퍼블릭 클라우드, 프라이빗 클라우드, 온프레미스 데이터센터 등 여러 환경에 분산된 보안 제품을 관리해야 하며, 각 환경에서 발생하는 보안 사고에도 신속하게 대응해야 한다. 이러한 복잡성은 결국 IT 팀의 운영·관리 비용 증가로 이어질 수밖에 없다. 또 기업들은 동일한 클라우드 서비스 제공업체(CSP) 제품을 사용하더라도, 데이터 사일로 문제로 인해 데이터 간 원활한 상호운용이 어려운 상황에 직면하고 있다. 데이터 사일로가 발생하면 보안 기능이 개별적으로 고립돼 보안 제품 간 연계가 불가능해지고, 이로 인해 기업의 보안 체계가 더욱 약화될 가능성이 높아진다. 많은 기업들이 내부 조직 구조를 세분화하여 운영하는 것도 또 다른 보안상의 취약점을 낳고 있다. 예를 들어 IT 부서는 기업의 오피스 보안을 담당하지만 각 사업부는 자체 생산 네트워크의 보안을 관리하는 방식이다. 문제는 이런 조직적 분리로 인해 서로 다른 영역이 겹치는 교차 지점에서 보안 취약점이 발생할 가능성이 높아진다는 점이다. 보안 제품에 3D 통합 전략 적용해야 이러한 문제를 해결하기 위해 알리바바클라우드는 보안 제품에 3D 통합 전략을 적용하는 것이 효과적이라고 제안한다. 클라우드 인프라에 대한 통합 보안과 일관된 보안 기술 도메인, 원활한 오피스·생산 환경이라는 세 가지 핵심 시나리오를 포괄하는 통합적 보안 접근 방식을 채택하는 것이다. 클라우드 인프라를 위한 통합 보안은 점점 더 복잡해지는 IT 환경에서 발생하는 보안 문제를 해결하기 위해 설계됐다. 특히 퍼블릭 및 프라이빗 클라우드를 포함한 다양한 인프라의 보안을 통합적으로 관리하는 것에 중점을 둔다. 고도화된 보안 솔루션을 활용하면 기업은 중앙 집중식 단일 콘솔을 통해 리소스 위치와 관계없이 모든 리소스를 일괄적으로 관리할 수 있으며, 이를 통해 IT 인프라 전반의 보안 운영을 보다 원활하고 효율적으로 수행할 수 있다. 통합 보안 기술 도메인은 보안 제품에서 생성되는 로그 데이터를 통합해 강력한 보안 데이터 레이크를 생성한다. 이런 중앙 집중식 스토리지를 통해 첨단 위협 인텔리전스 분석과 경고를 통합해 전반적인 보안 역량을 강화하고 대응 속도를 높일 수 있다. 통합된 오피스·생산 환경은 부서 간 데이터와 프로세스를 간소화하는 것을 목표로 한다. 이를 통해 보안 운영의 효율성을 높이고, 부서 간 침입 위험을 최소화해 더욱 안전하고 유기적인 업무 환경을 조성할 수 있다. 데이터가 어디에 저장됐든 AI와 보안의 통합은 데이터 보호에서 점점 더 중요한 요소가 되고 있다. 알리바바클라우드는 보안 분야에서 AI의 역할을 더욱 심층적이고 광범위하며 자동화된 애플리케이션 형식으로 발전시키는 데 주력하고 있다. 예를 들어, AI를 활용해 제로데이 취약점(Zero-Day Vulnerability)을 탐지하고, 에이전트 기반의 자동화 기술을 통해 더욱 효율적인 보안 대응을 구현하는 것이 대표적인 사례다. AI 보안·규정 준수 강화를 위한 트렌드에 맞춰 클라우드 서비스 제공업체들은 인프라부터 AI 개발 플랫폼, 애플리케이션에 이르기까지 종합적인 지원을 확대하고 있다. 특히 데이터 보호, 알고리즘 규정 준수 등 AI 보안의 여러 측면에서 사용자를 지원하는 것이 가능해진 만큼 클라우드 기업들은 네트워크에 항상 연결된 데이터 보안 솔루션을 구축하도록 돕고, 보다 효율적인 콘텐츠 보안 탐지 기술을 제공하는 것을 목표로 해야 한다.

2025.02.19 09:33오우양 신

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

"By AI는 틈새 전략, For AI는 핵심기술 선점해야"

"바이 AI(By AI)가 포 AI(For AI)보다 글로벌 특허 출원이 4.4배 많습니다." 양종필 특허청 인공지능빅데이터심사팀장은 18일 양재 엘타워에서 열린 '한국인공지능산업협회(AIIA) 2월 조찬포럼'에서 이같이 밝혔다. 이날 양 과장은 'AI 보안과 IP'를 주제로 강연했다. 바이 AI와 포 AI는 특허청이 AI보안 기술을 분류하기 위해 만든 용어다. '보안 바이AI'는 AI기술을 활용해 기존 보안시스템을 고도화, 지능화하는 것이고, '보안 포AI'는 오작동과 정보 유출을 노려 AI모델 취약점을 공격하는 것에 대응하는 걸 말한다. 바이AI 세부기술은 침입 차단 및 탐지, 안전 테스트 및 예방, SW분석 및 포렌식, 사용자 인증 등이 있다. 또 포AI 세부기술은 강건성, 보안성, 개인정보보호 등이 있다. 이 중 강건성은 AI시스템의 내부 결합(에러, 파워다운 등)에 대응해 지속적으로 AI가 동작할 수 있도록 하는 기술 및 측정 기술을 말한다. 양 팀장에 따르면 특허청 조사 결과, 바이AI는 성장기(2015년~2019년, 연 49% 성장)를 지나 성숙기(2019년~2021년, 연 1.7% 성장)에 접어들었고, 포AI는 아직 성장기가 진행중(2017년~2021년, 연 69% 성장)이다. 특히 바이AI 세부 기술 중 출원량이 가장 많은 기술은 침입 차단&탐지 기술(58.1%)로 나타났다. 이어 SW 분석&포렌식(18.9%), 사용자 인증(13.9%), 안전 테스트&예방(9.1%) 순으로 집계됐다. 반면 포AI는 출원량이 가장 많은 기술은 개인정보보호(61%)고 보안성(28,3%), 강건성(10.7%)이 뒤를 이었다. 출원 증가율을 보면, '보안 바이AI'가 2017~2021년 5년간 연평균 21.5% 성장을 보인 반면,'보안 포AI'는 같은 기간 연 평균 68.1%의 가파른 성장을 보였다. AI보안의 국가별 특허 출원 실적은 미국이 41.7%로 세계 1위였고 중국이 40%로 근소하게 2위였다. 한국은 6.7%로 4위, 유럽이 7.5%로 3위, 일본이 4.1%로 5위였다. 또 AI보안을 출원인별로 보면 세계 톱 10중 9곳이 미국 기업이였고, 한국기업은 1곳이였다. 양 팀장은 "AI보안은 사이버 보안 및 인공지능의 융합기술"이라면서 "글로벌 주요 기업 대비 국내 기업들의 기술 개발 및 투자 격차가 존재하는데, 국내는 대기업과 대학 및 연구기관이 주도하고 있는데 AI보안 분야 스타트업 지원 정책이 필요하다"고 강조했다. 이어 한국의 AI 보안 특허시장은 미국,중국에 비해 규모가 열세라면서 "국내 특허 시장 매력을 높이기 위한 법적 보호 체계 강화와 국제 인지도 제고 등이 필요하다"고 말했다. 기술 성숙도에 따른 차별화 전략도 짚었다. 즉 바이AI는 틈새 전략이, 포AI는 핵심기술을 선점해야 한다는 것이다.

2025.02.18 21:07방은주

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

머스크의 '그록3', 추론-미니 추론 2종 나와…1주일 후 음성 모드 추가

테크크런치(TechCrunch)가 19일(현지 시간) 보도한 내용에 따르면 일론 머스크의 인공지능 기업 엑스AI(xAI)가 17일(현지시간) 새로운 AI 모델 '그록3(Grok 3)'을 공개했다. 이와 함께 그록 iOS 앱과 웹 앱의 새로운 기능도 선보였다. 그록3는 오픈AI(OpenAI)의 GPT-4o와 구글(Google)의 제미나이(Gemini)에 대항하는 모델이다. 이미지 분석과 질문 응답이 가능하며, 머스크의 소셜 네트워크 X(구 트위터)의 다양한 기능을 지원한다. 엑스AI는 멤피스에 위치한 대규모 데이터센터에서 약 20만 개의 GPU를 활용해 그록3를 학습시켰다. 머스크는 X를 통해 "그록3가 이전 모델인 그록2보다 10배 더 많은 컴퓨팅 파워로 개발됐다"고 밝혔다. 그록3는 '그록3 추론(Grok 3 Reasoning)'과 '그록3 미니 추론(Grok 3 mini Reasoning)' 등 여러 모델로 구성됐다. 이들은 오픈AI의 o3-미니(o3-mini)와 중국 딥시크(DeepSeek)의 R1처럼 문제를 '사고'하며 해결하는 기능을 갖췄다. 또한 '딥서치(DeepSearch)'라는 새로운 기능을 통해 인터넷과 X 플랫폼을 검색하여 질문에 대한 요약된 답변을 제공한다. X 프리미엄플러스(Premium+) 구독자($50/월)가 그록3를 먼저 사용할 수 있다. 추가 기능은 '슈퍼그록(SuperGrok)' 요금제($30/월 또는 $300/년)를 통해 이용 가능하다. 머스크는 "약 1주일 후에 음성 모드가 추가되고, 몇 주 후에는 기업용 API를 통해 그록3 모델과 딥서치 기능을 제공할 계획"이라고 밝혔다. 또한 "그록3가 안정화되면 그록2를 오픈소스로 공개할 예정"이라고 덧붙였다. 엑스AI는 그록3가 수학 문제 평가 벤치마크인 AIME와 박사급 물리, 생물, 화학 문제를 평가하는 GPQA에서 GPT-4o를 능가했다고 주장했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.18 20:13AI 에디터

합성 데이터로 탄생한 '그록3'…환각·결함 우려 괜찮나

xAI가 출시한 인공지능(AI) 모델 '그록3' 성능에 대한 우려가 나왔다. 모델 데이터 상당수가 합성데이터로 구성돼 결함과 환각 현상을 높일 수 있다는 염려 때문이다. 이에 오픈AI를 비롯한 구글, 딥시크를 뛰어넘는다는 xAI 주장에 의문점이 생겼다. 18일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 '지구상에서 가장 똑똑한 모델'이라며 출시한 그록3 성능에 대해 이같은 의문이 제기된 것으로 전해졌다. xAI는 소셜미디어 X(엑스) 라이브 시연을 통해 새 모델 그록3 베타버전과 미니버전을 공개했다. 공식 버전과 그록3 API, 딥서치 기능은 추후 배포 예정이다. xAI 연구진은 "그록3가 대량의 합성 데이터셋과 자체 오류 수정, 강화 학습을 통해 그록2보다 정교한 결과를 제공한다"고 라이브 시연을 통해 자신했다. 특히 논리적 추론, 연산 능력, 적응력이 기존 대비 대폭 향상됐다고 평가했다. 그러면서 "대규모 그래픽처리장치(GPU) 자원을 추가해 방대한 데이터셋을 더 짧은 시간 안에 처리했다"며 "정확도까지 높였다"고 덧붙였다. AI 업계에서는 그록3이 학습한 데이터셋 다수가 합성이라는 점을 우려했다. 합성데이터가 모델 결함을 높이고 환각 현상을 높일 수 있기 때문이다. 합성데이터는 실제 데이터 특성·분포를 모방해 인공적으로 생성된 데이터다. 보통 AI 모델서 나온 결과물을 다시 모델에 넣어 재활용되는 식으로 쓰인다. 생성형 AI 모델 개발에 필요한 데이터가 곧 고갈될 것이란 전망이 나온 가운데 합성데이터가 대안으로 떠오르고 있다. 다만 품질이 낮거나 오류를 생성하는 합성데이터가 모델에 들어갈 경우 모델 자체 성능을 떨어뜨릴 수 있다. 이같은 우려는 이미 학계에서 거론된 바 있다. 지난해 옥스퍼드대 연구진은 합성데이터가 모델 결함을 증가시키고 환각 현상을 초래할 수 있다고 경고했다. 모델이 소량의 합성 데이터만 학습해도 성능에 큰 영향을 줄 가능성이 있다는 지적이다. 한 업계 관계자는 "합성데이터를 반복적으로 사용할 경우 오류 전파(Error Propagation)로 인해 현실과 괴리가 심해질 것"이라고 지적했다. 그러면서 "합성 데이터로 모델 사이즈를 늘리는 것보다 데이터 품질이 얼마나 좋은지가 관건일 것"이라고 덧붙였다. 그록3, GPT보다 정말 똑똑할까 해외 업계에서는 그록3가 오픈AI, 구글 등 타사 모델을 실제 능가했을지 의문이라는 분위기다. 최근 그록3를 개발에 참여한 개발자가 해당 모델 성능을 낮게 평가하는 게시글이 퍼지면서다. 벤자민 데크라커 전 xAI 개발자는 "그록3이 코딩 측면에서 오픈AI의 ChatGPT o1, o1프로, o3미니 모델만큼 뛰어나지 않다"는 의견을 소셜미디어 X에 게시했다. xAI는 해당 게시글이 회사 기밀 정보를 포함한다고 주장하면서 삭제를 요청했다. 이에 데크라커는 "단순한 개인 의견일 뿐이며 게시글 삭제를 강요받아 사임을 결정했다"고 해외 언론에 밝혔다. 반면 xAI는 이번 라이브 시연에서 그록3가 과학, 코딩, 수학 분야에서 오픈AI '챗GPT-4o'를 비롯한 구글 '제미나이 2.0 프로', 딥시크 '딥시크 V3'보다 더 높은 점수를 기록한 벤치마크 결과를 공개했다. 업계 관계자는 "공식 버전이 내놓는 결과물을 봐야 한다"며 "벤치마크에서 모든 모델 성능을 능가했다는 결과도 무의미하다"고 평가했다.

2025.02.18 19:37김미정

"보안의 판을 바꾼다"…체크포인트, 초연결 시대 위한 AI 통합 플랫폼 소개

[방콕(태국)=조이환 기자] "이번 행사는 1년 동안 우리가 구축한 기술을 공유하고 고객과 소통하며 실질적인 인사이트를 얻는 중요한 자리입니다. 초연결 시대에는 단일 보안 솔루션이 아니라 모든 보안 요소를 하나로 통합하는 플랫폼 접근 방식이 필수적으로, 인공지능(AI) 기반 자동화와 협업을 중심으로 보안 전략을 혁신해 나가겠습니다." 나탈리 크레머 체크포인트 최고제품책임자(CPO)는 18일 태국 방콕에서 개최된 '체크포인트 익스페리언스 2025(CPX 2025)'에서 AI 기반의 통합 보안 플랫폼 체크포인트 인피니티를 소개하며 이같이 말했다. 이날 키노트에서 크레머 CPO는 AI 기술을 활용한 최첨단 보안 기능을 집중적으로 소개했다. 이 기능들은 기업이 급변하는 사이버 위협에 효과적으로 대응하고 보안 정책 관리와 운영 효율성을 극대화할 수 있도록 설계됐다. AI 기반 보안 혁신…정책 최적화부터 자동 대응까지 크레머 CPO는 AI 기반 핵심 기능을 종합적으로 소개하며 보안 혁신 방향을 제시했다. ▲ 퀀텀 폴리시 인사이트와 ▲ 퀀텀 폴리시 오디터는 정책 관리 및 아이덴티티 보안을 강화하고 ▲ 인피니티 플레이블록스는 보안 자동화 기능을 지원한다. 또 ▲ 인피니티 AIOps와 ▲ 인피니티 AI 코파일럿은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. '퀀텀 폴리시 인사이트'는 네트워크 정책에 내재된 문제점을 심층 분석하는 AI 기반 도구다. 이 기능은 정책 내에 사용되지 않거나 과도하게 허용된 규칙들을 식별해 보안 관리자가 보다 정확하게 정책을 개선할 수 있도록 돕는다. 이를 통해 기업은 불필요한 보안 허점을 미리 제거하고 보다 엄격한 제로 트러스트 환경을 구축할 수 있다. 또 '퀀텀 폴리시 오디터'는 네트워크의 다양한 세그먼트 간 접근 권한을 시각적으로 보여주는 도구다. 이 기능은 각 세그먼트의 트래픽 흐름과 정책 적용 현황을 한눈에 파악하게 해 보안 관리자들이 규정 위반이나 불일치를 빠르게 확인하고 수정할 수 있도록 돕는다. 결과적으로 조직 내 보안 정책 준수와 규제 감사 준비가 훨씬 수월해진다. '인피니티 플레이블록스'는 보안 자동화 기능을 갖춘 솔루션으로 네트워크에서 발생하는 각종 위협에 대해 자동으로 대응할 수 있도록 설계됐다. 체크포인트 제품과 제3자 보안 솔루션을 연동해 공격 발생 시 즉각적인 차단과 경고를 제공해 전사적인 보안 태세를 강화한다. 더불어 '인피니티 AI옵스'와 '인피니티 AI 코파일럿'은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. 이들 솔루션은 방대한 로그와 실시간 트래픽을 분석해 보안 이벤트 발생 원인을 신속하게 진단하고 자동화된 추천과 대응 전략을 제시한다. 이를 통해 보안팀은 반복적인 업무 부담을 줄이고 더 전략적인 업무에 집중할 수 있다. 이어 에란 하바드 보안 관리 R&D 부장은 퀀텀 폴리시 인사이트와 오디터를 활용한 정책 자동 보정 및 시각화 데모를 선보였다. 이로써 AI가 보안 정책을 더욱 정밀하게 관리할 수 있음을 시사했다. 또 리앗 치한 관리 및 인피니티 비전 그룹 품질보증 매니저는 인피니티 플레이블록스가 제3자 보안 솔루션과 연동해 실시간 사이버 공격을 차단하는 시나리오를 소개하며 AI 기반 자동화 대응이 보안 운영 효율성을 극대화하는 핵심 요소임을 강조했다. 크레머 CPO는 "이러한 혁신적인 기술들은 디지털 전환 시대에 기업들이 안정적인 보안 환경을 구축할 수 있도록 돕는다"며 "미래 위협에 선제적으로 대응할 수 있도록 강력한 지원을 제공할 것"이라고 밝혔다. 클라우드 시대, 보안 전략 '대전환'…위즈와 협업으로 CNAPP 혁신 가속 크레머 CPO에 따르면 체크포인트는 최근 클라우드 보안 강화를 위해 자사 '클라우드가드' 솔루션을 업그레이드하고 클라우드 네이티브 애플리케이션 프로텍션 플랫폼(CNAPP) 분야에서도 중요한 협력을 발표한 바 있다. 이번 업그레이드는 온프레미스와 멀티 클라우드를 아우르는 보안 정책 통합 기능을 제공해 기업들이 다양한 IT 환경에서 일관된 보안 체계를 유지할 수 있도록 돕는 것을 목표로 한다. 그는 "클라우드 네이티브 방화벽만으로는 기업을 보호하기 어려우며 하이브리드 보안 전략이 필수적"이라며 "기존 보안 솔루션 한계를 극복하기 위한 새로운 접근 방식을 제시했다"고 밝혔다. 이어 "온프레미스와 멀티 클라우드를 동시에 운영하는 기업이 늘어남에 따라 보안 정책의 일관성을 지키면서도 복잡한 환경을 효율적으로 보호할 수 있는 기술이 필수적"이라고 설명했다. 이러한 전략의 일환으로 체크포인트는 CNAPP 영역의 독보적인 기업인 위즈(Wiz)와 협력하고 있다. 위즈의 공격 표면 분석 기능과 체크포인트의 보안 정책 자동화 기술을 결합해 보안팀이 훨씬 빠르게 취약점을 발견하고 보완할 수 있도록 돕는다. 또 크레머 CPO는 체크포인트가 현재 '인피니티 생성형 AI 프로텍트'를 공개했다고 밝혔다. 이 솔루션은 기업 내 AI 애플리케이션 사용 현황을 면밀히 모니터링해 섀도우 AI로 인한 정보 유출 위험을 사전에 차단한다. 최근 AI 업무 도구 사용이 증가하면서 외부 AI 서비스로 기업 내부 데이터가 무분별하게 전송되는 문제가 심화되는 상황에서 이를 해결하기 위해 실시간 감지 및 자동 보안 정책 적용 기능을 제공하기 위함이다. 실제로 이날 행사에서는 '인피니티' 생성 AI 솔루션의 실시간 보안 기능 시연도 주목받았다. 오피르 이스라엘 체크포인트 위협 예방 부문 부사장은 개발자가 내부 코드를 외부 AI 도구에 입력하는 순간 해당 데이터가 자동으로 차단되어 외부로 전송되지 않는 모습을 시연했다. 이를 통해 기업들은 AI 도구를 안전하게 활용하면서도 중요한 기업 정보가 의도치 않게 유출되는 상황을 사전에 방지할 수 있음이 강조됐다. 크레머 CPO는 "AI 보안은 단순한 보호 수단이 아니라 기업의 정보 자산을 지키는 필수 요소"라며 "기업은 이 솔루션을 통해 AI 기술을 안전하게 활용하면서도 보안 리스크를 최소화할 수 있다"고 설명했다. 엔비디아와 협력해 AI 데이터센터 보호 강화…GPU 성능도 100% 유지 크레머 CPO에 따르면 체크포인트는 현재 엔비디아와 협력해 AI 데이터센터 보안을 강화하는 새로운 솔루션을 발표한 상태다. 이 솔루션은 네트워크 카드(NIC) 수준에서 보안 기능을 적용하여 GPU의 성능을 저하시키지 않으면서도 AI 연산을 보호할 수 있도록 설계됐다. 이에 AI 인프라를 운영하는 기업들이 높은 연산 성능을 유지하면서도 보안 위협에 효과적으로 대응할 수 있게 된다. 특히 이번 솔루션은 네트워크 카드 자체에서 보안 프로세스를 처리함으로써 GPU가 AI 연산에만 집중할 수 있도록 최적화된 것이 핵심이다. 기존 보안 솔루션은 데이터센터 내 트래픽을 점검하는 과정에서 연산 성능을 저하시킬 위험이 있었지만 두 회사 간의 협업을 통해 이러한 문제를 해결한 것이다. 향후 체크포인트는 AI 연산 과정에서 발생하는 보안 위협을 실시간 감지·차단하여 데이터 유출과 악성 공격을 사전에 방지할 계획이다. 이를 통해 AI 모델 학습 및 운영 환경의 보안성을 강화할 전망이다. 나탈리 크레머 체크포인트 CPO는 "AI 기술이 발전할수록 보안 위협도 함께 진화하고 있다"며 "협력을 통해 기업들이 AI 연산을 안전하게 수행할 수 있도록 강력한 보호 체계를 구축하겠다"고 밝혔다.

2025.02.18 18:51조이환

"국가 AI 경쟁력 확대...'혁신' 이끌 규제수준 갖춰야”

인공지능(AI) 기술 개발과 주도권 확보를 위한 국가 간 경쟁이 치열해지는 가운데 적정 수준의 AI 산업 규제를 갖춰야 한다는 전문가들의 의견이 모였다. 김용희 경희대 교수는 18일 더불어민주당 이훈기 의원이 주최한 AI 정책 토론회에 발제를 맡아 “AI 기본법의 모호성과 불확실성이 기술혁신을 저해하고, 결국 국제 경쟁력 저하로 이어질 우려가 있다”며 “해외 사업자에 대한 의무 규정이 국내 시장의 고립을 초래해 소비자에게 불이익이 올 수 있다”고 밝혔다. 이어, “정책의 국제적 정합성을 확보하고 기업 지원 확대와 산업계와의 소통 강화가 법 시행의 성공을 좌우할 것”이라고 강조했다. 김 교수는 또 “글로벌 AI 패권 경쟁이 치열한 상황에서 규제 수준은 각국 기업들의 기회와 위상을 좌우하고 있다”며 “한국이 세부 규제가 EU 수준으로 엄격해진다면, 한국 AI 업체가 글로벌 시장에서 경쟁력을 상실할 수 있다”고 덧붙였다. 네이버클라우드의 하정우 AI이노베이션센터장 역시 발제를 맡아 “규제 자체가 본질이 될 수는 없고, 혁신을 위한 규제를 생각해야 한다”며 “네거티브 이점을 최대한 활용하고 실제 많은 나라들이 점점 이같은 방향을 택하고 있다”고 말했다. 그러면서 “우리나라는 날리지 AI 기술을 충분히 보유한 기업들이 있다”며 “AI G3를 위해서 국가 전체 AI 전략을 수립 집행할 거버넌스를 고도화하고, 법적 안전장치를 마련할 필요가 있다”고 했다. 토론에 참여한 계인국 고려대 행정전문대학원 교수는 “AI에 대한 기본적 인식이나 전개양상은 글로벌 스탠다드화 되고 있다”며 “그러나 현재 우리나라 AI 기본법에서의 AI에 대한 정의는 '인간 유사적'이라고 정의하고 있어 인지적 AI만 대상으로 보게 될 수 있어 실제 산업현장에서 사용되는 비인지적 AI를 이 법에 적용대상으로 보기 어려울 수 있다”고 짚었다. 이어, “개발사업자, 이용사업자를 구분 정의하고 있으나 실제 AI 생태계에서 사업자의 구분은 모호하다”며 “이러한 부분에 대한 개정을 두려워하지 말고 과감하게 고려해야 한다”고 주장했다. 코리아스타트업포럼 구태언의 부의장은 “우리나라가 EU와 같이 강한 규제를 도입하면 AI 스타트업이 초기부터 과도한 부담을 지게 될 수 있다”며 “AI 규제를 혁신 촉진형 접근 방식으로 조정할 필요가 있다”고 주장했다. 법무법인 세종의 장준영 AI센터장은 “국민들이 AI 리스크에 대해 안심할 수 있으면서도, 기업들의 부담은 최소화할 수 있는 방안을 찾는 것이 한국형 모범답안이 될 수 있다”며 “규제 샌드박스, 안심구역 등 탄력적 자율적 규제 수단을 적극적으로 고려해야 한다”고 제안했다. 산업에 대한 규제 완화 시각과 달리 일정 부분에서는 규제를 갖춰야 한다는 의견도 나왔다. 오병일 진보네트워크센터 대표는 “AI 기술 혁신과 제도가 별개로 발전할 수 없다”며 “우리 사회가 어떤 AI를 발전시킬 것인지, 그리고 어떻게 AI를 민주적으로 통제할 것인지에 대한 사회적 논의가 병행되어야 한다”고 주장했다. AI 산업 경쟁력 확대를 위해 데이터 중요성에 대한 논의도 이어졌다. 최근 들어 AI 컴퓨팅 인프라 확보에 주요 논의가 쏠려있는데, AI 모델 학습을 위한 데이터 확보 문제도 중요하게 봐야 한다는 뜻이다. 장준영 센터장은 “새로운 규제개선을 통한 전략도 좋지만, 기존에 우리나라가 갖고 있던 데이터 활성화 정책을 잘 활용하고 발전시키는 방향을 통해서도 우리나라만의 인공지능 전략을 만들 수 있을 것”이라고 말했다. 김경만 과학기술정보통신부 인공지능기반정책관 역시 “우리나라가 범용인공지능(AGI) 개발 경쟁력을 갖기 위해서는 결국 양질의 데이터가 필요한 상황”이라며 “이를 위해 법적인 기반이 마련되지 않는다면 공공에 자금 투입으로 지원하는 것도 가능할 것”이라고 설명했다. 김 국장은 또 “AI를 핵무기와 같은 전략자산으로 인식하고 이를 가질 것이나 안 가질 것이냐로 봐야 한다”며 “전략자산, 첨단기술로서 AI에 대한 경쟁체계로 세계 AI 경쟁은 바뀔텐데 우리나라 자체 AI 기술의 개발이 경쟁력을 만들 것”이라고 덧붙였다. 토론회를 개최한 이훈기 의원은 인사말을 통해 “미국의 정책 변화와 중국의 딥시크 충격 등 세계 AI 정책 지형이 빠르게 변화하는 가운데 우리나라만의 인공지능 정책 방향을 확립하는 것이 중요한 시점”이라며 “더불어민주당은 AI 거버넌스 전략 수립을 통해 대한민국이 인공지능 선도국으로 도약할 수 있도록 각계와 긴밀히 협력하며 노력하겠다”고 밝혔다.

2025.02.18 18:50박수형

정부·여당, AI 경쟁력 확보에 '2조 추경' 운 띄웠다

당정이 인공지능(AI) 인프라 확충을 위해 2조원 규모의 추가경정예산 논의를 띄웠다. 연내 GPU 1만장 확보를 통한 국가AI컴퓨팅센터 개소에 이어 내년 상반기까지 GPU 보유량을 2만장으로 늘린다는 목표다. 18일 오후 국회서 열린 AI 경쟁력 강화 당정협의회가 끝난 뒤 브리핑을 통해 과학기술정보방송통신위원회 여당 간사를 맡고 있는 최형두 의원은 “지난해 여야가 극심한 정쟁 속에서도 상임위에서 합의한 AI 인프라 확충 예산 증액 규모 1조2천억원에 8천억원을 더한 2조원 정도의 인프라 강화 예산에 정부의 큰 결단이 필요하다”고 밝혔다. 김상훈 국민의힘 정책위의장은 “GPU와 같은 첨단반도체 기반 AI 컴퓨팅 인프라는 국가 발전과 산업 경쟁력을 높이는 핵심 성장동력이자 국가 전략자산이라는 측면에서 민관 협력을 통해 국가 AI 인프라 조기 확충을 달성하고 AI 연구개발 환경과 AI 컴퓨팅 생태계 전반의 성장기반 확대가 필요하다는 데 공감했다”고 강조했다. 이어, “국가AI컴퓨팅센터를 통해 구축된 GPU와 멀티모달을 지원하는 다양한 학습데이터를 연구계와 산업계에 지원해 우리나라의 자체 AI기반모델이 GPT와 같은 세계적 수준에 버금가는 AI 모델이 될 수 있도록 집중 지원하겠다”고 덧붙였다. AI와 같은 첨단기술 분야 인재 양성을 위한 무상교육 도입 방안도 논의됐다. 김 의장은 “국가첨단전략기술을 연구하는 청년들이 마음껏 도전할 수 있도록 해당 학과 대학생들에게 획기적인 장학 제도를 도입하겠다”며 “중장기적으로는 무상교육이 실현될 수 있도록 관련 사항을 적극 추진하기로 했다”고 했다. 그러면서 “현재도 국가장학생 제도가 있는데 첨단전략기술 분야에 강화된 국가장학생 제도를 도입하겠다는 뜻이로, 인재 육성이 필요하니 중장기적으로 무상교육을 추진하겠다는 것”이라며 “교육당국 협의가 전제되어야 하는데, 국내 교육기관에서 졸업한 뒤 국내산업에 전제한다는 종사에 따라 무상교육을 제공하고 해외유학도 필요하다면 지원할 수도 있다”고 설명했다.

2025.02.18 17:49박수형

[Q&AI] 국내 첫 대체거래소 '넥스트레이드'…거래 가능 종목 10개는?

질문1: 한국에 대체 거래소가 생긴다고 하는데, 뭐가 달라지는 거야? 앨런 답변: 한국의 첫 대체 거래소인 '넥스트레이드'가 3월 4일에 출범할 예정입니다. 이로 인해 여러 가지 변화가 예상됩니다. 거래 시간 연장: 기존 한국거래소(KRX)의 거래 시간은 오전 9시부터 오후 3시 30분까지였으나, 넥스트레이드는 오전 8시부터 저녁 8시까지 거래가 가능합니다. 프리마켓(오전 8시~8시 50분)과 애프터마켓(오후 3시 30분~8시)을 운영하여 투자자들에게 더 많은 거래 기회를 제공합니다. 수수료 절감: 넥스트레이드는 기존 거래소보다 20~40% 저렴한 수수료를 제공할 예정입니다. 이는 단기 매매를 선호하는 투자자들에게 유리할 수 있습니다. 거래 종목 확대: 초기에는 10개 종목만 거래 가능하지만, 점차 거래 종목을 800개로 확대할 계획입니다. 삼성전자와 주요 삼성그룹주는 3월 24일부터 거래가 가능해질 예정입니다. 새로운 호가 방식 도입: 중간가주문과 같은 새로운 호가 방식이 도입되어 투자자들이 보다 유연한 거래를 할 수 있게 됩니다. 시장 경쟁 촉진: 넥스트레이드의 출범으로 한국 주식시장은 복수 거래소 체제로 전환됩니다. 이는 한국거래소의 독점 체제를 깨고, 자본시장의 발전에 기여할 것으로 기대됩니다. 투자자 편의성 증대: 거래 시간이 연장됨에 따라 직장인들도 퇴근 후 주식 거래에 참여할 수 있으며, 저녁 시간에 발생할 수 있는 이슈에 대한 대응력이 높아집니다. 그러나 대체 거래소의 안전성에 대한 우려와 고빈도매매와 같은 초단타 거래 증가 가능성도 지적되고 있습니다. 초기 정착에는 시간이 필요할 것으로 보이며, 지속적인 투자자 보호와 안정성 확보가 중요합니다. 질문2. 넥스트레이드에서 거래 가능한 종목은 어떤 것들이 있나요? 앨런 답변: 넥스트레이드에서 출범 초기인 3월 4일부터 거래 가능한 종목은 다음과 같습니다. 코스피 종목 롯데쇼핑 제일기획 코오롱인더스트리 LG유플러스 S-OIL 코스닥 종목 골프존 동국제약 에스에프에이 YG엔터테인먼트 컴투스 이들 종목은 초기 1~2주 동안 거래되며, 점차적으로 거래 종목을 확대하여 5주 차에는 800개 종목으로 늘릴 계획입니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 17:13AI 에디터

남부발전, 에너지공대와 '슬기로운 에너지전환' 위해 맞손

한국남부발전(대표 김준동)은 한국에너지공과대학교와 '슬기로운 에너지전환을 위한 기술협력 협약'을 체결했다고 밝혔다. 남부발전은 협약을 계기로 발전산업의 슬기로운 에너지전환을 위해 인공지능(AI)·수소에너지 등 미래기술 개발에 대한 협력 방안을 모색할 계획이다. 남부발전은 2027년부터 순차적으로 폐지 예정인 하동화력 1~6호기를 중소기업 우수기술 실증단지로 활용해 국내기술의 우수성 검증과 함께 판로개척을 지원하는 'KOSPO 개방형 테크노브리지' 사업을 추진하고 있다. 남부발전은 에너지공대와 기술협력을 통해 테크노브리지 사업 참여 실증제품 기술지원을 제공, 실증기술의 완성도를 높이고 중소기업의 기술경쟁력을 강화해 나갈 계획이다. 남부발전은 삼척화력에 수소화합물 20% 혼소실증 사업을 추진하는 것을 비롯해 AI 기술을 활용한 발전설비 감시 애플리케이션 개발하는 등 수소에너지와 4차 산업혁명 기술을 도입하고 있어 에너지공대와의 기술협력은 미래기술 개발에 시너지를 얻을 것으로 기대하고 있다. 김준동 남부발전 사장은 “이번 협약은 국내 중소기업 우수기술의 경쟁력을 강화하고 수소 및 AI 기술 등 미래 에너지를 선도하는 중요한 발판이 될 것으로 기대한다”며 “앞으로도 지속적인 연구 협력을 통해 탄소중립 목표 달성은 물론 에너지 기술 경쟁력 강화를 위해 최선을 다하겠다”고 말했다. 박진호 한국에너지공과대학교 총장직무대행은 “이번 협약은 에너지공대의 연구 역량과 남부발전의 실증 인프라가 결합해 실질적인 에너지 기술 혁신을 이끄는 계기가 될 것”이라며 “다양한 분야에서 협력을 확대해 탄소중립 실현과 에너지 산업의 지속가능한 성장을 위해 기여하겠다”고 밝혔다.

2025.02.18 16:53주문정

범부처 비상수출 대책 마련…관세대응·무역금융·대체시장 패키지 지원

정부가 최근 미국 신정부 출범과 첨단산업 경쟁 과열 등 수출환경 악화를 극복하기 위한 '범부처 비상수출 대책'을 마련, 수출 총력전에 나선다. 산업통상자원부는 18일 최상목 대통령 권한대행 주재로 개최된 '제6차 수출전략회의'에서 관세 피해 긴급 대응, 역대 최대 무역금융, 글로벌사우스 수출시장 다변화 등 3대 패키지 지원과 수출기업 애로 해소 방안을 담은 '범부처 비상수출 대책'을 발표했다. 산업부는 우선 ▲관세 대응 수출 바우처 도입 ▲글로벌 보호무역주의 특화 무역보험지원 강화 ▲유턴기업 특별지원 ▲신속 대응체계 구축으로 구성된 관세 대응 패키지를 마련해 즉시 시행하기로 했다. 미국 관세 조치로 피해가 우려되는 중소‧중견 수출기업의 애로에 유연하게 대응할 수 있도록 관세 대응 수출 바우처를 도입하여 지원한다. 미국·멕시코·캐나다 등 KOTRA 해외무역관에 20개 헬프데스크를 운영하고 현지 관세와 법률 컨설팅사 등 파트너사와 협력해 피해분석부터 대응방안 마련, 대체시장 발굴까지 패키지로 지원한다. 보호무역주의에 대응하기 위한 무역보험 지원도 대폭 강화한다. 관세 피해발생 기업을 대상으로 무역보험 지원 한도를 최대 2배까지 확대하고, 중소·중견기업에는 상반기까지 한시적으로 단기 수출보험료를 60% 할인한다. 수출계약이 취소·변경되거나 수출대금을 회수하지 못한 기업에는 신속하게 보상을 심사(2→1주)하고 보험금을 지급(2→1개월, 1개월 경과시 가지급)한다. 관세에 대응해 해외 생산시설을 이전하고 신규로 투자하는(P턴) 기업의 해외투자자금 대출은 무역보험공사에서 올해 2조원 규모로 보증을 지원한다. 또 ▲역대 최대 규모의 무역금융 지원 ▲환변동 리스크 특화 무역금융 공급 강화 ▲소상공인, 수출 대기업 납품 협력사까지 포함하는 중소·중견기업 무역금융 접근성 확대 방향으로 무역금융 패키지를 마련했다. 수출금융 유관기관 합동으로 역대 최대 무역금융 366조원을 지원해 수출기업에 유동성을 제공하고, 중소·중견기업을 위해 무역보험 100조원(중소기업 60조원, 중견기업 40조원)을 공급한다. 6월까지 중소·중견기업의 보험료‧보증료를 일괄적으로 50% 할인하고, 수출 실적 100만 달러 이하 중소기업 3만5천개사에 보험료를 90%까지 할인한다. 3월부터는 수출 실적이 미흡하고 재무 상태가 어려운 기업에도 성장 가능성을 보고 보증·보증해주는 특례지원도 강화하는 등 중소·중견기업에 무역보험을 파격적으로 지원한다. 기업의 환변동 리스크 대응을 위한 무역금융을 8조5천억원으로 확대해 공급한다. 핵심 원자재 수입에 차질 없도록 4조원 규모 수입자금 대출보증을 지원하고, 3월부터 지원대상을 사치재를 제외한 모든 품목으로 확대한다. 환변동 리스크 헷지를 위한 환변동보험을 지난해 보다 2배 많은 3조원으로 확대한다. 6월까지 일시적으로 한도를 1.5배 우대하고 보험료도 30% 할인하여 운영한다. 옵션형 수입 환변동보험도 신설, 기업 편의를 대폭 강화한다. 고환율로 피해 등을 입은 중소기업에는 1조5천억원의 정책자금을 지원한다. 무역금융 지원의 사각지대를 해소하기 위해 무역보험공사와 민간은행 간 협업을 통한 상품도 도입한다. 시중은행과 협업해 중소‧중견기업을 대상으로 제작자금, 수출채권 조기 현금화, 수입자금을 지원하는 '수출패키지 우대보증'을 2조원으로 전년 대비 2배로 확대해 공급한다. 대기업과 협력해 중소‧중견 간접수출 기업(협력 납품사) 전용 프로그램 상품도 신설한다. 직수출 실적이 상대적으로 작아 그간 무역금융 이용이 제한돼온 협력업체를 대상으로 자동차 대기업(특별출연 100억원)과 무역보험공사가 협업해 제작자금 대출을 우대(보증한도 2배 상향, 보증료율 1→0.65% 인하 등)해주는 '수출공급망보증' 상품을 2천억원 규모로 도입한다. 정부는 글로벌사우스를 중심으로 하는 수출시장 다변화를 위해 수출지원거점을 신설해 중점 프로젝트를 발굴하고, 이를 뒷받침하기 위해 무역보험 55조원을 공급하는 등 대체시장 진출 패키지를 추진한다. 우선 글로벌사우스 지역의 선제적인 시장 개척을 위해 KOTRA·무역협회·무역보험공사 등 수출지원기관 해외거점 14곳을 신설‧강화해 운영한다. 글로벌사우스 신시장 개척을 위한 무역보험 지원을 대폭 강화한다. 무역보험 55조원을 공급하면서 현지 우량수입자 대상으로 기업별 단기보험 한도를 3배 확대하고, 저신용 수입자가 많은 특성을 고려해 저신용 수입자와 거래하는 경우에도 보험한도 상한을 20만 달러에서 50만 달러로 상향한다. 수출기업 핵심 애로해소에도 나선다. 정부는 수출경쟁력을 강화하기 위해 역대 최대 규모인 1조2천억원 규모 마케팅 지원 예산을 상반기 내 70% 이상 집행한다. 또 업계에서 고질적으로 경험하는 애로사항인 물류‧인증‧특허‧판로개척 분야 지원을 확대하고 업종별 지원도 강화해 나갈 계획이다. 상반기 중으로 역대 최대인 144회의 전시·상담회를 개최해 수출기업 8천개사를 지원하고 무역사절단도 신흥시장 중심으로 상반기에 180개사가 참여하는 등 집중 지원한다. 오사카 엑스포·한류박람회 등과 연계한 신규 수출 기회 발굴도 지원하고, 자동차, 조선‧해양, 기계‧장비 등 공급망 재편이 활발한 업종을 중심으로 현지 글로벌 기업과의 파트너링도 확대한다. 또 반도체·AI, K-그리드, 바이오, 항공‧방산, 조선‧해양 등 7대 분야 중심으로 KOTRA 해외거점 무역관을 선정하고 30대 수출 프로젝트(현지 바이어 수요)를 발굴해 프로젝트별로 관련 협회·단체를 통해 국내기업 매칭에서부터 마케팅, 계약체결까지 밀착해서 지원한다. 해외인증을 신속하게 획득할 수 있도록 '해외인증 119(국가기술표준원 해외인증지원단 내 긴급지원반)'를 통해 유망기업 발굴부터 수출까지 전주기 밀착 지원하는 한편, 해외 시험인증기관과의 상호협약을 210건으로 확대한다. 안덕근 산업부 장관은 “현재 글로벌 무역전쟁 본격화, 중국의 추격 및 글로벌 공급과잉 격화, 고금리‧환변동 지속 등 우리 수출을 둘러싼 여건이 녹록지 않은 비상시기”라면서 “상반기는 올해 우리 수출 우상향 모멘텀을 결정짓는 매우 엄중한 골든타임으로 우리 수출기업을 빈틈없이 지원하여 상반기 위기를 극복하기 위한 비상대책을 마련했다”고 밝혔다. 안 장관은 “범부처 비상수출 대책을 현장에서 체감할 수 있도록 속도감 있게 이행하고, 수출현장 지원단을 통해 현장과 계속 소통해 수출이 올해에도 우리 경제의 버팀목이 될 수 있도록 민관 원팀으로 총력 지원하겠다”고 강조했다.

2025.02.18 16:23주문정

인피닉, '해양환경공단' 개인정보 비식별화 서비스 공급

해양환경공단(KOEM)이 해양오염, 해상 부유물 등을 보다 정확하게 관리할 수 있도록 인피닉(대표 박준형, 최철규)이 인공지능(AI) 기반 서비스를 제공한다. 인피닉은 비식별 처리 서비스 하이디 AI 프라이빗(HEIDI AI PRIVATE)을 온프레미스(내부 구축) 형태로 공급한다고 18일 밝혔다. 하이디 AI 프라이빗은 이미지나 동영상 내 개인정보를 비식별화할 수 있는 인공지능 기반 개인정보 비식별화 서비스다. 비전 데이터 내에 사람 얼굴, 차량번호판과 같은 개인정보를 자동으로 해당 영역만 흐리게 블러 처리한다. 주간, 야간, 날씨, 연령, 인종 등 다양한 환경에 적응할 수 있도록 2억 건 이상의 글로벌 데이터로 학습해 정확도를 높였고, GS인증 1등급 획득으로 성능도 인정받았다. 특히, 내부망에 설치하는 온프레미스 형태로 데이터 보안이 중요한 기업과 기관들에 최적의 서비스를 제공한다. 해양환경공단은 해양환경의 보전·관리·개선 및 해양오염방제 등을 효율적으로 추진함으로써 깨끗하고 풍요로운 해양환경 조성하기 위하여 설립된 해양수산부 산하 공공기관이다. 공단은 해양오염, 해상 부유물 등을 모니터링 및 제거하여 깨끗하고 안전한 해양환경을 조성하는 사업을 진행하고 있으며, 하이디 AI 프라이빗을 활용해 수집한 데이터를 안전하게 사용할 수 있도록 개인정보를 비식별화할 예정이다. 한편 하이디AI는 최근 조달청에서 운영하는 국가 종합 전자 조달 시스템 '나라장터 종합쇼핑몰'에 등록됐다. 나라장터는 기술력 및 품질 우수성 심사를 거쳐 선별된 제품과 서비스만 등록이 가능하다. 인피닉은 이번 조달 등록으로 공공에서 급증하고 있는 비식별 솔루션 수요에 적극 대응할 수 있을 것으로 기대한다. 인피닉 최유라 수석연구원은 "기술력 및 안정성이 검증된 하이디AI의 나라장터 입점을 통해 데이터 활용 증가와 함께 급증이 예상되는 공공 비식별화 시장을 적극 공략할 계획이다"라고 말했다.

2025.02.18 15:41남혁우

폴라리스오피스-솔트룩스, AI 기술협력 맞손

폴라리스오피스가 솔트룩스와 함께 인공지능(AI)를 활용한 사용자 경험 개선에 나선다. 폴라리스오피스는 솔트룩스와 기술 협력 계약을 체결했다고 18일 밝혔다. 이번 계약을 통해 양사는 각각의 핵심 기술을 상호 제공하며, 폴라리스오피스의 자사 설루션과 솔트룩스의 '구버(Goover)'의 기능을 고도화해 새로운 기능을 선보일 예정이다. 폴라리스오피스는 자사앱에 솔트룩스의 초거대 AI 검색 기반 API '구버(Goover) 엔터프라이즈'를 탑재하여 정보 탐색과 문서 작성이 하나의 흐름으로 연결되는 새로운 사용자 경험을 제공할 계획이다. 폴라리스오피스는 서비스 내에 '구버'를 연동하여 기존 오픈AI 등 대형 언어 모델(LLM) 기반 AI 기능 외에도 검색에 최적화된 정보 제공 시스템을 도입할 예정이다. 이를 통해 보다 정확한 리서치가 가능해져 문서 작성의 생산성을 한층 끌어올릴 수 있을 전망이다. 솔트룩스는 자체 LLM부터 AI 에이전트 서비스까지 다양한 설루션을 제공하는 AI 전문기업이다. 이번 협력을 통해 자사의 AI 에이전트 서비스인 '구버'에 폴라리스오피스의 문서 엔진 소프트웨어개발킷(SDK)를 활용해 '구버'에서 문서 편집 기능을 추가함으로써 사용자 경험을 한층 강화할 계획이다. 폴라리스오피스 지준경 대표는 "이번 협력은 AI 기술을 문서 편집과 결합하여 업무 생산성을 극대화할 수 있다는 걸 보여주는 중요한 사례"라며 "앞으로도 솔트룩스 등 다양한 협력사들과 함께 개인 사용자 및 기업의 AI 전환을 가속화하여 수익성 개선에 속도를 내겠다"고 밝혔다.

2025.02.18 15:21남혁우

알트먼의 깜짝 고백…"GPT-4.5에서 AGI 느꼈다"

오픈AI의 샘 알트먼 CEO가 새로운 언어모델 'GPT-4.5'에 대한 흥미로운 소감을 밝혔다. 알트만 CEO는 18일(현지 시간) 자신의 소셜미디어 X(구 트위터)를 통해 "GPT-4.5를 시험해본 전문가들 사이에서 예상보다 더 강한 'AGI(인공일반지능, Artificial General Intelligence)를 느끼는 순간'이었다는 반응이 나왔다"고 전했다. 알트먼 CEO는 음성 기능과 관련된 질문에 "GPT-4.5에는 포함되지 않았지만, 향후 제품에서는 매우 중요한 부분이 될 것"이라며 "훨씬 더 나은 기능을 만들고 싶다"고 답변했다. 한편, 이번 발언은 경쟁사 엑스AI의 그록(Grok) 3 출시설이 나돌고 있는 가운데 나온 것이어서 AI 업계의 주목을 받고 있다. 이 소식은 알트먼 CEO의 게시물이 170만 회 이상의 조회 수를 기록하며, AI 개발 경쟁이 한층 더 가열되고 있음을 보여주고 있다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 15:08AI 에디터

서강대 메타버스전문대학원-제타큐브, 공동 사업 MOU 체결

서강대학교 메타버스전문대학원과 초소형 탈중앙화 데이터센터 솔루션 기업 제타큐브가 AI와 메타버스를 지원하는 '탈중앙화 물리 인프라 네트워크'(DePIN) 연구와 'EarthCam.kr' 사업을 공동 추진하기 위한 양해각서(MOU)를 체결했다고 18일 밝혔다. 이번 협약은 DePIN을 활용해 메타버스와 AI 기술의 발전을 앞당기기 위해서다. 또 EarthCam.kr 플랫폼을 통해 한국의 뛰어난 경관이나 랜드마크 등을 개인 맞춤형 콘텐츠로 제공해 이를 DePIN 네트워크에 분산저장시켜 수익 창출하는 새로운 4차산업기반 생태계를 만들기 위한 목적이다. DePIN은 기존의 중앙화 된 데이터 처리 방식에서 벗어나, 블록체인을 기반으로 GPU와 스토리지와 같은 고가의 물리적 인프라 자원을 분산 구축된 네트워크를 통해 효율적이고 안전하면서도 합리적 가격으로 제공 받을 수 있도록 설계된 차세대 기술이다. 또 DePIN 네트워크를 통해 물리 인프라를 제공하는 공급자는 안정적으로 수익을 얻을 디지털 공유경제 구조를 갖고 있다. 이를 통해 AI와 메타버스 개발에 필수적인 고성능 하드웨어를 보다 저렴하고 유연하게 사용할 수 있으며, 새로운 디지털 생태계를 구축하는 데 핵심적인 역할을 한다. 서강대와 제타큐브는 이번 협약을 통해 DePIN 기술의 개발, 표준화, 대중화를 목표로 하며 관련 기술을 연구하고 상용화하는 데 협력할 예정이다. 특히 서강대와 제타큐브는 DePIN 기술을 활용해 EarthCam.kr 플랫폼을 개발하고 상용화 등 보급에 나선다는 방침이다. EarthCam.kr은 대한민국 곳곳의 아름다운 경관과 랜드마크, 역사적·문화적 가치를 지닌 장소를 실시간으로 연결하는 디지털 플랫폼이다. 단순히 아름다운 경치를 보여주는 것을 넘어, 새로운 형태의 여행·교육·문화적 경험을 제공한다. 또 이를 탈중앙화 스토리지DePIN 네트워크인 파일코인에 4K 고화질의 디지털데이터 형태로 저장해 AI 훈련과 디지털 트윈등에 사용한다. 아울러 관광산업, 교육 콘텐츠 개발, 지역 경제 활성화 등 다방면에서 활용된다. EarthCam.kr에 참여하는 사업자나 개인 인프라 제공자는 플랫폼에서 공급하는 전용 장비를 자신이 콘텐츠를 제공하고자 하는 장소에 설치하고 인터넷 회선을 연결해 DePIN네트워크에 연결만 하면 지속적으로 기본수익을 얻을 수 있다. 또 EarthCam.kr을 통해 접속한 사용자들에게 제공된 데이터의 볼륨에 따라 추가적인 수익을 얻게 되는 방식으로 운영된다. EarthCam.kr 플랫폼 운영은 IT 전문 미디어인 메타엑스가 담당한다. 메타엑스는 EarthCam.kr을 통해 사용자들에게 새로운 디지털 경험을 제공한다. 나아가 플랫폼을 기반으로 한 다양한 이벤트와 사업 협력을 통해 메타버스 생태계 확장에 기여할 예정이다. EarthCam.kr은 DePIN 기술의 실질적 응용 사례다. AI와 메타버스 기술을 뒷받침하는 경제적이고 혁신적인 인프라를 제공하는 동시에, 전 세계적으로 확장 가능한 디지털 경험을 통해 지역과 글로벌 네트워크를 연결하는 가교 역할을 할 것으로 기대된다. 서강대 메타버스전문대학원과 제타큐브, 그리고 EarthCam.kr을 운영 담당하는 메타엑스는 이번 협약을 계기로 기술과 학문, 산업이 융합된 새로운 디지털 생태계를 구축하며 디지털 시대의 새로운 장을 열어갈 전망이다. 서강대 메타버스전문대학원 현대원 원장은 "EarthCam.kr 플랫폼의 기술적 기반을 마련하고, 메타버스 환경과의 연계를 위한 연구를 진행하게 됐다"며 "DePIN 기술을 통해 플랫폼의 경제성과 효율성을 강화하는 동시에, 산하에 DePIN 연구센터를 설립해 관련 기술을 발전시키고, 차세대 디지털 인재를 양성할 것"이라고 밝혔다.

2025.02.18 14:36백봉삼

AI·클라우드·공급망 등…삼성SDS, 2025년 5대 사이버 보안 위협 제시

삼성SDS가 지난해 국내외에서 발생한 사이버 보안 이슈를 분석해 2025년 주의해야 할 5대 사이버 보안 위협을 18일 발표했다. 2025년 5대 사이버 보안 위협'에는 ▲AI 악용 피싱에 대비해야… 'AI 보안 위협'▲장기 방치 자격 증명 '클라우드 보안 위협' ▲이중갈취전략으로 진화 중인 '랜섬웨어 공격' ▲오픈소스 악성코드 유입 'SW 공급망 보안 위협' ▲초연결사회의 독, OT/IoT 보안 위협이 선정됐다. 삼성SDS는 글로벌 보안 관제 센터 운영 경험을 토대로 제조·금융·물류 분야 기업 및 공공·국방 부문의 보안 전문가 400여 명을 대상으로 의견을 청취했다. 보안 위협에 대한 해결책도 함께 제안했다. 올해는 생성형 AI를 본격적으로 활용하는 기업이 늘고 있어 기업 내 보안 위협도 증가하고 있다. AI를 악용한 피싱 공격이나 악성코드 피해에 보다 정확하고 신속하게 대응하기 위해 AI 기반의 위협 탐지 및 분석, 보호 시스템 구축이 필요하다. 기업도 AI 발전 속도에 맞춰 보안 위협에 '지능형 보안 관제 시스템'으로 선제 대응하는 등의 지속적 진화가 요구된다. 팬데믹 이후 기업들은 생성형 AI, 데이터 분석 등 새로운 기반 기술과 서비스를 도입하기 위해 점점 더 클라우드 인프라를 활용하는 추세다. 하지만 잘못된 클라우드 구성 변경, 장기 방치한 '자격 증명' 노출, 기존 시스템 버전의 보안 설정 등은 보안 사고로 이어질 수 있으므로 '클라우드 환경에 맞는 보안 플랫폼'을 도입해 이를 미연에 방지해야 한다. 자격 증명은 ID와 암호, 인증서 등 자신의 신원을 확인하기 위해 제출하는 정보나 증명서를 의미한다. 랜섬웨어는 최근 데이터 암호화와 함께 정보 탈취 후 공개 협박을 병행하는 이중 갈취 전략으로 진화해 그 피해가 커지고 있다. 이로 인해 중요 데이터와 민감 정보 등을 겨냥해 서비스형 랜섬웨어(RaaS) 등을 통한 랜섬웨어 공격으로 금전적 손실과 기업 이미지 하락이 우려된다. 기업은 외부 접속 및 계정 관리 강화, 주기적 데이터 보호와 관리를 통해 랜섬웨어의 위험을 예방해야 한다. RaaS는 프로그래밍 전문지식 없이 비용만 지급하면 공격을 할 수 있도록 서비스 형태로 제공되는 랜섬웨어다. 최근 기업들은 내부자원 뿐만 아니라 오픈소스 등 외부 자원을 활용해 SW개발과 운영을 하고 있다. 그러나 이 경우에 악성코드 유입이 쉬워져 보안 위협도 함께 증가할 수 있다. SW 업데이트를 통해서도 악성코드가 유입될 수 있다. 기업은 SW 및 IT 환경 전반에 대한 감사와 S-BOM 준비, 위험 관리 체계에 대한 능동적 대응 계획을 세워야 한다. S-BOM은 SW에 어떤 요소가 포함되었고 누가 만들었는 지에 대한 정보를 포함하는 구성 요소 목록과 상호 의존도 등 세부 정보를 포함하는 명세서다. 인터넷에 연결된 생산 시설과 관련 시스템(OT), 컴퓨팅 장치와 기기, 사물 및 웨어러블 기기간 상호 연결 환경(IoT)에 대한 보안 위협도 커지고 있다. 특히 업데이트가 되지 않은 OT/IoT 장치는 해커의 손쉬운 공격 목표가 되며, 연결된 네트워크 전체를 대상으로 한 침해 사고로 확대될 수 있다. 이에 대응하기 위해 기업은 강력한 인증 절차와 정기적 보안 업데이트 등의 기본적 원칙을 준수해야 한다. 삼성SDS 장용민 보안사업담당(상무)은 “AI 기술을 활용한 보안 위협은 이미 지능적이고 교묘해지고 있으며 전사적 관점의 위기 관리 전략이 필요하다”며 “이에 대응하기 위해 기업은 ▲AI 기반 지능형 보안 솔루션 도입 ▲자체 환경에 맞는 클라우드 플랫폼 설정 ▲기업 정보 시스템 접근 강화 ▲파트너 IT 및 보안 체계 관리 ▲강력한 인증 및 정기적 보안 업데이트 등 조직 차원의 대응부터 파트너 대상의 IT 환경 및 보안 체계 관리까지 총괄 개념으로 접근해야 한다”고 강조했다.

2025.02.18 14:25남혁우

  Prev 91 92 93 94 95 96 97 98 99 100 Next  

지금 뜨는 기사

이시각 헤드라인

윤곽 잡힌 K-로봇 청사진…자원 효율적 안배 집중해야

갤럭시Z폴드7, 실제 사진 유출...크기·두께 보니

구글, AI 전면 개편…I/O 2025서 '제미나이' 중심 창작·개발 도구 공개

"기술이 뚫려도 제도가 막았어야"...유심 해킹 민낯

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현