• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai 联网搜索,ai智能生图网站,数画ai绘画网站,ai分离人声网站,阿水ai 网址,等欢迎访问豌豆Ai站群搜索引擎系统官方网站:www.wd.chat'통합검색 결과 입니다. (24631건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

디지털 수출사업 총 출동···'K-글로벌' 설명회 19일 열려

과학기술정보통신부(과기정통부)는 'K-글로벌 프로젝트'의 2025년 대상 사업들을 소개하는 통합안내문을 공고하고, 프로젝트에 참여하는 민간·공공의 지원 사업들을 소개하는 민·관 합동 통합설명회를 19일 서울 양재동 엘타워에서 개최했다. 'K-글로벌 프로젝트'는 과기정통부가 추진 중인 다양한 디지털 분야 창업지원 사업들을 한데 묶어 정부 지원을 필요로 하는 예비창업자와 기업인 등이 보다 쉽게 관련 정책에 접근·참여할 수 있도록 돕는 통합브랜드다. 2015년부터 매년 통합 안내와 홍보를 진행하고 있다. 올해는 이 프로젝트에 총 39개, 2105억원 규모의 과기정통부 사업과 더불어 8개 민간기업의 창업 지원 사업을 포함했다. 특히, 올해에는 국내 AX(AI 전환) 및 AI반도체 중소·스타트업들의 해외시장 진출을 돕기 위한 제품·서비스의 해외 실증을 지원하는 사업들은 물론 글로벌 클라우드 기업과 연계해 우수한 국산 서비스형 소프트웨어(SaaS) 제품의 해외 진출을 지원하는 사업도 목록에 새로 이름을 올렸다. 또 스타트업과 신산업 분야 기업 성장의 마중물이 될 신규 정책펀드도 대상 사업에 수록됐다. AI·SaaS 분야의 유망 스타트업 지원을 위한 'AI 혁신펀드'('25년 900억원)와 사이버보안 분야 혁신기업 발굴·육성을 위한 '사이버보안펀드'('25년 200억원), 글로벌 시장을 노린 미디어콘텐츠 제작과 관련 기술·기업 등에 투자하는 'K-콘텐츠미디어전략펀드'('25년 5,000억원) 등이 그 예다. 이번 '2025년 K-글로벌 프로젝트'의 통합 안내 대상 사업은 '멘토링' '해외진출' '스케일업' '인프라' '디지털 자원' '정책펀드' 등 총 6개 유형으로 구분, 시행된다. 각 대상 사업의 통합공고 안내와 함께 'K-글로벌 프로젝트' 소개와 기관들의 소관 사업 안내, 프로그램에 참여하는 민간기업·단체에서 시행하는 디지털 분야 창업 지원 프로그램 안내 등을 비롯한 합동 설명회를 진행하는 한편 참여기관·기업별 부스 상담을 제공, 현장에 참석한 수요자들의 사업 이해도 제고와 네트워킹을 지원한다. 구글스타트업캠퍼스, 네이버클라우드, 에스케이텔레콤, 디캠프(d·camp), 롯데밴처스, 신한금융그룹, 한화생명 등 8개사가 상담 부스를 마련한다. 'K-글로벌 프로젝트'에 대한 자세한 정보를 파악할 수 있는 통합안내문과 대상 사업별 공고문은 K-글로벌 프로젝트 누리집 'www.k-global.kr'과 과기정통부, 정보통신산업진흥원 누리집을 통해 확인할 수 있다. 과기정통부 송상훈 정보통신정책실장은 “갈수록 치열해지는 글로벌 AI 경쟁에 따른 AI 기반 혁신의 가속화와 전 세계적인 투자 확대는 디지털 혁신 기업에게 좋은 기회”라며 “앞으로도 과기정통부는 민간과 긴밀히 협력해 기술 혁신 가속화와 AI 대전환에 대비한 정책 지원을 강화함으로써 기업인 여러분의 노력이 결실을 맺을 수 있도록 최선을 다할 것”이라고 밝혔다. '

2025.02.19 10:00방은주

사이냅소프트-디딤365, 공공·민간 AI 솔루션 시장 공략 맞손

사이냅소프트(대표 전경헌)가 디딤365와 공공과 민간기업 인공지능(AI) 솔루션 공략을 위해 힘을 합친다. 사이냅소프트는 디딤365와 'AI 사업 협력을 위한 업무협약(MOU)'을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 '사이냅 도큐애널라이저'와 'DidimVSM' 솔루션을 연계하여 상호 시너지를 극대화할 계획이다. 특히, 성공적인 LLM 구축을 위해 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 하였다. 사이냅소프트의 '사이냅 도큐애널라이저'는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한, 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 마크다운(Markdown), XML 형식의 정형 데이터로 전환한다. 디딤365의 'DidimVSM'은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션으로, 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화하여 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. ▲PDF, DOC, HWP, IMAGE 등 다양한 문서 파일을 업로드 및 처리해 효율적인 데이터 관리 ▲클릭 기반의 웹 GUI 제공으로 편리하게 데이터 수집 및 데이터 처리를 수행할 수 있는 편의 기능 ▲수집된 벡터 데이터를 체계적으로 관리하고 분석하여 최적의 벡터 데이터 활용 환경을 제공한다. 사이냅소프트 전경헌 대표는 "최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고 있다. 양사는 RAG 시스템 구축에 필수적인 양질의 데이터 확보와 효율적인 데이터 처리 역량을 가지고 있다. 양사의 전문성을 결합하여 고품질 데이터 RAG구축을 통해 정교한 LLM 구축을 지원하게 될 것"이라고 밝혔다. 디딤365 AI/빅데이터 부문 김상래 대표는 "양사간 전략적 파트너십을 통해 디지털 전환이 필요한 공공기관 및 민간 기업을 대상으로 최적의 AI 솔루션을 제공할 예정"이라며 "앞으로도 공공기관 및 기업의 디지털 전환을 선도하고, 국내 AI·빅데이터·클라우드 생태계 확장에 기여할 것"이라고 밝혔다.

2025.02.19 09:59남혁우

HBM 올해도 큰 폭 성장…"3년 뒤 전체 D램서 매출 비중 30% 돌파"

고대역폭메모리(HBM) 시장 규모가 올해 60% 이상 증가하는 등 견조한 성장세를 보일 전망이다. 또한 오는 2028년까지 매출이 꾸준히 증가하면서, 전체 D램에서 차지하는 매출 비중이 30.6%에 달할 것으로 관측된다. 가우라브 굽타 가트너 애널리스트는 19일 오전 서울 코엑스에서 열린 '세미콘 코리아 2025' 기자간담회에서 반도체 시장 전망에 대해 이같이 밝혔다. 올해 전 세계 반도체 시장은 7천50억 달러로 전년 대비 12.5% 성장할 전망이다. 2028년에는 시장 규모가 8천290억 달러에 달할 것으로 예상되다. 해당 기간 동안 시장 성장세를 주도할 분야로는 서버, 가속기 등 AI와 자율주행이 꼽힌다. 가우라브 굽타 가트너 수석 애널리스트는 "지난해 반도체 시장은 GPU와 메모리가 주도했고, 올해에는 이들 분야 외에도 아날로그 분야도 골고루 성장할 것"이라며" "반도체 시장은 지속 성장해, 규모가 1조 달러를 초과하는 시점은 2030~2031년이 될 것으로 관측된다"고 밝혔다. 삼성전자·SK하이닉스 등 국내 기업들이 주도하는 메모리 시장은 올해와 내년 각각 13.0%, 11.6% 성장할 전망이다. 그러나 2027년과 2028년에는 각각 4.6%, 7.5%의 감소가 예상된다. 굽타 애널리스트는 "중국 YMTC가 지난해 생산량을 50% 늘리고, 올해에도 더 성장하는 등 낸드 시장은 장기적으로 도전을 받고 있다"며 "D램 역시 올해까지는 가격이 상승했다가 내년부터 ASP(평균판매가격)이 꾸준히 하락하는 등 주기를 탈 것"이라고 설명했다. 다만 HBM(고대역폭메모리)는 공급 부족으로 성장세가 지속될 것으로 보인다. 올해 HBM 매출액은 198억 달러로 전년 대비 66.9% 성장한 뒤, 2028년에는 316억 달러에 도달할 전망이다. 2023년부터 2028년까지의 연평균 성장률은 62.0%에 달한다. 전체 D램 매출에서 HBM이 차지하는 비중은 지난해 13.6%로 집계됐다. 오는 2028년에는 이 비중이 30.6%를 기록할 것으로 관측된다. 웨이퍼 출하량 기준으로는 비중이 지난해 8.0%에서 2028년 11.0%에 도달할 전망이다.

2025.02.19 09:47장경윤

[기고] AI 시대 클라우드 보안 강화에 3D 통합 전략 필수

급격한 인공지능(AI) 시장 성장은 새로운 기회와 도전 과제를 동시에 가져왔다. 그 중 '보안'은 윤리와 콘텐츠 안전성, 사이버 공격 등 AI 개발 과정에서 가장 우려되는 이슈 중 하나다. 또 최근 유명인사나 인플루언서의 모습을 실제처럼 위조하는 데 악용되는 딥페이크가 가장 큰 위험 요소로 떠오르고 있기도 하다. 최신 생성형 AI 기술이 피싱과 랜섬웨어 공격에 활용되면서 해커들은 더욱 빠르고 정교한 피싱 이메일을 제작하고 있다. AI 도구를 통한 랜섬웨어 최적화가 새로운 트렌드로 자리잡아 사이버 위협을 더욱 심화하고 있다. 다행히 AI는 보안을 강화할 강력한 도구로도 사용될 수 있다. 이 기술은 보안 운영 효율성과 정확성을 크게 향상시키며, 사용자에게 위협을 탐지하고 예방할 수 있는 고도화된 대응 방안을 제공하기 때문이다. 결국 AI 기술을 사용하는 공격자와 방어자가 끊임없이 기술 발전을 거듭하며 치열한 공방을 이어가는 재미있는 상황이 펼쳐지고 있는 것이다. 최근 AI 어시스턴트를 활용한 보안 강화 사례가 급증하고 있으며, 알리바바클라우드 보안 센터도 이에 발맞춰 중국 내 사용자 대상으로 새로운 AI 어시스턴트를 출시했다. 이 솔루션은 알리바바클라우드의 자체 거대언어모델(LLM) 큐원(Qwen) 기반으로 보안 컨설팅, 경고 분석, 사고 조사, 대응 등 다양한 보안 운영을 지원한다. 지난해 말 기준, 이 AI 어시스턴트는 이미 99%의 위험 감지 알림을 처리했으며, 중국 사용자 88%에게 서비스를 제공하며 빠르게 자리 잡고 있다. 특히 멀웨어 탐지 분야에서는 LLM의 코드 이해, 생성, 요약 기능을 활용해 악성 파일을 효과적으로 탐지하고 방어할 수 있다. 더 나아가 LLM의 강력한 추론 기능을 통해 이상 징후를 신속하게 감지하고 오탐을 줄여 탐지 정확도를 높임으로써 보안 엔지니어의 업무 효율성을 크게 향상시키고 있다. 이는 AI 어시스턴트가 단순한 자동화 도구를 넘어, 점점 더 정교한 사이버 보안 파트너로 진화하고 있음을 보여준다. 멀티·하이브리드 클라우드, 데이터 복잡성·보안 비용↑ 최근 많은 기업이 멀티 클라우드와 하이브리드 클라우드 환경을 도입하면서 IT 인프라의 복잡성이 더욱 증가하고 있다. 스태티스타 조사에 따르면, 지난해 기준 전 세계 기업 73%가 하이브리드 클라우드를 사용하고 있으며, IDC는 아시아 태평양 지역 기업의 약 90%가 멀티 클라우드를 도입했다고 보고했다. 그러나 이런 트렌드는 오히려 보안 관리 비용을 증가시키는 치명적인 단점이 있다. 기업들은 퍼블릭 클라우드, 프라이빗 클라우드, 온프레미스 데이터센터 등 여러 환경에 분산된 보안 제품을 관리해야 하며, 각 환경에서 발생하는 보안 사고에도 신속하게 대응해야 한다. 이러한 복잡성은 결국 IT 팀의 운영·관리 비용 증가로 이어질 수밖에 없다. 또 기업들은 동일한 클라우드 서비스 제공업체(CSP) 제품을 사용하더라도, 데이터 사일로 문제로 인해 데이터 간 원활한 상호운용이 어려운 상황에 직면하고 있다. 데이터 사일로가 발생하면 보안 기능이 개별적으로 고립돼 보안 제품 간 연계가 불가능해지고, 이로 인해 기업의 보안 체계가 더욱 약화될 가능성이 높아진다. 많은 기업들이 내부 조직 구조를 세분화하여 운영하는 것도 또 다른 보안상의 취약점을 낳고 있다. 예를 들어 IT 부서는 기업의 오피스 보안을 담당하지만 각 사업부는 자체 생산 네트워크의 보안을 관리하는 방식이다. 문제는 이런 조직적 분리로 인해 서로 다른 영역이 겹치는 교차 지점에서 보안 취약점이 발생할 가능성이 높아진다는 점이다. 보안 제품에 3D 통합 전략 적용해야 이러한 문제를 해결하기 위해 알리바바클라우드는 보안 제품에 3D 통합 전략을 적용하는 것이 효과적이라고 제안한다. 클라우드 인프라에 대한 통합 보안과 일관된 보안 기술 도메인, 원활한 오피스·생산 환경이라는 세 가지 핵심 시나리오를 포괄하는 통합적 보안 접근 방식을 채택하는 것이다. 클라우드 인프라를 위한 통합 보안은 점점 더 복잡해지는 IT 환경에서 발생하는 보안 문제를 해결하기 위해 설계됐다. 특히 퍼블릭 및 프라이빗 클라우드를 포함한 다양한 인프라의 보안을 통합적으로 관리하는 것에 중점을 둔다. 고도화된 보안 솔루션을 활용하면 기업은 중앙 집중식 단일 콘솔을 통해 리소스 위치와 관계없이 모든 리소스를 일괄적으로 관리할 수 있으며, 이를 통해 IT 인프라 전반의 보안 운영을 보다 원활하고 효율적으로 수행할 수 있다. 통합 보안 기술 도메인은 보안 제품에서 생성되는 로그 데이터를 통합해 강력한 보안 데이터 레이크를 생성한다. 이런 중앙 집중식 스토리지를 통해 첨단 위협 인텔리전스 분석과 경고를 통합해 전반적인 보안 역량을 강화하고 대응 속도를 높일 수 있다. 통합된 오피스·생산 환경은 부서 간 데이터와 프로세스를 간소화하는 것을 목표로 한다. 이를 통해 보안 운영의 효율성을 높이고, 부서 간 침입 위험을 최소화해 더욱 안전하고 유기적인 업무 환경을 조성할 수 있다. 데이터가 어디에 저장됐든 AI와 보안의 통합은 데이터 보호에서 점점 더 중요한 요소가 되고 있다. 알리바바클라우드는 보안 분야에서 AI의 역할을 더욱 심층적이고 광범위하며 자동화된 애플리케이션 형식으로 발전시키는 데 주력하고 있다. 예를 들어, AI를 활용해 제로데이 취약점(Zero-Day Vulnerability)을 탐지하고, 에이전트 기반의 자동화 기술을 통해 더욱 효율적인 보안 대응을 구현하는 것이 대표적인 사례다. AI 보안·규정 준수 강화를 위한 트렌드에 맞춰 클라우드 서비스 제공업체들은 인프라부터 AI 개발 플랫폼, 애플리케이션에 이르기까지 종합적인 지원을 확대하고 있다. 특히 데이터 보호, 알고리즘 규정 준수 등 AI 보안의 여러 측면에서 사용자를 지원하는 것이 가능해진 만큼 클라우드 기업들은 네트워크에 항상 연결된 데이터 보안 솔루션을 구축하도록 돕고, 보다 효율적인 콘텐츠 보안 탐지 기술을 제공하는 것을 목표로 해야 한다.

2025.02.19 09:33오우양 신

中양자컴퓨팅 '오리진 우콩' 충격…美 리게티·아이온큐 주가 하락

중국 양자컴퓨터 오리진 우콩(Origin Wukong)의 등장으로 리게티 컴퓨팅과 아이온큐(IONQ) 등 양자컴퓨팅 기업 주가가 동반 하락했다. 18일 IBD 등 외신에 따르면 리게티컴퓨팅 10.92%, 아이온큐 9.40%, 디웨이브퀀텀은 5.18%의 주가가 떨어졌다. 이번 주가 폭락의 주요 원인 중 하나는 중국 스타트업 오리진퀀텀에서 공개한 신형 양자컴퓨터 오리진 우콩의 성과로 인한 것으로 알려졌다. 중국 고전소설 서유기의 손오공에서 이름을 따온 오리진 우콩은 중국 독자적인 기술로 만들어진 72큐비트 규모의 초전도 양자컴퓨터다. 아이온큐에서 올해 출시할 예정인 64개 큐비트 양자 컴퓨터보다 규모가 큰 셈이다. 오리진 우콩은 지난달 1월 6일 공개 후 33만9천건 이상의 양자 컴퓨팅 작업을 수행한 것으로 알려졌다. 특히 오리진퀀텀은 클라우드 방식으로 139개국 2천만명 이상이 원격으로 접근해 오리진 우콩을 활용하며 기술을 검증했다고 밝혔다. 해외 방문자는 미국, 러시아, 일본를 비롯해 캐나다의 활동 수준이 높았으며, 특히 미국 사용자의 지속 방문 비율이 가장 높은 것으로 나타났다. 이들은 유체 역학, 금융 및 생물 의학을 포함한 다양한 산업 분야에서 오리진 우콩을 활용한 것으로 확인됐다. 오리진 우콩의 개발사인 오리진 퀀텀은 2017년에 설립된 양자컴퓨팅 기업으로 중국 최초의 양자 칩 생산 라인, 중국 최초의 양자 컴퓨터 운영 체제, 중국 최초의 양자 컴퓨팅 측정 및 제어 시스템을 개발했다. 또한 양자컴퓨팅 관련 특허 출원 수가 전세계 6위, 중국 내 1위를 기록할 정도로 빠른 성장세를 보이고 있다. 관련 업계에선 오리진 퀀텀을 지난달 말 저비용, 초고효율 AI 모델을 선보인 중국의 인공지능(AI) 스타트업 딥시크(DeepSeek)와 비교하고 있다. 이와 함께 리게티컴퓨팅과 아이온큐 등 경쟁 기업에 위협이 될 수 있다는 우려와 함께 관련 주식이 하락하는 추세다. 다만 오리진 퀀텀의 등장이 단기적으로 기존 업체들에게 큰 영향을 미치긴 어려울 것이란 전망이 나오고 있다. 특히 오리진 퀀텀은 중국 스타트업으로 아직 기업공개를 하지 않아 투자 자본을 두고 직접 경쟁이 어렵다는 분석이다.

2025.02.19 09:32남혁우

노브랜드 버거 매장에 LGU+ 통신 솔루션 도입

LG유플러스가 19일 신세계푸드 노브랜드버거와 MOU를 체결했다고 밝혔다. 이번 협약으로 LG유플러스와 노브랜드버거는 매장 운영의 디지털 전환에 나선다. 매장 내 인터넷, AI 전화, 지능형 CCTV 등 스마트 매장 운영을 위한 통신서비스를 제공한다. 노브랜드버거는 "매장 내 네트워크 구축에 필요한 투자비를 약 100만원을 절감하고 통신서비스 월 이용료를 70% 낮춰 가맹점주의 수익성을 높이기 위해 지원했다"고 했다. 양사는 올해 약 200개 매장을 시작으로 매년 신규 매장에 유플러스 통신서비스를 확대 적용할 계획이다. 지속해서 가맹점주의 초기 투자 부담을 줄이고 수익을 확보하는 등 성공적인 매장 운영을 위한 다양한 협업 확대도 예정이다. 김현민 LG유플러스 수도권북부기업고객담당 상무는 "이번 협약을 통해 외식 업계에서도 디지털 혁신을 실현하고 가맹점주들이 안정적인 매장 운영과 수익성을 확보할 수 있도록 지속해서 지원할 계획"이라고 말했다.

2025.02.19 09:32최지연

화웨이 첫 트리폴드폰, 해외 시장서도 통할까

세계 최초로 화면을 두 번 접는 트리폴드폰 '화웨이 메이트XT'가 글로벌 시장에 출시된다고 폰아레나, CNBC 등 외신들이 18일(현지시간) 보도했다. 대형 화면에 높은 가격을 가진 이 제품은 작년 9월 중국 시장에 출시됐다. 출시 후 중국에서 인기가 높아 일부 판매상은 2만1천 달러(약 3천만 원)라는 엄청난 금액을 요구하기도 했다. 메이트XT, 가격 약 530만원 화웨이는 18일 말레이시아 쿠알라룸프에서 메이트XT 글로벌 출시 행사를 열었다. 16GB 램·1TB 스토리지 모델의 가격은 3천499 유로(약 530만원)다. 메이트XT를 단일 화면으로 사용했을 때 6.4인치이며, 듀얼 스크린 모드로 사용 시 7.9인치, 트리플 스크린 모드일 때는 2232x3184 화소 해상도의 10.2인치를 화면을 제공한다. 이 제품은 현재 세계에서 가장 큰 폴더블 디스플레이를 갖춘 제품으로 화면을 펼쳤을 때 카메라 범프를 제외하고 두께가 3.6mm로 얇은 폴더블폰이다. 화면을 두 번 접는 폴더블 디스플레이에는 안쪽과 바깥쪽 모두 매끄럽고 정밀한 폴딩을 보장하도록 설계된 고급 힌지 시스템을 도입했다. 글로벌 시장서 부활할까? “안드로이드OS 비 탑재는 걸림돌” 화웨이는 한때 세계 최대 스마트폰 제조사로 꼽히며 프리미엄폰 시장에서 애플, 삼성과 경쟁했다. 하지만, 2019년부터 시작된 미국의 제재로 구글 안드로이드 운영체제(OS)에 접근할 수 없게 되면서 시장 점유율이 급락하며 글로벌 시장에서 사실상 사라졌다. 시장조사기관 IDC 자료에 따르면, 작년 화웨이의 중국 외 시장 점유율은 단 0.3%에 불과하다. 반면 화웨이의 중국 시장 점유율은 2023년 12%에서 지난해 17%로 상승했다. 이는 2023년 하반기 중국 자체 개발 칩이 탑재된 메이트60프로를 출시하면서 화웨이의 존재감이 다시 커졌다. 미국이 중국의 첨단 반도체 기술에 대한 접근을 막아왔던 만큼 화웨이 메이트60 출시는 큰 충격을 안겼다. 화웨이는 이 기세를 몰아 해외 시장에도 도전한다. IDC 데이터•분석 담당 부사장인 프란시스코 제로니모는 “메이트XT는 대량으로 판매되지 않을 것이며, 비싼 기기를 살 여유가 있다는 것을 과시하고 싶어하는 사람들을 겨냥한 것일 가능성이 높다”고 밝혔다. 하지만, 그는 화웨이가 메이트XT를 50만 대만 판매해도 15억 달러(약 2조원)의 매출을 낼 수 있다고 덧붙였다. 다만 화웨이 메이트XT에 안드로이드 OS가 탑재되지 않는 점은 가장 큰 걸림돌로 지적됐다. 시장조사기관 카운터포인트 리서치 닐 샤 분석가는 CNBC에 "구글 서비스가 없다는 것은 글로벌 시장에서 큰 약점"이라며 "비싼 금액을 내고 트리폴드 스마트폰을 구매해 넷플릭스, 구글 플레이스토어, 구글 제미나이 등 생성형 AI 기능을 사용하고 싶어하는 사람에게는 더욱 그렇다"고 지적했다.

2025.02.19 08:58이정현

진학사 캐치, 'AI자소서' 서비스 출시

상위권 채용 플랫폼 캐치가 클릭 세 번으로 손쉽게 자기소개서를 작성할 수 있는 'AI자소서' 서비스를 출시했다고 19일 밝혔다. AI자소서는 회원의 이력서 정보와 지원할 공고의 기업 콘텐츠를 바탕으로 즉시 활용 가능한 실전용 자기소개서를 자동으로 생성해 주는 서비스다. 이용자는 기업 최신 정보부터 공고에 맞는 경험까지 완벽히 반영된 자기소개서를 단 3분 내로 받아볼 수 있다. AI자소서는 세 단계만 거치면 생성이 가능하다. 먼저, 지원을 희망하는 채용 공고를 입력하고, 강조하고 싶은 핵심 요소를 선택한 후, 자소서 생성 버튼을 누르면 AI가 1분 내로 자기소개서를 완성한다. 공고가 없을 경우 희망 기업명을 입력하거나, 아무 조건 없이도 생성이 가능하다. 이렇게 생성된 자기소개서는 캐치의 '내 자소서 목록'에 자동으로 저장되며, 이용자가 자유롭게 수정할 수 있다. 또 'AI 자동업그레이드' 기능을 통해 업데이트한 이력서를 자기소개서에 반영하거나, 나만의 강점 및 역량 요소를 추가할 수도 있다. 진학사 캐치 김정현 "캐치 AI자소서는 캐치가 보유한 기업 정보와 회원 개인의 이력서가 함께 반영돼 보다 정확하고 효과적인 자기소개서를 생성할 수 있다"며 "앞으로도 구직자들이 보다 쉽고 효율적으로 취업을 준비할 수 있도록 다양한 서비스를 개발해 나갈 것"이라고 밝혔다.

2025.02.19 08:37백봉삼

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

개인정보보호 조례, 기초단체 68%가 아직 없어

빠르게 변화하는 디지털 신기술과 함께 신종 사이버 위협이 나날이 커지고 있는 가운데 지방자치단체(지자체) 243곳 중 개인정보보호 조례를 만든 곳은 89곳으로 36.6%에 그쳤다. 광역시도는 16곳(전체 17곳)이, 기초는 73곳(전체 226곳)이 조례를 만들었다. 18일 개인정보보호위원회(위원장 고학수, 개인정보위)와 전국 정보보호정책협의회(회장 김완집 서울시 정보보호 과장)는 18일 오후 2시 서울시청 서소문1청사 후생동 4층 강당에서 '제1회 개인정보 보호정책 세미나'를 합동으로 개최했다. 개 정보보호정책협의회는 중앙부처 및 유관기관에 개인정보 관련 의견 공유 및 정책 제안을 위해 만든 단체다. 전국 지자체(17개 광역시도, 226개 기초지자체) 및 공공기관으로 구성됐다. 작년 10월 만들어졌고 현재 회원사는 130곳이다. 이날 세미나에서 개인정보위는 ▲신산업 혁신지원, 개인정보 보호수준 평가제 등 2025년 개인정보 주요 정책방향 ▲공공기관 집중관리시스템 안전조치 강화 및 주요 처분 사례 ▲지자체·공공기관 업무 관련 주요 법령해석 사례를 발표했는데, 담당 과장들이 직접 소개했다. 김직동 개인정보보호정책과장(부이사관, 공학박사)는 올해 개인정보 주요 정책을 설명, 지방자치단체의 개인정보보호 조례 추진 배경과 현황도 밝혔다. 개인정보위는 공공기관 개인정보 유츨 방지대책을 2022년 7월 발표한데 이어 권역별 설명회 등을 거쳐 같은 해 10월 시군구 개인정보 보호 표준조례안을 마련, 배포한 바 있다. 이어 2023년 4월 집중관리시스템 1515개를 선정했고, 5개월 후인 9월에 안전조치기준 고시를 개정한데 이어 작년 9월 시행에 들어갔다. 김 과장은 "지자체 및 산하 공공기관이 개인정보 보호법령을 적극적, 체계적으로 준수할 수 있는 기반 조성을 위해 조례를 만들었다"면서 "전체 243개 지자체 중 89개만 개인정보보호 조례를 수립했다"고 말했다. 89곳 중 광역이 16곳, 기초가 73곳이다. 매년숫자가 조금씩 증가하는 추세다. 하지만 신기술 발전 속도와 간헐적으로 터지는 지자체의 개인정보 유출을 감안하면,보다 빠르게 이 숫자를 늘려야 한다는 지적이다. 개인정보위는 지자체의 개인정보 보호 조례 수립을 독려하기 위해 공공기관 개인정보 보호수준 평가시 조례 수립 지자체에 가점 1점을 주고 있다. 또 개인정보 보호 표준조례안 제공과 컨설팅도 지원한다. 이 표준 조례안은 현장 의견을 청취해 올해 중 개정할 예정인데, 내용을 보면 목적(1조), 적용대상(3조), 원칙(4조), 책무(5조) 등을 담고 있다. 4조 원칙은 9가지가 있는데 대표적인 것이 '처리'로 용도 외 활용을 금했다. 또 표준조례는 시도에 개인정보 보호책임자(CPO)를 두게 했고, CPO를 포함해 시민단체 추천과 데이터 전문가 등으로 구성한 협의회를 구성하게 했다. 3년마다 기본계획도 세워야 한다. 특히 일정 규모를 넘어선 정보 유출 등 사고가 나면 개인정보위나 한국인터넷진흥원(KISA)에 신고해야 하고, 개인정보 유출시 지체없이 정보 주체에 통보해야 한다. 김 과장은 개인정보위의 신산업 혁신 지원 체계도 설명했다. AI 등 신기술이 급속도로 발전하면서 기존 법제도와 간극이 발생, AI시대의 산업현장에서 불확실성을 해소, AI 편익은 극대화하고 리스크는 최소화하는 것이 필요하다는 것이다. 개인정보위는 규제샌드박스 제도를 통해 선허용, 후 제도개선도 추진중이다. 실제 작년 6월 개인정보위는 첨단바이오 분야 국제 공동연구에 필요한 가명데이터셋을 서울대병원이 환자 동의 없이 활용할 수 있게 허용한 바 있다. 법으로 작년에 도입된 공공기관 개인정보 보호수준 평가제도 소개했다. 평가 대상은 중앙행정기관과 소속기관, 산하기관, 지방자치단체와 지방공기업 등 1460여개 기관이다. 정량 지표 60점과 정성지표 40점인데 신기술 지표는 가점을, 유출시엔 감점을 받는다. 평가 점수는 5등급으로 구분해 준다. 2024년 평가 결과는 오는 5월 발표할 예정이다. 한편 이날 행사에서 축사를 한 강옥현 서울시 디지털도시국장은 사이버 보안 문제와 개인정보 보호는 동전의 양면이며 이슈가 더 커지고 있다면서 "오늘 이 자리에서 이에 대한 논의를 활발히 하고 또 각 기관이 협력 방안을 함께 모색하는 뜻깊은 시간이 될 거라 생각한다"고 말했다. 이어 정보보호정책협의회가 지자체 뿐 아니고 각 공공기관까지 함께하면서 회원 기관들 간 정보 공유는 물론이고 크고 작은 이슈를 함께 대응, 개인정보 보호 수준이 좀 더 나아지는 플랫폼으로 잘 자리매김할 수 있기를 기원한다면서 "서울시도 여러분들과 함께 세계 최고 수준의 정보 보호 체계를 구축하는 데 최선을 다하겠다"고 강조했다. 역시 축사를 한 양첨삼 개인정보위 개인정보정책국장은 생각한 것보다 굉장히 많은 분들이 참여했고, 굉장히 뜻깊은 자리라면서 "(법 제정 등) 여러 변화가 현장에 잘 착근하려면 지자체에서 개인정보 보호 업무를 담당하는 여러분들의 노력들이 굉장히 중요하다"고 밝혔다. 이어 개인정보보호는 국가적으로 꼭 필요한 일이라면서 "전국 단위의, 전 국민에 대한 데이터를 여러 분야에서 수집, 사실상 전 생애 주기에 걸친 데이터를 수집하고 있는데 이들 데이터를 잘 관리하고 수집 목적에 맞게 잘 활용하는 것이 우리의 큰 미션"이라고 짚었다. 김완집 전국 정보보호정책협의회장은 "현재 130개 기관이 참여하고 있는데 앞으로 계속 늘어날 것으로 생각한다"면서 "빠르게 변화하는 디지털 신기술과 함께 신종 사이버 위협도 나날이 커지고 있다. 이로 인해 우리가 운영하고 있는 정보보호 시스템, 저장 정보 시스템에 저장돼 있는 다양한 정보, 특히 개인 정보를 안전하게 보호하기 위한 노력이 무엇보다도 중요하다"고 말했다.

2025.02.18 22:43방은주

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

"By AI는 틈새 전략, For AI는 핵심기술 선점해야"

"바이 AI(By AI)가 포 AI(For AI)보다 글로벌 특허 출원이 4.4배 많습니다." 양종필 특허청 인공지능빅데이터심사팀장은 18일 양재 엘타워에서 열린 '한국인공지능산업협회(AIIA) 2월 조찬포럼'에서 이같이 밝혔다. 이날 양 과장은 'AI 보안과 IP'를 주제로 강연했다. 바이 AI와 포 AI는 특허청이 AI보안 기술을 분류하기 위해 만든 용어다. '보안 바이AI'는 AI기술을 활용해 기존 보안시스템을 고도화, 지능화하는 것이고, '보안 포AI'는 오작동과 정보 유출을 노려 AI모델 취약점을 공격하는 것에 대응하는 걸 말한다. 바이AI 세부기술은 침입 차단 및 탐지, 안전 테스트 및 예방, SW분석 및 포렌식, 사용자 인증 등이 있다. 또 포AI 세부기술은 강건성, 보안성, 개인정보보호 등이 있다. 이 중 강건성은 AI시스템의 내부 결합(에러, 파워다운 등)에 대응해 지속적으로 AI가 동작할 수 있도록 하는 기술 및 측정 기술을 말한다. 양 팀장에 따르면 특허청 조사 결과, 바이AI는 성장기(2015년~2019년, 연 49% 성장)를 지나 성숙기(2019년~2021년, 연 1.7% 성장)에 접어들었고, 포AI는 아직 성장기가 진행중(2017년~2021년, 연 69% 성장)이다. 특히 바이AI 세부 기술 중 출원량이 가장 많은 기술은 침입 차단&탐지 기술(58.1%)로 나타났다. 이어 SW 분석&포렌식(18.9%), 사용자 인증(13.9%), 안전 테스트&예방(9.1%) 순으로 집계됐다. 반면 포AI는 출원량이 가장 많은 기술은 개인정보보호(61%)고 보안성(28,3%), 강건성(10.7%)이 뒤를 이었다. 출원 증가율을 보면, '보안 바이AI'가 2017~2021년 5년간 연평균 21.5% 성장을 보인 반면,'보안 포AI'는 같은 기간 연 평균 68.1%의 가파른 성장을 보였다. AI보안의 국가별 특허 출원 실적은 미국이 41.7%로 세계 1위였고 중국이 40%로 근소하게 2위였다. 한국은 6.7%로 4위, 유럽이 7.5%로 3위, 일본이 4.1%로 5위였다. 또 AI보안을 출원인별로 보면 세계 톱 10중 9곳이 미국 기업이였고, 한국기업은 1곳이였다. 양 팀장은 "AI보안은 사이버 보안 및 인공지능의 융합기술"이라면서 "글로벌 주요 기업 대비 국내 기업들의 기술 개발 및 투자 격차가 존재하는데, 국내는 대기업과 대학 및 연구기관이 주도하고 있는데 AI보안 분야 스타트업 지원 정책이 필요하다"고 강조했다. 이어 한국의 AI 보안 특허시장은 미국,중국에 비해 규모가 열세라면서 "국내 특허 시장 매력을 높이기 위한 법적 보호 체계 강화와 국제 인지도 제고 등이 필요하다"고 말했다. 기술 성숙도에 따른 차별화 전략도 짚었다. 즉 바이AI는 틈새 전략이, 포AI는 핵심기술을 선점해야 한다는 것이다.

2025.02.18 21:07방은주

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

머스크의 '그록3', 추론-미니 추론 2종 나와…1주일 후 음성 모드 추가

테크크런치(TechCrunch)가 19일(현지 시간) 보도한 내용에 따르면 일론 머스크의 인공지능 기업 엑스AI(xAI)가 17일(현지시간) 새로운 AI 모델 '그록3(Grok 3)'을 공개했다. 이와 함께 그록 iOS 앱과 웹 앱의 새로운 기능도 선보였다. 그록3는 오픈AI(OpenAI)의 GPT-4o와 구글(Google)의 제미나이(Gemini)에 대항하는 모델이다. 이미지 분석과 질문 응답이 가능하며, 머스크의 소셜 네트워크 X(구 트위터)의 다양한 기능을 지원한다. 엑스AI는 멤피스에 위치한 대규모 데이터센터에서 약 20만 개의 GPU를 활용해 그록3를 학습시켰다. 머스크는 X를 통해 "그록3가 이전 모델인 그록2보다 10배 더 많은 컴퓨팅 파워로 개발됐다"고 밝혔다. 그록3는 '그록3 추론(Grok 3 Reasoning)'과 '그록3 미니 추론(Grok 3 mini Reasoning)' 등 여러 모델로 구성됐다. 이들은 오픈AI의 o3-미니(o3-mini)와 중국 딥시크(DeepSeek)의 R1처럼 문제를 '사고'하며 해결하는 기능을 갖췄다. 또한 '딥서치(DeepSearch)'라는 새로운 기능을 통해 인터넷과 X 플랫폼을 검색하여 질문에 대한 요약된 답변을 제공한다. X 프리미엄플러스(Premium+) 구독자($50/월)가 그록3를 먼저 사용할 수 있다. 추가 기능은 '슈퍼그록(SuperGrok)' 요금제($30/월 또는 $300/년)를 통해 이용 가능하다. 머스크는 "약 1주일 후에 음성 모드가 추가되고, 몇 주 후에는 기업용 API를 통해 그록3 모델과 딥서치 기능을 제공할 계획"이라고 밝혔다. 또한 "그록3가 안정화되면 그록2를 오픈소스로 공개할 예정"이라고 덧붙였다. 엑스AI는 그록3가 수학 문제 평가 벤치마크인 AIME와 박사급 물리, 생물, 화학 문제를 평가하는 GPQA에서 GPT-4o를 능가했다고 주장했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.18 20:13AI 에디터

안랩, AI바우처 공급기업 선정···안티바이러스 등 5종 제공

안랩(대표 강석균)은 과학기술정보통신부와 정보통신산업진흥원(NIPA)이 주관하는 '2025년 AI바우처 지원사업'의 공급기업으로 선정, 자사 AI 기술 적용 솔루션을 공급한다고 18일 밝혔다. 이번 사업에서 안랩은 ▲안티바이러스 솔루션 'V3 제품군' ▲SaaS형 보안 위협 분석 플랫폼 '안랩 XDR' ▲차세대 엔드포인트 탐지 및 대응 솔루션 '안랩 EDR' ▲샌드박스 기반 지능형 위협(APT) 대응 솔루션 '안랩 MDS' ▲보안 오케스트레이션, 자동화 및 대응(SOAR) 솔루션 '안랩 SOAR' 등 AI 기술이 적용된 솔루션 5종을 공급한다. 수요기업은 안랩이 제공하는 솔루션을 활용해 악성코드 등 다양한 보안 위협에 대한 대응을 강화하고, 보안 운영 효율성을 높일 수 있다고 회사는 설명했다. 안랩 마케팅&글로벌사업부문 이상국 전무는 “올해 30주년을 맞은 안랩의 AI 및 보안 노하우가 반영된 다양한 제품들이 디지털 전환이 필요한 수요기업에게 실질적인 도움이 되기를 바란다”고 말했다. 안랩은 현재 연구소 산하에 인공지능 및 머신러닝을 연구하고 관련 기술을 개발하는 '인공지능개발실'을 두고, 머신러닝(Machine Learning) 기술을 자사 솔루션 및 서비스에 지속적으로 적용하고 있다. 한편 안랩이 공급하는 AI 적용 솔루션 5종을 살펴보면, 안티바이러스 솔루션 'V3 제품군'은 개인, 기업, 모바일 환경 등 다양한 사용자 환경에 맞춰 제공되는 안랩의 대표 안티바이러스 솔루션이다. 또 ▲SaaS형 보안 위협 분석 플랫폼 '안랩 XDR'은 조직 내 수많은 시스템으로부터 위협정보를 수집해 분석·탐지·대응을 제공하는 SaaS형 '보안 위협 분석 플랫폼이고 ▲차세대 엔드포인트 탐지 및 대응 솔루션 '안랩 EDR'은 행위 기반 분석 엔진을 기반으로 엔드포인트 영역에 대해 강력한 위협 모니터링과 분석, 대응 역량을 제공하는 차세대 엔드포인트 위협 탐지 및 대응 솔루션이며 ▲샌드박스 기반 지능형 위협(APT) 대응 솔루션 '안랩 MDS'는 정밀한 위협 탐지와 정교한 분석 및 능동적인 대응 역량을 제공하는 샌드박스 기반 지능형 위협 대응 솔루션이고 ▲보안 오케스트레이션, 자동화 및 대응(SOAR) 솔루션 '안랩 SOAR'는 안랩의 오랜 보안 관제 노하우를 집약해 표준화한 플레이북과 다양한 솔루션 연동으로 보안 오케스트레이션, 자동화를 구현한 대응 플랫폼이다.

2025.02.18 20:13방은주

네이버, 고용노동부와 IT업계 재취업 지원

네이버(대표 최수연)와 고용노동부가 중·장년 IT 인력의 재취업을 지원해 사회적 선순환을 구축하기 위해 협력에 나선다. 네이버와 고용노동부는 18일 경기도 성남시에 위치한 네이버 그린팩토리에서 IT업계 맞춤형 재취업 지원 프로그램 운영을 위한 협약을 체결했다. 협약식은 네이버 교육센터 공기중 센터장과 김민석 고용노동부 차관을 비롯해 주요 관계자가 참석한 가운데 진행됐다. 이번 협약에 따라 네이버는 IT업계의 숙련된 인력이 퇴직 후에도 역량을 발휘할 수 있도록 재취업 지원 프로그램을 개발한다. 네이버는 자체 온·오프라인 교육 플랫폼을 활용해 목표 별 교육 과정을 설계할 예정이다. 또한, 네이버는 민관 협력을 기반으로 초고령사회에 대비해 우수 인력을 확보하고 사회적 비용을 줄여 선순환을 창출하는 첫 사례를 발굴할 수 있을 것으로 기대한다고 밝혔다. 네이버와 고용노동부는 모범적인 협업 모델이 인터넷 플랫폼 업계 전반에 확산될 수 있도록 지속적으로 협력을 강화할 계획이다. 네이버 교육센터 공기중 센터장은 “네이버는 SME 및 창작자의 스케일업, 미래 세대 AI 교육 등 다양한 분야에서 교육 프로그램을 제공하며 여러 세대의 이용자들과 동반성장을 이어왔다”며 “이번 협약으로 인터넷 플랫폼 산업에 특화된 지원책을 마련해 업계의 안정적인 고용 문화 조성을 위해 노력할 것”이라고 말했다. 고용노동부 김민석 차관은 “높은 수준의 체력·경력·학력을 갖춘 중장년들에게 더 오래 일할 기회를 제공하는 것은 개인의 삶의 질과 국가 경제 활력을 함께 높이는 길”이라며 “오늘 협약을 통해 IT산업 근로자들에게 효과적인 재취업 지원을 제공하고, 다른 산업으로도 확산하겠다”고 밝혔다.

2025.02.18 19:51안희정

합성 데이터로 탄생한 '그록3'…환각·결함 우려 괜찮나

xAI가 출시한 인공지능(AI) 모델 '그록3' 성능에 대한 우려가 나왔다. 모델 데이터 상당수가 합성데이터로 구성돼 결함과 환각 현상을 높일 수 있다는 염려 때문이다. 이에 오픈AI를 비롯한 구글, 딥시크를 뛰어넘는다는 xAI 주장에 의문점이 생겼다. 18일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 '지구상에서 가장 똑똑한 모델'이라며 출시한 그록3 성능에 대해 이같은 의문이 제기된 것으로 전해졌다. xAI는 소셜미디어 X(엑스) 라이브 시연을 통해 새 모델 그록3 베타버전과 미니버전을 공개했다. 공식 버전과 그록3 API, 딥서치 기능은 추후 배포 예정이다. xAI 연구진은 "그록3가 대량의 합성 데이터셋과 자체 오류 수정, 강화 학습을 통해 그록2보다 정교한 결과를 제공한다"고 라이브 시연을 통해 자신했다. 특히 논리적 추론, 연산 능력, 적응력이 기존 대비 대폭 향상됐다고 평가했다. 그러면서 "대규모 그래픽처리장치(GPU) 자원을 추가해 방대한 데이터셋을 더 짧은 시간 안에 처리했다"며 "정확도까지 높였다"고 덧붙였다. AI 업계에서는 그록3이 학습한 데이터셋 다수가 합성이라는 점을 우려했다. 합성데이터가 모델 결함을 높이고 환각 현상을 높일 수 있기 때문이다. 합성데이터는 실제 데이터 특성·분포를 모방해 인공적으로 생성된 데이터다. 보통 AI 모델서 나온 결과물을 다시 모델에 넣어 재활용되는 식으로 쓰인다. 생성형 AI 모델 개발에 필요한 데이터가 곧 고갈될 것이란 전망이 나온 가운데 합성데이터가 대안으로 떠오르고 있다. 다만 품질이 낮거나 오류를 생성하는 합성데이터가 모델에 들어갈 경우 모델 자체 성능을 떨어뜨릴 수 있다. 이같은 우려는 이미 학계에서 거론된 바 있다. 지난해 옥스퍼드대 연구진은 합성데이터가 모델 결함을 증가시키고 환각 현상을 초래할 수 있다고 경고했다. 모델이 소량의 합성 데이터만 학습해도 성능에 큰 영향을 줄 가능성이 있다는 지적이다. 한 업계 관계자는 "합성데이터를 반복적으로 사용할 경우 오류 전파(Error Propagation)로 인해 현실과 괴리가 심해질 것"이라고 지적했다. 그러면서 "합성 데이터로 모델 사이즈를 늘리는 것보다 데이터 품질이 얼마나 좋은지가 관건일 것"이라고 덧붙였다. 그록3, GPT보다 정말 똑똑할까 해외 업계에서는 그록3가 오픈AI, 구글 등 타사 모델을 실제 능가했을지 의문이라는 분위기다. 최근 그록3를 개발에 참여한 개발자가 해당 모델 성능을 낮게 평가하는 게시글이 퍼지면서다. 벤자민 데크라커 전 xAI 개발자는 "그록3이 코딩 측면에서 오픈AI의 ChatGPT o1, o1프로, o3미니 모델만큼 뛰어나지 않다"는 의견을 소셜미디어 X에 게시했다. xAI는 해당 게시글이 회사 기밀 정보를 포함한다고 주장하면서 삭제를 요청했다. 이에 데크라커는 "단순한 개인 의견일 뿐이며 게시글 삭제를 강요받아 사임을 결정했다"고 해외 언론에 밝혔다. 반면 xAI는 이번 라이브 시연에서 그록3가 과학, 코딩, 수학 분야에서 오픈AI '챗GPT-4o'를 비롯한 구글 '제미나이 2.0 프로', 딥시크 '딥시크 V3'보다 더 높은 점수를 기록한 벤치마크 결과를 공개했다. 업계 관계자는 "공식 버전이 내놓는 결과물을 봐야 한다"며 "벤치마크에서 모든 모델 성능을 능가했다는 결과도 무의미하다"고 평가했다.

2025.02.18 19:37김미정

"보안의 판을 바꾼다"…체크포인트, 초연결 시대 위한 AI 통합 플랫폼 소개

[방콕(태국)=조이환 기자] "이번 행사는 1년 동안 우리가 구축한 기술을 공유하고 고객과 소통하며 실질적인 인사이트를 얻는 중요한 자리입니다. 초연결 시대에는 단일 보안 솔루션이 아니라 모든 보안 요소를 하나로 통합하는 플랫폼 접근 방식이 필수적으로, 인공지능(AI) 기반 자동화와 협업을 중심으로 보안 전략을 혁신해 나가겠습니다." 나탈리 크레머 체크포인트 최고제품책임자(CPO)는 18일 태국 방콕에서 개최된 '체크포인트 익스페리언스 2025(CPX 2025)'에서 AI 기반의 통합 보안 플랫폼 체크포인트 인피니티를 소개하며 이같이 말했다. 이날 키노트에서 크레머 CPO는 AI 기술을 활용한 최첨단 보안 기능을 집중적으로 소개했다. 이 기능들은 기업이 급변하는 사이버 위협에 효과적으로 대응하고 보안 정책 관리와 운영 효율성을 극대화할 수 있도록 설계됐다. AI 기반 보안 혁신…정책 최적화부터 자동 대응까지 크레머 CPO는 AI 기반 핵심 기능을 종합적으로 소개하며 보안 혁신 방향을 제시했다. ▲ 퀀텀 폴리시 인사이트와 ▲ 퀀텀 폴리시 오디터는 정책 관리 및 아이덴티티 보안을 강화하고 ▲ 인피니티 플레이블록스는 보안 자동화 기능을 지원한다. 또 ▲ 인피니티 AIOps와 ▲ 인피니티 AI 코파일럿은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. '퀀텀 폴리시 인사이트'는 네트워크 정책에 내재된 문제점을 심층 분석하는 AI 기반 도구다. 이 기능은 정책 내에 사용되지 않거나 과도하게 허용된 규칙들을 식별해 보안 관리자가 보다 정확하게 정책을 개선할 수 있도록 돕는다. 이를 통해 기업은 불필요한 보안 허점을 미리 제거하고 보다 엄격한 제로 트러스트 환경을 구축할 수 있다. 또 '퀀텀 폴리시 오디터'는 네트워크의 다양한 세그먼트 간 접근 권한을 시각적으로 보여주는 도구다. 이 기능은 각 세그먼트의 트래픽 흐름과 정책 적용 현황을 한눈에 파악하게 해 보안 관리자들이 규정 위반이나 불일치를 빠르게 확인하고 수정할 수 있도록 돕는다. 결과적으로 조직 내 보안 정책 준수와 규제 감사 준비가 훨씬 수월해진다. '인피니티 플레이블록스'는 보안 자동화 기능을 갖춘 솔루션으로 네트워크에서 발생하는 각종 위협에 대해 자동으로 대응할 수 있도록 설계됐다. 체크포인트 제품과 제3자 보안 솔루션을 연동해 공격 발생 시 즉각적인 차단과 경고를 제공해 전사적인 보안 태세를 강화한다. 더불어 '인피니티 AI옵스'와 '인피니티 AI 코파일럿'은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. 이들 솔루션은 방대한 로그와 실시간 트래픽을 분석해 보안 이벤트 발생 원인을 신속하게 진단하고 자동화된 추천과 대응 전략을 제시한다. 이를 통해 보안팀은 반복적인 업무 부담을 줄이고 더 전략적인 업무에 집중할 수 있다. 이어 에란 하바드 보안 관리 R&D 부장은 퀀텀 폴리시 인사이트와 오디터를 활용한 정책 자동 보정 및 시각화 데모를 선보였다. 이로써 AI가 보안 정책을 더욱 정밀하게 관리할 수 있음을 시사했다. 또 리앗 치한 관리 및 인피니티 비전 그룹 품질보증 매니저는 인피니티 플레이블록스가 제3자 보안 솔루션과 연동해 실시간 사이버 공격을 차단하는 시나리오를 소개하며 AI 기반 자동화 대응이 보안 운영 효율성을 극대화하는 핵심 요소임을 강조했다. 크레머 CPO는 "이러한 혁신적인 기술들은 디지털 전환 시대에 기업들이 안정적인 보안 환경을 구축할 수 있도록 돕는다"며 "미래 위협에 선제적으로 대응할 수 있도록 강력한 지원을 제공할 것"이라고 밝혔다. 클라우드 시대, 보안 전략 '대전환'…위즈와 협업으로 CNAPP 혁신 가속 크레머 CPO에 따르면 체크포인트는 최근 클라우드 보안 강화를 위해 자사 '클라우드가드' 솔루션을 업그레이드하고 클라우드 네이티브 애플리케이션 프로텍션 플랫폼(CNAPP) 분야에서도 중요한 협력을 발표한 바 있다. 이번 업그레이드는 온프레미스와 멀티 클라우드를 아우르는 보안 정책 통합 기능을 제공해 기업들이 다양한 IT 환경에서 일관된 보안 체계를 유지할 수 있도록 돕는 것을 목표로 한다. 그는 "클라우드 네이티브 방화벽만으로는 기업을 보호하기 어려우며 하이브리드 보안 전략이 필수적"이라며 "기존 보안 솔루션 한계를 극복하기 위한 새로운 접근 방식을 제시했다"고 밝혔다. 이어 "온프레미스와 멀티 클라우드를 동시에 운영하는 기업이 늘어남에 따라 보안 정책의 일관성을 지키면서도 복잡한 환경을 효율적으로 보호할 수 있는 기술이 필수적"이라고 설명했다. 이러한 전략의 일환으로 체크포인트는 CNAPP 영역의 독보적인 기업인 위즈(Wiz)와 협력하고 있다. 위즈의 공격 표면 분석 기능과 체크포인트의 보안 정책 자동화 기술을 결합해 보안팀이 훨씬 빠르게 취약점을 발견하고 보완할 수 있도록 돕는다. 또 크레머 CPO는 체크포인트가 현재 '인피니티 생성형 AI 프로텍트'를 공개했다고 밝혔다. 이 솔루션은 기업 내 AI 애플리케이션 사용 현황을 면밀히 모니터링해 섀도우 AI로 인한 정보 유출 위험을 사전에 차단한다. 최근 AI 업무 도구 사용이 증가하면서 외부 AI 서비스로 기업 내부 데이터가 무분별하게 전송되는 문제가 심화되는 상황에서 이를 해결하기 위해 실시간 감지 및 자동 보안 정책 적용 기능을 제공하기 위함이다. 실제로 이날 행사에서는 '인피니티' 생성 AI 솔루션의 실시간 보안 기능 시연도 주목받았다. 오피르 이스라엘 체크포인트 위협 예방 부문 부사장은 개발자가 내부 코드를 외부 AI 도구에 입력하는 순간 해당 데이터가 자동으로 차단되어 외부로 전송되지 않는 모습을 시연했다. 이를 통해 기업들은 AI 도구를 안전하게 활용하면서도 중요한 기업 정보가 의도치 않게 유출되는 상황을 사전에 방지할 수 있음이 강조됐다. 크레머 CPO는 "AI 보안은 단순한 보호 수단이 아니라 기업의 정보 자산을 지키는 필수 요소"라며 "기업은 이 솔루션을 통해 AI 기술을 안전하게 활용하면서도 보안 리스크를 최소화할 수 있다"고 설명했다. 엔비디아와 협력해 AI 데이터센터 보호 강화…GPU 성능도 100% 유지 크레머 CPO에 따르면 체크포인트는 현재 엔비디아와 협력해 AI 데이터센터 보안을 강화하는 새로운 솔루션을 발표한 상태다. 이 솔루션은 네트워크 카드(NIC) 수준에서 보안 기능을 적용하여 GPU의 성능을 저하시키지 않으면서도 AI 연산을 보호할 수 있도록 설계됐다. 이에 AI 인프라를 운영하는 기업들이 높은 연산 성능을 유지하면서도 보안 위협에 효과적으로 대응할 수 있게 된다. 특히 이번 솔루션은 네트워크 카드 자체에서 보안 프로세스를 처리함으로써 GPU가 AI 연산에만 집중할 수 있도록 최적화된 것이 핵심이다. 기존 보안 솔루션은 데이터센터 내 트래픽을 점검하는 과정에서 연산 성능을 저하시킬 위험이 있었지만 두 회사 간의 협업을 통해 이러한 문제를 해결한 것이다. 향후 체크포인트는 AI 연산 과정에서 발생하는 보안 위협을 실시간 감지·차단하여 데이터 유출과 악성 공격을 사전에 방지할 계획이다. 이를 통해 AI 모델 학습 및 운영 환경의 보안성을 강화할 전망이다. 나탈리 크레머 체크포인트 CPO는 "AI 기술이 발전할수록 보안 위협도 함께 진화하고 있다"며 "협력을 통해 기업들이 AI 연산을 안전하게 수행할 수 있도록 강력한 보호 체계를 구축하겠다"고 밝혔다.

2025.02.18 18:51조이환

"국가 AI 경쟁력 확대...'혁신' 이끌 규제수준 갖춰야”

인공지능(AI) 기술 개발과 주도권 확보를 위한 국가 간 경쟁이 치열해지는 가운데 적정 수준의 AI 산업 규제를 갖춰야 한다는 전문가들의 의견이 모였다. 김용희 경희대 교수는 18일 더불어민주당 이훈기 의원이 주최한 AI 정책 토론회에 발제를 맡아 “AI 기본법의 모호성과 불확실성이 기술혁신을 저해하고, 결국 국제 경쟁력 저하로 이어질 우려가 있다”며 “해외 사업자에 대한 의무 규정이 국내 시장의 고립을 초래해 소비자에게 불이익이 올 수 있다”고 밝혔다. 이어, “정책의 국제적 정합성을 확보하고 기업 지원 확대와 산업계와의 소통 강화가 법 시행의 성공을 좌우할 것”이라고 강조했다. 김 교수는 또 “글로벌 AI 패권 경쟁이 치열한 상황에서 규제 수준은 각국 기업들의 기회와 위상을 좌우하고 있다”며 “한국이 세부 규제가 EU 수준으로 엄격해진다면, 한국 AI 업체가 글로벌 시장에서 경쟁력을 상실할 수 있다”고 덧붙였다. 네이버클라우드의 하정우 AI이노베이션센터장 역시 발제를 맡아 “규제 자체가 본질이 될 수는 없고, 혁신을 위한 규제를 생각해야 한다”며 “네거티브 이점을 최대한 활용하고 실제 많은 나라들이 점점 이같은 방향을 택하고 있다”고 말했다. 그러면서 “우리나라는 날리지 AI 기술을 충분히 보유한 기업들이 있다”며 “AI G3를 위해서 국가 전체 AI 전략을 수립 집행할 거버넌스를 고도화하고, 법적 안전장치를 마련할 필요가 있다”고 했다. 토론에 참여한 계인국 고려대 행정전문대학원 교수는 “AI에 대한 기본적 인식이나 전개양상은 글로벌 스탠다드화 되고 있다”며 “그러나 현재 우리나라 AI 기본법에서의 AI에 대한 정의는 '인간 유사적'이라고 정의하고 있어 인지적 AI만 대상으로 보게 될 수 있어 실제 산업현장에서 사용되는 비인지적 AI를 이 법에 적용대상으로 보기 어려울 수 있다”고 짚었다. 이어, “개발사업자, 이용사업자를 구분 정의하고 있으나 실제 AI 생태계에서 사업자의 구분은 모호하다”며 “이러한 부분에 대한 개정을 두려워하지 말고 과감하게 고려해야 한다”고 주장했다. 코리아스타트업포럼 구태언의 부의장은 “우리나라가 EU와 같이 강한 규제를 도입하면 AI 스타트업이 초기부터 과도한 부담을 지게 될 수 있다”며 “AI 규제를 혁신 촉진형 접근 방식으로 조정할 필요가 있다”고 주장했다. 법무법인 세종의 장준영 AI센터장은 “국민들이 AI 리스크에 대해 안심할 수 있으면서도, 기업들의 부담은 최소화할 수 있는 방안을 찾는 것이 한국형 모범답안이 될 수 있다”며 “규제 샌드박스, 안심구역 등 탄력적 자율적 규제 수단을 적극적으로 고려해야 한다”고 제안했다. 산업에 대한 규제 완화 시각과 달리 일정 부분에서는 규제를 갖춰야 한다는 의견도 나왔다. 오병일 진보네트워크센터 대표는 “AI 기술 혁신과 제도가 별개로 발전할 수 없다”며 “우리 사회가 어떤 AI를 발전시킬 것인지, 그리고 어떻게 AI를 민주적으로 통제할 것인지에 대한 사회적 논의가 병행되어야 한다”고 주장했다. AI 산업 경쟁력 확대를 위해 데이터 중요성에 대한 논의도 이어졌다. 최근 들어 AI 컴퓨팅 인프라 확보에 주요 논의가 쏠려있는데, AI 모델 학습을 위한 데이터 확보 문제도 중요하게 봐야 한다는 뜻이다. 장준영 센터장은 “새로운 규제개선을 통한 전략도 좋지만, 기존에 우리나라가 갖고 있던 데이터 활성화 정책을 잘 활용하고 발전시키는 방향을 통해서도 우리나라만의 인공지능 전략을 만들 수 있을 것”이라고 말했다. 김경만 과학기술정보통신부 인공지능기반정책관 역시 “우리나라가 범용인공지능(AGI) 개발 경쟁력을 갖기 위해서는 결국 양질의 데이터가 필요한 상황”이라며 “이를 위해 법적인 기반이 마련되지 않는다면 공공에 자금 투입으로 지원하는 것도 가능할 것”이라고 설명했다. 김 국장은 또 “AI를 핵무기와 같은 전략자산으로 인식하고 이를 가질 것이나 안 가질 것이냐로 봐야 한다”며 “전략자산, 첨단기술로서 AI에 대한 경쟁체계로 세계 AI 경쟁은 바뀔텐데 우리나라 자체 AI 기술의 개발이 경쟁력을 만들 것”이라고 덧붙였다. 토론회를 개최한 이훈기 의원은 인사말을 통해 “미국의 정책 변화와 중국의 딥시크 충격 등 세계 AI 정책 지형이 빠르게 변화하는 가운데 우리나라만의 인공지능 정책 방향을 확립하는 것이 중요한 시점”이라며 “더불어민주당은 AI 거버넌스 전략 수립을 통해 대한민국이 인공지능 선도국으로 도약할 수 있도록 각계와 긴밀히 협력하며 노력하겠다”고 밝혔다.

2025.02.18 18:50박수형

  Prev 531 532 533 534 535 536 537 538 539 540 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 국민 모두가 참여하는 ‘AI 진흥주간’ 열린다

우체국 금융서비스 정상화...인터넷뱅킹·체크카드 재개

[단독] 정보협박범 '킬린', 토목업체 유신 내부 데이터 공개

'이진숙 임기 종료' 방통위 폐지법, 국회 본회의 통과

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.