• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'‘글로벌 텔코 AI 얼라이언스’'통합검색 결과 입니다. (9019건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

최수연 네이버 "절박하고 중차대한 시기…AI 성장 위한 정부·국회 지원 요청"

"네이버가 성공할 수 있었던 배경에는 1998년부터 정부 주도로 초고속 인터넷망이 구축된 덕분이다. AI 역시 국가 차원의 지원과 정책적 방향성이 마련된다면 글로벌 시장에서 주도적인 역할을 할 수 있다. 네이버 또한 인재 육성과 적극적인 투자를 이어 나가겠다." 19일 오전, 국회 과학기술정보방송통신위원회가 인공지능(AI) 글로벌 3대 강국(G3) 도약을 위한 현장소통의 일환으로 경기도 성남 네이버 본사를 찾았다. 이 자리에서 네이버 최수연 대표는 AI 정책 관련 정부와 국회의 지속적인 지원을 요청하며 투자와 혁신을 하겠다고 강조했다. 최민희 과방위원장 또한 AI 산업 활성화를 위해 정책 마련에 박차를 가하겠다고 약속했다. 이날 과방위원들이 네이버에 모인 이유는 딥시크의 AI 모델 R1로 인해 미국과 중국의 AI 패권 경쟁이 격화되는 가운데 국내 AI 산업의 현황을 진단하고 입법 제도적 개선 방향과 현장 애로사항 등 의견 청취를 위해서다. 이 자리에는 최민희 과방위원장과 김현, 최형두 간사(온라인 참여)를 비롯해 김우영, 박민규, 이정헌, 이훈기, 이해민, 정동영, 조인철, 한민수, 황정아 의원이 참석했다. 네이버에서는 최수연 대표, 석상옥 네이버랩스 대표, 하정우 네이버클라우드 퓨처AI센터장 등이 함께했다. 최민희 "국가가 기업 사업 활동 방해해선 안 돼…구체적 지원책 논의중" 최민희 과방위원장은 "AI와 R&D 관련 예산 5조원 규모 추경 편성을 추진하고, AI 인력 양성 및 전략 기술 분야 지원책 마련을 고민하고 있다"며 "지금까지 진행된 토론회를 통해 도출된 핵심 키워드를 바탕으로 AI 산업 발전을 위해 병역 특례를 포함한 구체적인 지원책을 논의 중"이라고 말했다. 또한 "AI 산업에 종사하는 기업들을 위한 세액 공제 등 인센티브 제공도 검토하고 있다"며 기업의 사업 활동을 지원하는 정책 방향을 강조했다. 최 위원장은 "과학 기술 발전을 저해하는 규제는 지양해야 하지만, 개인정보 보호와 같은 역기능에 대한 대책 마련도 중요하다"며 "국회 차원에서 AI 산업의 성장을 저해하지 않으면서도 균형 잡힌 정책을 마련하겠다"고 밝혔다. 이어 최 위원장은 "국가가 기업에 민폐를 끼치면 안 되며, 과학기술의 발전을 제도가 막아서는 안 된다"며 "대한민국이 약간 늦었다고 하지만, 같이 발전할 수 있게 노력하겠다"고 덧붙였다. 최수연 "규제보다 진흥…국회·정부 관심 필요" 최수연 네이버 대표는 글로벌 AI 경쟁에서 선두를 유지하기 위해 투자와 혁신을 지속하고 있다며 정부와 국회의 지속적인 지원을 요청했다. 최 대표는 "국내 AI 산업이 글로벌 시장에서 경쟁력을 확보할 수 있도록 정부의 지속적인 지원이 필요하다"며 "EU 디지털 서비스법과 같은 해외 규제가 미국 기업에 부담이 되고 있는 만큼, 우리 정부도 국내 기업을 보호할 수 있는 정책적 지원을 마련해야 한다"고 덧붙였다. 이어 최 대표는 "네이버가 성공할 수 있었던 배경에는 1998년부터 정부 주도로 초고속 인터넷망이 전국적으로 구축된 덕분"이라며 "AI 역시 국가 차원의 지원과 정책적 방향성이 마련된다면 글로벌 시장에서 주도적인 역할을 할 수 있다"고 역설했다. 최 대표는 "기업 입장에서는 절박하고 중차대한 시기에 있다. 국내 AI 산업이 규제보다는 진흥을 통해 발전할 수 있도록 국회와 정부의 관심과 지원을 요청한다. 네이버도 인재에 더 투자하고 글로벌 시장에서 사명감을 가지고 경제를 이끌 수 있는 책임감 있는 회사가 되겠다"고 밝혔다.

2025.02.19 11:34안희정

과방위, AI 강국 도약을 위한 성명서 합의…"국가 차원 지원"

국회가 대한민국이 AI 강국으로 도약할 수 있도록 정책적 지원을 아끼지 않겠다는 내용의 여야 합의 성명서를 공개했다. 국회 과학기술정보방송통신위원회 소속 위원들은 19일 경기도 네이버 본사를 방문해 인공지능(AI) 관련 기술 시연을 참관하고, AI 관련 성명서를 발표했다. 이번 현장에는 최민희 과방위원장을 비롯한 10명의 과방위원들과 국회 과방위 관계자들이 참석했으며, 네이버의 생성형 AI 연구개발 현황을 듣고, 최신 로봇 기술이 적용된 서비스 시연을 직접 참관하는 시간을 가졌다. 네이버 측은 AI 검색과 생성형 AI, 로보틱스 기술 등 다양한 분야에서의 성과를 소개하고 AI 관련 혁신을 위한 지속적인 연구개발 계획을 공유했다. 과방위원들은 AI 기술 발전이 국가 경쟁력 강화에 미치는 영향에 대해 깊이 공감하며, 대한민국이 AI 강국으로 도약하기 위한 정책적 지원방안을 논의했다. 특히, AI 산업 활성화를 위해 대규모 인프라 투자가 중요하고, 이를 위해서는 입법과 정책적 노력이 필요하다는데 의견을 모았다. 이에 따라 과방위 위원들은 AI 강국으로의 도약을 위한 지원 의지를 담아 여야 합의 성명서를 발표했다. 성명서에는 ▲ AI 대규모 투자 및 인프라 조성 ▲ AI 산업계와의 소통 강화 ▲ AI 법·제도 정비 및 국제협력 확대 ▲ 예산 투입 등 후속조치의 신속한 추진 등의 내용이 포함됐다. 최민희 위원장은 “AI 기술이 대한민국의 미래를 결정짓는 중요한 요소인 만큼 과방위가 앞장서서 정부, 기업과 협력해 AI 3대 강국으로 도약할 수 있도록 정책적 지원을 아끼지 않겠다”라고 밝혔다. 국회 과방위는 앞으로도 AI 관련 기업 및 연구기관과의 소통을 확대하고 AI 산업 발전을 위한 정책 마련에 적극 나설 방침이다. 다음은 여야 합의 성명서 AI 강국 대한민국, 국회 과방위가 앞장서겠습니다. 국회 과학기술정보방송통신위원회는 대한민국이 AI 강국으로 도약할 수 있도록 정책적 지원과 제도 정비에 적극 나서겠습니다. 첫째, AI 대규모 투자 및 인프라를 조성하겠습니다. 국가 차원의 AI 지원 체계를 구축하고, 연구·개발을 촉진하며, 국내외 인재를 육성하고 유치할 수 있는 환경을 마련하겠습니다. 또한, 기업과 연구기관이 자유롭게 도전할 수 있는 혁신 생태계를 조성하겠습니다. 둘째, AI 산업계와 지속적인 소통을 강화하겠습니다. 산업계·전문가·정부와 협력해 현장의 의견을 정책에 반영하고, AI 관련 규제를 개선하며, 기술발전을 촉진하는 지원방안을 구체화하겠습니다. 셋째, AI 법·제도를 정비하고 국제협력을 확대하겠습니다. AI 산업의 윤리적·법적 기반을 강화하기 위해 법·제도를 정비하고, 글로벌 AI 규범이 빠르게 정립되고 있는 만큼, 국제 협력과 기술 교류를 확대하여 우리나라가 국제 AI 시장에서 주도적인 역할을 할 수 있도록 지원하겠습니다. 또한, 글로벌 AI 거버넌스 구축에 기여하고, 주요국과의 협력을 통해 우리 기업이 해외 시장에서도 경쟁력을 갖출 수 있도록 정책적 지원을 아끼지 않겠습니다. 넷째, AI 강국으로 가기 위한 지원을 아끼지 않겠습니다. AI 산업의 발전과 글로벌 경쟁에서 뒤처지지 않기 위해선 지금이 골든타임입니다. AI 기본법의 취지에 맞춰 필요한 추가 예산이 적기에 투입될 수 있도록 하겠습니다. 이를 위해 추경 편성을 포함한 모든 후속 조치를 신속히 추진하여, 대한민국이 AI 강국으로 도약할 수 있도록 적극 뒷받침하겠습니다. 앞으로 국회 과방위는 AI 산업의 성장 기반을 조성하고, 대한민국이 AI 선도국으로 도약할 수 있도록 필요한 모든 정책적 노력을 기울이겠습니다.

2025.02.19 11:28안희정

국표원, AI 등 첨단분야 국제표준 개발에 425억 지원

산업통상자원부 국가기술표준원은 '국가표준기술력향상사업'에 지난해보다 22% 늘어난 425억원을 지원한다고 19일 밝혔다. 지난해 5월 국표원이 미래를 이끌 첨단분야 국제표준 개발 확대를 위해 발표한 '첨단산업 국가표준화 전략'의 후속 조치다. 올해 인공지능(AI)·반도체 등 선제적으로 국제표준화가 필요한 12개 첨단산업 분야 신규과제에 117억원을 지원한다. 또 의료·환경 등 범부처 기반산업 표준화 지원도 함께 진행한다. 기존에 지원 중인 무탄소 에너지·탄소중립 등 미래산업을 위한 계속과제(308억원)도 차질없이 지속 추진할 예정이다. 한편, 올해부터 더 많은 연구자가 표준화 과제에 참여할 수 있도록 산업기술혁신사업 공통 운영요령 개정을 통해 한 명의 연구자가 동시에 수행할 수 있는 연구과제 수의 제한을 없앴다. 오광해 국가기술표준원 표준정책국장은 “향후 표준 R&D에 우수한 연구자가 지속해서 참여할 수 있는 환경을 조성하겠다”면서 “첨단분야의 주도적인 국제표준 개발을 통해 우리 기업의 글로벌 신시장 진출을 적극적으로 돕겠다”고 밝혔다.

2025.02.19 11:16주문정

구글클라우드, 야놀자 여행업 AI 서비스 고도화

구글클라우드가 야놀자의 여행업 서비스 고도화를 추진한다. 구글클라우드는 야놀자와 여행업 특화 인공지능(AI) 고도화·전사적 AI 트랜스포메이션을 위해 업무 협약을 체결했다고 19일 밝혔다. 지난 18일 경기도 성남시 판교 야놀자 신사옥에서 열린 파트너십 체결식에는 카란 바좌 구글클라우드 아시아태평양 지역 총괄, 지기성 구글클라우드코리아 사장, 이준영 야놀자그룹 기술 총괄, 장정식 야놀자클라우드 최고기술책임자(CTO) 등 양사 임원이 참석했다. 야놀자는 글로벌 트래블 테크 기업으로 206개국을 대상으로 클라우드 기반 구독·거래 솔루션을 공급한다. 이를 통해 여행 사업자의 운영 효율을 높이고 디지털 전환을 가속화하고 있다. 또 방대한 여행 데이터를 활용해 여행 산업에 특화된 '버티컬 AI'를 구축해 개인·기업 고객에게 맞춤형 서비스를 제공한다. 구글클라우드는 글로벌 인프라와 AI 반도체, 생성형 AI 모델, 개발 플랫폼을 보유하고 있다. 이를 기반으로 야놀자 데이터 역량을 극대화해 버티컬 AI 서비스 수준을 향상시킬 계획이다. 야놀자는 구글클라우드의 AI 최적화 인프라와 제미나이를 활용해 여행 AI 생태계를 확장할 방침이다. 양사는 AI 에이전트 기반 대고객 서비스 개발, 생성형 AI 도입 확산, 임직원 업무 생산성 혁신 등 다양한 프로젝트를 추진해 왔다. 또 구글클라우드의 생성형 AI 그라운딩 기술을 야놀자 서비스에 적용해 보다 신뢰도 높은 여행 데이터를 제공할 예정이다. AI 에이전트는 자동화된 의사결정과 실시간 데이터 분석, 개인화된 고객 경험을 지원하는 기술이다. 야놀자는 이를 자체 여행 데이터와 연계해 초개인화된 여행 경험을 제공하고 여행 사업자에게 고도화된 AI 기반 솔루션을 제공해 고객 서비스 자동화·효율화를 지원할 계획이다. 야놀자그룹 이준영 기술 총괄은 "그동안 글로벌 여행 데이터를 기반으로 독자적인 AI 기술을 구축해 여행자의 편리한 경험과 여행 산업 운영의 효율성을 높이고 있다"며 "이번 협력을 통해 AI 기술을 더욱 고도화하고 혁신적인 버티컬 AI 서비스를 선보일 것"이라고 말했다. 구글클라우드 카란 바좌 아태 지역 총괄은 "글로벌 여행·레저 산업에서 성공적인 사례를 보유하고 있다"며 "야놀자의 데이터와 버티컬 AI에 자사 기술력을 결합해 신뢰할 수 있는 파트너로서 글로벌 여행 시장을 혁신해 나가겠다"고 강조했다. 지기성 구글클라우드코리아 사장은 "자사의 안전한 인프라와 강력한 생성형 AI 기술을 통해 야놀자가 글로벌 선두 기업으로서 입지를 더욱 강화할 수 있도록 적극 지원하겠다"고 밝혔다.

2025.02.19 10:32김미정

딥브레인AI, 딥페이크 탐지 솔루션 GS인증 1등급

딥브레인AI가 자사 소프트웨어(SW)로 국가인증을 받았다. 딥브레인AI는 딥페이크 탐지 솔루션으로 굿소프트웨어(GS) 1등급을 획득했다고 19일 밝혔다. GS인증은 국내 SW 품질 경쟁력 향상과 유통 활성화를 위해 도입된 국가 공인 인증 제도다. 실제 운영 환경을 모사한 테스트 환경에서 기능적합성, 호환성, 사용성, 신뢰성, 보안성 등 9개 항목을 종합적으로 평가한다. 딥브레인AI의 딥페이크 탐지 솔루션은 ▲영상 탐지 ▲이미지 탐지 ▲음성 탐지를 바탕으로 페이스 제너레이션, 페이스 스왑, 립싱크 합성 등 다양한 유형의 조작된 합성 콘텐츠를 탐지한다. API로 타 플랫폼과 연동 가능하다. 이에 대량의 데이터도 쉽게 탐지할 수 있다. 픽셀 차이로 딥페이크 여부를 판별하는 기술력과 레퍼런스 기반으로 국내서 처음 관공서 대상 상용화를 진행한 바 있다. 딥브레인AI은 지난해 11월에 딥페이크 자동 탐지 솔루션을 서비스형 소프트웨어(SaaS)로 공개하기도 했다. 사용자가 찾고자 하는 인물의 특징이나 키워드 등 정보를 입력하면, 유튜브와 틱톡, 엑스, 텔레그램 등 다양한 플랫폼을 자동으로 탐지한다. 불법 성인 영상물의 경우 2차 피해 방지를 위해 노출된 부분을 블러 처리하는 등 윤리적인 기준까지 강화했다. 장세영 딥브레인AI 대표는 "딥페이크 관련 범죄 확산 방지에 보탬이 되고자 지난해는 기업, 관공서 등을 대상으로 딥페이크 탐지 솔루션을 무료 지원한 바 있다"며 "이번 인증을 계기로 인공지능(AI) 순기능을 위한 기술 개발에 더욱 힘쓰겠다"고 말했다.

2025.02.19 10:29김미정

현신균-박봉수, AI 기반 지능형 공장 구현 맞손

현신균 LG CNS 사장과 박봉수 S-OIL 운영총괄 사장이 공장 인공지능 전환(AX) 프로젝트를 위해 손을 맞잡았다. LG CNS는 AI·빅데이터 등 신기술 기반의 지능형 공장 구현을 위한 업무협약(MOU)을 체결했다고 19일 밝혔다 양사는 이번 협약을 통해 AI 기반 ▲플레어스택(가스연소 굴뚝) 최적화 시스템 ▲공정안전관리(PSM) 통합 시스템 ▲AX 플랫폼 등을 공동 개발해 S-OIL 울산공장 운영과 안전 관리 효율성을 한층 높일 계획이다. 플레어스택은 정유·석유화학 공장에서 발생하는 가연성 가스를 연소시켜 대기로 안전하게 배출하는 설비다. 가스가 완전히 연소되지 않으면 매연과 불꽃이 발생할 수 있어 실시간 모니터링과 신속한 대응이 중요하다. LG CNS가 S-OIL 울산공장에 구축하는 AI 기반 플레어스택 최적화 시스템은 AI 영상 분석 기술과 AI CCTV를 통해 24시간 실시간으로 연기의 색상과 불꽃 상태를 분석한다. 이상 징후가 감지되면 증기 밸브를 자동으로 제어해 최적화 상태를 유지, 공정 안정성을 획기적으로 향상시킬 수 있다. 기존에 S-OIL 직원들이 매시간 직접 플레어스택을 확인해야 했던 부담을 줄여, 보다 효율적인 공장 운영이 가능할 것으로 기대된다. LG CNS와 S-OIL은 공정안전관리(PSM) 시스템을 고도화할 예정이다. 공정안전관리(PSM)는 공정 안전 자료, 작업허가, 공정위험성 평가, 비상조치 계획, 설비관리 등 12개항목을 포함한 보고서를 고용노동부에 정기적으로 제출해야 하는 제도다. 이는 고위험 화학물질을 다루는 사업장에서는 필수적이다. 이를 준비하는 데 3~6개월이 소요되고, 방대한 내용을 문서화해 수검 받아야 하기 때문에 체계적인 관리가 중요하다. LG CNS와 S-OIL은 제조 산업의 디지털 전환(DX) 경험과 노하우를 결합해 S-OIL에 최적화된 생성형 AI, 음성인식 기술을 도입할 계획이다. 이를 통해 직원들이 공정안전관리(PSM) 업무를 효과적으로 수행할 수 있도록 지원한다. 공정안전관리(PSM) 과정의 일환으로 직원 대상 안전 의식 제고를 위한 면담도 시행되는데, LG CNS는 이를 돕는 'AI 모의면담' 기능을 개발한다. 생성형 AI가 면담 기출문제 및 환경·안전 관련 자료를 바탕으로 문제를 출제하고, 직원의 답변에 대한 AI 피드백을 제공하는 방식으로 운영될 예정이다. 'AI 모의면담'은 직원들의 효과적인 면담 준비 뿐만 아니라, 안전 의식 제고에도 기여할 것으로 기대된다. 양사는 S-OIL 울산공장의 'AX 플랫폼' 구축도 추진한다. 이를 위해 LG CNS는 기업용 생성형 AI 플랫폼 'DAP 젠AI 플랫폼'과 AI·빅데이터 분석 플랫폼 'DAP MLDL' 등 자체 솔루션을 활용할 계획이다. S-OIL 공장 직원들은 다양한 생성형 AI 서비스를 직접 개발하고 현업에 적용할 수 있게 되며, 데이터 기반의 신속하고 정확한 의사결정 체계를 구축할 수 있을 것으로 기대된다. S-OIL은 'AX 플랫폼'을 통해 스마트 공장 혁신을 가속화하고, AI 기술을 활용한 공정 최적화 및 업무 효율성 제고를 적극 추진할 방침이다. LG CNS CEO 현신균 사장은 “S-OIL의 첨단 공장에 LG CNS의 독자적인 생성형 AI 기술을 적용해 공장의 AX를 한층 가속화하고, 직원들의 업무 효율성을 대폭 향상시켜 차별화된 고객가치를 제공하겠다”고 밝혔다. S-OIL 박봉수 운영총괄 사장은 "S-OIL은 최근 다양한 4차 산업혁명 기술을 도입해 현장의 안전성과 운영 효율성을 크게 향상시키고 있다"며 "AI 기술력과 지능형 공장 운영 노하우를 모두 갖춘 LG CNS와 협력해 디지털 리파이너리(Digital Refinery) 구현에 대한 기대가 크다"고 말했다. 이어 "앞으로도 장기적인 관점에서 체계적인 디지털 리파이너리 구축을 위해 적극적으로 협력해 나가겠다"고 밝혔다.

2025.02.19 10:01남혁우

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

사이냅소프트-디딤365, 공공·민간 AI 솔루션 시장 공략 맞손

사이냅소프트(대표 전경헌)가 디딤365와 공공과 민간기업 인공지능(AI) 솔루션 공략을 위해 힘을 합친다. 사이냅소프트는 디딤365와 'AI 사업 협력을 위한 업무협약(MOU)'을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 '사이냅 도큐애널라이저'와 'DidimVSM' 솔루션을 연계하여 상호 시너지를 극대화할 계획이다. 특히, 성공적인 LLM 구축을 위해 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 하였다. 사이냅소프트의 '사이냅 도큐애널라이저'는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한, 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 마크다운(Markdown), XML 형식의 정형 데이터로 전환한다. 디딤365의 'DidimVSM'은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션으로, 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화하여 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. ▲PDF, DOC, HWP, IMAGE 등 다양한 문서 파일을 업로드 및 처리해 효율적인 데이터 관리 ▲클릭 기반의 웹 GUI 제공으로 편리하게 데이터 수집 및 데이터 처리를 수행할 수 있는 편의 기능 ▲수집된 벡터 데이터를 체계적으로 관리하고 분석하여 최적의 벡터 데이터 활용 환경을 제공한다. 사이냅소프트 전경헌 대표는 "최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고 있다. 양사는 RAG 시스템 구축에 필수적인 양질의 데이터 확보와 효율적인 데이터 처리 역량을 가지고 있다. 양사의 전문성을 결합하여 고품질 데이터 RAG구축을 통해 정교한 LLM 구축을 지원하게 될 것"이라고 밝혔다. 디딤365 AI/빅데이터 부문 김상래 대표는 "양사간 전략적 파트너십을 통해 디지털 전환이 필요한 공공기관 및 민간 기업을 대상으로 최적의 AI 솔루션을 제공할 예정"이라며 "앞으로도 공공기관 및 기업의 디지털 전환을 선도하고, 국내 AI·빅데이터·클라우드 생태계 확장에 기여할 것"이라고 밝혔다.

2025.02.19 09:59남혁우

[기고] AI 시대 클라우드 보안 강화에 3D 통합 전략 필수

급격한 인공지능(AI) 시장 성장은 새로운 기회와 도전 과제를 동시에 가져왔다. 그 중 '보안'은 윤리와 콘텐츠 안전성, 사이버 공격 등 AI 개발 과정에서 가장 우려되는 이슈 중 하나다. 또 최근 유명인사나 인플루언서의 모습을 실제처럼 위조하는 데 악용되는 딥페이크가 가장 큰 위험 요소로 떠오르고 있기도 하다. 최신 생성형 AI 기술이 피싱과 랜섬웨어 공격에 활용되면서 해커들은 더욱 빠르고 정교한 피싱 이메일을 제작하고 있다. AI 도구를 통한 랜섬웨어 최적화가 새로운 트렌드로 자리잡아 사이버 위협을 더욱 심화하고 있다. 다행히 AI는 보안을 강화할 강력한 도구로도 사용될 수 있다. 이 기술은 보안 운영 효율성과 정확성을 크게 향상시키며, 사용자에게 위협을 탐지하고 예방할 수 있는 고도화된 대응 방안을 제공하기 때문이다. 결국 AI 기술을 사용하는 공격자와 방어자가 끊임없이 기술 발전을 거듭하며 치열한 공방을 이어가는 재미있는 상황이 펼쳐지고 있는 것이다. 최근 AI 어시스턴트를 활용한 보안 강화 사례가 급증하고 있으며, 알리바바클라우드 보안 센터도 이에 발맞춰 중국 내 사용자 대상으로 새로운 AI 어시스턴트를 출시했다. 이 솔루션은 알리바바클라우드의 자체 거대언어모델(LLM) 큐원(Qwen) 기반으로 보안 컨설팅, 경고 분석, 사고 조사, 대응 등 다양한 보안 운영을 지원한다. 지난해 말 기준, 이 AI 어시스턴트는 이미 99%의 위험 감지 알림을 처리했으며, 중국 사용자 88%에게 서비스를 제공하며 빠르게 자리 잡고 있다. 특히 멀웨어 탐지 분야에서는 LLM의 코드 이해, 생성, 요약 기능을 활용해 악성 파일을 효과적으로 탐지하고 방어할 수 있다. 더 나아가 LLM의 강력한 추론 기능을 통해 이상 징후를 신속하게 감지하고 오탐을 줄여 탐지 정확도를 높임으로써 보안 엔지니어의 업무 효율성을 크게 향상시키고 있다. 이는 AI 어시스턴트가 단순한 자동화 도구를 넘어, 점점 더 정교한 사이버 보안 파트너로 진화하고 있음을 보여준다. 멀티·하이브리드 클라우드, 데이터 복잡성·보안 비용↑ 최근 많은 기업이 멀티 클라우드와 하이브리드 클라우드 환경을 도입하면서 IT 인프라의 복잡성이 더욱 증가하고 있다. 스태티스타 조사에 따르면, 지난해 기준 전 세계 기업 73%가 하이브리드 클라우드를 사용하고 있으며, IDC는 아시아 태평양 지역 기업의 약 90%가 멀티 클라우드를 도입했다고 보고했다. 그러나 이런 트렌드는 오히려 보안 관리 비용을 증가시키는 치명적인 단점이 있다. 기업들은 퍼블릭 클라우드, 프라이빗 클라우드, 온프레미스 데이터센터 등 여러 환경에 분산된 보안 제품을 관리해야 하며, 각 환경에서 발생하는 보안 사고에도 신속하게 대응해야 한다. 이러한 복잡성은 결국 IT 팀의 운영·관리 비용 증가로 이어질 수밖에 없다. 또 기업들은 동일한 클라우드 서비스 제공업체(CSP) 제품을 사용하더라도, 데이터 사일로 문제로 인해 데이터 간 원활한 상호운용이 어려운 상황에 직면하고 있다. 데이터 사일로가 발생하면 보안 기능이 개별적으로 고립돼 보안 제품 간 연계가 불가능해지고, 이로 인해 기업의 보안 체계가 더욱 약화될 가능성이 높아진다. 많은 기업들이 내부 조직 구조를 세분화하여 운영하는 것도 또 다른 보안상의 취약점을 낳고 있다. 예를 들어 IT 부서는 기업의 오피스 보안을 담당하지만 각 사업부는 자체 생산 네트워크의 보안을 관리하는 방식이다. 문제는 이런 조직적 분리로 인해 서로 다른 영역이 겹치는 교차 지점에서 보안 취약점이 발생할 가능성이 높아진다는 점이다. 보안 제품에 3D 통합 전략 적용해야 이러한 문제를 해결하기 위해 알리바바클라우드는 보안 제품에 3D 통합 전략을 적용하는 것이 효과적이라고 제안한다. 클라우드 인프라에 대한 통합 보안과 일관된 보안 기술 도메인, 원활한 오피스·생산 환경이라는 세 가지 핵심 시나리오를 포괄하는 통합적 보안 접근 방식을 채택하는 것이다. 클라우드 인프라를 위한 통합 보안은 점점 더 복잡해지는 IT 환경에서 발생하는 보안 문제를 해결하기 위해 설계됐다. 특히 퍼블릭 및 프라이빗 클라우드를 포함한 다양한 인프라의 보안을 통합적으로 관리하는 것에 중점을 둔다. 고도화된 보안 솔루션을 활용하면 기업은 중앙 집중식 단일 콘솔을 통해 리소스 위치와 관계없이 모든 리소스를 일괄적으로 관리할 수 있으며, 이를 통해 IT 인프라 전반의 보안 운영을 보다 원활하고 효율적으로 수행할 수 있다. 통합 보안 기술 도메인은 보안 제품에서 생성되는 로그 데이터를 통합해 강력한 보안 데이터 레이크를 생성한다. 이런 중앙 집중식 스토리지를 통해 첨단 위협 인텔리전스 분석과 경고를 통합해 전반적인 보안 역량을 강화하고 대응 속도를 높일 수 있다. 통합된 오피스·생산 환경은 부서 간 데이터와 프로세스를 간소화하는 것을 목표로 한다. 이를 통해 보안 운영의 효율성을 높이고, 부서 간 침입 위험을 최소화해 더욱 안전하고 유기적인 업무 환경을 조성할 수 있다. 데이터가 어디에 저장됐든 AI와 보안의 통합은 데이터 보호에서 점점 더 중요한 요소가 되고 있다. 알리바바클라우드는 보안 분야에서 AI의 역할을 더욱 심층적이고 광범위하며 자동화된 애플리케이션 형식으로 발전시키는 데 주력하고 있다. 예를 들어, AI를 활용해 제로데이 취약점(Zero-Day Vulnerability)을 탐지하고, 에이전트 기반의 자동화 기술을 통해 더욱 효율적인 보안 대응을 구현하는 것이 대표적인 사례다. AI 보안·규정 준수 강화를 위한 트렌드에 맞춰 클라우드 서비스 제공업체들은 인프라부터 AI 개발 플랫폼, 애플리케이션에 이르기까지 종합적인 지원을 확대하고 있다. 특히 데이터 보호, 알고리즘 규정 준수 등 AI 보안의 여러 측면에서 사용자를 지원하는 것이 가능해진 만큼 클라우드 기업들은 네트워크에 항상 연결된 데이터 보안 솔루션을 구축하도록 돕고, 보다 효율적인 콘텐츠 보안 탐지 기술을 제공하는 것을 목표로 해야 한다.

2025.02.19 09:33오우양 신

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

"By AI는 틈새 전략, For AI는 핵심기술 선점해야"

"바이 AI(By AI)가 포 AI(For AI)보다 글로벌 특허 출원이 4.4배 많습니다." 양종필 특허청 인공지능빅데이터심사팀장은 18일 양재 엘타워에서 열린 '한국인공지능산업협회(AIIA) 2월 조찬포럼'에서 이같이 밝혔다. 이날 양 과장은 'AI 보안과 IP'를 주제로 강연했다. 바이 AI와 포 AI는 특허청이 AI보안 기술을 분류하기 위해 만든 용어다. '보안 바이AI'는 AI기술을 활용해 기존 보안시스템을 고도화, 지능화하는 것이고, '보안 포AI'는 오작동과 정보 유출을 노려 AI모델 취약점을 공격하는 것에 대응하는 걸 말한다. 바이AI 세부기술은 침입 차단 및 탐지, 안전 테스트 및 예방, SW분석 및 포렌식, 사용자 인증 등이 있다. 또 포AI 세부기술은 강건성, 보안성, 개인정보보호 등이 있다. 이 중 강건성은 AI시스템의 내부 결합(에러, 파워다운 등)에 대응해 지속적으로 AI가 동작할 수 있도록 하는 기술 및 측정 기술을 말한다. 양 팀장에 따르면 특허청 조사 결과, 바이AI는 성장기(2015년~2019년, 연 49% 성장)를 지나 성숙기(2019년~2021년, 연 1.7% 성장)에 접어들었고, 포AI는 아직 성장기가 진행중(2017년~2021년, 연 69% 성장)이다. 특히 바이AI 세부 기술 중 출원량이 가장 많은 기술은 침입 차단&탐지 기술(58.1%)로 나타났다. 이어 SW 분석&포렌식(18.9%), 사용자 인증(13.9%), 안전 테스트&예방(9.1%) 순으로 집계됐다. 반면 포AI는 출원량이 가장 많은 기술은 개인정보보호(61%)고 보안성(28,3%), 강건성(10.7%)이 뒤를 이었다. 출원 증가율을 보면, '보안 바이AI'가 2017~2021년 5년간 연평균 21.5% 성장을 보인 반면,'보안 포AI'는 같은 기간 연 평균 68.1%의 가파른 성장을 보였다. AI보안의 국가별 특허 출원 실적은 미국이 41.7%로 세계 1위였고 중국이 40%로 근소하게 2위였다. 한국은 6.7%로 4위, 유럽이 7.5%로 3위, 일본이 4.1%로 5위였다. 또 AI보안을 출원인별로 보면 세계 톱 10중 9곳이 미국 기업이였고, 한국기업은 1곳이였다. 양 팀장은 "AI보안은 사이버 보안 및 인공지능의 융합기술"이라면서 "글로벌 주요 기업 대비 국내 기업들의 기술 개발 및 투자 격차가 존재하는데, 국내는 대기업과 대학 및 연구기관이 주도하고 있는데 AI보안 분야 스타트업 지원 정책이 필요하다"고 강조했다. 이어 한국의 AI 보안 특허시장은 미국,중국에 비해 규모가 열세라면서 "국내 특허 시장 매력을 높이기 위한 법적 보호 체계 강화와 국제 인지도 제고 등이 필요하다"고 말했다. 기술 성숙도에 따른 차별화 전략도 짚었다. 즉 바이AI는 틈새 전략이, 포AI는 핵심기술을 선점해야 한다는 것이다.

2025.02.18 21:07방은주

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

머스크의 '그록3', 추론-미니 추론 2종 나와…1주일 후 음성 모드 추가

테크크런치(TechCrunch)가 19일(현지 시간) 보도한 내용에 따르면 일론 머스크의 인공지능 기업 엑스AI(xAI)가 17일(현지시간) 새로운 AI 모델 '그록3(Grok 3)'을 공개했다. 이와 함께 그록 iOS 앱과 웹 앱의 새로운 기능도 선보였다. 그록3는 오픈AI(OpenAI)의 GPT-4o와 구글(Google)의 제미나이(Gemini)에 대항하는 모델이다. 이미지 분석과 질문 응답이 가능하며, 머스크의 소셜 네트워크 X(구 트위터)의 다양한 기능을 지원한다. 엑스AI는 멤피스에 위치한 대규모 데이터센터에서 약 20만 개의 GPU를 활용해 그록3를 학습시켰다. 머스크는 X를 통해 "그록3가 이전 모델인 그록2보다 10배 더 많은 컴퓨팅 파워로 개발됐다"고 밝혔다. 그록3는 '그록3 추론(Grok 3 Reasoning)'과 '그록3 미니 추론(Grok 3 mini Reasoning)' 등 여러 모델로 구성됐다. 이들은 오픈AI의 o3-미니(o3-mini)와 중국 딥시크(DeepSeek)의 R1처럼 문제를 '사고'하며 해결하는 기능을 갖췄다. 또한 '딥서치(DeepSearch)'라는 새로운 기능을 통해 인터넷과 X 플랫폼을 검색하여 질문에 대한 요약된 답변을 제공한다. X 프리미엄플러스(Premium+) 구독자($50/월)가 그록3를 먼저 사용할 수 있다. 추가 기능은 '슈퍼그록(SuperGrok)' 요금제($30/월 또는 $300/년)를 통해 이용 가능하다. 머스크는 "약 1주일 후에 음성 모드가 추가되고, 몇 주 후에는 기업용 API를 통해 그록3 모델과 딥서치 기능을 제공할 계획"이라고 밝혔다. 또한 "그록3가 안정화되면 그록2를 오픈소스로 공개할 예정"이라고 덧붙였다. 엑스AI는 그록3가 수학 문제 평가 벤치마크인 AIME와 박사급 물리, 생물, 화학 문제를 평가하는 GPQA에서 GPT-4o를 능가했다고 주장했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.18 20:13AI 에디터

합성 데이터로 탄생한 '그록3'…환각·결함 우려 괜찮나

xAI가 출시한 인공지능(AI) 모델 '그록3' 성능에 대한 우려가 나왔다. 모델 데이터 상당수가 합성데이터로 구성돼 결함과 환각 현상을 높일 수 있다는 염려 때문이다. 이에 오픈AI를 비롯한 구글, 딥시크를 뛰어넘는다는 xAI 주장에 의문점이 생겼다. 18일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 '지구상에서 가장 똑똑한 모델'이라며 출시한 그록3 성능에 대해 이같은 의문이 제기된 것으로 전해졌다. xAI는 소셜미디어 X(엑스) 라이브 시연을 통해 새 모델 그록3 베타버전과 미니버전을 공개했다. 공식 버전과 그록3 API, 딥서치 기능은 추후 배포 예정이다. xAI 연구진은 "그록3가 대량의 합성 데이터셋과 자체 오류 수정, 강화 학습을 통해 그록2보다 정교한 결과를 제공한다"고 라이브 시연을 통해 자신했다. 특히 논리적 추론, 연산 능력, 적응력이 기존 대비 대폭 향상됐다고 평가했다. 그러면서 "대규모 그래픽처리장치(GPU) 자원을 추가해 방대한 데이터셋을 더 짧은 시간 안에 처리했다"며 "정확도까지 높였다"고 덧붙였다. AI 업계에서는 그록3이 학습한 데이터셋 다수가 합성이라는 점을 우려했다. 합성데이터가 모델 결함을 높이고 환각 현상을 높일 수 있기 때문이다. 합성데이터는 실제 데이터 특성·분포를 모방해 인공적으로 생성된 데이터다. 보통 AI 모델서 나온 결과물을 다시 모델에 넣어 재활용되는 식으로 쓰인다. 생성형 AI 모델 개발에 필요한 데이터가 곧 고갈될 것이란 전망이 나온 가운데 합성데이터가 대안으로 떠오르고 있다. 다만 품질이 낮거나 오류를 생성하는 합성데이터가 모델에 들어갈 경우 모델 자체 성능을 떨어뜨릴 수 있다. 이같은 우려는 이미 학계에서 거론된 바 있다. 지난해 옥스퍼드대 연구진은 합성데이터가 모델 결함을 증가시키고 환각 현상을 초래할 수 있다고 경고했다. 모델이 소량의 합성 데이터만 학습해도 성능에 큰 영향을 줄 가능성이 있다는 지적이다. 한 업계 관계자는 "합성데이터를 반복적으로 사용할 경우 오류 전파(Error Propagation)로 인해 현실과 괴리가 심해질 것"이라고 지적했다. 그러면서 "합성 데이터로 모델 사이즈를 늘리는 것보다 데이터 품질이 얼마나 좋은지가 관건일 것"이라고 덧붙였다. 그록3, GPT보다 정말 똑똑할까 해외 업계에서는 그록3가 오픈AI, 구글 등 타사 모델을 실제 능가했을지 의문이라는 분위기다. 최근 그록3를 개발에 참여한 개발자가 해당 모델 성능을 낮게 평가하는 게시글이 퍼지면서다. 벤자민 데크라커 전 xAI 개발자는 "그록3이 코딩 측면에서 오픈AI의 ChatGPT o1, o1프로, o3미니 모델만큼 뛰어나지 않다"는 의견을 소셜미디어 X에 게시했다. xAI는 해당 게시글이 회사 기밀 정보를 포함한다고 주장하면서 삭제를 요청했다. 이에 데크라커는 "단순한 개인 의견일 뿐이며 게시글 삭제를 강요받아 사임을 결정했다"고 해외 언론에 밝혔다. 반면 xAI는 이번 라이브 시연에서 그록3가 과학, 코딩, 수학 분야에서 오픈AI '챗GPT-4o'를 비롯한 구글 '제미나이 2.0 프로', 딥시크 '딥시크 V3'보다 더 높은 점수를 기록한 벤치마크 결과를 공개했다. 업계 관계자는 "공식 버전이 내놓는 결과물을 봐야 한다"며 "벤치마크에서 모든 모델 성능을 능가했다는 결과도 무의미하다"고 평가했다.

2025.02.18 19:37김미정

"보안의 판을 바꾼다"…체크포인트, 초연결 시대 위한 AI 통합 플랫폼 소개

[방콕(태국)=조이환 기자] "이번 행사는 1년 동안 우리가 구축한 기술을 공유하고 고객과 소통하며 실질적인 인사이트를 얻는 중요한 자리입니다. 초연결 시대에는 단일 보안 솔루션이 아니라 모든 보안 요소를 하나로 통합하는 플랫폼 접근 방식이 필수적으로, 인공지능(AI) 기반 자동화와 협업을 중심으로 보안 전략을 혁신해 나가겠습니다." 나탈리 크레머 체크포인트 최고제품책임자(CPO)는 18일 태국 방콕에서 개최된 '체크포인트 익스페리언스 2025(CPX 2025)'에서 AI 기반의 통합 보안 플랫폼 체크포인트 인피니티를 소개하며 이같이 말했다. 이날 키노트에서 크레머 CPO는 AI 기술을 활용한 최첨단 보안 기능을 집중적으로 소개했다. 이 기능들은 기업이 급변하는 사이버 위협에 효과적으로 대응하고 보안 정책 관리와 운영 효율성을 극대화할 수 있도록 설계됐다. AI 기반 보안 혁신…정책 최적화부터 자동 대응까지 크레머 CPO는 AI 기반 핵심 기능을 종합적으로 소개하며 보안 혁신 방향을 제시했다. ▲ 퀀텀 폴리시 인사이트와 ▲ 퀀텀 폴리시 오디터는 정책 관리 및 아이덴티티 보안을 강화하고 ▲ 인피니티 플레이블록스는 보안 자동화 기능을 지원한다. 또 ▲ 인피니티 AIOps와 ▲ 인피니티 AI 코파일럿은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. '퀀텀 폴리시 인사이트'는 네트워크 정책에 내재된 문제점을 심층 분석하는 AI 기반 도구다. 이 기능은 정책 내에 사용되지 않거나 과도하게 허용된 규칙들을 식별해 보안 관리자가 보다 정확하게 정책을 개선할 수 있도록 돕는다. 이를 통해 기업은 불필요한 보안 허점을 미리 제거하고 보다 엄격한 제로 트러스트 환경을 구축할 수 있다. 또 '퀀텀 폴리시 오디터'는 네트워크의 다양한 세그먼트 간 접근 권한을 시각적으로 보여주는 도구다. 이 기능은 각 세그먼트의 트래픽 흐름과 정책 적용 현황을 한눈에 파악하게 해 보안 관리자들이 규정 위반이나 불일치를 빠르게 확인하고 수정할 수 있도록 돕는다. 결과적으로 조직 내 보안 정책 준수와 규제 감사 준비가 훨씬 수월해진다. '인피니티 플레이블록스'는 보안 자동화 기능을 갖춘 솔루션으로 네트워크에서 발생하는 각종 위협에 대해 자동으로 대응할 수 있도록 설계됐다. 체크포인트 제품과 제3자 보안 솔루션을 연동해 공격 발생 시 즉각적인 차단과 경고를 제공해 전사적인 보안 태세를 강화한다. 더불어 '인피니티 AI옵스'와 '인피니티 AI 코파일럿'은 AI 기반 운영 최적화와 보안 지원 기능을 제공한다. 이들 솔루션은 방대한 로그와 실시간 트래픽을 분석해 보안 이벤트 발생 원인을 신속하게 진단하고 자동화된 추천과 대응 전략을 제시한다. 이를 통해 보안팀은 반복적인 업무 부담을 줄이고 더 전략적인 업무에 집중할 수 있다. 이어 에란 하바드 보안 관리 R&D 부장은 퀀텀 폴리시 인사이트와 오디터를 활용한 정책 자동 보정 및 시각화 데모를 선보였다. 이로써 AI가 보안 정책을 더욱 정밀하게 관리할 수 있음을 시사했다. 또 리앗 치한 관리 및 인피니티 비전 그룹 품질보증 매니저는 인피니티 플레이블록스가 제3자 보안 솔루션과 연동해 실시간 사이버 공격을 차단하는 시나리오를 소개하며 AI 기반 자동화 대응이 보안 운영 효율성을 극대화하는 핵심 요소임을 강조했다. 크레머 CPO는 "이러한 혁신적인 기술들은 디지털 전환 시대에 기업들이 안정적인 보안 환경을 구축할 수 있도록 돕는다"며 "미래 위협에 선제적으로 대응할 수 있도록 강력한 지원을 제공할 것"이라고 밝혔다. 클라우드 시대, 보안 전략 '대전환'…위즈와 협업으로 CNAPP 혁신 가속 크레머 CPO에 따르면 체크포인트는 최근 클라우드 보안 강화를 위해 자사 '클라우드가드' 솔루션을 업그레이드하고 클라우드 네이티브 애플리케이션 프로텍션 플랫폼(CNAPP) 분야에서도 중요한 협력을 발표한 바 있다. 이번 업그레이드는 온프레미스와 멀티 클라우드를 아우르는 보안 정책 통합 기능을 제공해 기업들이 다양한 IT 환경에서 일관된 보안 체계를 유지할 수 있도록 돕는 것을 목표로 한다. 그는 "클라우드 네이티브 방화벽만으로는 기업을 보호하기 어려우며 하이브리드 보안 전략이 필수적"이라며 "기존 보안 솔루션 한계를 극복하기 위한 새로운 접근 방식을 제시했다"고 밝혔다. 이어 "온프레미스와 멀티 클라우드를 동시에 운영하는 기업이 늘어남에 따라 보안 정책의 일관성을 지키면서도 복잡한 환경을 효율적으로 보호할 수 있는 기술이 필수적"이라고 설명했다. 이러한 전략의 일환으로 체크포인트는 CNAPP 영역의 독보적인 기업인 위즈(Wiz)와 협력하고 있다. 위즈의 공격 표면 분석 기능과 체크포인트의 보안 정책 자동화 기술을 결합해 보안팀이 훨씬 빠르게 취약점을 발견하고 보완할 수 있도록 돕는다. 또 크레머 CPO는 체크포인트가 현재 '인피니티 생성형 AI 프로텍트'를 공개했다고 밝혔다. 이 솔루션은 기업 내 AI 애플리케이션 사용 현황을 면밀히 모니터링해 섀도우 AI로 인한 정보 유출 위험을 사전에 차단한다. 최근 AI 업무 도구 사용이 증가하면서 외부 AI 서비스로 기업 내부 데이터가 무분별하게 전송되는 문제가 심화되는 상황에서 이를 해결하기 위해 실시간 감지 및 자동 보안 정책 적용 기능을 제공하기 위함이다. 실제로 이날 행사에서는 '인피니티' 생성 AI 솔루션의 실시간 보안 기능 시연도 주목받았다. 오피르 이스라엘 체크포인트 위협 예방 부문 부사장은 개발자가 내부 코드를 외부 AI 도구에 입력하는 순간 해당 데이터가 자동으로 차단되어 외부로 전송되지 않는 모습을 시연했다. 이를 통해 기업들은 AI 도구를 안전하게 활용하면서도 중요한 기업 정보가 의도치 않게 유출되는 상황을 사전에 방지할 수 있음이 강조됐다. 크레머 CPO는 "AI 보안은 단순한 보호 수단이 아니라 기업의 정보 자산을 지키는 필수 요소"라며 "기업은 이 솔루션을 통해 AI 기술을 안전하게 활용하면서도 보안 리스크를 최소화할 수 있다"고 설명했다. 엔비디아와 협력해 AI 데이터센터 보호 강화…GPU 성능도 100% 유지 크레머 CPO에 따르면 체크포인트는 현재 엔비디아와 협력해 AI 데이터센터 보안을 강화하는 새로운 솔루션을 발표한 상태다. 이 솔루션은 네트워크 카드(NIC) 수준에서 보안 기능을 적용하여 GPU의 성능을 저하시키지 않으면서도 AI 연산을 보호할 수 있도록 설계됐다. 이에 AI 인프라를 운영하는 기업들이 높은 연산 성능을 유지하면서도 보안 위협에 효과적으로 대응할 수 있게 된다. 특히 이번 솔루션은 네트워크 카드 자체에서 보안 프로세스를 처리함으로써 GPU가 AI 연산에만 집중할 수 있도록 최적화된 것이 핵심이다. 기존 보안 솔루션은 데이터센터 내 트래픽을 점검하는 과정에서 연산 성능을 저하시킬 위험이 있었지만 두 회사 간의 협업을 통해 이러한 문제를 해결한 것이다. 향후 체크포인트는 AI 연산 과정에서 발생하는 보안 위협을 실시간 감지·차단하여 데이터 유출과 악성 공격을 사전에 방지할 계획이다. 이를 통해 AI 모델 학습 및 운영 환경의 보안성을 강화할 전망이다. 나탈리 크레머 체크포인트 CPO는 "AI 기술이 발전할수록 보안 위협도 함께 진화하고 있다"며 "협력을 통해 기업들이 AI 연산을 안전하게 수행할 수 있도록 강력한 보호 체계를 구축하겠다"고 밝혔다.

2025.02.18 18:51조이환

"국가 AI 경쟁력 확대...'혁신' 이끌 규제수준 갖춰야”

인공지능(AI) 기술 개발과 주도권 확보를 위한 국가 간 경쟁이 치열해지는 가운데 적정 수준의 AI 산업 규제를 갖춰야 한다는 전문가들의 의견이 모였다. 김용희 경희대 교수는 18일 더불어민주당 이훈기 의원이 주최한 AI 정책 토론회에 발제를 맡아 “AI 기본법의 모호성과 불확실성이 기술혁신을 저해하고, 결국 국제 경쟁력 저하로 이어질 우려가 있다”며 “해외 사업자에 대한 의무 규정이 국내 시장의 고립을 초래해 소비자에게 불이익이 올 수 있다”고 밝혔다. 이어, “정책의 국제적 정합성을 확보하고 기업 지원 확대와 산업계와의 소통 강화가 법 시행의 성공을 좌우할 것”이라고 강조했다. 김 교수는 또 “글로벌 AI 패권 경쟁이 치열한 상황에서 규제 수준은 각국 기업들의 기회와 위상을 좌우하고 있다”며 “한국이 세부 규제가 EU 수준으로 엄격해진다면, 한국 AI 업체가 글로벌 시장에서 경쟁력을 상실할 수 있다”고 덧붙였다. 네이버클라우드의 하정우 AI이노베이션센터장 역시 발제를 맡아 “규제 자체가 본질이 될 수는 없고, 혁신을 위한 규제를 생각해야 한다”며 “네거티브 이점을 최대한 활용하고 실제 많은 나라들이 점점 이같은 방향을 택하고 있다”고 말했다. 그러면서 “우리나라는 날리지 AI 기술을 충분히 보유한 기업들이 있다”며 “AI G3를 위해서 국가 전체 AI 전략을 수립 집행할 거버넌스를 고도화하고, 법적 안전장치를 마련할 필요가 있다”고 했다. 토론에 참여한 계인국 고려대 행정전문대학원 교수는 “AI에 대한 기본적 인식이나 전개양상은 글로벌 스탠다드화 되고 있다”며 “그러나 현재 우리나라 AI 기본법에서의 AI에 대한 정의는 '인간 유사적'이라고 정의하고 있어 인지적 AI만 대상으로 보게 될 수 있어 실제 산업현장에서 사용되는 비인지적 AI를 이 법에 적용대상으로 보기 어려울 수 있다”고 짚었다. 이어, “개발사업자, 이용사업자를 구분 정의하고 있으나 실제 AI 생태계에서 사업자의 구분은 모호하다”며 “이러한 부분에 대한 개정을 두려워하지 말고 과감하게 고려해야 한다”고 주장했다. 코리아스타트업포럼 구태언의 부의장은 “우리나라가 EU와 같이 강한 규제를 도입하면 AI 스타트업이 초기부터 과도한 부담을 지게 될 수 있다”며 “AI 규제를 혁신 촉진형 접근 방식으로 조정할 필요가 있다”고 주장했다. 법무법인 세종의 장준영 AI센터장은 “국민들이 AI 리스크에 대해 안심할 수 있으면서도, 기업들의 부담은 최소화할 수 있는 방안을 찾는 것이 한국형 모범답안이 될 수 있다”며 “규제 샌드박스, 안심구역 등 탄력적 자율적 규제 수단을 적극적으로 고려해야 한다”고 제안했다. 산업에 대한 규제 완화 시각과 달리 일정 부분에서는 규제를 갖춰야 한다는 의견도 나왔다. 오병일 진보네트워크센터 대표는 “AI 기술 혁신과 제도가 별개로 발전할 수 없다”며 “우리 사회가 어떤 AI를 발전시킬 것인지, 그리고 어떻게 AI를 민주적으로 통제할 것인지에 대한 사회적 논의가 병행되어야 한다”고 주장했다. AI 산업 경쟁력 확대를 위해 데이터 중요성에 대한 논의도 이어졌다. 최근 들어 AI 컴퓨팅 인프라 확보에 주요 논의가 쏠려있는데, AI 모델 학습을 위한 데이터 확보 문제도 중요하게 봐야 한다는 뜻이다. 장준영 센터장은 “새로운 규제개선을 통한 전략도 좋지만, 기존에 우리나라가 갖고 있던 데이터 활성화 정책을 잘 활용하고 발전시키는 방향을 통해서도 우리나라만의 인공지능 전략을 만들 수 있을 것”이라고 말했다. 김경만 과학기술정보통신부 인공지능기반정책관 역시 “우리나라가 범용인공지능(AGI) 개발 경쟁력을 갖기 위해서는 결국 양질의 데이터가 필요한 상황”이라며 “이를 위해 법적인 기반이 마련되지 않는다면 공공에 자금 투입으로 지원하는 것도 가능할 것”이라고 설명했다. 김 국장은 또 “AI를 핵무기와 같은 전략자산으로 인식하고 이를 가질 것이나 안 가질 것이냐로 봐야 한다”며 “전략자산, 첨단기술로서 AI에 대한 경쟁체계로 세계 AI 경쟁은 바뀔텐데 우리나라 자체 AI 기술의 개발이 경쟁력을 만들 것”이라고 덧붙였다. 토론회를 개최한 이훈기 의원은 인사말을 통해 “미국의 정책 변화와 중국의 딥시크 충격 등 세계 AI 정책 지형이 빠르게 변화하는 가운데 우리나라만의 인공지능 정책 방향을 확립하는 것이 중요한 시점”이라며 “더불어민주당은 AI 거버넌스 전략 수립을 통해 대한민국이 인공지능 선도국으로 도약할 수 있도록 각계와 긴밀히 협력하며 노력하겠다”고 밝혔다.

2025.02.18 18:50박수형

정부·여당, AI 경쟁력 확보에 '2조 추경' 운 띄웠다

당정이 인공지능(AI) 인프라 확충을 위해 2조원 규모의 추가경정예산 논의를 띄웠다. 연내 GPU 1만장 확보를 통한 국가AI컴퓨팅센터 개소에 이어 내년 상반기까지 GPU 보유량을 2만장으로 늘린다는 목표다. 18일 오후 국회서 열린 AI 경쟁력 강화 당정협의회가 끝난 뒤 브리핑을 통해 과학기술정보방송통신위원회 여당 간사를 맡고 있는 최형두 의원은 “지난해 여야가 극심한 정쟁 속에서도 상임위에서 합의한 AI 인프라 확충 예산 증액 규모 1조2천억원에 8천억원을 더한 2조원 정도의 인프라 강화 예산에 정부의 큰 결단이 필요하다”고 밝혔다. 김상훈 국민의힘 정책위의장은 “GPU와 같은 첨단반도체 기반 AI 컴퓨팅 인프라는 국가 발전과 산업 경쟁력을 높이는 핵심 성장동력이자 국가 전략자산이라는 측면에서 민관 협력을 통해 국가 AI 인프라 조기 확충을 달성하고 AI 연구개발 환경과 AI 컴퓨팅 생태계 전반의 성장기반 확대가 필요하다는 데 공감했다”고 강조했다. 이어, “국가AI컴퓨팅센터를 통해 구축된 GPU와 멀티모달을 지원하는 다양한 학습데이터를 연구계와 산업계에 지원해 우리나라의 자체 AI기반모델이 GPT와 같은 세계적 수준에 버금가는 AI 모델이 될 수 있도록 집중 지원하겠다”고 덧붙였다. AI와 같은 첨단기술 분야 인재 양성을 위한 무상교육 도입 방안도 논의됐다. 김 의장은 “국가첨단전략기술을 연구하는 청년들이 마음껏 도전할 수 있도록 해당 학과 대학생들에게 획기적인 장학 제도를 도입하겠다”며 “중장기적으로는 무상교육이 실현될 수 있도록 관련 사항을 적극 추진하기로 했다”고 했다. 그러면서 “현재도 국가장학생 제도가 있는데 첨단전략기술 분야에 강화된 국가장학생 제도를 도입하겠다는 뜻이로, 인재 육성이 필요하니 중장기적으로 무상교육을 추진하겠다는 것”이라며 “교육당국 협의가 전제되어야 하는데, 국내 교육기관에서 졸업한 뒤 국내산업에 전제한다는 종사에 따라 무상교육을 제공하고 해외유학도 필요하다면 지원할 수도 있다”고 설명했다.

2025.02.18 17:49박수형

[Q&AI] 국내 첫 대체거래소 '넥스트레이드'…거래 가능 종목 10개는?

질문1: 한국에 대체 거래소가 생긴다고 하는데, 뭐가 달라지는 거야? 앨런 답변: 한국의 첫 대체 거래소인 '넥스트레이드'가 3월 4일에 출범할 예정입니다. 이로 인해 여러 가지 변화가 예상됩니다. 거래 시간 연장: 기존 한국거래소(KRX)의 거래 시간은 오전 9시부터 오후 3시 30분까지였으나, 넥스트레이드는 오전 8시부터 저녁 8시까지 거래가 가능합니다. 프리마켓(오전 8시~8시 50분)과 애프터마켓(오후 3시 30분~8시)을 운영하여 투자자들에게 더 많은 거래 기회를 제공합니다. 수수료 절감: 넥스트레이드는 기존 거래소보다 20~40% 저렴한 수수료를 제공할 예정입니다. 이는 단기 매매를 선호하는 투자자들에게 유리할 수 있습니다. 거래 종목 확대: 초기에는 10개 종목만 거래 가능하지만, 점차 거래 종목을 800개로 확대할 계획입니다. 삼성전자와 주요 삼성그룹주는 3월 24일부터 거래가 가능해질 예정입니다. 새로운 호가 방식 도입: 중간가주문과 같은 새로운 호가 방식이 도입되어 투자자들이 보다 유연한 거래를 할 수 있게 됩니다. 시장 경쟁 촉진: 넥스트레이드의 출범으로 한국 주식시장은 복수 거래소 체제로 전환됩니다. 이는 한국거래소의 독점 체제를 깨고, 자본시장의 발전에 기여할 것으로 기대됩니다. 투자자 편의성 증대: 거래 시간이 연장됨에 따라 직장인들도 퇴근 후 주식 거래에 참여할 수 있으며, 저녁 시간에 발생할 수 있는 이슈에 대한 대응력이 높아집니다. 그러나 대체 거래소의 안전성에 대한 우려와 고빈도매매와 같은 초단타 거래 증가 가능성도 지적되고 있습니다. 초기 정착에는 시간이 필요할 것으로 보이며, 지속적인 투자자 보호와 안정성 확보가 중요합니다. 질문2. 넥스트레이드에서 거래 가능한 종목은 어떤 것들이 있나요? 앨런 답변: 넥스트레이드에서 출범 초기인 3월 4일부터 거래 가능한 종목은 다음과 같습니다. 코스피 종목 롯데쇼핑 제일기획 코오롱인더스트리 LG유플러스 S-OIL 코스닥 종목 골프존 동국제약 에스에프에이 YG엔터테인먼트 컴투스 이들 종목은 초기 1~2주 동안 거래되며, 점차적으로 거래 종목을 확대하여 5주 차에는 800개 종목으로 늘릴 계획입니다. ■ 기사는 앨런을 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 17:13AI 에디터

남부발전, 에너지공대와 '슬기로운 에너지전환' 위해 맞손

한국남부발전(대표 김준동)은 한국에너지공과대학교와 '슬기로운 에너지전환을 위한 기술협력 협약'을 체결했다고 밝혔다. 남부발전은 협약을 계기로 발전산업의 슬기로운 에너지전환을 위해 인공지능(AI)·수소에너지 등 미래기술 개발에 대한 협력 방안을 모색할 계획이다. 남부발전은 2027년부터 순차적으로 폐지 예정인 하동화력 1~6호기를 중소기업 우수기술 실증단지로 활용해 국내기술의 우수성 검증과 함께 판로개척을 지원하는 'KOSPO 개방형 테크노브리지' 사업을 추진하고 있다. 남부발전은 에너지공대와 기술협력을 통해 테크노브리지 사업 참여 실증제품 기술지원을 제공, 실증기술의 완성도를 높이고 중소기업의 기술경쟁력을 강화해 나갈 계획이다. 남부발전은 삼척화력에 수소화합물 20% 혼소실증 사업을 추진하는 것을 비롯해 AI 기술을 활용한 발전설비 감시 애플리케이션 개발하는 등 수소에너지와 4차 산업혁명 기술을 도입하고 있어 에너지공대와의 기술협력은 미래기술 개발에 시너지를 얻을 것으로 기대하고 있다. 김준동 남부발전 사장은 “이번 협약은 국내 중소기업 우수기술의 경쟁력을 강화하고 수소 및 AI 기술 등 미래 에너지를 선도하는 중요한 발판이 될 것으로 기대한다”며 “앞으로도 지속적인 연구 협력을 통해 탄소중립 목표 달성은 물론 에너지 기술 경쟁력 강화를 위해 최선을 다하겠다”고 말했다. 박진호 한국에너지공과대학교 총장직무대행은 “이번 협약은 에너지공대의 연구 역량과 남부발전의 실증 인프라가 결합해 실질적인 에너지 기술 혁신을 이끄는 계기가 될 것”이라며 “다양한 분야에서 협력을 확대해 탄소중립 실현과 에너지 산업의 지속가능한 성장을 위해 기여하겠다”고 밝혔다.

2025.02.18 16:53주문정

  Prev 151 152 153 154 155 156 157 158 159 160 Next  

지금 뜨는 기사

이시각 헤드라인

삼성은 왜 폰을 접으려 했던가?...갤럭시Z폴드 7돌 '도전과 혁신' 연대기

차세대 'LPDDR6' 표준 나왔다…삼성·SK, AI 메모리 새 격전지 추가

"다같은 다이소가 아니라고?"…소비쿠폰, 어디서 쓸지 헷갈리는 소비자

노태문 삼성전자 사장 "트리폴드폰 연내 출시 목표...AI 대중화 이끌 것"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.