• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (7582건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

생성형 AI로 혐오 부추기는 극우세력…게시물 883개 분석해보니

영국의 전략대화연구소(ISD)가 발표한 보고서에 따르면, 독일의 극우 정당과 극우 세력들이 생성형 AI를 활용해 혐오 콘텐츠를 대량으로 제작하고 있는 것으로 나타났다. 이들은 기존의 극우 전략을 보완하는 수단으로 AI를 활용하며 EU의 디지털서비스법(DSA) 미준수를 악용하고 있다고 분석됐다. (☞ 보고서 바로가기) AfD, AI 생성 콘텐츠 월 50건 이상 제작...정당 최대 활용 사례 연구진은 2023년 4월부터 2024년 11월까지 페이스북, 인스타그램, X(구 트위터), 틱톡, 유튜브 등에서 92개 계정이 제작한 AI 생성 콘텐츠 883개를 분석했다. 특히 독일의 극우 정당인 '독일을 위한 대안'(AfD)이 생성형 AI를 적극적으로 활용했다. AfD는 2024년 10월 한 달간에만 50개 이상의 AI 생성 콘텐츠를 게시했으며, 당의 공식 계정과 지역 계정, 개별 정치인들의 계정을 통해 콘텐츠를 확산시켰다. 플랫폼별 분석 결과, X에서는 전체 게시물의 23%, 인스타그램은 19%, 페이스북은 17%가 AI 생성 콘텐츠였다. 특히 극우 미디어 에이전시 Tannwald Media의 설립자 알렉산더 클라인이 AfD와 긴밀히 협력하며 AI 콘텐츠를 제작하고 있었다. 독일인 추방하자...극우 AI 콘텐츠의 14가지 내러티브 분석 연구진은 14개의 주요 극우 내러티브를 분석했다. 이 중 가장 빈번한 것은 금발 碧眼의 독일인을 미화하는 내용(122건), 이민자 추방을 주장하는 '재이주'(Remigration) 관련 내용(101건), 이민자들의 범죄를 부각시키는 내용(98건), 사회복지제도 악용을 주장하는 내용(92건) 등이었다. 이들의 내러티브는 크게 공격형, 미화형, 기타로 분류됐다. 공격형에는 난민·이민자 공격, 정치인 비하, LGBTQ+ 반대, 기후활동가 비난이 포함됐고, 미화형에는 '강한 독일'의 이미지화, 전통적 가치관 강조 등이 있었다. 플랫폼별로는 페이스북에서 반이민 내러티브가 41%로 가장 높았고, 인스타그램이 38%, 유튜브가 27%, X가 23%, 틱톡이 13%를 기록했다. AI로 만든 극우 음악...102개 뮤직비디오 발견 연구진은 102개의 AI 생성 극우 음악 비디오를 발견했다. 구독자 9,000명의 한 유튜브 채널은 금발의 독일인들이 이민자들에게 위협받는 장면을 AI로 생성해 뮤직비디오로 제작했다. "칼을 들고 와서, 독일의 문 앞에 서 있네"와 같은 가사로 이민자들을 위협적으로 묘사했다. 또 다른 비디오는 무슬림 남성과의 교제를 경고하는 내용을 담고 있었다. 이러한 음악 콘텐츠들은 극우 단체의 정체성을 강화하고 추종자들의 소속감을 높이는 데 활용되고 있었다. AI가 만든 완벽한 아리아인 여성...가짜 인플루언서의 실체 연구진은 3명의 AI 생성 여성 '인플루언서'를 발견했다. 22세의 기독교 여성이라고 주장하는 '라리사 바그너', AfD와 크렘린을 지지하는 '소피아의 세계', 16세 소녀를 표방하는 '금발의 반란자 라라' 등이다. 특히 '라리사 바그너'는 극우 매체 Compact Magazine의 인턴이라고 주장하며 자체 칼럼까지 운영하고 있었다. 이들은 극우적 내러티브를 여성의 관점에서 전달하며, 개인적인 정보를 공유하고 친밀감을 조성하는 방식으로 팔로워들과 유사 사회적 관계를 형성했다. 이들 AI 인플루언서의 게시물은 실제 참여도는 낮았으나(평균 '좋아요' 10개 미만), 팔로워들은 "AI로 만들어졌든 상관없다. 메시지가 중요하다"는 반응을 보였다. 플랫폼의 무대응...AI 콘텐츠 신고 192건 중 0건 조치 조사 결과, 극우 세력의 AI 생성 콘텐츠는 EU의 디지털서비스법(DSA)이 요구하는 AI 콘텐츠 라벨링 의무를 제대로 지키지 않고 있었다. 신고된 192개의 콘텐츠 중 한 달이 지나도록 플랫폼에서 라벨링된 게시물이 전혀 없었다. 페이스북의 AI 라벨링 비율은 3%, 인스타그램은 2%, X는 1% 미만이었으며, 틱톡이 14%로 가장 높았다. 유튜브의 경우 라벨링된 콘텐츠가 전혀 없었다. 정책적 제언: 플랫폼 규제 강화부터 선거 감시까지 연구진은 플랫폼 사업자들에게 ▲AI 콘텐츠 일관된 라벨링 정책 수립 ▲선거 기간 전담팀 운영 ▲시민사회와의 협력 강화를 제안했다. 또한 정부와 규제기관에는 ▲연구자들과의 소통 채널 구축 ▲선거 관련 리스크 평가 강화 ▲범유럽 차원의 팩트체크 네트워크 구축을 권고했다. 2025년 2월 총선을 앞둔 독일에서 현재 제2당이 될 것으로 전망되는 AfD의 AI 활용은 특히 우려되는 상황이며, AI를 활용한 선거 캠페인이 민주적 과정을 왜곡할 수 있다는 우려가 제기되고 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:29AI 에디터

"챗GPT 써봤다" 90%…하지만 만족도는 '뚝'

알투씨컴퍼니(R2C Company)가 운영하는 데이터 수집 플랫폼 '픽플리(Pickply)'가 전국 남녀 1002명을 대상으로 실시한 설문조사에서 응답자의 89.7%가 AI 서비스 사용 경험이 있다고 답했다. 생성형 AI 서비스의 경우 84.6%가 사용해봤으며, 특히 챗GPT(ChatGPT)는 93.9%의 압도적인 사용률을 기록했다. 소비자 추천지수(NPS)에서 챗GPT(ChatGPT)는 -3점을 기록했다. 다른 생성형 AI 서비스들의 성적은 더 저조했다. 제미나이(Gemini)는 -26점, 뤼튼(Claude)은 -38점, 하이퍼클로바X(HyperCLOVA X)는 -40점, 딥시크(DeepSeek)는 -44점을 기록했다. NPS는 최대 100점에서 최저 -100점까지 측정되며, 마이너스 점수는 서비스 개선이 필요함을 의미한다. 기업이 도입했을 때 선호하는 AI 브랜드 조사에서는 챗GPT가 45.6%로 가장 높은 선호도를 보였다. 이어서 제미나이 35.8%, 코파일럿 28.0%, 하이퍼클로바X 27.4% 순이었다. 뤼튼과 클로드는 22% 내외의 선호도를 보였으며, 딥시크는 17.7%로 가장 낮은 선호도를 기록했다. 한편, 소비자들은 AI 서비스 도입 시 가장 중요한 요소로 '서비스의 정확성 및 신뢰성'(43.7%)과 '개인정보 보호 및 보안 정책'(30.9%)을 꼽았다. 알투씨컴퍼니 관계자는 "AI 시대에서 기업이 소비자 신뢰를 얻기 위해선 서비스의 정확성과 신뢰성, 개인정보 보호, AI 활용의 투명성 제고가 핵심"이라며 "기업들은 AI를 통한 혁신과 함께 윤리적 운영, 소비자와의 적극적인 소통 방안도 마련해야 할 것"이라고 말했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 14:23AI 에디터

헬스케어 AI 스타트업 '덴컴', 미국법인 AIzac AI 공식 출범

덴컴은 미국 델라웨어에 현지 법인 'AIzac AI Inc.'를 설립하고, 북미 시장을 중심으로 글로벌사업 확장을 본격화한다고 19일 밝혔다. 덴컴이 100% 출자해 설립한 미국 법인 AIzac AI Inc.는 AI 기반 음성인식 치과 솔루션을 전문적으로 개발‧공급하며, 이번 북미 법인 설립을 통해 미국 치과 시장 내 AI 기술 도입을 가속화하고 글로벌 시장의 입지를 확대할 계획이다. 덴컴은 치과분야에 특화된 AI 음성인식 엔진인 '덴스퍼'(Densper)를 개발했다. 이를 활용해 진료 중 의사의 음성을 자동으로 의료기록으로 작성해 주는 '보이스 차팅'(Voice Charting), 외국인 환자에게 동시 통역을 지원하는 다국어 상담 기능, 의사가 컴퓨터단층촬영(CT) 등 치과 의료 영상을 음성으로 제어하는 '보이스 뷰어 컨트롤러'(Voice Viewer Controller) 등을 제공한다. 덴스퍼는 덴탈 전문 음성 데이터 학습과 자연어처리 기술을 결합해 덴탈 영역에 높은 수준의 음성인식 기능을 제공한다. 음성 텍스트 변환(STT) 정확도가 99% 이상이며, 한국어뿐 아니라 영어와 프랑스어 등 다국어를 지원하는 것이 특징이다. 덴컴은 미국 시장의 특성을 고려한 맞춤형 서비스도 준비 중이다. 미국 치과 시장은 네트워크 체계로 운영되어 150개에서 많게는 3천개 병원이 하나의 헤드 오피스를 통해 의료시스템을 통합 운영하고 있다. 특히 지난 2024년 뉴욕 치과 전시회 GNYDM(Greater New York Dental Meeting)에 참가해 여러 해외 업체들과 전략적 파트너십을 체결하는 등 AI 기반 치과 음성인식 솔루션의 시장성 및 적용 가능성을 확인한 바 있어, 이번 법인 설립을 통해 미국 현지 마케팅을 강화하고 파트너십을 확대하는 등 시장 침투율을 높여나갈 계획이다. 임병준 덴컴 대표는 “AI 기반 음성인식 기술은 치과 진료의 효율성과 정확성을 획기적으로 향상시킬 수 있는 핵심 솔루션”이라며 “2024년 GNYDM 참가를 통해 AI 음성인식 기술의 필요성을 확인한 만큼, 이번 법인 설립을 통해 북미 및 글로벌 시장에서 빠르게 성장하는 헬스케어 AI 기업으로 자리매김할 것”이라고 밝혔다. 한편 2017년 설립된 국내 치과 분야 음성 AI 솔루션 기업 덴컴은 스타셋인베스트먼트, DSC인베스트먼트, TS인베스트먼트 등이 참여한 100억원 규모의 시리즈 A2 투자를 유치한 바 있다. 덴컴은 AI 음성인식 기술을 통해 치과 진료의 효율성과 정확성을 극대화하고, 글로벌 치과 시장의 디지털 혁신 선도를 목표로 하고 있으며, 이번 미국 법인 설립으로 덴컴의 글로벌 헬스케어 AI 시장 진출이 가속화될 것으로 기대하고 있다.

2025.02.19 14:02조민규

中 성인장난감 기업, 말 통하는 'AI 러브돌' 내놓는다

중국의 러브돌 대형 제조사인 WMDoll이 구독형 'AI 러브돌'을 정식 출시한다. 회사는 AI 러브돌을 판매할 경우 회사 매출이 기존 대비 30% 증가할 것으로 내다봤다. 사우스차이나모닝포스트·기가진 등 외신에 따르면 WMDoll은 중국 광둥성 남부에 있는 성인 장난감 제조업체다. 이 회사가 발표한 최신 러브돌 시리즈인 '메타박스'는 생성형 AI 서비스에 사용되는 대규모 언어모델(LLM)이 적용된다. 메타박스는 각 러브돌의 정보를 처리하기 위해 클라우드 컴퓨팅 서비스와 연결된다. 메타박스에서는 메타의 오픈소스 AI 모델인 라마(Llama) 등의 LLM을 채택했으며, 다른 지역에서도 쉽게 사용될 수 있다. WMDoll 측은 러브돌과 AI의 통합에 대해 “대체로 양호하다”는 외부 피드백을 받고 있다고 전했다. 또 이 회사의 설립자인 류 장샤(Liu Jiangxia) 대표는 홍콩 매체 사우스차이나모닝포스트 측에 러브돌과 AI의 통합에 대해 “러브돌이 더 반응하고 상호작용함으로써 사용자에게 더 나은 경험을 제공할 수 있다”고 밝혔다. 외신은 “차세대 러브돌은 고객 만족도 향상을 위한 업계의 개방적이고 혁신적인 접근 방식이 반영되는 것 같다”면서 “반면 기존의 러브돌은 단순한 반응에 국한돼 인간과 가까워지기 위해 필요한 표현력이 부족하다'고 보도했다. 장샤 대표는 오픈AI가 2022년 11월 챗GPT를 출시하면서 세계적으로 AI 관련 투자 물결이 일어날 때부터 '러브돌에 AI를 활용할 수 없을까'를 고민했다. 그 후 WMDoll은 1년 간의 개발 기간을 거쳐 지난해 메타박스 프로토타입 100대 이상을 북미 및 유럽 고객을 대상으로 제공했다. 메타박스는 실리콘 또는 열가소성 엘라스토머를 사용한 부드러운 피부를 갖고 있으며, 사용자가 만지면 다양한 소리를 낸다. AI를 통합한 최신 메타박스는 더욱 똑똑하며 8가지 다른 성격을 선택함으로써 사용자와 대화를 나눌 수 있다. WMDoll의 러브돌은 현재 1천500~2천 달러(216만원~288만원)에 판매되고 있는데, AI 탑재 모델은 100~200달러(14만원~29만원) 정도 더 비싸게 판매될 예정이다. 회사는 사용료로 매월 요금을 청구하는 구독 방식을 채택할 예정이다. 또 WMDoll은 프라이버시 관련 우려에 대처하기 위해 사용자가 버튼을 클릭하는 것만으로 아카이브된 데이터를 삭제할 수 있는 기능을 구현했다고 설명했다. 장샤 대표는 “모든 데이터는 러브돌이 사용되는 지역 현지에 저장되며, WMDoll 본사에서 접근할 수 없다"고 설명했다. WMDoll의 러브돌은 매출의 약 90%가 중국 본토 이외의 지역에서 발생한다. 외신에 따르면 수출 물량의 절반은 미국이 차지한다. 이 밖에 WMDoll은 AI를 탑재하지 않은 어른 장난감이 LLM에 접근할 수 있도록 하는 웨어러블 디바이를 개발 중이다. 아울러 스타트업 마인드 위드 하트 로보틱스와 제휴해 눈을 깜빡이거나 웃는 얼굴 등 진짜와 똑같은 표정을 가진 인형도 개발 단계다.

2025.02.19 13:16백봉삼

체크포인트, 韓·아태 보안 시장 정조준…AI·자동화로 보안 혁신 나선다

[방콕(태국)=조이환 기자] "우리는 '세계 최고의 보안 기업'이자 '최고의 보안 플랫폼'이라는 목표를 향해 나아가고 있습니다. 이는 지난해 최고경영자(CEO) 교체와 함께 본격화된 새로운 도전으로, 인공지능(AI) 등 신기술을 활용해 한국 등 아시아태평양 지역의 기업·정부가 보다 강력한 사이버 방어 체계를 구축하도록 지원하겠습니다." 라마 발라수브라마니안(Ruma Balasubramanian) 체크포인트 아시아태평양(APAC) 총괄은 지난 18일부터 이틀간 태국 방콕에서 개최된 '체크포인트 익스페리언스 2025(CPX 2025)'에서 이같이 밝혔다. 그는 빠르게 디지털화되는 아태 시장에서 보안 위협이 날로 증가하고 있다며 체크포인트가 AI 기반 자동화 보안을 통해 이 격차를 효과적으로 좁혀나갈 것이라고 강조했다. 19일 업계에 따르면 체크포인트는 지난해 길 슈웨드 창립자가 CEO 자리에서 물러나고 이스라엘 국방군 예비역 준장이자 벤처캐피털리스트 출신인 나다브 자프리르가 신임 CEO로 취임하면서 새로운 전환점을 맞이했다. 이를 계기로 회사는 AI 및 자동화를 중심으로 한 차세대 보안 전략을 강화하고 아시아태평양 지역을 핵심 성장 시장으로 삼아 본격적인 투자 확대에 나서고 있다. 발라수브라마니안 총괄은 "슈웨드 이사회장은 방화벽 기술로 회사를 창립하고 30년 넘게 업계를 선도해왔지만 이제 더 먼 미래를 위해 CEO 역할을 나다브에게 맡겼다"며 "회사의 새로운 비전은 세계 최고 수준의 통합 보안 솔루션을 제공해 기업과 정부가 어떤 위협에도 대응할 수 있게 하는 것"이라고 강조했다. "AI 보안 혁신, 단순화가 답"…체크포인트, '위협 클라우드' 전략 본격화 이러한 방향성을 위해 체크포인트가 택한 전략은 '단순화'다. 현재 많은 기업들은 10~50개에 달하는 개별 보안 솔루션을 운영하는 상황이다. 이러한 상황은 오히려 보안 운영의 복잡성을 증대시켜 회사의 최고정보보호책임자(CISO)들의 보안 취약점을 증대시킨다. 이에 회사는 AI 기반 보안 정책 최적화와 실시간 위협 분석 기능을 도입해 문제를 '단순화(simplify)'한다는 방침이다. 회사는 '단순화' 전략의 핵심으로 '위협 클라우드 AI(Threatcloud AI)'를 내세우고 있다. 기업들이 다수의 보안 솔루션을 운영하면서 겪는 복잡성과 비효율성을 줄이고 보다 신속하고 효과적인 사이버 보안 대응을 가능하게 하는 것이 목표다. 이를 위해 방화벽, 보안 장비, 클라우드 인프라 등 전 세계 수백만 개의 장치에서 데이터를 실시간 수집하고 AI·머신러닝(ML) 기반 55개 엔진을 활용해 자동 분석한다. 또 보안 정책 자동 정리 기능도 강화했다. 글로벌 은행 등 대형 조직들은 매일 수천 개의 방화벽 정책과 보안 룰을 추가하지만 이들 중 상당수는 중복되거나 충돌하는 문제가 발생한다. 새로운 AI 기반 자동화 시스템은 이러한 중복 정책을 감지하고 최적화해 기업의 보안 운영 부담을 줄이는 데 초점을 맞췄다 보안 운영 단순화는 비용 절감 효과도 가져올 것으로 전망된다. 개별 솔루션을 다수 운영할 경우 각각의 보안 정책을 따로 관리해야 하는 인력·운영 비용이 증가할 수밖에 없다. 수브라마니안 총괄은 '단일 플랫폼 기반 보안'이 기업의 장기적인 운영 효율성과 비용 절감 효과를 극대화할 수 있다고 설명했다. 그는 "보안 운영 단순화는 비용 절감 효과도 가져올 것"이라며 "개별 솔루션을 다수 운영하면서 인력·운영 비용이 증가하는 것과 달리 '단일 플랫폼 기반 보안'은 모든 것을 통합해 기업의 장기적인 운영 효율성과 비용 절감 효과를 극대화한다"고 설명했다. AI 혁신, APAC에 집중…인도 R&D 센터 개소·한국 시장 공략 체크포인트는 아시아태평양(APAC) 시장을 차세대 성장 거점으로 삼고 대규모 투자 확대에 나선다. 빠른 디지털 전환에도 불구하고 보안 대응이 미흡한 지역적 특성을 고려해 AI·자동화 기반 보안 솔루션을 중심으로 통합 보안 체계를 구축한다는 계획이다. 그 배경은 아시아태평양 지역의 사이버 보안 위험이 글로벌 평균보다 훨씬 높은 수준이기 때문이다. 발라수브라마니안 총괄은 "아태 시장은 글로벌 평균보다 사이버 공격 빈도가 60% 이상 높은 지역"이라며 "기업과 정부 기관 모두 보안 리스크가 큰 상황"이라고 설명했다. 이어 "AI 기반 자동화 보안을 통해 이 격차를 해소하고 보다 체계적인 보안 운영을 지원하는 것이 목표"라고 강조했다. 이러한 전략의 일환으로 체크포인트는 최근 인도에 새로운 연구개발(R&D 센터를 설립했다. 클라우드 네이티브 애플리케이션 보호(CNAP), AI 기반 보안 운영(AIOps), 확장형 탐지 및 대응(XDR) 등 차세대 보안 기술을 연구·개발할 예정이다. 발라수브라마니안 총괄은 "이 투자는 단순히 인도 시장만을 위한 것이 아니라 전 세계 보안 솔루션의 수준을 높이기 위한 전략적 결정"이라고 설명했다. 또 체크포인트는 한국, 싱가포르, 일본, 말레이시아 등 APAC 주요 국가에서도 판매 및 마케팅 예산을 확대한다. 브랜드 인지도를 높이고 현지 고객과의 접점을 늘려 '통합 보안 플랫폼'이라는 이미지를 확립하는 것이 목표다. 금융·공공·의료 등 데이터 규제가 엄격한 산업군에 맞춰 서비스형 소프트웨어(SaaS) 솔루션의 현지화도 추진한다. 국가별 데이터 보호법을 준수하는 동시에 클라우드 기반 보안 서비스를 제공할 수 있도록 현지 인프라를 강화하는 전략이다. 특히 한국 시장은 체크포인트가 점유율을 회복해야 할 주요 타깃이다. 과거 글로벌 보안 기술을 앞세워 국내 대기업과 공공기관을 주요 고객사로 확보했지만 최근 국내 보안 업체들의 성장으로 경쟁이 치열해진 상황이다. 이에 대해 발라수브라마니안 총괄은 "한국 보안 시장이 발전해 관련 기업들이 성장한 것은 긍정적인 변화"라면서도 "우리는 지난 1993년 설립 이후 30년간 전 세계에서 축적한 '글로벌' 보안 데이터와 AI 기반 보안 기술로 차별화된 가치를 제공할 수 있다"고 자신했다. 이어 "한국 기업들과의 협력을 확대하고 있으며 하이테크·자동차·중공업 등 다양한 산업군과 협의가 진행 중"이라며 "보안 운영의 복잡성을 줄이고 AI 기반 자동화로 효율적인 보안 체계를 구축할 수 있도록 적극 지원할 것"이라고 강조했다. 해커들 AI 쓴다…올해 기업 보안, 더 정교한 피싱·랜섬웨어 공습 대비해야 발라수브라마니안 총괄은 올해에 가장 위협적으로 작용할 보안 공격 유형으로 AI 기반 피싱, 랜섬웨어, 인포 스틸러를 지목했다. 특히 AI 기술이 해킹 도구로 악용되면서 사이버 공격이 더욱 정교하고 은밀하게 변하고 있다고 경고했다. 이 같은 위협은 아시아태평양(APAC) 시장에서 더욱 치명적인 결과를 초래할 가능성이 크다. 빠른 디지털 전환과 클라우드·원격 근무 환경 확산으로 인해 공격 대상이 늘어나면서 보안 취약점이 증가하고 있기 때문이다. 그는 특히 생성형 AI가 피싱 공격을 급격히 발전시키고 있다고 설명했다. 과거에는 문법 오류나 어색한 문장으로 피싱 이메일을 쉽게 판별할 수 있었지만 AI 기술이 도입되면서 더욱 정교한 문장과 맞춤형 메시지가 생성돼 사용자가 속기 쉬운 환경이 조성되고 있다는 것이다. 랜섬웨어 공격도 진화하고 있다. 기존에는 데이터를 암호화하고 금전을 요구하는 방식이 일반적이었지만 최근에는 데이터를 미리 빼돌린 뒤 2차·3차 협박을 가하는 다단계 공격이 증가하는 추세다. 발라수브라마니안 총괄은 "공격이 한 번 끝나면 다시 다른 채널로 침투하는 방식이 늘어나고 있다"며 "아태 지역에서는 클라우드 환경과 재택근무 확산으로 피해 범위가 더욱 커질 가능성이 크다"고 우려했다. 눈에 보이지 않는 '인포 스틸러'도 기업 보안의 새로운 위협으로 떠오르고 있다. 이 악성코드는 기업 서버나 데이터베이스에 침투해 계정 정보, 이메일, 인증서 등을 자동으로 검색·탈취한다. 특히 최근 12~18개월 사이 이 공격 유형이 급증하며 기업의 내부 정보 보호에 비상이 걸렸다. 발라수브라마니안 총괄은 "인포 스틸러는 감염 사실을 눈치채기 어렵고 공격이 이루어진 후 대량의 정보를 한꺼번에 빼돌리는 특징이 있다"며 "기업이 피해 사실을 늦게 인지할수록 대응이 더욱 어려워진다"고 경고했다. 체크포인트는 이러한 위협을 막기 위해 '위협 클라우드 AI'의 탐지 기능을 강화하고 글로벌 센서 네트워크를 통해 실시간으로 데이터를 수집해 대응 역량을 높이고 있다. 라마 발라수브라마니안 체크포인트 APAC 총괄은 "AI를 활용하는 해커들이 늘어나는 만큼 기업도 AI 기반 자동화와 단순화된 보안 시스템을 도입해야 한다"며 "자동화된 위협 탐지와 예방이 보안 전략의 필수 요소가 될 것"이라고 강조했다.

2025.02.19 12:13조이환

최수연 네이버 "절박하고 중차대한 시기…AI 성장 위한 정부·국회 지원 요청"

"네이버가 성공할 수 있었던 배경에는 1998년부터 정부 주도로 초고속 인터넷망이 구축된 덕분이다. AI 역시 국가 차원의 지원과 정책적 방향성이 마련된다면 글로벌 시장에서 주도적인 역할을 할 수 있다. 네이버 또한 인재 육성과 적극적인 투자를 이어 나가겠다." 19일 오전, 국회 과학기술정보방송통신위원회가 인공지능(AI) 글로벌 3대 강국(G3) 도약을 위한 현장소통의 일환으로 경기도 성남 네이버 본사를 찾았다. 이 자리에서 네이버 최수연 대표는 AI 정책 관련 정부와 국회의 지속적인 지원을 요청하며 투자와 혁신을 하겠다고 강조했다. 최민희 과방위원장 또한 AI 산업 활성화를 위해 정책 마련에 박차를 가하겠다고 약속했다. 이날 과방위원들이 네이버에 모인 이유는 딥시크의 AI 모델 R1로 인해 미국과 중국의 AI 패권 경쟁이 격화되는 가운데 국내 AI 산업의 현황을 진단하고 입법 제도적 개선 방향과 현장 애로사항 등 의견 청취를 위해서다. 이 자리에는 최민희 과방위원장과 김현, 최형두 간사(온라인 참여)를 비롯해 김우영, 박민규, 이정헌, 이훈기, 이해민, 정동영, 조인철, 한민수, 황정아 의원이 참석했다. 네이버에서는 최수연 대표, 석상옥 네이버랩스 대표, 하정우 네이버클라우드 퓨처AI센터장 등이 함께했다. 최민희 "국가가 기업 사업 활동 방해해선 안 돼…구체적 지원책 논의중" 최민희 과방위원장은 "AI와 R&D 관련 예산 5조원 규모 추경 편성을 추진하고, AI 인력 양성 및 전략 기술 분야 지원책 마련을 고민하고 있다"며 "지금까지 진행된 토론회를 통해 도출된 핵심 키워드를 바탕으로 AI 산업 발전을 위해 병역 특례를 포함한 구체적인 지원책을 논의 중"이라고 말했다. 또한 "AI 산업에 종사하는 기업들을 위한 세액 공제 등 인센티브 제공도 검토하고 있다"며 기업의 사업 활동을 지원하는 정책 방향을 강조했다. 최 위원장은 "과학 기술 발전을 저해하는 규제는 지양해야 하지만, 개인정보 보호와 같은 역기능에 대한 대책 마련도 중요하다"며 "국회 차원에서 AI 산업의 성장을 저해하지 않으면서도 균형 잡힌 정책을 마련하겠다"고 밝혔다. 이어 최 위원장은 "국가가 기업에 민폐를 끼치면 안 되며, 과학기술의 발전을 제도가 막아서는 안 된다"며 "대한민국이 약간 늦었다고 하지만, 같이 발전할 수 있게 노력하겠다"고 덧붙였다. 최수연 "규제보다 진흥…국회·정부 관심 필요" 최수연 네이버 대표는 글로벌 AI 경쟁에서 선두를 유지하기 위해 투자와 혁신을 지속하고 있다며 정부와 국회의 지속적인 지원을 요청했다. 최 대표는 "국내 AI 산업이 글로벌 시장에서 경쟁력을 확보할 수 있도록 정부의 지속적인 지원이 필요하다"며 "EU 디지털 서비스법과 같은 해외 규제가 미국 기업에 부담이 되고 있는 만큼, 우리 정부도 국내 기업을 보호할 수 있는 정책적 지원을 마련해야 한다"고 덧붙였다. 이어 최 대표는 "네이버가 성공할 수 있었던 배경에는 1998년부터 정부 주도로 초고속 인터넷망이 전국적으로 구축된 덕분"이라며 "AI 역시 국가 차원의 지원과 정책적 방향성이 마련된다면 글로벌 시장에서 주도적인 역할을 할 수 있다"고 역설했다. 최 대표는 "기업 입장에서는 절박하고 중차대한 시기에 있다. 국내 AI 산업이 규제보다는 진흥을 통해 발전할 수 있도록 국회와 정부의 관심과 지원을 요청한다. 네이버도 인재에 더 투자하고 글로벌 시장에서 사명감을 가지고 경제를 이끌 수 있는 책임감 있는 회사가 되겠다"고 밝혔다.

2025.02.19 11:34안희정

과방위, AI 강국 도약을 위한 성명서 합의…"국가 차원 지원"

국회가 대한민국이 AI 강국으로 도약할 수 있도록 정책적 지원을 아끼지 않겠다는 내용의 여야 합의 성명서를 공개했다. 국회 과학기술정보방송통신위원회 소속 위원들은 19일 경기도 네이버 본사를 방문해 인공지능(AI) 관련 기술 시연을 참관하고, AI 관련 성명서를 발표했다. 이번 현장에는 최민희 과방위원장을 비롯한 10명의 과방위원들과 국회 과방위 관계자들이 참석했으며, 네이버의 생성형 AI 연구개발 현황을 듣고, 최신 로봇 기술이 적용된 서비스 시연을 직접 참관하는 시간을 가졌다. 네이버 측은 AI 검색과 생성형 AI, 로보틱스 기술 등 다양한 분야에서의 성과를 소개하고 AI 관련 혁신을 위한 지속적인 연구개발 계획을 공유했다. 과방위원들은 AI 기술 발전이 국가 경쟁력 강화에 미치는 영향에 대해 깊이 공감하며, 대한민국이 AI 강국으로 도약하기 위한 정책적 지원방안을 논의했다. 특히, AI 산업 활성화를 위해 대규모 인프라 투자가 중요하고, 이를 위해서는 입법과 정책적 노력이 필요하다는데 의견을 모았다. 이에 따라 과방위 위원들은 AI 강국으로의 도약을 위한 지원 의지를 담아 여야 합의 성명서를 발표했다. 성명서에는 ▲ AI 대규모 투자 및 인프라 조성 ▲ AI 산업계와의 소통 강화 ▲ AI 법·제도 정비 및 국제협력 확대 ▲ 예산 투입 등 후속조치의 신속한 추진 등의 내용이 포함됐다. 최민희 위원장은 “AI 기술이 대한민국의 미래를 결정짓는 중요한 요소인 만큼 과방위가 앞장서서 정부, 기업과 협력해 AI 3대 강국으로 도약할 수 있도록 정책적 지원을 아끼지 않겠다”라고 밝혔다. 국회 과방위는 앞으로도 AI 관련 기업 및 연구기관과의 소통을 확대하고 AI 산업 발전을 위한 정책 마련에 적극 나설 방침이다. 다음은 여야 합의 성명서 AI 강국 대한민국, 국회 과방위가 앞장서겠습니다. 국회 과학기술정보방송통신위원회는 대한민국이 AI 강국으로 도약할 수 있도록 정책적 지원과 제도 정비에 적극 나서겠습니다. 첫째, AI 대규모 투자 및 인프라를 조성하겠습니다. 국가 차원의 AI 지원 체계를 구축하고, 연구·개발을 촉진하며, 국내외 인재를 육성하고 유치할 수 있는 환경을 마련하겠습니다. 또한, 기업과 연구기관이 자유롭게 도전할 수 있는 혁신 생태계를 조성하겠습니다. 둘째, AI 산업계와 지속적인 소통을 강화하겠습니다. 산업계·전문가·정부와 협력해 현장의 의견을 정책에 반영하고, AI 관련 규제를 개선하며, 기술발전을 촉진하는 지원방안을 구체화하겠습니다. 셋째, AI 법·제도를 정비하고 국제협력을 확대하겠습니다. AI 산업의 윤리적·법적 기반을 강화하기 위해 법·제도를 정비하고, 글로벌 AI 규범이 빠르게 정립되고 있는 만큼, 국제 협력과 기술 교류를 확대하여 우리나라가 국제 AI 시장에서 주도적인 역할을 할 수 있도록 지원하겠습니다. 또한, 글로벌 AI 거버넌스 구축에 기여하고, 주요국과의 협력을 통해 우리 기업이 해외 시장에서도 경쟁력을 갖출 수 있도록 정책적 지원을 아끼지 않겠습니다. 넷째, AI 강국으로 가기 위한 지원을 아끼지 않겠습니다. AI 산업의 발전과 글로벌 경쟁에서 뒤처지지 않기 위해선 지금이 골든타임입니다. AI 기본법의 취지에 맞춰 필요한 추가 예산이 적기에 투입될 수 있도록 하겠습니다. 이를 위해 추경 편성을 포함한 모든 후속 조치를 신속히 추진하여, 대한민국이 AI 강국으로 도약할 수 있도록 적극 뒷받침하겠습니다. 앞으로 국회 과방위는 AI 산업의 성장 기반을 조성하고, 대한민국이 AI 선도국으로 도약할 수 있도록 필요한 모든 정책적 노력을 기울이겠습니다.

2025.02.19 11:28안희정

국표원, AI 등 첨단분야 국제표준 개발에 425억 지원

산업통상자원부 국가기술표준원은 '국가표준기술력향상사업'에 지난해보다 22% 늘어난 425억원을 지원한다고 19일 밝혔다. 지난해 5월 국표원이 미래를 이끌 첨단분야 국제표준 개발 확대를 위해 발표한 '첨단산업 국가표준화 전략'의 후속 조치다. 올해 인공지능(AI)·반도체 등 선제적으로 국제표준화가 필요한 12개 첨단산업 분야 신규과제에 117억원을 지원한다. 또 의료·환경 등 범부처 기반산업 표준화 지원도 함께 진행한다. 기존에 지원 중인 무탄소 에너지·탄소중립 등 미래산업을 위한 계속과제(308억원)도 차질없이 지속 추진할 예정이다. 한편, 올해부터 더 많은 연구자가 표준화 과제에 참여할 수 있도록 산업기술혁신사업 공통 운영요령 개정을 통해 한 명의 연구자가 동시에 수행할 수 있는 연구과제 수의 제한을 없앴다. 오광해 국가기술표준원 표준정책국장은 “향후 표준 R&D에 우수한 연구자가 지속해서 참여할 수 있는 환경을 조성하겠다”면서 “첨단분야의 주도적인 국제표준 개발을 통해 우리 기업의 글로벌 신시장 진출을 적극적으로 돕겠다”고 밝혔다.

2025.02.19 11:16주문정

구글클라우드, 야놀자 여행업 AI 서비스 고도화

구글클라우드가 야놀자의 여행업 서비스 고도화를 추진한다. 구글클라우드는 야놀자와 여행업 특화 인공지능(AI) 고도화·전사적 AI 트랜스포메이션을 위해 업무 협약을 체결했다고 19일 밝혔다. 지난 18일 경기도 성남시 판교 야놀자 신사옥에서 열린 파트너십 체결식에는 카란 바좌 구글클라우드 아시아태평양 지역 총괄, 지기성 구글클라우드코리아 사장, 이준영 야놀자그룹 기술 총괄, 장정식 야놀자클라우드 최고기술책임자(CTO) 등 양사 임원이 참석했다. 야놀자는 글로벌 트래블 테크 기업으로 206개국을 대상으로 클라우드 기반 구독·거래 솔루션을 공급한다. 이를 통해 여행 사업자의 운영 효율을 높이고 디지털 전환을 가속화하고 있다. 또 방대한 여행 데이터를 활용해 여행 산업에 특화된 '버티컬 AI'를 구축해 개인·기업 고객에게 맞춤형 서비스를 제공한다. 구글클라우드는 글로벌 인프라와 AI 반도체, 생성형 AI 모델, 개발 플랫폼을 보유하고 있다. 이를 기반으로 야놀자 데이터 역량을 극대화해 버티컬 AI 서비스 수준을 향상시킬 계획이다. 야놀자는 구글클라우드의 AI 최적화 인프라와 제미나이를 활용해 여행 AI 생태계를 확장할 방침이다. 양사는 AI 에이전트 기반 대고객 서비스 개발, 생성형 AI 도입 확산, 임직원 업무 생산성 혁신 등 다양한 프로젝트를 추진해 왔다. 또 구글클라우드의 생성형 AI 그라운딩 기술을 야놀자 서비스에 적용해 보다 신뢰도 높은 여행 데이터를 제공할 예정이다. AI 에이전트는 자동화된 의사결정과 실시간 데이터 분석, 개인화된 고객 경험을 지원하는 기술이다. 야놀자는 이를 자체 여행 데이터와 연계해 초개인화된 여행 경험을 제공하고 여행 사업자에게 고도화된 AI 기반 솔루션을 제공해 고객 서비스 자동화·효율화를 지원할 계획이다. 야놀자그룹 이준영 기술 총괄은 "그동안 글로벌 여행 데이터를 기반으로 독자적인 AI 기술을 구축해 여행자의 편리한 경험과 여행 산업 운영의 효율성을 높이고 있다"며 "이번 협력을 통해 AI 기술을 더욱 고도화하고 혁신적인 버티컬 AI 서비스를 선보일 것"이라고 말했다. 구글클라우드 카란 바좌 아태 지역 총괄은 "글로벌 여행·레저 산업에서 성공적인 사례를 보유하고 있다"며 "야놀자의 데이터와 버티컬 AI에 자사 기술력을 결합해 신뢰할 수 있는 파트너로서 글로벌 여행 시장을 혁신해 나가겠다"고 강조했다. 지기성 구글클라우드코리아 사장은 "자사의 안전한 인프라와 강력한 생성형 AI 기술을 통해 야놀자가 글로벌 선두 기업으로서 입지를 더욱 강화할 수 있도록 적극 지원하겠다"고 밝혔다.

2025.02.19 10:32김미정

딥브레인AI, 딥페이크 탐지 솔루션 GS인증 1등급

딥브레인AI가 자사 소프트웨어(SW)로 국가인증을 받았다. 딥브레인AI는 딥페이크 탐지 솔루션으로 굿소프트웨어(GS) 1등급을 획득했다고 19일 밝혔다. GS인증은 국내 SW 품질 경쟁력 향상과 유통 활성화를 위해 도입된 국가 공인 인증 제도다. 실제 운영 환경을 모사한 테스트 환경에서 기능적합성, 호환성, 사용성, 신뢰성, 보안성 등 9개 항목을 종합적으로 평가한다. 딥브레인AI의 딥페이크 탐지 솔루션은 ▲영상 탐지 ▲이미지 탐지 ▲음성 탐지를 바탕으로 페이스 제너레이션, 페이스 스왑, 립싱크 합성 등 다양한 유형의 조작된 합성 콘텐츠를 탐지한다. API로 타 플랫폼과 연동 가능하다. 이에 대량의 데이터도 쉽게 탐지할 수 있다. 픽셀 차이로 딥페이크 여부를 판별하는 기술력과 레퍼런스 기반으로 국내서 처음 관공서 대상 상용화를 진행한 바 있다. 딥브레인AI은 지난해 11월에 딥페이크 자동 탐지 솔루션을 서비스형 소프트웨어(SaaS)로 공개하기도 했다. 사용자가 찾고자 하는 인물의 특징이나 키워드 등 정보를 입력하면, 유튜브와 틱톡, 엑스, 텔레그램 등 다양한 플랫폼을 자동으로 탐지한다. 불법 성인 영상물의 경우 2차 피해 방지를 위해 노출된 부분을 블러 처리하는 등 윤리적인 기준까지 강화했다. 장세영 딥브레인AI 대표는 "딥페이크 관련 범죄 확산 방지에 보탬이 되고자 지난해는 기업, 관공서 등을 대상으로 딥페이크 탐지 솔루션을 무료 지원한 바 있다"며 "이번 인증을 계기로 인공지능(AI) 순기능을 위한 기술 개발에 더욱 힘쓰겠다"고 말했다.

2025.02.19 10:29김미정

현신균-박봉수, AI 기반 지능형 공장 구현 맞손

현신균 LG CNS 사장과 박봉수 S-OIL 운영총괄 사장이 공장 인공지능 전환(AX) 프로젝트를 위해 손을 맞잡았다. LG CNS는 AI·빅데이터 등 신기술 기반의 지능형 공장 구현을 위한 업무협약(MOU)을 체결했다고 19일 밝혔다 양사는 이번 협약을 통해 AI 기반 ▲플레어스택(가스연소 굴뚝) 최적화 시스템 ▲공정안전관리(PSM) 통합 시스템 ▲AX 플랫폼 등을 공동 개발해 S-OIL 울산공장 운영과 안전 관리 효율성을 한층 높일 계획이다. 플레어스택은 정유·석유화학 공장에서 발생하는 가연성 가스를 연소시켜 대기로 안전하게 배출하는 설비다. 가스가 완전히 연소되지 않으면 매연과 불꽃이 발생할 수 있어 실시간 모니터링과 신속한 대응이 중요하다. LG CNS가 S-OIL 울산공장에 구축하는 AI 기반 플레어스택 최적화 시스템은 AI 영상 분석 기술과 AI CCTV를 통해 24시간 실시간으로 연기의 색상과 불꽃 상태를 분석한다. 이상 징후가 감지되면 증기 밸브를 자동으로 제어해 최적화 상태를 유지, 공정 안정성을 획기적으로 향상시킬 수 있다. 기존에 S-OIL 직원들이 매시간 직접 플레어스택을 확인해야 했던 부담을 줄여, 보다 효율적인 공장 운영이 가능할 것으로 기대된다. LG CNS와 S-OIL은 공정안전관리(PSM) 시스템을 고도화할 예정이다. 공정안전관리(PSM)는 공정 안전 자료, 작업허가, 공정위험성 평가, 비상조치 계획, 설비관리 등 12개항목을 포함한 보고서를 고용노동부에 정기적으로 제출해야 하는 제도다. 이는 고위험 화학물질을 다루는 사업장에서는 필수적이다. 이를 준비하는 데 3~6개월이 소요되고, 방대한 내용을 문서화해 수검 받아야 하기 때문에 체계적인 관리가 중요하다. LG CNS와 S-OIL은 제조 산업의 디지털 전환(DX) 경험과 노하우를 결합해 S-OIL에 최적화된 생성형 AI, 음성인식 기술을 도입할 계획이다. 이를 통해 직원들이 공정안전관리(PSM) 업무를 효과적으로 수행할 수 있도록 지원한다. 공정안전관리(PSM) 과정의 일환으로 직원 대상 안전 의식 제고를 위한 면담도 시행되는데, LG CNS는 이를 돕는 'AI 모의면담' 기능을 개발한다. 생성형 AI가 면담 기출문제 및 환경·안전 관련 자료를 바탕으로 문제를 출제하고, 직원의 답변에 대한 AI 피드백을 제공하는 방식으로 운영될 예정이다. 'AI 모의면담'은 직원들의 효과적인 면담 준비 뿐만 아니라, 안전 의식 제고에도 기여할 것으로 기대된다. 양사는 S-OIL 울산공장의 'AX 플랫폼' 구축도 추진한다. 이를 위해 LG CNS는 기업용 생성형 AI 플랫폼 'DAP 젠AI 플랫폼'과 AI·빅데이터 분석 플랫폼 'DAP MLDL' 등 자체 솔루션을 활용할 계획이다. S-OIL 공장 직원들은 다양한 생성형 AI 서비스를 직접 개발하고 현업에 적용할 수 있게 되며, 데이터 기반의 신속하고 정확한 의사결정 체계를 구축할 수 있을 것으로 기대된다. S-OIL은 'AX 플랫폼'을 통해 스마트 공장 혁신을 가속화하고, AI 기술을 활용한 공정 최적화 및 업무 효율성 제고를 적극 추진할 방침이다. LG CNS CEO 현신균 사장은 “S-OIL의 첨단 공장에 LG CNS의 독자적인 생성형 AI 기술을 적용해 공장의 AX를 한층 가속화하고, 직원들의 업무 효율성을 대폭 향상시켜 차별화된 고객가치를 제공하겠다”고 밝혔다. S-OIL 박봉수 운영총괄 사장은 "S-OIL은 최근 다양한 4차 산업혁명 기술을 도입해 현장의 안전성과 운영 효율성을 크게 향상시키고 있다"며 "AI 기술력과 지능형 공장 운영 노하우를 모두 갖춘 LG CNS와 협력해 디지털 리파이너리(Digital Refinery) 구현에 대한 기대가 크다"고 말했다. 이어 "앞으로도 장기적인 관점에서 체계적인 디지털 리파이너리 구축을 위해 적극적으로 협력해 나가겠다"고 밝혔다.

2025.02.19 10:01남혁우

AI로 AI 공격 방어…기업 보안시스템 확 바꾼다

연간 보안사고 50% 감소…생성형 AI 도입으로 IAM 체계 강화 딜로이트(Deloitte)가 발간한 '생성형 AI 관련 신원 및 접근 관리 위험 극복하기' 보고서에 따르면, 생성형 AI 기술이 기업의 신원 및 접근 관리(IAM) 시스템에 혁신적 변화를 가져오고 있다. GPT-3와 Jasper 같은 AI 모델은 합성 데이터 생성과 잠재적 보안 위반 시뮬레이션을 통해 보안 프로토콜을 강화할 수 있다. 특히 금융 서비스 산업에서는 실시간 사기 탐지율이 기존 대비 40% 향상되었으며, 정부 기관의 중요 인프라 보안 사고는 평균 50% 감소한 것으로 나타났다. (☞ 보고서 바로가기) 딥페이크부터 피싱까지...생성형 AI가 만드는 새로운 위협 지도 보안 위협은 세 가지 주요 영역에서 발생하고 있다. 먼저 데이터 기반 위험으로, AI가 생성한 가짜 사용자 프로필이나 접근 로그로 인증 시스템을 우회하는 사례가 증가하고 있다. 생체 정보나 행동 패턴 등 민감한 사용자 데이터의 유출도 큰 위험이다. 특히 딥페이크 기술을 이용한 생체 인증 우회 시도는 전년 대비 200% 증가했다. AI 기반 피싱 공격의 성공률은 기존 수동 피싱 대비 5배 높은 것으로 나타났다. 24시간 실시간 모니터링 AI 기반 선제적 보안 체계 구축 보고서는 AI 기반의 다층적 방어 전략을 제시한다. 얼굴 인식, 음성 인식, 행동 패턴 분석 등 생체인식 기술을 통해 인증 정확도를 95% 이상으로 높일 수 있다. 키스트로크 패턴, 마우스 움직임, 위치 데이터 등의 실시간 분석으로 비정상 행위를 평균 2분 이내에 탐지할 수 있다. 위험도에 따라 추가 인증을 요구하는 적응형 인증 시스템은 오탐률을 60% 감소시켰다. AI 기반 보안 시뮬레이션으로 취약점 사전 차단 생성형 AI는 매월 평균 1000개 이상의 가상 공격 시나리오를 생성하여 보안 체계를 검증한다. 실제 사용자 데이터를 기반으로 한 시뮬레이션은 취약점 발견율을 75% 향상시켰다. 특히 다양한 접근 레벨과 권한을 가진 가상 사용자 프로필을 통한 테스트는 권한 상승 공격의 90%를 사전에 차단할 수 있었다. AI 위협 탐지 및 대응(ITDR) 체계의 진화 새롭게 도입된 AI 기반 ITDR 시스템은 피싱 시뮬레이션의 정교도를 높여 직원 교육 효과를 3배 향상시켰다. 사회공학적 공격 시뮬레이션은 실제 공격과 구분하기 어려울 정도로 정교해져, 보안팀 훈련의 현실성을 크게 높였다. 다요소 인증 우회 시도에 대한 시뮬레이션은 기존 취약점의 85%를 발견하는 성과를 보였다. AI로 AI를 강화하는 선순환 보안 체계 구축 생성형 AI는 자체 보안 시스템을 강화하는 데도 핵심적인 역할을 한다. AI 기반 이상 탐지 시스템 학습을 위해 대규모의 비정상 사용자 행동과 인증 시도 데이터셋을 생성할 수 있다. 이를 통해 실시간 보안 위협을 더욱 정확하게 식별할 수 있게 되었다. 특히 기존 데이터셋의 격차를 보완하는 합성 데이터 생성으로 다양한 신원과 잠재적 사기 시나리오에 대한 대표성을 확보했다. 조명 조건, 포즈, 얼굴 표정, 배경 시나리오 등의 변화를 포함한 추가 샘플을 생성하여 모델의 일반화 능력을 향상시켰다. 또한 소수 클래스(예: 희귀한 사기 사례)의 추가 예시를 생성하여 클래스 불균형 문제를 해결하고 모델 성능을 개선했다. 개발자들은 합성 데이터의 특성을 세밀하게 제어하여 실제 패턴과 일치하도록 하고 특정 검증 과제를 해결할 수 있게 되었다. AI는 기존 데이터셋의 불균형이나 불공정한 표현을 식별하고 수정하여 모델의 공정성과 포용성을 높이는 데도 활용된다. 이를 통해 대표성이 부족한 그룹에 대한 차별을 줄이고 더 공정한 모델을 구축할 수 있게 되었다. 윤리적 AI 보안을 위한 가이드라인 제시 보고서는 AI 보안 시스템 도입 시 준수해야 할 윤리적 가이드라인도 제시했다. 모든 AI 의사결정의 투명성을 보장하고, 중요 결정에는 반드시 인간 검토 과정을 포함해야 한다. 특히 계정 해지나 긴급 접근 권한 부여와 같은 결정에서 AI는 보조 수단으로만 활용되어야 한다. 또한 규제 준수를 위해 AI 의사결정 과정의 상세 로그를 최소 5년간 보관할 것을 권고했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 10:00AI 에디터

사이냅소프트-디딤365, 공공·민간 AI 솔루션 시장 공략 맞손

사이냅소프트(대표 전경헌)가 디딤365와 공공과 민간기업 인공지능(AI) 솔루션 공략을 위해 힘을 합친다. 사이냅소프트는 디딤365와 'AI 사업 협력을 위한 업무협약(MOU)'을 체결했다고 19일 밝혔다. 이번 협약을 통해 양사는 '사이냅 도큐애널라이저'와 'DidimVSM' 솔루션을 연계하여 상호 시너지를 극대화할 계획이다. 특히, 성공적인 LLM 구축을 위해 안전하고 신뢰성 있는 RAG 구축을 위한 기술개발 및 사업 개발에 협력하기로 하였다. 사이냅소프트의 '사이냅 도큐애널라이저'는 LLM학습데이터 구축과 디지털 문서 자산화를 위한 솔루션이다. 아래아 한글, 오피스 문서, PDF등의 일반 업무용 문서와 이미지 문서 등 다양한 비정형 문서의 포맷과 레이아웃, 속성 및 객체를 분석해 정보화 한다. 또한, 표, 도형 같은 시각적 정보와 제목, 문단, 머리글/바닥글, 캡션, 각주, 페이지 번호와 같은 문서 구조 정보를 마크다운(Markdown), XML 형식의 정형 데이터로 전환한다. 디딤365의 'DidimVSM'은 대규모 언어 모델(LLM)의 성능을 강화하기 위한 솔루션으로, 데이터 수집/전처리/청킹/임베딩/벡터 DB 적재까지 모든 과정을 자동화하여 LLM 서비스의 성능 개선을 위한 RAG(검색증강생성)를 쉽고 빠르게 구성할 수 있도록 지원한다. ▲PDF, DOC, HWP, IMAGE 등 다양한 문서 파일을 업로드 및 처리해 효율적인 데이터 관리 ▲클릭 기반의 웹 GUI 제공으로 편리하게 데이터 수집 및 데이터 처리를 수행할 수 있는 편의 기능 ▲수집된 벡터 데이터를 체계적으로 관리하고 분석하여 최적의 벡터 데이터 활용 환경을 제공한다. 사이냅소프트 전경헌 대표는 "최근 생성형 AI 시스템에서는 데이터의 질이 더욱 중요해지고 있다. 양사는 RAG 시스템 구축에 필수적인 양질의 데이터 확보와 효율적인 데이터 처리 역량을 가지고 있다. 양사의 전문성을 결합하여 고품질 데이터 RAG구축을 통해 정교한 LLM 구축을 지원하게 될 것"이라고 밝혔다. 디딤365 AI/빅데이터 부문 김상래 대표는 "양사간 전략적 파트너십을 통해 디지털 전환이 필요한 공공기관 및 민간 기업을 대상으로 최적의 AI 솔루션을 제공할 예정"이라며 "앞으로도 공공기관 및 기업의 디지털 전환을 선도하고, 국내 AI·빅데이터·클라우드 생태계 확장에 기여할 것"이라고 밝혔다.

2025.02.19 09:59남혁우

[기고] AI 시대 클라우드 보안 강화에 3D 통합 전략 필수

급격한 인공지능(AI) 시장 성장은 새로운 기회와 도전 과제를 동시에 가져왔다. 그 중 '보안'은 윤리와 콘텐츠 안전성, 사이버 공격 등 AI 개발 과정에서 가장 우려되는 이슈 중 하나다. 또 최근 유명인사나 인플루언서의 모습을 실제처럼 위조하는 데 악용되는 딥페이크가 가장 큰 위험 요소로 떠오르고 있기도 하다. 최신 생성형 AI 기술이 피싱과 랜섬웨어 공격에 활용되면서 해커들은 더욱 빠르고 정교한 피싱 이메일을 제작하고 있다. AI 도구를 통한 랜섬웨어 최적화가 새로운 트렌드로 자리잡아 사이버 위협을 더욱 심화하고 있다. 다행히 AI는 보안을 강화할 강력한 도구로도 사용될 수 있다. 이 기술은 보안 운영 효율성과 정확성을 크게 향상시키며, 사용자에게 위협을 탐지하고 예방할 수 있는 고도화된 대응 방안을 제공하기 때문이다. 결국 AI 기술을 사용하는 공격자와 방어자가 끊임없이 기술 발전을 거듭하며 치열한 공방을 이어가는 재미있는 상황이 펼쳐지고 있는 것이다. 최근 AI 어시스턴트를 활용한 보안 강화 사례가 급증하고 있으며, 알리바바클라우드 보안 센터도 이에 발맞춰 중국 내 사용자 대상으로 새로운 AI 어시스턴트를 출시했다. 이 솔루션은 알리바바클라우드의 자체 거대언어모델(LLM) 큐원(Qwen) 기반으로 보안 컨설팅, 경고 분석, 사고 조사, 대응 등 다양한 보안 운영을 지원한다. 지난해 말 기준, 이 AI 어시스턴트는 이미 99%의 위험 감지 알림을 처리했으며, 중국 사용자 88%에게 서비스를 제공하며 빠르게 자리 잡고 있다. 특히 멀웨어 탐지 분야에서는 LLM의 코드 이해, 생성, 요약 기능을 활용해 악성 파일을 효과적으로 탐지하고 방어할 수 있다. 더 나아가 LLM의 강력한 추론 기능을 통해 이상 징후를 신속하게 감지하고 오탐을 줄여 탐지 정확도를 높임으로써 보안 엔지니어의 업무 효율성을 크게 향상시키고 있다. 이는 AI 어시스턴트가 단순한 자동화 도구를 넘어, 점점 더 정교한 사이버 보안 파트너로 진화하고 있음을 보여준다. 멀티·하이브리드 클라우드, 데이터 복잡성·보안 비용↑ 최근 많은 기업이 멀티 클라우드와 하이브리드 클라우드 환경을 도입하면서 IT 인프라의 복잡성이 더욱 증가하고 있다. 스태티스타 조사에 따르면, 지난해 기준 전 세계 기업 73%가 하이브리드 클라우드를 사용하고 있으며, IDC는 아시아 태평양 지역 기업의 약 90%가 멀티 클라우드를 도입했다고 보고했다. 그러나 이런 트렌드는 오히려 보안 관리 비용을 증가시키는 치명적인 단점이 있다. 기업들은 퍼블릭 클라우드, 프라이빗 클라우드, 온프레미스 데이터센터 등 여러 환경에 분산된 보안 제품을 관리해야 하며, 각 환경에서 발생하는 보안 사고에도 신속하게 대응해야 한다. 이러한 복잡성은 결국 IT 팀의 운영·관리 비용 증가로 이어질 수밖에 없다. 또 기업들은 동일한 클라우드 서비스 제공업체(CSP) 제품을 사용하더라도, 데이터 사일로 문제로 인해 데이터 간 원활한 상호운용이 어려운 상황에 직면하고 있다. 데이터 사일로가 발생하면 보안 기능이 개별적으로 고립돼 보안 제품 간 연계가 불가능해지고, 이로 인해 기업의 보안 체계가 더욱 약화될 가능성이 높아진다. 많은 기업들이 내부 조직 구조를 세분화하여 운영하는 것도 또 다른 보안상의 취약점을 낳고 있다. 예를 들어 IT 부서는 기업의 오피스 보안을 담당하지만 각 사업부는 자체 생산 네트워크의 보안을 관리하는 방식이다. 문제는 이런 조직적 분리로 인해 서로 다른 영역이 겹치는 교차 지점에서 보안 취약점이 발생할 가능성이 높아진다는 점이다. 보안 제품에 3D 통합 전략 적용해야 이러한 문제를 해결하기 위해 알리바바클라우드는 보안 제품에 3D 통합 전략을 적용하는 것이 효과적이라고 제안한다. 클라우드 인프라에 대한 통합 보안과 일관된 보안 기술 도메인, 원활한 오피스·생산 환경이라는 세 가지 핵심 시나리오를 포괄하는 통합적 보안 접근 방식을 채택하는 것이다. 클라우드 인프라를 위한 통합 보안은 점점 더 복잡해지는 IT 환경에서 발생하는 보안 문제를 해결하기 위해 설계됐다. 특히 퍼블릭 및 프라이빗 클라우드를 포함한 다양한 인프라의 보안을 통합적으로 관리하는 것에 중점을 둔다. 고도화된 보안 솔루션을 활용하면 기업은 중앙 집중식 단일 콘솔을 통해 리소스 위치와 관계없이 모든 리소스를 일괄적으로 관리할 수 있으며, 이를 통해 IT 인프라 전반의 보안 운영을 보다 원활하고 효율적으로 수행할 수 있다. 통합 보안 기술 도메인은 보안 제품에서 생성되는 로그 데이터를 통합해 강력한 보안 데이터 레이크를 생성한다. 이런 중앙 집중식 스토리지를 통해 첨단 위협 인텔리전스 분석과 경고를 통합해 전반적인 보안 역량을 강화하고 대응 속도를 높일 수 있다. 통합된 오피스·생산 환경은 부서 간 데이터와 프로세스를 간소화하는 것을 목표로 한다. 이를 통해 보안 운영의 효율성을 높이고, 부서 간 침입 위험을 최소화해 더욱 안전하고 유기적인 업무 환경을 조성할 수 있다. 데이터가 어디에 저장됐든 AI와 보안의 통합은 데이터 보호에서 점점 더 중요한 요소가 되고 있다. 알리바바클라우드는 보안 분야에서 AI의 역할을 더욱 심층적이고 광범위하며 자동화된 애플리케이션 형식으로 발전시키는 데 주력하고 있다. 예를 들어, AI를 활용해 제로데이 취약점(Zero-Day Vulnerability)을 탐지하고, 에이전트 기반의 자동화 기술을 통해 더욱 효율적인 보안 대응을 구현하는 것이 대표적인 사례다. AI 보안·규정 준수 강화를 위한 트렌드에 맞춰 클라우드 서비스 제공업체들은 인프라부터 AI 개발 플랫폼, 애플리케이션에 이르기까지 종합적인 지원을 확대하고 있다. 특히 데이터 보호, 알고리즘 규정 준수 등 AI 보안의 여러 측면에서 사용자를 지원하는 것이 가능해진 만큼 클라우드 기업들은 네트워크에 항상 연결된 데이터 보안 솔루션을 구축하도록 돕고, 보다 효율적인 콘텐츠 보안 탐지 기술을 제공하는 것을 목표로 해야 한다.

2025.02.19 09:33오우양 신

'전문지식' 무장한 딥시크 R1, 일반상식 질문엔 "포기할래"

일반인도 검증 가능한 벤치마크의 필요성 AI 모델의 능력을 평가하는 벤치마크가 점점 더 전문화되면서 새로운 문제가 대두되고 있다. 웰슬리 칼리지와 텍사스 오스틴 대학 연구진들에 따르면, 현재의 벤치마크들은 대부분 PhD를 보유했거나 취득 중인 전문가들이 설계한 것으로, 일반인들은 문제 자체를 이해하기 어려울 뿐만 아니라 답이 맞는지 검증하는 것도 쉽지 않다. 이는 AI 모델이 왜 특정 문제를 어려워하는지, 답이 정확한지, 효율적으로 추론하고 있는지를 확인하기 어렵게 만든다. 연구진은 이러한 문제가 앞으로 추론 모델이 더욱 확산됨에 따라 더욱 중요해질 것이라고 지적한다. (☞ 논문 바로가기) 실제로 높은 학위 소지가 반드시 뛰어난 추론 능력을 의미하지는 않는다. 따라서 연구진은 일반적인 지식만으로도 이해할 수 있는 문제로 구성된 벤치마크가 필요하다고 주장한다. 이러한 문제는 해결하기는 어렵더라도 답을 검증하는 것은 AI와 인간 모두에게 쉬워야 한다는 것이 연구진의 설명이다. 박사급 지식은 필요 없다... NPR 퍼즐로 AI 능력 측정 연구진이 발표한 연구 논문에 따르면, 기존 AI 모델의 평가 방식을 완전히 새롭게 접근한 벤치마크가 등장했다. 지금까지의 AI 벤치마크는 대학 수준의 수학 경진대회 문제나 고난도 프로그래밍 문제, 학문적 전문 지식이 필요한 문제들로 구성되어 왔다. 그러나 NPR 선데이 퍼즐 챌린지를 기반으로 한 이 새로운 벤치마크는 전문적인 지식 대신 일반적인 상식을 활용해 AI의 성능을 측정한다. 1987년부터 방송된 이 라디오 퍼즐 프로그램은 매주 수백에서 수천 명의 청취자들이 정답을 제출할 만큼 대중적이며, 일부 퍼즐의 경우 사전이나 지도를 참고해 풀 수 있도록 명시적으로 안내하기도 한다. 오픈AI o1, 59% 정답률로 경쟁 모델 압도 이번 연구의 가장 주목할 만한 결과는 오픈AI의 o1 모델이 59%의 정답률을 기록하며 다른 모델들을 크게 앞섰다는 점이다. o3-미니는 높은 추론 노력으로 47%, 기본 설정으로는 36%를 기록했으며, 딥시크 R1은 35%의 정답률을 보였다. 추론 기능이 없는 클로드 소넷 3.5와 GPT-4o는 각각 13%와 6%로 크게 뒤처졌다. 특히 주목할 점은, GPQA(구글 검증 Q&A)와 같은 PhD 수준의 과학 문제에서는 R1, o1, o3-미니 모델들이 비슷한 성능을 보였던 것과 달리, 이번 일반 상식 벤치마크에서는 모델 간 성능 차이가 뚜렷하게 나타났다는 것이다. 595문제 중 142건 포기 선언한 딥시크R1... 실패 유형 2가지 연구진은 AI 모델들의 새로운 실패 패턴을 발견했다. 딥시크 R1의 경우 595개의 도전 과제 중 142개에서 "포기할래"라고 선언했다. 실패 유형은 크게 두 가지로 나타났다. 첫째는 '공중에서 답 끌어내기'로, 추론 과정에서 전혀 언급하지 않은 답을 최종 답안으로 제시하는 경우다. 예를 들어 "alpha에서 중간 글자를 알파벳 순으로 이전 글자로 바꾸면 aloha가 되는" 문제에서 R1은 전혀 다른 "penne"와 "penné"를 답으로 제시했다. 둘째는 '의도적 제약조건 위반'으로, "queueing"이라는 답이 부적절하다는 것을 인정하면서도 어쩔 수 없이 답으로 제시하는 경우였다. 퍼즐의 합리성 검증 연구에 사용된 퍼즐들의 난이도가 적절했는지에 대한 의문이 제기될 수 있다. 그러나 연구진이 제시한 데이터에 따르면, "alpha에서 aloha로 바꾸는" 퍼즐의 경우 370명이 정답을 제출했고, "daiquiri" 문제는 500명이 맞췄다. NPR 선데이 퍼즐 챌린지의 청취자 수가 약 400만 명으로 추정되는 것을 고려하면, 이 문제들이 도전적이면서도 충분히 풀 수 있는 수준임을 보여준다. 또한 정답자들이 대부분 동일한 답에 도달했고 오답 제출이 드물었다는 점에서, 퍼즐의 답이 명확하고 검증 가능하다는 것을 입증한다. 이는 AI 모델의 오답이 문제의 모호성이나 난이도가 아닌 모델 자체의 한계에서 비롯되었음을 시사한다. R1의 영원한 생각 현상과 32,768 토큰의 한계 연구진은 R1 모델이 특정 문제에서 사고를 멈추지 못하는 현상을 발견했다. 32,768 토큰이라는 출력 제한에도 불구하고, 50개의 도전 과제에서 R1은 추론을 완료하지 못했다. 특히 "서로 다른 13개 글자로 구성된 미국 도시 이름 찾기"와 "7글자 음식 이름에서 첫 글자를 다섯 번째 위치로 옮기면 동의어가 되는 단어 찾기(brisket → risk, bet)" 문제에서 이러한 현상이 두드러졌다. 최대 컨텍스트 창(128K)으로 실험을 진행했을 때도 각 문제에서 10번 중 2번은 추론을 완료하지 못했다. 3,000 토큰 vs 10,000 토큰: AI 추론의 최적점 발견 연구진의 추론 과정 분석 결과, 대부분의 도전 과제는 20,000토큰 미만의 추론 출력을 생성했다. 제미니 씽킹은 약 10,000토큰에서 정확도가 정체된 반면, R1은 3,000토큰 정도에서 제미니 씽킹의 성능을 추월하기 시작했다. 모델의 불확실성도 관찰되었는데, R1은 29건, 제미니 씽킹은 18건, o1-미니는 3건의 사례에서 답을 번복했다. 한 가지 흥미로운 사례로, 7개 항목을 가진 카테고리를 찾는 문제에서 R1은 정답인 '대륙'을 초반에 발견했음에도 불구하고 다른 답을 계속 탐색하다가 결국 처음 찾은 답으로 회귀하는 모습을 보였다. GPQA 9.1%에서 GSM8K 97%까지: AI 벤치마크의 현주소 최근 AI 모델들의 성능이 급속도로 발전하면서 기존 벤치마크들이 빠르게 포화상태에 도달하고 있다. GPQA의 경우 물리학, 화학, 생물학 분야의 PhD 과정 전문가들이 만든 문제들로 구성되었지만, 최신 추론 모델들은 불과 몇 달 만에 이를 정복했다. HLE(Humanity's Last Exam)는 더 광범위하고 어려운 문제들로 구성되어 있으나, 여기서도 오픈AI o1이 9.1%의 정확도를 기록했다. 수학 분야에서는 더욱 두드러진 성과를 보여, GSM8K 같은 벤치마크에서 97% 이상의 정확도를 달성했다. 그러나 이번 NPR 퍼즐 챌린지는 AI 모델들이 여전히 일반 상식 영역에서는 한계를 보인다는 것을 증명했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.19 08:36AI 에디터

AI 자율성 높아질수록 인간 역할 줄어든다…섬뜩한 경고

자율성 확대되는 AI 에이전트...2024년 말 급격히 증가 허깅페이스(Hugging Face)의 연구진들이 발표한 논문에 따르면, 대규모 언어모델(LLM)의 벤치마크 정확도가 급격히 향상되면서 2024년 말부터 자율적이고 목표 지향적인 시스템인 'AI 에이전트'가 차세대 AI 기술로 부상하고 있다. 현재 많은 AI 에이전트들은 LLM을 더 큰 다기능 시스템에 통합하여 구축되고 있다. 실제 사례로는 회의 조직, 개인화된 소셜 미디어 게시물 생성, 자율 주행, 의료 서비스, 제조업 등 다양한 분야에서 활용되고 있다. (☞ 논문 바로가기) AI 에이전트의 정의와 특성...비결정적 환경에서 맥락 특화 계획 수립 연구진은 AI 에이전트를 "비결정적 환경에서 맥락 특화된 계획을 수립할 수 있는 컴퓨터 소프트웨어 시스템"으로 정의했다. 최근 도입된 AI 에이전트들의 공통점은 일정 수준의 자율성을 가진다는 것이다. 목표가 주어지면 이를 하위 작업으로 분해하고 각각을 직접적인 인간의 개입 없이 실행할 수 있다. 예를 들어, 이상적인 AI 에이전트는 "AI 에이전트에 관한 훌륭한 ICML 논문 작성을 도와줘"라는 상위 수준의 요청을 받았을 때, 이를 자동으로 하위 작업으로 나눌 수 있다. 여기에는 인용도가 높은 ICML 논문 검색, 인터넷에서 AI 에이전트 관련 정보 수집, 그리고 수집된 내용을 바탕으로 한 개요 작성 등이 포함된다. 이러한 AI 에이전트들은 대부분 ML 모델, 특히 LLM을 기반으로 구축되어 있어 기존의 컴퓨터 소프트웨어 실행 방식과는 다른 새로운 접근 방식을 보여준다. 5단계로 구분되는 AI 에이전트의 자율성...완전 자율 단계 위험 연구진은 AI 에이전트의 자율성 수준을 세분화하여 분석했다. 가장 기본적인 단계인 단순 프로세서는 LLM 출력을 단순히 출력하는 수준에 머무른다. 그 다음 단계인 라우터는 if-then 구조를 통해 기본적인 프로그램의 흐름을 결정할 수 있다. 세 번째 단계인 도구 호출은 함수와 인자를 선택하여 실행할 수 있는 능력을 가지고 있으며, 네 번째 단계인 다단계 에이전트는 while 루프를 통해 다음 단계를 결정하고 실행할 수 있다. 마지막 단계인 완전 자율 에이전트는 사용자의 요청에 따라 독자적으로 코드를 생성하고 실행할 수 있다. 각 단계가 올라갈수록 인간의 통제력은 줄어들고 시스템의 자율성은 증가하게 된다. AI 에이전트의 핵심 가치와 위험성...안전성·정확성·신뢰성 우려 연구진이 분석한 AI 에이전트의 가치와 위험성은 다양한 측면에서 나타난다. 안전성 측면에서는 예측 불가능한 행동으로 인한 인명 피해의 위험이 존재한다. 정확성 측면에서는 LLM 기반 모델이 가진 부정확성이 자율성이 증가할수록 더욱 증폭되는 문제가 있다. 일관성 측면에서는 비결정적 특성으로 인해 결과를 예측하기 어렵다는 한계가 있으며, 효율성 측면에서는 복잡한 오류를 수정하는 데 많은 시간이 소요된다는 문제가 있다. 형평성 측면에서는 데이터의 편향성으로 인한 차별이 심화될 수 있으며, 유연성 증가는 다양한 시스템 연동으로 인한 보안 위험을 수반한다. 또한 인간친화성 측면에서는 과도한 의존과 감정적 얽힘의 위험이, 개인정보보호 측면에서는 민감 정보 노출의 위험이 존재한다. 시스템의 관련성이 높아질수록 개인화로 인한 편향이 강화될 수 있으며, 보안 측면에서는 시스템 접근 취약점이 확대된다. 지속가능성 측면에서는 높은 탄소 배출과 물 사용량이 문제가 되며, 신뢰도와 진실성 측면에서는 검증이 불가능하고 허위정보가 생성되고 확산될 위험이 있다. 자율주행차부터 자율무기까지...현재 개발되는 AI 에이전트의 현주소 현재 AI 에이전트는 다양한 분야에서 급속도로 발전하고 있다. 자율주행차의 경우 센서를 통해 환경을 인식하고 인간의 개입 없이 주행하는 수준에 도달했으며, 이는 소비자용 차량부터 완전 자율주행 테스트 환경의 차량까지 다양한 자율성 수준으로 개발되고 있다. 산업용 로봇의 경우 제조업에서 시작하여 의료 분야까지 그 영역을 확장하고 있으며, 최근에는 최신 LLM이 로봇 시스템에 통합되면서 고전적인 로봇공학이 에이전트 AI 영역으로 빠르게 편입되고 있다. 특히 우려되는 것은 자율무기 시스템의 개발이다. 이는 인간의 의미 있는 통제 없이 목표물을 식별하고 공격할 수 있는 시스템으로, 윤리적 책임성과 도덕적 책임, 안전성 측면에서 디지털 에이전트보다 더 심각한 문제를 제기한다. 인간의 목표와 맞지 않는 경우 발생할 수 있는 피해는 완전 자율성이 부여될 때 더욱 심각해질 수 있다. AI 에이전트에 대한 대립되는 관점들...완전 자율 AI의 필요성 주장도 AI 에이전트 개발을 둘러싼 학계의 의견은 크게 둘로 나뉜다. 일부 연구자들은 완전 자율 AI나 '완전한 에이전트'가 인간 지능을 더 잘 이해하는 데 도움이 될 수 있다고 주장한다. 또한 강한 AI 시스템이 인간의 오류와 비합리성을 상쇄하는 데 도움이 될 수 있다는 의견도 있다. 특히 인공일반지능(AGI) 개발을 목표로 하는 연구자들과 기업들은 AGI가 실현된다면 필연적으로 완전 자율성을 가지게 될 것이라고 전망한다. AGI 지지자들은 이를 통해 기후변화나 기아와 같은 전 지구적 문제를 해결하고 상당한 경제적 이익을 창출할 수 있다고 주장한다. 그러나 연구진은 AGI가 개발된다 하더라도 인간이 항상 일정 수준의 통제권을 유지해야 하며, 이번 연구에서 제시한 에이전트 수준 구분이 향후 AGI 개발 목표 설정에도 도움이 될 것이라고 제안했다. 반자율 시스템 도입과 인간 통제 강화로 위험 최소화해야 연구진은 완전 자율 시스템 개발의 대안으로 '반자율(semi-autonomous)' 시스템의 도입을 제안했다. 이를 위해서는 우선 AI 에이전트의 자율성 수준을 명확히 구분하고 이를 개발 과정에 반영해야 한다. 또한 기술적 수준과 정책적 수준 모두에서 강력한 인간 감독 프레임워크를 개발해야 하며, 이는 유익한 반자율 기능을 보존하면서도 의미 있는 인간의 감독을 가능하게 하는 것을 목표로 한다. 마지막으로 AI 에이전트가 의도된 작동 범위 내에서만 움직이도록 하는 새로운 안전성 검증 방법의 도입이 필수적이다. 연구진은 1980년 북미 지역에서 발생한 사례를 경고의 시그널로 제시했다. 당시 컴퓨터 시스템이 2,000여 개의 소련 미사일이 북미를 향해 날아오고 있다고 잘못 판단했고, 이로 인해 폭격기 승무원들이 비상 대기 상태에 들어가고 지휘소가 전쟁 준비에 돌입하는 상황이 발생했다. 다행히 당시에는 서로 다른 경보 시스템 간의 인간 교차 검증이 이루어져 오경보임이 밝혀졌다. 이처럼 자동화 시스템의 오류는 치명적인 결과를 초래할 수 있으며, AI 시스템에서도 인간의 판단과 맥락 이해가 필수적이라고 연구진은 강조했다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 21:54AI 에디터

"By AI는 틈새 전략, For AI는 핵심기술 선점해야"

"바이 AI(By AI)가 포 AI(For AI)보다 글로벌 특허 출원이 4.4배 많습니다." 양종필 특허청 인공지능빅데이터심사팀장은 18일 양재 엘타워에서 열린 '한국인공지능산업협회(AIIA) 2월 조찬포럼'에서 이같이 밝혔다. 이날 양 과장은 'AI 보안과 IP'를 주제로 강연했다. 바이 AI와 포 AI는 특허청이 AI보안 기술을 분류하기 위해 만든 용어다. '보안 바이AI'는 AI기술을 활용해 기존 보안시스템을 고도화, 지능화하는 것이고, '보안 포AI'는 오작동과 정보 유출을 노려 AI모델 취약점을 공격하는 것에 대응하는 걸 말한다. 바이AI 세부기술은 침입 차단 및 탐지, 안전 테스트 및 예방, SW분석 및 포렌식, 사용자 인증 등이 있다. 또 포AI 세부기술은 강건성, 보안성, 개인정보보호 등이 있다. 이 중 강건성은 AI시스템의 내부 결합(에러, 파워다운 등)에 대응해 지속적으로 AI가 동작할 수 있도록 하는 기술 및 측정 기술을 말한다. 양 팀장에 따르면 특허청 조사 결과, 바이AI는 성장기(2015년~2019년, 연 49% 성장)를 지나 성숙기(2019년~2021년, 연 1.7% 성장)에 접어들었고, 포AI는 아직 성장기가 진행중(2017년~2021년, 연 69% 성장)이다. 특히 바이AI 세부 기술 중 출원량이 가장 많은 기술은 침입 차단&탐지 기술(58.1%)로 나타났다. 이어 SW 분석&포렌식(18.9%), 사용자 인증(13.9%), 안전 테스트&예방(9.1%) 순으로 집계됐다. 반면 포AI는 출원량이 가장 많은 기술은 개인정보보호(61%)고 보안성(28,3%), 강건성(10.7%)이 뒤를 이었다. 출원 증가율을 보면, '보안 바이AI'가 2017~2021년 5년간 연평균 21.5% 성장을 보인 반면,'보안 포AI'는 같은 기간 연 평균 68.1%의 가파른 성장을 보였다. AI보안의 국가별 특허 출원 실적은 미국이 41.7%로 세계 1위였고 중국이 40%로 근소하게 2위였다. 한국은 6.7%로 4위, 유럽이 7.5%로 3위, 일본이 4.1%로 5위였다. 또 AI보안을 출원인별로 보면 세계 톱 10중 9곳이 미국 기업이였고, 한국기업은 1곳이였다. 양 팀장은 "AI보안은 사이버 보안 및 인공지능의 융합기술"이라면서 "글로벌 주요 기업 대비 국내 기업들의 기술 개발 및 투자 격차가 존재하는데, 국내는 대기업과 대학 및 연구기관이 주도하고 있는데 AI보안 분야 스타트업 지원 정책이 필요하다"고 강조했다. 이어 한국의 AI 보안 특허시장은 미국,중국에 비해 규모가 열세라면서 "국내 특허 시장 매력을 높이기 위한 법적 보호 체계 강화와 국제 인지도 제고 등이 필요하다"고 말했다. 기술 성숙도에 따른 차별화 전략도 짚었다. 즉 바이AI는 틈새 전략이, 포AI는 핵심기술을 선점해야 한다는 것이다.

2025.02.18 21:07방은주

AI 제안을 무조건 따르나요…EU가 경고하는 '자동화 편향성'

15%에 달하는 AI 시스템이 고위험...EU, 자동화 편향성 첫 법제화 옥스포드 인터넷 연구소의 요한 로욱스(Johann Laux)와 하겐대학교의 한나 루셰마이어(Hannah Ruschemeier) 교수가 발표한 연구에 따르면, 유럽연합(EU)의 AI법(AI Act)은 인공지능 시스템을 감독하는 인간의 편향성 문제를 처음으로 법제화했다. EU 집행위원회는 EU 시장의 AI 시스템 중 5-15%가 고위험 시스템으로 분류될 것으로 예상했다. 특히 AI법 제14조는 고위험 AI 시스템에 대한 인간의 감독을 의무화하면서, '자동화 편향성(Automation Bias)'이라는 심리적 현상을 명시적으로 언급했다. (☞ 논문 바로가기) 유럽의회 경고...2021년 AI법 초안에 자동화 편향성 포함 AI법의 입법 과정을 보면, 2021년 4월 21일 위원회 초안에서 처음으로 자동화 편향성이 언급됐다. 유럽의회는 "AI 역량이 보안 위험을 초래할 수 있으며, 인간이 자신의 판단보다 AI를 더 신뢰하게 될 수 있다"고 경고했다. 또한 "실험 결과가 보여주듯이, 이는 AI의 자율성 수준을 원래 설계된 지원 역할 이상으로 높일 수 있으며, 인간이 AI 시스템에 대한 경험과 지식을 쌓을 기회를 놓치게 된다"고 지적했다. 의료에서 국가안보까지...자동화 편향성이 영향 미치는 10개 분야 자동화 편향성은 다양한 분야에서 확인됐다. 연구진이 밝힌 주요 영향 분야는 의료, 군사, 인사관리, 국가안보, 공공행정, 교육, 공공계약 입찰, 망명 심사, 형사 소송, 민주적 절차 등이다. 발생 원인으로는 사용자의 피로도, 성실성, 결과에 대한 책임, 교육 수준, 정보 제시 방식, 시스템 인터페이스 설계, 환경적 제약, 업무 부하, 과제 복잡성, 사회적 환경 등이 복합적으로 작용한다. 채용 AI 사례로 본 편향성 판단의 어려움...여성 선발률 75%가 불공정한가? 연구진은 채용 AI 시스템 사례를 통해 편향성 판단의 복잡성을 설명했다. AI 시스템 공급자는 불공정 여부를 판단하기 위한 기준으로 '소수 그룹의 선발률이 최고 선발률의 80% 이상이어야 한다'는 자체 기준을 제시했다. 전체 지원자가 남녀 각각 10명일 때, 여성 3명(30%)과 남성 4명(40%)이 면접 대상자로 선발된 경우를 보자. 여성 선발률이 남성 선발률의 75%로, 공급자가 제시한 80% 기준에 미달해 수치상으로는 불공정하다. 그러나 연구진은 이런 통계적 증거만으로는 실제 불공정 여부를 판단하기 어렵다고 지적했다. AI법 제14조에 따르면 인간 감독자는 단순히 AI 공급자가 제시한 통계적 기준이 아닌, EU 차별금지법의 요구사항을 고려해야 한다. EU 차별금지법은 지금까지 통계적 증거보다는 맥락과 사법적 직관에 더 의존해왔다. 즉, 공급자의 통계적 기준을 충족하지 못했더라도, 구체적인 상황과 맥락을 고려했을 때는 해당 채용 과정이 공정하다고 판단될 수 있다는 것이다. 이는 편향되지 않은 '참된 결과'를 정의하는 것이 얼마나 어려운지를 보여주는 사례다. AI법 제6조의 허점...인간 검토만 있으면 고위험 제외 AI법 제6조(3)은 중요한 보호의 공백을 만들 수 있다고 연구진은 지적했다. 이 조항에 따르면 "적절한 인간 검토 없이 이전 평가를 대체하거나 영향을 미치지 않는" AI 시스템은 고위험으로 분류되지 않는다. 하지만 시스템이 단순히 '지원' 역할만 한다고 해도 자동화 편향성으로 인해 인간이 AI의 제안에 과도하게 의존할 수 있다. 더욱이 AI의 영향을 받지 않았다는 것을 증명하기도 어렵다. 이는 사전 검토 없이 공급자의 자체 평가에만 의존하기 때문에 상당한 보호의 공백이 생길 수 있다는 것이 연구진의 분석이다. AI 불신도 문제...과잉수정이 가져올 수 있는 부작용 자동화 편향성을 막으려는 조치들이 오히려 AI 시스템에 대한 과도한 불신을 초래할 수 있다고 연구진은 경고했다. 이러한 과잉수정은 AI 도입으로 얻을 수 있는 이점을 저해할 수 있다. AI법 제14조는 이런 맥락에서 해석될 수 있는데, AI 시스템의 제안을 잘못 거부하는 것이 잘못 수용하는 것보다 덜 문제가 된다는 규범적 선택을 반영한다는 것이다. 이는 인간의 자율성을 우선시하되, 그 대가로 발생할 수 있는 인간의 실수를 감수하겠다는 의미로 해석된다. EU GDPR과의 관계...AI 감독자 인식 개선만으로는 부족 AI법은 GDPR(일반 데이터 보호 규정)과 함께 적용된다. 최근 유럽사법재판소의 SCHUFA 판결에 따르면, AI법 제14조와 제26조의 요구사항을 충족하더라도 GDPR 제22조의 자동화된 결정으로 간주될 수 있다. 즉, 형식적으로 책임자에게 결정 권한이 있더라도, 최종 결정이 자동화된 이전 결정에 크게 의존한다면 자동화된 결정으로 볼 수 있다는 것이다. 골드 스탠다드는 실험적 검증...비용 문제로 전면 도입은 난관 연구진은 자동화 편향성 방지를 위한 최선의 방안으로 실험적 검증을 제시했다. 특정 감독 체계에서 자동화 편향성이 발생할 가능성을 경험적으로 테스트하는 것이다. 대안으로는 현재의 과학적 연구 결과를 반영한 체크리스트 도입을 제안했다. 다만 실험적 검증은 모든 고위험 AI 시스템에 적용하기에는 비용이 많이 든다는 한계가 있다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.02.18 20:17AI 에디터

머스크의 '그록3', 추론-미니 추론 2종 나와…1주일 후 음성 모드 추가

테크크런치(TechCrunch)가 19일(현지 시간) 보도한 내용에 따르면 일론 머스크의 인공지능 기업 엑스AI(xAI)가 17일(현지시간) 새로운 AI 모델 '그록3(Grok 3)'을 공개했다. 이와 함께 그록 iOS 앱과 웹 앱의 새로운 기능도 선보였다. 그록3는 오픈AI(OpenAI)의 GPT-4o와 구글(Google)의 제미나이(Gemini)에 대항하는 모델이다. 이미지 분석과 질문 응답이 가능하며, 머스크의 소셜 네트워크 X(구 트위터)의 다양한 기능을 지원한다. 엑스AI는 멤피스에 위치한 대규모 데이터센터에서 약 20만 개의 GPU를 활용해 그록3를 학습시켰다. 머스크는 X를 통해 "그록3가 이전 모델인 그록2보다 10배 더 많은 컴퓨팅 파워로 개발됐다"고 밝혔다. 그록3는 '그록3 추론(Grok 3 Reasoning)'과 '그록3 미니 추론(Grok 3 mini Reasoning)' 등 여러 모델로 구성됐다. 이들은 오픈AI의 o3-미니(o3-mini)와 중국 딥시크(DeepSeek)의 R1처럼 문제를 '사고'하며 해결하는 기능을 갖췄다. 또한 '딥서치(DeepSearch)'라는 새로운 기능을 통해 인터넷과 X 플랫폼을 검색하여 질문에 대한 요약된 답변을 제공한다. X 프리미엄플러스(Premium+) 구독자($50/월)가 그록3를 먼저 사용할 수 있다. 추가 기능은 '슈퍼그록(SuperGrok)' 요금제($30/월 또는 $300/년)를 통해 이용 가능하다. 머스크는 "약 1주일 후에 음성 모드가 추가되고, 몇 주 후에는 기업용 API를 통해 그록3 모델과 딥서치 기능을 제공할 계획"이라고 밝혔다. 또한 "그록3가 안정화되면 그록2를 오픈소스로 공개할 예정"이라고 덧붙였다. 엑스AI는 그록3가 수학 문제 평가 벤치마크인 AIME와 박사급 물리, 생물, 화학 문제를 평가하는 GPQA에서 GPT-4o를 능가했다고 주장했다. ■ 기사는 클로드 3.5 소네트와 챗GPT-4o를 활용해 작성되었습니다.

2025.02.18 20:13AI 에디터

합성 데이터로 탄생한 '그록3'…환각·결함 우려 괜찮나

xAI가 출시한 인공지능(AI) 모델 '그록3' 성능에 대한 우려가 나왔다. 모델 데이터 상당수가 합성데이터로 구성돼 결함과 환각 현상을 높일 수 있다는 염려 때문이다. 이에 오픈AI를 비롯한 구글, 딥시크를 뛰어넘는다는 xAI 주장에 의문점이 생겼다. 18일 업계에 따르면 일론 머스크 테슬라 최고경영자(CEO)가 '지구상에서 가장 똑똑한 모델'이라며 출시한 그록3 성능에 대해 이같은 의문이 제기된 것으로 전해졌다. xAI는 소셜미디어 X(엑스) 라이브 시연을 통해 새 모델 그록3 베타버전과 미니버전을 공개했다. 공식 버전과 그록3 API, 딥서치 기능은 추후 배포 예정이다. xAI 연구진은 "그록3가 대량의 합성 데이터셋과 자체 오류 수정, 강화 학습을 통해 그록2보다 정교한 결과를 제공한다"고 라이브 시연을 통해 자신했다. 특히 논리적 추론, 연산 능력, 적응력이 기존 대비 대폭 향상됐다고 평가했다. 그러면서 "대규모 그래픽처리장치(GPU) 자원을 추가해 방대한 데이터셋을 더 짧은 시간 안에 처리했다"며 "정확도까지 높였다"고 덧붙였다. AI 업계에서는 그록3이 학습한 데이터셋 다수가 합성이라는 점을 우려했다. 합성데이터가 모델 결함을 높이고 환각 현상을 높일 수 있기 때문이다. 합성데이터는 실제 데이터 특성·분포를 모방해 인공적으로 생성된 데이터다. 보통 AI 모델서 나온 결과물을 다시 모델에 넣어 재활용되는 식으로 쓰인다. 생성형 AI 모델 개발에 필요한 데이터가 곧 고갈될 것이란 전망이 나온 가운데 합성데이터가 대안으로 떠오르고 있다. 다만 품질이 낮거나 오류를 생성하는 합성데이터가 모델에 들어갈 경우 모델 자체 성능을 떨어뜨릴 수 있다. 이같은 우려는 이미 학계에서 거론된 바 있다. 지난해 옥스퍼드대 연구진은 합성데이터가 모델 결함을 증가시키고 환각 현상을 초래할 수 있다고 경고했다. 모델이 소량의 합성 데이터만 학습해도 성능에 큰 영향을 줄 가능성이 있다는 지적이다. 한 업계 관계자는 "합성데이터를 반복적으로 사용할 경우 오류 전파(Error Propagation)로 인해 현실과 괴리가 심해질 것"이라고 지적했다. 그러면서 "합성 데이터로 모델 사이즈를 늘리는 것보다 데이터 품질이 얼마나 좋은지가 관건일 것"이라고 덧붙였다. 그록3, GPT보다 정말 똑똑할까 해외 업계에서는 그록3가 오픈AI, 구글 등 타사 모델을 실제 능가했을지 의문이라는 분위기다. 최근 그록3를 개발에 참여한 개발자가 해당 모델 성능을 낮게 평가하는 게시글이 퍼지면서다. 벤자민 데크라커 전 xAI 개발자는 "그록3이 코딩 측면에서 오픈AI의 ChatGPT o1, o1프로, o3미니 모델만큼 뛰어나지 않다"는 의견을 소셜미디어 X에 게시했다. xAI는 해당 게시글이 회사 기밀 정보를 포함한다고 주장하면서 삭제를 요청했다. 이에 데크라커는 "단순한 개인 의견일 뿐이며 게시글 삭제를 강요받아 사임을 결정했다"고 해외 언론에 밝혔다. 반면 xAI는 이번 라이브 시연에서 그록3가 과학, 코딩, 수학 분야에서 오픈AI '챗GPT-4o'를 비롯한 구글 '제미나이 2.0 프로', 딥시크 '딥시크 V3'보다 더 높은 점수를 기록한 벤치마크 결과를 공개했다. 업계 관계자는 "공식 버전이 내놓는 결과물을 봐야 한다"며 "벤치마크에서 모든 모델 성능을 능가했다는 결과도 무의미하다"고 평가했다.

2025.02.18 19:37김미정

  Prev 81 82 83 84 85 86 87 88 89 90 Next  

지금 뜨는 기사

이시각 헤드라인

수십년 된 공공SW 관행, 이젠 바꿔야...AI·SW 기반 국가전략 필요

[인터뷰] "퀄컴 40주년, AI 컴퓨팅 기업으로 거듭날 것"

美 '팍스이스트2025' 찾은 韓 게임...붉은사막-갓 세이브 버밍엄 눈길

SKT, 12일부터 유심포맷 도입..."인증서 그대로 쓰고 유심 교체"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현