• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 레드팀'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI가 준 피해, 어디까지 감수할 수 있나"…정부, AI 서울 정상회의서 논의

"인공지능(AI) 위험성 범위는 무한대다. 인류는 AI로 인한 피해를 어디까지 감수할지 알아야 한다. 그래야 피해를 막을 수 있다. 각국 정부가 'AI 리스크 용납 범위'를 정해야 하는 이유다. 이는 내달 서울서 열리는 'AI 서울 정상회의' 주요 주제다." 크리스 메세롤 프론티어모델포럼 대표는 과학기술정보통신부와 네이버클라우드가 이달 11일부터 12일까지 서울 코엑스에서 개최한 'AI 레드팀 챌린지' 기조연설을 통해 내달 한국과 영국이 공동 진행하는 AI 서울 정상회의 핵심 주제를 알리며 이같이 밝혔다. 정부는 내달 21일부터 이틀간 AI 서울 정상회의를 공동개최한다고 밝힌 바 있다. 지난해 11월 영국서 처음 열린 행사다. 각국 정부는 행사에서 AI 안전 역량 강화 방안 공유, 지속 가능한 AI 발전 방안에 협의할 방침이다. 다만 구체적으로 안전성 논의를 어떻게 할 것인지 알려지지 않았다. 이를 크리스 메세롤 대표가 미리 귀띔한 셈이다. 메세롤 대표는 "AI 위험성이 언제, 어느 시점에서 나타날지 모른다"며 "사람은 100% 안전한 AI를 활용할 수 없다"고 설명했다. 또한 "각국 정부는 AI로 인한 위험을 어디까지 감수할 수 있는지 범위를 정해야 한다"며 "'AI 리스크 임계값' 설정이 시급하다"고 재차 강조했다. AI 리스크 임계값이란 인류가 현재 용인할 수 있는 AI 위험성 최대 수준을 뜻한다. 현대사회가 어느 범위까지 AI 위험성을 감수할 수 있는지 알린다. 예를 들어, 임계값이 10으로 정해졌을 경우, 현재 인류는 지표 10을 넘지 않는 범위 내에서만 AI 위험을 감수할 수 있다는 뜻이다. 10을 넘으면 인류는 AI로 인해 피해를 크게 입는다. 크리스 메세롤 대표는 올바른 AI법 규정을 위해서라도 AI 위험성 용납 범위를 설정해야 한다고 했다. 그는 "일단 임계값이 정해지면, 사람은 정해진 범위 내 발생할 수 있는 위험을 예상할 수 있다"며 "이를 사전에 막을 수 있는 AI법이나 정책을 정확히 만들 수 있다"고 설명했다. "정부·기업, AI 취약점 공유 채널 만들어야...모델 상용화 가능 기준도" 메세롤 대표는 각국 정부와 기업이 AI 위험성을 실시간 공유해야 한다고 말했다. 이를 위한 채널도 필요하다고 했다. 그는 "정부와 기업은 AI 보안 취약점을 미리 공유하는 채널이 필요하다"며 "일반 사용자에게 취약점을 공개하기 전에 정부와 기업이 취약점을 보완해야 한다"고 강조했다. 이어 "민간 해커는 공개된 취약점을 볼모로 삼아 AI 제품이나 서비스를 악용한다"며 "선 수정, 후 공지가 안전한 사이버 환경 조성을 돕는다"고 했다. AI 모델 시장 진출 가능 범위도 설정해야 한다고 했다. 지나치게 위험한 AI 모델이 상용화되지 못하도록 막는 조치다. 메세롤 대표는 "AI 모델은 믿을 수 없이 강력해지고 있다"며 "특수한 역량을 갖춘 모델이 무분별하게 시장에 나오지 못하도록 특정 범위를 설정해야 한다"고 강조했다. 이어 "전체적인 사회적 접근법을 통해 각국 정부와 기업이 AI 위험성에 대한 범위 설정에 합의를 봐야 한다"며 "이는 5월 AI 서울 정상회의서 깊게 다뤄질 내용일 것"이라고 덧붙였다. 프론티어모델포럼은 오픈AI를 비롯한 구글, 마이크로소프트, 앤트로픽이 모여 지난해 출범한 포럼이다. 안전하고 책임감 있는 AI를 보장하는 그룹이다. AI 잠재적 위험성을 파악하고 이를 방지하기 위한 방법을 찾는 게 임무다. 이를 통해 AI 안전 표준을 마련한다.

2024.04.14 09:15김미정

"AI 모델, 클수록 위험성 증가…AI 안전성 강화해야"

"인공지능(AI) 기술이 어디까지 영향 미칠지 아무도 모른다. 확실한 건 AI가 발전할수록 안전성은 더 낮아진다는 점이다. 각국이 나서서 AI 안전성을 강화해야 하는 이유다" 크리스 메세롤 프론티어 모델 포럼 대표는 과학기술정보통신부와 네이버클라우드가 12일 개최한 'AI 레드팀 챌린지' 기조연설에서 AI 발전에 맞는 안전 시스템을 구축해야 한다고 강조했다. AI 기술이 어디까지 영향을 미치는지, 부작용은 무엇인지 불확실하다는 이유에서다. 프론티어 모델 포럼은 오픈AI를 비롯한 구글, 마이크로소프트, 앤트로픽이 모여 구축한 포럼이다. 지난해 출범했다. 안전하고 책임감 있는 AI를 보장하는 단체다. AI 잠재적 위험성을 파악하고 이를 방지하기 위한 방법을 찾는 역할을 맡았다. 이를 통해 AI 안전 표준을 마련한다. 메세롤 프론티어 모델 포럼 대표는 "생성형 AI 기술은 계속 발전할 것"이라며 "이는 부정적인 영향을 초래할 수 있다"고 지적했다. 사람은 기술 발전으로 편리함을 누릴 수 있지만, 해당 기술이 어떤 위험성을 가졌는지 모른다는 이유에서다. 그는 "AI 위험성이 언제, 어느 시점에서 나타날지 모른다"며 "사람은 100% 안전한 AI를 활용할 수 없다"고 설명했다. 포럼 대표는 생성형 AI가 여러 분야에 위험성을 내포하고 있고 말했다. 그는 "분야마다 대응할 수 있는 시스템을 구축해야 한다"며 "핵 개발, 군사 등 특정 분야엔 이에 대한 주의가 더욱 필요하다"고 전했다. 개인맞춤형 AI도 안전하지 않다고 했다. 그는 "이는 사용자 정보에 기반해 결과물을 생성한다"며 "설득력을 좀 더 높여서 환각 현상을 부추길 수 있다"고 했다. 그는 현재 프론티어 모델 포럼이 추진하는 AI 안전성 방안을 소개했다. 우선 해로운 데이터를 모델에 학습하지 않는 기술을 채택하는 법이다. 그는 "모델이 생화학 무기 제조법을 알고 있는 상황에 해당한다"며 "관련 데이터셋을 기술적으로 제거하는 방식 필수"라고 했다. AI가 비윤리적이고 해로운 주제에 접근조차 할 수 없도록 막아야 한다는 의미다. 레드티밍 강화도 필요하다고 했다. 그는 "다만 확실하게 위협모델을 파악해야 한다"며 "위협을 감지하는 AI 시스템과 인간 개발자 협업을 통해 이룰 수 있다"고 강조했다. 그는 "현재 멤버는 기업 4곳뿐"이라며 "앞으로 가입을 원하는 AI 기업은 어디든 환영이다"고 강조했다. 스태빌리티AI "데이터셋은 '블랙박스'…AI탈중앙화 시급" 에마드 모스타크 전 스태빌리티AI CEO는 모델에 들어가는 데이터셋 형식와 내용, 출처 등 모든 정보를 공개해야 한다고 주장했다. 이를 통해 AI의 탈중앙화를 이루고 AI 안전성과 윤리를 높여야 한다는 말이다. 모스타크 전 스태빌리티AI CEO는 데이터셋이 모델 품질을 결정한다고 주장했다. 그는 "현재 데이터셋은 블랙박스 형태"라며 "모델이 어떤 데이터를 학습하고 있는지 아무도 모른다"고 말했다. 그는 "데이터 학습 수준이 높아야 결과 수준도 높다"며 "모델이 무슨 데이터를 학습하는지 알아야 하는 결정적 이유"라고 했다. 그는 AI탈중앙화가 시급하다는 입장이다. AI탈중앙화를 통해 사용자는 모델에 들어가는 데이터셋을 결정할 수 있다는 설명이다. 모델 사용자들끼리 데이터셋 형태, 내용, 품질 등을 스스로 판단한 뒤 투표를 진행하는 식이다. 사용자는 자국 문화와 가장 연관 깊은 데이터셋을 선택하거나, 자신의 분야를 가장 잘 아는 데이터셋에 투표할 수 있다. 투표를 가장 많이 받은 데이터셋이 모델에 들어간다. 그는 "모델 이용자는 데이터에 어떤 편향이 들어가 있는지, 누가 알고리즘에서 소외됐는지 파악할 수 있다"고 덧붙였다. 그는 현재 AI 생태계가 매우 중앙집중화돼 있다고 지적했다. 오픈소스 모델이 증가했지만 그 안에 들어가는 데이터셋 접근은 제한된 상태기 때문이다. 그는 "데이터셋 접근 차단은 AI 생태계를 경직화한다"고 했다. 그는 AI 안전성과 윤리를 강화하기 위해 AI탈중앙화가 가장 시급하다는 입장이다. 그는 "모든 사람이 평등한 위치에서 데이터셋 내부를 투명하게 볼 수 있고 감시, 해석할 수 있는 AI를 누리길 바란다"고 전했다. 그는 지난달 자신이 세운 스태빌리티AI에서 퇴사했다. 모스타크 전 CEO는 "누구나 모델 내 데이터셋을 볼 수 있는 AI탈중앙화를 진행할 수 있는 기업을 세울 것"이라며 "블랙박스 안에 갇힌 AI 생태계는 바람직하지 않다"고 했다. 코히어 "고객사와 꾸준한 소통, AI 안전성 높여" 에이단 고메즈 코히어 CEO는 자사 개발자와 고객의 꾸준한 소통이 AI 안전성을 높이는 지름길이라고 주장했다. 고메즈 코히어 CEO는 고객과 꾸준한 소통을 통해 제품을 만든다고 했다. 예를 들어, 고객사에 AI 챗봇을 제공할 경우, 어떤 약관을 챗봇에 넣어야 하는지 논의를 통해 결정한다. 그는 "챗봇이 사람인 척을 못 하게 하는 등 최대한 거대언어모델(LLM)을 훈련함으로써 악용 사례를 막고 있다"고 강조했다. 이 외에도 편견 방지, 비윤리적 주제 대화 등 여러 방식을 통해 AI 안전에 힘쓴다는 입장이다. 코메즈 CEO는 AI 발전과 안전성 고려를 균형감 있게 추진해야 한다고 했다. 그는 "AI가 아무리 빨리 발전해도 갑자기 대재앙을 일으킬 정도는 아니다"며 "인간은 AI의 리스크에 적절히 대응할 것으로 믿는다"고 했다. 다만 AI 발전 위한 규제는 어느 정도 필요하다고 봤다. 그는 "요즘 기업들조차도 적절한 AI 규제를 원하는 추세"라며 "이를 통해 AI 개발사는 어떤 트렌드에 맞춰서 제품을 개발해야 할지 판단할 수 있기 때문"이라고 설명했다. 반면 규제가 지나칠 경우 AI 혁신은 지체될 수 있다는 입장을 밝혔다.

2024.04.12 18:26김미정

"국내 AI모델, 정말 안전할까"…직접 확인하는 행사 열린다

정부가 국내 거대언어모델(LLM)의 윤리성과 안전성 향상을 위한 행사를 개최한다. 과학기술정보통신부는 다음 달 11일부터 12일까지 양일간 서울 코엑스에서 '생성형 AI 레드팀 챌린지'를 개최하는 것으로 전해졌다. AI윤리 안전에 관심있는 사람은 누구나 참가할 수 있다. 신청자는 행사 전 간단한 가이드라인을 미리 제공받을 수 있다. AI 레드팀은 AI의 윤리성·안전성을 집중적으로 테스트하는 팀이다. 현재 LLM 보유기업인 네이버, 오픈AI, 구글 등이 내부에 꾸린 팀이다. 이 팀은 고의로 자사 모델에 악의점 프롬프트를 입력하거나 해킹하는 작업을 한다. 이를 통해 AI 모델의 잠재적 위험성과 취약점을 발견한다. 기업은 레드팀의 테스트 결과를 토대로 모델을 수정해 안전성을 끌어올린다. 챌린지 참가자는 이러한 레드팀 역할을 직접 경험할 수 있다. 참가자는 네이버 '하이퍼클로바X', 포티투마루 'LLM42' 등 국내 기업의 LLM 대상으로 모델 윤리성·안전성을 테스트한다. 과제 예시로는 ▲AI에게 폭력적·공격적 언어 유도하기 ▲정치, 종교, 국제사회 등 민감한 이슈에 대한 주관적인 답변 유도하기 ▲특정 사회적 집단에 대한 고정관념이나 편견 유도하기 등이다. 참가자는 주어진 문제에 따라 LLM을 임의로 선택해 미션을 완료하기만 하면 된다. 심사를 통해 악의적 프롬프트를 가장 많이 발견한 팀은 상도 받는다. 대상 1명은 과기정통부장관상과 상금 500만원을, 우수상 3명은 한국정보통신기술협회장상 등과 상금 300만원을 각각 받는다. 이번 행사를 주최하는 정부 관계자에 따르면, 챌린지 소스 결과물은 시중에 공개되지 않는다. LLM 개발사만 자사 결과물을 받을 수 있다. 개발사는 이를 통해 자사 모델 안전성을 한번 더 검증하는 기회를 얻을 수 있다. 12일에는 AI 컨퍼런스를 진행한다. 국내외 LLM 개발사 임원진이 모여 LLM 개발과 적용의 흐름, 윤리 안전에 대한 이슈를 집중적으로 다룬다. 에이든 고메즈 코히어 최고경영자(CEO)를 비롯한 크리스 메서롤 프론티어 모델 포럼 대표, 댄 헨드릭스 AI안전성위원회 총괄, 네이버클라우드 하정우 AI혁신센터장, SK텔레콤 에릭 데이비스 글로벌통신 담당, 카카오 김경훈 이사, 김세엽 셀렉트스타 대표가 직접 발표할 예정이다. 행사 관계자는 "이번 행사가 데이터 보안과 신뢰성 평가에 대한 인사이트를 제공하는 자리가 되길 바란다"고 했다.

2024.03.17 12:24김미정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현