• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'제프리 힌턴'통합검색 결과 입니다. (2건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"100년 내 인간 멸종 가능성 99.9%"…10년 내 AI 킬러 등장 예언 속 섬뜩한 경고 잇따라

"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다." 로만 얌폴스키 루이빌대 사이버보안연구소 교수가 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다. 6일 비즈니스인사이더 등 외신에 따르면 AI 전문가인 얌폴스키 교수는 지난 4일 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연해 "AI가 인류를 멸망시킬 가능성은 인간이 향후 100년 안에 버그 없이 고도로 복잡한 소프트웨어를 만들 수 있는지에 달려 있다"고 주장했다. 그러면서 "하지만 AI 모델이 의도하지 않은 작업을 안전하게 수행하도록 만들 수 없기에 사고를 피할 가능성은 낮다"며 "AI는 이미 실수를 저질렀는데 사고나 탈옥을 경험하기도 했고, 개발자가 의도하지 않은 일을 성공적으로 수행한 대형언어모델(LLM)은 하나도 없을 것"이라고 덧붙였다. 또 그는 "인공일반지능(AGI)이 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 강조했다. AGI는 인간 수준의 사고가 가능해 주제에 구애받지 않고 성공적으로 문제를 해결할 수 있는 AI다. 이에 일각에선 향후 인간이 AI를 통제하는 것이 사실상 불가능하고 안전성과 관련된 문제가 필연적으로 발생할 수밖에 없다고 보고 있다. 얌폴스키 교수는 결국 인류의 운명이 3가지 중 하나일 것으로 관측했다. ▲AI가 모두를 죽이는 상황 ▲AI로 인해 모두가 고통받고 차라리 죽기를 바라는 상황 ▲모든 인간이 목적을 완전히 상실하는 상황 등이다. 얌폴스키 교수뿐 아니라 많은 전문가들은 AI가 일자리를 빼앗고 창의적으로 발전해 앞으로는 인간의 존재 가치가 없어질 것이라는 지적을 내놓고 있다. 앞서 AI 정책 조언 등을 제공하는 민간 업체 글래드스톤 AI가 지난 3월 미국 국무부의 의뢰로 작성한 보고서에선 미국 연방 정부가 AI로 인해 재앙을 피할 수 있는 시간이 얼마 남지 않았다고 경고했다. 보고서는 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기(WMD) 전문가, 국가안보 정부 당국자 등 200여 명을 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다. 보고서는 "최첨단 AI 시스템이 향후 돌이킬 수 없는 피해를 가할 가능성이 있는 무기로 전용될 가능성이 있다"며 "어느 시점이 되면 인간이 개발 중인 AI 시스템에 대한 통제력을 상실해 잠재적으로 세계 안보에 파괴적인 결과를 초래할 수 있다"고 경고했다. 이어 "AI와 AGI의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다"며 "AI 군비 경쟁과 분쟁, 대량살상무기 규모의 치명적인 사고의 위험이 있다"고 덧붙였다. 'AI 대부'로 불리는 제프리 힌턴 캐나다 토론토대 명예교수는 더 섬뜩한 예언을 내놨다. 지난 3월 일본 니혼게이자이신문과의 인터뷰에선 "AI에 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"며 "10년 내 자율적으로 인간을 죽이는 로봇 병기가 등장할 것"이라고 주장했다. 최근에는 오픈AI와 구글 전·현직 직원들도 AI의 급속한 발전에 대한 우려를 표하는 성명을 발표했다. AI의 위험성을 다루기엔 기업의 내부 규제 시스템에 기대는 것만으로는 부족해 AI와 관련된 사법 체계가 구축돼야 한다고 강조했다. 이들은 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"며 "기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인류의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양한 위험이 도사리고 있다"고 말했다. 이어 "AI 기업은 기술로 인해 발생하는 다양한 종류의 위험에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 또는 사회와 공유할 의무가 약하다"며 "우리는 이러한 기술을 모두 신뢰할 수 있다고 생각하지는 않는다"고 덧붙였다. 이 때문에 AI를 제어하기 위한 방안 마련을 위한 움직임도 곳곳에서 나오고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다. 영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO) 는 최근 개최한 컨퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목 받았다. 반면 일각에서는 이 같은 주장들이 너무 비관적이라고 지적했다. 유명 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연한 다수 AI 전문가들은 AI의 인간 멸종 가능성을 1~20%로 예상했다. 또 옥스포드대학교가 최근 실시한 과학자 2천778명 대상 설문 조사에서는 5%에 불과하다는 결과가 나왔다. 아르빈드 크리슈나 IBM 최고경영자(CEO)는 지난달 미국에서 열린 '밀컨 글로벌 콘퍼런스'에 참석해 AI 기술에 대한 정부 규제를 비판하며 "규제를 과도하게 하면 혁신이 (규제 범위 안에서) 융화돼 경쟁을 저해할 수 있다"며 "과도한 규제는 규제를 하지 않는 것보다 더 나쁘다"고 피력했다.

2024.06.06 10:32장유미

"인간 노린 AI 무기, 오펜하이머 모멘트"…해외서 규제 논의 본격화

"향후 10년 이내에 자율적으로 인간을 죽이는 로봇 무기가 등장할 것으로 보고 있습니다." 인공지능(AI) 분야 대부로 불리는 제프리 힌턴 캐나다 토론토대 명예교수가 최근 이처럼 경고한 가운데 각국 전문가들이 이를 규제하기 위한 방안 마련을 위해 머리를 맞댔다. 30일 블룸버그 통신에 따르면 최근 100개국 이상의 민간, 군사, 기술 관계자들은 지난 29일 오스트리아 비엔나에서 AI와 군사 기술 결합을 경제적으로 제재할 방안을 마련하기 위해 모였다. 전쟁이 벌어지고 있는 우크라이나와 팔레스타인 가자 지구를 중심으로 최근 자율 무기 시스템이 빠르게 확산되고 있어서다. 실제 우크라이나군은 개전 후 두 달 만에 460대에 달하는 러시아 전차와 2천 대에 육박하는 장갑차를 무인기를 통해 파괴했다. 러시아 역시 AI 시각 식별(AIVI) 기술로 표적을 실시간으로 분류하는 KYB-UAV 등을 통해 우크라이나 군의 기동력을 효과적으로 봉쇄했다. 세계 최초로 AI 기반 완전자율 차량을 실전 배치한 이스라엘은 이미 2016년부터 팔레스타인 가자지구와의 경계 지역에 중형 화기를 탑재한 군용 무인 차량을 투입했다. 또 병사와 로봇 차량으로 이뤄지는 혼성 전투부대도 편성한 바 있다. 업계에선 심각한 병력 수급 문제를 겪고 있는 현 상황에서 군사용 AI의 도입은 효율적인 자원관리와 전투력 강화를 위한 필연적인 선택지라고 봤다. 하지만 각 규제 당국은 AI를 활용한 킬러 로봇의 위험성을 인지하고 통제하려는 움직임을 점차 드러내고 있다. 이번 비엔나 회담에서 알렉산더 샬렌베르크 오스트리아 외무장관은 지난 1945년 원자폭탄 발명을 도운 뒤 핵무기 확산 통제를 주장한 J. 로버트 오펜하이머를 언급하며 "지금이 우리 시대의 오펜하이머 순간"이라고 말했다. 알파벳 AI 플랫폼 '딥마인드'의 초기 투자자인 얀 탈린도 기업들이 AI 사업을 키우기 위해 재정적 지원에 나서는 것과 함께 글로벌 갈등이 확산되면서 '킬러 로봇'을 통제해야 할 필요가 더 커졌다고 경고했다. 앞서 얀 탈린은 "AI는 약간만 발전해도 큰 돈과 연결된다는 특성이 있다"며 "AI 산업의 리더가 경고에 주의를 기울이지 않으면 인류에게 진정한 위험이 될 수 있다"고 주장한 바 있다. 현재 전 세계 정부는 AI 도구를 국방에 통합하는 기업과 협력하기 위한 움직임에 적극 나서는 모습이다. 미국 국방부는 AI 스타트업에 수 백만 달러를 쏟아 붓고 있고, 유럽연합(EU)는 지난주 탈레스 SA에 전장 표적을 평가하는 데 도움이 되는 이미지 데이터베이스를 구축하기 위한 비용을 지불했다. 중국도 적극적인 모습이다. '군민융합전략요강'을 통해 최근 광범위한 빅데이터 분석과 학습능력을 갖춘 첨단 군의 육성계획을 발표해 눈길을 끌었다. AI를 통해 자율무기체계 개발뿐 아니라 미래의 지능전 양상에 선제적으로 대비함으로써 군대조직과 전술·작전 개념까지 혁신한다는 내용이다. 이미 무인 로봇 분야에서 세계 최고 기술을 보유한 일본은 AI 기반 자율화 무기체계에도 상당한 지식을 축적하고 있는 것으로 평가 받고 있다. 특히 지난 2019~2023년 일본 중기방위력정비계획 기간에는 함선용 무인기를 도입해 주목 받았다. 러시아는 당면한 병력 및 고가장비의 부족 문제를 가성비가 뛰어난 자율무기체계로 극복하기 위해 나서고 있다. 최근 투입한 자폭형 드론이나 무인전투기, 무인잠수정, AI 자율 어뢰가 대표적이다. 우리나라는 다른 나라에 비해 아직 움직임이 다소 더디다. 지난 2020년 국방스마트플랫폼 및 무인화·지능화 기술의 국가별 수준 조사에 따르면, 미국 국방 기술 발전 수준을 100으로 볼 때 유럽은 90, 일본은 85, 중국 84, 한국은 75 수준인 것으로 평가됐다. 얀 탈린은 "자율 무기를 쉽게 구할 수 있게 되면서 소수만이 군비 경쟁에 참여할 수 있었던 제한이 사라졌다"며 "이제 3D 프린터와 기본적인 프로그래밍 지식을 갖춘 학생들도 대규모 사상자를 발생시킬 수 있는 드론을 만들 수 있게 됐다"고 말했다. 이어 "자율 무기 시스템은 국제 안정의 개념을 완전히 바꿔놓았다"고 덧붙였다. 제프리 힌턴 명예교수는 지난 3월 일본 니혼게이자이신문과의 인터뷰에서 "AI가 자신이 부여받은 하나의 목표를 달성하기 위해 인간에게 좋지 않은 방법을 해결책으로 내놓을 수 있다"며 "AI가 인류 파멸을 가져올 수 있다"고 경고한 바 있다. 또 그는 "제1차 세계대전에서의 참화로 화학무기가 전 세계적으로 금지됐듯 AI 로봇무기도 조만간 규제할 수 있을 것"이라면서도 "하지만 (규제 시점이) 인류가 (AI 킬러로봇의) 비참함을 인식한 후가 될지 모른다"고 규제에 속도를 내야 한다고 강조했다.

2024.04.30 09:17장유미

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현