[AI는 지금] 규제 갈림길 선 AI, 진화 속도 빨라졌다
"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다." 로만 얌폴스키(Roman Vladimirovich Yampolskiy) 루이빌대 사이버보안연구소 교수는 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 AI에 대해 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다. 1984년 개봉해 전 세계적으로 선풍적인 인기를 끈 '터미네이터'는 AI의 위험성을 가장 극명하게 보여주는 영화로 손꼽힌다. '터미네이터'의 배경은 2029년 미국 로스앤젤레스로, AI가 핵전쟁을 일으켜 잿더미를 만들고 남은 인류를 말살하는 과정에서 살아남은 인간들이 투쟁을 벌이는 과정을 담았다. '악의'가 아닌 논리적인 계산을 거쳐 AI가 인간을 적대한다는 내용은 AI가 등장하는 소설과 영화 등에서 숱하게 사용돼 왔다. 하지만 최근 AI의 발전 과정을 보면 이젠 단순히 영화 속 이야기로 치부하기 어렵게 됐다. 실제 지난해 5월 AI가 통제하는 미국 공군의 드론이 적의 지대공 시스템을 찾아 폭격하는 가상훈련에서 AI는 자신의 임무를 방해한다고 인식한 오퍼레이터를 폭격했다. "오퍼레이터를 살해하지 말라"는 사전 명령에도 불구하고 벌어진 일이었다. 가상훈련이었던 만큼 실제로 폭격이 일어나진 않았지만, AI가 인간을 위협하는 일이 현실이 될 수 있다는 가능성을 보여줬다. AI는 데이터를 학습하고 정해진 알고리즘에 따라 추론하는 것이 기본적인 역할이다. 그러나 인터넷이 발전하며 학습할 수 있는 데이터가 급격히 늘어났고, 엄청난 양의 데이터를 AI에게 학습시킬 수 있는 시대가 됐다. 그 결과 방대한 학습량을 기반으로 텍스트, 이미지는 물론 소리, 영상까지 생성해 낼 수 있는 '초거대 AI'가 등장했다. 특히 2022년 11월 오픈AI가 '챗GPT'를 내놓으면서 AI는 새로운 변화를 맞았다. 오픈AI를 필두로 구글, 마이크로소프트, 메타, 아마존 등 주요 빅테크가 연일 새로운 기술을 쏟아내면서 생성형 AI는 불과 2년여 만에 무서운 속도로 발전했다. 오픈AI가 최근 공개한 최신 AI 모델 'GPT-4o'는 텍스트는 물론 음성, 시각 정보까지 이해하고 '인간의 전유물'로 여겨진 창작 영역까지 넘보고 있다. 이처럼 빠른 속도로 AI가 발전하는 것과 동시에 오류도 곳곳에서 나타나고 있다. 구글이 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'는 허위 답변을 제공한다는 비판을 받았고, 오픈AI의 'GPT-4o'에서는 음성 비서 '스카이'가 유명 배우 스칼렛 요한슨(Scarlett Ingrid Johansson)의 목소리를 도용했다는 의혹에 휩싸여 서비스를 한 때 중단했다. 무리한 AI 개발 속도 경쟁이 얼마나 위험한 지를 보여주는 사건이다. AI 기술의 발전은 그 자체로 긍정적일 수 있지만, 기술 혁신과 창작자 권리 보호, 윤리와 도덕성 사이에서 균형을 맞추기 위한 과도기를 겪고 있다. 이 같은 상황에서 AI가 얼마나 위험한지 현 상황을 짚어보고 파악하는 것은 중요한 의미를 갖는다. 인공일반지능(AGI)이 조만간 개발돼 보편화될 것이란 전망 속에 AI의 위험성을 제대로 인지하고 있어야 부작용을 예방하고 향후 AI와 인간이 공존할 수 있게 된다. 유럽연합(EU)뿐 아니라 미국, 중국, 일본 등 세계 각국이 AI 관련 법제화에 속도를 내는 이유도 여기에 있다. 생각하는 기계 'AI'의 등장 현재 생활의 일부로 알게 모르게 들어온 AI는 최근 들어 빠른 속도로 발전했지만 연구 과정은 순탄치만은 않았다. 일단 기계로 빠르고 정확히 계산하는 '컴퓨터'가 등장한 후 이를 활용해 인간의 지적 능력을 인공적으로 만들려는 시도는 1950년대부터 있었다. "기계도 생각할 수 있는가?" 영화 '이미테이션 게임'의 실제 주인공이자 영국의 과학자인 앨런 튜링(Alan Mathison Turing)은 지난 1950년 10월 1일 국제 학술지 옥스퍼드에 게재한 논문 '계산 기계와 지능(Computing Machinery and Intelligence)'의 첫 문장을 이처럼 썼다. 그가 제시한 개념은 1956년 미국 다트머스에서 열린 회의를 통해 '인공지능(AI, artificial intelligence)'이라는 용어로 탄생했다. AI의 태동기로 불리는 1950년대에는 인간의 지식을 기호와 수학적 관계로 표현해 기계에 지능을 부여하려는 '규칙 기반 인공지능' 기술이 많은 관심을 받았다. 이 연구의 기반이 되는 기계적 계산으로 '직접 지능을 구현한다'는 움직임은 '계산주의', '기호주의' 등으로 불렸다. 신경생물학자 프랭크 로젠블랫(Frank Rosenblatt)은 1958년 '퍼셉트론(Perceptron)'이라는 알고리즘을 제시했다. 생물 신경세포인 '뉴런'에서 착안한 퍼셉트론은 입력 정보의 가중치를 조정해 수학적 처리를 거쳐 결과를 내놓는 구조다. 현재는 딥러닝에 쓰이는 인공신경망 모델로 불린다. 로젠블랫은 기초적인 논리연산을 퍼셉트론으로 구현하는 데 성공했고, 이 퍼셉트론에서 '머신러닝'의 기초적인 개념이 탄생했다. 퍼셉트론이 제시된 이후 사람의 뇌 구조를 본떠 기계에 지능을 부여하자는 시도인 '연결주의'라고 불리는 연구 경향이 등장했고, AI 연구의 한 축이 됐다. 하지만 1969년 'AI 대가'인 마빈 민스키(Marvin Lee Minsky)가 퍼셉트론으로 구현할 수 없는 논리연산(XOR연산)이 있다는 논문을 발표한 후 AI를 연구하려는 분위기는 가라앉았다. 머신러닝 등 AI 연구와 관련된 예산이 대규모로 삭감됐기 때문이다. 민스키의 논문으로 AI는 20년 가까이 암흑기를 겪었다. 다만 이때 퍼지 이론, 통계적 데이터 처리법, 데이터 마이닝 등 신경망 기반이 아닌 AI 유관 기술은 점차 발달했다. 암흑기에서 빠져나온 것은 1988년이다. 퍼셉트론 같은 인공 신경망을 층층이 쌓아 XOR연산 불가 문제를 해결한 것이다. 그러나 여러 층으로 신경망을 쌓으면 복잡해지게 돼 머신러닝 조정이 어려워 짐에 따라 지능 구현에 한계를 보인다는 문제점이 드러났다. 또 다층의 신경망을 운용하기 위한 연산 장치(하드웨어)의 발전이 충분하지 않은 데다 AI에 입력시킬 데이터도 부족하다는 시대적 한계도 있었다. 인공 신경망을 층층이 쌓는다는 아이디어는 2010년대의 '딥 러닝(Deep Learing)'으로 이어졌다. 그동안 인터넷의 영향으로 데이터가 기하급수적으로 늘어나고 병렬처리를 중심으로 한 연산 능력도 비약적으로 발달한 덕분에 '딥 러닝'은 출현할 수 있었다. 이후 합성곱신경망(CNN) 등이 발달하며 퍼셉트론부터 이어진 '연결주의' AI 전성시대는 본격화됐다. 특히 2016년에는 구글 딥마인드가 개발한 '알파고'가 등장해 이세돌 9단을 꺾으면서 대중에게도 큰 인상을 남겼다. 생성형 AI 시대 '활짝' 인간을 절대 따라잡을 수 없을 것이라 여겼던 '바둑' 분야에서 특출한 능력을 보여주면서 AI는 우리 삶을 빠르게 바꿀 것이라는 기대가 커졌다. 바둑 외에 AI가 일상에 변화를 주는 일은 그 이후에도 크게 일어나지 않았지만, 컴퓨팅 능력, 반도체 기술 등은 점차 빠른 속도로 발전됐다. 그러나 지난 2022년 말 오픈AI가 '챗GPT'라는 생성형 AI를 선보인 이후 시장은 빠른 속도로 변했다. 이제는 수많은 빅테크 기업이 생성형 AI를 기반으로 한 다양한 서비스를 내놓으면서 AI가 우리 삶에 빠르게 침투하고 있는 분위기다. 이들의 기술 경쟁은 올해 상반기에도 계속됐다. 오픈AI는 지난 2월 동영상 생성 AI '소라(SORA)'를 공개해 시장을 놀라게 했다. 소라가 만든 다양한 영상도 함께 선보였는데, 몇 줄의 프롬프트만으로 최대 1분 길이의 영상을 만들 수 있다는 점에서 주목받았다. 오픈AI 견제에 나선 구글도 같은 달 멀티모달 AI 모델 '제미나이(Gemini) 1.0 울트라'를 업그레이드한 '제미나이 1.5 프로'를 선보였다. 지난 5월에는 '구글 연례 개발자 회의(I/O)'를 통해 검색 엔진에 제미나이를 탑재할 것이란 소식뿐 아니라 구글의 음성 모델을 기반으로 하는 새로운 프로젝트 '아스트라(Astra)'도 공개했다. 이는 AI가 사람처럼 보고, 듣고, 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능이다. 오픈AI 대항마로 불리는 앤트로픽(Anthropic)도 올해 3월 생성형 AI 모델 제품군인 '클로드 3'을 공개했다. 특히 가장 성능이 우수한 '클로드 3 오퍼스'는 앤스로픽이 내놓은 첫 '멀티모달' 생성형 AI로 눈길을 끌었다. 사용자는 사진, 차트, 문서 및 기타 유형의 데이터를 업로드하고 이에 대한 분석과 답변을 얻을 수 있다. 메타는 지난 4월 새 AI 모델인 '라마 3(Llama 3)'을 공개했다. 소셜 미디어(SNS) 플랫폼용 챗봇인 메타 AI도 이날 함께 공개했는데, 지난해 9월 베타 서비스를 시작한 지 7개월 만이다. 라마 3을 기반으로 만들어진 메타 AI는 페이스북과 인스타그램 등에 내장돼 사용자 질문에 답함은 물론 이미지 생성도 가능하다. 이 같은 분위기 속에 오픈AI는 지난 5월 'GPT-4o'라는 새로운 플래그십 AI 모델을 발표해 다시 한번 세계적인 관심을 불러일으켰다. GPT-4o는 GPT-4의 개선판으로, 더 빠른 응답속도를 제공하면서 향상된 시각·청각 기능을 갖춘 모델이다. 모델명에 '모든 것(omni)'이라는 뜻으로 o를 붙였는데, 이는 사용자와의 다양한 상호작용 방식을 하나의 모델에 통합해 텍스트, 음성, 이미지, 비디오를 모두 다룰 수 있다는 것을 나타낸다. 'GPT-4o'의 이점은 '향상된 사용자 경험'으로 요약할 수 있다. 대화형 AI 모델의 응답시간은 사용자가 얼마나 자연스럽게 AI와 상호작용을 할 수 있는지를 결정짓기 때문에 사용자 경험에 있어 매우 중요한 요소다. GPT4o는 최소 응답시간 232밀리초, 평균 320밀리초 만에 답할 수 있다. 인간 간의 대화에서 평균 응답시간이 약 200~500밀리초인 점을 감안하면 굉장히 빠른 속도다. 'GPT-4o'는 AI가 말하는 중간에 사용자가 끼어들 수 있도록 설계돼 AI의 말이 끝나기를 기다릴 필요 없이 즉각 다른 요청을 하고 답변을 받을 수 있다는 점도 눈길을 끈다. 이는 자연스러운 대화를 가능하게 해 사용자의 만족도를 크게 높이는 요소로 평가된다. 또 50개가 넘는 언어를 지원하고, 사용자의 명령에 따라 음성의 톤(어조)을 변경하거나 특정한 음성으로 대화를 진행할 수도 있다. 'GPT-4o'의 등장은 대화형 AI의 새로운 시대를 여는 중요한 진전이자, 향후 다양한 분야에서 혁신적인 변화를 불러올 것이란 기대감을 키우고 있다. 이를 통해 앞으로는 국제 콘퍼런스나 다국적 기업의 회의에서 실시간 통번역을 활용하거나, AI 교사가 언제든 학생의 요청에 실시간으로 빠르게 대응해 교육 효과를 높일 수 있을 것으로 예상된다. 미라 무라티 전 오픈AI 최고기술책임자(CTO)는 "GPT-4o는 사람들과 실시간으로 상호작용하며 대화한다"며 "텍스트 외에 이미지와 동영상도 잘 분석할 수 있다"고 강조했다. 'GPT-4o' 등장…'AGI' 시대 임박 'GPT-4o'의 등장 이후 빅테크들의 기술 경쟁이 더 치열해지면서 AI의 발전 속도도 더 가팔라질 것이란 전망이 많다. AI는 이제 주어진 명령을 수행하는 데 그치지 않고 중간에 필요한 업무를 스스로 찾아내 결과물을 도출하는 'AI 에이전트'로 진화하고 있다. 그 종착점으로는 주어진 모든 상황에서 인간처럼 추론, 학습하고 문제를 해결하는 능력을 갖춘 'AGI'가 될 것으로 보고 있다. 인간의 명령 없이도 스스로 판단하고 일할 수 있다는 뜻이다. 영화 아이언맨 속 '자비스', 영화 그녀(Her) 속 '사만다' 같은 수준의 AI가 현실화되는 것도 멀지 않았다. 아직 AGI의 명확한 판별 기준이나 정의는 없다. 오픈AI에선 '인간보다 똑똑한 AI 시스템'으로 AGI를 정의하며 관련 기술 개발에 몰두하고 있다. 오픈AI 전 연구자 출신 대니얼 코코타즐로는 "오픈AI가 최초의 AGI 구축 개발자가 되기 위해 무모하게 경쟁하고 있다"고 말했다. 구글의 '아스트라'도 AGI 프로젝트다. '알파고의 아버지' 데미스 허사비스 구글 딥마인드 CEO는 'AGI 시대 도래'를 선언하며 AGI의 일부 기능을 올 연말 구글 AI '제미나이'에 담겠다고 예고한 바 있다. 허사비스는 "일상생활에 도움을 주는 AGI를 개발하고 싶었다"며 "AGI는 사람처럼 복잡하고 역동적인 세계를 이해하고 대응할 수 있어야 한다"고 강조했다. AGI는 AI의 궁극적 지향점이자 전 세계 기술 패권을 거머쥐는 핵심으로 급부상하며 글로벌 빅테크들의 '쩐의 전쟁'이 벌어지고 있다. 덕분에 최소 30년, 적어도 10년으로 꼽히던 AGI 출현 예측 시기는 최근 5년 내외로 앞당겨지는 추세다. 샘 올트먼 오픈AI 최고경영자(CEO)와 젠슨 황 엔비디아 CEO는 5년 정도 후 AGI 현실화를 내다본다. 일론 머스크 테슬라 CEO는 이르면 내년으로 봤다. 전문가들은 AGI에 대한 통제력 상실 위험에 대비해야 한다는 지적을 속속 내놓고 있다. 스티븐 호킹 박사와 일론 머스크 테슬라 CEO 등은 AGI의 출현이 인간의 생물학적 한계로 인해 인류를 대체할 수 있다고 우려했다. 지난 3월 미국 기업 글래드스톤 AI는 미 국무부 의뢰를 받아 발표한 보고서에서 "가장 발전한 AI 시스템이 최악의 경우 '인류 멸종 수준의 위협'이 될 수 있다"고 경고했다. 제프리 힌튼 캐나다 토론토대학 교수는 "AGI의 상용화가 예상보다 빠를 것"이라며 "그에 따른 위험도 크다"고 경고했다. 오픈AI 전 연구자 출신인 대니얼 코코타즐로는 "AGI가 오는 2027년께 완성될 수 있을 것으로 보인다"며 "AGI가 인류를 파괴하는 재앙이 될 확률은 70%에 달한다"고 말했다. 반면 AGI의 개발은 불가능하다고 주장하는 전문가들도 있다. 앤드류 응(Andrew Ng) 미국 스탠퍼드대학 교수가 대표적으로, AGI에 도달하려면 30~50년이나 더 걸릴 수도 있다고 주장했다. AI가 인류에게 도움이 될 것이라는 'AI 부머(boomer)'로 분류되는 얀 르쿤(Yann LeCun) 미국 뉴욕대 교수는 "인간 수준의 AI 등장 시기를 예측하는 것은 어렵고 위험도 과장됐다"고 평가했다. 인간 위협하는 AI…신뢰도는 '글쎄' AI가 이미 현실에서 인간에게 위협을 줄 만한 일들을 속속 벌이고 있다는 점에서 AGI가 나타나기 전 인간의 선한 의지와 배치되지 않는 '정렬(alignment)' 작업이 필요하다는 지적들도 있다. AGI 기술이 테러조직·해커 등의 손에 잘못 들어가게 될 경우 참사가 일어날 수도 있는 데다 AGI 자체가 인간의 통제를 벗어나 문제를 일으킬 가능성도 있다는 점에서다. 실제 오픈AI '챗GPT'는 탈옥 모드로 해킹돼 논란이 됐다. 플리니 프롬프터(Pliny the Prompter)라는 해커는 X(옛 트위터)를 통해 자신을 'AI 레드팀' 멤버라고 소개하며 오픈AI 커스텀 GPT 편집기를 사용, 새로운 GPT-4o 모델의 모든 제한을 우회하는 방법을 찾아냈다고 밝혔다. 그 결과 AI 챗봇이 욕설을 내뱉게 하고 자동차 탈취 방법을 생성하게 할 뿐 아니라 심지어 폭탄을 제조하는 방법을 안내하도록 했다. AI 환각·편향성 등도 문제다. 구글은 올해 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'에서 허위 답변을 제공해 망신을 톡톡히 당했다. 예컨대 '미국에 얼마나 많은 무슬림 대통령이 있었는가' 질문하자 "버락 오바마는 미국 최초의 무슬림 대통령"이라고 잘못된 답변을 내놓은 것이다. 또 '치즈가 피자에 달라붙지 않는다'라는 사용자의 말에 AI 오버뷰는 "소스에 무독성 접착제 8분의 1컵을 넣으면 된다"는 황당한 조언도 내놨다. 위험성 증가에 AI 규제안 마련 골몰…韓, AI 기본법 연내 통과 '임박' 이처럼 AI에 대한 위험성이 점차 커지면서 이를 제어하기 위해 곳곳에서 방안 마련에 나서고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다. 미국은 2020년 '국가 AI이니셔티브법'을 제정하고 AI 분야에 약 2조3천억 원을 지원하고 있다. 여기에 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 통해 AI 안전 테스트 결과와 주요 정보 등을 정부와 공유하도록 의무화했다. 중국은 지난해 'AI 윤리 거버넌스' 표준화 지침을 마련했다. 일본 역시 히로시마 AI 프로세스를 주도적으로 이끌며 국제 규범 만들기에 앞장서고 있다. 영국과 캐나다도 법률, 의료 등에 AI 기본 원칙을 세워 준수하고 있다. 영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO)는 최근 개최한 콘퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목받았다. 이처럼 세계 각국이 AI 관련 법제화에 속도를 내고 있지만 우리나라는 예외다. AI 기본법이 지난해 2월 국회 과학기술정보방송통신위원회의 법안심사소위를 통과하고도 1년 넘게 방치되다 결국 21대 국회가 끝나면서 자동 폐기됐기 때문이다. 22대 국회에서도 연내 통과를 추진해왔지만 이달 초 윤석열 대통령의 비상계엄령 사태로 한 때 위기를 맞기도 했다. 전문가들은 미래 먹거리로 AI 산업을 육성해야 하는 우리나라의 상황에서 진흥과 규제를 아우르는 법 제도가 하루 빨리 갖춰져야 한다고 입을 모은다. 글로벌 AI 기업들과 경쟁이 심화되는 상황에서 법 제정이 늦어질수록 국내 AI 기업들의 경쟁력은 그만큼 떨어질 수밖에 없다고 보고 있다. 이에 국회는 더 이상 늦출 수 없다는데 의견을 같이하고 이달 말께 AI 기본법을 본회의에서 처리하기로 거의 합의를 봤다. AI기본법은 정부가 AI 산업 육성을 지원하고 필요한 규제를 할 수 있도록 관련 법적 근거를 담았다. 대통령 직속 '국가AI위원회'를 설치·운영하고 과학기술정보통신부는 3년마다 국가AI위원회 의결에 따른 AI 정책 방향과 전문인력 양성 등을 담은 국가 AI 전략인 'AI기본계획'을 수립해야 한다. 최형두 국민의힘 의원은 "최근 비상계엄 사태로 야기된 정치적 혼란과 과방위의 7개월간 방송 이슈 집중으로 산업계에 실망을 드려 죄송하다"며 "여야가 힘을 모아 연말 AI 기본법 통과를 목전에 두고 있듯 보다 적극적으로 산업 지원에 나서겠다"고 말했다. 조인철 더불어민주당 의원은 "본회의가 예정된 27일 AI 기본법은 통과될 것 같다"며 "만약 그날 (통과가) 안 되더라도 반드시 AI 기본법을 통과시켜 놓겠다"고 공언했다. 조준희 한국소프트웨어산업협회(KOSA) 회장은 "엄중한 상황에서도 여야 국회와 관계부처의 노력으로 AI 기본법이 연내 제정을 가시화하는 성과를 달성했다"며 "내년을 전 산업의 AI 내재화 원년으로 선포할 것"이라고 강조했다.