[주간 AI 핫뉴스] 세계 28개국 첫 'AI규제안' 마련···"김 빠진 회의" 평가도
요즘 가장 핫한 기술은 인공지능(AI)입니다. 그러다보니 매일매일 쏟아지는 AI뉴스만 해도 엄청납니다. 깜빡하면 중요한 AI뉴스를 놓치기 십상입니다. 하여, 지난주 나온 AI뉴스 중 기억해야할 주요 뉴스를 모은 '주간 AI동향'을 매주 선보입니다. ■ 주요 28개국, 영국 블레츨리 파크서 첫 AI정상회의 열고 공동선언문 발표 영국 현지 시간 기준 11월 1일부터 2일까지 이틀간 블레츨리 파크에서 'AI안전 정상회의(AI Safety Summit)'가 처음 열렸습니다. 우리나라를 비롯해 28개국(호주, 브라질, 캐나다, 칠레, 중국, 유럽연합, 프랑스, 독일, 인도, 인도네시아, 아일랜드, 이스라엘, 이탈리아, 일본, 케냐, 사우디아라비아, 네덜란드, 나이지리아, 필리핀, 르완다, 싱가포르, 스위스, 튀르키예, 우크라이나, UAE, 영국, 미국)이 참가했습니다. 28개국 뿐 아니라 글로벌 빅테크 기업(알리바바, 아마존, 앤트로픽, 구글, 구글 딥마인드, 허깅페이스, IBM, 메타, 마이크로소프트, 네이버, 엔비디아, 오픈AI, 삼성, 스케일AI, 소니, 스태빌리티AI, 텐센트, x.AI, 네이버 등)들도 참여했습니다. 우리나라에서는 삼성과 네이버가 참석했죠. 이종호 과기정통부 장관도 장관회의에 참석했고요. 이번 행사에서 28개국은 크게 9개 항으로 이뤄진 '장관회의 공동선언문'을 채택, 발표했습니다. 브레츨리에서 발표돼 일명 'AI 블레츨리 선언'으로도 불립니다. 이들 9개항은 이 기사 맨 하단에 따로 첨부했습니다. 'AI 안전성 정상회의'는 11월 1~2일 이틀 간 열렸는데, 1일차에는 28개국 AI 담당 장관과 주요 디지털 선도기업·학계·국제기구가 참석했고, 2일차에는 28개국 AI 담당 장관이 참석했습니다. 특히 첫째날 장관회의서는 ▲위험에 대한 이해(인공지능 오용, 예측할 수 없는 기술 발전, 통제력 상실, 사회통합에 따른 위험요소 등) ▲위험 최소화를 위해 할 일(개발자, 정책입안자, 국제사회, 과학계 등) 등 두 세션에 대한 논의가 이루어 졌습니다 .우리나라 이종호 장관은 두 번째 세션(위험 최소화를 위해 할 일)의 '정책입안자'에 대한 기조 발언을 했습니다. 당시 이 장관은 "AI발전을 위축시키지 않는 범위에서 적절한 AI 신뢰성・안정성을 확보해야 한다"고 언급하며 우리 정부가 지난 9월 발표한 '디지털 권리장전'도 소개했습니다. 또 우리나라 AI 윤리·신뢰성 정책을 소개하는 한편 유엔 산하 AI 국제기구 신설 논의도 촉구했습니다. 이번 선언에 대한 후속조치는 내년 5월 한국에서 열릴 '미니 정상회의'에서 구체화될 예정입니다. 하지만 선언문이 구속력이 없는 그야말로 선언문인데다 G7 국가 중 이탈리아만 정상이 참석해 김이 빠진 회의였다는 평가도 나왔습니다. 참, 이번 회의에서는 인류를 위협하는 AI를 일컫는 말로 '프런티어AI(Frontier AI)'라는 용어가 처음 쓰이기도 했습니다. ■ 바이든 미 대통령 AI 행정명령 서명...워터마크 부착 등 5가지 안 담아 영국에서 열린 'AI 안전 정상회의'보다 하루 앞서 미국 조 바이든 대통령이 현지시각 지난달 30일 AI규제를 담은 행정명령에 서명했습니다. 내용은 크게 다섯가지로 첫째, 대량살상무기에 악용될 소지 차단 위해 안정성 평가 의무화 둘째, AI개발시 사전에 취약점 찾아내는 공격(레드)팀 의무적 구성 셋째, 사용자가 AI 생성 자료 식별할 수 있게 워터마크 부착 넷째, AI학습에 사용하는 창작물과 뉴스에 대한 저작권 보호 다섯째, 일자리 대체 등 근로자 피해 최소화 위한 모범 사례 개발 등이다. 이의 일환으로 미 에너지부는 AI모델 평가 도구를 개발하는 등 테스트 지침을 9개월내에 마련할 계획입니다. 특히 기업의 경우 새로운 AI모델 개발시 미 상무부에 개발 의도와 훈련 계획, 사이버 보안 조치를 의무적으로 보고해야 합니다. 또 미 국가안보회의(NSC)는 'AI 국가 안보 보고서'를 작성해야만 하고, 미 저작권청은 행정명령후 180일내에 AI학습 관련 저작권 지침을 마련하도록 했습니다. ■ 바이든 대통령 AI행정명령에 미 빅테크들 양분 AI규제에 미국 빅테크들은 입장차를 보였습니다. 특히 후발주자들이 강하게 반대했습니다. 머스크 테슬라 최고경영자는 "AI지침을 평가하는 제 3자 심판기구를 설립하자. 정부가 무엇을 해야 할 지 알기도 전에 성급히 규제를 도입한 것 아니냐"며 불편한 심기를 보였습니다. 오픈AI 설립자였던 머스크 CEO는 올해서야 AI기업 'xAI'를 설립한 후발주자입니다. 반면 알파고를 개발한 딥마인드 CEO 데미스 하사비스는 "AI 미래를 낙관하는 건 조심해야 한다"며 AI 조기 규제에 동조했습니다. ■ KT, 초거대AI '믿음' 4종 출시...국내 첫 조 단위 데이터 사전 학습 KT가 31일 서울 서초구 KT 연구개발센터에서 기자설명회를 열고 자사의 초거대 AI '믿음(Mi:dm)'을 출시했습니다. 출시 모델은 경량부터 초대형까지 총 4종입니다. 4종 모델 중 외부에 완전히 개방하는 건 70억 파라미터 규모의 경량 모델입니다 . KT는 초거대 AI를 활용하고 학습하려는 모든 기업에게 '믿음'의 파운데이션 모델(Foundation Model)을 개방합니다. 파운데이션 모델은 방대한 데이터셋으로 학습한 초거대 AI 핵심 기반 모델을 말합니다. 오픈 AI사의 자연어 처리 모델 GPT가 대표적입니다. 이번 발표에서 KT는 국내 업계 최초로 조(兆)단위 데이터를 사전 학습했다고 밝혔습니다. 또 기존 대비 약 27% 가까운 GPU 학습 비용 절감이 가능한 KT클라우드의 HAC(Hyperscale AI Computing) 서비스와 추론 비용을 기존 대비 50% 절감한 리벨리온의 NPU 인프라 등 'AI 풀스택'을 효율적인 AI 개발 환경을 위한 맞춤형 통합 패키지로 함께 제공한다고 알렸습니다. 특히 AI 맹점인 그럴듯한 거짓밀안 '환각(Hallucination)' 답변을 줄이기 위해 검색과 추론, 답변 모든 단계에서 신뢰성을 높일 세 가지 기술을 개발해 믿음에 적용했다고 강조했습니다. 세 가지 기술은 '다큐먼트 AI(document AI)'와 '서치 AI(Search AI)', '팩트가드 AI(FactGuard AI)'로 일반 생성형 AI 서비스 대비 최대 70% 가까이 환각을 줄일 수 있다고 설명했습니다. KT는 이번 '믿음' 출시를 계기로 기업전용 LLM 사업화, 새로운 AI 혁신 사업 발굴 등 우선 B2B 시장에 집중하고 이후 글로벌, 제조, 금융, 공공, 교육의 5대 영역으로 초거대 AI 사업 영역을 확장하는 한편 스타트업 개방 생태계를 통해 초거대 AI 기반 비즈니스 혁신에 나설 계획입니다. ■ AI가 살린 비틀즈 마지막 신곡 AI가 살려낸 비틀즈의 마지막 신곡 '나우 앤 덴(Now And Then)'이 최근 공개됐습니다. 존 레논의 1970년대 데모 녹음에서 인공지능(AI) 기술을 활용해 목소리를 추출 및 복원했고, 여기에 비틀즈 멤버들의 연주를 새롭게 추가해 곡을 완성한 것입니다. 유니버설 뮤직에 따르면 AI기술을 활용해 고(故) 존 레논의 목소리를 담아 만든 비틀즈의 마지막 신곡인 '나우 앤 덴'이 공개됐습니다.존 레논의 1970년대 데모 녹음에서 인공지능(AI) 기술을 활용해 목소리를 추출 및 복원했고, 여기에 비틀즈 멤버들의 연주를 새롭게 추가해 곡을 완성한 것입니다. 이 곡은 오는 10일 발매 예정인 비틀즈의 '레드·블루' 리마스터 앨범에도 수록될 예정입니다. 존 레논이 비틀즈 해체 후 1970년대 후반 작곡하고 녹음한 것으로, 레논이 오랜친구에게 사과를 보내는 사랑 노래입니다. 1980년 12월 레논이 뉴욕 아파트 밖에서 총에 맞아 사망한 뒤 1995년 아내 오노 요코가 폴 매카트니에게 이 곡이 담긴 데모 테이프를 전해줬다고 합니다. 비틀즈 멤버들은 이 곡을 다듬어 발매하려 했지만 레논 목소리가 녹음된 음질이 형편이 없어 그간 발매를 하지 못했는데 AI로 이를 해결한 겁니다. 비틀즈 멤버들은 이곡을 완성하는 과정이 "초현실적 경험"이었다는 소회를 밝혔다죠. 링고 스타는 “존을 다시 만날 수 있는 가장 가까운 순간이었다. 마치 존이 그 자리에 있는 것 같았다”고 말했다고 합니다. ■ 구글, 오픈AI 경쟁사 앤스로픽에 20억 달러 투자 구글이 챗GPT를 개발한 오픈AI의 경쟁사인 AI 스타트업 앤스로픽에 최대 20억 달러(약 2조7000억원)를 투자한다고 최근 밝혔습니다. 월스트리트저널(WSJ)에 따르면 구글은 앤스로픽에 5억달러를 우선 투자했고, 이후 15억달러를 추가 투자하기로 합의한 것으로 알려졌습니다. 앞서 구글은 올해 초 앤스로픽에 이미 5억5000달러를 투자한 바 있습니다. 앤스로픽은 작년 11월 말 챗GPT를 공개해 전 세계에 화제를 불러일으킨 오픈AI에서 갈라져 나온 업체로 설립때부터 주목을 받았습니다. 오픈AI 창립자 그룹의 일원이었던 대니엘라 애머데이, 다리오 애머데이 남매가 2021년에 설립했죠. 챗GPT와 경쟁하는 챗봇 '클로드'를 보유하고 있으며 AI가 도덕적 가치를 고수하도록 훈련하는 것을 목표로 한다는 점에서 차별성을 내세우고 있습니다. 올해 초 기준 앤스로픽 시장 가치는 40억달러(약 5조4000억원)에 달했습니다. 아마존도 지난달 앤스로픽에 최대 40억달러를 투자하기로 한 바 있습니다. AI 기술을 둘러싼 빅테크 업체들의 경쟁이 점입가경입니다. [영국 AI안전정상회의 공동선언문 전문] (1) 인공지능은 세계적으로 엄청난 기회를 제공한다. 인공지능은 인간의 복지, 평화 및 번영을 완전히 탈바꿈하고 확대할 수 있는 잠재력이 있다. 이러한 잠재력을 실현하기 위해, 우리는 공공선을 위해서 인공지능이 인간 중심적이고 신뢰할 수 있으며 책임감 있는 방식으로 안전하게 설계, 개발, 배포 및 사용되어야 함을 확인한다. 우리는 포용적 경제 성장, 지속 가능한 발전, 그리고 혁신을 촉진하고 인권 및 근본적 자유를 보호하며 인공지능 시스템에 대한 대중의 믿음과 신뢰를 조성하여 인공지능 시스템의 잠재력을 충분히 실현하기 위해 인공지능 분야에서 협력하려는 지금까지의 국제사회의 노력을 환영한다. (2) 인공지능 시스템은 주거, 고용, 교통, 교육, 건강, 접근성, 사법 등 일상의 많은 영역에서 이미 활용되고 있으며, 활용처가 확대될 가능성이 높다. 따라서 우리는 지금이 바로 안전한 인공지능 개발 필요성과 더불어 인공지능의 혁신적인 기회가 우리 국가들과 전 세계에서 포용적인 방식으로 선을 위해, 그리고 모두를 위해 사용되도록 할 필요성을 확인하고 행동해야 할 유일한 순간임을 인식한다. 이는 인권을 향유하고 UN 지속가능발전 목표 달성을 위한 노력을 강화하기 위해 보건 및 교육 등 공공 서비스, 식량 안보, 과학, 청정에너지, 생물 다양성 및 기후 분야 등을 포함한다. (3) 이러한 기회요소와 동시에, 인공지능은 일상적인 분야를 포함하여 중대한 위험도 내포하고 있다. 이를 위해, 우리는 인공지능 시스템의 잠재적 영향을 검토하고 대응하기 위한 기존의 국제 포럼 및 기타 관련 이니셔티브를 통한 국제적 노력을 환영하며, 국제사회가 인권, 투명성 및 설명 가능성, 공정성, 책임성, 규제, 안전성, 사람의 적절한 감독, 윤리, 편견 완화, 프라이버시 및 데이터 보호를 다룰 필요성을 인식함을 환영한다. 또한 콘텐츠를 조작하거나 기만적인 콘텐츠를 생성할 수 있는 능력으로 인해 예측하지 못한 위험이 발생할 가능성에 주목한다. 이 모든 문제는 매우 중요하며, 우리는 이 문제를 해결할 필요성과 시급성을 확인한다. (4) 특정한 안전 위험은 첨단 인공지능, 즉 광범위한 작업을 수행할 수 있는, 기반 모델을 포함한 범용 고성능 인공지능 모델과, 오늘날의 가장 발달한 인공지능 모델에 존재하는 기능에 대등하거나 이를 초과하는 위해를 일으킬 수 있는 기능을 지닌 특정 영역의 관련 인공지능에서 발생한다. 인간의 의도와 부합시키는 것과 관련하여 잠재적인 의도적 오용 또는 의도하지 않은 통제 문제로 인해 상당한 위험이 발생할 수 있다. 이러한 문제는 부분적으로 이러한 기능이 완전히 이해되지 않아서 예측하기 어렵기 때문이다. 우리는 특히 사이버 보안 및 생명 공학 등의 영역과 첨단 인공지능 시스템이 가짜정보와 같은 위험을 증폭시킬 수 있는 영역에서 이러한 위험에 대해 우려하고 있다. 이러한 인공지능 모델의 가장 중요한 기능으로 인해 고의적이든 아니든 중대한, 심지어는 치명적인 피해가 발생할 가능성이 있다. 인공지능의 빠르고 불확실한 변화 속도를 고려하고, 기술 투자 가속화의 맥락에서 볼 때, 이러한 잠재적 위험과 이를 해결하기 위한 조치에 대한 우리의 이해를 심화하는 것이 특히 시급함을 확인한다. (5) 인공지능으로 인해 발생하는 많은 위험은 본질적으로 국제적인 성격을 띄고 있으므로, 이는 국제 협력을 통해 가장 잘 해결할 수 있다. 우리는 인공지능이 야기하는 광범위한 위험을 해결하기 위한 협력을 촉진하고자, 인간 중심적이고 신뢰할 수 있으며 책임성 있는, 안전하고 공공선을 지지하는 인공지능을 보장하기 위해, 기존의 국제 포럼 및 기타 관련 이니셔티브를 통해 포용적인 방식으로 협력할 것을 다짐한다. 이를 통해, 우리는 국가들이 인공지능과 관련된 위험을 고려하고 혜택을 극대화하는 혁신친화적적이고 비례적인 거버넌스 및 규제 접근 방식의 중요성을 고려해야 한다는 것을 인식한다. 이는 적절한 경우 국내 상황과 적용 가능한 법적 체계에 따라 위험을 분류하는 것을 포함할 수 있다. 우리는 또한 적절한 경우 공통 원칙 및 행동 강령과 같은 접근 방식에 대한 협력의 관련성에 주목한다. 첨단 인공지능과 관련하여 발견될 가능성이 가장 높은 구체적인 위험과 관련하여, 우리는 향후 국제 인공지능 안전성 정상회의를 포함한 기존 국제 포럼 및 기타 관련 이니셔티브를 통해 파악하고 이해하며 적절한 경우 대응할 수 있도록 협력을 강화하고 지속하며, 더 많은 국가로 협력관계를 확장할 것을 결의한다. (6) 모든 주체는 인공지능의 안전을 보장하기 위해 해야 할 역할이 있다. 국가, 국제포럼 및 기타 이니셔티브, 기업, 시민사회, 학계가 협력해야 한다. 포용적 인공지능과 디지털 격차 해소의 중요성을 고려하며, 우리는 국제협력이 필요에 따라 다양한 파트너를 참여시키고 포함하기 위해 노력해야 함을 재확인하고, 지속가능한 성장 지원 및 개발 격차 해소를 위해 개발도상국의 인공지능 역량 강화를 지원하고 인공지능의 촉진적인 역할을 활용하는 개발지향적 접근과 정책을 환영한다. (7) 인공지능 생애주기 전반에 걸쳐 안전을 고려해야 하지만, 우리는 첨단 인공지능 기능, 특히 이례적으로 강력하고 잠재적으로 유해한 인공지능 시스템을 개발하는 주체들은 안전 시험 시스템, 평가 및 기타 적절한 조치를 통해 이러한 인공지능 시스템의 안전을 보장해야 할 특히 강한 책임이 있음을 확인한다. 우리는 모든 관련 주체가 특히 오용과 통제 문제, 기타 위험의 증폭을 방지하기 위해 잠재적 위험 기능 및 이로 인해 나타날 수 있는 관련 영향을 측정, 모니터링 및 완화하려는 계획에 대해 상황에 적합한 투명성 및 책임을 제공할 것을 권장한다. (8) 협력의 맥락에서, 그리고 국내외 차원에서 조치에 정보를 제공하기 위해, 첨단 인공지능 위험 해결을 위한 우리의 의제는 다음 사항을 중점으로 한다. ▫ 우리 사회에서 인공지능의 영향을 이해하기 위한 광범위한 글로벌 접근 방식의 맥락에서, 공통적으로 우려되는 인공지능 안전 위험을 파악하고, 이러한 위험에 대한 과학적 및 증거 기반의 공유된 이해를 구축하고, 역량이 지속적으로 확대됨에 따라 이러한 이해를 유지한다. ▫ 이러한 위험을 고려하여 안전을 보장하기 위해 우리 국가들 간 각각의 위험 기반 정책을 수립하고, 국가 상황과 적용 가능한 법적 체계 따라 달라질 수 있음을 인식하면서도 적절하게 협력한다. 이는 첨단 인공지능 기능을 개발하는 민간 주체의 투명성과 더불어, 적절한 평가 지표, 안전 시험을 위한 도구, 관련 공공 부문 역량 및 과학 연구를 발전시킴으로써 투명성을 높이는 것을 포함한다. 이 의제를 더욱 강화함에 있어서, 우리는 정책 입안 및 공공선을 위해 사용할 수 있는 최고의 과학을 제공하기 위해 기존의 국제 포럼 및 기타 관련 이니셔티브를 포함하여 기존 및 새로운 다자간(multilateral), 복수국간(plurilateral), 양자간(bilateral) 협력을 포괄하고 보완하는, 첨단 인공지능 안전 과학 연구에 대한 국제적으로 포용적인 네트워크를 지원하기로 다짐한다. (9) 인공지능의 혁신적인 긍정적 잠재력을 인식하고 인공지능에 대한 국제협력을 더욱 폭넓게 보장하기 위한 일환으로, 우리는 기존의 국제 포럼 및 기타 관련 이니셔티브가 참여하며 보다 광범위한 국제 논의에 개방적인 방식으로 기여하는 포용적인 글로벌 대화를 지속하고, 기술의 혜택이 이익과 모두를 위해 책임감 있게 활용될 수 있도록 인공지능 안전 분야에 대한 연구를 지속할 것을 결의한다. 2024년에 다시 만나기를 기대한다.