"AI 안전보다 이익이 우선?"…샘 알트먼이 장악한 오픈AI 행보에 '우려' ↑
챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 점차 'AI 안전'을 등한시하고 수익에 치중하는 듯한 모습을 보이는 분위기다. 사내 'AI 안전팀'을 전격 해체하는 한편, AI 안전성을 강조하는 반(反) 알트먼 세력들도 회사를 떠나면서 오픈AI 움직임에 대한 우려의 목소리도 높아지고 있다. 20일 IT 전문 매체 와이어드 등 외신에 따르면 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치하기 시작했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 CEO의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 실제 오픈AI는 '인류에게 해롭지 않은 AI를 만들겠다'며 지난 2015년 비영리법인으로 출범했으나, 점차 AI 안전성과 개발 속도에서 내부적으로 의견이 갈렸다. 특히 지난해 11월 수츠케버 등이 앞장 서 '회사가 설립 초기 철학과 다르게 상업적으로 변했다'는 이유로 샘 알트먼 CEO를 축출했으나, 알트먼은 대주주인 마이크로소프트(MS)의 지원을 받아 닷새 만에 경영에 복귀했다. 이후 알트먼에 반대했던 이들이 회사를 떠나면서 반대파들은 사실상 오픈AI에서 전멸했다. 이들은 회사를 떠날 때도 다소 불합리한 계약을 한 것으로 알려졌다. 미국 온라인 매체 복스는 "해당 계약에는 회사를 떠난 사람들이 남은 생애 동안 이전 고용주를 비판하는 것을 금지하는 내용이 포함돼 있다"며 "심지어는 비밀유지계약(NDA)가 있다는 것을 언급하는 것 조차 계약 위반"이라고 보도했다. 특히 퇴사하는 직원이 문서 서명을 거부하거나 사후 이를 위반할 경우 오픈AI에서 근무하는 동안 받았던 지분 등 이익을 잃게되는 것으로 알려졌다. 이는 최대 수 백만 달러 가치에 달하는 주식을 포기해야하는 경우도 포함된다. 실제 지난달 오픈AI를 떠난 AI연구원 다니엘 코코타일로는 "퇴사 시 해당 문건에 서명을 하지 않아 우리 가족 순 자산의 85% 가량에 달하는 큰 돈을 포기해야했다"며 "오픈AI가 범용인공지능(AGI) 시대에 책임감 있게 행동할 것이라는 자신이 없어져 그만뒀다"고 밝혔다. 이에 대해 샘 알트먼 CEO는 자신의 X(옛 트위터)에서 "실제로 이전 퇴사 계약 문서에는 지분 취소 가능성에 대한 조항이 있었지만, 이를 실행한 적은 없다"며 "현재는 표준 퇴사 서류를 수정하는 중"이라고 해명했다. 샘 알트먼 CEO의 이 같은 행보를 두고 일론 머스크 테슬라 최고경영자(CEO)도 탐탁치 않아 하고 있다. 일론 머스크 CEO는 샘 알트먼과 함께 오픈AI 설립에 참여했으나, 영리사업 문제로 알트먼과 충돌한 이후 2018년 이사회에서 물러났다. 지난 2월 말에는 "오픈AI가 원래 취지와 달리 MS와 손잡고 상업적 이익을 추구하고 있다"고 주장하며 샘 알트먼 등 오픈AI 경영진을 상대로 소송을 제기했다. 일론 머스크 CEO는 계약위반, 신의성실 의무위반, 불공정 비즈니스 관행 등을 소장에 적었다. 이에 대해 샘 알트먼 CEO는 "머스크는 오픈AI를 테슬라의 일부로 만들려고 시도했지만, 실패로 돌아가자 맹렬히 비난하고 있다"며 "오픈AI를 이용해 영리사업을 하려고 했다"고 주장했다. 이번 'AI 안전팀' 해체와 관련해선 "AGI로 가는 길에 지침서(playbook)는 없다"며 "오픈AI는 안전하게 AI를 배포하기 위한 기초를 마련해 왔고, 모니터링 작업도 개선해 왔다. (안전팀 해체 후에도) 위험을 완화하기 위한 노력을 이어 갈 것"이라고 강조했다.