오픈AI, '군사-전쟁 목적 사용 금지' 제한 풀었다
오픈AI가 최근 자사 사용정책 페이지에서 군사 및 전쟁 목적으로 기술 사용을 금지한다는 문구를 삭제했다고 엔가젯 등 외신들이 14일(현지시간) 보도했다. 오픈AI는 지난 주 사용정책 페이지를 업데이트하면서 “군사 및 전쟁 목적으로 해당 기술을 사용하는 것을 금지한다”는 문구를 삭제했다. 하지만, 여전히 LLM(대규모 언어모델) 등 오픈AI 기술을 무기 개발 또는 무기 사용에 사용하지 말 것을 주문했다. 이런 변화는 전 세계 군사 기관들이 인공지능(AI) 기술 사용에 관심을 보이는 시점과 동시에 이뤄졌다고 엔가젯은 평했다. AI 연구기관 AI 나우 인스티튜트 사라 마이어스 웨스트 전무이사는 "가자지구의 민간인을 표적으로 삼는 데 AI 시스템이 사용된 점을 고려할 때, 오픈AI의 사용 정책에서 '군사 및 전쟁'이라는 단어를 삭제하기로 결정한 것은 주목할 만한 순간”이라고 밝혔다. 또, 이번 정책 수정이 오픈AI가 국방부 등과 같은 정부 기관과 합법적으로 협력할 수 있는 길을 열어둔 셈이라고 외신들은 전했다. 현재 오픈AI가 제공하는 기술은 직접적으로 군사용으로 사용되지 않지만 코드 작성, 조달 주문 처리 등의 지원 작업에 사용될 수는 있다. 니코 펠릭스 오픈AI 대변인은 해당 정책 문구 변경에 대해 "전 세계적으로 일상적인 사용자도 GPT를 사용하게 되면서, 기억하기 쉽고 적용하기 쉬운 보편적인 원칙을 만들고자 했다"며 문구 수정 배경을 설명했다. 또, “'다른 사람을 해치지 말라'와 같은 원칙은 광범위하면서도 쉽게 이해할 수 있고 다양한 맥락에서 관련성이 있다"고 설명하며, "특히 무기와 타인에 대한 상해를 명확한 예로 들고 있다"고 덧붙였다. 하지만, 다른 사람을 해치는 기술 사용 금지가 군사적 사용 금지도 포함하는 지에 대해서는 정확한 입장을 밝히지 않았다고 해당 매체는 전했다. 오픈AI 대변인은 엔가젯에 보낸 성명에서 "우리 정책은 우리 도구가 사람에게 해를 끼치거나, 무기를 개발하거나, 통신 감시를 위해 사용되거나, 다른 사람에게 부상을 입히고 재산을 파괴하는 데 사용되는 것을 허용하지 않는다”고 밝혔다. 하지만 "인프라와 산업을 보호하기 위한 새 사이버 보안 도구 개발을 위해 미국 국방부 산하 고등연구계획국(DARPA)과 협력하는 등 국가 안보 차원에서 사용한 사례가 있다"면서 "정책 업데이트 목표는 이러한 논의를 좀 더 명확하게 하기 위한 것"이라고 설명했다.