美 정부, '책임감 있는 AI' 정책에 전문가 의견 수렴
미국 정부가 '책임감 있는 인공지능(AI)'을 위한 정책 마련을 위해 전문가 의견을 받는다. 11일(현지시간) 미국 국가전기통신정보청(NTIA)이 '책임감 있는 AI' 정책을 구체화하기 시작했다고 엔가젯 등 다수 외신이 보도했다. NTIA는 AI 정책 마련을 정부 단독으로 진행하지 않고 AI 분야에 종사하는 전문가 의견을 수렴하겠다고 발표했다. NTIA 앨런 데이비슨 소장은 이날 피츠버그대학에서 열린 기자회견에서 "금융 감사가 기업 재무제표 정확성에 대한 신뢰를 만든 것처럼, 책임감 있는 AI 정책도 AI 시스템에 대한 신뢰성을 확보할 수 있게 될 것"이라고 강조했다. NTIA는 AI 시스템 성능, 안전성, 효과성, 차별·편향 문제, 허위 정보 확산, 개인 정보 보호에 관한 문제 등을 판단할 수 있는 기준이나 가이드라인을 마련할 방침이다. 전문가들은 해당 가이드라인을 만들 수 있도록 정부에 조언하는 역할을 맡는다. 전문가는 AI를 연구하는 개발자, 업계 대표, 개인정보 보호 단체, 디지털 권리 단체로 이뤄졌다. 데이비슨 소장은 현재 AI 도구 감사와 평가 기준에 대해 이미 피드백을 모으고 있다는 점도 알렸다. 이에 앞서 바이든 정부는 AI 시스템 개발에 대한 가이드라인을 제시한 바 있다. 기업이 AI 제품을 출시할 때 지켜야 할 규칙으로 이뤄졌다. 원칙은 '데이터 개인정보 보호' '알고리즘 편향으로부터의 보호' '제품 시스템 투명성' 등 5가지다. NTIA는 이를 바탕으로 책임감 있는 AI 정책을 더 구체화할 방침이다. 그는 "2021년부터 미국 정부는 100건 넘는 AI 관련 법안을 발의했다"고 설명했다. "AI 시대는 소셜네트워크서비스(SNS)를 비롯해 클라우드 컴퓨팅 등이 처음 등장한 시대와는 다르다"며 "당시에는 국가적 차원에서 큰 관심이 없었지만, AI에 대해선 큰 집중력을 보인다"고 전했다. 미국 국립표준기술원(NIST)도 AI 위험관리 프레임워크를 발표한 바 있다. 기업이 대중에게 미치는 AI 위험을 줄이기 위해 지켜야 할 규칙이다. EU는 AI 시스템을 위험에 따라 분류하는 법적 틀을 만든 바 있다. 수용할 수 없는 위험, 높은 위험, 제한된 위험, 최소한의 위험으로 나눠 각각 해당 법을 만들었다.