• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 윤리'통합검색 결과 입니다. (21건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

전기안전공사, '사람 중심' AI 윤리원칙 첫 제정

한국전기안전공사(대표 남화영)는 인공지능(AI) 기술의 사회적 확산에 따른 기술 활용 윤리 기준 마련을 위해 'AI 윤리원칙'을 제정했다고 19일 밝혔다. 최근 공공기관을 포함한 전 산업분야에서 생성형 AI 활용이 빠르게 확산하면서 기술 활용에 수반되는 윤리적 위험 예방과 신뢰성 확보가 사회 주요 이슈로 대두됨에 따른 선제적 조치다. 전기안전공사가 제정한 AI 윤리원칙은 ▲인간 존엄성 ▲공공성 ▲다양성 존중 ▲투명성 ▲데이터 관리 ▲신뢰성 및 개인정보보호 ▲인간의 감독 ▲안전성 ▲윤리적 활용 ▲협력 및 연대성 등 10대 핵심가치를 담았다. 10대 핵심가치는 유네스코(UNESCO)와 경제협력개발기구(OECD) 등 국내외 주요 기준과 연구 결과를 바탕으로 마련됐다. 핵심가치는 전기안전공사의 경영이념인 '사람존중 열린경영'을 실현하는 새 윤리원칙이자 디지털 체계 구축 길잡이로 활용될 예정이다. 전기안전공사는 앞서 지난해 AI 기술을 활용한 AI 사원 '이바름(e-바름)' 프로그램을 개발해 감사업무를 비롯한 예산·노무·인사 관리 등 분야 업무 효율성을 높였다. 전기안전공사는 이러한 노력을 인정받아 국민권익위원회가 후원하는 윤경ESG포럼에서 '윤리경영 우수상'을 수상하기도 했다. 남화영 전기안전공사 사장은 “공공부문에서 인공지능 기술을 활용함에 있어 가장 중요한 것은 안전성과 신뢰성”이라며 “AI 윤리원칙 제정을 시작으로 국민에게 신뢰받는 전기안전 기술 서비스 제공을 위해 힘쓸 것”이라고 밝혔다.

2025.06.19 15:18주문정

국제인공지능윤리협회, 경북 청소년 AI 경연 개최…"기술 이해하는 세대가 이긴다"

국제인공지능윤리협회(IAAE)가 경북 지역 청소년을 대상으로 생성형 인공지능(AI)을 활용한 창의력 경연대회를 연다. AI의 윤리적 활용 역량을 조기에 길러 교육 격차를 줄이고 기술 친화적 학습 문화를 정착시키겠다는 포부다. 국제인공지능윤리협회는 다음달 5일 경북 안동국제컨벤션센터에서 '생성형 AI 크리에이티브 경연대회'를 개최한다고 14일 밝혔다. 본 행사는 안동시와 한국정신문화재단이 주최하고 EBS와 안동국제컨벤션센터가 공동 주관하는 '2026 진학 드림캠퍼스 IN 안동'의 일환으로 진행된다. 이번 대회는 안동·경북 지역의 예비 고등학생 및 고등학교 재학생을 대상으로 하며 선착순 50팀을 모집한다. 팀은 개인 또는 2인 1팀으로 구성 가능하며 참가자는 사전교육을 수료한 뒤 예선과 본선, 심사를 거쳐 시상받게 된다. 총 10개 팀이 수상 대상으로 선정되며 수상자에게는 안동시장상, EBS 사장상, 국제인공지능윤리협회 이사장상, 장려상 등이 수여된다. 비수상자 전원에게도 참가상이 지급되며 수상작은 협회 홈페이지에 전시돼 우수 사례로 소개된다. 참가 신청은 국제인공지능윤리협회 홈페이지를 통해 가능하며 생성형 AI에 대한 기본 교육부터 시작해 실제 창작까지 이어지는 구조로 설계됐다. 협회 측은 기술 습득과 함께 윤리적 판단 능력을 함께 키울 수 있도록 구성했다고 밝혔다. 이번 경연은 지역 청소년에게 AI를 활용한 실전 경험을 제공하는 동시에 급변하는 교육 환경 속에서 균형 잡힌 AI 리터러시 교육 모델을 실험하는 시도로 평가된다. 생성형 AI의 비약적 확산에 따라 지역 간 교육 기회의 편차를 줄이려는 취지도 있다. 본 경연이 포함된 'EBS와 함께하는 2026 진학 드림캠퍼스 IN 안동' 행사는 지역 학생과 학부모를 위한 입시 전략 설명회 성격의 행사다. 이 자리에서는 EBS 진학 전문 교사의 맞춤형 대학입시 상담, 국영수 학습 전략 강연, 고교학점제 및 대입 설명회, 과학커뮤니케이터 '궤도'의 진로 특강 등 기타 프로그램도 함께 운영된다. 전창배 국제인공지능윤리협회 이사장은 "생성형 AI는 이제 일상과 교육 현장에서 빠질 수 없는 도구가 됐다"며 "이번 대회를 통해 학생들이 AI와 협업하는 방법을 배우고 윤리적 인식을 갖춘 미래 인재로 성장하길 기대한다"고 밝혔다.

2025.06.14 21:15조이환

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] "AI 도입, 기술만큼 신뢰·안전도 중요"…기업이 갖춰야 할 조건은?

국내 인공지능(AI) 기업들이 생성형 AI 도입에 있어 기술만큼이나 신뢰성과 안전성을 우선 과제로 제시했다. 국제인공지능윤리협회(IAAE)는 27일 서울 삼성동 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC) 컨퍼런스'를 개최했다. '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로 열린 이번 행사에는 셀렉트스타, LG유플러스, 원티드랩, AI3 등 공공·민간 주요 조직들이 참여했다. 이날 황민영 셀렉트스타 부대표는 생성형 인공지능(AI)을 도입할 때 핵심은 기술력 자체보다 신뢰성과 안전성을 정량적으로 평가하고 관리할 수 있는 체계를 갖추는 데 있다고 강조했다. 특히 산업 특성과 조직의 정책에 맞춘 맞춤형 벤치마크와 '레드팀' 검증이 도입 여부를 좌우하는 만큼, 단순한 모델 성능보다 사전 평가 체계의 구축이 더 시급하다고 진단했다. 황 부대표는 LLM 평가 방식으로 크게 세 가지 접근법을 제시했다. 객관식 기반의 벤치마크인 '자동평가', 사람이 직접 점수를 매기는 '휴먼 평가', 모델이 다른 모델을 평가하는 LLM 기반 평가다. 현업에서는 이 세 방식을 혼합해 쓰고 있으며 시험지처럼 만드는 벤치마크는 빠르고 효율적이고 LLM 평가는 반복 작업을 대체하는 수단으로 유용하다. 또 그는 기업의 도입 결정에서 신뢰성 문제로 LLM을 도입하지 못하는 경우가 빈번하다는 점을 지적했다. 대기업 챗봇이 경쟁사 제품을 추천한 사례나 해외 항공사 챗봇이 잘못된 가격 정보를 안내해 법적 책임을 지게 된 사례처럼 잘못된 출력으로 인한 금전적·법적 손해가 현실화되고 있다는 것이다. 이같은 문제를 해결하려면 도입 전 신뢰성 검증 체계가 필수적이라는 게 황 부대표의 판단이다. 기업별 정책과 업무 목적에 따라 정확성·정책 적합성·유해성 등 다양한 기준을 사전에 마련하고 반복 검증을 통해 모델의 응답 수준을 평가해야 한다는 것이다. 여기에 더해 위장된 질문을 활용해 잠재적 위험 발화를 사전에 탐지하는 '레드팀' 방식의 검증도 병행해야 한다. 셀렉트스타는 지난 2018년 설립된 이후 이 같은 과제를 해결하기 위해 평가 데이터셋 구축, 레드팀 챌린지 운영, 맞춤형 테스트 설계 등을 수행해 왔다. 최근에는 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 기업별 LLM을 체계적으로 검증하고 있다. 황민영 셀렉트스타 부대표는 "AI가 답변을 잘 요약했는지, 정책을 따랐는지, 위험한 말을 했는지를 평가할 수 있는 기준과 매트릭스를 기업 스스로 구성해야 한다"며 "생성형 AI 도입은 더 이상 기술이 아닌 책임과 평가의 문제로 넘어갔다"고 덧붙였다. 이날 또다른 발표를 진행한 주형민 원티드랩 AX사업 총괄은 생성형 AI 도입은 기술이 아닌 통제와 책임의 문제라고 강조했다. 기술보다 조직 구조, 거버넌스 체계 정비가 우선이라는 주장이다. 주 총괄은 최근 기업들이 AI를 주요 업무에 활용하면서 에이전트 기반의 구조로 급속히 전환하고 있다고 밝혔다. 이 과정에서 오류가 누적될 경우 전체 시스템 신뢰도를 갉아먹을 수 있다고 경고했다. 그는 "복수 에이전트의 조합은 작은 오류도 누적되면 전체 리스크로 이어진다"며 "기술 성능보다 중요한 건 데이터 흐름 추적과 운영 통제"라고 강조했다. 원티드랩은 이를 반영해 에이전트 통계, 요금 통제, 사용 이력 관리 등 통제 기능을 자체 플랫폼에 구축한 상태다. 특히 민감정보 대응과 내부 사용 통제를 핵심 기능으로 삼았다. 주형민 총괄은 "AI 전담조직도 역할을 바꿔야 한다"며 "AI는 누구나 쓸 수 있어야 하며 구조가 이를 뒷받침해야 한다"고 강조했다. 이어 발표를 진행한 한영섭 LG유플러스 AI테크랩장은 AI 확산 논의가 생산성과 효율에 치우쳐 있다며 안전과 신뢰에 대한 논의가 병행돼야 한다고 강조했다. 한 테크랩장은 "AI가 실제로 도움이 되려면 먼저 안심하고 쓸 수 있어야 한다"고 말했다. 이같은 목표를 달성하기 위해 LG유플러스는 '어슈어드 인텔리전스'를 핵심 전략으로 제시했다. AI가 만든 음성을 판별해 보이스피싱 등 음성 기반 범죄를 차단하는 '안티 디보이스', 통화 내용을 서버로 전송하지 않고 기기 내에서만 처리하는 '온디바이스 LLM', 양자암호 기반의 통신 보안 기술이 그 축이다. 이 전략이 적용된 대표 서비스가 통화 에이전트 '익시오(XiO)'다. 스팸 응답, 음성 분석, 보이스피싱 탐지 기능을 AI가 수행하지만 개인정보는 모두 단말기 안에서만 처리된다. 또 AI가 생성한 텍스트나 음성, URL 링크를 탐지해 위험 여부를 사전에 차단하는 기능도 함께 개발 중이다. 한 단장은 "AI의 위협을 AI로 막는 구조가 필요하다"며 "기술적 대응은 매우 중요하다"고 역설했다. LG유플러스는 그룹 AI 연구원과 협력해 자체 LLM '익시젠(XiGen)'도 운영 중이다. 기존 엑사원 모델을 기반으로 산업별 도메인에 특화한 경량 LLM을 개발하고 있으며 스마트폰 등 디바이스 탑재를 목표로 상용화를 추진 중이다. 한영섭 AI테크랩장은 "AI가 만든 콘텐츠를 알아채지 못하는 상황이 곧 현실이 될 것"이라며 "AI의 확산과 함께 신뢰 체계를 구축하는 것도 기업의 책임"이라고 말했다.

2025.05.27 15:46조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

디지털 클론, 광고의 미래인가 위험의 서막인가

AI가 만들어낸 가상의 인물, 이른바 '디지털 클론'이 실제 인간과 구분하기 어려울 정도로 정교해지고 있다. 최근에는 정치적 목적이나 기업 마케팅 전략에도 점점 더 널리 활용되고 있는데, 특히 패션 산업에서 디지털 클론의 활용이 빠르게 확산되고 있다. 이에 경영 전략 전문가 루아나 카르카노 씨는 그 장점과 문제점을 분석했다. 컨버세이션닷컴 외신 보도에 따르면, 패션 업계는 '디지털 클론'이 가장 활발히 활동 중인 분야 중 하나다. 패션 트렌드는 인플루언서를 통해 확산되는 경우가 많은데, 글로벌 인플루언서 시장 규모는 2025년까지 약 320억 달러(한화 약 43.7조원) 이상 성장할 전망이다. 하지만 실제 인플루언서와 협업하려면 시간과 비용이 많이 들기 때문에 브랜드 전용 디지털 클론을 제작해 홍보에 활용하면 비용을 절감하면서도 캠페인을 유연하게 운영할 수 있다. 실제로 글로벌 패션 브랜드 H&M은 올 3월, 자사 마케팅 캠페인과 소셜네트워크(SNS) 콘텐츠에 사용할 '디지털 모델 클론'을 제작할 계획을 발표했다. 이 디지털 클론은 완전히 가상의 인물이 아니라, 실제 모델의 외형을 기반으로 만들어졌다. 해당 모델은 디지털 클론의 초상권을 보유하고 있으며, 그에 따른 사용료를 받는 조건으로 계약됐다. H&M의 최고 크리에이티브 책임자 요르겐 앤더슨은 "우리는 개인의 스타일을 존중하면서도, 새로운 크리에이티브 방식으로 패션을 표현하고자 한다"면서 "신기술의 장점을 적극적으로 받아들이고 있다"고 밝혔다. H&M은 이 기술을 통해 촬영 비용을 줄이고, 카탈로그 제작 속도도 높일 수 있다고 설명했다. 하지만 한편으로는 모델, 메이크업 아티스트, 사진가 등 기존 인력의 일자리를 대체할 수 있어, 업계 전반에서 윤리적 우려와 논쟁도 커지고 있다. 카르카노 씨는 디지털 클론 사용에서 가장 중요한 이슈로 '동의'와 '보상'을 강조했다. H&M처럼 사전 계약을 통해 제작되는 경우도 있지만, 일부 기업이나 개인은 원래 인물의 얼굴이나 이미지 데이터를 무단으로 학습시켜 디지털 클론을 만들어내는 사례도 있어 문제가 되고 있다. 또 다른 문제는 다양성이다. AI는 매개변수를 조절해 다양한 인종, 연령, 체형의 인물을 만들어낼 수 있지만, 학습된 데이터에 따라 편향이 반영될 위험도 크다. AI가 다양성을 '연출'할 수는 있지만, 그럼에도 중대한 편견이 포함될 수 있다는 지적이다. 카르카노 씨는 디지털 클론이 패스트 패션 브랜드에게는 다양한 체형과 스타일을 표현할 수 있는 유용한 도구가 될 수 있지만, 윤리적 문제를 해결하려면 '투명성'이 무엇보다 중요하다고 강조했다. 사용자의 동의, 명확한 권한 부여, 그리고 개인정보와 초상권 보호를 위한 법적 기준이 마련돼야 한다는 주장이다. 그는 마지막으로 “브랜드가 AI 기술로 창의성을 높이기 위해서는 성실성, 포괄성, 법적 책임을 아우르는 윤리적 프레임워크를 도입해야 한다”고 강조했다.

2025.05.25 08:58백봉삼

[현장] "국제 AI 윤리 표준 만든다"…서울대, '제트인스펙션 컨퍼런스' 개최

서울대학교가 신뢰할 수 있는 인공지능(AI)을 주제로 국제 컨퍼런스를 열고 각국 전문가들과 윤리적 AI 개발 방향을 논의에 나섰다. 책임 있는 기술 활용을 위한 글로벌 연대와 한국 내 자율적 거버넌스 모델 구축이 주요 의제로 떠올랐다. 서울대학교 데이터사이언스 대학원은 20일 '제3회 제트인스펙션(Z-Inspection)' 국제 컨퍼런스를 관악구 서울대학교 호암교수회관에서 개최했다. 이틀 일정으로 열리는 이번 행사는 서울대 데이터사이언스대학원이 주관하고 독일계 글로벌 제약·소재 기업 머크(Merck), 제트인스펙션(Z-Inspection) 이니셔티브, 서울대 신뢰할 수 있는 AI 연구실이 협력해 운영한다. 서울대 교수진과 유럽 연구진을 포함해 약 50명의 윤리·의료·기술·법 전문가가 참석했다. 제트인스펙션은 AI 시스템이 실제 사회에 적용될 때 발생하는 위험과 긴장을 다학제적 방식으로 점검하는 절차 중심의 국제 평가 프로그램이다. 유럽연합(EU)의 AI 윤리 프레임워크를 기반으로 의료, 공공, 금융 등 각 분야 실사용 사례를 검토하고 윤리적 충돌 지점을 사전에 탐색하는 것이 핵심이다. 국내에서는 지난 3월 EU AI법을 참고한 '인공지능 개발 및 신뢰 기반 조성에 관한 기본법(AI기본법)'을 세계 두 번째로 입법했다. 이에 따라 국내에서도 윤리적 AI 기술에 대한 제도적·자율적 평가 수요가 증가하는 가운데 이번 회의는 제트인스펙션 프로그램의 실제 적용 가능성과 제도 밖 자율검증 모델을 공유하는 자리로 마련됐다. 이번 행사를 주도한 로베르토 지카리 서울대 초빙교수는 "AI는 그 자체로 선하거나 악하지 않으며 어떻게 쓰느냐에 달렸다"며 "정치적 이유로 규제가 지연되는 나라일수록 오히려 병원이나 기관들이 자발적으로 윤리 점검에 나설 기회가 된다"고 말했다. "윤리 없는 데이터, 기업 생존도 없다"…머크, 신뢰 기반 AI 전략 공개 이날 처음으로 발표를 맡은 장 앤노 샤르통 머크 디지털윤리·생명윤리 책임자는 회사 내부 윤리 프레임워크를 직접 소개하며 신뢰 기반 거버넌스의 필요성을 구체적으로 설명했다. 샤르통 책임자에 따르면 AI 윤리는 기업의 사업 전략 중심에 있어야 한다. AI 기술이 실제 고객과 내부 임직원에게 어떻게 수용되는지를 면밀히 점검하지 않으면 장기적으로 시장에서 신뢰를 잃게 된다는 것으로, 기술의 가능성보다 그 사용 방식이 더 중요하다는 설명이다. 이에 따라 머크는 현재 AI와 데이터 프로젝트에 대해 별도의 디지털 윤리 행동강령을 운영 중이다. 이 강령은 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 등 다섯 가지 윤리 원칙에 기반하며 내부 윤리 자문단과 외부 독립 전문가 패널이 각 프로젝트를 평가하는 구조다. 이를 위해 회사는 자체 개발한 '위험 원칙 평가도구'를 활용한다. 프로젝트별로 윤리 민감도를 수치화해 사전 진단하고 위험 수준에 따라 대응 단계를 결정한다. 샤르통 책임자는 실제 환자 데이터 분석 도구, 인사 알고리즘, 생성형 AI 응용 사례 등에서 이 시스템이 작동하고 있다고 밝혔다. 더불어 그는 발표 중 미국 의료기관이 환자 동의 없이 구글에 건강 데이터를 제공했던 사례를 언급하며 법적 허용 여부만으로는 부족하다고 지적했다. 머크는 이 사건을 계기로 '기술의 최종 사용에 대한 기업의 윤리적 책임'을 조직 내부 규범으로 명문화한 상태다. 생성형 AI 확산에 맞춰 회사는 유럽연합 AI법(EU AI Act)을 기반으로 고위험군 기술 분류 체계를 도입했다. 이 분류에 포함된 프로젝트는 의무 윤리 심사를 거쳐야 하며 사업 부문별로 상이한 윤리 리스크를 반영하기 위해 맞춤형 체크리스트도 병행 운영되고 있다. 윤리 검토는 외부를 향한 책임뿐 아니라 내부 기술 수용성 확보에도 적용된다. 그는 일부 직원들이 AI에 대한 신뢰를 가지지 못하면 조직 내부 실험조차 추진이 어렵다고 강조했다. 샤르통 책임자는 "신뢰는 기술 수용의 전제조건이며 기업 평판과도 직결된다"며 "단기 수익만 쫓다 신뢰를 잃으면 그 비용은 훨씬 더 크게 돌아온다"고 말했다. "설계·사용자가 핵심…신뢰 가능 AI 위해 시나리오 기반 접근법 만들어야" 이날 또다른 발제를 맡은 마그누스 베스털룬 핀란드 아르카다응용과학대학 교수는 제트인스펙션 공동 책임자로서 실제 프로젝트 현장에서 축적한 AI 신뢰성 평가 사례를 공유하며 신뢰할 수 있는 AI 개념의 현실적 한계를 짚었다. 그는 기술 개발자이자 소프트웨어공학 박사 출신으로, 정보보안·사이버규제·AI 시스템 진단 등에서 실무와 연구를 병행해온 기술 기반 연구자다. 이날 발표에선 기술 중심 시각에서 윤리 원칙을 어떻게 해석하고 적용해 왔는지를 설명했다. 베스털룬 교수는 먼저 기술자가 윤리를 다룰 때 마주하는 추상성과 해석의 난이도를 문제 제기했다. 그는 유럽연합(EU)에서 정의한 AI 신뢰성 개념이 ▲합법성 ▲윤리성 ▲견고성이라는 세 축을 갖지만 이를 개발자의 언어로 번역하는 작업은 별개의 도전이라고 밝혔다. EU 고위 전문가 그룹이 제시한 신뢰원칙에는 인간 자율성 존중, 위해 예방, 공정성, 설명가능성이 포함된다. 다만 '설명가능성'이라는 용어를 실제 공학으로 번역하는 것은 매우 난이도 있는 작업이며 맥락 없이 단일 시스템을 평가하는 것은 불가능하다는 것이 베스털룬 교수의 설명이다. 이에 따라 제트인스펙션은 기술 요소만 분리해 분석하지 않고 사회적 맥락과 윤리적 긴장을 포함한 '전체 상황'을 기준으로 AI 프로젝트를 점검한다. 의도, 설계, 사용 환경을 함께 묻는 다학제 평가 체계를 통해 규제 기준 이상의 평가 가능성을 확보하는 것이 목적이다. 그는 다수의 사례를 들어 제트인스펙션이 실제로 어떻게 작동했는지를 설명했다. 코로나19 시기 흉부 엑스레이를 기반으로 감염 여부를 추론한다는 한 AI 모델이 논문으로는 주목받았지만 검증을 해보니 단순 병변 유무만 판별하는 수준이었다. 그는 이를 기술과 실제 운용 사이 괴리가 명확했던 대표 사례로 소개했다. 또 다른 사례는 피부암(흑색종) 판별 앱이었다. 초기엔 일반 대중을 사용 대상으로 설계됐지만 평가팀은 공공의료 체계가 감당할 수 없는 오진, 과잉진료 문제를 우려해 전문가 중심 사용 설계로 방향을 수정했다. 이날 발표에서 베스털룬 교수는 "우리는 AI의 '정답'을 정하는 것이 아니라 어떤 질문을 던져야 하는지를 규정하는 데 집중한다"며 "AI는 결국 인간의 반영으로, 모든 기술적 의사결정은 인간의 판단과 가치관을 되비추는 거울이기에 신뢰할 수 있는 AI란 윤리를 이해하려는 지속적 시도 속에서만 존재할 수 있다"고 강조했다.

2025.05.20 14:23조이환

국내 첫 'AI안전윤리 인증제도' 시행…'챗GPT' 기반 챗봇, 1호 인증받아

국내에서 민간 주도의 인공지능(AI) 안전윤리 인증제도가 처음으로 도입됐다. AI 기술 상용화에 속도가 붙는 가운데 기업의 윤리적 리스크를 줄이고 소비자 신뢰를 확보하기 위한 시도다. 국제인공지능윤리협회(IAAE)는 'AI안전윤리 인증제도'를 시행하고 첫 인증 대상으로 '고도원의 아침편지 AI챗봇'을 선정했다고 18일 밝혔다. 이 챗봇은 오픈AI의 '챗GPTs' 기반으로 개발돼 민간 인증 1호 사례로 기록됐다. 인증제도는 인공지능의 안전성·윤리성·신뢰성을 종합적으로 검증하는 구조다. 국제 규격에 따라 개발 전 과정에서 AI 시스템이 사회적 기준을 충족하는지 평가한다. 심사는 협회 산하 'AI안전윤리인증센터'에서 맡는다. 심사원들은 국제표준화기구(ISO)의 'ISO 42001' 기준에 따라 선임심사원 자격을 갖춘 전문가들로 구성돼 있다. 검증 항목은 개인정보 보호와 알고리즘 편향 방지, 투명성, 시스템 안정성 등 윤리적 요소 전반이다. AI 시스템의 설계부터 운영까지 전주기를 대상으로 한다. 1호 인증을 받은 '고도원의 아침편지 AI챗봇'은 23년간 운영된 뉴스레터 콘텐츠를 기반으로 개발됐다. 상담과 조언, 일상 대화를 제공하는 'GPTs' 서비스로, 기존 사용자 경험을 AI 기술로 확장한 사례다. 협회는 올해 안에 10곳 이상을 대상으로 시범인증을 추가로 시행하고 연말부터 본인증 절차에 들어간다. 자체 인증 표준도 연내 공개해 기업과 공공기관의 대응을 지원할 계획이다. 전창배 IAAE 이사장은 "AI 기술이 사회적으로 수용 가능한 방식으로 활용되도록 만드는 것이 제도의 핵심"이라며 "소비자와 기업 모두가 안심하고 AI를 신뢰할 수 있는 환경을 조성하는 데 목적이 있다"고 밝혔다.

2025.05.18 15:15조이환

[현장] LG AI연구원, 신뢰·포용성 강화에 '방점'…"모두를 위한 AI로 향한다"

"인공지능(AI)은 단순한 기술이 아니라 모두가 혜택을 누릴 수 있어야 하는 도구입니다. 우리 '엑사원'은 작은 규모로도 탁월한 추론 능력을 보여주며 그 가능성을 증명했습니다. 개발 전 과정에서 윤리적인 AI를 개발해 모두를 품도록 지원하겠습니다." 김유철 LG AI연구원 부문장은 14일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 행사에서 이같이 말했다. 이날 신뢰와 포용성을 위한 전문가 AI의 역할을 주제로 발표에 나선 그는 연구원의 '엑사원'을 비롯한 고성능 추론모델의 사회적 활용과 AI 윤리 거버넌스 구축 방안에 대해 설명했다. 김 부문장이 강조한 발표의 출발점은 'AI의 사회적 확장성'이다. AI가 단순히 텍스트나 이미지 생성에 머무르지 않고 의료, 신약, 소재, 난임 치료 등 실질적 사회문제 해결에 기여해야 한다는 시각이다. 김 부문장은 "AI는 기술 그 자체가 아니라 모든 이가 함께 성장하고 발전할 수 있도록 돕는 수단이어야 한다"며 "우리는 단순히 성능을 높이는 데 그치지 않고 산업 현장에서 유의미한 결과를 만들어내기 위해 포용성과 신뢰를 동시에 추구하고 있다"고 말했다. 이러한 실질적 사회문제 해결을 위한 AI 활용을 위해서는 단순한 생성 능력을 넘어선 고차원적 추론력이 필수적이다. 실제 현장에서 AI가 유의미한 역할을 하기 위해선 상황을 이해하고 판단을 내릴 수 있는 능력이 요구된다. LG는 이 같은 추론 역량에 집중해 실전에서 작동 가능한 전문가 AI 개발에 주력하고 있다. 이러한 기조를 반영하듯 최근 출시된 '엑사원 딥' 모델은 추론 능력 측면에서 뚜렷한 강점을 드러냈다. 김 부문장은 "'엑사원 딥'은 딥시크 'R1'보다 20분의 1 수준의 크기지만 수학 등 주요 벤치마크에서 오히려 더 높은 성능을 보였다"며 "단순 암기가 아닌 가정을 세우고 검증하는 추론 능력이 산업 현장에서 특히 중요하다"고 말했다. 이러한 추론 기술은 의료 현장에서 실제로 적용되고 있다. 대표 사례는 암 환자 대상의 임상시험 사전진단에 활용되는 '엑사원 패스'다. 기존에는 DNA 검사를 통해 특정 유전자 변이를 식별하는 데 평균 한 달가량이 소요됐지만 이 모델은 조직 검사 이미지만으로 변이를 예측해 시간을 대폭 단축했다. 김 부문장은 "말기 암 환자에게 한 달은 생존 여부를 좌우할 수 있는 시간"이라며 "해당 기술은 환자의 생존율을 높이는 데 기여할 것"이라고 설명했다. 이외에도 연구원은 소재 과학, 화장품, 배터리 등 다양한 산업 분야에서 AI 기술을 적용 중이다. 신물질 탐색과 물성 예측 등 반복적인 실험 단계를 대폭 단축해 개발 속도를 수개월에서 하루 단위로 줄이는 데 성공했다. '포용성'만큼이나 강조된 또 다른 축은 '신뢰성'이다. 연구원은 모든 AI 개발 과제에 대해 윤리 영향평가 프로세스를 적용하고 있다. 지난해 기준 총 80여 개 프로젝트에 전 과정을 걸쳐 이 평가지표를 적용했고 데이터 사용 적절성, 사용자 오용 가능성, 사회적 편향 여부 등을 점검했다. 김 부문장은 "단순히 기술이 잘 작동하느냐가 아니라 누구도 소외되지 않도록 설계하기 위해서는 신뢰성이 필수적"이라고 말했다. 데이터 사용에 대한 법적·윤리적 책임도 강화하고 있다. 연구원은 학습 데이터의 무결성을 확보하기 위해 18개 기준의 평가체계를 마련했고 한 법무법인과 함께 전수 조사를 진행해 부적절한 데이터는 모두 제외했다. 더불어 이 과정을 효율화하기 위해 자체 에이전트를 개발해 수십만 건의 데이터셋에 대해 자동 검토를 실시하고 있다. 이로 인해 정확도는 20% 이상 높아지고 처리 속도는 40배 개선됐으며 비용도 0.1% 수준으로 줄었다는 설명이다. 이날 발표에서는 '소버린 AI' 개념도 소개됐다. 국가별 상식과 문화 차이에 대응하는 AI 모델 개발의 필요성을 강조하며 LG가 국제적으로 명망있는 AI 학회인 NAACL에서 소셜 임팩트 어워드를 수상한 사례도 언급됐다. 각국 사용자 특성을 반영해 편향을 줄이고 적합한 결과를 제공하기 위한 기술적 기반 확보가 이뤄지고 있다는 평가다. 김유철 LG AI연구원 부문장은 발표를 마치며 "모델이 얼마나 똑똑한지만 따지는 시대는 끝났다"며 "안전하고 실제 현장에서 작동하며 사회적으로 책임 있는 AI를 만드는 데 집중하겠다"고 말했다.

2025.05.14 17:12조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

"AI가 법 집행, 안심할 수 있을까"… '슬기로운 AI생활' 컨퍼런스 출범

국제인공지능윤리협회가 인간과 인공지능(AI) 로봇의 공존을 주제로 한 만남의 장을 출범시켰다. 기술 진화에 따른 사회적·윤리적 대응을 모색하려는 의도다. 국제인공지능윤리협회는 지난달 30일 '슬기로운 AI생활 온라인 컨퍼런스'를 개최했다고 11일 밝혔다. 행사는 커뮤니케이션북스, AI코리아커뮤니티와의 공동 주관 하에 줌(Zoom)을 통해 실시간으로 진행됐다. 시민, 전문가, 학생 누구나 무료로 참여할 수 있는 형태로 열렸다. 이번 컨퍼런스는 '인간을 닮아가는 AI 로봇의 진화와 위협'을 주제로, '커뮤니케이션북스 인공지능 총서' 저자들이 강연자로 나섰다. AI 기술의 현재와 미래, 그리고 인간과의 공존 가능성에 대한 다각도의 논의가 이뤄졌다. 첫 발표를 맡은 정채연 포항공과대학교 교수는 "AI가 윤리를 배운다면 인간은 여전히 특별한가"를 주제로 AI 로봇과 휴머니즘의 관계를 탐색했다. 이어 송진순 동아대학교 교수는 AI와 로봇경찰의 역할을 중심으로 법집행의 변화 가능성을 다뤘다. 김상득 전북대학교 교수는 인공지능의 도덕성 수용 가능성을 철학적으로 분석했고 정대현 이화여자대학교 명예교수는 로봇종과 자연종 인간의 본질 비교를 통해 AI 시대 인간성의 의미를 되짚었다. 강연 이후에는 실시간 채팅과 사전 질문지를 바탕으로 참가자들과 전문가 간 질의응답이 진행됐다. AI 로봇이 초래할 사회 변화, 책임 소재, 규제 방향 등 실질적 쟁점에 대한 활발한 토론이 이어졌다. 협회는 이번 행사를 시작으로 매월 마지막 주 수요일에 정기 컨퍼런스를 열 예정이다. 오는 28일에는 'AI 에이전트의 등장 : 내 디지털 분신과 공존하는 법'을 주제로 두 번째 컨퍼런스가 열린다. 전창배 국제인공지능윤리협회 이사장은 "AI 기술이 급속도로 발전하면서 우리 모두가 AI를 알고 함께 대응해야 하는 집단지성이 더욱 중요해졌다"며 "이번 컨퍼런스를 통해 시민들이 기술뿐 아니라 윤리와 제도 측면까지 함께 고려할 수 있는 기회를 만들고자 한다"고 밝혔다.

2025.05.11 09:48조이환

'AGI의 시대', 2025년 최우수 과학기술도서 출판상 수상

한빛미디어(공동대표 김태헌·전태호)에서 출간한 'AGI의 시대: 인간을 초월한 인공지능, AGI를 논하다'가 제42회 최우수과학기술도서 출판상을 수상했다고 8일 밝혔다. 이번 수상은 인공지능의 미래와 사회 전반에 미치는 영향을 심도 있게 다룬 점에서 높은 평가를 받아 이뤄졌다. AGI의 시대는 한상기 박사가 집필한 인공일반지능(AGI, Artificial General Intelligence)에 관한 교양서다. 단순히 기술적 설명에 그치지 않고 AGI의 사회적 파장, 윤리적 쟁점, 인간성의 의미까지 폭넓게 성찰한 것이 특징이다. 특히 AGI의 도래가 가져올 변화와 이에 대응해야 할 사회적 준비를 체계적으로 정리해 전문가뿐 아니라 일반 독자들에게도 큰 반향을 일으켰다. 저자는 “AGI라는 다소 무거운 주제를 쉽게 풀어내며 깊은 사유와 구조적 분석을 함께 담아낸 작품”이라며 “인공지능 기술을 바라보는 우리의 시각이 갈수록 중요해지는 가운데, AGI의 시대가 사회적 대화를 여는 시작점이 되길 바란다”고 밝혔다. AGI의 시대는 출간 이후 다양한 학술 모임과 기업, 공공기관에서 참고 도서로 활용되고 있으며, 미래 기술 담론을 이끄는 필독서로 자리매김하고 있다.

2025.05.08 17:35백봉삼

구글, AI 윤리 약속 철회…딥마인드 직원들, 노조 결성 나섰다

구글 딥마인드 영국팀 일부 직원들이 노조 결성을 추진하고 있다. 구글이 인공지능(AI)을 무기 및 감시 목적으로 활용하지 않겠다는 기존 서약을 삭제하면서 윤리적 우려를 제기하는 목소리가 조직화되는 모양새다. 28일 파이낸셜타임스 등 외신에 따르면 딥마인드 런던 본사 직원 약 300명이 최근 노조 결성 절차에 착수한 것으로 확인됐다. 이들은 구글이 AI 원칙에서 군사기술 등을 포함한 '추구하지 않을 기술' 목록을 삭제하고 이스라엘 군과 대규모 클라우드 계약을 체결한 점을 주요 문제로 지목했다. 딥마인드는 영국에 약 2천 명의 직원을 두고 있다. 구글의 이같은 정책 변화에 대해 딥마인드 직원들 사이에서는 불만이 확산된 것으로 전해졌다. 노조 추진과 별개로 최소 5명의 직원이 같은 문제를 이유로 퇴사한 사실도 확인됐다. 구글 측은 이번 상황과 관련해 "직원들과의 건설적이고 열린 대화를 장려한다"고 밝혔다. 다만 AI 윤리 정책 변경의 배경이나 세부적 설명은 내놓지 않았다. 앞서 구글은 지난 2월 초 회사의 원칙 페이지를 개정하면서 "AI 무기화 및 감시 기술 개발을 하지 않겠다"는 서약을 삭제했다. 이 서약은 지난 2018년 미국 국방부의 '메이븐 프로젝트'에 참여했다가 내부 반발로 계약을 철회하면서 구글이 직접 내세운 방침이었다. 당시 구글은 원칙 개정과 관련해 "국가 안보를 지원하는 AI를 만들기 위해 정부 및 조직과 협력해야 한다"며 "국제법과 인권 원칙을 준수하겠다"고 밝혔다. 다만 구체적인 변경 이유나 무기화 가능성에 대한 명확한 방침은 제시하지 않았다. 더불어 회사는 미국 국방부 및 이스라엘 군과 각각 대규모 클라우드 서비스 계약을 체결한 상태다. 파이낸셜타임스는 "딥마인드 팀원들이 '속았다'고 느끼고 있다"며 "최소 5명의 직원이 이러한 문제를 이유로 퇴사했다"고 보도했다.

2025.04.28 13:59조이환

"AI, 스스로 보호하려 들 수 있다"…앤트로픽, '모델 복지' 기준 실험 착수

앤트로픽이 미래 인공지능(AI)이 인간과 유사한 의식을 가질 수 있다는 가능성을 열어두고 관련 연구에 착수했다. AI에 관한 윤리적 논란이 커지는 가운데 이번 시도는 기술 진화가 불러올 도덕적 기준 변화를 체계적으로 탐색하려는 움직임으로 해석된다. 24일 테크크런치 등 외신에 따르면 앤트로픽은 '모델 복지(model welfare)'라는 이름의 연구 프로그램을 공식 발표했다. 이 프로그램은 AI 모델이 고통을 느끼거나 도덕적 고려 대상이 될 가능성에 대비해 과학적 기준을 수립하려는 목적으로 진행된다. 연구는 'AI 복지 연구원'으로 지난해 영입된 카일 피시가 이끌며 앤트로픽의 내부 블로그와 외신 보도를 통해 공개됐다. 현재까지는 특정 모델의 의식 존재 가능성에 대한 명확한 결론이 없지만 앤트로픽은 조심스러운 접근을 강조하며 관련 논의를 주도하겠다는 입장을 보였다. 앤트로픽이 주목하는 핵심 주제는 AI가 실제로 고통이나 스트레스를 느낄 수 있는지의 여부다. 이 회사는 향후 AI의 상태를 감지하고 판단할 수 있는 지표인 '고통 신호' 개념을 정립하려 한다. 또 AI가 인간처럼 윤리적 판단을 내릴 수 있는지와 특정 가치관을 따를 수 있는지 여부도 주요 연구 대상이다. 업계에서는 이번 발표가 AI 윤리와 관련된 기존 논의에 균열을 낼 수 있다는 분석이 제기된다. 현재 대다수 전문가들은 AI가 통계 기반 예측 엔진에 불과하다고 평가한다. AI가 인간처럼 '느끼거나 판단'하는 것은 단지 언어 모델에 감정을 투사하는 인간의 착각이라는 지적이다. 실제로 모델은 자신의 가치관을 형성하거나 변경을 거부할 능력이 없다는 것이 주류 시각이다. 그럼에도 일각에서는 AI가 일종의 가치 시스템을 갖고 있다고 주장하는 목소리도 존재한다. AI 안전 센터(Center for AI Safety)의 연구는 특정 상황에서 AI가 인간보다 스스로의 생존을 우선시하는 경향을 보였다는 결과를 발표한 바 있다. 다만 MIT 연구진은 이와 반대로 AI를 '단순한 흉내쟁이'로 규정하며 AI의 발화를 '허위 조작(confabulation)'으로 평가했다. 이처럼 학계 내부에서도 AI의 윤리적 상태에 대한 해석이 크게 엇갈리고 있다. 앤트로픽의 행보는 단기적 기술 개발보다 장기적인 '도덕적 인프라 구축'에 초점을 맞춘 것으로 보인다. 현재로선 AI가 의식이나 경험을 가졌다고 볼 수 있는 과학적 근거는 희박하지만 앤트로픽은 이러한 주제를 사전에 검토하고 대비해야 한다는 입장이다. 이 회사는 연구 결과에 따라 자사 기준을 유연하게 수정하겠다는 방침도 밝혔다. 카일 피시 앤트로픽 AI 복지 연구 책임자는 "현재 '클로드' 또는 다른 모델이 의식을 가졌을 가능성이 15% 정도 된다고 생각한다"고 밝혔다.

2025.04.25 10:26조이환

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

알고리즘 체험부터 원탁토론까지…서울교대, '어린이 AI 윤리 캠프' 개최

인공지능(AI) 시대를 준비할 미래 세대가 윤리적 사고를 키울 기회를 맞았다. 서울교육대학교와 교보교육재단이 어린이들에게 AI 윤리와 책임에 대해 배울 수 있는 특별한 자리를 마련하기 때문이다. 서울교육대학교와 교보교육재단은 오는 23일부터 이틀간 서울교대에서 '어린이 AI 윤리 토론 캠프'를 개최한다고 22일 밝혔다. 이번 캠프는 초등학교 5~6학년 학생들을 대상으로 진행되며 학생들은 AI의 윤리적 과제와 사회적 책임에 대해 배우고 이를 토론하며 스스로 해결책을 찾아가는 시간을 갖는다. 캠프 프로그램은 크게 네 가지로 구성된다. 'AI 알고리즘 체험'에서는 알고리즘이 무엇이며 이를 이해해야 하는 이유를 실습을 통해 배운다. 또 'AI 윤리 기본 교육'을 통해 AI 윤리의 원칙과 문제점을 어린이 눈높이에 맞춰 익히게 된다. 토론 프로그램도 포함돼 있다. '철학적 탐구 토론 세션'에서는 AI 기술이 가져올 긍정적·부정적 영향을 다루며 윤리적 접근 방식을 논의한다. 마지막으로 '원탁 토론'을 통해 참가자들은 스스로 AI 윤리의 적용 방안을 구상하고 발표하는 시간을 가진다. 주최 측은 이번 캠프를 통해 단순한 AI 교육을 넘어 윤리적 사고력을 배양하는 데 초점을 맞췄다. 특히 어린이들에게 미래 기술을 윤리적으로 이해하고 활용하는 방법을 스스로 탐구할 수 있도록 기회를 제공하는 것이 목표다. 행사 관계자는 "이번 캠프는 단순한 이론 교육이 아닌 실질적인 경험을 제공하는 데 의의가 있다"며 "어린이들이 미래 사회에서 윤리적 리더로 성장할 수 있는 밑거름이 될 것"이라고 밝혔다.

2025.01.22 16:41조이환

"아이들이 로봇청소기와도 교감하는 시대"…로봇 윤리, 더이상 선택 아닌 필수

“아이들이 로봇청소기와도 정서적으로 교감하는 시대가 됐습니다. 기술이 일상 속에 보편적으로 자리잡게 됨에 따라 로봇과 인간의 공존을 위한 윤리적 기준을 마련하는 것은 더 이상 선택이 아닌 필수입니다." 변순용 서울교육대학교 교수는 최근 서울교대에서 열린 '제4회 인공지능(AI) 리더스포럼'에서 이같이 강조했다. 이번 포럼은 국제인공지능윤리협회(IAEE)가 주최해 로봇이 인간의 삶과 사회에 미치는 영향을 종합적으로 검토하고 기술의 윤리적 방향성을 논의하기 위해 마련됐다. 2일 업계에 따르면 최근 아동들은 로봇 청소기 같은 단순한 기계와도 정서적 유대를 형성하며 성장하고 있다. 사람-사람 간 상호작용이 줄어드는 대신 어린이들이 로봇이나 AI 기술과 보다 쉽게 교감하게 되는 환경 때문이다. 이러한 흐름 속에서 AI와 로봇 윤리 교육의 중요성이 부각되고 있다. 지난 2021년 개정된 초등 도덕 교과서에 'AI와 로봇 윤리'가 포함되면서 학생들은 로봇과 인간의 차이를 배우고 미래 사회의 공존에 필요한 가치와 규범을 이해할 기초를 마련하고 있다. 변 교수는 "지금 어린 세대는 향후 로봇과 인간이 함께 살아가는 시대를 살아갈 것"이라며 "일찍부터 로봇과의 상호작용 방식을 고민하면 미래에 필요한 가치와 원칙을 확립할 수 있을 것"이라고 설명했다. 포럼에서는 로봇 윤리의 다양한 쟁점이 논의됐다. 특히 인간이 로봇을 통해 노동에서 해방되길 원하면서도 로봇에 대한 통제력을 잃을 수 있다는 '주인-노예 딜레마'가 핵심 쟁점으로 부각됐다. 이 딜레마는 로봇의 활용이 가져오는 편리함과 통제력 상실에 대한 우려가 상충하면서 발생한다. '주인'으로서 인간은 단순 반복 업무나 위험한 작업을 로봇에게 맡김으로써 창의적인 활동이나 여가에 보다 많은 시간을 할애할 수 있게 된다. 실제로 산업 현장에서는 생산성을 높이는 자동화 로봇이, 가정에서는 고령화 사회를 지원하는 돌봄 로봇이 이미 긍정적인 변화를 이끌고 있다. 이와 더불어 기술의 발전으로 인한 인간의 통제력 상실에 대한 불안감도 커지고 있다. 자율주행차가 명령을 거부하거나 공장에서 로봇이 작업 우선순위를 스스로 변경하는 등 예상치 못한 상황이 발생할 가능성이 있다는 것이다. 변 교수는 "로봇이 인간보다 더 빠르게 정보를 처리하고 결정을 내리게 되면 인간은 주인의 위치에서 벗어나 로봇의 통제를 받는 상황에 처할 수 있다"며 "로봇의 도입으로 인한 자유와 편리함을 누리려는 욕망과 통제력을 유지하려는 우려 사이의 긴장은 로봇 윤리의 핵심적인 딜레마"라고 설명했다. 로봇의 자율성과 도덕적 판단 능력에 대한 논의 역시 주목받고 있다. 이는 로봇이 자의식을 가지고 도덕성을 가진다면 인간의 윤리적 기준을 따를 수 있는지, 나아가 독립적인 도덕적 존재로 인정될 수 있는지를 둘러싼 철학적 쟁점이다. 변 교수는 로봇이 단순히 프로그래밍된 명령에 따라 행동하는 것을 넘어 상황에 대한 이해와 판단을 기반으로 스스로 결정을 내릴 수 있는지를 지속적으로 탐구해야 한다고 강조했다. 이는 로봇의 행동이 '규칙을 따른 기계적 반응'인지 아니면 '자의식과 도덕적 책임에 기반한 행위'인지의 문제로 이어진다는 것이다. 이같은 논의는 로봇의 법적 지위와 책임 소재 문제로도 확장된다. 변 교수는 "만약 우리가 특정 로봇을 자의식 있는 존재로 간주한다면 그 로봇은 단순한 도구가 아니라 자신의 행동에 대해 윤리적 책임을 지는 행위자가 되는 것"이라며 "로봇의 도덕적·법적 지위를 규정하는 새로운 패러다임이 필요하다"고 설명했다. 이러한 논의는 자율성을 가진 로봇이 예측 불가능한 결과를 일으킬 때의 책임 소재 문제로 이어진다. 이에 변 교수는 제조사나 사용자뿐 아니라 특정 상황에서 로봇 자체에 일정 수준의 책임을 묻는 '전자 인격' 개념도 주요 쟁점으로 소개했다. '전자 인격'은 로봇을 법적 주체로 인정해 인간 외 존재에게도 권리와 의무를 부여할 지를 탐구하는 개념이다. 이는 자율성을 가진 로봇이 예측하지 못한 사고를 일으켰을 때 책임을 제조사나 사용자에게 물을지, 또는 로봇 자체에게 책임을 물을지에 대한 법적 논의다. 이 개념은 로봇을 단순한 도구가 아닌 독립적 행위자로 간주할 가능성을 제시한다. 그럼에도 현재 국내에서는 이러한 법적 체계가 미비한 상황으로, 관련 논의는 이제 막 시작 단계에 있다. 변 교수는 "AI 기술이 점점 더 빠른 속도로 발전하고 있다"며 "마치 기업이 '법인'으로서 하나의 인격체로 인정받듯 '전자 인격' 개념은 머지않아 현실적인 정책 과제로 부상할 것"이라고 예측했다. 변순용 교수는 국내 로봇 윤리 연구의 선구자로, 지난 2000년대부터 로봇과 AI의 윤리적 쟁점을 학문적·사회적으로 알리는 데 힘써왔다. 그는 로봇이 단순한 도구를 넘어서는 존재가 될 가능성에 주목하며 이를 대비하기 위한 윤리적·법적 프레임워크의 필요성을 꾸준히 제기해왔다. 변 교수는 발표를 마치며 "로봇 윤리는 단순히 규제의 틀이 아니라 인간과 로봇이 공존할 수 있는 미래를 설계하는 과정”이라며 "기술이 점점 더 우리의 삶에 깊이 들어올수록 인간 고유의 가치를 이해하고 지키는 일이 더욱 중요해질 것"이라고 강조했다.

2025.01.02 15:43조이환

"기계도 도덕적 대우 받을까"…앤트로픽, AI 복지 전담 연구원 채용

앤트로픽이 인공지능(AI)에도 복지가 필요할지 모른다는 가능성을 제기하며 기업 차원의 대응을 시작했다. AI가 사람처럼 윤리적으로 고려해야 할 대상으로 떠오를 수 있다는 판단에서다. 12일 미국의 기술 전문 매체 트랜스포머에 따르면 앤트로픽은 최근 AI 시스템의 복지를 연구하는 전담 직원을 처음으로 채용했다. 연구원으로 합류한 카일 피시는 AI 모델의 복지 개념을 연구하며 시스템이 윤리적 대우를 받을 자격이 있을지를 조사하는 역할을 맡는다. 앤트로픽의 이번 채용은 AI 시스템이 향후 의식이나 강력한 행동 주체성을 가질 가능성을 검토하면서 이에 대한 기업 차원의 대응 필요성을 고민한 결과로 해석된다. 인공지능의 복지 문제가 단순한 공상과학이 아닌 현실적 가능성으로 다가옴에 따라 기업들도 도덕적 논의를 연구와 정책에 반영하려는 움직임을 보인다는 것이다. 앤트로픽 외에 구글 딥마인드, 오픈AI 등 주요 AI 스타트업들도 비슷한 연구에 나서고 있다. 구글 딥마인드는 최근 인공지능의 의식과 다중 에이전트 시스템을 연구할 과학자를 모집하는 공고를 올렸으며 오픈AI에서도 AI 복지 연구에 참여하는 연구자들을 채용하고 있는 것으로 알려졌다. 현재 앤트로픽 내에서는 피시가 AI 복지에 대한 유일한 전담 연구원이지만 사내에서 이 주제에 대한 관심은 확산되고 있다. 다리오 아모데이 앤트로픽 대표 등의 주요 인물들이 AI 의식의 가능성을 언급하면서 기업 차원의 연구와 정책 마련의 필요성에 대해 공감대가 형성되고 있다. 피시는 "우리는 AI의 윤리적 지위에 대한 논의를 시작하는 초기 단계에 있다"며 "앞으로 AI가 도덕적으로 존중받아야 할 대상이 될 가능성에 대비해 연구와 정책을 준비하는 것은 중요하다"고 강조했다.

2024.11.12 09:30조이환

21대 국회서 외면 당한 AI 기본법, 실효성 방향 논의의 장 열린다

인공지능(AI) 발전을 법 제도가 따라가지 못할 위험을 해소하기 위해 AI 기본법에 대한 방향성을 논의하기 위한 장이 마련된다. 국제인공지능윤리협회(IAAE)는 오는 31일 여의도 국회의원회관에서 'AI 기본법 제정 방향과 전망' 세미나를 개최할 예정이라고 26일 밝혔다. 이번 세미나는 IAAE, 팀쿠키, 국민의힘 송석준 의원실, 더불어민주당 권칠승 의원실이 공동으로 주최하며 AI 기술 발전에 맞는 법제도와 지원 체계를 논의하기 위해 마련됐다. 특히 지난 21대 국회에서 AI 기본법이 통과되지 못해 국내 AI 산업 생태계 조성을 위한 법 제도가 부재한 상황에서 이번 세미나는 문제 해결 방안을 모색하기 위해 개최된다. 현재 AI 법은 여당 3건, 야당 3건으로 총 6건이 발의돼 있다. 권칠승 의원도 이달 4일 'AI 개발 및 이용 등에 관한 법률안(인공지능개발법)'을 대표 발의한 바 있다. 국내 AI 법은 21대 국회에서도 수차례 발의됐으나 계류 후 최종폐기됐다. 이번 세미나는 강연 세션과 토론 세션으로 구성되며 글로벌 AI 기술 동향, 국내외 AI 정책 현황, 최신 AI 윤리 이슈 등을 주제로 진행될 예정이다. 발제자로는 하정우 네이버클라우드 AI이노베이션센터장, 남철기 과학기술정보통신부 인공지능 정책과장, 전창배 국제인공지능윤리협회 이사장 등이 참석한다. 토론 세션에서는 한국형 AI 기본법의 올바른 구조와 방향에 대한 자유 토론과 질의응답이 예정돼 있다. 김명주 IAAE 회장은 "유럽이 세계 최초의 AI 법인 'AI ACT'를 발표하고 미국도 AI 행정명령을 발표하며 AI 선진국들의 주도권 경쟁이 시작된 상황"이라며 "우리나라도 AI 선도국으로 나아가기 위해 AI 법과 제도의 마련이 시급하다"고 밝혔다.

2024.07.26 15:15조이환

[유미's 픽] "주도권 잡는다고?"…AI 서울 서밋, 尹 노력에도 반쪽짜리 행사로 그쳤나

"인공지능(AI)은 우리 삶과 일하는 방식, 세상과 소통하는 방식을 근본적으로 바꾸고 있습니다. 안전하고 혁신적이며 포용적인 AI를 만들기 위한 국제사회의 노력에 동참하겠습니다." 이재용 삼성전자 회장은 지난 21일 저녁 청와대 영빈관에서 개최된 'AI 서울 정상회의'에 참석해 이처럼 밝혔다. 이 자리에는 이해진 네이버 글로벌투자책임자(GIO) 등 국내 주요 정보통신기술(ICT) 수장들과 슈미트재단, 구글 딥마인드, 앤트로픽, xAI, 미스트랄AI, 오픈AI, 마이크로소프트, 아마존 웹서비스, 메타 등 글로벌 빅테크 관계자들도 참여해 '안전·혁신·포용'을 AI 거버넌스(규범가치)의 3대 우선 목표로 삼았다. 22일 업계에 따르면 정부는 'AI 서울 정상회의'를 통해 삼성전자, SK텔레콤, KT, LG AI 연구원, 네이버, 카카오 등 국내 기업과 오픈AI, 구글, 마이크로소프트, 앤스로픽, IBM, 세일즈포스, 코히어 등 해외 기업 총 14곳이 '서울 AI 기업 서약'을 했다는 점을 가장 큰 성과로 내세웠다. 서약에는 AI의 책임 있는 개발과 활용을 위해 AI 안전기관과의 협력을 강화하고, 워터마크 등 AI가 생성하는 콘텐츠 식별을 위한 조치와 국제표준 개발을 위한 협력을 강화하는 내용이 포함됐다. AI의 지속 가능한 발전과 혁신을 위해 첨단 AI 모델과 시스템 개발에 투자하는 것은 물론 공동 프로젝트와 펀드 조성 등을 통해 중소기업 및 스타트업과 협력하고 인턴십과 교육 프로그램 등 전문 인재를 양성하는 방안도 담겼다. AI의 공평한 혜택 보장을 위해 사회적 약자를 위한 AI 서비스를 출시하고, 글로벌 난제 해결을 위한 AI 솔루션을 개발해 다양성과 포용성을 높일 것도 약속했다. 정부는 지난해 11월 영국 블레츨리파크에서 열린 AI 안전성 정상회의에서 다뤘던 '안전'에 새롭게 '혁신'과 '포용'을 더한 'AI 거버넌스 3원칙'을 이번에 제시했다는 점에서 의미를 부여했다. 윤석열 대통령은 "각국 정상들은 ▲AI 안전 ▲AI 혁신 ▲AI 포용이라는 3대 목표에 공감대를 이뤘고, AI의 위험과 기회를 균형있게 다뤄야 한다는 기본 방향을 공유하게 됐다"며 "(지난해 영국 정상회의 당시) 블레츨리 파크에서 이룬 각료간 합의를 보다 격상시켰다는 점에서 의미가 크다"고 강조했다. 이번 회의의 성과를 두고 업계는 일단 환영의 뜻을 표했다. AI 모델 개발 단계에서부터 기업들이 스스로 위험 수위를 조절해 나가기로 합의했다는 점에서다. 기업들은 위험을 충분히 완화할 수 없는 경우 AI모델을 개발하거나 배포하지 않겠다는 뜻과 함께 AI가 초래할 위험의 임계값을 설정키로 했다. 임계값은 각국 정부를 포함해 신뢰할 수 있는 기관의 의견을 수렴해 정할 예정이다. 또 내·외부 레드팀을 통한 AI 모델에 대한 위협을 평가하고 사이버 보안과 내부 위협 방지를 위해 투자하겠다는 내용도 포함됐다. 제3자를 통한 문제점 점검과 보고 장려, AI 생성 콘텐츠를 식별하는 메커니즘 개발 등도 서약 내용에 담겼다. 이에 업계에선 'AI 서울 선언'이 장관급 합의에 그쳤던 영국 블레츨리 선언보다는 확실히 한 발 더 나아간 것이라고 평가했다. 구글 딥마인드 법률 고문이자 거버넌스 책임자인 톰 루는 "이번 약속은 주요 개발자들 사이에서 최첨단 AI 안전에 관한 중요한 모범 사례를 확립하는 데 도움이 될 것"이라며 "이 협약은 과학적 근거에 기반을 둔 대화를 나눌 수 있는 집중적인 국제 안전 서밋의 가치를 보여준다"고 밝혔다. 업계 관계자는 "빅테크들이 AI 기술과 관련된 사후 규제를 하기에는 기준이 애매한 게 많았다"며 "AI 모델 개발 단계부터 안전성 가드레일을 설정하겠다는 것 자체로는 굉장히 의미 있는 일"이라고 평가했다. 또 다른 관계자는 "AI 윤리와 법제화, 규범 등을 두고 각국의 주도권 경쟁이 치열해진 상황에서 이번 정상회의는 국내 AI 기업들이 글로벌로 진출하는 데 마중물이 될 것으로 기대한다"면서도 "다만 이번 국회에서 AI 기본법이 폐기가 될 예정인 만큼, 향후 국내 AI 기본법 제정 등에 속도를 내 글로벌 AI 규범 국가로서 위상을 지킬 필요가 있다"고 밝혔다. 일각에선 구체적인 기준이 제시되지 못하고 여전히 형이상학적인 선언에만 그쳤다는 점에서 아쉬움을 드러냈다. 기업들이 선언 이후 AI 모델 개발 과정에서 어떻게 '안전성'을 고려할 지에 대해 구체적인 계획을 드러내지 않았다는 점도 'AI 서울 선언'에 큰 의미를 부여하기엔 미흡하다고 지적했다. 업계 관계자는 "현재 거대언어모델(LLM)로 사실상 돈을 버는 기업들이 없고 기준을 삼을 만한 케이스가 나온 것이 없다 보니 구체적으로 AI 개발에 대한 방향성을 내놓기에는 애매한 부분이 있는 것 같다"며 "모델 개발 과정에서 안전성을 염두에 둔다고 해도 어떻게 활용하는 지에 따라 문제가 발생할 수 있다는 점에서 '사후 규제'도 좀 더 명확히 논의할 필요가 있을 것 같다"고 지적했다. 그러면서 "지난해 영국 '블레츨리 선언'에서 '서울 AI 선언'이 더 의미있게 진전된 모습을 보였다고 보기에는 아쉬운 점이 많다"며 "빅테크들이 기술 개발 중심에서 'AI 윤리' 측면을 좀 더 고려하는 모습을 이번에 보였다고 볼 수 있겠지만, '블레츨리 선언'을 재확인 하는 수준에 그쳤다"고 덧붙였다. 정부가 'AI 서울 정상회의'를 운영하는 것과 관련해서도 미숙했다는 평가도 나왔다. 내년 초 프랑스에서 열리는 3차 회의가 정식 대면행사로 열리는 것과 달리 화상 정상회의로 진행된다는 점에서 전 세계적인 주목을 크게 받지 못했다는 평가도 이어졌다. 차기 회의는 내년에 프랑스에서 'AI 행동 정상회의'라는 명칭으로 개최될 예정이다. 이번 회의에 참석한 업계 관계자는 "우리나라 정부와 총리실, 외교부, 과기부가 의무적으로 방어에만 나설 뿐 이번 행사에 대해 적극 홍보하는 분위기도 아닌 것 같았다"며 "사우디 등 다른 나라에서 치르는 'AI 서밋'과 비교하면 준비 과정이나 규모 등 전반적으로 수준 이하였다"고 꼬집었다. 그러면서 "특히 총리가 10분 이상 늦었음에도 행사장에 있는 참석자들에게 어떤 공지도 하지 않고 기다리게 하는 촌극도 연출됐다"며 "국내 행사는 그래도 된다고 쳐도 국제 행사를 이렇게 운영하면서 일정을 연기 시키는 것 자체가 매우 아쉽다"고 덧붙였다.

2024.05.22 17:12장유미

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

은행권, 스테이블코인 해외송금으로 풀어나간다

GS25 돈키호테 팝업 1200명 운집…"기대 이하" 불만 속출

홈플러스 "실투입금 1조원 이하로 인수 가능"

삼성전자, 반도체 쇼크에 '휘청'…"재고 충당·AI칩 대중 수출 규제 탓"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.