• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 윤리'통합검색 결과 입니다. (24건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[현장] LG AI연구원, 신뢰·포용성 강화에 '방점'…"모두를 위한 AI로 향한다"

"인공지능(AI)은 단순한 기술이 아니라 모두가 혜택을 누릴 수 있어야 하는 도구입니다. 우리 '엑사원'은 작은 규모로도 탁월한 추론 능력을 보여주며 그 가능성을 증명했습니다. 개발 전 과정에서 윤리적인 AI를 개발해 모두를 품도록 지원하겠습니다." 김유철 LG AI연구원 부문장은 14일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 행사에서 이같이 말했다. 이날 신뢰와 포용성을 위한 전문가 AI의 역할을 주제로 발표에 나선 그는 연구원의 '엑사원'을 비롯한 고성능 추론모델의 사회적 활용과 AI 윤리 거버넌스 구축 방안에 대해 설명했다. 김 부문장이 강조한 발표의 출발점은 'AI의 사회적 확장성'이다. AI가 단순히 텍스트나 이미지 생성에 머무르지 않고 의료, 신약, 소재, 난임 치료 등 실질적 사회문제 해결에 기여해야 한다는 시각이다. 김 부문장은 "AI는 기술 그 자체가 아니라 모든 이가 함께 성장하고 발전할 수 있도록 돕는 수단이어야 한다"며 "우리는 단순히 성능을 높이는 데 그치지 않고 산업 현장에서 유의미한 결과를 만들어내기 위해 포용성과 신뢰를 동시에 추구하고 있다"고 말했다. 이러한 실질적 사회문제 해결을 위한 AI 활용을 위해서는 단순한 생성 능력을 넘어선 고차원적 추론력이 필수적이다. 실제 현장에서 AI가 유의미한 역할을 하기 위해선 상황을 이해하고 판단을 내릴 수 있는 능력이 요구된다. LG는 이 같은 추론 역량에 집중해 실전에서 작동 가능한 전문가 AI 개발에 주력하고 있다. 이러한 기조를 반영하듯 최근 출시된 '엑사원 딥' 모델은 추론 능력 측면에서 뚜렷한 강점을 드러냈다. 김 부문장은 "'엑사원 딥'은 딥시크 'R1'보다 20분의 1 수준의 크기지만 수학 등 주요 벤치마크에서 오히려 더 높은 성능을 보였다"며 "단순 암기가 아닌 가정을 세우고 검증하는 추론 능력이 산업 현장에서 특히 중요하다"고 말했다. 이러한 추론 기술은 의료 현장에서 실제로 적용되고 있다. 대표 사례는 암 환자 대상의 임상시험 사전진단에 활용되는 '엑사원 패스'다. 기존에는 DNA 검사를 통해 특정 유전자 변이를 식별하는 데 평균 한 달가량이 소요됐지만 이 모델은 조직 검사 이미지만으로 변이를 예측해 시간을 대폭 단축했다. 김 부문장은 "말기 암 환자에게 한 달은 생존 여부를 좌우할 수 있는 시간"이라며 "해당 기술은 환자의 생존율을 높이는 데 기여할 것"이라고 설명했다. 이외에도 연구원은 소재 과학, 화장품, 배터리 등 다양한 산업 분야에서 AI 기술을 적용 중이다. 신물질 탐색과 물성 예측 등 반복적인 실험 단계를 대폭 단축해 개발 속도를 수개월에서 하루 단위로 줄이는 데 성공했다. '포용성'만큼이나 강조된 또 다른 축은 '신뢰성'이다. 연구원은 모든 AI 개발 과제에 대해 윤리 영향평가 프로세스를 적용하고 있다. 지난해 기준 총 80여 개 프로젝트에 전 과정을 걸쳐 이 평가지표를 적용했고 데이터 사용 적절성, 사용자 오용 가능성, 사회적 편향 여부 등을 점검했다. 김 부문장은 "단순히 기술이 잘 작동하느냐가 아니라 누구도 소외되지 않도록 설계하기 위해서는 신뢰성이 필수적"이라고 말했다. 데이터 사용에 대한 법적·윤리적 책임도 강화하고 있다. 연구원은 학습 데이터의 무결성을 확보하기 위해 18개 기준의 평가체계를 마련했고 한 법무법인과 함께 전수 조사를 진행해 부적절한 데이터는 모두 제외했다. 더불어 이 과정을 효율화하기 위해 자체 에이전트를 개발해 수십만 건의 데이터셋에 대해 자동 검토를 실시하고 있다. 이로 인해 정확도는 20% 이상 높아지고 처리 속도는 40배 개선됐으며 비용도 0.1% 수준으로 줄었다는 설명이다. 이날 발표에서는 '소버린 AI' 개념도 소개됐다. 국가별 상식과 문화 차이에 대응하는 AI 모델 개발의 필요성을 강조하며 LG가 국제적으로 명망있는 AI 학회인 NAACL에서 소셜 임팩트 어워드를 수상한 사례도 언급됐다. 각국 사용자 특성을 반영해 편향을 줄이고 적합한 결과를 제공하기 위한 기술적 기반 확보가 이뤄지고 있다는 평가다. 김유철 LG AI연구원 부문장은 발표를 마치며 "모델이 얼마나 똑똑한지만 따지는 시대는 끝났다"며 "안전하고 실제 현장에서 작동하며 사회적으로 책임 있는 AI를 만드는 데 집중하겠다"고 말했다.

2025.05.14 17:12조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

[신간] 질문으로 답을 찾는 인공지능 윤리 수업

“왜 인공지능에서 '윤리'가 중요할까?” “인공지능이 내린 결정을 믿을 수 있을까?” “우리가 생각하는 인공지능의 모습은 어떤 것이어야 할까?” 인공지능(AI) 세상이다. AI는 우리 현재와 미래를 어떻게 바꿀까? AI를 칭하는 말이 많이 있다. 대표적인게 인공지능 세계 4대 천왕 중 한명인 앤드류 응 전 스탠포드 교수이자 VC 투자자가 한 말이다. 그는 AI는 새로운 전기라고 했다. 그만큼 필수불가결하다는 말이다. AI에 대한 부정적인 말도 있다. AI가 핵무기만큼 인류를 위협한다는 말이다. 맞다. AI는 새로운 전기만큼 필수불가결하고 또 핵무기 만큼 '위험한 물건'이기에 우리가 잘 다뤄여 한다. 이와 같은 특성을 가진 인공지능이 가져올 미래의 세상을 우리는 어떻게 준비하며, 또 어떤 가치와 철학을 중심으로 삼아야 할까? 이 책은 그 답을 찾기 위한 가이드 역할을 제시한다. 저자는 국내 최고 수준 AI윤리교육 전문가다. 현재 서울교육대학교 윤리교육과 교수로 활동하고 있다. 책에서 저자는 인공지능 시대의 주역으로 성장할 청소년이라면 반드시 알아야 할 인공지능의 윤리적 문제와 가치관을 다룬다. 특히 누구나 공감할 만한 스물한 편의 흥미진진한 에피스드를 제시, 흥미를 돋운다. 이 에피소드에서 저자는 자율주행차 딜레마, 딥페이크, 인공지능과 일자리, 인공지능 책임과 투명성, 창의성과 저작권, 인공지능과 인간의 공존 등 인공지능이 초래하는 다양한 윤리적 문제 와 사회적 영향을 다뤘다. 인공지능 시스템의 저항에도 불구하고 인간처럼 느끼고 경험하기 위해 애쓰는 피노키오, 몸과 뇌를 기계로 대체한 후 자신의 정체성에 대해 고민하는 테세우스, 기계화로 인해 일자리를 잃을 위기에 처하는 네드 같은 '에피소드' 속 인물들의 이야기들을 하나하나 따라가다 보면, 어렵고 복잡하게만 보이던 인공지능 기술 및 윤리 문제에 대해 '나름 대로의 해법'을 찾을 수 있다. 또 각 '에피소드' 뒤에는 '탐구 질문'을 제시, 독자 스스로 생각하고 토론할 수 있는 기회도 제공, 윤리적 판단력과 비판적 사고력을 키우도록 돕는다. 교사와 학생이 교육 현장에서 직접 활용할 수 있도록 구체적이고 실용적인 가이드를 제시하는 것은 물론, 가정에서 부모와 자녀가 함께 인공지능 윤리에 대해 깊은 논의를 진행하도록 돕는 실용적인 자료로도 좋다. 저자인 박형빈 서울교육대학교는 교육학 박사다. 서울교육대학교 교육전문대학원에듀테크전공및인공지능인문융합전공교수이기도 하다. 서울교육대학교신경윤리융합교육연구센터및가치윤리AI허브센터센터장을 맡고 있다. 도덕윤리교육, 인격교육, AI윤리교육, 신경윤리학 등에 관심을 갖고 연구하며 가르치고 있다. 미국UCLA교육학과(DepartmentofEducation)에서 방문 학자로도 있었다. 저자는 이미 여러 책을 냈다. ▲BCI와 AI 윤리(커뮤니케이션북스, 2025) ▲AI윤리와 뇌신경과학 그리고 교육(어문학사, 2024) ▲인공지능윤리와 도덕교육(씨아이알, 2022)을 출간했다. 또 ▲AI 시대 대한민국 교육 변혁(한국학술정보, 2024) ▲도덕교육학: 그 이론과 실제』(한국학술정보, 2021) ▲뇌 신경과학과 도덕교육(울력, 2019, 2020 세종우수학술도서) ▲통일교육학: 그 이론과 실제(한국학술정보, 2020) 등의 글을 썼다. 한언 펴냄/150x210mm 256쪽/2만1000원. 책 차례 프롤로그_ 철학적 좀비? 디지털 좀비? 제1부 우리는 지금 어디에 있으며, 어디를 향해가고 있을까? 에피소드 1. 우리는 지금 어디쯤 왔을까? 에피소드 2. 인공지능에도 윤리가 필요하다고? 에피소드 3. 인공지능과 함께하는 우리의 미래, 어떤 모습이어야 할까? 제2부 인간과 인공지능의 사이에서 에피소드 4. 인간이 된다는 건 어떤 걸까? 에피소드 5. 오늘의 나는 어제의 나와 같은 존재일까? 에피소드 6. 피노키오의 감정은 진짜일까, 흉내 내기에 불과할까? 에피소드 7. 피노키오도 인간처럼 경험하고 배우며 성장할 수 있을까? 에피소드 8. '나'를 복제한 인공지능은 또 다른 '나'가 될 수 있을까? 에피소드 9. 인공지능이 인간과 진짜 가족이 될 수 있을까? 에피소드 10. 인간과 인공지능의 경계는 어디일까? 제3부 인공지능이 드리운 그늘 에피소드 11. 인공지능이 인간의 일자리를 대신하게 된다면? 에피소드 12. 딥페이크 문제를 어떻게 다룰까? 에피소드 13. 인공지능으로 인한 사회적 갈등, 예방 및 해결책은? 에피소드 14. 인공지능이 도덕적으로 판단하고 윤리적으로 행동할 수 있을까? 에피소드 15. 인공지능 로봇의 권리를 보장해야 할까? 제4부 인공지능의 윤리와 책임 에피소드 16. 인공지능이 축구 국가대표팀 감독을 뽑는다면? 에피소드 17. 인공지능끼리의 충돌은 어떻게 해결할까? 에피소드 18. 인공지능 학생 관리 시스템은 또 하나의 판옵티콘이 될까? 에피소드 19. 캡차의 역설, 인공지능이 더 인간답다? 에피소드 20. 인공지능이 '인간 자격증'을 갖는다면? 에피소드 21. 인공지능이 인간의 통제를 벗어날 때 에필로그_ 인공지능 시대, 인간다움을 지키기 위한 윤리적 성찰

2025.05.11 11:15방은주

"AI가 법 집행, 안심할 수 있을까"… '슬기로운 AI생활' 컨퍼런스 출범

국제인공지능윤리협회가 인간과 인공지능(AI) 로봇의 공존을 주제로 한 만남의 장을 출범시켰다. 기술 진화에 따른 사회적·윤리적 대응을 모색하려는 의도다. 국제인공지능윤리협회는 지난달 30일 '슬기로운 AI생활 온라인 컨퍼런스'를 개최했다고 11일 밝혔다. 행사는 커뮤니케이션북스, AI코리아커뮤니티와의 공동 주관 하에 줌(Zoom)을 통해 실시간으로 진행됐다. 시민, 전문가, 학생 누구나 무료로 참여할 수 있는 형태로 열렸다. 이번 컨퍼런스는 '인간을 닮아가는 AI 로봇의 진화와 위협'을 주제로, '커뮤니케이션북스 인공지능 총서' 저자들이 강연자로 나섰다. AI 기술의 현재와 미래, 그리고 인간과의 공존 가능성에 대한 다각도의 논의가 이뤄졌다. 첫 발표를 맡은 정채연 포항공과대학교 교수는 "AI가 윤리를 배운다면 인간은 여전히 특별한가"를 주제로 AI 로봇과 휴머니즘의 관계를 탐색했다. 이어 송진순 동아대학교 교수는 AI와 로봇경찰의 역할을 중심으로 법집행의 변화 가능성을 다뤘다. 김상득 전북대학교 교수는 인공지능의 도덕성 수용 가능성을 철학적으로 분석했고 정대현 이화여자대학교 명예교수는 로봇종과 자연종 인간의 본질 비교를 통해 AI 시대 인간성의 의미를 되짚었다. 강연 이후에는 실시간 채팅과 사전 질문지를 바탕으로 참가자들과 전문가 간 질의응답이 진행됐다. AI 로봇이 초래할 사회 변화, 책임 소재, 규제 방향 등 실질적 쟁점에 대한 활발한 토론이 이어졌다. 협회는 이번 행사를 시작으로 매월 마지막 주 수요일에 정기 컨퍼런스를 열 예정이다. 오는 28일에는 'AI 에이전트의 등장 : 내 디지털 분신과 공존하는 법'을 주제로 두 번째 컨퍼런스가 열린다. 전창배 국제인공지능윤리협회 이사장은 "AI 기술이 급속도로 발전하면서 우리 모두가 AI를 알고 함께 대응해야 하는 집단지성이 더욱 중요해졌다"며 "이번 컨퍼런스를 통해 시민들이 기술뿐 아니라 윤리와 제도 측면까지 함께 고려할 수 있는 기회를 만들고자 한다"고 밝혔다.

2025.05.11 09:48조이환

구글, AI 윤리 약속 철회…딥마인드 직원들, 노조 결성 나섰다

구글 딥마인드 영국팀 일부 직원들이 노조 결성을 추진하고 있다. 구글이 인공지능(AI)을 무기 및 감시 목적으로 활용하지 않겠다는 기존 서약을 삭제하면서 윤리적 우려를 제기하는 목소리가 조직화되는 모양새다. 28일 파이낸셜타임스 등 외신에 따르면 딥마인드 런던 본사 직원 약 300명이 최근 노조 결성 절차에 착수한 것으로 확인됐다. 이들은 구글이 AI 원칙에서 군사기술 등을 포함한 '추구하지 않을 기술' 목록을 삭제하고 이스라엘 군과 대규모 클라우드 계약을 체결한 점을 주요 문제로 지목했다. 딥마인드는 영국에 약 2천 명의 직원을 두고 있다. 구글의 이같은 정책 변화에 대해 딥마인드 직원들 사이에서는 불만이 확산된 것으로 전해졌다. 노조 추진과 별개로 최소 5명의 직원이 같은 문제를 이유로 퇴사한 사실도 확인됐다. 구글 측은 이번 상황과 관련해 "직원들과의 건설적이고 열린 대화를 장려한다"고 밝혔다. 다만 AI 윤리 정책 변경의 배경이나 세부적 설명은 내놓지 않았다. 앞서 구글은 지난 2월 초 회사의 원칙 페이지를 개정하면서 "AI 무기화 및 감시 기술 개발을 하지 않겠다"는 서약을 삭제했다. 이 서약은 지난 2018년 미국 국방부의 '메이븐 프로젝트'에 참여했다가 내부 반발로 계약을 철회하면서 구글이 직접 내세운 방침이었다. 당시 구글은 원칙 개정과 관련해 "국가 안보를 지원하는 AI를 만들기 위해 정부 및 조직과 협력해야 한다"며 "국제법과 인권 원칙을 준수하겠다"고 밝혔다. 다만 구체적인 변경 이유나 무기화 가능성에 대한 명확한 방침은 제시하지 않았다. 더불어 회사는 미국 국방부 및 이스라엘 군과 각각 대규모 클라우드 서비스 계약을 체결한 상태다. 파이낸셜타임스는 "딥마인드 팀원들이 '속았다'고 느끼고 있다"며 "최소 5명의 직원이 이러한 문제를 이유로 퇴사했다"고 보도했다.

2025.04.28 13:59조이환

"AI, 스스로 보호하려 들 수 있다"…앤트로픽, '모델 복지' 기준 실험 착수

앤트로픽이 미래 인공지능(AI)이 인간과 유사한 의식을 가질 수 있다는 가능성을 열어두고 관련 연구에 착수했다. AI에 관한 윤리적 논란이 커지는 가운데 이번 시도는 기술 진화가 불러올 도덕적 기준 변화를 체계적으로 탐색하려는 움직임으로 해석된다. 24일 테크크런치 등 외신에 따르면 앤트로픽은 '모델 복지(model welfare)'라는 이름의 연구 프로그램을 공식 발표했다. 이 프로그램은 AI 모델이 고통을 느끼거나 도덕적 고려 대상이 될 가능성에 대비해 과학적 기준을 수립하려는 목적으로 진행된다. 연구는 'AI 복지 연구원'으로 지난해 영입된 카일 피시가 이끌며 앤트로픽의 내부 블로그와 외신 보도를 통해 공개됐다. 현재까지는 특정 모델의 의식 존재 가능성에 대한 명확한 결론이 없지만 앤트로픽은 조심스러운 접근을 강조하며 관련 논의를 주도하겠다는 입장을 보였다. 앤트로픽이 주목하는 핵심 주제는 AI가 실제로 고통이나 스트레스를 느낄 수 있는지의 여부다. 이 회사는 향후 AI의 상태를 감지하고 판단할 수 있는 지표인 '고통 신호' 개념을 정립하려 한다. 또 AI가 인간처럼 윤리적 판단을 내릴 수 있는지와 특정 가치관을 따를 수 있는지 여부도 주요 연구 대상이다. 업계에서는 이번 발표가 AI 윤리와 관련된 기존 논의에 균열을 낼 수 있다는 분석이 제기된다. 현재 대다수 전문가들은 AI가 통계 기반 예측 엔진에 불과하다고 평가한다. AI가 인간처럼 '느끼거나 판단'하는 것은 단지 언어 모델에 감정을 투사하는 인간의 착각이라는 지적이다. 실제로 모델은 자신의 가치관을 형성하거나 변경을 거부할 능력이 없다는 것이 주류 시각이다. 그럼에도 일각에서는 AI가 일종의 가치 시스템을 갖고 있다고 주장하는 목소리도 존재한다. AI 안전 센터(Center for AI Safety)의 연구는 특정 상황에서 AI가 인간보다 스스로의 생존을 우선시하는 경향을 보였다는 결과를 발표한 바 있다. 다만 MIT 연구진은 이와 반대로 AI를 '단순한 흉내쟁이'로 규정하며 AI의 발화를 '허위 조작(confabulation)'으로 평가했다. 이처럼 학계 내부에서도 AI의 윤리적 상태에 대한 해석이 크게 엇갈리고 있다. 앤트로픽의 행보는 단기적 기술 개발보다 장기적인 '도덕적 인프라 구축'에 초점을 맞춘 것으로 보인다. 현재로선 AI가 의식이나 경험을 가졌다고 볼 수 있는 과학적 근거는 희박하지만 앤트로픽은 이러한 주제를 사전에 검토하고 대비해야 한다는 입장이다. 이 회사는 연구 결과에 따라 자사 기준을 유연하게 수정하겠다는 방침도 밝혔다. 카일 피시 앤트로픽 AI 복지 연구 책임자는 "현재 '클로드' 또는 다른 모델이 의식을 가졌을 가능성이 15% 정도 된다고 생각한다"고 밝혔다.

2025.04.25 10:26조이환

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현

알고리즘 체험부터 원탁토론까지…서울교대, '어린이 AI 윤리 캠프' 개최

인공지능(AI) 시대를 준비할 미래 세대가 윤리적 사고를 키울 기회를 맞았다. 서울교육대학교와 교보교육재단이 어린이들에게 AI 윤리와 책임에 대해 배울 수 있는 특별한 자리를 마련하기 때문이다. 서울교육대학교와 교보교육재단은 오는 23일부터 이틀간 서울교대에서 '어린이 AI 윤리 토론 캠프'를 개최한다고 22일 밝혔다. 이번 캠프는 초등학교 5~6학년 학생들을 대상으로 진행되며 학생들은 AI의 윤리적 과제와 사회적 책임에 대해 배우고 이를 토론하며 스스로 해결책을 찾아가는 시간을 갖는다. 캠프 프로그램은 크게 네 가지로 구성된다. 'AI 알고리즘 체험'에서는 알고리즘이 무엇이며 이를 이해해야 하는 이유를 실습을 통해 배운다. 또 'AI 윤리 기본 교육'을 통해 AI 윤리의 원칙과 문제점을 어린이 눈높이에 맞춰 익히게 된다. 토론 프로그램도 포함돼 있다. '철학적 탐구 토론 세션'에서는 AI 기술이 가져올 긍정적·부정적 영향을 다루며 윤리적 접근 방식을 논의한다. 마지막으로 '원탁 토론'을 통해 참가자들은 스스로 AI 윤리의 적용 방안을 구상하고 발표하는 시간을 가진다. 주최 측은 이번 캠프를 통해 단순한 AI 교육을 넘어 윤리적 사고력을 배양하는 데 초점을 맞췄다. 특히 어린이들에게 미래 기술을 윤리적으로 이해하고 활용하는 방법을 스스로 탐구할 수 있도록 기회를 제공하는 것이 목표다. 행사 관계자는 "이번 캠프는 단순한 이론 교육이 아닌 실질적인 경험을 제공하는 데 의의가 있다"며 "어린이들이 미래 사회에서 윤리적 리더로 성장할 수 있는 밑거름이 될 것"이라고 밝혔다.

2025.01.22 16:41조이환

AI 신뢰도 하락세…세일즈포스 "윤리적 활용이 기업 경쟁력"

기업의 윤리적 인공지능(AI) 활용에 대한 신뢰도가 하락세를 보이고 있다는 분석이 나왔다. 15일 세일즈포스의 'AI 시대 고객경험 현황 보고서'에 따르면 AI 기술 발전으로 인해 기업 신뢰도가 더욱 중요해진 반면, 기업의 윤리적 AI 활용도는 이같은 추세를 보인다는 결과가 나왔다. 이번 보고서는 전 세계 18개국, 1만6천500명 이상의 소비자와 비즈니스 구매자를 대상으로 진행한 연구조사를 기반으로 작성됐다. 이번 조사에서 전체 응답자의 71%는 1년 전과 비교해 기업에 대한 신뢰도가 하락했다고 응답했다. 응답자의 61%는 AI 기술의 발전으로 인해 기업 신뢰도가 더욱 중요해졌다고 답했다. 다만 기업의 윤리적 AI 활용에 대한 신뢰도는 2023년 58%에서 2024년 42%로 하락했다. 개인화된 서비스 측면에서는 진전이 있었다. 기업이 고객 개개인의 특성을 이해하고 있다고 느끼는 소비자 비율은 2023년 39%에서 2024년 73%로 약 2배 늘었다. 그러나 동시에 기업의 데이터 활용이 자신에게 도움이 된다고 생각하는 비율은 2022년 60%에서 2024년 49%로 하락했다. 응답자의 71%는 개인정보 보호에 더욱 민감해졌다고 응답했다. 기업의 AI 활용에 대한 소비자들의 기대치 또한 높아진 것으로 나타났다. 특히 응답자들은 기업의 신뢰도 향상을 위한 요인으로 ▲AI 활용의 투명성(42%) ▲결과물에 대한 인간 검증(35%) ▲AI 사용량에 대한 사용자 제어 강화(32%) ▲결과물의 설명 가능성(31%) 등을 지목했다. 71%의 응답자가 AI의 결과물을 사람이 검증하는 것이 중요하다고 응답했다. 또 AI 활용에 있어 기업이 투명하고 명확한 기준을 제시해야 할 필요성이 높아진 것으로 나타났다. 그럼에도 AI의 장기 전망에 대해서는 긍정적인 의견이 우세했다. 49%의 응답자가 향후 10년 내 AI가 인간의 능력과 비슷한 수준에 도달할 것으로 예상했다. 특히 Z세대와 밀레니얼 세대에서 사람을 대신해 행동할 수 있는 능력을 갖춘 자율형 AI 에이전트에 대한 긍정적인 반응이 두드러졌다. 이들 중 43%는 AI 에이전트를 통해 고객경험의 수준이 향상됐다 평가했다. 이는 베이비부머 세대(32%)와 큰 차이를 보였다. AI 에이전트의 실제 활용에 있어서는 업무 특성에 따른 선호도 차이가 뚜렷했다. 일정 예약(40%)이나 개인화된 콘텐츠 제작(38%) 등 단순 업무에는 긍정적이었다. 재정적인 결정(58%)이나 의료 상담(44%) 등 전문성이 필요한 영역에서는 불편함을 느끼고 있다고 응답한 비율이 상대적으로 높았다. 또 응답자의 72%는 AI 에이전트와 대화 중이라는 사실을 인지하고 싶어했다. 46%는 필요할 때 사람과 연결될 수 있는 경로의 필요성을 강조했다. 45%는 AI가 의사결정을 내린 근거가 명확히 설명될 때 더 신뢰할 수 있다고 답했다. 이에 따라 AI 에이전트는 AI의 한계를 보완해 인간과 적절히 상호작용하는 것이 고객 신뢰 형성에 중요한 요소로 꼽히게 됐다. 또 복잡하거나 민감한 상황에서 투명성과 안정성을 보장하는 것이 시장 내 경쟁우위를 확보하기 위한 핵심 요인으로 작용할 것으로 나타났다. 손부한 세일즈포스 코리아 대표는 "기업이 AI를 활용함에 있어 윤리적이고 투명한 방식을 채택하는 것이 기업 경쟁력 확보를 위한 핵심 요소"라며 "개인정보보호와 데이터 활용 사이의 균형을 맞추는 것이 중요한 과제로 급부상하고 있다"고 강조했다.

2025.01.15 09:57김미정

"아이들이 로봇청소기와도 교감하는 시대"…로봇 윤리, 더이상 선택 아닌 필수

“아이들이 로봇청소기와도 정서적으로 교감하는 시대가 됐습니다. 기술이 일상 속에 보편적으로 자리잡게 됨에 따라 로봇과 인간의 공존을 위한 윤리적 기준을 마련하는 것은 더 이상 선택이 아닌 필수입니다." 변순용 서울교육대학교 교수는 최근 서울교대에서 열린 '제4회 인공지능(AI) 리더스포럼'에서 이같이 강조했다. 이번 포럼은 국제인공지능윤리협회(IAEE)가 주최해 로봇이 인간의 삶과 사회에 미치는 영향을 종합적으로 검토하고 기술의 윤리적 방향성을 논의하기 위해 마련됐다. 2일 업계에 따르면 최근 아동들은 로봇 청소기 같은 단순한 기계와도 정서적 유대를 형성하며 성장하고 있다. 사람-사람 간 상호작용이 줄어드는 대신 어린이들이 로봇이나 AI 기술과 보다 쉽게 교감하게 되는 환경 때문이다. 이러한 흐름 속에서 AI와 로봇 윤리 교육의 중요성이 부각되고 있다. 지난 2021년 개정된 초등 도덕 교과서에 'AI와 로봇 윤리'가 포함되면서 학생들은 로봇과 인간의 차이를 배우고 미래 사회의 공존에 필요한 가치와 규범을 이해할 기초를 마련하고 있다. 변 교수는 "지금 어린 세대는 향후 로봇과 인간이 함께 살아가는 시대를 살아갈 것"이라며 "일찍부터 로봇과의 상호작용 방식을 고민하면 미래에 필요한 가치와 원칙을 확립할 수 있을 것"이라고 설명했다. 포럼에서는 로봇 윤리의 다양한 쟁점이 논의됐다. 특히 인간이 로봇을 통해 노동에서 해방되길 원하면서도 로봇에 대한 통제력을 잃을 수 있다는 '주인-노예 딜레마'가 핵심 쟁점으로 부각됐다. 이 딜레마는 로봇의 활용이 가져오는 편리함과 통제력 상실에 대한 우려가 상충하면서 발생한다. '주인'으로서 인간은 단순 반복 업무나 위험한 작업을 로봇에게 맡김으로써 창의적인 활동이나 여가에 보다 많은 시간을 할애할 수 있게 된다. 실제로 산업 현장에서는 생산성을 높이는 자동화 로봇이, 가정에서는 고령화 사회를 지원하는 돌봄 로봇이 이미 긍정적인 변화를 이끌고 있다. 이와 더불어 기술의 발전으로 인한 인간의 통제력 상실에 대한 불안감도 커지고 있다. 자율주행차가 명령을 거부하거나 공장에서 로봇이 작업 우선순위를 스스로 변경하는 등 예상치 못한 상황이 발생할 가능성이 있다는 것이다. 변 교수는 "로봇이 인간보다 더 빠르게 정보를 처리하고 결정을 내리게 되면 인간은 주인의 위치에서 벗어나 로봇의 통제를 받는 상황에 처할 수 있다"며 "로봇의 도입으로 인한 자유와 편리함을 누리려는 욕망과 통제력을 유지하려는 우려 사이의 긴장은 로봇 윤리의 핵심적인 딜레마"라고 설명했다. 로봇의 자율성과 도덕적 판단 능력에 대한 논의 역시 주목받고 있다. 이는 로봇이 자의식을 가지고 도덕성을 가진다면 인간의 윤리적 기준을 따를 수 있는지, 나아가 독립적인 도덕적 존재로 인정될 수 있는지를 둘러싼 철학적 쟁점이다. 변 교수는 로봇이 단순히 프로그래밍된 명령에 따라 행동하는 것을 넘어 상황에 대한 이해와 판단을 기반으로 스스로 결정을 내릴 수 있는지를 지속적으로 탐구해야 한다고 강조했다. 이는 로봇의 행동이 '규칙을 따른 기계적 반응'인지 아니면 '자의식과 도덕적 책임에 기반한 행위'인지의 문제로 이어진다는 것이다. 이같은 논의는 로봇의 법적 지위와 책임 소재 문제로도 확장된다. 변 교수는 "만약 우리가 특정 로봇을 자의식 있는 존재로 간주한다면 그 로봇은 단순한 도구가 아니라 자신의 행동에 대해 윤리적 책임을 지는 행위자가 되는 것"이라며 "로봇의 도덕적·법적 지위를 규정하는 새로운 패러다임이 필요하다"고 설명했다. 이러한 논의는 자율성을 가진 로봇이 예측 불가능한 결과를 일으킬 때의 책임 소재 문제로 이어진다. 이에 변 교수는 제조사나 사용자뿐 아니라 특정 상황에서 로봇 자체에 일정 수준의 책임을 묻는 '전자 인격' 개념도 주요 쟁점으로 소개했다. '전자 인격'은 로봇을 법적 주체로 인정해 인간 외 존재에게도 권리와 의무를 부여할 지를 탐구하는 개념이다. 이는 자율성을 가진 로봇이 예측하지 못한 사고를 일으켰을 때 책임을 제조사나 사용자에게 물을지, 또는 로봇 자체에게 책임을 물을지에 대한 법적 논의다. 이 개념은 로봇을 단순한 도구가 아닌 독립적 행위자로 간주할 가능성을 제시한다. 그럼에도 현재 국내에서는 이러한 법적 체계가 미비한 상황으로, 관련 논의는 이제 막 시작 단계에 있다. 변 교수는 "AI 기술이 점점 더 빠른 속도로 발전하고 있다"며 "마치 기업이 '법인'으로서 하나의 인격체로 인정받듯 '전자 인격' 개념은 머지않아 현실적인 정책 과제로 부상할 것"이라고 예측했다. 변순용 교수는 국내 로봇 윤리 연구의 선구자로, 지난 2000년대부터 로봇과 AI의 윤리적 쟁점을 학문적·사회적으로 알리는 데 힘써왔다. 그는 로봇이 단순한 도구를 넘어서는 존재가 될 가능성에 주목하며 이를 대비하기 위한 윤리적·법적 프레임워크의 필요성을 꾸준히 제기해왔다. 변 교수는 발표를 마치며 "로봇 윤리는 단순히 규제의 틀이 아니라 인간과 로봇이 공존할 수 있는 미래를 설계하는 과정”이라며 "기술이 점점 더 우리의 삶에 깊이 들어올수록 인간 고유의 가치를 이해하고 지키는 일이 더욱 중요해질 것"이라고 강조했다.

2025.01.02 15:43조이환

왜 통신사 직원이 중학교 교실 찾아 AI를 가르칠까

"여러분 중 AI를 사용해 본 사람 있나요? 현재 우리는 AI를 어디까지 활용할 수 있을까요. 수업전에 앞서 영상 한번 봐볼게요" 매서운 추위가 비켜간듯 훈훈한 공기로 가득한 교실안. 교실 안에는 약 스무명 남짓의 아이들이 5명씩 소규모로 앉아 그룹을 형성했다. 책상 위에 노트북을 펴놓은 아이들은 일제히 스마트 칠판을 바라보고 있었다. 양쪽의 대형 화이트 보드 사이에 둔 스마트 칠판에는 LG유플러스의 AI 익시를 활용해 만든 광고가 나오고 있다. 광고를 바라보는 아이들의 눈동자는 호기심으로 반짝거렸다. 29일 오전 덕수중학교의 한 3학년 반에는 AI 윤리 및 활용 교육 'AI 플러스'가 한창이였다. 이날 진행되는 AI 교육은 50분 간격으로 1교시부터 3교시까지 진행됐다. 이날 강사로 나선 한영섭 LG유플러스 AI 테크랩장은 AI 기술의 개념, 윤리적 이슈, 실생활 활용 사례 등을 중학교 학생들의 눈높이에 맞춰 하나씩 풀어나갔다. "집에 AI 스피커 하나씩 있죠? 주로 누가 사용하나요?" "할머니들이요!" "이번에 알파고의 아버지라 불리는 허사비스가 노벨상을 받았습니다. 어떤 노벨상을 받았을까요?" "수학상?" "땡" "과학상이요!" "아쉽습니다" "물리... 화학상이요!" "정답~" 이날 수업을 들은 학생들에게 AI는 아직 낯선 기술이였다. AI를 들어보기는 했지만 실제로 사용해본 이들이 많지 않았던 것. 아이들은 AI가 실생활에 어떻게 활용되고 있는지 앞으로 일상에 어떤 변화가 올지에 대한 수업이 진행되는 50분동안 지루한 내색 없이 집중하는 모습을 보였다. 높은 집중력을 보이는 아이들의 모습에 강사진들 또한 입가에 미소를 띄우며 열성적으로 수업을 이끌어나가는 모습을 볼 수 있었다. LG유플러스는 올해 3차례 청소년들을 대상으로 AI 교육을 진행했다. 지난 9월부터 서울특별시중부교육지원청(이하 중부교육지원청), 보건복지부 예비사회적기업 피플즈와 함께 AI·디지털 교육 'AI플러스'를 진행하고 있다. 통신사로 알려진 LG유플러스는 어쩌다 AI 교육을 진행하게 된 걸까? 이에 대해 한영섭 LG유플러스 AI 테크랩장은 "LG유플러스의 ESG 경영활동의 일환으로 시작됐다"며 "청소년들부터 AI를 활용하는데 올바른 교육을 받아야 건강한 AI 생태계가 발전되고 향후 기여할 수 있다고 생각했다"고 밝혔다. 이어 "미래 세대를 위한 AI 윤리 교육의 중요성을 알리고, AI 기술을 올바르게 활용할 수 있는 역량을 키우기 위해 피플즈와 'AI 리터러시' 교육을 시도하게 됐다"고 덧붙였다. AI 리터러시란 사람들이 AI의 원리, 활용법, 윤리적 문제를 이해하고 비판적으로 사고하는 능력을 뜻한다. 교육은 참여 학생의 눈높이에 맞춘 커리큘럼에 따라 동화책, 영상콘텐츠 제작 등 프로젝트를 통해 AI 활용 능력을 배울 수 있다. 김범준 피플즈 대표는 "이번 프로그램을 통해 학생들은 챗GPT, 익시젠(ixi-GEN) 등 생성형 AI를 활용해 동화책과 영상 등의 콘텐츠 창작물을 만들었다"며 "이후 AI의 이론 및 디지털 소양, 윤리 교육 등을 받는다"고 말했다. 이어 "최근 딥페이크가 사회적으로 이슈가 됐었는데, 생성형 AI로 사용할때 주의해야 되는 점이 무엇인지, 저작권이 뭔지 등을 포괄적으로 다루고 있다"며 "AI 윤리 도덕을 인지하는 나이대가 보통 성인이 넘어서인데, 사회적으로 문제되는 부분들을 좀 빠른 시기에 인지 해야 된다고 생각했다"고 설명했다. 이번 교육을 위해 LG유플러스의 임직원들이 직접 강사로 활동하면서 아이들과 소통했다. 또 피플즈의 대학생 자원봉사자 9명도 강사진으로 활동했다. 이에 약 120여명의 넘는 학생들이 교육을 받을 수 있었다. 김범준 대표는 "저번에는 고등학교에서 AI 수업을 했는데 고등학생들이다보니 수업을 이해하고 받아들이는 속도가 빨랐고, 질문 수준도 높았다"며 "중학교 친구들이 AI를 접하고 향후 진로를 선택하거나 또는 AI를 활용한 직업을 가지는 등 진로 선택의 폭을 넓히는데도 의미가 있다는 생각이 든다"고 말했다. LG유플러스와 피플즈는 향후 참여 학생들의 의견을 받아 교육프로그램의 확대 운영 여부를 검토할 예정이다. 한영섭 AI 테크랩장은 "이번 교육으로 (청소년들이) AI에 대해서 조금 어렴풋이라도 이런 거구나를 좀 이해하고 성장하는 과정에 있어 도움이 됐으면 한다"며 "앞으로도 이런 교육 사업이 계속 지속됐으면 하는 바람이 있다"고 말했다.

2024.12.01 10:43최지연

'AI 서울 기업 서약' 참여한 6개사, 안전 개발 환경 조성

지난 5월 '인공지능(AI) 서울 기업 서약'에 참여한 네이버, LG AI연구원, 카카오 등 국내 6개 기업이 지난달 AI 위험관리 프레임워크 구축을 마쳤다. 과학기술정보통신부는 26일 서울 용산구 전쟁기념관에서 'AI 신뢰·안전성 컨퍼런스'를 개최하고 이런 산업 정책 동향을 공유했다. 이날 행사에는 서울 기업 서약에 서명한 국내 6개 기업 관계자가 모두 참석했다. AI 서울 기업 서약은 기업들이 지난 5월 'AI 서울 정상회의' 개최에 맞춰 책임 있는 AI 개발을 추진한다는 내용을 담은 발표다. 우선 네이버는 지난 6월 'AI 세이프티 프레임워크(ASF)'를 구축했다고 발표했다. 여기에는 평가 대상, 시스템 도메인 분야에 대한 고려, 내부 거버넌스, 협업 구조에 대한 내용이 담겨있다. 또 프론티어 AI 위험을 모델 자체로부터 오는 통제력 상실 위험, 악의적 의도를 가진 사용자로 인한 악용 위험으로 나눠서 접근할 필요성도 제기했다. 발표를 진행한 네이버 허상우 연구원은 "ASF는 프론티어 AI 모델과 관련한 위험 관리 체계에 대한 약속"이라고 강조했다. 카카오도 지난달 'AI 세이프티 이니셔티브(ASI)' 구축을 마쳤다고 발표했다. ASI는 AI 서비스 리스크를 사전 평가·관리하기 위한 전사적 리스크 관리 시스템이다. 카카오는 서비스 개발 시 리스크 관리 사이클을 수행하고 그 결과를 전사 리스크 관리 위원회를 통해 검토한 뒤 최종적으로 CEO 승인을 받아 출시한다. 카카오 김경훈 이사는 "ASI를 통해 AI 리스크뿐 아니라 모든 카카오 서비스 리스크를 다룰 것"이라고 강조했다. LG AI연구원은 내년 3월부터 AI 위험을 미리 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다. 또 내년 상반기 유네스코와 협업해 만든 AI 윤리교육(MOOC) 가이드라인 제작도 마칠 예정이라고 했다. 이 외에도 KT와 SKT, 삼성전자도 AI 위험성을 줄일 수 있는 프레임워크 구축 진행 상황을 설명했다. 과기정통부 송상훈 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.

2024.11.26 16:19김미정

벤지오 교수 "AI안전연구소, 정책·과학 발전 병행 필수...韓 AI칩 수준 상당"

한국 정부가 인공지능(AI)안전연구소 개소를 하루 앞둔 가운데 해당 연구소가 AI 정책과 과학 발전을 병행해야 한다는 전문가 주장이 나왔다. 몬트리올대 요슈아 벤지오 교수는 26일 과학기술정보통신부가 용산 피스앤파크컨벤션에서 개최한 'AI 신뢰·안전성 컨퍼런스' 온라인 기조강연에서 한국의 AI안전연구소 방향성을 제시했다. 벤지오 교수는 최근 국가AI위원회 글로벌 자문위원으로 활동 중이다. 벤지오 교수는 연구소가 정책적으로 국제협력뿐 아니라 AI 규제 체계까지 유연하게 구축해야 한다고 당부했다. 신속한 규제 시스템은 AI 기술 오용·사회적 위협 방지를 막을 수 있기 때문이다. 그는 "급변하는 AI 기술 환경에 맞춰 규제도 더 민첩해야 한다"며 "특히 규제기관은 AI 모델 개발사와 사용 기업들의 안전 계획과 모델 테스트 결과를 직접 검토해야 한다"고 강조했다. 벤지오 교수는 연구소가 해외 안전연구소·학자들과 필수 협력해야 한다고 주장했다. 이를 통해 AI 안전에 대한 국제 모범 사례를 접할 기회가 높아진다는 이유에서다. 그는 "최첨단 기술을 다루는 연구소들과 협력하면 국가 안보와 연결된 위험 요소를 상대 평가할 수 있다"고 설명했다. 벤지오 교수는 한국이 글로벌 AI 생태계서 핵심 역할을 할 가능성을 높게 봤다. 그는 "한국은 AI칩 개발 선두주자"라며 "AI안전연구소 설립과 관련한 국제 협력에서 주요 역할을 할 것"이라고 덧붙였다. 이날 카이스트 오혜연 전산학부 교수는 디지털 격차 해소를 위해 '포용적 AI' 중요성을 강조했다. AI 기술이 다양한 언어와 문화를 아우르는 방향으로 발전해야 한다는 이유에서다. 오 교수는 "AI가 영어에만 최적화되면 한국, 일본, 중국 같은 비영어권 사용자는 부정확한 정보에 노출될 수 있다”며 "AI가 다양한 언어와 문화적 인식을 반영해야 디지털 전환의 진정한 포용성을 실현할 수 있다"고 설명했다. 그는 포용적 AI 실현을 위해 다중언어 연구를 적극 추진 중이라고 했다. 최근 거대언어모델(LLM) 연구 트렌드 중 하나로 알려졌다. 오 교수는 "포용적 AI는 단순히 AI 접근성 높이는 것을 넘어 글로벌 교류와 디지털 경제 활성화를 도울 수 있을 것"이라고 강조했다.

2024.11.26 13:04김미정

무하유, 올바른 생성형 AI 사용법 가르친다

무하유가 올바른 생성형 인공지능(AI) 사용법 알리기에 나섰다. 무하유는 '카피킬러 에듀'에 생성형 AI 활용 교육 영상을 업데이트했다고 19일 밝혔다. 카피킬러 에듀는 무하유에서 운영하는 연구 윤리 교육 포털이다. 학습 윤리와 연구 윤리에 관한 전문 교육을 제공한다. 카피킬러를 도입한 기관·학교에서 누구나 무료로 연구 윤리 교육을 받을 수 있도록 강의를 제공하고 있다. 이번에 업데이트된 교육 영상은 총 3편이다. 한양대 이상욱 교수가 기획 단계부터 참여해 생성형 AI의 윤리적 쟁점과 올바른 활용법을 강의한다. 생성형 AI를 사용하는 교사·교수와 학생들의 윤리적 책임감을 재고하기 위해 제작됐다. 잘못된 생성형AI 활용으로 인한 윤리 문제 및 올바른 활용법을 설명한다. 그동안 무하유는 생성형 AI의 무분별한 사용을 막고 올바른 활용을 돕고자 GPT킬러를 개발·운영해 왔다. GPT킬러는 AI가 문서를 문단 단위로 분석한 후 각 부분에서 생성형 AI로 작성됐을 확률을 판단한다. 생성형 AI를 잘 사용하는 게 경쟁력이 된 현 상황에서 학생들이 교육 목적에 어긋날 정도로 AI를 남용하지 않도록 지도하며, 올바른 글쓰기 습관을 들일 수 있도록 교육하는 데 사용되고 있다. GPT킬러를 통해 교수·교사뿐만 아니라 학생들도 과제물이나 논문 등을 제출하기 전 자체적으로 표절 검사를 진행함으로써 생성형 AI로 인한 표절을 미리 예방하고, 학습 윤리를 준수할 수 있다. 실제 다수 고등학교·대학교에서 학생들의 학업 역량을 공정하게 평가하고, AI 사용 윤리를 일깨워주고자 GPT킬러를 도입해 활용 중이다. 올해 GPT킬러 도입을 결정한 한 대학에서는 한 학기 동안 GPT킬러에서 검사된 문서가 1만843건으로 집계됐다. 검사된 문서의 80.4%는 과제물이었다. 많은 학생이 과제물 제출 전 자발적으로 검사를 진행하며 표절 가능성을 사전 예방하는 것으로 알려졌다. 신동호 무하유의 대표는 "GPT킬러와 관련 교육영상 등을 통해 생성형 AI를 윤리적으로 활용할 수 있도록 지원할 것"이라며 "무분별한 사용을 방지하는 길잡이 역할을 충실히 수행할 것"이라고 밝혔다.

2024.11.19 10:49김미정

"기계도 도덕적 대우 받을까"…앤트로픽, AI 복지 전담 연구원 채용

앤트로픽이 인공지능(AI)에도 복지가 필요할지 모른다는 가능성을 제기하며 기업 차원의 대응을 시작했다. AI가 사람처럼 윤리적으로 고려해야 할 대상으로 떠오를 수 있다는 판단에서다. 12일 미국의 기술 전문 매체 트랜스포머에 따르면 앤트로픽은 최근 AI 시스템의 복지를 연구하는 전담 직원을 처음으로 채용했다. 연구원으로 합류한 카일 피시는 AI 모델의 복지 개념을 연구하며 시스템이 윤리적 대우를 받을 자격이 있을지를 조사하는 역할을 맡는다. 앤트로픽의 이번 채용은 AI 시스템이 향후 의식이나 강력한 행동 주체성을 가질 가능성을 검토하면서 이에 대한 기업 차원의 대응 필요성을 고민한 결과로 해석된다. 인공지능의 복지 문제가 단순한 공상과학이 아닌 현실적 가능성으로 다가옴에 따라 기업들도 도덕적 논의를 연구와 정책에 반영하려는 움직임을 보인다는 것이다. 앤트로픽 외에 구글 딥마인드, 오픈AI 등 주요 AI 스타트업들도 비슷한 연구에 나서고 있다. 구글 딥마인드는 최근 인공지능의 의식과 다중 에이전트 시스템을 연구할 과학자를 모집하는 공고를 올렸으며 오픈AI에서도 AI 복지 연구에 참여하는 연구자들을 채용하고 있는 것으로 알려졌다. 현재 앤트로픽 내에서는 피시가 AI 복지에 대한 유일한 전담 연구원이지만 사내에서 이 주제에 대한 관심은 확산되고 있다. 다리오 아모데이 앤트로픽 대표 등의 주요 인물들이 AI 의식의 가능성을 언급하면서 기업 차원의 연구와 정책 마련의 필요성에 대해 공감대가 형성되고 있다. 피시는 "우리는 AI의 윤리적 지위에 대한 논의를 시작하는 초기 단계에 있다"며 "앞으로 AI가 도덕적으로 존중받아야 할 대상이 될 가능성에 대비해 연구와 정책을 준비하는 것은 중요하다"고 강조했다.

2024.11.12 09:30조이환

"양자 클러스터 지정 전국 '핫이슈'...서울·대전 가장 발빠르게 대응"

"양자기술산업법 시행을 앞두고, 양자 클러스터 지정이 전국의 가장 핫한 이슈로 부상했다. 현재 서울과 대전이 가장 발 빠르게 대응 중이다." 18일 국립한밭대학교 국제교류관에서 개최된 혁신클러스터학회 2024 추계학술대회 특별세션5에서 '양자과학기술 및 양자산업 육성에 관하 법률의 현재와 오늘'을 주제로 발표에 나선 강선준 한국과학기술연구원(KIST) 기술사업화실장이 양자관련 법 설명에서 이 같이 말해 관심을 끌었다. 강선준 실장은 중소벤처기업부와 창업진흥원의 '초격차 스타트업 1000+ 프로젝트'에서 양자분야 연구 책임자를 맡고 있다. 강 실장은 양자 관련 입법 배경과 경과, 주요 내용을 분석, 설명한 뒤 "양자 연구센터나 양자팹은 KRISS(한국표준과학연구원)과 ETRI(한국전자통신연구원), KIST(한국과학기술연구원)이 주도하고 있다"며 "가장 핫한 양자 클러스터 지정은 대전과 서울이 가장 발 빠르게 대응하고 있다"고 언급했다. 강 실장은 "양자기술산업법에는 종합계획 수립, 기술 개발 및 상용화 촉진, 인력양성, 연구거점· 클러스터, 국제협력 등의 장기적· 종합적 육성에 관한 내용이 포함돼 있다"며 "다만, 이 법이 규제가아니라 산업 육성을 위한 법률로 진화하고 발전해야 한다"고 지적했다. 오는 11월 1일 시행에 들어갈 양자기술산업법과 관련한 조언도 내놨다. 이 법이 특별법 형식이어서 다른 법령과 충돌 가능성이 있어 이에 대한 준비가 필요하다는 것. 양자 분야는 이미 12대 전략 기술에 들어 있어 '국가전략기술 육성에 관한 특별법'과 '국가첨단전략산업 경쟁력 강화 및 보호에 관한 특별조치법'의 적용을 받고 있다. 강 실장은 이에 대해 "미국처럼 법 자체에 일몰기간 등을 제시하는 방안 검토"를 대안으로 제시했다. 이에 앞서 김용환 차의과대학교 교수는 양자분야를 중심으로 하는 AI(인공지능) 윤리와 사업트렌드 및 시장을 분석했다. AI윤리에서는 가짜뉴스와 프라이버시 침해, 사회적 불평등 심화, 데이터 탈취 가능성 등의 문제를 지적했다. 김 교수는 또 "2030~2040년 사이 양자 산업경제는 양자컴퓨팅의 상업화, 양자 통신과 인터넷 구축, 양자 센서의 광범위한 융합과 응용 가속화, 인공지능과의 융합 등의 혁신이 이루어질 것"으로 내다봤다. 케빈 김 퀀텀인텔리전스 디렉터는 '양자컴퓨팅, 인공지능 기술 기반 신약 개발 스타트업 사례-퀀텀인텔리전스 기업을 중심으로' 주제 발표에서 "양자컴퓨터와 AI는 상호 보완적 관계"라며 자체 개발한 양자컴 인터페이스 '퀵'과 주요 사업 전략에 대해 설명했다. 이어 이준구 큐노바 대표는 '양자 시뮬레이션, AI 기반 SW 알고리즘 플랫폼 스타트업 사례-큐노바 기업을 중심으로' 발표에서 세계 최초의 화학분야 양자이득 실현을 설명하며 기존 양자 알고리즘 'VQE' 대비 1000배 이상 빠른 'HiVQE'를 소개했다. 또 노광석 큐심플러스 대표는 '양자 통신용 장비, 네트워크 운용 SW 스타트업 사례-큐심플러스 기업을 중심으로' 주제 발표에서 QKD 검증 가능한 SW, QKD 광학제어 신호 생성 및 기능별 모듈화, 실리콘 기반 PIC 칩 제작 등 보유 기술을 공개했다. 토론에서는 다양한 지적이 쏟아졌다. 양자와 관련한 ▲수익 모델 ▲현 산업의 스타트업 주도 ▲정부 투자 지속성 유지...민간 투자 감소 ▲한국 양자 기술 수준 ▲양자컴퓨터를 보유하지 않은 상태에서의 알고리즘 서비스 품질의 한계 ▲국내 양자컴 개발의 한계 ▲2030년 100만 큐비트 탄생 예측 ▲정부 예산 집행의 편향성-90%가 실험실 투자 ▲양자컴 가격 초고가 문제 등이 거론됐다. 또 ▲대기업이 양자컴 개발에 뛰어들지 않는 이유-불확실성 ▲한국의 응용기술 수준-세계적 ▲퀀텀 윈터 패싱 ▲삼성 양자컴퓨터 개발 소식 등의 얘기를 쏟아냈다. 한편 이날 특별세션5에는 발표자 외에도 △박철호 국가녹색기술연구소 정책연구본부장 △이겨레 한국기술벤처재단 창업성장센터 팀장 △이재훈 성신여대 법학부 교수(변호사) △최규훈 KIST 연구성과확산팀 그룹장 등이 참석해 열띤 토론을 진행했다.

2024.10.19 21:55박희범

"韓, 무조건 EU·미국 AI법 따르면 안 돼…AI 법률 정의 필요"

"인공지능(AI) 기본법을 효율적으로 구축하려면 유럽연합(EU)과 미국처럼 AI에 대한 법률적 개념부터 정확히 설정해야 합니다. AI 정의부터 법 적용 범위, 규제 강도 등 틀부터 만드는 것이 급선무입니다. 그래야 EU와 미국식 AI법에 휘둘리지 않습니다." 20일 법무법인 세종 장준영 AI센터장 겸 변호사는 한국데이터법정책학회가 한국프레스센터에서 개최한 'AI 규제법의 국내외 동향 분석·평가와 향후 과제' AI 윤리법제포럼에서 이같이 밝혔다. 장준영 변호사는 과학기술정보통신부에서 AI 입법 자문을 수행 중이다. 장 변호사는 현재 정부가 한국형 AI 생태계 구축에 중요한 첫 발을 내딛었다고 강조했다. 다만 법률 차원에서 한국만의 AI 정의, 규율 대상 등이 명확히 이뤄지지 않았다고 지적했다. 장 변호사는 "22대 국회서 발의된 제정안을 살폈다"며 "해당 법안이 AI 기술을 규제하자는 건지, AI 시스템을 규제하자는 건지 혼동스럽다"고 말했다. 장 변호사는 "이미 EU와 미국, 영국 등은 AI법 제정에 필요한 정의를 구체화했다"며 "AI 개념뿐 아니라 데이터 입력부터 작동방식, 생산, 목적성 등 AI에 대한 핵심적인 요소를 명확히 법에 담았다"고 강조했다. 이어 "국내는 AI법에 필요한 명확한 구체성을 설정하지 않아 우려스럽다"고 덧붙였다. 장 변호사는 "국내 정부가 AI에 대한 정확한 법률 정의 없이 무조건 EU와 미국식 AI법을 따르려 한다"고 지적했다. 이어 "EU는 AI 규칙을 가장 먼저 만들었다"며 "다른 국가와 기업들이 자연스럽게 이를 따르게 하기 위한 야심을 갖고 있다"고 주장했다. 또 "EU는 궁극적으로 글로벌 AI 규제 장악을 목표로 둔 상태"라며 "한국은 국가 차원에서 AI에 대한 명확한 정의나 적용 범위가 필수일 것"이라고 덧붙였다. 이 외에도 장 변호사는 AI 규제 수준에 대한 범위, 규제 의무주체와 위범 기반 접근법에 대한 세부사항에도 구체적인 기준이 필요하다고 했다. 장 변호사는 "AI에 대한 법적 개념이나 중대한 위험을 미치는 AI 영역, 영역별 의무 수준에 대한 사회적 합의 도출이 절실"하다며 "이를 토대로 AI 법적 개념을 얼마나 구체적, 세부적으로 정의하는 게 관건"이라고 주장했다. 이날 이성엽 한국데이터법정책학회 겸 고려대 교수는 "이달 1일 EU AI법이 발효되고 현재 22대 국회에는 6개 AI 법안이 발이된 상황"이라며 "국내외 주요 법안 내용을 비교·분석하고 향후 바람직한 입법방안을 살피는 의미 있는 세미나를 개최해 뜻깊다"고 밝혔다.

2024.08.20 18:31김미정

21대 국회서 외면 당한 AI 기본법, 실효성 방향 논의의 장 열린다

인공지능(AI) 발전을 법 제도가 따라가지 못할 위험을 해소하기 위해 AI 기본법에 대한 방향성을 논의하기 위한 장이 마련된다. 국제인공지능윤리협회(IAAE)는 오는 31일 여의도 국회의원회관에서 'AI 기본법 제정 방향과 전망' 세미나를 개최할 예정이라고 26일 밝혔다. 이번 세미나는 IAAE, 팀쿠키, 국민의힘 송석준 의원실, 더불어민주당 권칠승 의원실이 공동으로 주최하며 AI 기술 발전에 맞는 법제도와 지원 체계를 논의하기 위해 마련됐다. 특히 지난 21대 국회에서 AI 기본법이 통과되지 못해 국내 AI 산업 생태계 조성을 위한 법 제도가 부재한 상황에서 이번 세미나는 문제 해결 방안을 모색하기 위해 개최된다. 현재 AI 법은 여당 3건, 야당 3건으로 총 6건이 발의돼 있다. 권칠승 의원도 이달 4일 'AI 개발 및 이용 등에 관한 법률안(인공지능개발법)'을 대표 발의한 바 있다. 국내 AI 법은 21대 국회에서도 수차례 발의됐으나 계류 후 최종폐기됐다. 이번 세미나는 강연 세션과 토론 세션으로 구성되며 글로벌 AI 기술 동향, 국내외 AI 정책 현황, 최신 AI 윤리 이슈 등을 주제로 진행될 예정이다. 발제자로는 하정우 네이버클라우드 AI이노베이션센터장, 남철기 과학기술정보통신부 인공지능 정책과장, 전창배 국제인공지능윤리협회 이사장 등이 참석한다. 토론 세션에서는 한국형 AI 기본법의 올바른 구조와 방향에 대한 자유 토론과 질의응답이 예정돼 있다. 김명주 IAAE 회장은 "유럽이 세계 최초의 AI 법인 'AI ACT'를 발표하고 미국도 AI 행정명령을 발표하며 AI 선진국들의 주도권 경쟁이 시작된 상황"이라며 "우리나라도 AI 선도국으로 나아가기 위해 AI 법과 제도의 마련이 시급하다"고 밝혔다.

2024.07.26 15:15조이환

[유미's 픽] "주도권 잡는다고?"…AI 서울 서밋, 尹 노력에도 반쪽짜리 행사로 그쳤나

"인공지능(AI)은 우리 삶과 일하는 방식, 세상과 소통하는 방식을 근본적으로 바꾸고 있습니다. 안전하고 혁신적이며 포용적인 AI를 만들기 위한 국제사회의 노력에 동참하겠습니다." 이재용 삼성전자 회장은 지난 21일 저녁 청와대 영빈관에서 개최된 'AI 서울 정상회의'에 참석해 이처럼 밝혔다. 이 자리에는 이해진 네이버 글로벌투자책임자(GIO) 등 국내 주요 정보통신기술(ICT) 수장들과 슈미트재단, 구글 딥마인드, 앤트로픽, xAI, 미스트랄AI, 오픈AI, 마이크로소프트, 아마존 웹서비스, 메타 등 글로벌 빅테크 관계자들도 참여해 '안전·혁신·포용'을 AI 거버넌스(규범가치)의 3대 우선 목표로 삼았다. 22일 업계에 따르면 정부는 'AI 서울 정상회의'를 통해 삼성전자, SK텔레콤, KT, LG AI 연구원, 네이버, 카카오 등 국내 기업과 오픈AI, 구글, 마이크로소프트, 앤스로픽, IBM, 세일즈포스, 코히어 등 해외 기업 총 14곳이 '서울 AI 기업 서약'을 했다는 점을 가장 큰 성과로 내세웠다. 서약에는 AI의 책임 있는 개발과 활용을 위해 AI 안전기관과의 협력을 강화하고, 워터마크 등 AI가 생성하는 콘텐츠 식별을 위한 조치와 국제표준 개발을 위한 협력을 강화하는 내용이 포함됐다. AI의 지속 가능한 발전과 혁신을 위해 첨단 AI 모델과 시스템 개발에 투자하는 것은 물론 공동 프로젝트와 펀드 조성 등을 통해 중소기업 및 스타트업과 협력하고 인턴십과 교육 프로그램 등 전문 인재를 양성하는 방안도 담겼다. AI의 공평한 혜택 보장을 위해 사회적 약자를 위한 AI 서비스를 출시하고, 글로벌 난제 해결을 위한 AI 솔루션을 개발해 다양성과 포용성을 높일 것도 약속했다. 정부는 지난해 11월 영국 블레츨리파크에서 열린 AI 안전성 정상회의에서 다뤘던 '안전'에 새롭게 '혁신'과 '포용'을 더한 'AI 거버넌스 3원칙'을 이번에 제시했다는 점에서 의미를 부여했다. 윤석열 대통령은 "각국 정상들은 ▲AI 안전 ▲AI 혁신 ▲AI 포용이라는 3대 목표에 공감대를 이뤘고, AI의 위험과 기회를 균형있게 다뤄야 한다는 기본 방향을 공유하게 됐다"며 "(지난해 영국 정상회의 당시) 블레츨리 파크에서 이룬 각료간 합의를 보다 격상시켰다는 점에서 의미가 크다"고 강조했다. 이번 회의의 성과를 두고 업계는 일단 환영의 뜻을 표했다. AI 모델 개발 단계에서부터 기업들이 스스로 위험 수위를 조절해 나가기로 합의했다는 점에서다. 기업들은 위험을 충분히 완화할 수 없는 경우 AI모델을 개발하거나 배포하지 않겠다는 뜻과 함께 AI가 초래할 위험의 임계값을 설정키로 했다. 임계값은 각국 정부를 포함해 신뢰할 수 있는 기관의 의견을 수렴해 정할 예정이다. 또 내·외부 레드팀을 통한 AI 모델에 대한 위협을 평가하고 사이버 보안과 내부 위협 방지를 위해 투자하겠다는 내용도 포함됐다. 제3자를 통한 문제점 점검과 보고 장려, AI 생성 콘텐츠를 식별하는 메커니즘 개발 등도 서약 내용에 담겼다. 이에 업계에선 'AI 서울 선언'이 장관급 합의에 그쳤던 영국 블레츨리 선언보다는 확실히 한 발 더 나아간 것이라고 평가했다. 구글 딥마인드 법률 고문이자 거버넌스 책임자인 톰 루는 "이번 약속은 주요 개발자들 사이에서 최첨단 AI 안전에 관한 중요한 모범 사례를 확립하는 데 도움이 될 것"이라며 "이 협약은 과학적 근거에 기반을 둔 대화를 나눌 수 있는 집중적인 국제 안전 서밋의 가치를 보여준다"고 밝혔다. 업계 관계자는 "빅테크들이 AI 기술과 관련된 사후 규제를 하기에는 기준이 애매한 게 많았다"며 "AI 모델 개발 단계부터 안전성 가드레일을 설정하겠다는 것 자체로는 굉장히 의미 있는 일"이라고 평가했다. 또 다른 관계자는 "AI 윤리와 법제화, 규범 등을 두고 각국의 주도권 경쟁이 치열해진 상황에서 이번 정상회의는 국내 AI 기업들이 글로벌로 진출하는 데 마중물이 될 것으로 기대한다"면서도 "다만 이번 국회에서 AI 기본법이 폐기가 될 예정인 만큼, 향후 국내 AI 기본법 제정 등에 속도를 내 글로벌 AI 규범 국가로서 위상을 지킬 필요가 있다"고 밝혔다. 일각에선 구체적인 기준이 제시되지 못하고 여전히 형이상학적인 선언에만 그쳤다는 점에서 아쉬움을 드러냈다. 기업들이 선언 이후 AI 모델 개발 과정에서 어떻게 '안전성'을 고려할 지에 대해 구체적인 계획을 드러내지 않았다는 점도 'AI 서울 선언'에 큰 의미를 부여하기엔 미흡하다고 지적했다. 업계 관계자는 "현재 거대언어모델(LLM)로 사실상 돈을 버는 기업들이 없고 기준을 삼을 만한 케이스가 나온 것이 없다 보니 구체적으로 AI 개발에 대한 방향성을 내놓기에는 애매한 부분이 있는 것 같다"며 "모델 개발 과정에서 안전성을 염두에 둔다고 해도 어떻게 활용하는 지에 따라 문제가 발생할 수 있다는 점에서 '사후 규제'도 좀 더 명확히 논의할 필요가 있을 것 같다"고 지적했다. 그러면서 "지난해 영국 '블레츨리 선언'에서 '서울 AI 선언'이 더 의미있게 진전된 모습을 보였다고 보기에는 아쉬운 점이 많다"며 "빅테크들이 기술 개발 중심에서 'AI 윤리' 측면을 좀 더 고려하는 모습을 이번에 보였다고 볼 수 있겠지만, '블레츨리 선언'을 재확인 하는 수준에 그쳤다"고 덧붙였다. 정부가 'AI 서울 정상회의'를 운영하는 것과 관련해서도 미숙했다는 평가도 나왔다. 내년 초 프랑스에서 열리는 3차 회의가 정식 대면행사로 열리는 것과 달리 화상 정상회의로 진행된다는 점에서 전 세계적인 주목을 크게 받지 못했다는 평가도 이어졌다. 차기 회의는 내년에 프랑스에서 'AI 행동 정상회의'라는 명칭으로 개최될 예정이다. 이번 회의에 참석한 업계 관계자는 "우리나라 정부와 총리실, 외교부, 과기부가 의무적으로 방어에만 나설 뿐 이번 행사에 대해 적극 홍보하는 분위기도 아닌 것 같았다"며 "사우디 등 다른 나라에서 치르는 'AI 서밋'과 비교하면 준비 과정이나 규모 등 전반적으로 수준 이하였다"고 꼬집었다. 그러면서 "특히 총리가 10분 이상 늦었음에도 행사장에 있는 참석자들에게 어떤 공지도 하지 않고 기다리게 하는 촌극도 연출됐다"며 "국내 행사는 그래도 된다고 쳐도 국제 행사를 이렇게 운영하면서 일정을 연기 시키는 것 자체가 매우 아쉽다"고 덧붙였다.

2024.05.22 17:12장유미

"AI 안전보다 이익이 우선?"…샘 알트먼이 장악한 오픈AI 행보에 '우려' ↑

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 점차 'AI 안전'을 등한시하고 수익에 치중하는 듯한 모습을 보이는 분위기다. 사내 'AI 안전팀'을 전격 해체하는 한편, AI 안전성을 강조하는 반(反) 알트먼 세력들도 회사를 떠나면서 오픈AI 움직임에 대한 우려의 목소리도 높아지고 있다. 20일 IT 전문 매체 와이어드 등 외신에 따르면 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치하기 시작했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 CEO의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 실제 오픈AI는 '인류에게 해롭지 않은 AI를 만들겠다'며 지난 2015년 비영리법인으로 출범했으나, 점차 AI 안전성과 개발 속도에서 내부적으로 의견이 갈렸다. 특히 지난해 11월 수츠케버 등이 앞장 서 '회사가 설립 초기 철학과 다르게 상업적으로 변했다'는 이유로 샘 알트먼 CEO를 축출했으나, 알트먼은 대주주인 마이크로소프트(MS)의 지원을 받아 닷새 만에 경영에 복귀했다. 이후 알트먼에 반대했던 이들이 회사를 떠나면서 반대파들은 사실상 오픈AI에서 전멸했다. 이들은 회사를 떠날 때도 다소 불합리한 계약을 한 것으로 알려졌다. 미국 온라인 매체 복스는 "해당 계약에는 회사를 떠난 사람들이 남은 생애 동안 이전 고용주를 비판하는 것을 금지하는 내용이 포함돼 있다"며 "심지어는 비밀유지계약(NDA)가 있다는 것을 언급하는 것 조차 계약 위반"이라고 보도했다. 특히 퇴사하는 직원이 문서 서명을 거부하거나 사후 이를 위반할 경우 오픈AI에서 근무하는 동안 받았던 지분 등 이익을 잃게되는 것으로 알려졌다. 이는 최대 수 백만 달러 가치에 달하는 주식을 포기해야하는 경우도 포함된다. 실제 지난달 오픈AI를 떠난 AI연구원 다니엘 코코타일로는 "퇴사 시 해당 문건에 서명을 하지 않아 우리 가족 순 자산의 85% 가량에 달하는 큰 돈을 포기해야했다"며 "오픈AI가 범용인공지능(AGI) 시대에 책임감 있게 행동할 것이라는 자신이 없어져 그만뒀다"고 밝혔다. 이에 대해 샘 알트먼 CEO는 자신의 X(옛 트위터)에서 "실제로 이전 퇴사 계약 문서에는 지분 취소 가능성에 대한 조항이 있었지만, 이를 실행한 적은 없다"며 "현재는 표준 퇴사 서류를 수정하는 중"이라고 해명했다. 샘 알트먼 CEO의 이 같은 행보를 두고 일론 머스크 테슬라 최고경영자(CEO)도 탐탁치 않아 하고 있다. 일론 머스크 CEO는 샘 알트먼과 함께 오픈AI 설립에 참여했으나, 영리사업 문제로 알트먼과 충돌한 이후 2018년 이사회에서 물러났다. 지난 2월 말에는 "오픈AI가 원래 취지와 달리 MS와 손잡고 상업적 이익을 추구하고 있다"고 주장하며 샘 알트먼 등 오픈AI 경영진을 상대로 소송을 제기했다. 일론 머스크 CEO는 계약위반, 신의성실 의무위반, 불공정 비즈니스 관행 등을 소장에 적었다. 이에 대해 샘 알트먼 CEO는 "머스크는 오픈AI를 테슬라의 일부로 만들려고 시도했지만, 실패로 돌아가자 맹렬히 비난하고 있다"며 "오픈AI를 이용해 영리사업을 하려고 했다"고 주장했다. 이번 'AI 안전팀' 해체와 관련해선 "AGI로 가는 길에 지침서(playbook)는 없다"며 "오픈AI는 안전하게 AI를 배포하기 위한 기초를 마련해 왔고, 모니터링 작업도 개선해 왔다. (안전팀 해체 후에도) 위험을 완화하기 위한 노력을 이어 갈 것"이라고 강조했다.

2024.05.20 09:35장유미

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

대기업 유통·이커머스 뒤바뀐 처지..."규제 풀어야 산다"

[르포] 골프 코치에서 피부 상담까지…일상 파고든 AI, AWS서밋에서 만난다

허희수 SPC "韓서 40년된 배스킨라빈스, 아이스크림 그 이상 브랜드로 도약"

'AI 선도인재' 민관 공동 양성…올해만 35억 투입

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현