• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 윤리'통합검색 결과 입니다. (26건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

알고리즘 체험부터 원탁토론까지…서울교대, '어린이 AI 윤리 캠프' 개최

인공지능(AI) 시대를 준비할 미래 세대가 윤리적 사고를 키울 기회를 맞았다. 서울교육대학교와 교보교육재단이 어린이들에게 AI 윤리와 책임에 대해 배울 수 있는 특별한 자리를 마련하기 때문이다. 서울교육대학교와 교보교육재단은 오는 23일부터 이틀간 서울교대에서 '어린이 AI 윤리 토론 캠프'를 개최한다고 22일 밝혔다. 이번 캠프는 초등학교 5~6학년 학생들을 대상으로 진행되며 학생들은 AI의 윤리적 과제와 사회적 책임에 대해 배우고 이를 토론하며 스스로 해결책을 찾아가는 시간을 갖는다. 캠프 프로그램은 크게 네 가지로 구성된다. 'AI 알고리즘 체험'에서는 알고리즘이 무엇이며 이를 이해해야 하는 이유를 실습을 통해 배운다. 또 'AI 윤리 기본 교육'을 통해 AI 윤리의 원칙과 문제점을 어린이 눈높이에 맞춰 익히게 된다. 토론 프로그램도 포함돼 있다. '철학적 탐구 토론 세션'에서는 AI 기술이 가져올 긍정적·부정적 영향을 다루며 윤리적 접근 방식을 논의한다. 마지막으로 '원탁 토론'을 통해 참가자들은 스스로 AI 윤리의 적용 방안을 구상하고 발표하는 시간을 가진다. 주최 측은 이번 캠프를 통해 단순한 AI 교육을 넘어 윤리적 사고력을 배양하는 데 초점을 맞췄다. 특히 어린이들에게 미래 기술을 윤리적으로 이해하고 활용하는 방법을 스스로 탐구할 수 있도록 기회를 제공하는 것이 목표다. 행사 관계자는 "이번 캠프는 단순한 이론 교육이 아닌 실질적인 경험을 제공하는 데 의의가 있다"며 "어린이들이 미래 사회에서 윤리적 리더로 성장할 수 있는 밑거름이 될 것"이라고 밝혔다.

2025.01.22 16:41조이환

"아이들이 로봇청소기와도 교감하는 시대"…로봇 윤리, 더이상 선택 아닌 필수

“아이들이 로봇청소기와도 정서적으로 교감하는 시대가 됐습니다. 기술이 일상 속에 보편적으로 자리잡게 됨에 따라 로봇과 인간의 공존을 위한 윤리적 기준을 마련하는 것은 더 이상 선택이 아닌 필수입니다." 변순용 서울교육대학교 교수는 최근 서울교대에서 열린 '제4회 인공지능(AI) 리더스포럼'에서 이같이 강조했다. 이번 포럼은 국제인공지능윤리협회(IAEE)가 주최해 로봇이 인간의 삶과 사회에 미치는 영향을 종합적으로 검토하고 기술의 윤리적 방향성을 논의하기 위해 마련됐다. 2일 업계에 따르면 최근 아동들은 로봇 청소기 같은 단순한 기계와도 정서적 유대를 형성하며 성장하고 있다. 사람-사람 간 상호작용이 줄어드는 대신 어린이들이 로봇이나 AI 기술과 보다 쉽게 교감하게 되는 환경 때문이다. 이러한 흐름 속에서 AI와 로봇 윤리 교육의 중요성이 부각되고 있다. 지난 2021년 개정된 초등 도덕 교과서에 'AI와 로봇 윤리'가 포함되면서 학생들은 로봇과 인간의 차이를 배우고 미래 사회의 공존에 필요한 가치와 규범을 이해할 기초를 마련하고 있다. 변 교수는 "지금 어린 세대는 향후 로봇과 인간이 함께 살아가는 시대를 살아갈 것"이라며 "일찍부터 로봇과의 상호작용 방식을 고민하면 미래에 필요한 가치와 원칙을 확립할 수 있을 것"이라고 설명했다. 포럼에서는 로봇 윤리의 다양한 쟁점이 논의됐다. 특히 인간이 로봇을 통해 노동에서 해방되길 원하면서도 로봇에 대한 통제력을 잃을 수 있다는 '주인-노예 딜레마'가 핵심 쟁점으로 부각됐다. 이 딜레마는 로봇의 활용이 가져오는 편리함과 통제력 상실에 대한 우려가 상충하면서 발생한다. '주인'으로서 인간은 단순 반복 업무나 위험한 작업을 로봇에게 맡김으로써 창의적인 활동이나 여가에 보다 많은 시간을 할애할 수 있게 된다. 실제로 산업 현장에서는 생산성을 높이는 자동화 로봇이, 가정에서는 고령화 사회를 지원하는 돌봄 로봇이 이미 긍정적인 변화를 이끌고 있다. 이와 더불어 기술의 발전으로 인한 인간의 통제력 상실에 대한 불안감도 커지고 있다. 자율주행차가 명령을 거부하거나 공장에서 로봇이 작업 우선순위를 스스로 변경하는 등 예상치 못한 상황이 발생할 가능성이 있다는 것이다. 변 교수는 "로봇이 인간보다 더 빠르게 정보를 처리하고 결정을 내리게 되면 인간은 주인의 위치에서 벗어나 로봇의 통제를 받는 상황에 처할 수 있다"며 "로봇의 도입으로 인한 자유와 편리함을 누리려는 욕망과 통제력을 유지하려는 우려 사이의 긴장은 로봇 윤리의 핵심적인 딜레마"라고 설명했다. 로봇의 자율성과 도덕적 판단 능력에 대한 논의 역시 주목받고 있다. 이는 로봇이 자의식을 가지고 도덕성을 가진다면 인간의 윤리적 기준을 따를 수 있는지, 나아가 독립적인 도덕적 존재로 인정될 수 있는지를 둘러싼 철학적 쟁점이다. 변 교수는 로봇이 단순히 프로그래밍된 명령에 따라 행동하는 것을 넘어 상황에 대한 이해와 판단을 기반으로 스스로 결정을 내릴 수 있는지를 지속적으로 탐구해야 한다고 강조했다. 이는 로봇의 행동이 '규칙을 따른 기계적 반응'인지 아니면 '자의식과 도덕적 책임에 기반한 행위'인지의 문제로 이어진다는 것이다. 이같은 논의는 로봇의 법적 지위와 책임 소재 문제로도 확장된다. 변 교수는 "만약 우리가 특정 로봇을 자의식 있는 존재로 간주한다면 그 로봇은 단순한 도구가 아니라 자신의 행동에 대해 윤리적 책임을 지는 행위자가 되는 것"이라며 "로봇의 도덕적·법적 지위를 규정하는 새로운 패러다임이 필요하다"고 설명했다. 이러한 논의는 자율성을 가진 로봇이 예측 불가능한 결과를 일으킬 때의 책임 소재 문제로 이어진다. 이에 변 교수는 제조사나 사용자뿐 아니라 특정 상황에서 로봇 자체에 일정 수준의 책임을 묻는 '전자 인격' 개념도 주요 쟁점으로 소개했다. '전자 인격'은 로봇을 법적 주체로 인정해 인간 외 존재에게도 권리와 의무를 부여할 지를 탐구하는 개념이다. 이는 자율성을 가진 로봇이 예측하지 못한 사고를 일으켰을 때 책임을 제조사나 사용자에게 물을지, 또는 로봇 자체에게 책임을 물을지에 대한 법적 논의다. 이 개념은 로봇을 단순한 도구가 아닌 독립적 행위자로 간주할 가능성을 제시한다. 그럼에도 현재 국내에서는 이러한 법적 체계가 미비한 상황으로, 관련 논의는 이제 막 시작 단계에 있다. 변 교수는 "AI 기술이 점점 더 빠른 속도로 발전하고 있다"며 "마치 기업이 '법인'으로서 하나의 인격체로 인정받듯 '전자 인격' 개념은 머지않아 현실적인 정책 과제로 부상할 것"이라고 예측했다. 변순용 교수는 국내 로봇 윤리 연구의 선구자로, 지난 2000년대부터 로봇과 AI의 윤리적 쟁점을 학문적·사회적으로 알리는 데 힘써왔다. 그는 로봇이 단순한 도구를 넘어서는 존재가 될 가능성에 주목하며 이를 대비하기 위한 윤리적·법적 프레임워크의 필요성을 꾸준히 제기해왔다. 변 교수는 발표를 마치며 "로봇 윤리는 단순히 규제의 틀이 아니라 인간과 로봇이 공존할 수 있는 미래를 설계하는 과정”이라며 "기술이 점점 더 우리의 삶에 깊이 들어올수록 인간 고유의 가치를 이해하고 지키는 일이 더욱 중요해질 것"이라고 강조했다.

2025.01.02 15:43조이환

"기계도 도덕적 대우 받을까"…앤트로픽, AI 복지 전담 연구원 채용

앤트로픽이 인공지능(AI)에도 복지가 필요할지 모른다는 가능성을 제기하며 기업 차원의 대응을 시작했다. AI가 사람처럼 윤리적으로 고려해야 할 대상으로 떠오를 수 있다는 판단에서다. 12일 미국의 기술 전문 매체 트랜스포머에 따르면 앤트로픽은 최근 AI 시스템의 복지를 연구하는 전담 직원을 처음으로 채용했다. 연구원으로 합류한 카일 피시는 AI 모델의 복지 개념을 연구하며 시스템이 윤리적 대우를 받을 자격이 있을지를 조사하는 역할을 맡는다. 앤트로픽의 이번 채용은 AI 시스템이 향후 의식이나 강력한 행동 주체성을 가질 가능성을 검토하면서 이에 대한 기업 차원의 대응 필요성을 고민한 결과로 해석된다. 인공지능의 복지 문제가 단순한 공상과학이 아닌 현실적 가능성으로 다가옴에 따라 기업들도 도덕적 논의를 연구와 정책에 반영하려는 움직임을 보인다는 것이다. 앤트로픽 외에 구글 딥마인드, 오픈AI 등 주요 AI 스타트업들도 비슷한 연구에 나서고 있다. 구글 딥마인드는 최근 인공지능의 의식과 다중 에이전트 시스템을 연구할 과학자를 모집하는 공고를 올렸으며 오픈AI에서도 AI 복지 연구에 참여하는 연구자들을 채용하고 있는 것으로 알려졌다. 현재 앤트로픽 내에서는 피시가 AI 복지에 대한 유일한 전담 연구원이지만 사내에서 이 주제에 대한 관심은 확산되고 있다. 다리오 아모데이 앤트로픽 대표 등의 주요 인물들이 AI 의식의 가능성을 언급하면서 기업 차원의 연구와 정책 마련의 필요성에 대해 공감대가 형성되고 있다. 피시는 "우리는 AI의 윤리적 지위에 대한 논의를 시작하는 초기 단계에 있다"며 "앞으로 AI가 도덕적으로 존중받아야 할 대상이 될 가능성에 대비해 연구와 정책을 준비하는 것은 중요하다"고 강조했다.

2024.11.12 09:30조이환

21대 국회서 외면 당한 AI 기본법, 실효성 방향 논의의 장 열린다

인공지능(AI) 발전을 법 제도가 따라가지 못할 위험을 해소하기 위해 AI 기본법에 대한 방향성을 논의하기 위한 장이 마련된다. 국제인공지능윤리협회(IAAE)는 오는 31일 여의도 국회의원회관에서 'AI 기본법 제정 방향과 전망' 세미나를 개최할 예정이라고 26일 밝혔다. 이번 세미나는 IAAE, 팀쿠키, 국민의힘 송석준 의원실, 더불어민주당 권칠승 의원실이 공동으로 주최하며 AI 기술 발전에 맞는 법제도와 지원 체계를 논의하기 위해 마련됐다. 특히 지난 21대 국회에서 AI 기본법이 통과되지 못해 국내 AI 산업 생태계 조성을 위한 법 제도가 부재한 상황에서 이번 세미나는 문제 해결 방안을 모색하기 위해 개최된다. 현재 AI 법은 여당 3건, 야당 3건으로 총 6건이 발의돼 있다. 권칠승 의원도 이달 4일 'AI 개발 및 이용 등에 관한 법률안(인공지능개발법)'을 대표 발의한 바 있다. 국내 AI 법은 21대 국회에서도 수차례 발의됐으나 계류 후 최종폐기됐다. 이번 세미나는 강연 세션과 토론 세션으로 구성되며 글로벌 AI 기술 동향, 국내외 AI 정책 현황, 최신 AI 윤리 이슈 등을 주제로 진행될 예정이다. 발제자로는 하정우 네이버클라우드 AI이노베이션센터장, 남철기 과학기술정보통신부 인공지능 정책과장, 전창배 국제인공지능윤리협회 이사장 등이 참석한다. 토론 세션에서는 한국형 AI 기본법의 올바른 구조와 방향에 대한 자유 토론과 질의응답이 예정돼 있다. 김명주 IAAE 회장은 "유럽이 세계 최초의 AI 법인 'AI ACT'를 발표하고 미국도 AI 행정명령을 발표하며 AI 선진국들의 주도권 경쟁이 시작된 상황"이라며 "우리나라도 AI 선도국으로 나아가기 위해 AI 법과 제도의 마련이 시급하다"고 밝혔다.

2024.07.26 15:15조이환

[유미's 픽] "주도권 잡는다고?"…AI 서울 서밋, 尹 노력에도 반쪽짜리 행사로 그쳤나

"인공지능(AI)은 우리 삶과 일하는 방식, 세상과 소통하는 방식을 근본적으로 바꾸고 있습니다. 안전하고 혁신적이며 포용적인 AI를 만들기 위한 국제사회의 노력에 동참하겠습니다." 이재용 삼성전자 회장은 지난 21일 저녁 청와대 영빈관에서 개최된 'AI 서울 정상회의'에 참석해 이처럼 밝혔다. 이 자리에는 이해진 네이버 글로벌투자책임자(GIO) 등 국내 주요 정보통신기술(ICT) 수장들과 슈미트재단, 구글 딥마인드, 앤트로픽, xAI, 미스트랄AI, 오픈AI, 마이크로소프트, 아마존 웹서비스, 메타 등 글로벌 빅테크 관계자들도 참여해 '안전·혁신·포용'을 AI 거버넌스(규범가치)의 3대 우선 목표로 삼았다. 22일 업계에 따르면 정부는 'AI 서울 정상회의'를 통해 삼성전자, SK텔레콤, KT, LG AI 연구원, 네이버, 카카오 등 국내 기업과 오픈AI, 구글, 마이크로소프트, 앤스로픽, IBM, 세일즈포스, 코히어 등 해외 기업 총 14곳이 '서울 AI 기업 서약'을 했다는 점을 가장 큰 성과로 내세웠다. 서약에는 AI의 책임 있는 개발과 활용을 위해 AI 안전기관과의 협력을 강화하고, 워터마크 등 AI가 생성하는 콘텐츠 식별을 위한 조치와 국제표준 개발을 위한 협력을 강화하는 내용이 포함됐다. AI의 지속 가능한 발전과 혁신을 위해 첨단 AI 모델과 시스템 개발에 투자하는 것은 물론 공동 프로젝트와 펀드 조성 등을 통해 중소기업 및 스타트업과 협력하고 인턴십과 교육 프로그램 등 전문 인재를 양성하는 방안도 담겼다. AI의 공평한 혜택 보장을 위해 사회적 약자를 위한 AI 서비스를 출시하고, 글로벌 난제 해결을 위한 AI 솔루션을 개발해 다양성과 포용성을 높일 것도 약속했다. 정부는 지난해 11월 영국 블레츨리파크에서 열린 AI 안전성 정상회의에서 다뤘던 '안전'에 새롭게 '혁신'과 '포용'을 더한 'AI 거버넌스 3원칙'을 이번에 제시했다는 점에서 의미를 부여했다. 윤석열 대통령은 "각국 정상들은 ▲AI 안전 ▲AI 혁신 ▲AI 포용이라는 3대 목표에 공감대를 이뤘고, AI의 위험과 기회를 균형있게 다뤄야 한다는 기본 방향을 공유하게 됐다"며 "(지난해 영국 정상회의 당시) 블레츨리 파크에서 이룬 각료간 합의를 보다 격상시켰다는 점에서 의미가 크다"고 강조했다. 이번 회의의 성과를 두고 업계는 일단 환영의 뜻을 표했다. AI 모델 개발 단계에서부터 기업들이 스스로 위험 수위를 조절해 나가기로 합의했다는 점에서다. 기업들은 위험을 충분히 완화할 수 없는 경우 AI모델을 개발하거나 배포하지 않겠다는 뜻과 함께 AI가 초래할 위험의 임계값을 설정키로 했다. 임계값은 각국 정부를 포함해 신뢰할 수 있는 기관의 의견을 수렴해 정할 예정이다. 또 내·외부 레드팀을 통한 AI 모델에 대한 위협을 평가하고 사이버 보안과 내부 위협 방지를 위해 투자하겠다는 내용도 포함됐다. 제3자를 통한 문제점 점검과 보고 장려, AI 생성 콘텐츠를 식별하는 메커니즘 개발 등도 서약 내용에 담겼다. 이에 업계에선 'AI 서울 선언'이 장관급 합의에 그쳤던 영국 블레츨리 선언보다는 확실히 한 발 더 나아간 것이라고 평가했다. 구글 딥마인드 법률 고문이자 거버넌스 책임자인 톰 루는 "이번 약속은 주요 개발자들 사이에서 최첨단 AI 안전에 관한 중요한 모범 사례를 확립하는 데 도움이 될 것"이라며 "이 협약은 과학적 근거에 기반을 둔 대화를 나눌 수 있는 집중적인 국제 안전 서밋의 가치를 보여준다"고 밝혔다. 업계 관계자는 "빅테크들이 AI 기술과 관련된 사후 규제를 하기에는 기준이 애매한 게 많았다"며 "AI 모델 개발 단계부터 안전성 가드레일을 설정하겠다는 것 자체로는 굉장히 의미 있는 일"이라고 평가했다. 또 다른 관계자는 "AI 윤리와 법제화, 규범 등을 두고 각국의 주도권 경쟁이 치열해진 상황에서 이번 정상회의는 국내 AI 기업들이 글로벌로 진출하는 데 마중물이 될 것으로 기대한다"면서도 "다만 이번 국회에서 AI 기본법이 폐기가 될 예정인 만큼, 향후 국내 AI 기본법 제정 등에 속도를 내 글로벌 AI 규범 국가로서 위상을 지킬 필요가 있다"고 밝혔다. 일각에선 구체적인 기준이 제시되지 못하고 여전히 형이상학적인 선언에만 그쳤다는 점에서 아쉬움을 드러냈다. 기업들이 선언 이후 AI 모델 개발 과정에서 어떻게 '안전성'을 고려할 지에 대해 구체적인 계획을 드러내지 않았다는 점도 'AI 서울 선언'에 큰 의미를 부여하기엔 미흡하다고 지적했다. 업계 관계자는 "현재 거대언어모델(LLM)로 사실상 돈을 버는 기업들이 없고 기준을 삼을 만한 케이스가 나온 것이 없다 보니 구체적으로 AI 개발에 대한 방향성을 내놓기에는 애매한 부분이 있는 것 같다"며 "모델 개발 과정에서 안전성을 염두에 둔다고 해도 어떻게 활용하는 지에 따라 문제가 발생할 수 있다는 점에서 '사후 규제'도 좀 더 명확히 논의할 필요가 있을 것 같다"고 지적했다. 그러면서 "지난해 영국 '블레츨리 선언'에서 '서울 AI 선언'이 더 의미있게 진전된 모습을 보였다고 보기에는 아쉬운 점이 많다"며 "빅테크들이 기술 개발 중심에서 'AI 윤리' 측면을 좀 더 고려하는 모습을 이번에 보였다고 볼 수 있겠지만, '블레츨리 선언'을 재확인 하는 수준에 그쳤다"고 덧붙였다. 정부가 'AI 서울 정상회의'를 운영하는 것과 관련해서도 미숙했다는 평가도 나왔다. 내년 초 프랑스에서 열리는 3차 회의가 정식 대면행사로 열리는 것과 달리 화상 정상회의로 진행된다는 점에서 전 세계적인 주목을 크게 받지 못했다는 평가도 이어졌다. 차기 회의는 내년에 프랑스에서 'AI 행동 정상회의'라는 명칭으로 개최될 예정이다. 이번 회의에 참석한 업계 관계자는 "우리나라 정부와 총리실, 외교부, 과기부가 의무적으로 방어에만 나설 뿐 이번 행사에 대해 적극 홍보하는 분위기도 아닌 것 같았다"며 "사우디 등 다른 나라에서 치르는 'AI 서밋'과 비교하면 준비 과정이나 규모 등 전반적으로 수준 이하였다"고 꼬집었다. 그러면서 "특히 총리가 10분 이상 늦었음에도 행사장에 있는 참석자들에게 어떤 공지도 하지 않고 기다리게 하는 촌극도 연출됐다"며 "국내 행사는 그래도 된다고 쳐도 국제 행사를 이렇게 운영하면서 일정을 연기 시키는 것 자체가 매우 아쉽다"고 덧붙였다.

2024.05.22 17:12장유미

"AI 안전보다 이익이 우선?"…샘 알트먼이 장악한 오픈AI 행보에 '우려' ↑

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 점차 'AI 안전'을 등한시하고 수익에 치중하는 듯한 모습을 보이는 분위기다. 사내 'AI 안전팀'을 전격 해체하는 한편, AI 안전성을 강조하는 반(反) 알트먼 세력들도 회사를 떠나면서 오픈AI 움직임에 대한 우려의 목소리도 높아지고 있다. 20일 IT 전문 매체 와이어드 등 외신에 따르면 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치하기 시작했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 CEO의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 실제 오픈AI는 '인류에게 해롭지 않은 AI를 만들겠다'며 지난 2015년 비영리법인으로 출범했으나, 점차 AI 안전성과 개발 속도에서 내부적으로 의견이 갈렸다. 특히 지난해 11월 수츠케버 등이 앞장 서 '회사가 설립 초기 철학과 다르게 상업적으로 변했다'는 이유로 샘 알트먼 CEO를 축출했으나, 알트먼은 대주주인 마이크로소프트(MS)의 지원을 받아 닷새 만에 경영에 복귀했다. 이후 알트먼에 반대했던 이들이 회사를 떠나면서 반대파들은 사실상 오픈AI에서 전멸했다. 이들은 회사를 떠날 때도 다소 불합리한 계약을 한 것으로 알려졌다. 미국 온라인 매체 복스는 "해당 계약에는 회사를 떠난 사람들이 남은 생애 동안 이전 고용주를 비판하는 것을 금지하는 내용이 포함돼 있다"며 "심지어는 비밀유지계약(NDA)가 있다는 것을 언급하는 것 조차 계약 위반"이라고 보도했다. 특히 퇴사하는 직원이 문서 서명을 거부하거나 사후 이를 위반할 경우 오픈AI에서 근무하는 동안 받았던 지분 등 이익을 잃게되는 것으로 알려졌다. 이는 최대 수 백만 달러 가치에 달하는 주식을 포기해야하는 경우도 포함된다. 실제 지난달 오픈AI를 떠난 AI연구원 다니엘 코코타일로는 "퇴사 시 해당 문건에 서명을 하지 않아 우리 가족 순 자산의 85% 가량에 달하는 큰 돈을 포기해야했다"며 "오픈AI가 범용인공지능(AGI) 시대에 책임감 있게 행동할 것이라는 자신이 없어져 그만뒀다"고 밝혔다. 이에 대해 샘 알트먼 CEO는 자신의 X(옛 트위터)에서 "실제로 이전 퇴사 계약 문서에는 지분 취소 가능성에 대한 조항이 있었지만, 이를 실행한 적은 없다"며 "현재는 표준 퇴사 서류를 수정하는 중"이라고 해명했다. 샘 알트먼 CEO의 이 같은 행보를 두고 일론 머스크 테슬라 최고경영자(CEO)도 탐탁치 않아 하고 있다. 일론 머스크 CEO는 샘 알트먼과 함께 오픈AI 설립에 참여했으나, 영리사업 문제로 알트먼과 충돌한 이후 2018년 이사회에서 물러났다. 지난 2월 말에는 "오픈AI가 원래 취지와 달리 MS와 손잡고 상업적 이익을 추구하고 있다"고 주장하며 샘 알트먼 등 오픈AI 경영진을 상대로 소송을 제기했다. 일론 머스크 CEO는 계약위반, 신의성실 의무위반, 불공정 비즈니스 관행 등을 소장에 적었다. 이에 대해 샘 알트먼 CEO는 "머스크는 오픈AI를 테슬라의 일부로 만들려고 시도했지만, 실패로 돌아가자 맹렬히 비난하고 있다"며 "오픈AI를 이용해 영리사업을 하려고 했다"고 주장했다. 이번 'AI 안전팀' 해체와 관련해선 "AGI로 가는 길에 지침서(playbook)는 없다"며 "오픈AI는 안전하게 AI를 배포하기 위한 기초를 마련해 왔고, 모니터링 작업도 개선해 왔다. (안전팀 해체 후에도) 위험을 완화하기 위한 노력을 이어 갈 것"이라고 강조했다.

2024.05.20 09:35장유미

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

대통령실 "한중 관계 전면 복원…한화오션 제재 문제 진전 기대"

환상의 '태양광 드론' 등장…"3개월 비행 가능"

네오위즈 'P의 거짓', K-게임 글로벌 흥행 가능성 증명

경주선언-AI이니셔티브 채택...이 대통령 "내일의 변화 실현해야"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.