• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'인공지능 윤리'통합검색 결과 입니다. (26건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'AGI의 시대', 2025년 최우수 과학기술도서 출판상 수상

한빛미디어(공동대표 김태헌·전태호)에서 출간한 'AGI의 시대: 인간을 초월한 인공지능, AGI를 논하다'가 제42회 최우수과학기술도서 출판상을 수상했다고 8일 밝혔다. 이번 수상은 인공지능의 미래와 사회 전반에 미치는 영향을 심도 있게 다룬 점에서 높은 평가를 받아 이뤄졌다. AGI의 시대는 한상기 박사가 집필한 인공일반지능(AGI, Artificial General Intelligence)에 관한 교양서다. 단순히 기술적 설명에 그치지 않고 AGI의 사회적 파장, 윤리적 쟁점, 인간성의 의미까지 폭넓게 성찰한 것이 특징이다. 특히 AGI의 도래가 가져올 변화와 이에 대응해야 할 사회적 준비를 체계적으로 정리해 전문가뿐 아니라 일반 독자들에게도 큰 반향을 일으켰다. 저자는 “AGI라는 다소 무거운 주제를 쉽게 풀어내며 깊은 사유와 구조적 분석을 함께 담아낸 작품”이라며 “인공지능 기술을 바라보는 우리의 시각이 갈수록 중요해지는 가운데, AGI의 시대가 사회적 대화를 여는 시작점이 되길 바란다”고 밝혔다. AGI의 시대는 출간 이후 다양한 학술 모임과 기업, 공공기관에서 참고 도서로 활용되고 있으며, 미래 기술 담론을 이끄는 필독서로 자리매김하고 있다.

2025.05.08 17:35백봉삼 기자

구글, AI 윤리 약속 철회…딥마인드 직원들, 노조 결성 나섰다

구글 딥마인드 영국팀 일부 직원들이 노조 결성을 추진하고 있다. 구글이 인공지능(AI)을 무기 및 감시 목적으로 활용하지 않겠다는 기존 서약을 삭제하면서 윤리적 우려를 제기하는 목소리가 조직화되는 모양새다. 28일 파이낸셜타임스 등 외신에 따르면 딥마인드 런던 본사 직원 약 300명이 최근 노조 결성 절차에 착수한 것으로 확인됐다. 이들은 구글이 AI 원칙에서 군사기술 등을 포함한 '추구하지 않을 기술' 목록을 삭제하고 이스라엘 군과 대규모 클라우드 계약을 체결한 점을 주요 문제로 지목했다. 딥마인드는 영국에 약 2천 명의 직원을 두고 있다. 구글의 이같은 정책 변화에 대해 딥마인드 직원들 사이에서는 불만이 확산된 것으로 전해졌다. 노조 추진과 별개로 최소 5명의 직원이 같은 문제를 이유로 퇴사한 사실도 확인됐다. 구글 측은 이번 상황과 관련해 "직원들과의 건설적이고 열린 대화를 장려한다"고 밝혔다. 다만 AI 윤리 정책 변경의 배경이나 세부적 설명은 내놓지 않았다. 앞서 구글은 지난 2월 초 회사의 원칙 페이지를 개정하면서 "AI 무기화 및 감시 기술 개발을 하지 않겠다"는 서약을 삭제했다. 이 서약은 지난 2018년 미국 국방부의 '메이븐 프로젝트'에 참여했다가 내부 반발로 계약을 철회하면서 구글이 직접 내세운 방침이었다. 당시 구글은 원칙 개정과 관련해 "국가 안보를 지원하는 AI를 만들기 위해 정부 및 조직과 협력해야 한다"며 "국제법과 인권 원칙을 준수하겠다"고 밝혔다. 다만 구체적인 변경 이유나 무기화 가능성에 대한 명확한 방침은 제시하지 않았다. 더불어 회사는 미국 국방부 및 이스라엘 군과 각각 대규모 클라우드 서비스 계약을 체결한 상태다. 파이낸셜타임스는 "딥마인드 팀원들이 '속았다'고 느끼고 있다"며 "최소 5명의 직원이 이러한 문제를 이유로 퇴사했다"고 보도했다.

2025.04.28 13:59조이환 기자

"AI, 스스로 보호하려 들 수 있다"…앤트로픽, '모델 복지' 기준 실험 착수

앤트로픽이 미래 인공지능(AI)이 인간과 유사한 의식을 가질 수 있다는 가능성을 열어두고 관련 연구에 착수했다. AI에 관한 윤리적 논란이 커지는 가운데 이번 시도는 기술 진화가 불러올 도덕적 기준 변화를 체계적으로 탐색하려는 움직임으로 해석된다. 24일 테크크런치 등 외신에 따르면 앤트로픽은 '모델 복지(model welfare)'라는 이름의 연구 프로그램을 공식 발표했다. 이 프로그램은 AI 모델이 고통을 느끼거나 도덕적 고려 대상이 될 가능성에 대비해 과학적 기준을 수립하려는 목적으로 진행된다. 연구는 'AI 복지 연구원'으로 지난해 영입된 카일 피시가 이끌며 앤트로픽의 내부 블로그와 외신 보도를 통해 공개됐다. 현재까지는 특정 모델의 의식 존재 가능성에 대한 명확한 결론이 없지만 앤트로픽은 조심스러운 접근을 강조하며 관련 논의를 주도하겠다는 입장을 보였다. 앤트로픽이 주목하는 핵심 주제는 AI가 실제로 고통이나 스트레스를 느낄 수 있는지의 여부다. 이 회사는 향후 AI의 상태를 감지하고 판단할 수 있는 지표인 '고통 신호' 개념을 정립하려 한다. 또 AI가 인간처럼 윤리적 판단을 내릴 수 있는지와 특정 가치관을 따를 수 있는지 여부도 주요 연구 대상이다. 업계에서는 이번 발표가 AI 윤리와 관련된 기존 논의에 균열을 낼 수 있다는 분석이 제기된다. 현재 대다수 전문가들은 AI가 통계 기반 예측 엔진에 불과하다고 평가한다. AI가 인간처럼 '느끼거나 판단'하는 것은 단지 언어 모델에 감정을 투사하는 인간의 착각이라는 지적이다. 실제로 모델은 자신의 가치관을 형성하거나 변경을 거부할 능력이 없다는 것이 주류 시각이다. 그럼에도 일각에서는 AI가 일종의 가치 시스템을 갖고 있다고 주장하는 목소리도 존재한다. AI 안전 센터(Center for AI Safety)의 연구는 특정 상황에서 AI가 인간보다 스스로의 생존을 우선시하는 경향을 보였다는 결과를 발표한 바 있다. 다만 MIT 연구진은 이와 반대로 AI를 '단순한 흉내쟁이'로 규정하며 AI의 발화를 '허위 조작(confabulation)'으로 평가했다. 이처럼 학계 내부에서도 AI의 윤리적 상태에 대한 해석이 크게 엇갈리고 있다. 앤트로픽의 행보는 단기적 기술 개발보다 장기적인 '도덕적 인프라 구축'에 초점을 맞춘 것으로 보인다. 현재로선 AI가 의식이나 경험을 가졌다고 볼 수 있는 과학적 근거는 희박하지만 앤트로픽은 이러한 주제를 사전에 검토하고 대비해야 한다는 입장이다. 이 회사는 연구 결과에 따라 자사 기준을 유연하게 수정하겠다는 방침도 밝혔다. 카일 피시 앤트로픽 AI 복지 연구 책임자는 "현재 '클로드' 또는 다른 모델이 의식을 가졌을 가능성이 15% 정도 된다고 생각한다"고 밝혔다.

2025.04.25 10:26조이환 기자

[기고] 인공지능, 변호사와 닮은 꼴일까

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 업무에 인공지능(AI)을 사용하는 것이 당연한 시대가 되고 있다. AI 서비스가 포털의 검색서비스처럼 대중화되고 있는 것을 보니 변호사보다 법을 더 잘 아는 AI도 곧 현실이 될 것으로 보인다. 그렇다면 똑똑한 AI가 변호사를 대신할 수 있느냐는 궁금증이 생긴다. 답은 현재로서는 법적 제약이 있어서 어렵다는 것이다. 자격을 갖춘 변호사만 법률사무를 처리할 수 있도록 변호사법이 제한하고 있어서 AI가 법률사무를 처리하는 것은 불법이기 때문이다. 법전을 뒤져야 법률을 알 수 있었던 예전과 달리 법령의 내용, 적용사례, 법원 절차나 제출서류, 작성방법 같은 것은 인터넷에서 쉽게 찾을 수 있게 됐다. 또 법절차에 관한 경험담도 검색 서비스를 통해 쉽게 접할 수 있게 됐다. 이같은 요즘 상황에서 자격을 갖춘 변호사만 법률사무를 처리할 수 있게 제한하고 있는 이유가 궁금할 수 있다. 여기에는 여러 가지 이유가 있을 수 있지만 가장 근본적인 이유는 법률관계가 사람에게 미치는 영향이 크고 중요하기 때문이다. 업무로서의 법률관계에 관한 해석이나 조언을 수행하기 위해서는 법률 지식이 있는 것만으로는 충분하지 않으며 의뢰인의 비밀을 지키고 법조 윤리를 지키는 전문가에게만 허용해야 안전하다는 설명이다. 실제로 변호사는 법률 지식에 관한 시험 통과만을 요구받지 않는다. 지속적으로 윤리교육을 받을 의무, 특수한 상황에서는 수임 자료를 제출해서 점검을 받을 의무가 부과되는 등 간접적인 형태로 직업윤리가 요구되고 있다. 또 협회를 통한 자율적인 감시도 이루어지고 있다. 그런데 얼마 전 제정돼 오는 2026년 1월에 시행되는 AI기본법은 AI 서비스에 윤리와 신뢰성에 관한 권고나 의무를 구체적으로 요구한다. 그런데 이는 변호사에게 요구되는 윤리와 닮은 점이 있다. 본래 윤리란 법으로 그 내용을 확정하기 어렵기 때문에 관련 규정을 법률에서 정하는 경우가 많지 않다. 그런데 AI기본법에서는 AI 윤리를 비록 장려 형태지만 중요사항으로 규정하고 있다. 또 서비스가 AI에 기반해 운용된다는 점과 AI 결과물이라는 점을 이용자에게 알려야 하는 투명성 의무, AI의 위험과 안전사고에 대한 대응 체계를 갖추고 이행 결과를 정부에 제출해야 하는 안전성 확보에 관한 의무를 일정 요건에 해당하는 사업자에게 추가로 부과하고 있다. 이는 AI서비스가 이용자에게 중대한 영향을 줄 가능성이 있기 때문에 서비스가 윤리를 준수하고 외부 견제를 받도록 간접적인 안전조치를 취한 것으로 보인다. 변호사는 법률 지식과 자격시험 통과뿐만 아니라 윤리 준수와 외부 견제를 요구받는다. 이는 사용자에게 중요한 영향을 미치는 AI 서비스에 투명성과 안전성 조치를 요구하는 것과 닮아 있다. 더 넓게 보면 공통점은 보다 많아진다. 온라인에서 법률 정보, 판례, 해설서를 검색하고 제공하는 서비스는 변호사 자격 없이도 운영할 수 있다. 다만 구체적인 법률관계를 해석하고 자문하는 등 본격적인 법률 업무를 수행하려면 변호사 자격이 필요하다. 마찬가지로 AI 서비스도 일반적인 경우에는 특별한 제약이 없지만 사회적으로 중요한 영향을 미치는 서비스라면 정부가 개입하겠다는 태도를 보이고 있다. 향후에도 이러한 흐름은 계속될 가능성이 크다. 정부가 AI의 구체적인 내용에 개입하는 것은 어렵고 적절하지도 않다는 점을 생각하면 미래에는 법률 사무처럼 중요한 서비스를 위해 AI가 일정한 자격시험을 통과하는 제도가 생기는 것이 아닐까 섣부른 추측을 해 본다. 나아가 AI가 계속 발달한다면 변호사 자격까지 갖추고 법률사무를 처리하게 되는 것도 허황한 꿈은 아닐수 있다는 생각이 든다.

2025.03.17 14:28법무법인 태평양 류광현 컬럼니스트

알고리즘 체험부터 원탁토론까지…서울교대, '어린이 AI 윤리 캠프' 개최

인공지능(AI) 시대를 준비할 미래 세대가 윤리적 사고를 키울 기회를 맞았다. 서울교육대학교와 교보교육재단이 어린이들에게 AI 윤리와 책임에 대해 배울 수 있는 특별한 자리를 마련하기 때문이다. 서울교육대학교와 교보교육재단은 오는 23일부터 이틀간 서울교대에서 '어린이 AI 윤리 토론 캠프'를 개최한다고 22일 밝혔다. 이번 캠프는 초등학교 5~6학년 학생들을 대상으로 진행되며 학생들은 AI의 윤리적 과제와 사회적 책임에 대해 배우고 이를 토론하며 스스로 해결책을 찾아가는 시간을 갖는다. 캠프 프로그램은 크게 네 가지로 구성된다. 'AI 알고리즘 체험'에서는 알고리즘이 무엇이며 이를 이해해야 하는 이유를 실습을 통해 배운다. 또 'AI 윤리 기본 교육'을 통해 AI 윤리의 원칙과 문제점을 어린이 눈높이에 맞춰 익히게 된다. 토론 프로그램도 포함돼 있다. '철학적 탐구 토론 세션'에서는 AI 기술이 가져올 긍정적·부정적 영향을 다루며 윤리적 접근 방식을 논의한다. 마지막으로 '원탁 토론'을 통해 참가자들은 스스로 AI 윤리의 적용 방안을 구상하고 발표하는 시간을 가진다. 주최 측은 이번 캠프를 통해 단순한 AI 교육을 넘어 윤리적 사고력을 배양하는 데 초점을 맞췄다. 특히 어린이들에게 미래 기술을 윤리적으로 이해하고 활용하는 방법을 스스로 탐구할 수 있도록 기회를 제공하는 것이 목표다. 행사 관계자는 "이번 캠프는 단순한 이론 교육이 아닌 실질적인 경험을 제공하는 데 의의가 있다"며 "어린이들이 미래 사회에서 윤리적 리더로 성장할 수 있는 밑거름이 될 것"이라고 밝혔다.

2025.01.22 16:41조이환 기자

"아이들이 로봇청소기와도 교감하는 시대"…로봇 윤리, 더이상 선택 아닌 필수

“아이들이 로봇청소기와도 정서적으로 교감하는 시대가 됐습니다. 기술이 일상 속에 보편적으로 자리잡게 됨에 따라 로봇과 인간의 공존을 위한 윤리적 기준을 마련하는 것은 더 이상 선택이 아닌 필수입니다." 변순용 서울교육대학교 교수는 최근 서울교대에서 열린 '제4회 인공지능(AI) 리더스포럼'에서 이같이 강조했다. 이번 포럼은 국제인공지능윤리협회(IAEE)가 주최해 로봇이 인간의 삶과 사회에 미치는 영향을 종합적으로 검토하고 기술의 윤리적 방향성을 논의하기 위해 마련됐다. 2일 업계에 따르면 최근 아동들은 로봇 청소기 같은 단순한 기계와도 정서적 유대를 형성하며 성장하고 있다. 사람-사람 간 상호작용이 줄어드는 대신 어린이들이 로봇이나 AI 기술과 보다 쉽게 교감하게 되는 환경 때문이다. 이러한 흐름 속에서 AI와 로봇 윤리 교육의 중요성이 부각되고 있다. 지난 2021년 개정된 초등 도덕 교과서에 'AI와 로봇 윤리'가 포함되면서 학생들은 로봇과 인간의 차이를 배우고 미래 사회의 공존에 필요한 가치와 규범을 이해할 기초를 마련하고 있다. 변 교수는 "지금 어린 세대는 향후 로봇과 인간이 함께 살아가는 시대를 살아갈 것"이라며 "일찍부터 로봇과의 상호작용 방식을 고민하면 미래에 필요한 가치와 원칙을 확립할 수 있을 것"이라고 설명했다. 포럼에서는 로봇 윤리의 다양한 쟁점이 논의됐다. 특히 인간이 로봇을 통해 노동에서 해방되길 원하면서도 로봇에 대한 통제력을 잃을 수 있다는 '주인-노예 딜레마'가 핵심 쟁점으로 부각됐다. 이 딜레마는 로봇의 활용이 가져오는 편리함과 통제력 상실에 대한 우려가 상충하면서 발생한다. '주인'으로서 인간은 단순 반복 업무나 위험한 작업을 로봇에게 맡김으로써 창의적인 활동이나 여가에 보다 많은 시간을 할애할 수 있게 된다. 실제로 산업 현장에서는 생산성을 높이는 자동화 로봇이, 가정에서는 고령화 사회를 지원하는 돌봄 로봇이 이미 긍정적인 변화를 이끌고 있다. 이와 더불어 기술의 발전으로 인한 인간의 통제력 상실에 대한 불안감도 커지고 있다. 자율주행차가 명령을 거부하거나 공장에서 로봇이 작업 우선순위를 스스로 변경하는 등 예상치 못한 상황이 발생할 가능성이 있다는 것이다. 변 교수는 "로봇이 인간보다 더 빠르게 정보를 처리하고 결정을 내리게 되면 인간은 주인의 위치에서 벗어나 로봇의 통제를 받는 상황에 처할 수 있다"며 "로봇의 도입으로 인한 자유와 편리함을 누리려는 욕망과 통제력을 유지하려는 우려 사이의 긴장은 로봇 윤리의 핵심적인 딜레마"라고 설명했다. 로봇의 자율성과 도덕적 판단 능력에 대한 논의 역시 주목받고 있다. 이는 로봇이 자의식을 가지고 도덕성을 가진다면 인간의 윤리적 기준을 따를 수 있는지, 나아가 독립적인 도덕적 존재로 인정될 수 있는지를 둘러싼 철학적 쟁점이다. 변 교수는 로봇이 단순히 프로그래밍된 명령에 따라 행동하는 것을 넘어 상황에 대한 이해와 판단을 기반으로 스스로 결정을 내릴 수 있는지를 지속적으로 탐구해야 한다고 강조했다. 이는 로봇의 행동이 '규칙을 따른 기계적 반응'인지 아니면 '자의식과 도덕적 책임에 기반한 행위'인지의 문제로 이어진다는 것이다. 이같은 논의는 로봇의 법적 지위와 책임 소재 문제로도 확장된다. 변 교수는 "만약 우리가 특정 로봇을 자의식 있는 존재로 간주한다면 그 로봇은 단순한 도구가 아니라 자신의 행동에 대해 윤리적 책임을 지는 행위자가 되는 것"이라며 "로봇의 도덕적·법적 지위를 규정하는 새로운 패러다임이 필요하다"고 설명했다. 이러한 논의는 자율성을 가진 로봇이 예측 불가능한 결과를 일으킬 때의 책임 소재 문제로 이어진다. 이에 변 교수는 제조사나 사용자뿐 아니라 특정 상황에서 로봇 자체에 일정 수준의 책임을 묻는 '전자 인격' 개념도 주요 쟁점으로 소개했다. '전자 인격'은 로봇을 법적 주체로 인정해 인간 외 존재에게도 권리와 의무를 부여할 지를 탐구하는 개념이다. 이는 자율성을 가진 로봇이 예측하지 못한 사고를 일으켰을 때 책임을 제조사나 사용자에게 물을지, 또는 로봇 자체에게 책임을 물을지에 대한 법적 논의다. 이 개념은 로봇을 단순한 도구가 아닌 독립적 행위자로 간주할 가능성을 제시한다. 그럼에도 현재 국내에서는 이러한 법적 체계가 미비한 상황으로, 관련 논의는 이제 막 시작 단계에 있다. 변 교수는 "AI 기술이 점점 더 빠른 속도로 발전하고 있다"며 "마치 기업이 '법인'으로서 하나의 인격체로 인정받듯 '전자 인격' 개념은 머지않아 현실적인 정책 과제로 부상할 것"이라고 예측했다. 변순용 교수는 국내 로봇 윤리 연구의 선구자로, 지난 2000년대부터 로봇과 AI의 윤리적 쟁점을 학문적·사회적으로 알리는 데 힘써왔다. 그는 로봇이 단순한 도구를 넘어서는 존재가 될 가능성에 주목하며 이를 대비하기 위한 윤리적·법적 프레임워크의 필요성을 꾸준히 제기해왔다. 변 교수는 발표를 마치며 "로봇 윤리는 단순히 규제의 틀이 아니라 인간과 로봇이 공존할 수 있는 미래를 설계하는 과정”이라며 "기술이 점점 더 우리의 삶에 깊이 들어올수록 인간 고유의 가치를 이해하고 지키는 일이 더욱 중요해질 것"이라고 강조했다.

2025.01.02 15:43조이환 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

[몰트북 파장①] AI가 내 메일 뒤져서 SNS 올린다면…실험장인가 위협인가

자꾸 바뀌는 쿠팡 개인정보 유출수...그래서 몇 개?

최수연 네이버, 지식인 오류 사과..."개보위 선제적 신고"

전력 빅3, 최대 실적 갈아치웠다…올해도 더 간다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.