• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'투명성'통합검색 결과 입니다. (8건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

엑스박스, '안전한 인터넷의 날' 앞두고 제6차 투명성 보고서 발표

엑스박스가 '안전한 인터넷의 날'을 앞두고 이용자 보호 및 책임감 있는 인공지능(AI) 혁신 의지를 담은 제6차 투명성 보고서를 발표했다고 6일 밝혔다. 이번 보고서는 지난해 동안 진행된 AI 중재 솔루션의 성과와 이용자 신고 기능 개선 사항을 중점적으로 다뤘다. 김 쿠네스 엑스박스 게이밍 신뢰 및 안전 부문 부사장은 "모든 이에게 게임의 즐거움을 선사하기 위해 이용자를 보호하는 책임이 엑스박스의 핵심"이라고 강조했다. 보고서에 따르면 엑스박스는 증오 발언, 괴롭힘, 치팅 등 이용자에게 중요한 11개 유해 주제로 사전 대응형 AI 솔루션의 범위를 확대했다. 2025년 한 해 동안 총 148억건의 콘텐츠를 선제적으로 스캔했으며, 이 중 약 3억 6800만 건의 정책 위반 사항을 이용자에게 노출되기 전 조치하는 성과를 거뒀다. 이러한 노력으로 플랫폼 내 스팸 메시지 신고 건수는 전년 대비 90% 급감했으며, 비친구로부터 오는 메시지에 대한 불만도 23% 감소한 것으로 분석했다. 사용자 편의를 위한 신고 시스템 고도화와 교육용 콘텐츠 보급에도 주력하고 있다. 개발사 턴 10은 '포르자 호라이즌 5' 내에 신고 기능을 직접 통합해 이용자가 게임을 중단하지 않고도 즉시 비매너 행위를 보고할 수 있도록 프로세스를 개선했다. 마인크래프트는 시나리오 기반 학습 월드인 'CyberSafe: Bad Connection?'을 최초 공개하고, 산업 전문가들로 구성된 '마인크래프트 안전 위원회'를 설립해 안전한 멀티이용자 환경 조성을 위한 가이드를 마련했다. 이외에도 영국 내 성인 계정을 대상으로 도입한 연령 확인 시스템을 올해 말 더 많은 지역으로 확대해 연령에 적합한 게이밍 환경을 보장할 방침이다. 또한 '테크 코알리션' 및 '랜턴' 프로그램에 참여해 업계 공동으로 고위험 행동을 감지하고 대응하는 체계를 강화했다. 엑스박스 측은 지난해 동안 약 33만 2000건의 이의 신청을 처리했으며, 이 중 26%를 복구하며 투명하고 공정한 운영을 지속하고 있다고 진단했다.

2026.02.06 10:41정진성 기자

AI기본법 시행…넥슨·엔씨·넷마블, 게임업계 대응은

'인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 AI 기본법)이 시행된 가운데, 주요 게임사가 정부 가이드라인에 발맞춰 사내 지침을 정비하고 투명성 확보를 위한 법적 의무를 적극 따른다는 입장을 전했다. 22일 인공지능(AI)을 아우르는 AI 기본법이 세계 최초로 시행됐다. 이 법의 핵심 규제 중 '투명성 확보 의무'는 이용자가 AI 서비스를 이용 중이라는 사실을 사전에 인지하고, 제공되는 결과물이 AI에 의해 생성된 것임을 명확히 인식할 수 있도록 하는 내용을 골자로 한다. 정부는 게임을 '예술적·창의적 표현물'로 분류해 서비스 내부 환경에서의 유연한 표시를 허용하는 등 실질적인 규제 범위를 최소화했다. 이는 게임 산업의 특수성을 고려해 기업의 규제 부담을 덜어주고, 법적 해석 유연성을 확보해 AI 기본법을 안정적으로 안착시키겠다는 취지다. 게임업계, 자율 가이드 수립 및 대응 체계 정비 주요 게임사는 정부의 AI 기본법 시행에 맞춰 관련 의무를 충실히 이행하겠다는 공통된 입장을 내놨다. 넥슨코리아는 "기술 개발뿐 아니라 AI 윤리 정책 역시 중요한 관리 요소로 보고 내부적으로 집중 관리하고 있다"고 밝혔다. 크래프톤은 "이미 AI 활용과 관련한 정보를 명시해 온 만큼, AI 기본법에 따른 의무도 성실히 준수할 예정"이라고 말했다. 넷마블은 "이번 법령과 함께 제시되는 상세 가이드를 기준으로 관련 사항을 충실히 이행하겠다"는 입장을 전했다. 엔씨소프트는 "AI 기본법 시행에 맞춰 AI 서비스를 안전하고 효율적으로 활용할 수 있도록 사내 가이드를 제작해 공유했으며, 향후 세부 지침이 마련되면 그에 따라 운영 체계를 보완할 계획"이라고 설명했다. 주요 해외 게임사에는 이번 법안에 따른 투명성 확보 의무가 실무적으로 큰 부담이 되지 않을 전망이다. 국가별 구분없이 게이머는 개발진이 쏟아부은 노력을 인정해주는 성향이 강한 탓이다. 이미 이러한 환경을 고려해 온 기업이라면 AI 기본법에 저촉될 만한 사례가 드물 것이라는 분석이다. 한 해외 게임사 관계자는 "캐릭터 아트, 시네마틱 영상 등 창의적인 영역에 AI를 활용하는 것을 지양하거나 사실상 금기시하는 분위기"라며 "사소한 이미지 하나라도 AI로 제작할 경우 이용자 여론이 악화될 수 있어 내부적으로 매우 엄격한 기준을 적용하고 있다"고 밝혔다. 과기부 "게임 산업 특수성 고려...규제 부담 최소화" 과학기술정보통신부(이하 과기부)는 AI 기본법을 만드는 과정에서 게임 산업 특수성을 충분히 반영했다고 설명했다. AI 기본법 제31조 3항에 따르면 AI를 활용했더라도 예술적·창의적 표현물에 해당하거나 그 일부를 구성하는 경우에는 전시 또는 향유 등을 저해하지 않는 방식으로 고지 또는 표시할 수 있다. 쉽게 말해 게임의 몰입도를 해치지 않는 범위에서 AI 활용 사실을 나타내도 된다는 의미다. AI와 상호작용하거나 동적인 AI 콘텐츠 생성 기능이 적용된 게임과 메타버스에는 두 가지 표시 방식을 규정했다. 먼저 게임 내 구성요소에 AI를 활용한 경우에는 이용자가 상호작용하는 캐릭터·NPC명에 AI 캐릭터·NPC임을 알리거나 초기 대화 시 안내해야 한다. 또 AI 기반 음성 서비스는 게임 내 이용자가 접속할 때 서비스 초기부터 AI 기반 음성임을 알려야 한다. 최우석 인공지능안전신뢰지원과 과장은 "AI 기본법은 제도 도입 초기 단계인 만큼 1년의 유예기간 동안 계도 중심으로 운영된다"며 "특히 게임 업계의 경우 기존 서비스 구조상 문제가 발생할 가능성이 크지 않도록 해석과 가이드를 최대한 유연하게 마련했다"고 말했다. 이어 "현장에서 불필요한 혼란이나 부담이 생기지 않도록 하는 것이 기본적인 목표"라고 덧붙였다.

2026.01.22 16:35진성우 기자

정부, AI 투명성 기준 구체화…의무 이행 가이드 공개

정부가 오는 22일 인공지능(AI)기본법 시행을 앞두고 AI 투명성 기준을 구체화했다. AI 생성물에 대한 사회적 신뢰를 높이고 현장 혼선을 줄이겠다는 취지다. 과학기술정보통신부는 AI기본법 제31조에 규정된 투명성 확보 의무의 세부 이행방안을 담은 'AI 투명성 확보 가이드라인'을 공개했다고 21일 밝혔다. AI기본법은 AI 산업을 체계적으로 육성하고 안전한 활용 기반을 조성하기 위해 지난해 1월 21일 제정됐다. 다만 정부는 최소 1년 이상의 계도기간을 운영해 해당 기간 동안 투명성 조항에 대한 사실조사와 과태료 부과를 유예한다. 이번 가이드라인은 그동안 법률과 시행령만으로는 투명성 확보 의무 적용 기준을 파악하기 어렵다는 업계 우려를 반영해 마련됐다. 과기정통부는 지난해 9월 초안을 공개한 뒤, 실제 운영 중인 AI 제품·서비스 유형을 기준으로 이행 기준을 정리했다. 가이드라인은 투명성 확보 의무의 적용 대상을 이용자에게 AI 제품·서비스를 직접 제공하는 'AI사업자'로 명확히 했다. 국내 이용자 대상으로 서비스 제공하는 해외 사업자도 대상에 포함된다. AI를 업무나 창작의 도구로 활용하는 이용자는 의무 대상에서 제외됐다. 예를 들어 영상 생성 AI를 활용해 영화를 제작·배급하는 제작사는 AI 제품·서비스 제공자가 아니라 이용자에 해당한다. 투명성 확보 의무는 고영향 또는 생성형 AI 기반 운용 사실 사전 고지와, AI 생성물 표시 의무로 나뉜다. 서비스 환경 내에서만 제공되는 생성물은 화면 안내, 로고 표출 등 유연한 표시가 허용된다. 다만 외부로 반출되는 경우 사람이 인식할 수 있는 표시나 메타데이터 적용이 요구된다. 특히 실제와 구분하기 어려운 가상 생성물에 대해서는 사람이 명확히 인식할 수 있는 표시를 반드시 적용하도록 했다. 사회적 우려가 큰 영역에 대해 보다 엄격한 기준을 적용한 셈이다. 과기정통부는 "AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술 부작용을 막기 위한 최소 안전장치이자 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세"라고 밝혔다.

2026.01.21 13:44김미정 기자

정부 "AI기본법, 위험 대비 제도일 뿐…과도 규제 아냐"

"고영향·고성능 인공지능(AI) 개념은 향후 위험에 대비하기 위한 제도입니다. 현재 기준에서 실제 규제 대상인 AI는 사실상 없습니다." 과학기술정보통신부는 지난 20일 서울 광화문에서 출입기자 대상으로 진행한 'AI기본법 시행 대비 설명회'에서 이같이 밝혔다. 정부는 오는 22일 세계 첫 AI기본법을 시행한다. 최소 1년간 유예 기간을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정에서 겪는 혼란을 줄이기 위해 기업들에 상담과 컨설팅 중심 지원 체계를 가동한다. 이날 발표자로 나선 김경만 과기정통부 AI정책실장은 AI 기본법이 규제를 위한 법이 아니라 AI 산업 진흥을 기본 방향으로 설계된 법률이라는 점을 재차 강조했다. 그는 "AI 기본법 전체 조항 중 약 80% 이상이 AI 산업 진흥을 위한 내용으로 구성됐다"고 근거를 제시했다. 김 실장은 AI기본법 핵심 규제 대상으로 꼽히는 고영향·고성능 AI에 대해 현재 기준에선 적용 대상이 없다는 점도 짚었다. 과도한 규제가 현실화할 것이라는 업계 우려를 선제적으로 위한 조치다. 김 실장은 "고영향 AI는 에너지·원자력·교통 등 고위험 영역에서 중대한 위험 업무에 활용돼야 한다"며 "사람 개입 없이 전자동으로 작동하는 경우에만 해당한다"고 밝혔다. 이어 "AI기본법에서 이 모든 조건이 성립돼야 고영향 AI라 정의할 수 있다"고 덧붙였다. 정부는 현재 기준에서 고영향 AI에 해당할 가능성 있는 사례로 자율주행 레벨 4 이상 시스템을 언급했다. 그는 "채용 추천이나 대출 심사 보조처럼 사람이 최종 판단하는 구조는 규제 대상에서 제외"라고 강조했다. 김 실장은 고성능 AI에 적용되는 안전성 확보 의무 또한 현실적 규제 대상이 없는 상태라고 설명했다. 향후 고성능 AI 여부는 누적 연산량과 기술 수준 등 여러 조건을 종합해 판단할 방침이다. 그는 "현재 국내외 통틀어 해당 기준을 충족하는 AI는 없다"고 선그었다. 그러면서 "고성능 AI 안전성 의무는 현 시점 기술을 규제하기보다는 향후 초고성능 AI 등장에 대비한 사전적 장치"라고 설명했다. "AI 워터마크 의무는 사업자만...최소 구분 장치" 정부는 AI 기본법 규제 조항인 투명성 의무 적용 범위도 제시했다. 이 의무는 AI 서비스나 제품을 이용자에게 제공하는 사업자에게만 적용된다. AI 생성 결과물을 이용하는 개인이나 일반 이용자는 규제 대상이 아니다. 김 실장은 "AI 결과물이 서비스 내부에서 제공되는 경우에는 이용자가 AI 서비스를 사용하고 있다는 사실만 알리면 된다"며 "외부로 반출되는 경우 일반 생성물은 메타데이터 등 비가시적 워터마크 방식이 허용된다"고 설명했다. 정부는 딥페이크 생성물처럼 실제와 구별이 어려운 경우에만 사람이 인식할 수 있는 표시가 필요하다고 밝혔다. 김 실장은 "AI 투명성 의무는 유통 단계에서 최소한 구분 장치를 두기 위한 취지"라고 덧붙였다. 그는 "AI 기술 발전 속도가 매우 빠른 만큼 법을 고정된 규제로 운영하기보다는 시행 과정에서 지속적으로 점검하고 보완하는 방향으로 운용할 계획"이라며 "이를 위해 산업계와 학계, 시민사회, 국회가 참여하는 열린 논의 구조를 마련하겠다"고 강조했다.

2026.01.21 12:48김미정 기자

"디지털 자산, 공격자에 새로운 기회"

"디지털 자산은 '양날의 검'이다. 투명성, 탈중앙화, 즉시확정성 등 디지털 자산의 장점이 공격자들에게 기회로 작용하면서 오히려 단점이 될 수 있다" 김현민 금융보안원 팀장은 20일 개최된 금융 정보보호 컨퍼런스 'FISCON 2025' 세션발표에서 이같이 밝혔다. 이날 김 팀장은 '디지털 자산 보안의 현재와 미래: 최신 보안 위협 사례와 시사점'을 주제로 발표했다. 김 팀장은 디지털 자산이 공격자들의 주요 표적으로 급부상하고 있다고 밝혔다. 블록체인의 특성상 익명성, 추적·차단의 어려움, 스마트 컨트랙트 취약점, 오라클 공격 등 새로운 공격 위협이 되고 있다는 것이다. 이에 디지털 자산은 추적이 어려우면서도 공격 기법은 다양한 '해커들의 새로운 기회'가 되고 있다는 것이 김 팀장의 분석이다. 김 팀장은 "애플리케이션의 소스코드는 굉장히 중요한 자산이다. 그러나 퍼블릭 블록체인에서는 스마트 컨트랙트가 공개돼 있고, 누구나 다운로드해서 소스코드를 분석할 수 있다"며 "실제로 이런 '투명성' 때문에 해킹을 당하는 여러 사건이 있고, 지금도 많이 발생하는 사례"라고 지목했다. 이어 김 팀장은 "충분히 안전하게 구성되지 않은 탈중앙화도 오히려 공격에 매우 취약할 수 있다"며 "잘못된 권한 분산은 오히려 공격 지점만 늘리는 악효과를 불러올 수 있다"고 진단했다. 또 "블록체인 특성상 블록 생성 즉시 결과는 확정되며 되돌릴 수 없기 때문에 공격이 완료되면 즉시 피해가 확정되는 특징이 있다"며 "이에 공격도 수분, 수초내로 완료되고 피해 금액은 수조원에서 수천억원을 호가한다"고 경고했다. 아울러 김 팀장은 디지털 자산을 구성하는 인프라, ▲월렛(지갑) ▲관리자 ▲키 ▲스마트 컨트랙트 중 하나만 해킹 공격을 당해도 보안 실패, 침해사고로 이어질 수 있다고 지적했다. 김 팀장은 "디지털 자산의 속도 혁신은 위험 속도 역시 증폭된다"며 "'의도적인 지연'을 통한 대응력 확보가 필요하다"고 제언했다. 한편 김 팀장은 디지털 자산을 노린 공격에 대응하기 위해 ▲다층 권한 분산 및 키 관리 강화 ▲회복력 강화 ▲모의해킹 및 복원 훈련 등의 방안을 제시했다.

2025.11.20 20:05김기찬 기자

트럼프 행정부 AI 책임자, 앤트로픽 저격…"공포로 좌파식 규제 유도"

데이비드 삭스 미국 백악관 인공지능(AI)·암호화폐 정책 책임자가 공개적으로 앤트로픽을 비판하면서 양측의 정책적 대립이 수면 위로 떠올랐다. 20일 CNBC에 따르면 데이비드 삭스 책임자는 최근 X를 통해 "앤트로픽은 공포를 조장하는 정교한 규제 포획 전략을 구사하고 있다"고 비판했다. 이같은 발언은 잭 클라크 앤트로픽 공동창업자 겸 정책 총괄이 '기술적 낙관주의와 적절한 두려움'이라는 에세이를 발표한 직후 나왔다. 앤트로픽은 2020년 오픈AI 출신 다리오 아모데이와 다니엘라 아모데이 남매가 창업한 기업으로, '더 안전한 AI'를 내세우며 설립됐다. 현재 기업 가치는 약 1천830억 달러(약 259조원)로 평가되며 챗GPT 개발사 오픈AI에 이어 미국 내 두 번째로 높은 가치를 인정받고 있다. 오픈AI가 소비자용 앱 중심인 반면 앤트로픽은 기업용 AI '클로드' 시리즈로 입지를 넓혀왔다. 다만 양사는 AI 규제에 대해 상반된 시각을 보이고 있다. 오픈AI가 규제 완화에 무게를 두는 반면, 앤트로픽은 트럼프 행정부의 주 차원 규제 무력화 시도를 반대해왔다. 앤트로픽은 캘리포니아 주의 AI 투명성법인 'SB 53'을 공개 지지하며 "투명성 요건은 AI 안전에 중대한 영향을 미친다"고 밝혔다. 이에 대해 삭스 책임자는 "앤트로픽이 좌파적 규제 노선을 옹호하며 자신들을 트럼프 행정부의 피해자로 포장하고 있다"며 "우리가 한 일은 정책적 의견 차이를 밝힌 것뿐인데, 언론에는 마치 정치적 탄압을 받는 듯한 인상을 주고 있다"고 반박했다. 이와 달리 앤트로픽은 여전히 미 국방부 및 연방조달청(GSA)과의 계약을 유지하며 정부 부문에서도 입지를 확보하고 있다. 최근에는 국가안보 자문위원회를 신설하고 공공기관을 위한 AI 모델을 연 1달러에 제공하는 등 정부 협력도 강화하고 있다. 삭스 책임자는 "AI 정책은 중국과의 기술 경쟁에서 미국이 뒤처지지 않기 위해 속도감 있게 혁신해야 한다"며 "공포에 기반한 접근은 스타트업 생태계를 위축시키고 있다"고 주장했다.

2025.10.20 13:01한정호 기자

지난해 '성 착취물' 불법 촬영물 18만건 삭제 차단

지난해 네이버와 구글, 카카오 등 국내외 인터넷 사업자들이 성적 허위 영상물 등 불법 촬영물 18만 건을 삭제, 차단한 것으로 확인됐다. 전년에 비해 2배 이상 증가한 수치다. 디지털 성범죄물에 대한 신고가 늘었고 사업자들의 적극적인 유통방지 조치에 따른 것으로 풀이된다. 방송통신위원회는 4일 이같은 내용의 '2024년도 불법 촬영물 등의 처리에 관한 투명성 보고서'를 공개했다고 밝혔다. 보고서는 네이버, 카카오, 구글, 메타 등 국내외 주요 부가통신사업자를 포함한 81개 인터넷 사업자가 성적 허위 영상물, 아동‧청소년 성 착취물 등 불법 촬영물 등을 처리한 내용을 담았다. 성폭력처벌법에 따른 촬영물, 복제물, 편집물, 합성물, 가공물 등과 아동청소년성보호법에 따른 아동 청소년 성 착취물 등의 유통방지 노력 및 조치 현황 등을 공개했다. 사업자별로 ▲불법 촬영물 등 신고접수 및 처리결과 ▲유통방지를 위해 기울인 노력 ▲유통방지 관련 절차 ▲유통방지 책임자의 배치 및 교육에 관한 사항을 투명성 보고서를 통해 확인할 수 있다. 보고서 제출 대상은 SNS와 커뮤니티, 인터넷 개인방송, 포털 등 부가통신사업자 가운데 매출액 10억 원 이상 또는 일평균 이용자 10만 명 이상인 사업자와 웹하드 사업자다. 지난해 한 해 인터넷 사업자들은 이용자와 대리신고 삭제 기관 및 단체로부터 성적 허위 영상물, 아동 청소년 성 착취물 등 불법 촬영물 23만1천261건을 신고 접수 받아 18만1천204건을 삭제 차단했다. 이는 전년도 대비 신고건 8만6천448건(59.7%), 삭제 차단건 99,626건(122.1%)이 증가한 것으로 디지털 성범죄물에 대한 사회적 경각심이 높아짐에 따라 신고 자체가 늘었고 사업자가 해당 정보의 삭제 등 유통방지 조치를 보다 적극적으로 취한 결과로 분석된다. 이진숙 방통위원장은 “인공지능 서비스의 급격한 발전에 따라 딥페이크 성범죄물 등 디지털 성범죄 피해가 급증하고 있어 2차 피해를 예방하기 위해서는 인터넷 사업자의 유통방지 노력이 중요하다”면서 “앞으로도 사업자들이 투명성 보고서를 충실히 작성해 안전한 사회를 조성하기 위한 사회적 책무를 다해주길 바란다”고 말했다.

2025.07.04 09:26박수형 기자

디지털 클론, 광고의 미래인가 위험의 서막인가

AI가 만들어낸 가상의 인물, 이른바 '디지털 클론'이 실제 인간과 구분하기 어려울 정도로 정교해지고 있다. 최근에는 정치적 목적이나 기업 마케팅 전략에도 점점 더 널리 활용되고 있는데, 특히 패션 산업에서 디지털 클론의 활용이 빠르게 확산되고 있다. 이에 경영 전략 전문가 루아나 카르카노 씨는 그 장점과 문제점을 분석했다. 컨버세이션닷컴 외신 보도에 따르면, 패션 업계는 '디지털 클론'이 가장 활발히 활동 중인 분야 중 하나다. 패션 트렌드는 인플루언서를 통해 확산되는 경우가 많은데, 글로벌 인플루언서 시장 규모는 2025년까지 약 320억 달러(한화 약 43.7조원) 이상 성장할 전망이다. 하지만 실제 인플루언서와 협업하려면 시간과 비용이 많이 들기 때문에 브랜드 전용 디지털 클론을 제작해 홍보에 활용하면 비용을 절감하면서도 캠페인을 유연하게 운영할 수 있다. 실제로 글로벌 패션 브랜드 H&M은 올 3월, 자사 마케팅 캠페인과 소셜네트워크(SNS) 콘텐츠에 사용할 '디지털 모델 클론'을 제작할 계획을 발표했다. 이 디지털 클론은 완전히 가상의 인물이 아니라, 실제 모델의 외형을 기반으로 만들어졌다. 해당 모델은 디지털 클론의 초상권을 보유하고 있으며, 그에 따른 사용료를 받는 조건으로 계약됐다. H&M의 최고 크리에이티브 책임자 요르겐 앤더슨은 "우리는 개인의 스타일을 존중하면서도, 새로운 크리에이티브 방식으로 패션을 표현하고자 한다"면서 "신기술의 장점을 적극적으로 받아들이고 있다"고 밝혔다. H&M은 이 기술을 통해 촬영 비용을 줄이고, 카탈로그 제작 속도도 높일 수 있다고 설명했다. 하지만 한편으로는 모델, 메이크업 아티스트, 사진가 등 기존 인력의 일자리를 대체할 수 있어, 업계 전반에서 윤리적 우려와 논쟁도 커지고 있다. 카르카노 씨는 디지털 클론 사용에서 가장 중요한 이슈로 '동의'와 '보상'을 강조했다. H&M처럼 사전 계약을 통해 제작되는 경우도 있지만, 일부 기업이나 개인은 원래 인물의 얼굴이나 이미지 데이터를 무단으로 학습시켜 디지털 클론을 만들어내는 사례도 있어 문제가 되고 있다. 또 다른 문제는 다양성이다. AI는 매개변수를 조절해 다양한 인종, 연령, 체형의 인물을 만들어낼 수 있지만, 학습된 데이터에 따라 편향이 반영될 위험도 크다. AI가 다양성을 '연출'할 수는 있지만, 그럼에도 중대한 편견이 포함될 수 있다는 지적이다. 카르카노 씨는 디지털 클론이 패스트 패션 브랜드에게는 다양한 체형과 스타일을 표현할 수 있는 유용한 도구가 될 수 있지만, 윤리적 문제를 해결하려면 '투명성'이 무엇보다 중요하다고 강조했다. 사용자의 동의, 명확한 권한 부여, 그리고 개인정보와 초상권 보호를 위한 법적 기준이 마련돼야 한다는 주장이다. 그는 마지막으로 “브랜드가 AI 기술로 창의성을 높이기 위해서는 성실성, 포괄성, 법적 책임을 아우르는 윤리적 프레임워크를 도입해야 한다”고 강조했다.

2025.05.25 08:58백봉삼 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

현대차 보스턴다이나믹스 IPO 가시화…40조원 대어 부상

X에서 가상자산·주식 거래 가능해진다

갤럭시 S26, 설 연휴 직후 언팩·사전예약 돌입

비트코인 1만 달러 추락 경고…블룸버그 전략가 "美 경기침체 전조"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.