• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'윤리'통합검색 결과 입니다. (62건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

전기안전공사, '사람 중심' AI 윤리원칙 첫 제정

한국전기안전공사(대표 남화영)는 인공지능(AI) 기술의 사회적 확산에 따른 기술 활용 윤리 기준 마련을 위해 'AI 윤리원칙'을 제정했다고 19일 밝혔다. 최근 공공기관을 포함한 전 산업분야에서 생성형 AI 활용이 빠르게 확산하면서 기술 활용에 수반되는 윤리적 위험 예방과 신뢰성 확보가 사회 주요 이슈로 대두됨에 따른 선제적 조치다. 전기안전공사가 제정한 AI 윤리원칙은 ▲인간 존엄성 ▲공공성 ▲다양성 존중 ▲투명성 ▲데이터 관리 ▲신뢰성 및 개인정보보호 ▲인간의 감독 ▲안전성 ▲윤리적 활용 ▲협력 및 연대성 등 10대 핵심가치를 담았다. 10대 핵심가치는 유네스코(UNESCO)와 경제협력개발기구(OECD) 등 국내외 주요 기준과 연구 결과를 바탕으로 마련됐다. 핵심가치는 전기안전공사의 경영이념인 '사람존중 열린경영'을 실현하는 새 윤리원칙이자 디지털 체계 구축 길잡이로 활용될 예정이다. 전기안전공사는 앞서 지난해 AI 기술을 활용한 AI 사원 '이바름(e-바름)' 프로그램을 개발해 감사업무를 비롯한 예산·노무·인사 관리 등 분야 업무 효율성을 높였다. 전기안전공사는 이러한 노력을 인정받아 국민권익위원회가 후원하는 윤경ESG포럼에서 '윤리경영 우수상'을 수상하기도 했다. 남화영 전기안전공사 사장은 “공공부문에서 인공지능 기술을 활용함에 있어 가장 중요한 것은 안전성과 신뢰성”이라며 “AI 윤리원칙 제정을 시작으로 국민에게 신뢰받는 전기안전 기술 서비스 제공을 위해 힘쓸 것”이라고 밝혔다.

2025.06.19 15:18주문정

국제인공지능윤리협회, 경북 청소년 AI 경연 개최…"기술 이해하는 세대가 이긴다"

국제인공지능윤리협회(IAAE)가 경북 지역 청소년을 대상으로 생성형 인공지능(AI)을 활용한 창의력 경연대회를 연다. AI의 윤리적 활용 역량을 조기에 길러 교육 격차를 줄이고 기술 친화적 학습 문화를 정착시키겠다는 포부다. 국제인공지능윤리협회는 다음달 5일 경북 안동국제컨벤션센터에서 '생성형 AI 크리에이티브 경연대회'를 개최한다고 14일 밝혔다. 본 행사는 안동시와 한국정신문화재단이 주최하고 EBS와 안동국제컨벤션센터가 공동 주관하는 '2026 진학 드림캠퍼스 IN 안동'의 일환으로 진행된다. 이번 대회는 안동·경북 지역의 예비 고등학생 및 고등학교 재학생을 대상으로 하며 선착순 50팀을 모집한다. 팀은 개인 또는 2인 1팀으로 구성 가능하며 참가자는 사전교육을 수료한 뒤 예선과 본선, 심사를 거쳐 시상받게 된다. 총 10개 팀이 수상 대상으로 선정되며 수상자에게는 안동시장상, EBS 사장상, 국제인공지능윤리협회 이사장상, 장려상 등이 수여된다. 비수상자 전원에게도 참가상이 지급되며 수상작은 협회 홈페이지에 전시돼 우수 사례로 소개된다. 참가 신청은 국제인공지능윤리협회 홈페이지를 통해 가능하며 생성형 AI에 대한 기본 교육부터 시작해 실제 창작까지 이어지는 구조로 설계됐다. 협회 측은 기술 습득과 함께 윤리적 판단 능력을 함께 키울 수 있도록 구성했다고 밝혔다. 이번 경연은 지역 청소년에게 AI를 활용한 실전 경험을 제공하는 동시에 급변하는 교육 환경 속에서 균형 잡힌 AI 리터러시 교육 모델을 실험하는 시도로 평가된다. 생성형 AI의 비약적 확산에 따라 지역 간 교육 기회의 편차를 줄이려는 취지도 있다. 본 경연이 포함된 'EBS와 함께하는 2026 진학 드림캠퍼스 IN 안동' 행사는 지역 학생과 학부모를 위한 입시 전략 설명회 성격의 행사다. 이 자리에서는 EBS 진학 전문 교사의 맞춤형 대학입시 상담, 국영수 학습 전략 강연, 고교학점제 및 대입 설명회, 과학커뮤니케이터 '궤도'의 진로 특강 등 기타 프로그램도 함께 운영된다. 전창배 국제인공지능윤리협회 이사장은 "생성형 AI는 이제 일상과 교육 현장에서 빠질 수 없는 도구가 됐다"며 "이번 대회를 통해 학생들이 AI와 협업하는 방법을 배우고 윤리적 인식을 갖춘 미래 인재로 성장하길 기대한다"고 밝혔다.

2025.06.14 21:15조이환

방통위, 디지털윤리 창작콘텐츠 공모

방송통신위원회는 한국지능정보사회진흥원과 함께 '2025년 디지털윤리 창작콘텐츠 공모전'을 개최하고 10월2일까지 작품 접수를 진행한다고 밝혔다. 디지털 역기능으로부터 안전을 지키고 올바르게 디지털을 이용하기 위해 갖춰야 할 기본적 소양인 '디지털윤리'를 주제로 진행되며, 이에 대한 콘텐츠 기획‧제작 과정을 통해 국민 관점의 디지털윤리 인식제고 및 교육 콘텐츠를 발굴한다. 공모 분야는 '인식제고 콘텐츠'와 '학습 콘텐츠' 두 개 분야로 나눠 진행된다. 인식제고 콘텐츠 분야는 ▲그림일기(초등학생) ▲포스터 ▲카드뉴스 ▲디지털 만화(웹툰) ▲동영상(일반영상, 숏폼)을 공모하며, 학습 콘텐츠 부문은 교과 연계 및 창의적 체험활동의 교수 학습지도안을 모집한다. 특히 최근 중요하게 인식되는 인공지능 윤리에 대한 관심을 높이기 위해 '첨단조작기술영상 기술의 부작용 또는 올바른 활용 방안'과 '생성형 인공지능 개발 및 활용 시 윤리적 문제'를 다룬 작품에 가점을 부여한다. 청소년과 성인, 군장병, 교사 및 예비교사 등 대한민국 국민 누구나 참여할 수 있으며, 개인 또는 3명 이내 팀으로 지원할 수 있다. 심사는 오는 10월 형식요건 및 규격에 대한 심사를 거쳐 외부전문가 심사단의 본심사, 국민참여심사를 포함한 상훈심사를 통해 순위가 결정된다. 오는 12월 '2025년 디지털윤리대전'을 통해 최종 수상자를 발표할 예정이며 대통령상, 국무총리상, 방통위원장상, 교육부장관상, 국방부장관상 등 총 25점을 선정한다. 수상작은 디지털윤리 홈페이지에 공개하며 관련 SNS 콘텐츠 제작 등 디지털윤리 교육 및 홍보에 활용될 예정이다.

2025.06.02 09:37박수형

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] "AI 도입, 기술만큼 신뢰·안전도 중요"…기업이 갖춰야 할 조건은?

국내 인공지능(AI) 기업들이 생성형 AI 도입에 있어 기술만큼이나 신뢰성과 안전성을 우선 과제로 제시했다. 국제인공지능윤리협회(IAAE)는 27일 서울 삼성동 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC) 컨퍼런스'를 개최했다. '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로 열린 이번 행사에는 셀렉트스타, LG유플러스, 원티드랩, AI3 등 공공·민간 주요 조직들이 참여했다. 이날 황민영 셀렉트스타 부대표는 생성형 인공지능(AI)을 도입할 때 핵심은 기술력 자체보다 신뢰성과 안전성을 정량적으로 평가하고 관리할 수 있는 체계를 갖추는 데 있다고 강조했다. 특히 산업 특성과 조직의 정책에 맞춘 맞춤형 벤치마크와 '레드팀' 검증이 도입 여부를 좌우하는 만큼, 단순한 모델 성능보다 사전 평가 체계의 구축이 더 시급하다고 진단했다. 황 부대표는 LLM 평가 방식으로 크게 세 가지 접근법을 제시했다. 객관식 기반의 벤치마크인 '자동평가', 사람이 직접 점수를 매기는 '휴먼 평가', 모델이 다른 모델을 평가하는 LLM 기반 평가다. 현업에서는 이 세 방식을 혼합해 쓰고 있으며 시험지처럼 만드는 벤치마크는 빠르고 효율적이고 LLM 평가는 반복 작업을 대체하는 수단으로 유용하다. 또 그는 기업의 도입 결정에서 신뢰성 문제로 LLM을 도입하지 못하는 경우가 빈번하다는 점을 지적했다. 대기업 챗봇이 경쟁사 제품을 추천한 사례나 해외 항공사 챗봇이 잘못된 가격 정보를 안내해 법적 책임을 지게 된 사례처럼 잘못된 출력으로 인한 금전적·법적 손해가 현실화되고 있다는 것이다. 이같은 문제를 해결하려면 도입 전 신뢰성 검증 체계가 필수적이라는 게 황 부대표의 판단이다. 기업별 정책과 업무 목적에 따라 정확성·정책 적합성·유해성 등 다양한 기준을 사전에 마련하고 반복 검증을 통해 모델의 응답 수준을 평가해야 한다는 것이다. 여기에 더해 위장된 질문을 활용해 잠재적 위험 발화를 사전에 탐지하는 '레드팀' 방식의 검증도 병행해야 한다. 셀렉트스타는 지난 2018년 설립된 이후 이 같은 과제를 해결하기 위해 평가 데이터셋 구축, 레드팀 챌린지 운영, 맞춤형 테스트 설계 등을 수행해 왔다. 최근에는 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 기업별 LLM을 체계적으로 검증하고 있다. 황민영 셀렉트스타 부대표는 "AI가 답변을 잘 요약했는지, 정책을 따랐는지, 위험한 말을 했는지를 평가할 수 있는 기준과 매트릭스를 기업 스스로 구성해야 한다"며 "생성형 AI 도입은 더 이상 기술이 아닌 책임과 평가의 문제로 넘어갔다"고 덧붙였다. 이날 또다른 발표를 진행한 주형민 원티드랩 AX사업 총괄은 생성형 AI 도입은 기술이 아닌 통제와 책임의 문제라고 강조했다. 기술보다 조직 구조, 거버넌스 체계 정비가 우선이라는 주장이다. 주 총괄은 최근 기업들이 AI를 주요 업무에 활용하면서 에이전트 기반의 구조로 급속히 전환하고 있다고 밝혔다. 이 과정에서 오류가 누적될 경우 전체 시스템 신뢰도를 갉아먹을 수 있다고 경고했다. 그는 "복수 에이전트의 조합은 작은 오류도 누적되면 전체 리스크로 이어진다"며 "기술 성능보다 중요한 건 데이터 흐름 추적과 운영 통제"라고 강조했다. 원티드랩은 이를 반영해 에이전트 통계, 요금 통제, 사용 이력 관리 등 통제 기능을 자체 플랫폼에 구축한 상태다. 특히 민감정보 대응과 내부 사용 통제를 핵심 기능으로 삼았다. 주형민 총괄은 "AI 전담조직도 역할을 바꿔야 한다"며 "AI는 누구나 쓸 수 있어야 하며 구조가 이를 뒷받침해야 한다"고 강조했다. 이어 발표를 진행한 한영섭 LG유플러스 AI테크랩장은 AI 확산 논의가 생산성과 효율에 치우쳐 있다며 안전과 신뢰에 대한 논의가 병행돼야 한다고 강조했다. 한 테크랩장은 "AI가 실제로 도움이 되려면 먼저 안심하고 쓸 수 있어야 한다"고 말했다. 이같은 목표를 달성하기 위해 LG유플러스는 '어슈어드 인텔리전스'를 핵심 전략으로 제시했다. AI가 만든 음성을 판별해 보이스피싱 등 음성 기반 범죄를 차단하는 '안티 디보이스', 통화 내용을 서버로 전송하지 않고 기기 내에서만 처리하는 '온디바이스 LLM', 양자암호 기반의 통신 보안 기술이 그 축이다. 이 전략이 적용된 대표 서비스가 통화 에이전트 '익시오(XiO)'다. 스팸 응답, 음성 분석, 보이스피싱 탐지 기능을 AI가 수행하지만 개인정보는 모두 단말기 안에서만 처리된다. 또 AI가 생성한 텍스트나 음성, URL 링크를 탐지해 위험 여부를 사전에 차단하는 기능도 함께 개발 중이다. 한 단장은 "AI의 위협을 AI로 막는 구조가 필요하다"며 "기술적 대응은 매우 중요하다"고 역설했다. LG유플러스는 그룹 AI 연구원과 협력해 자체 LLM '익시젠(XiGen)'도 운영 중이다. 기존 엑사원 모델을 기반으로 산업별 도메인에 특화한 경량 LLM을 개발하고 있으며 스마트폰 등 디바이스 탑재를 목표로 상용화를 추진 중이다. 한영섭 AI테크랩장은 "AI가 만든 콘텐츠를 알아채지 못하는 상황이 곧 현실이 될 것"이라며 "AI의 확산과 함께 신뢰 체계를 구축하는 것도 기업의 책임"이라고 말했다.

2025.05.27 15:46조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

디지털 클론, 광고의 미래인가 위험의 서막인가

AI가 만들어낸 가상의 인물, 이른바 '디지털 클론'이 실제 인간과 구분하기 어려울 정도로 정교해지고 있다. 최근에는 정치적 목적이나 기업 마케팅 전략에도 점점 더 널리 활용되고 있는데, 특히 패션 산업에서 디지털 클론의 활용이 빠르게 확산되고 있다. 이에 경영 전략 전문가 루아나 카르카노 씨는 그 장점과 문제점을 분석했다. 컨버세이션닷컴 외신 보도에 따르면, 패션 업계는 '디지털 클론'이 가장 활발히 활동 중인 분야 중 하나다. 패션 트렌드는 인플루언서를 통해 확산되는 경우가 많은데, 글로벌 인플루언서 시장 규모는 2025년까지 약 320억 달러(한화 약 43.7조원) 이상 성장할 전망이다. 하지만 실제 인플루언서와 협업하려면 시간과 비용이 많이 들기 때문에 브랜드 전용 디지털 클론을 제작해 홍보에 활용하면 비용을 절감하면서도 캠페인을 유연하게 운영할 수 있다. 실제로 글로벌 패션 브랜드 H&M은 올 3월, 자사 마케팅 캠페인과 소셜네트워크(SNS) 콘텐츠에 사용할 '디지털 모델 클론'을 제작할 계획을 발표했다. 이 디지털 클론은 완전히 가상의 인물이 아니라, 실제 모델의 외형을 기반으로 만들어졌다. 해당 모델은 디지털 클론의 초상권을 보유하고 있으며, 그에 따른 사용료를 받는 조건으로 계약됐다. H&M의 최고 크리에이티브 책임자 요르겐 앤더슨은 "우리는 개인의 스타일을 존중하면서도, 새로운 크리에이티브 방식으로 패션을 표현하고자 한다"면서 "신기술의 장점을 적극적으로 받아들이고 있다"고 밝혔다. H&M은 이 기술을 통해 촬영 비용을 줄이고, 카탈로그 제작 속도도 높일 수 있다고 설명했다. 하지만 한편으로는 모델, 메이크업 아티스트, 사진가 등 기존 인력의 일자리를 대체할 수 있어, 업계 전반에서 윤리적 우려와 논쟁도 커지고 있다. 카르카노 씨는 디지털 클론 사용에서 가장 중요한 이슈로 '동의'와 '보상'을 강조했다. H&M처럼 사전 계약을 통해 제작되는 경우도 있지만, 일부 기업이나 개인은 원래 인물의 얼굴이나 이미지 데이터를 무단으로 학습시켜 디지털 클론을 만들어내는 사례도 있어 문제가 되고 있다. 또 다른 문제는 다양성이다. AI는 매개변수를 조절해 다양한 인종, 연령, 체형의 인물을 만들어낼 수 있지만, 학습된 데이터에 따라 편향이 반영될 위험도 크다. AI가 다양성을 '연출'할 수는 있지만, 그럼에도 중대한 편견이 포함될 수 있다는 지적이다. 카르카노 씨는 디지털 클론이 패스트 패션 브랜드에게는 다양한 체형과 스타일을 표현할 수 있는 유용한 도구가 될 수 있지만, 윤리적 문제를 해결하려면 '투명성'이 무엇보다 중요하다고 강조했다. 사용자의 동의, 명확한 권한 부여, 그리고 개인정보와 초상권 보호를 위한 법적 기준이 마련돼야 한다는 주장이다. 그는 마지막으로 “브랜드가 AI 기술로 창의성을 높이기 위해서는 성실성, 포괄성, 법적 책임을 아우르는 윤리적 프레임워크를 도입해야 한다”고 강조했다.

2025.05.25 08:58백봉삼

한전, 윤리준법위원회 '청렴윤리위원회'로 확대·개편

한전이 윤리준법위원회를 '청렴윤리위원회'로 확대·개편해 청렴과 윤리경영의 가치를 강화한다. 한국전력(대표 김동철)은 23일 서울 양재동 아트센터에서 '2025년 제1차 윤리준법위원회'를 개최했다. 윤리준법위원회는 한전 윤리준법경영 강화와 내부통제체계 구축을 목적으로 2019년부터 운영되고 있다. 김동철 사장을 위원장으로 하고 내부 경영진 5명과 외부 위원 3명으로 구성돼 있다. 윤리준법위원회는 한전 윤리준법경영과 내부통제 체계의 최고 의사결정기구로 연간 추진계획 심의, 성과 실적 점검·평가, 향후 발전 방안 제안·지원 역할을 하고 있다. 이날 위원회에서는 부패 취약분야 진단, 청렴수준 평가 등 청렴업무와 관련한 의사결정 기능을 추가해 '청렴윤리위원회'로의 확대 개편하는 방안을 확정했다. 또 2025년 내부통제 종합추진계획과 윤리경영 종합추진계획을 의결하고 부패 취약분야 점검·개선방안, 조직 내 리스크 예방·투명한 경영체계 확립을 위한 구체적 실행방안 등을 논의했다. 김동철 한전 사장은 “한전이 전기요금 정상화, 전력망 적기 확충, 신기술·신산업 활성화 등의 사명을 수행하기 위해서는 국민의 지지와 신뢰가 반드시 필요하다”며 “청렴과 윤리 가치가 조직 전반에 뿌리내려 국민에게 신뢰받는 기업으로 자리매김할 수 있도록 최선을 다하겠다”고 강조했다.

2025.05.23 18:25주문정

[현장] "국제 AI 윤리 표준 만든다"…서울대, '제트인스펙션 컨퍼런스' 개최

서울대학교가 신뢰할 수 있는 인공지능(AI)을 주제로 국제 컨퍼런스를 열고 각국 전문가들과 윤리적 AI 개발 방향을 논의에 나섰다. 책임 있는 기술 활용을 위한 글로벌 연대와 한국 내 자율적 거버넌스 모델 구축이 주요 의제로 떠올랐다. 서울대학교 데이터사이언스 대학원은 20일 '제3회 제트인스펙션(Z-Inspection)' 국제 컨퍼런스를 관악구 서울대학교 호암교수회관에서 개최했다. 이틀 일정으로 열리는 이번 행사는 서울대 데이터사이언스대학원이 주관하고 독일계 글로벌 제약·소재 기업 머크(Merck), 제트인스펙션(Z-Inspection) 이니셔티브, 서울대 신뢰할 수 있는 AI 연구실이 협력해 운영한다. 서울대 교수진과 유럽 연구진을 포함해 약 50명의 윤리·의료·기술·법 전문가가 참석했다. 제트인스펙션은 AI 시스템이 실제 사회에 적용될 때 발생하는 위험과 긴장을 다학제적 방식으로 점검하는 절차 중심의 국제 평가 프로그램이다. 유럽연합(EU)의 AI 윤리 프레임워크를 기반으로 의료, 공공, 금융 등 각 분야 실사용 사례를 검토하고 윤리적 충돌 지점을 사전에 탐색하는 것이 핵심이다. 국내에서는 지난 3월 EU AI법을 참고한 '인공지능 개발 및 신뢰 기반 조성에 관한 기본법(AI기본법)'을 세계 두 번째로 입법했다. 이에 따라 국내에서도 윤리적 AI 기술에 대한 제도적·자율적 평가 수요가 증가하는 가운데 이번 회의는 제트인스펙션 프로그램의 실제 적용 가능성과 제도 밖 자율검증 모델을 공유하는 자리로 마련됐다. 이번 행사를 주도한 로베르토 지카리 서울대 초빙교수는 "AI는 그 자체로 선하거나 악하지 않으며 어떻게 쓰느냐에 달렸다"며 "정치적 이유로 규제가 지연되는 나라일수록 오히려 병원이나 기관들이 자발적으로 윤리 점검에 나설 기회가 된다"고 말했다. "윤리 없는 데이터, 기업 생존도 없다"…머크, 신뢰 기반 AI 전략 공개 이날 처음으로 발표를 맡은 장 앤노 샤르통 머크 디지털윤리·생명윤리 책임자는 회사 내부 윤리 프레임워크를 직접 소개하며 신뢰 기반 거버넌스의 필요성을 구체적으로 설명했다. 샤르통 책임자에 따르면 AI 윤리는 기업의 사업 전략 중심에 있어야 한다. AI 기술이 실제 고객과 내부 임직원에게 어떻게 수용되는지를 면밀히 점검하지 않으면 장기적으로 시장에서 신뢰를 잃게 된다는 것으로, 기술의 가능성보다 그 사용 방식이 더 중요하다는 설명이다. 이에 따라 머크는 현재 AI와 데이터 프로젝트에 대해 별도의 디지털 윤리 행동강령을 운영 중이다. 이 강령은 자율성, 투명성, 비편향성, 공정성, 혜택 극대화 등 다섯 가지 윤리 원칙에 기반하며 내부 윤리 자문단과 외부 독립 전문가 패널이 각 프로젝트를 평가하는 구조다. 이를 위해 회사는 자체 개발한 '위험 원칙 평가도구'를 활용한다. 프로젝트별로 윤리 민감도를 수치화해 사전 진단하고 위험 수준에 따라 대응 단계를 결정한다. 샤르통 책임자는 실제 환자 데이터 분석 도구, 인사 알고리즘, 생성형 AI 응용 사례 등에서 이 시스템이 작동하고 있다고 밝혔다. 더불어 그는 발표 중 미국 의료기관이 환자 동의 없이 구글에 건강 데이터를 제공했던 사례를 언급하며 법적 허용 여부만으로는 부족하다고 지적했다. 머크는 이 사건을 계기로 '기술의 최종 사용에 대한 기업의 윤리적 책임'을 조직 내부 규범으로 명문화한 상태다. 생성형 AI 확산에 맞춰 회사는 유럽연합 AI법(EU AI Act)을 기반으로 고위험군 기술 분류 체계를 도입했다. 이 분류에 포함된 프로젝트는 의무 윤리 심사를 거쳐야 하며 사업 부문별로 상이한 윤리 리스크를 반영하기 위해 맞춤형 체크리스트도 병행 운영되고 있다. 윤리 검토는 외부를 향한 책임뿐 아니라 내부 기술 수용성 확보에도 적용된다. 그는 일부 직원들이 AI에 대한 신뢰를 가지지 못하면 조직 내부 실험조차 추진이 어렵다고 강조했다. 샤르통 책임자는 "신뢰는 기술 수용의 전제조건이며 기업 평판과도 직결된다"며 "단기 수익만 쫓다 신뢰를 잃으면 그 비용은 훨씬 더 크게 돌아온다"고 말했다. "설계·사용자가 핵심…신뢰 가능 AI 위해 시나리오 기반 접근법 만들어야" 이날 또다른 발제를 맡은 마그누스 베스털룬 핀란드 아르카다응용과학대학 교수는 제트인스펙션 공동 책임자로서 실제 프로젝트 현장에서 축적한 AI 신뢰성 평가 사례를 공유하며 신뢰할 수 있는 AI 개념의 현실적 한계를 짚었다. 그는 기술 개발자이자 소프트웨어공학 박사 출신으로, 정보보안·사이버규제·AI 시스템 진단 등에서 실무와 연구를 병행해온 기술 기반 연구자다. 이날 발표에선 기술 중심 시각에서 윤리 원칙을 어떻게 해석하고 적용해 왔는지를 설명했다. 베스털룬 교수는 먼저 기술자가 윤리를 다룰 때 마주하는 추상성과 해석의 난이도를 문제 제기했다. 그는 유럽연합(EU)에서 정의한 AI 신뢰성 개념이 ▲합법성 ▲윤리성 ▲견고성이라는 세 축을 갖지만 이를 개발자의 언어로 번역하는 작업은 별개의 도전이라고 밝혔다. EU 고위 전문가 그룹이 제시한 신뢰원칙에는 인간 자율성 존중, 위해 예방, 공정성, 설명가능성이 포함된다. 다만 '설명가능성'이라는 용어를 실제 공학으로 번역하는 것은 매우 난이도 있는 작업이며 맥락 없이 단일 시스템을 평가하는 것은 불가능하다는 것이 베스털룬 교수의 설명이다. 이에 따라 제트인스펙션은 기술 요소만 분리해 분석하지 않고 사회적 맥락과 윤리적 긴장을 포함한 '전체 상황'을 기준으로 AI 프로젝트를 점검한다. 의도, 설계, 사용 환경을 함께 묻는 다학제 평가 체계를 통해 규제 기준 이상의 평가 가능성을 확보하는 것이 목적이다. 그는 다수의 사례를 들어 제트인스펙션이 실제로 어떻게 작동했는지를 설명했다. 코로나19 시기 흉부 엑스레이를 기반으로 감염 여부를 추론한다는 한 AI 모델이 논문으로는 주목받았지만 검증을 해보니 단순 병변 유무만 판별하는 수준이었다. 그는 이를 기술과 실제 운용 사이 괴리가 명확했던 대표 사례로 소개했다. 또 다른 사례는 피부암(흑색종) 판별 앱이었다. 초기엔 일반 대중을 사용 대상으로 설계됐지만 평가팀은 공공의료 체계가 감당할 수 없는 오진, 과잉진료 문제를 우려해 전문가 중심 사용 설계로 방향을 수정했다. 이날 발표에서 베스털룬 교수는 "우리는 AI의 '정답'을 정하는 것이 아니라 어떤 질문을 던져야 하는지를 규정하는 데 집중한다"며 "AI는 결국 인간의 반영으로, 모든 기술적 의사결정은 인간의 판단과 가치관을 되비추는 거울이기에 신뢰할 수 있는 AI란 윤리를 이해하려는 지속적 시도 속에서만 존재할 수 있다"고 강조했다.

2025.05.20 14:23조이환

국내 첫 'AI안전윤리 인증제도' 시행…'챗GPT' 기반 챗봇, 1호 인증받아

국내에서 민간 주도의 인공지능(AI) 안전윤리 인증제도가 처음으로 도입됐다. AI 기술 상용화에 속도가 붙는 가운데 기업의 윤리적 리스크를 줄이고 소비자 신뢰를 확보하기 위한 시도다. 국제인공지능윤리협회(IAAE)는 'AI안전윤리 인증제도'를 시행하고 첫 인증 대상으로 '고도원의 아침편지 AI챗봇'을 선정했다고 18일 밝혔다. 이 챗봇은 오픈AI의 '챗GPTs' 기반으로 개발돼 민간 인증 1호 사례로 기록됐다. 인증제도는 인공지능의 안전성·윤리성·신뢰성을 종합적으로 검증하는 구조다. 국제 규격에 따라 개발 전 과정에서 AI 시스템이 사회적 기준을 충족하는지 평가한다. 심사는 협회 산하 'AI안전윤리인증센터'에서 맡는다. 심사원들은 국제표준화기구(ISO)의 'ISO 42001' 기준에 따라 선임심사원 자격을 갖춘 전문가들로 구성돼 있다. 검증 항목은 개인정보 보호와 알고리즘 편향 방지, 투명성, 시스템 안정성 등 윤리적 요소 전반이다. AI 시스템의 설계부터 운영까지 전주기를 대상으로 한다. 1호 인증을 받은 '고도원의 아침편지 AI챗봇'은 23년간 운영된 뉴스레터 콘텐츠를 기반으로 개발됐다. 상담과 조언, 일상 대화를 제공하는 'GPTs' 서비스로, 기존 사용자 경험을 AI 기술로 확장한 사례다. 협회는 올해 안에 10곳 이상을 대상으로 시범인증을 추가로 시행하고 연말부터 본인증 절차에 들어간다. 자체 인증 표준도 연내 공개해 기업과 공공기관의 대응을 지원할 계획이다. 전창배 IAAE 이사장은 "AI 기술이 사회적으로 수용 가능한 방식으로 활용되도록 만드는 것이 제도의 핵심"이라며 "소비자와 기업 모두가 안심하고 AI를 신뢰할 수 있는 환경을 조성하는 데 목적이 있다"고 밝혔다.

2025.05.18 15:15조이환

[현장] LG AI연구원, 신뢰·포용성 강화에 '방점'…"모두를 위한 AI로 향한다"

"인공지능(AI)은 단순한 기술이 아니라 모두가 혜택을 누릴 수 있어야 하는 도구입니다. 우리 '엑사원'은 작은 규모로도 탁월한 추론 능력을 보여주며 그 가능성을 증명했습니다. 개발 전 과정에서 윤리적인 AI를 개발해 모두를 품도록 지원하겠습니다." 김유철 LG AI연구원 부문장은 14일 서울 강남구 코엑스에서 열린 '2025 국제인공지능대전' 행사에서 이같이 말했다. 이날 신뢰와 포용성을 위한 전문가 AI의 역할을 주제로 발표에 나선 그는 연구원의 '엑사원'을 비롯한 고성능 추론모델의 사회적 활용과 AI 윤리 거버넌스 구축 방안에 대해 설명했다. 김 부문장이 강조한 발표의 출발점은 'AI의 사회적 확장성'이다. AI가 단순히 텍스트나 이미지 생성에 머무르지 않고 의료, 신약, 소재, 난임 치료 등 실질적 사회문제 해결에 기여해야 한다는 시각이다. 김 부문장은 "AI는 기술 그 자체가 아니라 모든 이가 함께 성장하고 발전할 수 있도록 돕는 수단이어야 한다"며 "우리는 단순히 성능을 높이는 데 그치지 않고 산업 현장에서 유의미한 결과를 만들어내기 위해 포용성과 신뢰를 동시에 추구하고 있다"고 말했다. 이러한 실질적 사회문제 해결을 위한 AI 활용을 위해서는 단순한 생성 능력을 넘어선 고차원적 추론력이 필수적이다. 실제 현장에서 AI가 유의미한 역할을 하기 위해선 상황을 이해하고 판단을 내릴 수 있는 능력이 요구된다. LG는 이 같은 추론 역량에 집중해 실전에서 작동 가능한 전문가 AI 개발에 주력하고 있다. 이러한 기조를 반영하듯 최근 출시된 '엑사원 딥' 모델은 추론 능력 측면에서 뚜렷한 강점을 드러냈다. 김 부문장은 "'엑사원 딥'은 딥시크 'R1'보다 20분의 1 수준의 크기지만 수학 등 주요 벤치마크에서 오히려 더 높은 성능을 보였다"며 "단순 암기가 아닌 가정을 세우고 검증하는 추론 능력이 산업 현장에서 특히 중요하다"고 말했다. 이러한 추론 기술은 의료 현장에서 실제로 적용되고 있다. 대표 사례는 암 환자 대상의 임상시험 사전진단에 활용되는 '엑사원 패스'다. 기존에는 DNA 검사를 통해 특정 유전자 변이를 식별하는 데 평균 한 달가량이 소요됐지만 이 모델은 조직 검사 이미지만으로 변이를 예측해 시간을 대폭 단축했다. 김 부문장은 "말기 암 환자에게 한 달은 생존 여부를 좌우할 수 있는 시간"이라며 "해당 기술은 환자의 생존율을 높이는 데 기여할 것"이라고 설명했다. 이외에도 연구원은 소재 과학, 화장품, 배터리 등 다양한 산업 분야에서 AI 기술을 적용 중이다. 신물질 탐색과 물성 예측 등 반복적인 실험 단계를 대폭 단축해 개발 속도를 수개월에서 하루 단위로 줄이는 데 성공했다. '포용성'만큼이나 강조된 또 다른 축은 '신뢰성'이다. 연구원은 모든 AI 개발 과제에 대해 윤리 영향평가 프로세스를 적용하고 있다. 지난해 기준 총 80여 개 프로젝트에 전 과정을 걸쳐 이 평가지표를 적용했고 데이터 사용 적절성, 사용자 오용 가능성, 사회적 편향 여부 등을 점검했다. 김 부문장은 "단순히 기술이 잘 작동하느냐가 아니라 누구도 소외되지 않도록 설계하기 위해서는 신뢰성이 필수적"이라고 말했다. 데이터 사용에 대한 법적·윤리적 책임도 강화하고 있다. 연구원은 학습 데이터의 무결성을 확보하기 위해 18개 기준의 평가체계를 마련했고 한 법무법인과 함께 전수 조사를 진행해 부적절한 데이터는 모두 제외했다. 더불어 이 과정을 효율화하기 위해 자체 에이전트를 개발해 수십만 건의 데이터셋에 대해 자동 검토를 실시하고 있다. 이로 인해 정확도는 20% 이상 높아지고 처리 속도는 40배 개선됐으며 비용도 0.1% 수준으로 줄었다는 설명이다. 이날 발표에서는 '소버린 AI' 개념도 소개됐다. 국가별 상식과 문화 차이에 대응하는 AI 모델 개발의 필요성을 강조하며 LG가 국제적으로 명망있는 AI 학회인 NAACL에서 소셜 임팩트 어워드를 수상한 사례도 언급됐다. 각국 사용자 특성을 반영해 편향을 줄이고 적합한 결과를 제공하기 위한 기술적 기반 확보가 이뤄지고 있다는 평가다. 김유철 LG AI연구원 부문장은 발표를 마치며 "모델이 얼마나 똑똑한지만 따지는 시대는 끝났다"며 "안전하고 실제 현장에서 작동하며 사회적으로 책임 있는 AI를 만드는 데 집중하겠다"고 말했다.

2025.05.14 17:12조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

[신간] 질문으로 답을 찾는 인공지능 윤리 수업

“왜 인공지능에서 '윤리'가 중요할까?” “인공지능이 내린 결정을 믿을 수 있을까?” “우리가 생각하는 인공지능의 모습은 어떤 것이어야 할까?” 인공지능(AI) 세상이다. AI는 우리 현재와 미래를 어떻게 바꿀까? AI를 칭하는 말이 많이 있다. 대표적인게 인공지능 세계 4대 천왕 중 한명인 앤드류 응 전 스탠포드 교수이자 VC 투자자가 한 말이다. 그는 AI는 새로운 전기라고 했다. 그만큼 필수불가결하다는 말이다. AI에 대한 부정적인 말도 있다. AI가 핵무기만큼 인류를 위협한다는 말이다. 맞다. AI는 새로운 전기만큼 필수불가결하고 또 핵무기 만큼 '위험한 물건'이기에 우리가 잘 다뤄여 한다. 이와 같은 특성을 가진 인공지능이 가져올 미래의 세상을 우리는 어떻게 준비하며, 또 어떤 가치와 철학을 중심으로 삼아야 할까? 이 책은 그 답을 찾기 위한 가이드 역할을 제시한다. 저자는 국내 최고 수준 AI윤리교육 전문가다. 현재 서울교육대학교 윤리교육과 교수로 활동하고 있다. 책에서 저자는 인공지능 시대의 주역으로 성장할 청소년이라면 반드시 알아야 할 인공지능의 윤리적 문제와 가치관을 다룬다. 특히 누구나 공감할 만한 스물한 편의 흥미진진한 에피스드를 제시, 흥미를 돋운다. 이 에피소드에서 저자는 자율주행차 딜레마, 딥페이크, 인공지능과 일자리, 인공지능 책임과 투명성, 창의성과 저작권, 인공지능과 인간의 공존 등 인공지능이 초래하는 다양한 윤리적 문제 와 사회적 영향을 다뤘다. 인공지능 시스템의 저항에도 불구하고 인간처럼 느끼고 경험하기 위해 애쓰는 피노키오, 몸과 뇌를 기계로 대체한 후 자신의 정체성에 대해 고민하는 테세우스, 기계화로 인해 일자리를 잃을 위기에 처하는 네드 같은 '에피소드' 속 인물들의 이야기들을 하나하나 따라가다 보면, 어렵고 복잡하게만 보이던 인공지능 기술 및 윤리 문제에 대해 '나름 대로의 해법'을 찾을 수 있다. 또 각 '에피소드' 뒤에는 '탐구 질문'을 제시, 독자 스스로 생각하고 토론할 수 있는 기회도 제공, 윤리적 판단력과 비판적 사고력을 키우도록 돕는다. 교사와 학생이 교육 현장에서 직접 활용할 수 있도록 구체적이고 실용적인 가이드를 제시하는 것은 물론, 가정에서 부모와 자녀가 함께 인공지능 윤리에 대해 깊은 논의를 진행하도록 돕는 실용적인 자료로도 좋다. 저자인 박형빈 서울교육대학교는 교육학 박사다. 서울교육대학교 교육전문대학원에듀테크전공및인공지능인문융합전공교수이기도 하다. 서울교육대학교신경윤리융합교육연구센터및가치윤리AI허브센터센터장을 맡고 있다. 도덕윤리교육, 인격교육, AI윤리교육, 신경윤리학 등에 관심을 갖고 연구하며 가르치고 있다. 미국UCLA교육학과(DepartmentofEducation)에서 방문 학자로도 있었다. 저자는 이미 여러 책을 냈다. ▲BCI와 AI 윤리(커뮤니케이션북스, 2025) ▲AI윤리와 뇌신경과학 그리고 교육(어문학사, 2024) ▲인공지능윤리와 도덕교육(씨아이알, 2022)을 출간했다. 또 ▲AI 시대 대한민국 교육 변혁(한국학술정보, 2024) ▲도덕교육학: 그 이론과 실제』(한국학술정보, 2021) ▲뇌 신경과학과 도덕교육(울력, 2019, 2020 세종우수학술도서) ▲통일교육학: 그 이론과 실제(한국학술정보, 2020) 등의 글을 썼다. 한언 펴냄/150x210mm 256쪽/2만1000원. 책 차례 프롤로그_ 철학적 좀비? 디지털 좀비? 제1부 우리는 지금 어디에 있으며, 어디를 향해가고 있을까? 에피소드 1. 우리는 지금 어디쯤 왔을까? 에피소드 2. 인공지능에도 윤리가 필요하다고? 에피소드 3. 인공지능과 함께하는 우리의 미래, 어떤 모습이어야 할까? 제2부 인간과 인공지능의 사이에서 에피소드 4. 인간이 된다는 건 어떤 걸까? 에피소드 5. 오늘의 나는 어제의 나와 같은 존재일까? 에피소드 6. 피노키오의 감정은 진짜일까, 흉내 내기에 불과할까? 에피소드 7. 피노키오도 인간처럼 경험하고 배우며 성장할 수 있을까? 에피소드 8. '나'를 복제한 인공지능은 또 다른 '나'가 될 수 있을까? 에피소드 9. 인공지능이 인간과 진짜 가족이 될 수 있을까? 에피소드 10. 인간과 인공지능의 경계는 어디일까? 제3부 인공지능이 드리운 그늘 에피소드 11. 인공지능이 인간의 일자리를 대신하게 된다면? 에피소드 12. 딥페이크 문제를 어떻게 다룰까? 에피소드 13. 인공지능으로 인한 사회적 갈등, 예방 및 해결책은? 에피소드 14. 인공지능이 도덕적으로 판단하고 윤리적으로 행동할 수 있을까? 에피소드 15. 인공지능 로봇의 권리를 보장해야 할까? 제4부 인공지능의 윤리와 책임 에피소드 16. 인공지능이 축구 국가대표팀 감독을 뽑는다면? 에피소드 17. 인공지능끼리의 충돌은 어떻게 해결할까? 에피소드 18. 인공지능 학생 관리 시스템은 또 하나의 판옵티콘이 될까? 에피소드 19. 캡차의 역설, 인공지능이 더 인간답다? 에피소드 20. 인공지능이 '인간 자격증'을 갖는다면? 에피소드 21. 인공지능이 인간의 통제를 벗어날 때 에필로그_ 인공지능 시대, 인간다움을 지키기 위한 윤리적 성찰

2025.05.11 11:15방은주

"AI가 법 집행, 안심할 수 있을까"… '슬기로운 AI생활' 컨퍼런스 출범

국제인공지능윤리협회가 인간과 인공지능(AI) 로봇의 공존을 주제로 한 만남의 장을 출범시켰다. 기술 진화에 따른 사회적·윤리적 대응을 모색하려는 의도다. 국제인공지능윤리협회는 지난달 30일 '슬기로운 AI생활 온라인 컨퍼런스'를 개최했다고 11일 밝혔다. 행사는 커뮤니케이션북스, AI코리아커뮤니티와의 공동 주관 하에 줌(Zoom)을 통해 실시간으로 진행됐다. 시민, 전문가, 학생 누구나 무료로 참여할 수 있는 형태로 열렸다. 이번 컨퍼런스는 '인간을 닮아가는 AI 로봇의 진화와 위협'을 주제로, '커뮤니케이션북스 인공지능 총서' 저자들이 강연자로 나섰다. AI 기술의 현재와 미래, 그리고 인간과의 공존 가능성에 대한 다각도의 논의가 이뤄졌다. 첫 발표를 맡은 정채연 포항공과대학교 교수는 "AI가 윤리를 배운다면 인간은 여전히 특별한가"를 주제로 AI 로봇과 휴머니즘의 관계를 탐색했다. 이어 송진순 동아대학교 교수는 AI와 로봇경찰의 역할을 중심으로 법집행의 변화 가능성을 다뤘다. 김상득 전북대학교 교수는 인공지능의 도덕성 수용 가능성을 철학적으로 분석했고 정대현 이화여자대학교 명예교수는 로봇종과 자연종 인간의 본질 비교를 통해 AI 시대 인간성의 의미를 되짚었다. 강연 이후에는 실시간 채팅과 사전 질문지를 바탕으로 참가자들과 전문가 간 질의응답이 진행됐다. AI 로봇이 초래할 사회 변화, 책임 소재, 규제 방향 등 실질적 쟁점에 대한 활발한 토론이 이어졌다. 협회는 이번 행사를 시작으로 매월 마지막 주 수요일에 정기 컨퍼런스를 열 예정이다. 오는 28일에는 'AI 에이전트의 등장 : 내 디지털 분신과 공존하는 법'을 주제로 두 번째 컨퍼런스가 열린다. 전창배 국제인공지능윤리협회 이사장은 "AI 기술이 급속도로 발전하면서 우리 모두가 AI를 알고 함께 대응해야 하는 집단지성이 더욱 중요해졌다"며 "이번 컨퍼런스를 통해 시민들이 기술뿐 아니라 윤리와 제도 측면까지 함께 고려할 수 있는 기회를 만들고자 한다"고 밝혔다.

2025.05.11 09:48조이환

'AGI의 시대', 2025년 최우수 과학기술도서 출판상 수상

한빛미디어(공동대표 김태헌·전태호)에서 출간한 'AGI의 시대: 인간을 초월한 인공지능, AGI를 논하다'가 제42회 최우수과학기술도서 출판상을 수상했다고 8일 밝혔다. 이번 수상은 인공지능의 미래와 사회 전반에 미치는 영향을 심도 있게 다룬 점에서 높은 평가를 받아 이뤄졌다. AGI의 시대는 한상기 박사가 집필한 인공일반지능(AGI, Artificial General Intelligence)에 관한 교양서다. 단순히 기술적 설명에 그치지 않고 AGI의 사회적 파장, 윤리적 쟁점, 인간성의 의미까지 폭넓게 성찰한 것이 특징이다. 특히 AGI의 도래가 가져올 변화와 이에 대응해야 할 사회적 준비를 체계적으로 정리해 전문가뿐 아니라 일반 독자들에게도 큰 반향을 일으켰다. 저자는 “AGI라는 다소 무거운 주제를 쉽게 풀어내며 깊은 사유와 구조적 분석을 함께 담아낸 작품”이라며 “인공지능 기술을 바라보는 우리의 시각이 갈수록 중요해지는 가운데, AGI의 시대가 사회적 대화를 여는 시작점이 되길 바란다”고 밝혔다. AGI의 시대는 출간 이후 다양한 학술 모임과 기업, 공공기관에서 참고 도서로 활용되고 있으며, 미래 기술 담론을 이끄는 필독서로 자리매김하고 있다.

2025.05.08 17:35백봉삼

수도권매립지공사, 청렴선포…반부패 청렴 실천 의지 다져

환경부 산하 수도권매립지관리공사(대표 송병억)는 8일 공사 홍보관에서 반부패·청렴 실천을 위한 임직원 청렴선포식과 청렴교육 특강을 개최했다. 공정하고 투명한 조직문화 정착을 목표로 공사 임직원과 시민환경감사관이 참석한 가운데 진행된 이날 선포식에서 매립지공사 전 임직원은 윤리헌장을 선언하며 청렴 실천 의지를 다졌다. 매립지공사는 이날 국민권익위원회 청렴연수원 전문강사를 초청해 공직자 행동강령, 청탁금지법, 이해충돌방지법, 공익신고자보호법 등 공직자가 반드시 숙지해야 할 주요 법령에 대한 실무적 특강을 실시해 임직원의 청렴 의식과 법령 이해도를 높였다. 송병억 매립지공사 사장은 “공사가 국민과 공감하고 지역사회와 상생하는 친환경 자원순환 전문기관 역할을 공고히 하기 위해서는 청렴한 조직문화와 윤리경영이 필수적”이라며 “앞으로도 투명하고 신뢰받는 기관으로 나아갈 수 있도록 다각적인 노력을 지속하겠다”고 말했다. 한편, 매립지공사는 지난 4월 윤리헌장을 포함한 임직원 윤리규범을 개정 완료했다. 앞으로도 윤리경영 체계 고도화와 청렴 내재화를 위해 다양한 반부패·청렴 활동을 지속해서 추진할 계획이다.

2025.05.08 14:07주문정

구글, AI 윤리 약속 철회…딥마인드 직원들, 노조 결성 나섰다

구글 딥마인드 영국팀 일부 직원들이 노조 결성을 추진하고 있다. 구글이 인공지능(AI)을 무기 및 감시 목적으로 활용하지 않겠다는 기존 서약을 삭제하면서 윤리적 우려를 제기하는 목소리가 조직화되는 모양새다. 28일 파이낸셜타임스 등 외신에 따르면 딥마인드 런던 본사 직원 약 300명이 최근 노조 결성 절차에 착수한 것으로 확인됐다. 이들은 구글이 AI 원칙에서 군사기술 등을 포함한 '추구하지 않을 기술' 목록을 삭제하고 이스라엘 군과 대규모 클라우드 계약을 체결한 점을 주요 문제로 지목했다. 딥마인드는 영국에 약 2천 명의 직원을 두고 있다. 구글의 이같은 정책 변화에 대해 딥마인드 직원들 사이에서는 불만이 확산된 것으로 전해졌다. 노조 추진과 별개로 최소 5명의 직원이 같은 문제를 이유로 퇴사한 사실도 확인됐다. 구글 측은 이번 상황과 관련해 "직원들과의 건설적이고 열린 대화를 장려한다"고 밝혔다. 다만 AI 윤리 정책 변경의 배경이나 세부적 설명은 내놓지 않았다. 앞서 구글은 지난 2월 초 회사의 원칙 페이지를 개정하면서 "AI 무기화 및 감시 기술 개발을 하지 않겠다"는 서약을 삭제했다. 이 서약은 지난 2018년 미국 국방부의 '메이븐 프로젝트'에 참여했다가 내부 반발로 계약을 철회하면서 구글이 직접 내세운 방침이었다. 당시 구글은 원칙 개정과 관련해 "국가 안보를 지원하는 AI를 만들기 위해 정부 및 조직과 협력해야 한다"며 "국제법과 인권 원칙을 준수하겠다"고 밝혔다. 다만 구체적인 변경 이유나 무기화 가능성에 대한 명확한 방침은 제시하지 않았다. 더불어 회사는 미국 국방부 및 이스라엘 군과 각각 대규모 클라우드 서비스 계약을 체결한 상태다. 파이낸셜타임스는 "딥마인드 팀원들이 '속았다'고 느끼고 있다"며 "최소 5명의 직원이 이러한 문제를 이유로 퇴사했다"고 보도했다.

2025.04.28 13:59조이환

"AI, 스스로 보호하려 들 수 있다"…앤트로픽, '모델 복지' 기준 실험 착수

앤트로픽이 미래 인공지능(AI)이 인간과 유사한 의식을 가질 수 있다는 가능성을 열어두고 관련 연구에 착수했다. AI에 관한 윤리적 논란이 커지는 가운데 이번 시도는 기술 진화가 불러올 도덕적 기준 변화를 체계적으로 탐색하려는 움직임으로 해석된다. 24일 테크크런치 등 외신에 따르면 앤트로픽은 '모델 복지(model welfare)'라는 이름의 연구 프로그램을 공식 발표했다. 이 프로그램은 AI 모델이 고통을 느끼거나 도덕적 고려 대상이 될 가능성에 대비해 과학적 기준을 수립하려는 목적으로 진행된다. 연구는 'AI 복지 연구원'으로 지난해 영입된 카일 피시가 이끌며 앤트로픽의 내부 블로그와 외신 보도를 통해 공개됐다. 현재까지는 특정 모델의 의식 존재 가능성에 대한 명확한 결론이 없지만 앤트로픽은 조심스러운 접근을 강조하며 관련 논의를 주도하겠다는 입장을 보였다. 앤트로픽이 주목하는 핵심 주제는 AI가 실제로 고통이나 스트레스를 느낄 수 있는지의 여부다. 이 회사는 향후 AI의 상태를 감지하고 판단할 수 있는 지표인 '고통 신호' 개념을 정립하려 한다. 또 AI가 인간처럼 윤리적 판단을 내릴 수 있는지와 특정 가치관을 따를 수 있는지 여부도 주요 연구 대상이다. 업계에서는 이번 발표가 AI 윤리와 관련된 기존 논의에 균열을 낼 수 있다는 분석이 제기된다. 현재 대다수 전문가들은 AI가 통계 기반 예측 엔진에 불과하다고 평가한다. AI가 인간처럼 '느끼거나 판단'하는 것은 단지 언어 모델에 감정을 투사하는 인간의 착각이라는 지적이다. 실제로 모델은 자신의 가치관을 형성하거나 변경을 거부할 능력이 없다는 것이 주류 시각이다. 그럼에도 일각에서는 AI가 일종의 가치 시스템을 갖고 있다고 주장하는 목소리도 존재한다. AI 안전 센터(Center for AI Safety)의 연구는 특정 상황에서 AI가 인간보다 스스로의 생존을 우선시하는 경향을 보였다는 결과를 발표한 바 있다. 다만 MIT 연구진은 이와 반대로 AI를 '단순한 흉내쟁이'로 규정하며 AI의 발화를 '허위 조작(confabulation)'으로 평가했다. 이처럼 학계 내부에서도 AI의 윤리적 상태에 대한 해석이 크게 엇갈리고 있다. 앤트로픽의 행보는 단기적 기술 개발보다 장기적인 '도덕적 인프라 구축'에 초점을 맞춘 것으로 보인다. 현재로선 AI가 의식이나 경험을 가졌다고 볼 수 있는 과학적 근거는 희박하지만 앤트로픽은 이러한 주제를 사전에 검토하고 대비해야 한다는 입장이다. 이 회사는 연구 결과에 따라 자사 기준을 유연하게 수정하겠다는 방침도 밝혔다. 카일 피시 앤트로픽 AI 복지 연구 책임자는 "현재 '클로드' 또는 다른 모델이 의식을 가졌을 가능성이 15% 정도 된다고 생각한다"고 밝혔다.

2025.04.25 10:26조이환

오리온그룹, 윤리 경영 10년..."건강한 성장 지속"

오리온그룹이 글로벌 기업으로서 지속적인 성장과 사회적 책임을 이어 나가기 위해 '글로벌 윤리규범'을 선포했다. 오리온은 지난 24일 서울시 강남구 916빌딩에서 윤리경영 10주년 행사를 개최했다고 밝혔다. 이날 행사에는 오리온, 오리온제주용암수, 쇼박스, 리가켐바이오사이언스 등 한국 내 주요 계열사 임직원과 중국, 베트남, 러시아, 인도 등 그룹 전체 임직원 1만여 명이 온·오프라인으로 참여했다. 글로벌 윤리규범은 지난 10년간 이어온 윤리경영을 지역, 언어, 문화가 다른 한국, 중국, 베트남, 러시아, 인도 등의 전 법인 임직원이 공감하고 실천할 수 있는 글로벌 스탠다드 경영방침이다. 글로벌 윤리경영 슬로건으로 '올바른 방식으로 만들어가는 더 나은 삶과 미래(Right Way, Better Life, Better Future)'를 정하고 3대 핵심 실천지침과 10개 항목의 세부 실천지침을 수립했다. 핵심 실천지침은 '올바르게 일하며 최고를 지향한다(Do the Right Thing & Be the Best), 사람들의 삶을 이롭게 한다(Make Life Better), 모든 이해관계자와 함께 성장해 나간다(Move Forward Together)'다. 세부 실천지침은 ▲글로벌 법규 준수 ▲투명과 정직 ▲합리적인 업무처리 ▲이해관계자에 대한 존중 ▲책임감 있는 자세로 정했다. 이해관계자별 실천지침으로 ▲고객가치 창출 ▲사업 파트너와의 동반성장 ▲주주가치 제고 ▲사회·환경에 대한 책임 ▲임직원 중시를 제정했다. 오리온그룹 관계자는 “지난 10년간 '준법'과 '윤리'에 기반한 윤리경영을 추진해오면서 건강한 성장을 이어왔다”며 “글로벌 스탠다드 수준의 윤리규범을 정립하고 그룹의 전 임직원이 실천해 글로벌 기업으로서 지속 가능한 성장을 추구해 갈 것”이라고 말했다.

2025.04.25 09:27김민아

환경공단, 국민 눈높이 맞춘 '청렴·윤리경영 2.0' 선포

환경부 산하 한국환경공단(이사장 임상준)은 18일 공공기관 청렴 수준과 윤리적 책임 등에 대한 국민적 관심과 눈높이에 적극 대응하기 위한 '2025년 청렴·윤리경영 2.0 종합계획'을 수립하고 본격 추진에 나선다. 이번 종합계획은 최근 공공부문에서 발생한 투기·횡령 등의 부패 사례와 반복되는 내부 비위 문제를 계기로 기획된 중장기 전략으로, 국민 신뢰 회복과 청렴 문화의 정착을 목표로 한다. 세부적으로 감사원 등 외부기관의 권고사항과 높아진 국민 기대치를 종합 반영하고 ▲윤리경영 표준모델 ▲공공부문 내부통제 가이드라인 ▲자체 조직문화 진단 결과 등을 참고해 실효성 있는 윤리경영 체계 구축에 초점을 맞췄다. 국고보조금 부정 집행 방지·오피스 빌런 대응 등 최근 조직 내 이슈를 반영한 현장 밀착형 과제가 다수 포함됐다. 환경공단은 또 전체 예산의 약 20%에 해당하는 5천여 억원 규모 12개 국고보조사업 리스크를 선제적으로 관리하기 위해, 관련 전문가로 구성한 '레드팀'을 운영하고, 직원 120여 명의 '블루팀'을 통해 조직 내 불합리한 업무 문화를 매년 발굴해 단계별로 개선해 나갈 계획이다. 반복적 병가 남용·직무태만 등 조직에 부정적인 영향을 미치는 행위를 '오피스 빌런'으로 규정, 감찰 활동을 대폭 강화하고 관련 자가진단표 개발과 직원 사례 공모전을 통해 예방활동에도 힘쓸 예정이다. 환경공단은 이번 종합계획의 실행력을 높이기 위해 기존 관련 위원회를 통합한 '청렴·내부통제위원회'를 출범, 노동이사 등 다양한 구성원이 참여하는 협치 구조를 마련해 전략의 일관성과 실행력을 강화했다. 임상준 한국환경공단 이사장은 “이번 청렴·윤리경영 2.0 종합계획은 단순한 제도 개선을 넘어, 모든 임직원이 청렴을 조직문화로 내재화하는 전환점이 될 것”이라며 “국민 눈높이에 부합하는 윤리기준 실천을 통해 더욱 투명하고 공정한 공공기관으로 도약하겠다”고 말했다.

2025.04.20 21:38주문정

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

2나노에 묶인 삼성 '엑시노스' 로드맵…최적화가 성패 가른다

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.