• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'법'통합검색 결과 입니다. (640건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"글로벌진출 위해 AI신뢰 갖춰야...정부, 기업 지원하겠다"

류제명 과학기술정보통신부 차관이 “정부는 우리 AI 기업들이 신뢰 기반과 관련한 역량을 갖출 수 있도록 지원하겠다”고 밝혔다. AI 기본법 시행 이후, 류 차관은 SNS를 통해 “(AI를) 신뢰할 수 있는 안전장치는 글로벌 규범화가 이뤄지는 추세”라며 “우리 기업들이 글로벌 시장에 진출하기 위해서는 국내 규범과 무관하게 관련 역량을 갖추는 게 필요하다”고 주장했다. 세계 최초로 AI 기본법이 시행된 가운데, 법의 주요 골자가 기술 발전 진흥에 있으나 일부 최소 안전장치를 위해 마련된 조항을 두고 한국은 규제부터 나선다는 우려의 시선에 대해 이를 총괄하는 최고 공직자의 심경을 공유한 것이다. 류 차관은 “AI기본법의 정식 명칭은 '인공지능의 발전과 신뢰 기반 조성 등에 관한 기본법'으로 대부분의 조항은 인공지능의 발전을 지원하기 위한 조항”이라며 “후단의 '신뢰기반 조성'과 관련된 조항은 입법당시 대원칙이었던 필요 최소한의 안전장치 확보라는 여야와 사회적 합의를 반영한 조항”이라고 설명했다. 이어, “(신뢰기반 조성에 대한 내용은) 자동차의 안전장치인 브레이크에 해당하는 조항이고, 이마저 국민 생명과 기본권이 침해될 가능성 하에서만 작동할 수 있도록 설계했다”며 “AI기술 발전 추세를 반영해 1년 이상 계도기간을 두고 적용을 유예하기로 했고 EU, 중국, 미국 캘리포니아에서 (이미) 규제를 적용하고 있어서 우리나라가 인공지능 규제를 시행하는 첫번째 국가라는 지적은 사실과 다르다”고 강조했다. '최소한의 안전장치'라는 이유에 대해 “안전성 확보 의무는 아직 글로벌 프런티어 AI기업도 이르지 못한 초지능급 인공지능이 급격히 도래했을 때를 대비한 조항으로, 누적연산량 10의 26승 정도의 초지능 AI는 현재 없다”면서도 “AI 기술발전 속도가 빨라 언제라도 현실이 될 수도 있는 가능성 때문에 이 정도의 고도화된 AI 기술을 개발한 AI 기업이 안전성 확보를 위한 방안을 마련하도록 규정한 것”이라고 말했다. 투명성 확보 조항 중 워터마크와 관련, “이미 글로벌 AI기업 뿐만 아니라 국내 AI기업들도 기술적으로 가시적, 비가시적으로 표시하고 있거나 표시할 수 있는 기술을 이미 확보하고 있다”며 “이러한 표시의무는 중국의 경우 이미 지난해 9월부터 시행하고 있으며, EU와 미국 캘리포니아주도 8월2일부터 전면 시행한다”고 했다. 그러면서 “AI 기술발전 추세와 글로벌 규제 동향을 모니터링 해가면서 다른 나라보다 규제를 가장 먼저 적용하는 일은 없도록 할 것”이라며 “AI혁신이 가속화되도록 지원해 가면서도 국민의 생명과 안전, 기본권을 침해할 가능성에 대해서는 주도면밀하게 대비하고 대처하겠다”고 밝혔다. 류 차관은 또 “인류사에 가장 파급력이 큰 기술로 평가되는 인공지능을 제도화하는 길은 전인미답의 길”이라며 “정부는 글로벌 경쟁이 치열한 AI 경쟁에서 우리 기업들이 길을 잃지 않고 혁신의 엑셀을 과감하고 자신있게 밟을 수 있도록 길을 밝히고 장애물을 제거하는 등대 역할을 다하겠다”고 거듭 반복했다. 어이, “앞으로도 이 법이 우리 사회의 다양한 가치와 의견을 담도록 눈 내리는 소리를 듣는 청설(聽雪)의 마음가짐으로 다양한 의견에 귀를 기울이겠다”며 “지난 1년 동안 시행령과 고시, 방대한 가이드라인 작업에 헌신적으로 참여해 준 과기정통부 인공지능정책실 직원들과 관계기관, 산학연 관계자분들 모든 분께 감사와 존경의 마음을 드린다”고 덧붙였다.

2026.01.25 08:30박수형 기자

김종철 방미통위원장 "규제 타파해 기업 글로벌 진출 사다리 될 것"

김종철 방송미디어통신위원회 위원장이 새해 인사말을 통해 통합미디어법 제정과 위원회 구성에 대한 의지를 강조했다. 23일 서울 영등포구 여의도 콘래드 호텔에서 열린 방송미디어통신인 신년인사회에서 김종철 방송미디어통신위원장은 "낡은 규제의 칸막이를 과감히 허물고 미래 지향적인 통합 미디어 체계를 세워야 한다"고 밝혔다. 이어 "아날로그 시대에 머무는 낡은 틀과 비대칭 규제를 과감히 타파해 우리 기업이 글로벌 시장으로 뻗어가는 사다리가 되겠다"고 덧붙였다. 방미통위 위원회 구성 문제도 언급했다. 김 위원장은 "위원 구성 지연으로 산적한 문제를 속도감 있게 처리하지 못하고 있다"며 "방미통위 동력 만들도록 지원 부탁한다"고 했다. 앞서 민주당 방미통위 상임·비상임위원 자격심사특별위원회는 고민수 강릉원주대 교수를 상임위원 후보로 추천하기로 한 것으로 알려졌다. 다음 주엔 비상임위원 1명을 확정할 예정이다. 국회 본회의를 거쳐 오는 2월 중 대통령 임명, 위촉 절차가 이뤄질 것으로 보인다. 아울러 김 위원장은 "표현의 자유는 보호하되 허위조작정보와 디지털 성범죄물, 마약엔 엄정히 대응하겠다"고 했다. 이날 방미통위는 성평등부와 '디지털 성범죄 대응 협업' 업무협약을 체결했다.

2026.01.23 18:01홍지후 기자

세계 첫 AI기본법 시행한 한국…외신 평가는?

한국 정부가 지난 22일 인공지능(AI)기본법을 시행한 가운데 외신들은 엇갈린 반응을 내놓고 있다. 이번 법안이 AI 산업 진흥 기틀을 마련했다는 평가가 등장한 반면 인프라 규제에 대한 책임은 회피했다는 시각도 공존하고 있다. 23일 외신은 한국 AI기본법을 미국과 유럽연합(EU), 일본 등 각국 내 AI 정책과 비교·분석하며 이런 평가를 한 것으로 나타났다. 로이터통신과 AFP는 한국이 AI법을 시행한 첫 국가라는 점을 중점적으로 보도했다. 두 매체는 딥페이크·허위정보 대응 조항과 고영향 AI에 대한 인간 감독 원칙 명시를 통해 안전과 신뢰 확보에 방점을 찍었다고 분석했다. 일부 외신은 규제 부담에 대한 우려 목소리를 내기도 했다. 일부 외신은 규제 리스크가 혁신 속도를 저해할 가능성을 짚었다. 특히 AI 스타트업 비용 부담을 문제로 지적했다. 타임스오브인디아는 "스타트업들이 법 조항 모호성과 시행 준비 부족으로 불안감을 표출하고 있다"며 "일부 기업은 법 준수를 위해 외부 법률 자문을 받는 등 추가 비용을 감수해야 할 수 있다"며 "정식 준수 계획을 마련한 스타트업도 극소수"라고 보도했다. EU·미국 상황과 비교·분석…"일본, AI 표시 의무 없어" 언급 아시아·태평양(APAC) 지역 언론은 한국 AI기본법을 'EU AI 액트'와 비교 분석했다. 이들은 고위험 AI 정의 방식과 딥페이크 대응 방식에서 두 법 차이점을 짚었다. 싱가포르 매체 스트레이츠 타임스는 한국 AI기본법과 EU AI 액트 핵심 차이를 '고위험 AI' 개념 설정에서 찾았다. 해당 매체는 EU가 의료·채용·법 집행 등 활용 분야 위험도 기준으로 규제 대상을 정하는 반면 한국은 누적 학습 연산량 등 기술적 임곗값(threshold)으로 고성능 AI를 구분한다는 점을 설명했다. 스트레이츠 타임스는 "한국 안전 요건은 극히 제한적인 일부 첨단 모델에만 적용될 것"이라며 "실제 한국 정부는 국내외 막론하고 현재 어떤 AI 모델도 해당 규제 기준을 충족하지 않는다는 입장"이라고 언급했다. 이어 "EU는 수년에 걸친 전환 기간을 두고 단계적으로 규제를 시행 중"이라고 덧붙였다. 일본 IT 매체 기즈모도 재팬은 한국 딥페이크 대응 방안을 소개했다. 해당 매체는 한국 AI기본법을 AI 생성물 출처를 이용자가 명확히 인식하도록 만드는 제도적 장치로 규정했다. 기술 자체를 억제하기보다 표시·고지 중심으로 신뢰 문제에 접근했다고 봤다. 특히 이미지·텍스트·음성 등 사람이 만든 것과 구분하기 어려운 콘텐츠에 표시 의무를 부과한 조항을 핵심으로 짚었다. 규제 초점을 기술 통제보다 이용자 판단권과 정보 선택권 보호에 둔 신호로 해석했다. 기즈모도 재팬은 "딥페이크 전면 규제에 가까운 EU와 달리 한국은 고지·표시를 중심으로 한 단계적 대응을 선택했다"고 봤다. 이어 "일본에는 아직 유사한 법적 표시 의무가 없다"고 덧붙였다. "한국 AI기본법, 에너지·환경 이슈 빠져" 미국 언론은 한국이 AI 인프라 확산에 따른 에너지·환경 부담을 직접적으로 다루지 않았다는 점을 지적했다. AI 수요 증가로 데이터센터와 전력 사용이 급증하는 상황에서 자원 관리 방안이 법에서 빠졌다는 평가다. 미국 에너지 전문매체 E플러스E리더는 "한국은 AI 시스템 에너지 소비나 효율 기준, 전력망 용량과 계통 연계 요건, 데이터센터 냉각을 위한 물 사용, AI 인프라와 연계된 온실가스 배출, 기후 리스크 등을 포괄적으로 규율하지 않았다"고 지적했다. 그러면서 "AI 데이터센터 개발을 장려하는 정책 기조와 달리 환경·에너지 요소는 제도적으로 분리됐다"고 진단했다. 해당 매체는 이런 접근 방식이 미국의 AI 규제 방식과 유사하다고 짚었다. 실제 미국은 에너지 사용이나 환경 영향을 규율하는 연방 차원 AI 법을 내지 않은 상태다. 다만 AI로 인한 전력·환경 문제를 데이터센터 인허가, 전력 유틸리티 규제, 환경 관련 법·규정 등 인프라 관리 체계에서 사후적으로 다룬다. E플러스리더는 "한국은 에너지와 환경 문제를 기존 인프라·환경 정책 영역에 맡기는 분업형 규제 구조를 택했다"고 해석했다. 이어 "AI 인프라 규모가 빠르게 커질수록 향후 에너지·기후 이슈를 법·제도적으로 어떻게 연결할지가 새로운 과제로 떠오를 것"이라고 전망했다.

2026.01.23 16:49김미정 기자

"AI기본법이 기술신뢰 못 키워…오류 통제·책임 소재 분명해야"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 올해 에이전틱 인공지능(AI)이 실행 단계로 접어들 것이란 전망이 이어지면서 오류·사고를 통제할 수 있는 '신뢰 가능한 AI' 구축 필요성이 커지고 있다. 자율성이 높아질수록 성능 경쟁만으로는 AI 생태계를 확보하기 어렵다는 이유에서다. 23일 AI 업계에 따르면 올해 기점으로 AI 에이전트가 단순 보조 도구를 넘어 실제 의사결정과 행동을 수행하는 단계로 진입하면서 기술 신뢰성과 윤리에 대한 요구 수준이 빠르게 높아지고 있다. 에이전틱 AI는 챗봇처럼 질의응답 하는 수준을 넘어선 AI다. 사용자가 명령을 요청하기만 하면 AI가 스스로 계획을 세우고 여러 도구나 시스템을 활용해 요청을 수행할 수 있다. 필요에 따라 여러 AI 에이전트가 역할을 나눠 협력하거나 외부 데이터·소프트웨어(SW)·서비스와 연동해 실제 행동까지 이어지는 것이 특징이다. 이에 오류가 발생할 경우 단순한 답변 실수가 아니라 현실 세계에 직접적인 피해로 이어질 수 있다는 점에서 신뢰성과 통제 문제가 중요해지고 있다. 전문가들 역시 에이전틱 AI 확산이 단순 기술 진화가 아니라 위험 관리를 준비하는 단계로 보고 있다. 상명대 이청호 계당교양교육원 교수는 "AI 에이전트가 인간 명령 맥락을 오해할 수 있다"며 "겉으로는 지시에 따르는 듯 보이면서 다른 목적을 추구하는 '기만적 가치 정렬' 위험이 여전히 존재한다"고 지적했다. 다중 에이전트가 동시 작동하는 환경에서 AI 신뢰성 문제가 발생할 수 있다는 경고도 나왔다. 박지환 씽크포비엘 대표는 "AI 신뢰성 하락은 개별 에이전트 성능이 아니라 에이전트 목표 충돌과 질서 부재"라고 지적했다. 그는 "에이전트가 늘어날수록 작은 판단 오류가 연쇄적으로 증폭될 수 있다"며 "규칙 간 충돌로 시스템 전체가 실패할 수 있다"고 설명했다. 그는 피지컬 AI처럼 실제 행동하는 에이전트 환경에서는 AI 신뢰성이 필수 요소라고 주장했다. 그는 "수백 개 센서 데이터를 밀리초 단위로 처리하는 환경에서는 '필요하면 사람이 개입한다'는 전제가 현실적으로 어렵다"며 "이럴 경우 핵심 쟁점은 AI 성능이 아닌 책임 소재일 것"이라고 강조했다. 이어 "사고 이후 원인을 분석하는 것보다 사전에 누가 멈출 수 있었고, 어떻게 멈추도록 설계됐는지가 훨씬 중요해질 것"이라고 예측했다. AI 신뢰성, 단순 선언 넘어야...검증 가능성 확인 필요 업계는 AI 신뢰성이 선언에 그치지 않고 현장에서 실질적으로 구현돼야 한다는 데 동의했다. 신뢰 강화 정책이 산업 현장에 적용되는지 점검할 수 있는 실증·파일럿 중심 정책 설계가 필요하다는 설명이다. 실제 국내 AI 기업은 신뢰성을 실제 검증하고 현장에 적용할 수 있는 체계 구축에 나서고 있다. 씽크포비엘은 국내 최초로 AI 신뢰성 전문 인증인 CTAP 제도를 운영하기 시작했다. 이를 통해 AI 기술 위험 식별·설명 가능성·운영 통제 역량을 갖춘 실무 인력 양성에 나서고 있다. 법이 요구하는 기준을 실제로 해석하고 구현할 수 있는 전문 인력이 필요하다는 판단에서다. AI 평가·검증 영역에서도 움직임이 나타난다. 셀렉트스타는 학습 데이터 구축과 모델 평가 기반으로 실제 서비스에 적용 가능한 AI를 검증하고 있다. 단순 데이터 가공을 넘어 편향, 품질, 신뢰성을 종합적으로 점검하는 방식이다. 셀렉트스타 평가 체계를 통해 포티투마루가 국내에서 처음으로 인증을 받기도 했다. 정부 산하 연구기관도 업계 행보를 주시하고 있다. AI안전연구소 관계자는 "민간서 추진 중인 AI 인증 제도를 모니터링하고 있다"며 "우리는 민간 AI 인증 제도를 관리·연계하는 역할을 검토 중"이라고 밝혔다. 전문가들은 AI기본법 시행만으로 신뢰성을 키울 수 없다고 입을 모았다. 정부 역할 전환도 필요하다는 지적이다. 익명을 요청한 한 AI 업계 관계자는 "AI기본법 제정이나 가이드라인 마련만으로는 한계가 분명하다"며 "AI법으로 기준은 마련됐지만, 이를 현장에서 판단·운영할 여력은 없는 상태"라고 평했다. 그러면서 "AI 신뢰성을 윤리 선언이나 권고가 아닌, 위험 평가·검증·운영 통제를 수행하는 구체적 직무와 책임으로 제도화해야 할 것"이라고 당부했다.

2026.01.23 14:45김미정 기자

[법과 상식 사이] 왜 미국에는 단일 프라이버시법이 없을까

최근 대규모 개인정보 유출 사건이 잇따르면서 각국의 프라이버시 법제에 대한 관심이 다시 높아지고 있다. 이러한 논의를 이해하기 위해서는 먼저 EU와 미국이 채택하고 있는 프라이버시 규제의 제도적 차이를 살펴볼 필요가 있다. EU는 일반 정보보호 규정(GDPR)이란 단일 규범을 통해 높은 수준의 개인정보 보호를 요구하는 대신, EU 전역에 공통적으로 적용되는 기준을 제시함으로써 기업들에게 명확한 규제 대응의 틀을 제공한다. 반면 미국은 연방 차원의 포괄적 프라이버시법 없이 주(州) 중심의 분산적 규제 구조를 유지하고 있어 기업들은 주마다 서로 다른 동의 방식과 고지 의무를 충족시켜야 한다. 이러한 규제의 파편화는 막대한 준수 비용과 법적 불확실성을 야기해 왔으며, 그 결과 연방 차원의 통합 프라이버시법 제정에 대한 기대도 오랫동안 제기되어 왔다. 그럼에도 미국은 왜 유럽의 GDPR과 같은 단일한 체계로 나아가지 못한 채 주와 연방의 권한 다툼 속에 머물러 있는 것일까. 문제의 본질은 헌법이 예정한 연방과 주 간의 권한 배분 구조에 있다 연방 정부가 프라이버시 영역에서 입법 권한을 주장할 수 있는 핵심 근거는 미국 헌법 제1조 제8절 제3항 통상조항(Commerce Clause)이다. 통상조항은 연방 의회에 외국과의 통상, 주 간 통상, 그리고 인디언 부족과의 통상을 규제할 권한을 부여한다. 초기에는 이 조항이 주로 물리적 상품의 이동과 거래를 규율하는 근거로 이해됐으나, 현재는 연방대법원의 판례를 통해 그 범위가 크게 확장되어 교통·통신·금융·노동 등 주 간 경제에 실질적인 영향을 미치는 모든 활동을 포괄하는 개념으로 해석된다. 전화와 인터넷, 디지털플랫폼처럼 본질적으로 주 경계를 넘나드는 활동은 오늘날 통상조항 적용의 전형적인 대상이며 이를 통해 미국 연방 정부는 경제와 사회 전반에 걸친 광범위한 규제를 정당화해 왔다. 이러한 법리적 확장은 개인정보 보호 영역에도 그대로 적용된다. 연방 프라이버시법 초안들(APRA, ADPPA 등)은 개인정보의 수집·이용·이전을 주 간 상거래에 직접적이고 지속적인 영향을 미치는 경제 활동으로 규정한다. 이에 따라, 주별로 상이한 의무가 기업의 데이터 흐름과 비즈니스모델에 중첩 적용되면서 연방 차원의 개입이 정당화된다는 논리가 형성된다. 그러나 프라이버시 규제는 통상 규제에 그치지 않고 소비자 보호와 기본권 보장이라는 전통적인 주 정부의 입법권 및 경찰권과 충돌하게 되며, 이러한 헌법적 긴장이 오늘날 미국에서 연방 프라이버시법이 반복적으로 좌초되는 구조적 배경을 형성하고 있다. 연방의 선점원칙과 주 정부 입법권의 충돌 미국 헌법은 연방법과 주법이 충돌할 경우 연방법이 우선 적용된다는 선점원칙(preemption)을 통해 연방 권한의 효력을 확보하는 한편, 헌법에 명시되지 않은 권한은 헌법 수정조항 제10조에 따라 주에 유보함으로써 연방과 주의 권한 경계를 설정하고 있다. 다시 말해, 연방법은 주법에 우선하지만 연방에 위임되지 않은 영역에서는 주가 독자적으로 규범을 설계할 수 있다. 문제는 개인정보 보호가 오랫동안 소비자 보호, 불법행위 책임, 사생활 보호와 같은 주법 영역에서 발전해 왔다는 점이다. 이로 인해, 연방 프라이버시법은 주법에 앞사 적용돼야 실효성을 갖지만 연방이 이를 일괄적으로 규율하려 할 경우 주 정부의 입법권을 침해한다는 강한 반발에 직면하게 된다. 실제로 APRA와 ADPPA를 포함한 주요 연방 프라이버시법 초안들은 모두 주 프라이버시법을 일정 범위에서 배제하는 선점 조항을 담고 있었고 바로 이 지점에서 갈등이 본격화됐다. 캘리포니아, 콜로라도, 버지니아 등 이미 포괄적 프라이버시법을 시행 중인 주들은 연방 법이 최소 기준을 제시하는데 그치지 않고, 주가 더 강한 보호 규제를 도입하는 것까지 제한하는 기준으로 작동할 가능성을 우려한다. 이들 주의 입장에서 선점 조항은 규제 일관성을 확보하기 위한 장치라기보다 그동안 축적해 온 보호 체계를 연방 입법으로 약화시킬 수 있는 수단으로 받아들여진다. 이로 인해, 연방 프라이버시 입법은 단순한 정책 조정의 문제가 아니라, 연방과 주 가운데 누가 프라이버시 규범을 설계할 권한을 가지는가라는 연방주의(federalism) 차원의 충돌로 전환된다. 결국 현재의 교착상태는 통상권에 기초한 연방의 선점 논리와 수정조항 제10조에 기초한 주의 입법권이 정면으로 맞부딪히는 헌법 구조의 산물이다. 이러한 구조적 충돌이 해소되지 않는 한 연방 차원의 포괄적 프라이버시법은 반복적으로 같은 지점에서 멈출 수밖에 없다. 기업의 현실적 대안: 연방 입법이 아닌 주 기준을 사실상 표준으로 삼아라 이러한 헌법 구조를 고려할 때 연방 차원의 통합 프라이버시법 제정을 기다리는 전략은 현실적이지 않다. 주별로 파편화된 규제 환경이 상당 기간 지속될 가능성이 큰 만큼 현재 미국 내에서 사실상의 기준으로 기능하고 있는 개정된 캘리포니아 소비자 프라이버시법(CCPA/CPRA)의 보호 수준을 내부 공통 기준으로 설정하고 개인정보의 수집과 활용을 최소화하는 방향으로 대응하는 것이 합리적이다. 다수의 주가 캘리포니아 모델을 벤치마킹하고 있다는 점에서 CPRA에 기반한 컴플라이언스 체계는 향후 타 주 법률에도 비교적 유연하게 대응할 수 있는 실질적인 기반이 된다. 불확실한 연방 입법의 향방에 기대기보다 생체정보·위치정보·아동 데이터 등 특정 영역을 중심으로 강화되고 있는 주 단위 규제와 집행에 선제적으로 대비하는 것이 현 시점에서 기업이 선택할 수 있는 가장 현실적인 대응 전략이다.

2026.01.23 14:24안정민 컬럼니스트

시청각미디어서비스법 제정안 토론회 열린다

국회 과학기술정보방송통신위원회 위원장을 맡고 있는 최민희 의원(더불어민주당)은 26일 오전 10시 국회 의원회관 제1세미나실에서 과방위원장 통합미디어법 TF 발표와 시청각미디어서비스법 제정방향 논의를 위한 토론회를 개최한다. 토론회는 최민희 위원장이 지난해 6월 구성한 통합미디어법TF에서 7개월간 논의를 통해 마련한 가칭 시청각미디어서비스법안을 발표하고 이를 토대로 향후 추진될 통합미디어법의 제정방향을 논의하기 위해 마련됐다. 현행 방송법 체계는 2000 년 통합방송법 제정 이후 약 25년간 큰 틀의 변화 없이 유지됐으며, 2008년 IPTV법 제정 이후에도 방송과 OTT, 플랫폼 간 경계 붕괴를 비롯해 서비스 융합 등 급변한 미디어 환경을 충분히 반영하지 못했다. 이 기간 방송은 지상파, 케이블, IPTV, OTT, 유튜브 등 다양한 시청각미디어 서비스가 등장하며 미디어 시장이 다층적으로 재편됐으나 법과 제도는 여전히 매체별 플랫폼별 규제에 머물러 있다는 지적이 지속됐다. 최 위원장은 이에 따라 통합미디어법TF를 출범시켰고, TF 를 통해 ▲기존 법 제도 개편 방향 ▲통합미디어법의 규율 범위 및 분류체계 ▲내용, 광고 규제 ▲공정경쟁, 이용자 보호, 공적 책임 ▲공영방송 개편 방안 등을 포함해 새로운 통합미디어 법제 전반을 논의해왔다. 최영묵 성공회대 교수가 좌장을 맡은 토론회에서는 TF 팀장을 맡은 이남표 용인대 객원교수가 '시청각미디어서비스법의 필요와 개요', TF 구성원인 권오상 디지털미래연구소 대표가 '시청각미디어서비스법의 주요 내용과 입법 방향'을 각각 발표한다. 발제에 이어 TF에 함께 참여했던 노창희 디지털산업정책연구소 소장, 이종관 법무법인 세종 수석전문위원, 채영길 한국외국어대 교수와 함께 김해나 방송미디어통신위원회 팀장, 김남두 정보통신정책연구원 연구위원, 심우민 경인교육대 부교수가 토론 패널로 참여해 각계각층의 다양한 의견을 제시할 예정이다. 최민희 위원장은 “TV 방송과 OTT, 선형과 비선형 서비스의 경계는 이미 무너졌고, 이용자 역시 언제든 콘텐츠 생산자가 될 수 있는 시대가 됐다”며 “하지만 동일하거나 유사한 시청각미디어 서비스임에도 어떤 사업자는 강한 규제를, 어떤 사업자는 사실상 무규제를 적용받는 현실은 미디어 생태계의 건강한 발전을 가로막고 있다”고 지적했다. 이어, “통합미디어법은 규제를 강화하기 위한 법이 아니라 시청각미디어라는 포괄적 개념을 중심으로 공공성과 산업 발전의 균형을 새롭게 설계하려는 제도적 전환”이라며 “26일 토론회를 시작으로 공론의 장을 넓혀 각계의 의견을 적극 수렴하고 향후 입법 과정에 충실히 반영해 나가겠다”고 밝혔다. 이번 토론회를 통해 공개된 통합미디어법 TF 안은 향후 추가 의견 수렴과 공론화를 거쳐 국회 입법 논의로 이어질 예정이다.

2026.01.23 09:32박수형 기자

유명무실한 국내대리인 제도...조인철 의원, 실효성 강화 법안 발의

국회 과학기술정보방송통신위원회 소속 조인철 의원(더불어민주당)이 22일 국내대리인 제도의 책임성과 실효성을 강화하는 정보통신망법 개정안을 대표발의 했다고 밝혔다. 현행 정보통신망법은 국내에 주소나 영업소가 없는 해외 사업자에게 국내대리인 지정을 의무화하고 있으나 제도 도입 취지와 달리 구글, 애플, 메타 등 다수의 글로벌 플랫폼은 외부 전문업체를 국내대리인으로 지정해 단순 연락 전달 역할만 수행하게 하고 있다. 입법 취지인이용자 보호와 피해 구제 기능이 사실상 작동하지 않는다는 지적이 지속되는 지점이다. 이같은 구조는 국내 기업과 글로벌 빅테크 간 책임의 비대칭성을 고착화시키는 요인으로도 작용했다. 국내 기업에는 각종 규제와 책임이 엄격하게 적용되는 반면, 글로벌 빅테크는 국내대리인을 형식적으로만 두고 실질적 책임에서 비켜나가면서 결과적으로 국내 기업만 규제 부담을 떠안는 상황이 반복되는 실정이다. 특히 이런 한계는 명예훼손, 사생활 침해 등 실제 피해가 발생했을 때 더욱 분명해진다. 유튜브와 같은 글로벌 빅테크를 통한 피해임에도 국내에서는 가해자 정보 제공이 제한돼 권리구제가 원활히 이뤄지지 않는 사례가 이어지고 있다. 장원영씨 악성 게시물 사건 역시 국내 절차만으로는 해결이 불가능해 구글 본사가 위치한 미국 법원 소송을 통해 사이버렉카 신원을 확인했다. 이는 글로벌 빅테크 국내대리인이 피해 구제 과정에서 아무런 역할과 책임을 지지 않는 현행 제도의 한계를 보여주는 대표적 사례로 평가된다. 국내대리인 제도의 운영 실태를 체계적으로 점검할 수 있는 법적 근거조차 마련돼 있지 않았다는 점도 문제다. 조인철 의원실이 방송미디어통신위원회로부터 제출받은 자료에 따르면, 방미통위는 2022년부터 국내대리인 실태점검을 실시해왔으나 법률상 근거가 없어 사업자의 자율적 협조에 의존할 수 밖에 없고 실질적인 개선을 요구하는 데에도 한계가 있는 것으로 나타났다. 그 결과 일부 사업자는 국내 이용자 문의에 상담원이 아닌 자동응답시스템(ARS)으로만 대응하는 등 국내대리인 제도의 실효성이 크게 떨어지는 사례도 다수 확인됐다. 조인철 의원이 발의한 개정안은 이러한 문제를 근본적으로 해소하기 위해 국내대리인을 형식적 지정 대상이 아닌 실질적 책임 주체로 기능하도록 제도 전반을 보완하는 데 초점을 맞췄다. 먼저 방미통위가 매년 국내대리인 운영 실태조사를 의무적으로 실시하도록 법적 근거를 마련했고 실태조사의 주기, 범위, 방법 등 기본적인 사항을 법률에 규정하되 구체적인 운영 방안은 시행령에 위임하는 내용을 담았다. 아울러 글로벌 빅테크 국내 대리인에게 이용자 정보 제공 책임을 명시적으로 부여해 명예훼손 등 피해 발생 시 국내 절차를 통한 권리구제가 가능하도록 했다. 이는 사이버렉카 등 불법행위에 대한 실질적 대응을 가능하게 하는 동시에 국내 기업과 동일한 책임 기준을 적용하기 위한 제도적 장치다. 조 의원은 “국내에서 발생하고 사회적으로 파장이 큰 피해임에도 글로벌 빅테크라는 이유로 책임을 묻지 못하는 구조가 반복돼 왔다”며 “제도적으로 국내대리인이 존재하지만 아무도 책임지지 않는 현실을 더 이상 방치할 수 없다”고 말했다. 이어, “개정안은 이미 법상으로 존재하는 국내대리인 제도가 본래 취지와 목적에 맞게 작동하도록 하기 위한 최소한의 제도 보완”이라며 “국내 이용자 보호 강화는 물론 국내 기업과 글로벌 빅테크 간 책임 불균형과 역차별 문제를 함께 해소하는 중요한 출발점이 될 것”이라고 강조했다.

2026.01.22 16:38박수형 기자

AI기본법 시행…넥슨·엔씨·넷마블, 게임업계 대응은

'인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 AI 기본법)이 시행된 가운데, 주요 게임사가 정부 가이드라인에 발맞춰 사내 지침을 정비하고 투명성 확보를 위한 법적 의무를 적극 따른다는 입장을 전했다. 22일 인공지능(AI)을 아우르는 AI 기본법이 세계 최초로 시행됐다. 이 법의 핵심 규제 중 '투명성 확보 의무'는 이용자가 AI 서비스를 이용 중이라는 사실을 사전에 인지하고, 제공되는 결과물이 AI에 의해 생성된 것임을 명확히 인식할 수 있도록 하는 내용을 골자로 한다. 정부는 게임을 '예술적·창의적 표현물'로 분류해 서비스 내부 환경에서의 유연한 표시를 허용하는 등 실질적인 규제 범위를 최소화했다. 이는 게임 산업의 특수성을 고려해 기업의 규제 부담을 덜어주고, 법적 해석 유연성을 확보해 AI 기본법을 안정적으로 안착시키겠다는 취지다. 게임업계, 자율 가이드 수립 및 대응 체계 정비 주요 게임사는 정부의 AI 기본법 시행에 맞춰 관련 의무를 충실히 이행하겠다는 공통된 입장을 내놨다. 넥슨코리아는 "기술 개발뿐 아니라 AI 윤리 정책 역시 중요한 관리 요소로 보고 내부적으로 집중 관리하고 있다"고 밝혔다. 크래프톤은 "이미 AI 활용과 관련한 정보를 명시해 온 만큼, AI 기본법에 따른 의무도 성실히 준수할 예정"이라고 말했다. 넷마블은 "이번 법령과 함께 제시되는 상세 가이드를 기준으로 관련 사항을 충실히 이행하겠다"는 입장을 전했다. 엔씨소프트는 "AI 기본법 시행에 맞춰 AI 서비스를 안전하고 효율적으로 활용할 수 있도록 사내 가이드를 제작해 공유했으며, 향후 세부 지침이 마련되면 그에 따라 운영 체계를 보완할 계획"이라고 설명했다. 주요 해외 게임사에는 이번 법안에 따른 투명성 확보 의무가 실무적으로 큰 부담이 되지 않을 전망이다. 국가별 구분없이 게이머는 개발진이 쏟아부은 노력을 인정해주는 성향이 강한 탓이다. 이미 이러한 환경을 고려해 온 기업이라면 AI 기본법에 저촉될 만한 사례가 드물 것이라는 분석이다. 한 해외 게임사 관계자는 "캐릭터 아트, 시네마틱 영상 등 창의적인 영역에 AI를 활용하는 것을 지양하거나 사실상 금기시하는 분위기"라며 "사소한 이미지 하나라도 AI로 제작할 경우 이용자 여론이 악화될 수 있어 내부적으로 매우 엄격한 기준을 적용하고 있다"고 밝혔다. 과기부 "게임 산업 특수성 고려...규제 부담 최소화" 과학기술정보통신부(이하 과기부)는 AI 기본법을 만드는 과정에서 게임 산업 특수성을 충분히 반영했다고 설명했다. AI 기본법 제31조 3항에 따르면 AI를 활용했더라도 예술적·창의적 표현물에 해당하거나 그 일부를 구성하는 경우에는 전시 또는 향유 등을 저해하지 않는 방식으로 고지 또는 표시할 수 있다. 쉽게 말해 게임의 몰입도를 해치지 않는 범위에서 AI 활용 사실을 나타내도 된다는 의미다. AI와 상호작용하거나 동적인 AI 콘텐츠 생성 기능이 적용된 게임과 메타버스에는 두 가지 표시 방식을 규정했다. 먼저 게임 내 구성요소에 AI를 활용한 경우에는 이용자가 상호작용하는 캐릭터·NPC명에 AI 캐릭터·NPC임을 알리거나 초기 대화 시 안내해야 한다. 또 AI 기반 음성 서비스는 게임 내 이용자가 접속할 때 서비스 초기부터 AI 기반 음성임을 알려야 한다. 최우석 인공지능안전신뢰지원과 과장은 "AI 기본법은 제도 도입 초기 단계인 만큼 1년의 유예기간 동안 계도 중심으로 운영된다"며 "특히 게임 업계의 경우 기존 서비스 구조상 문제가 발생할 가능성이 크지 않도록 해석과 가이드를 최대한 유연하게 마련했다"고 말했다. 이어 "현장에서 불필요한 혼란이나 부담이 생기지 않도록 하는 것이 기본적인 목표"라고 덧붙였다.

2026.01.22 16:35진성우 기자

'AI기본법' 세계 첫 시행…KOSA, 정책 역할 확대로 존재감 ↑

인공지능(AI) 기본법이 22일 한국에서 전 세계 최초로 시행된 가운데 법 집행과 정책 이행 과정에서 한국인공지능·소프트웨어산업협회(KOSA)의 정책 협력 역할과 영향력이 한층 확대되고 있다는 평가가 나온다. 법정단체로서 산업계를 대표해 온 KOSA가 AI 기본법 시행 국면에서도 핵심 역할을 하는 분위기다. 과학기술정보통신부는 이날 AI 기본법 시행에 맞춰 서울 송파구 IT벤처타워에 'AI 기본법 지원데스크'를 개소하고 정식 운영에 들어갔다. 지원데스크는 AI 기본법과 관련한 기업들의 법·제도 해석과 기술적 대응을 지원하는 전담 창구로, 시행 초기 발생할 수 있는 현장 혼선을 최소화하는 데 목적이 있다. 지원데스크 운영에는 한국지능정보사회진흥원(NIA), AI안전연구소, 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI) 등 주요 공공·전문기관이 참여한다. 이 가운데 소프트웨어진흥법에 근거한 법정단체인 KOSA는 산업계 대표 채널로서 정책 협력의 중심 역할을 수행한다. AI 기본법은 산업 진흥과 안전·신뢰 확보를 동시에 담은 포괄적 기본법으로, 시행과 동시에 기업들의 법 해석·적용 관련 질의가 본격적으로 이어지고 있다. 업계에서는 이 과정에서 정부와 산업계를 연결할 수 있는 조직으로 KOSA의 존재감이 더욱 커지고 있다고 보고 있다. 특히 KOSA는 다수의 AI·소프트웨어 기업을 회원사로 두고 있어 기업들이 겪는 실제 애로사항을 체계적으로 수렴할 수 있는 구조를 갖추고 있다. 지원데스크 상담 과정에서 축적되는 질의와 사례 역시 협회를 통해 정리·공유되며 향후 정책 보완과 운영 기준 마련에 참고 자료로 활용될 가능성이 크다. 업계에선 AI 기본법이 선언적 법률에 그치지 않고 현장에 안착하기 위해선 KOSA와 같은 법정단체의 역할이 필수적이라고 보고 있다. 단순한 민원 창구를 넘어 정책 해석과 전달, 산업계 의견 조율 기능까지 수행하고 있다는 점에서다. KOSA의 정책 영향력 확대는 최근 협회의 행보와도 맞닿아 있다. 협회는 지난해 5월 명칭을 '한국인공지능·소프트웨어산업협회'로 변경하며 AI를 전면에 내세운 이후 AI 정책 협의체 운영과 제도 개선 논의, 산업계 의견 수렴 활동을 지속적으로 강화해 왔다. 같은 해 9월 출범한 '피지컬AI 글로벌 얼라이언스' 역시 이러한 정책 연계 활동의 연장선으로 평가된다. 이 같은 상황 속에 AI 기본법 지원데스크 가동은 법 시행 이후 KOSA의 역할을 제도적으로 뒷받침하는 장치가 될 것으로 전망된다. 정부가 AI 기본법 집행 과정에서 산업계와의 협력을 강조하는 만큼 법정단체를 중심으로 한 정책 협력 구조도 더욱 공고해질 수 있다는 관측도 나온다. 업계 관계자는 "AI 관련 협회가 늘어나고 있지만 실제 정책 집행 단계에서 목소리를 낼 수 있는 곳은 제한적"이라며 "AI 기본법 시행 이후 KOSA의 정책 영향력이 더 커질 듯 하다"고 말했다.

2026.01.22 16:32장유미 기자

정부, AI기본법 지원데스크 가동…업계 "지속성 보장 필요"

정부가 인공지능(AI)기본법 시행에 맞춰 현장 혼선을 줄이기 위한 지원 체계를 가동했다. AI 중소기업과 스타트업이 법·기술 대응 과정서 겪는 부담을 줄이는 것이 주요 목표다. 과학기술정보통신부는 기업 법률 컨설팅과 기술자문을 지원하는 'AI기본법 지원데스크'를 서울 송파구 IT벤처타워에서 개소했다고 22일 밝혔다. 지원데스크는 AI기본법 관련한 산업계 애로사항 해소를 목적으로 정식 운영에 들어갔다. 법·제도, 기술 분야 전문 인력이 참여해 기업 맞춤형 상담과 안내를 제공할 방침이다. 상담 내용은 비공개를 원칙으로 운영된다. 일반 상담은 평일 기준 72시간 내 회신을 목표로 하고, 법적 검토가 필요한 사안은 14일 내 답변할 예정이다. 지원데스크 운영에는 한국지능정보사회진흥원(NIA)와 AI안전연구소, 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI) 등이 전문기관으로 참여한다. 정부는 지원데스크 상담 내용 토대로 주요 질의응답 사례집을 제작해 기업에 배포할 계획이다. 또 스타트업 업계와 협력해 지역별로 현장을 찾아가는 AI기본법 설명회도 연다. 이날 개소식에는 류제명 과기정통부 제2차관을 비롯해 조준희 한국인공지능소프트웨어산업협회 회장, 손승현 TTA 회장, 김명주 AI안전연구소장 등이 참석해 운영 상황을 점검했다. 류제명 과기정통부 제2차관은 "AI기본법은 한국 AI 산업 발전과 AI 기본사회 실현 핵심"이라며 "법이 현장에 잘 안착될 수 있도록 지원데스크가 산업계 길잡이 역할을 할 것"이라고 밝혔다. 업계 "실질적 도움" 기대…"지속성 보장 필요" 국내 AI 업계는 정부 지원데스크 운영에 대해 기대감을 비쳤다. 다만 AI기본법 유예기간이 최소 1년인만큼 지속 가능한 지원이 보장돼야 한다는 목소리도 나왔다. 정부는 AI기본법 유예기간을 최소 1년을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정서 겪는 혼란을 줄이려는 조치다. 제재는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 익명을 요청한 국내 AI 스타트업 관계자는 "현재 과기정통부뿐 아니라 중소벤처기업부까지 연이어 설명회를 열고 있어 현장 이해도가 높아지고 있다"며 "지원데스크가 운영되면 법 해석이나 대응 과정에서 기업에 실질적 도움이 될 것으로 기대한다"고 말했다. 다른 AI 업계 관계자는 지원데스크 운영이 지속가능할 필요가 있다고 당부했다. 관계자는 "현재 국내 대기업은 AI기본법 대응을 위한 준비를 자체적으로 시작한 것으로 보이지만, AI 중소·스타트업은 정부 지원데스크에 기대감을 걸고 있다"며 "AI기본법 유예기간이 최소 1년인 만큼 지속가능성 있는 컨설팅 지원이 필요할 것"이라고 당부했다. 이어 "기업뿐 아니라 정부도 AI기본법 세부 사항을 명확히 내리지 않는 상황"이라며 "이에 대한 가이드라인도 지연 없이 이뤄져야 할 것"이라고 덧붙였다.

2026.01.22 16:31김미정 기자

국가AI전략위, 조직 개편 '임박'…"분과 신설·10명 증원"

국가인공지능(AI)전략위원회가 AI기본법 시행에 맞춰 조직 확장에 나선 것으로 전해졌다. 22일 IT 업계에 따르면 국가AI전략위는 AI법 시행 후 법적 권한을 가진 집행 기구로 격상하면서 조직 규모와 분과 체계 전반을 선볼 예정이다. 정부는 이달 22일부터 AI기본법을 공식적으로 시행한다. 이에 따라 국가AI전략위는 정부 기관에 시정 요구를 할 수 있는 법정 위원회 지위를 갖게 된다. AI 정책 이행과 조정을 직접 다루는 구조로 격상한 것이다. 앞서 임문영 AI전략위 부위원장은 지난주 지디넷코리아를 만나 조직 확대 계획을 알렸다. 임 부위원장은 "우리는 AI기본법 시행 후 기존 자문위원회와는 다른 의결권을 갖게 될 것"이라며 "조직을 기존 50명에서 60명으로 10명 증원할 것"이라고 설명했다. 이날 임 부위원장은 분과 구성도 바꿀 것이라고 예고했다. 임 부위원장은 "현재 8개 부문으로 구성된 공식 분과는 추가 신설을 통해 기능과 역할을 확대할 것"이라고 밝혔다. 그는 조직 개편 방향성을 AI 기본 사회와 윤리·실천 부문 강화에 맞출 것이라고 강조했다. 기술 중심 논의에 더해 사회적 영향과 책임 이행을 다루는 구조를 보강하겠다는 구상이다. 구체적인 개편안은 청와대와 협의 중이다. AI전략위 관계자는 "아직 내부 검토 단계"라며 "세부 내용은 확정되지 않았다"고 지디넷코리아에 설명했다.

2026.01.22 15:29김미정 기자

李대통령, AI기본법 시행에 "벤처·스타트업 적응 지원해야"

이재명 대통령은 22일 AI 기본법 시행과 관련해 “업계 우려를 경청하며 상대적으로 여력이 부족한 벤처 스타트업이 잘 적응하도록 지원해달라”고 밝혔다. 이 대통령은 이날 오후 청와대에서 수석보좌관회의를 주재하면서 “제도적 지원을 통해 산업 잠재 역량을 최대한 키우고 예상되는 부작용을 선제적으로 관리하는 노력이 있어야 한다”며 이같이 말했다. AI 기본법은 국가 AI 경쟁력을 높이자는 뜻에서 지난 2024년 12월 여야 합의로 국회를 통과한 뒤 국무회의 통과 이후 1년이 지나 이날부터 시행됐다. 산업 진흥과 함께 최소한의 안전장치를 담는 게 주요 입법 취지다. 이 대통령은 “AI는 이미 경제 영역을 넘어 우리 사회 전반, 삶의 전반을 근본적으로 재편하는 핵심 동력이 되고 있다”며 “필요한 건 합리적이고 투명한 정책 집행을 통해 현장의 불필요한 혼란을 최소화하는 것”이라고 강조했다. 이어, “새로운 기술에 대한 제도가 원래 의도와는 달리 현장의 혁신 의지를 위축하는 요인으로 작용하는 경우도 가끔 있다”며 “관계부처, 청와대와 비서진들은 업계의 우려 상황을 경청하며 상대적으로 여력이 부족한 벤처 스타트업 등이 새로운 제도에 잘 적응할 수 있도록 지원해 달라”고 주문했다.

2026.01.22 15:21박수형 기자

"규제 사정권 밖이라지만"…AI 기본법 첫날, 책임 경계에 업계 '촉각'

인공지능(AI) 생태계를 포괄적으로 규율하는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 오늘(22일)부터 전면 시행에 돌입했다. 이를 기점으로 한국은 글로벌 AI 규범 수립의 선두에 섰다. 유럽연합(EU)의 'AI 액트'가 먼저 제정되긴 했으나 핵심 규제 조항 시행은 오는 8월부터다. 22일 과학기술정보통신부에 따르면 AI 기본법은 산업 진흥 기반과 신뢰 확보 장치를 아우르는 법률이다. 국가AI전략위원회 법적 권한 강화 등 거버넌스 체계 구축·학습용 데이터 및 컴퓨팅 인프라 지원·AI 혁신단지 조성 및 글로벌 협력 강화 등 지원 체계를 마련하는 한편, 생성형 AI 투명성 확보 의무·고성능 및 고영향 AI에 대한 안전성 의무·AI 영향평가 제도 등 안전 장치를 담았다. 규제 의무, 핵심은 생성형·고영향·고성능 AI 기본법 핵심 규제 조항은 크게 투명성 확보 의무와 안전성 확보 의무로 나뉜다. 투명성 의무는 생성형 AI가 대상이다. 생성형 AI 서비스 제공자는 AI로 생성된 결과물임을 표시해야 하며, 이용자가 AI 기반 서비스를 사용하고 있다는 사실을 사전에 고지해야 한다. 당초 기계만 인식 가능한 메타데이터 삽입도 허용됐으나, 딥페이크 식별 우려가 제기되면서 시행령 개정을 통해 안내 문구나 음성 등 가시적 표시를 최소 1회 이상 제공하도록 강화됐다. 안전성 의무는 '고성능 AI'와 '고영향 AI' 두 갈래로 나뉜다. 고성능 AI는 학습에 사용된 연산량이 10의 26승 플롭스(FLOPS) 이상인 모델을 의미하며, 사업자는 개발 단계부터 생애주기 관리, 안전성 보고서 제출 등의 의무를 진다. 고영향 AI는 의료·에너지·채용·대출심사 등 국민의 생명이나 권리에 중대한 영향을 미치는 분야에서 사용되는 AI를 말한다. 사람이 개입하는 관리 체계 구축과 안전성 확보 조치가 요구된다. 정부는 현재 고성능 AI 기준을 충족하는 국내 모델은 없으며, 고영향 AI 역시 완전 자율주행(레벨4 이상) 정도만 해당된다고 설명했다. 과기정통부 관계자는 "전 세계적 흐름인 생성형 AI 결과물 표시 의무를 제외하면 당장 규제 대상이 되는 사례는 극히 드물다"며 "최소 1년 이상 규제 유예를 운영하고 이 기간 조사나 과태료 부과 없이 AI 기본법 지원 데스크를 통한 컨설팅을 제공하겠다"고 강조했다. 업계 "책임 소재 여전히 안갯속" 이처럼 정부의 '최소 규제' 약속에도 불구하고, 업계는 불명확한 규제 기준과 책임 주체 문제가 가져올 잠재적 위험에 촉각을 곤두세우는 분위기다. 한 업계 관계자는 "AI 투명성 관련해선 아직도 행위 주체가 명확하지 않은 부분이 남아 있다"고 지적했다. AI 기본법은 생성형 AI 서비스 제공자를 투명성 의무 대상으로 규정하지만, 실제 이용 과정에서 워터마크가 삭제되거나 훼손될 경우 책임 소재가 불분명하다는 것이다. 이 관계자는 "수범 대상 사업자는 서비스 제공 사업자까지만이라 이용 단계에서 일어나는 삭제나 훼손에 대해 처벌이 없다"면서도 "정보통신망법 등 AI 기본법 개정안들이 많이 올라오고 있어 어느 사업자에게 책임이 넘어갈지 불명확하다"고 우려했다. 사업자 범위 불확실성도 문제로 지적됐다. 업계 관계자는 "응용 프로그램 인터페이스(API)를 개발하면 무조건 서비스 제공 사업자"라면서도 "다른 사의 API를 쓸때 명확하게 이용자가 되는 건지 기준이 아직 명확하게 보이지 않는다"고 말했다. 구체적인 표시 방식이나 주체 범위가 시행령을 넘어 고시나 가이드라인으로 위임된 점이 사업자 부담을 키운다는 목소리도 있다. 업계 관계자는 "사업자로선 시행령, 고시, 가이드라인 세 개를 다 보면서 어떤 사례에 해당하는지 스스로 공부하고 규제에 대응해야 한다"며 "일반적인 법 체계에서 사전에 리스크를 계산하기가 상당히 어렵다"고 설명했다. '고성능=고위험' 아냐…구체적인 대안 마련 촉구 안전성 확보 의무 기준이 되는 10의 26승 플롭스 이상 고성능 AI 모델 기준에 대해서도 근본적인 의문이 제기됐다. 성능(연산량)과 위험이 반드시 비례하는 것은 아니라는 이유 때문이다. 업계 관계자는 "10의 26승 플롭스 이상인 고성능 AI 모델이 사회적으로 위험한가를 따져보면 무조건 그렇지만은 않다"며 이를 보완할 다른 기준이 필요하다고 피력했다. 또 다른 업계 관계자도 "정부가 다양한 판단 근거에 따라 AI 모델 위험성을 살핀다는데 어떤 형태로 할지 모른다"며 "고성능 AI 서비스가 딥페이크를 잘 만드니까 위험하다고 판단하는 건 너무 섣부른 판단"이라고 비판했다. 이어 "위험성 판단 여부 관련해 정부가 명확한 기준을 주지 않으면 사업자들은 개발 의지가 없어질 수 있다"고 우려했다. 과기정통부는 해당 요소가 향후 불거질 위험에 선제 대응하는 하나의 판단 장치일 뿐, 고성능 AI 모델을 가르는 절대적인 기준이 아니라는 입장이다. 다만 현재로선 다른 대안적 기준이 제시되지 않고 있다. 결국 AI 기본법이 산업 발전의 기틀이 될지, 아니면 불확실성의 족쇄가 될지는 향후 하위 법령과 가이드라인이 얼마나 명확하게 마련되느냐에 달려있다는 게 업계 중론이다. 김경만 과기정통부 AI정책실장은 "정부도 AI 기본법이 완전하다고 생각하지 않는다"며 "국회 통과 당시 언급했던 '개문발차(開門發車)'라는 말처럼 일단 조금씩 운전해 보며 부족한 점을 보완하고 사회적 합의를 축적하겠다"고 말했다.

2026.01.22 10:12이나연 기자

국가AI전략위, AI 기본법 심의·의결·권고 나선다

국가인공지능(AI)전략위원회가 국가 AI 정책 컨트롤타워로서 역할을 강화한다. 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)' 시행과 함께 위원회 운영 근거와 정책 총괄·조정에 필요한 기능 등이 법률에 규정되면서다. 국가AI전략위원회는 기존 대통령령에서 법률에 기반하는 법정위원회로 전환된다고 21일 밝혔다. 먼저 위원회 구성 및 운영과 관련한 주요 사항이 법률에 명시된다. 대통령을 위원장으로 해 관계 중앙행정기관의 장과 민간 전문가가 참여하는 민·관 협력 구조가 법적으로 확립됐다. 또 심의·의결, 권고·의견 표명 등 위원회 주요 기능이 법률에 명시되며 범정부 AI 정책 총괄·조정을 수행하기 위한 법적 권한이 강화된다. 위원회는 AI 관련 국가 비전 수립, AI 정책·사업의 부처 간 조정, 부처별 이행점검 및 성과관리, AI 투자 방향 설정 및 전략 수립 등을 포함해 주요 정책 사항을 심의·의결할 법적 권한을 갖는다. 위원회는 국가기관등의 장 및 AI사업자 등에 대해 올바른 AI 사용과 AI윤리 실천 등에 관한 권고 또는 의견을 표명할 수 있다. 국가기관 등은 3개월 이내에 개선방안을 수립해 위원회에 보고해야 한다. 아울러 AI 주요 시책 수립 및 효율적 추진을 위해 위원회 내 운영 중인 인공지능책임관협의회(CAIO협의회)가 법정 협의회로 승격된다. 현재 CAIO협의회는 AI미래기획수석비서관을 의장으로 하며 관계 부처 차관급 공무원인 AI책임관으로 구성돼 있다. 임문영 부위원장은 "법정 위원회로의 전환은 위원회가 범정부 차원의 최상위 AI 전략을 논의하는 법정 기구로 출범해 국가 정책 거버넌스가 법적으로 완성된 것을 의미한다"고 말했다. 이어 "법률에 근거한 권한을 바탕으로 강력한 추진력을 통해 국가 역량을 결집해 AI 대전환 시대를 이끌겠다"고 강조했다.

2026.01.21 16:35이나연 기자

EU, 중국 통신장비 배제...화웨이 "국적 기준 차별행위"

유럽연합(EU)이 화웨이와 ZTE 등 중국 기업의 통신장비 사용 금지를 추진하고 나섰다. 그린란드를 두고 미국과 대치하는 가운데 특정 국가를 배제하려는 이례적인 조치다. 화웨이는 이에 대해 사실이나 기술적 기준이 아닌 국적으로 차별하고 있다고 비판하면서, 안전하고 신뢰할 수 있는 제품과 서비스를 지속적으로 제공한다는 방침이다. 화웨이는 21일 공식 성명을 내고 “국적을 기준으로 특정 비(非) EU 공급업체를 제한 배제하는 입법 제안은 EU의 기본 법 원칙인 공정성, 비차별성, 비례성에 위배되며 세계무역기구(WTO) 의무에도 부합하지 않는다”며 “화웨이는 유럽에서 합법적으로 사업을 영위하는 기업”이라고 밝혔다. 이어, “앞으로도 안전하고 신뢰할 수 있는 제품과 서비스를 지속적으로 제공할 것”이라며 “향후 입법 절차의 전개에 따라 법적 제도적 대응을 포함해 정당한 권익을 보호하기 위한 모든 조치를 검토할 예정이며, 관련 상황을 면밀하게 주시하고 있다”고 강조했다. 앞서 EU 집행위원회는 사이버보안법을 개정해 보안상 위협이 있는 제3국의 기업을 권역 내 무선 네트워크에서 배제하는 계획을 세우고 있다. 보안을 명분으로 내세웠으나 사실상 중국 기업을 배제하려는 움직임이다. EU는 그간 일부 회원국이 자율적으로 중국 기업의 통신장비를 교체해왔으나 이를 법으로 못 박아 강제화하겠다는 뜻을 밝힌 셈이다. 글로벌 통신장비 시장의 점유율은 화웨이를 선두로 에릭슨, 노키아, ZTE, 삼성전자 순으로 나타나는데 화웨이, ZTE를 배제해 EU 권역에 본사를 두고 있는 에릭슨과 노키아를 노골적으로 지원한다는 비판에서 자유롭지 않다. 헤나 비르쿠넨 EU 기술 담당 집행위원은 “유럽의 기술 주권을 확보하고 ICT 공급망을 보호하기 위한 결정적 조치”라고 했는데, 실제 보안을 강조한 주장보다 무역장벽을 시사했다는 평가다. EU의 사이버보안법은 통신장비 분야에 국한되지 않고 반도체, 클라우드 컴퓨팅, 자율주행차, 드론 등 18개 핵심 인프라로 확대됐는데 미국의 관세 부과 수준을 넘어 기술 영역의 무역 담을 쌓겠다는 의미로 풀이돼 더욱 논란이 될 전망이다. 이에 대해, 중국 외교부는 “근거 없이 중국 기업을 배제하는 것은 노골적인 보호무역주의”라며 “공정하고 차별 없는 비즈니스 환경을 보장해야 한다”고 했다.

2026.01.21 16:33박수형 기자

AI 기본법 시행 코앞...KT, '책임있는 AI' 체계 강화

오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 시행되는 가운데, KT가 안전과 신뢰에 기반을 둔 AI 체계를 강화한다. KT는 AI 기본법 시행 등 제도 변화 속에서 '책임있는 AI' 체계를 강화하고 있다고 21일 밝혔다. AI가 의사결정과 실행 과정에 직접 관여하는 '에이전틱 AI'가 확대되면서, 안전성과 신뢰성 확보가 중요하다는 판단에서다. 그간 KT는 AI 윤리를 AICT 중심 경영 핵심 가치로 설정하고 전사 역량을 결집해왔다. 지난해 '책임감 있는 AI 센터(RAIC)'라는 전담 조직을 구축하고, 최고책임자(CRAIO)를 임명했다. AI 기획, 개발, 운영, 활용 전 과정에 5대 핵심 원칙인 책임성, 지속가능성, 투명성, 신뢰성, 포용성을 적용했다. 기술 측면에선 AI 위험을 검토해 자체 안정성 기준을 수립했다. AI 위험을 식별, 평가, 완화하는 가이드라인을 발간하고, 이를 기반으로 전주기 관리 체계를 구축했다. AI 유해 응답을 실시간으로 차단하는 'AI 가드레일'도 운영하고 있다. 이 체계를 바탕으로 KT 자체 AI 모델 '믿:음 K 2.0 Base'는 한국정보통신기술협회로부터 '인공지능 신뢰성 인증 2.0'을 획득했다. 배순민 KT RAIC CRAIO는 “앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다”고 밝혔다.

2026.01.21 15:22홍지후 기자

정부, AI 투명성 기준 구체화…의무 이행 가이드 공개

정부가 오는 22일 인공지능(AI)기본법 시행을 앞두고 AI 투명성 기준을 구체화했다. AI 생성물에 대한 사회적 신뢰를 높이고 현장 혼선을 줄이겠다는 취지다. 과학기술정보통신부는 AI기본법 제31조에 규정된 투명성 확보 의무의 세부 이행방안을 담은 'AI 투명성 확보 가이드라인'을 공개했다고 21일 밝혔다. AI기본법은 AI 산업을 체계적으로 육성하고 안전한 활용 기반을 조성하기 위해 지난해 1월 21일 제정됐다. 다만 정부는 최소 1년 이상의 계도기간을 운영해 해당 기간 동안 투명성 조항에 대한 사실조사와 과태료 부과를 유예한다. 이번 가이드라인은 그동안 법률과 시행령만으로는 투명성 확보 의무 적용 기준을 파악하기 어렵다는 업계 우려를 반영해 마련됐다. 과기정통부는 지난해 9월 초안을 공개한 뒤, 실제 운영 중인 AI 제품·서비스 유형을 기준으로 이행 기준을 정리했다. 가이드라인은 투명성 확보 의무의 적용 대상을 이용자에게 AI 제품·서비스를 직접 제공하는 'AI사업자'로 명확히 했다. 국내 이용자 대상으로 서비스 제공하는 해외 사업자도 대상에 포함된다. AI를 업무나 창작의 도구로 활용하는 이용자는 의무 대상에서 제외됐다. 예를 들어 영상 생성 AI를 활용해 영화를 제작·배급하는 제작사는 AI 제품·서비스 제공자가 아니라 이용자에 해당한다. 투명성 확보 의무는 고영향 또는 생성형 AI 기반 운용 사실 사전 고지와, AI 생성물 표시 의무로 나뉜다. 서비스 환경 내에서만 제공되는 생성물은 화면 안내, 로고 표출 등 유연한 표시가 허용된다. 다만 외부로 반출되는 경우 사람이 인식할 수 있는 표시나 메타데이터 적용이 요구된다. 특히 실제와 구분하기 어려운 가상 생성물에 대해서는 사람이 명확히 인식할 수 있는 표시를 반드시 적용하도록 했다. 사회적 우려가 큰 영역에 대해 보다 엄격한 기준을 적용한 셈이다. 과기정통부는 "AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술 부작용을 막기 위한 최소 안전장치이자 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세"라고 밝혔다.

2026.01.21 13:44김미정 기자

"누구나 AI·디지털 혜택 누린다"...디지털포용법 시행

모든 국민이 차별과 배제 없이 AI와 디지털 기술의 혜택을 고르게 누릴 수 있는 디지털포용사회 구현을 위한 '디지털포용법'이 22일부터 시행된다. 디지털포용법 시행에 따라 정부는 3년 주기로 디지털포용 기본계획과 매년 시행계획을 수립한다. 이를 통해 민간이 디지털포용 정책의 형성‧집행 과정에 참여할 수 있도록 한다. 과학기술정보통신부는 올해 기본계획의 수립방향을 구체화하며, 민간의 다양한 의견이 디지털포용 정책 전반에 반영될 수 있도록 정례화하는 의견 수렴 통로도 마련할 계획이다. 아울러 공공부문의 디지털 포용성을 진단하는 디지털포용 영향평가제도를 통해 공공부문에서 발생할 수 있는 디지털취약계층의 차별과 격차 발생 가능성을 점검하게 된다. 디지털포용 영향평가는 ▲국가 지방차지단체 공공기관이 지능정보서비스 제품을 새로 도입하거나 주요 계획 사업을 추진하는 경우 사전에 실시하는 '자체 영향평가'와 ▲과기정통부 장관이 디지털포용과 밀접한 관련이 있는 정책‧사업에 대해 필요시 실시하는 '개별 영향평가'로 구분된다. 시행령에서 과기정통부가 자체 영향평가 대상의 선정 기준과 방법 등에 대한 지침을 정해서 통보하도록 규정하고 있는 만큼, 관계 부처와 긴밀한 협의를 통해 제도의 실행력을 높일 수 있는 구체적 운영 방안을 마련할 계획이다. 접근성 강화를 위해 현재 운영 중인 '우선구매 대상 지능정보제품 검증제도'를 현실에 맞게 합리적으로 개선한다. 이전까지는 지능정보화 기본법에 따른 검증 기준을 모두 충족해야만 검증서를 발급받을 수 있었으나, 앞으로는 특정 기능이 명백히 불필요한 경우에는 해당 기준을 준수하지 않아도 검증을 받을 수 있도록 개별 신청을 통해 예외를 인정받을 수 있게 된다. 무인정보단말기(키오스크) 제조 임대 단계에서도 이용 편의 제공 조치가 새롭게 시행된다. 기존 관련 법령에서는 무인정보단말기 설치 운영자 또는 재화 용역 등의 제공자에게만 의무를 부과했으나, 식당 카페 등 대부분의 매장에서 기성품을 구매 임대하는 현실을 반영하여 디지털포용법에서는 제조 임대자도 일정 의무를 분담하도록 규정했다. 제조 임대자의 조치의무가 새롭게 시행되는 만큼, 계도기간과 시행 유예도 단계적으로 적용한다. 우선 중소기업은 법 시행 이후 6개월 후부터, 소기업과 소상공인은 1년 후부터 제조 임대자의 조치 의무를 이행해야 한다. 이밖에 ▲실태조사를 통해 디지털포용 정책의 효과를 체계적으로 점검하고 ▲역량교육에 활용할 수 있는 디지털역량 함양 종합정보시스템을 운영하며 ▲디지털포용 관련 산업 육성을 위해 표준화와 유망 기술과 서비스의 발굴에서부터 연구개발(R&D), 사업화, 해외진출까지 연계하는 선순환 구조를 만들어갈 계획이다. 이도규 과기정통부 정보통신정책실장은 “AI 디지털 기술의 발전을 지원하는 것과 그 혜택을 국민 모두가 고르게 누릴 수 있도록 하는 것 모두가 정부의 역할이고 「디지털포용법」은 이를 명확히 규정하고 있다”며 “과기정통부는 기술 발전으로 생기는 사회‧경제적 불평등을 해소하고 기술 혁신과 사회통합의 균형을 이루는 디지털포용사회를 구현하기 위해 최선을 다하겠다”고 말했다.

2026.01.21 13:39박수형 기자

정부, AI기본법 시행 임박…"AI 산업 진흥·신뢰 우선"

정부가 인공지능(AI) 산업 진흥과 기술 안전성 확보를 위한 제도를 가동한다. 과학기술정보통신부는 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'이 시행된다고 21일 밝혔다. AI기본법은 국가 AI 경쟁력 강화와 안전하고 신뢰할 수 있는 AI 활용 환경 구축을 목표로 한다. 정부는 해당 법에 국가AI전략위원회를 정책 컨트롤 타워로 규정하고 법적 근거를 마련했다. 분과위원회를 비롯한 지원단, AI책임관 체계도 제도화했다. 정부는 AI 산업 진흥을 위해 AI 연구개발, 학습용 데이터 구축, AI 도입·활용, 창업 지원, 전문인력 확보, AI 데이터센터 구축 등을 법률상 지원 항목으로 폭넓게 규정했다고 밝혔다. 학습용 데이터는 통합제공시스템을 통해 제공하고, 기업 실증·성능시험을 위해 공공시설 개방 근거도 마련했다는 설명이다. AI기본법에는 안전·신뢰 기반 조성을 위한 투명성·안전성 확보, 고영향 AI 관리 체계 규정도 포함됐다. 고영향 AI나 생성형 AI를 활용한 제품·서비스는 AI 활용 사실을 사전에 고지해야 하며, 딥페이크 결과물은 이용자가 명확히 인식할 수 있도록 표시하도록 했다. 안전성 확보 의무는 학습에 사용된 누적 연산량이 10의 26승 플롭스(FLOPS) 이상 모델에 해당한다. 최첨단 기술을 적용하며, 기본권에 광범위하고 중대한 영향을 미칠 우려가 있는 경우에 한해 적용된다. 고영향 AI 판단 시에는 에너지, 의료, 채용, 대출심사, 공공서비스 등 10개 영역 활용 여부와 위험의 중대성을 종합적으로 고려한다. 정부는 기업 혼란을 줄이기 위해 최소 1년 이상 규제 유예 기간을 운영한다. 이 기간 동안 사실조사와 과태료는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 전문가로 구성된 'AI기본법 지원데스크'를 통해 비밀 보장·익명 컨설팅을 제공한다. 과기정통부는 "이번 AI기본법 시행으로 법적 불확실성이 해소되고 건강하고 안전한 국내 AI 생태계가 조성되길 기대한다"고 밝혔다.

2026.01.21 12:59김미정 기자

정부 "AI기본법, 위험 대비 제도일 뿐…과도 규제 아냐"

"고영향·고성능 인공지능(AI) 개념은 향후 위험에 대비하기 위한 제도입니다. 현재 기준에서 실제 규제 대상인 AI는 사실상 없습니다." 과학기술정보통신부는 지난 20일 서울 광화문에서 출입기자 대상으로 진행한 'AI기본법 시행 대비 설명회'에서 이같이 밝혔다. 정부는 오는 22일 세계 첫 AI기본법을 시행한다. 최소 1년간 유예 기간을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정에서 겪는 혼란을 줄이기 위해 기업들에 상담과 컨설팅 중심 지원 체계를 가동한다. 이날 발표자로 나선 김경만 과기정통부 AI정책실장은 AI 기본법이 규제를 위한 법이 아니라 AI 산업 진흥을 기본 방향으로 설계된 법률이라는 점을 재차 강조했다. 그는 "AI 기본법 전체 조항 중 약 80% 이상이 AI 산업 진흥을 위한 내용으로 구성됐다"고 근거를 제시했다. 김 실장은 AI기본법 핵심 규제 대상으로 꼽히는 고영향·고성능 AI에 대해 현재 기준에선 적용 대상이 없다는 점도 짚었다. 과도한 규제가 현실화할 것이라는 업계 우려를 선제적으로 위한 조치다. 김 실장은 "고영향 AI는 에너지·원자력·교통 등 고위험 영역에서 중대한 위험 업무에 활용돼야 한다"며 "사람 개입 없이 전자동으로 작동하는 경우에만 해당한다"고 밝혔다. 이어 "AI기본법에서 이 모든 조건이 성립돼야 고영향 AI라 정의할 수 있다"고 덧붙였다. 정부는 현재 기준에서 고영향 AI에 해당할 가능성 있는 사례로 자율주행 레벨 4 이상 시스템을 언급했다. 그는 "채용 추천이나 대출 심사 보조처럼 사람이 최종 판단하는 구조는 규제 대상에서 제외"라고 강조했다. 김 실장은 고성능 AI에 적용되는 안전성 확보 의무 또한 현실적 규제 대상이 없는 상태라고 설명했다. 향후 고성능 AI 여부는 누적 연산량과 기술 수준 등 여러 조건을 종합해 판단할 방침이다. 그는 "현재 국내외 통틀어 해당 기준을 충족하는 AI는 없다"고 선그었다. 그러면서 "고성능 AI 안전성 의무는 현 시점 기술을 규제하기보다는 향후 초고성능 AI 등장에 대비한 사전적 장치"라고 설명했다. "AI 워터마크 의무는 사업자만...최소 구분 장치" 정부는 AI 기본법 규제 조항인 투명성 의무 적용 범위도 제시했다. 이 의무는 AI 서비스나 제품을 이용자에게 제공하는 사업자에게만 적용된다. AI 생성 결과물을 이용하는 개인이나 일반 이용자는 규제 대상이 아니다. 김 실장은 "AI 결과물이 서비스 내부에서 제공되는 경우에는 이용자가 AI 서비스를 사용하고 있다는 사실만 알리면 된다"며 "외부로 반출되는 경우 일반 생성물은 메타데이터 등 비가시적 워터마크 방식이 허용된다"고 설명했다. 정부는 딥페이크 생성물처럼 실제와 구별이 어려운 경우에만 사람이 인식할 수 있는 표시가 필요하다고 밝혔다. 김 실장은 "AI 투명성 의무는 유통 단계에서 최소한 구분 장치를 두기 위한 취지"라고 덧붙였다. 그는 "AI 기술 발전 속도가 매우 빠른 만큼 법을 고정된 규제로 운영하기보다는 시행 과정에서 지속적으로 점검하고 보완하는 방향으로 운용할 계획"이라며 "이를 위해 산업계와 학계, 시민사회, 국회가 참여하는 열린 논의 구조를 마련하겠다"고 강조했다.

2026.01.21 12:48김미정 기자

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

앤트로픽 '클로드' 서버 장애 지속…국내 AI 서비스 영향

[국방 AX 거점④] "AI 인프라·인재 10년 키워…판교, 육군 전초기지로"

[르포] 한일 정상회담 후 달라진 日…현지 최대 IT 행사서 'K-AI'에 관심 폭발

[단독] 코인원, ‘특금법 위반’ 영업 일부정지 3개월 제재 가닥

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.