• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
MWC26
스테이블코인
인공지능
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 법'통합검색 결과 입니다. (134건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

세계 첫 AI기본법 시행한 한국…외신 평가는?

한국 정부가 지난 22일 인공지능(AI)기본법을 시행한 가운데 외신들은 엇갈린 반응을 내놓고 있다. 이번 법안이 AI 산업 진흥 기틀을 마련했다는 평가가 등장한 반면 인프라 규제에 대한 책임은 회피했다는 시각도 공존하고 있다. 23일 외신은 한국 AI기본법을 미국과 유럽연합(EU), 일본 등 각국 내 AI 정책과 비교·분석하며 이런 평가를 한 것으로 나타났다. 로이터통신과 AFP는 한국이 AI법을 시행한 첫 국가라는 점을 중점적으로 보도했다. 두 매체는 딥페이크·허위정보 대응 조항과 고영향 AI에 대한 인간 감독 원칙 명시를 통해 안전과 신뢰 확보에 방점을 찍었다고 분석했다. 일부 외신은 규제 부담에 대한 우려 목소리를 내기도 했다. 일부 외신은 규제 리스크가 혁신 속도를 저해할 가능성을 짚었다. 특히 AI 스타트업 비용 부담을 문제로 지적했다. 타임스오브인디아는 "스타트업들이 법 조항 모호성과 시행 준비 부족으로 불안감을 표출하고 있다"며 "일부 기업은 법 준수를 위해 외부 법률 자문을 받는 등 추가 비용을 감수해야 할 수 있다"며 "정식 준수 계획을 마련한 스타트업도 극소수"라고 보도했다. EU·미국 상황과 비교·분석…"일본, AI 표시 의무 없어" 언급 아시아·태평양(APAC) 지역 언론은 한국 AI기본법을 'EU AI 액트'와 비교 분석했다. 이들은 고위험 AI 정의 방식과 딥페이크 대응 방식에서 두 법 차이점을 짚었다. 싱가포르 매체 스트레이츠 타임스는 한국 AI기본법과 EU AI 액트 핵심 차이를 '고위험 AI' 개념 설정에서 찾았다. 해당 매체는 EU가 의료·채용·법 집행 등 활용 분야 위험도 기준으로 규제 대상을 정하는 반면 한국은 누적 학습 연산량 등 기술적 임곗값(threshold)으로 고성능 AI를 구분한다는 점을 설명했다. 스트레이츠 타임스는 "한국 안전 요건은 극히 제한적인 일부 첨단 모델에만 적용될 것"이라며 "실제 한국 정부는 국내외 막론하고 현재 어떤 AI 모델도 해당 규제 기준을 충족하지 않는다는 입장"이라고 언급했다. 이어 "EU는 수년에 걸친 전환 기간을 두고 단계적으로 규제를 시행 중"이라고 덧붙였다. 일본 IT 매체 기즈모도 재팬은 한국 딥페이크 대응 방안을 소개했다. 해당 매체는 한국 AI기본법을 AI 생성물 출처를 이용자가 명확히 인식하도록 만드는 제도적 장치로 규정했다. 기술 자체를 억제하기보다 표시·고지 중심으로 신뢰 문제에 접근했다고 봤다. 특히 이미지·텍스트·음성 등 사람이 만든 것과 구분하기 어려운 콘텐츠에 표시 의무를 부과한 조항을 핵심으로 짚었다. 규제 초점을 기술 통제보다 이용자 판단권과 정보 선택권 보호에 둔 신호로 해석했다. 기즈모도 재팬은 "딥페이크 전면 규제에 가까운 EU와 달리 한국은 고지·표시를 중심으로 한 단계적 대응을 선택했다"고 봤다. 이어 "일본에는 아직 유사한 법적 표시 의무가 없다"고 덧붙였다. "한국 AI기본법, 에너지·환경 이슈 빠져" 미국 언론은 한국이 AI 인프라 확산에 따른 에너지·환경 부담을 직접적으로 다루지 않았다는 점을 지적했다. AI 수요 증가로 데이터센터와 전력 사용이 급증하는 상황에서 자원 관리 방안이 법에서 빠졌다는 평가다. 미국 에너지 전문매체 E플러스E리더는 "한국은 AI 시스템 에너지 소비나 효율 기준, 전력망 용량과 계통 연계 요건, 데이터센터 냉각을 위한 물 사용, AI 인프라와 연계된 온실가스 배출, 기후 리스크 등을 포괄적으로 규율하지 않았다"고 지적했다. 그러면서 "AI 데이터센터 개발을 장려하는 정책 기조와 달리 환경·에너지 요소는 제도적으로 분리됐다"고 진단했다. 해당 매체는 이런 접근 방식이 미국의 AI 규제 방식과 유사하다고 짚었다. 실제 미국은 에너지 사용이나 환경 영향을 규율하는 연방 차원 AI 법을 내지 않은 상태다. 다만 AI로 인한 전력·환경 문제를 데이터센터 인허가, 전력 유틸리티 규제, 환경 관련 법·규정 등 인프라 관리 체계에서 사후적으로 다룬다. E플러스리더는 "한국은 에너지와 환경 문제를 기존 인프라·환경 정책 영역에 맡기는 분업형 규제 구조를 택했다"고 해석했다. 이어 "AI 인프라 규모가 빠르게 커질수록 향후 에너지·기후 이슈를 법·제도적으로 어떻게 연결할지가 새로운 과제로 떠오를 것"이라고 전망했다.

2026.01.23 16:49김미정 기자

"AI기본법이 기술신뢰 못 키워…오류 통제·책임 소재 분명해야"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 올해 에이전틱 인공지능(AI)이 실행 단계로 접어들 것이란 전망이 이어지면서 오류·사고를 통제할 수 있는 '신뢰 가능한 AI' 구축 필요성이 커지고 있다. 자율성이 높아질수록 성능 경쟁만으로는 AI 생태계를 확보하기 어렵다는 이유에서다. 23일 AI 업계에 따르면 올해 기점으로 AI 에이전트가 단순 보조 도구를 넘어 실제 의사결정과 행동을 수행하는 단계로 진입하면서 기술 신뢰성과 윤리에 대한 요구 수준이 빠르게 높아지고 있다. 에이전틱 AI는 챗봇처럼 질의응답 하는 수준을 넘어선 AI다. 사용자가 명령을 요청하기만 하면 AI가 스스로 계획을 세우고 여러 도구나 시스템을 활용해 요청을 수행할 수 있다. 필요에 따라 여러 AI 에이전트가 역할을 나눠 협력하거나 외부 데이터·소프트웨어(SW)·서비스와 연동해 실제 행동까지 이어지는 것이 특징이다. 이에 오류가 발생할 경우 단순한 답변 실수가 아니라 현실 세계에 직접적인 피해로 이어질 수 있다는 점에서 신뢰성과 통제 문제가 중요해지고 있다. 전문가들 역시 에이전틱 AI 확산이 단순 기술 진화가 아니라 위험 관리를 준비하는 단계로 보고 있다. 상명대 이청호 계당교양교육원 교수는 "AI 에이전트가 인간 명령 맥락을 오해할 수 있다"며 "겉으로는 지시에 따르는 듯 보이면서 다른 목적을 추구하는 '기만적 가치 정렬' 위험이 여전히 존재한다"고 지적했다. 다중 에이전트가 동시 작동하는 환경에서 AI 신뢰성 문제가 발생할 수 있다는 경고도 나왔다. 박지환 씽크포비엘 대표는 "AI 신뢰성 하락은 개별 에이전트 성능이 아니라 에이전트 목표 충돌과 질서 부재"라고 지적했다. 그는 "에이전트가 늘어날수록 작은 판단 오류가 연쇄적으로 증폭될 수 있다"며 "규칙 간 충돌로 시스템 전체가 실패할 수 있다"고 설명했다. 그는 피지컬 AI처럼 실제 행동하는 에이전트 환경에서는 AI 신뢰성이 필수 요소라고 주장했다. 그는 "수백 개 센서 데이터를 밀리초 단위로 처리하는 환경에서는 '필요하면 사람이 개입한다'는 전제가 현실적으로 어렵다"며 "이럴 경우 핵심 쟁점은 AI 성능이 아닌 책임 소재일 것"이라고 강조했다. 이어 "사고 이후 원인을 분석하는 것보다 사전에 누가 멈출 수 있었고, 어떻게 멈추도록 설계됐는지가 훨씬 중요해질 것"이라고 예측했다. AI 신뢰성, 단순 선언 넘어야...검증 가능성 확인 필요 업계는 AI 신뢰성이 선언에 그치지 않고 현장에서 실질적으로 구현돼야 한다는 데 동의했다. 신뢰 강화 정책이 산업 현장에 적용되는지 점검할 수 있는 실증·파일럿 중심 정책 설계가 필요하다는 설명이다. 실제 국내 AI 기업은 신뢰성을 실제 검증하고 현장에 적용할 수 있는 체계 구축에 나서고 있다. 씽크포비엘은 국내 최초로 AI 신뢰성 전문 인증인 CTAP 제도를 운영하기 시작했다. 이를 통해 AI 기술 위험 식별·설명 가능성·운영 통제 역량을 갖춘 실무 인력 양성에 나서고 있다. 법이 요구하는 기준을 실제로 해석하고 구현할 수 있는 전문 인력이 필요하다는 판단에서다. AI 평가·검증 영역에서도 움직임이 나타난다. 셀렉트스타는 학습 데이터 구축과 모델 평가 기반으로 실제 서비스에 적용 가능한 AI를 검증하고 있다. 단순 데이터 가공을 넘어 편향, 품질, 신뢰성을 종합적으로 점검하는 방식이다. 셀렉트스타 평가 체계를 통해 포티투마루가 국내에서 처음으로 인증을 받기도 했다. 정부 산하 연구기관도 업계 행보를 주시하고 있다. AI안전연구소 관계자는 "민간서 추진 중인 AI 인증 제도를 모니터링하고 있다"며 "우리는 민간 AI 인증 제도를 관리·연계하는 역할을 검토 중"이라고 밝혔다. 전문가들은 AI기본법 시행만으로 신뢰성을 키울 수 없다고 입을 모았다. 정부 역할 전환도 필요하다는 지적이다. 익명을 요청한 한 AI 업계 관계자는 "AI기본법 제정이나 가이드라인 마련만으로는 한계가 분명하다"며 "AI법으로 기준은 마련됐지만, 이를 현장에서 판단·운영할 여력은 없는 상태"라고 평했다. 그러면서 "AI 신뢰성을 윤리 선언이나 권고가 아닌, 위험 평가·검증·운영 통제를 수행하는 구체적 직무와 책임으로 제도화해야 할 것"이라고 당부했다.

2026.01.23 14:45김미정 기자

AI기본법 시행…넥슨·엔씨·넷마블, 게임업계 대응은

'인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 AI 기본법)이 시행된 가운데, 주요 게임사가 정부 가이드라인에 발맞춰 사내 지침을 정비하고 투명성 확보를 위한 법적 의무를 적극 따른다는 입장을 전했다. 22일 인공지능(AI)을 아우르는 AI 기본법이 세계 최초로 시행됐다. 이 법의 핵심 규제 중 '투명성 확보 의무'는 이용자가 AI 서비스를 이용 중이라는 사실을 사전에 인지하고, 제공되는 결과물이 AI에 의해 생성된 것임을 명확히 인식할 수 있도록 하는 내용을 골자로 한다. 정부는 게임을 '예술적·창의적 표현물'로 분류해 서비스 내부 환경에서의 유연한 표시를 허용하는 등 실질적인 규제 범위를 최소화했다. 이는 게임 산업의 특수성을 고려해 기업의 규제 부담을 덜어주고, 법적 해석 유연성을 확보해 AI 기본법을 안정적으로 안착시키겠다는 취지다. 게임업계, 자율 가이드 수립 및 대응 체계 정비 주요 게임사는 정부의 AI 기본법 시행에 맞춰 관련 의무를 충실히 이행하겠다는 공통된 입장을 내놨다. 넥슨코리아는 "기술 개발뿐 아니라 AI 윤리 정책 역시 중요한 관리 요소로 보고 내부적으로 집중 관리하고 있다"고 밝혔다. 크래프톤은 "이미 AI 활용과 관련한 정보를 명시해 온 만큼, AI 기본법에 따른 의무도 성실히 준수할 예정"이라고 말했다. 넷마블은 "이번 법령과 함께 제시되는 상세 가이드를 기준으로 관련 사항을 충실히 이행하겠다"는 입장을 전했다. 엔씨소프트는 "AI 기본법 시행에 맞춰 AI 서비스를 안전하고 효율적으로 활용할 수 있도록 사내 가이드를 제작해 공유했으며, 향후 세부 지침이 마련되면 그에 따라 운영 체계를 보완할 계획"이라고 설명했다. 주요 해외 게임사에는 이번 법안에 따른 투명성 확보 의무가 실무적으로 큰 부담이 되지 않을 전망이다. 국가별 구분없이 게이머는 개발진이 쏟아부은 노력을 인정해주는 성향이 강한 탓이다. 이미 이러한 환경을 고려해 온 기업이라면 AI 기본법에 저촉될 만한 사례가 드물 것이라는 분석이다. 한 해외 게임사 관계자는 "캐릭터 아트, 시네마틱 영상 등 창의적인 영역에 AI를 활용하는 것을 지양하거나 사실상 금기시하는 분위기"라며 "사소한 이미지 하나라도 AI로 제작할 경우 이용자 여론이 악화될 수 있어 내부적으로 매우 엄격한 기준을 적용하고 있다"고 밝혔다. 과기부 "게임 산업 특수성 고려...규제 부담 최소화" 과학기술정보통신부(이하 과기부)는 AI 기본법을 만드는 과정에서 게임 산업 특수성을 충분히 반영했다고 설명했다. AI 기본법 제31조 3항에 따르면 AI를 활용했더라도 예술적·창의적 표현물에 해당하거나 그 일부를 구성하는 경우에는 전시 또는 향유 등을 저해하지 않는 방식으로 고지 또는 표시할 수 있다. 쉽게 말해 게임의 몰입도를 해치지 않는 범위에서 AI 활용 사실을 나타내도 된다는 의미다. AI와 상호작용하거나 동적인 AI 콘텐츠 생성 기능이 적용된 게임과 메타버스에는 두 가지 표시 방식을 규정했다. 먼저 게임 내 구성요소에 AI를 활용한 경우에는 이용자가 상호작용하는 캐릭터·NPC명에 AI 캐릭터·NPC임을 알리거나 초기 대화 시 안내해야 한다. 또 AI 기반 음성 서비스는 게임 내 이용자가 접속할 때 서비스 초기부터 AI 기반 음성임을 알려야 한다. 최우석 인공지능안전신뢰지원과 과장은 "AI 기본법은 제도 도입 초기 단계인 만큼 1년의 유예기간 동안 계도 중심으로 운영된다"며 "특히 게임 업계의 경우 기존 서비스 구조상 문제가 발생할 가능성이 크지 않도록 해석과 가이드를 최대한 유연하게 마련했다"고 말했다. 이어 "현장에서 불필요한 혼란이나 부담이 생기지 않도록 하는 것이 기본적인 목표"라고 덧붙였다.

2026.01.22 16:35진성우 기자

'AI기본법' 세계 첫 시행…KOSA, 정책 역할 확대로 존재감 ↑

인공지능(AI) 기본법이 22일 한국에서 전 세계 최초로 시행된 가운데 법 집행과 정책 이행 과정에서 한국인공지능·소프트웨어산업협회(KOSA)의 정책 협력 역할과 영향력이 한층 확대되고 있다는 평가가 나온다. 법정단체로서 산업계를 대표해 온 KOSA가 AI 기본법 시행 국면에서도 핵심 역할을 하는 분위기다. 과학기술정보통신부는 이날 AI 기본법 시행에 맞춰 서울 송파구 IT벤처타워에 'AI 기본법 지원데스크'를 개소하고 정식 운영에 들어갔다. 지원데스크는 AI 기본법과 관련한 기업들의 법·제도 해석과 기술적 대응을 지원하는 전담 창구로, 시행 초기 발생할 수 있는 현장 혼선을 최소화하는 데 목적이 있다. 지원데스크 운영에는 한국지능정보사회진흥원(NIA), AI안전연구소, 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI) 등 주요 공공·전문기관이 참여한다. 이 가운데 소프트웨어진흥법에 근거한 법정단체인 KOSA는 산업계 대표 채널로서 정책 협력의 중심 역할을 수행한다. AI 기본법은 산업 진흥과 안전·신뢰 확보를 동시에 담은 포괄적 기본법으로, 시행과 동시에 기업들의 법 해석·적용 관련 질의가 본격적으로 이어지고 있다. 업계에서는 이 과정에서 정부와 산업계를 연결할 수 있는 조직으로 KOSA의 존재감이 더욱 커지고 있다고 보고 있다. 특히 KOSA는 다수의 AI·소프트웨어 기업을 회원사로 두고 있어 기업들이 겪는 실제 애로사항을 체계적으로 수렴할 수 있는 구조를 갖추고 있다. 지원데스크 상담 과정에서 축적되는 질의와 사례 역시 협회를 통해 정리·공유되며 향후 정책 보완과 운영 기준 마련에 참고 자료로 활용될 가능성이 크다. 업계에선 AI 기본법이 선언적 법률에 그치지 않고 현장에 안착하기 위해선 KOSA와 같은 법정단체의 역할이 필수적이라고 보고 있다. 단순한 민원 창구를 넘어 정책 해석과 전달, 산업계 의견 조율 기능까지 수행하고 있다는 점에서다. KOSA의 정책 영향력 확대는 최근 협회의 행보와도 맞닿아 있다. 협회는 지난해 5월 명칭을 '한국인공지능·소프트웨어산업협회'로 변경하며 AI를 전면에 내세운 이후 AI 정책 협의체 운영과 제도 개선 논의, 산업계 의견 수렴 활동을 지속적으로 강화해 왔다. 같은 해 9월 출범한 '피지컬AI 글로벌 얼라이언스' 역시 이러한 정책 연계 활동의 연장선으로 평가된다. 이 같은 상황 속에 AI 기본법 지원데스크 가동은 법 시행 이후 KOSA의 역할을 제도적으로 뒷받침하는 장치가 될 것으로 전망된다. 정부가 AI 기본법 집행 과정에서 산업계와의 협력을 강조하는 만큼 법정단체를 중심으로 한 정책 협력 구조도 더욱 공고해질 수 있다는 관측도 나온다. 업계 관계자는 "AI 관련 협회가 늘어나고 있지만 실제 정책 집행 단계에서 목소리를 낼 수 있는 곳은 제한적"이라며 "AI 기본법 시행 이후 KOSA의 정책 영향력이 더 커질 듯 하다"고 말했다.

2026.01.22 16:32장유미 기자

정부, AI기본법 지원데스크 가동…업계 "지속성 보장 필요"

정부가 인공지능(AI)기본법 시행에 맞춰 현장 혼선을 줄이기 위한 지원 체계를 가동했다. AI 중소기업과 스타트업이 법·기술 대응 과정서 겪는 부담을 줄이는 것이 주요 목표다. 과학기술정보통신부는 기업 법률 컨설팅과 기술자문을 지원하는 'AI기본법 지원데스크'를 서울 송파구 IT벤처타워에서 개소했다고 22일 밝혔다. 지원데스크는 AI기본법 관련한 산업계 애로사항 해소를 목적으로 정식 운영에 들어갔다. 법·제도, 기술 분야 전문 인력이 참여해 기업 맞춤형 상담과 안내를 제공할 방침이다. 상담 내용은 비공개를 원칙으로 운영된다. 일반 상담은 평일 기준 72시간 내 회신을 목표로 하고, 법적 검토가 필요한 사안은 14일 내 답변할 예정이다. 지원데스크 운영에는 한국지능정보사회진흥원(NIA)와 AI안전연구소, 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI) 등이 전문기관으로 참여한다. 정부는 지원데스크 상담 내용 토대로 주요 질의응답 사례집을 제작해 기업에 배포할 계획이다. 또 스타트업 업계와 협력해 지역별로 현장을 찾아가는 AI기본법 설명회도 연다. 이날 개소식에는 류제명 과기정통부 제2차관을 비롯해 조준희 한국인공지능소프트웨어산업협회 회장, 손승현 TTA 회장, 김명주 AI안전연구소장 등이 참석해 운영 상황을 점검했다. 류제명 과기정통부 제2차관은 "AI기본법은 한국 AI 산업 발전과 AI 기본사회 실현 핵심"이라며 "법이 현장에 잘 안착될 수 있도록 지원데스크가 산업계 길잡이 역할을 할 것"이라고 밝혔다. 업계 "실질적 도움" 기대…"지속성 보장 필요" 국내 AI 업계는 정부 지원데스크 운영에 대해 기대감을 비쳤다. 다만 AI기본법 유예기간이 최소 1년인만큼 지속 가능한 지원이 보장돼야 한다는 목소리도 나왔다. 정부는 AI기본법 유예기간을 최소 1년을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정서 겪는 혼란을 줄이려는 조치다. 제재는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 익명을 요청한 국내 AI 스타트업 관계자는 "현재 과기정통부뿐 아니라 중소벤처기업부까지 연이어 설명회를 열고 있어 현장 이해도가 높아지고 있다"며 "지원데스크가 운영되면 법 해석이나 대응 과정에서 기업에 실질적 도움이 될 것으로 기대한다"고 말했다. 다른 AI 업계 관계자는 지원데스크 운영이 지속가능할 필요가 있다고 당부했다. 관계자는 "현재 국내 대기업은 AI기본법 대응을 위한 준비를 자체적으로 시작한 것으로 보이지만, AI 중소·스타트업은 정부 지원데스크에 기대감을 걸고 있다"며 "AI기본법 유예기간이 최소 1년인 만큼 지속가능성 있는 컨설팅 지원이 필요할 것"이라고 당부했다. 이어 "기업뿐 아니라 정부도 AI기본법 세부 사항을 명확히 내리지 않는 상황"이라며 "이에 대한 가이드라인도 지연 없이 이뤄져야 할 것"이라고 덧붙였다.

2026.01.22 16:31김미정 기자

국가AI전략위, 조직 개편 '임박'…"분과 신설·10명 증원"

국가인공지능(AI)전략위원회가 AI기본법 시행에 맞춰 조직 확장에 나선 것으로 전해졌다. 22일 IT 업계에 따르면 국가AI전략위는 AI법 시행 후 법적 권한을 가진 집행 기구로 격상하면서 조직 규모와 분과 체계 전반을 선볼 예정이다. 정부는 이달 22일부터 AI기본법을 공식적으로 시행한다. 이에 따라 국가AI전략위는 정부 기관에 시정 요구를 할 수 있는 법정 위원회 지위를 갖게 된다. AI 정책 이행과 조정을 직접 다루는 구조로 격상한 것이다. 앞서 임문영 AI전략위 부위원장은 지난주 지디넷코리아를 만나 조직 확대 계획을 알렸다. 임 부위원장은 "우리는 AI기본법 시행 후 기존 자문위원회와는 다른 의결권을 갖게 될 것"이라며 "조직을 기존 50명에서 60명으로 10명 증원할 것"이라고 설명했다. 이날 임 부위원장은 분과 구성도 바꿀 것이라고 예고했다. 임 부위원장은 "현재 8개 부문으로 구성된 공식 분과는 추가 신설을 통해 기능과 역할을 확대할 것"이라고 밝혔다. 그는 조직 개편 방향성을 AI 기본 사회와 윤리·실천 부문 강화에 맞출 것이라고 강조했다. 기술 중심 논의에 더해 사회적 영향과 책임 이행을 다루는 구조를 보강하겠다는 구상이다. 구체적인 개편안은 청와대와 협의 중이다. AI전략위 관계자는 "아직 내부 검토 단계"라며 "세부 내용은 확정되지 않았다"고 지디넷코리아에 설명했다.

2026.01.22 15:29김미정 기자

李대통령, AI기본법 시행에 "벤처·스타트업 적응 지원해야"

이재명 대통령은 22일 AI 기본법 시행과 관련해 “업계 우려를 경청하며 상대적으로 여력이 부족한 벤처 스타트업이 잘 적응하도록 지원해달라”고 밝혔다. 이 대통령은 이날 오후 청와대에서 수석보좌관회의를 주재하면서 “제도적 지원을 통해 산업 잠재 역량을 최대한 키우고 예상되는 부작용을 선제적으로 관리하는 노력이 있어야 한다”며 이같이 말했다. AI 기본법은 국가 AI 경쟁력을 높이자는 뜻에서 지난 2024년 12월 여야 합의로 국회를 통과한 뒤 국무회의 통과 이후 1년이 지나 이날부터 시행됐다. 산업 진흥과 함께 최소한의 안전장치를 담는 게 주요 입법 취지다. 이 대통령은 “AI는 이미 경제 영역을 넘어 우리 사회 전반, 삶의 전반을 근본적으로 재편하는 핵심 동력이 되고 있다”며 “필요한 건 합리적이고 투명한 정책 집행을 통해 현장의 불필요한 혼란을 최소화하는 것”이라고 강조했다. 이어, “새로운 기술에 대한 제도가 원래 의도와는 달리 현장의 혁신 의지를 위축하는 요인으로 작용하는 경우도 가끔 있다”며 “관계부처, 청와대와 비서진들은 업계의 우려 상황을 경청하며 상대적으로 여력이 부족한 벤처 스타트업 등이 새로운 제도에 잘 적응할 수 있도록 지원해 달라”고 주문했다.

2026.01.22 15:21박수형 기자

"규제 사정권 밖이라지만"…AI 기본법 첫날, 책임 경계에 업계 '촉각'

인공지능(AI) 생태계를 포괄적으로 규율하는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 오늘(22일)부터 전면 시행에 돌입했다. 이를 기점으로 한국은 글로벌 AI 규범 수립의 선두에 섰다. 유럽연합(EU)의 'AI 액트'가 먼저 제정되긴 했으나 핵심 규제 조항 시행은 오는 8월부터다. 22일 과학기술정보통신부에 따르면 AI 기본법은 산업 진흥 기반과 신뢰 확보 장치를 아우르는 법률이다. 국가AI전략위원회 법적 권한 강화 등 거버넌스 체계 구축·학습용 데이터 및 컴퓨팅 인프라 지원·AI 혁신단지 조성 및 글로벌 협력 강화 등 지원 체계를 마련하는 한편, 생성형 AI 투명성 확보 의무·고성능 및 고영향 AI에 대한 안전성 의무·AI 영향평가 제도 등 안전 장치를 담았다. 규제 의무, 핵심은 생성형·고영향·고성능 AI 기본법 핵심 규제 조항은 크게 투명성 확보 의무와 안전성 확보 의무로 나뉜다. 투명성 의무는 생성형 AI가 대상이다. 생성형 AI 서비스 제공자는 AI로 생성된 결과물임을 표시해야 하며, 이용자가 AI 기반 서비스를 사용하고 있다는 사실을 사전에 고지해야 한다. 당초 기계만 인식 가능한 메타데이터 삽입도 허용됐으나, 딥페이크 식별 우려가 제기되면서 시행령 개정을 통해 안내 문구나 음성 등 가시적 표시를 최소 1회 이상 제공하도록 강화됐다. 안전성 의무는 '고성능 AI'와 '고영향 AI' 두 갈래로 나뉜다. 고성능 AI는 학습에 사용된 연산량이 10의 26승 플롭스(FLOPS) 이상인 모델을 의미하며, 사업자는 개발 단계부터 생애주기 관리, 안전성 보고서 제출 등의 의무를 진다. 고영향 AI는 의료·에너지·채용·대출심사 등 국민의 생명이나 권리에 중대한 영향을 미치는 분야에서 사용되는 AI를 말한다. 사람이 개입하는 관리 체계 구축과 안전성 확보 조치가 요구된다. 정부는 현재 고성능 AI 기준을 충족하는 국내 모델은 없으며, 고영향 AI 역시 완전 자율주행(레벨4 이상) 정도만 해당된다고 설명했다. 과기정통부 관계자는 "전 세계적 흐름인 생성형 AI 결과물 표시 의무를 제외하면 당장 규제 대상이 되는 사례는 극히 드물다"며 "최소 1년 이상 규제 유예를 운영하고 이 기간 조사나 과태료 부과 없이 AI 기본법 지원 데스크를 통한 컨설팅을 제공하겠다"고 강조했다. 업계 "책임 소재 여전히 안갯속" 이처럼 정부의 '최소 규제' 약속에도 불구하고, 업계는 불명확한 규제 기준과 책임 주체 문제가 가져올 잠재적 위험에 촉각을 곤두세우는 분위기다. 한 업계 관계자는 "AI 투명성 관련해선 아직도 행위 주체가 명확하지 않은 부분이 남아 있다"고 지적했다. AI 기본법은 생성형 AI 서비스 제공자를 투명성 의무 대상으로 규정하지만, 실제 이용 과정에서 워터마크가 삭제되거나 훼손될 경우 책임 소재가 불분명하다는 것이다. 이 관계자는 "수범 대상 사업자는 서비스 제공 사업자까지만이라 이용 단계에서 일어나는 삭제나 훼손에 대해 처벌이 없다"면서도 "정보통신망법 등 AI 기본법 개정안들이 많이 올라오고 있어 어느 사업자에게 책임이 넘어갈지 불명확하다"고 우려했다. 사업자 범위 불확실성도 문제로 지적됐다. 업계 관계자는 "응용 프로그램 인터페이스(API)를 개발하면 무조건 서비스 제공 사업자"라면서도 "다른 사의 API를 쓸때 명확하게 이용자가 되는 건지 기준이 아직 명확하게 보이지 않는다"고 말했다. 구체적인 표시 방식이나 주체 범위가 시행령을 넘어 고시나 가이드라인으로 위임된 점이 사업자 부담을 키운다는 목소리도 있다. 업계 관계자는 "사업자로선 시행령, 고시, 가이드라인 세 개를 다 보면서 어떤 사례에 해당하는지 스스로 공부하고 규제에 대응해야 한다"며 "일반적인 법 체계에서 사전에 리스크를 계산하기가 상당히 어렵다"고 설명했다. '고성능=고위험' 아냐…구체적인 대안 마련 촉구 안전성 확보 의무 기준이 되는 10의 26승 플롭스 이상 고성능 AI 모델 기준에 대해서도 근본적인 의문이 제기됐다. 성능(연산량)과 위험이 반드시 비례하는 것은 아니라는 이유 때문이다. 업계 관계자는 "10의 26승 플롭스 이상인 고성능 AI 모델이 사회적으로 위험한가를 따져보면 무조건 그렇지만은 않다"며 이를 보완할 다른 기준이 필요하다고 피력했다. 또 다른 업계 관계자도 "정부가 다양한 판단 근거에 따라 AI 모델 위험성을 살핀다는데 어떤 형태로 할지 모른다"며 "고성능 AI 서비스가 딥페이크를 잘 만드니까 위험하다고 판단하는 건 너무 섣부른 판단"이라고 비판했다. 이어 "위험성 판단 여부 관련해 정부가 명확한 기준을 주지 않으면 사업자들은 개발 의지가 없어질 수 있다"고 우려했다. 과기정통부는 해당 요소가 향후 불거질 위험에 선제 대응하는 하나의 판단 장치일 뿐, 고성능 AI 모델을 가르는 절대적인 기준이 아니라는 입장이다. 다만 현재로선 다른 대안적 기준이 제시되지 않고 있다. 결국 AI 기본법이 산업 발전의 기틀이 될지, 아니면 불확실성의 족쇄가 될지는 향후 하위 법령과 가이드라인이 얼마나 명확하게 마련되느냐에 달려있다는 게 업계 중론이다. 김경만 과기정통부 AI정책실장은 "정부도 AI 기본법이 완전하다고 생각하지 않는다"며 "국회 통과 당시 언급했던 '개문발차(開門發車)'라는 말처럼 일단 조금씩 운전해 보며 부족한 점을 보완하고 사회적 합의를 축적하겠다"고 말했다.

2026.01.22 10:12이나연 기자

국가AI전략위, AI 기본법 심의·의결·권고 나선다

국가인공지능(AI)전략위원회가 국가 AI 정책 컨트롤타워로서 역할을 강화한다. 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)' 시행과 함께 위원회 운영 근거와 정책 총괄·조정에 필요한 기능 등이 법률에 규정되면서다. 국가AI전략위원회는 기존 대통령령에서 법률에 기반하는 법정위원회로 전환된다고 21일 밝혔다. 먼저 위원회 구성 및 운영과 관련한 주요 사항이 법률에 명시된다. 대통령을 위원장으로 해 관계 중앙행정기관의 장과 민간 전문가가 참여하는 민·관 협력 구조가 법적으로 확립됐다. 또 심의·의결, 권고·의견 표명 등 위원회 주요 기능이 법률에 명시되며 범정부 AI 정책 총괄·조정을 수행하기 위한 법적 권한이 강화된다. 위원회는 AI 관련 국가 비전 수립, AI 정책·사업의 부처 간 조정, 부처별 이행점검 및 성과관리, AI 투자 방향 설정 및 전략 수립 등을 포함해 주요 정책 사항을 심의·의결할 법적 권한을 갖는다. 위원회는 국가기관등의 장 및 AI사업자 등에 대해 올바른 AI 사용과 AI윤리 실천 등에 관한 권고 또는 의견을 표명할 수 있다. 국가기관 등은 3개월 이내에 개선방안을 수립해 위원회에 보고해야 한다. 아울러 AI 주요 시책 수립 및 효율적 추진을 위해 위원회 내 운영 중인 인공지능책임관협의회(CAIO협의회)가 법정 협의회로 승격된다. 현재 CAIO협의회는 AI미래기획수석비서관을 의장으로 하며 관계 부처 차관급 공무원인 AI책임관으로 구성돼 있다. 임문영 부위원장은 "법정 위원회로의 전환은 위원회가 범정부 차원의 최상위 AI 전략을 논의하는 법정 기구로 출범해 국가 정책 거버넌스가 법적으로 완성된 것을 의미한다"고 말했다. 이어 "법률에 근거한 권한을 바탕으로 강력한 추진력을 통해 국가 역량을 결집해 AI 대전환 시대를 이끌겠다"고 강조했다.

2026.01.21 16:35이나연 기자

AI 기본법 시행 코앞...KT, '책임있는 AI' 체계 강화

오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 시행되는 가운데, KT가 안전과 신뢰에 기반을 둔 AI 체계를 강화한다. KT는 AI 기본법 시행 등 제도 변화 속에서 '책임있는 AI' 체계를 강화하고 있다고 21일 밝혔다. AI가 의사결정과 실행 과정에 직접 관여하는 '에이전틱 AI'가 확대되면서, 안전성과 신뢰성 확보가 중요하다는 판단에서다. 그간 KT는 AI 윤리를 AICT 중심 경영 핵심 가치로 설정하고 전사 역량을 결집해왔다. 지난해 '책임감 있는 AI 센터(RAIC)'라는 전담 조직을 구축하고, 최고책임자(CRAIO)를 임명했다. AI 기획, 개발, 운영, 활용 전 과정에 5대 핵심 원칙인 책임성, 지속가능성, 투명성, 신뢰성, 포용성을 적용했다. 기술 측면에선 AI 위험을 검토해 자체 안정성 기준을 수립했다. AI 위험을 식별, 평가, 완화하는 가이드라인을 발간하고, 이를 기반으로 전주기 관리 체계를 구축했다. AI 유해 응답을 실시간으로 차단하는 'AI 가드레일'도 운영하고 있다. 이 체계를 바탕으로 KT 자체 AI 모델 '믿:음 K 2.0 Base'는 한국정보통신기술협회로부터 '인공지능 신뢰성 인증 2.0'을 획득했다. 배순민 KT RAIC CRAIO는 “앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다”고 밝혔다.

2026.01.21 15:22홍지후 기자

정부, AI 투명성 기준 구체화…의무 이행 가이드 공개

정부가 오는 22일 인공지능(AI)기본법 시행을 앞두고 AI 투명성 기준을 구체화했다. AI 생성물에 대한 사회적 신뢰를 높이고 현장 혼선을 줄이겠다는 취지다. 과학기술정보통신부는 AI기본법 제31조에 규정된 투명성 확보 의무의 세부 이행방안을 담은 'AI 투명성 확보 가이드라인'을 공개했다고 21일 밝혔다. AI기본법은 AI 산업을 체계적으로 육성하고 안전한 활용 기반을 조성하기 위해 지난해 1월 21일 제정됐다. 다만 정부는 최소 1년 이상의 계도기간을 운영해 해당 기간 동안 투명성 조항에 대한 사실조사와 과태료 부과를 유예한다. 이번 가이드라인은 그동안 법률과 시행령만으로는 투명성 확보 의무 적용 기준을 파악하기 어렵다는 업계 우려를 반영해 마련됐다. 과기정통부는 지난해 9월 초안을 공개한 뒤, 실제 운영 중인 AI 제품·서비스 유형을 기준으로 이행 기준을 정리했다. 가이드라인은 투명성 확보 의무의 적용 대상을 이용자에게 AI 제품·서비스를 직접 제공하는 'AI사업자'로 명확히 했다. 국내 이용자 대상으로 서비스 제공하는 해외 사업자도 대상에 포함된다. AI를 업무나 창작의 도구로 활용하는 이용자는 의무 대상에서 제외됐다. 예를 들어 영상 생성 AI를 활용해 영화를 제작·배급하는 제작사는 AI 제품·서비스 제공자가 아니라 이용자에 해당한다. 투명성 확보 의무는 고영향 또는 생성형 AI 기반 운용 사실 사전 고지와, AI 생성물 표시 의무로 나뉜다. 서비스 환경 내에서만 제공되는 생성물은 화면 안내, 로고 표출 등 유연한 표시가 허용된다. 다만 외부로 반출되는 경우 사람이 인식할 수 있는 표시나 메타데이터 적용이 요구된다. 특히 실제와 구분하기 어려운 가상 생성물에 대해서는 사람이 명확히 인식할 수 있는 표시를 반드시 적용하도록 했다. 사회적 우려가 큰 영역에 대해 보다 엄격한 기준을 적용한 셈이다. 과기정통부는 "AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술 부작용을 막기 위한 최소 안전장치이자 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세"라고 밝혔다.

2026.01.21 13:44김미정 기자

정부, AI기본법 시행 임박…"AI 산업 진흥·신뢰 우선"

정부가 인공지능(AI) 산업 진흥과 기술 안전성 확보를 위한 제도를 가동한다. 과학기술정보통신부는 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'이 시행된다고 21일 밝혔다. AI기본법은 국가 AI 경쟁력 강화와 안전하고 신뢰할 수 있는 AI 활용 환경 구축을 목표로 한다. 정부는 해당 법에 국가AI전략위원회를 정책 컨트롤 타워로 규정하고 법적 근거를 마련했다. 분과위원회를 비롯한 지원단, AI책임관 체계도 제도화했다. 정부는 AI 산업 진흥을 위해 AI 연구개발, 학습용 데이터 구축, AI 도입·활용, 창업 지원, 전문인력 확보, AI 데이터센터 구축 등을 법률상 지원 항목으로 폭넓게 규정했다고 밝혔다. 학습용 데이터는 통합제공시스템을 통해 제공하고, 기업 실증·성능시험을 위해 공공시설 개방 근거도 마련했다는 설명이다. AI기본법에는 안전·신뢰 기반 조성을 위한 투명성·안전성 확보, 고영향 AI 관리 체계 규정도 포함됐다. 고영향 AI나 생성형 AI를 활용한 제품·서비스는 AI 활용 사실을 사전에 고지해야 하며, 딥페이크 결과물은 이용자가 명확히 인식할 수 있도록 표시하도록 했다. 안전성 확보 의무는 학습에 사용된 누적 연산량이 10의 26승 플롭스(FLOPS) 이상 모델에 해당한다. 최첨단 기술을 적용하며, 기본권에 광범위하고 중대한 영향을 미칠 우려가 있는 경우에 한해 적용된다. 고영향 AI 판단 시에는 에너지, 의료, 채용, 대출심사, 공공서비스 등 10개 영역 활용 여부와 위험의 중대성을 종합적으로 고려한다. 정부는 기업 혼란을 줄이기 위해 최소 1년 이상 규제 유예 기간을 운영한다. 이 기간 동안 사실조사와 과태료는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 전문가로 구성된 'AI기본법 지원데스크'를 통해 비밀 보장·익명 컨설팅을 제공한다. 과기정통부는 "이번 AI기본법 시행으로 법적 불확실성이 해소되고 건강하고 안전한 국내 AI 생태계가 조성되길 기대한다"고 밝혔다.

2026.01.21 12:59김미정 기자

정부 "AI기본법, 위험 대비 제도일 뿐…과도 규제 아냐"

"고영향·고성능 인공지능(AI) 개념은 향후 위험에 대비하기 위한 제도입니다. 현재 기준에서 실제 규제 대상인 AI는 사실상 없습니다." 과학기술정보통신부는 지난 20일 서울 광화문에서 출입기자 대상으로 진행한 'AI기본법 시행 대비 설명회'에서 이같이 밝혔다. 정부는 오는 22일 세계 첫 AI기본법을 시행한다. 최소 1년간 유예 기간을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정에서 겪는 혼란을 줄이기 위해 기업들에 상담과 컨설팅 중심 지원 체계를 가동한다. 이날 발표자로 나선 김경만 과기정통부 AI정책실장은 AI 기본법이 규제를 위한 법이 아니라 AI 산업 진흥을 기본 방향으로 설계된 법률이라는 점을 재차 강조했다. 그는 "AI 기본법 전체 조항 중 약 80% 이상이 AI 산업 진흥을 위한 내용으로 구성됐다"고 근거를 제시했다. 김 실장은 AI기본법 핵심 규제 대상으로 꼽히는 고영향·고성능 AI에 대해 현재 기준에선 적용 대상이 없다는 점도 짚었다. 과도한 규제가 현실화할 것이라는 업계 우려를 선제적으로 위한 조치다. 김 실장은 "고영향 AI는 에너지·원자력·교통 등 고위험 영역에서 중대한 위험 업무에 활용돼야 한다"며 "사람 개입 없이 전자동으로 작동하는 경우에만 해당한다"고 밝혔다. 이어 "AI기본법에서 이 모든 조건이 성립돼야 고영향 AI라 정의할 수 있다"고 덧붙였다. 정부는 현재 기준에서 고영향 AI에 해당할 가능성 있는 사례로 자율주행 레벨 4 이상 시스템을 언급했다. 그는 "채용 추천이나 대출 심사 보조처럼 사람이 최종 판단하는 구조는 규제 대상에서 제외"라고 강조했다. 김 실장은 고성능 AI에 적용되는 안전성 확보 의무 또한 현실적 규제 대상이 없는 상태라고 설명했다. 향후 고성능 AI 여부는 누적 연산량과 기술 수준 등 여러 조건을 종합해 판단할 방침이다. 그는 "현재 국내외 통틀어 해당 기준을 충족하는 AI는 없다"고 선그었다. 그러면서 "고성능 AI 안전성 의무는 현 시점 기술을 규제하기보다는 향후 초고성능 AI 등장에 대비한 사전적 장치"라고 설명했다. "AI 워터마크 의무는 사업자만...최소 구분 장치" 정부는 AI 기본법 규제 조항인 투명성 의무 적용 범위도 제시했다. 이 의무는 AI 서비스나 제품을 이용자에게 제공하는 사업자에게만 적용된다. AI 생성 결과물을 이용하는 개인이나 일반 이용자는 규제 대상이 아니다. 김 실장은 "AI 결과물이 서비스 내부에서 제공되는 경우에는 이용자가 AI 서비스를 사용하고 있다는 사실만 알리면 된다"며 "외부로 반출되는 경우 일반 생성물은 메타데이터 등 비가시적 워터마크 방식이 허용된다"고 설명했다. 정부는 딥페이크 생성물처럼 실제와 구별이 어려운 경우에만 사람이 인식할 수 있는 표시가 필요하다고 밝혔다. 김 실장은 "AI 투명성 의무는 유통 단계에서 최소한 구분 장치를 두기 위한 취지"라고 덧붙였다. 그는 "AI 기술 발전 속도가 매우 빠른 만큼 법을 고정된 규제로 운영하기보다는 시행 과정에서 지속적으로 점검하고 보완하는 방향으로 운용할 계획"이라며 "이를 위해 산업계와 학계, 시민사회, 국회가 참여하는 열린 논의 구조를 마련하겠다"고 강조했다.

2026.01.21 12:48김미정 기자

'AI 이용자보호' 법 공백 해소...방미통위 안내서 발간

현행 통신 관계 법령을 인공지능(AI) 서비스에 적용해 해석 내용을 사업자들에게 제시해 주기 위한 법령안내서가 처음 발간됐다. 방송미디어통신위원회는 20일 인공지능 기술 발전에 따라 발생하는 법적 불확실성을 해소하기 위해 통신 관계 법령을 분석한 '인공지능 서비스 사업자를 위한 이용자보호 관련 통신관계 법령안내서'를 발표했다. 전기통신사업법, 정보통신망법에서 이용자보호 관련 주요 조문 중 AI 서비스 적용 가능성과 향후 개선 방향 등을 도출해 AI 서비스 적용 관점에서 분석한 것으로, 관련 사업자들에게 법적 나침반을 제시해 줄 수 있을 것으로 기대된다. 정보통신망을 통해 제공되는 AI 서비스의 경우 전기통신사업법 상 부가통신서비스, 정보통신망법 정보통신서비스로 포섭될 수 있으나 서비스 형태와 제공 방식 등이 복잡하고 다양해 각 법령의 적용 여부가 불확실한 측면이 있었다. 방미통위는 이를 해소하고 사업자의 규제 예측 가능성을 제고하기 위해 지난해 3월부터 정보통신정책연구원(KISDI), AI 법률 전문가로 구성된 연구반과 외부 자문을 통해 국내외 이용 및 법제 사례 등을 검토해 안내서를 마련하게 됐다. 전기통신사업법 상 금지행위, 이용자 보호 및 손해배상 조문 등과 정보통신망법 상 불법유해정보 유통 방지, 아동‧청소년 보호 조문 등 현재 제공되고 있는 AI 서비스의 이용자 보호 관련 조문들을 중심으로 검토했다. 법령안내서에 따르면 AI 서비스 사업자는 부가통신사업자로서 전기통신사업법 상 금지행위로 규정된 이용자 이익 저해 행위와 중요사항 미고지 행위 등을 해서는 안 된다. 정보통신망법 불법유해정보 유통 방지에 대해서도 '유통'의 개념을 면밀히 살펴보고, 인공지능 서비스에도 관련 사항이 중요하다는 정책적 함의를 도출했다. 다만, AI 서비스의 이용 행태에 따라 해당 법령 적용 가능성이 달라질 수 있다고 전제했다. 법령안내서는 AI 서비스 사업자들이 이용자 보호 정책에 있어 공백이 발생하지 않도록 관련 서비스 환경에 맞는 개선 방향도 함께 제시하고 있다. 방미통위는 향후 이번 안내서를 기반으로 AI 생태계 변화에 따라 발생하는 이용자 보호 이슈에 적절하고 합리적인 정책을 추진함과 동시에 사업자에게는 규제 대응의 안정성을 제공하고, 이용자에게는 서비스 이용의 신뢰성을 제고해 나간다는 방침이다.

2026.01.20 14:20박수형 기자

[AI 기본법 시행②] "준비만이 살 길"…대기업·스타트업·협단체 대응 총력

한국 인공지능(AI) 산업 지형도를 근본적으로 바꿀 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 오는 22일 전격 시행된다. 한국은 유럽연합에 이어 두 번째로 AI 산업에 대한 포괄적인 법안을 마련했다. 규제를 포함한 AI 법률을 전면 도입하고 시행하는 기준으로는 우리나라가 세계 첫 번째 국가다. AI 서비스 신뢰성이 곧 경쟁력이 되는 시대가 온 만큼 국내 산업 현장은 법 준수와 더불어 선제 대응 경쟁에 돌입한 모습이다. "AI 생성 결과물입니다"…업계, 워터마크·약관 정비 '속도전' AI 기본법상 핵심 의무 중 하나는 생성형 AI를 활용한 이미지, 영상, 음성 콘텐츠에 'AI 생성물' 사실을 알리는 식별 표시(워터마크)를 부착하는 것이다. 딥페이크 등 가짜 정보로 인한 사회적 혼란을 막기 위한 장치다. 우선 네이버는 법 시행을 두 달여 앞둔 지난해 11월 말부터 블로그, 카페, 네이버TV, 클립 등 주요 이용자 제작 콘텐츠(UGC) 플랫폼에 'AI 생성 콘텐츠 표기' 기능을 도입했다. 이용자가 콘텐츠를 올릴 때 AI 기술이 활용됐는지 직접 표시할 수 있도록 한 것이다. 네이버는 쇼핑라이브 등 실시간 서비스에서도 AI 워터마크를 의무화하는 등 적용 범위를 전 서비스 영역으로 확대할 방침이다. 카카오는 다음 달 4일부터 적용할 통합서비스 약관에 '회사가 제공하는 서비스에 AI 기반 서비스가 포함될 수 있으며, AI 생성 결과물을 제공할 경우 관련 법에 따라 고지·표시한다'는 내용의 조항을 신설했다. "스타트업도 비용 부담 없이 법 준수"…'비가시성 워터마크' 무상 공급 자금과 기술력이 부족한 AI 스타트업들은 법 준수가 자칫 사업 진입 장벽이 될 수 있다고 우려한다. 이를 해결하기 위해 생성AI스타트업협회는 'K-세이프 공개 API(응용 프로그램 인터페이스)' 서비스를 국내 AI 기업들에 무상으로 공급하기로 했다. 생성AI스타트업협회 회원사인 스냅태그가 지원하는 이 기술은 생성 AI 콘텐츠 신뢰성 확보와 출처 검증을 지원하는 공개 인프라로, '비가시성 워터마크'가 핵심이다. 육안으로 보이지 않지만 기계는 즉각 읽어낼 수 있는 워터마크를 콘텐츠 생성 순간에 삽입한다. '확률'이 아닌 '결정적 판정' 방식을 사용해 수사나 법적 분쟁 시 명확한 근거로 활용될 수 있다. 또 원본 콘텐츠를 외부 서버로 보내지 않는 '제로 콘텐츠' 설계를 통해 중소기업 보안 우려와 서버 비용 부담을 동시에 해결했다. 협회는 오는 4월부터 이 서비스를 전면 무료 개방해 국내 AI 생태계 전반 안전망을 구축할 계획이다. 생성AI스타트업협회에서 이번 프로젝트를 총괄한 민경웅 스냅태그 대표는 "AI 규제 환경에서 중요한 것은 선언이 아니라 즉시 적용 가능한 기술"이라며 "K-세이프 공개 API는 비용·인프라·보안 리스크 없이 즉시 확인 가능한 AI 신뢰 인프라를 제공하겠다"고 말했다. "AI 기본법 시행, 끝이 아닌 시작"…민관 협력 통한 세부 확립 과제 AI 산업계가 기술적 대응에 사활을 걸고 있다면 협단체는 법안의 제도적 정교함을 요구하고 있다. 한국인공지능법학회는 작년 12월 'AI 기본법 개정연구위원회 개정제안서'를 발표하고 국회에 전달했다. 학계·법조계·산업계·연구기관 등 각 분야 전문가 50여 명이 모인 개정연구위원회의 AI 기본법 제안서에 따르면 고영향 AI 개념 정의 정비, 적용 제외 규정 확대, 사업자 책무 범위 합리화, 과태료 규정의 3년 유예 등이 포함됐다. 최경진 한국인공지능법학회 회장은 AI 기본법 개정제안서에서 "높은 규제 자체보다 더 위험한 것은 무엇이 허용되고 금지되는지 알 수 없는 불명확한 규제"라며 "AI 기본법 역시 제정 과정의 어려움과 시간적 제약 속에서 일부 핵심 개념과 규제 구조가 충분히 다듬어지지 못한 채 남아 있다"고 지적했다. 최 회장은 'AI와 AI 시스템 정의', 'AI 시스템과 구분되는 AI 모델 규율', '고영향 AI 범위', 'AI 사업자와 책임 주체의 구분', '제 34조를 비롯한 여러 의무 조항과 조사·제재 규정을 기반으로 하는 규제 체계', '혁신을 뒷받침하기 위한 특례와 규제 샌드박스 체계' 등을 AI 기본법 내 개선이 필요한 대표 요소로 뽑았다. 또 AI 기본법 개정연구위원회는 위반행위 사실조사 후 시정명령을 먼저 부과하고, 시정명령 위반 시에만 과태료를 부과하는 2단계 제재 방식으로 전환할 것을 제안했다. 학습용 데이터 확보를 위한 공공 데이터 개방 특례와 면책 조항 신설 등 AI 산업 진흥을 위한 장치가 보강돼야 한다는 목소리도 담았다. 한국인공지능·소프트웨어산업협회(KOSA)를 비롯한 다른 협단체도 법 시행 이후 현장 목소리에 주목하고 있다. 안홍준 KOSA 본부장은 "AI 기본법은 한 번도 운영해 보지 않은 법인 만큼, 실제 적용 과정에서 발생하는 기업들 애로사항을 실시간 모니터링할 것"이라며 "경험적 근거를 바탕으로 정부에 지속적인 개선점을 요구하겠다"고 말했다.

2026.01.20 13:45이나연 기자

[AI기본법 시행①] 韓, '세계 최초' 타이틀…"해외 기업과 역차별 없어야"

한국 정부가 전 세계 처음으로 인공지능(AI)기본법 시행을 앞두면서 업계 안팎에서 기대와 우려가 동시에 나오고 있다. 제도가 비교적 무리 없이 안착할 것이라는 전망과 급속한 AI 기술 발전 속도에 맞춰 충분한 준비가 이뤄졌는지를 두고 엇갈린 평가가 공존하고 있다. 19일 과학기술정보통신부에 따르면 AI기본법은 2024년 12월 26일 국회 본회의를 통과한 뒤 지난해 1월 21일 공포됐다. 법 시행 시점은 공포 후 1년이 지난 이달 22일로 예정됐다. 전문가들 사이에서는 AI기본법이 단순 규제를 넘어 국내 기업이 해외 시장으로 확장하는 과정에서 신뢰 표준이 될 수 있다는 점을 높게 평가하고 있다. 글로벌 규제 환경 속에서 일정한 법적 틀을 갖추는 것이 오히려 산업 경쟁력에 도움이 될 수 있다는 입장이다. 일각에서는 유럽연합(EU)이나 미국과 달리 한국이 AI기본법 조기 시행을 선택한 배경에 우려를 표하고 있다. 준비 기간이 EU에 비해 지나치게 짧다는 지적이 잇따르고 있어서다. 실제 EU는 한국보다 법 제정 논의를 먼저 시작했지만, 실제 적용 시점은 내년 8월이다. EU집행위원회는 지난달 규제 부담을 완화하는 내용을 담은 '디지털 간소화' 방안도 내놨다. 특히 유럽에선 과도한 규제가 AI 산업 경쟁력을 약화할 수 있다는 우려가 지속적으로 나왔다. 특히 미국 빅테크 기업들이 규제 완화를 요구해 온 점도 EU 정책 기조 변화에 영향을 미쳤다는 분석이 나온다. 이런 흐름 속에서 정부가 '세계 최초 AI법'이라는 타이틀에 지나치게 집중한 나머지 현실을 충분히 반영하지 못한 채 법을 서둘러 추진한 것 아니냐는 우려가 나온 것이다. 법무법인 원 오정익 변호사는 AI기본법이 이미 통과돼 시행을 앞둔 만큼 이를 부정적으로만 평가하기는 어렵다고 밝혔다. 그는 "AI기본법은 처벌·제한뿐 아니라 일정한 기준점을 제시하는 역할을 할 것"이라며 "법이 산업에 미치는 영향을 복합적으로 봐야 한다"고 주장했다. 이어 "법 시행 이후가 더 중요하다"며 "신속한 개정과 조정, 보완이 상시적으로 이뤄질 수 있어야 한다"고 강조했다. 그러면서 "기존 법제처럼 경직된 운영이 아니라 기술 변화 속도에 맞춘 유연한 제도 운용이 중요할 것"이라고 내다봤다. AI기본법, 해외 기업에 무용지물?…"역차별 없어야" 현재 국내 업계에선 AI기본법이 한국 시장 진출한 해외 기업에는 무용지물일 수 있다는 우려가 나오고 있다. 국내 기업은 법을 어기면 AI기본법에 따라 처벌받지만 외국 AI 기업에 국내법을 바로 적용하기 어려울 수 있다는 이유에서다. 법무법인 태평양 강정희 변호사는 AI기본법에 일정 요건을 충족하는 해외 AI 기업에도 국내 대리인 지정 의무를 부과한 점에 주목했다. 강 변호사는 "규제 대상을 국내 기업에 한정하지 않고 역외 사업자까지 포함할 수 있는 집행 기반을 마련했다는 점에서 긍정적으로 본다"고 밝혔다. 이어 "해외 기업도 한국에서 고영향 AI와 고성능 AI에 대한 위험을 관리할 수 있도록 위험 식별·완화, 위험관리체계구축 등 거버넌스 의무까지 부과한 점도 지켜봐야 한다"며 "국내외 기업 관계없이 AI 위험을 관리하는 구조를 제도화했다는 점에서 규제 질적 전환으로 볼 수 있다"고 말했다. 국내 업계에서는 해외 AI 기업이 국내에 대리인을 지정해도 역차별은 발생할 수 있다고 우려하고 있다. 익명을 요청한 한 국내 AI 업계 관계자는 "해외 기업서 지정된 국내 대리인이 실무 관계자가 아니면 말이 다르다"며 "해당 기업 서비스나 보안상 문제가 발생할 경우 우리 정부가 대리인에 책임을 묻기도 곤란할 것"이라고 지적했다. 이어 "특히 빅테크 솔루션에 동시다발적 오류가 국내외서 발생할 경우, 이는 국내 AI법만으로 보상을 요구할 수도 없는 상황"이라고 말했다. 그러면서 "국내 기업이 AI 제품 개발·출시 과정에서 과도한 규제로 인해 역차별받아선 안 될 것"이라고 재차 당부했다. 오정익 변호사는 AI기본법 의무 부담을 기업에게만 넘기는 방식은 지양해야 한다고 주장했다. 오 변호사는 "국내외 기업 넘어서 국가 자체가 의무를 수행하는 방법도 효율적이다"고 설명했다. 그러면서 "AI 시대에 국가가 자국 기업이 글로벌 AI 생태계에서 기술을 잘 구현할 수 있도록 보조하는 방식으로 가야 한다"고 덧붙였다. "AI기본법 대응 출발점은 '고영향 AI 판단'" AI기본법을 앞두고 국내 업계도 철저한 준비가 필요하다는 의견이 이어졌다. 특히 AI기본법이 강조하는 고영향 AI나 일정 규모 이상 AI 시스템이 이에 해당하는지 확인부터 해야 한다는 설명이다. 전문가들은 물리·현실적 영역에 직접 영향을 미치는 AI 제품과 서비스가 늘고 있다는 점을 중요 변수로 꼽았다. 오정익 변호사는 "AI 시스템이 핵심 기능을 수행하는 제품과 로봇, 서비스가 늘고 있다"며 "기존 챗봇 중심 AI 활용과는 전혀 다른 국면에 접어들었다"고 진단했다. 이어 "AI 안전성과 신뢰성이 산업 전반 핵심 요건으로 부상한 이유"라며 "AI기본법이 강조하는 안정성·신뢰성·투명성 원칙을 최우선 기준으로 삼아야 한다"고 분석했다. 그러면서 "기업은 솔루션이 고영향 AI나 일정 규모 이상의 AI 시스템에 해당하는지 여부를 우선 봐야 한다"며 "이에 해당할 경우 위험관리 체계와 이용자 보호 조치가 법 기준에 부합하는지까지 점검해야 한다"고 설명했다. 오 변호사는 특히 공공기관을 고객으로 둔 기업은 영향평가 준비 여부를 반드시 신경써야 한다고 당부했다. 그는 "시행령과 가이드라인에서 제시하는 방식에 맞게 고지·표시가 이뤄지고 있는지도 점검해야 한다"며 "향후 사업 운영 과정에서 발생할 수 있는 법적 리스크를 선제적으로 관리할 수 있는 방법"이라고 강조했다. 강정희 변호사 역시 AI기본법을 일회성 요건 충족이 아닌 주기적 점검과 개선을 전제로 한 시스템으로 봐야 한다고 주장했다. 강 변호사는 "국내 산업계는 고영향 AI 판단 체크리스트와 내부 가이드라인을 통해 투명성 의무 적용 여부와 예외 해당 여부를 우선 점검해야 한다"며 "의무 대상에 해당할 경우 이를 이행할 수 있는 내부 시스템을 갖추는 것이 필요하다"고 짚었다. 강 변호사는 에너지·보건의료·채용·대출 심사 등 고영향 AI 적용 가능성이 높은 분야 기업은 자체 AI가 생명·안전·권리에 영향을 미치는지 여부를 판단할 수 있는 내부 분류 체계를 마련해야 한다고 권장했다. 강 변호사는 "시스템이 고영향 AI로 분류될 경우 위험 식별·관리 체계, 이용자 보호 방안, 문서 작성과 보관을 포함한 운영·관리·감독 체계를 선제적으로 정비해야 한다"고 말했다.

2026.01.19 16:53김미정 기자

[기고] 눈 앞에 다가온 AI기본법, G3 향한 이정표가 되기를

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 인공지능(AI) 기본법이 2026년 1월 22일 시행을 앞두고 있다. AI 산업 육성과 안전성 확보라는 두 마리 토끼를 잡겠다는 목표를 가지고 21대 국회에서부터 시작된 논의가 22대 국회에서 그 성과를 거둔 이후, 이제 그 시행을 앞두고 있다. 글로벌 AI 패권 경쟁이 국가 대항전 양상으로 치닫는 현시점에서 이번 법 시행이 단순히 대한민국이 AI 사용량에서 1위를 달리는 국가가 아니라 AI 산업을 주도하는 국가로 나아가기 위한 하나의 이정표가 되기를 간절히 바란다. 이번 AI 기본법 시행의 가장 큰 의미는 AI 산업 육성을 위한 법적 근거가 만들어졌다는 점과 AI 산업 규제에 대한 예측가능성이 부여됐다는 점이다. 법적인 관점에서 보면, 산업지원의 경우에는 예산만 확보됐다면 그 근거 법률이 필요하지 않다고 볼 수 있지만, 산업 육성책을 체계적으로 가져갈 수 있는 밑그림인 법률이 있다는 것은 큰 의미를 갖는다. 이런 점에서 AI기본법은 AI 산업 진흥에 있어서 큰 획을 그은 것으로 볼 수 있다. AI 산업이 본 궤도를 타지 않은 시점에 AI 산업에 대한 규제는 시기상조라는 논리도 있다. 주위를 둘러보면 너도나도 AI 서비스를 이용하고 있는 지금 시점에 규제의 틀거리를 마련해 시행하는 건 필연이라고 생각된다. 이제 명확한 법적 근거가 마련됨에 따라 기업들은 고영향 AI 등에 관해 필요한 조치를 취하고, 법적 안정성에 근거해 오히려 과감한 투자를 단행할 수 있는 토대가 마련됐다고 보는 게 보다 합리적이다. 이번 AI 기본법 시행을 계기로 개별 기업들에게 예측가능성이라는 토대가 마련됐다는 것 이외에 기업 입장에서 AI 기본법에 따른 컴플라이언스 체계를 구축하여, 우리가 제공하는 AI는 신뢰할 수 있는 기술이라는 슬로건을 가져갈 수 있는 기회가 될 것으로 보인다. 기술 경쟁력을 넘어서 윤리적인, 신뢰할 수 있는 AI 서비스를 찾는 이용자 관점을 반영해 AI 산업 주도권을 갖기 위한 노력이 필요하다. 법 시행은 완성이 아닌 '균형'을 잡기 위한 긴 여정의 시작이 될 것이다. 규제 무게가 AI 산업의 혁신 또는 성장을 억누르면 안 된다는 것은 너무나 당연한 말이다. 누군가 AI 기술의 10년 후를 물었더니, AI 전문가가 1년 뒤도 예측하기 어려운데 10년 뒤를 예측하는 건 불가능하다고 답했다고 하는 것처럼, 현재 AI 기술은 하루가 다르게 발전하고 있다. 따라서 현재의 AI 기본법 규제 체계가 완성됐다는 것보다는 발전하는 AI 현실을 받아들여 AI 산업계와 영향받는 자인 국민의 목소리를 반영한 유연한 사고가 필요한 게 현실이다. 결국 AI 기본법 시행이라는 큰 산을 넘었지만, 이후 AI 기본법이 얼마나 잘 작동해 AI 산업을 진흥시키고, 예측가능성에 따라 신뢰할 수 있는 AI 서비스를 제공할 수 있는지 여부는 정부와 현장 간 호흡에 달렸다. 정부는 법 시행 초기 발생할 수 있는 현장의 혼선을 최소화하기 위해 과학기술정보통신부 중심으로 명확한 가이드라인을 지속적으로 제공해야 하고, 이미 추진하기로 한 과태료 시행 유보 등 과감한 제도 안착을 위해 노력해야 할 것이다. 2026년은 대한민국 AI 산업의 '대항해 시대'가 열리는 원년이다. 그 과정에 AI기본법이 본래 달성하려고 한 목표를 이루고 AI 산업 진흥에 이정표가 되길 바란다.

2026.01.19 05:00윤주호 컬럼니스트

[ZD브리핑] 다보스포럼 개막...세계최초 'AI기본법' 시행

지디넷코리아는 IT 업계의 이슈를 미리 체크하는 '이번 주 꼭 챙겨봐야 할 뉴스'를 제공합니다. '꼭 챙길 뉴스'는 정보통신, 소프트웨어(SW), 전자기기, 소재부품, 콘텐츠, 플랫폼, e커머스, 금융, 디지털 헬스케어, 게임, 블록체인, 과학 등의 소식을 담았습니다. 바쁜 현대인들의 월요병을 조금이나마 덜어 줄 '꼭 챙길 뉴스'를 통해 한 주 동안 발생할 IT 이슈를 미리 확인해 보시기 바랍니다. [편집자주] 이번 주 산업계는 글로벌 경제 현안을 논의하는 다보스포럼 개막과, 미국 대법원의 '트럼프 관세' 판결 등 대외적 변수에 촉각을 곤두세을 것으로 보입니다. 또 국내에서는 'AI 기본법'·'디지털포용법' 시행과 주요 IT·부품 기업의 4분기 실적 발표가 본격화되며 대내외적인 전환점을 맞이할 전망입니다. 아울러 방송·통신·미디어 및 사회복지계 신년인사회, 그리고 카카오엔터 전 대표의 항소심 재판 등 산업 전반에 걸쳐 규제 대응과 실적 확인, 미래 전략 수립이 맞물리는 분주한 한 주가 될 것으로 보입니다. 다보스 향하는 재계...'트럼프 관세' 미국 대법원 판결 촉각 국내 재계 인사들이 오는 19일(현지시간)부터 23일까지 스위스에서 열리는 세계경제포럼 연차총회(다보스포럼)에 참가합니다. 다보스포럼은 전 세계 정·재계, 학계 리더들이 글로벌 현안을 논의하고 해결 방안을 모색하는 자리로, 올해는 '대화의 정신'을 주제로 개최됩니다. 국내 정부 인사로는 여한구 산업통상부 통상교섭본부장이, 재계에서는 인화 포스코홀딩스 회장, 정기선 HD현대 회장, 최윤범 고려아연 회장, 허세홍 GS칼텍스 부회장 등이 참석할 것으로 알려졌습니다. 미국 연방 대법원이 도널드 트럼프 대통령의 상호관세에 대한 판결을 앞두고 장고를 이어가고 있습니다. 대법원이 20일 새 판결을 공개할 것으로 예고하면서, 이날 상호관세 관련 판결이 나올 것이란 전망이 나옵니다. 앞서 1, 2심 재판부는 상호관세 정책의 법적 근거로 국제비상경제권한법(IEEPA)을 인용한 것은 위법이라는 판결을 내렸는데요, 대법원에서 위법 판결이 나온다면 트럼프 정부의 통상 정책에 대거 수정이 따를 전망입니다. 韓, 세계 최초 'AI 기본법' 시행...삼성SDS, 실적 발표 '눈길' 정부는 오는 22일부터 'AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 본격 시행합니다. AI 기본법은 세계 최초 AI 포괄 규제로, 정부는 애초 방침대로 과태료 부과나 사실조사를 최소 1년 이상 유예하고 컨설팅에 집중하겠다는 입장입니다. 다만 업계 일각에서는 규제 준수를 위한 준비 시간이 여전히 부족하고 세부 기준이 모호해 혼란스럽다는 목소리가 나옵니다. 디지털 격차를 해소하기 위해 마련된 제정법인 디지털포용법도 22일부터 본격 시행됩니다. 정부는 일부 조항에 대해 계도기간을 운영하면서 법의 안착을 도모할 방침입니다. 김성수 카카오엔터 전 대표 두번째 항소심…바람픽쳐스 인수 배임 쟁점 지속 드라마 제작사 바람픽쳐스를 고가에 인수한 혐의로 기소돼 1심에서 무죄를 선고받은 김성수 전 카카오엔터테인먼트 대표의 두 번째 항소심 공판이 20일 진행됩니다. 검찰과 피고인 측은 인수의 정당성과 손해액 산정을 둘러싼 공방을 이어가고 있습니다. 서울고등법원 형사3부는 특정범죄 가중처벌법상 배임 등 혐의로 기소된 김 전 대표와 이준호 전 투자전략부문장에 대한 항소심을 진행 중입니다. 앞서 1심 재판부는 김 전 대표에게 무죄를 선고했고, 이 전 부문장에게는 횡령 혐의를 인정해 징역 2년에 집행유예 3년을 선고했습니다. 검찰은 바람픽쳐스가 실질적인 사업 실체가 없는 페이퍼컴퍼니에 가깝고, 인수 과정이 이 전 부문장의 개인적 이익을 위한 결정이었다고 주장하고 있습니다. 특히 객관적인 기업 가치 평가 자료가 없다는 점을 들어 60억원 이상 손해가 발생했다는 입장입니다. 반면 김 전 대표 측은 해당 인수가 카카오 본사 차원에서 기획된 정당한 경영 판단이었다고 반박하고 있습니다. 드라마 제작사 특성상 외형 요건만으로 실체를 판단하는 것은 부당하며, 인수 이후 바람픽쳐스가 실질적인 성과를 냈다는 점을 강조하고 있습니다. STT GDC 코리아 기자 간담회 개최...기아, '디 올 뉴 셀토스' 실차 공개 행사 사전 접수 STT GDC 코리아는 22일 여의도 전경련회관에서 기자간담회를 진행합니다. 전 세계 100개 이상의 데이터센터를 운영한 노하우와 최신 기술 트렌드를 공유하고 한국 지사에 대해 소개합니다. 이날 행사에는 허철회 STT GDC 코리아 대표, 양재석 운영 센터장이 참석할 예정입니다. 기아가 '디 올 뉴 셀토스' 출시에 앞서 국내 고객을 위한 실차 공개 행사 익스클루시브 프리뷰의 신청을 21일까지 받습니다. 추첨을 통해 선정된 참여자는 31일과 2월 1일 양일간 기아360, EV 언플러그드 그라운드 성수, 기아 인천·광주·원주 플래그십스토어, 기아 전시장 등 전국 14개 기아 거점에서 신형 셀토스를 먼저 만나볼 수 있습니다. 기아는 사전 신청 고객과 동반 1인 등 총 8천400명을 초청할 예정입니다. 삼성전기 등 국내 전자·부품 업계 작년 4분기 실적 발표 시작 이번주 금요일 삼성전기를 시작으로 국내 전자, 부품 업계의 실적 발표가 시작됩니다. 삼성전자, SK하이닉스 등 반도체 업계와 삼성전기, LG이노텍, LG디스플레이 등 부품 업계는 어닝서프라이즈를 기록할 것으로 전망됩니다. 반면, LG전자의 경우 앞서 잠정 실적발표에서 적자 전환을 발표한 바 있어, 세트와 부품 간 희비가 엇갈릴 것으로 전망됩니다. 삼성SDS도 같은 날 2025년 4분기 실적발표 컨퍼런스콜을 개최할 예정입니다. 증권가에서 추산한 삼성SDS 2025년 4분기 예상 매출은 전년 동기 대비 1.9% 감소한 3조5천700억원이며 영업이익은 10.1% 오른 2천330억원 수준입니다. 전반적으로 시장 기대치를 소폭 밑도는 수치로 서비스형 소프트웨어(SaaS) 부문 매출 성장률 둔화 영향이라는 분석입니다. 하지만 정부의 AI 확대 기조를 바탕으로 공공 및 금융기관의 AI, 클라우드 도입 확대가 기대되고 있어 장기적으로 성장에 대한 기대가 높은 상황입니다. 방송미디어통신인·사회복지인 신년인사회 열려 한국정보통신진흥협회가 주최하는 방송미디어통신인 신년인사회가 23일 오후 4시 서울 여의도 콘래드 호텔에서 열립니다. 이 자리에는 지난해 10월 신설된 방송미디어통신위원회를 중심으로 산하 기관과 유관 단체 주요 인사들이 참여할 예정입니다. 한국사회복지협의회는 21일 오전 11시 한국사회복지회관 대강당에서 '2026년 사회복지계 신년인사회'를 개최합니다. 이번 행사는 2026년 병오년 새해를 맞아 복지 분야 리더들이 화합과 도약을 다짐하기 위해 마련됐습니다. 정은경 보건복지부 장관, 김현훈 한국사회복지협의회장을 비롯해 국회의원, 사회복지 직능단체장 등이 참석해 현장의 목소리를 공유하고 사회복지계의 결속력을 더욱 강화하는 계기가 될 것으로 보입니다. 쿠키런:킹덤 아트콜라보 특별전...웹젠 신작 게임 '드래곤소드' 출시 데브시스터즈가 23일 서울 종로구 인사동 아라아트센터에서 '쿠키런: 킹덤 아트 콜라보 프로젝트 특별전 - 위대한 왕국의 유산' 행사를 마련합니다. 이번 특별전은 데브시스터즈가 지난 2년간 이어 온 아트 콜라보 프로젝트를 총망라하고 쿠키런 IP의 문화적 확장을 잇는 대규모 전시로, 국가유산청과 한국공예·디자인문화진흥원이 후원합니다. 특별전은 4월 12일까지 열립니다. 데브시스터즈는 모바일 RPG '쿠키런: 킹덤'의 주요 캐릭터인 '비스트 쿠키'와 '에인션트 쿠키'의 서사를 게임 밖으로 넓히고 세계 이용자에게 우리 전통의 가치를 전파하기 위해 지난 2024년부터 10명의 무형유산 장인 및 예술 작가와 협업해왔습니다. 웹젠은 새해 첫 신작 게임 '드래곤소드'를 21일 정식 출시합니다. 하운드13이 개발한 해당 게임은 액션RPG로, 광활한 오픈월드에서 펼쳐지는 정교하고 화려한 액션 재미를 강조한 작품입니다. 코헤시티, 최신 전략 및 기술 라운드테이블 2026 개최 글로벌 데이터 보안·관리·레질리언스 기업 코헤시티가 20일 새해 첫 라운드테이블을 개최합니다. 잇단 침해사고로 발생하는 가운데 빠른 복원력, 즉 레질리언스가 중요한 사이버보안 역량으로 부상했습니다. 이에 코헤시티는 라운드테이블을 통해 국내 사이버 리스크 현황에 대해 진단하고, 기업의 보안 패러다임을 전환할 레질리언스 프레임워크를 본격적으로 소개한다는 계획입니다. 코헤시티는 2013년 미국 산타클라라에 설립된 보안·관리·레질리언스 기업입니다. 데이터 백업서부터 재해 복구, 분석 등 역량을 보유하고 있는 것으로 알려져 있습니다. 전 세계에서 1만3천600개 기업을 고객사로 확보하고 있습니다. 데이터 보호 소프트웨어로는 세계 무대에서 점유율 1위를 기록하고 있습니다. 앞서 지난해 말 코헤시티는 베리타스라는 백업용 솔루션 기업을 품에 안으며, 'AI 기반 데이터 관리 솔루션'으로의 진화를 도모하고 있습니다.

2026.01.18 17:00백봉삼 기자

생성AI스타트업협회, AI 기본법 시행 앞두고 'K-세이프 공개 API' 무료 공급

생성AI스타트업협회가 오는 22일 인공지능(AI) 기본법 시행을 앞두고 딥페이크 확산 방지와 안전한 생성 AI 생태계 조성에 나선다. 협회는 '생성 AI 신뢰성 확보를 위한 K-세이프 공개 API(응용 프로그램 인터페이스)'를 국내 AI 기업들에 무상 공급한다고 15일 밝혔다. 협회 회원사 스냅태그가 관련 기술과 인프라를 지원하는 이번 서비스는 생성 AI 콘텐츠 신뢰성 확보와 출처 검증을 지원하는 공개 인프라다. AI 기본법 투명성 강화 취지에 부응하려는 AI 기업이 비용과 인프라, 보안 부담 없이 즉시 도입 가능하도록 설계됐다. 협회는 AI 생성물에 식별 정보를 삽입하는 인코딩(Encoding) SDK와 해당 콘텐츠가 생성 AI로 만들어졌는지를 확인하는 디코딩(Decoding) SDK를 무상 제공한다. 기업은 협회가 제공하는 SDK를 자사 서비스에 설치한 뒤 K-세이프 공개 API 서버와 연동하면 바로 비가시성 워터마크 적용이 가능하다. 이미지나 영상 워터마크 삽입과 검증은 각 기업 로컬 환경(SDK)에서 수행된다. 공개 서버와는 인증 키(Key) 정보만을 교환하는 구조다. 이를 통해 고가의 서버 장비나 전용 인프라를 구축할 필요없는 인프라 투자 제로 환경을 구현했다. K-Safe 공개 API는 생성 AI 콘텐츠에 대해 즉시 삽입(Real-time Encoding)과 즉시 해독(Real-time Decoding)이 가능한 구조를 갖췄다. AI 콘텐츠가 생성되는 순간 비가시성 워터마크가 삽입된다. 해당 콘텐츠가 AI 생성물인지 여부는 확률이 아닌 '감지(Detected)'와 '비 감지(Not Detected)' 이진 결과로 판정된다. 사람이 해석해야 하는 확률 기반 판단이 아닌, 정책·법·수사 환경에서 즉시 집행 가능한 결정적 판정 결과를 제공한다. K-Safe 공개 API 검증 과정은 사용자가 일부러 확인을 요청하거나 별도 검사 행위를 수행하는 방식 외에도 기사 업로드, 게시물 등록, 이메일 전송, 콘텐츠 배포와 같은 플랫폼의 기존 행위 흐름 속에서 자동으로 검증이 수행되는 구조다. 보안성도 강화했다. 이 서비스는 원본 콘텐츠를 외부 서버로 전송하지 않는 '제로 콘텐츠' 아키텍처를 채택했다. 이미지나 영상 원본은 기업 내부에만 남고 공공 API와는 암호화된 식별 정보만 교환된다. 이를 통해 콘텐츠 유출, IP 침해, 개인정보 노출 우려를 구조적으로 차단했다. 글로벌 개인정보 보호 규제 환경에도 대응할 수 있다. 스냅태그가 개발 및 보급해 온 해당 기술은 정부·군·대기업 정보보호 환경에서 약 50만명 이상 사용자가 사용 중이다. 지난 2024년에는 카카오의 이미지 생성 AI 서비스 '칼로(Karlo)'에 정식 적용됐다. 협회는 이달 중 내부적으로 베타 서비스를 시작하고, 오는 4월부터 국내 모든 AI 기업과 콘텐츠 플랫폼을 대상으로 서비스를 전면 무상 개방할 계획이다. 한국에서는 공공 목적 신뢰 인프라로 무료 제공되지만 해외 시장에서는 엔터프라이즈 대상 유상 서비스 모델로 확장하기로 했다. 협회에서 이번 프로젝트를 총괄하는 민경웅 스냅태그 대표는 "AI 규제 환경에서 중요한 것은 선언이 아니라 즉시 적용 가능한 기술"이라며 "K-세이프 공개 API는 비용·인프라·보안 리스크 없이 즉시 확인 가능한 AI 신뢰 인프라를 제공하겠다"고 말했다.

2026.01.15 09:52이나연 기자

[신년 인터뷰] "AI 역기능 막는 기술 확보가 국가 경쟁력 좌우"

글로벌 경제 위기 속에서 올해 인공지능(AI) 산업은 다시 한 번 중대한 분기점에 섰다. 생성형 AI의 급격한 확산 후 이어진 성능 경쟁과 투자 열풍은 이제 '얼마나 더 큰 모델을 만들 수 있는가'라는 질문을 넘어 'AI가 실제 무엇을 할 수 있는가'라는 보다 본질적인 문제로 이동하고 있다. 지디넷코리아는 릴레이 인터뷰를 통해 각기 다른 위치에서 AI 산업을 바라보는 리더 시선을 종합해 올해 AI 산업이 어디로 향하고 있는지, 무엇을 준비해야 하는지를 짚어본다. 기술 낙관과 과도한 불안 사이에서 AI의 현실적인 진화 경로와 산업적 의미도 살펴본다. [편집자주] "인공지능(AI)이 자율주행과 로봇, 에이전트 시스템으로 진화하면 우리가 지금까지 경험하지 못한 새로운 위험을 만들어낼 수 있습니다. 기술 개발뿐 아니라 안전성과 보안, 역기능 대응을 위한 투자가 반드시 병행돼야 하는 이유입니다. 안전과 통제를 처음부터 내재화한 AI 시스템을 설계하는 것이 국가 경쟁력 측면에서도 중요합니다." 성균관대 우사이먼성일 소프트웨어학과·인공지능대학원 교수는 지디넷코리아와 만나 AI 발전과 함께 커지고 있는 기술 안전성 문제를 이렇게 진단했다. 우 교수는 AI 기술 부작용을 최소화할 방법을 연구하는 학자다. 개인정보 침해와 허위 정보 생성, 저작권 문제, 범죄 악용 등 AI 확산으로 인해 나타나는 사회 위험을 기술적으로 통제하는 데 연구 초점을 맞추고 있다. 가장 대표 연구 분야는 머신 언러닝을 이용한 개인정보 보호 기술이다. 머신 언러닝은 AI 모델이 학습한 특정 데이터를 선택적으로 삭제할 수 있도록 하는 기술이다. 보통 모델이 학습 과정에서 방대한 정보를 내부에 저장하지만, 어떤 정보가 어떤 결과에 영향을 미쳤는지 알기 어렵다. 이에 개인이 자신의 개인정보를 삭제해 달라고 요구해도 기존 AI 모델에서는 이를 정확히 반영하기가 거의 불가능하다. 머신 언러닝은 이 문제를 해결하기 위한 기술이다. 최근 그는 이를 실제 개인정보 보호에 적용할 수 있도록 기술을 업그레이드했다. 기존 방식은 특정 데이터를 삭제하기 위해 해당 데이터를 제외한 나머지 데이터로 모델을 재학습해야 했다. 이는 초거대 AI 모델 환경에서 시간·비용 측면에서 사실상 불가능하다. 그는 "기존 언러닝 기법은 연구실에선 가능했지만 실제 서비스에 적용하기에 매우 비효율적"이라고 주장했다. 우 교수 연구팀은 이 문제를 해결하기 위해 새 접근법을 제시했다. 핵심은 원본 데이터를 보관하지 않아도 모델 성능과 삭제 정확도를 동시에 유지하는 방식이다. 이에 원본 데이터를 보관하거나 재학습을 별도로 진행하지 않아도 모델 성능을 유지할 수 있다. 그는 "원본 데이터 대신 통계적으로 유사한 합성 데이터를 생성·활용해 한계를 극복했다"고 강조했다. 그는 삭제 대상 데이터가 다른 데이터와 섞여 변형된 경우에도 제거 가능하다고 설명했다. 그는 "실제 데이터는 단독 존재하지 않고 여러 문장이나 문서, 다른 데이터와 연결돼 학습된다"며 "이를 그래프 구조로 표현하면 어떤 정보가 다른 정보에 어떻게 영향 미쳤는지 추적할 수 있다"고 말했다. 그러면서 "특정 이름이나 문장, 파생 정보까지 한 번에 제거할 수 있는 이유"라고 덧붙였다. 이 연구 성과는 지난해 12월 미국 샌디에고 컨벤션 센터에서 열린 국제 AI 분야 학회 NeurIPS(Neural Information Processing systems)에 발표됐다. 이 연구는 올해 과학기술정보통신부 재원과 정보통신기획평가원(IITP) 지원으로 추진 중이다. 연구 과제명은 '개인정보보호 관련 정책 변화를 유연하게 반영하여 준수하는 AI 플랫폼 연구 및 개발'이다. 우 교수는 해당 기술이 향후 기업과 정부 시스템에도 유용할 수 있을 것으로 봤다. 그는 "기업은 고객 개인정보나 저작권 있는 문서·이미지, 책 내용을 AI 모델에 학습시키기만 하면 된다"며 "삭제 요청이 들어오면 이를 기술적으로 반영하면 된다"고 설명했다. 그는 현재 여러 국내 기업과 협력해 챗봇이나 검색, 문서 분석, 법률 AI 등 서비스에 해당 기술을 적용하는 연구를 진행하고 있다. 그는 "개인정보나 저작권 삭제 요구가 많은 분야일수록 실무적 가치가 큰 기술"이라며 "언러닝 성능을 AI 안전성 평가 지표로 활용하는 방안도 고려 중"이라고 덧붙였다. 우 교수는 이달 시행될 국내 AI기본법과 연구 성과가 깊이 연결될 것으로 내다봤다. 그는 "그는 유럽 일반정보보호규정(GDPR)처럼 한국 AI기본법은 개인의 데이터 삭제 권리를 보장하는 것이 필수일 것"이라며 "우리 방식은 이런 법적 요구를 실제 AI 모델에 기술적으로 반영할 수 있는 현실적 해법"이라고 강조했다. "딥페이크도 '문맥'으로 잡아야"...기술력 전 세계 2위 기록 우 교수는 딥페이크 감지 기술 분야에서도 활발한 연구를 이어가고 있다. 특히 최신 생성형 AI가 만들어내는 새로운 형태의 딥페이크까지 탐지하는 기술 개발에 주력하고 있다. 그는 현재 다수 딥페이크 탐지 모델 성능이 최신 AI 기술을 따라가지 못하는 점을 꼬집었다. 모델 학습에 사용된 데이터와 실제 딥페이크 확산 형태가 다르다는 점을 근본 원인으로 짚었다. 그는 "최신 AI가 만드는 딥페이크는 기존 데이터와 특성이 전혀 다르다"며 "탐지 모델 성능이 실제 환경에서 급격히 떨어질 수밖에 없다"고 말했다. 우 교수 연구팀은 이런 문제를 해결하기 위해 새 방법론을 적용한 딥페이크 탐지 모델을 제시했다. 연구팀은 'DINO'와 'CLIP-ViT' 계열 모델로 이미지와 텍스처, 의미적 패턴을 폭넓게 이해할 수 있는 모델을 구축했다. DINO는 대규모 웹 데이터 기반으로 사전 학습된 모델이다. CLIP-ViT는 텍스트와 이미지 간 의미 관계를 학습한 모델이다. 연구팀은 이를 딥페이크 탐지에 맞게 재학습해 이미지 백본으로 활용했다. 이후 이 모델 위에 딥페이크 전용 어댑터 모듈도 추가했다. 이에 모델은 영상과 이미지에 포함된 미세한 위조 흔적까지 포착할 수 있다. 우 교수는 해당 모델이 단순 이미지 분류를 넘어서 의미론적 개념을 이해하도록 설계된 것을 핵심 기능으로 제시했다. 그는 "이 모델은 특정 유형 딥페이크에 과적합 되지 않는다"며 "여러 위조 콘텐츠를 안정적으로 탐지할 수 있다"고 설명했다. 해당 연구는 지난해 과기정통부 재원으로 IITP 지원을 받아 '디지털역기능대응기술개발'사업으로 수행됐다. 사업명은 '악의적 변조 콘텐츠 대응을 위한 딥페이크 탐지 고도화, 생성 억제, 유포 방지 플랫폼 개발'이다. 해당 모델로 성과도 얻었다. 지난해 국제 컴퓨터비전 학술대회(ICCV)가 주최한 딥페이크 탐지 'SAFE 챌린지'에서 이탈리아 나폴리대 연구팀에 이어 전 세계 2위를 기록했다. 또 지난해 성균관대와 한국정보과학학회가 공동 주최한 '성균관대x한국정보과학학회 딥페이크 경진대회'에서 대상과 우수상을 각각 수상했다. 우 교수는 향후 딥페이크 연구 방향도 제시했다. 그는 "실제 환경에 가까운 조건에서 모델을 연구·평가할 것"이라며 "특히 메신저와 소셜미디어(SNS) 환경처럼 저화질·압축 영상이 많은 환경서도 안정적으로 딥페이크를 탐지할 수 있는 모델을 구축할 것"이라고 덧붙였다.

2026.01.14 15:36김미정 기자

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

구글에 내준 '내비게이션' 지도, 1대 5000 지도와 뭐가 다를까

[단독] 주병기 공정위장 "과자 등 가공식품 가격도 내려야"

[사스포칼립스 위기 ㊦] AI 재편기, 한국 소프트웨어 과제는 '구조 전환'

삼성 HBM4 자신감의 근원 '1c D램'…다음 목표는 수율 개선

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.