• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI기본법'통합검색 결과 입니다. (39건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KOSA, AI기본법 체계 첫 공식 협회...이중 법정지위 확보

한국인공지능·소프트웨어산업협회(KOSA)가 인공지능(AI)기본법 체계에서도 법정단체로 인정받으며 협회 기반을 한층 강화했다. 12일 업계에 따르면 과학기술정보통신부는 지난 11일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법' 제26조 및 동법 시행령 제20조에 따라 KOSA를 인공지능협회로 지정했다고 공고했다. AI기본법은 지난달 22일부터 시행됐다. KOSA는 기존 법정단체 지위에 더해 AI기본법상 공식 협회 지위도 확보하게 됐다. 소프트웨어(SW) 산업과 AI 산업을 동시에 대표하는 이중 법정단체 체계를 갖춘 것이다. AI기본법은 AI 기술 발전을 촉진하고, 안전·윤리·신뢰 기반을 제도적으로 마련하기 위해 제정됐다. 법 제26조는 AI 산업 진흥을 위한 협회 지정 근거를 명시하고, 시행령 제20조는 구체적 지정 요건과 절차를 담았다. 협회는 이번 지정으로 AI 산업 진흥 정책 협의를 비롯한 산업계 의견 수렴, 제도 개선 논의 등에서 공식 창구 역할을 맡는다. 정부 정책과 산업 현장을 연결하는 가교 기능이 제도적으로 보장된 셈이다. 최근 SW, 클라우드 분야 협회들이 잇따라 명칭에 AI를 전면에 내세우는 흐름 속에서 법에 근거한 법정단체 지정은 상징성이 크다. 단순 명칭 변경을 넘어 정부가 인정한 법정 지위를 확보했다는 점에서 대표성 기준이 한층 명확해졌다는 평가다. 국내 AI 업계에서는 향후 KOSA 행보에 기대감을 걸고 있다. 특히 스타트업 성장을 위한 지원정책을 더 적극적으로 추진할 필요가 있다는 목소리가 나왔다. 강지홍 로민 대표는 "KOSA 법정단체 지정을 환영한다"며 "AI기본법 준수 기준·절차 불확실성을 현장 관점에서 정리해 실행 가능한 가이드라인과 제도 개선을 이끌어줘야 한다"고 밝혔다. 이어 "특히 스타트업 인재·데이터·검증 인프라·해외 진출 등 성장을 위한 지원정책을 연결해 국내 AI 생태계 저변을 넓히길 바란다"고 덧붙였다. 셀렉트스타 관계자는 "AI기본법이 산업 현장에 안착할 수 있는 민관 협력 구심점이 마련됐다"며 "'책임 있는 AI' 실행 기준과 검증 프레임을 정립하는 과정에서도 산업 현장의 경험과 목소리가 충분히 반영되길 기대한다"고 강조했다.

2026.02.12 18:14김미정 기자

"AI 기본법, 예외 조항 구체화 필요…기업, 적용 여부 면밀히 따져봐야"

최근 시행된 인공지능(AI) 기본법을 두고, 보조적 도구로 사용된 AI의 예외 조항과 예술·창의적 표현물의 비가시적 표현 범위가 어느 정도인지를 구체화해야 한다는 법률적 제언이 나왔다. 기업은 국가별로 상이한 법안을 모두 고려해야 하는 부담을 안고 있는 만큼, AI 기본법을 부문별하게 따르기보다는 자사의 법안 적용 여부를 명확히 판별해야 한다고 역설했다. 한국인터넷기업협회와 법무법인 율촌은 11일 서울 서초구에서 'AI 기본법 시행에 따른 기업의 대응전략 간담회'를 열었다. 이번 간담회는 AI 기본법의 법률적 불명확성 등으로 준비에 어려움을 겪는 기업들의 대응 방안 수립과 향후 전략 수립에 필요한 논의를 제공하기 위해 마련됐다. 김정원 율촌 고문, 김선희 변호사, 김명훈 변리사, 이용민 변호사 등이 참석했다. 지난달 22일부터 시행되기 시작한 AI 기본법은 생성형 AI가 만든 결과물에 AI 생성물임을 표시하는 'AI 생성물 표시제'가 도입된 것이 핵심이다. 적용 대상은 AI 기술을 제공하는 사업자를 포함해 영리 목적으로 서비스를 운영하거나 콘텐츠를 게시하는 경우가 모두 해당된다. “올해 AI 유통 과정에서 만들어질 법안에도 대응해야” 생성형 AI와 고영향 AI 위주의 AI 기본법 실무적 쟁점에 대한 논의를 전개한 김 변호사는 해당 법안에서 규정하는 AI사업자와 이용자의 차이가 비교적 명확해졌다며 “올해는 AI 기본법 뿐만 아니라 유통 과정에서 만들어질 법안에 대한 준비도 필요하다”고 강조했다. AI기본법의 AI 생성물 표시제 가운데서도 AI가 보조적 도구로만 사용됐을 때의 예외 조항에 관한 논의가 필요하다는 점을 피력했다. 이행 방법에서는 예술·창의적 표현물의 비가시적 표현 범위가 어디까지인지를 명확히 해야한다고 당부했다. 고영향 AI의 경우 대출 심사 부분에서 어떤 것이 AI를 활용한 사업에 들어가는지 그 영역이 불명확하고, 개인의 권리 의무 관계에 중대한 영향을 미치는 판단 또는 평가의 범위가 현재 채용·대출 등에서 얼마든지 넓어질 수 있다는 점을 꼬집었다. 고영향 AI 이행 방법과 관련해서는 “개발 사업자와 이용 사업자 간 역할과 책임 분배도 명확히 해야한다”고 덧붙였다. 시정 명령 이행 대상 혼란 불러올 수도…AI 시스템 유형 파악도 동반돼야 김 변리사는 고영향 생성형 AI 고지 의무에 대한 시정 명령이 내려지면 기업 입장에서는 과태료보다도 개발 사업자와 이용 사업자 중 누가 이를 이행해야 하는지에 대한 혼란이 생길 수 있다고 봤다. 또 기업이 AI 기본법 관련 컴플라이언스를 구축하는 과정에서 미국, 유럽연합(EU), 한국 등 국가별로 파편화된 법안을 모두 고려해야 하는 어려움이 있다고 설명했다. 그러면서 AI 기본법을 막연하게 준수해야 한다는 인식보다는 “우리 회사 제품이나 서비스가 적용이 되냐부터 살펴봐야 한다”고 말했다. 처음에는 이용 사업자라는 인식을 갖고 있더라도, 파인튜닝을 하고 기능을 업데이트하면서 개발 사업자로 정체성이 변모할 수 있다는 것이다. 김 변리사는 인공지능 시스템 유형 파악도 동반돼야 한다고 부연했다. AI 기본법, 서비스 구현 방식 따라 사용자·이용자 적용 달라져 현장에서는 실무적인 영역에서 AI 기본법의 사용자·이용자 적용 여부를 질문도 나왔다. 김 변리사는 “AI 서비스가 실제로 어떻게 구현돼 있느냐에 따라 달라진다”며 “콘텐츠 추천이면 내부적으로 이용하는 것으로 보여질 여지가 있고, 외부에 서비스를 제공한다면 달라질 수 있다”고 답했다. 김 변호사는 “AI 기본법도 있지만, 개인정보보호법도 봐야 한다”며 “이용자의 정보로 추천 서비스를 제공할 수 있는지, 제대로 된 법적 근거가 잘 갖춰져 있는지를 들여다봐야한다”고 언급했다.

2026.02.11 18:04박서린 기자

[신년 인터뷰] 조준희 KOSA 회장 "AI 승부처는 중동·동남아…완제품 풀스택으로 간다"

글로벌 경제 위기 속에서 올해 인공지능(AI) 산업은 다시 한 번 중대한 분기점에 섰다. 생성형 AI의 급격한 확산 후 이어진 성능 경쟁과 투자 열풍은 이제 '얼마나 더 큰 모델을 만들 수 있는가'라는 질문을 넘어 'AI가 실제 무엇을 할 수 있는가'라는 보다 본질적인 문제로 이동하고 있다. 지디넷코리아는 릴레이 인터뷰를 통해 각기 다른 위치에서 AI 산업을 바라보는 리더들의 시선을 종합해 올해 AI 산업이 어디로 향하고 있는지, 무엇을 준비해야 하는지를 짚어본다. 기술 낙관과 과도한 불안 사이에서 AI의 현실적인 진화 경로와 산업적 의미도 살펴본다. [편집자주] "현실적으로 빅테크와 인공지능(AI) 모델 정면 승부는 어렵습니다. 하지만 우리에겐 세계 최고 수준 제조 데이터가 있습니다. 이를 무기로 중동·동남아 소버린 AI 시장을 공략한다면 충분히 승산이 있습니다." 4일 서울 송파구 한국인공지능,소프트웨어산업협회(KOSA) 사무실에서 만난 조준희 회장은 올해는 AI 풀스택 수출 원년이라며 글로벌 시장 진출 비전을 제시했다. 그는 한국 AI 산업이 나아가야 할 핵심 키워드로 산업 특화 피지컬 AI(Physical AI)와 풀스택 AI를 강조하며 강한 자신감을 내비쳤다. 미국도 못 가진 제조 데이터…글로벌 공략 핵심 무기 CES와 다보스포럼, 중동 순방 등 바쁜 글로벌 일정을 소화하고 있는 조 회장은 해외에 나가면 가장 먼저 받는 질문이 '데이터'라고 운을 뗐다. 그는 "외국에 가면 제조 데이터부터 묻는다"라며 "피지컬 AI든 제조 AI든 결국 최고 성능을 내려면 관련 데이터가 필요한데, 반도체,자동차,조선 등 세계 탑티어 수준 제조업 현장에서 축적된 고품질 데이터는 미국조차 가지지 못한 우리의 강력한 무기"라고 강조했다. 조 회장이 말하는 제조 데이터는 단순한 산업 통계나 생산량 정보가 아니다. 공장 설비에서 쌓이는 실시간 센서 데이터, 생산 공정의 품질 데이터, 불량 원인과 조치 기록, 설비 유지보수 이력, 공정 최적화 로그 등 '현장에서만 생성되는 데이터'가 핵심 자산이라는 설명이다. 그는 "AI는 결국 데이터 싸움"이라며 "어떤 데이터를 학습하고, 어떻게 튜닝해 서비스로 녹이느냐에 따라 성능과 신뢰도가 갈린다"고 말했다. 이 제조 데이터가 올해 KOSA가 강조하는 피지컬AI 전략의 핵심 기반이다. 조 회장은 "피지컬 AI는 일반 파운데이션 모델만으로는 안 된다"며 "로봇이 움직이려면 비전 모델과 액션 모델이 필요하다"고 설명했다. 산업 현장에서 비전, 액션 중심 대규모액션모델(LAM) 개발이 빠르게 늘고 있다는 점도 짚었다. 고객이 원하는 건 '부품'이 아닌 '완제품'…풀스택 AI로 차별화 조준희 회장은 한국이 보유한 고급 제조 데이터를 바탕으로 글로벌 시장을 공략할 해법으로 '풀스택(Full-Stack) AI'를 제시했다. 단일 AI 모델이나 소프트웨어만으로는 한계가 있는 만큼, AI 전용 칩(NPU)부터 모델, 에이전트 서비스까지 통합한 '완성형 패키지'로 승부하겠다는 구상이다. 그는 "특히 고객이 원하는 것은 부품이 아닌 바로 쓸 수 있는 완제품"이라며 "추가 작업 없이 즉시 도입해 운영할 수 있는 형태로 제공해야 한다"고 강조했다. 조 회장은 풀스택 AI가 특히 중동, 동남아에서 경쟁력이 있을 것으로 내다봤다. 기술 패권 경쟁이 심화되면서 특정 국가, 서비스에 종속되는 것을 경계하는 흐름이 강해지고 있고 이 과정에서 한국이 신뢰 기반의 대안이 될 수 있다는 판단이다. 더불어 풀스택 AI 차별화 포인트로 데이터 결합을 제시했다. 제조, 공정 데이터 기반 산업 특화 AI를 설계하면 범용 모델보다 현장 적용력과 실효성이 높아진다는 설명이다. 조 회장은 "제조 AI와 피지컬 AI는 데이터와 서비스의 결합이 핵심"이라며 "AI모델과 에이전트 서비스를 최적 조합하는 것이 승부처"라고 말했다. KOSA는 이 전략을 현실화하기 위해 회원사 기반도 확장하고 있다. 소프트웨어 기업 중심에서 벗어나 리벨리온 등 AI 칩 개발사와 하드웨어 제조사까지 포괄해 인프라,모델,서비스를 함께 제공할 수 있는 풀스택 생태계를 만들겠다는 목표다. KOSA, AI 스타트업 '자금줄' 확보... "페이팔 마피아 같은 생태계 만든다" 조 회장은 풀스택 AI 등의 전략을 현실화하기 위해 올해 협회 최우선 과제로 '투자 생태계 활성화'와 'AI 기본법 안착'을 꼽았다. 기술 경쟁이 치열해질수록 스타트업의 생존과 스케일업이 중요해지고, 제도 불확실성이 해소돼야 기업 투자가 본격화될 수 있다는 판단이다. 그는 유망한 국내 AI 스타트업이 자금난으로 고사하는 일을 막기 위해 글로벌 네트워크 기반의 투자,협력 생태계를 만들겠다고 밝혔다. 조 회장은 "미국 실리콘밸리의 '페이팔 마피아'처럼 성공한 선배 기업이 후배 기업을 이끌고 자본이 다시 기술로 흘러 들어가는 선순환 구조를 만들겠다"고 강조했다. 국회 논의가 진행 중인 AI 기본법에 대해서도 조속한 제도 정비가 필요하다고 했다. 그는 "기업이 두려워하는 것은 규제 자체가 아니라 불확실성"이라며 "법적 근거가 마련돼야 기업들이 예측 가능성을 갖고 과감하게 투자할 수 있다"고 말했다. 이어 "골든타임을 놓치지 않으려면 조속한 입법이 필수"라고 덧붙였다. 공공 AI 사업 구조 개선 필요성도 제기했다. 조 회장은 AI 과제에서 인프라 비용 비중이 과도하게 커질 수 있다는 점을 지적하며, 개발자와 기업이 기술 가치를 제대로 인정받는 시장 구조가 필요하다고 강조했다. 최근 정부의 '독자 파운데이션 모델(도파모)' 사업 1차 심사 결과가 나온 가운데 '패자부활전'에 대해서도 신중론을 폈다. 재심사로 일정이 늘어 산업 실행 속도가 떨어질 수 있는 만큼 패자부활전을 진행할 예산이 있다면 산업용 AI와 피지컬 AI 등 성과가 나는 곳에 투자하는 것이 현실적이라고 제언했다. 조 회장은 KOSA의 역할도 재정의했다. 단순한 협,단체를 넘어 기업의 성장과 수출을 돕는 실질적 비즈니스 파트너가 되겠다는 것이다. 그는 "이제 KOSA는 회원사 친목을 넘어, 우리 기업들이 만든 기술을 세계 시장에 내다 파는 '영업사원'이 되겠다"며 "대한민국 AI가 제조 데이터와 풀스택이라는 경쟁력을 바탕으로 세계 시장에서 성과를 내도록 발로 뛰겠다"고 말했다.

2026.02.04 14:43남혁우 기자

김현수 한국AI서비스학회장 "AI 기본법, 규제 아닌 기술 개발 촉진법 돼야"

인공지능(AI) 생태계를 포괄적으로 규율하는 'AI 기본법'이 본격 시행되면서 산업 전반에 미칠 영향에 이목이 쏠린다. 유럽연합(EU)의 'AI 액트'보다 빠른 규제 시행으로 시장 위축에 대한 우려가 제기되는 가운데, 진흥 규정을 강화하기 위해 업계가 힘을 모아야 한다는 제언이 나왔다. 김현수 한국AI서비스학회장은 22일 서울 강남구 한국과학기술회관에서 열린 'AI 기본법 시행에 따른 산업 생태계 육성전략 세미나'에서 "AI 기본법 조항들을 수정·보완해 '기술 개발 및 혁신 촉진법'으로 전환해야 한다"며 이같이 밝혔다. 한국인공지능·소프트웨어산업협회(KOSA), 한국IT서비스산업협회(ITSA), 한국인공지능법학회가 공동 주최하고, 한국AI서비스학회와 한국정보방송통신대연합(ICT대연합)이 주관한 이 세미나는 지난 22일부터 시행된 AI 기본법에 대한 기업들의 대응 전략을 모색하기 위해 마련됐다. 이날 김 회장은 AI 산업 생태계의 불확실성을 언급하며 AI 기본법이 단순한 규제가 아닌 산업과 사회를 재창조하는 도구가 돼야 한다고 역설했다. 이를 위해 서비스 개발 확산과 정부 지원을 가능하게 하는 근거 규정이 실질적으로 가동돼야 한다는 목소리다. 김 회장은 "AI기본법상 제16~19조에 담긴 업계 지원 근거 규정이 유명무실해지지 않도록 민간이 정부를 강하게 압박하고 목소리 내야 한다"고 강조했다. 또한 그는 "기술 영역보다 10배 이상 큰 서비스 영역에서는 한국이 세계에서 선두가 될 기회가 있다"며 "다소 약하게 규정된 제19조 등을 대폭 강화해 글로벌 시장을 주도해야 한다"고 했다. 마지막으로 김 회장은 "개별 기업의 노력뿐만 아니라, 학회나 위원회 등 민간이 연합해 규제 기준을 넘지 않으면서도 성능이 우수한 알고리즘을 개발하는 등의 공동 노력이 필요하다"고 조언했다.

2026.01.28 17:36이나연 기자

"AI 사업대가 수준 여전히 낮아"…KOSA, 내달 새 가이드 공개

"인공지능(AI) 기술은 하루가 다르게 발전하고 있지만 정작 현장에 적용되는 사업 대가 선정 방식은 10년 전 시스템 통합(SI) 수준에 머물러 있다는 지적이 나오고 있습니다. 우리는 내달 중 AI 특수성을 반영한 새 가이드를 발표할 예정입니다." 안홍준 한국인공지능·소프트웨어협회(KOSA) 본부장은 28일 서울 한국과학기술회관에서 열린 'AI기본법 시행에 따른 관련 산업 생태계 육성 전략 세미나'에서 AI 사업 대가 선정 가이드라인 업데이트 계획을 이같이 밝혔다. '소프트웨어 사업 대가 산정 가이드'는 지난 2011년부터 운영됐다. 그동안 기능점수(FP)나 투입 인력 단가 기준으로 사업비가 책정됐다. 그러나 업계에서는 해당 방식이 고도 전문성이 요구되는 AI 사업 가치를 담아내기에 역부족이라는 비판이 끊이지 않았다. 이날 정원준 한국법제연구원 박사는 "현재 AI 사업은 SI 사업과 유사한 체계를 따르고 있지만 기술 최신성에 비해 프로젝트 추진 방식은 성장하지 못했다"며 "현재 체계를 넘어서는 진일보한 AI 사업 대가 측정 가이드가 절실하다"고 밝혔다. 이어 "특히 AI 사업에서 맨먼스(Man-Month) 방식은 여전히 사용되고 있는 실정"이라며 "AI 프로젝트 불확실성과 특수성으로 인해 여러 가지 문제점이 나오고 있다"고 지적했다. 이같은 지적에 안 본부장은 "우리면 이르면 내달 중 새 가이드를 마련할 것"이라고 밝혔다. 그는 이번 가이드 개편 핵심을 'AI 개발자의 전문성' '시장 현장의 목소리'를 반영한 단가 실현으로 꼽았다. 그러면서 "기존 맨먼스 방식을 보완해 AI 개발자 숙련도와 기술 수준을 반영할 것"이라며 "현재 시장에서 형성된 실제 단가보다 높은 수준의 가이드를 제공할 것"이라고 설명했다. 그는 정부 손잡고 AI 가치를 정당하게 평가받을 수 있는 근본적인 제도를 만들어 가겠다고 말했다. 앞서 국가AI전략위원회는 '정당하고 고평가된 AI 가치평가 모델 수립'을 골자로 한 행동계획을 발표한 바 있다. 안 본부장은 "이는 과학기술정보통신부가 수행해야 할 핵심 과업으로 제안됐다"며 "AI 전략위원회의 권고에 따라 각 부처에서도 실질적인 답변과 대책을 내놓아야 하는 상황"이라고 설명했다. 그는 "우리는 업계 의견을 대량으로 수집해 실질적으로 도움 되는 가치평가 모델을 만들어 가는 데 집중하고 있다"며 "정당한 대가가 보장돼야 좋은 프로젝트가 지속될 수 있을 것"이라고 덧붙였다.

2026.01.28 17:25김미정 기자

AI기본법, 연간 수만 건 문의 쏟아질텐데…지원센터 대응 과제로

인공지능(AI) 산업 육성과 신뢰 확보를 위한 'AI기본법'이 22일부터 본격 시행됐다. 업계에서는 우려와 기대가 공존하는 가운데, 정부가 기업 컨설팅을 위해 운영하는 통합안내지원센터의 행정적 대응 속도가 관건이라는 목소리가 나온다. 정부 지원센터가 연간 수만 건의 규제 준수 문의를 제때 소화하지 못할 경우 현장의 혼란이 커질 수 있다는 지적이다. 유효상 유니콘경영경제연구원장은 22일 서울 강남구 한국과학기술회관에서 열린 'AI 기본법 시행에 따른 산업 생태계 육성전략 세미나'에서 "통계상 1년에 약 20만 개 스타트업이 생긴다"며 "이 중 수만 수천 곳이 '고영향 AI' 해당 여부를 동시에 문의할 때 정부가 한두 달 안으로 빠르게 답해줄 지 의문"이라고 밝혔다. 유 원장은 "스타트업의 98%가 AI 기본법 대응 준비가 미흡하다고 하는 상황"이라며 "정부의 확인 절차마저 지연된다면 기업 성장을 발목 잡는 장벽이 될 것"이라고 경고했다. 한국인공지능·소프트웨어산업협회(KOSA), 한국IT서비스산업협회(ITSA), 한국인공지능법학회가 공동 주최하고, 한국AI서비스학회와 한국정보방송통신대연합(ICT대연합)이 주관한 이 세미나는 AI 기본법 시행을 맞아 기업들의 대응 전략을 모색하기 위해 마련됐다. 유 원장은 이러한 행정적·현실적 한계를 극복하기 위한 대안으로 규제 유예 기간의 과감한 연장을 제안했다. 그는 "단순히 1년 계도 기간을 두는 것으로는 부족하다"며 "진흥 정책은 과감하게 하되, 규제는 유럽연합(EU)의 AI 법이 시행착오를 겪고 대안이 나온 후 도입해도 늦지 않다"고 말했다. 글로벌 규제와의 정합성 문제도 도마 위에 올랐다. 유 원장은 "국내 AI 기본법을 준수한다고 해서 글로벌 규제를 모두 충족하는 것은 아니다"라고 선을 그었다. 유럽 진출을 위해서는 EU AI 법을, 미국 진출을 위해서는 주별 규제를 따로 따라야 하기에 이중 규제 비용이 발생할 수 있다는 의견이다. 기업들을 향해서는 AI기본법 대응을 위한 세 가지 전략을 제시했다. 우선 과학기술정보통신부 지원센터를 통해 자사 서비스의 고영향 AI 해당 여부를 확인하고, 구체적인 가이드라인을 확보해야 한다고 조언했다. 또 규제 대응을 단순 비용이 아닌 신뢰 자본으로 삼아 대기업과의 전략적 협력이나 인수합병(M&A) 기회로 연결할 것을 주문했다. 정부가 과태료 부과를 1년 이상 유예하기로 한 만큼, 이 시기에 기술적 표준과 워터마크 기술을 선제 도입해 신뢰도를 높여야 한다고도 덧붙였다. 또 다른 발표자인 정원준 한국법제연구원 박사는 AI 기본법의 성격이 기존 규제와 근본적으로 다르다는 점을 강조했다. 정 박사는 "과거 인허가 체계는 허가만 받으면 영업할 수 있었지만 AI 기본법은 기업이 스스로 규제 대상인지 판단하고 준수 방법을 찾아야 하는 구조"라고 설명했다. 이러한 자율 규제 성격은 기업에 유연성을 주지만 판단 책임을 기업이 전적으로 지는 만큼 법적 불안정성을 높일 수 있다는 지적이다. 특히 정 박사는 '고영향 AI' 확인 제도의 법적 한계를 짚었다. 그는 "정부가 고영향 AI 해당 여부를 확인해 주는 절차는 어디까지나 행정부의 해석일 뿐"이라며 "추후 재판 과정에서 사법적 판단으로 결과가 뒤집힐 수 있음을 유의해야 한다"고 말했다. 정부 확인을 받았더라도 실제 문제 발생 시 법원이 다르게 판단할 수 있다는 의미다. 글로벌 규범과의 차이에 대한 명확한 인식 필요성도 언급됐다. 정 박사는 "한국은 고영향 AI 사업자 여부가 규제 기준이지만 유럽은 전체 사업자를 위험 등급별로 나눠 차등 규제한다"며 "이 차이를 이해하지 못하면 해외 진출 시 낭패를 볼 수 있다"고 설명했다. 끝으로 정 박사는 "의료와 자율주행 등 개별 영역에서 구체적인 AI 안전성·투명성 의무 법안들이 이어질 것"이라며 "현행법은 사업자 규모에 따른 차등 규제가 미비해 향후 시행령 논의 시 기업 규모를 고려해야 한다"고 부연했다.

2026.01.28 16:53이나연 기자

KOSA 안홍준 본부장 "AI 신뢰·안전은 핵심 경쟁력…현장 규제 혼선 없어야"

"인공지능(AI) 기본법 시행 후 AI 신뢰·안전은 핵심 경쟁력으로 떠오르고 있습니다. 이에 기업은 자신의 AI가 '고영향 AI'에 해당하는지부터 확인해야 합니다. 우리는 AI기본법 지원 데스크를 통해 기업에게 고영향 AI 해당 여부 등 규제 정보를 정확히 알리겠습니다." 28일 안홍준 한국인공지능·소프트웨어산업협회(KOSA) 본부장은 28일 서울 한국과학기술회관에서 열린 'AI기본법 시행에 따른 관련 산업 생태계 육성 전략 세미나'에서 이같이 밝혔다. 안 본부장은 "AI 신뢰성·안전성 인증은 미래 경쟁력 요소로 자리 잡을 것"이라며 "기업은 검증과 인증을 통해 안전한 AI임을 입증하는 것이 향후 글로벌 시장에서 차별화 수단이 될 수 있을 것"이라고 강조했다. 안 본부장은 안전한 AI는 비용 부담이 아니라 브랜드 가치와 마케팅 경쟁력을 높이는 요소로 작용할 가능성이 크다고 보고 있다. 그는 "자동차 산업에서 안전장치가 품질 경쟁력이 된 것처럼 AI 역시 같은 흐름을 따를 것"이라고 분석했다. 정부는 지난 22일 시행한 AI기본법에 '고영향 AI'를 별도 규정했다. 인간 생명, 신체, 기본권에 중대한 영향을 미칠 수 있는 AI를 고영향 AI로 정의했다. 해당 여부에 따라 사업자 의무를 차등 적용할 방침이다. 이에 따라 기업은 자사 AI가 고영향 AI에 해당하는지 사전 검토하는 것이 필수 과제로 떠올랐다. 실제 협회는 AI기본법 시행 후 기업 대상으로 고영향 AI 해당 여부 사전 검토와 대응 전략 안내에 나섰다. AI 기본법 지원 데스크를 통해 기업이 자사 AI가 규제 대상에 해당하는지 판단할 수 있도록 지원할 방침이다. 안 본부장은 "우리는 기업 규제 불확실성을 줄이기 위해 노력할 것"이라며 "AI기본법 시행으로 발생하는 현장 혼선을 최대한 줄일 것"이라고 강조했다.

2026.01.28 16:48김미정 기자

LGU+, AI기본법 시행 맞춰 '전사 대응 체계' 가동

LG유플러스는 AI 기본법에 맞춰 AI 개발 이용 사업자로서의 의무 사항을 점검하고, 전사 관리 체계를 가동한다고 25일 밝혔다. 이는 AI 서비스 전반에서 이용자 보호와 신뢰성을 강화하고, 법 시행 초기부터 안정적인 준수 체계를 구축하기 위한 조치다. LG유플러스는 고객센터와 멤버십 통합 앱 'U+one'을 비롯한 인공지능 기본법 적용 대상 생성형 AI 서비스에 대해 법에서 요구하는 투명성 확보 의무 사항을 점검했다. 회사는 이용자 보호를 핵심 원칙으로 삼고, 이 서비스가 AI 기반으로 운영된다는 사실을 이용자가 명확히 인지할 수 있도록 조치했다. 구체적으로 AI 기본법 적용 대상 서비스가 AI에 기반해 제공된다는 점을 이용약관 등에 반영해 사전 고지가 이뤄지도록 했으며, AI가 생성한 결과물임을 명확히 표시하는 등 투명성 확보 의무를 이행했다. 또한 전사 임직원이 관련 법을 이해하고 준수할 수 있도록 교육 활동을 강화했다. 아울러 LG유플러스는 CTO, 정보보안센터, 법무실 등 유관 부서가 참여하는 AI 리스크 관리 체계를 운영해 AI 서비스의 기획, 개발, 운영 전 과정에서 법 준수가 이뤄질 수 있도록 체계적으로 관리할 방침이다. 앞서 LG유플러스는 지난해 6월 국제표준인 ISO/IEC 42001(인공지능경영시스템) 인증을 획득해 AI 기술 개발과 서비스 운영 전반에서 글로벌 수준의 윤리성과 신뢰성을 공식적으로 인정받은 바 있다. LG유플러스 관계자는 “AI 기본법 시행에 따라 기술 혁신과 함께 고객 신뢰를 기반으로 한 책임 있는 활용이 요구되는 시점”이라며 “AI를 통해 차별적 고객가치와 탁월한 고객경험을 제공하는 데 집중하고, 미래 고객을 위한 선택으로서 도전과 도약을 이어가겠다”고 말했다.

2026.01.25 09:00박수형 기자

"글로벌진출 위해 AI신뢰 갖춰야...정부, 기업 지원하겠다"

류제명 과학기술정보통신부 차관이 “정부는 우리 AI 기업들이 신뢰 기반과 관련한 역량을 갖출 수 있도록 지원하겠다”고 밝혔다. AI 기본법 시행 이후, 류 차관은 SNS를 통해 “(AI를) 신뢰할 수 있는 안전장치는 글로벌 규범화가 이뤄지는 추세”라며 “우리 기업들이 글로벌 시장에 진출하기 위해서는 국내 규범과 무관하게 관련 역량을 갖추는 게 필요하다”고 주장했다. 세계 최초로 AI 기본법이 시행된 가운데, 법의 주요 골자가 기술 발전 진흥에 있으나 일부 최소 안전장치를 위해 마련된 조항을 두고 한국은 규제부터 나선다는 우려의 시선에 대해 이를 총괄하는 최고 공직자의 심경을 공유한 것이다. 류 차관은 “AI기본법의 정식 명칭은 '인공지능의 발전과 신뢰 기반 조성 등에 관한 기본법'으로 대부분의 조항은 인공지능의 발전을 지원하기 위한 조항”이라며 “후단의 '신뢰기반 조성'과 관련된 조항은 입법당시 대원칙이었던 필요 최소한의 안전장치 확보라는 여야와 사회적 합의를 반영한 조항”이라고 설명했다. 이어, “(신뢰기반 조성에 대한 내용은) 자동차의 안전장치인 브레이크에 해당하는 조항이고, 이마저 국민 생명과 기본권이 침해될 가능성 하에서만 작동할 수 있도록 설계했다”며 “AI기술 발전 추세를 반영해 1년 이상 계도기간을 두고 적용을 유예하기로 했고 EU, 중국, 미국 캘리포니아에서 (이미) 규제를 적용하고 있어서 우리나라가 인공지능 규제를 시행하는 첫번째 국가라는 지적은 사실과 다르다”고 강조했다. '최소한의 안전장치'라는 이유에 대해 “안전성 확보 의무는 아직 글로벌 프런티어 AI기업도 이르지 못한 초지능급 인공지능이 급격히 도래했을 때를 대비한 조항으로, 누적연산량 10의 26승 정도의 초지능 AI는 현재 없다”면서도 “AI 기술발전 속도가 빨라 언제라도 현실이 될 수도 있는 가능성 때문에 이 정도의 고도화된 AI 기술을 개발한 AI 기업이 안전성 확보를 위한 방안을 마련하도록 규정한 것”이라고 말했다. 투명성 확보 조항 중 워터마크와 관련, “이미 글로벌 AI기업 뿐만 아니라 국내 AI기업들도 기술적으로 가시적, 비가시적으로 표시하고 있거나 표시할 수 있는 기술을 이미 확보하고 있다”며 “이러한 표시의무는 중국의 경우 이미 지난해 9월부터 시행하고 있으며, EU와 미국 캘리포니아주도 8월2일부터 전면 시행한다”고 했다. 그러면서 “AI 기술발전 추세와 글로벌 규제 동향을 모니터링 해가면서 다른 나라보다 규제를 가장 먼저 적용하는 일은 없도록 할 것”이라며 “AI혁신이 가속화되도록 지원해 가면서도 국민의 생명과 안전, 기본권을 침해할 가능성에 대해서는 주도면밀하게 대비하고 대처하겠다”고 밝혔다. 류 차관은 또 “인류사에 가장 파급력이 큰 기술로 평가되는 인공지능을 제도화하는 길은 전인미답의 길”이라며 “정부는 글로벌 경쟁이 치열한 AI 경쟁에서 우리 기업들이 길을 잃지 않고 혁신의 엑셀을 과감하고 자신있게 밟을 수 있도록 길을 밝히고 장애물을 제거하는 등대 역할을 다하겠다”고 거듭 반복했다. 어이, “앞으로도 이 법이 우리 사회의 다양한 가치와 의견을 담도록 눈 내리는 소리를 듣는 청설(聽雪)의 마음가짐으로 다양한 의견에 귀를 기울이겠다”며 “지난 1년 동안 시행령과 고시, 방대한 가이드라인 작업에 헌신적으로 참여해 준 과기정통부 인공지능정책실 직원들과 관계기관, 산학연 관계자분들 모든 분께 감사와 존경의 마음을 드린다”고 덧붙였다.

2026.01.25 08:30박수형 기자

세계 첫 AI기본법 시행한 한국…외신 평가는?

한국 정부가 지난 22일 인공지능(AI)기본법을 시행한 가운데 외신들은 엇갈린 반응을 내놓고 있다. 이번 법안이 AI 산업 진흥 기틀을 마련했다는 평가가 등장한 반면 인프라 규제에 대한 책임은 회피했다는 시각도 공존하고 있다. 23일 외신은 한국 AI기본법을 미국과 유럽연합(EU), 일본 등 각국 내 AI 정책과 비교·분석하며 이런 평가를 한 것으로 나타났다. 로이터통신과 AFP는 한국이 AI법을 시행한 첫 국가라는 점을 중점적으로 보도했다. 두 매체는 딥페이크·허위정보 대응 조항과 고영향 AI에 대한 인간 감독 원칙 명시를 통해 안전과 신뢰 확보에 방점을 찍었다고 분석했다. 일부 외신은 규제 부담에 대한 우려 목소리를 내기도 했다. 일부 외신은 규제 리스크가 혁신 속도를 저해할 가능성을 짚었다. 특히 AI 스타트업 비용 부담을 문제로 지적했다. 타임스오브인디아는 "스타트업들이 법 조항 모호성과 시행 준비 부족으로 불안감을 표출하고 있다"며 "일부 기업은 법 준수를 위해 외부 법률 자문을 받는 등 추가 비용을 감수해야 할 수 있다"며 "정식 준수 계획을 마련한 스타트업도 극소수"라고 보도했다. EU·미국 상황과 비교·분석…"일본, AI 표시 의무 없어" 언급 아시아·태평양(APAC) 지역 언론은 한국 AI기본법을 'EU AI 액트'와 비교 분석했다. 이들은 고위험 AI 정의 방식과 딥페이크 대응 방식에서 두 법 차이점을 짚었다. 싱가포르 매체 스트레이츠 타임스는 한국 AI기본법과 EU AI 액트 핵심 차이를 '고위험 AI' 개념 설정에서 찾았다. 해당 매체는 EU가 의료·채용·법 집행 등 활용 분야 위험도 기준으로 규제 대상을 정하는 반면 한국은 누적 학습 연산량 등 기술적 임곗값(threshold)으로 고성능 AI를 구분한다는 점을 설명했다. 스트레이츠 타임스는 "한국 안전 요건은 극히 제한적인 일부 첨단 모델에만 적용될 것"이라며 "실제 한국 정부는 국내외 막론하고 현재 어떤 AI 모델도 해당 규제 기준을 충족하지 않는다는 입장"이라고 언급했다. 이어 "EU는 수년에 걸친 전환 기간을 두고 단계적으로 규제를 시행 중"이라고 덧붙였다. 일본 IT 매체 기즈모도 재팬은 한국 딥페이크 대응 방안을 소개했다. 해당 매체는 한국 AI기본법을 AI 생성물 출처를 이용자가 명확히 인식하도록 만드는 제도적 장치로 규정했다. 기술 자체를 억제하기보다 표시·고지 중심으로 신뢰 문제에 접근했다고 봤다. 특히 이미지·텍스트·음성 등 사람이 만든 것과 구분하기 어려운 콘텐츠에 표시 의무를 부과한 조항을 핵심으로 짚었다. 규제 초점을 기술 통제보다 이용자 판단권과 정보 선택권 보호에 둔 신호로 해석했다. 기즈모도 재팬은 "딥페이크 전면 규제에 가까운 EU와 달리 한국은 고지·표시를 중심으로 한 단계적 대응을 선택했다"고 봤다. 이어 "일본에는 아직 유사한 법적 표시 의무가 없다"고 덧붙였다. "한국 AI기본법, 에너지·환경 이슈 빠져" 미국 언론은 한국이 AI 인프라 확산에 따른 에너지·환경 부담을 직접적으로 다루지 않았다는 점을 지적했다. AI 수요 증가로 데이터센터와 전력 사용이 급증하는 상황에서 자원 관리 방안이 법에서 빠졌다는 평가다. 미국 에너지 전문매체 E플러스E리더는 "한국은 AI 시스템 에너지 소비나 효율 기준, 전력망 용량과 계통 연계 요건, 데이터센터 냉각을 위한 물 사용, AI 인프라와 연계된 온실가스 배출, 기후 리스크 등을 포괄적으로 규율하지 않았다"고 지적했다. 그러면서 "AI 데이터센터 개발을 장려하는 정책 기조와 달리 환경·에너지 요소는 제도적으로 분리됐다"고 진단했다. 해당 매체는 이런 접근 방식이 미국의 AI 규제 방식과 유사하다고 짚었다. 실제 미국은 에너지 사용이나 환경 영향을 규율하는 연방 차원 AI 법을 내지 않은 상태다. 다만 AI로 인한 전력·환경 문제를 데이터센터 인허가, 전력 유틸리티 규제, 환경 관련 법·규정 등 인프라 관리 체계에서 사후적으로 다룬다. E플러스리더는 "한국은 에너지와 환경 문제를 기존 인프라·환경 정책 영역에 맡기는 분업형 규제 구조를 택했다"고 해석했다. 이어 "AI 인프라 규모가 빠르게 커질수록 향후 에너지·기후 이슈를 법·제도적으로 어떻게 연결할지가 새로운 과제로 떠오를 것"이라고 전망했다.

2026.01.23 16:49김미정 기자

"AI기본법이 기술신뢰 못 키워…오류 통제·책임 소재 분명해야"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 올해 에이전틱 인공지능(AI)이 실행 단계로 접어들 것이란 전망이 이어지면서 오류·사고를 통제할 수 있는 '신뢰 가능한 AI' 구축 필요성이 커지고 있다. 자율성이 높아질수록 성능 경쟁만으로는 AI 생태계를 확보하기 어렵다는 이유에서다. 23일 AI 업계에 따르면 올해 기점으로 AI 에이전트가 단순 보조 도구를 넘어 실제 의사결정과 행동을 수행하는 단계로 진입하면서 기술 신뢰성과 윤리에 대한 요구 수준이 빠르게 높아지고 있다. 에이전틱 AI는 챗봇처럼 질의응답 하는 수준을 넘어선 AI다. 사용자가 명령을 요청하기만 하면 AI가 스스로 계획을 세우고 여러 도구나 시스템을 활용해 요청을 수행할 수 있다. 필요에 따라 여러 AI 에이전트가 역할을 나눠 협력하거나 외부 데이터·소프트웨어(SW)·서비스와 연동해 실제 행동까지 이어지는 것이 특징이다. 이에 오류가 발생할 경우 단순한 답변 실수가 아니라 현실 세계에 직접적인 피해로 이어질 수 있다는 점에서 신뢰성과 통제 문제가 중요해지고 있다. 전문가들 역시 에이전틱 AI 확산이 단순 기술 진화가 아니라 위험 관리를 준비하는 단계로 보고 있다. 상명대 이청호 계당교양교육원 교수는 "AI 에이전트가 인간 명령 맥락을 오해할 수 있다"며 "겉으로는 지시에 따르는 듯 보이면서 다른 목적을 추구하는 '기만적 가치 정렬' 위험이 여전히 존재한다"고 지적했다. 다중 에이전트가 동시 작동하는 환경에서 AI 신뢰성 문제가 발생할 수 있다는 경고도 나왔다. 박지환 씽크포비엘 대표는 "AI 신뢰성 하락은 개별 에이전트 성능이 아니라 에이전트 목표 충돌과 질서 부재"라고 지적했다. 그는 "에이전트가 늘어날수록 작은 판단 오류가 연쇄적으로 증폭될 수 있다"며 "규칙 간 충돌로 시스템 전체가 실패할 수 있다"고 설명했다. 그는 피지컬 AI처럼 실제 행동하는 에이전트 환경에서는 AI 신뢰성이 필수 요소라고 주장했다. 그는 "수백 개 센서 데이터를 밀리초 단위로 처리하는 환경에서는 '필요하면 사람이 개입한다'는 전제가 현실적으로 어렵다"며 "이럴 경우 핵심 쟁점은 AI 성능이 아닌 책임 소재일 것"이라고 강조했다. 이어 "사고 이후 원인을 분석하는 것보다 사전에 누가 멈출 수 있었고, 어떻게 멈추도록 설계됐는지가 훨씬 중요해질 것"이라고 예측했다. AI 신뢰성, 단순 선언 넘어야...검증 가능성 확인 필요 업계는 AI 신뢰성이 선언에 그치지 않고 현장에서 실질적으로 구현돼야 한다는 데 동의했다. 신뢰 강화 정책이 산업 현장에 적용되는지 점검할 수 있는 실증·파일럿 중심 정책 설계가 필요하다는 설명이다. 실제 국내 AI 기업은 신뢰성을 실제 검증하고 현장에 적용할 수 있는 체계 구축에 나서고 있다. 씽크포비엘은 국내 최초로 AI 신뢰성 전문 인증인 CTAP 제도를 운영하기 시작했다. 이를 통해 AI 기술 위험 식별·설명 가능성·운영 통제 역량을 갖춘 실무 인력 양성에 나서고 있다. 법이 요구하는 기준을 실제로 해석하고 구현할 수 있는 전문 인력이 필요하다는 판단에서다. AI 평가·검증 영역에서도 움직임이 나타난다. 셀렉트스타는 학습 데이터 구축과 모델 평가 기반으로 실제 서비스에 적용 가능한 AI를 검증하고 있다. 단순 데이터 가공을 넘어 편향, 품질, 신뢰성을 종합적으로 점검하는 방식이다. 셀렉트스타 평가 체계를 통해 포티투마루가 국내에서 처음으로 인증을 받기도 했다. 정부 산하 연구기관도 업계 행보를 주시하고 있다. AI안전연구소 관계자는 "민간서 추진 중인 AI 인증 제도를 모니터링하고 있다"며 "우리는 민간 AI 인증 제도를 관리·연계하는 역할을 검토 중"이라고 밝혔다. 전문가들은 AI기본법 시행만으로 신뢰성을 키울 수 없다고 입을 모았다. 정부 역할 전환도 필요하다는 지적이다. 익명을 요청한 한 AI 업계 관계자는 "AI기본법 제정이나 가이드라인 마련만으로는 한계가 분명하다"며 "AI법으로 기준은 마련됐지만, 이를 현장에서 판단·운영할 여력은 없는 상태"라고 평했다. 그러면서 "AI 신뢰성을 윤리 선언이나 권고가 아닌, 위험 평가·검증·운영 통제를 수행하는 구체적 직무와 책임으로 제도화해야 할 것"이라고 당부했다.

2026.01.23 14:45김미정 기자

정부, AI기본법 지원데스크 가동…업계 "지속성 보장 필요"

정부가 인공지능(AI)기본법 시행에 맞춰 현장 혼선을 줄이기 위한 지원 체계를 가동했다. AI 중소기업과 스타트업이 법·기술 대응 과정서 겪는 부담을 줄이는 것이 주요 목표다. 과학기술정보통신부는 기업 법률 컨설팅과 기술자문을 지원하는 'AI기본법 지원데스크'를 서울 송파구 IT벤처타워에서 개소했다고 22일 밝혔다. 지원데스크는 AI기본법 관련한 산업계 애로사항 해소를 목적으로 정식 운영에 들어갔다. 법·제도, 기술 분야 전문 인력이 참여해 기업 맞춤형 상담과 안내를 제공할 방침이다. 상담 내용은 비공개를 원칙으로 운영된다. 일반 상담은 평일 기준 72시간 내 회신을 목표로 하고, 법적 검토가 필요한 사안은 14일 내 답변할 예정이다. 지원데스크 운영에는 한국지능정보사회진흥원(NIA)와 AI안전연구소, 한국정보통신기술협회(TTA), 정보통신정책연구원(KISDI) 등이 전문기관으로 참여한다. 정부는 지원데스크 상담 내용 토대로 주요 질의응답 사례집을 제작해 기업에 배포할 계획이다. 또 스타트업 업계와 협력해 지역별로 현장을 찾아가는 AI기본법 설명회도 연다. 이날 개소식에는 류제명 과기정통부 제2차관을 비롯해 조준희 한국인공지능소프트웨어산업협회 회장, 손승현 TTA 회장, 김명주 AI안전연구소장 등이 참석해 운영 상황을 점검했다. 류제명 과기정통부 제2차관은 "AI기본법은 한국 AI 산업 발전과 AI 기본사회 실현 핵심"이라며 "법이 현장에 잘 안착될 수 있도록 지원데스크가 산업계 길잡이 역할을 할 것"이라고 밝혔다. 업계 "실질적 도움" 기대…"지속성 보장 필요" 국내 AI 업계는 정부 지원데스크 운영에 대해 기대감을 비쳤다. 다만 AI기본법 유예기간이 최소 1년인만큼 지속 가능한 지원이 보장돼야 한다는 목소리도 나왔다. 정부는 AI기본법 유예기간을 최소 1년을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정서 겪는 혼란을 줄이려는 조치다. 제재는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 익명을 요청한 국내 AI 스타트업 관계자는 "현재 과기정통부뿐 아니라 중소벤처기업부까지 연이어 설명회를 열고 있어 현장 이해도가 높아지고 있다"며 "지원데스크가 운영되면 법 해석이나 대응 과정에서 기업에 실질적 도움이 될 것으로 기대한다"고 말했다. 다른 AI 업계 관계자는 지원데스크 운영이 지속가능할 필요가 있다고 당부했다. 관계자는 "현재 국내 대기업은 AI기본법 대응을 위한 준비를 자체적으로 시작한 것으로 보이지만, AI 중소·스타트업은 정부 지원데스크에 기대감을 걸고 있다"며 "AI기본법 유예기간이 최소 1년인 만큼 지속가능성 있는 컨설팅 지원이 필요할 것"이라고 당부했다. 이어 "기업뿐 아니라 정부도 AI기본법 세부 사항을 명확히 내리지 않는 상황"이라며 "이에 대한 가이드라인도 지연 없이 이뤄져야 할 것"이라고 덧붙였다.

2026.01.22 16:31김미정 기자

국가AI전략위, 조직 개편 '임박'…"분과 신설·10명 증원"

국가인공지능(AI)전략위원회가 AI기본법 시행에 맞춰 조직 확장에 나선 것으로 전해졌다. 22일 IT 업계에 따르면 국가AI전략위는 AI법 시행 후 법적 권한을 가진 집행 기구로 격상하면서 조직 규모와 분과 체계 전반을 선볼 예정이다. 정부는 이달 22일부터 AI기본법을 공식적으로 시행한다. 이에 따라 국가AI전략위는 정부 기관에 시정 요구를 할 수 있는 법정 위원회 지위를 갖게 된다. AI 정책 이행과 조정을 직접 다루는 구조로 격상한 것이다. 앞서 임문영 AI전략위 부위원장은 지난주 지디넷코리아를 만나 조직 확대 계획을 알렸다. 임 부위원장은 "우리는 AI기본법 시행 후 기존 자문위원회와는 다른 의결권을 갖게 될 것"이라며 "조직을 기존 50명에서 60명으로 10명 증원할 것"이라고 설명했다. 이날 임 부위원장은 분과 구성도 바꿀 것이라고 예고했다. 임 부위원장은 "현재 8개 부문으로 구성된 공식 분과는 추가 신설을 통해 기능과 역할을 확대할 것"이라고 밝혔다. 그는 조직 개편 방향성을 AI 기본 사회와 윤리·실천 부문 강화에 맞출 것이라고 강조했다. 기술 중심 논의에 더해 사회적 영향과 책임 이행을 다루는 구조를 보강하겠다는 구상이다. 구체적인 개편안은 청와대와 협의 중이다. AI전략위 관계자는 "아직 내부 검토 단계"라며 "세부 내용은 확정되지 않았다"고 지디넷코리아에 설명했다.

2026.01.22 15:29김미정 기자

李대통령, AI기본법 시행에 "벤처·스타트업 적응 지원해야"

이재명 대통령은 22일 AI 기본법 시행과 관련해 “업계 우려를 경청하며 상대적으로 여력이 부족한 벤처 스타트업이 잘 적응하도록 지원해달라”고 밝혔다. 이 대통령은 이날 오후 청와대에서 수석보좌관회의를 주재하면서 “제도적 지원을 통해 산업 잠재 역량을 최대한 키우고 예상되는 부작용을 선제적으로 관리하는 노력이 있어야 한다”며 이같이 말했다. AI 기본법은 국가 AI 경쟁력을 높이자는 뜻에서 지난 2024년 12월 여야 합의로 국회를 통과한 뒤 국무회의 통과 이후 1년이 지나 이날부터 시행됐다. 산업 진흥과 함께 최소한의 안전장치를 담는 게 주요 입법 취지다. 이 대통령은 “AI는 이미 경제 영역을 넘어 우리 사회 전반, 삶의 전반을 근본적으로 재편하는 핵심 동력이 되고 있다”며 “필요한 건 합리적이고 투명한 정책 집행을 통해 현장의 불필요한 혼란을 최소화하는 것”이라고 강조했다. 이어, “새로운 기술에 대한 제도가 원래 의도와는 달리 현장의 혁신 의지를 위축하는 요인으로 작용하는 경우도 가끔 있다”며 “관계부처, 청와대와 비서진들은 업계의 우려 상황을 경청하며 상대적으로 여력이 부족한 벤처 스타트업 등이 새로운 제도에 잘 적응할 수 있도록 지원해 달라”고 주문했다.

2026.01.22 15:21박수형 기자

"규제 사정권 밖이라지만"…AI 기본법 첫날, 책임 경계에 업계 '촉각'

인공지능(AI) 생태계를 포괄적으로 규율하는 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 오늘(22일)부터 전면 시행에 돌입했다. 이를 기점으로 한국은 글로벌 AI 규범 수립의 선두에 섰다. 유럽연합(EU)의 'AI 액트'가 먼저 제정되긴 했으나 핵심 규제 조항 시행은 오는 8월부터다. 22일 과학기술정보통신부에 따르면 AI 기본법은 산업 진흥 기반과 신뢰 확보 장치를 아우르는 법률이다. 국가AI전략위원회 법적 권한 강화 등 거버넌스 체계 구축·학습용 데이터 및 컴퓨팅 인프라 지원·AI 혁신단지 조성 및 글로벌 협력 강화 등 지원 체계를 마련하는 한편, 생성형 AI 투명성 확보 의무·고성능 및 고영향 AI에 대한 안전성 의무·AI 영향평가 제도 등 안전 장치를 담았다. 규제 의무, 핵심은 생성형·고영향·고성능 AI 기본법 핵심 규제 조항은 크게 투명성 확보 의무와 안전성 확보 의무로 나뉜다. 투명성 의무는 생성형 AI가 대상이다. 생성형 AI 서비스 제공자는 AI로 생성된 결과물임을 표시해야 하며, 이용자가 AI 기반 서비스를 사용하고 있다는 사실을 사전에 고지해야 한다. 당초 기계만 인식 가능한 메타데이터 삽입도 허용됐으나, 딥페이크 식별 우려가 제기되면서 시행령 개정을 통해 안내 문구나 음성 등 가시적 표시를 최소 1회 이상 제공하도록 강화됐다. 안전성 의무는 '고성능 AI'와 '고영향 AI' 두 갈래로 나뉜다. 고성능 AI는 학습에 사용된 연산량이 10의 26승 플롭스(FLOPS) 이상인 모델을 의미하며, 사업자는 개발 단계부터 생애주기 관리, 안전성 보고서 제출 등의 의무를 진다. 고영향 AI는 의료·에너지·채용·대출심사 등 국민의 생명이나 권리에 중대한 영향을 미치는 분야에서 사용되는 AI를 말한다. 사람이 개입하는 관리 체계 구축과 안전성 확보 조치가 요구된다. 정부는 현재 고성능 AI 기준을 충족하는 국내 모델은 없으며, 고영향 AI 역시 완전 자율주행(레벨4 이상) 정도만 해당된다고 설명했다. 과기정통부 관계자는 "전 세계적 흐름인 생성형 AI 결과물 표시 의무를 제외하면 당장 규제 대상이 되는 사례는 극히 드물다"며 "최소 1년 이상 규제 유예를 운영하고 이 기간 조사나 과태료 부과 없이 AI 기본법 지원 데스크를 통한 컨설팅을 제공하겠다"고 강조했다. 업계 "책임 소재 여전히 안갯속" 이처럼 정부의 '최소 규제' 약속에도 불구하고, 업계는 불명확한 규제 기준과 책임 주체 문제가 가져올 잠재적 위험에 촉각을 곤두세우는 분위기다. 한 업계 관계자는 "AI 투명성 관련해선 아직도 행위 주체가 명확하지 않은 부분이 남아 있다"고 지적했다. AI 기본법은 생성형 AI 서비스 제공자를 투명성 의무 대상으로 규정하지만, 실제 이용 과정에서 워터마크가 삭제되거나 훼손될 경우 책임 소재가 불분명하다는 것이다. 이 관계자는 "수범 대상 사업자는 서비스 제공 사업자까지만이라 이용 단계에서 일어나는 삭제나 훼손에 대해 처벌이 없다"면서도 "정보통신망법 등 AI 기본법 개정안들이 많이 올라오고 있어 어느 사업자에게 책임이 넘어갈지 불명확하다"고 우려했다. 사업자 범위 불확실성도 문제로 지적됐다. 업계 관계자는 "응용 프로그램 인터페이스(API)를 개발하면 무조건 서비스 제공 사업자"라면서도 "다른 사의 API를 쓸때 명확하게 이용자가 되는 건지 기준이 아직 명확하게 보이지 않는다"고 말했다. 구체적인 표시 방식이나 주체 범위가 시행령을 넘어 고시나 가이드라인으로 위임된 점이 사업자 부담을 키운다는 목소리도 있다. 업계 관계자는 "사업자로선 시행령, 고시, 가이드라인 세 개를 다 보면서 어떤 사례에 해당하는지 스스로 공부하고 규제에 대응해야 한다"며 "일반적인 법 체계에서 사전에 리스크를 계산하기가 상당히 어렵다"고 설명했다. '고성능=고위험' 아냐…구체적인 대안 마련 촉구 안전성 확보 의무 기준이 되는 10의 26승 플롭스 이상 고성능 AI 모델 기준에 대해서도 근본적인 의문이 제기됐다. 성능(연산량)과 위험이 반드시 비례하는 것은 아니라는 이유 때문이다. 업계 관계자는 "10의 26승 플롭스 이상인 고성능 AI 모델이 사회적으로 위험한가를 따져보면 무조건 그렇지만은 않다"며 이를 보완할 다른 기준이 필요하다고 피력했다. 또 다른 업계 관계자도 "정부가 다양한 판단 근거에 따라 AI 모델 위험성을 살핀다는데 어떤 형태로 할지 모른다"며 "고성능 AI 서비스가 딥페이크를 잘 만드니까 위험하다고 판단하는 건 너무 섣부른 판단"이라고 비판했다. 이어 "위험성 판단 여부 관련해 정부가 명확한 기준을 주지 않으면 사업자들은 개발 의지가 없어질 수 있다"고 우려했다. 과기정통부는 해당 요소가 향후 불거질 위험에 선제 대응하는 하나의 판단 장치일 뿐, 고성능 AI 모델을 가르는 절대적인 기준이 아니라는 입장이다. 다만 현재로선 다른 대안적 기준이 제시되지 않고 있다. 결국 AI 기본법이 산업 발전의 기틀이 될지, 아니면 불확실성의 족쇄가 될지는 향후 하위 법령과 가이드라인이 얼마나 명확하게 마련되느냐에 달려있다는 게 업계 중론이다. 김경만 과기정통부 AI정책실장은 "정부도 AI 기본법이 완전하다고 생각하지 않는다"며 "국회 통과 당시 언급했던 '개문발차(開門發車)'라는 말처럼 일단 조금씩 운전해 보며 부족한 점을 보완하고 사회적 합의를 축적하겠다"고 말했다.

2026.01.22 10:12이나연 기자

국가AI전략위, AI 기본법 심의·의결·권고 나선다

국가인공지능(AI)전략위원회가 국가 AI 정책 컨트롤타워로서 역할을 강화한다. 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)' 시행과 함께 위원회 운영 근거와 정책 총괄·조정에 필요한 기능 등이 법률에 규정되면서다. 국가AI전략위원회는 기존 대통령령에서 법률에 기반하는 법정위원회로 전환된다고 21일 밝혔다. 먼저 위원회 구성 및 운영과 관련한 주요 사항이 법률에 명시된다. 대통령을 위원장으로 해 관계 중앙행정기관의 장과 민간 전문가가 참여하는 민·관 협력 구조가 법적으로 확립됐다. 또 심의·의결, 권고·의견 표명 등 위원회 주요 기능이 법률에 명시되며 범정부 AI 정책 총괄·조정을 수행하기 위한 법적 권한이 강화된다. 위원회는 AI 관련 국가 비전 수립, AI 정책·사업의 부처 간 조정, 부처별 이행점검 및 성과관리, AI 투자 방향 설정 및 전략 수립 등을 포함해 주요 정책 사항을 심의·의결할 법적 권한을 갖는다. 위원회는 국가기관등의 장 및 AI사업자 등에 대해 올바른 AI 사용과 AI윤리 실천 등에 관한 권고 또는 의견을 표명할 수 있다. 국가기관 등은 3개월 이내에 개선방안을 수립해 위원회에 보고해야 한다. 아울러 AI 주요 시책 수립 및 효율적 추진을 위해 위원회 내 운영 중인 인공지능책임관협의회(CAIO협의회)가 법정 협의회로 승격된다. 현재 CAIO협의회는 AI미래기획수석비서관을 의장으로 하며 관계 부처 차관급 공무원인 AI책임관으로 구성돼 있다. 임문영 부위원장은 "법정 위원회로의 전환은 위원회가 범정부 차원의 최상위 AI 전략을 논의하는 법정 기구로 출범해 국가 정책 거버넌스가 법적으로 완성된 것을 의미한다"고 말했다. 이어 "법률에 근거한 권한을 바탕으로 강력한 추진력을 통해 국가 역량을 결집해 AI 대전환 시대를 이끌겠다"고 강조했다.

2026.01.21 16:35이나연 기자

AI 기본법 시행 코앞...KT, '책임있는 AI' 체계 강화

오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'이 시행되는 가운데, KT가 안전과 신뢰에 기반을 둔 AI 체계를 강화한다. KT는 AI 기본법 시행 등 제도 변화 속에서 '책임있는 AI' 체계를 강화하고 있다고 21일 밝혔다. AI가 의사결정과 실행 과정에 직접 관여하는 '에이전틱 AI'가 확대되면서, 안전성과 신뢰성 확보가 중요하다는 판단에서다. 그간 KT는 AI 윤리를 AICT 중심 경영 핵심 가치로 설정하고 전사 역량을 결집해왔다. 지난해 '책임감 있는 AI 센터(RAIC)'라는 전담 조직을 구축하고, 최고책임자(CRAIO)를 임명했다. AI 기획, 개발, 운영, 활용 전 과정에 5대 핵심 원칙인 책임성, 지속가능성, 투명성, 신뢰성, 포용성을 적용했다. 기술 측면에선 AI 위험을 검토해 자체 안정성 기준을 수립했다. AI 위험을 식별, 평가, 완화하는 가이드라인을 발간하고, 이를 기반으로 전주기 관리 체계를 구축했다. AI 유해 응답을 실시간으로 차단하는 'AI 가드레일'도 운영하고 있다. 이 체계를 바탕으로 KT 자체 AI 모델 '믿:음 K 2.0 Base'는 한국정보통신기술협회로부터 '인공지능 신뢰성 인증 2.0'을 획득했다. 배순민 KT RAIC CRAIO는 “앞으로도 신뢰할 수 있는 AI 기술을 기반으로 국내 AI 산업의 건강한 성장과 이용자 신뢰 확보에 기여하겠다”고 밝혔다.

2026.01.21 15:22홍지후 기자

정부, AI 투명성 기준 구체화…의무 이행 가이드 공개

정부가 오는 22일 인공지능(AI)기본법 시행을 앞두고 AI 투명성 기준을 구체화했다. AI 생성물에 대한 사회적 신뢰를 높이고 현장 혼선을 줄이겠다는 취지다. 과학기술정보통신부는 AI기본법 제31조에 규정된 투명성 확보 의무의 세부 이행방안을 담은 'AI 투명성 확보 가이드라인'을 공개했다고 21일 밝혔다. AI기본법은 AI 산업을 체계적으로 육성하고 안전한 활용 기반을 조성하기 위해 지난해 1월 21일 제정됐다. 다만 정부는 최소 1년 이상의 계도기간을 운영해 해당 기간 동안 투명성 조항에 대한 사실조사와 과태료 부과를 유예한다. 이번 가이드라인은 그동안 법률과 시행령만으로는 투명성 확보 의무 적용 기준을 파악하기 어렵다는 업계 우려를 반영해 마련됐다. 과기정통부는 지난해 9월 초안을 공개한 뒤, 실제 운영 중인 AI 제품·서비스 유형을 기준으로 이행 기준을 정리했다. 가이드라인은 투명성 확보 의무의 적용 대상을 이용자에게 AI 제품·서비스를 직접 제공하는 'AI사업자'로 명확히 했다. 국내 이용자 대상으로 서비스 제공하는 해외 사업자도 대상에 포함된다. AI를 업무나 창작의 도구로 활용하는 이용자는 의무 대상에서 제외됐다. 예를 들어 영상 생성 AI를 활용해 영화를 제작·배급하는 제작사는 AI 제품·서비스 제공자가 아니라 이용자에 해당한다. 투명성 확보 의무는 고영향 또는 생성형 AI 기반 운용 사실 사전 고지와, AI 생성물 표시 의무로 나뉜다. 서비스 환경 내에서만 제공되는 생성물은 화면 안내, 로고 표출 등 유연한 표시가 허용된다. 다만 외부로 반출되는 경우 사람이 인식할 수 있는 표시나 메타데이터 적용이 요구된다. 특히 실제와 구분하기 어려운 가상 생성물에 대해서는 사람이 명확히 인식할 수 있는 표시를 반드시 적용하도록 했다. 사회적 우려가 큰 영역에 대해 보다 엄격한 기준을 적용한 셈이다. 과기정통부는 "AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술 부작용을 막기 위한 최소 안전장치이자 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세"라고 밝혔다.

2026.01.21 13:44김미정 기자

정부, AI기본법 시행 임박…"AI 산업 진흥·신뢰 우선"

정부가 인공지능(AI) 산업 진흥과 기술 안전성 확보를 위한 제도를 가동한다. 과학기술정보통신부는 오는 22일 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)'이 시행된다고 21일 밝혔다. AI기본법은 국가 AI 경쟁력 강화와 안전하고 신뢰할 수 있는 AI 활용 환경 구축을 목표로 한다. 정부는 해당 법에 국가AI전략위원회를 정책 컨트롤 타워로 규정하고 법적 근거를 마련했다. 분과위원회를 비롯한 지원단, AI책임관 체계도 제도화했다. 정부는 AI 산업 진흥을 위해 AI 연구개발, 학습용 데이터 구축, AI 도입·활용, 창업 지원, 전문인력 확보, AI 데이터센터 구축 등을 법률상 지원 항목으로 폭넓게 규정했다고 밝혔다. 학습용 데이터는 통합제공시스템을 통해 제공하고, 기업 실증·성능시험을 위해 공공시설 개방 근거도 마련했다는 설명이다. AI기본법에는 안전·신뢰 기반 조성을 위한 투명성·안전성 확보, 고영향 AI 관리 체계 규정도 포함됐다. 고영향 AI나 생성형 AI를 활용한 제품·서비스는 AI 활용 사실을 사전에 고지해야 하며, 딥페이크 결과물은 이용자가 명확히 인식할 수 있도록 표시하도록 했다. 안전성 확보 의무는 학습에 사용된 누적 연산량이 10의 26승 플롭스(FLOPS) 이상 모델에 해당한다. 최첨단 기술을 적용하며, 기본권에 광범위하고 중대한 영향을 미칠 우려가 있는 경우에 한해 적용된다. 고영향 AI 판단 시에는 에너지, 의료, 채용, 대출심사, 공공서비스 등 10개 영역 활용 여부와 위험의 중대성을 종합적으로 고려한다. 정부는 기업 혼란을 줄이기 위해 최소 1년 이상 규제 유예 기간을 운영한다. 이 기간 동안 사실조사와 과태료는 인명 사고나 중대한 인권 침해 등 예외적인 경우에만 적용된다. 전문가로 구성된 'AI기본법 지원데스크'를 통해 비밀 보장·익명 컨설팅을 제공한다. 과기정통부는 "이번 AI기본법 시행으로 법적 불확실성이 해소되고 건강하고 안전한 국내 AI 생태계가 조성되길 기대한다"고 밝혔다.

2026.01.21 12:59김미정 기자

정부 "AI기본법, 위험 대비 제도일 뿐…과도 규제 아냐"

"고영향·고성능 인공지능(AI) 개념은 향후 위험에 대비하기 위한 제도입니다. 현재 기준에서 실제 규제 대상인 AI는 사실상 없습니다." 과학기술정보통신부는 지난 20일 서울 광화문에서 출입기자 대상으로 진행한 'AI기본법 시행 대비 설명회'에서 이같이 밝혔다. 정부는 오는 22일 세계 첫 AI기본법을 시행한다. 최소 1년간 유예 기간을 두고 제도를 운영할 계획이다. 이 기간 동안 사실 조사나 과태료 부과 등 행정 제재는 원칙적으로 적용되지 않는다. 법 적용 과정에서 겪는 혼란을 줄이기 위해 기업들에 상담과 컨설팅 중심 지원 체계를 가동한다. 이날 발표자로 나선 김경만 과기정통부 AI정책실장은 AI 기본법이 규제를 위한 법이 아니라 AI 산업 진흥을 기본 방향으로 설계된 법률이라는 점을 재차 강조했다. 그는 "AI 기본법 전체 조항 중 약 80% 이상이 AI 산업 진흥을 위한 내용으로 구성됐다"고 근거를 제시했다. 김 실장은 AI기본법 핵심 규제 대상으로 꼽히는 고영향·고성능 AI에 대해 현재 기준에선 적용 대상이 없다는 점도 짚었다. 과도한 규제가 현실화할 것이라는 업계 우려를 선제적으로 위한 조치다. 김 실장은 "고영향 AI는 에너지·원자력·교통 등 고위험 영역에서 중대한 위험 업무에 활용돼야 한다"며 "사람 개입 없이 전자동으로 작동하는 경우에만 해당한다"고 밝혔다. 이어 "AI기본법에서 이 모든 조건이 성립돼야 고영향 AI라 정의할 수 있다"고 덧붙였다. 정부는 현재 기준에서 고영향 AI에 해당할 가능성 있는 사례로 자율주행 레벨 4 이상 시스템을 언급했다. 그는 "채용 추천이나 대출 심사 보조처럼 사람이 최종 판단하는 구조는 규제 대상에서 제외"라고 강조했다. 김 실장은 고성능 AI에 적용되는 안전성 확보 의무 또한 현실적 규제 대상이 없는 상태라고 설명했다. 향후 고성능 AI 여부는 누적 연산량과 기술 수준 등 여러 조건을 종합해 판단할 방침이다. 그는 "현재 국내외 통틀어 해당 기준을 충족하는 AI는 없다"고 선그었다. 그러면서 "고성능 AI 안전성 의무는 현 시점 기술을 규제하기보다는 향후 초고성능 AI 등장에 대비한 사전적 장치"라고 설명했다. "AI 워터마크 의무는 사업자만...최소 구분 장치" 정부는 AI 기본법 규제 조항인 투명성 의무 적용 범위도 제시했다. 이 의무는 AI 서비스나 제품을 이용자에게 제공하는 사업자에게만 적용된다. AI 생성 결과물을 이용하는 개인이나 일반 이용자는 규제 대상이 아니다. 김 실장은 "AI 결과물이 서비스 내부에서 제공되는 경우에는 이용자가 AI 서비스를 사용하고 있다는 사실만 알리면 된다"며 "외부로 반출되는 경우 일반 생성물은 메타데이터 등 비가시적 워터마크 방식이 허용된다"고 설명했다. 정부는 딥페이크 생성물처럼 실제와 구별이 어려운 경우에만 사람이 인식할 수 있는 표시가 필요하다고 밝혔다. 김 실장은 "AI 투명성 의무는 유통 단계에서 최소한 구분 장치를 두기 위한 취지"라고 덧붙였다. 그는 "AI 기술 발전 속도가 매우 빠른 만큼 법을 고정된 규제로 운영하기보다는 시행 과정에서 지속적으로 점검하고 보완하는 방향으로 운용할 계획"이라며 "이를 위해 산업계와 학계, 시민사회, 국회가 참여하는 열린 논의 구조를 마련하겠다"고 강조했다.

2026.01.21 12:48김미정 기자

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

카카오, 'AI 수익화 원년' 칼 뺐다...구글·오픈AI 스킬 장착

"다시 3N, 날아오른 K"…신작 흥행이 가른 게임사 실적

아동 정보까지 건드렸다...'버거킹'·'메가커피' 과징금 집중된 이유

삼성전자, 최대 속도 13Gbps급 HBM4 세계 최초 양산 출하

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.