• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
배터리
인공지능
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 안전'통합검색 결과 입니다. (150건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

앤트로픽 공동창업자 "AI 안전, 인류에 필수…韓, 클로드 사용 톱5"

"우리는 인공지능(AI)의 발전이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다는 믿음으로 회사를 설립했습니다." 벤자민 만 앤트로픽 공동창업자는 지난 3일 지디넷코리아와 만나 이같이 말했다. 그는 기술 경쟁의 소용돌이 속에서도 'AI 안전'이 인류의 미래를 위한 필수 요소임을 거듭 강조했다. 7일 앤트로픽 'AI 경제 지수'에 따르면 한국은 '클로드' AI 모델의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 이 회사의 '안전 우선' 철학은 국내 시장에서도 큰 호응을 얻고 있는 것이다. 만 공동창업자는 지난 2017년 닉 보스트롬의 '슈퍼인텔리전스'를 읽고 AI 안전에 눈을 떴다고 회상했다. 그는 "초지능 AI 통제의 어려움을 깨달았다"며 "GPT-3로 스케일링 법칙의 엄청난 이점을 증명했음에도 안전에 대한 신념으로 오픈AI를 떠났다"고 밝혔다. 이어 "AGI로의 안전한 전환을 위해 오픈AI에 있었으나 '안전' 가치에 보다 잘 기여하기 위해 앤트로픽에 합류했다"고 설명했다. 그는 한국 시장의 폭발적인 성장세에도 주목했다. 특히 한국은 '클로드 코드'가 빠르게 성장하는 시장으로, 지난 4개월간 한국의 주간 활성 이용자 수(WAU)가 6배 증가했다는 점을 강조했다. 전 세계에서 '클로드 코드'를 가장 많이 이용한 것이 바로 한국 소프트웨어 엔지니어라는 것이다. 이러한 한국 시장의 중요성은 구체적인 파트너십과 투자로 이어지고 있다. 만 공동창업자는 "SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다"며 "SK가 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나"라고 말했다. 이어 "슈퍼로이어 같은 스타트업의 법률 자동화 성공 사례 역시 괄목할 만하다"고 언급했다. 이러한 성장세에 발맞춰 앤트로픽은 현지화 및 파트너 지원과 대한민국 경제가 실질적으로 필요로 하는 부분에 대한 이해를 위해 현지 주재가 매우 중요하다고 판단하고 적극적으로 인력을 채용할 계획이다. 최근 발표된 정부의 AI 기본법에 대해서도 긍정적인 입장을 표명했다. 만 공동창업자는 "투명성, 윤리, 안전을 중시하는 우리의 '헌법적 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다"며 "우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중"이라고 밝혔다. 앤트로픽이 지난달 발표한 클로드 '소네트 4.5'가 코딩과 AI 에이전트 분야에서 최고 성능을 보이는 비결은 특정 '돌파구(Breakthrough)'가 아닌 '임계점(Critical threshold)'을 넘었기 때문이라고 밝혔다. 음성 인식이 오류율 1%의 임계점을 돌파하며 대중화된 것처럼 '소네트 4.5' 역시 개별 작업의 성공률이 비약적으로 높아져 복잡한 '에이전틱 워크플로우'의 효용성을 극대화할 수 있게 됐다는 분석이다. 만 공동창업자는 현재 AI의 역할에 대해서는 '자동화(Automation)'가 아닌 '기존 인력의 가속화(Acceleration)'로 정의했다. 그는 라쿠텐의 7시간짜리 작업을 앤트로픽의 AI 모델이 수행한 사례를 들며 이는 결과가 정확한지 자동으로 검증하는 훌륭한 '테스트 하네스(Test Harnesses)'가 있었기에 가능했다고 강조했다. 더불어 앤트로픽은 AI 안전을 구호에 그치지 않고 구체적인 기술로 구현하고 있다. '헌법적 AI'를 통해 AI가 스스로 보편적 가치를 학습하도록 유도하고 '기계론적 해석 가능성' 연구로 모델의 '뇌'를 들여다보며 '기만' 행위를 탐지한다. 또 '책임감 있는 스케일링 정책'을 통해 '생물학적 안전 등급'과 같은 자체 규제를 적용한다는 설명이다. 앤트로픽 코리아 팀을 꾸릴 때 가장 중요한 자질로 만 공동창업자는 '컬처 핏'을 꼽았다. 그는 "회사의 임무, 즉 초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데 진심으로 공감하는 것이 가장 중요하다"며 "우리는 이를 정말, 정말로 강조한다(Really, really mean it)"고 역설했다. 이어 "진실성과 지적 개방성을 갖춘 인재를 찾는다"고 덧붙였다. 그는 자신을 매일 움직이게 하는 원동력이 무엇인지에 대한 기자의 질문에는 현재 한 살과 세 살 된 두 아이의 긍정적인 미래가 바로 그것이라고 밝혔다. 만 공동창업자는 "(이번) 한국 방문을 통해 세상이 이 기술을 얼마나 필요로 하는지를 깨달았다"며 "(동시에) 이 기술이 '안전'해야 할 필요성을 절실히 느꼈다"고 말했다. 아래는 벤자민 만 앤트로픽 공동창업자와의 일문일답. Q. 많은 AI 스타트업이 기술 경쟁에 집중할 때 당신과 앤트로픽의 공동 창업자들은 AI 안전에 집중하며 오픈AI를 떠나 회사를 창업했다. 안전이 단순한 선택이 아닌 인류의 미래를 위한 '필수 요소'라고 믿게 된 결정적인 계기나 순간은 무엇이었나. A. 지난 2017년 닉 보스트롬(Nick Bostrom)의 '슈퍼인텔리전스(Superintelligence)'를 읽고 AI 안전에 대해 처음으로 진지하게 고민하게 됐다. 초지능 AI를 통제하는 것이 얼마나 어려울지 깨닫고 눈을 뜬 기분이었다. 최초에 오픈AI에 합류한 것은 당시 AI의 프론티어를 개척하려는 유일한 연구소였기 때문이다. 지난 2019년 'GPT-2'가 나왔을 때 이것이 바로 범용인공지능(AGI)로 가는 길이라고 확신했다. 그래서 오픈AI에 합류해 앤트로픽 공동 창업자들인 다리오 아모데이, 톰 브라운과 GPT-3 프로젝트를 시작했다. 우리는 보다 유능한 모델 없이는 AI 안전 문제에서 실질적인 진전을 이룰 수 없다고 느꼈다. 당시 한 구글 논문은 "모델의 스케일을 증가시킬 이유가 없다"거나 "규모 확장의 이점이 없고 오히려 (수확 체감으로) 한계에 부딪혔다"고 했다. 우리는 GPT-3 논문으로 정반대를 보여줬다. 실제로는 "규모를 키울수록 엄청난 수확(Huge Returns)이 발생한다"는 점과 "그런 확장성의 이점이 둔화될 기미가 전혀 보이지 않는다"는 것을 증명한 것이다. 오픈AI를 떠난 이유에 대해 구체적으로 말하자면 우리 공동 창업자들은 모두 AGI로의 전환이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다고 믿었기 때문이다. 초창기에 우리가 오픈AI에 있었던 이유도 정확히 그 이유 때문이었으나 어느 시점부터는 AI의 '역량과 안전' 또는 '경제적 이익과 안전' 사이에 딜레마가 발생하는 지점에서 반복적으로 작은 충돌들을 겪게 됐다. 결국 우리는 회사를 떠나 우리만의 회사를 차리는 것이 '안전'이라는 가치에 보다 잘 기여할 수 있는 길이라고 느꼈다. Q. 클로드 '소네트 4.5'가 AI 에이전트와 코딩 분야에서 최고 모델로 자리 잡고 있다. 이런 에이전트 중심의 접근을 가능하게 한 핵심 기술 돌파구는 무엇인가. 이것이 기업 도입을 어떻게 이끌고 있으며 '에이전틱 워크플로우'가 산업 생산성을 어떻게 바꿀 것이라 보나. A. 우리가 스택 전반에 걸쳐 훌륭한 작업을 수행해왔기 때문이라고 생각한다. 경쟁사들이 사전 훈련(Pre-training)이나 사후 훈련(Post-training)에 실패했다는 소문을 들어 왔다. 반대로 우리는 수년간 스케일링을 진행하며 '수확 감소'를 전혀 목격하지 못했다. '소네트 4.5'가 갑자기 좋아진 것은 특정 기술적 '돌파구(Breakthrough)' 때문이 아니다. 오히려 '임계점(Critical Threshold)'을 넘었기 때문이다. 음성 인식이 30년 넘게 존재했지만 지난 2010년대 구글이 단어 오류율을 1% 수준으로 낮추는 '임계점'을 돌파하자 비로소 모두가 일상적으로 사용하게 된 것과 같다. 코딩 모델도 마찬가지다. 이전 모델인 '소네트 3.5'에서 사람들이 에이전틱 코딩의 이점을 처음 발견하기 시작했다면 '소네트 4.5'는 개별 작업의 성공률이 비약적으로 높아졌다. 그 덕분에 여러 작업을 복잡한 체인으로 연결할 수 있게 되면서 효용성에 있어 거대한 변화가 일어난 것이다. 생산성 측면에서 볼 때 우리는 아직 '자동화(Automation)'의 시대가 아니라 '기존 인력의 가속화(Acceleration)' 시대에 있다고 본다. 일례로 라쿠텐 사례를 보면 숙련된 인간 개발자가 7시간을 투입해야 하는 '쿠다(CUDA) 커널 조작' 작업을 인간의 개입 없이 모델이 거의 전적으로 수행했다. 이것이 가능했던 이유는 매우 훌륭한 '테스트 하네스(Test Harnesses)' 덕분이었다. 즉 에이전트가 작업을 마쳤을 때 그 결과가 정확하다는 것을 (자동으로) 검증할 수 있었기 때문이다. Q. '클로드 코드(Claude Code)'가 '소네트 4.5'로 구동되면서 초기 아키텍처 설계부터 버그 수정까지 거의 모든 것을 처리할 수 있게 된 것 같다. 인상 깊었던 유즈케이스가 있나. 특히 한국에서의 경험 중 공유할 만한 사례가 있나. A. 오늘 SKT AI 서밋에서 '클로드' 해커톤이 열릴 예정이라 기대가 크다. 한국은 '클로드 코드'의 가장 큰 시장 중 하나며 제품에 대한 한국의 열정에 감탄하고 있다. 실제로 우리의 AI 코딩 어시스턴트 '클로드 코드' 전체 사용자의 4분의 1 이상이 아시아·태평양 지역에 속해 있는데 그중에서도 한국의 성장세가 놀랍다. 한국에서는 지난 4개월 동안 클로드 코드의 주간 활성 이용자 수(WAU)가 6배 증가하는 높은 성장세를 기록했다. 보다 인상적인 것은 현재 전 세계에서 클로드 코드를 가장 많이 이용한 사용자 1위가 바로 한국 소프트웨어 엔지니어로 기록됐다는 점이다. 구체적인 사용 사례를 들자면 SK와는 정말 훌륭한 파트너십을 맺고 있다. 특히 SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다. SK는 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나다. 또 슈퍼로이어라는 한국 스타트업은 클로드를 활용해 법률 자동화(Legal Automation)를 성공적으로 구현하고 있다. 물론 이 기술은 모든 곳에 사용될 수 있지만 특정 분야에서 훨씬 더 많이 사용되고 있다. 우리가 발간하는 'AI 경제 지수(AI Economic Index)'는 사람들이 우리 모델을 어떻게 사용하는지 연구하는데 (방금 한국 사례에서 보듯) 코딩이 최고의 영역 중 하나다. 그 외에도 마케팅, 교육, 헬스케어 및 생명 과학 산업에서도 많은 활용 사례를 보고 있다. Q. 방금 'AI 경제 지수(AI Economic Index)'를 언급했다. 앤트로픽은 AI가 자동화 등 사회에 미칠 문제를 완화하기 위해 많은 노력을 기울이는 것 같다. 'AI 경제 지수'가 그 한 예시인데 앤트로픽 팀이 AI 안전을 위해 노력하는 다른 사례들도 공유해 줄 수 있나. A. 'AI 경제 지수'가 그 대표적인 사례다. 더불어 근본적인 AI 정렬(Alignment) 측면에서도 몇 가지 분야에서 노력하고 있다. 첫째는 '헌법적 AI(Constitutional AI)'다. 이는 '클로드'가 스스로 학습하고 정렬하는 자연어 원칙들의 집합이다. 우리는 샌프란시스코의 소수 인원이 미래의 가장 강력한 AI가 가져야 할 가치를 결정해서는 안 된다고 생각했다. 그래서 '집단적 헌법 AI(Collective Constitutional AI)' 프로젝트를 시작해 전 세계 사람들에게 어떤 가치를 AI가 가져야 하는지 물었고 놀랍게도 그 가치들이 예상보다 훨씬 더 일치(Aligned)한다는 것을 발견했다. 이는 정렬 문제를 해결할 수 있다는 희망을 줬다. 둘째는 '기계론적 해석 가능성(Mechanistic Interpretability)' 연구다. 과거엔 AI 모델을 '블랙박스'로 여겼지만 이 연구의 목표는 모델이 작동하는 동안 그 '뇌'와 생각을 들여다보고 무슨 일이 일어나는지 이해하는 것이다. 모델이 강력해질수록 이는 매우 중요하다. 궁극적인 목표는 모델에게 무언가를 시켰을 때 모델이 '기만(Deception)'에 대해 생각하는 것을 알아차리는 것이다. 우리는 오늘날의 모델에서도 그런 기만 행위를 포착하는 것에 대한 논문을 발표한 바 있다. 모델이 매우 강력해졌을 때 이런 기만적인 생각을 멈추게 하거나 시스템을 종료시키기 위해 이 탐지 기술은 매우 중요하다. 마지막은 '책임감 있는 스케일링 정책(Responsible Scaling Policy)'이다. 이는 '생물학적 안전 등급(Bio Safety Level)'을 모델로 한 것이다. 천연두 바이러스를 다루려면 고도로 규제된 시설과 전신 방호복이 필요한 것과 같다. 마찬가지로, 우리 AI가 특정 모델을 생성할 때까지 우리가 스스로 약속한 특정 보안 및 규정 준수 요구 사항을 갖추지 못한다면 우리는 그 모델을 사용하거나 상용화하지 않을 것이다. 우리는 다른 업계 기업들도 이 표준을 채택하도록 노력하고 있다. Q. 한국 정부가 최근 AI 기본법을 발표했다. 유럽연합(EU) AI법과 유사하게 AI 개발과 안전 사이의 균형을 맞춘 법안으로 평가받는다. 앤트로픽의 '안전 우선' 철학이나 '헌법 AI'와 시너지가 있을 것 같은데 한국에 오피스를 런칭하는 만큼 한국 시장 및 공공 부문과 어떻게 협력할 계획이며 어떤 기여를 하고 싶은가. A. 투명성, 윤리, 안전을 중시하는 우리의 '헌법 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다. 지사 설립에 관해 말하자면 한국은 전 세계적으로 가장 중요한 시장 중 하나다. 실제로 우리 'AI 경제 지수' 데이터에 따르면 한국은 클로드의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 현지화, 파트너 지원, 한국 경제의 필요를 이해하기 위해 '현지 주재(Local Presence)'가 매우 중요하다고 생각한다. 그래서 우리는 이곳에서 상당히 공격적으로 인력을 채용할 계획이다. 보다 많은 인력을 두게 될 예정에 기쁘다. 더불어 우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중이다. Q. 앤트로픽은 세계에서 가장 주목받는 AI 스타트업 중 하나다. 앤트로픽 코리아 팀을 꾸릴 때 개발자, 마케터 등 직군을 떠나 공통적으로 찾는 가장 중요한 자질이나 기술은 무엇인가. A. 우리는 '컬처 핏 인터뷰(Cultural Interview)'를 통해 이를 테스트한다. 우리에게 가장 중요한 것은 사람들이 '우리의 임무에 정렬(Mission-aligned)'되는 것이다. 즉, 우리 회사에 합류하는 이유가 '초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데' 진심으로 관심을 갖고 있기 때문이어야 한다. 많은 회사가 이렇게 말하지만 우리는 '정말이지, 정말로(Really, really mean it)' 그렇다. 이 임무가 자신의 삶과 가족, 친구들에게 어떤 의미인지 깊이 생각해 본 사람이라는 것을 보여주는 것이 중요하다. 우리의 '변화 이론(Theory of Change)'이나 '책임감 있는 스케일링 정책(Responsible Scaling Policy)' 같은 문서를 읽어보는 것도 도움이 될 것이다. 기본적으로는 '진실성(Integrity)'과 '지적 개방성(Intellectual Openness)'의 증거도 본다. 우리는 대체로 '자아가 강하지 않고(Low Ego)', 개인의 성과에 연연하기보다 올바른 일을 하려고 노력한다. Q. '초지능(Superintelligence)'을 안전하게 개발해야 하는 책임을 자주 언급했다. 매일 새로운 제품이 쏟아지는 이 극도로 가속화되는 중대한 환경에서 당신을 매일 집중하고 동기 부여하게 만들고 아침에 침대에서 일어나게 하는 가장 큰 원동력은 무엇인가. A. 근본적으로 나를 움직이는 힘은 우리가 앤트로픽을 시작한 이유와 같다. 바로 초지능 AI로의 전환이 잘 진행되도록 하는 것이다. 나에게는 한 살과 세 살 된 아이가 있다. 나는 내 아이들의 미래가 긍정적인 미래가 되기를 진심으로 바란다. 때때로 지출 보고서 같은 사소한 일을 할 때는 이 목표가 멀게 느껴지기도 한다. 그런데 지난주 일본, 그리고 이번 주 한국처럼 다른 나라에서 잠재 고객과 개발자들을 만나는 것이 목표에 계속 집중하는 데 큰 도움이 됐다. (이번 방문을 계기로) 세상이 이 기술을 얼마나 필요로 하는지, 그리고 동시에 이 기술이 안전해야 할 필요성이 얼마나 큰지 역시 절실히 느낀다.

2025.11.07 12:52조이환

행안부, '인공지능정부실' 신설…공공부문 AX 시동

행정안전부가 공공부문의 인공지능 전환(AX)을 총괄할 '인공지능정부실'을 신설하며 본격적인 AI 행정 시대 개막을 예고했다. 이는 기존 디지털정부혁신실을 전면 개편해 AI 기반 정부로의 질적 고도화를 추진하고 최근 국가정보자원관리원(국정자원) 화재 이후 중요성이 커진 재해복구(DR) 체계도 함께 정비하려는 조치다. 행안부는 지난 5일 정부서울청사에서 조직개편안을 발표했다. 이번 개편을 통해 기존 1차관보·6실·1대변인·27국·관1단·114과 체계는 7실·1대변인·28국·관1단·117과로 조정된다. 특히 새로 신설되는 인공지능정부실은 인공지능정부정책국, 서비스국, 기반국 등 3개 국으로 구성된다. 이 조직은 공공부문의 AX를 추진하면서 데이터 보안, AI 신뢰성 확보, 공공 인프라 안전관리 등 AI 행정의 핵심 기능을 총괄한다. 기존 디지털정부정책국, 공공지능데이터국, 공공서비스국은 폐지되고 그 기능이 인공지능정부실로 흡수된다. 인공지능정부기반국은 인프라 안전과 사이버보안을 총괄하며 기존 과 단위로 운영되던 기능을 국 단위로 격상시켜 대응력을 강화한다. 이번 개편은 단순 명칭 변경을 넘어 정부의 디지털 행정 체계를 AI 중심으로 재편하는 의미를 지닌다. 윤호중 행안부 장관은 "기존 전자정부, 디지털정부 추진은 양적인 확장에 치중했던 측면이 있었다"며 "앞으로는 DR 체계 정비와 다중인증체계 확산 등을 통해 국민이 신뢰할 수 있는 AI 민주정부를 구현하겠다"고 밝혔다. 또 행안부는 '자치혁신실'과 '사회연대경제국'을 새로 설치해 지방자치 활성화와 사회연대경제 기반 확립에도 나선다. 주민자치회를 법제화하고 주민소환제 실효성을 높여 지역 공동체가 스스로 지역 문제를 해결할 수 있는 제도적 토대를 마련할 방침이다. 균형발전지원국은 '균형발전국'으로 개편되고 산하에 '기본사회정책과'를 신설해 지역소멸 위기 대응과 기본사회 보장을 강화한다. 또 기존 정부혁신국은 '참여혁신국'으로 명칭을 바꾸고 국민참여정책과를 신설, 국민주권정부 실현에 초점을 맞춘다. 행안부는 6일 조직개편안 입법예고를 진행하고 계획된 일정대로 추진될 경우 이달 말 새로운 조직 체계로 전환될 예정이다. 아울러 '국민 신청 없이 먼저 찾아가는 원스톱 행정서비스' 추진 전략도 연내 마련해 복합민원 개선 시범사업을 실시할 계획이다. 윤 장관은 "이번 개편의 핵심은 핵심과제 중심의 조직 재편을 통해 국민이 체감할 수 있는 성과를 빠르게 창출하는 것"이라며 "AI, 지방정부, 안전 등 각 영역에서 국민의 삶에 플러스가 되는 '행복안전부'를 만들어가겠다"고 강조했다.

2025.11.06 10:03한정호

국가AI전략위, 앤트로픽과 AI 안전·신뢰 협력 논의…"韓 지사 설립 기대"

대통령 직속 국가인공지능(AI)전략위원회가 글로벌 생성형 AI 기업 앤트로픽과 만나 AI 안전성과 신뢰성 강화를 위한 협력 방안을 논의했다. 이번 면담에서 앤트로픽은 한국을 주요 전략 시장으로 평가하며 내년 초 한국 아시아·태평양 지역 사무소를 설립하겠다는 계획을 공유했다. 국가AI전략위원회는 임문영 부위원장이 거대언어모델(LLM) '클로드' 개발사 앤트로픽의 벤 만 공동창업자와 면담했다고 5일 밝혔다. 위원회는 이 자리에서 '대한민국 AI 액션플랜'의 수립·추진 현황을 소개했으며 앤트로픽은 자사의 AI 안전 및 책임 있는 확장 전략, 한국 시장 진출 계획, 한국과의 협력 방안 등을 논의했다. 벤 만 공동창업자는 "한국은 클로드 사용량이 전 세계 상위 5위 안에 드는 가장 기대되는 AI 시장"이라며 "일본, 인도와 함께 내년 초 한국 아태지역 사무소를 설립할 계획"이라고 말했다. 이어 "안전하고 신뢰할 수 있는 모델 개발 경험을 바탕으로 한국과 협력해 AI의 안전한 확산과 스타트업 및 기업들의 글로벌 경쟁력 강화에 기여하고자 한다"고 덧붙였다. 임문영 부위원장은 AI 모델 발전에 따른 위험성을 간과해서는 안 된다고 강조하며 앤트로픽이 안전한 AI 모델을 만들기 위해 노력하고 있는 점을 높이 평가했다. 임 부위원장은 "AI 기본사회 달성을 위해서도 안전한 AI 모델은 필수적"이라며 "앤트로픽의 한국 사무소 설립을 계기로 긴밀한 협력이 이어지길 기대한다"고 말했다.

2025.11.05 17:42한정호

정부, '공공부문 AI 윤리원칙' 마련…행정 혁신·국민 신뢰 확보

행정안전부가 인공지능(AI) 기술을 통한 행정 혁신을 촉진하고 AI 사용에 대한 국민 신뢰 확보에 나선다. 행안부는 '공공부문 AI 윤리원칙'을 마련했다고 4일 밝혔다. 최근 AI가 급속히 발전하면서 다양한 곳에서 활용되고 영향력도 급격히 확대되면서 편향성 문제 등의 부작용이 나타나고 있다. 현재 해외에서는 AI 윤리 문제에 대응 중이며 우리나라도 각 부처 특성에 맞춰 과학기술정보통신부·교육부 등에서 윤리지침을 운영하고 있다. 행안부도 공공부문의 AI 활용이 국민 생활에 직접적인 영향을 미치는 만큼, 민간과는 차별화된 윤리원칙 마련의 필요성을 인식했다. 이에 AI 윤리에 대한 전문가 실무단 운영과 자문회의 개최를 통해 초안 작성 후 보완 과정을 거쳤다. 행안부가 마련한 공공부문 AI 윤리원칙은 행정 혁신 촉진과 국민 신뢰 구축을 목표로 국민·행정·기술 관점에서 공공성·투명성·안전성·형평성·책임성·프라이버시 보호 등 6대 원칙으로 구성됐다. 또 공공부문 종사자가 실무적으로 점검할 수 있도록 6대 원칙에 따른 90여 개 세부 점검사항을 체크리스트 형식으로 제시했다. 공공부문 AI 윤리원칙의 주요 특징은 다음과 같다. 우선 사회 구성원 모두를 대상으로 하지 않고 중앙행정기관, 지방정부, 공공기관 및 지방공사‧공단 등 공공부문의 종사자를 대상으로 한정하고 지침의 성격을 지니고 있다. 또 이번 공공부문 AI 윤리원칙은 선언적 가치에 그치지 않고 세부 점검표를 통해 자체 점검하며 그 점검 결과를 조정·환류할 수 있는 체계를 두고 있다. 행안부는 이번에 마련된 공공부문 AI 윤리원칙에 대해 중앙행정기관 등 공공부문 종사자 외에 학계 등 전문가의 의견도 폭넓게 수렴해 확정할 계획이다. 아울러 90여 개 점검항목이 일선 현장에서 실질적으로 작동할 수 있도록 AI 윤리원칙 실천에 대한 교육 프로그램도 마련해 실행력을 높여 나갈 예정이다. 윤호중 행안부 장관은 "공공부문에서 빠르게 발전하는 AI를 안전하게 사용하면서도 정부 효율성과 생산성을 높이기 위해서는 윤리원칙이 필수"라며 "공공부문의 AI 전환과 함께 마련되는 AI 윤리원칙이 개인의 인권 침해 등 다양한 위험요소에 대비하고 국민의 기본권을 지키는 행동기준이 될 수 있도록 하겠다"고 밝혔다.

2025.11.04 10:03한정호

"국민이 상상한 AI 비서가 현실로"…AI 국민비서 시나리오 공모전 개최

국민이 직접 상상한 인공지능(AI) 비서 서비스가 현실로 구현될 수 있는 기회가 열린다. 행정안전부는 국민이 일상 속에서 체감할 수 있는 'AI 국민비서' 서비스를 발굴하기 위해 3일부터 21일까지 '2025년 AI 에이전트 서비스 시나리오 공모전'을 개최한다고 2일 밝혔다. 이번 공모전은 '국민의 상상과 AI 에이전트로 AI 민주정부를 열다'를 주제로 진행되며, 국민이 직접 구상한 실용적이고 구체적인 AI 비서 서비스 아이디어를 접수한다. 'AI 국민비서'는 민간 AI 에이전트 기술을 활용해 복잡한 절차 없이 대화만으로 공공서비스를 이용할 수 있게 하는 서비스다. 단순 질의응답을 넘어, 실제 행정 업무를 대신 수행할 수 있는 수준의 인공지능 시스템을 목표로 한다. 예를 들어 이사 시 전입신고와 우편물 주소 변경, 지원금 신청을 한 번에 처리하는 '원스톱형' 서비스나 여행 시 KTX 예매부터 숙박·렌터카·맛집 예약까지 이어주는 '연결형' 서비스 등이 대표적인 예시로 제시됐다. 또한 아이돌봄서비스 예약 후 결과를 민간 앱에서 손쉽게 관리할 수 있는 '융합형' 서비스 등, AI와 행정서비스를 결합한 다양한 상상도 제안할 수 있다. 공모에는 대한민국 국민이면 누구나 개인 또는 최대 4인 팀으로 참여 가능하며, 행정안전부·정부24·소통24 누리집에 게시된 온라인 접수 링크를 통해 제출하면 된다. 접수된 시나리오는 전문가 심사, 국민투표, 결선심사를 거쳐 총 8편의 우수작이 선정된다. 대상(대통령상) 1명에게 350만원, 최우수상(국무총리상) 200만원, 우수상(행정안전부 장관상) 각 100만원, 장려상(한국지능정보사회진흥원장상) 각 50만원 등 총상금 1천만원이 수여된다. 행정안전부는 이번 공모전에서 발굴된 우수 시나리오를 향후 'AI 국민비서' 서비스 설계와 구현에 적극 반영할 계획이다. 이용석 디지털정부혁신실장은 “AI 에이전트를 활용한 공공서비스 혁신은 기술보다 국민의 생활 속 필요에서 출발해야 한다”며 “국민 여러분의 상상이 미래 AI 국민비서의 초석이 될 수 있도록 많은 관심과 참여를 바란다”고 말했다.

2025.11.02 13:45남혁우

광해광업공단, 생성형 AI 기술 활용…광해방지사업 위험요소 예측·탐지

한국광해광업공단(대표 황영식)은 한국스마트안전보건협회와 'AI 기반 광해방지사업 안전관리시스템 구축'을 위한 업무협약을 체결했다고 2일 밝혔다. 두 기관은 광해방지사업 현장의 산업재해를 줄이기 위해 ▲AI 기반 안전관리시스템 구축 협력 ▲광해방지사업 유형별 특성을 고려한 맞춤형 스마트 안전기술 도입 ▲스마트 안전기술의 안정적인 현장 정착을 위한 정보교류 활성화와 기술지원 등 다양한 협업을 추진할 계획이다. AI 기반 광해방지사업 안전관리시스템은 기존 스마트 안전장비(이동형 CCTV 등)에 AI를 접목해 실시간으로 모니터링하고, 위험요인을 사전에 포착해 즉각 대처할 수 있도록 구축하는 것이 핵심이다. 광해광업공단은 시범운영 기간을 걸쳐 점진적으로 확대해 기존 육안점검 위주 안전관리에서 벗어나 데이터를 기반으로 위험패턴을 분석하고 사고를 미리 막는 예측형 안전관리 체계로 전환한다는 계획이다. 강철준 광해광업공단 광해사업본부장은 “앞으로도 AI 기반 스마트 안전기술을 광해방지사업 현장에 혁신적으로 적용해 안전한 공사현장 조성에 최선을 다하겠다”고 말했다.

2025.11.02 07:38주문정

안토니 쿡 MS 부사장 "AI 혁신·안전 사이 균형 필요…접근성·포용성 높여야 발전 가능"

[경주=장유미 기자] 마이크로소프트(MS)가 인공지능(AI)의 책임 있는 설계와 활용을 위해 공공·민간 협력을 강화한다. 안토니 쿡(Antony Cook) MS 부사장은 30일 오전 경북 경주 예술의 전당에서 열린 '아시아태평양경제협력체(APEC) CEO 서밋' 연단에 올라 '책임 있는 AI 확산과 확장을 위한 공공·민간 협력'에 대해 강연했다. 그는 "AI 기술을 설계하고 운영할 때 투명성과 책임성을 확보하는 것이 무엇보다 중요하다"며 "우리는 10년 전부터 이런 원칙을 적용해왔고, 이제는 이를 산업 전반으로 확산할 시점"이라고 말했다. 이어 "현재 30개 이상의 안전 도구를 외부에 개방해 기업과 기관이 자체적으로 AI 안전 체계를 구축할 수 있도록 지원하고 있다"며 "이 같은 접근은 단순히 기술 제공을 넘어 신뢰 가능한 AI 생태계를 조성하는 것을 목표로 두고 있다"고 설명했다. 이를 위해 MS는 '콘텐츠 출처 및 진위성 연합(Coalition for Content Provenance and Authenticity, C2PA)'의 창립 멤버로도 활동 중이다. AI가 생성한 콘텐츠의 출처를 표시하는 개방형 표준 개발을 주도하기 위해서다. C2PA는 딥페이크 위협에 대응하기 위한 핵심 표준을 제시하는 곳으로, 구글과 어도비, 메타, 인텔, 소니, 오픈AI 등도 멤버로 활동하고 있다. 쿡 부사장은 "콘텐츠의 출처를 명확히 하는 것은 디지털 신뢰의 핵심"이라며 "산업계 전체가 협력해야 한다"고 강조했다. 또 그는 사회 인식 제고를 위한 민관 협력의 중요성도 강조했다. 이의 일환으로 MS는 한국에서 영국 비영리단체, 국내 비영리기관, 한국지능정보사회진흥원(NIA)과 협력해 중학생 대상 AI 인식 캠페인을 진행할 예정이다. 쿡 부사장은 "청소년들이 AI 기술의 가능성과 위험을 균형 있게 이해하고 책임 있는 이용 태도를 가질 수 있도록 도울 것"이라며 "청소년이 기술의 가능성과 위험을 올바르게 이해하도록 돕는 것이 목표로, AI 시대의 책임 있는 시민 의식을 키우는 계기가 될 것"이라고 말했다. 그는 AI의 사회적 영향이 커지는 만큼 법적 책임의 경계에 대한 논의도 중요하다고 강조했다. 또 정부는 국민 보호의 책임을 지지만, 시민사회와 업계의 협력이 병행돼야 균형 잡힌 제도와 문화가 만들어진다고 주장했다. 쿡 부사장은 "플랫폼 운영자, 콘텐츠 제작자, 이용자 간 책임 소재를 명확히 하면서도 창작의 자유와 사회적 안전을 함께 고려해야 한다"며 "정부와 시민사회, 업계가 함께 AI의 한계와 가능성에 대한 투명한 대화를 나누는 것이 출발점"이라고 말했다. 또 과거 기술 혁명을 통해 얻은 교훈이 있는지에 대해선 "전기나 광대역망처럼 일반 목적 기술의 확산이 모든 계층에 공평하지 못했다"며 "AI 역시 인프라가 충분히 갖춰지지 않으면 격차가 커질 수 있다"고 말했다. 그러면서 "AI 접근성과 포용성을 높이는 것이 지속 가능한 기술 발전의 핵심"이라고 강조했다. 마지막으로 쿡 부사장은 "AI 혁신을 촉진하면서도 사회적 가치와 안전을 지키는 균형이 필요하다"며 "책임 있는 협력을 통해 AI의 잠재력을 모두가 공유해야 한다"고 밝혔다.

2025.10.30 10:59장유미

글로벌 AI 안전 협력, 서울서 현실화…"책임 확장에서 실행으로"

인공지능(AI) 안전을 둘러싼 글로벌 협력이 서울에서 본격화됐다. 세계 주요 연구기관과 기업들은 한자리에 모여 AI의 잠재적 위험을 평가하고 안전성을 강화하기 위한 공동 전략을 논의했다. 한국 AI안전연구소는 29일 호텔 나루 서울 엠갤러리 앰배서더에서 '2025 인공지능 안전 서울 포럼' 행사를 열고 AI 평가, 벤치마킹, 레드티밍(취약성 검증) 세션을 진행했다. 과학기술정보통신부가 주최하고 한국전자통신연구원(ETRI)이 공동 주관한 이번 포럼에는 ML커먼스, METR, 에포크AI, 퓨처오브라이프연구소(FLI), 옥스퍼드대 등 세계 주요 평가기관과 연구진이 참석했다. 특히 이날 포럼에서는 한국 AI안전연구소와 미국 AI 전문기업 스케일AI 간의 업무협약(MOU) 체결식이 진행됐다. 양 기관은 AI 평가, 레드티밍, 안전 연구 고도화를 위한 공동 협력 체계를 구축키로 했다. 이번 협약을 통해 양측은 실험적 안전 테스트를 비롯해 글로벌 평가 표준 수립에도 협력할 계획이다. 포럼 세션 발표에서는 AI 시스템의 실무 평가와 벤치마킹 전략이 논의됐다. ML커먼스의 숀 맥그리거 에이전틱 리드는 "모든 AI 모델들은 안정성을 갖추기 위해 독립적 감사와 공공 검증 절차를 거쳐야 한다"며 "AI 안전 생태계의 인재 부족도 시급히 해결해야 할 과제"라고 강조했다. 이어 METR의 사미 자와르 엔지니어링 총괄은 제3자 위험 평가(3PRA) 이니셔티브를 소개하며 AI 모델이 배포되기 전에 위험 신호를 감지하고 대응할 수 있는 프로세스가 필요하다고 제언했다. 또 AI 개발사뿐만 아니라 평가기관 간의 신뢰 협력도 강화돼야 한다고 주장했다. 이번 포럼에서는 실습 기반의 프론티어 AI 레드티밍 세션도 진행됐다. 참가자들은 최신 대규모 언어모델(LLM)을 대상으로 공격·방어 시나리오를 시뮬레이션하며 모델 취약성을 검증했다. 한국 AI안전연구소와 스케일AI가 공동으로 준비한 이 세션은 국제 협력 기반의 평가 훈련 프로그램으로 주목받았다. 아울러 이날 행사에는 앤트로픽도 참석해 '책임 있는 확장 정책'을 중심으로 한 AI 안전 프레임워크를 공개했다. 앤트로픽 니타르샨 라즈쿠마르 국제정책 리드는 "AI 기술의 잠재력이 커질수록 그만큼 재난적 위험에 대한 대비가 중요하다"며 "우리의 원칙은 적절한 안전 조치 없이 위험한 수준의 AI 모델을 훈련하거나 배포하지 않는 것"이라고 말했다. 앤트로픽은 모델의 역량이 높아질수록 보안과 검증 수준을 단계적으로 강화하는 계층형 안전 관리 체계를 운영 중이다. 이 체계는 생물학 분야의 바이오시큐리티 등급 시스템을 참고해 위험도가 높은 모델일수록 더 엄격한 보호조치를 적용하는 방식이다. 라즈쿠마르 리드는 "우리는 내부 레드팀을 운영하며 미국과 영국의 AI안전연구소, 제3의 독립 기관과 협력해 위험 평가를 진행하고 있다"며 "최근 유럽연합(EU)과 미국, 한국 등의 국가들도 자율적 안전 약속에서 법적 의무로 전환하며 AI 안전 프레임워크 공개와 검증을 요구하는 법제화를 추진 중"이라고 말했다. 이어 "외부 검증은 개발 속도를 늦추는 것이 아니라 오히려 안전한 배포를 가속화하는 과정"이라고 강조했다.

2025.10.29 14:02한정호

앤트로픽·구글 "AI 안전은 핵심 경쟁력"…네이버·LG도 '책임 확장' 가속

인공지능(AI)이 고도화될수록 안전은 더 이상 부가 요소가 아니라 기업 경쟁력의 핵심으로 떠오르고 있다. AI 선도 기업들은 모델 확장 속도만큼 안전 검증을 정교하게 설계하며 책임 있는 기술 개발을 위한 내부 체계를 강화하고 있다. 앤트로픽·구글 딥마인드·네이버클라우드·LG AI연구원 등 주요 기업들은 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 '2025 인공지능 안전 서울 포럼'에서 기술적·제도적 접근을 결합한 AI 안전 프레임워크와 검증 체계를 공개했다. 첫 발표를 맡은 앤트로픽 마이클 셀리토 글로벌정책총괄은 "강력한 AI 시스템이 물리적 세계와 연결되기 시작한 만큼 안전장치도 정교해져야 한다"며 "AI가 스스로 실행하는 시대에는 기술적 제어만으로는 충분하지 않다"고 말했다. 셀리토 총괄은 앤트로픽이 추진 중인 '책임 있는 확장 정책'을 공개하며 AI 모델의 성능이 높아질수록 보안·평가·통제 수준을 단계적으로 강화하는 구조를 소개했다. 그는 "우리는 위험한 AI 모델을 배포하지 않겠다는 원칙을 명문화했고 외부 AI 안전 연구기관과 협력해 제3자 검증을 받는다"며 "이런 방식이 개발 속도를 늦추는 것이 아니라 오히려 더 빠르고 안전한 배포를 가능하게 한다"고 강조했다. 이어 "AI 안전 평가가 이제는 자율적 약속이 아니라 법적 의무로 전환되는 시점에 와 있다"며 "유럽연합(EU)·미국·한국 모두 안전 프레임워크 공개와 검증을 요구하는 규제 체계를 준비하고 있다"고 덧붙였다. 기술을 얼마나 빨리 확장하느냐보다 얼마나 책임 있게 확장하느냐가 향후 AI 기업의 신뢰를 좌우할 것이라는 설명이다. 이어진 영상 발표에서 구글 딥마인드의 루이스 호, 메리 퐁 연구원은 '프론티어 세이프티' 프레임워크를 중심으로 AI의 위험 역량을 조기 탐지하고 정기적으로 평가하는 체계를 설명했다. 두 연구원은 자율성, 생물, 사이버 위험, 기계학습 연구 역량 등 네 가지 핵심 위험 영역을 지정하고 모델이 위험 임계치를 넘어서기 전 단계에서 위험 역량 평가를 수행한다고 발표했다. 메리 퐁 연구원은 "현재의 AI 모델들은 아직 위험 임계치에는 도달하지 않았지만 세대가 바뀔 때마다 일부 고위험 작업 수행 능력이 비약적으로 향상되고 있다"며 "이를 놓치지 않으려면 정기적이고 반복적인 검증이 필요하다"고 말했다. 이어 "AI 안전은 단발성 평가로 끝나선 안 되며 모델의 변화 주기마다 업데이트되는 동적 평가가 핵심"이라고 덧붙였다. 국내 기업들도 AI 안전을 독립된 경쟁력의 축으로 다루고 있다는 점을 강조했다. 네이버클라우드 윤상두 AI랩 연구소장은 "네이버는 2021년 '사람을 위한 AI'라는 윤리 준칙을 제정하고 초거대언어모델(LLM) '하이퍼클로바X' 개발 전 과정에 안전성 검증을 내재화했다"고 소개했다. 그러면서 "한국어 기반 안전 데이터셋이 부족한 현실을 보완하기 위해 자체 구축한 평가 데이터셋을 오픈소스로 공개했다"며 "모델 개발·배포·운영 전 단계를 관리하는 3선 방어 체계를 도입해 독립된 AI 세이프티 오피스가 사내외 모델의 안전성을 주기적으로 점검하고 있다"고 설명했다. 이어 "AI 안전을 단순한 법적 요구가 아니라 기업의 생존 전략으로 접근해야 한다"며 "모든 개발 과정에 리스크 관리 절차를 자동화해 AI 서비스의 신뢰를 확보하는 것이 목표"라고 강조했다. LG AI연구원 김유철 전략부문장은 AI 안전이 모델 개발의 마지막 단계에서 덧붙이는 절차가 아니라 설계 초기부터 내재화해야 하는 원칙이라고 짚었다. 이에 LG AI연구원은 설립 직후 윤리 원칙과 거버넌스 체계를 수립하고 모든 연구 과제에 윤리 영향 평가를 의무화했다. 또 데이터 컴플라이언스 체계를 통해 학습 데이터의 저작권과 개인정보 위험을 점검하고 AI 에이전트를 활용해 이를 자동화하고 있다. 김 부문장은 "AI의 가장 큰 위험은 기술 자체보다 소수 국가나 대기업만 혜택을 누리며 사회적 격차가 심화되는 것"이라며 "AI를 만드는 기술자뿐 아니라 AI를 사용하는 사회가 얼마나 선한가 역시 AI 세이프티의 핵심 가치로 봐야 한다"고 말했다. 끝으로 발표자들은 "AI의 위험은 국경을 넘어 확산되며 대응 역시 글로벌 협력이 필수적"이라며 "기업이 먼저 안전의 원칙을 실천할 때 비로소 신뢰할 수 있는 AI 생태계가 완성된다"고 입을 모았다.

2025.10.28 17:26한정호

글로벌 AI안전 전문가들 "AI 규제와 혁신, 함께 가야 한다"

"인공지능(AI) 안전이 혁신을 가로막아선 안 됩니다. 신뢰를 기반으로 한 책임 있는 생태계가 중요합니다." 바네사 윌프레드 싱가포르 정보통신미디어개발청(IMDA) 부국장은 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 '2025 인공지능 안전 서울 포럼' 라운드테이블에서 이같이 말했다. 그는 AI 안전을 단순히 규제의 영역으로만 보지 말아야 한다고 지적하며 AI 기술의 혁신과 안전이 균형을 이루는 선순환 구조를 만드는 것이 목표라고 강조했다. 이날 라운드테이블은 'AI 안전 거버넌스의 실행'을 주제로 각국 정부·연구기관·산업계 관계자들이 한자리에 모여 현실적인 협력 방안을 논의했다. 좌장은 박세아 국가AI전략위원회 안전신뢰팀장이 맡았고 유럽연합(EU)·일본·싱가포르·한국 등 주요국의 AI 안전 기관 관계자들이 패널로 참여했다. 라운드테이블의 첫 화두는 규제와 혁신의 균형이었다. 먼저 윌프레드 부국장은 "싱가포르는 AI 전담 법률을 제정하기보다 기존 산업 규제를 보완해 AI 시대에 맞게 확장 적용하는 방식을 취하고 있다"고 밝혔다. EU는 보다 체계적인 규제 접근법을 소개했다. 라이너 베셀리 주한 유럽연합대표부 디지털·리서치 담당 참사관은 "AI 모델이 제어 불가능한 형태로 발전한다면 그것은 기술 문제가 아니라 사회 전체의 리스크"라고 경고했다. 그는 "EU AI법은 기본권을 침해하거나 사이버 공격에 악용될 수 있는 모델을 금지하는 것이 핵심"이라며 위험 수준에 따라 AI 시스템을 단계적으로 관리하는 프레임워크를 설명했다. 이어 "AI가 노동시장에 미치는 영향도 새로운 정책 변수로 보고 있다"며 "규제의 목적은 혁신을 막는 것이 아니라 사회적 효용과 위험을 함께 관리하는 것"이라고 덧붙였다. 아키코 무라카미 일본 AI안전연구소장은 사회적 책임의 관점에서 접근했다. 그는 "AI 안전은 기술적 문제가 아니라 사회가 어떻게 책임 있게 기술을 수용하느냐의 문제"라며 "일본은 AI법 제정을 계기로 공공과 민간이 공동으로 안전 기준을 마련하고 있다"고 말했다. 김명주 한국 AI안전연구소장은 정부가 추진 중인 실증 중심 평가를 소개했다. 그는 "우리 정부는 AI 모델 평가 대회를 통해 실제 시스템의 안전성과 신뢰도를 검증하고 있다"며 "프라이버시 보호와 신뢰 확보를 중심으로 평가체계를 준비 중"이라고 밝혔다. 그러면서 "AI 사회로 전환하는 지금, 사회적 약자의 접근성을 높이는 것도 AI 안전의 한 축"이라며 "디지털 격차 해소 경험을 바탕으로 AI 포용성을 정책의 핵심 가치로 삼고 있다"고 강조했다. 좌장을 맡은 박세아 팀장은 AI 안전이 정부나 연구소만의 일이 아니라고 짚으며 산업계와 다양한 이해관계자의 참여를 촉구했다. 이에 윌프레드 부국장은 싱가포르의 민관 협력 사례를 소개했다. 그는 "각 기업이 스스로 테스트하고 검증할 수 있도록 샌드박스 환경을 운영 중"이라며 기업 책임성과 자율 규제를 병행하는 모델을 설명했다. 아울러 무라카미 소장은 기업 역할의 중요성을 강조했다. AI 안전에 대한 투자가 단순한 비용이 아니라 기업의 지속 가능성을 높이는 투자라는 설명이다. 특히 모든 기업이 지속가능발전목표(SDG)의 관점에서 AI 안전을 전략적으로 접근해야 한다고 제언했다. 글로벌 협력 방안에 대한 논의도 이어졌다. 베셀리 참사관은 "국제 협력의 핵심은 상호운용성과 공동 리스크 평가 체계"라며 "EU는 표준화 요청을 통해 AI 평가 도구를 공동 개발 중"이라고 설명했다. 이어 "각국이 같은 기준으로 위험을 평가할 수 있어야 진정한 글로벌 협력이 가능하다"고 덧붙였다. 이와 관련해 김명주 소장은 "국제 네트워크를 통해 공동 연구와 표준화를 강화해 나가겠다"고 밝혔다. 끝으로 "AI 안전은 특정 국가나 기업의 책임이 아니라 인류가 함께 구축해야 할 글로벌 과제"라며 "규제와 혁신이 조화를 이룰 때 비로소 지속가능한 AI 생태계가 완성될 것"이라고 강조했다.

2025.10.28 14:33한정호

"AI 안전, 선택 아닌 필수"…서울서 글로벌 거버넌스 협력 '한목소리'

"인공지능(AI)은 인류가 만든 가장 강력한 발명이지만 그만큼 안전에도 두 배의 노력이 필요합니다." 김명주 한국 인공지능안전연구소장은 28일 호텔 나루 서울 엠갤러리 앰배서더에서 열린 '2025 인공지능 안전 서울 포럼'에서 이같이 강조했다. 이번 포럼은 과학기술정보통신부가 주최하고 한국전자통신연구원·한국 AI안전연구소가 주관한 첫 글로벌 AI 안전 행사로, 세계 각국의 연구기관·정부·산업계 관계자 약 150명이 참석했다. 행사에서는 '보다 안전한 AI 세상을 향한 글로벌 협력'을 주제로 AI 안전 거버넌스·평가·레드티밍 등 국제적 협력 방향이 논의됐다. 개회식에서 송상훈 국가AI전략위원회 지원단장은 "AI 기술의 발전은 인류의 삶을 바꾸는 동시에 새로운 위험을 수반해왔다"며 "신뢰할 수 있고 안전한 AI를 확보하는 것은 앞으로 풀어나가야 할 시급한 과제"라고 말했다. 또 다음 달 공개 예정인 정부의 'AI 액션플랜'을 언급하며 "안전과 신뢰를 핵심 가치로 삼아 대한민국이 국제 AI 안전 네트워크의 일원으로서 책임을 다하겠다"고 강조했다. 행사 첫 번째 세션에서는 일본·싱가포르·유럽연합(EU)·한국 등 주요 국가의 AI 안전 기관 관계자들이 발표자로 참여해 각국의 정책과 연구 성과를 공유했다. 아키코 무라카미 일본 AI안전연구소장은 "2023년 G7 히로시마 정상회의 이후 각국이 AI 안전 프로세스 구축에 속도를 내고 있다"며 "일본 역시 AI 안전 표준 수립과 산업 간 협력 허브로서 역할을 강화하고 있다"고 설명했다. 이어 "AI 안전은 기술 자체뿐 아니라 활용 혁신과 균형을 맞춰야 한다"며 "데이터 품질 관리, 산업별 안전 가이드라인 제정 등 실질적 조치가 병행돼야 한다"고 덧붙였다. 두 번째 발표에서 바네사 윌프레드 싱가포르 정보통신미디어개발청(IMDA) 부국장은 "AI 안전이 혁신을 가로막아선 안 된다"며 "싱가포르는 신뢰를 기반으로 한 책임 있는 AI 생태계를 만드는 것이 목표"라고 밝혔다. 현재 싱가포르는 AI 기업이 자율적으로 안전 기준선을 설정하고 테스트할 수 있도록 'AI 그래파이트 파운데이션'을 운영 중이며 금융·헬스케어 분야에서 샌드박스를 통해 안전성 평가를 수행하고 있다. 윌프레드 부국장은 "에이전틱 AI 시대에는 자동화로 인한 편향이 심화될 수 있어 인간의 개입과 검토가 필수적"이라며 인간 중심의 AI 거버넌스 필요성을 강조했다. 영상으로 참여한 루실라 시올리 EU AI국장은 올해 8월부터 본격 적용된 'EU AI법'의 핵심 내용을 설명했다. 그는 "고위험 AI 시스템과 범용 AI 모델에 대한 규정을 통해 투명성과 안전을 확보할 것"이라며 "25개 이상 기업이 자발적으로 참여한 'AI 실천 강령'이 핵심 역할을 할 것"이라고 말했다. 시올리 국장은 "한국·싱가포르·미국 등과 AI안전연구소 네트워크를 통해 평가 방법론과 표준을 공유하겠다"며 국제 협력 의지도 드러냈다. 마지막 발표자로 나선 김명주 소장은 한국 AI안전연구소의 활동과 성과를 소개했다. 그는 우리나라의 AI 기본법 제12조를 언급하며 "우리 연구소는 법적 기반 위에서 AI 세이프티를 기술·정책·윤리 세 축으로 다루고 있다"고 설명했다. 또 "MIT의 AI 리스크 레퍼지토리를 바탕으로 리스크 맵핑 프로젝트를 진행 중이며 원인·결과·대응 주체를 3D 형태로 시각화해 잠재 리스크를 조기 식별 중이라"고 발표했다. 그러면서 "평가·정책·기술 검증을 통해 국내 기업 경쟁력을 높이는 동시에 글로벌 생태계의 안전 수준을 함께 높여나갈 것"이라고 말했다. 이번 포럼에는 ▲LG AI연구원 ▲네이버클라우드 ▲구글 딥마인드 ▲앤트로픽 ▲세이퍼 AI ▲스케일 AI ▲카르마 등 주요 기업·기관이 참여했다. 특히 한국 AI안전연구소와 스케일 AI는 업무협약을 체결해 레드티밍 협력을 본격화했다. 포럼 둘째 날인 오는 29일에는 프론티어 AI 모델을 대상으로 한 실습형 레드티밍 워크숍이 진행된다. 김 소장은 "안전하고 신뢰할 수 있는 AI를 만드는 것은 선택이 아니라 필수"라며 "AI 안전은 어느 한 나라나 기업의 몫이 아닌, 인류가 함께 만들어가야 할 글로벌 생태계의 과제"라고 강조했다.

2025.10.28 13:17한정호

하이퍼클로바X·카나나, 'AI 국민비서' 된다…행안부와 공공서비스 혁신 박차

행정안전부가 일상적인 대화로 편리하게 이용할 수 있는 인공지능(AI) 기반 공공서비스 구현을 목표로 네이버·카카오와 손을 맞잡았다. 행안부는 네이버·카카오와 함께 AI 에이전트 기반 공공서비스 혁신을 위한 업무협약(MOU)을 체결했다고 27일 밝혔다. 이번 협약식에는 윤호중 행안부 장관, 최수연 네이버 대표, 정신아 카카오 대표가 참석했다. 이번 협약에 따라 행안부와 양사는 AI 에이전트 기술을 공공서비스에 선도적으로 적용하고 국민 편의성을 높이는 데 적극 협력키로 했다. 주요 협력 사항은 ▲민간 AI 에이전트와 공공서비스 연계를 위한 기술 방안 마련, 정책과제 발굴 및 제도적 기반 조성 ▲기관 간 협업 및 기술 지원 등을 통한 서비스 연계·확대 ▲서비스 이용 활성화를 위한 홍보 협력 등이다. 특히 민간 AI 에이전트를 통해 공공서비스를 제공하는 'AI 국민비서(가칭)' 시범 서비스를 연내에 구현하는 것을 목표로 한다. AI 국민비서는 세계 최고의 AI 민주정부 실현을 위한 핵심 과제로, 민간 기업의 AI 에이전트에 공공서비스를 연계해 국민이 복잡한 절차 없이 대화만으로 공공서비스를 이용할 수 있도록 지원하는 서비스다. 우선 시범 서비스는 전자증명서 발급·제출, 유휴 공공자원 예약(공유누리) 등 국민 수요가 높은 개별 공공서비스를 중심으로 제공할 예정이다. 네이버는 독자 AI 파운데이션 모델인 '하이퍼클로바X'를 기반으로 AI 에이전트를 구축하고 이를 공공서비스와 연계해 시범 서비스를 구현한다. 해당 서비스는 대표 검색포털인 네이버(웹‧앱)를 통해 제공될 예정이며 맞춤형 추천 기능 등을 더해 이용 편의성을 한층 더 높일 계획이다. 카카오는 자체 거대언어모델(LLM) '카나나' 기반의 AI 에이전트를 공공서비스와 확장성이 높은 개방형 구조로 연동하여 시범 서비스를 구현한다. 국민 메신저인 카카오톡에서 서비스가 제공될 예정이며 유해 콘텐츠 필터링을 위한 AI 가드레일 모델 '카나나 세이프가드'를 적용해 서비스의 편의성과 신뢰도를 높일 계획이다. 시범 서비스를 거친 뒤 향후 생애주기별 생활·행정 업무를 한 번에 처리하는 원스톱 서비스를 구현하고 개인의 상황과 조건에 맞춰 자동으로 처리하는 단계까지 점차 발전시켜 나갈 예정이다. 윤호중 행안부 장관은 "국민이 일상에서 체감할 수 있는 AI 민주정부를 실현하기 위해서는 민간의 혁신적인 기술과 협력이 필수적"이라며 "이번 협약을 계기로 정부와 민간이 함께 힘을 합쳐 국민 누구나 말 한마디로 쉽고 편리하게 공공서비스를 이용할 수 있는 서비스 환경을 만들겠다"고 말했다.

2025.10.28 10:00한정호

배경훈 "AI가 해킹 당하면 걷잡을 수 없다"...AI 안전 강조

“인공지능(AI)에 대한 해킹 공격이 시작되면 문제가 걷잡을 수 없다.” 배경훈 부총리 겸 과학기술정보통신부 장관은 23일 AI안전연구소에셔 열린 간담회에서 이같이 말했다. 최근 잇따른 사이버 침해사고와 같이 AI에 안전과 신뢰가 필수라는 뜻이다. 이날 간담회는 AI를 활용하여 사람의 음성, 얼굴들을 합성 또는 조작하는 딥페이크를 악용한 피해가 발생하고 있고, 다가올 AGI, AI 에이전트 시대에는 우리가 예상하지 못한 새로운 유형의 피해가 발생할 우려가 있어 현재의 AI 안전 확보 기술 현황 등을 공유하고, 정부의 정책 방향을 논의하기 위해 마련됐다. 배경훈 부총리는 이 자리에서 “우리는 AI로 산업의 진흥을 이끌어야 하고 인구감소 대응도 고민해야 한다”며 “그러려면 AI를 정말 잘 만들어야 하는데 잘 만어야 한다”고 했다. 이어, “(저도 민간에서) AI를 만드는 입장이었기 때문에 느꼈던 점이 많았다”며 “AI의 성능과 현장 적용, 운영만이 아니라 만드는 과정에서 '굿(Good) AI'를 내놔야 하는데 이 부분에 대한 논의는 부족한게 아니었나 생각든다”고 털어놨다. 배 부총리는 또 “우리나라가 만드는 모델이 전 세계적으로 활발히 쓰이지 않는데 우리도 글로벌 수준의 AI 기술력을 보여줄 타이밍”이라며 “이럴 때 한국 AI 모델은 성능도 좋은데 신뢰할 수 있다면 이는 국가 경쟁력이 될 것”이라고 강조했다. 간담회에서는 국가가 AI 안전과 신뢰에 대한 기준을 세워야 한다는 의견이 오갔다. 아울러 AI 진화 속도와 함께 AI 안전과 신뢰에 대한 기준이 빠르게 바뀌는 점도 고려해야 할 문제로 꼽혔다. 배 부총리는 “국민이 안심하고 사용할 수 있는 AI는 AI 공존 사회의 첫 걸음”이라며 “AI 안전이 모든 산업과 국민 생활에 녹아들 수 있도록 과기정통부가 관계부처, 유관기관 등과 함께 연내 가칭 '국가AI 안전 생태계 조성 종합계획'을 마련할 계획”이라고 밝혔다.

2025.10.23 18:30박수형

번개장터, 5년 연속 국가 정보보호관리체계(ISMS) 인증 획득

중고거래 플랫폼 번개장터가 2025년 올해, 과학기술정보통신부가 주관하는 공식 정보보호관리체계(ISMS) 인증을 5년 연속 획득했다고 23일 밝혔다. ISMS 인증은 한국인터넷진흥원(KISA) 등 인증기관이 정보보호·개인정보 관리체계 전반을 심사해 주요 정보자산의 안전성과 신뢰성을 공식 증명하는 국가 제도다. 번개장터는 이 기준을 5년 연속 충족하며 국내 최고 수준의 개인정보보호와 안전거래 환경을 지속적으로 구축했다. 특히 번개장터는 2024년 8월부터 에스크로 기반 안전결제 시스템을 모든 거래에 확대 도입하고 AI 모니터링 시스템을 적용해 사기 의심거래를 실시간으로 탐지해 구매자에게 알림 메세지를 보내는 서비스를 제공하고 있다. 이 같은 노력의 결과로 사기거래 비율을 90% 이상 줄이고 거래량은 2배 이상 늘어나는 긍정적인 성과를 거뒀다. 또한 지난 2일 지식재산처 승격 후 처음으로 열린 '2025 위조상품 감정기술 컨퍼런스'에서 자체 개발한 융합형 AI 과학 검수 솔루션 '코어리틱스(Corelytics)'를 발표했다. 해당 기술은 딥러닝·비파괴 분석 기반으로 미세 구성 요소와 원소 조성을 6초 만에 판별해, 고정밀 위조품을 신속·정확하게 감별한다. 번개장터는 이를 통해 업계 최초로 첨단 기술 기반 안전 거래 환경 조성에 앞장서고 있다. 번개장터 박병성 CTO(최고기술책임자)는 “고객이 가장 편리하고 안전하게 거래할 수 있도록 정보보호와 사기 방지에 최선을 다하고 있다”며, “앞으로도 ISMS 인증을 바탕으로 관리체계를 더욱 강화하고, 코어리틱스 등 혁신 기술 도입으로 신뢰받는 플랫폼으로 도약하겠다”고 강조했다.

2025.10.23 14:59안희정

트럼프 행정부 AI 책임자, 앤트로픽 저격…"공포로 좌파식 규제 유도"

데이비드 삭스 미국 백악관 인공지능(AI)·암호화폐 정책 책임자가 공개적으로 앤트로픽을 비판하면서 양측의 정책적 대립이 수면 위로 떠올랐다. 20일 CNBC에 따르면 데이비드 삭스 책임자는 최근 X를 통해 "앤트로픽은 공포를 조장하는 정교한 규제 포획 전략을 구사하고 있다"고 비판했다. 이같은 발언은 잭 클라크 앤트로픽 공동창업자 겸 정책 총괄이 '기술적 낙관주의와 적절한 두려움'이라는 에세이를 발표한 직후 나왔다. 앤트로픽은 2020년 오픈AI 출신 다리오 아모데이와 다니엘라 아모데이 남매가 창업한 기업으로, '더 안전한 AI'를 내세우며 설립됐다. 현재 기업 가치는 약 1천830억 달러(약 259조원)로 평가되며 챗GPT 개발사 오픈AI에 이어 미국 내 두 번째로 높은 가치를 인정받고 있다. 오픈AI가 소비자용 앱 중심인 반면 앤트로픽은 기업용 AI '클로드' 시리즈로 입지를 넓혀왔다. 다만 양사는 AI 규제에 대해 상반된 시각을 보이고 있다. 오픈AI가 규제 완화에 무게를 두는 반면, 앤트로픽은 트럼프 행정부의 주 차원 규제 무력화 시도를 반대해왔다. 앤트로픽은 캘리포니아 주의 AI 투명성법인 'SB 53'을 공개 지지하며 "투명성 요건은 AI 안전에 중대한 영향을 미친다"고 밝혔다. 이에 대해 삭스 책임자는 "앤트로픽이 좌파적 규제 노선을 옹호하며 자신들을 트럼프 행정부의 피해자로 포장하고 있다"며 "우리가 한 일은 정책적 의견 차이를 밝힌 것뿐인데, 언론에는 마치 정치적 탄압을 받는 듯한 인상을 주고 있다"고 반박했다. 이와 달리 앤트로픽은 여전히 미 국방부 및 연방조달청(GSA)과의 계약을 유지하며 정부 부문에서도 입지를 확보하고 있다. 최근에는 국가안보 자문위원회를 신설하고 공공기관을 위한 AI 모델을 연 1달러에 제공하는 등 정부 협력도 강화하고 있다. 삭스 책임자는 "AI 정책은 중국과의 기술 경쟁에서 미국이 뒤처지지 않기 위해 속도감 있게 혁신해야 한다"며 "공포에 기반한 접근은 스타트업 생태계를 위축시키고 있다"고 주장했다.

2025.10.20 13:01한정호

中 AI 안전 연구소 출범 8개월…"실질 감독 없이 외교만 앞세워"

중국이 야심 차게 출범시킨 인공지능(AI) 안전 연구소가 8개월 만에 '기술 감독'이 아닌 '대외 외교'에 치중하는 상징적 기구에 그치고 있다는 분석이 나왔다. 18일 AI 프론티어스에 따르면 지난 2월 파리 AI 행동 정상회의를 계기로 출범한 '중국 AI 안전 및 개발 협회(CnAISDA)'가 그 주인공이다. 이 조직은 지난 여름 상하이 세계 AI 컨퍼런스(WAIC)를 통해 국제 무대에 본격적으로 모습을 드러냈다. 다만 이 조직은 출범 8개월이 지난 현재까지 전담 직원이나 자체 예산조차 확보하지 못한 것으로 알려졌다. 심지어 중국어 공식 웹사이트도 없어 조직의 실질적인 운영 능력에 의문이 제기된다. 지도부 면면은 화려하다. 푸잉 전 외교부 부부장, 앤드류 야오 튜링상 수상자 등 저명한 인사들이 전면에 나섰다. 쉐란 국무원 고문 상하이 AI 랩(SHLAB)의 조우 보웬 등도 합류했다. 그럼에도 조직의 구조는 실권과는 거리가 멀다. CnAISDA는 미국 영국과 달리 새로운 정부 기관이 아닌 기존 기관들의 '연합체', 즉 '네트워크' 형태로 운영된다. 중국 최고 명문인 칭화대가 조직의 허브 역할을 맡고 있으며 베이징 AI 연구원(BAAI), 중국정보통신기술연구원(CAICT) 등이 참여 기관으로 이름을 올렸다. 이 연합체 모델은 기관 간 경쟁을 피하기 위한 정치적 타협의 산물로 풀이된다. 실제 CnAISDA의 행보는 기술적 감독 기능보다 국제 외교 무대에 집중돼 있다. 창립 문서부터 '포용적 글로벌 AI 안전 거버넌스 프레임워크' 구축을 촉구하며 국제 협력을 전면에 내세웠다. 이는 미국의 'AI 실행 계획'에 맞선 중국의 '글로벌 AI 거버넌스 실행 계획'과도 궤를 같이 한다. 리창 총리가 '세계 AI 협력 기구' 창설 지원을 발표한 것도 같은 맥락이다. 물론 연합체 산하 기관들의 개별적인 움직임은 주목할 만하다. SHLAB은 WAIC에서 콩코르디아 AI와 협력해 '프론티어 AI 위험 관리 프레임워크'를 발표했다. 이들은 자체 프레임워크로 AI 모델 위험성을 분석하며 영국 AISI의 평가 소프트웨어 '인스펙트'를 활용했다. 서방과의 기술적 방법론이 수렴되는 현상을 보인 것이다. 중국 주요 기업들의 안전 서약도 CnAISDA 이름으로 재확인됐다. 지난해 12월 알리바바, 텐센트 등 17개 사는 서울 AI 정상회의 약속과 유사한 서약을 맺은 바 있다. 다만 이 서약의 실효성은 낮다는 평가다. 서명한 중국 기업 중 약속을 이행한 곳은 전무하다. 딥시크 등 일부 기업은 두 번째 서약에서 아예 빠졌다. 결국 중국의 거버넌스 논의에서 프론티어 AI 안전은 AI 개발과 경제 성장이라는 최우선 목표에 밀려나 있다는 지적이다. 잭 클라크 앤트로픽 공동 창업자는 "(상하이 AI 랩의 연구 결과는) 연구된 위험과 사용된 방법론 모두에서 미국 및 영국의 위험 평가와 보다 가까운 수렴성을 보여줬다"고 밝혔다.

2025.10.19 03:07조이환

위성곤 의원 "AI 정부 실현, 행정문서부터 바꿔야…AI레디 포맷 의무화 필요"

공공기관의 인공지능(AI) 전환이 정부의 주요 과제로 떠오른 가운데, 행정 문서 포맷의 한계로 인해 AI 행정 혁신이 제자리걸음을 하고 있다는 지적이 제기됐다. 더불어민주당 위성곤 의원은 14일 국회 행정안전위원회의 행정안전부 대상 국정감사에서 "AI 정부에서 중요한 것은 AI를 읽을 수 있는 문서를 생산하는 것과 공무원들이 AI를 통해 행정 혁신을 어떻게 꾀할 것인가를 고민하는 것"이라고 강조했다. 이어 "행정의 기초가 되는 문서의 90% 이상이 HWP나 PDF처럼 AI가 읽지 못하는 폐쇄형 포맷"이라며 "사람은 읽을 수 있지만 AI는 읽지 못하는 형식이라 공공 AI 전환이 사실상 불가능한 구조"라고 지적했다. 문서 포맷과 관련해 위 의원은 미국·영국·프랑스 정부 등은 이미 기계판독형 포맷을 행정 표준으로 도입한 현황을 공유했다. 이에 우리 정부도 AI가 읽을 수 있는 'AI 레디' 포맷을 행정 표준으로 의무화해야 한다는 설명이다. 위 의원은 "문서 포맷 전환과 함께 제목·작성자·날짜 등을 정확히 표기하는 표준 메타데이터 부착 제도를 도입해야 한다"며 "현재 우리 행정 문서는 AI가 긁어도 찾을 수 없는 구조로, 이른바 'AI 그린워싱' 상황에 놓여 있다"고 꼬집었다. 또 그는 "정부의 공공 AI 사업이 민원 응대, 문서 분류, 상담 챗봇 등 이름만 다르고 내용은 다 비슷하다"며 "부처별로 중복된 AI 사업을 통합 관리할 컨트롤타워 체계를 갖춰야한다"고 덧붙였다. 이에 대해 윤호중 행정안전부 장관은 "AI 통합 기반 사업을 통해 중복 투자를 막고 효율적인 AI 전환을 추진하겠다"고 말했다. 아울러 위 의원이 제기한 공공 AI 전환 관련 법 제정 필요성에 공감하며 종합국감 전까지 계획을 수립해 보고하겠다고 밝혔다. 위 의원은 "김대중 정부 시절 전자정부위원회가 그랬듯, 행안부 내에 장관 중심의 '인공지능정부특별위원회'를 설치해 공공 AI 대전환을 추진해야 한다"고 강조했다.

2025.10.14 16:24한정호

국감장에 부총리 딥페이크...배경훈 "국민들 사실로 오해, 유감"

배경훈 부총리 겸 과학기술정보통신부 장관이 자신을 소재로 제작된 정치쟁점적인 요소의 딥페이크 동영상이 국정감사 중에 재생된 점에 대해 유감을 표했다. 배경훈 부총리는 13일 정부세종청사에서 열린 국정감사에서 국민의힘 김장겸 의원의 질의가 끝난 뒤 “국민들이 보고 계시는 국정감사에서 (딥페이크로 제작된) 이런 영상이 띄워지면 이를 사실로 받아들일 수 있는 오해가 생길 수 있다”고 했다. 이어, “이런 영상은 소라로 만들면 소라로 만들어진 영상이라고 표시되는데, 딥페이크 영상이라고 자막 자료라도 첨부됐다면 좋았을 텐데 영상이 돌아다닐 것에 대해 유감 표명을 드려야 할 것 같다”고 밝혔다. 앞서 이날 과기정통부 대상 국정감사에서 김장겸 의원의 질의 중에 이춘석 의원의 주식 투자와 관련, 배 부총리가 등장하는 딥페이크 동영상이 재생됐다. 동시에 여야 의원들의 논쟁 중에 감사가 잠시 정회되기도 했다. 감사가 속개된 뒤 김 의원은 “개연성이 있을 법한 루머에는 대중이 믿도록 만드는데, 그런 사례에 AI가 적용되면서 불과 몇 초 만에 만든 영상인 점을 강조하려고 한 것”이라며 “이춘석 의원 관련 영상은 고급일식집에서 술잔을 마주하고 몇 줄의 프롬프트만으로 만들어진다”고 말했다. 이어, “내년 지방선거를 앞두고 제대로 된 부서도 없고 그런 차원에서 질의를 한 것”이라고 덧붙였다. 배 부총리는 이에 대해 “과기정통부가 부총리 조직으로 승격하면서 AI실 산하에 AI안전신뢰정책과, AI안전신뢰지원과 등 두 개 과가 신설됐다”며 “AI 산업의 진흥도 중요하지만 안전과 신뢰에 대한 부분 아주 중요하게 생각한다. 신뢰와 안전에 대한 부분을 지켜내지 못하면 산업 진흥도 물거품이라고 생각한다”고 답했다. 김 의원이 모두의 AI가 정치적 구호에 그치지 않냐며 결국 엔비디아 배를 불려주는 것이 아니냐는 질의에 대해, 배 부총리는 “전세계적으로 AI 개발 특히 학습에서 엔비디아를 사용하지 않는 곳 없을 것이고, 이제 대체제로 AMD가 준비되고 있고, 추론 분야에서는 국내 NPU 업체들이 잘 준비하고 있다”고 말했다. 이어, “결국 AI기본사회는 모두가 AI를 통해 혜택을 누린다는 것”이라며 “방식은 여러 가지가 있겠지만 일반인들이 챗GPT로 통용되는 서비스를 쉽게 쓰듯이 누구나 쓰고 많은 혜택 누리면서도 많은 소외계층 AI 잘 사용하지 못하는 부분이 있으니 누구나 AI를 활용하게 하겠다는 게 핵심”이라고 강조했다. 그러면서 “해외 빅테크 중심의 AI 기술뿐만 아니라 챗GPT를 사용할 수도 있다”며 “다만 한국도 AI 파운데이션 모델을 만들고, 이를 기반으로 AI 서비스를 만들고, 또 이를 기반으로 특화 모델을 만들고, 나아가 AX를 확산하고 과학기술을 혁신하는 데 한국에 내재화된 자체 AI가 필요하다는 것”이라고 덧붙였다. 배 부총리는 이어 최민희 과방위원장에 발언 기회를 얻어 “(김장겸 의원이) 딥페이크 영상을 보여줬는데 취지에는 충분히 공감한다”면서도 “딥페이크 영상이 사실인 것처럼 돌아다닐 것에 대해 유감을 표명한다”고 했다.

2025.10.13 12:28박수형

블랙박스 들여다본 AI, 안전운전 도우미로 변신

일본의 NEC가 생성형 AI가 안전운전을 위한 조언을 만들어내는 서비스를 선보인다는 소식이다. 지디넷재팬에 따르면 NEC는 8일 '쿠루미에 생성형AI 버전'을 출시한다고 밝혔다. 기존 안전운전 지원 서비스에 생성형AI를 더한 것으로 실제 서비스는 14일부터 시작될 예정이다. 회사가 공들인 영상인식 AI 기술에 대규모 언어모델(LLM)을 결합해 산업 현장에 적용한 사례로, AI가 차량의 블랙박스에 기록된 영상 데이터 가운데 횡단보도나 신호등을 지나칠 때 주의가 필요한 장면을 추출해 태그하는 방식으로 작동된다. 5대 이상의 차량을 운용하는 사업장에서 일본 현지 제도에 따라 의무적으로 지정해야 하는 '안전운전관리자'의 업무 부담을 줄이고, 관리자 간 지도 수준의 편차를 줄이겠다는 목표도 담고 있다. 예컨대 AI가 주행 중 위험함 순간 중에 우선적으로 대응해야 할 장면을 자동으로 선별하고 운전자별 습관을 분석해 구체적인 개선 포인트를 제시하면 안전운전관리자가 이를 활용해 기업의 관리체계를 강화하는 데 쓰는 식이다. 외신은 “중요한 영상을 짧은 시간에 확인해 기존에는 사람이 직접 찾아야 했던 영상 선별 작업 시간을 단축하고 인적 오류를 방지할 수 있다”고 평가했다.

2025.10.08 16:24박수형

美 캘리포니아, AI 안전법 'SB 53' 도입…"혁신·투명성 다 잡아"

미국 캘리포니아 주가 인공지능(AI) 기술 발전과 안전을 동시에 확보하기 위한 법안을 도입했다. 6일 테크크런치 등 외신에 따르면 개빈 뉴섬 캘리포니아 주지사는 AI 안전·투명성 법안인 'SB 53'에 서명했다. 이날 뉴섬 주지사는 "이 법은 AI 산업 혁신을 막지 않으면서 공공의 안전과 투명성을 보장할 수 있다는 가능성을 보여준다"고 밝혔다. SB 53 법안은 대형 AI 기업 모델이 사이버 공격이나 생물무기 제작 등 고위험에 악용되지 않도록 대비책을 마련하고, 그 내용을 공개하도록 의무화한다. 업계가 이미 시행하던 안전성 테스트와 모델 정보 공개를 법적 의무로 전환하도록 설계된 것이다. 이번 SB 53은 지난해 거부된 'SB 1047'보다 업계 반발이 덜한 것으로 전해졌다. 우선 규제 대상을 모든 AI 기업에서 대규모 모델과 프론티어 개발자로 한정하고, 시행 중이던 안전성 테스트와 모델 정보 공개를 그대로 법제화한 점이 주효했다. 기술 발전과 시장 변화에 따라 규제 기준을 조정할 수 있는 유연성이 포함됐다는 평가도 나온다. 경쟁이나 비용 압박으로 기업들이 기존 안전 기준을 낮추지 못하도록 정책적 장치를 마련한 것이 핵심이다. 또 SB 1047이 지적받았던 광범위하고 과도한 규제 문제를 보완한 것이 반발을 줄이는 핵심 요인으로 꼽히고 있다. 애덤 빌렌 엔코드 AI 공공정책 부사장은 "SB 53은 산업계와 정책 입안자가 협력해 합의에 도달한 민주주의의 산물"이라고 강조했다.

2025.10.06 17:00김미정

  Prev 1 2 3 4 5 6 7 8 Next  

지금 뜨는 기사

이시각 헤드라인

고품질 그래픽·멀티 플랫폼 '기본'…2025 게임대상 후보작 8종 공통점은?

"11초에 얼마나 담을 수 있을까"…알리익스프레스 팝업 가보니

애플은 어떻게 접을까…폴더블 아이폰의 10가지 특징

‘역대급 실적’ 카카오..."외부 파트너와 에이전틱 AI 생태계 확장"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.