• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI안전연구소'통합검색 결과 입니다. (15건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'AI 안전성 확보 전략 포럼' 열린다

한국데이터법정책학회는 20일 오후 3시 한국프레스센터에서 'AI 안전성 및 신뢰성 확보를 위한 전략'이라는 주제로 제14회 AI 윤리법제포럼을 개최한다. 이날 포럼에서는 서울여대 정보보호학부 교수, 인공지능윤리정책 포럼 위원장을 지내고 현재 AI안전연구소 초대 소장을 맡고 있는 김명주 소장이 주제 발표를 맡았다. 포럼 회장인 이성엽 교수는 “한국에서도 AI 기본법상 안전성, 신뢰성 확보 규정이 도입됐고, 최근 딥시크 층격으로 인해 AI를 통한 정보보안 위험이 증대되고 있는 상황에서 AI 안전성과 신뢰성 확보를 책임지고 있는 기관의 전략을 듣고 향후 과제를 논의하는 의미 있는 세미나가 될 것이다”고 밝혔다. 한편 AI 윤리법제포럼은 AI 시대의 법제도와 윤리 이슈에 대해 논의하기 위한 전문가 모임으로 정기적으로 생성형 AI의 주요 윤리, 법제, 정책 이슈에 관한 세미나를 개최하고 있다. 1회 포럼에서 ▲생성 AI에서 윤리 이슈를 시작으로 ▲생성형 AI의 기술적 이해 ▲생성형 AI의 저작권 이슈와 과제 ▲생성형 AI의 개인정보의 이슈와 과제 ▲생성형 AI의 경쟁상의 이슈와 과제 ▲주요국의 AI 규제 현황과 시사점 ▲생성형 AI에서 가짜뉴스의 이슈와 과제 ▲생성형 AI에서 시큐리티 이슈와 과제 ▲디지털 통상과 인공지능 ▲생성형 AI 기술, 산업 동향과 시사점 ▲한국의 AI 반도체, 클라우드 전략 ▲AI 규제법의 국내외 동향 분석, 평가와 향후 과제 ▲AI 법제 및 거버넌스 개선방향 등의 주제를 다뤘다.

2025.02.13 14:22박수형

"숨 가쁜 글로벌 테크 대전"…파리 AI 정상회의·사우디 리프 2025 연속 개최

인공지능(AI)과 첨단 기술의 미래를 둘러싼 글로벌 경쟁이 치열해지는 가운데 프랑스와 사우디아라비아에서 연이어 대규모 기술 행사가 열린다. 프랑스는 파리 AI 정상회의(AI Action Summit)를 통해 국제 AI 거버넌스와 협력 방안을 논의하고 사우디아라비아는 리프(LEAP) 2025를 통해 중동을 기술 혁신의 허브로 만들기 위한 전략을 본격화한다. 9일 업계에 따르면 프랑스와 사우디에서 잇달아 개최되는 이번 행사에는 전 세계 정부 관계자, 글로벌 테크 기업인, 학계 전문가들이 참석해 첨단 기술과 규제의 미래를 논의할 예정이다. 파리에서는 AI 기술의 윤리적 활용과 글로벌 협력을 강조되고 리야드에서는 AI·반도체·로보틱스·사이버보안을 중심으로 중동 테크 허브 도약이 추진될 예정이다. 한국도 두 행사에 적극적으로 참여한다. 파리 AI 정상회의에는 정부 차원의 지원이 두드러지며 과학기술정보통신부, 개인정보보호위원회, AI안전연구소 등이 참석해 AI 국제 거버넌스 논의에 힘을 보탠다. 사우디 '리프 2025'에서는 네이버가 맞춤형 AI 솔루션을 공개하고 국내 스타트업들이 중동 시장 진출을 모색한다. "AI 글로벌 규범 강화"…파리 정상회의, 거버넌스 논의 본격화 프랑스 정부는 오는 10일부터 이틀간 프랑스 파리 그랑팔레에서 인도 정부와 함께 '파리 AI 정상회의(AI Action Summit)'를 개최한다. 이번 회의는 AI 안전을 넘어 실천적 행동으로 전환하는 것을 목표로 하며 AI 기술이 개발도상국을 포함한 전 세계에 공정하게 혜택을 제공하도록 협력 체계를 구축하는 데 중점을 둔다. 파리 정상회의는 지난 2023년 영국 블레츨리 파크, 2024년 서울 정상회의에 이은 세 번째 글로벌 AI 정상회의다. 행사에는 80개국 이상이 참여하며 AI 국제 거버넌스·일자리 변화·보안 및 안전·공공이익·혁신과 문화 등 5대 핵심 의제를 중심으로 실질적인 정책과 행동 강령이 논의된다. 이번 회의에는 주요 국가 정상, 글로벌 기업 대표, 학계 전문가가 대거 참석한다. 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리를 비롯해 샘 알트만 오픈AI 대표, 순다르 피차이 구글 대표, 얀 르쿤 메타 AI 수석과학자 등이 자리한다. 학계에서는 마이클 조던 UC버클리 교수, 에릭 브린욜프손 스탠퍼드 교수가 참석해 AI의 미래에 대한 논의를 이끈다. 국내에서도 정부 및 기업 대표단이 적극 참여한다. 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장이 주요 세션에 참석하며 기업 차원에서는 전경훈 삼성전자 최고기술책임자(CTO), 최수연 네이버 대표, 김유철 LG AI연구원 전략부문장 등이 글로벌 AI 기술 경쟁력을 알릴 예정이다. 한국AI윤리학회와 정보통신산업진흥원(NIPA) 관계자들도 행사에 함께한다. 회의에서는 AI 안전성 강화를 위한 국제 보고서 발표와 사이버 위기 시뮬레이션이 진행되며 AI로 인한 직업 구조 변화에 대비한 재교육 방안도 논의된다. AI 데이터센터의 에너지 소비 문제를 해결하기 위한 다자간 협약이 추진되며 의료·기후변화 대응 등 50개 글로벌 AI 공공 프로젝트도 소개된다. 업계에서는 파리 정상회의를 통해 글로벌 AI 협력 체계가 한층 강화될 것으로 기대된다. 특히 프랑스는 구글, 메타, 미스트랄 등 AI 연구센터 유치를 확대하며 AI 허브로 도약하는 계기를 마련하고 있다. 한국 역시 반도체·플랫폼 분야의 강점을 바탕으로 글로벌 AI 표준화 논의에서 주도적인 역할을 할 것으로 보인다. 마크롱 프랑스 대통령은 "AI는 서부의 무법지대가 될 수 없다"며 "권리, 환경, 뉴스의 진실성, 지적 재산권을 보호하는 강력한 원칙을 담으면서도 완전히 자발적으로 모든 국가가 서명할 수 있는 선언을 만들기 위해 시도할 것"이라고 말했다. "사우디, 중동 테크 허브로"…'리프 2025'로 韓 기업 중동 진출 기회 확대 사우디아라비아 정부 역시 9일부터 나흘간 리야드 그랑팔레(엑스포센터)에서 국가 최대 IT 행사인 '리프(LEAP) 2025'를 통해 중동 최대 기술 혁신 플랫폼을 구축한다. 이 행사는 비전 2030 전략에 따라 사우디 경제를 석유 중심에서 기술 주도로 전환하는 데 중점을 두며 AI·로보틱스·사이버보안 등 첨단 기술 분야에서 글로벌 리더십을 강화하는 계기가 될 전망이다. 이 행사에는 1천800개 글로벌 테크 기업, 680개 스타트업, 1천명 이상의 글로벌 전문가가 참여한다. 사우디 통신정보기술부(MCIT)와 타할루프(Tahaluf)가 주최하는 이번 행사는 AI 기반 혁신 사례 전시 '딥페스트(DeepFest)', e스포츠 및 스포츠 기술을 다루는 '스포츠테크 트랙', 신기술을 직접 체험할 수 있는 '테크 아레나' 등 다양한 프로그램을 운영한다. 글로벌 테크 리더들도 대거 참석한다. 아르빈드 크리슈나 IBM 대표, 앨리슨 왜건펠트 구글 클라우드 대표 등이 기술 혁신 방향을 논의한다. 전 맨체스터 유나이티드 선수 파트리스 에브라, 전 아스널 선수 마티유 플라미니 같은 스포츠 스타들도 참여해 스포츠와 기술의 접점을 조명할 예정이다. 한국도 적극적으로 참여하며 사우디 시장 공략에 나선다. 네이버는 'AI 포 사우디아라비아, 파워드 바이 네이버'를 테마로 사우디 맞춤형 AI 모델과 자체 대형 언어모델 '하이퍼클로바X'를 선보인다. 또 사우디 국영기업과 디지털 트윈 플랫폼 협약을 체결하며 현지 시장 확대를 노린다. 리벨리온은 AI 반도체 기술을 공개하며 보안기업인 스패로우는 애플리케이션 보안 솔루션을 소개할 예정이다. 김유원 네이버클라우드 대표는 "각국의 문화와 정체성을 존중하는 기술력을 개발하겠다"며 "이로써 글로벌 시장에서 입지를 보다 강화할 것"이라고 강조했다.

2025.02.09 11:07조이환

[AI 리더스] 김명주 AI안전연구소장 "AI 신뢰도 제고, 韓 기업 글로벌 성공에 필수"

"인공지능(AI)은 이제 자본과 기술의 경쟁을 넘어 '신뢰성'이 핵심인 시대에 접어들었다고 봅니다. 결국 어느 기업의 AI가 더 믿을 수 있느냐가 관건이지요." 김명주 AI안전연구소(AISI) 초대 소장은 최근 기자와 만난 자리에서 정부와 기업이 협력해 AI 거버넌스를 강화하고 안전성을 확보해야 한다고 강조하며 이같이 말했다. 17일 업계에 따르면 글로벌 AI 산업이 빠르게 성장함에 따라 정부가 기술 혁신과 안전성·신뢰성 확보를 위한 법·제도 개선에 박차를 가하고 있다. 이같은 정책적 움직임을 뒷받침하기 위해 세워진 AI안전연구소의 김명주 소장은 연구소의 역할과 비전, AI 관련 글로벌 동향 및 기술 경쟁 속에서의 과제를 공유하며 AI의 안전성과 신뢰성을 높이기 위한 전략적 노력이 필수적임을 강조했다. "글로벌 기준 선도"…정책-기술 잇는 AI안전연구소 역할 AI안전연구소는 지난해 11월 전자통신연구원(ETRI) 산하로 출범해 국가 AI 정책 수립을 지원하고 기술의 빠른 발전이 가져올 안전성과 윤리적 문제를 해결하기 위해 박차를 가하고 있다. 현재 연구소는 ▲글로벌 정책 동향 분석 및 AI 위험 대응을 맡는 'AI안전정책 및 대외협력실' ▲위험 정의와 평가 프레임워크를 개발하는 'AI안전평가실' ▲딥페이크 방지와 AI 보안 기술 연구에 집중하는 'AI안전연구실'로 구성돼 있다. 연구소는 이러한 구조를 통해 독립적이면서도 유기적으로 '정책·평가·기술'을 통합 운영해 AI의 안전성과 경쟁력을 높이는 데 집중한다. 이 구조는 해외 AI 연구소들과의 차별점으로 지목된다. 영국·미국·일본·싱가포르 등 여러 국가에서도 AI안전연구소를 운영 중이지만 자본과 보유 기술의 한계 등으로 인해 기술과 정책을 통합적으로 다루는 경우가 많지 않기 때문이다. 김 소장은 "미국과 영국의 AI안전연구소는 리더십 자체가 정책 전문가나 비즈니스 전문가 중심인 경우가 많다"면서 "국내 우리 연구소는 정책·거버넌스뿐 아니라 기술과 표준화에도 동일한 비중을 두고 운영 체계를 마련했다"고 설명했다. 업계에서는 김 소장을 국내 AI안전연구소의 비전 실현에 적합한 리더로 평가한다. 정책과 기술 모두에 정통한 전문가로, 이 두 분야를 통합적으로 이끌어가는 데 강점을 지니고 있기 때문이다. 그는 지난 1993년 서울대에서 컴퓨터공학 박사 학위를 취득한 후 약 30년간 서울여대에서 정보보안을 가르치며 IT 윤리와 거버넌스 분야에서도 20년 이상 활동해왔다. 김 소장은 "사이버 보안을 비롯한 컴퓨터 공학이 원래 전문 분야지만 윤리와 거버넌스까지 함께 다룰 줄 아는 것이 연구소 운영에 큰 도움이 된다"며 "AI 문제는 결국 사람에게 미치는 영향을 종합적으로 살펴야 한다"고 설명했다. AI 신뢰성 위해 '전방위 리스크맵' 구축…다방면서 시민·국제 사회 조율 이러한 목적을 위해 AI안전연구소는 AI의 안전성과 신뢰성을 확보하기 위한 '전방위적 리스크 맵' 작업을 진행 중이다. AI의 위험을 종합적으로 분석하고 윤리와 안전을 모두 포괄하는 접근을 하기 위함이다. 현재 메사추세츠 공과대학(MIT) 등 다양한 글로벌 기관에서 리스크 맵을 발표했지만 대부분 개발자와 사업자 관점에 치우쳐 있어 윤리적·안전적 관점을 충분히 반영하지 못했다는 평가를 받고 있다. 기존의 난점을 극복하기 위해 연구소는 보안 개념을 중요한 연구 주제로 삼고 있다. 지난 2022년 오픈AI '챗GPT' 출시 직후 AI 안전에 대한 논의는 AI가 인류에게 존재론적 위협을 초래할 것이라는 '터미네이터형 리스크'에 집중됐다. 그런데 실제로 닥쳤던 현실적인 문제는 오픈AI의 오픈소스 버그로 인한 사용자 대화 기록 유출 사건이었다. 이후 170개 이상의 취약점이 패치되며 문제가 해결됐지만 이 사건은 AI 시스템의 취약성을 여실히 드러낸 사례로 평가된다. 김 소장은 "'챗GPT'의 경우 버그바운티를 통해 지난 2년간 취약점을 패치하면서 최근에야 비로소 문제를 해결했다"며 "AI 모델 내부의 취약점도 중요하지만 해커가 외부 네트워크를 통해 공격하지 못하도록 방어 체계를 갖추는 것이 필수적"이라고 강조했다. 이어 "연구소는 이를 위해 기술적 연구와 대응 방안을 적극적으로 개발 중"이라고 밝혔다. 또 그는 올바른 AI 안전 수립을 위한 시민과의 소통의 중요성을 강조했다. 딥페이크 문제, AI로 인한 일자리 위협 등과 같이 일반 시민들이 느끼는 공포가 증가하고 있는 상황에서 기술만으로는 이러한 문제를 해결할 수 없기 때문이다. 김 소장은 "사회적으로 큰 파장을 일으키는 문제에는 제도적·윤리적 지원이 필수적"이라며 "기술 발전뿐만 아니라 실질적인 해킹 문제와 시민이 느끼는 불안까지 고려한 전방위 리스크 맵을 만들고 있다"고 밝혔다. 연구소는 이러한 목표를 달성하기 위해 글로벌 협력과 표준화 작업에도 박차를 가하고 있다. 특히 AI 안전 표준화에 전문성을 가진 싱가포르 AI안전연구소와 협력해 AI 취약성 평가와 안전 프레임워크의 글로벌 기준을 마련하고 있다. 김 소장은 "싱가포르는 AI 이전부터 이미 표준화에서 상당한 전문성과 노하우를 보유한 나라"라며 "협력을 통해 국제적으로 통용될 수 있는 AI 안전 기준을 구축하고자 한다"고 설명했다. 국제 거버넌스 협력도 활발히 진행 중이다. 연구소는 오는 3월 프랑스 파리에서 열리는 AI 정상회의에 참가해 글로벌 AI 안전 거버넌스 구축에 기여할 예정이다. 선진국·개발도상국 간 AI 기술 지원과 AI 국제지구 설립이 주로 논의될 이 회의에서 김 소장은 OECD 산하 글로벌 AI 파트너십(GPAI) 자문위원으로서 이 회의에서 중요한 역할을 할 것으로 기대된다. 또 연구소는 다문화·다언어(MCML) 프로젝트를 통해 AI 모델의 언어적·문화적 편향을 분석하고 이를 교정하는 작업을 수행하고 있다. 이를 통해 AI의 공정성과 신뢰성을 강화하고 국가 간 갈등 예방과 문화적 조화에 기여할 기술을 개발 중이다. 김 소장은 AI의 안전과 신뢰성이 글로벌 경쟁력의 핵심이라고 강조했다. 그는 "EU AI 법처럼 강력한 규제를 충족하고 호환성을 보장할 수 있는 표준화는 국내 기업들이 유럽 시장을 포함한 글로벌 시장에서 경쟁력을 확보하는 데 필수적"이라며 "브뤼셀 기준과 호환 가능한 표준을 마련해 국내 AI 기술의 EU 시장 진출을 도울 계획"이라고 밝혔다. 또 그는 글로벌 시장에서 국산 AI의 성공 가능성을 낙관적으로 전망했다. 특히 미국과 중국 간의 기술 경쟁이 심화되는 상황에서 디지털 종속에 대한 우려를 가진 중동과 동남아시아 국가들이 한국을 제3의 대안으로 선택할 가능성이 높다는 분석을 내 놓았다. 기술 수준이 두 AI 초강대국에 비해 다소 뒤처지더라도 정치적 리스크가 이러한 선택에 결정적인 영향을 미칠 수 있다는 것이다. 그는 "한국은 데이터, 반도체, 인재, 기술 지원 역량 등 AI 개발의 필요조건을 이미 갖추고 있다"며 "다만 여기에 안전성과 신뢰성이 충분조건으로 작용할 때 국산 AI의 '소프트파워'가 글로벌 시장에 먹혀들 것"이라고 분석했다. 트럼프 당선·AI 기본법 통과…글로벌 AI 생태계 지각 변동 예고 김명주 소장은 AI 기본법 통과와 트럼프 당선이라는 두 가지 중요한 정치적·법적 변수에 대해서도 의견을 밝혔다. 그는 이 두 사안이 한국뿐만 아니라 글로벌 AI 시장과 연구소의 운영 전략에도 영향을 미칠 가능성을 시사했다. 트럼프가 미국 대통령으로 취임한 후 AI 규제가 느슨해질 가능성이 있느냐는 기자의 질문에 김 소장은 규제가 강화될 가능성을 언급했다. 이는 트럼프의 '아메리카 퍼스트' 정책이 자국의 AI를 자유롭게 발전시키는 동시에 다른 나라에는 철저한 제한을 목표로 할 수 있기 때문이다. 또 AI가 전략자원화 되는 현 시점에 적성국을 견제하기 위한 규제 조치를 취할수도 있다는 설명이다. 김 소장은 "트럼프의 미국은 자국이 AI 규제를 선도해야한다는 입장일 가능성이 크다"면서 "산업적인 측면에서의 '사다리 걷어차기' 전략과 안보 정책으로서의 규제를 강력히 도입할 가능성이 있다"고 예측했다. AI 기본법에 대한 분석도 이어졌다. 지난해 12월 국회를 통과한 이 법안은 업계에서 규제와 진흥의 균형을 맞추려는 시도로 평가받으며 대체로 환영받는 분위기다. 다만 일각에서는 치열한 경쟁 상황에서 규제를 최소화해야 한다는 반론도 제기하고 있다. 김 소장은 "AI 기본법은 산업과 안전 중에 산업에 방점을 찍은 법안"이라며 "EU AI법은 주로 규제 내용으로 구성돼 기업들이 숨 쉴 틈이 없는 것과 달리 우리 기본법은 산업 진흥에 70~80%, 규제에 20~30% 정도로 구성돼 기업 부담을 크게 줄였다"고 설명했다. 이어 "향후 시행령과 고시를 통해 보다 합리적인 조정이 가능할 것"이라고 덧붙였다. AI 기본법 통과에 따른 연구소의 소속과 독립 문제도 거론됐다. 현재 AI안전연구소는 ETRI 산하로 운영되고 있지만 법 통과로 인해 독립 기관으로서의 출범 가능성이 열렸기 때문이다. 이에 대해 김 소장은 "법적 가능성은 있지만 아직 결정된 바는 없다"고 밝혔다. 다만 올해 연구소는 ETRI 산하에서 지속적으로 성장할 계획이다. 현재 15명인 조직 규모는 올해 30명으로 증원될 계획으로, 오는 4월 진행될 채용에서는 7명을 새로 선발하며 이 중 5명은 정책·대외협력 분야, 2명은 평가·기술 분야 인재가 포함될 예정이다. 그럼에도 국가기관 특성상 인재 채용 조건의 제한은 아쉬운 점으로 지적된다. 기자 확인 결과 연구소는 ETRI와 마찬가지로 과학 분야 최고 수준의 논문으로 평가받는 SCI급 논문 작성 경험을 가진 연구자만을 선발한다. 이는 정책·거버넌스 분야에서의 채용에는 다소 비효율적일 수 있다는 업계의 비판을 받고 있다. 또 영국 AI 안전연구소가 연구자들에게 약 2억 원의 연봉을 지급하는 것과 비교해 상대적으로 낮은 처우를 제공한다는 지적도 있다. 이에 김 소장은 "국가 예산과 ETRI 구조상 처우를 대폭 개선하기는 어렵다"면서도 "다만 유능한 인재를 끌어들이기 위해 국가 공공기관 평균 연봉보다 2~3천만 원 더 지급해 물가 고려시 영국 연구소의 연봉 수준에 비견하는 수준의 인센티브를 지급하고 있다"고 말했다. 이어 "향후에도 ETRI와 함께 조율해 장기적으로 우수 인재 유치에 더 과감히 투자할 계획으로, 이들이 여기서 쌓는 경험도 개인 커리어에 큰 장점이 될 수 있을 것"이라고 강조했다. 이같이 AI안전연구소는 AI 기술의 안전성과 신뢰성을 강화하며 정책·평가·기술의 통합적 접근을 통해 글로벌 리더십을 확보하는 데 주력하고 있다. AI가 가져올 사회적·경제적 영향을 면밀히 분석하며 이를 바탕으로 국내외 신뢰받는 AI 생태계를 구축해 나가는 것이 연구소의 궁극적인 목표다. 김명주 AI안전연구소장은 "AI는 기술적 진보뿐 아니라 신뢰와 안전을 담보해야 글로벌 시장에서 경쟁력을 가질 수 있다"며 "우리는 기술, 정책, 윤리적 기준을 모두 아우르는 리더십을 통해 국내외 AI 생태계의 신뢰성 확보를 위해 매진할 것"이라고 강조했다.

2025.01.17 15:02조이환

고학수 위원장 "올해 개보위 핵심은 AI…안전연구소 협력 의지"

개인정보보호위원회가 올해 안전한 인공지능(AI) 생태계 조성을 위해 AI안전연구소와 협력할 의지를 내비쳤다. 고학수 개인정보위 위원장은 16일 서울 정부청사에서 열린 정례 브리핑에서 이같은 업무 계획을 밝혔다. 고학수 위원장은 "올해 개인정보위 키워드는 AI"라며 "지난 2년 동안 AI 영역을 자세히 들여다봤다면 올해부터 현장에서 프라이버시, 데이터 생태계 등 실질적인 AI 안전에 집중할 것"이라고 설명했다. 고 위원장은 최근 AI로 인해 발생한 딥페이크와 가짜뉴스, 환각현상 등 부작용이 발생했다고 지적했다. 이에 개인정보위가 늘 강조하는 개인의 자유와 존엄성이 훼손됐다는 설명이다. 그는 "특히 딥페이크는 개인의 존엄성을 전면 침해하고 있다"며 "이를 정부가 근본적으로 어떻게 해결할 것인가 고민해야 할 시점"이라고 말했다. 고 위원장은 AI 부작용 해결과 국민 자유·존엄성 보호를 위해 AI안전연구소와 협력할 것이라고 말했다. 구체적으로는 AI 서비스에 적용되는 데이터 프라이버시 관련 영역에서 가이드라인·관리 모형 등에 협력할 계획이다. 그는"최근 AI안전연구소를 산하로 둔 한국전자통신연구원(ETRI)과 한국정보통신기술협회(TTA)가 지난해 12월 발표한 개인정보위의 AI 리스크 관리 모형에 큰 관심을 보였다"며 "이는 AI안전연구소 입장에서도 당연히 들여다볼 법한 영역이기 때문"이라고 강조했다. "공공영역 처벌법 고려해야"…구글·메타 소송 결과 '낙관' 고학수 위원장은 공공영역 과징금 규모와 처벌 수위를 고려해야 한다고 주장했다. 이는 공공영역 과징금 규모가 민간기업에 비해 낮다는 평가에 대한 반응이다. 개정법 전 공공기관 과징금 상한선은 5억원이었지만 지난해 이를 20억원으로 상향조정됐다. 그러나 여전히 민간기업에 비해 낮은 수준이라는 지적이 이어지고 있다. 이에 고 위원장은 "공공영역은 국민 세금으로 운영되는 곳"이라며 "과징금을 높게 부과하는 것이 세금 낭비로 이어질 수 있다"고 설명했다. 그러면서 "과징금이 아닌 다른 방향으로 처벌을 진행하는 방향으로 바꿀 필요가 있다"고 강조했다. 실제 개인정보위는 공공기관 처벌 사실을 공표하는 것을 선택에서 의무로 전환한 바 있다. 한 번 초사 처분 된 기관은 3년 동안 반복적으로 점검할 수 있는 시스템도 구축된 상태다. 조직 내부에서 문제가 발견될 때 조직적 문제와 개인적 문제를 구분해 징계하는 방식도 추진 중이다. 고학수 위원장은 오는 23일 판결 예정인 구글·메타 소송을 낙관적으로 기대한다고 말했다. 그는 "조만간 결정이 이뤄질 사안"이라며 "낙관적으로 생각하지만 100% 장담할 수는 없는 상황"이라고 덧붙였다.

2025.01.16 17:01김미정

AI안전연구소 어떤 일 하나···구성원과 처우는

"히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 되겠습니다." 김명주 AI안전연구소(AISI, AI에스아이로 발음) 소장은 27일 이 같이 밝혔다. 이날 판교에서 출범한 'AI안전연구소'는 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 전문적으로 대응하기 위한 공공 성격의 AI안전연구 전담조직이다. 정부출연 연구원 중 한 곳인 한국전자통신연구원(ETRI) 부설로 신설됐다. 산‧학‧연이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여해 최근 만든 '국제 AI안전연구소 네트워크' 일원으로도 활동한다. 정부는 AISI를 통해 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진할 계획이다. AISI는 '안전한 AI로 만드는 지속가능한 미래'를 비전으로 내세웠다. 3대 미션은 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전 제도 확립 ▲국내 AI기업의 안전 확보 지원이다. 또 수행할 4대 핵심 과제로 ▲AI안전 평가 ▲AI안전 정책 연구 ▲AI안전 글로벌 협력 ▲AI안전 연구개발(R&D)을 설정했다. 이날 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오혜연 KAIST AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장, 황종성 NIA 원장, 김동환 포티투마루 대표, 김영섬 코난테크놀로지 대표, 김윤 트웰브랩스 사장 겸 최고전략임원, 오승필 KT CTO(부사장) 등 AI분야 산학연 관계자 40여명이 참석했다. 초대 소장을 맡은 김명주 소장은 서울여대 정보보호학부 교수로 서울대 컴퓨터공학과에서 학·석·박사 학위를 받은 AI 윤리·신뢰성 분야 전문가다. 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임 있는 AI 개발·활용 확산을 위해 힘써왔다. 경제협력개발기구 글로벌 인공지능 파트너십(OECD GPAI) 엑스퍼트 매니저로도 활동, 지속가능한 AI 발전을 위한 국제사회 논의에도 활발히 참여해왔다. 김 소장 임기는 3년이다. 김 소장은 개소식 행사후 기자들과 만나 연구원 운영 방안을 설명했다. 이날 김 소장과 기자들과 오간 이야기를 일문일답으로 정리했다. -AI안전연구소는 무슨 일을 하나? "AI안전과 관련해 크게 평가, 정책 제안, 기술개발 등 세 가지 일을 한다. AI안전연구소로는 미국, 영국, 일본, 싱가포르, 캐나다에 이어 세계 6번째다. 이들 해외 AI안전연구소와 적극적으로 협력한다. 특히 우리 연구소는 규제기관의 성격이 아니다. 국내 AI 기업이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소를 최소화하도록 지원하는 협력기관으로서의 역할을 한다. 예컨대, GDPR(유럽일반개인정보보호법)로 유럽에 진출하는 국내 IT기업 등은 유럽 시장법을 새로 따라야 한다. 우리 AI 업도 이러한 장벽에 가로막힐 수 있으므로 R&D 단계부터 규제, 인증 및 여러 표준절차를 살피는 게 필요하다." -조직 구성은 어떻게? "연구소 산하에 3개실(AI안전정책 및 대회협력실, AI안전 평가실, AI안전 연구실)이 있다. 전체 직원은 총 30여명 규모인데, 출범 현재는 나와 ETRI 파견인력 8명, TTA 파견인력 3명 등 12명이다. 내년 1월 신규 6명을 우선 채용하고, 내년까지 전체 직원을 30명 규모로 늘린다. 영국이 AI안전연구소를 세계서 가장 먼저 만들었는데, 영국은 직원들이 공무원일 뿐 아니라 풀타임 인력도 130명에 달한다." -국제협력을 강조하는데 국제협력은 어떻게? "지난주 샌프란시스코를 갔다 왔다. 여기서 10개국으로 구성한 국제 AI안전연구소 네트워크가 출범했다. 의장국은 미국이다. 부의장국은 못 정했다. 다들하고 싶어했는데. 내년 2월 프랑스 파리에서 AI안전과 관련한 정상회의가 열리는데 이때 정하기로 했다. 일단 미국, 캐나다, 일본, 싱가포르 등 5개 나라와 MOU를 체결했다. EU와는 따로 만났다. EU가 세계서 제일 먼저 AI법을 만들었고, 우리도 AI법을 만들려고 하니, 호환성을 뒀으면 좋겠다. 진짜 MOU를 맺고 싶은 나라가 한 두 개 있었다. 언어나 문화에 따라 생성 AI가 다른 답을 주는 문제가 있는데 이 분야 연구는 싱가포르와 일본이 우리보다 먼저 연구했다. 우리가 늦었는데, 남은 기간동안 노력해서 내년 2월 파리 회의때는 우리도 비등하게 참여할 예정이다." -예산은 얼마나 되나 "내년 안전성 평가 지표 마련 등 비R&D 과업에 약 40억 원, 솔루션 개발 등 R&D에 약 80억 원이 책정돼 있다." -내년에 착수할 연구는 어떤 것이? "보통 AI를 말할 때 잠재적 위험이라는 표현을 한다. 잠재적이라는 이야기는 아직 밝혀지지 않은 거다. 현재 세계 AI안전연구소들이 공통으로 생각하는 것은, 리스크에 대한 전체 도메인을 빨리 잡자는 거다. 어떤 리스크가 있는 지 다 잡아서 그 리스크별로 우선순위를 매겨 먼저 풀어야 할 것들을 우선 해결하자는 거다. 샌프란시스코 회의때도 세션이 3개였는데, 첫번째 세션이 페이크였다. 연구소 내년 R&D 규모가 80억 정도인데 4개 과제가 잡혀 있다. 평가와, 위험 측정 등에 관한 것들이다. 우리 말고도 국내에 연구 기관이 몇 곳 있는데, 연구소마다 주력하는게 조금씩 다른데, 조정 여지는 있는 것 같다." -글로벌 빅테크와도 협업을 하나 " 지난주 샌프란시스코 회의때도 MS, 오픈AI, IBM 등 글로벌 기업들도 왔다. 우리도 이들 글로벌 기업들과 만났다. 궁극적으로는 이들 빅테크 기업들하고 어떤 테스트를 한다든지, 어떤 걸 할때 같이 움직였으면 좋겠다는 생각을 갖고 있는데, 이 부분은 쉽지 않은 문제인 것 같다. 구글 등과 컨택을 하고 있다. 미국 정부도 엔트로픽 등 몇 개 기업과 협약을 해 테스트를 같이 진행하고 있다." -AI관련 국제 표준 인증을 만드는 것도 국제 AI안전연구소 네트워크가 다루나 "표준이라는 키워드는 이미 나왔고, 기술적인 표준과 절차 표준을 국제 네트워크에서 다룰 거다. 기존 표준화 기구들이 많이 있는데, 거기서도 AI 표준을 다루고 있기 때문에, 우리랑 같이 움직일지, 아마 같이 움직일 것 같은데, 안전에 대한 키워드는 아무래도 AI안전 국제네트워크에서 끌고 가지 않을까 싶다. 우리도 국제 공조를 하고." -AI안전연구를 영국이 리딩하는 이유가 뭔가 "AI윤리라는 키워드를 영국이 가장 먼저 제시했다. AI 안전연구소도 영국이 맨 처음 만들었다. 영국은 서양 세계에서 자기네가 정신적인 지지와 근원이라는 프라이드가 있는 듯 하다. 영국이 AI안전연구소를 처음으로 만들면서 자기네 나라에만 두고 싶어했다. 그래서 요슈아 벤지오를 통해 안전 보고서를 마련하게 했고, 두 번째가 나올 예정이다. 영국과 미국이 생각이 다른 면이 있다. 영국은 10개국 중심으로만 하자는 생각이 있고, 미국은 필요하면 계속 늘리자는 생각이다. 이제 시작했기 때문에 어떻게 될 지는 더 지켜봐야 할 것 같다." -중국과는 어떤 관계를 가져가나 "공식적으로 들은 바는 없다. 원래 작년 런던 회의할 때 중국을 넣었으면 좋겠다는 의견들이 계속 있었다. 어떻게 보면, AI 기본법은 유럽이 아니라 중국이 먼저라고 생각한다. 중국이 AI에 관한 규정을 사실 제일 먼저 만들었다. 그런데 중국은 글로벌 스탠더드가 아니지 않나. 중국 서비스는 당성 검사를 받아야 오픈할 수 있는데, 바이두 애니봇이 이 당성 검사 때문에 우리나라 네이버 하이퍼 클로버보다 며칠 늦게 오픈했다. 언론 자유 측면에서 보면 중국은 굉장히 통제된 나라다. 스탠포드 대학에서 2019년 AI 인덱스를 발표할 때 각 나라별 AI 윤리를 분석했는데 중국은 아주 특이한 패턴이 나왔다. 다른 나라에서 많이 나오는 공정성은 중국에서 전혀 논의되지 않았다. 특이하게 10개국이 참여하는 국제AI안전연구소 네트워크에 케냐도 들어왔다." -AI전문 인력이 전반적으로 부족하다. 좋은 연구원 확보 방안은? "우리 연구원은 출발이 에트리(ETRI)다. 나도 에트리 직원이다(웃음). 에트리 직원 월급으로, 이런 대우로, 현 AI 세계에서 좋은 인재를 뽑을수 있을까? 하는 퀘스천이 있는 것도 사실이다. 어쨋든 판교에 있는 AI기업들의 평균 정도는 줘야 하지 않나 하는 생각들이 있는 듯 하다. 영국의 경우 직원 연봉이 거의 2억이다. 또 거기는 정식 공무원이다. 앞으로 계속 풀어야 할 문제다. 좋은 인재를 얻기 위해서." -고위험 AI 범주가 관심인데... "기본적으로 사람 생명과 관련한 거나 사람의 운명을 결정 하는 것 등이 대상일 듯 하다. 리스크 평가는 대단히 중요하다. 영국도 지금 위험별로 이거에 대한 연구를 하고 있고, 일부 실험을 하고 있는 듯 하다. 잘 지켜보고 있다."

2024.11.27 20:32방은주

정부, AI안전연구소 판교에 설립···"기술‧정책 역량 조속 확보"

정부가 세운 AI안전연구소(AISI)가 판교 소재 글로벌 R&D센터에서 27일 문을 열었다. AI의 기술적 한계와 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 체계적‧전문적으로 대응하기 위한 AI안전연구 전담조직이다. 산‧학‧연 기관이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여하고 있는 '국제 AI안전연구소 네트워크' 일원으로 안전한 AI를 위한 글로벌 연대의 책임있는 역할도 수행한다. 이를통해 AI안전 분야의 경쟁력있는 기술 및 인력을 육성하고, 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진한다. 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오승필 KT CTO, 오혜연 카이스트 AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장을 비롯한 AI분야 산∙학∙연 핵심관계자 40여명이 참석했다. 앞서 지난 5월 열린 'AI서울정상회의'에서 우리나라 등 10개국 정상은 AI안전연구소 설립과 안전한 AI에 대한 글로벌 협력을 강조한 바 있다. 당시 윤석열 대통령도 “대한민국 AI안전연구소 설립을 추진해 글로벌 AI안전성 강화를 위한 네트워크에 동참할 것”이라는 의지를 밝혔으며, 과기정통부는 그간 연구소 조직‧예산‧인력‧기능에 대한 면밀한 사전준비를 거쳐 이번에 AI안전연구소를 출범했다. 이날 국가AI위원회 글로벌 자문위원인 AI분야 세계적 석학 요슈아 벤지오 교수는 축사에서 “서울선언에 따라 한국정부가 AI안전연구소를 설립하게 된 것을 축하한다"면서 AI안전연구소 역할로 ▲업계와 협업을 통한 위험 평가방법 연구‧발전 ▲AI안전성 요건 수립 지원 ▲국제협력을 통한 AI안전체계의 상호 조화가 중요하다고 강조했다. 또 미국 엘리저베스 켈리(Elizabeth Kelly) AI안전연구소장은 “대한민국이 AI안전 증진을 위해 보여준 글로벌 리더십과 지원에 깊이 감사하다”며 “韓-美 AI안전연구소가 全세계 동료들과 함께 AI위험을 줄이고 혜택을 극대화하며, 혁신을 촉진하기 위해 공통된 과학적 기준을 구축해 나가자”고 밝혔다. 영국 Oliver Illot AI안전연구소장과 일본 아키코 무라카미 AI안전연구소장도 “대한민국 AI안전연구소 출범을 축하하며, AI기술을 안전하게 만들어 가기 위해 국경을 넘어선 협력을 확대해 나가자”고 전했다. 'AI안전연구소' 초대소장으로 임명된 김명주 소장은 '연구소 비전 및 운영계획' 발표를 통해 “AI활용으로 발생할 수 있는 제반위험 평가와 이를 예방‧극소화하기 위한 정책‧기술을 개발‧보급하고, 국내‧외 연대를 강화해 나갈 것”이라며 “연구소는 규제기관의 성격이 아니라, 국내 AI기업들이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소들을 최소화하도록 지원하는 협력기관으로 역할을 하겠다”고 강조했다. 이어진 '대한민국 AI안전컨소시엄' 협약식에서는 AI분야 국내 대표 산‧학‧연 기관 총 24곳이 참여한 가운데, AI안전에 관한 정책연구, 평가, 연구개발의 상호협력을 위한 업무협약(MOU)을 체결했다. AI안전연구소와 컨소시엄 참여기관이 함께 AI안전 프레임워크(위험 식별‧평가‧완화) 연구‧개발‧실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 중점적으로 추진할 계획으로, 향후 컨소시엄의 세부 연구주제와 운영방안을 구체화해 나갈 예정이다. 컨소시엄 참여기관들도 AI안전 연구와 관련한 전문성과 기여방안을 제시하며, AI안전연구소와 적극적으로 협력하겠다는 의지를 밝혔다. 유상임 과기정통부 장관은 “AI안전은 지속가능한 AI발전의 전제로 AI분야에 종사하는 우리 모두가 함께 해결해 나가야할 가장 큰 도전과제이며, 특히, 지난해 11월 영국에서 열린 AI안전성 정상회의와 올 5월 개최한 'AI서울정상회의' 이후 불과 1년 만에 미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI안전연구소를 설립하고, 전례없이 기민하고 체계적인 국제 AI안전 협력체계를 구축했다"고 밝히며 “우리도 AI안전연구소를 중심으로 산‧학‧연 연구역량을 결집해 AI안전의 기술‧정책적 역량을 조속히 확보하여, 대한민국 AI산업 혁신을 촉진할 튼튼한 안전기반을 구축해 나가는 한편, 글로벌 AI안전 연대의 주도적인 역할을 수행해 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다.”고 강조했다.

2024.11.27 09:30방은주

벤지오 교수 "AI안전연구소, 정책·과학 발전 병행 필수...韓 AI칩 수준 상당"

한국 정부가 인공지능(AI)안전연구소 개소를 하루 앞둔 가운데 해당 연구소가 AI 정책과 과학 발전을 병행해야 한다는 전문가 주장이 나왔다. 몬트리올대 요슈아 벤지오 교수는 26일 과학기술정보통신부가 용산 피스앤파크컨벤션에서 개최한 'AI 신뢰·안전성 컨퍼런스' 온라인 기조강연에서 한국의 AI안전연구소 방향성을 제시했다. 벤지오 교수는 최근 국가AI위원회 글로벌 자문위원으로 활동 중이다. 벤지오 교수는 연구소가 정책적으로 국제협력뿐 아니라 AI 규제 체계까지 유연하게 구축해야 한다고 당부했다. 신속한 규제 시스템은 AI 기술 오용·사회적 위협 방지를 막을 수 있기 때문이다. 그는 "급변하는 AI 기술 환경에 맞춰 규제도 더 민첩해야 한다"며 "특히 규제기관은 AI 모델 개발사와 사용 기업들의 안전 계획과 모델 테스트 결과를 직접 검토해야 한다"고 강조했다. 벤지오 교수는 연구소가 해외 안전연구소·학자들과 필수 협력해야 한다고 주장했다. 이를 통해 AI 안전에 대한 국제 모범 사례를 접할 기회가 높아진다는 이유에서다. 그는 "최첨단 기술을 다루는 연구소들과 협력하면 국가 안보와 연결된 위험 요소를 상대 평가할 수 있다"고 설명했다. 벤지오 교수는 한국이 글로벌 AI 생태계서 핵심 역할을 할 가능성을 높게 봤다. 그는 "한국은 AI칩 개발 선두주자"라며 "AI안전연구소 설립과 관련한 국제 협력에서 주요 역할을 할 것"이라고 덧붙였다. 이날 카이스트 오혜연 전산학부 교수는 디지털 격차 해소를 위해 '포용적 AI' 중요성을 강조했다. AI 기술이 다양한 언어와 문화를 아우르는 방향으로 발전해야 한다는 이유에서다. 오 교수는 "AI가 영어에만 최적화되면 한국, 일본, 중국 같은 비영어권 사용자는 부정확한 정보에 노출될 수 있다”며 "AI가 다양한 언어와 문화적 인식을 반영해야 디지털 전환의 진정한 포용성을 실현할 수 있다"고 설명했다. 그는 포용적 AI 실현을 위해 다중언어 연구를 적극 추진 중이라고 했다. 최근 거대언어모델(LLM) 연구 트렌드 중 하나로 알려졌다. 오 교수는 "포용적 AI는 단순히 AI 접근성 높이는 것을 넘어 글로벌 교류와 디지털 경제 활성화를 도울 수 있을 것"이라고 강조했다.

2024.11.26 13:04김미정

AI안전연구소 초대소장에 김명주 서울여대 교수

과학기술정보통신부는 AI안전연구소 초대소장에 김명주 서울여자대학교 정보보호학부 교수를 11월12일자로 임명한다고 밝혔다. 김명주 초대소장은 컴퓨터공학을 전공한 AI윤리 신뢰성 전문가로, 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임있는 AI개발 활용 확산을 위해 노력해 왔다. 아울러 OECD GPAI 전문가 멤버로 활동하며 지속가능한 AI발전을 위한 국제사회 논의에도 활발히 참여하고 있다. 정부는 그간 AI윤리 안전분야에서 축적한 전문성과 경험, 리더십을 바탕으로 새로 출범할 AI안전연구소를 글로벌 AI안전연구를 선도하는 기관으로 발전시켜 나가고, 국내 AI분야 산학연과 세계 각국의 AI안전연구소와 긴밀히 협력할 것으로 기대했다. AI안전연구소장의 임기는 임명일로부터 3년이다.

2024.11.12 11:31박수형

ETRI부설 AI안전연구소장에 김명주 서울여대 교수…11일 취임

김명주 서울여대 정보보호학부 교수(60)가 한국전자통신연구원(ETRI) 부설 AI안전연구소 초대 소장으로 임명돼 11일 취임식을 개최했다. AI안전연구소는 AI 안전성을 평가‧연구하고 주요국 AI안전연구소와의 협력 전담 조직이다. 30여 명의 연구인력이 AI안전 정책 및 대외협력실·AI안전 평가실·AI안전 연구실 등 3개의 연구실로 나눠 본격 업무에 들어갔다. 사무실은 판교 글로벌 R&D센터에 설치됐다. AI안전연구소는 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전제도 확립 ▲국내 AI기업 안전 확보 지원 등에 적극 나설 계획이다. 이를 위해 AI위험의 정의와 AI안전 평가, 국가차원 관리 주요 AI위험을 정의하고 AI안전 평가방법론 개발 및 완화방안 마련 등 4개 핵심 과제를 주요 핵심 기능으로 설정했다. 11일부터 근무에 들어간 초대 김 소장은 서울대 컴퓨터공학과를 나와 같은 대학에서 컴퓨터공학으로 석, 박사학위를 받았다. 2001년 수도권 최초로 서울여대에 정보보호학과를 신설했다. 2014년에는 국내 최초 교육부 지정 정보보호영재교육원을 설립했다. 2018년에는 국내 최초로 지능정보사회 윤리 가이드라인 서울 PACT를 개발, 과학기술정보통신부 근정포장을 수상했다. 한국사이버테러정보전학회 부회장을 역임했다. 현재 한국저작권위원회 부위원장, 바른AI연구센터장, 디지털포용포럼 디지털역기능분과장, 한국인터넷윤리학회 명예회장, 인공지능윤리정책포럼 위원장, 개인정보보호위원회 개인정보기술포럼 정책분과위원, 육군3사관학교 석좌교수, 개인정보기술포럼 정책위원을 맡고 있다. 특히, 초대 김 소장은 지난 3월부터 IAAE 국제인공지능&윤리협회 제2대 회장을 수행중이다. IAAE는국제인공지능&윤리협회로 세계 최초로 인공지능 기술과 윤리를 함께 논의하는 글로벌 인공지능 기관이다.

2024.11.11 19:45박희범

개인정보위 "내년 빅테크 소송 예산 증액·인력 충원 목표"

개인정보보호위원회가 내년에 빅테크 소송비를 증액하고 인력 충원을 위해 노력한다는 방침이다. 30일 개인정보위 최장혁 부위원장은 출입기자단 정례브리핑에서 참석해 이같은 계획을 발표했다. 단기적으로 송무팀을 꾸리고 장기적으로는 빅테크 전담 변호사와 회계사를 구축할 방침이다. 최 부위원장은 구글·메타 등 빅테크 소송을 위해 내년 예산 약 4억원을 확보했다고 밝혔다. 그러나 해당 예산은 충분치 않다고 설명했다. 최 부위원장은 "최근 정부가 예산을 줄이려는 정책을 추진하고 있다"며 "이런 상황에서 모든 비용을 충당하기 어려울 수 있다"고 말했다. 그럼에도 최 부위원장은 내년 소송 예산 추가 증액을 희망적으로 봤다. 올해 배정된 예산도 2배 가까이 올려 받았다는 이유에서다. 최 부위원장은 "2023년에 올해 소송비 예산을 2억원에서 4억원으로 증액한 바 있다"며 "어려운 상황이지만 정부와 합의점을 찾을 것"이라고 말했다. 최 부위원장은 빅테크 소송 예산뿐 아니라 글로벌 기업을 관리하는 인력 부족도 큰 난제라고 지적했다. 특히 소송을 전담할 로펌을 찾기 힘들다고 말했다. 최 부위원장은 "대형 로펌들이 주로 대기업이나 글로벌 기업과 비즈니스 관계를 맺고 있다"며 "정부 측 소송을 대행하는 데 어려움이 있다"고 지적했다. 또 개보위는 내년 조직 개편을 통해 빅테크 소송을 전담할 송무팀 신설도 계획하고 있다. 장기적으로는 송무팀 내 전담 변호사와 회계사 등을 추가 영입할 방침이다. 그는 "특히 빅테크에 과징금을 부과하려면 기업 재무제표를 통해 매출을 파악해야 한다"며 "이를 위해 변호사뿐 아니라 회계사 인력 충원은 필수적"이라고 했다. 이 외에도 최 부위원장은 내달 설립 예정인 AI안전연구소와 AI 신뢰성 협력을 위해 노력할 의지도 밝혔다. 그는 "개인정보위가 AI 안전성과 딥페이크 등 AI 신뢰성 논의를 이어온 만큼 AI안전연구소 업무와 연계됐기 때문"이라고 이유를 설명했다.

2024.10.30 17:00김미정

"글로벌 AI 안전 주도"…정부, AI안전연구소 운영 전략 공유

정부가 내달 설립 예정인 '인공지능(AI)안전연구소' 운영 계획을 공유하고 의견을 수렴했다. 과학기술정보통신부는 18일 서울 중구 국가과학기술자문회의 대회의실에서 '제17차 정보통신전략위원회'를 열었다. 이 자리에서 AI안전연구소 비전을 '아태지역을 대표하는 글로벌 AI안전 거점연구소'으로 설정하고 인력 확보·핵심 기능·주요 일정에 대한 사안을 발표했다. 우선 정부는 11월 AI안전연구소를 개소할 예정이다. AI안전연구소는 내달 20일부터 미국 샌프란시스코에서 개최될 '국제 AI안전연구소 네트워크' 행사 참여를 시작으로 본격적인 역할을 수행할 계획이다. AI안전연구소는 한국정보통신연구원(ETRI)에 소속된 신규 연구소 조직으로 설치된다. AI안전 정책·평가·기술분야의 3개의 연구실로 운영된다. 현재 연구소 초대소장으로 AI 분야 전문성과 국제적 감각을 보유한 전문가를 채용하기 위한 절차를 진행 중이다. 이를 통해 연구 인력 30명을 확보할 계획이다. 사무실은 AI 판교 글로벌 연구·개발(R&D)센터에 설치된다. 정부는 아태지역을 대표하는 글로벌 AI안전 거점연구소 구현을 AI안전연구소 비전으로 설정했다. 3대 핵심미션으로 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전제도 확립 ▲국내 AI기업의 안전 확보 지원을 추진한다. 앞서 정부는 올해 5월 'AI서울정상회의'를 개최해 글로벌 AI거버넌스 정상급 선언문인 '서울선언'을 도출했다. 지난달 AI G3로 도약하기 위해 대통령 중심으로 범국가적 혁신역량을 결집하는 민관 협업 기반 최고위 거버넌스인 국가인공지능위원회를 설립했다. 이에 대한 연장선상으로 정부는 AI서울정상회의 개최국으로서 서울선언 규범 가치를 확산하기 위한 핵심 후속조치로 AI안전성을 평가‧연구하고, 주요국 AI안전연구소와 협력을 전담하는 조직인 AI안전연구소 설립을 추진한다. AI안전연구소 운영을 통해 안전한 AI 개발·활용을 확산하고, AI 안전에 대한 국제적 연대 강화와 규범 정립을 수행하며, 중장기적으로 세계적 AI안전 연구를 선도하는 기관으로 발전시킬 계획이다. 그간 정부는 미국과 영국, 일본 등 AI안전연구소를 현장방문해 각국 연구소의 성격과 역할, 안전 평가방식, 연구소 운영방안 등을 심층 분석한 바 있다. AI안전연구소 설립자문위원회와 설립준비위원회 운영을 통해 국내 AI분야 전문가 의견을 폭넓게 수렴했다. 이를 통해 연구소 비전, 세부기능 과 운영방안을 도출했다. 11월 모습 드러내는 AI안전연구소, 핵심 기능은? 과기정통부는 AI안전연구소가 4가지 핵심기능을 수행할 계획이라고 밝혔다. 우선 연구소는 AI위험을 정의하고, AI안전을 평가할 방침이다. 국가차원에서 관리해야 할 주요 AI위험을 정의하고, AI안전 평가방법론 개발과 위험완화 방안을 마련한다. AI안전 평가데이터셋 구축과 평가도구 개발 등 AI안전 평가인프라를 구축하고, 기업 활용을 지원할 계획이다. AI안전연구소는 AI안전 정책을 연구할 방침이다. 주요국·국제기구의 AI 규범·거버넌스를 연구하고, 국내외 주요 AI위험 정보를 수집·분석함으로써 AI안전 정책을 고도화할 예정이다. AI 기술이 경제·사회·일자리 등에 미치는 영향을 종합적으로 분석하고 대응 방안 연구도 추진할 계획이다. 과기정통부는 해당 연구소가 AI안전 대내외 협력을 수행할 것이라고 설명했다. AI안전연구소 중심으로 산학연이 참여하는 AI안전 파트너십을 구축한다. 이를 통해 AI안전 정책·기술 분야 연구 협력을 촉진할 계획이다. 글로벌 AI안전 거버넌스의 주요 일원으로서 AI안전 확보를 위해 주요국 AI안전연구소, 국제기구 등과 협력할 예정이다. 연구소는 AI안전 확보를 위한 R&D도 추진한다. AI 통제력 상실 대응, AI모델의 보안·강건성 강화, AI 딥페이크 탐지 등 AI위험에 대비해 안전을 확보할 수 있는 R&D를 추진한다. 과기정통부 유상임 장관은 "향후 1~2년은 우리나라가 AI, 디지털 분야 선도국 도약의 성패를 좌우할 수 있는 골든타임으로 정부와 민간이 힘을 합쳐 모든 역량을 총결집 해야할 때"라며 "클라우드컴퓨팅 도입 전면화, AI안전연구소 출범 등 논의된 내용들을 속도감있게 추진해 나갈 수 있도록 관계부처와 적극 협력해 나갈 것"이라고 밝혔다.

2024.10.18 14:00김미정

"英·美는 '억대 연봉' 준다던데"...ETRI 연구환경 악화, 정부 출연금 지원 절실

한국전자통신연구원(ETRI)의 정부 출연금 비중이 다른 출연연에 비해 현저히 낮아 연구 환경과 연구원의 처우가 열악한 상황이라는 지적이 나왔다. 연구비와 인건비 문제를 해결하지 않으면 국가 경쟁력을 강화할 핵심 기술 개발이 어려워질 것이라는 우려가 제기되고 있다. 18일 정동영 더불어민주당 의원실에 따르면 정 의원은 지난 17일 국회 과학기술정보방송통신위원회(과방위) 국정감사에서 ETRI 총예산 중 정부 출연금 비중이 16.6%에 불과하다고 지적했다. 이는 다른 24개 출연연 평균 39.1%에 비해 현저히 낮은 수준이다. 정 의원은 ETRI 연구원들이 정부수탁과제(PBS)에 과도하게 의존하고 있어 안정적인 연구 환경이 조성되지 않고 있다고 지적했다. 또 연구원들이 과제 수주에 많은 시간을 투자하면서 장기적이고 대형 성과를 내기 어려운 구조라는 점을 언급했다. ETRI 연구원의 처우는 민간 대기업과 비교했을 때 현저히 열악한 상황이다. 삼성, 현대, LG, SK 등 대기업의 임금 수준에 비해 ETRI 연구원들은 약 70%에 불과한 보수를 받고 있어 우수 인재 유출이 가속화될 위험이 크다. 이러한 문제는 ETRI 산하에 설립될 AI 안전연구소에서도 동일하게 발생할 가능성이 높아 우려를 낳고 있다. 빠르면 오는 11월 ETRI 산하 AI 안전연구소가 개소를 앞두고 있음에도 인재 확보와 관련한 처우 개선 방안은 아직 발표되지 않았다. 현재 ETRI의 연구원들은 민간 대기업 대비 낮은 임금과 불안정한 연구 환경으로 어려움을 겪고 있는 상황으로, AI 안전연구소 역시 충분한 예산 지원과 경쟁력 있는 처우가 뒷받침되지 않을 경우 우수 인재 유출과 함께 연구 성과에도 차질이 생길 수 있다는 우려가 제기되고 있다. 이는 이미 AI 안전연구소가 세워져 있는 영국, 미국과는 '상반된 모습이다. 영국과 미국은 다가오는 AI 시대를 위한 인재 유치에 힘쓰며 억대 연봉을 보장하는 등 충분한 예산과 처우를 제공하고 있어 안정적인 연구 환경을 구축하고 있다. 이러한 우려에도 불구하고 정부가 책정한 인건비 인상률은 민간 및 공무원의 인상률을 밑돌고 있어 연구원들이 체감하는 처우 개선은 미미한 상태다. 정부의 고시 인건비는 민간 수준을 반영하지 못하고 있으며 이는 연구 인력 확보에 어려움을 초래하고 있다. 정 의원은 ETRI 연구환경 개선을 위해 정부 출연금을 확대하고 경쟁형 과제 중심의 PBS 체제를 중대형 묶음과제로 전환할 것을 촉구했다. 연구원의 처우를 실질적으로 개선할 수 있는 제도적 변화가 필요하다는 주장 역시 제기됐다. 정 의원은 "우수 인재 확보를 위해서는 처우 개선과 안정적인 연구 환경 조성이 필수적"이라며 "연구원이 과도한 경쟁에서 벗어나 장기적이고 중대형 과제를 수행할 수 있는 환경을 만들어야 한다"고 강조했다.

2024.10.18 08:44조이환

AI 안전연구소장 공모…미래 AI안전 선도할 리더 찾는다

한국전자통신연구원(ETRI)이 AI 안전연구소장을 공개 채용한다. ETRI는 이번 채용이 글로벌 인공지능(AI) 정책과 법제도를 이끌 전문 인력을 모집하는 데 중점을 둔다고 25일 밝혔다. 지원자는 석사 이상의 학위를 소지해야 하며 AI 안전 관련 정책 수립 및 연구 수행 능력을 갖춰야 한다. 이번 채용의 주요 요건은 AI 안전 분야의 전문성과 글로벌 AI 환경에 대한 깊은 이해다. AI 기술의 안전성을 평가하고 국제 협력을 통해 이를 개선하는 것이 주요 업무이기 때문이다. 경영 혁신과 조직 관리 능력도 필수적이다. AI 안전연구소가 국가 AI 거버넌스의 중심으로서 역할을 수행하기 때문에 조직을 이끌 리더십과 중장기 전략 수립 역량이 요구된다. ETRI는 이번 채용을 블라인드 방식으로 진행해 공정성을 강화했다. 서류 전형, 1차 면접, 최종 면접을 거쳐 합격자를 선발하며 임용은 11월 중으로 예정돼 있다. 지원서 접수는 다음 달 4일까지다. 최종 합격자는 3년 임기 동안 성남 판교에서 근무하게 되며 1회에 한해 연임이 가능하다. 이번 채용은 전 세계적으로 AI 안전 연구소를 설립하는 움직임에 따른 것이다. 이미 미국, 영국, 일본 등 주요 국가들이 AI 안전연구소를 설립했으며 한국도 지난 5월 AI 서울 정상회의에서 연구소 설립을 약속한 바 있다. ETRI는 "이번 공개 채용을 통해 AI 기술의 안전성을 선도할 인재를 찾고 있다"며 "글로벌 경쟁력을 강화할 역량 있는 지원자들의 많은 관심을 기대한다"고 밝혔다.

2024.09.25 11:48조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

ETRI "내년 AI안전연구소 설립"…판교 등 유력

한국전자통신연구원(ETRI, 원장 방승찬)이 2025년 달성할 '탑챌린지 프로젝트' 7개를 공개했다. 방승찬 원장은 서울 과학기술컨벤션센터에서 27일까지 열리는 'ETRI 컨퍼런스 2024'에서 지난 연구성과와 함께 내년 계획을 공개했다. ETRI는 '디지털 혁신으로 만드는 행복한 내일:인공지능과의 동행'을 주제로 ▲인공지능 ▲로보틱스 ▲AI컴퓨팅·보안 ▲AI융합·응용 등 4개 부문의 성과를 발표하는 기술세션과 22개 핵심기술 전시회, 혁신투자포럼을 진행했다. 방 원장은 내년 달성 목표인 '탑챌린지 프로젝트' 7개를 공개했다. 우선 초성능 부문에서 고성능 컴퓨팅 노드 테스트베드를 구축한다. 고성능 컴퓨팅 노드에 HPC-SoC 초병렬 프로세서 등을 탑재하고, AI 반도체를 위한 AI컴파일러 및 프레임워크 기술을 개발할 계획이다. 또 고성능 컴퓨팅 실증 서비스 가능성을 보여줄 시연도 목표로 잡고, 사업화까지 병행 추진한다. 초연결 부문에서는 차세대 통신 조기 상용화를 위한 6G PoC 추진 및 책심 기술 표준 선점이 목표다. 서브-테라헤르츠 시스템 실증 및 핵심기술 6G 표준화와 800㎞ 초저지연 서비스 실증, ETRI pre-6G IoT NTN 위성 누리호 4차 발사 (2025.11) 탑재 등을 추진한다. 디지철 융합 부문에서는 차세대 AAM 자율비행을 위한 ICT 기반 비상상황인지 안전항법솔루션을 발표하는 것이 목표다. 방문객 응대 멀티모달 휴머노이드 로봇 내년 실증 초지능 부문에서는 방문객 응대 멀티모달 휴머노이드 로봇을 실증한다. 멀티모달 교감형 대화기술과 전신 제스처 및 표정 생성 기술, 물건 전달 등 행동 생성 기술을 확보할 계획이다. 초실감 부문에서는 가상 공간 내에서 실세계와 동일한 체험을 할 입체영상 기반 실가상 융합 미디어 기술 개발 및 시연이 이루어진다. 이를 위해 라이트 기반 무안경 입체영상 미디어 스트리밍 기술과 3개 초점면 표현 가능한 입체영상 VR디바이스 모듈, 실재감 제공 원격 교감 상호작용 기술 등을 개발한다. 비침습 무채혈 방식 웨어러블 연속 혈당 측정 기술도 개발 및 시연한다. 귓불형으로 정확도는 95%, 연속 측정시간 5부이내를 목표로 연구소 기업 설립을 추진한다. 이와함께 ETRI는 신뢰 AI기반 공존을 위한 AI안전연구소 설립 및 운영을 통해 AI에서 발생 가능한 위험을 최소화하고 지속 가능성을 확보할 계획이다. AI안전연구소 위치는 판교가 유력하다. 예산과 인력 규모는 현재 논의 중인 것으로 알려졌다. 전시장선 AI 주제 로봇 3대 선보여 관심 이에 앞서 방 원장은 최근 핵심 성과인 ▲종단형 음성인식 기술 ▲자율성장AI ▲근접탐색기술 ▲AI과학경호 등의 기술을 시연했다. 이어 ㈜솔트룩스의 이경일 대표는 'AI for ALL 시대, AI의 다음 단계를 위해 무엇을 준비해야 하나'를 주제로 기조연설했다. 기술세션에서는 ▲실시간 통역 ▲AI외국어 교육 ▲자율주행 모빌리티 ▲사람과 대화하는 소셜로봇 ▲보행로봇 ▲온디바이스 메모리 ▲AI반도체 등의 'AI컴퓨팅', ▲사용자 신원확인 AI ▲AI와 융합된 응용 서비스 등을 논의하는 자리가 마련됐다. 전시장에서는 △오경보로부터 자유로운 AI화재센서 △청각장애인을 위한 음악향유 기술 △지하철 역사내 소음환경에서 13개 언어 실시간 통역 기술 △길안내 로봇이동 기술 △국산 AI반도체를 지원하는 AI컴파일러 등 22개 기술이 공개됐다. 혁신투자포럼에선 소재부품장비 및 ICT 분야의 6개사와 바이오·메디컬·헬스케어 분야 6개사 총 12개사가 IR했다. 방승찬 원장은 "가장 큰 이슈인 AI와 AI로봇,AI컴퓨팅,보안 및 AI 융합 응용기술을 중심으로 AI와 함께 미래를 제시하는 자리"라며 "인공지능과 함께할 다가올 미래를 먼저체험해 보기 바란다"고 말했다. 한편 26일 열린 개막식에는 안철수 의원이 참석했다. 고동진·황정아 의원 등은 동영상 인사로 대신했다. 황정아 의원은 또 오전 행사 마지막에 잠시 들러 돌아봤다.

2024.06.27 09:34박희범

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현