• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 연구소'통합검색 결과 입니다. (51건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

고학수 위원장 "올해 개보위 핵심은 AI…안전연구소 협력 의지"

개인정보보호위원회가 올해 안전한 인공지능(AI) 생태계 조성을 위해 AI안전연구소와 협력할 의지를 내비쳤다. 고학수 개인정보위 위원장은 16일 서울 정부청사에서 열린 정례 브리핑에서 이같은 업무 계획을 밝혔다. 고학수 위원장은 "올해 개인정보위 키워드는 AI"라며 "지난 2년 동안 AI 영역을 자세히 들여다봤다면 올해부터 현장에서 프라이버시, 데이터 생태계 등 실질적인 AI 안전에 집중할 것"이라고 설명했다. 고 위원장은 최근 AI로 인해 발생한 딥페이크와 가짜뉴스, 환각현상 등 부작용이 발생했다고 지적했다. 이에 개인정보위가 늘 강조하는 개인의 자유와 존엄성이 훼손됐다는 설명이다. 그는 "특히 딥페이크는 개인의 존엄성을 전면 침해하고 있다"며 "이를 정부가 근본적으로 어떻게 해결할 것인가 고민해야 할 시점"이라고 말했다. 고 위원장은 AI 부작용 해결과 국민 자유·존엄성 보호를 위해 AI안전연구소와 협력할 것이라고 말했다. 구체적으로는 AI 서비스에 적용되는 데이터 프라이버시 관련 영역에서 가이드라인·관리 모형 등에 협력할 계획이다. 그는"최근 AI안전연구소를 산하로 둔 한국전자통신연구원(ETRI)과 한국정보통신기술협회(TTA)가 지난해 12월 발표한 개인정보위의 AI 리스크 관리 모형에 큰 관심을 보였다"며 "이는 AI안전연구소 입장에서도 당연히 들여다볼 법한 영역이기 때문"이라고 강조했다. "공공영역 처벌법 고려해야"…구글·메타 소송 결과 '낙관' 고학수 위원장은 공공영역 과징금 규모와 처벌 수위를 고려해야 한다고 주장했다. 이는 공공영역 과징금 규모가 민간기업에 비해 낮다는 평가에 대한 반응이다. 개정법 전 공공기관 과징금 상한선은 5억원이었지만 지난해 이를 20억원으로 상향조정됐다. 그러나 여전히 민간기업에 비해 낮은 수준이라는 지적이 이어지고 있다. 이에 고 위원장은 "공공영역은 국민 세금으로 운영되는 곳"이라며 "과징금을 높게 부과하는 것이 세금 낭비로 이어질 수 있다"고 설명했다. 그러면서 "과징금이 아닌 다른 방향으로 처벌을 진행하는 방향으로 바꿀 필요가 있다"고 강조했다. 실제 개인정보위는 공공기관 처벌 사실을 공표하는 것을 선택에서 의무로 전환한 바 있다. 한 번 초사 처분 된 기관은 3년 동안 반복적으로 점검할 수 있는 시스템도 구축된 상태다. 조직 내부에서 문제가 발견될 때 조직적 문제와 개인적 문제를 구분해 징계하는 방식도 추진 중이다. 고학수 위원장은 오는 23일 판결 예정인 구글·메타 소송을 낙관적으로 기대한다고 말했다. 그는 "조만간 결정이 이뤄질 사안"이라며 "낙관적으로 생각하지만 100% 장담할 수는 없는 상황"이라고 덧붙였다.

2025.01.16 17:01김미정

생성형AI 시대, 지각변동 채용시장..개발자 생존 전략은?

생성형AI의 등장으로 개발자 채용시장이 큰 변화를 맞이하고 있다. 단순 반복 작업의 자동화로 초급 개발자 수요는 감소하는 반면, 창의적 문제해결과 AI 활용 능력을 갖춘 고급 개발자의 수요는 증가하는 양극화 현상이 두드러지고 있다. 이 위기를 극복하기 위해 초급 개발자들은 창의적 문제 해결 능력과 AI 활용 역량을 강화할 필요성이 늘고 있다. 또한 기업은 채용 방식을 실무 중심의 프로젝트 평가와 AI 도구 활용 능력 검증 등으로 재편할 필요성이 요구된다. 12일 소프트웨어정책연구소(SPRi)는 'SW 개발자 채용시장의 변화와 생성형AI의 영향' 보고서를 통해 SW 개발자 요구 역량 및 이에 따른 채용 변화와 관련한 정부와 개발자들의 대응 방향을 제시했다. 보고서에 따르면 팬데믹과 디지털 전환, 경기 침체와 투자 위축이라는 대규모 변화 속에서 생성형AI는 SW 취업 시장을 재편하는 데 중요한 역할을 하고 있다. 팬데믹 기간 동안 디지털 전환이 가속화되며 SW 개발자 수요가 폭발적으로 증가했다. 원격 근무와 비대면 서비스 확산으로 인해 클라우드, 빅데이터, 인공지능(AI) 기술에 대한 수요가 급증하며 기업의 SW 개발자 채용 열풍을 일으켰다. 그러나 팬데믹 이후 글로벌 경기 침체와 고금리 정책으로 인해 IT 기업과 스타트업의 투자가 위축되면서 채용 시장은 점차 양극화되는 추세다. 이러한 상황에서 생성형AI의 도입은 단순히 채용 시장을 변화시키는 데 그치지 않고, SW 개발자의 역할과 역량에 대한 새로운 요구를 제시하고 있다. 생성형AI는 단순하고 반복적인 작업을 자동화하며 초급 개발자 채용 수요를 감소시키고 있다. 예를 들어 코드 작성, 테스트, 문서화 등 초급 개발자가 맡았던 역할은 이제 AI가 효율적으로 수행할 수 있다. 이에 따라 기업들은 초급 개발자를 다수 고용하기보다 AI를 활용할 줄 아는 고급 개발자를 선호하는 경향을 보이고 있다. 기업들은 AI 도구가 생성한 코드의 품질을 검토하고, 복잡한 문제를 해결하며, 시스템 통합 및 프로젝트를 리딩할 수 있는 고급 개발자에 대한 수요는 증가하며 채용 시장의 양극화를 더욱 심화되고 있다. 생성형AI의 도입은 SW 개발자들에게 기존의 역량 외에 새로운 기술과 능력을 요구하고 있다. 단순 코딩 능력보다는 창의적이고 복합적인 문제 해결 능력이 점점 더 중요해지고 있다. AI 도구가 제공하는 결과물을 분석하고 오류를 검증할 수 있는 정보 판별 능력도 필수적인 역량으로 떠오르고 있다. 특히 프롬프트 엔지니어링 능력이 중요한 역할을 하게 됐다. 이는 AI에게 명확한 지시를 내려 원하는 결과를 얻는 기술로, AI 도구와 협력하는 데 핵심적인 역량이다. 또한 다양한 깃허브, 코파일럿 등 AI 기반 도구를 자유롭게 사용할 수 있는 능력도 필수적인 요구로 자리 잡았다. 이와 함께, 협업, 커뮤니케이션, 창의적 사고와 같은 소프트스킬의 중요성도 강조되고 있다. 이는 AI가 대체할 수 없는 인간 고유의 가치로, 개발자들이 기술적 역량 외에 비기술적 역량도 갖춰야 하는 이유가 되고 있다. 이러한 변화 속에서 SW 개발자들의 역할도 새롭게 정의되고 있다. 초급 개발자의 경우, AI 도구가 단순 반복 작업을 대신하면서 기존 역할은 축소되고 있다. 그러나 초급 개발자들은 AI 도구를 활용하여 기존보다 더 고도화된 업무를 수행하고 빠르게 성장할 기회를 얻고 있다. 이를 통해 창의적 문제 해결과 전략적 사고 역량을 바탕으로 기존 초급 개발자와 차별화된 역할을 수행할 수 있다. 중·고급 개발자들의 역할은 더욱 복잡해지고 고도화되고 있다. 이들은 팀을 리딩하고 AI가 대체할 수 없는 복잡한 문제를 해결하며, 시스템 설계와 프로젝트 기획을 주도해야 한다. 또한, 단순한 기술적 역할에서 벗어나 팀 관리와 전략적 의사결정을 수행하는 관리자의 역할로 전환되고 있다. 채용 방식도 이러한 변화에 따라 새롭게 정비되고 있다. 기존의 단순 코딩 테스트는 AI 도구가 기본적인 코딩을 대신할 수 있는 상황에서 실효성을 잃어가고 있다. 대신, 실무 중심의 프로젝트 과제를 통해 지원자의 문제 해결 능력을 평가하는 방식이 도입되고 있다. AI 도구 활용 능력과 창의성을 검증할 수 있는 평가 방식이 중요해지고 있으며, 협업, 커뮤니케이션 등 소프트스킬을 평가하는 비기술적 요소도 강화되고 있다. 보고서는 이러한 변화에 대응하기 위해 정부, 기업, 그리고 개발자들은 각각의 위치에서 적응과 발전을 도모할 것을 권했다. 정부는 교육 체계를 개편해 AI 활용 능력, 데이터 과학, 소프트스킬을 포함한 실무 중심의 교육 프로그램을 확대할 필요가 있다. 더불어 재직자를 대상으로 AI와 신기술 활용 역량을 강화할 수 있는 재교육 프로그램을 지원하며, 윤리적 가이드라인을 마련해 데이터 보안 문제를 해결해야 한다는 것이다. 기업은 채용 프로세스를 개선해 AI 시대에 적합한 새로운 평가 모델을 도입하고, 초급 개발자가 AI 도구를 활용해 실무 경험을 쌓을 수 있도록 멘토링 및 실습 프로그램을 마련할 것을 조언했다. 개발자들도 변화에 맞춰 스스로를 발전시킬 필요가 있다고 지적했다. AI 도구를 활용한 문제 해결과 창의적 솔루션 설계 능력을 강화하고, 지속적인 학습을 통해 최신 기술 트렌드와 AI 기반 기술에 적응해야 한다는 것이다. 이를 통해 초급 개발자는 AI로 대체되지 않는 차별화된 역량을 확보하고, 중·고급 개발자는 리더십과 전략적 사고를 강화할 것을 제언했다. 신승윤 SW기반정책·인재연구실 선임연구원은 "생성형AI는 SW 취업 시장의 판도를 변화시키며, 개발자들에게 새로운 도전과 기회를 동시에 제공하고 있다" 이 변화에 얼마나 효과적으로 적응하느냐가 앞으로의 성공을 결정할 중요한 열쇠가 될 것"이라고 보고서를 통해 강조했다.

2025.01.12 08:50남혁우

AI가 사회·문화에 미치는 영향-합리적 정책방향 세미나 열린다

디지털산업정책연구소가 주최하는 '인공지능이 사회문화에 미칠 영향과 이에 대한 합리적 정책 방향' 세미나가 12월9일 오후 2시부터 오후 5시까지 FKI타워 컨퍼런스 2층 사파이어에서 열린다. 챗GPT의 등장 이후 생성형 AI는 급속도로 대중화됐고 현재 산업 전반에서 그 활용 범위를 넓혀가고 있다. 특히 미디어 분야에서는 AI 기술이 작업의 효율성을 높이며 산업 구조에 긍정적인 변화를 가져오고 있다. AI 기술의 발전은 알고리즘, 딥페이크로, 저작권 등 새로운 윤리적, 법적 쟁점들에 대해 검토할 필요성을 높이고 있다. 노창희 디지털산업정책연구소 소장의 개회사로 시작되는 세미나는 경희대 남윤재 교수가 AI가 바꾸는 엔터테인먼트 미디어 산업, 김우균 변호사가 생성형 AI 콘텐츠 활용에 대한 저작권 이슈 주제로 발표한다. 황창근 홍익대 교수 사회로 진행되는 토론에는 김경숙 상명대 교수, 박구만 서울과기대 교수, 이원태 아주대 교수, 최진응 국회입법조사처 조사관, 한정훈 K엔터테크허브 대표가 참여한다. 구글 딥마인드의 특별 참여도 예고됐다. 디지털산업정책연구소는 세미나를 통해 인공지능이 미디어 분야와 사회문화에 미칠 영향을 면밀히 살펴보고, 새로운 기술 도입에 따른 다양한 과제들을 해결하기 위한 합리적이고 혁신적인 정책 방향을 모색할 계획이다.

2024.11.29 13:46박수형

AI안전연구소 어떤 일 하나···구성원과 처우는

"히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 되겠습니다." 김명주 AI안전연구소(AISI, AI에스아이로 발음) 소장은 27일 이 같이 밝혔다. 이날 판교에서 출범한 'AI안전연구소'는 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 전문적으로 대응하기 위한 공공 성격의 AI안전연구 전담조직이다. 정부출연 연구원 중 한 곳인 한국전자통신연구원(ETRI) 부설로 신설됐다. 산‧학‧연이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여해 최근 만든 '국제 AI안전연구소 네트워크' 일원으로도 활동한다. 정부는 AISI를 통해 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진할 계획이다. AISI는 '안전한 AI로 만드는 지속가능한 미래'를 비전으로 내세웠다. 3대 미션은 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전 제도 확립 ▲국내 AI기업의 안전 확보 지원이다. 또 수행할 4대 핵심 과제로 ▲AI안전 평가 ▲AI안전 정책 연구 ▲AI안전 글로벌 협력 ▲AI안전 연구개발(R&D)을 설정했다. 이날 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오혜연 KAIST AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장, 황종성 NIA 원장, 김동환 포티투마루 대표, 김영섬 코난테크놀로지 대표, 김윤 트웰브랩스 사장 겸 최고전략임원, 오승필 KT CTO(부사장) 등 AI분야 산학연 관계자 40여명이 참석했다. 초대 소장을 맡은 김명주 소장은 서울여대 정보보호학부 교수로 서울대 컴퓨터공학과에서 학·석·박사 학위를 받은 AI 윤리·신뢰성 분야 전문가다. 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임 있는 AI 개발·활용 확산을 위해 힘써왔다. 경제협력개발기구 글로벌 인공지능 파트너십(OECD GPAI) 엑스퍼트 매니저로도 활동, 지속가능한 AI 발전을 위한 국제사회 논의에도 활발히 참여해왔다. 김 소장 임기는 3년이다. 김 소장은 개소식 행사후 기자들과 만나 연구원 운영 방안을 설명했다. 이날 김 소장과 기자들과 오간 이야기를 일문일답으로 정리했다. -AI안전연구소는 무슨 일을 하나? "AI안전과 관련해 크게 평가, 정책 제안, 기술개발 등 세 가지 일을 한다. AI안전연구소로는 미국, 영국, 일본, 싱가포르, 캐나다에 이어 세계 6번째다. 이들 해외 AI안전연구소와 적극적으로 협력한다. 특히 우리 연구소는 규제기관의 성격이 아니다. 국내 AI 기업이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소를 최소화하도록 지원하는 협력기관으로서의 역할을 한다. 예컨대, GDPR(유럽일반개인정보보호법)로 유럽에 진출하는 국내 IT기업 등은 유럽 시장법을 새로 따라야 한다. 우리 AI 업도 이러한 장벽에 가로막힐 수 있으므로 R&D 단계부터 규제, 인증 및 여러 표준절차를 살피는 게 필요하다." -조직 구성은 어떻게? "연구소 산하에 3개실(AI안전정책 및 대회협력실, AI안전 평가실, AI안전 연구실)이 있다. 전체 직원은 총 30여명 규모인데, 출범 현재는 나와 ETRI 파견인력 8명, TTA 파견인력 3명 등 12명이다. 내년 1월 신규 6명을 우선 채용하고, 내년까지 전체 직원을 30명 규모로 늘린다. 영국이 AI안전연구소를 세계서 가장 먼저 만들었는데, 영국은 직원들이 공무원일 뿐 아니라 풀타임 인력도 130명에 달한다." -국제협력을 강조하는데 국제협력은 어떻게? "지난주 샌프란시스코를 갔다 왔다. 여기서 10개국으로 구성한 국제 AI안전연구소 네트워크가 출범했다. 의장국은 미국이다. 부의장국은 못 정했다. 다들하고 싶어했는데. 내년 2월 프랑스 파리에서 AI안전과 관련한 정상회의가 열리는데 이때 정하기로 했다. 일단 미국, 캐나다, 일본, 싱가포르 등 5개 나라와 MOU를 체결했다. EU와는 따로 만났다. EU가 세계서 제일 먼저 AI법을 만들었고, 우리도 AI법을 만들려고 하니, 호환성을 뒀으면 좋겠다. 진짜 MOU를 맺고 싶은 나라가 한 두 개 있었다. 언어나 문화에 따라 생성 AI가 다른 답을 주는 문제가 있는데 이 분야 연구는 싱가포르와 일본이 우리보다 먼저 연구했다. 우리가 늦었는데, 남은 기간동안 노력해서 내년 2월 파리 회의때는 우리도 비등하게 참여할 예정이다." -예산은 얼마나 되나 "내년 안전성 평가 지표 마련 등 비R&D 과업에 약 40억 원, 솔루션 개발 등 R&D에 약 80억 원이 책정돼 있다." -내년에 착수할 연구는 어떤 것이? "보통 AI를 말할 때 잠재적 위험이라는 표현을 한다. 잠재적이라는 이야기는 아직 밝혀지지 않은 거다. 현재 세계 AI안전연구소들이 공통으로 생각하는 것은, 리스크에 대한 전체 도메인을 빨리 잡자는 거다. 어떤 리스크가 있는 지 다 잡아서 그 리스크별로 우선순위를 매겨 먼저 풀어야 할 것들을 우선 해결하자는 거다. 샌프란시스코 회의때도 세션이 3개였는데, 첫번째 세션이 페이크였다. 연구소 내년 R&D 규모가 80억 정도인데 4개 과제가 잡혀 있다. 평가와, 위험 측정 등에 관한 것들이다. 우리 말고도 국내에 연구 기관이 몇 곳 있는데, 연구소마다 주력하는게 조금씩 다른데, 조정 여지는 있는 것 같다." -글로벌 빅테크와도 협업을 하나 " 지난주 샌프란시스코 회의때도 MS, 오픈AI, IBM 등 글로벌 기업들도 왔다. 우리도 이들 글로벌 기업들과 만났다. 궁극적으로는 이들 빅테크 기업들하고 어떤 테스트를 한다든지, 어떤 걸 할때 같이 움직였으면 좋겠다는 생각을 갖고 있는데, 이 부분은 쉽지 않은 문제인 것 같다. 구글 등과 컨택을 하고 있다. 미국 정부도 엔트로픽 등 몇 개 기업과 협약을 해 테스트를 같이 진행하고 있다." -AI관련 국제 표준 인증을 만드는 것도 국제 AI안전연구소 네트워크가 다루나 "표준이라는 키워드는 이미 나왔고, 기술적인 표준과 절차 표준을 국제 네트워크에서 다룰 거다. 기존 표준화 기구들이 많이 있는데, 거기서도 AI 표준을 다루고 있기 때문에, 우리랑 같이 움직일지, 아마 같이 움직일 것 같은데, 안전에 대한 키워드는 아무래도 AI안전 국제네트워크에서 끌고 가지 않을까 싶다. 우리도 국제 공조를 하고." -AI안전연구를 영국이 리딩하는 이유가 뭔가 "AI윤리라는 키워드를 영국이 가장 먼저 제시했다. AI 안전연구소도 영국이 맨 처음 만들었다. 영국은 서양 세계에서 자기네가 정신적인 지지와 근원이라는 프라이드가 있는 듯 하다. 영국이 AI안전연구소를 처음으로 만들면서 자기네 나라에만 두고 싶어했다. 그래서 요슈아 벤지오를 통해 안전 보고서를 마련하게 했고, 두 번째가 나올 예정이다. 영국과 미국이 생각이 다른 면이 있다. 영국은 10개국 중심으로만 하자는 생각이 있고, 미국은 필요하면 계속 늘리자는 생각이다. 이제 시작했기 때문에 어떻게 될 지는 더 지켜봐야 할 것 같다." -중국과는 어떤 관계를 가져가나 "공식적으로 들은 바는 없다. 원래 작년 런던 회의할 때 중국을 넣었으면 좋겠다는 의견들이 계속 있었다. 어떻게 보면, AI 기본법은 유럽이 아니라 중국이 먼저라고 생각한다. 중국이 AI에 관한 규정을 사실 제일 먼저 만들었다. 그런데 중국은 글로벌 스탠더드가 아니지 않나. 중국 서비스는 당성 검사를 받아야 오픈할 수 있는데, 바이두 애니봇이 이 당성 검사 때문에 우리나라 네이버 하이퍼 클로버보다 며칠 늦게 오픈했다. 언론 자유 측면에서 보면 중국은 굉장히 통제된 나라다. 스탠포드 대학에서 2019년 AI 인덱스를 발표할 때 각 나라별 AI 윤리를 분석했는데 중국은 아주 특이한 패턴이 나왔다. 다른 나라에서 많이 나오는 공정성은 중국에서 전혀 논의되지 않았다. 특이하게 10개국이 참여하는 국제AI안전연구소 네트워크에 케냐도 들어왔다." -AI전문 인력이 전반적으로 부족하다. 좋은 연구원 확보 방안은? "우리 연구원은 출발이 에트리(ETRI)다. 나도 에트리 직원이다(웃음). 에트리 직원 월급으로, 이런 대우로, 현 AI 세계에서 좋은 인재를 뽑을수 있을까? 하는 퀘스천이 있는 것도 사실이다. 어쨋든 판교에 있는 AI기업들의 평균 정도는 줘야 하지 않나 하는 생각들이 있는 듯 하다. 영국의 경우 직원 연봉이 거의 2억이다. 또 거기는 정식 공무원이다. 앞으로 계속 풀어야 할 문제다. 좋은 인재를 얻기 위해서." -고위험 AI 범주가 관심인데... "기본적으로 사람 생명과 관련한 거나 사람의 운명을 결정 하는 것 등이 대상일 듯 하다. 리스크 평가는 대단히 중요하다. 영국도 지금 위험별로 이거에 대한 연구를 하고 있고, 일부 실험을 하고 있는 듯 하다. 잘 지켜보고 있다."

2024.11.27 20:32방은주

정부, AI안전연구소 판교에 설립···"기술‧정책 역량 조속 확보"

정부가 세운 AI안전연구소(AISI)가 판교 소재 글로벌 R&D센터에서 27일 문을 열었다. AI의 기술적 한계와 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 체계적‧전문적으로 대응하기 위한 AI안전연구 전담조직이다. 산‧학‧연 기관이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여하고 있는 '국제 AI안전연구소 네트워크' 일원으로 안전한 AI를 위한 글로벌 연대의 책임있는 역할도 수행한다. 이를통해 AI안전 분야의 경쟁력있는 기술 및 인력을 육성하고, 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진한다. 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오승필 KT CTO, 오혜연 카이스트 AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장을 비롯한 AI분야 산∙학∙연 핵심관계자 40여명이 참석했다. 앞서 지난 5월 열린 'AI서울정상회의'에서 우리나라 등 10개국 정상은 AI안전연구소 설립과 안전한 AI에 대한 글로벌 협력을 강조한 바 있다. 당시 윤석열 대통령도 “대한민국 AI안전연구소 설립을 추진해 글로벌 AI안전성 강화를 위한 네트워크에 동참할 것”이라는 의지를 밝혔으며, 과기정통부는 그간 연구소 조직‧예산‧인력‧기능에 대한 면밀한 사전준비를 거쳐 이번에 AI안전연구소를 출범했다. 이날 국가AI위원회 글로벌 자문위원인 AI분야 세계적 석학 요슈아 벤지오 교수는 축사에서 “서울선언에 따라 한국정부가 AI안전연구소를 설립하게 된 것을 축하한다"면서 AI안전연구소 역할로 ▲업계와 협업을 통한 위험 평가방법 연구‧발전 ▲AI안전성 요건 수립 지원 ▲국제협력을 통한 AI안전체계의 상호 조화가 중요하다고 강조했다. 또 미국 엘리저베스 켈리(Elizabeth Kelly) AI안전연구소장은 “대한민국이 AI안전 증진을 위해 보여준 글로벌 리더십과 지원에 깊이 감사하다”며 “韓-美 AI안전연구소가 全세계 동료들과 함께 AI위험을 줄이고 혜택을 극대화하며, 혁신을 촉진하기 위해 공통된 과학적 기준을 구축해 나가자”고 밝혔다. 영국 Oliver Illot AI안전연구소장과 일본 아키코 무라카미 AI안전연구소장도 “대한민국 AI안전연구소 출범을 축하하며, AI기술을 안전하게 만들어 가기 위해 국경을 넘어선 협력을 확대해 나가자”고 전했다. 'AI안전연구소' 초대소장으로 임명된 김명주 소장은 '연구소 비전 및 운영계획' 발표를 통해 “AI활용으로 발생할 수 있는 제반위험 평가와 이를 예방‧극소화하기 위한 정책‧기술을 개발‧보급하고, 국내‧외 연대를 강화해 나갈 것”이라며 “연구소는 규제기관의 성격이 아니라, 국내 AI기업들이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소들을 최소화하도록 지원하는 협력기관으로 역할을 하겠다”고 강조했다. 이어진 '대한민국 AI안전컨소시엄' 협약식에서는 AI분야 국내 대표 산‧학‧연 기관 총 24곳이 참여한 가운데, AI안전에 관한 정책연구, 평가, 연구개발의 상호협력을 위한 업무협약(MOU)을 체결했다. AI안전연구소와 컨소시엄 참여기관이 함께 AI안전 프레임워크(위험 식별‧평가‧완화) 연구‧개발‧실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 중점적으로 추진할 계획으로, 향후 컨소시엄의 세부 연구주제와 운영방안을 구체화해 나갈 예정이다. 컨소시엄 참여기관들도 AI안전 연구와 관련한 전문성과 기여방안을 제시하며, AI안전연구소와 적극적으로 협력하겠다는 의지를 밝혔다. 유상임 과기정통부 장관은 “AI안전은 지속가능한 AI발전의 전제로 AI분야에 종사하는 우리 모두가 함께 해결해 나가야할 가장 큰 도전과제이며, 특히, 지난해 11월 영국에서 열린 AI안전성 정상회의와 올 5월 개최한 'AI서울정상회의' 이후 불과 1년 만에 미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI안전연구소를 설립하고, 전례없이 기민하고 체계적인 국제 AI안전 협력체계를 구축했다"고 밝히며 “우리도 AI안전연구소를 중심으로 산‧학‧연 연구역량을 결집해 AI안전의 기술‧정책적 역량을 조속히 확보하여, 대한민국 AI산업 혁신을 촉진할 튼튼한 안전기반을 구축해 나가는 한편, 글로벌 AI안전 연대의 주도적인 역할을 수행해 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다.”고 강조했다.

2024.11.27 09:30방은주

벤지오 교수 "AI안전연구소, 정책·과학 발전 병행 필수...韓 AI칩 수준 상당"

한국 정부가 인공지능(AI)안전연구소 개소를 하루 앞둔 가운데 해당 연구소가 AI 정책과 과학 발전을 병행해야 한다는 전문가 주장이 나왔다. 몬트리올대 요슈아 벤지오 교수는 26일 과학기술정보통신부가 용산 피스앤파크컨벤션에서 개최한 'AI 신뢰·안전성 컨퍼런스' 온라인 기조강연에서 한국의 AI안전연구소 방향성을 제시했다. 벤지오 교수는 최근 국가AI위원회 글로벌 자문위원으로 활동 중이다. 벤지오 교수는 연구소가 정책적으로 국제협력뿐 아니라 AI 규제 체계까지 유연하게 구축해야 한다고 당부했다. 신속한 규제 시스템은 AI 기술 오용·사회적 위협 방지를 막을 수 있기 때문이다. 그는 "급변하는 AI 기술 환경에 맞춰 규제도 더 민첩해야 한다"며 "특히 규제기관은 AI 모델 개발사와 사용 기업들의 안전 계획과 모델 테스트 결과를 직접 검토해야 한다"고 강조했다. 벤지오 교수는 연구소가 해외 안전연구소·학자들과 필수 협력해야 한다고 주장했다. 이를 통해 AI 안전에 대한 국제 모범 사례를 접할 기회가 높아진다는 이유에서다. 그는 "최첨단 기술을 다루는 연구소들과 협력하면 국가 안보와 연결된 위험 요소를 상대 평가할 수 있다"고 설명했다. 벤지오 교수는 한국이 글로벌 AI 생태계서 핵심 역할을 할 가능성을 높게 봤다. 그는 "한국은 AI칩 개발 선두주자"라며 "AI안전연구소 설립과 관련한 국제 협력에서 주요 역할을 할 것"이라고 덧붙였다. 이날 카이스트 오혜연 전산학부 교수는 디지털 격차 해소를 위해 '포용적 AI' 중요성을 강조했다. AI 기술이 다양한 언어와 문화를 아우르는 방향으로 발전해야 한다는 이유에서다. 오 교수는 "AI가 영어에만 최적화되면 한국, 일본, 중국 같은 비영어권 사용자는 부정확한 정보에 노출될 수 있다”며 "AI가 다양한 언어와 문화적 인식을 반영해야 디지털 전환의 진정한 포용성을 실현할 수 있다"고 설명했다. 그는 포용적 AI 실현을 위해 다중언어 연구를 적극 추진 중이라고 했다. 최근 거대언어모델(LLM) 연구 트렌드 중 하나로 알려졌다. 오 교수는 "포용적 AI는 단순히 AI 접근성 높이는 것을 넘어 글로벌 교류와 디지털 경제 활성화를 도울 수 있을 것"이라고 강조했다.

2024.11.26 13:04김미정

'소버린 AI' 어떻게 봐야 할까…"담론 기반 현실적 전략 필요"

인공지능(AI)을 국가 주권과 연결짓는 '소버린 AI' 개념이 글로벌 이슈로 부상하고 있다. 캐나다, 프랑스 등을 비롯한 국가들이 데이터 주권과 독자적인 AI 기술 확보를 위해 소버린 AI를 실천하고 있는 와중에 각국 빅테크도 이에 가세한 상황이다. '소버린 AI'에 대한 정의와 접근 방식 차이가 여전히 존재한다. 일부는 소버린 AI를 국가 주권의 연장선에서 바라보면서 독립적인 AI 플랫폼과 서비스 구축 필요성을 강조하고 있다. 반면 기술의 글로벌 특성을 고려할 때 소버린 AI가 국가 전략으로 삼기엔 적절하지 못한 개념이라는 의견도 공존하고 있다. 이에 지디넷코리아는 포티투마루와 공동으로 '소버린 AI, 반드시 필요한가'를 주제로 좌담회를 최근 개최했다. 좌담회에서는 소버린 AI의 정의와 필요성, 국가와 기업의 역할, 현실적인 전략 수립 방안에 대해 심도 있는 논의가 이뤄졌다. 이번 좌담회에는 김상배 서울대 정치외교학부 교수, 김형철 소프트웨어정책연구소 소장, 오혜연 카이스트 전산학부 교수, 이성엽 고려대 기술경영전문대학원 교수, 이승현 디지털플랫폼정부위원회 국장, 하정우 네이버클라우드 AI혁신센터장이 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. "소버린 AI, 단 하나의 개념 세우기 아냐…담론 중심 접근 필요" 김동환 대표(이하 사회): 소버린 AI 정의부터 짚고 넘어가면 좋겠다. 현재 소버린 AI에 대한 개념이 분야별 또는 개인별로 차이가 있는 것 같다. 소버린 AI를 어떻게 정의하고 있는지 다양한 관점에서 얘기를 나눠보고 싶다. 김상배 교수: 소버린 AI는 국제정치와 외교적 맥락에서 발생하는 복합적 담론이다. 이를 명확히 정의하거나 번역하는 것은 어렵다. '주권 AI'나 '자주적 AI'와 같은 번역 시도가 있었지만 기존 국가 주권 개념으로는 소버린 AI의 복합성을 설명하기 부족하다. 이는 글로벌화로 인해 주권의 개념이 국가를 넘어 다양한 주체로 확장돼 변형된 결과로 볼 수 있다. 소버린 AI는 개념보다는 담론으로 이해돼야 한다. 각 주체마다 이를 다르게 해석하고 활용하려는 방향이 달라서다. 예를 들어 네이버와 한국 정부의 소버린 AI 논의는 그 목적과 초점이 다르다. 이에 따라 텍스트적 논쟁보다는 이를 바탕으로 실체적 전략을 구체화하는 것이 더 중요하다. 한국은 강대국도 아니고 대규모 투자를 주도할 글로벌 선도 기업도 부족한 중견국이다. 단순히 선진국을 따라가기보다는 기술과 소프트웨어 영역에서 독자적인 방향을 모색하는 전략이 필요하다. 이런 국제정치적 변화 속에서 소버린 AI는 한국의 존재론적 입장을 담고 있으며 이를 통해 차별화된 국가 전략을 구축해야 한다. 오혜연 교수: 김상배 교수 의견에 동의한다. 그동안 소버린 AI라는 용어가 어색하게 들렸다. 한국은 강대국이 아니며 오픈AI나 구글 같은 글로벌 기업도 없다. 기술은 본질적으로 중립적이어야 하며 단순히 한국에서 개발된 AI 모델에 한국적 정체성을 강조하는 방식은 시대에 뒤떨어진 접근이다. 한국 AI 모델은 이미 글로벌 데이터를 활용하고 전 세계 사용자에게 적용되고 있다. 그런데 거기에 한국 모델이라는 스티커를 붙여서 1980년대처럼 프로모션한다는 것은 부적절한 면이 있다. 이에 따라 소버린 AI를 담론으로 우선 풀어나가는 것이 필요하다고 생각한다. 이승현 국장: 정부 입장에서는 소버린 AI를 바라볼 때 AI를 어떻게 정의할지가 중요하다. 특히 AI 개발 종사자들이 정의를 해줘야 한다. 모두 AI 이야기가 나오면 거대언어모델(LLM)만 생각하는데 그럼 안 된다. AI와 LLM은 동의어가 아니다. 정부는 LLM에만 관심 있는 게 아니다. 정부는 혁신을 통해 사회 문제 해결할 때 쓸 수 있는 모든 도구를 고려하고 있다. 과기정통부는 산업적 경쟁력과 국가 경쟁력에 초점을 맞추고 있고 다른 부처는 직접 활용 가능한 기술에 더 관심을 두고 있다. 이런 차이를 우선 이해하고 조율하는 것이 중요하다. 하정우 센터장: 소버린 AI를 포괄적 개념으로 정의하거나 특정 주체의 전략으로 제한하는 논의는 실효성이 없다. 기술별 자립과 협력을 병행하는 현실적인 접근이 우선이다. 소버린 AI는 단순히 파운데이션 모델에 국한된 개념이 아니기 때문이다. 이를 구현하려면 중앙처리장치(GPU)와 데이터, AI 데이터 센터, AI 반도체, 전력 공급 등 다양한 기술 인프라가 우선 필요하다. 이런 요소들은 글로벌 공급망과 밀접하게 연관됐다. 특히 GPU 같은 자원은 국제 정치와 경제적 역학 관계에 따라 접근성이 결정된다. 한국은 이런 환경에서 자율성과 통제력을 확보할 필요가 있다. 파운데이션 모델 개발뿐만 아니라 이를 활용한 사회 문제 해결과 성장이 중요하다. 이를 위해 각 기술적 요소마다 자립 가능성과 해외 협력 전략을 구체적으로 수립해야 한다. 점점 더 많은 기술이 전략 자산화되고 수출 제한과 종속의 가능성이 커지는 상황에서 장기적이고 세부적인 전략이 필수다. 김형철 소장: 소버린 AI는 아키텍처 레이어로 나눠서 접근해야 한다. 반도체, 데이터 센터, 클라우드, 플랫폼, 응용 서비스로 구성된 생태계의 각 단계가 중요하다. 현재 논의는 주로 LLM과 플랫폼 레벨에 집중돼 있다. 그것만으로는 충분하지 않다. 소버린 AI 필요성도 한마디로 정의할 수 없다. 목적과 상황에 따라 필요성과 범주가 달라지며 이를 단일한 범주로 묶는 것은 어렵다. 기술적으로 다양한 레이어를 고려한 세분화된 접근이 필요하다. 각각 목표와 스펙트럼에 맞게 논의를 확장하고 구체화해야 한다. 이성엽 교수: 소버린 AI는 본질적으로 AI 주권과 동일한 개념이다. 독립적인 의사결정 권력과 대외적 독립성을 강조한다. 이는 다른 국가나 글로벌 테크 기업에 종속되지 않고 독자적인 AI 플랫폼과 서비스를 보유·운영하며 이를 필요 시 수출할 수 있는 능력을 포함한다. 현재 AI 생태계는 일부분 외국 기술에 의존할 수밖에 없다. 다만 데이터 주권과 디지털 주권을 포함한 인프라와 안보적 요소들을 확보하는 것이 중요하다. 핵심은 한국이 독자적인 AI 생태계를 구축하고 실질적으로 플랫폼을 운영할 능력을 갖추는 것이다. 이승현 국장: 소버린 AI 정의는 맥락과 관점에 따라 다양하다. 초기에는 소버린 클라우드를 데이터 위치 관점에서 이해했지만 AI로 논의가 확장되면서 모델, 애플리케이션, 하드웨어 등 다양한 요소가 포함됐다. 이로 인해 정부도 소버린 AI의 해석과 전략을 서로 다르게 한다. 소버린 AI 논의는 단순히 LLM에만 초점을 맞추기보다 알파폴드와 트랜스포머 모델처럼 상호 보완적이고 독립적인 기술 개발과 응용 사례를 강조해야 한다. 특히 한국 기업은 오픈AI와 같은 빅테크와 자금력으로 경쟁하기 어려운 만큼 차별화된 애플리케이션이나 서비스를 개발하는 전략이 필요하다. 소버린 AI가 특정 기업이나 기술에 국한된 것으로 오해되면서 정부 입장에서 부담이 되고 있다. 따라서 소버린 AI의 정의를 포괄적이거나 명확히 설정해 불필요한 논란을 줄이고 구체적인 전략 수립에 집중해야 한다. 하정우 센터장: 기술 레이어를 구분하면 일부는 자국 역량으로 자립하고 일부는 글로벌 협업이 필요하다. 글로벌 빅테크는 하위 인프라를 자신들의 기술로 점유하며 상위 기술은 각국이 개발하도록 유도하는 전략을 취한다. KT는 인프라에 중점을 두고 네이버는 GPU 등 상위 레이어까지 확대해 자체 경쟁력을 키우고자 한다. 미국처럼 모든 기술을 독자적으로 할 수 있다면 이를 다 하면 되지만 경쟁력이 약한 국가는 선택과 집중 전략이 필요하다. 비교 우위가 있는 분야에 우선 투자하고 부족한 부분은 도움을 받아가며 점진적으로 역량을 강화해야 한다. 이는 기업뿐만 아니라 국가 차원에서도 적용 가능하다. 5년, 10년 단위로 계획을 세워 자립과 협력을 병행하는 것이 효과적일 것이다. 김상배 교수: 근대적 위계적 조직으로서의 '민족국가(Nation State)'는 이제 더 이상 유효하지 않으며 주권은 기업과 시민사회 등 다양한 주체로 확장됐다. 국가는 네트워크 허브로서 다양한 행위자를 연결하고 조율하는 역할을 수행하며 이는 '네트워크 스테이트(Network State)' 개념으로 설명될 수 있다. 이에 따라 소버린 AI는 단순히 기술적·경제적 주권의 문제가 아니다. 언어, 문화, 종교와 같은 고유한 다양성의 영역에서 논의된다. 이는 주권을 넘어 협업과 협력을 통해 새로운 가능성을 모색하는 담론으로 이해해야 한다. 과거 '아래아한글 살리기 운동'과 같은 민족적·언어적 자주성 확보 사례는 현재 소버린 AI와 유사한 맥락으로 볼 수 있다. 한국은 마이크로소프트 '워드'가 아닌 로컬 워드 프로세서를 일정 부분 유지한 유일한 국가로, 이런 자생적 성과가 소버린 AI 논의에서도 중요하다. 오혜연 교수: 소버린 AI는 필요하지만 이를 지나치게 강조하는 것은 적절하지 않다. AI에는 다양한 중요한 키워드가 존재하며 소버린 AI를 전면에 내세우는 방식은 부적합할 수 있다. 소버린 AI보다 '포용적 AI(Inclusive AI)'를 지향하는 게 더 적합해 보인다. 이는 한국을 포함해 다양한 사람들이 함께 사용하고 혜택을 누릴 수 있는 AI를 개발·활용하며 이를 통해 수출과 교류가 이뤄지는 개념이다. 소버린 AI라는 용어는 일반 시민들에게 배타적이고 벽을 세우는 듯한 인상을 줄 수 있어 부정적 효과를 가져올 가능성이 있다. 미국과 다른 나라들도 소버린 AI를 논의하지만 이를 전면적인 전략으로 내세우지 않는다. "소버린 AI 산업화 과제…AI 기업 육성 통해 글로벌 틈새 공략 시급" 이승현 국장: 아직은 소버린 AI라는 개념에 대한 구체성이 부족해 결론에 이르지 못한 상태다. 네이버를 AI 기업으로 봐야 할지에 대한 의견도 엇갈린다. 네이버가 AI 플랫폼 기업으로 명확히 자리 잡는다면 정부 지원이 타당하지만 현재로서는 커머스와 검색 중심 전략 사이에서 혼란스러운 상태다. 정부는 네이버를 AI 기업으로 보지 않더라도 규제 완화 등 여러 방면에서 지원해왔다고 생각한다. 이에 네이버의 정체성과 방향성에 대한 명확한 합의가 필요하다. 하정우 센터장: 프랑스를 포함한 여러 나라들이 포기하지 않고 투자해 성공 사례를 만들고 있다. 독일, 핀란드, 싱가포르 등도 적극적으로 참여하고 있는 상황이다. 포기하지 않는 이유가 분명히 있다. 이 과정에서 포용적 AI와 같은 협력적이고 포괄적인 접근이 필요하다는 점이 매우 강조됐다. 각국이 AI 기술의 다양성을 확보해야 글로벌 AI 생태계의 안정성이 강화된다. 이런 관점에서 인클루시브 AI가 적합하다. 기술력이 있는 나라가 부족한 나라와 협력해 함께 개발하는 전략도 가능하다. 이러한 협력 모델은 한국이 수주 전략으로 활용할 수 있는 경험을 보유하고 있다는 주장이다. 다만 '소버린'이라는 용어가 배타적이고 폐쇄적인 이미지를 줄 수 있어 이슈가 된다. 사실 소버린이라는 용어는 클라우드에서 시작돼 AI로 자연스럽게 확장된 개념이다. 그런데 일각에서는 "이미 늦었으니 포기하자"는 주장을 하고 있다. 이에 대한 반발로 소버린 AI가 부각된 측면이 있다. 이 용어가 오해를 불러일으킬 가능성이 있어 이를 대체할 적절한 표현을 찾는 것이 필요하다고 본다. 김상배 교수: 소버린 AI는 '포용'와 '배제' 요소가 혼합된 복합 모델이다. 이를 단순히 한쪽 관점으로만 접근하면 중요한 부분을 간과할 수 있다. AI 전략은 국가적 맥락에서 이해해야 한다. 여러 중견국들이 디지털 기술을 중심으로 국력 강화를 목표로 다양한 전략을 모색하고 있다. 프랑스와 독일 같은 유럽 국가는 기술 역량을 기반으로 독립적 전략을 펼치려 하나 영국이나 일본은 미국 중심의 틀 안에서 기술 개발과 협력을 진행한다. 사우디아라비아는 자국 기술 역량이 부족해 재정과 외교를 활용하고 미국과 중국 사이에서 자리를 찾고 있다. 한국은 자체 기술 역량과 외교적 연계를 통해 소버린 AI 전략을 수립해야 한다. 이는 연대와 협력을 전제로 성공할 수 있다. 주요 연대 대상은 사우디아라비아, 프랑스, 독일, 핀란드 같은 국가다. 정부는 명확한 전략과 순화된 용어로 기업과 국가의 협력을 이끄는 방향으로 나아가야 한다. 이를 통해 한국이 디지털 기술 분야에서 틈새를 공략하고 글로벌 경쟁 속에서 위치를 확보하는 것이 중요하다. 이성엽 교수: 케이팝처럼 한국 독자성을 유지하면서도 이를 보편화해 글로벌 시장에서 경쟁력을 확보해야 한다. 독자성만 강조하면 고립될 수 있고 보편성만 추구하면 차별화가 어려워지기 때문이다. 과거 산업 정책도 초기에는 외국 시장을 제한하며 국내 체력을 키운 후 개방했던 전략을 취했다. 현재 AI 분야에서도 국가와 기업이 협력해 독자성과 포괄성을 조화롭게 추진하며 지속적으로 발전시켜야 한다는 점을 강조한다. 이승현 국장: 정부의 AI 논의는 주로 하드웨어 중심으로 진행되며 소프트웨어에 대한 관심이 부족하다. 소버린 AI가 전면에 나오지 못한 이유 중 하나도 이러한 구조적 한계 때문일 것이다. 네이버처럼 자체 기술을 고도화하는 전략뿐만 아니라 KT와 마이크로소프트 협력처럼 국외 기술과의 협력 모델도 고려해야 한다. 이러한 협력이 데이터나 기타 방식으로 주권을 보장한다면 중요한 전략으로 채택될 수 있다. 다양한 모델을 수용하며 균형 잡힌 접근이 필요하며 소버린 AI를 지나치게 강조해 배타적으로 보이는 오해는 피해야 한다. 사회: 소버린 AI 논의는 주로 생산 관점에서 개발과 운영 주체를 중심으로 이뤄지고 있으며 이에 따라 국가와 공공 역할이 강조되고 있다. AI가 국가 대항전의 형태로 전개되면서 정부 지원이 필수적이라는 의견이 나오지만 이런 지원이 특정 대기업에 집중될 가능성에 대한 우려도 존재한다. 이런 구조에서 과연 실질적인 성과를 낼 수 있을지에 대한 의문이 소버린 AI에 대한 부정적 시각으로 이어지고 있다. 이에 대한 의견은 무엇인가. 김형철 소장: 소버린 AI를 논의할 때 우리 생태계를 원팀으로 묶는 접근과 응용 서비스 관점에서 내려다보는 접근을 함께 고려해야 한다. 기존에는 플랫폼을 중심으로 역삼각형 구조를 상정하며 플랫폼 위에 응용 서비스를 얹고 나아가자는 방식이었지만 피라미드형 구조도 필요하다. 이는 응용 서비스와 활용 중심으로 다양한 플랫폼에 걸쳐 확장성을 높이는 전략이다. 일례로 '하이퍼클로바 X' 뿐만 아니라 오픈AI 같은 다양한 플랫폼에도 서비스를 올릴 수 있는 방향으로 나아가야 한다. 클라우드 시장에서의 경험을 바탕으로 정부가 소버린 AI 전략을 수립할 때 피라미드형과 역피라미드형 접근을 함께 고려해야 한다. 공공 클라우드는 KT와 같은 국내 플랫폼에 기반을 두지만 서비스형 플랫폼(PaaS) 부족으로 서비스 개발이 제한적일 수 있다. 반면 아마존웹서비스(AWS)를 활용할 경우 더 빠르고 고급 서비스를 제공할 수 있다. 해외 진출 시에는 피라미드형 구조를 통해 응용 서비스 중심으로 확장성을 확보하고 국내에서는 역피라미드 형으로 생태계를 구성해 협력해야 한다. 이런 균형 잡힌 접근이 전략의 편향을 방지하고 성공적인 투자와 진출을 가능하게 할 것이다. 이승현 국장: 현재 국내 클라우드 시장은 외산 클라우드 서비스 제공자(CSP)가 80% 이상을 차지하고 네이버나 NHN클라우드 같은 국산 CSP는 20~30% 수준에 그친다. 서비스형 소프트웨어 (SaaS) 기업들은 해외 진출을 위해 글로벌 CSP를 기본으로 사용한다. 동시에 국내 CSP도 활용할 수 있도록 지원을 요청하고 있다. 그럼에도 국내 CSP는 아직 성장 단계에 있어 생태계 정립이 쉽지 않다. AI 생태계로 전환될 경우에도 비슷한 문제가 발생할 수 있다. 민간에서는 대부분 '챗GPT'와 같은 외산 API를 활용하는 상황에서 국내 AI 생태계를 구축하려면 더욱 체계적이고 포괄적인 접근이 필요하다. 소버린 AI를 논의하려면 생태계가 핵심인데 현재 국내 생태계는 아직 충분히 구성되지 않아 이에 대한 우려가 크다. 하정우 센터장: 네이버는 생태계를 통해 다양한 서비스를 제공하려 했지만 완결된 서비스가 아닌 생태계 중심의 전략이 충분히 구현되지 못한 상황이다. '챗GPT'와 같은 플랫폼에서도 성공적인 서드파티 애플리케이션이 많지 않은데 이는 아직 생태계가 초기 단계에 있기 때문이다. 네이버는 일정 수준 서비스를 구축한 후 플러그인을 통해 생태계를 확장했다. 다만 클라우드나 GPU와 같은 인프라 투자에서 비용 대비 수익(ROI) 부족으로 어려움을 겪고 있다. 특히 네이버클라우드 같은 플랫폼은 규모의 경제가 부족해 투자 효율성이 낮다. 이를 해결하기 위해 정부가 GPU 등 핵심 자원을 대량 구매해 마켓파워를 높이는 방식의 전략이 필요하다. 이는 특정 기업을 지원하기 위한 것이 아니라 전체 생태계 활성화를 위한 방향이다. 이승현 국장: 정부가 특정 기업을 지원하는 방식에는 세제 혜택과 투자 지원이 포함될 수 있다. 과거 효과적이었던 임시투자세액공제를 네이버에 확대 적용하는 상황을 가정해보자. 이 경우 문제가 될 수 있는 점은 네이버의 투자가 실제로 AI 분야에 집중됐는지 신뢰하고 검증할 필요가 있다는 점이다. 또 하나 더 큰 고민이 있는데 중소 및 중견 AI 기업에 대한 지원이 이뤄지지 않을 경우 형평성의 문제가 발생한다는 점이다. 김상배 교수: 기술, 안보, 외교가 긴밀히 연결된 현재의 국제정치 환경에서 소버린 AI 논의는 국가 전략적으로 중요한 주제다. 과거 국제정치가 30~40년 주기로 평화, 분쟁이 번갈아가 왔는데 지금은 강대국 간 갈등이 심화된 분쟁 국면에 있다. 미국과 중국의 대립은 우리에게 전략적 선택과 대응을 요구하며 이 과정에서 국가와 기업이 협력해야 할 시점이 온다고 본다. 역사적으로도 민족주의와 글로벌리즘의 논쟁은 반복됐다. 이러한 상황에서 우리 역시 한글 창제, 국한문 혼용 논쟁, 디지털 시대의 한글 도메인 운동 등 다양한 방향성을 보여왔듯 대응 전략이 시대적 상황에 따라 달라졌다. 현재의 글로벌 질서에서도 민족적 자산과 글로벌 협력을 조화롭게 활용해야 한다. AI와 같은 기술은 단순히 경제적 이익을 넘어 국가의 전략적 자산이 될 수 있다. 이를 활용하기 위해서는 네이버와 같은 기업이 프레임 경쟁에 갇히지 않도록 하고 국가가 적절한 방향성을 제시하며 기업과 공익적 목표를 공유해야 한다. 오혜연 교수: AI 기술은 안전하고 신뢰할 수 있는 방향으로 발전해야 한다. 외교나 안보 전략을 펼치자는 논의는 적절치 않다고 본다. 현재 AI 위원회에서 맡고 있는 신뢰 AI 분과의 목표도 기술의 안전성과 신뢰성을 확보하는 것이다. 기술 자체를 갈등의 도구로 삼는 접근은 맞지 않다. 다른 국가들이 기술을 통해 경쟁하고 싸우고 있다고 해서 우리도 같은 방식으로 대응해야 한다는 논리는 기술의 본질에 어긋난다. 정부가 소버린 AI와 같은 전략을 추진할 수 있고 기업을 지원할 수도 있지만 소버린 AI를 전면에 내세워 국가의 전략적 기조로 삼는 것은 신중해야 할 문제다. 기술은 갈등보다는 협력을 지향해야 한다. 이성엽 교수: 소버린 AI에 대한 비판은 크게 두 가지로 나뉜다. 첫째로 자국 데이터를 학습할 경우 편견이 생길 수 있다는 우려다. AI의 다양성을 고려하면 이는 선택의 문제로 해석할 수 있다. 일례로 사용자가 오픈AI나 네이버 AI 중 선택할 수 있다는 점에서 다양한 후보를 제공한다는 긍정적인 측면도 있다. 둘째로 대기업 지원 정책이라는 비판이다. 그런데 글로벌 시장에서 네이버와 같은 국내 대기업은 오히려 중소기업에 가깝다. 미국 정부가 구글을 지원하는 사례를 볼 때 국내 대기업 지원은 AI 산업 전체를 육성하는 차원에서 접근해야 한다. 이 과정에서 다양한 응용 서비스와 모델이 함께 성장할 수 있는 환경을 조성하는 것이 중요하다. 실제로 프랑스나 일본 정부는 소프트뱅크 등 자국 기업에 집중적인 투자를 하고 있다. 넷플릭스 사례처럼 글로벌 플랫폼 의존은 국내 제작자와 산업에 부정적 영향을 미칠 수 있다. 넷플릭스가 콘텐츠 제작비를 높이며 국내 제작사들을 하청화하는 것처럼 AI 분야에서도 해외 플랫폼 의존 문제가 발생할 수 있다. 따라서 자체 플랫폼을 구축하는 전략과 대기업 지원은 산업 생태계를 위해 반드시 필요한 요소다. 하정우 센터장: AI는 단순히 잘 만들 수 있느냐 없느냐의 문제가 아니라 반드시 만들어야 하는 기술이다. 예를 들어 소프트뱅크는 기술회사가 아니지만 AI를 활용해 성과를 내고 있다. 중요한 것은 AI를 전략적으로 활용할 수 있는 능력을 확보하는 것이다. 유사 시에 AI가 전략 자산으로 작동할 수 있도록 준비하는 것이 핵심이다. 이를 통해 정보 기반 대응 능력을 갖추는 것이 필요하며 이는 다른 국가들도 마찬가지다. AI 개발은 안보와 비슷한 맥락에서 반드시 있어야 할 자산으로 간주돼야 한다. 오혜연 교수: 현재 파운데이션 모델, 특히 LLM 계열에서 '챗GPT'나 '클로드' 같은 모델들이 두각을 나타내고 있지만 이들이 유일하거나 완벽한 모델이라고 보기는 어렵다. 기술적으로 평가 기준이 아직 불완전하기 때문에 이 모델들이 정말 가장 뛰어난지는 확신할 수 없다. 실제로 다양한 벤치마크를 통해 테스트해 보면 이들은 잘 작동하지만 여전히 초기 단계에 머물러 있다고 본다. 이에 따라 국내의 '엑사원', '하이퍼클로바' 같은 모델이나 소규모 모델들 역시 중요한 가능성을 가진다. 현재 AI 파운데이션 모델과 트랜스포머 기술이 중심이긴 하지만 오픈AI의 성공만으로 전부를 정의하기에는 한계가 많다. AI 기술은 여전히 많은 개선과 발전이 필요한 상황이다. 하정우 센터장: 소버린 AI는 파운데이션 모델의 중요성과 함께 등장한 개념이다. 특히 GPU와 데이터 거버넌스가 국가 주권과 연결되면서 주목받고 있다. 이 기술을 구축하려면 막대한 국가 예산이 필요하며 이는 단순한 기술 활용을 넘어 국가 역량과 데이터 주권 및 가치 재분배 문제와 직결된다. 파운데이션 모델에 대해 "그냥 가져다 쓰면 된다"는 의견도 있지만 우리는 국가 간 경쟁에서 이를 전략적 접근으로 접근해야 한다. 각국은 강점과 약점을 고려해 외국 자금을 활용하거나 특정 분야를 집중 육성해야 하는데 이는 기업이 감당할 수 없어 일정 부문 국가가 담당해야 할 영역이다. 한국은 AI 산업에서 불리한 위치에 있다. 대부분의 국가는 국가가 기반을 마련하고 기업이 경쟁에 나서는 구조를 갖췄지만 우리는 세제 혜택만으로 기업들이 홀로 경쟁해야 하는 상황이다. "왜 기업을 밀어주느냐"는 부정적 인식도 있지만 현재 AI 시장은 기업 중심으로 돌아갈 수밖에 없다는 점을 간과해서는 안 된다. 이성엽 교수: 한국은 소버린 AI와 관련해 다른 국가들과는 다른 태도를 보이고 있다. 미국과 영국을 비롯한 많은 국가가 국가 주도로 일부를 지원하고 조정하는 체계를 갖추고 있다. 한국에서는 소버린 AI 개념에 대해 다소 소극적인 태도를 보이는 듯하다. 이는 국가 차원의 AI 전략 수립에 제한을 줄 우려가 있다. 韓 AI 방향성, 산업 육성·규제 균형 필요…신뢰·안보 논의 필수 김상배 교수: 프레임이 잡혀 있는 방향성도 문제다. 현재 AI 산업 논의의 초점은 "AI 산업을 어떻게 육성할 것인가"보다는 "법을 어떻게 규제할 것인가"에 치우쳐 있다. 국회에 발의된 11개의 AI 관련 법안을 보면 대부분 규제에 초점을 맞추고 있다. 특히 EU의 AI 법안을 참고해 규범적 힘(Normative Power)을 강조하는 경향이 있다. 이와 반대로 미국이나 중국은 규제를 언급하면서도 실제로는 산업 육성에 초점을 맞추고 있다. 규제 프레임만이 아니라 AI 산업 육성도 집중해야 한다. 아직 AI 육성에 대한 논의가 부족한 상황에서 규제부터 선제적으로 도입하려는 시도는 적절하지 않다. 규제와 육성을 조화롭게 맞출 수 있는 전략적 프레임이 필요하다. 이승현 국장: AI 육성과 관련해 현재 공무원 시스템이 지닌 가장 큰 문제는 잦은 인사이동으로 인해 지속성 부재다. 외교부, 국정원, 과기정통부 등 AI 정책 유관 부처 공무원들이 1년마다 자리를 옮기기 때문이다. 다른 나라에서는 한 분야를 오랫동안 담당하며 전문성을 쌓는 공무원 시스템이 일반적이다. 국내에서는 이를 지원할 체계가 없어 AI 관련 부서에서도 동일한 문제가 발생한다. 과기정통부가 AI 정책을 추진하려 해도 1년 단위로 구성된 추진단이 제 역할을 다하기 어렵다. 또 입법부에서도 소버린 AI와 같은 중요한 주제가 논의돼도 의원들의 이해도와 필요에 따라 내용이 취사선택되는 경향이 있다. 김상배 교수: AI에 대한 이러한 근본적 이해 부족은 과거 조선의 서구 기술 복제 시도와 유사하다. 병인양요와 신미양요 당시 서구 무기와 배를 복제하려 했으나 과학적 원리와 재료 기술을 이해하지 못해 실패한 사례가 이를 보여준다. AI 분야에서 단순히 외형을 흉내 내는 접근은 한계가 있다. 국제정치학에서는 AI를 '핵무기에 버금가는 국제질서 변화의 원동력'으로 보거나 '문명사적 전환'으로 평가하지만 이를 근본적으로 이해하지 못한다면 AI가 가져올 충격에 효과적으로 대응할 수 없을 것이다. 이성엽 교수: 영국은 '친혁신적 AI 규제'를 통해 포괄적 규제 대신 기존 기관이 분야별로 AI를 규제하도록 했다. 최근에는 첨단 AI 시스템인 '프론티어 모델'을 겨냥한 규제를 발표했다. 이는 미국 빅테크 기업을 견제하려는 의도로 보이며 한국에도 시사점을 준다. 국내에서는 AI 규제를 법으로 해결하려는 경향이 강하고 특히 EU AI법의 '고위험 AI' 개념에 집중하는 경향이 있다. 그런데 전문가들은 이 개념을 모호하다고 지적한다. 규제 실효성을 떨어뜨리고 정의에만 몇 년이 소요될 수 있기 때문이다. 이에 따라 한국의 AI 기본법도 산업 육성과 국가 거버넌스를 포괄하는 방향으로 설계돼야 하며 고위험 논의에 치우치지 않고 규제와 육성을 균형 있게 다룰 필요가 있다. 김상배 교수: 국회의 법안 발의 과정은 구조적 한계가 있다. 해외 법안을 전적으로 참고해서 급속히 작성된 법안이 정치적 이슈와 얽혀 충분한 검토 없이 통과되는 경우가 있기 때문이다. 처음부터 정교하게 설계된 법안이었다면 이런 문제를 줄일 수 있었겠지만 현재 방식은 정책적으로도 큰 한계를 초래하고 있다. 하정우 센터장: 현재 AI 법안 제정과 관련해 '고위험 개념'은 시민단체 입장에서 위험성을 고려한 조치로 이해할 수 있지만 이를 판단하는 과정에는 전문가 중심의 체계적 검토가 필요하다. AI 위원회와 같은 전문가 집단이 고위험 여부를 세부적으로 검토하고 판단해야 하며 샌드박스 제도를 도입해 규제와 실험을 병행할 수 있는 환경을 조성해야 한다. 이승현 국장: AI 법안 마련 과정에서는 AI 위원회가 로펌 등에 용역을 의뢰해 중립적인 초안을 마련하고 이를 전문가와 함께 논의하며 수정하는 방식이 필요하다. 현재 시행령이나 시행규칙으로 문제를 처리하는 방식은 한계가 있으므로 보다 투명하고 책임 있는 구조를 마련해야 한다. 김상배 교수: AI 위원회가 논의를 표면적으로만 보고 '디지털 시대의 부국강병 정책'으로 단순화해서는 안될 것이다. AI를 단순히 자원으로 보고 양적인 투자만으로 문제를 해결하려는 접근은 한계가 있기 때문이다. 인프라를 구축하고 글로벌 거버넌스에 참여하려는 시도도 중요하지만 정세를 읽고 전략적 틈새를 공략하는 계획이 필요하다. 이성엽 교수: 개인정보 보호와 AI 산업이 충돌하는 사례 역시 글로벌한 문제다. 삭제권, 수정권, 최소화 원칙 등 보호 원칙들이 AI 기술과 갈등을 빚고 있으며 특히 EU의 일반데이터보호법(GDPR)은 이를 두드러지게 한다. 유럽은 규제와 산업 간 조화를 위해 변형과 조정을 시도하고 있지만 미국은 여전히 명확한 해결책을 마련하지 못하고 있다. 특히 한국은 글로벌 스탠다드와 다른 엄격한 규제와 복잡한 환경으로 인해 기업 경쟁력이 약화되고 있다. 개인정보 보호가 신성시되는 상황에서 정당한 이익 해석의 불명확성과 데이터 활용 제한이 주요 장애 요인이다. 이에 따라 AI 시대에 적합한 특례법을 통해 개인정보 보호와 AI 산업 간 균형을 맞추는 노력이 필요하다. 기존 법령은 유연성이 부족하고 샌드박스 방식은 한계가 있다. AI 위원회와 같은 기구가 장기적인 규제 조정의 중심 역할을 해야 한다. 오혜연 교수: 또 다른 문제는 AI에 대한 이해 부족이다. 국민들은 AI를 지나치게 부정적으로 인식하는 경향이 있다. 일부 극단적인 주장, 예를 들어 제프리 힌턴의 "AI로 인한 인류 멸망" 같은 발언이 이러한 인식을 부추기는 것으로 보인다. 부정적인 측면만 강조하며 차단하려는 접근은 바람직하지 않다. 오히려 AI를 신뢰할 수 있는 기술로 발전시키는 방안을 모색해야 한다. 그런데 현재 딥페이크와 같은 부정적 사례들에만 초점이 맞춰져 있어 안타깝다. 김상배 교수: AI는 전쟁에서도 거대한 함의를 가진다. 실제로 AI가 전쟁 지휘관을 보조하며 의사결정을 돕는 시스템은 현실화될 가능성이 높다. 다른 나라들이 이를 도입하는 상황에서 우리가 뒤처진다면 경쟁에서 밀릴 위험이 크다. 그런데 AI의 판단이 지휘관의 고유한 결정을 반박하거나, 판단 이유를 명확히 설명하지 못할 경우 책임 소재와 신뢰 문제가 발생할 수 있다. AI의 군사적 활용은 핵전략과 같은 중대한 논의와 연결된다. 버튼을 누르는 결정이 AI에 의해 이루어질 경우 해킹 우려, 자율적 판단, 기술 신뢰성 등 다층적인 문제가 수반된다. 미국과 중국이 핵전략 경쟁을 재점화하며 미사일 운반 수단의 스마트화를 진행 중인 상황에서 한국 역시 AI의 군사적 활용을 준비해야 한다. 북한조차도 AI 기술 도입을 모색할 가능성이 있는 만큼 AI의 군사적 활용은 피할 수 없는 흐름이다.

2024.11.25 08:00김미정

한화생명, AI 연구소 설립…디지털 자산 시대 '개막'

한화생명이 AI연구소 설립을 통해 금융과 인공지능(AI) 기술의 융합에 나섰다. 이로써 금융 자산 운용 최적화부터 윤리적 활용까지 첨단 기술을 폭넓게 적용할 계획이다. 한화생명은 지난 6월 AI연구소를 출범시킨 후 스탠포드 대학교 인간중심 AI연구소(HAI)와 산학협력을 체결해 프로젝트를 진행 중이라고 19일 밝혔다. 오는 12월에는 미국 샌프란시스코에 AI센터를 개소하며 글로벌 AI 역량 강화에 나설 예정이다. 연구소의 주요 과제는 자산운용 포트폴리오 최적화, 개인 디지털 페르소나 개발 AI, 헬스케어·AI 접목, 글로벌 AI 거버넌스 연구 등이 있다. 이 중 자산운용 최적화 연구는 투자 리스크를 최소화하고 수익을 극대화하는 데 중점을 둔다. 개인 디지털 페르소나 연구는 개인의 기억을 디지털 자산으로 보존하고 이를 가족이나 지인과의 소통에 활용할 방안을 모색한다. 한화 AI연구소는 이를 장기적으로 보험 상품과 연계할 가능성도 검토 중이다. 헬스케어 분야에서는 개인 맞춤형 건강 관리 솔루션 개발과 보험 상품과 연계된 서비스 창출을 목표로 하고 있다. 생명보험 산업의 특성을 고려해 인간의 건강과 삶의 질 향상에 기여할 AI 기술 활용을 적극 탐구 중이다. 글로벌 AI 거버넌스 연구는 AI 기술의 윤리적 문제와 규범을 설정하기 위한 분석을 포함한다. 특히 다양한 국가의 AI 활용 실태를 조사하고 기술이 인간의 안전과 공정성을 저해하지 않도록 스탠퍼드와 협력하고 있다. 김일구 한화생명 AI연구소 소장은 "AI가 금융 산업에서 필수적인 역량임을 입증하고 고객 만족과 기업 경쟁력을 강화하기 위해 적극 활용할 것"이라며 "스탠퍼드 HAI와의 협업은 사회 전반에 AI가 미칠 영향력을 분석하는 데 중요한 계기가 될 것"이라고 밝혔다.

2024.11.19 10:47조이환

AI안전연구소 초대소장에 김명주 서울여대 교수

과학기술정보통신부는 AI안전연구소 초대소장에 김명주 서울여자대학교 정보보호학부 교수를 11월12일자로 임명한다고 밝혔다. 김명주 초대소장은 컴퓨터공학을 전공한 AI윤리 신뢰성 전문가로, 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임있는 AI개발 활용 확산을 위해 노력해 왔다. 아울러 OECD GPAI 전문가 멤버로 활동하며 지속가능한 AI발전을 위한 국제사회 논의에도 활발히 참여하고 있다. 정부는 그간 AI윤리 안전분야에서 축적한 전문성과 경험, 리더십을 바탕으로 새로 출범할 AI안전연구소를 글로벌 AI안전연구를 선도하는 기관으로 발전시켜 나가고, 국내 AI분야 산학연과 세계 각국의 AI안전연구소와 긴밀히 협력할 것으로 기대했다. AI안전연구소장의 임기는 임명일로부터 3년이다.

2024.11.12 11:31박수형

ETRI부설 AI안전연구소장에 김명주 서울여대 교수…11일 취임

김명주 서울여대 정보보호학부 교수(60)가 한국전자통신연구원(ETRI) 부설 AI안전연구소 초대 소장으로 임명돼 11일 취임식을 개최했다. AI안전연구소는 AI 안전성을 평가‧연구하고 주요국 AI안전연구소와의 협력 전담 조직이다. 30여 명의 연구인력이 AI안전 정책 및 대외협력실·AI안전 평가실·AI안전 연구실 등 3개의 연구실로 나눠 본격 업무에 들어갔다. 사무실은 판교 글로벌 R&D센터에 설치됐다. AI안전연구소는 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전제도 확립 ▲국내 AI기업 안전 확보 지원 등에 적극 나설 계획이다. 이를 위해 AI위험의 정의와 AI안전 평가, 국가차원 관리 주요 AI위험을 정의하고 AI안전 평가방법론 개발 및 완화방안 마련 등 4개 핵심 과제를 주요 핵심 기능으로 설정했다. 11일부터 근무에 들어간 초대 김 소장은 서울대 컴퓨터공학과를 나와 같은 대학에서 컴퓨터공학으로 석, 박사학위를 받았다. 2001년 수도권 최초로 서울여대에 정보보호학과를 신설했다. 2014년에는 국내 최초 교육부 지정 정보보호영재교육원을 설립했다. 2018년에는 국내 최초로 지능정보사회 윤리 가이드라인 서울 PACT를 개발, 과학기술정보통신부 근정포장을 수상했다. 한국사이버테러정보전학회 부회장을 역임했다. 현재 한국저작권위원회 부위원장, 바른AI연구센터장, 디지털포용포럼 디지털역기능분과장, 한국인터넷윤리학회 명예회장, 인공지능윤리정책포럼 위원장, 개인정보보호위원회 개인정보기술포럼 정책분과위원, 육군3사관학교 석좌교수, 개인정보기술포럼 정책위원을 맡고 있다. 특히, 초대 김 소장은 지난 3월부터 IAAE 국제인공지능&윤리협회 제2대 회장을 수행중이다. IAAE는국제인공지능&윤리협회로 세계 최초로 인공지능 기술과 윤리를 함께 논의하는 글로벌 인공지능 기관이다.

2024.11.11 19:45박희범

개인정보위 "내년 빅테크 소송 예산 증액·인력 충원 목표"

개인정보보호위원회가 내년에 빅테크 소송비를 증액하고 인력 충원을 위해 노력한다는 방침이다. 30일 개인정보위 최장혁 부위원장은 출입기자단 정례브리핑에서 참석해 이같은 계획을 발표했다. 단기적으로 송무팀을 꾸리고 장기적으로는 빅테크 전담 변호사와 회계사를 구축할 방침이다. 최 부위원장은 구글·메타 등 빅테크 소송을 위해 내년 예산 약 4억원을 확보했다고 밝혔다. 그러나 해당 예산은 충분치 않다고 설명했다. 최 부위원장은 "최근 정부가 예산을 줄이려는 정책을 추진하고 있다"며 "이런 상황에서 모든 비용을 충당하기 어려울 수 있다"고 말했다. 그럼에도 최 부위원장은 내년 소송 예산 추가 증액을 희망적으로 봤다. 올해 배정된 예산도 2배 가까이 올려 받았다는 이유에서다. 최 부위원장은 "2023년에 올해 소송비 예산을 2억원에서 4억원으로 증액한 바 있다"며 "어려운 상황이지만 정부와 합의점을 찾을 것"이라고 말했다. 최 부위원장은 빅테크 소송 예산뿐 아니라 글로벌 기업을 관리하는 인력 부족도 큰 난제라고 지적했다. 특히 소송을 전담할 로펌을 찾기 힘들다고 말했다. 최 부위원장은 "대형 로펌들이 주로 대기업이나 글로벌 기업과 비즈니스 관계를 맺고 있다"며 "정부 측 소송을 대행하는 데 어려움이 있다"고 지적했다. 또 개보위는 내년 조직 개편을 통해 빅테크 소송을 전담할 송무팀 신설도 계획하고 있다. 장기적으로는 송무팀 내 전담 변호사와 회계사 등을 추가 영입할 방침이다. 그는 "특히 빅테크에 과징금을 부과하려면 기업 재무제표를 통해 매출을 파악해야 한다"며 "이를 위해 변호사뿐 아니라 회계사 인력 충원은 필수적"이라고 했다. 이 외에도 최 부위원장은 내달 설립 예정인 AI안전연구소와 AI 신뢰성 협력을 위해 노력할 의지도 밝혔다. 그는 "개인정보위가 AI 안전성과 딥페이크 등 AI 신뢰성 논의를 이어온 만큼 AI안전연구소 업무와 연계됐기 때문"이라고 이유를 설명했다.

2024.10.30 17:00김미정

"글로벌 AI 안전 주도"…정부, AI안전연구소 운영 전략 공유

정부가 내달 설립 예정인 '인공지능(AI)안전연구소' 운영 계획을 공유하고 의견을 수렴했다. 과학기술정보통신부는 18일 서울 중구 국가과학기술자문회의 대회의실에서 '제17차 정보통신전략위원회'를 열었다. 이 자리에서 AI안전연구소 비전을 '아태지역을 대표하는 글로벌 AI안전 거점연구소'으로 설정하고 인력 확보·핵심 기능·주요 일정에 대한 사안을 발표했다. 우선 정부는 11월 AI안전연구소를 개소할 예정이다. AI안전연구소는 내달 20일부터 미국 샌프란시스코에서 개최될 '국제 AI안전연구소 네트워크' 행사 참여를 시작으로 본격적인 역할을 수행할 계획이다. AI안전연구소는 한국정보통신연구원(ETRI)에 소속된 신규 연구소 조직으로 설치된다. AI안전 정책·평가·기술분야의 3개의 연구실로 운영된다. 현재 연구소 초대소장으로 AI 분야 전문성과 국제적 감각을 보유한 전문가를 채용하기 위한 절차를 진행 중이다. 이를 통해 연구 인력 30명을 확보할 계획이다. 사무실은 AI 판교 글로벌 연구·개발(R&D)센터에 설치된다. 정부는 아태지역을 대표하는 글로벌 AI안전 거점연구소 구현을 AI안전연구소 비전으로 설정했다. 3대 핵심미션으로 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전제도 확립 ▲국내 AI기업의 안전 확보 지원을 추진한다. 앞서 정부는 올해 5월 'AI서울정상회의'를 개최해 글로벌 AI거버넌스 정상급 선언문인 '서울선언'을 도출했다. 지난달 AI G3로 도약하기 위해 대통령 중심으로 범국가적 혁신역량을 결집하는 민관 협업 기반 최고위 거버넌스인 국가인공지능위원회를 설립했다. 이에 대한 연장선상으로 정부는 AI서울정상회의 개최국으로서 서울선언 규범 가치를 확산하기 위한 핵심 후속조치로 AI안전성을 평가‧연구하고, 주요국 AI안전연구소와 협력을 전담하는 조직인 AI안전연구소 설립을 추진한다. AI안전연구소 운영을 통해 안전한 AI 개발·활용을 확산하고, AI 안전에 대한 국제적 연대 강화와 규범 정립을 수행하며, 중장기적으로 세계적 AI안전 연구를 선도하는 기관으로 발전시킬 계획이다. 그간 정부는 미국과 영국, 일본 등 AI안전연구소를 현장방문해 각국 연구소의 성격과 역할, 안전 평가방식, 연구소 운영방안 등을 심층 분석한 바 있다. AI안전연구소 설립자문위원회와 설립준비위원회 운영을 통해 국내 AI분야 전문가 의견을 폭넓게 수렴했다. 이를 통해 연구소 비전, 세부기능 과 운영방안을 도출했다. 11월 모습 드러내는 AI안전연구소, 핵심 기능은? 과기정통부는 AI안전연구소가 4가지 핵심기능을 수행할 계획이라고 밝혔다. 우선 연구소는 AI위험을 정의하고, AI안전을 평가할 방침이다. 국가차원에서 관리해야 할 주요 AI위험을 정의하고, AI안전 평가방법론 개발과 위험완화 방안을 마련한다. AI안전 평가데이터셋 구축과 평가도구 개발 등 AI안전 평가인프라를 구축하고, 기업 활용을 지원할 계획이다. AI안전연구소는 AI안전 정책을 연구할 방침이다. 주요국·국제기구의 AI 규범·거버넌스를 연구하고, 국내외 주요 AI위험 정보를 수집·분석함으로써 AI안전 정책을 고도화할 예정이다. AI 기술이 경제·사회·일자리 등에 미치는 영향을 종합적으로 분석하고 대응 방안 연구도 추진할 계획이다. 과기정통부는 해당 연구소가 AI안전 대내외 협력을 수행할 것이라고 설명했다. AI안전연구소 중심으로 산학연이 참여하는 AI안전 파트너십을 구축한다. 이를 통해 AI안전 정책·기술 분야 연구 협력을 촉진할 계획이다. 글로벌 AI안전 거버넌스의 주요 일원으로서 AI안전 확보를 위해 주요국 AI안전연구소, 국제기구 등과 협력할 예정이다. 연구소는 AI안전 확보를 위한 R&D도 추진한다. AI 통제력 상실 대응, AI모델의 보안·강건성 강화, AI 딥페이크 탐지 등 AI위험에 대비해 안전을 확보할 수 있는 R&D를 추진한다. 과기정통부 유상임 장관은 "향후 1~2년은 우리나라가 AI, 디지털 분야 선도국 도약의 성패를 좌우할 수 있는 골든타임으로 정부와 민간이 힘을 합쳐 모든 역량을 총결집 해야할 때"라며 "클라우드컴퓨팅 도입 전면화, AI안전연구소 출범 등 논의된 내용들을 속도감있게 추진해 나갈 수 있도록 관계부처와 적극 협력해 나갈 것"이라고 밝혔다.

2024.10.18 14:00김미정

"英·美는 '억대 연봉' 준다던데"...ETRI 연구환경 악화, 정부 출연금 지원 절실

한국전자통신연구원(ETRI)의 정부 출연금 비중이 다른 출연연에 비해 현저히 낮아 연구 환경과 연구원의 처우가 열악한 상황이라는 지적이 나왔다. 연구비와 인건비 문제를 해결하지 않으면 국가 경쟁력을 강화할 핵심 기술 개발이 어려워질 것이라는 우려가 제기되고 있다. 18일 정동영 더불어민주당 의원실에 따르면 정 의원은 지난 17일 국회 과학기술정보방송통신위원회(과방위) 국정감사에서 ETRI 총예산 중 정부 출연금 비중이 16.6%에 불과하다고 지적했다. 이는 다른 24개 출연연 평균 39.1%에 비해 현저히 낮은 수준이다. 정 의원은 ETRI 연구원들이 정부수탁과제(PBS)에 과도하게 의존하고 있어 안정적인 연구 환경이 조성되지 않고 있다고 지적했다. 또 연구원들이 과제 수주에 많은 시간을 투자하면서 장기적이고 대형 성과를 내기 어려운 구조라는 점을 언급했다. ETRI 연구원의 처우는 민간 대기업과 비교했을 때 현저히 열악한 상황이다. 삼성, 현대, LG, SK 등 대기업의 임금 수준에 비해 ETRI 연구원들은 약 70%에 불과한 보수를 받고 있어 우수 인재 유출이 가속화될 위험이 크다. 이러한 문제는 ETRI 산하에 설립될 AI 안전연구소에서도 동일하게 발생할 가능성이 높아 우려를 낳고 있다. 빠르면 오는 11월 ETRI 산하 AI 안전연구소가 개소를 앞두고 있음에도 인재 확보와 관련한 처우 개선 방안은 아직 발표되지 않았다. 현재 ETRI의 연구원들은 민간 대기업 대비 낮은 임금과 불안정한 연구 환경으로 어려움을 겪고 있는 상황으로, AI 안전연구소 역시 충분한 예산 지원과 경쟁력 있는 처우가 뒷받침되지 않을 경우 우수 인재 유출과 함께 연구 성과에도 차질이 생길 수 있다는 우려가 제기되고 있다. 이는 이미 AI 안전연구소가 세워져 있는 영국, 미국과는 '상반된 모습이다. 영국과 미국은 다가오는 AI 시대를 위한 인재 유치에 힘쓰며 억대 연봉을 보장하는 등 충분한 예산과 처우를 제공하고 있어 안정적인 연구 환경을 구축하고 있다. 이러한 우려에도 불구하고 정부가 책정한 인건비 인상률은 민간 및 공무원의 인상률을 밑돌고 있어 연구원들이 체감하는 처우 개선은 미미한 상태다. 정부의 고시 인건비는 민간 수준을 반영하지 못하고 있으며 이는 연구 인력 확보에 어려움을 초래하고 있다. 정 의원은 ETRI 연구환경 개선을 위해 정부 출연금을 확대하고 경쟁형 과제 중심의 PBS 체제를 중대형 묶음과제로 전환할 것을 촉구했다. 연구원의 처우를 실질적으로 개선할 수 있는 제도적 변화가 필요하다는 주장 역시 제기됐다. 정 의원은 "우수 인재 확보를 위해서는 처우 개선과 안정적인 연구 환경 조성이 필수적"이라며 "연구원이 과도한 경쟁에서 벗어나 장기적이고 중대형 과제를 수행할 수 있는 환경을 만들어야 한다"고 강조했다.

2024.10.18 08:44조이환

차세대 발사체 지재권 논쟁 재점화…"매칭펀드 입장 서로 달라"

8일 세종 과학기술정보통신부에서 진행된 국회 과학기술정보방송통신위원회 국정감사 과학기술계 분야에서는 예상대로 R&D예산과 과학기술 경쟁력, 인력 유출 등이 집중 거론됐다. 그러나 관심을 끌 폭탄급 이슈는 없었다. 무난하게 진행됐다는 평가다. 정동영 의원(더불어민주당, 전북 전주시병)은 과학기술 경쟁력에 대해 질문 공세를 폈다. 정 의원은 "우주항공해양 첨단 바이오 핵심기술 136개 기술 평가에서 중국이 처음 우리를 넘어섰다. 충격이다"며 대응책을 따졌다. 이에 대해 유상임 과기정통부 장관은 "개인적으로 예상했다"며 "최소한 AI는 한 번 경쟁해야 한다"고 답변했다. 윤영빈 청장 "일본 JAXA와 규모 유사...경쟁해볼만" 정 의원은 "중국은 우주항공, 자율주행 등 첨단 분야에서 일취월장인데, 우리는 제자리 걸음"이라며 "우주항공의 경우 우리는 기술 개발을 R&D 측면에서 접근한다면, 중국은 국가발전 원동력이자 전략 차원으로 접근한다"고 방안 마련을 촉구했다. 윤영빈 우주항공청장은 우주 항공 비전과 목표에 대해 "20년 뒤 시장의 10%를 차지할 계획"이라며 " 현재 293명이 정원이다. 168명이 채워져 있다. 우리는 우주 개발 정책을 수립한다. 항우연 1천 명, 천문연 300명 합치면 1천600명이다. 일본 JAXA(우주항공연구개발기구) 규모는 된다. 해볼 만 하다"고 답변했다. 정 의원은 중국이 양자 컴퓨팅에 국가 차원에서 집중 투자한다며 우리나라도 양자 컴퓨팅 투자도 촉구했다. 유상임 장관은 "3대 게임저 중에 양자파트가 상대적으로 약하다고 생각했다. 그런데 양자컴은 휘발성이 아주 크다"며 "취약한 상황을 단시일내에 따라 잡을 계획이다. 인재양성과 R&D는 같이 인력을 수급하며 풀어가야 한다"고 답했다. 박민규 의원(더불어민주당,서울 관악구갑)은 국립전파연구원의 R&D 전액 예산 삭감을 따져 물었다. 이해민 의원(조국혁신당)은 최근 논란을 일으킨 김형숙 한양대 교수의 전공을 집중 추궁하며, 낙하산 채용 의혹을 제기했다. 이 의원은 김 교수가 '한양대 데이터 사이언스학과 심리뇌과학 전공 교수'라는 점을 찍어 이름과 전공을 공개하며 질문 공세를 폈다. 용산 어린이 정원 계획 과기정통부 예산 42억 배정 따지기도 이정헌 더불어민주당 의원(광진구갑)은 용산 공원(어린이 정원)을 조성하며 과학정통부 예산이 졸속으로 편성된 것 아니냐고 질책했다. 이 의원은 "지난 2월 전시가 제안되고, 5월 논의가 된 것으로 아는데, 42억 1천500만원을 갑자기 용산공원 프로젝트에 포함시킨 이유가 뭐냐"고 따졌다. 용산공원 프로젝트는 6개 부처가 736억 원을 들여 진행하는 어린이 정원 공사다. 국토교통부가 416억 원으로 가장 많이 부담한다. 이에 대해 이창윤 1차관은 "용산 공원이 어린이 접근성이 좋다"며 "그런 측면에서 용산 예산 투입을 결정했다"고 해명했다. 조인철 더불어민주당 의원(광주 서구갑)은 국가 R&D예산을 지역별로 뽑아 달라고 주문해 관심을 끌었다. 김우영 의원(더불어민주당, 서울 은평구을)은 글로벌 R&D와 한미일 협력 방안, 김형숙 교수 논란 등에 대해 따졌다. 최수진 의원(국민의힘, 비례대표)는 출연연구기관 예산과 인력 감소 문제를 꺼내 들었다. "인력 유출 주로 20~30대...출연연 환경 개선을" 최 의원은 "출연연구기관이 공공기관에서 제외되고, PBS(연구성과중심제)의 문제점을 잘 안다. 출연연 예산이 5조 3천억 원까지 증가한 것도 안다. 그런데 출연금은 전체의 17% 정도다, 인건비가 10.66%고, 경상비가 6.65%인데, 이는 물가 상승분에 못미치는 수치"라고 연구 환경 개선을 촉구했다. 최 의원은 인력 유출 문제도 거론했다. 최 의원은 "20~30대가 메인인데, 지난 5년간 487명이 떠났다. 40~50대는 232명이었다"며 "이를 위해 ▲자율적인 책임경영 ▲블럭펀딩 확대 ▲인건비 재량권 확대 ▲우수 연구자 정년 연장 ▲주당 근무 52시간에 대한 유연성 확보 등을 주문했다. 이에 대해 유상임 장관은 "출연연 연구자가 대학과 경쟁하는 것은 바람직하지 않다"며 "CDMA 등 처럼 국가 전략 기술은 블럭펀딩으로 연구해야 한다"고 집단 연구에 공감을 나타냈다. 최 의원은 이를 개선하기 위한 TFT라도 짜서 대응할 것을 주문했고, 이에 대해 유상임 장관은 확실한 실행과 추진을 약속했다. "항우연선 하드디스크 떼어 들고 다녀도 되나" 질책 박충권 의원(국민의원, 비례대표)은 항공우주연구원-한화에어로스페이스 간 차세대발사체 관련한 지적 재산권 분쟁과 인력 유출 문제를 거론했다. 박 의원은 "이와 관련 11명이 조사받아 결국 무혐의 결론이 났지만 나머지 4명은 이직 과정에서 불법이 발견돼 조사가 진행 중"이라며 "이직 연구원들이 무리하게 하드 디스크를 떼어 들고 다니고, 특정 자료를 과도하게 들여다본 것에 대한 내부 제보로 과기정통부 감사가 진행됐다"고 했다. 박 의원은 이들 4명을 영입할 것이냐고 다그쳤고, 이에 대해 손재일 한화에어로스페이스 공동대표는 "4명 조사 끝나면 검토할 것"이라고 답했다. 손 대표는 "이 사건은 당황스럽고, 황당하다. 문제되는 연구원은 채용을 안하고 있다"고 말했다. 손 대표는 또 항우연과의 지재권 분쟁에 대해 "입찰 공고 때 공동소유라고 돼 있다"며 "작업 실질 내용을 보면 인적, 물적 자원을 투입해 공동개발하기에 공동 소유를 주장한다"고 답했다. 손 대표는 전체 과제가 900건이 넘는 것으로 보고 받았다. 그 가운데 40%를 주관하고 있고, 그걸 포함해서 80%를 주관 또는 참여하고 있다"고 부연 설명했다. 이에 대해 윤영빈 우주청장은 "매칭펀드를 내지 않으면 지재권을 가져갈 수 없다"고 명확히 못박았다. 차세대 발사체 개발에서 펀딩를 했느냐 않했느냐의 여부가 쟁점으로 부상할 전망이다. 이어 황정아 의원은 포항가속기연구소 채용비리와 예산 남용, 허위보고 등의 문제를 지적했다.강홍식 포항가속기연구소장은 이에 대해 "채용비리나 아차사고 등은 문제가 안되고, 레이저 안전사고 등의 규정을 잘 몰라 늦게 보고한 것"이라고 대답했다.

2024.10.08 19:02박희범

디노티시아, 고려대 병원과 '의료 AI 솔루션' 개발 협력

인공지능 전문기업 디노티시아가 고려대학교 안암병원, 첨단의료영상연구소와 의료 AI 분야의 혁신적 발전을 위한 업무협약(MOU)를 체결했다고 27일 발표했다. 이번 협약은 각 기관의 핵심 역량을 통합해 의료 AI 기술의 새로운 패러다임을 제시하고 글로벌 의료 산업에서 경쟁력을 높이기 위해 추진됐다. 협약식은 26일 고려대학교 안암병원에서 열렸으며, 디노티시아 정무경 대표, 고려대학교 안암병원 한승범 병원장, 첨단의료영상연구소 박범진 소장을 비롯한 주요 관계자들이 참석해 협력의 방향성을 논의했다. 이번 협약을 통해 세 기관은 ▲AI 기반 의료 영상 분석 시스템 구축 ▲안전한 의료 정보 분석 시스템 개발 ▲메디컬 AI 알고리즘 공동 연구 등 다양한 분야에서 협력할 계획이다. 디노티시아는 자사의 AI 비전기술을 첨단의료영상영구소의 전문성에 접목해 더욱 정밀한 의료 영상 분석 시스템을 개발할 예정이다. 이를 통해 의료진이 보다 정확한 진단과 치료 결정을 내리는 데 도움을 줄 것으로 기대된다. 또한, 디노티시아는 자사 LLM (Large Language Model), 엣지(Edge) LLM 디바이스를 활용해 의료 데이터 분석과 관리의 효율성을 높이고, 환자 데이터의 안전한 관리와 보호를 강화할 방침이다. 한승범 고려대학교 안암병원 병원장은 “디노티시아와 첨단의료영상연구소와의 협력을 통해 의료 AI 기술의 새로운 가능성을 열게 되어 매우 기쁘다”라며, “이번 협력이 진단 및 치료의 정확도를 높이고, 전반적인 의료 서비스의 질적 향상을 기대할 수 있는 계기가 될 것”이라고 밝혔다. 박범진 첨단의료영상연구소 소장은 “이번 협약을 통해 의료 영상 분석 기술과 AI의 융합을 실현함으로써, 의료 서비스의 새로운 표준을 제시할 수 있을 것으로 기대된다”고 전했다. 정무경 디노티시아 대표는 “신생 스타트업인 디노티시아의 기술력을 신뢰하고 협력해 주신 두 기관에 깊은 감사를 드린다”라며, “디노티시아의 AI 솔루션으로 의료 산업 전반에 기술 혁신을 이끌고, 의료진과 환자 모두에게 더 나은 환경과 서비스를 제공할 수 있도록 하겠다”라고 말했다.

2024.09.27 09:51이나리

AI 안전연구소장 공모…미래 AI안전 선도할 리더 찾는다

한국전자통신연구원(ETRI)이 AI 안전연구소장을 공개 채용한다. ETRI는 이번 채용이 글로벌 인공지능(AI) 정책과 법제도를 이끌 전문 인력을 모집하는 데 중점을 둔다고 25일 밝혔다. 지원자는 석사 이상의 학위를 소지해야 하며 AI 안전 관련 정책 수립 및 연구 수행 능력을 갖춰야 한다. 이번 채용의 주요 요건은 AI 안전 분야의 전문성과 글로벌 AI 환경에 대한 깊은 이해다. AI 기술의 안전성을 평가하고 국제 협력을 통해 이를 개선하는 것이 주요 업무이기 때문이다. 경영 혁신과 조직 관리 능력도 필수적이다. AI 안전연구소가 국가 AI 거버넌스의 중심으로서 역할을 수행하기 때문에 조직을 이끌 리더십과 중장기 전략 수립 역량이 요구된다. ETRI는 이번 채용을 블라인드 방식으로 진행해 공정성을 강화했다. 서류 전형, 1차 면접, 최종 면접을 거쳐 합격자를 선발하며 임용은 11월 중으로 예정돼 있다. 지원서 접수는 다음 달 4일까지다. 최종 합격자는 3년 임기 동안 성남 판교에서 근무하게 되며 1회에 한해 연임이 가능하다. 이번 채용은 전 세계적으로 AI 안전 연구소를 설립하는 움직임에 따른 것이다. 이미 미국, 영국, 일본 등 주요 국가들이 AI 안전연구소를 설립했으며 한국도 지난 5월 AI 서울 정상회의에서 연구소 설립을 약속한 바 있다. ETRI는 "이번 공개 채용을 통해 AI 기술의 안전성을 선도할 인재를 찾고 있다"며 "글로벌 경쟁력을 강화할 역량 있는 지원자들의 많은 관심을 기대한다"고 밝혔다.

2024.09.25 11:48조이환

네이버클라우드, '하이퍼클로바X' 통해 건강관리 서비스 '혁신'

네이버클라우드가 자사 거대언어모델(LLM)을 통해 건강관리 서비스 혁신에 나섰다. 네이버클라우드는 KMI한국의학연구소·다나아데이터와 함께 '하이퍼클로바X' 기반 건강검진 결과안내 서비스 '에스크미(asKMI)'를 정식 출시했다고 23일 밝혔다. '에스크미'는 건강검진 수검자가 검진 결과를 보다 쉽게 이해·관리할 수 있게 하는 AI 서비스로, 네이버 '하이퍼클로바X(HyperCLOVA X)'를 활용해 다나아데이터가 개발했다. 이 서비스는 보건복지부의 비의료 건강관리 서비스 가이드라인을 준수해 의료 상담이나 조언은 제공하지 않으면서도 건강 관리에 도움을 주는 정보를 제공한다. 다나아데이터는 '에스크미' 개발을 위해 '하이퍼클로바X'를 선택한 이유로 서비스 개발의 편리함과 우수한 한국어 성능을 꼽았다. 할루시네이션을 줄여야 하는 의료 서비스 특성 상 네이버의 한국어 기반 거대언어모델 운영(LLMOps)·머신러닝 운영(MLOps) 기술이 정확하고 완성도 높은 답변에 기여하기 때문이다. 현재 '에스크미'는 챗봇 기반으로 건강검진 결과 해석·검사항목 설명·의료용어 해설 등의 기능을 제공하고 있다. 향후에는 사용자 질문 이력과 검사 결과를 바탕으로 필요한 검사, 맞춤형 건강 프로그램 등을 추천하는 서비스로 확대될 예정이다. 임태건 네이버클라우드 전무는 "최근 공동개발한 AI 법률 Q&A 서비스인 'AI 대륙아주'에 이어 다양한 분야에서 '하이퍼클로바X' 기반 서비스가 나오고 있다"며 "'하이퍼클로바X'가 우리의 생활과 밀접한 다양한 분야에서 혁신을 만들도록 파트너들과 협업을 확대해 나갈 것"이라고 강조했다.

2024.09.23 14:58조이환

LLM 시대, 전문가가 바라보는 국방 위협 요소는?

대규모 언어모델(LLM) 활용이 본격화되는 추세에 따라 국방 분야에서의 위험성과 대응 방안을 논의하는 토론회가 개최한다. 12일 한국국방연구원(KIDA) 산하 국방데이터연구단과 바른 과학기술 사회 실현을 위한 국민연합(과실연) AI미래포럼은 '제 8차 국방데이터 혁신 네트워크-토크' 행사를 개최한다고 밝혔다. 한국IT서비스학회와 모두의연구소, 지디넷코리아, 한국경제가 후원하는 국방데이터 혁신 네트워크-토크는 국방 분야의 데이터와 AI 기술 사용을 토론하고 혁신적인 솔루션 활용 방안을 모색하기 위해 마련됐다. 이를 위해 합성 데이터, AI의 안전한 사용, AI 신뢰성 평가 방안 등 다양한 주제에 대해 전문가들이 발표하고 패널 토의를 진행한다. 또한, 생성형 AI의 군사적 적용 가능성과 관련된 기술적 진보에 대해서도 논의가 이루어지며, 국방 분야에서 AI 기술의 적용을 위한 다양한 산업계와 학계의 협력을 논의한다. 26일 오후 2시 서울 강남 모두의연구소 강남캠퍼스에서 진행하는 8차 토론회는 'LLM 보안'을 주제로 진행한다. 이에 따라 윤두식 이로운앤컴퍼니 대표가 프롬프트 엔지니어링을 통한 LLM 탈옥(Jailbreaking) 위협과 방어방안)을 주제로 AI의 위험성을 발표한다. 이어 SK쉴도스 이호석 팀장이 '사용자, 개발자 모두 알아야 하는 LLM 해킹 트랜드 및 보안전략'이라는 내용으로 AI시대의 보안 전략 방안을 제시한다. 전문가 발표 이후에는 LIG 넥스원 진정훈 수석 연구원, 한화시스템 김유신 상무, 세종대학교 강지원 교수, 국가보안기술연구소 류승진 실장 등이 참석하는 패널토의가 이어질 예정이다.

2024.09.12 10:21남혁우

[현장] "튼튼한 국방력은 엣지 AI서 나올 것"

최첨단 인공지능(AI) '엣지 AI'가 국방에도 필수적이라는 주장이 제기 됐다. 온디바이스·거대언어모델(LLM)은 사회에서만큼이나 군사 분야에도 유용하기 때문이다. 한국국방연구원(KIDA)과 과실연 인공지능(AI) 미래포럼은 22일 모두의연구소 강남캠퍼스에서 '제 7차 국방데이터 혁신 네트워크-토크'를 진행했다. 행사는 한국IT서비스학회, 모두의연구소, 지디넷코리아, 한국경제가 후원했다. 이 날 발제는 최첨단 AI를 칭하는 엣지 AI 주제로 진행됐다. 먼저 김홍석 리벨리온 소프트웨어 아키텍트 총괄이 '온디바이스: 꼭 가야할, 하지만 만만치 않은 여정'을 주제로 발제를 진행했다. 김 총괄은 국방 분야에서의 온디바이스 AI에 대해 강조했다. 온디바이스 AI는 전투상황에서 군인이 상황을 파악하고 대응하는데 있어 중요하다. 클라우드나 서버에 데이터를 보내서 분석할 시간이 없기 때문이다. 이에 김 총괄은 "온디바이스는 센서나 AI를 기기에 결합해 데이터를 바로 처리한다"며 "작전 성공 가능성을 높이고 군인들의 안전을 지킬 수 있는 중요한 수단"이라고 강조했다. 동시에 그는 온디바이스 기술 실현의 어려움에 대해 강조했다. 데이터센터에서 병렬컴퓨팅이 이뤄지는 클라우드 기반 AI와 달리 컴퓨터 하나를 통해 데이터를 처리하기 때문이다. 김 총괄은 "기기에 들어가는 칩이나 소프트웨어를 정밀하게 설계하고 센서를 잘 사용해야 한다"며 "전장 환경과 유사한 데이터셋을 구하기 어려운 점도 꼭 해결돼야 할 과제"라고 밝혔다. 이어 김주영 하이퍼엑셀 대표가 '국방 AI를 위한 LLM 특화 반도체 개발'을 주제로 발제했다. 그는 LLM이 국방 분야에 어떻게 접목될 수 있을지에 대한 조사 결과를 공유했다. 현재 미국 국방부는 생성형 AI 모델을 국방에 도입해 정보 수집, 전략 분석, 통신 보안에 활용하고 있다. 김 대표는 "국군도 LLM을 활용한 특화모델을 개발하고 있다"며 "공군과 육군이 특히 이러한 기술을 도입하기 위해 노력하고 있다"고 지적했다. 또 김 대표는 국방 LLM을 도입하기 위해 맞춤형 반도체가 필요하다고 설명했다. 그 이유는 LLM이 기존 딥러닝 모델에 비해 약 1천배에서 1만배 크기 때문이다. 이에 하이퍼엑셀이 현재 개발하는 언어처리장치(LPU) 칩이 기존 그래픽 인터페이스 장치(GPU)보다 효율적으로 기능할 수 있다고 소개했다. LPU는 GPU보다 90% 더 높은 메모리 대역폭을 활용할 수 있다. 김 대표는 "국방용 AI 반도체 시장이 급성장할 것"이라며 "LLM 추론에 최적화된 반도체 개발에 성공해 이 분야의 혁신을 지원하겠다"고 강조했다. 발제에 이어 '국방분야 AI 반도체, 온디바이스 AI 발전방안'을 주제로 산학연군 패널토의도 열렸다. 패널토의에는 조준현 방위사업청 전략기획담당관, 심병섭 한국항공우주산업 미래SW기술팀장, 박원근 네이버클라우드 이사, 최민석 한국전자통신연구원 박사, 김상희 국방과학연구소 박사가 참석했다.

2024.08.22 18:29조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

테슬라·팔란티어만의 기술 아니다…'버티컬 AI' 전쟁, 韓도 뛰어들었다

대통령실, AI미래기획수석실 설치...수석급 재정기획보좌관 신설

[써보고서] 갤럭시 S25 엣지, 뒷주머니에 넣었더니...한계 넘은 혁신

"엔비디아 비켜"...MS, 11개월 만에 사상 최고가로 시총 1위 탈환

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현