• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 연구소'통합검색 결과 입니다. (51건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

미국 AI안전연구소, '혁신' 간판 달고 재출범…트럼프식 '규제 철폐' 본격화하나

미국 인공지능 안전연구소(AISI)가 간판을 바꿔 달았다. 트럼프 행정부의 'AI 혁신 우선, 안전 최소화' 기조에 따라 정부의 개입 방향도 규제와 검열에서 산업 경쟁력 지원으로 급선회한 모양새다. 5일 미국 상무부 홈페이지에 따르면 하워드 루트닉 상무장관은 대통령 지시에 따라 '미국 AI 안전연구소'를 'AI 표준 및 혁신 센터(CAISI)'로 전면 개편한다고 발표했다. AI 표준 및 혁신 센터는 기존에 AI 안전연구소가 위치했던 국립표준기술연구소(NIST) 산하에 유지되며 평가와 시험을 통한 AI 기술 경쟁력 확보에 중점을 둔다. 상무부는 AI 표준 및 혁신 센터를 통해 신속히 발전 중인 상업용 AI 시스템의 역량과 보안성을 분석하는 데 초점을 맞춘다. 국가안보를 명분으로 삼았던 기존 규제 관행은 철회하고 기술 혁신을 저해하지 않는 방향으로 AI 거버넌스를 전환하겠다는 입장이다. 센터는 민간 AI 기업과 자발적 협약을 체결해 비분류 상태의 AI 기술을 공동 평가하고 사이버 보안과 생물·화학 무기 등 실질적 위협에 집중해 평가를 수행한다. 여기에는 미국 내 기업뿐 아니라 적성국 기술의 위협성까지 포함된다. 외국산 AI 기술이 국내 시스템에 혼입될 경우를 대비해 백도어나 은폐된 악성 행위 등 보안 취약성 여부를 점검하는 역할도 맡는다. 미국 내 기술뿐 아니라 외국 기술의 수용 과정과 국제 경쟁 상황을 정기적으로 분석한다. 더불어 센터는 국방부, 에너지부, 국토안보부, 과학기술정책실, 정보기관 등과 협력해 평가 방법론을 정립하고 공동 평가를 수행하게 된다. 국제 협의체에서는 미국 기술에 불리한 규제를 견제하는 동시에 국제 AI 표준에서 미국의 주도권을 강화하는 데도 주력할 계획이다. 조직 운영은 기존과 마찬가지로 국립표준기술연구소 내부에서 진행되며 정보기술연구소를 포함한 다른 산하 조직 및 상무부 산업안보국과도 긴밀히 협력할 예정이다. 하워드 루트닉 상무장관은 "너무 오랫동안 검열과 규제가 국가안보라는 이름으로 기술 발전을 막아왔다"며 "CAISI는 미국의 상업용 AI 기술이 자율성과 안전성을 동시에 확보할 수 있도록 주도권을 갖고 평가할 것"이라고 밝혔다. 다만 실질적인 변화는 크지 않다는 시각도 있다. 기존 AI 안전연구소가 수행했던 기능과 역할은 그대로 두고 간판만 바꿨다는 점에서 조직 개편보다는 브랜딩에 가깝다는 평가다. 한 업계 관계자는 "이번 개편의 경우 이름만 바꾸고 하는 일은 동일한 것으로 보인다"며 "약자가 캐나다 AI 안전연구소(CAISI)와 같단 면에서 조금 결례인듯 하다"고 말했다.

2025.06.05 14:44조이환

새 정부 출범, 'AI 100조' 시대 열린다…AI 안전연구소 "G3 도약, 신뢰성 확보가 핵심"

"새 정부가 들어선 가운데 100조 규모의 인공지능(AI) 투자 공약이 조명되고 있습니다. 이같은 진흥책의 추진과 동시에 기술이 초래할 수 있는 리스크를 관리해야 산업의 지속성과 확장성이 확보됩니다. 미래 세대의 먹거리를 위한 철저한 안전 설계를 위해 적극적으로 지원하겠습니다." 김명주 AI 안전연구소장은 4일 경기도 판교 그래비티 조선 서울에서 열린 '2025 슈어 AI 테크 컨퍼런스'에 참가해 이재명 대통령 당선에 따른 연구소의 방향성에 대한 기자의 질문에 이같이 말했다. 이번 행사는 슈어소프트테크가 AI 검증 기술의 현재와 미래를 공유하고 산업 전반의 안전 및 신뢰성 확보 전략을 모색하기 위해 마련한 자리다. 김 소장에 따르면 한국 AI 연구소는 세계 여섯 번째로 출범한 AI 안전기관이다. 지난해 11월 국내에서 최초로 설립된 이 기관은 영국, 미국, 일본, 싱가포르, 프랑스 등 10여 개국이 운영하는 AI 안전연구소들과 함께 글로벌 위험 기준 마련과 평가 체계 구축을 위한 협력에 참여하고 있다. 이날 발표는 AI 산업의 변곡점을 만든 역사적 사건들에 대한 회고로 시작됐다. 김 소장은 지난 2023년 처음 등장한 '챗GPT'가 산업의 방향성을 근본적으로 바꿨다고 진단했다. 출시 두 달 만에 1억명 사용자를 돌파한 '챗GPT'는 초기엔 '검색엔진 종말론'을 불러올 정도의 파괴력을 보였고 이에 구글은 마이크로소프트(MS)와의 검색 점유율 격차 축소를 우려해 급히 '바드'를 출시하며 글로벌 기술 경쟁이 본격화됐다. 김 소장은 "이 과정에서 구글의 AI 부사장이자 딥러닝 창시자인 제프리 힌턴이 안전성을 우려해 사임했다"며 "당시 구글은 자체 개발한 '람다' 모델의 위험성을 인지하고도 경쟁에서 밀릴까 봐 결국 공개를 강행했다"고 말했다. 이어 "통제 수단 없이 기술을 출시한 결정은 거버넌스 부재 상태에서 진행되는 AI 개발의 한계를 보여준 사례"라고 분석했다. 이어 그는 AI의 잠재 리스크를 인식한 글로벌 과학자 그룹이 지난 2023년 '개발 중단 서한'을 발표했던 사례도 언급했다. 미래생명연구소(FLI)의 주도로 작성된 이 서한에는 일론 머스크, 유발 하라리 등 주요 인사가 참여했으나 실제 개발 중단으로 이어지지는 않았다. 다만 이 서한을 계기로 미국, 유럽, 한국에서 본격적인 AI 규제 입법이 추진되기 시작했다. 실제로 AI 리스크에 대한 실증적 접근은 확대되고 있다. 매사추세츠 공대(MIT)는 증거 기반 리스크 저장소(Risk Repository)를 통해 1천800개 이상의 사례를 유형별로 정리했다. 이 중 AI가 직접 야기한 사례는 전체의 34%에 달한다. 김 소장은 "이 자료를 바탕으로 한국형 리스크 분류체계를 세분화하고 있다"며 "이달 말 200~300개 항목의 1차 리스크 맵을 공개할 계획"이라고 밝혔다. 그는 영국 AI안전연구소가 최근 발표한 분류체계도 언급했다. 이 체계는 ▲기술적 결함(Malfunction) ▲악의적 활용(Misuse) ▲사회 구조적 영향(systemic Impact)으로 위험을 구한다. 이는 각각 AI 개발 오류, 사용자의 악의적 활용, 노동시장이나 정치 등 사회적 외부효과로 이어지는 위험을 뜻한다. 이 같은 글로벌 기준을 토대로 국내 AI안전연구소도 평가모델을 정비 중이다. 구체적으로는 리스크 맵 기반으로 모델을 개별 테스트하고 그 결과를 전문가나 AI가 자동으로 평가해 통합 보고서를 작성하는 프로세스를 도입한다. 이 보고서는 각 위험에 대한 정책적 기술적 완화 방안까지 제시한다. 실제 사례로는 지난 2월 연구소가 중국계 AI 모델 '딥시크'에 대해 긴급 대응한 사례가 소개됐다. 이 모델은 중국 사회주의 체제에 불리한 질문에 답변하지 않는 등 편향성을 드러냈으며 연구소는 이를 설 휴가를 중단한 후 즉시 분석해 과학기술정보통신부에 보고서를 제출했다. 보고서에는 편향 제거를 위한 기술적 보정 방안이 포함됐다. AI 안전 평가의 기준 역시 지속적으로 진화하고 있다. 기존 소프트웨어의 안전성 검증이 기능 성능 보장에 집중됐다면 AI 평가에서는 개발자의 의도와 상관없는 오용 가능성까지 고려한 '건전성' 개념이 확대되고 있다. 유럽연합은 이 개념을 '신뢰성(Trustworthiness)'으로 확장해 기술의 사회적 수용 가능성까지 평가 대상에 포함시켰다. 이에 따라 각국은 AI 인증 체계 구축에 속도를 내는 상황이다. 영국은 이를 위해 지난 2023년 세운 AI 안전연구소의 명칭을 올해 초 'AI 보안연구소'로 변경했다. 현재 미국, 프랑스, 싱가포르, 케냐 등도 자체 안전연구소를 통해 여러 사업을 추진 중이다. 대선이 끝나 이재명 대통령이 취임한 가운데 향후 AI 정책을 위한 제언에 대해 묻는 기자의 질문에 김 소장은 "AI 산업이 장기적 지속 가능성과 확장성을 확보하라면 진흥과 함께 리스크 관리가 병행돼야 한다"며 "이를 위해서는 안전 설계를 처음부터 고려해야 한다"고 말했다. 이어 "우리는 선제적으로 리스크 완화 방안을 제안해 철저히 지원할 계획"이라고 밝혔다. 김 소장은 지난해 AI안전연구소 초대 소장으로 부임해 오는 2027년까지 임기를 이어갈 예정이다. 연구소는 과학기술정보통신부와 대통령실 등 정부 유관 부처와 함께 리스크 완화 방안 마련을 위한 협업을 지속할 것으로 전망된다. 기업과의 협력도 병행 중이다. 최근 LG전자와 AI 안전을 위한 파트너십을 맺었으며 해외 주요 기업들과도 공동 평가 및 안전 기준 정립을 위한 협력을 추진하고 있다. 참여 기업들은 자사 AI 시스템의 신뢰성과 안전성을 확보하기 위해 연구소와 함께 검증 체계를 구축하고 있다. 김 소장은 "우리는 평가기관을 넘어 국내 AI 기업의 국제 경쟁력 확보를 위한 전략적 거점이 되고자 한다"며 "향후 국내 기업의 해외 진출 시 안전보고서를 통해 신뢰성을 높일 수 있도록 적극 지원하겠다"고 밝혔다.

2025.06.04 13:50조이환

생명연 조직개편...바이오파운드리 사업단 신설

한국생명공학연구원(원장 권석윤)이 AI R&D 지원을 강화하고, 바이오파운드리 사업단을 신설하는 내용의 조직개편을 단행했다. 생명연은 국가 과학기술정책 수요와 대내·외 환경변화에 능동적으로 대응하기 위한 조직개편을 다음 달 1일부로 단행한다고 밝혔다. 이번 조직개편은 기관 핵심분야 집중, 조직 정체성 재정립을 위한 연구조직 정비, 대내외 환경변화에 능동적ㆍ선제적 대응을 위한 조직체계 구축, 지원조직의 업무효율성 강화 등에 초점을 맞췄다. 최근 바이오와 AI의 융합이 신약개발, 정밀의료, 유전체 분석, 진단기술 등 전 분야 걸쳐 새로운 혁신의 물결을 일으키고 있는 트렌드를 중시, 기존 바이오의약연구부를 AI바이오의약연구소로 확대 개편했다. 또 따로 떨어져 있던 디지털 바이오센터를 AI바이오의약연구소로 이관했다. 대외협력본부도 신설, 국내외 연구개발 협력체계 고도화를 지원할 계획이다. 대외협력본부 산하에 글로벌 협력실도 신설했다. '바이오파운드리 인프라 구축 및 활용기반 구축사업' 주관기관인 생명연은 이 사업의 원활한 수행을 위해 '바이오파운드리사업단'도 신설했다. 권석윤 원장은 "바이오파운드리사업단은 성생물학 기술경쟁력 제고와 바이오제조 가속화 기반이 될 것"이라며 "핵심분야에 집중하고 조직 정체성을 재정립, 생명연을 가를 대표하는 전문연구조직으로 육성해 나갈 것"이라고 말했다.

2025.05.30 17:04박희범

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

인텔리콘연구소, 보고서 자동화 시장 '정조준'…국정원 보안도 '통과'

인텔리콘연구소가 기업 보고서 자동 생성 인공지능(AI) '딥리서치 울트라'를 선보였다. 기업 내부 문서와 외부 지식을 동시에 분석해 맞춤형 리서치를 지원하기 위함이다. 인텔리콘연구소는 공공기관, 로펌, 기업 대상 보고서 작성용 AI '딥리서치 울트라'를 개발했다고 14일 밝혔다. 이 기술은 자체 보유한 법률 추론 원천기술과 다단계 추론형 멀티 에이전트 기술을 결합해 만들어졌으며 외부 정보뿐 아니라 사내문서 기반 분석을 병행할 수 있는 것이 특징이다. 연구소는 '딥리서치 울트라'가 기존 오픈AI나 구글의 리서치 툴과 달리 기업 내부의 방대한 문서 자산과 규정, 정책, 법률자료 등을 바탕으로 리서치 보고서를 자동 생성할 수 있다고 밝혔다. 단순 웹 검색이 아닌 심층 문서 분석을 통해 보고서의 정밀도를 높였다는 설명이다. 이 솔루션은 인텔리콘의 문서 분석 솔루션 '도큐브레인'과 연동돼 사용된다. '도큐브레인'은 검색증강생성(RAG) 기반의 기업형 검색 시스템으로 대용량 문서에서 의미 있는 정보를 추출하는 기능을 제공하며 '딥리서치 울트라'와 함께 내부 정보에 특화된 리서치 결과를 생성할 수 있도록 돕는다. '도큐브레인'은 보안성 검증도 완료했다. 한국산업인력공단 도입 사례에서 국가정보원 보안 심사를 통과했으며 국무조정실 산하 기관의 보안 테스트와 모의해킹 절차도 모두 통과한 것으로 알려졌다. 인텔리콘 측은 이 같은 보안성 확보가 공공기관과 기업의 디지털 전환 리스크를 줄이는 데 기여할 수 있다고 설명했다. 이번 기술 출시는 인텔리콘이 리걸테크 영역에서 쌓아온 기술 역량의 연장선이다. 도큐브레인은 조달청 혁신제품으로 지정된 바 있으며 법률 문서 분석 특화 거대언어모델(LLM)로 기업과 공공기관의 문서 업무 자동화 수요를 충족시켜왔다. 임영익 인텔리콘연구소 대표는 "이번에 출시한 기업용 보고서 생성 AI는 단순한 정보 검색 도구를 넘어 기관 및 기업의 핵심 업무 효율성을 극대화하는 혁신적인 솔루션"이라며 "국정원 및 국무조정실의 보안 심사를 통과해 공공기관 및 기업들이 안심하고 사용할 수 있으며 '도큐브레인'과의 결합을 통해 문서 분석 및 보고서 생성 기능을 더욱 강화해 차별화된 가치를 제공할 것"이라고 밝혔다.

2025.05.14 13:04조이환

SPRI "생성형 다음은 행동형…피지컬 AI 패권경쟁, 韓 배제될 수 있다"

피지컬 인공지능(AI) 주도권 경쟁이 본격화된 가운데 한국은 여전히 기술·생태계·전략 모두에서 뚜렷한 준비가 부족한 상황이라는 연구결과가 나왔다. 글로벌 기술 패권이 '생성형 AI'에서 '행동하는 AI'로 이동하는 시점에 대응이 늦어지면 공급망 종속과 표준 종속이라는 이중 위협에 직면할 수 있다는 경고다. 13일 소프트웨어정책연구소(SPRI)가 발표한 '피지컬 AI의 현황과 시사점' 보고서에 따르면 '피지컬 AI'는 생성형 AI 기반의 언어·시각 모델에 센서와 액추에이터를 결합해 물리적 환경을 인지하고 행동까지 자율적으로 수행하는 시스템이다. 인간처럼 보고 듣고 움직일 수 있는 이른바 '실행형 AI'로, 휴머노이드·드론·자율주행차·이동형 로봇 등 산업·국방·물류 전 분야에 걸쳐 적용이 확산되고 있다. 기술의 핵심은 세 가지로, ▲거대언어모델(LLM)에 기반한 멀티모달 '파운데이션' 모델과 강화학습의 통합 ▲3차원 세계 모델링과 센서 융합 ▲엣지 기반 온디바이스 추론이다. 여기에 전용 AI 반도체, 초경량 LLM까지 더해지면서 생성형 AI와는 차원이 다른 기술 복합성이 요구된다. 세계 주요국은 이에 대한 대응을 본격화했다. 미국은 스타게이트 프로젝트를 통해 5천억 달러(한화 약 700조원) 규모의 피지컬 AI 인프라를 구축 중이며 오픈AI·테슬라·보스턴다이내믹스 등 민간 주도 생태계가 신속히 움직이고 있다. 중국은 자체 그래픽처리장치(GPU)와 AI 칩부터 드론, 자율주행 로봇까지 공급망 완결성을 높이고 있다. 일본은 '문샷 계획'을 통해 고령화 대체 로봇과 인간형 AI 기술을 동시 추진하고 있다. 반대로 한국은 핵심 기술의 국산화 수준이 낮다. 멀티모달 파운데이션 모델, 행동 특화 LLM, AI 엣지 반도체 등은 대부분 수입에 의존하고 있으며 월드 모델·센서 퓨전 기술은 기초 R&D 단계에 머물러 있다. 산업 생태계 역시 대기업과 스타트업 간 분절돼 있고 실증과 테스트베드 환경도 턱없이 부족하다. 보고서는 한국이 지금과 같이 전략 없이 개별 기업·기관의 산발적 대응을 유지한다면 향후 글로벌 피지컬 AI 표준과 시장 주도권에서 완전히 배제될 수 있다고 경고했다. 특히 규제와 책임 법제가 부재한 상황에서 안전성과 윤리 기준도 선진국 주도로 결정될 가능성이 크다. 이에 따라 보고서는 국가 차원의 '피지컬 AI 전략위원회' 설치, 10년 단위 대규모 R&D 펀드 조성, 고위험 로봇의 안전 규제 정비, 민간 수요 촉진을 위한 공공 선구매 제도 등이 시급하다고 지적했다. 더불어 산업별 테스트베드 구축과 다학제 인재 육성 트랙 도입, 국제 표준화기구 진입도 병행돼야 한다고 꼬집었다. 소프트웨어정책연구소 보고서는 "생성형 AI가 콘텐츠와 언어의 영역이라면 피지컬 AI는 제조·물류·국방 등 실물경제 전체를 재편할 수 있는 파괴력을 지녔다"며 "기술 주권 확보와 전략적 대응 없이는 AI 시대의 종속국으로 전락할 가능성이 높다"고 밝혔다.

2025.05.13 18:00조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

"AI 절반, 이민자의 손에서"…美 기술패권 뒤엔 '외국인 창업자' 있다

미국 주요 인공지능(AI) 기업의 과반이 이민자에 의해 창업된 것으로 나타났다. 미중 간 AI 패권 경쟁이 격화하는 가운데 이민자 인재 유치는 여전히 핵심 전략 축으로 평가된다. 21일 미국 비영리 싱크탱크 진보연구소(IFP)에 따르면 'AI 50' 리스트에서 미국 내 기업 42곳 가운데 25곳이 이민자에 의해 창업된 것으로 나타났다. 'AI 50'은 매년 유망한 AI 스타트업 50개사를 선정하는 포브스의 연례 명단으로, 올해는 미국 기업이 전체의 84%를 차지했다. 대표 사례로는 '챗GPT'를 개발한 오픈AI가 있다. 이 회사는 지난 2015년 남아프리카 공화국 출신 일론 머스크, 소련 출신 일리야 수츠케버 등이 공동 창업했다. 오픈AI의 경쟁사인 앤트로픽은 영국 출신 잭 클라크가 공동 설립자로 참여했다. 이들 창업자 중 다수는 유학을 위해 미국에 온 뒤 자리를 잡고 AI 기술 기업을 창업했다. 실제로 조지타운대 산하 신기술보안센터(CSET)가 지난 2020년 발표한 보고서에 따르면 미국 내 주요 AI 스타트업의 이민자 창업자 70% 이상이 학생비자로 미국에 처음 입국했다. 이민자 창업자들의 국적은 삼각형 구조를 보인다. 인도 출신이 아홉 명으로 가장 많고 중국이 여덟 명으로 뒤를 이었다. 이어 프랑스는 세 명, 호주·영국·이스라엘·루마니아·캐나다·칠레는 각 두 명의 창업자를 배출했다. 이 같은 현상은 올해만의 특수한 결과가 아니다. 미국 이민정책연구재단(NFAP)은 지난 2023년 포브스 AI 50을 분석한 결과 전체 기업의 65%가 이민자에 의해 설립됐다고 밝혔다. 지난 2019년 분석에서도 유사한 수치가 확인됐다. AI 반도체 분야에서도 이민자들의 영향력은 지대하다. 세계 최대 AI 칩 생산업체 엔비디아의 젠슨 황 최고경영자(CEO), AMD를 이끄는 리사 수 CEO 모두 대만 출신이다. 이 외에도 뉴욕대 교수인 한국계 조경현, 버클리대 교수인 루마니아계 이온 스토이카 등은 거대언어모델(LLM)에 필수적인 신경망 아키텍처 개발에 기여한 핵심 인물로 꼽힌다. 이와 더불어 IFP는 지난달 미국 정부가 추진 중인 AI 종합행동계획(RFI)에 의견서를 제출했다. 이들은 미국의 AI 경쟁력을 위협하는 요소로 ▲외국인의 미국 거주에 필수적인 그린카드 발급 지연 ▲해외 인재 유치 경쟁 심화 두 가지를 지적하며 절차 간소화와 효율적인 이민 유치 전략이 시급하다고 주장했다. IFP 보고서는 "이민자들은 단순한 참여자가 아닌 AI 산업의 설계자이자 건설자"라며 "미국이 세계 AI 리더십을 유지하려면 글로벌 인재를 계속 받아들이는 정책이 필요하다"고 강조했다.

2025.04.21 14:21조이환

[AI는 지금] 英 정부, AI 보안연구소에 '1천200억원' 쏟았다…한국은?

영국 정부가 인공지능(AI) 기술의 안전성 확보와 국가 안보 강화를 위해 AI 보안연구소에 막대한 예산을 투입하고 있다. 국내 AI 안전연구소 역시 이에 대응해 신속히 연구 역량을 확장하고 있으나 안정적 성과 창출을 위해서는 지속적·안정적 지원이 필요하다는 지적이 나온다. 18일 영국 과학혁신기술부(DSIT) 공식문서에 따르면 영국 정부는 올해 회계연도 기준으로 AI 보안연구소에 6천600만 파운드(한화 약 1천236억원)를 배정했다. 예산은 고위험 AI가 초래할 수 있는 국가 안보·범죄 위협을 분석해 과학적 근거로 제시하고 이를 정부 정책에 반영하는 데 쓰인다. AI 보안연구소는 지난해 말 기준 130명의 전담 인력을 갖췄으며 이 가운데 60명이 순수 연구 인력이다. 구성원 대부분이 공무원으로 연구 결과가 즉시 안보 정책에 투영될 수 있는 구조다. 이 연구소는 지난 2월 파리 정상회의 직후 명칭을 'AI 안전연구소'에서 'AI 보안연구소'로 변경하며 단순한 기술 안정성 검증을 넘어 국가 안보 및 범죄 대응 기능을 강화했다. 국방과학기술연구소(DSTL), 국방부, 내무부 등과 협력해 사이버 공격, 생화학 무기, 아동 성착취물 생성 등 실질적 위협에 대응한다. 영국 정부 관계자는 지난 2월 "AI 보안연구소를 통해 국가 안보를 확보하고 범죄 예방을 위한 책임 있는 AI 개발의 기본 원칙을 세울 것"이라고 밝혔다. 이같이 영국 정부가 전폭적인 지원에 나선 것과 달리 국내 상황은 온도 차가 뚜렷하다. 과학기술정보통신부와 국회 예산안에 따르면 올해 한국 AI 안전연구소의 운영 예산은 72억1천만원에 그친다. 여기에 '공존 가능한 신뢰 AI를 위한 AI 세이프티 기술개발' 명목으로 115억8천5백만원이 추가로 편성됐지만 두 항목을 합쳐도 총예산은 약 188억원 수준이다. 인력 규모에도 차이가 난다. AI 안전연구소는 지난 해 11월 7명으로 출범한 이후 올해 상반기 기준 21명까지 인원이 확대된 상태다. 연내 연구 인력 30명 확보를 목표로 추가 채용이 진행 중이지만 영국과 비교하면 6분의 1 수준에 머물러 있는 셈이다. 창립한 지 6개월이 된 상황에서 연구소는 국제 협력·표준화, 안전성 평가 체계, 정책 연구 등 분야에서 가시적인 성과를 내기 시작하고 있다. 미국·영국·일본 안전연구소와 공동으로 AI 안전성 평가 프레임워크를 마련했고 24개 기관이 참가한 '대한민국 AI 안전 컨소시엄'을 출범시켜 안전 기술 개발과 표준화 논의에도 적극 참여 중이다. 더불어 연구소는 국가적 위기에 직결될 고위험 AI 시나리오를 발굴·우선순위화하는 '리스크 매핑' 작업에 착수해 국가 AI 안보 전략 수립의 기반을 다지고 있다. 다만 출범 초기 단계로, 전담 인력과 예산이 제한적인 만큼 현재의 성과를 확장하려면 추가 지원이 필요할 것으로 보는 목소리도 나온다. 업계 관계자는 "AI가 전략 자산화되는 동시에 국가적 안보 위협으로 부상한 상황에서 기술이 초래할 위험을 파악하려면 산학연 간 긴밀한 협력과 소통이 필수적"이라며 "국내에서는 AI 안전연구소가 이 역할을 주도하고 있는 만큼, 우리도 대응 역량을 키우기 위한 장기적인 기반을 차근차근 다져 나갈 필요가 있어 보인다"고 말했다.

2025.04.18 09:57조이환

[AI는 지금] 美·中 AI 격돌, 기술 격차 사라진다…한국은 '뒷걸음'

미·중 인공지능(AI) 연구개발 경쟁이 매년 더 치열해지는 가운데 고성능 모델 간 성능 격차가 줄어들며 전반적으로 상향 평준화되고 있다. 또 경기침체로 인해 감소세였던 2022~2023년과 달리 지난해 글로벌 AI 투자 수준은 큰 폭으로 증가한 것으로 나타났다. 17일 소프트웨어정책연구소(SPRi)가 발간한 'AI 인덱스 2025 주요내용·시사점' 보고서에 따르면 중국이 전 세계 AI 연구개발 분야 특허 등록의 약 70%를 차지하며 양적·질적으로 1위를 유지했다. 특허는 중국, 영향력은 미국…AI 주도권 경쟁 본격화 2010년 이후 중국의 AI 등록 특허 수가 지속적으로 증가해 2023년 전체 AI 등록 특허의 69.7%를 차지하며 총량에서 압도적 선두에 올랐다. 미국은 2015년 42.8%를 정점으로 지속 감소해 2023년 14.2%를 기록했다. 인구대비 AI 특허 수로는 우리나라가 1위를 차지했다. AI 논문 측면에서도 중국의 약진이 이어졌다. 2023년 기준 중국이 발간한 전 세계 AI 관련 논문은 약 24.2만 건으로 전년 대비 19.7% 증가했다. 중국의 AI 논문 비중은 컴퓨터 과학 분야 논문의 약 42%에 달했다. 미국과 중국 외에는 독일·홍콩·캐나다·한국·UAE·싱가포르·이스라엘이 상위권 그룹에 속했다. 미국은 상위 100위 안에 드는 고인용 AI 논문의 절반 이상을 차지하며 AI 시장에서 실질적인 영향력을 행사했다. 미국은 산업계가, 중국은 대학과 연구소가 중심이 돼 논문을 발표하는 추세다. AI 모델 측면에서는 미국이 지난 10년 동안 비영리 연구 기관 에포크 AI(Epoch.ai)가 선정한 '주목할 만한 AI 모델' 개발을 주도해왔다. 지난해 에포크 AI가 선정한 62개의 주목할 만한 AI 모델 중 미국 소재 기관은 40개, 중국 기관은 15개가 선정됐다. 해당 조사 중 유럽 전체에서 선정된 AI 모델은 3개에 불과했다. 우리나라에서는 LG AI 연구원이 개발한 '엑사원 3.5 32B' 모델이 유일하게 선정됐다. 이번 보고서에서 SPRi는 산업계의 대규모 투자로 AI 모델은 증가하고 성능은 향상된 반면 비용은 급감했다고 설명했다. 주목할 만한 AI 모델의 학습 연산량은 약 5개월마다 2배로 증가했으며 대규모언어모델(LLM) 학습을 위한 데이터셋 규모는 8개월마다 2배 늘어난 것으로 조사됐다. 학습에 필요한 전력도 매년 2배로 증가하고 있는 양상이다. 반면 MMLU 벤치마크 기준 모델 쿼리 비용과 LLM 추론 비용은 급감한 것으로 조사됐다. 쿼리 비용 백만 토큰당 20달러에서 지난해 0.07달러로, 구글 '제미나이-1.5-플래시-8B' 모델 기준 18개월 만에 280배 이상 하락했다. 또 LLM 추론 가격도 작업에 따라 연간 9배에서 900배까지 하락한 것으로 나타났다. AI 모델 격차 좁혀진다…중국 AI 성능, 미국 턱밑 추격 AI 기술 성능은 매년 급격하게 향상돼 상위 모델 간 성능 격차가 좁혀지며 상향 평준화되는 추세다. SPRi는 "급속도로 발전하는 AI 성능 측정을 위해 AI 연구자들이 보다 까다로운 MMMU·GPQA·SWE·HLE 등 신규 벤치마크를 도입했으나, 불과 1년 만에 벤치마크 점수가 최대 71.7% 까지 향상됐다"고 설명했다. 특히 그간 미국의 주요 모델이 중국의 모델을 성능면에서 크게 능가해 왔으나, 최근엔 그 격차가 좁혀지고 있는 상황이다. 구체적으로 미·중 간 AI 모델의 성능차이는 MMLU 벤치마크 기준 2023년 말 최대 17.5%p 차이났지만, 지난해 말에는 이 격차가 최대 0.3%p까지 좁혀졌다. 아울러 오픈소스 모델과 폐쇄형 모델 간의 성능 격차도 빠르게 좁혀지고 있는 것으로 조사됐다. 지난해 1월 챗봇 아레나 순위표에서 상위 폐쇄형 모델 성능이 상위 개방형 모델보다 8% 앞섰으나, 불과 1개월 만에 이 격차가 1.7%로 좁혀진 것이다. 이와 관련해 SPRi는 AI 모델의 추론 성능이 향상된 반면 기술적 한계도 명확하다고 지적했다. SPRi는 "반복적으로 결과를 추론하도록 설계된 오픈AI의 o1·o3는 추론 성능이 비약적으로 상승했으나 많은 비용이 소모된다"며 "o1 모델은 국제 수학 올림피아드 예선 시험에서 74.4% 점수를 기록해 9.3%를 기록한 GPT-4o에 비해 성능이 크게 향상됐으나, 비용은 6배 더 들고 속도는 30배 더 느리다"고 밝혔다. 이어 "연쇄 추론과 같은 메커니즘이 추가되면서 LLM의 성능이 향상됐지만, 산술·계획·논리적 추론을 복합한 정확한 해법 찾기 문제는 여전히 취약한 모습을 보인다"며 "고위험 또는 신뢰성을 요하는 시스템 적용에는 한계가 있다"고 덧붙였다. 이 외에도 AI 에이전트의 복잡한 작업을 평가하는 벤치마크 측정 결과, 작업에 투자하는 시간이 증가하면 아직은 인간의 작업 역량에 미치지 못하는 것으로 나타났다. 2시간 정도의 짧은 시간이 주어진 환경에서는 AI 에이전트가 인간 전문가보다 4배 높은 성능을 보이지만, 32시간 정도에 달하는 긴 작업 환경에서는 AI가 인간의 절반 수준의 성능을 기록했다. 전 세계 AI 투자 급증 속…한국은 인재 유출·투자 하락 '이중고' 지난해 글로벌 AI 투자는 2021년 이후 처음으로 성장세를 보였다. 지난해 글로벌 민간 AI 투자는 1천508억 달러로 전년 대비 44.5% 증가했다. 지역별로 살펴보면 미국이 1천091억 달러에 달하는 AI 투자를 하며 1위에 올랐다. 이는 93억 달러를 투자한 중국 대비 11.7배, 45억을 투자한 영국 대비 24.1배 차이로 압도적인 기록이다. 우리나라의 투자 규모 순위는 스웨덴과 캐나다 등에 이어 세계 11위로, 전년 대비 규모와 순위 모두 하락했다. 다만 신규로 투자받은 기업 수는 매년 증가하는 추세다. AI 인재 집중도가 가장 높은 국가는 이스라엘과 싱가포르가 꼽혔으며 우리나라는 10위 수준에 위치했다. AI 인재 유입이 활발했던 국가로는 룩셈부르크·키프로스·UAE가 이름을 올렸다. 반대로 인재 유출은 이스라엘·인도·헝가리 등의 국가에서 주로 일어났다. 우리나라의 지난해 인재 이동 지수는 -0.36을 기록하며 전년도에 이어 인재 유출 국가로 분류됐다. AI 투자뿐만 아니라 전 세계 AI 도입률도 크게 늘어났다. 지난해 전 세계 기업 조직의 78%가 한 가지 이상의 비즈니스 기능에 AI를 도입해 사용하기 시작했으며 이는 전년의 55% 대비 증가한 기록이다. 나아가 생성형 AI를 도입한 기업의 비율은 71%로 1년 만에 33%에서 두 배 이상 증가했다. 이같이 확산되는 AI의 잠재적 위험도 부각됨에 따라 '책임 있는 AI' 시스템의 개발과 개선 노력이 전 세계적으로 증대되고 있으나 여전히 다수의 해결과제가 남아 있다. SPRi는 "주요 AI 모델 개발사들 사이에서 표준화된 책임 있는 AI 평가는 여전히 부족하며 명시적으로 편향성을 제거한 모델들도 한계성을 내포한다"며 "이에 지난해 주요 EU와 UN 등 국제기구를 중심으로 투명성·신뢰성 등에 초점을 맞춘 프레임워크를 발표하며 AI 거버넌스 협력을 강화하고 있다"고 설명했다.

2025.04.17 15:20한정호

[보안리더] 이화영 사이버안보연구소 부소장 "소통하는 사이버안보 초석 되겠다"

“서울시 해커톤 대회에 나가 횡단보도 바닥 신호등을 기획했습니다. 신호등을 볼 때마다 이렇게 좋은 결과로 대한민국 곳곳에 안전의 불을 밝히니 뿌듯하고 감사해요. 이처럼 누구나 사이버 위협으로부터 안전할 수 있는 최소한의 장치가 법과 정책이라고 생각합니다. 그래서 공학도였던 제가 정책에 관심을 갖게 됐습니다. 지금까지 빠르고 수직적인 관료 문화가 한국을 키웠습니다. 그러나 사이버는 중첩과 간섭을 통해 확장하는 수평적 영역입니다. 전 사이버 안보의 수평적 소통을 위해 노력하겠습니다.” 이화영 사이버안보연구소 부소장은 지난주 지디넷코리아와 만나 이같이 밝혔다. 이 부소장은 '천하에는 2가지의 큰 저울이 있는데, 하나는 시비(是非)의 저울이고 하나는 이해(利害)의 저울이다. 그 중 옳은 것을 지켜 이로움을 얻는 것이 가장 으뜸'이라는 다산 정약용 선생의 말을 인용하며 “그렇게 사이버 안보의 길을 가는 사람이 되고자 한다”고 말했다. 숙명여대 컴퓨터과학 학사·석사·박사 과정에서 공부했다. 사이버안보연구소는 한국 사이버안보기본법을 제정하기 위한 정책과 제도를 연구한다. 2022년 4월 문을 열고, 지난해 2월 창립총회를 개최했다. 박근혜 정부 공군참모총장, 문재인 정부 합동참모본부 의장과 국방부 장관을 지낸 정경두 대표가 연구소를 이끈다. 아래는 이 부소장과의 일문일답. -사이버안보연구소는 다른 연구소와 무엇이 다른가? “국가정보원·과학기술정보통신부·외교부·국방부 4개 정부부처가 하는 사이버 안보 업무를 폐쇄회로텔레비전(CCTV)처럼 보면서 조언한다. 부처 간 수직적 칸막이가 있다. 각자 바빠서 서로 하는 일에 관심 없는 경우가 많다. 사이버안보연구소가 수평적으로 살피며 풀어보겠다. 미국 기관이나 기업에서는 해킹 당하더라도 피해자가 무엇을 해야 하는지 알고 있다. 어떻게 대응할지 평소 교육받는다. 그 보안 교육을 통과해야 자리를 지키거나 승진할 수 있다. 한국은 국정원이나 한국인터넷진흥원(KISA)에 연락하면 끝이다. 내 자리에서 보안 사고가 났을 때, 어떻게 해야 하는지 규정이 없어 연습하지 않으면 사고 확산을 막기 어렵다. 보안 산업에서 정부 역할은 부모와 같다고 생각한다. 부모는 이해당사자는 아니지만 자녀가 성장할 수 있는 토대와 울타리가 되지 않나. 기업 스스로 살아남는 게 아니라 세계적인 기업으로 클 수 있게 도와야 한다.” -사이버안보연구소의 특별한 활동 계획은? “'인공지능의 책임 있는 군사적 이용에 관한 고위급 회의(REAIM·Responsible AI in the Military domain)'에 적극적으로 참여한다. 리에임은 외교부와 국방부가 공동 주관하는 국제다자회의체다. 지난해 네덜란드·싱가포르·케냐·영국이 공동주최국으로 함께했다. 인공지능(AI)을 군사에 쓸 때 지켜야 할 규범을 만들고, 국제 평화와 안보에 어떤 영향을 미칠지 머리를 맞댄다. 지난해 브레이크아웃 세션(Breakout Session)에 선정된 사이버안보연구소는 롤플레잉 기법과 뉴게임 이론을 적용한 AI에 대한 기술적 이해를 바탕으로 사이버전에서 AI 어드바이저(adviser)를 효율적으로 쓰는 방법을 선보였다. 9월에는 한국정보보호학회 위험관리구조(RMF·Risk Management FRAMEwork)연구회와 대규모 회의(conference)를 열기로 했다. 주제는 한국형 위험 관리 구조(K-RMF) 제도다. K-RMF는 한국 공공기관과 방산 업체의 정보보호 위험을 관리하기 위한 보안 제도다. 미국 국립표준기술연구소(NIST) RMF를 기반으로 국내 환경에 맞췄다. 국가 정보보호 지침 등과 연계된다.” -미국 정부와 협업할 기회를 잡았다고? “개인적으로 미국 '국제 지도자 초청 프로그램(IVLP·International Visitor Leadership Program)'에 뽑혔다. 다음 달 7일부터 25일까지 미국에서 '사이버 보안 협력 강화: 한·미 동맹(Strengthening Cybersecurity Cooperation: U.S.-ROK Partnerships)' 프로젝트에 참가한다. IVLP는 미국 국무부가 80년 동안 세계 각국의 차세대 지도자를 불러 특정 주제로 협력하는 프로그램이다. 한국 동문으로는 고 김영삼·김대중 전 대통령 등이 있다. 미국 전문가들과 사이버 보안을 연구하고, 한·미 양국이 교류하는 데 동참하고 오겠다. 사적으로도 영광이지만, 한국 사이버 안보에 기여할 수 있어 더욱 뿌듯하다.”

2025.03.24 13:51유혜진

"AI PC, 앞으로 이용자와 성장하는 파트너로 진화할 것"

[요코하마(일본)=권봉석 기자] "AI PC는 CPU, NPU, GPU를 효율적으로 활용하는 것이 중요합니다. 얇고 가벼우면서도 성능이 뛰어나고, 열이 적게 발생하며, 팬 소음이 적고 배터리 지속 시간이 긴 하드웨어를 만드는 것이 목표입니다." 26일 오후(현지시각) 일본 요코하마에서 진행된 '레노버 아우라 에디션 AI PC' 행사장에서 기자와 만난 츠카모토 야스미치(塚本泰通) 레노버 커머셜 솔루션 개발 부문 부사장이 이렇게 설명했다. 츠카모토 야스미치 부사장은 2002년 일본IBM 입사 후 야마토 연구소 소속으로 커리어를 시작했다. 레노버 피인수 이후인 2005년에는 씽크패드 T 시리즈 개발에 참여했다. 2012년에는 T 시리즈, X 시리즈, X1 시리즈의 사내 디자인을 총괄하는 시스템 디자인 매니저를 맡았다. 2015년 레노버 PC 기술 전략을 담당하는 수석 엔지니어, 2017년 씽크패드 개발 책임자로 씽크패드 X1 폴드 등 신제품 개발을 맡았다. 지난 해 4월부터 인텔리전트 디바이스 그룹(IDG)에서 커머셜 제품 솔루션 개발 부문 부사장직을 수행중이다. "아우라 에디션, 새 이용자 경험 위한 시도" 츠카모토 야스미치 부사장은 레노버가 출시한 아우라 에디션 AI PC에 대해 "AI 처리 성능 뿐만 아니라 스마트폰과 연동을 포함해 PC 생태계 전반의 편의성을 높이고 새로운 이용자 경험을 제공하기 위한 첫 번째 시도"라고 설명했다. 그는 AI PC의 하드웨어 설계 기준도 현재와 달라져야 한다고 말했다. "AI PC의 성능이 향상되면서 여러 응용프로그램이 동시에 작동하기 때문에 냉각 등 열 관리와 배터리 지속시간 등 효율이 더 중요해질 것입니다." 일례로 씽크패드 X9 14 1세대 아우라 에디션은 기기 전체에 동일한 온도 기준을 적용하지 않고 손목이 직접 닿는 팜레스트(지지대)나 키보드 위 등 각 부분마다 다른 기준을 적용했다. 이를 통해 이용자가 항상 쾌적하게 기기를 쓸 수 있도록 설계됐다. "새 폼팩터 PC 개발에 韓 기업도 큰 기여" 츠카모토 부사장은 레노버가 2020년 출시한 폴더블 PC인 '씽크패드 X1 폴드', 올 초 CES 2025에서 공개한 슬라이더블 PC '씽크북 플러스 6세대 롤러블' 등 새로운 폼팩터 PC 개발 과정에서 국내 디스플레이 기업과 긴밀히 협력했다고 설명했다. "씽크패드 X1 폴드는 개발 과정에 약 5년 가량이 걸렸습니다. 당시 LG디스플레이가 '구부러지는 디스플레이가 있다'며 소개했는데, 처음에는 개념증명(PoC) 모델을 만드는 데서 시작했습니다." 레노버는 LG디스플레이와 처음 3년간은 기술적 가능성을 탐색했고, 상품화 가능성을 확인한 뒤 본격적으로 제품화 작업에 들어갔다. 이 과정에서 기능별로 다양한 시제품을 50종 이상 제작했다. "레노버 팀이 한국을 방문하고, 반대로 LG디스플레이 실무진이 야마토 연구소를 방문하는 등 5년간 양국을 오가며 긴밀히 협력했습니다. 올 초 공개된 씽크북 플러스 6세대 롤러블은 삼성디스플레이와 협업한 결과물입니다." "레노버 인수 이후 새로운 도전 기회 늘었다" 츠카모토 부사장은 IBM 시절 야마토 연구소와 레노버 인수 이후 야마토 연구소의 차이점에 대해서도 언급했다. 그는 "레노버가 IBM을 인수하기 직전에는 이미 PC가 주력 사업이 아니었기 때문에 새로운 도전에 제약이 많았다"고 회상했다. 반면 레노버가 IBM의 PC 사업을 인수한 뒤 오히려 투자가 늘고 엔지니어가 원하는 혁신에 도전할 수 있는 환경이 조성됐다는 것이다. "PC 부문이 다시 주력사업이 되면서 엔지니어가 '이런 걸 하고 싶다'고 했을 때 '해보자'라는 분위기가 생겼습니다. 과거에는 IBM에서 개발할 수 없었던 제품을 레노버 아래서 만들 수 있게 됐습니다." 흥미로운 점은 레노버 인수 이후에도 팀 구성이나 문화적 측면에서 큰 변화가 없었다는 것이다. "IBM이 아니라 '씽크패드에 근무했다'고 생각하는 사람이 대부분이었습니다. 팀도 바뀌지 않고 같은 일을 계속했기 때문에 문화나 철학 면에서 연속성을 유지할 수 있었습니다." "폼팩터 혁신과 씽크패드 전통 양립 위해 노력" 츠카모토 부사장은 레노버가 지속적으로 새로운 이용자 경험과 폼팩터 혁신에 주력하고 있다고 강조했다. 폴더블 PC 외에도 CES에서 공개한 롤러블 디스플레이 등 다양한 형태의 혁신을 시도하고 있다고 전했다. "폴더블 PC는 세로로 긴 화면을 쓸 수 있어 업무에 편리합니다. 상단에 팀즈를 배치하고 하단에 메일, 워드, 파워포인트 등을 배치해 듀얼 디스플레이처럼 사용할 수 있어 생산성이 크게 향상됩니다." 반면 전통적인 씽크패드 디자인의 변화에 대해서는 신중한 접근법을 취하고 있다고 설명했다. "과거와 달리 키보드 디자인이 점점 얇아지는 추세지만 편안히 오래 쓸 수 있도록 지속적으로 개선중입니다. 터치패드 대신 검지로 조작할 수 있는 트랙포인트를 뺀 제품이 있지만 이는 새로운 고객층에 접근하기 위한 것이며 기존 씽크패드에는 변함없이 탑재할 것입니다." "씽크패드 시리즈, 나를 이해하는 'AI 동반자' 되길" 츠카모토 부사장은 AI PC 시대 개막을 맞아 앞으로 출시할 씽크패드 시리즈의 방향성을 묻는 질문에 "씽크패드를 구매하면 자신을 가장 잘 이해하고 생산성을 높여주는 파트너를 얻는다는 경험을 제공하고 싶다"고 답했다. "앞으로 AI PC는 이용자와 대화하며 도움을 주는 'AI 동반자'로 진화할 것입니다. 씽크패드를 새 모델로 교체해도 사용자를 이해하는 지식이 그대로 이어지고 지속해 성장하는 파트너가 되길 바랍니다."

2025.02.27 09:00권봉석

986g 초경량 노트북 뒤에 숨은 레노버의 기술력

[요코하마(일본)=권봉석 기자] 레노버가 지난 해 9월 인텔 코어 울트라 200V(루나레이크) 출시에 발맞춰 공개한 씽크패드 X1 카본 13세대 아우라 에디션은 본체 무게가 986g에 불과하다. 전작(1.08kg) 대비 무게를 94g 줄인 것이다. 26일(현지시각) 일본 요코하마에서 진행된 '레노버 아우라 에디션 AI PC' 행사에서 츠카모토 야스미치(塚本泰通) 레노버 커머셜 솔루션 개발 부문 부사장은 "씽크패드 X1 카본 13세대 아우라 에디션은 무게 뿐만 아니라 카메라 화질 등 다양한 요소를 개선하기 위해 노력했다"고 밝혔다. 츠카모토 부사장은 "씽크패드는 '업계 최초' 수식어를 지닌 다양한 혁신을 이끌어 왔고 이를 실현하기 위해 고객의 목소리와 인사이트에 집중하고 있다. 이것이 혁신을 이끌어 내는 원동력"이라고 밝혔다. 2022년부터 인텔과 공동 연구소 운영 레노버는 2022년부터 일본 카나가와 현 요코하마시 소재 야마토 연구소에서 인텔과 함께 공동 연구소를 운영중이다. 츠카모토 야스미치 부사장은 "연구소 내 같은 공간에서 양사 엔지니어가 참여하며 미국 인텔 본사와 원격으로 협업하고 있다"고 밝혔다. 이어 "일반 소비자 대상 설문조사에서 파악한 요구사항을 토대로 2022년부터 브레인 스토밍, 시제품 개발 등 모든 것을 인텔과 함께 진행했다. 일본은 물론 미국과 중국, 이스라엘 등에서 개발한 다양한 기술이 투입됐다"고 강조했다. 탄소섬유 방향·메인보드 구조 바꿔 94g 감량 츠카모토 야스미치 부사장은 "씽크패드 X1 카본 13세대의 무게를 줄이기 위해 본체 커버에 탄소섬유 그물을 적용해 두께를 0.3mm 줄이는 한편 탄소섬유를 쌓는 방향을 가로에서 세로로 바꾸기도 했다"고 말했다. 커버 테두리에 적용하던 플라스틱을 재활용 탄소섬유로 바꾸는 노력도 뒤따랐다. 보잉 787 항공기에 적용되던 탄소섬유 중 남은 부분을 재활용해 뒤틀림 현상 위험을 막으면서 지속 가능성은 높였다는 것이 그의 설명이다. 메인보드에 투입되는 구리 배선을 줄여도 본체 무게 감량에 도움이 된다. 츠카모토 부사장은 "노트북 메인보드 기판은 10층으로 설계되지만 인텔과 연구를 거듭해 강도나 품질은 유지하면서 두 개 층을 빼 무게를 줄일 수 있었다"고 밝혔다. "'스마트 셰어' 구현 장애물, 새로운 방법으로 풀어내" 레노버가 올해부터 본격 출시하는 아우라 에디션 AI PC의 3대 핵심 기능 중 하나인 '스마트 셰어'(Smart Share)는 애플 아이폰·안드로이드 스마트폰과 PC 사이에서 사진과 파일을 자유롭게 공유할 수 있다. 츠카모토 부사장은 "처음에는 스마트폰에서 PC를 감지해 자동으로 파일을 전송하는 모델을 고려했지만 애플 iOS의 설계상 이것이 불가능하다는 것을 확인했다. 그러나 모든 이용자를 위한 기능을 개발한다는 목표 아래 새로운 접근법을 개발했다"고 말했다. 레노버가 개발한 새로운 방법은 스마트폰과 PC 양쪽에서 서로 기기를 감지하고 저전력 근거리 무선통신 기술인 블루투스LE를 활용하는 것이다. 츠카모토 부사장은 "정확성을 높이기 위해 다양한 스마트폰을 적용한 AI 모델을 구축해 정확도를 높였다"고 밝혔다. 부피 줄여도 냉각 성능 오히려 높아진 '엔진 허브' 씽크패드 X9에는 '엔진 허브'라는 새로운 냉각시스템이 적용됐다. 츠카모토 부사장은 "인텔과 함께 냉각팬이 없는 팬리스 설계도 고려했지만 AI 응용프로그램 구동에는 충분하지 않다는 결론을 내렸다. 그 결과 보다 적은 부피로 냉각 효율을 높일 필요가 있었다"고 말했다. 새로운 구조 설계에는 한 레노버 엔지니어의 아이디어가 큰 영향을 미쳤다. 공기가 지나가는 통로에 삼각형 장애물을 설치해 공기 흐름을 바꾸고 방열판과 냉각팬 주변을 차단해 냉각 효율을 높였다. 츠카모토 부사장은 "여러 아이디어를 적용한 결과 씽크패드 X9 14 1세대는 전세대 제품이라 볼 수 있는 X1 카본 12세대 대비 냉각팬 소음과 표면 온도를 낮출 수 있었다"고 설명했다. "원격근무 겨냥 스피커·카메라 재설계" 코로나19 이후 마이크로소프트 팀즈, 줌 등을 활용한 화상회의와 원격 협업 중요성이 커지면서 레노버는 카메라 화질과 스피커 음질을 개선하는 데도 많은 노력을 기울였다. 츠카모토 부사장은 "씽크패드 X9 14 1세대에 탑재된 스피커는 고정을 위한 나사 구멍으로 낭비되던 공간까지 활용할 수 있도록 재설계했고 앰프 성능도 허용하는 범위 내에서 최대한 끌어냈다"고 설명했다. 카메라 센서는 기존 노트북에 탑재되던 제품 대비 면적이 45% 더 넓은 제품을 적용하고 좁은 노트북 내부 구조에 적합하게 새로 만들었다. 이를 통해 20럭스에 불과한 어두운 환경에서 색 재현도와 밝기를 개선했다. 츠카모토 부사장은 "카메라 센서와 렌즈 개선에 더해 마이크로소프트 코파일럿+의 윈도 스튜디오 효과, 레노버가 자체 개발한 AI 알고리듬을 더해 화질을 한 단계 더 끌어올렸다"고 설명했다.

2025.02.26 15:00권봉석

"규제보다 혁신"…美 AI 안전연구소 존폐 위기, 英 보안 중심 개편

미국과 영국이 인공지능(AI) 안전 정책에서 혁신 중심 기조로 전환하고 있다. 미국 AI 안전 연구소는 대규모 해고 사태를 맞으며 존폐 위기에 놓였고 영국은 기존 AI 안전 연구소를 'AI 보안연구소'로 개편했다. AI 안전보다 기술 발전과 국가 안보를 우선하는 정책 변화가 가속화되는 모습이다. 23일 테크크런치 등 외신에 따르면 최근 미국 국립표준기술연구소(NIST)는 예산 감축으로 최대 500명의 직원을 해고할 계획이다. 이로 인해 NIST 산하의 AI 안전연구소(AISI)와 '칩스 포 아메리카(Chips for America)' 프로그램이 심각한 타격을 받을 수 있다는 전망이 나온다. AISI는 지난해 조 바이든 당시 대통령의 AI 안전 행정명령을 기반으로 설립됐지만 도널드 트럼프 대통령이 취임 첫날 이를 폐기하면서 존속이 불투명해졌다. 여기에 예산 삭감이 겹치면서 AI 안전 연구소는 연구 역량을 사실상 상실하게 됐다. 현재 미국 정부는 AI 규제보다는 산업 성장과 기술 혁신을 우선하는 정책을 추진하고 있다. JD 밴스 미국 부통령은 "AI 산업이 이제 막 성장하는 단계에서 지나치게 엄격한 규제는 오히려 기술 발전을 저해할 것"이라며 "정부 개입을 최소화하고 시장 중심의 AI 발전을 지원하겠다"고 말했다. 동시에 영국은 지난 14일 AI 안전연구소를 유지하되 명칭을 'AI 보안 연구소(UK AI Security Institute)'로 변경하고 연구 방향을 국가 안보 중심으로 전환한 바 있다. 피터 카일 영국 과학·혁신·기술부 장관은 독일 뮌헨 안보 회의에서 이를 공식 발표하며 "AI가 국가 안보와 범죄에 미치는 영향을 분석하는 것이 최우선 과제가 될 것"이라고 강조했다. 이번 개편으로 연구소는 AI 기술의 보안 리스크 대응을 주된 임무로 삼게 됐다. 특히 AI 기반 사이버 공격, 금융 사기, 아동 성범죄 방지를 위한 '범죄 악용 대응팀(Criminal Misuse Team)'을 신설해 내무부와 협력할 계획이다. 영국 정부는 AI 기술이 초래할 윤리적 문제나 표현의 자유 이슈보다 사이버 보안과 국가 안보 강화를 최우선 과제로 삼겠다는 입장이다. 영국 총리실은 AI 규제의 필요성을 인정하지만 글로벌 협약보다는 국가별 대응이 더 효과적이라고 밝혔다. 미국과 영국의 AI 정책 변화는 글로벌 AI 거버넌스 논의에도 영향을 미쳤다. 지난 2월 10일부터 이틀간 파리 AI 행동 정상회의(Paris AI Action Summit)에서 프랑스, 중국, 인도, EU 회원국 등 61개국이 AI 윤리 선언문에 서명했으나 미국과 영국은 이를 거부했기 때문이다. 이번 선언문은 AI 기술의 윤리적 개발, 노동시장 영향, 디지털 격차 해소, 독점 방지 등을 목표로 했으나 미국은 지나친 규제가 혁신을 저해할 수 있다며 서명을 거부했고 영국은 국가 안보 및 정책 주권을 이유로 독립적인 대응을 택했다. AI 거버넌스 논의에서 미국과 영국의 독자 노선이 뚜렷해지면서 향후 국제 협력 체계에도 균열이 생길 가능성이 커졌다. AI 안전과 규제보다 국가 경쟁력과 산업 혁신을 우선하는 기조가 강화되는 가운데,글로벌 AI 정책이 어떤 방향으로 정리될지 주목된다. 이안 호가스 영국 AI 보안연구소장은 "우리 연구소는 AI 보안 문제 해결을 위해 존재한다"며 "새로운 범죄 악용 대응팀과 국가 안보 기관과의 협력 확대를 통해 AI의 심각한 위협을 해결할 것"이라고 밝혔다.

2025.02.23 10:27조이환

韓, 초거대 AI 모델 수 세계 3위지만…미·중과 격차 커

한국이 미국, 중국에 이어 세계에서 3번째로 초거대 인공지능(AI) 모델을 많이 보유한 것으로 나타났다. 14일 소프트웨어정책연구소(SPRi)가 미국 연구단체 에포크(EPOCH) AI 데이터를 분석한 '글로벌 초거대 AI 모델 현황' 보고서에 따르면 한국이 지난해 초거대 AI 모델 3개를 추가 출시하면서 총 14개 모델을 보유한 것으로 전해졌다. 국가별 순위로는 한국이 3위다. 128개 모델을 보유한 미국과 95개를 갖고 있는 중국이 각각 1, 2위를 기록했다. 프랑스는 10개, 일본과 독일은 각각 4개를 보유해 4, 5위로 뒤를 이었다. 기업별로는 LG가 5개 모델을 보유하며 국내에서 가장 많은 초거대 AI를 개발했다. 이어 네이버와 삼성은 각각 3개, KT·NC소프트·코난테크놀로지가 각 1개의 모델을 출시한 것으로 나타났다. 보고서는 2024년 기준 초거대 AI 모델을 3개 이상 출시한 기업·기관을 보유한 국가 순위에서도 한국이 프랑스와 공동 3위를 차지했다고 분석했다. 전 세계 초거대 AI 모델 증가세가 이어진 것으로 나타났다. 2020년부터 2024년까지 전 세계에서 총 271개의 초거대 AI 모델이 개발됐다. 지난해만 122개 초거대 AI 모델이 개발됐으며 109개를 기록한 2023년에 이후 지속적으로 증가세를 보였다. SPRi 봉강호 선임연구원은 "최근 초거대 AI 경쟁이 치열해지며 한국도 지속적으로 경쟁력을 유지하고 있다"며 "시장이 빠르게 변화하는 만큼 민·관 협력을 통한 기술 개발과 생태계 조성이 더욱 중요해질 것"이라고 강조했다.

2025.02.14 18:05김미정

'AI 안전성 확보 전략 포럼' 열린다

한국데이터법정책학회는 20일 오후 3시 한국프레스센터에서 'AI 안전성 및 신뢰성 확보를 위한 전략'이라는 주제로 제14회 AI 윤리법제포럼을 개최한다. 이날 포럼에서는 서울여대 정보보호학부 교수, 인공지능윤리정책 포럼 위원장을 지내고 현재 AI안전연구소 초대 소장을 맡고 있는 김명주 소장이 주제 발표를 맡았다. 포럼 회장인 이성엽 교수는 “한국에서도 AI 기본법상 안전성, 신뢰성 확보 규정이 도입됐고, 최근 딥시크 층격으로 인해 AI를 통한 정보보안 위험이 증대되고 있는 상황에서 AI 안전성과 신뢰성 확보를 책임지고 있는 기관의 전략을 듣고 향후 과제를 논의하는 의미 있는 세미나가 될 것이다”고 밝혔다. 한편 AI 윤리법제포럼은 AI 시대의 법제도와 윤리 이슈에 대해 논의하기 위한 전문가 모임으로 정기적으로 생성형 AI의 주요 윤리, 법제, 정책 이슈에 관한 세미나를 개최하고 있다. 1회 포럼에서 ▲생성 AI에서 윤리 이슈를 시작으로 ▲생성형 AI의 기술적 이해 ▲생성형 AI의 저작권 이슈와 과제 ▲생성형 AI의 개인정보의 이슈와 과제 ▲생성형 AI의 경쟁상의 이슈와 과제 ▲주요국의 AI 규제 현황과 시사점 ▲생성형 AI에서 가짜뉴스의 이슈와 과제 ▲생성형 AI에서 시큐리티 이슈와 과제 ▲디지털 통상과 인공지능 ▲생성형 AI 기술, 산업 동향과 시사점 ▲한국의 AI 반도체, 클라우드 전략 ▲AI 규제법의 국내외 동향 분석, 평가와 향후 과제 ▲AI 법제 및 거버넌스 개선방향 등의 주제를 다뤘다.

2025.02.13 14:22박수형

[AI는 지금] 파리 AI 정상회의 임박…韓, 글로벌 AI 거버넌스 존재감 시험대

'파리 인공지능(AI) 정상회의(AI Action Summit)' 개막을 앞두고 한국 정부와 기업이 글로벌 AI 거버넌스 구축에 기여하기 위해 적극 참여할 예정이다. 다만 탄핵 정국으로 인해 정상급 외교가 부재한 점은 아쉬움으로 남는다. 10일 업계에 따르면 프랑스 파리에서 개막해 이틀간 진행될 AI 정상회의는 80개국 이상이 참석하는 대규모 행사로, AI 안전성과 국제 규범 정립을 주요 의제로 다룰 예정이다. 회의에는 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리 등 주요 국가 정상과 오픈AI 샘 알트먼 대표, 구글 순다르 피차이 대표 등 글로벌 기술 기업 대표들이 참석할 예정이다. 이번 회의에서는 AI 안전성 강화, 데이터센터의 에너지 문제, 선진국과 개발도상국 간 AI 기술 격차 해소 등이 중점적으로 논의될 전망이다. 또 글로벌 AI 거버넌스 확립을 위한 국제 기구 설립이 주요 의제로 다뤄질 예정이다. 프랑스 정부는 이 자리에서 AI 산업에 1천90억 유로(한화 약 163조5천억원) 규모의 민간 투자 계획을 발표하며 AI 글로벌 규범 정립에 앞장서겠다는 뜻을 밝힐 것으로 보인다. 회의 개막을 앞두고 마크롱 대통령은 AI 기술을 활용한 딥페이크 영상으로 홍보에 나서 주목을 받았다. 그는 자신의 소셜미디어에 맥가이버, 인플루언서, 코미디 영화 캐릭터 등으로 변신한 합성 영상을 공개하며 "꽤 잘 만들어서 보고 웃었다"고 말했다. 이번 정상회의를 알리는 차원에서 제작된 이 영상은 AI 기술이 미디어와 사회 전반에 미칠 영향을 상징적으로 보여줬다는 평가를 받는다. 한국도 이번 회의에 적극적으로 참여할 예정이다. 정부 측에서는 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장 등이 대표단을 이끌고 글로벌 AI 거버넌스 논의에 나선다. 특히 AI 안전연구소는 이번 회의에서 영국·일본·싱가포르와 함께 구글과 미스트랄 AI의 모델을 분석해 AI 시스템의 다국어·문화적 취약점을 테스트한 결과를 발표할 예정이다. 연구소는 지난해 11월 설립 이후 영어 기반으로 훈련된 AI 모델이 비(非)서구권 언어와 문화에서 보안 취약점을 가질 수 있다는 점을 고려해 다국어 환경에서의 AI 보안성 문제를 중점적으로 다뤄왔다. 기업 측에서는 삼성전자, 네이버, LG AI연구원이 참가해 AI 기술 개발 및 윤리적 활용에 대한 논의를 이어갈 계획이다. 네이버 최수연 대표, 전경훈 삼성전자 디바이스경험(DX)부문 최고기술책임자(CTO) 겸 삼성리서치 연구소장도 이번 행사에 참석한다. LG AI연구원에서는 배경훈 원장 대신 김유철 전략부문장이 참석해 글로벌 협력과 AI 규범 형성 논의에 힘을 보탤 예정이다. LG 관계자는 "우리는 지금까지 유네스코와 협업하고 서울 AI 정상회의에서도 적극 참여하는 등 국제 사회와 지속적으로 협력해왔다"며 "이번 회의에서도 다른 글로벌 참가자들과 함께 포용적 AI 구축을 위해 노력하겠다"고 밝혔다. 다만 정상급 외교 부재는 아쉬운 대목으로 꼽힌다. 윤석열 대통령이 지난 2023년 이후로 줄곧 AI 3대 강국 도약과 글로벌 디지털 규범 주도를 선언했음에도 불구하고 탄핵 정국으로 인해 이번 정상회의에 참석하지 못하면서 국제 사회에서의 리더십이 약화될 가능성이 제기되고 있기 때문이다. 대통령 권한대행조차 부재해 한국이 주요 논의에서 주도권을 잡기 어려울 것이라는 우려도 나온다. 국내 업계 관계자는 "AI 기술 발전과 거버넌스 논의는 동시에 이뤄져야 하는데 현재 국내 정국이 아쉬운 점이 있다"며 "그럼에도 정부와 기업들이 주어진 여건 속에서 역할을 하기 위해 최선을 다하고 있는 것은 사실"이라고 말했다. 이번 파리 AI 정상회의는 지난 2023년 영국 블레츨리 회의와 지난해 서울 AI 정상회의에 이어 AI 거버넌스 논의의 주요 이정표로 평가된다. AI 기술이 가져올 사회적 변화를 다루는 글로벌 논의가 본격화되는 가운데 한국이 향후 어떤 역할을 할 수 있을지 주목된다. 마크롱 대통령은 회의 개최를 앞두고 "AI는 무법지대가 되어서는 안 된다"며 "우리는 AI 혁명의 중심에 서서 글로벌 규범을 주도해 나갈 것"이라고 강조했다.

2025.02.10 16:58조이환

"숨 가쁜 글로벌 테크 대전"…파리 AI 정상회의·사우디 리프 2025 연속 개최

인공지능(AI)과 첨단 기술의 미래를 둘러싼 글로벌 경쟁이 치열해지는 가운데 프랑스와 사우디아라비아에서 연이어 대규모 기술 행사가 열린다. 프랑스는 파리 AI 정상회의(AI Action Summit)를 통해 국제 AI 거버넌스와 협력 방안을 논의하고 사우디아라비아는 리프(LEAP) 2025를 통해 중동을 기술 혁신의 허브로 만들기 위한 전략을 본격화한다. 9일 업계에 따르면 프랑스와 사우디에서 잇달아 개최되는 이번 행사에는 전 세계 정부 관계자, 글로벌 테크 기업인, 학계 전문가들이 참석해 첨단 기술과 규제의 미래를 논의할 예정이다. 파리에서는 AI 기술의 윤리적 활용과 글로벌 협력을 강조되고 리야드에서는 AI·반도체·로보틱스·사이버보안을 중심으로 중동 테크 허브 도약이 추진될 예정이다. 한국도 두 행사에 적극적으로 참여한다. 파리 AI 정상회의에는 정부 차원의 지원이 두드러지며 과학기술정보통신부, 개인정보보호위원회, AI안전연구소 등이 참석해 AI 국제 거버넌스 논의에 힘을 보탠다. 사우디 '리프 2025'에서는 네이버가 맞춤형 AI 솔루션을 공개하고 국내 스타트업들이 중동 시장 진출을 모색한다. "AI 글로벌 규범 강화"…파리 정상회의, 거버넌스 논의 본격화 프랑스 정부는 오는 10일부터 이틀간 프랑스 파리 그랑팔레에서 인도 정부와 함께 '파리 AI 정상회의(AI Action Summit)'를 개최한다. 이번 회의는 AI 안전을 넘어 실천적 행동으로 전환하는 것을 목표로 하며 AI 기술이 개발도상국을 포함한 전 세계에 공정하게 혜택을 제공하도록 협력 체계를 구축하는 데 중점을 둔다. 파리 정상회의는 지난 2023년 영국 블레츨리 파크, 2024년 서울 정상회의에 이은 세 번째 글로벌 AI 정상회의다. 행사에는 80개국 이상이 참여하며 AI 국제 거버넌스·일자리 변화·보안 및 안전·공공이익·혁신과 문화 등 5대 핵심 의제를 중심으로 실질적인 정책과 행동 강령이 논의된다. 이번 회의에는 주요 국가 정상, 글로벌 기업 대표, 학계 전문가가 대거 참석한다. 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리를 비롯해 샘 알트만 오픈AI 대표, 순다르 피차이 구글 대표, 얀 르쿤 메타 AI 수석과학자 등이 자리한다. 학계에서는 마이클 조던 UC버클리 교수, 에릭 브린욜프손 스탠퍼드 교수가 참석해 AI의 미래에 대한 논의를 이끈다. 국내에서도 정부 및 기업 대표단이 적극 참여한다. 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장이 주요 세션에 참석하며 기업 차원에서는 전경훈 삼성전자 최고기술책임자(CTO), 최수연 네이버 대표, 김유철 LG AI연구원 전략부문장 등이 글로벌 AI 기술 경쟁력을 알릴 예정이다. 한국AI윤리학회와 정보통신산업진흥원(NIPA) 관계자들도 행사에 함께한다. 회의에서는 AI 안전성 강화를 위한 국제 보고서 발표와 사이버 위기 시뮬레이션이 진행되며 AI로 인한 직업 구조 변화에 대비한 재교육 방안도 논의된다. AI 데이터센터의 에너지 소비 문제를 해결하기 위한 다자간 협약이 추진되며 의료·기후변화 대응 등 50개 글로벌 AI 공공 프로젝트도 소개된다. 업계에서는 파리 정상회의를 통해 글로벌 AI 협력 체계가 한층 강화될 것으로 기대된다. 특히 프랑스는 구글, 메타, 미스트랄 등 AI 연구센터 유치를 확대하며 AI 허브로 도약하는 계기를 마련하고 있다. 한국 역시 반도체·플랫폼 분야의 강점을 바탕으로 글로벌 AI 표준화 논의에서 주도적인 역할을 할 것으로 보인다. 마크롱 프랑스 대통령은 "AI는 서부의 무법지대가 될 수 없다"며 "권리, 환경, 뉴스의 진실성, 지적 재산권을 보호하는 강력한 원칙을 담으면서도 완전히 자발적으로 모든 국가가 서명할 수 있는 선언을 만들기 위해 시도할 것"이라고 말했다. "사우디, 중동 테크 허브로"…'리프 2025'로 韓 기업 중동 진출 기회 확대 사우디아라비아 정부 역시 9일부터 나흘간 리야드 그랑팔레(엑스포센터)에서 국가 최대 IT 행사인 '리프(LEAP) 2025'를 통해 중동 최대 기술 혁신 플랫폼을 구축한다. 이 행사는 비전 2030 전략에 따라 사우디 경제를 석유 중심에서 기술 주도로 전환하는 데 중점을 두며 AI·로보틱스·사이버보안 등 첨단 기술 분야에서 글로벌 리더십을 강화하는 계기가 될 전망이다. 이 행사에는 1천800개 글로벌 테크 기업, 680개 스타트업, 1천명 이상의 글로벌 전문가가 참여한다. 사우디 통신정보기술부(MCIT)와 타할루프(Tahaluf)가 주최하는 이번 행사는 AI 기반 혁신 사례 전시 '딥페스트(DeepFest)', e스포츠 및 스포츠 기술을 다루는 '스포츠테크 트랙', 신기술을 직접 체험할 수 있는 '테크 아레나' 등 다양한 프로그램을 운영한다. 글로벌 테크 리더들도 대거 참석한다. 아르빈드 크리슈나 IBM 대표, 앨리슨 왜건펠트 구글 클라우드 대표 등이 기술 혁신 방향을 논의한다. 전 맨체스터 유나이티드 선수 파트리스 에브라, 전 아스널 선수 마티유 플라미니 같은 스포츠 스타들도 참여해 스포츠와 기술의 접점을 조명할 예정이다. 한국도 적극적으로 참여하며 사우디 시장 공략에 나선다. 네이버는 'AI 포 사우디아라비아, 파워드 바이 네이버'를 테마로 사우디 맞춤형 AI 모델과 자체 대형 언어모델 '하이퍼클로바X'를 선보인다. 또 사우디 국영기업과 디지털 트윈 플랫폼 협약을 체결하며 현지 시장 확대를 노린다. 리벨리온은 AI 반도체 기술을 공개하며 보안기업인 스패로우는 애플리케이션 보안 솔루션을 소개할 예정이다. 김유원 네이버클라우드 대표는 "각국의 문화와 정체성을 존중하는 기술력을 개발하겠다"며 "이로써 글로벌 시장에서 입지를 보다 강화할 것"이라고 강조했다.

2025.02.09 11:07조이환

[AI 리더스] 김명주 AI안전연구소장 "AI 신뢰도 제고, 韓 기업 글로벌 성공에 필수"

"인공지능(AI)은 이제 자본과 기술의 경쟁을 넘어 '신뢰성'이 핵심인 시대에 접어들었다고 봅니다. 결국 어느 기업의 AI가 더 믿을 수 있느냐가 관건이지요." 김명주 AI안전연구소(AISI) 초대 소장은 최근 기자와 만난 자리에서 정부와 기업이 협력해 AI 거버넌스를 강화하고 안전성을 확보해야 한다고 강조하며 이같이 말했다. 17일 업계에 따르면 글로벌 AI 산업이 빠르게 성장함에 따라 정부가 기술 혁신과 안전성·신뢰성 확보를 위한 법·제도 개선에 박차를 가하고 있다. 이같은 정책적 움직임을 뒷받침하기 위해 세워진 AI안전연구소의 김명주 소장은 연구소의 역할과 비전, AI 관련 글로벌 동향 및 기술 경쟁 속에서의 과제를 공유하며 AI의 안전성과 신뢰성을 높이기 위한 전략적 노력이 필수적임을 강조했다. "글로벌 기준 선도"…정책-기술 잇는 AI안전연구소 역할 AI안전연구소는 지난해 11월 전자통신연구원(ETRI) 산하로 출범해 국가 AI 정책 수립을 지원하고 기술의 빠른 발전이 가져올 안전성과 윤리적 문제를 해결하기 위해 박차를 가하고 있다. 현재 연구소는 ▲글로벌 정책 동향 분석 및 AI 위험 대응을 맡는 'AI안전정책 및 대외협력실' ▲위험 정의와 평가 프레임워크를 개발하는 'AI안전평가실' ▲딥페이크 방지와 AI 보안 기술 연구에 집중하는 'AI안전연구실'로 구성돼 있다. 연구소는 이러한 구조를 통해 독립적이면서도 유기적으로 '정책·평가·기술'을 통합 운영해 AI의 안전성과 경쟁력을 높이는 데 집중한다. 이 구조는 해외 AI 연구소들과의 차별점으로 지목된다. 영국·미국·일본·싱가포르 등 여러 국가에서도 AI안전연구소를 운영 중이지만 자본과 보유 기술의 한계 등으로 인해 기술과 정책을 통합적으로 다루는 경우가 많지 않기 때문이다. 김 소장은 "미국과 영국의 AI안전연구소는 리더십 자체가 정책 전문가나 비즈니스 전문가 중심인 경우가 많다"면서 "국내 우리 연구소는 정책·거버넌스뿐 아니라 기술과 표준화에도 동일한 비중을 두고 운영 체계를 마련했다"고 설명했다. 업계에서는 김 소장을 국내 AI안전연구소의 비전 실현에 적합한 리더로 평가한다. 정책과 기술 모두에 정통한 전문가로, 이 두 분야를 통합적으로 이끌어가는 데 강점을 지니고 있기 때문이다. 그는 지난 1993년 서울대에서 컴퓨터공학 박사 학위를 취득한 후 약 30년간 서울여대에서 정보보안을 가르치며 IT 윤리와 거버넌스 분야에서도 20년 이상 활동해왔다. 김 소장은 "사이버 보안을 비롯한 컴퓨터 공학이 원래 전문 분야지만 윤리와 거버넌스까지 함께 다룰 줄 아는 것이 연구소 운영에 큰 도움이 된다"며 "AI 문제는 결국 사람에게 미치는 영향을 종합적으로 살펴야 한다"고 설명했다. AI 신뢰성 위해 '전방위 리스크맵' 구축…다방면서 시민·국제 사회 조율 이러한 목적을 위해 AI안전연구소는 AI의 안전성과 신뢰성을 확보하기 위한 '전방위적 리스크 맵' 작업을 진행 중이다. AI의 위험을 종합적으로 분석하고 윤리와 안전을 모두 포괄하는 접근을 하기 위함이다. 현재 메사추세츠 공과대학(MIT) 등 다양한 글로벌 기관에서 리스크 맵을 발표했지만 대부분 개발자와 사업자 관점에 치우쳐 있어 윤리적·안전적 관점을 충분히 반영하지 못했다는 평가를 받고 있다. 기존의 난점을 극복하기 위해 연구소는 보안 개념을 중요한 연구 주제로 삼고 있다. 지난 2022년 오픈AI '챗GPT' 출시 직후 AI 안전에 대한 논의는 AI가 인류에게 존재론적 위협을 초래할 것이라는 '터미네이터형 리스크'에 집중됐다. 그런데 실제로 닥쳤던 현실적인 문제는 오픈AI의 오픈소스 버그로 인한 사용자 대화 기록 유출 사건이었다. 이후 170개 이상의 취약점이 패치되며 문제가 해결됐지만 이 사건은 AI 시스템의 취약성을 여실히 드러낸 사례로 평가된다. 김 소장은 "'챗GPT'의 경우 버그바운티를 통해 지난 2년간 취약점을 패치하면서 최근에야 비로소 문제를 해결했다"며 "AI 모델 내부의 취약점도 중요하지만 해커가 외부 네트워크를 통해 공격하지 못하도록 방어 체계를 갖추는 것이 필수적"이라고 강조했다. 이어 "연구소는 이를 위해 기술적 연구와 대응 방안을 적극적으로 개발 중"이라고 밝혔다. 또 그는 올바른 AI 안전 수립을 위한 시민과의 소통의 중요성을 강조했다. 딥페이크 문제, AI로 인한 일자리 위협 등과 같이 일반 시민들이 느끼는 공포가 증가하고 있는 상황에서 기술만으로는 이러한 문제를 해결할 수 없기 때문이다. 김 소장은 "사회적으로 큰 파장을 일으키는 문제에는 제도적·윤리적 지원이 필수적"이라며 "기술 발전뿐만 아니라 실질적인 해킹 문제와 시민이 느끼는 불안까지 고려한 전방위 리스크 맵을 만들고 있다"고 밝혔다. 연구소는 이러한 목표를 달성하기 위해 글로벌 협력과 표준화 작업에도 박차를 가하고 있다. 특히 AI 안전 표준화에 전문성을 가진 싱가포르 AI안전연구소와 협력해 AI 취약성 평가와 안전 프레임워크의 글로벌 기준을 마련하고 있다. 김 소장은 "싱가포르는 AI 이전부터 이미 표준화에서 상당한 전문성과 노하우를 보유한 나라"라며 "협력을 통해 국제적으로 통용될 수 있는 AI 안전 기준을 구축하고자 한다"고 설명했다. 국제 거버넌스 협력도 활발히 진행 중이다. 연구소는 오는 3월 프랑스 파리에서 열리는 AI 정상회의에 참가해 글로벌 AI 안전 거버넌스 구축에 기여할 예정이다. 선진국·개발도상국 간 AI 기술 지원과 AI 국제지구 설립이 주로 논의될 이 회의에서 김 소장은 OECD 산하 글로벌 AI 파트너십(GPAI) 자문위원으로서 이 회의에서 중요한 역할을 할 것으로 기대된다. 또 연구소는 다문화·다언어(MCML) 프로젝트를 통해 AI 모델의 언어적·문화적 편향을 분석하고 이를 교정하는 작업을 수행하고 있다. 이를 통해 AI의 공정성과 신뢰성을 강화하고 국가 간 갈등 예방과 문화적 조화에 기여할 기술을 개발 중이다. 김 소장은 AI의 안전과 신뢰성이 글로벌 경쟁력의 핵심이라고 강조했다. 그는 "EU AI 법처럼 강력한 규제를 충족하고 호환성을 보장할 수 있는 표준화는 국내 기업들이 유럽 시장을 포함한 글로벌 시장에서 경쟁력을 확보하는 데 필수적"이라며 "브뤼셀 기준과 호환 가능한 표준을 마련해 국내 AI 기술의 EU 시장 진출을 도울 계획"이라고 밝혔다. 또 그는 글로벌 시장에서 국산 AI의 성공 가능성을 낙관적으로 전망했다. 특히 미국과 중국 간의 기술 경쟁이 심화되는 상황에서 디지털 종속에 대한 우려를 가진 중동과 동남아시아 국가들이 한국을 제3의 대안으로 선택할 가능성이 높다는 분석을 내 놓았다. 기술 수준이 두 AI 초강대국에 비해 다소 뒤처지더라도 정치적 리스크가 이러한 선택에 결정적인 영향을 미칠 수 있다는 것이다. 그는 "한국은 데이터, 반도체, 인재, 기술 지원 역량 등 AI 개발의 필요조건을 이미 갖추고 있다"며 "다만 여기에 안전성과 신뢰성이 충분조건으로 작용할 때 국산 AI의 '소프트파워'가 글로벌 시장에 먹혀들 것"이라고 분석했다. 트럼프 당선·AI 기본법 통과…글로벌 AI 생태계 지각 변동 예고 김명주 소장은 AI 기본법 통과와 트럼프 당선이라는 두 가지 중요한 정치적·법적 변수에 대해서도 의견을 밝혔다. 그는 이 두 사안이 한국뿐만 아니라 글로벌 AI 시장과 연구소의 운영 전략에도 영향을 미칠 가능성을 시사했다. 트럼프가 미국 대통령으로 취임한 후 AI 규제가 느슨해질 가능성이 있느냐는 기자의 질문에 김 소장은 규제가 강화될 가능성을 언급했다. 이는 트럼프의 '아메리카 퍼스트' 정책이 자국의 AI를 자유롭게 발전시키는 동시에 다른 나라에는 철저한 제한을 목표로 할 수 있기 때문이다. 또 AI가 전략자원화 되는 현 시점에 적성국을 견제하기 위한 규제 조치를 취할수도 있다는 설명이다. 김 소장은 "트럼프의 미국은 자국이 AI 규제를 선도해야한다는 입장일 가능성이 크다"면서 "산업적인 측면에서의 '사다리 걷어차기' 전략과 안보 정책으로서의 규제를 강력히 도입할 가능성이 있다"고 예측했다. AI 기본법에 대한 분석도 이어졌다. 지난해 12월 국회를 통과한 이 법안은 업계에서 규제와 진흥의 균형을 맞추려는 시도로 평가받으며 대체로 환영받는 분위기다. 다만 일각에서는 치열한 경쟁 상황에서 규제를 최소화해야 한다는 반론도 제기하고 있다. 김 소장은 "AI 기본법은 산업과 안전 중에 산업에 방점을 찍은 법안"이라며 "EU AI법은 주로 규제 내용으로 구성돼 기업들이 숨 쉴 틈이 없는 것과 달리 우리 기본법은 산업 진흥에 70~80%, 규제에 20~30% 정도로 구성돼 기업 부담을 크게 줄였다"고 설명했다. 이어 "향후 시행령과 고시를 통해 보다 합리적인 조정이 가능할 것"이라고 덧붙였다. AI 기본법 통과에 따른 연구소의 소속과 독립 문제도 거론됐다. 현재 AI안전연구소는 ETRI 산하로 운영되고 있지만 법 통과로 인해 독립 기관으로서의 출범 가능성이 열렸기 때문이다. 이에 대해 김 소장은 "법적 가능성은 있지만 아직 결정된 바는 없다"고 밝혔다. 다만 올해 연구소는 ETRI 산하에서 지속적으로 성장할 계획이다. 현재 15명인 조직 규모는 올해 30명으로 증원될 계획으로, 오는 4월 진행될 채용에서는 7명을 새로 선발하며 이 중 5명은 정책·대외협력 분야, 2명은 평가·기술 분야 인재가 포함될 예정이다. 그럼에도 국가기관 특성상 인재 채용 조건의 제한은 아쉬운 점으로 지적된다. 기자 확인 결과 연구소는 ETRI와 마찬가지로 과학 분야 최고 수준의 논문으로 평가받는 SCI급 논문 작성 경험을 가진 연구자만을 선발한다. 이는 정책·거버넌스 분야에서의 채용에는 다소 비효율적일 수 있다는 업계의 비판을 받고 있다. 또 영국 AI 안전연구소가 연구자들에게 약 2억 원의 연봉을 지급하는 것과 비교해 상대적으로 낮은 처우를 제공한다는 지적도 있다. 이에 김 소장은 "국가 예산과 ETRI 구조상 처우를 대폭 개선하기는 어렵다"면서도 "다만 유능한 인재를 끌어들이기 위해 국가 공공기관 평균 연봉보다 2~3천만 원 더 지급해 물가 고려시 영국 연구소의 연봉 수준에 비견하는 수준의 인센티브를 지급하고 있다"고 말했다. 이어 "향후에도 ETRI와 함께 조율해 장기적으로 우수 인재 유치에 더 과감히 투자할 계획으로, 이들이 여기서 쌓는 경험도 개인 커리어에 큰 장점이 될 수 있을 것"이라고 강조했다. 이같이 AI안전연구소는 AI 기술의 안전성과 신뢰성을 강화하며 정책·평가·기술의 통합적 접근을 통해 글로벌 리더십을 확보하는 데 주력하고 있다. AI가 가져올 사회적·경제적 영향을 면밀히 분석하며 이를 바탕으로 국내외 신뢰받는 AI 생태계를 구축해 나가는 것이 연구소의 궁극적인 목표다. 김명주 AI안전연구소장은 "AI는 기술적 진보뿐 아니라 신뢰와 안전을 담보해야 글로벌 시장에서 경쟁력을 가질 수 있다"며 "우리는 기술, 정책, 윤리적 기준을 모두 아우르는 리더십을 통해 국내외 AI 생태계의 신뢰성 확보를 위해 매진할 것"이라고 강조했다.

2025.01.17 15:02조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

테슬라·팔란티어만의 기술 아니다…'버티컬 AI' 전쟁, 韓도 뛰어들었다

美 소액 물품 면세 폐지에…테무·쉬인, 사용자 수 급감

[써보고서] 갤럭시 S25 엣지, 뒷주머니에 넣었더니...한계 넘은 혁신

"엔비디아 비켜"...MS, 11개월 만에 사상 최고가로 시총 1위 탈환

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현