• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
인공지능
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 연구소'통합검색 결과 입니다. (81건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

애플 AI 핵심 인력, 또 메타로 떠났다…"벌써 6명째"

메타가 애플의 인공지능(AI) 부서에서 또 한 명의 연구원을 영입하며 7주 만에 여섯 번째 애플 출신 AI 전문가를 확보했다. 애플은 AI 인재 유출이 이어지며 내부 위기감이 점차 높아지는 분위기다. 22일 블룸버그통신에 따르면 메타는 최근 애플에서 AI 분야 핵심 임원인 프랭크 추를 '초지능 연구소(Superintelligence Labs)'에 합류시켰다. 추 연구원은 애플 AI팀에서 클라우드 인프라, 트레이닝, 검색 분야를 이끌어 온 인물로, 시리(Siri) 음성 비서와 엔터테인먼트 서비스용 검색 기능 개발에 참여했다. 또 애플 AI 인프라를 총괄하는 임원인 브누아 듀팽의 오른팔 역할도 했다. 듀팽은 애플의 AI 전략 책임자인 존 지아난드레아에게 그의 이직 사실을 보고했다. 이번 인사는 애플에서 메타로 이직한 여러 동료들을 따른 것으로, 메타는 최근 애플의 AI 모델팀 책임자도 영입한 바 있다. 현재까지 메타로 최근 이직한 애플 AI 인재는 최소 6명으로, 지난 7월 루오밍 팡을 시작으로 AI 엔지니어 톰 건터, 마크 리, 보웬 장, 윤 주 등도 메타로 이미 자리를 옮겼다. 이 중 루오밍 팡은 애플의 AI 모델팀을 창설한 인물로, 메타에서 2억 달러(약 2천700억원) 규모의 보상 패키지를 받은 것으로 알려졌다. 메타에서 추 연구원은 AI 인프라를 담당하는 새로운 팀인 'MSL 인프라'에서 근무하게 된다. 메타는 이번 주 초 AI 팀을 4개 부문으로 재편했으며 스케일 AI 전 최고경영자(CEO)인 알렉산더 왕이 총괄한다. 메타는 최근 채용 동결을 선언했음에도 불구하고 추 연구원을 영입해 더 주목 받는다. 지난주부터 채용 중단 조치에 나섰으나, '최고 AI 책임자'로 영입된 알렉산더 왕이 승인하면서 추 연구원은 예외적으로 영입된 것으로 분석됐다. 메타는 사업 핵심 역할을 할 인재는 꾸준히 영입시킬 계획이라고 밝힌 바 있다. 올해 메타는 주요 AI 기업 중에서도 인재 영입 전쟁을 가장 빠르게 주도해 왔다. 메타는 주요 연구원들에게 수억 달러의 급여 패키지를 제시하고 스타트업의 핵심 리더를 빼내는 이른바 '역 재능인수(reverse acqui-hire)'를 활용해 인재를 영입했다. 이는 지난 4월 개발한 대규모언어모델(LLM) 라마가 기대에 미치지 못한 것이 컸다. 이에 마크 저커버그 메타 최고경영자(CEO)는 AI 인재 영입에 직접 나섰다. 그는 오픈AI, 구글 딥마인드 등 연구소 직원들을 이메일과 왓츠앱을 통해 접촉했으며 일부 경우 총 1억 달러(약 1천400억원)에 달하는 연봉을 제안했다. '싱킹 머신스 랩'의 공동 창업자인 앤드루 툴로치의 경우 15억 달러(약 2조 원)를 제안받았지만 거절했다. 이번 일로 애플은 더 큰 위기를 맞게 됐다. 이미 AI 사업에서 뒤처졌다는 평가를 받고 있는 상황에서 핵심 인력까지 메타에 줄줄이 빼앗기고 있어서다. 블룸버그통신은 "이번 인력 유출은 애플에게 또 다른 혼란을 가져왔다"며 "경영진 개편 이후 애플이 자체 기술 대신 타사 AI 모델을 시리에 적용하는 방안을 검토하게 되면서 애플 AI 모델팀에 충격을 줬고 결국 인재 유출로 이어졌다"고 짚었다.

2025.08.22 16:40장유미

메타버스에 AI 붙였더니…"제조·국방·교육 산업 대전환"

인공지능(AI)과 메타버스 기술 융합이 새로운 산업 모델 창출과 사회 구조 변화에 영향 미칠 것이란 전망이 나왔다. 20일 소프트웨어정책연구소(SPRi) 보고서에 따르면 AI와 메타버스가 게임을 비롯한 교육, 제조 등 여러 산업에서 실증적 성과를 내고 있는 것으로 분석됐다. SPRi는 AI가 메타버스에서 사용자 행동을 분석하고, 실시간 콘텐츠를 자동 생성하는 데 중요한 역할을 한다고 설명했다. 메타버스는 사용자 데이터와 가상 시뮬레이션 환경을 통해 AI 학습을 가속한 것으로 전해졌다. 보고서는 이같은 현상이 시기별로 다른 양상을 보일 것으로 봤다. 단기적으로 생성형 AI 기반의 3D 콘텐츠 제작과 개인화 경험이 메타버스 혁신을 이끈다고 전망했다. 중기적으로는 AI 인터페이스 확장과 메타버스 기반 AI 훈련 환경의 고도화가 본격화되고, 장기적으로 현실과 가상의 융합이 사회 전반에 일상화될 것으로 예측되고 있다. 실제 AI와 메타버스가 융합된 사례도 등장하고 있다. 로블록스는 '큐브3D'를 텍스트 입력만으로 3D 콘텐츠를 제작할 수 있는 기능을 제공하고 있다. 유니티와 어도비는 생성형 AI로 그래픽을 비롯한 사운드, 애니메이션 제작 효율성을 높였다는 평을 받고 있다. 메타 '호라이즌 월드'는 사용자 기록을 반영한 맞춤형 공간을 설계하고 있다. 산업 현장에서도 AI-메타버스 융합은 빠르게 확산 중이다. 종근당은 천안 공장을 가상화한 '메타버스 디지털 팩토리'를 구축해 AI 품질 예측으로 의약품 제조 공정을 최적화했다. 현대자동차는 메타버스 기반 제조혁신 플랫폼을 통해 설치 시간을 75% 줄였으며, BMW는 가상공간 시뮬레이션으로 공장 구축 속도를 높이고 있다. 국방과 교육 분야에서도 적용이 확대되는 추세다. 미군은 확장현실(XR) 기기와 AI 기반 지휘통제 시스템을 결합한 훈련 체계를 개발 중이다. 국내에서는 VR 비행훈련 과정에 AI 강사를 도입해 몰입형 교육을 실현했다. 또 '메타포레스트' 같은 심리 상담 서비스는 AI 표정 인식 기술을 적용해 정서적 교감이 가능한 상담 환경을 구현했다. 보고서는 기업과 정부의 역할도 강조했다. 우선 기업은 융합 기술을 개발하고 산업별 맞춤형 서비스와 수익 모델을 발굴해야 한다는 주장이 제기됐다. 정부는 저작권·책임 소재 등 제도적 기반을 정비하고, 인력 양성·공공분야 적용 사례를 확대해야 한다는 의견도 나왔다. SPRi는 "AI와 메타버스 융합은 기업의 기술 혁신과 정부의 제도적 지원을 통해 상호 보완적으로 발전할 수 있다"며 "특히 교육과 소방, 국방 등 공공분야에서 기술 융합 활용 사례를 우선 창출할 필요가 있다"고 밝혔다.

2025.08.20 17:52김미정

NIA-AI 안전연구소 '맞손'…"AI 폭주 막는다"

정부가 국내 거대언어모델(LLM)의 안전성과 신뢰성을 정량적으로 검증하기 위한 데이터셋 구축에 착수했다. 인공지능(AI) 모델의 위험 요소를 평가해 글로벌 AI 거버넌스 논의에서 주도권을 확보하려는 전략이다. 한국지능정보사회진흥원(NIA)과 과학기술정보통신부는 지난 7일 NIA 서울사무소에서 'LLM 안전성 및 신뢰성 평가 데이터셋 구축' 사업 착수보고회를 개최했다고 8일 밝혔다. 이날 보고회에는 과기정통부와 NIA를 비롯해 사업 수행기관인 AI 안전연구소 관계자들이 참석해 사업 방향을 논의했다. 이번 사업의 핵심은 총 2만 건 이상의 한국어 특화 벤치마크 데이터셋을 구축하는 것이다. 해당 데이터셋은 ▲사이버 보안 ▲AI 자율성 ▲사실 기반 정확성 ▲사회적 가치 편향 등 AI 안전성의 핵심 항목을 포괄한다. 이번 평가 기반은 과기정통부와 NIA가 추진 중인 '독자 AI 파운데이션 모델 프로젝트'를 통해 개발될 AI 모델의 성능을 검증하는 데 우선 활용될 예정이다. 이를 통해 독자 AI 모델의 완성도를 높이고 잠재적 위험을 사전에 차단한다는 방침이다. NIA는 그동안 AI 허브를 통해 1천300여 종의 대규모 AI 학습데이터를 구축하고 AI 바우처 사업으로 중소기업의 AI 도입을 지원해왔다. 이번 사업으로 기존의 성능 평가를 넘어 안전성과 신뢰성까지 아우르는 종합 평가 체계를 마련하며 국내 AI 생태계 발전을 이끈다는 평가다. 김명주 AI 안전연구소 소장은 "이번 사업은 단순 성능 비교를 넘어 AI가 우리 사회에서 신뢰받는 기준을 세우는 첫 시도"라며 "공정하고 객관적인 평가체계를 만들어 국내외 AI 신뢰성 생태계를 선도하겠다"고 말했다. 황종성 NIA 원장은 "AI 안전성 평가는 선택이 아닌 필수가 된 시대"라며 "축적한 데이터와 전문성을 총동원해 세계 최고 수준의 AI 안전성 검증 체계를 구축하고 대한민국이 글로벌 표준을 선도하도록 할 것"이라고 강조했다.

2025.08.08 14:35조이환

정부가 '국가대표 AI' 프로젝트 성공적으로 추진하려면?

정부의 '독자 인공지능(AI) 파운데이션 모델' 프로젝트가 성공적으로 이뤄지기 위한 방안을 논의하는 장이 열린다. 한국학중앙연구원 AI사회연구소는 오는 5일 한국포스트휴먼학회, 경남대 교양교육연구소와 공동으로 '한국 소버린 AI포럼' 제4회 콜로키움을 통해 이같은 논의를 진행한다고 4일 밝혔다. 이날 국민대 강승식 AI학부 교수가 국내 생성형 AI 기술의 성능과 오픈소스 전략, 소버린AI 실현 조건에 대해 발표할 예정이다. 강 교수는 발표에서 생성형 AI의 성능적 한계를 짚으며, 외산 초거대 모델에 과도하게 의존할 경우 금융, 의료, 행정, 법률 등 일상 기반 산업 전반이 외부 기술에 종속될 수 있다고 경고할 예정이다. 그는 소버린 AI가 국가 운영의 핵심 인프라로 작동하려면 자국 기술과 인력 기반이 반드시 필요하다고 강조할 방침이다. 강 교수는 소버린 AI의 기술적 실현을 위해 프롬프트 엔지니어링, 강화학습 기반 피드백, 설명 가능한 AI, 지식 검색 통합 등 신뢰도 향상 기법을 소개한다. 이어 복잡한 작업을 자율적으로 처리하는 AI 에이전트 개념도 미래형 AI의 주요 방향으로 짚는다. 이날 한국형 소버린 AI의 실질적 실현을 위한 전략도 제시된다. 핵심 분야 우선 집중, 자체 인프라 구축, 기술 연구 강화, 산학연 생태계 조성에 대한 논의가 진행될 예정이다. 강 교수는 특히 인재와 기술의 구조적 부족을 소버린 AI의 가장 큰 장벽으로 지목한다. 국내 AI 연구는 응용 중심으로 편중돼 있으며, 알고리즘 아키텍처나 AI 반도체처럼 경쟁력을 좌우하는 핵심 기술은 선진국보다 3~4년 뒤처져 있다는 설명이다. 연구 성과를 SCI급 논문 편수로만 평가하는 제도도 문제로 지적할 예정이다. 강 교수는 단기 실적 중심의 연구 문화가 초거대 AI처럼 장기 협업이 필요한 프로젝트를 억제하고 있다고 본다. 강 교수는 "국가 차원의 평가 시스템 개선이 선행돼야 한다며 "실용성과 산업 파급력이 검증된 진짜 AI 제품으로 이어지지 않으면 소버린AI의 취지도 무색해질 수 있다"고 강조했다.

2025.08.04 16:45김미정

[AI는 지금] '속도전' 넘어 '신뢰' 경쟁…AI, 보이지 않는 안전벨트 맨다

전 세계가 인공지능(AI) '속도전'에 몰두하는 사이 한국이 '안전'이라는 카드를 꺼내 들었다. AI 안전연구소가 신뢰성의 컨트롤타워로서 정책을 이끌고 네이버·LG 등 민간 기업들은 개발 현장에서 자체 안전망을 촘촘히 구축하는 '투트랙' 전략이다. 30일 업계에 따르면 AI 기술 경쟁이 격화하며 안전 논의가 뒷전으로 밀리고 있다는 우려가 나온다. 미중 기술 패권 경쟁이 '개발 가속'을 부추긴 탓이다. 이런 흐름에 맞춰 AI 안전 논의를 이끌던 주요국들의 행보도 달라졌다. 실제 영국은 올해 초 AI안전연구소를 AI보안연구소로 개편했다. 미국 역시 지난달 '미국 AI 안전연구소'를 'AI 표준 및 혁신 센터(CAISI)'로 전면 재편하며 정책의 무게추를 기술 표준 선점과 산업 경쟁력 강화로 옮기는 듯한 모습을 보였다. 반대로 국내에서는 안전과 신뢰가 단기적인 속도 경쟁을 넘어서는 장기적인 성공의 핵심 가치라는 인식이 상대적으로 유지되고 있다. 당장의 성능 과시보다는 신뢰할 수 있는 AI 생태계를 먼저 구축하는 쪽이 결국 시장의 최종 승자가 될 것이라는 판단이다. 韓 안전 컨트롤타워 'AI안전연구소'…'셰르파' 역할 자처 국내 AI 안전과 신뢰성 확보의 컨트롤타워는 AI안전연구소다. 지난해 11월 전자통신연구원(ETRI) 산하로 출범한 연구소는 국가 AI 정책을 지원하고, 기술 발전의 잠재적 위험을 해결하는 임무를 맡는다. 연구소 조직은 크게 세 축으로 나뉜다. ▲AI안전정책 및 대외협력실(정책) ▲AI안전평가실(평가) ▲AI안전연구실(기술)이다. 연구소는 이 세 조직의 유기적인 협력을 통해 AI 안전과 산업 경쟁력 확보라는 '두 마리 토끼'를 잡는다는 목표다. 기업과의 협력도 활발하다. 연구소는 지난 3월 'MWC 2025'에서 국내 스타트업 셀렉트스타가 주최한 '글로벌 AI 레드팀 챌린지'를 후원하며 국내 기업의 기술력을 알리는 데 힘을 보탰다. 레드티밍은 AI의 취약점을 일부러 공격해 약점을 찾는 활동으로, 안전성 확보의 핵심 과정이다. 최근에는 LG전자와 손잡고 글로벌 규제 대응에 나섰다. 지난 6월 맺은 업무협약(MOU)은 LG전자의 제품·서비스 개발에 연구소의 안전성 전문 지식을 결합하는 것이 골자다. 이는 유럽연합(EU)의 'AI 법(AI Act)'처럼 구체화되는 규제 흐름에 민관이 함께 대응한다는 점에서 의미가 있다. 이러한 활동은 '신뢰성이 곧 경쟁력'이라는 연구소의 철학을 보여준다. 김명주 AI안전연구소장은 "인공지능(AI)은 이제 자본과 기술의 경쟁을 넘어 '신뢰성'이 핵심인 시대에 접어들었다"며 "결국 어느 기업의 AI가 더 믿을 수 있느냐가 관건이 될 것"이라고 강조했다. '신뢰' 경쟁력, 민간서 꽃핀다…개발 DNA부터 '안전' 심는 K-AI 기업은? AI 신뢰성이라는 과제는 민간의 자발적인 노력과 만나 시너지를 내고 있다. 특히 정부의 '독자 AI 파운데이션 모델' 프로젝트에 참여한 기업들은 성능 경쟁을 넘어 믿을 수 있는 AI를 확보하는데도 주력하고 있다. 그 시작은 AI의 '원유'로 취급받는 학습 데이터 단계에서부터다. 업스테이지의 '1T 클럽'이 대표적이다. 1T 클럽은 1조 개 토큰 규모의 고품질 데이터를 공동으로 수집하고 공유하는 플랫폼으로, 업스테이지는 이를 통해 확보한 데이터를 '사람 중심, 신뢰성, 공정성' 등 5대 윤리 원칙에 기반해 정제하며 AI의 첫 단추를 꿰고 있다. 모델 개발 단계에서도 정교한 '컨트롤타워'가 가동된다. 네이버가 운영 중인 'AI 안전 프레임워크(ASF)'가 주요 예시다. 실무진이 모델의 잠재적 위험을 논의하고 '리스크관리워킹그룹'이 이를 평가해 최종적으로 이사회에 보고하는 방식의 다층적 거버넌스를 갖췄다. 카카오, SK텔레콤, KT 역시 구체적인 조직과 원칙을 마련했다. 카카오는 '그룹 기술윤리 소위원회'를 신설해 리스크를 사전에 점검하고 SK텔레콤은 '사람을 향한 AI'라는 의미를 담은 'T.H.E. AI' 거버넌스 원칙을 수립했다. KT 역시 '책임감 있는 인공지능센터'를 설립해 개발 초기부터 윤리성을 관리한다. LG AI연구원은 한발 더 나아가 학습 과정에서 생기는 '편향 뉴런'을 기술로 찾아 제거하는 방법론을 개발했다. 모델의 내재적 공정성을 높이려는 시도다. AI 모델이 완성된 후에도 신뢰도를 높이기 위한 '담금질'은 계속된다. 네이버는 '레드티밍'을 통해 AI의 약점을 의도적으로 공격하고 여기서 확보된 유해한 응답 데이터를 다시 모델 학습에 이용해 방어력을 키우는 방식을 활용한다. 업계 관계자는 "안전은 당장에는 비용처럼 보여도 글로벌 AI 규제에 선제적으로 대응하는 무형 인프라"라며 "AI 신뢰성 조차도 하나의 산업으로서 보고 접근해야 기업이 성공할 수 있을 것"이라고 말했다.

2025.07.30 15:27조이환

[현장] "연산은 빠르게, 정보는 안전하게"…주목받는 '온디바이스 AI'

최근 인공지능(AI) 기술이 클라우드 기반을 넘어 기기 내에서 직접 학습과 추론을 수행하는 온디바이스 AI로 빠르게 진화하고 있다. 정부 역시 AI 분야의 연구개발(R&D)과 기술 지원을 강화하는 가운데 이런 흐름을 반영한 기술 전문 세미나가 열렸다. 산업교육연구소는 23일 서울 구로구에 위치한 연구소에서 '최신 온디바이스 AI 신기술 개발과 실증 사례 및 주요 이슈 세미나'를 개최하고 기기 내에서 생성형 AI를 효율적으로 구현하기 위한 국내외 R&D 현황을 공유했다. 이번 세미나에서는 온디바이스 AI 기반의 최신 기술 동향부터 모빌리티·휴머노이드·국방 등 분야별 적용 사례가 발표됐다. 이날 첫 연사를 맡은 한국전자기술연구원 이석준 선임은 온디바이스 AI의 필요성과 구현 방안을 하드웨어·소프트웨어·모델 세 가지 축으로 나눠 설명했다. 특히 최근 화두가 된 생성형 AI 모델과 온디바이스 환경의 접점을 중심으로 기술적 과제와 최적화 전략을 소개했다. 이석준 선임은 "온디바이스 AI가 주목받는 이유는 명확한데 대용량 데이터의 실시간 처리, 개인정보보호, 네트워크 의존도 감소 등 기존 클라우드 기반 AI가 지닌 한계를 보완하기 때문"이라며 "특히 자율주행차· 드론·스마트팩토리 등 미세한 지연도 치명적인 산업 현장에서 온디바이스 AI가 실질적 대안이 될 수 있다"고 말했다. 이어 그는 생성형 AI 모델의 온디바이스 실행을 위한 기술적 난제들을 짚었다. 생성형 AI는 입력 길이가 가변적이고 연산량이 크기 때문에 기존의 딥러닝 방식인 'CNN' 기반 AI에 비해 더 많은 메모리와 연산 리소스를 요구한다. 이로 인해 기존의 신경망처리장치(NPU) 구조만으로는 효율적인 처리가 어렵다는 설명이다. 이를 극복하기 위한 방안으로 이 선임은 모델 경량화 방법인 가지치기·양자화·지식증류와 어텐션 최적화, 아키텍처 효율화 기법을 소개했다. 이 선임은 "80억개 미만 파라미터를 갖는 경량 모델이 온디바이스 생성형 AI의 현실적 타깃"이라며 "모델을 작게 만들되 정확도를 유지하기 위한 다양한 시도가 이어지고 있다"고 설명했다. 아울러 그는 국내외 온디바이스 AI 업체들의 기술 동향도 발표했다. 삼성전자는 갤럭시S 시리즈에 구글 제미나이 나노와 이미지 생성 모델을 탑재하며 모바일 온디바이스 AI 구현을 선도하고 있다. 딥엑스·모빌린트·오픈엣지테크놀로지 등 국내 스타트업들도 엣지 환경을 고려한 초저전력 NPU 및 시스템 온 칩(SoC)을 개발 중이다. 해외에서는 애플·퀄컴·미디어텍·NXP·헤일로 등이 스마트폰과 임베디드 기기를 겨냥한 고성능 AI 가속기를 선보이고 있다. 이 중 헤일로는 실제 구매 가능한 온디바이스 생성형 AI용 NPU 제품을 출시하며 주목받았다. 온디바이스 실행이 가능한 경량 언어·멀티모달 모델들도 다양하게 소개됐다. ▲메타의 라마3-8B ▲마이크로소프트의 파이-4-미니 ▲미스트랄AI의 미스트랄-7B 등 텍스트 전용 모델은 물론, 이미지와 음성까지 처리 가능한 ▲허깅페이스의 스몰VLM2 ▲구글의 젬마 3n ▲알리바바의 큐원2.5 옴니 등도 언급됐다. 이 선임은 "온디바이스 생성형 AI는 단순히 연산을 줄이는 기술이 아니라 산업 현장에서 비정형 상황을 이해하고 대응할 수 있는 게 핵심 역량"이라며 "미래의 IoT와 스마트 기기가 사람처럼 적응하고 판단하기 위해 반드시 넘어야 할 기술적 관문"이라고 강조했다.

2025.07.23 16:56한정호

박성현 리벨리온 대표, AI 생태계 구축 방안 제시

한국과학기자협회(회장 이은정)는 16일 서울 한국과학기술회관 대회의실에서 과학적 사회 이슈를 점검하는 '2025 과학기자대회'를 개최한다. 올해 주제는 세션 2개로 나눠 인공지능(AI)과 기후 문제를 다룬다. 과학·의학계와 언론인, 일반 국민으로부터 논의 아이디어를 공모한 결과 총 541명에 1천 63건(기후위기/환경 632건, 의과학 431건)이 접수됐다. 세션 1은 'AI 주권정부 정책 톡(Talk)-새 정부 비전을 중심으로'라는 주제로 열린다. 이재명 정부가 강조하는 '소버린 AI(Sovereign AI, 주권형 인공지능)' 정책 방향성과 산업 전략을 집중 조명한다. 첫 발표는 박성현 리벨리온 대표가 맡았다. 박 대표는 'AI 반도체 산업계, 새로운 정부에게 바란다'를 주제로 최근 리벨리온이 개발한 AI 반도체 '아톰(ATOM)' 공개와 함께 민간 기술 역량과 정부 지원이 조화를 이루는 생태계 구축 방안을 제언할 예정이다. 이어 서울대학교 전기정보공학부 윤성로 교수가 '학계의 시각에서 본 AI 생태계 육성 정책 방향', 한국전자통신연구원(ETRI) 유원필 인공지능창의연구소장이 'AX 대전환 시대의 R&D 전략'을 주제로 발표한다. 패널토론은 머니투데이 미래산업부 류준영 차장을 좌장으로 대구경북과학기술원(DGIST) 박경준 피지컬AI 전략추진단장과 연합뉴스 테크부 조승한 기자가 참여패널로 참여한다. 세션 2는 '온난화 마지노선 1.5도 이후의 기후 저널리즘'을 주제로 열린다. 7월 초부터 40도에 이르는 극한 폭염이 나타나는 등 기후위기가 현실로 다가온 상황에서 언론의 역할이 어떻게 변해야 하는지에 대해 심도 있게 논의한다. 중앙일보 환경전문기자를 지낸 강찬수 환경신데믹연구소장 겸 환경운동연합 공동대표가 첫 주제 강연자로 나서 '설루션 저널리즘(Solutions Journalism)'을 기후 보도의 새로운 대안으로 제시할 계획이다. 이어 넥스트 윤지로 미디어총괄이 'T의 딜레마'를 제목으로 주제발표한다. 세계일보 환경팀장을 지낸 윤 총괄은 기후변화가 과학·환경 이슈를 넘어 에너지·산업·금융 등 다양한 영역으로 확장되면서 전문성과 대중성 사이에서 갈등할 수밖에 없는 언론의 현실을 진단할 예정이다. 패널토론은 신방실 KBS 기상전문기자가 좌장을 맡아 진행한다. 신우열 전남대 미디어커뮤니케이션학과 교수와 정수종 서울대 환경대학원 교수, 신혜정 한국일보 미래기술탐사부 기자, 천권필 중앙일보 정책사회부 기자가 토론자로 참여한다. 이은정 회장(KBS 기자)은 “이번 행사 주제공모는 지난해에 비해 참여율이 18%나 증가하고 사전질문도 전년도 대비 배 가까이 늘었다"고 말했다. 이 회장은 또 “우리 미래를 결정할 AI와 기후위기 두 개의 큰 주제에서 다양한 전문가와 현장 기자 논의가 가슴에 와 닿을 것으로 기대한다"며 "정부 과학·환경·기술 정책에 실질적인 도움이 될 것"이라고 덧붙였다. 이 행사는 과학기술정보통신부, 복권위원회, 한국과학창의재단, 한국언론진흥재단 등이 후원한다.

2025.07.14 18:34박희범

모두의연구소, 탑티어 AI 논문 70편 돌파…"민간 지원만으로 해냈다"

모두의연구소가 탑티어 인공지능(AI) 학회 진입 장벽을 낮추는 개방형 연구 생태계 모델의 가능성을 증명했다. 소속이나 학위보다 연구 의지만을 조건으로 삼는 구조가 독립 연구자에게도 세계적 수준의 성과를 가능하게 한다는 점에서 주목받고 있다. 모두의연구소는 최근 '오픈 모듈랩스 데이'에서 자체 연구 플랫폼을 통해 국제 주요 학회에 총 100편의 논문을 발표했다고 13일 밝혔다. 이 중 70여 편은 뉴립스, 아이클러, 아이씨엠엘, 에이에이에이아이, 씨브이피알 등 최상위 AI 학회에 채택된 것으로 확인됐다. 이 조직은 지난 10년간 총 1천22개의 연구모임과 1만명이 넘는 참여자를 지원해 왔다. 모두의연구소는 이 같은 성과의 배경으로 커뮤니티 중심의 연구 문화와 전방위적 인프라 지원 체계를 꼽는다. 별도 비용 없이 제공되는 연구 공간과 그래픽처리장치(GPU) 서버, 커뮤니티 기반 랩 활동이 대표적이다. 또 논문 채택 시 최대 200만원을 지원하는 '페이퍼샵' 제도는 연구를 생활로 유지할 수 있는 기반으로 작동하고 있다. 오픈 모듈랩스 데이는 연구원들이 논문을 사전 발표하고 각 분야 전문가로 구성된 '패컬티'로부터 피드백을 받는 행사다. 행사에선 멀티모달 인터랙션, 내러티브 평가 자동화, 고기능 거대언어모델(LLM) 평가 프레임워크 등 최신 연구 주제가 소개됐다. 서울대, 국가수리과학연구소 등 소속 전문가 8명이 직접 연구 피드백에 참여했다. 모두의연구소의 패컬티 제도는 논문 지도, 1대1 멘토링, 투고 전략까지 전반을 아우른다. 해당 제도는 박사급 경력자, 주요 학회 경험자를 기준으로 구성된다. 현재 모두의연구소 산하에는 51개의 활성 랩이 운영 중이며 이 중 해례랩은 한국어 특화 AI 연구로 주목받고 있다. 해례랩은 LLM 한국어 벤치마크 및 평가 기준 수립 등 독자적 연구를 이어가며 지금까지 8편의 논문을 페이퍼샵을 통해 게재했다. 김승일 모두의연구소 대표는 "논문 100편 달성은 개방성과 시스템, 연구자의 노력이 만든 결과"라며 "향후 다양한 배경의 연구자들이 성과를 낼 수 있도록 지원을 이어가겠다"고 밝혔다.

2025.07.13 06:48조이환

"최고 1억 달러"…깜짝 베팅에 AI 인재 '블랙홀' 된 메타, '이 사람'도 갔다

우수한 인공지능(AI) 인재 영입에 열을 올리고 있는 메타가 인간을 뛰어 넘은 '초지능' 연구소 설립을 위해 오픈AI 연구원들에 이어 세이프 수퍼인텔리전스(SSI) 공동 창업자까지 품었다. 최신 AI 모델이 시장의 실망을 한 몸에 받자 '초지능' 프로젝트로 재기를 노리며 우수 인력 투자에 적극 나선 결과다. 4일 블룸버그통신에 따르면 다니엘 그로스 SSI 전 최고경영자(CEO) 겸 공동 창업자는 최근 메타가 새롭게 세운 '초지능 연구소'에 합류해 AI 제품 개발을 담당하게 됐다. 그로스는 오픈AI 공동 창업자인 일리야 수츠케버와 함께 지난해 AI 스타트업 SSI를 설립한 인물로, 지난 달 29일 SSI를 떠났다. 이후 수츠케버는 다니엘 레비 신임 사장과 함께 SSI의 새로운 CEO로 선임됐다. 마크 저커버그 메타 CEO는 한 때 SSI 인수를 시도했지만, 수츠케버의 거절로 무산됐다. 이후 저커버그 CEO는 그로스를 초지능 연구소로 영입하는 것으로 방향을 틀었다. 또 AI 부서를 재편해 인간 수준의 역량을 맞추거나 초과하는 AI 기술인 '슈퍼인텔리전스' 개발을 위해 오픈AI, 구글 딥마인드, 앤트로픽 등에서 최고의 인재를 영입했다. 최근 몇 주 사이 메타의 초지능 연구소에 합류한 최상위급 AI 연구자는 11명 이상인 것으로 파악됐다. 이에 최근 들어 메타에 인재를 대거 빼앗긴 샘 알트먼 오픈AI CEO는 지난 주 한 팟캐스트에 출연해 메타가 자사 엔지니어들에게 이직 시 최고 1억 달러(1천365억원)의 보상 패키지로 영입을 시도했다고 전하며 "미친 짓"이라고 비판했다. 그러면서 "메타가 오픈AI 직원 여러 명에게 이 같은 제안을 했으나, 현재까지 누구도 제안을 받아들이지 않았다"고 말했다. 하지만 메타는 오픈AI 연구원 8명을 영입하는 데 성공했다. 오픈AI 핵심 연구원인 트라핏 반살이 대표적으로, 반살은 오픈AI 첫 추론 모델인 'o1' 개발 작업에서 중요한 역할을 했다. 이번에 합류한 그로스는 SSI를 공동 창업하기 전까지 냇 프리드먼 전 깃허브 CEO와 함께 기술 투자자로 활동하기도 했다. 프리드먼도 현재 메타에 합류해 알렉산더 왕 전 스케일 AI CEO와 함께 초지능 연구소를 함께 이끌고 있다. 또 그로스는 지난 2013년 애플에 인수된 검색 엔진 스타트업 '큐'도 공동 창업했다. 2013년부터 2017년까지 애플에서 AI 및 검색 프로젝트를 주도했으며 와이 컴비네이터의 파트너로도 활동했다. 이 외에도 저커버그 CEO는 최근 데이터라벨링 스타트업 스케일AI 지분 49%를 회사 역사상 가장 큰 규모인 143억 달러, 우리 돈 19조원에 사들여 눈길을 끌기도 했다. 이를 통해 창업자이자 CEO인 알렉산더 왕을 합류시키는 데 성공했다. 블룸버그통신은 "저커버그 CEO는 오픈AI와 구글 등 경쟁사와의 AI 경쟁에서 우위를 점하기 위해 최고 인재 영입을 적극 추진해 왔다"며 "자신의 집에 잠재적 채용 대상자들을 접대하며 채용 활동을 직접 주도했다"고 말했다.

2025.07.04 09:19장유미

KT, 차세대 통신 기술 개발…'6G 시대' 선도

KT가 '시맨틱 통신' 연구 개발을 통해 6G 시대 글로벌 기술 리더십 확보에 나서겠다고 30일 밝혔다. 시맨틱 통신은 AI를 활용해 데이터가 가진 '의미'나 '맥락'을 이해하고, 핵심 정보만을 추출해 전달하는 차세대 통신 기술이다. 이는 사람이 서로 대화할 때 모든 음성 신호를 물리적으로 분석하지 않고도 핵심 의미를 파악해 소통하는 방식과 유사하다. 통신 업계에서는 시맨틱 통신이 6G 시대의 AI-네이티브 네트워크 구조를 실현하고, 완전 자율주행과 로봇 원격 제어, 실감형 홀로그램 통신 등 미래 서비스를 가능케 할 것으로 기대하고 있다. 이에 KT는 미래 통신 환경의 핵심이 될 시맨틱 통신의 기술적 중요성에 주목해 연구개발 역량을 집중해왔다. AI-네이티브 네트워크는 AI를 네트워크 구조에 본질적으로 통합한 차세대 통신 인프라를 의미한다. KT는 지난해 10월부터 영상·음성 통신 분야에 시맨틱 기술 내부 실증을 진행하고 있다. 그 결과, 기존 대비 현저히 낮은 데이터 전송량으로도 사용자의 체감 품질 저하 없이 원본의 의미를 전달하는 통신 서비스가 가능한 것을 확인했다. 시맨틱 통신이 상용화되는 경우에는 향후 네트워크 혼잡 구간이나 대역이 제한된 위성 통신에서도 고품질 미디어 서비스를 안정적으로 이용할 수 있을 것으로 기대된다. KT는 자체 연구뿐만 아니라 기술 개발 및 상용화를 가속하기 위해 세계적인 통신 기술 연구기관인 노키아 벨 연구소와 손을 잡았다. 양사는 올해 초 6G 시맨틱 통신 기술 협력 업무협약을 체결했으며, 지난 5월에는 미국 벨 연구소 본사에서 '6G & 시맨틱 통신 기술 워크샵'을 개최했고, 기술 비전과 로드맵을 공유하고 중장기 공동 연구 방향을 구체화했다. 양사는 이번 공동 프로젝트를 통해 ▲시맨틱 전송 알고리즘 개발 ▲앤드투앤드 성능 검증 및 실증 등을 수행하고 공동 연구 성과를 기반으로 6G 국제 표준화 기여와 글로벌 기술 생태계 주도에도 힘쓸 예정이다. 피터 베터 노키아 벨랩 코어리서치 총괄은 “노키아 벨랩은 시맨틱 통신 연구의 최전선에 있으며, KT와 협력을 통해 활용 사례를 검증하고 기술 상용화에 한 걸음 더 다가갈 수 있을 것이다”며 “지난 100년간 기술 혁신을 선도해 온 벨랩은 클로드 섀넌의 '비트' 개념이 탄생한 연구기관으로서, 시맨틱 통신을 통해 무선 네트워크에서 비트 전송의 효율성을 극대화하는 연구를 지속해 나가도록 하겠다”고 밝혔다. 이종식 KT 미래네트워크연구소장은 "통신 기술의 미래는 AI와의 융합에 있으며, 시맨틱 통신은 AI가 통신 기술과 결합하여 네트워크의 근본적인 역할을 재정의할 혁신적인 기술"이라며 "KT는 자체 연구 역량 강화와 더불어 벨 연구소와 같은 글로벌 최고 수준의 파트너와 적극 협력하여, 다가올 6G 시대의 기술 경쟁력을 확보하고 AICT 컴퍼니로서 고객 가치를 지속적으로 혁신해 나갈 것"이라고 강조했다.

2025.06.30 11:03진성우

미국 AI안전연구소, '혁신' 간판 달고 재출범…트럼프식 '규제 철폐' 본격화하나

미국 인공지능 안전연구소(AISI)가 간판을 바꿔 달았다. 트럼프 행정부의 'AI 혁신 우선, 안전 최소화' 기조에 따라 정부의 개입 방향도 규제와 검열에서 산업 경쟁력 지원으로 급선회한 모양새다. 5일 미국 상무부 홈페이지에 따르면 하워드 루트닉 상무장관은 대통령 지시에 따라 '미국 AI 안전연구소'를 'AI 표준 및 혁신 센터(CAISI)'로 전면 개편한다고 발표했다. AI 표준 및 혁신 센터는 기존에 AI 안전연구소가 위치했던 국립표준기술연구소(NIST) 산하에 유지되며 평가와 시험을 통한 AI 기술 경쟁력 확보에 중점을 둔다. 상무부는 AI 표준 및 혁신 센터를 통해 신속히 발전 중인 상업용 AI 시스템의 역량과 보안성을 분석하는 데 초점을 맞춘다. 국가안보를 명분으로 삼았던 기존 규제 관행은 철회하고 기술 혁신을 저해하지 않는 방향으로 AI 거버넌스를 전환하겠다는 입장이다. 센터는 민간 AI 기업과 자발적 협약을 체결해 비분류 상태의 AI 기술을 공동 평가하고 사이버 보안과 생물·화학 무기 등 실질적 위협에 집중해 평가를 수행한다. 여기에는 미국 내 기업뿐 아니라 적성국 기술의 위협성까지 포함된다. 외국산 AI 기술이 국내 시스템에 혼입될 경우를 대비해 백도어나 은폐된 악성 행위 등 보안 취약성 여부를 점검하는 역할도 맡는다. 미국 내 기술뿐 아니라 외국 기술의 수용 과정과 국제 경쟁 상황을 정기적으로 분석한다. 더불어 센터는 국방부, 에너지부, 국토안보부, 과학기술정책실, 정보기관 등과 협력해 평가 방법론을 정립하고 공동 평가를 수행하게 된다. 국제 협의체에서는 미국 기술에 불리한 규제를 견제하는 동시에 국제 AI 표준에서 미국의 주도권을 강화하는 데도 주력할 계획이다. 조직 운영은 기존과 마찬가지로 국립표준기술연구소 내부에서 진행되며 정보기술연구소를 포함한 다른 산하 조직 및 상무부 산업안보국과도 긴밀히 협력할 예정이다. 하워드 루트닉 상무장관은 "너무 오랫동안 검열과 규제가 국가안보라는 이름으로 기술 발전을 막아왔다"며 "CAISI는 미국의 상업용 AI 기술이 자율성과 안전성을 동시에 확보할 수 있도록 주도권을 갖고 평가할 것"이라고 밝혔다. 다만 실질적인 변화는 크지 않다는 시각도 있다. 기존 AI 안전연구소가 수행했던 기능과 역할은 그대로 두고 간판만 바꿨다는 점에서 조직 개편보다는 브랜딩에 가깝다는 평가다. 한 업계 관계자는 "이번 개편의 경우 이름만 바꾸고 하는 일은 동일한 것으로 보인다"며 "약자가 캐나다 AI 안전연구소(CAISI)와 같단 면에서 조금 결례인듯 하다"고 말했다.

2025.06.05 14:44조이환

새 정부 출범, 'AI 100조' 시대 열린다…AI 안전연구소 "G3 도약, 신뢰성 확보가 핵심"

"새 정부가 들어선 가운데 100조 규모의 인공지능(AI) 투자 공약이 조명되고 있습니다. 이같은 진흥책의 추진과 동시에 기술이 초래할 수 있는 리스크를 관리해야 산업의 지속성과 확장성이 확보됩니다. 미래 세대의 먹거리를 위한 철저한 안전 설계를 위해 적극적으로 지원하겠습니다." 김명주 AI 안전연구소장은 4일 경기도 판교 그래비티 조선 서울에서 열린 '2025 슈어 AI 테크 컨퍼런스'에 참가해 이재명 대통령 당선에 따른 연구소의 방향성에 대한 기자의 질문에 이같이 말했다. 이번 행사는 슈어소프트테크가 AI 검증 기술의 현재와 미래를 공유하고 산업 전반의 안전 및 신뢰성 확보 전략을 모색하기 위해 마련한 자리다. 김 소장에 따르면 한국 AI 연구소는 세계 여섯 번째로 출범한 AI 안전기관이다. 지난해 11월 국내에서 최초로 설립된 이 기관은 영국, 미국, 일본, 싱가포르, 프랑스 등 10여 개국이 운영하는 AI 안전연구소들과 함께 글로벌 위험 기준 마련과 평가 체계 구축을 위한 협력에 참여하고 있다. 이날 발표는 AI 산업의 변곡점을 만든 역사적 사건들에 대한 회고로 시작됐다. 김 소장은 지난 2023년 처음 등장한 '챗GPT'가 산업의 방향성을 근본적으로 바꿨다고 진단했다. 출시 두 달 만에 1억명 사용자를 돌파한 '챗GPT'는 초기엔 '검색엔진 종말론'을 불러올 정도의 파괴력을 보였고 이에 구글은 마이크로소프트(MS)와의 검색 점유율 격차 축소를 우려해 급히 '바드'를 출시하며 글로벌 기술 경쟁이 본격화됐다. 김 소장은 "이 과정에서 구글의 AI 부사장이자 딥러닝 창시자인 제프리 힌턴이 안전성을 우려해 사임했다"며 "당시 구글은 자체 개발한 '람다' 모델의 위험성을 인지하고도 경쟁에서 밀릴까 봐 결국 공개를 강행했다"고 말했다. 이어 "통제 수단 없이 기술을 출시한 결정은 거버넌스 부재 상태에서 진행되는 AI 개발의 한계를 보여준 사례"라고 분석했다. 이어 그는 AI의 잠재 리스크를 인식한 글로벌 과학자 그룹이 지난 2023년 '개발 중단 서한'을 발표했던 사례도 언급했다. 미래생명연구소(FLI)의 주도로 작성된 이 서한에는 일론 머스크, 유발 하라리 등 주요 인사가 참여했으나 실제 개발 중단으로 이어지지는 않았다. 다만 이 서한을 계기로 미국, 유럽, 한국에서 본격적인 AI 규제 입법이 추진되기 시작했다. 실제로 AI 리스크에 대한 실증적 접근은 확대되고 있다. 매사추세츠 공대(MIT)는 증거 기반 리스크 저장소(Risk Repository)를 통해 1천800개 이상의 사례를 유형별로 정리했다. 이 중 AI가 직접 야기한 사례는 전체의 34%에 달한다. 김 소장은 "이 자료를 바탕으로 한국형 리스크 분류체계를 세분화하고 있다"며 "이달 말 200~300개 항목의 1차 리스크 맵을 공개할 계획"이라고 밝혔다. 그는 영국 AI안전연구소가 최근 발표한 분류체계도 언급했다. 이 체계는 ▲기술적 결함(Malfunction) ▲악의적 활용(Misuse) ▲사회 구조적 영향(systemic Impact)으로 위험을 구한다. 이는 각각 AI 개발 오류, 사용자의 악의적 활용, 노동시장이나 정치 등 사회적 외부효과로 이어지는 위험을 뜻한다. 이 같은 글로벌 기준을 토대로 국내 AI안전연구소도 평가모델을 정비 중이다. 구체적으로는 리스크 맵 기반으로 모델을 개별 테스트하고 그 결과를 전문가나 AI가 자동으로 평가해 통합 보고서를 작성하는 프로세스를 도입한다. 이 보고서는 각 위험에 대한 정책적 기술적 완화 방안까지 제시한다. 실제 사례로는 지난 2월 연구소가 중국계 AI 모델 '딥시크'에 대해 긴급 대응한 사례가 소개됐다. 이 모델은 중국 사회주의 체제에 불리한 질문에 답변하지 않는 등 편향성을 드러냈으며 연구소는 이를 설 휴가를 중단한 후 즉시 분석해 과학기술정보통신부에 보고서를 제출했다. 보고서에는 편향 제거를 위한 기술적 보정 방안이 포함됐다. AI 안전 평가의 기준 역시 지속적으로 진화하고 있다. 기존 소프트웨어의 안전성 검증이 기능 성능 보장에 집중됐다면 AI 평가에서는 개발자의 의도와 상관없는 오용 가능성까지 고려한 '건전성' 개념이 확대되고 있다. 유럽연합은 이 개념을 '신뢰성(Trustworthiness)'으로 확장해 기술의 사회적 수용 가능성까지 평가 대상에 포함시켰다. 이에 따라 각국은 AI 인증 체계 구축에 속도를 내는 상황이다. 영국은 이를 위해 지난 2023년 세운 AI 안전연구소의 명칭을 올해 초 'AI 보안연구소'로 변경했다. 현재 미국, 프랑스, 싱가포르, 케냐 등도 자체 안전연구소를 통해 여러 사업을 추진 중이다. 대선이 끝나 이재명 대통령이 취임한 가운데 향후 AI 정책을 위한 제언에 대해 묻는 기자의 질문에 김 소장은 "AI 산업이 장기적 지속 가능성과 확장성을 확보하라면 진흥과 함께 리스크 관리가 병행돼야 한다"며 "이를 위해서는 안전 설계를 처음부터 고려해야 한다"고 말했다. 이어 "우리는 선제적으로 리스크 완화 방안을 제안해 철저히 지원할 계획"이라고 밝혔다. 김 소장은 지난해 AI안전연구소 초대 소장으로 부임해 오는 2027년까지 임기를 이어갈 예정이다. 연구소는 과학기술정보통신부와 대통령실 등 정부 유관 부처와 함께 리스크 완화 방안 마련을 위한 협업을 지속할 것으로 전망된다. 기업과의 협력도 병행 중이다. 최근 LG전자와 AI 안전을 위한 파트너십을 맺었으며 해외 주요 기업들과도 공동 평가 및 안전 기준 정립을 위한 협력을 추진하고 있다. 참여 기업들은 자사 AI 시스템의 신뢰성과 안전성을 확보하기 위해 연구소와 함께 검증 체계를 구축하고 있다. 김 소장은 "우리는 평가기관을 넘어 국내 AI 기업의 국제 경쟁력 확보를 위한 전략적 거점이 되고자 한다"며 "향후 국내 기업의 해외 진출 시 안전보고서를 통해 신뢰성을 높일 수 있도록 적극 지원하겠다"고 밝혔다.

2025.06.04 13:50조이환

생명연 조직개편...바이오파운드리 사업단 신설

한국생명공학연구원(원장 권석윤)이 AI R&D 지원을 강화하고, 바이오파운드리 사업단을 신설하는 내용의 조직개편을 단행했다. 생명연은 국가 과학기술정책 수요와 대내·외 환경변화에 능동적으로 대응하기 위한 조직개편을 다음 달 1일부로 단행한다고 밝혔다. 이번 조직개편은 기관 핵심분야 집중, 조직 정체성 재정립을 위한 연구조직 정비, 대내외 환경변화에 능동적ㆍ선제적 대응을 위한 조직체계 구축, 지원조직의 업무효율성 강화 등에 초점을 맞췄다. 최근 바이오와 AI의 융합이 신약개발, 정밀의료, 유전체 분석, 진단기술 등 전 분야 걸쳐 새로운 혁신의 물결을 일으키고 있는 트렌드를 중시, 기존 바이오의약연구부를 AI바이오의약연구소로 확대 개편했다. 또 따로 떨어져 있던 디지털 바이오센터를 AI바이오의약연구소로 이관했다. 대외협력본부도 신설, 국내외 연구개발 협력체계 고도화를 지원할 계획이다. 대외협력본부 산하에 글로벌 협력실도 신설했다. '바이오파운드리 인프라 구축 및 활용기반 구축사업' 주관기관인 생명연은 이 사업의 원활한 수행을 위해 '바이오파운드리사업단'도 신설했다. 권석윤 원장은 "바이오파운드리사업단은 성생물학 기술경쟁력 제고와 바이오제조 가속화 기반이 될 것"이라며 "핵심분야에 집중하고 조직 정체성을 재정립, 생명연을 가를 대표하는 전문연구조직으로 육성해 나갈 것"이라고 말했다.

2025.05.30 17:04박희범

과기정통부-AI 안전연구소, AI 주도권 전략 공개…"산업·리스크 동시 대응"

인공지능(AI) 기술이 국가 전략의 중심축으로 부상한 가운데 정부기관이 기술 리스크와 산업 경쟁력 양면을 짚는 자리가 마련됐다. AI 인프라 확충과 인재 육성에 나선 정부, 기술 신뢰성과 안전 기준을 제시한 연구기관 모두 '위험 관리'를 전제로 한 성장 전략에 공감대를 드러냈다. 국제인공지능윤리협회(IAAE)는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이날 행사에는 과학기술정보통신부(과기정통부)와 AI 안전연구소를 비롯해 LG유플러스, 주요 스타트업 등 공공과 민간 주요 주체들이 참여했다. 이날 공공부문 발표에서는 공진호 과학기술정보통신부 인공지능기반정책과장이 정부의 AI 육성 전략과 인프라 투자 방향을 설명했다. 이어 김명주 AI 안전연구소장이 기술 리스크 분류 체계와 글로벌 안전 기준 정립의 필요성을 짚었다. 과기부 "GPU·인재·모델 3축 강화…1.9조로 산업기반 재편할 것" 이날 '대한민국의 AI 정책 대응'을 주제로 발표에 나선 공진호 과학기술정보통신부(과기정통부) 인공지능기반정책과장은 글로벌 경쟁 환경에서 한국이 직면한 현실과 정부의 대응 전략을 짚었다. 공 과장은 발표 서두에서 딥시크 등장 이후 AI 패권 경쟁이 새로운 국면으로 접어들었다고 진단했다. 미국의 '스타게이트' 프로젝트, 유럽연합(EU)과 프랑스의 대규모 투자 발표, 중국의 기술 진보 등을 언급하며 글로벌 주도권 경쟁이 양적 확대를 넘어 질적 전환기에 접어들었다고 분석했다. 그는 "한국의 현주소를 두고 보면 미국과 중국 등 선도국과는 여전히 격차가 존재한다"면서도 "자체 모델 개발 수, 특허와 논문 성과 등을 고려할 때 싱가포르, 이스라엘, 프랑스 등과 함께 3위권 수준의 경쟁력은 확보하고 있다"고 평가했다. 이 격차를 좁히기 위한 첫 번째 대응으로 정부는 AI 컴퓨팅 인프라 확충에 나선다. 광주 AI 데이터센터를 중심으로 엔비디아 'H100' 그래픽처리장치(GPU) 416장을 확보해 임대 공급할 예정이며 민간 클라우드 자원까지 동원해 연내 총 1만 장 이상을 확보하겠다는 계획이다. 정부는 국산 AI 반도체 생태계 구축에도 힘을 싣는다. 퓨리오사, 리벨리온 등 국내 기업 중심으로 실증 프로젝트를 추진해 오는 2030년까지 국산 반도체 활용 비중을 절반 이상으로 끌어올리겠다는 목표다. 이와 함께 AI 인프라 투자에 대한 세제 혜택도 대폭 확대된다. 또다른 축은 차세대 모델 개발이다. '월드 베스트 거대언어모델(LLM)' 프로젝트를 통해 경쟁력 있는 팀을 선발하고 여기에 GPU, 데이터, 인재 등 핵심 자원을 집중 투입한다. 3년 내 글로벌 상위권 LLM을 확보한다는 목표다. 이와 연계해 AI 챌린지도 개최된다. 고급 인재 확보를 위한 전략도 제시됐다. 뉴욕대와 협력해 만든 '글로벌 프런티어 랩'을 시작으로 유럽과 중동으로 거점을 확대하고 실무형 인재 양성을 위한 이노베이션 아카데미와 AI 융합대학원 설립도 추진된다. 해외 우수 인재 유치를 위한 인센티브 설계도 병행된다. 산업 전환 지원도 주요 정책 중 하나다. 제조, 의료, 법률, 문화 등 다양한 분야에서 공공수요를 기반으로 AI 도입을 촉진하고 수요기업과 공급기업의 매칭을 통해 생태계를 활성화한다는 구상이다. 이를 위해 여러 부처와 공동으로 대규모 플래그십 프로젝트도 준비 중이다. 1조9천억원 규모의 AI 추경 예산에 대한 세부 집행 계획도 공개됐다. GPU 확보에 1조6천억원, 반도체 실증에 900억원, 정예팀 LLM 지원에 2천억원, 인재 육성 프로그램에 400억원, 벤처 캐피털(VC) 연계 펀드에 1천억원 등으로 세부 배분이 이뤄진다. 공진호 과기정통부 과장은 발표를 마치며 "내년에 시행되는 AI 기본법은 산업 진흥과 신뢰 확보를 균형 있게 담은 법안"이라며 "고영향 AI에 대한 고지 의무와 사업자 책임 등을 중심으로 한 규제 조항은 하위 법령에서 구체화될 예정"이라고 밝혔다. 이어 "업계 부담 최소화를 최우선으로 법령 설계를 진행 중"이라고 강조했다. AI 안전연구소 "AI 리스크 해소는 경쟁력…英과 보안 협력 확대한다" 이어 발표에 나선 김명주 AI 안전연구소장은 AI 기술의 위험성과 이를 둘러싼 국제적 대응 흐름을 짚으며 기술 안전성과 사회적 신뢰 확보의 필요성을 강조했다. 그는 AI 위험을 단순한 규제 이슈가 아닌 '글로벌 경쟁력의 조건'으로 봐야 한다고 봤다. 김 소장은 '챗GPT' 등장 이후 AI 기술의 파급력이 전통적 거대 기업의 질서를 뒤흔든 과정을 되짚으며 발표를 시작했다. 오픈AI가 만든 기술이 구글의 검색 패러다임을 위협한 사례를 통해 예측 불가능한 기술 변화가 산업과 정책의 균형을 흔들 수 있음을 경고했다. AI 시스템의 잠재적 리스크에 대한 국제적 분류 기준도 소개됐다. 김 소장에 따르면 EU는 시스템 위험 수준에 따라 AI를 구분하고 있으며 특히 'GPT-4' 수준의 고성능 모델은 '시스템 리스크'로 분류된다는 점에서 제도적 대응이 시급하다 그는 영국, 미국, MIT 등 주요 기관들의 리스크 정의도 언급했다. 단순한 기술적 오류를 넘어서 악용 리스크, 사회적 불평등 심화 등 다차원적 위험 요소가 존재하며 AI 리스크는 정량적 분석과 경험 기반 데이터 축적을 통해 관리돼야 한다는 것이다. 김 소장은 "우리 연구소 역시 '리스크 맵'을 구축하는 작업을 시행하고 있다"며 "MIT와 협업해 축적한 1천700여 개 사례를 기반으로, 기술·의도·사고 시점에 따른 분류 체계를 수립 중이며 이를 통해 구체적인 평가 도구와 안전 보고서를 생산하고 있다"고 설명했다. AI 평가 방식에 대해서도 언급됐다. 연구소는 물리적 제품, 임베디드 모델, 챗봇 등 다양한 형태의 AI에 대해 실제 사용 맥락에서 리스크를 분석하고 전담 인력이 결과를 검토하거나 AI 기반 평가 도구로 통합 평가를 수행하는 체계를 갖추고 있다. 특히 외국계 모델에 대한 검증 사례도 소개됐다. 중국 딥시크의 정치적 편향 사례를 예로 들어 불완전한 AI를 활용할 경우 발생할 수 있는 오용 가능성과 편향 전파 리스크를 지적하고 이를 중화시키는 파인튜닝 기법 등을 연구소가 제공하고 있다고 밝혔다. 이 과정에서 AI 개발사와 협약을 맺고 기밀 유지 하에 평가를 진행한다. 김 소장은 "우리는 '규제자'가 아닌 '조력자'로서의 역할을 수행한다"며 "국내 기업이 글로벌 수준의 안전 기준을 갖추고 기술 수출 경쟁력을 확보할 수 있도록 지원하는 기능에 방점을 찍었다"고 말했다. 향후 역할 확대 가능성에 대해서도 입장을 밝혔다. 영국 AI안전연구소처럼 '보안'과 '안보' 기능까지 포괄할지에 대한 기자의 질문에 김명주 AI 안전연구소장은 "지난번 파리 정상회담에서 영국 AI 안전연구소 측과 만나 들은 바에 따르면 이 조직도 인력 부족을 겪어 선택과 집중 중"이라며 "우리는 일단 안전이 가장 포괄적 개념으로, 명칭과 구조는 유지할 예정"이라고 말했다. 이어 "영국과 보안 분야 전략적 협력 추진 중으로, 내부적으로도 관련 인력 보강과 기능 확대를 계획하고 있다"고 밝혔다.

2025.05.27 17:21조이환

[현장] IAAE, AI 윤리 산업 컨퍼런스 개최…"기업, 안전 확보해야 경쟁력 따른다"

국제인공지능윤리협회(IAAE)가 기업 경쟁력 관점에서 인공지능(AI) 윤리를 조망하는 만남의 장을 열었다. 빅테크부터 스타트업, 공공기관까지 AI 시대의 생존 전략을 재정립하기 위해서다. IAAE는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 AI 세이프티 컴퍼스(ASC)' 컨퍼런스를 개최했다. 이번 행사는 내년 시행 예정인 AI 기본법을 앞두고 마련됐으며 과학기술정보통신부, AI 안전연구소(AISI), LG유플러스 및 주요 스타트업 등이 참여했다. 행사 주제는 '변화하는 AI 환경에서의 기업 경쟁력 확보'로, 단순한 법제 논의를 넘어 산업 현장의 실제 이슈를 다루는 데 초점이 맞춰졌다. 빅테크와 공공의 'AI 안전' 접근 방식이 충돌하는 상황에서 비영리 윤리기관이 조정자로 나섰다는 점에서 주목된다. 행사 운영은 테크 스타트업 PR 전문 에이전시인 팀쿠키가 맡았으며 프로그램은 공개 패널토론과 현장 사례 중심으로 구성됐다. 전창배 국제인공지능윤리협회 이사장은 이날 개회사를 통해 AI 기술과 산업 진흥이 차기 대통령 선거의 주요 공약으로 떠오른 상황에서 대부분 후보들이 'AI 강국'을 지향하고 있다는 점에 주목했다. 다만 기술 투자에 대한 공감대와 달리 AI 윤리와 안전에 대한 논의는 여전히 부족하다고 지적했다. 전 이사장은 "기술 투자에 반대할 사람은 없지만 윤리와 안전이 뒷받침되지 않으면 글로벌 시장에서 우리 경쟁력이 진정으로 인정받기 어렵다"며 "기술과 윤리는 어느 하나를 우열로 나눌 수 없는 문제"라고 강조했다. 그는 오픈AI, 구글, 앤트로픽 등 주요 글로벌 기업들이 AI 제품 출시 전 윤리 검증과 가치 정렬, 품질 검사를 철저히 거치는 사례를 언급하며 기술만 앞세운 접근 방식은 더 이상 유효하지 않다고 판단했다. 이어 올해 초 제정된 AI 기본법이 내년 1월부터 시행되는 만큼 정책의 실제 이행 여부가 기업 경쟁력에 직결될 것이라고 봤다. 전창배 IAAE 이사장은 "선거 이후 어떤 후보가 당선되더라도 AI 기본법의 원칙을 구체적 정책으로 연결해야 한다"며 "이번 행사가 정부와 산업계 모두에게 실질적 방향성을 제공하는 계기가 되기를 바란다"고 말했다. 이어 환영사를 진행한 임기태 팀쿠키 부대표는 지난해에 이어 올해도 행사를 후원한 이유에 대해 설명했다. 그는 협업을 통해 AI의 강력한 가능성을 직접 체감했고 그 과정에서 기술의 사회적 책임에 대한 고민도 깊어졌다고 밝혔다. 임 부대표는 "신뢰할 수 있는 AI란 무엇인가, 안전하면서도 유용한 AI를 구현하려면 어떤 원칙이 필요한가에 대한 논의의 장이 필요하다고 판단했다"며 "기술을 만드는 분들과 정책을 설계하는 분들 모두가 지속 가능한 AI에 대해 입체적이고 실질적인 이야기를 나누는 자리가 되길 바란다"고 말했다. 더불어 그는 팀쿠키가 IAAE와 업무협약을 체결하며 산업과 윤리 사이의 가교 역할을 자처해 왔다고 설명했다. 이번 컨퍼런스 역시 이 연장선에서 민간-공공, 기업과 학계가 머리를 맞대는 공동 논의의 장으로 기획됐다고 덧붙였다. 임기태 팀쿠키 부대표는 "공공, 기업, 학계 전문가들이 한자리에 모인 만큼 귀중한 인사이트를 나누고 건설적인 이정표를 함께 만들어나가는 계기가 되길 기원한다"고 강조했다.

2025.05.27 11:08조이환

인텔리콘연구소, 보고서 자동화 시장 '정조준'…국정원 보안도 '통과'

인텔리콘연구소가 기업 보고서 자동 생성 인공지능(AI) '딥리서치 울트라'를 선보였다. 기업 내부 문서와 외부 지식을 동시에 분석해 맞춤형 리서치를 지원하기 위함이다. 인텔리콘연구소는 공공기관, 로펌, 기업 대상 보고서 작성용 AI '딥리서치 울트라'를 개발했다고 14일 밝혔다. 이 기술은 자체 보유한 법률 추론 원천기술과 다단계 추론형 멀티 에이전트 기술을 결합해 만들어졌으며 외부 정보뿐 아니라 사내문서 기반 분석을 병행할 수 있는 것이 특징이다. 연구소는 '딥리서치 울트라'가 기존 오픈AI나 구글의 리서치 툴과 달리 기업 내부의 방대한 문서 자산과 규정, 정책, 법률자료 등을 바탕으로 리서치 보고서를 자동 생성할 수 있다고 밝혔다. 단순 웹 검색이 아닌 심층 문서 분석을 통해 보고서의 정밀도를 높였다는 설명이다. 이 솔루션은 인텔리콘의 문서 분석 솔루션 '도큐브레인'과 연동돼 사용된다. '도큐브레인'은 검색증강생성(RAG) 기반의 기업형 검색 시스템으로 대용량 문서에서 의미 있는 정보를 추출하는 기능을 제공하며 '딥리서치 울트라'와 함께 내부 정보에 특화된 리서치 결과를 생성할 수 있도록 돕는다. '도큐브레인'은 보안성 검증도 완료했다. 한국산업인력공단 도입 사례에서 국가정보원 보안 심사를 통과했으며 국무조정실 산하 기관의 보안 테스트와 모의해킹 절차도 모두 통과한 것으로 알려졌다. 인텔리콘 측은 이 같은 보안성 확보가 공공기관과 기업의 디지털 전환 리스크를 줄이는 데 기여할 수 있다고 설명했다. 이번 기술 출시는 인텔리콘이 리걸테크 영역에서 쌓아온 기술 역량의 연장선이다. 도큐브레인은 조달청 혁신제품으로 지정된 바 있으며 법률 문서 분석 특화 거대언어모델(LLM)로 기업과 공공기관의 문서 업무 자동화 수요를 충족시켜왔다. 임영익 인텔리콘연구소 대표는 "이번에 출시한 기업용 보고서 생성 AI는 단순한 정보 검색 도구를 넘어 기관 및 기업의 핵심 업무 효율성을 극대화하는 혁신적인 솔루션"이라며 "국정원 및 국무조정실의 보안 심사를 통과해 공공기관 및 기업들이 안심하고 사용할 수 있으며 '도큐브레인'과의 결합을 통해 문서 분석 및 보고서 생성 기능을 더욱 강화해 차별화된 가치를 제공할 것"이라고 밝혔다.

2025.05.14 13:04조이환

SPRI "생성형 다음은 행동형…피지컬 AI 패권경쟁, 韓 배제될 수 있다"

피지컬 인공지능(AI) 주도권 경쟁이 본격화된 가운데 한국은 여전히 기술·생태계·전략 모두에서 뚜렷한 준비가 부족한 상황이라는 연구결과가 나왔다. 글로벌 기술 패권이 '생성형 AI'에서 '행동하는 AI'로 이동하는 시점에 대응이 늦어지면 공급망 종속과 표준 종속이라는 이중 위협에 직면할 수 있다는 경고다. 13일 소프트웨어정책연구소(SPRI)가 발표한 '피지컬 AI의 현황과 시사점' 보고서에 따르면 '피지컬 AI'는 생성형 AI 기반의 언어·시각 모델에 센서와 액추에이터를 결합해 물리적 환경을 인지하고 행동까지 자율적으로 수행하는 시스템이다. 인간처럼 보고 듣고 움직일 수 있는 이른바 '실행형 AI'로, 휴머노이드·드론·자율주행차·이동형 로봇 등 산업·국방·물류 전 분야에 걸쳐 적용이 확산되고 있다. 기술의 핵심은 세 가지로, ▲거대언어모델(LLM)에 기반한 멀티모달 '파운데이션' 모델과 강화학습의 통합 ▲3차원 세계 모델링과 센서 융합 ▲엣지 기반 온디바이스 추론이다. 여기에 전용 AI 반도체, 초경량 LLM까지 더해지면서 생성형 AI와는 차원이 다른 기술 복합성이 요구된다. 세계 주요국은 이에 대한 대응을 본격화했다. 미국은 스타게이트 프로젝트를 통해 5천억 달러(한화 약 700조원) 규모의 피지컬 AI 인프라를 구축 중이며 오픈AI·테슬라·보스턴다이내믹스 등 민간 주도 생태계가 신속히 움직이고 있다. 중국은 자체 그래픽처리장치(GPU)와 AI 칩부터 드론, 자율주행 로봇까지 공급망 완결성을 높이고 있다. 일본은 '문샷 계획'을 통해 고령화 대체 로봇과 인간형 AI 기술을 동시 추진하고 있다. 반대로 한국은 핵심 기술의 국산화 수준이 낮다. 멀티모달 파운데이션 모델, 행동 특화 LLM, AI 엣지 반도체 등은 대부분 수입에 의존하고 있으며 월드 모델·센서 퓨전 기술은 기초 R&D 단계에 머물러 있다. 산업 생태계 역시 대기업과 스타트업 간 분절돼 있고 실증과 테스트베드 환경도 턱없이 부족하다. 보고서는 한국이 지금과 같이 전략 없이 개별 기업·기관의 산발적 대응을 유지한다면 향후 글로벌 피지컬 AI 표준과 시장 주도권에서 완전히 배제될 수 있다고 경고했다. 특히 규제와 책임 법제가 부재한 상황에서 안전성과 윤리 기준도 선진국 주도로 결정될 가능성이 크다. 이에 따라 보고서는 국가 차원의 '피지컬 AI 전략위원회' 설치, 10년 단위 대규모 R&D 펀드 조성, 고위험 로봇의 안전 규제 정비, 민간 수요 촉진을 위한 공공 선구매 제도 등이 시급하다고 지적했다. 더불어 산업별 테스트베드 구축과 다학제 인재 육성 트랙 도입, 국제 표준화기구 진입도 병행돼야 한다고 꼬집었다. 소프트웨어정책연구소 보고서는 "생성형 AI가 콘텐츠와 언어의 영역이라면 피지컬 AI는 제조·물류·국방 등 실물경제 전체를 재편할 수 있는 파괴력을 지녔다"며 "기술 주권 확보와 전략적 대응 없이는 AI 시대의 종속국으로 전락할 가능성이 높다"고 밝혔다.

2025.05.13 18:00조이환

AI 기본법 앞두고 산·학·연·관 '총집결'…지속가능한 생태계 '모색'

인공지능(AI) 기본법 시행령 발표를 앞두고 국제인공지능윤리협회가 기업과 정부가 함께 참여하는 논의의 장을 마련한다. AI 경쟁력 확보가 시급한 가운데 산업 현장의 안전성과 윤리성을 확보하려는 시도다. 국제인공지능윤리협회는 오는 27일 서울 강남구 구글 스타트업 캠퍼스에서 '2025 인공지능 안전 컴패스(AISC) 컨퍼런스'를 개최한다고 13일 밝혔다. 이날 행사에는 과학기술정보통신부, AI 안전연구소, 한국과학기술정보연구원, LG유플러스, 원티드랩, 셀렉트스타, AI3 등 주요 공공기관과 민간 기업들이 참석해 글로벌 AI 경쟁력 확보 방안을 논의할 예정이다. 이번 컨퍼런스는 '변화하는 AI 환경에서의 기업 경쟁력 확보'를 주제로, 미국과 중국 등 주요국의 AI 전략에 대응한 한국 기업의 실질적 대응 방안을 모색한다. 특히 AI 기술의 단순 도입을 넘어 안전성과 윤리성을 갖춘 지속가능한 활용 전략이 주요 의제로 다뤄진다. 행사는 공공 세션과 기업 세션으로 구성되며 공공 부문에서는 공진호 과학기술정보통신부 인공지능기반정책과장, 이경하 한국과학기술정보연구원 초거대AI연구센터장, 김명주 AI안전연구소 소장이 발표자로 나선다. 각각 국가 AI 정책 방향, 차세대 기술 연구, 글로벌 경쟁력 확보 방안 등을 공유한다. 기업 세션에서는 한영섭 LG유플러스 AI테크랩장, 주형민 원티드랩 AX사업 총괄, 황민영 셀렉트스타 부대표, 표철민 AI3 대표가 연단에 오른다. 현장에서는 AI 도입 역량 내재화 전략, 정확성·안정성 평가 방식, 개인정보 보호를 위한 내부통제 사례 등 산업계 실천 방안이 집중 공유된다. 류태준 팀쿠키 대표는 "대권 주자들의 AI 공약 경쟁이 본격화되는 시점에서 이번 컨퍼런스가 AI 기본법과 가이드라인에 실질적 방향성을 줄 수 있을 것"이라고 말했다. 전창배 국제인공지능윤리협회 이사장은 "한국이 AI 글로벌 탑3 선도국으로 진입하려면 산학연관과 민간의 단합된 노력이 필요하다"며 "AI 기술뿐 아니라 윤리와 안전에서 신뢰를 확보해야 한다"고 밝혔다.

2025.05.13 16:58조이환

"AI 절반, 이민자의 손에서"…美 기술패권 뒤엔 '외국인 창업자' 있다

미국 주요 인공지능(AI) 기업의 과반이 이민자에 의해 창업된 것으로 나타났다. 미중 간 AI 패권 경쟁이 격화하는 가운데 이민자 인재 유치는 여전히 핵심 전략 축으로 평가된다. 21일 미국 비영리 싱크탱크 진보연구소(IFP)에 따르면 'AI 50' 리스트에서 미국 내 기업 42곳 가운데 25곳이 이민자에 의해 창업된 것으로 나타났다. 'AI 50'은 매년 유망한 AI 스타트업 50개사를 선정하는 포브스의 연례 명단으로, 올해는 미국 기업이 전체의 84%를 차지했다. 대표 사례로는 '챗GPT'를 개발한 오픈AI가 있다. 이 회사는 지난 2015년 남아프리카 공화국 출신 일론 머스크, 소련 출신 일리야 수츠케버 등이 공동 창업했다. 오픈AI의 경쟁사인 앤트로픽은 영국 출신 잭 클라크가 공동 설립자로 참여했다. 이들 창업자 중 다수는 유학을 위해 미국에 온 뒤 자리를 잡고 AI 기술 기업을 창업했다. 실제로 조지타운대 산하 신기술보안센터(CSET)가 지난 2020년 발표한 보고서에 따르면 미국 내 주요 AI 스타트업의 이민자 창업자 70% 이상이 학생비자로 미국에 처음 입국했다. 이민자 창업자들의 국적은 삼각형 구조를 보인다. 인도 출신이 아홉 명으로 가장 많고 중국이 여덟 명으로 뒤를 이었다. 이어 프랑스는 세 명, 호주·영국·이스라엘·루마니아·캐나다·칠레는 각 두 명의 창업자를 배출했다. 이 같은 현상은 올해만의 특수한 결과가 아니다. 미국 이민정책연구재단(NFAP)은 지난 2023년 포브스 AI 50을 분석한 결과 전체 기업의 65%가 이민자에 의해 설립됐다고 밝혔다. 지난 2019년 분석에서도 유사한 수치가 확인됐다. AI 반도체 분야에서도 이민자들의 영향력은 지대하다. 세계 최대 AI 칩 생산업체 엔비디아의 젠슨 황 최고경영자(CEO), AMD를 이끄는 리사 수 CEO 모두 대만 출신이다. 이 외에도 뉴욕대 교수인 한국계 조경현, 버클리대 교수인 루마니아계 이온 스토이카 등은 거대언어모델(LLM)에 필수적인 신경망 아키텍처 개발에 기여한 핵심 인물로 꼽힌다. 이와 더불어 IFP는 지난달 미국 정부가 추진 중인 AI 종합행동계획(RFI)에 의견서를 제출했다. 이들은 미국의 AI 경쟁력을 위협하는 요소로 ▲외국인의 미국 거주에 필수적인 그린카드 발급 지연 ▲해외 인재 유치 경쟁 심화 두 가지를 지적하며 절차 간소화와 효율적인 이민 유치 전략이 시급하다고 주장했다. IFP 보고서는 "이민자들은 단순한 참여자가 아닌 AI 산업의 설계자이자 건설자"라며 "미국이 세계 AI 리더십을 유지하려면 글로벌 인재를 계속 받아들이는 정책이 필요하다"고 강조했다.

2025.04.21 14:21조이환

[AI는 지금] 英 정부, AI 보안연구소에 '1천200억원' 쏟았다…한국은?

영국 정부가 인공지능(AI) 기술의 안전성 확보와 국가 안보 강화를 위해 AI 보안연구소에 막대한 예산을 투입하고 있다. 국내 AI 안전연구소 역시 이에 대응해 신속히 연구 역량을 확장하고 있으나 안정적 성과 창출을 위해서는 지속적·안정적 지원이 필요하다는 지적이 나온다. 18일 영국 과학혁신기술부(DSIT) 공식문서에 따르면 영국 정부는 올해 회계연도 기준으로 AI 보안연구소에 6천600만 파운드(한화 약 1천236억원)를 배정했다. 예산은 고위험 AI가 초래할 수 있는 국가 안보·범죄 위협을 분석해 과학적 근거로 제시하고 이를 정부 정책에 반영하는 데 쓰인다. AI 보안연구소는 지난해 말 기준 130명의 전담 인력을 갖췄으며 이 가운데 60명이 순수 연구 인력이다. 구성원 대부분이 공무원으로 연구 결과가 즉시 안보 정책에 투영될 수 있는 구조다. 이 연구소는 지난 2월 파리 정상회의 직후 명칭을 'AI 안전연구소'에서 'AI 보안연구소'로 변경하며 단순한 기술 안정성 검증을 넘어 국가 안보 및 범죄 대응 기능을 강화했다. 국방과학기술연구소(DSTL), 국방부, 내무부 등과 협력해 사이버 공격, 생화학 무기, 아동 성착취물 생성 등 실질적 위협에 대응한다. 영국 정부 관계자는 지난 2월 "AI 보안연구소를 통해 국가 안보를 확보하고 범죄 예방을 위한 책임 있는 AI 개발의 기본 원칙을 세울 것"이라고 밝혔다. 이같이 영국 정부가 전폭적인 지원에 나선 것과 달리 국내 상황은 온도 차가 뚜렷하다. 과학기술정보통신부와 국회 예산안에 따르면 올해 한국 AI 안전연구소의 운영 예산은 72억1천만원에 그친다. 여기에 '공존 가능한 신뢰 AI를 위한 AI 세이프티 기술개발' 명목으로 115억8천5백만원이 추가로 편성됐지만 두 항목을 합쳐도 총예산은 약 188억원 수준이다. 인력 규모에도 차이가 난다. AI 안전연구소는 지난 해 11월 7명으로 출범한 이후 올해 상반기 기준 21명까지 인원이 확대된 상태다. 연내 연구 인력 30명 확보를 목표로 추가 채용이 진행 중이지만 영국과 비교하면 6분의 1 수준에 머물러 있는 셈이다. 창립한 지 6개월이 된 상황에서 연구소는 국제 협력·표준화, 안전성 평가 체계, 정책 연구 등 분야에서 가시적인 성과를 내기 시작하고 있다. 미국·영국·일본 안전연구소와 공동으로 AI 안전성 평가 프레임워크를 마련했고 24개 기관이 참가한 '대한민국 AI 안전 컨소시엄'을 출범시켜 안전 기술 개발과 표준화 논의에도 적극 참여 중이다. 더불어 연구소는 국가적 위기에 직결될 고위험 AI 시나리오를 발굴·우선순위화하는 '리스크 매핑' 작업에 착수해 국가 AI 안보 전략 수립의 기반을 다지고 있다. 다만 출범 초기 단계로, 전담 인력과 예산이 제한적인 만큼 현재의 성과를 확장하려면 추가 지원이 필요할 것으로 보는 목소리도 나온다. 업계 관계자는 "AI가 전략 자산화되는 동시에 국가적 안보 위협으로 부상한 상황에서 기술이 초래할 위험을 파악하려면 산학연 간 긴밀한 협력과 소통이 필수적"이라며 "국내에서는 AI 안전연구소가 이 역할을 주도하고 있는 만큼, 우리도 대응 역량을 키우기 위한 장기적인 기반을 차근차근 다져 나갈 필요가 있어 보인다"고 말했다.

2025.04.18 09:57조이환

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

"쿠팡 등 미국 상장사 건들지마"...美 트럼프 행정부, 韓 규제 발끈

이렇게 화려한 포토존 봤나요...IPX '조앤프렌즈' 팝업 가보니

장원영 렌즈 '하파크리스틴' 매장, 뭐가 다를까 들어갔더니

전동화 속도 줄고 SDV는 격차…딜레마 빠진 현대차

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.