• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 안전'통합검색 결과 입니다. (89건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

행안부, AI·빅데이터 분석 모델로 사회 문제 해결 나선다

국민 생활과 밀접한 사회문제 해결과 정부 정책 결정을 개선하기 위해 행정안전부가 인공지능(AI)과 빅데이터 분석 모델을 업무에 도입한다. 행정안전부는 ▲국민안전(2개 과제) ▲근로·복지(3개 과제) ▲국민건강 (2개 과제) ▲국민편의(2개 과제) ▲일하는 방식 개선(3개 과제) 총 5개 부문 12개 과제에서 데이터 분석과 AI 모델 개발을 진행할 예정이라고 9일 밝혔다. 국민안전에선 ▲AI 활용 딥페이크 불법 콘텐츠 분석모델 개발 ▲사업장 굴뚝 대기오염 배출 자동 탐지 지원 모델 개발 과제가 진행된다. 특히 가짜뉴스, 디지털 성범죄 등 불법 합성 콘텐츠로 인한 피해 확산을 줄이고 사회적 손실을 최소화하기 위해 영상의 딥페이크 적용 여부를 분석하는 모델을 개발할 예정이다. 근로·복지 분야에서는 ▲상병 및 요양데이터 등 활용 장해등급 예측 분석 ▲AI 기반 재해조사 분류 모델 개발 ▲에너지 바우처 사용 사각지대 발굴 위한 빅데이터 분석을 추진한다. 산재 신청 처리 과정에서 AI를 도입하고 에너지 취약계층에 제공되는 에너지 구매이용권 관련 빅데이터를 분석해 바우처 지원 개선 방안을 고민한다. 이 외에도 국민건강 분야에서 ▲농작물 병해충 발생 및 위험도 예측 ▲식품 안전 사각지대의 체계적 관리 점검 대상 자동 추천 모델 ▲주요 질병별 의약품 품절 예측 지원 모델 개발 등에 나서며 국민편의 분야에서는 ▲보훈대상자 등록심사 의사결정 지원 모델 ▲천안시 불법 주정차 최적 단속 경로 및 공영주차장 입지 선정 분석이 이뤄진다. 일하는 방식 개선을 위해서도 ▲인구 감소 지역 맞춤형 정책 수립 지원 관련 빅데이터 분석 ▲범정부 행정정보시스템 장애예측 모델 개발이 진행될 예정이다. 행안부는 12개 분석 과제를 각 기관 및 전문가와 협업해 실효성 높은 분석 모델 개발을 지원하고 다양한 기관에서 모델을 활용될 수 있도록 관리할 계획이다. 행안부 배일권 공공데이터국장은 "앞으로도 국민 생활과 밀접한 다양한 분야에서 AI 기반의 과학적 데이터 분석을 확대해 나갈 예정"이라며 "데이터 분석의 질을 높여 국민이 체감할 수 있는 공공서비스 개선이 이뤄질 수 있게 하겠다"고 말했다.

2024.10.09 16:49양정민

행안부 "AI 활용해 공공서비스 혁신 강화"

행정안전부(행안부)가 인공지능(AI) 기술과 기관 간 협업을 통해 국민 삶의 질 개선에 박차를 가하고 있다. 행안부는 '2024 정부혁신 왕중왕전' 대회를 개최해 '문제를 해결하는 정부' 분야에서 다양한 혁신 사례를 선정했다고 7일 밝혔다. 이번 대회에서는 AI를 활용한 고독사 예방과 범죄 피해자 지원 등 주요 사회 문제 해결을 위한 정부부처의 우수 사례 15개가 선정됐다. 최종 결승전은 다음달 14일 광주 김대중컨벤션센터에서 개최될 예정이다. 이번에 선정된 사례 중 하나인 '고독사 예방 서비스'는 1인 가구의 생활 패턴을 모니터링해 이상 징후를 감지하고 신속한 대응을 가능하게 한다. AI 기반의 이 서비스는 기존의 전화 확인 방식보다 정교하고 효율적이며 공무원의 업무 부담을 줄이고 있다. '범죄 피해자 지원' 역시 14개 기관이 협력해 법률·경제·심리적 지원을 통합적으로 제공하는 시스템이다. 피해자는 여러 기관을 방문할 필요 없이 한 곳에서 모든 지원을 받을 수 있어 큰 호응을 얻고 있다. 이번 '왕중왕전'에서는 이 두 사례 외에도 자율주행 트랙터를 활용한 농업로봇 개발, 스토커 접근 정보 알림 시스템, AI를 활용한 보이스피싱 차단 서비스 등 다양한 혁신 사례가 선정됐다. 이들 사례는 모두 사회적 약자 보호와 공공서비스 효율성 강화를 목표로 하고 있다. 행안부는 앞으로도 AI와 빅데이터를 적극 활용해 다양한 사회 문제를 해결하고 국민이 체감할 수 있는 공공서비스 혁신을 지속적으로 추진할 계획이다. 고기동 행안부 차관은 "정부혁신 왕중왕전은 공공부문 혁신 성과를 발굴하고 확산하는 중요한 기회"라며 "AI를 적극 활용해 더 많은 사회 문제를 해결해 나가겠다"고 밝혔다.

2024.10.07 15:12조이환

AI 안전연구소장 공모…미래 AI안전 선도할 리더 찾는다

한국전자통신연구원(ETRI)이 AI 안전연구소장을 공개 채용한다. ETRI는 이번 채용이 글로벌 인공지능(AI) 정책과 법제도를 이끌 전문 인력을 모집하는 데 중점을 둔다고 25일 밝혔다. 지원자는 석사 이상의 학위를 소지해야 하며 AI 안전 관련 정책 수립 및 연구 수행 능력을 갖춰야 한다. 이번 채용의 주요 요건은 AI 안전 분야의 전문성과 글로벌 AI 환경에 대한 깊은 이해다. AI 기술의 안전성을 평가하고 국제 협력을 통해 이를 개선하는 것이 주요 업무이기 때문이다. 경영 혁신과 조직 관리 능력도 필수적이다. AI 안전연구소가 국가 AI 거버넌스의 중심으로서 역할을 수행하기 때문에 조직을 이끌 리더십과 중장기 전략 수립 역량이 요구된다. ETRI는 이번 채용을 블라인드 방식으로 진행해 공정성을 강화했다. 서류 전형, 1차 면접, 최종 면접을 거쳐 합격자를 선발하며 임용은 11월 중으로 예정돼 있다. 지원서 접수는 다음 달 4일까지다. 최종 합격자는 3년 임기 동안 성남 판교에서 근무하게 되며 1회에 한해 연임이 가능하다. 이번 채용은 전 세계적으로 AI 안전 연구소를 설립하는 움직임에 따른 것이다. 이미 미국, 영국, 일본 등 주요 국가들이 AI 안전연구소를 설립했으며 한국도 지난 5월 AI 서울 정상회의에서 연구소 설립을 약속한 바 있다. ETRI는 "이번 공개 채용을 통해 AI 기술의 안전성을 선도할 인재를 찾고 있다"며 "글로벌 경쟁력을 강화할 역량 있는 지원자들의 많은 관심을 기대한다"고 밝혔다.

2024.09.25 11:48조이환

'안전한 AI 사용' 외친 美 빅테크, 제품 보안 강화 총력

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 이야기를 맛있게 보도하겠습니다. [편집자주] 미국 빅테크가 생성형 인공지능(AI) 기능 보안성을 한층 더 강화했다. 생성형 AI가 다양한 산업에 도입되면서 환각 현상을 비롯한 데이터 유출, 신원 도용, 해킹 등 위험 사례를 최소화하기 위해서다. 20일 미국 외신 사이버시큐리티 다이브 보도에 따르면, 연 매출 1억 달러(약 1천350억원) 이상에 해당하는 기업 경영진 다수가 "AI 애플리케이션 복잡성으로 취약점이 확대됐다"며 "사내 사이버 보안 태세가 약해졌다"고 밝혔다. 이에 아마존웹서비스(AWS)를 비롯한 미국 빅테크는 사용자 명령어에 대한 이해도를 높여 환각 현상을 줄이고, 보안 업그레이드로 사이버 공격과 데이터 유출 차단 줄이기에 나선 분위기다. AWS "생성형 AI 결과에 신뢰성 점수 매긴다" AWS는 생성형 AI 애플리케이션 관리·개발 플랫폼 '아마존베드록' 보안 기능을 맡는 가드레일을 업그레이드했다. 생성형 AI가 사용자 프롬프트 문맥 이해도를 높여 기존보다 더 정확한 답변을 낼 수 있게 돕는 '문맥 그라운딩 체크' 기능을 새로 탑재했다. 문맥 그라운딩 체크 기능 특장점은 객관적 수치를 통한 답변 필터링이다. 아마존베드록이 생성물에 신뢰성·정확성 점수를 자체적으로 매김으로써 답변 품질을 평가하는 식이다. 점수 매기는 기준은 문맥에 따라 다르다. 다만 공통으로 답변에 핵심 참조 내용이 포함됐는지, 질의 내용과 답변이 통일성 있는지, 답변과 질문 관련성이 얼마나 높은지를 측정한다. AWS코리아 김선수 AI·ML사업개발 매니저는 "점수 매기는 작업은 AWS 노하우를 통해 이뤄진다"고 설명했다. 이어 "답변에 AWS가 지정한 필수 출처 내용이 답변에 없으면 이를 사용자에게 제공하지 않는다"며 "답변 품질 점수가 평균보다 낮을 때도 이를 내놓지 않는다"고 강조했다. 마이크로소프트 "생성형 AI 보안도 AI로 지킨다" 마이크로소프트는 '코파일럿'과 보안 제품을 통합해 일반 솔루션뿐 아니라 AI 기반 제품 보호에 나섰다. 가장 대표적인 AI 보안 솔루션은 '마이크로소프트 코파일럿 포 시큐리티'다. 코파일럿 포 시큐리티는 약 78조개 넘는 보안 신호와 대규모 데이터, 위협 인텔리전스를 거대언어모델(LLM)과 결합해 인사이트를 제공할 수 있다. 이를 통해 사용 조직은 생성형 AI 솔루션 외부 위협을 신속히 감지하고 대응할 수 있다. 마이크로소프트는 생성형 AI 사용 중 발생할 수 있는 정보 유출 방지 솔루션도 운영하고 있다. 프리뷰로 제공되는 '코파일럿 인 마이크로소프트 엔트라 유저 리스크 인베스티게이션'은 마이크로소프트 엔트라에 탑재됐다. 이 솔루션은 사용자 개인정보 유출을 막고, 보안 위협이 발생했을 때 빠르게 대처 가능하도록 지원한다. 특히 사용자 위험을 파악해 적절한 가이드를 제공하고, 향후 발생할 수 있는 위협을 예측해 해결법을 제시할 수 있다. 세일즈포스 "믿을 만한 데이터로만 접근" 세일즈포스도 '세일즈포스 데이터 클라우드' 내 제품서 작동하는 생성형 AI 솔루션에 데이터 보안성을 높였다. 세일즈포스는 17일부터 19일까지 미국 샌프란시스코에서 열린 '드림포스 2024'에서 자율형 AI '에이전트 포스'에 이런 데이터 보안 기능을 적용했다. 에이전트 포스는 사용자 요청 없이도 관련 업무를 24시간 자율적으로 수행할 수 있는 로우코드 플랫폼이다. 데이터 클라우드 내에서 작동한다. 에이전트포스를 비롯한 데이터 클라우드 기반 솔루션은 AI를 통해 비구조화된 데이터를 자동으로 분류·라벨링한다. 실시간 데이터 관리가 일괄적으로 가능하다. 세일즈포스는 해당 제품 내 데이터 접근 권한도 세분화할 수 있다. 대규모 데이터 환경에서도 사용자 그룹별로 적절한 권한을 부여할 수 있는 보안 정책을 갖췄다. 데이터 접근 허용자만 이를 확인할 수 있는 셈이다. 이 외에도 기업이 스스로 암호화 키를 관리할 수도 있다. 데이터를 사용 중이거나 저장 중일때도 암호화된 상태로 데이터 보안 유지를 할 수 있다. 마크 베니오프 세일즈포스 최고경영자(CEO)는 행사 기조연설에서 "신뢰할 수 있는 데이터 관리 방식을 에이전트포스에 제공했다"며 "새로운 혁신과 고객 증가로 데이터 클라우드 모멘텀이 치솟을 것"이라고 재차 강조했다.

2024.09.20 16:07김미정

獨 알레프알파, 외국어·공학 전문 LLM '파리아' 출시

독일 인공지능(AI) 기업 알레프알파가 다국어와 특정 도메인에 최적화된 생성형 AI 모델을 오픈소스 형태로 공개했다. 알레프알파 거대언어모델(LLM) '파리아-1-LLM'을 출시했다고 27일 밝혔다. 매개변수 70억개로 이뤄졌다. '파리아-1-LLM'은 독일어·프랑스어·스페인어 등 다양한 언어에서 최적화된 기능을 제공하며 자동차와 공학 분야에 특화된 것으로 알려졌다. 현재 비상업적 연구 및 교육 용도로만 활용될 수 있다. 이 모델은 유럽연합(EU) 및 각 회원국의 저작권과 데이터 프라이버시 법규를 준수하며 제작 됐다. 알레프알파는 "엄선된 데이터를 사용해 모델을 훈련했다"고 설명했다. 알레프알파는 이번 모델 투명성과 안전성을 특히 신경썼다고 강조했다. 부적절한 답변을 걸러내는 데이터셋을 활용해 학습시키는 등 추가 안전장치를 도입했다. 또 답변이 지나치게 장황하거나 불필요한 정보를 포함하지 않도록 하는 기법도 적용했다. '파리아-1-LLM'은 두 가지 버전으로 제공된다. 하나는 사용자 지시에 특화된 '통제(control)' 모델이고 다른 하나는 안전성을 보다 강화한 '통제-정렬(control-aligned)' 모델이다. 독일의 머신러닝 엔지니어인 사마이 카파디아는 "'파리아'는 저작권과 개인정보 보호법 등 EU 규제를 완전히 준수해 훈련됐다"며 "이런 모델의 출시 자체만으로도 상당히 인상적인 성과"라고 평가했다.

2024.08.27 10:19조이환

앤트로픽 CEO "캘리포니아 AI 법안, 혁신 촉진할 것"

캘리포니아 주 상원 표결을 앞두고 있는 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 대해 앤트로픽 대표가 긍정적인 평가를 내렸다. 25일 유에스뉴스에 따르면 캘리포니아 AI 규제 법안인 'S.B. 1047'의 상원 표결이 지난 20일 시작됐다. 이 법안은 1억 달러 이상의 개발 비용이 들거나 일정량의 컴퓨팅 파워를 요구하는 고급 AI 모델에 대한 테스트를 의무화하는 내용을 담고 있다. 이는 AI 개발에 있어 안전성을 강화하기 위함이다. 다리오 아모데이 앤트로픽 대표는 이번 법안이 AI 개발에 긍정적인 영향을 미칠 수 있다고 평가했다. 특히 AI 기술 환경의 변화에 테크 업계가 대비하도록 지원할 수 있다고 주장했다. 법안은 AI 모델이 오작동할 경우 이를 종료할 수 있는 '킬 스위치' 설치를 의무화하고 있다. 또 사업자와 AI 개발자가 규정을 위반할 경우 캘리포니아 주 법무장관이 이에 소송을 제기할 수 있다. 이는 AI 기술의 오남용을 방지하기 위한 조치로 해석된다. 앞서 구글, 메타, 오픈AI 등 주요 테크기업들은 이 법안이 캘리포니아 주를 AI 개발에 불리한 환경으로 만들 우려가 있다고 지적했다. 특히 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 주 상원의원에게 공개서한을 보내 AI 규제는 연방 정부의 권한 아래 이뤄져야만 한다고 주장한 바 있다. 아모데이 대표는 "법안 내용이 개정됨에 따라 초기의 우려가 크게 줄어들었다"며 "이번 법안이 AI 개발 과정에서 혁신과 안전성을 모두 담보할 수 있을 것으로 기대한다"고 말했다.

2024.08.25 09:20조이환

오픈AI, 캘리포니아 AI 법안 반대…주 상원의원 "말도 안 되는 소리"

지난 20일부터 미국 캘리포니아 주 의회가 표결 중인 인공지능(AI) 규제 법안에 대한 의견이 분분하다. 22일 테크크런치 등 외신에 따르면 오픈AI 이사가 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 반대하는 목소리를 냈다. 이에 주 상원의원이 "말도 안 되는 소리"라고 일축했다. 해당 법안은 캘리포니아 내 AI 개발 사업자들에게 모델 안전성 테스트 등 사전 예방 조치를 요구하는 내용을 담고 있다. 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 상원의원에게 공개서한을 보내 "법안이 AI 혁신을 저해할 것"이라고 지적했다. 그러면서 그는 법안이 시행될 경우 "캘리포니아의 엔지니어들과 테크기업들이 다른 주로 떠날 수 있다"며 "미국의 경쟁력을 위해 최첨단 모델의 규제는 국가 차원에서 진행돼야 한다"고 밝혔다. 이에 법안을 발의한 스콧 위너 상원의원은 오픈AI의 주장이 논리적이지 않다고 반박했다. 그는 법안이 캘리포니아에 본사를 두지 않은 기업에도 적용되므로 기업들이 주를 떠날 필요가 없다고 강조했다. 또 오픈AI가 법안의 구체적인 조항을 비판하지 않고 단순히 연방 규제를 요구하는 점에 대해서도 비판했다. 해당 법안 표결은 오는 30일까지 진행된다. 통과될 경우 개빈 뉴섬 캘리포니아 주지사의 서명을 받게 된다. 뉴섬 주지사의 입장은 아직 명확하지 않지만 법안이 통과될 경우 산업계의 강력한 반발이 예상된다. 특히 오픈AI 측은 캘리포니아 주의 규제 환경 변화에 대한 우려로 샌프란시스코 사무실 확장 계획을 보류하고 있는 것으로 알려졌다. AI 업계 관계자는 "캘리포니아의 AI 규제가 통과하는지 여부에 따라 산업계의 대응이 달라질 수 있다"며 "실리콘 밸리가 위치해 테크 기업들이 몰린 지역이기 때문에 이번 표결에 많은 것이 걸려있다"고 밝혔다.

2024.08.22 15:24조이환

딥러닝 '대부' 벤지오, 英 AI 안전 프로젝트 합류

캐나다 몬트리올대 요슈아 벤지오 교수가 영국 인공지능(AI) 안전 프로젝트 '세이프가드 AI(Safeguarded AI)'에 합류한다. 8일 MIT 테크놀로지리뷰에 따르면 딥러닝 대부로 알려진 벤지오 교수는 영국 정부가 주도하는 세이프가드 A' 프로젝트 과학 감독자로 임명됐다. 이 프로젝트는 영국 고등연구발명청(ARIA)에서 4년 동안 5천900만 파운드(약 1천30억 원)를 지원받아 진행된다. 세이프가드 AI 프로젝트는 AI 시스템이 현실에 미치는 영향을 수치화해 안전성 보장 메커니즘을 개발하는 데 중점을 둔다. 이 과정에서 AI를 통해 다른 AI 시스템을 점검하고 검증하는 방식을 활용해 인간이 검증하는 '레드팀' 방식보다 보다 신뢰할 수 있는 방법을 제시할 계획이다. 특히 프로젝트는 교통, 에너지 등 위험사태가 발생할 가능성이 큰 고위험 분야에서 AI 에이전트의 안전성을 관리하는 '게이트키퍼' AI를 제작할 예정이다. 이를 위해 고등연구발명청은 첫 해에 540만 파운드(약 94억3천200만원), 다음 해에 820만 파운드(약 143억2천만원)의 자금을 제공해 AI 안전 메커니즘 연구를 지원하게 된다. 세이프가드 AI 프로젝트는 국제적 AI 안전 협력을 촉진하고 영국을 해당 분야의 선도국으로 자리매김하려는 목적으로 시작됐다. 실제로 벤지오 교수는 이미 영국 블레츨리 선언에 참가한 30개국·UN·EU가 참여하는 AI 안전성 국제 과학 보고서의 총책임자 역할을 맡고 있다. 벤지오 교수는 프로젝트 합류에 대해 "지금 우리는 뒤에 절벽이 있을지도 모르는 안개를 향해 달려가고 있다"며 "그 안개를 걷어낼 도구를 구축하고 절벽 너머로 떨어지지 않도록 해야 한다"고 강조했다.

2024.08.08 09:25조이환

국립공원공단, AI 데이터 분석으로 사고 예방한다

환경부 산하 국립공원공단(이사장 송형근)은 무리한 산행에 의한 3대 사망사고(심장돌연사·추락사·익사사고)를 예방하기 위해 안전사고 통계 정보(데이터) 분석을 기반으로 인공지능(AI) 기술을 활용한 예방 중심 안전관리를 추진한다고 6일 밝혔다. 국립공원공단에 따르면 지난 2014년부터 2023년까지 최근 10년 간 국립공원에서는 총 167건의 사망사고가 발생했다. 이가운데 심장돌연사(50%), 추락사(32%), 익사(9%) 등 3대 사망사고 비중이 91%를 차지했다. 심장돌연사와 추락사는 탐방객이 많은 10월(15명18%, 11명 20%)과 주말(53명 63%, 32명 60%)에 주로 발생했다. 연령대로 보면 50대 이상(69명 82%, 48명 89%), 남성(82명 98%, 39명 72%)의 비중이 높았다. 익사는 절반(11명, 73%) 이상이 7월 하순부터 8월 중순 사이에 집중적으로 발생했고 연령대는 50대 이상(8명, 53%)에서 가장 많지만 20대(3명, 20%), 40대(3명, 20%)에서도 발생했다. 국립공원공단은 최근 10년간 국립공원에서 발생한 안전사고 통계 정보와 기상청 자료·위성 데이터를 활용해 사고 발생지점의 지리·환경적 특성 등을 분석, 기존 사고 발생지역 외에 추가로 사고 발생 위험이 있는 구간 130곳을 찾아냈다. 국립공원공단은 이번 분석 결과를 바탕으로 ▲안전쉼터 및 스마트 자동심장충격기(AED) 구축 ▲위험 안내시설 설치 등 탐방객 안전사고 예방을 위한 재난·안전 사업을 추진할 예정이다. 송형근 국립공원공단 이사장은 “각종 통계 정보를 활용한 사고 발생지점 예측분석은 그간 공원관리 경험과 과학적 분석 기법을 더해 안전관리 체계를 더욱 공고하게 해줄 것”이라며 “정확하고 정밀한 예측을 통해 탐방객 안전관리에 선제적으로 대응하겠다”고 말했다.

2024.08.06 17:46주문정

오픈AI, 올 가을 'GPT-5' 발표 안 한다

오픈AI가 오는 가을 개발자 행사에서 'GPT-5' 등 신제품을 공개하지 않을 예정이다. 이는 지난해 'GPT-4 터보' 등 주요 최신 제품이 개발자 행사에서 발표된 바와 대비된다. 6일 테크크런치에 따르면 오픈AI는 올가을 미국 샌프란시스코, 영국 런던, 싱가포르에서 열리는 개발자 행사에서 새 모델을 발표하지 않을 것이라고 발표했다. 대신 기존 도구의 활용성을 확장할 수 있는 애플리케이션 프로그램 인터페이스(API)와 서비스 업데이트에 집중할 예정이다. 이런 조치는 최근 오픈AI가 기존 모델 'GPT-4'의 성능을 조정하고 향상시키는 데 집중해 'GPT-4o'와 'GPT-4o 미니' 등을 출시한 상황과 맞물린다. 샘 알트먼 오픈AI 최고경영자(CEO)는 'GPT-5' 모델이 보일 파격적인 성능에 대해 여러 차례 언급한 바 있지만 출시 시점에 대해서는 밝히지 않았다. 지속적인 모델 성능 향상에도 오픈AI는 생성형 인공지능(AI) 경쟁에서 초창기 보유했던 기술 우위를 일부분 상실한 상태다. 지난 1일 출시된 구글의 실험용 생성형 AI '제미나이 1.5 프로(Gemini 1.5 Pro)'는 'LMSYS 챗봇 아레나(LMSYS Chatbot Arena)' 벤치마크에서 'GPT-4o'를 제쳤다. 또 최근 앤트로픽 '클로드(Claude)'의 최신 모델이 일부 벤치마크에서 오픈AI 제품들을 앞섰던 바 있다. 이는 오픈AI가 고품질 학습 데이터를 확보하는 데 어려움을 겪는 상황과 맞물린다. 많은 웹사이트가 회사의 크롤러를 차단하면서 데이터 접근이 제한되고 있기 때문이다. 메사추세츠 공대(MIT)의 연구에 따르면 고품질 데이터의 약 25%가 학습에 사용되지 않고 있다. 이러한 추세가 계속된다면 향후 10년 내 AI 모델 학습 데이터가 고갈될 것이라는 예측도 있다. 오픈AI는 이러한 문제를 해결하기 위해 다양한 데이터 라이선스 계약을 체결 중이다. 기술적인 측면에서 오픈AI는 '스트로베리' 프로젝트와 같은 연구개발(R&D) 사업을 진행하며 모델이 수학 문제를 원활히 해결하고 추론 능력을 발전시키도록 매진하고 있다. 일각에서는 'GPT-5'의 출시 연기가 오픈AI에 의도치 않은 이익을 가져다줄 수 있다고 본다. 이는 오픈AI가 최근 AI 안전을 전담하는 '초정렬(superalignment)' 팀을 해체하고 저작권이 있는 데이터를 모델 훈련에 사용한다는 비판을 받아왔기 때문이다. 테크크런치는 "현재 오픈AI는 기술 발전에만 신경 쓰고 AI 안전에는 소홀하다는 비판에 직면해 있다"며 "제품 출시 연기는 이러한 비판에 반례를 제공하는 등 긍정적인 부작용을 낳을 수 있다"고 분석했다.

2024.08.06 09:50조이환

마커스 뉴욕대 교수 "알트먼 못 믿어…언행불일치 잦아"

인지심리학자 게리 마커스 뉴욕대 교수가 샘 알트먼 오픈AI 최고경영자(CEO)를 신뢰할 수 없다고 밝혔다. 알트먼 CEO 발언과 행동이 일치하지 않은 사례가 많았다는 이유에서다. 5일 가디언에 따르면 마커스 교수는 "알트먼 오픈AI CEO가 세상에서 가장 큰 권력을 가진 인물이 됐다"며 "이는 매우 두려운 일"이라고 주장했다. 마커스 교수는 알트먼 CEO가 회사 이익을 위해 진실을 왜곡한 점을 지적했다. 알트먼 CEO가 지난해 미국 상원 청문회에서 한 발언을 근거로 들었다. 당시 알트먼 CEO는 청문회에서 "건강보험을 들 수 있을 정도의 돈만 벌고 있다"며 "오픈AI에 대한 지분은 없다"고 발언했다. 실제 그는 미국 최대 스타트업 액셀러레이터 기업인 와이 콤비네이터(Y Combinator) 주식을 소유해 간접적으로 오픈AI 지분을 가지고 있었다. 마커스 교수는 알트먼 CEO가 규제에 대해 솔직하지 않다고 지적했다. 청문회에서 AI 규제를 강력히 옹호했던 언행과 다르게 오픈AI는 지난 2022년부터 유럽연합(EU) AI법이 생성형 AI를 강력히 규제하지 못하도록 EU 당국에 로비해왔다. 지난해 11월 오픈AI 이사회가 알트먼 CEO를 "솔직하지 않다"며 해고하고 지난 5월에는 일리야 수츠케버 공동창업자 등 AI 안전과 관련된 주요 인사들이 잇따라 회사를 떠나는 등 내부적 논란이 있어 왔다. 이에 외신은 알트먼 CEO의 언행불일치가 회사 신뢰성을 떨어뜨린다고 지적했다. 이러한 상황에 대해 마커스 교수는 "AI 기술은 공공의 이익을 위해 투명하고 윤리적으로 관리돼야 한다"며 "안전하고 신뢰 가능한 기술 발전을 위해서는 시민들이 목소리를 높여야 한다"고 강조했다.

2024.08.05 12:17조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

"직원 연봉 2억4천"…英 정부, AI안전연구소에 투자한 이유는?

영국 정부가 글로벌 인공지능(AI) 경쟁서 주도권을 잡기 위해 기술뿐 아니라 AI 안전성 강화에 노력을 쏟고 있다. 최근 AI 안전 영역은 영국과 미국, 캐나다, 중국 등 각국 정부가 집중하고 있는 부분이다. 31일 업계에 따르면 영국 과학혁신기술부(DSIT)는 최근 AI안전연구소(AISI) 수석 프롬프트 엔지니어 채용공고를 냈다. 연봉은 수당 포함 6만5천~13만5천 파운드(약 1억7천~2억4천만원)다. 영국 구직 사이트 탈렌트에 표기된 2023년 기준 수석 엔지니어 평균 연봉은 약 5만5천 파운드(약 9천700만원)다. 해당 엔지니어 주요 업무는 첨단 AI 시스템 위험성 평가를 위한 프롬프트 설계다. 대학, 연구소, 기업 연구팀과 손잡고 AI 안전성 연구를 수행하고, AI 모델의 행동 수정과 목표 행동 유도 등으로 거대언어모델(LLM) 안전성도 연구한다. 지원자는 프롬프트 엔지니어링 전문성과 파이선 코딩 능력, AI 안전성에 대한 기본 소양은 필수로 갖춰야 한다. 선발 과정은 코딩 테스트, 기술 과제, 면접이다. 국내 AI 업계는 해당 직책이 영국 AI 안전성 연구와 정책 개발에 중요한 역할을 할 것이라고 평가했다. 영국 정부가 AI 안전성 리더십 선점을 본격화한 셈이다. 하정우 네이버클라우드 AI센터장은 자신의 소셜미디어(SNS)에서 "최근 글로벌 AI 국가 경쟁이 안전성 중심으로 돌아가고 있다"며 "앞으로 AI안전연구소는 국가 안보 역할도 할 것"이라고 언급했다. 이어 "AI 안전에 대한 영국 정부의 투자가 중요한 사례가 될 것"이라고 덧붙였다. 하 센터장은 최근 각국 정부가 AI 안전성에 투자를 활성화하고 있다는 점도 강조했다. 또 AI 시대 질서를 어느 국가가 만드느냐가 관건으로, 최근 미국과 캐나다가 AI안전연구소를 중심으로 질서를 만들고 있다는 점을 예로 들었다. 실제 캐나다 정부는 AI안전연구소 설립에만 500억원을 투자하겠다고 밝힌 바 있다. 여기서 나오는 정책이 실효성 있게 할 수 있도록 50억원을 추가 투자할 계획이다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 이에 대해 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 필수 요소가 될 것"이라고 강조했다.

2024.07.31 15:44김미정

행안부, 공공데이터 사업화 지원…"창업 준비부터 해외진출까지"

행정안전부가 공공데이터 활성화를 위한 지원사업 2종을 추진한다. 행정안전부는 공공데이터 활용기업 맞춤형 지원과 리빙랩 프로젝트를 진행한다고 29일 밝혔다. 먼저, 공공데이터 활용기업을 대상으로 '맞춤형 지원사업'을 제공한다. 맞춤형 지원사업 대상으로 선정된 기업은 전문 컨설턴트와의 상담을 거친다. 상담을 통해 기업의 역량과 창업 전, 초기, 성장기, 도약기 등 기업 형태를 분석한 결과를 반영해 성장 단계에 맞춘 맞춤형 프로그램을 지원받는다. 사업 초기 단계의 기업이나 예비창업자에게는 공공데이터를 활용한 사업 전략 수립을 지원하고, 사업에 필요한 공공데이터를 효과적으로 찾을 수 있도록 관련 컨설팅을 제공한다. 이미 공공데이터 활용 서비스를 제공하고 있는 기업은 ▲데이터를 활용한 기술이나 인공지능(AI)·클라우드 등 신기술 접목과 관련한 컨설팅 ▲사업 확장 등을 위한 자금 조달 방안 ▲해외 진출 지원 멘토링 등을 제공받을 수 있다. 이번 공모는 공공데이터를 활용해 서비스를 제공하거나 개발하고자 하는 기업과 예비창업자 누구나 지원할 수 있다. 적격성 심사와 심의위원회 평가를 거쳐 최종 30개 기업을 선정할 예정이다. 지난해 30개 기업 및 예비창업자를 대상으로 맞춤형 지원 프로그램을 제공한 결과, 신규 사업등록 2건, 지식재산권 출원·등록 16건, 18건의 신규 서비스가 출시됐다. 이 중 2개 기업은 투자 자금을 유치하는 등의 성과가 있었다. 시민이 생활 속 문제를 발견하고, 공공데이터를 활용해 해결책을 설계해 직접 문제를 해결하는 공공데이터 활용 '리빙랩 프로젝트'도 공모를 진행한다. 서류심사와 심의위원회 평가를 통해 선정된 4개 단체에 프로젝트 수행을 위한 지원금(최대 750만 원)과 전문가 교육·멘토링을 제공한다. 프로젝트 수행 결과가 우수한 2개 프로젝트는 행정안전부 장관상과 한국지능정보사회진흥원 원장상을 수여할 예정이다. 지난해에는 '마을버스 정보안내단말기(BIT) 미설치 정류장 우선 도입 순위 제안' 및 '금연 구역 데이터를 활용한 흡연부스 설치 입지 선정' 과제 등이 우수사례로 선정됐다. 공공데이터 활용과 관련된 두 공모사업의 상세한 내용은 행정안전부에서 운영하는 공공데이터포털과 한국지능정보사회진흥원 누리집을 통해 확인할 수 있다. 이용석 디지털정부혁신실장은 “민간의 많은 참여를 통한 민·관 협력 활성화가 디지털플랫폼정부 구현의 핵심”이라며, “정부의 방대한 공공데이터를 국민과 기업이 더 쉽게, 잘 활용할 수 있도록 적극 지원하겠다”고 밝혔다.

2024.07.29 15:07남혁우

KT, 안전보건총괄 신설...브랜드전략실 확대

KT가 사내 안전보건 관리와 그룹 브랜드 이미지 관련 조직을 강화하는 방향으로 조직을 소폭 개편했다. 1일 업계에 따르면, KT는 이날 전사 안전보건 관리체계와 콘트럴타워 역할 강화를 위해 사내 독립조직으로 안전보건총괄(CSHO)을 신설하고 임현규 경영지원부문장이 겸직하기로 했다. 아울러 그룹 차원의 브랜드 이미지(BI)와 기업 이미지(CI) 체계를 정립하고 그룹사 간 시너지 강화를 위해 브랜드 전략실을 신설했다. 기존 브랜드커뮤니케이션 담당 조직의 기능을 확대한 것으로 윤태식 상무다 보임됐다. 기존 임원의 겸직, 보임 배치와 함께 인공지능(AI) 분야에 신규 영입 인사도 이뤄졌다. 기술혁신부문 AI2X랩 AI코어기술담당에 엔씨소프트의 초대 AI테크센터장을 지낸 신동훈 상무를 영입했다. 신 상무는 게임 사업에 적합한 AI언어모델을 개발해왔는데, KT가 최근 마이크로소프트와 AI와 클라우드 분야에서 전략적 파트너십을 체결하고 AI 인재를 대거 채용키로 한 데 따른 인사로 풀이된다. 회사 안팎에서는 연말 정기인사를 앞두고 미디어부문을 비롯해 대규모 개편이 이뤄질 수 있다는 전망이 나왔으나 일부 조직의 기능 확대 방향으로 인사가 이뤄졌다. KT 관계자는 “급변하는 사업환경과 기술변화에 신속하게 대응하고 조직의 경쟁력 강화 차원에서 회사 전략 방향에 맞춰 일부 조직을 개선하고 임원인사를 시행했다”고 설명했다.

2024.07.01 10:34박수형

ETRI "내년 AI안전연구소 설립"…판교 등 유력

한국전자통신연구원(ETRI, 원장 방승찬)이 2025년 달성할 '탑챌린지 프로젝트' 7개를 공개했다. 방승찬 원장은 서울 과학기술컨벤션센터에서 27일까지 열리는 'ETRI 컨퍼런스 2024'에서 지난 연구성과와 함께 내년 계획을 공개했다. ETRI는 '디지털 혁신으로 만드는 행복한 내일:인공지능과의 동행'을 주제로 ▲인공지능 ▲로보틱스 ▲AI컴퓨팅·보안 ▲AI융합·응용 등 4개 부문의 성과를 발표하는 기술세션과 22개 핵심기술 전시회, 혁신투자포럼을 진행했다. 방 원장은 내년 달성 목표인 '탑챌린지 프로젝트' 7개를 공개했다. 우선 초성능 부문에서 고성능 컴퓨팅 노드 테스트베드를 구축한다. 고성능 컴퓨팅 노드에 HPC-SoC 초병렬 프로세서 등을 탑재하고, AI 반도체를 위한 AI컴파일러 및 프레임워크 기술을 개발할 계획이다. 또 고성능 컴퓨팅 실증 서비스 가능성을 보여줄 시연도 목표로 잡고, 사업화까지 병행 추진한다. 초연결 부문에서는 차세대 통신 조기 상용화를 위한 6G PoC 추진 및 책심 기술 표준 선점이 목표다. 서브-테라헤르츠 시스템 실증 및 핵심기술 6G 표준화와 800㎞ 초저지연 서비스 실증, ETRI pre-6G IoT NTN 위성 누리호 4차 발사 (2025.11) 탑재 등을 추진한다. 디지철 융합 부문에서는 차세대 AAM 자율비행을 위한 ICT 기반 비상상황인지 안전항법솔루션을 발표하는 것이 목표다. 방문객 응대 멀티모달 휴머노이드 로봇 내년 실증 초지능 부문에서는 방문객 응대 멀티모달 휴머노이드 로봇을 실증한다. 멀티모달 교감형 대화기술과 전신 제스처 및 표정 생성 기술, 물건 전달 등 행동 생성 기술을 확보할 계획이다. 초실감 부문에서는 가상 공간 내에서 실세계와 동일한 체험을 할 입체영상 기반 실가상 융합 미디어 기술 개발 및 시연이 이루어진다. 이를 위해 라이트 기반 무안경 입체영상 미디어 스트리밍 기술과 3개 초점면 표현 가능한 입체영상 VR디바이스 모듈, 실재감 제공 원격 교감 상호작용 기술 등을 개발한다. 비침습 무채혈 방식 웨어러블 연속 혈당 측정 기술도 개발 및 시연한다. 귓불형으로 정확도는 95%, 연속 측정시간 5부이내를 목표로 연구소 기업 설립을 추진한다. 이와함께 ETRI는 신뢰 AI기반 공존을 위한 AI안전연구소 설립 및 운영을 통해 AI에서 발생 가능한 위험을 최소화하고 지속 가능성을 확보할 계획이다. AI안전연구소 위치는 판교가 유력하다. 예산과 인력 규모는 현재 논의 중인 것으로 알려졌다. 전시장선 AI 주제 로봇 3대 선보여 관심 이에 앞서 방 원장은 최근 핵심 성과인 ▲종단형 음성인식 기술 ▲자율성장AI ▲근접탐색기술 ▲AI과학경호 등의 기술을 시연했다. 이어 ㈜솔트룩스의 이경일 대표는 'AI for ALL 시대, AI의 다음 단계를 위해 무엇을 준비해야 하나'를 주제로 기조연설했다. 기술세션에서는 ▲실시간 통역 ▲AI외국어 교육 ▲자율주행 모빌리티 ▲사람과 대화하는 소셜로봇 ▲보행로봇 ▲온디바이스 메모리 ▲AI반도체 등의 'AI컴퓨팅', ▲사용자 신원확인 AI ▲AI와 융합된 응용 서비스 등을 논의하는 자리가 마련됐다. 전시장에서는 △오경보로부터 자유로운 AI화재센서 △청각장애인을 위한 음악향유 기술 △지하철 역사내 소음환경에서 13개 언어 실시간 통역 기술 △길안내 로봇이동 기술 △국산 AI반도체를 지원하는 AI컴파일러 등 22개 기술이 공개됐다. 혁신투자포럼에선 소재부품장비 및 ICT 분야의 6개사와 바이오·메디컬·헬스케어 분야 6개사 총 12개사가 IR했다. 방승찬 원장은 "가장 큰 이슈인 AI와 AI로봇,AI컴퓨팅,보안 및 AI 융합 응용기술을 중심으로 AI와 함께 미래를 제시하는 자리"라며 "인공지능과 함께할 다가올 미래를 먼저체험해 보기 바란다"고 말했다. 한편 26일 열린 개막식에는 안철수 의원이 참석했다. 고동진·황정아 의원 등은 동영상 인사로 대신했다. 황정아 의원은 또 오전 행사 마지막에 잠시 들러 돌아봤다.

2024.06.27 09:34박희범

"새 AI 질서 만드는 국가가 AI 산업 이끈다"

"인공지능(AI)을 안전하게 만드는 것은 중요하다. 현재 AI 안전성 중심으로 각국서 리더십 전쟁이 벌어지고 있다. 새로운 AI 질서를 만드는 국가가 AI 산업을 이끌 것이다." 하정우 네이버클라우드 AI혁신센터장은 26일 국회의원연구단체 '국회 AI 포럼'이 개최한 창립총회 및 기념세미나에서 이같이 밝혔다. 하정우 센터장은 최근 각국 정부가 AI 안전을 위해 새로운 투자를 활성화하고 있다고 밝혔다. 그는 "AI 시대 질서를 어느 국가가 만드느냐가 관건이다"며 "미국과 캐나다 등은 AI 안전연구소 중심으로 AI 질서를 세우는 중이다"고 강조했다. 각국이 AI 안전연구소를 통해 AI 안전성과 정책을 연구하고 있다는 의미다. 그는 이에 대한 예시로 올해 4월 나온 캐나다 정부 사례를 소개했다. 이 국가는 AI 안전 연구소 설립 운영에만 500억원을 투자한다고 발표했다. AI와 데이터 법안 실행을 통한 혁신 지원으로 50억원을 투자한다고 했다. 하 센터장은 "AI 안전연구소가 정책과 법을 만든 후, 이 법이 실효성 있게 현실에 적용되도록 투자하는 셈"이라고 설명했다. 이 외에 AI 학계와 산업계 활성화를 위해 총 2조4천억원 규모 투자를 진행키로 했다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 핵심 축이 될 것"이라고 밝혔다. "정부, 안전한 AI 키우려면 AI법 서둘러야" 오순영 디지털플랫폼정부위원회 AI데이터분과 위원장은 "글로벌 AI를 선도하기 위해선 입법은 필수"라고 재차 강조했다. 오순영 위원장은 "AI 정책 주도권을 잡는 자가 글로벌 AI를 선도할 것으로 보인다"고 주장했다. 그는 "미국은 이미 AI 위험 관리 프레임워크를 발표했고, 영국은 AI 신뢰 정책을 내놓은 바 있다"며 "이처럼 해외에선 AI 위험성 대처를 위한 표준을 정하기 시작했다"고 알렸다. 국내 AI법이 여전히 국회에 잠들어있다는 점도 지적했다. 그는 "한국에 AI법이 없다는 사실이 불안하다"며 "자칫 도입 시기가 늦어지면 해외 빅테크에 주도권을 맡기는 사태가 벌어질 수 있다"고 주장했다. 그는 "정책적 시기가 늦어지면 국내 기업과 개인은 AI 선택권을 잃을 수도 있다"며 "정부는 빠른 AI법 추진을 위한 노력을 다각적으로 기울여야 한다"고 덧붙였다.

2024.06.26 17:03김미정

"공무원 일거리 줄어들까"…LG·SKT 손잡은 정부, 생성형 AI 첫 도입

#. 공무원 A씨는 인사이동으로 새로운 업무를 맡을 때마다 업무 매뉴얼을 숙지하고 정책 관련 법령 등을 찾아보는 것에 대한 부담이 컸다. 전임자나 팀원들에게 물어보는 것도 한계가 있었다. 하지만 '인공지능(AI) 행정 지원 서비스'가 도입되면 관련 업무매뉴얼, 법령·지침 등을 쉽게 찾아볼 수 있어 업무를 빠르게 파악하고 국민에게도 각종 행정서비스를 신속히 제공할 수 있게 될 것으로 기대하고 있다. 정부가 공공 부문 생성형 AI 도입에 본격 나서면서 공무원들의 일거리 부담도 줄어들 것으로 보인다. 정부는 중앙부처, 지방자치단체 등 다양한 의견을 바탕으로 범정부 AI 플랫폼 개발에도 박차를 가한다는 방침이다. 행정안전부는 'AI 행정 지원 서비스' 시범운영을 다음달까지 실시한다고 12일 밝혔다. AI 행정 지원 서비스는 ▲문서 요약 ▲문서 초안 작성 ▲법령·지침 정보 검색 ▲정보공개 민원 관련 공무원의 행정업무를 지원하는 정부 전용 AI 서비스다. 앞서 행안부는 지난해 11월 LG, SK텔레콤 등 민간기업과의 협업으로 AI 행정 지원 서비스 시범 개발을 완료했다. 이후 데이터 유출 등의 방지를 위해 정부 업무망 내부에 AI 서비스를 구축하고 추가 데이터 학습을 지속 진행 중이다. 시범운영은 참여 희망 여부, 업무연관성, 실·국간 균형 등을 고려해 행안부 7개 실·국과 4개의 소속기관 약 60명의 직원을 대상으로 시행한다. 지난해 개발된 서비스 가운데 AI 우선 적용이 가능하거나 활용성이 높을 것으로 기대되는 업무 유형을 ▲일반 행정업무 지원 ▲정보공개 업무지원 두 가지로 구분해 제공한다. 일반 행정업무 지원은 LG 개발 서비스를 활용해 문서 요약, 문서 초안(보도자료, 연설문 등) 작성, 문서 검색 등 일반 행정업무에 특화된 서비스를 제공한다. 정보공개 업무지원은 SKT 개발 서비스를 활용해 정보공개청구 민원 요약, 법령·매뉴얼·판례 등 판단 근거, 민원 답변서 초안 작성 등 정보공개 관련 서비스를 제공한다. 행안부는 시범운영을 통해 ▲문서 검색, 문서 작성 등 서비스 활용 사례 ▲서비스 이용 시 불편사항 등을 공유해 지속 보완할 계획이다. 또 보다 정확한 답변 도출을 위한 명령어 예시, 서비스를 통해 작성한 문서 등 사용자 간 활용 사례도 주기적으로 공유할 예정이다. 행안부와 시범운영 기업인 LG, SK텔레콤간 협의체를 운영해 서비스 기능 역시 지속 개선한다는 방침이다. 더불어 행안부는 AI 활용성이 높은 업무 분야를 추가로 발굴해 서비스 기능 개선을 거쳐 8월부터 10월까지 타 중앙기관, 지자체로 확산할 방침이다. 행안부는 AI 기술의 행정업무 적용 실현 가능성과 효용성 등에 관한 사전 검증을 지난해 4월부터 11월까지 진행했다. 이 결과를 바탕으로 정보전략계획(ISP)을 추진하고 있다. ISP는 범정부 AI 공통기반 플랫폼을 구축함과 동시에 정부의 업무관리시스템에 AI 행정 지원 서비스를 적용하는 것이 목표다. 행안부는 중앙부처, 지자체 등 시범운영 대상자의 다양한 의견을 수렴해 이번 ISP에 향후 본 사업 구축 시 관련 내용을 반영할 예정이다. 이상민 행안부 장관은 "시범운영을 통해 실제 일하는 공무원의 의견을 충분히 수렴할 것"이라며 "데이터와 AI를 기반으로 일하는 디지털플랫폼정부 구현 전환점으로 삼겠다"고 말했다.

2024.06.12 16:23장유미

생성형 AI는 과연 투명해질 수 있을 것인가

우리 정부는 인공지능(AI) 개발이 지향해야 할 가치로 세 가지를 꼽는다. 안전·포용·혁신. 강도현 과학기술정보통신부 2차관은 지난 달 29일(현지시간) 스위스 제네바에서 열린 '선의를 위한 인공지능(AI for Good) 글로벌 정상회의 2024' 행사에서 “AI는 사람을 중심으로 해야 한다”며 이를 강조했다. 안전·포용·혁신은 그 전주에 열린 'AI 서울 정상회의'에서 각국 정상이 합의한 지향이기도 하다. 세 가지 가치 중에서 현재 가장 뜨거운 것은 혁신이다. 혁신은 기술과 비즈니스 모델 개발에 방점이 찍혀 있다. 2022년 11월 챗GPT 출시 이후 AI가 인류의 최대 핫 기술이 된 것을 의심하는 사람은 없다. 많은 나라가 명운을 걸고 AI 산업 진흥에 국가 대항전을 펼치고 있으며, 기업도 사활이 걸린 문제로 인식하고 있다. 그중에서도 AI 모델과 이를 가능하게 할 AI 반도체 개발 경쟁이 치열하다. 혁신이 기술과 산업의 영역이라면 포용은 정치의 몫이다. AI 기술이 주목되는 까닭은 그것을 가진 자와 못 가진 자의 격차가 크게 벌어질 것이라는 게 자명하다는 데 있다. 그 격차는 사회적 혼란을 부른다. 이 혼란을 줄이기 위해서는 기술 발전으로 인한 혜택을 넓혀야 한다. 일자리 변화에 대한 대책을 세우고, 새로운 시대에 맞게 교육도 해야 한다. 산업보다는 정치가 담당해야 하는 역할들이다. 안전은 기술의 문제로 인식되곤 한다. 현재 AI와 관련된 안전 문제로 거론되는 사안은 시스템 오류, 편견, 조작, 무기화 등이다. 시스템 오류의 경우 기술이 갖는 비완벽성이라는 일반적 한계이고 편견의 경우 잘못된 학습으로 나타난 AI의 고유한 오류다. 조작과 무기화는 AI 기술 자체의 문제라기보다 이를 운용하는 인간의 문제다. 여하튼 이 모든 것을 기술로 해결해야 한다는 믿음이 있는 듯하다. 안전 문제는 그런데 기술 사안이기도 하면서 근본적으로는 철학의 영역이기도 한 것 같다. 정상회의의 테마가 '선의를 위한 인공지능(AI for Good)'이라는 게 예사롭지 않다. '선의(Good)'라는 것은 구체적으로 무엇을 의미하는 것일까. AI 자체에 의지(will)가 있고 그래서 착한 의지를 가진 AI를 개발해야 한다는 것일까, 아니면 이를 개발하고 사용하는 사람이 착한 마음을 갖게 해야 한다는 것일까. “AI는 사람을 중심으로 해야 한다”는 명제를 던진 것으로 보아 아마 후자 쪽에 더 무게를 둔 것 같다. AI는 도구에 불과한 것이고 그러므로 사람을 해치는 데 쓰지 말고 사람을 이롭게 하는 데 사용하도록 서로 합의하자는 의미겠다. AI 안전 문제 가운데 조작과 무기화를 세계적인 차원에서 각국 정부가 통제하자는 말도 된다. AI를 개발할 때 편견을 줄이도록 기업들에 독려하는 것도 포함될 듯하다. 안전은 곧 통제인 셈이다. 그런데 여기서 떨치기 어려운 의문이 하나 생긴다. 인간이 AI를 통제할 수 있는가의 문제다. 통제는 어떻게 가능한가. 통제 대상을 투명하게 만들 수 있어야 가능하다. 결국 AI를 투명하게 해야 통제가 가능하다. 그런데 AI는 두 가지 점에서 본질적으로 불투명하다. 하나는 불투명한 사람이 AI를 조종한다는 점이고, 다른 하나는 AI 자체가 투명할 수 없는 기술이라는 거다. 인간의 뇌는 불투명하다. 뇌를 해부할 수는 있어도 뇌의 작동을 통제할 수는 없다. 불투명하기 때문이다. 뇌가 불투명해서 믿을 수 없는 인간을 통제하기 위해 만든 게 도덕과 법과 종교 등이다. 뇌는 불투명하지만 행동은 투명하기 때문이다. 자연도 불투명하다. 불투명한 것은 위협적이다. 자연의 위협을 극복하려고 개발한 것이 과학기술이다. 지금까지 모든 과학기술은 투명했다. 통제 가능했다. AI는 인간이 개발한 기술 가운데 유일하게 불투명한 것이다. AI의 기술적 진화 방향은 인간의 뇌를 닮는 것이고 퍼포먼스에서 인간의 뇌를 뛰어 넘는 것이다. 불투명의 극한으로 가는 것이다. 그런데 AI를 진화시키기 위해서 인간은 더 투명해져야 한다. 인간의 모든 지성과 행위를 숨김없이 AI에게 보여야 하기 때문이다. AI에게 인간은 유리처럼 투명해지고 인간에게 AI는 알 수 없는 미궁인 것이다. 공평은 어쩌면 뇌가 불투명한 존재끼리 투명의 정도를 비슷하게 맞추어가는 과정을 의미할지도 모른다. 어느 한 쪽만 투명하다면 하나의 시선만 남는다. 검사와 범죄자처럼 일방적인 관계가 된다. 신뢰란 불투명한 존재끼리 서로 믿는 일이다. 투명해야 믿는 것은 신뢰가 아니다. 그건 통제다. 신뢰하지 않기 때문에 투명을 요구하는 것이다. AI와 인간은 공평할 수 없다. 그것이 안전 문제 본질이다.

2024.06.03 11:12이균성

"AI 안전은 뒷전"…美 빅테크, 잇따른 구설수로 명성 '흔들'

미국 빅테크 명성이 도마에 올랐다. 생성형 인공지능(AI) 기술 오류와 사내 갈등 이슈가 지속적으로 발생하면서다. 이에 제품 신뢰성과 기업 이미지에 큰 타격이 생겼다. 31일 업계에 따르면 구글 생성형 AI 검색 서비스 'AI 오버뷰'가 비정상적인 검색 결과를 제공해 뭇매를 맞았다. 검색 결과에 틀린 내용이나 관련 없는 답변을 제공했기 때문이다. 일각에선 '세계 1위 검색엔진 기업'이라는 명성까지 잃을 처지라는 지적이 이어졌다. 오픈AI는 내부 갈등으로 인한 잡음이 끊이지 않고 있다. 내부 이사회는 경영진이 AI 안전성을 소홀히 하고 수익 추구만 한다고 회사를 공개 비난했다. AI 안전성을 주장하던 주요 인물들이 줄줄이 사퇴하고, AI 안전 연구팀이 해체되는 등의 내부 갈등이 발생했다. "구글의 'AI 오버뷰' 도입은 큰 실수" 구글 생성형 AI 검색 서비스 AI 오버뷰가 환각현상을 일으킨 사례가 나왔다. 이 서비스는 이달 초 구글 연례 컨퍼런스에서 소개됐다. 사용자 맞춤형 검색 결과 제공, 요약해 주는 서비스다. 결과에 대한 링크도 공유한다. 현재 AI 오버뷰는 사용자에게 틀린 검색 결과나 비정상적인 답변을 제공해 뭇매를 맞고 있다. 사용자들은 관련 내용을 캡처해 소셜네트워크서비스(SNS)에 공유하기도 했다. 예를 들어 사용자가 '피자에 치즈가 조화롭게 붙으려면 어떻게 해야 하지?'라고 AI 오버뷰에 검색하면, '피자에 접착제를 사용하면 된다'는 답을 받았다. 뿐만 아니라 '버락 오마바 전 미국 대통령이다'라거나 제임스 매디슨 전 미국 대통령이 위스콘신대를 한번이 아니라 21번 졸업했다는 검색 결과도 SNS에 등장했다. 이에 다수 외신은 구글의 AI 오버뷰 도입은 실수라며 문제를 신속히 해결하지 않으면 장기적으로 명성에 큰 손상을 입을 것이라고 경고했다. 구글이 오픈AI나 메타 등 생성형 AI 경쟁사를 따라잡기 위해 불완전한 AI를 어설프게 출시한 것 아니냐는 평가도 나왔다. 오픈AI, 끝없는 사내잡음…이사회 "알트먼, AI 안전은 뒷전" 샘 알트먼 오픈AI 최고경영자(CEO)를 비롯한 경영진이 AI 안전성보다 비즈니스 확장에 신경 썼다는 주장도 제기됐다. 이로 인해 경영진과 이사회 사이에 잡음이 지속적으로 나왔던 것이다. 최근 헬렌 토너 전 이사는 알트먼 CEO를 비롯한 경영진들은 이사회가 꾸준히 요청한 AI 윤리·안전성을 뒷전으로 했다고 털어놨다. 그는 "알트먼과 경영진은 이사진 동의 없이 스타트업 투자 계획을 발표했다"며 "이들은 이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 말했다. 알트먼이 이사회에 AI 윤리·안전 정책에 대한 부정확한 정보를 제공했다는 점도 설명했다. 이에 이사회는 오픈AI 제품 안전성 평가를 할 수 있는 기준이 명확하지 않아 어려움을 겪었다는 것이다. 오픈AI는 AI 안전을 연구하는 '수퍼얼라인먼트' 부서를 이달 초 없앴다. 해당 팀원은 타팀으로 재배치된 것으로 전해졌다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창립자 겸 최고과학자도 회사를 떠났다. 수퍼얼라인언트 공동 리더인 얀 리이크도 뒤따라 오픈AI를 퇴사했다. 얀 리이크는 이달 18일 "안전은 AI 제품에 밀려 뒷전이 됐다"고 밝혔다. 이에 외신은 "AI 안전성을 강조하는 멤버들이 회사를 떠났다"며 "오픈AI는 수익에 급급한 기업이라는 오명을 썼다"고 평가했다. 오픈AI 측은 AI 안전에 대해 지속적으로 노력해 왔다는 입장이다. 오픈AI 애슐리 판툴리아노 법률고문은 이달 22일 서울에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에서 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 이슈는 안전에 대한 오픈AI 행보를 되돌아보도록 도와줬다"고 밝혔다.

2024.06.01 06:00김미정

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

테슬라, 韓서 완전자율주행 시동...정부 출신 인력 영입 나서

"왜 사람들은 이상한 음모론에 빠져들까?"

[써보고서] 갤럭시 S25 엣지, 뒷주머니에 넣었더니...한계 넘은 혁신

삼성전자, 17~19일 글로벌 전략회의…불확실성 돌파구 찾을까

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현