• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 안전'통합검색 결과 입니다. (106건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'안전한 AI 사용' 외친 美 빅테크, 제품 보안 강화 총력

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 이야기를 맛있게 보도하겠습니다. [편집자주] 미국 빅테크가 생성형 인공지능(AI) 기능 보안성을 한층 더 강화했다. 생성형 AI가 다양한 산업에 도입되면서 환각 현상을 비롯한 데이터 유출, 신원 도용, 해킹 등 위험 사례를 최소화하기 위해서다. 20일 미국 외신 사이버시큐리티 다이브 보도에 따르면, 연 매출 1억 달러(약 1천350억원) 이상에 해당하는 기업 경영진 다수가 "AI 애플리케이션 복잡성으로 취약점이 확대됐다"며 "사내 사이버 보안 태세가 약해졌다"고 밝혔다. 이에 아마존웹서비스(AWS)를 비롯한 미국 빅테크는 사용자 명령어에 대한 이해도를 높여 환각 현상을 줄이고, 보안 업그레이드로 사이버 공격과 데이터 유출 차단 줄이기에 나선 분위기다. AWS "생성형 AI 결과에 신뢰성 점수 매긴다" AWS는 생성형 AI 애플리케이션 관리·개발 플랫폼 '아마존베드록' 보안 기능을 맡는 가드레일을 업그레이드했다. 생성형 AI가 사용자 프롬프트 문맥 이해도를 높여 기존보다 더 정확한 답변을 낼 수 있게 돕는 '문맥 그라운딩 체크' 기능을 새로 탑재했다. 문맥 그라운딩 체크 기능 특장점은 객관적 수치를 통한 답변 필터링이다. 아마존베드록이 생성물에 신뢰성·정확성 점수를 자체적으로 매김으로써 답변 품질을 평가하는 식이다. 점수 매기는 기준은 문맥에 따라 다르다. 다만 공통으로 답변에 핵심 참조 내용이 포함됐는지, 질의 내용과 답변이 통일성 있는지, 답변과 질문 관련성이 얼마나 높은지를 측정한다. AWS코리아 김선수 AI·ML사업개발 매니저는 "점수 매기는 작업은 AWS 노하우를 통해 이뤄진다"고 설명했다. 이어 "답변에 AWS가 지정한 필수 출처 내용이 답변에 없으면 이를 사용자에게 제공하지 않는다"며 "답변 품질 점수가 평균보다 낮을 때도 이를 내놓지 않는다"고 강조했다. 마이크로소프트 "생성형 AI 보안도 AI로 지킨다" 마이크로소프트는 '코파일럿'과 보안 제품을 통합해 일반 솔루션뿐 아니라 AI 기반 제품 보호에 나섰다. 가장 대표적인 AI 보안 솔루션은 '마이크로소프트 코파일럿 포 시큐리티'다. 코파일럿 포 시큐리티는 약 78조개 넘는 보안 신호와 대규모 데이터, 위협 인텔리전스를 거대언어모델(LLM)과 결합해 인사이트를 제공할 수 있다. 이를 통해 사용 조직은 생성형 AI 솔루션 외부 위협을 신속히 감지하고 대응할 수 있다. 마이크로소프트는 생성형 AI 사용 중 발생할 수 있는 정보 유출 방지 솔루션도 운영하고 있다. 프리뷰로 제공되는 '코파일럿 인 마이크로소프트 엔트라 유저 리스크 인베스티게이션'은 마이크로소프트 엔트라에 탑재됐다. 이 솔루션은 사용자 개인정보 유출을 막고, 보안 위협이 발생했을 때 빠르게 대처 가능하도록 지원한다. 특히 사용자 위험을 파악해 적절한 가이드를 제공하고, 향후 발생할 수 있는 위협을 예측해 해결법을 제시할 수 있다. 세일즈포스 "믿을 만한 데이터로만 접근" 세일즈포스도 '세일즈포스 데이터 클라우드' 내 제품서 작동하는 생성형 AI 솔루션에 데이터 보안성을 높였다. 세일즈포스는 17일부터 19일까지 미국 샌프란시스코에서 열린 '드림포스 2024'에서 자율형 AI '에이전트 포스'에 이런 데이터 보안 기능을 적용했다. 에이전트 포스는 사용자 요청 없이도 관련 업무를 24시간 자율적으로 수행할 수 있는 로우코드 플랫폼이다. 데이터 클라우드 내에서 작동한다. 에이전트포스를 비롯한 데이터 클라우드 기반 솔루션은 AI를 통해 비구조화된 데이터를 자동으로 분류·라벨링한다. 실시간 데이터 관리가 일괄적으로 가능하다. 세일즈포스는 해당 제품 내 데이터 접근 권한도 세분화할 수 있다. 대규모 데이터 환경에서도 사용자 그룹별로 적절한 권한을 부여할 수 있는 보안 정책을 갖췄다. 데이터 접근 허용자만 이를 확인할 수 있는 셈이다. 이 외에도 기업이 스스로 암호화 키를 관리할 수도 있다. 데이터를 사용 중이거나 저장 중일때도 암호화된 상태로 데이터 보안 유지를 할 수 있다. 마크 베니오프 세일즈포스 최고경영자(CEO)는 행사 기조연설에서 "신뢰할 수 있는 데이터 관리 방식을 에이전트포스에 제공했다"며 "새로운 혁신과 고객 증가로 데이터 클라우드 모멘텀이 치솟을 것"이라고 재차 강조했다.

2024.09.20 16:07김미정

獨 알레프알파, 외국어·공학 전문 LLM '파리아' 출시

독일 인공지능(AI) 기업 알레프알파가 다국어와 특정 도메인에 최적화된 생성형 AI 모델을 오픈소스 형태로 공개했다. 알레프알파 거대언어모델(LLM) '파리아-1-LLM'을 출시했다고 27일 밝혔다. 매개변수 70억개로 이뤄졌다. '파리아-1-LLM'은 독일어·프랑스어·스페인어 등 다양한 언어에서 최적화된 기능을 제공하며 자동차와 공학 분야에 특화된 것으로 알려졌다. 현재 비상업적 연구 및 교육 용도로만 활용될 수 있다. 이 모델은 유럽연합(EU) 및 각 회원국의 저작권과 데이터 프라이버시 법규를 준수하며 제작 됐다. 알레프알파는 "엄선된 데이터를 사용해 모델을 훈련했다"고 설명했다. 알레프알파는 이번 모델 투명성과 안전성을 특히 신경썼다고 강조했다. 부적절한 답변을 걸러내는 데이터셋을 활용해 학습시키는 등 추가 안전장치를 도입했다. 또 답변이 지나치게 장황하거나 불필요한 정보를 포함하지 않도록 하는 기법도 적용했다. '파리아-1-LLM'은 두 가지 버전으로 제공된다. 하나는 사용자 지시에 특화된 '통제(control)' 모델이고 다른 하나는 안전성을 보다 강화한 '통제-정렬(control-aligned)' 모델이다. 독일의 머신러닝 엔지니어인 사마이 카파디아는 "'파리아'는 저작권과 개인정보 보호법 등 EU 규제를 완전히 준수해 훈련됐다"며 "이런 모델의 출시 자체만으로도 상당히 인상적인 성과"라고 평가했다.

2024.08.27 10:19조이환

앤트로픽 CEO "캘리포니아 AI 법안, 혁신 촉진할 것"

캘리포니아 주 상원 표결을 앞두고 있는 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 대해 앤트로픽 대표가 긍정적인 평가를 내렸다. 25일 유에스뉴스에 따르면 캘리포니아 AI 규제 법안인 'S.B. 1047'의 상원 표결이 지난 20일 시작됐다. 이 법안은 1억 달러 이상의 개발 비용이 들거나 일정량의 컴퓨팅 파워를 요구하는 고급 AI 모델에 대한 테스트를 의무화하는 내용을 담고 있다. 이는 AI 개발에 있어 안전성을 강화하기 위함이다. 다리오 아모데이 앤트로픽 대표는 이번 법안이 AI 개발에 긍정적인 영향을 미칠 수 있다고 평가했다. 특히 AI 기술 환경의 변화에 테크 업계가 대비하도록 지원할 수 있다고 주장했다. 법안은 AI 모델이 오작동할 경우 이를 종료할 수 있는 '킬 스위치' 설치를 의무화하고 있다. 또 사업자와 AI 개발자가 규정을 위반할 경우 캘리포니아 주 법무장관이 이에 소송을 제기할 수 있다. 이는 AI 기술의 오남용을 방지하기 위한 조치로 해석된다. 앞서 구글, 메타, 오픈AI 등 주요 테크기업들은 이 법안이 캘리포니아 주를 AI 개발에 불리한 환경으로 만들 우려가 있다고 지적했다. 특히 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 주 상원의원에게 공개서한을 보내 AI 규제는 연방 정부의 권한 아래 이뤄져야만 한다고 주장한 바 있다. 아모데이 대표는 "법안 내용이 개정됨에 따라 초기의 우려가 크게 줄어들었다"며 "이번 법안이 AI 개발 과정에서 혁신과 안전성을 모두 담보할 수 있을 것으로 기대한다"고 말했다.

2024.08.25 09:20조이환

오픈AI, 캘리포니아 AI 법안 반대…주 상원의원 "말도 안 되는 소리"

지난 20일부터 미국 캘리포니아 주 의회가 표결 중인 인공지능(AI) 규제 법안에 대한 의견이 분분하다. 22일 테크크런치 등 외신에 따르면 오픈AI 이사가 '첨단 인공지능(AI) 시스템을 위한 안전과 보안 혁신법안(S.B. 1047)'에 반대하는 목소리를 냈다. 이에 주 상원의원이 "말도 안 되는 소리"라고 일축했다. 해당 법안은 캘리포니아 내 AI 개발 사업자들에게 모델 안전성 테스트 등 사전 예방 조치를 요구하는 내용을 담고 있다. 제이슨 권 오픈AI 최고전략임원은 지난 21일 법안을 발의한 스콧 위너 상원의원에게 공개서한을 보내 "법안이 AI 혁신을 저해할 것"이라고 지적했다. 그러면서 그는 법안이 시행될 경우 "캘리포니아의 엔지니어들과 테크기업들이 다른 주로 떠날 수 있다"며 "미국의 경쟁력을 위해 최첨단 모델의 규제는 국가 차원에서 진행돼야 한다"고 밝혔다. 이에 법안을 발의한 스콧 위너 상원의원은 오픈AI의 주장이 논리적이지 않다고 반박했다. 그는 법안이 캘리포니아에 본사를 두지 않은 기업에도 적용되므로 기업들이 주를 떠날 필요가 없다고 강조했다. 또 오픈AI가 법안의 구체적인 조항을 비판하지 않고 단순히 연방 규제를 요구하는 점에 대해서도 비판했다. 해당 법안 표결은 오는 30일까지 진행된다. 통과될 경우 개빈 뉴섬 캘리포니아 주지사의 서명을 받게 된다. 뉴섬 주지사의 입장은 아직 명확하지 않지만 법안이 통과될 경우 산업계의 강력한 반발이 예상된다. 특히 오픈AI 측은 캘리포니아 주의 규제 환경 변화에 대한 우려로 샌프란시스코 사무실 확장 계획을 보류하고 있는 것으로 알려졌다. AI 업계 관계자는 "캘리포니아의 AI 규제가 통과하는지 여부에 따라 산업계의 대응이 달라질 수 있다"며 "실리콘 밸리가 위치해 테크 기업들이 몰린 지역이기 때문에 이번 표결에 많은 것이 걸려있다"고 밝혔다.

2024.08.22 15:24조이환

딥러닝 '대부' 벤지오, 英 AI 안전 프로젝트 합류

캐나다 몬트리올대 요슈아 벤지오 교수가 영국 인공지능(AI) 안전 프로젝트 '세이프가드 AI(Safeguarded AI)'에 합류한다. 8일 MIT 테크놀로지리뷰에 따르면 딥러닝 대부로 알려진 벤지오 교수는 영국 정부가 주도하는 세이프가드 A' 프로젝트 과학 감독자로 임명됐다. 이 프로젝트는 영국 고등연구발명청(ARIA)에서 4년 동안 5천900만 파운드(약 1천30억 원)를 지원받아 진행된다. 세이프가드 AI 프로젝트는 AI 시스템이 현실에 미치는 영향을 수치화해 안전성 보장 메커니즘을 개발하는 데 중점을 둔다. 이 과정에서 AI를 통해 다른 AI 시스템을 점검하고 검증하는 방식을 활용해 인간이 검증하는 '레드팀' 방식보다 보다 신뢰할 수 있는 방법을 제시할 계획이다. 특히 프로젝트는 교통, 에너지 등 위험사태가 발생할 가능성이 큰 고위험 분야에서 AI 에이전트의 안전성을 관리하는 '게이트키퍼' AI를 제작할 예정이다. 이를 위해 고등연구발명청은 첫 해에 540만 파운드(약 94억3천200만원), 다음 해에 820만 파운드(약 143억2천만원)의 자금을 제공해 AI 안전 메커니즘 연구를 지원하게 된다. 세이프가드 AI 프로젝트는 국제적 AI 안전 협력을 촉진하고 영국을 해당 분야의 선도국으로 자리매김하려는 목적으로 시작됐다. 실제로 벤지오 교수는 이미 영국 블레츨리 선언에 참가한 30개국·UN·EU가 참여하는 AI 안전성 국제 과학 보고서의 총책임자 역할을 맡고 있다. 벤지오 교수는 프로젝트 합류에 대해 "지금 우리는 뒤에 절벽이 있을지도 모르는 안개를 향해 달려가고 있다"며 "그 안개를 걷어낼 도구를 구축하고 절벽 너머로 떨어지지 않도록 해야 한다"고 강조했다.

2024.08.08 09:25조이환

국립공원공단, AI 데이터 분석으로 사고 예방한다

환경부 산하 국립공원공단(이사장 송형근)은 무리한 산행에 의한 3대 사망사고(심장돌연사·추락사·익사사고)를 예방하기 위해 안전사고 통계 정보(데이터) 분석을 기반으로 인공지능(AI) 기술을 활용한 예방 중심 안전관리를 추진한다고 6일 밝혔다. 국립공원공단에 따르면 지난 2014년부터 2023년까지 최근 10년 간 국립공원에서는 총 167건의 사망사고가 발생했다. 이가운데 심장돌연사(50%), 추락사(32%), 익사(9%) 등 3대 사망사고 비중이 91%를 차지했다. 심장돌연사와 추락사는 탐방객이 많은 10월(15명18%, 11명 20%)과 주말(53명 63%, 32명 60%)에 주로 발생했다. 연령대로 보면 50대 이상(69명 82%, 48명 89%), 남성(82명 98%, 39명 72%)의 비중이 높았다. 익사는 절반(11명, 73%) 이상이 7월 하순부터 8월 중순 사이에 집중적으로 발생했고 연령대는 50대 이상(8명, 53%)에서 가장 많지만 20대(3명, 20%), 40대(3명, 20%)에서도 발생했다. 국립공원공단은 최근 10년간 국립공원에서 발생한 안전사고 통계 정보와 기상청 자료·위성 데이터를 활용해 사고 발생지점의 지리·환경적 특성 등을 분석, 기존 사고 발생지역 외에 추가로 사고 발생 위험이 있는 구간 130곳을 찾아냈다. 국립공원공단은 이번 분석 결과를 바탕으로 ▲안전쉼터 및 스마트 자동심장충격기(AED) 구축 ▲위험 안내시설 설치 등 탐방객 안전사고 예방을 위한 재난·안전 사업을 추진할 예정이다. 송형근 국립공원공단 이사장은 “각종 통계 정보를 활용한 사고 발생지점 예측분석은 그간 공원관리 경험과 과학적 분석 기법을 더해 안전관리 체계를 더욱 공고하게 해줄 것”이라며 “정확하고 정밀한 예측을 통해 탐방객 안전관리에 선제적으로 대응하겠다”고 말했다.

2024.08.06 17:46주문정

오픈AI, 올 가을 'GPT-5' 발표 안 한다

오픈AI가 오는 가을 개발자 행사에서 'GPT-5' 등 신제품을 공개하지 않을 예정이다. 이는 지난해 'GPT-4 터보' 등 주요 최신 제품이 개발자 행사에서 발표된 바와 대비된다. 6일 테크크런치에 따르면 오픈AI는 올가을 미국 샌프란시스코, 영국 런던, 싱가포르에서 열리는 개발자 행사에서 새 모델을 발표하지 않을 것이라고 발표했다. 대신 기존 도구의 활용성을 확장할 수 있는 애플리케이션 프로그램 인터페이스(API)와 서비스 업데이트에 집중할 예정이다. 이런 조치는 최근 오픈AI가 기존 모델 'GPT-4'의 성능을 조정하고 향상시키는 데 집중해 'GPT-4o'와 'GPT-4o 미니' 등을 출시한 상황과 맞물린다. 샘 알트먼 오픈AI 최고경영자(CEO)는 'GPT-5' 모델이 보일 파격적인 성능에 대해 여러 차례 언급한 바 있지만 출시 시점에 대해서는 밝히지 않았다. 지속적인 모델 성능 향상에도 오픈AI는 생성형 인공지능(AI) 경쟁에서 초창기 보유했던 기술 우위를 일부분 상실한 상태다. 지난 1일 출시된 구글의 실험용 생성형 AI '제미나이 1.5 프로(Gemini 1.5 Pro)'는 'LMSYS 챗봇 아레나(LMSYS Chatbot Arena)' 벤치마크에서 'GPT-4o'를 제쳤다. 또 최근 앤트로픽 '클로드(Claude)'의 최신 모델이 일부 벤치마크에서 오픈AI 제품들을 앞섰던 바 있다. 이는 오픈AI가 고품질 학습 데이터를 확보하는 데 어려움을 겪는 상황과 맞물린다. 많은 웹사이트가 회사의 크롤러를 차단하면서 데이터 접근이 제한되고 있기 때문이다. 메사추세츠 공대(MIT)의 연구에 따르면 고품질 데이터의 약 25%가 학습에 사용되지 않고 있다. 이러한 추세가 계속된다면 향후 10년 내 AI 모델 학습 데이터가 고갈될 것이라는 예측도 있다. 오픈AI는 이러한 문제를 해결하기 위해 다양한 데이터 라이선스 계약을 체결 중이다. 기술적인 측면에서 오픈AI는 '스트로베리' 프로젝트와 같은 연구개발(R&D) 사업을 진행하며 모델이 수학 문제를 원활히 해결하고 추론 능력을 발전시키도록 매진하고 있다. 일각에서는 'GPT-5'의 출시 연기가 오픈AI에 의도치 않은 이익을 가져다줄 수 있다고 본다. 이는 오픈AI가 최근 AI 안전을 전담하는 '초정렬(superalignment)' 팀을 해체하고 저작권이 있는 데이터를 모델 훈련에 사용한다는 비판을 받아왔기 때문이다. 테크크런치는 "현재 오픈AI는 기술 발전에만 신경 쓰고 AI 안전에는 소홀하다는 비판에 직면해 있다"며 "제품 출시 연기는 이러한 비판에 반례를 제공하는 등 긍정적인 부작용을 낳을 수 있다"고 분석했다.

2024.08.06 09:50조이환

마커스 뉴욕대 교수 "알트먼 못 믿어…언행불일치 잦아"

인지심리학자 게리 마커스 뉴욕대 교수가 샘 알트먼 오픈AI 최고경영자(CEO)를 신뢰할 수 없다고 밝혔다. 알트먼 CEO 발언과 행동이 일치하지 않은 사례가 많았다는 이유에서다. 5일 가디언에 따르면 마커스 교수는 "알트먼 오픈AI CEO가 세상에서 가장 큰 권력을 가진 인물이 됐다"며 "이는 매우 두려운 일"이라고 주장했다. 마커스 교수는 알트먼 CEO가 회사 이익을 위해 진실을 왜곡한 점을 지적했다. 알트먼 CEO가 지난해 미국 상원 청문회에서 한 발언을 근거로 들었다. 당시 알트먼 CEO는 청문회에서 "건강보험을 들 수 있을 정도의 돈만 벌고 있다"며 "오픈AI에 대한 지분은 없다"고 발언했다. 실제 그는 미국 최대 스타트업 액셀러레이터 기업인 와이 콤비네이터(Y Combinator) 주식을 소유해 간접적으로 오픈AI 지분을 가지고 있었다. 마커스 교수는 알트먼 CEO가 규제에 대해 솔직하지 않다고 지적했다. 청문회에서 AI 규제를 강력히 옹호했던 언행과 다르게 오픈AI는 지난 2022년부터 유럽연합(EU) AI법이 생성형 AI를 강력히 규제하지 못하도록 EU 당국에 로비해왔다. 지난해 11월 오픈AI 이사회가 알트먼 CEO를 "솔직하지 않다"며 해고하고 지난 5월에는 일리야 수츠케버 공동창업자 등 AI 안전과 관련된 주요 인사들이 잇따라 회사를 떠나는 등 내부적 논란이 있어 왔다. 이에 외신은 알트먼 CEO의 언행불일치가 회사 신뢰성을 떨어뜨린다고 지적했다. 이러한 상황에 대해 마커스 교수는 "AI 기술은 공공의 이익을 위해 투명하고 윤리적으로 관리돼야 한다"며 "안전하고 신뢰 가능한 기술 발전을 위해서는 시민들이 목소리를 높여야 한다"고 강조했다.

2024.08.05 12:17조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

"직원 연봉 2억4천"…英 정부, AI안전연구소에 투자한 이유는?

영국 정부가 글로벌 인공지능(AI) 경쟁서 주도권을 잡기 위해 기술뿐 아니라 AI 안전성 강화에 노력을 쏟고 있다. 최근 AI 안전 영역은 영국과 미국, 캐나다, 중국 등 각국 정부가 집중하고 있는 부분이다. 31일 업계에 따르면 영국 과학혁신기술부(DSIT)는 최근 AI안전연구소(AISI) 수석 프롬프트 엔지니어 채용공고를 냈다. 연봉은 수당 포함 6만5천~13만5천 파운드(약 1억7천~2억4천만원)다. 영국 구직 사이트 탈렌트에 표기된 2023년 기준 수석 엔지니어 평균 연봉은 약 5만5천 파운드(약 9천700만원)다. 해당 엔지니어 주요 업무는 첨단 AI 시스템 위험성 평가를 위한 프롬프트 설계다. 대학, 연구소, 기업 연구팀과 손잡고 AI 안전성 연구를 수행하고, AI 모델의 행동 수정과 목표 행동 유도 등으로 거대언어모델(LLM) 안전성도 연구한다. 지원자는 프롬프트 엔지니어링 전문성과 파이선 코딩 능력, AI 안전성에 대한 기본 소양은 필수로 갖춰야 한다. 선발 과정은 코딩 테스트, 기술 과제, 면접이다. 국내 AI 업계는 해당 직책이 영국 AI 안전성 연구와 정책 개발에 중요한 역할을 할 것이라고 평가했다. 영국 정부가 AI 안전성 리더십 선점을 본격화한 셈이다. 하정우 네이버클라우드 AI센터장은 자신의 소셜미디어(SNS)에서 "최근 글로벌 AI 국가 경쟁이 안전성 중심으로 돌아가고 있다"며 "앞으로 AI안전연구소는 국가 안보 역할도 할 것"이라고 언급했다. 이어 "AI 안전에 대한 영국 정부의 투자가 중요한 사례가 될 것"이라고 덧붙였다. 하 센터장은 최근 각국 정부가 AI 안전성에 투자를 활성화하고 있다는 점도 강조했다. 또 AI 시대 질서를 어느 국가가 만드느냐가 관건으로, 최근 미국과 캐나다가 AI안전연구소를 중심으로 질서를 만들고 있다는 점을 예로 들었다. 실제 캐나다 정부는 AI안전연구소 설립에만 500억원을 투자하겠다고 밝힌 바 있다. 여기서 나오는 정책이 실효성 있게 할 수 있도록 50억원을 추가 투자할 계획이다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 이에 대해 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 필수 요소가 될 것"이라고 강조했다.

2024.07.31 15:44김미정

행안부, 공공데이터 사업화 지원…"창업 준비부터 해외진출까지"

행정안전부가 공공데이터 활성화를 위한 지원사업 2종을 추진한다. 행정안전부는 공공데이터 활용기업 맞춤형 지원과 리빙랩 프로젝트를 진행한다고 29일 밝혔다. 먼저, 공공데이터 활용기업을 대상으로 '맞춤형 지원사업'을 제공한다. 맞춤형 지원사업 대상으로 선정된 기업은 전문 컨설턴트와의 상담을 거친다. 상담을 통해 기업의 역량과 창업 전, 초기, 성장기, 도약기 등 기업 형태를 분석한 결과를 반영해 성장 단계에 맞춘 맞춤형 프로그램을 지원받는다. 사업 초기 단계의 기업이나 예비창업자에게는 공공데이터를 활용한 사업 전략 수립을 지원하고, 사업에 필요한 공공데이터를 효과적으로 찾을 수 있도록 관련 컨설팅을 제공한다. 이미 공공데이터 활용 서비스를 제공하고 있는 기업은 ▲데이터를 활용한 기술이나 인공지능(AI)·클라우드 등 신기술 접목과 관련한 컨설팅 ▲사업 확장 등을 위한 자금 조달 방안 ▲해외 진출 지원 멘토링 등을 제공받을 수 있다. 이번 공모는 공공데이터를 활용해 서비스를 제공하거나 개발하고자 하는 기업과 예비창업자 누구나 지원할 수 있다. 적격성 심사와 심의위원회 평가를 거쳐 최종 30개 기업을 선정할 예정이다. 지난해 30개 기업 및 예비창업자를 대상으로 맞춤형 지원 프로그램을 제공한 결과, 신규 사업등록 2건, 지식재산권 출원·등록 16건, 18건의 신규 서비스가 출시됐다. 이 중 2개 기업은 투자 자금을 유치하는 등의 성과가 있었다. 시민이 생활 속 문제를 발견하고, 공공데이터를 활용해 해결책을 설계해 직접 문제를 해결하는 공공데이터 활용 '리빙랩 프로젝트'도 공모를 진행한다. 서류심사와 심의위원회 평가를 통해 선정된 4개 단체에 프로젝트 수행을 위한 지원금(최대 750만 원)과 전문가 교육·멘토링을 제공한다. 프로젝트 수행 결과가 우수한 2개 프로젝트는 행정안전부 장관상과 한국지능정보사회진흥원 원장상을 수여할 예정이다. 지난해에는 '마을버스 정보안내단말기(BIT) 미설치 정류장 우선 도입 순위 제안' 및 '금연 구역 데이터를 활용한 흡연부스 설치 입지 선정' 과제 등이 우수사례로 선정됐다. 공공데이터 활용과 관련된 두 공모사업의 상세한 내용은 행정안전부에서 운영하는 공공데이터포털과 한국지능정보사회진흥원 누리집을 통해 확인할 수 있다. 이용석 디지털정부혁신실장은 “민간의 많은 참여를 통한 민·관 협력 활성화가 디지털플랫폼정부 구현의 핵심”이라며, “정부의 방대한 공공데이터를 국민과 기업이 더 쉽게, 잘 활용할 수 있도록 적극 지원하겠다”고 밝혔다.

2024.07.29 15:07남혁우

KT, 안전보건총괄 신설...브랜드전략실 확대

KT가 사내 안전보건 관리와 그룹 브랜드 이미지 관련 조직을 강화하는 방향으로 조직을 소폭 개편했다. 1일 업계에 따르면, KT는 이날 전사 안전보건 관리체계와 콘트럴타워 역할 강화를 위해 사내 독립조직으로 안전보건총괄(CSHO)을 신설하고 임현규 경영지원부문장이 겸직하기로 했다. 아울러 그룹 차원의 브랜드 이미지(BI)와 기업 이미지(CI) 체계를 정립하고 그룹사 간 시너지 강화를 위해 브랜드 전략실을 신설했다. 기존 브랜드커뮤니케이션 담당 조직의 기능을 확대한 것으로 윤태식 상무다 보임됐다. 기존 임원의 겸직, 보임 배치와 함께 인공지능(AI) 분야에 신규 영입 인사도 이뤄졌다. 기술혁신부문 AI2X랩 AI코어기술담당에 엔씨소프트의 초대 AI테크센터장을 지낸 신동훈 상무를 영입했다. 신 상무는 게임 사업에 적합한 AI언어모델을 개발해왔는데, KT가 최근 마이크로소프트와 AI와 클라우드 분야에서 전략적 파트너십을 체결하고 AI 인재를 대거 채용키로 한 데 따른 인사로 풀이된다. 회사 안팎에서는 연말 정기인사를 앞두고 미디어부문을 비롯해 대규모 개편이 이뤄질 수 있다는 전망이 나왔으나 일부 조직의 기능 확대 방향으로 인사가 이뤄졌다. KT 관계자는 “급변하는 사업환경과 기술변화에 신속하게 대응하고 조직의 경쟁력 강화 차원에서 회사 전략 방향에 맞춰 일부 조직을 개선하고 임원인사를 시행했다”고 설명했다.

2024.07.01 10:34박수형

ETRI "내년 AI안전연구소 설립"…판교 등 유력

한국전자통신연구원(ETRI, 원장 방승찬)이 2025년 달성할 '탑챌린지 프로젝트' 7개를 공개했다. 방승찬 원장은 서울 과학기술컨벤션센터에서 27일까지 열리는 'ETRI 컨퍼런스 2024'에서 지난 연구성과와 함께 내년 계획을 공개했다. ETRI는 '디지털 혁신으로 만드는 행복한 내일:인공지능과의 동행'을 주제로 ▲인공지능 ▲로보틱스 ▲AI컴퓨팅·보안 ▲AI융합·응용 등 4개 부문의 성과를 발표하는 기술세션과 22개 핵심기술 전시회, 혁신투자포럼을 진행했다. 방 원장은 내년 달성 목표인 '탑챌린지 프로젝트' 7개를 공개했다. 우선 초성능 부문에서 고성능 컴퓨팅 노드 테스트베드를 구축한다. 고성능 컴퓨팅 노드에 HPC-SoC 초병렬 프로세서 등을 탑재하고, AI 반도체를 위한 AI컴파일러 및 프레임워크 기술을 개발할 계획이다. 또 고성능 컴퓨팅 실증 서비스 가능성을 보여줄 시연도 목표로 잡고, 사업화까지 병행 추진한다. 초연결 부문에서는 차세대 통신 조기 상용화를 위한 6G PoC 추진 및 책심 기술 표준 선점이 목표다. 서브-테라헤르츠 시스템 실증 및 핵심기술 6G 표준화와 800㎞ 초저지연 서비스 실증, ETRI pre-6G IoT NTN 위성 누리호 4차 발사 (2025.11) 탑재 등을 추진한다. 디지철 융합 부문에서는 차세대 AAM 자율비행을 위한 ICT 기반 비상상황인지 안전항법솔루션을 발표하는 것이 목표다. 방문객 응대 멀티모달 휴머노이드 로봇 내년 실증 초지능 부문에서는 방문객 응대 멀티모달 휴머노이드 로봇을 실증한다. 멀티모달 교감형 대화기술과 전신 제스처 및 표정 생성 기술, 물건 전달 등 행동 생성 기술을 확보할 계획이다. 초실감 부문에서는 가상 공간 내에서 실세계와 동일한 체험을 할 입체영상 기반 실가상 융합 미디어 기술 개발 및 시연이 이루어진다. 이를 위해 라이트 기반 무안경 입체영상 미디어 스트리밍 기술과 3개 초점면 표현 가능한 입체영상 VR디바이스 모듈, 실재감 제공 원격 교감 상호작용 기술 등을 개발한다. 비침습 무채혈 방식 웨어러블 연속 혈당 측정 기술도 개발 및 시연한다. 귓불형으로 정확도는 95%, 연속 측정시간 5부이내를 목표로 연구소 기업 설립을 추진한다. 이와함께 ETRI는 신뢰 AI기반 공존을 위한 AI안전연구소 설립 및 운영을 통해 AI에서 발생 가능한 위험을 최소화하고 지속 가능성을 확보할 계획이다. AI안전연구소 위치는 판교가 유력하다. 예산과 인력 규모는 현재 논의 중인 것으로 알려졌다. 전시장선 AI 주제 로봇 3대 선보여 관심 이에 앞서 방 원장은 최근 핵심 성과인 ▲종단형 음성인식 기술 ▲자율성장AI ▲근접탐색기술 ▲AI과학경호 등의 기술을 시연했다. 이어 ㈜솔트룩스의 이경일 대표는 'AI for ALL 시대, AI의 다음 단계를 위해 무엇을 준비해야 하나'를 주제로 기조연설했다. 기술세션에서는 ▲실시간 통역 ▲AI외국어 교육 ▲자율주행 모빌리티 ▲사람과 대화하는 소셜로봇 ▲보행로봇 ▲온디바이스 메모리 ▲AI반도체 등의 'AI컴퓨팅', ▲사용자 신원확인 AI ▲AI와 융합된 응용 서비스 등을 논의하는 자리가 마련됐다. 전시장에서는 △오경보로부터 자유로운 AI화재센서 △청각장애인을 위한 음악향유 기술 △지하철 역사내 소음환경에서 13개 언어 실시간 통역 기술 △길안내 로봇이동 기술 △국산 AI반도체를 지원하는 AI컴파일러 등 22개 기술이 공개됐다. 혁신투자포럼에선 소재부품장비 및 ICT 분야의 6개사와 바이오·메디컬·헬스케어 분야 6개사 총 12개사가 IR했다. 방승찬 원장은 "가장 큰 이슈인 AI와 AI로봇,AI컴퓨팅,보안 및 AI 융합 응용기술을 중심으로 AI와 함께 미래를 제시하는 자리"라며 "인공지능과 함께할 다가올 미래를 먼저체험해 보기 바란다"고 말했다. 한편 26일 열린 개막식에는 안철수 의원이 참석했다. 고동진·황정아 의원 등은 동영상 인사로 대신했다. 황정아 의원은 또 오전 행사 마지막에 잠시 들러 돌아봤다.

2024.06.27 09:34박희범

"새 AI 질서 만드는 국가가 AI 산업 이끈다"

"인공지능(AI)을 안전하게 만드는 것은 중요하다. 현재 AI 안전성 중심으로 각국서 리더십 전쟁이 벌어지고 있다. 새로운 AI 질서를 만드는 국가가 AI 산업을 이끌 것이다." 하정우 네이버클라우드 AI혁신센터장은 26일 국회의원연구단체 '국회 AI 포럼'이 개최한 창립총회 및 기념세미나에서 이같이 밝혔다. 하정우 센터장은 최근 각국 정부가 AI 안전을 위해 새로운 투자를 활성화하고 있다고 밝혔다. 그는 "AI 시대 질서를 어느 국가가 만드느냐가 관건이다"며 "미국과 캐나다 등은 AI 안전연구소 중심으로 AI 질서를 세우는 중이다"고 강조했다. 각국이 AI 안전연구소를 통해 AI 안전성과 정책을 연구하고 있다는 의미다. 그는 이에 대한 예시로 올해 4월 나온 캐나다 정부 사례를 소개했다. 이 국가는 AI 안전 연구소 설립 운영에만 500억원을 투자한다고 발표했다. AI와 데이터 법안 실행을 통한 혁신 지원으로 50억원을 투자한다고 했다. 하 센터장은 "AI 안전연구소가 정책과 법을 만든 후, 이 법이 실효성 있게 현실에 적용되도록 투자하는 셈"이라고 설명했다. 이 외에 AI 학계와 산업계 활성화를 위해 총 2조4천억원 규모 투자를 진행키로 했다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 핵심 축이 될 것"이라고 밝혔다. "정부, 안전한 AI 키우려면 AI법 서둘러야" 오순영 디지털플랫폼정부위원회 AI데이터분과 위원장은 "글로벌 AI를 선도하기 위해선 입법은 필수"라고 재차 강조했다. 오순영 위원장은 "AI 정책 주도권을 잡는 자가 글로벌 AI를 선도할 것으로 보인다"고 주장했다. 그는 "미국은 이미 AI 위험 관리 프레임워크를 발표했고, 영국은 AI 신뢰 정책을 내놓은 바 있다"며 "이처럼 해외에선 AI 위험성 대처를 위한 표준을 정하기 시작했다"고 알렸다. 국내 AI법이 여전히 국회에 잠들어있다는 점도 지적했다. 그는 "한국에 AI법이 없다는 사실이 불안하다"며 "자칫 도입 시기가 늦어지면 해외 빅테크에 주도권을 맡기는 사태가 벌어질 수 있다"고 주장했다. 그는 "정책적 시기가 늦어지면 국내 기업과 개인은 AI 선택권을 잃을 수도 있다"며 "정부는 빠른 AI법 추진을 위한 노력을 다각적으로 기울여야 한다"고 덧붙였다.

2024.06.26 17:03김미정

"공무원 일거리 줄어들까"…LG·SKT 손잡은 정부, 생성형 AI 첫 도입

#. 공무원 A씨는 인사이동으로 새로운 업무를 맡을 때마다 업무 매뉴얼을 숙지하고 정책 관련 법령 등을 찾아보는 것에 대한 부담이 컸다. 전임자나 팀원들에게 물어보는 것도 한계가 있었다. 하지만 '인공지능(AI) 행정 지원 서비스'가 도입되면 관련 업무매뉴얼, 법령·지침 등을 쉽게 찾아볼 수 있어 업무를 빠르게 파악하고 국민에게도 각종 행정서비스를 신속히 제공할 수 있게 될 것으로 기대하고 있다. 정부가 공공 부문 생성형 AI 도입에 본격 나서면서 공무원들의 일거리 부담도 줄어들 것으로 보인다. 정부는 중앙부처, 지방자치단체 등 다양한 의견을 바탕으로 범정부 AI 플랫폼 개발에도 박차를 가한다는 방침이다. 행정안전부는 'AI 행정 지원 서비스' 시범운영을 다음달까지 실시한다고 12일 밝혔다. AI 행정 지원 서비스는 ▲문서 요약 ▲문서 초안 작성 ▲법령·지침 정보 검색 ▲정보공개 민원 관련 공무원의 행정업무를 지원하는 정부 전용 AI 서비스다. 앞서 행안부는 지난해 11월 LG, SK텔레콤 등 민간기업과의 협업으로 AI 행정 지원 서비스 시범 개발을 완료했다. 이후 데이터 유출 등의 방지를 위해 정부 업무망 내부에 AI 서비스를 구축하고 추가 데이터 학습을 지속 진행 중이다. 시범운영은 참여 희망 여부, 업무연관성, 실·국간 균형 등을 고려해 행안부 7개 실·국과 4개의 소속기관 약 60명의 직원을 대상으로 시행한다. 지난해 개발된 서비스 가운데 AI 우선 적용이 가능하거나 활용성이 높을 것으로 기대되는 업무 유형을 ▲일반 행정업무 지원 ▲정보공개 업무지원 두 가지로 구분해 제공한다. 일반 행정업무 지원은 LG 개발 서비스를 활용해 문서 요약, 문서 초안(보도자료, 연설문 등) 작성, 문서 검색 등 일반 행정업무에 특화된 서비스를 제공한다. 정보공개 업무지원은 SKT 개발 서비스를 활용해 정보공개청구 민원 요약, 법령·매뉴얼·판례 등 판단 근거, 민원 답변서 초안 작성 등 정보공개 관련 서비스를 제공한다. 행안부는 시범운영을 통해 ▲문서 검색, 문서 작성 등 서비스 활용 사례 ▲서비스 이용 시 불편사항 등을 공유해 지속 보완할 계획이다. 또 보다 정확한 답변 도출을 위한 명령어 예시, 서비스를 통해 작성한 문서 등 사용자 간 활용 사례도 주기적으로 공유할 예정이다. 행안부와 시범운영 기업인 LG, SK텔레콤간 협의체를 운영해 서비스 기능 역시 지속 개선한다는 방침이다. 더불어 행안부는 AI 활용성이 높은 업무 분야를 추가로 발굴해 서비스 기능 개선을 거쳐 8월부터 10월까지 타 중앙기관, 지자체로 확산할 방침이다. 행안부는 AI 기술의 행정업무 적용 실현 가능성과 효용성 등에 관한 사전 검증을 지난해 4월부터 11월까지 진행했다. 이 결과를 바탕으로 정보전략계획(ISP)을 추진하고 있다. ISP는 범정부 AI 공통기반 플랫폼을 구축함과 동시에 정부의 업무관리시스템에 AI 행정 지원 서비스를 적용하는 것이 목표다. 행안부는 중앙부처, 지자체 등 시범운영 대상자의 다양한 의견을 수렴해 이번 ISP에 향후 본 사업 구축 시 관련 내용을 반영할 예정이다. 이상민 행안부 장관은 "시범운영을 통해 실제 일하는 공무원의 의견을 충분히 수렴할 것"이라며 "데이터와 AI를 기반으로 일하는 디지털플랫폼정부 구현 전환점으로 삼겠다"고 말했다.

2024.06.12 16:23장유미

생성형 AI는 과연 투명해질 수 있을 것인가

우리 정부는 인공지능(AI) 개발이 지향해야 할 가치로 세 가지를 꼽는다. 안전·포용·혁신. 강도현 과학기술정보통신부 2차관은 지난 달 29일(현지시간) 스위스 제네바에서 열린 '선의를 위한 인공지능(AI for Good) 글로벌 정상회의 2024' 행사에서 “AI는 사람을 중심으로 해야 한다”며 이를 강조했다. 안전·포용·혁신은 그 전주에 열린 'AI 서울 정상회의'에서 각국 정상이 합의한 지향이기도 하다. 세 가지 가치 중에서 현재 가장 뜨거운 것은 혁신이다. 혁신은 기술과 비즈니스 모델 개발에 방점이 찍혀 있다. 2022년 11월 챗GPT 출시 이후 AI가 인류의 최대 핫 기술이 된 것을 의심하는 사람은 없다. 많은 나라가 명운을 걸고 AI 산업 진흥에 국가 대항전을 펼치고 있으며, 기업도 사활이 걸린 문제로 인식하고 있다. 그중에서도 AI 모델과 이를 가능하게 할 AI 반도체 개발 경쟁이 치열하다. 혁신이 기술과 산업의 영역이라면 포용은 정치의 몫이다. AI 기술이 주목되는 까닭은 그것을 가진 자와 못 가진 자의 격차가 크게 벌어질 것이라는 게 자명하다는 데 있다. 그 격차는 사회적 혼란을 부른다. 이 혼란을 줄이기 위해서는 기술 발전으로 인한 혜택을 넓혀야 한다. 일자리 변화에 대한 대책을 세우고, 새로운 시대에 맞게 교육도 해야 한다. 산업보다는 정치가 담당해야 하는 역할들이다. 안전은 기술의 문제로 인식되곤 한다. 현재 AI와 관련된 안전 문제로 거론되는 사안은 시스템 오류, 편견, 조작, 무기화 등이다. 시스템 오류의 경우 기술이 갖는 비완벽성이라는 일반적 한계이고 편견의 경우 잘못된 학습으로 나타난 AI의 고유한 오류다. 조작과 무기화는 AI 기술 자체의 문제라기보다 이를 운용하는 인간의 문제다. 여하튼 이 모든 것을 기술로 해결해야 한다는 믿음이 있는 듯하다. 안전 문제는 그런데 기술 사안이기도 하면서 근본적으로는 철학의 영역이기도 한 것 같다. 정상회의의 테마가 '선의를 위한 인공지능(AI for Good)'이라는 게 예사롭지 않다. '선의(Good)'라는 것은 구체적으로 무엇을 의미하는 것일까. AI 자체에 의지(will)가 있고 그래서 착한 의지를 가진 AI를 개발해야 한다는 것일까, 아니면 이를 개발하고 사용하는 사람이 착한 마음을 갖게 해야 한다는 것일까. “AI는 사람을 중심으로 해야 한다”는 명제를 던진 것으로 보아 아마 후자 쪽에 더 무게를 둔 것 같다. AI는 도구에 불과한 것이고 그러므로 사람을 해치는 데 쓰지 말고 사람을 이롭게 하는 데 사용하도록 서로 합의하자는 의미겠다. AI 안전 문제 가운데 조작과 무기화를 세계적인 차원에서 각국 정부가 통제하자는 말도 된다. AI를 개발할 때 편견을 줄이도록 기업들에 독려하는 것도 포함될 듯하다. 안전은 곧 통제인 셈이다. 그런데 여기서 떨치기 어려운 의문이 하나 생긴다. 인간이 AI를 통제할 수 있는가의 문제다. 통제는 어떻게 가능한가. 통제 대상을 투명하게 만들 수 있어야 가능하다. 결국 AI를 투명하게 해야 통제가 가능하다. 그런데 AI는 두 가지 점에서 본질적으로 불투명하다. 하나는 불투명한 사람이 AI를 조종한다는 점이고, 다른 하나는 AI 자체가 투명할 수 없는 기술이라는 거다. 인간의 뇌는 불투명하다. 뇌를 해부할 수는 있어도 뇌의 작동을 통제할 수는 없다. 불투명하기 때문이다. 뇌가 불투명해서 믿을 수 없는 인간을 통제하기 위해 만든 게 도덕과 법과 종교 등이다. 뇌는 불투명하지만 행동은 투명하기 때문이다. 자연도 불투명하다. 불투명한 것은 위협적이다. 자연의 위협을 극복하려고 개발한 것이 과학기술이다. 지금까지 모든 과학기술은 투명했다. 통제 가능했다. AI는 인간이 개발한 기술 가운데 유일하게 불투명한 것이다. AI의 기술적 진화 방향은 인간의 뇌를 닮는 것이고 퍼포먼스에서 인간의 뇌를 뛰어 넘는 것이다. 불투명의 극한으로 가는 것이다. 그런데 AI를 진화시키기 위해서 인간은 더 투명해져야 한다. 인간의 모든 지성과 행위를 숨김없이 AI에게 보여야 하기 때문이다. AI에게 인간은 유리처럼 투명해지고 인간에게 AI는 알 수 없는 미궁인 것이다. 공평은 어쩌면 뇌가 불투명한 존재끼리 투명의 정도를 비슷하게 맞추어가는 과정을 의미할지도 모른다. 어느 한 쪽만 투명하다면 하나의 시선만 남는다. 검사와 범죄자처럼 일방적인 관계가 된다. 신뢰란 불투명한 존재끼리 서로 믿는 일이다. 투명해야 믿는 것은 신뢰가 아니다. 그건 통제다. 신뢰하지 않기 때문에 투명을 요구하는 것이다. AI와 인간은 공평할 수 없다. 그것이 안전 문제 본질이다.

2024.06.03 11:12이균성

"AI 안전은 뒷전"…美 빅테크, 잇따른 구설수로 명성 '흔들'

미국 빅테크 명성이 도마에 올랐다. 생성형 인공지능(AI) 기술 오류와 사내 갈등 이슈가 지속적으로 발생하면서다. 이에 제품 신뢰성과 기업 이미지에 큰 타격이 생겼다. 31일 업계에 따르면 구글 생성형 AI 검색 서비스 'AI 오버뷰'가 비정상적인 검색 결과를 제공해 뭇매를 맞았다. 검색 결과에 틀린 내용이나 관련 없는 답변을 제공했기 때문이다. 일각에선 '세계 1위 검색엔진 기업'이라는 명성까지 잃을 처지라는 지적이 이어졌다. 오픈AI는 내부 갈등으로 인한 잡음이 끊이지 않고 있다. 내부 이사회는 경영진이 AI 안전성을 소홀히 하고 수익 추구만 한다고 회사를 공개 비난했다. AI 안전성을 주장하던 주요 인물들이 줄줄이 사퇴하고, AI 안전 연구팀이 해체되는 등의 내부 갈등이 발생했다. "구글의 'AI 오버뷰' 도입은 큰 실수" 구글 생성형 AI 검색 서비스 AI 오버뷰가 환각현상을 일으킨 사례가 나왔다. 이 서비스는 이달 초 구글 연례 컨퍼런스에서 소개됐다. 사용자 맞춤형 검색 결과 제공, 요약해 주는 서비스다. 결과에 대한 링크도 공유한다. 현재 AI 오버뷰는 사용자에게 틀린 검색 결과나 비정상적인 답변을 제공해 뭇매를 맞고 있다. 사용자들은 관련 내용을 캡처해 소셜네트워크서비스(SNS)에 공유하기도 했다. 예를 들어 사용자가 '피자에 치즈가 조화롭게 붙으려면 어떻게 해야 하지?'라고 AI 오버뷰에 검색하면, '피자에 접착제를 사용하면 된다'는 답을 받았다. 뿐만 아니라 '버락 오마바 전 미국 대통령이다'라거나 제임스 매디슨 전 미국 대통령이 위스콘신대를 한번이 아니라 21번 졸업했다는 검색 결과도 SNS에 등장했다. 이에 다수 외신은 구글의 AI 오버뷰 도입은 실수라며 문제를 신속히 해결하지 않으면 장기적으로 명성에 큰 손상을 입을 것이라고 경고했다. 구글이 오픈AI나 메타 등 생성형 AI 경쟁사를 따라잡기 위해 불완전한 AI를 어설프게 출시한 것 아니냐는 평가도 나왔다. 오픈AI, 끝없는 사내잡음…이사회 "알트먼, AI 안전은 뒷전" 샘 알트먼 오픈AI 최고경영자(CEO)를 비롯한 경영진이 AI 안전성보다 비즈니스 확장에 신경 썼다는 주장도 제기됐다. 이로 인해 경영진과 이사회 사이에 잡음이 지속적으로 나왔던 것이다. 최근 헬렌 토너 전 이사는 알트먼 CEO를 비롯한 경영진들은 이사회가 꾸준히 요청한 AI 윤리·안전성을 뒷전으로 했다고 털어놨다. 그는 "알트먼과 경영진은 이사진 동의 없이 스타트업 투자 계획을 발표했다"며 "이들은 이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 말했다. 알트먼이 이사회에 AI 윤리·안전 정책에 대한 부정확한 정보를 제공했다는 점도 설명했다. 이에 이사회는 오픈AI 제품 안전성 평가를 할 수 있는 기준이 명확하지 않아 어려움을 겪었다는 것이다. 오픈AI는 AI 안전을 연구하는 '수퍼얼라인먼트' 부서를 이달 초 없앴다. 해당 팀원은 타팀으로 재배치된 것으로 전해졌다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창립자 겸 최고과학자도 회사를 떠났다. 수퍼얼라인언트 공동 리더인 얀 리이크도 뒤따라 오픈AI를 퇴사했다. 얀 리이크는 이달 18일 "안전은 AI 제품에 밀려 뒷전이 됐다"고 밝혔다. 이에 외신은 "AI 안전성을 강조하는 멤버들이 회사를 떠났다"며 "오픈AI는 수익에 급급한 기업이라는 오명을 썼다"고 평가했다. 오픈AI 측은 AI 안전에 대해 지속적으로 노력해 왔다는 입장이다. 오픈AI 애슐리 판툴리아노 법률고문은 이달 22일 서울에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에서 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 이슈는 안전에 대한 오픈AI 행보를 되돌아보도록 도와줬다"고 밝혔다.

2024.06.01 06:00김미정

'AI 안전팀' 해체 후 韓서 입 연 오픈AI…무슨 말 했나

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 'AI 서울 서밋'을 기점으로 안전성에 더 주의를 기울이겠다는 의사를 내비쳤다. 최근 사내 'AI 안전팀'을 전격 해체한 데 이어 AI 안전성을 강조하는 반(反) 샘 알트먼 세력들이 회사를 떠난 후 AI 안전보다 '수익'에 치중하는 것 아니냐는 지적에 따른 행보로 분석된다. 애슐리 판툴리아노(Ashley Pantuliano) 오픈AI 법률고문은 22일 서울 더 플라자 호텔에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에 참석한 후 기자와 만나 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 일들은 안전과 관련한 우리의 모든 관행들에 대해 확인이 필요한 가치 있는 것들이었다"고 밝혔다. 앞서 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 오픈AI 최고경영자(CEO)의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 이 같은 움직임에 대해 판툴리아노 법률고문은 "(이와 관련해) 더 할 말은 없을 듯 하다"면서도 "안전과 관련한 우리의 입장은 최근 뉴스룸을 통해 자세히 게재했다"고 설명했다. 실제 오픈AI는 최근의 AI 안전과 관련한 논란을 의식한 듯 지난 21일 뉴스룸을 통해 이와 관련된 입장을 밝혔다. 이는 같은 날 한국에서 'AI 서울 정상회의' 개최에 맞춰 오픈AI, MS, 구글 등 해외 기업을 비롯해 삼성전자와 네이버, 카카오, LG AI연구소 등 국내 기업 등 총 14개 기업이 '서울 서약'을 발표한 데 따른 것이다. 이 서약은 AI의 책임, 발전, 혜택 등 기업이 추구해 나갈 방향을 담은 자발적인 약속으로, 책임 있는 AI 개발 및 사용을 보장하고 AI의 지속가능한 발전과 혁신 추구, AI의 공평한 혜택을 보장하겠다는 것이 골자다. 이에 더해 오픈AI는 뉴스룸을 통해 10가지 안전 수칙을 운영하고 있음을 알렸다. 특히 출시 전 레드팀을 통해 안전성을 테스트함으로써 임계값인 '중간'을 넘을 경우 사후 완화 조치를 충분히 시행해 위험 점수를 낮출 때까지 서비스를 출시하지 않는다는 점을 강조했다. 최근 출시한 'GPT-4o' 역시 70명 이상의 외부 전문가의 평가를 통해 초기 점검 사항의 취약점을 보완할 수 있었다고 피력했다. 오픈AI는 오랜 시간 동안 안전성을 연구하고 투자한 덕분에 서비스 오류가 적을 뿐 아니라 유해한 콘텐츠를 선보일 가능성이 적은 스마트한 모델을 구축했다는 점도 자신있게 내세웠다. 자사 기술이 악용되는 것을 막기 위해 꾸준히 모니터링하고 있을 뿐 아니라 AI 모델 수명 주기를 고려해 다양한 단계에서 이에 맞는 안전 조치도 시행하고 있다는 점을 강조했다. 판툴리아노 법률고문은 "사전 데이터 학습부터 론칭까지 모델의 전 과정에서 단계적으로 유해성을 제거하기 위해 노력하고 있다"며 "인풋 단계가 아닌 결과물이 아웃풋이 돼 나가기 전에도 필터링 과정을 거치게 함으로써 안전성을 검증하는 것에 집중하고 있다"고 설명했다. 이어 "오픈AI도 레드팀을 통해 검증을 하고 그 결과물을 투명하게 공개해 사용자들의 신뢰를 쌓는 것을 중요하게 여기고 있다"며 "특히 자체 '안전 자문 위원회' 운영을 통해 모델이 개발된 후 배포하는 과정에서의 안전성 점검도 다시 한 번 더 철저하게 하고 있다"고 덧붙였다. 이 외에 오픈AI는 어린이 보호 조치를 '챗GPT'와 이미지 생성 AI 모델 '달리'에 구축했다는 점을 강조했다. 또 정부 및 이해관계자와 협력해 정치와 관련해 오해의 소지가 있는 콘텐츠를 생성하는 것도 막기 위해 노력하고 있다고 피력했다. 여기에 지적 재산과 데이터 보호를 최우선으로 생각하고 있을 뿐 아니라 고객의 보안에 대해서도 주의를 기울이고 있다고 설명했다. 오픈AI 측은 "안전한 의사 결정을 위해 여러 부서를 아우르는 안전 자문 위원회를 통해 모델 기능 보고서를 검토하고, 배포에 앞서 권장 사항을 제시한다"며 "최종 결정은 회사 경영진이 내리고, 이사회는 이러한 결정에 대한 감독권을 행사하는 과정을 거쳐 현재 유능하고 안전한 모델을 선보일 수 있었다"고 밝혔다. 그러면서 "점차 정교해지는 공격에 탄력적으로 대응할 수 있도록 보안 태세를 강화하고 주요 모델을 출시하기 전에 안전성을 테스트하는 데 더 많은 시간을 투자해야 한다는 점을 잘 알고 있다"며 "더 성능이 향상된 AI를 안전하고 유익하게 제공하기 위해 현장에선 풀어야 할 어려운 과제가 있지만, 앞으로 이에 잘 대응하는 모습을 꾸준히 공유해 나갈 것"이라고 덧붙였다.

2024.05.23 21:21장유미

KT, AI 기술로 공사장 사고 예방한다

KT는 근로자의 날을 맞아 생성형 인공지능(AI)을 활용한 산업 안전 관리 플랫폼 '올 인 세이프티(All in Safety)'를 구축했다고 30일 밝혔다. 올 인 세이프티는 통신 분야 공사 현장의 안전 수준 격차를 해소하고 사고를 예방하기 위한 솔루션이다. 이 플랫폼은 KT와 KT 협력사의 공사가 안전에 대한 법적 의무 사항을 모두 준수하는지 확인하고 위험성 평가를 통해 자기규율적 예방체계가 구축되도록 지원한다. 현장 작업자가 올 인 세이프티 모바일 앱으로 표준화된 작업계획서를 전산에 등록하면, 1차적으로 AI가 위험성을 평가하고 자동으로 리스크 등급을 분류해 안전 관리자에게 전달하는 방식으로 플랫폼이 동작한다. 이 플랫폼의 AI는 10여년의 통신 공사와 안전 기준 등 데이터를 학습했다. 안전 관리자는 작업 계획서를 최종 검토하고 고위험 작업에 대해서는 승인된 작업만 진행되도록 허가한다. 올 인 세이프티는 KT 외에도 190여개의 KT 협력사가 이용할 수 있도록 개방됐다. 올 인 세이프티 도입 전에는 작업자가 계획서를 수기로 작성해야 했다. KT는 올 인 세이프티의 AI 위험성 검증을 비롯해 향후 도입할 AI 기술을 지난달 특허로 출원했다. 특허로 인정된 신기술은 ▲현장 위험요소 AI 분석, 안내 ▲안전 메시지자동 발송 ▲작업자 안전점검 활동의 AI 자동 검증, 판독 기능이다. 이 기술은 하반기 중 올 인 세이프티에 적용된다. KT 협력사 베가통신 현장 대리인 박용문 차장은 “올 인 세이프티로 필수 안전조치 항목을 간편하게 스마트폰으로 처리해 공사 현장의 안전관리에 집중할 수 있게 됐다”고 말했다. 황내연 광영이엠씨 대표는 “작업 시행 전 위험요인에 대한 필수 안전조치 활동과 작업자, 관리자의 안전의식이 크게 개선돼 체계적인 안전관리 역량 향상에 도움이 되고 있다”고 했다. 임현규 KT 안전보건총괄은 “중소기업의 경우 안전보건 체계를 어디서부터 어떻게 준비해야 하는지 명확한 기준을 설정하기 힘든 상황”이라며 “우리는 관행적, 관습적으로 수행하는 산업안전 관리 업무를 투명하고 정확, 간편하게 할 수 있도록 업무 체계를 개선하고 있으며 안전한 일터를 만드는데 중소기업과 협력하고 정부가 요구하는 자기규율적 예방체계의 모범 사례가 되도록 노력하겠다”고 말했다.

2024.04.30 09:40김성현

터미네이터 감독 "AI가 사이보그보다 나를 대체할 것"

■미 정부 AI안전&보안 이사회 발족...테크업계선 알트먼 등 9명 참여 미국 국토안보부가 현지시각 26일 AI의 안전한 사용을 위한 연방 자문기구로 'AI 안전보안이사회(AI Safety and Security Board)'를 발족. 여기에 참여하는 위원 명단 22명 발표. 이 기구는 챗GPT로 촉발한 AI 열풍 부작용을 막고 AI 시스템의 안전한 사용을 위해 설립한 자문기구. 조 바이든 미 대통령이 지난해 행정명령을 통해 이같은 기관 설립을 지시. 미 정부는 이 위원회 설립에 대해 "경제, 공중보건 등 주요 기간 산업이 AI로 인한 위협에서 피해를 당하지 않도록 보호하기 위한 것"이라고 설명. 테크업계는 9명이 위원회에 참여. ▲오픈AI CEO 샘 올트만(Sam Altman) ▲앤스로픽 CEO 다리오 아모데이(Dario Amodei), 엔비디 CEO 젠슨 황(Jensen Huang) ▲IBM CEO 아빈드 크리쉬나(Arvind Krishna) ▲어도비 CEO 샨타누 나라옌(Shantanu Narayen) ▲마이크로소프트 CEO 사티야 나델라(Satya Nadella) ▲알파벳 CEO 순다르 피차이(Sundar Pichai) ▲시스코 CEO 척 로빈스(Chuck Robbins) ▲아마존 웹 서비스 CEO 아담 셀리프스키(Adam Selipsky) ▲AMD CEO 리사 수 등이 참여. 하지만 테슬라 CEO 겸 AI 스타트업 xAI를 보유한 일론 머스크와 페이스북 모회사 메타플랫폼 마크 저커버그 CEO는 포함되지 않아. 위원회는 다음달 첫 모임. 앞으로 분기에 한 번 모일 예정. 마요르카스(Mayorkas) 국토안보부 장관은 "우리가 초점을 두는 건 이론이 아니라 실제적인 해결"이라고 밝혀. ■ 캐머룬 감독 "사람 경험이 데이터셋...우리는 모두는 AI" 영화 '터미네이터'로 유명한 제임스 캐머런(James Cameron) 감독이 26일(현지시각) 영국 파이낸셜타임스(FT)와 인터뷰에서 "언젠가 AI가 영화 대본을 쓰고 감독도 할 수 있을 것"이라며 "AI가 슈와츠네거를 대체하는게 아니라 나를 대체할 것"이라고 말. 슈와츠네거는 영화에 나오는 사이보그로 AI가 사이보그가 아니라 예술가인 영화 감독을 대체한다는 뜻. 그가 1984년 감독한 영화 '더 터미네이터(The Terminator)에는 악한 AI시스템 '스카이넷(Skynet)'도 등장. 캐머런 감독은 영화 '타이타닉(Titanic)'과 '아바타(Avatar)' 시리즈도 만들어. 캐머룬은 FT와 인터뷰에서 "만약 당신이 자아(ego)를 지닌 AGI가 있고, 그래서 이 AGI가 의식을 가졌다면, 이 AGI가 예술도 하지 않겠는가?"라면서 "우리는 의식을 가졌기에 예술을 해왔다, 그러기에 AGI도 영화 대본을 쓰고 영화를 감독하는 등의 그 지점(예술)에 닿을 수 있다고 생각한다"고 말. 또 캐머런은 AI기술이 영화 제작의 평범한 일(mundane tasks)을 없애 감독이 더 고부가 일을 하게 해줄 것이라고도 덧붙여. FT에 따르면, 카메룬은 그의 흥행작 아바타로 3억5000만 달러를, 또 2022년 발표한 '더 웨이 오브 워터(The Way of Water)'로 15억 달러를 벌어. 캐머런은 "기계가 그럴듯한 연기를 보여줄 순 있어도 인간 배우의 인생 경험에서 나오는 기발한 창조 순간까지는 따라잡을 수는 없을 것"이라고도 말. 또 인간이 하는 모든 경험이 막대한 데이터셋이라는 점에서 "우리 모두는 생성AI들"이라면서 "AI가 우리에게 이미지와 비트맵(bitmap)을 줄 수 있지만 감정까지는 줄 수 없다"고도. ■ WP "AI 거품 꺼지고 있어…비용 대비 수익성 등 문제 부각" 미국 유명 일간지 워싱턴포스트(WP)는 25일(현지시간)자 보도에서 "AI거품이 꺼지고 있다"면서 "챗GPT 등장 이후 1년 반 동안 AI붐이 둔화하고 있다는 증거가 늘어나고 있다"고 밝혀. 엔비디아를 비롯한 AI 관련주가 상승세가 주춤세를 보이고 있는 가운데, AI를 둘러싼 거품이 꺼지고 있다는 평가가 나온다는 것. WP는 "AI가 인류 존재에 위협이 되거나 인간의 모든 일자리를 대체할 수 있다는 우려는 자취를 감췄고, AI 기술 이용이 확대되려면 여전히 갈 길이 멀고 장애물들로 가득 차 있다"고 보도. 이어 AI기업들이 내놓은 제품이 아직 사람들의 근무나 의사소통 방식을 바꾸지 못했고, AI 모델 개발·운용에 막대한 비용이 들어가지만 이익을 내는 기업은 극소수라고 덧붙여. ■SK 최태원, AI 반도체 거물 젠슨 황 엔비디아 CEO와 깜짝 회동 최태원 SK그룹 회장이 24일(현지시간) 미국 실리콘밸리를 찾아 엔비디아의 젠슨 황 최고경영자(CEO)를 만나. 엔비디아는 AI반도체 선두주자로 세계 AI칩 시장의 80% 이상을 장악. 특히 학습용 AI반도체 분야서 절대강자. AI반도체는 학습용 외에 추론용도 있는데 향후에는 추론용 AI반도체 시장이 더 커질 전망. SK하이닉스는 엔비디아가 만드는 AI칩에 고대역폭메모리(HBM)을 공급중. 최 회장은 짧은 일정으로 실리콘밸리를 찾았고, 구체 일정은 알려지지 않았지만 황 CEO를 비롯해 테크 기업 CEO들을 만난 것으로 알려져. ■ 챗GPT, 신약 개발 도와…오픈AI-모더나 파트너십 체결 챗GPT 개발사 오픈AI가 글로벌 제약사 모더나와 24일(현지시간) 비즈니스 프로세스 자동화를 위한 파트너십을 체결. 이번 협력으로 약 3천명에 달하는 모더나 직원이 오픈AI의 챗GPT 엔터프라이즈를 이용할 수 있게돼. 챗GPT 엔터프라이즈는 오픈AI의 최신 언어 모델인 GPT-4를 기반으로 구축한 기업용 AI모델. 모더나는 이미 챗GPT를 이용해 직원들이 750개가 넘는 맞춤형 GPT 프로그램을 개발해 왔다고 밝혀. 스테판 방셀 모더나 CEO는 "오픈AI와의 파트너십과 AI 활용은 모든 비즈니스 프로세스를 혁신하는 데 중요한 열쇠가 될 것"이라면서 "향후 5년 이내 15개 신제품을 출시한다는 우리 목표를 AI가 조기에 달성하도록 해줄 것으로 기대한다"고 말. 샘 올트먼 오픈AI 최고경영자(CEO)는 "결국 AI는 점점 더 많은 과학을 수행할 수 있을 것"이라고 밝히기도. ■ 정부, 대통령 직속 '국가AI위원회' 6월 출범...AI 3대 강국 추진 우리 정부가 25일 용산 대통령실에서 국가과학기술자문회의 전원회의를 열고 'AI-반도체 이니셔티브' 안건을 의결. 이번 안건은 지난 9일 윤석열 대통령이 주재한 '반도체 현안 점검회의'에서 발표한 'AI-반도체 이니셔티브' 추진 방향을 구체화하기 위해 마련. 이번 발표에서 정부는 오는 2027년까지 '저전력 AI 반도체 1위' 'AI G3(주요 3개국)' 도약 등 과제를 달성하기 위해 대통령 직속 국가인공지능위원회를 6월 출범한다고 밝혀. AII-반도체 가치사슬을 포괄하는 산학연관 소통 및 협력체계를 구축할 계획. 이의 구체적 실행방안으로 과기정통부는 △차세대 AI 및 AGI(인공일반지능) 등 차세대 AI 핵심 기술을 개발하고 △경량·저전력 AI 기술을 확보해 모든 기기에서 AI를 자유롭게 쓸 수 있도록 발전시키며 △설명가능한 AI, 딥페이크 탐지기술, AI-사이버보안 등 AI 안전성 기술을 확보하는 등의 기술과제를 제시. ■소프트뱅크, 생성형AI 1.3조원 추가 투자…"챗GPT급 개발" 일본 소프트뱅크가 고성능 생성형 인공지능(AI) 개발을 위해 내년까지 1천500억엔(약 1조3천370억원)을 추가로 투자한다고 니혼게이자이신문(닛케이)이 22일 보도. 보도에 따르면 소프트뱅크는 지난해 생성형 AI 개발에 필요한 계산 설비 기반을 다지는 데 200억엔(약 1천780억원)을 투자한 데 이어 내년까지 거금을 투입해 오픈AI가 만든 챗GPT-4와 비슷한 수준의 세계 최고급 모델 제작을 추진할 방침. 닛케이는 "(생성형 AI 관련 투자액이) 일본 기업으로서는 최대 규모로 보인다"며 소프트뱅크가 미국 엔비디아 반도체를 구입해 계산 능력을 현재의 수십 배로 향상할 계획이라고 전해. 소프트뱅크는 생성형 AI 기반이 되는 기술인 거대언어모델(LLM)을 개발 중으로 내년 3월 이전까지 3900억 파라미터 모델을 완성하고 내년 4월 이후 일본어에 특화한 1조 파라미터 수준의 모델 개발을 시작할 예정. 또 다른 일본 기업인 NTT와 NEC 모델은 수십억∼수백억 파라미터 수준으로 알려져. ■ KT, '안전하고 믿을 수 있는' AI 연구센터' 신설 KT가 안전하고 믿을 수 있는 인공지능(AI) 기술을 연구하기 위해 'Responsible AI Center'(책임감 있는 인공지능 센터·RAIC)를 신설한다고 23일 밝혀. RAIC는 AI 기술이 사용자에게 유익한 가치를 제공할 수 있도록 잠재적 위험을 최소화하는 연구를 수행한다고 KT는 소개. 센터장은 배순민 상무. KT는 안전성, 투명성, 개인정보 보호 등 AI가 악용될 수 있는 분야에서 위험 수준에 대한 관리 체계를 구축하는 것은 물론, 사내에 적용 중인 AI 윤리 원칙을 고도화하고 실무에서 즉시 이행할 수 있는 수준의 지침을 만들 계획. 앞서 KT는 지난해 ▲AI 기술과 제품 개발에서 공정성, 비차별, 투명성, 해석 가능성의 원칙 준수 ▲표준화와 개방형 생태계 통해 자원과 기술 공유 강화 ▲책임감 있는 AI 개발을 위한 사회적 책임 강화 등의 내용을 담은 AI 윤리 원칙을 수립. 이번 RAIC 신설로 AI를 사회가 지향하는 가치와 목적에 맞게 사용하기 위한 거버넌스 체계를 확립한 것이라고 회사는 설명. KT는 RAIC에 AI 윤리, 정책 개발·협력, 소프트웨어 엔지니어링·데이터 등 다양한 분야의 전문가도 신규 영입할 예정. ■ 경북도 주최 AI·메타버스 영화제 42개국 527편 몰려…흥행 기대 경북도가 '2024년 경북도 국제 인공지능(AI)·메타버스 영화제(GAMFF)' 작품 공모에 42개국 527편의 작품이 응모했다고 23일 밝혀. AI와 메타버스 기술을 활용하거나 소재로 한 영화 및 영상물을 대상으로 지난달 18일부터 한 달간 공모한 결과 영화감독, AI·메타버스 전문가뿐 아니라 일반인, 학생까지 폭넓게 참여했다고. 경북도는 심사위원 공정한 평가를 거쳐 영화 부문과 영상 부문으로 나눠 21개 작품에 3500만원의 상금을 제공. 또 오는 6월 국내 처음으로 온오프라인을 통한 AI·메타버스 영화제를 개최할 예정. 도가 자체 개발한 온라인 영화제 플랫폼(GAMFF WORLD)과 구미지역 영화관 등 온오프라인 스크린을 통해 공모 수상작 및 국내외 초청작을 상영할 계획.

2024.04.29 09:26방은주

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

車 관세 25%→15%…EU·日과 출발선 같아졌지만 수익성 '빨간불'

[유미's 픽] '국가대표 AI' PT 발표 막바지 속 정부 선택은

오프라인에 온라인 DNA 그대로...무신사 스토어 강남 가보니

AI 투자, 최대 50% 세금 환급…'국가전략기술' 첫 지정

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.