• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 신뢰'통합검색 결과 입니다. (36건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

한-미 AI신뢰성 기준 엇비슷···"94%가 호환 가능"

과기정통부와 한국정보통신기술협회(TTA, 회장 손승현)는 우리나라 '신뢰할 수 있는 AI개발안내서'(이하 'AI개발안내서')와 美 상무부 국립표준기술연구소(이하 'NIST')의 AI위험관리프레임워크(이하 'AI RMF') 간 상호 교차분석(Crosswalk)을 완료했다고 24일 밝혔다. 이번 교차 분석은 올 2월부터 12월까지 진행했다. TTA는 'AI개발안내서' 연구기관이고 NIST는 'AI RMF' 연구기관이다. 교차분석 결과, 우리나라가 만든 'AI개발안내서' 67개 세부 검증 항목 중 63개 항목(94%)이 미국 NIST 'AI RMF'와 호환성을 갖고 있는 것으로 나타났다. 상호 교차분석 세부결과는 TTA 홈페이지와 AI안전연구소(www.aisi.re.kr/article), 미국 NIST 홈페이지(airc.nist.gov /AI_RMF_Knowledge_Base/Crosswalks)에서 각각 확인이 가능하다. 앞서 과기정통부와 TTA는 2021년부터 'AI개발안내서' 개발‧보급을 통해 AI신뢰성 확보를 위한 15개 기술 요구사항(67개 세부 검증항목)을 제시, 국내기업이 AI시스템을 개발하는 과정에서 자발적으로 AI신뢰성을 확보할 수 있게 지원해왔다. 또 'AI개발안내서'를 기반으로 'AI시스템 신뢰성 제고를 위한 요구사항' 단체표준 제정('23.12.), '민간자율 AI신뢰성 인증'('23.11.~, 총7건 인증) 운영 등 지속가능한 AI혁신생태계 조성을 뒷받침하기 위해 AI신뢰‧안전성 확보에 대한 정책적 노력을 지속해 왔다. 미국 NIST는 AI신뢰성 연구와 가이드라인 개발을 주도하는 정부기관이다. 개인‧조직이 AI시스템 설계‧개발‧배포‧활용과 관련한 위험을 이해‧관리‧완화하는 것을 지원하기 위한 자발적 프레임워크인 'AI RMF'를 2023년1월 발표했다. 'AI RMF'는 글로벌 차원에서 민간‧공공분야 주체들의 AI신뢰성 확보방안 논의‧발전과정에서 주요한 역할을 해왔으며, 전세계 많은 조직들이 AI신뢰성 확보를 위한 기초 프레임워크로 도입, 활용하고 있다. 이번 상호교차 분석(Crosswalk)은 국제적으로 AI신뢰성 분야에서 가장 영향력 있는 프레임워크 중 하나인 NIST 'AI RMF'와 우리나라 'AI개발안내서'간 특성을 분석하고, 세부항목 간 정합성을 확인, 상호호환성을 확보해 나가기 위한 목적으로 진행됐다. 상호교차 검증을 진행한 결과, 세부항목의 상당부분이 조화됨을 확인했고, AI신뢰성을 높이고 관련 위험을 완화하기 위해 양 가이드라인이 유사하게 활용될 수 있음을 확인했다고 과기정통부는 설명했다. 또 NIST 'AI RMF'와 교차분석을 통해 글로벌 차원에서 우리나라 AI신뢰성 기술‧검증체계의 수준‧완성도를 확인했고, 이번 교차 분석결과를 토대로 과기정통부와 TTA는 NIST와의 기술협력을 더욱 강화하고, AI신뢰성 분야 글로벌 기술표준‧규범과의 상호호환성 확보를 위한 노력도 확대할 계획이다. NIST 'AI RMF'와 차이가 발생하는 부분은 'AI개발안내서' 고도화 시 반영‧보완해 우리나라 AI신뢰성 기술‧검증체계의 글로벌 정합성을 제고할 예정이다. TTA 손승현 회장은 “이번 상호 교차분석 작업을 통해, 우리나라의 AI신뢰성 확보체계를 글로벌 수준으로 끌어올리는 계기가 됐으며, 앞으로도 글로벌 협력 확대를 통해 AI신뢰성 기술‧검증체계 공신력을 강화하고, 국내산업 지원체계를 공고히해 AI신뢰성분야 전문기관으로서 역할에 최선을 다하겠다"고 밝혔다. 과기정통부 송상훈 정보통신정책실장은 “최근 법사위를 통과한 'AI기본법'에도 AI신뢰‧안전성 확보를 위한 정부지원 근거를 폭넓게 마련했다”면서 “국내 AI산업의 신뢰‧안전성 확보를 위한 정책적 지원을 강화하고, 국내기업의 글로벌 진출을 확대할 수 있게 AI안전연구소, TTA 등 전문기관과 함께 AI신뢰‧안전성 분야 국제표준화도 적극 추진해 나가겠다”고 강조했다.

2024.12.24 12:00방은주

정용식 TS 이사장 "AI·빅데이터 활용해 스마트 교통안전체계 구축"

정용식 TS한국교통안전공단 이사장은 “인공지능(AI)·빅데이터 등 첨단기술을 활용해 365일 국민 안전을 지키는 스마트 교통안전 체계를 구축하겠다”고 밝혔다. 정 이사장은 취임 한 달을 앞둔 7일 간담회에서 “현재 OECD 28위 수준의 자동차 1만대 당 사망자 수 0.858명을 2027년 8위 수준인 0.5명으로 줄이고 자동차 안전도를 세계 6위에서 3위로, 차세대 모빌리티 준비지수를 13위에서 7위로 향상하겠다”며 이같이 말했다. 지난 1981년 설립한 TS는 생애주기별 촘촘한 교통안전 종합대책을 마련하며 미래 모빌리티 혁신를 거듭하며 지난해 역대 최저 교통사고 사망자 수인 2천551명을 달성했다. 도심항공교통(UAM)·자율주행자동차 등 미래 모빌리티 안전과 관련해서는 “미래 모빌리티의 핵심은 땅과 하늘을 넘나들며 모든 수단과의 연결을 통해 '이동가치'를 실현하고 국민 이동 편의성을 높이는 것이 중요하다”고 강조했다. 정 이사장은 “미래 모빌리티에 다양한 첨단기술이 활용되는 만큼 첨단장치 오작동, 자율주행차 교통사고 드 위험 요소가 있을 수 있어 안전성 확보가 중요하다”고 밝혔다. 이어 “미래 모빌리티 주도권 선점을 위한 글로벌 경쟁이 가속하는 상황에서 여러 규제와 기술개발 인프라 제공을 통한 민간 선도 산업 활성화 지원으로 국가경쟁력을 높여야 한다”고 강조했다. TS는 2022년 정부의 모빌리티 혁신로드맵 발표 이후 자체적으로 미래 모빌리티 간담회를 구성·운영하며 모빌리티 제도개선과 지원 필요사항 등 산업계 목소리를 청취하고 자체 사업과 정부 정책에 반영될 수 있도록 민간과 정부의 가교역할을 하고 있다. 모빌리티 협력위원회는 2022년 8월부터 분기별 자율주행차·UAM·모빌리티 서비스 등의 분야별 안전성 확보와 활성화를 위한 추진 과제를 선제적으로 발굴하고 있다. 정 이사장은 “자율주행차·전기차 SDV(Software Defined Vehicle) 등 신기술 도입에 따른 첨단장치 오작동·배터리 화재·SW업데이트 위변조 등 새로운 유혀의 위험에 선제 대응해 국민의 미래 모빌리티에 대한 불안감을 해소하고 국가 미래 모빌리티 안전 경쟁력을 높일 계획”이라고 말했다. 또 “긴급자동제동장치(AEB)·차로유지지원장치(LKAS)·전방추돌경고장치(FCW)·차선이탈경고장치(LDWS)·적응형순항제어장치(ACC) 등 5개 첨단안전장치(ADAS) 검사 방법과 제도 제·개정(안)을 마련해 안전한 자율주행차 운행 환경을 조성해 나갈 계획”이라고 덧붙였다. 정 이사장은 “UAM은 활주로가 필요 없고 배출가스가 없는 기존에 없던 새로운 친환경 교통수단이지만 새로운 교통수단에 대한 국민 불안감이 존재한다”며 “UAM 법령 정비·자격업무 등 UAM 상용화 기반을 조성하고 실증·시범사업을 활성화하기 위한 제도적 기반을 마련해 나갈 계획”이라고 말했다. 보급이 빠르게 늘어나고 있는 드론 안전관리에도 만전을 기하고 있다. 정 이사장은 “사업용 드론 기체와 비사업용 최대이륙중량 2kg 초과기체는 기체 신고를 의무화해 등록·관리하고 있고 드론을 사용해 농약살포나 사진촬영 등 국토부령으로 정하는 사업을 유상으로 수행하는 사업체는 의무등록해 관리하고 있다”고 말했다. 또 “2017년 8월부터 드론 전문교육기관도 인력·시설·장비 등 교육인프라를 현장 확인하고 운영실태를 점검하는 등 안전관리를 수행하고 있다”고 강조했다. 정 이사장은 “운전대를 잡지 않아도 되는 자율차 시대가 눈앞에 오고 있고 섬과 섬을 잇는 드론 배송과 도심 속 항공교통 수단인 UAM이 우리 일상에서 실현되고 있다”며 “TS가 모빌리티 종합 안전기관으로 땅과 하늘을 아우르는 종합 안전관리체계를 마련해야 하는 확실한 이유”라고 말했다. 정 이사장은 “앞으로 자율차 안전 운행 성능 확인과 자율협력주행 인증관리체계 구축, 시범지구 운영 내실화로 완전 자율주해 시대를 선도하는 한편, UAM 실시간 관제시스템과 안전 기준 확립에도 역량을 집중해 TS가 미래 항공 모빌리티 분야에서 세계적인 수준의 안전성과 신뢰성을 확보해 모빌리티 종합 안전기관을 발돋움할 수 있도록 하겠다”고 밝혔다.

2024.11.12 07:24주문정

TTA "가짜판례·딥페이크...'AI신뢰성 인증' 중요해졌다”

“인공지능이 사회, 산업 전 분야에 걸쳐 빠르게 도입되면서 혁신과 변화를 이루고 있지만 알고리즘 문제, 데이터 편향 등에 따른 사고 발생이나 공정성 문제, 인종차별 문제가 발생하고 있다.” 배동석 한국정보통신기술협회(TTA) 팀장은 10일 서울 삼성동 코엑스에서 과학기술정보통신부가 주최한 디지털혁신페스타2024 퓨처테크컨퍼런스에 연사로 참여해 이같이 말했다. 인공지능(AI)으로 많은 이로움을 얻고 있지만 미국의 한 변호사가 챗GPT가 알려준 가짜 판례를 법원에 제출하거나, 최근 국내서 논란이 커진 딥페이크 성적 영상 등으로 AI의 신뢰성을 확보하는 게 중요한 과제가 됐다. 배동석 팀장은 “각국의 정부와 국제기구는 신뢰할 수 있는 AI를 명시하고 규범과 기술기준을 마련하고 있다”며 “AI에 내포된 위험과 기술적 한계를 해결하고 활용 과정에서 위험과 부작용을 방지하기 위한 가치가 중요해진 것”이라고 설명했다. 신뢰할 수 있는 AI를 갖추기 위한 노력으로 유럽연합의 AI법, 미국의 행정명령이 대표적인 사례고 IBM, 마이크로소프트, 구글, 스탠포드대 등 민간과 연구계에서도 활발한 논의가 이어지고 있다. 국내에서는 TTA가 이같은 일을 맡고 있다. 지난 2021년부터 시작된 AI 신뢰성 기반조성 사업으로 ▲AI 일상화 지원 ▲신뢰성 확보 기술 정립 ▲글로벌 규범 표준화 선도 등에 집중했다. TF 단위로 시작한 AI 신뢰성 사업은 센터로 격상됐고 지난해 말에는 AI 신뢰성 민간자율인증을 시범적으로 수행하게 됐다. 배 팀장은 “산업의 혁신과 진흥, 시장 활성화를 통한 경쟁력 확보를 위해 기업의 자발적인 신뢰성 확보 지원을 위한 민간 자율 방식의 인증을 시행하게 됐다”며 “대한민국 AI 윤리 기준에 기반한 기술 체계와 신뢰성 프레임워크를 마련했다”고 밝혔다. 이어, “실무자와 개발자, 연구자가 활용할 수 있는 개발 안내서도 내놨다”면서 “AI 시스템과 모델의 신뢰성 제고를 위한 요구사항 15가지를 도출했고 별도로 프라이버시 준수 요건을 더했다”고 덧붙였다. 그러면서 “최신 글로벌 논의와 규범을 반영해 국제 표준 등에 부합하도록 다듬었고 공신력을 갖춘 제3자 검증도 이어가고 있다”면서 “2021년에 발표된 개인정보보호위원회의 AI 개인정보보호 자율점검표를 따르고 있는데 올 연말에 갱신을 거치면 최신 자료에 맞게 검증을 반영할 것”이라고 말했다. 이같은 AI 신뢰성 검증은 TTA에 신청서를 제출하면 상담과 계약을 거치고 최종적으로 인증위원회가 적합 판증을 내리면 인증서를 발급하게 된다. 현재까지 TTA에서 AI 신뢰성 인증을 받은 곳은 마크애니, 앤플럭스, 제네시스랩, 단감소프트 등이다.

2024.10.10 17:51박수형

고객 마음잡기 나선 마이크로소프트…"AI 환각 현상 없앤다"

마이크로소프트가 코파일럿 등 인공지능(AI) 서비스의 본격적인 확대에 앞서 데이터 유출, 신뢰성 등 AI에 대한 우려 해결에 나섰다. 25일 벤처비트 등 외신에 따르면 마이크로소프트는 신뢰할 수 있는 AI 구축을 위한 신규 기능을 공식 홈페이지를 통해 발표했다. 이번에 선보이는 기능은 AI 활용 과정에서 보안, 안전, 개인정보 및 데이터 보호를 강화하기 위해 마련됐다. 이를 위해 다양한 보안 원칙과 기술을 활용해 환각 현상을 없애고 데이터 유출 등의 우려를 사전에 방지한다. 먼저 애저 AI 스튜디오에는 개발 및 배포 과정에서 AI의 보안 위험성을 사전에 평가하는 기능을 추가했다. 이를 통해 기업은 개발한 AI 서비스 배포에 앞서 잠재적 위험을 파악하고 문제를 해결하거나 대응책을 마련하는 것이 가능하다. 특히 이 기술은 깃허브 등에서 오픈소스를 도입하거나 코드를 활용할 때 보안 취약점이 있는지 또는 정보가 유출될 가능성까지 검토해 협업과 생산성 향상에도 지원한다. 마이크로소프트 365 코파일럿은 웹에서 어떤 데이터를 검색했는지 정보의 출처와 검색 과정을 제공하는 웹 쿼리 투명성이 곧 추가될 예정이다. 이를 통해 응답 근거를 확인하고 AI의 신뢰성을 검토하고 조정할 수 있을 전망이다. AI의 안전성을 유지하는 애저 AI 콘텐츠 세이프티에는 근거가 없거나 환각적인 내용을 식별하는 접지 관리와 함께 이를 실시간으로 수정하는 기능이 도입된다. 기업에서 즉시 환각 현상을 수정할 수 있는 만큼 대외 서비스에서도 빠른 대처가 가능한 것이 특징이다. 더불어 마이크로소프트는 온디바이스 등 클라우드 환경이 아닌 플랫폼에서도 애저 AI 콘텐츠 세이프티를 탑재해 활용할 수 있도록 지원한다. 이 밖에도 데이터가 외부에 노출되지 않고 안전하게 처리될 수 있도록 애저 오픈AI서비스에서 보안 추론 기능과 애저 컨피덴셜VM을 선보인다. 애저 컨피덴셜VM은 고성능 처리가 요구되는 데이터를 안전하게 처리하기 위한 서비스다. 엔비디아 H100 텐서 코어 GPU 기반의 시스템에서 고객사 데이터만 암호화되어 처리되며 이 과정에서 추가 허가 없는 외부 접근은 모두 차단된다. 마이크로소프트의 이번 기능 발표는 AI 도입 확대와 함께 늘어나는 고객사의 AI 윤리와 보안에 대한 우려를 해소하고, 경쟁 우위를 보여주기 위한 것이란 분석이다. 마이크로소프트 타케시 누모토 부사장 겸 최고 마케팅 책임자는 "우리는 고객이 안전하고 보안이 유지되며 개인적인 AI를 사용할 수 있도록 돕는 데 집중하고 있다"며 "보안, 안전 및 개인 정보 보호를 개선하는 기능은 기회를 확대하고, 신뢰를 얻고, 기본적 권리를 보호하고, 지속 가능성을 발전시키려는 우리의 사명에 필수적"이라고 강조했다.

2024.09.25 10:01남혁우

법무법인 세종, 성균관대 인공지능신뢰성센터와 맞손

법무법인 세종은 성균관대 인공지능신뢰성센터와 인공지능(AI) 신뢰 체계, 윤리 정립 방안 연구를 위한 업무협약을 체결했다고 19일 밝혔다. 협약에 따라 양측은 AI 연구 분야 협력 강화를 위해 상호 공동 연구를 수행하고 상호 교류를 확대키로 했다. 세종은 올해 AI와 데이터를 활용하는 기업이 직면한 잠재적 리스크를 전사 차원에서 관리해 주는 AI 센터를 발족했다. 이번 협약을 시작으로 AI 전환 시대에 필요한 새로운 윤리 기준을 확립하기 위해 중장기적으로 국내외 협력 플랫폼을 구축하고 공동 연구, 인력 교류 등을 확대해 전문적인 AI와 관련된 컨설팅을 제공할 예정이다. 세종 AI센터장을 맡고 있는 장준영 변호사는 “사회경제의 지속성장을 지원하는 AI가 제대로 활용되기 위해서는 AI 거버넌스를 구축해 기업 맞춤형 AI 위험 통제 모델 체계와 상시적 데이터 매니지먼트 체계를 활성화하는 것이 필요하다”면서 “개별 기업 차원에서 잠재적 AI 리스크를 제거하는 것은 사실상 불가능하므로, 국제적으로 통용되는 보편적인 윤리 기준을 정립하는 과정도 매우 중요하다”고 말했다. 윤종인 세종 AI·데이터 정책연구소장은 “AI의 신뢰 체계 및 윤리 정립을 위한 다양한 연구를 주도해 나가며 산업별 맞춤형 AI 윤리 정책 마련에 크게 기여할 것”이라고 밝혔다.

2024.09.19 10:58박수형

[현장] "AI 무기화, 막을 수 있을까"…글로벌 협력이 관건

인공지능(AI) 기술의 책임 있는 사용을 보장하기 위해서는 국제적 협력과 검증 절차가 필수라는 주장이 나왔다. 9일 서울 롯데호텔에서 열린 'REAIM 고위급회의'에서 진행된 '군사 분야 AI의 책임있는 이용 이행 방안' 세션에서 전문가들은 AI의 군사적 사용에 대한 책임성과 신뢰성을 확보하기 위한 구체적 전략과 방안을 논의했다. 이들은 정부와 산업계 간의 협력과 기술적 검증 절차 강화가 필수적이라는 데 의견을 모았다. 이 회의에는 라다 플럼 미국 국방부 디지털 AI 최고책임관, 김종진 한화시스템 전무 겸 우주연구소 부소장, 로셀린다 소이판 투야 케냐 국방장관, 예룬 반 덴 호벤 델프트 공대 교수, 정이 중국과학원 자동화연구소 교수 등이 참석했다. 라다 플럼 최고책임관은 미 국방부가 2020년부터 AI 관련 원칙을 채택해왔다며 AI의 책임 있는 사용을 보장하기 위한 구체적인 실천 방안을 제시했다. 플럼 책임관은 "AI는 기술적으로 매우 복잡하다"며 "이에 따라 AI를 군사 시스템에 적용하는 과정에서 모든 단계에 걸쳐 검증 가능한 가이드라인이 필요하다"고 강조했다. 실제로 플럼 책임관에 따르면 미 국방부는 메사추세츠 공대(MIT)와 협력해 AI 시스템의 불확실성을 정량화하는 툴을 개발했다. 또 이를 AI 모델 선정 및 평가 전체에 적용하고 있다. 그는 "시스템을 모듈화함으로써 설계, 시험평가, 전력화 등 모든 단계에서 검증 절차를 효율적으로 실시해야 한다"며 "이를 통해 각 분야의 전문가와 실시자들이 비용 효율적이면서도 효과적인 방법으로 검증을 할 수 있을 것"이라고 강조했다. 김종진 한화시스템 전무는 방산 기업 관점에서 AI 개발의 투명성과 신뢰성 확보의 어려움을 언급했다. 김 전무는 "AI 시스템은 방산 분야에서 특히 중요한데 그 복잡성 때문에 투명성을 유지하는 것이 어렵다"며 "모듈화를 통해 시스템의 이해도를 높여서 차후 버전 개발도 용이하게 해야 한다"고 말했다. 또 김전무는 AI의 신뢰성 문제를 지적하며 방위산업 분야에서 데이터 부족으로 인한 어려움을 강조했다. 이를 해결하기 위한 방안으로 그는 "AI 시스템의 검증과 신뢰성을 확보하기 위해 정부와의 긴밀한 협력이 필요하다"며 "민관 간 협력을 통해 철저한 검증 절차를 필수적으로 마련해야 한다"고 주장했다. 로셀린다 소이판 투야 케냐 국방장관은 AI와 환경 지속가능성 관계를 강조했다. 투야 국방장관은 AI가 에너지 수요와 환경 보호에 미치는 영향을 언급하며 "AI 기술 역시 지속 가능성 원칙을 반영해 환경 보호 측면에서 긍정적인 변화를 이끌어야 한다"고 주장했다. 이어 발언한 예룬 반 덴 호벤 델프트 공대 교수는 AI 윤리와 규범의 중요성을 언급했다. 그는 "인간의 'AI 통제' 개념을 구체화할 필요성이 있다"며 "AI 시스템에서 공정성과 민주주의 원칙을 반영한 규범적 접근이 필요하다"고 주장했다.

2024.09.09 16:06조이환

[ZD SW 투데이] KISIA, '2024 제2회 KISIA 정보보호 개발자 해커톤' 성료 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆KISIA '2024 제2회 KISIA 정보보호 개발자 해커톤' 성료 한국정보보호산업협회(KISIA)가 '2024 제2회 KISIA 정보보호 개발자 해커톤'을 마무리했다. 이 행사에는 전국 대학생과 대학원생들이 참여해 다양한 정보보호 모델과 서비스를 개발했다. 이 대회는 과학기술정보통신부 주최로 양재 aT센터에서 진행됐다. 5개 팀이 상장과 총상금 1천만 원을 받았고 제품 상용화를 위한 지원도 제공될 예정이다. ◆그릿지, 부산창조경제혁신센터 '비 스타트업 파이' 지원기업 선정 그릿지가 부산창조경제혁신센터 주최 '비 스타트업 파이(B.Startup PIE)' 배치 프로그램의 지원 기업으로 선정됐다. 중소벤처기업부와 부산광역시가 공동 주관한 이 프로그램은 스타트업 성장을 위해 지난 2019년 시작됐다. 이번 선정에 따라 그릿지는 부산 내 청년과 스타트업에 기회를 제공할 전망이다. ◆씽크포비엘, 베트남 IT기업·연구기관과 AI 신뢰성 강화 씽크포비엘이 지난 19일부터 이틀간 베트남 IT 기업 및 다낭 반도체 AI 연구훈련센터(DSAC)와 함께 AI 신뢰성 강화를 위한 세미나와 간담회를 개최했다. 이 행사에서 씽크포비엘은 AI 신뢰성 관련 기술과 인증 사례를 공유했고 오는 11월까지 AI 신뢰성 확보 위한 선도 사례를 마련할 계획이다. ◆더존비앤씨티, 강아지숲 박물관서 '강아지와 그림과 이야기의 숲展' 개최 더존비앤씨티가 운영하는 강아지숲 박물관이 '강아지와 그림과 이야기의 숲展'을 개최해 반려견 관련 그림책 공모전에서 선정된 4편의 수상작을 전시한다. 이번 전시는 그림책을 통해 반려견과 반려문화를 새로운 시각으로 조명해 다양한 관람객들에게 공감을 이끌 것으로 기대된다. ◆외교부·국방부, 청년 행사 'AI 시대의 청년과 평화' 참가자 모집 외교부와 국방부가 다음 달 10일 서울 웨스틴 조선에서 'AI 시대의 청년과 평화 Y.PAI' 행사를 개최한다. 이번 행사를 위해 오는 30일까지 만 19~34세 청년들의 참가 신청을 받는다. '인공지능의 책임 있는 군사적 이용(REAIM)' 회의와 함께 진행되는 이 행사에서는 청년들이 AI를 군사 분야에서 책임 있게 활용할 방안을 논의하게 된다.

2024.08.22 17:02조이환

마커스 뉴욕대 교수 "알트먼 못 믿어…언행불일치 잦아"

인지심리학자 게리 마커스 뉴욕대 교수가 샘 알트먼 오픈AI 최고경영자(CEO)를 신뢰할 수 없다고 밝혔다. 알트먼 CEO 발언과 행동이 일치하지 않은 사례가 많았다는 이유에서다. 5일 가디언에 따르면 마커스 교수는 "알트먼 오픈AI CEO가 세상에서 가장 큰 권력을 가진 인물이 됐다"며 "이는 매우 두려운 일"이라고 주장했다. 마커스 교수는 알트먼 CEO가 회사 이익을 위해 진실을 왜곡한 점을 지적했다. 알트먼 CEO가 지난해 미국 상원 청문회에서 한 발언을 근거로 들었다. 당시 알트먼 CEO는 청문회에서 "건강보험을 들 수 있을 정도의 돈만 벌고 있다"며 "오픈AI에 대한 지분은 없다"고 발언했다. 실제 그는 미국 최대 스타트업 액셀러레이터 기업인 와이 콤비네이터(Y Combinator) 주식을 소유해 간접적으로 오픈AI 지분을 가지고 있었다. 마커스 교수는 알트먼 CEO가 규제에 대해 솔직하지 않다고 지적했다. 청문회에서 AI 규제를 강력히 옹호했던 언행과 다르게 오픈AI는 지난 2022년부터 유럽연합(EU) AI법이 생성형 AI를 강력히 규제하지 못하도록 EU 당국에 로비해왔다. 지난해 11월 오픈AI 이사회가 알트먼 CEO를 "솔직하지 않다"며 해고하고 지난 5월에는 일리야 수츠케버 공동창업자 등 AI 안전과 관련된 주요 인사들이 잇따라 회사를 떠나는 등 내부적 논란이 있어 왔다. 이에 외신은 알트먼 CEO의 언행불일치가 회사 신뢰성을 떨어뜨린다고 지적했다. 이러한 상황에 대해 마커스 교수는 "AI 기술은 공공의 이익을 위해 투명하고 윤리적으로 관리돼야 한다"며 "안전하고 신뢰 가능한 기술 발전을 위해서는 시민들이 목소리를 높여야 한다"고 강조했다.

2024.08.05 12:17조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

KTR, 국내 첫 AI 신뢰성 KOLAS 공인기관 지정

KTR이 국내 처음으로 인공지능(AI) 시스템 신뢰성 검증 공인 시험기관 자격을 얻었다. KTR(한국화학융합시험연구원·원장 김현철)은 한국인정기구(KOLAS)로부터 국제표준 ISO/IEC TR 24028에 따른 KOLAS 공인시험기관으로 지정됐다고 17일 밝혔다. KTR은 국내 최초로 AI 시스템의 신뢰성 분야 공인시험서비스를 시작한다. KTR은 앞서 산업통상자원부 국가기술표준원의 2023년 '유망시험서비스 개발 사업'에 참여해 'AI 신뢰성 평가 시험인증 서비스 과제'를 주관했다. 과제 수행 성과로 KTR은 AI 신뢰성 분야 국제표준(ISO/IEC TR 24028, 인공지능 신뢰성 개요)에 따른 KOLAS 공인 시험기관으로 지정받게 됐다. KOLAS 기관지정에 따라 KTR은 AI의 보안 취약점 등을 시험 평가해 신뢰성이 검증된 제품이 사용자에게 보급될 수 있도록 지원한다. 한편, KTR은 지난해 국내 시험기관 최초로 국제표준(ISO/IEC 25059)에 따른 AI 시스템 품질평가 부분에서도 KOLAS 공인시험기관 지정을 받았다. 이번 기관지정으로 AI 품질에 이어 신뢰성까지 공인 시험평가 서비스를 제공할 수 있게 됐다. KTR은 이밖에도 정부로부터 우수소프트웨어 인증(GS인증)기관과 정보보호제품평가 인증(CC인증) 기관 지정을 받은 바 있다. KTR은 국정원 보안기능시험제도 공인시험기관 및 여신금융협회 지정 신용카드 결제 단말기 시험기관 등 디지털 콘텐츠와 보안 시스템 시험평가까지 제공한다. 김현철 KTR 원장은 “KTR은 품질평가에 이어 신뢰성 분야까지 최초로 AI 시스템 KOLAS 시험평가 기관 지정을 받은 국내 대표 소프트웨어 시험인증 기관”이라며 “KTR은 앞으로도 대한민국을 대표하는 AI 지원기관으로서 다양한 관련 사업들을 앞장서 시행할 것”이라고 밝혔다.

2024.06.17 15:57주문정

생성형 AI는 과연 투명해질 수 있을 것인가

우리 정부는 인공지능(AI) 개발이 지향해야 할 가치로 세 가지를 꼽는다. 안전·포용·혁신. 강도현 과학기술정보통신부 2차관은 지난 달 29일(현지시간) 스위스 제네바에서 열린 '선의를 위한 인공지능(AI for Good) 글로벌 정상회의 2024' 행사에서 “AI는 사람을 중심으로 해야 한다”며 이를 강조했다. 안전·포용·혁신은 그 전주에 열린 'AI 서울 정상회의'에서 각국 정상이 합의한 지향이기도 하다. 세 가지 가치 중에서 현재 가장 뜨거운 것은 혁신이다. 혁신은 기술과 비즈니스 모델 개발에 방점이 찍혀 있다. 2022년 11월 챗GPT 출시 이후 AI가 인류의 최대 핫 기술이 된 것을 의심하는 사람은 없다. 많은 나라가 명운을 걸고 AI 산업 진흥에 국가 대항전을 펼치고 있으며, 기업도 사활이 걸린 문제로 인식하고 있다. 그중에서도 AI 모델과 이를 가능하게 할 AI 반도체 개발 경쟁이 치열하다. 혁신이 기술과 산업의 영역이라면 포용은 정치의 몫이다. AI 기술이 주목되는 까닭은 그것을 가진 자와 못 가진 자의 격차가 크게 벌어질 것이라는 게 자명하다는 데 있다. 그 격차는 사회적 혼란을 부른다. 이 혼란을 줄이기 위해서는 기술 발전으로 인한 혜택을 넓혀야 한다. 일자리 변화에 대한 대책을 세우고, 새로운 시대에 맞게 교육도 해야 한다. 산업보다는 정치가 담당해야 하는 역할들이다. 안전은 기술의 문제로 인식되곤 한다. 현재 AI와 관련된 안전 문제로 거론되는 사안은 시스템 오류, 편견, 조작, 무기화 등이다. 시스템 오류의 경우 기술이 갖는 비완벽성이라는 일반적 한계이고 편견의 경우 잘못된 학습으로 나타난 AI의 고유한 오류다. 조작과 무기화는 AI 기술 자체의 문제라기보다 이를 운용하는 인간의 문제다. 여하튼 이 모든 것을 기술로 해결해야 한다는 믿음이 있는 듯하다. 안전 문제는 그런데 기술 사안이기도 하면서 근본적으로는 철학의 영역이기도 한 것 같다. 정상회의의 테마가 '선의를 위한 인공지능(AI for Good)'이라는 게 예사롭지 않다. '선의(Good)'라는 것은 구체적으로 무엇을 의미하는 것일까. AI 자체에 의지(will)가 있고 그래서 착한 의지를 가진 AI를 개발해야 한다는 것일까, 아니면 이를 개발하고 사용하는 사람이 착한 마음을 갖게 해야 한다는 것일까. “AI는 사람을 중심으로 해야 한다”는 명제를 던진 것으로 보아 아마 후자 쪽에 더 무게를 둔 것 같다. AI는 도구에 불과한 것이고 그러므로 사람을 해치는 데 쓰지 말고 사람을 이롭게 하는 데 사용하도록 서로 합의하자는 의미겠다. AI 안전 문제 가운데 조작과 무기화를 세계적인 차원에서 각국 정부가 통제하자는 말도 된다. AI를 개발할 때 편견을 줄이도록 기업들에 독려하는 것도 포함될 듯하다. 안전은 곧 통제인 셈이다. 그런데 여기서 떨치기 어려운 의문이 하나 생긴다. 인간이 AI를 통제할 수 있는가의 문제다. 통제는 어떻게 가능한가. 통제 대상을 투명하게 만들 수 있어야 가능하다. 결국 AI를 투명하게 해야 통제가 가능하다. 그런데 AI는 두 가지 점에서 본질적으로 불투명하다. 하나는 불투명한 사람이 AI를 조종한다는 점이고, 다른 하나는 AI 자체가 투명할 수 없는 기술이라는 거다. 인간의 뇌는 불투명하다. 뇌를 해부할 수는 있어도 뇌의 작동을 통제할 수는 없다. 불투명하기 때문이다. 뇌가 불투명해서 믿을 수 없는 인간을 통제하기 위해 만든 게 도덕과 법과 종교 등이다. 뇌는 불투명하지만 행동은 투명하기 때문이다. 자연도 불투명하다. 불투명한 것은 위협적이다. 자연의 위협을 극복하려고 개발한 것이 과학기술이다. 지금까지 모든 과학기술은 투명했다. 통제 가능했다. AI는 인간이 개발한 기술 가운데 유일하게 불투명한 것이다. AI의 기술적 진화 방향은 인간의 뇌를 닮는 것이고 퍼포먼스에서 인간의 뇌를 뛰어 넘는 것이다. 불투명의 극한으로 가는 것이다. 그런데 AI를 진화시키기 위해서 인간은 더 투명해져야 한다. 인간의 모든 지성과 행위를 숨김없이 AI에게 보여야 하기 때문이다. AI에게 인간은 유리처럼 투명해지고 인간에게 AI는 알 수 없는 미궁인 것이다. 공평은 어쩌면 뇌가 불투명한 존재끼리 투명의 정도를 비슷하게 맞추어가는 과정을 의미할지도 모른다. 어느 한 쪽만 투명하다면 하나의 시선만 남는다. 검사와 범죄자처럼 일방적인 관계가 된다. 신뢰란 불투명한 존재끼리 서로 믿는 일이다. 투명해야 믿는 것은 신뢰가 아니다. 그건 통제다. 신뢰하지 않기 때문에 투명을 요구하는 것이다. AI와 인간은 공평할 수 없다. 그것이 안전 문제 본질이다.

2024.06.03 11:12이균성

어도비 "한국 소비자, 생성 AI의 콘텐츠 조작 가능성 우려 커"

어도비는 1천명 이상의 국내 소비자를 대상으로 조사한 '신뢰의 미래(Future of Trust)' 보고서를 9일 발표했다. 글로벌 조사의 일부로 진행된 이번 결과는 온라인 상 잘못된 정보에 대한 국내 소비자들의 경험 및 생성형 AI의 영향에 대한 우려에 초점을 두고 있다. 어도비는 책임 있는 혁신(Responsible Innovation)의 일환으로, 생성형 AI와 잘못된 정보의 사회적 영향에 대한 대중적 인식과 정서를 파악하기 위해 이 조사를 진행했다. 보고서에 따르면 소비자들은 디지털 콘텐츠의 신뢰성을 검증할 수 있는 툴이 필요하다고 입을 모았다. 잘못된 정보가 선거와 같은 전 세계적인 이슈에 미칠 잠재적 영향을 해결하기 위한 선제적 조치도 시급하다고 강조했다. 잘못된 정보는 사회가 직면한 가장 큰 위협 중 하나로 간주되며, 이를 확산하는 특정 플랫폼의 신뢰 하락에도 영향을 미치고 있다. 잘못된 정보가 점점 더 기승을 부리는 가운데, 한국인의 89%는 온라인에서 소비하는 콘텐츠가 잘못된 정보를 유발하기 위해 변조될 수 있다는 점을 우려하고 있다. 상당수의 국내 소비자들(79%)은 온라인에서 소비하는 콘텐츠의 신뢰성을 확인하는 것이 점점 더 어려워진다고 답했다. 전체 응답자의 40%는 잘못된 정보로 인해 특정 소셜 미디어 플랫폼의 사용을 중단하거나 줄였다고 전했다. 이는 잘못된 정보에 대한 우려가 소비자의 소셜 미디어 플랫폼 사용에 영향을 미치고 있음을 반증한다. 대부분의 사람들은 콘텐츠 공유에 앞서 출처의 신뢰성을 따지고 있으며, 콘텐츠의 사실 여부를 확인할 수 있는 툴과 미디어 리터러시 스킬이 필요하다는 데 공감했다. 온라인 콘텐츠에 대한 신뢰 여부를 파악할 수 있는 올바른 툴을 갖추는 게 중요하다고 답한 국내 소비자는 한국인 10명 중 9명(90%)에 달했다. 78%는 자신이 소비하는 콘텐츠가 AI를 통해 생성된 것인지 아는 것이 중요하다는 데 동의했다. 어린이 대상의 미디어 리터러시 스킬을 교육 과정의 일부로 가르쳐야 한다고 답한 국내 소비자도 87%로 나타났다. 이는 잘못된 정보에 대한 우려가 아동에게 미칠 잠재적 영향으로 확산되고 있음을 보여주는 결과다. 디지털 콘텐츠에 대한 신뢰가 하락되는 가운데, 소비자들은 선거의 공정성 보호를 우려하고 있다. 올해 전 세계 40억 명 이상이 투표에 참여할 것으로 예상되는 가운데, 89%의 응답자는 잘못된 정보와 유해한 딥페이크가 미래 선거에 영향을 미칠 것이라고 응답했다. 소비하는 온라인 콘텐츠의 진위 판단을 위한 툴이 보편화되지 않은 상황에서, 상당수(76%)는 선거 홍보 콘텐츠에서 생성형 AI 사용을 금해야 한다고 답했다. 이 밖에 정부와 기술 기업이 딥페이크와 잘못된 정보의 악영향으로부터 선거의 공정성을 보호하기 위해 함께 노력해야 한다고 말한 응답자도 88%에 달했다. 다나 라오 어도비 법률 고문 겸 최고 신뢰 책임자는 “우리는 창의성과 생산성을 혁신할 수 있는 생성형 AI의 힘에 큰 기대를 갖고 있다”며 “어도비는 AI 기술을 상업적으로 선보이는 선두 기업으로서, 오랫동안 이러한 기술이 사회에 미치는 영향에 대해 고민해왔다”고 밝혔다. 그는 “보고서에서도 확인했듯, 딥페이크의 위험성에 대해 교육하고 진실을 파악할 수 있는 툴을 제공하는 것이 중요하다”며 “글로벌 선거의 해로 불리는 이 때, 디지털 콘텐츠의 신뢰 회복을 위해 콘텐츠 자격증명과 같은 보호 기술을 채택해야 한다”고 강조했다. 어도비는 어드바니스와 공동으로 국내 18세 이상 성인 1천29명을 대상으로 이번 조사를 진행했다. 응답 데이터는 지난 3월 옵트인 비확률 표본 제공 업체를 통해 수집됐다.

2024.05.09 14:41김우용

3기 AI 윤리·신뢰성 포럼 발족···범부처 과제 등 발굴

과기정통부가 주관한 '제3기 AI 윤리‧신뢰성 포럼'이 18일 발족했다. 이날 출범한 '제3기 AI 윤리‧신뢰성 포럼'은 지난 4월 4일 출범한 'AI전략최고위협의회(이하 최고위협의회)'의 윤리‧안전분과로 운영된다. AI전략최고위협의회는 국가전체 AI혁신 방향을 이끌 최상위 거버넌스로 이종호 과기정통부 장관과 염재호 태재대 총장이 공동 위원장을 맡고 있다. 앞으로 포럼은 최고위협의회와 연계‧운영해 AI 윤리‧신뢰성 분야 범부처 과제를 발굴하고, 정책과제를 구체화해 민관이 함께 이행한다. 최근, 멀티모달 기술 등 생성형 AI 기술이 빠르게 발전하면서, 지속가능한 AI 혁신의 전제로 AI 윤리‧신뢰성이 중요성이 더욱 부각되고 있다. 이에 과기정통부는 이상욱 한양대 철학과 교수가 포럼위원장을 맡고, 학계‧산업계‧법조계‧공공‧시민사회‧국제기구 등 분야별 전문가 20명이 참여하는 제3기 'AI 윤리‧신뢰성 포럼'을 구성해 AI의 사회적 신뢰기반 조성을 위한 논의를 시작했다. 이날 서울 서초구 엘타워에서 출범한 '제3기 AI 윤리‧신뢰성 포럼'은 지난 4월에 출범한 'AI전략최고위협의회'(이하 '최고위협의회') 윤리‧안전분과로 운영된다. 포럼은 최고위협의회와 연계‧운영하여 AI 윤리‧신뢰성 분야 범부처 과제를 발굴하고, 정책과제를 구체화하여 민관이 함께 이행해 나갈 계획이다. 이날 포럼은 지난해 정부 AI 윤리사업 핵심과제로 민간전문가 의견수렴을 거쳐 개발한 'AI 윤리기준 실천을 위한 자율점검표(채용분야)'와 AI 서비스의 윤리적 영향력을 체계적으로 파악하고, AI의 윤리적인 개발‧활용을 장려할 수 있는 'AI 윤리영향평가' 프레임워크, 일반인의 AI 이해와 AI 활용역량을 지원하기 위한 AI 윤리교육 교재 등을 공개했다. 향후 격월로 포럼을 운영해 AI 윤리‧신뢰성 관련 글로벌 논의에 대한 대응전략을 모색하고, AI 산업 현장의 윤리‧신뢰성 확산 방안과 생성형 AI의 악의적 활용을 완화‧방지하기 위한 정책과제 등을 집중적으로 논의할 계획이다. 특히, 최근 오픈AI 소라 등 생성형 AI 기술의 활용범위가 기존 텍스트 생성에서 영상까지 빠르게 확대되고, 뮌헨 안보회의 '기만적 AI 사용방지를 위한 기술 합의문'('24.2.16.) 발표, 유엔총회 'AI 결의안' 채택('24.3.21.) 등 AI 관련 글로벌 논의가 활발해지는 정책환경 속에서 국내 AI 윤리·신뢰성 확보를 위한 정책 방향에 관한 종합토론을 진행했다. 출범식에 참석한 과기정통부 엄열 인공지능기반정책관은 “최근 전세계 AI 분야의 경쟁적 투자 확대로 AI 발전 속도는 더욱 가속화되고, 진화 방향은 예측하기 어려워지고 있다”면서 “생성형 AI 기술로 촉발된 AI 시대로의 본격적인 전환점에서 AI 발전과 공존 가능한 AI의 전제는 윤리와 신뢰다. AI에 대한 사회적 신뢰기반을 만들어 갈 수 있게 AI 윤리‧신뢰성 포럼이 사회적 논의의 구심점 역할을 수행해 주길 기대한다”고 말했다.

2024.04.19 22:51방은주

세일즈포스, 브래드 아킨 최고신뢰책임자(CTO) 선임

세일즈포스는 최고 신뢰 책임자(CTO)로 브래드 아킨을 선임했다고 20일 밝혔다. 브래드 아킨은 세일즈포스 합류 전 시스코, 어도비 등의 글로벌 기업에서 20년 이상 제품 및 엔터프라이즈 보안을 담당했다. 그는 시스코시스템즈의 최고 보안 및 신뢰책임자 겸 수석부사장으로 재직 당시 투명한 커뮤니케이션과 보안의 중요성을 강조해 왔다. 그는 앞으로 세일즈포스에서 고객, 파트너 및 회사의 확장된 에코시스템과 협력하여 데이터 신뢰와 보안 고도화에 주력할 예정이다. 세일즈포스에 따르면 이미 전 세계 기업은 생성형 AI 기술을 기반으로 고객과 상호작용하고 있는 것은 물론, 실질적인 업무를 수행하며 생산성 향상을 위한 혁신을 가속화하고 있다. 세일즈포스가 전 세계 IT 리더와 현업 담당자를 대상으로 실시한 연구조사에 따르면, 지난 분기에만 직장에서의 AI 사용이 24% 이상 상승했으며, AI를 사용하는 직원 중 80%가 이미 생산성 향상을 경험하고 있다고 응답했다. AI 기반 서비스의 폭발적인 성장에도 불구하고 대다수의 기업과 고객이 여전히 기술의 비윤리적 사용과 보안 위험에 대해 우려를 표명하는 등 기술에 대한 신뢰의 격차는 여전히 존재한다. 최근 하버드 비즈니스 리뷰의 연구에 따르면 과반수 이상(57%)이 AI를 신뢰하지 않는다고 응답했으며, 4분의 1 이상이 AI의 신뢰성에 대해서 중립(22%)으로 응답했다. 또한 세일즈포스의 연구조사에 따르면 역시 과반수 이상의 응답자(68%)가 AI의 발전으로 인해 신뢰의 중요성이 더욱 확대되었다고 응답했다. 세일즈포스는 지난해 기업이 보다 신뢰할 수 있는 환경에서 생성형 AI 기술을 활용할 수 있도록 지원하는 '아인슈타인 트러스트 레이어'를 공개했다. 아인슈타인 트러스트 레이어는 높은 수준의 보안 환경을 바탕으로 개인정보보호 관련 규정 준수는 물론, 기업 내 데이터 자산 보호를 지원하는 AI 아키텍처이다. 이를 통해 세일즈포스 사용자는 아인슈타인 트러스트 레이어가 제공하는 데이터 마스킹, 제로 리텐션, 유해성 검사 등의 기능을 통해 보다 안전하고 신뢰할 수 있는 환경에서 생성형 AI 기술을 활용할 수 있다. 세일즈포스 브래드 아킨 최고 신뢰 책임자는 "전 세계 기업은 기업과 고객의 성공을 지원하며, 신뢰할 수 있는 AI 기술을 제공하고 있는 세일즈포스와 디지털 혁신 여정을 함께 하고 있다"며, "AI의 혁명은 데이터의 혁명이며 곧 신뢰의 혁명”이라고 밝혔다. 그는 “AI 발전에 따라 우리는 데이터 보안, 투명성, 개인정보보호 등의 영역에서 기준을 높여 나가며 고객, 직원, 소비자 등을 포함한 모든 이해관계자의 신뢰를 확보해 나갈 예정"이라고 강조했다. 세일즈포스는 지난 6일 미국 샌프란시스코에서 열린 TDX 2024에서 로우코드 방식으로 CRM용 생성형 AI 환경을 구축 및 커스터마이징할 수 있으며, 자연어 프롬프트를 기반으로 분야별 맞춤형 AI 콘텐츠 생성이 가능한 '아인슈타인 1 스튜디오'와 모든 산업과 규모의 기업을 위한 대화형 AI 어시스턴트인 아인슈타인 코파일럿을 공개했다. 아인슈타인 코파일럿과 아인슈타인 1 스튜디오는 아인슈타인 트러스트 레이어에서 제공하는 개인정보보호 및 보안 조치를 통해 신뢰할 수 있는 환경에서 유저와 AI의 상호작용을 지원하며, 세일즈포스 데이터 클라우드의 데이터에 기반한 컨텍스트를 활용해 보다 정확하고 맞춤화된 답변을 생성할 수 있도록 돕는다.

2024.03.20 10:25김우용

KTL, AI 글로벌 네트워크 강화·신뢰성 확보 나서

한국산업기술시험원(KTL·원장 김세종)은 인공지능(AI) 신뢰성을 확보하고 글로벌 네트워크를 강화하기 위해 트레인 글로벌이 주최한 '제1차 TRAIN 글로벌 심포지엄'에 참가했다고 23일 밝혔다. 이번 행사는 '신뢰할 수 있는 AI를 위한 아시아 연대, 정보 교류의 힘'이라는 주제로 개최됐다. 국내외 정부·공공기관, AI 관련 기업·협회·단체를 비롯한 법조계와 학계 관계자 등 약 150여 명이 참석했다. TRAIN은 '신뢰할 수 있는 AI 국제연대(TRustworthy AI International Network)'의 약자로 AI 신뢰성 확보·강화와 AI 기술규제 공동 대응 방안 모색을 위해 설립됐다. 현재 대한민국·베트남·태국·중국이 창립회원 국가로 활동 중이다. 심포지엄에서는 AI 신뢰성 기술 진단 모델과 사례, 각국 AI 교육 로드맵, AI 표준개발 현황, 아시아 국가 AI 신뢰성 정책 등 AI 기술과 교육, 법·제도·정책 정보를 공유했다. 기술 세션 부문에서 KTL 산업지능화기술센터 안선호 팀장은 AI 적합성 평가를 위한 국제표준(ISO/IEC JTC 1 SC42) 개발 현황과 유럽연합(EU) AI 규제법, 미국 AI 행정명령 등 급변하는 대외 환경 속에서 나아가야할 방향에 대해 발표했다. EU는 지난해 12월 세계 최초로 'AI 규제' 법안에 합의해 오는 6월부터 시행한다. 자율주행차·의료 장비 등 '고위험 AI' 기술을 탑재한 제품을 시장에 출시하기 전에 엄격한 안전 테스트를 거칠 것을 의무화하고 있다. 권종원 KTL 산업지능화기술센터장은 “최근 AI를 접목한 제품·서비스가 급증함에 따라 AI 신뢰성을 검증할 수 있도록 민관이 협력해 국제표준에 기반한 적합성평가(인증·심사 등)체계가 마련되고 있다”며 “앞으로도 KTL은 AI 시험서비스를 확대하고 AI 신뢰성 분야 국제표준화를 선도하며 정부 산업 디지털 전환 정책을 적극 뒷받침하고 국내 AI 기업이 국제무대에서 경쟁력을 가질 수 있도록 노력하겠다”고 밝혔다. 한편, KTL은 AI 접목 제품·서비스가 급증함에 따라 수출 제품 AI 신뢰성 검증 수요에 대응하기 위해 산업 디지털 전환 적합성 인증체계 마련과 실증 기반을 2026년까지 충남 아산시에 구축할 계획이다. AI 표준 가이드 제작을 통해 AI 기술개발 단계부터 신뢰성 확보 여부를 확인할 수 있도록 돕고, 종합기술 컨설팅·교육을 제공해 국내 기업의 실질적인 애로가 해소될 수 있도록 힘쓸 예정이다. 산업통상자원부와 KTL은 지난해 6월 국내 AI 공급 기업의 수출 지원 강화를 위해 '산업AI국제인증 포럼'을 발족, 세계 통용 가능한 산업 AI 인증체계를 마련했다.

2024.02.23 10:36주문정

AI신뢰성 인증(CAT) 받은 국내 1·2호 솔루션 탄생

국내서 처음으로 당국에서 인공지능(AI) 신뢰성 인증을 받은 솔루션(SW) 2종이 탄생했다. 마크애니와 엔플럭스 제품이다. 두 제품은 작년 12월 TTA에 AI신뢰성 인증 획득을 위한 신청을 해 국내 처음으로 CAT(Certification of Artificial Intelligence, AI신뢰성인증) 1,2호를 받았다. 신청부터 CAT 인증 획득까지 약 2개월이 걸렸다. 비용은 공개되지 않았다. 6일 과학기술정보통신부(과기정통부)와 한국정보통신기술협회(TTA, 회장 손승현)는 마크애니(대표 최고)와 엔플럭스(대표 이민)에 'AI 신뢰성 인증(CAT, Certification of Artificial Intelligence)' 2건을 부여했다고 밝혔다. 'CAT 제도'는 AI 신뢰성 단체표준을 기반으로 하며, AI 신뢰성을 자발적으로 확보하려는 민간 AI 사업자를 대상으로 인증 절차를 진행한다. 민간 인증전문기관인 TTA가 AI 기술을 활용한 제품과 서비스의 위험요인을 분석하고, 위험에 기반해 신뢰성 확보를 위한 사업자의 요구사항 준수 여부를 평가해 CAT를 부여한다. 앞서 과기정통부와 TTA는 2021년부터 분야별 '신뢰할 수 있는 AI 개발안내서'(개발안내서) 개발과 보급을 통해 AI 신뢰성 확보를 위한 기술 요구사항을 정립하는 한편 국내기업이 AI 신뢰성을 확보할 수 있게 지원해왔다. 지난해 12월에는 개발안내서 내용을 바탕으로 AI 신뢰성 관련 국제표준인 ISO/IEC TR 24028(신뢰성 개요), ISO/IEC 23894(위험관리), ISO/IEC 22989(용어)와의 국제 호환성을 확보한 국내 최초의 AI 신뢰성 정보통신단체표준인 'AI 시스템 신뢰성 제고를 위한 요구사항'(AI 신뢰성 단체표준)을 제정하기도 했다. 이번에 CAT 인증을 받은 마크애니의 'AI 영상 검색 및 대상물 이동경로 추적 솔루션'은 과기정통부가 작년에 시행한 'AI 융합 국민안전 확보 및 신속대응 지원사업' 일환으로, 이 솔루션은 실종자 인식 정확도 오류와 특정 인종‧성별‧연령에 대한 편향 등 AI 모델 오류를 위험요소로 식별하고, AI 모델 편향 제거, AI 시스템 신뢰성 테스트계획 수립, AI 신뢰성 확보를 위한 기업의 거버넌스 구성 등을 검증받아 인증을 받았다. 또 스마트 관제 전문기업인 엔플럭스의 'AI 융합 지뢰탐지 모듈 v1.0'은 역시 과기정통부가 작년에 시행한 'AI 융합 프로젝트(AI+X)'의 'AI 융합 지뢰탐지시스템 개발·실증 과제' 일환으로, 이 모듈은 지표투과레이더(GPR) 이미지를 판독해 지뢰 여부, 지뢰 종류 판단 등 고수준의 분석기능을 제공하는 시스템으로, 지뢰탐지 정확성 오류와 지뢰탐지 결과의 설명가능성 부재 등을 위험요소로 도출, 데이터 구축 방법 적절성과 AI 모델 판단결과에 대한 설명가능성 확보 등을 중점적으로 검증받았다. 민간 인증 전문기관인 TTA는 AI 신뢰성 검증을 실시하는 과정에서 신뢰성 확보를 위한 보완 필요사항에 대해 사업자에게 컨설팅을 수행, AI 제품과 서비스의 신뢰성을 개선할 수 있게 지원했다. 과기정통부는 "이번 인증은 지난 10월 민간자율 AI 신뢰성 인증제도를 도입한 이후 첫 사례로, 국내 AI 제품‧서비스의 신뢰성을 확보하기 위한 민간 자율체계를 확립했다는 점에서 의미가 있다"고 설명했다. 남철기 과기정통부 인공지능기반정책과장은 "세계적으로 AI 신뢰·안전성 확보를 위한 노력이 치열한 상황에서, 전문성 있는 기관을 통한 민간자율 AI 신뢰성 인증제도는 AI 혁신과 안전하고 신뢰할 수 있는 AI 활용을 동시에 촉진할 수 있는 좋은 모델이 될 것으로 기대한다"면서 "빠른속도로 발전하는 생성형 AI 기술‧시장 변화를 반영해 AI 신뢰성 인증제도를 고도화하고, AI 신뢰성 인증 모범사례를 지속 확대해 국내 AI산업의 AI 신뢰‧안전성 기반을 강화해 나갈 계획"이라고 밝혔다.

2024.02.06 12:00방은주

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

새정부 독자AI 구축 의지...통신사, 자체 AI 모델 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.