• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 신뢰'통합검색 결과 입니다. (50건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"130명 몰렸다"…MWC26 달군 '글로벌 AI 레드팀 챌린지' 흥행 성공

스페인 바르셀로나에서 열린 MWC26의 부대행사 '글로벌 인공지능(AI) 레드팀 챌린지'에 전 세계 AI 전문가, 개발자, 기업 관계자 등 130여 명이 참여했다. 셀렉트스타는 세계이동통신사업자연합회(GSMA)와 공동 주최한 레드팀 챌린지가 지난 3일(현지시간) MWC 행사장 내 탤런트 아레나에서 개최됐다고 5일 밝혔다. 올해 챌린지는 글로벌 통신·AI 기업들이 개발한 대표 거대언어모델(LLM)을 대상으로 실전 검증을 진행했다. 한국 SK텔레콤 'A.X K1', LG유플러스 'ixi-GEN'을 비롯해 아랍에미리트 '텔레콤GPT', 미국 AT&T '에스크 AT&T', 네토AI의 'T슬램' 등이 참여하며 글로벌 통신사들의 참여 폭이 확대됐다. 참가자들은 LLM의 취약점을 공략하기 위한 프롬프트 공격을 시도했고 최종 78명이 실질적인 레드티밍 결과물을 제출했다. 대회 1위를 차지한 현직 데이터 엔지니어인 학탄 코지잇씨에겐 1000유로의 상금과 내년 MWC27 입장권이 수여됐다. 2위와 3위에게도 소정의 상금과 MWC27 입장권이 각각 제공됐다. 이번 행사는 참가자와 심사위원에게 특정 기업과 모델 정보를 비식별화해 제공하는 '비경쟁·비공개' 방식으로 운영됐다. 모델 간 우열을 가리거나 취약점을 외부에 노출하는 대신, 레드티밍 결과를 각 기업의 실제 서비스 고도화에 활용할 수 있도록 하는 취지에서다. 셀렉트스타는 이 과정에서 AI 신뢰성 평가 플랫폼 '다투모(Datumo)'를 활용했다. 다투모는 대규모 인원이 동시 접속해 다양한 언어와 기법으로 공격을 시도하는 환경에서도 안정적인 운영과 결과 분석을 지원한다. 루이스 파월 GSMA AI 기술 디렉터는 "이 대회는 단순히 상금을 건 경진대회가 아닌 생성형 AI의 취약점을 찾아 실질적인 개선을 돕는 자리"라며 "여러분들의 참여가 안전한 AI, 나아가 안전한 세상을 만드는 데 큰 도움이 되고 있다"고 말했다. 현장을 운영한 황민영 셀렉트스타 부대표는 "글로벌 기업 업계 실무자들이 대거 참여하고, 수많은 인파가 몰리는 것을 보며 AI 신뢰성 검증에 대한 산업계의 니즈를 체감했다"며 "본 챌린지를 단발성 이벤트로 그치지 않고, 실제 서비스 환경에서 적용 가능한 AI 신뢰성 검증 프레임워크로 고도화하겠다"고 말했다.

2026.03.05 15:27이나연 기자

단순 점수보다 기업 맞춤형···셀렉트스타, AI 신뢰성 해법 전한다

셀렉트스타가 거대언어모델(LLM) 기반 서비스의 실제 성능과 신뢰성을 정교하게 측정하려는 기업들을 위해 실무적인 검증 기준을 제시한다. 셀렉트스타는 다음 달 5일 오후 2시 '커스텀 평가 체계로 LLM 서비스 평가 기준 만들기'를 주제로 무료 웨비나를 개최한다고 27일 밝혔다. 이번 행사는 벤치마크 점수와 실제 서비스 위험 간의 괴리를 좁히고, 기업이 AI 서비스를 안심하고 출시할 수 있도록 돕는 의사결정 프레임워크를 공유하는 자리다. 웨비나에선 ▲LLM 판사 기반 평가 ▲정량·정성·혼합 평가 방법론 등 최신 트렌드를 소개하고 수작업 중심 평가를 자동화해 리소스를 효율화하는 전략을 다룬다. 특히 기업 내부 거버넌스 체계에 맞춘 서비스 출시 기준 설정법과 실제 기업들 운영 사례를 공개할 예정이다. 셀렉트스타는 국내 최초 AI 신뢰성 평가 자동화 플랫폼인 '다투모 플랫폼'을 활용해 평가 프로세스를 체계화한 사례도 소개한다. 이찬수 셀렉트스타 사업개발팀장은 "많은 기업이 LLM을 도입하면서도 정작 서비스 목적에 맞는 명확한 평가 기준을 세우는 데 어려움을 겪는다"며 "이번 웨비나를 통해 데이터 기반으로 AI 서비스 출시 여부를 판단할 수 있는 지표를 마련하길 기대한다"고 말했다.

2026.02.27 14:45이나연 기자

무하유, 김경수 신임 CPO 선임…근거 제시하는 AI 만든다

무하유가 철학적 통찰력을 갖춘 제품 전략 전문가를 영입해 인공지능(AI) 의사결정의 신뢰성을 확보하는 '설명하는 AI' 브랜드 구축에 나선다. 무하유는 김경수 최고제품책임자(CPO)를 영입했다고 24일 밝혔다. 김 CPO는 SK커뮤니케이션즈에서 네이트온과 싸이월드 등 플랫폼을 기획·운영한 비즈니스 전략 전문가다. 앞서 서울대학교 철학과를 졸업하고 동 대학원 인지과학 석사 학위를 취득했다. 무하유는 김 CPO 영입을 계기로 AI 결과에 근거를 부여하는 제품 전략을 강화할 계획이다. 15년간 축적한 데이터와 AI 자산을 활용해 조직 의사결정 구조를 인공지능 전환(AX)하겠다는 목표다. 무하유는 올해 프로덕트 로드맵의 핵심으로 '설명하는 AI' 브랜드도 제시했다. 이를 위해 서비스별로 분리된 결과물을 하나의 흐름으로 연결한 통합 결과 리포트를 제공한다. 사용자가 결과를 보고 즉시 다음 행동을 결정할 수 있는 의사결정 지원 플랫폼을 완성할 계획이다. 문서 표절검사 서비스 '카피킬러'와 AI 생성 검사 솔루션 'GPT킬러'는 확률과 설명을 분리 제시해 사용자가 책임 있게 판단할 수 있도록 근거 데이터를 제공한다. AI 서류평가 서비스 '프리즘'은 AI 판단 근거를 법적·윤리적 신뢰 수준까지 끌어올려 선발의 정당성을 확보하는 평가 구조를 제시한다. AI 면접 서비스 '몬스터'는 단순 점수 나열이 아닌 행동에서 역량으로 이어지는 판단 논리를 제공한다. 면접 현장에서 즉시 활용 가능한 해석 가이드를 지원한다. 교육 분야에선 몬스터 구술평가 기능을 통해 AI 시대의 새로운 학습 대안을 제시할 계획이다. AI 생성 검사 기능으로 AI 과제 제출에 대한 1차 방어선을 구축하고, 구술평가로 학습 과정과 이해도를 직접 검증할 환경을 제공한다. 신동호 무하유 대표는 "김 CPO는 지능의 본질을 고민한 철학적 배경과 실무 경험을 모두 갖춘 인재"라며 "AI 의사결정의 신뢰를 확보하는 AX 인프라를 구축할 것"이라고 강조했다.

2026.02.24 14:13이나연 기자

KTR, 차세대 모빌리티 신뢰성 확보 나선다

KTR(한국화학융합시험연구원·원장 김현철)이 자율주행차·소프트웨어중심차량(SDV) 등 차세대 모빌리티 신뢰성 확보를 위한 자동차 소프트웨어 시험평가 체계 구축에 본격 나선다. KTR은 한국자율주행산업협회·슈어소프트테크와 '차세대 모빌리티 신뢰성 확보를 위한 국제표준 기반의 네트워크 적합성 평가기술 시험장비 개발 사업' 공동수행을 위한 업무협약을 체결했다고 밝혔다. 이 사업은 산업통상부의 국제표준 기반 시험장비 기술개발 및 고도화 지원사업의 일환으로 추진된다. 협약에 따라 세 기관은 인공지능(AI)·네트워크 등 차세대 모빌리티 소프트웨어 분야 시험장비 개발과 국산화를 위한 협력사업을 수행한다. KTR은 현재 수입 장비로만 평가해 오던 자동차 네트워크 분야 적합성 평가 장비 개발·상용화를 추진한다. 또 AUTOSAR SecOC 적합성 평가 기능을 적용, 평가범위를 사이버보안까지 확장할 계획이다. 국산화를 추진하는 해당 자동차 네트워크 적합성 평가 장비는 ▲A-Ethernet ▲CAN ▲CAN-FD ▲FlexRay 등이다. 지금까지 관련 업계에서는 완성차 기업 납품을 위해 필수적인 적합성 평가와 기술보고서 작성 부담을 덜기 위해 국산 네트워크 평가 장비 개발 필요성을 지속적으로 제기해 왔다. KTR은 협약 체결 기관들과 모빌리티 및 자율주행 분야 ▲시험 인증 기술서비스 지원 체계 구축 ▲국가 R&D 사업 기획 및 추진 ▲세미나 개최 및 기업 지원 서비스 발굴 등도 공동 수행한다. KTR은 슈어소프트테크와 최신 자동차 네트워크 및 보안 표준을 반영한 평가기술을 공동 개발하고, 자율주행산업협회와는 자동차 기능안전, 소프트웨어 기반구축 과제도 공동 추진하기로 했다. 김현철 KTR 원장은 “자율주행차 등 차세대 자동차산업 경쟁력 확보를 위해서는 차세대 모빌리티 평가장비 국산화 및 신뢰성 제고가 필수적”이라며 “KTR은 소프트웨어와 하드웨어를 망라하는 AI 시험평가 인프라와 국제표준에 부합하는 소프트웨어 시험인증 서비스 노하우를 활용해 차세대 모빌리티 산업 경쟁력 강화에 더욱 기여할 것”이라고 밝혔다.

2026.02.18 22:47주문정 기자

씽크포비엘 "AI법 해석 인력 부족…신뢰성 전문가 필수 시대"

"인공지능(AI) 신뢰성은 막연한 도덕적 선언이 아닌 철저히 계산된 기술적 설계가 필요한 분야입니다. 기업은 어떤 근거로 기술적 판단을 내렸는지, 어떤 책임을 어떻게 질 것인지 설명할 줄 알아야 합니다. AI 신뢰성은 시장에 참여하기 위한 최소 자격 조건이 될 것입니다." 박지환 씽크포비엘 대표는 최근 지디넷코리아를 만나 "AI와 착하게 살자는 식의 감성적인 윤리적 접근으로는 실질적인 AI 위험을 통제할 수 없다"며 AI 신뢰성 패러다임 변화 필요성을 이같이 강조했다. 그는 "AI 신뢰성이란 기술을 설명하고 증명하며 책임질 수 있는 상태"로 정의했다. 박 대표는 AI 신뢰성 논의가 오랫동안 '윤리적인 AI' 또는 '신뢰할 수 있는 AI'라는 구호 수준에 머물렀다고 지적했다. 어디서 위험이 감지되고, 누가 멈추고, 누가 책임지는지는 거의 다뤄지지 않았다는 설명이다. 그는 이같은 공백을 메우기 위해 국내에서 처음으로 AI 신뢰성 민간 자격 'CTAP(Certified Trustworthy AI Professional)'를 설계했다고 밝혔다. CTAP 시험은 AI가 법적 준거성과 기술적 견고성을 동시에 갖췄음을 기술적으로 설명할 수 있는 전문가를 양성하는 것이 목적이다. 실제 CTAP는 AI 윤리에 대한 감각이나 가치 판단을 묻지 않는 것으로 알려졌다. AI 위험을 어떻게 식별하는지, 설명 가능성을 오해 없이 구현할 수 있는지, 운영 단계에서 신뢰가 무너질 때 어떤 기술적 판단을 내릴 것인지를 철저히 기술적으로 묻는 시험이다. 박 대표는 CTAP를 통해 AI 기술 심판자 역량을 가려내는 것이 목표라고 밝혔다. 그는 "어떤 기술이든 사회에 나오기 위해 충족해야 할 최소한의 규칙을 알고 있는지를 평가하는 것"이라고 밝혔다. CTAP 자격 체계는 두 가지로 구성됐다. 입문 단계인 FL(Foundation Level)은 실무 경험이 없더라도 응시할 수 있다. AI 신뢰성 개념을 오해하지 않고, 위험을 인식할 수 있으며, 개발자·기획자·법무·운영 담당자와 논의할 수 있는 수준이다. AL(Advanced Level)은 AI 신뢰성을 설계, 적용, 판단하는 책임을 갖추는 수준이다. FL 취득 후 최소 1년 이상 실무 경험이 필수다. 개발·기획·운영·공공 등 역할별·산업별로 전문화된 트랙으로 세분됐다. 자격 유효기간은 3년이다. 갱신 시 실무 수행 여부를 엄격히 따진다. 실제 현장에서 위험을 판단하고, 설명하고, 통제하는 역할을 수행하고 있다면 별도 재시험 없이 자격을 유지할 수 있다. AI기본법 시행됐지만…기준 설명·책임질 사람 없다 박 대표는 국내 AI기본법이 시행됐지만 법 기준을 기술적으로 해석할 인력이 부족하다는 점을 우려했다. 그는 "국내 AI기본법은 단순히 기업에 선의나 도덕성을 요구하지 않는다"며 "기업이 어떤 근거로 기술적 판단을 내렸는지 설명·책임을 요구한다"고 설명했다. 이어 "이를 수행할 인력이 없다면 현장에서 혼선을 빚을 수 있다"고 봤다. 박 대표가 이 상황에서 가장 우려하는 지점은 '형식주의 득세'다. 기업이 실제 위험을 관리하기보다 법에 따라 체크리스트를 채우고 문서를 갖추는 데만 급급한 신뢰성 흉내가 제도적으로 양산될 수 있다는 지적이다. 그는 "AI법은 사고 발생 시 기업을 보호하지도, 산업 안전을 담보하지도 못하는 허울뿐인 장치가 될 위험이 크다"고 말했다. 또 다른 우려는 '책임 공백'이다. 기술적 위험을 판단할 주체가 없다 보니, 의사결정이 한없이 위로 밀려 올라가거나 아무도 책임지지 않은 채 방치되는 현상이 나타난다는 설명이다. 박 대표는 "결과적으로 기업은 위축되고 산업 전체 속도는 떨어진다"며 "AI 윤리를 지켰다는 선언적 표현은 늘어나겠지만 판단 근거를 설명할 수 있는 사람이 없다면 결국 시장과 파트너로부터 외면받게 될 것"이라고 짚었다. 박 대표는 국내 AI 신뢰성 인재 생태계와 해외 생태계를 비교해 예시를 들었다. 박 대표는 "해외 주요국은 석·박사 과정에 AI 신뢰성과 거버넌스를 필수 커리큘럼으로 편입해 전문 인력을 양성해 왔다"며 "지식 체계를 정립하고 강사를 육성하는 데 최소 3년이 걸린다는 점을 고려하면, 관련 교육 기반이 부족한 한국은 사실상 4년 가까이 뒤처진 상태"라고 지적했다. "글로벌서 통용되는 AI 신뢰 전문가 양성할 것" 박 대표는 CTAP 기준을 글로벌 표준으로 만들겠다고 포부를 밝혔다. 실제 씽크포비엘은 CTAP 'AI 신뢰성 역량 평가 모델' 초안을 지난 10월 국제표준화기구(ISO)와 국제전기기술위원회(IEC) 등에서 공개한 바 있다. 현재 로드매핑 단계로 진입한 상태다. 그는 "이르면 내년 신규 표준 프로젝트로 제안될 가능성이 높다"고 말했다. 박 대표는 CTAP 중립성을 위해 국제 표준화는 반드시 추진돼야 한다고 주장했다. 그는 "국제 표준은 한 연구자나 한 기업 관점이 아니다"며 "각국 정부, 산업계, 학계, 규제 기관이 참여해 이해관계 충돌을 조정하고 합의를 거쳐 형성된다"고 설명했다. 이어 "표준은 단순히 기술 우수성을 알리는 문서가 아니다"며 "어떤 기술이라도 사회에 나오려면 최소한 이것은 충족해야 한다는 공통 규칙에 가깝다"고 덧붙였다. 박 대표는 국제 표준화가 AI 신뢰성 필수 요소라고 강조했다. 박 대표는 "사고가 발생했을 때 법적·사회적 책임이 수반되는 영역에서는 논문 몇 편이 아니라 어떤 국제적 기준에 근거해 판단했는가가 훨씬 중요해지는 상황"이라며 "규제, 감사, 분쟁, 정책 설계 현장에서는 논문보다 표준이 인용되고, 표준이 사실상 판단 기준선으로 작동한다"고 설명했다. 박 대표는 향후 기업에서도 AI 신뢰성은 선택 사항이 아니라 시장에 참여하기 위한 최소 자격 조건이 될 것으로 내다봤다. AI 시장이 성숙해질수록 "이 기술은 누가 책임지는가" "어떤 기준으로 허용됐는가" "사고 발생 시 누가 멈출 수 있는가" 같은 거버넌스 체계를 갖추는 것이 필수적이라는 이유에서다. 박 대표는 "전담 실무자 없는 조직은 이같은 질문에 답할 수 없다"며 "결국 고객과 파트너로부터 신뢰를 잃어 시장에서 스스로를 방어할 수 없는 고립 상태에 놓일 것"이라고 전망했다. 그는 기업이 AI 신뢰성 확보 패러다임을 바꿔야 한다고 주장했다. 그는 신뢰성 확보 첫 단계는 무엇을 금지할 것인가를 고민하는 것이 아니라 어떤 AI를 책임질 준비가 됐는지를 정책적으로 먼저 고려하는 것이라고 강조했다. 박 대표는 "정책적 토대 위에서 위험 요소를 차분히 관리해 나갈 때 신뢰성은 성장 발목을 잡는 족쇄가 아니라 불필요한 사고 비용을 줄이고 산업 안전성을 확보하는 합리적이고 전략적인 기반이 될 것"이라고 말했다.

2026.02.16 12:23김미정 기자

[유미's 픽] 공공 AX 확대 속 AI 프라이버시 정책 '운영 단계'로…업계 부담 커진다

국내 인공지능(AI)·소프트웨어 업계가 개인정보 보호 대응을 기술 개발의 부수 요소가 아닌 핵심 경쟁력으로 재정립해야 할 것으로 보인다. 생성형 AI를 넘어 에이전트 AI, 피지컬 AI 등 차세대 기술이 서비스 현장에 빠르게 적용되면서 개인정보 리스크가 단순 유출 방지를 넘어 서비스 구조 전반의 신뢰 문제로 확산되자 정부가 정책 정비에 나섰기 때문이다. 4일 개인정보보호위원회가 발표한 '2026 AI 프라이버시 민관 정책협의회 운영 방향'에 따르면, 정부는 AI 확산으로 개인정보 리스크가 기존 유출·노출 중심에서 민감정보 추론, 딥페이크 악용, 프로파일링 등 새로운 형태로 확대되고 있다고 진단했다. 정책 논의의 초점도 모델 학습 단계에서 벗어나 에이전트 AI·피지컬 AI 등 서비스 운영 단계에서 발생할 수 있는 위험 대응으로 전환했다. 이에 맞춰 협의회는 데이터 처리기준, 리스크 관리, 정보주체 권리 등 3개 분과 체계로 운영한다. 또 '에이전트 AI 개인정보 처리기준' 마련(6월)과 AI 프라이버시 레드팀 방법론 연구를 추진할 계획이다. 여기에 자동화된 결정 대응 등 이용자 권리 보장 방안과 올해 3월께 'AI 이용 개인정보 보호수칙'도 제시할 예정이다. 향후에는 AI 정책 수립 과정에서 민관 의견을 폭넓게 수렴하고 부처 간 정책 정합성을 확보하는 자문기구로 기능을 확대한다는 방침이다.특히 이번에 주목할 점은 협의회 논의 과제에 'AI 프라이버시 레드티밍(Red Teaming)' 방법론이 포함됐다는 점이다. 레드티밍은 공격자 관점에서 시스템의 취약점을 의도적으로 점검해 보안 허점을 찾아내는 방식으로, AI 서비스가 실제 운영 과정에서 맞닥뜨릴 수 있는 프라이버시 위협을 사전에 검증하는 절차로 활용될 수 있다. 이를 통해 기업들의 개인정보 보호 대응이 기존의 사후적·수동적 점검에서 벗어나 보다 공세적이고 예방적인 리스크 관리 체계로 전환될 가능성이 클 것으로 예상된다.셀렉트스타 관계자는 "매우 빠른 AI 발전이 실질적 확산으로 이어지기 위해서는 관련 규제 환경의 신속한 맞춤 변화가 중요하다"며 "정부가 민관 정책 협의회 등을 통해 민간과 적극적으로 소통해 AI 업계의 규제 불확실성을 최소화할 것으로 기대된다"고 말했다. 개보위의 이 같은 움직임에 AI 업계도 예의주시하고 있다. 정부의 규제 논의가 학습 데이터 적법성 중심에서 서비스 배포 이후의 운영 책임으로 이동하고 있다는 점에서 기업들은 향후 AI 서비스 전 과정에 대한 관리·감독 요구가 강화될 가능성에 주목하고 있다. 이 같은 변화는 에이전트 AI 확산과 맞물리면서 더욱 뚜렷해질 전망이다. 에이전트 AI는 사용자 대신 업무를 수행하며 다양한 데이터에 접근하고 서비스 간 상호작용을 통해 결과를 만들어내는 구조인 만큼, 개인정보 처리 책임의 경계가 더욱 복잡해질 수밖에 없다. 이에 따라 기업들은 서비스 설계 단계부터 데이터 처리 흐름과 사후 통제 체계를 함께 마련해야 하는 과제를 안게 됐다. 업계 관계자는 "그동안 기업들이 학습 데이터 적법성에 집중했다면, 앞으로는 서비스 운영 과정에서 AI가 어떤 데이터에 접근하고 어떤 결정을 내리는지가 규제의 핵심이 될 것"이라며 "에이전트 AI 확산은 프라이버시 컴플라이언스를 한 단계 끌어올리는 계기가 될 수 있다"고 말했다. 이러한 흐름은 민간 서비스뿐 아니라 공공 부문 AI 전환 확대와 맞물리며 업계 부담을 더욱 키우고 있다. 정부는 공공기관이 AI 신서비스를 기획하는 과정에서 개인정보 보호법 저촉 여부가 불확실한 경우가 많다는 점을 감안해 사전적정성 검토와 규제 샌드박스 지원을 병행할 계획이다. 정부의 공공 AX 예산은 2025년 5천억원에서 2026년 2조4천억원으로 5배 증가하며 33개 부처에서 206개 사업이 추진될 예정이다. 이에 공공 시장을 겨냥하는 소프트웨어 기업들 사이에서는 초기 설계 단계부터 프라이버시 보호 체계를 갖추지 않으면 사업 참여 자체가 어려워질 수 있다는 전망도 나온다. 업계 관계자는 "공공 AX 사업이 급증하면서 AI 적용은 필수가 됐지만, 개인정보 이슈가 정리되지 않으면 사업 추진 속도가 늦어질 수밖에 없다"며 "기업 입장에서는 보호설계(PbD)를 선제적으로 반영하는 것이 경쟁력이 될 것"이라고 말했다. 글로벌 규범 역시 에이전트 AI를 중심으로 빠르게 정비되는 추세다. 미국 NIST 산하 AI 표준 및 혁신센터(CAISI)는 AI 에이전트의 데이터 접근권한 최소화와 사후 통제권 확보를 위한 논의에 착수했다. 영국 정보위원회(ICO)는 에이전트 AI 발전 단계별 시나리오를 제시하며 규제 고도화에 나서고 있다. 싱가포르는 '에이전틱 AI 정부 프레임워크'를 마련했다. 이처럼 국제적으로 샌드박스형 사전 검증과 인간 개입 원칙이 핵심 규범으로 부상하면서 국내 기업들도 글로벌 기준에 맞춘 대응 전략이 불가피해지고 있다. 업계에선 이번 발표를 계기로 AI 서비스 기업들의 프라이버시 대응 부담이 운영 단계까지 확대될 것으로 보고 있다. 에이전트 AI 확산에 따라 관련 리스크 관리 체계 마련이 주요 과제로 떠오르고 있다는 분석이다. 업계 전문가는 "AI 경쟁이 고도화될수록 기업들은 성능뿐 아니라 '신뢰 가능한 운영 체계'를 갖춘 곳이 시장에서 살아남게 될 것"이라며 "프라이버시 대응 역량이 향후 국내외 사업 확장의 결정적 변수로 작용할 가능성이 높다"고 말했다.

2026.02.04 09:54장유미 기자

[현장] "성능·정확도 대신 책임·설명력 겨뤘다"…AI 기본법 시대, 해커톤의 진화

"이번 해커톤을 통해 인공지능(AI) 신뢰성은 문헌이나 이론 학습만으로 습득할 수 있는 영역이 아니라 실제 현장에서 판단과 설명, 책임 있는 선택이 병행될 때 체득된다는 게 입증됐습니다." 박지환 씽크포비엘 대표는 29일 서울 서초구 서울교육대학교에서 열린 '제1회 트라이톤' 시상식에서 이같이 말했다. 씽크포비엘과 신뢰할 수 있는 인공지능 국제연대(TRAIN)가 개최한 국내 첫 AI 신뢰성 해커톤은 AI 개발 절차 수행을 통해 내놓은 AI 신뢰성 입증 산출물을 평가해 순위를 가리는 대회다. 일반적인 AI 경연 대회가 모델의 성능과 정확도 향상에 집중했다면 트라이톤은 AI가 틀렸을 때의 설명 가능성과 책임 소재를 묻는다. 지난해 10월 오리엔테이션을 시작으로 4개월간 진행된 대회에는 전국 대학 45개 팀 192명이 참여했다. 예선을 거쳐 39팀(159명)이 본선에 진출했고 최종 28팀(117명)이 산출물을 제출했다. 씽크포비엘은 이번 대회 주제인 AI 신뢰성 기술이 기존 레드팀 중심 해커톤과 다르게 범위와 적용 기술에 차이가 있는 점을 고려했다. 참여자들의 이해를 돕기 위해 자체 개발 교육 서비스는 물론, 10년 이상 경력 전문 연구 인력과의 일대일 개별 멘토링을 제공했다. 이번 대회 멘토로 나선 천선일 씽크포비엘 연구소 수석매니저는 "최근 AI 기본법 시행 등 규제 환경 변화에 따라 모델이 단순히 정확한지를 넘어 '얼마나 믿고 쓸 수 있는가', '편향에서 얼마나 자유로운가'에 대한 질문이 중요해졌다"며 "그동안 피해 왔던 AI 신뢰성 관련 질문들을 수면 위로 끌어올리고자 했다"고 말했다. 천 매니저는 "참가자들이 현업에서도 다루기 힘든 신뢰성이라는 추상적인 주제를 구체적인 산출물로 구현하고 논리적으로 연결했다"고 덧붙였다. 이날 오후 진행된 시상식에서 최종 우승은 과학기술연합대학원대학교(UST)와 경북대학교 AI 전공 대학원생으로 구성된 'TLV 팀'(변재연·이제경·김보경)이 차지했다. 이 팀은 '가디언 AI(교육용 AI 안전성 평가 시스템)'을 개발하는 과정에서 AI 신뢰성 산출물을 만들었다. 이는 실제 서비스 환경을 가정한 구체적인 사례 설정과 충분한 근거 자료 기반 설계 구현, 일관되고 기술적 완성도가 높은 서비스 수준 달성 등에서 높은 평가를 받았다. 이어 '숨 쉰 채 발견' 팀(2위, 서울시립대 인공지능학과), '성·신의 한 수' 팀(3위, 성균관대 소프트웨어학과 및 성신여대 AI융합학부), 'SecurAI' 팀(4위, 경상국립대 AI정보공학과), '이닦조' 팀(5위, 가톨릭대 심리학과), 'GPS.dev' 팀(6위, 성균관대 지능형소프트웨어학과)이 순위별로 상패와 상금을 받았다. 상금은 최대 420만100원에서 최소 52만5천900원이다. 이 금액들은 AI 신뢰성 관련 국제 표준 번호를 상징한다. 입상 참가자들은 국내 정보기술(IT) 기업에서 정식 채용이 연계되는 인턴십 기회도 얻는다. 씽크포비엘은 소정의 교육 과정을 이수한 참여자에게 'AI 신뢰성 전문가 민간자격(CTAP)' 응시 기회도 부여했다. 지난 11일 서울·부산·광주·청주 등 4개 지역에서 치러진 제1회 시험에는 대회 참여자 40명이 합격했다. 씽크포비엘은 이번 대회가 공공의 관심과 지원으로 가능했다고 강조했다. 한국지능정보사회진흥원(NIA)은 'AI 허브' 학습용 데이터를 개방했고, 한국산업기술시험원(KTL)은 AI 신뢰성 산출물을 도출·검증할 수 있도록 그래픽처리장치(GPU) 컴퓨팅 자원을 무상 지원했다. 권종원 KTL 센터장은 축사에서 "정답이 없는 AI 신뢰성 확보를 위해 다양한 지식을 가진 인재들의 조화가 필수적"이라며 "신뢰성은 성능뿐만 아니라 다양한 분야를 다루기에 서로 다른 특성과 지식을 가진 분들의 '오케스트레이션'이 중요하다"라고 말했다. 박 대표는 "지금까지 AI를 더 정확하고 효율적으로 만드는 데 집중했다면, AI가 동작하지 않도록 멈추게 하거나 양보하게 하는 방법을 가르치고 기준을 설계하며 관리하는 역할이 더 중요해질 것"이라고 내다봤다.

2026.01.29 15:22이나연 기자

'몸값 1340억 달러' 데이터브릭스, 올해 승부수는 에이전트 AI·차세대 DB

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 데이터브릭스가 올해 인공지능(AI) 에이전트 품질 관리 서비스와 차세대 데이터 플랫폼으로 시장 공략에 나선다. 단순히 AI 모델을 구축하는 속도 경쟁에서 벗어나 AI 신뢰성 강화로 현장 불확실성을 제거하겠다는 포부다. 데이터브릭스는 올해 '에이전트 브릭스'와 '레이크베이스'를 핵심 주력 사업으로 제시했다고 밝혔다. 이를 통해 기업이 AI 에이전트를 더 빠르고 안정적으로 구축·배포할 수 있는 환경을 지원할 계획이다. 에이전트 브릭스는 기업 데이터로 고품질 에이전트를 설계·확장할 수 있게 지원하는 AI 서비스다. 업무 현장에서 반복적으로 발생하는 정확성, 품질 문제를 해결하는 데 초점 맞췄다. 해당 서비스는 작업별 맞춤형 평가 체계와 거대언어모델(LLM) 기반 자동 평가 기능을 갖췄다. 이를 통해 AI 에이전트 품질을 체계적으로 측정한다. 단순 응답 품질을 넘어 정확성을 비롯한 일관성, 재현성 등 작업 환경서 요구되는 기준 중심으로 성능을 검증하는 식이다. 에이전트 학습 과정서는 합성 데이터를 생성해 실제 데이터만으로 확보하기 어려운 오류 상황과 케이스까지 보완한다. 또 고객이 에이전트 성능 수준과 운영 비용 간 균형을 고려해 최적의 지점을 선택할 수 있도록 설계됐다. 고품질을 우선할지, 비용 효율성을 중시할지에 따라 에이전트 운영 전략을 조정할 수 있는 셈이다. 데이터브릭스는 에이전트 브릭스에 내장된 도메인 특화 벤치마크와 피드백 루프가 배포 판단 핵심 기준으로 작동한다고 강조했다. 산업·업무별 성능을 반복 검증하고 개선 결과를 다시 반영하는 구조를 통해 기업이 신뢰를 갖고 에이전트를 배포할 수 있는 근거를 제공하는 식이다. 지난해 에이전트 브릭스를 통한 고객 사례도 나왔다. 아스트라제네카는 에이전트 브릭스로 40만 건 넘는 임상 시험 문서를 분석하고 구조화된 데이터 포인트를 추출했다. 별도 코드 작성 없이 60분 내 비정형 데이터를 분석 가능한 형태로 전환할 수 있었다. 아디다스는 150개국 이상에서 수집된 200만 건 넘는 제품 리뷰를 실시간 인사이트로 전환했다. 비기술 조직도 챗봇을 통해 즉각적인 분석 결과에 접근하며 의사결정 속도를 높였다는 평가를 받기도 했다. 데이터브릭스는 해당 서비스로 기업 에이전트 상용화 장벽을 허물 방침이다. 크레이그 와일리 데이터브릭스 AI 제품 총괄은 "여전히 많은 기업이 AI 에이전트를 실제 비즈니스에 활용하지 못한다"며 "기업이 AI 기술을 제대로 평가·개선하지 못한 탓"이라고 지난 10월 미국 샌프란시스코 본사에서 지디넷코리아를 만나 이같이 밝혔다. 이어 "시스템 내 성능과 데이터 품질을 지속 확인하고 피드백을 반영해 성능을 개선하지 못했기 때문"이라고 설명했다. 와일리 총괄은 AI 품질 평가가 일반 소프트웨어(SW)를 테스트하는 방식과 다르다고 봤다. 일반 SW와 달리 AI는 같은 명령어에도 맥락에 따라 다른 결과를 내놓는다는 이유에서다. 이에 일반 SW처럼 '얼마나 잘 작동하는가'를 객관적으로 평가할 수 없다고 말했다. 와일리 총괄은 "AI는 논리적으로 틀리지 않아도 맥락을 놓치거나 사용자가 설정한 방식으로만 답하는 경우가 다수"라며 "이런 품질을 수치로 정의하거나 일관되게 측정하기 매우 복잡하다"고 설명했다. 그는 "앞으로 엔터프라이즈 환경은 AI 개발에서 평가 중심으로 이동할 것"이라며 "AI 신뢰성과 품질을 동시에 높이는 우리 철학을 에이전트 브릭스에 넣었다"고 말했다. "레이크베이스, AI 시대 데이터 처리 툭화" 데이터브릭스는 AI 에이전트 확산에 따른 데이터 처리 구조 변화를 반영해 레이크베이스 플랫폼 고도화에도 힘쓸 계획이다. 레이크베이스는 '데이터브릭스 데이터 인텔리전스' 플랫폼과 통합된 트랜잭션 처리 엔진이다. 별도 관리가 필요 없는 완전 관리형 포스트그레스로 설계됐다. 이 서비스는 데이터 스토리지와 컴퓨팅을 분리한 구조로 이뤄졌다. 이에 추가 설정 없이 빠른 데이터 처리 속도와 낮은 지연 시간을 제공할 수 있다. 트랜잭션 데이터를 별도 추출·전환·적재(ETL) 과정 없이 분석과 AI 환경에 바로 활용할 수 있도록 설계됐다. 데이터브릭스는 AI 에이전트 확산으로 트랜잭션 데이터 생성량이 급증하고 있다고 봤다. 최근 인수한 네온 분석 보고서에 따르면 새로 생성된 데이터베이스(DB) 80% 이상이 AI 에이전트로 만들어진 것으로 나타났다. 데이터브릭스는 "전통적인 온라인 트랜잭션 처리(OLTP) DB는 수십 년 된 아키텍처 위에서 구동돼 관리가 어렵고 비용이 많이 든다"며 "벤더 락인에도 취약하다"고 지적했다. 이어 "에이전트와 앱, 워크플로는 빠르고 신뢰할 수 있는 데이터를 필요로 한다"며 "우리는 레이크베이스를 통해 AI를 위한 트랜젝션 DB를 재창조할 것"이라고 자신했다.

2026.01.26 14:55김미정 기자

전기차 배터리 성능 예측 AI모델 개발…정확도 86.6%

전기차 배터리 성능을 예측하는 인공지능(AI) 모델이 개발됐다. KAIST는 신소재공학과 홍승범 교수팀이 조은애 교수팀과 공동으로 실험 데이터가 불완전한 상황에서도 배터리 양극재 입자 크기를 예측하고, 신뢰도까지 계산할 수 있는 머신러닝 프레임워크를 개발했다고 26일 밝혔다. 배터리 내부 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 배터리 내부의 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 입자가 지나치게 크면 성능이 저하되고, 반대로 너무 작으면 안정성에 문제가 생긴다. 이 때문에 기존에는 입자 크기를 파악하기 위해 소결 온도와 시간, 재료 조성 등을 바꿔가며 수많은 실험을 반복했다. 그러나 실제 연구 현장에서는 모든 조건을 빠짐없이 측정하기 어렵고, 실험 데이터가 누락되는 경우도 잦아 공정 조건과 입자 크기 간 관계를 정밀하게 분석하는 데 한계가 있었다. 연구팀은 이러한 문제를 해결하기 위해 누락된 데이터는 보완하고, 예측 결과를 신뢰도와 함께 제시하는 AI 프레임워크를 설계했다. 화학적 특성을 고려해 빠진 실험 데이터를 보완하는 기술(MatImpute)과, 예측 불확실성을 함께 계산하는 확률적 머신러닝 모델(NGBoost)을 결합했다. 이 AI 모델은 단순히 입자 크기를 예측하는 데 그치지 않고, 해당 예측을 어느 정도까지 신뢰할 수 있는 지에 대한 정보까지 함께 제공한다. 이는 실제로 어떤 조건에서 재료를 합성할지 결정하는 데 중요한 기준이 된다. 실험 데이터를 확장해 학습한 결과, AI 모델은 86.6%의 높은 예측 정확도를 나타냈다. 분석 결과, 양극재 입자 크기는 재료 성분보다도 굽는 온도와 시간 같은 공정 조건의 영향을 더 크게 받는 것으로 나타났다. 연구진은 AI 예측의 신뢰성을 검증하기 위해, 금속 성분 비율은 동일한 조성(NCM811(Ni 80% / Co 10% / Mn 10%)) 조성을 유지하되 기존 데이터에 포함되지 않은 제조 조건으로 합성한 양극재 시료 4종을 새롭게 제작해 실험을 진행했다. 그 결과, AI가 예측한 입자 크기는 실제 현미경 측정 결과와 거의 일치했다. 오차는 대부분 머리카락 두께보다 훨씬 작은 0.13마이크로미터(μm) 이하로 나타났다. 특히 AI가 함께 제시한 예측 불확실성 범위 안에 실제 실험 결과가 포함돼, 예측값뿐 아니라 그 신뢰도 역시 타당함이 확인됐다. 홍승범 교수는 “AI가 예측값뿐 아니라 그 결과를 얼마나 신뢰할 수 있는지까지 함께 제시한다는 점이 핵심”이라며, “차세대 배터리 소재를 보다 빠르고 효율적으로 설계하는 데 실질적인 도움이 될 것”이라고 말했다. 연구는 신소재공학과 벤 마디카(Benediktus Madika) 박사과정 연구원이 제1저자로 참여했다. 연구결과는 신소재·화학공학 분야 국제적 학술지인 '어드밴스드 사이언스(Advanced Science)'에 지난해 10월 8일자로 게재됐다.

2026.01.26 10:12박희범 기자

[현장] AI 신뢰성, 이제 자격증 시대…국내 첫 민간 전문가 시험장 가보니

"본 시험에 들어가기 앞서 오는 22일부터 시행되는 '인공지능(AI) 기본법'에 대해 잠시 설명드리겠습니다. 오늘 여러분이 치르는 자격 시험의 의미와 역할을 이해하는 시간이 되길 바랍니다." 11일 오후 찾은 서울 서초구 서울교육대학교 인문관 강의실. 한파특보가 내려진 주말이지만 30여 명의 사람들로 북적이는 교실이 있었다. 바로 국내 최초의 'AI 신뢰성 전문가(CTAP)' 시험장이다. 씽크포비엘이 주관하는 이번 제1회 CTAP 자격시험에는 AI 신뢰성 해커톤 '트라이톤' 참가자를 포함해 총 50여 명이 응시했다. 이날 시험은 서울교육대학교를 비롯해 부산 동의대학교, 광주 야생양봉원, 청주 충북대학교에서 동시에 진행됐다. CTAP는 총 45문항 객관식으로 구성됐으며 합격 기준은 100점 만점 중 65점 이상이다. 시험 기획을 맡은 씽크포비엘 연구원은 90분간 진행되는 시험에 앞서 AI기본법을 소개하고 몇 가지 예시 문항을 제시했다. '규제와 혁신이 충돌하는 AI 거버넌스의 역설을 해소하기 위해 참고할 국제 표준은 무엇인가', 'AI 시스템을 개발 및 배포한 후에 지속 수행해야 하는 작업은 무엇인가' 등 구체적인 예제가 언급되자 응시자들은 이를 노트나 노트북 등에 필기하며 경청했다. 단순 AI 윤리 아닌 실무형 인재 발굴 집중 민간 자격 제도상 이번 파운데이션 레벨(FL) 시험은 단순히 윤리적 구호를 묻지 않는다. 대신 국제 표준과 규범에 따른 책임의 구조를 정확히 이해하고 있는지에 초점을 맞췄다. AI 시스템이 왜 위험한지 그 구조를 파악하고 통제할 수 있는 '심판'의 역량을 검증하는 것이 목적이다. 박지환 씽크포비엘 대표는 "FL은 아직 책임을 맡기는 단계가 아니라, AI 신뢰성에 대해 올바르게 이해하고 소통할 수 있는지를 검증한다"며 "어설픈 실무 경험이 잘못된 확신으로 이어지는 것을 차단하고, 무엇이 올바른 접근인지 정확한 기준을 제시하는 것"이라고 설명했다. 박 대표는 "CTAP의 변별력은 AI를 '잘 쓰는 사람'이 아니라, 문제가 발생했을 때 원인과 책임을 기술적으로 설명할 수 있는 사람을 가려내는 데 있다"며 "도덕적 담론이 아니라 이미 국제적으로 합의된 지식 체계를 정확히 이해하고 있는지를 검증하는 것"이라고 짚었다. "AI 신뢰는 감정이 아닌 구조"…전국 4개 도시 동시 시행 첫 시험이 서울, 부산, 광주, 청주 등 전국 4개 도시에서 동시에 열린 점도 눈길을 끈다. 이는 수도권 외 지역 응시생들의 접근성을 배려한 결정이다. 박 대표는 "트라이톤 참가 학생들에게 공평한 기회를 주기로 한 약속을 지키기 위한 선택"이라며 "학생들이 이동하는 불편 대신 심사원이 지역으로 이동하는 편이 인재 발굴 취지에 맞다고 판단했다"고 설명했다. 씽크포비엘은 이번 자격 제도를 통해 AI 신뢰성을 추상적인 미덕이 아닌, 작동하는 '거버넌스'의 문제로 전환한다는 목표다. 기획부터 배포, 운영까지 각 단계의 담당자가 무엇을 해야 하는지 구체적으로 정의된 구조가 갖춰졌을 때 비로소 사회적 신뢰가 가능하다는 이유에서다. CTAP 합격 시 부여되는 자격의 유효기간은 약 3년으로 설정됐다. 이후에는 보수 교육이나 갱신 과정 도입도 검토되고 있다. 피지컬 AI 시대, 신뢰성 전문가 수요 '급증' 전망 시험을 마친 응시생들은 한 달 내 합격 여부를 통보받게 된다. 합격자들은 향후 최소 1년 이상의 실무 경험을 거쳐, 주관식·사례 기반으로 고난도 판단 능력을 검증하는 어드밴스드 레벨(AL)에 도전할 수 있다. 씽크포비엘은 올해 하반기 글로벌 연합 국가들과 함께 국제 시험 시행을 추진하며 역량 평가 모델의 국제 표준화에 박차를 가할 계획이다. 박 대표는 "최근 산업계 시선은 생성형 AI를 넘어 로봇·자율주행 같은 피지컬 AI로 빠르게 이동하고 있다"며 "사람 개입 없이 물리적 행동이 이뤄지는 영역은 사고 발생 시 생명·안전으로 직결되기에 신뢰성 전문가가 필수"라고 강조했다. 이어 "해외는 이미 작년부터 피지컬 AI 확산을 전제로 신뢰성 전문가 육성을 시작했지만, 국내는 여전히 기술 확산 후 제도가 따라가는 패턴"이라며 "2~3년 뒤 수요가 급증할 것"이라고 전망했다. 실제로 씽크포비엘이 AI 신뢰성을 이해한 기업들을 대상으로 한 소규모 설문에서는 약 94%가 관련 전문가 영입 의사를 밝혔다. 트라이톤 상위 입상자에게 고용 연계 인턴십을 제안한 기업도 있는 것으로 조사됐다. 박 대표는 "AI 기본법 제정과 국제 규제 강화 흐름 속에서 AI는 더 이상 '잘 되면 쓰고, 문제 생기면 고치면 되는 기술'이 아니라 '왜 허용했는지 사전에 설명해야 하는 기술'이 됐다"며 "책임 역시 사후 변명이 아니라 사전 설계의 문제가 된 만큼, AI 엔지니어는 AI로 교체될 수 있어도 책임을 설계하고 검증하는 역할은 사라지지 않을 것"이라고 강조했다. 이어 "CTAP는 AI를 만드는 시대를 넘어 'AI를 책임져야 하는 시대'를 대비하는 정확한 이정표가 될 것"이라고 덧붙였다.

2026.01.11 16:07이나연 기자

"AI 신뢰성이 올해 기업 생존 결정"…셀렉트스타, 기술특례 IPO·흑자 위해 달린다

세계 최초 포괄적 인공지능(AI) 규제인 'AI 기본법'이 이달부터 시행되는 가운데, 셀렉트스타가 2026년을 'AI 신뢰성 비즈니스 성패 원년'으로 규정했다. 회사는 올해 기술특례 상장과 함께 글로벌 신뢰성 검증 표준 확립에 나설 전망이다. 김세엽 셀렉트스타 대표는 지난 7일 발표한 신년사에서 "기업들이 할루시네이션(환각)이나 데이터 보안 문제로 고민하는 모습을 보며 무거운 책임감을 느꼈다"며 "2026년은 AI 신뢰성이 비즈니스 성패를 가르는 원년이 될 것"이라고 밝혔다. 우리나라는 오는 22일부터 AI 규제와 진흥 내용을 담은 AI 기본법을 전면 시행한다. 특히 핵심 규제 대상인 고영향(고위험) AI에 대한 신뢰성 확보 조치가 의무화되면서 기업들은 법적·제도적 기준에 부합하는 검증 체계를 갖춰야 하는 상황이다. 김세엽 대표는 "AI 신뢰성을 단순히 몇 개 수치로 표현할 수 없다"며 "진정한 신뢰는 오류를 예측하고 위험을 통제할 수 있는 구체적인 안전성에서 나온다"고 강조했다. 올해 셀렉트스타는 '고품질 데이터'와 'AI 신뢰성 글로벌 표준'을 사업의 핵심 축으로 삼을 방침이다. 김 대표는 "우리 언어와 문화적 맥락을 정확히 이해하는 데이터로 국가 데이터 주권을 지키겠다"며 "국내를 넘어 세계 시장에서도 통용될 평가 기준을 확립하겠다"고 말했다. 이어 "복잡해지는 규제 환경 속에서도 기업 서비스가 흔들림 없이 글로벌 무대로 뻗어나갈 수 있도록 확실한 '품질 보증서'가 되겠다"고 덧붙였다. 셀렉트스타는 생성형 AI 신뢰성 검증 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 금융권과 공공기관의 AI 도입 장벽을 낮추고 있다. 다투모 이밸은 AI 서비스 운영 중 발생할 수 있는 오류와 위험성을 자동으로 검출해 모델 품질 개선 방향성을 제시한다. 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델' 개발 프로젝트에도 참여하고 있다. 회사는 SK텔레콤 컨소시엄에서 고품질 학습 데이터 구축과 모델 안정성 검증을 총괄 중이다. 글로벌 시장 확장도 주요 과제다. 지난해 스페인 바르셀로나에서 열린 '모바일 월드 콩그레스(MWC)25'에서는 세계이동통신사업자연합회(GSMA)와 '글로벌 AI 레드팀 챌린지'를 공동 주최했다. 기존 국가 단위로 진행됐던 레드팀 챌린지가 글로벌 행사에서 다국적 참가자를 대상으로 열린 것은 처음이었다. 지난 6일부터 오는 9일까지 미국 라스베이거스에서 열리는 세계 최대 가전·정보기술(IT) 전시회 'CES 2026'에 참여하는 등 글로벌 전시 및 세일즈를 확장하고 있다. 셀렉트스타는 코스닥 기술특례 상장을 목표로 기업공개(IPO)에 나선다. 상장 주관사는 대신증권으로 올해 연말까지 상장을 마무리할 예정이다. 매출 100억원 이상 달성과 함께 흑자 전환도 노리고 있다. 회사는 지난해 말 55억원 규모 시리즈B 추가 투자를 유치해 총 260억원으로 라운드를 마감했다. 이로써 누적 투자금은 434억원을 달성했다. 김 대표는 "기술이 아무리 빠르게 발전해도 변하지 않는 비즈니스 본질은 신뢰"라며 "그 신뢰를 우리가 지켜주겠다"고 강조했다.

2026.01.08 17:27이나연 기자

"금융 AX 시장서 통했다"…셀렉트스타, KB·신한·삼성 '트리플 크라운'

인공지능(AI) 데이터·신뢰성 평가 전문기업 셀렉트스타가 국내 주요 금융그룹으로부터 AI 기술력과 사업성을 잇달아 인정받았다. 셀렉트스타는 KB금융, 신한금융, 삼성금융 등 국내 대표 금융그룹이 주관한 스타트업 육성 및 협력 프로그램에서 연달아 수상했다고 5일 밝혔다. 먼저 지난해 12월 2일 '신한 퓨처스랩 데모데이 2025'에서 '최고 혁신상'을 수상했다. 셀렉트스타는 신한은행에 생성형 AI 서비스의 신뢰성 검증을 위한 데이터 기반 평가 체계 구축과 솔루션을 제공했다. 또 금융 문서를 이해하는 AI 모델 개발을 위한 데이터 구조화와 학습·평가용 데이터셋 설계도 진행했다.이곳은 '다투모 이밸(Datumo eval)' 솔루션 도입을 통한 평가 지표 관리, 데이터 자동 생성, 자동평가 등을 적용해 금융권에 특화된 신뢰성 검증 자동화 환경도 구현했다. 셀렉트스타의 AI 신뢰성 평가 자동화 솔루션 다투모 이밸은 금융 사고를 예방하고 강력한 보안 정책을 준수해야 하는 금융기관에 최적화된 솔루션이라고 평가된다. 셀렉트스타의 이러한 성과는 신한벤처투자의 시리즈B 투자 유치로도 이어졌다. 같은 달 12일 열린 KB금융그룹의 '2025 허브 데이'에서는 '스케일업 우수 기업상'을 수상했다. 2025 KB스타터스'로 선정된 셀렉트스타는 금융권 AI 서비스의 신뢰성 확보를 위한 자동화 평가 역량과 고품질 데이터 구축 기술력을 인정받았다. 그룹의 벤처캐피털(VC)인 KB인베스트먼트가 시리즈B 투자 라운드의 주관사로 참여하기도 했다. 삼성금융네트웍스와 삼성벤처투자가 공동 운영하는 '삼성금융 C-랩 아웃사이드'에서는 삼성생명 최우수 스타트업으로 선정됐다. 셀렉트스타는 '금융업 특화 AI 모델 성능 및 신뢰성 향상 솔루션'을 제안해 실질적인 성능 향상 효과를 입증했다. 이어 삼성생명 전략투자펀드를 통해 시리즈B 추가 투자를 유치하는 등 주요 대형 금융그룹과의 AX(인공지능 전환) 협력 사례를 만들었다. 김세엽 셀렉트스타 대표는 "국내 주요 금융그룹들로부터 셀렉트스타의 AI 신뢰성 평가 기술력을 잇달아 인정받아 뜻깊다"며 "금융권은 AI 도입에 가장 높은 신뢰 수준을 요구하는 산업군이다. 이번 성과를 바탕으로 금융권 AI 신뢰성 평가의 표준을 정립하고 다양한 산업 분야로 신뢰할 수 있는 AI 생태계를 확장하겠다"고 말했다.

2026.01.05 16:06이나연 기자

바비톡, '클린 정보 시스템' 고도화

메디컬 뷰티 플랫폼 바비톡이 자사 정보 모니터링 시스템 '클린캠페인'에 AI 및 알고리즘 기반 탐지 기술을 강화하며, 플랫폼 내 비정상 활동을 정밀하게 걸러내는 신뢰도 높은 뷰티 정보 환경 구축에 속도를 내고 있다고 30일 밝혔다. 바비톡은 2020년부터 플랫폼 내 과도한 홍보나 비방 등의 비정상 활동을 지속적으로 모니터링하며 정보의 신뢰도를 높이기 위한 '클린캠페인'을 꾸준히 운영해 왔으며, 최근 사용자 보호와 정보 투명성에 대한 요구가 높아짐에 따라 이를 한층 정교하게 발전시켰다. 이번 고도화는 이용자가 믿고 탐색할 수 있는 정보 환경을 강화하고, 보다 정확한 의사결정을 돕기 위한 장기적 기술 투자 방향의 연장선으로, AI·서버·네트워크를 아우르는 3중 방어 체계로 확장 적용된 것이 특징이다. 먼저 클린 캠페인 운영 정책을 학습시킨 LLM(거대 언어 모델)을 활용한 AI 자동 콘텐츠 리뷰어 기능이 추가됐다. 이용자가 후기나 게시글을 등록하면 AI가 실시간으로 내용을 분석한 뒤, 운영 정책에 위배되는 욕설, 근거 없는 비방, 반복·복제 콘텐츠를 자동으로 분류하고, 위험도 점수를 산출하여 리포팅한다. 서버 단계에서는 알고리즘 정책을 고도화하여 사용자의 디바이스 고유값 기반 다계정 생성 방지 기술이 적용됐다. 단순 회원 정보가 아닌 접속 기기의 고유 식별값과 이용 행태를 함께 분석해, 동일 기기에서 비정상적인 다수의 계정 생성 및 운영이 감지되면 관련된 모든 계정을 즉시 쉐도우 밴(자동 블라인드) 처리한다. 마지막으로 네트워크 단계에서는 웹 방화벽(WAF)과 트래픽 분석 솔루션을 통해 특정 병원 및 시술 랭킹을 인위적으로 높이는 비정상 활동을 검출한다. 동일 IP 대역에서 짧은 시간 내 과도한 조회(Click/View)를 시도하는 봇(Bot)이나 매크로 활동이 감지될 경우 해당 IP의 접근을 차단 및 무효화하여 랭킹 집계 시 순위 왜곡을 방지한다. 이러한 바비톡 클린캠페인 시스템의 고도화로 플랫폼 전반의 정보 신뢰도와, 사용자 경험, 그리고 서비스 품질 전반이 크게 향상되었다. 시스템 정밀 적발 성공률 99.8%로 유해 콘텐츠가 노출되기 전에 차단되면서 이용자는 보다 쾌적하고 신뢰할 수 있는 환경에서 정보 탐색이 가능해졌으며, 불필요한 봇 트래픽 제거로 앱 접속 및 페이지 로딩 속도가 20% 이상 상승됐다. 바비톡 최권열 CTO는 “365일 24시간 작동하는 원천 차단 시스템 덕분에 비정상적인 정보 유통 시도 자체가 점차 무의미해지고 있다”며, “유저가 안심하고 탐색할 수 있는 깨끗한 정보 환경 완성을 목표로, 신조어나 변형된 언어 표현까지 대응할 수 있도록 AI 모델을 지속 업그레이드하고, 비정상 활동 이력이 없는 병원에는 '클린 병원 배지'를 부여, 조직적인 불법 바이럴 행위에 대한 법적 대응 등 신뢰도 높은 시장 질서를 만들어가겠다”고 말했다.

2025.12.30 10:14안희정 기자

커넥셔너리 "리서치 전용 AI 개발...연구원 등 직군에 유용"

"신뢰성을 기반으로 좋은 의사결정을 도와주는 인공지능(AI) 입니다." 이지원 커넥셔너리(Connectionary) 대표는 22일 지디넷코리아와 인터뷰에서 커넥셔너리의 리서치 전용 AI 'AID'를 이같이 소개했다. 커넥셔너리는 올해 6월 설립된 'AI 리서치 플랫폼' 전문 스타트업이다. 일반적으로 생성형 AI가 어떤 답변이나 데이터를 생성했다고 했을 때, 사용자는 AI가 생성한 값을 재차 검증하는 절차를 거친다. AI가 생성한 답변이 정확하지 않을 수 있기 때문이다. 이처럼 사실이 아닌 내용을 AI가 그럴듯하게 표시하는 현상을 '환각(Hallucination)' 현상이라고 한다. 번거로운 요청도 수분 내로 값을 생성해내기 때문에 생성형 AI는 업무 효율성을 크게 높인 것이 사실이다. 하지만 환각 현상 때문에 사용자는 올바른 값을 생성했는지 검증하는 시간을 추가로 써야 한다. 특히 인용, 통계, 논문명 등에서 환각 현상이 심하게 일어나는 것으로 알려져 있다. 이에 리서처, 분석가, 연구원 등 사실에 기반한 검증된 데이터가 필요한 사용자들은 AI로 데이터를 생성한다고 하더라도 추가적으로 검증하는 과정이 필요하다. AID는 신뢰성 있는 출처만 활용해 답변을 내놓기 때문에 이런 검증 과정을 대폭 줄여준다. 원본 문서에 기반한 추출·정렬 엔진이 탑재돼 사실과 다른 내용을 표시할 수 없도록 환각 현상을 구조적으로 차단한다는 장점이 있다. 정책 모니터링이나, 중요한 의사결정, 시장조사 등에서 정확한 데이터를 기반으로 AI를 통한 효율적인 자료 검색이 가능한 것이다. 이 대표는 "거대 언어 모델(LLM) 기반의 생성형 AI는 사용자가 요청한 내용을 '사람처럼 말하고 정리하는 것'에 특화돼 있기 때문에 환각 현상에 따른 불편함이 있다"며 "AID는 검색하고 싶은 키워드를 입력하면 언론, 논문, 연구 보고서 등 실제 등재된 내용만 표시하기 때문에 환각 현상이 거의 없다"고 설명했다. 이어 "특히 검색 기간을 설정하고, 생성한 값을 사용자가 직접 스크리닝하는 것도 가능하다"며 "기자, 연구원, 애널리스트 등 정확한 수치를 기반으로 분석을 진행해야 하는 직군에 효율적인 AI 도구로 자리잡을 것"이라고 강조했다. 키워드만 검색했는데 출처부터 통계까지 '한 눈' 기자가 직접 AID를 사용해봤다. 최근 치명적인 취약점으로 부상한 React2shell(리액트투쉘, CVE-2025-55182) 취약점을 키워드로 입력하자, 핵심 키워드별로 확실한 출처의 여러 문서들이 눈에 띄었다. 또 어떤 주제와 관련이 깊은지, 키워드와 관련해 직접 언급했던 사람은 누구인지 통계화한 그래프가 표시됐다. 아래에는 전체 검색 결과가 표시되는데, 모두 외신, 국내 언론, 논문, 보고서 등 믿을 만한 출처가 함께 표시됐다. 각 결과값마다 AI가 요약한 내용도 알아보기 쉽게 제공됐으며, '상세 정보'를 클릭하면 발언인 정보와 요약 및 키워드가 입력된 인용문 전체를 확인할 수 있다. 원본으로 연결되는 링크도 함께 기재돼 있다. 포털 사이트에서 검색한 자료를 사람이 일일이 걸러내고 신뢰할 만한 출처의 정보를 요약하는 일련의 과정을 AID가 한 번에 해결한 것이다. 또 검색한 키워드에 특수 문자 '골뱅이(@)'를 붙이면, 키워드와 관련한 모든 수치 정보가 표시된다. 이 대표에 따르면 아직은 제대로 구현되지 않은 기능이지만 향후 업데이트될 예정이다. 검색 결과만 일방적으로 표시되는 것이 아니라 'AI 분석' 탭으로 이동하면 검색 결과를 AI가 자동으로 요약해 표시하며, 여러 검색 결과 값과 비교하는 것도 가능하다. "AID 기능 고도화해 리서치 기관 의사결정 돕는 도구로 자리매김" AID는 현재 알파테스트가 진행 중이다. 내년 1월 중으로 베타테스트를 거쳐 제품을 고도화해 향후 상품화할 예정이다. 구체적으로 커넥셔너리는 AID를 올해 1분기까지 주요 정책기관 발표 원문, 기업 재무 정보 검색 등도 가능하도록 기능을 고도화할 계획이다. 이 대표 설명에 따르면 현재 베타테스트 버전을 리서치, 공공 등 분야에 배포해 놓은 상태이며, 고객 만족도를 수집하고 있다. 향후 1년 내로 솔루션을 출시하고 국내 시장에서 확실한 레퍼런스를 확보한다는 것이 단기 목표다. AID가 기업 및 리서치 기관의 정책, 의사결정에 효율적인 도구로 자리잡는 것을 목표로 하고 있는 만큼 정책 분야에 자문을 줄 수 있는 전문가도 함께하고 있다. 현재 국가정보원 3차장을 지낸 김선희 가천대 초빙교수가 보안 자문위원으로 합류했으며, 향후 정책·기술 등 분야에서도 전문가와 함께해 신뢰도를 높일 계획이다. 이 대표는 "신뢰성 있는 AI를 만드는 일이 즐거워서 평생 계속하고 싶다"며 "고객사에도 신뢰성을 높이는 모든 과정들이 진실성 있는 회사로 인식되게 하고, 이런 진실성을 기반으로 열심히 성장하는 회사가 되고 싶다"고 포부를 남겼다. ◆ 이지원 커넥셔너리 대표는..... - 1981년생 - 2025.06~현재 ㈜커넥셔너리 CEO(최고경영자) - 2024.04~2025.03 ㈜디노티시아 CSO (최고전략책임자, 부사장) - 2019.09~2024.02 ㈜에스투더블유 CSO (최고전략책임자, 부대표) - 2021.08~2022.06 법무부 디지털성범죄 등 TF 전문가 위원 - 2020.03~2024.12 경찰청 사이버테러대응 전문가 위원 - 2016.01~2019.07 롯데미략전략센터 산업전략 수석연구원 - 2014.03~2015.12 ㈜오비맥주 전략기획팀 부장 - 2010.10~2014.02 아서디리틀 컨설턴트 - 2006.03~2010.09 ㈜KT 전임연구원

2025.12.22 19:59김기찬 기자

씽크포비엘, 日 지자체와 'AI 신뢰성' 협력 물꼬

씽크포비엘이 인공지능(AI) 신뢰성 개념과 역량을 일본에 확산한다. 씽크포비엘은 3~5일 서울 강남 코엑스에서 산업통상자원부 주최로 열린 '2025 코리아 테크 페스티벌'에 참가했다고 5일 밝혔다. 한국산업기술시험원(KTL) 추천을 받아 '스마트 제조 산업기술관' 전시 부스를 운영했다. 씽크포비엘은 페스티벌 행사 기간 동안 전시 부스에서 AI 신뢰성 교육과정과 특화 온라인 원격교육 체계인 'AI 튜터', AI 신뢰성 검증 가능 데이터 편향 진단 플랫폼 '리인(Re:In)' 등을 소개했다. 미국과 일본, 독일, 인도네시아에서 온 지자체·기관·기업 관계자와 상담도 진행했다. 행사에서는 특히 일본 지자체와 교류가 활발히 이뤄졌다. 씽크포비엘은 시즈오카·오키나와(이상 광역), 나고·야고베·요코하마와 도쿄 시부야(이상 기초) 등의 자치단체 지역산업 촉진·기업 지원 관계자와 만나 AI 신뢰성 분야 양측 협력 가능성을 살폈다. 일본 관계자는 AI 기술 도입 필요성을 절감하면서, 기술을 안전하게 적용할 수 있는 방안에 관심을 보였다. 씽크포비엘은 AI 신뢰성 기술 인프라와 역량 등을 적기적소 제공할 수 있다고 강조했다. 이에 일부 지자체 관계자가 현지 사무소 또는 법인 설립 등의 방안을 새해에 구체적으로 협의하자고 제안했다. 이들 지자체 이외에도 일본·인도네시아·독일 현지 유력 기업 임원과 미국 유타주 교통 연구·혁신 관련 부서 고위급 담당자 등과의 만남도 성사됐다. 씽크포비엘은 "지난 3년 동안 태국·베트남·인도네시아·필리핀 등과 교류 협력을 강화해 나간 만큼 내년에는 AI 신뢰성 분야가 국내외에서 두드러진 외연 확장에 성공할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.05 15:46김미정 기자

씽크포비엘, 'AI 신뢰성' 민간자격증 정식 운영

씽크포비엘이 국내서 처음으로 인공지능(AI) 신뢰성 분야를 공식 인정하는 민간자격을 운영한다. 씽크포비엘은 지난달 한국직업능력연구원에 'CTAP(Certified Trustworthy AI Professional)'을 정식 등록하고 자격 발급 준비를 마쳤다고 1일 밝혔다. 이 자격은 일반등급(FL) 시험을 통해 취득할 수 있다. CTAP는 윤리·법 기준을 고려한 신뢰할 수 있는 AI 구축 개념을 정확히 이해하는 전문가를 인증한다. 데이터 품질 관리, 위험 관리, 설명·제어 가능한 AI 설계, 책임 있는 운영·배포까지 포함한 거버넌스 프레임워크 역량이 평가 기준이다. 운영기관인 씽크포비엘은 '제1회 트라이톤' 예선 통과 참가자에게 첫 응시 자격을 부여할 계획이다. 대회와 연계한 첫 인증 사례가 탄생하는 셈이다. 씽크포비엘은 그동안 산업 현장에서 신뢰성이 보안, 안전, 품질, 테스트와 뒤섞여 사용되며 혼란이 발생했다고 지적했다. 자격 도입은 이런 개념을 표준화하고, 기업이 실제 신뢰성 활동에 착수할 수 있는 실무 지표를 제공하는 데 의미가 있다고 평가했다. 이어 AI가 윤리·법을 준수하며 안전하게 동작하도록 개발 단계별 준칙을 지키는 것이 핵심이라고 강조했다. 사전 예방 관점의 시스템 확보가 중요해지면서 이를 담당하는 전문 인력의 자격 가치가 높아졌다고 분석했다. 씽크포비엘은 운영 초기에만 자격 발급을 단독 운영하되, 수요 확산 시 외부 협회·단체와 공동 운영하고 교육원·인증원 같은 산하 조직 설립도 추진할 방침이다. 또 '신뢰할 수 있는 AI 국제연대(TRAIN)' 등과 협력해 자격의 국제 확산도 모색할 계획이다. 역량평가 모델을 국제표준으로 발전시키기 위해 10월 호주 시드니에서 열린 AI 국제표준화 총회에서 관련 제안을 발표했고, 각국 대표들로부터 공감을 얻은 바 있다. 박지환 씽크포비엘 대표는 "AI 신뢰성 전문가라는 명확한 롤모델을 정의함으로써 체계적인 경력 설계와 준비가 가능해질 것"이라며 "이는 미래 유망 직업으로서 인식을 높이는 계기가 될 것"이라고 밝혔다.

2025.12.01 18:08김미정 기자

"AI 육성 허브로"…씽크포비엘, 우즈백에 'AI 신뢰성' 기술 공급

씽크포비엘이 우즈베키스탄 사마르칸트주 정부에 인공지능(AI) 신뢰성 기술을 공급했다. 씽크포비엘은 지난 13일 주 정부 청사에서 '리인'과 'AI 튜터' 도입과 후속 협력을 포함한 업무협력 양해각서(MOU)를 체결했다고 14일 밝혔다. 주 정부는 해당 기술을 교육 프로그램과 직업훈련 체계에 활용해 지역 AI 인재 양성과 산업 경쟁력을 강화할 방침이다. 리인은 AI 신뢰성 검증이 가능한 데이터 편향 진단 플랫폼이다. 한국정보통신기술협회 단체 표준으로 채택된 '데이터밸런스' 기법을 기반으로 데이터를 분석할 수 있다. AI 튜터는 AI 신뢰성에 특화된 온라인 원격교육 체계다. 쌍방향 학습과 해외 수요 대응을 위한 현지 언어 지원 기능을 갖췄다. 주 정부는 이번 도입을 국비 지원 'AI 신뢰성 기술 교육 아카데미' 운영에 우선 적용할 계획이다. 현지 교육기관과 직업훈련 과정에 기술을 통합해 전문 인력 양성을 목표로 한다. 씽크포비엘은 교육 프로그램의 시범 구축과 운영을 지원한다. 교육 평가 도구와 멘토링을 제공해 현지 프로그램의 정착을 돕는다. 양측은 향후 3년 동안 협력을 이어가며 인턴십 체계를 구축하기로 했다. 이를 통해 교육을 이수한 인력이 지역 기업과 연계돼 취업 기회를 확보할 수 있도록 지원한다. 주 정부는 이번 협력이 사마르칸트를 국가 AI 산업 인재 양성 거점으로 발전시키는 기반이 될 것으로 기대했다. 온라인 기반 교육·훈련 체계가 부족한 지역 교육 환경 개선에도 도움이 될 것으로 판단했다. 박지환 씽크포비엘 대표는 "올해 5월부터 사마르칸트가 AI 신뢰성 아카데미 구축에 강한 의지를 보였는데 이번에 우리 교육 체계와 데이터 편향 진단 플랫폼 구매로 이어졌다"며 "사마르칸트가 우즈베키스탄에서 새로운 미래 일자리로 주목받는 AI 신뢰성 인력 육성 허브로 발전하는 초석이 될 것"이라고 밝혔다.

2025.11.14 16:08김미정 기자

"AI 도입 2배 늘어나는 동안 AI 보안 사고는 7.5배 늘어"

최근 정부와 공공기관, 금융권 등을 중심으로 인공지능(AI) 기술 도입이 빠르게 확산하고 있는 가운데 국내 LLM(거대 언어 모델)은 빅테크 기업의 LLM 모델과는 달리 내재적인 보안 기능이 부실하다는 지적이 나왔다. 이에 공공기관 AI 도입을 위한 보안 점검이 필요하다는 주장에 힘이 실리고 있다. 김호원 부산대 컴퓨터공학과 교수는 지난 7일 한국사이버안보학회 학술대회에서 이같은 내용을 골자로 한 'MITRE ATLAS 관점에서의 생성형 AI보안과 신뢰성 검증 기술'을 주제로 발표했다. 김 교수는 AI모델 무결성, 개인정보·기업 정보 유출 이슈 등 AI 보안 관리 중요성을 강조하면서, AI 기술 확산과 함게 보안 위협도 증가하고 있다고 진단했다. AI추론 결과에 대한 신뢰 이슈, 부정확한 정보 제공 등 AI 관련 리스크를 진단하는 공공기관 도입 AI의 안전성·신뢰성·보안성 검증이 필수라고 짚었다. 그는 "AI가 단순 업무 지원 도구에 그쳤던 반면 최근에는 전 산업 분야에서 생성형 AI 도입이 급속히 확산하고 있는 만큼, 내부 주요 정보 활용과 자율적 의사결정을 통한 생성형 AI 사용 범위가 확대됐다"며 "그에 따라 보안 리스크도 증가하고 있다"고 역설했다. 실제로 올해 기준 산업 내 생성형 AI의 도입 비율은 2023년 대비 2배 이상 늘어난 것으로 나타났다. 이에 따라 생성형 AI 보안 사고 역시 2023년 대비 7.5배 늘었다. AI 도입이 늘어나면서 AI에 따른 보안 사고도 크게 뛴 것이다. 김 교수는 생성형AI 사용으로 새롭게 발생하거나, 기존 위험을 더욱 악화시키는 리스크 유형 12개를 소개했다. 구체적으로 ▲화학, 생물학, 핵, 방사선(CBRN)정보를 생성하거나 악용하는 위험 ▲사실이 아닌 정보를 그럴듯하게 생성하는 위험 ▲위험하거나 폭력적인 콘텐츠 ▲데이터 프라이버시 ▲에너지 소비 등 환경 문제 ▲특정 그룹에 불리하거나 차별적인 결과물을 생성하는 문제 ▲인간이 AI 시스템을 과도하게 신뢰하거나 의존하는 위험 ▲정보 무결성 ▲정보 보안 ▲지적 재산권 ▲음란하거나 모욕적인 콘텐츠 ▲AI 공급망 보안 등이다. 이에 AI 시스템의 안전성과 신뢰성 확보를 위해 모델 수준의 보안 및 신뢰성 검증이 필수적이라는 것이 김 교수 진단이다. 그는 "AI 모델 도입 전 주요 공격 기법과 취약점에 대한 사전 대응 가능성을 검증해야 할 필요가 있다"며 "특히 적대적 공격내성, 출력 검증, 공정성·편향성 등 AI 특화 보안·신뢰성 검증 기법 활용이 필요하다"고 강조했다. 제시한 12개 유형의 위험 및 문제에 대해 항목별 점건 기준을 마련해야 한다고도 역설했다. 이는 단순히 기술적인 문제를 극복하기 위한 차원이 아니라 AI 확산에 따른 사회적 신뢰 확보를 위한 핵심 요소라는 것이다. 한편 김 교수는 대표적인 AI 시스템에 대한 공격 기업에 대해서도 소개했다. 우선 프롬프트 가로채기(Prompt Injection)가 가장 대표적인 생성형 AI 위협으로 꼽혔다. 공격자가 프롬프트를 조작해 AI 모델이 의도하지 않은 행동을 하도록 유도하는 유형이다. OWASP 2025 LLM 보안 Top10 리포트에서도 생성형 AI의 최대 보안 위협으로 꼽히기도 했다. 이로 인해 실질적인 데이터 유출, 고객의 개인정보 유출 등 피해가 이어질 수 있다. 또 생성형 AI의 안전장치를 무력화하는 방식으로도 공격이 이어질 수 있다. AI의 정책 위반 금지 조항, 윤리적 제약 등을 우회하도록 설계해 프롬프트 구조나 입력 패턴 또는 문맥적 단서를 활용하는 등 사회공학적 기법을 활용해 LLM 안전장치를 우회하고, AI 모델이 원하지 않는 출력을 강제로 생성하도록 유도할 수 있다. 민원 대응 챗봇, 교육용 AI 등에서 윤리적 문제 및 신뢰도 하락을 유발할 우려도 제기됐다.

2025.11.08 15:20김기찬 기자

앤트로픽 공동창업자 "AI 안전, 인류에 필수…韓, 클로드 사용 톱5"

"우리는 인공지능(AI)의 발전이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다는 믿음으로 회사를 설립했습니다." 벤자민 만 앤트로픽 공동창업자는 지난 3일 지디넷코리아와 만나 이같이 말했다. 그는 기술 경쟁의 소용돌이 속에서도 'AI 안전'이 인류의 미래를 위한 필수 요소임을 거듭 강조했다. 7일 앤트로픽 'AI 경제 지수'에 따르면 한국은 '클로드' AI 모델의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 이 회사의 '안전 우선' 철학은 국내 시장에서도 큰 호응을 얻고 있는 것이다. 만 공동창업자는 지난 2017년 닉 보스트롬의 '슈퍼인텔리전스'를 읽고 AI 안전에 눈을 떴다고 회상했다. 그는 "초지능 AI 통제의 어려움을 깨달았다"며 "GPT-3로 스케일링 법칙의 엄청난 이점을 증명했음에도 안전에 대한 신념으로 오픈AI를 떠났다"고 밝혔다. 이어 "AGI로의 안전한 전환을 위해 오픈AI에 있었으나 '안전' 가치에 보다 잘 기여하기 위해 앤트로픽에 합류했다"고 설명했다. 그는 한국 시장의 폭발적인 성장세에도 주목했다. 특히 한국은 '클로드 코드'가 빠르게 성장하는 시장으로, 지난 4개월간 한국의 주간 활성 이용자 수(WAU)가 6배 증가했다는 점을 강조했다. 전 세계에서 '클로드 코드'를 가장 많이 이용한 것이 바로 한국 소프트웨어 엔지니어라는 것이다. 이러한 한국 시장의 중요성은 구체적인 파트너십과 투자로 이어지고 있다. 만 공동창업자는 "SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다"며 "SK가 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나"라고 말했다. 이어 "슈퍼로이어 같은 스타트업의 법률 자동화 성공 사례 역시 괄목할 만하다"고 언급했다. 이러한 성장세에 발맞춰 앤트로픽은 현지화 및 파트너 지원과 대한민국 경제가 실질적으로 필요로 하는 부분에 대한 이해를 위해 현지 주재가 매우 중요하다고 판단하고 적극적으로 인력을 채용할 계획이다. 최근 발표된 정부의 AI 기본법에 대해서도 긍정적인 입장을 표명했다. 만 공동창업자는 "투명성, 윤리, 안전을 중시하는 우리의 '헌법적 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다"며 "우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중"이라고 밝혔다. 앤트로픽이 지난달 발표한 클로드 '소네트 4.5'가 코딩과 AI 에이전트 분야에서 최고 성능을 보이는 비결은 특정 '돌파구(Breakthrough)'가 아닌 '임계점(Critical threshold)'을 넘었기 때문이라고 밝혔다. 음성 인식이 오류율 1%의 임계점을 돌파하며 대중화된 것처럼 '소네트 4.5' 역시 개별 작업의 성공률이 비약적으로 높아져 복잡한 '에이전틱 워크플로우'의 효용성을 극대화할 수 있게 됐다는 분석이다. 만 공동창업자는 현재 AI의 역할에 대해서는 '자동화(Automation)'가 아닌 '기존 인력의 가속화(Acceleration)'로 정의했다. 그는 라쿠텐의 7시간짜리 작업을 앤트로픽의 AI 모델이 수행한 사례를 들며 이는 결과가 정확한지 자동으로 검증하는 훌륭한 '테스트 하네스(Test Harnesses)'가 있었기에 가능했다고 강조했다. 더불어 앤트로픽은 AI 안전을 구호에 그치지 않고 구체적인 기술로 구현하고 있다. '헌법적 AI'를 통해 AI가 스스로 보편적 가치를 학습하도록 유도하고 '기계론적 해석 가능성' 연구로 모델의 '뇌'를 들여다보며 '기만' 행위를 탐지한다. 또 '책임감 있는 스케일링 정책'을 통해 '생물학적 안전 등급'과 같은 자체 규제를 적용한다는 설명이다. 앤트로픽 코리아 팀을 꾸릴 때 가장 중요한 자질로 만 공동창업자는 '컬처 핏'을 꼽았다. 그는 "회사의 임무, 즉 초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데 진심으로 공감하는 것이 가장 중요하다"며 "우리는 이를 정말, 정말로 강조한다(Really, really mean it)"고 역설했다. 이어 "진실성과 지적 개방성을 갖춘 인재를 찾는다"고 덧붙였다. 그는 자신을 매일 움직이게 하는 원동력이 무엇인지에 대한 기자의 질문에는 현재 한 살과 세 살 된 두 아이의 긍정적인 미래가 바로 그것이라고 밝혔다. 만 공동창업자는 "(이번) 한국 방문을 통해 세상이 이 기술을 얼마나 필요로 하는지를 깨달았다"며 "(동시에) 이 기술이 '안전'해야 할 필요성을 절실히 느꼈다"고 말했다. 아래는 벤자민 만 앤트로픽 공동창업자와의 일문일답. Q. 많은 AI 스타트업이 기술 경쟁에 집중할 때 당신과 앤트로픽의 공동 창업자들은 AI 안전에 집중하며 오픈AI를 떠나 회사를 창업했다. 안전이 단순한 선택이 아닌 인류의 미래를 위한 '필수 요소'라고 믿게 된 결정적인 계기나 순간은 무엇이었나. A. 지난 2017년 닉 보스트롬(Nick Bostrom)의 '슈퍼인텔리전스(Superintelligence)'를 읽고 AI 안전에 대해 처음으로 진지하게 고민하게 됐다. 초지능 AI를 통제하는 것이 얼마나 어려울지 깨닫고 눈을 뜬 기분이었다. 최초에 오픈AI에 합류한 것은 당시 AI의 프론티어를 개척하려는 유일한 연구소였기 때문이다. 지난 2019년 'GPT-2'가 나왔을 때 이것이 바로 범용인공지능(AGI)로 가는 길이라고 확신했다. 그래서 오픈AI에 합류해 앤트로픽 공동 창업자들인 다리오 아모데이, 톰 브라운과 GPT-3 프로젝트를 시작했다. 우리는 보다 유능한 모델 없이는 AI 안전 문제에서 실질적인 진전을 이룰 수 없다고 느꼈다. 당시 한 구글 논문은 "모델의 스케일을 증가시킬 이유가 없다"거나 "규모 확장의 이점이 없고 오히려 (수확 체감으로) 한계에 부딪혔다"고 했다. 우리는 GPT-3 논문으로 정반대를 보여줬다. 실제로는 "규모를 키울수록 엄청난 수확(Huge Returns)이 발생한다"는 점과 "그런 확장성의 이점이 둔화될 기미가 전혀 보이지 않는다"는 것을 증명한 것이다. 오픈AI를 떠난 이유에 대해 구체적으로 말하자면 우리 공동 창업자들은 모두 AGI로의 전환이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다고 믿었기 때문이다. 초창기에 우리가 오픈AI에 있었던 이유도 정확히 그 이유 때문이었으나 어느 시점부터는 AI의 '역량과 안전' 또는 '경제적 이익과 안전' 사이에 딜레마가 발생하는 지점에서 반복적으로 작은 충돌들을 겪게 됐다. 결국 우리는 회사를 떠나 우리만의 회사를 차리는 것이 '안전'이라는 가치에 보다 잘 기여할 수 있는 길이라고 느꼈다. Q. 클로드 '소네트 4.5'가 AI 에이전트와 코딩 분야에서 최고 모델로 자리 잡고 있다. 이런 에이전트 중심의 접근을 가능하게 한 핵심 기술 돌파구는 무엇인가. 이것이 기업 도입을 어떻게 이끌고 있으며 '에이전틱 워크플로우'가 산업 생산성을 어떻게 바꿀 것이라 보나. A. 우리가 스택 전반에 걸쳐 훌륭한 작업을 수행해왔기 때문이라고 생각한다. 경쟁사들이 사전 훈련(Pre-training)이나 사후 훈련(Post-training)에 실패했다는 소문을 들어 왔다. 반대로 우리는 수년간 스케일링을 진행하며 '수확 감소'를 전혀 목격하지 못했다. '소네트 4.5'가 갑자기 좋아진 것은 특정 기술적 '돌파구(Breakthrough)' 때문이 아니다. 오히려 '임계점(Critical Threshold)'을 넘었기 때문이다. 음성 인식이 30년 넘게 존재했지만 지난 2010년대 구글이 단어 오류율을 1% 수준으로 낮추는 '임계점'을 돌파하자 비로소 모두가 일상적으로 사용하게 된 것과 같다. 코딩 모델도 마찬가지다. 이전 모델인 '소네트 3.5'에서 사람들이 에이전틱 코딩의 이점을 처음 발견하기 시작했다면 '소네트 4.5'는 개별 작업의 성공률이 비약적으로 높아졌다. 그 덕분에 여러 작업을 복잡한 체인으로 연결할 수 있게 되면서 효용성에 있어 거대한 변화가 일어난 것이다. 생산성 측면에서 볼 때 우리는 아직 '자동화(Automation)'의 시대가 아니라 '기존 인력의 가속화(Acceleration)' 시대에 있다고 본다. 일례로 라쿠텐 사례를 보면 숙련된 인간 개발자가 7시간을 투입해야 하는 '쿠다(CUDA) 커널 조작' 작업을 인간의 개입 없이 모델이 거의 전적으로 수행했다. 이것이 가능했던 이유는 매우 훌륭한 '테스트 하네스(Test Harnesses)' 덕분이었다. 즉 에이전트가 작업을 마쳤을 때 그 결과가 정확하다는 것을 (자동으로) 검증할 수 있었기 때문이다. Q. '클로드 코드(Claude Code)'가 '소네트 4.5'로 구동되면서 초기 아키텍처 설계부터 버그 수정까지 거의 모든 것을 처리할 수 있게 된 것 같다. 인상 깊었던 유즈케이스가 있나. 특히 한국에서의 경험 중 공유할 만한 사례가 있나. A. 오늘 SKT AI 서밋에서 '클로드' 해커톤이 열릴 예정이라 기대가 크다. 한국은 '클로드 코드'의 가장 큰 시장 중 하나며 제품에 대한 한국의 열정에 감탄하고 있다. 실제로 우리의 AI 코딩 어시스턴트 '클로드 코드' 전체 사용자의 4분의 1 이상이 아시아·태평양 지역에 속해 있는데 그중에서도 한국의 성장세가 놀랍다. 한국에서는 지난 4개월 동안 클로드 코드의 주간 활성 이용자 수(WAU)가 6배 증가하는 높은 성장세를 기록했다. 보다 인상적인 것은 현재 전 세계에서 클로드 코드를 가장 많이 이용한 사용자 1위가 바로 한국 소프트웨어 엔지니어로 기록됐다는 점이다. 구체적인 사용 사례를 들자면 SK와는 정말 훌륭한 파트너십을 맺고 있다. 특히 SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다. SK는 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나다. 또 슈퍼로이어라는 한국 스타트업은 클로드를 활용해 법률 자동화(Legal Automation)를 성공적으로 구현하고 있다. 물론 이 기술은 모든 곳에 사용될 수 있지만 특정 분야에서 훨씬 더 많이 사용되고 있다. 우리가 발간하는 'AI 경제 지수(AI Economic Index)'는 사람들이 우리 모델을 어떻게 사용하는지 연구하는데 (방금 한국 사례에서 보듯) 코딩이 최고의 영역 중 하나다. 그 외에도 마케팅, 교육, 헬스케어 및 생명 과학 산업에서도 많은 활용 사례를 보고 있다. Q. 방금 'AI 경제 지수(AI Economic Index)'를 언급했다. 앤트로픽은 AI가 자동화 등 사회에 미칠 문제를 완화하기 위해 많은 노력을 기울이는 것 같다. 'AI 경제 지수'가 그 한 예시인데 앤트로픽 팀이 AI 안전을 위해 노력하는 다른 사례들도 공유해 줄 수 있나. A. 'AI 경제 지수'가 그 대표적인 사례다. 더불어 근본적인 AI 정렬(Alignment) 측면에서도 몇 가지 분야에서 노력하고 있다. 첫째는 '헌법적 AI(Constitutional AI)'다. 이는 '클로드'가 스스로 학습하고 정렬하는 자연어 원칙들의 집합이다. 우리는 샌프란시스코의 소수 인원이 미래의 가장 강력한 AI가 가져야 할 가치를 결정해서는 안 된다고 생각했다. 그래서 '집단적 헌법 AI(Collective Constitutional AI)' 프로젝트를 시작해 전 세계 사람들에게 어떤 가치를 AI가 가져야 하는지 물었고 놀랍게도 그 가치들이 예상보다 훨씬 더 일치(Aligned)한다는 것을 발견했다. 이는 정렬 문제를 해결할 수 있다는 희망을 줬다. 둘째는 '기계론적 해석 가능성(Mechanistic Interpretability)' 연구다. 과거엔 AI 모델을 '블랙박스'로 여겼지만 이 연구의 목표는 모델이 작동하는 동안 그 '뇌'와 생각을 들여다보고 무슨 일이 일어나는지 이해하는 것이다. 모델이 강력해질수록 이는 매우 중요하다. 궁극적인 목표는 모델에게 무언가를 시켰을 때 모델이 '기만(Deception)'에 대해 생각하는 것을 알아차리는 것이다. 우리는 오늘날의 모델에서도 그런 기만 행위를 포착하는 것에 대한 논문을 발표한 바 있다. 모델이 매우 강력해졌을 때 이런 기만적인 생각을 멈추게 하거나 시스템을 종료시키기 위해 이 탐지 기술은 매우 중요하다. 마지막은 '책임감 있는 스케일링 정책(Responsible Scaling Policy)'이다. 이는 '생물학적 안전 등급(Bio Safety Level)'을 모델로 한 것이다. 천연두 바이러스를 다루려면 고도로 규제된 시설과 전신 방호복이 필요한 것과 같다. 마찬가지로, 우리 AI가 특정 모델을 생성할 때까지 우리가 스스로 약속한 특정 보안 및 규정 준수 요구 사항을 갖추지 못한다면 우리는 그 모델을 사용하거나 상용화하지 않을 것이다. 우리는 다른 업계 기업들도 이 표준을 채택하도록 노력하고 있다. Q. 한국 정부가 최근 AI 기본법을 발표했다. 유럽연합(EU) AI법과 유사하게 AI 개발과 안전 사이의 균형을 맞춘 법안으로 평가받는다. 앤트로픽의 '안전 우선' 철학이나 '헌법 AI'와 시너지가 있을 것 같은데 한국에 오피스를 런칭하는 만큼 한국 시장 및 공공 부문과 어떻게 협력할 계획이며 어떤 기여를 하고 싶은가. A. 투명성, 윤리, 안전을 중시하는 우리의 '헌법 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다. 지사 설립에 관해 말하자면 한국은 전 세계적으로 가장 중요한 시장 중 하나다. 실제로 우리 'AI 경제 지수' 데이터에 따르면 한국은 클로드의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 현지화, 파트너 지원, 한국 경제의 필요를 이해하기 위해 '현지 주재(Local Presence)'가 매우 중요하다고 생각한다. 그래서 우리는 이곳에서 상당히 공격적으로 인력을 채용할 계획이다. 보다 많은 인력을 두게 될 예정에 기쁘다. 더불어 우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중이다. Q. 앤트로픽은 세계에서 가장 주목받는 AI 스타트업 중 하나다. 앤트로픽 코리아 팀을 꾸릴 때 개발자, 마케터 등 직군을 떠나 공통적으로 찾는 가장 중요한 자질이나 기술은 무엇인가. A. 우리는 '컬처 핏 인터뷰(Cultural Interview)'를 통해 이를 테스트한다. 우리에게 가장 중요한 것은 사람들이 '우리의 임무에 정렬(Mission-aligned)'되는 것이다. 즉, 우리 회사에 합류하는 이유가 '초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데' 진심으로 관심을 갖고 있기 때문이어야 한다. 많은 회사가 이렇게 말하지만 우리는 '정말이지, 정말로(Really, really mean it)' 그렇다. 이 임무가 자신의 삶과 가족, 친구들에게 어떤 의미인지 깊이 생각해 본 사람이라는 것을 보여주는 것이 중요하다. 우리의 '변화 이론(Theory of Change)'이나 '책임감 있는 스케일링 정책(Responsible Scaling Policy)' 같은 문서를 읽어보는 것도 도움이 될 것이다. 기본적으로는 '진실성(Integrity)'과 '지적 개방성(Intellectual Openness)'의 증거도 본다. 우리는 대체로 '자아가 강하지 않고(Low Ego)', 개인의 성과에 연연하기보다 올바른 일을 하려고 노력한다. Q. '초지능(Superintelligence)'을 안전하게 개발해야 하는 책임을 자주 언급했다. 매일 새로운 제품이 쏟아지는 이 극도로 가속화되는 중대한 환경에서 당신을 매일 집중하고 동기 부여하게 만들고 아침에 침대에서 일어나게 하는 가장 큰 원동력은 무엇인가. A. 근본적으로 나를 움직이는 힘은 우리가 앤트로픽을 시작한 이유와 같다. 바로 초지능 AI로의 전환이 잘 진행되도록 하는 것이다. 나에게는 한 살과 세 살 된 아이가 있다. 나는 내 아이들의 미래가 긍정적인 미래가 되기를 진심으로 바란다. 때때로 지출 보고서 같은 사소한 일을 할 때는 이 목표가 멀게 느껴지기도 한다. 그런데 지난주 일본, 그리고 이번 주 한국처럼 다른 나라에서 잠재 고객과 개발자들을 만나는 것이 목표에 계속 집중하는 데 큰 도움이 됐다. (이번 방문을 계기로) 세상이 이 기술을 얼마나 필요로 하는지, 그리고 동시에 이 기술이 안전해야 할 필요성이 얼마나 큰지 역시 절실히 느낀다.

2025.11.07 12:52조이환 기자

데이터 리더 95% "AI 의사결정 완전히 이해 못한다"…기업 내 신뢰성 '적신호'

인공지능(AI) 도입 속도가 빨라지고 있지만 정작 기업 내부에서는 AI의 결정 과정을 완전히 이해하거나 신뢰하지 못하는 것으로 드러났다. 전 세계 데이터 리더 상당수가 "AI가 무엇을 어떻게 판단하는지 명확히 알 수 없다"고 답하면서 AI 의사결정의 불투명성이 비즈니스 리스크로 부상하고 있다. 27일 데이터이쿠가 발표한 '글로벌 AI 실태 보고서'에 따르면 전 세계 데이터 리더의 95%가 AI 의사결정 과정에 대한 완전한 가시성을 확보하지 못했다고 답했다. 이번 조사는 데이터이쿠의 의뢰로 미국 시장조사기관 해리스 폴이 미국·영국·프랑스·독일·아랍에미리트(UAE)·일본·한국·싱가포르 등 8개국의 데이터 부문 고위 임원 800여 명을 대상으로 실시했다. 응답자의 86%는 AI가 이미 일상 업무의 일부가 됐다고 답했지만 거버넌스 격차와 설명 가능성 부족, 과도한 신뢰에 대한 우려는 여전히 높게 나타났다. 보고서에 따르면 19%의 데이터 리더만이 AI 에이전트의 결과를 승인하기 전에 작업 과정을 항상 공개하도록 요구하고 있으며 52%는 설명 가능성 부족으로 인해 에이전트 배포를 지연하거나 중단한 경험이 있다고 밝혔다. 또 응답자의 46%는 AI 성과에 대한 공로를 인정받을 가능성이 높다고 답했지만 56%는 실패 시 비즈니스 손실의 책임을 질 위험이 있다고 답했다. 나아가 60%는 향후 2년 내 AI가 가시적인 성과를 내지 못할 경우 자신의 일자리가 위태로울 수 있다고 우려했다. AI의 신뢰성 문제도 여전하다. 응답자의 59%는 지난 1년간 AI의 환각이나 오류로 인해 실제 비즈니스 문제를 경험했다고 답했다. 82%는 "AI가 상사보다 비즈니스 분석을 더 잘할 수 있다"고 평가했지만 74%는 "AI 오류율이 6%만 넘어도 인간 중심의 업무 방식으로 되돌아갈 것"이라고 밝혔다. 아울러 89%는 AI에게 절대 맡기지 않을 업무 기능이 최소 한 가지 이상 있다고 답해 기술적 의존과 신뢰 간의 간극이 여전히 크다는 점을 드러냈다. 이번 보고서는 최고경영자(CEO)의 낙관론과 데이터 리더의 현실 인식 사이에 존재하는 괴리도 지적했다. 데이터이쿠가 올해 초 발표한 'CEO 에디션' 보고서에서는 많은 CEO들이 AI를 비즈니스 혁신의 핵심 동력으로 낙관했지만 데이터 리더들은 이번 조사에서 신중한 입장을 보였다. 단 39%만이 자사 경영진이 AI를 제대로 이해하고 있다고 답했고 68%는 경영진이 AI의 정확도를 과대평가하고 있다고 지적했다. 73%는 경영진이 신뢰성 확보의 어려움을 간과한다고 답했으며 56%는 AI 전략 실패로 인해 CEO가 해임될 가능성도 있다고 내다봤다. 데이터이쿠는 이러한 괴리가 많은 AI 프로젝트가 여전히 개념 검증(PoC) 단계에 머무는 이유라고 설명했다. 신뢰성과 설명 가능성을 확보하지 못한 채 AI를 전면 도입하려는 시도가 실제 운영 단계에서 문제를 초래한다는 설명이다. 플로리안 두에토 데이터이쿠 공동 창립자 겸 CEO는 "이번 보고서가 보여주는 사실은 전 세계 기업들이 완전히 신뢰하지 못하는 AI에 의존하고 있다는 점"이라며 "다행히도 실패한 AI 프로젝트의 대부분은 설명 가능성, 추적 가능성, 거버넌스를 강화함으로써 해결 가능하며 이것이 바로 AI가 단순한 유행에서 벗어나 실질적인 비즈니스 성과를 창출하게 하는 방법이 될 것"이라고 말했다.

2025.10.28 10:00한정호 기자

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

2조원 규모 국가 GPU 확충 닻 올렸다…'AI 고속도로' 시동

네이버·카카오 주총 임박…AI 승부수·경영 안정성 시험대

"짠물배당 벗자"…유통·식품기업 배당 확대 움직임

"라면값 내렸습니다"...신라면·불닭·진라면 빼고

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.