• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'신뢰'통합검색 결과 입니다. (73건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

씽크포비엘, 지방의회 AI 전략 강연…"도입보다 목표 정의가 먼저"

씽크포비엘이 지방의회 공무원을 상대로 인공지능(AI) 도입 목적보다 지역 발전 목표를 먼저 정의해야 한다는 공공 AI 전략을 제시했다. 씽크포비엘은 박지환 대표가 25일 국회의정관에서 열린 '지방의회직원 정책과정(2차)'에서 지방정부 AI 전략을 주제로 강연했다고 밝혔다. 지방의회직원 정책과정은 지역 현안 이해와 정책 역량 강화를 위해 올해 신설된 프로그램이다. 지방의회 소속 직원이면 누구나 참여할 수 있다. 국회사무처 의정연수원이 24일부터 26일까지 3일간 진행하는 이번 과정엔 광역·기초 지방자치단체 의회 소속 공무원 53명이 참석했다. 이날 강연에 나선 박 대표는 AI를 활용한 지역 산업·사회 발전의 목표를 정의하고 이를 실현하기 위한 공공의 역할과 실행 기준을 국제 표준에 기반해 제시했다. 특히 'AI로 무엇을 할 것인가'가 아닌 '어떤 발전을 만들 것인가'를 먼저 정의하는 것이 핵심임을 강조했다. 박 대표는 "지방정부가 AI를 단순 도입하는 것을 넘어 편익과 안전을 균형 있게 확보하는 정책 주체로 전환하는 출발점이 되기를 기대한다"고 말했다.

2026.03.25 17:46이나연 기자

전기차 살 때 더 자세한 배터리 정보 확인 가능해진다

앞으로 전기차를 구매할 때 배터리 제조사·생산국가·제조연월 등 핵심 정보를 더욱 상세하게 확인할 수 있게 됐다. 정보를 거짓제공하거나 결함이 반복되면 1천만원 과태료를 부과허가나 배터리 안전성 인증을 취소하는 등 요건이 강화된다. 국토교통부는 전기차 등에 탑재하는 배터리 안전관리 강화 등을 위해 정보공개를 확대하고 인증취소 요건을 강화하는 개선 내용을 담은 '자동차관리법 시행령' '자동차관리법 시행규칙' '자동차등록규칙' 개정안을 23일부터 5월 4일까지 입법예고한다. 정부는 배터리 정보공개를 확대하고 결함이 반복되는 경우 판매를 중단할 수 있는 근거를 구체화해 소비자 알권리와 안전을 동시에 강화한다는 계획이다. 개정안에 따르면 전기차 등 판매 시 구매자에게 제공되는 배터리 정보가 현재 6종에서 배터리 제조사·생산국가·제조연월·제품명(또는 관리번호)이 추가된 10종으로 확대된다. 또 정보제공 방법도 판매자 홈페이지 등 인터넷과 자동차 매매계약서, 자동차 인수증을 비롯해 정보통신서비스를 활용한 방법 등으로 다양화하고 명확화했다. 배터리 정보제공 의무를 위반한 자동차제작·판매자에 대한 과태료 금액도 상향된다. 현행 법령은 배터리 관련 정보를 제공하지 않은 경우 50만원의 과태료를 부과하고 있으나, 개정안은 정보를 제공하지 않거나 거짓으로 제공한 경우를 과태료 부과 대상에 포함하고, 과태료 금액도 최대 1000만원으로 상향했다. 다만, 위반 횟수에 따라 1회 200만원, 2회 500만원, 3회 이상 1000만원의 과태료를 차등해서 부과할 수 있도록 했다. '자동차관리법' 개정에 따라 2년 안에 동일한 결함이 발생한 경우 배터리 안전성 인증 취소가 가능해짐에 따라 인증 취소가 가능한 결함 기준·횟수 등이 마련되며, 해당 배터리 판매 중지 명령도 가능해진다. 결함 경중에 따라 인증취소에 필요한 반복 횟수를 2~4회로 달리 적용하고, 단순 정보표시 오류, 일시적 경고등 점등 등 경미한 결함은 취소 요건에서 제외하도록 했다. 박용선 국토부 자동차정책과장은 “이번 개정으로 소비자 알권리 제고와 전기차 배터리에 대한 안전관리가 강화될 것”이라며 “배터리 신뢰성과 안전성 제고로 전기차 확산에 기여할 것으로 기대한다”고 밝혔다. 개정안 전문은 국토교통부 누리집 '정책자료-법령정보-입법예고·행정예고'에서 확인할 수 있다.

2026.03.23 00:45주문정 기자

"130명 몰렸다"…MWC26 달군 '글로벌 AI 레드팀 챌린지' 흥행 성공

스페인 바르셀로나에서 열린 MWC26의 부대행사 '글로벌 인공지능(AI) 레드팀 챌린지'에 전 세계 AI 전문가, 개발자, 기업 관계자 등 130여 명이 참여했다. 셀렉트스타는 세계이동통신사업자연합회(GSMA)와 공동 주최한 레드팀 챌린지가 지난 3일(현지시간) MWC 행사장 내 탤런트 아레나에서 개최됐다고 5일 밝혔다. 올해 챌린지는 글로벌 통신·AI 기업들이 개발한 대표 거대언어모델(LLM)을 대상으로 실전 검증을 진행했다. 한국 SK텔레콤 'A.X K1', LG유플러스 'ixi-GEN'을 비롯해 아랍에미리트 '텔레콤GPT', 미국 AT&T '에스크 AT&T', 네토AI의 'T슬램' 등이 참여하며 글로벌 통신사들의 참여 폭이 확대됐다. 참가자들은 LLM의 취약점을 공략하기 위한 프롬프트 공격을 시도했고 최종 78명이 실질적인 레드티밍 결과물을 제출했다. 대회 1위를 차지한 현직 데이터 엔지니어인 학탄 코지잇씨에겐 1000유로의 상금과 내년 MWC27 입장권이 수여됐다. 2위와 3위에게도 소정의 상금과 MWC27 입장권이 각각 제공됐다. 이번 행사는 참가자와 심사위원에게 특정 기업과 모델 정보를 비식별화해 제공하는 '비경쟁·비공개' 방식으로 운영됐다. 모델 간 우열을 가리거나 취약점을 외부에 노출하는 대신, 레드티밍 결과를 각 기업의 실제 서비스 고도화에 활용할 수 있도록 하는 취지에서다. 셀렉트스타는 이 과정에서 AI 신뢰성 평가 플랫폼 '다투모(Datumo)'를 활용했다. 다투모는 대규모 인원이 동시 접속해 다양한 언어와 기법으로 공격을 시도하는 환경에서도 안정적인 운영과 결과 분석을 지원한다. 루이스 파월 GSMA AI 기술 디렉터는 "이 대회는 단순히 상금을 건 경진대회가 아닌 생성형 AI의 취약점을 찾아 실질적인 개선을 돕는 자리"라며 "여러분들의 참여가 안전한 AI, 나아가 안전한 세상을 만드는 데 큰 도움이 되고 있다"고 말했다. 현장을 운영한 황민영 셀렉트스타 부대표는 "글로벌 기업 업계 실무자들이 대거 참여하고, 수많은 인파가 몰리는 것을 보며 AI 신뢰성 검증에 대한 산업계의 니즈를 체감했다"며 "본 챌린지를 단발성 이벤트로 그치지 않고, 실제 서비스 환경에서 적용 가능한 AI 신뢰성 검증 프레임워크로 고도화하겠다"고 말했다.

2026.03.05 15:27이나연 기자

'메이플 키우기' 신뢰 회복 총력전 통했다…매출 1위 굳건·IP 확장 박차

넥슨의 방치형 게임 '메이플 키우기'가 확률 오류 논란 이후 이용자 신뢰 회복에 방점을 찍으며 굳건하게 양대 마켓 매출 1위를 지키고 있다. 전액 환불과 경영진 교체라는 전례 없는 초강수 대처가 이용자들의 민심을 돌리는 데 성공했다는 평가다. 4일 모바일인덱스에 따르면 '메이플 키우기'는 지난 1월 말 잠수함 패치 사태가 발생한 직후에도 꾸준히 앱 마켓 매출 최상위권을 유지했다. 구글 플레이스토어 기준 2월 중순 매출 2위, 21일경 3위까지 순위가 소폭 하락하기도 했으나, 지난 25일부터는 다시 1위로 올라선 뒤 줄곧 선두를 수성 중이다. 애플 앱스토어 기준으로는 같은 기간 2위까지만 하락했으며, 줄곧 매출 1위를 유지하고 있다. 커뮤니티 내 긍정적인 반응이 집계되는 등 실제 매출 지표 역시 큰 타격 없이 방어에 성공한 모습이다. 이번 사태의 발단은 지난해 12월 게임 내 확률 오류가 발견됐음에도 담당 책임자가 이용자 고지 없이 이를 몰래 수정하는 이른바 '잠수함 패치'를 단행한 사실이 뒤늦게 밝혀지면서 시작됐다. 여기에 어빌리티 코드 오류, 캐릭터 공격 속도 성능 미반영, 유료 아이템 확률 공시 미이행 등 각종 논란이 겹치며 이용자들의 거센 항의를 받았고 공정거래위원회의 현장 조사까지 이어지는 등 큰 위기를 맞은 바 있다. 하지만 넥슨의 뼈를 깎는 수습 과정이 반등의 원동력으로 작용했다. 넥슨은 지난해 11월 6일 서비스 개시 시점부터 올해 1월 28일 공지 시점까지 결제된 모든 금액에 대해 조건 없는 전액 환불을 단행했다. 관련 업계는 해당 기간의 매출 규모를 약 1500억원에서 2000억원 사이로 추산하고 있다. 강대현 넥슨코리아 공동대표가 직접 메이플본부장을 겸임하며 운영 전반을 쇄신한 것도 주효했다. 넥슨은 관리 책임을 물어 기존 본부장 등 일부 직책자를 보직 해임하고, 공격 속도 표기 오류 관련 보상을 기존의 2배(미라클 큐브 6%, 에디셔널 큐브 6%, 명예의 훈장 12%)로 상향 지급하는 등 과감하고 투명한 조치를 취했다. 넥슨은 대표 IP인 '메이플스토리'의 오프라인 팬덤 확장에도 대대적으로 힘을 싣고 있다. 이용자들을 위한 다채로운 행사로 IP 영향력을 넓히고 있으며, 지난해에는 강남역 인근에 상설 PC방인 '메이플 아지트'를 상시 오픈 형태로 마련해 소통 창구를 확대했다. 오는 4월에는 롯데월드 어드벤처 야외 구역인 매직아일랜드 내 약 600평 규모의 공간을 꾸민 '메이플 아일랜드' 정식 개장을 앞두고 있다. 패밀리 롤러코스터 등 신규 어트랙션 3종과 특별한 상품을 만나볼 수 있는 기프트샵, 식음료 매장, 포토존 등을 선보일 예정이다. 이에 앞서 이달 14일부터 6월 14일까지는 대규모 봄 시즌 축제인 '메이플 스토리 인 롯데월드'를 진행해 이용자 접점을 한층 더 강화할 계획이다.

2026.03.04 10:48정진성 기자

단순 점수보다 기업 맞춤형···셀렉트스타, AI 신뢰성 해법 전한다

셀렉트스타가 거대언어모델(LLM) 기반 서비스의 실제 성능과 신뢰성을 정교하게 측정하려는 기업들을 위해 실무적인 검증 기준을 제시한다. 셀렉트스타는 다음 달 5일 오후 2시 '커스텀 평가 체계로 LLM 서비스 평가 기준 만들기'를 주제로 무료 웨비나를 개최한다고 27일 밝혔다. 이번 행사는 벤치마크 점수와 실제 서비스 위험 간의 괴리를 좁히고, 기업이 AI 서비스를 안심하고 출시할 수 있도록 돕는 의사결정 프레임워크를 공유하는 자리다. 웨비나에선 ▲LLM 판사 기반 평가 ▲정량·정성·혼합 평가 방법론 등 최신 트렌드를 소개하고 수작업 중심 평가를 자동화해 리소스를 효율화하는 전략을 다룬다. 특히 기업 내부 거버넌스 체계에 맞춘 서비스 출시 기준 설정법과 실제 기업들 운영 사례를 공개할 예정이다. 셀렉트스타는 국내 최초 AI 신뢰성 평가 자동화 플랫폼인 '다투모 플랫폼'을 활용해 평가 프로세스를 체계화한 사례도 소개한다. 이찬수 셀렉트스타 사업개발팀장은 "많은 기업이 LLM을 도입하면서도 정작 서비스 목적에 맞는 명확한 평가 기준을 세우는 데 어려움을 겪는다"며 "이번 웨비나를 통해 데이터 기반으로 AI 서비스 출시 여부를 판단할 수 있는 지표를 마련하길 기대한다"고 말했다.

2026.02.27 14:45이나연 기자

무하유, 김경수 신임 CPO 선임…근거 제시하는 AI 만든다

무하유가 철학적 통찰력을 갖춘 제품 전략 전문가를 영입해 인공지능(AI) 의사결정의 신뢰성을 확보하는 '설명하는 AI' 브랜드 구축에 나선다. 무하유는 김경수 최고제품책임자(CPO)를 영입했다고 24일 밝혔다. 김 CPO는 SK커뮤니케이션즈에서 네이트온과 싸이월드 등 플랫폼을 기획·운영한 비즈니스 전략 전문가다. 앞서 서울대학교 철학과를 졸업하고 동 대학원 인지과학 석사 학위를 취득했다. 무하유는 김 CPO 영입을 계기로 AI 결과에 근거를 부여하는 제품 전략을 강화할 계획이다. 15년간 축적한 데이터와 AI 자산을 활용해 조직 의사결정 구조를 인공지능 전환(AX)하겠다는 목표다. 무하유는 올해 프로덕트 로드맵의 핵심으로 '설명하는 AI' 브랜드도 제시했다. 이를 위해 서비스별로 분리된 결과물을 하나의 흐름으로 연결한 통합 결과 리포트를 제공한다. 사용자가 결과를 보고 즉시 다음 행동을 결정할 수 있는 의사결정 지원 플랫폼을 완성할 계획이다. 문서 표절검사 서비스 '카피킬러'와 AI 생성 검사 솔루션 'GPT킬러'는 확률과 설명을 분리 제시해 사용자가 책임 있게 판단할 수 있도록 근거 데이터를 제공한다. AI 서류평가 서비스 '프리즘'은 AI 판단 근거를 법적·윤리적 신뢰 수준까지 끌어올려 선발의 정당성을 확보하는 평가 구조를 제시한다. AI 면접 서비스 '몬스터'는 단순 점수 나열이 아닌 행동에서 역량으로 이어지는 판단 논리를 제공한다. 면접 현장에서 즉시 활용 가능한 해석 가이드를 지원한다. 교육 분야에선 몬스터 구술평가 기능을 통해 AI 시대의 새로운 학습 대안을 제시할 계획이다. AI 생성 검사 기능으로 AI 과제 제출에 대한 1차 방어선을 구축하고, 구술평가로 학습 과정과 이해도를 직접 검증할 환경을 제공한다. 신동호 무하유 대표는 "김 CPO는 지능의 본질을 고민한 철학적 배경과 실무 경험을 모두 갖춘 인재"라며 "AI 의사결정의 신뢰를 확보하는 AX 인프라를 구축할 것"이라고 강조했다.

2026.02.24 14:13이나연 기자

KTR, 차세대 모빌리티 신뢰성 확보 나선다

KTR(한국화학융합시험연구원·원장 김현철)이 자율주행차·소프트웨어중심차량(SDV) 등 차세대 모빌리티 신뢰성 확보를 위한 자동차 소프트웨어 시험평가 체계 구축에 본격 나선다. KTR은 한국자율주행산업협회·슈어소프트테크와 '차세대 모빌리티 신뢰성 확보를 위한 국제표준 기반의 네트워크 적합성 평가기술 시험장비 개발 사업' 공동수행을 위한 업무협약을 체결했다고 밝혔다. 이 사업은 산업통상부의 국제표준 기반 시험장비 기술개발 및 고도화 지원사업의 일환으로 추진된다. 협약에 따라 세 기관은 인공지능(AI)·네트워크 등 차세대 모빌리티 소프트웨어 분야 시험장비 개발과 국산화를 위한 협력사업을 수행한다. KTR은 현재 수입 장비로만 평가해 오던 자동차 네트워크 분야 적합성 평가 장비 개발·상용화를 추진한다. 또 AUTOSAR SecOC 적합성 평가 기능을 적용, 평가범위를 사이버보안까지 확장할 계획이다. 국산화를 추진하는 해당 자동차 네트워크 적합성 평가 장비는 ▲A-Ethernet ▲CAN ▲CAN-FD ▲FlexRay 등이다. 지금까지 관련 업계에서는 완성차 기업 납품을 위해 필수적인 적합성 평가와 기술보고서 작성 부담을 덜기 위해 국산 네트워크 평가 장비 개발 필요성을 지속적으로 제기해 왔다. KTR은 협약 체결 기관들과 모빌리티 및 자율주행 분야 ▲시험 인증 기술서비스 지원 체계 구축 ▲국가 R&D 사업 기획 및 추진 ▲세미나 개최 및 기업 지원 서비스 발굴 등도 공동 수행한다. KTR은 슈어소프트테크와 최신 자동차 네트워크 및 보안 표준을 반영한 평가기술을 공동 개발하고, 자율주행산업협회와는 자동차 기능안전, 소프트웨어 기반구축 과제도 공동 추진하기로 했다. 김현철 KTR 원장은 “자율주행차 등 차세대 자동차산업 경쟁력 확보를 위해서는 차세대 모빌리티 평가장비 국산화 및 신뢰성 제고가 필수적”이라며 “KTR은 소프트웨어와 하드웨어를 망라하는 AI 시험평가 인프라와 국제표준에 부합하는 소프트웨어 시험인증 서비스 노하우를 활용해 차세대 모빌리티 산업 경쟁력 강화에 더욱 기여할 것”이라고 밝혔다.

2026.02.18 22:47주문정 기자

'디지털 트러스트' 글로벌 빅테크 뭉쳤다...한화 참여

글로벌 빅테크 기업이 모여 기술에 대한 글로벌 신뢰를 강화하고 책임 있는 혁신을 지원하기 위한 '신뢰할 수 있는 기술 얼라이언스(Trusted Tech Alliance, TTA)'를 출범시켰다. 16일(현지시간) 모바일월드라이브에 따르면 에릭슨, 노키아, 마이크로소프트, 구글, 아마존웹서비스 등 15개 주요 빅테크가 모여 TTA를 출범하면서 투명성, 보안, 데이터 보호에 대한 공동의 약속을 마련했다. 얼라이언스는 디지털 기술에 대한 우려가 증가하는 가운데 혁신의 빠른 속도, 회복력을 갖추고 신뢰할 수 있는 글로벌 인프라 필요성에 대응하는 것을 목표로 삼았다. 인도의 릴라이언스지오, 일본의 NTT도코모와 같은 통신사도 얼라이언스에 참여했고 SAP, 앤트로픽, 코히어, 엔스케일 등 AI 소프트웨어 관련 기업도 이름을 올렸다. 국내 기업으로는 한화가 참여해 눈길을 끈다. TTA의 다섯 가지 창립 원칙은 ▲투명한 기업 지배구조와 윤리적 행동 ▲운영의 투명성, 안전한 개발과 독립적 평가 ▲강력한 공급망과 보안 감독 ▲개방적이고 협력적이며 포용적이고 회복력 있는 디지털 생태계 ▲법치주의와 데이터 보호에 대한 존중 등이다. 보르예 에크홀름 에릭슨 CEO는 “어느 한 기업이나 국가도 단독으로 안전하고 신뢰할 수 있는 디지털 스택을 구축할 수 없다”며 “신뢰와 보안은 함께할 때만 달성될 수 있다”고 말했다. 브래드 스미스 마이크로소프트 사장은 “현재의 지정학적 환경에서, 뜻을 같이하는 기업들이 함께 협력해 보안을 보호하고 높은 글로벌 기준을 발전시켜 국경을 넘어 기술에 대한 신뢰를 유지하는 것이 매우 중요하다”고 강조했다. 김동관 한화그룹 부회장은 “신뢰는 기술이 사회의 가장 시급한 과제를 해결하도록 발전시키는 데 핵심적인 역할을 할 것”이라며 “에너지 안보와 주권 방위에서부터 첨단 제조에 이르기까지 우리는 신뢰받는 생태계가 사회를 보호하고 산업을 강화하며 미래의 회복력을 이끄는 핵심이라고 믿는다”고 밝혔다.

2026.02.16 17:31박수형 기자

씽크포비엘 "AI법 해석 인력 부족…신뢰성 전문가 필수 시대"

"인공지능(AI) 신뢰성은 막연한 도덕적 선언이 아닌 철저히 계산된 기술적 설계가 필요한 분야입니다. 기업은 어떤 근거로 기술적 판단을 내렸는지, 어떤 책임을 어떻게 질 것인지 설명할 줄 알아야 합니다. AI 신뢰성은 시장에 참여하기 위한 최소 자격 조건이 될 것입니다." 박지환 씽크포비엘 대표는 최근 지디넷코리아를 만나 "AI와 착하게 살자는 식의 감성적인 윤리적 접근으로는 실질적인 AI 위험을 통제할 수 없다"며 AI 신뢰성 패러다임 변화 필요성을 이같이 강조했다. 그는 "AI 신뢰성이란 기술을 설명하고 증명하며 책임질 수 있는 상태"로 정의했다. 박 대표는 AI 신뢰성 논의가 오랫동안 '윤리적인 AI' 또는 '신뢰할 수 있는 AI'라는 구호 수준에 머물렀다고 지적했다. 어디서 위험이 감지되고, 누가 멈추고, 누가 책임지는지는 거의 다뤄지지 않았다는 설명이다. 그는 이같은 공백을 메우기 위해 국내에서 처음으로 AI 신뢰성 민간 자격 'CTAP(Certified Trustworthy AI Professional)'를 설계했다고 밝혔다. CTAP 시험은 AI가 법적 준거성과 기술적 견고성을 동시에 갖췄음을 기술적으로 설명할 수 있는 전문가를 양성하는 것이 목적이다. 실제 CTAP는 AI 윤리에 대한 감각이나 가치 판단을 묻지 않는 것으로 알려졌다. AI 위험을 어떻게 식별하는지, 설명 가능성을 오해 없이 구현할 수 있는지, 운영 단계에서 신뢰가 무너질 때 어떤 기술적 판단을 내릴 것인지를 철저히 기술적으로 묻는 시험이다. 박 대표는 CTAP를 통해 AI 기술 심판자 역량을 가려내는 것이 목표라고 밝혔다. 그는 "어떤 기술이든 사회에 나오기 위해 충족해야 할 최소한의 규칙을 알고 있는지를 평가하는 것"이라고 밝혔다. CTAP 자격 체계는 두 가지로 구성됐다. 입문 단계인 FL(Foundation Level)은 실무 경험이 없더라도 응시할 수 있다. AI 신뢰성 개념을 오해하지 않고, 위험을 인식할 수 있으며, 개발자·기획자·법무·운영 담당자와 논의할 수 있는 수준이다. AL(Advanced Level)은 AI 신뢰성을 설계, 적용, 판단하는 책임을 갖추는 수준이다. FL 취득 후 최소 1년 이상 실무 경험이 필수다. 개발·기획·운영·공공 등 역할별·산업별로 전문화된 트랙으로 세분됐다. 자격 유효기간은 3년이다. 갱신 시 실무 수행 여부를 엄격히 따진다. 실제 현장에서 위험을 판단하고, 설명하고, 통제하는 역할을 수행하고 있다면 별도 재시험 없이 자격을 유지할 수 있다. AI기본법 시행됐지만…기준 설명·책임질 사람 없다 박 대표는 국내 AI기본법이 시행됐지만 법 기준을 기술적으로 해석할 인력이 부족하다는 점을 우려했다. 그는 "국내 AI기본법은 단순히 기업에 선의나 도덕성을 요구하지 않는다"며 "기업이 어떤 근거로 기술적 판단을 내렸는지 설명·책임을 요구한다"고 설명했다. 이어 "이를 수행할 인력이 없다면 현장에서 혼선을 빚을 수 있다"고 봤다. 박 대표가 이 상황에서 가장 우려하는 지점은 '형식주의 득세'다. 기업이 실제 위험을 관리하기보다 법에 따라 체크리스트를 채우고 문서를 갖추는 데만 급급한 신뢰성 흉내가 제도적으로 양산될 수 있다는 지적이다. 그는 "AI법은 사고 발생 시 기업을 보호하지도, 산업 안전을 담보하지도 못하는 허울뿐인 장치가 될 위험이 크다"고 말했다. 또 다른 우려는 '책임 공백'이다. 기술적 위험을 판단할 주체가 없다 보니, 의사결정이 한없이 위로 밀려 올라가거나 아무도 책임지지 않은 채 방치되는 현상이 나타난다는 설명이다. 박 대표는 "결과적으로 기업은 위축되고 산업 전체 속도는 떨어진다"며 "AI 윤리를 지켰다는 선언적 표현은 늘어나겠지만 판단 근거를 설명할 수 있는 사람이 없다면 결국 시장과 파트너로부터 외면받게 될 것"이라고 짚었다. 박 대표는 국내 AI 신뢰성 인재 생태계와 해외 생태계를 비교해 예시를 들었다. 박 대표는 "해외 주요국은 석·박사 과정에 AI 신뢰성과 거버넌스를 필수 커리큘럼으로 편입해 전문 인력을 양성해 왔다"며 "지식 체계를 정립하고 강사를 육성하는 데 최소 3년이 걸린다는 점을 고려하면, 관련 교육 기반이 부족한 한국은 사실상 4년 가까이 뒤처진 상태"라고 지적했다. "글로벌서 통용되는 AI 신뢰 전문가 양성할 것" 박 대표는 CTAP 기준을 글로벌 표준으로 만들겠다고 포부를 밝혔다. 실제 씽크포비엘은 CTAP 'AI 신뢰성 역량 평가 모델' 초안을 지난 10월 국제표준화기구(ISO)와 국제전기기술위원회(IEC) 등에서 공개한 바 있다. 현재 로드매핑 단계로 진입한 상태다. 그는 "이르면 내년 신규 표준 프로젝트로 제안될 가능성이 높다"고 말했다. 박 대표는 CTAP 중립성을 위해 국제 표준화는 반드시 추진돼야 한다고 주장했다. 그는 "국제 표준은 한 연구자나 한 기업 관점이 아니다"며 "각국 정부, 산업계, 학계, 규제 기관이 참여해 이해관계 충돌을 조정하고 합의를 거쳐 형성된다"고 설명했다. 이어 "표준은 단순히 기술 우수성을 알리는 문서가 아니다"며 "어떤 기술이라도 사회에 나오려면 최소한 이것은 충족해야 한다는 공통 규칙에 가깝다"고 덧붙였다. 박 대표는 국제 표준화가 AI 신뢰성 필수 요소라고 강조했다. 박 대표는 "사고가 발생했을 때 법적·사회적 책임이 수반되는 영역에서는 논문 몇 편이 아니라 어떤 국제적 기준에 근거해 판단했는가가 훨씬 중요해지는 상황"이라며 "규제, 감사, 분쟁, 정책 설계 현장에서는 논문보다 표준이 인용되고, 표준이 사실상 판단 기준선으로 작동한다"고 설명했다. 박 대표는 향후 기업에서도 AI 신뢰성은 선택 사항이 아니라 시장에 참여하기 위한 최소 자격 조건이 될 것으로 내다봤다. AI 시장이 성숙해질수록 "이 기술은 누가 책임지는가" "어떤 기준으로 허용됐는가" "사고 발생 시 누가 멈출 수 있는가" 같은 거버넌스 체계를 갖추는 것이 필수적이라는 이유에서다. 박 대표는 "전담 실무자 없는 조직은 이같은 질문에 답할 수 없다"며 "결국 고객과 파트너로부터 신뢰를 잃어 시장에서 스스로를 방어할 수 없는 고립 상태에 놓일 것"이라고 전망했다. 그는 기업이 AI 신뢰성 확보 패러다임을 바꿔야 한다고 주장했다. 그는 신뢰성 확보 첫 단계는 무엇을 금지할 것인가를 고민하는 것이 아니라 어떤 AI를 책임질 준비가 됐는지를 정책적으로 먼저 고려하는 것이라고 강조했다. 박 대표는 "정책적 토대 위에서 위험 요소를 차분히 관리해 나갈 때 신뢰성은 성장 발목을 잡는 족쇄가 아니라 불필요한 사고 비용을 줄이고 산업 안전성을 확보하는 합리적이고 전략적인 기반이 될 것"이라고 말했다.

2026.02.16 12:23김미정 기자

[유미's 픽] 공공 AX 확대 속 AI 프라이버시 정책 '운영 단계'로…업계 부담 커진다

국내 인공지능(AI)·소프트웨어 업계가 개인정보 보호 대응을 기술 개발의 부수 요소가 아닌 핵심 경쟁력으로 재정립해야 할 것으로 보인다. 생성형 AI를 넘어 에이전트 AI, 피지컬 AI 등 차세대 기술이 서비스 현장에 빠르게 적용되면서 개인정보 리스크가 단순 유출 방지를 넘어 서비스 구조 전반의 신뢰 문제로 확산되자 정부가 정책 정비에 나섰기 때문이다. 4일 개인정보보호위원회가 발표한 '2026 AI 프라이버시 민관 정책협의회 운영 방향'에 따르면, 정부는 AI 확산으로 개인정보 리스크가 기존 유출·노출 중심에서 민감정보 추론, 딥페이크 악용, 프로파일링 등 새로운 형태로 확대되고 있다고 진단했다. 정책 논의의 초점도 모델 학습 단계에서 벗어나 에이전트 AI·피지컬 AI 등 서비스 운영 단계에서 발생할 수 있는 위험 대응으로 전환했다. 이에 맞춰 협의회는 데이터 처리기준, 리스크 관리, 정보주체 권리 등 3개 분과 체계로 운영한다. 또 '에이전트 AI 개인정보 처리기준' 마련(6월)과 AI 프라이버시 레드팀 방법론 연구를 추진할 계획이다. 여기에 자동화된 결정 대응 등 이용자 권리 보장 방안과 올해 3월께 'AI 이용 개인정보 보호수칙'도 제시할 예정이다. 향후에는 AI 정책 수립 과정에서 민관 의견을 폭넓게 수렴하고 부처 간 정책 정합성을 확보하는 자문기구로 기능을 확대한다는 방침이다.특히 이번에 주목할 점은 협의회 논의 과제에 'AI 프라이버시 레드티밍(Red Teaming)' 방법론이 포함됐다는 점이다. 레드티밍은 공격자 관점에서 시스템의 취약점을 의도적으로 점검해 보안 허점을 찾아내는 방식으로, AI 서비스가 실제 운영 과정에서 맞닥뜨릴 수 있는 프라이버시 위협을 사전에 검증하는 절차로 활용될 수 있다. 이를 통해 기업들의 개인정보 보호 대응이 기존의 사후적·수동적 점검에서 벗어나 보다 공세적이고 예방적인 리스크 관리 체계로 전환될 가능성이 클 것으로 예상된다.셀렉트스타 관계자는 "매우 빠른 AI 발전이 실질적 확산으로 이어지기 위해서는 관련 규제 환경의 신속한 맞춤 변화가 중요하다"며 "정부가 민관 정책 협의회 등을 통해 민간과 적극적으로 소통해 AI 업계의 규제 불확실성을 최소화할 것으로 기대된다"고 말했다. 개보위의 이 같은 움직임에 AI 업계도 예의주시하고 있다. 정부의 규제 논의가 학습 데이터 적법성 중심에서 서비스 배포 이후의 운영 책임으로 이동하고 있다는 점에서 기업들은 향후 AI 서비스 전 과정에 대한 관리·감독 요구가 강화될 가능성에 주목하고 있다. 이 같은 변화는 에이전트 AI 확산과 맞물리면서 더욱 뚜렷해질 전망이다. 에이전트 AI는 사용자 대신 업무를 수행하며 다양한 데이터에 접근하고 서비스 간 상호작용을 통해 결과를 만들어내는 구조인 만큼, 개인정보 처리 책임의 경계가 더욱 복잡해질 수밖에 없다. 이에 따라 기업들은 서비스 설계 단계부터 데이터 처리 흐름과 사후 통제 체계를 함께 마련해야 하는 과제를 안게 됐다. 업계 관계자는 "그동안 기업들이 학습 데이터 적법성에 집중했다면, 앞으로는 서비스 운영 과정에서 AI가 어떤 데이터에 접근하고 어떤 결정을 내리는지가 규제의 핵심이 될 것"이라며 "에이전트 AI 확산은 프라이버시 컴플라이언스를 한 단계 끌어올리는 계기가 될 수 있다"고 말했다. 이러한 흐름은 민간 서비스뿐 아니라 공공 부문 AI 전환 확대와 맞물리며 업계 부담을 더욱 키우고 있다. 정부는 공공기관이 AI 신서비스를 기획하는 과정에서 개인정보 보호법 저촉 여부가 불확실한 경우가 많다는 점을 감안해 사전적정성 검토와 규제 샌드박스 지원을 병행할 계획이다. 정부의 공공 AX 예산은 2025년 5천억원에서 2026년 2조4천억원으로 5배 증가하며 33개 부처에서 206개 사업이 추진될 예정이다. 이에 공공 시장을 겨냥하는 소프트웨어 기업들 사이에서는 초기 설계 단계부터 프라이버시 보호 체계를 갖추지 않으면 사업 참여 자체가 어려워질 수 있다는 전망도 나온다. 업계 관계자는 "공공 AX 사업이 급증하면서 AI 적용은 필수가 됐지만, 개인정보 이슈가 정리되지 않으면 사업 추진 속도가 늦어질 수밖에 없다"며 "기업 입장에서는 보호설계(PbD)를 선제적으로 반영하는 것이 경쟁력이 될 것"이라고 말했다. 글로벌 규범 역시 에이전트 AI를 중심으로 빠르게 정비되는 추세다. 미국 NIST 산하 AI 표준 및 혁신센터(CAISI)는 AI 에이전트의 데이터 접근권한 최소화와 사후 통제권 확보를 위한 논의에 착수했다. 영국 정보위원회(ICO)는 에이전트 AI 발전 단계별 시나리오를 제시하며 규제 고도화에 나서고 있다. 싱가포르는 '에이전틱 AI 정부 프레임워크'를 마련했다. 이처럼 국제적으로 샌드박스형 사전 검증과 인간 개입 원칙이 핵심 규범으로 부상하면서 국내 기업들도 글로벌 기준에 맞춘 대응 전략이 불가피해지고 있다. 업계에선 이번 발표를 계기로 AI 서비스 기업들의 프라이버시 대응 부담이 운영 단계까지 확대될 것으로 보고 있다. 에이전트 AI 확산에 따라 관련 리스크 관리 체계 마련이 주요 과제로 떠오르고 있다는 분석이다. 업계 전문가는 "AI 경쟁이 고도화될수록 기업들은 성능뿐 아니라 '신뢰 가능한 운영 체계'를 갖춘 곳이 시장에서 살아남게 될 것"이라며 "프라이버시 대응 역량이 향후 국내외 사업 확장의 결정적 변수로 작용할 가능성이 높다"고 말했다.

2026.02.04 09:54장유미 기자

[현장] "성능·정확도 대신 책임·설명력 겨뤘다"…AI 기본법 시대, 해커톤의 진화

"이번 해커톤을 통해 인공지능(AI) 신뢰성은 문헌이나 이론 학습만으로 습득할 수 있는 영역이 아니라 실제 현장에서 판단과 설명, 책임 있는 선택이 병행될 때 체득된다는 게 입증됐습니다." 박지환 씽크포비엘 대표는 29일 서울 서초구 서울교육대학교에서 열린 '제1회 트라이톤' 시상식에서 이같이 말했다. 씽크포비엘과 신뢰할 수 있는 인공지능 국제연대(TRAIN)가 개최한 국내 첫 AI 신뢰성 해커톤은 AI 개발 절차 수행을 통해 내놓은 AI 신뢰성 입증 산출물을 평가해 순위를 가리는 대회다. 일반적인 AI 경연 대회가 모델의 성능과 정확도 향상에 집중했다면 트라이톤은 AI가 틀렸을 때의 설명 가능성과 책임 소재를 묻는다. 지난해 10월 오리엔테이션을 시작으로 4개월간 진행된 대회에는 전국 대학 45개 팀 192명이 참여했다. 예선을 거쳐 39팀(159명)이 본선에 진출했고 최종 28팀(117명)이 산출물을 제출했다. 씽크포비엘은 이번 대회 주제인 AI 신뢰성 기술이 기존 레드팀 중심 해커톤과 다르게 범위와 적용 기술에 차이가 있는 점을 고려했다. 참여자들의 이해를 돕기 위해 자체 개발 교육 서비스는 물론, 10년 이상 경력 전문 연구 인력과의 일대일 개별 멘토링을 제공했다. 이번 대회 멘토로 나선 천선일 씽크포비엘 연구소 수석매니저는 "최근 AI 기본법 시행 등 규제 환경 변화에 따라 모델이 단순히 정확한지를 넘어 '얼마나 믿고 쓸 수 있는가', '편향에서 얼마나 자유로운가'에 대한 질문이 중요해졌다"며 "그동안 피해 왔던 AI 신뢰성 관련 질문들을 수면 위로 끌어올리고자 했다"고 말했다. 천 매니저는 "참가자들이 현업에서도 다루기 힘든 신뢰성이라는 추상적인 주제를 구체적인 산출물로 구현하고 논리적으로 연결했다"고 덧붙였다. 이날 오후 진행된 시상식에서 최종 우승은 과학기술연합대학원대학교(UST)와 경북대학교 AI 전공 대학원생으로 구성된 'TLV 팀'(변재연·이제경·김보경)이 차지했다. 이 팀은 '가디언 AI(교육용 AI 안전성 평가 시스템)'을 개발하는 과정에서 AI 신뢰성 산출물을 만들었다. 이는 실제 서비스 환경을 가정한 구체적인 사례 설정과 충분한 근거 자료 기반 설계 구현, 일관되고 기술적 완성도가 높은 서비스 수준 달성 등에서 높은 평가를 받았다. 이어 '숨 쉰 채 발견' 팀(2위, 서울시립대 인공지능학과), '성·신의 한 수' 팀(3위, 성균관대 소프트웨어학과 및 성신여대 AI융합학부), 'SecurAI' 팀(4위, 경상국립대 AI정보공학과), '이닦조' 팀(5위, 가톨릭대 심리학과), 'GPS.dev' 팀(6위, 성균관대 지능형소프트웨어학과)이 순위별로 상패와 상금을 받았다. 상금은 최대 420만100원에서 최소 52만5천900원이다. 이 금액들은 AI 신뢰성 관련 국제 표준 번호를 상징한다. 입상 참가자들은 국내 정보기술(IT) 기업에서 정식 채용이 연계되는 인턴십 기회도 얻는다. 씽크포비엘은 소정의 교육 과정을 이수한 참여자에게 'AI 신뢰성 전문가 민간자격(CTAP)' 응시 기회도 부여했다. 지난 11일 서울·부산·광주·청주 등 4개 지역에서 치러진 제1회 시험에는 대회 참여자 40명이 합격했다. 씽크포비엘은 이번 대회가 공공의 관심과 지원으로 가능했다고 강조했다. 한국지능정보사회진흥원(NIA)은 'AI 허브' 학습용 데이터를 개방했고, 한국산업기술시험원(KTL)은 AI 신뢰성 산출물을 도출·검증할 수 있도록 그래픽처리장치(GPU) 컴퓨팅 자원을 무상 지원했다. 권종원 KTL 센터장은 축사에서 "정답이 없는 AI 신뢰성 확보를 위해 다양한 지식을 가진 인재들의 조화가 필수적"이라며 "신뢰성은 성능뿐만 아니라 다양한 분야를 다루기에 서로 다른 특성과 지식을 가진 분들의 '오케스트레이션'이 중요하다"라고 말했다. 박 대표는 "지금까지 AI를 더 정확하고 효율적으로 만드는 데 집중했다면, AI가 동작하지 않도록 멈추게 하거나 양보하게 하는 방법을 가르치고 기준을 설계하며 관리하는 역할이 더 중요해질 것"이라고 내다봤다.

2026.01.29 15:22이나연 기자

'몸값 1340억 달러' 데이터브릭스, 올해 승부수는 에이전트 AI·차세대 DB

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 데이터브릭스가 올해 인공지능(AI) 에이전트 품질 관리 서비스와 차세대 데이터 플랫폼으로 시장 공략에 나선다. 단순히 AI 모델을 구축하는 속도 경쟁에서 벗어나 AI 신뢰성 강화로 현장 불확실성을 제거하겠다는 포부다. 데이터브릭스는 올해 '에이전트 브릭스'와 '레이크베이스'를 핵심 주력 사업으로 제시했다고 밝혔다. 이를 통해 기업이 AI 에이전트를 더 빠르고 안정적으로 구축·배포할 수 있는 환경을 지원할 계획이다. 에이전트 브릭스는 기업 데이터로 고품질 에이전트를 설계·확장할 수 있게 지원하는 AI 서비스다. 업무 현장에서 반복적으로 발생하는 정확성, 품질 문제를 해결하는 데 초점 맞췄다. 해당 서비스는 작업별 맞춤형 평가 체계와 거대언어모델(LLM) 기반 자동 평가 기능을 갖췄다. 이를 통해 AI 에이전트 품질을 체계적으로 측정한다. 단순 응답 품질을 넘어 정확성을 비롯한 일관성, 재현성 등 작업 환경서 요구되는 기준 중심으로 성능을 검증하는 식이다. 에이전트 학습 과정서는 합성 데이터를 생성해 실제 데이터만으로 확보하기 어려운 오류 상황과 케이스까지 보완한다. 또 고객이 에이전트 성능 수준과 운영 비용 간 균형을 고려해 최적의 지점을 선택할 수 있도록 설계됐다. 고품질을 우선할지, 비용 효율성을 중시할지에 따라 에이전트 운영 전략을 조정할 수 있는 셈이다. 데이터브릭스는 에이전트 브릭스에 내장된 도메인 특화 벤치마크와 피드백 루프가 배포 판단 핵심 기준으로 작동한다고 강조했다. 산업·업무별 성능을 반복 검증하고 개선 결과를 다시 반영하는 구조를 통해 기업이 신뢰를 갖고 에이전트를 배포할 수 있는 근거를 제공하는 식이다. 지난해 에이전트 브릭스를 통한 고객 사례도 나왔다. 아스트라제네카는 에이전트 브릭스로 40만 건 넘는 임상 시험 문서를 분석하고 구조화된 데이터 포인트를 추출했다. 별도 코드 작성 없이 60분 내 비정형 데이터를 분석 가능한 형태로 전환할 수 있었다. 아디다스는 150개국 이상에서 수집된 200만 건 넘는 제품 리뷰를 실시간 인사이트로 전환했다. 비기술 조직도 챗봇을 통해 즉각적인 분석 결과에 접근하며 의사결정 속도를 높였다는 평가를 받기도 했다. 데이터브릭스는 해당 서비스로 기업 에이전트 상용화 장벽을 허물 방침이다. 크레이그 와일리 데이터브릭스 AI 제품 총괄은 "여전히 많은 기업이 AI 에이전트를 실제 비즈니스에 활용하지 못한다"며 "기업이 AI 기술을 제대로 평가·개선하지 못한 탓"이라고 지난 10월 미국 샌프란시스코 본사에서 지디넷코리아를 만나 이같이 밝혔다. 이어 "시스템 내 성능과 데이터 품질을 지속 확인하고 피드백을 반영해 성능을 개선하지 못했기 때문"이라고 설명했다. 와일리 총괄은 AI 품질 평가가 일반 소프트웨어(SW)를 테스트하는 방식과 다르다고 봤다. 일반 SW와 달리 AI는 같은 명령어에도 맥락에 따라 다른 결과를 내놓는다는 이유에서다. 이에 일반 SW처럼 '얼마나 잘 작동하는가'를 객관적으로 평가할 수 없다고 말했다. 와일리 총괄은 "AI는 논리적으로 틀리지 않아도 맥락을 놓치거나 사용자가 설정한 방식으로만 답하는 경우가 다수"라며 "이런 품질을 수치로 정의하거나 일관되게 측정하기 매우 복잡하다"고 설명했다. 그는 "앞으로 엔터프라이즈 환경은 AI 개발에서 평가 중심으로 이동할 것"이라며 "AI 신뢰성과 품질을 동시에 높이는 우리 철학을 에이전트 브릭스에 넣었다"고 말했다. "레이크베이스, AI 시대 데이터 처리 툭화" 데이터브릭스는 AI 에이전트 확산에 따른 데이터 처리 구조 변화를 반영해 레이크베이스 플랫폼 고도화에도 힘쓸 계획이다. 레이크베이스는 '데이터브릭스 데이터 인텔리전스' 플랫폼과 통합된 트랜잭션 처리 엔진이다. 별도 관리가 필요 없는 완전 관리형 포스트그레스로 설계됐다. 이 서비스는 데이터 스토리지와 컴퓨팅을 분리한 구조로 이뤄졌다. 이에 추가 설정 없이 빠른 데이터 처리 속도와 낮은 지연 시간을 제공할 수 있다. 트랜잭션 데이터를 별도 추출·전환·적재(ETL) 과정 없이 분석과 AI 환경에 바로 활용할 수 있도록 설계됐다. 데이터브릭스는 AI 에이전트 확산으로 트랜잭션 데이터 생성량이 급증하고 있다고 봤다. 최근 인수한 네온 분석 보고서에 따르면 새로 생성된 데이터베이스(DB) 80% 이상이 AI 에이전트로 만들어진 것으로 나타났다. 데이터브릭스는 "전통적인 온라인 트랜잭션 처리(OLTP) DB는 수십 년 된 아키텍처 위에서 구동돼 관리가 어렵고 비용이 많이 든다"며 "벤더 락인에도 취약하다"고 지적했다. 이어 "에이전트와 앱, 워크플로는 빠르고 신뢰할 수 있는 데이터를 필요로 한다"며 "우리는 레이크베이스를 통해 AI를 위한 트랜젝션 DB를 재창조할 것"이라고 자신했다.

2026.01.26 14:55김미정 기자

전기차 배터리 성능 예측 AI모델 개발…정확도 86.6%

전기차 배터리 성능을 예측하는 인공지능(AI) 모델이 개발됐다. KAIST는 신소재공학과 홍승범 교수팀이 조은애 교수팀과 공동으로 실험 데이터가 불완전한 상황에서도 배터리 양극재 입자 크기를 예측하고, 신뢰도까지 계산할 수 있는 머신러닝 프레임워크를 개발했다고 26일 밝혔다. 배터리 내부 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 배터리 내부의 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 입자가 지나치게 크면 성능이 저하되고, 반대로 너무 작으면 안정성에 문제가 생긴다. 이 때문에 기존에는 입자 크기를 파악하기 위해 소결 온도와 시간, 재료 조성 등을 바꿔가며 수많은 실험을 반복했다. 그러나 실제 연구 현장에서는 모든 조건을 빠짐없이 측정하기 어렵고, 실험 데이터가 누락되는 경우도 잦아 공정 조건과 입자 크기 간 관계를 정밀하게 분석하는 데 한계가 있었다. 연구팀은 이러한 문제를 해결하기 위해 누락된 데이터는 보완하고, 예측 결과를 신뢰도와 함께 제시하는 AI 프레임워크를 설계했다. 화학적 특성을 고려해 빠진 실험 데이터를 보완하는 기술(MatImpute)과, 예측 불확실성을 함께 계산하는 확률적 머신러닝 모델(NGBoost)을 결합했다. 이 AI 모델은 단순히 입자 크기를 예측하는 데 그치지 않고, 해당 예측을 어느 정도까지 신뢰할 수 있는 지에 대한 정보까지 함께 제공한다. 이는 실제로 어떤 조건에서 재료를 합성할지 결정하는 데 중요한 기준이 된다. 실험 데이터를 확장해 학습한 결과, AI 모델은 86.6%의 높은 예측 정확도를 나타냈다. 분석 결과, 양극재 입자 크기는 재료 성분보다도 굽는 온도와 시간 같은 공정 조건의 영향을 더 크게 받는 것으로 나타났다. 연구진은 AI 예측의 신뢰성을 검증하기 위해, 금속 성분 비율은 동일한 조성(NCM811(Ni 80% / Co 10% / Mn 10%)) 조성을 유지하되 기존 데이터에 포함되지 않은 제조 조건으로 합성한 양극재 시료 4종을 새롭게 제작해 실험을 진행했다. 그 결과, AI가 예측한 입자 크기는 실제 현미경 측정 결과와 거의 일치했다. 오차는 대부분 머리카락 두께보다 훨씬 작은 0.13마이크로미터(μm) 이하로 나타났다. 특히 AI가 함께 제시한 예측 불확실성 범위 안에 실제 실험 결과가 포함돼, 예측값뿐 아니라 그 신뢰도 역시 타당함이 확인됐다. 홍승범 교수는 “AI가 예측값뿐 아니라 그 결과를 얼마나 신뢰할 수 있는지까지 함께 제시한다는 점이 핵심”이라며, “차세대 배터리 소재를 보다 빠르고 효율적으로 설계하는 데 실질적인 도움이 될 것”이라고 말했다. 연구는 신소재공학과 벤 마디카(Benediktus Madika) 박사과정 연구원이 제1저자로 참여했다. 연구결과는 신소재·화학공학 분야 국제적 학술지인 '어드밴스드 사이언스(Advanced Science)'에 지난해 10월 8일자로 게재됐다.

2026.01.26 10:12박희범 기자

[현장] AI 신뢰성, 이제 자격증 시대…국내 첫 민간 전문가 시험장 가보니

"본 시험에 들어가기 앞서 오는 22일부터 시행되는 '인공지능(AI) 기본법'에 대해 잠시 설명드리겠습니다. 오늘 여러분이 치르는 자격 시험의 의미와 역할을 이해하는 시간이 되길 바랍니다." 11일 오후 찾은 서울 서초구 서울교육대학교 인문관 강의실. 한파특보가 내려진 주말이지만 30여 명의 사람들로 북적이는 교실이 있었다. 바로 국내 최초의 'AI 신뢰성 전문가(CTAP)' 시험장이다. 씽크포비엘이 주관하는 이번 제1회 CTAP 자격시험에는 AI 신뢰성 해커톤 '트라이톤' 참가자를 포함해 총 50여 명이 응시했다. 이날 시험은 서울교육대학교를 비롯해 부산 동의대학교, 광주 야생양봉원, 청주 충북대학교에서 동시에 진행됐다. CTAP는 총 45문항 객관식으로 구성됐으며 합격 기준은 100점 만점 중 65점 이상이다. 시험 기획을 맡은 씽크포비엘 연구원은 90분간 진행되는 시험에 앞서 AI기본법을 소개하고 몇 가지 예시 문항을 제시했다. '규제와 혁신이 충돌하는 AI 거버넌스의 역설을 해소하기 위해 참고할 국제 표준은 무엇인가', 'AI 시스템을 개발 및 배포한 후에 지속 수행해야 하는 작업은 무엇인가' 등 구체적인 예제가 언급되자 응시자들은 이를 노트나 노트북 등에 필기하며 경청했다. 단순 AI 윤리 아닌 실무형 인재 발굴 집중 민간 자격 제도상 이번 파운데이션 레벨(FL) 시험은 단순히 윤리적 구호를 묻지 않는다. 대신 국제 표준과 규범에 따른 책임의 구조를 정확히 이해하고 있는지에 초점을 맞췄다. AI 시스템이 왜 위험한지 그 구조를 파악하고 통제할 수 있는 '심판'의 역량을 검증하는 것이 목적이다. 박지환 씽크포비엘 대표는 "FL은 아직 책임을 맡기는 단계가 아니라, AI 신뢰성에 대해 올바르게 이해하고 소통할 수 있는지를 검증한다"며 "어설픈 실무 경험이 잘못된 확신으로 이어지는 것을 차단하고, 무엇이 올바른 접근인지 정확한 기준을 제시하는 것"이라고 설명했다. 박 대표는 "CTAP의 변별력은 AI를 '잘 쓰는 사람'이 아니라, 문제가 발생했을 때 원인과 책임을 기술적으로 설명할 수 있는 사람을 가려내는 데 있다"며 "도덕적 담론이 아니라 이미 국제적으로 합의된 지식 체계를 정확히 이해하고 있는지를 검증하는 것"이라고 짚었다. "AI 신뢰는 감정이 아닌 구조"…전국 4개 도시 동시 시행 첫 시험이 서울, 부산, 광주, 청주 등 전국 4개 도시에서 동시에 열린 점도 눈길을 끈다. 이는 수도권 외 지역 응시생들의 접근성을 배려한 결정이다. 박 대표는 "트라이톤 참가 학생들에게 공평한 기회를 주기로 한 약속을 지키기 위한 선택"이라며 "학생들이 이동하는 불편 대신 심사원이 지역으로 이동하는 편이 인재 발굴 취지에 맞다고 판단했다"고 설명했다. 씽크포비엘은 이번 자격 제도를 통해 AI 신뢰성을 추상적인 미덕이 아닌, 작동하는 '거버넌스'의 문제로 전환한다는 목표다. 기획부터 배포, 운영까지 각 단계의 담당자가 무엇을 해야 하는지 구체적으로 정의된 구조가 갖춰졌을 때 비로소 사회적 신뢰가 가능하다는 이유에서다. CTAP 합격 시 부여되는 자격의 유효기간은 약 3년으로 설정됐다. 이후에는 보수 교육이나 갱신 과정 도입도 검토되고 있다. 피지컬 AI 시대, 신뢰성 전문가 수요 '급증' 전망 시험을 마친 응시생들은 한 달 내 합격 여부를 통보받게 된다. 합격자들은 향후 최소 1년 이상의 실무 경험을 거쳐, 주관식·사례 기반으로 고난도 판단 능력을 검증하는 어드밴스드 레벨(AL)에 도전할 수 있다. 씽크포비엘은 올해 하반기 글로벌 연합 국가들과 함께 국제 시험 시행을 추진하며 역량 평가 모델의 국제 표준화에 박차를 가할 계획이다. 박 대표는 "최근 산업계 시선은 생성형 AI를 넘어 로봇·자율주행 같은 피지컬 AI로 빠르게 이동하고 있다"며 "사람 개입 없이 물리적 행동이 이뤄지는 영역은 사고 발생 시 생명·안전으로 직결되기에 신뢰성 전문가가 필수"라고 강조했다. 이어 "해외는 이미 작년부터 피지컬 AI 확산을 전제로 신뢰성 전문가 육성을 시작했지만, 국내는 여전히 기술 확산 후 제도가 따라가는 패턴"이라며 "2~3년 뒤 수요가 급증할 것"이라고 전망했다. 실제로 씽크포비엘이 AI 신뢰성을 이해한 기업들을 대상으로 한 소규모 설문에서는 약 94%가 관련 전문가 영입 의사를 밝혔다. 트라이톤 상위 입상자에게 고용 연계 인턴십을 제안한 기업도 있는 것으로 조사됐다. 박 대표는 "AI 기본법 제정과 국제 규제 강화 흐름 속에서 AI는 더 이상 '잘 되면 쓰고, 문제 생기면 고치면 되는 기술'이 아니라 '왜 허용했는지 사전에 설명해야 하는 기술'이 됐다"며 "책임 역시 사후 변명이 아니라 사전 설계의 문제가 된 만큼, AI 엔지니어는 AI로 교체될 수 있어도 책임을 설계하고 검증하는 역할은 사라지지 않을 것"이라고 강조했다. 이어 "CTAP는 AI를 만드는 시대를 넘어 'AI를 책임져야 하는 시대'를 대비하는 정확한 이정표가 될 것"이라고 덧붙였다.

2026.01.11 16:07이나연 기자

"AI 신뢰성이 올해 기업 생존 결정"…셀렉트스타, 기술특례 IPO·흑자 위해 달린다

세계 최초 포괄적 인공지능(AI) 규제인 'AI 기본법'이 이달부터 시행되는 가운데, 셀렉트스타가 2026년을 'AI 신뢰성 비즈니스 성패 원년'으로 규정했다. 회사는 올해 기술특례 상장과 함께 글로벌 신뢰성 검증 표준 확립에 나설 전망이다. 김세엽 셀렉트스타 대표는 지난 7일 발표한 신년사에서 "기업들이 할루시네이션(환각)이나 데이터 보안 문제로 고민하는 모습을 보며 무거운 책임감을 느꼈다"며 "2026년은 AI 신뢰성이 비즈니스 성패를 가르는 원년이 될 것"이라고 밝혔다. 우리나라는 오는 22일부터 AI 규제와 진흥 내용을 담은 AI 기본법을 전면 시행한다. 특히 핵심 규제 대상인 고영향(고위험) AI에 대한 신뢰성 확보 조치가 의무화되면서 기업들은 법적·제도적 기준에 부합하는 검증 체계를 갖춰야 하는 상황이다. 김세엽 대표는 "AI 신뢰성을 단순히 몇 개 수치로 표현할 수 없다"며 "진정한 신뢰는 오류를 예측하고 위험을 통제할 수 있는 구체적인 안전성에서 나온다"고 강조했다. 올해 셀렉트스타는 '고품질 데이터'와 'AI 신뢰성 글로벌 표준'을 사업의 핵심 축으로 삼을 방침이다. 김 대표는 "우리 언어와 문화적 맥락을 정확히 이해하는 데이터로 국가 데이터 주권을 지키겠다"며 "국내를 넘어 세계 시장에서도 통용될 평가 기준을 확립하겠다"고 말했다. 이어 "복잡해지는 규제 환경 속에서도 기업 서비스가 흔들림 없이 글로벌 무대로 뻗어나갈 수 있도록 확실한 '품질 보증서'가 되겠다"고 덧붙였다. 셀렉트스타는 생성형 AI 신뢰성 검증 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 금융권과 공공기관의 AI 도입 장벽을 낮추고 있다. 다투모 이밸은 AI 서비스 운영 중 발생할 수 있는 오류와 위험성을 자동으로 검출해 모델 품질 개선 방향성을 제시한다. 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델' 개발 프로젝트에도 참여하고 있다. 회사는 SK텔레콤 컨소시엄에서 고품질 학습 데이터 구축과 모델 안정성 검증을 총괄 중이다. 글로벌 시장 확장도 주요 과제다. 지난해 스페인 바르셀로나에서 열린 '모바일 월드 콩그레스(MWC)25'에서는 세계이동통신사업자연합회(GSMA)와 '글로벌 AI 레드팀 챌린지'를 공동 주최했다. 기존 국가 단위로 진행됐던 레드팀 챌린지가 글로벌 행사에서 다국적 참가자를 대상으로 열린 것은 처음이었다. 지난 6일부터 오는 9일까지 미국 라스베이거스에서 열리는 세계 최대 가전·정보기술(IT) 전시회 'CES 2026'에 참여하는 등 글로벌 전시 및 세일즈를 확장하고 있다. 셀렉트스타는 코스닥 기술특례 상장을 목표로 기업공개(IPO)에 나선다. 상장 주관사는 대신증권으로 올해 연말까지 상장을 마무리할 예정이다. 매출 100억원 이상 달성과 함께 흑자 전환도 노리고 있다. 회사는 지난해 말 55억원 규모 시리즈B 추가 투자를 유치해 총 260억원으로 라운드를 마감했다. 이로써 누적 투자금은 434억원을 달성했다. 김 대표는 "기술이 아무리 빠르게 발전해도 변하지 않는 비즈니스 본질은 신뢰"라며 "그 신뢰를 우리가 지켜주겠다"고 강조했다.

2026.01.08 17:27이나연 기자

"금융 AX 시장서 통했다"…셀렉트스타, KB·신한·삼성 '트리플 크라운'

인공지능(AI) 데이터·신뢰성 평가 전문기업 셀렉트스타가 국내 주요 금융그룹으로부터 AI 기술력과 사업성을 잇달아 인정받았다. 셀렉트스타는 KB금융, 신한금융, 삼성금융 등 국내 대표 금융그룹이 주관한 스타트업 육성 및 협력 프로그램에서 연달아 수상했다고 5일 밝혔다. 먼저 지난해 12월 2일 '신한 퓨처스랩 데모데이 2025'에서 '최고 혁신상'을 수상했다. 셀렉트스타는 신한은행에 생성형 AI 서비스의 신뢰성 검증을 위한 데이터 기반 평가 체계 구축과 솔루션을 제공했다. 또 금융 문서를 이해하는 AI 모델 개발을 위한 데이터 구조화와 학습·평가용 데이터셋 설계도 진행했다.이곳은 '다투모 이밸(Datumo eval)' 솔루션 도입을 통한 평가 지표 관리, 데이터 자동 생성, 자동평가 등을 적용해 금융권에 특화된 신뢰성 검증 자동화 환경도 구현했다. 셀렉트스타의 AI 신뢰성 평가 자동화 솔루션 다투모 이밸은 금융 사고를 예방하고 강력한 보안 정책을 준수해야 하는 금융기관에 최적화된 솔루션이라고 평가된다. 셀렉트스타의 이러한 성과는 신한벤처투자의 시리즈B 투자 유치로도 이어졌다. 같은 달 12일 열린 KB금융그룹의 '2025 허브 데이'에서는 '스케일업 우수 기업상'을 수상했다. 2025 KB스타터스'로 선정된 셀렉트스타는 금융권 AI 서비스의 신뢰성 확보를 위한 자동화 평가 역량과 고품질 데이터 구축 기술력을 인정받았다. 그룹의 벤처캐피털(VC)인 KB인베스트먼트가 시리즈B 투자 라운드의 주관사로 참여하기도 했다. 삼성금융네트웍스와 삼성벤처투자가 공동 운영하는 '삼성금융 C-랩 아웃사이드'에서는 삼성생명 최우수 스타트업으로 선정됐다. 셀렉트스타는 '금융업 특화 AI 모델 성능 및 신뢰성 향상 솔루션'을 제안해 실질적인 성능 향상 효과를 입증했다. 이어 삼성생명 전략투자펀드를 통해 시리즈B 추가 투자를 유치하는 등 주요 대형 금융그룹과의 AX(인공지능 전환) 협력 사례를 만들었다. 김세엽 셀렉트스타 대표는 "국내 주요 금융그룹들로부터 셀렉트스타의 AI 신뢰성 평가 기술력을 잇달아 인정받아 뜻깊다"며 "금융권은 AI 도입에 가장 높은 신뢰 수준을 요구하는 산업군이다. 이번 성과를 바탕으로 금융권 AI 신뢰성 평가의 표준을 정립하고 다양한 산업 분야로 신뢰할 수 있는 AI 생태계를 확장하겠다"고 말했다.

2026.01.05 16:06이나연 기자

통신 3사 새해 키워드..."고객 신뢰 회복" 한 목소리

SK텔레콤 KT LG유플러스 등 이동통신 3사가 새해 키워드로 일제히 '고객 신뢰 회복'을 꺼냈다. 지난해 잇따른 사이버 침해사고를 겪으면서 안전한 네트워크 운영이란 업의 본질에 집중하기 시작한 셈이다. 수년간 AI 사업에 무게를 두는 등의 메시지를 내놓은 것과 크게 달라진 부분이다. 2일 SK텔레콤의 정재헌 CEO는 임직원에 전하는 첫 메시지로 “업(業)의 본질인 고객을 중심에 두고, 기본의 깊이를 더해 단단한 MNO를 만들자”고 주문했다. 정 CEO는 그러면서 “우리의 마음속에 자부심이 자리할 때, 고객도 SK텔레콤과 함께함을 자랑스러워할 것”이라고 강조했다. 지난해 SK텔레콤의 CEO 신년 메시지로 AI 전환과 디지털 전환을 통한 본원적 경쟁력 강화, 가시적인 AI 성과 창출, 단단하고 유연한 기업문화 등을 내세운 것과 차이를 보인다. 통신 사업의 패러다임을 AI로 바꾸자고 했던 것과 달리 회사의 본업인 MNO를 다시 강조한 셈이다. 최근 민관합동조사단의 침해사고 조사 결과 발표가 이뤄진 KT는 정보보안 확립에 무게를 둔 신년사를 내놨다. 임기 석 달을 남겨둔 김영섭 대표는 “앞으로도 고객 신뢰 회복 과정에서 전 임직원이 힘을 모아달라”고 당부했다. 김 대표틑 특히 “침해사고에서 보듯이 이제는 전통적인 IT 영역과 특정 부서만이 아니라 네트워크, 마케팅, CS 등 우리가 하고 있는 일상의 모든 업무가 침해 공격의 대상이자 우리가 반드시 지켜야 하는 정보보안의 대상”이라며 “인식의 전환 없이는 일상화되고 지능화되는 침해 정보보안 리스크를 방어할 수 없다”고 단언했다. 홍범식 LG유플러스 사장은 T.R.U.S.T라는 신년 경영 키워드를 제시하면서 “성공을 가능케 하는 강력한 원동력은 신뢰”라고 했다. 고객에 더 단순하고 따뜻한 경험을 제공하겠다는 캐치 프레이즈인 '심플리.(Simply.) U+'를 실현하기 위한 직원의 마음가짐을 당부하면서도 거듭 신뢰 키워드를 반복했다. 홍 사장은 그러면서 “고객과의 약속을 지켜 나가는 여정이 힘들 수 있지만 성장에도 도움이 될 수 있다”면서 “숨기기보다 솔직하게 하고 탓하기보다는 함께 해결하는 용기가 신뢰에서 비롯된다. 네트워크, 보안 품질 안전 기본기, 서비스 개발 체계 등 회사 전 영역에서 이 용기가 필요하다”고 밝혔다.

2026.01.02 16:11박수형 기자

바비톡, '클린 정보 시스템' 고도화

메디컬 뷰티 플랫폼 바비톡이 자사 정보 모니터링 시스템 '클린캠페인'에 AI 및 알고리즘 기반 탐지 기술을 강화하며, 플랫폼 내 비정상 활동을 정밀하게 걸러내는 신뢰도 높은 뷰티 정보 환경 구축에 속도를 내고 있다고 30일 밝혔다. 바비톡은 2020년부터 플랫폼 내 과도한 홍보나 비방 등의 비정상 활동을 지속적으로 모니터링하며 정보의 신뢰도를 높이기 위한 '클린캠페인'을 꾸준히 운영해 왔으며, 최근 사용자 보호와 정보 투명성에 대한 요구가 높아짐에 따라 이를 한층 정교하게 발전시켰다. 이번 고도화는 이용자가 믿고 탐색할 수 있는 정보 환경을 강화하고, 보다 정확한 의사결정을 돕기 위한 장기적 기술 투자 방향의 연장선으로, AI·서버·네트워크를 아우르는 3중 방어 체계로 확장 적용된 것이 특징이다. 먼저 클린 캠페인 운영 정책을 학습시킨 LLM(거대 언어 모델)을 활용한 AI 자동 콘텐츠 리뷰어 기능이 추가됐다. 이용자가 후기나 게시글을 등록하면 AI가 실시간으로 내용을 분석한 뒤, 운영 정책에 위배되는 욕설, 근거 없는 비방, 반복·복제 콘텐츠를 자동으로 분류하고, 위험도 점수를 산출하여 리포팅한다. 서버 단계에서는 알고리즘 정책을 고도화하여 사용자의 디바이스 고유값 기반 다계정 생성 방지 기술이 적용됐다. 단순 회원 정보가 아닌 접속 기기의 고유 식별값과 이용 행태를 함께 분석해, 동일 기기에서 비정상적인 다수의 계정 생성 및 운영이 감지되면 관련된 모든 계정을 즉시 쉐도우 밴(자동 블라인드) 처리한다. 마지막으로 네트워크 단계에서는 웹 방화벽(WAF)과 트래픽 분석 솔루션을 통해 특정 병원 및 시술 랭킹을 인위적으로 높이는 비정상 활동을 검출한다. 동일 IP 대역에서 짧은 시간 내 과도한 조회(Click/View)를 시도하는 봇(Bot)이나 매크로 활동이 감지될 경우 해당 IP의 접근을 차단 및 무효화하여 랭킹 집계 시 순위 왜곡을 방지한다. 이러한 바비톡 클린캠페인 시스템의 고도화로 플랫폼 전반의 정보 신뢰도와, 사용자 경험, 그리고 서비스 품질 전반이 크게 향상되었다. 시스템 정밀 적발 성공률 99.8%로 유해 콘텐츠가 노출되기 전에 차단되면서 이용자는 보다 쾌적하고 신뢰할 수 있는 환경에서 정보 탐색이 가능해졌으며, 불필요한 봇 트래픽 제거로 앱 접속 및 페이지 로딩 속도가 20% 이상 상승됐다. 바비톡 최권열 CTO는 “365일 24시간 작동하는 원천 차단 시스템 덕분에 비정상적인 정보 유통 시도 자체가 점차 무의미해지고 있다”며, “유저가 안심하고 탐색할 수 있는 깨끗한 정보 환경 완성을 목표로, 신조어나 변형된 언어 표현까지 대응할 수 있도록 AI 모델을 지속 업그레이드하고, 비정상 활동 이력이 없는 병원에는 '클린 병원 배지'를 부여, 조직적인 불법 바이럴 행위에 대한 법적 대응 등 신뢰도 높은 시장 질서를 만들어가겠다”고 말했다.

2025.12.30 10:14안희정 기자

당근알바, 새 인증 수단 '금융인증서' 도입

지역생활 커뮤니티 당근의 구인·구직 서비스 당근알바는 새로운 인증 수단으로 금융결제원의 금융인증서를 추가했다고 23일 밝혔다. 이번 금융인증서 도입은 당근알바가 그동안 단계적으로 추진해 온 인증 체계 강화의 일환으로, 이용자 간 신뢰 및 서비스 안정성을 한층 더 강화하기 위한 조치다. 당근알바는 동네 기반의 근거리 일자리를 중심으로 구직자와 구인자가 빠르게 연결될 수 있도록 돕는 서비스다. 서로의 집을 방문하거나 단기·시간제로 함께 일하는 경우가 많은 서비스 특성상 이용자 간 신뢰 형성이 중요한 만큼 당근알바는 이용자가 스스로 신뢰도를 높일 수 있는 다양한 인증 수단을 마련해간다는 방침이다. 실제로 당근알바는 최근 수개월간 ▲당근페이 계좌 인증 ▲신분증 인증 ▲신분증·얼굴 대조 인증 등 이용자 신원을 다각도로 검증할 수 있는 인증 수단을 순차적으로 도입해왔다. 이번에 추가된 금융인증서는 국내 1천200여 개 기관에서 사용 중인 범용성 높은 인증 수단으로, 금융결제원의 인증정보를 당근의 본인인증 정보와 대조해 검증하는 방식이다. 클라우드 기반의 인증 수단인 만큼 별도의 저장 매체가 필요 없어 이용 편의성이 높고, 분실이나 유출 위험이 낮다는 점에서 보안성도 우수하다가 회사 측은 설명했다. 인증은 당근알바 프로필 인증 내역 탭을 통해 가능하며 추가 인증을 완료한 구인자는 구인 글 상단 및 하단 사업자 정보 영역에서 각각의 인증 배지를 확인할 수 있다. 구직자도 지원서에 인증 이력이 태그 형태로 표기된다. 당근 관계자는 “신뢰와 안전성을 최우선시하는 당근알바의 서비스 특성과 국내 금융권에서 널리 사용되고 있는 금융결제원의 수준 높은 인증 체계가 만나 좋은 시너지를 낼 것으로 기대한다”며 “이번 협업을 시작으로 금융결제원과 안전하고 편리한 구인구직 환경 조성을 위한 협력을 지속해 나갈 것”이라고 말했다.

2025.12.23 12:57박서린 기자

커넥셔너리 "리서치 전용 AI 개발...연구원 등 직군에 유용"

"신뢰성을 기반으로 좋은 의사결정을 도와주는 인공지능(AI) 입니다." 이지원 커넥셔너리(Connectionary) 대표는 22일 지디넷코리아와 인터뷰에서 커넥셔너리의 리서치 전용 AI 'AID'를 이같이 소개했다. 커넥셔너리는 올해 6월 설립된 'AI 리서치 플랫폼' 전문 스타트업이다. 일반적으로 생성형 AI가 어떤 답변이나 데이터를 생성했다고 했을 때, 사용자는 AI가 생성한 값을 재차 검증하는 절차를 거친다. AI가 생성한 답변이 정확하지 않을 수 있기 때문이다. 이처럼 사실이 아닌 내용을 AI가 그럴듯하게 표시하는 현상을 '환각(Hallucination)' 현상이라고 한다. 번거로운 요청도 수분 내로 값을 생성해내기 때문에 생성형 AI는 업무 효율성을 크게 높인 것이 사실이다. 하지만 환각 현상 때문에 사용자는 올바른 값을 생성했는지 검증하는 시간을 추가로 써야 한다. 특히 인용, 통계, 논문명 등에서 환각 현상이 심하게 일어나는 것으로 알려져 있다. 이에 리서처, 분석가, 연구원 등 사실에 기반한 검증된 데이터가 필요한 사용자들은 AI로 데이터를 생성한다고 하더라도 추가적으로 검증하는 과정이 필요하다. AID는 신뢰성 있는 출처만 활용해 답변을 내놓기 때문에 이런 검증 과정을 대폭 줄여준다. 원본 문서에 기반한 추출·정렬 엔진이 탑재돼 사실과 다른 내용을 표시할 수 없도록 환각 현상을 구조적으로 차단한다는 장점이 있다. 정책 모니터링이나, 중요한 의사결정, 시장조사 등에서 정확한 데이터를 기반으로 AI를 통한 효율적인 자료 검색이 가능한 것이다. 이 대표는 "거대 언어 모델(LLM) 기반의 생성형 AI는 사용자가 요청한 내용을 '사람처럼 말하고 정리하는 것'에 특화돼 있기 때문에 환각 현상에 따른 불편함이 있다"며 "AID는 검색하고 싶은 키워드를 입력하면 언론, 논문, 연구 보고서 등 실제 등재된 내용만 표시하기 때문에 환각 현상이 거의 없다"고 설명했다. 이어 "특히 검색 기간을 설정하고, 생성한 값을 사용자가 직접 스크리닝하는 것도 가능하다"며 "기자, 연구원, 애널리스트 등 정확한 수치를 기반으로 분석을 진행해야 하는 직군에 효율적인 AI 도구로 자리잡을 것"이라고 강조했다. 키워드만 검색했는데 출처부터 통계까지 '한 눈' 기자가 직접 AID를 사용해봤다. 최근 치명적인 취약점으로 부상한 React2shell(리액트투쉘, CVE-2025-55182) 취약점을 키워드로 입력하자, 핵심 키워드별로 확실한 출처의 여러 문서들이 눈에 띄었다. 또 어떤 주제와 관련이 깊은지, 키워드와 관련해 직접 언급했던 사람은 누구인지 통계화한 그래프가 표시됐다. 아래에는 전체 검색 결과가 표시되는데, 모두 외신, 국내 언론, 논문, 보고서 등 믿을 만한 출처가 함께 표시됐다. 각 결과값마다 AI가 요약한 내용도 알아보기 쉽게 제공됐으며, '상세 정보'를 클릭하면 발언인 정보와 요약 및 키워드가 입력된 인용문 전체를 확인할 수 있다. 원본으로 연결되는 링크도 함께 기재돼 있다. 포털 사이트에서 검색한 자료를 사람이 일일이 걸러내고 신뢰할 만한 출처의 정보를 요약하는 일련의 과정을 AID가 한 번에 해결한 것이다. 또 검색한 키워드에 특수 문자 '골뱅이(@)'를 붙이면, 키워드와 관련한 모든 수치 정보가 표시된다. 이 대표에 따르면 아직은 제대로 구현되지 않은 기능이지만 향후 업데이트될 예정이다. 검색 결과만 일방적으로 표시되는 것이 아니라 'AI 분석' 탭으로 이동하면 검색 결과를 AI가 자동으로 요약해 표시하며, 여러 검색 결과 값과 비교하는 것도 가능하다. "AID 기능 고도화해 리서치 기관 의사결정 돕는 도구로 자리매김" AID는 현재 알파테스트가 진행 중이다. 내년 1월 중으로 베타테스트를 거쳐 제품을 고도화해 향후 상품화할 예정이다. 구체적으로 커넥셔너리는 AID를 올해 1분기까지 주요 정책기관 발표 원문, 기업 재무 정보 검색 등도 가능하도록 기능을 고도화할 계획이다. 이 대표 설명에 따르면 현재 베타테스트 버전을 리서치, 공공 등 분야에 배포해 놓은 상태이며, 고객 만족도를 수집하고 있다. 향후 1년 내로 솔루션을 출시하고 국내 시장에서 확실한 레퍼런스를 확보한다는 것이 단기 목표다. AID가 기업 및 리서치 기관의 정책, 의사결정에 효율적인 도구로 자리잡는 것을 목표로 하고 있는 만큼 정책 분야에 자문을 줄 수 있는 전문가도 함께하고 있다. 현재 국가정보원 3차장을 지낸 김선희 가천대 초빙교수가 보안 자문위원으로 합류했으며, 향후 정책·기술 등 분야에서도 전문가와 함께해 신뢰도를 높일 계획이다. 이 대표는 "신뢰성 있는 AI를 만드는 일이 즐거워서 평생 계속하고 싶다"며 "고객사에도 신뢰성을 높이는 모든 과정들이 진실성 있는 회사로 인식되게 하고, 이런 진실성을 기반으로 열심히 성장하는 회사가 되고 싶다"고 포부를 남겼다. ◆ 이지원 커넥셔너리 대표는..... - 1981년생 - 2025.06~현재 ㈜커넥셔너리 CEO(최고경영자) - 2024.04~2025.03 ㈜디노티시아 CSO (최고전략책임자, 부사장) - 2019.09~2024.02 ㈜에스투더블유 CSO (최고전략책임자, 부대표) - 2021.08~2022.06 법무부 디지털성범죄 등 TF 전문가 위원 - 2020.03~2024.12 경찰청 사이버테러대응 전문가 위원 - 2016.01~2019.07 롯데미략전략센터 산업전략 수석연구원 - 2014.03~2015.12 ㈜오비맥주 전략기획팀 부장 - 2010.10~2014.02 아서디리틀 컨설턴트 - 2006.03~2010.09 ㈜KT 전임연구원

2025.12.22 19:59김기찬 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

나프타 쇼크에 포장재 비상…파우치 배터리는 괜찮나

쿠팡 사태로 '예스24' 랜섬웨어 뒷전...조사만 9개월째

동남아 최초 '이곳' 16세 미만 아동 SNS 규제한다

[ZD브리핑] KT 주총, 박윤영 대표 선임안 논의…현대車 북미라인업 공개

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.