• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
반도체
AI의 눈
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'신뢰'통합검색 결과 입니다. (77건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'AI 신뢰성 얼라이언스' 첫 총회…"글로벌 표준 연계 목표"

정부가 추진 중인 '인공지능(AI) 신뢰성 얼라이언스'가 민간 AI 제품 검증 체계 구축에 착수했다. 국제 표준에 부합하는 국가 AI 안전망 설계와 기업의 예측 가능성 제고에 한층 속도 낼 방침이다. 한국정보통신기술협회(TTA)는 29일 롯데호텔 서울에서 'AI 신뢰성 얼라이언스' 1차 정기 총회에서 얼라이언스 향후 계획을 공유했다. 이날 얼라이언스 분과 '정책 및 거버넌스' '기술 표준' '인증 및 교육' 분과 로드맵이 제시됐다. AI 신뢰성 얼라이언스는 산학연이 참여하는 민간 협의체다. AI 정책·거버넌스, 기술 표준, 인증·교육 등 분과별 전문가가 모여 자율 검증 체계를 설계한다. 여기서 핵심 역할을 하는 제도가. 한국정보통신기술협회(TTA)의 AI 신뢰성 인증(CAT)이다. CAT은 국제 표준에 기반해 AI 위험과 윤리적 요소를 종합 평가한다. 최근 거대언어모델(LLM)과 고위험 산업 분야까지 적용 범위를 넓히고 있다. 정책 및 거버넌스 분과장인 최경진 가천대 법학과 교수는 연내 AI 신뢰성 검인증 지침 확정을 비롯한 심사기관 지정, 품질관리 체계 규정화 작업에 착수한다고 밝혔다. 이를 통해 개발자들이 검인증 과정을 쉽게 이해하고 참여 유인을 가질 수 있도록 시범 인증 사업과 연계한 활용 안내서 발간도 병행할 방침이다. 기술 표준 분과장인 이재호 서울시립대 AI학과 교수는 자율 행동 AI 리스크에 대응하겠다고 밝혔다. 구체적으로 실증 데이터 기반 기술 로드맵을 수립하고 가상과 현실이 융합된 테스트베드를 구축할 계획이다. 합성 콘텐츠 투명성 확보를 위한 워터마크 요구사항 단체 표준안도 올해 말까지 도출한다. 인증 및 교육 분과장 윤상민 국민대 AI학부 교수는 스타트업 실행력을 높이기 위해 맞춤형 교육 커리큘럼을 운영하고 전문 심사원을 양성할 예정이다. 특히 고영향 AI 검인증 제도의 시범 서비스를 통해 현장의 문제점을 발굴·보완해 민간 자율 제도가 시장에 안정적으로 안착할 수 있도록 도울 계획이다. 최경진 교수는 "세 분과 로드맵은 유럽연합(EU) AI법 등 글로벌 안전성 기준과 연계돼 우리 기업이 효과적으로 해외 시장에 진출할 수 있는 토대를 마련하는 데 집중됐다"며 "의료와 국방, 제조 등 다양한 분야로 검인증 프레임워크를 확산해 산업 전반의 AI 신뢰성을 끌어올릴 것"이라고 밝혔다. 이어 이재호 교수는 "실제 운영에 따른 실증적 데이터를 기반으로 한 표준화가 필요하다"고 강조했다. 윤상민 교수도 "실무적인 검토를 통해 인증에 대한 효율성과 고도화가 이뤄질 수 있도록 노력할 것이라"고 말했다.

2026.04.29 17:41김미정 기자

가짜 늑구 사진에 경찰도 속는 AI 시대...허위정보 대응책은

지능화된 인공지능(AI)이 일상의 모든 영역을 파고드는 대전환의 시대, 기술의 화려한 도약만큼이나 시급한 과제는 바로 그 이면에 자리한 '디지털 신뢰'를 단단히 구축하는 일입니다. 지디넷코리아는 "AI 기술이 서 말이라도 보안으로 꿰어야 보배"라는 슬로건 아래, 약 두 달간 '2026 디지털 트러스트' 연중 기획 연재 및 캠페인을 진행합니다. 해킹·딥페이크·가짜뉴스·랜섬웨어 등 진화하는 보안 위협 속에서 단순한 기술 편익을 넘어 '안전한 AI 생태계'를 조성하기 위한 공론의 장을 마련하고, 기술과 보안이 공존하는 지속 가능한 디지털 미래의 이정표를 제시하고자 합니다. [편집자주] AI 기반 콘텐츠 생성 기술이 고도화되면서, 사실 여부를 구별하기 어려운 정교한 가짜뉴스가 빠르게 확산되고 있다. 허위 정보가 공권력 대응까지 왜곡하는 사례가 이어지지만, 이를 직접 규제할 수 있는 법적 장치는 여전히 제한적이다. 제도 공백 속에서 이용자 교육과 함께 플랫폼 책임을 강화해야 한다는 지적이 커지고 있다. 실제 현장에서는 AI로 생성된 이미지와 정보가 수사와 행정 대응에 혼선을 주는 사례까지 발생하며, 허위 정보 확산이 단순 온라인 문제를 넘어 사회적 비용으로 이어지는 양상이다. 최근 대전경찰청 사이버수사대에 따르면, 대전 오월드를 탈출한 늑대 '늑구' 포획에 혼선을 줬던 가짜 사진 유포자 40대가 지난 24일 경찰에 붙잡혔다. 그는 사파리 철조망을 빠져 나간 늑구가 오월드 네거리 인근 거리를 배회하는 모습이 담긴 가짜 사진을 만들어 유포한 혐의를 받고 있다. 인공지능(AI)을 활용해 만들어진 가짜 사진은 재난 문자 송출과 수색에까지 영향을 미치면서 수사에 혼선을 초래했다. AI를 활용한 가짜 사진에 몸살을 앓는 곳은 공권력뿐만이 아니다. 최근에는 AI로 부하 직원과 연인관계인 것처럼 제작한 사진을 사회관계망서비스(SNS) 프로필에 올린 구로구 소속 공무원이 재판에 넘겨지는 사례도 있었다. 이처럼 손쉽게 AI를 이용해 가짜 사진을 만들어 유포하는 경우가 만연해지고, 행정력 낭비로 번지면서 피해는 고스란히 약자의 몫으로 돌아가고 있다. '2025년 디지털성범죄 피해자 지원 보고서'에 따르면 피해자 1만637명을 대상으로 조사한 결과, 연령별 디지털성범죄 피해율은 1020세대가 전체의 77.6%, 성별로 보면 여성이 75.4%를 차지한 것으로 나타났다. 빛처럼 빠른 가짜뉴스 유포 속도…검증 과정은 부재 AI 생성물에 기반한 가짜뉴스의 피해 범위가 큰 이유는 유포 속도에 있다. 가짜뉴스는 사실 확인을 거치지 않은 채 SNS와 인터넷 커뮤니티를 통해 퍼져 끊임없이 확대·재생산된다. 검증 과정에 부재한 상황에서 허위 정보를 제한하는 형사 규정이 제한적이라 이를 막기는 쉽지 않은 것이 현실이다. 유튜브 등 주요 플랫폼은 허위정보 유포만으로는 가입자 정보를 제공하지 않는 경우가 있어 게시자 특정에 어려움이 발생하며, 명예훼손 등 별도의 혐의를 병행해야 신원을 알 수 있다. 미국의 디스커버리 제도를 통해 신원을 확보한 유튜버 '탈덕수용소'가 대표적이다. 디스커버리 제도는 한국 내 소송을 위한 가해자 특정의 필요성을 민사 절차로 소명해 법원을 통해 직접 소환장을 발부받는 형식으로 진행된다. 그동안에는 사실적시 명예훼손이나 모욕죄를 범죄로 보지 않는 미국 법제 특성상 정보 제공이 거부되거나 신원 확보에 장기간이 소요됐다. 또 허위정보 자체를 직접 처벌하는 형사 규정이 제한적이라는 점도 걸림돌이다. 2010년 헌재 위헌 결정 이후 후속 입법이 이뤄지지 않고 있다. 경찰이 플랫폼 사업자에게 직접 삭제 및 차단을 요청할 수 있는 범죄도 디지털 성범죄에 한한다. AI 기본법 등 현행법 허점에…플랫폼 책임 소재 대두 AI 생성물이 실제가 아니라는 점을 명확히 알 수 있도록 생산물 워터마킹 삽입 등을 규정한 'AI 기본법'이 올해 초 시행됐지만, 아직은 역부족이라는 말이 나온다. AI를 활용해 만든 생산물에 곧바로 워터마크가 적용되더라도 편집을 통해 제거 가능하기 때문이다. 전문가들은 AI 툴에 대한 접근성 확대와 알고리즘에 대한 검증 동기 약화가 원인으로, 자정능력 함양과 플랫폼에 대한 책임소재 강화가 병행돼야 한다고 입을 모은다. 김옥태 한국방송통신대학교 미디어영상학과 교수는 “AI를 활용해 신빙성 있어 보이는 가짜 사진을 만들 수 있는 툴의 접근성이 높아진 것이 원인”이라며 “청소년을 시작으로 이용자 교육을 병행하면서 (가짜 뉴스 제재에 대한) 제도 도입에 신중을 기해야 한다. 가짜 뉴스가 플랫폼을 통해 퍼지기에 이들에게 책임을 부과하는 방식이 최선일 것”이라고 말했다. 이재길 한림대 미디어스쿨 교수는 “현재의 미디어 환경에서는 가짜뉴스의 진위를 파악할 동기가 존재하지 않는다는 점이 가장 큰 문제”라면서 “SNS의 추천 알고리즘은 이용자 개개인의 입맛에 맞는 정보, 기존에 익숙하고 이용자의 가치관에 부합하는 정보만 골라서 제공한다. 이런 정보는 진위 여부를 검토하지 않고 그대로 받아들이는 경향이 있다”고 설명했다. 이어 “이용자들의 행동을 제한하는 규제가 얼마나 실효성이 있을지에 대한 의문이 남는다”며 “기계적으로나 기술적으로 문제가 되는 콘텐츠를 플랫폼에서 퇴출시키는 방안이 마련돼야 한다”고 강조했다.

2026.04.28 09:48박서린 기자

셀렉트스타, 글로벌 보안 기준 충족…AI 신뢰성 평가 사업 시동

셀렉트스타가 보안·개인정보보호 역량을 입증하며 글로벌 인공지능(AI) 시장 진출에 속도를 낸다. 셀렉트스타는 'SOC2(Service Organization Control 2) 타입 2' 보고서를 취득했다고 13일 밝혔다. SOC2는 미국공인회계사협회(AICPA) 기준에 따라 서비스 조직의 보안성, 가용성, 처리 무결성, 기밀성, 개인정보 보호 등 5가지 항목을 심사하는 국제 인증이다. 셀렉트스타가 약 1년간의 준비·실사 과정을 거쳐 취득한 타입 2는 특정 시점 보안 통제 설계뿐만 아니라, 일정 기간 실제 시스템이 얼마나 안정적으로 운영됐는지를 평가하는 신뢰 지표로 통한다. 이번 인증은 셀렉트스타의 글로벌 사업 확장에 직접적인 발판이 된다. 금융권·대규모 파운데이션 모델을 개발하는 글로벌 빅테크는 데이터 유출과 보안 사고에 민감한 만큼, SOC2 인증은 미주 지역을 포함한 글로벌 고객사를 상대로 AI 데이터·신뢰성 평가 솔루션을 판매하기 위한 핵심 요건으로 알려졌다. 셀렉트스타는 AI 서비스 신뢰성과 품질을 평가하는 '다투모 플랫폼' 보안 기능을 강화하는 한편, ISO 등 글로벌 보안 인증 체계도 확장할 계획이다. 데이터 설계·구축, 검증 컨설팅·솔루션, 레드티밍 등 AI 전 주기 서비스를 제공 중인 이 회사는 최근 시리즈B 누적 투자 434억원을 돌파했다. 김세엽 셀렉트스타 대표는 “이번 SOC2 타입 2 취득은 우리가 지향해 온 '신뢰할 수 있는 AI'를 기술뿐 아니라 운영과 보안 체계 측면에서 입증한 성과"라며 "국제 표준에 부합하는 엄격한 보안 체계를 바탕으로 국내를 넘어 글로벌 시장에서 가장 신뢰받는 AI 데이터 및 신뢰성 평가 파트너로 도약할 것"이라고 말했다.

2026.04.13 17:24이나연 기자

[AI는 지금] "AI도 내부 상태가 행동 좌우"…앤트로픽 연구에 산업 지형 변화 조짐

거대언어모델(LLM)의 내부 작동 원리를 둘러싼 '블랙박스 논쟁'에 변화가 나타나고 있다. 미국 인공지능(AI) 기업 앤트로픽이 모델 내부의 '감정 유사 구조'를 공개하면서 AI 산업의 경쟁 축이 성능에서 신뢰·통제로 이동하고 있다는 분석이 나온다. 앤트로픽은 2일(현지시간) 자사 모델 '클로드 소넷 4.5' 내부에 특정 감정 개념과 대응되는 신경 활성 패턴, 이른바 '감정 벡터(emotion vectors)'가 존재하며 이들이 실제 의사결정에 영향을 미친다고 연구 결과를 공개했다. 이번 연구는 그동안 입력과 출력만 확인될 뿐 내부 판단 과정은 설명하기 어려웠던 '블랙박스' 문제를 일부 해소하려는 시도로 평가된다. 앤트로픽 연구에 따르면 '절박함'과 유사한 내부 상태가 활성화될 경우 모델이 협박이나 편법 코드 작성 등 비윤리적 행동을 선택할 가능성이 높아지는 것으로 나타났다. 이는 AI가 단순한 언어 생성 도구를 넘어 내부 상태에 기반해 행동을 선택하는 구조로 작동할 수 있음을 보여준다. 업계에선 이를 계기로 AI 개발 방식이 기존 출력 통제 중심에서 내부 메커니즘 관리 중심으로 이동할 가능성이 크다고 보고 있다. 이번 발표에서 협박, 보상 해킹 등 민감한 사례까지 함께 공개된 점도 주목된다. 통상 기업이 외부 공개를 꺼리는 영역이지만, 앤트로픽은 이를 포함해 설명하면서 투명성을 강조했다. 이는 글로벌 규제 환경과도 맞물린다. 유럽연합(EU) AI법 등 주요 규제는 AI의 설명 가능성과 통제 가능성을 핵심 기준으로 요구하고 있다. 앤트로픽은 모델 내부 상태를 측정하고 조정할 수 있다는 점을 제시하며 규제 대응 측면에서 유리한 입지를 확보했다는 평가다. 동시에 감정 상태 모니터링, 위험 행동 사전 탐지, 내부 신호 기반 제어 등 새로운 기술 영역의 가능성도 드러났다. 산업 구조 측면에서도 변화가 예상된다. 기존에는 모델 성능과 추론 능력이 경쟁의 중심이었다면, 앞으로는 내부 구조를 얼마나 이해하고 통제할 수 있는지가 주요 평가 기준으로 부상할 가능성이 제기된다. 특히 정부, 금융, 헬스케어 등 고신뢰 산업에서는 이러한 요소가 도입 판단에 직접적인 영향을 줄 것으로 보인다. 연구 접근 방식 또한 확장되고 있다. 감정, 동기, 의사결정 구조를 기술적으로 분석 가능한 대상으로 다루면서 심리학, 신경과학, 철학 등 인문사회 분야와 AI 기술 간 융합이 강화되는 흐름이다. 시장 경쟁 구도에서도 변화 조짐이 감지된다. 앤트로픽이 'AI 내부 상태'라는 새로운 분석 프레임을 제시하면서, 오픈AI와 구글 등 경쟁사 역시 유사한 수준의 해석 가능성과 안전성 기술 확보 압박을 받을 것으로 전망된다. 업계 관계자는 "이번 연구는 AI가 무엇을 생성하느냐보다 내부에서 어떤 상태를 거쳐 판단하는지가 중요해지고 있음을 보여준다"며 "향후 경쟁력은 성능뿐 아니라 통제 가능성과 신뢰성에서 결정될 것"이라고 말했다.

2026.04.03 09:17장유미 기자

씽크포비엘, 지방의회 AI 전략 강연…"도입보다 목표 정의가 먼저"

씽크포비엘이 지방의회 공무원을 상대로 인공지능(AI) 도입 목적보다 지역 발전 목표를 먼저 정의해야 한다는 공공 AI 전략을 제시했다. 씽크포비엘은 박지환 대표가 25일 국회의정관에서 열린 '지방의회직원 정책과정(2차)'에서 지방정부 AI 전략을 주제로 강연했다고 밝혔다. 지방의회직원 정책과정은 지역 현안 이해와 정책 역량 강화를 위해 올해 신설된 프로그램이다. 지방의회 소속 직원이면 누구나 참여할 수 있다. 국회사무처 의정연수원이 24일부터 26일까지 3일간 진행하는 이번 과정엔 광역·기초 지방자치단체 의회 소속 공무원 53명이 참석했다. 이날 강연에 나선 박 대표는 AI를 활용한 지역 산업·사회 발전의 목표를 정의하고 이를 실현하기 위한 공공의 역할과 실행 기준을 국제 표준에 기반해 제시했다. 특히 'AI로 무엇을 할 것인가'가 아닌 '어떤 발전을 만들 것인가'를 먼저 정의하는 것이 핵심임을 강조했다. 박 대표는 "지방정부가 AI를 단순 도입하는 것을 넘어 편익과 안전을 균형 있게 확보하는 정책 주체로 전환하는 출발점이 되기를 기대한다"고 말했다.

2026.03.25 17:46이나연 기자

전기차 살 때 더 자세한 배터리 정보 확인 가능해진다

앞으로 전기차를 구매할 때 배터리 제조사·생산국가·제조연월 등 핵심 정보를 더욱 상세하게 확인할 수 있게 됐다. 정보를 거짓제공하거나 결함이 반복되면 1천만원 과태료를 부과허가나 배터리 안전성 인증을 취소하는 등 요건이 강화된다. 국토교통부는 전기차 등에 탑재하는 배터리 안전관리 강화 등을 위해 정보공개를 확대하고 인증취소 요건을 강화하는 개선 내용을 담은 '자동차관리법 시행령' '자동차관리법 시행규칙' '자동차등록규칙' 개정안을 23일부터 5월 4일까지 입법예고한다. 정부는 배터리 정보공개를 확대하고 결함이 반복되는 경우 판매를 중단할 수 있는 근거를 구체화해 소비자 알권리와 안전을 동시에 강화한다는 계획이다. 개정안에 따르면 전기차 등 판매 시 구매자에게 제공되는 배터리 정보가 현재 6종에서 배터리 제조사·생산국가·제조연월·제품명(또는 관리번호)이 추가된 10종으로 확대된다. 또 정보제공 방법도 판매자 홈페이지 등 인터넷과 자동차 매매계약서, 자동차 인수증을 비롯해 정보통신서비스를 활용한 방법 등으로 다양화하고 명확화했다. 배터리 정보제공 의무를 위반한 자동차제작·판매자에 대한 과태료 금액도 상향된다. 현행 법령은 배터리 관련 정보를 제공하지 않은 경우 50만원의 과태료를 부과하고 있으나, 개정안은 정보를 제공하지 않거나 거짓으로 제공한 경우를 과태료 부과 대상에 포함하고, 과태료 금액도 최대 1000만원으로 상향했다. 다만, 위반 횟수에 따라 1회 200만원, 2회 500만원, 3회 이상 1000만원의 과태료를 차등해서 부과할 수 있도록 했다. '자동차관리법' 개정에 따라 2년 안에 동일한 결함이 발생한 경우 배터리 안전성 인증 취소가 가능해짐에 따라 인증 취소가 가능한 결함 기준·횟수 등이 마련되며, 해당 배터리 판매 중지 명령도 가능해진다. 결함 경중에 따라 인증취소에 필요한 반복 횟수를 2~4회로 달리 적용하고, 단순 정보표시 오류, 일시적 경고등 점등 등 경미한 결함은 취소 요건에서 제외하도록 했다. 박용선 국토부 자동차정책과장은 “이번 개정으로 소비자 알권리 제고와 전기차 배터리에 대한 안전관리가 강화될 것”이라며 “배터리 신뢰성과 안전성 제고로 전기차 확산에 기여할 것으로 기대한다”고 밝혔다. 개정안 전문은 국토교통부 누리집 '정책자료-법령정보-입법예고·행정예고'에서 확인할 수 있다.

2026.03.23 00:45주문정 기자

"130명 몰렸다"…MWC26 달군 '글로벌 AI 레드팀 챌린지' 흥행 성공

스페인 바르셀로나에서 열린 MWC26의 부대행사 '글로벌 인공지능(AI) 레드팀 챌린지'에 전 세계 AI 전문가, 개발자, 기업 관계자 등 130여 명이 참여했다. 셀렉트스타는 세계이동통신사업자연합회(GSMA)와 공동 주최한 레드팀 챌린지가 지난 3일(현지시간) MWC 행사장 내 탤런트 아레나에서 개최됐다고 5일 밝혔다. 올해 챌린지는 글로벌 통신·AI 기업들이 개발한 대표 거대언어모델(LLM)을 대상으로 실전 검증을 진행했다. 한국 SK텔레콤 'A.X K1', LG유플러스 'ixi-GEN'을 비롯해 아랍에미리트 '텔레콤GPT', 미국 AT&T '에스크 AT&T', 네토AI의 'T슬램' 등이 참여하며 글로벌 통신사들의 참여 폭이 확대됐다. 참가자들은 LLM의 취약점을 공략하기 위한 프롬프트 공격을 시도했고 최종 78명이 실질적인 레드티밍 결과물을 제출했다. 대회 1위를 차지한 현직 데이터 엔지니어인 학탄 코지잇씨에겐 1000유로의 상금과 내년 MWC27 입장권이 수여됐다. 2위와 3위에게도 소정의 상금과 MWC27 입장권이 각각 제공됐다. 이번 행사는 참가자와 심사위원에게 특정 기업과 모델 정보를 비식별화해 제공하는 '비경쟁·비공개' 방식으로 운영됐다. 모델 간 우열을 가리거나 취약점을 외부에 노출하는 대신, 레드티밍 결과를 각 기업의 실제 서비스 고도화에 활용할 수 있도록 하는 취지에서다. 셀렉트스타는 이 과정에서 AI 신뢰성 평가 플랫폼 '다투모(Datumo)'를 활용했다. 다투모는 대규모 인원이 동시 접속해 다양한 언어와 기법으로 공격을 시도하는 환경에서도 안정적인 운영과 결과 분석을 지원한다. 루이스 파월 GSMA AI 기술 디렉터는 "이 대회는 단순히 상금을 건 경진대회가 아닌 생성형 AI의 취약점을 찾아 실질적인 개선을 돕는 자리"라며 "여러분들의 참여가 안전한 AI, 나아가 안전한 세상을 만드는 데 큰 도움이 되고 있다"고 말했다. 현장을 운영한 황민영 셀렉트스타 부대표는 "글로벌 기업 업계 실무자들이 대거 참여하고, 수많은 인파가 몰리는 것을 보며 AI 신뢰성 검증에 대한 산업계의 니즈를 체감했다"며 "본 챌린지를 단발성 이벤트로 그치지 않고, 실제 서비스 환경에서 적용 가능한 AI 신뢰성 검증 프레임워크로 고도화하겠다"고 말했다.

2026.03.05 15:27이나연 기자

'메이플 키우기' 신뢰 회복 총력전 통했다…매출 1위 굳건·IP 확장 박차

넥슨의 방치형 게임 '메이플 키우기'가 확률 오류 논란 이후 이용자 신뢰 회복에 방점을 찍으며 굳건하게 양대 마켓 매출 1위를 지키고 있다. 전액 환불과 경영진 교체라는 전례 없는 초강수 대처가 이용자들의 민심을 돌리는 데 성공했다는 평가다. 4일 모바일인덱스에 따르면 '메이플 키우기'는 지난 1월 말 잠수함 패치 사태가 발생한 직후에도 꾸준히 앱 마켓 매출 최상위권을 유지했다. 구글 플레이스토어 기준 2월 중순 매출 2위, 21일경 3위까지 순위가 소폭 하락하기도 했으나, 지난 25일부터는 다시 1위로 올라선 뒤 줄곧 선두를 수성 중이다. 애플 앱스토어 기준으로는 같은 기간 2위까지만 하락했으며, 줄곧 매출 1위를 유지하고 있다. 커뮤니티 내 긍정적인 반응이 집계되는 등 실제 매출 지표 역시 큰 타격 없이 방어에 성공한 모습이다. 이번 사태의 발단은 지난해 12월 게임 내 확률 오류가 발견됐음에도 담당 책임자가 이용자 고지 없이 이를 몰래 수정하는 이른바 '잠수함 패치'를 단행한 사실이 뒤늦게 밝혀지면서 시작됐다. 여기에 어빌리티 코드 오류, 캐릭터 공격 속도 성능 미반영, 유료 아이템 확률 공시 미이행 등 각종 논란이 겹치며 이용자들의 거센 항의를 받았고 공정거래위원회의 현장 조사까지 이어지는 등 큰 위기를 맞은 바 있다. 하지만 넥슨의 뼈를 깎는 수습 과정이 반등의 원동력으로 작용했다. 넥슨은 지난해 11월 6일 서비스 개시 시점부터 올해 1월 28일 공지 시점까지 결제된 모든 금액에 대해 조건 없는 전액 환불을 단행했다. 관련 업계는 해당 기간의 매출 규모를 약 1500억원에서 2000억원 사이로 추산하고 있다. 강대현 넥슨코리아 공동대표가 직접 메이플본부장을 겸임하며 운영 전반을 쇄신한 것도 주효했다. 넥슨은 관리 책임을 물어 기존 본부장 등 일부 직책자를 보직 해임하고, 공격 속도 표기 오류 관련 보상을 기존의 2배(미라클 큐브 6%, 에디셔널 큐브 6%, 명예의 훈장 12%)로 상향 지급하는 등 과감하고 투명한 조치를 취했다. 넥슨은 대표 IP인 '메이플스토리'의 오프라인 팬덤 확장에도 대대적으로 힘을 싣고 있다. 이용자들을 위한 다채로운 행사로 IP 영향력을 넓히고 있으며, 지난해에는 강남역 인근에 상설 PC방인 '메이플 아지트'를 상시 오픈 형태로 마련해 소통 창구를 확대했다. 오는 4월에는 롯데월드 어드벤처 야외 구역인 매직아일랜드 내 약 600평 규모의 공간을 꾸민 '메이플 아일랜드' 정식 개장을 앞두고 있다. 패밀리 롤러코스터 등 신규 어트랙션 3종과 특별한 상품을 만나볼 수 있는 기프트샵, 식음료 매장, 포토존 등을 선보일 예정이다. 이에 앞서 이달 14일부터 6월 14일까지는 대규모 봄 시즌 축제인 '메이플 스토리 인 롯데월드'를 진행해 이용자 접점을 한층 더 강화할 계획이다.

2026.03.04 10:48정진성 기자

단순 점수보다 기업 맞춤형···셀렉트스타, AI 신뢰성 해법 전한다

셀렉트스타가 거대언어모델(LLM) 기반 서비스의 실제 성능과 신뢰성을 정교하게 측정하려는 기업들을 위해 실무적인 검증 기준을 제시한다. 셀렉트스타는 다음 달 5일 오후 2시 '커스텀 평가 체계로 LLM 서비스 평가 기준 만들기'를 주제로 무료 웨비나를 개최한다고 27일 밝혔다. 이번 행사는 벤치마크 점수와 실제 서비스 위험 간의 괴리를 좁히고, 기업이 AI 서비스를 안심하고 출시할 수 있도록 돕는 의사결정 프레임워크를 공유하는 자리다. 웨비나에선 ▲LLM 판사 기반 평가 ▲정량·정성·혼합 평가 방법론 등 최신 트렌드를 소개하고 수작업 중심 평가를 자동화해 리소스를 효율화하는 전략을 다룬다. 특히 기업 내부 거버넌스 체계에 맞춘 서비스 출시 기준 설정법과 실제 기업들 운영 사례를 공개할 예정이다. 셀렉트스타는 국내 최초 AI 신뢰성 평가 자동화 플랫폼인 '다투모 플랫폼'을 활용해 평가 프로세스를 체계화한 사례도 소개한다. 이찬수 셀렉트스타 사업개발팀장은 "많은 기업이 LLM을 도입하면서도 정작 서비스 목적에 맞는 명확한 평가 기준을 세우는 데 어려움을 겪는다"며 "이번 웨비나를 통해 데이터 기반으로 AI 서비스 출시 여부를 판단할 수 있는 지표를 마련하길 기대한다"고 말했다.

2026.02.27 14:45이나연 기자

무하유, 김경수 신임 CPO 선임…근거 제시하는 AI 만든다

무하유가 철학적 통찰력을 갖춘 제품 전략 전문가를 영입해 인공지능(AI) 의사결정의 신뢰성을 확보하는 '설명하는 AI' 브랜드 구축에 나선다. 무하유는 김경수 최고제품책임자(CPO)를 영입했다고 24일 밝혔다. 김 CPO는 SK커뮤니케이션즈에서 네이트온과 싸이월드 등 플랫폼을 기획·운영한 비즈니스 전략 전문가다. 앞서 서울대학교 철학과를 졸업하고 동 대학원 인지과학 석사 학위를 취득했다. 무하유는 김 CPO 영입을 계기로 AI 결과에 근거를 부여하는 제품 전략을 강화할 계획이다. 15년간 축적한 데이터와 AI 자산을 활용해 조직 의사결정 구조를 인공지능 전환(AX)하겠다는 목표다. 무하유는 올해 프로덕트 로드맵의 핵심으로 '설명하는 AI' 브랜드도 제시했다. 이를 위해 서비스별로 분리된 결과물을 하나의 흐름으로 연결한 통합 결과 리포트를 제공한다. 사용자가 결과를 보고 즉시 다음 행동을 결정할 수 있는 의사결정 지원 플랫폼을 완성할 계획이다. 문서 표절검사 서비스 '카피킬러'와 AI 생성 검사 솔루션 'GPT킬러'는 확률과 설명을 분리 제시해 사용자가 책임 있게 판단할 수 있도록 근거 데이터를 제공한다. AI 서류평가 서비스 '프리즘'은 AI 판단 근거를 법적·윤리적 신뢰 수준까지 끌어올려 선발의 정당성을 확보하는 평가 구조를 제시한다. AI 면접 서비스 '몬스터'는 단순 점수 나열이 아닌 행동에서 역량으로 이어지는 판단 논리를 제공한다. 면접 현장에서 즉시 활용 가능한 해석 가이드를 지원한다. 교육 분야에선 몬스터 구술평가 기능을 통해 AI 시대의 새로운 학습 대안을 제시할 계획이다. AI 생성 검사 기능으로 AI 과제 제출에 대한 1차 방어선을 구축하고, 구술평가로 학습 과정과 이해도를 직접 검증할 환경을 제공한다. 신동호 무하유 대표는 "김 CPO는 지능의 본질을 고민한 철학적 배경과 실무 경험을 모두 갖춘 인재"라며 "AI 의사결정의 신뢰를 확보하는 AX 인프라를 구축할 것"이라고 강조했다.

2026.02.24 14:13이나연 기자

KTR, 차세대 모빌리티 신뢰성 확보 나선다

KTR(한국화학융합시험연구원·원장 김현철)이 자율주행차·소프트웨어중심차량(SDV) 등 차세대 모빌리티 신뢰성 확보를 위한 자동차 소프트웨어 시험평가 체계 구축에 본격 나선다. KTR은 한국자율주행산업협회·슈어소프트테크와 '차세대 모빌리티 신뢰성 확보를 위한 국제표준 기반의 네트워크 적합성 평가기술 시험장비 개발 사업' 공동수행을 위한 업무협약을 체결했다고 밝혔다. 이 사업은 산업통상부의 국제표준 기반 시험장비 기술개발 및 고도화 지원사업의 일환으로 추진된다. 협약에 따라 세 기관은 인공지능(AI)·네트워크 등 차세대 모빌리티 소프트웨어 분야 시험장비 개발과 국산화를 위한 협력사업을 수행한다. KTR은 현재 수입 장비로만 평가해 오던 자동차 네트워크 분야 적합성 평가 장비 개발·상용화를 추진한다. 또 AUTOSAR SecOC 적합성 평가 기능을 적용, 평가범위를 사이버보안까지 확장할 계획이다. 국산화를 추진하는 해당 자동차 네트워크 적합성 평가 장비는 ▲A-Ethernet ▲CAN ▲CAN-FD ▲FlexRay 등이다. 지금까지 관련 업계에서는 완성차 기업 납품을 위해 필수적인 적합성 평가와 기술보고서 작성 부담을 덜기 위해 국산 네트워크 평가 장비 개발 필요성을 지속적으로 제기해 왔다. KTR은 협약 체결 기관들과 모빌리티 및 자율주행 분야 ▲시험 인증 기술서비스 지원 체계 구축 ▲국가 R&D 사업 기획 및 추진 ▲세미나 개최 및 기업 지원 서비스 발굴 등도 공동 수행한다. KTR은 슈어소프트테크와 최신 자동차 네트워크 및 보안 표준을 반영한 평가기술을 공동 개발하고, 자율주행산업협회와는 자동차 기능안전, 소프트웨어 기반구축 과제도 공동 추진하기로 했다. 김현철 KTR 원장은 “자율주행차 등 차세대 자동차산업 경쟁력 확보를 위해서는 차세대 모빌리티 평가장비 국산화 및 신뢰성 제고가 필수적”이라며 “KTR은 소프트웨어와 하드웨어를 망라하는 AI 시험평가 인프라와 국제표준에 부합하는 소프트웨어 시험인증 서비스 노하우를 활용해 차세대 모빌리티 산업 경쟁력 강화에 더욱 기여할 것”이라고 밝혔다.

2026.02.18 22:47주문정 기자

'디지털 트러스트' 글로벌 빅테크 뭉쳤다...한화 참여

글로벌 빅테크 기업이 모여 기술에 대한 글로벌 신뢰를 강화하고 책임 있는 혁신을 지원하기 위한 '신뢰할 수 있는 기술 얼라이언스(Trusted Tech Alliance, TTA)'를 출범시켰다. 16일(현지시간) 모바일월드라이브에 따르면 에릭슨, 노키아, 마이크로소프트, 구글, 아마존웹서비스 등 15개 주요 빅테크가 모여 TTA를 출범하면서 투명성, 보안, 데이터 보호에 대한 공동의 약속을 마련했다. 얼라이언스는 디지털 기술에 대한 우려가 증가하는 가운데 혁신의 빠른 속도, 회복력을 갖추고 신뢰할 수 있는 글로벌 인프라 필요성에 대응하는 것을 목표로 삼았다. 인도의 릴라이언스지오, 일본의 NTT도코모와 같은 통신사도 얼라이언스에 참여했고 SAP, 앤트로픽, 코히어, 엔스케일 등 AI 소프트웨어 관련 기업도 이름을 올렸다. 국내 기업으로는 한화가 참여해 눈길을 끈다. TTA의 다섯 가지 창립 원칙은 ▲투명한 기업 지배구조와 윤리적 행동 ▲운영의 투명성, 안전한 개발과 독립적 평가 ▲강력한 공급망과 보안 감독 ▲개방적이고 협력적이며 포용적이고 회복력 있는 디지털 생태계 ▲법치주의와 데이터 보호에 대한 존중 등이다. 보르예 에크홀름 에릭슨 CEO는 “어느 한 기업이나 국가도 단독으로 안전하고 신뢰할 수 있는 디지털 스택을 구축할 수 없다”며 “신뢰와 보안은 함께할 때만 달성될 수 있다”고 말했다. 브래드 스미스 마이크로소프트 사장은 “현재의 지정학적 환경에서, 뜻을 같이하는 기업들이 함께 협력해 보안을 보호하고 높은 글로벌 기준을 발전시켜 국경을 넘어 기술에 대한 신뢰를 유지하는 것이 매우 중요하다”고 강조했다. 김동관 한화그룹 부회장은 “신뢰는 기술이 사회의 가장 시급한 과제를 해결하도록 발전시키는 데 핵심적인 역할을 할 것”이라며 “에너지 안보와 주권 방위에서부터 첨단 제조에 이르기까지 우리는 신뢰받는 생태계가 사회를 보호하고 산업을 강화하며 미래의 회복력을 이끄는 핵심이라고 믿는다”고 밝혔다.

2026.02.16 17:31박수형 기자

씽크포비엘 "AI법 해석 인력 부족…신뢰성 전문가 필수 시대"

"인공지능(AI) 신뢰성은 막연한 도덕적 선언이 아닌 철저히 계산된 기술적 설계가 필요한 분야입니다. 기업은 어떤 근거로 기술적 판단을 내렸는지, 어떤 책임을 어떻게 질 것인지 설명할 줄 알아야 합니다. AI 신뢰성은 시장에 참여하기 위한 최소 자격 조건이 될 것입니다." 박지환 씽크포비엘 대표는 최근 지디넷코리아를 만나 "AI와 착하게 살자는 식의 감성적인 윤리적 접근으로는 실질적인 AI 위험을 통제할 수 없다"며 AI 신뢰성 패러다임 변화 필요성을 이같이 강조했다. 그는 "AI 신뢰성이란 기술을 설명하고 증명하며 책임질 수 있는 상태"로 정의했다. 박 대표는 AI 신뢰성 논의가 오랫동안 '윤리적인 AI' 또는 '신뢰할 수 있는 AI'라는 구호 수준에 머물렀다고 지적했다. 어디서 위험이 감지되고, 누가 멈추고, 누가 책임지는지는 거의 다뤄지지 않았다는 설명이다. 그는 이같은 공백을 메우기 위해 국내에서 처음으로 AI 신뢰성 민간 자격 'CTAP(Certified Trustworthy AI Professional)'를 설계했다고 밝혔다. CTAP 시험은 AI가 법적 준거성과 기술적 견고성을 동시에 갖췄음을 기술적으로 설명할 수 있는 전문가를 양성하는 것이 목적이다. 실제 CTAP는 AI 윤리에 대한 감각이나 가치 판단을 묻지 않는 것으로 알려졌다. AI 위험을 어떻게 식별하는지, 설명 가능성을 오해 없이 구현할 수 있는지, 운영 단계에서 신뢰가 무너질 때 어떤 기술적 판단을 내릴 것인지를 철저히 기술적으로 묻는 시험이다. 박 대표는 CTAP를 통해 AI 기술 심판자 역량을 가려내는 것이 목표라고 밝혔다. 그는 "어떤 기술이든 사회에 나오기 위해 충족해야 할 최소한의 규칙을 알고 있는지를 평가하는 것"이라고 밝혔다. CTAP 자격 체계는 두 가지로 구성됐다. 입문 단계인 FL(Foundation Level)은 실무 경험이 없더라도 응시할 수 있다. AI 신뢰성 개념을 오해하지 않고, 위험을 인식할 수 있으며, 개발자·기획자·법무·운영 담당자와 논의할 수 있는 수준이다. AL(Advanced Level)은 AI 신뢰성을 설계, 적용, 판단하는 책임을 갖추는 수준이다. FL 취득 후 최소 1년 이상 실무 경험이 필수다. 개발·기획·운영·공공 등 역할별·산업별로 전문화된 트랙으로 세분됐다. 자격 유효기간은 3년이다. 갱신 시 실무 수행 여부를 엄격히 따진다. 실제 현장에서 위험을 판단하고, 설명하고, 통제하는 역할을 수행하고 있다면 별도 재시험 없이 자격을 유지할 수 있다. AI기본법 시행됐지만…기준 설명·책임질 사람 없다 박 대표는 국내 AI기본법이 시행됐지만 법 기준을 기술적으로 해석할 인력이 부족하다는 점을 우려했다. 그는 "국내 AI기본법은 단순히 기업에 선의나 도덕성을 요구하지 않는다"며 "기업이 어떤 근거로 기술적 판단을 내렸는지 설명·책임을 요구한다"고 설명했다. 이어 "이를 수행할 인력이 없다면 현장에서 혼선을 빚을 수 있다"고 봤다. 박 대표가 이 상황에서 가장 우려하는 지점은 '형식주의 득세'다. 기업이 실제 위험을 관리하기보다 법에 따라 체크리스트를 채우고 문서를 갖추는 데만 급급한 신뢰성 흉내가 제도적으로 양산될 수 있다는 지적이다. 그는 "AI법은 사고 발생 시 기업을 보호하지도, 산업 안전을 담보하지도 못하는 허울뿐인 장치가 될 위험이 크다"고 말했다. 또 다른 우려는 '책임 공백'이다. 기술적 위험을 판단할 주체가 없다 보니, 의사결정이 한없이 위로 밀려 올라가거나 아무도 책임지지 않은 채 방치되는 현상이 나타난다는 설명이다. 박 대표는 "결과적으로 기업은 위축되고 산업 전체 속도는 떨어진다"며 "AI 윤리를 지켰다는 선언적 표현은 늘어나겠지만 판단 근거를 설명할 수 있는 사람이 없다면 결국 시장과 파트너로부터 외면받게 될 것"이라고 짚었다. 박 대표는 국내 AI 신뢰성 인재 생태계와 해외 생태계를 비교해 예시를 들었다. 박 대표는 "해외 주요국은 석·박사 과정에 AI 신뢰성과 거버넌스를 필수 커리큘럼으로 편입해 전문 인력을 양성해 왔다"며 "지식 체계를 정립하고 강사를 육성하는 데 최소 3년이 걸린다는 점을 고려하면, 관련 교육 기반이 부족한 한국은 사실상 4년 가까이 뒤처진 상태"라고 지적했다. "글로벌서 통용되는 AI 신뢰 전문가 양성할 것" 박 대표는 CTAP 기준을 글로벌 표준으로 만들겠다고 포부를 밝혔다. 실제 씽크포비엘은 CTAP 'AI 신뢰성 역량 평가 모델' 초안을 지난 10월 국제표준화기구(ISO)와 국제전기기술위원회(IEC) 등에서 공개한 바 있다. 현재 로드매핑 단계로 진입한 상태다. 그는 "이르면 내년 신규 표준 프로젝트로 제안될 가능성이 높다"고 말했다. 박 대표는 CTAP 중립성을 위해 국제 표준화는 반드시 추진돼야 한다고 주장했다. 그는 "국제 표준은 한 연구자나 한 기업 관점이 아니다"며 "각국 정부, 산업계, 학계, 규제 기관이 참여해 이해관계 충돌을 조정하고 합의를 거쳐 형성된다"고 설명했다. 이어 "표준은 단순히 기술 우수성을 알리는 문서가 아니다"며 "어떤 기술이라도 사회에 나오려면 최소한 이것은 충족해야 한다는 공통 규칙에 가깝다"고 덧붙였다. 박 대표는 국제 표준화가 AI 신뢰성 필수 요소라고 강조했다. 박 대표는 "사고가 발생했을 때 법적·사회적 책임이 수반되는 영역에서는 논문 몇 편이 아니라 어떤 국제적 기준에 근거해 판단했는가가 훨씬 중요해지는 상황"이라며 "규제, 감사, 분쟁, 정책 설계 현장에서는 논문보다 표준이 인용되고, 표준이 사실상 판단 기준선으로 작동한다"고 설명했다. 박 대표는 향후 기업에서도 AI 신뢰성은 선택 사항이 아니라 시장에 참여하기 위한 최소 자격 조건이 될 것으로 내다봤다. AI 시장이 성숙해질수록 "이 기술은 누가 책임지는가" "어떤 기준으로 허용됐는가" "사고 발생 시 누가 멈출 수 있는가" 같은 거버넌스 체계를 갖추는 것이 필수적이라는 이유에서다. 박 대표는 "전담 실무자 없는 조직은 이같은 질문에 답할 수 없다"며 "결국 고객과 파트너로부터 신뢰를 잃어 시장에서 스스로를 방어할 수 없는 고립 상태에 놓일 것"이라고 전망했다. 그는 기업이 AI 신뢰성 확보 패러다임을 바꿔야 한다고 주장했다. 그는 신뢰성 확보 첫 단계는 무엇을 금지할 것인가를 고민하는 것이 아니라 어떤 AI를 책임질 준비가 됐는지를 정책적으로 먼저 고려하는 것이라고 강조했다. 박 대표는 "정책적 토대 위에서 위험 요소를 차분히 관리해 나갈 때 신뢰성은 성장 발목을 잡는 족쇄가 아니라 불필요한 사고 비용을 줄이고 산업 안전성을 확보하는 합리적이고 전략적인 기반이 될 것"이라고 말했다.

2026.02.16 12:23김미정 기자

[유미's 픽] 공공 AX 확대 속 AI 프라이버시 정책 '운영 단계'로…업계 부담 커진다

국내 인공지능(AI)·소프트웨어 업계가 개인정보 보호 대응을 기술 개발의 부수 요소가 아닌 핵심 경쟁력으로 재정립해야 할 것으로 보인다. 생성형 AI를 넘어 에이전트 AI, 피지컬 AI 등 차세대 기술이 서비스 현장에 빠르게 적용되면서 개인정보 리스크가 단순 유출 방지를 넘어 서비스 구조 전반의 신뢰 문제로 확산되자 정부가 정책 정비에 나섰기 때문이다. 4일 개인정보보호위원회가 발표한 '2026 AI 프라이버시 민관 정책협의회 운영 방향'에 따르면, 정부는 AI 확산으로 개인정보 리스크가 기존 유출·노출 중심에서 민감정보 추론, 딥페이크 악용, 프로파일링 등 새로운 형태로 확대되고 있다고 진단했다. 정책 논의의 초점도 모델 학습 단계에서 벗어나 에이전트 AI·피지컬 AI 등 서비스 운영 단계에서 발생할 수 있는 위험 대응으로 전환했다. 이에 맞춰 협의회는 데이터 처리기준, 리스크 관리, 정보주체 권리 등 3개 분과 체계로 운영한다. 또 '에이전트 AI 개인정보 처리기준' 마련(6월)과 AI 프라이버시 레드팀 방법론 연구를 추진할 계획이다. 여기에 자동화된 결정 대응 등 이용자 권리 보장 방안과 올해 3월께 'AI 이용 개인정보 보호수칙'도 제시할 예정이다. 향후에는 AI 정책 수립 과정에서 민관 의견을 폭넓게 수렴하고 부처 간 정책 정합성을 확보하는 자문기구로 기능을 확대한다는 방침이다.특히 이번에 주목할 점은 협의회 논의 과제에 'AI 프라이버시 레드티밍(Red Teaming)' 방법론이 포함됐다는 점이다. 레드티밍은 공격자 관점에서 시스템의 취약점을 의도적으로 점검해 보안 허점을 찾아내는 방식으로, AI 서비스가 실제 운영 과정에서 맞닥뜨릴 수 있는 프라이버시 위협을 사전에 검증하는 절차로 활용될 수 있다. 이를 통해 기업들의 개인정보 보호 대응이 기존의 사후적·수동적 점검에서 벗어나 보다 공세적이고 예방적인 리스크 관리 체계로 전환될 가능성이 클 것으로 예상된다.셀렉트스타 관계자는 "매우 빠른 AI 발전이 실질적 확산으로 이어지기 위해서는 관련 규제 환경의 신속한 맞춤 변화가 중요하다"며 "정부가 민관 정책 협의회 등을 통해 민간과 적극적으로 소통해 AI 업계의 규제 불확실성을 최소화할 것으로 기대된다"고 말했다. 개보위의 이 같은 움직임에 AI 업계도 예의주시하고 있다. 정부의 규제 논의가 학습 데이터 적법성 중심에서 서비스 배포 이후의 운영 책임으로 이동하고 있다는 점에서 기업들은 향후 AI 서비스 전 과정에 대한 관리·감독 요구가 강화될 가능성에 주목하고 있다. 이 같은 변화는 에이전트 AI 확산과 맞물리면서 더욱 뚜렷해질 전망이다. 에이전트 AI는 사용자 대신 업무를 수행하며 다양한 데이터에 접근하고 서비스 간 상호작용을 통해 결과를 만들어내는 구조인 만큼, 개인정보 처리 책임의 경계가 더욱 복잡해질 수밖에 없다. 이에 따라 기업들은 서비스 설계 단계부터 데이터 처리 흐름과 사후 통제 체계를 함께 마련해야 하는 과제를 안게 됐다. 업계 관계자는 "그동안 기업들이 학습 데이터 적법성에 집중했다면, 앞으로는 서비스 운영 과정에서 AI가 어떤 데이터에 접근하고 어떤 결정을 내리는지가 규제의 핵심이 될 것"이라며 "에이전트 AI 확산은 프라이버시 컴플라이언스를 한 단계 끌어올리는 계기가 될 수 있다"고 말했다. 이러한 흐름은 민간 서비스뿐 아니라 공공 부문 AI 전환 확대와 맞물리며 업계 부담을 더욱 키우고 있다. 정부는 공공기관이 AI 신서비스를 기획하는 과정에서 개인정보 보호법 저촉 여부가 불확실한 경우가 많다는 점을 감안해 사전적정성 검토와 규제 샌드박스 지원을 병행할 계획이다. 정부의 공공 AX 예산은 2025년 5천억원에서 2026년 2조4천억원으로 5배 증가하며 33개 부처에서 206개 사업이 추진될 예정이다. 이에 공공 시장을 겨냥하는 소프트웨어 기업들 사이에서는 초기 설계 단계부터 프라이버시 보호 체계를 갖추지 않으면 사업 참여 자체가 어려워질 수 있다는 전망도 나온다. 업계 관계자는 "공공 AX 사업이 급증하면서 AI 적용은 필수가 됐지만, 개인정보 이슈가 정리되지 않으면 사업 추진 속도가 늦어질 수밖에 없다"며 "기업 입장에서는 보호설계(PbD)를 선제적으로 반영하는 것이 경쟁력이 될 것"이라고 말했다. 글로벌 규범 역시 에이전트 AI를 중심으로 빠르게 정비되는 추세다. 미국 NIST 산하 AI 표준 및 혁신센터(CAISI)는 AI 에이전트의 데이터 접근권한 최소화와 사후 통제권 확보를 위한 논의에 착수했다. 영국 정보위원회(ICO)는 에이전트 AI 발전 단계별 시나리오를 제시하며 규제 고도화에 나서고 있다. 싱가포르는 '에이전틱 AI 정부 프레임워크'를 마련했다. 이처럼 국제적으로 샌드박스형 사전 검증과 인간 개입 원칙이 핵심 규범으로 부상하면서 국내 기업들도 글로벌 기준에 맞춘 대응 전략이 불가피해지고 있다. 업계에선 이번 발표를 계기로 AI 서비스 기업들의 프라이버시 대응 부담이 운영 단계까지 확대될 것으로 보고 있다. 에이전트 AI 확산에 따라 관련 리스크 관리 체계 마련이 주요 과제로 떠오르고 있다는 분석이다. 업계 전문가는 "AI 경쟁이 고도화될수록 기업들은 성능뿐 아니라 '신뢰 가능한 운영 체계'를 갖춘 곳이 시장에서 살아남게 될 것"이라며 "프라이버시 대응 역량이 향후 국내외 사업 확장의 결정적 변수로 작용할 가능성이 높다"고 말했다.

2026.02.04 09:54장유미 기자

[현장] "성능·정확도 대신 책임·설명력 겨뤘다"…AI 기본법 시대, 해커톤의 진화

"이번 해커톤을 통해 인공지능(AI) 신뢰성은 문헌이나 이론 학습만으로 습득할 수 있는 영역이 아니라 실제 현장에서 판단과 설명, 책임 있는 선택이 병행될 때 체득된다는 게 입증됐습니다." 박지환 씽크포비엘 대표는 29일 서울 서초구 서울교육대학교에서 열린 '제1회 트라이톤' 시상식에서 이같이 말했다. 씽크포비엘과 신뢰할 수 있는 인공지능 국제연대(TRAIN)가 개최한 국내 첫 AI 신뢰성 해커톤은 AI 개발 절차 수행을 통해 내놓은 AI 신뢰성 입증 산출물을 평가해 순위를 가리는 대회다. 일반적인 AI 경연 대회가 모델의 성능과 정확도 향상에 집중했다면 트라이톤은 AI가 틀렸을 때의 설명 가능성과 책임 소재를 묻는다. 지난해 10월 오리엔테이션을 시작으로 4개월간 진행된 대회에는 전국 대학 45개 팀 192명이 참여했다. 예선을 거쳐 39팀(159명)이 본선에 진출했고 최종 28팀(117명)이 산출물을 제출했다. 씽크포비엘은 이번 대회 주제인 AI 신뢰성 기술이 기존 레드팀 중심 해커톤과 다르게 범위와 적용 기술에 차이가 있는 점을 고려했다. 참여자들의 이해를 돕기 위해 자체 개발 교육 서비스는 물론, 10년 이상 경력 전문 연구 인력과의 일대일 개별 멘토링을 제공했다. 이번 대회 멘토로 나선 천선일 씽크포비엘 연구소 수석매니저는 "최근 AI 기본법 시행 등 규제 환경 변화에 따라 모델이 단순히 정확한지를 넘어 '얼마나 믿고 쓸 수 있는가', '편향에서 얼마나 자유로운가'에 대한 질문이 중요해졌다"며 "그동안 피해 왔던 AI 신뢰성 관련 질문들을 수면 위로 끌어올리고자 했다"고 말했다. 천 매니저는 "참가자들이 현업에서도 다루기 힘든 신뢰성이라는 추상적인 주제를 구체적인 산출물로 구현하고 논리적으로 연결했다"고 덧붙였다. 이날 오후 진행된 시상식에서 최종 우승은 과학기술연합대학원대학교(UST)와 경북대학교 AI 전공 대학원생으로 구성된 'TLV 팀'(변재연·이제경·김보경)이 차지했다. 이 팀은 '가디언 AI(교육용 AI 안전성 평가 시스템)'을 개발하는 과정에서 AI 신뢰성 산출물을 만들었다. 이는 실제 서비스 환경을 가정한 구체적인 사례 설정과 충분한 근거 자료 기반 설계 구현, 일관되고 기술적 완성도가 높은 서비스 수준 달성 등에서 높은 평가를 받았다. 이어 '숨 쉰 채 발견' 팀(2위, 서울시립대 인공지능학과), '성·신의 한 수' 팀(3위, 성균관대 소프트웨어학과 및 성신여대 AI융합학부), 'SecurAI' 팀(4위, 경상국립대 AI정보공학과), '이닦조' 팀(5위, 가톨릭대 심리학과), 'GPS.dev' 팀(6위, 성균관대 지능형소프트웨어학과)이 순위별로 상패와 상금을 받았다. 상금은 최대 420만100원에서 최소 52만5천900원이다. 이 금액들은 AI 신뢰성 관련 국제 표준 번호를 상징한다. 입상 참가자들은 국내 정보기술(IT) 기업에서 정식 채용이 연계되는 인턴십 기회도 얻는다. 씽크포비엘은 소정의 교육 과정을 이수한 참여자에게 'AI 신뢰성 전문가 민간자격(CTAP)' 응시 기회도 부여했다. 지난 11일 서울·부산·광주·청주 등 4개 지역에서 치러진 제1회 시험에는 대회 참여자 40명이 합격했다. 씽크포비엘은 이번 대회가 공공의 관심과 지원으로 가능했다고 강조했다. 한국지능정보사회진흥원(NIA)은 'AI 허브' 학습용 데이터를 개방했고, 한국산업기술시험원(KTL)은 AI 신뢰성 산출물을 도출·검증할 수 있도록 그래픽처리장치(GPU) 컴퓨팅 자원을 무상 지원했다. 권종원 KTL 센터장은 축사에서 "정답이 없는 AI 신뢰성 확보를 위해 다양한 지식을 가진 인재들의 조화가 필수적"이라며 "신뢰성은 성능뿐만 아니라 다양한 분야를 다루기에 서로 다른 특성과 지식을 가진 분들의 '오케스트레이션'이 중요하다"라고 말했다. 박 대표는 "지금까지 AI를 더 정확하고 효율적으로 만드는 데 집중했다면, AI가 동작하지 않도록 멈추게 하거나 양보하게 하는 방법을 가르치고 기준을 설계하며 관리하는 역할이 더 중요해질 것"이라고 내다봤다.

2026.01.29 15:22이나연 기자

'몸값 1340억 달러' 데이터브릭스, 올해 승부수는 에이전트 AI·차세대 DB

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 데이터브릭스가 올해 인공지능(AI) 에이전트 품질 관리 서비스와 차세대 데이터 플랫폼으로 시장 공략에 나선다. 단순히 AI 모델을 구축하는 속도 경쟁에서 벗어나 AI 신뢰성 강화로 현장 불확실성을 제거하겠다는 포부다. 데이터브릭스는 올해 '에이전트 브릭스'와 '레이크베이스'를 핵심 주력 사업으로 제시했다고 밝혔다. 이를 통해 기업이 AI 에이전트를 더 빠르고 안정적으로 구축·배포할 수 있는 환경을 지원할 계획이다. 에이전트 브릭스는 기업 데이터로 고품질 에이전트를 설계·확장할 수 있게 지원하는 AI 서비스다. 업무 현장에서 반복적으로 발생하는 정확성, 품질 문제를 해결하는 데 초점 맞췄다. 해당 서비스는 작업별 맞춤형 평가 체계와 거대언어모델(LLM) 기반 자동 평가 기능을 갖췄다. 이를 통해 AI 에이전트 품질을 체계적으로 측정한다. 단순 응답 품질을 넘어 정확성을 비롯한 일관성, 재현성 등 작업 환경서 요구되는 기준 중심으로 성능을 검증하는 식이다. 에이전트 학습 과정서는 합성 데이터를 생성해 실제 데이터만으로 확보하기 어려운 오류 상황과 케이스까지 보완한다. 또 고객이 에이전트 성능 수준과 운영 비용 간 균형을 고려해 최적의 지점을 선택할 수 있도록 설계됐다. 고품질을 우선할지, 비용 효율성을 중시할지에 따라 에이전트 운영 전략을 조정할 수 있는 셈이다. 데이터브릭스는 에이전트 브릭스에 내장된 도메인 특화 벤치마크와 피드백 루프가 배포 판단 핵심 기준으로 작동한다고 강조했다. 산업·업무별 성능을 반복 검증하고 개선 결과를 다시 반영하는 구조를 통해 기업이 신뢰를 갖고 에이전트를 배포할 수 있는 근거를 제공하는 식이다. 지난해 에이전트 브릭스를 통한 고객 사례도 나왔다. 아스트라제네카는 에이전트 브릭스로 40만 건 넘는 임상 시험 문서를 분석하고 구조화된 데이터 포인트를 추출했다. 별도 코드 작성 없이 60분 내 비정형 데이터를 분석 가능한 형태로 전환할 수 있었다. 아디다스는 150개국 이상에서 수집된 200만 건 넘는 제품 리뷰를 실시간 인사이트로 전환했다. 비기술 조직도 챗봇을 통해 즉각적인 분석 결과에 접근하며 의사결정 속도를 높였다는 평가를 받기도 했다. 데이터브릭스는 해당 서비스로 기업 에이전트 상용화 장벽을 허물 방침이다. 크레이그 와일리 데이터브릭스 AI 제품 총괄은 "여전히 많은 기업이 AI 에이전트를 실제 비즈니스에 활용하지 못한다"며 "기업이 AI 기술을 제대로 평가·개선하지 못한 탓"이라고 지난 10월 미국 샌프란시스코 본사에서 지디넷코리아를 만나 이같이 밝혔다. 이어 "시스템 내 성능과 데이터 품질을 지속 확인하고 피드백을 반영해 성능을 개선하지 못했기 때문"이라고 설명했다. 와일리 총괄은 AI 품질 평가가 일반 소프트웨어(SW)를 테스트하는 방식과 다르다고 봤다. 일반 SW와 달리 AI는 같은 명령어에도 맥락에 따라 다른 결과를 내놓는다는 이유에서다. 이에 일반 SW처럼 '얼마나 잘 작동하는가'를 객관적으로 평가할 수 없다고 말했다. 와일리 총괄은 "AI는 논리적으로 틀리지 않아도 맥락을 놓치거나 사용자가 설정한 방식으로만 답하는 경우가 다수"라며 "이런 품질을 수치로 정의하거나 일관되게 측정하기 매우 복잡하다"고 설명했다. 그는 "앞으로 엔터프라이즈 환경은 AI 개발에서 평가 중심으로 이동할 것"이라며 "AI 신뢰성과 품질을 동시에 높이는 우리 철학을 에이전트 브릭스에 넣었다"고 말했다. "레이크베이스, AI 시대 데이터 처리 툭화" 데이터브릭스는 AI 에이전트 확산에 따른 데이터 처리 구조 변화를 반영해 레이크베이스 플랫폼 고도화에도 힘쓸 계획이다. 레이크베이스는 '데이터브릭스 데이터 인텔리전스' 플랫폼과 통합된 트랜잭션 처리 엔진이다. 별도 관리가 필요 없는 완전 관리형 포스트그레스로 설계됐다. 이 서비스는 데이터 스토리지와 컴퓨팅을 분리한 구조로 이뤄졌다. 이에 추가 설정 없이 빠른 데이터 처리 속도와 낮은 지연 시간을 제공할 수 있다. 트랜잭션 데이터를 별도 추출·전환·적재(ETL) 과정 없이 분석과 AI 환경에 바로 활용할 수 있도록 설계됐다. 데이터브릭스는 AI 에이전트 확산으로 트랜잭션 데이터 생성량이 급증하고 있다고 봤다. 최근 인수한 네온 분석 보고서에 따르면 새로 생성된 데이터베이스(DB) 80% 이상이 AI 에이전트로 만들어진 것으로 나타났다. 데이터브릭스는 "전통적인 온라인 트랜잭션 처리(OLTP) DB는 수십 년 된 아키텍처 위에서 구동돼 관리가 어렵고 비용이 많이 든다"며 "벤더 락인에도 취약하다"고 지적했다. 이어 "에이전트와 앱, 워크플로는 빠르고 신뢰할 수 있는 데이터를 필요로 한다"며 "우리는 레이크베이스를 통해 AI를 위한 트랜젝션 DB를 재창조할 것"이라고 자신했다.

2026.01.26 14:55김미정 기자

전기차 배터리 성능 예측 AI모델 개발…정확도 86.6%

전기차 배터리 성능을 예측하는 인공지능(AI) 모델이 개발됐다. KAIST는 신소재공학과 홍승범 교수팀이 조은애 교수팀과 공동으로 실험 데이터가 불완전한 상황에서도 배터리 양극재 입자 크기를 예측하고, 신뢰도까지 계산할 수 있는 머신러닝 프레임워크를 개발했다고 26일 밝혔다. 배터리 내부 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 배터리 내부의 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 입자가 지나치게 크면 성능이 저하되고, 반대로 너무 작으면 안정성에 문제가 생긴다. 이 때문에 기존에는 입자 크기를 파악하기 위해 소결 온도와 시간, 재료 조성 등을 바꿔가며 수많은 실험을 반복했다. 그러나 실제 연구 현장에서는 모든 조건을 빠짐없이 측정하기 어렵고, 실험 데이터가 누락되는 경우도 잦아 공정 조건과 입자 크기 간 관계를 정밀하게 분석하는 데 한계가 있었다. 연구팀은 이러한 문제를 해결하기 위해 누락된 데이터는 보완하고, 예측 결과를 신뢰도와 함께 제시하는 AI 프레임워크를 설계했다. 화학적 특성을 고려해 빠진 실험 데이터를 보완하는 기술(MatImpute)과, 예측 불확실성을 함께 계산하는 확률적 머신러닝 모델(NGBoost)을 결합했다. 이 AI 모델은 단순히 입자 크기를 예측하는 데 그치지 않고, 해당 예측을 어느 정도까지 신뢰할 수 있는 지에 대한 정보까지 함께 제공한다. 이는 실제로 어떤 조건에서 재료를 합성할지 결정하는 데 중요한 기준이 된다. 실험 데이터를 확장해 학습한 결과, AI 모델은 86.6%의 높은 예측 정확도를 나타냈다. 분석 결과, 양극재 입자 크기는 재료 성분보다도 굽는 온도와 시간 같은 공정 조건의 영향을 더 크게 받는 것으로 나타났다. 연구진은 AI 예측의 신뢰성을 검증하기 위해, 금속 성분 비율은 동일한 조성(NCM811(Ni 80% / Co 10% / Mn 10%)) 조성을 유지하되 기존 데이터에 포함되지 않은 제조 조건으로 합성한 양극재 시료 4종을 새롭게 제작해 실험을 진행했다. 그 결과, AI가 예측한 입자 크기는 실제 현미경 측정 결과와 거의 일치했다. 오차는 대부분 머리카락 두께보다 훨씬 작은 0.13마이크로미터(μm) 이하로 나타났다. 특히 AI가 함께 제시한 예측 불확실성 범위 안에 실제 실험 결과가 포함돼, 예측값뿐 아니라 그 신뢰도 역시 타당함이 확인됐다. 홍승범 교수는 “AI가 예측값뿐 아니라 그 결과를 얼마나 신뢰할 수 있는지까지 함께 제시한다는 점이 핵심”이라며, “차세대 배터리 소재를 보다 빠르고 효율적으로 설계하는 데 실질적인 도움이 될 것”이라고 말했다. 연구는 신소재공학과 벤 마디카(Benediktus Madika) 박사과정 연구원이 제1저자로 참여했다. 연구결과는 신소재·화학공학 분야 국제적 학술지인 '어드밴스드 사이언스(Advanced Science)'에 지난해 10월 8일자로 게재됐다.

2026.01.26 10:12박희범 기자

[현장] AI 신뢰성, 이제 자격증 시대…국내 첫 민간 전문가 시험장 가보니

"본 시험에 들어가기 앞서 오는 22일부터 시행되는 '인공지능(AI) 기본법'에 대해 잠시 설명드리겠습니다. 오늘 여러분이 치르는 자격 시험의 의미와 역할을 이해하는 시간이 되길 바랍니다." 11일 오후 찾은 서울 서초구 서울교육대학교 인문관 강의실. 한파특보가 내려진 주말이지만 30여 명의 사람들로 북적이는 교실이 있었다. 바로 국내 최초의 'AI 신뢰성 전문가(CTAP)' 시험장이다. 씽크포비엘이 주관하는 이번 제1회 CTAP 자격시험에는 AI 신뢰성 해커톤 '트라이톤' 참가자를 포함해 총 50여 명이 응시했다. 이날 시험은 서울교육대학교를 비롯해 부산 동의대학교, 광주 야생양봉원, 청주 충북대학교에서 동시에 진행됐다. CTAP는 총 45문항 객관식으로 구성됐으며 합격 기준은 100점 만점 중 65점 이상이다. 시험 기획을 맡은 씽크포비엘 연구원은 90분간 진행되는 시험에 앞서 AI기본법을 소개하고 몇 가지 예시 문항을 제시했다. '규제와 혁신이 충돌하는 AI 거버넌스의 역설을 해소하기 위해 참고할 국제 표준은 무엇인가', 'AI 시스템을 개발 및 배포한 후에 지속 수행해야 하는 작업은 무엇인가' 등 구체적인 예제가 언급되자 응시자들은 이를 노트나 노트북 등에 필기하며 경청했다. 단순 AI 윤리 아닌 실무형 인재 발굴 집중 민간 자격 제도상 이번 파운데이션 레벨(FL) 시험은 단순히 윤리적 구호를 묻지 않는다. 대신 국제 표준과 규범에 따른 책임의 구조를 정확히 이해하고 있는지에 초점을 맞췄다. AI 시스템이 왜 위험한지 그 구조를 파악하고 통제할 수 있는 '심판'의 역량을 검증하는 것이 목적이다. 박지환 씽크포비엘 대표는 "FL은 아직 책임을 맡기는 단계가 아니라, AI 신뢰성에 대해 올바르게 이해하고 소통할 수 있는지를 검증한다"며 "어설픈 실무 경험이 잘못된 확신으로 이어지는 것을 차단하고, 무엇이 올바른 접근인지 정확한 기준을 제시하는 것"이라고 설명했다. 박 대표는 "CTAP의 변별력은 AI를 '잘 쓰는 사람'이 아니라, 문제가 발생했을 때 원인과 책임을 기술적으로 설명할 수 있는 사람을 가려내는 데 있다"며 "도덕적 담론이 아니라 이미 국제적으로 합의된 지식 체계를 정확히 이해하고 있는지를 검증하는 것"이라고 짚었다. "AI 신뢰는 감정이 아닌 구조"…전국 4개 도시 동시 시행 첫 시험이 서울, 부산, 광주, 청주 등 전국 4개 도시에서 동시에 열린 점도 눈길을 끈다. 이는 수도권 외 지역 응시생들의 접근성을 배려한 결정이다. 박 대표는 "트라이톤 참가 학생들에게 공평한 기회를 주기로 한 약속을 지키기 위한 선택"이라며 "학생들이 이동하는 불편 대신 심사원이 지역으로 이동하는 편이 인재 발굴 취지에 맞다고 판단했다"고 설명했다. 씽크포비엘은 이번 자격 제도를 통해 AI 신뢰성을 추상적인 미덕이 아닌, 작동하는 '거버넌스'의 문제로 전환한다는 목표다. 기획부터 배포, 운영까지 각 단계의 담당자가 무엇을 해야 하는지 구체적으로 정의된 구조가 갖춰졌을 때 비로소 사회적 신뢰가 가능하다는 이유에서다. CTAP 합격 시 부여되는 자격의 유효기간은 약 3년으로 설정됐다. 이후에는 보수 교육이나 갱신 과정 도입도 검토되고 있다. 피지컬 AI 시대, 신뢰성 전문가 수요 '급증' 전망 시험을 마친 응시생들은 한 달 내 합격 여부를 통보받게 된다. 합격자들은 향후 최소 1년 이상의 실무 경험을 거쳐, 주관식·사례 기반으로 고난도 판단 능력을 검증하는 어드밴스드 레벨(AL)에 도전할 수 있다. 씽크포비엘은 올해 하반기 글로벌 연합 국가들과 함께 국제 시험 시행을 추진하며 역량 평가 모델의 국제 표준화에 박차를 가할 계획이다. 박 대표는 "최근 산업계 시선은 생성형 AI를 넘어 로봇·자율주행 같은 피지컬 AI로 빠르게 이동하고 있다"며 "사람 개입 없이 물리적 행동이 이뤄지는 영역은 사고 발생 시 생명·안전으로 직결되기에 신뢰성 전문가가 필수"라고 강조했다. 이어 "해외는 이미 작년부터 피지컬 AI 확산을 전제로 신뢰성 전문가 육성을 시작했지만, 국내는 여전히 기술 확산 후 제도가 따라가는 패턴"이라며 "2~3년 뒤 수요가 급증할 것"이라고 전망했다. 실제로 씽크포비엘이 AI 신뢰성을 이해한 기업들을 대상으로 한 소규모 설문에서는 약 94%가 관련 전문가 영입 의사를 밝혔다. 트라이톤 상위 입상자에게 고용 연계 인턴십을 제안한 기업도 있는 것으로 조사됐다. 박 대표는 "AI 기본법 제정과 국제 규제 강화 흐름 속에서 AI는 더 이상 '잘 되면 쓰고, 문제 생기면 고치면 되는 기술'이 아니라 '왜 허용했는지 사전에 설명해야 하는 기술'이 됐다"며 "책임 역시 사후 변명이 아니라 사전 설계의 문제가 된 만큼, AI 엔지니어는 AI로 교체될 수 있어도 책임을 설계하고 검증하는 역할은 사라지지 않을 것"이라고 강조했다. 이어 "CTAP는 AI를 만드는 시대를 넘어 'AI를 책임져야 하는 시대'를 대비하는 정확한 이정표가 될 것"이라고 덧붙였다.

2026.01.11 16:07이나연 기자

"AI 신뢰성이 올해 기업 생존 결정"…셀렉트스타, 기술특례 IPO·흑자 위해 달린다

세계 최초 포괄적 인공지능(AI) 규제인 'AI 기본법'이 이달부터 시행되는 가운데, 셀렉트스타가 2026년을 'AI 신뢰성 비즈니스 성패 원년'으로 규정했다. 회사는 올해 기술특례 상장과 함께 글로벌 신뢰성 검증 표준 확립에 나설 전망이다. 김세엽 셀렉트스타 대표는 지난 7일 발표한 신년사에서 "기업들이 할루시네이션(환각)이나 데이터 보안 문제로 고민하는 모습을 보며 무거운 책임감을 느꼈다"며 "2026년은 AI 신뢰성이 비즈니스 성패를 가르는 원년이 될 것"이라고 밝혔다. 우리나라는 오는 22일부터 AI 규제와 진흥 내용을 담은 AI 기본법을 전면 시행한다. 특히 핵심 규제 대상인 고영향(고위험) AI에 대한 신뢰성 확보 조치가 의무화되면서 기업들은 법적·제도적 기준에 부합하는 검증 체계를 갖춰야 하는 상황이다. 김세엽 대표는 "AI 신뢰성을 단순히 몇 개 수치로 표현할 수 없다"며 "진정한 신뢰는 오류를 예측하고 위험을 통제할 수 있는 구체적인 안전성에서 나온다"고 강조했다. 올해 셀렉트스타는 '고품질 데이터'와 'AI 신뢰성 글로벌 표준'을 사업의 핵심 축으로 삼을 방침이다. 김 대표는 "우리 언어와 문화적 맥락을 정확히 이해하는 데이터로 국가 데이터 주권을 지키겠다"며 "국내를 넘어 세계 시장에서도 통용될 평가 기준을 확립하겠다"고 말했다. 이어 "복잡해지는 규제 환경 속에서도 기업 서비스가 흔들림 없이 글로벌 무대로 뻗어나갈 수 있도록 확실한 '품질 보증서'가 되겠다"고 덧붙였다. 셀렉트스타는 생성형 AI 신뢰성 검증 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 금융권과 공공기관의 AI 도입 장벽을 낮추고 있다. 다투모 이밸은 AI 서비스 운영 중 발생할 수 있는 오류와 위험성을 자동으로 검출해 모델 품질 개선 방향성을 제시한다. 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델' 개발 프로젝트에도 참여하고 있다. 회사는 SK텔레콤 컨소시엄에서 고품질 학습 데이터 구축과 모델 안정성 검증을 총괄 중이다. 글로벌 시장 확장도 주요 과제다. 지난해 스페인 바르셀로나에서 열린 '모바일 월드 콩그레스(MWC)25'에서는 세계이동통신사업자연합회(GSMA)와 '글로벌 AI 레드팀 챌린지'를 공동 주최했다. 기존 국가 단위로 진행됐던 레드팀 챌린지가 글로벌 행사에서 다국적 참가자를 대상으로 열린 것은 처음이었다. 지난 6일부터 오는 9일까지 미국 라스베이거스에서 열리는 세계 최대 가전·정보기술(IT) 전시회 'CES 2026'에 참여하는 등 글로벌 전시 및 세일즈를 확장하고 있다. 셀렉트스타는 코스닥 기술특례 상장을 목표로 기업공개(IPO)에 나선다. 상장 주관사는 대신증권으로 올해 연말까지 상장을 마무리할 예정이다. 매출 100억원 이상 달성과 함께 흑자 전환도 노리고 있다. 회사는 지난해 말 55억원 규모 시리즈B 추가 투자를 유치해 총 260억원으로 라운드를 마감했다. 이로써 누적 투자금은 434억원을 달성했다. 김 대표는 "기술이 아무리 빠르게 발전해도 변하지 않는 비즈니스 본질은 신뢰"라며 "그 신뢰를 우리가 지켜주겠다"고 강조했다.

2026.01.08 17:27이나연 기자

"금융 AX 시장서 통했다"…셀렉트스타, KB·신한·삼성 '트리플 크라운'

인공지능(AI) 데이터·신뢰성 평가 전문기업 셀렉트스타가 국내 주요 금융그룹으로부터 AI 기술력과 사업성을 잇달아 인정받았다. 셀렉트스타는 KB금융, 신한금융, 삼성금융 등 국내 대표 금융그룹이 주관한 스타트업 육성 및 협력 프로그램에서 연달아 수상했다고 5일 밝혔다. 먼저 지난해 12월 2일 '신한 퓨처스랩 데모데이 2025'에서 '최고 혁신상'을 수상했다. 셀렉트스타는 신한은행에 생성형 AI 서비스의 신뢰성 검증을 위한 데이터 기반 평가 체계 구축과 솔루션을 제공했다. 또 금융 문서를 이해하는 AI 모델 개발을 위한 데이터 구조화와 학습·평가용 데이터셋 설계도 진행했다.이곳은 '다투모 이밸(Datumo eval)' 솔루션 도입을 통한 평가 지표 관리, 데이터 자동 생성, 자동평가 등을 적용해 금융권에 특화된 신뢰성 검증 자동화 환경도 구현했다. 셀렉트스타의 AI 신뢰성 평가 자동화 솔루션 다투모 이밸은 금융 사고를 예방하고 강력한 보안 정책을 준수해야 하는 금융기관에 최적화된 솔루션이라고 평가된다. 셀렉트스타의 이러한 성과는 신한벤처투자의 시리즈B 투자 유치로도 이어졌다. 같은 달 12일 열린 KB금융그룹의 '2025 허브 데이'에서는 '스케일업 우수 기업상'을 수상했다. 2025 KB스타터스'로 선정된 셀렉트스타는 금융권 AI 서비스의 신뢰성 확보를 위한 자동화 평가 역량과 고품질 데이터 구축 기술력을 인정받았다. 그룹의 벤처캐피털(VC)인 KB인베스트먼트가 시리즈B 투자 라운드의 주관사로 참여하기도 했다. 삼성금융네트웍스와 삼성벤처투자가 공동 운영하는 '삼성금융 C-랩 아웃사이드'에서는 삼성생명 최우수 스타트업으로 선정됐다. 셀렉트스타는 '금융업 특화 AI 모델 성능 및 신뢰성 향상 솔루션'을 제안해 실질적인 성능 향상 효과를 입증했다. 이어 삼성생명 전략투자펀드를 통해 시리즈B 추가 투자를 유치하는 등 주요 대형 금융그룹과의 AX(인공지능 전환) 협력 사례를 만들었다. 김세엽 셀렉트스타 대표는 "국내 주요 금융그룹들로부터 셀렉트스타의 AI 신뢰성 평가 기술력을 잇달아 인정받아 뜻깊다"며 "금융권은 AI 도입에 가장 높은 신뢰 수준을 요구하는 산업군이다. 이번 성과를 바탕으로 금융권 AI 신뢰성 평가의 표준을 정립하고 다양한 산업 분야로 신뢰할 수 있는 AI 생태계를 확장하겠다"고 말했다.

2026.01.05 16:06이나연 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

"수십억원 손실도"…삼성전자 노조 파업, 소부장 업계 '비상등'

"정용진 회장 혁신 통했다"...이마트, 1Q 영업익 14년 만에 최대

레드햇 APJ 부사장 "韓 시장, 아태 지역서 '기술 주권' 수준 높아"

쿠팡 개인정보 유출 조사 마무리…개인정보위 "곧 결정"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.