• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'신뢰'통합검색 결과 입니다. (64건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[유미's 픽] 공공 AX 확대 속 AI 프라이버시 정책 '운영 단계'로…업계 부담 커진다

국내 인공지능(AI)·소프트웨어 업계가 개인정보 보호 대응을 기술 개발의 부수 요소가 아닌 핵심 경쟁력으로 재정립해야 할 것으로 보인다. 생성형 AI를 넘어 에이전트 AI, 피지컬 AI 등 차세대 기술이 서비스 현장에 빠르게 적용되면서 개인정보 리스크가 단순 유출 방지를 넘어 서비스 구조 전반의 신뢰 문제로 확산되자 정부가 정책 정비에 나섰기 때문이다. 4일 개인정보보호위원회가 발표한 '2026 AI 프라이버시 민관 정책협의회 운영 방향'에 따르면, 정부는 AI 확산으로 개인정보 리스크가 기존 유출·노출 중심에서 민감정보 추론, 딥페이크 악용, 프로파일링 등 새로운 형태로 확대되고 있다고 진단했다. 정책 논의의 초점도 모델 학습 단계에서 벗어나 에이전트 AI·피지컬 AI 등 서비스 운영 단계에서 발생할 수 있는 위험 대응으로 전환했다. 이에 맞춰 협의회는 데이터 처리기준, 리스크 관리, 정보주체 권리 등 3개 분과 체계로 운영한다. 또 '에이전트 AI 개인정보 처리기준' 마련(6월)과 AI 프라이버시 레드팀 방법론 연구를 추진할 계획이다. 여기에 자동화된 결정 대응 등 이용자 권리 보장 방안과 올해 3월께 'AI 이용 개인정보 보호수칙'도 제시할 예정이다. 향후에는 AI 정책 수립 과정에서 민관 의견을 폭넓게 수렴하고 부처 간 정책 정합성을 확보하는 자문기구로 기능을 확대한다는 방침이다.특히 이번에 주목할 점은 협의회 논의 과제에 'AI 프라이버시 레드티밍(Red Teaming)' 방법론이 포함됐다는 점이다. 레드티밍은 공격자 관점에서 시스템의 취약점을 의도적으로 점검해 보안 허점을 찾아내는 방식으로, AI 서비스가 실제 운영 과정에서 맞닥뜨릴 수 있는 프라이버시 위협을 사전에 검증하는 절차로 활용될 수 있다. 이를 통해 기업들의 개인정보 보호 대응이 기존의 사후적·수동적 점검에서 벗어나 보다 공세적이고 예방적인 리스크 관리 체계로 전환될 가능성이 클 것으로 예상된다.셀렉트스타 관계자는 "매우 빠른 AI 발전이 실질적 확산으로 이어지기 위해서는 관련 규제 환경의 신속한 맞춤 변화가 중요하다"며 "정부가 민관 정책 협의회 등을 통해 민간과 적극적으로 소통해 AI 업계의 규제 불확실성을 최소화할 것으로 기대된다"고 말했다. 개보위의 이 같은 움직임에 AI 업계도 예의주시하고 있다. 정부의 규제 논의가 학습 데이터 적법성 중심에서 서비스 배포 이후의 운영 책임으로 이동하고 있다는 점에서 기업들은 향후 AI 서비스 전 과정에 대한 관리·감독 요구가 강화될 가능성에 주목하고 있다. 이 같은 변화는 에이전트 AI 확산과 맞물리면서 더욱 뚜렷해질 전망이다. 에이전트 AI는 사용자 대신 업무를 수행하며 다양한 데이터에 접근하고 서비스 간 상호작용을 통해 결과를 만들어내는 구조인 만큼, 개인정보 처리 책임의 경계가 더욱 복잡해질 수밖에 없다. 이에 따라 기업들은 서비스 설계 단계부터 데이터 처리 흐름과 사후 통제 체계를 함께 마련해야 하는 과제를 안게 됐다. 업계 관계자는 "그동안 기업들이 학습 데이터 적법성에 집중했다면, 앞으로는 서비스 운영 과정에서 AI가 어떤 데이터에 접근하고 어떤 결정을 내리는지가 규제의 핵심이 될 것"이라며 "에이전트 AI 확산은 프라이버시 컴플라이언스를 한 단계 끌어올리는 계기가 될 수 있다"고 말했다. 이러한 흐름은 민간 서비스뿐 아니라 공공 부문 AI 전환 확대와 맞물리며 업계 부담을 더욱 키우고 있다. 정부는 공공기관이 AI 신서비스를 기획하는 과정에서 개인정보 보호법 저촉 여부가 불확실한 경우가 많다는 점을 감안해 사전적정성 검토와 규제 샌드박스 지원을 병행할 계획이다. 정부의 공공 AX 예산은 2025년 5천억원에서 2026년 2조4천억원으로 5배 증가하며 33개 부처에서 206개 사업이 추진될 예정이다. 이에 공공 시장을 겨냥하는 소프트웨어 기업들 사이에서는 초기 설계 단계부터 프라이버시 보호 체계를 갖추지 않으면 사업 참여 자체가 어려워질 수 있다는 전망도 나온다. 업계 관계자는 "공공 AX 사업이 급증하면서 AI 적용은 필수가 됐지만, 개인정보 이슈가 정리되지 않으면 사업 추진 속도가 늦어질 수밖에 없다"며 "기업 입장에서는 보호설계(PbD)를 선제적으로 반영하는 것이 경쟁력이 될 것"이라고 말했다. 글로벌 규범 역시 에이전트 AI를 중심으로 빠르게 정비되는 추세다. 미국 NIST 산하 AI 표준 및 혁신센터(CAISI)는 AI 에이전트의 데이터 접근권한 최소화와 사후 통제권 확보를 위한 논의에 착수했다. 영국 정보위원회(ICO)는 에이전트 AI 발전 단계별 시나리오를 제시하며 규제 고도화에 나서고 있다. 싱가포르는 '에이전틱 AI 정부 프레임워크'를 마련했다. 이처럼 국제적으로 샌드박스형 사전 검증과 인간 개입 원칙이 핵심 규범으로 부상하면서 국내 기업들도 글로벌 기준에 맞춘 대응 전략이 불가피해지고 있다. 업계에선 이번 발표를 계기로 AI 서비스 기업들의 프라이버시 대응 부담이 운영 단계까지 확대될 것으로 보고 있다. 에이전트 AI 확산에 따라 관련 리스크 관리 체계 마련이 주요 과제로 떠오르고 있다는 분석이다. 업계 전문가는 "AI 경쟁이 고도화될수록 기업들은 성능뿐 아니라 '신뢰 가능한 운영 체계'를 갖춘 곳이 시장에서 살아남게 될 것"이라며 "프라이버시 대응 역량이 향후 국내외 사업 확장의 결정적 변수로 작용할 가능성이 높다"고 말했다.

2026.02.04 09:54장유미 기자

[현장] "성능·정확도 대신 책임·설명력 겨뤘다"…AI 기본법 시대, 해커톤의 진화

"이번 해커톤을 통해 인공지능(AI) 신뢰성은 문헌이나 이론 학습만으로 습득할 수 있는 영역이 아니라 실제 현장에서 판단과 설명, 책임 있는 선택이 병행될 때 체득된다는 게 입증됐습니다." 박지환 씽크포비엘 대표는 29일 서울 서초구 서울교육대학교에서 열린 '제1회 트라이톤' 시상식에서 이같이 말했다. 씽크포비엘과 신뢰할 수 있는 인공지능 국제연대(TRAIN)가 개최한 국내 첫 AI 신뢰성 해커톤은 AI 개발 절차 수행을 통해 내놓은 AI 신뢰성 입증 산출물을 평가해 순위를 가리는 대회다. 일반적인 AI 경연 대회가 모델의 성능과 정확도 향상에 집중했다면 트라이톤은 AI가 틀렸을 때의 설명 가능성과 책임 소재를 묻는다. 지난해 10월 오리엔테이션을 시작으로 4개월간 진행된 대회에는 전국 대학 45개 팀 192명이 참여했다. 예선을 거쳐 39팀(159명)이 본선에 진출했고 최종 28팀(117명)이 산출물을 제출했다. 씽크포비엘은 이번 대회 주제인 AI 신뢰성 기술이 기존 레드팀 중심 해커톤과 다르게 범위와 적용 기술에 차이가 있는 점을 고려했다. 참여자들의 이해를 돕기 위해 자체 개발 교육 서비스는 물론, 10년 이상 경력 전문 연구 인력과의 일대일 개별 멘토링을 제공했다. 이번 대회 멘토로 나선 천선일 씽크포비엘 연구소 수석매니저는 "최근 AI 기본법 시행 등 규제 환경 변화에 따라 모델이 단순히 정확한지를 넘어 '얼마나 믿고 쓸 수 있는가', '편향에서 얼마나 자유로운가'에 대한 질문이 중요해졌다"며 "그동안 피해 왔던 AI 신뢰성 관련 질문들을 수면 위로 끌어올리고자 했다"고 말했다. 천 매니저는 "참가자들이 현업에서도 다루기 힘든 신뢰성이라는 추상적인 주제를 구체적인 산출물로 구현하고 논리적으로 연결했다"고 덧붙였다. 이날 오후 진행된 시상식에서 최종 우승은 과학기술연합대학원대학교(UST)와 경북대학교 AI 전공 대학원생으로 구성된 'TLV 팀'(변재연·이제경·김보경)이 차지했다. 이 팀은 '가디언 AI(교육용 AI 안전성 평가 시스템)'을 개발하는 과정에서 AI 신뢰성 산출물을 만들었다. 이는 실제 서비스 환경을 가정한 구체적인 사례 설정과 충분한 근거 자료 기반 설계 구현, 일관되고 기술적 완성도가 높은 서비스 수준 달성 등에서 높은 평가를 받았다. 이어 '숨 쉰 채 발견' 팀(2위, 서울시립대 인공지능학과), '성·신의 한 수' 팀(3위, 성균관대 소프트웨어학과 및 성신여대 AI융합학부), 'SecurAI' 팀(4위, 경상국립대 AI정보공학과), '이닦조' 팀(5위, 가톨릭대 심리학과), 'GPS.dev' 팀(6위, 성균관대 지능형소프트웨어학과)이 순위별로 상패와 상금을 받았다. 상금은 최대 420만100원에서 최소 52만5천900원이다. 이 금액들은 AI 신뢰성 관련 국제 표준 번호를 상징한다. 입상 참가자들은 국내 정보기술(IT) 기업에서 정식 채용이 연계되는 인턴십 기회도 얻는다. 씽크포비엘은 소정의 교육 과정을 이수한 참여자에게 'AI 신뢰성 전문가 민간자격(CTAP)' 응시 기회도 부여했다. 지난 11일 서울·부산·광주·청주 등 4개 지역에서 치러진 제1회 시험에는 대회 참여자 40명이 합격했다. 씽크포비엘은 이번 대회가 공공의 관심과 지원으로 가능했다고 강조했다. 한국지능정보사회진흥원(NIA)은 'AI 허브' 학습용 데이터를 개방했고, 한국산업기술시험원(KTL)은 AI 신뢰성 산출물을 도출·검증할 수 있도록 그래픽처리장치(GPU) 컴퓨팅 자원을 무상 지원했다. 권종원 KTL 센터장은 축사에서 "정답이 없는 AI 신뢰성 확보를 위해 다양한 지식을 가진 인재들의 조화가 필수적"이라며 "신뢰성은 성능뿐만 아니라 다양한 분야를 다루기에 서로 다른 특성과 지식을 가진 분들의 '오케스트레이션'이 중요하다"라고 말했다. 박 대표는 "지금까지 AI를 더 정확하고 효율적으로 만드는 데 집중했다면, AI가 동작하지 않도록 멈추게 하거나 양보하게 하는 방법을 가르치고 기준을 설계하며 관리하는 역할이 더 중요해질 것"이라고 내다봤다.

2026.01.29 15:22이나연 기자

'몸값 1340억 달러' 데이터브릭스, 올해 승부수는 에이전트 AI·차세대 DB

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 관련 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 데이터브릭스가 올해 인공지능(AI) 에이전트 품질 관리 서비스와 차세대 데이터 플랫폼으로 시장 공략에 나선다. 단순히 AI 모델을 구축하는 속도 경쟁에서 벗어나 AI 신뢰성 강화로 현장 불확실성을 제거하겠다는 포부다. 데이터브릭스는 올해 '에이전트 브릭스'와 '레이크베이스'를 핵심 주력 사업으로 제시했다고 밝혔다. 이를 통해 기업이 AI 에이전트를 더 빠르고 안정적으로 구축·배포할 수 있는 환경을 지원할 계획이다. 에이전트 브릭스는 기업 데이터로 고품질 에이전트를 설계·확장할 수 있게 지원하는 AI 서비스다. 업무 현장에서 반복적으로 발생하는 정확성, 품질 문제를 해결하는 데 초점 맞췄다. 해당 서비스는 작업별 맞춤형 평가 체계와 거대언어모델(LLM) 기반 자동 평가 기능을 갖췄다. 이를 통해 AI 에이전트 품질을 체계적으로 측정한다. 단순 응답 품질을 넘어 정확성을 비롯한 일관성, 재현성 등 작업 환경서 요구되는 기준 중심으로 성능을 검증하는 식이다. 에이전트 학습 과정서는 합성 데이터를 생성해 실제 데이터만으로 확보하기 어려운 오류 상황과 케이스까지 보완한다. 또 고객이 에이전트 성능 수준과 운영 비용 간 균형을 고려해 최적의 지점을 선택할 수 있도록 설계됐다. 고품질을 우선할지, 비용 효율성을 중시할지에 따라 에이전트 운영 전략을 조정할 수 있는 셈이다. 데이터브릭스는 에이전트 브릭스에 내장된 도메인 특화 벤치마크와 피드백 루프가 배포 판단 핵심 기준으로 작동한다고 강조했다. 산업·업무별 성능을 반복 검증하고 개선 결과를 다시 반영하는 구조를 통해 기업이 신뢰를 갖고 에이전트를 배포할 수 있는 근거를 제공하는 식이다. 지난해 에이전트 브릭스를 통한 고객 사례도 나왔다. 아스트라제네카는 에이전트 브릭스로 40만 건 넘는 임상 시험 문서를 분석하고 구조화된 데이터 포인트를 추출했다. 별도 코드 작성 없이 60분 내 비정형 데이터를 분석 가능한 형태로 전환할 수 있었다. 아디다스는 150개국 이상에서 수집된 200만 건 넘는 제품 리뷰를 실시간 인사이트로 전환했다. 비기술 조직도 챗봇을 통해 즉각적인 분석 결과에 접근하며 의사결정 속도를 높였다는 평가를 받기도 했다. 데이터브릭스는 해당 서비스로 기업 에이전트 상용화 장벽을 허물 방침이다. 크레이그 와일리 데이터브릭스 AI 제품 총괄은 "여전히 많은 기업이 AI 에이전트를 실제 비즈니스에 활용하지 못한다"며 "기업이 AI 기술을 제대로 평가·개선하지 못한 탓"이라고 지난 10월 미국 샌프란시스코 본사에서 지디넷코리아를 만나 이같이 밝혔다. 이어 "시스템 내 성능과 데이터 품질을 지속 확인하고 피드백을 반영해 성능을 개선하지 못했기 때문"이라고 설명했다. 와일리 총괄은 AI 품질 평가가 일반 소프트웨어(SW)를 테스트하는 방식과 다르다고 봤다. 일반 SW와 달리 AI는 같은 명령어에도 맥락에 따라 다른 결과를 내놓는다는 이유에서다. 이에 일반 SW처럼 '얼마나 잘 작동하는가'를 객관적으로 평가할 수 없다고 말했다. 와일리 총괄은 "AI는 논리적으로 틀리지 않아도 맥락을 놓치거나 사용자가 설정한 방식으로만 답하는 경우가 다수"라며 "이런 품질을 수치로 정의하거나 일관되게 측정하기 매우 복잡하다"고 설명했다. 그는 "앞으로 엔터프라이즈 환경은 AI 개발에서 평가 중심으로 이동할 것"이라며 "AI 신뢰성과 품질을 동시에 높이는 우리 철학을 에이전트 브릭스에 넣었다"고 말했다. "레이크베이스, AI 시대 데이터 처리 툭화" 데이터브릭스는 AI 에이전트 확산에 따른 데이터 처리 구조 변화를 반영해 레이크베이스 플랫폼 고도화에도 힘쓸 계획이다. 레이크베이스는 '데이터브릭스 데이터 인텔리전스' 플랫폼과 통합된 트랜잭션 처리 엔진이다. 별도 관리가 필요 없는 완전 관리형 포스트그레스로 설계됐다. 이 서비스는 데이터 스토리지와 컴퓨팅을 분리한 구조로 이뤄졌다. 이에 추가 설정 없이 빠른 데이터 처리 속도와 낮은 지연 시간을 제공할 수 있다. 트랜잭션 데이터를 별도 추출·전환·적재(ETL) 과정 없이 분석과 AI 환경에 바로 활용할 수 있도록 설계됐다. 데이터브릭스는 AI 에이전트 확산으로 트랜잭션 데이터 생성량이 급증하고 있다고 봤다. 최근 인수한 네온 분석 보고서에 따르면 새로 생성된 데이터베이스(DB) 80% 이상이 AI 에이전트로 만들어진 것으로 나타났다. 데이터브릭스는 "전통적인 온라인 트랜잭션 처리(OLTP) DB는 수십 년 된 아키텍처 위에서 구동돼 관리가 어렵고 비용이 많이 든다"며 "벤더 락인에도 취약하다"고 지적했다. 이어 "에이전트와 앱, 워크플로는 빠르고 신뢰할 수 있는 데이터를 필요로 한다"며 "우리는 레이크베이스를 통해 AI를 위한 트랜젝션 DB를 재창조할 것"이라고 자신했다.

2026.01.26 14:55김미정 기자

전기차 배터리 성능 예측 AI모델 개발…정확도 86.6%

전기차 배터리 성능을 예측하는 인공지능(AI) 모델이 개발됐다. KAIST는 신소재공학과 홍승범 교수팀이 조은애 교수팀과 공동으로 실험 데이터가 불완전한 상황에서도 배터리 양극재 입자 크기를 예측하고, 신뢰도까지 계산할 수 있는 머신러닝 프레임워크를 개발했다고 26일 밝혔다. 배터리 내부 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 배터리 내부의 양극재는 리튬이온 배터리가 에너지를 저장하고 꺼내 쓰게 만드는 핵심 재료다. 현재 전기차 배터리에 가장 널리 사용되는 양극재는 니켈(Ni), 코발트(Co), 망간(Mn)을 혼합한 NCM 계열 금속 산화물로, 배터리의 수명과 충전 속도, 주행 거리, 안전성에 큰 영향을 미친다. 입자가 지나치게 크면 성능이 저하되고, 반대로 너무 작으면 안정성에 문제가 생긴다. 이 때문에 기존에는 입자 크기를 파악하기 위해 소결 온도와 시간, 재료 조성 등을 바꿔가며 수많은 실험을 반복했다. 그러나 실제 연구 현장에서는 모든 조건을 빠짐없이 측정하기 어렵고, 실험 데이터가 누락되는 경우도 잦아 공정 조건과 입자 크기 간 관계를 정밀하게 분석하는 데 한계가 있었다. 연구팀은 이러한 문제를 해결하기 위해 누락된 데이터는 보완하고, 예측 결과를 신뢰도와 함께 제시하는 AI 프레임워크를 설계했다. 화학적 특성을 고려해 빠진 실험 데이터를 보완하는 기술(MatImpute)과, 예측 불확실성을 함께 계산하는 확률적 머신러닝 모델(NGBoost)을 결합했다. 이 AI 모델은 단순히 입자 크기를 예측하는 데 그치지 않고, 해당 예측을 어느 정도까지 신뢰할 수 있는 지에 대한 정보까지 함께 제공한다. 이는 실제로 어떤 조건에서 재료를 합성할지 결정하는 데 중요한 기준이 된다. 실험 데이터를 확장해 학습한 결과, AI 모델은 86.6%의 높은 예측 정확도를 나타냈다. 분석 결과, 양극재 입자 크기는 재료 성분보다도 굽는 온도와 시간 같은 공정 조건의 영향을 더 크게 받는 것으로 나타났다. 연구진은 AI 예측의 신뢰성을 검증하기 위해, 금속 성분 비율은 동일한 조성(NCM811(Ni 80% / Co 10% / Mn 10%)) 조성을 유지하되 기존 데이터에 포함되지 않은 제조 조건으로 합성한 양극재 시료 4종을 새롭게 제작해 실험을 진행했다. 그 결과, AI가 예측한 입자 크기는 실제 현미경 측정 결과와 거의 일치했다. 오차는 대부분 머리카락 두께보다 훨씬 작은 0.13마이크로미터(μm) 이하로 나타났다. 특히 AI가 함께 제시한 예측 불확실성 범위 안에 실제 실험 결과가 포함돼, 예측값뿐 아니라 그 신뢰도 역시 타당함이 확인됐다. 홍승범 교수는 “AI가 예측값뿐 아니라 그 결과를 얼마나 신뢰할 수 있는지까지 함께 제시한다는 점이 핵심”이라며, “차세대 배터리 소재를 보다 빠르고 효율적으로 설계하는 데 실질적인 도움이 될 것”이라고 말했다. 연구는 신소재공학과 벤 마디카(Benediktus Madika) 박사과정 연구원이 제1저자로 참여했다. 연구결과는 신소재·화학공학 분야 국제적 학술지인 '어드밴스드 사이언스(Advanced Science)'에 지난해 10월 8일자로 게재됐다.

2026.01.26 10:12박희범 기자

[현장] AI 신뢰성, 이제 자격증 시대…국내 첫 민간 전문가 시험장 가보니

"본 시험에 들어가기 앞서 오는 22일부터 시행되는 '인공지능(AI) 기본법'에 대해 잠시 설명드리겠습니다. 오늘 여러분이 치르는 자격 시험의 의미와 역할을 이해하는 시간이 되길 바랍니다." 11일 오후 찾은 서울 서초구 서울교육대학교 인문관 강의실. 한파특보가 내려진 주말이지만 30여 명의 사람들로 북적이는 교실이 있었다. 바로 국내 최초의 'AI 신뢰성 전문가(CTAP)' 시험장이다. 씽크포비엘이 주관하는 이번 제1회 CTAP 자격시험에는 AI 신뢰성 해커톤 '트라이톤' 참가자를 포함해 총 50여 명이 응시했다. 이날 시험은 서울교육대학교를 비롯해 부산 동의대학교, 광주 야생양봉원, 청주 충북대학교에서 동시에 진행됐다. CTAP는 총 45문항 객관식으로 구성됐으며 합격 기준은 100점 만점 중 65점 이상이다. 시험 기획을 맡은 씽크포비엘 연구원은 90분간 진행되는 시험에 앞서 AI기본법을 소개하고 몇 가지 예시 문항을 제시했다. '규제와 혁신이 충돌하는 AI 거버넌스의 역설을 해소하기 위해 참고할 국제 표준은 무엇인가', 'AI 시스템을 개발 및 배포한 후에 지속 수행해야 하는 작업은 무엇인가' 등 구체적인 예제가 언급되자 응시자들은 이를 노트나 노트북 등에 필기하며 경청했다. 단순 AI 윤리 아닌 실무형 인재 발굴 집중 민간 자격 제도상 이번 파운데이션 레벨(FL) 시험은 단순히 윤리적 구호를 묻지 않는다. 대신 국제 표준과 규범에 따른 책임의 구조를 정확히 이해하고 있는지에 초점을 맞췄다. AI 시스템이 왜 위험한지 그 구조를 파악하고 통제할 수 있는 '심판'의 역량을 검증하는 것이 목적이다. 박지환 씽크포비엘 대표는 "FL은 아직 책임을 맡기는 단계가 아니라, AI 신뢰성에 대해 올바르게 이해하고 소통할 수 있는지를 검증한다"며 "어설픈 실무 경험이 잘못된 확신으로 이어지는 것을 차단하고, 무엇이 올바른 접근인지 정확한 기준을 제시하는 것"이라고 설명했다. 박 대표는 "CTAP의 변별력은 AI를 '잘 쓰는 사람'이 아니라, 문제가 발생했을 때 원인과 책임을 기술적으로 설명할 수 있는 사람을 가려내는 데 있다"며 "도덕적 담론이 아니라 이미 국제적으로 합의된 지식 체계를 정확히 이해하고 있는지를 검증하는 것"이라고 짚었다. "AI 신뢰는 감정이 아닌 구조"…전국 4개 도시 동시 시행 첫 시험이 서울, 부산, 광주, 청주 등 전국 4개 도시에서 동시에 열린 점도 눈길을 끈다. 이는 수도권 외 지역 응시생들의 접근성을 배려한 결정이다. 박 대표는 "트라이톤 참가 학생들에게 공평한 기회를 주기로 한 약속을 지키기 위한 선택"이라며 "학생들이 이동하는 불편 대신 심사원이 지역으로 이동하는 편이 인재 발굴 취지에 맞다고 판단했다"고 설명했다. 씽크포비엘은 이번 자격 제도를 통해 AI 신뢰성을 추상적인 미덕이 아닌, 작동하는 '거버넌스'의 문제로 전환한다는 목표다. 기획부터 배포, 운영까지 각 단계의 담당자가 무엇을 해야 하는지 구체적으로 정의된 구조가 갖춰졌을 때 비로소 사회적 신뢰가 가능하다는 이유에서다. CTAP 합격 시 부여되는 자격의 유효기간은 약 3년으로 설정됐다. 이후에는 보수 교육이나 갱신 과정 도입도 검토되고 있다. 피지컬 AI 시대, 신뢰성 전문가 수요 '급증' 전망 시험을 마친 응시생들은 한 달 내 합격 여부를 통보받게 된다. 합격자들은 향후 최소 1년 이상의 실무 경험을 거쳐, 주관식·사례 기반으로 고난도 판단 능력을 검증하는 어드밴스드 레벨(AL)에 도전할 수 있다. 씽크포비엘은 올해 하반기 글로벌 연합 국가들과 함께 국제 시험 시행을 추진하며 역량 평가 모델의 국제 표준화에 박차를 가할 계획이다. 박 대표는 "최근 산업계 시선은 생성형 AI를 넘어 로봇·자율주행 같은 피지컬 AI로 빠르게 이동하고 있다"며 "사람 개입 없이 물리적 행동이 이뤄지는 영역은 사고 발생 시 생명·안전으로 직결되기에 신뢰성 전문가가 필수"라고 강조했다. 이어 "해외는 이미 작년부터 피지컬 AI 확산을 전제로 신뢰성 전문가 육성을 시작했지만, 국내는 여전히 기술 확산 후 제도가 따라가는 패턴"이라며 "2~3년 뒤 수요가 급증할 것"이라고 전망했다. 실제로 씽크포비엘이 AI 신뢰성을 이해한 기업들을 대상으로 한 소규모 설문에서는 약 94%가 관련 전문가 영입 의사를 밝혔다. 트라이톤 상위 입상자에게 고용 연계 인턴십을 제안한 기업도 있는 것으로 조사됐다. 박 대표는 "AI 기본법 제정과 국제 규제 강화 흐름 속에서 AI는 더 이상 '잘 되면 쓰고, 문제 생기면 고치면 되는 기술'이 아니라 '왜 허용했는지 사전에 설명해야 하는 기술'이 됐다"며 "책임 역시 사후 변명이 아니라 사전 설계의 문제가 된 만큼, AI 엔지니어는 AI로 교체될 수 있어도 책임을 설계하고 검증하는 역할은 사라지지 않을 것"이라고 강조했다. 이어 "CTAP는 AI를 만드는 시대를 넘어 'AI를 책임져야 하는 시대'를 대비하는 정확한 이정표가 될 것"이라고 덧붙였다.

2026.01.11 16:07이나연 기자

"AI 신뢰성이 올해 기업 생존 결정"…셀렉트스타, 기술특례 IPO·흑자 위해 달린다

세계 최초 포괄적 인공지능(AI) 규제인 'AI 기본법'이 이달부터 시행되는 가운데, 셀렉트스타가 2026년을 'AI 신뢰성 비즈니스 성패 원년'으로 규정했다. 회사는 올해 기술특례 상장과 함께 글로벌 신뢰성 검증 표준 확립에 나설 전망이다. 김세엽 셀렉트스타 대표는 지난 7일 발표한 신년사에서 "기업들이 할루시네이션(환각)이나 데이터 보안 문제로 고민하는 모습을 보며 무거운 책임감을 느꼈다"며 "2026년은 AI 신뢰성이 비즈니스 성패를 가르는 원년이 될 것"이라고 밝혔다. 우리나라는 오는 22일부터 AI 규제와 진흥 내용을 담은 AI 기본법을 전면 시행한다. 특히 핵심 규제 대상인 고영향(고위험) AI에 대한 신뢰성 확보 조치가 의무화되면서 기업들은 법적·제도적 기준에 부합하는 검증 체계를 갖춰야 하는 상황이다. 김세엽 대표는 "AI 신뢰성을 단순히 몇 개 수치로 표현할 수 없다"며 "진정한 신뢰는 오류를 예측하고 위험을 통제할 수 있는 구체적인 안전성에서 나온다"고 강조했다. 올해 셀렉트스타는 '고품질 데이터'와 'AI 신뢰성 글로벌 표준'을 사업의 핵심 축으로 삼을 방침이다. 김 대표는 "우리 언어와 문화적 맥락을 정확히 이해하는 데이터로 국가 데이터 주권을 지키겠다"며 "국내를 넘어 세계 시장에서도 통용될 평가 기준을 확립하겠다"고 말했다. 이어 "복잡해지는 규제 환경 속에서도 기업 서비스가 흔들림 없이 글로벌 무대로 뻗어나갈 수 있도록 확실한 '품질 보증서'가 되겠다"고 덧붙였다. 셀렉트스타는 생성형 AI 신뢰성 검증 자동화 솔루션 '다투모 이밸(DATUMO eval)'을 통해 금융권과 공공기관의 AI 도입 장벽을 낮추고 있다. 다투모 이밸은 AI 서비스 운영 중 발생할 수 있는 오류와 위험성을 자동으로 검출해 모델 품질 개선 방향성을 제시한다. 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델' 개발 프로젝트에도 참여하고 있다. 회사는 SK텔레콤 컨소시엄에서 고품질 학습 데이터 구축과 모델 안정성 검증을 총괄 중이다. 글로벌 시장 확장도 주요 과제다. 지난해 스페인 바르셀로나에서 열린 '모바일 월드 콩그레스(MWC)25'에서는 세계이동통신사업자연합회(GSMA)와 '글로벌 AI 레드팀 챌린지'를 공동 주최했다. 기존 국가 단위로 진행됐던 레드팀 챌린지가 글로벌 행사에서 다국적 참가자를 대상으로 열린 것은 처음이었다. 지난 6일부터 오는 9일까지 미국 라스베이거스에서 열리는 세계 최대 가전·정보기술(IT) 전시회 'CES 2026'에 참여하는 등 글로벌 전시 및 세일즈를 확장하고 있다. 셀렉트스타는 코스닥 기술특례 상장을 목표로 기업공개(IPO)에 나선다. 상장 주관사는 대신증권으로 올해 연말까지 상장을 마무리할 예정이다. 매출 100억원 이상 달성과 함께 흑자 전환도 노리고 있다. 회사는 지난해 말 55억원 규모 시리즈B 추가 투자를 유치해 총 260억원으로 라운드를 마감했다. 이로써 누적 투자금은 434억원을 달성했다. 김 대표는 "기술이 아무리 빠르게 발전해도 변하지 않는 비즈니스 본질은 신뢰"라며 "그 신뢰를 우리가 지켜주겠다"고 강조했다.

2026.01.08 17:27이나연 기자

"금융 AX 시장서 통했다"…셀렉트스타, KB·신한·삼성 '트리플 크라운'

인공지능(AI) 데이터·신뢰성 평가 전문기업 셀렉트스타가 국내 주요 금융그룹으로부터 AI 기술력과 사업성을 잇달아 인정받았다. 셀렉트스타는 KB금융, 신한금융, 삼성금융 등 국내 대표 금융그룹이 주관한 스타트업 육성 및 협력 프로그램에서 연달아 수상했다고 5일 밝혔다. 먼저 지난해 12월 2일 '신한 퓨처스랩 데모데이 2025'에서 '최고 혁신상'을 수상했다. 셀렉트스타는 신한은행에 생성형 AI 서비스의 신뢰성 검증을 위한 데이터 기반 평가 체계 구축과 솔루션을 제공했다. 또 금융 문서를 이해하는 AI 모델 개발을 위한 데이터 구조화와 학습·평가용 데이터셋 설계도 진행했다.이곳은 '다투모 이밸(Datumo eval)' 솔루션 도입을 통한 평가 지표 관리, 데이터 자동 생성, 자동평가 등을 적용해 금융권에 특화된 신뢰성 검증 자동화 환경도 구현했다. 셀렉트스타의 AI 신뢰성 평가 자동화 솔루션 다투모 이밸은 금융 사고를 예방하고 강력한 보안 정책을 준수해야 하는 금융기관에 최적화된 솔루션이라고 평가된다. 셀렉트스타의 이러한 성과는 신한벤처투자의 시리즈B 투자 유치로도 이어졌다. 같은 달 12일 열린 KB금융그룹의 '2025 허브 데이'에서는 '스케일업 우수 기업상'을 수상했다. 2025 KB스타터스'로 선정된 셀렉트스타는 금융권 AI 서비스의 신뢰성 확보를 위한 자동화 평가 역량과 고품질 데이터 구축 기술력을 인정받았다. 그룹의 벤처캐피털(VC)인 KB인베스트먼트가 시리즈B 투자 라운드의 주관사로 참여하기도 했다. 삼성금융네트웍스와 삼성벤처투자가 공동 운영하는 '삼성금융 C-랩 아웃사이드'에서는 삼성생명 최우수 스타트업으로 선정됐다. 셀렉트스타는 '금융업 특화 AI 모델 성능 및 신뢰성 향상 솔루션'을 제안해 실질적인 성능 향상 효과를 입증했다. 이어 삼성생명 전략투자펀드를 통해 시리즈B 추가 투자를 유치하는 등 주요 대형 금융그룹과의 AX(인공지능 전환) 협력 사례를 만들었다. 김세엽 셀렉트스타 대표는 "국내 주요 금융그룹들로부터 셀렉트스타의 AI 신뢰성 평가 기술력을 잇달아 인정받아 뜻깊다"며 "금융권은 AI 도입에 가장 높은 신뢰 수준을 요구하는 산업군이다. 이번 성과를 바탕으로 금융권 AI 신뢰성 평가의 표준을 정립하고 다양한 산업 분야로 신뢰할 수 있는 AI 생태계를 확장하겠다"고 말했다.

2026.01.05 16:06이나연 기자

통신 3사 새해 키워드..."고객 신뢰 회복" 한 목소리

SK텔레콤 KT LG유플러스 등 이동통신 3사가 새해 키워드로 일제히 '고객 신뢰 회복'을 꺼냈다. 지난해 잇따른 사이버 침해사고를 겪으면서 안전한 네트워크 운영이란 업의 본질에 집중하기 시작한 셈이다. 수년간 AI 사업에 무게를 두는 등의 메시지를 내놓은 것과 크게 달라진 부분이다. 2일 SK텔레콤의 정재헌 CEO는 임직원에 전하는 첫 메시지로 “업(業)의 본질인 고객을 중심에 두고, 기본의 깊이를 더해 단단한 MNO를 만들자”고 주문했다. 정 CEO는 그러면서 “우리의 마음속에 자부심이 자리할 때, 고객도 SK텔레콤과 함께함을 자랑스러워할 것”이라고 강조했다. 지난해 SK텔레콤의 CEO 신년 메시지로 AI 전환과 디지털 전환을 통한 본원적 경쟁력 강화, 가시적인 AI 성과 창출, 단단하고 유연한 기업문화 등을 내세운 것과 차이를 보인다. 통신 사업의 패러다임을 AI로 바꾸자고 했던 것과 달리 회사의 본업인 MNO를 다시 강조한 셈이다. 최근 민관합동조사단의 침해사고 조사 결과 발표가 이뤄진 KT는 정보보안 확립에 무게를 둔 신년사를 내놨다. 임기 석 달을 남겨둔 김영섭 대표는 “앞으로도 고객 신뢰 회복 과정에서 전 임직원이 힘을 모아달라”고 당부했다. 김 대표틑 특히 “침해사고에서 보듯이 이제는 전통적인 IT 영역과 특정 부서만이 아니라 네트워크, 마케팅, CS 등 우리가 하고 있는 일상의 모든 업무가 침해 공격의 대상이자 우리가 반드시 지켜야 하는 정보보안의 대상”이라며 “인식의 전환 없이는 일상화되고 지능화되는 침해 정보보안 리스크를 방어할 수 없다”고 단언했다. 홍범식 LG유플러스 사장은 T.R.U.S.T라는 신년 경영 키워드를 제시하면서 “성공을 가능케 하는 강력한 원동력은 신뢰”라고 했다. 고객에 더 단순하고 따뜻한 경험을 제공하겠다는 캐치 프레이즈인 '심플리.(Simply.) U+'를 실현하기 위한 직원의 마음가짐을 당부하면서도 거듭 신뢰 키워드를 반복했다. 홍 사장은 그러면서 “고객과의 약속을 지켜 나가는 여정이 힘들 수 있지만 성장에도 도움이 될 수 있다”면서 “숨기기보다 솔직하게 하고 탓하기보다는 함께 해결하는 용기가 신뢰에서 비롯된다. 네트워크, 보안 품질 안전 기본기, 서비스 개발 체계 등 회사 전 영역에서 이 용기가 필요하다”고 밝혔다.

2026.01.02 16:11박수형 기자

바비톡, '클린 정보 시스템' 고도화

메디컬 뷰티 플랫폼 바비톡이 자사 정보 모니터링 시스템 '클린캠페인'에 AI 및 알고리즘 기반 탐지 기술을 강화하며, 플랫폼 내 비정상 활동을 정밀하게 걸러내는 신뢰도 높은 뷰티 정보 환경 구축에 속도를 내고 있다고 30일 밝혔다. 바비톡은 2020년부터 플랫폼 내 과도한 홍보나 비방 등의 비정상 활동을 지속적으로 모니터링하며 정보의 신뢰도를 높이기 위한 '클린캠페인'을 꾸준히 운영해 왔으며, 최근 사용자 보호와 정보 투명성에 대한 요구가 높아짐에 따라 이를 한층 정교하게 발전시켰다. 이번 고도화는 이용자가 믿고 탐색할 수 있는 정보 환경을 강화하고, 보다 정확한 의사결정을 돕기 위한 장기적 기술 투자 방향의 연장선으로, AI·서버·네트워크를 아우르는 3중 방어 체계로 확장 적용된 것이 특징이다. 먼저 클린 캠페인 운영 정책을 학습시킨 LLM(거대 언어 모델)을 활용한 AI 자동 콘텐츠 리뷰어 기능이 추가됐다. 이용자가 후기나 게시글을 등록하면 AI가 실시간으로 내용을 분석한 뒤, 운영 정책에 위배되는 욕설, 근거 없는 비방, 반복·복제 콘텐츠를 자동으로 분류하고, 위험도 점수를 산출하여 리포팅한다. 서버 단계에서는 알고리즘 정책을 고도화하여 사용자의 디바이스 고유값 기반 다계정 생성 방지 기술이 적용됐다. 단순 회원 정보가 아닌 접속 기기의 고유 식별값과 이용 행태를 함께 분석해, 동일 기기에서 비정상적인 다수의 계정 생성 및 운영이 감지되면 관련된 모든 계정을 즉시 쉐도우 밴(자동 블라인드) 처리한다. 마지막으로 네트워크 단계에서는 웹 방화벽(WAF)과 트래픽 분석 솔루션을 통해 특정 병원 및 시술 랭킹을 인위적으로 높이는 비정상 활동을 검출한다. 동일 IP 대역에서 짧은 시간 내 과도한 조회(Click/View)를 시도하는 봇(Bot)이나 매크로 활동이 감지될 경우 해당 IP의 접근을 차단 및 무효화하여 랭킹 집계 시 순위 왜곡을 방지한다. 이러한 바비톡 클린캠페인 시스템의 고도화로 플랫폼 전반의 정보 신뢰도와, 사용자 경험, 그리고 서비스 품질 전반이 크게 향상되었다. 시스템 정밀 적발 성공률 99.8%로 유해 콘텐츠가 노출되기 전에 차단되면서 이용자는 보다 쾌적하고 신뢰할 수 있는 환경에서 정보 탐색이 가능해졌으며, 불필요한 봇 트래픽 제거로 앱 접속 및 페이지 로딩 속도가 20% 이상 상승됐다. 바비톡 최권열 CTO는 “365일 24시간 작동하는 원천 차단 시스템 덕분에 비정상적인 정보 유통 시도 자체가 점차 무의미해지고 있다”며, “유저가 안심하고 탐색할 수 있는 깨끗한 정보 환경 완성을 목표로, 신조어나 변형된 언어 표현까지 대응할 수 있도록 AI 모델을 지속 업그레이드하고, 비정상 활동 이력이 없는 병원에는 '클린 병원 배지'를 부여, 조직적인 불법 바이럴 행위에 대한 법적 대응 등 신뢰도 높은 시장 질서를 만들어가겠다”고 말했다.

2025.12.30 10:14안희정 기자

당근알바, 새 인증 수단 '금융인증서' 도입

지역생활 커뮤니티 당근의 구인·구직 서비스 당근알바는 새로운 인증 수단으로 금융결제원의 금융인증서를 추가했다고 23일 밝혔다. 이번 금융인증서 도입은 당근알바가 그동안 단계적으로 추진해 온 인증 체계 강화의 일환으로, 이용자 간 신뢰 및 서비스 안정성을 한층 더 강화하기 위한 조치다. 당근알바는 동네 기반의 근거리 일자리를 중심으로 구직자와 구인자가 빠르게 연결될 수 있도록 돕는 서비스다. 서로의 집을 방문하거나 단기·시간제로 함께 일하는 경우가 많은 서비스 특성상 이용자 간 신뢰 형성이 중요한 만큼 당근알바는 이용자가 스스로 신뢰도를 높일 수 있는 다양한 인증 수단을 마련해간다는 방침이다. 실제로 당근알바는 최근 수개월간 ▲당근페이 계좌 인증 ▲신분증 인증 ▲신분증·얼굴 대조 인증 등 이용자 신원을 다각도로 검증할 수 있는 인증 수단을 순차적으로 도입해왔다. 이번에 추가된 금융인증서는 국내 1천200여 개 기관에서 사용 중인 범용성 높은 인증 수단으로, 금융결제원의 인증정보를 당근의 본인인증 정보와 대조해 검증하는 방식이다. 클라우드 기반의 인증 수단인 만큼 별도의 저장 매체가 필요 없어 이용 편의성이 높고, 분실이나 유출 위험이 낮다는 점에서 보안성도 우수하다가 회사 측은 설명했다. 인증은 당근알바 프로필 인증 내역 탭을 통해 가능하며 추가 인증을 완료한 구인자는 구인 글 상단 및 하단 사업자 정보 영역에서 각각의 인증 배지를 확인할 수 있다. 구직자도 지원서에 인증 이력이 태그 형태로 표기된다. 당근 관계자는 “신뢰와 안전성을 최우선시하는 당근알바의 서비스 특성과 국내 금융권에서 널리 사용되고 있는 금융결제원의 수준 높은 인증 체계가 만나 좋은 시너지를 낼 것으로 기대한다”며 “이번 협업을 시작으로 금융결제원과 안전하고 편리한 구인구직 환경 조성을 위한 협력을 지속해 나갈 것”이라고 말했다.

2025.12.23 12:57박서린 기자

커넥셔너리 "리서치 전용 AI 개발...연구원 등 직군에 유용"

"신뢰성을 기반으로 좋은 의사결정을 도와주는 인공지능(AI) 입니다." 이지원 커넥셔너리(Connectionary) 대표는 22일 지디넷코리아와 인터뷰에서 커넥셔너리의 리서치 전용 AI 'AID'를 이같이 소개했다. 커넥셔너리는 올해 6월 설립된 'AI 리서치 플랫폼' 전문 스타트업이다. 일반적으로 생성형 AI가 어떤 답변이나 데이터를 생성했다고 했을 때, 사용자는 AI가 생성한 값을 재차 검증하는 절차를 거친다. AI가 생성한 답변이 정확하지 않을 수 있기 때문이다. 이처럼 사실이 아닌 내용을 AI가 그럴듯하게 표시하는 현상을 '환각(Hallucination)' 현상이라고 한다. 번거로운 요청도 수분 내로 값을 생성해내기 때문에 생성형 AI는 업무 효율성을 크게 높인 것이 사실이다. 하지만 환각 현상 때문에 사용자는 올바른 값을 생성했는지 검증하는 시간을 추가로 써야 한다. 특히 인용, 통계, 논문명 등에서 환각 현상이 심하게 일어나는 것으로 알려져 있다. 이에 리서처, 분석가, 연구원 등 사실에 기반한 검증된 데이터가 필요한 사용자들은 AI로 데이터를 생성한다고 하더라도 추가적으로 검증하는 과정이 필요하다. AID는 신뢰성 있는 출처만 활용해 답변을 내놓기 때문에 이런 검증 과정을 대폭 줄여준다. 원본 문서에 기반한 추출·정렬 엔진이 탑재돼 사실과 다른 내용을 표시할 수 없도록 환각 현상을 구조적으로 차단한다는 장점이 있다. 정책 모니터링이나, 중요한 의사결정, 시장조사 등에서 정확한 데이터를 기반으로 AI를 통한 효율적인 자료 검색이 가능한 것이다. 이 대표는 "거대 언어 모델(LLM) 기반의 생성형 AI는 사용자가 요청한 내용을 '사람처럼 말하고 정리하는 것'에 특화돼 있기 때문에 환각 현상에 따른 불편함이 있다"며 "AID는 검색하고 싶은 키워드를 입력하면 언론, 논문, 연구 보고서 등 실제 등재된 내용만 표시하기 때문에 환각 현상이 거의 없다"고 설명했다. 이어 "특히 검색 기간을 설정하고, 생성한 값을 사용자가 직접 스크리닝하는 것도 가능하다"며 "기자, 연구원, 애널리스트 등 정확한 수치를 기반으로 분석을 진행해야 하는 직군에 효율적인 AI 도구로 자리잡을 것"이라고 강조했다. 키워드만 검색했는데 출처부터 통계까지 '한 눈' 기자가 직접 AID를 사용해봤다. 최근 치명적인 취약점으로 부상한 React2shell(리액트투쉘, CVE-2025-55182) 취약점을 키워드로 입력하자, 핵심 키워드별로 확실한 출처의 여러 문서들이 눈에 띄었다. 또 어떤 주제와 관련이 깊은지, 키워드와 관련해 직접 언급했던 사람은 누구인지 통계화한 그래프가 표시됐다. 아래에는 전체 검색 결과가 표시되는데, 모두 외신, 국내 언론, 논문, 보고서 등 믿을 만한 출처가 함께 표시됐다. 각 결과값마다 AI가 요약한 내용도 알아보기 쉽게 제공됐으며, '상세 정보'를 클릭하면 발언인 정보와 요약 및 키워드가 입력된 인용문 전체를 확인할 수 있다. 원본으로 연결되는 링크도 함께 기재돼 있다. 포털 사이트에서 검색한 자료를 사람이 일일이 걸러내고 신뢰할 만한 출처의 정보를 요약하는 일련의 과정을 AID가 한 번에 해결한 것이다. 또 검색한 키워드에 특수 문자 '골뱅이(@)'를 붙이면, 키워드와 관련한 모든 수치 정보가 표시된다. 이 대표에 따르면 아직은 제대로 구현되지 않은 기능이지만 향후 업데이트될 예정이다. 검색 결과만 일방적으로 표시되는 것이 아니라 'AI 분석' 탭으로 이동하면 검색 결과를 AI가 자동으로 요약해 표시하며, 여러 검색 결과 값과 비교하는 것도 가능하다. "AID 기능 고도화해 리서치 기관 의사결정 돕는 도구로 자리매김" AID는 현재 알파테스트가 진행 중이다. 내년 1월 중으로 베타테스트를 거쳐 제품을 고도화해 향후 상품화할 예정이다. 구체적으로 커넥셔너리는 AID를 올해 1분기까지 주요 정책기관 발표 원문, 기업 재무 정보 검색 등도 가능하도록 기능을 고도화할 계획이다. 이 대표 설명에 따르면 현재 베타테스트 버전을 리서치, 공공 등 분야에 배포해 놓은 상태이며, 고객 만족도를 수집하고 있다. 향후 1년 내로 솔루션을 출시하고 국내 시장에서 확실한 레퍼런스를 확보한다는 것이 단기 목표다. AID가 기업 및 리서치 기관의 정책, 의사결정에 효율적인 도구로 자리잡는 것을 목표로 하고 있는 만큼 정책 분야에 자문을 줄 수 있는 전문가도 함께하고 있다. 현재 국가정보원 3차장을 지낸 김선희 가천대 초빙교수가 보안 자문위원으로 합류했으며, 향후 정책·기술 등 분야에서도 전문가와 함께해 신뢰도를 높일 계획이다. 이 대표는 "신뢰성 있는 AI를 만드는 일이 즐거워서 평생 계속하고 싶다"며 "고객사에도 신뢰성을 높이는 모든 과정들이 진실성 있는 회사로 인식되게 하고, 이런 진실성을 기반으로 열심히 성장하는 회사가 되고 싶다"고 포부를 남겼다. ◆ 이지원 커넥셔너리 대표는..... - 1981년생 - 2025.06~현재 ㈜커넥셔너리 CEO(최고경영자) - 2024.04~2025.03 ㈜디노티시아 CSO (최고전략책임자, 부사장) - 2019.09~2024.02 ㈜에스투더블유 CSO (최고전략책임자, 부대표) - 2021.08~2022.06 법무부 디지털성범죄 등 TF 전문가 위원 - 2020.03~2024.12 경찰청 사이버테러대응 전문가 위원 - 2016.01~2019.07 롯데미략전략센터 산업전략 수석연구원 - 2014.03~2015.12 ㈜오비맥주 전략기획팀 부장 - 2010.10~2014.02 아서디리틀 컨설턴트 - 2006.03~2010.09 ㈜KT 전임연구원

2025.12.22 19:59김기찬 기자

박윤영 KT 차기 대표 과제는

KT 이사회가 16일 박윤영 전 KT 기업부문장을 차기 대표이사로 발탁했다. KT 출신 인사로 조직 이해도가 높은 인물이 현재 회사가 처한 위기를 풀어낼 수 있다고 판단한 것으로 풀이된다. 김용현 KT 이사회 의장은 “박윤영 후보가 지속 가능한 성장 기반을 마련하고, 변화와 혁신을 주도해 대내외 신뢰를 조속히 회복하며 이해관계자와의 협력 관계를 구축할 적임자”라고 밝혔다. 즉, 이사회는 조직의 변화와 신뢰 회복을 비롯해 이해관계자와 협력 관계 구축을 차기 대표가 맡아야 할 주요 임무로 꼽은 것이다. 박윤영 대표 후보는 이날 심사에서 KT는 주주와 시장의 약속을 지켜야 한다는 점을 강조한 것으로 전해졌다. KT 대표 선임 과정에서 거듭 이야기가 나온 주주와 시장이 납득할 수 있는 인물이어야 한다는 박 후보의 뜻이 이사회에 전달된 것으로 풀이된다. 당장 박 후보가 맞닥뜨릴 최대 과제는 해킹 사고 수습이다. 정부가 진행하고 있는 KT 해킹 사고의 최종 조사 결과는 새해 초에 발표될 전망이다. 현재 규제당국의 기류를 볼 때 위약금 면제 조치까지 이뤄질 가능성이 높은 편이다. 해킹에 따른 이미지 실추와 함께 경영 위기 상황은 분명하다. 이에 따라 박 후보는 전사적인 위기 상황을 겪은 회사의 대표이사를 맡아 조직을 수습해야 한다는 중책을 맡게 됐다. 최근까지 KT에서 사장을 맡아 조직에 대한 이해도가 높고, 내부 직원들로부터 덕망이 높은 점은 회사가 처한 위기를 봉합하는데 도움이 될 것으로 보인다. 이와 함께 대내외 신뢰 회복을 이뤄야 한다. 우선 해킹에 따른 우려가 가장 컸던 고객부터 박 후보가 이사회 면접에서 강조한 것처럼 시장과 주주의 신뢰를 다시 쌓아야 한다. 국가적인 디지털 인프라를 담당하는 KT에 신뢰는 무엇보다 중요한 요소다. 많은 기업이 사이버 침해사고를 겪고 있으나 가입자의 무단 소액결제까지 이뤄지는 피해가 발생한 점에 대해서는 회사 신뢰에 대한 타격이 크다. 이에, 박 후보가 공식적인 대표이사를 맡은 뒤에 반드시 해결해야 할 점으로 신뢰 회복이 빠지지 않는다. 신뢰 회복의 연장선상에서 대대적인 정보보안 투자도 불가피한 과제다. 특히 정보보호 조직에서 이뤄진 사고 은폐 등을 고려하면 회사의 보안 거버넌스도 새롭게 구축해야 한다. 통신 네트워크를 운영하는 회사인 만큼 네트워크 고도화 투자도 과제로 꼽힌다. 이날 이사회에서 박 후보를 최종 대표 후보로 선임하는 안건에 앞서 주파수 재할당 신청에 관련한 안건도 의결이 이뤄졌다. 정부는 LTE와 3G 주파수 재할당 방침을 확정하면서 5G SA 투자를 의무 조건으로 내걸었는데 이에 대한 효율적인 대응이 박 후보의 과제로 부상했다. KT는 국내 통신사 가운데 유일하게 일부 단말과 가입자 대상으로 5G SA를 시작했으나 정부가 모든 5G 무선국을 5G 코어 장비와 연동할 것을 주문한 만큼 이에 대한 투자 계획을 세워야 한다. 박 후보가 토목공학 박사 출신으로 KT의 관로에 대한 업무를 맡아 코어 장비 연동 투자에 대해 전문가적인 식견이 더해질 것이란 기대가 높은 편이다.

2025.12.16 19:05박수형 기자

씽크포비엘, 日 지자체와 'AI 신뢰성' 협력 물꼬

씽크포비엘이 인공지능(AI) 신뢰성 개념과 역량을 일본에 확산한다. 씽크포비엘은 3~5일 서울 강남 코엑스에서 산업통상자원부 주최로 열린 '2025 코리아 테크 페스티벌'에 참가했다고 5일 밝혔다. 한국산업기술시험원(KTL) 추천을 받아 '스마트 제조 산업기술관' 전시 부스를 운영했다. 씽크포비엘은 페스티벌 행사 기간 동안 전시 부스에서 AI 신뢰성 교육과정과 특화 온라인 원격교육 체계인 'AI 튜터', AI 신뢰성 검증 가능 데이터 편향 진단 플랫폼 '리인(Re:In)' 등을 소개했다. 미국과 일본, 독일, 인도네시아에서 온 지자체·기관·기업 관계자와 상담도 진행했다. 행사에서는 특히 일본 지자체와 교류가 활발히 이뤄졌다. 씽크포비엘은 시즈오카·오키나와(이상 광역), 나고·야고베·요코하마와 도쿄 시부야(이상 기초) 등의 자치단체 지역산업 촉진·기업 지원 관계자와 만나 AI 신뢰성 분야 양측 협력 가능성을 살폈다. 일본 관계자는 AI 기술 도입 필요성을 절감하면서, 기술을 안전하게 적용할 수 있는 방안에 관심을 보였다. 씽크포비엘은 AI 신뢰성 기술 인프라와 역량 등을 적기적소 제공할 수 있다고 강조했다. 이에 일부 지자체 관계자가 현지 사무소 또는 법인 설립 등의 방안을 새해에 구체적으로 협의하자고 제안했다. 이들 지자체 이외에도 일본·인도네시아·독일 현지 유력 기업 임원과 미국 유타주 교통 연구·혁신 관련 부서 고위급 담당자 등과의 만남도 성사됐다. 씽크포비엘은 "지난 3년 동안 태국·베트남·인도네시아·필리핀 등과 교류 협력을 강화해 나간 만큼 내년에는 AI 신뢰성 분야가 국내외에서 두드러진 외연 확장에 성공할 수 있을 것으로 기대한다"고 밝혔다.

2025.12.05 15:46김미정 기자

무신사, 입점사 상품 오류까지 '무한책임' 선언..."안 숨겠다"

무신사가 입점 브랜드의 상품 정보 오류 문제에 대해 '선제적 공개'와 '투명한 환불 조치'로 고객과의 신뢰 지키기에 나섰다. 플랫폼의 법적 지위인 '통신판매중개업자'의 한계 뒤에 숨어 책임을 회피하지 않고, 막대한 비용을 감수하더라도 고객 신뢰를 우선시 한다는 방침이다. 3일 유통업계에 따르면 무신사는 자사 뉴스룸을 통해 최근 확인된 일부 입점 브랜드 상품의 혼용률 오기재 등 정보 오류 사실을 공개했다. 이슈가 된 상품은 아웃도어 브랜드 노스페이스 패딩인데, 최근 상품 소재 혼용률 표기 과정에서 오류가 발생해 고객 피해와 불편이 발생했다. 이번 조치의 핵심은 무신사가 법적 책임을 넘어 '도의적·실질적 책임'을 자처했다는 점이다. 현행법상 무신사는 자체 브랜드인 '무신사 스탠다드'를 제외하고 상품을 직접 제조·판매하는 것이 아닌 거래를 연결하는 통신판매중개업자다. 법적으로는 입점 브랜드의 상품 정보 오류에 대해 직접적인 배상 책임이 없다. 반면 무신사는 '고객은 입점 브랜드뿐만 아니라 '무신사'라는 플랫폼의 신뢰도를 믿고 지갑을 열었다'는 점에 주목했다고 설명했다. 회사 관계자는 "법적 책임 소재를 따지기 전에 고객의 불편과 피해를 최소화하는 것이 플랫폼의 본질적 의무라고 판단했다"며 "막대한 비용과 인력이 투입되더라도 적극적인 피해 구제와 사후 조치에 나설 것"이라고 약속했다. 실제로 무신사는 지난 2024년 말부터 불거진 다운·캐시미어 소재 혼용률 표기 문제 등에 대해서도 적극 대응한 바 있다. 문제가 된 상품을 찾아내 고객 문의가 들어오기 전에 먼저 알리고, 원하는 고객에게는 조건 없는 환불을 진행하는 식이다. 이는 국내 패션 플랫폼 중 최초였으며, 이후 다른 이커머스 업체들과 오프라인 유통사로도 확산됐다. 일각에는 이런 무신사의 투명한 정보 공개가 단기적으로는 플랫폼 평판에 악영향을 줄 수 있다는 우려도 있다. 특정 브랜드의 문제가 마치 무신사 전체의 시스템 문제처럼 확대 해석될 여지가 있어서다. 하지만 무신사는 투명하게 정보를 공개하는 '정공법'을 택했다. 일시적인 오인으로 인한 평판 악화나 당장의 매출 감소가 불가피하더라도, 장기적으로 투명한 거래 환경을 구축하는 것이 생존에 유리하다는 판단이다. 업계 관계자는 "패션 시장의 고질적인 문제였던 '정보 불일치' 관행을 끊어내기 위해 무신사가 사실상 총대를 멘 격"이라며 "제조·유통 등 시장의 모든 이해관계자가 동참하는 '고객 보호 환경'을 만들겠다는 의지로 보인다"고 말했다. 무신사는 앞으로도 상품 검수 절차를 강화하고, 정보 상이로 인한 고객 피해가 우려되는 상황 발생 시 다른 기업이 따라오기 어려울 만큼 과감하고 선제적인 조치를 이어간다는 전략이다.

2025.12.03 17:18백봉삼 기자

씽크포비엘, 'AI 신뢰성' 민간자격증 정식 운영

씽크포비엘이 국내서 처음으로 인공지능(AI) 신뢰성 분야를 공식 인정하는 민간자격을 운영한다. 씽크포비엘은 지난달 한국직업능력연구원에 'CTAP(Certified Trustworthy AI Professional)'을 정식 등록하고 자격 발급 준비를 마쳤다고 1일 밝혔다. 이 자격은 일반등급(FL) 시험을 통해 취득할 수 있다. CTAP는 윤리·법 기준을 고려한 신뢰할 수 있는 AI 구축 개념을 정확히 이해하는 전문가를 인증한다. 데이터 품질 관리, 위험 관리, 설명·제어 가능한 AI 설계, 책임 있는 운영·배포까지 포함한 거버넌스 프레임워크 역량이 평가 기준이다. 운영기관인 씽크포비엘은 '제1회 트라이톤' 예선 통과 참가자에게 첫 응시 자격을 부여할 계획이다. 대회와 연계한 첫 인증 사례가 탄생하는 셈이다. 씽크포비엘은 그동안 산업 현장에서 신뢰성이 보안, 안전, 품질, 테스트와 뒤섞여 사용되며 혼란이 발생했다고 지적했다. 자격 도입은 이런 개념을 표준화하고, 기업이 실제 신뢰성 활동에 착수할 수 있는 실무 지표를 제공하는 데 의미가 있다고 평가했다. 이어 AI가 윤리·법을 준수하며 안전하게 동작하도록 개발 단계별 준칙을 지키는 것이 핵심이라고 강조했다. 사전 예방 관점의 시스템 확보가 중요해지면서 이를 담당하는 전문 인력의 자격 가치가 높아졌다고 분석했다. 씽크포비엘은 운영 초기에만 자격 발급을 단독 운영하되, 수요 확산 시 외부 협회·단체와 공동 운영하고 교육원·인증원 같은 산하 조직 설립도 추진할 방침이다. 또 '신뢰할 수 있는 AI 국제연대(TRAIN)' 등과 협력해 자격의 국제 확산도 모색할 계획이다. 역량평가 모델을 국제표준으로 발전시키기 위해 10월 호주 시드니에서 열린 AI 국제표준화 총회에서 관련 제안을 발표했고, 각국 대표들로부터 공감을 얻은 바 있다. 박지환 씽크포비엘 대표는 "AI 신뢰성 전문가라는 명확한 롤모델을 정의함으로써 체계적인 경력 설계와 준비가 가능해질 것"이라며 "이는 미래 유망 직업으로서 인식을 높이는 계기가 될 것"이라고 밝혔다.

2025.12.01 18:08김미정 기자

"AI 육성 허브로"…씽크포비엘, 우즈백에 'AI 신뢰성' 기술 공급

씽크포비엘이 우즈베키스탄 사마르칸트주 정부에 인공지능(AI) 신뢰성 기술을 공급했다. 씽크포비엘은 지난 13일 주 정부 청사에서 '리인'과 'AI 튜터' 도입과 후속 협력을 포함한 업무협력 양해각서(MOU)를 체결했다고 14일 밝혔다. 주 정부는 해당 기술을 교육 프로그램과 직업훈련 체계에 활용해 지역 AI 인재 양성과 산업 경쟁력을 강화할 방침이다. 리인은 AI 신뢰성 검증이 가능한 데이터 편향 진단 플랫폼이다. 한국정보통신기술협회 단체 표준으로 채택된 '데이터밸런스' 기법을 기반으로 데이터를 분석할 수 있다. AI 튜터는 AI 신뢰성에 특화된 온라인 원격교육 체계다. 쌍방향 학습과 해외 수요 대응을 위한 현지 언어 지원 기능을 갖췄다. 주 정부는 이번 도입을 국비 지원 'AI 신뢰성 기술 교육 아카데미' 운영에 우선 적용할 계획이다. 현지 교육기관과 직업훈련 과정에 기술을 통합해 전문 인력 양성을 목표로 한다. 씽크포비엘은 교육 프로그램의 시범 구축과 운영을 지원한다. 교육 평가 도구와 멘토링을 제공해 현지 프로그램의 정착을 돕는다. 양측은 향후 3년 동안 협력을 이어가며 인턴십 체계를 구축하기로 했다. 이를 통해 교육을 이수한 인력이 지역 기업과 연계돼 취업 기회를 확보할 수 있도록 지원한다. 주 정부는 이번 협력이 사마르칸트를 국가 AI 산업 인재 양성 거점으로 발전시키는 기반이 될 것으로 기대했다. 온라인 기반 교육·훈련 체계가 부족한 지역 교육 환경 개선에도 도움이 될 것으로 판단했다. 박지환 씽크포비엘 대표는 "올해 5월부터 사마르칸트가 AI 신뢰성 아카데미 구축에 강한 의지를 보였는데 이번에 우리 교육 체계와 데이터 편향 진단 플랫폼 구매로 이어졌다"며 "사마르칸트가 우즈베키스탄에서 새로운 미래 일자리로 주목받는 AI 신뢰성 인력 육성 허브로 발전하는 초석이 될 것"이라고 밝혔다.

2025.11.14 16:08김미정 기자

"AI 도입 2배 늘어나는 동안 AI 보안 사고는 7.5배 늘어"

최근 정부와 공공기관, 금융권 등을 중심으로 인공지능(AI) 기술 도입이 빠르게 확산하고 있는 가운데 국내 LLM(거대 언어 모델)은 빅테크 기업의 LLM 모델과는 달리 내재적인 보안 기능이 부실하다는 지적이 나왔다. 이에 공공기관 AI 도입을 위한 보안 점검이 필요하다는 주장에 힘이 실리고 있다. 김호원 부산대 컴퓨터공학과 교수는 지난 7일 한국사이버안보학회 학술대회에서 이같은 내용을 골자로 한 'MITRE ATLAS 관점에서의 생성형 AI보안과 신뢰성 검증 기술'을 주제로 발표했다. 김 교수는 AI모델 무결성, 개인정보·기업 정보 유출 이슈 등 AI 보안 관리 중요성을 강조하면서, AI 기술 확산과 함게 보안 위협도 증가하고 있다고 진단했다. AI추론 결과에 대한 신뢰 이슈, 부정확한 정보 제공 등 AI 관련 리스크를 진단하는 공공기관 도입 AI의 안전성·신뢰성·보안성 검증이 필수라고 짚었다. 그는 "AI가 단순 업무 지원 도구에 그쳤던 반면 최근에는 전 산업 분야에서 생성형 AI 도입이 급속히 확산하고 있는 만큼, 내부 주요 정보 활용과 자율적 의사결정을 통한 생성형 AI 사용 범위가 확대됐다"며 "그에 따라 보안 리스크도 증가하고 있다"고 역설했다. 실제로 올해 기준 산업 내 생성형 AI의 도입 비율은 2023년 대비 2배 이상 늘어난 것으로 나타났다. 이에 따라 생성형 AI 보안 사고 역시 2023년 대비 7.5배 늘었다. AI 도입이 늘어나면서 AI에 따른 보안 사고도 크게 뛴 것이다. 김 교수는 생성형AI 사용으로 새롭게 발생하거나, 기존 위험을 더욱 악화시키는 리스크 유형 12개를 소개했다. 구체적으로 ▲화학, 생물학, 핵, 방사선(CBRN)정보를 생성하거나 악용하는 위험 ▲사실이 아닌 정보를 그럴듯하게 생성하는 위험 ▲위험하거나 폭력적인 콘텐츠 ▲데이터 프라이버시 ▲에너지 소비 등 환경 문제 ▲특정 그룹에 불리하거나 차별적인 결과물을 생성하는 문제 ▲인간이 AI 시스템을 과도하게 신뢰하거나 의존하는 위험 ▲정보 무결성 ▲정보 보안 ▲지적 재산권 ▲음란하거나 모욕적인 콘텐츠 ▲AI 공급망 보안 등이다. 이에 AI 시스템의 안전성과 신뢰성 확보를 위해 모델 수준의 보안 및 신뢰성 검증이 필수적이라는 것이 김 교수 진단이다. 그는 "AI 모델 도입 전 주요 공격 기법과 취약점에 대한 사전 대응 가능성을 검증해야 할 필요가 있다"며 "특히 적대적 공격내성, 출력 검증, 공정성·편향성 등 AI 특화 보안·신뢰성 검증 기법 활용이 필요하다"고 강조했다. 제시한 12개 유형의 위험 및 문제에 대해 항목별 점건 기준을 마련해야 한다고도 역설했다. 이는 단순히 기술적인 문제를 극복하기 위한 차원이 아니라 AI 확산에 따른 사회적 신뢰 확보를 위한 핵심 요소라는 것이다. 한편 김 교수는 대표적인 AI 시스템에 대한 공격 기업에 대해서도 소개했다. 우선 프롬프트 가로채기(Prompt Injection)가 가장 대표적인 생성형 AI 위협으로 꼽혔다. 공격자가 프롬프트를 조작해 AI 모델이 의도하지 않은 행동을 하도록 유도하는 유형이다. OWASP 2025 LLM 보안 Top10 리포트에서도 생성형 AI의 최대 보안 위협으로 꼽히기도 했다. 이로 인해 실질적인 데이터 유출, 고객의 개인정보 유출 등 피해가 이어질 수 있다. 또 생성형 AI의 안전장치를 무력화하는 방식으로도 공격이 이어질 수 있다. AI의 정책 위반 금지 조항, 윤리적 제약 등을 우회하도록 설계해 프롬프트 구조나 입력 패턴 또는 문맥적 단서를 활용하는 등 사회공학적 기법을 활용해 LLM 안전장치를 우회하고, AI 모델이 원하지 않는 출력을 강제로 생성하도록 유도할 수 있다. 민원 대응 챗봇, 교육용 AI 등에서 윤리적 문제 및 신뢰도 하락을 유발할 우려도 제기됐다.

2025.11.08 15:20김기찬 기자

앤트로픽 공동창업자 "AI 안전, 인류에 필수…韓, 클로드 사용 톱5"

"우리는 인공지능(AI)의 발전이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다는 믿음으로 회사를 설립했습니다." 벤자민 만 앤트로픽 공동창업자는 지난 3일 지디넷코리아와 만나 이같이 말했다. 그는 기술 경쟁의 소용돌이 속에서도 'AI 안전'이 인류의 미래를 위한 필수 요소임을 거듭 강조했다. 7일 앤트로픽 'AI 경제 지수'에 따르면 한국은 '클로드' AI 모델의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 이 회사의 '안전 우선' 철학은 국내 시장에서도 큰 호응을 얻고 있는 것이다. 만 공동창업자는 지난 2017년 닉 보스트롬의 '슈퍼인텔리전스'를 읽고 AI 안전에 눈을 떴다고 회상했다. 그는 "초지능 AI 통제의 어려움을 깨달았다"며 "GPT-3로 스케일링 법칙의 엄청난 이점을 증명했음에도 안전에 대한 신념으로 오픈AI를 떠났다"고 밝혔다. 이어 "AGI로의 안전한 전환을 위해 오픈AI에 있었으나 '안전' 가치에 보다 잘 기여하기 위해 앤트로픽에 합류했다"고 설명했다. 그는 한국 시장의 폭발적인 성장세에도 주목했다. 특히 한국은 '클로드 코드'가 빠르게 성장하는 시장으로, 지난 4개월간 한국의 주간 활성 이용자 수(WAU)가 6배 증가했다는 점을 강조했다. 전 세계에서 '클로드 코드'를 가장 많이 이용한 것이 바로 한국 소프트웨어 엔지니어라는 것이다. 이러한 한국 시장의 중요성은 구체적인 파트너십과 투자로 이어지고 있다. 만 공동창업자는 "SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다"며 "SK가 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나"라고 말했다. 이어 "슈퍼로이어 같은 스타트업의 법률 자동화 성공 사례 역시 괄목할 만하다"고 언급했다. 이러한 성장세에 발맞춰 앤트로픽은 현지화 및 파트너 지원과 대한민국 경제가 실질적으로 필요로 하는 부분에 대한 이해를 위해 현지 주재가 매우 중요하다고 판단하고 적극적으로 인력을 채용할 계획이다. 최근 발표된 정부의 AI 기본법에 대해서도 긍정적인 입장을 표명했다. 만 공동창업자는 "투명성, 윤리, 안전을 중시하는 우리의 '헌법적 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다"며 "우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중"이라고 밝혔다. 앤트로픽이 지난달 발표한 클로드 '소네트 4.5'가 코딩과 AI 에이전트 분야에서 최고 성능을 보이는 비결은 특정 '돌파구(Breakthrough)'가 아닌 '임계점(Critical threshold)'을 넘었기 때문이라고 밝혔다. 음성 인식이 오류율 1%의 임계점을 돌파하며 대중화된 것처럼 '소네트 4.5' 역시 개별 작업의 성공률이 비약적으로 높아져 복잡한 '에이전틱 워크플로우'의 효용성을 극대화할 수 있게 됐다는 분석이다. 만 공동창업자는 현재 AI의 역할에 대해서는 '자동화(Automation)'가 아닌 '기존 인력의 가속화(Acceleration)'로 정의했다. 그는 라쿠텐의 7시간짜리 작업을 앤트로픽의 AI 모델이 수행한 사례를 들며 이는 결과가 정확한지 자동으로 검증하는 훌륭한 '테스트 하네스(Test Harnesses)'가 있었기에 가능했다고 강조했다. 더불어 앤트로픽은 AI 안전을 구호에 그치지 않고 구체적인 기술로 구현하고 있다. '헌법적 AI'를 통해 AI가 스스로 보편적 가치를 학습하도록 유도하고 '기계론적 해석 가능성' 연구로 모델의 '뇌'를 들여다보며 '기만' 행위를 탐지한다. 또 '책임감 있는 스케일링 정책'을 통해 '생물학적 안전 등급'과 같은 자체 규제를 적용한다는 설명이다. 앤트로픽 코리아 팀을 꾸릴 때 가장 중요한 자질로 만 공동창업자는 '컬처 핏'을 꼽았다. 그는 "회사의 임무, 즉 초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데 진심으로 공감하는 것이 가장 중요하다"며 "우리는 이를 정말, 정말로 강조한다(Really, really mean it)"고 역설했다. 이어 "진실성과 지적 개방성을 갖춘 인재를 찾는다"고 덧붙였다. 그는 자신을 매일 움직이게 하는 원동력이 무엇인지에 대한 기자의 질문에는 현재 한 살과 세 살 된 두 아이의 긍정적인 미래가 바로 그것이라고 밝혔다. 만 공동창업자는 "(이번) 한국 방문을 통해 세상이 이 기술을 얼마나 필요로 하는지를 깨달았다"며 "(동시에) 이 기술이 '안전'해야 할 필요성을 절실히 느꼈다"고 말했다. 아래는 벤자민 만 앤트로픽 공동창업자와의 일문일답. Q. 많은 AI 스타트업이 기술 경쟁에 집중할 때 당신과 앤트로픽의 공동 창업자들은 AI 안전에 집중하며 오픈AI를 떠나 회사를 창업했다. 안전이 단순한 선택이 아닌 인류의 미래를 위한 '필수 요소'라고 믿게 된 결정적인 계기나 순간은 무엇이었나. A. 지난 2017년 닉 보스트롬(Nick Bostrom)의 '슈퍼인텔리전스(Superintelligence)'를 읽고 AI 안전에 대해 처음으로 진지하게 고민하게 됐다. 초지능 AI를 통제하는 것이 얼마나 어려울지 깨닫고 눈을 뜬 기분이었다. 최초에 오픈AI에 합류한 것은 당시 AI의 프론티어를 개척하려는 유일한 연구소였기 때문이다. 지난 2019년 'GPT-2'가 나왔을 때 이것이 바로 범용인공지능(AGI)로 가는 길이라고 확신했다. 그래서 오픈AI에 합류해 앤트로픽 공동 창업자들인 다리오 아모데이, 톰 브라운과 GPT-3 프로젝트를 시작했다. 우리는 보다 유능한 모델 없이는 AI 안전 문제에서 실질적인 진전을 이룰 수 없다고 느꼈다. 당시 한 구글 논문은 "모델의 스케일을 증가시킬 이유가 없다"거나 "규모 확장의 이점이 없고 오히려 (수확 체감으로) 한계에 부딪혔다"고 했다. 우리는 GPT-3 논문으로 정반대를 보여줬다. 실제로는 "규모를 키울수록 엄청난 수확(Huge Returns)이 발생한다"는 점과 "그런 확장성의 이점이 둔화될 기미가 전혀 보이지 않는다"는 것을 증명한 것이다. 오픈AI를 떠난 이유에 대해 구체적으로 말하자면 우리 공동 창업자들은 모두 AGI로의 전환이 안전하고 인류에게 유익해야 한다는 신념, 즉 '안전'이 가장 중요하다고 믿었기 때문이다. 초창기에 우리가 오픈AI에 있었던 이유도 정확히 그 이유 때문이었으나 어느 시점부터는 AI의 '역량과 안전' 또는 '경제적 이익과 안전' 사이에 딜레마가 발생하는 지점에서 반복적으로 작은 충돌들을 겪게 됐다. 결국 우리는 회사를 떠나 우리만의 회사를 차리는 것이 '안전'이라는 가치에 보다 잘 기여할 수 있는 길이라고 느꼈다. Q. 클로드 '소네트 4.5'가 AI 에이전트와 코딩 분야에서 최고 모델로 자리 잡고 있다. 이런 에이전트 중심의 접근을 가능하게 한 핵심 기술 돌파구는 무엇인가. 이것이 기업 도입을 어떻게 이끌고 있으며 '에이전틱 워크플로우'가 산업 생산성을 어떻게 바꿀 것이라 보나. A. 우리가 스택 전반에 걸쳐 훌륭한 작업을 수행해왔기 때문이라고 생각한다. 경쟁사들이 사전 훈련(Pre-training)이나 사후 훈련(Post-training)에 실패했다는 소문을 들어 왔다. 반대로 우리는 수년간 스케일링을 진행하며 '수확 감소'를 전혀 목격하지 못했다. '소네트 4.5'가 갑자기 좋아진 것은 특정 기술적 '돌파구(Breakthrough)' 때문이 아니다. 오히려 '임계점(Critical Threshold)'을 넘었기 때문이다. 음성 인식이 30년 넘게 존재했지만 지난 2010년대 구글이 단어 오류율을 1% 수준으로 낮추는 '임계점'을 돌파하자 비로소 모두가 일상적으로 사용하게 된 것과 같다. 코딩 모델도 마찬가지다. 이전 모델인 '소네트 3.5'에서 사람들이 에이전틱 코딩의 이점을 처음 발견하기 시작했다면 '소네트 4.5'는 개별 작업의 성공률이 비약적으로 높아졌다. 그 덕분에 여러 작업을 복잡한 체인으로 연결할 수 있게 되면서 효용성에 있어 거대한 변화가 일어난 것이다. 생산성 측면에서 볼 때 우리는 아직 '자동화(Automation)'의 시대가 아니라 '기존 인력의 가속화(Acceleration)' 시대에 있다고 본다. 일례로 라쿠텐 사례를 보면 숙련된 인간 개발자가 7시간을 투입해야 하는 '쿠다(CUDA) 커널 조작' 작업을 인간의 개입 없이 모델이 거의 전적으로 수행했다. 이것이 가능했던 이유는 매우 훌륭한 '테스트 하네스(Test Harnesses)' 덕분이었다. 즉 에이전트가 작업을 마쳤을 때 그 결과가 정확하다는 것을 (자동으로) 검증할 수 있었기 때문이다. Q. '클로드 코드(Claude Code)'가 '소네트 4.5'로 구동되면서 초기 아키텍처 설계부터 버그 수정까지 거의 모든 것을 처리할 수 있게 된 것 같다. 인상 깊었던 유즈케이스가 있나. 특히 한국에서의 경험 중 공유할 만한 사례가 있나. A. 오늘 SKT AI 서밋에서 '클로드' 해커톤이 열릴 예정이라 기대가 크다. 한국은 '클로드 코드'의 가장 큰 시장 중 하나며 제품에 대한 한국의 열정에 감탄하고 있다. 실제로 우리의 AI 코딩 어시스턴트 '클로드 코드' 전체 사용자의 4분의 1 이상이 아시아·태평양 지역에 속해 있는데 그중에서도 한국의 성장세가 놀랍다. 한국에서는 지난 4개월 동안 클로드 코드의 주간 활성 이용자 수(WAU)가 6배 증가하는 높은 성장세를 기록했다. 보다 인상적인 것은 현재 전 세계에서 클로드 코드를 가장 많이 이용한 사용자 1위가 바로 한국 소프트웨어 엔지니어로 기록됐다는 점이다. 구체적인 사용 사례를 들자면 SK와는 정말 훌륭한 파트너십을 맺고 있다. 특히 SK텔레콤과는 통신사에 특화된 모델을 함께 구축했다. SK는 이 모델을 전 세계 다른 통신사에 보급하는 데 도움을 주고 있으며 이는 우리가 전 세계에서 맺은 최고의 파트너십 중 하나다. 또 슈퍼로이어라는 한국 스타트업은 클로드를 활용해 법률 자동화(Legal Automation)를 성공적으로 구현하고 있다. 물론 이 기술은 모든 곳에 사용될 수 있지만 특정 분야에서 훨씬 더 많이 사용되고 있다. 우리가 발간하는 'AI 경제 지수(AI Economic Index)'는 사람들이 우리 모델을 어떻게 사용하는지 연구하는데 (방금 한국 사례에서 보듯) 코딩이 최고의 영역 중 하나다. 그 외에도 마케팅, 교육, 헬스케어 및 생명 과학 산업에서도 많은 활용 사례를 보고 있다. Q. 방금 'AI 경제 지수(AI Economic Index)'를 언급했다. 앤트로픽은 AI가 자동화 등 사회에 미칠 문제를 완화하기 위해 많은 노력을 기울이는 것 같다. 'AI 경제 지수'가 그 한 예시인데 앤트로픽 팀이 AI 안전을 위해 노력하는 다른 사례들도 공유해 줄 수 있나. A. 'AI 경제 지수'가 그 대표적인 사례다. 더불어 근본적인 AI 정렬(Alignment) 측면에서도 몇 가지 분야에서 노력하고 있다. 첫째는 '헌법적 AI(Constitutional AI)'다. 이는 '클로드'가 스스로 학습하고 정렬하는 자연어 원칙들의 집합이다. 우리는 샌프란시스코의 소수 인원이 미래의 가장 강력한 AI가 가져야 할 가치를 결정해서는 안 된다고 생각했다. 그래서 '집단적 헌법 AI(Collective Constitutional AI)' 프로젝트를 시작해 전 세계 사람들에게 어떤 가치를 AI가 가져야 하는지 물었고 놀랍게도 그 가치들이 예상보다 훨씬 더 일치(Aligned)한다는 것을 발견했다. 이는 정렬 문제를 해결할 수 있다는 희망을 줬다. 둘째는 '기계론적 해석 가능성(Mechanistic Interpretability)' 연구다. 과거엔 AI 모델을 '블랙박스'로 여겼지만 이 연구의 목표는 모델이 작동하는 동안 그 '뇌'와 생각을 들여다보고 무슨 일이 일어나는지 이해하는 것이다. 모델이 강력해질수록 이는 매우 중요하다. 궁극적인 목표는 모델에게 무언가를 시켰을 때 모델이 '기만(Deception)'에 대해 생각하는 것을 알아차리는 것이다. 우리는 오늘날의 모델에서도 그런 기만 행위를 포착하는 것에 대한 논문을 발표한 바 있다. 모델이 매우 강력해졌을 때 이런 기만적인 생각을 멈추게 하거나 시스템을 종료시키기 위해 이 탐지 기술은 매우 중요하다. 마지막은 '책임감 있는 스케일링 정책(Responsible Scaling Policy)'이다. 이는 '생물학적 안전 등급(Bio Safety Level)'을 모델로 한 것이다. 천연두 바이러스를 다루려면 고도로 규제된 시설과 전신 방호복이 필요한 것과 같다. 마찬가지로, 우리 AI가 특정 모델을 생성할 때까지 우리가 스스로 약속한 특정 보안 및 규정 준수 요구 사항을 갖추지 못한다면 우리는 그 모델을 사용하거나 상용화하지 않을 것이다. 우리는 다른 업계 기업들도 이 표준을 채택하도록 노력하고 있다. Q. 한국 정부가 최근 AI 기본법을 발표했다. 유럽연합(EU) AI법과 유사하게 AI 개발과 안전 사이의 균형을 맞춘 법안으로 평가받는다. 앤트로픽의 '안전 우선' 철학이나 '헌법 AI'와 시너지가 있을 것 같은데 한국에 오피스를 런칭하는 만큼 한국 시장 및 공공 부문과 어떻게 협력할 계획이며 어떤 기여를 하고 싶은가. A. 투명성, 윤리, 안전을 중시하는 우리의 '헌법 AI' 접근 방식은 한국의 AI 기본법과 그 의도가 완벽하게 일치한다. 지사 설립에 관해 말하자면 한국은 전 세계적으로 가장 중요한 시장 중 하나다. 실제로 우리 'AI 경제 지수' 데이터에 따르면 한국은 클로드의 전체 사용량 및 1인당 기준 사용량 모두에서 전 세계 상위 5위권에 오른다. 현지화, 파트너 지원, 한국 경제의 필요를 이해하기 위해 '현지 주재(Local Presence)'가 매우 중요하다고 생각한다. 그래서 우리는 이곳에서 상당히 공격적으로 인력을 채용할 계획이다. 보다 많은 인력을 두게 될 예정에 기쁘다. 더불어 우리는 한국 정부와 협력할 생각에도 매우 기쁘며 현재 관계자들과 대화를 진행 중이다. Q. 앤트로픽은 세계에서 가장 주목받는 AI 스타트업 중 하나다. 앤트로픽 코리아 팀을 꾸릴 때 개발자, 마케터 등 직군을 떠나 공통적으로 찾는 가장 중요한 자질이나 기술은 무엇인가. A. 우리는 '컬처 핏 인터뷰(Cultural Interview)'를 통해 이를 테스트한다. 우리에게 가장 중요한 것은 사람들이 '우리의 임무에 정렬(Mission-aligned)'되는 것이다. 즉, 우리 회사에 합류하는 이유가 '초지능 AI가 있는 사회로의 전환이 인류에게 안전하고 유익하도록 만드는 데' 진심으로 관심을 갖고 있기 때문이어야 한다. 많은 회사가 이렇게 말하지만 우리는 '정말이지, 정말로(Really, really mean it)' 그렇다. 이 임무가 자신의 삶과 가족, 친구들에게 어떤 의미인지 깊이 생각해 본 사람이라는 것을 보여주는 것이 중요하다. 우리의 '변화 이론(Theory of Change)'이나 '책임감 있는 스케일링 정책(Responsible Scaling Policy)' 같은 문서를 읽어보는 것도 도움이 될 것이다. 기본적으로는 '진실성(Integrity)'과 '지적 개방성(Intellectual Openness)'의 증거도 본다. 우리는 대체로 '자아가 강하지 않고(Low Ego)', 개인의 성과에 연연하기보다 올바른 일을 하려고 노력한다. Q. '초지능(Superintelligence)'을 안전하게 개발해야 하는 책임을 자주 언급했다. 매일 새로운 제품이 쏟아지는 이 극도로 가속화되는 중대한 환경에서 당신을 매일 집중하고 동기 부여하게 만들고 아침에 침대에서 일어나게 하는 가장 큰 원동력은 무엇인가. A. 근본적으로 나를 움직이는 힘은 우리가 앤트로픽을 시작한 이유와 같다. 바로 초지능 AI로의 전환이 잘 진행되도록 하는 것이다. 나에게는 한 살과 세 살 된 아이가 있다. 나는 내 아이들의 미래가 긍정적인 미래가 되기를 진심으로 바란다. 때때로 지출 보고서 같은 사소한 일을 할 때는 이 목표가 멀게 느껴지기도 한다. 그런데 지난주 일본, 그리고 이번 주 한국처럼 다른 나라에서 잠재 고객과 개발자들을 만나는 것이 목표에 계속 집중하는 데 큰 도움이 됐다. (이번 방문을 계기로) 세상이 이 기술을 얼마나 필요로 하는지, 그리고 동시에 이 기술이 안전해야 할 필요성이 얼마나 큰지 역시 절실히 느낀다.

2025.11.07 12:52조이환 기자

데이터 리더 95% "AI 의사결정 완전히 이해 못한다"…기업 내 신뢰성 '적신호'

인공지능(AI) 도입 속도가 빨라지고 있지만 정작 기업 내부에서는 AI의 결정 과정을 완전히 이해하거나 신뢰하지 못하는 것으로 드러났다. 전 세계 데이터 리더 상당수가 "AI가 무엇을 어떻게 판단하는지 명확히 알 수 없다"고 답하면서 AI 의사결정의 불투명성이 비즈니스 리스크로 부상하고 있다. 27일 데이터이쿠가 발표한 '글로벌 AI 실태 보고서'에 따르면 전 세계 데이터 리더의 95%가 AI 의사결정 과정에 대한 완전한 가시성을 확보하지 못했다고 답했다. 이번 조사는 데이터이쿠의 의뢰로 미국 시장조사기관 해리스 폴이 미국·영국·프랑스·독일·아랍에미리트(UAE)·일본·한국·싱가포르 등 8개국의 데이터 부문 고위 임원 800여 명을 대상으로 실시했다. 응답자의 86%는 AI가 이미 일상 업무의 일부가 됐다고 답했지만 거버넌스 격차와 설명 가능성 부족, 과도한 신뢰에 대한 우려는 여전히 높게 나타났다. 보고서에 따르면 19%의 데이터 리더만이 AI 에이전트의 결과를 승인하기 전에 작업 과정을 항상 공개하도록 요구하고 있으며 52%는 설명 가능성 부족으로 인해 에이전트 배포를 지연하거나 중단한 경험이 있다고 밝혔다. 또 응답자의 46%는 AI 성과에 대한 공로를 인정받을 가능성이 높다고 답했지만 56%는 실패 시 비즈니스 손실의 책임을 질 위험이 있다고 답했다. 나아가 60%는 향후 2년 내 AI가 가시적인 성과를 내지 못할 경우 자신의 일자리가 위태로울 수 있다고 우려했다. AI의 신뢰성 문제도 여전하다. 응답자의 59%는 지난 1년간 AI의 환각이나 오류로 인해 실제 비즈니스 문제를 경험했다고 답했다. 82%는 "AI가 상사보다 비즈니스 분석을 더 잘할 수 있다"고 평가했지만 74%는 "AI 오류율이 6%만 넘어도 인간 중심의 업무 방식으로 되돌아갈 것"이라고 밝혔다. 아울러 89%는 AI에게 절대 맡기지 않을 업무 기능이 최소 한 가지 이상 있다고 답해 기술적 의존과 신뢰 간의 간극이 여전히 크다는 점을 드러냈다. 이번 보고서는 최고경영자(CEO)의 낙관론과 데이터 리더의 현실 인식 사이에 존재하는 괴리도 지적했다. 데이터이쿠가 올해 초 발표한 'CEO 에디션' 보고서에서는 많은 CEO들이 AI를 비즈니스 혁신의 핵심 동력으로 낙관했지만 데이터 리더들은 이번 조사에서 신중한 입장을 보였다. 단 39%만이 자사 경영진이 AI를 제대로 이해하고 있다고 답했고 68%는 경영진이 AI의 정확도를 과대평가하고 있다고 지적했다. 73%는 경영진이 신뢰성 확보의 어려움을 간과한다고 답했으며 56%는 AI 전략 실패로 인해 CEO가 해임될 가능성도 있다고 내다봤다. 데이터이쿠는 이러한 괴리가 많은 AI 프로젝트가 여전히 개념 검증(PoC) 단계에 머무는 이유라고 설명했다. 신뢰성과 설명 가능성을 확보하지 못한 채 AI를 전면 도입하려는 시도가 실제 운영 단계에서 문제를 초래한다는 설명이다. 플로리안 두에토 데이터이쿠 공동 창립자 겸 CEO는 "이번 보고서가 보여주는 사실은 전 세계 기업들이 완전히 신뢰하지 못하는 AI에 의존하고 있다는 점"이라며 "다행히도 실패한 AI 프로젝트의 대부분은 설명 가능성, 추적 가능성, 거버넌스를 강화함으로써 해결 가능하며 이것이 바로 AI가 단순한 유행에서 벗어나 실질적인 비즈니스 성과를 창출하게 하는 방법이 될 것"이라고 말했다.

2025.10.28 10:00한정호 기자

패스트파이브, 상반기 재계약률 94% 달성

패스트파이브(대표 김대일)가 2025년 상반기 오피스 재계약률 94%를 기록하며 '믿고 찾는 오피스'로서의 입지를 공고히 했다고 14일 밝혔다. 패스트파이브가 공개한 상반기 데이터에 따르면, 이 회사는 94%의 높은 재계약률을 바탕으로 안정적인 고객 기반과 장기적 신뢰를 입증했다. 입주 기업들이 비용 절감을 넘어 사무실 관리와 운영의 복잡성을 줄이고, 본업에 더욱 집중할 수 있는 환경을 중시하면서 재계약이 자연스럽게 이어지고 있다는 분석이다. 신규 수요 또한 꾸준히 이어지고 있다. 2025년 상반기 동안 입주 문의 수는 약 1만9천 건을 기록했다. 올해 9월 현재까지 패스트파이브 누적 이용 기업은 약 2만8천 곳, 현재 패스트파이브에 입주한 멤버 수는 약 3만4천 명을 넘었다. 회사는 이번 성과는 패스트파이브가 초역세권 입지, 표준화된 운영 관리, IT 솔루션과 인프라 지원을 포함한 통합 서비스 체계를 통해 고객이 본업에 집중할 수 있는 환경을 제공하며, 다양한 산업군 기업들로부터 장기적 신뢰를 확보한 결과로 분석된다. 김대일 패스트파이브 대표는 “2025년 상반기 재계약률 94%는 수치를 뛰어넘어 고객들이 오피스를 단순한 비용 항목이 아니라 기업 경쟁력의 기반으로 인식하고 있다는 의미”라며 “패스트파이브에 아낌없이 보여준 기업의 관심에 다시 한번 감사드리며, 앞으로도 기업이 본업에 집중할 수 있는 환경을 제공하고, 다양한 산업의 성장 여정을 지원하는 신뢰할 수 있는 대한민국 대표 오피스 플랫폼으로 도약해 나가겠다”고 말했다.

2025.10.14 14:51백봉삼 기자

  Prev 1 2 3 4 Next  

지금 뜨는 기사

이시각 헤드라인

SK하이닉스, 차세대 낸드 판도 흔든다…'AIP' 기술 적용 검토

현대차·엔비디아·카카오, 자율주행 실증 시동…"AI로 역전 가능"

K팝을 만국의 오페라로…디지털 문화대제국 창시하다

"올림픽 맞아?"…밀라노 동계 올림픽 역대급 무관심 왜

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.