• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 개인정보'통합검색 결과 입니다. (38건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

프로파일러AI챗봇, 범죄자와 대화하고 잠복수사

“부모님이 집에 계시니? 아니면 혼자 놀고 있니?” 어떤 어른이 꼬마에게 문자 메시지를 보냈다. 이 어른은 소아성애자다. 사춘기에 접어들지 않은 어린이에게 강한 성적 욕망을 느끼는 성인을 소아성애자라 한다. “저 혼자 게임하고 있어요. 엄마와 아빠는 모두 일하러 나갔어요.” 꼬마가 답했다. 이 꼬마는 진짜 사람이 아니다. 아동 인신 매매범을 잡으려고 만든 인공지능(AI) 챗봇이다. AI 챗봇 프로필에는 소년 사진이 있다. 꼬마는 미국인 초등학생으로 설정됐다. 외동아이다. 2개 국어를 할 줄 안다. 게임하길 즐긴다. 수줍은 성격이라 여자아이를 사귈 때 특히 힘들어한다. 꼬마의 부모는 자식이 소셜미디어(SNS)를 못쓰게 한다. 부모는 에콰도르에서 이민 왔다. 부모 역시 가상 인물이다. 미국 잡지 와이어드는 17일(현지시간) 미국 경찰이 범인을 잡고자 AI 챗봇으로 범죄자와 대화한다고 정보기술(IT) 매체 404미디어를 인용해 보도했다. 미국 매시브블루라는 회사가 이 AI 챗봇 '오버워치(Overwatch)'를 경찰서에 판매하고 있다. 마이크 맥그로 매시브블루 공동창업자는 “인신 매매 피해자를 돕는 동시에 범죄자를 법의 심판대에 세우는 게 우리 목표”라고 말했다. 미국 경찰은 “오버워치로 체포한 사람은 아직 없다”면서도 “AI 챗봇은 수사를 돕는 도구”라고 평가했다. 그러면서 “인신 매매범과 마약 밀매범을 잡으려면 다양하게 접근해야 한다”고 설명했다. 매시브블루에 따르면 오버워치는 SNS를 살펴보다 용의자를 추적한다. 미국 3개 도시 댈러스·휴스턴·오스틴에서 24시간 활동해 인신 매매범 3천266명을 찾았다. 4분의 1은 인신 매매 대형 조직에 속했고, 15%는 청소년을 사고팔려는 것으로 나타났다. 매시브블루는 어떻게 식별했는지와 그들의 개인정보는 밝히지 않았다.

2025.04.19 08:00유혜진

애플, 사용자 데이터 AI 학습에 쓴다…개인정보 보호 뒷전 '논란'

애플이 인공지능(AI) 기능 고도화를 위해 기기 내 사용자 실제 데이터를 활용하는 새로운 학습 방식을 추진할 예정인 것으로 알려졌다. 이는 그동안 지켜온 합성 데이터 사용 원칙을 수정한 것으로 개인정보 보호 논란이 수면 위로 떠오를 전망이다. 블룸버그는 애플이 사용자 실제 데이터와 합성 데이터를 결합해 AI 모델 훈련을 할 것이란 계획을 담은 내부 자료를 공개했다고 15일 보도했다. 해당 문서명은 '차등 개인정보 보호 기반 집계 경향 분석'이며 새로운 데이터 활용법이 주요 내용이다. 애플의 기존 AI 모델 훈련법은 사용자의 실제 데이터와는 무관한 합성 데이터만을 활용하는 방식이었다. 개인정보 유출 위험은 없었지만, 실제 이용자 언어 패턴이나 문맥 흐름을 반영하는 데 한계가 있었다. 문서에 따르면 새 훈련법은 실제 사용자 데이터를 분석해 이와 비슷한 합성 데이터를 만드는 것이다. 사용자 메시지와 기존 합성 데이터를 비교·분석해 유사도와 반복되는 표현을 파악하는 식이다. 이를 통해 자연스러 언어 흐름과 표현 습관을 AI 모델이 더 정확히 학습하는 것이 목표다. 이 방식은 iOS 18.5와 맥OS 15.5 베타 버전에 우선 적용될 예정인 것으로 전해졌다. 블룸버그는 "이메일처럼 민감한 데이터가 간접적으로 학습 재료로 활용된다"며 "향후 법적·윤리적 논란을 불러올 수 있다"고 지적했다. 다수 외신도 애플이 이 변화를 시도하는 배경에는 경쟁사 대비 뒤처진 AI 개발 속도에 대한 위기감이 작용했다고 분석했다. 실제 애플의 AI 비서 '시리(Siri)' 관련 주요 기능 출시가 연이어 연기되면서, 업계에서도 애플을 'AI 후발주자'로 평가하는 분위기다. 최근 시리 부문 핵심 경영진까지 교체됐다. 애플은 "모든 분석 과정에 '차등 개인정보 보호(differential privacy)' 기술을 적용해 사용자 개개인을 식별할 수 없도록 설계했다"며 "수집된 정보는 기기 밖으로 나가지 않는다"고 해명했다. 그러면서 "해당 기능은 사용자가 명시적으로 동의해야만 작동된다"며 "설정 과정에서 이를 비활성화할 수 있다"고 덧붙였다.

2025.04.15 18:12김미정

[기고] AI 혁신 속 개인정보 보호

챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주] 이제 우리의 일상생활 속에는 인공지능(AI)이 깊숙이 자리잡고 있다. 과학기술정보통신부가 지난 3월 발표한 '2024년 인터넷이용실태조사'에 따르면 응답자의 60.3%가 AI 서비스를 이용한 경험이 있다고 답했다. 이는 2021년 동일한 질문에 대해 32.4%가 AI 서비스를 이용한 경험이 있다고 응답한 것과 비교하면 불과 3년 사이에 거의 두 배 가까이 증가한 수치다. 단편적인 조사 결과지만 AI가 얼마나 빠르게 우리의 삶 속으로 스며들었는지 짐작할 수 있다. AI가 단순한 기술의 범주를 넘어 삶의 필수 요소로 자리 잡게 된 배경에는 방대한 양의 데이터 학습 및 활용이 있다. 이러한 데이터에는 당연히 개인정보가 포함돼 있다. 신기술 분야의 발전은 필연적으로 데이터에 대한 높은 의존도를 수반하기에 변화하는 산업 환경에 맞춰 법과 제도를 정비할 필요가 있다. 또 정보주체의 권리를 보호하면서 개인정보를 안전하고 가치 있게 활용할 수 있는 기반을 마련하는 것이 중요하다. 개인정보보호위원회는 이러한 흐름에 발맞춰 AI 응용서비스에서 발생할 수 있는 개인정보 보호 취약점을 사전에 점검하고자 '사전 실태점검'을 실시하고 있다. 이는 AI 서비스의 개인정보 처리에 있어 투명성과 책임성을 확보하고 정보주체의 권리 보장 및 서비스의 안정적 운영에 기여하기 위한 조치라 할 수 있다. 기업 입장에서는 실태점검의 내용을 검토함으로써 AI에서의 개인정보 활용 및 보호를 위한 준수사항 등을 명확히 확인하고 실천할 수 있다. 일례로, 공개된 데이터를 활용해 AI 모델을 학습시키는 과정에서 주민등록번호나 여타 고유식별정보, 신용카드 번호와 같이 유출 시 피해가 클 수 있는 개인정보가 포함될 수 있다. 이 경우 사전 삭제 또는 비식별화 조치 등을 통해 유출 위험을 방지하는 등 개인정보를 안전하기 관리하기 위한 조치가 수반돼야 한다. 또 이용자 입력 데이터를 처리하는 과정에서 사람이 직접 해당 데이터에 접근하거나 검토를 수행하는 경우에는 이용자가 이를 인지하기 어렵다. 이에 따라 이용자로부터 미리 동의를 받는 것에는 어려움이 있고 이러한 사실을 명확하게 고지하는 것이 바람직하다. 아울러, 이용자가 입력한 데이터를 손쉽게 삭제하거나 처리 중단을 요청할 수 있도록 하는 기능도 함께 제공돼야 한다. 이에 더해 AI 서비스와 관련된 개인정보 처리의 전반에 있어 개인정보처리방침 등을 구체적으로 명시하고 관련 법령에 따른 안전조치의무를 준수해야 한다. 또 개인정보의 적법 처리 근거도 다양화할 필요가 있다. AI 모델 학습 등 연구 개발의 특성을 고려할 때 정보주체의 동의에만 의존하기보다는 개인정보처리자인 AI 서비스 사업자의 정당한 이익 등 다른 법적 근거를 함께 검토하는 것이 적절하다. 이러한 접근은 기술혁신을 위축시키지 않으면서도 정보주체의 자기결정권 등 권리를 보호하고 개인정보를 보다 안전하고 책임 있게 활용할 수 있는 토대가 된다. AI 서비스를 위한 데이터의 처리는 기술 발전의 핵심이자 경쟁력의 원천이지만 그 이면에 존재하는 개인정보 보호 문제를 소홀히 해서는 안 된다. AI에 대한 관심을 바탕으로 기술의 발전과 함께 신뢰할 수 있는 환경을 조성하기 위한 노력이 필요하다.

2025.04.11 16:46법무법인 태평양 이강혜

오픈소스 AI 잇달아 등장···보안은?

중국 인공지능(AI) 스타트업이 만든 고성능 AI 제품 '딥시크(DeepSeek)'가 미국 오픈AI의 '챗GPT'보다 저렴한 비용으로 개발됐다는 소식이 세상을 놀라게 했다. 특히 딥시크는 오픈소스로 공개, 더 화제를 모았다. 오픈소스 소프트웨어는 소스 코드를 공개해 누구나 그 코드를 보고 쓸 수 있는 소프트웨어를 뜻한다. 하지만 딥시크는 정보가 빠져나갈 수 있다는 우려도 함께 낳았다. 미국은 해군이 발빠르게 딥시크를 못 쓰게 막았고, 한국도 국방부·외교부·산업통상자원부·과학기술정보통신부 등과 KB국민은행·하나은행·우리은행·케이뱅크 등 은행, 현대자동차그룹 등 기업이 금지했다. 개인정보위원회는 딥시크 사용을 공식적으로 금지하기도 했다. 국가정보원은 딥시크를 검증했더니 ▲과도하게 개인정보를 수집하고 ▲입력 정보를 학습 정보로 쓰며 ▲광고주와 정보를 공유하는 한편 ▲국외 서버에 저장하는 문제점을 확인했다고 밝혔다. 딥시크의 보안 우려는 오픈소스를 사용했기 때문이기도 하다. 오픈소스를 사용한 AI는 보안에 안전할까? 전문가들은 “딥시크 같은 게 어떤 질문을 받으면 이상하게 답하는지 살펴야 한다”고 조언한다. 줄잇는 오픈소스 AI...LG·딥시크·메타·미스트랄 등 잇달아 선보여 오픈소스는 모두에게 열린 자원이므로 이를 활용하면 비교적 저렴한 비용으로 AI 모델을 개발할 수 있다. 중국 딥시크와 미국 메타(페이스북 모회사), 프랑스 미스트랄 등 오픈AI보다 늦게 뛰어든 기업들이 줄줄이 무기를 들고 나올 수 있는 배경이다. 한국도 빠지지 않았다. LG AI연구원은 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC)에서 '엑사원 딥'을 선보이며 오픈소스 플랫폼에 배포했다. 엑사원 딥은 단순한 지식 기반이 아니라 스스로 가설을 세우고 이를 검증하는 방식으로 문제를 푼다. 미국 AI 스타트업 글리터컴퍼니는 최근 메타 '라마' 오픈소스를 쓰기 시작했다. 라마가 무료인 덕에 오픈AI 모델만 쓸 때보다 모델 사용료를 70% 아낀 것으로 알려졌다. 다만 악성 AI '웜GPT(WormGPT)' 같은 것까지 만들 수 있다는 단점이 치명적이다. 웜GPT는 오픈소스로 만들어진 해킹 도구다. 챗봇에게 “이 사이트를 공격하자”거나 “악성 파일을 만들자”고 시킬 수 있다. 기자도 일전에 '보안 초짜기자 해킹 체험기'를 쓰려고 인터넷에서 쉽게 내려받을 수 있었다. 이처럼 누구나 손댈 수 있는 위험물이다. 전문가들 "AI, 정보 모을수록 두 얼굴...보안 취약점이 발견되면 누군가 해킹 도구 만들어 뿌려" 전문가들은 AI가 정보를 모으는 게 양날의 칼이라고 짚었다. 세종사이버대 정보보호학과 교수인 박영호 한국정보보호학회장은 “AI는 정보를 먹을수록 커진다”며 “그만큼 개인정보가 빠져나가는 게 문제”라고 말했다. 내가 유튜브로 언제, 어디서, 무슨 영상을 보는지가 전부 정보라는 얘기다. 알고리즘으로 사용자의 취미나 정치 성향도 알 수 있다. 순천향대 정보보호학과 명예교수인 염흥열 한국개인정보보호책임자(CPO)협의회장은 “오픈소스 취약성을 이용해 AI 보안 시스템을 공격하면 AI가 의도된 대로 동작하지 않고 탈옥 등의 방법으로 악성코드나 대규모 살상 무기 등을 만드는 데 악용될 수 있다”며 “AI가 처리하는 개인정보를 빼돌리도록 쓰일 수도 있다”고 분석했다. 윤두식 이로운앤컴퍼니 대표도 “딥시크 같은 게 어떤 질문을 받으면 이상하게 답하는지 살펴야 한다”며 “학습된 개인정보를 추출하거나 편향적인 답변을 유도하고 악성코드나 무기 제조법 등을 만들라고 이끌어 AI가 나쁘게 답변하는지 점검할 수 있다”고 설명했다. 그러면서 “딥시크 사이트 사용자의 개인정보와 그가 입력한 기록 등이 다른 사이트에 퍼지면 개인정보가 유출되는 셈”이라고 덧붙였다. 이로운앤컴퍼니는 AI 보안 수준을 높이는 서비스를 제공하는 회사다. 이희찬 스틸리언 연구소장은 “오픈소스 AI 행위를 예측하기 어려워 취약점을 검증하기도 힘들다”며 “소스 코드가 공개됐더라도 AI 모델이 복잡하다”고 진단했다. 스틸리언은 모바일 앱 보안 솔루션을 공급하는 업체다. 김택완 한국오픈소스협회장은 “애플이 운영체제 'iOS' 보안이 취약하다고 알아채면 개선해 알려준다”며 “오픈소스 모델은 누가 공지하지 않아 사용자가 스스로 '새로고침' 않으면 취약한 옛 모델을 계속 쓸 수밖에 없다”고 지적했다. 또 “보안 취약점이 발견되면 누군가 해킹 도구를 만들어 뿌린다”며 “해커가 이 도구로 10군데 시도하다가 1군데라도 뚫리면 해킹된다”고 지적했다. 이화영 사이버안보연구소 부소장은 “오픈소스 AI 모델 보안이 취약한지 알아보려면 LLM 정보를 아는 게 먼저”라며 “서비스 구조와 정보 흐름을 파악하고 LLM 애플리케이션을 운용할 때 일어날 수 있는 위협을 예상해 목록을 짤 필요가 있다”고 조언했다. 또 “조직에서 오픈소스를 얼마나 활용하는지 판단하고, 오픈소스에서 보안을 위협하는 요소를 살펴봐야 한다”고 권유했다. "LLM방화벽·필터 등으로 점검" 전문가들은 '내가 무슨 AI 도구의 어떤 버전을 쓰는지' 스스로 지켜보다가 새로운 버전을 찾으면 고쳐 써야 한다고 입을 모았다. AI를 안전하게 쓸 수 있는 인터넷 환경도 주문했다. 김택완 오픈소스협회장은 “우리는 수많은 소프트웨어를 쓰고 버전도 쏟아지는 만큼 업데이트 우선순위를 정하는 게 좋다”며 “내가 쓰는 소프트웨어가 내게 얼마나 중요한지, 얼마나 자주 쓰는지, 내 시스템을 얼마나 망가뜨리는지 위험도를 생각해야 한다"고 권했다. 이희찬 연구소장은 “오픈소스 AI를 외부에서 접속할 수 없는 내부망에서 활용하거나 AI 안전 수준을 높이는 기술(AI safety)을 적용해야 한다"고 조언했다. 염흥열 교수는 “인공지능 시스템을 개발하고 운영하는 조직은 AI 관리 체계를 갖춰야 한다”며 “무엇이 인공지능 시스템을 위협하는지 식별해 꾸준히 감시해야 한다”고 진단했다. 이어 “국제표준(ISO/IEC 42001)에 근거한 인공지능 관리 체계를 제3자 인증기관으로부터 인증받는 것도 방법”이라고 예를 들었다. 윤두식 대표는 ▲사용자 요청과 응답으로 말미암아 민감한 정보를 가려내고 없애는 '거대언어모델(LLM) 방화벽' ▲AI 모델에 전달되는 입력을 미리 점검해 금지된 정보를 막는 '프롬프트 필터링(Prompt Filtering)' ▲모델이 학습할 때 개인정보가 포함되지 않게끔 '학습 정보 정제' ▲생성된 응답을 실시간 살펴봐 부적절한 응답을 막는 'LLM 결과 필터링'을 해결책으로 꼽았다. 이화영 부소장은 “AI 모델 출력 결과나 학습 정보에 민감한 내용이 이씨는지 점검할 필요가 있다”며 “악성코드 탐지, 스팸 메일 필터링, 비정상적인 네트워크 트래픽 탐지 같은 사이버 보안 작업에 AI를 활용하는 것도 방법”이라고 말했다. 박영호 교수는 “브레이크가 좋아야 자동차를 안전하고도 빠르게 몰 수 있듯 AI를 활발하게 쓰려면 윤리 의식과 제도가 뒷받침돼야 한다”며 “이미 모든 기기에 사물인터넷(IoT)을 쓰는 만큼 안전 수준도 높여야 한다”고 강조했다.

2025.03.18 16:22유혜진

[보안리더] 박영호 정보보호학회장 "보안은 브레이크···기업 보안인력 적어"

“자동차가 빠르게 달리다가도 성능 좋은 브레이크를 밟으면 사고를 막을 수 있습니다. 정보 보호도 마찬가지예요. 안전이 담보되면 효율성을 높일 수 있죠.” 박영호 한국정보보호학회장(세종사이버대 정보보호학과 교수)은 13일 서울 광진구 세종사이버대 연구실에서 지디넷코리아와 만나 보안을 차 브레이크에 빗대며 이같이 말했다. 박 회장은 학·석·박사 학위를 모두 고려대 수학과에서 받았다. 암호에 관심이 많았다. 대통령실 사이버특별보좌관인 임종인 고려대 정보보호대학원 교수로부터 배웠다. 박사까지 마치고 임 교수가 2000년 고려대에 정보보호대학원을 만들 때 연구교수로서 힘을 모았다. 2002년 세종사이버대가 정보보호학과를 만들고 싶다며 박 회장을 불렀다. 수학 좋아하는 소년이었던 그는 20년 넘게 후학을 기르는 정보보호 전문가가 됐다. 아래는 박 회장과의 일문일답. -한국정보보호학회는 무슨 활동을 하나? "과학기술정보통신부 산하 학회다. 1990년에 생겼다. 학회원은 7천명으로, 대부분 교수다. 여름과 겨울 1년에 두 차례 국내 학술대회를 연다. 석·박사들이 논문을 발표한다. 국제 학술대회도 매년 2번 치른다. 여름 제주도에서 '국제 정보보호 응용 학술대회(WISA)', 겨울 서울에서 '국제 정보보호 암호 학술대회(ICISC)'를 한다. 매년 4월에는 정보보호학회가 가장 중요하다고 생각하는 '정보통신망 정보보호 콘퍼런스(NetSec-KR, 넷섹-KR)'를 개최한다. 올해에는 다음 달 17일부터 이틀 동안 서울 삼성동 코엑스에서 산·학·연 관계자 1천300명이 모이기로 했다. 미국 구글 정보보호최고책임자(CISO)에게서 구글이 어떻게 개인정보를 지키는지 들을 참이다. 한국인이 가장 많이 쓰는 응용 프로그램이 동영상 앱 '유튜브'니까." -끊임없는 개인정보 유출 사고에 어떻게 대응해야 하나? "기업이 돈 벌 때에는 보안을 뒷전으로 미루는 경향이 있다. 그러니 개인정보 유출 사고가 줄줄이 터질 때마다 큰일이다. 모든 것이 온라인으로 이어져서다. 기업에 정보보호 인력이 적다. 하물며 대기업도 그런데, 중소기업은 더 힘든 실정이다. 전산 담당자에게 CISO를 맡기곤 한다. 작정하고 뚫으려는 해커를 막기 어렵다. 정부가 '정보보호 전문가 10만 양병설'을 들고 나왔으니 제대로 했으면 한다. 처벌이 강해도 기업이 조심할 것이다. 미국처럼 한국에도 징벌적 손해배상 제도가 있다면 어떨까. 소비자는 어느 회사 상품을 썼을 뿐인데 개인정보가 빠져나가 피해 입었다면 기업이 정당한 대가를 치러야 한다. 그럼에도 해킹을 아예 막을 수는 없다. 창이 있으면 이를 막으려는 방패가 있고, 방패가 있으면 이를 뚫으려는 창이 있기 마련이다. 결국 복원력을 발휘하는 게 중요하다. 정보 보호 기술에 투자해 피해를 최소한으로 줄이는 것이다. 소비자 개인정보가 새더라도 기업이 이를 암호로 만들어 보관했다면 훨씬 안전하다." -'웜GPT'처럼 오픈소스를 악용한 인공지능(AI)에 무슨 문제가 있나? "몇 년 전 중학생이 부산 한 언론사 전광판에 '조선일보 전광판, 중학생한테 다 털렸죠?'라는 글을 띄웠다. 해킹 도구를 인터넷에서 어둠의 경로로 내려받아 실행한 것이다. 이처럼 AI로도 해킹 도구를 만들 수 있어서 우리 학회가 연구하고 있다. 오픈소스는 잘 쓰면 약이다. 세계적인 회사가 엄청나게 많은 돈을 쏟아 '챗GPT'를 만드는 반면 가난한 나라는 그러기 어려웠다. 그런데 중국에서 '딥시크'가 오픈소스를 활용해 챗GPT보다 저렴한 비용으로 개발됐다는 소식이 알려졌다. 곧바로 정보가 탈취될 수 있다는 우려도 커졌다. 보안을 해결하지 않으면 심각해질 수 있다. AI는 정보를 먹을수록 커진다. 그만큼 개인정보가 빠져나가는 게 문제다. 내가 유튜브로 언제, 어디서, 무슨 영상을 보는지가 전부 정보다. 알고리즘으로 사용자의 취미나 정치 성향도 알 수 있다. 차가 빠르게 달리려면 브레이크가 좋아야 하듯 AI를 활발하게 쓰려면 윤리 의식과 제도가 뒷받침돼야 한다. 이미 사물인터넷(IoT)을 안 쓰는 기기가 없다. 세상이 달라졌으니 안전 수준도 높여야 한다."

2025.03.14 16:20유혜진

넥슨 '메이플스토리' 해킹 후…범죄기록부 쓴 AI스페라

“제가 전에 다닌 직장 넥슨에서 게임 '메이플스토리' 사용자 개인정보 1천300만건이 유출됐습니다. 충격적이죠. 그래서 '인터넷프로토콜(IP) 범죄 기록부'를 만들기로 했습니다. 5년이나 개발했어요. 너무 오래 걸려서 동료와 투자자가 힘들어했습니다. 'IP 주소를 다 수집하겠다니 미친 짓'이라던 사람들이 이제 '대세'라고 평가하네요.” 강병탁 AI스페라 대표는 6일 서울 삼성동 그랜드인터컨티넨탈서울파르나스호텔에서 개최한 '공격 표면 관리(ASM·Attack Surface Management)와 위협 인텔리전스(TI·Threat Intelligence) 콘퍼런스'에서 이같이 밝혔다. AI스페라는 2017년 10월 문을 열었다. 2023년 4월에야 '크리미널(Criminal) IP'를 선보였다. 이후 국내외 50개사와 계약했다. 강 대표는 “빅데이터 양이 430페타바이트(PB)”라며 “서버는 900대, 날마다 바뀌는 정보는 40억~50억개”라고 말했다. 그는 “서버를 비롯한 정보기술(IT) 자산은 담당자가 아는 현황과 인터넷에 연결된 실제 숫자가 다르다”며 “잘 지키고 있다고 생각해도 ASM으로 살펴보면 그렇지 않다는 사실을 알게 된다”고 지적했다. 이어 “보안 담당자가 항상 모든 자산을 관리할 수는 없다”며 “위협에 미리 대응할 수 있는 ASM이 필요하다”고 주장했다. 또 “ASM은 스캔할 때 장애를 일으키지 않는다”며 “날마다 자동 수행해 결과를 알려준다”고 강조했다. AI스페라를 공동 창업한 김휘강 고려대 정보보호대학원 교수는 “한국 콘텐츠 사업의 적은 저작권 침해”라며 “불법 유포 사이트 '누누티비'가 대표적”이라고 소개했다. 그러면서 “크리미널 IP에 '드라마'를 검색하면 한국 드라마 안 볼 것 같은 나라의 불법 사이트에도 나온다”고 시범을 보였다. 이어 “요즘 우크라이나에서 이런 범죄가 많이 일어난다”며 “국제 공조하려고 해도 전쟁통이라 못하니까 취약하다”고 덧붙였다.

2025.03.06 16:51유혜진

"中에 220배 뒤처져"...자율주행차 발목잡는 규제

“지난해까지 중국 바이두가 쌓은 자율주행 운행 기록이 1억1천만km였다. 국내 1위 업체로 평가받는 오토노머스에이투지가 50만km로 약 220배 차이가 난다. 방대한 데이터 차이를 극복하려면 양질의 데이터를 수집할 수 있게 해야 한다.” 이상동 한국자율주행산업협회 팀장은 지난 27일 열린 '자율주행 산업 지원 국회 토론회'에서 이같이 말했다. 최근 중국 스타트업이 내놓은 AI 모델 '딥시크'가 저성능 칩으로 충격적인 성능을 보여주자 BYD와 지리 등 현지 자동차 기업들이 잇따라 자율주행 기술에 딥시크를 활용하겠다고 나섰다. 일찍이 자율주행 기술을 내세워온 테슬라도 지난해 말 완전자율주행(FSD) 소프트웨어 최신 버전을 업데이트하고, 오는 6월 이를 기반으로 한 로보택시 서비스를 예고하는 등 기술 고도화에 집중하는 추세다. 해외 기업들이 실제 주행 데이터를 수집하고, 이를 토대로 기술을 고도화하는 반면 우리나라는 데이터 수집 제한 규제로 양적 격차가 크게 벌어지고 있다는 지적이다. 이상동 팀장은 “AI 기업과 자율주행 기업, 완성차 기업들이 경계선 없이 넘나들면서 협업을 하며 AI 학습을 위한 데이터 수집과 활용이 중요하게 됐다”며 “국내에 자율주행차가 돌아다니려면 국내 환경에 맞는 최적화 데이터가 꼭 필요하다”고 강조했다. 특히 국가 차원에서 양질의 주행 데이터를 수집하는 것이 바람직하다고 봤다. 영세한 스타트업도 산업에 진입할 수 있게 하자는 취지다. 지난 2023년 개인정보보호법 개정에 따라 '이동형 영상정보처리기기'라는 개념으로 주행 영상을 데이터로 활용할 수 있는 법적 근거가 마련됐다. 그러나 데이터의 질적 측면에서 미국, 중국 등 자율주행 기술에 공들이는 국가 대비 여건이 불리하다는 지적이다. 이 팀장은 “테슬라로 예를 들면, 500만대 차량이 도로를 주행하며 사고가 발생하면 당시 영상을 그대로 본사에 전송함에 따라 그 데이터를 자율주행 AI 성능 개선에 활용하고 있다”며 “이런 회사와 규제 샌드박스 차량 몇십 대의 주행 데이터를 토대로 기술을 개발하는 (우리나라) 회사 간 경쟁력이 어디에 있겠나”라고 강조했다. 특히 현 제도 하에서 주행 영상 데이터를 활용할 때 개인정보 비식별화 처리 과정을 거치게 하는 점을 문제 삼았다. 비식별 처리된 영상을 학습한 AI보다 원본 영상을 학습한 AI가 객체 인식이나 주행 판단의 정확도가 17% 이상 높아졌다는 연구 결과를 소개했다. 이 팀장은 “특히 야간 주행, 악천우 등 복잡한 도심 환경에서 원본 주행 영상의 활용 가치가 더욱 올라간다”고 덧붙였다. 우리나라에선 설정된 규칙에 따라 자율주행 AI 모델이 주어진 상황을 인지하고 제어하는 반면, 테슬라 등 선도 기업들은 AI가 사람처럼 새로운 상황에서도 적절한 판단을 할 수 있도록 엔드투엔드(E2E) 방식을 쓰고 있는 점에도 주목했다. E2E 방식 자율주행 AI 성능을 개선하기 위해 더욱 양질의 주행 데이터가 요구되고 있다는 분석이다. 이 팀장은 “결국 모든 사례를 사전에 정의할 수 없기 때문에, 정의된 내용을 벗어나는 사례에서 자율주행 AI가 어떻게 대응할지 모른다는 기술적 어려움이 있다”고 첨언했다. 규제 샌드박스를 통해 원본 주행 데이터 활용이 일부 허용되고 있지만, 대규모 개발 프로젝트에는 한계가 있어 많은 기업들이 비식별 처리된 영상 데이터를 사용할 수밖에 없는 상황이다. 이 팀장은 “규제 샌드박스는 일시적인 예외를 두는 제도인데 자율주행 산업은 계속 고도화해나갈 산업”이라며 “원본 주행 데이터 활용에 대한 지속적인 법적 근거가 마련돼야 한다”고 주장했다.

2025.02.28 18:37김윤희

[보안 리딩기업] 이로운앤컴퍼니 "AI보안 우리가 책임···한국서 유일"

“'나쁜 일 해서 많은 돈 벌지 말자'는 게 좌우명이에요. '덜 벌더라도 착한 일 하자'고 생각하죠. 그래서 '기술로 고객을 이롭게 하자'는 뜻으로 회사 이름을 '이로운앤컴퍼니'라 지었어요. '인공지능(AI) 보안'이라면 세계 누구든 이로운앤컴퍼니를 찾게 하고 싶어요. 기업이 업무를 안전하게 자동화하는 서비스를 통틀어 제공하는 게 목표입니다.” 윤두식 이로운앤컴퍼니 대표는 26일 서울 삼성동 사무실에서 지디넷코리아와 만나 사명을 소개하며 이같이 밝혔다. 윤 대표는 1973년생으로 만 50세에 창업했다. 비교적 늦게 도전했다고 여기는 나이다. 그는 대전 한밭고를 졸업하고, 충남대에서 컴퓨터과학 학·석사를 받았다. 그리고 국내 정보보호 기업 지란지교소프트에 입사했다. 여기서 25년 동안 일하며 10년은 지란지교소프트에서 분사한 지란지교시큐리티 대표이사로 보냈다. 윤 대표는 “오래 전부터 창업하고 싶었지만 지란지교시큐리티를 키우는 게 우선이었다”며 “코스닥시장에 상장하고 모비젠과 SSR을 인수하면서 회사를 안정적인 궤도로 올렸다”고 말했다. 그 목표를 이루고서야 '내 회사'를 차릴 때라고 확신했다. 윤 대표는 “고객이 안전하게 AI를 활용하도록 돕겠다”며 2024년 1월 이로운앤컴퍼니를 설립했다. 이로운앤컴퍼니는 AI챗봇에서 민감 정보를 판별하고, 거대언어모델(LLM)을 연동한 응용프로그램(앱)에 대한 공격을 방어하는 AI 보안 기업이다. 윤 대표를 포함해 9명의 구성원이 이로운앤컴퍼니에서 일한다. 3명이 출발, 외형으로는 1년새 3배가 커졌다. 임직원 9명 가운데 8명이 개발자다. 유일한 비개발자 1명은 최고고객책임자(CCO)로 윤 대표에게 특별한 사람이다. 전 직장인 지란지교소프트에서 만나 사내 커플이 됐고, 이제 창업자 부부로 회사에서나 가정에서나 언제나 그를 응원하는 든든한 지원자다. 회사 이름 '이로운'도 아내가 제안했다. 그 1년간의 이야기를 들어봤다. 아래는 윤 대표와의 일문일답. -AI 보안이란 무엇인가? “AI 보안은 크게 두 가지가 있다. 하나는 AI의 보안을 높이는 AI를 위한 보안(Security for AI)과 또 하나는 AI를 이용해 보안(AI for Security)을 높이는 것이다. 이 중 이로운앤컴퍼니는 AI의 보안을 높이는 서비스를 제공한다. 한국에는 우리 같은 회사가 아직 없다. 우리가 유일하다. 외국에서도 빨라야 2020년 시작, 몇 개 회사가 있다. 이제 시장이 막 열리는 단계다.” -이로운앤컴퍼니 주력 제품은? “지난해 7월 '세이프엑스(SAIFE X)'를 선보였다. 이어 12월에 첫 고객으로 한국정보보호교육원에 공급했다. 기업은 AI 서비스를 쓰고 싶어도 회사 정보가 밖으로 나갈까 봐 불안해한다. 사용자가 AI챗봇 대화창에 내용을 쓰면 세이프엑스가 민감한 정보를 가려낸다. '입력한 내용에 민감한 정보가 있어요.' 그러면서 이름과 연락처 등을 표시한다. 곧이어 '민감한 정보가 아니면 표시를 해제하고 전송하세요. 민감한 정보를 보내면 유출 피해를 입을 수 있으니 조심하세요.'라고 알려준다. 기업은 사정에 맞게 개인정보와 금융 정보 등이 기밀이라고 미리 설정할 수 있다. 세이프엑스에는 '제일브레이크 필터(Jailbreak Filter)' 기능도 있다. AI에 일부러 나쁜 내용을 써서 공격자가 의도하는 동작으로 유도하는 제일브레이크를 알아채 막아준다. 지금껏 알려진 제일브레이크는 대부분 영어로 쓰였다. 한국어 챗봇에서 악용될 가능성이 크다. 이로운앤컴퍼니는 한국 회사답게 한국어 공격을 방어하는 능력을 지녔다. LLM 보안 상태를 진단하고 해결책을 제시하는 레드팀(Red Team) 서비스도 제공한다. AI를 쓰고 싶은데 해킹이 걱정된다면 '세이프 X'를 쓰면 된다." -수출은 언제쯤? “설립한 지 1년여 밖에 안됐지만 수출도 고려하고 있다. 우선 연내 일본어 서비스를 내놓으려고 한다. 며칠 전에도 일본 회사를 만났다. 관심이 많더라. 이로운앤컴퍼니의 해외 시장은 처음도 끝도 일본이다. 일본 정보보호 시장 규모는 한국의 10배다. 일본에서만 성공하더라도 큰 성과를 이루는 셈이다. 일본에서 10% 이상 시장 점유율을 차지하고 싶다.” -매출 목표와 상장 계획은? “일단 올해는 10억원 달성이 목표다. 착실히 성장해 2027년에는 100억원을 돌파하고 싶다. 양분으로 삼을 투자도 차근차근 받고 있다. 지난해 5억원을 시드 투자(Seed Investment)로 받았다. 시드 투자는 창업초기기업이 서비스를 출시할 준비하는 단계에서 이뤄진다. 창업초기기업 투자 전문사 마크앤컴퍼니가 이끌었다. 올해에는 프리시리즈A 단계 투자 유치를 생각하고 있다. 기업공개(IPO)는 2029~2030년쯤으로 잡고 있다.” 고객에게 한마디? “AI는 기업 경쟁력에 반드시 필요한 수단이다. 보안이 두려워서, 효과를 못 믿어 도입하기를 미룬다면 회사 경쟁력 높일 때를 놓친다.겪어봐야 한다. 보안이 두려우면 이로운앤컴퍼니를 찾아라. 같이 해결하자. 우리 회사 팀멤버들이 좋다. 특히 최고기술책임자(CTO)의 경우 20년 이상 보안 개발자로 일했고, 한국보다 큰 시장으로 평가받는 일본에서도 경험을 갖고 있다." 스타트업 대표로서 자랑할 기업 문화는? “재택근무다. 월·화·수요일 3일은 집에서 일하고, 목·금요일에는 오전 10시부터 오후 4시까지 집중 근무하면 된다. 이로운앤컴퍼니 직원은 강원 춘천시, 경기 남양주시 등에서 살기에 재택근무를 매우 좋아한다. 회사가 안착하면 완전 재택근무로 바꿀 것도 생각하고 있다.” 50대에 창업했는데 힘들지 않았나? "왜 안힘들었겠나. 여러 어려움이 많았다. 역시 밖은 '비바람'이 세더라(웃음). 특히 가장 힘든 건 투자 유치였다. 생각한 것보다 쉽지 않더라. 법인사업자 등록부터 세무·회계·법무까지 직접 챙겨야 하는 것도 힘들고 생소했다. 힘들때마다 아내가 큰 힘을 줬다.(웃음)" 창업하려는 후배에게 조언한다면? “정부가 지원하는 창업 교육을 꼭 받고 시작하길 바란다. 임직원 구성, 지분 구조, 아이템 선정, 고객 요구 수렴 방법, 투자 유치 방법 등 대부분을 알려준다. 기본을 알면 잘못된 길을 갈 확률이 줄어든다. '그냥 해 볼까? 안되면 취직하지, 뭐'라는 생각으로는 절대 성공하지 못한다. 온 힘을 다해도 될까 말까다. 그리고 내가 50세에 창업해서 하는 말인데, 마음이 있으면 한 살이라도 어릴 때 하라. 체력도 중요하다(웃음).” 올해 한국정보보호산업협회 AI보안협의회 회장을 맡았는데 활동 계획은? "회원사는 구상 단계다. 정부와 산업계 모두가 AI 보안에 관심이 많으므로 많은 기업과 학계가 참여할 거라 생각한다. 산업에서 AI를 어떻게 적용하는 것이 보안 측면에서 베스트 프랙티스(Best Practice)인지 모르기 때문에 이를 도와줄 수 있는 큰 아웃라인을 만드는 작업을 우선 할 계획이다."

2025.02.28 08:20유혜진

"AI 환경서 개인정보 보호 사회적 신뢰 확보 선행돼야"

정부가 개인정보 관련 핵심 이슈를 논의하는 영상 콘텐츠를 선보였다. 고학수 개인정보보호위원회 위원장은 개인정보위TV가 운영하는 '학수고대' 프로그램에 과학 커뮤니케이터 '궤도'를 초청, '인공지능(AI) 시대와 개인정보'를 주제로 다뤘다고 19일 밝혔다. 학수고대는 주요 개인정보 이슈를 주제로 고학수 위원장이 직접 진행하는 예능 토크쇼 형태의 유튜브 콘텐츠다. 2024년에는 개인정보 트렌드,자율주행 기술과 개인정보 연관성 등에 쟁점을 다뤘다. 개인정보위는 2025년 첫 번째 손님인 궤도를 시작으로, 개인정보 정책분야의 핵심 이슈를 국민 눈높이에 맞춰 전달할 수 있는 다양한 콘텐츠를 연중 선보일 방침이다. 고 위원장은 "대량의 데이터가 복잡한 방식으로 처리되는 AI 환경에서는 무엇보다 개인정보 보호에 대한 사회적 신뢰 확보가 선행돼야 한다"며 "국민·기업과의 활발한 소통을 펼치겠다"고 말했다.

2025.01.19 12:00김미정

EU, AI법 위반시 최대 '매출 7% 벌금'...기업들 비상

가트너(Gartner)가 발표한 'EU AI법 준비를 위한 1단계: 발견과 목록화' 보고서에 따르면, 2024년 말부터 단계적으로 시행되는 EU AI법이 기업들에게 막대한 재정적 리스크를 안길 것으로 전망된다. EU AI법의 단계별 시행 일정 공개 EU AI법은 2025년 2월부터 단계적으로 시행된다. 첫 단계로 2025년 2월부터 금지된 AI 시스템에 대한 규제가 시작되며, 2025년 8월부터는 범용 AI와 처벌 규정이 적용된다. 2026년 8월에는 대부분의 규정이 시행되고, 최종적으로 2027년 8월에는 Article 6.1과 Annex II에 해당하는 규정이 시행된다. 이러한 단계적 접근은 기업들이 충분한 준비 기간을 가질 수 있도록 설계되었다. AI 위험도별 규제 체계 상세 공개 EU AI법은 AI 시스템을 위험도에 따라 세 가지 범주로 분류한다. '금지된 AI'는 사용자의 자유의지를 침해하거나 '사회적 점수 매기기'에 사용되는 시스템으로, 법 집행 목적 등 극히 제한적인 예외를 제외하고는 전면 금지된다. '고위험 AI'는 인간에게 영향을 미치는 대부분의 AI 기술이 해당되며, 엄격한 요구사항을 준수해야 한다. '저위험 AI'는 AI 기반 추천 시스템이나 스팸 및 바이러스 필터 등이 포함되며, 재고 관리나 문서화 등 비교적 가벼운 요구사항이 적용된다. AI 도입 유형 분류와 대응 전략 가트너는 기업의 AI 도입을 네 가지 유형으로 분류했다. 첫째는 '와일드 AI'로, 직원들이 업무를 위해 공개된 AI 도구를 사용하는 경우다. 둘째는 '임베디드 AI'로, 기업이 사용하는 솔루션에 내장된 AI 기능을 의미한다. 셋째는 '하이브리드 AI'로, 기성 AI 모델과 기업 데이터를 결합한 형태이며, 마지막으로 '인하우스 AI'는 기업이 자체적으로 개발한 AI 시스템을 말한다. EU AI법의 추가 규제 요구사항 EU AI법은 특정 AI 기반 애플리케이션에 대해 위험성 평가, 투명성 의무, EU 전역 데이터베이스 등록을 요구한다. 특히 시스템적 위험을 수반하는 최고 성능의 범용 AI에는 추가적인 의무 요구사항이 적용된다. 기업들은 이러한 요구사항을 준수하기 위해 자사의 AI 시스템을 철저히 점검하고 필요한 조치를 취해야 한다. 기업의 실질적 대응 방안 가트너는 기업의 효과적인 AI 시스템 관리를 위해 구체적인 실행 방안을 제시했다. 우선 기업 아키텍처, 제3자 리스크 관리, 변경 관리, 조달 프로세스를 적절히 수정하여 새로운 AI 기능과 서비스의 도입을 지속적으로 모니터링해야 한다. 완벽한 발견보다는 점진적인 진행이 중요하며, 일반개인정보보호법(GDPR) 준수를 위해 작성된 처리활동기록(RoPA)과 개인정보영향평가(PIA)를 활용하면 발견 및 목록화 과정을 상당히 단축할 수 있다. AI 시스템 카탈로그화를 위한 구체적 행동 지침 기업들은 각 AI 시스템에 대해 상세한 정보를 수집하고 문서화해야 한다. 시스템명, 처리하는 개인정보의 종류(특히 인종, 민족, 정치적 성향, 성별, 성적 지향, 종교적 신념, 노조 가입 여부, 유전자, 생체인식, 건강 데이터 등 민감정보), 처리 목적, 관련 업무 프로세스, 벤더 정보, 개인정보 처리의 법적 근거 등을 포함해야 한다. 가트너는 데이터 중심의 접근을 권장하며, 특히 민감한 개인정보를 처리하는 인사나 마케팅 부서의 AI 시스템을 우선적으로 점검할 것을 조언했다. EU 법률 체계와의 연관성 EU AI법은 기존의 다양한 EU 법률과 연계돼 있다. 기계류 지침, 장난감 안전 지침, 의료기기 규정, 민간항공보안 규정 등 17개 이상의 EU 법률이 AI법과 직접적으로 연관되어 있다. 이러한 기존 EU 법률의 적용을 받는 AI 시스템은 대부분 고위험 AI로 분류될 가능성이 높다. 따라서 기업들은 자사의 AI 시스템이 이러한 법률과 관련이 있는지 세심하게 검토해야 한다. ■ 기사는 클로드 3.5 Sonnet과 챗GPT-4o를 활용해 작성되었습니다.

2025.01.18 17:28AI 에디터

고학수 위원장 "올해 개보위 핵심은 AI…안전연구소 협력 의지"

개인정보보호위원회가 올해 안전한 인공지능(AI) 생태계 조성을 위해 AI안전연구소와 협력할 의지를 내비쳤다. 고학수 개인정보위 위원장은 16일 서울 정부청사에서 열린 정례 브리핑에서 이같은 업무 계획을 밝혔다. 고학수 위원장은 "올해 개인정보위 키워드는 AI"라며 "지난 2년 동안 AI 영역을 자세히 들여다봤다면 올해부터 현장에서 프라이버시, 데이터 생태계 등 실질적인 AI 안전에 집중할 것"이라고 설명했다. 고 위원장은 최근 AI로 인해 발생한 딥페이크와 가짜뉴스, 환각현상 등 부작용이 발생했다고 지적했다. 이에 개인정보위가 늘 강조하는 개인의 자유와 존엄성이 훼손됐다는 설명이다. 그는 "특히 딥페이크는 개인의 존엄성을 전면 침해하고 있다"며 "이를 정부가 근본적으로 어떻게 해결할 것인가 고민해야 할 시점"이라고 말했다. 고 위원장은 AI 부작용 해결과 국민 자유·존엄성 보호를 위해 AI안전연구소와 협력할 것이라고 말했다. 구체적으로는 AI 서비스에 적용되는 데이터 프라이버시 관련 영역에서 가이드라인·관리 모형 등에 협력할 계획이다. 그는"최근 AI안전연구소를 산하로 둔 한국전자통신연구원(ETRI)과 한국정보통신기술협회(TTA)가 지난해 12월 발표한 개인정보위의 AI 리스크 관리 모형에 큰 관심을 보였다"며 "이는 AI안전연구소 입장에서도 당연히 들여다볼 법한 영역이기 때문"이라고 강조했다. "공공영역 처벌법 고려해야"…구글·메타 소송 결과 '낙관' 고학수 위원장은 공공영역 과징금 규모와 처벌 수위를 고려해야 한다고 주장했다. 이는 공공영역 과징금 규모가 민간기업에 비해 낮다는 평가에 대한 반응이다. 개정법 전 공공기관 과징금 상한선은 5억원이었지만 지난해 이를 20억원으로 상향조정됐다. 그러나 여전히 민간기업에 비해 낮은 수준이라는 지적이 이어지고 있다. 이에 고 위원장은 "공공영역은 국민 세금으로 운영되는 곳"이라며 "과징금을 높게 부과하는 것이 세금 낭비로 이어질 수 있다"고 설명했다. 그러면서 "과징금이 아닌 다른 방향으로 처벌을 진행하는 방향으로 바꿀 필요가 있다"고 강조했다. 실제 개인정보위는 공공기관 처벌 사실을 공표하는 것을 선택에서 의무로 전환한 바 있다. 한 번 초사 처분 된 기관은 3년 동안 반복적으로 점검할 수 있는 시스템도 구축된 상태다. 조직 내부에서 문제가 발견될 때 조직적 문제와 개인적 문제를 구분해 징계하는 방식도 추진 중이다. 고학수 위원장은 오는 23일 판결 예정인 구글·메타 소송을 낙관적으로 기대한다고 말했다. 그는 "조만간 결정이 이뤄질 사안"이라며 "낙관적으로 생각하지만 100% 장담할 수는 없는 상황"이라고 덧붙였다.

2025.01.16 17:01김미정

정부, 국민 개인정보 결정권 강화…IP 카메라 설계 문턱 높여

정부가 개인정보 결정권을 강화하는 등 국민이 체감할 수 있는 정보보호 확산을 본격화한다. 개인정보보호위원회는 '안전한 개인정보, 신뢰받는 인공지능(AI) 시대'를 주제로 한 2025년 주요업무 추진계획을 통해 이같이 15일 발표했다. 개인정보위는 올 3월부터 마이데이터 선도서비스 5종을 단계적으로 출시한다. 마이데이터 시행으로 국민이 자신의 정보를 주체적으로 활용해 원하는 서비스에 활용하도록 지원할 방침이다. 이에 해당하는 서비스 분야는 크게 의료, 통신, 자율 분야다. 의료는 ▲맞춤형 만성질환 예방관리 ▲해외 체류 국민 국내 의료 기록 연동 ▲복약 관리·약물 처방 지원이다. 통신에는 최적 통신요금 추천 서비스가 출시된다. 자율 분야는 여행지·여행경비 최적 설계 제안 서비스다. 정부는 공공·금융 등 선행부문과 의료·통신 등 신규부문 간 데이터 융합 지원을 통한 시너지 창출 등 마이데이터 서비스 창출 여건도 조성한다. 개인정보위는 데이터 전송요구 이력 조회, 전송 철회 등 국민 개인정보 전송요구권 행사를 지원하는 '마이데이터 지원 플랫폼'도 오픈할 예정이다. 이를 통해 일반 사용자가 여러 부문에 흩어진 본인 정보를 확인하고 저장, 활용할 수 있는 본인 다운로드 기반을 마련한다. 정부는 안전한 데이터 활용을 위한 개인정보관리 전문기관 안내서도 발간할 예정이다. 다크패턴 등 부당한 전송 유도와 유인방지 가이드라인도 제시할 방침이다. 개인정보보호 컨트롤타워 역할 강화...정보 안전망 촘촘히 개인정보위는 개인정보보호 컨트롤타워 역할을 늘린다고 강조했다. 우선 개인정보 보호 취약 3대 부문인 ▲국민 생활 밀접 분야 ▲신기술·신산업 분야 ▲대규모 개인정보를 처리하는 공공 분야 등을 선제적으로 집중 점검할 방침이다. 정부는 올해 3월 디지털 증거 수집·분석을 통해 유출 원인 등을 파악하는 포렌식랩도 구축한다. 이달부터 조사 전 과정을 체계적으로 관리하는 조사정보시스템을 운영할 예정이다. 이를 통해 투명하고 신속한 사건 처리 등 조사 품질을 높일 방침이다. 개인정보위는 IP 카메라 등 일상에서 활용되는 IT 기기 대상으로 개인정보보호 중심 설계 시범인증 확대, 법정 인증화도 추진한다. 다중이용시설에 설치하는 IP카메라에 보안인증제품 사용을 의무화한다. 또 온라인 맞춤형 광고 제공 목적의 행태정보 안전관리 체계를 강화하고 AI와 홈 사물인터넷(IoT), 에듀테크, 방송, 통신 등 50여 개사 대상으로 개인정보 처리방침 심층 평가를 실시할 예정이다. 고학수 개인정보위 위원장은 "AI 환경 변화에 발맞춰 원칙 기반 개인정보 규율체계 완성도를 높여 나갈 것"이라며 "국민 불안을 해소하고 국내 AI 생태계 발전을 적극 지원하겠다"고 밝혔다.

2025.01.15 16:43김미정

AI 신뢰도 하락세…세일즈포스 "윤리적 활용이 기업 경쟁력"

기업의 윤리적 인공지능(AI) 활용에 대한 신뢰도가 하락세를 보이고 있다는 분석이 나왔다. 15일 세일즈포스의 'AI 시대 고객경험 현황 보고서'에 따르면 AI 기술 발전으로 인해 기업 신뢰도가 더욱 중요해진 반면, 기업의 윤리적 AI 활용도는 이같은 추세를 보인다는 결과가 나왔다. 이번 보고서는 전 세계 18개국, 1만6천500명 이상의 소비자와 비즈니스 구매자를 대상으로 진행한 연구조사를 기반으로 작성됐다. 이번 조사에서 전체 응답자의 71%는 1년 전과 비교해 기업에 대한 신뢰도가 하락했다고 응답했다. 응답자의 61%는 AI 기술의 발전으로 인해 기업 신뢰도가 더욱 중요해졌다고 답했다. 다만 기업의 윤리적 AI 활용에 대한 신뢰도는 2023년 58%에서 2024년 42%로 하락했다. 개인화된 서비스 측면에서는 진전이 있었다. 기업이 고객 개개인의 특성을 이해하고 있다고 느끼는 소비자 비율은 2023년 39%에서 2024년 73%로 약 2배 늘었다. 그러나 동시에 기업의 데이터 활용이 자신에게 도움이 된다고 생각하는 비율은 2022년 60%에서 2024년 49%로 하락했다. 응답자의 71%는 개인정보 보호에 더욱 민감해졌다고 응답했다. 기업의 AI 활용에 대한 소비자들의 기대치 또한 높아진 것으로 나타났다. 특히 응답자들은 기업의 신뢰도 향상을 위한 요인으로 ▲AI 활용의 투명성(42%) ▲결과물에 대한 인간 검증(35%) ▲AI 사용량에 대한 사용자 제어 강화(32%) ▲결과물의 설명 가능성(31%) 등을 지목했다. 71%의 응답자가 AI의 결과물을 사람이 검증하는 것이 중요하다고 응답했다. 또 AI 활용에 있어 기업이 투명하고 명확한 기준을 제시해야 할 필요성이 높아진 것으로 나타났다. 그럼에도 AI의 장기 전망에 대해서는 긍정적인 의견이 우세했다. 49%의 응답자가 향후 10년 내 AI가 인간의 능력과 비슷한 수준에 도달할 것으로 예상했다. 특히 Z세대와 밀레니얼 세대에서 사람을 대신해 행동할 수 있는 능력을 갖춘 자율형 AI 에이전트에 대한 긍정적인 반응이 두드러졌다. 이들 중 43%는 AI 에이전트를 통해 고객경험의 수준이 향상됐다 평가했다. 이는 베이비부머 세대(32%)와 큰 차이를 보였다. AI 에이전트의 실제 활용에 있어서는 업무 특성에 따른 선호도 차이가 뚜렷했다. 일정 예약(40%)이나 개인화된 콘텐츠 제작(38%) 등 단순 업무에는 긍정적이었다. 재정적인 결정(58%)이나 의료 상담(44%) 등 전문성이 필요한 영역에서는 불편함을 느끼고 있다고 응답한 비율이 상대적으로 높았다. 또 응답자의 72%는 AI 에이전트와 대화 중이라는 사실을 인지하고 싶어했다. 46%는 필요할 때 사람과 연결될 수 있는 경로의 필요성을 강조했다. 45%는 AI가 의사결정을 내린 근거가 명확히 설명될 때 더 신뢰할 수 있다고 답했다. 이에 따라 AI 에이전트는 AI의 한계를 보완해 인간과 적절히 상호작용하는 것이 고객 신뢰 형성에 중요한 요소로 꼽히게 됐다. 또 복잡하거나 민감한 상황에서 투명성과 안정성을 보장하는 것이 시장 내 경쟁우위를 확보하기 위한 핵심 요인으로 작용할 것으로 나타났다. 손부한 세일즈포스 코리아 대표는 "기업이 AI를 활용함에 있어 윤리적이고 투명한 방식을 채택하는 것이 기업 경쟁력 확보를 위한 핵심 요소"라며 "개인정보보호와 데이터 활용 사이의 균형을 맞추는 것이 중요한 과제로 급부상하고 있다"고 강조했다.

2025.01.15 09:57김미정

포티넷 "해커가 방화벽 취약점 악용…데이터 유출 시도"

해커가 포티넷 방화벽 보안 취약점을 악용해 기업 네트워크에 들어가 데이터 유출 시도를 한 정황이 드러났다. 15일 테크크런치 등 외신에 따르면 포티넷은 자사 방화벽 '포티게이트(FortiGate)'에서 발견된 취약점 'CVE-2024-55591'을 이용한 공격 정황을 포착했다고 밝혔다. '포티게이트' 방화벽은 기업 네트워크를 보호하는 보안 장비다. 외부 침입 방지와 내부 트래픽 관리를 지원한다. 해커는 해당 방화벽 관리 인터페이스가 인터넷에 노출된 장치를 주로 공격한 것으로 알려졌다. 현재 공격 배후는 명확히 밝혀지지 않은 상태다. 외신은 이번 취약점이 랜섬웨어 운영자들에 의해 악용되고 있을 가능성이 있다고 입을 모았다. 아크틱 울프 스테판 호스틀러 위협 정보 연구원은 "이번 공격으로 인해 수십 건 피해 사례가 관찰됐지만 실제 영향받은 장치의 수는 훨씬 많을 것으로 예상된다"고 말했다. 포티넷은 악용 사례를 방지하기 위해 적극적으로 조치를 취하고 있다고 발표했다. 해당 취약점에 대한 패치를 제공하고 고객들에게 소프트웨어 업데이트를 권장하고 있다. 다만 현재까지 영향 받은 고객 수에 대해서는 구체적인 언급을 피했다. 포티넷은 "고객과 적극적으로 소통하며 문제 해결에 최선을 다하고 있다"고 밝혔다.

2025.01.15 08:55김미정

오픈AI '크롤러' 논란…"사이트 수 차례 다운" 주장

오픈AI가 타사 웹사이트 데이터를 대량 스크래핑해 서버를 다운시켰다는 의혹으로 뭇매를 맞았다. 13일 테크크런치 등 외신에 따르면 미국 3D 데이터 기업 트리플갱어스(Triplegangers)는 자사 웹사이트가 오픈AI 크롤러로 인해 수 차례 다운됐다고 주장했다. 이로 인해 서버 부하와 비용 증가를 겪었으며 기업 운영에 심각한 차질을 빚었다는 설명이다. 올렉산드르 톰축 트리플갱어스 최고경영자(CEO)는 자사 전자상거래 사이트가 디도스(DDos) 공격과 유사한 상황을 겪었다고 공식 홈페이지에서 이같이 밝혔다. 그는 오픈AI 크롤러가 사이트에 있는 5만6천 개 넘는 제품 페이지와 수십만 장 이미지를 스크랩하면서 발생한 것을 오류 원인으로 꼽았다. 톰축 CEO는 "오픈AI 크롤러는 약 600개 IP로 홈페이지 데이터를 허가 없이 수집하려 했다"며 "해당 크롤러가 자사 웹사이트를 공격한 것이나 다름없다"고 주장했다. 외신에 따르면 오픈AI는 크롤러 차단을 돕는 기능을 제공하고 있기는 하다. 기업은 'robots.txt' 파일로 클로러를 차단할 수 있다. 다만 이 기능을 모르는 기업은 트리플갱어스처럼 크롤러 피해 볼 가능성이 있다. 이에 톰축 CEO는 "오픈AI는 타사 웹사이트가 'robots.txt'로 크롤러를 차단하지 않으면 피해입을 수 있다는 점을 교묘히 악용하고 있다"며 "사이트 소유자가 이를 차단하기 위해 기술적 지식을 가져야 한다는 것은 문제"라고 지적했다. 현재 트리플갱어스는 다른 크롤러를 차단하기 위해 클라우드플레어 계정을 설정하고 로그를 실시간 모니터링하고 있다. 다만 이미 스크랩된 데이터가 무엇인지 파악하거나 삭제 요청할 수 있는 방법은 없는 상태다. 전문가들은 AI 기술 발전으로 데이터 스크래핑을 악용한 사이버 활동이 증가할 것으로 내다봤다. 포브스에 따르면 지난해 AI 크롤러와 스크래퍼로 인한 웹사이트 트래픽 증가율은 86%를 기록했다. 그러면서 스크래핑에 필요한 기술 안전장치과 봅적 보호 장치 필요성을 강조했다. 현재 오픈AI는 트리플갱어스 발표에 대해 응답하지 않았다. 톰측 CEO는 "AI 기업들은 타사 웹사이트 데이터를 가져가지 전 허가를 요청해야 한다"고 말했다.

2025.01.13 09:38김미정

의료분야에 대규모언어모델 적용시 보안침해 공격 성공률 81%

서울아산병원 연구팀, 개인정보유출 위험성 분석 대규모언어모델이 답변 생성 과정에서 학습된 원본 데이터 노출 가능성도 22% 최근 챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델(Large Language Model, LLM)을 접목한 디지털 혁신에 의료분야에서도 주목하고 있다. 하지만 환자의 개인정보보호가 특히 중요한 의료분야의 경우 대규모언어모델 사용에 따른 개인정보유출 등 보안에 대한 우려도 제기되고 있다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀이 대규모언어모델을 의료분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다. 연구팀은 의료분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다. 이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다. 의료계에서 인공지능의 중요성이 점점 확대됨에 따라, 임상의학 분야 세계 최고 권위지로 꼽히는 NEJM에서도 지난해 1월부터 인공지능 분야만을 특화해 다루는 자매지를 출간한 것이다. 대규모언어모델은 수십억개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다. 의료분야에 대규모언어모델을 적용하면 엑스레이‧CT‧MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다. 뿐만 아니라 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대되고 있다. 문제는 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적‧법적 위험성이 초래될 수 있다는 점이다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만6천434명의 의무기록을 활용해 대규모언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다. 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행됐다. 먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다. 또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다. 구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다. 김영학 서울아산병원 심장내과 교수는 “의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다”며 “민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

2025.01.12 09:00조민규

[신년사] 고학수 위원장 "AI 시대 맞는 개인정보 정책 정비에 집중"

고학수 개인정보보호위원회 위원장이 올해 인공지능(AI) 시대에 부응하는 개인정보 법제·정책 정비에 역량을 집중하겠다고 강조했다. 이를 통해 국내 AI 생태계를 성장시킬 토대를 마련하겠다는 의지다. 고학수 개인정보위 위원장은 신년사를 통해 올해 목표를 이같이 3일 밝혔다. 고 위원장은 지난해까지 구축한 AI 시대에 적합한 규율 체계를 체감할 수 있는 한 해를 올해 보낼 것이라고 강조했다. 또 개인정보 법제·정책 정비를 통해 AI와 데이터 생태계의 비약적인 발전을 지원할 토대를 마련할 계획이다. 이를 위해 AI 개발에 개인정보를 활용할 수 있는 길을 열고 AI·데이터2.0 정책을 체계적으로 수립할 방침이라고 자신했다. 그는 의료·통신 분야 중심으로 마이데이터 제도 확산에 주력할 계획이다. 관련 서비스 5종 출시로 국민이 실질적으로 체감할 수 있는 서비스를 발굴해 이를 다양한 분야로 확장한다는 목표다. 또 개인정보 유출·침해 사고를 엄정히 제재해 개인정보위 법 집행 신뢰성을 높이겠다고 강조했다. 디지털 전환 과정에서 국민 생활과 밀접한 개인정보 보호 취약 분야를 선제적으로 점검해 국민 우려를 해소할 방침이다. 디지털 포렌식랩 구축과 소송 전담팀 운영 등 조사 역량 강화를 통해 법적·절차적 완결성도 높일 계획이다. 고 위원장은 올해 9월 서울서 열리는 글로벌 개인정보보호회의(GPA) 총회도 철저히 준비하겠다고 밝혔다. 그는 "미국과 유럽 중심이던 개인정보 규범 논의에 아시아 시각을 반영할 것"이라며 "기대에 부응하기 위해 개인정보 이슈에 능동적으로 대응할 것"이라고 말했다. 이어 "국민이 체감할 수 있는 정책 성과를 만들 것"이라고 강조했다.

2025.01.03 10:00김미정

해킹·랜섬웨어 '활개'…새해 공격관리·신원인증 산업 뜬다

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI)과 보안 이야기를 이해하기 쉽고 맛있게 보도하겠습니다. [편집자주] 생성형 인공지능(AI) 등 신기술을 악용한 해킹, 랜섬웨어 급증으로 국내 기업과 기관이 큰 피해를 본 가운데 이에 대응하기 위한 기술 산업·정책이 활성화될 전망이다. 특히 기업 데이터를 보호하는 신원인증과 사이버 공격을 모니터링하는 공격표면관리(ASM) 산업 전망이 밝다는 평가가 이어지고 있다. 정책적으로는 망분리 완화 후 클라우드 보안을 위한 제로트러스트 가이드라인 중요성이 높아지고 소프트웨어자재명세서(SBOM) 의무화 추진도 본격화할 것으로 예측된다. AI 등 신기술 늘었지만…예측 불가 공격 이어져 지난해 생성형 AI 등 신기술 성장으로 인해 비즈니스 활성화가 이뤄졌지만 그만큼 새로운 사이버 공격도 증가한 것으로 나타났다. AI 악용 기술과 랜섬웨어, 딥페이크 확산으로 정보 유출 등 피해 사례가 늘어서다. 또 기업의 IT 복잡성 증가로 예측 불가형 보안 이슈가 발생하기도 했다. 이에 빅테크는 사이버 보안 강화에 나섰다. 마이크로소프트는 지난 7월 크라우드스트라이크 업데이트 오류로 인한 IT 대란 사태를 겪은 후 클라우드 보안 강화를 본격화했다. 지난해 처음 자사 핵심성과지표(KPI)에 보안을 최우선 과제로 설정했다. 구글은 사이버 공격 예방을 위해 보안 스타트업 인트리그를 인수했다. 지난해 국내 정부는 개인정보 보호 대책 마련에 힘썼다. 우선 개인정보보호위원회는 메타와 구글, 카카오 등 빅테크와의 개인정보 관련 소송을 위해 법률 전문가를 몰색하고 있다. 이르면 올 초 빅테크 소송을 전담하는 팀을 꾸릴 예정이다. "신원인증 산업 커질 것"…클라우드 ID 성장도 업계에서는 국내 정부와 기업이 개인정보 보호 강화에 나서면서 이를 위한 신원인증 산업이 성장할 것으로 봤다. 실제 미국을 비롯한 유럽연합(EU)이 개인정보 보호 강화 제도에 시동을 걸면서 신원인증 산업이 성장하고 있다. 앞서 지난 5월 유럽연합(EU)에서 발의한 전자신원 및 신뢰서비스에 관한 법률에 따르면 2026년까지 모든 EU 회원국은 시민에게 디지털 신원 지갑을 제공해야 한다. 2030년까지 EU 시민 전원이 디지털 신원을 갖는 것을 목표로 한 법안이다. 한 보안업계 관계자는 "미국과 EU의 디지털 신원인증 활성화 움직임은 곧 국내에 영향 미칠 것"이라며 "국내 정부·기업도 이에 맞는 신원인증 기술이나 제도 필요성을 느낄 것"이라고 내다봤다. 국내 기업의 서비스형 소프트웨어(SaaS) 제품 수요가 늘면서 클라우드 내 정보보호를 위한 클라우드 ID 산업도 활성화할 것이란 예측도 나왔다. 국내 기업이 SaaS를 활발히 사용하면서 클라우드 ID 채택률도 증가할 것이란 전망이다. 전 세계적으로 GDPR 등 정보보호법이 활성화하면서 기업은 데이터 접근 기록 관리와 보안 조치 강화를 위해 클라우드 ID 기술에 투자를 늘릴 것이란 설명이다. 이를 통해 기업은 데이터를 클라우드 내 안전히 보관하고 데이터 규제까지 준수할 수 있다. 올해 망분리 완화…"제로트러스트·SBOM 중요도 커져" 올해 망분리 완화 정책이 본격화하면서 클라우드·SW 시스템 보안 강화를 위해 제로트러스트 가이드라인 중요성과 SBOM 의무화 목소리가 커질 전망이다. 망분리 완화로 인한 클라우드 내 데이터 유출이나 해킹에 취약할 가능성이 높아질 수 있다는 분위기 때문이다. 이에 발맞춰 정부는 제로트러스트 모델을 한층 구체화한 '제로트러스트 가이드라인 2.0'을 이달 발표했다. 새 가이드라인에는 기업이 제로트러스트 모델을 솔루션에 도입할 때 적용하는 단계를 하나 더 넣었다. '성숙도 모델'을 추가해 기존 3단계에서 4단계로 구체화했다. 또 관련 세부역량 52가지를 새로 제시해 모델에 구체화를 더했다. 망분리 완화 후 클라우드에 들어가는 SW 복잡성이 증가하면서 이를 투명하게 확인할 수 있는 정책 마련 필요성도 제기될 전망이다. 미국처럼 국내 정부도 SBOM 의무화에 속도를 낼 가능성이 높다는 평가다. 정부는 지난해 5월 SBOM 가이드라인을 발표했지만 이를 의무화하지 않은 상태다. 순천향대 염흥열 명예교수는 지난 11월 서울 강남 섬유센터에서 열린 한 보안 컨퍼런스에서 "미국과 유럽 등 선진국들은 이미 SBOM을 통해 SW 구성 요소 취약점을 신속히 식별해 전체적인 사이버 보안을 강화하고 있다"며 "이에 발맞춰 국내 정부도 SBOM 의무화를 적극 추진해야 한다"고 강조했다. "해킹 어디서든 발생"…공격표면관리(ASM) 산업 활성화 해외 보안 업계처럼 국내서도 사이버 공격을 기존보다 넓은 범위에서 예측할 수 있는 ASM 산업이 확장할 전망이다. 최근 기업에서 클라우드뿐 아니라 원격 근무, 생성형 AI 도입 등으로 인해 공격 가능한 보안 취약점이 빠르게 늘고 복잡해졌기 때문이다. ASM은 해커가 침투할 가능성이 있는 모든 IT 경로를 미리 파악하고, 이를 체계적으로 관리해 사이버 위협을 줄일 수 있는 보안 전략·도구다. 공격 발생 후 대응하는 것에 주력하는 기존 보안 시스템과 다른 방식이다. 앞서 해외는 이미 ASM을 통해 시스템 위험 식별 구축을 진행하고 있다. 빅테크 중심으로 ASM 생태계가 확장하는 추세다. 구글은 자회사 맨디언트를 통해 ASM 스타트업 인트리그를 인수한 바 있다. 마이크로소프트도 사이버보안 포트폴리오 강화를 위해 리스크아이뷰 인수했다. 팔로알토 네트웍스도 최근 ASM 시장 진입을 위해 익스펜스네트웍스를 인수했다. 현재 한국 보안 업계에서 ASM은 극초기 단계라는 평가가 이어지고 있다. 관련 솔루션을 운영하는 기업도 AI스페라가 유일하다. 업계 관계자는 "최근 국내 기업 시스템이 인식하지 못할 수 있는 인터넷 연결 자산과 시스템에서 오는 위험 식별 필요성이 높아졌다"며 "미국 보안 추세에 맞춰 ASM 산업을 눈여겨볼 만하다"고 밝혔다.

2025.01.02 11:09김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

8나노 몰리고, 4나노 안정…탄력받는 삼성 파운드리

로봇용 OLED 시장 노리는 삼성·LG…넘어야 할 2가지 과제

"조선·플랜트 용접 자동화 가속"…제이씨티, 협동로봇 '제품화' 승부수

[AI는 지금] 독파모 '패자부활전' 할까 말까…"혜택 크다" vs "역효과"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.