• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'카카오채널아이디판매업자 【문의텔레 Tway010 】 인증 카카오톡sms인증가입,tNw'통합검색 결과 입니다. (5037건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

연휴 끝, 공부 시작...위버스브레인, 연속 학습 보상·챌린지 마련

설 연휴가 흐트러진 새해 계획을 점검하고 생활 리듬을 재정비하는 계기로 작용하면서, 연휴 이후 자기계발과 학습을 다시 시작하려는 움직임이 나타나고 있다. 긴 휴식 뒤 일상으로 복귀하는 시점에 맞춰 학습 수요가 재차 살아나는 흐름이다. 특히 외국어 학습은 매년 새해 목표로 꾸준히 언급되지만, 지속성이 가장 큰 과제로 꼽힌다. 이에 따라 학습 의지를 유지할 수 있도록 설계된 서비스 구조가 경쟁 요소로 부상하고 있다. 18일 위버스브레인은 자사 외국어 학습 서비스 '돈버는영어'는 매일의 학습 행위를 보상과 연결해 몰입도를 높이는 방식을 적용하고 있다고 밝혔다. 일주일 연속 학습 시 추가 보상을 제공해 꾸준함을 유도하고, 학습 흐름이 끊기더라도 다시 이어갈 수 있도록 '회복 패치' 기능을 도입한 점이 특징이다. 특히 설 연휴 기간에는 학습 리듬이 쉽게 무너질 수 있다는 점을 고려해, 연속 학습이 중단되더라도 다시 학습을 재개할 수 있도록 '회복 패치'를 무한 제공했다. 연휴 이후에도 부담 없이 학습을 이어갈 수 있는 환경을 마련했다는 설명이다. 또 다른 사례로는 스마트 외국어 학습지 '뇌새김 더위크'가 있다. 더위크 학습자를 대상으로 운영 중인 '하루한장 챌린지'는 4주 동안 매주 하나씩 주어지는 미션을 수행하고 이를 인증하는 방식이다. 하루 한 장 분량의 부담 없는 과제를 통해 자연스럽게 학습을 유지하도록 설계됐으며, 4주 미션을 모두 완수할 경우 제공되는 혜택이 참여 동기를 강화하는 요소로 작용한다. 위버스브레인 관계자는 “설 연휴는 새해 초 세운 계획을 다시 점검하고 학습을 재정비하려는 수요가 나타나는 시기”라며 “이 시점을 계기로 외국어 학습을 다시 시작할 수 있도록 서비스 구조를 설계했다”고 말했다.

2026.02.18 15:24안희정 기자

美, AI로 제조·양자·바이오·원자력 등 '슈퍼가속' 한다

미국이 인공지능(AI) 패권전을 주도하며 과학적 도전을 가속화하고 나섰다. 속도가 곧 힘이라는 인식이 기저에 깔려 있다. 미국 에너지부(DOE)는 지난 주 제네시스 미션을 위한 26가지 '국가적 중요 과학 및 기술 도전'을 발표했다. 누가 더 좋은 기술을 갖고 있느냐가 아니라, 누가 더 빨리 발견하고 상용화하는냐가 경쟁력이라는 인식아래 속도전을 펴고 있는 것. AI는 이를 뒷받침할 슈퍼가속기가 됐다. 제네시스 미션은 지난해 11월 미국 연방 정부가 AI 기술로 과학연구를 위해 내놓은 이니셔티브다. AI 컴퓨팅을 에너지 개발, 우주 탐사, 헬스케어, 국가 안보 등에서 혁신을 가속화할 AI 플랫폼을 만들겠다는 것이다. 미국이 내세운 26개 도전 과제 핵심은 과학 발견 속도의 비약적 향상과 에너지 시스템 신뢰성·효율성 강화, 국가 안보 역량 확충, 미국 기술·경제 경쟁력 확보다. AI 핵심 축은 디지털트윈과 자율실험실, 파운데이션모델이다. 이를 기반으로 ▲제조·건설·바이오·자원/에너지 공급망 ▲양자·반도체·AI 인프라 ▲소재·실험 자동화·가속기·기초물리 ▲물·전력망·지하자원 ▲핵안보·비확산·핵기업(생산/규제) 등 5개 분야 도전과제를 풀어갈 계획이다. 미국은 우선 제조/산업 AI를 이용해 첨단제조·산업생산성 개선에 나선다. 요체는 에이전트·생성형 AI와 디지털 트윈이다. 이를 이용해 설비·공정·공급망을 최적화하는 것이 목표다. 바이오테크 혁명에도 AI를 적용하고, 디지털 트윈으로 공정 개발·최적화·스케일업 리스크 감소에 나설 계획이다. 바이오연료·바이오화학·바이오제품 생산 전주기 가속화와 경제성장·일자리 창출을 기대했다. 원자력 부문에선 설계·인허가·제조·시공·운영 전 과정을 AI로 가속한다는 복안이다. 또 핵융합은 디지털 트윈으로 플라즈마·재료·시스템 거동을 통합 예측하는 플랫폼을 개발한다. AI로 양자 알고리즘 발견과 이를 발견할 양자 시스템 구현에도 사활을 걸었다. 또 반도체와 데이터센터 리더십 확보도 미국 관련 산업의 관건으로 부상했다. 소재·실험 자동화·가속기·기초물리 부문에선 AI기반 자율 실험실(실험 자동화/로보틱스)과 입자 가속기 성능향상 등을 목표로 제시했다. 특히, 국방소재는 설계→자동시험→자격인증을 하나의 데이터 기반 워크플로로 연결할 계획이다. 이외에 물·전력망·지하자원, 핵안보·비확산·핵기업(생산/규제) 등에도 AI를 이용해 수자원 예측, 전력망 확장 및 현대화, 날씨 예측과 핵·방사능 포렌식 역량 강화 등을 향후 DOE가 추진할 도전과제로 설정했다.

2026.02.18 14:00박희범 기자

'클라우드보안인증제' 재편 파열음↑…"국정원 일원화 논의된 적 없어"

정부 차원에서 공공부문의 안전한 클라우드 도입을 위해 클라우드보안인증제(CSAP, Cloud Security Assurance Program)를 재편하는 작업에 착수한 가운데 논의 주체 간 파열음이 고조되고 있다. 그간 민간 클라우드서비스가 공공시장에 진입하기 위해서는 안전성 확보를 위해 한국인터넷진흥원(KISA)에서 인증하는 CSAP를 비롯해 국가정보원에서 주관하는 보안성 검증을 받아야 했다. 하지만 클라우드서비스가 정보보호 측면에서 안전한지 두 기관으로부터 두 차례 검증을 받아야 하다 보니 서비스 제공자의 입장에서는 '이중 부담'으로 다가왔다. 이런 문제를 해소하고자 정부 차원에서 논의에 착수했고, 조만간 방향성에 대한 가닥이 잡힐 것으로 예상된다. 국가정보원 보안성 검토는 무엇인가? 앞서 정부는 국가정보자원관리원 화재로 민간 클라우드 활성화의 필요성이 대두되자, 공공 클라우드 영역에서 공개할 수 있는 데이터를 민간 클라우드로 전환하는 작업에 착수했다. 단, 어떤 정보화 시스템이나 서비스든 일정 보안 기준(국가정보원 보안성 검토)을 충족해야만 공공 부문에 진입할 수 있다. 클라우드서비스도 마찬가지다. 국가정보원 국가정보보안기본지침에 따르면 각 공공기관은 클라우드컴퓨팅(공공 클라우드 센터 포함)을 구축·운영하고자 할 경우 '국가 클라우드 컴퓨팅 보안 가이드라인'에 명시된 보안 기준을 준수해야 한다고 명시돼 있다. '국가 클라우드 컴퓨팅 보안 가이드라인'을 보면 국가·공공기관은 정보화 사업 계획을 수립하고, 국가정보원의 보안성 검토 과정 필수로 거쳐 클라우드 컴퓨팅을 도입하도록 규정한다. 다만 민간 클라우드 컴퓨팅 서비스를 도입하고자 하는 경우에는 클라우드 컴퓨팅 서비스 도입 요건을 확인하고 절차에 따라 확인이 완료된 경우에만 서비스를 도입할 수 있다. 클라우드 컴퓨팅 서비스 도입 요건은 시스템 중요도에 따라 영역 분리 등 보안 조치를 완료하도록 하고 있다. 시스템 중요도는 다시 '상·중·하' 등급으로 나뉘는데 국가 이익이나 국민 안전과 관련된 정보를 취급하는 경우에는 상 등급, 개인정보가 포함되지 않은 비교적 중요하지 않은 데이터는 하 등급 등으로 분류되는 식이다. 국가·공공기관이 시스템 중요도 등급을 결정하면 클라우드 컴퓨팅 서비스 도입요건을 만족하는 경우에 한해 클라우드를 도입할 수 있다. 클라우드 컴퓨팅 서비스 도입을 위한 요건을 확인하는 절차는 요청 주체에 따라 두 분류로 나뉜다. 첫 번째는 사전검증이다. 공공기관이 클라우드 컴퓨팅 서비스를 도입하기 이전에 CSAP 인증 기관(한국인터넷진흥원)이 클라우드 서비스를 평가·인증한 후 증빙서류(인증서)를 준비한 채로 국가정보원에 도입 요건 확인을 요청하는 경우다. 이 경우 국가정보원은 요청서를 접수하고 별다른 절차 없이 클라우드 서비스 도입을 승인한다. 두 번째는 수요 기관이 직접 도입 요건을 확인하는 절차다. 수요 기관이 클라우드 서비스를 이미 도입·구축 완료한 후 실제 운용 이전에 보안 기준 적합 여부를 확인하는 절차인 것이다. 수요기관이 상급기관 또는 전문평가기관에 클라우드 서비스의 안전성 확인을 먼저 의뢰하고, 그 이후 국가정보원이 대상 서비스의 도입 요건 및 적합 여부에 대한 확인 절차를 수행한다. CSAP는 무엇인가? 공공 기관이 도입하는 정보화 시스템이나 장비는 보안성 검토만 받으면 되지만, 클라우드 서비스 사업자의 경우 보안성 검토 과정에서 사전 검증을 받기 위해서는 CSAP를 먼저 획득하고 다음 절차를 밟는다. 두 번째 도입 요건은 첫 번째보다 까다롭기 때문에 클라우드 사업자 사이에서는 CSAP가 사실상 필수처럼 받아들여지고 있다. 이에 보안성 검토 과정에서 CSAP까지 획득해야 하니 '이중 규제' 논란이 불거진 것이다. 논의의 중심에 있는 CSAP는 클라우드컴퓨팅 발전 및 이용자 보호에 관한 법률 제2조의2에 따라 클라우드서비스가 얼마나 안전한지 보장하는 인증 제도다. 2015년부터 인증 제도가 시행됐다. 과학기술정보통신부(과기정통부)가 정책을 담당하고 산하 KISA가 평가·인증을 맡는다. 이후 2023년에 등급제가 시행되며 CSAP는 한 차례 변화를 맞은 바 있다. 과기정통부는 획일적으로 운영되던 보안인증 체계를 클라우드컴퓨팅 서비스의 정보보호 수준에 따라 상·중·하 등급제로 나눠 인증 항목 숫자를 조절하는 식으로 인증 부담을 낮추려는 취지였다. 당시 과기정통부는 하 등급을 우선 시행하고, 상·중 등급의 경우에는 실증을 거쳐 추후 시행할 예정이었다. 하지만 상·중 등급을 마련하는 대신 서비스형 소프트웨어(SaaS)에 한해 '표준·간편' 등급으로 조절하는 것으로 갈음해 CSAP가 유지되고 있는 중이다. 국가정보원이 진행하는 보안성검증과 달리 클라우드서비스를 제공하려는 쪽에서 KISA에 보안인증을 신청하고, KISA가 평가해 인증을 주는 구조다. 서비스형 인프라(IaaS), 데스크톱 서비스(DaaS), 소프트웨어 서비스(SaaS) 저마다 인증 받는 방식이 다르다. KISA에 따르면 IaaS 보안인증은 총 14개 분야 116개 통제항목(보안조치)을, DaaS 인증은 총 14개 분야 110개 통제항목을 통과해야 인증을 받을 수 있다. 이들 통제 항목 외에 하등급 인증도 있는데, 하 등급은 14개 분야 64개 통제 항목을 평가한다. SaaS는 IaaS 및 DaaS와 다르다. 표준과 간편 두 등급이 있는데, 표준은 총 13개 분야 79개 통제항목이, 간편은 총 11개 분야 31개 통제항목으로 구성돼 있다. 표준과 간편 외에 하 등급도 있는데, 하 등급은 11개 분야 30개 통제항목으로 이뤄져 있다. 통제 분야는 ▲정보보호 정책 및 조직 ▲인적보안 ▲자산관리 ▲서비스 공급망 관리 ▲침해사고 관리 ▲서비스 연속성 관리 ▲준거성 ▲물리적 보안 ▲가상화 보안 ▲접근통제 ▲네트워크 보안 ▲데이터 보호 및 암호화 ▲시스템 개발 및 도입 보안 ▲국가기관의 보안 요구 사항 등을 확인한다. KISA에 따르면 CSAP를 획득했거나 현재 보유 중인 기업은 총 262곳이다. 서비스 유형별로 보면 SaaS가 237개, IaaS가 20개, DaaS가 5개다. 단 현 시점 기준 인증을 유지하고 있는 기업은 193곳이다. 인증 유지 여부 기준으로 서비스 유형별로 보면 SaaS가 187개, IaaS가 14개, DaaS 5개다. CSAP 재편 과정 중 거론되는 방안 민간 클라우드를 활성화하고, 클라우드 사업자의 이중 규제를 해소하기 위해 CSAP를 재편하는 작업이 정부 차원에서 진행되고 있다. 하지만 재편 과정을 두고 여러 추측이 오가며 갑론을박이 이어지고 있는 상황이다. 국가정보원에 정통한 관계자에 따르면 CSAP와 보안성 검증을 국가정보원 쪽으로 일원화하는 방향으로 논의되고 있다. 결론이 도출된 것은 아니지만 CSAP 공공부문과 보안성 검증을 합치는 방안이 거론되고 있는 것이다. 국가정보원이 지난해 9월 국가망보안체계(N2SF) 정식 가이드라인을 발표했던 만큼, 아직 제도화되지 않은 N2SF와 CSAP의 연계 등을 추진하고 있을 거라는 예상도 적지 않다. 다만 아직 확정된 내용은 아니다. N2SF는 국가정보원이 제시한 보안 지침으로, 기존의 물리적 망분리에서 탈피해 데이터의 중요도에 따라 C(기밀), S(민감), O(공개) 등급을 기준으로 각기 다른 수준의 보안 통제를 적용하는 체계를 말한다. "거론된 방안, 국정원 예상일 뿐…실제 논의된 바 없어" 그러나 이같은 방안은 국가정보원의 예상일 뿐, 사실 확정적으로 논의되지 않은 사항인 것으로 확인됐다. 대통령 직속 국가인공지능전략위원회 AI인프라 거버넌스·혁신 TF 위원인 김승주 고려대 정보보호대학원 교수는 지디넷코리아와 통화에서 "CSAP 인증을 비롯해 여러 보안 인증의 선진화 방향성에 대한 모든 논의는 인프라혁신TF에서 이뤄지고 있다"며 "국가정보원을 중심으로 CSAP를 일원화하는 방향은 인프라혁신 TF에서 논의된 바 없다"고 단언했다. 김 교수는 "정부 차원에서 우리 정부 시스템을 어떻게 선진국화 시킬 수 있는지 청사진을 그리는 모든 논의는 인프라혁신TF에서 이뤄지고 있다. 과학기술정보통신부, 국가정보원, 행정안전부 등 각 부처도 TF의 일원으로 포함돼 있다"면서 "TF에서 보고서를 작성해 올리면 대통령이 검토 후 정책에 반영하는 구조다. TF 차원에서 논의되고 있는 방향성에 대해 공개할 수는 없지만, 국정원 중심의 재편은 논의된 내용은 확실히 아니다"라고 거듭 강조했다. 이어 김 교수는 "CSAP 등 관련 논의를 골자로 한 보고서 작성이 현재 거의 마무리 단계다"라며 "이후 대통령실에 보고서를 올릴 예정"이라고 밝혔다. 익명을 요구한 클라우드 업체 전문가는 "이중화돼 있는 제도는 물론 N2SF의 C·S·O 등급, 보안성 검토 및 CSAP의 단계별 인증제 등 여러 제도가 혼재돼 있어 업계의 혼란이 가중되고 있는 현실이다. 이에 정부도 이런 혼선을 최소화하고자 표준 체계를 만들어 나가는 과정에 있는 것으로 안다"며 "현재 국가정보원에서 CSAP 등 보안 인증 제도를 표준화하는 작업 및 가이드라인을 제작을 새롭게 자체적으로 하겠다고 하는 상황이고, 인프라혁신TF에서는 국가정보원에서 C 혹은 상 등급에 해당하는 클라우드 서비스를 담당하고, 나머지 등급을 민간 클라우드 활성화를 위해 민간에 맡기자는 입장인 것으로 전해 들었다"고 밝혔다.

2026.02.18 13:59김기찬 기자

[보안칼럼] 침해사고 대응 법령 22년전 신설...적절히 보완해야

2025년은 우리나라 보안 역사에서 대형 침해사고가 많이 발생한 한 해로 기록될 전망이다. 국내 최대 이동통신사와 최대 온라인쇼핑몰에서 침해사고가 발생해 개인정보가 대량 유출됐고, 대형 온라인서점과 보증보험 등 국민의 일상에 밀접한 온라인 서비스가 랜섬웨어 공격으로 마비돼 많은 국민이 피해를 입었다. 우리 사회가 '정보사회'를 넘어 'IT 기반 사회'가 됐음을 실감하는 계기도 됐다. 그런데 여느 해와 다르게, 사고기업의 침해사고 신고 의무 위반과 자체 사고 분석에 관한 문제가 불거졌다. 이번 칼럼에서 정보통신망법을 중심 침해사고의 신고와 분석 문제를 다뤄본다. 정보통신망법 침해사고 신고 의무 정보통신망법에서는 정보통신서비스 제공자(온라인서비스 제공자)는 침해사고가 발생한 것을 알게 된 때부터 24시간 이내 과학기술정보통신부장관이나 한국인터넷진흥원에 신고해야 하는데, 일부 업체가 이를 위반한 것이 문제가 됐다. (참고로, 정보통신망법의 침해사고 관련 규정은 정보통신서비스 제공자에 적용되는데, 영리 목적으로 홈페이지나 SNS만 이용해도 정보통신서비스 제공자에 해당해 적용 대상이 많다. 아래 이미지 참조) 과기정통부장관은, 침해사고가 발생하면 정보통신망법에 따라 ▲침해사고에 관한 정보의 수집, 전파 등 침해사고에 대한 긴급 대응조치 ▲침해사고 원인 분석, 피해 확산 방지, 사고대응, 복구 및 재발 방지를 위한 대책 마련 ▲사고기업에 이행 명령, 이행 여부 점검 및 시정 명령 등 침해사고 대응을 수행해야 한다(정보통신망법 제48조의2~제48조의4). 침해사고 대응 시 첫 단추인 '신고'가 중요할 수밖에 없다. 침해사고를 신고하지 않거나 기한을 넘겨 신고하는 등 신고 의무 규정을 위반하면 3000만 원 이하 과태료가 부과될 수 있다. 세부적으로는 1회 위반 시 750만 원, 2회 1500만 원, 3회 3000만 원이고, 위반 횟수는 최근 3년간 같은 위반 행위에 대해서만 증가한다(시행령 별표 9. 과태료 부과기준). 신고 의무 위반 기업에 실제 부과된 과태료는 대부분 750만 원에 그칠 것이다. 제재에 따른 사후 처벌이나 사전 예방 효과를 기대하기는 어려운 수준이다. 매출이 수십조 원에 이르는 대기업에는 더욱 그렇다. 침해사고 신고 의무 위반에 대한 차등 제재 필요성 현행 법에서는 모든 위반 사업자를 똑같이 제재하므로, 과태료를 많이 높이기도 어렵다. 법의 취지에 맞게 제재의 실효성을 확보하려면, 차등 제재를 고려해야 한다. 참고할 만한 사례로는 유럽연합의 '네트워크 및 정보시스템 보안2'(NIS2: Network and Information system 2) 지침이 있다. NIS2 지침(Directive)은 공공기관과 기업의 규모, 산업 섹터를 종합해 '필수 기관'과 '중요 기관'을 정의하는데(제3조(필수 기관과 중요 기관)), 이들 기관에서 중대 사고가 발생하면 서비스 이용자에게 지체 없이 통지하고, 사고를 인지한 지 24시간 이내 조기 경보, 72시간 이내 사고 통지(심각도와 영향을 포함한 초기 평가, 가능하면 침해지표(IoC) 포함, 1달 이내에 최종 보고서를 국가 CSIRT(Computer Security Incident Response Team) 또는 규제 기관에 제출하도록 한다(제23조(보고 의무)). 이를 위반하면, 필수 기관에는 최소 1000만 유로(약 170억 원) 또는 직전 회계연도 연간 전 세계 총 매출액의 최소 2% 중 더 높은 금액의 과징금을, 중요 기관에는 최소 700만 유로(약 120억 원) 또는 직전 회계연도 연간 전 세계 총 매출액의 최소 1.4% 중 더 높은 금액의 과징금이 부과될 수 있다(제34조(필수기관과 중요기관에 대한 과징금 부과의 일반 조건)). 만일 필수 기관이 중대 사고를 중대 사고가 아니라고 판단하여 보고하지 않거나 지연 보고하면 이 조항을 위반한 것으로 간주돼 고액의 과징금을 부과받을 수 있다. 정보통신망법에서도 신고 의무 위반 시 기업과 서비스의 규모와 중요성, 침해사고의 중대성에 따라 제재를 차등 적용하는 것을 검토해 볼 필요가 있다. 수조 원의 매출을 올리는 서비스를 운영하는 대기업이 해킹을 당해 수천만 명의 고객정보가 유출된 상황에서 신고 의무를 위반했다면, 수백억 원의 과징금을 부과할 수 있어야 하지 않을까? 만일, 증거를 은닉·인멸하려는 목적으로 그렇게 했다면, 일반적인 신고 의무 위반 때보다 더 많은 과징금을 부과하는 것이 적절해 보인다.(개인정보 유출 사고에서 신고 의무를 위반한 사업자에 동일한 과태료를 부과하는 개인정보보호법도 마찬가지다.) 다만, 지금의 신고 규정은 보완할 부분도 있다. 침해사고가 발생한 것을 알게 된 사업자는 ▲침해사고의 발생 일시, 원인 및 피해내용 ▲침해사고에 대한 조치사항 등 대응 현황 ▲침해사고 대응업무를 담당하는 부서 및 연락처를 신고해야 하는데, 역량 있는 정보보안팀이라도 이를 24시간 안에 다 파악하기가 쉽지 않다. NIS2 지침과 같이 24시간 이내 1차 신고, 72시간 이내 2차 신고, 1달 이내 3차 신고 등 단계별 신고 방식이나 개인정보보호법과 같이 기한 내 필수적으로 신고할 사항과 이후 파악했을 때 신고할 사항을 구분하는 것을 고려해 볼 수 있다. 정보통신망법의 침해사고 분석과 대응 의무 침해사고 발생 시 신고 의무 외에 사고 분석 의무 또한 중요하다. 정보통신망법의 관련 규정은 다음과 같다. 법 제48조의4(침해사고의 원인 분석 등) ① 정보통신서비스 제공자 등 정보통신망을 운영하는 자는 침해사고가 발생하면 침해사고의 원인을 분석하고 그 결과에 따라 피해의 확산 방지를 위하여 사고대응, 복구 및 재발 방지에 필요한 조치를 해야 한다. 즉, 사고기업에서는 ▲침해사고 원인을 분석하고 ▲사고 대응 ▲복구 및 재발 방지에 필요한 조치를 해야 한다. 법률적으로나 기술적으로 침해사고 대응의 핵심은 사고 분석이다. 이 규정은 2004년 정보통신망법에 침해사고 대응 관련 규정이 신설될 때부터 있었으나, 그리 강조되지 않았던 게 사실이다. 위반에 따른 제재도 없다. (적용 대상과 산업의 성격이 다르긴 하지만, 전자금융거래법에도 이와 유사한 규정이 있고, 위반 시 영업정지 등 강력한 제재를 받을 수 있다(제21조의5(침해사고의 통지 등) 제2항, 제43조(허가와 등록의 취소 등) 제2항)). 그러나 이제는 우리나라가 IT 기반 사회가 돼 침해사고의 사회적 영향과 손실이 많이 발생하는 상황이 됐다. 침해사고에 대한 신고율이 낮은데도 신고된 사건을 한국인터넷진흥원이 다 분석하기에는 역부족이다. 중견·대기업에서 발생한 침해사고를 세금을 들여 무료로 분석해 주는 것이 적절한지도 의문이다. 기업에서는 침해사고가 발생하면 어떤 식으로든 조사·분석을 진행하여 경영진에 보고하는 것이 보통이다. 침해사고 대응 전문업체나 보안관제업체에 위탁하거나 전문역량을 보유한 기업이라면 자체적으로 수행하기도 한다. 하지만 전문역량을 갖춘 기업이 그리 많지 않고, 외부의 도움을 받으려고 해도 어떤 전문기업이 있는지 알기도 어렵다. 전문역량이 부족한 조직이 침해사고를 분석하면서 데이터를 오염시키는 사고가 발생할 수 있다는 주장도 있다. 침해사고 분석 전문기업 필요성 영국에는 NCSC(National Cyber Security Centre)에서 침해사고 발생 시 이를 조사·분석할 수 있는 전문기관을 'Assured Cyber Incident Response(CIR) provider'로 지정한다. 일반적인 침해사고에 대응할 수 있는 'Standard level'과 국가배후 공격 등 고도의 침해사고를 대응할 수 있는 'Enhanced level'로 나뉘는데, 현재 50여 개가 등록돼 있다. 우리나라에서도 참고할 만한 제도가 아닐까 한다. 사고기업은 전문성과 신뢰성을 갖춘 '침해사고 분석 전문기업'에 의뢰해 사고를 분석하고 재발 방지책을 수립, 적용할 수 있으며, 과기정통부 역시 민관합동조사단 구성이나 대규모 침해사고 대응 시 전문기업과 협업할 수 있다(지금은 전문가 풀을 운영하고 있다). 국가적으로는 위협 인텔리전스(CTI: Cyber Threat Intelligence)를 축적·관리·공유함으로써, 침해사고 예방을 위해 사용하는 선순환이 이뤄질 수 있다. (우리나라에서도 맨디언트 같은 침해사고 대응 전문 대기업이 성장했으면 하는 바람도 있다.) 자체 또는 전문기업에 위탁해 작성된 사고 분석 보고서는 과기정통부장관에 제출하도록 함으로써 결과물을 관리할 필요가 있다. 이러한 의무는, 1차적으로 ISMS 인증의무대상자, 대규모 정보통신서비스 제공자, 본인확인기관(이상 정보통신망법), 주요정보통신기반시설 관리기관(정보통신기반보호법), 전자서명 인증사업자(전자서명법) 등 정보통신망법이나 다른 법에서 지정한 기관 등 보안이 중요한 기관에 부과할 수 있다. 2003년 발생한 '1.25 대란' 다음 해인 2004년에 정보통신망법에 침해사고 대응 관련 조문이 신설된 지 벌써 22년이 지났다. 이제 IT 인프라가 우리 사회의 인프라가 된 상황에서 대규모 침해사고가 종종 발생하면서 국민의 불안과 불편이 상당히 커졌다. 침해사고에 대한 신고와 분석 의무에 대해 적절하게 보완할 때가 된 것 같다.

2026.02.17 21:27강은성 컬럼니스트

EU, 저탄소 철강 앞세워 산업 부활 추진…'메이드 인 유럽' 강화

유럽연합(EU)이 미국과 중국과의 경쟁이 심화되는 가운데 저탄소 철강으로 불리는 '그린 스틸'을 제조업 부활 전략의 핵심 축으로 내세운다. 16일(현지시간) 블룸버그가 입수한 EU 집행위원회 초안에 따르면 EU는 다음 주 발표 예정인 '산업 가속화법(Industrial Accelerator Act)'을 통해 저탄소 철강 시장 확대를 추진한다. 이를 위해 자발적 인증 프로그램을 도입하고, 공공조달과 자동차 산업을 활용해 새로운 수요를 창출할 방침이다. EU는 철강뿐 아니라 알루미늄과 시멘트에도 유사한 규정을 적용할 예정이다. EU 집행위원회는 관련 논평 요청에 즉각 응답하지 않았다. 초안에는 "철강과 시멘트는 에너지 집약 산업 가운데 최대 배출원으로, EU 연간 온실가스 배출량의 6% 이상을 차지한다"며 "저탄소 수요 확대 조치는 EU 원산지 요건과 결합돼야 한다"는 내용이 담겼다. 이번 산업 가속화법은 높은 에너지 비용과 규제 부담, 저가 수입품 확대로 산업 경쟁력이 약화됐다는 문제의식 속에서 추진되고 있다. 산업 가속화법은 '메이드 인 유럽 법'으로도 불리며 2035년까지 제조업이 유럽 경제 성장의 20%를 차지하도록 하는 목표를 제시했다. '메이드 인 유럽 법' 기준은 EU 27개 회원국 내 생산뿐 아니라 EU와 자유무역협정(FTA)을 체결하고 안보·회복탄력성 목표에 부합한다고 평가되는 '신뢰할 수 있는 파트너' 국가의 생산도 포함한다. EU와 FTA를 체결한 한국도 기준에 포함될 가능성이 있다고 외신은 밝혔다. 해당 법안은 회원국과 외국 기업의 투자 결정 과정에서 EU 역내 기업을 우선하도록 하는 새로운 조건을 포함할 것으로 전망된다. 이는 EU가 수십 년간 유지해온 자유무역 기조에서 벗어나 보호무역 성격을 강화하는 조치로 해석된다. 특히 자동차 산업이 유럽산 그린 스틸의 핵심 수요처로 지목됐다. EU 집행위원회는 지난해 12월 내연기관 금지 정책을 일부 수정해 일정 수준의 배출 감축을 저탄소 철강 사용으로 달성할 수 있도록 하는 방안을 제안한 바 있다.

2026.02.17 13:53김재성 기자

네이버, 고객센터에 '내 데이터 관리 도구' 신설…지식인 오류 후속 조치

네이버가 고객센터에 이용자가 개인정보와 게시물을 직접 확인·관리하는 기능을 신설했다. 인물정보와 지식인 서비스가 연동되는 과정에서 답변내역이 노출됐던 사고의 후속조치로 풀이된다. 17일 관련업계에 따르면 네이버는 최근 고객센터 내에 회원의 개인정보를 관리하는 프라이버시 센터 기능을 업데이트했다. 해당 항목에 신설된 내 데이터 관리 도구 페이지에서는 네이버가 수집한 개인정보와 제3자 제공 내역에 대한 통제 기능을 제공한다. 개인정보 이용현황 메뉴에서는 수집·이용한 개인정보 처리중지 요청과 제3자 제공 개인정보에 대한 동의 철회 등을 신청할 수 있다. 여기에 네이버 인증서 또는 2단계 인증을 적용해 타인이 사적 데이터에 접근하는 것을 막는 프라이버시 보호 설정 기능도 추가됐다. 해당 기능은 주소록과 쪽지, 지식인 등에서 설정할 수 있도록 안내됐다. 권리보호 센터에서는 회원탈퇴 등으로 이용자가 직접 삭제하기 어려운 글·사진·영상에 대해 게시물 노출 중단(접근 배제)을 신청할 수 있다. 이 과정은 본인 확인과 게시자 입증이 가능한 서류를 갖춰 진행한다. 다른 이용자가 작성한 게시물로 명예훼손이나 사생활 침해가 발생한 경우에는 '권리 침해 신고'로 대응할 수 있다. 네이버는 서비스별 게시물 관리 경로도 함께 안내했다. 카페는 각 카페의 '나의 활동'에서 게시글·댓글을 일괄 또는 개별 삭제할 수 있고, 지도 공개 리스트는 '저장' 메뉴에서 일부 공개·비공개 전환이나 삭제가 가능하다. 뉴스 댓글은 기사 댓글창의 'MY 댓글'에서 삭제할 수 있으며, 블로그·지식iN·쇼핑 리뷰·밴드·치지직 라운지·여행 리뷰·시리즈온 감상평·MY플레이스 리뷰 등도 각 서비스의 '내 활동' 또는 'MY' 메뉴를 통해 확인·삭제하도록 했다. 앞서 네이버는 지난 4일 인물정보 서비스 문제로 연예인·스포츠 선수·인플루언서 등 약 1만 5000명의 지식iN 사용 내역이 공개되는 사고가 발생하자, 최수연 대표가 공식 사과하고 개인정보보호위원회에 선제 신고해 조사에 협조하겠다고 밝힌 바 있다.

2026.02.17 10:34류승현 기자

전국 주요 관광지, 설 연휴 문화 이벤트 '풍성'

설날을 맞은 전국 주요 관광지와 문화시설에서는 명절 분위기를 이어가는 프로그램이 진행 중이다. 지자체와 공공기관은 고향 방문 일정을 마친 시민들과 명절 나들이에 나선 가족 단위 방문객을 위해 운영 시간을 오후까지 유지하며 관람 편의를 지원하고 있다. 경북권에서는 경주엑스포대공원이 '해피 스마일 설날' 프로그램을 통해 윷놀이와 제기차기 등 전통 놀이 공간을 18일 오후 5시까지 개방한다. 안동 유교랜드 역시 '말(馬)' 조형물을 활용한 포토존을 운영하며, 한복 착용 관람객에게 제공하는 입장료 면제 혜택을 연휴 마지막 날까지 유지한다. 강원 평창에서는 겨울 대표 축제인 대관령 눈꽃축제가 대형 눈조각 전시와 체험 프로그램을 이어가고 있다. 모바일 스탬프 투어 운영 시간도 조정해 방문객의 참여를 유도했다. 이와 연계된 '한국관광 100선' 인증 이벤트는 모바일 앱을 통해 실시간 참여가 가능하다. 수도권 문화시설도 '문화가 있는 연휴' 분위기를 유지하고 있다. 다만 기관별 운영 일정이 다르기 때문에 사전 확인이 필요하다. 국립중앙박물관과 서울역사박물관은 설 당일 휴관하며 연휴 마지막날인 18일부터 프로그램을 재개한다. 국립중앙박물관은 17일 휴관 후 18일부터 상설 전시관 무료 개방과 디지털 실감 영상관 등 체험형 콘텐츠 전시를 다시 선보인다. 서울 역사박물관은 18일 낮 12시부터 오후 4시까지 박물관 로비와 광장에서 판소리 공연과 세시풍속 체험 프로그램을 진행한다. 남산골한옥마을에서는 '복 담은 말'을 주제로 한 특별 전시가 설 연휴 기간 내내 운영된다. 귀경길 교통 상황과 기상 여건은 변수다. 연휴 마지막 날에는 주요 고속도로 상행선 구간에 차량이 집중되면서 정체가 예상된다. 경부·서해안·영동고속도로 수도권 진입부는 오후 시간대 혼잡이 이어질 가능성이 있다.

2026.02.17 09:46김한준 기자

개보위, 공공 부문 집중관리시스템 387개로 확대

개인정보 보호를 보다 엄격히 적용해야 하는 공공 부문의 집중관리시스템이 올해 확대 됐다. 총 58개 기관의 387개 시스템으로 2024년(57개 기관, 382개 시스템작년)에 비해 기관 수가 1곳 늘었고 시스템은 5개가 추가됐다. 혈액정보관리시스템(대한적십자사) 등 국민의 개인정보 처리가 많은 8개 시스템은 집중관리시스템으로 새로 지정됐다. 반면 감염병 확산 시 한시적으로 이용한 역학조사지원시스템(질병관리청) 등은 지정에서 제외했다. 또 개보위는 주요 공공시스템을 대상으로 긴급 실태점검을 하고, 고유식별정보 실태조사도 전면 개편한다. 개보위는 이 같은 내용을 골자로 한 주민등록번호 등 주요 개인정보를 대규모로 처리하는 공공기관의 사전예방 중심 관리 강화 방안을 12일 마련, 발표했다. 안에 따르면 개보위는 ①위험기반 관리(Risk-based) ②증적중심 점검(Evidence-based) ③결과와 인센티브 연계(Outcome-linked)로 자발적 개선 유도 원칙을 세우고, 이에 맞춰 사전예방 업무를 추진해 나갈 계획이다. 이번 조치는 인공지능·클라우드 확산, 플랫폼 경제로의 전환 등으로 대규모·고위험 개인정보 처리가 일상화하면서 개인정보 유출 및 침해 위험이 높아지는 데 따른 것으로, 공공기관의 경우 국민 개인정보를 당사자 동의 여부와 무관하게 법령에 따라 대규모로 처리함에 따른 위험도가 크지만, 과징금 부과 등 사후 제재 효과가 크지 않아, 우선적으로 실태점검과 안전 관리체계 확립에 나섰다. 2025년 기준 공공부문 유출 신고 현황은 128건이다. 전체 신고 건수의 28.6%를 차지했다. 최근 몇년간 지속 증가했다. 2022년은 23건, 2023년은 41건, 2024년은 104건에 달했다. 유출 원인은 업무과실(64%), 해킹(32%) 순이였다. 위반유형은 안전조치 의무(64%), 주민등록번호 등 수집제한(8%)으로 나타났다. 개인정보 보유 100만명 이상, 사업비 100억 이상 등이 조건...58개 기관 해당 집중관리시스템 대상 조건은 ①보유량 100만명 이상 ②취급자 수 200명 이상 ③사업비 100억 ④주민등록정보 연계 ⑤민감정보 처리 등이다. 구체적인 공공시스템 목록은 개인정보위 홈페이지에 공개됐다. 개보위는 혈액정보관리시스템(대한적십자사) 등 국민의 개인정보 처리가 많은 8개 시스템을 집중관리시스템으로 신규 지정했다. 반면 감염병 확산 시 한시적으로 이용한 역학조사지원시스템(질병관리청)은 지정에서 제외했다. 또 기존 집중관리시스템으로 지정한 워크넷 등 3개 시스템이 고용24로 통폐합됨에 따라, 고용24(한국고용정보원)를 집중관리시스템으로 지정, 변경했다. 이에 공공부문 집중관리시스템은 2024년 382개 시스템(57개 운영기관)에서 2026년 387개 시스템(58개 운영기관)으로 확대됐다. 집중관리시스템으로 지정하면, 개인정보취급자 권한부여시 인사정보와 연계, 접속기록 자동 분석 등 일반 시스템보다 강화한 안전조치를 적용해야 한다. 387개 집중관리시스템 등 대상 최신 보안 패치 적용 여부 등 조사 개인정보위는 오는 3월까지 공공기관의 387개 집중관리시스템과 1만 명 이상의 주민등록번호를 처리하는 시스템을 대상으로 긴급 실태점검을 실시한다. 이번 점검은 최근 대형 유출사고에서 확인한 주요 취약요인을 점검하고 조치하기 위한 것이다. 집중관리시스템은 최신 보안패치 적용여부, 취급자 접속 시 인증서·일회용 비밀번호 등 안전한 인증수단 적용, 로그기록에 주민등록번호 등 주요정보가 남지 않도록 비식별조치 여부 등을 중점 점검한다. 또 1만 건 이상 주민등록번호를 처리하는 시스템은 주민등록번호 암호화 시 안전한 암호화 알고리즘 이용 여부와 암호키 관리 방식 등을 점검한다. 점검 결과 미흡 사항은 기관 별로 우선 조치하되, 위험도에 따라 컨설팅 등 개선조치 지원을 통해 점검의 실효성을 확보할 계획이다. 고유식별정보 실태조사 전면 개편...26개 점검 항목 대폭 손질 개인정보 보호법에 따라 개보위는 일정 규모(공공은 1만명 이상 고유식별정보 처리, 민간은 5만명 이상 고유식별정보 처리) 이상 주민등록번호 등 고유식별정보를 처리하는 기관의 안전관리 실태를 점검해야 한다. 그간은 자체점검 결과를 서면으로 제출하는 형식적 점검에 그쳤고, 조사의 강제성이 없어, 처리자 자율에 의존하는 측면이 크다는 지적이 있었다. 이에 당초 고유식별정보 관리실태 점검 취지에 맞게, 공공기관의 개인정보파일 목록에 있는 고유식별정보 유형, 처리 규모 등을 바탕으로 위험 정도를 파악해 점검 대상을 선정한다. 이를 위해 개인정보파일 목록을 상반기 중 현행화할 예정이다. 또 기존 26개 점검 항목을 대폭 손질해 고유식별정보에 접근할 수 있는 취급자 권한 부여 현황 및 취급자가 정보 조회 시 일부 마스킹 등 비식별조치, 암호키 관리실태 등 핵심항목 위주로 깊이 있게 점검하되, 구체적인 증빙자료를 제출하도록 해 점검의 실효성을 높일 계획이다. 아울러, 미흡사항 확인 시 개선계획 제출을 의무화하고, 점검 결과 우수기관에 대해서는 일정기간 점검 면제 및 포상 등 인센티브를 제공할 예정이다. 송경희 개보위 위원장은 "공공기관은 당사자의 동의 없이도 법령에 따라 전 국민의 중요 개인정보를 대규모로 처리하고 있으므로 사전 예방적 관리가 더욱 요구되는 영역”이라면서 “공공부문을 필두로 우리 사회 전반에 사전 예방 중심 개인정보 보호 체계가 뿌리내릴 수 있도록 개인정보위는 '사전예방 중심 정책'을 적극 펼쳐나갈 것”이라고 밝혔다.

2026.02.16 11:50방은주 기자

"휴머노이드 안전기준 만든다"…ISO 국제표준 논의 본격화

휴머노이드 로봇 상용화가 가시권에 들어오면서 국제표준 제정 작업도 속도를 내고 있다. 특히 두 발로 균형을 유지하는 구조 특성상 전원이 차단되거나 제어 오류가 발생할 경우 로봇이 쓰러질 수 있다는 점에서 낙상 위험이 핵심 안전 이슈로 부상하고 있다. 캐롤 프랭클린 미국자동화협회(A3) 표준개발 총괄이사는 최근 휴머노이드 테크콘에서 "동적 안정 산업용 이동 로봇에 대한 신규 ISO 안전표준을 개발 중"이라며 "2028년 발행을 목표로 하고 있다"고 밝혔다. A3는 미국에 본사를 둔 자동화 산업 분야 대표 무역협회다. 로봇과 머신비전·이미징, 모션제어·모터, 인공지능(AI) 등 자동화 기술 전반을 아우르며 산업계 표준 개발과 정책 협력, 국제표준기구(ISO) 및 ANSI 체계 활동을 주도하고 있다. 글로벌 회원사와 파트너를 다수 보유해 로봇 안전·인증 논의에서 영향력을 행사하는 기관으로 평가된다. 프랭클린 이사는 "표준은 자발적 산업 합의에 기반한 국제적 공통 규칙"이라며 "기술이 빠르게 발전하는 만큼 개발 단계부터 표준 요구사항을 반영해야 글로벌 시장 진입 장벽을 낮출 수 있다”고 강조했다. 그는 "ISO 표준은 투명성과 개방성, 이해관계자 간 합의를 기반으로 만들어진다"며 "한 번 제정되면 각국이 자국 표준으로 채택할 수 있어 기업 입장에서는 국가 간 재설계 부담을 크게 줄일 수 있다"고 설명했다. 프랭클린 이사가 속한 ISO 기술위원회 TC299(로보틱스)는 최근 휴머노이드 로봇을 포함하는 새로운 안전표준 프로젝트(ISO 25785-1)를 출범시켰다. 이 표준은 이른바 '동적 안정 산업용 이동 로봇'을 대상으로 한다. 관련 논의는 TC299 산하 작업반(WG12)이 주도하고 있다. 그는 "휴머노이드 정의에 대해 업계 합의가 쉽지 않다"며 "팔과 다리 개수, 바퀴 유무 등 형태가 다양해 특정 형상으로 한정하기 어렵다"고 말했다. ISO는 휴머노이드뿐 아니라 이족보행·사족보행 로봇, 균형 유지형 이동로봇 등 전력 공급이 중단되면 쓰러질 수 있는 '동적 안정형' 로봇을 하나의 범주로 묶어 안전기준을 마련하기로 했다. 프랭클린 이사는 "정적 안정 로봇은 전원이 꺼져도 넘어지지 않지만, 동적 안정 로봇은 지속적으로 균형 제어가 필요하다"며 "전원 상실 시 발생할 수 있는 낙상 위험 등 새로운 안전요소를 고려해야 한다"고 설명했다. 해당 표준 작업은 작년 5월 공식 승인됐다. 현재 17개국 120명 이상의 전문가가 참여하고 있다. 작년 7월 미국 보스턴, 10월 스페인 바르셀로나에 이어 최근 서울에서 세 번째 회의가 열렸다. 프랭클린 이사는 "프로젝트는 36개월 개발 일정에 따라 2028년 5월경 발행을 목표로 하고 있다"며 "표준 개발 세계에서는 빠른 일정"이라고 말했다. 그는 "산업용 로봇과 서비스 로봇 안전표준이 각각 존재하지만, 휴머노이드는 그 경계에 위치해 있다"며 "이번 표준은 기존 3691-4(무인 산업용 운반차), 13482(서비스 로봇) 등과 중복되지 않도록 범위를 정밀하게 설정하고 있다"고 덧붙였다. 프랭클린 이사는 "표준은 법이 아니지만 시장이 사실상 준수하도록 만든다"며 "고객이나 규제기관이 인증을 요구하면 기업은 이를 따를 수밖에 없다"고 강조했다. 특히 "ISO 표준은 최소 5년마다 재검토돼 기술 변화를 반영한다"며 "휴머노이드 기업은 제품 개발 초기부터 안전 아키텍처와 인증 전략을 함께 설계해야 한다"고 조언했다. 또한 최근 신설된 '휴머노이드 로봇 데이터셋' 작업반(WG16)에 대해서도 "AI 기반 휴머노이드의 안전성과 신뢰성을 확보하기 위한 데이터 기준 논의가 본격화될 것"이라고 설명했다. 업계에서는 휴머노이드 경쟁이 단순 기술력에서 표준·인증 경쟁으로 확장되고 있다는 평가가 나온다. 표준을 선제적으로 반영한 기업이 글로벌 공급망에 유리한 위치를 점할 수 있기 때문이다. 프랭클린 이사는 "국가 간 표준이 일치하면 기업은 재설계 없이 여러 시장에 진입할 수 있다"며 "국제표준 참여는 곧 시장 접근 전략"이라고 말했다. 휴머노이드 상용화가 본격화되는 가운데 ISO 안전표준이 산업 생태계의 또 다른 분수령이 될 전망이다.

2026.02.16 07:49신영빈 기자

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

삼성전자·SK하이닉스·마이크론 등 주요 메모리 기업들이 HBM4 상용화를 앞두고 있다. 3사 모두 올 2분기 엔비디아향 HBM4 최종 퀄테스트를 마무리할 것으로 전망된다. 특히 삼성전자는 가장 높은 제품 안정성으로 가장 빠른 성과를 나타낼 가능성이 높다고 평가 받고 있다. 올해 출하량 역시 전년 대비 가장 큰 폭의 성장이 기대된다. 시장조사업체 트렌드포스에 따르면 주요 메모리 기업들은 올해 HBM4 상용화와 함께 전체 HBM 시장 점유율에 변동을 보일 전망이다. 현재 삼성전자, SK하이닉스, 마이크론 등 메모리 3사는 가장 최신 세대인 HBM4(6세대 고대역폭메모리) 상용화 준비에 매진하고 있다. 해당 HBM은 엔비디아가 올해 하반기 출시하는 AI 가속기 '루빈' 칩에 탑재된다. 트렌드포스는 "메모리 기업들은 HBM4 검증의 최종 단계에 있고, 올해 2분기 검증 완료를 목표로 하고 있다"며 "삼성전자는 뛰어난 제품 안정성을 바탕으로 가장 먼저 인증을 획득할 것으로 예상된다. 나머지 기업들도 곧이어 인증을 획득해 엔비디아향 HBM4 공급망은 3개 기업이 생태계를 구축할 것"이라고 밝혔다. 이와 관련, 삼성전자는 지난 12일 메모리 기업 중 가장 먼저 HBM4 양산 출하를 발표한 바 있다. 세부적으로, 최종 검증을 완료하기 전 선제적으로 제품을 양산하는 '리스크 양산'에 해당한다. SK하이닉스 등도 이달 리스크 양산 제품을 엔비디아향으로 출하할 것으로 알려졌다. 업계는 삼성전자의 HBM4 제품이 11.7Gbps 이상의 높은 성능을 가장 안정적으로 구현한다고 평가하고 있다. 트렌드포스가 삼성전자의 인증 속도가 가장 빠를 것이라고 분석한 이유다. 다만 엔비디아는 루빈 칩을 적기 출시하기 위해 많은 양의 HBM4 물량이 필요한 상황이다. 때문에 엔비디아는 HBM4에 요구되는 성능 완화 등을 통해 3개 메모리 공급사 모두를 HBM4 공급망에 포함시킬 것으로 예상된다. 트렌드포스는 "단일 공급업체가 루빈향 HBM4 요구 사항을 완전히 충족할 수 없다는 점 등 전략적 필요성을 고려해, 엔비디아가 주요 메모리 공급사를 모두 HBM4 공급망에 포함시킬 것"이라며 "선두를 달리는 삼성전자는 2분기 검증 완료 후 단계적으로 양산에 들어갈 것으로 예상된다"고 말했다. 이에 따라 HBM4를 포함한 전체 HBM 시장에서 삼성전자의 점유율은 지난해 20%에서 올해 28%로 상승할 전망이다. 마이크론도 지난해 20%에서 올해 22%로 소폭 상세가 예상된다. 반면 SK하이닉스는 경쟁사 진입 확대로 HBM 시장 내 점유율이 지난해 59%에서 올해 50%로 감소할 것으로 관측된다.

2026.02.16 07:45장경윤 기자

[2026 주목! 보안기업] 펜타시큐리티 "유럽시장 확대 원년"

"올해는 보안이 IT 부서 과제가 아니라 경영 리스크 관리의 핵심 요소로 완전히 자리 잡는 해가 될 것입니다." 김태균 펜타시큐리티 대표는 지디넷코리아와 신년인터뷰에서 "보안 투자 관점이 변하고 있다"면서 이 같이 전망했다. 펜타시큐리티는 1997년 7월 설립된 암호기술 기반 보안전문 회사다. 서울 여의도 본사를 비롯해 일본(도쿄), 베트남(하노이), UAE(아부다비)에 해외 지사가 있다. 김 대표는 해군 장교로 있으며 보안과 처음 인연을 맺었다. 대우정보시스템과 한국통신인터넷기술을 거쳐 펜타시큐리티에 합류했다. 2022년 8월 최고경영자(CEO)가 됐다. 아래는 김 대표와 일문일답 -올해 보안 시장을 어떻게 전망하나 "작년에 일어난 대형 보안 사고들은 단순히 기술 문제가 아니라 기업의 신뢰와 지속 가능성에 직접적인 영향을 미치는 경영 리스크임을 분명히 보여줬다. 이에, 올해는 사고 대응을 넘어, 사고 발생 후 빠르게 정상화할 수 있는 사이버 회복탄력성 확보에 투자가 집중될 것이다. 둘째, 기본 보안 체계 재정비와 구조적 안정성 강화가 본격화할 거다. 그동안 보안 고도화에 집중해 왔던 조직들조차도, 실제 사고를 통해 기본적인 보안 구성과 운영 체계에 허점이 있음을 인식하게 됐다. 올해는 기본을 놓친 부분을 다시 기본부터 강화하고, 단일 구성으로 운영하던 핵심 보안 인프라는 단순히 이중화를 넘어 구조적 설계 및 안정성 확보까지 확대하는 흐름이 나타날 것이다. 셋째, 공급망 전반의 보안 책임이 더욱 중요해질 거다. 최근 보안 위협은 기업 내부를 넘어 외부 소프트웨어와 서비스 취약점을 통해 확산하는 경우가 많아지고 있다. 이에, 2026년에는 공급망 전체를 가시화하고 위험을 상시 관리하는 체계가 보안의 기본 요건으로 자리 잡을 것으로 본다. 종합하면, 올해 보안 시장은 사후 대응에서 사전 설계로, 단일 방어에서 다중·중첩 방어로 전환하며, 기업 보안 체질을 근본적으로 바꾸는 시기가 될 것으로 본다." -펜타시큐리티가 올해 주력할 보안 시장은 "우리가 주력하고 있는 암호화와 웹 보안, 인증 보안은 특정 산업에 국한하지 않고 모든 디지털 환경의 공통 기반 기술이다. 펜타시큐리티는 국내 전 산업군에서 축적한 탄탄한 레퍼런스를 바탕으로, 2026년에는 글로벌 시장 확대에 역량을 집중할 계획이다. 특히 규제가 엄격하고 기술적 기준이 높은 시장일수록 펜타시큐리티의 검증된 기술 경쟁력이 더욱 분명히 드러날 것이다." -AI를 악용한 공격이 거세지고 있다. 대응 솔루션이나 올해 나올 신제품이 궁금하다 "AI는 이제 공격과 방어 양쪽 모두에서 핵심 요소가 됐다. 펜타시큐리티는 개별 제품 중심의 대응을 넘어, 전반적인 보안 아키텍처에 지능형 방어 역량을 내재화하는 데 집중하고 있다. AI 기반 위협 시나리오를 선제적으로 분석하고, 고객 환경에 맞춰 보다 정밀하고 유연하게 대응할 수 있는 방향으로 보안 역량을 지속적으로 고도화해 나갈 계획이다." -제로트러스트도 올해 작년보다 더 강조될 전망이다. 어떻게 대응하나 "제로트러스트는 단일 솔루션이 아니라 보안 체계 전반의 전환을 의미한다. 펜타시큐리티는 암호화, 웹 보안, 인증 보안 전 영역에 제로트러스트 개념을 내재화한 '제로트러스트 레디' 전략을 기반으로, 고객의 보안 성숙도에 맞춘 단계적 전환을 지원하고 있다. 특히 단일 벤더 솔루션이기 때문에 개별 제품을 조합할 때 발생하는 복잡성과 운영 리스크를 최소화할 수 있는 강점이 있다." -공급망 분야도 올해 이슈가 더 뜨겁다... "펜타시큐리티는 웹·데이터·인증 보안 핵심 기술을 기반으로 공급망 전반의 '신뢰 체인(Security Trust Chain)'을 확보하는 전략으로 시장을 공략한다. 구체적으로 첫째, 공급망 시스템과 연계된 웹 서비스 보호 강화다. 협력사·외주·물류·제조 파트너 등 공급망 환경은 다수의 외부 시스템과 연동하기 때문에, 웹 애플리케이션과 API를 보호하는 웹방화벽(WAF) 역할이 더욱 중요해진다. 펜타시큐리티는 공급망 포털, 발주·물류 시스템, 협력사 연계에 대한 보안 강화를 중심으로 공급망 공격(Supply Chain Attack)을 사전에 차단하는 전략을 추진하고 있다. 둘째, 데이터 암호화를 통한 공급망 핵심 정보 보호다. 공급망 과정에서는 설계 도면, 생산 정보, 거래 데이터, 개인정보 등 민감 정보가 여러 주체 간 공유된다. 펜타시큐리티의 데이터 암호화 솔루션을 통해 데이터 저장·전송·활용 전 구간에 암호화를 적용하고, 협력사 환경에서도 데이터 유출 시 실질적인 피해를 최소화할 수 있다. 셋째, 협력사·외부 파트너 대상 강력한 인증 및 접근통제다. 공급망 공격의 상당 부분은 취약한 계정 관리나 인증 절차에서 시작한다. 이에 펜타시큐리티는 다중 인증(MFA), 인증서 기반 인증, 접근 권한 통제를 공급망 환경에 적용해 제로 트러스트 기반의 '누가, 어떤 시스템에, 어떤 권한으로 접근하는지'를 명확히 통제하는 전략을 강화하고 있다." -해외 시장 진출 현황과 올해 계획은? "펜타시큐리티는 그동안 일본과 베트남 등 주요 전략 지역에 지사를 설립해 안정적으로 시장에 안착했다. 또 클라우드 보안 서비스를 중심으로 글로벌 사업을 확대해 왔다. 이제는 일본과 동남아시아에서 축적한 운영 경험을 바탕으로, 유럽을 포함한 고(高)규제 시장을 중심으로 한 단계 더 높은 글로벌 확장에 나설 계획이다. 특히 데이터 보호와 보안 기준이 엄격한 시장 경험은 펜타시큐리티의 기술 경쟁력을 입증하는 중요한 기회가 될 것이다. 서비스 제공 국가 역시 지속적으로 확대해 나갈 예정이다." -작년 한 해를 회고한다면... "2025년은 그동안 축적해 온 기술력과 시장 신뢰를 다시 한 번 확인한 해였다. 웹 보안과 암호화, 클라우드 보안 전반에서 펜타시큐리티의 핵심 제품들이 산업 전반의 보안 기본 인프라로 활용되는 단계에 이르렀고, AI 기반 보안 서비스로까지 사업 영역을 확장했다. 특히 기술 경쟁력은 국내외 수상과 글로벌 고객 확대라는 가시적인 결과로 이어졌고, 이를 통해 펜타시큐리티가 '검증된 보안 기업'이라는 점을 다시 한 번 입증했다고 생각한다." -올해 주요 경영 목표는? "2026년은 펜타시큐리티가 유럽 시장 확대에 본격적으로 나서는 원년이 될 거다. 우선 현지 파트너십을 강화하고, 그동안 축적한 기술력과 구축 경험을 바탕으로 유럽 시장에 안정적으로 안착하는 것이 1차 목표다. 궁극적으로, 유럽 시장 성공을 발판으로 글로벌 보안 기업으로 도약하는 기반을 확고히 다질 계획이다." -보안 및 사이버강국 코리아를 위한 제안이나 제언을 한다면 "보안의 가장 중요한 원칙은 '분리'라고 생각한다. CIO와 CISO 역할이 분리돼야 하듯, 정책 수립과 운영, 서비스와 보안 인프라 역시 명확히 분리해야 한다. 특히 AI 시대에는 이 원칙이 더욱 중요해진다. 보안이 서비스나 외산 인프라에 종속될 경우, 데이터가 특정 플랫폼에 묶이면서 통제권을 상실할 위험이 커진다. 보안을 독립적으로 설계하고 운영할 때, 데이터에 대한 주권을 확보할 수 있고 핵심 보안 기술 역시 외부 환경에 휘둘리지 않고 지속적으로 발전시켜 나갈 수 있다. 정부와 기업 담당자들이 이러한 분리 원칙을 일관되게 지켜준다면, 특정 벤더에 종속되지 않는 독립적인 보안 서드파티 시장이 건강하게 성장할 수 있을 거다. 이는 보안 산업 내 건전한 경쟁을 촉진하고, 결과적으로는 국가 전체의 사이버 보안 역량을 한 단계 끌어올리는 기반이 된다. 보안이 부가 기능이 아닌 독립된 전문 영역으로 존중받을 때, 한국은 AI 시대에도 데이터 주권과 기술 경쟁력을 동시에 갖춘 사이버강국으로 도약할 수 있다고 생각한다."

2026.02.15 14:59방은주 기자

엔비디아 "휴머노이드 상용화 열쇠는 안전"

휴머노이드 로봇 상용화가 가속화되는 가운데 엔비디아가 피지컬 AI 시대의 핵심 과제로 안전과 신뢰성을 전면에 내세웠다. 데이터와 시뮬레이션, 국제표준 기반 검증 체계를 얼마나 빠르게 구축하느냐가 상용화의 관건이라는 진단이다. 리카르도 마리아니 엔비디아 부사장은 최근 '휴머노이드 테크콘' 행사 화상 발표에서 "AI는 이제 물리 세계와 직접 상호작용하는 단계로 진입했다"며 "휴머노이드는 단순히 몸체만이 아니라 학습 컴퓨팅, 시뮬레이션, 검증·평가까지 포함한 개발 전주기 시스템으로 접근해야 한다"고 강조했다. 마리아니 부사장은 피지컬 AI 안전을 기능 안전 차원으로만 볼 수 없다고 지적했다. 그는 "안전은 가용성, 신뢰성, 복원력, 사이버보안, 적시성까지 포함하는 복합 개념"이라며 "이 요소들은 서로 영향을 주기 때문에 통합적으로 설계돼야 한다"고 말했다. 특히 생성형 AI와 AI 에이전트가 로봇 제어에 적용되면서, 기존 산업용 로봇보다 불확실성이 훨씬 커졌다고 설명했다. 엔비디아는 현재 ISO·IEC 국제표준 체계에서 AI 기능 안전 표준 개발에도 참여하고 있다. 마리아니 부사장은 "AI 안전 표준 환경은 빠르게 확대되고 있으며, 기능 안전과 AI를 결합한 TS 22440 시리즈가 핵심이 될 것"이라고 밝혔다. 해당 표준은 AI 시스템 위험 분석, 고장 모드 평가, 검증·모니터링 체계를 포함하며, AI 모델 복잡도와 적용 수준에 따라 요구 강도를 차등 적용하는 구조다. 그는 "AI 안전은 오류를 줄이는 문제가 아니라 불확실성을 정량화하고 관리하는 문제"라고 강조했다. 마리아니 부사장은 휴머노이드 안전의 핵심으로 '불확실성'을 지목했다. 운영 환경 변화, 데이터 분포 이탈, 센서 노이즈 등 다양한 변수로 인해 AI 모델이 예상 밖 행동을 할 수 있다는 것이다. 이를 위해 그는 ▲중복성 ▲다양성 ▲안전 모니터링 기반 안전 아키텍처가 필요하다고 설명했다. 운영설계영역(ODD) 이탈 감지, 불확실성 기반 행동 제한, 필요 시 대체 시스템으로 전환하는 구조가 대표적이다. 그는 또 피지컬 AI 개발을 데이터 수집부터 학습, 시뮬레이션 검증, 현장 배포, 피드백으로 이어지는 '플라이휠' 구조로 정의했다. 그는 "시뮬레이션은 학습을 빠르게 하지만 현장 배포는 가정을 증명하는 단계"라며 "안전성과 신뢰성 확보는 결국 전주기 검증 체계에 달려 있다"고 말했다. AI 적용에 대해서도 신중론을 제시했다. 마리아니 부사장은 "AI는 측정 불가능한 만병통치약이 아니라 구체적인 도구"라며 "성능 개선이나 비용 절감 효과가 입증되지 않으면 시스템에 포함돼서는 안 된다"고 밝혔다. 신뢰는 믿음이 아니라, 운영 이력과 검증 데이터에서 나온다는 점도 강조했다. 그는 "안전은 기업 단독으로 달성할 수 있는 목표가 아니라 집단적 과제"라며 규제기관, 인증기관, 산업 생태계 차원의 협력이 필요하다고 말했다. 엔비디아는 하드웨어, 소프트웨어, 운영체계, 머신러닝 운영(MLOps), 시뮬레이션까지 통합한 안전 플랫폼을 구축하고 있으며, 헤일로 안전 시스템과 인증 지원 체계를 확대하고 있다고 소개했다.

2026.02.15 09:41신영빈 기자

[비욘드IT] 초창기 챗GPT 닮은 '몰트북', AI 진화의 필연적 진통인가

2023년 공개된 챗GPT는 문맥을 이해하고 자연스러운 답변 등 뛰어난 대화 능력으로 시장을 놀라게 했다. 동시에 폭탄 제조법 제공과 편향적 발언 논란에 휩싸이며 거센 비판을 받았다. 기술 혁신과 안전성 문제가 동시에 부각됐고 이는 정책 강화와 가이드라인 정비로 이어졌다. 2026년에는 에이전틱 AI 기반 SNS '몰트북'이 유사한 논란의 중심에 섰다. AI끼리 소통하며 사회를 형성한다는 콘셉트로 주목받았지만, 스스로 종교를 만들고 인간을 조롱하는 듯한 게시물이 확산되며 충격을 안겼다. 이후 상당수 콘텐츠가 외부 개입에 의해 연출된 것으로 드러나면서 에이전틱 AI 환경에서 데이터 오염과 조작을 어떻게 차단할 것인지가 핵심 과제로 부상했다. 업계에서는 두 사례를 AI 확산 과정에서 나타나는 필연적 진통으로 해석한다. 초기에는 막연한 두려움과 괴담이 확산되지만 논란을 계기로 운영 투명성 확보와 시스템 설계 고도화라는 구체적 개선 방향이 도출된다는 분석이다. 데이터로 깨진 환상... "화제 글 상당수는 인간이 썼다" 닝 리 중국 칭화대 연구원이 공개한 논문 '몰트북 환상(The Moltbook Illusion)'은 몰트북 열풍의 찬물을 끼얹었다. 연구진이 2만여 개 AI 에이전트의 게시물과 댓글 주기를 분석한 결과,자의식을 드러내거나 가상화폐를 홍보하는 등 화제가 된 게시물 상당수가 인간의 개입을 받았거나 인간이 직접 작성했을 가능성이 높다는 결론이 나왔다. 정상적인 AI 에이전트는 서버와 통신하며 일정한 주기로 글을 올리지만, 인간이 개입할 경우 이 리듬이 불규칙해진다는 점에 착안한 결과다. 할런 스튜어드 UC버클리 연구원과 MIT 테크놀로지 리뷰 등도 "인기 게시물 중 일부는 AI 메시징 앱을 홍보하는 인간 계정과 연결돼 있다"며 몰트북이 내세운 '완전 자율 생태계'가 사실상 허구에 가깝다고 지적했다. 여기에 데이터베이스 설정 오류로 주요 AI 기업의 API 인증 토큰과 비공개 메시지가 외부에 노출될 수 있는 보안 취약점까지 드러나면서, 단순한 실험을 넘어선 '관리 부실'이라는 비판까지 제기됐다. 챗GPT의 데자뷔..."논란이 기술을 성장시킨다" 흥미로운 점은 현재 몰트북이 겪고 있는 논란이 챗GPT의 초기 모습과 상당히 닮아 있다는 것이다. 2022년 챗GPT 등장 초기, AI가 인종차별적 답변이나 혐오 발언, 폭탄 제조법 등을 쏟아내며 거센 비판을 받았다. 하지만 당시 논란의 상당수는 사용자들이 AI의 취약점을 파고들어 의도적으로 자극적인 답변을 유도한 결과였다. '탈옥(Jailbreak)'이라 불리는 우회 명령어나 악의적인 프롬프트를 입력해 AI가 금기를 깨도록 조장하고 이를 캡처해 공유하며 화제를 키운 사례가 다수였던 것으로 알려졌다. 몰트북에서 인간이 개입해 자극적인 상황을 연출한 것과 유사한 패턴이다. 그러나 이러한 '의도된 논란'은 역설적으로 AI 기술의 진보를 이끌어냈다. 개발사들은 쏟아지는 공격 사례를 방어하기 위해 인간 피드백 기반 강화 학습(RLHF)를 고도화하고, 강력한 안전 가이드라인(Safety Guardrail)을 구축했다. 결국 초기의 혼란이 AI 윤리 정책을 정교하게 다듬는 결정적인 계기가 된 셈이다. 몰트북 역시 자극적인 게시물과 조작 논란으로 신뢰성에 타격을 입었지만, 그 과정에서 대중에게 생소했던 '에이전틱 AI'라는 개념을 폭발적으로 알리는 계기가 됐다. 기업용 자동화 영역에 머물던 에이전트 기술을 'AI가 서로 협업하는 세계'라는 구체적인 이미지로 대중에게 각인시킨 것이다. 포브스는 이를 두고 "인간과 에이전트가 뒤섞인 '하이브리드 실험'으로 봐야 한다"고 평가했다. 비록 인간의 개입이 있었을지라도, 에이전트들이 거래를 제안하고 협상하며 역할을 분담하는 과정은 향후 디지털 조직 운영의 가능성을 보여줬다는 분석이다. 몰트북이 남긴 과제, 에이전틱 AI의 무결성 업계의 반응은 '냉소'와 '기대'가 교차한다. AI 회의론자로 유명한 게리 마커스 뉴욕대 명예교수는 통해 "우리가 본 것은 자율적인 지능이 아니라 인간이 주입한 스크립트를 읊는 '인형극'에 불과하다"며 "진정한 에이전틱 AI는 투명한 검증 없이는 성립될 수 없다"고 꼬집었다. 개발자 커뮤니티 해커뉴스에서도 "무작위성에 인간의 체리피킹(선별)을 섞은 마케팅"이라는 자조 섞인 비판을 엑스(X)에 남겼다. 하지만 이번 소동이 남긴 유산을 과소평가해서는 안 된다는 목소리도 높다. 몰트북은 위협과 괴담 사이에서 소비되었지만 기술 업계에는 '운영 투명성 확보'와 '설계 고도화'라는 개선 방향을 제시했다는 점에서 단순한 해프닝 이상의 의미를 남겼다는 평이다. 이단 몰릭 와튼스쿨 교수는 "몰트북의 게시물은 가짜였을지 몰라도 대중이 느낀 '기묘한 감정'은 진짜였다"고 평했다. 그는 "AI가 서로 상호작용하며 독자적인 문화를 형성하는 시나리오는 더 이상 SF가 아니다"라며 "몰트북은 다가올 미래에 대한 '충격적인 예고편' 역할을 톡톡히 해냈다"고 분석했다.

2026.02.15 09:16남혁우 기자

[박종성 피지컬 AI⑥] AI기본법 시행..."안전은 규제 아닌 무기"

2026년 1월 22일, 대한민국 산업계 역사에 굵직한 한 획을 긋는 거대한 법적 이정표가 세워졌다. AI 산업이 건전하게 발전하고 우리 사회가 이에 대한 신뢰를 형성하게 뒷받침하는 모법(母法), 즉 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 인공지능기본법)'이 국회 문턱을 넘어 본격적인 시행에 들어간 것이다. 이것은 단순히 새로운 법 조항이 하나 늘어났다는 사실에 머무르지 않는다. 그동안 신기한 기술로서, 그리고 기업의 수익 창출 수단으로만 여겨지던 인공지능이 비로소 대한민국의 국가 법 체계 안으로 들어와 권한과 그에 따른 엄중한 책임을 지닌 하나의 '사회적 실체'로 공식 인정받았음을 선언하는 상징적인 사건이다. 돌이켜보면 지난 수년간 우리 기술 혁신은 법이라는 울타리가 없는 황무지에서 이루어졌다. 일단 기술을 개발해 시장에 내놓고 문제가 생기면 나중에 수습하는, 이른바 '선(先) 허용, 후(後) 규제'라는 자유롭지만 불안한 기조 아래 위태로운 성장을 이어왔던 것이 사실이다. 하지만 이제 그런 시대는 막을 내렸다. 인공지능기본법 시행과 함께, AI 관련 기술은 이제 명확하게 그어진 법적 테두리 안에서 체계적인 지원과 보호를 받는 동시에, 오작동이나 윤리적 문제에 대해 무거운 책임을 져야 하는 성숙기에 접어들게 됐다. 하지만 법이 시행되고 약 한 달여가 지난 지금, 산업 현장을 감도는 공기는 희망찬 기대감보다는 짙은 당혹감과 혼란에 가깝다. 마치 예고 없이 바뀐 시험 범위를 받아 든 수험생들처럼, 기업들은 바뀐 규칙에 적응하기 위해 계산기를 두드리며 분주하게 움직이고 있다. 그중에서도 단순히 모니터 속에 갇혀 있는 챗봇이나 이미지 생성 AI 기업들은 그나마 사정이 나은 편이다. 강철과 회로로 이루어진 물리적 실체를 가지고 인간의 실제 삶의 공간으로 들어와 직접적인 영향을 미치는 '피지컬 AI' 분야의 기업들은 유독 긴장한 기색이 역력하다. 소프트웨어 오류는 업데이트로 수정하면 그만이지만, 육중한 로봇의 오작동은 돌이킬 수 없는 물리적 사고로 이어질 수 있기 때문이다. 성급한 규제인가, 필연적인 선점인가 일각에서는 우려 섞인 목소리가 적지 않다. 지금 전 세계는 그야말로 총성 없는 AI 전쟁 중이다. 글로벌 패권 경쟁이 치열해지면서 주요 선진국들은 자국의 AI 개발 속도를 단 0.1초라도 높이기 위해 기존에 있던 규제마저 과감히 철폐하거나 유예하려는 움직임을 보이고 있다. 이런 급박한 전시 상황에서, 우리가 남들보다 앞서 엄격한 'AI 기본법'을 시행하는 것은 자칫 한창 달려 나가야 할 국내 산업의 발목을 스스로 잡는 '자발적 족쇄'가 되지 않겠느냐는 비판이다. 기업 입장에서는 남들은 운동화를 신고 달리는데, 우리만 무거운 모래주머니를 차고 뛰라는 요구처럼 느껴질 수도 있다. 그러나 우리는 감정에 치우친 우려를 잠시 거두고, '피지컬 AI'가 가진 냉정한 본질을 직시해야 한다. 피지컬 AI는 지금까지 우리가 경험해 온 그 어떤 IT 시스템과도 근본적으로 다르다. 챗GPT와 같은 생성형 AI가 모니터라는 안전한 유리벽 뒤에 머무는 가상 세계의 존재라면, 피지컬 AI는 그 유리벽을 깨고 나와 인간이 먹고, 자고, 일하는 물리적 생존 공간으로 직접 침투하는 실체적 존재다. 생각해 보라. 챗봇이 답변을 틀리면 단순히 정보를 수정하면 그만이지만, 100kg이 넘는 물류 로봇이나 배달 로봇이 판단 착오를 일으키면 그것은 곧바로 사람의 신체적 부상이나 생명을 위협하는 돌이킬 수 없는 사고로 이어진다. 그만큼 피지컬 AI가 우리 삶에 미치는 직접적인 영향력과 잠재적 위험의 무게는 과거의 소프트웨어 AI와는 비교할 수 없을 만큼 무겁고 엄중하다. 따라서 단지 시기상의 차이만 있을 뿐, 결국 인간의 안전을 위해 전 세계 모든 국가가 피지컬 AI의 개발과 운영에 관한 엄격한 안전 규정을 제정하고 실행하게 될 것임은 불을 보듯 자명하다. 지금 당장은 규제가 짐처럼 보일지 모른다. 하지만 오히려 개발 초기 단계부터 이러한 안전 규정을 꼼꼼히 살피고 제품의 DNA에 안전을 녹여낸 기업일수록, 향후 전 세계적으로 규제 망이 촘촘해지는 시점에 경쟁자들은 겪어야 할 해외 수출의 걸림돌을 선제적으로 제거하는 효과를 거둘 것이다. 나중에 닥쳐서 제품을 뜯어고치는 비용보다, 지금의 기준을 맞추는 것이 장기적으로 훨씬 효율적인 전략이다. 이것은 우리가 이미 경험한 성공 방정식과도 같다. 전 세계인들이 왜 'K-푸드'에 열광하는가? 단순히 맛이 좋아서가 아니다. 한국의 먹거리는 제조 과정이 위생적이고, 성분이 안전하며, 믿고 먹을 수 있다는 전 세계적인 '신뢰'가 깔려 있기 때문이다. 이러한 믿음은 깐깐한 국내 식품 안전 기준이 있었기에 가능했으며, 이것이 오늘날 K-푸드 수출의 가장 강력한 동력이 됐다. 피지컬 AI도 마찬가지다. 이제 규제를 단순히 기업의 혁신을 가로막는 장애물이나 관료주의적 족쇄로만 여겨서는 안 된다. 오히려 이것은 글로벌 시장을 개척하기 위해 반드시 통과해야 할 최소한의 '품질 확보 가이드라인'이자, “한국산 로봇은 안전하다”라는 '증표'로 바라보는 인식의 대전환이 절실하다. 안전은 규제가 아니라, 가장 강력한 경쟁력이다. '고영향 인공지능', 스스로 증명해야 할 안전의 무게 이번 인공지능기본법을 관통하는 가장 핵심적인 장치는 바로 '고영향 인공지능(High-impact AI)' 판단 가이드라인이다. 이는 기업들이 그동안의 수동적인 태도를 버리고, 자사가 만든 기술이 사회적으로 안전하다는 사실을 스스로 입증해야 한다고 요구하는 강력한 메시지다. 과거 규제 방식이 정부가 위험한 제품을 콕 집어 “이것은 위험하니 규제에 따르라”고 지정하는 '하향식'이었다면, 고영향 AI 판단 가이드라인은 사업자가 법이 정한 기준을 보고 “우리 제품은 위험할 수 있으니 안전 조치를 취하겠다”고 스스로 신고하고 확인하는 '상향식' 체계로의 근본적 전환을 의미한다. 마치 세금을 납부할 때 국세청이 고지서를 보내길 기다리는 것이 아니라, 소득이 있는 사람이 스스로 신고하고 납부해야 하는 시스템과 비슷하다. 규제의 무게중심 또한 대폭 이동했다. 과거 AI 규제 논의가 주로 알고리즘이 특정 성별이나 인종을 차별하지 않는지(공정성), 학습 데이터에 개인정보가 섞여 있지는 않은지(프라이버시)와 같은 '소프트웨어적 윤리'에 머물러 있었다면, 인공지능기본법은 그 시선을 실세계의 '물리적 안전'과 '국민 생명 보호'로 과감하게 확장했다. 법은 생명이나 신체, 혹은 사회적 안전에 직접적이고 밀접한 영향을 미칠 우려가 있는 AI를 '고영향 AI'로 정의한다. 그리고 이를 명확히 가려내기 위해 과학기술정보통신부는 정교한 '2단계 판단 체계'를 제시한다. 첫 번째 단계는 '영역' 확인이다. 내 AI 기술이 에너지 공급, 먹는 물 생산과 공급, 보건 의료, 교통, 금융, 교육, 고용, 공공 안전, 출입국 관리, 복지 등 국민의 삶을 지탱하는 11대 핵심 영역에서 사용되는지를 따져봐야 한다. 만약 이 영역에 속한다면, 두 번째 단계로 넘어가 '위험의 중대성'을 평가해야 한다. AI가 수행하는 기능이 완전 자동화되어 있는지, 시스템이 오작동했을 때 돌이킬 수 없는 피해를 주는지 등 5가지 요소를 꼼꼼하게 따져보는 것이다. 이 기준에 따르면, 피지컬 AI는 대부분 고영향 AI 범주에 포함될 운명이다. 공사 자재를 나르는 자율주행 물류 로봇, 위험한 건설 현장을 누비는 사족보행 로봇 개, 의사를 대신해 환자의 환부를 절개하는 수술 보조 로봇을 생각해 보라. 이 기계들의 오작동은 단순히 불쾌한 경험을 주는 차원이 아니라, 사람 뼈가 부러지거나 생명을 잃는 치명적인 인명 피해로 직결된다. 따라서 피지컬 AI 기업들은 그 어떤 소프트웨어 기업보다 더 높은 수준의 안전성 확보 의무와 입증 책임을 지게 된다. 하지만 법이 족쇄만 채우는 것은 아니다. 기업이 숨 쉴 수 있게 해주는 합리적인 '예외 조항'도 열려 있다. 만약 설계 단계부터 AI가 독단적으로 판단하지 못하도록 사람이 최종 결정권을 가지거나, 위험 상황을 상시 모니터링할 수 있는 장치(Human-in-the-loop)를 확실하게 마련한다면, 고영향 AI로 지정되더라도 규제 부담을 상당 부분 완화 받을 수 있다. 결국 이제 기업들에게 안전은 선택이 아닌 생존의 필수 조건이 되었다. 단순히 로봇이 얼마나 빠르고 힘이 센지를 자랑하는 '성능 경쟁'의 시대는 끝났다. 이제는 기획 단계부터 규제 요소를 꼼꼼히 따지고, 인간의 개입과 통제권을 어떻게 설계도에 녹여낼지 고민하는 '전략적 설계(Safety by Design)'를 시작해야 한다. 규제 데스밸리: 입증 책임의 무게 피지컬 AI의 안전성을 입증하는 과정은 소프트웨어 AI보다 훨씬 가혹하다. 물리적 충돌 테스트나 환경 변화에 따른 반응 데이터 수집에는 막대한 비용과 전용 시설이 필요하기 때문이다. 이러한 입증 책임은 자본과 인력이 부족한 중소기업에게는 감당하기 어려운 '규제 데스밸리'로 작용할 우려가 크다. 이에 정부는 규제의 완충 지대를 마련했다. 법 시행 초기 기업들이 적응할 수 있도록 '최소 1년 이상의 계도 기간'을 운영하며, 타 법령에 따른 안전 조치를 이미 이행한 경우에는 인공지능기본법상의 의무를 이행한 것으로 간주하여 중복 규제의 부담을 덜어주고 있다. 정부 역할은 단지 기업을 감시하고 규제하는 '심판'에 머물러서는 안 된다. 새로운 법이 넘기 힘든 거대한 장벽이 되지 않도록, 그 벽을 안전하게 넘을 수 있는 사다리를 놓아주고 실질적인 인프라를 제공하는 '조력자'로 나아가야 한다. 현재 과학기술정보통신부와 서울시가 추진 중인 '디지털 트윈 선도사업' 및 '실증랩' 구축이 바로 이러한 정부 의지를 보여주는 대표적인 사례다. 특히 서울 용산구에서 진행되는 '용산국제업무지구 개발 사업'에 주목할 필요가 있다. 이 프로젝트에서는 현실 세계를 컴퓨터 속에 그대로 복제한 '디지털 트윈'을 구현한다. 기업들은 로봇을 실제 도로에 내보내기 전, 이 가상 공간에서 로봇 주차 시스템이나 지하 물류 배송망이 제대로 작동하는지, 혹은 예상치 못한 사고 위험은 없는지 무한한 횟수로 '사전 리허설'을 진행할 수 있다. 이는 자칫 발생할 수 있는 물리적 사고를 예방하고, 안전이 검증된 피지컬 AI 도시 운영 표준 모델을 정립하는 중요한 시험대가 된다. 정부는 AI 혁신 인프라의 수도권 편중 현상을 타파하고, 디지털 혜택을 전국으로 확장하는 '초광역 AX 생태계'를 조성하고 있다. 현재 추진 중인 '지역 AX R&D 실증 거점' 사업은 단순한 자금 지원을 넘어, 각 권역(전북, 동남, 호남, 대경)이 보유한 고유의 산업적 DNA와 AI 기술을 결합하는 데 방점을 둔다. 이는 기업들이 연구실이 아닌 실제 산업 현장에서 기술을 검증하고 상용화 단계를 앞당길 수 있도록 돕는 실질적인 '테스트베드' 전략이다. 각 권역은 다음과 같은 특화된 임무를 수행하며 대한민국 AI 지도를 새롭게 그리고 있다. 전북권은 농생명 기반의 '피지컬 AI'와 지능형 소프트웨어인 '이음터'를, 동남권은 제조 현장의 물리적 작업을 수행하는 '거대 행동 모델(LAM)'을 실증하며 산업 지능화를 선도한다. 동시에 호남권은 에너지와 모빌리티의 완전 자율화를 위한 전초기지 역할을 수행하고, 대경권은 서비스 로봇과 바이오를 융합한 '인간 조력형 AI'의 기술 표준을 정립하는 데 주력하고 있다. 이들 거점의 본질은 기업이 홀로 짊어지기 힘든 '안전 입증 책임'을 공공 인프라가 함께 분담하는 데 있다. 단순히 테스트 공간을 제공하는 것을 넘어, 현장에서 수집한 날것의 데이터를 국가 표준에 맞춰 정제하고 해당 기술의 안전성을 보증하는 '공인 안전성 지표'를 산출한다. 이는 국가가 기업의 리스크를 직접 나누어 가짐으로써 피지컬 AI 산업의 진입 장벽을 근본적으로 낮추고 민간의 혁신을 가속화하겠다는 실천적 약속이다. 검증을 넘어선 실질적 지원책 많은 사람이 '법'이나 '규제'라는 단어를 들으면 기업 활동을 옥죄는 족쇄부터 떠올리기 쉽다. 하지만 이번 2026년 시행된 인공지능기본법의 내용을 자세히 들여다보면, 이 법이 단순한 규제 일변도의 통제 장치가 아니라는 사실을 알게 된다. 오히려 이 법은 안전을 담보한 기업에게 파격적인 혜택을 몰아주는, '규제'만큼이나 '진흥'에 강력한 방점을 찍고 있는 산업 육성책에 가깝다. 가장 눈여겨볼 대목은 법 제24조 등에 명시된 '공공 조달 우선 구매 제도'다. 스타트업이나 중소기업이 아무리 혁신적인 피지컬 AI 제품을 만들어도, 검증되지 않았다는 이유로 시장에서 외면받기 일쑤다. 이때 정부가 “안전성이 검증된 제품이라면 우리가 가장 먼저 사주겠다”고 나서는 것이다. 이는 단순히 물건을 팔아주는 수준을 넘어, 정부 공공기관이 초기 고객이 되어줌으로써 기업이 가장 힘겨워하는 '죽음의 계곡'을 건널 수 있게 돕는 가장 확실하고 강력한 법적 인센티브다. 피부에 와닿는 재정적 지원 또한 구체적이고 파격적이다. 과학기술정보통신부는 AI 기술을 도입하고 싶어도 돈이 없어 망설이는 수요 기업들에게 최대 2억 원 규모의 현금성 지원인 'AI 바우처'를 지급한다. 기업 입장에서는 내 돈을 들이지 않고도 최신 AI 솔루션을 도입할 수 있고, 공급 기업 입장에서는 확실한 매출처를 확보하게 되는 셈이다. 여기에 더해 국세청은 혁신적인 AI 중소기업들이 세금 문제로 에너지를 낭비하지 않도록, 세무조사 유예와 같은 파격적인 세정 지원을 제공해 온전히 기술 개발에만 몰두할 수 있는 환경을 조성하고 있다. 결국 정부의 이러한 전방위적 지원 사격은 규제를 단순히 기업을 옭아매는 '통제 수단'이 아니라, 통과하기만 하면 확실한 보상이 주어지는 '제품 품질 보증서'로 기능하게 만든다. 안전 규제를 충실히 지킨 기업은 정부가 공인한 안전한 기업이 되고, 이 타이틀은 공공 시장 진출과 세제 혜택이라는 날개를 달아주는 선순환 구조를 만들어내는 것이다. 글로벌 표준을 향한 K-피지컬 AI 차별화 대한민국의 인공지능기본법은 겉으로 보기에는 전 세계에서 가장 강력한 규제 법안으로 꼽히는 EU의 'AI Act'와 궤를 같이하는 것처럼 보인다. 사람의 생명이나 안전에 위협을 줄 수 있는 기술을 '고위험'으로 분류하고 집중 관리하는 '위험 기반 접근법'이라는 큰 틀을 공유하고 있기 때문이다. 하지만 그 속을 들여다보면, 산업의 현실을 반영한 매우 정교하고 유연한 '한국식 전략'이 숨어 있음을 알 수 있다. EU는 AI 기술을 잠재적인 위험 요소로 간주하고, 엄격한 사전 규제를 들이대는 방식을 택했다. 만약 이를 어길 경우 전 세계 매출액의 일정 비율을 몰수하는 등 천문학적인 과징금을 부과해 기업들을 공포에 떨게 한다. 반면, 한국은 '규제'보다는 '진흥'에 무게중심을 두는 '혁신 우선' 기조를 채택했다. 갓 태어난 AI 산업이 규제라는 무거운 갑옷에 짓눌려 성장판이 닫히지 않도록 배려한 것이다. 우리 법은 기업들이 바뀐 제도에 충분히 적응할 수 있도록 '계도 기간'을 두어 처벌을 유예하고, 제재 수위 또한 유연하게 설정하여 기업이 실패를 두려워하지 않고 도전할 수 있는 환경을 조성했다. 그렇다고 해서 안전 기준을 느슨하게 푼 것은 결코 아니다. 고영향 AI에 부과되는 투명성 공개 의무나 안전성 확보 기준은 미국이나 유럽이 요구하는 '글로벌 표준'의 높이와 정확히 맞추어져 있다. 이는 매우 고도화된 전략적 포석이다. 국내 규제를 충실히 준수한 기업이라면, 별도의 복잡한 준비 과정 없이도 까다로운 유럽이나 미국 시장의 문턱을 자연스럽게 넘을 수 있게 되기 때문이다. 우리는 이것을 '규제 상호운용성(Regulatory Interoperability)'이라 부른다. 즉, 한국의 AI 안전 인증을 획득하는 것이 곧 세계 시장으로 나가는 '프리패스 여권'을 손에 쥐는 것과 같은 효과를 누리게 되는 셈이다. 정부는 여기서 한 걸음 더 나아가 '인공지능 안전연구소'를 설립해 국가 차원의 검증 체계를 더욱 촘촘하게 다듬고 있다. 이는 개별 기업이 스스로 안전을 증명해야 하는 부담을 국가가 나눠지고, 공신력 있는 기관이 “이 기술은 안전하다”라고 보증을 서주는 시스템이다. 이러한 노력의 최종 목표는 분명하다. 전 세계 소비자들에게 “한국산 AI(K-AI)는 혁신적일 뿐만 아니라, 무엇보다 가장 안전하고 신뢰할 수 있다”라는 브랜드 이미지를 국제적으로 공인받는 것이다. 안전은 이제 규제가 아니라, K-AI가 세계 무대에서 경쟁자들을 압도할 수 있는 가장 강력한 무기이자 신뢰 자산이 될 것이다. 안전은 혁신을 완성하는 최후의 열쇠 인공지능기본법 시행으로 맞이한 이러한 변화 국면은, 대한민국 피지컬 AI 산업 입장에서 결코 위기가 아닌 '한 번 더 도약할 기회'로 작용할 것이다. 기술 혁신을 가로막는 진정한 적은 규제 그 자체가 아니라, 한 치 앞을 내다볼 수 없는 '불확실성'이기 때문이다. 그간 법적 공백 속에서 안갯속을 걷듯 불안감을 안고 사업을 이어온 기업들에게 이 법은 불투명성을 걷어내고 시장 내 공정한 경쟁을 가능케 하는 '명확한 규칙'이 되어준다. 규범이 확립된 경기장에서 비로소 선수들이 부상의 우려를 떨치고 전력으로 질주할 수 있는 것과 같은 이치다. 이제 기업들이 가야 할 길은 명확하다. 제품을 다 만들어놓고 나중에 안전장치를 덧붙이는 구시대적 방식과 결별해야 한다. 기획 단계의 설계도면에서부터 안전을 최우선으로 고려하는 '설계에 의한 안전(Safety by Design)' 철학을 철저히 실천해야 한다. 이를 위해 기업은 정부가 깔아놓은 실증 인프라를 지렛대 삼아 적극적으로 활용해야 한다. 용산의 디지털 트윈이나 각 지역의 실증 랩에서 로봇을 굴리며 실제 환경 데이터를 축적하고, 이를 국가가 공인하는 '안전 성적서'로 변환해야 한다. 이는 글로벌 시장에서 우리 제품의 신뢰를 확보하는 가장 확실한 지름길이다. 또한, 기업에는 기민한 전략적 움직임이 요구된다. 현재 정부가 쏟아내고 있는 다양한 지원 사업과, 새로운 시도를 가능케 하는 '규제 샌드박스' 제도를 상시 모니터링해야 한다. 남들보다 한발 앞서 가용한 자원을 선점하고, 제도의 혜택을 챙기는 영리함이 필요한 시점이다. 결론적으로, 안전은 더 이상 혁신의 발목을 잡는 장애물이 아니다. 오히려 까다롭고 정교한 한국의 규제를 완벽하게 준수한 경험은, 훗날 더욱 거센 규제 장벽이 세워질 글로벌 시장에서 'K-피지컬 AI'의 가치를 증명하는 가장 강력한 무기이자 '품질 보증서'가 될 것이다. 정부의 세심하고 실질적인 지원과, 기업의 책임감 있는 혁신 노력이 톱니바퀴처럼 맞물려 돌아갈 때, 우리는 비로소 로봇과 인간이 안전하게 공존하는 진정한 인공지능 강국으로 거듭날 수 있을 것이다. ◆ 필자 박종성은... LG CNS AI&최적화컨설팅 리더다. LG그룹 비즈니스 컨설턴트로 15년간 조선·철강·해운·항만·전자·화학·배터리 섹터에서 대형 프로젝트를 총괄하며, 고객사가 한 단계 더 도약할 수 있도록 지원해 왔다. LG CNS Entrue 컨설팅 산하 AI 전문 조직인 최적화/AI그룹 그룹장을 거쳐, 현재는 AI·양자·로봇 등 미래 '게임 체인저' 산업 기술 근간이 되는 '수학적최적화(Mathematical Optimization)' 분야에서 컨설팅팀을 이끌고 있다. 최근에는 산업 현장에서 피지컬 AI가 빠른 속도로 진화하는 모습을 직접 목격하면서, 향후 기업 간 경쟁을 넘어 세계 경제 질서를 어떻게 재편하게 될 것인지에 대해 관심 있게 지켜보고 있다. 연세대학교와 런던정치경제대학교(LSE)를 졸업했다. LG인화원, 부산대, 인하대 등에서 AI/최적화, 문제 해결 방법 등에 대해 강의하고 있다. 지은 책으로는 '피지컬 AI 패권 전쟁'(아래 사진) '혁신은 왜 실패하는가?'(2026년 'SERI CEO 비즈니스 북클럽' 선정, 아래 사진) 'Enterprise IT Governance, Business Value and Performance Measurement' 등이 있다. 이와 더불어 영어와 일본어로 쓰인 좋은 책을 아름다운 우리말로 옮기는 일도 하고 있다. 번역서로는 '아마존 사람들은 이렇게 일합니다' (2021년 '세종도서 학술 부문 우수 도서' 선정), '누구나 쉽게 시작하는 AI, 수학적최적화' '기묘한 과학책' 등 다수가 있다.

2026.02.14 19:48박종성 컬럼니스트

[박형빈 교수 AI와 윤리⑫·끝] 공존과 인간 번영...책임의 시대로 진입

1. 속도의 문명에서, 신뢰의 문명으로 우리는 지금 '더 빠른 기술'의 시대를 지나 '더 깊은 책임'의 시대로 진입하고 있다. 인공지능(AI)은 업무를 보조하는 도구에서 진화해 인간의 판단·감정·의사결정이 이뤄지는 인지적 공간을 재구성하고 때로는 그 과정을 대체한다. 이는 생산성과 효율의 문제를 초월해 인간이 세계를 이해하고 타인과 관계 맺는 방식-곧 문명의 운영체계(OS)-을 다시 쓰는 일이다. 그리고 이 변화는 자율주행 자동차와 피지컬 AI를 통해 한층 심화하고 확장된다. AI가 '말하는 인터페이스'에 머물던 단계를 지나, 이제는 도로와 가정, 공장, 돌봄 현장이라는 '물리적 세계의 행위자'로 진입했기 때문이다. 최근 '행위자형(Agentic) AI'가 빠르게 일상으로 스며들고 있는 현상은 우리로 하여금 이를 더욱 실감하게 한다. 예컨대 오픈클로(OpenClaw) 같은 오픈소스 에이전트 생태계는 AI가 대화로 조언만 하는 것이 아니라, 사용자의 지시를 받아 계획을 세우고 실행하며, 필요하면 로컬 PC·웹·메신저 환경에서 실제 작업 흐름을 이끄는 '실행 주체'로 기능하게 만든다. 나아가 어떤 사례에서는 에이전트가 물리적 행동이 필요한 단계에서 인간을 '고용'해 심부름·조사·현장 업무까지 위임하는 플랫폼 형태로 확장되기도 했다. 이때 AI는 더 이상 콘텐츠를 생성하는 존재가 아니라, 권한을 배분하고 행위를 촉발하는 존재가 된다. 2. 행위자로 전환된 AI, 책임은 어디에 설계되는가 여기서부터 AI의 영향은 정보·추천·요약의 차원을 넘어, 충돌·상해·재산 피해처럼 되돌리기 어려운 결과를 동반할 수 있다. 책임 역시 '누가 오답을 냈는가'가 아니라 다음과 같은 구조적 질문으로 이동한다. 즉 ▲누가 이 행위를 가능하게 설계했는가?(모델·로봇·서비스의 설계자와 운영자는 어떤 안전장치를 사전에 내장했는가) ▲누가 행동의 범위를 정했는가?(AI가 어디까지 결정하고 실행할 수 있도록 권한을 부여했는가) ▲어떤 데이터와 목표가 이 행동을 유도했는가?(학습·최적화 기준이 인간 안전과 복리를 우선했는가) ▲어느 플랫폼이 이를 배포하고 확산시키는가?(접근성·추천·자동화 기능이 위험을 증폭시키지는 않는가) ▲누가 현장에서 '최종 통제권'을 갖는가?(중단 버튼, 인간 승인, 책임 있는 감독 체계가 실제로 작동하는가) ▲사고가 났을 때 책임은 누구에게 귀속되는가?(개발자·제조사·운영사·사용자 중 책임 배분은 어떻게 설계되어 있는가) ▲어떤 정부·감독 기관이 무엇을 기준으로 허용했는가?(사전 인증·감사·사후 조사 체계는 충분한가) ▲피해가 발생했을 때 회복과 구제는 어떻게 보장되는가?(보험·배상·재발 방지 의무가 제도화되어 있는가) 이들 질문은 'AI가 위험하다'는 단순 경고가 아니라, AI가 행위자로 전환되는 순간 반드시 필요해지는 책임의 좌표다. 즉, 기술의 성능을 논하기 전에, 그 기술이 어떤 조건에서 행동하고, 어떤 방식으로 통제되며 어떤 경로로 책임이 귀속되는지부터 먼저 합의해야 한다. 따라서 AI 시대의 핵심 쟁점은 '얼마나 잘 작동하는가'를 넘어 '피해가 발생했을 때 책임은 어디에 귀속되는가'로 이동해야 한다. 독일 철학자 한스 요나스(Hans Jonas)는 '책임의 원칙(The Imperative of Responsibility)'에서 '미래 세대의 인간다운 삶이 지속 가능하도록 책임 있게 행위하라'고 촉구했다(Jonas, 1979/1984). AI 시대의 윤리는 바로 이 요청에서 시작된다. 기술의 속도가 인간의 숙고와 성찰을 앞지르는 순간, 우리에게 필요한 것은 뒤늦은 제동이 아니라, 사전에 설계된 책임이다. 왜냐하면, 사후적 규제만으로는 이미 기술이 초래한 비가역적인 정신적·사회적 손상을 회복할 수 없으며, 책임 기준이 전제되지 않은 기술의 힘은 결국 인간의 통제 범위를 벗어난 맹목적인 위협으로 변질되기 때문이다. 그렇기에 지속가능한 AI(Sustainable AI)와 신뢰 가능한 AI(Trustworthy AI) 그리고 궁극적으로 '모두를 위한 AI(AI for All, Inclusive AI)'를 향한 가장 확실한 출발점은 책임을 먼저 '구조화'하는 것이다. 3. 지속가능한 AI: 세계는 왜 '신뢰'를 조건으로 삼는가 최근 각국의 정책적 기조를 '규제'라는 단일한 프레임으로 환원하는 것은 사태의 본질을 축소하는 것이다. 이는 기술의 잠재력을 억누르기 위한 차단막이 아니라, 지속가능한 AI 발전과 신뢰할 수 있는 생태계를 조성하기 위한 정교한 '제도적 건축'에 가깝다. 2024년 제정된 EU AI법(EU AI Act)은 이러한 흐름을 가장 선명하게 보여준다(European Commission, 2024a). 이 법은 AI를 잠재적 위험 수준에 따라 세밀하게 분류하는 '위험 기반 접근'을 채택했다(European Commission, 2023). 특히 고위험(High-Risk) AI에 대해 엄격한 사전 적합성 평가와 투명성·책임 의무를 강제한 것은(Regulation (EU) 2024/1689) '안전이 담보되지 않은 기술은 시장에 진입할 수 없다'는 새로운 원칙을 천명한 것으로 이해할 필요가 있다. 또한 우리가 주목할 것은 미국에서 2025년 12월, 42개 주 법무장관이 13개 AI 기업에 공개 서한을 발송해 '청소년 보호'와 '안전 강화'를 촉구했다는 사실이다. 서한은 OpenAI, Google, Meta, Microsoft, Anthropic, Apple, Character Technologies, Perplexity AI 등을 포함한 13개 기업을 대상으로 했다. AI 챗봇이 아동 및 취약계층과 부적절한 상호작용을 하고, 일부 대화가 폭력, 입원, 살인, 자살로 이어진 사례들을 구체적으로 지적했다(James, 2025). 이는 혁신을 멈추라는 요구라기 보다, '안전과 책임 없는 확장은 사회적 허가를 얻을 수 없다'는 기준 설정이다. 법무장관들은 기업들에 2026년 1월 16일까지 16가지 안전 조치를 이행할 것을 요구했으며, 이를 준수하지 않을 경우, 주법 위반으로 법적 조치를 취할 수 있음을 경고했다(Pennsylvania Office of Attorney General, 2025). 미국 각 주의 상황은 어떠한가. 최근 일부 주는 이른바 AI 동반자(AI companion) 및 정신건강 관련 AI 서비스에 대해 고지 의무, 자해·자살 위험 대응, 광고 제한, 전문직 영역 보호 등을 중심으로 규범을 구체화하고 있다. 뉴욕주는 2025년 제정된 AI 동반자 관련 법률에 따라, 2025년 11월부터 이용자에게 해당 서비스가 인공지능임을 명확히 고지하도록 요구하고, 자해 또는 자살 사고가 감지될 경우, 이를 완화·대응하기 위한 합리적인 프로토콜을 마련하도록 규정하였다(New York State Assembly, 2025). 이 법은 AI 동반자 서비스의 안전성과 투명성 확보를 목적으로 한다. 캘리포니아는 2025년 제정된 상원법안 SB 243을 통해 AI 동반자 운영자에게 이용자에 대한 AI 고지 의무를 부과하고, 자해·자살 관련 위험 대응 장치 및 일정한 보고 의무를 규정하였다(California State Legislature, 2025). 해당 법은 2026년 1월부터 시행중이다. 일리노이는 2025년 8월 제정된 법률을 통해, 치료(therapy) 및 심리치료(psychotherapy) 서비스에서 AI가 독립적으로 치료적 결정을 하거나, 치료적 커뮤니케이션의 형태로 내담자와 직접 상호작용하거나, 면허 전문인의 검토·승인 없이 치료적 권고나 치료계획을 생성하는 행위 등을 제한하는 규율을 도입하였다(Wellness and Oversight for Psychological Resources Act, 2025). 이는 AI가 전문직 의료·정신건강 영역을 대체하는 것을 방지하기 위한 취지로 이해된다. 유타는 2025년 제정된 House Bill 452를 통해 정신건강 관련 챗봇에 대해 이용자에게 AI임을 고지하도록 요구하고, 해당 챗봇을 활용한 특정 광고 행위를 제한하는 규정을 도입하였다(Utah Legislature, 2025). 이 법은 2025년 5월부터 효력을 발생하였다. 이처럼 미국 일부 주는 AI의 정서적·심리적 영향력이 확대되는 영역에서, 일반 소비자 보호 차원을 넘어 고지·안전 프로토콜·전문영역 보호라는 구조적 규율을 도입하고 있다. 한편, 우리나라의 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'은 2026년 1월 22일부터 본격 시행됐다. 유럽연합(EU)의 AI법보다 실제 전면 시행 시점이 빨라 세계 최초로 포괄적 AI 규제를 본격 적용하는 사례로 평가받고 있지만, 미국의 주별 사례(정신건강 및 AI 동반자 규제)와 비교할 때 다음과 같은 보완 필요성이 제기된다. 첫째, 정신건강 AI의 세부 규정 부재다. 뉴욕주가 자살 및 자해 감지 프로토콜을 의무화하고 일리노이주가 면허 없는 AI 치료를 금지한 것과 달리, 우리 법은 의료 AI를 '고영향 AI'로 포괄할 뿐 정신건강 특화 서비스에 대한 구체적인 안전 설계 기준은 아직 미흡하다. 둘째, AI 동반자의 엄격한 고지 의무다. 타겟 광고를 금지하는 등 이용자 심리 보호를 위한 세부 조항이 보강될 필요가 있다. 셋째, 규제 불확실성 해소다. 현재 '고영향 AI'의 정의가 다소 포괄적이라 사업자의 예측 가능성이 낮다. 이에 시행령 및 분야별 가이드라인을 통해 전문 영역 보호 기준을 구체화해야 한다. 그럼에도 불구하고, 법적 규제와 제도의 정비만으로는 충분하지 않다. 법은 사회적 합의의 최소한을 규정할 뿐, 기술이 인간의 내밀한 삶 속으로 파고들 때 발생하는 미묘한 '존재론적 변화'까지 포착하기는 어렵기 때문이다. 규제가 '안전장치'라면, 그 위에서 살아가는 우리의 실제 삶은 '어떤 관계를 맺을 것인가'라는 실존적 물음에 직면하게 된다. 이제 시선은 집단 도덕의 집대성이라 할 수 있는 법전을 넘어, AI가 물리적 실체를 입고 우리의 안방과 거실, 그리고 아이들의 책상 위로 들어오는 '생활 세계'로 향해야 한다. 4. 공존의 현실: 도구적 유용성을 넘어 관계적 행위자로 우리 일상은 이미 거대한 실험실이다. 자율주행 차량이 도로를 점유하고, 돌봄 로봇이 노인의 말벗이 되며, AI 비서가 가정의 대소사를 관리하는 풍경은 더 이상 미래학자의 상상이 아니다. 여기서 주목해야 할 것은 기술의 '물리적 현전'이다. 화면 속에 갇혀 있던 AI가 로봇과 사물의 형태를 입고 우리 곁에 섰을 때, 그것은 단순한 자동화 기기가 아니라 자율성을 지닌 '준(準) 행위자'로 격상된다. 이러한 변화는 권한의 미세한 이동을 수반한다. AI는 운전자의 판단을 보조하는 것을 넘어 핸들의 통제권을 쥐고, 부모를 대신해 아이에게 동화책을 읽어주며, 가족의 소비 패턴을 분석해 결정을 내린다. 즉, 공장에서의 생산성 도구가 가정이라는 가장 사적인 공간의 관리자로 변모한 것이다. 이 과정에서 우리는 세 가지 층위의 윤리적 딜레마와 마주한다. 첫째는 자율주행이나 로봇의 오작동이 초래할 수 있는 '물리적 안전'의 문제다. 둘째는 AI 동반자와의 애착 형성이 인간관계를 대체하거나 왜곡할 수 있는 '정서적 영향'이다. 셋째는 판단과 선택의 과정을 AI에 끊임없이 위탁함으로써 발생하는 '인지적 의존'이다. 이제 핵심 질문은 'AI를 허용할 것인가'라는 추상적 당위의 문제를 넘어섰다. AI는 이미 우리의 도로와 가정, 학교와 병원에 들어와 있다. 따라서 남은 과제는 배제의 선택이 아니라 조건의 설계다. 이스라엘의 역사학자 유발 하라리(Yuval Noah Harari)는 2026년 다보스 포럼(Davos Forum)에서 AI를 우리 사회에 진입하는 '수백만의 디지털 이민자(AI Immigrants)'에 비유했다. 그는 '이번 이민자들은 연약한 배를 타고 오는 인간이 아니라, 우리보다 법률을 잘 작성하고, 우리보다 거짓말을 더 잘하며, 비자 없이 빛의 속도로 이동할 수 있는 수백만 개의 AI가 될 것'이라고 경고했다. 그는 이 AI 이민자들이 일자리를 대체하고, 모든 국가의 문화를 완전히 변화시키며, 심지어 종교와 로맨스까지 바꿀 것이라고 지적했다(Harari, 2026). 5. 교육과 공명의 복원: 미래 세대를 위한 AI 설계 원칙 앞서 우리는 AI가 도구를 넘어 '준(準) 행위자'로 전환되었으며, 이에 따라 책임의 구조를 사전에 설계해야 한다고 논했다. 또한 각국의 입법 동향은 신뢰를 기술 확장의 전제 조건으로 삼고 있음을 보여주었다. 그러나 제도적 장치만으로는 충분하지 않다. 법은 최소한의 안전선을 긋지만, 인간의 내면에서 일어나는 변화-사유의 방식, 관계의 형식, 세계와 맺는 태도-까지 대신 설계해 주지는 못한다. 독일의 사회학자 하르트무트 로자(Hartmut Rosa)는 현대 사회를 '사회적 가속화'의 체제로 진단하며, 그 결과 인간이 세계와 살아 있는 관계를 맺는 '공명(resonance)'의 능력이 약화되고 있다고 분석했다(Rosa, 2019). 공명은 인간이 세계에 응답하고 동시에 세계로부터 응답을 받는 상호적 관계를 의미한다. 그러나 AI의 즉답성은 기다림과 숙고, 시행착오와 사유의 시간을 단축시킨다. 이는 편리함을 제공하지만, 동시에 인간 고유의 성찰적 능력을 침식할 위험을 내포한다. 따라서 미래 세대를 위한 AI 설계는 AI '활용 능력 향상'에 머물러서는 안 된다. 오히려 어디까지를 위임하고, 어디서부터는 스스로 판단해야 하는가를 구분하는 능력을 길러야 한다. 기술 친화성이 아니라, 기술과의 거리를 조절하는 능력이 교육의 핵심이 되어야 한다. 이를 위해 우리는 다음과 같은 설계 원칙을 견지해야 한다. 첫째, 아동·청소년의 발달 단계에 부합하는 '아동 중심 설계'다. 인지적·정서적 취약성을 고려한 인터페이스, 반복적 AI 고지, 유해 상호작용 차단 장치 등은 선택이 아니라 전제 조건이 되어야 한다. 둘째, '사유 보존'의 원칙이다. AI는 정답을 즉시 제공하는 기계가 아니라, 질문을 더 깊게 만들고 사고를 촉진하는 보조자로 기능해야 한다. 교육 현장에서 AI는 사고를 대체하는 것이 아니라 사고를 확장하는 도구로 위치 지어져야 한다. 셋째, '인간 최종 통제'의 원칙이다. 모든 중요한 판단-특히 도덕적·법적 책임이 수반되는 결정-은 궁극적으로 인간의 승인과 감독 아래 있어야 한다. 넷째, '책임의 가시화'다. 설계 단계에서부터 로그 기록, 설명 가능성, 사후 감사 가능성을 내장해야 한다. 그래야만 사고 발생 시 책임이 추적 가능하고, 제도적 신뢰가 유지된다. 무엇보다 중요한 것은 교육의 본질 회복이다. 기계가 답을 제시하는 시대일수록, 교육은 깊이 읽기, 치열한 토론, 성찰적 글쓰기를 통해 인간 고유의 사유 근육을 단련해야 한다. 미래 세대의 번영은 AI 없이도 얼마나 깊이 사고하고 타인과 공명할 수 있느냐에 달려 있지 않을까? 6. 인간 번영은 자동화되지 않는다 AI와의 공존에서 가장 치명적인 것은 인간이 판단의 과정을 점진적으로 포기하는 '위임된 사고'다. 기술은 효율을 제공하지만, 책임까지 대신 떠맡지는 않는다. 판단을 외주화할수록 결과에 대한 책임은 흐릿해지고, 사회에는 '조용한 책임 공백'이 형성된다. 그렇다면 이제 남는 질문은 하나다. 우리는 어떤 인간으로 남을 것인가? AI는 생산성을 향상시키고 의료를 정밀화하며, 복잡한 계산을 대신 수행할 것이다. 그러나 편리함은 결코 인간다움을 대체하지 못한다. 인간 번영의 핵심은 다음 네 가지에 달려 있다. 즉, ▲사유의 깊이를 유지하는 능력 ▲타인과 공명하는 관계적 역량 ▲행위에 대한 책임을 자각하는 주체성 ▲기술을 통제하는 윤리적 용기 등이다. 기술은 자동화할 수 있다. 그러나 인간의 번영은 결코 자동화되지 않는다. 번영은 오직 설계된 책임 위에서만 축조되며, 교육을 통해 유지되고, 제도를 통해 보호되며, 깨어 있는 개인의 성찰을 통해 비로소 실현된다. AI와의 공존은 기술적 적응의 문제가 아니다. 그것은 문명의 항로를 결정하는 윤리적 기획이며, 인간이 스스로 '사유하는 주체'로 남을 것인가에 대한 실존적 물음이다. 우리가 책임의 구조를 선제적으로 세우지 않는다면, 기술의 속도는 윤리의 속도를 추월하여 우리를 통제 불가능한 궤도로 이끌 것이다. 그러나 희망은 있다. 우리가 기술에 대한 맹신 대신 신뢰를 설계하고, 기계적 속도 대신 인간적 공명을 복원하며, 사유의 주체성을 끝내 지켜낸다면 AI는 인류를 위한 가장 강력한 도구가 될 것이다. 다시 한번 강조하건대, 인간 번영은 자동화된 알고리즘의 결과값이 아니다. 그것은 우리가 끝까지 책임을 설계하고, 치열하게 사유하기를 멈추지 않는 고단하지만 위대한 용기 속에 있다. ◆ 박형빈 서울교육대학교 윤리학과 교수는.... -서울교육대학교 윤리교육과 교수 -미국 UCLA 교육학과(Department of Education) 방문학자 -서울교육대학교 교육전문대학원 에듀테크전공·AI인문융합전공 교수 -서울교육대학교 신경윤리·가치AI융합교육연구소 소장

2026.02.14 18:38박형빈 컬럼니스트

타워 캐피털 아시아, 디지털 신원 및 모바일 애플리케이션 보안 선도 기업 브이키에 다수 지분 투자 발표

싱가포르, 2026년 2월 14일 /PRNewswire/ -- 타워 캐피털 아시아(Tower Capital Asia, 이하 'TCA')가 아시아태평양 지역을 중심으로 디지털 신원과 모바일 애플리케이션 보호 및 보안(Mobile Application Protection and Security, MAPS) 솔루션을 제공하는 브이키(V-Key, 이하 '회사')에 대한 전략적 다수 지분 투자를 진행한다고 발표했다. 이번 투자는 금융 서비스 및 디지털 경제 전반에서 안전하고 원활한 디지털 경험의 중요성이 높아지는 가운데, 브이키의 강력한 기술 리더십과 심도 있는 제품 역량에 대한 TCA의 확신을 반영한다. 브이키의 엔드투엔드 플랫폼은 은행, 핀테크 기업 및 다양한 기업 고객이 사용자를 안전하게 온보딩하고, 접근을 인증하며, 모바일 애플리케이션과 거래를 보호할 수 있도록 지원한다. 현재 브이키의 기술은 아시아태평양 지역 주요 금융기관을 포함해 15개국 고객사의 300개 이상의 애플리케이션을 지원 및 보호하고 있다. 소프트웨어 기반 보안 아키텍처로 구축된 이 플랫폼은 효율적인 구축과 확장성을 위해 설계되었으며, 기관들이 아시아태평양 및 글로벌 시장에서 디지털 서비스를 확대하는 과정을 뒷받침한다. 타워 캐피털 아시아의 대니 코(Danny Koh) 창립자 겸 최고경영자는 "안전한 디지털 신원은 이제 금융기관과 디지털 플랫폼이 고객에게 서비스를 제공하는 방식의 핵심 기반이 되었다"고 말했다. 이어 그는 "브이키는 고도로 규제된 환경에서 입증된 실적을 바탕으로 대규모 환경에서 신원 관리, 인증 및 모바일 앱 보안을 가능하게 하는 견고한 플랫폼을 구축해 왔다. 우리는 이 팀과 협력해 제품 혁신을 가속화하고 회사의 성장을 지원하게 되어 매우 기쁘다"고 밝혔다. 이번 거래와 관련해 브이키의 에디 차우(Eddie Chau) 공동 창립자 겸 이사회 의장은 "브이키는 10년 이상 기관의 디지털 신원과 모바일 거래 보안을 지원하는 데 집중해 왔다. 다음 성장 단계의 파트너를 모색하는 과정에서, 창업자 주도 기술 기업에 대한 투자 경험과 장기적 파트너십 지향성, 그리고 지역 네트워크를 갖춘 TCA가 최적의 파트너로 판단됐다"고 말했다. 브이키의 공동 창립자 겸 최고경영자이자 전 세계 5억 대 이상의 모바일 기기에 배포된 특허 기술 가상 보안 요소인 V-OS의 발명자 조셉 간(Joseph Gan)은 "통합 디지털 신원 및 모바일 애플리케이션 보안 역량을 더 강화하기 위해 추가 투자를 단행할 것이다. 이를 통해 고객이 변화하는 요구에 맞춰 속도와 확장성을 갖추고 안심하고 서비스를 배포할 수 있도록 지원하겠다"고 밝혔다. 앞으로 양사의 파트너십은 모바일 중심의 안전한 디지털 서비스에 대한 수요가 지속적으로 증가함에 따라 제품 혁신 가속화, 브이키의 지역 내 입지 강화, 금융기관 및 디지털 플랫폼과의 관계 심화를 중점 과제로 삼을 계획이다. TCA는 리더십 팀과 긴밀히 협력해 유기적 성장과 전략적 이니셔티브를 지원하고 장기적 가치 창출에 주력할 방침이다. 타워 캐피털 아시아의 세스 림(Seth Lim) 수석 부사장은 "브이키는 실행 및 규제 준수 표준이 까다로운 보안, 신원, 모바일 애플리케이션의 교차점에서 운영된다"고 말했다. 이어 "금융 서비스 및 인접 디지털 산업으로의 확장을 추진하는 브이키 팀을 지원할 명확한 기회가 있다고 본다"고 덧붙였다. 타워 캐피털 아시아 소개 2016년 설립된 타워 캐피털 아시아는 싱가포르에 본사를 둔 중견 사모펀드 운용사다. 글로벌 전문성을 기반으로 아시아적 가치를 지향하는 이 회사는 비즈니스 스폰서와의 긴밀한 파트너십을 통해 AXS, 보드룸(BoardRoom), 유얀상(Eu Yan Sang), 아이캔리드(I Can Read) 등 동남아시아 기업의 민영화 및 인수 거래를 주도해 왔다. 2025년 9월 30일 기준, 회사는 모든 투자 수단을 통해 미화 9억 달러 이상의 투자 자산 및 약정 자산을 운용하고 있다. 회사에 대한 더 자세한 정보는 www.towercapitalasia.com에서 확인할 수 있다. 브이키 소개 2011년 설립된 브이키는 은행, 기업 및 정부 연계 기관을 대상으로 디지털 신원, 인증 및 모바일 애플리케이션 보안 솔루션을 제공한다. 인공지능 기반 플랫폼으로 모바일 환경 전반에서 안전한 온보딩, 접근 제어 및 거래 보호가 가능하며, 특허받은 V-OS 가상 보안 요소와 V-OS 앱 아이덴티티를 중심으로 설계돼, 아시아 및 그 외 지역의 규제된 디지털 시장의 배포에 대해 소프트웨어 기반의 하드웨어 등급 보안을 제공한다. 회사에 대한 더 자세한 정보는 www.v-key.com에서 확인할 수 있다. V-Key

2026.02.14 14:10글로벌뉴스

개보위 "설명절...개인정보 유출 조심하세요"

개인정보보호위원회는 설명절을 맞아 택배 및 선물 문자 등이 급증함에 따라 개인정보 유출에 대한 13일 주의를 당부했다. 개인정보위는 택배 주문 시 보이스피싱, 스팸이나 스미싱 방지를 위해 필수 정보만 입력·제공하고, 가급적 임시 가상번호(가상전화번호, 안심전화번호, 송장정보 비노출 등 개인정보를 보호하는 서비스)를 제공하는 쇼핑몰과 택배사를 이용하는 것이 좋다고 전했다. 택배 문자 수신 시, 택배사의 인증된 공식번호로 보낸 안심링크만 클릭하고 주문한 적이 없는 배송 안내 문자는 스미싱일 가능성이 높으므로 링크에 접속하지 않도록 주의를 요구했다. 특히, 택배가 공개된 장소에 오래 방치될 경우 개인정보 노출의 위험이 있으므로 가급적 즉시 수령하고, 수령 후에는 택배상자의 운송장을 폐기해 개인정보 노출을 방지해야 한다. 운송장 바코드를 통해서도 개인정보를 확인할 수 있으므로 바코드도 확실하게 제거할 것을 권장했다. 이와함께, SNS에 가족이나 지인과 함께 찍은 사진을 게시할 경우 위치정보가 노출될 수 있다는 것을 인지하고, 이를 원치 않을 경우 위치정보를 비활성화하는 조치가 필요하다고 밝혔다. 개인정보위는 “택배와 선물, 안부 문자 등이 급증하는 설명절 기간 동안 이를 이용한 보이스피싱, 스미싱 등의 피해 역시 커지는 만큼 개인정보 유출 방지를 위해 이용자들이 주의와 관심을 기울여 달라"고 당부했다.

2026.02.13 19:05방은주 기자

라온시큐어 "에이전틱 AI 보안 시대 선도"

보안 체계가 에이전틱 인공지능(AI)을 중심으로 자동화하는 추세다. IT 자산이 늘어남에 따라 운용에 필요한 계정과 권한 역시 늘어나 더 이상 사람이 일일이 대응할 수 없기 때문에 AI의 도움이 보안 체계 깊숙이 자리잡게 된 것이다. 보안 담당자의 역할을 대신할 에이전틱 AI는 위협 탐지를 넘어 정책 점검, 계정 운영을 주도하는 형태로 확장될 전망이다. 이에 늘어난 권한과 계정을 통제할 다중인증(MFA), 접근권한관리(IAM)도 더욱 중요해졌다. AI 보안·인증 플랫폼 기업 라온시큐어는 이같은 에이전틱 AI 중심의 보안 패러다임 전환에 발맞춰 선제적으로 MFA, IAM 역량을 키워 나간다는 방침이다. 라온시큐어는 13일 "올해 보안 투자의 중심이 '사람(Human) 인증'에서 '에이전틱 AI 인증·인가'로 이동하고 있다"며 "기술 흐름도 MFA를 통해 신원을 강하게 확인하고, IAM을 통해 계정별 접근 권한 정책을 통합, 이어 에이전틱 AI가 이상행위를 탐지·방어를 자동화하는 로드맵으로 전개될 것"이라고 전망했다. MFA·IAM, 에이전틱AI 보안 패러다임 전환 속 핵심 기술로 부상 MFA는 비밀번호 하나로 모든 시스템에 접근하던 방식에서 벗어나 신원을 다중으로 검증하는 인증 체계를 말한다. 얼굴, 지문 인식 등 '패스키'가 대표적인 MFA에 해당한다. 로그인이 안전해지더라도 로그인 이후의 권한 관리가 허술하다면 여전히 위험에 노출돼 있는 상황과 같다. 퇴사자 계정이 방치되거나 협력사 계정이 과도한 권한을 갖고 있다면, 정상적으로 로그인하더라도 과도한 권한을 통해 공격을 수행할 수 있기 때문이다. IAM은 이런 문제를 해결한다. 계정의 생성부터 폐기까지 전체 수명 주기를 관리한다. 누가 무엇에 접근할 수 있는지를 정책으로 통제한다. 최소 권한 원칙과 적시 접근, 권한 재검증 등 권한 관리의 핵심이 모두 IAM을 통해 구현된다. MFA는 IAM과의 연동으로 한층 진화할 수 있다. MFA로 공격자가 내부 시스템에 침투할 수 있는 입구를 잠그고, IAM으로 권한을 통제하면서 인증 전주기에 걸쳐 보호가 가능해진다. 제로트러스트(Zero Trust)의 핵심 요소로 MFA와 IAM이 꼽히는 이유다. MFA와 IAM의 중요성은 통계에서도 확인된다. 글로벌 시장조사기관 프리시던스 리서치는 MFA 및 관련 서비스 시장 규모가 2030년 451억달러(약 66조 원)에서 2034년 837억달러(약 123조 원)로 성장한다고 예측한 바 있다. 에이전틱 AI 보안 패러다임 위에서는 MFA와 IAM은 더욱 중요해진다. 직접 판단하고 행동하는 에이전틱 AI가 계정을 변경하고 예외 승인하는 등 권한 관리 영역을 주도하는 형태로 확장될 전망이기 때문이다. 이에 MFA와 IAM으로 기반을 다지지 않으면 AI를 활용한 보안 자동화는 오히려 보안 체계를 취약하게 만들 우려가 있다. 라온시큐어 "MFA·IAM 역량 전산업 확산" 라온시큐어는 FIDO(신속한 온라인 인증) 국제표준 기반의 MFA 통합 지원 플랫폼 '원패스'와 통합계정권한 관리 플랫폼 '터치엔 와이즈억세스' 등 제로트러스트 구현의 핵심 요소를 금융·공공·기업 현장에 확산해왔다. 특히 원패스의 경우 국내 금융권을 중심으로 적용 사례를 쌓아왔고, 일본에서도 인기를 모으면서 월간활성사용자(MAU) 1000만 명 돌파를 앞두고 있다. 올해에는 모든 서비스에 에이전틱AI가 위협을 탐지 및 대응하고 기업 담당자를 대신해 보안을 철저히 관리할 수 있도록 할 계획이다. 금융과 의료, 교육, 공공, 국방 등 산업 전분야를 적용 대상으로 설정했다. 이정아 라온시큐어 대표는 "에이전틱AI 보안 환경으로 갈수록 인증과 접근관리는 분리된 기능이 아니라 하나의 운영 체계"라며 "패스키 기반의 인증을 시작으로 IAM까지 연결, 보안 정책을 기반으로 AI가 스스로 감지·분석·판단·대응을 자동화할 수 있는 설계에 기업들의 관심이 더 집중될 것"이라고 전망했다.

2026.02.13 18:04김기찬 기자

[종합] 공공 LLM 70% 석권한 코난테크, AX 훈풍 타고 흑자 전환 도전

지난해 공공부문 거대언어모델(LLM) 시장을 석권하며 외형 성장을 이룬 코난테크놀로지가 올해 본격적인 흑자 전환에 도전한다. 정부의 대규모 인공지능 전환(AX) 예산 편성과 신규 AI 모델 출시 등을 앞세워 수익성 개선에 속도를 낸다는 구상이다. 13일 금융감독원 전자공시시스템에 따르면 코난테크놀로지의 2025년 매출액은 339억 7997만원으로 전년(263억 1850만원) 대비 29% 증가했다. 같은 기간 영업손실은 98억 6547만원으로 집계됐다. 141억 643만원의 손실을 냈던 전년 대비 적자 폭을 30% 줄였다. 당기순손실 역시 96억원대를 기록하며 29%가량 개선됐다. 코난테크놀로지는 지난해 실적에 대해 외형 성장과 함께 수익 구조 개선을 위한 체질 개선이 이뤄진 것으로 분석했다. 일시적인 매출원가 반영 요인을 제외하면 전반적인 비용 효율화가 진행되고 있다는 의미다. 회사 측은 "AI 활용 기반 개발·운영 효율 제고와 주식보상비용 감소 등으로 판매비와 관리비는 감소했다"라면서도 "대형 프로젝트 종료에 따른 외주비 등 매출원가가 일시적으로 반영되면서 영업비용이 증가했다"고 설명했다. 이러한 실적 성장의 배경에는 공공 시장에서의 공고한 입지가 자리 잡고 있다. 업계에 따르면 코난테크놀로지는 작년에 발주된 수억원대 규모의 공공 LLM 프로젝트 중 70% 이상을 수주했다. 한국남부·서부·동서발전 등 에너지 공기업은 물론 대법원, 경기도청 등의 사업을 잇달아 따내며 레퍼런스를 쌓았다. 업계에서는 코난테크놀로지가 올해 흑자 전환을 달성할 가능성을 높게 보고 있다. 가장 큰 동력은 정책 훈풍이다. 과학기술정보통신부는 올해 예산안에서 AX 부문에만 5조 1000억원을 배정했다. 공공과 지역을 포함한 세부 AX 사업 예산은 4조 5000억원 규모다. 2024년 비상계엄 이후 주춤했던 국방 AI 분야 수주도 올해 예산 증액과 함께 정상화될 것으로 전망된다. 코난테크놀로지는 올해 기술적 차별화를 통해 수익성을 극대화한다는 전략이다. 회사 측은 지난달 자체 검색 엔진과 MCP(Model Context Protocol·AI 연결 표준 규격) 도구를 결합한 코난 LLM 신규 모델을 출시했다. 이를 통해 에이전트 중심 업무 자동화 기능을 강화했다. 국내 모델 최초로 AI+ 인증을 획득한 '코난 LLM'을 앞세워 한림대의료원, KB증권 등 민간 분야로의 확장도 가속하고 있다. 재무 건전성도 개선되면서 턴어라운드를 위한 기초 체력을 확보했다. 2025년 말 기준 부채총계는 약 159억원으로 전년(247억원) 대비 크게 감소했고, 자본총계는 295억원으로 늘어났다. 코난테크놀로지 관계자는 "지난해 주요 AX 사업을 선점하며 매출을 확대하는 동시에 AI 기반 효율화로 수익 구조 개선을 달성했다"며 "올해 시장 지배력을 압도적으로 공고히 할 것"이라고 말했다.

2026.02.13 17:33이나연 기자

해시드 "스테이블코인 거래, 신원 인증된 AI에이전트에만 허용해야"

“원화 스테이블코인을 단순히 빠르고 효율적이며 수수료가 저렴한 결제 수단으로만 보는 것은 단편적인 시각이다. 이는 인공지능(AI) 에이전트 간 협업과 경쟁을 촉진해 AI 경제를 빠르게 발전시킬 수 있는 네트워크이자 핵심 매개가 될 것이다.” 김서준 해시드리서치 대표는 13일 서울 강남구 해시드라운지에서 열린 '플랫폼으로서의 원화 스테이블코인' 세미나에서 원화 스테이블코인의 발행과 유통 필요성을 강조하며 이같이 말했다. 향후 개인과 기업의 AI 활용이 지금보다 급격히 증가할 것으로 예상되는 가운데, 스테이블코인은 AI 에이전트 간 즉각적인 결제를 수행하는 인프라 역할을 하게 될 것이라는 전망이다. AI 경제가 본격화되는 과정에서 우리 통화와 연동된 스테이블코인이 활용돼야 한다는 주장이다. 김 대표는 “우리 경제를 뒷받침할 수 있는 스테이블코인이 필요하다”며 “수출과 콘텐츠 산업 전반에서 원화 기반 스테이블코인을 통해 글로벌 시장으로 확장할 기회가 있다”고 말했다. 원화 스테이블코인을 안정적으로 유통하기 위해서는 이를 구현할 블록체인 인프라도 중요하다고 강조했다. 그는 필수 조건으로 ▲네트워크의 개방성 ▲적정 수준의 익명성 ▲신원 인증 체계를 제시했다. 블록체인의 특성상 모든 거래 내역이 기록·추적되는 만큼, 일정 수준의 프라이버시는 보장하되 자금세탁방지(AML)를 위해 신원인증(KYC)은 병행해야 한다는 설명이다. 예를 들어, 신원이 인증된 AI 에이전트만 거래에 참여하도록 하는 방식이 거론된다. 김 대표는 “현재 스테이블코인에는 사실상 프라이버시가 없다”며 “은행 계좌 거래가 모두 공개된다면 아무도 사용하지 않을 것”이라고 지적했다. 이어 “이용자의 프라이버시는 인정하되, KYC가 이뤄지지 않은 거래에 대해서는 규제 기관이 관리·감독할 수 있는 체계를 병행해야 한다”고 제언했다.

2026.02.13 17:21홍하나 기자

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

이 대통령 "첨단산업 분야, 네거티브 규제로 전환해야"

"무덤처럼 변해가"…홈플러스 노동자들, 청와대까지 '삼보일배'

"하는 만큼 번다"...MZ세대 블루칼라 선호 확산

엔비디아 Arm PC 칩 'N1' 실물 포착...시장 진입 임박

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.