• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'윤두식'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

이로운앤컴퍼니-윈즈시스템, 금융권 생성형 AI 보안 파트너십 체결

생성형 AI 보안 전문기업 이로운앤컴퍼니(대표 윤두식)가 IT 전문기업 윈즈시스템(대표 이보헌)과 전략적 파트너십을 체결했다. 두 회사는 빠르게 변화하는 금융 및 공공기관의 디지털 환경에서 생성형 AI의 안전한 활용을 지원한다. 이로운앤컴퍼니는 2024년 1월 창업 이후, 기업들이 안전하고 효율적으로 인공지능(AI) 기술을 업무에 도입할 수 있는 보안 솔루션 '세이프X'를 제공해왔다. 세이프X는 AI 사용 과정에서 발생할 수 있는 개인정보나 기밀 정보 유출 위험을 사전에 차단하는 스캐닝 기술을 탑재했다. 이를 통해 기업들이 AI를 활용하는 동안에도 보안성을 유지할 수 있도록 돕는다. 최근 금융위원회가 10년 만에 금융권 망분리 개선안을 발표하면서, 금융회사들이 생성형 AI를 업무에 적용할 수 있는 길이 열렸다. 금융업계에 AI 기술이 도입되면 비용 절감, 금융 상품 및 서비스 개발 가속화, 내부 통제 고도화 등의 긍정적인 변화가 기대된다. 이와 동시에 개인정보 보호와 정보 유출 위험에 대한 우려도 제기되고 있어, 안전한 생성형 AI 활용이 중요한 과제로 떠올랐다. 이로운앤컴퍼니와 윈즈시스템은 세이프X로 금융의 안전한 AI 활용을 지원한다. 세이프X는 금융보안원의 보안대책 기준을 충족한다. 두 회사는 금융기관들이 안심하고 AI를 업무에 도입할 수 있도록 도울 계획이다. 윤두식 이로운앤컴퍼니 대표는 "생성형 AI의 가능성은 무궁무진하지만, 안전성 확보가 무엇보다 중요하다"며, "23년간 IT 솔루션과 서비스를 안정적으로 제공하고 있는 윈즈시스템과 협력해 금융권 및 공공기관이 AI 기술을 효과적으로 활용할 수 있도록 보안 솔루션을 개발하고 고객을 지원하겠다"고 밝혔다. 이번 파트너십을 통해 두 회사는 앞으로도 금융에서의 AI 활용 확산을 지원하며, 업계 전반에 걸친 AI 보안 기술의 표준을 제시해 나갈 예정이다.

2024.10.24 10:22김인순

"국방AI, 프롬프트 인젝션 공격 등 대비 잘해야"

한국국방연구원(KIDA) 국방데이터연구단과 과실연 AI미래포럼이 공동 주최한 '2024년 제 8차 국방데이터 혁신네트워크 토크'가 26일 오후 2시~4시 서울 강남역 인근 모두의연구소 강남캠퍼스에서 열렸다. 지디넷코리아와 한국IT서비스학회, 모두의연구소가 후원했다. 행사 하이라이트인 발제는 윤두식 이로운앤컴퍼니 대표와 이호석 SK쉴더스 팀장이 했다. 윤 대표는 '프롬프트 엔지니어링을 통한 LLM(거대언어모델) 탈옥(제일브레이킹) 위협과 방어 방안'을 주제로 발표했다. AI에서 말하는 '탈옥(jailbreaking)'은 AI에게 걸려있는 규제를 풀어 AI가 할 수 없게 한 말이나 글을 하게 하는 걸 말한다. 윤 대표는 생성AI는 텍스트, 이미지, 코드 등 새로운 콘텐츠를 생성할 수 있는 능력이 있어 다양한 군사 용도에 활용할 수 있지만 동시에 여러 보안 문제를 발생시킬 수 있다면서 데이터 유출과 정보 왜곡을 경계했다. 특히 "생성AI가 잘못된 프롬프트나 악성 공격을 받으면, 민감한 정보가 의도치 않게 외부로 유출될 위험이 있다"면서 "생성형 AI는 학습한 데이터에 기반해 답변을 생성하므로, 모델이 과거 학습한 기밀 정보나 민감한 데이터를 무심코 생성하거나 제공할 수 있다. 이를 방지하기 위해 학습을 최소화하고 RAG 프레임워크를 활용해 데이터베이스에 저장된 정보 검색을 위주로 하는 등 데이터 생성을 최소화 하는 방안을 고려해 볼수 있다"고 말했다. 정보 왜곡 및 오인도 짚었다. 생성형 AI가 생성한 텍스트나 이미지가 오해를 불러일으킬 수 있다는 것이다. 윤 대표는 "이는 적대적 행위자들이 AI의 잘못된 출력을 이용해 잘못된 정보를 퍼뜨리거나, 국방 결정 과정에 혼란을 초래할 수 있다. 딥페이크 기술 악용이 대표적"이라면서 "국방 분야에서 잘못된 정보는 오작동이나 오판으로 이어져 심각한 결과를 초래할 수 있다"고 우려했다. 프롬프트 인젝션(Prompt Injection) 공격도 소개했다. '프롬프트 인젝션 공격'은 AI 모델이 주어진 프롬프트에 대해 잘못된 방식으로 반응하도록 유도하는 기법을 말한다. 공격자는 악의적인 입력을 통해 모델이 잘못된 출력을 생성하거나 민감한 정보를 드러내도록 유도할 수 있다. 적대적 공격(Adversarial Attacks)도 설명했다. 이는 AI 모델의 입력 데이터를 교묘하게 조작해 모델이 오작동하거나 잘못된 결과를 생성하게 하는 공격을 말한다. 군사적 AI 시스템에서 이러한 적대적 공격은 치명적이다. 윤 대표는 "적대적 예제(Adversarial Examples)는 적은 변형만으로도 AI 모델의예측이나 결과를 크게 왜곡할 수 있다. 예를 들어, 적대 세력이 AI가 인식하는 이미지나 텍스트를 변형해 시스템이 오탐을 하거나 적절한 대응을 하지 못하도록 유도할 수 있다"고 밝혔다. 적대 세력이 악용할 가능성이 있는 AI 모델 오용(Abuse of AI)도 문제다. 적대 세력이나 테러 단체가 국방용 생성형 AI 시스템을 역공학하거나 악용해 공격 시나리오를 계획하거나 방어 체계를 무력화하는 데 활용할 수 있는 것이다. 윤 대표는 "AI 모델이 악용될 경우, 자동화된 사이버 공격의 도구로 사용될 수 있다. 예를 들어, AI를 활용해 자동으로 사이버 공격 경로를 찾고 이를 실행하는 도구로 변질될 수 있다"고 진단했다. 생성형 AI 보안 이슈에 대한 대응 방안도 제시했다. 첫째, 보안 검증 및 테스트다. AI 모델 배포 전, 보안 검증 절차와 취약성 테스트를 강화해 잠재적 위협을 사전에 발견하고 해결해야한다는 것이다. 둘째, 레드 팀 및 모의 공격(레드 팀 훈련)이다. 윤 대표는 "AI 시스템의 보안 취약점을 탐지하기 위해 레드 팀 훈련을 주기적으로 실시해 시스템이 실제 공격에 대비할 수 있도록 해야한다"고 말했다. 셋째, 모델 투명성 및 추적성 강화다. AI 모델 결정을 추적할 수 있게 로깅 시스템을 도입하고, 의사결정 과정이 투명하게 유지되도록 해야 한다는 것이다. 넷째, 프롬프트 인젝션 방지 기술을 갖춰야 한다. AI 시스템에 입력 검증을 강화하고, 악의적인 입력이 시스템에 침투하지 않도록 강력한 필터링 및 제어 시스템을 구축해야 한다. 다섯째, 적대적 공격에 대응할 수 있는 방어 알고리즘을 개발하고, AI 모델이 오작동을 방지할 수 있도록 내성을 강화해야 한다고 제안했다. 윤 대표는 "국방에서 사용하는 AI는 폐쇄망에서 사용하거나, 폐쇄형 디바이스(On-Device) AI일 가능성이 높기 때문에 업데이트가 쉽지 않다. 또 적에게 탈취돼 취약점이 발견되면, 이를 역이용해 다른 동일한 모델의 타기기를 공격하는데 기초자료로 활용될 수 있는 가능성이 높다"면서 "이에따라 인공지능 모델에 대한 취약점, 프롬프트 인젝션 공격 등 등 다양한 레드티밍을 꾸준히해 공격 가능성을 최소화 하는 것이 중요하며, 인공지능이 전쟁에 필수재가 될 날이 머지 않았기 때문에 이에 대한 연구와 준비를 빨리해야 한다"며 강연을 마쳤다. 윤 대표에 이어 SK쉴더스 이호석 팀장이 '사용자, 개발자 모두 알아야 하는 LLM 해킹 트렌드 및 보안 전략'을 주제로 발표했다. 이 팀장은 2023년 생성AI 투자가 2022년 대비 약 12배 증가, 생성형 AI모델들의 성능이 크게 발전했다면서 "지금까지는 모델 중심의 발전이 주류가 됐지만 앞으로는 기업 내부 데이터와 모델을 결합한 기업 맞춤형 AI로 확장할 것"으로 예상했다. 생성형 AI에 사용하는 모델 중 LLM이 절반 이상 비중을 차지하고 있는데, 이 팀장은 군사 분야의 생성AI 활용에 대해 "여러 형태의 데이터와 추론 및 예측에 강점을 지닌 LLM을 표적 탐지, 작전 시뮬레이션,군사 훈련 및 교육 등에 활용해 효율적인 훈련 및 대응을 할 수 있다"고 내다봤다. 또 현재 국내외에서 군사분야에 생성AI를 사용하려는 시도가 활발히 이뤄지고 있다면서 "국내서는 국방 맞춤형 생성AI 서비스를 시범 도입하고 있으며, 해외에서는 팔란티어에서 개발한 'AIP 포 디펜스' 대표적이라고 들려줬다. AI 사고 사례와 위협도 지적했다. LLM을 다양하게 활용함에 따라 개인정보 유출, 과도한 의존 및 악용 같은 사고가 발생하고 있으며, 군사분야에서도 몇 가지 사례가 발생했고, 이에 대한 대응이 필요하다는 것이다. 소프트웨어 보안 개선에 전념하는 유명한 비영리 단체인 OWASP가 작년에 발표한 'LLM 애플리케이션 취약점 톱10'도 소개했다. 이에 따르면 프롬프트 인젝션, 불안전한 출력 처리, 학습 데이터 중독, 민감 정보 노출, 부적절한 플러그인 설계, 과도한 에이전시, 공급망 취약점, 모델 탈취 등이 포함됐다. 이 팀장은 LLM 보안 방안도 제시 했다. "AI서비스를 안전하게 구축하기 위해 프롬프트에 입출력 보안을 적용해야 한다"면서 "AI모델 학습시 데이터를 신뢰할 수 있게 정제해 사용하는 것도 중요하다"고 진단했다. 이어 서비스 개발자, 모델 개발자, 사용자 별 AI 보안 체크리스트도 제시, 시선을 모았다. 두 사람 발제 이후에는 군산학연 전문가들이 참여한 패널 토의도 진행됐다. 한화시스템 김유신 상무와 LIG넥스원 진정훈 수석연구원, 국가보안기술연구소 류승진 실장 등이 패널로 참여했다.

2024.09.26 22:39방은주

생성AI 보안 스타트업 '이로운앤컴퍼니' 시드 투자 유치

생성 AI 보안 전문기업 이로운앤컴퍼니(대표 윤두식)가 마크앤컴퍼니(대표 홍경표)와 재단법인 윤민창의투자재단으로부터 시드 투자 유치를 완료했다. 2024년 1월에 창업한 이로운앤컴퍼니는 기업이 안전하고 편리하게 인공지능을 활용해 업무 생산성과 효율을 높일 수 있는 솔루션을 제공한다. 공공기관이나 민간 기업이 생성형 AI를 활용할 때 개인정보와 민감·중요 정보를 외부로 유출되지 않도록 필터링하는 형태다. 시드 투자에 참여한 마크앤컴퍼니 관계자는 "생성AI는 직원 생산성을 높이기 위해 기관과 기업이 점차 도입할 수 밖에 없는 영역이지만 보안이 부재하다"며 "정보보호기업 상장 경험을 보유한 대표와 업계에서 팀워크를 맞춰본 베테랑 팀이 생성형 AI 보안에 대한 선도적인 솔루션을 제공할 것으로 기대한다"고 투자 이유를 밝혔다. 윤두식 이로운앤컴퍼니 대표는 "챗GPT와 같은 대규모언어모델(LLM)에 특화된 보안 위협에 적극 대비해야 할 시점"이라고 강조하며 "이로운앤컴퍼니는 "인공지능 보안의 핵심 기업으로 성장할 것"이라고 포부를 밝혔다. 이로운앤컴퍼니는 상반기중 생성형 AI 보안 솔루션인 '세이프X (SAIFE X)' MVP(최소기능제품) 출시를 앞두고 있으며 기업·기관을 대상으로 POC(기술검증)에 들어간다.

2024.03.07 10:47김인순

AI 해킹을 막을 완벽한 방법은 없다

공격자는 인공지능(AI) 시스템에 의도적으로 접근해 오작동을 일으킬 수 있는데 이에 대한 완벽한 방어책은 없다. 미국 국가표준기술연구소(NIST)는 '적대적 머신러닝(ML): 공격 및 완화에 대한 분류와 용어' 가이드를 발표하고, 생성AI 도구 발전과 사이버 보안 위험을 경고했다. 인공지능, 머신러닝을 채택하는 기업은 늘어나고 있지만 이에 대한 취약성을 인지하고 사이버 보안 대책을 세우는 곳은 드물다. 대부분의 소프트웨어 에코시스템과 마찬가지로 진입 장벽이 낮을수록 보안 장벽도 낮아진다. NIST는 가이드에서 AI에 나타날 수 있는 사이버 위협을 회피, 중독, 남용, 프라이버시 등 4가지 유형으로 분류했다. 사이버 보안 전문가들은 머신러닝 모델의 취약점과 특수성을 악용하는 공격 활동에 촉각을 곤두 세우고 있다. ML이 새로운 사이버 공격 표면이 됐기 때문이다. 회피 공격(Evasion attack)은 AI시스템이 배포된 후 발생한다. 입력을 변경해 시스템이 응답하는 방식을 변경하는 공격이다. 예를 들면, 자율주행자동차가 인식하는 정지 표시판을 속도제한 표지판으로 잘 못 해석하게 하는 식이다. 혼란스러운 차선 표시를 만들어 차량이 도로를 벗어나게 하는 형태의 공격이다. 중독 공격(Poisoning attack)은 손상된 데이터를 삽입해 AI시스템 훈련 단계에서 발생한다. 적이 훈련 데이터 세트를 조작하는 공격이다. 공격자가 ML 모델에 부정확하거나 잘못 해석된 데이터를 공급해 잘못된 예측을 내놓게 만든다. 공격자가 훈련 데이터 중 일부에 부적절한 내용을 넣는다. AI 모델이 사용하는 데이터세트의 0.1%만 중독해도 성공적인 조작으로 이어질 수 있는 것으로 나타났다. 공격자는 위키피디아(Wikipedia)와 같은 크라우드 소스 정보 저장소 등을 악용해 LLM 모델을 간접적으로 조작할 수도 있다. 남용 공격(Abuse attack)은 피싱 이메일을 생성하거나 악성코드 작성과 같이 악성 콘텐츠를 생성하기 위해 AI 도구를 무기화하는 것이 포함된다. 실제로 다크웹에서 프러드(Fraud)GPT나 웜(Worm)GPT와 같이 사이버 범죄를 지원하는 LLM 서비스가 나왔다. 프라이버시 공격(Privacy attack)은 AI가 훈련한 데이터 중 민감 정보를 추출해 이를 오용하는 시도다. 공격자는 챗봇에게 다양한 질문을 한 후 모델을 리버스 엔지니어링해 약점을 찾거나 원본을 추측할 수 있다. 이외에도 공격자는 AI나 ML 모델의 취약점을 찾아 백도어를 만들거나 악성코드를 주입해 기업 내부로 침투하는 초기 네트워크 액세스 권한을 얻고 측면으로 이동할 수 있다. 악성코드를 배포하고 데이터를 훔치고 심지어 조직의 공급망을 오염시키는 공격이 가능하다. 가트너에 따르면 일반 소프트웨어에 대한 대부분 공격이 AI와 ML에 적용될 수 있다. 생성AI 보안 스타트업을 창업한 윤두식 이로운앤 컴퍼니 대표는 "기업이 LLM을 도입하는 과정에서 개인정보나 지적재산권이 유출될 수 있고 악성코드나 저품질 코드를 받을 있다"면서 "세계적으로도 생성AI 사이버 보안을 고려하는 LLMOps 분야가 확대되면서 대응책 마련을 시작했다"고 말했다.

2024.01.10 11:29김인순

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현