• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 안전'통합검색 결과 입니다. (122건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 미래 엇갈린 전망…캐플런 "사업 창출" vs 벤지오 "안전 우선"

미래 생성형 인공지능(AI) 산업에 글로벌 석학들이 상반된 전망을 제시했다. 생성형 AI 비즈니스 가치 창출이 중요할 것이라는 예측이 등장한 반면 AI 위협 대응이 더 시급하다는 의견도 나왔다. 스탠퍼드대 제리 캐플런 교수와 몬트리올대 요슈아 벤지오 교수는 11일 코엑스 그랜드볼룸서 열린 'AI 서울 2025'에서 미래 AI 전망에 대해 이같은 의견을 화상 연설을 통해 제시했다. 각각 AI를 통한 사업 창출 중요성과 AI 안전 프레임워크 필요성을 각각 앞세워 주장했다. 캐플런 교수는 생성형 AI 미래와 인류의 대응 전략에 대해 기술 발전 자체보다는 이를 어떻게 비즈니스로 연결하느냐가 국가·기업 경쟁력을 결정짓는 요소라고 강조했다. AI가 기술적 개선이 추가로 이뤄질 것이라는 이유에서다. 그는 현재 생성형 AI 걸림돌인 환각현상이나 컴퓨팅 파워 한계로 인해 당장 비약적인 발전을 기대하기 힘들 것이라고 내다봤다. 이에 기업은 향후 5년 내 AI 기술 자체보다 AI가 일상과 제품에 어떻게 스며들어 변화를 만들지에 더 높은 주의를 기울일 것이라는 설명이다. 그는 "AI가 비즈니스 환경과 프로세스를 변화시킬 것이며, 이를 새로운 사업 기회로 연결하는 것이 중요하다"고 강조했다. 캐플런 교수는 "생성형 AI는 곧 저렴한 비용으로 어디서나 사용 가능한 상품이 될 것"이라며 "기업들은 시장 점유율을 확보하기 위해 치열한 비용 경쟁을 벌일 것"이라고 내다봤다. 이 과정에서 과잉 투자가 발생할 수 있지만 이는 기술 발전의 자연스러운 현상이라고 봤다. 벤지오 교수 "인간에 반하는 AI 통제 불가…정책적·과학적 연구 시급" 벤지오 교수는 AI의 급격한 발전 속도가 인류 안전과 직결될 수 있다고 경고했다. 이를 관리하기 위한 정책적·과학적 대응이 시급하다고 주장했다. 벤지오 교수는 "AI의 기술 발전은 멈추지 않을 것"이라며 "불과 몇 년 만에 인간 전문가를 맞먹는 역량을 다양한 분야에서 보이고 있다"고 주장했다. 그러면서 "급속한 AI 발전은 잠재적 위험을 일으킬 것"이라고 말했다. 그는 국가·기업 간 AI 경쟁이 치열해진 가운데 AI 안전이 뒷전으로 밀리고 있다고 지적했다. 이를 방지하기 위해 정책적 개입과 과학적 연구가 병행돼야 한다고 강조했다. 벤지오 교수는 정책적 측면에서 국가 차원에서 법·규제를 통해 AI 개발·활용에 대한 행동 규범을 정립해야 한다고 주장했다. 그는 "AI가 고용 시장에 미치는 영향, 악의적 행위자에 의한 오용 가능성, 국가 안보 위협 등 다양한 위험 요소에 대비하기 위한 법적 장치가 필요하다"고 당부했다. 또 과학적 측면에서는 AI 안전성 연구의 핵심 과제로 '정렬 문제'를 지적했다. AI 시스템이 사용자 의도와 일치하는 방식으로 목표를 수행하도록 설계하는 방법을 찾아야 한다는 의미다. 그는 "현재 AI가 의도치 않게 인간에 해로운 방식으로 행동하지 않도록 완벽하게 통제하는 방법을 모른다"며 "이를 해결하기 위해 더 많은 연구와 실험이 필요하다"고 말했다. 벤지오 교수는 각국 정부가 협력해 AI 안전 기준을 마련해야 하는 중요한 시점이라고 말했다. 그러면서 최근 발표된 국제 AI 안전 보고서를 언급했다. 그는 "전 세계 100명 전문가와 33개국이 참여한 이 보고서는 국제연합(UN)과 경제협력개발기구(OECD)를 포함한 국제기구와 협력해 AI 안전 기준을 마련하는 중요한 이정표"라고 평가했다. 벤지오 교수는 "AI가 인간 수준의 지능에 도달하기 전 정책적 규제와 과학적 연구를 통해 잠재적 위험을 예방해야 한다"며 "AI 안전 연구소의 발전과 국제 협력을 통해 글로벌 AI 생태계의 지속 가능한 발전을 이끌어야 한다"고 덧붙였다.

2025.02.11 13:23김미정

[AI는 지금] 파리 AI 정상회의 임박…韓, 글로벌 AI 거버넌스 존재감 시험대

'파리 인공지능(AI) 정상회의(AI Action Summit)' 개막을 앞두고 한국 정부와 기업이 글로벌 AI 거버넌스 구축에 기여하기 위해 적극 참여할 예정이다. 다만 탄핵 정국으로 인해 정상급 외교가 부재한 점은 아쉬움으로 남는다. 10일 업계에 따르면 프랑스 파리에서 개막해 이틀간 진행될 AI 정상회의는 80개국 이상이 참석하는 대규모 행사로, AI 안전성과 국제 규범 정립을 주요 의제로 다룰 예정이다. 회의에는 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리 등 주요 국가 정상과 오픈AI 샘 알트먼 대표, 구글 순다르 피차이 대표 등 글로벌 기술 기업 대표들이 참석할 예정이다. 이번 회의에서는 AI 안전성 강화, 데이터센터의 에너지 문제, 선진국과 개발도상국 간 AI 기술 격차 해소 등이 중점적으로 논의될 전망이다. 또 글로벌 AI 거버넌스 확립을 위한 국제 기구 설립이 주요 의제로 다뤄질 예정이다. 프랑스 정부는 이 자리에서 AI 산업에 1천90억 유로(한화 약 163조5천억원) 규모의 민간 투자 계획을 발표하며 AI 글로벌 규범 정립에 앞장서겠다는 뜻을 밝힐 것으로 보인다. 회의 개막을 앞두고 마크롱 대통령은 AI 기술을 활용한 딥페이크 영상으로 홍보에 나서 주목을 받았다. 그는 자신의 소셜미디어에 맥가이버, 인플루언서, 코미디 영화 캐릭터 등으로 변신한 합성 영상을 공개하며 "꽤 잘 만들어서 보고 웃었다"고 말했다. 이번 정상회의를 알리는 차원에서 제작된 이 영상은 AI 기술이 미디어와 사회 전반에 미칠 영향을 상징적으로 보여줬다는 평가를 받는다. 한국도 이번 회의에 적극적으로 참여할 예정이다. 정부 측에서는 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장 등이 대표단을 이끌고 글로벌 AI 거버넌스 논의에 나선다. 특히 AI 안전연구소는 이번 회의에서 영국·일본·싱가포르와 함께 구글과 미스트랄 AI의 모델을 분석해 AI 시스템의 다국어·문화적 취약점을 테스트한 결과를 발표할 예정이다. 연구소는 지난해 11월 설립 이후 영어 기반으로 훈련된 AI 모델이 비(非)서구권 언어와 문화에서 보안 취약점을 가질 수 있다는 점을 고려해 다국어 환경에서의 AI 보안성 문제를 중점적으로 다뤄왔다. 기업 측에서는 삼성전자, 네이버, LG AI연구원이 참가해 AI 기술 개발 및 윤리적 활용에 대한 논의를 이어갈 계획이다. 네이버 최수연 대표, 전경훈 삼성전자 디바이스경험(DX)부문 최고기술책임자(CTO) 겸 삼성리서치 연구소장도 이번 행사에 참석한다. LG AI연구원에서는 배경훈 원장 대신 김유철 전략부문장이 참석해 글로벌 협력과 AI 규범 형성 논의에 힘을 보탤 예정이다. LG 관계자는 "우리는 지금까지 유네스코와 협업하고 서울 AI 정상회의에서도 적극 참여하는 등 국제 사회와 지속적으로 협력해왔다"며 "이번 회의에서도 다른 글로벌 참가자들과 함께 포용적 AI 구축을 위해 노력하겠다"고 밝혔다. 다만 정상급 외교 부재는 아쉬운 대목으로 꼽힌다. 윤석열 대통령이 지난 2023년 이후로 줄곧 AI 3대 강국 도약과 글로벌 디지털 규범 주도를 선언했음에도 불구하고 탄핵 정국으로 인해 이번 정상회의에 참석하지 못하면서 국제 사회에서의 리더십이 약화될 가능성이 제기되고 있기 때문이다. 대통령 권한대행조차 부재해 한국이 주요 논의에서 주도권을 잡기 어려울 것이라는 우려도 나온다. 국내 업계 관계자는 "AI 기술 발전과 거버넌스 논의는 동시에 이뤄져야 하는데 현재 국내 정국이 아쉬운 점이 있다"며 "그럼에도 정부와 기업들이 주어진 여건 속에서 역할을 하기 위해 최선을 다하고 있는 것은 사실"이라고 말했다. 이번 파리 AI 정상회의는 지난 2023년 영국 블레츨리 회의와 지난해 서울 AI 정상회의에 이어 AI 거버넌스 논의의 주요 이정표로 평가된다. AI 기술이 가져올 사회적 변화를 다루는 글로벌 논의가 본격화되는 가운데 한국이 향후 어떤 역할을 할 수 있을지 주목된다. 마크롱 대통령은 회의 개최를 앞두고 "AI는 무법지대가 되어서는 안 된다"며 "우리는 AI 혁명의 중심에 서서 글로벌 규범을 주도해 나갈 것"이라고 강조했다.

2025.02.10 16:58조이환

"숨 가쁜 글로벌 테크 대전"…파리 AI 정상회의·사우디 리프 2025 연속 개최

인공지능(AI)과 첨단 기술의 미래를 둘러싼 글로벌 경쟁이 치열해지는 가운데 프랑스와 사우디아라비아에서 연이어 대규모 기술 행사가 열린다. 프랑스는 파리 AI 정상회의(AI Action Summit)를 통해 국제 AI 거버넌스와 협력 방안을 논의하고 사우디아라비아는 리프(LEAP) 2025를 통해 중동을 기술 혁신의 허브로 만들기 위한 전략을 본격화한다. 9일 업계에 따르면 프랑스와 사우디에서 잇달아 개최되는 이번 행사에는 전 세계 정부 관계자, 글로벌 테크 기업인, 학계 전문가들이 참석해 첨단 기술과 규제의 미래를 논의할 예정이다. 파리에서는 AI 기술의 윤리적 활용과 글로벌 협력을 강조되고 리야드에서는 AI·반도체·로보틱스·사이버보안을 중심으로 중동 테크 허브 도약이 추진될 예정이다. 한국도 두 행사에 적극적으로 참여한다. 파리 AI 정상회의에는 정부 차원의 지원이 두드러지며 과학기술정보통신부, 개인정보보호위원회, AI안전연구소 등이 참석해 AI 국제 거버넌스 논의에 힘을 보탠다. 사우디 '리프 2025'에서는 네이버가 맞춤형 AI 솔루션을 공개하고 국내 스타트업들이 중동 시장 진출을 모색한다. "AI 글로벌 규범 강화"…파리 정상회의, 거버넌스 논의 본격화 프랑스 정부는 오는 10일부터 이틀간 프랑스 파리 그랑팔레에서 인도 정부와 함께 '파리 AI 정상회의(AI Action Summit)'를 개최한다. 이번 회의는 AI 안전을 넘어 실천적 행동으로 전환하는 것을 목표로 하며 AI 기술이 개발도상국을 포함한 전 세계에 공정하게 혜택을 제공하도록 협력 체계를 구축하는 데 중점을 둔다. 파리 정상회의는 지난 2023년 영국 블레츨리 파크, 2024년 서울 정상회의에 이은 세 번째 글로벌 AI 정상회의다. 행사에는 80개국 이상이 참여하며 AI 국제 거버넌스·일자리 변화·보안 및 안전·공공이익·혁신과 문화 등 5대 핵심 의제를 중심으로 실질적인 정책과 행동 강령이 논의된다. 이번 회의에는 주요 국가 정상, 글로벌 기업 대표, 학계 전문가가 대거 참석한다. 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리를 비롯해 샘 알트만 오픈AI 대표, 순다르 피차이 구글 대표, 얀 르쿤 메타 AI 수석과학자 등이 자리한다. 학계에서는 마이클 조던 UC버클리 교수, 에릭 브린욜프손 스탠퍼드 교수가 참석해 AI의 미래에 대한 논의를 이끈다. 국내에서도 정부 및 기업 대표단이 적극 참여한다. 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장이 주요 세션에 참석하며 기업 차원에서는 전경훈 삼성전자 최고기술책임자(CTO), 최수연 네이버 대표, 김유철 LG AI연구원 전략부문장 등이 글로벌 AI 기술 경쟁력을 알릴 예정이다. 한국AI윤리학회와 정보통신산업진흥원(NIPA) 관계자들도 행사에 함께한다. 회의에서는 AI 안전성 강화를 위한 국제 보고서 발표와 사이버 위기 시뮬레이션이 진행되며 AI로 인한 직업 구조 변화에 대비한 재교육 방안도 논의된다. AI 데이터센터의 에너지 소비 문제를 해결하기 위한 다자간 협약이 추진되며 의료·기후변화 대응 등 50개 글로벌 AI 공공 프로젝트도 소개된다. 업계에서는 파리 정상회의를 통해 글로벌 AI 협력 체계가 한층 강화될 것으로 기대된다. 특히 프랑스는 구글, 메타, 미스트랄 등 AI 연구센터 유치를 확대하며 AI 허브로 도약하는 계기를 마련하고 있다. 한국 역시 반도체·플랫폼 분야의 강점을 바탕으로 글로벌 AI 표준화 논의에서 주도적인 역할을 할 것으로 보인다. 마크롱 프랑스 대통령은 "AI는 서부의 무법지대가 될 수 없다"며 "권리, 환경, 뉴스의 진실성, 지적 재산권을 보호하는 강력한 원칙을 담으면서도 완전히 자발적으로 모든 국가가 서명할 수 있는 선언을 만들기 위해 시도할 것"이라고 말했다. "사우디, 중동 테크 허브로"…'리프 2025'로 韓 기업 중동 진출 기회 확대 사우디아라비아 정부 역시 9일부터 나흘간 리야드 그랑팔레(엑스포센터)에서 국가 최대 IT 행사인 '리프(LEAP) 2025'를 통해 중동 최대 기술 혁신 플랫폼을 구축한다. 이 행사는 비전 2030 전략에 따라 사우디 경제를 석유 중심에서 기술 주도로 전환하는 데 중점을 두며 AI·로보틱스·사이버보안 등 첨단 기술 분야에서 글로벌 리더십을 강화하는 계기가 될 전망이다. 이 행사에는 1천800개 글로벌 테크 기업, 680개 스타트업, 1천명 이상의 글로벌 전문가가 참여한다. 사우디 통신정보기술부(MCIT)와 타할루프(Tahaluf)가 주최하는 이번 행사는 AI 기반 혁신 사례 전시 '딥페스트(DeepFest)', e스포츠 및 스포츠 기술을 다루는 '스포츠테크 트랙', 신기술을 직접 체험할 수 있는 '테크 아레나' 등 다양한 프로그램을 운영한다. 글로벌 테크 리더들도 대거 참석한다. 아르빈드 크리슈나 IBM 대표, 앨리슨 왜건펠트 구글 클라우드 대표 등이 기술 혁신 방향을 논의한다. 전 맨체스터 유나이티드 선수 파트리스 에브라, 전 아스널 선수 마티유 플라미니 같은 스포츠 스타들도 참여해 스포츠와 기술의 접점을 조명할 예정이다. 한국도 적극적으로 참여하며 사우디 시장 공략에 나선다. 네이버는 'AI 포 사우디아라비아, 파워드 바이 네이버'를 테마로 사우디 맞춤형 AI 모델과 자체 대형 언어모델 '하이퍼클로바X'를 선보인다. 또 사우디 국영기업과 디지털 트윈 플랫폼 협약을 체결하며 현지 시장 확대를 노린다. 리벨리온은 AI 반도체 기술을 공개하며 보안기업인 스패로우는 애플리케이션 보안 솔루션을 소개할 예정이다. 김유원 네이버클라우드 대표는 "각국의 문화와 정체성을 존중하는 기술력을 개발하겠다"며 "이로써 글로벌 시장에서 입지를 보다 강화할 것"이라고 강조했다.

2025.02.09 11:07조이환

"中에 정보 털릴까 겁난다"…정부도, 기업도 딥시크 접속 잇따라 차단

중국 인공지능(AI) 스타트업 딥시크의 보안 문제가 제기되면서 국방, 외교, 통상 분야 정부 부처들이 딥시크 접속을 차단했다. 이와 함께 카카오도 사내에서 딥시크 활용을 전면 금지하며 오픈AI와의 협력 영향이 작용한 것 아니냐는 해석이 나오고 있다. 5일 업계에 따르면 국방부, 외교부, 산업통상자원부는 내부 보안상의 판단에 따라 인터넷이 연결된 컴퓨터에서 딥시크 접속을 제한했다. 이는 정부 차원에서 보안 우려를 반영한 조치로 보인다. 이보다 앞서 행정안전부는 지난 3일 중앙부처와 17개 광역 지방자치단체에 딥시크와 챗GPT 같은 생성형 AI 사용에 주의하라는 공문을 발송했다. 해당 공문에서는 생성형 AI에 개인정보를 입력하지 말고 AI가 생성한 결과물을 맹신해서도 안 된다는 점을 강조했다. 업계 관계자들은 이번 조치가 국가정보원의 판단에 따른 것으로 보고 있으며 검증되지 않은 중국산 AI 모델이 국가 안보에 위협을 가할 수 있다는 우려 때문이라고 분석했다. 이와 함께 개인정보보호위원회도 딥시크 본사에 개인정보 수집 항목과 절차 처리 및 보관 방식 등에 대한 확인을 요청하는 질의서를 발송한 것으로 알려졌다. 정부 부처뿐만 아니라 공공기관에서도 딥시크 사용 금지 사례가 늘고 있다. 한국수력원자력(한수원)과 한전KPS 역시 딥시크 사용을 제한하는 조치를 취했다. 다만 이들 기관은 이미 생성형 AI 전체 사용을 금지하고 있어 이번 조치는 기존 방침을 재확인하는 수준이거나 일부 부서에서만 추가로 시행된 것으로 보인다. 한수원 관계자는 "인터넷과 인트라넷을 포함한 전체 업무 환경에서 딥시크 사용을 제한하고 있다"면서도 "다만 지난 1일 전 직원에게 보낸 공문은 이미 지난해부터 시행해온 생성형 AI 금지 조치를 딥시크 등장으로 다시 환기시킨 것"이라고 설명했다. 한전KPS 관계자 역시 "고객사들이 보안을 중요하게 여기는 경우가 많아 원자력 사업부에서 딥시크 사용을 자제하라는 공문을 발송했다"며 "행정안전부의 공문과 유사한 수준의 내용"이라고 전했다. IT 업계에서도 비슷한 흐름이 감지되고 있다. 카카오는 5일 사내 AI 활용 정책을 개정해 보안과 윤리적 측면에서 충분한 검증이 이루어지지 않은 AI에 대한 우려를 반영해 사내 업무용으로 딥시크 사용을 금지한다고 공지했다. 딥시크가 이용자의 기기 정보, IP, 키보드 입력 패턴 등을 수집해 중국 내 서버에 저장한다는 의혹이 제기된 데 따른 조치다. 다만 업계에서는 카카오의 결정이 오픈AI와의 협력 발표 직후 나왔다는 점에 주목하며 여러 해석을 내놓고 있다. 특히 정신아 카카오 대표와 샘 알트먼 오픈AI 대표가 지난 4일 서울 중구 플라자 호텔에서 5천만 카카오 플랫폼 이용자를 대상으로 '챗GPT' 애플리케이션 프로그램 인터페이스(API)를 제공하는 협력을 발표한 직후였다는 점에서 오픈AI의 영향을 고려한 조치일 가능성이 제기된다. 실제로 딥시크가 지난달 20일 공개한 'R1' 모델은 오픈AI의 최신 추론 모델인 'o1'과 유사한 성능을 보이면서도 전면 오픈소스로 무료 제공돼 오픈AI에도 부담을 줬다는 분석이 나온다. 이에 대응하듯 오픈AI는 'R1' 발표 직후 'o3 미니모델'을 공개했으며 이는 'R1'과 유사한 성능을 갖추면서도 무료로 제공됐다. 또 기존 'o1' 모델에서는 비공개였던 AI의 사고 과정도 'R1'과 같이 투명하게 공개했다. 이러한 흐름 속에서 업계 일각에서는 카카오가 오픈AI의 영향을 받아 딥시크 사용을 차단했거나 최소한 이를 염두에 둔 결정이었을 가능성을 제기하고 있다. 이 같은 상황 속에 딥시크는 보안 문제가 제기되며 우리나라뿐 아니라 해외 여러 나라에서도 사용을 자제하고 나섰다. 100만 건 이상의 보안 문제 사례에 대한 의혹과 함께 AI 모델이 이용자 정보를 과도하게 수집한다는 지적이 이어지면서 정보 유출 우려가 커진 상황이다. 이에 이탈리아와 호주 정부는 일찌감치정부 사용 시스템과 기기에서 딥시크 사용을 금지하기도 했다. 업계 관계자는 "딥시크 같은 중국산 AI는 보안과 지정학적 리스크를 안고 있는 것이 사실"이라며 "이 때문에 '챗GPT' 서비스와 API가 국내에서 상대적으로 더 선호될 가능성이 크다"고 전망했다.

2025.02.05 22:36조이환

메타, AI 위험성 평가 기준 확립…"치명적 위협 피하겠다"

메타가 인공지능(AI) 오픈소스 전략을 유지하면서도 보안 위험이 높은 시스템의 개발과 배포를 제한하기로 했다. AI 기술의 혁신과 보안 사이에서 균형을 맞추겠다는 방침이다. 4일 테크크런치에 따르면 메타는 AI 시스템의 위험도를 평가하고 관리하기 위한 내부 정책인 '프론티어 AI 프레임워크'를 발표했다. 이 문서를 기반으로 메타는 AI 기술이 초래할 수 있는 보안 위험을 고려해 '고위험'과 '치명적 위험' 두 단계로 분류하고 이에 따라 개발과 공개 여부를 결정할 계획이다. 메타에 따르면 '고위험' AI 시스템을 사이버 보안 침해, 화학·생물학적 공격을 돕는 기술이다. 다만 '고위험' 시스템은 공격을 보다 쉽게 수행할 수 있게 만들지만 완전한 성공을 보장하지는 않는다. 메타는 '치명적 위험' AI 시스템을 두고 통제할 수 없는 치명적인 결과를 초래할 수 있는 기술로 정의했다. 일례로 '최신 보안이 적용된 기업 네트워크를 자동으로 침해하는 기술'과 '고위험 생물학적 무기의 확산' 가능성이 '치명적 위험'에 해당된다. 회사는 AI가 '고위험 시스템'으로 분류될 경우 내부 접근을 제한하고 위험도를 '중간 수준'으로 낮출 때까지 공개하지 않기로 했다. '치명적 위험'으로 평가된 시스템은 보안 조치를 통해 유출과 개발이 즉시 중단된다. 다만 회사의 위험 정의 리스트는 완전하지 않은 상태로, AI 기술 발전에 따라 지속적으로 업데이트될 예정이다. 또 AI 시스템의 위험도는 단순한 정량적 테스트가 아닌 내부 및 외부 연구진의 평가를 바탕으로 최고위 의사 결정자들의 승인을 받는 방식으로 운영될 예정이다. 업계에서는 메타의 이번 정책 발표를 두고 AI 기술 개방과 보안 리스크 사이의 균형을 찾으려는 움직임으로 분석한다. 메타는 경쟁사인 오픈AI와 달리 AI 모델을 오픈소스 모델로 제공해왔다. 실제로 메타의 AI 모델 '라마' 시리즈는 수억 회 다운로드되며 전 세계에서 활용되고 있다. 다만 오픈소스 모델 특성 상 누구나 사용할 수 있다는 점 때문에 거대한 위험을 초래할 수 있다는 비판이 꾸준히 제기되고 있다. 메타 관계자는 "AI 기술을 사회에 제공하면서도 적절한 수준의 위험을 유지하는 것이 가능하다"며 "기술의 이점과 위험을 모두 고려한 개발 및 배포 전략을 지속할 것"이라고 밝혔다.

2025.02.04 14:56조이환

[트럼프 취임] 美 정권 교체 앞두고 AI 행정명령 폐지 예고…안전성 공백 '우려'

도널드 트럼프 미국 대통령 당선인이 공식 취임을 앞둔 가운데 인공지능(AI) 안전성에 대한 규제가 크게 완화될 가능성이 제기되고 있다. 이에 업계와 전문가들은 미국 내 AI 규범 공백이 발생해 혼란이 초래될 수 있다고 우려하고 있다. 21일 업계에 따르면 트럼프 당선인은 대선 전부터 바이든 행정부의 AI 행정명령을 철폐하겠다는 의사를 지속적으로 밝혀왔다. 지난 2023년 도입된 이 행정명령은 AI 기술의 안전하고 책임 있는 개발을 촉진하고자 하는 목적을 담고 있었지만 공화당과 트럼프 캠프는 이를 지나치게 관료주의적이라고 비판해왔다. 부통령 당선인 J.D 밴스 역시 트럼프와 동일한 입장을 견지해 왔다. 지난해 7월 상원 청문회에서 밴스는 "선제적 과잉 규제 시도가 기존 빅테크 기업들을 고착화시킬 가능성이 높다”고 주장하며 행정명령에 대해 부정적 견해를 드러낸 바 있다. 이같은 트럼프 진영의 행정명령 철폐 기조는 해당 명령이 강조해 온 ▲AI 모델 배포 전 안전성 테스트 ▲AI 개발 및 사용에 대한 연방 차원의 감독 ▲정부 주도 안전 기준에 대한 전면적인 거부 등의 결과를 초래할 수 있다는 점에서 전문가들의 경고가 이어지고 있다. AI 안전 연구자 로만 얌폴스키는 "고급 AI 시스템 훈련과 관련된 규제를 제거하는 것은 미국 국민과 전 세계의 안전을 위해 최악의 선택"이라고 지적했다. 이같은 우려는 이미 트럼프 당선 후 빅테크 기업의 최근 행보에서도 드러난다. 메타는 지난 7일 미국 내 인스타그램 및 페이스북 게시물에 대한 제3자 '팩트체킹 프로그램'을 운영하지 않겠다고 발표했다. 이 프로그램은 지난 2016년부터 전문가들이 허위정보를 걸러내기 위해 가동된 알고리즘이다. 메타는 기존의 프로그램 대신 엑스의 '커뮤니티 노트'와 유사한 기능을 추가하겠다는 방침이다. 커뮤니티 노트는 논란이 되는 게시물을 삭제하거나 제한하기보다 일반 사용자가 게시물에 다양한 의견을 붙여 사실 여부를 공개적으로 검증하는 방식으로, 대중의 판단에 기반하기 때문에 허위정보 확산을 막기에 충분치 않다는 비판을 받고 있다. '팩트체킹 프로그램'을 중지한 이유에 대해 마크 저커버그 메타 대표는 “팩트체크 전문가들이 정치적으로 편향돼 오히려 신뢰를 떨어뜨렸다”고 주장했다. 업계 일각에서는 이 주장을 곧이곧대로 받아들이기 어렵다고 지적하고 있다. 오히려 메타의 결정이 비용 효율성을 고려한 전략적 선택으로, AI가 24시간 운영이 가능하며 인건비 부담이 적기 때문에 프로그램을 폐지했다는 해석이다. 여기에 트럼프 행정부의 규제 완화 기조가 빅테크 기업들에 보다 자유로운 운영 환경을 제공할 것이라는 판단이 더해져 메타가 이러한 결정을 내렸다는 분석을 내리고 있는 것이다. 한 국내 AI 업계 관계자는 "메타의 결정은 트럼프 행정부의 정책 변화를 예상한 선제적 대응일 수 있다"면서도 "이와 함께 AI 기술 발전으로 인한 정확도 개선과 비용 효율성 등 다양한 요인이 복합적으로 작용했을 것"이라고 설명했다. 빅테크가 규범 공백 속에서 AI 안전성을 경시할 수 있음을 드러내는 또 다른 사례는 일론 머스크가 이끄는 AI 회사 xAI의 챗봇 '그록(Grok)'이다. 이 AI는 검열 없이 답변을 생성한다는 점이 특징으로, 트럼프 당선 이전부터 AI 안전성과 윤리적 책임에 대한 논란의 중심에 서 왔다. '그록'은 지난 2023년 11월 최초 출시된 이후 지속적인 업데이트를 통해 점차 그 특성을 강화해왔다. 특히 머스크의 정책 기조에 따라 정치적·인종적·문화적으로 민감한 질문에도 제한 없이 답변하거나 수위 높은 이미지를 생성하는 등 논란이 계속되고 있다. 가디언에 따르면 '그록'은 지난해 테일러 스위프트나 카멀라 해리스 등 실존 인물의 선정적 사진을 합성하는 등 문제적 콘텐츠를 생성해 우려를 키웠다. 이러한 xAI의 기조를 트럼프 전 대통령과 머스크 간의 정치적 연대가 보다 강화할 것이라는 분석 역시 제기된다. 머스크는 지난해 7월 트럼프 전 대통령 암살 시도 사건 이후 트럼프에 대한 공개적인 지지를 선언하며 매월 약 4천500만 달러(한화 약 600억원)를 트럼프 지지단체에 지원해 왔다. 이에 '그록'이 편향된 정보를 확대 생산할 가능성에 대한 우려 역시 커지고 있다. 실제로 '그록'은 미국 대선 당시 카멀라 해리스 전 부통령 후보가 후보자들에 대한 부정적인 발언을 했다는 등의 왜곡된 부정적 정보를 제공했다. 이같은 사례는 향후 AI가 트럼프와의 정치적 연대를 배경으로 특정 이익을 위해 더욱 편향된 정보를 제공할 가능성을 높여 민주적 과정의 공정성을 심각하게 위협할 수 있다는 우려를 낳고 있다. 미국 비영리 미디어 단체 프리 프레스의 노라 베나비데즈 선임 고문은 "머스크는 플랫폼을 인수한 이래 안전성 테스트를 고려하지 않은 대대적인 변화를 강행해왔다"며 "지금까지의 행태를 보면 앞으로 더 심각한 결과를 초래할 가능성이 크다"고 경고했다. 또 AI가 이미 국가 안보 차원에서 핵심 전략 자원으로 간주되는 만큼 트럼프 행정부가 들어서면 AI의 군사화가 보다 가속화될 것이라는 전망이 제기되고 있다. AI의 안보자원화는 현재 이미 진행 중이다. 지난해 12월 오픈AI와 미국 방산 업체인 안두릴 인더스트리즈는 국가 안보를 위한 AI 솔루션 개발을 목표로 한 파트너십을 발표했다. 중국 역시 지난해 메타의 라마(Llama) 모델을 활용해 군사용 AI 개발에 착수하며 AI 무기화 경쟁을 본격화하는 양상을 보이고 있다. 업계에서는 트럼프 행정부가 미중 경쟁 구도 속에서 AI 군사화를 더욱 빠른 속도로 추진할 가능성이 크다고 평가한다. 대통령 재임기에 미국 우선주의 기조 아래 대규모 거버넌스나 국제적 합의에 대한 언급을 꺼려왔기에 AI의 군사적 활용을 주저하지 않을 것이라는 전망이다. 실제로 트럼프 계열 싱크탱크는 지난해 'AI 맨해튼 프로젝트'라는 계획안을 선제적으로 제안하며 AI를 국가 전략 자원으로 전환할 것을 권고한 바 있다. 김명주 AI안전연구소장은 "트럼프 대통령의 '아메리카 퍼스트' 기조가 재현되면 적성국 제재를 강화해 프런티어 LLM 기술의 해외 서비스가 완전히 제한될 가능성이 있다"며 "이를 통해 미국이 AI 선도적 지위를 독점적으로 유지하려 할 가능성이 있다"고 전망했다. 이어 그는 "심지어는 미국이 '책임 있는 능력(Responsible capability)'과 같은 기존 AI 안전·거버넌스 용어를 활용해 타국에 강도 높은 규제를 요구할 가능성도 있다"며 "결과적으로 규제 개념이 자국 AI의 독주를 위해 활용될 가능성이 있다"고 분석했다.

2025.01.21 08:01조이환

[AI 리더스] 김명주 AI안전연구소장 "AI 신뢰도 제고, 韓 기업 글로벌 성공에 필수"

"인공지능(AI)은 이제 자본과 기술의 경쟁을 넘어 '신뢰성'이 핵심인 시대에 접어들었다고 봅니다. 결국 어느 기업의 AI가 더 믿을 수 있느냐가 관건이지요." 김명주 AI안전연구소(AISI) 초대 소장은 최근 기자와 만난 자리에서 정부와 기업이 협력해 AI 거버넌스를 강화하고 안전성을 확보해야 한다고 강조하며 이같이 말했다. 17일 업계에 따르면 글로벌 AI 산업이 빠르게 성장함에 따라 정부가 기술 혁신과 안전성·신뢰성 확보를 위한 법·제도 개선에 박차를 가하고 있다. 이같은 정책적 움직임을 뒷받침하기 위해 세워진 AI안전연구소의 김명주 소장은 연구소의 역할과 비전, AI 관련 글로벌 동향 및 기술 경쟁 속에서의 과제를 공유하며 AI의 안전성과 신뢰성을 높이기 위한 전략적 노력이 필수적임을 강조했다. "글로벌 기준 선도"…정책-기술 잇는 AI안전연구소 역할 AI안전연구소는 지난해 11월 전자통신연구원(ETRI) 산하로 출범해 국가 AI 정책 수립을 지원하고 기술의 빠른 발전이 가져올 안전성과 윤리적 문제를 해결하기 위해 박차를 가하고 있다. 현재 연구소는 ▲글로벌 정책 동향 분석 및 AI 위험 대응을 맡는 'AI안전정책 및 대외협력실' ▲위험 정의와 평가 프레임워크를 개발하는 'AI안전평가실' ▲딥페이크 방지와 AI 보안 기술 연구에 집중하는 'AI안전연구실'로 구성돼 있다. 연구소는 이러한 구조를 통해 독립적이면서도 유기적으로 '정책·평가·기술'을 통합 운영해 AI의 안전성과 경쟁력을 높이는 데 집중한다. 이 구조는 해외 AI 연구소들과의 차별점으로 지목된다. 영국·미국·일본·싱가포르 등 여러 국가에서도 AI안전연구소를 운영 중이지만 자본과 보유 기술의 한계 등으로 인해 기술과 정책을 통합적으로 다루는 경우가 많지 않기 때문이다. 김 소장은 "미국과 영국의 AI안전연구소는 리더십 자체가 정책 전문가나 비즈니스 전문가 중심인 경우가 많다"면서 "국내 우리 연구소는 정책·거버넌스뿐 아니라 기술과 표준화에도 동일한 비중을 두고 운영 체계를 마련했다"고 설명했다. 업계에서는 김 소장을 국내 AI안전연구소의 비전 실현에 적합한 리더로 평가한다. 정책과 기술 모두에 정통한 전문가로, 이 두 분야를 통합적으로 이끌어가는 데 강점을 지니고 있기 때문이다. 그는 지난 1993년 서울대에서 컴퓨터공학 박사 학위를 취득한 후 약 30년간 서울여대에서 정보보안을 가르치며 IT 윤리와 거버넌스 분야에서도 20년 이상 활동해왔다. 김 소장은 "사이버 보안을 비롯한 컴퓨터 공학이 원래 전문 분야지만 윤리와 거버넌스까지 함께 다룰 줄 아는 것이 연구소 운영에 큰 도움이 된다"며 "AI 문제는 결국 사람에게 미치는 영향을 종합적으로 살펴야 한다"고 설명했다. AI 신뢰성 위해 '전방위 리스크맵' 구축…다방면서 시민·국제 사회 조율 이러한 목적을 위해 AI안전연구소는 AI의 안전성과 신뢰성을 확보하기 위한 '전방위적 리스크 맵' 작업을 진행 중이다. AI의 위험을 종합적으로 분석하고 윤리와 안전을 모두 포괄하는 접근을 하기 위함이다. 현재 메사추세츠 공과대학(MIT) 등 다양한 글로벌 기관에서 리스크 맵을 발표했지만 대부분 개발자와 사업자 관점에 치우쳐 있어 윤리적·안전적 관점을 충분히 반영하지 못했다는 평가를 받고 있다. 기존의 난점을 극복하기 위해 연구소는 보안 개념을 중요한 연구 주제로 삼고 있다. 지난 2022년 오픈AI '챗GPT' 출시 직후 AI 안전에 대한 논의는 AI가 인류에게 존재론적 위협을 초래할 것이라는 '터미네이터형 리스크'에 집중됐다. 그런데 실제로 닥쳤던 현실적인 문제는 오픈AI의 오픈소스 버그로 인한 사용자 대화 기록 유출 사건이었다. 이후 170개 이상의 취약점이 패치되며 문제가 해결됐지만 이 사건은 AI 시스템의 취약성을 여실히 드러낸 사례로 평가된다. 김 소장은 "'챗GPT'의 경우 버그바운티를 통해 지난 2년간 취약점을 패치하면서 최근에야 비로소 문제를 해결했다"며 "AI 모델 내부의 취약점도 중요하지만 해커가 외부 네트워크를 통해 공격하지 못하도록 방어 체계를 갖추는 것이 필수적"이라고 강조했다. 이어 "연구소는 이를 위해 기술적 연구와 대응 방안을 적극적으로 개발 중"이라고 밝혔다. 또 그는 올바른 AI 안전 수립을 위한 시민과의 소통의 중요성을 강조했다. 딥페이크 문제, AI로 인한 일자리 위협 등과 같이 일반 시민들이 느끼는 공포가 증가하고 있는 상황에서 기술만으로는 이러한 문제를 해결할 수 없기 때문이다. 김 소장은 "사회적으로 큰 파장을 일으키는 문제에는 제도적·윤리적 지원이 필수적"이라며 "기술 발전뿐만 아니라 실질적인 해킹 문제와 시민이 느끼는 불안까지 고려한 전방위 리스크 맵을 만들고 있다"고 밝혔다. 연구소는 이러한 목표를 달성하기 위해 글로벌 협력과 표준화 작업에도 박차를 가하고 있다. 특히 AI 안전 표준화에 전문성을 가진 싱가포르 AI안전연구소와 협력해 AI 취약성 평가와 안전 프레임워크의 글로벌 기준을 마련하고 있다. 김 소장은 "싱가포르는 AI 이전부터 이미 표준화에서 상당한 전문성과 노하우를 보유한 나라"라며 "협력을 통해 국제적으로 통용될 수 있는 AI 안전 기준을 구축하고자 한다"고 설명했다. 국제 거버넌스 협력도 활발히 진행 중이다. 연구소는 오는 3월 프랑스 파리에서 열리는 AI 정상회의에 참가해 글로벌 AI 안전 거버넌스 구축에 기여할 예정이다. 선진국·개발도상국 간 AI 기술 지원과 AI 국제지구 설립이 주로 논의될 이 회의에서 김 소장은 OECD 산하 글로벌 AI 파트너십(GPAI) 자문위원으로서 이 회의에서 중요한 역할을 할 것으로 기대된다. 또 연구소는 다문화·다언어(MCML) 프로젝트를 통해 AI 모델의 언어적·문화적 편향을 분석하고 이를 교정하는 작업을 수행하고 있다. 이를 통해 AI의 공정성과 신뢰성을 강화하고 국가 간 갈등 예방과 문화적 조화에 기여할 기술을 개발 중이다. 김 소장은 AI의 안전과 신뢰성이 글로벌 경쟁력의 핵심이라고 강조했다. 그는 "EU AI 법처럼 강력한 규제를 충족하고 호환성을 보장할 수 있는 표준화는 국내 기업들이 유럽 시장을 포함한 글로벌 시장에서 경쟁력을 확보하는 데 필수적"이라며 "브뤼셀 기준과 호환 가능한 표준을 마련해 국내 AI 기술의 EU 시장 진출을 도울 계획"이라고 밝혔다. 또 그는 글로벌 시장에서 국산 AI의 성공 가능성을 낙관적으로 전망했다. 특히 미국과 중국 간의 기술 경쟁이 심화되는 상황에서 디지털 종속에 대한 우려를 가진 중동과 동남아시아 국가들이 한국을 제3의 대안으로 선택할 가능성이 높다는 분석을 내 놓았다. 기술 수준이 두 AI 초강대국에 비해 다소 뒤처지더라도 정치적 리스크가 이러한 선택에 결정적인 영향을 미칠 수 있다는 것이다. 그는 "한국은 데이터, 반도체, 인재, 기술 지원 역량 등 AI 개발의 필요조건을 이미 갖추고 있다"며 "다만 여기에 안전성과 신뢰성이 충분조건으로 작용할 때 국산 AI의 '소프트파워'가 글로벌 시장에 먹혀들 것"이라고 분석했다. 트럼프 당선·AI 기본법 통과…글로벌 AI 생태계 지각 변동 예고 김명주 소장은 AI 기본법 통과와 트럼프 당선이라는 두 가지 중요한 정치적·법적 변수에 대해서도 의견을 밝혔다. 그는 이 두 사안이 한국뿐만 아니라 글로벌 AI 시장과 연구소의 운영 전략에도 영향을 미칠 가능성을 시사했다. 트럼프가 미국 대통령으로 취임한 후 AI 규제가 느슨해질 가능성이 있느냐는 기자의 질문에 김 소장은 규제가 강화될 가능성을 언급했다. 이는 트럼프의 '아메리카 퍼스트' 정책이 자국의 AI를 자유롭게 발전시키는 동시에 다른 나라에는 철저한 제한을 목표로 할 수 있기 때문이다. 또 AI가 전략자원화 되는 현 시점에 적성국을 견제하기 위한 규제 조치를 취할수도 있다는 설명이다. 김 소장은 "트럼프의 미국은 자국이 AI 규제를 선도해야한다는 입장일 가능성이 크다"면서 "산업적인 측면에서의 '사다리 걷어차기' 전략과 안보 정책으로서의 규제를 강력히 도입할 가능성이 있다"고 예측했다. AI 기본법에 대한 분석도 이어졌다. 지난해 12월 국회를 통과한 이 법안은 업계에서 규제와 진흥의 균형을 맞추려는 시도로 평가받으며 대체로 환영받는 분위기다. 다만 일각에서는 치열한 경쟁 상황에서 규제를 최소화해야 한다는 반론도 제기하고 있다. 김 소장은 "AI 기본법은 산업과 안전 중에 산업에 방점을 찍은 법안"이라며 "EU AI법은 주로 규제 내용으로 구성돼 기업들이 숨 쉴 틈이 없는 것과 달리 우리 기본법은 산업 진흥에 70~80%, 규제에 20~30% 정도로 구성돼 기업 부담을 크게 줄였다"고 설명했다. 이어 "향후 시행령과 고시를 통해 보다 합리적인 조정이 가능할 것"이라고 덧붙였다. AI 기본법 통과에 따른 연구소의 소속과 독립 문제도 거론됐다. 현재 AI안전연구소는 ETRI 산하로 운영되고 있지만 법 통과로 인해 독립 기관으로서의 출범 가능성이 열렸기 때문이다. 이에 대해 김 소장은 "법적 가능성은 있지만 아직 결정된 바는 없다"고 밝혔다. 다만 올해 연구소는 ETRI 산하에서 지속적으로 성장할 계획이다. 현재 15명인 조직 규모는 올해 30명으로 증원될 계획으로, 오는 4월 진행될 채용에서는 7명을 새로 선발하며 이 중 5명은 정책·대외협력 분야, 2명은 평가·기술 분야 인재가 포함될 예정이다. 그럼에도 국가기관 특성상 인재 채용 조건의 제한은 아쉬운 점으로 지적된다. 기자 확인 결과 연구소는 ETRI와 마찬가지로 과학 분야 최고 수준의 논문으로 평가받는 SCI급 논문 작성 경험을 가진 연구자만을 선발한다. 이는 정책·거버넌스 분야에서의 채용에는 다소 비효율적일 수 있다는 업계의 비판을 받고 있다. 또 영국 AI 안전연구소가 연구자들에게 약 2억 원의 연봉을 지급하는 것과 비교해 상대적으로 낮은 처우를 제공한다는 지적도 있다. 이에 김 소장은 "국가 예산과 ETRI 구조상 처우를 대폭 개선하기는 어렵다"면서도 "다만 유능한 인재를 끌어들이기 위해 국가 공공기관 평균 연봉보다 2~3천만 원 더 지급해 물가 고려시 영국 연구소의 연봉 수준에 비견하는 수준의 인센티브를 지급하고 있다"고 말했다. 이어 "향후에도 ETRI와 함께 조율해 장기적으로 우수 인재 유치에 더 과감히 투자할 계획으로, 이들이 여기서 쌓는 경험도 개인 커리어에 큰 장점이 될 수 있을 것"이라고 강조했다. 이같이 AI안전연구소는 AI 기술의 안전성과 신뢰성을 강화하며 정책·평가·기술의 통합적 접근을 통해 글로벌 리더십을 확보하는 데 주력하고 있다. AI가 가져올 사회적·경제적 영향을 면밀히 분석하며 이를 바탕으로 국내외 신뢰받는 AI 생태계를 구축해 나가는 것이 연구소의 궁극적인 목표다. 김명주 AI안전연구소장은 "AI는 기술적 진보뿐 아니라 신뢰와 안전을 담보해야 글로벌 시장에서 경쟁력을 가질 수 있다"며 "우리는 기술, 정책, 윤리적 기준을 모두 아우르는 리더십을 통해 국내외 AI 생태계의 신뢰성 확보를 위해 매진할 것"이라고 강조했다.

2025.01.17 15:02조이환

엔비디아 '네모 가드레일' 공개…에이전트 폭주 방지로 AI 신뢰도 ↑

엔비디아가 생성형 AI 시대를 맞아 '네모 가드레일(NeMo Guardrails)' 솔루션을 통해 거대 언어 모델(LLM) 활용에 필요한 안전성과 신뢰도를 대폭 높이고 있다. 개발자가 직접 AI의 안전장치인 '가드레일'을 프로그래밍해 AI 에이전트(Agentic AI)를 제어·관리할 수 있는 것이 핵심으로, 엔비디아는 이를 오픈소스 형태로 제공해 다양한 서드파티 솔루션·브랜드 정책과 연동할 수 있도록 제공한다. 16일 업계에 따르면 최근 여러 기업들이 LLM 기술을 활용한 에이전트 AI를 경쟁적으로 선보이고 있다. 이러한 초거대 언어 모델이 예기치 않은 발언을 하거나 민감 정보를 노출하는 등 위험 요소가 늘어남에 따라 이를 사전에 제어·차단하는 '가드레일' 수요도 빠르게 증가하는 추세다. 이에 대응해 지난 2023년 4월 출시된 엔비디아 네모 가드레일은 크게 ▲콘텐츠 안전성 ▲주제 제어 ▲탈옥 방지 등 세 가지 주요 가드레일 모델로 구성됐다. 각각 유해·위험 발언 차단, 대화 주제 이탈 방지, 보안 우회 시도 차단에 특화됐다. 엔비디아 측은 이러한 가드레일을 병렬로 적용해도 처리 지연(latency)이 크지 않도록 GPU 최적화를 거쳤다고 강조하고 있다. '네모 가드레일'의 '콘텐츠 안전성(Content Safety)' 기능은 AI 대화나 에이전트가 생성하는 텍스트에서 유해·위험·비윤리적 발언을 사전에 차단한다. 엔비디아의 '이지스 콘텐츠 안전 데이터셋'으로 학습됐으며 3만5천 건 이상의 인공지능 안전성 주석 데이터를 바탕으로 폭넓은 시나리오를 커버한다. 이를 통해 잘못된 정보나 악의적 콘텐츠가 사용자에게 직접 전달되는 상황을 줄일 수 있다는 설명이다. '주제 제어(Topic Control)'는 대화 주제가 시스템 프롬프트나 브랜드 정책에서 벗어나지 않도록 관리한다. 단순 질의응답을 넘어 여러 차례의 대화가 이어질 때 에이전트가 불필요하거나 민감한 영역으로 빠지는 것을 막아주는 역할을 한다. 일례로 자동차 제조사 에이전트의 경우 경쟁사 차량과의 비교 등의 발언을 아예 금지하거나 특정 주제만 다루도록 제한하는 식이다. 복잡한 대화가 진행될수록 브랜드 일관성·규제 준수가 중요해지는 산업군에서 특히 주목받고 있다. '탈옥(Jailbreak) 방지' 모델은 AI 모델이 설정된 보호 장치를 교묘하게 우회해 민감 정보를 드러내거나 부적절한 기능을 수행하지 못하도록 막는다. 엔비디아는 1만7천 개 이상의 악의적 프롬프트 샘플을 통해 모델을 학습시켰으며 내부의 LLM 레드팀 테스트 툴을 활용해 새롭게 등장하는 공격 방식을 지속적으로 탐지·학습한다. 이를 통해 기업들이 실제 환경에서 운영 중인 AI 에이전트의 보안을 한층 더 강화하고 있다. '네모 가드레일'은 엔비디아 AI 엔터프라이즈 라이선스 체계로 운영되며 GPU당 연간 4천500달러(한화 약 630만원) 선의 비용이 소요된다. 실제 사용량과 기업 규모에 따라 차이가 발생할 수 있으나 개발 및 배포 효율성·안정성을 감안하면 비용 대비 효과가 충분하다는 것이 엔비디아 측의 설명이다. 이와 별개로 네모 가드레일 기본 프레임워크 자체는 오픈소스로 무료 제공된다. 이러한 기본 모드의 오픈소스 정책에 따라 기업이 직접 정책을 추가하거나 서드파티 가드레일을 도입하기가 용이하다. 엔비디아 측은 모든 이용 사례와 규정을 자사가 일일이 규정할 수 없으므로 오픈소스·모듈형 설계를 채택해 각 기업이 상황에 맞게 커스터마이징할 수 있게 했다는 입장이다. 업계에서는 특정 산업 규제나 민감 데이터 처리를 위한 맞춤형 가드레일을 구축하기 한층 수월해졌다는 평가를 하고 있다. 실제로 소매업, 통신사, 자동차 산업 등 다양한 분야의 기업들이 이미 '네모 가드레일'을 활용해 에이전트 제어 시스템을 구현하고 있다. 민감한 금융·청구 관련 정보를 다루거나 안전 운행을 보조해야 하는 경우처럼 오류나 부적절한 정보 노출이 절대 불가한 상황에서 가드레일의 역할이 돋보인다는 설명이다. 업계 전문가들은 "에이전틱 AI 시대에 IT 부서들이 AI를 인사·총무처럼 관리할 필요성이 커지는 와중에 이런 역할을 수행하는 솔루션 중 하나가 '네모 가드레일'"이라며 "가드레일 도입을 통해 AI가 사용자에게 줄 수 있는 가치는 키우면서도 위험 요소는 줄이는 길이 열리도록 해야한다"고 평가했다.

2025.01.16 23:05조이환

고학수 위원장 "올해 개보위 핵심은 AI…안전연구소 협력 의지"

개인정보보호위원회가 올해 안전한 인공지능(AI) 생태계 조성을 위해 AI안전연구소와 협력할 의지를 내비쳤다. 고학수 개인정보위 위원장은 16일 서울 정부청사에서 열린 정례 브리핑에서 이같은 업무 계획을 밝혔다. 고학수 위원장은 "올해 개인정보위 키워드는 AI"라며 "지난 2년 동안 AI 영역을 자세히 들여다봤다면 올해부터 현장에서 프라이버시, 데이터 생태계 등 실질적인 AI 안전에 집중할 것"이라고 설명했다. 고 위원장은 최근 AI로 인해 발생한 딥페이크와 가짜뉴스, 환각현상 등 부작용이 발생했다고 지적했다. 이에 개인정보위가 늘 강조하는 개인의 자유와 존엄성이 훼손됐다는 설명이다. 그는 "특히 딥페이크는 개인의 존엄성을 전면 침해하고 있다"며 "이를 정부가 근본적으로 어떻게 해결할 것인가 고민해야 할 시점"이라고 말했다. 고 위원장은 AI 부작용 해결과 국민 자유·존엄성 보호를 위해 AI안전연구소와 협력할 것이라고 말했다. 구체적으로는 AI 서비스에 적용되는 데이터 프라이버시 관련 영역에서 가이드라인·관리 모형 등에 협력할 계획이다. 그는"최근 AI안전연구소를 산하로 둔 한국전자통신연구원(ETRI)과 한국정보통신기술협회(TTA)가 지난해 12월 발표한 개인정보위의 AI 리스크 관리 모형에 큰 관심을 보였다"며 "이는 AI안전연구소 입장에서도 당연히 들여다볼 법한 영역이기 때문"이라고 강조했다. "공공영역 처벌법 고려해야"…구글·메타 소송 결과 '낙관' 고학수 위원장은 공공영역 과징금 규모와 처벌 수위를 고려해야 한다고 주장했다. 이는 공공영역 과징금 규모가 민간기업에 비해 낮다는 평가에 대한 반응이다. 개정법 전 공공기관 과징금 상한선은 5억원이었지만 지난해 이를 20억원으로 상향조정됐다. 그러나 여전히 민간기업에 비해 낮은 수준이라는 지적이 이어지고 있다. 이에 고 위원장은 "공공영역은 국민 세금으로 운영되는 곳"이라며 "과징금을 높게 부과하는 것이 세금 낭비로 이어질 수 있다"고 설명했다. 그러면서 "과징금이 아닌 다른 방향으로 처벌을 진행하는 방향으로 바꿀 필요가 있다"고 강조했다. 실제 개인정보위는 공공기관 처벌 사실을 공표하는 것을 선택에서 의무로 전환한 바 있다. 한 번 초사 처분 된 기관은 3년 동안 반복적으로 점검할 수 있는 시스템도 구축된 상태다. 조직 내부에서 문제가 발견될 때 조직적 문제와 개인적 문제를 구분해 징계하는 방식도 추진 중이다. 고학수 위원장은 오는 23일 판결 예정인 구글·메타 소송을 낙관적으로 기대한다고 말했다. 그는 "조만간 결정이 이뤄질 사안"이라며 "낙관적으로 생각하지만 100% 장담할 수는 없는 상황"이라고 덧붙였다.

2025.01.16 17:01김미정

AI 기술 활용한 약물-심혈관계 부작용 예측 모델 개발 추진

한국의약품안전관리원(이하 의약품안전원)은 '인공지능 기반 심혈관계 부작용 예측 모델 개발 사업'을 추진, 오는 24일까지 제안서를 접수한다고 밝혔다. 의약품안전원은 주요 의약품 부작용의 일종인 심혈관계 부작용의 발생 가능성을 낮추고 위해요인을 파악하기 위해 이번 용역을 실시, 사업을 통해 주요 약물-심혈관계 부작용 분석의 기초 기술을 개발해 능동적 약물감시 경쟁력이 한층 더 향상될 것으로 기대하고 있다. 사업 참여 대상 기관은 ▲ 공통데이터모델(Common Data model, CDM)을 활용한 인공지능 기반의 심혈관계 부작용 예측모델 개발 ▲ 다기관 자료를 활용한 모델 성능 및 유용성 검증 등의 역할을 수행하며, 선정 기준에 따라 총 1개소를 선정할 계획이다. 예산은 7천만원, 사업수행 기간은 11월까지이다. 한편 의약품안전원은 '병원 전자의무기록(EHR) 기반 공통데이터모델(CDM) 확대 구축사업'에 참여할 3개 수행기관을 오는 21일까지 모집한다. CDM은 의료기관별 다양한 전자의무기록 양식에 기록된 환자 정보 중 '인구통계학적 정보, 진단, 처방약, 시술, 검사결과' 등 의약품 부작용 분석에 필수적인 데이터를 추출해 표준화한 모델이다. 의약품안전원은 2018년부터 2024년까지 총 30개 의료기관에서 3천896만명의 환자 정보를 CDM으로 구축해 개인정보 유출 없이 신속·정확한 약물 사용 양상을 파악하고 부작용을 분석하는 등 공익 목적으로 활용하고 있다. 올해에는 3개 신규 기관에 각 4천만원, 총 1억2천만원을 지원해 환자 정보를 더욱 많이 확보하고 의약품 부작용 관리 기반을 더욱 강화한다는 계획이다.

2025.01.08 16:59조민규

식약처, AI·SW 특화 디지털의료제품 규정 행정예고

식품의약품안전처가 인공지능(AI)과 소프트웨어 등 디지털 기술을 활용한 디지털의료제품 특성에 맞는 임상·허가·품질관리 등을 주요 내용으로 하는 '디지털의료제품법' 관련 제정 고시 8종을 행정예고하고 내년 1월 6일까지 의견을 수렴한다. 이번 제정 고시(안) 8종은 법령에서 식약처장이 정하도록 위임한 세부 사항을 구체적으로 규정코자 마련됐다. 현재 디지털의료제품은 ▲디지털의료기기 ▲디지털융합의약품 ▲디지털의료·건강지원 기기 등이 있다. 제정 고시(안) 8종은 ▲디지털 의료제품 분류 및 등급 지정 등에 관한 규정 ▲디지털의료제품 허가·인증·신고·심사 및 평가 등에 관한 규정 ▲디지털의료기기 제조 및 품질관리 기준 ▲디지털의료기기 임상시험 계획 승인 및 실시·관리에 관한 규정 ▲디지털의료기기 전자적 침해행위 보안지침 ▲우수관리체계 인증 기준에 관한 규정 ▲디지털융합의약품 허가 등에 관한 수수료 규정 ▲디지털의료제품법에 따른 기관 지정 등에 관한 규정 등이다. 디지털의료제품 분류 및 등급 지정 등에 관한 규정은 지능정보기술과 정보통신기술 등 디지털의료기기에 적용되는 디지털 기술의 세부 유형을 규정하고, 디지털의료기기를 판단하는 기준 마련하는 내용으로 구성됐다. 디지털 기술은 ▲독립형 SW 기술 ▲AI 기술 ▲초고성능컴퓨팅기술 ▲지능형로봇기술 ▲가상융합기술 등이 있다. 또 디지털의료기기에 대해 제품코드를 즉각 생성, 신속 분류와 디지털의료기기소프트웨어가 사용되는 의료적 상황, 목적 및 오작동 시 피해 수준에 따라 안전관리의 수준을 차별화할 수 있도록 등급을 분류할 수 있는 기준 마련 등이다. 이와함께 디지털 의료제품 허가·인증·신고·심사 및 평가 등에 관한 규정은 AI·데이터·네트워크 등 디지털의료기기의 시스템 특성을 고려해 제품정보 기재, 소프트웨어 사용 적합성과 전자적 침해행위 보호조치에 관한 자료요건 등 디지털의료기기의 특성을 고려해 심사하도록 했다. 디지털의료기기는 시판 전 변경 관리계획을 제출해 신속하게 변경할 수 있도록 하고, AI 알고리즘 등 구성요소를 사전에 평가해 허가 시 심사를 간소화하기로 했다. 식약처는 디지털 융합 약품의 대상과 허가·심사 기준도 명확하게 마련했다. 이 밖에도 디지털의료기기 제조 및 품질관리 기준은 기존 의료기기 제조 및 품질관리기준에 '소프트웨어' 특성을 반영하고, AI 기술이 적용된 디지털의료기기는 학습·평가데이터 관리 등 AI 생명주기를 고려해 업계 애로사항을 구체화했다. 특히 소프트웨어 제조의 위수탁 공정의 잦은 변경 등 특성을 반영해 변경 심사 대상을 간소화했다. 디지털의료기기소프트웨어는 온라인 심사가 가능하도록 제도를 개선했다는 게 식약처의 설명이다. 디지털의료기기 임상시험계획 승인 및 실시·관리에 관한 규정은 데이터 임상시험 등 인체를 대상으로 하지 않는 디지털의료기기소프트웨어 임상시험 등 특성을 고려해 임상시험계획 승인 시 제출하는 자료요건을 마련하고 중대하지 않은 변경은 신속하게 진행되도록 절차를 개선하는 내용이 포함됐다. 임상시험기관과 임상시험기관이 아닌 기관이 함께 실시하는 임상시험은 임상시험기관 외 장소에서 실시하는 업무 및 데이터의 수집·관리 등에 관한 사항을 계획 승인 단계부터 검토하고 보안대책 등을 준수토록 했다. 식약처는 디지털의료기기 전자적 침해행위 보안지침은 디지털의료기기를 전자적 침해행위로부터 안전하게 보호하기 위한 시설·장비·데이터·AI/ML·개인정보 보안 준수사항을 마련했다. 국제기준(IMDRF)을 고려해 레거시 디지털의료기기에 대한 보안 체계, SW 자재 명세서 관리체계를 따르도록 하고 전자적 침해행위 발생 시 대응할 수 있도록 대응 요령을 규정했다. 아울러 우수 관리체계 인증 기준에 관한 규정은 ▲품질관리 ▲안전관리 ▲전자적 침해 대응체계 ▲인공지능·기계학습 제어 등 분야에서 기업을 인증할 수 있는 인증 기준을 마련하고 인증 심의위원회 구성·운영 등 인증 절차·방법을 마련하는 내용이다. 우수 관리체계 인증을 받은 기업은 비교적 위해도가 낮은 2등급 독립형 디지털의료기기소프트웨어에 한정해 실사용평가를 통하여 성능 평가가 가능토록 했다.

2024.12.17 15:28김양균

KIAT, 연구기반 활용 활성화 위한 교류·협력 확대

한국산업기술진흥원(KIAT·원장 민병주)은 17일 서울 소공동 롯데호텔에서 2024년 연구기반 총괄협의체를 개최하고 연구기반 활용 활성화를 위한 협력 방안을 논의했다. 연구기반 센터 총괄협의체는 산업통상자원부의 산업기술 기반구축 사업 280여 개 과제를 수행하는 연구개발기관들의 협의체다. 연구기반센터의 총괄 책임자와 실무자들이 참여해 정보를 교류하고 상호 협력 기회와 사업 개선 방안을 모색하는 등 기반구축 사업 활성화를 추진하고 있다. 이날 회의에서는 담당자 400여 명이 참석해 연구기반 구축사업을 수행하면서 발생하는 애로사항 극복 방안과 기업 지원 우수 사례를 공유하고 센터 간 협력 방안에 대해 논의했다. KIAT는 이날 KTR(한국화학융합시험연구원·원장 김현철), 한국광기술원(원장 신용진), 한국기술교육대학교(총장 유길상)와 산업기술 연구기반 구축 및 활용 활성화를 위한 업무협약을 체결했다. 이번 협약 체결에 따라 연구기반 센터는 기획재정부의 중소기업기술마켓 인증기업, 녹색인증 기업, 월드클래스 및 월드클래스플러스 기업, 규제샌드박스 승인 기업이 센터 장비를 활용하면 이용료 감면 혜택을 주기로 했다. KIAT는 앞으로 연구시설 및 장비 활용에 대한 효율성을 높이기 위해 이러한 기관 간 협력 체제 구축을 확대해 나갈 예정이다. 민병주 KIAT 원장은 “인공지능(AI)의 영향으로 경제와 사회가 모두 급격하게 재편 중인 가운데, 산업 초격차를 유지하려면 전국에 있는 연구기반 센터들의 역할이 중요하다”며 “앞으로도 센터 간 협력을 강화하는 노력을 지속하겠다”고 말했다. 한편, KIAT는 연구시설과 장비를 보유한 연구기반 센터의 안전관리를 강화하기 위해 연구과정에서 화재 발생 시 도움이 될 구조 손수건 총 3천개를 배포했다.

2024.12.17 11:00주문정

산업재해에도 AI로봇이 역할 "톡톡"

한국전자통신연구원(ETRI)은 근로자 및 현장설비 이상상황을 탐지하는 로봇 핵심기술을 개발, 대전 한국전력공사 전력연구원에서 시험 중이라고 12일 밝혔다. 그동안 산업현장에서의 로봇은 단순히 사진만 촬영하거나 손만 움직이는 등 독립적인 형태였다. ETRI가 이번에 시험할 로봇은 AI를 적용했다. 안전순찰로봇과 감독순찰로봇 간 협업이 가능하다. 산업현장에서 로봇이 특정 시설을 촬영할 때, 구조물에 가려 문제가 발생하면 자동으로 두 번째 로봇이 가서 정밀하게 분석해 촬영한다. 로봇 스스로 촬영이 잘못됐다는 것을 인지하면 내부 AI 인식 모듈이 판단해 자동으로 두 번째 로봇을 보내 정밀촬영한다. 연구진은 전력연구원 시설 현장 실증을 통해 다중 로봇 간 협업 기술 및 이상상황 판단 기술 등 관련 성능도 함께 검증 중이다. 다중 로봇 간 협업은 산업현장의 근로자 및 설비상태를 주기적으로 확인하는 안전순찰로봇과 명령에 따라 수행하는 감독순찰로봇의 상호협력이다. 핵심기술은 ▲이종의 다중 에이전트 연계 제어기술 ▲멀티 에이전트 협업 프레임워크 기술 등이다. 이상상황 판단 AI기술은 ▲작업자 위험상황 판단 ▲안전장비 착용여부 판별 ▲게이지 판독 등을 수행한다. 다중 에이전트 간 협업도 할 수 있다. 사진촬영하는 로봇, 팔 달린 로봇, 고정된 CCTV로 안전장치 확인, 근로자의 쓰러짐, 출입금지구역의 출입 등 다양한 에이전트 간 원활한 협업이 가능하다. 연구진은"정유공장, 에너지, 석유화학, 발전소 등 주기적으로 점검을 요하는 곳에 적합하다"며 "설비 압력이나 온도를 측정하는 수천 지점의 게이지 등을 수시로 읽고 정상상태 안전성 여부를 확인, 점검하는 산업시설에 향후 활용될 것"으로 기대했다. ETRI 서범수 필드로보틱스연구실장은 “산업현장의 특성에 최적화된 로봇의 제어기술과 기밀데이터로 분류되는 산업설비의 데이터 관리 및 이상상황 등을 분석하는 인공지능 기술의 추가개발이 필요하다”고 말했다. ETRI 최정단 모빌리티로봇본부장은 “산업재해 감소에 기여할 것"이라며 "안전관리자를 보조하는 인공지능 로봇기술이 근로자를 보호하며 산업체의 생산 경쟁력 확보에 기여하도록 최선을 다해 기술개발 할 것"이라고 밝혔다.

2024.12.12 12:51박희범

한수원, 세계 최초 원전 특화형 초거대 AI 구축 착수

한국수력원자력(대표 황주호)은 네이버클라우드(대표 김유원)·베스핀글로벌(대표 장인수)과 손잡고 '한수원형 생성형 AI 구축 사업에 나선다고 11일 밝혔다. 한수원은 이날 계약으로 네이버클라우드의 초거대 언어모델인 '하이퍼클로바 X'에 원전 데이터를 학습시킨 후, 외부망으로부터 분리된 사내 데이터센터에 설치하고 베스핀글로벌의 챗봇 서비스인 'HelpNow AI'를 이용해 한수원에 특화된 AI 서비스를 운영할 계획이다. 원전에 특화된 초거대 생성형 AI를 구축하는 것은 세계 최초다. 한수원 관계자는 “일반적으로 챗GPT·코파일럿 등 초거대 언어모델 서비스는 공공 클라우드망을 통해 제공되지만, 데이터 보안이 중요한 한수원은 국내 공공기관 최초로 이를 사내망에 구축하기로 했다”고 전했다. 한수원은 2025년 3월 사내에 하이퍼클로바 X 서비스를 개시해 임직원이 사내 업무망에서 문서요약·번역 등과 같은 생성형 AI의 범용기능을 자유롭게 활용할 수 있도록 할 계획이다. 이후 7월까지 한수원 데이터 학습을 완료하고 원전건설·발전·정비작업·안전·수력/신재생·대외기관 대응·AI Assistant 등 7대 업무 분야에 서비스를 제공해 업무 생산성을 높일 방침이다. 황주호 한수원 사장은 “엄격한 규제와 품질이 요구되는 원전 산업에 AI 시스템을 도입함으로써 원전 안전성과 효율성을 더욱 높일 것”이라며 “이번 네이버클라우드와 베스핀글로벌과의 사업을 통해 한수원이 원전 분야에서 차별화된 글로벌 경쟁력을 확보할 것으로 기대한다”고 밝혔다.

2024.12.11 17:32주문정

행안부 내년도 사업 예산, 12.3%↓…디지털 정부 투자는 '증액'

지역경제와 재난안전, 디지털 정부 등을 중심으로 한 내년도 행정안전부 예산이 확정됐다. 올해보다 액수가 소폭 줄어들었으나, 행정업무 혁신을 위해 디지털 정부 예산을 늘렸다는 점에서 소프트웨어(SW) 업계에 긍정적인 영향을 줄 지 주목된다. 11일 행안부에 따르면 2025년도 예산은 지난 10일 국회 본회의 의결을 통해 72조839억원으로 최종 확정됐다. 72조4천473억원인 올해 예산보다 3천634억원(0.5%) 줄어든 것으로, 2023년 수준(72조945억원)과 비슷하다. 이 중 지방교부세 67조385억원과 기본경비·인건비 4천92억원 등을 제외한 사업 예산은 4조6천362억원으로 정해졌다. 이는 올해 예산 대비 12.3% 줄어든 액수다. 이 같은 상황 속에 행안부는 내년에 지방소멸 대응을 위해 지역경제를 살리고자 1조4천300억원을 투입하기로 했다. 지방에 관련 기반 시설 조성 등을 지원하고 생활인구 제도를 활성화하는 한편, 빈집 정비를 늘리고 청년마을을 새롭게 조성하는 등 지역경제를 살리기 위해 총력을 기울인다는 방침이다. 이를 위해 지방소멸대응기금으로 1조원, 빈집 정비 지원에 100억원, 청년마을 조성에 75억원, 지역발전활성화에 53억원 등을 지원할 계획이다. 극한 기후현상으로 인한 각종 재해 예방을 위해 재난 안전 분야에도 1조6천681억원을 편성했다. 해당 예산으로 내년에 사전적 재난안전 인프라를 지속 구축하는 한편, 재난 발생 시 주민 피해에 대한 복구 지원을 늘리고 화재 등 안전사고 예방을 위해 지자체 CCTV 관제체계를 인공지능기반으로 고도화한다는 방침이다. 이를 위해 재해위험지역정비에 8천803억원, 사유시설·공공시설 복구비에 1천200억원, 지능형 CCTV 관제체계 구축에 51억원 등을 투입할 예정이다. 내년 전체 예산이 줄어들었음에도 디지털 정부 분야에 대한 투자는 늘렸다. 올해 7천925억원이던 디지털 정부 관련 예산은 내년에 8천213억원으로 편성됐다. 정부 디지털 서비스를 국민들이 편안하고 안정적으로 이용할 수 있도록 정보 시스템 인프라를 개선하고, 행정업무 혁신을 위한 범정부 AI 활용 기반을 구축하는데 예산을 활용할 계획이다. 또 행정망 먹통 사태 재발을 막기 위해 중앙행정기관 등 노후 장비 통합에 1천627억원, 범정부 인공지능 공통 기반 구현에 54억원 등을 투입키로 했다. 최근 여러 정치적 이슈로 분열된 국민들을 하나로 단결시키기 위한 사회 통합 분위기 조성에도 내년에 자금을 7천169억원 투입키로 했다. 나눔문화 확산을 위한 온기나눔 캠페인에 6억원, 민선 지방자치 30주년 등 기념 사업에 8억원, 제주 4.3사건 보상금으로 2천419억원을 쏟아 부을 예정이다. 이를 통해 국민 대통합 가치를 실현하고 치유와 화해에 기반한 과거사 문제 해결에 적극 나선다는 방침이다. 정영준 행안부 기획조정실장은 "이번 국회 심사 과정에서 정부안 대비 예산이 일부 감액됐으나, 국민의 안전과 민생을 위한 정책은 흔들림 없이 추진돼야 한다"며 "2025년 연초부터 필요한 곳에 예산을 신속히 집행할 수 있도록 사업계획 수립 등 집행 준비를 철저히 하고, 국민들이 정책의 성과를 조기에 체감할 수 있도록 최선을 다하겠다"고 밝혔다.

2024.12.11 10:57장유미

홍수·폭설 피해, AI·데이터 기술로 미리 막는다

앞으로 정부가 인공지능(AI)·데이터 기술을 접목해 극한 기상 상황에 대한 대비책 마련에 선제적으로 나선다. 행정안전부는 재난안전정보의 공동이용 확대를 위해 28일 이한경 재난안전관리본부장 주재로 '2024년 하반기 재난안전정보 공동이용 협의회'를 개최했다. '재난안전정보 공동이용 협의회'는 국민 안전과 밀접한 각종 재난안전정보의 수집·공개·관리와 공동이용 활성화를 위해 관계기관, 민간 전문가 등이 참여해 2020년부터 운영되고 있다. 이번 협의회에서는 AI·데이터 기반 구축 사업 등 추진 현황을 공유하고 기관 간 협조 사항을 논의했다. 행정안전부는 재난문자 중복방지 방안과 함께 자치단체의 CCTV 관제 역량 강화를 위한 AI 기반 지능형 관제지원시스템 구축 계획(2025~2027년)을 공유했다. 과학기술정보통신부는 도로·지하차도 침수사고 예방을 위해 지난 7월부터 환경부와 협업해 시행 중인 홍수경보 정보 실시간 내비게이션 안내 서비스를 소개했다. 기상청은 극한 기상에 대비해 기상정보 전달력을 강화하기 위해 추진하고 있는 호우재난문자 직접 발송체계 구축 현황과 향후 개선 계획을 발표했다. 이한경 행정안전부 재난안전관리본부장은 "최근 잦아진 극한 기상 등으로부터 국민의 생명과 재산을 지키기 위해 관계 기관과 함께 AI·데이터 기술을 접목한 재난대응 역량을 키워나가겠다"고 말했다.

2024.11.28 17:54장유미

국내 첫 수소혼소 친환경 발전소 가동…남부발전 '신세종빛드림' 준공

국내 발전사 최초로 액화천연가스(LNG)에 수소를 50%까지 섞어서 사용할 수 있는 친환경 열병합 발전소가 본격 가동에 들어갔다. 한국남부발전(대표 김준동)은 28일 세종시 누리동에 소재한 신세종빛드림본부에서 세종의 에너지 인프라 조성을 완료하는 '신세종빛드림'을 준공했다. 신세종빛드림은 2007년 제4차 전력수급기본계획에 반영된 집단에너지 사업으로 630MW급 발전소와 시간당 340Gcal 용량의 열에너지 공급설비로 구성됐다. 남부발전이 발전소를 건설해 전기를 생산하고, 한국지역난방기술이 열공급 사업을 담당해 행정수도 세종의 에너지 인프라를 건설하는 사업이다. 신세종빛드림은 2021년 7월 1일 건설공사 착공을 시작으로 코로나19, 러-우 전쟁으로 인한 원자재 수급 지연 등을 극복하고 2023년 발전소의 생명을 불어넣은 수전(受電) 공정과 플랜트 배관 건전성을 확보하기 위한 수압시험을 완료했다. 올해 복합발전의 핵심 공정인 가스터빈 최초 점화에 성공하고 증기터빈을 전력계통에 연결해 6월 30일 상업운전을 개시했다. 신세종빛드림은 국내 최초로 기동초기 미연탄화수소 저감설비와 인공지능(AI)를 활용한 신개념 집진설비 등 기존 발전소와 차별화한 최신 환경설비를 도입했다. 질소산화물 배출을 법적규제치의 3분의 1 수준으로 낮췄다. 또 디지털트윈 기술을 이용해 실제와 동일한 가상발전소를 구현해 언제 어디서나 운전감시와 원격지원을 할 수 있는 운영시스템을 구축했다. 남부발전 관계자는 “빅데이터를 활용한 안전 모니터링과 지능형 예측시스템은 설비고장 과 사고를 예방해 세계 최고 수준의 신뢰도를 자랑하는 스마트발전소로 운영할 것”이라고 밝혔다. 남부발전은 신세종빛드림에 국내 최초로 수소 혼소를 최대 50%까지 할 수 있는 대형 가스터빈을 도입했다. 남부발전은 수소공급 인프라를 구축해 2028년에는 수소 혼소 발전을 실현, 이산화탄소 배출을 LNG를 사용할 때보다 17% 이상 감축한다는 계획이다. 신세종빛드림은 ▲국내 최초 '안전·보건 통합 감시센터' 구축 ▲근로자 안면인식 프로그램 도입 ▲드론과 중장비 근접 알림시스템 등 도입해 건설현장 근로자 안전과 건강과 함께 고위험 작업 간의 안정성 확보를 통해 안전 사각지대를 해소해 남부발전 6년 연속 건설현장 중대재해 제로 달성에 기여했다. 신세종빛드림은 지역과 상생하는 발전소 건설 문화를 조성하기 위해 지역주민의 수용성 확보를 위한 직접 찾아가는 사업설명회, 사업 추진 중 코로나19 감염확산의 우려를 불식시키기 위해 '온라인 설명회 시행, 지자체와 협력을 통한 다양한 맞춤형 사회공헌활동 시행 등 지역사회와 지속해서 소통하고 있다. 이호현 산업통상자원부 에너지정책실장은 축사에서 “2050 탄소중립 정책에 적극 부응하고, 국가 행정 중심지 세종의 에너지자립에 기여하는 청정 발전소로써 신세종빛드림의 역할을 기대한다”고 전했다. 김준동 남부발전 사장은 “신세종빛드림 건설을 위해 아낌없는 지원을 해주신 정부·지자체·협력사·지역주민에게 감사의 말씀을 드린다”며 “신세종빛드림이 세종시의 에너지자립 견인은 물론, 향후 에너지전환의 단초 역할을 충실히 수행하겠다”고 말했다.

2024.11.28 11:20주문정

AI안전연구소 어떤 일 하나···구성원과 처우는

"히말라야 등정을 돕는 세르파(Sherpa)같은 연구소가 되겠습니다." 김명주 AI안전연구소(AISI, AI에스아이로 발음) 소장은 27일 이 같이 밝혔다. 이날 판교에서 출범한 'AI안전연구소'는 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 전문적으로 대응하기 위한 공공 성격의 AI안전연구 전담조직이다. 정부출연 연구원 중 한 곳인 한국전자통신연구원(ETRI) 부설로 신설됐다. 산‧학‧연이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여해 최근 만든 '국제 AI안전연구소 네트워크' 일원으로도 활동한다. 정부는 AISI를 통해 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진할 계획이다. AISI는 '안전한 AI로 만드는 지속가능한 미래'를 비전으로 내세웠다. 3대 미션은 ▲AI안전에 대한 과학적 이해 증진 ▲AI안전 정책 고도화 및 안전 제도 확립 ▲국내 AI기업의 안전 확보 지원이다. 또 수행할 4대 핵심 과제로 ▲AI안전 평가 ▲AI안전 정책 연구 ▲AI안전 글로벌 협력 ▲AI안전 연구개발(R&D)을 설정했다. 이날 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오혜연 KAIST AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장, 황종성 NIA 원장, 김동환 포티투마루 대표, 김영섬 코난테크놀로지 대표, 김윤 트웰브랩스 사장 겸 최고전략임원, 오승필 KT CTO(부사장) 등 AI분야 산학연 관계자 40여명이 참석했다. 초대 소장을 맡은 김명주 소장은 서울여대 정보보호학부 교수로 서울대 컴퓨터공학과에서 학·석·박사 학위를 받은 AI 윤리·신뢰성 분야 전문가다. 바른AI연구센터장, 국제AI윤리협회장, AI윤리정책포럼 위원장 등을 맡으며 안전하고 책임 있는 AI 개발·활용 확산을 위해 힘써왔다. 경제협력개발기구 글로벌 인공지능 파트너십(OECD GPAI) 엑스퍼트 매니저로도 활동, 지속가능한 AI 발전을 위한 국제사회 논의에도 활발히 참여해왔다. 김 소장 임기는 3년이다. 김 소장은 개소식 행사후 기자들과 만나 연구원 운영 방안을 설명했다. 이날 김 소장과 기자들과 오간 이야기를 일문일답으로 정리했다. -AI안전연구소는 무슨 일을 하나? "AI안전과 관련해 크게 평가, 정책 제안, 기술개발 등 세 가지 일을 한다. AI안전연구소로는 미국, 영국, 일본, 싱가포르, 캐나다에 이어 세계 6번째다. 이들 해외 AI안전연구소와 적극적으로 협력한다. 특히 우리 연구소는 규제기관의 성격이 아니다. 국내 AI 기업이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소를 최소화하도록 지원하는 협력기관으로서의 역할을 한다. 예컨대, GDPR(유럽일반개인정보보호법)로 유럽에 진출하는 국내 IT기업 등은 유럽 시장법을 새로 따라야 한다. 우리 AI 업도 이러한 장벽에 가로막힐 수 있으므로 R&D 단계부터 규제, 인증 및 여러 표준절차를 살피는 게 필요하다." -조직 구성은 어떻게? "연구소 산하에 3개실(AI안전정책 및 대회협력실, AI안전 평가실, AI안전 연구실)이 있다. 전체 직원은 총 30여명 규모인데, 출범 현재는 나와 ETRI 파견인력 8명, TTA 파견인력 3명 등 12명이다. 내년 1월 신규 6명을 우선 채용하고, 내년까지 전체 직원을 30명 규모로 늘린다. 영국이 AI안전연구소를 세계서 가장 먼저 만들었는데, 영국은 직원들이 공무원일 뿐 아니라 풀타임 인력도 130명에 달한다." -국제협력을 강조하는데 국제협력은 어떻게? "지난주 샌프란시스코를 갔다 왔다. 여기서 10개국으로 구성한 국제 AI안전연구소 네트워크가 출범했다. 의장국은 미국이다. 부의장국은 못 정했다. 다들하고 싶어했는데. 내년 2월 프랑스 파리에서 AI안전과 관련한 정상회의가 열리는데 이때 정하기로 했다. 일단 미국, 캐나다, 일본, 싱가포르 등 5개 나라와 MOU를 체결했다. EU와는 따로 만났다. EU가 세계서 제일 먼저 AI법을 만들었고, 우리도 AI법을 만들려고 하니, 호환성을 뒀으면 좋겠다. 진짜 MOU를 맺고 싶은 나라가 한 두 개 있었다. 언어나 문화에 따라 생성 AI가 다른 답을 주는 문제가 있는데 이 분야 연구는 싱가포르와 일본이 우리보다 먼저 연구했다. 우리가 늦었는데, 남은 기간동안 노력해서 내년 2월 파리 회의때는 우리도 비등하게 참여할 예정이다." -예산은 얼마나 되나 "내년 안전성 평가 지표 마련 등 비R&D 과업에 약 40억 원, 솔루션 개발 등 R&D에 약 80억 원이 책정돼 있다." -내년에 착수할 연구는 어떤 것이? "보통 AI를 말할 때 잠재적 위험이라는 표현을 한다. 잠재적이라는 이야기는 아직 밝혀지지 않은 거다. 현재 세계 AI안전연구소들이 공통으로 생각하는 것은, 리스크에 대한 전체 도메인을 빨리 잡자는 거다. 어떤 리스크가 있는 지 다 잡아서 그 리스크별로 우선순위를 매겨 먼저 풀어야 할 것들을 우선 해결하자는 거다. 샌프란시스코 회의때도 세션이 3개였는데, 첫번째 세션이 페이크였다. 연구소 내년 R&D 규모가 80억 정도인데 4개 과제가 잡혀 있다. 평가와, 위험 측정 등에 관한 것들이다. 우리 말고도 국내에 연구 기관이 몇 곳 있는데, 연구소마다 주력하는게 조금씩 다른데, 조정 여지는 있는 것 같다." -글로벌 빅테크와도 협업을 하나 " 지난주 샌프란시스코 회의때도 MS, 오픈AI, IBM 등 글로벌 기업들도 왔다. 우리도 이들 글로벌 기업들과 만났다. 궁극적으로는 이들 빅테크 기업들하고 어떤 테스트를 한다든지, 어떤 걸 할때 같이 움직였으면 좋겠다는 생각을 갖고 있는데, 이 부분은 쉽지 않은 문제인 것 같다. 구글 등과 컨택을 하고 있다. 미국 정부도 엔트로픽 등 몇 개 기업과 협약을 해 테스트를 같이 진행하고 있다." -AI관련 국제 표준 인증을 만드는 것도 국제 AI안전연구소 네트워크가 다루나 "표준이라는 키워드는 이미 나왔고, 기술적인 표준과 절차 표준을 국제 네트워크에서 다룰 거다. 기존 표준화 기구들이 많이 있는데, 거기서도 AI 표준을 다루고 있기 때문에, 우리랑 같이 움직일지, 아마 같이 움직일 것 같은데, 안전에 대한 키워드는 아무래도 AI안전 국제네트워크에서 끌고 가지 않을까 싶다. 우리도 국제 공조를 하고." -AI안전연구를 영국이 리딩하는 이유가 뭔가 "AI윤리라는 키워드를 영국이 가장 먼저 제시했다. AI 안전연구소도 영국이 맨 처음 만들었다. 영국은 서양 세계에서 자기네가 정신적인 지지와 근원이라는 프라이드가 있는 듯 하다. 영국이 AI안전연구소를 처음으로 만들면서 자기네 나라에만 두고 싶어했다. 그래서 요슈아 벤지오를 통해 안전 보고서를 마련하게 했고, 두 번째가 나올 예정이다. 영국과 미국이 생각이 다른 면이 있다. 영국은 10개국 중심으로만 하자는 생각이 있고, 미국은 필요하면 계속 늘리자는 생각이다. 이제 시작했기 때문에 어떻게 될 지는 더 지켜봐야 할 것 같다." -중국과는 어떤 관계를 가져가나 "공식적으로 들은 바는 없다. 원래 작년 런던 회의할 때 중국을 넣었으면 좋겠다는 의견들이 계속 있었다. 어떻게 보면, AI 기본법은 유럽이 아니라 중국이 먼저라고 생각한다. 중국이 AI에 관한 규정을 사실 제일 먼저 만들었다. 그런데 중국은 글로벌 스탠더드가 아니지 않나. 중국 서비스는 당성 검사를 받아야 오픈할 수 있는데, 바이두 애니봇이 이 당성 검사 때문에 우리나라 네이버 하이퍼 클로버보다 며칠 늦게 오픈했다. 언론 자유 측면에서 보면 중국은 굉장히 통제된 나라다. 스탠포드 대학에서 2019년 AI 인덱스를 발표할 때 각 나라별 AI 윤리를 분석했는데 중국은 아주 특이한 패턴이 나왔다. 다른 나라에서 많이 나오는 공정성은 중국에서 전혀 논의되지 않았다. 특이하게 10개국이 참여하는 국제AI안전연구소 네트워크에 케냐도 들어왔다." -AI전문 인력이 전반적으로 부족하다. 좋은 연구원 확보 방안은? "우리 연구원은 출발이 에트리(ETRI)다. 나도 에트리 직원이다(웃음). 에트리 직원 월급으로, 이런 대우로, 현 AI 세계에서 좋은 인재를 뽑을수 있을까? 하는 퀘스천이 있는 것도 사실이다. 어쨋든 판교에 있는 AI기업들의 평균 정도는 줘야 하지 않나 하는 생각들이 있는 듯 하다. 영국의 경우 직원 연봉이 거의 2억이다. 또 거기는 정식 공무원이다. 앞으로 계속 풀어야 할 문제다. 좋은 인재를 얻기 위해서." -고위험 AI 범주가 관심인데... "기본적으로 사람 생명과 관련한 거나 사람의 운명을 결정 하는 것 등이 대상일 듯 하다. 리스크 평가는 대단히 중요하다. 영국도 지금 위험별로 이거에 대한 연구를 하고 있고, 일부 실험을 하고 있는 듯 하다. 잘 지켜보고 있다."

2024.11.27 20:32방은주

정부, AI안전연구소 판교에 설립···"기술‧정책 역량 조속 확보"

정부가 세운 AI안전연구소(AISI)가 판교 소재 글로벌 R&D센터에서 27일 문을 열었다. AI의 기술적 한계와 AI기술 오용, AI 통제력 상실 등으로 발생할 수 있는 다양한 AI위험에 체계적‧전문적으로 대응하기 위한 AI안전연구 전담조직이다. 산‧학‧연 기관이 AI안전분야 연구 협력과 정보 교류를 할 수 있는 대한민국 AI안전연구 허브이기도 하다. 선진 10개국이 참여하고 있는 '국제 AI안전연구소 네트워크' 일원으로 안전한 AI를 위한 글로벌 연대의 책임있는 역할도 수행한다. 이를통해 AI안전 분야의 경쟁력있는 기술 및 인력을 육성하고, 과학적 연구데이터에 근거한 AI안전 관련 정책을 개발, 선진화를 추진한다. 개소식에는 류광준 과기정통부 과기혁신본부장, 염재호 국가AI위원회 부위원장, 이경우 대통령실 AI·디지털 비서관 등 정부 주요인사와 오승필 KT CTO, 오혜연 카이스트 AI연구원장, 이은주 서울대 AI신뢰성 연구센터장, 방승찬 ETRI 원장을 비롯한 AI분야 산∙학∙연 핵심관계자 40여명이 참석했다. 앞서 지난 5월 열린 'AI서울정상회의'에서 우리나라 등 10개국 정상은 AI안전연구소 설립과 안전한 AI에 대한 글로벌 협력을 강조한 바 있다. 당시 윤석열 대통령도 “대한민국 AI안전연구소 설립을 추진해 글로벌 AI안전성 강화를 위한 네트워크에 동참할 것”이라는 의지를 밝혔으며, 과기정통부는 그간 연구소 조직‧예산‧인력‧기능에 대한 면밀한 사전준비를 거쳐 이번에 AI안전연구소를 출범했다. 이날 국가AI위원회 글로벌 자문위원인 AI분야 세계적 석학 요슈아 벤지오 교수는 축사에서 “서울선언에 따라 한국정부가 AI안전연구소를 설립하게 된 것을 축하한다"면서 AI안전연구소 역할로 ▲업계와 협업을 통한 위험 평가방법 연구‧발전 ▲AI안전성 요건 수립 지원 ▲국제협력을 통한 AI안전체계의 상호 조화가 중요하다고 강조했다. 또 미국 엘리저베스 켈리(Elizabeth Kelly) AI안전연구소장은 “대한민국이 AI안전 증진을 위해 보여준 글로벌 리더십과 지원에 깊이 감사하다”며 “韓-美 AI안전연구소가 全세계 동료들과 함께 AI위험을 줄이고 혜택을 극대화하며, 혁신을 촉진하기 위해 공통된 과학적 기준을 구축해 나가자”고 밝혔다. 영국 Oliver Illot AI안전연구소장과 일본 아키코 무라카미 AI안전연구소장도 “대한민국 AI안전연구소 출범을 축하하며, AI기술을 안전하게 만들어 가기 위해 국경을 넘어선 협력을 확대해 나가자”고 전했다. 'AI안전연구소' 초대소장으로 임명된 김명주 소장은 '연구소 비전 및 운영계획' 발표를 통해 “AI활용으로 발생할 수 있는 제반위험 평가와 이를 예방‧극소화하기 위한 정책‧기술을 개발‧보급하고, 국내‧외 연대를 강화해 나갈 것”이라며 “연구소는 규제기관의 성격이 아니라, 국내 AI기업들이 글로벌 경쟁력을 확보하는데 장애가 되는 위험요소들을 최소화하도록 지원하는 협력기관으로 역할을 하겠다”고 강조했다. 이어진 '대한민국 AI안전컨소시엄' 협약식에서는 AI분야 국내 대표 산‧학‧연 기관 총 24곳이 참여한 가운데, AI안전에 관한 정책연구, 평가, 연구개발의 상호협력을 위한 업무협약(MOU)을 체결했다. AI안전연구소와 컨소시엄 참여기관이 함께 AI안전 프레임워크(위험 식별‧평가‧완화) 연구‧개발‧실증, AI안전관련 국제규범 대응 등 정책연구, AI안전관련 기술 협력 등을 중점적으로 추진할 계획으로, 향후 컨소시엄의 세부 연구주제와 운영방안을 구체화해 나갈 예정이다. 컨소시엄 참여기관들도 AI안전 연구와 관련한 전문성과 기여방안을 제시하며, AI안전연구소와 적극적으로 협력하겠다는 의지를 밝혔다. 유상임 과기정통부 장관은 “AI안전은 지속가능한 AI발전의 전제로 AI분야에 종사하는 우리 모두가 함께 해결해 나가야할 가장 큰 도전과제이며, 특히, 지난해 11월 영국에서 열린 AI안전성 정상회의와 올 5월 개최한 'AI서울정상회의' 이후 불과 1년 만에 미국, 영국, 일본, 싱가포르, 캐나다 등 주요국이 모두 AI안전연구소를 설립하고, 전례없이 기민하고 체계적인 국제 AI안전 협력체계를 구축했다"고 밝히며 “우리도 AI안전연구소를 중심으로 산‧학‧연 연구역량을 결집해 AI안전의 기술‧정책적 역량을 조속히 확보하여, 대한민국 AI산업 혁신을 촉진할 튼튼한 안전기반을 구축해 나가는 한편, 글로벌 AI안전 연대의 주도적인 역할을 수행해 아태지역을 대표하는 AI안전 연구허브로 발전해 나갈 수 있도록 적극 지원하겠다.”고 강조했다.

2024.11.27 09:30방은주

'AI 서울 기업 서약' 참여한 6개사, 안전 개발 환경 조성

지난 5월 '인공지능(AI) 서울 기업 서약'에 참여한 네이버, LG AI연구원, 카카오 등 국내 6개 기업이 지난달 AI 위험관리 프레임워크 구축을 마쳤다. 과학기술정보통신부는 26일 서울 용산구 전쟁기념관에서 'AI 신뢰·안전성 컨퍼런스'를 개최하고 이런 산업 정책 동향을 공유했다. 이날 행사에는 서울 기업 서약에 서명한 국내 6개 기업 관계자가 모두 참석했다. AI 서울 기업 서약은 기업들이 지난 5월 'AI 서울 정상회의' 개최에 맞춰 책임 있는 AI 개발을 추진한다는 내용을 담은 발표다. 우선 네이버는 지난 6월 'AI 세이프티 프레임워크(ASF)'를 구축했다고 발표했다. 여기에는 평가 대상, 시스템 도메인 분야에 대한 고려, 내부 거버넌스, 협업 구조에 대한 내용이 담겨있다. 또 프론티어 AI 위험을 모델 자체로부터 오는 통제력 상실 위험, 악의적 의도를 가진 사용자로 인한 악용 위험으로 나눠서 접근할 필요성도 제기했다. 발표를 진행한 네이버 허상우 연구원은 "ASF는 프론티어 AI 모델과 관련한 위험 관리 체계에 대한 약속"이라고 강조했다. 카카오도 지난달 'AI 세이프티 이니셔티브(ASI)' 구축을 마쳤다고 발표했다. ASI는 AI 서비스 리스크를 사전 평가·관리하기 위한 전사적 리스크 관리 시스템이다. 카카오는 서비스 개발 시 리스크 관리 사이클을 수행하고 그 결과를 전사 리스크 관리 위원회를 통해 검토한 뒤 최종적으로 CEO 승인을 받아 출시한다. 카카오 김경훈 이사는 "ASI를 통해 AI 리스크뿐 아니라 모든 카카오 서비스 리스크를 다룰 것"이라고 강조했다. LG AI연구원은 내년 3월부터 AI 위험을 미리 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다. 또 내년 상반기 유네스코와 협업해 만든 AI 윤리교육(MOOC) 가이드라인 제작도 마칠 예정이라고 했다. 이 외에도 KT와 SKT, 삼성전자도 AI 위험성을 줄일 수 있는 프레임워크 구축 진행 상황을 설명했다. 과기정통부 송상훈 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.

2024.11.26 16:19김미정

  Prev 1 2 3 4 5 6 7 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI·퍼플렉시티 등 총 출동…'AI 페스타 2025' 30일 개막

2차 소비쿠폰 지급 D-7…유통업계 ‘대규모 할인’ 채비

시속 95㎞ 손 놓고 달린다…벤츠 '레벨3' 자율주행 타보니

세계적 해킹그룹 국내 금융사 2곳 해킹..."고객 명단에 유명 정치인 포함"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.