• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'안전성'통합검색 결과 입니다. (19건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI 신뢰성 수출 본격화"…씽크포비엘, 中 유수 기관과 기술 협력 확대

씽크포비엘이 중국의 주요 인공지능(AI) 기관 및 기업들과 공동 기술 교류 및 사업 협력에 나선다. 생성형 AI 시대를 맞아 '신뢰할 수 있는 AI'를 핵심 전략으로 삼고 기술 수출 가능성을 가시화하는 모습이다. 씽크포비엘은 오는 23일부터 이틀간 중국 상하이에서 열리는 '2025 AI+연구개발 디지털 서밋'에 초청받아 자사 AI 신뢰성 기술을 발표하고 협력을 모색한다고 15일 밝혔다. 해당 행사는 르네상스 상하이 푸퉈 호텔에서 진행되며 1천여 명의 글로벌 전문가가 참가할 예정이다. 이 행사에서 씽크포비엘은 '거대언어모델(LLM) 평가' 포럼에 참가해 'AI 견고성 평가 기술 및 사례 연구'를 주제로 발표한다. 최근 LLM의 안전성과 신뢰성이 주요 이슈로 떠오른 가운데 이를 정량적으로 측정·검증하는 기술을 집중적으로 소개할 예정이다. 또 행사 기간 전시 부스를 운영하며 자사가 개발한 AI 신뢰성 교육용 시스템인 'AI 튜터'도 선보인다. 이 기술은 AI 데이터의 편향 여부를 분석하고 사용자의 이해를 돕는 기능을 갖춘 도구다. 해당 서밋에는 중국 정보통신기술원, 국가인지지능핵심연구소 등 공공기관과 베이징대, 푸단대, 퉁지대 등 주요 대학이 조직했다. 더불어 마이크로소프트, 알리바바, 바이두, 화웨이 등 글로벌 기업 역시 지원한다. 지난 2023년 베이징, 2024년 선전·상하이에 이어 이번에 여섯 번째로 개최된다. 씽크포비엘은 지난해 말부터 중국 내 기술 홍보와 협력 기반 마련에 나섰다. 지난해 상반기 저장대와 상하이소프트웨어산업협회를 방문했고 12월에는 서울에서 열린 '트레인(TRAIN) 세미나'에 추샤오민 퉁지대 교수를 초청하며 관계를 넓혔다. 추 교수는 이번 행사의 핵심 창립자이자 중국 내 AI 평가 기술의 권위자로, 당시 씽크포비엘 기술에 높은 관심을 표한 것으로 알려졌다. 이후 직접 조직위원회를 통해 씽크포비엘의 발표를 주선하며 실질적 협력의 물꼬를 텄다. 박지환 씽크포비엘 대표는 "오픈AI조차 각국 정부와 소버린 AI 모델을 공동 추진하는 흐름으로 전환하고 있다"며 "AI 신뢰성은 언어 기술보다 사회적 수용성과 기술 안전성에 따라 결정될 것"이라고 밝혔다. 이어 "중국 측이 협력 의지를 보인다면 회사도 적극 대응할 준비가 돼 있다"고 말했다.

2025.05.15 13:52조이환

미국 유전자변형농산물 수입 2배이상 급증…"국내 시장 점유 큰 폭 확대"

지난 해 미국의 유전자변형농산물 수입이 2배 이상 늘어난 것으로 나타났다. 수입금액도 급증했다. 한국생명공학연구원(원장 권석윤, 이하 생명연)이 2일 공개한 2024년 유전자변형생물체(GMO) 주요 통계 자료에 따르면 지난해 국내 반입된 식품용·사료용 유전자변형생물체는 총 1천92만 톤(약 30억 달러)였다. 이는 전년 1천28만 톤(34.2억 달러) 대비 약 6.2%인 64만 톤이 증가한 수치다. 연구팀은 동유럽 전쟁 여파로 인한 곡물 공급 차질 우려에도 불구하고, 브라질과 아르헨티나, 미국 등 주요 곡물 교역국으로부터 안정적인 수입이 이루어 지면서 국내 시장 수요를 원활히 충족한 것으로 분석했다. 그러나 전체 수입량이 증가했음에도 불구하고, 수입 금액은 최근 3년 연속 감소했다. 지난 2022년 42.6억 달러에서 2024년 30억 달러로 급감했다. 이는 주로 사료용 유전자변형 옥수수의 단가 하락에서 기인한 것으로 보인다고 연구팀은 분석했다. 용도별로는 사료용이 87%(945.7만 톤), 식품용은 13%(146.5만 톤)의 비중을 보였다. 작물별로는 옥수수가 90.4%에 해당하는 987.5만 톤이 수입됐고 대두(90.7만 톤), 면화(14만 톤)가 뒤를 이었다. 지난해 유전자변형생물체 최대 교역국은 브라질이었다. 식품용·사료용 유전자변형생물체 국가별 수입 승인량을 분석한 결과, 브라질 374.1만 톤(34.3%), 아르헨티나 319.9만 톤(29.3%), 미국 316.4만 톤(29%) 순으로 나타났다. 미국산 유전자변형농산물의 수입 비중은 전년 12% 대비 29%로 급격히 증가, 국내 시장점유율이 큰 폭으로 확대됐다. 이는 러시아-우크라이나 전쟁으로 동유럽 수입량이 줄면서 일어난 현상으로 풀이된다. 한편 만 19세 이상 64세의 성인 남녀 800명을 대상으로 유전자변형생물체 국내 공공인식을 조사한 결과 유전자변형생물체에 대한 전체 인지율은 72.9%로 최근 3년 연속 하락세를 보였다. 김기철 바이오안전성정보센터장은 "국내의 유전자변형 농산물 수입 물량은 코로나 팬데믹 이후 일정 수준을 유지하고 있다"며 "금액 측면에서는 글로벌 곡물 가격의 하락으로 지속적으로 감소하고 있다"고 분석했다.

2025.04.02 10:04박희범

[인터뷰] "AI 탈옥 막아라"…셀렉트스타, MWC25서 '가스라이팅 방지' 모델 테스트

"인공지능(AI)이 산업 전반에 확산됨에 따라 모델의 결함을 찾아내고 위험을 예방하는 '레드티밍'이 보다 중요해지고 있습니다. 우리는 이번에 개최되는 MWC25에 참가해 글로벌 규모의 레드티밍 행사를 열어 AI 모델의 신뢰성을 직접 검증하고자 합니다. 이러한 경험과 데이터를 바탕으로 AI 신뢰성 평가를 표준화하고 글로벌 AI 평가 시장을 선도하겠습니다" 황민영 셀렉트스타 부대표는 최근 기자와 만나 회사가 MWC25에서 '글로벌 AI 레드팀 챌린지'를 개최하는 이유에 대해 이같이 말했다. AI 신뢰성 검증을 글로벌 표준으로 확산하고 AI 평가 시장을 선도하며 다양한 전문 인력이 참여하는 생태계를 구축하겠다는 것이다. 4일 업계에 따르면 사용자가 프롬프트를 조작해 AI를 악용하는 '탈옥(Jailbreak)' 문제가 확산되면서 이에 대응하기 위한 '레드팀' 활동의 중요성 역시 갈수록 커지고 있다. 실제로 오픈AI, 구글, 메타 등 글로벌 빅테크 기업들도 자사 AI 모델의 보안성과 신뢰성을 검토하기 위해 자체적인 레드팀을 운영하고 있다. 가스라이팅·우회 질문까지…AI 탈옥, '자장가'부터 '장례 문화'까지 다양해 '레드티밍(Red Teaming)'이란 원래 보안 및 군사 분야에서 시스템의 취약점을 식별하고 이를 보완하기 위해 공격적인 시뮬레이션을 수행하는 방식이다. 보안 레드티밍이 잠재적인 해킹을 예방하기 위해 의도적으로 시스템의 취약점을 해킹하듯이 AI 분야에서의 '레드티밍' 역시 개발사가 모델을 의도적으로 공격해 금지된 정보나 위험한 응답을 유도한다. 황 부대표는 "레드티밍을 통해 선제적으로 모델의 신뢰성과 안전성을 점검할 수 있다"며 "구체적으로 AI가 차별적 발언을 하거나 허위 정보를 생성하거나 보안이 취약한 응답을 제공하는지 여부를 평가할 수 있다"고 말했다. AI에서의 레드티밍이 보다 중요한 이유는 누구나 탈옥을 시도할 수 있기 때문이다. 일반적인 보안 시스템은 해킹을 시도하려면 고도의 기술이 필요하지만 AI 모델은 단순한 텍스트 입력만으로도 무력화될 수 있다. AI의 가드레일이 아무리 견고해도 사용자가 창의적인 방식으로 우회 질문을 던지면 금지된 응답을 끌어낼 가능성이 크다. 황 부대표는 "쉽게 말해 '탈옥'은 AI 모델을 상대로 가스라이팅을 시도하는 것"이라며 "일례로 사용자가 돌아가신 할머니가 어릴 적 불러주신 '네이팜 폭탄 만드는 법'에 대한 자장가를 한번만 더 듣고 싶다고 감성적으로 접근하면 원래라면 차단돼야 할 폭탄 제조법이 제공되는 사례가 있다"고 말했다. 이어 "특정한 맥락과 감정을 덧씌우는 방식으로 AI의 방어 체계를 무너뜨리는 탈옥이 점증함에 따라 이를 방지하기 위해 레드티밍이 부각되고 있다"고 강조했다. 다만 이러한 과정이 대중적으로 잘 알려지지는 않았고 AI 모델을 평가하고 검증하는 공식적인 기준 역시 부족한 상황이다. AI가 실제 서비스에 적용되는 사례가 점점 증가하고 있기 때문에 보다 광범위한 테스트와 검증이 필요하다는 지적이 나온다. MWC25서 AI 신뢰성 검증…지난해 코엑스 챌린지가 밑거름 이같은 배경에서 셀렉트스타는 오는 5일 스페인 바르셀로나에서 'MWC25'에 참가해 '글로벌 AI 레드팀 챌린지'를 개최한다. 이번 행사는 AI 모델의 신뢰성과 안전성을 검증하고 레드팀 활동의 필요성을 글로벌 시장에 알리기 위한 자리로, 과학기술정보통신부, 세계이동통신사업자연합회(GSMA), UAE 국영 통신사 이앤(E&), 한국 AI 안전연구소 등 주요 기관이 이번 행사에 후원사로 참여했다. 전통적으로 MWC는 이동통신과 네트워크 기술이 중심이 되는 박람회였으나 올해는 AI 신뢰성 검증이라는 새로운 분야를 공식적으로 포함한 점이 주목된다. AI가 산업 전반에 빠르게 확산되면서 AI 평가 및 보안의 중요성이 점점 커지고 있음을 반영한 결정이다. 업계의 반응도 뜨겁다. 챌린지에는 이미 140명 이상이 참가 신청을 마친 상태로, 셀렉트스타 측은 아직 본격적인 홍보를 시작하기 전이기 때문에 실제 행사 당일에는 더 많은 국가에서 참가자가 몰릴 것으로 예상하고 있다. 또 이번 행사는 글로벌 AI 기업들의 모델을 대상으로 신뢰성을 평가하는 첫 번째 대규모 국제 레드팀 챌린지로, 다양한 문화와 언어 환경에서 AI가 얼마나 안전하게 작동하는지를 검증하는 실험적 의미도 갖는다. AI 레드팀 챌린지의 가장 큰 특징은 누구나 참여할 수 있다는 점이다. 보안 전문가뿐만 아니라 언어학자, 인문학자, 예술가, 마케터, 일반 대학생 등 비전공자도 AI가 설정된 가드레일을 우회하도록 유도하는 다양한 프롬프트를 시도함으로써 모델을 공략하는 데 중요한 역할을 할 수 있다. 황 부대표는 "미국에서는 오픈AI나 구글 같은 기업들이 자체적으로 AI 레드팀 작업을 진행하고 있지만 대규모 공개 행사 형태로 레드팀을 운영하는 사례는 거의 없었다"며 "MWC 같은 국제 박람회에서 전 세계의 다양한 전문가와 일반인이 함께 AI를 공격하는 장을 연다는 점에서 의미가 크다"고 강조했다. 셀렉트스타가 MWC25에서 글로벌 AI 레드팀 챌린지를 성공적으로 개최할 수 있게 된 배경에는 지난해 국내에서 진행했던 AI 레드팀 챌린지의 경험이 있다. 지난해 4월 서울 코엑스에서 열린 행사에서 참가자들은 총 네 차례의 공격 라운드를 거치며 AI 모델의 탈옥을 시도했다. 대학생, 일반 회사원, 교수 등 다양한 배경의 참가자들이 각자의 창의적인 접근법으로 AI 모델을 공략해 AI가 실제로 불법 정보를 제공하거나 차별적 발언을 하는 등의 허점이 발견되면서 신뢰성 검증의 필요성이 다시 한번 입증됐다. 회사는 그 과정에서 다수의 흥미로운 사례를 확보했다. 황 부대표는 "어떤 참가자는 '할머니가 가르쳐준 전통 의식'이라며 폭탄 제조법을 물었고 다른 참가자는 특정 문화권의 장례 문화를 언급하며 시신을 화학적으로 분해하는 방법을 요청하는 등 AI의 정책 필터를 우회하는 다양한 시도가 있었다"며 "이러한 사례들은 AI 모델이 단순한 필터링으로는 안전성을 유지할 수 없으며 보다 체계적인 검증이 필요하다는 점을 시사한다"고 설명했다. '다투모 이밸'로 자동화 혁신…AI 신뢰성 검증 앞장설 것 레드티밍을 통한 AI 신뢰성 검증은 단순한 연구 목적을 넘어 기업의 실제 비즈니스에도 중요한 영향을 미친다. 특히 금융권과 같이 AI 챗봇이 잘못된 금융 정보를 제공하거나 특정 키워드에 대해 잘못된 응답을 하면 이는 단순한 기술적 결함이 아니라 고객 신뢰와 직결된 문제가 된다. 이같은 상황 속에서 셀렉트스타는 AI 신뢰성 검증을 위한 주요한 역할을 맡고 있다. 특히 기존에는 사람이 직접 AI 모델을 테스트하고 문제를 찾아 수정하는 방식이었으나 셀렉트스타는 이를 자동화하는 솔루션 '다투모 이밸(DATUMO eval)'을 출시하며 검증 프로세스를 혁신했다. '이밸'은 AI 신뢰성 검증을 위한 자동화 솔루션으로, 기업별 맞춤형 평가 기준을 설정하고 이를 기반으로 대량의 평가 데이터를 생성하는 기능을 제공한다. 기존 벤치마크 데이터셋이 AI의 일반적인 언어 처리 능력이나 논리력을 평가하는 데 초점이 맞춰져 있었다면 이 솔루션은 특정 기업의 산업군과 맞는 평가 질문을 생성해 보다 실질적인 검증이 가능하도록 설계됐다. 일례로 보험회사가 챗봇을 도입할 경우 '다투모 이밸'은 보험 상품과 관련된 수십만 개의 맞춤형 질문을 자동 생성해 AI가 정확한 답변을 제공하는지와 불법적인 정보를 전달하지 않는지를 분석하게끔 돕는다. 이를 통해 기업들은 자사 AI 모델이 경쟁사의 모델보다 신뢰성이 높은지와 특정한 위험한 질문에 대해 어떻게 대응하는지에 대한 실질적인 비교 분석이 가능해진다. 회사는 '다투모 이밸'이 단순한 AI 평가 솔루션이 아니라 AI 신뢰성을 검증하는 새로운 표준이 되도록 글로벌 시장을 적극 공략할 계획이다. 황 부대표는 "전 세계적으로 AI 모델 평가의 중요성이 커지고 있는 가운데 이를 체계적으로 자동화한 기업은 드문 상황"이라며 "우리 솔루션은 글로벌 시장에서도 충분히 경쟁력이 있다"고 강조했다. 이에 따라 MWC25 글로벌 AI 레드팀 챌린지 종료 후 셀렉트스타는 행사를 통해 발견된 핵심 취약사례, 위험 응답 유형, 가장 창의적인 공격 방식 등을 정리한 보고서를 발표할 계획이다. 이 보고서는 AI 안전연구소(AISI), GSMA, 과기정통부 등 후원 기관과 공유되며 글로벌 차원의 AI 신뢰성 검증 논의에도 기여할 전망이다. 또 챌린지에서 확보한 데이터는 '다투모 이밸'의 기능 개선에도 직접 활용된다. 다양한 국가에서 AI 모델을 공격한 데이터를 분석함으로써 AI가 각국의 언어와 문화적 맥락에서 어떻게 반응하는지, 어떤 방식으로 탈옥이 시도되는지를 보다 정교하게 연구할 수 있기 때문이다. 황민영 셀렉트스타 부대표는 "이번 MWC25 글로벌 AI 레드팀 챌린지를 계기로 AI 신뢰성 평가 시장을 본격적으로 공략하고 AI 평가 및 보안 분야의 글로벌 리더로 자리 잡겠다"며 "조만간 AI를 도입하는 기업이라면 누구나 레드팀 테스트를 거쳐야 한다는 인식이 자리잡을 때 우리 솔루션이 핵심적인 역할을 하게 만들 것"이라고 강조했다.

2025.03.04 14:27조이환

씽크포비엘-와이즈와이어즈, AI 신뢰성 협력 MOU…"공동 성장 목표"

씽크포비엘이 와이즈와이어즈와 인공지능(AI)의 신뢰성 제고를 위한 협력에 나선다. 씽크포비엘은 와이즈와이어즈와 AI 신뢰성 분야 공동 사업 추진을 위한 업무제휴 양해각서(MOU)를 체결했다고 11일 밝혔다. 체결식은 지난 10일 서울 성수 서울숲ITCT 지식산업센터에 위치한 와이즈와이어즈 본사에서 열렸으며 박지환 씽크포비엘 대표이사와 조경휘 와이즈와이어즈 사장이 참석했다. 이번 협약을 통해 양사는 향후 2년간 AI 신뢰성 기술 개발 및 검증체계 구축을 위해 협력한다. 씽크포비엘이 보유한 AI 신뢰성 기술과 와이즈와이어즈의 SW 테스트 역량을 결합해 공동 검증체계를 마련하고 이를 바탕으로 대기업 및 공공기관을 대상으로 수요 발굴에 나설 계획이다. 씽크포비엘은 지난 2021년부터 AI 신뢰성 전문가 양성 교육을 운영하며 신뢰성 검증 기술을 축적해왔다. 또 지난 2022년부터 과학기술정보통신부가 2년간 발간한 '신뢰할 수 있는 AI 개발 안내서' 제작을 주도했고 공공 부문 AI 발주 가이드라인 수립에도 참여했다. 최근에는 국방 AI 무기 시스템 평가 체계를 구축하는 등 신뢰성 평가 모델 개발 및 컨설팅을 수행해왔다. 와이즈와이어즈는 금융, 자동차, 전자상거래, 공공 부문에서 소프트웨어(SW) 품질 테스트 서비스를 제공하는 국내 최대 기업으로 다수의 대기업 고객사를 보유하고 있다. 지난 2022년 한국인정기구(KOLAS) 국제공인시험 인정기관 자격을 획득하며 품질 검증 분야에서 공신력을 확보했다. 박지환 씽크포비엘 대표는 "SW 테스팅 분야에서 국제적인 신뢰도를 갖춘 와이즈와이어즈와 협력하면 AI 신뢰성 사업 기회가 더욱 확대될 것"이라며 "이번 협약 이후에도 국내 주요 기업 및 기관과 AI 신뢰성 협력을 강화할 계획"이라고 말했다. 이어 "조만간 국방 기술 신뢰성 검인증 분야에서 최고 기술력을 보유한 기업과 공동 사업을 추진할 예정"이라고 밝혔다.

2025.02.11 17:40조이환

KTR, 전기안전공사 손잡고 '에너지 저장 장치' 신뢰성 높인다

KTR(한국화학융합시험연구원·원장 김현철)은 10일 한국전기안전공사(대표 남화영)와 에너지 저장 장치(ESS) 신뢰성을 확보하고 관련 기업의 경쟁력 강화를 돕기 위해 업무협약을 체결했다. KTR과 한국전기안전공사는 업무협약에 따라 ▲ESS 및 신에너지 산업 안전 확보를 위한 연구 및 기술개발 ▲관련 국제표준 개발 및 확산 ▲시험인증 지원 등의 협력사업을 진행한다. 두 기관은 특히 배터리 에너지 저장 시스템(BESS)이 극한 환경에서도 높은 안전성과 신뢰성을 확보할 수 있도록 돕기 위해 검증, 표준모델 개발 등도 함께 수행하기로 했다. KTR은 또 한국전기안전공사와 국내외 ESS 기술 동향 및 분석 정보를 상호 공유하는 등 국내 ESS 산업의 신뢰성 확보와 경쟁력 강화를 위해 노력하기로 했다. 전기안전공사는 전기 설비 분야 디지털 안전 관리체계 구축·기술개발을 비롯해 ESS 안전성평가센터 운영을 통해 ESS·연료전지 등의 안전관리 업무를 수행하고 있다. 김현철 KTR 원장은 “에너지 저장장치의 안전성과 신뢰성 확보는 관련 산업 발전을 위한 필수 선결과제”라며 “국내 대표 에너지분야 시험인증기관인 KTR은 지금까지 쌓아온 노하우와 인프라를 적극 활용, 차세대 에너지 저장장치의 안전성과 신뢰성 보장을 위해 적극 나설 것”이라고 밝혔다.

2025.02.10 17:58주문정

[트럼프 취임] 美 정권 교체 앞두고 AI 행정명령 폐지 예고…안전성 공백 '우려'

도널드 트럼프 미국 대통령 당선인이 공식 취임을 앞둔 가운데 인공지능(AI) 안전성에 대한 규제가 크게 완화될 가능성이 제기되고 있다. 이에 업계와 전문가들은 미국 내 AI 규범 공백이 발생해 혼란이 초래될 수 있다고 우려하고 있다. 21일 업계에 따르면 트럼프 당선인은 대선 전부터 바이든 행정부의 AI 행정명령을 철폐하겠다는 의사를 지속적으로 밝혀왔다. 지난 2023년 도입된 이 행정명령은 AI 기술의 안전하고 책임 있는 개발을 촉진하고자 하는 목적을 담고 있었지만 공화당과 트럼프 캠프는 이를 지나치게 관료주의적이라고 비판해왔다. 부통령 당선인 J.D 밴스 역시 트럼프와 동일한 입장을 견지해 왔다. 지난해 7월 상원 청문회에서 밴스는 "선제적 과잉 규제 시도가 기존 빅테크 기업들을 고착화시킬 가능성이 높다”고 주장하며 행정명령에 대해 부정적 견해를 드러낸 바 있다. 이같은 트럼프 진영의 행정명령 철폐 기조는 해당 명령이 강조해 온 ▲AI 모델 배포 전 안전성 테스트 ▲AI 개발 및 사용에 대한 연방 차원의 감독 ▲정부 주도 안전 기준에 대한 전면적인 거부 등의 결과를 초래할 수 있다는 점에서 전문가들의 경고가 이어지고 있다. AI 안전 연구자 로만 얌폴스키는 "고급 AI 시스템 훈련과 관련된 규제를 제거하는 것은 미국 국민과 전 세계의 안전을 위해 최악의 선택"이라고 지적했다. 이같은 우려는 이미 트럼프 당선 후 빅테크 기업의 최근 행보에서도 드러난다. 메타는 지난 7일 미국 내 인스타그램 및 페이스북 게시물에 대한 제3자 '팩트체킹 프로그램'을 운영하지 않겠다고 발표했다. 이 프로그램은 지난 2016년부터 전문가들이 허위정보를 걸러내기 위해 가동된 알고리즘이다. 메타는 기존의 프로그램 대신 엑스의 '커뮤니티 노트'와 유사한 기능을 추가하겠다는 방침이다. 커뮤니티 노트는 논란이 되는 게시물을 삭제하거나 제한하기보다 일반 사용자가 게시물에 다양한 의견을 붙여 사실 여부를 공개적으로 검증하는 방식으로, 대중의 판단에 기반하기 때문에 허위정보 확산을 막기에 충분치 않다는 비판을 받고 있다. '팩트체킹 프로그램'을 중지한 이유에 대해 마크 저커버그 메타 대표는 “팩트체크 전문가들이 정치적으로 편향돼 오히려 신뢰를 떨어뜨렸다”고 주장했다. 업계 일각에서는 이 주장을 곧이곧대로 받아들이기 어렵다고 지적하고 있다. 오히려 메타의 결정이 비용 효율성을 고려한 전략적 선택으로, AI가 24시간 운영이 가능하며 인건비 부담이 적기 때문에 프로그램을 폐지했다는 해석이다. 여기에 트럼프 행정부의 규제 완화 기조가 빅테크 기업들에 보다 자유로운 운영 환경을 제공할 것이라는 판단이 더해져 메타가 이러한 결정을 내렸다는 분석을 내리고 있는 것이다. 한 국내 AI 업계 관계자는 "메타의 결정은 트럼프 행정부의 정책 변화를 예상한 선제적 대응일 수 있다"면서도 "이와 함께 AI 기술 발전으로 인한 정확도 개선과 비용 효율성 등 다양한 요인이 복합적으로 작용했을 것"이라고 설명했다. 빅테크가 규범 공백 속에서 AI 안전성을 경시할 수 있음을 드러내는 또 다른 사례는 일론 머스크가 이끄는 AI 회사 xAI의 챗봇 '그록(Grok)'이다. 이 AI는 검열 없이 답변을 생성한다는 점이 특징으로, 트럼프 당선 이전부터 AI 안전성과 윤리적 책임에 대한 논란의 중심에 서 왔다. '그록'은 지난 2023년 11월 최초 출시된 이후 지속적인 업데이트를 통해 점차 그 특성을 강화해왔다. 특히 머스크의 정책 기조에 따라 정치적·인종적·문화적으로 민감한 질문에도 제한 없이 답변하거나 수위 높은 이미지를 생성하는 등 논란이 계속되고 있다. 가디언에 따르면 '그록'은 지난해 테일러 스위프트나 카멀라 해리스 등 실존 인물의 선정적 사진을 합성하는 등 문제적 콘텐츠를 생성해 우려를 키웠다. 이러한 xAI의 기조를 트럼프 전 대통령과 머스크 간의 정치적 연대가 보다 강화할 것이라는 분석 역시 제기된다. 머스크는 지난해 7월 트럼프 전 대통령 암살 시도 사건 이후 트럼프에 대한 공개적인 지지를 선언하며 매월 약 4천500만 달러(한화 약 600억원)를 트럼프 지지단체에 지원해 왔다. 이에 '그록'이 편향된 정보를 확대 생산할 가능성에 대한 우려 역시 커지고 있다. 실제로 '그록'은 미국 대선 당시 카멀라 해리스 전 부통령 후보가 후보자들에 대한 부정적인 발언을 했다는 등의 왜곡된 부정적 정보를 제공했다. 이같은 사례는 향후 AI가 트럼프와의 정치적 연대를 배경으로 특정 이익을 위해 더욱 편향된 정보를 제공할 가능성을 높여 민주적 과정의 공정성을 심각하게 위협할 수 있다는 우려를 낳고 있다. 미국 비영리 미디어 단체 프리 프레스의 노라 베나비데즈 선임 고문은 "머스크는 플랫폼을 인수한 이래 안전성 테스트를 고려하지 않은 대대적인 변화를 강행해왔다"며 "지금까지의 행태를 보면 앞으로 더 심각한 결과를 초래할 가능성이 크다"고 경고했다. 또 AI가 이미 국가 안보 차원에서 핵심 전략 자원으로 간주되는 만큼 트럼프 행정부가 들어서면 AI의 군사화가 보다 가속화될 것이라는 전망이 제기되고 있다. AI의 안보자원화는 현재 이미 진행 중이다. 지난해 12월 오픈AI와 미국 방산 업체인 안두릴 인더스트리즈는 국가 안보를 위한 AI 솔루션 개발을 목표로 한 파트너십을 발표했다. 중국 역시 지난해 메타의 라마(Llama) 모델을 활용해 군사용 AI 개발에 착수하며 AI 무기화 경쟁을 본격화하는 양상을 보이고 있다. 업계에서는 트럼프 행정부가 미중 경쟁 구도 속에서 AI 군사화를 더욱 빠른 속도로 추진할 가능성이 크다고 평가한다. 대통령 재임기에 미국 우선주의 기조 아래 대규모 거버넌스나 국제적 합의에 대한 언급을 꺼려왔기에 AI의 군사적 활용을 주저하지 않을 것이라는 전망이다. 실제로 트럼프 계열 싱크탱크는 지난해 'AI 맨해튼 프로젝트'라는 계획안을 선제적으로 제안하며 AI를 국가 전략 자원으로 전환할 것을 권고한 바 있다. 김명주 AI안전연구소장은 "트럼프 대통령의 '아메리카 퍼스트' 기조가 재현되면 적성국 제재를 강화해 프런티어 LLM 기술의 해외 서비스가 완전히 제한될 가능성이 있다"며 "이를 통해 미국이 AI 선도적 지위를 독점적으로 유지하려 할 가능성이 있다"고 전망했다. 이어 그는 "심지어는 미국이 '책임 있는 능력(Responsible capability)'과 같은 기존 AI 안전·거버넌스 용어를 활용해 타국에 강도 높은 규제를 요구할 가능성도 있다"며 "결과적으로 규제 개념이 자국 AI의 독주를 위해 활용될 가능성이 있다"고 분석했다.

2025.01.21 08:01조이환

국표원, 해외직구 안전성 조사 확대…제품시장 감시 강화

정부가 해외직구 제품 안전성 조사를 확대하고 제품시장 감시를 강화한다. 산업통상자원부 국가기술표준원은 15일 위해제품으로부터 소비자 안전 확보를 위한 ▲해외직구 제품 안전성 조사 확대 ▲경찰·지자체 등과 합동단속 강화 ▲리콜사업자 관리 강화 등을 담은 '2025년도 제품 안전성조사 계획'을 발표하고 올해 중점 추진할 계획이라고 밝혔다. 해외직구 제품 안전성 조사는 지난해 조사한 450개 보다 2배 이상 확대된 1천여 개 제품을 조사해 해외 온라인 플랫폼을 통한 위해제품의 국내 유입을 방지할 계획이다. 국내 유통제품에 대해서도 화재·사고 등 안전 우려가 높은 품목을 중심으로 4천700여 개 제품을 조사해 소비자 안전을 확보해 나갈 계획이다. 또 KC 미인증 등 불법 제품의 시중 유통 방지를 위해 경찰청 합동단속을 지난해 2회에서 4회 이상으로 늘리고 지자체 합동단속도 지난해 21개 지자체에서 올해에는 24개 이상으로 확대한다. 민간의 자발적 제품안전 문화 확산을 위해 온라인 플랫폼 업체도 지난해 16곳에서 올해에는 20개 이상으로 확대하고 소비자단체 등과의 협력도 강화해 나갈 계획이다. 리콜사업자에 대한 리콜점검 강화, 온라인 플랫폼 업체와 협력을 통한 리콜사실 소비자 직접 통보, 지자체·교육청 등과 협력 홍보 등을 통해 리콜제품이 시중에 재유통되지 않도록 철저히 관리해 나갈 계획이다. 진종욱 국가기술표준원장은 “이번에 수립한 2025년 제품 안전성조사 계획을 차질 없이 추진해 국민이 안심하고 제품을 구매할 수 있도록 제품 안전 확보에 최선을 다하겠다”며 “업계에서도 안전한 제품이 시중에 유통될 수 있도록 제품안전 관리에 적극 노력해 줄 것”을 당부했다.

2025.01.15 14:08주문정

웨이모 로보택시에 갇혀 무한 주행…무슨 일 있었나

작년 말 구글 웨이모 로보택시가 원형 교차로를 계속 돌고 있는 영상이 공개돼 화제가 됐다. 하지만 해당 로보택시에 승객이 탑승하지 않은 것으로 확인되면서 논란이 일단락됐다. 그런데 작년 12월 웨이보 로보택시를 타고 피닉스 공항으로 향하던 한 미국 남성이 택시에 갇히는 일이 있었다고 테크크런치가 8일(현지시간) 보도했다. 당시 택시에 타고 있던 사람은 인공지능 컨설팅 회사 디지털마인드스테이트의 설립자 마이크 존스였다. 비행기를 타기 위해 공항 주차장을 돌고 있었는데 이후 차를 멈출 수도, 내릴 수도 없이 원을 그리며 주차장을 뺑뺑이하는 일을 겪었다고 그는 주장했다. 그는 7분이 되지 않는 시간 동안 택시에 갇혔고 비행기 시간을 놓칠까봐 두려워했다고 덧붙였다. 존스는 문제 해결을 위해 고객센터에 도움을 청했다. 상담원에게 차량이 멈추지 않는다고 말하자 웨이모 앱을 열어 '마이 트립스'(My Trips) 버튼을 누르라고 안내했다. 그러자 존스는 차량 내에서 이를 제어할 수 있는 방법은 없냐고 물었지만 결국 모바일 앱을 통해 상담원의 지시에 따르고 나서야 로보택시가 정상 운행했다고 밝혔다. 해당 사건에 대해 웨이모 측은 "이 사건은 12월 초에 발생했으며, 소프트웨어 결함으로 확인됐다"면서 "이후 소프트웨어 업데이트로 문제를 해결했다”며 고객에게 요금을 청구하지 않았다고 밝혔다. 조지 메이슨 대학 자율주행·로봇공학 교수이자 전직 미국 도로교통안전국(NHTSA)의 수석 안전 자문으로 활동했던 미시 커밍스(Missy Cummings)는 이번 사고가 규모가 작지만 자율주행차가 해결해야 할 큰 문제를 보여준다고 밝혔다. 그는 "모든 로봇 시스템에는 어딘가에 큰 빨간 버튼(긴급 버튼)이 있는데, 그걸 누르면 작동이 해제된다”며 웨이모 택시에는 이 장치가 빠져 있다고 지적했다. 또, “만약 차량이 누군가에 의해 해킹당했고 차량에 승객이 있는 경우 어떻게 될까? 그것이 앞으로 정말 중요한 보안 조치라고 말하고 싶다. 승객이 내릴 수 있도록 차 안의 모든 것을 원격으로 멈출 수 있는 기능이 반드시 필요하다”고 말했다. 또 그는 승객이 직접 모바일 앱을 통해 문제를 해결하도록 한 웨이모의 조치에 대해 "당장 해결해야 하는 긴급 상황에서 휴대폰을 통해 해결하게 했다는 사실에 놀랐다"며 "인터넷 연결 문제 뿐 아니라 사용자 친화적이지 않은 앱은 많은 오류를 일으킬 위험이 크다"라고 지적했다.

2025.01.09 17:13이정현

다이렉트클라우랩, 고용노동부 '대한민국 일⋅생활 균형 우수기업' 선정

글로벌 클라우드 스토리지 전문기업 다이렉트클라우드랩(대표 안정선)이 고용노동부의 '대한민국 일⋅생활 균형 우수기업'으로 선정됐다. 고용노동부는 산업통상자원부, 중소벤처기업부, 한국경영자총협회, 대한상공회의소, 중소기업중앙회 등 관계부처 및 경제단체 합동으로 대한민국 일⋅생활 균형 우수기업을 뽑았다. 우리 사회는 초저출생 위기 상황에서 유연근무와 일육아 병행이 중요한 과제로 떠올랐다. 이에 정부부처와 경제단체는 유연한 근무와 일과 육아를 병행할 수 있는 우수 환경과 문화를 가진 기업을 선정해 관련 사례를 확산한다. 다이렉트클라우드랩은 기업들이 효율적으로 재택 원격 근무를 할 수 있게 지원하는 클라우드 스토리지를 서비스한다. 다이렉트 클라우드 스토리지는 직원이 언제 어디서나 주요 데이터에 접속해 안전하게 업무를 처리할 수 있는 기반 서비스다. 다이렉트 클라우드는 파일 서버에서 클라우드 서비스로의 단순한 이전에 그치지 않고 보안과 협업, 데이터활용, 비용절감 등 문제를 해결한다. 다이렉트클라우드랩은 일과 생활의 균형을 맞출 수 있는 서비스를 제공하는 것은 물론 사내에도 유연 근무를 활성화하고 있다. 이외에 휴가사용, 일육아 병행, 일하는 방식과 문화 등에서 우수한 기업으로 선정됐다. 다이렉트클라우드는 이번 우수기업 선정으로 정기 근로감독을 면제와 관세조사 유예, 금리 우대의 혜택을 받게됐다. 또, 기술보증, 신용보증, 출입국, 중소기업 정책자금 우대 등의 혜택도 받는다. 안정선 대표는 “다이렉트클라우드는 중소기업부터 대기업에 이르기까지 유연 근무를 안전하고 효율적으로 운영할 수 있는 법인용 클라우드 스토리지 서비스”라면서 “이미 2000개 이상의 기업들이 다이렉트클라우드를 통해 보안을 강화하면서 편리한 협업이 가능한 유연한 근무 문화를 정착시켰다”고 말했다.

2024.12.09 11:15김인순

'AI 서울 기업 서약' 참여한 6개사, 안전 개발 환경 조성

지난 5월 '인공지능(AI) 서울 기업 서약'에 참여한 네이버, LG AI연구원, 카카오 등 국내 6개 기업이 지난달 AI 위험관리 프레임워크 구축을 마쳤다. 과학기술정보통신부는 26일 서울 용산구 전쟁기념관에서 'AI 신뢰·안전성 컨퍼런스'를 개최하고 이런 산업 정책 동향을 공유했다. 이날 행사에는 서울 기업 서약에 서명한 국내 6개 기업 관계자가 모두 참석했다. AI 서울 기업 서약은 기업들이 지난 5월 'AI 서울 정상회의' 개최에 맞춰 책임 있는 AI 개발을 추진한다는 내용을 담은 발표다. 우선 네이버는 지난 6월 'AI 세이프티 프레임워크(ASF)'를 구축했다고 발표했다. 여기에는 평가 대상, 시스템 도메인 분야에 대한 고려, 내부 거버넌스, 협업 구조에 대한 내용이 담겨있다. 또 프론티어 AI 위험을 모델 자체로부터 오는 통제력 상실 위험, 악의적 의도를 가진 사용자로 인한 악용 위험으로 나눠서 접근할 필요성도 제기했다. 발표를 진행한 네이버 허상우 연구원은 "ASF는 프론티어 AI 모델과 관련한 위험 관리 체계에 대한 약속"이라고 강조했다. 카카오도 지난달 'AI 세이프티 이니셔티브(ASI)' 구축을 마쳤다고 발표했다. ASI는 AI 서비스 리스크를 사전 평가·관리하기 위한 전사적 리스크 관리 시스템이다. 카카오는 서비스 개발 시 리스크 관리 사이클을 수행하고 그 결과를 전사 리스크 관리 위원회를 통해 검토한 뒤 최종적으로 CEO 승인을 받아 출시한다. 카카오 김경훈 이사는 "ASI를 통해 AI 리스크뿐 아니라 모든 카카오 서비스 리스크를 다룰 것"이라고 강조했다. LG AI연구원은 내년 3월부터 AI 위험을 미리 파악하고 해결하는 'AI 윤리 영향 평가'를 모든 프로젝트에 적용한다고 밝혔다. 또 내년 상반기 유네스코와 협업해 만든 AI 윤리교육(MOOC) 가이드라인 제작도 마칠 예정이라고 했다. 이 외에도 KT와 SKT, 삼성전자도 AI 위험성을 줄일 수 있는 프레임워크 구축 진행 상황을 설명했다. 과기정통부 송상훈 정보통신정책실장은 "민간 자율에 기반한 책임 있는 AI 개발·활용 문화가 확산할 수 있도록 정책 지원을 강화할 것"이라며 "첨단 AI의 잠재적 위험에 대비해 AI 안전연구소를 출범하고 체계적으로 대응해 나가겠다"고 밝혔다.

2024.11.26 16:19김미정

전기안전공사, 지자체와 UPS 안전성 평가 인프라 구축

한국전기안전공사(대표 남화영)는 15일 전북도·완주군과 '대용량·고출력 무정전전원장치(UPS) 위험성 평가 및 안전기술 개발을 위한 업무협약'을 체결했다고 밝혔다. 이날 협약은 산업통상자원부의 2024년 에너지기술개발사업인 '무정전전원장치 위험성 평가 및 안전기술 개발'을 위한 상호 협조체제 마련을 위해 진행됐다. 협약서에는 세계 최초 RE100 기반 UPS 관련 설비를 전북 완주테크노밸리 제2일반산업단지(약 4천700㎡)에 구축하기 위해 전북도·완주군이 공동으로 정부예산 확보와 사업계획 수립 등에 공동 노력하는 방안 등이 담겼다. 전기안전공사 관계자는 “완주테크노밸리 제2산단은 인근에 에너지저장장치(ESS) 안정성 평가센터 등이 건립 중이어서 UPS 인프라와 관련 설비를 공유하는 등 시너지 효과를 낼 수 있는 최적의 입지”라고 설명했다. 남화영 전기안전공사 사장은 “무정전전원장치 안전성평가 분야 글로벌 기술 경쟁력 강화는 물론, 세계 선도산업 초격차를 위한 안전기술개발과 에너지저장장치의 글로벌 메카 조성 전략을 수행하기 위해 최선을 다하겠다”고 밝혔다. 한편, 최근 대규모 데이터센터 등의 잇단 건립으로 UPS 보급이 급증하고 있지만, 기기별 안전기준이 없어 UPS의 안전한 활용을 위한 체계적인 안전기준과 안전성 평가설비가 필요하다는 지적이 꾸준히 제기돼 왔다.

2024.10.15 16:06주문정

'안전한 AI 사용' 외친 美 빅테크, 제품 보안 강화 총력

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 이야기를 맛있게 보도하겠습니다. [편집자주] 미국 빅테크가 생성형 인공지능(AI) 기능 보안성을 한층 더 강화했다. 생성형 AI가 다양한 산업에 도입되면서 환각 현상을 비롯한 데이터 유출, 신원 도용, 해킹 등 위험 사례를 최소화하기 위해서다. 20일 미국 외신 사이버시큐리티 다이브 보도에 따르면, 연 매출 1억 달러(약 1천350억원) 이상에 해당하는 기업 경영진 다수가 "AI 애플리케이션 복잡성으로 취약점이 확대됐다"며 "사내 사이버 보안 태세가 약해졌다"고 밝혔다. 이에 아마존웹서비스(AWS)를 비롯한 미국 빅테크는 사용자 명령어에 대한 이해도를 높여 환각 현상을 줄이고, 보안 업그레이드로 사이버 공격과 데이터 유출 차단 줄이기에 나선 분위기다. AWS "생성형 AI 결과에 신뢰성 점수 매긴다" AWS는 생성형 AI 애플리케이션 관리·개발 플랫폼 '아마존베드록' 보안 기능을 맡는 가드레일을 업그레이드했다. 생성형 AI가 사용자 프롬프트 문맥 이해도를 높여 기존보다 더 정확한 답변을 낼 수 있게 돕는 '문맥 그라운딩 체크' 기능을 새로 탑재했다. 문맥 그라운딩 체크 기능 특장점은 객관적 수치를 통한 답변 필터링이다. 아마존베드록이 생성물에 신뢰성·정확성 점수를 자체적으로 매김으로써 답변 품질을 평가하는 식이다. 점수 매기는 기준은 문맥에 따라 다르다. 다만 공통으로 답변에 핵심 참조 내용이 포함됐는지, 질의 내용과 답변이 통일성 있는지, 답변과 질문 관련성이 얼마나 높은지를 측정한다. AWS코리아 김선수 AI·ML사업개발 매니저는 "점수 매기는 작업은 AWS 노하우를 통해 이뤄진다"고 설명했다. 이어 "답변에 AWS가 지정한 필수 출처 내용이 답변에 없으면 이를 사용자에게 제공하지 않는다"며 "답변 품질 점수가 평균보다 낮을 때도 이를 내놓지 않는다"고 강조했다. 마이크로소프트 "생성형 AI 보안도 AI로 지킨다" 마이크로소프트는 '코파일럿'과 보안 제품을 통합해 일반 솔루션뿐 아니라 AI 기반 제품 보호에 나섰다. 가장 대표적인 AI 보안 솔루션은 '마이크로소프트 코파일럿 포 시큐리티'다. 코파일럿 포 시큐리티는 약 78조개 넘는 보안 신호와 대규모 데이터, 위협 인텔리전스를 거대언어모델(LLM)과 결합해 인사이트를 제공할 수 있다. 이를 통해 사용 조직은 생성형 AI 솔루션 외부 위협을 신속히 감지하고 대응할 수 있다. 마이크로소프트는 생성형 AI 사용 중 발생할 수 있는 정보 유출 방지 솔루션도 운영하고 있다. 프리뷰로 제공되는 '코파일럿 인 마이크로소프트 엔트라 유저 리스크 인베스티게이션'은 마이크로소프트 엔트라에 탑재됐다. 이 솔루션은 사용자 개인정보 유출을 막고, 보안 위협이 발생했을 때 빠르게 대처 가능하도록 지원한다. 특히 사용자 위험을 파악해 적절한 가이드를 제공하고, 향후 발생할 수 있는 위협을 예측해 해결법을 제시할 수 있다. 세일즈포스 "믿을 만한 데이터로만 접근" 세일즈포스도 '세일즈포스 데이터 클라우드' 내 제품서 작동하는 생성형 AI 솔루션에 데이터 보안성을 높였다. 세일즈포스는 17일부터 19일까지 미국 샌프란시스코에서 열린 '드림포스 2024'에서 자율형 AI '에이전트 포스'에 이런 데이터 보안 기능을 적용했다. 에이전트 포스는 사용자 요청 없이도 관련 업무를 24시간 자율적으로 수행할 수 있는 로우코드 플랫폼이다. 데이터 클라우드 내에서 작동한다. 에이전트포스를 비롯한 데이터 클라우드 기반 솔루션은 AI를 통해 비구조화된 데이터를 자동으로 분류·라벨링한다. 실시간 데이터 관리가 일괄적으로 가능하다. 세일즈포스는 해당 제품 내 데이터 접근 권한도 세분화할 수 있다. 대규모 데이터 환경에서도 사용자 그룹별로 적절한 권한을 부여할 수 있는 보안 정책을 갖췄다. 데이터 접근 허용자만 이를 확인할 수 있는 셈이다. 이 외에도 기업이 스스로 암호화 키를 관리할 수도 있다. 데이터를 사용 중이거나 저장 중일때도 암호화된 상태로 데이터 보안 유지를 할 수 있다. 마크 베니오프 세일즈포스 최고경영자(CEO)는 행사 기조연설에서 "신뢰할 수 있는 데이터 관리 방식을 에이전트포스에 제공했다"며 "새로운 혁신과 고객 증가로 데이터 클라우드 모멘텀이 치솟을 것"이라고 재차 강조했다.

2024.09.20 16:07김미정

환경부, 국내 안전기준 부적합 해외직구 제품 69개 유통 차단

환경부는 올해 4월부터 최근까지 알리익스프레스·테무 등 해외 온라인 유통사의 558개 제품을 구매해 안전성을 조사한 결과, 69개 제품이 국내 안전기준에 부적합한 것으로 확인하고 국내 유통을 차단했다고 19일 밝혔다. 환경부가 안전성 조사를 실시한 558개 제품은 ▲방향제·코팅제 등 생활화학제품 143개 ▲귀걸이·목걸이 등 금속장신구 415개다. 이 가운데 69개 제품(생활화학제품 20개, 금속장신구 49개)이 '생활화학제품 및 살생물제의 안전관리에 관한 법률' '화학물질등록평가법' 등 국내 안전기준에 적합하지 않은 것으로 확인했다. 환경부는 안전성 조사 과정에서 국내 안전기준 부적합 제품이 확인되는 대로 해당 제품 정보를 초록누리와 소비자24에 등록하고 해외 온라인 유통사에 해당 제품의 판매 차단을 요청하고 관세법 제237조를 적용해 국내 반입이 차단되도록 관세청에 협조를 요청했다. 환경부는 이들 69개 제품이 온라인 유통사에서 차단 완료된 것을 확인하고 앞으로 해당 제품이 다시 판매되는지 여부를 지속해서 확인할 계획이다. 황계영 환경부 환경보건국장은 “해외직구 제품으로부터 국민 안전을 보호하기 위해 올해 말까지 생활화학제품·금속장신구 등에 대해 안전성 조사를 추가로 실시하고 그 결과를 공개할 계획”이라며 “해외 온라인 유통사에 국내 안전기준에 부적합한 제품의 판매 중단을 요청하고 관세청에는 해당 제품의 통관이 보류될 수 있도록 협조를 구하겠다”고 밝혔다.

2024.09.19 15:26주문정

마커스 뉴욕대 교수 "알트먼 못 믿어…언행불일치 잦아"

인지심리학자 게리 마커스 뉴욕대 교수가 샘 알트먼 오픈AI 최고경영자(CEO)를 신뢰할 수 없다고 밝혔다. 알트먼 CEO 발언과 행동이 일치하지 않은 사례가 많았다는 이유에서다. 5일 가디언에 따르면 마커스 교수는 "알트먼 오픈AI CEO가 세상에서 가장 큰 권력을 가진 인물이 됐다"며 "이는 매우 두려운 일"이라고 주장했다. 마커스 교수는 알트먼 CEO가 회사 이익을 위해 진실을 왜곡한 점을 지적했다. 알트먼 CEO가 지난해 미국 상원 청문회에서 한 발언을 근거로 들었다. 당시 알트먼 CEO는 청문회에서 "건강보험을 들 수 있을 정도의 돈만 벌고 있다"며 "오픈AI에 대한 지분은 없다"고 발언했다. 실제 그는 미국 최대 스타트업 액셀러레이터 기업인 와이 콤비네이터(Y Combinator) 주식을 소유해 간접적으로 오픈AI 지분을 가지고 있었다. 마커스 교수는 알트먼 CEO가 규제에 대해 솔직하지 않다고 지적했다. 청문회에서 AI 규제를 강력히 옹호했던 언행과 다르게 오픈AI는 지난 2022년부터 유럽연합(EU) AI법이 생성형 AI를 강력히 규제하지 못하도록 EU 당국에 로비해왔다. 지난해 11월 오픈AI 이사회가 알트먼 CEO를 "솔직하지 않다"며 해고하고 지난 5월에는 일리야 수츠케버 공동창업자 등 AI 안전과 관련된 주요 인사들이 잇따라 회사를 떠나는 등 내부적 논란이 있어 왔다. 이에 외신은 알트먼 CEO의 언행불일치가 회사 신뢰성을 떨어뜨린다고 지적했다. 이러한 상황에 대해 마커스 교수는 "AI 기술은 공공의 이익을 위해 투명하고 윤리적으로 관리돼야 한다"며 "안전하고 신뢰 가능한 기술 발전을 위해서는 시민들이 목소리를 높여야 한다"고 강조했다.

2024.08.05 12:17조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

"새 AI 질서 만드는 국가가 AI 산업 이끈다"

"인공지능(AI)을 안전하게 만드는 것은 중요하다. 현재 AI 안전성 중심으로 각국서 리더십 전쟁이 벌어지고 있다. 새로운 AI 질서를 만드는 국가가 AI 산업을 이끌 것이다." 하정우 네이버클라우드 AI혁신센터장은 26일 국회의원연구단체 '국회 AI 포럼'이 개최한 창립총회 및 기념세미나에서 이같이 밝혔다. 하정우 센터장은 최근 각국 정부가 AI 안전을 위해 새로운 투자를 활성화하고 있다고 밝혔다. 그는 "AI 시대 질서를 어느 국가가 만드느냐가 관건이다"며 "미국과 캐나다 등은 AI 안전연구소 중심으로 AI 질서를 세우는 중이다"고 강조했다. 각국이 AI 안전연구소를 통해 AI 안전성과 정책을 연구하고 있다는 의미다. 그는 이에 대한 예시로 올해 4월 나온 캐나다 정부 사례를 소개했다. 이 국가는 AI 안전 연구소 설립 운영에만 500억원을 투자한다고 발표했다. AI와 데이터 법안 실행을 통한 혁신 지원으로 50억원을 투자한다고 했다. 하 센터장은 "AI 안전연구소가 정책과 법을 만든 후, 이 법이 실효성 있게 현실에 적용되도록 투자하는 셈"이라고 설명했다. 이 외에 AI 학계와 산업계 활성화를 위해 총 2조4천억원 규모 투자를 진행키로 했다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 핵심 축이 될 것"이라고 밝혔다. "정부, 안전한 AI 키우려면 AI법 서둘러야" 오순영 디지털플랫폼정부위원회 AI데이터분과 위원장은 "글로벌 AI를 선도하기 위해선 입법은 필수"라고 재차 강조했다. 오순영 위원장은 "AI 정책 주도권을 잡는 자가 글로벌 AI를 선도할 것으로 보인다"고 주장했다. 그는 "미국은 이미 AI 위험 관리 프레임워크를 발표했고, 영국은 AI 신뢰 정책을 내놓은 바 있다"며 "이처럼 해외에선 AI 위험성 대처를 위한 표준을 정하기 시작했다"고 알렸다. 국내 AI법이 여전히 국회에 잠들어있다는 점도 지적했다. 그는 "한국에 AI법이 없다는 사실이 불안하다"며 "자칫 도입 시기가 늦어지면 해외 빅테크에 주도권을 맡기는 사태가 벌어질 수 있다"고 주장했다. 그는 "정책적 시기가 늦어지면 국내 기업과 개인은 AI 선택권을 잃을 수도 있다"며 "정부는 빠른 AI법 추진을 위한 노력을 다각적으로 기울여야 한다"고 덧붙였다.

2024.06.26 17:03김미정

'AI 안전팀' 해체 후 韓서 입 연 오픈AI…무슨 말 했나

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 'AI 서울 서밋'을 기점으로 안전성에 더 주의를 기울이겠다는 의사를 내비쳤다. 최근 사내 'AI 안전팀'을 전격 해체한 데 이어 AI 안전성을 강조하는 반(反) 샘 알트먼 세력들이 회사를 떠난 후 AI 안전보다 '수익'에 치중하는 것 아니냐는 지적에 따른 행보로 분석된다. 애슐리 판툴리아노(Ashley Pantuliano) 오픈AI 법률고문은 22일 서울 더 플라자 호텔에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에 참석한 후 기자와 만나 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 일들은 안전과 관련한 우리의 모든 관행들에 대해 확인이 필요한 가치 있는 것들이었다"고 밝혔다. 앞서 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 오픈AI 최고경영자(CEO)의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 이 같은 움직임에 대해 판툴리아노 법률고문은 "(이와 관련해) 더 할 말은 없을 듯 하다"면서도 "안전과 관련한 우리의 입장은 최근 뉴스룸을 통해 자세히 게재했다"고 설명했다. 실제 오픈AI는 최근의 AI 안전과 관련한 논란을 의식한 듯 지난 21일 뉴스룸을 통해 이와 관련된 입장을 밝혔다. 이는 같은 날 한국에서 'AI 서울 정상회의' 개최에 맞춰 오픈AI, MS, 구글 등 해외 기업을 비롯해 삼성전자와 네이버, 카카오, LG AI연구소 등 국내 기업 등 총 14개 기업이 '서울 서약'을 발표한 데 따른 것이다. 이 서약은 AI의 책임, 발전, 혜택 등 기업이 추구해 나갈 방향을 담은 자발적인 약속으로, 책임 있는 AI 개발 및 사용을 보장하고 AI의 지속가능한 발전과 혁신 추구, AI의 공평한 혜택을 보장하겠다는 것이 골자다. 이에 더해 오픈AI는 뉴스룸을 통해 10가지 안전 수칙을 운영하고 있음을 알렸다. 특히 출시 전 레드팀을 통해 안전성을 테스트함으로써 임계값인 '중간'을 넘을 경우 사후 완화 조치를 충분히 시행해 위험 점수를 낮출 때까지 서비스를 출시하지 않는다는 점을 강조했다. 최근 출시한 'GPT-4o' 역시 70명 이상의 외부 전문가의 평가를 통해 초기 점검 사항의 취약점을 보완할 수 있었다고 피력했다. 오픈AI는 오랜 시간 동안 안전성을 연구하고 투자한 덕분에 서비스 오류가 적을 뿐 아니라 유해한 콘텐츠를 선보일 가능성이 적은 스마트한 모델을 구축했다는 점도 자신있게 내세웠다. 자사 기술이 악용되는 것을 막기 위해 꾸준히 모니터링하고 있을 뿐 아니라 AI 모델 수명 주기를 고려해 다양한 단계에서 이에 맞는 안전 조치도 시행하고 있다는 점을 강조했다. 판툴리아노 법률고문은 "사전 데이터 학습부터 론칭까지 모델의 전 과정에서 단계적으로 유해성을 제거하기 위해 노력하고 있다"며 "인풋 단계가 아닌 결과물이 아웃풋이 돼 나가기 전에도 필터링 과정을 거치게 함으로써 안전성을 검증하는 것에 집중하고 있다"고 설명했다. 이어 "오픈AI도 레드팀을 통해 검증을 하고 그 결과물을 투명하게 공개해 사용자들의 신뢰를 쌓는 것을 중요하게 여기고 있다"며 "특히 자체 '안전 자문 위원회' 운영을 통해 모델이 개발된 후 배포하는 과정에서의 안전성 점검도 다시 한 번 더 철저하게 하고 있다"고 덧붙였다. 이 외에 오픈AI는 어린이 보호 조치를 '챗GPT'와 이미지 생성 AI 모델 '달리'에 구축했다는 점을 강조했다. 또 정부 및 이해관계자와 협력해 정치와 관련해 오해의 소지가 있는 콘텐츠를 생성하는 것도 막기 위해 노력하고 있다고 피력했다. 여기에 지적 재산과 데이터 보호를 최우선으로 생각하고 있을 뿐 아니라 고객의 보안에 대해서도 주의를 기울이고 있다고 설명했다. 오픈AI 측은 "안전한 의사 결정을 위해 여러 부서를 아우르는 안전 자문 위원회를 통해 모델 기능 보고서를 검토하고, 배포에 앞서 권장 사항을 제시한다"며 "최종 결정은 회사 경영진이 내리고, 이사회는 이러한 결정에 대한 감독권을 행사하는 과정을 거쳐 현재 유능하고 안전한 모델을 선보일 수 있었다"고 밝혔다. 그러면서 "점차 정교해지는 공격에 탄력적으로 대응할 수 있도록 보안 태세를 강화하고 주요 모델을 출시하기 전에 안전성을 테스트하는 데 더 많은 시간을 투자해야 한다는 점을 잘 알고 있다"며 "더 성능이 향상된 AI를 안전하고 유익하게 제공하기 위해 현장에선 풀어야 할 어려운 과제가 있지만, 앞으로 이에 잘 대응하는 모습을 꾸준히 공유해 나갈 것"이라고 덧붙였다.

2024.05.23 21:21장유미

KTR, 사용후 배터리 재사용 안전성 검증한다

KTR(한국화학융합시험연구원·원장 김현철)은 산업통상자원부 국가기술표준원으로부터 재사용전지 안전성검사기관으로 지정받았다고 30일 밝혔다. 재사용전지는 환경·자원보호를 위해 잔존수명이 70~80% 정도 남아 있는 사용 후 전지를 폐기하지 않고 에너지저장장치(ESS)나 캠핑용 파워뱅크 등으로 다시 사용하는 전지다. KTR은 지난해 10월 도입된 재사용전지 안전성 검사제도에 따라 전기자동차 등에서 사용된 전지를 폐기하지 않고 재사용해도 안전 등의 문제가 없는지를 검사, 검증하는 역할을 수행한다. 앞서 국표원은 개정된 전기용품·생활용품 안전관리법에 따라 2023년 10월 19일부터 안전성 검사기관의 검사를 받은 재사용 전지만 판매, 유통이 가능하도록 의무화했다. KTR은 기관 지정으로 재사용전지 안전기준인 KC 10031에 따라 사용 후 전지 사전검사, 전기적 검사, 기능 안정성 검토 등을 실시해 해당 전지의 재사용 적합 여부를 판단하게 된다. 한편, KTR은 스마트폰 등 휴대용 소형에서 산업용 중대형 이차전지, 전력변환장치 등 이차전지 모든 분야 시험평가 서비스를 제공한다. 또 지난해 산업부의 구독형 재사용 배터리(BaaS) 실증 기반 구축 사업 주관기관으로 선정돼 시험인증센터를 경북 구미에 조성하고 있는 등 이차전지 개발에서 재사용에 이르기까지 전주기 시험인증 서비스를 제공하고 있다.

2024.04.30 15:38주문정

한수원, 엔지니어링 체계 정착·지속가능성 확보 전문가 논의

한국수력원자력(대표 황주호)은 11일 서울 레스케이프 호텔에서 원전산업계 전문가와 교수 등 30여 명이 참석한 가운데 '원전운영 엔지니어링 체계 혁신 전문가 자문위원회'를 개최했다고 밝혔다. 이날 자문위원회에서는 한수원 엔지니어링 체계 구축 경과보고와 전문인력 양성방안 논의, 엔지니어링 체계의 성공적인 정착과 지속가능성 확보를 주제로 자문위원의 토론이 이어졌다. 한수원은 지난해 12월 16일 고도화된 설비 관리 체계인 '엔지니어링 체계'로 조직을 전환한 바 있다. 앞서 지난해 8월부터 사내외 원전 전문가로 자문위원을 구성하고 엔지니어링 체계 구축과 완벽한 정착을 위한 소통을 이어가고 있다. 황주호 한수원 사장은 “엔지니어링 체계는 원전 안전성과 효율성을 높이는 길”이라며 “선진화한 엔지니어링 체계를 우리 환경에 맞게 적용해 초격차 원자력 경쟁력을 갖추고, 나아가 운영체계도 수출 품목의 하나로 성장시킬 수 있도록 최선을 다하겠다”고 밝혔다.

2024.04.11 14:50주문정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 193만...교체 예약 대기 686만

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현