• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'Wi-Fi 안전성'통합검색 결과 입니다. (28건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'안전한 AI 사용' 외친 美 빅테크, 제품 보안 강화 총력

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 이야기를 맛있게 보도하겠습니다. [편집자주] 미국 빅테크가 생성형 인공지능(AI) 기능 보안성을 한층 더 강화했다. 생성형 AI가 다양한 산업에 도입되면서 환각 현상을 비롯한 데이터 유출, 신원 도용, 해킹 등 위험 사례를 최소화하기 위해서다. 20일 미국 외신 사이버시큐리티 다이브 보도에 따르면, 연 매출 1억 달러(약 1천350억원) 이상에 해당하는 기업 경영진 다수가 "AI 애플리케이션 복잡성으로 취약점이 확대됐다"며 "사내 사이버 보안 태세가 약해졌다"고 밝혔다. 이에 아마존웹서비스(AWS)를 비롯한 미국 빅테크는 사용자 명령어에 대한 이해도를 높여 환각 현상을 줄이고, 보안 업그레이드로 사이버 공격과 데이터 유출 차단 줄이기에 나선 분위기다. AWS "생성형 AI 결과에 신뢰성 점수 매긴다" AWS는 생성형 AI 애플리케이션 관리·개발 플랫폼 '아마존베드록' 보안 기능을 맡는 가드레일을 업그레이드했다. 생성형 AI가 사용자 프롬프트 문맥 이해도를 높여 기존보다 더 정확한 답변을 낼 수 있게 돕는 '문맥 그라운딩 체크' 기능을 새로 탑재했다. 문맥 그라운딩 체크 기능 특장점은 객관적 수치를 통한 답변 필터링이다. 아마존베드록이 생성물에 신뢰성·정확성 점수를 자체적으로 매김으로써 답변 품질을 평가하는 식이다. 점수 매기는 기준은 문맥에 따라 다르다. 다만 공통으로 답변에 핵심 참조 내용이 포함됐는지, 질의 내용과 답변이 통일성 있는지, 답변과 질문 관련성이 얼마나 높은지를 측정한다. AWS코리아 김선수 AI·ML사업개발 매니저는 "점수 매기는 작업은 AWS 노하우를 통해 이뤄진다"고 설명했다. 이어 "답변에 AWS가 지정한 필수 출처 내용이 답변에 없으면 이를 사용자에게 제공하지 않는다"며 "답변 품질 점수가 평균보다 낮을 때도 이를 내놓지 않는다"고 강조했다. 마이크로소프트 "생성형 AI 보안도 AI로 지킨다" 마이크로소프트는 '코파일럿'과 보안 제품을 통합해 일반 솔루션뿐 아니라 AI 기반 제품 보호에 나섰다. 가장 대표적인 AI 보안 솔루션은 '마이크로소프트 코파일럿 포 시큐리티'다. 코파일럿 포 시큐리티는 약 78조개 넘는 보안 신호와 대규모 데이터, 위협 인텔리전스를 거대언어모델(LLM)과 결합해 인사이트를 제공할 수 있다. 이를 통해 사용 조직은 생성형 AI 솔루션 외부 위협을 신속히 감지하고 대응할 수 있다. 마이크로소프트는 생성형 AI 사용 중 발생할 수 있는 정보 유출 방지 솔루션도 운영하고 있다. 프리뷰로 제공되는 '코파일럿 인 마이크로소프트 엔트라 유저 리스크 인베스티게이션'은 마이크로소프트 엔트라에 탑재됐다. 이 솔루션은 사용자 개인정보 유출을 막고, 보안 위협이 발생했을 때 빠르게 대처 가능하도록 지원한다. 특히 사용자 위험을 파악해 적절한 가이드를 제공하고, 향후 발생할 수 있는 위협을 예측해 해결법을 제시할 수 있다. 세일즈포스 "믿을 만한 데이터로만 접근" 세일즈포스도 '세일즈포스 데이터 클라우드' 내 제품서 작동하는 생성형 AI 솔루션에 데이터 보안성을 높였다. 세일즈포스는 17일부터 19일까지 미국 샌프란시스코에서 열린 '드림포스 2024'에서 자율형 AI '에이전트 포스'에 이런 데이터 보안 기능을 적용했다. 에이전트 포스는 사용자 요청 없이도 관련 업무를 24시간 자율적으로 수행할 수 있는 로우코드 플랫폼이다. 데이터 클라우드 내에서 작동한다. 에이전트포스를 비롯한 데이터 클라우드 기반 솔루션은 AI를 통해 비구조화된 데이터를 자동으로 분류·라벨링한다. 실시간 데이터 관리가 일괄적으로 가능하다. 세일즈포스는 해당 제품 내 데이터 접근 권한도 세분화할 수 있다. 대규모 데이터 환경에서도 사용자 그룹별로 적절한 권한을 부여할 수 있는 보안 정책을 갖췄다. 데이터 접근 허용자만 이를 확인할 수 있는 셈이다. 이 외에도 기업이 스스로 암호화 키를 관리할 수도 있다. 데이터를 사용 중이거나 저장 중일때도 암호화된 상태로 데이터 보안 유지를 할 수 있다. 마크 베니오프 세일즈포스 최고경영자(CEO)는 행사 기조연설에서 "신뢰할 수 있는 데이터 관리 방식을 에이전트포스에 제공했다"며 "새로운 혁신과 고객 증가로 데이터 클라우드 모멘텀이 치솟을 것"이라고 재차 강조했다.

2024.09.20 16:07김미정

환경부, 국내 안전기준 부적합 해외직구 제품 69개 유통 차단

환경부는 올해 4월부터 최근까지 알리익스프레스·테무 등 해외 온라인 유통사의 558개 제품을 구매해 안전성을 조사한 결과, 69개 제품이 국내 안전기준에 부적합한 것으로 확인하고 국내 유통을 차단했다고 19일 밝혔다. 환경부가 안전성 조사를 실시한 558개 제품은 ▲방향제·코팅제 등 생활화학제품 143개 ▲귀걸이·목걸이 등 금속장신구 415개다. 이 가운데 69개 제품(생활화학제품 20개, 금속장신구 49개)이 '생활화학제품 및 살생물제의 안전관리에 관한 법률' '화학물질등록평가법' 등 국내 안전기준에 적합하지 않은 것으로 확인했다. 환경부는 안전성 조사 과정에서 국내 안전기준 부적합 제품이 확인되는 대로 해당 제품 정보를 초록누리와 소비자24에 등록하고 해외 온라인 유통사에 해당 제품의 판매 차단을 요청하고 관세법 제237조를 적용해 국내 반입이 차단되도록 관세청에 협조를 요청했다. 환경부는 이들 69개 제품이 온라인 유통사에서 차단 완료된 것을 확인하고 앞으로 해당 제품이 다시 판매되는지 여부를 지속해서 확인할 계획이다. 황계영 환경부 환경보건국장은 “해외직구 제품으로부터 국민 안전을 보호하기 위해 올해 말까지 생활화학제품·금속장신구 등에 대해 안전성 조사를 추가로 실시하고 그 결과를 공개할 계획”이라며 “해외 온라인 유통사에 국내 안전기준에 부적합한 제품의 판매 중단을 요청하고 관세청에는 해당 제품의 통관이 보류될 수 있도록 협조를 구하겠다”고 밝혔다.

2024.09.19 15:26주문정

마커스 뉴욕대 교수 "알트먼 못 믿어…언행불일치 잦아"

인지심리학자 게리 마커스 뉴욕대 교수가 샘 알트먼 오픈AI 최고경영자(CEO)를 신뢰할 수 없다고 밝혔다. 알트먼 CEO 발언과 행동이 일치하지 않은 사례가 많았다는 이유에서다. 5일 가디언에 따르면 마커스 교수는 "알트먼 오픈AI CEO가 세상에서 가장 큰 권력을 가진 인물이 됐다"며 "이는 매우 두려운 일"이라고 주장했다. 마커스 교수는 알트먼 CEO가 회사 이익을 위해 진실을 왜곡한 점을 지적했다. 알트먼 CEO가 지난해 미국 상원 청문회에서 한 발언을 근거로 들었다. 당시 알트먼 CEO는 청문회에서 "건강보험을 들 수 있을 정도의 돈만 벌고 있다"며 "오픈AI에 대한 지분은 없다"고 발언했다. 실제 그는 미국 최대 스타트업 액셀러레이터 기업인 와이 콤비네이터(Y Combinator) 주식을 소유해 간접적으로 오픈AI 지분을 가지고 있었다. 마커스 교수는 알트먼 CEO가 규제에 대해 솔직하지 않다고 지적했다. 청문회에서 AI 규제를 강력히 옹호했던 언행과 다르게 오픈AI는 지난 2022년부터 유럽연합(EU) AI법이 생성형 AI를 강력히 규제하지 못하도록 EU 당국에 로비해왔다. 지난해 11월 오픈AI 이사회가 알트먼 CEO를 "솔직하지 않다"며 해고하고 지난 5월에는 일리야 수츠케버 공동창업자 등 AI 안전과 관련된 주요 인사들이 잇따라 회사를 떠나는 등 내부적 논란이 있어 왔다. 이에 외신은 알트먼 CEO의 언행불일치가 회사 신뢰성을 떨어뜨린다고 지적했다. 이러한 상황에 대해 마커스 교수는 "AI 기술은 공공의 이익을 위해 투명하고 윤리적으로 관리돼야 한다"며 "안전하고 신뢰 가능한 기술 발전을 위해서는 시민들이 목소리를 높여야 한다"고 강조했다.

2024.08.05 12:17조이환

오픈AI, 美 정부에 'GPT-5' 우선 공개

오픈AI가 차세대 인공지능(AI) 모델 'GPT-5' 출시 전 안전성 검증을 위해 미국 정부에 우선 공개하기로 했다. 테크크런치 등 외신은 최근 오픈AI가 최신 AI 모델 GPT-5 평가를 위해 미국 AI안전연구소와 손잡았다고 보도했다. 이번 협력으로 미국 AI안전연구소는 GPT-5가 전 세계 대중에 공개되기 전 기술 윤리·안전성을 공식적으로 검증할 방침이다. 알고리즘 편향성을 비롯한 환각현상, 사용 윤리 등을 검토할 예정이다. GPT-5가 검증 통과를 못 하면, 오픈AI는 이 모델 공개 시기를 미뤄야 한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 파트너십을 통해 GPT-5 안전성 검증을 확실히 인정받을 것"이라고 공식 홈페이지에서 밝혔다. 오픈AI는 지난해 영국 정부와 협력해 자사 AI 모델을 공유했을 뿐 아니라 알트먼 CEO가 직접 미국 상원 청문회에서 AI 규제 필요성을 강조한 바 있다. 다수 외신은 오픈AI의 이같은 행보가 AI 안전성에 소홀하단 이미지를 지우기 위한 것으로 해석했다. 오픈AI의 안전성 논란은 지난 5월부터 본격 등장했다. 오픈AI 엘렌 토너 전 이사가 "오픈AI는 AI 윤리·안전 강화보다 수익 창출에 급급했다"고 폭로하면서부터다. 토너 전 이사는 "알트먼 CEO가 이사회 동의 없이 스타트업 투자 계획을 발표했다"며 "이사회 발언을 묵살하고 비즈니스 확장만 신경 썼다"고 외신 언론에 밝혔다. 당시 오픈AI는 제품 안전성을 담당했던 '초정렬팀'도 해제했다. 팀을 이끈 일리야 수츠케버 오픈AI 공동창업자 겸 최고과학자도 이에 항의하며 회사를 떠났다. AI 안전 담당했던 직원들도 줄줄이 퇴사했다. 그 후 오픈AI에 첫 최고재무책임자(CFO)까지 생기면서 회사 정체성인 '비영리조직' 타이틀까지 잃을 수 있다는 우려가 나왔다. 오픈AI는 이런 상황을 모면하기 위해 안전·보안위원회를 6월 다시 설립했다. 미 국가안전보장국(NSA) 수장이자 미 4성 퇴역장군인 폴 나카소네를 이사회 멤버로 영입하기도 했다. 현재 나카소네 장군은 새로 구성된 이사회 멤버로서 보안 위원회에서 활동하고 있다. 오픈AI 브렛 테일러 이사회 의장은 "나카소네 장군은 사이버 보안에서 탁월한 경험을 갖췄다"며 "오픈AI가 일반인공지능(AGI) 개발을 안전하고 유익하게 진행하도록 도울 것"이라고 공식 홈페이지에서 발표했다. 외신은 오픈AI가 보안위원회 설립과 정보보안 최고 경력자 영입 등을 통해 AI 안전성에 소홀하다는 우려 지우기에 나선 것이라고 평했다.

2024.08.04 12:24조이환

"새 AI 질서 만드는 국가가 AI 산업 이끈다"

"인공지능(AI)을 안전하게 만드는 것은 중요하다. 현재 AI 안전성 중심으로 각국서 리더십 전쟁이 벌어지고 있다. 새로운 AI 질서를 만드는 국가가 AI 산업을 이끌 것이다." 하정우 네이버클라우드 AI혁신센터장은 26일 국회의원연구단체 '국회 AI 포럼'이 개최한 창립총회 및 기념세미나에서 이같이 밝혔다. 하정우 센터장은 최근 각국 정부가 AI 안전을 위해 새로운 투자를 활성화하고 있다고 밝혔다. 그는 "AI 시대 질서를 어느 국가가 만드느냐가 관건이다"며 "미국과 캐나다 등은 AI 안전연구소 중심으로 AI 질서를 세우는 중이다"고 강조했다. 각국이 AI 안전연구소를 통해 AI 안전성과 정책을 연구하고 있다는 의미다. 그는 이에 대한 예시로 올해 4월 나온 캐나다 정부 사례를 소개했다. 이 국가는 AI 안전 연구소 설립 운영에만 500억원을 투자한다고 발표했다. AI와 데이터 법안 실행을 통한 혁신 지원으로 50억원을 투자한다고 했다. 하 센터장은 "AI 안전연구소가 정책과 법을 만든 후, 이 법이 실효성 있게 현실에 적용되도록 투자하는 셈"이라고 설명했다. 이 외에 AI 학계와 산업계 활성화를 위해 총 2조4천억원 규모 투자를 진행키로 했다. 한국 정부도 올해 5월 개최한 '서울 AI 정상회의'서 안전연구소 설립 의지를 밝힌 바 있다. 당시 과학기술정보통신부는 "안전한 AI 기술과 산업 활성화를 위해 한국전자통신연구원(ETRI) 산하에 AI 안전연구소를 만들고 적극적인 투자를 아끼지 않을 것"이라고 밝힌 바 있다. 하 센터장은 "현재 이에 대한 정부의 투자와 지원이 기대된다"며 "글로벌 AI 질서를 이끌기 위한 핵심 축이 될 것"이라고 밝혔다. "정부, 안전한 AI 키우려면 AI법 서둘러야" 오순영 디지털플랫폼정부위원회 AI데이터분과 위원장은 "글로벌 AI를 선도하기 위해선 입법은 필수"라고 재차 강조했다. 오순영 위원장은 "AI 정책 주도권을 잡는 자가 글로벌 AI를 선도할 것으로 보인다"고 주장했다. 그는 "미국은 이미 AI 위험 관리 프레임워크를 발표했고, 영국은 AI 신뢰 정책을 내놓은 바 있다"며 "이처럼 해외에선 AI 위험성 대처를 위한 표준을 정하기 시작했다"고 알렸다. 국내 AI법이 여전히 국회에 잠들어있다는 점도 지적했다. 그는 "한국에 AI법이 없다는 사실이 불안하다"며 "자칫 도입 시기가 늦어지면 해외 빅테크에 주도권을 맡기는 사태가 벌어질 수 있다"고 주장했다. 그는 "정책적 시기가 늦어지면 국내 기업과 개인은 AI 선택권을 잃을 수도 있다"며 "정부는 빠른 AI법 추진을 위한 노력을 다각적으로 기울여야 한다"고 덧붙였다.

2024.06.26 17:03김미정

'AI 안전팀' 해체 후 韓서 입 연 오픈AI…무슨 말 했나

챗GPT 등을 앞세워 전 세계 인공지능(AI) 산업을 이끌고 있는 미국 오픈AI가 'AI 서울 서밋'을 기점으로 안전성에 더 주의를 기울이겠다는 의사를 내비쳤다. 최근 사내 'AI 안전팀'을 전격 해체한 데 이어 AI 안전성을 강조하는 반(反) 샘 알트먼 세력들이 회사를 떠난 후 AI 안전보다 '수익'에 치중하는 것 아니냐는 지적에 따른 행보로 분석된다. 애슐리 판툴리아노(Ashley Pantuliano) 오픈AI 법률고문은 22일 서울 더 플라자 호텔에서 열린 'AI와 데이터 거버넌스 국제 컨퍼런스'에 참석한 후 기자와 만나 "오픈AI는 여전히 안전에 매우 집중하고 있다"며 "최근 일들은 안전과 관련한 우리의 모든 관행들에 대해 확인이 필요한 가치 있는 것들이었다"고 밝혔다. 앞서 오픈AI는 사내 '수퍼얼라인먼트(superalignment)'팀을 해체하고 팀원들을 사내 여러 팀으로 재배치했다. 작년 7월 만들어진 이 팀은 오픈AI 공동 창립자 중 한 명으로 최근 회사를 떠난 일리야 수츠케버 최고과학자가 이끌었다. 이곳에선 고도로 발전한 AI가 사람의 의지를 배반하거나 인류를 해치지 않도록 통제하는 방법을 연구했다. 수츠케버와 함께 이 팀의 공동 리더였던 얀 리이크는 지난 18일 "오픈AI에서의 모든 직위를 내려놨다"며 "우리 팀을 사랑하지만 회사에서 AI 안전은 반짝이는(shiny) 제품에 밀려 뒷전이 됐다"고 밝혔다. 그러면서 "지난 수개월 동안 자신이 이끄는 팀이 사내 우선순위에서 밀려났다"며 "중요한 연구 수행을 위한 지원을 확보할 수 없었다"고 토로했다. 업계에선 이 일을 두고 AI 기술 개발 경쟁이 치열해지면서 'AI 윤리' 문제가 뒷전으로 밀려나는 상황이 벌어진 것이라고 해석했다. 또 오픈AI의 설립 취지와 다소 다르게 샘 알트먼 오픈AI 최고경영자(CEO)의 수익성 추구 움직임이 갈수록 강화되고 있다는 점에서 우려도 표했다. 이 같은 움직임에 대해 판툴리아노 법률고문은 "(이와 관련해) 더 할 말은 없을 듯 하다"면서도 "안전과 관련한 우리의 입장은 최근 뉴스룸을 통해 자세히 게재했다"고 설명했다. 실제 오픈AI는 최근의 AI 안전과 관련한 논란을 의식한 듯 지난 21일 뉴스룸을 통해 이와 관련된 입장을 밝혔다. 이는 같은 날 한국에서 'AI 서울 정상회의' 개최에 맞춰 오픈AI, MS, 구글 등 해외 기업을 비롯해 삼성전자와 네이버, 카카오, LG AI연구소 등 국내 기업 등 총 14개 기업이 '서울 서약'을 발표한 데 따른 것이다. 이 서약은 AI의 책임, 발전, 혜택 등 기업이 추구해 나갈 방향을 담은 자발적인 약속으로, 책임 있는 AI 개발 및 사용을 보장하고 AI의 지속가능한 발전과 혁신 추구, AI의 공평한 혜택을 보장하겠다는 것이 골자다. 이에 더해 오픈AI는 뉴스룸을 통해 10가지 안전 수칙을 운영하고 있음을 알렸다. 특히 출시 전 레드팀을 통해 안전성을 테스트함으로써 임계값인 '중간'을 넘을 경우 사후 완화 조치를 충분히 시행해 위험 점수를 낮출 때까지 서비스를 출시하지 않는다는 점을 강조했다. 최근 출시한 'GPT-4o' 역시 70명 이상의 외부 전문가의 평가를 통해 초기 점검 사항의 취약점을 보완할 수 있었다고 피력했다. 오픈AI는 오랜 시간 동안 안전성을 연구하고 투자한 덕분에 서비스 오류가 적을 뿐 아니라 유해한 콘텐츠를 선보일 가능성이 적은 스마트한 모델을 구축했다는 점도 자신있게 내세웠다. 자사 기술이 악용되는 것을 막기 위해 꾸준히 모니터링하고 있을 뿐 아니라 AI 모델 수명 주기를 고려해 다양한 단계에서 이에 맞는 안전 조치도 시행하고 있다는 점을 강조했다. 판툴리아노 법률고문은 "사전 데이터 학습부터 론칭까지 모델의 전 과정에서 단계적으로 유해성을 제거하기 위해 노력하고 있다"며 "인풋 단계가 아닌 결과물이 아웃풋이 돼 나가기 전에도 필터링 과정을 거치게 함으로써 안전성을 검증하는 것에 집중하고 있다"고 설명했다. 이어 "오픈AI도 레드팀을 통해 검증을 하고 그 결과물을 투명하게 공개해 사용자들의 신뢰를 쌓는 것을 중요하게 여기고 있다"며 "특히 자체 '안전 자문 위원회' 운영을 통해 모델이 개발된 후 배포하는 과정에서의 안전성 점검도 다시 한 번 더 철저하게 하고 있다"고 덧붙였다. 이 외에 오픈AI는 어린이 보호 조치를 '챗GPT'와 이미지 생성 AI 모델 '달리'에 구축했다는 점을 강조했다. 또 정부 및 이해관계자와 협력해 정치와 관련해 오해의 소지가 있는 콘텐츠를 생성하는 것도 막기 위해 노력하고 있다고 피력했다. 여기에 지적 재산과 데이터 보호를 최우선으로 생각하고 있을 뿐 아니라 고객의 보안에 대해서도 주의를 기울이고 있다고 설명했다. 오픈AI 측은 "안전한 의사 결정을 위해 여러 부서를 아우르는 안전 자문 위원회를 통해 모델 기능 보고서를 검토하고, 배포에 앞서 권장 사항을 제시한다"며 "최종 결정은 회사 경영진이 내리고, 이사회는 이러한 결정에 대한 감독권을 행사하는 과정을 거쳐 현재 유능하고 안전한 모델을 선보일 수 있었다"고 밝혔다. 그러면서 "점차 정교해지는 공격에 탄력적으로 대응할 수 있도록 보안 태세를 강화하고 주요 모델을 출시하기 전에 안전성을 테스트하는 데 더 많은 시간을 투자해야 한다는 점을 잘 알고 있다"며 "더 성능이 향상된 AI를 안전하고 유익하게 제공하기 위해 현장에선 풀어야 할 어려운 과제가 있지만, 앞으로 이에 잘 대응하는 모습을 꾸준히 공유해 나갈 것"이라고 덧붙였다.

2024.05.23 21:21장유미

KTR, 사용후 배터리 재사용 안전성 검증한다

KTR(한국화학융합시험연구원·원장 김현철)은 산업통상자원부 국가기술표준원으로부터 재사용전지 안전성검사기관으로 지정받았다고 30일 밝혔다. 재사용전지는 환경·자원보호를 위해 잔존수명이 70~80% 정도 남아 있는 사용 후 전지를 폐기하지 않고 에너지저장장치(ESS)나 캠핑용 파워뱅크 등으로 다시 사용하는 전지다. KTR은 지난해 10월 도입된 재사용전지 안전성 검사제도에 따라 전기자동차 등에서 사용된 전지를 폐기하지 않고 재사용해도 안전 등의 문제가 없는지를 검사, 검증하는 역할을 수행한다. 앞서 국표원은 개정된 전기용품·생활용품 안전관리법에 따라 2023년 10월 19일부터 안전성 검사기관의 검사를 받은 재사용 전지만 판매, 유통이 가능하도록 의무화했다. KTR은 기관 지정으로 재사용전지 안전기준인 KC 10031에 따라 사용 후 전지 사전검사, 전기적 검사, 기능 안정성 검토 등을 실시해 해당 전지의 재사용 적합 여부를 판단하게 된다. 한편, KTR은 스마트폰 등 휴대용 소형에서 산업용 중대형 이차전지, 전력변환장치 등 이차전지 모든 분야 시험평가 서비스를 제공한다. 또 지난해 산업부의 구독형 재사용 배터리(BaaS) 실증 기반 구축 사업 주관기관으로 선정돼 시험인증센터를 경북 구미에 조성하고 있는 등 이차전지 개발에서 재사용에 이르기까지 전주기 시험인증 서비스를 제공하고 있다.

2024.04.30 15:38주문정

한수원, 엔지니어링 체계 정착·지속가능성 확보 전문가 논의

한국수력원자력(대표 황주호)은 11일 서울 레스케이프 호텔에서 원전산업계 전문가와 교수 등 30여 명이 참석한 가운데 '원전운영 엔지니어링 체계 혁신 전문가 자문위원회'를 개최했다고 밝혔다. 이날 자문위원회에서는 한수원 엔지니어링 체계 구축 경과보고와 전문인력 양성방안 논의, 엔지니어링 체계의 성공적인 정착과 지속가능성 확보를 주제로 자문위원의 토론이 이어졌다. 한수원은 지난해 12월 16일 고도화된 설비 관리 체계인 '엔지니어링 체계'로 조직을 전환한 바 있다. 앞서 지난해 8월부터 사내외 원전 전문가로 자문위원을 구성하고 엔지니어링 체계 구축과 완벽한 정착을 위한 소통을 이어가고 있다. 황주호 한수원 사장은 “엔지니어링 체계는 원전 안전성과 효율성을 높이는 길”이라며 “선진화한 엔지니어링 체계를 우리 환경에 맞게 적용해 초격차 원자력 경쟁력을 갖추고, 나아가 운영체계도 수출 품목의 하나로 성장시킬 수 있도록 최선을 다하겠다”고 밝혔다.

2024.04.11 14:50주문정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 2분기 영업이익 반토막...美 트럼프 관세 영향

무너지는 중소웹툰플랫폼…네카오, 양강 체제 굳어진다

정부 요청에…유통업계, 라면·빵·커피 등 ‘최대 반값 할인’

LG엔솔, IRA 세액공제 없이 흑자 달성…저점 통과 기대↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.