• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'SB'통합검색 결과 입니다. (3건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성바이오에피스, 아일리아 바이오시밀러 'SB15' 유럽 출시 가능해져

삼성바이오에피스가 안과질환 치료제 '아일리아'의 바이오시밀러 'SB15(성분명 애플리버셉트)'의 유럽 판매를 위해 오리지널 의약품 회사와 합의했다. 회사는 리제네론, 바이엘 등과 미국 및 캐나다를 제외한 지역에서 40mg/mL 제형에 대한 합의 및 라이선스 계약을 체결했다. 이에 따라 삼성바이오에피스는 이달 영국을 시작으로 오는 4월 유럽, 우리나라와 북미를 제외한 기타 국가에서 출시할 수 있게 됐다. SB15의 원본 의약품인 아일리아는 습성 연령 관련 황반변성 등의 안과 질환 치료제다. SB15는 지난 2024년 유럽연합 집행위원회(EC)로부터 허가를 받았다. 우리나라에는 같은 해 5월 출시됐다. 린다 최 삼성바이오에피스의 커머셜본부장은 “이번 합의는 안과 질환 환자들의 치료 접근성을 높이는 계기가 될 것”이라며 “유럽 및 세계 시장에서 해당 바이오의약품의 공급 확대를 가능하게 할 것”이라고 기대했다.

2026.01.30 10:27김양균 기자

'AI 투명성법' 다시 꺼낸 美 캘리포니아…오픈소스 살리고 빅테크 겨냥했다

미국 캘리포니아주가 대형 인공지능(AI) 기업에 안전 프로토콜 공개와 사고 보고를 의무화하는 법안을 재차 추진한다. 지난해 'SB 1047' AI 규제 법안이 거부된 이후 두 번째 시도로, 법적 책임은 제외하되 투명성 확보를 통해 신뢰 기반을 만들겠다는 계산이다. 10일 테크크런치에 따르면 스콧 위너 캘리포니아 주 상원의원은 AI 기업에 안전 대응 절차 공개와 사고 발생 시 보고 의무를 부과하는 'SB 53' 개정안을 발의했다. 이는 앞서 폐기된 'SB 1047' 법안의 수정판 성격으로, 기술 산업계와 정치권 간 충돌을 피하면서도 투명성 확보 요구를 유지한 형태다. 'SB 53'은 현재 주 의회 산하 '개인정보 및 소비자 보호 위원회'에 계류 중이다. 향후 여러 입법 절차를 거쳐 최종적으로 개빈 뉴섬 주지사의 서명을 받아야 한다. 개정안에는 ▲대형 AI 기업의 안전·보안 대응체계 공개 ▲위험 상황 발생 시 보고서 제출 ▲내부 고발자 보호 제도 도입이라는 세 가지 핵심 조항이 담겼다. 특히 AI로 인한 '중대한 위험'에 대한 기준을 구체화해 사망 또는 부상자 100명 이상 혹은 10억 달러(한화 약 1조4천억원) 이상 피해가 발생할 경우로 정의했다. 또 하나의 주요 내용은 '캘컴퓨트(CalCompute)'라는 이름의 공공 고성능 클라우드 컴퓨팅 인프라 구축 계획이다. 대형 AI 모델 개발에 필수적인 연산 자원이 빅테크에 집중된 상황에서 자본력이나 인프라가 부족한 스타트업과 학계가 기술 경쟁에서 배제되지 않도록 하기 위한 조치다. 이와 병행해 'SB 53'은 기존 오픈소스 모델을 활용하거나 대형 모델을 파인튜닝만 하는 개발자들에 대해서는 규제 부담을 최소화하도록 설계됐다. 기술 접근권은 넓히되 규제 타깃은 대형 개발사로 한정하는 구조다. 더불어 이번 법안은 전작인 'SB 1047'과 달리 AI 모델이 초래한 피해에 대해 개발사에게 직접적인 법적 책임을 묻지 않는다. 대신 AI 기업이 수행 중인 위험 대응 조치와 내부 절차를 외부에 공개하게 함으로써 간접적 책임 구조를 유도하고 있다. 이번 개정안은 캘리포니아주 AI 정책자문그룹의 권고를 반영한 결과물이다. 해당 그룹은 페이페이 리 스탠퍼드대학교 교수를 중심으로 구성됐으며 최근 발표한 최종 보고서에서 시스템 정보의 의무적 공개가 신뢰 가능한 증거 기반 정책환경을 만드는 핵심 요소라고 명시했다. 위너 의원실은 이 권고가 'SB 53' 조항에 큰 영향을 미쳤다고 밝혔다. 미국 연방 차원에서는 최근 AI 규제의 주정부 권한을 10년간 유예하는 법안이 검토됐으나 이달 초 상원에서 99대 1로 부결되며 무산됐다. 이에 따라 뉴욕주 등 다른 지역에서도 유사한 AI 규제 입법이 본격화되는 흐름이다. 업계 반응은 엇갈린다. 앤트로픽은 일정 수준의 투명성 확보 필요성을 인정하고 긍정적 입장을 보이고 있는데 비해 오픈AI, 구글, 메타 등은 여전히 조심스러운 태도를 유지하고 있다. 특히 최근 몇 달간 일부 대형 기업은 최신 모델 출시 후에도 안전 보고서를 공개하지 않아 책임 회피 논란을 자초한 바 있다. 일례로 구글은 '제미나이 2.5 프로' 모델을 발표한 이후 수개월 동안 안전 보고서를 제출하지 않았고 오픈AI 역시 'GPT-4.1'에 대한 공식 보고서를 생략했다. 이후 제3자 연구에서는 이 모델이 이전 버전보다 안전성 정렬 수준이 떨어진다는 분석도 나왔다. 지금까지 대형 AI 개발사들은 자발적으로 안전 보고서를 발간해왔지만 공개 시점과 내용 구성은 일정하지 않았다. 'SB 53'은 이 같은 임의성과 불일치를 법적 의무로 전환하는 첫 시도라는 점에서 시장의 주목을 받고 있다. 법안이 최종 통과된다면 대형 AI 개발사들은 현재보다 훨씬 더 많은 정보를 외부에 공유해야 할 것으로 예상된다. 지프 랄스턴 전 와이콤비네이터 회장은 "AI가 안전하게 개발되도록 만드는 건 선택이 아니라 전제조건"이라며 "연방 차원에서 아무런 진전이 없는 상황에서 캘리포니아가 모범적인 선례를 만들고 있다"고 평가했다.

2025.07.10 10:38조이환 기자

"무산된 SB 1047, 부활하나"…캘리포니아, AI 외부 규제안 다시 꺼냈다

캘리포니아가 인공지능(AI) 기술에 대한 새로운 규제 정책 구상을 내놨다. 지난해 포괄적 규제 법안이 주지사 거부권으로 무산된 뒤 다시 시도되는 조치로, 규제 대상에 대한 기준은 완화됐지만 외부 감시와 고위험 통제를 강하게 요구하는 방향이다. 18일 더버지에 따르면 미국 캘리포니아 주정부는 최근 AI 거버넌스 로드맵인 '캘리포니아 최첨단 정책 보고서'를 공개했다. 보고서는 페이페이 리 스탠퍼드 대학교 교수, 제니퍼 차이스 UC버클리 교수 등 현지 AI·정책 전문가들이 공동 집필했으며 총 52쪽 분량으로 구성됐다. 이 보고서는 지난해 캘리포니아 의회를 통과한 AI 규제 법안 'SB 1047'이 주지사 거부권에 의해 무산된 이후 마련됐다. 당시 법안은 고비용 대형 모델에 대한 위험성 사전 테스트를 의무화하려 했지만 일률적이고 과도하다는 이유로 폐기됐다. 이에 개빈 뉴섬 주지사는 규제와 혁신을 함께 고려할 수 있는 새로운 정책 대안을 주문했고 이번 보고서가 그 결과물이다. 보고서는 AI 모델의 추론 능력과 사고의 연쇄(CoT) 방식 등 핵심 기술이 신속히 진화하고 있다고 지적했다. 특히 화학·생물·방사능·핵(CBRN) 무기와 관련한 위험성이 커지고 있으며 실제로 일부 기업이 해당 기능의 급속한 향상을 자발적으로 보고한 사례도 언급됐다. 더불어 AI 기술의 파급력이 농업, 생명공학, 청정 기술, 교육, 금융, 의료, 교통 등 산업 전반에 미칠 수 있다고 분석했다. 특히 기술 활용을 촉진하는 동시에 위험성 관리가 병행되지 않으면 '돌이킬 수 없는 피해'가 발생할 수 있다고 경고했다. 다만 기존 AI 규제 논의에서 활용돼 온 '훈련에 투입된 연산량(컴퓨트) 기준'은 한계가 있다는 것이 보고서의 주장이다. 이 같은 지표는 초기 필터로는 활용할 수 있지만 실제 위험도나 사회적 파급력은 고려하지 못한다는 지적으로, AI 모델 도입 전 단계의 위험 평가와 실사용 단계에서의 영향 분석이 병행돼야 한다고 제안했다. 현행 AI 산업 전반의 문제로는 데이터 확보 방식, 보안 절차, 사전 테스트, 사회적 영향 분석 등 주요 과정에서의 구조적 불투명성이 지목됐다. 또 기업 스스로가 모델의 위험성을 충분히 이해하고 대응할 수 있다는 전제가 현실과 맞지 않는다고 판단했다. 이에 보고서는 제3자 평가 체계 도입을 핵심 방안으로 제시했다. 현재는 기업 자체 검증이나 계약된 외부 업체 중심으로 모델 안정성 평가가 이뤄지고 있지만 이는 검증 범위와 신뢰도 면에서 한계가 있다는 것이다. 제3자 평가는 다양한 배경의 전문가 수천 명이 참여할 수 있어 기업 내부 인력보다 범위와 시각 모두에서 우위에 있다는 주장이다. 동시에 제3자 평가자에 대한 법적·기술적 보호장치인 '세이프 하버(Safe Harbor)' 조항 신설과, AI 피해를 입은 이용자들이 신고할 수 있는 체계 마련도 제안했다. 이 같은 보호 조치는 사이버 보안 분야에서 제3자 침투 테스트를 보호하는 법제도와 유사한 방식이다. 보고서는 "완벽한 안전 정책이라도 모든 피해를 100% 막을 수 없다"며 "대형 모델의 상용화가 본격화된 만큼 실제 사례에서 나타나는 피해를 추적하고 이해하는 작업이 더욱 중요해지고 있다"고 밝혔다. 스콧 싱어 보고서 공동 저자는 더버지와의 인터뷰에서 "연방 차원의 AI 정책 논의가 완전히 재편되고 있다"며 "캘리포니아는 상식적인 규제 조화를 이끌 수 있는 선도 주체가 될 수 있다"고 밝혔다.

2025.06.18 09:21조이환 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성·SK·마이크론, 엔비디아향 HBM4 퀄 2분기 완료

설 연휴 ‘한복 무료입장’ 문화·관광지 확인해보세요

"휴머노이드 안전기준 만든다"…ISO 국제표준 논의 본격화

"AI 정부 목표는 '공기 같은 서비스'…국민이 편해진 줄도 모르게 혁신할 것"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.