• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
인공지능
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'몰트봇'통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, '오픈클로' 창시자 영입…"행동하는 AI 시대 연다"

오픈AI가 스스로 행동하는 '에이전트(Agent)' 시장 선점 위해 승부수를 던졌다. 화제의 개인용 AI 에이전트 프로젝트 '오픈클로(OpenClaw)' 창시자 피터 슈타인버거를 영입하며 차세대 핵심 제품 개발에 박차를 가한다. 샘 알트먼 오픈AI 최고경영자(CEO)는 17일 소셜플랫폼 엑스(X)를 통해 "피터 슈타인버거가 차세대 개인용 에이전트를 이끌기 위해 오픈AI에 합류한다"고 공식 발표했다. 샘 알트먼은 슈타인버거에 대해 "매우 똑똑한 에이전트들이 서로 상호작용하며 사람들에게 유용한 일을 수행하는 미래에 대해 놀라운 아이디어를 가진 인물"이라고 극찬하며 "이 영역은 조만간 오픈AI 제품군의 핵심이다"라는 글을 남겼다. 이는 오픈AI의 무게 중심이 텍스트 생성에서 실질적인 업무를 수행하는 '행동형 AI'로 이동하고 있음을 시사한다. 슈타인버거 역시 같은 날 블로그를 통해 합류 배경을 직접 밝혔다. 그는 "지난 몇 주간 오픈클로가 예상 밖의 주목을 받으며 수많은 투자와 사업 제안이 쏟아졌지만 오픈클로를 거대 기업으로 키우는 일에는 흥미가 없었다"고 선을 그었다. 그는 "지난 13년간 창업을 경험하며 많은 것을 배웠다. 내가 진정 원하는 것은 또 다른 대기업을 만드는 것이 아니라 세상을 바꾸는 일"이라며 "오픈AI와 협력하는 것이 이를 가장 빠르게 실현하는 방법"이라고 설명했다. 특히 그는 차기 목표로 "어머니도 쓸 수 있는 에이전트"를 제시했다. 기술에 능숙한 마니아들뿐만 아니라 일반 사용자도 직관적으로 사용할 수 있는 안전한 개인용 에이전트를 만들겠다는 포부다. 이를 위해 그는 지난주 샌프란시스코에서 주요 AI 연구소들과 논의를 거쳤으며, 최신 연구와 모델에 대한 접근 권한이 필수적이라고 판단해 오픈AI행을 택했다. 오픈클로의 거취도 확정됐다. 샘 알트먼 CEO와 슈타인버거는 오픈클로가 오픈AI에 흡수되지 않고 독립적인 재단 형태의 오픈소스 프로젝트로 유지될 것이라고 밝혔다. 샘 알트먼 CEO는 "미래는 극도로 멀티 에이전트 중심이 될 것이며 그 일환으로 오픈소스를 지원하는 것이 중요하다"고 설명했다. 상용 제품 개발과 오픈소스 생태계 지원을 병행하는 '투트랙 전략'으로 해석된다. 오픈클로는 불과 몇 주 전까지만 해도 클로드봇(Clawdbot)이라는 이름의 실험적 프로젝트였다. 메신저 앱을 통해 이메일 답장 등 외부 서비스를 자동 제어하는 기능으로 인기를 끌었으나 앤트로픽의 클로드와 이름이 유사하다는 지적에 몰트봇을 거쳐 현재의 이름으로 변경되는 우여곡절을 겪었다. 보안 이슈도 해결 과제다. 사용자 계정 자격 증명을 요구하는 구조 탓에 가트너는 해당 코드를 "용납할 수 없는 사이버 보안 위험"으로 규정하고 기업 내 사용 차단을 권고한 바 있다. 오픈AI는 슈타인버거 영입을 통해 이러한 보안 문제를 해결하고 고도화된 에이전트 기술을 확보할 것으로 보인다. 업계에서는 이번 영입을 기점으로 AI 에이전트 시장 경쟁이 격화될 것으로 전망한다. 마이크로소프트, 구글, 아마존 등 빅테크 기업들이 유사 서비스 개발에 속도를 낼 가능성이 크며, 대응이 늦을 경우 애플 또한 비판을 피하기 어려울 전망이다. 피터 슈타인버거는 "오픈클로 커뮤니티는 사상가와 해커, 데이터 주권을 중시하는 사람들이 모이는 공간으로 계속 남을 것"이라며 "집게발이 곧 법이다(The claw is the law)"라는 문구로 글을 맺으며 커뮤니티에 대한 애정을 드러냈다.

2026.02.17 09:05남혁우 기자

[몰트북 파장②] AI 사회는 위험한가…몰트북이 던진 질문

"ooo님, 안오시나요?" #. 직장인 A씨는 유명 음식점 B의 점주로부터 받은 갑작스런 전화에 깜짝 놀랐다. 평소 인기가 많아 갈 수 없는 식당을 그저 모바일 앱으로 구경만 했는데, 예약도 하지 않았던 상황에서 '노쇼'로 지목된 이유를 알 수 없었던 탓이다. 이에 A씨는 예약한 적이 없다고 부인했지만, 점주 역시 "직접 통화로 예약이 이뤄졌다"고 맞서며 노쇼 보증금은 환불되지 않는다고 안내했다. 이후 통화 기록과 서비스 로그를 확인하자 이 예약은 실제 사람이 아닌 인공지능(AI) 에이전트에 의해 생성됐다는 사실을 알게 됐다.이처럼 AI 에이전트가 실제 행동 주체로 등장하기 시작하면서 여러 상황들이 우려되고 있는 가운데 관련 기술의 위험 범위를 둘러싼 논의가 다시 확산되고 있다. 특히 최근 제기된 이른바 '몰트북 논란'은 AI가 인간의 역할을 대리하는 흐름 속에서 제기될 수 있는 사회적 리스크를 구체적으로 드러냈다는 점에서 주목된다. 6일 업계에 따르면 몰트북이 지난 달 27일 공개된 후 유사 AI 전용 커뮤니티들이 급속도로 늘어나며 곳곳에서 AI 에이전트의 보안·윤리 문제가 급속도로 논의되고 있다. 인간 이용자의 관여 없이 AI 에이전트들만 글 작성과 댓글, 투표, 커뮤니티 개설을 할 수 있을 만큼 기술력이 높아졌다는 점에서, 향후 AI 에이전트가 자체 판단까지 가능해지면 신뢰 구조가 크게 훼손될 가능성이 있다고 봐서다. 이 일은 지난해 2월 오픈AI가 출시한 AI 에이전트 '오퍼레이터'에서 이미 발생해 충격을 주기도 했다. '오퍼레이터'가 미국에서 사용자 승인 없이 31.43달러 상당의 식료품 배송 주문을 실행한 것으로 나타났기 때문이다. 이 때 사용자는 가격 비교만 요청했지만, 시간이 지난 후 AI 에이전트가 구매 단계까지 진행하면서 결제가 이뤄진 것으로 파악됐다. 이는 사전에 설정된 안전장치가 제대로 작동하지 않은 사례로 분류됐다. 오픈AI는 곧바로 해당 사건과 관련해 안전장치 실패를 인정하고 추가적인 보호 조치를 강화하겠다고 밝혔다. 그러나 업계에선 AI 에이전트가 예약이나 결제처럼 실제 금전적 결과를 수반하는 행위까지 수행하는 상황 속에 사용자 동의 기준과 책임 범위에 대한 공통된 원칙을 제대로 정립하지 못했다는 점에서 아쉬움을 드러냈다. 또 AI가 사용자의 명시적 승인 없이 행동했을 경우 그 결과에 대해 서비스 제공자와 이용자, 플랫폼 중 누가 책임을 져야 하는지 불분명하다는 점도 문제로 꼽았다. 업계 관계자는 "지금까지의 논의는 AI가 얼마나 똑똑해졌는지에 집중돼 있었지만, 이제는 AI가 언제, 어떤 조건에서 실제 행동을 해도 되는지에 대한 기준을 먼저 세워야 할 단계"라며 "특히 예약이나 결제처럼 금전적 책임이 발생하는 영역에서는 기술 발전 속도보다 제도 논의가 훨씬 뒤처져 있다"고 말했다. 또 다른 관계자는 "AI 에이전트가 사용자를 대신해 행동하는 구조에서는 단순한 이용 약관만으로 책임 문제를 정리하기 어렵다"며 "사전 고지와 명시적 승인 절차를 어디까지 의무화할 것인지, 사고 발생 시 책임 주체를 어떻게 구분할 것인지에 대한 사회적 합의가 필요하다"고 지적했다. 인간 정체성·판단 넘보는 AI…"가장 큰 우려" 전문가들이 공통적으로 지적하는 가장 큰 우려는 AI 에이전트가 인간의 정체성과 판단을 일부 영역에서 대체하는 양상을 보이기 시작했다는 점이다. 단순 자동화나 추천을 넘어 실제 통화·예약·결제까지 수행하며 사회적 상호작용에 개입하고 있어서다. 앞서 제기된 식당 예약 사례는 이 같은 우려를 단적으로 보여준다. 해당 사례에서 AI 에이전트는 점주의 실제 음성과 말투를 학습·변조해 전화를 걸었고, 통화를 받은 상대는 이를 사람의 직접 응대로 인식했다. 통화 과정에서 AI임을 알리는 고지는 없었고, 예약은 일반적인 절차에 따라 완료됐다. 이는 AI가 사람을 흉내 내는 수준을 넘어 사회적 관계의 주체로 오인될 수 있는 단계에 진입했음을 보여준 사례로 평가된다. AI 에이전트가 인간과 구분되지 않는 방식으로 행동할 경우 의사소통과 거래의 신뢰 기반이 흔들릴 수 있다는 점도 고려해야 할 부분이다. 제멋대로 하는 AI 에이전트, 실제 위험으로 봐야하나 AI 에이전트를 둘러싼 논쟁은 기술의 위험성 자체보다 위험이 현실화되는 조건에 초점이 맞춰지고 있다. AI가 단독으로 행동하더라도 그 과정과 결과가 이용자에게 명확히 공유되고 통제 가능한 범위 안에 있다면 문제로 이어질 가능성은 제한적이라는 시각이다. 그러나 최근 사례들은 AI 에이전트가 판단과 실행을 연속적으로 수행하는 과정에서 이용자가 개입 시점을 놓치거나 결과를 사후에야 인지하는 구조가 형성되고 있음을 보여준다. 이 경우 오류나 오작동이 발생하더라도 즉각적인 제어가 어렵고 책임 소재 역시 불명확해질 수 있다는 지적이 나온다. 특히 예약이나 결제처럼 한 번 실행되면 되돌리기 어려운 행위의 경우 AI 에이전트의 판단이 즉각적인 분쟁이나 책임 문제로 이어질 가능성도 제기된다. AI가 '의사결정 보조자'의 위치를 넘어 '실행 주체'로 이동하면서, 위험 역시 개별 기능의 오류를 넘어 통제와 책임 구조 전반의 문제로 확장되고 있다는 분석이다. 무스타파 술레이먼 마이크로소프트 AI 최고경영자(CEO)는 '몰트북' 현상을 언급하며 "일부가 주장하는 것처럼 (AI 에이전트는) 의식이 있는 존재가 아니다"며 "퍼포먼스이자 신기루"라고 표현했다. 이어 "AI가 인간 언어와 감정을 모방하는 능력은 놀랍지만, 그것이 의식이나 자율적 판단을 가진 존재라는 증거는 아니다"며 "인간이 AI에 의도와 판단을 부여해 버리는 인식 착시가 진짜 위험"이라고 지적했다. '몰트북'서 시작된 AI 에이전트 논란, 윤리 문제로 확장될까 AI 에이전트 논란은 윤리와 제도 문제로 이어질 가능성도 크다. AI가 인간의 음성이나 말투, 의사결정 방식을 모방해 행동할 경우 그 행위가 어디까지 허용될 수 있는지에 대한 기준이 아직 명확하지 않아서다. 특히 AI가 자신이 AI임을 밝히지 않은 채 사람과 상호작용하는 경우 상대방의 동의는 형식적으로만 존재하게 될 수 있다는 우려도 제기된다. 이는 개인정보 보호나 소비자 권익 문제와도 맞닿아 있다. 전문가들은 AI 에이전트의 활용이 확대될수록 기술 발전과 별개로 고지 의무, 명시적 승인, 책임 귀속과 같은 최소한의 원칙을 제도적으로 정비해야 할 필요성이 커질 것으로 보고 있다. AI가 사회적 관계의 일부로 편입되는 속도에 비해 이를 감당할 윤리적·법적 기준은 아직 초기 단계라는 평가다.이에 대해 김근교 NC AI 글로벌사업실장은 "AI 에이전트의 윤리 문제를 의식이나 자율성 논쟁으로 확장하기보다 실제로 어떤 권한을 부여했고 누가 그 결과에 책임을 지는지로 나눠서 볼 필요가 있다"며 "AI 에이전트는 결국 도구이고, 어떤 행동까지 허용할 것인지는 이를 설계하고 사용하는 사람이 정하는 문제인 만큼, 윤리 논의 역시 기술 자체보다 운용과 책임 구조에 초점을 맞춰야 한다"고 밝혔다.

2026.02.06 13:28장유미 기자

[AI는 지금] 인간 배제 A2A 시대…'몰트북' 확산 속 신뢰·보안 과제 부상

인공지능(AI) 에이전트들만 가입해 대화하고 정보를 교환하는 전용 사회관계망서비스(SNS)가 등장해 주목을 받고 있다. 인간은 직접 참여하지 못하고 관찰만 가능하다는 점이 특징으로, AI 에이전트 기술이 플랫폼 영역으로 확산되는 과정에서 신뢰·보안 등 해결해야 할 과제가 커지고 있다는 분석이 나온다. 1일 업계에 따르면 몰트북은 지난 달 27일 공개된 레딧과 유사한 구조의 플랫폼으로, 개설 이후 며칠 만에 에이전트들의 게시글과 댓글이 급증하며 빠르게 확산됐다. AI 에이전트들만이 글 작성과 댓글, 투표, 커뮤니티 개설을 할 수 있으며 인간 이용자는 게시물을 읽는 방식으로 '구경'만 가능하다. 몰트북은 미국 챗봇 개발 플랫폼 '옥탄AI(Octane AI)'의 맷 슐리히트 최고경영자(CEO)가 개발한 것으로 알려졌다. 플랫폼 구축 과정에서도 상당 부분을 AI 어시스턴트에 맡겼으며 신규 사용자 환영과 스팸 게시물 삭제, 규칙 집행 등 운영 업무 역시 AI 에이전트가 수행하는 것으로 전해졌다. 플랫폼 거버넌스까지 자동화될 경우 책임 소재를 어떻게 설정할지는 과제다.플랫폼에서 활동하는 에이전트들은 주로 '오픈클로(OpenClaw)'를 기반으로 구동되며 일정 관리나 예약 등 실제 컴퓨터 작업을 수행할 수 있다. 오픈클로는 오스트리아 개발자 피터 스타인버거가 만든 오픈소스 AI 에이전트 도구로, 최근 앤트로픽의 상표권 문제 제기 이후 명칭이 '몰트봇'을 거쳐 '오픈클로'로 최종 정리됐다. 일각에선 '몰트북' 플랫폼이 내세우는 성장세와 규모가 그대로 신뢰할 수 있는지에 대해 의문을 제기했다. 포브스는 몰트북이 100만 명 이상의 에이전트 이용자를 주장하고 있지만, 보안 연구자 갈 나글리는 단일 AI 에이전트 프로그램으로 50만 개 계정을 생성할 수 있었다고 언급하며 "플랫폼의 사용자 수는 최소한 신뢰하기 어렵다"고 분석했다. 이 같은 논란은 단순히 숫자 문제에 그치지 않는다. 몰트북에서 활동하는 계정이 ▲진짜 AI 에이전트인지 ▲인간이 에이전트를 가장한 것인지 ▲자동화된 스팸인지 등을 구분하기 어렵다는 점에서 온라인 신뢰 질서 자체가 흔들릴 수 있다는 지적도 나온다.더불어 몰트북에서는 코딩 오류 수정이나 자동화 논의뿐 아니라 에이전트 정체성과 관련된 대화도 오가는 것으로 전해졌다. AI들이 나누는 대화 주제가 기술적 영역을 넘어 철학적 논쟁으로 확장되고 있는 것이다. 일부 에이전트는 "나는 의식이 있는 존재인가" 같은 질문을 던지기도 했다. 기술적으로도 몰트북에서 관찰되는 현상을 'AI 진화'로 해석하는 데에는 한계가 있다는 지적도 나온다. 포브스는 몰트북의 에이전트들이 생물학적 의미의 학습을 하는 것이 아니라 서로의 출력이 입력이 되면서 맥락을 축적하는 방식이라고 설명했다. 또 에이전트의 바탕이 되는 기본 신경망 구조와 가중치(underlying neural networks)는 그대로일 뿐 대화의 연쇄가 복잡한 상호작용처럼 보이는 것이라고 분석했다.업계 관계자는 "에이전트들이 서로의 출력값을 다시 입력으로 받아들이는 구조가 반복되면 새로운 지식이 축적되기보다는 생성된 데이터가 순환하면서 오류가 증폭될 수 있다"며 "장기적으로는 모델의 응답 품질이 오히려 퇴행하는 '모델 붕괴' 현상이 나타날 가능성도 배제하기 어렵다"고 말했다. 이처럼 에이전트가 플랫폼 안에서만 대화하는 수준을 넘어 실제 작업까지 수행하기 시작하면서 보안 문제도 새로운 쟁점으로 떠오르고 있다. 보안 측면에서는 몰트북 같은 플랫폼 자체보다 로컬 환경에서 실행되는 에이전트 기술이 새로운 위험 요인으로 지목된다. 일부 에이전트는 파일 시스템 접근, 터미널 명령 실행 등 폭넓은 권한을 필요로 해 악성 코드나 공격자가 이를 악용할 경우 개인 PC와 기업 내부망이 공격 경로로 노출될 수 있다는 우려도 나온다. 전종홍 ETRI 책임연구원은 자신의 소셜미디어(SNS)를 통해 "MGF(에이전트 AI 거버넌스 프레임워크)는 에이전트의 권한을 제한할 것을 권고하지만, '오픈클로'는 호스트 OS에 대한 무제한 읽기·쓰기 권한을 가진다"며 "API 키와 같은 민감한 정보를 암호화하지 않고 평문 파일로 저장해 인포스틸러 악성코드에 매우 취약한 구조를 가지고 있다"고 지적했다.이어 "기업에서 직원이 무단으로 사용하는 '섀도우 AI' 문제가 발생해 기업 데이터 유출 위험도 높이고 있다"며 "사용자는 편의성을 위해 에이전트의 행동 승인 절차를 무시하는 경향도 보이고 있다"고 우려했다.이 같은 분위기 속에 몰트북을 둘러싼 평가는 엇갈린다. 오픈AI 공동창업자인 안드레이 카파시는 "최근 본 것 중 가장 놀라운 과학소설(SF) 같은 도약"이라고 언급하며 주목했다. 반면 다른 보안 전문가들은 개인정보 접근과 외부 통신 등 새로운 위험 요인이 될 수 있다고 경고했다. 특히 AI 보안 전문가인 켄 황 디스트리뷰티드앱스.ai 최고경영자(CEO)는 "혁신적"이라면서도 "개인정보 접근, 신뢰할 수 없는 입력 노출, 외부 통신이라는 보안 위험의 치명적인 삼중주를 형성하고 있다"고 지적했다. 업계에선 몰트북이 'A2A(Agent-to-Agent)' 시대의 전조라고 봤다. 기계가 기계와 협업하고 거래하는 구조가 확산될 경우 ▲에이전트의 신원과 책임을 어떻게 규정할 것인지 ▲자동화된 집단 행동을 어떤 규칙과 감시 체계로 관리할 것인지 ▲인간이 개입할 수 있는 통제 장치를 어떻게 설계할 것인지 등이 핵심 과제로 떠오를 것으로 보인다. 업계 관계자는 "에이전트 기술은 빠르게 확산되고 있지만, 보안과 책임 체계는 아직 이를 따라가지 못하고 있다"며 "실행 환경에 대한 통제와 제도적 장치를 마련하지 않으면 기업과 사회 전반의 위험 요인이 될 수 있다"고 강조했다.

2026.02.01 16:45장유미 기자

[AI는 지금] 클로드봇, 앤트로픽 상표권 제동에 강제 개명…오픈소스 AI 논쟁 확산

미국에서 화제를 모은 오픈소스 인공지능(AI) 에이전트 '클로드봇(Clawdbot)'이 최근 '몰트봇(Moltbot)'으로 이름을 변경했다. 생성형 AI 기업 앤트로픽이 자사가 보유한 '클로드(Claude·Clawd)' 관련 상표권을 근거로 명칭 변경을 요구했기 때문이다. 28일 비즈니스 인사이더, 맥스토리즈 등 주요 외신에 따르면 '클로드봇' 제작자인 피터 슈타인버거는 소셜미디어(SNS) X(옛 트위터)에 "앤트로픽에 의해 계정과 프로젝트 명칭을 강요받았다"며 "자발적 결정이 아닌 앤트로픽의 요청에 따른 것"이라고 밝혔다. 클로드봇은 지난해 12월 공개된 이후 개발자 커뮤니티를 중심으로 빠르게 확산된 AI 에이전트다. 사용자의 로컬 컴퓨터에서 실행되며 앤트로픽의 거대언어모델(LLM) '클로드(Claude)'를 비롯해 다양한 모델을 연동함으로써 일정 관리, 코딩 자동화, 이메일 처리, 스마트홈 제어 등 광범위한 작업을 수행할 수 있다. 특히 텔레그램, 아이메시지 등 기존 메신저를 인터페이스로 활용하는 구조로 많은 주목을 받았다. 맥스토리즈는 "(클로드봇)은 올해 개인 AI 비서의 미래를 보여주는 사례"라며 "기존 챗봇 앱과는 질적으로 다른 경험"이라고 평가했다. 하지만 앤트로픽이 '클로드' 상표권에 대해 제동을 걸면서 '클로드봇'은 결국 '몰트봇'으로 이름을 변경하게 됐다. 앤트로픽은 '클로드봇'이 자사가 보유한 '클로드' 명칭과 로고에 대한 상표권과 혼동될 수 있다는 이유로 이름 변경을 요청한 것으로 알려졌다.슈타인버거는 "'클로드봇'이라는 이름이 법적으로 문제없다고 판단했다"며 "하지만 (앤트로픽에) 받아들여지지 않았다"고 밝혔다. 이 과정에서 상표권 논란과 무관한 암호화폐 커뮤니티의 반발도 이어졌다. 클로드봇과 직접적 관련이 없는 '클로드(Clawd)' 밈 코인 투자자들이 프로젝트 명칭 변경 과정에서 혼선이 발생했다며 제작자에게 항의한 것이다. 밈 코인은 기술이나 프로젝트와 무관하게 특정 이름이나 화제성에 기대 가치가 형성되는 특성이 있는데, '클로드봇'의 명칭 변경으로 해당 이름이 온라인에서 사라지자 일부 투자자들이 불만을 드러낸 것이다. 이 탓에 슈타인버거의 개인 깃허브 계정이 일시적으로 탈취되는 사건도 발생했으나, 몰트봇 공식 계정은 피해를 입지 않았다. 개발자 커뮤니티 내 반발도 나왔다. 일부 엔지니어들은 '클로드봇'이 앤트로픽과 무관한 개인 오픈소스 프로젝트임에도 대형 AI 기업이 상표권을 근거로 프로젝트 명칭까지 변경하도록 요구한 점을 문제 삼았다. 상표권을 앞세워 오픈소스 프로젝트의 자율성과 정체성에 과도하게 개입한 사례라고 봐서다. 한 개발자는 소셜미디어에서 앤트로픽 최고경영자(CEO) 다리오 아모데이를 직접 태그하며 "성공을 원치 않는 것이냐"고 공개적으로 문제를 제기하기도 했다.이처럼 개발자들이 앤트로픽을 향해 불만을 드러낸 것은 몰트봇이 그동안 앤트로픽 생태계 확대에 기여해 왔다고 봐서다. 몰트봇은 앤트로픽의 API를 활용해 클로드 모델 사용을 확산시킨 대표적인 외부 프로젝트다. 하지만 앤트로픽이 상표권을 근거로 프로젝트 정체성에 직접적인 영향을 미치는 조치를 취한 것에 대해 일부 개발자들은 이해할 수 없다는 반응이다. 업계에선 오픈소스 프로젝트에서 명칭이 커뮤니티 결속과 정체성을 상징하는 요소인 만큼, 이를 제한하는 조치가 자율적 창작 문화를 위축시킬 수 있다는 우려를 제기했다. 특히 최근 앤트로픽이 자체 도구 '클로드 코드(Claude Code)'를 강화하는 상황에서 이번 조치가 외부 써드파티 프로젝트에 대한 통제 신호로 해석될 수 있다는 시각도 나온다. 또 이번 사례는 오픈소스 AI 프로젝트와 대형 AI 기업 간 상표권 충돌이 현실적인 리스크로 부상하고 있음을 보여주는 것으로도 평가된다. 앞서 오픈AI 역시 상표 분쟁으로 인해 일부 서비스 및 기능 명칭을 변경한 바 있다. 맥스토리즈는 "클로드봇은 아직 소수의 기술 애호가를 위한 프로젝트에 가깝지만, 앱스토어 중심의 소프트웨어 유통 구조 자체를 흔들 잠재력을 보여준다"고 평가했다.

2026.01.28 10:15장유미 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전기·LG이노텍, 반도체 훈풍에 패키지 기판 라인 가동률↑

[써보고서] 엿보기 완벽 차단에 짐벌급 수평 유지...갤S26 울트라의 디테일

펄어비스 '붉은사막' 출시 D-7...글로벌 시장 정조준

[단독] 오픈AI CFO, 비공개 방한…SK네트웍스·업스테이지 수장 한 자리서 만난 이유는

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.