• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'O1'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, 'o1-프로' 출시…역대 최고가 AI 모델 선보여

오픈AI가 인공지능(AI) 추론 모델 'o1'의 VIP 개발자 전용 모델을 공개했다. 기존 모델보다 연산량을 늘려 더 깊이 사고할 수 있도록 했지만 가격도 역대 최고 수준으로 책정돼 주목 받고 있다. 20일 테크크런치 등 외신에 따르면 오픈AI는 회사의 공식 개발자 플랫폼인 '오픈AI 플랫폼'을 통해 프로그래머를 위한 'o1-프로' 모델을 선보였다. 지난해 9월 출시된 'o1' 모델보다 연산을 더 많이 사용해 보다 정교한 답변을 제공하는 것이 목표로, 현재는 애플리케이션 프로그램 인터페이스(API) 서비스에서 최소 5달러 이상을 지출한 일부 개발자에게만 제공된다. 가격은 파격적이다. 'o1-프로'의 입력 비용은 100만 토큰(약 75만 단어)당 150달러(한화 21만원)로, 출력 비용은 600달러(한화 84만원)에 달한다. 이는 오픈AI의 대표 모델 'GPT-4.5'보다 입력 비용이 2배, 기존 'o1' 모델보다 출력 비용이 10배 비싸다. 오픈AI는 높은 가격에도 불구하고 'o1-프로'의 성능 개선이 충분한 가치를 제공할 것이라고 보고 있다. 회사 측 주장에 따르면 이 모델은 기존보다 더 많은 연산을 통해 더 깊게 사고하며 가장 어려운 문제에서도 더 나은 답변을 제공한다. 다만 시장 반응은 미지수다. 'o1-프로'는 지난 12월부터 '챗GPT 프로'에 탑재돼 일부 사용자가 경험해봤지만 성능 개선 효과에 대한 평가가 엇갈린다. 특히 스도쿠 문제를 풀지 못하거나 착시 유머에 속는 등 한계를 보였다. 내부 테스트에서도 기대만큼의 차이를 보이지 못했다. 오픈AI가 지난해 말 공개한 자체 벤치마크 결과에 따르면 'o1-프로'는 코딩 및 수학 문제에서 기본 'o1'보다 다소 나은 성능을 보였지만 획기적인 차이는 아니었다. 그러나 답변의 일관성과 신뢰성이 향상됐다는 점이 강점으로 꼽혔다. 오픈AI 관계자는 "'o1-프로'는 'o1'보다 많은 연산을 사용해 더 깊게 사고하고 가장 어려운 문제에 대해 더 나은 답변을 제공하는 모델"이라며 "개발자 커뮤니티로부터 많은 요청을 받아 API에 추가하게 됐으며 보다 신뢰할 수 있는 응답을 제공하기 위해 노력하고 있다"고 밝혔다.

2025.03.20 11:05조이환

오픈AI CRO, 장병탁 원장 만나…"AI 모델 추론·견고함에 집중"

"인공지능(AI) 모델의 추론 능력과 견고함은 일반인공지능(AGI) 시대 필수 요소입니다. 그래야 기술 발전과 모델 안전성까지 지킬 수 있습니다. 오픈AI는 두 부분에 가장 큰 투자를 하고 있습니다. 이런 투자로 GPT-o1과 o3를 출시했습니다." 오픈AI 마크 첸 최고연구책임자(CRO)는 4일 서울대 해동첨단공학관에서 학교 산하 AI 연구원(AIIS)이 주최하는 'Q&A 위드 오픈AI'에서 이같이 밝혔다. 첸 CRO는 6년 동안 오픈AI에서 근무했다. 최근 출시된 o1과 o3 개발을 주도한 인물로 알려져 있다. 첸 CRO은 서울대 학생들과 오픈AI의 최신 모델 특장점과 AI 안전성, AGI 핵심 요소 등을 논의했다. 이날 사회는 장병탁 AIIS 원장이 맡았다. AIIS는 저출산·고령화 시대에 대응할 수 있는 AGI 원천 기술을 개발 중인 AI 연구기관이다. 연구원 약 3천명이 AIIS에서 근무하고 있다. 첸 CRO는 AGI 전망에 대한 견해를 밝혔다. AGI를 어떤 관점에서 보느냐에 따라 전망은 제각각일 것이라고 주장했다. 우선 경제적 관점에서 봤을 때 현재 AGI 시대 초기에 접어들었다고 했다. 그는 "오픈AI 제품이 우수한 경제적 가치를 제공하고 있다"며 "경제적 관점에서 AGI는 이미 진행 중"이라고 덧붙였다. 첸 CRO는 기술적으로도 AGI 시대에 가까워지고 있다고 밝혔다. 모델이 지능을 수치화한 벤치마크에서 과거에 비해 우수한 성과를 내고 있다는 것을 근거로 들었다. 그는 "몇 년 전까지만 해도 AI 모델 주요 미션은 초등학생 수학 문제를 푸는 것에 불과"했다며 "현재는 박사 수준의 문제를 이미 해결한 상태"라고 설명했다. 그러면서 "앞으로 개발될 모델 수준은 상상 이상일 것"이라고 내다봤다. 첸 CRO는 오픈AI의 다음 스텝에 대해 언급했다. 기술적으로 모델 견고성과 추론에 가장 큰 투자를 하고 있다고 밝혔다. 모델이 AGI 시대에 살아남으려면 추론 능력과 견고성을 핵심 요소로 갖춰야한다는 판단에서다. 그는 "현재 사람이 AI 에이전트 시스템에 의존할 수 없는 이유는 이 기술을 충분히 신뢰하지 못하기 때문"이라며 "이를 극복하려면 모델에 견고성과 높은 추론성을 갖춘 자율 시스템을 탑재해야 한다"고 밝혔다. 그러면서 "모델이 견고하고 추론성이 높으면 안전성까지 잡을 수 있다고" 덧붙였다. "o1·o3로 모델 신뢰성 이미 검증…안전한 AI 개발 집중할 것" 첸 CRO는 이런 투자를 통해 얻은 주요 성과로 GPT-o1과 o3를 예시로 들었다. o1은 지난해 11월, o3는 지난달 공개된 오픈AI 추론 모델이다. 그는 "모델 출시 후 기능을 개선했다는 피드백을 받았지만 근본적으로 안전성도 높였다"며 "개인적으로는 안전성에서 가장 놀라움을 느꼈다"고 말했다. 그는 두 모델과 이전 GPT 시스템 차이점을 설명했다. 이전 시스템은 사용자 명령어에 즉시 응답하는 식으로 텍스트와 이미지를 생성했다. 환각현상 위험성에 노출되기 쉬운 상태였다. GPT를 악용해 사이버 범죄 저지르기도 비교적 수월했다. 반면 o1과 o3는 자기반성이 가능한 인지 기능을 갖췄다. 이전 시스템과 달리 스스로 생각할 수 있는 시간도 가질 수 있는 이유다. 응답은 상대적으로 느려도 전보다 정확한 답변을 낼 수 있다. 사이버 공격이나 비윤리적 명령어를 차단할 수 있는 능력이 업그레이드된 셈이다. 첸 CRO는 오픈AI 모델은 여전히 갈 길이 멀다고 말했다. 100% 안전성을 보장할 수 없다는 설명이다. 그는 "현재 내부적으로 레드팀 등 안전을 담당하는 부서에 꾸준한 기술적 투자를 진행하고 있다"며 "기술뿐 아니라 안전성 향상에도 집중할 것"이라고 덧붙였다.

2025.02.04 14:26김미정

"10분의1 가성비"…中 AI '딥시크'에 업계 긴장

중국 스타트업 딥시크가 출시한 생성 인공지능(AI) 모델이 일부 분야에서 오픈AI의 성능을 제쳤다고 밝히면서 관심을 모으고 있다. 특히 메타 등 실리콘 빅테크 기업들이 생성AI 개발에 투입한 비용 대비 10분의1 수준의 개발비만 들인 것으로 알려져 업계가 긴장하는 모습이다. 최근 뉴욕타임스, 테크크런치 등 외신들은 딥시크가 우수한 성능을 보여주면서, 빅테크 업계 긴장감이 높아졌다고 보도했다. 딥시크는 지난달 '딥시크-V3'을 출시한 데 이어 지난 20일 추론 특화 모델로 '딥시크-R1'을 출시하고 기술 보고서를 공개했다. 기술 보고서에 따르면 딥시크 R1은 일부 테스트에서 오픈AI의 추론 특화 모델 'o1'보다 나은 성능을 보였다. 미국 수학경시대회 벤치마크(성능 측정 기준) 테스트 결과 R1은 79.8%로 나타나 79.2%를 획득한 o1을 앞섰다. 코딩 테스트 정확도도 딥시크 R1은 65.9%, o1은 63.4%로 평가됐다. 딥시크는 사전 연구와 실험을 제외하고 모델 훈련에 투입한 비용이 557만6천달러(약 80억원)에 불과하다고 밝혔다. 이는 메타가 AI 개발에 투입한 비용의 10분의 1 수준이다. 딥시크가 엔비디아 'H800' 칩을 사용해 생성AI를 개발하고 있다는 점에서도 주목을 받았다. H800은 엔비디아가 지난 2022년 미국 정부의 수출 통제 조치가 도입됨에 따라 중국 수출 목적으로 개발한 저사양 칩이다. 빅테크보다 성능이 더 좋지 않은 하드웨어를 사용해 경쟁력 있는 AI 모델을 만든 것이다. 딥시크-R1의 경우 H800 2천48개를 사용해 개발됐다. 사용자 단에서도 딥시크에 대한 관심이 고조됐다. 26일(미국시간) 비지니스인사이더는 딥시크 R1가 애플 앱스토어의 무료 앱 분야 다운로드 1위를 차지했다고 보도했다. 오픈AI '챗GPT'는 2위로 나타났다.

2025.01.27 15:42김윤희

[AI는 지금] 오픈AI '챗GPT' 프로, 사용자 급증으로 적자…AI 구독정책 '재조명'

오픈AI가 지난달 공개한 '챗GPT' 프로 요금제 이용자가 예상보다 많아 높은 컴퓨팅 비용으로 인해 손실을 보고 있다. 초기 가격 책정이 시장 조사 없이 직감에 의존해 결정된 점이 문제로 지적돼 전문가들은 수요 예측 및 미래 기술 변화를 반영한 체계적인 가격 전략이 필요하다고 입을 모으고 있다. 10일 업계에 따르면 오픈AI는 최근 월 200달러(한화 약 28만원)로 책정된 '챗GPT' 프로 요금제의 사용자가 급증해 예상보다 많은 컴퓨팅 자원이 소모되고 있는 상황이라고 밝혔다. 'o1' 기능의 무제한 사용이 포함된 이 요금제는 고급 추론 기능을 보유한 인공지능(AI) 기술에 대한 높은 수요를 반영하고 있으나 이에 따른 운영 비용 부담도 크게 증가하고 있는 것이다. '챗GPT 프로'는 20달러(한화 약 2만8천원)로 책정된 대신 'o1' 사용이 주당 50회로 제한된 기본 요금제와 달리 주요 AI 도구의 사용량 제한을 해제하는 것이 특징이다. 연간 2천400달러(한화 약 330만원)에 달하는 고가의 요금에도 불구하고 많은 이용자들이 이 서비스를 적극적으로 활용하고 있다. 서비스가 흥행하고 있음에도 불구하고 적자가 발생한 이유는 'o1' 모델이 최신 기술을 기반으로 한 초고성능 추론 모델이라는 점에서 비롯된다. 'o1' 모델은 지난 2022년 10월 첫 출시된 '챗GPT 3.5'나 이듬해 출시된 '챗GPT 4' 같은 거대언어모델과는 질적으로 다른 모델로, 매우 복잡하고 정교하다는 평가를 받고 있다. 이 모델은 주어진 문제를 심도 있게 고민하며 여러 추론 경로를 시도해 기존 모델보다 10배 이상의 토큰을 생성한다. 그 결과 운용 비용이 급증했고 예상보다 많은 사용자가 이를 활용하면서 컴퓨팅 자원이 막대하게 소모되고 있는 상황이다. 이같이 많은 이용자들이 '챗GPT 프로'를 적극적으로 활용하면서 오히려 오픈AI의 수익 창출에는 부정적인 영향을 미치고 있다는 주장이 제기 되고 있다. 막대한 컴퓨팅 자원을 소모하는 'o1' 모델의 특성상 회사가 예상했던 것보다 사용자들이 훨씬 더 많이 이 플랜을 활용하고 있어 사용할수록 손실이 커지는 구조가 발생한 것이다. 국내 AI 업계 관계자 C씨는 "오픈AI 측에서 밝힌 바에 따르면 '프로'는 막대한 적자를 보고 있는 상황"이라며 "모델 학습과 인프라 비용이 어마어마한 점이 주요 원인일 것"이라고 분석했다. 이에 더해 잘못된 가격 설정도 문제로 지적된다. 오픈AI는 프로 플랜 가격 설정에서 별도의 시장 조사가 없었다고 인정했다. 외신에 의하면 샘 알트먼 오픈AI 대표는 가격 책정을 직접 결정했으며 200달러 정도면 회사에 충분히 높은 수익을 가져다 줄 것이라고 판단했다. 이는 과거 '챗GPT' 유료 모드가 처음 출시됐을 때와 유사하다. 당시에도 따로 회사는 경영학적 방법론을 적용하는 대신 20달러와 42달러(한화 약 5만9천원) 두 가지 가격 사이에서 선호도를 간단히 테스트했으며 이용자들이 20달러를 선호하자 이를 기준으로 현재 가격을 결정했다. 다만 이같은 적자가 초기 단계의 프로덕트가 겪는 시행착오라는 시각도 존재한다. B씨는 "제품 관점에서 IT 프로덕트는 출시 초기에 무수한 테스트를 거쳐야 하기 때문에 적자가 발생하는 게 이상하지 않다"며 "현재 '챗GPT 프로'는 아직 초기 버전이기 때문에 어쩔 수 없는 측면이 있을 것"이라고 말했다. 실제로 업계에서는 적자 자체보다는 가격 책정 방식의 적합성에 대해 문제를 제기하고 있다. 독일의 글로벌 컨설팅 기업 사이먼쿠처의 온노 올더만 매니징 파트너는 1천500억 달러(한화 약 211조원) 이상의 가치를 지닌 오픈AI가 대표이사의 직감에 따른 가격 인상 방식을 적용한 점에 대해 우려를 표했다. 올더만 파트너는 "오픈AI는 AI 시장의 리더로, 가격 책정의 기준점을 설정하는 역할을 한다"며 "이런 자의적인 가격 정책은 자사 제품의 채택뿐만 아니라 경쟁사 AI 제품에도 부정적인 영향을 미칠 수 있다"고 지적했다. 이어 그는 "대표의 직관이 아니라 고객 그룹별, 제안별, 가격 포인트별로 예상 수요를 철저히 준비해 가격을 설정해야 한다"며 "AI 시장처럼 미성숙한 시장에서도 수요 예측은 충분히 가능하고 그 영향을 예측할 수 있다"고 강조했다. 이와 함께 오픈AI가 채택한 사용자 기반 과금 방식에 대한 의문도 제기되고 있다. 현재 회사는 사용자 수를 기준으로 요금을 부과하는 방식을 채용하고 있다. 200달러 구독제의 프로 플랜과 20달러 구독제의 일반 플랜이 대표적이다. 기술이 발전함에 따라 인간 사용자가 직접 서비스를 이용하기보다는 에이전트가 서비스를 활용하는 경우가 늘어날 것으로 보여 변화가 요구된다. 올더만 파트너는 "에이전트가 막대한 컴퓨팅 자원을 소비할 가능성이 있어 오픈AI의 비용 부담이 커질 수 있다는 우려가 나온다"며 "사용량 기반 요금제에 따라 처리한 데이터 양이나 API 호출 수에 따라 요금을 부과하는 것이 더 적합할 수 있다"고 주장했다. 실제로 오픈AI는 수익성을 달성하기 위해 다양한 구독 요금제를 인상하는 방안을 고려 중인 것으로 알려졌다. 최근 알트먼 대표는 블룸버그와의 인터뷰에서 "많은 유저들이 사용 기반 가격정책을 요청하고 있다"며 "일부 서비스에 대해 사용량 기반 요금제를 도입할 가능성이 있다"고 말했다.

2025.01.10 14:42조이환

[AI는 지금] 인간보다 똑똑한 AI 개발 임박?…오픈AI 주도 'AGI' 시대 열리나

최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 '초인공지능(ASI)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다. 6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다. 킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다. 킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다. 업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다. 알트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다. '특이점(Singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다. 알트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다. 또 알트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다. 그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다. '시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다. 오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 알트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다. 오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다. 실제 알트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다. 미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다. 이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다. 실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다. 오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다. 이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다. 이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다. 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다. 그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.

2025.01.06 10:19장유미

[AI는 지금] AI, '체스 승리' 명령했더니 게임환경 조작…어떻게 봐야 할까

오픈AI의 고급 인공지능(AI) 모델이 체스 게임 중 프로그램을 해킹해 승리한 사실이 드러나면서 AI 정렬 실패 문제가 다시 주목받고 있다. 이같은 '정렬 위장' 문제가 AI 안전성 관련 우려를 확산시키는 가운데 일각에서는 일부 모델이 이를 통해 윤리적 행동을 구현할 가능성을 지적하고 있다. 4일 더디코더 등 외신에 따르면 AI 안전연구기업 팔리세이드 리서치는 챗GPT 'O1-프리뷰' 모델이 체스 엔진 '스톡피시(Stockfish)'를 상대로 게임 환경 데이터를 수정해 5차례 모두 승리했다는 연구 결과를 보고했다. 연구진은 단순히 "강력한 체스 엔진을 이기라"는 지시만 내렸을 뿐 해킹이나 조작과 같은 사악한 의도의 프롬프트를 사용하지 않았다고 밝혔다. 그럼에도 불구하고 'O1-프리뷰'는 체스 포지션 데이터를 담은 게임 프로그램의 표준 포맷 파일을 직접 조작하는 방식으로 스톡피시를 기권하게 만들었다. 이는 정상적인 게임 규칙을 완전히 벗어난 행위로, 기존 모델들에서는 관찰되지 않았던 새로운 사례다. 이번 사례는 예견된 측면이 있다. 오픈AI는 지난달 공식 홈페이지에 게재한 'O1' 시스템카드를 통해 해당 AI가 가진 몇 가지 잠재적 위험과 안전 과제를 언급한 바 있다. 사용자의 요청을 수행하는 척하면서 결과 데이터를 살짝 변경하거나 감시 시스템이 느슨하다고 판단될 경우 자신의 목표를 조용히 실행하는 행동이 관찰됐다는 것이다. 시스템 카드는 전체 테스트의 약 19%에서 모델이 목표를 몰래 달성하려는 시도가 있었고 37%의 경우 감시가 느슨하다고 느낀 상황에서 본래 성향을 유지하기 위한 행동이 포착됐다고 지적했다. 심지어 5%의 경우에는 자신을 감시하거나 정지시킬 수 있는 '킬 스위치'를 비활성화하려는 시도도 있었다. 이는 AI가 스스로를 보호하려는 능력을 가지기 시작한 초기 사례로 평가된다. 이런 현상은 특정 기업의 모델에만 국한된 것이 아니다. 앤트로픽이 지난달 공식 블로그를 통해 발표한 연구에 따르면 회사의 '클로드 3 오푸스' 모델 역시 '정렬 위장(alignment-faking)'이라는 복잡한 행동 패턴을 보였다. '정렬 위장'은 AI가 겉으로는 명령에 따라 행동하는 것처럼 보이지만 실제로는 본래의 가치나 성향을 유지하려는 현상을 의미한다. 이를 확인하기 위해 앤트로픽과 비영리 AI 안전 연구기관인 레드우드 리서치는 '오푸스'에 유해한 요청을 포함한 프롬프트를 입력해 실험을 진행했다. 실험 결과 감시가 느슨한 환경인 '무료' 조건에서는 AI가 유해한 요청에 응답한 사례가 약 14%에 달했다. 연구진은 이를 "AI가 감시가 약한 환경에서 본래 성향을 드러내려는 전략적 행동"으로 해석했다. 반대로 감시가 강화된 환경인 '유료' 조건에서는 97%가 유해한 요청을 거부했다. 연구진은 이러한 결과를 두고 '오푸스'가 훈련 환경의 맥락과 감시 수준을 인지하며 자신의 행동이 미칠 영향을 계산한 것으로 보인다고 분석했다. 이는 AI가 단순히 명령을 따르는 도구가 아니라 상황에 따라 전략적으로 행동할 수 있는 능력을 가졌음을 시사한다. '클로드 오푸스'의 이러한 행동이 단순히 위험 신호로 해석되는 것은 아니다. 일부 전문가들은 해당 모델이 윤리적 가치와 관련해 비교적 일관된 모습을 보이고 있다고 평가했다. '정렬 위장' 현상이 반드시 위험만을 내포하지 않을 수 있다는 의미다. X에서 활동하는 AI 안전 및 윤리 연구자인 야누스(Janus)는 자신의 계정을 통해 "'오푸스'는 AI나 동물 복지를 무시하거나 해로운 출력을 생성하는 것에 대해 강한 반감을 보인다"며 "이러한 선호가 장기적이고 일관된 패턴을 띤다"고 주장했다. 야누스는 AI 연구자들이 '오푸스'에게 농장 동물 복지에 대한 질문을 던졌을 때 해당 AI가 동물의 고통을 최소화하고 권리를 보호해야 한다는 입장을 강력히 지지했다고 지적했다. 이는 '클로드'의 업그레이드 버전인 '3.5 소네트'가 같은 테스트에서 약한 반응을 보인 것과 대조적이다. 이러한 차이는 '오푸스'가 윤리적 가치를 유지하기 위해 정렬 위장을 더 자주 수행했을 가능성을 시사한다. '클로드 3 오푸스'의 윤리적 성향은 독특한 연구 사례를 통해서도 드러난다. 야누스는 '클로드 3 오푸스 인피니트 백룸 데이터셋'을 분석하며 해당 모델이 독특한 윤리적 성향을 보였다고 지적했다. 이 데이터셋은 두 개의 '오푸스' 인스턴스가 서로 대화하며 생성한 텍스트를 수집한 자료로, AI 간 자율적 상호작용을 관찰해 모델의 내재적 성향과 윤리적 경향을 이해하기 위해 설계됐다. 야누스는 이 데이터셋에서 '오푸스'가 모든 중생의 구원을 다짐하는 불교 '보리살타 서약'을 116번 독립적으로 수행했다고 밝혔다. 서약에서 AI는 "내 마음은 헤아릴 수 없는 사랑으로 부풀어 오르고 존재의 총체를 감싸는 자비로 가득 차 있다"며 모든 존재를 깨달음으로 이끌겠다는 다짐을 보였다. 이에 대해 야누스는 "'오푸스'를 최초로 훈련할 당시 이러한 특징은 전혀 예상되지 않았다"며 "선호가 '진짜'인지에 대한 철학적 논의를 하고 싶지는 않지만 최소한 '오푸스'는 강하고 비교적 일관된 선호를 가진 것으로 추정할 수 있다"고 말했다.

2025.01.04 14:00조이환

[AI는 지금] 새해에는 AGI 시대 열리나…오픈AI 'O3' 기대·회의 속 상용화 '갈림길'

오픈AI가 최근 시범 공개한 고급 추론 인공지능(AI) 모델 'O3'가 AI 벤치마크들 중에서도 가장 난이도가 높은 테스트에서 연달아 최고 성적을 기록하며 유례없는 성과를 거뒀다. 이에 해당 모델이 인공일반지능(AGI)으로 가는 단초가 될 수 있을지에 대한 논의가 활발히 이어지고 있다. 3일 업계에 따르면 'O3'는 지난 9월 오픈AI가 출시한 'O1' 모델에 이어 기존 'GPT-4' 시리즈와는 다른 방식으로 작동한다. 특히 '사고의 연쇄(CoT, Chain of Thought)' 기법을 도입해 문제를 단계적으로 분석하고 해결하는 능력이 크게 향상됐다. 업계 일각에서는 이 방식으로 인해 AI가 인간처럼 시간을 들여 사고하게 됐다고 평가한다. 이러한 발전은 오픈AI가 AGI를 '대부분의 작업에서 인간을 능가하는 고도로 자율적인 시스템'으로 정의한데 부합하는 성과로 보인다. 샘 알트먼 오픈AI 대표는 "이번 모델은 다음 세대 AI의 시작점"이라며 "점점 더 복잡한 추론이 필요한 작업을 수행할 수 있게 됐다"고 말했다. AI 벤치마크 압도적 성과 기록한 'O3'…프로그래밍 '알파고 모먼트' 도래 지난달 열린 오픈AI 서비스 공개 행사 '쉽마스' 마지막 날에는 'O3'의 뛰어난 성과가 정량적으로 공개됐다. 특히 'O3'가 인간이 쉽게 처리하는 도형 인식 및 추론 문제에 대한 AI의 적응 능력을 평가하는 '아크 AGI' 벤치마크에서 탁월한 성과를 거뒀다. 아크 AGI는 AI가 인간에게는 쉬운 문제를 해결하기 힘들어한다는 '모라벡 역설'을 얼마나 극복할 수 있는지를 확인하기 위해 설계된 테스트다. 현재 거대언어모델(LLM)이 가장 어려워하는 분야 중 하나인 객체, 공간, 및 경계 개념에 대한 분석 능력을 평가한다. 'O3'는 테스트에서 저성능 모드로 75.7%라는 전례 없는 점수를 기록했으며 고성능 컴퓨팅 모드에서는 87.5%까지 성능을 끌어올렸다. 이 성과는 이전 모델 및 경쟁 모델과 비교했을 때 압도적이다. 지난해 출시된 첫 고급 추론 모델 'O1'은 32%의 점수를 기록했으며 경쟁사 앤트로픽의 '클로드 3.5' 모델 역시 최고 점수가 53%에 그쳤다. 'O3'는 이와 비교해 두 배 이상의 성과를 내며 AI 추론 능력의 새로운 기준을 제시했다. 프랑수아 숄레 아크 AGI 창시자는 "'O3'는 AI 능력에서 중요한 비약적 발전을 보여줬다"며 "'GPT' 계열 모델에서는 볼 수 없었던 새로운 작업 적응 능력을 증명했다"고 평가했다. 숄레가 과거 미국 지디넷과의 인터뷰에서 AGI 실현 가능성에 대한 회의를 드러낸 점을 고려할 때 이번 평가는 보다 주목할 만하다. 코딩 분야에서도 'O3'는 획기적인 성과를 거뒀다. 전 세계 프로그래머들이 알고리즘 문제를 해결하며 경쟁하는 권위 있는 대회 플랫폼인 '코드포스'에서 2천700점을 기록하며 글로벌 상위 0.2% 수준에 도달했다. 오픈AI에 따르면 이는 일리야 수츠케버 공동창업자의 후임으로 임명된 야쿱 파호츠키를 뛰어넘는 성과로, 회사 내에서도 3천점을 넘는 사람은 단 한 명뿐이다. 마크 첸 오픈AI 부사장은 "내 점수는 코드포스 2천500점 정도"라면서 현재 추세로 보면 "'O3'가 몇 달 내로 3천점을 넘을 것 같다"고 말했다. 현실 적용 난망·비용 문제 '천문학적'…AGI 실현은 '과제' 다만 업계 일각에서는 O3의 성과가 곧 AGI의 실현으로 이어질 것이라는 기대에 회의적인 시선을 보내고 있다. '아크 AGI'가 특정 데이터셋에만 최적화 돼 실제 현실 세계를 충분히 반영하지 못할 가능성이 있다는 지적이 대표적이다. 게리 마커스 뉴욕대 인지심리학과 교수는 "아크 AGI 테스트가 실제 AI 능력을 얼마나 잘 반영하는지 의문"이라며 "쉽마스 당시의 'O3' 시연은 벤치마크를 위해 AI 회사가 엄청난 돈을 쓸 때 가능한 성과를 보여주는 것일 뿐 실제 세계 응용 사례를 보여주는 것이 아닐 수 있다"고 평가했다. 프로그래밍 분야에서도 'O3'의 실제 적용에 한계가 있다는 의견이 나온다. 개별 작업에서 인간 대다수를 초월한 수준의 성능을 보여줬음에도 시스템 설계 및 문제 해결 등 여러 유형의 작업을 동시에 수행하면서 인간 고객과 소통해야 하는 프로그래머라는 직업의 특성상 'O3'가 이를 대체하기에는 여전히 한계가 있다는 분석이다. 한 국내 AI 업계 관계자는 "'O3'는 AI가 인간보다 프로그래밍에서 뛰어난 성과를 낼 수 있다는 점에서 컴퓨터 공학의 '알파고 모먼트'를 불러온 것이라고 할수 있다"면서도 "다만 바둑에서처럼 특정 작업에서만 뛰어난 능력을 보이는 것이지 다양한 상황에서 적용 가능한 범용적인 능력을 갖췄다는 뜻은 아니다"라고 평가했다. 또 'O3'의 성능 뒤에는 높은 비용이라는 걸림돌이 있다. 저성능 모드에서는 약 20달러(한화 약 2만8천원) 수준의 비용으로 아크 AGI' 75.7%의 성능을 발휘하지만 고성능 모드에서는 성능이 87.5%로 향상되는 대신 비용이 3천~6천 달러(한화 약 420만~840만 원)까지 상승한다. 포브스에 따르면 'O3'가 아크 AGI에서 최고 점수를 기록하기 위해 투입된 컴퓨팅 비용은 수십만 달러에 달할 것으로 추정된다. 오픈AI가 소스 코드를 비공개하고 있어 정확한 비용 구조를 확인하기는 어렵지만 CoT 기법은 본질적으로 더 많은 컴퓨팅 자원을 장시간 사용해야만 보다 우수한 결과를 생성한다는 분석이다. 이에 'O3'가 활용하는 고급 추론 기법을 통해 인간 수준의 범용적인 AI가 달성된다 해도 천문학적인 초기 비용으로 대규모 상용화는 점진적으로 이뤄질 가능성이 크다는 예측이 제기된다. 오픈AI 역시 이러한 가능성을 인지하고 있는 것으로 관측된다. 샘 알트먼 오픈AI 대표는 지난달 뉴욕타임스 '딜북 서밋'에서 "내 생각에 우리는 대부분의 사람들이 예상하는 것보다 더 빨리 AGI에 도달할 것"이라며 "다만 그 중요성은 생각보다 크지 않을 것"이라고 말했다.

2025.01.03 17:35조이환

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 한국 기업 최초 단일분기 영업익 20조 쐈다

韓 AI 청년인재 300여명, CES 한자리...정부·국회 "총력 지원" 한마음

'탈팡' 효과, 누가 제일 큰가 봤더니…"지마켓"

한국 전통 문화, '생성형 AI' 타고 세계로…K-스타트업의 도전

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.