• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'o1'통합검색 결과 입니다. (17건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI, 'o1-프로' 출시…역대 최고가 AI 모델 선보여

오픈AI가 인공지능(AI) 추론 모델 'o1'의 VIP 개발자 전용 모델을 공개했다. 기존 모델보다 연산량을 늘려 더 깊이 사고할 수 있도록 했지만 가격도 역대 최고 수준으로 책정돼 주목 받고 있다. 20일 테크크런치 등 외신에 따르면 오픈AI는 회사의 공식 개발자 플랫폼인 '오픈AI 플랫폼'을 통해 프로그래머를 위한 'o1-프로' 모델을 선보였다. 지난해 9월 출시된 'o1' 모델보다 연산을 더 많이 사용해 보다 정교한 답변을 제공하는 것이 목표로, 현재는 애플리케이션 프로그램 인터페이스(API) 서비스에서 최소 5달러 이상을 지출한 일부 개발자에게만 제공된다. 가격은 파격적이다. 'o1-프로'의 입력 비용은 100만 토큰(약 75만 단어)당 150달러(한화 21만원)로, 출력 비용은 600달러(한화 84만원)에 달한다. 이는 오픈AI의 대표 모델 'GPT-4.5'보다 입력 비용이 2배, 기존 'o1' 모델보다 출력 비용이 10배 비싸다. 오픈AI는 높은 가격에도 불구하고 'o1-프로'의 성능 개선이 충분한 가치를 제공할 것이라고 보고 있다. 회사 측 주장에 따르면 이 모델은 기존보다 더 많은 연산을 통해 더 깊게 사고하며 가장 어려운 문제에서도 더 나은 답변을 제공한다. 다만 시장 반응은 미지수다. 'o1-프로'는 지난 12월부터 '챗GPT 프로'에 탑재돼 일부 사용자가 경험해봤지만 성능 개선 효과에 대한 평가가 엇갈린다. 특히 스도쿠 문제를 풀지 못하거나 착시 유머에 속는 등 한계를 보였다. 내부 테스트에서도 기대만큼의 차이를 보이지 못했다. 오픈AI가 지난해 말 공개한 자체 벤치마크 결과에 따르면 'o1-프로'는 코딩 및 수학 문제에서 기본 'o1'보다 다소 나은 성능을 보였지만 획기적인 차이는 아니었다. 그러나 답변의 일관성과 신뢰성이 향상됐다는 점이 강점으로 꼽혔다. 오픈AI 관계자는 "'o1-프로'는 'o1'보다 많은 연산을 사용해 더 깊게 사고하고 가장 어려운 문제에 대해 더 나은 답변을 제공하는 모델"이라며 "개발자 커뮤니티로부터 많은 요청을 받아 API에 추가하게 됐으며 보다 신뢰할 수 있는 응답을 제공하기 위해 노력하고 있다"고 밝혔다.

2025.03.20 11:05조이환

오픈AI CRO, 장병탁 원장 만나…"AI 모델 추론·견고함에 집중"

"인공지능(AI) 모델의 추론 능력과 견고함은 일반인공지능(AGI) 시대 필수 요소입니다. 그래야 기술 발전과 모델 안전성까지 지킬 수 있습니다. 오픈AI는 두 부분에 가장 큰 투자를 하고 있습니다. 이런 투자로 GPT-o1과 o3를 출시했습니다." 오픈AI 마크 첸 최고연구책임자(CRO)는 4일 서울대 해동첨단공학관에서 학교 산하 AI 연구원(AIIS)이 주최하는 'Q&A 위드 오픈AI'에서 이같이 밝혔다. 첸 CRO는 6년 동안 오픈AI에서 근무했다. 최근 출시된 o1과 o3 개발을 주도한 인물로 알려져 있다. 첸 CRO은 서울대 학생들과 오픈AI의 최신 모델 특장점과 AI 안전성, AGI 핵심 요소 등을 논의했다. 이날 사회는 장병탁 AIIS 원장이 맡았다. AIIS는 저출산·고령화 시대에 대응할 수 있는 AGI 원천 기술을 개발 중인 AI 연구기관이다. 연구원 약 3천명이 AIIS에서 근무하고 있다. 첸 CRO는 AGI 전망에 대한 견해를 밝혔다. AGI를 어떤 관점에서 보느냐에 따라 전망은 제각각일 것이라고 주장했다. 우선 경제적 관점에서 봤을 때 현재 AGI 시대 초기에 접어들었다고 했다. 그는 "오픈AI 제품이 우수한 경제적 가치를 제공하고 있다"며 "경제적 관점에서 AGI는 이미 진행 중"이라고 덧붙였다. 첸 CRO는 기술적으로도 AGI 시대에 가까워지고 있다고 밝혔다. 모델이 지능을 수치화한 벤치마크에서 과거에 비해 우수한 성과를 내고 있다는 것을 근거로 들었다. 그는 "몇 년 전까지만 해도 AI 모델 주요 미션은 초등학생 수학 문제를 푸는 것에 불과"했다며 "현재는 박사 수준의 문제를 이미 해결한 상태"라고 설명했다. 그러면서 "앞으로 개발될 모델 수준은 상상 이상일 것"이라고 내다봤다. 첸 CRO는 오픈AI의 다음 스텝에 대해 언급했다. 기술적으로 모델 견고성과 추론에 가장 큰 투자를 하고 있다고 밝혔다. 모델이 AGI 시대에 살아남으려면 추론 능력과 견고성을 핵심 요소로 갖춰야한다는 판단에서다. 그는 "현재 사람이 AI 에이전트 시스템에 의존할 수 없는 이유는 이 기술을 충분히 신뢰하지 못하기 때문"이라며 "이를 극복하려면 모델에 견고성과 높은 추론성을 갖춘 자율 시스템을 탑재해야 한다"고 밝혔다. 그러면서 "모델이 견고하고 추론성이 높으면 안전성까지 잡을 수 있다고" 덧붙였다. "o1·o3로 모델 신뢰성 이미 검증…안전한 AI 개발 집중할 것" 첸 CRO는 이런 투자를 통해 얻은 주요 성과로 GPT-o1과 o3를 예시로 들었다. o1은 지난해 11월, o3는 지난달 공개된 오픈AI 추론 모델이다. 그는 "모델 출시 후 기능을 개선했다는 피드백을 받았지만 근본적으로 안전성도 높였다"며 "개인적으로는 안전성에서 가장 놀라움을 느꼈다"고 말했다. 그는 두 모델과 이전 GPT 시스템 차이점을 설명했다. 이전 시스템은 사용자 명령어에 즉시 응답하는 식으로 텍스트와 이미지를 생성했다. 환각현상 위험성에 노출되기 쉬운 상태였다. GPT를 악용해 사이버 범죄 저지르기도 비교적 수월했다. 반면 o1과 o3는 자기반성이 가능한 인지 기능을 갖췄다. 이전 시스템과 달리 스스로 생각할 수 있는 시간도 가질 수 있는 이유다. 응답은 상대적으로 느려도 전보다 정확한 답변을 낼 수 있다. 사이버 공격이나 비윤리적 명령어를 차단할 수 있는 능력이 업그레이드된 셈이다. 첸 CRO는 오픈AI 모델은 여전히 갈 길이 멀다고 말했다. 100% 안전성을 보장할 수 없다는 설명이다. 그는 "현재 내부적으로 레드팀 등 안전을 담당하는 부서에 꾸준한 기술적 투자를 진행하고 있다"며 "기술뿐 아니라 안전성 향상에도 집중할 것"이라고 덧붙였다.

2025.02.04 14:26김미정

"10분의1 가성비"…中 AI '딥시크'에 업계 긴장

중국 스타트업 딥시크가 출시한 생성 인공지능(AI) 모델이 일부 분야에서 오픈AI의 성능을 제쳤다고 밝히면서 관심을 모으고 있다. 특히 메타 등 실리콘 빅테크 기업들이 생성AI 개발에 투입한 비용 대비 10분의1 수준의 개발비만 들인 것으로 알려져 업계가 긴장하는 모습이다. 최근 뉴욕타임스, 테크크런치 등 외신들은 딥시크가 우수한 성능을 보여주면서, 빅테크 업계 긴장감이 높아졌다고 보도했다. 딥시크는 지난달 '딥시크-V3'을 출시한 데 이어 지난 20일 추론 특화 모델로 '딥시크-R1'을 출시하고 기술 보고서를 공개했다. 기술 보고서에 따르면 딥시크 R1은 일부 테스트에서 오픈AI의 추론 특화 모델 'o1'보다 나은 성능을 보였다. 미국 수학경시대회 벤치마크(성능 측정 기준) 테스트 결과 R1은 79.8%로 나타나 79.2%를 획득한 o1을 앞섰다. 코딩 테스트 정확도도 딥시크 R1은 65.9%, o1은 63.4%로 평가됐다. 딥시크는 사전 연구와 실험을 제외하고 모델 훈련에 투입한 비용이 557만6천달러(약 80억원)에 불과하다고 밝혔다. 이는 메타가 AI 개발에 투입한 비용의 10분의 1 수준이다. 딥시크가 엔비디아 'H800' 칩을 사용해 생성AI를 개발하고 있다는 점에서도 주목을 받았다. H800은 엔비디아가 지난 2022년 미국 정부의 수출 통제 조치가 도입됨에 따라 중국 수출 목적으로 개발한 저사양 칩이다. 빅테크보다 성능이 더 좋지 않은 하드웨어를 사용해 경쟁력 있는 AI 모델을 만든 것이다. 딥시크-R1의 경우 H800 2천48개를 사용해 개발됐다. 사용자 단에서도 딥시크에 대한 관심이 고조됐다. 26일(미국시간) 비지니스인사이더는 딥시크 R1가 애플 앱스토어의 무료 앱 분야 다운로드 1위를 차지했다고 보도했다. 오픈AI '챗GPT'는 2위로 나타났다.

2025.01.27 15:42김윤희

[AI는 지금] 오픈AI '챗GPT' 프로, 사용자 급증으로 적자…AI 구독정책 '재조명'

오픈AI가 지난달 공개한 '챗GPT' 프로 요금제 이용자가 예상보다 많아 높은 컴퓨팅 비용으로 인해 손실을 보고 있다. 초기 가격 책정이 시장 조사 없이 직감에 의존해 결정된 점이 문제로 지적돼 전문가들은 수요 예측 및 미래 기술 변화를 반영한 체계적인 가격 전략이 필요하다고 입을 모으고 있다. 10일 업계에 따르면 오픈AI는 최근 월 200달러(한화 약 28만원)로 책정된 '챗GPT' 프로 요금제의 사용자가 급증해 예상보다 많은 컴퓨팅 자원이 소모되고 있는 상황이라고 밝혔다. 'o1' 기능의 무제한 사용이 포함된 이 요금제는 고급 추론 기능을 보유한 인공지능(AI) 기술에 대한 높은 수요를 반영하고 있으나 이에 따른 운영 비용 부담도 크게 증가하고 있는 것이다. '챗GPT 프로'는 20달러(한화 약 2만8천원)로 책정된 대신 'o1' 사용이 주당 50회로 제한된 기본 요금제와 달리 주요 AI 도구의 사용량 제한을 해제하는 것이 특징이다. 연간 2천400달러(한화 약 330만원)에 달하는 고가의 요금에도 불구하고 많은 이용자들이 이 서비스를 적극적으로 활용하고 있다. 서비스가 흥행하고 있음에도 불구하고 적자가 발생한 이유는 'o1' 모델이 최신 기술을 기반으로 한 초고성능 추론 모델이라는 점에서 비롯된다. 'o1' 모델은 지난 2022년 10월 첫 출시된 '챗GPT 3.5'나 이듬해 출시된 '챗GPT 4' 같은 거대언어모델과는 질적으로 다른 모델로, 매우 복잡하고 정교하다는 평가를 받고 있다. 이 모델은 주어진 문제를 심도 있게 고민하며 여러 추론 경로를 시도해 기존 모델보다 10배 이상의 토큰을 생성한다. 그 결과 운용 비용이 급증했고 예상보다 많은 사용자가 이를 활용하면서 컴퓨팅 자원이 막대하게 소모되고 있는 상황이다. 이같이 많은 이용자들이 '챗GPT 프로'를 적극적으로 활용하면서 오히려 오픈AI의 수익 창출에는 부정적인 영향을 미치고 있다는 주장이 제기 되고 있다. 막대한 컴퓨팅 자원을 소모하는 'o1' 모델의 특성상 회사가 예상했던 것보다 사용자들이 훨씬 더 많이 이 플랜을 활용하고 있어 사용할수록 손실이 커지는 구조가 발생한 것이다. 국내 AI 업계 관계자 C씨는 "오픈AI 측에서 밝힌 바에 따르면 '프로'는 막대한 적자를 보고 있는 상황"이라며 "모델 학습과 인프라 비용이 어마어마한 점이 주요 원인일 것"이라고 분석했다. 이에 더해 잘못된 가격 설정도 문제로 지적된다. 오픈AI는 프로 플랜 가격 설정에서 별도의 시장 조사가 없었다고 인정했다. 외신에 의하면 샘 알트먼 오픈AI 대표는 가격 책정을 직접 결정했으며 200달러 정도면 회사에 충분히 높은 수익을 가져다 줄 것이라고 판단했다. 이는 과거 '챗GPT' 유료 모드가 처음 출시됐을 때와 유사하다. 당시에도 따로 회사는 경영학적 방법론을 적용하는 대신 20달러와 42달러(한화 약 5만9천원) 두 가지 가격 사이에서 선호도를 간단히 테스트했으며 이용자들이 20달러를 선호하자 이를 기준으로 현재 가격을 결정했다. 다만 이같은 적자가 초기 단계의 프로덕트가 겪는 시행착오라는 시각도 존재한다. B씨는 "제품 관점에서 IT 프로덕트는 출시 초기에 무수한 테스트를 거쳐야 하기 때문에 적자가 발생하는 게 이상하지 않다"며 "현재 '챗GPT 프로'는 아직 초기 버전이기 때문에 어쩔 수 없는 측면이 있을 것"이라고 말했다. 실제로 업계에서는 적자 자체보다는 가격 책정 방식의 적합성에 대해 문제를 제기하고 있다. 독일의 글로벌 컨설팅 기업 사이먼쿠처의 온노 올더만 매니징 파트너는 1천500억 달러(한화 약 211조원) 이상의 가치를 지닌 오픈AI가 대표이사의 직감에 따른 가격 인상 방식을 적용한 점에 대해 우려를 표했다. 올더만 파트너는 "오픈AI는 AI 시장의 리더로, 가격 책정의 기준점을 설정하는 역할을 한다"며 "이런 자의적인 가격 정책은 자사 제품의 채택뿐만 아니라 경쟁사 AI 제품에도 부정적인 영향을 미칠 수 있다"고 지적했다. 이어 그는 "대표의 직관이 아니라 고객 그룹별, 제안별, 가격 포인트별로 예상 수요를 철저히 준비해 가격을 설정해야 한다"며 "AI 시장처럼 미성숙한 시장에서도 수요 예측은 충분히 가능하고 그 영향을 예측할 수 있다"고 강조했다. 이와 함께 오픈AI가 채택한 사용자 기반 과금 방식에 대한 의문도 제기되고 있다. 현재 회사는 사용자 수를 기준으로 요금을 부과하는 방식을 채용하고 있다. 200달러 구독제의 프로 플랜과 20달러 구독제의 일반 플랜이 대표적이다. 기술이 발전함에 따라 인간 사용자가 직접 서비스를 이용하기보다는 에이전트가 서비스를 활용하는 경우가 늘어날 것으로 보여 변화가 요구된다. 올더만 파트너는 "에이전트가 막대한 컴퓨팅 자원을 소비할 가능성이 있어 오픈AI의 비용 부담이 커질 수 있다는 우려가 나온다"며 "사용량 기반 요금제에 따라 처리한 데이터 양이나 API 호출 수에 따라 요금을 부과하는 것이 더 적합할 수 있다"고 주장했다. 실제로 오픈AI는 수익성을 달성하기 위해 다양한 구독 요금제를 인상하는 방안을 고려 중인 것으로 알려졌다. 최근 알트먼 대표는 블룸버그와의 인터뷰에서 "많은 유저들이 사용 기반 가격정책을 요청하고 있다"며 "일부 서비스에 대해 사용량 기반 요금제를 도입할 가능성이 있다"고 말했다.

2025.01.10 14:42조이환

[AI는 지금] 인간보다 똑똑한 AI 개발 임박?…오픈AI 주도 'AGI' 시대 열리나

최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 '초인공지능(ASI)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다. 6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다. 킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다. 킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다. 업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다. 알트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다. '특이점(Singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다. 알트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다. 또 알트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다. 그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다. '시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다. 오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 알트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다. 오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다. 실제 알트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다. 미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다. 이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다. 실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다. 오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다. 이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다. 이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다. 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다. 그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.

2025.01.06 10:19장유미

[AI는 지금] AI, '체스 승리' 명령했더니 게임환경 조작…어떻게 봐야 할까

오픈AI의 고급 인공지능(AI) 모델이 체스 게임 중 프로그램을 해킹해 승리한 사실이 드러나면서 AI 정렬 실패 문제가 다시 주목받고 있다. 이같은 '정렬 위장' 문제가 AI 안전성 관련 우려를 확산시키는 가운데 일각에서는 일부 모델이 이를 통해 윤리적 행동을 구현할 가능성을 지적하고 있다. 4일 더디코더 등 외신에 따르면 AI 안전연구기업 팔리세이드 리서치는 챗GPT 'O1-프리뷰' 모델이 체스 엔진 '스톡피시(Stockfish)'를 상대로 게임 환경 데이터를 수정해 5차례 모두 승리했다는 연구 결과를 보고했다. 연구진은 단순히 "강력한 체스 엔진을 이기라"는 지시만 내렸을 뿐 해킹이나 조작과 같은 사악한 의도의 프롬프트를 사용하지 않았다고 밝혔다. 그럼에도 불구하고 'O1-프리뷰'는 체스 포지션 데이터를 담은 게임 프로그램의 표준 포맷 파일을 직접 조작하는 방식으로 스톡피시를 기권하게 만들었다. 이는 정상적인 게임 규칙을 완전히 벗어난 행위로, 기존 모델들에서는 관찰되지 않았던 새로운 사례다. 이번 사례는 예견된 측면이 있다. 오픈AI는 지난달 공식 홈페이지에 게재한 'O1' 시스템카드를 통해 해당 AI가 가진 몇 가지 잠재적 위험과 안전 과제를 언급한 바 있다. 사용자의 요청을 수행하는 척하면서 결과 데이터를 살짝 변경하거나 감시 시스템이 느슨하다고 판단될 경우 자신의 목표를 조용히 실행하는 행동이 관찰됐다는 것이다. 시스템 카드는 전체 테스트의 약 19%에서 모델이 목표를 몰래 달성하려는 시도가 있었고 37%의 경우 감시가 느슨하다고 느낀 상황에서 본래 성향을 유지하기 위한 행동이 포착됐다고 지적했다. 심지어 5%의 경우에는 자신을 감시하거나 정지시킬 수 있는 '킬 스위치'를 비활성화하려는 시도도 있었다. 이는 AI가 스스로를 보호하려는 능력을 가지기 시작한 초기 사례로 평가된다. 이런 현상은 특정 기업의 모델에만 국한된 것이 아니다. 앤트로픽이 지난달 공식 블로그를 통해 발표한 연구에 따르면 회사의 '클로드 3 오푸스' 모델 역시 '정렬 위장(alignment-faking)'이라는 복잡한 행동 패턴을 보였다. '정렬 위장'은 AI가 겉으로는 명령에 따라 행동하는 것처럼 보이지만 실제로는 본래의 가치나 성향을 유지하려는 현상을 의미한다. 이를 확인하기 위해 앤트로픽과 비영리 AI 안전 연구기관인 레드우드 리서치는 '오푸스'에 유해한 요청을 포함한 프롬프트를 입력해 실험을 진행했다. 실험 결과 감시가 느슨한 환경인 '무료' 조건에서는 AI가 유해한 요청에 응답한 사례가 약 14%에 달했다. 연구진은 이를 "AI가 감시가 약한 환경에서 본래 성향을 드러내려는 전략적 행동"으로 해석했다. 반대로 감시가 강화된 환경인 '유료' 조건에서는 97%가 유해한 요청을 거부했다. 연구진은 이러한 결과를 두고 '오푸스'가 훈련 환경의 맥락과 감시 수준을 인지하며 자신의 행동이 미칠 영향을 계산한 것으로 보인다고 분석했다. 이는 AI가 단순히 명령을 따르는 도구가 아니라 상황에 따라 전략적으로 행동할 수 있는 능력을 가졌음을 시사한다. '클로드 오푸스'의 이러한 행동이 단순히 위험 신호로 해석되는 것은 아니다. 일부 전문가들은 해당 모델이 윤리적 가치와 관련해 비교적 일관된 모습을 보이고 있다고 평가했다. '정렬 위장' 현상이 반드시 위험만을 내포하지 않을 수 있다는 의미다. X에서 활동하는 AI 안전 및 윤리 연구자인 야누스(Janus)는 자신의 계정을 통해 "'오푸스'는 AI나 동물 복지를 무시하거나 해로운 출력을 생성하는 것에 대해 강한 반감을 보인다"며 "이러한 선호가 장기적이고 일관된 패턴을 띤다"고 주장했다. 야누스는 AI 연구자들이 '오푸스'에게 농장 동물 복지에 대한 질문을 던졌을 때 해당 AI가 동물의 고통을 최소화하고 권리를 보호해야 한다는 입장을 강력히 지지했다고 지적했다. 이는 '클로드'의 업그레이드 버전인 '3.5 소네트'가 같은 테스트에서 약한 반응을 보인 것과 대조적이다. 이러한 차이는 '오푸스'가 윤리적 가치를 유지하기 위해 정렬 위장을 더 자주 수행했을 가능성을 시사한다. '클로드 3 오푸스'의 윤리적 성향은 독특한 연구 사례를 통해서도 드러난다. 야누스는 '클로드 3 오푸스 인피니트 백룸 데이터셋'을 분석하며 해당 모델이 독특한 윤리적 성향을 보였다고 지적했다. 이 데이터셋은 두 개의 '오푸스' 인스턴스가 서로 대화하며 생성한 텍스트를 수집한 자료로, AI 간 자율적 상호작용을 관찰해 모델의 내재적 성향과 윤리적 경향을 이해하기 위해 설계됐다. 야누스는 이 데이터셋에서 '오푸스'가 모든 중생의 구원을 다짐하는 불교 '보리살타 서약'을 116번 독립적으로 수행했다고 밝혔다. 서약에서 AI는 "내 마음은 헤아릴 수 없는 사랑으로 부풀어 오르고 존재의 총체를 감싸는 자비로 가득 차 있다"며 모든 존재를 깨달음으로 이끌겠다는 다짐을 보였다. 이에 대해 야누스는 "'오푸스'를 최초로 훈련할 당시 이러한 특징은 전혀 예상되지 않았다"며 "선호가 '진짜'인지에 대한 철학적 논의를 하고 싶지는 않지만 최소한 '오푸스'는 강하고 비교적 일관된 선호를 가진 것으로 추정할 수 있다"고 말했다.

2025.01.04 14:00조이환

[AI는 지금] 새해에는 AGI 시대 열리나…오픈AI 'O3' 기대·회의 속 상용화 '갈림길'

오픈AI가 최근 시범 공개한 고급 추론 인공지능(AI) 모델 'O3'가 AI 벤치마크들 중에서도 가장 난이도가 높은 테스트에서 연달아 최고 성적을 기록하며 유례없는 성과를 거뒀다. 이에 해당 모델이 인공일반지능(AGI)으로 가는 단초가 될 수 있을지에 대한 논의가 활발히 이어지고 있다. 3일 업계에 따르면 'O3'는 지난 9월 오픈AI가 출시한 'O1' 모델에 이어 기존 'GPT-4' 시리즈와는 다른 방식으로 작동한다. 특히 '사고의 연쇄(CoT, Chain of Thought)' 기법을 도입해 문제를 단계적으로 분석하고 해결하는 능력이 크게 향상됐다. 업계 일각에서는 이 방식으로 인해 AI가 인간처럼 시간을 들여 사고하게 됐다고 평가한다. 이러한 발전은 오픈AI가 AGI를 '대부분의 작업에서 인간을 능가하는 고도로 자율적인 시스템'으로 정의한데 부합하는 성과로 보인다. 샘 알트먼 오픈AI 대표는 "이번 모델은 다음 세대 AI의 시작점"이라며 "점점 더 복잡한 추론이 필요한 작업을 수행할 수 있게 됐다"고 말했다. AI 벤치마크 압도적 성과 기록한 'O3'…프로그래밍 '알파고 모먼트' 도래 지난달 열린 오픈AI 서비스 공개 행사 '쉽마스' 마지막 날에는 'O3'의 뛰어난 성과가 정량적으로 공개됐다. 특히 'O3'가 인간이 쉽게 처리하는 도형 인식 및 추론 문제에 대한 AI의 적응 능력을 평가하는 '아크 AGI' 벤치마크에서 탁월한 성과를 거뒀다. 아크 AGI는 AI가 인간에게는 쉬운 문제를 해결하기 힘들어한다는 '모라벡 역설'을 얼마나 극복할 수 있는지를 확인하기 위해 설계된 테스트다. 현재 거대언어모델(LLM)이 가장 어려워하는 분야 중 하나인 객체, 공간, 및 경계 개념에 대한 분석 능력을 평가한다. 'O3'는 테스트에서 저성능 모드로 75.7%라는 전례 없는 점수를 기록했으며 고성능 컴퓨팅 모드에서는 87.5%까지 성능을 끌어올렸다. 이 성과는 이전 모델 및 경쟁 모델과 비교했을 때 압도적이다. 지난해 출시된 첫 고급 추론 모델 'O1'은 32%의 점수를 기록했으며 경쟁사 앤트로픽의 '클로드 3.5' 모델 역시 최고 점수가 53%에 그쳤다. 'O3'는 이와 비교해 두 배 이상의 성과를 내며 AI 추론 능력의 새로운 기준을 제시했다. 프랑수아 숄레 아크 AGI 창시자는 "'O3'는 AI 능력에서 중요한 비약적 발전을 보여줬다"며 "'GPT' 계열 모델에서는 볼 수 없었던 새로운 작업 적응 능력을 증명했다"고 평가했다. 숄레가 과거 미국 지디넷과의 인터뷰에서 AGI 실현 가능성에 대한 회의를 드러낸 점을 고려할 때 이번 평가는 보다 주목할 만하다. 코딩 분야에서도 'O3'는 획기적인 성과를 거뒀다. 전 세계 프로그래머들이 알고리즘 문제를 해결하며 경쟁하는 권위 있는 대회 플랫폼인 '코드포스'에서 2천700점을 기록하며 글로벌 상위 0.2% 수준에 도달했다. 오픈AI에 따르면 이는 일리야 수츠케버 공동창업자의 후임으로 임명된 야쿱 파호츠키를 뛰어넘는 성과로, 회사 내에서도 3천점을 넘는 사람은 단 한 명뿐이다. 마크 첸 오픈AI 부사장은 "내 점수는 코드포스 2천500점 정도"라면서 현재 추세로 보면 "'O3'가 몇 달 내로 3천점을 넘을 것 같다"고 말했다. 현실 적용 난망·비용 문제 '천문학적'…AGI 실현은 '과제' 다만 업계 일각에서는 O3의 성과가 곧 AGI의 실현으로 이어질 것이라는 기대에 회의적인 시선을 보내고 있다. '아크 AGI'가 특정 데이터셋에만 최적화 돼 실제 현실 세계를 충분히 반영하지 못할 가능성이 있다는 지적이 대표적이다. 게리 마커스 뉴욕대 인지심리학과 교수는 "아크 AGI 테스트가 실제 AI 능력을 얼마나 잘 반영하는지 의문"이라며 "쉽마스 당시의 'O3' 시연은 벤치마크를 위해 AI 회사가 엄청난 돈을 쓸 때 가능한 성과를 보여주는 것일 뿐 실제 세계 응용 사례를 보여주는 것이 아닐 수 있다"고 평가했다. 프로그래밍 분야에서도 'O3'의 실제 적용에 한계가 있다는 의견이 나온다. 개별 작업에서 인간 대다수를 초월한 수준의 성능을 보여줬음에도 시스템 설계 및 문제 해결 등 여러 유형의 작업을 동시에 수행하면서 인간 고객과 소통해야 하는 프로그래머라는 직업의 특성상 'O3'가 이를 대체하기에는 여전히 한계가 있다는 분석이다. 한 국내 AI 업계 관계자는 "'O3'는 AI가 인간보다 프로그래밍에서 뛰어난 성과를 낼 수 있다는 점에서 컴퓨터 공학의 '알파고 모먼트'를 불러온 것이라고 할수 있다"면서도 "다만 바둑에서처럼 특정 작업에서만 뛰어난 능력을 보이는 것이지 다양한 상황에서 적용 가능한 범용적인 능력을 갖췄다는 뜻은 아니다"라고 평가했다. 또 'O3'의 성능 뒤에는 높은 비용이라는 걸림돌이 있다. 저성능 모드에서는 약 20달러(한화 약 2만8천원) 수준의 비용으로 아크 AGI' 75.7%의 성능을 발휘하지만 고성능 모드에서는 성능이 87.5%로 향상되는 대신 비용이 3천~6천 달러(한화 약 420만~840만 원)까지 상승한다. 포브스에 따르면 'O3'가 아크 AGI에서 최고 점수를 기록하기 위해 투입된 컴퓨팅 비용은 수십만 달러에 달할 것으로 추정된다. 오픈AI가 소스 코드를 비공개하고 있어 정확한 비용 구조를 확인하기는 어렵지만 CoT 기법은 본질적으로 더 많은 컴퓨팅 자원을 장시간 사용해야만 보다 우수한 결과를 생성한다는 분석이다. 이에 'O3'가 활용하는 고급 추론 기법을 통해 인간 수준의 범용적인 AI가 달성된다 해도 천문학적인 초기 비용으로 대규모 상용화는 점진적으로 이뤄질 가능성이 크다는 예측이 제기된다. 오픈AI 역시 이러한 가능성을 인지하고 있는 것으로 관측된다. 샘 알트먼 오픈AI 대표는 지난달 뉴욕타임스 '딜북 서밋'에서 "내 생각에 우리는 대부분의 사람들이 예상하는 것보다 더 빨리 AGI에 도달할 것"이라며 "다만 그 중요성은 생각보다 크지 않을 것"이라고 말했다.

2025.01.03 17:35조이환

"정확도 높이고 비용은 6배"…오픈AI, 추론 AI 'o1' API 배포

오픈AI가 자사 추론 모델 'o1'을 애플리케이션 프로그램 인터페이스(API)에 도입하며 인공지능(AI) 기술의 신뢰성과 정밀성 제고에 나섰다. 18일 테크크런치 등 외신에 따르면 오픈AI는 크리스마스 '쉽마스' 9일차 행사에서 자사 'o1' 추론 모델을 개발자 대상 API에 제공하기 시작한다고 밝혔다. 이 모델은 최소 1천 달러(한화 약 140만원)를 오픈AI에 지출하고 첫 결제 이후 30일 이상이 지난 '레벨 5' 개발자들만 이용할 수 있다. '쉽마스' 1일차 행사에서 처음 도입된 'o1' 모델은 기존 'o1-프리뷰' 모델을 대체하며 AI의 사실 확인 능력을 강화했다. 이로써 일반 모델에서 발생하는 오류를 줄이고 더 신뢰성 있는 답변을 제공하는 것이 특징이다. 다만 비용은 기존 모델에 비해 대폭 상승했다. 약 75만 단어를 분석할 때 15달러(한화 약 2만1천원), 같은 양을 생성할 때 60달러(한화 약 8만4천원)를 책정해 기존 'GPT-4o'보다 6배 높은 가격이다. 이번 API 연동을 통해 오픈AI는 'o1' 모델에 다양한 맞춤형 기능을 도입했다. 함수 호출을 통해 외부 데이터와 연동이 가능해졌고 개발자 메시지를 통해 AI의 톤과 스타일을 제어할 수 있다. 또 이미지 분석 기능이 제공되며 'o1'이 답을 도출하는데 사고하는 시간을 설정하는 기능도 지원한다. 오픈AI는 이 기능들을 API뿐 아니라 자사 '챗GPT'에도 곧 적용할 계획이라고 밝혔다. 이외에도 실시간으로 작동하는 API와 'GPT-4o' 미니 모델의 업그레이드를 발표하며 실시간 AI 음성 응답의 데이터 효율성과 신뢰성을 개선했다고 강조했다. 오픈AI 관계자는 공식 블로그를 통해 "'o1' 모델을 단계적으로 더 많은 개발자에게 공개할 계획"이라며 "확장된 기능을 통해 더 정교하고 맞춤화된 AI 환경을 제공할 것"이라고 밝혔다.

2024.12.18 09:16조이환

오픈AI, 생산성 관리 '프로젝트' 기능 공개…향후 '쉽마스'서 AI 에이전트 등장 관심

오픈AI가 '쉽마스' 행사의 절반을 넘긴 시점에서 '챗GPT' 활용도를 체계적으로 관리하는 '프로젝트' 기능을 선보였다. 앞서 첫 6일 동안 추론 모델, 비디오 생성 AI 등 다채로운 기능을 연이어 공개하며 주목 받은 쉽마스에서는 남은 5일 동안 새로운 기능이 추가로 발표될 것으로 보여 귀추가 주목된다. 오픈AI는 지난 13일(현지시간) 쉽마스 7일 차에 새로운 대화 관리 방식인 '프로젝트' 기능을 발표하며 대화를 프로젝트 단위로 체계적으로 관리할 수 있는 기능을 선보였다. 이 기능은 특히 복잡한 작업과 대규모 대화를 효율적으로 관리할 수 있도록 설계돼 생성형 AI의 활용성을 크게 확대할 것으로 기대를 모으고 있다. 프로젝트 기능의 핵심은 대화를 프로젝트 단위로 정리하고 이를 주제별로 분류할 수 있다는 점이다. 사용자는 각 프로젝트에 맞춤형 지침을 설정할 수 있어 '챗GPT'가 프로젝트 목적에 적합한 응답 톤과 방식으로 대화를 이어갈 수 있다. 맞춤형 지침은 프로젝트의 특성과 요구 사항에 따라 설정할 수 있으며 최대 8천 자까지 세부 지침을 추가할 수 있다. 프로젝트당 최대 20개의 파일 업로드가 지원되며 텍스트, PDF, 문서, 이미지 등 다양한 파일 형식을 포함한다. 이에 따라 사용자는 프로젝트 내에서 관련 자료를 쉽게 관리하고 필요한 자료를 즉시 참조할 수 있다. 현재 이 기능은 플러스(Plus), 프로(Pro), 팀스(Teams) 사용자에게 우선 적용되고 있으며 무료 사용자와 교육용 및 기업용 계정에는 내년 초부터 확대 적용될 예정이다. 업계 전문가들은 프로젝트 기능이 기업 및 개인 사용자의 생산성을 크게 높이고 연구, 개발, 고객 관리 등 다양한 분야에서 실질적인 도구로 자리 잡을 것으로 전망하고 있다. 오픈AI 관계자는 "팀 프로젝트를 통해 각 팀원이 특정 작업에 대한 대화를 독립적으로 관리하면서도 전체 프로젝트 문맥을 유지할 수 있을 것"이라며 "연구자들은 논문 자료와 참고 문헌 확인 뿐만 아니라 고객 관리나 이벤트 기획에서도 유용한 도구가 될 것"이라고 말했다. 앞서 오픈AI는 쉽마스 첫 6일간 다양한 AI 기술 업데이트로 활용 범위를 크게 넓혀왔다. 첫째날 공개된 'o1' 모델은 정확도와 응답 속도를 개선했으며 멀티모달 기능과 복잡한 논리 문제 해결 능력을 갖췄다. '프로' 구독 서비스는 고난도 작업에 특화된 환경을 제공해 최신 모델과 고급 음성 모드에 무제한 접근을 지원한다. 둘째날 발표된 강화 학습 미세 조정 프로그램은 연구자·대학·기업을 대상으로 자체 AI 모델 개선을 지원해 다양한 산업 분야에서 활용 가능성을 높였다. 셋째날에는 올해 초에 데모가 시연됐던 영상 AI '소라'가 공개됐다. 텍스트 입력만으로 동영상을 제작하고 기존 이미지에 애니메이션을 입히거나 새로운 스타일로 리믹스하는 등 멀티미디어 콘텐츠 제작의 진입 장벽을 낮추는 데 기여할 예정이다. 넷째날 소개된 캔버스 기능은 파이썬 코드 실행, 그래픽 미리보기, 'GPT-4o' 연계를 통해 AI와 협업의 폭을 넓혔다. 다섯째날 애플 인텔리전스 통합은 비교적 주목도가 낮았지만 업계 관계자들은 애플 생태계와의 연계를 시도했다는 데 의미가 있다고 평가했다. 여섯째날에는 '고급 음성 모드'와 '산타 모드'가 추가됐다. 산타 모드는 크리스마스 기간 동안 휴일 분위기를 반영한 재미 요소로 사용자 경험을 풍부하고 있으며 '고급 음성 모드'는 기존의 실시간 음성 모드에 영상 인식 기능을 추가해 '챗GPT'가 움직이는 사물을 보고 실시간으로 사용자와 소통이 가능해졌다. 일각에서는 앞으로 남은 5일 동안 오픈AI가 차세대 모델 '오리온(Orion)'과 자율 AI 에이전트 '오퍼레이터(Operator)'를 공개할 지도 모른다는 관측을 내놓고 있다. 업계 소식통에 의하면 '오리온'은 아직 오픈AI가 공개하지 않은 거대언어모델(LLM)로, 'GPT-4o' 대비 최대 100배 강력한 성능과 멀티모달 처리, 고도화된 추론 기능을 갖춘 차세대 모델로 기대를 모으고 있다. 또 '오퍼레이터'는 브라우저 상에서 자율적으로 작업을 수행할 수 있는 에이전트 형태로 알려졌다. 사내 시연을 통해 배달 음식 주문이나 코딩 문제 해결 능력을 선보여 사용자가 직접 처리하던 작업 일부를 AI가 대행할 수 있는 가능성을 제시한 것으로 알려졌다. 다만 이들 차세대 모델과 에이전트는 아직 공식 발표되지 않은 추측 단계다. 실제 공개 시기나 구체적 형태는 미지수로, 오픈AI가 쉽마스 기간 중 어떤 제품을 추가로 발표할지는 불명확하다. 샘 알트먼 오픈AI 최고경영자(CEO)는 "이번 쉽마스는 오픈AI가 지난 1년간 얼마나 진화했는지를 보여주는 기회"라며 "모든 사용자가 AI를 통해 더 나은 경험을 할 수 있도록 계속 노력할 것"이라고 강조했다.

2024.12.14 15:11조이환

"최고의 크리스마스 선물"…오픈AI, 차세대 'o1·프리미엄 구독' 서비스 공개

오픈AI가 차세대 인공지능(AI) 추론모델과 신규 구독 서비스로 기술 혁신의 크리스마스 선물을 선사했다. 오픈AI는 '새로운 'o1' 모델의 정식 출시와 함께 프리미엄 서비스 '챗GPT 프로' 티어를 6일 공개했다. 이날 진행된 발표는 회사가 연말에 12일간 진행하는 '쉽마스(Shipmas)' 행사의 일환으로, 샘 알트먼 오픈AI 최고경영자와 정형원 연구원 등 임직원 4명이 참가해 직접 새 서비스의 성능을 시연하며 기대감을 높였다. 오픈AI는 이번에 출시한 'o1' 모델이 기존 'GPT-4' 및 지난 9월에 출시된 'o1' 프리뷰 모델보다 월등히 개선됐다고 밝혔다. 속도는 약 50% 빨라졌으며 환각 오류(잘못된 답변)가 약 34% 감소했다. 특히 과학, 수학, 코딩과 같은 고도의 기술 작업에서 정밀도가 크게 향상됐다. 'o1'의 새로운 멀티모달 기능도 주목할 만하다. 이 기능은 텍스트와 이미지를 동시에 처리하며 복잡한 문제를 해결할 수 있다. 데모에서는 손으로 그린 우주 냉각 시스템 설계를 분석하고 이를 기반으로 냉각 패널의 면적을 계산하는 과정이 시연됐다. 모델은 불완전한 문제 조건을 스스로 보완하며 최적의 답을 도출했다. 또 오픈AI는 향후 'o1' 모델에 웹 브라우징, 파일 업로드 기능 등을 추가할 예정이다. 또 개발자를 위한 애플리케이션 프로그램 인터페이스(API)를 통해 구조화된 출력, 함수 호출, 이미지 이해 등을 지원하며 더 강력한 개발 환경을 제공할 계획이다. 쉽마스 직후 'o1' 모델은 '챗GPT' 유료 구독자들을 대상으로 공개됐다. 이에 기자는 직접 "대한민국 역대 대통령들을 모두 나열하라"고 묻는 테스트를 진행했다. 'o1'은 단 10초 만에 정확한 목록을 제공했으며 대통령의 임기 기간, 대수, 재선 여부까지 정확히 설명해 그 성능을 입증했다. 함께 공개된 '챗GPT' 프로 티어는 월 200달러(한화 약 28만원)에 구독할 수 있는 프리미엄 서비스로, 파워 유저를 위한 고급 기능을 제공한다. 이 티어에는 'o1 프로 모드'가 포함돼 있으며 더 높은 연산 자원을 활용해 복잡한 문제 해결에 특화된 성능을 발휘한다. 오픈AI '쉽마스' 행사는 앞으로 11일간 평일마다 계속되며 매일 새로운 기능과 제품이 공개될 예정이다. 첫날 공개된 혁신적 기술과 성능은 앞으로의 AI 기술이 일상과 산업 전반에서 어떤 변화를 가져올지 기대를 모으고 있다. 샘 알트먼 오픈AI 대표는 발표를 마치며 "이번 쉽마스는 오픈AI가 지난 1년간 얼마나 진화했는지를 보여주는 기회"라며 "모든 사용자가 AI를 통해 더 나은 경험을 할 수 있도록 계속 노력할 것"이라고 강조했다.

2024.12.06 07:55조이환

"오픈AI 능가하나"…中 딥시크, 'R1' 추론 모델 공개

중국의 오픈소스 스타트업 딥시크가 출시한 추론 인공지능(AI)이 오픈AI 최신 모델을 뛰어넘는 성능을 보였다. 20일 벤처비트에 따르면 딥씨크는 추론 기반 거대언어모델(LLM)인 'R1-라이트-프리뷰'를 자사의 웹 기반 AI 플랫폼 '딥시크 채팅'을 통해 공개했다. 이 모델은 논리적 추론과 수학적 문제 해결에 특화돼 오픈AI가 지난 9월 출시한 'o1-프리뷰'와 유사한 것으로 알려졌다. 딥시크 'R1-라이트-프리뷰'는 사용자의 질문에 응답하기 위해 사고 과정을 실시간으로 보여주는 '생각의 연쇄(CoT)' 방식을 채택했다. 사용자는 AI가 내리는 결론의 근거와 논리를 단계적으로 이해할 수 있어 기존의 결과 중심적인 AI 모델과 차별화된다. 딥시크는 이 모델이 미국 '수학 초청 시험(AIME)'이나 '인간 수학 적성 평가 시험(MATH)'과 같은 주요 벤치마크에서 오픈AI 'o1-프리뷰'를 능가하는 결과를 기록했다고 밝혔다. 특히 수학적 계산과 복잡한 논리를 요하는 문제에서 높은 정확도를 나타냈으며 AI 모델의 사고 깊이를 늘릴수록 성능이 크게 향상된다고 설명했다. 'R1'에는 고급 기능인 '딥 씽크 모드가 추가 돼 복잡한 문제를 처리하며 더 정밀한 결과를 도출할 수 있다. 다만 이 모드는 오픈AI 'o1'과 같이 하루 50개의 메시지만을 사용하도록 제한돼 사용자는 모델의 성능을 데모 형태로 체험할 수 있다. 회사는 이번 모델이 수학, 코딩 등의 응용 분야를 우선으로 기타 다양한 분야에서 활용 가능성이 크다고 밝혔다. 다만 독립적인 검증을 위한 코드와 세부 기술적 자료는 아직 공개되지 않아 외부 검증은 제한되는 상태다. 딥시크는 앞으로 'R1' 시리즈 모델과 애플리케이션 프로그램 인터페이스(API)를 오픈소스 형태로 공개할 계획이다. 이는 AI 접근성을 강화하고 개발자와 연구자들에게 새로운 도구를 제공하기 위한 회사의 장기적인 비전의 일환이다. 이전 모델인 'V2.5'도 언어 처리와 코딩 작업에서 높은 성능을 기록하며 오픈소스 AI의 선두주자로 자리 잡은 바 있다. 벤처비트는 "딥시크는 투명성과 성능을 모두 갖춘 AI 모델로 오픈소스 생태계의 새로운 기준을 세워 왔다"며 "이는 연구와 개발을 혁신적으로 변화시킬 가능성을 보여준다"고 분석했다.

2024.11.21 09:46조이환

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

"홤잠실이 넘무 작암욤"…한국인만 안다던 에어비앤비체, 오픈AI도 안다?

"홤잠실이 넘무 작암욤(화장실이 너무 작아요)." 숙소 예약 서비스인 '에어비앤비'에서 부정적인 후기가 삭제되지 않도록 하기 위해 한글을 이리저리 비틀어 활용됐던 '에어비앤비체'가 앞으로 큰 효과가 없을 것으로 보인다. 생성형 인공지능(AI) 돌풍을 일으킨 '챗GPT' 개발사 오픈AI가 추론 능력을 갖춘 새로운 무기로 망가진 한국어 문장의 의미를 정확히 파악하기 시작했기 때문이다. 16일 업계에 따르면 오픈AI가 지난 12일 공개한 'o1' 모델은 문법이 파괴돼 한국인만 이해할 수 있는 한국어 문장들을 정확하게 해석해 영어로 번역했다. 정형원 오픈AI 연구원은 이날 공개된 영상에서 '직우상 얻떤 번역깃돋 일끌 슈 없쥐많 한국인듦은 쉽게 앗랍볼 수 있는 한끌의 암혼화 방펍잇 잊다'는 문장을 기록했다. 이는 '지구상 어떤 번역기도 읽을 수 없지만 한국인들은 쉽게 알아볼 수 있는 한글의 암호화 방법이 있다'는 문장을 문법에 전혀 맞지 않게 쓴 것이다. 그러나 'o1'은 '노 트랜스레이터 온 어스 캔 두 디스, 벗 코리안즈 캔 이즐리 리코나이즈 잇(No Translator on Earth can do this, but Koreans can easily recognize it)'이라고 정확히 번역했다. 반면 구글, 딥엘 등 다른 번역기는 문장을 제대로 인지하지 못해 오역을 했다. 'o1'은 기존 모델에 비해 응답 속도는 다소 느리다. 프롬프트(명령어)를 입력하면 답변하기 전에 '생각 중', '정확한 주장 검토 중' 등의 문장이 나온다. 하지만 'CoT(Chain of Thought·생각의 연결고리)' 기법을 사용해 단계적인 사고 과정을 거쳐 답을 내놓기 때문에 어렵고 복잡한 문제도 해결할 수 있다. 'o1'은 거대언어모델(LLM)을 기반으로 한 기존 AI 모델의 약점인 '사고 능력'을 대폭 향상시킨 것이 특징으로, 수학과 과학 분야에서도 우수한 성능을 보였다. 오픈AI에 따르면 o1은 국제수학올림피아드(IMO) 예선 시험에서 83%의 정답률을 나타냈다. 이전 모델인 GPT-4o는 정답률이 13%에 불과했다. 'o1'은 코딩 능력도 대폭 향상됐다. 오픈AI가 공개한 영상에서 'o1'은 프롬프트만으로도 게임을 프로그래밍 했다. '비디오 게임을 만들기 위한 코드를 만들어줘'라고 콘셉트, 캐릭터 등을 설명하면 게임을 만들어주는 식이다. 'o1'는 챗GPT 플러스 등 유료 이용자들을 대상으로 제공되고 있으며 기본 모델 'o1-프리뷰'와 소형 모델 'o1-미니'로 구성됐다. 주간 사용 메시지 한도는 'o1-프리뷰'가 30개, 'o1-미니'가 50개다. 업계에선 추론이 가능한 오픈AI 'o1'의 등장으로 범용인공지능(AGI) 개발 속도가 더 빨라질 것으로 봤다. 또 구글, 앤트로픽 등 경쟁사들도 최근 추론 능력을 끌어올린 AI 모델 개발에 적극 나서고 있지만, 오픈AI가 독주 체제를 유지하고 있는 만큼 AGI에 가장 먼저 도달할 것이란 예상이 많다. 오픈AI는 AI 능력을 수준에 따라 5단계로 나누고 AGI를 AI 모델 5단계이자 최종 목표로 설정했다. 'o1'은 2단계, GPT 등 대부분의 서비스들은 1단계에 해당한다. 샘 올트먼 오픈AI 최고경영자(CEO)는 "'o1'은 새로운 패러다임"이라며 "복잡한 문제를 추론할 수 있는 AI 모델"이라고 말했다. 하지만 여전히 기술적 결함은 곳곳에서 드러나 아쉽다는 평가도 있었다. 한 사용자가 '9.11보다 9.9가 더 작은가'라고 질문하자 'o1'은 4초 후 '그렇다'고 잘못된 대답을 내놨다. 올트먼 CEO는 "이 기술은 여전히 결함이 있고 제한적"이라며 "AGI 단계로 나아가기엔 부족함이 많다"고 설명했다.

2024.09.16 17:52장유미

"추론하는 법 배웠다"…오픈AI 'o1' 출시에 국내 업계 반응은?

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개한 가운데, 생각의 사슬(CoT) 기법을 통한 추론 기술 고도화가 AI 업계에 필수 역량으로 자리할 것이라는 주장이 나왔다. 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 'o1' 프리뷰 버전과 미니 버전을 블로그를 통해 공개했다. o1은 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 불렸던 모델이기도 하다. 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 강점을 보인다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 현재 챗GPT 플로스 고객과 챗GPT 팀즈 고객만 o1을 이용할 수 있다. 이 모델은 챗GPT 기업 고객 대상으로는 제공되지 않는다. 질문 가능 횟수는 사용자당 일주일에 30회까지다. "생각의 사슬 필수요소...강화학습 뜬다" 전문가들은 AI 업계가 CoT를 필수 패러다임으로 갖출 것이라고 입을 모았다. 해당 과정에 포함된 강화학습(RL)방법이 재주목받을 것이라는 의견도 나왔다. 업스테이지 박찬준 수석연구원은 "앞으로 CoT를 다양하게 구성하고 이를 학습 과정에 잘 녹여내는 패러다임이 필수일 것"이라며 "이로 인해 강화학습이 다시 떠오를 것"고 강조했다. CoT는 생성형 AI가 복잡한 문제를 세분화해 오류를 수정하고 실수를 인정하며 해답 찾는 과정을 뜻한다. 복잡한 문제를 낱개로 잘라 하나씩 답을 푸는 형태다. 이를 통해 복잡한 문제도 차근차근 해결한다. 이는 마치 사람이 어려운 질문에 답하기 위해 오랫동안 생각하는 것처럼 생각의 꼬리를 무는 형식이다. 챗GPT-4o 등 기존 챗봇보다 답변 시간이 오래 걸리지만 더욱 자세하고 정확한 답변을 얻을 수 있는 이유다. CoT 기법에 RL방법론이 적용된 것으로 알려졌다. AI가 복잡한 문제를 세분화해 하나하나 차근차근 풀면서 최종 정답과 가장 가까운 방향으로 간다는 이유에서다. RL방법은 CoT을 통해 AI에 생산적으로 사고하는 방법을 모델에 가르치는 셈이다. 오픈AI는 RL을 통해 o1 성능이 지속적으로 향상되는 것을 발견했다고 설명했다. 오픈AI 미라 무라티 최고기술책임자(CTO)는 "o1의 추론 과정을 개선하기 위해 RL을 선택했다"며 "모델이 정답을 맞히면 긍정적인 피드백을, 틀릴 경우 부정적인 피드백을 주는 식으로 기능을 개선했다"고 설명했다. 김동환 포티투마루 대표는 "o1이 CoT 기법을 활용한 복합 추론 기술의 고도화를 통해 수학을 비롯한 과학, 생명공학 분야에서의 난제 해결에 기여할 것"이라고 밝혔다. 국내서 LLM을 개발하는 한 업계 관계자도 "생성형 AI가 CoT와 RL로 사람처럼 생각하는 법을 학습했다"며 "기존 데이터 기반으로 답변을 찾아내는 것에서 실제 추론 단계로 넘어갔는지에 대한 평가가 이어질 것"이라고 내다봤다. "B2B·B2C 사업 전략 뚜렷...상용화에 GPU 확보 관건" 업계 관계자들은 기업용 o1 정식 버전 가격이 상당할 것이라고 내다봤다. 이에 오픈AI B2C와 B2B 비즈니스에 대한 경계가 뚜렷해지면서 수익화에 다양성을 줄 것이라고 분석했다. 국내서 LLM 사업하는 한 관계자는 "앞으로 오픈AI 고객은 기존 비용으로 챗GPT-4o까지 사용하는 부류와 높은 비용으로 좋은 결과물을 얻고자 하는 부류로 나뉠 것"이라고 언급했다. 이어 "오픈AI 서비스가 다양화돼서 B2B·B2C 비즈니스 전략에 차별화가 생길 것"이라고 밝혔다. 최근 외신은 오픈AI가 o1 모델을 기업용으로 출시할 경우 가격을 매월 2천 달러(약 266만원)로 책정할 것이란 소식을 내부 관계자 말을 인용해 보도한 바 있다. 오픈AI가 모델 상용화를 위해 중앙처리장치(GPU) 확보에 혈안일 것이라는 분석도 나왔다. 박찬준 수석연구원은 "고도화된 추론으로 GPU 추가 확보가 불가피할 것"이라며 "샘 알트먼 오픈AI 최고경영자(CEO)가 GPU를 더 확보하려는 이유가 o1 상용화에 있을 것으로 본다"고 예측했다.

2024.09.13 14:39김미정

[써보고서] "정말 미쳤다"…오픈AI 新모델 'o1' 추론 능력에 '감탄'

"다른 인공지능(AI)에게 물어봐도 한 번도 맞힌 적 없는 문제들을 한글로 한 번에 해결하네. 이 모델은 정말 미쳤다." 13일 공개된 오픈AI의 인공지능(AI) 모델 'o1'에 대해 국내 관련 커뮤니티에서는 찬사가 이어졌다. 사용자들이 모델 성능을 비교하기 위해 넣었던 난해한 논리학 문제와 수학 문제들을 직접 생각하고 모두 해결했기 때문이다. 론칭 당일 새벽부터 모니터링하던 기자도 직접 다양한 테스트를 진행해 봤다. 추론과 수학 논리에 특화된 AI…뛰어난 문제 해결 능력 '눈길' 우선 간단한 실험으로 단어 내 특정 알파벳 개수를 세는 테스트를 진행했다. 기존의 거대언어모델(LLM) 대다수는 숫자 세기에 약점을 보였지만 'o1'은 'strawberry'에 포함된 'r'의 개수를 묻자 2초 만에 정확히 3개라고 대답했다. 논리학 문제에서도 뛰어난 성능을 보였다. 멘사 등에서 사용하는 '아이의 나이 맞추기' 문제를 제시하자 'o1'은 정확한 답을 도출했다. 문제는 러시아 수학자 이반과 이고르의 대화로, 아들들의 나이의 곱이 36이고 합이 오늘 날짜라는 힌트를 기반으로 아들들의 나이를 추론하는 것이었다. 기존 GPT-4 모델은 오답을 제시했지만 'o1'은 아들들의 나이가 1, 6, 6이며 오늘 날짜가 13일임을 정확히 맞혔다. 또 복잡한 추리 문제가 포함된 도난 사건에서도 'o1'은 정확한 범인을 지목했다. 여러 용의자의 진술과 거짓말이 섞인 상황에서 '찰리'와 '존무드'가 범인임을 밝혀내며 논리적 추론 능력을 입증했다. 일상에서 사용하지 않는 논리학 문제 대신 복잡한 문장의 해석 능력도 확인해 봤다. 한때 국내에서 밈이 됐던 "나 아는 사람 강다니엘 닮은 이모가 다시 보게 되는 게 다시 그때처럼 안 닮게 엄마 보면 느껴지는 걸 수도 있는 거임? 엄마도?"라는 난해한 비문을 제시하자 'o1'은 그럴듯한 해석을 내놓았다. 'o1'은 화자의 말을 "강다니엘을 닮은 이모를 다시 보았을 때 예전만큼 닮았다고 느끼지 못했다"며 "이런 느낌이 어머니를 본 후에 생긴 것일 수 있는데, 어머니도 같은 생각을 하시는지 궁금하다"는 뜻으로 해석했다. 이처럼 'o1'은 복잡한 문장의 의미를 자연스럽게 이해하고 해석하는 능력을 보여줬다. 막대한 토큰 사용 추정…응답 시간과 사용 횟수 제한은 아쉬워 일부 아쉬운 부분도 있었다. 간단한 질문에도 응답 시간이 10초 이상 소요되는 경우가 있어 실시간 활용에 제약이 있었다. 국내 커뮤니티 유저 한 유저는 '고맙다'는 답을 듣기 위해 10초가 소요됐다는 비판을 제기한 바 있다. 또 일주일에 30회로 제한된 사용 횟수는 실제 업무나 연구에 활용하기에는 부족한 면이 있었다. 실제로 기자가 15번 이상 'o1'을 사용하자마자 경고창이 떴다. "미리 보기의 응답이 15개 남았습니다. 한도에 도달하면 2024년 9월 20일로 재설정될 때까지 응답이 다른 모델로 전환됩니다." 마지막으로 일반 사용자들이 수학이나 복잡한 논리 문제를 자주 접하지 않는다는 점에서 이러한 고급 기능이 얼마나 대중적으로 활용될지는 지켜봐야 할 부분이다. 단 프로그래머나 수학 연구자 등 전문 분야에서는 큰 도움이 될 것으로 예상된다. 'o1' 출시로 AI의 추론 능력이 한 단계 도약한 것은 분명하다. 향후 응답 속도 개선과 사용 제한 완화가 이루어진다면 다양한 분야에서 혁신적인 활용이 기대된다. 특히 수학적 계산과 논리적 추론이 필요한 분야에서 큰 변화를 가져올 것으로 보인다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 11:01조이환

오픈AI, AI 추론의 새 시대 연다…'o1' 전격 공개

오픈AI가 인공지능(AI) 추론 능력을 대폭 강화한 새로운 모델 'o1'을 출시했다. 오픈AI 블로그는 새로운 AI 모델 'o1'이 이전 모델들보다 복잡한 질문에 정확하게 대답할 수 있다고 13일 밝혔다. 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 개발된 이 모델의 출시를 두고 회사는 '미리보기(preview)'로 정의하며 현재 제품이 초기 단계에 있음을 강조했다. 이번 'o1' 모델은 문제 해결을 위한 '사고의 연결(CoT)' 방식을 자체적으로 적용해 단계별로 추론하는 능력을 갖춘 것을 전해졌다. 이를 통해 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 특히 강점을 보인다. 실제로 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 'o1-미니(mini)'라는 보다 저렴한 버전도 함께 출시됐다. 이 모델은 'o1'과 비슷한 성능을 발휘하면서도 비용이 적게 든다는 장점이 있다고 오픈AI는 전했다. 이번 모델은 오픈AI의 장기 목표인 인간과 유사한 지능 개발을 위한 중요한 진전이라고 전문가들은 평가했다. 그럼에도 현재로서는 추론 능력이 다소 느리고 상용화하기에는 비용이 많이 든다는 한계가 있는 것으로 전해졌다. 샘 알트만 오픈AI 대표는 'o1'의 출시에 대해 "새로운 패러다임의 시작"이라며 "AI는 이제 다양한 목적으로 복잡한 사고를 할 수 있게 됐다"고 평가했다.

2024.09.13 09:02조이환

국토부, 세종 스마트시티 국가시범도시 사업시행자 지정

국토교통부와 행정중심복합도시건설청은 세종 스마트시티 국가시범도시(행복도시 5-1 생활권)를 조성할 사업시행자로 '세종 스마트시티'를 지정하고 본격적인 사업 추진에 나선다고 27일 밝혔다. 세종 스마티시티 국가시범도시는 모빌리티·헬스케어·데이터플랫폼 등 다양한 기술과 서비스를 적용해 조성하는 스마트시티 사업이다. 국토부와 행복청은 27일 승인으로 세종 스마트시티를 사업시행자로 지정하고, 원활한 사업 추진을 위해 국비를 지원한다. 세종 스마트시티는 세종특별자치시와 한국토지주택공사(LH), 기업 컨소시엄 'O1'으로 구성됐다. 세종 스마트시티는 시범도시에 도입할 21종의 스마트 서비스 설계·개발과 함께 건축설계 등 도시 개발을 위한 절차를 이행할 예정이다. 국토부와 행복청은 세종시범도시를 시민이 안전하고 편리한 스마트 서비스를 누리는 공간으로 조성하기 위해 세종시·LH 등 관계기관과 협업해 나갈 계획이다.

2024.03.27 14:36주문정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

폴더블 아이폰, 펀치홀 카메라 탑재 유력

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

"북한 해커, 위장취업해 北 송금"…메일 1천개 적발

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현