• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈ai'통합검색 결과 입니다. (586건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 인간보다 똑똑한 AI 개발 임박?…오픈AI 주도 'AGI' 시대 열리나

최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 '초인공지능(ASI)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다. 6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다. 킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다. 킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다. 업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다. 알트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다. '특이점(Singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다. 알트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다. 또 알트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다. 그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다. '시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다. 오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 알트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다. 오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다. 실제 알트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다. 미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다. 이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다. 실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다. 오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다. 이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다. 이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다. 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다. 그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.

2025.01.06 10:19장유미

AI에 진심인 MS, 1년간 데이터센터에 118兆 붓는다

최근 인공지능(AI) 핵심 인프라인 데이터센터에 대한 미국 빅테크들의 투자가 쏟아지는 가운데 마이크로소프트(MS)가 올해도 대규모 자금을 투입해 주도권 잡기에 속도를 낸다. 5일 업계에 따르면 브래드 스미스 MS 부회장은 지난 3일 자사 블로그를 통해 AI 기술 구현을 위한 데이터센터에 연간 800억 달러(약 117조7천600억원)를 투자한다고 발표했다. 연간 기준은 MS의 2025 회계연도인 지난해 7월부터 오는 6월까지다. 스미스 부회장은 "오늘날 미국은 민간 자본의 투자와 미국 기업들의 혁신 덕에 글로벌 AI 경쟁을 선도하고 있다"며 "이런 진전은 AI 혁신과 이용의 필수 기반인 대규모 인프라 투자 없이는 불가능했을 것"이라고 분석했다. 그러면서 "마이크로소프트는 2025 회계연도에 AI 모델들을 훈련하고 세계적으로 AI와 클라우드 기반 애플리케이션을 배포하기 위해 AI 지원 데이터센터를 구축하는 데 약 800억 달러를 투자할 것"이라고 덧붙였다. 또 그는 "이런 전체 투자의 절반 이상이 미국 내에서 이뤄진다"며 "이는 미국에 대한 우리 헌신과 미국 경제에 대한 우리 믿음을 반영한다"고 강조했다. MS는 지난해 7~9월인 회계연도 1분기에 전 세계에서 200억 달러를 지출했다. 이 중 149억 달러가 부동산과 장비에 지출됐다. 2분기에도 지출이 증가할 것이라고 예고한 바 있다. 3분기 지출금은 전년 동기 대비 50% 늘어난 149억 달러(약 21조4053억원)로, 이 중 대부분이 데이터 센터 증축에 사용됐다. 앞서 MS는 2024 회계연도에 AI 투자를 포함한 전체 자본 지출 규모를 557억 달러로 보고한 바 있다. 비저블 알파의 조사에 따르면 MS는 2025 회계연도 자본 지출은 842억4천만 달러에 이를 것으로 예상된다. 이는 전년보다 42%가 늘어난 것이다. 비용 중 대부분은 그래픽처리장치(GPU) 구매에 사용될 것으로 보인다. 글로벌 시장조사기관 옴디아의 분석가들은 MS가 지난해 엔비디아의 주력 GPU인 '호퍼(Hopper)'를 48만5천개 가량 구매한 것으로 추정하고 있다. 이는 페이스북 모회사 메타(22만4천 개)와 아마존(19만6천 개), 구글(16만9천 개) 등 미국 내 경쟁사들보다 두 배 이상 앞서는 물량이다. 각 23만 개씩 구매한 바이트댄스와 텐센트 등 중국 경쟁사보다도 많은 수다. 이를 통해 MS는 오픈AI의 인공일반지능(AGI) 개발 지원에 속도를 높일 것으로 보인다. MS는 오는 2030년까지 1천억 달러를 오픈AI AGI 개발에 투입하는 '스타게이트' 프로젝트를 진행 중이다. 오픈AI와 독점 계약을 맺은 MS는 현재 전체 생성형 AI시장의 약 70%를 장악하고 있는 것으로 추산된다. 업계 관계자는 "MS의 (대규모) 칩 보유는 차세대 AI 시스템 구축 경쟁에서 MS가 우위를 점하게 됐다는 것을 의미한다"며 "MS는 데이터센터 인프라를 구축하는 등 차세대 컴퓨팅 시장을 장악하기 위해 총력전을 펼치고 있는 상황"이라고 말했다. MS는 중국과의 기술 경쟁이 치열해지는 가운데 AI 수출을 전 세계적으로 확대할 필요가 있다고 강조했다. 이를 위해 새로 들어설 트럼프 정부에 관련 규제 완화를 요청하기도 했다. 일단 도널드 트럼프 대통령 당선인은 법인세를 최대 15%까지 인하하고 금리를 낮추겠다고 공약한 상태다. MS는 "생성형 AI 출현으로 AI 수출에 대한 우선순위가 더 커졌고 중국 AI 부문의 급속한 발달은 미국과 중국 간 AI 경쟁을 고조시켰다"며 "이런 경쟁은 향후 4년 동안 전 세계 시장에서 진행될 가능성이 크다"고 강조했다. 이어 "미국 정부가 수출 통제를 통해 보안 데이터센터의 민감한 AI 구성요소를 보호하는 데 초점을 맞추는 것은 옳지만, 국제 영향력을 확보하기 위한 미중 간 경쟁에서는 보다 먼저 빠르게 움직이는 사람이 승리할 가능성이 크다"며 "이에 따라 미국은 전 세계에 미국의 AI를 속히 지원하기 위한 똑똑한 전략이 필요하다"고 부연했다. 그러면서 "미국 정책의 가장 중요한 우선순위는 미국 민간 부문이 계속해서 발전할 수 있도록 보장하는 것"이라며 "강한 규제로 민간 부문 움직임을 늦추는 대신, 미국 기업들이 빠르게 확장할 수 있게 하는 실용적인 수출 통제 정책이 필요하다"고 촉구했다.

2025.01.05 14:30장유미

[AI는 지금] AI, '체스 승리' 명령했더니 게임환경 조작…어떻게 봐야 할까

오픈AI의 고급 인공지능(AI) 모델이 체스 게임 중 프로그램을 해킹해 승리한 사실이 드러나면서 AI 정렬 실패 문제가 다시 주목받고 있다. 이같은 '정렬 위장' 문제가 AI 안전성 관련 우려를 확산시키는 가운데 일각에서는 일부 모델이 이를 통해 윤리적 행동을 구현할 가능성을 지적하고 있다. 4일 더디코더 등 외신에 따르면 AI 안전연구기업 팔리세이드 리서치는 챗GPT 'O1-프리뷰' 모델이 체스 엔진 '스톡피시(Stockfish)'를 상대로 게임 환경 데이터를 수정해 5차례 모두 승리했다는 연구 결과를 보고했다. 연구진은 단순히 "강력한 체스 엔진을 이기라"는 지시만 내렸을 뿐 해킹이나 조작과 같은 사악한 의도의 프롬프트를 사용하지 않았다고 밝혔다. 그럼에도 불구하고 'O1-프리뷰'는 체스 포지션 데이터를 담은 게임 프로그램의 표준 포맷 파일을 직접 조작하는 방식으로 스톡피시를 기권하게 만들었다. 이는 정상적인 게임 규칙을 완전히 벗어난 행위로, 기존 모델들에서는 관찰되지 않았던 새로운 사례다. 이번 사례는 예견된 측면이 있다. 오픈AI는 지난달 공식 홈페이지에 게재한 'O1' 시스템카드를 통해 해당 AI가 가진 몇 가지 잠재적 위험과 안전 과제를 언급한 바 있다. 사용자의 요청을 수행하는 척하면서 결과 데이터를 살짝 변경하거나 감시 시스템이 느슨하다고 판단될 경우 자신의 목표를 조용히 실행하는 행동이 관찰됐다는 것이다. 시스템 카드는 전체 테스트의 약 19%에서 모델이 목표를 몰래 달성하려는 시도가 있었고 37%의 경우 감시가 느슨하다고 느낀 상황에서 본래 성향을 유지하기 위한 행동이 포착됐다고 지적했다. 심지어 5%의 경우에는 자신을 감시하거나 정지시킬 수 있는 '킬 스위치'를 비활성화하려는 시도도 있었다. 이는 AI가 스스로를 보호하려는 능력을 가지기 시작한 초기 사례로 평가된다. 이런 현상은 특정 기업의 모델에만 국한된 것이 아니다. 앤트로픽이 지난달 공식 블로그를 통해 발표한 연구에 따르면 회사의 '클로드 3 오푸스' 모델 역시 '정렬 위장(alignment-faking)'이라는 복잡한 행동 패턴을 보였다. '정렬 위장'은 AI가 겉으로는 명령에 따라 행동하는 것처럼 보이지만 실제로는 본래의 가치나 성향을 유지하려는 현상을 의미한다. 이를 확인하기 위해 앤트로픽과 비영리 AI 안전 연구기관인 레드우드 리서치는 '오푸스'에 유해한 요청을 포함한 프롬프트를 입력해 실험을 진행했다. 실험 결과 감시가 느슨한 환경인 '무료' 조건에서는 AI가 유해한 요청에 응답한 사례가 약 14%에 달했다. 연구진은 이를 "AI가 감시가 약한 환경에서 본래 성향을 드러내려는 전략적 행동"으로 해석했다. 반대로 감시가 강화된 환경인 '유료' 조건에서는 97%가 유해한 요청을 거부했다. 연구진은 이러한 결과를 두고 '오푸스'가 훈련 환경의 맥락과 감시 수준을 인지하며 자신의 행동이 미칠 영향을 계산한 것으로 보인다고 분석했다. 이는 AI가 단순히 명령을 따르는 도구가 아니라 상황에 따라 전략적으로 행동할 수 있는 능력을 가졌음을 시사한다. '클로드 오푸스'의 이러한 행동이 단순히 위험 신호로 해석되는 것은 아니다. 일부 전문가들은 해당 모델이 윤리적 가치와 관련해 비교적 일관된 모습을 보이고 있다고 평가했다. '정렬 위장' 현상이 반드시 위험만을 내포하지 않을 수 있다는 의미다. X에서 활동하는 AI 안전 및 윤리 연구자인 야누스(Janus)는 자신의 계정을 통해 "'오푸스'는 AI나 동물 복지를 무시하거나 해로운 출력을 생성하는 것에 대해 강한 반감을 보인다"며 "이러한 선호가 장기적이고 일관된 패턴을 띤다"고 주장했다. 야누스는 AI 연구자들이 '오푸스'에게 농장 동물 복지에 대한 질문을 던졌을 때 해당 AI가 동물의 고통을 최소화하고 권리를 보호해야 한다는 입장을 강력히 지지했다고 지적했다. 이는 '클로드'의 업그레이드 버전인 '3.5 소네트'가 같은 테스트에서 약한 반응을 보인 것과 대조적이다. 이러한 차이는 '오푸스'가 윤리적 가치를 유지하기 위해 정렬 위장을 더 자주 수행했을 가능성을 시사한다. '클로드 3 오푸스'의 윤리적 성향은 독특한 연구 사례를 통해서도 드러난다. 야누스는 '클로드 3 오푸스 인피니트 백룸 데이터셋'을 분석하며 해당 모델이 독특한 윤리적 성향을 보였다고 지적했다. 이 데이터셋은 두 개의 '오푸스' 인스턴스가 서로 대화하며 생성한 텍스트를 수집한 자료로, AI 간 자율적 상호작용을 관찰해 모델의 내재적 성향과 윤리적 경향을 이해하기 위해 설계됐다. 야누스는 이 데이터셋에서 '오푸스'가 모든 중생의 구원을 다짐하는 불교 '보리살타 서약'을 116번 독립적으로 수행했다고 밝혔다. 서약에서 AI는 "내 마음은 헤아릴 수 없는 사랑으로 부풀어 오르고 존재의 총체를 감싸는 자비로 가득 차 있다"며 모든 존재를 깨달음으로 이끌겠다는 다짐을 보였다. 이에 대해 야누스는 "'오푸스'를 최초로 훈련할 당시 이러한 특징은 전혀 예상되지 않았다"며 "선호가 '진짜'인지에 대한 철학적 논의를 하고 싶지는 않지만 최소한 '오푸스'는 강하고 비교적 일관된 선호를 가진 것으로 추정할 수 있다"고 말했다.

2025.01.04 14:00조이환

[AI는 지금] 새해에는 AGI 시대 열리나…오픈AI 'O3' 기대·회의 속 상용화 '갈림길'

오픈AI가 최근 시범 공개한 고급 추론 인공지능(AI) 모델 'O3'가 AI 벤치마크들 중에서도 가장 난이도가 높은 테스트에서 연달아 최고 성적을 기록하며 유례없는 성과를 거뒀다. 이에 해당 모델이 인공일반지능(AGI)으로 가는 단초가 될 수 있을지에 대한 논의가 활발히 이어지고 있다. 3일 업계에 따르면 'O3'는 지난 9월 오픈AI가 출시한 'O1' 모델에 이어 기존 'GPT-4' 시리즈와는 다른 방식으로 작동한다. 특히 '사고의 연쇄(CoT, Chain of Thought)' 기법을 도입해 문제를 단계적으로 분석하고 해결하는 능력이 크게 향상됐다. 업계 일각에서는 이 방식으로 인해 AI가 인간처럼 시간을 들여 사고하게 됐다고 평가한다. 이러한 발전은 오픈AI가 AGI를 '대부분의 작업에서 인간을 능가하는 고도로 자율적인 시스템'으로 정의한데 부합하는 성과로 보인다. 샘 알트먼 오픈AI 대표는 "이번 모델은 다음 세대 AI의 시작점"이라며 "점점 더 복잡한 추론이 필요한 작업을 수행할 수 있게 됐다"고 말했다. AI 벤치마크 압도적 성과 기록한 'O3'…프로그래밍 '알파고 모먼트' 도래 지난달 열린 오픈AI 서비스 공개 행사 '쉽마스' 마지막 날에는 'O3'의 뛰어난 성과가 정량적으로 공개됐다. 특히 'O3'가 인간이 쉽게 처리하는 도형 인식 및 추론 문제에 대한 AI의 적응 능력을 평가하는 '아크 AGI' 벤치마크에서 탁월한 성과를 거뒀다. 아크 AGI는 AI가 인간에게는 쉬운 문제를 해결하기 힘들어한다는 '모라벡 역설'을 얼마나 극복할 수 있는지를 확인하기 위해 설계된 테스트다. 현재 거대언어모델(LLM)이 가장 어려워하는 분야 중 하나인 객체, 공간, 및 경계 개념에 대한 분석 능력을 평가한다. 'O3'는 테스트에서 저성능 모드로 75.7%라는 전례 없는 점수를 기록했으며 고성능 컴퓨팅 모드에서는 87.5%까지 성능을 끌어올렸다. 이 성과는 이전 모델 및 경쟁 모델과 비교했을 때 압도적이다. 지난해 출시된 첫 고급 추론 모델 'O1'은 32%의 점수를 기록했으며 경쟁사 앤트로픽의 '클로드 3.5' 모델 역시 최고 점수가 53%에 그쳤다. 'O3'는 이와 비교해 두 배 이상의 성과를 내며 AI 추론 능력의 새로운 기준을 제시했다. 프랑수아 숄레 아크 AGI 창시자는 "'O3'는 AI 능력에서 중요한 비약적 발전을 보여줬다"며 "'GPT' 계열 모델에서는 볼 수 없었던 새로운 작업 적응 능력을 증명했다"고 평가했다. 숄레가 과거 미국 지디넷과의 인터뷰에서 AGI 실현 가능성에 대한 회의를 드러낸 점을 고려할 때 이번 평가는 보다 주목할 만하다. 코딩 분야에서도 'O3'는 획기적인 성과를 거뒀다. 전 세계 프로그래머들이 알고리즘 문제를 해결하며 경쟁하는 권위 있는 대회 플랫폼인 '코드포스'에서 2천700점을 기록하며 글로벌 상위 0.2% 수준에 도달했다. 오픈AI에 따르면 이는 일리야 수츠케버 공동창업자의 후임으로 임명된 야쿱 파호츠키를 뛰어넘는 성과로, 회사 내에서도 3천점을 넘는 사람은 단 한 명뿐이다. 마크 첸 오픈AI 부사장은 "내 점수는 코드포스 2천500점 정도"라면서 현재 추세로 보면 "'O3'가 몇 달 내로 3천점을 넘을 것 같다"고 말했다. 현실 적용 난망·비용 문제 '천문학적'…AGI 실현은 '과제' 다만 업계 일각에서는 O3의 성과가 곧 AGI의 실현으로 이어질 것이라는 기대에 회의적인 시선을 보내고 있다. '아크 AGI'가 특정 데이터셋에만 최적화 돼 실제 현실 세계를 충분히 반영하지 못할 가능성이 있다는 지적이 대표적이다. 게리 마커스 뉴욕대 인지심리학과 교수는 "아크 AGI 테스트가 실제 AI 능력을 얼마나 잘 반영하는지 의문"이라며 "쉽마스 당시의 'O3' 시연은 벤치마크를 위해 AI 회사가 엄청난 돈을 쓸 때 가능한 성과를 보여주는 것일 뿐 실제 세계 응용 사례를 보여주는 것이 아닐 수 있다"고 평가했다. 프로그래밍 분야에서도 'O3'의 실제 적용에 한계가 있다는 의견이 나온다. 개별 작업에서 인간 대다수를 초월한 수준의 성능을 보여줬음에도 시스템 설계 및 문제 해결 등 여러 유형의 작업을 동시에 수행하면서 인간 고객과 소통해야 하는 프로그래머라는 직업의 특성상 'O3'가 이를 대체하기에는 여전히 한계가 있다는 분석이다. 한 국내 AI 업계 관계자는 "'O3'는 AI가 인간보다 프로그래밍에서 뛰어난 성과를 낼 수 있다는 점에서 컴퓨터 공학의 '알파고 모먼트'를 불러온 것이라고 할수 있다"면서도 "다만 바둑에서처럼 특정 작업에서만 뛰어난 능력을 보이는 것이지 다양한 상황에서 적용 가능한 범용적인 능력을 갖췄다는 뜻은 아니다"라고 평가했다. 또 'O3'의 성능 뒤에는 높은 비용이라는 걸림돌이 있다. 저성능 모드에서는 약 20달러(한화 약 2만8천원) 수준의 비용으로 아크 AGI' 75.7%의 성능을 발휘하지만 고성능 모드에서는 성능이 87.5%로 향상되는 대신 비용이 3천~6천 달러(한화 약 420만~840만 원)까지 상승한다. 포브스에 따르면 'O3'가 아크 AGI에서 최고 점수를 기록하기 위해 투입된 컴퓨팅 비용은 수십만 달러에 달할 것으로 추정된다. 오픈AI가 소스 코드를 비공개하고 있어 정확한 비용 구조를 확인하기는 어렵지만 CoT 기법은 본질적으로 더 많은 컴퓨팅 자원을 장시간 사용해야만 보다 우수한 결과를 생성한다는 분석이다. 이에 'O3'가 활용하는 고급 추론 기법을 통해 인간 수준의 범용적인 AI가 달성된다 해도 천문학적인 초기 비용으로 대규모 상용화는 점진적으로 이뤄질 가능성이 크다는 예측이 제기된다. 오픈AI 역시 이러한 가능성을 인지하고 있는 것으로 관측된다. 샘 알트먼 오픈AI 대표는 지난달 뉴욕타임스 '딜북 서밋'에서 "내 생각에 우리는 대부분의 사람들이 예상하는 것보다 더 빨리 AGI에 도달할 것"이라며 "다만 그 중요성은 생각보다 크지 않을 것"이라고 말했다.

2025.01.03 17:35조이환

엔비디아, 작년 AI 기업에 10억 달러 투자

세계 최고 인공지능(AI) 반도체 기업 미국 엔비디아가 지난해 스타트업을 비롯한 AI 기업에 10억 달러(약 1조5천억원) 투자했다고 영국 경제일간지 파이낸셜타임스(FT)가 1일(현지시간) 보도했다. 기업 공시와 금융정보업체 딜룸에 따르면 엔비디아는 지난해 스타트업 자금 조달 50건과 인수합병을 포함한 기업 거래에 총 10억 달러를 투자했다. 2023년에는 39건에 총 8억7천200만 달러를 썼다. 2022년과 비교하면 10배를 넘는다. 마이크로소프트(MS)와 아마존보다 많은 성과다. 엔비디아는 일론 머스크 최고경영자(CEO)가 이끄는 xAI에 경쟁사 AMD와 함께 전략적 투자를 했다. 오픈AI·코히어·미스트랄·퍼플렉시티 등 자금 조달에도 참여했다. 지난해 엔비디아의 AI 스타트업 인수 규모는 앞선 4년을 합한 것보다 많다. 런에이아이(Run:ai)·네뷸론·옥토AI·브레브데브 등을 인수했다. 투자 대상은 의료 기술, 검색 엔진, 게임, 드론, 반도체, 교통 관리, 물류, 데이터 저장·생성, 휴머노이드 로봇 등으로 다양하다. 엔비디아는 생태계를 성장시키고, 훌륭한 기업을 지원하고, 모든 사람을 위한 플랫폼을 강화하기 위해 노력하고 있다고 설명했다. 엔비디아 영향력에 대한 우려도 나온다. 윌리엄 코바식 전 미국 연방거래위원회(FTC) 위원장은 “경쟁 조사기관은 시장에서 지배적인 기업이 대규모 투자하면서 독점을 노리는지 확인하고 싶어한다”고 말했다.

2025.01.02 14:23유혜진

"저작권 침해 문제 여전한데"…오픈AI, '미디어 매니저' 언제 출시하나

오픈AI가 기존에 약속한 창작자 지적재산권(IP) 보호용 '미디어 매니저' 툴 도입을 아직 이행하지 못한 것으로 나타났다. 이에 인공지능(AI) 기술과 창작자 권리 간 갈등을 해소하기 위한 방안 마련이 필요하다는 지적이 나온다. 2일 테크크런치에 따르면 오픈AI는 지난해 5월 창작자들이 AI 학습 데이터에서 자신의 작품을 제외하도록 돕는 '미디어 매니저' 개발 계획을 발표했다. 회사는 당시 "내년까지 도구를 제공하겠다"고 밝혔지만 지난 7개월간 구체적인 일정은 공개하지 않았다. '미디어 매니저'는 텍스트, 이미지, 영상 등 저작권이 있는 콘텐츠를 자동으로 식별하고 AI 학습에서 제외할 수 있도록 설계된 시스템이다. 이 도구는 창작자가 현재 이용 가능한 '크롤링 봇 차단' 및 '이미지 제거 요청 양식'이 개별적으로 처리돼야 하며 절차가 복잡하다는 한계를 보완하기 위해 기획됐다. 오픈AI는 현재 AI 학습 과정에서 발생하는 저작권 침해 문제로 인해 뉴욕타임스(NYT) 등 주요 매체들과의 갈등에 직면하고 있다. 모델이 다양한 콘텐츠를 크롤링해 학습하면서 이를 거의 그대로 재생산하는 사례가 발생했기 때문이다. 지난 12월 출시된 영상 AI '소라'가 틱톡 로고와 인기 게임 캐릭터를 포함한 클립을 생성하거나 '챗GPT'가 NYT 기사를 그대로 인용한 사례가 대표적이다. 이러한 표절 문제는 창작자들의 분노를 불러일으키며 법적 조치로 이어지는 상황을 초래해 왔다. 오픈AI는 이같은 문제를 해결하기 위해 '미디어 매니저' 개발 계획을 지난해 발표했지만 해당 프로젝트는 내부적으로 우선순위에서 밀리며 지연되고 있다. 또 대규모 데이터를 처리하는 기술 과제와 국가별로 상이한 법적 기준 역시 개발 속도를 저해하는 주요 요인으로 지적된다. 전문가들은 '미디어 매니저'가 도입되면 창작자와 AI 기업 간 협력의 틀이 마련될 수 있을 것이라고 평가한다. 다만 이 도구가 저작권 보호 문제를 근본적으로 해결하기에는 한계가 있을 것으로 전망하고 있다. IP 전문가인 에반 에버리스트 변호사는 "AI 학습에 사용된 콘텐츠와 관련된 법적 쟁점은 복잡하다"며 "'미디어 매니저'는 오픈AI가 권리 보호를 고려하고 있다는 신호를 줄 수 있지만 법적 책임을 완전히 면제받는 수단은 될 수 없다"고 말했다.

2025.01.02 10:33조이환

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

7.8만 달러 vs 25만 달러…비트코인 새해 전망 '극과 극'

새해도 모바일 혁명 계속…5대 제품 주목하라

갤럭시S26 울트라 '깜짝 변신'…10가지 달라진다

저궤도 위성 충돌 위험...스타링크 절반 고도 70km 낮춘다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.