• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI는지금'통합검색 결과 입니다. (2건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 인간보다 똑똑한 AI 개발 임박?…오픈AI 주도 'AGI' 시대 열리나

최근 인공지능(AI) 기술이 급속도로 발전하면서 인간처럼 포괄적·종합적·일반적 사고능력을 지닌 '인공일반지능(AGI)'을 넘어 인간을 뛰어넘는 지적 능력을 갖춘 '초인공지능(ASI)' 시대로 직행할 수도 있다는 가능성이 제기됐다. AI 시장을 주도하고 있는 오픈AI가 AGI에 도달했음을 암시하는 발언을 쏟아낸 데 이어 ASI 관련 기술도 조금씩 윤곽을 드러내고 있어서다. 6일 업계에 따르면 로건 킬패트릭 구글 AI 스튜디오 제품 책임자는 최근 자신의 X(옛 트위터)를 통해 ASI 개발이 가속화되고 있다고 언급하며 일리야 수츠케버의 '테스트-타임 컴퓨트 확장' 접근법을 언급했다. 킬패트릭은 오픈AI를 떠나 구글에 합류한 핵심 개발진으로, 현재 '구글 AI 스튜디오'와 '제미나이' API 서비스를 총괄하고 있다. 수츠케버는 오픈AI 공동 창립자이자 수석 과학자로 작년 5월 오픈AI를 떠나 SSI를 설립했다. SSI 설립 목적은 인간의 지능 수준을 크게 뛰어넘는 ASI를 안전한 시스템으로 개발하는 것이다. 킬패트릭은 수츠케버가 ASI 개발 계획을 일찍부터 구체화했다고 평가하며 SSI가 ASI 기술의 새로운 장을 열 가능성이 있다고 강조했다. 업계에서는 AI를 고도화 수준에 따라 '제한적 인공지능(ANI)', 'AGI', 'ASI'로 구분한다. 이 중 AGI는 ANI인 오픈AI '챗GPT'나 구글 '제미나이'와 달리 사전 학습된 데이터와 알고리즘에 의존하지 않고도 새로운 문제를 분석하고 해결책을 제시할 수 있는 AI다. 인간 수준의 일반 지능을 갖추고 논리력과 창의적 추론 능력을 보유한 AI로 설명된다. 추론 능력이 향상된 오픈AI의 최신 모델 'o1', 'o3' 등은 ANI에서 AGI로 이행하는 단계에 있다는 평가를 받는다. 그 다음 단계인 ASI는 인간을 뛰어넘는 지적 능력을 갖춘 AI를 의미한다. 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 최근 샘 올트먼 오픈AI 최고경영자(CEO)가 자신의 X에 이미 AGI가 만들어졌을 가능성을 시사하는 듯한 수수께끼 같은 발언을 올려 눈길을 끌고 있다. 알트먼 CEO는 지난 4일 X에 "나는 항상 여섯 단어로 된 이야기를 쓰고 싶었다"며 "특이점 근방, 이쪽 편인지 저쪽 편인지는 불확실"이라는 모호한 글을 게재했다. '특이점(Singularity)'이란 1950~1960년대부터 과학·기술·전산 등 분야와 관련한 철학적·사변적 논의에서 종종 등장해온 개념으로, 미국 컴퓨터 과학자이자 미래학자 레이 커즈와일이 알리기 시작했다. AI와 기술 발전이 인간 지능을 초월해 사회와 문명을 근본적으로 변화시키는 시점을 일컫는다. 알트먼의 이번 발언은 AI의 발달이 현재 상황으로 볼 때 AGI의 등장과 밀접히 결부된 개념인 '특이점'에 가까워졌다는 것으로 해석된다. 또 알트먼 CEO는 8분 후 괄호로 둘러친 보충설명 글을 추가로 올려 자신이 올린 '여섯 단어짜리 스토리'가 스스로에게도 중의적으로 느껴진다는 취지로 설명했다. 그는 "(이 글은) 시뮬레이션 가설 또는 실제로 도약에서 결정적 순간이 언제 실제로 일어나는지 알기가 불가능하다는 점 중 하나에 해당하도록 쓰인 것"이라며 "하지만 다른 많은 방식으로도 뜻이 통한다는 점이 마음에 든다"고 말했다. '시뮬레이션 가설'이란 인간이 인식하고 경험하는 물리적 실재가 사실은 고해상도 비디오 게임과 유사한 컴퓨터 시뮬레이션이라는 철학적·사변적 가설을 의미한다. 이 가설에 따르면 인간의 의식은 컴퓨터 게임 속 캐릭터와 마찬가지 존재라고 볼 수 있다. 오픈AI가 AGI에 이미 도달했을 것이라고 볼 만한 발언은 지난해에도 여러 차례 있었다. 특히 일론 머스크는 지난해 2월 미국 캘리포니아주 샌프란시스코 소재 1심 주법원에 알트먼 CEO와 오픈AI 등을 상대로 소송을 제기하면서 오픈AI가 만든 GPT-4가 이미 AGI에 해당한다고 주장한 바 있다. 오픈AI는 당시 GPT-4가 AGI의 능력을 갖추고 있지 않다며 머스크의 주장을 부인했다. 그러나 지난해 말부터 내부에서 AGI에 도달했다는 발언들이 속속 나오며 기대감을 키우고 있다. 실제 알트먼 CEO는 지난해 11월 와이컴비네이터 게리 탠 CEO와의 유튜브 인터뷰에서 2025년에 AGI가 도래할 것이라는 전망을 내놨다. 또 같은 해 12월 4일 뉴욕타임스 '딜북 서밋' 컨퍼런스에선 "AGI는 초지능보다 낮은 단계에 있다"며 "비교적 빠른 시기에 도달할 수 있을 것"이라고 말해 눈길을 끌었다. 미국 IT 전문 매체 퓨처리즘 등 외신에 따르면 오픈AI의 기술 스태프 바히트 카제미도 X를 통해 "우리는 이미 AGI를 달성했다"며 "'o1'을 통해 더욱 분명해졌다"는 입장을 밝혔다. 오픈AI 관계자가 AGI를 달성했다고 직접 언급한 것은 이 때가 처음이다. 이 같은 상황에서 일각에선 오픈AI 주도로 AGI를 달성하는 것에 대해 우려를 표하기도 했다. 오픈AI가 기술 윤리적 측면에서 소극적인 모습을 보이고 있다는 점에서 AGI뿐 아니라 ASI로 빠르게 넘어갈 경우 부정적인 측면이 부각될 가능성이 높아서다. 실제로 오픈AI는 지난해 '슈퍼얼라인먼트', 'AGI 레디니스팀' 등 AI 안전성과 관련한 조직을 잇따라 해체 시켰을 뿐 아니라 안전성을 강조하고 나선 직원들도 대거 퇴사한 상태다. 안전 문제를 강조하며 올트먼을 CEO 자리에서 몰아내는 '쿠데타'까지 일으켰던 일리야 수츠케버는 현재 오픈AI를 떠난 상황이다. 수츠케버와 함께 초정렬팀에 있던 얀 레이케 역시 지난해 5월 오픈AI에서 퇴사하며 자신의 X에 "(오픈AI의) 안전 문화와 절차가 반짝이는 제품 뒷전으로 밀려났다"고 지적한 바 있다. 오픈AI가 지난해 7월 일부 직원들의 폭로를 통해 기술이 인류에게 미칠 수 있는 위험을 규제 당국에 신고하지 못하도록 불법적으로 금지했다는 사실도 드러났다. 워싱턴포스트(WP)에 따르면 오픈AI는 지난해 5월 GPT-4o 출시를 앞두고 안전팀에게 테스트 절차를 빨리 하도록 압박하기도 했다. 여기에 오픈AI 경영진이 AI 기술 설계도 관련 세부 정보가 해킹됐다는 사실을 감췄다는 점도 뒤늦게 알려졌다. 이에 업계에선 오픈AI의 주장이 사실일 경우 기술 발전 속도가 인간의 통제를 벗어나는 상황이 빠른 시일 내에 현실화 될 수 있을 것으로 봤다. 오픈AI가 기술 개발에만 집중한 나머지 윤리적 문제를 소홀히 했다면 위험한 기술로 발전했을 가능성이 높을 것으로 추측했다. 이에 학계에선 AI를 제어하기 위한 영구적인 안전장치가 하루 속히 나와야 한다고 보고 있다. 로만 얌폴스키 루이빌대 사이버보안연구소 교수는 "미래에는 AI가 인간을 반드시 해칠 것"이라며 "개발자가 의도하지 않은 일을 성공적으로 수행하는 LLM은 하나도 없을 것"이라고 말했다. 그러면서 "AGI가 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 덧붙였다.

2025.01.06 10:19장유미

[AI는 지금] 규제 갈림길 선 AI, 진화 속도 빨라졌다

"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다." 로만 얌폴스키(Roman Vladimirovich Yampolskiy) 루이빌대 사이버보안연구소 교수는 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 AI에 대해 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다. 1984년 개봉해 전 세계적으로 선풍적인 인기를 끈 '터미네이터'는 AI의 위험성을 가장 극명하게 보여주는 영화로 손꼽힌다. '터미네이터'의 배경은 2029년 미국 로스앤젤레스로, AI가 핵전쟁을 일으켜 잿더미를 만들고 남은 인류를 말살하는 과정에서 살아남은 인간들이 투쟁을 벌이는 과정을 담았다. '악의'가 아닌 논리적인 계산을 거쳐 AI가 인간을 적대한다는 내용은 AI가 등장하는 소설과 영화 등에서 숱하게 사용돼 왔다. 하지만 최근 AI의 발전 과정을 보면 이젠 단순히 영화 속 이야기로 치부하기 어렵게 됐다. 실제 지난해 5월 AI가 통제하는 미국 공군의 드론이 적의 지대공 시스템을 찾아 폭격하는 가상훈련에서 AI는 자신의 임무를 방해한다고 인식한 오퍼레이터를 폭격했다. "오퍼레이터를 살해하지 말라"는 사전 명령에도 불구하고 벌어진 일이었다. 가상훈련이었던 만큼 실제로 폭격이 일어나진 않았지만, AI가 인간을 위협하는 일이 현실이 될 수 있다는 가능성을 보여줬다. AI는 데이터를 학습하고 정해진 알고리즘에 따라 추론하는 것이 기본적인 역할이다. 그러나 인터넷이 발전하며 학습할 수 있는 데이터가 급격히 늘어났고, 엄청난 양의 데이터를 AI에게 학습시킬 수 있는 시대가 됐다. 그 결과 방대한 학습량을 기반으로 텍스트, 이미지는 물론 소리, 영상까지 생성해 낼 수 있는 '초거대 AI'가 등장했다. 특히 2022년 11월 오픈AI가 '챗GPT'를 내놓으면서 AI는 새로운 변화를 맞았다. 오픈AI를 필두로 구글, 마이크로소프트, 메타, 아마존 등 주요 빅테크가 연일 새로운 기술을 쏟아내면서 생성형 AI는 불과 2년여 만에 무서운 속도로 발전했다. 오픈AI가 최근 공개한 최신 AI 모델 'GPT-4o'는 텍스트는 물론 음성, 시각 정보까지 이해하고 '인간의 전유물'로 여겨진 창작 영역까지 넘보고 있다. 이처럼 빠른 속도로 AI가 발전하는 것과 동시에 오류도 곳곳에서 나타나고 있다. 구글이 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'는 허위 답변을 제공한다는 비판을 받았고, 오픈AI의 'GPT-4o'에서는 음성 비서 '스카이'가 유명 배우 스칼렛 요한슨(Scarlett Ingrid Johansson)의 목소리를 도용했다는 의혹에 휩싸여 서비스를 한 때 중단했다. 무리한 AI 개발 속도 경쟁이 얼마나 위험한 지를 보여주는 사건이다. AI 기술의 발전은 그 자체로 긍정적일 수 있지만, 기술 혁신과 창작자 권리 보호, 윤리와 도덕성 사이에서 균형을 맞추기 위한 과도기를 겪고 있다. 이 같은 상황에서 AI가 얼마나 위험한지 현 상황을 짚어보고 파악하는 것은 중요한 의미를 갖는다. 인공일반지능(AGI)이 조만간 개발돼 보편화될 것이란 전망 속에 AI의 위험성을 제대로 인지하고 있어야 부작용을 예방하고 향후 AI와 인간이 공존할 수 있게 된다. 유럽연합(EU)뿐 아니라 미국, 중국, 일본 등 세계 각국이 AI 관련 법제화에 속도를 내는 이유도 여기에 있다. 생각하는 기계 'AI'의 등장 현재 생활의 일부로 알게 모르게 들어온 AI는 최근 들어 빠른 속도로 발전했지만 연구 과정은 순탄치만은 않았다. 일단 기계로 빠르고 정확히 계산하는 '컴퓨터'가 등장한 후 이를 활용해 인간의 지적 능력을 인공적으로 만들려는 시도는 1950년대부터 있었다. "기계도 생각할 수 있는가?" 영화 '이미테이션 게임'의 실제 주인공이자 영국의 과학자인 앨런 튜링(Alan Mathison Turing)은 지난 1950년 10월 1일 국제 학술지 옥스퍼드에 게재한 논문 '계산 기계와 지능(Computing Machinery and Intelligence)'의 첫 문장을 이처럼 썼다. 그가 제시한 개념은 1956년 미국 다트머스에서 열린 회의를 통해 '인공지능(AI, artificial intelligence)'이라는 용어로 탄생했다. AI의 태동기로 불리는 1950년대에는 인간의 지식을 기호와 수학적 관계로 표현해 기계에 지능을 부여하려는 '규칙 기반 인공지능' 기술이 많은 관심을 받았다. 이 연구의 기반이 되는 기계적 계산으로 '직접 지능을 구현한다'는 움직임은 '계산주의', '기호주의' 등으로 불렸다. 신경생물학자 프랭크 로젠블랫(Frank Rosenblatt)은 1958년 '퍼셉트론(Perceptron)'이라는 알고리즘을 제시했다. 생물 신경세포인 '뉴런'에서 착안한 퍼셉트론은 입력 정보의 가중치를 조정해 수학적 처리를 거쳐 결과를 내놓는 구조다. 현재는 딥러닝에 쓰이는 인공신경망 모델로 불린다. 로젠블랫은 기초적인 논리연산을 퍼셉트론으로 구현하는 데 성공했고, 이 퍼셉트론에서 '머신러닝'의 기초적인 개념이 탄생했다. 퍼셉트론이 제시된 이후 사람의 뇌 구조를 본떠 기계에 지능을 부여하자는 시도인 '연결주의'라고 불리는 연구 경향이 등장했고, AI 연구의 한 축이 됐다. 하지만 1969년 'AI 대가'인 마빈 민스키(Marvin Lee Minsky)가 퍼셉트론으로 구현할 수 없는 논리연산(XOR연산)이 있다는 논문을 발표한 후 AI를 연구하려는 분위기는 가라앉았다. 머신러닝 등 AI 연구와 관련된 예산이 대규모로 삭감됐기 때문이다. 민스키의 논문으로 AI는 20년 가까이 암흑기를 겪었다. 다만 이때 퍼지 이론, 통계적 데이터 처리법, 데이터 마이닝 등 신경망 기반이 아닌 AI 유관 기술은 점차 발달했다. 암흑기에서 빠져나온 것은 1988년이다. 퍼셉트론 같은 인공 신경망을 층층이 쌓아 XOR연산 불가 문제를 해결한 것이다. 그러나 여러 층으로 신경망을 쌓으면 복잡해지게 돼 머신러닝 조정이 어려워 짐에 따라 지능 구현에 한계를 보인다는 문제점이 드러났다. 또 다층의 신경망을 운용하기 위한 연산 장치(하드웨어)의 발전이 충분하지 않은 데다 AI에 입력시킬 데이터도 부족하다는 시대적 한계도 있었다. 인공 신경망을 층층이 쌓는다는 아이디어는 2010년대의 '딥 러닝(Deep Learing)'으로 이어졌다. 그동안 인터넷의 영향으로 데이터가 기하급수적으로 늘어나고 병렬처리를 중심으로 한 연산 능력도 비약적으로 발달한 덕분에 '딥 러닝'은 출현할 수 있었다. 이후 합성곱신경망(CNN) 등이 발달하며 퍼셉트론부터 이어진 '연결주의' AI 전성시대는 본격화됐다. 특히 2016년에는 구글 딥마인드가 개발한 '알파고'가 등장해 이세돌 9단을 꺾으면서 대중에게도 큰 인상을 남겼다. 생성형 AI 시대 '활짝' 인간을 절대 따라잡을 수 없을 것이라 여겼던 '바둑' 분야에서 특출한 능력을 보여주면서 AI는 우리 삶을 빠르게 바꿀 것이라는 기대가 커졌다. 바둑 외에 AI가 일상에 변화를 주는 일은 그 이후에도 크게 일어나지 않았지만, 컴퓨팅 능력, 반도체 기술 등은 점차 빠른 속도로 발전됐다. 그러나 지난 2022년 말 오픈AI가 '챗GPT'라는 생성형 AI를 선보인 이후 시장은 빠른 속도로 변했다. 이제는 수많은 빅테크 기업이 생성형 AI를 기반으로 한 다양한 서비스를 내놓으면서 AI가 우리 삶에 빠르게 침투하고 있는 분위기다. 이들의 기술 경쟁은 올해 상반기에도 계속됐다. 오픈AI는 지난 2월 동영상 생성 AI '소라(SORA)'를 공개해 시장을 놀라게 했다. 소라가 만든 다양한 영상도 함께 선보였는데, 몇 줄의 프롬프트만으로 최대 1분 길이의 영상을 만들 수 있다는 점에서 주목받았다. 오픈AI 견제에 나선 구글도 같은 달 멀티모달 AI 모델 '제미나이(Gemini) 1.0 울트라'를 업그레이드한 '제미나이 1.5 프로'를 선보였다. 지난 5월에는 '구글 연례 개발자 회의(I/O)'를 통해 검색 엔진에 제미나이를 탑재할 것이란 소식뿐 아니라 구글의 음성 모델을 기반으로 하는 새로운 프로젝트 '아스트라(Astra)'도 공개했다. 이는 AI가 사람처럼 보고, 듣고, 음성으로 대화하면서 이용자의 개인 비서 역할을 하는 기능이다. 오픈AI 대항마로 불리는 앤트로픽(Anthropic)도 올해 3월 생성형 AI 모델 제품군인 '클로드 3'을 공개했다. 특히 가장 성능이 우수한 '클로드 3 오퍼스'는 앤스로픽이 내놓은 첫 '멀티모달' 생성형 AI로 눈길을 끌었다. 사용자는 사진, 차트, 문서 및 기타 유형의 데이터를 업로드하고 이에 대한 분석과 답변을 얻을 수 있다. 메타는 지난 4월 새 AI 모델인 '라마 3(Llama 3)'을 공개했다. 소셜 미디어(SNS) 플랫폼용 챗봇인 메타 AI도 이날 함께 공개했는데, 지난해 9월 베타 서비스를 시작한 지 7개월 만이다. 라마 3을 기반으로 만들어진 메타 AI는 페이스북과 인스타그램 등에 내장돼 사용자 질문에 답함은 물론 이미지 생성도 가능하다. 이 같은 분위기 속에 오픈AI는 지난 5월 'GPT-4o'라는 새로운 플래그십 AI 모델을 발표해 다시 한번 세계적인 관심을 불러일으켰다. GPT-4o는 GPT-4의 개선판으로, 더 빠른 응답속도를 제공하면서 향상된 시각·청각 기능을 갖춘 모델이다. 모델명에 '모든 것(omni)'이라는 뜻으로 o를 붙였는데, 이는 사용자와의 다양한 상호작용 방식을 하나의 모델에 통합해 텍스트, 음성, 이미지, 비디오를 모두 다룰 수 있다는 것을 나타낸다. 'GPT-4o'의 이점은 '향상된 사용자 경험'으로 요약할 수 있다. 대화형 AI 모델의 응답시간은 사용자가 얼마나 자연스럽게 AI와 상호작용을 할 수 있는지를 결정짓기 때문에 사용자 경험에 있어 매우 중요한 요소다. GPT4o는 최소 응답시간 232밀리초, 평균 320밀리초 만에 답할 수 있다. 인간 간의 대화에서 평균 응답시간이 약 200~500밀리초인 점을 감안하면 굉장히 빠른 속도다. 'GPT-4o'는 AI가 말하는 중간에 사용자가 끼어들 수 있도록 설계돼 AI의 말이 끝나기를 기다릴 필요 없이 즉각 다른 요청을 하고 답변을 받을 수 있다는 점도 눈길을 끈다. 이는 자연스러운 대화를 가능하게 해 사용자의 만족도를 크게 높이는 요소로 평가된다. 또 50개가 넘는 언어를 지원하고, 사용자의 명령에 따라 음성의 톤(어조)을 변경하거나 특정한 음성으로 대화를 진행할 수도 있다. 'GPT-4o'의 등장은 대화형 AI의 새로운 시대를 여는 중요한 진전이자, 향후 다양한 분야에서 혁신적인 변화를 불러올 것이란 기대감을 키우고 있다. 이를 통해 앞으로는 국제 콘퍼런스나 다국적 기업의 회의에서 실시간 통번역을 활용하거나, AI 교사가 언제든 학생의 요청에 실시간으로 빠르게 대응해 교육 효과를 높일 수 있을 것으로 예상된다. 미라 무라티 전 오픈AI 최고기술책임자(CTO)는 "GPT-4o는 사람들과 실시간으로 상호작용하며 대화한다"며 "텍스트 외에 이미지와 동영상도 잘 분석할 수 있다"고 강조했다. 'GPT-4o' 등장…'AGI' 시대 임박 'GPT-4o'의 등장 이후 빅테크들의 기술 경쟁이 더 치열해지면서 AI의 발전 속도도 더 가팔라질 것이란 전망이 많다. AI는 이제 주어진 명령을 수행하는 데 그치지 않고 중간에 필요한 업무를 스스로 찾아내 결과물을 도출하는 'AI 에이전트'로 진화하고 있다. 그 종착점으로는 주어진 모든 상황에서 인간처럼 추론, 학습하고 문제를 해결하는 능력을 갖춘 'AGI'가 될 것으로 보고 있다. 인간의 명령 없이도 스스로 판단하고 일할 수 있다는 뜻이다. 영화 아이언맨 속 '자비스', 영화 그녀(Her) 속 '사만다' 같은 수준의 AI가 현실화되는 것도 멀지 않았다. 아직 AGI의 명확한 판별 기준이나 정의는 없다. 오픈AI에선 '인간보다 똑똑한 AI 시스템'으로 AGI를 정의하며 관련 기술 개발에 몰두하고 있다. 오픈AI 전 연구자 출신 대니얼 코코타즐로는 "오픈AI가 최초의 AGI 구축 개발자가 되기 위해 무모하게 경쟁하고 있다"고 말했다. 구글의 '아스트라'도 AGI 프로젝트다. '알파고의 아버지' 데미스 허사비스 구글 딥마인드 CEO는 'AGI 시대 도래'를 선언하며 AGI의 일부 기능을 올 연말 구글 AI '제미나이'에 담겠다고 예고한 바 있다. 허사비스는 "일상생활에 도움을 주는 AGI를 개발하고 싶었다"며 "AGI는 사람처럼 복잡하고 역동적인 세계를 이해하고 대응할 수 있어야 한다"고 강조했다. AGI는 AI의 궁극적 지향점이자 전 세계 기술 패권을 거머쥐는 핵심으로 급부상하며 글로벌 빅테크들의 '쩐의 전쟁'이 벌어지고 있다. 덕분에 최소 30년, 적어도 10년으로 꼽히던 AGI 출현 예측 시기는 최근 5년 내외로 앞당겨지는 추세다. 샘 올트먼 오픈AI 최고경영자(CEO)와 젠슨 황 엔비디아 CEO는 5년 정도 후 AGI 현실화를 내다본다. 일론 머스크 테슬라 CEO는 이르면 내년으로 봤다. 전문가들은 AGI에 대한 통제력 상실 위험에 대비해야 한다는 지적을 속속 내놓고 있다. 스티븐 호킹 박사와 일론 머스크 테슬라 CEO 등은 AGI의 출현이 인간의 생물학적 한계로 인해 인류를 대체할 수 있다고 우려했다. 지난 3월 미국 기업 글래드스톤 AI는 미 국무부 의뢰를 받아 발표한 보고서에서 "가장 발전한 AI 시스템이 최악의 경우 '인류 멸종 수준의 위협'이 될 수 있다"고 경고했다. 제프리 힌튼 캐나다 토론토대학 교수는 "AGI의 상용화가 예상보다 빠를 것"이라며 "그에 따른 위험도 크다"고 경고했다. 오픈AI 전 연구자 출신인 대니얼 코코타즐로는 "AGI가 오는 2027년께 완성될 수 있을 것으로 보인다"며 "AGI가 인류를 파괴하는 재앙이 될 확률은 70%에 달한다"고 말했다. 반면 AGI의 개발은 불가능하다고 주장하는 전문가들도 있다. 앤드류 응(Andrew Ng) 미국 스탠퍼드대학 교수가 대표적으로, AGI에 도달하려면 30~50년이나 더 걸릴 수도 있다고 주장했다. AI가 인류에게 도움이 될 것이라는 'AI 부머(boomer)'로 분류되는 얀 르쿤(Yann LeCun) 미국 뉴욕대 교수는 "인간 수준의 AI 등장 시기를 예측하는 것은 어렵고 위험도 과장됐다"고 평가했다. 인간 위협하는 AI…신뢰도는 '글쎄' AI가 이미 현실에서 인간에게 위협을 줄 만한 일들을 속속 벌이고 있다는 점에서 AGI가 나타나기 전 인간의 선한 의지와 배치되지 않는 '정렬(alignment)' 작업이 필요하다는 지적들도 있다. AGI 기술이 테러조직·해커 등의 손에 잘못 들어가게 될 경우 참사가 일어날 수도 있는 데다 AGI 자체가 인간의 통제를 벗어나 문제를 일으킬 가능성도 있다는 점에서다. 실제 오픈AI '챗GPT'는 탈옥 모드로 해킹돼 논란이 됐다. 플리니 프롬프터(Pliny the Prompter)라는 해커는 X(옛 트위터)를 통해 자신을 'AI 레드팀' 멤버라고 소개하며 오픈AI 커스텀 GPT 편집기를 사용, 새로운 GPT-4o 모델의 모든 제한을 우회하는 방법을 찾아냈다고 밝혔다. 그 결과 AI 챗봇이 욕설을 내뱉게 하고 자동차 탈취 방법을 생성하게 할 뿐 아니라 심지어 폭탄을 제조하는 방법을 안내하도록 했다. AI 환각·편향성 등도 문제다. 구글은 올해 새롭게 선보인 검색 기능 'AI 오버뷰(AI Overview)'에서 허위 답변을 제공해 망신을 톡톡히 당했다. 예컨대 '미국에 얼마나 많은 무슬림 대통령이 있었는가' 질문하자 "버락 오바마는 미국 최초의 무슬림 대통령"이라고 잘못된 답변을 내놓은 것이다. 또 '치즈가 피자에 달라붙지 않는다'라는 사용자의 말에 AI 오버뷰는 "소스에 무독성 접착제 8분의 1컵을 넣으면 된다"는 황당한 조언도 내놨다. 위험성 증가에 AI 규제안 마련 골몰…韓, AI 기본법 연내 통과 '임박' 이처럼 AI에 대한 위험성이 점차 커지면서 이를 제어하기 위해 곳곳에서 방안 마련에 나서고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다. 미국은 2020년 '국가 AI이니셔티브법'을 제정하고 AI 분야에 약 2조3천억 원을 지원하고 있다. 여기에 '안전하고 신뢰할 수 있는 AI에 대한 행정명령'을 통해 AI 안전 테스트 결과와 주요 정보 등을 정부와 공유하도록 의무화했다. 중국은 지난해 'AI 윤리 거버넌스' 표준화 지침을 마련했다. 일본 역시 히로시마 AI 프로세스를 주도적으로 이끌며 국제 규범 만들기에 앞장서고 있다. 영국과 캐나다도 법률, 의료 등에 AI 기본 원칙을 세워 준수하고 있다. 영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO)는 최근 개최한 콘퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목받았다. 이처럼 세계 각국이 AI 관련 법제화에 속도를 내고 있지만 우리나라는 예외다. AI 기본법이 지난해 2월 국회 과학기술정보방송통신위원회의 법안심사소위를 통과하고도 1년 넘게 방치되다 결국 21대 국회가 끝나면서 자동 폐기됐기 때문이다. 22대 국회에서도 연내 통과를 추진해왔지만 이달 초 윤석열 대통령의 비상계엄령 사태로 한 때 위기를 맞기도 했다. 전문가들은 미래 먹거리로 AI 산업을 육성해야 하는 우리나라의 상황에서 진흥과 규제를 아우르는 법 제도가 하루 빨리 갖춰져야 한다고 입을 모은다. 글로벌 AI 기업들과 경쟁이 심화되는 상황에서 법 제정이 늦어질수록 국내 AI 기업들의 경쟁력은 그만큼 떨어질 수밖에 없다고 보고 있다. 이에 국회는 더 이상 늦출 수 없다는데 의견을 같이하고 이달 말께 AI 기본법을 본회의에서 처리하기로 거의 합의를 봤다. AI기본법은 정부가 AI 산업 육성을 지원하고 필요한 규제를 할 수 있도록 관련 법적 근거를 담았다. 대통령 직속 '국가AI위원회'를 설치·운영하고 과학기술정보통신부는 3년마다 국가AI위원회 의결에 따른 AI 정책 방향과 전문인력 양성 등을 담은 국가 AI 전략인 'AI기본계획'을 수립해야 한다. 최형두 국민의힘 의원은 "최근 비상계엄 사태로 야기된 정치적 혼란과 과방위의 7개월간 방송 이슈 집중으로 산업계에 실망을 드려 죄송하다"며 "여야가 힘을 모아 연말 AI 기본법 통과를 목전에 두고 있듯 보다 적극적으로 산업 지원에 나서겠다"고 말했다. 조인철 더불어민주당 의원은 "본회의가 예정된 27일 AI 기본법은 통과될 것 같다"며 "만약 그날 (통과가) 안 되더라도 반드시 AI 기본법을 통과시켜 놓겠다"고 공언했다. 조준희 한국소프트웨어산업협회(KOSA) 회장은 "엄중한 상황에서도 여야 국회와 관계부처의 노력으로 AI 기본법이 연내 제정을 가시화하는 성과를 달성했다"며 "내년을 전 산업의 AI 내재화 원년으로 선포할 것"이라고 강조했다.

2024.12.20 16:54장유미

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

‘국가 AI’ 지휘할 조직, 통합조정 실행력 갖춰야

삼성전자, 평택 이어 화성서도 '1c D램' 투자 준비…HBM4 양산 채비

전기차 지각생이라더니...토요타, SDV서 현대차보다 빨랐다

SKT 유심교체, 사흘간 100만명 넘어

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현