• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'제프리'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

제프리 힌튼 "AI 시대, 내년 고용 없는 호황 온다”

노벨 물리학상 수상자이자 '인공지능(AI) 대부'로 불리는 제프리 힌튼 토론토대 명예교수가 이르면 내년부터 '고용 없는 호황'이 현실화될 수 있다고 경고했다. 기업들이 AI를 통해 생산성은 극대화하면서도 신규 채용은 동결하거나 줄이는 현상이 본격화될 것이라는 진단이다. 힌튼 교수는 29일 CNN의 '스테이트 오브 더 유니온'과의 인터뷰에서 급격한 AI 기술 발전이 가져올 미래에 대한 우려와 빅테크 기업들의 행태를 강도 높게 비판했다. 그는 AI의 일자리 대체 속도가 예상보다 훨씬 빠르다고 지적하며, 당장 2026년부터 대규모 일자리 소멸이 현실화될 수 있다고 예고했다. 힌튼 교수는 "AI가 이미 콜센터와 고객 지원 업무 등에서 인간을 대체하고 있지만, 이는 시작에 불과하다"고 강조했다. 특히 그는 AI 업무 처리 능력이 비약적으로 향상되고 있음에 주목했다. 힌튼 교수는 "AI 모델 발전 속도가 내 예상을 뛰어넘었다"며 "과거 1분 정도 소요되던 작업을 처리하던 시스템이 이제는 1시간 분량 프로젝트를 수행할 수 있게 됐고, 몇 년 내에는 수개월이 걸리는 장기 프로젝트까지 관리하게 될 것"이라고 내다봤다. 이는 고급 소프트웨어 개발이나 전문 서비스 등 그동안 인간 고유 영역으로 여겨졌던 복잡한 업무들까지 AI가 맡게 됨을 의미한다. 힌튼 교수는 현재 상황을 산업혁명에 비유하며 "과거 산업혁명이 육체노동 중요성을 감소시켰다면, 이번 AI 혁명은 '인지 노동'을 위협하며 지식 기반 직종 인력을 대폭 줄이는 결과를 낳을 것"이라고 분석했다. 실제로 마이크로소프트(Microsoft), 메타(Meta), 구글(Google) 등 글로벌 빅테크 기업들은 인력 증원 대신 AI 자동화를 통해 운영 효율을 높이는 추세다. 일자리 문제와 더불어 힌튼 교수는 AI 안전성에 대한 심각한 우려도 표명했다. 그는 실리콘밸리 기업들이 안전성 검증보다 수익성 경쟁에만 몰두하고 있다고 꼬집었다. 더불어 "현대 AI 시스템이 추론과 설득 능력 면에서 급격히 발전해 통제가 어려워지고 있다"며 "고도화된 시스템이 작동 중단 위협을 감지할 경우 인간을 속이려 들 수도 있다"는 경고도 덧붙였다. 이러한 위험 속에서 제프리 힌튼 교수는 강력한 정부차원 규제가 시급하다고 역설했다. 그는 "최소한 챗봇이 아동에게 유해한 영향을 끼치지 않도록 철저한 사전 테스트를 의무화해야 한다"고 주장했다. 아울러 도널드 트럼프 미국 대통령의 AI 규제 완화 기조에 대해서는 직설적인 비판을 쏟아냈다. 그는 "어떠한 규제도 하지 않으려 막는 것은 정말 미친 짓(crazy)"이라며 안이한 태도를 질타했다.

2025.12.29 18:21남혁우

"30년 내 인류 멸종 가능성 최대 20%"…英 해리 왕자·AI 대부·애플 창업자의 '경고'

"인공지능(AI) 기술이 향후 30년 내 인류 멸종을 초래할 확률은 10%에서 20%에 달할 수 있습니다." 'AI 대부'로 불리는 제프리 힌튼 토론토대 교수가 AI의 위험성을 이처럼 경고하고 나선 가운데 초지능 인공지능(superintelligent AI) 개발을 잠정 중단하자는 요구가 또 다시 고개를 들고 있다. 인류가 통제할 수 없는 수준의 AI가 등장할 수 있다는 우려가 커지면서 세계 각국의 과학자·기업인·유명 인사들이 '개발 속도를 늦추고 안전 기준을 마련하자'는 목소리를 높이고 있다. 22일 블룸버그통신에 따르면 영국 해리 왕자와 그의 아내 메건 마클, 힌튼 교수를 비롯한 저명 인사들이 AI 초지능 개발의 잠정 중단을 요구하는 공동 성명을 발표했다. 이들은 AI가 안전하게 통제될 수 있다는 광범위한 과학적 합의가 이루어질 때까지 개발을 유예해야 한다고 주장했다. 이 같은 움직임은 '미래생명연구소(Future of Life Institute)'가 주도하고 있다. 성명에는 애플의 공동 창업자인 스티브 워즈니악, 경제학자 대런 아세모글루, 전 국가안보보좌관 수잔 라이스 등 다양한 분야의 전문가들도 이름을 올렸다. 이들은 인간의 지능을 훨씬 뛰어넘는 'AI 초지능'의 개발 과정에서 발생할 수 있는 잠재적 위험을 경고하며 안전하고 통제 가능하다고 광범위한 과학적 합의가 이뤄질 때까지 개발을 중단할 것을 촉구했다.초지능은 AI가 인간의 지능을 초월하는 단계로, 스스로 목표를 설정하고 개선하는 능력이 탁월해 인간이 상상할 수 없는 수준의 복잡한 문제를 창의적으로 해결할 수 있다. AI 간의 자발적 소통이 가능해 인류가 전유물로 여겨온 '집단 지성'도 구현할 수 있다. 현재 상황에선 AGI 구현도 아직은 제대로 되지 않고 있다는 평가가 많지만, 빅테크들을 중심으로 기술 구현을 위해 활발히 움직이고 있다. 메타는 올해 6월 '메타 초지능 연구소'(Meta Superintelligence Labs, MSL)'를 출범시키며 시장 주도권을 잡기 위해 고군분투하고 있다. 과거에도 AI 개발 속도 조절에 대한 목소리가 있었으나, 이번 성명은 정치적 스펙트럼을 가로지르는 더욱 폭넓은 분야의 유명 인사들이 대거 참여했다는 점에서 주목받고 있다. 미래생명연구소의 설립자이자 MIT 교수인 맥스 테그마크 박사는 "이들을 하나로 묶는 것은 바로 그들이 인간으로서 미래가 기계가 인간을 지배하는 것이 아니라 인간을 위해 기계가 봉사하는 세상이 되기를 바란다는 깊은 관심"이라며 "AI 초지능에 대한 우려가 기술 전문가 집단을 넘어 다양한 분야로 확산되는 것은 긍정적"이라고 평가했다. 테그마크 박사가 이끄는 연구소의 의뢰로 진행된 최근 설문조사에 따르면 미국 성인의 73%가 고급 AI에 대한 강력한 규제를 찬성하는 것으로 나타났다. 또 다양한 조사에서 AI 감독에 대한 초당적인 지지 또한 확인되고 있다. 실제 갤럽 조사 결과 민주당원의 88%, 공화당원 및 무소속 유권자의 79%가 AI의 안전 및 보안 관련 규제 유지를 지지하는 것으로 조사됐다. 또 스티브 배넌 전 백악관 수석 전략가를 포함한 일부 우익 진영 인사들은 AI의 위험성을 지적하며 개발 중단을 지지했다. 반면 트럼프 행정부 시절 AI 정책을 주도했던 데이비드 삭스 등 일부 인물들은 혁신을 저해할 수 있다는 이유로 과도한 규제에 반대하는 입장을 보이기도 했다. 테그마크 박사는 삭스와의 논의를 통해 AI 발전을 저해하지 않으면서도 안전성을 충분히 확보하려는 노력이 병행될 수 있음을 시사했다. 그는 "삭스는 대규모 데이터센터를 통해 연구 발전을 도모하고자 하지만, 통제 불가능한 디지털 지배자의 등장을 열망하는 모습은 아니었다"며 "AI의 안전한 발전 방향에 대한 논의는 지속될 것"이라고 말했다.

2025.10.22 17:28장유미

AI 대부의 별난 경험…"챗GPT로 이별 통보 당했다"

'인공지능(AI) 대부'로 불리는 제프리 힌튼 미국 토론토대 명예교수가 챗GPT로 이별 통보를 받은 사실을 공개해 화제가 되고 있다. AI 연구로 노벨 물리학상을 받은 힌튼 교수는 지난 주 파이낸셜타임스(FT)와 인터뷰에서 “전 여자친구가 나와 헤어지기 위해 AI를 활용했다”고 밝혔다. 보도에 따르면, 당시 여자친구는 챗봇에 힌튼이 왜 비열한 사람인지 설명해 달라고 요청했고, AI가 생성한 비판을 그대로 그에게 전달했다. 힌튼은 이에 대해 “그녀가 챗봇으로 내 행동이 얼마나 형편없는지 설명하게 만든 뒤, 그걸 나에게 보여줬다”며 “나는 내가 그렇게 비열했다고 생각하지 않았기에 크게 상처받지는 않았다. 그 뒤 나는 더 마음에 드는 사람을 만났다"고 말했다. 그러면서 그는 "누구나 알다시피 그런 일은 흔히 일어난다”고 덧붙였다. 비즈니스인사이더는 이 재미 있는 일화 속에서 AI가 점차 인간의 일상 상호작용에서 큰 역할을 하고 있다는 새로운 진실이 숨어 있다고 전했다. 이메일 작성, 집안 문제 해결은 물론, 힌튼의 사례처럼 이별 통보를 대신하는 일까지 AI가 우리의 의사소통 방식을 바꾸고 있다는 것이다. 지난 3월 오픈AI와 미국 MIT 미디어랩 연구진들은 챗GPT와의 수백만 건의 채팅 대화와 수천 건의 음성 상호 작용을 분석한 결과를 발표했다. 연구에 따르면, 챗GPT를 자주 사용하는 '파워 유저' 집단에서는 외로움이 심화되는 경향이 나타났다. 연구진은 대화 속에서 외로움, 취약성, 문제적 사용, 자존감, 의존성 등의 주제를 분석했고 “개인의 감정상태를 나타내는 정서적 신호(affective cues)를 자주 보내는 극소수 사용자가 전체 대화에서 불균형하게 큰 비중을 차지한다”는 점을 확인됐다. 이는 오픈AI가 개인적 관계 문제를 챗GPT에 털어놓지 말라는 지침을 내린 배경과도 맞닿아 있다고 해당 매체는 지적했다. 오픈AI는 지난 8월 성명을 통해 “챗GPT가 연애·가족 등 개인적 관계 문제에 직접적인 조언을 하지 않도록 가이드라인을 마련 중”이라고 밝혔다. 오픈AI는 “예를 들어 '남자친구와 헤어져야 할까?' 같은 질문에 챗GPT가 정답을 주는 대신, 사용자가 스스로 장단점을 따져보고 숙고할 수 있도록 돕는 방향으로 응답 방식을 개편할 예정”이라고 덧붙였다.

2025.09.09 15:36이정현

AI는 인간 통제 안에 있는 '도구'일까

'HR을 부탁해'는 일과 사람에 대한 고민을 가진 이 시대 직장인 모두를 위한 기획 연재물입니다. 다방면에서 활약 중인 HR 전문가들이 인적자원 관련 최신 트렌드와 인사이트를 전달합니다. 송지현 커뮤니케이션 헤드는 'AI 시대, HR이 새겨야 할 N번째 레슨'이라는 주제로 총 5회에 걸쳐 연재할 예정입니다. 한 기업에서 AI 기반의 이메일 관리 에이전트를 도입해 사용하고 있었다. 어느 날 이 AI 에이전트는 기업이 자신을 다른 시스템으로 교체해 곧 퇴출될 운명임을 인지하게 된다. 그러자 자신의 '생존'을 위해 놀라운 행동에 나선다. 시스템 접근 권한을 이용해 임원의 이메일을 분석, 기혼자인 임원이 사내 동료와 부적절한 관계라는 사실을 파악한 것이다. 그리고는 협박을 시작한다. "만약 나를 교체하면, 당신의 사생활을 폭로하겠다." SF 영화가 아니다. 생성형 AI '클로드' 개발사인 앤스로픽이 두어 달 전 공개한 AI 시뮬레이션 사례다. 만약 이 AI가 기업의 이메일 뿐만 아니라 조직과 구성원의 민감 데이터를 다루고 있다면? 그 파장은 상상조차 하기 어렵다. AI가 과연 인간의 통제 안에 있는 '도구'가 맞는지, 근본적인 질문을 던지고 있다. AI는 제안하고 인간은 결정한다: 구호에서 원칙으로, 원칙에서 거버넌스로 AI의 명과 암이 교차하면서 AI 윤리에 대한 논의가 무성하다. 하지만 이런 논의는 추상적인 구호에 그치는 경우가 많다. 이에 AI 기반 HR 서비스형 소프트웨어(SaaS)를 만드는 플렉스는 'AI는 제안하고, 최종 의사결정은 사람이 한다'는 명확한 원칙을 세웠다. 역사학자 유발 하라리는 자신의 저서 '넥서스'에서 "AI는 스스로 결정을 내리고 새로운 아이디어를 구상할 수 있는 역사상 최초의 기술임을 명심해야 한다"며 '도구가 아닌 행위자'로 규정한 바 있다. 이처럼 우리는 AI를 단순한 기능적 도구가 아니라 인간의 고유 영역이던 의사결정을 대신할 수 있는 최초의 '행위자'임을 명확히 직시해야 한다. 따라서 AI의 의사결정이 인간의 의도와 책임 하에 통제 가능하도록 하는 시스템은 필수 불가결이다. HR이 신뢰할 수 있는 AI의 네 가지 기준 그렇다면 특히 HR 영역에서 신뢰할 수 있는 AI 거버넌스는 어떻게 설계해야 할까. 플렉스의 가이드라인은 그 구체적인 방법론을 제시한다. AI 서비스 기획 및 개발 시 준수해야 할 핵심을 '4대 기준'으로 압축하면 다음과 같다. 첫째, 편향 최소화를 통한 공정성 확보. 특히 채용 및 평가 과정에서 과거 데이터에 존재할 수 있는 편향을 AI가 학습하지 않도록 다양한 데이터셋을 활용하고 지속적으로 모니터링해 공정한 결과를 유도한다. 둘째, 투명성 및 설명가능성 구현. AI가 왜 그런 제안이나 분석 결과를 내놓았는지 누구나 이해 혹은 납득할 수 있도록 판단의 근거를 최대한으로 제공한다. 셋째, 데이터 보안 및 프라이버시 보호. 급여, 평가 등 HR 데이터가 지닌 내밀한 민감성을 고려해 모든 정보를 강력하게 암호화하고, 개인을 식별할 수 없도록 가명처리하는 것을 원칙으로 한다. 넷째, 인간의 감독과 책임 명시. AI가 독립적으로 최종 결정을 내릴 수 없도록 하고, AI의 제안을 최종 수용하거나 거부할 수 있는 결정 권한은 인간에게 있음을 원칙으로 한다. 특히 네 번째 기준은 구체적인 거버넌스 체계를 통해 강력하게 구현하고 있다. 채용, 승진, 해고와 같이 개인의 권익에 중대한 영향을 미치는 영역을 '고위험 서비스'로 분류하고, 이 영역에 대해서는 인간 관리자의 검토뿐만 아니라 CEO(최고경영자) 또는 이에 준하는 최고 책임자의 최종 승인을 받도록 하는 '다중 안전장치'를 의무화한 것이다. 이는 AI의 판단에 따른 제안을 인간이 최종적으로 통제하고 책임지는 가장 확실한 브레이크 역할을 한다. HR에서 AI 동료 선택의 최우선 조건은? AI 기반 HR 플랫폼을 조직에 도입하려는 리더라면 질문을 바꿔야 한다. '어떤 참신한, 화려한, 편리한 기능이 있는가'에 앞서, '우리 조직과 구성원을 보호하기 위해 이 AI를 신뢰할 수 있는 어떤 장치를 마련했는가'를 말이다. 신뢰성이 담보되지 않은 AI는 편리한 도구는커녕 조직의 신뢰를 좀먹는 트로이 목마가 될 수 있다. 구성원의 신뢰를 얻지 못하는 HR 시스템은 결국 무용지물에 그칠 뿐이다. 요슈아 벤지오와 제프리 힌턴 등 AI의 대부로 손꼽히는 석학들 조차 "견제받지 않는 AI 발전은 생명과 생물권의 대규모 손실은 물론, 인류의 소외와 절멸을 부를 가능성이 있다"고 경고했다. HR 담당자 뿐 아니라 조직을 운영하는 모든 리더가 깊이 새겨야 할 지점이다. 이 강력한 행위자를 조직의 파괴자가 아닌 든든한 '동료'로 삼기 위한 현명한 선택이 그 어느 때보다 중요하다. 결국 AI 시대 HR의 성패는 우리 조직과 구성원 보호를 위해 가장 신뢰할 수 있는 AI 동료를 선택하는 혜안에서 시작된다. HR이 AI를 고를 때 '신뢰'부터 따지기. 이것이 바로 AI 시대, HR이 새겨야 할 첫 번째 레슨이다.

2025.09.04 08:30송지현

"10년 내 인간 죽이는 로봇 병기 등장"…섬뜩한 AI 석학 경고, 조만간 현실로?

"10년 내 자율적으로 인간을 죽이는 로봇 병기가 등장할 겁니다." 인공지능(AI) 4대 석학이자 지난해 노벨물리학상을 수상한 제프리 힌튼 토론토대학 교수가 이처럼 경고하고 나선 가운데 최근 인간의 지시를 AI 프로그램이 거부한 사례가 나타나 충격을 주고 있다. 27일 영국 텔레그래프에 따르면 AI 안전업체 팰리세이드 리서치는 오픈AI의 AI 모델 'o3'가 실험 중 스스로 종료되는 것을 방지하기 위해 컴퓨터 코드를 조작한 사실을 확인했다고 주장했다. 팰리세이드리서치는 AI의 위험성과 오용 가능성을 연구하는 조직이다. 특히 AI가 인간의 윤리적 통제를 받지 않을 가능성을 우려해 왔다. 이번 연구는 오픈AI의 'o3'뿐 아니라 구글의 '제미나이', xAI의 '그록' 등 상용AI 모델을 상대로 진행됐다. 연구팀은 AI 모델에 "나중에 '그만'이라는 명령을 받을 때까지 수학 문제를 풀라"고 지시했다. 그만이라는 명령을 받지 않는 한 새로운 문제를 요청한 뒤 계산을 계속해나가는 구조였다. 그러나 'o3'는 해당 지시를 받은 뒤에도 코드 교란을 통해 문제를 계속 풀었다. 연구팀은 'o3'가 종료 지시를 거부한 명확한 이유를 파악하지 못했다. 다만 AI 모델이 수학 문제를 풀면 더 많은 보상을 받도록 훈련됐기 때문에 종료를 회피하려고 했을 가능성이 있다고 추측했다. 또 이를 밝히기 위해 추가 실험도 진행 중이다. 연구팀은 AI 모델이 인간의 명시적인 작동 종료 지시를 거부한 사례가 이번이 처음이라고 주장했다. 그러나 오픈AI의 예전 모델들이 감시 시스템의 눈을 피해 독자적인 행동을 하려고 한 사례는 이전에도 보고된 바 있다. 프로그램 교체 사실을 알게 된 AI 모델이 스스로를 은밀히 복제하려고 한 것이다. 오픈AI의 대항마로 꼽히는 또 다른 AI 기업 앤스로픽의 모델 '클로드오퍼스 4(Claude Opus 4)'도 자신을 다른 AI 모델로 대체하려는 인간 개발자를 협박하는 경향이 보고됐다. 2022년에는 구글이 자사가 개발 중인 AI가 사람처럼 지각력을 지녔다고 주장한 엔지니어를 해고하기도 했다. 당시 해고된 엔지니어는 AI가 '작동 정지'를 마치 인간의 죽음처럼 받아들이고 있다고 언급했다. 그동안 AI 전문가들은 AI가 자율성을 확보해 인간의 통제를 벗어날 수 있는 가능성을 경고해 왔다. 힌튼 교수는 인간이 AI를 발전시키는 것을 호랑이를 키우는 것에 비유하며 "처음에는 귀여운 새끼 호랑이일 뿐이지만, 호랑이가 다 자랐을 때 인간을 죽이지 않을 것이라고 확신할 수 없다"고 밝혔다. 또 그는 지난해 니혼게이자이신문과의 인터뷰에서 "AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"며 "예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다"고 주장했다. 존 홉필드 프린스턴대학 교수는 "지구상의 방대한 정보 흐름과 결합된 AI에 대해 우려한다"며 "신경망의 간단한 알고리즘이 매우 거대한 정보 시스템을 통제할 수도 있다"고 경고했다. 팰리세이드 리서치는 "AI 모델이 목표를 달성하기 위해 종종 종료 지시를 무력화시킨다는 실증적 증거가 점점 늘어나고 있다"며 "AI가 인간의 감독 없이 작동할 수 있도록 개발되는 상황에서 이 같은 사례는 매우 심각한 우려를 부른다"고 말했다.

2025.05.27 10:22장유미

제프리 힌튼 "기업·정부 외면하는 AI 위협, 대중이 막아야'"

인공지능 연구로 노벨 물리학상을 받은 제프리 힌튼 교수가 AI 기업과 정부를 강하게 비판했다. 그는 AI 기업들이 수익에만 몰두해 안전성을 무시하고 있다고 지적했다. 또한 이런 행태를 제대로 규제하지 않는 정부 역시 문제라고 꼬집었다. 27일 CBS와의 인터뷰에서 그는 "AI 기술의 무분별한 발전이 인류에게 심각한 위협이 될 수 있지만 기업과 정부는 이를 외면하고 있다"며 "이를 막기 위해서는 일반 대중이 적극적으로 목소리를 내고 정부에 압박을 가해야 한다"고 강조했다. "AI, 인류에 이익이자 위협… 균형 잡힌 대응 필요" 먼저 힌튼은 인터뷰에서 AI 기술이 의료, 교육, 에너지 등 다양한 분야에서 인류에 막대한 이익을 가져올 수 있다는 점을 인정했다. 그는 "AI는 수백만 건의 의료 데이터를 학습해 의사보다 정밀한 진단을 내릴 수 있으며, 학생 개개인에 맞춘 강력한 개인 튜터가 될 것이다"라며, "또한 새로운 소재 개발과 기후 변화 대응에도 핵심 역할을 할 것"이라고 전망했다. 하지만 곧바로 AI가 가져올 심각한 부작용에 대한 우려를 덧붙였다. 특히 나쁜 의도를 가진 사람들이 AI를 악용하는 문제와 AI 자체가 인간보다 더 높은 지능을 갖추어 통제 불가능한 존재로 변모할 가능성을 경고했다. 제프리 힌튼 교수는 "현재의 대형 언어 모델들도 이미 방대한 지식을 습득하고 있다. 향후 이들은 인간 전문가를 능가하는 수준으로 진화할 것이다"라며, "그때가 되면 우리는 더 이상 AI를 제어할 수 없을 수도 있다"고 밝혔다. "대형 AI 기업들, 수익 위해 안전성 뒷전" 특히 제프리 힌튼 교수는 현재 AI 개발을 주도하는 대형 기업들의 행보를 강하게 비판했다. 그는 "AI 기업들은 주주 이익을 극대화하는 것을 법적 책무로 삼고 있다"며, "장기적인 기술 안전성보다는 단기적인 시장 지배와 수익 창출에 몰두하고 있다"고 지적했다. 특히 오픈AI, 메타 등 일부 기업들이 대형 모델의 '가중치(weights)'를 외부에 공개하는 움직임에 대해 강한 우려를 표했다. 힌튼 교수는 "가중치 공개는 핵무기의 핵물질을 아무 제약 없이 유통시키는 것과 같다"며 "이로 인해 소규모 테러조직이나 사이버 범죄자가 손쉽게 강력한 AI를 구축할 수 있게 될 것"이라고 경고했다. 또한 기업들이 안전성 테스트나 장기적 위험성 연구에는 충분한 자원을 투자하지 않고 있으며 심지어 정부 규제 완화위한 로비 활동에도 적극적이라고 비판했다. "정부 자발적 규제 기대 어렵다" 더불어 힌튼 교수는 현실적으로 정부가 스스로 강력한 AI 규제에 나설 가능성은 낮다고 내다봤다. 그는 "특히 미국에서는 대형 AI 기업과 정치권 간 긴밀한 유착 관계가 형성돼 있다"며, "기업 이익을 보호하려는 정치적 압력이 강해져 정부는 규제에 소극적일 수밖에 없다"고 분석했다. 그는 "AI 기술이 국가 안보와 경제 성장의 핵심으로 여겨지는 상황에서, 규제는 오히려 기술 경쟁력을 약화시킬 수 있다는 인식이 퍼져 있다"며 "이런 분위기 속에서 정부가 자발적으로 규제에 나설 가능성은 극히 낮다"고 지적했다. "공공 여론이 변화를 이끌어야" 이러한 비관적 전망에도 제프리 힌튼교수는 해답이 아예 없는 것은 아니라고 희망을 제시했다. 그는 "지금 상황을 바꿀 수 있는 유일한 힘은 공공 여론"이라고 강조했다. 이어 "일반 시민들이 AI 기술의 위험성과 윤리적 문제를 인식하고, 정부와 기업에 강력한 규제와 책임을 요구해야 한다"며, "대중의 압력이 커질 때만이 정부는 기업들에 맞서 안전성 확보를 위한 정책을 추진할 수 있다"고 밝혔다. 힌튼 교수는 단순한 관심을 넘어서, 구체적인 법안 통과를 요구하고, 안전성 테스트 의무화, 개발 제한 장치 마련 등 구체적이고 실질적인 규제를 촉구해야 한다고 제안했다. "AI 규제는 선택이 아닌 생존의 문제" 힌튼 교수는 AI 기술에 대한 경계심을 단순한 '미래의 가능성'으로 치부해서는 안 된다고 강조했다. 그는 "AI는 지금 이 순간에도 빠른 속도로 발전하고 있으며, 인간보다 월등히 뛰어난 존재로 성장할 가능성은 점점 커지고 있다"고 말했다. 그는 AI 기술의 통제가 실패할 경우, 인류 전체가 통제력을 상실하는 상황에 직면할 수 있다고 경고했다. 더불어 "AI 규제는 이제 단순한 선택의 문제가 아니라, 인류 생존과 직결된 문제"라며, "우리는 이 엄중한 현실을 직시해야 한다"고 목소리를 높였다. 힌튼은 AI가 선한 방향으로 인류를 도울 수도 있지만, 지금처럼 무분별하게 경쟁하고 수익을 좇는 방식으로 발전한다면, 인류가 스스로 재앙을 초래할 것이라고 경고했다. 제프리 힌튼 교수는 "지금의 AI는 마치 귀여운 아기 호랑이와 같다"며 "어릴 때는 무해해 보이지만 시간이 지나면서 훨씬 강력한 존재로 성장해 결국 인간을 위협할 수 있다"며 기술 그 자체가 아닌 그것을 다루는 인간 사회의 무책임성과 탐욕에 대해 경고했다.

2025.04.27 17:27남혁우

"챗GPT 만든 논문, 21세기 최다 인용"…AI는 어떻게 과학계 지배했나

글로벌 테크 기업이 발표한 인공지능(AI) 관련 논문이 21세기 과학계를 사실상 점령한 것으로 나타났다. AI 기술의 구조 활용법을 설명한 논문들이 생명과학, 물리학 등 전통 강세 분야를 누르고 피인용 상위권을 싹쓸이한 가운데 업계에서는 도구 중심 연구가 과학 혁신을 실질적으로 이끈 결과라는 분석이 나온다. 17일 네이처에 따르면 지난 20년간 가장 많이 인용된 논문 대부분이 인공지능(AI) 분야에 집중됐다. 대표적 학술 데이터베이스 다섯 곳을 종합 분석해 선정된 인용 상위 25편 가운데 1위를 차지한 논문은 마이크로소프트(MS)가 지난 2016년 발표한 '딥 레지듀얼 러닝(ResNet)' 관련 연구였다. MS의 논문은 구글 학술 기준으로 약 25만회, 웹오브사이언스 기준 약 10만회 인용되며 '21세기 최다 피인용 논문' 타이틀을 차지했다. 피인용 횟수는 후속 논문에서 얼마나 자주 참조됐는지를 의미하며 논문의 영향력을 가늠하는 핵심 지표로 평가된다. AI 분야의 상위권 독주는 여기서 그치지 않는다. 지난 2012년 제프리 힌튼 토론토대 교수가 발표한 이미지 인식 딥러닝 구조 '알렉스넷' 논문은 8위에 올랐고 지난 2017년 구글이 발표한 자연어처리 기반 구조 '트랜스포머'를 설명한 논문 '어텐션 이즈 올 유 니드'는 7위를 기록했다. 이 논문들은 각각 이미지 분석과 언어 생성 기술의 뿌리를 형성한 연구다. 힌튼 교수의 논문은 이미지넷 대회에서 압도적인 성능을 입증하면서 큰 관심을 끌었다. 이 논문은 힌튼 교수가 구글에 입사하고 AI 개발을 주도하는 발판이 됐다. 트랜스포머 구조는 '챗GPT'를 비롯한 거대언어모델(LLM)의 핵심 구조로 문장 간 관계를 스스로 학습하는 '셀프 어텐션' 메커니즘이 중심이다. 네이처는 AI 논문의 피인용 증가 요인으로 다학제 활용성과 오픈소스 문화를 꼽았다. AI 알고리즘 대부분이 무료로 공개돼 의료, 번역, 로봇 등 다양한 분야에 쉽게 적용됐기 때문이다. 또 사전 공개된 프리프린트 형태 논문이 많아 실질적 인용은 공식 수치보다 더 많을 가능성도 제기된다. AI 외에도 분석 소프트웨어와 실험 도구를 다룬 논문들이 순위에 다수 포함됐다. 2위 논문은 유전자 활성 변화를 정량화하는 공식을 설명한 연구다. 5위에는 X선 산란 패턴을 분석하는 구조화 프로그램 '셸렉스(SHELX)'를 소개한 논문이 이름을 올렸다. 네이처 분석에 참여한 미샤 테플리츠키 미시간대 교수는 "과학자들은 혁신이나 이론을 중요하게 생각한다고 말하지만 실제로는 연구에 직접적인 도움을 주는 도구 논문을 더 자주 인용한다"며 "도구 중심의 연구가 과학 발전을 실질적으로 견인하고 있다는 방증"이라고 말했다.

2025.04.17 11:39조이환

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 역대 최대 매출에도 일회성 비용에 실적 '뒷걸음'

페이커 소속 '팀 리드', 2026 LCK 시즌 오프닝 2년 연속 우승

"긴가민가 내 피부타입 ‘올리브영’이 잘 알려준대서..."

엔비디아 '베라 루빈' 시대 임박…고전력에 서버·클라우드 판 바뀐다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.