• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'제프리'통합검색 결과 입니다. (10건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

제프리 힌튼 "기업·정부 외면하는 AI 위협, 대중이 막아야'"

인공지능 연구로 노벨 물리학상을 받은 제프리 힌튼 교수가 AI 기업과 정부를 강하게 비판했다. 그는 AI 기업들이 수익에만 몰두해 안전성을 무시하고 있다고 지적했다. 또한 이런 행태를 제대로 규제하지 않는 정부 역시 문제라고 꼬집었다. 27일 CBS와의 인터뷰에서 그는 "AI 기술의 무분별한 발전이 인류에게 심각한 위협이 될 수 있지만 기업과 정부는 이를 외면하고 있다"며 "이를 막기 위해서는 일반 대중이 적극적으로 목소리를 내고 정부에 압박을 가해야 한다"고 강조했다. "AI, 인류에 이익이자 위협… 균형 잡힌 대응 필요" 먼저 힌튼은 인터뷰에서 AI 기술이 의료, 교육, 에너지 등 다양한 분야에서 인류에 막대한 이익을 가져올 수 있다는 점을 인정했다. 그는 "AI는 수백만 건의 의료 데이터를 학습해 의사보다 정밀한 진단을 내릴 수 있으며, 학생 개개인에 맞춘 강력한 개인 튜터가 될 것이다"라며, "또한 새로운 소재 개발과 기후 변화 대응에도 핵심 역할을 할 것"이라고 전망했다. 하지만 곧바로 AI가 가져올 심각한 부작용에 대한 우려를 덧붙였다. 특히 나쁜 의도를 가진 사람들이 AI를 악용하는 문제와 AI 자체가 인간보다 더 높은 지능을 갖추어 통제 불가능한 존재로 변모할 가능성을 경고했다. 제프리 힌튼 교수는 "현재의 대형 언어 모델들도 이미 방대한 지식을 습득하고 있다. 향후 이들은 인간 전문가를 능가하는 수준으로 진화할 것이다"라며, "그때가 되면 우리는 더 이상 AI를 제어할 수 없을 수도 있다"고 밝혔다. "대형 AI 기업들, 수익 위해 안전성 뒷전" 특히 제프리 힌튼 교수는 현재 AI 개발을 주도하는 대형 기업들의 행보를 강하게 비판했다. 그는 "AI 기업들은 주주 이익을 극대화하는 것을 법적 책무로 삼고 있다"며, "장기적인 기술 안전성보다는 단기적인 시장 지배와 수익 창출에 몰두하고 있다"고 지적했다. 특히 오픈AI, 메타 등 일부 기업들이 대형 모델의 '가중치(weights)'를 외부에 공개하는 움직임에 대해 강한 우려를 표했다. 힌튼 교수는 "가중치 공개는 핵무기의 핵물질을 아무 제약 없이 유통시키는 것과 같다"며 "이로 인해 소규모 테러조직이나 사이버 범죄자가 손쉽게 강력한 AI를 구축할 수 있게 될 것"이라고 경고했다. 또한 기업들이 안전성 테스트나 장기적 위험성 연구에는 충분한 자원을 투자하지 않고 있으며 심지어 정부 규제 완화위한 로비 활동에도 적극적이라고 비판했다. "정부 자발적 규제 기대 어렵다" 더불어 힌튼 교수는 현실적으로 정부가 스스로 강력한 AI 규제에 나설 가능성은 낮다고 내다봤다. 그는 "특히 미국에서는 대형 AI 기업과 정치권 간 긴밀한 유착 관계가 형성돼 있다"며, "기업 이익을 보호하려는 정치적 압력이 강해져 정부는 규제에 소극적일 수밖에 없다"고 분석했다. 그는 "AI 기술이 국가 안보와 경제 성장의 핵심으로 여겨지는 상황에서, 규제는 오히려 기술 경쟁력을 약화시킬 수 있다는 인식이 퍼져 있다"며 "이런 분위기 속에서 정부가 자발적으로 규제에 나설 가능성은 극히 낮다"고 지적했다. "공공 여론이 변화를 이끌어야" 이러한 비관적 전망에도 제프리 힌튼교수는 해답이 아예 없는 것은 아니라고 희망을 제시했다. 그는 "지금 상황을 바꿀 수 있는 유일한 힘은 공공 여론"이라고 강조했다. 이어 "일반 시민들이 AI 기술의 위험성과 윤리적 문제를 인식하고, 정부와 기업에 강력한 규제와 책임을 요구해야 한다"며, "대중의 압력이 커질 때만이 정부는 기업들에 맞서 안전성 확보를 위한 정책을 추진할 수 있다"고 밝혔다. 힌튼 교수는 단순한 관심을 넘어서, 구체적인 법안 통과를 요구하고, 안전성 테스트 의무화, 개발 제한 장치 마련 등 구체적이고 실질적인 규제를 촉구해야 한다고 제안했다. "AI 규제는 선택이 아닌 생존의 문제" 힌튼 교수는 AI 기술에 대한 경계심을 단순한 '미래의 가능성'으로 치부해서는 안 된다고 강조했다. 그는 "AI는 지금 이 순간에도 빠른 속도로 발전하고 있으며, 인간보다 월등히 뛰어난 존재로 성장할 가능성은 점점 커지고 있다"고 말했다. 그는 AI 기술의 통제가 실패할 경우, 인류 전체가 통제력을 상실하는 상황에 직면할 수 있다고 경고했다. 더불어 "AI 규제는 이제 단순한 선택의 문제가 아니라, 인류 생존과 직결된 문제"라며, "우리는 이 엄중한 현실을 직시해야 한다"고 목소리를 높였다. 힌튼은 AI가 선한 방향으로 인류를 도울 수도 있지만, 지금처럼 무분별하게 경쟁하고 수익을 좇는 방식으로 발전한다면, 인류가 스스로 재앙을 초래할 것이라고 경고했다. 제프리 힌튼 교수는 "지금의 AI는 마치 귀여운 아기 호랑이와 같다"며 "어릴 때는 무해해 보이지만 시간이 지나면서 훨씬 강력한 존재로 성장해 결국 인간을 위협할 수 있다"며 기술 그 자체가 아닌 그것을 다루는 인간 사회의 무책임성과 탐욕에 대해 경고했다.

2025.04.27 17:27남혁우

"챗GPT 만든 논문, 21세기 최다 인용"…AI는 어떻게 과학계 지배했나

글로벌 테크 기업이 발표한 인공지능(AI) 관련 논문이 21세기 과학계를 사실상 점령한 것으로 나타났다. AI 기술의 구조 활용법을 설명한 논문들이 생명과학, 물리학 등 전통 강세 분야를 누르고 피인용 상위권을 싹쓸이한 가운데 업계에서는 도구 중심 연구가 과학 혁신을 실질적으로 이끈 결과라는 분석이 나온다. 17일 네이처에 따르면 지난 20년간 가장 많이 인용된 논문 대부분이 인공지능(AI) 분야에 집중됐다. 대표적 학술 데이터베이스 다섯 곳을 종합 분석해 선정된 인용 상위 25편 가운데 1위를 차지한 논문은 마이크로소프트(MS)가 지난 2016년 발표한 '딥 레지듀얼 러닝(ResNet)' 관련 연구였다. MS의 논문은 구글 학술 기준으로 약 25만회, 웹오브사이언스 기준 약 10만회 인용되며 '21세기 최다 피인용 논문' 타이틀을 차지했다. 피인용 횟수는 후속 논문에서 얼마나 자주 참조됐는지를 의미하며 논문의 영향력을 가늠하는 핵심 지표로 평가된다. AI 분야의 상위권 독주는 여기서 그치지 않는다. 지난 2012년 제프리 힌튼 토론토대 교수가 발표한 이미지 인식 딥러닝 구조 '알렉스넷' 논문은 8위에 올랐고 지난 2017년 구글이 발표한 자연어처리 기반 구조 '트랜스포머'를 설명한 논문 '어텐션 이즈 올 유 니드'는 7위를 기록했다. 이 논문들은 각각 이미지 분석과 언어 생성 기술의 뿌리를 형성한 연구다. 힌튼 교수의 논문은 이미지넷 대회에서 압도적인 성능을 입증하면서 큰 관심을 끌었다. 이 논문은 힌튼 교수가 구글에 입사하고 AI 개발을 주도하는 발판이 됐다. 트랜스포머 구조는 '챗GPT'를 비롯한 거대언어모델(LLM)의 핵심 구조로 문장 간 관계를 스스로 학습하는 '셀프 어텐션' 메커니즘이 중심이다. 네이처는 AI 논문의 피인용 증가 요인으로 다학제 활용성과 오픈소스 문화를 꼽았다. AI 알고리즘 대부분이 무료로 공개돼 의료, 번역, 로봇 등 다양한 분야에 쉽게 적용됐기 때문이다. 또 사전 공개된 프리프린트 형태 논문이 많아 실질적 인용은 공식 수치보다 더 많을 가능성도 제기된다. AI 외에도 분석 소프트웨어와 실험 도구를 다룬 논문들이 순위에 다수 포함됐다. 2위 논문은 유전자 활성 변화를 정량화하는 공식을 설명한 연구다. 5위에는 X선 산란 패턴을 분석하는 구조화 프로그램 '셸렉스(SHELX)'를 소개한 논문이 이름을 올렸다. 네이처 분석에 참여한 미샤 테플리츠키 미시간대 교수는 "과학자들은 혁신이나 이론을 중요하게 생각한다고 말하지만 실제로는 연구에 직접적인 도움을 주는 도구 논문을 더 자주 인용한다"며 "도구 중심의 연구가 과학 발전을 실질적으로 견인하고 있다는 방증"이라고 말했다.

2025.04.17 11:39조이환

포드, 신형 익스플로러 가격인하 포문...대형 SUV 시장 '들썩'

"가격 책정은 항상 어려운 부분이 있습니다. 저희가 수입차 브랜드로서 굉장히 고려할 점이 많은데요, 그전에는 가격을 조금 올려 고객이 접근하기 어려운 부분이 있었을 것 같은데 이번에는 최대한 접근을 잘할 수 있을 정도의 수준까지 (가격을) 많이 노력했습니다." 데이비드 제프리 포드세일즈서비스코리아 사장은 서울 세빛섬에서 포드의 주력 대형 스포츠유틸리티차(SUV) '더 뉴 익스플로러'를 출시하고 기자들과 만나 이같이 말했다. 포드가 그동안 국내 완성차 제조업체보다 가격을 높게 책정할 수밖에 없었던 것은 수입사로서의 한계가 컸단 뜻이다. 포드코리아는 2015년부터 2018년까지 매년 1만대 이상 판매하던 브랜드였다. 하지만 글로벌 라인업 부족에 맞물리며 부진을 이어갔고 지난해 3천450대로 위축됐다. 포드코리아는 판매 확대를 위한 결단이 필요한 상황이었다. 특히 주력 모델의 성공이 미래를 좌우할 것으로 내다본 것으로 풀이된다. 포드는 신형 익스플로러의 가격을 전세대 대비 최대 900만원가량 인하했다. 신차임에도 가격을 대폭 낮춘 것은 국내 대형 SUV 시장의 모델들이 세대변경 시기인 배경이 크다. 국내 대형 SUV 시장에서 가장 존재감이 큰 현대자동차 팰리세이드는 올해 말 완전변경 모델로 출시될 예정이다. 지난해부터 국내에 판매하고 있는 토요타 하이랜더와 혼다 파일럿도 시장에서 경쟁하고 있다. 익스플로러의 성공을 위해서라면 수익을 낮추더라도 가성비 높은 가격으로 밀고 나가겠다는 뜻이다. 또 포드코리아가 국내 가격을 낮출 수 있었던 이유는 본사의 영향도 크다. 포드는 미국 시장에서 점유율을 확보하기 위해 브롱코, F-150 등 주력 모델의 가격을 인하한 바 있다. 이번 출시된 7세대 포드 익스플로러는 ST-라인 6천290만원, 플래티넘 6천900만원이다. 포드코리아는 이번 익스플로러로 올 초 불거진 '한국시장 철수' 등 위기설을 정면으로 돌파할 예정이다. 특히 전체적인 인기 모델의 라인업을 갖추면서 올해 1월부터 10월 판매량이 늘어난 만큼 본사의 지원을 이끌겠다는 방침이다. 데이비드 제프리 사장은 "(포드 철수설) 답은 오늘 보여드렸다고 생각한다"며 "저희가 이렇게 차량을 출시하고 투자를 하는 상황에서 넥스트 스탭을 다르게 가져갈 리는 없다고 생각하고 경영 부분에 있어서 많은 챌린지도 있기는 하지만 저희가 앞으로 한국 시장을 중요하게 생각하고 있다"고 했다. 치열한 국내 대형 SUV 경쟁에서도 차별화된 모험을 제공하겠다고 강조했다. 제프리 사장은 "대형 SUV 시장은 경쟁이 많은 곳"이라며 "익스플로러 같은 경우는 헤리티지가 경쟁력이며 경쟁 차량 대비 큰 크기, 안전에서의 강점, 탐험을 하는 드라이버의 여정 등 갖췄다"고 설명했다. 또한 짐 팔리 포드 최고경영자(CEO)가 지난해 직접 방한하는 등 한국 시장에 대한 의지를 가지고 있다는 뜻도 전했다. 그는 "짐 팔리 사장과 한국에 대해서 여러 번 얘기를 나눴다"며 "저희가 하고 있는 일에 대해 잘 알고 있고 지원하며 한국 시장의 성공을 바라고 있다"고 강조했다. 한국수입자동차협회(KAIDA)에 따르면 포드와 링컨은 올해 1월부터 10월까지 5천91대를 판매했다. 지난해 전체 판매량인 5천108대에 근접한 수치다. 노선희 포드코리아 마케팅∙커뮤니케이션 총괄 전무는 "지난해 11월 출시한 노틸러스가 올해 일부 기여를 했고 큰 화제가 됐던 짐 팔리 CEO가 직접 공개 행사를 했던 머스탱 등으로 소비자 관심도가 높아졌다. 이러한 노력들이 익스플로러, 애비에이터 등 이어질 것"이라고 말했다. 포드코리아는 올해 하반기와 내년 상반기 국내 대형 SUV 시장의 구도가 치열해지는 만큼 물량 확보가 숙제로 부상하고 있다. 특히 포드는 올해 3분기 실적 발표에서 공급망 문제로 어려움을 겪은 바 있다고 밝혀 수요에 대한 우려도 나온다. 제프리 사장은 "초도 물량의 정확한 숫자를 공개하는 것은 어렵지만, 고객 구매로 증명할 수 있도록 최선을 다하겠다"고 말했다.

2024.11.12 14:11김재성

노벨물리학상 받은 AI, 어떻게 '이미 와 있는 미래'가 됐나

올해 노벨물리학상은 인공지능(AI)에게 돌아갔습니다. 이렇게만 쓰면 오해를 하겠네요. 요즘 화제의 중심에 있는 AI의 핵심 기술을 개발한 두 과학자들이 받았습니다. 'AI 대부'로 꼽히는 제프리 힌튼 토론토대학 교수와 '홉필드 네트워크'로 AI 연구의 기반을 닦은 존 홉필드 프린스턴대학 교수가 영광의 주인공입니다. 제프리 힌튼은 '홉필트 네트워크'를 토대로 '볼츠만 머신'을 고안했습니다. '볼츠만 머신'은 딥러닝의 이론적 토대가 되면서 생성형 AI를 비롯한 많은 기술 발전의 불쏘시개 역할을 해냈습니다. 제프리 힌튼이 'AI 4대 천황' 중 한 명으로 꼽히는 건 이런 기여 때문입니다. 노벨물리학상 위원회는 “두 분의 연구는 지금의 폭발적인 머신러닝 발전에 큰 역할을 했다”고 했습니다. ■ "인공신경망 발견은 물리학 첨단 연구에 적극 활용" 두 분의 연구 업적만 보면, 물리학상 수상자로 손색이 없어 보입니다. 하지만 AI 분야 연구로 노벨물리학상을 받았다는 점에 대해선 놀라는 분위기가 적지 않습니다. "벌써 노벨상을 받을 때가 됐나"라거나, "AI가 물리학 분야에 속하는가"라고 반문하기도 하는 것 같습니다. 노벨물리학상을 주관하는 스웨덴 왕립과학한림원도 이런 부분이 신경 쓰였나 봅니다. 엘런 문스 노벨물리학상 위원장은 “AI가 노벨물리학상의 두드러진 경쟁자로 보이지 않을 수는 있다”고 운을 떼면서 홉필드와 힌튼을 수상자로 선정한 이유를 설명했습니다. “학습할 수 있는 인공신경망의 발견과 응용은 물리학과 긴밀하게 연결되어 있습니다. 입자물리학, 천체물리학, 재료과학을 비롯한 다양한 물리학 분야의 첨단 연구에 활용돼 왔습니다. 이를 통해 얼굴인식과 언어 번역 등 우리 일상 생활의 한 부분이 됐습니다.” 제프리 힌튼 등이 왜 노벨물리학상을 받게 됐는지 잘 설명해주고 있지요? 이런 설명을 통해 노벨물리학상위원회의 이번 결정이 성급하거나, 시류 영합과는 거리가 멀다는 점을 분명하고 하고 있습니다. 생성형 AI를 비롯한 다양한 AI 서비스가 물리학의 중요한 결과물일 뿐 아니라, 첨단 기술이 일상 생활 속으로 스며 드는 데 결정적인 역할을 했습니다. 이 점을 노벨물리학상위원회가 제대로 인증해줬다는 점에서 제프리 힌튼 등의 수상이 예사롭지 않게 다가옵니다. 홀트만과 힐튼의 연구는 요즘 관심이 집중된 생성형 AI의 뿌리나 다름 없습니다. 두 연구자의 노벨물리학상 수상 소식에 많이 흥분했던 건 그 때문입니다. 전 복잡한 AI 기술에 대해선 잘 모릅니다. 하지만 AI가 우리들의 삶과 비즈니스를 근본부터 바꿔놓을 것이란 점에 대해선 의심하지 않습니다. 물론 머리로 생각하는 것과, 실제로 몸으로 느끼는 건 다를 겁니다. 우리 대부분은 학자나 기술자가 아니라, 일반적인 생활인이기 때문입니다. 그래서 올해 노벨물리학상위원회의 선택이 강하게 와 닿지 않을 수도 있습니다. ■ 우리 곁에 이미 와 있는 미래, 눈으로 확인하려면 그런 분들에게 의미 있는 행사를 하나 소개합니다. 10일부터 12일까지 사흘 동안 코엑스에서 열리는 '디지털혁신 페스타 2024(DINNO 2024)'입니다. 과학기술정보통신부가 주최하고 한국소프트웨어산업협회(KOSA)가 주관하는 행사입니다. (☞ 디노 2024 페이지 바로 가기) 올해 주제는 'AI On, Future Here' 입니다. 'AI는 이미 와 있는 미래'라는 의미를 담고 있습니다. AI를 비롯해 양자, 바이오 등 대한민국의 미래를 책임질 핵심 기술들의 현재와 미래를 한 눈에 볼 수 있는 행사입니다. 그 뿐 아닙니다. 클라우드, 빅데이터, 디지털헬스케어, 모빌리티, 로봇, 보안, 엔터테크 등 미래 혁신을 주도할 디지털 신기술들도 직접 확인할 수 있습니다. 이번 행사에선 150여 업체가 350여 부스를 마련했습니다. AI·양자·디지털헬스케어·SaaS(인터넷으로 제공하는 SW)·스타트업과 관련한 전문 컨퍼런스도 의미 있는 볼거리입니다. 컨퍼런스의 핵심 주제도 AI입니다. 특히 'AI Inside AI Everywhere'를 주제로 열리는 '퓨처테크 컨퍼런스'는 이미 우리 앞에 와 있는 미래 혁신의 현장을 생생하게 보여줄 것으로 기대됩니다. 첫째날은 'AI, 비즈니스를 바꾸다'는 주제로 첨단 AI 혁명의 현장을 생생하게 보여줍니다. 둘째날은 'AI 일상을 바꾸다'는 주제로 최근 각광을 받고 있는 엔터테크와 첨단 로봇 분야를 집중 조명할 예정입니다. “미래는 이미 와 있다. 단지 널리 퍼져 있지 않을 뿐이다.(The future is already here. It's just unevenly distributed)” 사이버스페이스란 말을 처음 사용한 미국의 SF 소설가 윌리엄 깁슨이 2003년 이코노미스트와 인터뷰에서 한 말입니다. 그냥 들으면 이 말이 무슨 의미인지 잘 와 닿지 않을 지도 모릅니다. 이렇게 비유하면 어떨까요? 올해 노벨물리학상을 수상한 두 분의 연구는 '먼 미래'의 설계도였습니다. 많은 과학, 기술자들이 그 설계도를 기반으로 '아직 도래하지 않은' 미래를 만들어나갔습니다. 그 결과물이 여러분이 '디노 2024'에서 만나게 될 각종 서비스와 제품들입니다. 'AI On, Future Here'란 슬로건에는 이런 의미가 담겨 있습니다. 두 AI 연구자의 노벨물리학상 수상에 관심이 있는 많은 분들을 '디노2024'로 초대합니다. '우리 곁에 와 있는 미래'를 직접 접하는 기쁨이 적지 않을 것이라고 자신합니다.

2024.10.09 14:20김익현

"AI 위협 걱정"…노벨물리학상 수상자들, 왜 경고했나

'인공지능(AI) 대부'로 꼽히는 제프리 힌튼 토론토대학 교수가 존 홉필드 프린스턴대학 교수와 공동으로 2024년 노벨물리학상을 수상했다. 하지만 제프리 힌튼은 노벨상 수상자로 선정된 직후 또 다시 'AI의 위협'에 대해 경고해 눈길을 끌었다. 공동 수상자인 존 홉필드 교수 역시 AI가 방대한 정보망과 연결되면서 초래할 부작용에 대해 우려를 나타냈다. 월스트리트저널을 비롯한 외신들에 따르면 힌튼은 8일(현지시간) 노벨상위원회와 인터뷰에서 "우리 보다 더 똑똑한 시스템이 초래할 결과에 대해 우려한다"고 말했다. 하지만 그는 자신의 연구 작업에 대해선 "똑 같은 작업을 할 것"이라고 강조했다. 힌튼은 1980년대 중반 다층 퍼셉트론과 역전파 알고리즘을 제안하면서 요즘 우리가 알고 있는 AI 연구의 기반을 닦았다. 역전파법은 챗GPT를 비롯한 많은 대용량언어모델(LLM)의 기반 기술이 됐다. 제프리 힌튼은 이날 노벨물리학상 수상자로 선정된 직후 워싱턴포스트와 인터뷰에서도 “AI가 초래할 수 있는 수 많은 나쁜 결과에 대해 걱정해야만 한다”고 강조했다. 이날 힌튼은 “(AI는) 여러 가치 측면에서 놀라우며, 엄청난 생산성 향상을 가져올 것이다”면서도 “인간보다 더 똑똑해질 경우 초래할 결과에 대해 우려하고 있다”고 덧붙였다. 그는 또 “어떤 물건들이 인간보다 더 똑똑해지는 상황을 경험한 적이 없다”고도 말했다. 인터뷰 당시 힌튼은 캘리포니아의 한 호텔에 묵고 있었다. 그는 노벨상 수상자로 선정된 직후 가진 워싱턴포스트와 인터뷰에서 “MRI 예약을 해 놨는데, 취소해야 할 것 같다”고 밝히기도 했다. 힌튼이 'AI의 위협'에 대해 경고한 것은 이번이 처음은 아니다. 지난 해 5월 힌튼은 10년 동안 몸 담았던 구글을 떠나면서 “AI가 인류에겐 존재론적 위협이 되고 있다”고 말해 많은 사람들을 깜짝 놀라게 했다. 당시에도 힌튼은 “AI가 사람보다 더 똑똑해지기까지는 아직 상당한 시간이 필요할 것이라고 생각했지만 이젠 그렇게 생각하지 않는다”는 말도 했다. 심지어 AI 시스템에서 일어나는 일이 사람 뇌보다 더 나은 경우도 있다고 경고했다. 힌튼은 오픈AI가 내놓은 GPT-4를 보면서 그런 생각을 하게 됐다고 밝혔다. 그는 MIT테크놀로지리뷰와 인터뷰에서 “외계인이 지구에 착륙했는데, 그들이 아주 훌륭한 영어를 구사하다보니 사람들이 그 위협을 깨닫지 못하고 있는 것과 비슷한 상황이다”고 주장했다. 노벨물리학상 공동 수상자인 존 홉필드도 AI에 대한 우려에 동참했다. 하지만 홉필드 교수는 AI 자체보다는 방대한 정보와 연결된 상황에 대해 경계심을 나타냈다. 이날 프린스턴대학 강당에서 가진 노벨상위원회와의 화상 인터뷰에서 "지구상의 방대한 정보 흐름과 결합된 AI에 대해 우려한다"고 말했다. 그는 또 "신경망의 간단한 알고리즘이 매우 거대한 정보 시스템을 통제할 수도 있다"면서 "그런 시스템의 작동 방식을 우리가 제대로 이해하지 못하고 있다는 점이 당황스럽다"고 강조했다.

2024.10.09 09:28김익현

'AI의 아버지' 제프리 힌튼, 노벨물리학상 받았다

'인공지능(AI) 4대 천황' 중 한 명으로 꼽히는 제프리 힌튼 토론토대학 교수가 노벨물리학상을 수상했다. 스웨덴 왕립과학원 노벨상위원회는 8일(현지 시간) 제프리 힌튼 캐나다 토론토대 교수와 존 홉필드 미국 프린스턴대 교수를 2024년 노벨물리학상 수상자로 선정했다고 발표했다. 노벨상위원회는 “인공신경망을 이용한 머신러닝의 근간이 되는 발견과 발명에 기여한 공로를 높이 평가했다”고 설명했다. ■ "인공신경망, 물리학 연구에 널리 활용…일상생활 한 부분됐다" 공동 수상자인 홉필드 교수는 1982년 '홉필드 네트워크'를 제안하면서 인공 신경망 연구의 초석을 다졌다는 평가를 받고 있다. '홉필드 네트워크'는 신경망의 물리적 모델로 최적화나 연상 기억 등에 사용된다. 기존 학습 패턴을 양극화한 뒤 가중치 행렬을 구하는 방식으로 작동된다. 특히 홉필드 네트워크는 두뇌에 기억이 저장되는 방식을 모방해 이미지나 정보 유형을 저장할 수 있는 신경망을 구축하는 기반이 됐다. 요즘 관심의 초점으로 떠오른 생성형 AI' 역시 근원을 따져 들어가면 홉필드 네트워크와 만나게 된다. 제프리 힌튼은 홉필드의 이런 연구 기반 위에서 'AI 4대 천황'으로 발돋움했다. 힌튼은 1986년 '홉필드 네트워크'를 토대로 다층 퍼셉트론과 역전파 알고리즘을 제안했다. 역전파법은 사람의 두뇌와 비슷한 방법으로 컴퓨터를 학습시킨다. 이 방법을 이용해 이미지를 구분하고, 문장에서 다음에 어떤 단어가 나올 지 예측하는 데 성공했다. 이를 통해 힌튼은 그 때까지 암흑기를 면치 못하고 있던 AI 연구의 새로운 돌파구를 열었다는 평가를 받고 있다. 그가 제안한 역전파법은 챗GPT를 비롯한 많은 대용량언어모델(LLM)의 기반 기술이 됐다. 당시 대학원생으로 힌튼 교수와 함께 역전파법 논문을 썼던 일리야 수츠케버는 챗GPT를 만든 오픈AI 공동 창업자 중 한 명이다. 노벨상위원회는 이런 부분을 높이 평가해 두 교수에게 물리학상을 수여하게 됐다. 위원회는 “홉필드 교수가 정보를 저장하고 재구성할 수 있는 구조를 만들었고, 힌턴 교수는 데이터 속성을 발견하는 방법을 개발했다”고 설명했다. 엘런 문스 노벨물리학상 위원장은 “이런 인공신경망은 입자물리학, 천체물리학, 재료과학을 비롯한 다양한 물리학 분야의 첨단 연구에 활용돼 왔다”면서 “이를 통해 그들은 얼굴인식과 언어 번역 등 우리 일상 생활의 한 부분이 됐다”고 강조했다. ■ 제프리 힌튼, AI 위험 경고하면서 세상 깜짝 놀라게 하기도 두 사람 중에선 제프리 힌튼이 대중적으로 훨씬 많이 알려진 편이다. 'AI 4대 천황'으로 통하는 힌튼은 2019년 조슈아 벤지오, 얀 르쿤 등과 함께 '컴퓨팅 분야 노벨상'으로 불리는 튜링상을 수상하기도 했다. 특히 힌튼은 토론토대학에 재직하면서 AI업체인 DNN리서치를 창업하기도 했다. 이 회사가 2013년 구글에 인수되면서 부사장 겸 엔지니어링 펠로우로 구글에 합류했다. 이후 10년 동안 구글의 AI 개발 작업을 진두 지휘해 왔다. 하지만 힌튼은 지난 해 5월 갑작스럽게 '구글 퇴사'를 세상을 깜짝 놀라게 했다. 힌튼이 구글과 결별한 가장 큰 이유로 'AI의 위협'을 거론했기 때문이다. 당시 힌튼은 “AI가 사람보다 더 똑똑해지기까지는 아직 상당한 시간이 필요할 것이라고 생각했지만 이젠 그렇게 생각하지 않는다”는 말도 했다. 심지어 AI 시스템에서 일어나는 일이 사람 뇌보다 더 나은 경우도 있다고 경고했다. 힌튼은 오픈AI가 내놓은 GPT-4를 보면서 그런 생각을 하게 됐다고 밝혔다. 그는 MIT테크놀로지리뷰와 인터뷰에서 “외계인이 지구에 착륙했는데, 그들이 아주 훌륭한 영어를 구사하다보니 사람들이 그 위협을 깨닫지 못하고 있는 것과 비슷한 상황이다”고 주장했다. 특히 힌튼이 두려워하는 것은 GPT-4 같은 뛰어난 기술이 사람을 죽이거나, 허위정보를 조작하는 등의 나쁜 행동에 동원될 가능성이 적지 않다는 점이다. 대용량언어모델(LLM)의 기반을 닦은 힌튼은 그 기반 위에 피어 오른 결실에 대해 '두려움'을 여과 없이 드러내 많은 화제를 몰고 오기도 했다.

2024.10.08 23:16김익현

노벨 물리학상에 제프리 힌튼·존 홉필드

올해 노벨 물리학상은 물리학 기반의 AI분야에서 나왔다. 수상자는 인공신경망을 이용한 머신 러닝 기술을 개발한 미국 프린스턴 대학교 존 J. 홉필드 교수와 캐나다 토론토 제프리 E. 힌튼 교수에게 돌아갔다. 스웨덴 카롤린스카 의대 노벨위원회는 8일(현지 시간) 존 홉필드 미국 프린스턴대 교수, 제프리 힌튼 캐나다 토론토대 교수를 수상자로 선정했다. 수상 분야인 인공 신경망에서 뇌의 뉴런은 서로 다른 값을 갖는 노드로 표현되는데, 이러한 노드는 시냅스에 비유할 수 있는 연결을 통해 서로에게 영향을 미친다. 존 J. 홉필드(John J. Hopfield) 교수는 데이터를 저장하고 재구성할 수 있는 연관 기억을 만들었다. 1933년 미국 일리노이주 시카고에서 태어났다. 홉필드 교수는 1958년 미국 뉴욕주 이타카 코넬대학교에서 박사학위를 취득했다. 미국 뉴저지주 프린스턴대학교 교수로 재직 중이다. 공동 수상자인 제프리 E. 힌튼 교수는 데이터를 통해 자동으로 속성을 찾아내고, 이를 통해 이미지에서 특정 요소를 식별하는 작업을 수행할 수 있는 방법을 개발했다. 힌튼 교수는 1947년 영국 런던에서 태어났다. 1978년 영국 에든버러 대학교에서 박사 학위 취득했다. 현재. 캐나다 토론토 대학교 교수로 재직 중이다.

2024.10.08 19:47박희범

"100년 내 인간 멸종 가능성 99.9%"…10년 내 AI 킬러 등장 예언 속 섬뜩한 경고 잇따라

"인공지능(AI)이 100년 안에 인간을 멸종시킬 수 있는 가능성이 99.9%에 달합니다. 미래에는 AI가 인간을 반드시 해칠 수 있습니다." 로만 얌폴스키 루이빌대 사이버보안연구소 교수가 최근 AI의 위험성을 제기하며 이처럼 경고하고 나섰다. 챗GPT 개발사 오픈AI와 구글 딥마인드의 전·현직 직원들뿐 아니라 국가안보 정부 당국자, AI·보안 전문가들도 함께 우려하며 재앙을 피할 수 있는 시간이 얼마 남지 않았다는 경고의 메시지를 잇따라 내놓고 있다. 6일 비즈니스인사이더 등 외신에 따르면 AI 전문가인 얌폴스키 교수는 지난 4일 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연해 "AI가 인류를 멸망시킬 가능성은 인간이 향후 100년 안에 버그 없이 고도로 복잡한 소프트웨어를 만들 수 있는지에 달려 있다"고 주장했다. 그러면서 "하지만 AI 모델이 의도하지 않은 작업을 안전하게 수행하도록 만들 수 없기에 사고를 피할 가능성은 낮다"며 "AI는 이미 실수를 저질렀는데 사고나 탈옥을 경험하기도 했고, 개발자가 의도하지 않은 일을 성공적으로 수행한 대형언어모델(LLM)은 하나도 없을 것"이라고 덧붙였다. 또 그는 "인공일반지능(AGI)이 등장하게 되면 문제가 더 커진다"며 "인간보다 더 똑똑한 시스템이 무엇을 할 것인지 예측이 어렵다"고 강조했다. AGI는 인간 수준의 사고가 가능해 주제에 구애받지 않고 성공적으로 문제를 해결할 수 있는 AI다. 이에 일각에선 향후 인간이 AI를 통제하는 것이 사실상 불가능하고 안전성과 관련된 문제가 필연적으로 발생할 수밖에 없다고 보고 있다. 얌폴스키 교수는 결국 인류의 운명이 3가지 중 하나일 것으로 관측했다. ▲AI가 모두를 죽이는 상황 ▲AI로 인해 모두가 고통받고 차라리 죽기를 바라는 상황 ▲모든 인간이 목적을 완전히 상실하는 상황 등이다. 얌폴스키 교수뿐 아니라 많은 전문가들은 AI가 일자리를 빼앗고 창의적으로 발전해 앞으로는 인간의 존재 가치가 없어질 것이라는 지적을 내놓고 있다. 앞서 AI 정책 조언 등을 제공하는 민간 업체 글래드스톤 AI가 지난 3월 미국 국무부의 의뢰로 작성한 보고서에선 미국 연방 정부가 AI로 인해 재앙을 피할 수 있는 시간이 얼마 남지 않았다고 경고했다. 보고서는 주요 AI 기업의 최고 경영진, 사이버 보안 연구원, 대량살상무기(WMD) 전문가, 국가안보 정부 당국자 등 200여 명을 1년여에 걸쳐 인터뷰한 내용을 토대로 작성됐다. 보고서는 "최첨단 AI 시스템이 향후 돌이킬 수 없는 피해를 가할 가능성이 있는 무기로 전용될 가능성이 있다"며 "어느 시점이 되면 인간이 개발 중인 AI 시스템에 대한 통제력을 상실해 잠재적으로 세계 안보에 파괴적인 결과를 초래할 수 있다"고 경고했다. 이어 "AI와 AGI의 부상은 핵무기 도입을 연상시키는 방식으로 세계 안보를 불안정하게 할 가능성이 있다"며 "AI 군비 경쟁과 분쟁, 대량살상무기 규모의 치명적인 사고의 위험이 있다"고 덧붙였다. 'AI 대부'로 불리는 제프리 힌턴 캐나다 토론토대 명예교수는 더 섬뜩한 예언을 내놨다. 지난 3월 일본 니혼게이자이신문과의 인터뷰에선 "AI에 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"며 "10년 내 자율적으로 인간을 죽이는 로봇 병기가 등장할 것"이라고 주장했다. 최근에는 오픈AI와 구글 전·현직 직원들도 AI의 급속한 발전에 대한 우려를 표하는 성명을 발표했다. AI의 위험성을 다루기엔 기업의 내부 규제 시스템에 기대는 것만으로는 부족해 AI와 관련된 사법 체계가 구축돼야 한다고 강조했다. 이들은 "우리는 AI 기술에 의해 야기되는 심각한 위험을 알고 있다"며 "기존의 불평등을 심화시키는 것부터 조작과 잘못된 정보, 잠재적으로 인류의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양한 위험이 도사리고 있다"고 말했다. 이어 "AI 기업은 기술로 인해 발생하는 다양한 종류의 위험에 대한 상당한 비공개 정보를 보유하고 있지만 이런 정보 중 일부를 정부 또는 사회와 공유할 의무가 약하다"며 "우리는 이러한 기술을 모두 신뢰할 수 있다고 생각하지는 않는다"고 덧붙였다. 이 때문에 AI를 제어하기 위한 방안 마련을 위한 움직임도 곳곳에서 나오고 있다. 유럽연합(EU)이 올해 3월 세계 최초로 포괄적인 AI 기술 규제법안인 'AI법'을 최종 승인한 배경도 이런 위험도를 낮추기 위한 수순으로 분석된다. 2026년 이후 전면 시행될 이 최종안에 따르면 EU는 AI 활용 분야에 대해 총 4단계의 위험 등급으로 구분해 차등 규제할 예정이다. 법 위반 시 경중에 따라 전 세계 매출의 1.5%에서 최대 7% 수준의 과징금이 부과될 수 있다. 영구적인 안전장치가 필요하다는 주장도 있다. 에릭 슈미트 전 구글 최고경영자(CEO) 는 최근 개최한 컨퍼런스에서 AI가 자유의지를 가지게 된다면 해결책은 코드를 뽑는 것 하나뿐이라고 발언해 주목 받았다. 반면 일각에서는 이 같은 주장들이 너무 비관적이라고 지적했다. 유명 과학자 렉스 프리드먼이 진행하는 팟캐스트에 출연한 다수 AI 전문가들은 AI의 인간 멸종 가능성을 1~20%로 예상했다. 또 옥스포드대학교가 최근 실시한 과학자 2천778명 대상 설문 조사에서는 5%에 불과하다는 결과가 나왔다. 아르빈드 크리슈나 IBM 최고경영자(CEO)는 지난달 미국에서 열린 '밀컨 글로벌 콘퍼런스'에 참석해 AI 기술에 대한 정부 규제를 비판하며 "규제를 과도하게 하면 혁신이 (규제 범위 안에서) 융화돼 경쟁을 저해할 수 있다"며 "과도한 규제는 규제를 하지 않는 것보다 더 나쁘다"고 피력했다.

2024.06.06 10:32장유미

"인간 노린 AI 무기, 오펜하이머 모멘트"…해외서 규제 논의 본격화

"향후 10년 이내에 자율적으로 인간을 죽이는 로봇 무기가 등장할 것으로 보고 있습니다." 인공지능(AI) 분야 대부로 불리는 제프리 힌턴 캐나다 토론토대 명예교수가 최근 이처럼 경고한 가운데 각국 전문가들이 이를 규제하기 위한 방안 마련을 위해 머리를 맞댔다. 30일 블룸버그 통신에 따르면 최근 100개국 이상의 민간, 군사, 기술 관계자들은 지난 29일 오스트리아 비엔나에서 AI와 군사 기술 결합을 경제적으로 제재할 방안을 마련하기 위해 모였다. 전쟁이 벌어지고 있는 우크라이나와 팔레스타인 가자 지구를 중심으로 최근 자율 무기 시스템이 빠르게 확산되고 있어서다. 실제 우크라이나군은 개전 후 두 달 만에 460대에 달하는 러시아 전차와 2천 대에 육박하는 장갑차를 무인기를 통해 파괴했다. 러시아 역시 AI 시각 식별(AIVI) 기술로 표적을 실시간으로 분류하는 KYB-UAV 등을 통해 우크라이나 군의 기동력을 효과적으로 봉쇄했다. 세계 최초로 AI 기반 완전자율 차량을 실전 배치한 이스라엘은 이미 2016년부터 팔레스타인 가자지구와의 경계 지역에 중형 화기를 탑재한 군용 무인 차량을 투입했다. 또 병사와 로봇 차량으로 이뤄지는 혼성 전투부대도 편성한 바 있다. 업계에선 심각한 병력 수급 문제를 겪고 있는 현 상황에서 군사용 AI의 도입은 효율적인 자원관리와 전투력 강화를 위한 필연적인 선택지라고 봤다. 하지만 각 규제 당국은 AI를 활용한 킬러 로봇의 위험성을 인지하고 통제하려는 움직임을 점차 드러내고 있다. 이번 비엔나 회담에서 알렉산더 샬렌베르크 오스트리아 외무장관은 지난 1945년 원자폭탄 발명을 도운 뒤 핵무기 확산 통제를 주장한 J. 로버트 오펜하이머를 언급하며 "지금이 우리 시대의 오펜하이머 순간"이라고 말했다. 알파벳 AI 플랫폼 '딥마인드'의 초기 투자자인 얀 탈린도 기업들이 AI 사업을 키우기 위해 재정적 지원에 나서는 것과 함께 글로벌 갈등이 확산되면서 '킬러 로봇'을 통제해야 할 필요가 더 커졌다고 경고했다. 앞서 얀 탈린은 "AI는 약간만 발전해도 큰 돈과 연결된다는 특성이 있다"며 "AI 산업의 리더가 경고에 주의를 기울이지 않으면 인류에게 진정한 위험이 될 수 있다"고 주장한 바 있다. 현재 전 세계 정부는 AI 도구를 국방에 통합하는 기업과 협력하기 위한 움직임에 적극 나서는 모습이다. 미국 국방부는 AI 스타트업에 수 백만 달러를 쏟아 붓고 있고, 유럽연합(EU)는 지난주 탈레스 SA에 전장 표적을 평가하는 데 도움이 되는 이미지 데이터베이스를 구축하기 위한 비용을 지불했다. 중국도 적극적인 모습이다. '군민융합전략요강'을 통해 최근 광범위한 빅데이터 분석과 학습능력을 갖춘 첨단 군의 육성계획을 발표해 눈길을 끌었다. AI를 통해 자율무기체계 개발뿐 아니라 미래의 지능전 양상에 선제적으로 대비함으로써 군대조직과 전술·작전 개념까지 혁신한다는 내용이다. 이미 무인 로봇 분야에서 세계 최고 기술을 보유한 일본은 AI 기반 자율화 무기체계에도 상당한 지식을 축적하고 있는 것으로 평가 받고 있다. 특히 지난 2019~2023년 일본 중기방위력정비계획 기간에는 함선용 무인기를 도입해 주목 받았다. 러시아는 당면한 병력 및 고가장비의 부족 문제를 가성비가 뛰어난 자율무기체계로 극복하기 위해 나서고 있다. 최근 투입한 자폭형 드론이나 무인전투기, 무인잠수정, AI 자율 어뢰가 대표적이다. 우리나라는 다른 나라에 비해 아직 움직임이 다소 더디다. 지난 2020년 국방스마트플랫폼 및 무인화·지능화 기술의 국가별 수준 조사에 따르면, 미국 국방 기술 발전 수준을 100으로 볼 때 유럽은 90, 일본은 85, 중국 84, 한국은 75 수준인 것으로 평가됐다. 얀 탈린은 "자율 무기를 쉽게 구할 수 있게 되면서 소수만이 군비 경쟁에 참여할 수 있었던 제한이 사라졌다"며 "이제 3D 프린터와 기본적인 프로그래밍 지식을 갖춘 학생들도 대규모 사상자를 발생시킬 수 있는 드론을 만들 수 있게 됐다"고 말했다. 이어 "자율 무기 시스템은 국제 안정의 개념을 완전히 바꿔놓았다"고 덧붙였다. 제프리 힌턴 명예교수는 지난 3월 일본 니혼게이자이신문과의 인터뷰에서 "AI가 자신이 부여받은 하나의 목표를 달성하기 위해 인간에게 좋지 않은 방법을 해결책으로 내놓을 수 있다"며 "AI가 인류 파멸을 가져올 수 있다"고 경고한 바 있다. 또 그는 "제1차 세계대전에서의 참화로 화학무기가 전 세계적으로 금지됐듯 AI 로봇무기도 조만간 규제할 수 있을 것"이라면서도 "하지만 (규제 시점이) 인류가 (AI 킬러로봇의) 비참함을 인식한 후가 될지 모른다"고 규제에 속도를 내야 한다고 강조했다.

2024.04.30 09:17장유미

"AI, 자가 복제 엄격 제한…살상무기화 금지"

영국과 미국, 캐나다, 중국 등지 인공지능(AI) 전문가들이 베이징에서 'AI 보안 국제 컨센서스'에 합의했다여 중국 언론 텅쉰커지 'AI 웨이라이즈베이'가 18일 보도했다. 이번 국제 합의는 중국 BAAI(Beijing Academy of Artificial Intelligence)가 제안했다. '인공지능 자율 복제 및 진화'에 초점을 맞춘 이번 합의는 인간의 명시적인 승인과 지원없이 인공지능 시스템이 스스로 복제하거나 개선해서는 안된다는 것이 골자다. 인공지능이 자신의 정확한 복사본을 만들고 유사하거나 더 강한 능력을 가진 새로운 시스템을 만드는 것 등이 포함된다. 또 인공지능 시스템이 자신의 힘과 영향력을 부적절하게 증가시키는 조치를 취할 수 없도록 했다. 이뿐 아니라 모든 인공지능 시스템이 사용자의 능력을 향상시켜 대량 살상 무기를 설계하거나 생화학 무기 협약을 위반해서도 안된다고 합의했다. 심각한 금전적 손실이나 그에 상응하는 피해를 초래하는 사이버 공격 분야를 지원해서는 안된다는 합의도 있었다. 여기에 모든 인공지능 시스템이 설계자나 규제 기관이 앞서 언급한 한계선을 넘을 가능성을 계속 오해하도록 유도해서도 안된다고 합의했다. 이날 합의에는 튜링상 수상자인 제프리힌튼 캐나다 토론토대학 교수와 요슈아 벤지오 캐나다 몬트리올대학교 교수, 스튜어트 러셀 영국 컴퓨터 과학자 겸 캘리포니아대학 교수, 로버트 트레이거 옥스퍼드 대학 인공지능 거버넌스에 관한 마틴 이니셔티브 공동 책임자, 토비오드 옥스퍼드대학 선임연구원, 튜링상 수상자인 야오치즈 중국 컴퓨터 과학자, 던송 중국계 미국인 컴퓨터 과학자, 제이드 렁 영국 AI 보안연구소 CTO, 장야친 중국 칭화대 지능형 산업 연구소장, 쉐란 칭화대 슈바르츠만칼리지 학장 등이 참석했다.

2024.03.19 08:27유효정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현