• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AGI'통합검색 결과 입니다. (50건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[방은주의 AI세상] AI를 인공지능이라 써야 하나···AGI는 언제 등장?

"AGI를 가장 똑똑한 인간보다 똑똑한 AI로 정의한다면 아마 내년 혹은 후년에 가능할 것 같습니다."(if you define AGI(artificial general intelligence) as smarter than the smartest human, I think it's probably next year, within two years".) 일론 머스크 테슬라 최고경영자(CEO)가 8일(현지시각) AGI에 대해 한 말입니다. 테슬라는 세계 최고 전기차업체죠. 머스크는 이날 엑스(X·옛 트위터)에서 진행한 노르웨이 국부펀드의 니콜라이 탕겐 CEO와 인터뷰 중 이 말을 했습니다. AGI(Artificial General Intelligence)가 뭘까요? 우리말로는 범용인공지능이라고 번역합니다. 강(强)인공지능(Strong AI)이라고도 불리죠. 말 그대로 여러 분야에 두루 쓰일 수 있는 AI를 말합니다. 챗GPT처럼 특정작업(언어)에 전문화한 AI와는 다르죠. 인간보다 나은 수준의 지능을 갖춘 AI나 기계 개발을 목표로 합니다. 사람과 유사한 학습 능력, 추론 능력, 문제해결 능력, 창의성을 갖출 것으로 예상합니다. 난치병을 치료하는 신약 개발과 기후 변화 해결 등에 큰 역할을 할 것으로 기대되고요. AI분야 세계 석학 제프리 힌턴 토론토대 교수는 AGI가 "기술용어가 아니다"고 말합니다. 그는 AGI 대신 슈퍼인텔리전스(Superintelligence)라는 말을 선호합니다. AGI는 언제 등장할까요? AGI를 논하기에 앞서 AI라는 용어부터 짚어보겠습니다. AI는 우리말로 인공지능이라 쓰고 말합니다. 올바른 번역일까요? AI를 지능으로 쓰고 말하다 보니 '착각'을 줍니다. AI가 사람과 같은 지능을 갖고 있고, 시간이 갈 수록 이 지능이 높아져 결국 AI가 사람을 지배하거나 정복할 거라는 '공포의 착각'이죠. AI는 정말 그럴까요? AI 본질은 함수(수학)고 확률입니다. 학습과 시행착오를 거쳐 성능이 좋아지는 최적화 기술이죠. 사람보다 시험을 잘 보고, 바둑과 게임에서 이기고, 작곡을 하고 미술작품을 그린다고 해서 사람과 같은 지능을 지닌게 아닙니다. 기술(AI)은 기술일 뿐이죠. 하여, 기자는 AI를 인공지능이라고 쓰거나 말하지 않았으면 합니다. 지능때문에 착각을 주니 그냥 영어로 AI라 쓰고 말했으면 합니다. 다시 AGI로 가보겠습니다. 머스크가 AGI 등장을 예상하기 며칠 앞서 젠슨 황 엔비디아 CEO는 미국에서 열린 자사 연례 개발자 컨퍼런스(2024년 GTC)'에서 "5년안에 AGI가 등장할 것"이라고 예상했습니다. 단 젠슨은 조건을 달았습니다. "AGI를 어떻게 정의하는냐에 따라 다르다"는 조건을요. 머스크와 젠슨 외에 AGI 등장을 전망한 유명한 사람이 또 있습니다. 바둑에서 이세돌을 이긴 AI '알파고'를 만든 영국 딥마인드의 데미스 하사비스 CEO입니다. 딥마인드는 현재 구글이 인수했습니다. 하사비스는 얼마전 세계적 경제 권위지 영국 파이낸셜타임스(FT)와 인터뷰에서 이렇게 말했습니다. "(나는) AGI가 10년 내 실현하더라도 놀라지 않을 거다. 하지만 꼭 그렇게 될 거라는 말은 아니다. AGI가 10년내 실현될 확률은 50%다. 이 시간표는 딥마인드를 설립한 이래 결코 변하지 않았다."(I wouldn't be surprised if it happened in the next decade. I'm not saying it's definitely going to happen but I wouldn't be surprised. You could say about a 50 percent chance. And that timeline hasn't changed much since the start of DeepMind). 하사비스도 AGI 등장을 말하며 조건을 달았습니다. 두 가지 입니다.(one or two more critical breakthroughs were needed before AGI was reached). 하나는 성능과 규모가 기하급수적으로 증가하는 문제를 해결하는 거고 또 하나는 발열과 전기입니다. 거대언어AI(LLM) 등이 대규모 데이터를 실시간으로 학습하고 처리하기 위해선 현재의 전기 인프라로는 발열이나 전력을 감당하기 어렵기 때문입니다. 하사비스는 10대 때 '세계 2위 체스 청소년 챔피언'에 등극한 천재입니다. '알파고' 외에 신약 분석 AI '알파폴드'도 내놓아 세상을 깜짝 놀라게 했죠. 현재 그는 구글 생성형 AI '제미나이' 개발을 지휘하고 있습니다. 하사비스가 설립한 딥마인드도 챗GPT를 만든 미국 오픈AI도 AGI를 개발하는데 주력하고 있습니다. 이렇듯 AGI는 아직 오지 않은 미래입니다. 내년이 될지 후년이 될지, 아니면 5년이 될 지 10년이 될 지 모릅니다. 인류에 가져다 줄 파급력이 워낙 막강하다보니 유명인사들이 AGI를 거론할때마다 언론의 헤드라인을 장식합니다. 정의에 따라 AGI 등장 시기가 달라지는데, 어쩌면 AGI는 이미 우리 곁에 와 있을 수도 있습니다. 사람보다 시험을 더 잘 보고 미술, 음악, 소설, 시 등 인간 고유 창작 영역에서도 사람보다 나은 퍼포먼스(성능)를 보여줬습니다. AGI를 파라미터(매개변수, AI성능을 좌우하는 지표) 몇 개가 있는 AI라고 공식 정의하지 않는 한 이미 나온 AI도 보기에 따라 AGI라고 할 수 있습니다. 영어 격언에 "that's it!(그것이 전부!)"이라는 말이 있습니다. AGI도 그렇습니다. AI가 여러 방면에서 놀라운 기능을 보여줬다고 해서 인간보다 나은 지능을 갖고 있는 건 아닙니다. 그저 데이터에 기반해 수학과 확률로 놀라운 능력을 보여준 것 뿐입니다. 엄청난 컴퓨팅 파워도 필요했고요. 기술은 기술이고 기계는 기계일 뿐입니다. 지능을 가진 사람과 비교할 바가 아닙니다. 앞으로도 AI는 우리가 상상도 못한 걸 보여줄 겁니다. 그래봤자 기술이고 기계입니다. AI가 사람을 '지배'하거나 '정복'하는 건 아닙니다. 놀랄지언정 휘둘리지 마시기 바랍니다.

2024.04.11 10:33방은주

일론 머스크 "AI, 2년내 인간보다 더 똑똑해진다"

일론 머스크 테슬라 최고경영자(CEO)가 내년 또는 2026년에는 인간보다 더 똑똑한 인공지능(AI)이 개발될 것이라고 예측했다고 로이터 등 외신들이 8일(현지시간) 보도했다. 일론 머스크는 이날 소셜미디어 엑스에서 진행한 노르웨이 국부펀드 니콜라이 탕겐 CEO와의 인터뷰에서 이와 같은 의견을 내놨다. ■ “AGI, 내년 안에 나올 수도 있다” 머스크는 AGI(범용인공지능) 개발 일정을 묻는 질문에 "AGI를 가장 똑똑한 인간보다 더 똑똑한 AI로 정의한다면, 아마도 내년, 예를 들어 2년 이내가 될 것이라고 생각한다"고 밝혔다. 머스크의 이런 전망은 다른 전문가들의 전망을 훨씬 앞선 수준이다. AI 칩 선두 주자 젠슨 황 엔비디아 CEO는 “5년 이내에 인간과 같은 수준의 AGI가 등장할 것”이라고 예측했다. 데미스 하사비스 구글 딥마인드 공동 창업자는 올해 초 AGI가 2030년까지 달성될 수 있다고 예상했다. 그는 AI가 현재 전력 공급의 제약을 받고 있다고 지적하며, 자신이 설립한 AI 스타트업 xAI가 개발한 AI 챗봇인 “그록의 다음 버전이 5월까지 훈련을 받을 예정”이라고 밝혔다. 또, 그는 고급 칩이 부족해 그록의 두 번째 버전 훈련이 방해받고 있다고 덧붙였다. 머스크는 그록 2 모델을 훈련하는 데 엔비디아 H100 GPU가 약 2만개 필요했으며, 그록 3 모델 이상에는 10만 개의 엔비디아 H100 칩이 필요할 것이라고 덧붙였다. 하지만, 지금까지는 칩 부족이 AI 개발에 큰 제약이 되었지만, 향후 1~2년 내에 전력 공급이 중요해질 것이라고 덧붙였다. ■ "인류 5년 내 달에, 7년 내 화성에 간다" 그는 자신이 이끄는 민간 우주기업 스페이스X의 달·화성 탐사 계획도 밝혔다. 머스크는 2050년까지 화성에 도시를 건설해 인류의 이주를 완수하겠다는 구상을 하고 있다. 일론 머스크는 "5년 안에 사람들을 달에 데리고 갈 것"이라며, "무인 우주선 스타십이 5년 안에 화성에 도달하고, 7년 안에 인류가 처음 화성에 착륙할 수 있을 것"이라고 밝혔다. 하지만, 이 같은 일정은 당초 2026년에 화성에 인간을 착륙시킬 수 있을 것으로 밝힌 것보다는 약 4∼5년 늦어진 셈이다. 전기 자동차에 대해 머스크는 중국 자동차 제조사들이 "세계에서 가장 경쟁력이 있으며 테슬라에 가장 어려운 경쟁적 도전을 제기하고 있다”고 강조했다. 과거 그는 중국 회사들이 무역 장벽 없이 글로벌 경쟁자들을 무너뜨릴 것이라고 경고한 바 있다. 또, 지난해 말 스웨덴에서 노조와 갈등으로 차량 판매에 어려움을 겪은 데 대해 "폭풍은 지나갔다"며 최악의 상황은 끝났고 현재는 "상당히 양호한 편"이라고 말했다.

2024.04.09 08:42이정현

'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다. 일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다. 지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. AI특이점·AGI시대 올까…"과학적으로 개념화 어려워" - 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다. - 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다. -사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까. - 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다. 관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다. - 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다. 법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다. - 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다. 다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다. - 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다. 앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다. - 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다. 기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다. - 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다. "정부, AI 안전성·윤리 세분화 기준 마련해야…개발자도 논의에 참여해야" - 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까. - 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다. 법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다. 다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다. 다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다. - 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까. - 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다. - 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다. - 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다. - 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다. 현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다. - 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다. 앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다. 현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다. - 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다. 이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다. - 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다. 현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다. 또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다. 만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다. - 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다. - 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다. 이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다. - 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다. - 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다. - 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다. - 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다. - 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다. "국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야" - 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까. - 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다. 전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다. - 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다. - 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다. 아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다. "고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야" - 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다. 다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다. - 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다. 과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다. 정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다. - 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다. - 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다. 오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다. 오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다. - 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다. - 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다. - 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다. 결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다. 사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다 네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다. - 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.

2024.03.20 13:58김미정

경계현 삼성전자 사장 "내년 초 AI 가속기 '마하1' 출시"

삼성전자가 LLM(Large Language Models, 거대언어모델)을 지원하는 첫번째 AI 반도체 '마하1(MACH-1)를 연내에 만들어서 내년 초에 AI 가속기로 출시할 계획이다. 경계현 삼성전자 DS부문(반도체) 대표이사 사장은 20일 경기 수원시 수원컨벤션센터에서 열린 정기주주총회 이후 진행된 '주주와의 대화'에서 AI 반도체 '마하1'을 처음으로 언급했다. 경 사장은 "AI 반도체 마하1은 FPGA를 통해서 기술 검증을 완료했고, 현재 시스템칩(SoC) 디자인을 진행 중에 있다"라며 "올해 연말 정도면 마하1 칩을 만들어서 내년 초에 저희 칩으로 구성된 시스템(AI 가속기)을 보실 수 있을 것이다"고 말했다. 범용인공지능(AGI)은 인간 지능에 가깝거나 이를 능가하는 수준의 스스로 학습하는 기술이다. 최근 삼성전자는 범용인공지능(AGI) 반도체를 개발하기 위해 미국과 한국에 AGI 컴퓨팅랩을 설립했다. AGI 컴퓨팅랩은 마하1 칩 개발을 담당하며, 구글 텐서처리장치(TPU) 개발자 출신 우동혁 박사가 AGI 컴퓨팅랩을 이끈다. 경 사장은 "현존하는 AI 시스템은 메모리 병목으로 인해 성능 저하와 전력 문제를 안고 있다"라며 "AGI 컴퓨팅랩은 이 문제를 해결하기 위해 AI 아키텍처의 근본적인 혁신을 추진하고 있다"고 말했다. 이어서 그는 "마하1은 여러 가지 알고리즘을 써서 메모리와 GPU 사이에 데이터 병목현상을 8분의 1 정도로 줄이고 전력 효율을 8배 높이는 것을 목표로 현재 개발 중"라며 "고대역폭메모리(HBM) 대신에 저전력(Low Power) D램을 써서도 LLM의 추론이 가능하도록 준비를 하고 있다"고 설명했다. 즉, 통상적으로 HBM을 붙여서 사용하는 AI 가속기와 달리 삼성전자는 LP D램으로 대체하겠다는 얘기다. 앞서 경 사장은 하루전(19일) 자신의 SNS(사회관계망서비스) 링크드인에서도 AGI 반도체 개발을 언급한 바 있다. 그는 "AGI 컴퓨팅랩은 추론과 서비스 애플리케이션에 초점을 두고 LLM용 칩을 개발하는 데 중점을 둘 것"이라며 "앞으로 더 강력한 성능과 점점 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획"이라고 밝혔다.

2024.03.20 12:33이나리

젠슨 황 CEO "삼성전자 HBM 테스트 중...기대 크다"

젠슨 황 엔비디아 최고경영자(CEO)가 삼성전자의 고대역폭 메모리(HBM)을 현재 테스트 중이며 기대가 크다고 말했다. 또 최근 관심이 쏠리고 있는 일반인공지능(AGI) 구현 시기에 대해선 "정의하기에 따라 다르다"고 밝혔다. 젠슨 황은 19일(현지시간) 미국 캘리포니아주 새너제이에서 열린 'GTC2024' 미디어 간담회에서 이같이 말했다. 이날 간담회에서 젠슨 황은 "AGI를 규정하는 명확한 개념은 없다"며 "AGI를 예측하는 시기는 사람마다 다를 수 있다"고 설명했다. 젠슨 황은 AGI 개념을 'AI가 사람보다 특정 테스트에서 8% 이상 우수한 상태'로 정의했다. 관련 테스트는 수학을 비롯한 읽기, 논리, 의학 시험, 변호사 시험이다. 그는 "현재 AI의 테스트 능력을 봤을 때, AGI는 이를 곧 따라잡을 것"이라며 "해당 조건에서 AGI는 5년 내 올 것 같다"고 예측했다. 젠슨 황은 생성형 AI의 환각 현상에 대해 "충분한 연구를 통해 해결할 수 있는 문제"라고 말했다. 그는 "생성형 AI에 규칙을 꾸준히 추가해야 한다"며 "AI는 모든 답을 하기 전에 이에 대한 근거까지 찾아야 한다"고 했다. 그는 "AI는 단순히 답변만 하는 것이 아니라 어떤 답이 가장 좋은지 판단해야 한다"며 "이를 위한 조사를 스스로 할 수 있는 검색증강생성(RAG) 능력이 뛰어나야 한다"고 강조했다. 황 CEO는 생성형 AI의 답변에 '당신의 질문에 대한 답을 찾지 못했습니다' 또는 '이 질문에 대한 정답이 무엇인지에 대한 합의에 도달할 수 없습니다' '아직 34대 대통령이 나오지 않았기 때문에 인물을 말할 수 없습니다'와 같은 옵션도 반드시 있어야 한다는 점도 덧붙였다. 이 외에도 젠슨 황 CEO는 삼성전자의 고대역폭 메모리 등을 사용하고 있진 않지만 현재 테스트 중"이라며 "기대가 크다"고 답했다. 이번 행사에서 엔비디아는 차세대 AI 그래픽처리장치(GPU) 블랙웰을 비롯한 옴니버스, 엔비디아 인퍼런스 마이크로서비스(NIM) 등 최신 기술을 소개했다.

2024.03.20 09:06김미정

삼성전자 경계현 "AGI 컴퓨팅랩 신설, LLM용 칩 개발에 주력"

경계현 삼성전자 DS부문(반도체) 대표이사 사장이 올해 신설한 'AGI 컴퓨팅 랩' 조직에서 LLM(Large Language Models)용 칩을 개발하고, 새로운 버전을 지속해서 출시할 계획을 밝혔다. 경 사장은 19일 SNS(사회관계망서비스) 링크드인에서 "AGI의 길을 열기 위해 미국과 한국에서 삼성 반도체 'AGI 컴퓨팅랩'의 설립을 발표하게 돼 기쁘다"며 "특별히 설계된 완전히 새로운 유형의 반도체를 만들기 위해 노력하고 있다"고 전했다. 범용인공지능(AGI)은 인간 지능에 가깝거나 이를 능가하는 수준의 스스로 학습하는 기술이다. 최근 삼성전자는 AGI 전용 반도체를 만들기 위해 AGI 컴퓨팅랩을 설립했으며, 구글 텐서처리장치(TPU) 개발자 출신 우동혁 박사가 AGI 컴퓨팅랩을 이끈다. 그는 구글에서 TPU 플랫폼을 설계했던 3명 중 한 명이다. 경 사장은 "우선 AGI 컴퓨팅랩은 추론과 서비스 애플리케이션에 초점을 두고 LLM(거대언어모델)용 칩을 개발하는 데 중점을 둘 것"이라며 "LLM을 실행하는 데 필요한 전력을 극적으로 줄일 수 있는 칩을 개발하기 위해, 메모리 설계, 경량 모델 최적화, 고속 상호 연결, 고급 패키징 등 칩 아키텍처의 모든 측면을 재검토하고 있다"고 말했다. 이어서 그는 "우리는 더 강력한 성능과 점점 더 큰 모델을 소수의 전력과 비용으로 지원하는 AGI 칩의 새로운 버전을 지속적으로 출시할 계획"이라며 "AGI 컴퓨팅랩 설립을 통해 AGI에 내재된 복잡한 시스템 수준의 문제를 해결하는 동시에 미래 세대의 고급 인공지능(AI)·머신러닝(ML) 모델에 저렴하고 지속 가능한 방법에 기여하겠다"고 강조했다.

2024.03.19 14:09이나리

머스크에 소송당한 오픈AI, 반박 성명 내놔

일론 머스크 테슬라 최고경영자(CEO)가 "전 인류 이익을 위해 인공지능(AI) 기술을 만든다"는 사명을 어겼다고 오픈AI를 고소한 가운데, 오픈AI가 머스크와 나눈 이메일을 증거로 반격을 시작했다. 5일(현지시간) 오픈AI는 공식 블로그를 통해 머스크 주장에 반박한다는 성명을 공개했다. 해당 글에 일론 머스크 CEO와 오픈AI 임원들이 나눈 메시지도 첨부됐다. 성명에는 샘 알트먼 오픈AI CEO를 비롯한 일리야 수츠케버, 보이치키 자렘바, 존 슐만 등이 포함됐다. 지난달 29일 일론 머스크 CEO는 오픈AI가 회사 설립 목적인 비영리성을 위반했다며 오픈AI와 샘 알트먼 CEO 상대로 미국 샌프란시스코 고등법원을 통해 소송했다. 머스크는 오픈AI가 영리적 사업을 멈추고 AI 기술을 오픈소스로 공개해야 한다고 했다. 법원에 제출된 소장 내용에 따르면 머스크는 오픈AI는 사명과 달리 폐쇄적이고 최대 투자자인 마이크로소프트의 자회사가 됐다고 주장했다. 이에 오픈AI는 "이는 사실이 아니다"며 정면 반박했다. 오픈AI 측은 일론 머스크가 오픈AI를 퇴사한 계기부터 설명했다. 성명 내용에 따르면, 일론 머스크는 오픈AI의 일반인공지능(AGI) 개발 성공 가능성을 0으로 보고 퇴사했다. 대신 테슬라에서 AGI를 이룰 계획이었던 셈이다. 오픈AI는 기업 비영리성에 대해서도 설명했다. 영리 목적을 강조한 건 오히려 일론 머스크라는 주장이다. 오픈AI 측은 "기업에 대규모 투자를 유치하고 영리목적으로 운영해야한다고 주장한 첫번째 사람은 일론 머스크"라며 "창업 초기에 무리한 금액의 자금이 필요하다고 늘 임원진을 압박했다"고 설명했다. 오픈AI가 공개한 이메일에 따르면, 오픈AI는 설립 초기에 1억 달러 모금 계획을 세웠다. 그러나 머스크는 이보다 더 큰 10억 달러 자금을 모으자고 요구했다. 구글이나 페이스북 등 경쟁자들을 이기기 위해서다. 당시 머스크가 4천500만 달러 이하를 냈고, 나머지 9천만 달러 이상을 기부자들로부터 받았다. 일론 머스크 CEO가 오픈AI와 테슬라를 합쳐야 한다는 요구도 했다. 성명에 따르면, 머스크 CEO는 2018년 2월, "오픈AI는 테슬라를 주요 수입원으로 삼아야 한다"고 제안하는 이메일을 보낸 바 있다. 오픈AI는 "그동안 깊이 존경하고 영감을 준 인물이 우리에게 실패할 것이라 말하고 경쟁업체를 설립하고 우리를 고소하기까지 한 것에 대해 유감이다"고 했다.

2024.03.06 18:56김미정

젠슨 황 엔비디아 CEO "AI, 5년 내 인간 자격증 시험 다 통과"

인공지능(AI)이 5년 내 사람이 만든 모든 자격증 시험을 통과할 수 있다는 의견이 나왔다. 로이터 통신은 젠슨 황 엔비디아 최고경영자(CEO)가 최근 미국 스탠퍼드대에서 열린 포럼에서 이같이 주장했다고 4일 보도했다. 5년 내 사람 수준의 의식을 가진 일반인공지능(AGI)이 나타날 것이고, 이 AGI는 사람이 만든 모든 테스트와 자격증 시험을 통과할 수 있는 능력을 지닐 것이라는 의미다. 지금까지 챗GPT 등 AI는 미국 변호사 시험이나 대학수학능력 시험에서는 평균 커트라인을 넘는 점수를 획득한 바 있다. 그러나 소화기내과 같은 전문 의학 시험에서는 번번이 낙제점을 받았다. 황 CEO 설명에 따르면 AI는 5년 내 이런 의학 시험도 무사히 통과할 전망이다. 그동안 미국 빅테크 CEO들은 AGI 출현에 대한 전망과 정의에 대한 다양한 의견을 내놓고 있다. 샘 알트먼 오픈AI CEO는 AGI를 "직장에서 인간과 동료로 일할 수 있는 수준을 가진 기술"로 정의했다. 오픈AI 내 연구원들은 '인간 수준보다 높은 자율 체계'로 AGI를 정의했다. 데미스 허사비스 구글 딥마인드 CEO는 AGI 출현 시점을 이르면 2030년으로 예측했다.

2024.03.04 10:06김미정

데미스 하사비스 "사람같은 AI, 10년 이내에 나온다"

데미스 하사비스 구글 딥마인드 최고경영자(CEO)가 사람처럼 학습하고 생각하는 인공일반지능(AGI)이 10년 이내에 개발 될 것이라고 예측했다. 26일(현지시간) 데미스 하사비스 CEO는 스페인 바로셀로나에서 '모바일 월드 콩그레스(MWC) 2024' 기조연설에서 컴퓨팅, 기술 및 데이터가 발전되는 만큼 점진적으로 인공지능(AI)이 AGI로 발전하는 과정을 거칠 것이라고 말했다. 그는 먼저 AGI를 인간이 할 수 있는 거의 모든 인지 작업을 수행할 수 있는 시스템으로 정의했다. 사람을 기준으로 정의한 것은 현재 유일하게 비교가능한 일반지능이기 때문이다. 또한 기술에 대한 명확한 정의가 마련돼야 기술의 방향을 정하고 이에 도달했는지 검증가능하다고 설명했다. 이어서 현재 축적된 기술을 기반으로 새로운 AI 도구가 개발되고, 이를 활용해 AI의 능력을 향상시키는 혁신의 반복을 통해 AI기술이 지금보다 더욱 가파르게 발전할 가능성이 크다고 설명했다. 데미스 하사비스 CEO는 "이미 지난 몇년간 AI는 급격한 발전을 이뤘으며 새로운 혁신을 통해 앞으로 몇년간 더욱 발전할 것"이라며 "또한 이러한 AI의 발전은 많은 분야에서 유용하다는 것이 입증되고 있다"고 말했다. 그는 AI 발전을 유용성을 알파 폴드를 통해 확인했다고 밝혔다. 알파폴드는 단백질의 입체 구조를 예측하는 AI모델이다. 매우 복잡한 단백질 구조로 인해 10억 년이 걸릴 것이란 예측되던 작업을 던백질 알파폴드는 이를 1년만에 해결했다. 현재 알파폴드는 신약 설계 분야에 활용되고 있으며 수년 내에 AI가 설계한 약물이 상용화될 예정이다. 데미스 하사비스는 "이제는 AI 덕분에 하나의 약물을 발견하는 데 10년 이상 소요되던 시간을 몇달로 줄일 수 있는 가능성이 생겼다"며 "이를 통해 끔찍한 질병에서 많은 사람들이 벗어날 수 있기를 바란다"고 말했다. 더불어 데미스 하사비스는 AGI가 실현되기 위해 극복해야할 기술 장벽을 설명했다. 먼저 AI는 일반적인 기술과 달리 성능이 발전할수록 인프라나 하드웨어의 성능과 규모의 요구량이 기하급수적으로 증가한다. 이를 극복하기 위해 데미스 하사비스는 지난 10년간 끊임 없이 최대규모로 확장을 이어왔다고 밝혔다. 그는 "우리를 비롯해 많은 사람들이 새로운 기능과 혁신이 발명이나 발견을 통한 것이 일종 확장과 규모의 성장을 통한 것이라는 것을 예측하지 못했을 것"이라며 "일반적으로 단계 변화를 이루려면 새로운 통찰력이나 새로운 영감, 새로운 돌파구가 있어야 하지만 여기는 더 큰 규모가 성장과 변화를 이끌고 있어 이는 역사적으로도 찾아보기 힘든 유례적인 사례"라고 설명했다. 또한 극복하기 위해 필수적인 분야 중 하나로 실온 초전도체를 꼽았다. LLM 이상의 대규모 데이터를 실시간으로 학습하고 처리하기 위해선 현재 인프라로는 발열이나 전력을 감당하기 어려울 것이란 분석이다. 한편, 데미스 하사비스는 향후 몇 주 내에 제미나이의 이미지 생성 기능을 재개할 것이라고도 언급했다. 제미나이의 이미지 생성 기능에 문제가 있었다는 점을 인정하면서, 조만간 관련 기능을 다시 복구하겠다는 의지도 보였다. 그는 "(이미지 생성 기능이) 우리가 의도한 대로 작동하지 않았으며 이와 같은 문제가 있었다"면서 "가령 16세기 영국의 중세 왕 같은 역사적 묘사를 할 경우에는 응답 범위가 좁아야 하며, 역사적 정확성도 고려해야 한다"고 말했다. 이달 초 구글은 제미나이를 통해 이미지 생성 기능 서비스를 선보였다. 하지만 역사적 인물을 실제와 다르게 표현하는 등 오류가 발생해 비판을 받았다. 이에 구글 측은 오류을 인정하고 수정할 것임을 밝히며 해당 기능을 임시 중단했다.

2024.02.27 13:28남혁우

中 '3세 지능' AI 소녀 화제…"데이터 없이 추론"

중국에서 사람처럼 추론하는 인공지능(AI) 소녀가 공개됐다. 31일 중국 언론 커지르바오에 따르면 베이징일반AI연구원(BIGAI)이 3세 수준의 지능을 보유한 인공지능 소녀 '퉁퉁(通通, Little Girl)'을 개발해 첫 시연했다. 연구원에 따르면 이 소녀는 '범용 지능체'로 설계되고 있다. 가치와 원인 및 결과로 구동되는 인공일반지능(AGI) 시스템 시제품이다. AGI는 인간처럼 추론하면서 특정 조건이 아닌 다양한 상황에서 적용될 수 있는 AI를 의미하며 강인공지능(Strong AI)로 분류된다. 이 연구원의 주쑹춘 연구원장에 따르면 퉁퉁은 AI 초거대 모델과 달리 데이터에 의해 구동되지 않는다. 베이징일반AI연구원이 공개한 시연 내용의 일부에 따르면 퉁퉁은 '호기심', '가지런히 정리됨', '깨끗함' 등 가치 경향을 랜덤하게 변화시키면서 환경 탐색, 방 정리, 얼룩 제거 등 임무를 스스로 하게했다. 인간과 같은 가치를 갖고 독립적으로 작업을 생성하고 물리적 및 사회적 상식을 가진다. 특히 복잡한 작업을 효율적으로 실행할 수 있으며 추론 및 의사 결정 프로세스가 투명하고 설명 가능하다. 조작자가 벽에 걸린 액자를 움직이면, 퉁퉁은 '가지런히 정리되는 것을 좋아함'이라는 자신의 가치관에 따라 액자의 위치를 적극적으로 조정한다. 높은 곳에 높은 액자의 경우 사람의 지시를 받을 필요도 없이 방 안의 스툴을 스스로 찾아 스툴을 밟고 액자 위치를 조정한다. 테이블에 우유가 쏟기면 퉁퉁은 '깨끗함을 좋아함' 가치를 바탕으로 적극적으로 수건을 찾아 테이블을 닦을 수 있다. 퉁퉁은 연구원이 자체 개발한 중국 학습 및 추론 프레임워크(일반 AI 운영체제 TongOS2.0과 프로그래밍 언어 TongPL2.0)를 기반으로 지원된다. 향후 교육, 헬스케어, 지능형 제조 등과 통합될 예정이다. 관계자들은 퉁퉁이 인간 아이들처럼 계속해서 배우고 성장할 수 있으며 결국에는 진정한 '보편성'을 얻게 될 것이라고 전했다.

2024.02.01 07:31유효정

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

2나노에 묶인 삼성 '엑시노스' 로드맵…최적화가 성패 가른다

서로 닮아가는 채용 플랫폼…데이팅·사주로 차별화 꾀하기도

작고 강하게…한국형 '로봇 손' 주도권 놓고 각축전

"따로 또 같이"...글로벌 서비스 ‘라인’은 현지화+기술통합 어떻게 하나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.