"AI는 이제 시작···'오픈AI' 나오려면 장기 투자 필수"
인공지능(AI)이 세상을 삼키고 있다. 지난해 11월 나온 챗GPT 이후 이런 움직임은 가속화하고 있고, 하루가 다르게 신기술이 쏟아져 나오고 있다. 국내 기업도 생성 AI 기술을 산업에 본격 적용하기 시작했다. 현재 각국은 AI기술 패권을 쥐기 위해 쟁탈전을 치르고 있고 정부도 최근 초거대 AI 경쟁력 방안을 발표, 세계 시장 리딩에 나섰다. 국내 기업 역시 생성 AI 개발에 박차를 가하고 있고, 학계도 언어모델과 멀티모달 개발 등에 힘쓰고 있다. 지디넷코리아는 창간 23주년을 맞아 'AI강국 코리아'의 현실을 짚어보고 나아가야 할 방향을 모색하는 전문가 좌담회를 개최했다. 간담회에선 최근 일어난 생성 AI 개발 중단 사태와 설명가능한 AI와 할루시네이션 문제 등에 대해 의견을 나눴다. 또 국내 초거대AI 모델에 대한 경쟁력은 어느 정도인지 진단하고, 개선해야 할 점은 무엇인지도 공유했다. 장병탁 서울대 교수(AI대학원장), 최재식 KAIST 김재철AI대학원 교수(인이지 대표), 이경일 솔트룩스 대표, 김동환 포티투마루 대표, 이화영 LG AI연구원 상무, 배순민 KT AI2XL 연구소장(상무). -사회: 방은주 지디넷코리아 부장-정리: 김미정 기자 = 방은주 부장(이하 사회): 최근 미국서 AI 기술 개발을 6개월 이상 잠시 중단하자는 공개 서한이 나왔고, 일론 머스크 테슬라 최고경영자(CEO) 등 유명 인사들이 서명했다. 이를 어떻게 보나. AI개발을 잠시 멈춰야 하나. ▲이경일 대표: 비현실적인 제안이라고 본다. 현재 AI에 대한 기대가 크고 발전 속도도 빨라지고 있다. 앞으로 AI 개발이 어떤 방향으로 흘러갈지 예측하기 어렵다. 그래서 멈추자는 제안이 나온 것이다. AI 개발이 과대 포장됐다는 의견도 있다. 이렇게 빠른 AI 발전 속도는 모두 처음 겪는 일이라서다. 그러나 6개월이나 3년 동안 개발을 지속한다고 해서 바로 인간이 컨트롤할 수 없을 정도는 아닐 것이다. 발전을 멈출 정도로 AI에 대해 걱정할 필요는 없다는 의미다. 30년간 자연어 처리 및 AI 연구에 몰두한 전문가로서 하는 말이다. 현재 AI 개발에 대한 사회적 긴장감과 산업적 기회가 크게 얽혀 있다. 사회적으로는 사람들 사이에서 AI 개발에 대한 불안감이 클 수 있다. 그러나 그 불안감만큼 위험한 정도는 아니다. 산업적 시각에서는 지금 상황에서 두렵다는 이유로 개발을 멈춰야 하는 건 옳지 않고, 또 그럴 수 없다고 본다. ▲이화영 상무: 챗GPT를 보면 기술 발전 속도가 매우 빠르긴 하다. AI 발전 속도가 사람 인식 변화에 비해 상대적으로 빨라서다. 그러나 이는 과도한 걱정일 수 있다. 생성 AI는 개발을 멈출 정도로 위험하지 않다. 챗GPT는 아직 환각(할루시네이션) 문제와 데이터 보안 문제 등을 해결하지 못했으며, 많은 기술적 문제가 남아 있다. 생성 AI는 아직 완성되지 않은 기술임이다. AI 개발자들은 개발을 멈추는 게 아니라 오히려 책임감 있는 AI에 더 관심을 가져야 한다고 본다. 특히 챗GPT가 답변을 생성할 때 어떤 사실에 근거했는지 제시할 수 있도록 만들어야 한다. 또 AI가 데이터셋을 통해 추론해 내놓은 답변에 대한 설명 가능성도 높여야 한다. 개발자는 챗GPT가 답할 때 어디서부터 어디까지 사실에 근거한 답변인지, 어느 부분이 스스로 추론해 내놓은 답인지 명확히 제시하도록 만들어야 한다. 이를 통해 사용자가 객관적인 답변에 대한 근거를 알 수 있고, 추론 결과까지 명확하게 이해할 수 있다. 챗GPT는 검색 분야에서 뛰어난 성능을 보인다. 그러나 아직 상용화에는 제한적이다. 생성 AI 발전을 멈추는 것보다는, 기술적 보완과 실제 사용 사례를 늘려 산업 현장에서 활용할 수 있도록 해야 할 것이다. ▲배순민 소장: 이 시점에서 AI 개발을 6개월 멈춘다는 것은 의미 없는 기간과 제안이라고 생각한다. 사실 10년 이상 AI 연구를 해온 개발자에게 이러한 변화와 속도는 갑작스럽지 않다. 연구자들은 수십년간 AI를 꾸준히 개발해왔다. 예전부터 꾸준한 노력이 있었다. 어느 순간 모든 사람들이 인지할 수 있는 수준을 넘은 것뿐이다. 오히려 꾸준한 연구 끝에 나타난 놀라운 성과로 봐야한다고 본다. AI 혁신 시대에 소프트웨어 연구개발이란 '달리는 차에서 바퀴를 교체하는 업무'일 정도로 빠른 속도로 진행된다. 개발자들도 이렇게 빠른 속도에서 바퀴를 교체해도 되는지 고민하면서 유연하게 변화를 수용하기 위해 노력한다. AI 발전 속도가 이 정도로 올라왔다는 것은 반가운 일이다. 이제 AI 연구를 넘어 다양한 산업에 적용할 때가 됐다는 신호다. 따라서 지금은 AI 개발을 멈출 때가 아니라, AI 연구개발에 더 큰 노력을 기울여야 하는 시점이다. 국가도 이에 대해 제도적인 고민을 해야 한다. 현재 우리가 겪는 변화는 과학 기술 발전에서 언제나 있어왔고, 계속 이어질 것이다. 이에 대한 논의 또한 과학 기술 발전의 관점에서 이뤄져야 한다. ▲최재식 교수: 배순민 소장 말에 동의한다. 비전문가들에게는 AI가 갑자기 빠르게 발전한 것처럼 보일 수 있지만, 전문가들은 AI 언어능력 발전을 꾸준히 확인했다. 이미지 분석은 알파고 이후로 발전했고 음성 인식과 발화 기술도 매우 자연스러워졌다. 디지털 마케팅과 디지털 미디어 생성 분야에서도 AI가 크게 활용되고 있다. AI는 아직 언어 이해를 100% 완벽하게 할 수는 없지만 문맥을 이해하고 답하는 수준까지 도달했다. 생성AI는 언어와 관련된 기술적 장벽을 해결하려는 시도다. 이를 오픈AI가 처음 허물려고 시도했다. 이 노력은 전 세계에 굉장히 드라마틱한 변화를 가져왔다. AI 기업과 학계는 다양한 분야에서 AI를 잘 활용할 것으로 예상한다. AI와 관련된 실험과 투자는 분명 의미 있다. 국가 경쟁력을 갖추기 위해서도 필요하다. 따라서 AI 기술을 발전시키고 적용해야 한다. 이를 중단하고 멈출 이유는 없다고 본다. ▲장병탁 교수: 현실성 떨어질 수 있는 제안이지만, 하나의 중요한 경고로 작용할 수는 있다. 특히 일반 사람들에게 그렇다. AI 전문가들은 이미 오랫동안 AI를 개발해온 입장에서 현재 발전 속도를 놀랍게 생각하지 않는다. 일반인들에게는 AI 발전이 엄청 빠르게 진행되는 것처럼 보일 수 있다. 따라서 일반 사람들에게 AI에 대한 경각심을 심어줄 수 있는 경고 정도로만 보면 좋을 것 같다. ▲김동환 대표: 이 발언은 현실성이 떨어진다고 볼 수 있다. 해당 제안은 AI에 대한 윤리적인 부분에 대해 더 많은 투자와 관심이 필요하다는 점도 시사하고 있다. 이 정도로만 인식하면 될 것 같다. 기술 발전은 계속 진행돼야 하며, 윤리적인 문제나 사회적 합의도 함께 이루어져야 한다고 본다. =사회: 챗GPT도 그렇지만 AI는 그럴듯한 거짓말을 만들어내는 할루시네이션과 왜 그 답을 도출했는지 설명을 못하는 문제를 안고 있다. 이를 100% 해결할 수 있을까. ▲배순민 소장: 할루시네이션은 인간이 만들어내는 가짜 뉴스와 비슷하다고 볼 수 있다. 최근 AI 컨텐츠가 점점 늘어나고 있어, 사실로 받아들여지다가 어느 순간 모순을 발견하게 되는 경우가 종종 있다. 챗GPT 언어 능력이 놀랍도록 향상된 것은 매우 인상적이지만, 이로 인해 팩트체크하기가 더 어려워졌다. 그래서 KT는 설명가능한AI를 통해 사실성 확인을 강화하려 노력 중이다. 사용자가 참조를 통해 답변 근거가 어디부터 어디까지인지 확인할 수 있게 서비스를 제공할 방침이다. 현재 AI는 자신이 갖고 있는 데이터가 사실인지 아닌지를 100% 구분하지 못한다. 설명가능한AI를 100% 실현할 수 없는 이유기도 하다. 그치만 설명가능한AI 통해 완벽히는 아니더라도 부분적으로 진위 여부와 근거 정도는 제공할 수 있을 것으로 본다. ▲장병탁 교수: 이론적으로 볼확정성의 원리처럼 완전한 할루시네이션 제거나 설명가능한AI 100% 작동은 불가능하다. 할루시네이션을 완전히 없애면 인터넷 검색 결과와 같아진다. 똑똑하지 않은 것이다. 하나를 얻으면 하나를 잃는 일종의 트레이드 오프(상쇄) 관계가 발생한다. 설명가능한AI 기능도 100% 갖추면 예측력이 떨어질 수밖에 없다. 할루시네이션은 인간 사고의 본질적인 특징이다. 예를 들어, 100페이지에 달하는 글을 5줄로 요약할 경우, 사람은 문장을 만들어 추상화해 요약한다. 이 과정에서 인간 할루시네이션 가능성은 높아진다. 요약 과정에서 추상화가 지나치면 거짓이 될 수 있다. 인간은 이 과정에서 할루시네이션을 스스로 조절할 수 있다. 설명가능성도 비슷하다. 이전의 지식 기반 시스템 경우, 설명가능한AI 방식에 기반해 AI를 만든 것이다. 그러나 당시 예측력이 떨어져 산업적 성공을 거두지 못했다. 반면 딥러닝의 경우 예측을 잘 하지만 설명가능성을 못한다. 이를 적절히 조절하는 기능이 필요하다. ▲최재식 교수: 지금으로선 챗GPT가 직접 생각해서 새로운 것을 만들어낸다는 근거를 찾을 수 없다고 본다. 과연 챗GPT가 새로운 콘텐츠를 만들었을까? 정말 새롭게 재구조화해서 답변을 낸 것이 맞을까? 답변했을 때 여기저기 짜깁기를 해서 레퍼런스를 찾을 수 없는 건 아닐까? 라는 궁금증만 생긴다. 향후 할루시네이션이 아닌 것을 골라낼 수 있는 기술이 AI 상용화에 중요한 영향을 미칠 것 같다. 사실 할루시네이션 기술 자체보다는 사람들의 검토, 검열을 통해 골라내는 것이 할루시네이션 여부를 더 잘 가를 수 있다고 본다. 설명 가능성도 마찬가지다. 현재 사람들은 합성곱신경망(CNN)이나 딥러닝 기술을 하나씩 살펴보면서 어떻게 작동하는지, 왜 이런 결과를 냈는지에 대한 과정을 볼 수는 있다. 이정도로 기술이 발전했다. 그런데 트랜스포머 기술 자체는 워낙 복잡하고 지속적으로 변화해서 지금은 살펴보기 어렵다. 트랜스포머 기술을 하나하나 뜯어서 작동을 살펴볼 수 있는 기술은 어디에도 없다. 챗GPT를 만든 오픈AI조차도 모른다고 했다. 그러나 기술은 발전한다. 몇 년 안에 챗GPT에서도 어떤 노드가 언제 할루시네이션을 하는지, 어떤 단어에서 할루시네이션 발생 확률이 높은지 등을 측정할 수 있는 기술이 나올 수 있다. 아직은 아니다. 결국 AI가 할루시네이션을 했든 안 했든, 답변에 대한 레퍼런스를 요구하는 요청이 지속될 것이다. 틀린 레퍼런스를 주거나, 아예 줄 수 없기 때문에 실제 생성 AI를 돈 되는 산업에 마음 놓고 활용할 수 없어서다. 앞으로 레퍼런스 제공뿐 아니라 팩트를 정확히 찾으려는 기술이 중요할 것 같다. 또 한가지 생각해볼 점이 있다. 지금 학습모델 자체가 레퍼런스를 제공할 수 있을 정도로 충분한 정보를 갖고 있는지도 궁금하다. 학습모델이 충분한 정보를 담고 있지 않아서 레퍼런스를 못주는 것일 수도 있다. 이런 점까지 세세히 고려해야 한다. ▲이경일 대표: 할루시네이션이 0%에 수렴하지 않아도 이 AI에 대한 경제적 이익이 커지면, 사람들은 불편함을 수용할 것이다. 할루시네이션이 사회적 합의가 가능한 수준으로 줄어들면, 사람들은 충분히 학습하지 못한 상태에서도 AI와의 대화를 통해 아이디어를 얻을 수 있다. 응용 분야에서 기계와 협력하는 데 문제가 없다고 본다. 오히려 협력을 통해 이점을 얻을 수 있다고 볼 수 있다. AI 개발사 목표가 할루시네이션 0%에 도달하는 것일지에 대해서도 의문이다. 만약 가능하다 해도 그 수준까지 올라가는게 투자 수익률(ROI)이 적절하지 않다고 생각한다. 할루시네이션이 적정 수준에만 도달해도, 이 문제는 더 이상 중요하지 않을 수도 있다. ▲김동환 대표: 지금의 챗GPT는 어린아이가 기어다니다 일어선 것에 불과하다. 그러나 사람들은 이 어린이가 올림픽에서 금메달을 곧 따낼 것처럼 생각하고 있다. AI는 현재 초기 단계에 있으며, 챗GPT와 같은 모델은 완벽한 정확도와 커버리지를 달성할 수 없다. 현재 AI 언어 모델은 답변이 정확할 때도 있지만, 답을 찾지 못하는 경우도 있다. 대부분 접근 방식은 커버리지에 중점을 두고 있다. 하지만 앞으로 두 가지를 모두 커버할 수 있는 모델이 등장할 수 있다고 본다. 그때는 전혀 다른 양상으로 발전할 것이다. 현재 AI 개발자들이 지금 기술을 어떻게 활용하는지에 달렸다고 본다. 현재 기업이 챗GPT에 의사 결정을 맡기는 건 문제가 있다고 본다. 그러나 사람들은 이를 응용해 유용하게 사용할 수 있다고 믿는다. 현재 모델은 새로운 아이디어 제시와 작업 방향을 잡는 데 도움 준다. 장기적인 관점에서 생각해보아야 한다. ▲장병탁 교수: AI가 조금 더 발전한다면 할루시네이션이 어느정도 필요하다. 예를 들어 회의하는 상황에서는 정확도가 중요하지만, 맥주 한잔 하면서 대화나눌 때는 할루시네이션을 조금 높일 수 있다. 사람이 AI보다 똑똑한 이유는 이 조절을 마음대로 할 수 있다는 점이다. 사람은 상황에 따라 똑같은 질문을 다르게 이야기할 수 있지만, AI는 이를 조절할 수 있는 능력을 못 갖췄다. 할루시네이션 정도를 한 음으로 맞춰놓고 어느 상황에서든 동일하게 반응해서다. 향후 한 단계 더 발전한 AI 기술은 할루시네이션을 상황에 따라 조절할 수 있는 능력 탑재다. =사회: 국내 초거대AI 경쟁력은 어느 수준으로 보나. 경쟁력 강화를 위해 필요한 것이 있다면. ▲배순민 소장: 국내 대기업들은 초거대AI 모델을 갖고 있다. KT도 사업화를 위해 다른 기업 모델과 비교, 연구하고 있다. 특히 오픈AI의 챗GPT에 주목하고 있다. 챗GPT플러스 등에 대한 아웃풋을 갖고 회의하고 있다. 기업 입장에서는 기술은 이제 충분한데, 고객이 이를 안심하고 사용할 수 있도록 하는 '안전장치'가 필요하다고 본다. 그래서 기업은 현재 제품 내에 어느정도 모델을 활용할 수 있는지에 대한 허용 가능 범위에 대해 생각하며 사업과 서비스를 하는 단계를 거치고 있다. KT는 올해 많은 기업과 논의 중이다. 아마 국내 대부분 기업에 LLM을 보급하는 건 내년 정도 이뤄질 수 있는 수준이다. 한국어로 서비스하는 모델 경쟁력 또한 이제 서비스할 수 있는 수준이라고 보면 된다. 그런데 여기서 문제는 투자대비효과(ROI)다. 즉 어떤 기업이 언어 모델에 투자했을 때, 비용대비 효과가 어느정도인지에 대한 게 관건이라도 본다. 이건 기업마다 생각하는정도가 다를 수 있다. 결국 비용을 낮추려면 국내에선 인프라 하드웨어에 대한 비용이 낮아져야 한다. 현재 GPU는 돈을 줘도 사는데 오래걸린다. 또 대기업 투자비가 엔비디아등으로 가는 추세다. 그 비용을 어떡하면 국내 과학기술 발전 선순환에 활용할 수 있을지 고민해야 한다. 그 비용이 우리나라에서 자체적으로 생겨야할 것 같아서다. 따라서 국가적으론 인프라, 하드웨어 지원을 내부적으로하는 것이 중요할 것 같다. ▲이화영 상무: 초거대AI를 기업이 도입하려면 여러 허들이 있다. 우선 할루시네이션이다. 특히 제조나 산업 현장에서는 할루시네이션이 높으면 안 된다. 레퍼런스도 정확히 있어야 한다. 또 산업마다 커스터마이제이션이 필요하다. 챗GPT는 하나의 거대 모델이라 맞춤형이 어렵다. 할 수 있다고들 하지만 기업에 맞춤형으로 도입하려면 보안 문제가 발목을 잡는다. 이 문제를 해결하기 위해 LG AI연구원은 기술개발에 주력해 다양한 상용화 사례를 만들어 냈다. 기업 내에서 AI나 ML으로 DX를 하겠다고들 하지만, 실제로 기업 내 직원들이 이에 대해 잘 모른다. 직원들이 AI나 ML에 대한 지식을 묻거나 산업현장에 어떻게 도입할 수 있는지 물어볼 수 있는 챗GPT 형식의 챗봇을 만들어 배포할 수 있다. LG AI는 자체 개발한 멀티모달 모델 '엑사원'을 통해 이를 실행하고 있다. '엑사원'은 화학이나 에너지솔루션 분야에서도 활용할 수 있다. 새로운 물질을 관리하거나 바이오 화학에 적용한다. 이 분야 연구자들은 새로운 물질을 발견했을 때 굉장한 어려움이 따른다. 관련 새 논문을 일일이 다 읽어봐야 하고, 물질이 합성 가능한지 여부를 확인하고, 합성했을 때 어떤 결과나오는지, 예측 모델이 어떤지에 대한 것도 알아야 한다. 이를 '엑사원'을 통해 자동화할 수 있다. LG AI연구원이 이 기술을 해외에 소개하니까 화학과 바이오 화학 분야에서 환영했다. LG전자도 '엑사원'을 통해 소프트웨어를 개발하고 마케팅, 광고 콘텐츠 만들 때도 활용한다. 이런 여러 유스케이스를 만들다보니까 기술적으로 보완해야 할 점이 보였다. 기술적으로는 할루시네이션을 낮추고, 커스터마이제이션 해주고, 데이터 보안을 만족시켜주는 것을 기술적으로 반드시 해결하는 것이 필요하다고 본다. 모델 경량화도 필요하다. 지금 메타는 AI 모델 '라마'를 경량화하고 있다고 알고 있다. 우리도 큰 모델 하나를 만들어서 경량화시켜서 실제 추론 비용을 낮춰 서비스할 수 있는 기술 연구를 산업과 학계가 힘을 합쳐 해야 한다고 본다. 국가적으로도 이를 장려해야 한다. ▲이경일 대표: 정부와 산업계는 국민이 AI 비즈니스를 풍부하게 경험할 수 있도록 하는 노력을 해야 한다고 본다. 한국은 새 모델이 만들어졌을 때 규제부터 하는 경우가 있다. 낯설기도 하고 두려워서이기도 하다. 리스크가 큰 것으로 보여지는 것들은 무조건 승인을 받아야 사업화할 수 있다. 최근 많은 산업이 챗GPT를 연동해 서비스를 내놓고 있다. 일각에선 "오히려 미국에 대한 오픈AI 종속도만 올라가는 거 아니냐. 정부가 막아야 한다"고 생각할 수 있다. 다른 각도에서 생각해야 한다. 오히려 어떤 비즈니스 모델이 수용가능한 지를 직접 실험할 수 있는 굉장히 좋은 환경이라고 생각한다. 이를 정부가 적극 지원하는 게 바람직하다고 본다. 국민이 직접 체험해서 새 비즈니스 모델을 발굴할 수 있도록 도와야 한다. 한국 강점은 신속히 움직여서 빨리 극복할 수 있다는 점이다. 그럼 경험이 필요하다. 대한민국이 수출형 국가로 세계 10위 정도 경제 규모를 갖고 있는 건 자동차, 반도체, 석유화학 등에 선택과 집중을 해서다. IT분야에서도 리소스 선택과 집중이 필요하다. 정부입장에서 봤을 때는 정부 리소스를 집중해야한다. 나눠주기식 제공은 승부걸기 어렵다. ▲김동환 대표: 전체적인 국내 트렌드로 봤을 때 두 가지로 갈 것 같다. 하나는 모델 학습을 더 많이 시켜서 더 거대한 모델을 내놓는 것이고, 또 하나는 경량화 모델이다. 사실 경량화 모델은 품질이나 성능도 좋아졌다. 결국 인력이나 기술, 데이터 인프라가 잘 갖춰져야 한다. 현재 초거대 AI 시장만 가지고는 중소기업, 스타트업들이 할 수 있는 일이 별로 없다. 데이터가 있어도 인프라가 없다. 기술적인 지원이 필요하다. 정부에서 예산을 투입해도 자칫 잘못하면 대기업을 위한 정책만 나올 수 있다. 정부는 챗GPT출현을 의식해서 급한 마음에 단기적으로 정책을 만들지말고 장기적으로 가는 정책을 만들어야 한다. AI교육도 정책에 같이 나올 수 있었으면 좋겠다. ▲장병탁 교수: 지금 명확해진 건. 데이터를 어마어마하게 모아서 컴퓨팅을 학습시키면 모델 성능을 올릴 수 있다는 확신이 섰다는 것이다. 그래서 본격적으로 산업화가 되고 있는 거다. 언어 데이터가 대표적이다. 언어 모델이 선두주자로 가는 건 많은 업무에 가장 효과적인 수단이라서다. 대부분 모든 산업은 언어로 소통한다. 이미지는 언어보다 좀 늦게 출발했지만 여전히 초기 단계다. 조금 더 인간다운 AI를 생각하려면 언어뿐 아니라 이미지, 음성 등 오감을 다 갖춰야 한다. 언어만 가지고 의사소통을 할 순 없다. 오감을 다 데이터화해서 학습해 모델을 만들어야 한다. 그러나 언어를 제외한 나머지는 다 초기 단계다. 연구할 게 여전히 많다. 이를 해내면 한국이 생성 AI분야를 선도할 수 있을 것 같다. 이를 국가가 도와줘야 한다. 이런건 작은 기업이나 학교 연구실에서는 할 수 없는 실험이다. 인프라가 충분치 않아서다. ▲최재식 교수: 국내 AI 기업은 잘 하고 있다. 국제 학회에 논문도 많이 내고, 언어뿐만 아니라 비전 분야도 잘 하고 있다. 네이버 하이클로바, LG AI연구원 엑사원만 봐도 알 수 있다. 국가적으로 AI 기술을 3위-4위 차지하고 있다고 본다. 대단한 순위다. 국가 차원에서 초거대 AI에 집중하는 것도 중요하지만, 차세대 모델과 멀티모달 모델 학습에도 관심을 기울여야 한다. 설명력, 투명성, 신뢰성도 중요한 요소가 될 전망이다. 미국 기업 정신도 배워야 한다. 이번에 오픈AI 같은 작은 기업도 구글을 이길 수 있다는 사례를 보여줬다. "너네가 아무리 커도 우리가 이길 수 있다"는 정신이 있다. 현재 많은 전문가들은 오픈AI 성장성을 구글보다 높게 평가한다. 과연 우리나라에 이런 정신을 뿌리내릴 수 있을지 고민한다. 연구에 대한 보상도 중요한 요소다. 보상은 새로운 성과를 만들고 오픈AI처럼 세계 시장을 선도하는 원천이 될 수 있다. 한국 투자자들과 기업들은 오픈AI 사례를 통해 통찰력을 더 지녔으면 한다. =사회: 정부가 본격적으로 AI 정책을 추진한 지 약 1년 지났다. 지금까지 정부가 했던 AI 정책을 어느 정도로 평가하는가. 'AI 강국 코리아'를 이루기 위해 필요한 정책이 있다면 무엇인가. ▲배순민 소장: 국내 AI 정책은 시작 단계다. 실제로 많은 부분이 미해결 상태이며, 이제부터 본격적으로 시작됐다. 필요한 정책은 데이터 관련 정책이다. 정부와 개인이 가진 데이터를 AI 학습에 활용할 수 있도록 해야 한다. 이를 위해 여러 이슈를 해결하는 것이 정부 핵심 과제다. 인프라 정책을 통해 개발 비용 효율성도 올려야 한다. AI 기술 발전에는 많은 비용이 들지만, 그렇기 때문에 효율적으로 관리할 수 있는 정책이 만들어야 한다. 인력 문제도 중요하다. 현재 다행스럽게도 AI대학원에서 많은 졸업생이 나오고 있다. 그러나 교육 체계와 프로그램도 최신 버전으로 업데이트돼야 한다. 학교와 산업 간의 연결을 더 적극적으로 활성화하는 정책이 필요하다. ▲이화영 상무: 정부는 기업의 의견을 주의 깊게 듣고 실제로 정책에 반영하려는 노력을 하고 있다. 예를 들어, 책 데이터는 훌륭한 텍스트 소스지만 기업들이 사용하기 어렵다. 정부는 이 문제를 해결하기 위해 책 데이터 학습 권리를 기업에 제공하려고 노력 중이다. 이로 인해 기대감이 높아지고 있다. AI 산업이 초기 단계에 있다. 먼저 규제를 만들기 보다는 기술 도입과 사용을 적극적으로 활성화하는 게 필요하다. 이로 인한 부작용을 이해한 후 사회적 합의를 통해 규제하는 것이 더 현명한 방법일 수 있다. 한국어 데이터를 모으는데 시간이 오래 걸린다. 한국어 데이터를 모으는 것보다 양질의 영어 데이터를 한국어로 번역해서 사용하는 것이 더 효과적일 수 있다. 초거대 AI 산업에서 선택과 집중은 어렵다. 하지만 초거대 AI를 통해 빈약했던 산업에 진출해 국내 발전을 도모할 수 있다. 이를 통해 해당 산업의 기반을 다질 수 있다. 앞으로 어떤 산업에서 큰 성공이 일어날지는 예측하기 어렵다. 정부는 다양한 산업 분야에서의 AI 응용·발전을 활성화하도록 지원해야 한다. ▲이경일 대표: AI 연구·개발(R&D)에 대한 국내 정부 지원 규모는 이례적이다. 전 세계적으로도 드문 스케일이다. 기업은 이로 인해 큰 기대를 안고있다. 그러나 현실적으로 연구자와 개발자에게 도움될 수 있는 것은 데이터를 자유롭게 모으고 정제하는데 필요한 비용을 크게 낮추는 것이다. 장기적으로는 꾸준한 인재 양성이 필요하다. 출산률이 낮아 인구 풀 자체가 부족하다. 예를 들어, 2020년 태어난 인구 모두 AI 개발자가 되더라도 미국 개발자 수를 따라잡을 수 없다. 향후 AI 인재 양과 질 모두 유지하기 힘들 것이다. 이를 유지하려면 더 창의적인 방법이 필요하다. 외국 개발자를 적극 영입하는 등 개발자를 위한 이민 관련 비자 정책 개선이 필요하다. AI와 미래 산업 육성 부분에 대해 대대적인 해결책을 찾아야 한다. ▲장병탁 교수: 필요한 정책이 무엇인지에 대해 생각을 공유하기보다는, 고려해볼 만한 질문을 제시하고자 한다. 한국에 오픈AI와 같은 회사가 나올 수 있을지에 대해 고민해야 한다. 그리고 이를 위해 필요한 게 무엇인지 생각해 봐야 한다. 다양한 변화가 필요할 거다. 만약 국내에 이런 회사가 성장할 수 있는 문화, 제도, 환경이 만들어지면 AI 분야 뿐만 아니라 다양한 산업에서 선도적 역할을 할 수 있다고 본다. ▲김동환 대표: 정부와 산하기관은 그동안 국내 AI 기업을 지원하기 위해 많은 노력을 해왔다. 앞으로도 꾸준한 지원과 투자가 필요하다. 사실 한국은 미국과 비교했을 때 초거대 AI 기술 시장을 선도할 기회를 놓쳤다고 본다. 한국 정부는 다음 단계에 대한 고민이 필요하다. 한국 AI 기업이 글로벌 경쟁력을 갖추려면, 정부, 기관, 민간기업, 학계 등이 '원팀'을 구성해 전략 세울 필요가 있다. 현실화 가능성이 낮은 제안일 수 있다. 그만큼 AI가 일상 생활에 큰 영향을 미치기 때문에 이런 고민까지 해야 한다고 본다. ▲최재식 교수: 정부가 AI 인력 양성과 기업 투자에 노력을 기울이고 있지만, 개선이 필요한 부분이 있다. 우선 정부는 적극적으로 외국 AI 전문가들이 쉽게 참여할 수 있도록 정책을 개선해야 한다. 앞으로 AI 개발 인력은 더 부족할 가능성이 더 높다. 국내 인력만으로는 AI 강국으로 가기 힘들다. 해외 인력 유입을 위해 규제를 완화하여 사람들이 더 활발하게 활동할 수 있도록 해야 한다. 정부는 개발자들의 열정을 지켜줘야 한다. 규제를 완화해야 한다는 의미다. 대표적인 게 데이터 규제다. 국내는 데이터 보호 규제가 매우 엄격하다. 사용자들로부터 데이터를 수집할 수 있는 방안을 고려해야 한다. 데이터는 AI 연구에 필수다. 연구에 필요한 장치가 마련돼야 연구자가 개발에 열정을 쏟을 수 있다. 또 아무리 작은 연구 성과라 하더라도 정부 차원에서 연구소와 기업에 보상을 해주는 게 필요하다. 큰 성과가 아니더라도 작은 성과도 꾸준히 지원하고 보상하면 이것들이 모여 큰 연구 결실을 낼 것으로 생각한다.