• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'네이버 AI 연구'통합검색 결과 입니다. (13건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[영상] 최형두 의원 "2025 추경, AI 예산 2조 반영 추진"

"인공지능(AI) 인프라 예산 확보는 국가 경쟁력의 문제다. 여야 모두 공감하고 있는 만큼 2025년 1차 추경에서 반드시 2조 원 규모로 반영될 수 있도록 기획재정부와 조율 중이다." 국민의힘 최형두 의원은 26일 국회 의원회관 간담회장에서 열린 '2차 AI G3 강국 신기술 전략 조찬 포럼'에서 이와 같이 말하며 AI인프라 경쟁력 확보를 위해 예산을 확대할 것임을 강조했다. 대한민국의 혁신 및 산업 발전을 위한 산·학·연 전문가 중심의 정책 및 실행방안을 논의하기 위해 마련된 이번 포럼에는 국회와 정부, 학계, 산업계를 대표하는 전문가 20여 명이 참석했다. 과학기술정보통신부 송상훈 실장을 비롯해 서울대, 성균관대, 카이스트 등 주요 대학의 학계 인사들과 네이버, LG AI연구원, SK하이닉스, 현대차, SKT, 두산로보틱스, 퓨리오사AI, 리벨리온, 페르소나AI 등 국내 대표 AI·ICT 기업 관계자들이 자리를 함께 했다. 우선 삼성글로벌리서치 허준 상무가 발제자로 나서 '최근 AI 동향과 AI 부상에 따른 데이터센터의 변곡점'을 주제로 발표했다. 그는 "AI는 지금 '모델 골드러시' 시대에 있다”며 최근 몇 개월 사이 쏟아지는 초거대 AI 모델 개발과 추론형 AI의 급부상, 경량형·오픈소스 AI의 흐름을 조망했다. 특히 생성형 AI에서 에이전트 AI, 피지컬 AI로 이어지는 기술 진화 흐름을 짚으며, AI의 진화는 결국 인프라 수요의 폭발적 증가로 이어질 수밖에 없다고 강조했다. 허 상무는 AI를 구성하는 세 가지 요소인 모델, 데이터, 컴퓨팅 인프라 가운데 지금은 인프라가 전략의 핵심이 되고 있다고 강조했다. 이어 과거 초고속 인터넷 인프라를 바탕으로 인터넷 강국이 된 것처럼 AI 인프라 선점 없이는 AI 강국 도약도 어렵다고 말했다. 특히 "AI로 수익을 내는 기업은 대부분 인프라 기업"이라며 "반도체, 전력장비, 냉각기술 분야가 AI의 진짜 수익 원천”이라며, 정부와 국회가 데이터센터 기반 인프라 육성에 보다 적극적으로 나서야 한다"고 강조했다. SKT 이영탁 부사장도 현재 AI 생태계에서 핵심적인 요소가 AI 인프라라는 의견에 동의를 표하며 기업의 투자를 유도하기 위해선 수익성이 있는 인프라 중심의 전략이 필요하다고 강조했다. 이 부사장은 미국의 스타게이트처럼 정부·기업·연구소가 협력하는 한국형 AI 인프라 전략이 필요하다며 국가 AI 컴퓨팅 센터 같은 거점이 실질적인 인프라 구축으로 이어져야 한다고 말했다. 더불어 최근 해외 빅테크의 AI 투자가 일본으로 집중되는 이유로 정부의 공격적인 인센티브 지원를 들었다. 그는 "일본은 해외 기업이 데이터센터를 지을 경우 건설비의 50%까지 지원한다"며 "우리나라도 예산 규모는 작더라도 이와 유사한 적극적인 국회·정부의 재정 지원이 필요하다"고 강조했다. 과기정통부 송상훈 실장는 AI인프라가 국가 간·기업 간 경쟁의 핵심 인프라라는 것에 공감하지만 추가적인 예산 확보가 절실한 상황이라고 밝혔다. 송 실장은 현재 기재부 예산실과 구체적인 협의가 늦어지고 있지만 "플랜 A는 물론 B, C까지 마련해 대비 중”이라고 설명했다. 이에 최형두 의원은 "여야 모두 AI 인프라 예산의 필요성에 공감하고 있다"며 "산불·재해 등으로 인한 2025년 1차 추경 논의가 앞당겨지고 있는 만큼, AI 인프라 예산을 확실히 반영하도록 기획재정부와 조율해 나가겠다"고 밝혔다. 김영호 서울대 공과대학 학장도 GPU와 전기료가 인재 양성의 최대 장애물이라며 AI교육 현장의 현실을 전했다. 김 학장은 "대규모언어모델(LLM)을 직접 돌려보는 경험 유무에 따라 졸업 후 역량이 천차만별"이라며 "정부가 연구자들에게 전기료 완화 조치 등을 제공할 필요가 있다"고 말했다 네이버클라우드의 하정우 AI이노베이션센터장은 해외 사례를 언급하며, 학습용 하이퍼스케일 데이터센터와 산업단지형 추론 인프라를 분리하는 전략을 제시했다. 그는 "사우디아라비아도 AI 모델을 서비스하면서 추론 인프라의 중요성을 인식했다"며 "우리도 국내 AI 반도체를 활용한 인퍼런스 센터 실증 프로젝트를 산업단지에서 시작해야 한다"고 강조했다. 또한 프랑스가 167조 원 규모의 AI 투자 중 70억 유로를 해외에서 유치한 사례를 들며 해외 투자 유치로 AI 인프라를 스케일업할 전략을 세워야 한다고 의견을 피력했다. 더불어민주당 정동영 의원과 국민의힘 최형두 의원, 정보통신산업진흥원이 공동 주최·주관하는 AI G3 강국 신기술 전략 조찬 포럼은 매월 주요 인사와 산업계를 초청해 시리즈 형태로 개최 중이다. 다음 달부터는 중소기업과 스타트업, 대표기업 중심의 현장 목소리를 반영한 논의가 이어지며 12월에는 연간 종합토론이 국회에서 진행될 계획이다.

2025.03.26 11:24남혁우

韓, 초거대 AI 모델 수 세계 3위지만…미·중과 격차 커

한국이 미국, 중국에 이어 세계에서 3번째로 초거대 인공지능(AI) 모델을 많이 보유한 것으로 나타났다. 14일 소프트웨어정책연구소(SPRi)가 미국 연구단체 에포크(EPOCH) AI 데이터를 분석한 '글로벌 초거대 AI 모델 현황' 보고서에 따르면 한국이 지난해 초거대 AI 모델 3개를 추가 출시하면서 총 14개 모델을 보유한 것으로 전해졌다. 국가별 순위로는 한국이 3위다. 128개 모델을 보유한 미국과 95개를 갖고 있는 중국이 각각 1, 2위를 기록했다. 프랑스는 10개, 일본과 독일은 각각 4개를 보유해 4, 5위로 뒤를 이었다. 기업별로는 LG가 5개 모델을 보유하며 국내에서 가장 많은 초거대 AI를 개발했다. 이어 네이버와 삼성은 각각 3개, KT·NC소프트·코난테크놀로지가 각 1개의 모델을 출시한 것으로 나타났다. 보고서는 2024년 기준 초거대 AI 모델을 3개 이상 출시한 기업·기관을 보유한 국가 순위에서도 한국이 프랑스와 공동 3위를 차지했다고 분석했다. 전 세계 초거대 AI 모델 증가세가 이어진 것으로 나타났다. 2020년부터 2024년까지 전 세계에서 총 271개의 초거대 AI 모델이 개발됐다. 지난해만 122개 초거대 AI 모델이 개발됐으며 109개를 기록한 2023년에 이후 지속적으로 증가세를 보였다. SPRi 봉강호 선임연구원은 "최근 초거대 AI 경쟁이 치열해지며 한국도 지속적으로 경쟁력을 유지하고 있다"며 "시장이 빠르게 변화하는 만큼 민·관 협력을 통한 기술 개발과 생태계 조성이 더욱 중요해질 것"이라고 강조했다.

2025.02.14 18:05김미정

파리 AI 정상회의, 美·英 불참에 '얼룩'…EU 투자 다짐 속 韓 정부·기업 존재감 빛나

프랑스 파리에서 세 번째로 열린 인공지능(AI) 정상회의가 막을 내린 가운데 우리나라 정부와 기업들이 다양한 의제를 앞세워 존재감을 드러냈다. '지속 가능하고 포용적인 AI'를 추진하자는 기조 속에 우리나라를 포함해 여러 국가들이 뜻을 같이 하는 모습을 보였지만, 미국·영국은 자국 이익을 우선 시 하며 동참하지 않아 아쉬움을 남겼다. 12일 프랑스 엘리제궁에 따르면 지난 10일부터 이틀간 파리에서 열린 'AI 액션 서밋'에서 프랑스와 인도, 독일, 한국 등 58개국과 유럽연합(EU), 아프리카 연합 집행위원회 등은 공동 선언문을 채택했다. 선언문에서 서명국들은 이번 정상회의가 AI 생태계의 다양성을 강화하는 것의 중요성을 강조했다고 평가했다. 또 AI가 윤리적이고 안전하며 신뢰할 수 있고 인권과 사람이 중심이 될 수 있도록 포용적이고 개방적이면서 불평등을 줄여야 한다고 함께 목소리를 높였다. 특히 이들은 개발도상국이 AI 역량을 구축할 수 있도록 관련 움직임에 하루 빨리 나서야 한다고 진단했다. 또 디지털 격차를 줄이기 위한 AI 접근성 증진, 일·노동 시장에 긍정적인 AI 도입 장려, 국제 거버넌스 조정 촉진 등의 우선 순위도 이번 기회에 확인했다. 더불어 서명국들은 AI 거버넌스에 대한 협력 필요성과 함께 안전, 지속가능 개발, 혁신, 국제법 존중, 인권 보호, 성평등, 언어적 다양성, 소비자 보호, 지식재산권 문제에 대한 글로벌 성찰의 필요성을 강조했다. 이들은 "1, 2차 정상회의에서 참여국들이 AI 안전을 위해 자발적 약속을 했다"며 "AI의 경제·사회적 혜택을 누리기 위해서는 신뢰와 안전 강화가 필요하다"고 말했다. 그러면서 "앞으로도 AI가 정보의 무결성에 미칠 위험에 대처하고 AI의 투명성을 강화하기 위해 노력할 것"이라고 약속했다. 하지만 미국과 영국은 공동 선언문에 서명하지 않았다. 자국 이익 우선 주의를 더 중요하게 여기고 있기 때문이다. 특히 미국은 트럼프 정부 출범 이후 이러한 움직임에 더 박차를 가하고 있다. 최근 파리기후변화협정, 세계보건기구(WHO), 유엔 인권이사회 등 국제적 연대에서 탈퇴한 것이 대표적인 예다. 이에 대해 JD 밴스 미국 부통령은 이번 행사 폐막 세션에서 "미국은 AI 분야 선두 주자"라며 "이를 유지하기 위해 미국의 AI 기술이 세계 최고의 표준이 되도록 할 것"이라고 언급했다. 지난 2023년 AI 안전 정상회의를 처음 열었던 영국도 이번에는 뜻을 함께 하지 않았다. 이번 파리 선언문이 자국의 이익에 부합하지 않다고 판단한 것으로 분석된다. 영국 총리실 대변인이 최근 "국가 이익에 부합한다고 판단되는 이니셔티브에만 서명할 것"이라고 밝혔다는 점이 근거다. 업계 관계자는 "미국, 영국이 관계 강화를 위해 이 같은 결정을 내린 반면, AI 패권 경쟁을 벌이고 있는 중국이 서명에 동참했다는 점이 주목됐다"며 "EU가 미국, 중국에 비해 AI 기술에서 다소 뒤처져 있다는 평가가 많았지만, 이번 행사를 기점으로 존재감이 올라갔다는 점은 긍정적"이라고 평가했다. 업계에선 EU가 그간 규제에 방점이 맞춰져 있던 AI 정책의 방향을 이번 일로 투자와 혁신 촉진으로 돌렸다는 점에서도 의미있게 봤다. 실제 폰데어라이엔 EU 집행위원장은 이번 행사에서 '인베스트AI 이니셔티브(InvestAI Initiative)'를 발표해 이목을 집중시켰다. 향후 AI 개발에 총 2천억 유로(약 300조원) 규모의 민간·공공자본을 동원할 뿐 아니라 기업 활동을 돕기 위해 불필요한 규제도 줄인다는 방침이다. 프랑스 역시 대규모 투자에 나설 것을 예고해 기대감을 높였다. 에마뉘엘 마크롱 프랑스 대통령은 지난 9일 TF1과 인터뷰에서 "AI에 향후 1천90억 유로(약 164조원)를 투자할 것"이라고 밝힌 바 있다. 이번 AI 정상회의에선 우리나라 정부와 일부 기업들의 활약도 돋보였다. 특히 전 세계에서 거대언어모델(LLM)을 세 번째로 개발한 네이버는 자사 원천 기술과 서비스를 소개하며 AI 생태계의 다양성을 강화하기 위해 적극 나서겠다는 의지를 드러냈다. 최수연 네이버 대표는 AI 정상회의 전체 총회 패널로 연단에 올라 "네이버는 핵심 AI 원천기술과 수천만 명이 사용하는 대규모 서비스를 동시에 보유함으로써 디지털 생태계에 더 큰 기회를 가져올 수 있는 선순환 구조를 만들고 발전시켜 나갈 수 있는 경험과 노하우를 확보했다"며 "이를 바탕으로 글로벌 커뮤니티와 함께 AI 생태계의 다양성을 강화하는 새로운 선택지가 될 수 있도록 노력하겠다"고 강조했다. 거대언어모델(LLM) '엑사원'을 자체 개발한 LG AI연구원도 이번 회의에 참여해 데이터의 신뢰성을 높이는 AI 기술을 제시하며 AI의 지속가능성을 강조하고 나섰다. 특히 AI 모델이 학습하는 데이터의 위험을 자동으로 분석하고 위험 등급을 평가하는 '데이터 컴플라이언스 에이전트'를 개발해 데이터 사용의 투명성과 책임성을 높였다는 점을 앞세웠다. 배경훈 LG AI연구원장은 보고서 서문을 통해 "AI 기술이 사회에 미치는 영향력이 커질수록 책무성은 더욱 중요해지고 있다"며 "우리는 모든 연구개발 과제에 AI 윤리 영향 평가를 의무화해 잠재적 위험을 조기에 발견하고 개선했고, 엄격한 데이터 컴플라이언스 체계를 구축해 신뢰할 수 있는 AI 개발의 토대를 마련했다"고 강조했다. 이어 "신뢰할 수 있는 AI 기술력 확보를 넘어 AI 기술의 혜택이 사회 구성원 모두에게 고르게 돌아갈 수 있는 포용적 AI 생태계를 만드는 데 기여하겠다"고 덧붙였다. 삼성전자에서도 일부 임원들이 참석했지만, 큰 활약은 없었다. 전경훈 디바이스경험(DX)부문 최고기술책임자(CTO) 겸 삼성리서치 연구소장은 현지에서 참여 기업들과의 네트워크 강화에만 집중했다. 유상임 과학기술정보통신부 장관은 지난 11일부터 미국, EU, 싱가포르 등 주요국과의 양자 면담을 통해 AI 분야 협력 강화 방안을 논의했다. 또 '글로벌 AI 생태계의 경쟁력과 지속가능성 확보 방안' 세션에선 AI 전력소비 문제를 지적하며 기술적 해결책 마련의 필요성을 강조했다. 이에 대한 방안으로 유 장관은 한국이 추진 중인 저전력·고성능 AI 반도체 개발 계획을 소개했다. 아울러 세계에서 두 번째로 제정한 AI 기본법과 올해 민관이 함께 구축 예정인 국가 AI컴퓨팅 센터, 초중등 교육부터 최고급 인재까지 양성하는 AI 교육, 사회·경제적 지속가능성을 위한 디지털포용법 등 한국의 주요 정책들을 공유하며 지속가능한 AI를 위한 글로벌 협력을 제안했다. AI 정상회의는 인공지능 기술의 지속가능한 미래와 안전한 사용을 도모하기 위한 글로벌 회의로 지난 2023년 런던, 지난해 서울 회의에 이어 올해로 3회째를 맞았다. 내년에는 인도에서 개최될 예정이다. 업계 관계자는 "이번 '파리 AI 정상회의'는 AI를 둘러싼 국제사회의 균열이 가시화된 모습이 드러난 것으로 보인다"며 "선언문이 규제성이라고 인식해 선언에 불참한 미국, 영국이 향후 인도 AI 정상회의에선 어떤 움직임을 보일지 주목된다"고 밝혔다.

2025.02.12 17:20장유미

[AI는 지금] 파리 AI 정상회의 임박…韓, 글로벌 AI 거버넌스 존재감 시험대

'파리 인공지능(AI) 정상회의(AI Action Summit)' 개막을 앞두고 한국 정부와 기업이 글로벌 AI 거버넌스 구축에 기여하기 위해 적극 참여할 예정이다. 다만 탄핵 정국으로 인해 정상급 외교가 부재한 점은 아쉬움으로 남는다. 10일 업계에 따르면 프랑스 파리에서 개막해 이틀간 진행될 AI 정상회의는 80개국 이상이 참석하는 대규모 행사로, AI 안전성과 국제 규범 정립을 주요 의제로 다룰 예정이다. 회의에는 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리 등 주요 국가 정상과 오픈AI 샘 알트먼 대표, 구글 순다르 피차이 대표 등 글로벌 기술 기업 대표들이 참석할 예정이다. 이번 회의에서는 AI 안전성 강화, 데이터센터의 에너지 문제, 선진국과 개발도상국 간 AI 기술 격차 해소 등이 중점적으로 논의될 전망이다. 또 글로벌 AI 거버넌스 확립을 위한 국제 기구 설립이 주요 의제로 다뤄질 예정이다. 프랑스 정부는 이 자리에서 AI 산업에 1천90억 유로(한화 약 163조5천억원) 규모의 민간 투자 계획을 발표하며 AI 글로벌 규범 정립에 앞장서겠다는 뜻을 밝힐 것으로 보인다. 회의 개막을 앞두고 마크롱 대통령은 AI 기술을 활용한 딥페이크 영상으로 홍보에 나서 주목을 받았다. 그는 자신의 소셜미디어에 맥가이버, 인플루언서, 코미디 영화 캐릭터 등으로 변신한 합성 영상을 공개하며 "꽤 잘 만들어서 보고 웃었다"고 말했다. 이번 정상회의를 알리는 차원에서 제작된 이 영상은 AI 기술이 미디어와 사회 전반에 미칠 영향을 상징적으로 보여줬다는 평가를 받는다. 한국도 이번 회의에 적극적으로 참여할 예정이다. 정부 측에서는 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장 등이 대표단을 이끌고 글로벌 AI 거버넌스 논의에 나선다. 특히 AI 안전연구소는 이번 회의에서 영국·일본·싱가포르와 함께 구글과 미스트랄 AI의 모델을 분석해 AI 시스템의 다국어·문화적 취약점을 테스트한 결과를 발표할 예정이다. 연구소는 지난해 11월 설립 이후 영어 기반으로 훈련된 AI 모델이 비(非)서구권 언어와 문화에서 보안 취약점을 가질 수 있다는 점을 고려해 다국어 환경에서의 AI 보안성 문제를 중점적으로 다뤄왔다. 기업 측에서는 삼성전자, 네이버, LG AI연구원이 참가해 AI 기술 개발 및 윤리적 활용에 대한 논의를 이어갈 계획이다. 네이버 최수연 대표, 전경훈 삼성전자 디바이스경험(DX)부문 최고기술책임자(CTO) 겸 삼성리서치 연구소장도 이번 행사에 참석한다. LG AI연구원에서는 배경훈 원장 대신 김유철 전략부문장이 참석해 글로벌 협력과 AI 규범 형성 논의에 힘을 보탤 예정이다. LG 관계자는 "우리는 지금까지 유네스코와 협업하고 서울 AI 정상회의에서도 적극 참여하는 등 국제 사회와 지속적으로 협력해왔다"며 "이번 회의에서도 다른 글로벌 참가자들과 함께 포용적 AI 구축을 위해 노력하겠다"고 밝혔다. 다만 정상급 외교 부재는 아쉬운 대목으로 꼽힌다. 윤석열 대통령이 지난 2023년 이후로 줄곧 AI 3대 강국 도약과 글로벌 디지털 규범 주도를 선언했음에도 불구하고 탄핵 정국으로 인해 이번 정상회의에 참석하지 못하면서 국제 사회에서의 리더십이 약화될 가능성이 제기되고 있기 때문이다. 대통령 권한대행조차 부재해 한국이 주요 논의에서 주도권을 잡기 어려울 것이라는 우려도 나온다. 국내 업계 관계자는 "AI 기술 발전과 거버넌스 논의는 동시에 이뤄져야 하는데 현재 국내 정국이 아쉬운 점이 있다"며 "그럼에도 정부와 기업들이 주어진 여건 속에서 역할을 하기 위해 최선을 다하고 있는 것은 사실"이라고 말했다. 이번 파리 AI 정상회의는 지난 2023년 영국 블레츨리 회의와 지난해 서울 AI 정상회의에 이어 AI 거버넌스 논의의 주요 이정표로 평가된다. AI 기술이 가져올 사회적 변화를 다루는 글로벌 논의가 본격화되는 가운데 한국이 향후 어떤 역할을 할 수 있을지 주목된다. 마크롱 대통령은 회의 개최를 앞두고 "AI는 무법지대가 되어서는 안 된다"며 "우리는 AI 혁명의 중심에 서서 글로벌 규범을 주도해 나갈 것"이라고 강조했다.

2025.02.10 16:58조이환

"숨 가쁜 글로벌 테크 대전"…파리 AI 정상회의·사우디 리프 2025 연속 개최

인공지능(AI)과 첨단 기술의 미래를 둘러싼 글로벌 경쟁이 치열해지는 가운데 프랑스와 사우디아라비아에서 연이어 대규모 기술 행사가 열린다. 프랑스는 파리 AI 정상회의(AI Action Summit)를 통해 국제 AI 거버넌스와 협력 방안을 논의하고 사우디아라비아는 리프(LEAP) 2025를 통해 중동을 기술 혁신의 허브로 만들기 위한 전략을 본격화한다. 9일 업계에 따르면 프랑스와 사우디에서 잇달아 개최되는 이번 행사에는 전 세계 정부 관계자, 글로벌 테크 기업인, 학계 전문가들이 참석해 첨단 기술과 규제의 미래를 논의할 예정이다. 파리에서는 AI 기술의 윤리적 활용과 글로벌 협력을 강조되고 리야드에서는 AI·반도체·로보틱스·사이버보안을 중심으로 중동 테크 허브 도약이 추진될 예정이다. 한국도 두 행사에 적극적으로 참여한다. 파리 AI 정상회의에는 정부 차원의 지원이 두드러지며 과학기술정보통신부, 개인정보보호위원회, AI안전연구소 등이 참석해 AI 국제 거버넌스 논의에 힘을 보탠다. 사우디 '리프 2025'에서는 네이버가 맞춤형 AI 솔루션을 공개하고 국내 스타트업들이 중동 시장 진출을 모색한다. "AI 글로벌 규범 강화"…파리 정상회의, 거버넌스 논의 본격화 프랑스 정부는 오는 10일부터 이틀간 프랑스 파리 그랑팔레에서 인도 정부와 함께 '파리 AI 정상회의(AI Action Summit)'를 개최한다. 이번 회의는 AI 안전을 넘어 실천적 행동으로 전환하는 것을 목표로 하며 AI 기술이 개발도상국을 포함한 전 세계에 공정하게 혜택을 제공하도록 협력 체계를 구축하는 데 중점을 둔다. 파리 정상회의는 지난 2023년 영국 블레츨리 파크, 2024년 서울 정상회의에 이은 세 번째 글로벌 AI 정상회의다. 행사에는 80개국 이상이 참여하며 AI 국제 거버넌스·일자리 변화·보안 및 안전·공공이익·혁신과 문화 등 5대 핵심 의제를 중심으로 실질적인 정책과 행동 강령이 논의된다. 이번 회의에는 주요 국가 정상, 글로벌 기업 대표, 학계 전문가가 대거 참석한다. 에마뉘엘 마크롱 프랑스 대통령, 나렌드라 모디 인도 총리, JD 밴스 미국 부통령, 딩쉐샹 중국 부총리를 비롯해 샘 알트만 오픈AI 대표, 순다르 피차이 구글 대표, 얀 르쿤 메타 AI 수석과학자 등이 자리한다. 학계에서는 마이클 조던 UC버클리 교수, 에릭 브린욜프손 스탠퍼드 교수가 참석해 AI의 미래에 대한 논의를 이끈다. 국내에서도 정부 및 기업 대표단이 적극 참여한다. 유상임 과학기술정보통신부 장관, 고학수 개인정보보호위원장, 김명주 AI안전연구소장이 주요 세션에 참석하며 기업 차원에서는 전경훈 삼성전자 최고기술책임자(CTO), 최수연 네이버 대표, 김유철 LG AI연구원 전략부문장 등이 글로벌 AI 기술 경쟁력을 알릴 예정이다. 한국AI윤리학회와 정보통신산업진흥원(NIPA) 관계자들도 행사에 함께한다. 회의에서는 AI 안전성 강화를 위한 국제 보고서 발표와 사이버 위기 시뮬레이션이 진행되며 AI로 인한 직업 구조 변화에 대비한 재교육 방안도 논의된다. AI 데이터센터의 에너지 소비 문제를 해결하기 위한 다자간 협약이 추진되며 의료·기후변화 대응 등 50개 글로벌 AI 공공 프로젝트도 소개된다. 업계에서는 파리 정상회의를 통해 글로벌 AI 협력 체계가 한층 강화될 것으로 기대된다. 특히 프랑스는 구글, 메타, 미스트랄 등 AI 연구센터 유치를 확대하며 AI 허브로 도약하는 계기를 마련하고 있다. 한국 역시 반도체·플랫폼 분야의 강점을 바탕으로 글로벌 AI 표준화 논의에서 주도적인 역할을 할 것으로 보인다. 마크롱 프랑스 대통령은 "AI는 서부의 무법지대가 될 수 없다"며 "권리, 환경, 뉴스의 진실성, 지적 재산권을 보호하는 강력한 원칙을 담으면서도 완전히 자발적으로 모든 국가가 서명할 수 있는 선언을 만들기 위해 시도할 것"이라고 말했다. "사우디, 중동 테크 허브로"…'리프 2025'로 韓 기업 중동 진출 기회 확대 사우디아라비아 정부 역시 9일부터 나흘간 리야드 그랑팔레(엑스포센터)에서 국가 최대 IT 행사인 '리프(LEAP) 2025'를 통해 중동 최대 기술 혁신 플랫폼을 구축한다. 이 행사는 비전 2030 전략에 따라 사우디 경제를 석유 중심에서 기술 주도로 전환하는 데 중점을 두며 AI·로보틱스·사이버보안 등 첨단 기술 분야에서 글로벌 리더십을 강화하는 계기가 될 전망이다. 이 행사에는 1천800개 글로벌 테크 기업, 680개 스타트업, 1천명 이상의 글로벌 전문가가 참여한다. 사우디 통신정보기술부(MCIT)와 타할루프(Tahaluf)가 주최하는 이번 행사는 AI 기반 혁신 사례 전시 '딥페스트(DeepFest)', e스포츠 및 스포츠 기술을 다루는 '스포츠테크 트랙', 신기술을 직접 체험할 수 있는 '테크 아레나' 등 다양한 프로그램을 운영한다. 글로벌 테크 리더들도 대거 참석한다. 아르빈드 크리슈나 IBM 대표, 앨리슨 왜건펠트 구글 클라우드 대표 등이 기술 혁신 방향을 논의한다. 전 맨체스터 유나이티드 선수 파트리스 에브라, 전 아스널 선수 마티유 플라미니 같은 스포츠 스타들도 참여해 스포츠와 기술의 접점을 조명할 예정이다. 한국도 적극적으로 참여하며 사우디 시장 공략에 나선다. 네이버는 'AI 포 사우디아라비아, 파워드 바이 네이버'를 테마로 사우디 맞춤형 AI 모델과 자체 대형 언어모델 '하이퍼클로바X'를 선보인다. 또 사우디 국영기업과 디지털 트윈 플랫폼 협약을 체결하며 현지 시장 확대를 노린다. 리벨리온은 AI 반도체 기술을 공개하며 보안기업인 스패로우는 애플리케이션 보안 솔루션을 소개할 예정이다. 김유원 네이버클라우드 대표는 "각국의 문화와 정체성을 존중하는 기술력을 개발하겠다"며 "이로써 글로벌 시장에서 입지를 보다 강화할 것"이라고 강조했다.

2025.02.09 11:07조이환

샘 알트먼 방한…카카오·SK와 AI 협력 논의할까

오픈AI가 서울에서 '빌더랩' 개발자 행사를 개최하는 가운데 샘 알트먼 대표가 방한해 카카오·SK 등 국내 인공지능(AI) 업계와의 협력 가능성을 모색할 것으로 관측된다. 3일 업계에 따르면 '빌더랩'은 오픈AI가 오는 4일 중구의 한 호텔에서 주최하는 AI 개발자 행사로, 영국과 싱가포르에서 진행했던 '데브데이'와 유사한 성격을 갖는다. 네이버, LG AI연구원 등 주요 파운데이션 모델 기업과 함께 뤼튼·와들·튜링 등 오픈AI와 기존 협력을 맺은 기업들도 초청된 것으로 알려졌다. 같은 날 카카오 역시 오전 11시 같은 호텔에서 기자간담회를 개최한다. 업계에서는 카카오 정신아 대표와 알트먼 대표가 이 자리에서 만나 협업 방안을 논의할 가능성이 있다고 보고 있다. 특히 업계 일각에서는 카카오가 AI 분야에서의 경쟁력을 확보하기 위해 오픈AI의 기술을 도입할 가능성이 제기되고 있다. 한 업계 관계자는 "지난해 SK가 마이크로소프트(MS) 및 오픈AI와 협력해 AI 검색 서비스 퍼플렉시티를 출시했던 것처럼 카카오도 오픈AI와의 협력을 통해 AI 기반 서비스를 새롭게 내놓을 수 있다"고 분석했다. 이같은 기대감 속에서 카카오 주가는 전 거래일 대비 8.74% 상승한 4만1700원으로 마감했다. 업계에서는 기자간담회에서 오픈AI와의 협력 내용이 공식 발표될 경우 카카오 주가가 추가 상승할 가능성이 있다고 보고 있다. 더불어 알트먼 대표가 방한 중 SK그룹 최태원 회장과도 만날 가능성이 제기되고 있다. 두 사람은 지난해 1월 알트먼 방한 당시 AI 사업과 관련한 협력 방안을 논의한 바 있으며 같은 해 6월에는 최 회장이 미국 출장 중 오픈AI 본사를 방문해 '퍼스널 AI 서비스' 협력을 논의한 것으로 알려졌다. 업계 관계자는 "알트먼의 한국 방문은 오픈AI가 국내 대기업들과의 협력을 강화하는 움직임으로 볼 수 있다"며 "이번 만남에서 기존 논의된 AI 협력안을 구체화하거나 새로운 사업 기회가 모색될 가능성이 있다"고 밝혔다.

2025.02.03 15:51조이환

'소버린 AI' 어떻게 봐야 할까…"담론 기반 현실적 전략 필요"

인공지능(AI)을 국가 주권과 연결짓는 '소버린 AI' 개념이 글로벌 이슈로 부상하고 있다. 캐나다, 프랑스 등을 비롯한 국가들이 데이터 주권과 독자적인 AI 기술 확보를 위해 소버린 AI를 실천하고 있는 와중에 각국 빅테크도 이에 가세한 상황이다. '소버린 AI'에 대한 정의와 접근 방식 차이가 여전히 존재한다. 일부는 소버린 AI를 국가 주권의 연장선에서 바라보면서 독립적인 AI 플랫폼과 서비스 구축 필요성을 강조하고 있다. 반면 기술의 글로벌 특성을 고려할 때 소버린 AI가 국가 전략으로 삼기엔 적절하지 못한 개념이라는 의견도 공존하고 있다. 이에 지디넷코리아는 포티투마루와 공동으로 '소버린 AI, 반드시 필요한가'를 주제로 좌담회를 최근 개최했다. 좌담회에서는 소버린 AI의 정의와 필요성, 국가와 기업의 역할, 현실적인 전략 수립 방안에 대해 심도 있는 논의가 이뤄졌다. 이번 좌담회에는 김상배 서울대 정치외교학부 교수, 김형철 소프트웨어정책연구소 소장, 오혜연 카이스트 전산학부 교수, 이성엽 고려대 기술경영전문대학원 교수, 이승현 디지털플랫폼정부위원회 국장, 하정우 네이버클라우드 AI혁신센터장이 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. "소버린 AI, 단 하나의 개념 세우기 아냐…담론 중심 접근 필요" 김동환 대표(이하 사회): 소버린 AI 정의부터 짚고 넘어가면 좋겠다. 현재 소버린 AI에 대한 개념이 분야별 또는 개인별로 차이가 있는 것 같다. 소버린 AI를 어떻게 정의하고 있는지 다양한 관점에서 얘기를 나눠보고 싶다. 김상배 교수: 소버린 AI는 국제정치와 외교적 맥락에서 발생하는 복합적 담론이다. 이를 명확히 정의하거나 번역하는 것은 어렵다. '주권 AI'나 '자주적 AI'와 같은 번역 시도가 있었지만 기존 국가 주권 개념으로는 소버린 AI의 복합성을 설명하기 부족하다. 이는 글로벌화로 인해 주권의 개념이 국가를 넘어 다양한 주체로 확장돼 변형된 결과로 볼 수 있다. 소버린 AI는 개념보다는 담론으로 이해돼야 한다. 각 주체마다 이를 다르게 해석하고 활용하려는 방향이 달라서다. 예를 들어 네이버와 한국 정부의 소버린 AI 논의는 그 목적과 초점이 다르다. 이에 따라 텍스트적 논쟁보다는 이를 바탕으로 실체적 전략을 구체화하는 것이 더 중요하다. 한국은 강대국도 아니고 대규모 투자를 주도할 글로벌 선도 기업도 부족한 중견국이다. 단순히 선진국을 따라가기보다는 기술과 소프트웨어 영역에서 독자적인 방향을 모색하는 전략이 필요하다. 이런 국제정치적 변화 속에서 소버린 AI는 한국의 존재론적 입장을 담고 있으며 이를 통해 차별화된 국가 전략을 구축해야 한다. 오혜연 교수: 김상배 교수 의견에 동의한다. 그동안 소버린 AI라는 용어가 어색하게 들렸다. 한국은 강대국이 아니며 오픈AI나 구글 같은 글로벌 기업도 없다. 기술은 본질적으로 중립적이어야 하며 단순히 한국에서 개발된 AI 모델에 한국적 정체성을 강조하는 방식은 시대에 뒤떨어진 접근이다. 한국 AI 모델은 이미 글로벌 데이터를 활용하고 전 세계 사용자에게 적용되고 있다. 그런데 거기에 한국 모델이라는 스티커를 붙여서 1980년대처럼 프로모션한다는 것은 부적절한 면이 있다. 이에 따라 소버린 AI를 담론으로 우선 풀어나가는 것이 필요하다고 생각한다. 이승현 국장: 정부 입장에서는 소버린 AI를 바라볼 때 AI를 어떻게 정의할지가 중요하다. 특히 AI 개발 종사자들이 정의를 해줘야 한다. 모두 AI 이야기가 나오면 거대언어모델(LLM)만 생각하는데 그럼 안 된다. AI와 LLM은 동의어가 아니다. 정부는 LLM에만 관심 있는 게 아니다. 정부는 혁신을 통해 사회 문제 해결할 때 쓸 수 있는 모든 도구를 고려하고 있다. 과기정통부는 산업적 경쟁력과 국가 경쟁력에 초점을 맞추고 있고 다른 부처는 직접 활용 가능한 기술에 더 관심을 두고 있다. 이런 차이를 우선 이해하고 조율하는 것이 중요하다. 하정우 센터장: 소버린 AI를 포괄적 개념으로 정의하거나 특정 주체의 전략으로 제한하는 논의는 실효성이 없다. 기술별 자립과 협력을 병행하는 현실적인 접근이 우선이다. 소버린 AI는 단순히 파운데이션 모델에 국한된 개념이 아니기 때문이다. 이를 구현하려면 중앙처리장치(GPU)와 데이터, AI 데이터 센터, AI 반도체, 전력 공급 등 다양한 기술 인프라가 우선 필요하다. 이런 요소들은 글로벌 공급망과 밀접하게 연관됐다. 특히 GPU 같은 자원은 국제 정치와 경제적 역학 관계에 따라 접근성이 결정된다. 한국은 이런 환경에서 자율성과 통제력을 확보할 필요가 있다. 파운데이션 모델 개발뿐만 아니라 이를 활용한 사회 문제 해결과 성장이 중요하다. 이를 위해 각 기술적 요소마다 자립 가능성과 해외 협력 전략을 구체적으로 수립해야 한다. 점점 더 많은 기술이 전략 자산화되고 수출 제한과 종속의 가능성이 커지는 상황에서 장기적이고 세부적인 전략이 필수다. 김형철 소장: 소버린 AI는 아키텍처 레이어로 나눠서 접근해야 한다. 반도체, 데이터 센터, 클라우드, 플랫폼, 응용 서비스로 구성된 생태계의 각 단계가 중요하다. 현재 논의는 주로 LLM과 플랫폼 레벨에 집중돼 있다. 그것만으로는 충분하지 않다. 소버린 AI 필요성도 한마디로 정의할 수 없다. 목적과 상황에 따라 필요성과 범주가 달라지며 이를 단일한 범주로 묶는 것은 어렵다. 기술적으로 다양한 레이어를 고려한 세분화된 접근이 필요하다. 각각 목표와 스펙트럼에 맞게 논의를 확장하고 구체화해야 한다. 이성엽 교수: 소버린 AI는 본질적으로 AI 주권과 동일한 개념이다. 독립적인 의사결정 권력과 대외적 독립성을 강조한다. 이는 다른 국가나 글로벌 테크 기업에 종속되지 않고 독자적인 AI 플랫폼과 서비스를 보유·운영하며 이를 필요 시 수출할 수 있는 능력을 포함한다. 현재 AI 생태계는 일부분 외국 기술에 의존할 수밖에 없다. 다만 데이터 주권과 디지털 주권을 포함한 인프라와 안보적 요소들을 확보하는 것이 중요하다. 핵심은 한국이 독자적인 AI 생태계를 구축하고 실질적으로 플랫폼을 운영할 능력을 갖추는 것이다. 이승현 국장: 소버린 AI 정의는 맥락과 관점에 따라 다양하다. 초기에는 소버린 클라우드를 데이터 위치 관점에서 이해했지만 AI로 논의가 확장되면서 모델, 애플리케이션, 하드웨어 등 다양한 요소가 포함됐다. 이로 인해 정부도 소버린 AI의 해석과 전략을 서로 다르게 한다. 소버린 AI 논의는 단순히 LLM에만 초점을 맞추기보다 알파폴드와 트랜스포머 모델처럼 상호 보완적이고 독립적인 기술 개발과 응용 사례를 강조해야 한다. 특히 한국 기업은 오픈AI와 같은 빅테크와 자금력으로 경쟁하기 어려운 만큼 차별화된 애플리케이션이나 서비스를 개발하는 전략이 필요하다. 소버린 AI가 특정 기업이나 기술에 국한된 것으로 오해되면서 정부 입장에서 부담이 되고 있다. 따라서 소버린 AI의 정의를 포괄적이거나 명확히 설정해 불필요한 논란을 줄이고 구체적인 전략 수립에 집중해야 한다. 하정우 센터장: 기술 레이어를 구분하면 일부는 자국 역량으로 자립하고 일부는 글로벌 협업이 필요하다. 글로벌 빅테크는 하위 인프라를 자신들의 기술로 점유하며 상위 기술은 각국이 개발하도록 유도하는 전략을 취한다. KT는 인프라에 중점을 두고 네이버는 GPU 등 상위 레이어까지 확대해 자체 경쟁력을 키우고자 한다. 미국처럼 모든 기술을 독자적으로 할 수 있다면 이를 다 하면 되지만 경쟁력이 약한 국가는 선택과 집중 전략이 필요하다. 비교 우위가 있는 분야에 우선 투자하고 부족한 부분은 도움을 받아가며 점진적으로 역량을 강화해야 한다. 이는 기업뿐만 아니라 국가 차원에서도 적용 가능하다. 5년, 10년 단위로 계획을 세워 자립과 협력을 병행하는 것이 효과적일 것이다. 김상배 교수: 근대적 위계적 조직으로서의 '민족국가(Nation State)'는 이제 더 이상 유효하지 않으며 주권은 기업과 시민사회 등 다양한 주체로 확장됐다. 국가는 네트워크 허브로서 다양한 행위자를 연결하고 조율하는 역할을 수행하며 이는 '네트워크 스테이트(Network State)' 개념으로 설명될 수 있다. 이에 따라 소버린 AI는 단순히 기술적·경제적 주권의 문제가 아니다. 언어, 문화, 종교와 같은 고유한 다양성의 영역에서 논의된다. 이는 주권을 넘어 협업과 협력을 통해 새로운 가능성을 모색하는 담론으로 이해해야 한다. 과거 '아래아한글 살리기 운동'과 같은 민족적·언어적 자주성 확보 사례는 현재 소버린 AI와 유사한 맥락으로 볼 수 있다. 한국은 마이크로소프트 '워드'가 아닌 로컬 워드 프로세서를 일정 부분 유지한 유일한 국가로, 이런 자생적 성과가 소버린 AI 논의에서도 중요하다. 오혜연 교수: 소버린 AI는 필요하지만 이를 지나치게 강조하는 것은 적절하지 않다. AI에는 다양한 중요한 키워드가 존재하며 소버린 AI를 전면에 내세우는 방식은 부적합할 수 있다. 소버린 AI보다 '포용적 AI(Inclusive AI)'를 지향하는 게 더 적합해 보인다. 이는 한국을 포함해 다양한 사람들이 함께 사용하고 혜택을 누릴 수 있는 AI를 개발·활용하며 이를 통해 수출과 교류가 이뤄지는 개념이다. 소버린 AI라는 용어는 일반 시민들에게 배타적이고 벽을 세우는 듯한 인상을 줄 수 있어 부정적 효과를 가져올 가능성이 있다. 미국과 다른 나라들도 소버린 AI를 논의하지만 이를 전면적인 전략으로 내세우지 않는다. "소버린 AI 산업화 과제…AI 기업 육성 통해 글로벌 틈새 공략 시급" 이승현 국장: 아직은 소버린 AI라는 개념에 대한 구체성이 부족해 결론에 이르지 못한 상태다. 네이버를 AI 기업으로 봐야 할지에 대한 의견도 엇갈린다. 네이버가 AI 플랫폼 기업으로 명확히 자리 잡는다면 정부 지원이 타당하지만 현재로서는 커머스와 검색 중심 전략 사이에서 혼란스러운 상태다. 정부는 네이버를 AI 기업으로 보지 않더라도 규제 완화 등 여러 방면에서 지원해왔다고 생각한다. 이에 네이버의 정체성과 방향성에 대한 명확한 합의가 필요하다. 하정우 센터장: 프랑스를 포함한 여러 나라들이 포기하지 않고 투자해 성공 사례를 만들고 있다. 독일, 핀란드, 싱가포르 등도 적극적으로 참여하고 있는 상황이다. 포기하지 않는 이유가 분명히 있다. 이 과정에서 포용적 AI와 같은 협력적이고 포괄적인 접근이 필요하다는 점이 매우 강조됐다. 각국이 AI 기술의 다양성을 확보해야 글로벌 AI 생태계의 안정성이 강화된다. 이런 관점에서 인클루시브 AI가 적합하다. 기술력이 있는 나라가 부족한 나라와 협력해 함께 개발하는 전략도 가능하다. 이러한 협력 모델은 한국이 수주 전략으로 활용할 수 있는 경험을 보유하고 있다는 주장이다. 다만 '소버린'이라는 용어가 배타적이고 폐쇄적인 이미지를 줄 수 있어 이슈가 된다. 사실 소버린이라는 용어는 클라우드에서 시작돼 AI로 자연스럽게 확장된 개념이다. 그런데 일각에서는 "이미 늦었으니 포기하자"는 주장을 하고 있다. 이에 대한 반발로 소버린 AI가 부각된 측면이 있다. 이 용어가 오해를 불러일으킬 가능성이 있어 이를 대체할 적절한 표현을 찾는 것이 필요하다고 본다. 김상배 교수: 소버린 AI는 '포용'와 '배제' 요소가 혼합된 복합 모델이다. 이를 단순히 한쪽 관점으로만 접근하면 중요한 부분을 간과할 수 있다. AI 전략은 국가적 맥락에서 이해해야 한다. 여러 중견국들이 디지털 기술을 중심으로 국력 강화를 목표로 다양한 전략을 모색하고 있다. 프랑스와 독일 같은 유럽 국가는 기술 역량을 기반으로 독립적 전략을 펼치려 하나 영국이나 일본은 미국 중심의 틀 안에서 기술 개발과 협력을 진행한다. 사우디아라비아는 자국 기술 역량이 부족해 재정과 외교를 활용하고 미국과 중국 사이에서 자리를 찾고 있다. 한국은 자체 기술 역량과 외교적 연계를 통해 소버린 AI 전략을 수립해야 한다. 이는 연대와 협력을 전제로 성공할 수 있다. 주요 연대 대상은 사우디아라비아, 프랑스, 독일, 핀란드 같은 국가다. 정부는 명확한 전략과 순화된 용어로 기업과 국가의 협력을 이끄는 방향으로 나아가야 한다. 이를 통해 한국이 디지털 기술 분야에서 틈새를 공략하고 글로벌 경쟁 속에서 위치를 확보하는 것이 중요하다. 이성엽 교수: 케이팝처럼 한국 독자성을 유지하면서도 이를 보편화해 글로벌 시장에서 경쟁력을 확보해야 한다. 독자성만 강조하면 고립될 수 있고 보편성만 추구하면 차별화가 어려워지기 때문이다. 과거 산업 정책도 초기에는 외국 시장을 제한하며 국내 체력을 키운 후 개방했던 전략을 취했다. 현재 AI 분야에서도 국가와 기업이 협력해 독자성과 포괄성을 조화롭게 추진하며 지속적으로 발전시켜야 한다는 점을 강조한다. 이승현 국장: 정부의 AI 논의는 주로 하드웨어 중심으로 진행되며 소프트웨어에 대한 관심이 부족하다. 소버린 AI가 전면에 나오지 못한 이유 중 하나도 이러한 구조적 한계 때문일 것이다. 네이버처럼 자체 기술을 고도화하는 전략뿐만 아니라 KT와 마이크로소프트 협력처럼 국외 기술과의 협력 모델도 고려해야 한다. 이러한 협력이 데이터나 기타 방식으로 주권을 보장한다면 중요한 전략으로 채택될 수 있다. 다양한 모델을 수용하며 균형 잡힌 접근이 필요하며 소버린 AI를 지나치게 강조해 배타적으로 보이는 오해는 피해야 한다. 사회: 소버린 AI 논의는 주로 생산 관점에서 개발과 운영 주체를 중심으로 이뤄지고 있으며 이에 따라 국가와 공공 역할이 강조되고 있다. AI가 국가 대항전의 형태로 전개되면서 정부 지원이 필수적이라는 의견이 나오지만 이런 지원이 특정 대기업에 집중될 가능성에 대한 우려도 존재한다. 이런 구조에서 과연 실질적인 성과를 낼 수 있을지에 대한 의문이 소버린 AI에 대한 부정적 시각으로 이어지고 있다. 이에 대한 의견은 무엇인가. 김형철 소장: 소버린 AI를 논의할 때 우리 생태계를 원팀으로 묶는 접근과 응용 서비스 관점에서 내려다보는 접근을 함께 고려해야 한다. 기존에는 플랫폼을 중심으로 역삼각형 구조를 상정하며 플랫폼 위에 응용 서비스를 얹고 나아가자는 방식이었지만 피라미드형 구조도 필요하다. 이는 응용 서비스와 활용 중심으로 다양한 플랫폼에 걸쳐 확장성을 높이는 전략이다. 일례로 '하이퍼클로바 X' 뿐만 아니라 오픈AI 같은 다양한 플랫폼에도 서비스를 올릴 수 있는 방향으로 나아가야 한다. 클라우드 시장에서의 경험을 바탕으로 정부가 소버린 AI 전략을 수립할 때 피라미드형과 역피라미드형 접근을 함께 고려해야 한다. 공공 클라우드는 KT와 같은 국내 플랫폼에 기반을 두지만 서비스형 플랫폼(PaaS) 부족으로 서비스 개발이 제한적일 수 있다. 반면 아마존웹서비스(AWS)를 활용할 경우 더 빠르고 고급 서비스를 제공할 수 있다. 해외 진출 시에는 피라미드형 구조를 통해 응용 서비스 중심으로 확장성을 확보하고 국내에서는 역피라미드 형으로 생태계를 구성해 협력해야 한다. 이런 균형 잡힌 접근이 전략의 편향을 방지하고 성공적인 투자와 진출을 가능하게 할 것이다. 이승현 국장: 현재 국내 클라우드 시장은 외산 클라우드 서비스 제공자(CSP)가 80% 이상을 차지하고 네이버나 NHN클라우드 같은 국산 CSP는 20~30% 수준에 그친다. 서비스형 소프트웨어 (SaaS) 기업들은 해외 진출을 위해 글로벌 CSP를 기본으로 사용한다. 동시에 국내 CSP도 활용할 수 있도록 지원을 요청하고 있다. 그럼에도 국내 CSP는 아직 성장 단계에 있어 생태계 정립이 쉽지 않다. AI 생태계로 전환될 경우에도 비슷한 문제가 발생할 수 있다. 민간에서는 대부분 '챗GPT'와 같은 외산 API를 활용하는 상황에서 국내 AI 생태계를 구축하려면 더욱 체계적이고 포괄적인 접근이 필요하다. 소버린 AI를 논의하려면 생태계가 핵심인데 현재 국내 생태계는 아직 충분히 구성되지 않아 이에 대한 우려가 크다. 하정우 센터장: 네이버는 생태계를 통해 다양한 서비스를 제공하려 했지만 완결된 서비스가 아닌 생태계 중심의 전략이 충분히 구현되지 못한 상황이다. '챗GPT'와 같은 플랫폼에서도 성공적인 서드파티 애플리케이션이 많지 않은데 이는 아직 생태계가 초기 단계에 있기 때문이다. 네이버는 일정 수준 서비스를 구축한 후 플러그인을 통해 생태계를 확장했다. 다만 클라우드나 GPU와 같은 인프라 투자에서 비용 대비 수익(ROI) 부족으로 어려움을 겪고 있다. 특히 네이버클라우드 같은 플랫폼은 규모의 경제가 부족해 투자 효율성이 낮다. 이를 해결하기 위해 정부가 GPU 등 핵심 자원을 대량 구매해 마켓파워를 높이는 방식의 전략이 필요하다. 이는 특정 기업을 지원하기 위한 것이 아니라 전체 생태계 활성화를 위한 방향이다. 이승현 국장: 정부가 특정 기업을 지원하는 방식에는 세제 혜택과 투자 지원이 포함될 수 있다. 과거 효과적이었던 임시투자세액공제를 네이버에 확대 적용하는 상황을 가정해보자. 이 경우 문제가 될 수 있는 점은 네이버의 투자가 실제로 AI 분야에 집중됐는지 신뢰하고 검증할 필요가 있다는 점이다. 또 하나 더 큰 고민이 있는데 중소 및 중견 AI 기업에 대한 지원이 이뤄지지 않을 경우 형평성의 문제가 발생한다는 점이다. 김상배 교수: 기술, 안보, 외교가 긴밀히 연결된 현재의 국제정치 환경에서 소버린 AI 논의는 국가 전략적으로 중요한 주제다. 과거 국제정치가 30~40년 주기로 평화, 분쟁이 번갈아가 왔는데 지금은 강대국 간 갈등이 심화된 분쟁 국면에 있다. 미국과 중국의 대립은 우리에게 전략적 선택과 대응을 요구하며 이 과정에서 국가와 기업이 협력해야 할 시점이 온다고 본다. 역사적으로도 민족주의와 글로벌리즘의 논쟁은 반복됐다. 이러한 상황에서 우리 역시 한글 창제, 국한문 혼용 논쟁, 디지털 시대의 한글 도메인 운동 등 다양한 방향성을 보여왔듯 대응 전략이 시대적 상황에 따라 달라졌다. 현재의 글로벌 질서에서도 민족적 자산과 글로벌 협력을 조화롭게 활용해야 한다. AI와 같은 기술은 단순히 경제적 이익을 넘어 국가의 전략적 자산이 될 수 있다. 이를 활용하기 위해서는 네이버와 같은 기업이 프레임 경쟁에 갇히지 않도록 하고 국가가 적절한 방향성을 제시하며 기업과 공익적 목표를 공유해야 한다. 오혜연 교수: AI 기술은 안전하고 신뢰할 수 있는 방향으로 발전해야 한다. 외교나 안보 전략을 펼치자는 논의는 적절치 않다고 본다. 현재 AI 위원회에서 맡고 있는 신뢰 AI 분과의 목표도 기술의 안전성과 신뢰성을 확보하는 것이다. 기술 자체를 갈등의 도구로 삼는 접근은 맞지 않다. 다른 국가들이 기술을 통해 경쟁하고 싸우고 있다고 해서 우리도 같은 방식으로 대응해야 한다는 논리는 기술의 본질에 어긋난다. 정부가 소버린 AI와 같은 전략을 추진할 수 있고 기업을 지원할 수도 있지만 소버린 AI를 전면에 내세워 국가의 전략적 기조로 삼는 것은 신중해야 할 문제다. 기술은 갈등보다는 협력을 지향해야 한다. 이성엽 교수: 소버린 AI에 대한 비판은 크게 두 가지로 나뉜다. 첫째로 자국 데이터를 학습할 경우 편견이 생길 수 있다는 우려다. AI의 다양성을 고려하면 이는 선택의 문제로 해석할 수 있다. 일례로 사용자가 오픈AI나 네이버 AI 중 선택할 수 있다는 점에서 다양한 후보를 제공한다는 긍정적인 측면도 있다. 둘째로 대기업 지원 정책이라는 비판이다. 그런데 글로벌 시장에서 네이버와 같은 국내 대기업은 오히려 중소기업에 가깝다. 미국 정부가 구글을 지원하는 사례를 볼 때 국내 대기업 지원은 AI 산업 전체를 육성하는 차원에서 접근해야 한다. 이 과정에서 다양한 응용 서비스와 모델이 함께 성장할 수 있는 환경을 조성하는 것이 중요하다. 실제로 프랑스나 일본 정부는 소프트뱅크 등 자국 기업에 집중적인 투자를 하고 있다. 넷플릭스 사례처럼 글로벌 플랫폼 의존은 국내 제작자와 산업에 부정적 영향을 미칠 수 있다. 넷플릭스가 콘텐츠 제작비를 높이며 국내 제작사들을 하청화하는 것처럼 AI 분야에서도 해외 플랫폼 의존 문제가 발생할 수 있다. 따라서 자체 플랫폼을 구축하는 전략과 대기업 지원은 산업 생태계를 위해 반드시 필요한 요소다. 하정우 센터장: AI는 단순히 잘 만들 수 있느냐 없느냐의 문제가 아니라 반드시 만들어야 하는 기술이다. 예를 들어 소프트뱅크는 기술회사가 아니지만 AI를 활용해 성과를 내고 있다. 중요한 것은 AI를 전략적으로 활용할 수 있는 능력을 확보하는 것이다. 유사 시에 AI가 전략 자산으로 작동할 수 있도록 준비하는 것이 핵심이다. 이를 통해 정보 기반 대응 능력을 갖추는 것이 필요하며 이는 다른 국가들도 마찬가지다. AI 개발은 안보와 비슷한 맥락에서 반드시 있어야 할 자산으로 간주돼야 한다. 오혜연 교수: 현재 파운데이션 모델, 특히 LLM 계열에서 '챗GPT'나 '클로드' 같은 모델들이 두각을 나타내고 있지만 이들이 유일하거나 완벽한 모델이라고 보기는 어렵다. 기술적으로 평가 기준이 아직 불완전하기 때문에 이 모델들이 정말 가장 뛰어난지는 확신할 수 없다. 실제로 다양한 벤치마크를 통해 테스트해 보면 이들은 잘 작동하지만 여전히 초기 단계에 머물러 있다고 본다. 이에 따라 국내의 '엑사원', '하이퍼클로바' 같은 모델이나 소규모 모델들 역시 중요한 가능성을 가진다. 현재 AI 파운데이션 모델과 트랜스포머 기술이 중심이긴 하지만 오픈AI의 성공만으로 전부를 정의하기에는 한계가 많다. AI 기술은 여전히 많은 개선과 발전이 필요한 상황이다. 하정우 센터장: 소버린 AI는 파운데이션 모델의 중요성과 함께 등장한 개념이다. 특히 GPU와 데이터 거버넌스가 국가 주권과 연결되면서 주목받고 있다. 이 기술을 구축하려면 막대한 국가 예산이 필요하며 이는 단순한 기술 활용을 넘어 국가 역량과 데이터 주권 및 가치 재분배 문제와 직결된다. 파운데이션 모델에 대해 "그냥 가져다 쓰면 된다"는 의견도 있지만 우리는 국가 간 경쟁에서 이를 전략적 접근으로 접근해야 한다. 각국은 강점과 약점을 고려해 외국 자금을 활용하거나 특정 분야를 집중 육성해야 하는데 이는 기업이 감당할 수 없어 일정 부문 국가가 담당해야 할 영역이다. 한국은 AI 산업에서 불리한 위치에 있다. 대부분의 국가는 국가가 기반을 마련하고 기업이 경쟁에 나서는 구조를 갖췄지만 우리는 세제 혜택만으로 기업들이 홀로 경쟁해야 하는 상황이다. "왜 기업을 밀어주느냐"는 부정적 인식도 있지만 현재 AI 시장은 기업 중심으로 돌아갈 수밖에 없다는 점을 간과해서는 안 된다. 이성엽 교수: 한국은 소버린 AI와 관련해 다른 국가들과는 다른 태도를 보이고 있다. 미국과 영국을 비롯한 많은 국가가 국가 주도로 일부를 지원하고 조정하는 체계를 갖추고 있다. 한국에서는 소버린 AI 개념에 대해 다소 소극적인 태도를 보이는 듯하다. 이는 국가 차원의 AI 전략 수립에 제한을 줄 우려가 있다. 韓 AI 방향성, 산업 육성·규제 균형 필요…신뢰·안보 논의 필수 김상배 교수: 프레임이 잡혀 있는 방향성도 문제다. 현재 AI 산업 논의의 초점은 "AI 산업을 어떻게 육성할 것인가"보다는 "법을 어떻게 규제할 것인가"에 치우쳐 있다. 국회에 발의된 11개의 AI 관련 법안을 보면 대부분 규제에 초점을 맞추고 있다. 특히 EU의 AI 법안을 참고해 규범적 힘(Normative Power)을 강조하는 경향이 있다. 이와 반대로 미국이나 중국은 규제를 언급하면서도 실제로는 산업 육성에 초점을 맞추고 있다. 규제 프레임만이 아니라 AI 산업 육성도 집중해야 한다. 아직 AI 육성에 대한 논의가 부족한 상황에서 규제부터 선제적으로 도입하려는 시도는 적절하지 않다. 규제와 육성을 조화롭게 맞출 수 있는 전략적 프레임이 필요하다. 이승현 국장: AI 육성과 관련해 현재 공무원 시스템이 지닌 가장 큰 문제는 잦은 인사이동으로 인해 지속성 부재다. 외교부, 국정원, 과기정통부 등 AI 정책 유관 부처 공무원들이 1년마다 자리를 옮기기 때문이다. 다른 나라에서는 한 분야를 오랫동안 담당하며 전문성을 쌓는 공무원 시스템이 일반적이다. 국내에서는 이를 지원할 체계가 없어 AI 관련 부서에서도 동일한 문제가 발생한다. 과기정통부가 AI 정책을 추진하려 해도 1년 단위로 구성된 추진단이 제 역할을 다하기 어렵다. 또 입법부에서도 소버린 AI와 같은 중요한 주제가 논의돼도 의원들의 이해도와 필요에 따라 내용이 취사선택되는 경향이 있다. 김상배 교수: AI에 대한 이러한 근본적 이해 부족은 과거 조선의 서구 기술 복제 시도와 유사하다. 병인양요와 신미양요 당시 서구 무기와 배를 복제하려 했으나 과학적 원리와 재료 기술을 이해하지 못해 실패한 사례가 이를 보여준다. AI 분야에서 단순히 외형을 흉내 내는 접근은 한계가 있다. 국제정치학에서는 AI를 '핵무기에 버금가는 국제질서 변화의 원동력'으로 보거나 '문명사적 전환'으로 평가하지만 이를 근본적으로 이해하지 못한다면 AI가 가져올 충격에 효과적으로 대응할 수 없을 것이다. 이성엽 교수: 영국은 '친혁신적 AI 규제'를 통해 포괄적 규제 대신 기존 기관이 분야별로 AI를 규제하도록 했다. 최근에는 첨단 AI 시스템인 '프론티어 모델'을 겨냥한 규제를 발표했다. 이는 미국 빅테크 기업을 견제하려는 의도로 보이며 한국에도 시사점을 준다. 국내에서는 AI 규제를 법으로 해결하려는 경향이 강하고 특히 EU AI법의 '고위험 AI' 개념에 집중하는 경향이 있다. 그런데 전문가들은 이 개념을 모호하다고 지적한다. 규제 실효성을 떨어뜨리고 정의에만 몇 년이 소요될 수 있기 때문이다. 이에 따라 한국의 AI 기본법도 산업 육성과 국가 거버넌스를 포괄하는 방향으로 설계돼야 하며 고위험 논의에 치우치지 않고 규제와 육성을 균형 있게 다룰 필요가 있다. 김상배 교수: 국회의 법안 발의 과정은 구조적 한계가 있다. 해외 법안을 전적으로 참고해서 급속히 작성된 법안이 정치적 이슈와 얽혀 충분한 검토 없이 통과되는 경우가 있기 때문이다. 처음부터 정교하게 설계된 법안이었다면 이런 문제를 줄일 수 있었겠지만 현재 방식은 정책적으로도 큰 한계를 초래하고 있다. 하정우 센터장: 현재 AI 법안 제정과 관련해 '고위험 개념'은 시민단체 입장에서 위험성을 고려한 조치로 이해할 수 있지만 이를 판단하는 과정에는 전문가 중심의 체계적 검토가 필요하다. AI 위원회와 같은 전문가 집단이 고위험 여부를 세부적으로 검토하고 판단해야 하며 샌드박스 제도를 도입해 규제와 실험을 병행할 수 있는 환경을 조성해야 한다. 이승현 국장: AI 법안 마련 과정에서는 AI 위원회가 로펌 등에 용역을 의뢰해 중립적인 초안을 마련하고 이를 전문가와 함께 논의하며 수정하는 방식이 필요하다. 현재 시행령이나 시행규칙으로 문제를 처리하는 방식은 한계가 있으므로 보다 투명하고 책임 있는 구조를 마련해야 한다. 김상배 교수: AI 위원회가 논의를 표면적으로만 보고 '디지털 시대의 부국강병 정책'으로 단순화해서는 안될 것이다. AI를 단순히 자원으로 보고 양적인 투자만으로 문제를 해결하려는 접근은 한계가 있기 때문이다. 인프라를 구축하고 글로벌 거버넌스에 참여하려는 시도도 중요하지만 정세를 읽고 전략적 틈새를 공략하는 계획이 필요하다. 이성엽 교수: 개인정보 보호와 AI 산업이 충돌하는 사례 역시 글로벌한 문제다. 삭제권, 수정권, 최소화 원칙 등 보호 원칙들이 AI 기술과 갈등을 빚고 있으며 특히 EU의 일반데이터보호법(GDPR)은 이를 두드러지게 한다. 유럽은 규제와 산업 간 조화를 위해 변형과 조정을 시도하고 있지만 미국은 여전히 명확한 해결책을 마련하지 못하고 있다. 특히 한국은 글로벌 스탠다드와 다른 엄격한 규제와 복잡한 환경으로 인해 기업 경쟁력이 약화되고 있다. 개인정보 보호가 신성시되는 상황에서 정당한 이익 해석의 불명확성과 데이터 활용 제한이 주요 장애 요인이다. 이에 따라 AI 시대에 적합한 특례법을 통해 개인정보 보호와 AI 산업 간 균형을 맞추는 노력이 필요하다. 기존 법령은 유연성이 부족하고 샌드박스 방식은 한계가 있다. AI 위원회와 같은 기구가 장기적인 규제 조정의 중심 역할을 해야 한다. 오혜연 교수: 또 다른 문제는 AI에 대한 이해 부족이다. 국민들은 AI를 지나치게 부정적으로 인식하는 경향이 있다. 일부 극단적인 주장, 예를 들어 제프리 힌턴의 "AI로 인한 인류 멸망" 같은 발언이 이러한 인식을 부추기는 것으로 보인다. 부정적인 측면만 강조하며 차단하려는 접근은 바람직하지 않다. 오히려 AI를 신뢰할 수 있는 기술로 발전시키는 방안을 모색해야 한다. 그런데 현재 딥페이크와 같은 부정적 사례들에만 초점이 맞춰져 있어 안타깝다. 김상배 교수: AI는 전쟁에서도 거대한 함의를 가진다. 실제로 AI가 전쟁 지휘관을 보조하며 의사결정을 돕는 시스템은 현실화될 가능성이 높다. 다른 나라들이 이를 도입하는 상황에서 우리가 뒤처진다면 경쟁에서 밀릴 위험이 크다. 그런데 AI의 판단이 지휘관의 고유한 결정을 반박하거나, 판단 이유를 명확히 설명하지 못할 경우 책임 소재와 신뢰 문제가 발생할 수 있다. AI의 군사적 활용은 핵전략과 같은 중대한 논의와 연결된다. 버튼을 누르는 결정이 AI에 의해 이루어질 경우 해킹 우려, 자율적 판단, 기술 신뢰성 등 다층적인 문제가 수반된다. 미국과 중국이 핵전략 경쟁을 재점화하며 미사일 운반 수단의 스마트화를 진행 중인 상황에서 한국 역시 AI의 군사적 활용을 준비해야 한다. 북한조차도 AI 기술 도입을 모색할 가능성이 있는 만큼 AI의 군사적 활용은 피할 수 없는 흐름이다.

2024.11.25 08:00김미정

AI 사업 전략 갈린 韓 빅테크…"美 협업 vs 독자 개발 우선"

밀키트는 손질된 식재료와 양념을 알맞게 담은 간편식입니다. 누구나 밀키트만 있으면 별도 과정 없이 편리하게 맛있는 식사를 할 수 있습니다. [김미정의 SW키트]도 마찬가지입니다. 누구나 매일 쏟아지는 소프트웨어(SW) 기사를 [김미정의 SW키트]로 한눈에 볼 수 있습니다. SW 분야에서 가장 주목받는 인공지능(AI), 보안, 클라우드 이야기를 재밌고 맛있게 보도하겠습니다. [편집자주] 국내 빅테크가 생성형 인공지능(AI) 시장 점유율을 높이기 위해 비즈니스 전략 다각화에 나섰다. 미국 기업과 손잡고 AI 모델·서비스 고도화에 나서는 한편, 모델을 독자 개발하면서 이를 수출하는 분위기가 공존하고 있다. 30일 업계에 따르면 KT는 마이크로소프트와 한국형 GPT-4o와 경량형 모델 파이(Phi), 코파일럿을 공동 개발하기로 했다. 한국 문화와 산업에 최적화된 AI 모델을 만들어 이를 기반으로 한 서비스를 선보이기 위해서다. KT와 마이크로소프트가 공동 개발한 맞춤형 AI 모델은 KT의 고객 서비스 챗봇 등을 비롯해 기업간거래(B2B) 고객을 위한 산업별 특화 AI 솔루션 구축에 활용된다. 여기에 KT 자체 AI 모델 '믿음'까지 고도화해 고객 수요에 맞춰 활용할 방침이다. KT는 마이크로소프트의 AI 비서 코파일럿을 자사 서비스에 접목할 방침이다. 이를 통해 KT 이용자들은 코파일럿 기반 AI 검색과 개인화 서비스를 이용할 수 있다. 앞서 올해 2월 SK텔레콤도 미국 생성형 AI 스타트업 퍼플렉시티와 파트너십을 체결했다. 양사는 대화형 답변 엔진을 통해 검색 시장을 공략하기로 했다. SK텔레콤은 해당 파트너십 이후 SK텔레콤 AI 비서 서비스 '에이닷' 고도화에도 나선 바 있다. 네이버·LG AI연구원 "AI 모델·독자 개발…수출 우선" 네이버클라우드와 LG AI연구원은 내부적으로 생성형 AI 모델 고도화에 집중하고 있다. 해외 기업과 협력해 모델·서비스를 만드는 것보다 이를 자체 개발해 해외 시장에 수출하겠다는 전략이다. 네이버클라우드 관계자는 "앞으로도 하이퍼클로바X 성능 고도화를 자체 진행할 것"이라고 밝혔다. 이에 하이퍼클로바X 기반 서비스 클로바X 등도 내부에서 자체 업그레이드를 진행할 예정이다. 다만 네이버클라우드는 소버린AI 생태계 구축 목표로 해외 교류를 더 늘릴 것이라고 밝혔다. 최근 사우디 데이터AI청와 파트너십 체결한 것이 대표 사례다. 또 AI 반도체 관련 협력을 위해 해외 기업과 협력하고 있다는 점도 재차 강조했다. 올 상반기 인텔과 AI 칩 프로젝트로 소규모 수익을 창출한 점도 그 예다. LG AI연구원도 생성형 AI 모델과 서비스를 자체 개발하고 있다. LG AI연구원은 엑사원 2.0에 이어 8월 멀티모달 모델 '엑사원 3.0'을 오픈소스로 공개한 바 있다. 온디바이스 AI에 들어갈 초경량 모델부터 범용 목적의 경량 모델, 전문 분야에 특화되거나 깊이 있는 연구를 위한 고성능 모델까지 활용 목적에 맞춰 다양한 사이즈 라인업으로 구성된 모델이다. 이와 함께 기업 구성원의 생산성을 향상하고 전문가 수준의 인사이트를 제공하는 '챗엑사원'도 출시했다. LG AI연구원 관계자는 "엑사원 모델군도 LG AI연구원이 독자 개발해 국내외에 공급하고 있다"며 "외부 서비스는 LG유플러스, LG CNS 등 계열사와 협업하는 방식으로 진행 중"이라고 설명했다.

2024.09.30 15:11김미정

네이버클라우드, '하이퍼클로바X' 통해 건강관리 서비스 '혁신'

네이버클라우드가 자사 거대언어모델(LLM)을 통해 건강관리 서비스 혁신에 나섰다. 네이버클라우드는 KMI한국의학연구소·다나아데이터와 함께 '하이퍼클로바X' 기반 건강검진 결과안내 서비스 '에스크미(asKMI)'를 정식 출시했다고 23일 밝혔다. '에스크미'는 건강검진 수검자가 검진 결과를 보다 쉽게 이해·관리할 수 있게 하는 AI 서비스로, 네이버 '하이퍼클로바X(HyperCLOVA X)'를 활용해 다나아데이터가 개발했다. 이 서비스는 보건복지부의 비의료 건강관리 서비스 가이드라인을 준수해 의료 상담이나 조언은 제공하지 않으면서도 건강 관리에 도움을 주는 정보를 제공한다. 다나아데이터는 '에스크미' 개발을 위해 '하이퍼클로바X'를 선택한 이유로 서비스 개발의 편리함과 우수한 한국어 성능을 꼽았다. 할루시네이션을 줄여야 하는 의료 서비스 특성 상 네이버의 한국어 기반 거대언어모델 운영(LLMOps)·머신러닝 운영(MLOps) 기술이 정확하고 완성도 높은 답변에 기여하기 때문이다. 현재 '에스크미'는 챗봇 기반으로 건강검진 결과 해석·검사항목 설명·의료용어 해설 등의 기능을 제공하고 있다. 향후에는 사용자 질문 이력과 검사 결과를 바탕으로 필요한 검사, 맞춤형 건강 프로그램 등을 추천하는 서비스로 확대될 예정이다. 임태건 네이버클라우드 전무는 "최근 공동개발한 AI 법률 Q&A 서비스인 'AI 대륙아주'에 이어 다양한 분야에서 '하이퍼클로바X' 기반 서비스가 나오고 있다"며 "'하이퍼클로바X'가 우리의 생활과 밀접한 다양한 분야에서 혁신을 만들도록 파트너들과 협업을 확대해 나갈 것"이라고 강조했다.

2024.09.23 14:58조이환

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다. 일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다. 지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. AI특이점·AGI시대 올까…"과학적으로 개념화 어려워" - 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다. - 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다. -사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까. - 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다. 관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다. - 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다. 법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다. - 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다. 다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다. - 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다. 앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다. - 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다. 기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다. - 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다. "정부, AI 안전성·윤리 세분화 기준 마련해야…개발자도 논의에 참여해야" - 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까. - 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다. 법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다. 다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다. 다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다. - 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까. - 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다. - 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다. - 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다. - 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다. 현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다. - 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다. 앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다. 현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다. - 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다. 이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다. - 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다. 현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다. 또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다. 만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다. - 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다. - 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다. 이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다. - 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다. - 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다. - 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다. - 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다. - 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다. "국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야" - 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까. - 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다. 전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다. - 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다. - 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다. 아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다. "고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야" - 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다. 다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다. - 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다. 과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다. 정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다. - 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다. - 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다. 오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다. 오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다. - 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다. - 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다. - 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다. 결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다. 사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다 네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다. - 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.

2024.03.20 13:58김미정

기술 고도화 나선 韓 기업, 글로벌 AI 생태계서 생존 가능?

국내 기업이 생성형 인공지능(AI) 사업 다각화에 속도를 내고 있다. 자사 AI 서비스와 기술 적용 범위를 해외로 확장하기 위해서다. 3일 업계에 따르면 국내 빅테크를 비롯한 중소·중견 기업, 스타트업은 올해를 해외 진출 원년으로 삼고 있다. 지난해까지 생성형 AI 기술·제품 개발에 집중했다면, 올해 이를 고도화하고 해외로 확장할 방침이다. 자사 기술과 서비스에 자신감이 붙은 셈이다. 기업이 해외에서 성공적인 사업 확장을 이룰지는 미지수라는 의견도 있다. 현재 대기업조차 자사 AI 모델을 해외 서비스에 적용한 사례는 없다. 미국 기업과 차이 나는 기술, 자금력도 주요 이유다. 전문가들은 이를 극복하기 위해 기업과 정부의 공동 노력이 필요하다고 목소리를 내고 있다. 국내 빅테크, AI 기술·서비스로 해외 진출 '청신호' LG AI연구원은 초거대 멀티모달 모델 '엑사원2.0'의 전문성을 필두로 해외 진출을 본격화한다. 엑사원2.0은 전문 분야에 특화된 모델이다. 단순 범용 데이터뿐 아니라 전문 분야 데이터까지 학습했기 때문이다. 이 모델은 전문 문헌 4천500만 건과 이미지 3억5천600만 장을 학습했다. 한국어와 영어도 동시에 이해할 수 있다. 주로 의료, 법률, SW 등 전문 분야에서 활동한다. 지난해 LG전자 AI컨택센터, LG생활건강 K-뷰티 제품 디자인 등에 엑사원2.0이 들어선 상태다. LG AI연구원 측은 올해 엑사원2.0이 국내뿐 아니라 해외 전문 산업서도 승산 있을 것으로 보고 있다. LG AI연구원 김유철 X유닛 부문장은 "올해 바이오를 비롯한 금융, 특허, 학술, 공공, SW 개발, 제조 관련한 해외 파트너사들과 협력해 엑사원 활용 사례를 늘릴 것"이라고 밝혔다. 네이버도 올해 '소버린 AI'로 해외 진출을 본격화한다. 소버린AI는 각국이 글로벌 빅테크에 종속되지 않고 완전한 데이터 주권을 갖기 위해 자국 언어와 문화에 맞는 LLM을 구축하도록 돕는 시스템을 의미한다. 네이버는 소버린AI 시스템 구축 기술로 해외 시장을 공략할 방침이다. 네이버 클라우드 성낙호 하이퍼스케일AI 기술 총괄은 "이미 한국과 일본에서 생성형 AI 서비스를 구축한 적 있다"며 "'하이퍼클로바X'를 통해 각 국가 언어와 문화에 맞는 LLM을 빠르게 구축할 수 있을 것"이라고 밝혔다. 소버린AI로 해당 국가 중요 데이터 유출을 방지하면서도 LLM을 서비스할 수 있는 솔루션도 제공할 계획이다. 이 외에도 '클로바 스튜디오' '뉴로클라우드' 기능을 확대하고 국내외 파트너 대상으로 일상에서 적용할 수 있는 생성형 AI 도구를 추가 개발한다고 덧붙였다. KT는 자사 LLM '믿음'으로 해외 진출을 지난해 말 본격화했다. 지난해 10월 KT는 태국 정보통신기업 자스민그룹과 손잡고 믿음을 활용한 태국어 LLM을 구축하기로 했다. KT는 올해 상반기 자스민그룹 자회사 자스텔의 신규 데이터센터에 GPU 팜을 구축한 뒤 하반기부터 태국어 전용 LLM을 만들기 시작한다. AI 스타트업 "국내는 좁다…해외서도 자신 있어" AI 스타트업도 해외 진출에 속도를 낸다. 지난해 AI 제품 개발에 집중하며 국내 시장에 주로 머물렀다면, 올해는 제품을 고도화하고 해외로 영향력을 넓힐 계획이다. 기존 해외 진출을 추진하던 기업도 올해 시장 점유율을 더 늘리는 것을 목표로 뒀다. 포티투마루는 지난해 6월 영국서 출시한 '사이트버니'로 해외 고객 유치에 나섰다. 사이트버니는 기업용 커뮤니케이션 채널 플랫폼으로 서비스형 소프트웨어(SaaS)로 제공된다. 이 기업이 처음으로 해외 고객을 겨냥한 제품을 내놓은 셈이다. 사이트버니는 자사 질의응답 엔진을 통해 답변한다. 김동환 포티투마루 대표는 "올해부터 AI와 분야별 융합이 본격 시작될 것으로 보인다"며 "스타트업들에게도 돈 버는 AI의 원년일 것"이라고 말했다. 뤼튼테크놀로지스는 지난해 일본에 이어 올해 중동과 동남아 지역에 진출한다. '뤼튼 2.0' 플랫폼을 각 나라 특성에 맞게 전환한 후 고객 유치에 나설 예정이다. 뤼튼은 현재 자사 플랫폼을 국내·일본 고객에게 무료로 제공하고 있다. 중동, 동남아 시장에도 무료로 개방할 계획이다. 이세영 뤼튼테크놀로지스 대표는 "지난해 일본판 뤼튼 플랫폼을 구축한 경험이 있는 만큼 올해 중동과 동남아 시장 공략에 자신있다"고 강조했다. 이 외에도 올거나이즈, 플리토 등도 자사 생성형 AI 서비스로 해외 시장에 영향력을 확대한다고 밝혔다. "美 빅테크 이길 순 없어…자본·기술력 부족" 국내 기업들이 올해를 해외 진출 원년으로 삼지만 성공적인 사업 확장을 이룰지는 미지수다. 현재 국내 빅테크 조차 생성형 AI 모델과 서비스로 해외서 눈에 띄는 성과를 얻지 못했기 때문이다. 최근 네이버가 해외 진출에 속도를 내겠다고 재차 발표했으나 하이퍼클로바X를 해외 서비스에 구축한 사례는 없다. 네이버가 지난해 10월 사우디아라비아 자치행정주택부로부터 디지털 플랫폼 구축 사업을 수주하긴 했다. 그러나 자사 AI 기술이 들어갈 뿐 하이퍼클로바X를 이 사업에 직접 활용하는 건 아니다. 국내 기업의 AI 기술력이 부족한 것도 주요 이유다. 현재 미국 기업들은 올해 LLM을 넘어 멀티모달 생태계를 본격화한 상황이다. 오픈AI는 지난달 텍스트로 이미지를 생성하는 '소라'를 공개했다. 구글도 멀티모달 모델 '제미나이 1.5' 버전과 소형 모델 '젬마'를 출시했다. 국내 기업들도 멀티모달 기술과 서비스를 내놓고는 있다. 그러나 오픈AI의 소라나 구글 제미나이1.5보다 경쟁력 있을지도 미지수다. 업계 관계자는 "국내 AI 기업이 내놓은 멀티모달 모델은 기존 이미지를 편집하거나 단순 흥미용 영상 생성하는 것에 그친다"고 말했다. 이어 "구글은 AI 기술에만 매년 조단위로 투자한다"며 "이런 생태계에서 국내 기업이 해외 기술을 당장 따라잡긴 힘들 것"이라고 설명했다. 국내 AI 기술이 글로벌 생태계서 살아남으려면 정부의 AI 규제보다 지원이 우선이라는 목소리가 나오고 있다. 정부가 AI의 부정적 활용을 방지하기 위해 규제를 엄격히 제한하는 것보다 일단 AI 기술이 커야 한다는 이유에서다. 김진형 카이스트 명예교수는 최근 본지와 진행한 좌담회서 "기업의 힘만으로 AI 기술을 키울 순 없다"며 "정부는 기업들에 자유로운 AI 개발 환경을 주면서 물심양면으로 지원해야 할 것"이라고 강조했다.

2024.03.03 07:00김미정

AI가 영상 만드는 시대 왔다…"컴퓨팅 파워·수익 모델 마련해야"

오픈AI가 영상을 생성하는 인공지능(AI) 모델 '소라'를 공개한 가운데, AI 영상 생성 서비스 상용화에 대한 여러 전망이 나왔다. 국내 업계 관계자들은 영상을 생성할 때 드는 컴퓨팅 인프라 수급 문제부터 해결해야 한다고 주장했다. 모델 수익화 방안도 마련해야 하고, 데이터 학습 방식도 주요 고려사항으로 보고 있다. 오픈AI는 지난 15일 문자를 입력하면 고화질 영상을 생성하는 모델 소라를 홈페이지를 통해 공개했다. 현재 내부 개발팀을 비롯한 소수 영상 편집가, 아티스트, 기업인들에게 공급된 상태다. 사용자 피드백을 통해 기술을 검증한 후 서비스를 출시할 방침이다. 출시 일정은 미정이다. "컴퓨팅 인프라 수요 감당해야…모델 수익화 방안도" 국내 전문가들은 영상모델을 통한 비즈니스가 활성화하려면 아직 멀었다고 입을 모았다. 우선 서비스 구동에 필요한 컴퓨팅 인프라 수급부터 해결해야 한다고 강조했다. AI 영상 생성 서비스의 상용화가 본격화하면 이를 구동하는 그래픽처리장치(GPU) 등 컴퓨팅 인프라 수요가 더 높아질 것으로 보인다는 이유에서다. 업계 관계자는 "언어모델보다 이미지·영상모델 구동에 더 많은 컴퓨팅 파워가 든다"고 했다. 단순 GPU 확보를 넘어 영상 생성 서비스를 비용 효율적으로 운영하기 위한 기술 개발도 본격화할 전망이다. 네이버 관계자는 "AI 모델 압축과 경량화를 돕는 AI 칩 필요성이 더욱 커질 것"이라며 "네이버가 삼성전자와 손잡고 AI 반도체 솔루션을 공동 개발하고 있는 이유"라고 본지에 전했다. 영상모델을 통한 수익화 마련도 구체적이지 않다. 한 업계 관계자는 "오픈AI가 챗GPT를 운영하는 데 드는 컴퓨팅 인프라 비용만 하루 70만 달러(약 9억3천만원)"라며 "이보다 더 무거운 영상모델을 서비스하려면 몇 배 더 높은 운영 비용을 감당해야 할 것"이라고 설명했다. 단순히 API나 구독형으로 기업들에 제공하다간 적자가 불가피할 것이란 분석이다. 현재 AI 기업들은 범용 LLM 개발·운영에 드는 비용을 줄이기 위해 소형언어모델(SLM)을 개발하는 추세다. 범용 LLM에 자사 데이터를 넣어 파인튜닝 하는 방식도 진행하고 있다. 전문가들은 영상 생성 모델에도 동일한 방식을 적용했다간 낭패라는 입장이다. 한국어 LLM을 보유한 한 기업 관계자는 "LLM과 달리 영상모델은 기술적으로 경량화하기 힘들다"며 "모델 경량화는 퀄리티 낮은 영상을 생성할 수 있다"고 지적했다. 영상모델, 언어모델보다 3배 많은 데이터 필요 영상모델의 훈련 데이터양도 중요하다는 지적도 있다. AI 모델이 영화, 광고 등 산업에서 활용 가능할 정도로 수준 높은 이미지를 생성하기 위해선 이미지 데이터를 대량으로 학습해야 해서다. 3D 설계용 AI 모델을 개발 중인 다쏘시스템의 수칫 제인 솔리드웍스·3D익스피리언스 웍스 전략 및 비즈니스 개발 부사장은 "일반적으로 언어모델을 학습시키는 것보다 영상모델 학습시키는 데 3배 더 많은 데이터양과 시간이 걸린다"고 기자에 전한 바 있다. 이미지 데이터에 스며든 사실 왜곡, 혐오 콘텐츠, 편향 등도 제거 해야 한다. 생성 결과물이 비윤리적이거나 편향된 경우 논란을 피할 수 없기 때문이다. 이에 오픈AI는 이미지 데이터 문제 해소를 위한 안전 조치를 취할 예정이라고 홈페이지를 통해 밝힌 바 있다. 영상에 등장할 수 있는 왜곡, 혐오 등의 기술적인 제거를 목표로 뒀다. 오픈AI는 "현재 사내 레드팀이 소라에 적대적 모델 테스트를 진행 중"이라며 "소라로 만든 영상을 분류할 수 있는 소프트웨어 도구도 개발하고 있다"고 설명했다.

2024.02.20 17:31김미정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

게임, '중독·규제' 프레임 탈피 절실…"질병코드 등재 막아야"

"최대 600만원 할인해도 안 팔려"…현대차, 전기차 생산 또 멈춘다

SK하이닉스 부스 찾은 젠슨 황 "GO SK! 넘버원" 찬사 연발

유심 부족 사태, e심은 왜 제 역할 못했나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현