• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'생성 AI'통합검색 결과 입니다. (867건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'챗GPT' 등장에 대학 문화도 달라졌다…韓·英 대응 차이 '극명'

지난 2022년 11월 '챗GPT'가 등장한 이후 생성 인공지능(AI) 기술이 급격히 발전하면서 대학 교육 현장 역시 큰 변화를 맞이하고 있다. 국내 대학들은 이에 대한 명확한 대응책을 마련하지 않아 회색지대가 넓어지는 분위기다. 반면 영국의 일부 명문 대학들은 강경한 금지 조치를 취하고 있지만 학생들의 반발에 직면해 정책 변화를 검토하고 있다. 23일 업계에 따르면 현재 국내 대부분의 대학은 아직 생성형 AI에 대한 공식적인 정책을 마련하지 않은 것으로 알려졌다. 일부 대학은 생성형 AI 활용에 대한 공식적인 지침을 제공하고 있다. 일례로 성균관대학교는 생성형 AI를 무단으로 활용할 경우 불이익을 줄 수 있다고 명시했다. 연세대학교는 올해 초 '생성형 AI 사용 가이드라인'을 마련해 학생들에게 안내하고 있다. 그럼에도 불구하고 이는 전체 대학 중 소수에 불과한 것으로 분석된다. 많은 대학에서는 생성 AI의 활용에 대해 교수별로 해석과 적용이 달라 학생들이 혼란을 겪고 있는 것으로 알려졌다. 어떤 교수는 사용을 금지하고 어떤 교수는 허용하되 출처를 명시하도록 요구하기 때문이다. 이로 인해 학생들은 어떤 기준을 따라야 할지 어려움을 느끼고 있다. 경남의 한 대학에 재학 중인 Y모 군은 "학교에서 생성 AI에 대한 공식적인 정책은 없는 것 같다"며 "교수마다 지침이 달라 어떤 교수는 사용이 의심된다면 F를 주고 어떤 교수는 전면 허용한다"고 말했다. 그러면서 "학생 입장에서는 편리하기 때문에 사용하지만 걸리면 학점에 불이익을 받을 수 있어 불안하다"고 토로했다. 서울 소재 대학을 올해 졸업한 K모 씨도 비슷한 의견을 전했다. 그가 교수들로부터 전해들은 바에 따르면 많은 학생들은 현재 '챗GPT', '클로드' 등 여러 모델을 동시에 사용하는 식으로 여러 번 덧씌우는 과정으로 과제를 수행한다. 그는 "교직원들이 사실상 이런 AI 도구들을 통해 작성된 레포트를 감지하는 건 거의 불가능하다는 것을 인정하는 추세"라며 "AI를 활용해 작성한 과제를 감지하는 것도 현실적으로 어려워 레포트 과제가 줄고 시험 위주의 평가로 바뀌는 것 같다"고 밝혔다. 이와 달리 영국 명문 대학 중 상당수는 생성 AI 사용에 대해 강경한 금지 조치를 취하고 있는 것으로 알려졌다. 실제로 런던정경대(LSE)는 올해 초 AI 도구의 사용을 명확히 금지하고 이를 어길 경우 0점을 부여하겠다고 밝힌 바 있다. 이러한 조치에 대해 영국 현지에서 학생들의 불만이 커지고 있다. 런던정경대 석사과정에 재학 중인 T모 씨는 "AI 탐지 도구의 정확도가 떨어져 논리적이고 정합적인 문장을 모두 기계가 작성한 것으로 간주해버린다"며 "이런 상황에서 학생들은 좋은 글을 쓰려는 의욕을 잃게 된다"고 비판했다. 옥스퍼드 대학도 비슷한 입장이다. 학교 측은 "시험이나 제출 과제에서 허가되지 않은 AI 사용은 심각한 징계 대상"이라며 "AI 사용이 허가된 경우에도 표절 규정이 적용되며 AI 사용 내역을 명확히 밝혀야 한다"고 공지한 바 있다. 이에 옥스퍼드 대학 박사과정에 있는 R모 씨는 "AI를 금지하는 것은 시대착오적인 조치"라며 "AI를 막기보다는 창의적 사고를 촉진하는 도구로 활용할 수 있도록 해야 한다"고 주장했다. 이러한 학생들의 반발로 인해 일부 영국 대학들은 정책 변화를 검토하고 있다. 실제로 런던정경대는 오는 9월부터 AI 사용을 허용하는 방향으로 정책 전환을 추진 중인 것으로 알려졌다. 전문가들은 생성 AI의 활용이 불가피한 시대에 대학들이 명확한 정책을 마련해야 한다고 지적한다. 생성 AI 기술은 이미 교육과 연구 현장에서 광범위하게 활용되고 있으며 이를 단순히 금지하는 것은 현실적이지 않다는 것이다. 익명을 요청한 한 영국 대학 관계자는 "생성 AI 기술이 교육 보조 도구로서 큰 잠재력을 지니고 있으며 생산성 향상에 도움이 된다는 점을 모두가 알고 있다"며 "'방안에 코끼리가 들어선 것(Elephant in the room)'처럼 명확한 현실을 아무도 얘길 안 하는 상황을 극복해 AI를 허용하는 방향으로 가야 한다"고 말했다. 그러면서 "물론 학생들이 학문적 정직성을 지킬 수 있도록 대학 차원의 가이드라인이 필요하다"고 강조했다.

2024.09.23 17:49조이환

콕스웨이브가 제시한 성공적 AI 제품 조건은?

콕스웨이브가 성공적인 생성형 인공지능(AI) 제품을 위한 조건을 기획 의도와 정확한 구현, 사용자 니즈 달성, 지속적인 제품 가치 향상으로 꼽았다. 콕스웨이브는 지난 20일 패스트캠퍼스가 서울 코엑스에서 개최한 '2024 젠콘 AI 컨퍼런스 포 데브(2024 Gencon)' 연사로 참가했다고 23일 밝혔다. 이날 콕스웨이브 이엽 제품 팀장은 '생성형 AI 시대에서의 기회와 적응 전략' 주제로 발표했다. 이 팀장은 급성장하는 생성형 AI 시장에서 경쟁력 확보 핵심은 사용자 선택을 받을 수 있는 좋은 제품을 개발하는 것이라고 강조했다. 이 팀장은 제품 개발 경험과 국내외 기업과 협업에서 얻은 인사이트 바탕으로 성공적인 생성형 AI 제품은 ▲기획 의도의 정확한 구현 ▲사용자 니즈 달성 지원 ▲지속적인 제품 가치 향상이라는 3가지 조건을 실현해야 된다고 주장했다. 이어 그는 생성형 AI 기반 대화형 제품 분석 플랫폼 '얼라인 AI' 사례를 통해 좋은 생성형 AI 제품 조건을 달성하기 위해 필요한 고려사항을 제안했다. 이 팀장은 ▲AI 결과물 보장을 위한 시스템 구축 ▲사용자 친화적 인터페이스 설계 ▲유의미한 피드백 수집 및 분석 체계 확립 ▲개인화된 사용자 경험 설계 및 구현 ▲AI 네이티브 사고 강화를 기획자가 고민해야 할 관점을 꼽았다. 이런 요소가 생성형 AI 제품 품질과 경쟁력을 결정짓는다고 강조했다. '2024 젠콘'은 패스트캠퍼스가 국내 생성형 AI 인사이트 확장을 위해 주최하는 AI 컨퍼런스다. 엔비디아와 마이크로소프트, 허깅페이스, 깃허브 등 AI 산업 최전선에 있는 12개 글로벌 기업 소속 IT 전문가들이 연사로 나서 AI에 대한 최신 기술 트렌드, AI 투자 동향, AI 기술의 상품화 및 적용 과정에서의 어려움 등 관련 논의가 이뤄졌다. 콕스웨이브는 '2024 젠콘'의 파트너 기업으로 연사 참가 및 AI 기술 산업의 미래 인사이트를 제공했다. 이번 행사에는 AI 개발자, 스타트업 및 투자사 등 약 1천 명이 참석했다. 이 팀장은 "다양한 AI 제품을 직접 사용해 AI-네이티브적인 사고로 접근해야 새 시장 기회를 창출할 수 있다"며 "앞으로 사용자 기대에 부응하는 서비스 가치를 제공하기 위해 제품 개선과 고도화에 힘쓰겠다"고 밝혔다.

2024.09.23 10:40김미정

금융권 새로운 위협 '생성형 AI·딥페이크'

인공지능(AI) 기술을 활용한 금융사기 피해가 금융권의 새로운 위협 요인이 될 것이란 전망이 제시됐다. 22일 한국딜로이트그룹은 '딜로이트 글로벌 금융서비스 산업 트렌드'를 통해 생성형AI와 딥페이크로 인한 금융사기 피해가 점차 커질 것이라고 관측했다. 보고서에 따르면 미국 내 생성형AI 기반 금융사기 피해액은 지난해 123억 달러(약 16조3천750억원)이었지만, 이는 지속적으로 증가해 2027년 400억 달러(약 53조2천520억원)로 연평균 32% 확대된다. 특히 생성형AI를 통한 사기행위 유형과 범위는 과거 범죄 유형을 뛰어넘을 가능성이 높다. 딥페이크 영상과 음성, 문서를 만들기 더욱 쉬워진데다가 사기행위에 이용할 수 있는 소프트웨어를 사고파는 다크 웹(dark web) 시장도 활개를 치고 있는 상황이다. 생성형AI를 이용 시 이메일 피싱을 통한 금융사기도 손쉬워 진다고 보고서는 지적했다. 미국 연방수사국에 따르면 2022년 기준 이메일 피싱으로 인한 피해액은 약 27억 달러(약 3조5천900억원)이었지만 생성형AI를 통한 이메일 피싱 피해 규모는 2027년 115억 달러(약 15조3천억원)으로 325%가량 폭증할 것으로 내다봤다. 외부 기술 기업과의 협력 등을 통해 AI 기반 사기행위를 막아야 한다는 주장에 힘이 실린다. 미국 재무부는 "기존 리스크 관리 체제는 첨단 AI기술을 관리하기에 적절하지 않다"고 지적한 바 있다. 일부 은행들은 AI를 활용해 사기행위를 감지하고 담당 팀에 조사 결과를 전송하는 프로세스를 자동화하고 있다. JP모건(JPMorgan) 등 일부 은행들은 이미 대규모 언어모델(LLM)을 도입해 이메일 탈취 행위 등에 대응하고 있다. 마스터카드는 의사결정지능(Decision Intelligence) 툴을 개발해 수 조개의 데이터 포인트를 스캔, 거래행위의 진위를 파악하는 방식으로 사기행위를 방지하고 있다. 딜로이트 그룹 측은 "은행들은 생성형AI 기반 사기에 대한 대응책 마련에 초점을 맞춰야 경쟁력을 유지할 수 있다"며 "새로운 금융사기의 시대에 발맞춰 조직 전체의 전략, 거버넌스, 자원 활용 방식 등도 재편할 필요가 있다"고 조언했다.

2024.09.22 16:00손희연

中 알리바바 "초거대 모델 성능 메타 추월"

중국 알리바바가 생성형 인공지능(AI) 초거대 모델 신규 시리즈를 공개하면서 미국 메타의 모델을 뛰어넘었다고 강조했다. 19일 중국 언론 IT즈자에 따르면 알리바바클라우드의 저우징런 CTO는 "퉁이쳰원의 신규 오픈소스 모델 '큐원 2.5' 중 큐원 2.5-72B 모델의 성능이 메타의 '라마 405B' 성능을 뛰어넘었다"고 밝혔다. 이날 알리바바는 지난 9월 중순 기준 퉁이쳰원 오픈소스 모델의 누적 다운로드 수가 4천 만 건을 넘어서, 메타의 라마에 이어 세계적 수준의 모델 그룹이 됐다고도 공식적으로 밝혔다. 큐원 시리즈 파생 모델 총 수량이 5만 개를 넘어서면서 라마에 이어 세계 2위의 모델군이 됐다. 큐원 2.5는 이날 알리바바클라우드가 '2024 압사라 컨퍼런스'에서 발표한 모델이다. 큐원2.5-72B가 주력 모델이다. 72B는 매개 변수 숫자를 의미하며, 720억 개의 매개 변수를 지원한단 의미다. 큐원 2.5는 대규모 언어 모델, 멀티 모달 모델, 디지털 모델, 코딩 모델 등이 크기와 버전 별로 총 100여 개 포함돼있다. 데이터 관점에서 봤을 때, 모든 큐원2.5 시리즈 모델은 18T 토큰 데이터로 사전훈련돼있으며, 기존 큐원2와 비교해 전반적 성능이 18% 이상 향상됐다. 컨텍스트는 8K~128K(약 8천~12만8천 개 토큰) 길이로 생성할 수 있으며, 챗봇 작업도 구현한다. 큐원 2.5는 특히 명령 따르기, 이해 구조화 데이터, 구조화 데이터 출력 생성 등에서 상당한 진전을 이뤘다고 소개됐다. 또 코딩용 '큐원2.5-코더'와 수학용 '큐원2.5-매스'가 전 세대에 비해 눈에 띄게 발전했다. 큐원2.5-코더는 프로그래밍 관련 데이터 최대 5.5T 토큰 훈련을 받았으며, 큐원2.5-매스는 중국어와 영어로 된 이중 언어 수학 문제를 풀기 위해 사고 체인과 툴통합추론(TIR) 사용을 지원한다.

2024.09.20 08:43유효정

딥페이크 범죄 '급증'…글로벌 테크 기업 대응 나섰다

최근 딥페이크 성범죄와 허위 뉴스 영상 제작이 급격히 증가하면서 이를 탐지·대응하는 기술이 주목받고 있다. 국내외에서 딥페이크 범죄가 사회적 문제로 떠오르자 관련 기업들의 움직임에 대한 시장 기대감이 높아지고 있다. 19일 업계에 따르면 경찰은 올해 500건 넘는 딥페이크 사건을 수사 중이며 특히 10대들이 연루된 사례가 급증하고 있다. 국내외 가해자들은 텔레그램 등 익명성이 보장된 플랫폼을 통해 음란물을 유포하고 있으며 주로 여성인 피해자들이 심각한 피해를 입고 있다. 해외에서도 상황은 심각하다. 유로뉴스에 따르면 유럽에서 제작된 딥페이크 영상 96%가 여성과 청소년을 대상으로 한 음란물이다. 미국에서는 최근 스칼렛 요한슨과 테일러 스위프트 등 유명인들이 딥페이크 포르노의 피해자가 되기도 했다. 딥페이크 음란물뿐만 아니라 가짜뉴스로 인한 문제도 부각되고 있다. 정치인이나 공공 인물의 발언을 조작하거나 허위 정보를 담은 영상을 제작해 유포하는 사례가 증가하고 있기 때문이다. 지난 2022년 국내 지방 선거 당시 윤석열 대통령이 특정 후보를 지지하는 딥페이크 영상이 퍼져 큰 논란이 된 바 있다. 이와 관련해 딥페이크 선거 사용 방지법이 지난 1월 통과됐지만 해외에서는 딥페이크를 통한 가짜뉴스 남용이 여전히 큰 문제가 되고 있다. 이런 상황에서 딥페이크 탐지 기술에 대한 수요가 급증하고 있다. 글로벌 시장조사업체 마켓앤마켓에 따르면 글로벌 딥페이크 탐지 시장은 지난 2022년 5억 달러(한화 6천500억원)였지만 오는 2027년에는 18억 달러(한화 2조3천400억원) 규모로 성장할 것으로 예상된다. 이미 마이크로소프트는 지난 2020년 AI와 머신러닝을 결합한 '비디오 인증기(Video Authenticator)'를 공개한 바 있다. 이 도구는 사진이나 비디오를 분석해 미디어가 조작되었을 가능성을 백분율로 나타내는 신뢰도 점수를 제공한다. 특히 실시간으로 동영상을 프레임 단위로 분석해 각 프레임에서 조작 가능성을 보여준다. 미국뿐 아니라 유럽 스타트업들도 이에 가세했다. 그 중 에스토니아의 센티넬 AI는 클라우드 기반 솔루션을 통한 실시간 딥페이크 탐지를 제공하는 것으로 알려졌다. 이 회사는 얼굴 랜드마크 분석과 시간적 일관성 등을 활용해 딥페이크를 식별한다. 특히 최근 딥페이크 탐지 경연대회에서 135만 달러의 상금을 획득하며 기술력을 인정받았다. 요하네스 타메캔드 센티넬 AI 대표는 자사 제품을 소개하며 "우리는 잘못된 디지털 기술의 활용이 민주주의에 가장 큰 위협 중 하나라는 것을 잘 알고 있다"며 "사회가 잘못된 정보에 빠지는 것을 막기 위해 최선을 다할 것"이라고 밝혔다. 네덜란드의 센시티 AI도 실시간 딥페이크 탐지 플랫폼을 제공하고 있다. 이 회사는 얼굴 조작, 음성 합성, 전신 조작 등 다양한 유형의 딥페이크를 식별하며 인공지능(AI) 기반 분석으로 조작된 미디어의 출처를 추적한다. 조르지오 파트리니 센시티 AI 대표는 "딥페이크 기술의 발전 속도가 매우 빠르기 때문에 우리의 탐지 시스템도 지속적으로 진화해야 한다"며 "디지털 미디어 생태계의 신뢰성을 유지하는 것이 우리의 목표"라고 말했다. 이렇게 유럽에서 딥페이크 탐지 기술이 발전한 것은 민주주의와 인권이 딥페이크 위협에 직접적으로 노출되었기 때문이라고 전문가들은 지적한다. 개인정보 보호를 중요시하는 유럽의 규제 환경이 딥페이크 기술 오용에 대한 경각심을 높였다는 것이 이들의 분석이다. 국내에서도 다양한 테크 기업들이 딥페이크의 폐해를 예방하기 위해 노력을 기울이고 있다. 특히 라온시큐어는 올 하반기에 개인이 쉽게 딥페이크 여부를 체크할 수 있는 탐지 서비스를 자사의 개인용 모바일 백신 애플리케이션에 탑재할 계획이다. 라온시큐어의 딥페이크 탐지 기술은 합성된 얼굴과 정상 얼굴을 각각 학습해 이를 상호 비교 분류할 수 있도록 AI를 학습시킨다. 이미지부터 동영상, 안면 추출, 주파수 계열 변환 등 다양한 기술을 적용해 생성형 AI의 특징을 탐지한다. 이때 딥페이크 탐지 정확도를 높이기 위해 여러 모델을 동시에 사용한다. 특정 학습 유형에 맞춰 설계된 각각의 모델이 따로 존재하기 때문에 한 가지 모델에 의존했을 때 발생하는 탐지 정확도 저하를 방지할 수 있다. 이를 통해 얼굴의 부자연스러운 형태· 움직임·오디오 등을 종합적으로 분석해 더욱 정교한 탐지가 가능할 것으로 전망된다. 박현우 라온시큐어 AI연구센터장은 "딥페이크가 보편 기술이 돼 이를 악용한 범죄가 퍼지는 와중에 간편하게 딥페이크 여부를 탐지할 수 있는 기술도 보편화돼야 한다"며 "자사 보안 앱인 '라온 모바일 시큐리티'에 딥페이크 탐지 기능을 탑재하는 등 모든 개인들을 위한 잠재적 피해 예방에 매진하겠다"고 강조했다. 딥브레인AI도 '딥페이크 탐지 솔루션'을 개발해 주목받고 있다. '딥페이크 탐지 솔루션'은 사진의 경우 12분, 짧은 영상은 57분 내에 딥페이크 여부를 판별할 수 있다. 이미지와 비디오를 픽셀 단위로 분석하고 음성은 주파수, 시간, 노이즈 등 다양한 요소를 종합적으로 고려해 탐지하는 것으로 알려졌다. 이렇게 국내 기업들이 약진하는 가운데 딥페이크 방지 기술의 개발만으로 실제 범죄를 완전히 막기에는 한계가 있다는 지적도 나온다. AI 기술이 기하급수적으로 발전하고 있기 때문이다. 익명을 요청한 국내 AI 기업 관계자는 "딥페이크 기술은 계속해서 발전하고 있어 탐지 기술만으로는 완벽한 대응이 어렵다"며 "기술의 오용을 막기 위한 사회적 합의와 강력한 처벌 등이 병행돼야 한다"고 강조했다.

2024.09.19 17:40조이환

금융권 노린 네이버클라우드, '하이퍼클로바X' 소형 LLM 구축 박차

네이버클라우드가 금융권의 보안 우려를 해소하면서도 생성 AI를 안전하게 도입할 방안을 제시했다. 네이버클라우드는 자체적으로 개발한 거대언어모델(LLM)의 경량화 버전인 '하이퍼클로바X 대시'를 기반으로 금융권 전용 소형언어모델(sLLM)을 구축했다고 19일 밝혔다. 이 모델은 미래에셋증권의 온프레미스 환경에 최초로 적용된다. 앞서 네이버클라우드는 보안 이슈로 인해 생성 AI 도입을 부담스러워하는 공공·금융 분야 기업들을 위한 LLM 구축 사업을 시작한 바 있다. 미래에셋증권과의 협력은 기업이 온프레미스 환경에서 생성 AI를 활용하도록 네이버클라우드가 지원하는 첫 사례다. 네이버클라우드는 '하이퍼클로바X 대시' 외에도 미래에셋증권이 데이터를 학습시키도록 클래스 코드와 기술 지원을 제공했다. 미래에셋증권은 이를 기반으로 사내 데이터를 훈련시켜 금융 업무에 최적화된 sLLM을 구축했다. 미래에셋증권 관계자는 "금융 규제를 준수하면서도 AI 전환을 이루기 위해서는 '온프레미스 LLM'이 최선의 선택이었다"며 "업무별로 특화된 sLLM 구축에 최적화된 '하이퍼클로바X 대시'를 도입해 사내 시스템에 활용하게 됐다"고 밝혔다. 임태건 네이버클라우드 전무는 "자사 클라우드 서비스는 이제 기업 인프라에 설치해 사용할 수 있는 '온프레미스 LLM'까지 갖추게 됐다"며 "보안 문제로 인해 클라우드 기반 LLM 사용이 어려웠던 공공·금융 기업들이 생성 AI를 활용할 수 있게 됐다"고 강조했다.

2024.09.19 10:59조이환

링크드인, AI 훈련에 데이터 무단 수집 '논란'

링크드인이 인공지능(AI) 모델 훈련을 위해 사용자 데이터를 수집하고 활용하면서도 이에 대한 명확한 사전 동의 절차를 거치지 않았다는 의혹이 제기됐다. 19일 테크크런치에 따르면 링크드인은 최근 사용자 데이터를 AI 훈련에 활용하는 정책을 업데이트했다. 하지만 이와 관련한 공지가 충분하지 않아 많은 사용자들이 자신의 데이터가 AI 모델 훈련에 활용된다는 사실을 알지 못한 채 약관에 동의한 것으로 알려졌다. 이번 업데이트로 인해 피해를 본 것은 주로 미국 사용자들이다. 환경설정을 통해 'AI 훈련 사용 안함(Opt-out)'을 고를 선택권이 주어졌지만 약관의 업데이트에 대해 아무런 고지를 받지 못했기 때문이다. 이와 반대로 유럽 지역의 사용자들은 일반정보보호규정(GDPR)의 보호를 받아 피해를 입지 않았다. 현재 링크드인은 수집된 데이터를 서비스 내의 콘텐츠 추천 및 글쓰기 제안 등 다양한 생성 AI를 위해 활용하고 있다. 또 모회사인 마이크로소프트 등 외부 기업의 AI 모델 훈련에도 데이터를 제공하는 것으로 알려졌다. 링크드인은 AI 모델 훈련에 사용되는 데이터가 개인정보 보호 기법을 통해 가명화되거나 삭제된다고 주장하고 있다. 그럼에도 불구하고 구체적인 보호 조치의 범위와 방식에 대해선 명확한 설명이 없어 사용자들의 불안이 계속되고 있다. 영국 디지털 권리 보호 시민단체 오픈 라이츠 그룹(Open Rights Group)의 마리아노 델리 산티 법률정책 책임자는 "사용자가 모든 온라인 회사를 감시하고 추적할 수는 없다"며 "이번 사태는 현재의 데이터 보호 체계가 우리의 데이터 권리를 보호하기에는 불충분하다는 점을 보여준다"고 밝혔다.

2024.09.19 09:23조이환

오픈AI 'o1'로 AGI 시대 성큼…"정부·기업, 개발 투명성 고려 필수"

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개하면서 일반인공지능(AGI) 시대를 향해 한 걸음 더 나아갔다는 평가를 받는다. 이달 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 o1 프리퓨 버전과 미니 버전을 블로그를 통해 공개했다. 이 모델 시리즈는 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제를 해결할 수 있다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. AI 업계가 고도화된 기술을 쏟아내고 있는 만큼 중요하게 부각되는 부분도 생겼다. 바로 AI 규제다. 현재 미국은 캘리포니아 AI 안전법을 통과시켜 개발 투명성과 안전성 부각에 나섰다. 유럽연합(EU)은 물론이고 캐나다와 영국, 일본도 마찬가지다. 이에 발맞춰 국내서도 최소한의 투명성 관련 규제가 필요하다는 의견이 나오고 있다. AGI 시대로 다가갈수록 AI 기반 솔루션과 결과물이 예측 불가하다는 이유에서다. 법무법인 태평양 강태욱 변호사와 윤주호 변호사는 최근 기자와 만나 고도화된 AI 시스템이 산업계에 안착하기 위해 필요한 법안에 대해 이야기 나눴다. 생성형 AI와 관련한 딥페이크, 저작권 문제, 근로 환경 등 이슈에 대한 의견도 공유했다. 법무법인 태평양은 AI팀 활동을 올해 초 본격화했다. AI팀은 AI 기술 개발이나 솔루션 구축, 사업 시작을 위해 지켜야 할 개인정보 보호법과 데이터법 등을 고객에게 자문한다. 현재 약 20명이 해당 팀에서 근무 중이다. Q. 지난주 오픈AI가 사람처럼 추론할 수 있는 고급 모델을 내놨다. 산업계가 AI 시스템 고도화를 신속히 진행하고 있다. 이럴수록 AI 규제 필요성이 더 높아지지 않을까. 윤: 그동안 기업이 AI 시스템 고도화를 위한 기술을 꾸준히 내놨다. 앞으로 기존 개발 틀을 벗어나진 않을 것 같다. 다만 고도화된 AI 시스템으로 무엇을 만들지 아무도 예측할 수 없다. 결국 AGI 등 고도화된 AI 시스템이 산업에 안착하려면 최소한 규제는 필요할 것이다. 이중 개발 투명성이 가장 중요하다. 정부가 개발자나 AI를 사용하는 기업에 데이터 사용 방식이나 모델 알고리즘에 대해 질문을 요구할 수 있는 규제가 필요하다. 다만 AI 산업이 어느 정도 성장한 단계에서 해당 규제를 추진해야 할 것이다. Q. 기업이 정부에게 AI 기술을 의무로 공개하는 법 정도로 이해하면 되는 건가. 조금 더 구체적으로 설명해 달라. 윤: AGI는 지금보다 훨씬 더 고도화된 AI 시스템이다. 그동안 전문가들은 AI 모델에서 파생되는 새 기술을 예측할 수 있었다. 반면 고도화된 AI 시스템이 출현하면, 예측할 수 없다. 기술 불확실성이 커진다는 의미다. 정부는 AI의 불확실성과 그로 인한 잠재적 위험을 관리하기 위한 최소한의 조치 정도로만 규제를 설정하면 된다. 개발자나 기업이 AGI로 특정 결정을 내릴 때 그 결정 과정이나 근거를 정부에 설명하거나 공개할 수 있는 체계다. 정부는 향후 이런 법안을 입법에 넣어야 한다. 이보다 더 강력한 규제는 삼가야 한다. 오히려 기술 중립성을 해칠 수 있다. Q. 현재 국내에선 현존 AI 기술로 인한 이슈가 많다. 딥페이크가 대표적이다. 정부가 딥페이크 피해 방지를 위해 여러 법안 제정을 추진 중이다. 충분히 피해를 최소화할 수 있을 것으로 보는가. 강: 방송통신위원회가 제정을 추진 중인 이용자보호법에는 딥페이크 피해 방지를 위해 AI로 생성된 콘텐츠에 AI 생성물 표시를 의무화하는 법 등을 도입할 것으로 보인다. 그러나 표시 의무 규정 법안만으로 문제를 완벽히 해결할 수 없다. 딥페이크 영상물에 AI 생성물 표시 의무를 부과하면, 일차적으로 허위 정보 확산을 방지하고 제작자·유포자에게 책임은 물을 순 있다. 그러나 딥페이크 제작자나 유포자의 거짓 고지 가능성이 있다. 이용자보호법이 문제 해결에 실효성있게 작동하려면 정부는 지금보다 디테일한 집쟁 정책을 운영해야 한다. Q. 최근 미국 캘리포니아주가 AI 안전법 'SB 1047'을 통과시켰다. 거대 AI 모델에 대한 강력한 규제를 담고 있는 법안이다. 일각에선 SB 1047이 책임소재와 범위가 과도하다는 지적이 나오고 있다. 이를 어떻게 평가하는지. 강: 해당 법안에는 AI로 인한 핵심 피해 방지를 위한 안전 평가 관련 내용과 AI 모델 개발자들에 대한 독립적 제3기관에 의한 감사, 보고의무, 학습을 포함한 AI 모델 기능을 중단시키는 전제 중단 기능 구현, 공공 안전 위협에 대한 징벌적 손해배상 등 내용을 담고 있다. AI가 가져올 위험을 통제할 수 있는 장치가 필요하다는 점에 대해서는 공감한다. 다만 이런 강력한 규제는 이미 기술·산업적으로 최정점에 서 있는 국가에서나 효율적일 수 있다고 본다. 오히려 시장에 진입하고자 하는 해외 경쟁업체들에 진입장벽으로 기능할 수도 있다. Q. 해당 법이 최종 승인되면 다른 나라 AI법에도 영향 미칠 전망이다. 국내 정부도 SB 1047과 노선을 같이할 수 있는 법안을 마련할 것으로 보는가. 강: 현재 과학기술정보통신부에서 제정을 추진하고 있는 AI 기본법은 AI 산업 진흥에 관한 법률이다. AI 시스템 규제에 초점을 맞추고 있는 법은 아니다. SB 1047처럼 AI 안전 평가, 제3자에 의한 감사·보고 의무 같은 강력한 규제 사항들이 포함되지 않을 가능성이 있다. 정부가 AI 관련 제도를 마련하는 과정에서 EU나 미국 등의 AI 관련 규제 정책 사례를 참고할 수는 있다. 다만 국내 AI 산업은 아직 성장단계에 있다. 과도한 규제가 가해질 경우 산업 자체가 위축될 수 있다는 점 고려해야 한다. 이후 고도화된 AI 시스템 대비를 위해 개발 투명성 등 적절한 규제를 추가하면 된다. Q. 저작권 이슈도 생성형 AI 산업서 많이 거론되는 주제다. 기업 노력만으로 해결할 수 있는 문제가 아니라는 평가가 이어지고 있다. 윤: 그렇다. 그동안 학습용 데이터를 무료로 이용하는 행위에 관대한 분위기였다. 챗GPT 출현 후 저작권 이슈가 나오고, 지난해 하반기부터 소송이 이어지면서 분위기가 달라졌다. 데이터 활용이 유료로 전환될 필요가 있다는 목소리가 나와서다. 이미 데이터 학습을 AI 모델에 충분히 진행한 업체나 대기업은 이에 동의하는 입장이다. 저작권 이슈는 생성형 AI 산업계와 저작권 관련 업계가 공감대를 형성해야 한다고 본다. 이는 법 마련보다 더 시급한 과제다. 지난해 저작권위원회와 문화체육관광부가 생성형 AI 저작권법 제정에 나선 바 있다. 안타깝게도 결과가 잘 안 나왔다. 당시 양측 공감대가 없었기 때문이라고 본다. 지난해 국회도 저작권법 논의 때 해결 주제를 이야기하긴 했다. 아직 마침표를 찍지 못했다. 정부가 나서서 속도감 있게 생성형 AI 산업계와 저작권 관계자 등으로부터 의견을 충분히 모으는 역할을 해야 할 것 같다. Q. 생성형 AI가 산업에 도입되면 근로 환경도 변할 것이란 전망이 나오고 있다. 기업이 직원을 AI로 대체하는 과정에서 법률적 문제를 겪을 것으로 보인다. 윤: 단정 짓기 어려운 문제다. 국내에 AI와 근로법이 충돌한 사례가 아직 없기도 하다. 다만 기업이 신규 채용을 줄이는 방식을 가장 합리적인 선택으로 볼 것 같다. 이 부분에서도 정부 역할은 필요하다. 기업이 신규 채용을 너무 줄이면 정부가 정책을 통해 관리를 해야 한다. 기업과 근로자 공감대 형성도 도와야 할 것이다. Q. 이슈를 종합해 볼 때 앞으로 AI 윤리 중요성이 높아질 것 같다. 최근 기업들이 사내에 AI 윤리위원회를 설치해 AI 개발·활용에 지켜야 할 수칙을 정하는 추세다. 올바른 방향으로 가고 있다고 보는가. 강: 최근 대기업 중심으로 AI 거버넌스를 추진 중인 걸로 알고 있다. AI를 개발·활용할 때 지켜야 하는 원칙 틀을 만드는 추세다. 이런 원칙은 국내에서 한 10개쯤 나와 있다. 문제는 원칙에 디테일이 부족하다는 점이다. 사실 이런 건 법률가들이 잘할 수 있는 업무다. 현재 법률 지식과 기업 사정에 가장 알맞은 디테일을 만들어야 해서다. 그렇지 않으면 거버넌스를 만들어도 AI 이용·개발에 충분히 적용할 수 없을 것이다. Q. 국내 기업이 AI 윤리위원회 설치를 활성화하려면 무엇이 필요한가. 강: 모든 기업이 AI 윤리위원회 필요성을 알고 있다. 다만 위원회만 만들고 끝나는 게 아니라, 실제 회사 내에서 높은 수준의 중요성을 가져야 한다. 이사회 의장 또는 최고경영자가 이를 정말 중요하게 생각해야 한다. 이들이 위원회를 지지해야 결정권도 가질 수 있어서다.

2024.09.18 13:19김미정

MIT 박사·삼성 최연소 임원이 AI 기업 '투플랫폼' 세운 이유는

"인간과 인공지능(AI) 간의 상호작용을 혁신하고자 하는 마음이 저를 이끌었습니다. 둘 사이의 관계를 새롭게 정의해 인류 모두를 위한 AI를 실현하는 것이 우리의 최종 목표입니다. 이를 위해 우리는 비용 효율적이면서도 다문화 지향적인 '듀얼 트랜스포머 아키텍처' 기술을 적극 활용하고 있습니다." 프라나브 미스트리 투플랫폼 대표는 최근 기자와 만나 회사의 AI 기술 성과와 향후 계획을 이같이 밝혔다. 미스트리 대표는 지난 2012년 MIT에서 박사 과정을 밟던 중 삼성전자에 입사해 최연소 임원이 된 것으로 국내에 널리 알려진 바 있다. 그 이전에는 구글, 마이크로소프트, 나사(NASA) 등에서 근무하며 폭넓은 경험을 쌓았으며 삼성전자 입사 후에는 최연소 상무·전무로 초고속 승진해 최첨단 기술 프로젝트를 이끌었다. 그가 지난 2021년 삼성전자를 나온 후 세운 기업이 바로 투플랫폼이다. 인간과 AI의 관계를 재정의하고자 하는 목표를 가진 테크 스타트업으로서, 투플랫폼은 자체 거대언어모델(LLM)인 '수트라(Sutra)'를 개발해 다국어 지원·현지화에 특화된 솔루션을 제공한다. 미스트리 대표는 "'수트라'의 설계 철학은 전 세계 모든 다른 언어를 영어만큼이나 효율적으로 처리하는 것"이라며 "기존 모델들과 달리 진정한 의미에서 현지화된 경험을 대규모 사용자들에게 제공하는 것이 목표"라고 강조했다. 미스트리 대표에 따르면 오픈AI의 '챗GPT'와 같은 타사 LLM 역시 다양한 언어를 지원하고 있지만 '수트라'는 보다 비용 효율적이며 현지화에 특화돼 있다. 그는 "'수트라'는 기존 모델들보다 영어 이외의 언어에 최대 8배까지 비용 효율적"이라며 "이는 에너지 자원이 제한된 비영어권 시장에서 AI 도입이 확대되는 데 가장 중요한 요소"라고 주장했다. 이러한 비용 효율성을 가능하게 하는 것은 투플랫폼에서 개발한 '듀얼 트랜스포머 아키텍처' 기술 덕분이다. 인간의 뇌 작동 방식을 모방한 기술로서, '듀얼 트랜스포머'는 LLM이 한 언어에서 배운 지식과 개념을 다른 언어에도 그대로 적용할 수 있게 한다. 미스트리 대표는 "우리가 새로운 언어를 배울 때 굳이 이미 알고 있는 개념을 다시 배우지 않는다"며 "수트라 LLM 역시 이와 같이 이미 알고 있는 개념을 다른 언어에서 추가로 학습할 필요가 없게 설계됐다"고 설명했다. 이러한 기술 개발은 단순히 비용 효율성뿐만 아니라 문화적 다양성에도 도움을 준다. 실제로 '수트라'는 인도의 여러 방언과 혼합 언어까지 동시적으로 지원하고 있다. 미스트리 대표는 "우리의 주요 시장 중 하나인 인도는 각 지역들끼리 서로 포르투갈과 아르메니아 사이만큼이나 거대한 문화·언어적 차이가 있다"며 "'수트라'는 이와 같은 다양한 언어·문화차이를 극복하고 서비스를 제공할 수 있다"고 강조했다. 이러한 '수트라'의 장점은 최근 대두되는 '소버린 AI' 개념과도 연결된다. 실제로 지난 2022년부터 각국의 AI 주권을 위해 소버린 AI 개념을 강조해 왔던 네이버도 자회사 스노우를 통해 투플랫폼에 5백만 달러(약 60억원)를 투자한 바 있다. 상용화 역시 활발하다. 투플랫폼은 인도의 대표 통신기업인 릴라이언스 지오(Reliance Jio)와 협력해 '수트라'를 공급 중이다. 최근에는 국내 유수의 대기업들과도 사업 계약을 추진하고 있는 것으로 알려졌다. 투플랫폼의 철학은 실제 사업 행보에서도 드러난다. 본사가 위치한 실리콘밸리 외에는 인도 뭄바이와 서울에 사무실을 두고 있기 때문이다. 이는 대부분의 다국적 기업들이 세금 혜택을 목적으로 주로 싱가포르·두바이에 해외 사무소를 두는 것과는 차별화됐다. 미스트리 대표는 "지사를 세울 때 최우선 기준은 우리 기술 모델에 걸맞는 현지 인재를 확보하고 시장을 이해하는 것"이라며 "고객들과 가까이서 소통하며 현지 시장에 맞는 제품을 개발하고 언어 문제를 해결하는 '글로컬(Glocal)' 기업이 되기 위한 전략"이라고 밝혔다. 미스트리 대표에 따르면 투플랫폼의 장기 목표는 인간과 AI의 관계에 대한 재정의다. 실제로 투플랫폼의 슬로건은 '나(I)와 AI'로, 인간과 기계의 상호작용을 새로운 단계로 발전시키는 것이다. 이를 위해 텍스트나 음성을 넘어 몰입형 경험을 선도하는 것이 주요 전략이다. 실제로 회사 제품들도 이를 반영하고 있다. 올해 1월에는 AI 소셜앱 '재피(ZAPPY)'를 국내에 정식 출시했으며 출시 2개월 만에 25만 명이 넘는 유저를 확보했다. 인간 친구뿐만 아니라 AI 캐릭터들과도 함께 대화하는 기능을 통해 새로운 형태의 커뮤니케이션을 가능케 했다. 기술 혁신의 중요성을 강조하는 동시에 미스트리 대표는 책임 있는 AI 개발의 중요성에 대해서도 역설했다. 실제로 투플랫폼은 군사 분야에서의 책임 있는 AI 활용을 위해 대한민국 외교부가 전 세계 국가들을 대상으로 지난 9~10일 개최한 'REAIM' 정상회의에 AI 스타트업으로서는 유일하게 초청된 바 있다. 10일 개최된 주요 세션 패널로서 미스트리 대표는 스웜(Swarm)과 같은 최신 AI 기술들의 발전이 국제 안보에 미칠 수 있는 잠재적 악영향에 대해 발표했다. 스웜 AI는 작은 AI 에이전트들이 협력해 더 큰 지능을 발휘하는 기술로, 통제하기 어려운 집단 지능을 형성해 예측 불가능한 행동을 초래할 수 있다. 미스트리 대표는 패널에서 "새로운 AI들의 기술적 특성과 잠재적 악영향을 고려해야 한다"며 "비단 스웜 만이 아니라 앞으로 기하급수적으로 발전할 기술들의 잠재적 악용을 지속적으로 방지하고 책임감 있게 활용하는 것이 매우 중요하다"고 역설했다. 투플랫폼이 유일하게 행사에 초청된 AI 기업인 이유를 묻는 기자의 질문에 그는 "책임·효율성의 균형을 맞추는 동시에 인간과 기술 모두에 집중해 온 경영 철학이 주효했던 것 같다"며 "끊임없이 발전하는 AI가 의도치 않게 발생시킬 수 있는 악영향에 끊임없이 대비하고 인간을 위한 기술을 개발하겠다"고 밝혔다. 그러면서 "우리는 디즈니처럼 상상력과 기술로 세상을 변화시키는 회사가 되고자 한다"며 "기술이 일상에 스며들어 경계가 사라지는 세상을 만들고 싶다"고 강조했다.

2024.09.18 10:36조이환

新무기 장착한 세일즈포스, MS 제치고 기업용 AI 시장 '왕좌' 차지할까

"앞으로 새로운 인공지능(AI) 에이전트를 통해 기업이 추가로 직원을 고용하지 않아도 짧은 시간 안에 업무 효율을 크게 높일 수 있을 것입니다. 이는 지금까지 우리가 일해왔던 방식을 통째로 바꿀 혁신이 될 것입니다." 디지털 전환을 넘어 AI 전환이 가속화되고 있는 가운데 마크 베니오프 세일즈포스 창업자 겸 최고경영자(CEO)가 새로운 기술을 앞세워 시장 주도권 굳히기에 나섰다. 기업이 직접 AI 비서를 만들 수 있는 신규 플랫폼으로 매출 확대에 본격 나선다는 각오다. 18일 블룸버그통신 등 주요 외신에 따르면 세일즈포스는 지난 17일부터 오는 19일까지 미국 샌프란시스코에서 개최되는 연례 기술 컨퍼런스 '드림포스 2024(Dreamforce 2024)'에서 '에이전트포스(Agent Force)'를 공개했다. 에이전트포스는 사전에 구축된 AI 기반의 '로우 코드 플랫폼'으로, 조직 구성원들이 영업, 서비스, 마케팅, 커머스 등 여러 고객 접점에서 빠르게 자율 에이전트를 활용할 수 있도록 지원한다. 로우 코드 플랫폼은 프로그래밍 관련 지식이 부족해도 손쉽게 소프트웨어를 만들 수 있도록 돕는 역할을 한다. '에이전트포스'를 사전에 도입한 미국 백화점 '삭스 피프스 에비뉴'는 업무 효율이 상당히 높아진 것으로 평가됐다. 고객이 구매한 옷에 대해 불만을 가질 경우 AI가 고객의 과거 구매 이력을 분석해 취향, 사이즈 등에 맞게 새로운 옷을 추천해 주는 방식으로 업무를 도왔기 때문이다. 또 이를 활용하게 되면 지역별 매출, 고객 불만 사항 등을 빠르게 파악해 문제를 해결할 수 있는 것으로 나타났다. 학술 출판사 '와일리'는 에이전트포스로 고객 응대 에이전트를 만들어 사람이 직접 대응하는 것보다 문제 해결 속도를 40% 이상 줄인 것으로 분석됐다. 클라라 샤이 세일즈포스 AI CEO는 "이는 에이전트포스의 두뇌인 '아틀라스(ATLAS) 추론 엔진'에서 시작된다"며 "아틀라스는 고객의 실제 성과 데이터를 학습해 더 스마트한 결정을 내릴 수 있도록 설계됐다"고 말했다. 세일즈포스는 오는 10월 8일 영국을 시작으로 '에이전트포스'를 일반 고객사에도 제공할 예정이다. 또 내년까지 10억 개의 에이전트를 활성화한다는 계획이다. 베니오프 CEO는 "에이전트포스는 비즈니스 성과를 극대화 할 수 있게 한다"며 "고객 성공을 위한 새로운 기준이 될 것"이라고 설명했다. 브라이언 밀햄 세일즈포스 사장 겸 최고운영책임자(COO)는 "직원 수가 5천 명인 콜센터에서 5년 이내에 30%의 직원을 줄일 수도 있을 것"이라며 "(에이전트포스 활용 시) 기업들은 앞으로 더 적은 고용을 선택할 수도 있다"고 말했다. 이는 세일즈포스의 데이터 클라우드가 뒷받침된 결과다. 세일즈포스는 AI가 원활하게 작동하고 기업이 신뢰할 수 있는 결과를 도출할 수 있도록 데이터 클라우드를 통해 정확한 데이터를 갖추기 위해 노력했다. 모든 고객 관련 데이터를 하나로 통합해 제공하는 데이터 클라우드로 기업은 맞춤형 고객 경험을 실시간 제공할 수 있는 것이 특징이다. 실제 윈덤, 애스턴마틴 등 고객사들은 데이터 클라우드를 통해 고객 서비스 사례 해결률을 55% 높이고, 중복 데이터는 50% 이상 줄이는 성과를 거둔 것으로 분석됐다. 라훌 오라드카르 세일즈포스 데이터 클라우드 총괄 매니저는 "자사 데이터 클라우드는 스노우플레이크, 데이터 브릭스 등의 기업과 공존하며 제로 카피 네트워크를 통해 데이터를 사용할 수 있게 한다"며 "이를 통해 고객은 레이크하우스나 데이터 웨어하우스에서 데이터를 그대로 활용해 AI 에이전트와 함께 실시간으로 업무 흐름을 자동화할 수 있을 것"이라고 설명했다. 이를 바탕으로 세일즈포스는 AI 시장을 이끌기 위해 투자에도 적극 나서고 있다. 이날 '드림포스 2024' 행사에선 세일즈포스 벤처스가 5억 달러 규모의 새로운 AI 펀드를 발표해 눈길을 끌었다. 이곳에선 지난 18개월 동안 24개 AI 스타트업에 투자해 온 성과도 함께 공유됐다. 지금까지 투자한 곳은 앤트로픽(Anthropic), 코히어(Cohere), 런웨이(Runway), 미스트랄(Mistral), 허깅페이스( Hugging Face) 등 AI 시장을 선도하는 기업들이다. 폴 드류스 세일즈포스 벤처스 매니저는 "AI 혁신이 기업 비즈니스 환경을 급격하게 변화시키고 있다"며 "이에 윤리적이고 신뢰할 수 있는 AI 기술을 개발하는 스타트업들을 지속적으로 지원할 것"이라고 말했다. 이어 "AI의 잠재력을 최대한 활용하기 위해 신뢰와 책임을 바탕으로 한 AI 생태계를 구축하는 데 집중하고 있다"고 덧붙였다. 세일즈포스는 이날 행사에서 소개한 '아인슈타인 원' 플랫폼으로 기업용 AI 시장을 본격 공략한다는 각오다. '아인슈타인 원'은 대화형 생성 AI로 마케팅, 커머스, 서비스 등에 필요한 정보와 콘텐츠를 자동으로 만들어 주는 제품으로, '아인슈타인 트러스트 레이어'가 접목됐다. 기업은 '아인슈타인 트러스트 레이어'를 통해 데이터 보안 및 개인 정보를 보호함과 동시에 생성형 AI를 접목해 업무에 변화를 줄 수 있다. 하지만 업계에선 고객들이 AI 활용을 위해 세일즈포스, 서비스나우 등 소프트웨어 기업들에게 비용을 지불할 지를 두고 의문을 표했다. 또 '코파일럿'을 앞세워 이미 기업용 AI 시장에서 영역을 빠르게 확대하고 있는 마이크로소프트(MS)도 아직까지 이를 증명해내지 못했다고 평가했다. 블룸버그통신은 "지난해 초부터 소프트웨어 업체들이 AI에 집중하는 모습을 보였음에도 (수익성에 대해) 거의 입증하지 못했다"며 "AI로 인한 매출 및 가치 상승 대부분은 엔비디아 같은 하드웨어 업체나 오라클 등 클라우드 인프라 업체가 차지했다"고 분석했다. 이어 "많은 소프트웨어 업체가 작성된 콘텐츠를 요약하거나 초안을 작성할 수 있는 AI 비서를 출시했다"며 "가장 잘 알려진 MS 코파일럿에 대해서도 일반 고객들은 이 기능에 대해 비용을 지불할 준비가 돼 있지 않다"고 덧붙였다. 그러면서 "AI를 활용하는 회사가 인력을 점차 충원하지 않는다면 소프트웨어 기업들의 매출 성장도 둔화될 가능성이 있다"며 "각 기업들이 주로 제품 사용 권한이 있는 근로자 수에 따라 소프트웨어 기업에 비용을 지불하기 때문"이라고 말했다. 이에 세일즈포스는 새로운 AI 기능의 비용을 사용하는 직원 수가 아닌 결과에 따라 가격을 책정키로 했다. 가격은 대화당 2달러인 것으로 알려졌다. 밀햄 COO는 "우리는 기업 고객들이 더 복잡한 작업을 수행할 수 있도록 돕는 것을 원한다"며 "AI가 사람이 할 수 있는 일을 많이 대체할 수 있다고 생각하는 기업들은 분명히 있을 것"이라고 강조했다.

2024.09.18 08:59장유미

메타 "英 페북·인스타 게시물 AI 학습 활용"...정부, 승인 거부

메타가 영국 내 페이스북과 인스타그램 게시물을 생성형 인공지능(AI) 모델 훈련에 사용할 계획을 밝혔다. 이에 규제 당국은 사용자가 이를 거부할 수 있는 옵션이 필요하다며 승인을 거부했다. 가디언은 15일 메타가 영국 문화를 더 잘 이해할 수 있는 AI를 만들기 위해 해당 국가 페이스북과 인스타그램 사용자들의 공개된 게시물을 AI 모델에 학습하겠다고 보도했다. 메타는 "생성형 AI 모델이 영국의 문화와 역사, 관용구를 학습할 것"이라며 "영국 기업·기관이 최신 기술을 업무에 활용할 수 있을 것"이라고 공식 홈페이지를 통해 설명했다. 이어 "전 세계 다양한 커뮤니티를 반영하기 위해 AI를 구축하고 있다"며 "올해 말 더 많은 국가와 언어로 출시할 계획"이라고 덧붙였다. 외신에 따르면 해당 계획은 규제 당국의 승인을 받지 못한 상태다. 이에 메타는 영국과 유럽연합(EU) 규제당국은 AI 개발을 방해하고 있다고 비난했다. 유럽 혁신 위원회(ICO)도 메타의 이러한 계획에 승인하지 않았다고 발표했다. ICO는 페이스북·인스타그램 사용자가 게시물이 AI 학습에 활용되는 것을 거부할 수 있어야 한다고 주장했다. 앞서 메타는 지난 6월 영국과 EU에서 비슷한 계획을 발표한 바 있다. 당시 ICO는 생성형 AI 구축에서 사용자 프라이버시 존중이 필수라며 해당 계획을 중단시켰다. 이후 3개월 만에 메타가 이를 다시 추진하기 시작한 셈이다. ICO 스티븐 알몬드 규제 리스크 부문 이사는 "메타는 모델 훈련에 개인 데이터를 사용하기 전에 사용자가 이에 반대할 수 있는 명확하고 간단한 경로를 제공해야 한다"고 강조했다. 이어 "ICO는 해당 처리에 대한 규제 승인을 메타에 제공한 적 없다"며 "메타는 지속적인 규정 준수를 보장하고 입증할 책임이 있다"고 덧붙였다.

2024.09.15 13:06김미정

"추론하는 법 배웠다"…오픈AI 'o1' 출시에 국내 업계 반응은?

오픈AI가 데이터 기반으로 답하는 것을 넘어 실제 추론까지 하는 생성형 인공지능(AI) 모델을 공개한 가운데, 생각의 사슬(CoT) 기법을 통한 추론 기술 고도화가 AI 업계에 필수 역량으로 자리할 것이라는 주장이 나왔다. 13일 오픈AI는 AI 추론 능력을 대폭 강화한 새로운 모델 'o1' 프리뷰 버전과 미니 버전을 블로그를 통해 공개했다. o1은 과거 오픈AI 내부에서 '스트로베리'라는 암호명으로 불렸던 모델이기도 하다. 이전 모델보다 더 복잡한 문제를 처리할 수 있으며 수학과 코딩 등 기술적 문제 해결에 강점을 보인다. 국제 수학 올림피아드 예선에서 'GPT-4o'는 13%의 문제를 해결했으나 'o1'은 83%의 문제를 정확히 풀어냈다. 현재 챗GPT 플로스 고객과 챗GPT 팀즈 고객만 o1을 이용할 수 있다. 이 모델은 챗GPT 기업 고객 대상으로는 제공되지 않는다. 질문 가능 횟수는 사용자당 일주일에 30회까지다. "생각의 사슬 필수요소...강화학습 뜬다" 전문가들은 AI 업계가 CoT를 필수 패러다임으로 갖출 것이라고 입을 모았다. 해당 과정에 포함된 강화학습(RL)방법이 재주목받을 것이라는 의견도 나왔다. 업스테이지 박찬준 수석연구원은 "앞으로 CoT를 다양하게 구성하고 이를 학습 과정에 잘 녹여내는 패러다임이 필수일 것"이라며 "이로 인해 강화학습이 다시 떠오를 것"고 강조했다. CoT는 생성형 AI가 복잡한 문제를 세분화해 오류를 수정하고 실수를 인정하며 해답 찾는 과정을 뜻한다. 복잡한 문제를 낱개로 잘라 하나씩 답을 푸는 형태다. 이를 통해 복잡한 문제도 차근차근 해결한다. 이는 마치 사람이 어려운 질문에 답하기 위해 오랫동안 생각하는 것처럼 생각의 꼬리를 무는 형식이다. 챗GPT-4o 등 기존 챗봇보다 답변 시간이 오래 걸리지만 더욱 자세하고 정확한 답변을 얻을 수 있는 이유다. CoT 기법에 RL방법론이 적용된 것으로 알려졌다. AI가 복잡한 문제를 세분화해 하나하나 차근차근 풀면서 최종 정답과 가장 가까운 방향으로 간다는 이유에서다. RL방법은 CoT을 통해 AI에 생산적으로 사고하는 방법을 모델에 가르치는 셈이다. 오픈AI는 RL을 통해 o1 성능이 지속적으로 향상되는 것을 발견했다고 설명했다. 오픈AI 미라 무라티 최고기술책임자(CTO)는 "o1의 추론 과정을 개선하기 위해 RL을 선택했다"며 "모델이 정답을 맞히면 긍정적인 피드백을, 틀릴 경우 부정적인 피드백을 주는 식으로 기능을 개선했다"고 설명했다. 김동환 포티투마루 대표는 "o1이 CoT 기법을 활용한 복합 추론 기술의 고도화를 통해 수학을 비롯한 과학, 생명공학 분야에서의 난제 해결에 기여할 것"이라고 밝혔다. 국내서 LLM을 개발하는 한 업계 관계자도 "생성형 AI가 CoT와 RL로 사람처럼 생각하는 법을 학습했다"며 "기존 데이터 기반으로 답변을 찾아내는 것에서 실제 추론 단계로 넘어갔는지에 대한 평가가 이어질 것"이라고 내다봤다. "B2B·B2C 사업 전략 뚜렷...상용화에 GPU 확보 관건" 업계 관계자들은 기업용 o1 정식 버전 가격이 상당할 것이라고 내다봤다. 이에 오픈AI B2C와 B2B 비즈니스에 대한 경계가 뚜렷해지면서 수익화에 다양성을 줄 것이라고 분석했다. 국내서 LLM 사업하는 한 관계자는 "앞으로 오픈AI 고객은 기존 비용으로 챗GPT-4o까지 사용하는 부류와 높은 비용으로 좋은 결과물을 얻고자 하는 부류로 나뉠 것"이라고 언급했다. 이어 "오픈AI 서비스가 다양화돼서 B2B·B2C 비즈니스 전략에 차별화가 생길 것"이라고 밝혔다. 최근 외신은 오픈AI가 o1 모델을 기업용으로 출시할 경우 가격을 매월 2천 달러(약 266만원)로 책정할 것이란 소식을 내부 관계자 말을 인용해 보도한 바 있다. 오픈AI가 모델 상용화를 위해 중앙처리장치(GPU) 확보에 혈안일 것이라는 분석도 나왔다. 박찬준 수석연구원은 "고도화된 추론으로 GPU 추가 확보가 불가피할 것"이라며 "샘 알트먼 오픈AI 최고경영자(CEO)가 GPU를 더 확보하려는 이유가 o1 상용화에 있을 것으로 본다"고 예측했다.

2024.09.13 14:39김미정

[기고] 기업 데이터 분석의 새로운 패러다임, 생성형 BI

그야말로 AI열풍이다. 기업에서는 업무 전반에 인공지능(AI) 특히, 대규모 언어모델(LLM)을 적용하거나 새로운 비즈니스 기회를 창출하는 시도가 활발하게 이루어지고 있다. LLM은 언어 모델이기 때문에 주로 비정형 텍스트 문서를 기반으로 AI 활용을 모색하고 있다. LLM의 단점을 보완하기 위해 검색 증강 생성(RAG) 아키텍처를 적용하는 경우도 많다. 다만, 기업의 중요한 정보는 비정형(unstructured) 문서에만 존재하는 것이 아니라, 관계형 데이터베이스(RDB) 같은 데이터 저장소에 정형(structured) 형태로도 존재한다. RDB 데이터의 LLM 적용을 위해서 RDB 데이터를 문서형태로 변환하는 것은 비효율적이다. RDB 데이터는 SQL을 통해 질의하고 결과를 얻는 것이 적절하므로, LLM이 SQL을 생성하도록 하는 것이 바람직하다. 이 과정은 자연어 기반 질의(NL2SQL) 영역에 속하며, LLM이 자연어 질의를 SQL로 변환할 수 있다. LLM은 자연어 질의에 대한 답변을 비롯해 SQL 작성에도 비교적 높은 수준의 성능을 보인다. 다만, LLM은 조직의 내부 DB 정보를 학습하지 않았으므로 RAG 방식으로 기업 내 DB 정보를 LLM 프롬프트에 질의와 함께 전달해 주면, 비교적 정확한 SQL을 생성할 수 있다. RDB에 데이터를 저장하고 분석하는 일은 전통적인 비즈니스 인텔리전스(BI) 영역에 속한다. 데이터 분석을 목적으로 한 NL2SQL은 BI 영역에 생성형AI를 적용한 것이므로 '생성형 BI'라 부를 수 있다. 글로벌 리서치 기관인 가트너에서도 생성형 BI라는 용어를 사용하기 시작했으며, 비정형 텍스트를 대상으로 생성형AI가 활발히 적용된 만큼, 정형 데이터를 대상으로 한 생성형 BI 영역도 급속도로 성장할 것으로 예상된다. 하지만 LLM이 생성하는 SQL이 항상 정확한 것은 아니다. 단순한 DB 모델에서는 LLM의 정확도가 높지만, 복잡한 DB 모델에서는 성능이 떨어질 수 있다. 정확도를 높이기 위해 DB 정보에 대한 설명을 풍부하게 만들어주면 성능이 향상될 수 있으나, 여전히 100% 만족하기는 어렵다. 그 이유는 기업의 복잡한 업무가 DB 테이블 설계에 반영되어 있을 뿐만 아니라, DB 설계자의 설계 스타일도 반영되기 때문이다. 이러한 정보를 모두 서술하기도 어렵고, LLM에 전달해도 이해하지 못해 잘못된 SQL을 생성할 가능성이 크다. 또 다른 문제점은 BI 데이터 분석이 주로 수치화된 정보를 다룬다는 점이다. 예를 들어, 판매수량, 판매금액, 생산수량, 불량수량 등을 집계하는 경우가 많은데, 잘못 생성된 SQL의 결과값이 정답 SQL의 결과값과 조금만 다르다면, 예를 들어 연간 매출액이 10조인데 9.9조나 10.1조의 결과가 나왔다면, 사용자가 이를 오답으로 인지하기 어렵다. 텍스트 문서를 기반으로 한 생성형 AI의 답변이 거짓일 경우, 예를 들어 "세종대왕이 아이패드를 던졌다"는 식의 거짓말은 문장의 특성상 사용자가 쉽게 알아차릴 수 있지만, 숫자로 된 답변은 큰 차이가 아니라면 잘못된 결과임을 인지하기 어렵다. 이러한 Gen BI의 한계를 극복하는 방법 중 하나는 온라인 분석 처리(OLAP)를 활용하는 것이다. OLAP은 SQL을 모르는 사용자도 DB 데이터를 분석할 수 있게 해주는 기술이다. 사용자가 OLAP솔루션에서 OLAP리포트를 작성하고 실행 버튼을 누르면, OLAP엔진이 SQL을 자동 생성해주고 실행 결과를 리포트에 반환해준다. 마치 엑셀의 피봇테이블 기능으로 엑셀의 데이터를 분석하는 것과 유사하다. OLAP이 쿼리 생성자로서의 역할을 수행하는 셈이다. OLAP은 수십 년에 걸쳐 상용화된 기술로, OLAP의 쿼리는 항상 안전하고 정확하다. OLAP 메타데이터를 설정할 때 비즈니스 메타데이터와 기술 메타데이터의 매핑 및 테이블 간의 조인 관계를 미리 설정하기 때문에, 설정되지 않은 조합의 SQL은 생성되지 않는다. OLAP 기반의 Gen BI에서는 LLM이 OLAP 리포트 항목을 선택할 수 있도록, RAG 방식에서 DB 정보 대신 OLAP 메타 정보를 전달하면 된다. 이후 LLM이 OLAP 리포트를 생성하면, OLAP 엔진을 통해 정확한 SQL을 생성하고 실행할 수 있다. OLAP 기반 생성형 BI의 또 다른 장점은 NL2SQL 방식의 Gen BI보다 오류 식별이 용이하다는 점이다. 질의에서 바로 SQL이 생성되는 것이 아니라, 중간 단계에서 OLAP 리포트 항목(관점, 측정값, 필터 조건 등)이 만들어지므로, 사용자가 이를 보고 LLM이 올바른 답을 도출했는지 쉽게 검증할 수 있다. 많은 OLAP 기반 BI 솔루션과 분석 솔루션들이 Gen BI 기능과 서비스를 출시하고 있다. 아직 Gen BI는 초기 단계이지만, 정확도를 높이기 위한 RAG 적용이나 외부 LLM 활용에 따른 데이터 보안 문제 등이 점차 개선될 것으로 보인다. 예를 들어 마이크로스트레티지와 같은 OLAP 기반 BI 솔루션 제공업체들은 기존 BI의 장점에 AI를 결합한 솔루션을 제공하고 있다. NL2SQL 기반의 생성형 BI도 SQL을 아는 개발자나 분석가의 생산성을 높이는 초도 Query 작성용으로 활용한다면 가치를 발휘할 것이다. 그러나 SQL을 모르는 일반 사용자에게는 OLAP 기반의 생성형 BI가 더 유리할 것이다. 언제까지? 아마도 LLM이 DB 설계자의 성향까지 극복해 정확한 NL2SQL을 생성할 때까지일 것이다. 챗GPT의 등장과 빠른 업그레이드처럼, 그 시기는 예상보다 빨리 올 수도 있다.

2024.09.13 10:29류진수

서비스나우, 자나두 릴리스 첫 공개…생성형 AI 기능 추가

서비스나우가 새로운 플랫폼을 통해 나우 어시스트 포트폴리오를 확장했다. 서비스나우는 자나두 릴리스를 통해 나우 어시스트의 생성형 AI 기능을 보안 운영과 재무 및 공급망, 소싱 및 구매 운영으로 확장했다고 11일 밝혔다. 사용자는 해당 기능에 접근 가능하며, 서비스나우 스토어에서 확인할 수 있다. 보안 운영용 나우 어시스트는 대응 시간을 단축해 보안 위협을 빠르게 차단하도록 지원한다. 보안 운영 부서는 나우 어시스트를 통해 AI 기반 인시던트 요약 및 대화형 질의응답 기능을 활용할 수 있다. 각 보안 관련 사건의 우선순위에 따라 자동으로 대응할 수 있다. 이를 통해 인시던트 대응 프로토콜을 더 효과적으로 확장하고, 중요 보안 위협에 대한 평가, 우선순위 지정 및 대응 프로세스를 가속할 수 있다. 서비스나우는 재무 및 공급망 워크플로우에도 나우 어시스트를 도입한다. 소싱 및 구매 운영에 나우 어시스트를 우선 적용하고 추후 더 많은 생성형 AI 기능을 추가할 예정이다. 소싱 및 구매 운영용 나우 어시스트는 요청을 제출할 때 접수 프로세스를 간소화하고 원활하게 해 규정 준수와 정확성을 높여준다. 이행 과정에서 생기는 마찰도 최소화한다. 직원들은 복잡한 시스템을 사용할 필요 없이, 나우 어시스트의 대화형 프롬프트를 통해 구매를 요청하거나 정보를 얻을 수 있다. 또한 업무 접수, 검토 및 완료에 소요되는 시간을 단축해 더 중요한 업무에 집중할 수 있도록 시간을 확보한다. 자나두 릴리스에서 새롭게 선보인 AI 혁신은 IT 생산성을 향상하고 복잡성을 줄이며 내부 협업을 더 쉽게 만들어 직원들이 더 빠르고 효율적으로 작업할 수 있도록 돕는다. 나우 어시스트 스킬 키트는 파트너와 고객이 특정 비즈니스 요구 사항에 맞는 맞춤화된 생성형 AI 스킬을 제작할 수 있는 프로 코드 환경을 제공한다. 나우 어시스트의 첫 분석 생성 기술인 데이터 시각화 생성 기능은 사용자가 자연어 프롬프트를 사용해 데이터에서 목적에 맞는 인사이트를 얻고 대화형 대시보드에 추가하도록 돕는다. 사용자는 데이터의 기본 구조에 대한 지식 없이도 빠르게 인사이트를 수집할 수 있다. 채팅 및 이메일 응답 기능은 AI가 제안하는 답장 및 수정사항을 통해 수동 응답에 소요되는 시간을 줄인다. 또한 ITSM용 나우 어시스트에서 지원하는 변경 사항 요약 기능은 IT팀이 변경 요청을 요약하고 관련 데이터를 신속하게 평가할 수 있도록 한다. 이를 통해 상담원의 생산성을 개선하고 변경 주기를 단축하며 리스크를 최소화할 수 있다. 인사 서비스 제공(HRSD)용 나우 어시스트에서 지원하는 LLM 기반의 사전 프롬프트는 가상 에이전트에서 생성형 AI 기반 프롬프트를 통해 직원과 관리자가 적시에 HR 관련 알림을 받고 소통할 수 있게 돕는다. 서비스나우는 나우 어시스트에 통합된 마이크로소프트 365용 마이크로소프트 코파일럿을 정식 제공한다고 밝혔다. 이를 통해 직원들은 작업 및 협업하는 환경에서 총체적으로 연결된 경험을 할 수 있다. 이뿐만 아니라 나우 어시스트가 통신, 미디어 및 기술, 금융 서비스, 공공 부문 등을 위한 산업 솔루션으로 확장돼, 다양한 산업의 조직이 생성형 AI의 가치를 빠르게 실현할 수 있게 됐다. 나우 어시스트, 다양한 산업에 스며들다 서비스나우는 나우 어시스트가 통신, 미디어, 기술, 금융 서비스, 공공 부분 등 다양한 분야 조직에서 활약한다고 강조했다. 우선 통신, 미디어 및 기술(TMT)용 나우 어시스트에서는 상담원이 생성형 AI를 통해 서비스 문제를 빠르게 파악하고 문제를 신속히 해결할 수 있도록 지원한다. 간결한 해결 요약을 제공해 향후 관리에 참고할 수 있도록 돕는다. 금융 서비스 운영(FSO)용 나우 어시스트에서는 은행과 보험사에 생성형 AI 기능을 제공해 상담원의 생산성과 고객 경험을 향상시킨다. 특히 은행용 나우 어시스트는 상담원에게 상세한 분쟁 해결 요약을 제공해 생산성을 높이고, 보험용 나우 어시스트는 상담원에게 명확한 사례 맥락을 제공해 응답 시간을 단축한다. 공공 부문 디지털 서비스(PSDS)용 나우 어시스트에서는 공무원들이 관련 사례 기록을 빠르게 확인해 더 나은 결정을 내리고, 중요한 공공 서비스에 대해 빠르게 지원할 수 있도록 한다. 또한, 유통 리테일 운영 및 서비스 관리에서는 매장 직원과 경영진, 고객, 본사 직원, 현장 기술자 간의 연결되고 일관된 경험을 선유통업 리테일 생태계를 통합한다. 존 시글러 서비스나우 플랫폼 및 AI 담당 수석 부사장은 "자나두 릴리스는 서비스나우의 생성형 AI 로드맵에서 중요한 진전을 나타낸다"며 "기업이 생성형 AI를 빠르게 활용하고 놀라운 비즈니스 성과를 달성할 수 있도록 지원한다"고 밝혔다.

2024.09.11 10:38김미정

[현장] 국산 'AI 투자상담사'가 JP모건 능가하려면?

"국내 금융 투자 산업에 생성형 인공지능(AI) 바람이 불고 있습니다. 전문가와 AI가 고객에게 최적의 투자 제안을 하고 있습니다. 다만 여전히 높은 고객 데이터 접근 장벽과 클라우드 제약이 걸림돌입니다. 이 부분이 개선돼야 국산 AI 투자 어드바이저가 JP모건 등 미국 서비스를 이길 수 있습니다." 미래에셋증권 안인성 디지털부문대표 겸 부사장은 10일 서울 양재 엘타워에서 열린 '한국인공지능산업협회(AIIA) 조찬포럼'서 생성형 AI를 적용한 국내 금융투자 산업 전망을 이같이 밝혔다. 안 부사장은 미국 금융권도 한국처럼 생성형 AI 적용 방향에 고민 많다고 지적했다. 그는 "현재 JP모건도 엄청난 투자금을 들여 생성형 AI를 이용한 투자 어드바이저 개발에 한창"이라고 설명했다. 안 부사장은 "미국 금융투자 기업은 생성형 AI를 통해 수익 안정화를 이루지 못한 상태"라고 지적했다. 생성형 AI가 금융투자 업계에 활발히 도입됐지만 실질적인 수익 창출이나 안정화를 이루지 못했단 설명이다. 실제 JP모건을 비롯한 주요 금융투자사들은 지난해부터 투자의사 결정을 돕는 생성형 AI 서비스 개발에 착수했다. 이를 올해 초 고객 대상으로 상용화를 시작했다. 이를 통해 새로운 비즈니스 모델 개발과 비용 절감, 리스크 관리 등 다양한 목표를 이루기 위해서다. 안 부사장은 "미래에셋증권은 미국 금융투자사보다 더 빠르게 생성형 AI 기반 투자 어드바이저 개발에 착수했다"며 "미국보다 발 빠른 준비로 시장 선점 가능성이 있다"고 말했다. 미래에셋증권은 2020년부터 네이버와 손잡고 AI 투자어드바이저 설계를 시작했다. 서비스는 지난해 3월부터 고객들에게 제공된 상태다. 서비스 주요 기능은 실시간 투자 정보를 AI로 수집해 고객들에 투자 상품을 제안하는 것이다. 이를 통해 투자 정보 수집영역과 사후 고객 투자 관리 심화 영역까지 관리할 수 있다. 사용자가 원하는 국내외 투자 정보를 실시간으로 요약해 제공하기도 한다. 특히 미국 증시 정보는 실시간 번역해 준다. 안 부사장은 "사용자는 해외 투자 정보 커버리지를 기존보다 90% 높일 수 있었다"고 강조했다. 차트 분석 결과도 AI로 진행할 수 있다. 생성형 AI가 차트를 인식해 이해하기 쉽게 설명하는 식이다. 안 부사장은 "그동안 사람이 직접 차트를 보고 기술 분석을 하고 별도 스터디도 진행해야 했다"며 "AI를 통해 분석 결과를 손쉽게 얻을 수 있다"고 덧붙였다.

2024.09.10 11:05김미정

中 'AI로 만든 영화' 나온다...감독 9명 참여

중국에서 초거대 생성형 인공지능(AI) 모델을 이용한 영화가 제작된다. 9일 중국 언론 중궈신원왕에 따르면 중국 숏클립 플랫폼 '콰이서우'는 '클링 AI(Kling AI) 감독 공동 창작 계획'에 착수한다고 밝혔다. 중국산 영상 생성 초거대 모델 기술로 영화 콘텐츠를 제작하는 프로젝트다. 계획에는 리샤오훙, 자장커, 예진톈, 쉐샤오뤼, 위바이메이, 둥룬녠, 장츠위, 왕쯔추안, 왕마오마오 등 9명의 유명 감독이 참여하는데, AI 기술을 써서 9편의 AIGC(AI 생성 콘텐츠) 단편영화를 제작한다. 이 9편의 단편 영화는 모두 콰이서우의 대규모 영상 생성 모델인 '클링 AI'로 제작된다. 감독이 전적으로 영상 생성 모델에만 의존하게 된다. 물리적 세계 시뮬레이션, 컨셉 생성 및 조합에 클링 AI를 활용하고, 클링 AI로 영상 이미지를 생성해 3분 길이의 단편 영화 9편을 선보일 예정이다. 콰이서우에 따르면 9명의 감독은 다양한 스타일의 영상 제작 경험을 보유했으며, 영화, TV 시리즈, 애니메이션, 만화 등 분야에서 누적 흥행액이 200억 위안(약 3조 7천700억 원)을 넘는다. 영화 제작에는 AIGC 크리에이터 9명도 기술 컨설턴트로 감독들을 지원하게 된다. 클링 AI는 콰이서우가 올해 6월 발표한 영상 생성 초거대 모델로서 발표 직후 오픈AI의 '소라'에 비견되는 중국판 영상 생성 모델로 평가됐다. 텍스트 입력을 통해 1080P의 2분 길이(30fps) 영상을 생성할 수 있다고 소개됐는데, 올해 8월 기준 출시 3개월 만에 이미 160만 명이 클링 AI를 사용해 1천600만 개 이상의 영상을 생성했다. 누적 생성 이미지 수도 2천500만 개에 달한다. 콰이서우는 7월 24일 전 세계 사용자에게 공개 베타 버전을 공개했으며, 이미지의 영상 전환과 모션 화면, 렌즈 제어 등 방면에서 좋은 성능을 보이고 있다는 평가다. 앞서 지난 7월 중국에서 이미 단편 드라마 제작에 클링 AI가 적용된 바 있다. 중국 최초 AIGC 오리지널 판타지 단편 드라마 '산하이치징-피부잔랑'이 콰이서우에서 공개됐다. 콰이서우는 '더우인(틱톡의 중국 버전)'과 경쟁하는 중국 유명 숏클립 플랫폼으로, 올해 2분기 콰이서우의 일 평균 활동 사용자 수가 3억9천500만 명을 넘어서 역대 최고치를 기록했다. 월 평균 활동 사용자 수는 6억9천200만 명으로 집계됐다.

2024.09.10 09:16유효정

"韓 10대 기업이 찜"…스노우플레이크, 코텍스AI에 '라마3.1' 탑재

"애플리케이션 개발 플랫폼 '스노우플레이크 코텍스AI'에 오픈소스 모델 '라마 3.1'을 본격 추가했습니다. 기업은 코텍스AI로 앱 개발을 대규모로 원활히 진행할 수 있습니다. 현재 국내 10대 대기업이 이 플랫폼을 선택한 이유입니다." 최기영 스노우플레이크 한국 지사장은 9일 서울 강남 파크 하얏트에서 열린 '스노우플레이크 월드투어 서울'에서 새 거대언어모델(LLM) 호스팅 계획을 이같이 밝혔다. 이를 통해 코텍스AI는 엔터프라이즈 고객들에 원활한 인공지능(AI) 서비스를 추가 공급할 수 있다. 스노우플레이크 서비스에 탑재된 라마3.1은 오픈소스 LLM이다. 메타의 라마 제품군 중 가장 큰 모델로, 파라미터 405억개로 이뤄졌다. 코텍스AI는 라마3.1로 실시간 고처리량 추론을 진행하고 자연어처리(NLP)와 생성형 AI 앱 개발을 돕는 환경을 제공한다. 최기영 지사장은 "코텍스AI는 라마3.1로 더 빠른 시간 내에 높은 추론력을 구현할 수 있다"고 강조했다. 기존 오픈소스 솔루션보다 엔드투엔드(end-to-end) 지연시간은 최대 3분의 1로 줄고, 처리량은 1.4배 높아졌다는 이유에서다. 최 지사장은 스노우플레이크 AI 리서치팀이 라마3.1 출시와 더불어 LLM 추론과 파인튜닝 시스템 최적화 스택을 오픈소스화하고 있다는 점도 설명했다. 이를 통해 수천억개 매개변수로 이뤄진 모델 접근성을 높이고 파인튜닝 시스템에 필요한 솔루션을 구축할 방침이다. 최 지사장은 스노우플레이크가 LLM 추론과 파인튜닝 시스템 최적화를 위해 노력 중이라고 밝혔다. 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용 인프라 없이 효율적인 AI 처리가 가능하도록 만들기 위해서다. 그는 "라마 3.1 405B로 스노우플레이크의 시스템 스택은 GPU 노드 하나만으로 실시간의 고처리량 성능을 발휘할 수 있다"고 말했다. 이런 환경에서 개발자들은 적은 개수로 이뤄진 GPU 상에서 복잡한 기술로 라마 3.1 405B를 파인튜닝할 수 있다. 대규모 GPU 클러스터 환경 자체가 필요 없게 된 셈이다. 이에 기업들은 생성형 AI 앱을 전보다 편리하고 빠르게 구축·배포할 수 있다. 최 지사장은 "국내 상위 10대 기업 중 80%를 확보한 상태"라며 "사용하기 쉽고 효과적인 서비스를 제공한다는 가치를 지킬 것"이라고 말했다.

2024.09.09 16:06김미정

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

[현장] KISA "AI 공격 더 교묘…프롬프트 오염부터 막아야"

"생성형 인공지능(AI) 해킹 공격이 더 교묘해졌습니다. 모델이 악성 프롬프트에 오염돼 일반 사용자 질문에 엉뚱한 답변을 하는 사례가 늘었습니다. 프롬프트 오염부터 막는 것이 안전한 AI 모델을 지키는 길입니다." 한국인터넷진흥원(KISA) 김성훈 팀장은 5일 서울 용산 로얄파트컨벤션에서 열린 '2024 AI 시큐리티 데이'에서 안전한 생성형 AI 생태계를 위한 방안을 이같이 밝혔다. 김 팀장은 최근 보안 기술이 성장했다고 주장했다. 생성형 AI 모델을 해커로부터 보호할 수 있는 수준이라고 했다. 다만 해커들은 새로운 방식으로 생성형 AI 모델을 공격하고 있다고 지적했다. 오염된 프롬프트를 모델에 학습시키는 것이 공격 트렌드라고 말했다. 이런 공격은 해커가 모델에 악의적으로 프롬프트를 조작하는 식으로 진행된다. 이를 통해 일반 사용자가 모델에 질문했을 때 정상적인 답변을 받을 수 없다. 악의적 프롬프트가 사용자 질문을 다른 질문으로 전환하기 때문이다. 결과적으로 생성형 AI는 사용자 질문과 무관한 답변을 생성한다. 김 팀장은 "다크웹서도 이런 조작법이 공유되고 있는 실정"이라며 "건강한 AI 생태계를 위해 빠른 대응이 필요하다"고 강조했다. 김 팀장은 이에 대한 대응책을 제시했다. 개발사는 생성형 AI 모델 개발에 필요한 데이터 수집부터 데이터 전처리, AI 모델 설계·학습, AI 모델 검증·테스트 과정에 반복적인 검증 시스템 체계를 갖춰야 한다고 강조했다. 김 팀장은 "그동안 소프트웨어 보안 검증은 일회성에서 끝났지만, AI 모델 검증은 다르다"며 "주기적인 보안 검증을 꾸준히 진행해야 한다"고 당부했다.

2024.09.06 10:02김미정

GS네오텍, 크래프톤 임직원 역량 향상 'AWS 퀴즈쇼' 개최

GS네오텍이 크래프톤 임직원 업무 향상을 위한 퀴즈쇼를 진행했다. GS네오텍은 아마존웹서비스(AWS)와 'AWS 퀴즈쇼 포 크래프톤'을 개최했다고 5일 밝혔다. 직원 화합과 함께 클라우드 지식을 습득할 수 있도록 마련한 이번 행사는 150여명의 크래프톤 임직원들이 참여했다. 퀴즈쇼 최종 우승자들에게는 다양한 경품이 제공되었다. 크래프톤 장우현 인프라 본부장은 “이번 AWS 퀴즈쇼는 올해의 화두인 생성형 AI에 대한 지식 습득을 직간접적으로 할 수 있는 주제로 진행되어 전직원이 자연스럽게 공동의 업무 목표를 인식할 수 있는 시간이었다”면서 “크래프톤은 여러가지 서비스에 생성형 AI를 접목하여 기술 기업 역량 강화는 물론 고객 편의를 제공해 나갈 예정이다”라고 소감을 밝혔다. GS네오텍 서정인 IT사업본부장은 “이번 행사는 실무자들에게 AWS의 기술 관련 정보를 더욱 쉽고 재밌게 전달할 수 있는 자리였다”면서 “앞으로도 실무자들을 대상으로 다양한 이벤트를 마련하고 적극적으로 소통할 것”이라고 말했다.

2024.09.05 16:49남혁우

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

배달앱 '헝그리판다' 전자담배 막 팔아도 될까

문구부터 인테리어까지 다 있네...2539 여성 특화한 ‘이구홈 성수’ 가보니

개인정보 줄줄 새는 AI 시대…"아마존 메이시·베드록으로 막는다"

홈플러스, 새 주인 찾기 시동…유통업 판도 흔들리나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현