• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈AI'통합검색 결과 입니다. (708건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

오픈AI 경쟁자 스태빌리티AI, 과도한 인프라 투자로 자금 고갈

오픈AI의 주요 경쟁자 중 하나로 꼽히는 스테빌리티AI가 과도한 인공지능(AI) 학습 투자로 자금난을 겪고 있다. 최근 더레지스터 등 외신에 따르면 스테빌리티AI는 이미지생성모델 스테이블디퓨젼을 학습시키기 위한 대규모 인프라 투자로 자금이 고갈됐다. 외신에서 확보한 십수명의 정보통에 따르면 극단적인 인프라 투자로 인해 지난해 10월 스테빌리티AI의 잔고는 약 400만 달러 수준에 불과했다. 이 업체는 AI모델 학습을 위해 연간 약 9천900만 달러를 클라우드 인프라에 투자한 것으로 나타났다. 또한 5천400만 달러 규모의 인건비와 기업 운영비도 매년 발생했다. 스태빌리티AI 지난해 매출은 1천100만 달러 규모로 인프라 지출의 9분의 1 수준에 불과했다. 악화되는 재무상황으로 인해 이들은 지난해 7월 발생한 100만 달러 규모의 AWS의 클라우드 비용은 지불하지 못했으며, 8월 청구된 700만 달러에 대해서도 갚을 수 없다고 답했다. 구글 클라우드와 코어위브 역시 160만 달러의 부채가 있는 것으로 알려졌다. 이러한 재정난의 원인으로는 지난달 사임한 에마드 모스타크 최고경영자(CEO)가 수익성 있는 사업을 고안하고 실행하지 못한 것이 주요 요인으로 지목됐다.

2024.04.05 15:17남혁우

오픈AI에 딴지 건 유튜브…"소라, 유튜브 동영상 활용 약관 위반"

유튜브가 오픈AI의 영상 생성 인공지능(AI) 모델 '소라'에 제동을 걸었다. 데이터 출처가 불분명하다는 지적이 잇따르는 가운데 유튜브 동영상을 소라 학습에 사용했을 경우 명백한 서비스 위반이라며 견제하는 모습이다. 닐 모한 유튜브 CEO는 5일 블룸버그 오리지널과의 인터뷰에서 "크리에이터가 유튜브 플랫폼에 자신들의 창작물을 업로드할 때 기대를 하는 것 중 하나는 서비스 약관이 준수될 것이란 점"이라며 "서비스 약관은 영상 제목, 채널명 또는 크리에이터 이름과 같은 일부 유튜브 콘텐츠가 스크랩되는 것을 허용하는 것이지, 대본이나 영상 같은 것들이 다운로드되는 것은 허용하지 않는다"고 설명했다. 그러면서 "오픈AI가 실제로 '소라'를 훈련하기 위해 유튜브 동영상을 사용했는지 여부에 대해선 직접 알지 못한다"며 "만약 그랬을 경우 유튜브의 이용약관을 명백히 위반한 것"이라고 덧붙였다. '소라'는 오픈AI가 최근 선보인 동영상 생성형 AI로, 명령어(프롬프트)를 텍스트로 입력하면 조건에 맞는 영상을 최대 1분 길이로 생성한다. 오픈AI는 소라 공개 후 약 한 달 동안 자사 틱톡 계정에 소라로 제작한 영상을 70여 개 쏟아냈다. 오픈AI는 텍스트 기반 생성형 AI '챗GPT' 출시 이후 계속해서 저작권 침해 논란에 휩싸였다. 앞서 미국 뉴욕타임스는 자사 콘텐츠를 무단으로 기계 학습에 활용했다며 오픈AI를 상대로 지난해 저작권 침해 소송을 냈다. 논란이 이어지자 오픈AI는 CNN·타임지 등에 뉴스 사용료를 내고 콘텐츠를 기계 학습에 이용하는 내용의 계약을 맺기도 했다. 이번 일에 대해 오픈AI는 입장을 밝히지 않았다. 다만 미라 무라티 오픈AI 최고 기술 책임자(CTO)는 지난달 월스트리트저널과의 인터뷰에서 "소라가 유튜브, 페이스북, 인스타그램의 사용자 제작 동영상으로 학습했는지 여부는 확실하지 않다"고 밝힌 바 있다. 닐 모한 CEO는 "구글이 자체 AI 모델인 '제미나이'를 훈련할 때 유튜브 동영상을 사용할지 여부를 결정하기 전에 크리에이터와 유튜브의 개별 계약을 준수하고 있다"며 "많은 크리에이터가 유튜브 콘텐츠와 관련해 다양한 종류의 라이선스 계약을 맺고 있다"고 말했다. 그러면서 "구글, 유튜브는 동영상을 구글 AI 학습 데이터로 사용하는 것과 관련해 크리에이터들과 사전에 체결한 서비스 약관이나 계약과 일치하도록 하고 있다"고 부연했다.

2024.04.05 09:22장유미

네이버 "하이퍼클로바X, GPT-4·라마보다 일 잘한다"

네이버의 거대언어모델(LLM) '하이퍼클로바X'가 메타의 오픈소스 모델 '라마'와 오픈AI의 폐쇄형 모델 GPT보다 번역, 추론, 수학, 일반상식 등에서 높은 성능을 기록했다는 보고서 결과가 나왔다. 6개 넘는 벤치마크 점수를 평균화한 방식을 활용해 결과 신뢰성도 높다는 평가다. 네이버는 하이퍼클로바X 성능을 오픈소스·폐쇄형 모델과 비교한 평가 결과를 4일 공개했다. 벤치마크 테스트 분야는 한국어를 비롯한 외국어, 추론, 일반상식, 수학, 코딩 등이다. 네이버는 하이퍼클로바X가 한국어뿐 아니라 영어, 중국어 등 다국어 부문에서 상위권을 기록했다는 입장이다. 연구팀은 자사 LLM이 한국어와 영어 정보를 활용해 제3의 언어로 추론하는 능력을 타사 모델과 비교했다. 이 모델은 일본어와 아랍어, 힌디어, 베트남어를 비롯한 아시아 국가 언어 능력 부문서 오픈소스 모델을 포함에 리포트에서 선정한 9개 모델 중 가장 높은 점수를 받았다. 중국어 부문에서는 동일한 폐쇄형 모델 중 2위를 기록했다. 기계 번역 평가도 마찬가지다. 한국어를 일본어로, 일본어를 한국어로 번역하는 능력은 실제 서비스 중인 번역 모델 등 리포트에서 선정한 10개의 모델 중 1위를 기록했다. 영어를 한국어로 번역하는 정확도도 동일한 10개 모델 중 가장 높은 점수를 받았다. 네이버는 자사 LLM이 오픈소스 모델뿐 아니라 오픈AI의 GPT-3.5와 GPT-4 등 폐쇄형 모델보다 특정 부문에서 성능을 능가했다는 입장이다. 우선 한국어 능력 부문에서 14개 모델 중 가장 높은 점수를 기록했다. 영어 능력 분야에선 폐쇄형 모델 중 두번째로 높은 점수를 받았다. 1위는 오픈AI의 GPT-4다. "평가 결과 신뢰성 높였다…벤치마크 다양화" 네이버는 성능 평가 신뢰성이 높다는 입장이다. 네이버 관계자는 "여러 벤치마크 데이터셋 기반 점수를 평균화하는 방식으로 종합 점수를 도출했다"고 설명했다. 예를 들어, 하이퍼클로바X와 오픈소스 모델의 일반상식 성능을 비교할 경우, ARC나 CSQA, Hellaswag, Winogrande, PIQA의 5개 벤치마크 점수를 평균화해서 종합 점수를 도출했다. 한국어 능력 측정을 비교하기 위해 한국판 AI 시험으로 알려진 KMMLU를 비롯한 글로벌 AI 언어 이해 능력 평가인 MMLU, 마이크로소프트의 AI 성능 평가 AGIeval 등 6개 벤치마크 점수를 종합했다. 관계자는 "최근 특정 리더보드에서 순위를 높이려는 목적으로 평가 데이터를 모델 학습에 활용해 벤치마크 테스트 점수를 올리는 사례가 있다"며 "이를 감안해 복수의 벤치마크 테스트 평균치로 객관성을 지켰다"고 설명했다. 일정 수준 이상의 경쟁력을 보유한 한국어와 영어 모델을 비교군으로 선정한 것도 신뢰성을 높이기 위한 방법이다. 네이버클라우드 유강민 리더는 "하이퍼클로바X의 다국어 추론, 기계 번역 능력을 측정한 실험은 지역 또는 문화권 특화 목적으로 개발한 AI가 해당 국가 언어 외에도 여러 언어에서 일정 수준 이상의 능력을 갖출 수 있음을 실증한 것"이라고 설명했다. "데이터셋 정제 작업 거쳐…알고리즘 편향 더 줄일 것" 네이버 연구진은 LLM 학습 과정도 설명했다. 보고서에 따르면, 하이퍼클로바X의 사전학습 데이터는 대부분 한국어, 영어, 코드 데이터로 이뤄졌다. 이중 지나치게 짧거나 반복적인 저품질 문서는 데이터셋에서 제외됐다. 개인정보가 들어있는 데이터도 삭제됐다. 또 정렬학습을 통해 사용자 의도와 지시를 더 잘 이해할 수 있도록 모델을 고도화했다. 회사는 하이퍼클로바X가 편향된 결과를 생성하지 않도록 조치를 취했다는 입장이다. 네이버 측은 "사회적 이슈와 편향, 불법적 행동 등 민감하거나 위험한 주제를 설정해 질의 데이터를 수집했다"며 "이를 기반으로 모델 취약점을 보완했다"고 했다. 앞으로 하이퍼클로바X 윤리 원칙에 기반해 혐오, 편향, 저작권 침해, 개인정보 등과 관련한 콘텐츠 생성 빈도를 더 줄이겠다고 했다. 네이버클라우드 하이퍼스케일 AI 성낙호 기술 총괄은 "하이퍼클로바X는 한국 특화 지식뿐 아니라 프로그래밍과 수학적 추론, 다국어 능력, 안전성까지 확보했다"며 "향후 다양한 지역 국가의 특화 초대규모 AI를 만드는 데에도 적극적으로 나설 것"이라고 말했다.

2024.04.04 16:09김미정

"생각한 이미지를 그대로" 달리, 이미지 편집기 추가

머릿속 이미지를 더욱 정확하게 시각화 하도록 돕는 편집 기능이 이미지 생성 AI 모델 '달리3(DALL-E 3)'에 추가됐다. 3일(현지시간) 미국 지디넷 등 외신에 따르면 오픈AI는 달리 에디터를 업데이트를 통해 추가했다고 밝혔다. 달리 에디터는 사용자들이 AI로 생성한 이미지를 간단하게 필요한 부분을 편집할 수 있도록 돕는 기능이다. 달리 에디터는 챗GPT에서도 생성한 이미지를 클릭하는 것만으로 간단하게 사용할 수 있으며 웹과 모바일 버전 모두 가장 특징적인 부분은 이미지에서 변경을 원하는 부분만 지정할 수 있다는 점이다. 이를 통해 이미지에서 원치 않는 배경이나 사물 등을 지정해 다른 변화 없이 해당 부분만 없애거나 다른 객체로 바꿀 수 있다. 예를 들어 사용자는 숲 사진에서 특정 나무를 지정해 제거하거나 이미지 내 특정 지역을 지정해 새로운 객체를 추가할 수도 있다. 특정 인물이나 캐릭터를 지정해 표정 등을 지정하는 것도 가능하다. 실행 취소 및 다시 실행 기능도 추가해 바뀐 이후에도 바로 복구하는 등 자유로운 편집을 지원한다.

2024.04.04 10:34남혁우

챗GPT, 이제 로그인 없이 누구나 사용한다

이제 계정 없이도 사용할 수 있도록 오픈AI가 챗GPT를 개방한다. 1일(현지시간) 오픈AI는 챗GPT를 별도 로그인 없이 바로 사용할 수 있도록 지원한다고 공식 블로그를 통해 밝혔다. 이번 발표이후 회원가입을 하지 않은 이용자도 챗GPT를 사용할 수 있으며, 기존 사용자도 로그인하지 않아도 바로 사용할 수 있다. 오픈AI는 해당 변경 사항을 전세계에 점진적으로 도입할 예정으로 지역에 따라 적용에 시간이 걸리는 지역이 있을 전망이다. 오픈AI 측은 “인공지능(AI)을 궁금해하는 사람들이 보다 쉽게 AI를 경험할 수 있도록 지원하는 것이 우리 임무의 핵심”이라며 로그인을 없앤 정책의 이유를 설명했다. 이와 함께 챗GPT와 대화하는 내용이 AI모델 학습에 사용될 수 있음을 알리면서 이를 원하지 않을 경우 설정에서 관련 옵션을 해제할 것을 원했다. 이와 별개로 오픈AI는 로그인한 사용자를 위해 채팅 기록을 저장 및 검토하고, 채팅을 공유하고, 음성 대화 및 사용자 지정 지침과 같은 추가 기능을 잠금 해제하는 등 다양한 추가 기능을 제공한다. 또한 이번 지원은 GPT-3.5로 제한된다. 상위버전인 GPT-4나 이미지 생성모델 달리 등과 연계하기 위해선 회원가입이 필요하다.

2024.04.02 10:10남혁우

"또 갈등 생겼나?"…샘 알트먼, 오픈AI 스타트업 펀드 운영서 제외

샘 알트먼 오픈AI 최고경영자(CEO)가 스타트업 투자를 위해 운영해 오던 '오픈AI 스타트업 펀드' 운영에서 손을 뗀다. 지난해 오픈AI와 이미 한 차례 갈등을 빚었던 알트먼 CEO가 이번에는 어떤 일로 펀드 소유권을 정리하게 됐는지 관심이 쏠린다. 2일 미국 IT 전문매체 악시오스, 로이터통신 등에 따르면 오픈AI는 지난달 29일 미국 증권거래위원회(SEC)에 '오픈AI 스타트업 펀드'의 지배구조를 변경했다고 신고했다. 오픈AI가 제출한 신고서에는 알트먼 CEO가 아닌 파트너 이언 해서웨이가 해당 펀드를 지배한다고 기재됐다. 이언 해서웨이는 2021년부터 '오픈AI 스타트업 펀드'의 파트너로 참여하며 여러 투자를 주도해왔다. 오픈AI 측은 이 펀드의 지배구조를 변경한 이유에 대해 밝히진 않았다. 다만 "초기 펀드 운영자(GP) 구조는 일시적인 것"이라며 "이번 변경은 추가적인 명확성을 더해준다"고 밝혔다. 오픈AI는 생성형 인공지능(AI) 챗GPT 개발사로, 그간 기업형 벤처 캐피탈(CVC)인 '오픈AI 스타트업 펀드'을 운영해 왔다. 다른 CVC와 달리 모회사가 아닌 외부 다른 투자자들로부터 자금을 조달하는 다소 특이한 구조로 운영됐는데, 그간 투자 결정권은 알트먼 CEO가 갖고 있었다. 마이크로소프트 등 다른 투자자들로부터 자금을 조달 받았으며 지금까지 투자한 규모는 1억7천500만 달러(2천372억원)에 이른다. 알트먼 CEO는 사실상 이 펀드를 소유하며 수익 창출을 위한 투자를 해왔다는 지적을 받은 바 있다. 하지만 알트먼 CEO는 이번 일로 더 이상 펀드에는 관여하지 않게 됐다. 이 때문에 일각에선 또 다시 알트먼 축출 사태가 재현된 것 아니냐는 추측이 나온다. 앞서 알트먼 CEO는 지난해 11월 오픈AI 이사회와의 갈등으로 해임됐다가 5일 만에 복귀한 바 있다. 당시 이사회는 "알트먼이 지속적으로 소통에 솔직하지 않아 이사회가 책임을 다하는 데 방해가 된다는 결론을 내렸다"고 주장하며 그를 해임한 바 있다. 하지만 '알트먼 축출 사태' 이후 오픈AI는 외부 조사를 거쳐 알트먼 CEO가 제품의 안전이나 오픈AI의 재정 측면에서 아무런 잘못이 없다는 결론을 내렸다. 또 지난달 알트먼 CEO를 해임한 지 4개월 만에 이사회에 다시 복귀 시켰다. 그러나 알트먼 CEO는 오픈AI가 비영리 법인임에도 수익 창출에 집중하고 있다는 비판을 꾸준히 받고 있다. 일론 머스크 테슬라 CEO의 경우 오픈AI가 인류의 이익을 위해서가 아니라 영리를 위해 AI를 개발해 창업 당시 공약을 어겼다면서 회사와 알트먼을 대상으로 소송을 제기하기도 했다. 또 스타트업 액셀러레이터(창업 기획자)인 Y 콤비네이터 대표를 지냈던 알트먼 CEO는 오픈AI 외부에서 광범위한 투자에 참여하고 중동에서도 펀딩 활동을 벌인 사실이 드러나 자체 조사를 받기도 했다. 업계 관계자는 "그간 펀드 투자 이익이 회사가 아닌 알트먼 CEO에게 돌아가는게 아니냐는 의혹에 시달려 왔다"며 "오픈AI가 글로벌 확장을 앞두고 예기치 못한 문제를 방지하기 위해 지배구조 정리에 돌입한 것으로 보인다"고 말했다.

2024.04.02 10:00장유미

오픈AI, 일본에 亞 첫 거점 마련…삼성·SK와 AI칩 협력 강화될까

샘 알트먼 오픈AI 최고경영자(CEO)가 일본을 아시아 첫 진출 기지로 삼았다. 지난해 4월 일본을 방문해 기시다 후미오 총리와 면담한 지 약 1년 만으로, 올해 2월 방문한 한국과도 AI칩 제작을 위해 향후 협력을 강화해나갈지 주목된다. 2일 니혼게이자이신문, 블룸버그통신 등 일부 외신에 따르면 오픈AI는 아시아 1호 사무소를 이달 중 일본 도쿄도에 오픈한다. 영국 런던, 아일랜드 더블린에 이어 해외에 마련한 세 번째 사무소다. 오픈AI는 이번에 신설하는 일본 법인 '오픈AI 재팬'을 통해 법인용 서비스를 제공하고 생성형 AI의 적절한 이용을 위한 규범 만들기에도 본격 나설 것으로 예상된다. 이와 관련해 오픈AI 최고운영책임자(COO) 브래드 라이트캡은 오는 15일 도쿄에서 기자회견을 열어 법인 설립 방침을 설명할 예정이다. 앞서 샘 알트먼 CEO는 지난해 일본 방문 후 현지 법인 개설과 일본어 서비스 확대를 검토하고 있다고 밝힌 바 있다. 오픈AI가 이처럼 나선 것은 일본에서 이미 많은 기업들이 생성형 AI 기술을 업무에 사용 중인 데다 잠재수요가 풍부하다고 판단해서다. 이에 오픈AI는 도쿄사무소를 통해 고객 지원에 나서는 한편, 독자적인 법인용 AI 서비스를 제공할 방침이다. 또 일본에서 인재도 채용할 계획이다. 오픈AI는 생성형 AI의 인기에 따른 가짜 정보 확산 등 부작용을 해소하기 위해 도쿄사무소를 앞세워 관련 제도를 만드는 논의에도 적극 참여할 것으로 알려졌다. 이를 통해 국가·지역별로 AI 이용 규칙과 위험을 줄이기 위한 표준을 오픈AI가 제대로 만들어 낼 수 있을지도 관심사다. 일본 현지 언론들은 사무소 개설을 계기로 오픈AI와 일본 경제계와의 네트워크가 깊어질 것으로 관측했다. 일본과 미국 간 반도체 동맹이 심화되는 가운데 샘 알트먼 CEO와 일본 재계가 AI칩 생태계를 구축하기 위해 협력에 나설 가능성도 있다고 봤다. 이 같은 분위기 속에 오픈AI가 한국 기업들과도 AI칩 개발에 속도를 낼 지 주목된다. 현재 AI를 학습시키고 서비스 하기 위해 필요한 고성능 칩은 엔비디아, AMD 등 일부가 독점하고 있으며 그래픽처리장치(GPU) 분야에선 엔비디아의 점유율이 90%에 달한다. 앞서 알트먼 CEO는 지난 2월 한국을 찾아 이재용 삼성전자 회장과 최태원 SK그룹 회장을 만나 협력을 논의한 바 있다. 지난해 6월 방한 때는 윤석열 대통령과 만나 한국에 대해 "챗GPT가 발전할 수 있는 기술 기반을 갖고 있는 나라"라며 "(한국이 집중했으면 하는 분야는) 반도체"라고 언급했다.

2024.04.02 09:18장유미

딥마인드 CEO "과열된 AI 투자 열풍…허위 광고 덩달아 는다"

"최근 생성형 인공지능(AI) 분야에 투자 광풍이 붑니다. 이런 현상은 과학적 진보와 기술 발전을 흐리게 만듭니다. AI 기업이 투자금을 받기 위해 자사 AI 기술로 허위 광고를 하기 시작했습니다. AI 허위 광고 증가 현상은 점점 늘고 있습니다." 데미스 하사비스 딥마인드 최고경영자(CEO)는 지난달 31일 파이낸셜타임스(FT)와 인터뷰에서 AI 기업에 쏟아지는 투자 광풍이 자칫 과학적 발전을 퇴색시킬 수 있다는 우려를 표했다. AI 분야에 수십억 달러 투자가 이어짐에 따라 과학 발전보다 AI 기술 허위·과대 광고가 더 주목받을 수 있다는 이유에서다. 2022년 11월 오픈AI가 챗GPT를 출시한 이후, 생성형 AI 분야에 투자가 이어지고 있다. 투자자들도 미국 빅테크 마이크로소프트를 비롯한 구글, 엔비디아, 아마존 등에 지속적으로 돈을 걸고 있다. 미국 시장분석기관 CB인사이츠에 따르면, 지난해 벤처캐피탈은 2천500개 AI 스타트업에 425억 달러(약 57조 1천327억원)를 투자한 바 있다. AI 기업들도 투자 경쟁을 벌이는 추세다. 이에 스타트업들은 투자 유치를 위해 자사 기술에 대한 허위 광고를 일삼고 있다. 예를 들어, 기업들은 자사 거대언어모델(LLM)이 오픈AI의 GPT-4를 능가하는 수준이라는 광고를 하거나, 특정 생성형 AI 서비스를 세계에서 처음으로 출시했다는 등 증명할 수 없는 홍보를 일삼는 추세다. 이에 미국 증권거래위원회(SEC)는 허위 기술을 주장하는 AI 기업 단속에 나섰을 정도다. 현재 미 규제 당국은 AI 관련 허위 광고를 하는 기업 대상으로 조사를 진행 중이다. 다만 그는 AI가 인류 역사상 가장 혁신적 기술이라는 점을 재차 강조했다. 하사비스는 "현재 인류는 과학계의 르네상스 시대를 맞이하고 있다"며 "AI 기술을 허위 광고하는 기업이 늘고 있지만, 실제 과학 발전이 이어지는 건 분명한 사실"이라고 말했다. 하사비스 CEO는 2021년 출시된 딥마인드의 '알파폴드' 모델을 이에 대한 근거로 들었다. 그는 "알파폴드는 2억개에 달하는 단백질 구조를 예측하도록 돕는다"며 "현재 전세계 100만명 넘는 생물학자가 이를 활용하고 있다"고 설명했다. "한국 'AI 안전성 회의' 환영…각국 대화 이어져야" 하사비스 CEO는 국가들이 AI 안전성도 챙겨야 한다는 입장이다. 하사비스는 지난해 11월 영국서 시작해 올해 5월 한국에서 열리는 'AI 안전성 정상회의'에 대해서도 환영한다고 했다. 그는 "AI 기술은 기하급수적으로 발전하고 있다"며 "각국은 AI 안전성에 대한 대화를 지속적으로 진행해야 할 것"이라고 강조했다. 그는 딥마인드가 생성형 AI에서 발생하는 오류를 줄일 수 있는 방안을 연구 중이라고 했다. 실제 딥마인드 연구팀은 거대언어모델(LLM)서 발생하는 환각 현상을 줄이기 위해 새 방법론 '세이프'를 발표한 바 있다. 새 방법론을 통해 모델 신뢰성을 높이고 기업이 생성형 AI를 상업용으로 이용할 수 있도록 돕기 위해서다. 하사비스는 "구글 검색이나 구글 스콜라에 대한 응답을 교차 대조해서 사실 확인을 하는 식"이라며 "LLM 대답의 근거를 마련하는 다양한 방법을 모색하고 있다"고 말했다.

2024.04.01 16:54김미정

美 하원 "마이크로소프트 코파일럿, 보안 취약…사용 금지"

미국 하원이 데이터 유출 우려로 생성형 인공지능(AI) 서비스 '마이크로소프트 코파일럿' 사용을 전면 차단한다. 이에 마이크로소프트 측은 올 연말께 정부용 코파일럿 서비스를 출시하는 등 대응책 마련에 나섰다. 1일 더 버지 등 IT 외신에 따르면 미국 하원은 보안상의 이유로 마이크로소프트 코파일럿 사용을 막겠다고 나섰다. 마이크로소프트는 오픈AI와 협력해 마이크로소프트 코파일럿을 출시했다. 오픈AI의 GPT-4 모델 기반으로 작동하는 생성형 AI 서비스며 웹과 모바일 앱 형태로 이뤄졌다. 유료 버전은 워드를 비롯한 엑셀, 아웃룩, 파워포인트 등 마이크로소프트 오피스 앱 내에서 작동한다. 미국 사이버보안국은 "클라우드에 하원의원들의 데이터가 유출될 위험이 있다고 판단했다"며 "코파일럿 제거를 서둘러야 한다"고 설명했다. 하원은 모든 의원의 윈도 프로그램에서 코파일럿 제거·접근 차단 작업을 진행하고 있다. 앞서 지난해 6월 하원은 특정 조건에서 오픈AI의 챗GPT 사용을 제한한 바 있다. 현재 이들은 챗GPT의 유료 구독 버전만 이용할 수 있다. 이에 마이크로소프트 측은 정부용 맞춤형 코파일럿 제품군을 출시하겠다고 발표했다. 정부 기관의 높은 보안과 규정 준수 요구 사항을 충족할 수 있는 코파일럿 버전을 만들겠다는 의지다. 이르면 올 하반기에 출시된다. 캐서린 스핀도르 최고행정책임자는 "정부는 AI 기술로 인한 광범위한 우려로 인해 이러한 결정을 진행했다"며 "향후 정부용 코파일럿이 출시되면 사용 여부를 고려할 것"이라고 밝혔다.

2024.04.01 10:21김미정

할리우드에 구애 나선 샘 알트먼…오픈AI, '소라' 고객 확보 본격화

오픈AI가 동영상 생성 인공지능(AI) 기술인 '소라'의 정식 출시를 앞두고 할리우드 시장을 공략하기 위해 본격 나섰다. 1일 파이낸셜타임스에 따르면 샘 알트먼 오픈AI 최고경영자(CEO)와 브래드 라이트캡 최고 운영 책임자(COO)는 최근 파라마운트, 유니버설, 워너 브라더스, 디스커버리 등 거대 영화사의 경영진을 대상으로 프레젠테이션을 진행했다. 이들은 '소라'가 영화 산업에 해를 끼칠 것이라는 우려 완화와 함께 할리우드에 긍정적인 영향을 미칠 것이란 점을 집중적으로 설명한 것으로 전해졌다. 오픈 AI가 지난달 공개한 '소라'는 간단한 명령어를 입력하면 사실적인 영상을 만들어낸다. 현재 일부 개발자와 창작자들에게만 공개된 상태로, 개선 작업을 통해 올 하반기께 공식 출시될 것으로 알려졌다. 미디어 애널리스트 클레어 엔더스는 "소라는 엄청난 흥분을 불러일으키고 있다"며 "영화 제작에 혁명을 일으켜 제작 비용을 낮추고 '컴퓨터 생성 이미지'에 대한 수요를 매우 강력하게 감소시킬 것이라는 느낌이 든다"고 평가했다. 이번 회의에 참석한 관계자들은 오픈AI가 영화 제작자들에게 소라의 활용 방안에 대한 의견을 구하고 있다고 분위기를 전했다. 시연을 지켜본 일부 사람들은 소라 또는 유사한 AI 제품이 제작에 드는 시간과 비용을 어떻게 절약할 수 있는지 알 수 있었지만 기술 개발이 더 필요하다고 지적했다. 파이낸셜타임스는 "오픈AI의 이 같은 움직임은 미묘한 분위기 속에 진행됐다"며 "지난해 수 개월에 걸친 파업 여파로 미국작가조합과 스크린배우조합은 계약서에 AI로부터 획기적인 보호 장치를 확보했는데, 올해는 국제 연극 무대 직원 연맹과 계약 협상이 진행 중이란 점에서 AI가 다시 한 번 뜨거운 쟁점이 될 것으로 예상된다"고 말했다. 앞서 오픈AI는 지난달 25일 일부 아티스트, 디자이너, 영화 제작자 등과 '소라'를 활용해 만든 영상 7편을 공식 소셜미디어(SNS)에 공개해 주목 받기도 했다. 일부 스튜디오는 향후 영화 제작이나 TV 제작에 소라를 사용할 의향이 있는 것으로 전해졌다. 다만 라이선스 및 파트너십에 대해서는 아직 논의되지 않은 것으로 알려졌다. 오픈AI 측근은 "매우 통제된 방식으로 오픈AI가 가장 먼저 영향을 받을 가능성이 있는 산업을 대상으로 소라를 미리 선보이고 있다"고 말했다. 미디어 애널리스트 엔더스는 "소라가 스토리텔링의 창의적 정신에 영향을 미친다기 보다 비용 절감 요소로 더 여겨지는 분위기"라며 "영화 업계에서 소라에 대한 평가는 대체로 낙관적"이라고 밝혔다.

2024.04.01 09:26장유미

오픈AI, 목소리 복제하는 '보이스 엔진' 미리보기 공개

오픈AI가 음성을 복제할 수 있는 인공지능(AI) 모델을 공개했다. 현재 소수 테스터들만 해당 모델에 접근할 수 있다. 29일 벤처비트는 오픈AI가 AI 음성 모델 '보이스 엔진'을 미리보기 버전으로 공개했다고 보도했다. 모델 개발 기간은 약 2년 걸렸다. 그동안 보이스 모델은 챗GPT의 음성 기능에 탑재됐다. 사용자 음성을 인식하고, 답변을 음성으로 제공하는 역할에 그쳤다. 이번에 공개된 모델은 음성 복제까지 가능하다. 사용자가 15초 분량의 음성 클립을 넣으면, 해당 목소리와 매우 유사한 음성을 생성하는 식이다. 오픈AI 측은 공식 블로그에서 해당 모델을 소수 파트너 그룹에만 우선 제공한다고 밝혔다. 각국 선거를 앞둔 상황에서 악영향을 미칠 수 있다는 우려에서다. 실제 올해 초 일레븐랩스의 음성 복제 기술을 사용해 조 바이든 미국 대통령의 목소리를 복제한 사건이 발생해 연방 정부가 조사에 나선 바 있다. 회사는 "해당 모델은 언어 장애인이나 학생들에게 유용할 것"이라며 "신뢰할 수 있는 소규모 파트너 그룹에게만 제공한 상태"라고 밝혔다. 현재 교육 업체 에이지 오브 러닝, 비디오 번역 업체 헤이젠, 의료용 도구 업체 디마지, 언어 장애용 장치 업체 리복스, 의료 및 교육 장치 업체 라이프스판 등이 보이스 엔진을 받았다. 블로그 내용에 따르면, 파트너사는 무단 사칭을 금지하고 음성 제공자의 사전 동의를 요구하는 사용 정책을 지켜야 한다. 생성된 복제 음성에는 귀에 들리지 않는 워터마크도 넣어야 한다.

2024.03.31 10:34김미정

MS-오픈AI, 135조 규모 AI 슈퍼컴퓨터 개발...전용칩만 수백만개

챗GPT를 만든 오픈AI와 마이크로소프트가 최대 1000억 달러(약 135조 원)를 투자해 인공지능(AI)전용 슈퍼컴퓨터를 만든다. 최근 디인포메이션 등 외신은 마이크로소프트와 오픈AI 경영진은 오픈AI의 AI를 구동하기 위한 전용 슈퍼컴퓨터 개발하는 프로젝트를 추진 중이라고 소식통을 인용해 보도했다. 코드명 '스타게이트(Stargate)'로 명명된 이 슈퍼컴퓨터는 2028년 가동을 시작할 예정이다. 기존 데이터센터와 비교해 100배 이상 많은 비용이 투자되며 수백만 개에 달하는 AI전용 칩이 설치될 것으로 알려졌다. 함께 공개된 자료에 따르면 마이크로소프트와 오픈AI는 향후 수년간 급격하게 발전할 AI환경에 맞춰 장기적인 대규모 AI 인프라 구축 계획을 준비하고 있다. 총 5단계로 이뤄져 있으며 스타게이트는 해당 계획의 마지막 프로젝트로 예상된다. 외신은 지난해 11월 선보인 AI 가속기 '애저 마이아'를 3단계로 예상하며 현재 3단계 중간 과정을 넘어선 것으로 추정했다. 네 번째 단계에 2026년에 출시될 새로운 슈퍼컴퓨터가 될 것으로 예상 중이다. 마지막 단계인 스타게이트 프로젝트까지 구축한다면 오픈AI와 마이크로소프트는 AI 소프트웨어 분야를 비롯해 반도체 분야까지 폭넓게 영향을 미칠 것으로 업계에서는 주목하고 있다. 이미 오픈AI의 샘 알트먼 CEO는 AI전용 칩 개발을 위해 삼성전자와 SK하이닉스를 비롯해 전세계 하드웨어 기업을 방문하고 있으며 마이크로소프트도 지난해 선보인 마이아 등 자체 AI칩 개발에 투자를 강화하고 있는 추세다.

2024.03.31 09:21남혁우

美 30세 미만 43% "챗GPT 활용"…60대는 6%

학력이 높고 젊은층일수록 업무에 챗GPT를 더 적극적으로 활용하는 것으로 나타났다. 'GPT스토어'에서는 주가를 예측하고 표절 감지를 피할 수 있는 앱이 인기를 끌고 있는 것으로 전해졌다. 미국 시장조사기관인 퓨리서치센터는 지난 2월 7일부터 닷새 동안 미국 내 성인 1만133명을 대상으로 조사한 결과 고학력, 젊은층들의 챗GPT 사용률이 높은 것으로 나타났다고 발표했다. 조사 결과에 따르면, 30세 미만 성인 43%가 챗GPT를 써봤다고 답했다. 이는 지난해 여름보다 10%포인트가 증가한 수치다. 반면 65세 이상 성인 중 챗GPT를 사용한다고 응답한 비율은 6%에 불과했다. 이 비율은 지난 해 7월 조사 때는 4%였다. 미국 직장인들이 업무용으로 챗GPT를 사용하는 비율도 연령에 따라 확연히 차이가 났다. 30세 미만 직장인은 10명 중 3명(31%)이 업무에 챗GPT를 사용한 반면 50대 이상 직장인은 10명 중 1명(10%)에 불과했다. 학력에 따른 챗GPT 이용률 차이도 두드러지게 나타났다. 미국 내 석·박사 학위를 소지한 취업자 중 37%가 업무에 챗GPT를 쓰고 있다고 응답했다. 학사 소지자가 29%로 그 뒤를 이었다. 2년제 대학 졸업자는 23%였다. 고교 졸업자는 12%로 챗GPT 사용률이 크게 낮았다. 'GPT스토어' 앱으로 주가 예측하고 표절 감지 회피 챗GPT내 탑재된 GPT스토어에서 가장 인기 있는 앱은 주가 예측, 표절 감시 회피 등과 관련된 것으로 알려졌다. 이날 파이낸셜타임스(FT)는 미국 데이터분석 업체 시밀러웹의 자료를 통해 올해 1월부터 2월까지 GPT스토어에서 가장 많이 사용된 앱을 이같이 소개했다. 분석에 따르면 주가 미래 움직임을 예측하는 앱 '파이낸스 위저드 앱'이 한달 동안 20만번 넘게 사용됐다. 과거 주가 움직임 기반으로 미래 주가를 보여주는 앱이다. 다만 해당 앱을 경제 자문 목적으로 사용해선 안 된다는 주의 사항을 포함하고 있다. 챗GPT로 작성한 글이 표절로 인식되는 걸 막는 앱도 상위권을 기록했다. 현재 해당 앱은 300만회 이상 조회된 상태다. 앞서 오픈AI는 학업 분야의 불공정행위에 관여하거나 조장하는 앱을 금지한 바 있다. 그럼에도 해당 앱이 상위권을 기록한 셈이다. 오픈AI가 해당 앱 제작자·사용자에 구체적인 벌칙을 주지 않아서다. 앞서 샘 알트먼 오픈AI 최고경영자(CEO)는 "GPT스토어 제작자들이 올해 말부터 앱을 통해 수익을 얻기 시작할 것"이라면서 "더 많은 이용자가 앱을 만들도록 끌어들일 것"이라고 말했다.

2024.03.29 17:19김미정

[영상] "영화 한 편도 뚝딱"…오픈AI, '소라'로 할리우드 넘어설까

"머지않아 누구나 몇 분 안에 영화를 만들 수 있게 될 거예요." 오픈AI가 지난달 공개한 동영상 생성 인공지능(AI) '소라'로 영상을 제작해 또 한 번 더 시장을 놀래켰다. 완성도 높은 영상이란 평가가 쏟아지며 큰 비용이 들어가는 현재의 컴퓨터 그래픽(CG) 기술을 일부 보완·대체 할 수 있을 것이란 전망도 나왔다. 28일 포브스에 따르면 오픈AI는 지난 25일 일부 아티스트, 디자이너, 영화 제작자 등과 지난 두 달간 '소라'를 활용해 만든 영상 7편을 공식 소셜미디어(SNS)에 공개했다. 소라는 간단한 명령어를 입력하면 사실적인 영상을 만들어낸다. 현재 일부 개발자와 창작자들에게만 공개된 상태로, 개선 작업을 통해 올 하반기께 공식 출시될 것으로 알려졌다. 이번에 공개된 영상 제작에는 캐나다 인디밴드 겸 영상제작 집단인 샤이키즈(shy kids)를 비롯해 닉 클레베로프, 어거스트 캠프, 조세핀 밀, 돈 앨런 스티븐슨 3세 등 외부 아티스트들이 참여했다. 이들은 모두 '소라'에 대한 긍정적인 평가를 내놨다. 특히 '에어헤드(Air Head)'라는 1분21초 분량의 영상을 선보인 샤이키즈는 "추상 표현주의의 새로운 시대"라며 "소라는 실제처럼 보이는 것을 만들어내는 능력도 뛰어나지만, 우리를 흥분시키는 것은 완전히 초현실적인 것을 만들어내는 능력"이라고 호평했다. 단편영화 감독 겸 작가인 폴 트릴로는 1분26초 길이의 영상을 제작한 후 "소라는 기존을 답습하는 게 아니라 새롭고 불가능한 아이디어를 현실화할 때 가장 강력한 힘을 발휘한다"며 "시간, 돈, 다른 사람의 허락에 구애받지 않고 대담하고 흥미로운 방식으로 아이디어를 구상하고 실험할 수 있었다"고 평가했다. 다른 영상에서도 기린의 목을 가진 새, 문어와 합쳐진 고래, 수면 아래서 신비로운 옷을 입은 사람 등 사람들의 상상력이 현실과 흡사한 영상으로 구현됐다. 디지털 AR·XR(증강·확장현실) 아티스트인 돈 앨런 스티븐슨 3세의 영상은 1분30초로 가장 길었다. 디지털 패션 분야 디렉터인 조세핀 밀러의 영상이 15초로 가장 짧았다. 돈 앨런 스티븐슨 3세는 "즉각적인 시각화와 신속한 프로토타이핑의 세계를 열어 기술적 장애물을 넘어 순수한 창의성으로 초점 옮길 수 있었다"며 "시간과 에너지를 필요한 곳에 더 집중할 수 있을 것"이라고 말했다. 오픈AI의 아트 담당인 알렉스 레벤은 "비디오를 3D모델로 변환할 수 있다는 가능성에 흥미를 느꼈다"며 "이는 AI시스템이 초기범위를 넘어설 수 있음을 암시하는 것"이라고 밝혔다. 이 같은 평가에 업계에선 '소라'에 대한 기대감을 키우고 있다. 또 오픈AI가 '소라'의 생성 동영상을 더 사실적으로 만들기 위해 나섰다는 점도 눈여겨 보고 있다. 앞서 미라 무라티 오픈AI CTO(최고기술책임자)는 최근 월스트리트저널(WSJ)과의 인터뷰에서 "올해 (대중들이) 소라를 이용할 수 있을 것"이라며 "몇 달 후가 될 수도 있다"고 언급했다. 이어 "현재는 소라 영상을 편집할 수 없는 상태"라며 "향후 이용자가 소라 영상을 직접 편집할 수 있는 기능도 추가하는 것을 고려 중"이라고 설명했다.

2024.03.28 09:36장유미

샘 알트먼, 레딧 주가 폭등으로 300억원 벌었다

레딧이 상장하면서 주요 투자자인 샘 알트먼 오픈AI 최고경영자(CEO)가 큰 수익을 얻었다. 27일(이하 현지시간) 미국 매체 쿼츠에 따르면 레딧은 지난 21일 상장한 이후 첫 날부터 주가가 수직 상승했다. 덕분에 핵심 투자자 중 한 명인 샘 알트먼 CEO도 엄청난 수익을 올렸다. 레딧 주가는 여전히 상승세다. 보통 새로 상장한 기업 상당수가 거래 첫날과 둘째 날에 주가 하락세를 보인 것과 상반된 결과다. 지난 25일 레딧 주가는 기업공개(IPO) 가격이던 34달러(약 4만6천원)보다 56% 상승했다. 알트먼은 2014년 이후 레딧에 총 6천만 달러 가량을 투자한 것으로 알려졌다. 덕분에 레딧이 IPO 이후 주가가 폭등하면서 3천만 달러(약 300억원) 가량의 수익을 올린 것으로 파악됐다. 현재 업계에선 레딧 지분 소유자 수익에 관심이 쏠리고 있다. 글로벌 미디어 기업인 콘테나스트 소유 기업 뉴하우스 가문의 어드밴스가 가장 많은 레딧 지분을 갖고 있다. 전체 지분의 30% 이상이 어드밴스 몫이다. 틱톡 대주주 중국 텐센트가 11%로 뒤를 이었다. 다음으로 큰 지분을 가진 건 알트먼 CEO다. 현재 알트먼을 비롯한 관련 회사들이 보유한 레딧 지분은 약 9%대다. 이중 알트먼 개인 지분만 166만 주인 것으로 알려졌다. 알트먼은 지난 2014년부터 레딧에 투자하기 시작했다. 그는 2014년 레딧의 5천만 달러(약 656억원) 자금 조달을 주도했고, 2021년까지 레딧 이사회 멤버로 활동했다. 알트먼은 X를 통해 "약 9년간 매일 레딧에 접속했다"며 "아마 레딧을 초기부터 사용한 사람 중 한명일 것"이라고 밝혔다.

2024.03.27 10:08김미정

"삼성 '빅스비'·애플 '시리' 넘본다"…오픈AI, GPT-5 앞서 'AI 음성비서' 내놓나

오픈AI가 삼성전자 '빅스비', 애플 '시리', 아마존 '알렉사' 같은 인공지능(AI) 음성 비서를 조만간 내놓을 것이란 관측이 나왔다. 25일 미국 경제 매체 비즈니스인사이더에 따르면 오픈AI는 지난 19일 미국 특허청(USPTO)에 '보이스 엔진(Voice Engine)'이라는 상표를 출원했다. 이 AI 음성비서는 올 여름께 등장할 'GPT-5'보다 먼저 공개될 것이란 전망도 있다. 상표 용도에는 음성인식, 음성명령처리, 음성생성, 번역, 텍스트와 음성 간 변환, 디지털 음성비서 등을 위한 소프트웨어(SW)가 포함됐다. 이번 상표 출원은 샘 알트먼 오픈AI 최고경영자(CEO)가 컴퓨터 과학자 렉스 프리드먼과의 팟캐스트 인터뷰에서 "GPT-5에 앞서 공개할 중요한 것이 있다"라고 밝힌 다음 날 이뤄졌다. 알트먼 CEO는 방송에서 "올해 놀라운 새 모델을 출시할 것"이라며 "무엇이라고 부를지는 모르겠다"고 말했다. 이어 "앞으로 몇 달 안에 다양한 제품을 출시할 예정으로, 아주 멋질 것"이라며 "GPT-5의 성능이 기대에 미칠 수도, 능가할 수도 있다"고 덧붙였다. 업계에선 특허 출원으로 미뤄볼 때 GPT-5 출시에 앞서 음성 비서 형태를 선보일 가능성이 높다는 분석이다. 또 음성 비서 외에도 오픈AI가 내놓은 적 없는 음악 생성 AI나 기타 모델도 출시할 수도 있다고 봤다. 일각에선 상표 등록이 성공할지에 대해 의구심을 보였다. 보이스 엔진이라는 상표는 지난 1989년 어플라이드 보이스 테크놀로지라는 회사도 신청했으나, 등록이 받아들여지지 않은 바 있다. 또 지난달 USTPO는 오픈AI의 'GPT' 상표권 등록도 거부한 바 있다. GPT가 '사전 훈련된 생성 트랜스포머(Generative Pre-trained Transformer)'의 약자로, 단순히 제품의 특성을 설명하는 용어인 데다 널리 사용되는 약어에 불과하다는 이유다. 다만 'GPT-4는' 상표 등록을 허락받았다. 또 'GPT-5', 'GPT-6', 'GPT-7', '소라', 'GPT 스토어' 등은 심사가 진행 중이다.

2024.03.25 09:18장유미

"오픈AI, 올해 GPT-5 출시…시연 진행 중"

오픈AI가 멀티모달 모델 'GPT-5' 출시를 준비 중인 것으로 알려졌다. 비즈니스인사이더는 20일(현지시간) 생성형 인공지능(AI) 모델 GPT-5가 몇달 안에 출시될 예정이라고 오픈AI 관련 소식통을 인용해 보도했다. 현재 일부 고객들 대상으로 이를 테스트 중이라는 소식도 전했다. 소식통에 따르면 시연을 진행한 한 기업 대표는 "GPT-5는 GPT-4보다 성능이 훨씬 우수하다"는 반응을 남겼다. 구체적인 출시 일정은 정해지지 않은 상태다. 다만 매체는 GPT-5 출시 시기가 올해를 넘길 수 있다는 분석도 내놨다. GPT-5가 강력한 모델인 만큼 안전성 검증하는 데 오랜 시간이 걸릴 수 있다는 이유에서다. 오픈AI는 GPT-5 출시 외에도 새로운 생성형 AI 기능을 준비 중이다. 보도에 따르면 이 기업은 'AI 에이전트'라는 새 기능 출시를 준비 중이다. AI 에이전트는 GPT-5와 작업을 자율적으로 수행할 수 있는 AI 비서 역할을 맡는다. 또 휴머노이드 로봇에도 GPT-5를 탑재한다. 이를 위해 미국 기업 피규어AI와 협업까지 맺은 상태다. GPT-5는 지난해 3월 출시한 GPT-4의 업그레이드 버전이다. 오픈AI는 GPT-4가 미국 모의 변호사 시험과 대학 입학 자격 시험 SAT, 수학 능력 시험 등에서 "사람 지능을 능가했다"고 밝힌 바 있다. 샘 알트먼 오픈AI 최고경영자(CEO)는 이달 미국 컴퓨터 과학자 렉스 프리드먼이 진행하는 팟캐스트에서 "올해 놀라운 모델을 출시할 것"이라고 말했다. 지난 14일에는 "오픈AI는 GPT-5 출시를 통해 큰 진전을 이룰 것으로 기대한다"며 "GPT-5의 발전이 크지 않을 것이란 생각은 실수일 것"이라고 밝힌 바 있다.

2024.03.21 08:36김미정

애플, 아이폰에 생성AI 탑재 위해 구글과 손잡나

애플이 인공지능(AI) 기술 강화를 위해 구글 등 여러 AI 업체들과 협력하는 방안을 모색 중이다. 월스트리트저널(WSJ)는 19일(현지시간) 애플이 차세대 아이폰에 생성형 AI 모델을 탑재하기 위해 구글과 논의 중이라고 소식통을 인용해 보도했다. 보도에 따르면, 해당 협력은 아직 예비 단계로 어떤 방식으로 제휴가 진행될 지 정해지지 않았다고 알려졌다. 또, 애플은 대규모 언어모델(LLM) 사용을 위해 구글 이외에도 오픈AI, 코히더(cohere) 등 다른 AI 업체과도 논의를 진행한 것으로 전해졌다. 이에 대해 시장 분석가들은 애플이 자체 LLM을 개발하지 못하고 있다는 증거로 보고 있다고 WSJ는 전했다. 또, 구글과 같은 회사에서 제공하는 AI 인프라를 활용하면서 애플은 AI 앱 개발에만 초점을 맞추고 있는 것으로 보인다고 덧붙였다. 미국 투자은행 JP모건은 이날 “애플이 구글 측으로부터 제미나이 라이선스를 취득하는 동시에 독자적인 로컬 모델을 개발하면 AI 경쟁에서 이점을 얻을 수 있다”고 밝혔다고 IT매체 애플인사이더는 보도했다. 이는 외부 LLM 모델을 사용하면서 온디바이스 처리와 같은 애플 강점에 집중하는 방식이다. 블룸버그통신도 전날 애플이 구글의 생성형 AI 모델 '제미나이'를 아이폰에 탑재하기 위해 논의 중이며, 오픈AI의 모델 활용도 검토했다고 보도했다. 애플은 오는 6월 개최되는 세계개발자회의 WWDC24에서 차세대 아이폰 운영체제 iOS18에 많은 생성형 AI 기능들을 추가할 계획이다.

2024.03.20 14:39이정현

'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다. 일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다. 지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. AI특이점·AGI시대 올까…"과학적으로 개념화 어려워" - 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다. - 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다. -사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까. - 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다. 관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다. - 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다. 법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다. - 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다. 다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다. - 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다. 앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다. - 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다. 기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다. - 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다. "정부, AI 안전성·윤리 세분화 기준 마련해야…개발자도 논의에 참여해야" - 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까. - 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다. 법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다. 다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다. 다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다. - 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까. - 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다. - 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다. - 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다. - 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다. 현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다. - 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다. 앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다. 현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다. - 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다. 이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다. - 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다. 현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다. 또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다. 만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다. - 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다. - 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다. 이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다. - 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다. - 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다. - 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다. - 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다. - 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다. "국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야" - 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까. - 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다. 전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다. - 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다. - 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다. 아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다. "고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야" - 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다. 다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다. - 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다. 과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다. 정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다. - 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다. - 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다. 오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다. 오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다. - 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다. - 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다. - 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다. 결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다. 사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다 네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다. - 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.

2024.03.20 13:58김미정

韓 스타트업 라이너, 글로벌 생성형 AI '4위' 차지

국내 인공지능(AI) 스타트업 라이너가 글로벌 주요 생성형 AI 서비스 순위서 4위를 기록했다. 설립 초기부터 해외 진출을 겨냥한 결과다. 19일 글로벌 벤처캐피텉(VC) 앤드리슨호로위츠 보고서 '글로벌 생성형 AI 웹 사용 순위'에 따르면 오픈AI의 '챗GPT'가 전 세계에서 가장 사용량 많은 생성형 AI 서비스인 것으로 나타났다. 2위는 구글 '제미나이', 3위는 미국 스타트업 '캐릭터닷AI'이 차지했다. 4위는 라이너의 서비스 라이너다. 라이너는 2015년 홈페이지나 문서에서 중요한 정보를 하이라이팅 해주는 서비스 '모니터 형광팬'을 공급했다. 이 기업은 모니터 형광팬을 통해 데이터베이스(DB)를 수집했다. 라이너 관계자는 "10년간 DB를 모으면서 사용자들이 어떤 정보를 가장 중요하게 생각하는지 알 수 있게 됐다"고 밝혔다. 라이너는 이를 바탕으로 지난해 AI 에이전트 '라이너 AI 워크스페이스'와 AI 비서 '라이너 코파일럿'을 출시했다. 자체 보유한 세계 160여개국 사용자 DB와 오픈AI의 GPT-4를 접목해 만들었다. 관계자는 "AI 서비스는 모니터 형광팬 기술 노하우 기반으로 챗GPT 등 일반 챗봇보다 강력한 출처 기능을 갖췄다"며 "정보 출처가 명확해야 하는 전문 직군에서 서비스 활용도가 높다"고 설명했다. 라이너 측은 글로벌 생성형 AI 서비스 월간 순위서 상위권을 차지한 주요 이유를 해외 시장 공략으로 봤다. 관계자는 "회사 설립 초기부터 국내가 아닌 해외 시장을 겨냥했다"며 "현재 전체 유료 사용자 60%는 미국 이용자"라고 했다. 라이너는 서울에 본사를 뒀으며 미국 캘리포니아주 실리콘벨리에 지사를 둔 상태다. 반면 네이버의 '클로바X'는 50위권 밖인 것으로 나타났다. 앤드리슨호로위츠 보고서 출처인 시밀러웹 올해 2월 버전을 확인한 결과, 클로바X는 PC와 모바일을 통한 웹 접속 수 30만9천회를 기록했다. 클로바X 이용자 다수는 한국인 사용자였다. 클로바X 특징이 한국어뿐 아니라 국내 문화와 정서, 법률 등을 다른 챗봇보다 가장 잘 알고 있다는 것과 일맥상통한 결과다. 반면 해외 사용률은 낮았다. 네이버 관계자는 "시장조사업체의 집계 기준을 명확히 알지 못한다"고 밝혔다. 생성형AI 앱 순위에서도 1위는 오픈AI의 챗GPT가 차지했다. 2위는 마이크로소프트 '엣지'였다. 국내 기업으로는 19위를 기록한 콴다가 있다. 콴다는 매스프레소가 운영하는 AI 풀이 플랫폼이다. 수학에 특화된 거대언어모델(LLM)이 콴다에 탑재됐다. 해당 스타트업도 2018년부터 해외 시장에 진출했다. 일본을 시작으로 베트남, 인도네시아 등에 콴다를 공급하고 있다. 해외 가입자 비중은 약 87%다.

2024.03.19 17:05김미정

  Prev 31 32 33 34 35 36 Next  

지금 뜨는 기사

이시각 헤드라인

"미국도 이제 리스크"…시장 넓히는 현대차·기아, 인도가 최대 격전지

'로밍 데이터 2배'...출국 전 '로밍' 확인 필수

SK온, '배터리연구원→미래기술원' 변경…"반고체 시제품 내년 말 생산"

종료 앞둔 정부 AI 사업 1막...이제 '국가AI컴퓨팅센터'가 승부처

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.