• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈ai'통합검색 결과 입니다. (674건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

샘 알트먼, 레딧 주가 폭등으로 300억원 벌었다

레딧이 상장하면서 주요 투자자인 샘 알트먼 오픈AI 최고경영자(CEO)가 큰 수익을 얻었다. 27일(이하 현지시간) 미국 매체 쿼츠에 따르면 레딧은 지난 21일 상장한 이후 첫 날부터 주가가 수직 상승했다. 덕분에 핵심 투자자 중 한 명인 샘 알트먼 CEO도 엄청난 수익을 올렸다. 레딧 주가는 여전히 상승세다. 보통 새로 상장한 기업 상당수가 거래 첫날과 둘째 날에 주가 하락세를 보인 것과 상반된 결과다. 지난 25일 레딧 주가는 기업공개(IPO) 가격이던 34달러(약 4만6천원)보다 56% 상승했다. 알트먼은 2014년 이후 레딧에 총 6천만 달러 가량을 투자한 것으로 알려졌다. 덕분에 레딧이 IPO 이후 주가가 폭등하면서 3천만 달러(약 300억원) 가량의 수익을 올린 것으로 파악됐다. 현재 업계에선 레딧 지분 소유자 수익에 관심이 쏠리고 있다. 글로벌 미디어 기업인 콘테나스트 소유 기업 뉴하우스 가문의 어드밴스가 가장 많은 레딧 지분을 갖고 있다. 전체 지분의 30% 이상이 어드밴스 몫이다. 틱톡 대주주 중국 텐센트가 11%로 뒤를 이었다. 다음으로 큰 지분을 가진 건 알트먼 CEO다. 현재 알트먼을 비롯한 관련 회사들이 보유한 레딧 지분은 약 9%대다. 이중 알트먼 개인 지분만 166만 주인 것으로 알려졌다. 알트먼은 지난 2014년부터 레딧에 투자하기 시작했다. 그는 2014년 레딧의 5천만 달러(약 656억원) 자금 조달을 주도했고, 2021년까지 레딧 이사회 멤버로 활동했다. 알트먼은 X를 통해 "약 9년간 매일 레딧에 접속했다"며 "아마 레딧을 초기부터 사용한 사람 중 한명일 것"이라고 밝혔다.

2024.03.27 10:08김미정

"삼성 '빅스비'·애플 '시리' 넘본다"…오픈AI, GPT-5 앞서 'AI 음성비서' 내놓나

오픈AI가 삼성전자 '빅스비', 애플 '시리', 아마존 '알렉사' 같은 인공지능(AI) 음성 비서를 조만간 내놓을 것이란 관측이 나왔다. 25일 미국 경제 매체 비즈니스인사이더에 따르면 오픈AI는 지난 19일 미국 특허청(USPTO)에 '보이스 엔진(Voice Engine)'이라는 상표를 출원했다. 이 AI 음성비서는 올 여름께 등장할 'GPT-5'보다 먼저 공개될 것이란 전망도 있다. 상표 용도에는 음성인식, 음성명령처리, 음성생성, 번역, 텍스트와 음성 간 변환, 디지털 음성비서 등을 위한 소프트웨어(SW)가 포함됐다. 이번 상표 출원은 샘 알트먼 오픈AI 최고경영자(CEO)가 컴퓨터 과학자 렉스 프리드먼과의 팟캐스트 인터뷰에서 "GPT-5에 앞서 공개할 중요한 것이 있다"라고 밝힌 다음 날 이뤄졌다. 알트먼 CEO는 방송에서 "올해 놀라운 새 모델을 출시할 것"이라며 "무엇이라고 부를지는 모르겠다"고 말했다. 이어 "앞으로 몇 달 안에 다양한 제품을 출시할 예정으로, 아주 멋질 것"이라며 "GPT-5의 성능이 기대에 미칠 수도, 능가할 수도 있다"고 덧붙였다. 업계에선 특허 출원으로 미뤄볼 때 GPT-5 출시에 앞서 음성 비서 형태를 선보일 가능성이 높다는 분석이다. 또 음성 비서 외에도 오픈AI가 내놓은 적 없는 음악 생성 AI나 기타 모델도 출시할 수도 있다고 봤다. 일각에선 상표 등록이 성공할지에 대해 의구심을 보였다. 보이스 엔진이라는 상표는 지난 1989년 어플라이드 보이스 테크놀로지라는 회사도 신청했으나, 등록이 받아들여지지 않은 바 있다. 또 지난달 USTPO는 오픈AI의 'GPT' 상표권 등록도 거부한 바 있다. GPT가 '사전 훈련된 생성 트랜스포머(Generative Pre-trained Transformer)'의 약자로, 단순히 제품의 특성을 설명하는 용어인 데다 널리 사용되는 약어에 불과하다는 이유다. 다만 'GPT-4는' 상표 등록을 허락받았다. 또 'GPT-5', 'GPT-6', 'GPT-7', '소라', 'GPT 스토어' 등은 심사가 진행 중이다.

2024.03.25 09:18장유미

"오픈AI, 올해 GPT-5 출시…시연 진행 중"

오픈AI가 멀티모달 모델 'GPT-5' 출시를 준비 중인 것으로 알려졌다. 비즈니스인사이더는 20일(현지시간) 생성형 인공지능(AI) 모델 GPT-5가 몇달 안에 출시될 예정이라고 오픈AI 관련 소식통을 인용해 보도했다. 현재 일부 고객들 대상으로 이를 테스트 중이라는 소식도 전했다. 소식통에 따르면 시연을 진행한 한 기업 대표는 "GPT-5는 GPT-4보다 성능이 훨씬 우수하다"는 반응을 남겼다. 구체적인 출시 일정은 정해지지 않은 상태다. 다만 매체는 GPT-5 출시 시기가 올해를 넘길 수 있다는 분석도 내놨다. GPT-5가 강력한 모델인 만큼 안전성 검증하는 데 오랜 시간이 걸릴 수 있다는 이유에서다. 오픈AI는 GPT-5 출시 외에도 새로운 생성형 AI 기능을 준비 중이다. 보도에 따르면 이 기업은 'AI 에이전트'라는 새 기능 출시를 준비 중이다. AI 에이전트는 GPT-5와 작업을 자율적으로 수행할 수 있는 AI 비서 역할을 맡는다. 또 휴머노이드 로봇에도 GPT-5를 탑재한다. 이를 위해 미국 기업 피규어AI와 협업까지 맺은 상태다. GPT-5는 지난해 3월 출시한 GPT-4의 업그레이드 버전이다. 오픈AI는 GPT-4가 미국 모의 변호사 시험과 대학 입학 자격 시험 SAT, 수학 능력 시험 등에서 "사람 지능을 능가했다"고 밝힌 바 있다. 샘 알트먼 오픈AI 최고경영자(CEO)는 이달 미국 컴퓨터 과학자 렉스 프리드먼이 진행하는 팟캐스트에서 "올해 놀라운 모델을 출시할 것"이라고 말했다. 지난 14일에는 "오픈AI는 GPT-5 출시를 통해 큰 진전을 이룰 것으로 기대한다"며 "GPT-5의 발전이 크지 않을 것이란 생각은 실수일 것"이라고 밝힌 바 있다.

2024.03.21 08:36김미정

애플, 아이폰에 생성AI 탑재 위해 구글과 손잡나

애플이 인공지능(AI) 기술 강화를 위해 구글 등 여러 AI 업체들과 협력하는 방안을 모색 중이다. 월스트리트저널(WSJ)는 19일(현지시간) 애플이 차세대 아이폰에 생성형 AI 모델을 탑재하기 위해 구글과 논의 중이라고 소식통을 인용해 보도했다. 보도에 따르면, 해당 협력은 아직 예비 단계로 어떤 방식으로 제휴가 진행될 지 정해지지 않았다고 알려졌다. 또, 애플은 대규모 언어모델(LLM) 사용을 위해 구글 이외에도 오픈AI, 코히더(cohere) 등 다른 AI 업체과도 논의를 진행한 것으로 전해졌다. 이에 대해 시장 분석가들은 애플이 자체 LLM을 개발하지 못하고 있다는 증거로 보고 있다고 WSJ는 전했다. 또, 구글과 같은 회사에서 제공하는 AI 인프라를 활용하면서 애플은 AI 앱 개발에만 초점을 맞추고 있는 것으로 보인다고 덧붙였다. 미국 투자은행 JP모건은 이날 “애플이 구글 측으로부터 제미나이 라이선스를 취득하는 동시에 독자적인 로컬 모델을 개발하면 AI 경쟁에서 이점을 얻을 수 있다”고 밝혔다고 IT매체 애플인사이더는 보도했다. 이는 외부 LLM 모델을 사용하면서 온디바이스 처리와 같은 애플 강점에 집중하는 방식이다. 블룸버그통신도 전날 애플이 구글의 생성형 AI 모델 '제미나이'를 아이폰에 탑재하기 위해 논의 중이며, 오픈AI의 모델 활용도 검토했다고 보도했다. 애플은 오는 6월 개최되는 세계개발자회의 WWDC24에서 차세대 아이폰 운영체제 iOS18에 많은 생성형 AI 기능들을 추가할 계획이다.

2024.03.20 14:39이정현

'AGI 시대' 어떻게 준비할까…"AI 윤리·안전성 세분화부터"

인공지능(AI) 기술이 무섭게 성장하고 있다. 지난달 미국에선 오픈AI를 비롯한 구글, 스태빌리티AI 등 AI 기업이 새로운 모델과 서비스를 쏟아냈다. 앤트로픽도 새 모델을 공개하면서 GPT-4를 능가했다는 평을 받고 있다. 이번 주 엔비디아도 고성능 AI칩과 소프트웨어(SW)를 내놨다. 이 와중에 지난주 유럽연합(EU) 의회가 AI법 최종안을 통과시켰다. 일부 전문가들은 AI가 사람의 지적 수준을 넘어서는 현상을 말하는 'AI 특이점' 또는 '일반인공지능(AGI)' 시대가 곧 올 것으로 예측하고 있다. 아직 멀었다는 의견도 있다. 향후 혼선을 없애기 위해 AI 안전과 윤리부터 구체화해야 한다는 주장도 나오는 추세다. AI 주권 또한 잊어선 안 된다는 의견도 등장했다. 지디넷코리아는 포티투마루와 공동으로 '생성형 AI: 특이점이 올 것인가'를 주제로 좌담회를 개최했다. 좌담회에선 최근 이슈인 특이점에 대한 기준, AGI에 대한 개념에 대해 이야기 나눴다. AI 안전과 윤리, 국내 AI법이 가야 할 방향도 토론했다. 이번 좌담회에 건국대 김두현 컴퓨터공학부 교수, 서울교육대 김봉제 윤리교육과 교수 겸 AI 가치판단 디자인 센터장, 카이스트 김진형 명예교수, 법무법인 원 오정익 AI대응팀 변호사, 경희대 이경전 경영대학·빅데이터응용학과 교수, 상명대 이청호 계당교양교육원 철학담당 교수가 참석했다. 사회는 김동환 포티투마루 대표가 맡았다. AI특이점·AGI시대 올까…"과학적으로 개념화 어려워" - 김동환 대표(이하 사회): 최근 오픈AI가 테스트로 이미지를 생성하는 '소라'를 출시했고, 구글도 '제미나이 1.5'와 '젬마'를 내놨다. 스태빌리티AI도 '스테이블 디퓨전 버전 3'를 공개했다. 이렇게 생성형 AI가 비약적으로 발전함으로써 인간의 지적 능력을 넘어서는 지점, 즉 AI 특이점이 올 것인지, 온다면 언제쯤 올 것인지, 왜 그렇게 생각하는지 다양한 관점에서 얘기를 나눠보고자 한다. - 김진형 교수: '특이점' 용어 자체가 모호하다. 학자들이 특이점을 이야기할 때 '특정 분야를 사람보다 더 잘하는 AI가 나타난 순간'과 '이것저것 다 잘하는 범용 AI의 출현'이라고 한다. 다른 학자들은 지구상 모든 인류의 지능 총합과 AI의 합 중에서 AI가 능가할 경우 특이점이 온 것으로 정의하기도 한다. 비전문가들은 특이점을 단지 일 잘하는 AI, 모든 걸 잘하는 AI가 등장했을 때 특이점이 왔다고 생각한다. 다만 이런 식으로 생각하면 몇몇 분야에서는 특이점이 왔다. 반면 다른 분야는 그렇지 않다. 기준이 모호하다. -사회: 최근 AGI도 자주 언급되기 시작했다. AGI 시대가 곧 올 거라는 의견이 많아지고 있다. 현재 샘 알트먼 오픈AI 최고경영자(CEO)가 AI 반도체 구축을 위해 전 세계를 돌아다니고 있다. 이것도 다 AGI 시대를 준비하기 위해서라고 본다. 기술적으로 준비는 차질 없이 되는 듯하다. AGI의 등장도 AI 특이점이라고 봐야 할까. - 김두현 교수: AI의 특이점을 인간과 AI 기술의 축구 경기로 비유할 수 있다. 지금은 전반전이다. 경기 시작부터 인간이 이기고 있어서 현재 1:0 정도로 진행 중이다. 전반전 끝나는 시점이 되면 1:1 정도가 되지 않을까 싶다. 현재 범용 AI든 특화용 AI든 무엇이 더 잘하냐를 볼 때, 아직은 인간이 잘하는 게 좀 더 많다. 다만 AI가 많은 영역에서 인간 능력을 따라잡을 것이다. 그래서 전반전은 1:1로 끝날 가능성이 높다. 관건은 후반전이다. 후반전 중반쯤 AI가 인간을 따라잡아서 2:1 정도 될 수 있을 것 같다. 이 상태에서 10년 더 지날 경우, 3:1까지 격차가 벌어질 수 있다고 본다. AGI가 반드시 필요할까라는 의문이 든다. AGI를 만들어서 어디다 쓸 건지는 좀 고민을 해봐야 한다. AI가 오히려 산업적으로는 필요하지만, AGI가 우리 삶에 유용할까라는 점을 생각할 필요가 있다. - 오정익 변호사: 누군가 '패널 중 누가 지능이 제일 뛰어날까'라고 묻는다면, 아무도 답할 수 없다. 어느 분야에 대한 지능으로 볼 것인가, 비교 기준점은 무엇인가에 따라 답은 다르다. 법률 분야에서 AI는 법률을 검색하고 판례를 요약하는 역할을 한다. 그 이상의 업무를 AI가 진행할 때 고려해야 할 점이 많다. 일반적으로 법조인은 어떤 행위에 대한 증거 가치를 판단하고, 그 증거를 재판에 어떻게 적용할지 생각한다. 이전 판례를 참고해 판단할 수는 있지만, 어려운 작업이다. 판결문을 작성하기 전 필요한 모든 것들을 완벽히 할 수 있는 AI는 아직 출현하기 어려울 것으로 보인다. 앞으로는 더 좋아질 거라는 생각은 든다. - 김봉제 교수: 가치 판단이라는 말이 나왔는데, 논리성은 이미 AI가 인간 능력을 넘어섰다고 본다. 다만 AGI를 위한 AI 발달을 7단계로 나눠봤을 때, AI에서 AGI로 넘어가기 위해 필요한 건 도덕 판단·가치 판단 능력이다. 결국 일상생활에서 AI가 자신의 선택을 정당화할 수 있고, AI 판단력이 사회적으로 받아들일 수 있는 수준이어야 AI 특이점이 왔다고 할 수 있다. 다음 세대를 위해 AGI는 필요하다고 본다. 교육 쪽에 있다 보니까 상상을 많이 한다. 아이들이 학교에서 집에 오면 부모가 없을 때가 있다. 그때 아이들은 AGI 시스템과 대화를 할 수 있다. AGI한테 학교에서 무슨 일이 있었고, 친구와 무얼 하며 놀았고 등등 이런 것 주제로 대화할 수 있다. 즉 AGI 시대에는 아이들이 일상 대화를 AGI와 자연스럽게 할 수 있을 것이다. 이러한 특이점을 확보한 AGI는 우리 세대가 아니라 다음 세대에게 당연한 게 아닐까 라는 생각이 든다. - 오정익 변호사: EU의 AI법안을 보면, 복지서비스 공급을 위한 평가, 교육 우선순위 제공 등 사람에 대한 가치 판단을 하는 AI는 '금지된 AI'로 분류됐다. 인간 심사자가 서류를 통해 종합적으로 판단하고, 사회적인 가치를 반영해 평가할 순 있지만 이를 AI로 해선 안 된다는 게 EU의 AI법안이다. 이미 EU는 이러한 가치 판단을 AI에 맡기지 않는 기조로 갈 전망이다. 인간으로서 할 수 있는 분야 몇 분야가 벌써 AI를 금지하고 있는 것이라 할 수 있다. AI가 할 수 있는 영역이 너무 많다. 앞으로 사람은 AI를 어디까지 허용해야 할 것이고, 할 수 있어도 활용을 할 것인지 사회적 논의를 해야 할 것이다. 현재 이런 단계가 온 것 같다. 그런데 아무도 이 논의를 하고 있지 않다. 이러한 논의를 하지 않았을 경우 가장 먼저 피해를 보는 분야가 나올 것이다. EU는 AI법 관련 공청회를 현재까지 500회 이상 했다고 말하고 있다. 실제 자료도 많다. 정부뿐 아니 전 사회가 관련 논의를 해야 할 필요가 있다. - 이경전 교수: AI는 그냥 사람이 이용하는 도구일 뿐이다. 인간과 도구의 대결이 아니라 이 도구를 갖고 있는 사람과 또 다른 도구를 갖고 있는 사람의 경기라고 본다. AI는 그냥 인간이 만든 기계다. 소유권도 인간에게 있다. 기업들이 계속 경쟁하면서 AI 서비스를 팔고 있는 추세다. 서비스를 판다는 건 누구의 소유권을 이전한다는 의미다. 사용권을 이전하거나 재산권을 이전하는 건데, 그러다 보면 결국은 얀 르쿤 메타 AI수석과학자가 얘기하는 것처럼 결국은 수천만의 사람이 저마다 다른 AI를 가지게 될 것이다. AI의 특이점이라든지 AGI 시대 등은 수학적으로 정확히 논의할 수 없는 주제다. 이 시대가 온다 안 온다라고 이야기하면 혼란만 가중된다. 인간이 능력 없어서가 아니라 수학적으로 정의가 되지 못하기 때문이다. - 이청호 교수: AI가 일반지능이냐, 초지능이냐 이런 기준으로 이야기하기보다는 얼마나 인간의 삶에 영향을 미치고, 사람이 AI에 얼마나 의존하고 얼마큼 활용하는지 생각하는 게 더 중요할 것으로 본다. AI를 어떤 분야에 적용하고, 이를 어느 정도로 개발해야 하는지에 대한 선택과 집중 문제가 계속 생길 것으로 전망한다. 이런 측면에서 AI 특이점을 논하는 것도 중요할 수 있지만, 어떻게 사람이 AI를 잘 활용하고 통제, 관리해서 기술과 공존할 수 있을까의 문제에 좀 더 초점을 맞추는 게 좋다고 본다. "정부, AI 안전성·윤리 세분화 기준 마련해야…개발자도 논의에 참여해야" - 사회: 다음 주제는 'AI 안전성'이다. 지난해 11월 영국서 열린 'AI 안전 회의'에서 각국 정상들이 AI 안전성을 이야기했다. 이에 대한 연장선상으로 올해 5월 서울에서 이 행사가 열린다. 그만큼 AI 안전성에 대한 중요도가 커졌다. 최근 AI 안전성이 중요하니까 AI 법제화를 해야 한다는 목소리도 커지고 있다. 반면 사람이 기술 발전을 막을 수 없으니 이에 대한 자율성과 보완책을 마련해야 한다는 의견도 나오는 모양새다. 현재 AI 안전성 현주소와 개선해야 할 점은 무엇일까. - 오정익 변호사: 지난해 12월 캐나다가 '법원의 AI 이용 원칙 및 지침'을 발표했다. 같은 달 영국도 '법관의 AI 이용 지침'을 내놨다. 캐나다에서 소송 과정 중 법조인이 AI를 사용해 생성한 문서에는 맨 앞에다 '이 문서는 AI로 생성한 문서다'고 표시하도록 의무화했다. 법원이 AI를 이용할 때는 특정 원칙을 준수하고 공표해야 한다. AI의 위법성 파악, 투명성 등을 준수하라는 것이다. 영국 지침도 마찬가지다. 법관이 확인되지 않은 법률 정보를 검색할 때는 AI를 이용한 검색을 자제하라는 내용이다. 이미 알고 있는 법률 문서를 찾을 때는 괜찮지만, 자기가 알 수 없는 걸 검색할 때는 문제가 될 수 있기 때문이다. 법률 분야는 인간의 권리 의무 관계에 중요한 영향을 미친다. 현재 팩트를 100% 확인할 수 없는 상황에서 AI를 쓰는 게 위험하다라는 것이 기저에 깔려 있다. 캐나다는 한국보다 훨씬 AI 활성화가 빨라서 그런지 이러한 이야기들이 자주 나온다. 법률 분야에 AI가 들어가려면 범용 기능을 충분히 갖춘 후, 여기에 법률 내용을 덧입혀야 한다고 본다. 사법 분야에서는 AI의 안정성뿐 아니라 투명성, 편향성을 포함한 넓은 의미의 신뢰성에 관한 부분을 중요하게 봐야 한다. 다만 AI의 기능을 기술적으로 어떻게 검증할 것인가의 문제는 아직 논의되고 있지 않다. 기술적으로 AI를 어떻게 평가할 것인지, AI가 어느 정도 안전한지, 사법 분야에서는 얼마나 AI를 안전하게 활용할 수 있을까에 대한 평가가 이뤄지고 있지 않다. 기업이 전혀 관심 두지 않는 분야다. 기업 입장에서 이러한 검증이 이뤄지는 순간 부담으로 작용하기 때문이다. 따라서 국가는 이러한 검증 기준을 마련하고 안내해야 한다. AI 개발이 잘못된 방향으로 가지 않도록 해야 한다. 다만 AI 법제화는 서두르면 안 되는 것 같다. 법제화가 한번 굳어지면 오히려 규율로 작용할 가능성이 높다. 국내 AI 기업은 한국만 시장으로 보지 않는다. 한국형 법제화 구조를 만들면, 오히려 그 규제를 받지 않은 외국 기업이 국내에서 상대적으로 발전할 수밖에 없다. 따라서 정부는 법적 효력은 없지만 안내를 해줄 수 있는 가이드라인 수준으로 방향성을 보면서 AI 법을 만드는 게 맞을 것으로 본다. - 사회: 기술 관점에서는 AI 안전성을 어떻게 보나. AI 기술이 사회에 부작용을 주더라도 개발자는 이를 지속적으로 개뱔해야 할까. - 김진형 교수: AI 제품 안전을 위해 규제가 좀 강해도 문제없다고 본다. 아무래도 AI가 널리 많이 쓰이다 보니 잘못 활용될 가능성이 높다. 완전하지 않은 기술을 현장에 갖고 나오는 걸 철저하게 막아야 한다. 현재 자율주행차가 100% 안전하지 않기 때문에 길거리 못 다니게 하는 것과 같다. 엔지니어 역할도 중요하다. 제품이 안전하지 않으면 안전하지 않다고 알려야 한다. 이는 엔지니어의 사명이다. - 김두현 교수: 규제에 대한 표준이 필요하다. 공신력 있는 기관에서 해당 표준을 정해줘야 한다. 그래야 기술이 투명해진다. 기술이 투명해야 소비자들이 안전한 선에서 기술을 자율적으로 활용할 수 있다. 그런 면에서 오픈소스가 중요한 역할을 할 수 있다. 무언가를 오픈소스로 개방하면 많은 개발자나 관계자들이 그 내용을 사전에 검증할 수 있다. 이런 방식처럼 규제도 동일하게 생각해 보는 것도 좋겠다. - 김봉제 교수: 규제가 세분될 필요도 있다. 그래야 개발자들이 AI 안전성을 구체적으로 검증하고, 윤리학자들이 AI 안전성을 윤리적 측면에서 집중적으로 검증할 수 있다. 안전성을 보장하면서도 기술 개발을 할 수 있는 환경을 조성하는 셈이다. 일단 기술 개발은 이어져야 한다. 그러나 안전성과 관련해서는 국가 수준에서 판단할 수 있는 기준 등을 구체화해서 AI 기능별로 맞춰야 한다. - 김진형 교수: 제품의 문제점은 그걸 만든 사람이 제일 잘 안다. 현재 대기업들은 내부적으로 AI 제조 과정이 체계화됐다. 어느 부분에서 기술 중간 점검을 하고 검토해야 하는지 다 정해져 있다. 이런 식의 접근법이 우리가 가야 할 방향이라고 본다. 현재 AI가 예상치 못한 어떤 큰 위해를 사람에게 끼쳤을 때 누가 책임져야 하냐는 논쟁도 있다. 개인적으로 AI를 만든 사람이 책임져야 한다고 본다. 따라서 엔지니어로서 아니면 제품을 파는 사업가로서 자기 기술과 제품이 사회에 끼칠 해악을 늘 생각하고 고민해야 한다. - 오정익 변호사: 사실 AI가 주목받는 이유는 기존과 다른 기술이라는 점 때문이다. AI 안전성이 무엇인가 논의하는 게 중요해졌다. 기술 수준은 높아졌는데, 오히려 철학적인 문제가 더 중요한 시대가 돼버렸다. 지금까지는 법이 정해지거나, 기술 위험성이 알려졌으니까 모두 그러려니 하며 살았다. 그러나 AI는 너무 방대한 영역에 들어설 수 있다보니 모든 사회적 논의와 다 연관됐다. 안전성을 늘 논의해야 한다. 앞으로 인문학자, 철학자뿐 아니라 개발자들도 머리를 맞대고 AI 안전성 논의를 해야 한다. 안타까운 건 이 기술이 워낙 빠르게 발전하고 있다는 것이다. 아무래도 시장성이 중요할 수밖에 없다. 이런 상황에서 엔지니어들이 더 깊숙하게 안전성에 대해 생각해야 한다. 현재 산업계에 AI 법제 정비를 하는 종사자들이 있긴 하다. 그러나 이들은 법을 잘 모른다. AI에 대해 잘 모르는 사람들이 규제를 만드는 상황이 온 것이다. 그럼 나중에 '뭐 이런 얼토당토않은 법이 있어'라는 목소리가 커질 수 있다. 신기술일수록 개발자가 적극적으로 들어와서 법 제도에 개입해야 한다. 논의가 산으로 가지 않도록 해야 한다는 것이다. 옛날처럼 뒷짐 지고 있으면 탁상공론에 그칠 수 있다. - 김봉제 교수: AI 안전성은 교육 관점에서도 중요하다. 조금 다른 의견을 제시하겠다. 구글 챗봇 제미나이, 오픈AI 챗GPT, 네이버 클로바X에게 동일한 딜레마 상황을 줬었다. 어떤 갈등 상황을 준 다음, 이에 어떻게 대처해야 할까라는 식의 질문이었다. 이때 AI에 필요한 건 도덕적 판단력이었다. 그랬더니 제미나이와 챗GPT는 답 자체를 안 했다. 클로바X만 답했다. 보통 윤리적으로 도덕적 판단력을 검증할 수 있는 단계가 있는데, 예를 들어 1단계부터 5단계까지 있다고 쳤을 때, 클로바X는 4단계 수준으로 답을 했다. 이게 오히려 문제가 된다. 2단계 수준의 지능을 가진 어린이에게 클로바X가 4단계로 답을 하면 안 된다. 아이들 발달 단계에 좋지 않다. 대답 자체가 아이한테 자괴감을 줄 수 있다. 챗봇이 아이 수준을 뛰어넘는 생각을 하기 때문이다. 챗봇은 2단계 아이에게 3단계에 맞는 답을 주거나, 2단계 정도의 안정적인 답을 주면서 반응해 줘야 한다. 일반적인 답을 주면 성인이 볼 때는 문제 없지만, 교육 전문가가 시각에서, 이는 어린이 발달장애에 상당한 해를 끼칠 수 있을 거라고 본다. - 이경전 교수: 예전 AI 챗봇 '이루다'가 나왔을 때, 이루다에게 성적인 발언을 하는 사람들은 큰 비난을 받았다. 사실 그 사람은 법적으로 아무 잘못 없다. 이루다는 기계이기 때문에 이를 성희롱으로 인지하지 못한다. 현재 오픈AI의 챗GPT 웹 버전 하단을 보면 '챗GPT는 기계이므로 실수를 할 수 있다'고 명시돼 있다. 매우 적절한 조치라고 본다. 계속 이를 알려야 사람들이 잘못 생각하지 않는다. 챗봇은 사람이 아니라 기계라는 개념을 계속 알려야 한다. 또 다른 예시도 있다. 예전 한 정치인이 로봇 개를 발로 찬 적이 있다. 사람들이 그를 비난했다. 개가 불쌍하다는 이유에서다. 사실 그 정치인은 로봇 개가 어떤 자극에도 문제없다는 걸 보여주기 위한 퍼포먼스를 한 것이다. 로봇 개는 고통을 못 느낀다. 그런데 사람들은 공감 능력이 있기 때문에, 개가 차인 것에 대해 아픔을 느꼈다. 여기서 윤리적 판단을 기대하는 건 착각이라고 본다. 만약 그 정치인이 로봇 개 소유권자의 허락을 받았다면 그 개를 차면서 기능 테스트를 해도 된다. 로봇에 손상을 입혔을 경우 금전적 보상을 하면 된다. 윤리상 아무 문제는 없다. 개인의 사생활이나 개인의 도구 이용 방식, 개인의 사적인 사용이라는 것에 윤리적 잣대를 들이대는 것은 오히려 더 비윤리적이라고 본다. - 이청호 교수: 로봇 개를 학대하는 것은 직접적으로 인간에게 나쁜 영향을 끼치지 않는다. 그러나 칸트 이론에 따르면, 이는 잠재적으로 나쁜 영향을 끼칠 수 있다. 현재 칸트가 존재했다면 한 정치인이 로봇 개를 차는 모습을 보고 이와 같이 발언했을 것 같다. - 오정익 변호사: 어느 부분을 윤리로 바라볼 것인가가 중요하다. 철학적인 문제와 사회적으로 어느 부분까지 허용할 것인가의 윤리는 또 다른 문제라고 본다. 내가 로봇 소유자로서 누군가가 내 로봇을 발로 찼을 때 비난할 권리는 있다. 그러나 사회적으로 용납 안 되는 윤리는 또 다른 문제인 것 같다. 접근 방법이 다르다. 이루다를 예시로 들면, 사람이 이루다에 성희롱 발언을 하는 행위 자체는 자유로울 수 있고 윤리적 문제도 없을 수 있다. 그러나 본인이 피폐해지는 걸 법적으로 강제할 수 없다. 자살하는 것도 법률적으로 금지할 수 없지만 본인이 자살하는 건 범죄가 아니다. 어떤 지점에서 보면 윤리의 사회적 합의가 필요한 시점이라 할 수 있다. - 김봉제 교수: '피폐해진다'는 그 표현 자체가 일단 답을 좀 갖고 있다고 생각한다. 로봇 개를 때리고, 이루다에게만 성적인 발언을 하면서 혼자 살면 상관없다. 그런데 결국 피폐해진 마음을 갖고 사회 속에 나와서 관계하고 살면 그 피폐한 영향력이 자기에게만 한정되지 않고 타인에게 잠재적으로 간다. 그런 부분 때문에 윤리성 고려를 해야 한다. - 이경전 교수: 지난해 AI 안전성 회의는 나름대로 의미 있다고 볼 수 있다. 중국까지 이 행사에 와서 프론티어AI 합의를 했다는 점에서 주목할 만하다. - 김진형 교수: EU의 AI법은 AI에 대한 리스크 레벨을 개념화한 건 주목할 만하다. 이런 점에서 AI 안전성 회의는 합리적인 생각을 나눌 수 있던 자리였다. 무조건 AI는 다 위험하다는 논리는 더 이상 통하지 않는 시대가 왔다. 예를 들어, 누군가가 'AI를 통제합시다'고 했을 때, '어떤 AI를 이야기하는 것이냐'고 구체적으로 나가야 한다. - 이경전 교수: 프랑스 정부는 EU의 AI법의 강력한 규제에 다소 회의적이다. 자국 기업 미스트랄AI의 미스트랄이 높은 퍼포먼스를 보이니까, 프랑스가 AI 규제론에 가까웠다가 이제 개방적으로 바뀌고 있다는 말이 나오고 있다. 중국도 지난해 입법 공약을 보면 처음에 굉장히 강했다. 현재 미국과의 경쟁을 위해서 중국 내부 법률도 많이 완화된 상황에 있는 것 같다. - 김진형 교수: 부끄럽지만, 한국 AI 기술이 선두는 아니다. 더 강하게 AI를 쓰는 나라들이 어떤 문제를 겪고 있는지를 잘 들여다보고 이를 규제에 반영하는 것도 좋은 전략이 아닐까 싶다. "국내 AI법, 좀 늦어도 된다…한국 체질에 맞게 만들어야" - 사회: 최근 소버린AI와 AI주권에 대한 이야기가 지속적으로 나오고 있다. 독자적인 LLM을 보유하고 있느냐 아니냐가, 핵무기를 보유하고 있느냐, 아니냐와 직결된다는 말도 심심찮게 나온다. 현실적으로 한국 기업은 해외 빅테크에 비해 열악하다. 이런 상황에서 한국 정부나 기업들은 AI 패권을 쥐기 위해 어떻게 접근해야 할까. - 이청호 교수: 스탠퍼드대의 휴먼 센터드 인덱스에서 제시한 AI 인덱스를 보면 2016년에는 AI와 관련된 법안이 하나밖에 없었다. 2022년 37개로 늘었다. 전 세계적으로 AI 분야는 국력과 직결될 수 있는 가장 중요한 산업 분야로 부상하고 있다는 것은 부인할 수 없는 사실이다. 현재 우리 정부가 AI 가이드라인에 대해 큰 신경을 쓰지 않다가 뒤늦게 전면적으로 나서고 있는 듯하다. 전 세계적으로 AI 전쟁은 예전부터 시작됐다. 현재 더 가시화되고 있다. 이런 상황에서 우리는 AI 기술뿐 아니라 법에서도 선두 주자는 아니다. 미국이나 중국, 아니면 캐나다 이런 나라들이 AI 기술에 있어서 선두 주자라고 한다면 우린 후발주자로서 좀 느리더라도 안전하게 가야 한다. 선두 주자들이 어떻게 기술 개발하는지를 파악해야 하고 우리나라 체질에 맞게 따라가는 것을 정하는 것도 좋은 전략이다. - 사회: 최근 일본은 원천 기술 개발보다는 서비스 모델 개발하는 데 집중하겠다고 밝혔다. 국가 차원에서는 아예 그냥 선언처럼 해버린 상황이다. 우리도 비슷한 상황인 것 같다. 원천 기술 쪽에 조금 더 투자하고 집중해서 갈 거냐, 아니면 활용하는 쪽으로 갈 거냐 그런 부분들에 대한 현실적인 고민이 있는 듯하다. - 이경전 교수: 일본 사례를 비춰보면, 초거대 AI 모델 만드는 기술 자체가 일상품화(Commodity화) 될 것으로 본다. 앞으로 기업은 투트랙 전략으로 가야 한다. 초거대 AI 기술을 개발하는 것과 초거대 AI를 잘 사용해서 서비스를 만드는 것이다. 아쉬운 점은 한국 정부가 LLM 보유 기업으로 네이버, LG AI연구원, KT 등만 언급하고 있는데, 스타트업에서도 수준 높은 개발사가 나와야 한다고 본다. 정부가 스타트업 자금 대주는 대기업에 인센티브를 주는 방식도 좋다. 지금도 정부가 국내 벤처기업에 돈을 내는 거나 마찬가지다. 이런 정책적 노력이 필요하다. "고품질 데이터 절실...네이버, 오픈AI처럼 공격적 사업 해야" - 김두현 교수: AI 주권은 자립을 의미하는 것 같다. 자립은 기술적 자립과 산업적 자립으로 이뤄졌다. 기술 자립은 이경전 교수가 언급한 투트랙 전략이라 할 수 있다. 다만 산업적 자립에 있어서 과연 우리나라가 탄탄하게 자립이 가능할지 생각해 봐야 한다. 몇 개의 대기업이 앞서가고 있지만, 대기업이 대부분의 트래픽을 갖는 구조로 가는 것보단 후발주자들 중소기업에게도 뭔가 햇빛이 들 수 있는 정책 요소들이 필요해 보인다. - 김진형 교수: 이경전 교수가 언급한 투트랙 전략이 맞다고 본다. 그렇게 가야 한다. AI는 상당히 많은 부분이 아직도 과학이다. 그래서 지금 어떤 방법론이 언제 새롭게 또 튀어나올지 모른다. 과학적인 획기적 변화가 AI에서 나오지 않고, 다른 쪽에서 나올 거라고 본다. 컴파일러 기술일 수도 있고, 컴퓨터 아키텍처 기술일 수도 있다. 과학적 투자가 우선이다. 특히 기초과학에 투자해야 한다. AI는 기초과학 요소가 많으면서도 산업적 효과도 크다. 그런 식으로 기초 연구 수업도 대학에서 많이 가르쳐야 한다. 현재 기초과학을 연구하는 연구원이 많지 않지만, 각각 역량을 보면 글로벌에서 높은 수준의 연구를 하고 있다. 연구원 인력을 좀 늘릴 수 있는 방법에 대해 고민을 해야 한다. 정부는 AI 발전 환경을 만들어야 한다. 지금 정부가 나서서 세금 들여가며 정부형 LLM 만든다고 발표했다. 할 필요 없다. 그냥 가만히 있으면 된다. 현재 네이버가 열심히 한다니까 지켜보면 되는 것이다. 혹시 네이버가 무슨 규제 때문에 일을 못하면, 정부가 그때 도우면 된다. 지금은 기업이 잘하는 걸 지켜볼 때다. - 사회: 최근 오픈소스 필요성에 대해서 강하게 얘기하는 목소리가 나오고 있다. - 김두현 교수: 그렇다. 오픈소스 모델이 쏟아지고 있다. 그런데 품질 입증은 쉽지 않다. 오픈소스 모델의 공개 여부도 하나의 이슈지만, 또 하나는 공개된 것의 품질에 대한 검증이 있어야 한다. 그래야 기업이 오픈소스를 마음껏 쓸 수 있다. 이를 위해 정부가 좀 해야되는 게 있지 않을까 생각이 든다. 오픈소스 모델을 어떻게 만들어 낼지도 관건이다. 사실 메타에서 오픈소스를 내지만, 과연 계속 공개되는 오픈소스 모델들이 오픈AI의 GPT-4나 향후 GPT-5를 쫓아갈 수 있을지 의문이다. 어느 순간 비공개 모델을 넘어서는 오픈소스가 나올 것인가도 중요한 이슈다. 설령 그렇지 않더라도 거기에 버금가는 오픈소스를 누군가가 만들어내야 한다. 다만 특정 기업만 오픈소스를 만드는 것은 좋지 않을 것 같다. 국제적 연대, 산업 연대가 필요하다. 오픈소스 개념은 참 좋다. 근데 그걸 만들어내려면 어딘가에서 훈련을 시켜야 한다. 그 인프라 비용을 과연 누가 낼 것인지도 정해야 한다. 고민거리다. 오픈소스에 대해서 정말 애착을 갖고 있는 기업들이 공동체를 만들어 이를 해결할 수 있다. 물론 실현 가능성도 지켜봐야 한다. - 김봉제 교수: 우선 의미 있는 데이터를 획득할 수 있는 구조를 만들어야 한다. 2021년에 정부도 데이터 구축 사업을 활발히 진행했다. 관련 사업을 여러개 맡기도 했다. 당시 데이터 수준이 너무 낮았다. 비용을 많이 들여서 사업을 했는데도 결과물이 좋지 않았다. 정말 의미 있고 깨끗한 데이터를 확보해야 한다는 걸 느꼈다. - 김두현 교수: 정부가 고품질의 오픈소스 구축을 위해 예산을 투입하는 건 쉽지 않을 것이다. 정제된 데이터를 갖고 있는 기업들이 함께 모여서 파운데이션 모델을 같이 만들고, 이걸 오픈소스 모델로 만드는 시스템을 구축해야 효과적일지 않을까 생각 든다. - 이경전 교수: '한국 AI 스타트업 100'에서 스타트업 선정하는 일을 최근 3년간 진행했다. 당시 기업들에게 정부가 어떤 정책을 펼쳤으면 좋을지 물어봤다. 그중 하나가 데이터 사업의 비효율성이었다. 정부가 공공 데이터를 많이 만들라고 사업을 지원했지만, 정작 기업은 가장 품질 낮은 데이터를 납품했다. 이를 활용한 기업들도 좋지 않은 결과를 얻었다. 당연한 이치라고 본다. 정부에 납품하는 순간 모든 사람이 해당 데이터를 공유해서 쓰기 때문이다. 데이터 가치는 떨어질 수밖에 없다. 기업은 정부 기준에 맞을 정도의 데이터만 납품하고, 좋은 데이터는 별도로 가질 수밖에 없다. 선해 보이는 정책이지만 결과는 반대였다. 결국 연합학습 방법론이 중요한 이유다. 현재 초거대 AI에는 세 가지 이유 때문에 버틀낵(병목 현상)이 일어난다. 데이터 버틀낵, 모델 사이즈 버틀낵, 컴퓨터 처리 용량의 버틀낵이다. LLM의 오토리그레시브 방법론은 결국 어떤 새로운 돌파구가 있지 않으면 성능의 한계에 빠질 것이다. 그 성능의 한계에 빠지면 결국 오픈소스 모델이 쫓아올 것이다. 결국 오픈소스 모델이 다 따라잡을 것이다. 그게 무서우니까 지금 오픈AI도 GPTs 만들고 여러 모델을 출시해서 네트워크 효과를 일으리켜고 한다. 사실 네이버의 진심을 믿지 않는다. 네이버가 소버린AI를 내세운다면, 네이버가 오픈AI처럼 공격적인 사업을 해야 한다. 사실 '하이퍼클로바X'가 눈에 안 띈다. 모바일 애플리케이션도 없다. 네이버 홈페이지 가면 하이퍼클로바X를 손쉽게 보기 힘들다. 한국 국민들이 하이퍼클로바X를 활발하게 쓸까 봐 겁을 내는 것 같다 네이버는 기업소비자간거래(B2C)가 아닌 기업간거래(B2B)에만 진심이다. 그래서 자꾸 정부 관계자나 의사 결정권자들한테만 국산을 쓰라고 강조한다. 국산 애용 운동만 하고 있다. 진짜 시장을 잡으려면 소비자들이 자신의 제품을 쓰게 해야 한다. 이와 반대로 네이버 홈페이지에도 잘 안 보이고, 모바일 앱도 없다. 다만 일본에서 라인을 출시하고, 일본에서 상장시킨 점은 높이 살 만하다. - 김진형 교수: 소버린AI나 AI 주권을 위해 범용 LLM을 무조건 우리 것으로 만들어야 되겠다고 하는 것에 동의하고 싶지 않다. 특정 분야에 대한 LLM은 전 세계에서 한국 기업이 제일 잘한다는 인상이 더 필요하다. 여기서 생기는 데이터를 어떻게 하면 전세계에 잘 공유할 수 있을까라는 고민도 정부 차원에서 해줘야 한다고 본다. 정부는 이러한 환경을 조성하는 역할을 해야지, 개입하는 게 아니다.

2024.03.20 13:58김미정

韓 스타트업 라이너, 글로벌 생성형 AI '4위' 차지

국내 인공지능(AI) 스타트업 라이너가 글로벌 주요 생성형 AI 서비스 순위서 4위를 기록했다. 설립 초기부터 해외 진출을 겨냥한 결과다. 19일 글로벌 벤처캐피텉(VC) 앤드리슨호로위츠 보고서 '글로벌 생성형 AI 웹 사용 순위'에 따르면 오픈AI의 '챗GPT'가 전 세계에서 가장 사용량 많은 생성형 AI 서비스인 것으로 나타났다. 2위는 구글 '제미나이', 3위는 미국 스타트업 '캐릭터닷AI'이 차지했다. 4위는 라이너의 서비스 라이너다. 라이너는 2015년 홈페이지나 문서에서 중요한 정보를 하이라이팅 해주는 서비스 '모니터 형광팬'을 공급했다. 이 기업은 모니터 형광팬을 통해 데이터베이스(DB)를 수집했다. 라이너 관계자는 "10년간 DB를 모으면서 사용자들이 어떤 정보를 가장 중요하게 생각하는지 알 수 있게 됐다"고 밝혔다. 라이너는 이를 바탕으로 지난해 AI 에이전트 '라이너 AI 워크스페이스'와 AI 비서 '라이너 코파일럿'을 출시했다. 자체 보유한 세계 160여개국 사용자 DB와 오픈AI의 GPT-4를 접목해 만들었다. 관계자는 "AI 서비스는 모니터 형광팬 기술 노하우 기반으로 챗GPT 등 일반 챗봇보다 강력한 출처 기능을 갖췄다"며 "정보 출처가 명확해야 하는 전문 직군에서 서비스 활용도가 높다"고 설명했다. 라이너 측은 글로벌 생성형 AI 서비스 월간 순위서 상위권을 차지한 주요 이유를 해외 시장 공략으로 봤다. 관계자는 "회사 설립 초기부터 국내가 아닌 해외 시장을 겨냥했다"며 "현재 전체 유료 사용자 60%는 미국 이용자"라고 했다. 라이너는 서울에 본사를 뒀으며 미국 캘리포니아주 실리콘벨리에 지사를 둔 상태다. 반면 네이버의 '클로바X'는 50위권 밖인 것으로 나타났다. 앤드리슨호로위츠 보고서 출처인 시밀러웹 올해 2월 버전을 확인한 결과, 클로바X는 PC와 모바일을 통한 웹 접속 수 30만9천회를 기록했다. 클로바X 이용자 다수는 한국인 사용자였다. 클로바X 특징이 한국어뿐 아니라 국내 문화와 정서, 법률 등을 다른 챗봇보다 가장 잘 알고 있다는 것과 일맥상통한 결과다. 반면 해외 사용률은 낮았다. 네이버 관계자는 "시장조사업체의 집계 기준을 명확히 알지 못한다"고 밝혔다. 생성형AI 앱 순위에서도 1위는 오픈AI의 챗GPT가 차지했다. 2위는 마이크로소프트 '엣지'였다. 국내 기업으로는 19위를 기록한 콴다가 있다. 콴다는 매스프레소가 운영하는 AI 풀이 플랫폼이다. 수학에 특화된 거대언어모델(LLM)이 콴다에 탑재됐다. 해당 스타트업도 2018년부터 해외 시장에 진출했다. 일본을 시작으로 베트남, 인도네시아 등에 콴다를 공급하고 있다. 해외 가입자 비중은 약 87%다.

2024.03.19 17:05김미정

샘 알트먼 "올해 새로운 AI모델 출시 계획"

샘 알트먼 오픈AI 최고경영자(CEO)가 올해 새로운 인공지능(AI) 모델을 대거 선보일 것이라고 예고했다. 18일(현지시간) MS파워유저 등 외신에 따르면 샘 알트먼 CEO는 렉스 프리드먼이 진행하는 팟캐스트에서 새로운 모델을 연내 출시할 계획이라고 밝혔다. 샘 알트먼 CEO는 GPT-5가 언제 출시될 것이냐는 진행자의 질문에 아직 언제 나올지 모르겠다는 것이 솔직한 대답이라고 답했다. 대신 "올해 정말 놀라운 모델을 출시할 계획"이라며 "GPT-5에 앞서 몇 달 동안 여러 가지 다양한 모델을 선보일 계획"이라고 밝혔다. 그는 "앞으로 선보일 모델들을 어떻게 불러야할지는 아직 모르겠다"며 "GPT-5 같은 모델을 이야기 하기에 앞서 우리가 출시해야 할 중요한 다른 것들이 많다고 생각했다"고 다른 AI 모델을 먼저 선보이게 된 이유를 밝혔다. 샘 알트먼은 선보일 AI모델에 대해 자세한 내용은 소개하지 않았지만 GPT-5와 차별화되는 만큼 일부 기능에 특화된 AI 모델일 가능성이 높을 것으로 예상된다.

2024.03.19 10:01남혁우

열풍이라는 AI ...실무 적용은 '아직'

전 산업분야에서 인공지능(AI)의 중요성이 커지며 빅테크들은 관련 기술 확보를 위해 경쟁적으로 대규모 투자를 진행하고 있다. 하지만 실제 현장도입은 이러한 인식에 미치지 못하는 것으로 나타났다. 지속된 불황으로 투자 심리가 얼어붙었을 뿐 아니라 경영진의 AI기술에 대한 이해도 부족이 AI 도입을 막는 진입장벽으로 작용한다는 분석이다. 18일 관련 업계에 따르면 국내 기업 상당수가 AI 검토 단계 이전에 머물러 있어 있는 것으로 나타났다. IBM이 지난해 작년 11월 한국을 포함한 전 세계 20개국의 2천342명의 IT 전문가를 대상으로 실시한 설문조사에 따르면 응답자 중 40%가 여전히 AI를 배포하지 못한 채 검토하는 단계라고 답했다. 시스코가 발표한 조사자료에서는 AI 도입 및 활용 준비가 완료된 기업은 5%에 불과한 것으로 나타났다. 기업들이 AI 도입에 어려움을 겪는 요인으로는 AI 관련 전문성과 데이터의 복잡성 등이 꼽혔다. 제조, 유통 등 국내 주요 산업의 경우 그동안 IT와 접점이 적었던 만큼 경영진들이 아직AI 관련 전문 지식을 추적하기에 시간이 부족하다는 지적이다. 이로 인해 기업의 어떤 분야에 AI를 활용해야 효율적일지 명확한 판단을 내릴 수 없는 만큼 본격적인 도입을 진행하기가 어렵다는 설명이다. 한 클라우드 전문 기업 임원은 “지난해부터 AI 관련 기술검증(POC)과 비공개 전문 기술 시연 강연에 대표이사나 기술이사 등 각 분야의 기업 임원진들이 대거 몰리고 있다”며 “해당 기업들도 AI 도입을 원하고 있지만 아직은 어디에 어떻게 도입해야 할지 확신하지 못하고 있는 시기라고 할 수 있다”고 설명했다. 이와 함께 아직 국내에는 참고할 수 있을 정도로 AI도입이 성공적인 롤모델이 아직 없다는 지적이다. 현재 국내외 주요 AI서비스 기업은 고객사의 AI운영 역량 부족을 해결하기 위한 솔루션을 출시하고 있다. 데이터 과학자가 없이 비즈니스 전문가가 직접 AI모델을 만들거나 데이터를 분석할 수 있는 오토ML을 비롯해 제조, 금융, 의료 등 특정 분야에 맞춰 사전에 학습된 버티컬AI 등을 선보이고 있다. 하지만 실제 AI가 어느 현장에 적용돼 어느 정도의 성과를 냈는지 정확한 정보는 대부분 공개되고 있지 않다. 도입한 기업들이 외부 유출을 꺼리며 기업 기밀로 지정하고 있기 때문이다. 이에 AI도입 지원한 IT서비스 기업이나 클라우드 기업들은 국내기업 대신 파트너십을 체결한 해외 기업 사례를 소개하는 것으로 대체하고 있다. 하지만 사업구조나 업무 환경이 다른 만큼 고객 설득에 큰 영향을 미치기 어려운 상황이다. 한 클라우드 기업 관계자는 “많은 기업이 컨설팅 과정에서 국내 기업들의 AI 도입 사례와 성과를 요청한다”며 “비교 분석을 위해 당연한 요구라고 할 수 있지만 도입한 후 자신들의 정보는 공개하지 않으려는 경우가 상당수라 의사결정에 시간이 걸리는 경우가 많다”고 설명했다. 다만 업계에서는 하반기 들어서며 AI도입이 가속화될 것으로 기대하고 있다. AI 도입을 위한 기업들의 준비가 안정적으로 이뤄지고 특히 임원진들의 AI에 대한 이해도가 상당 부분 갖춰질 것으로 예상되고 있기 때문이다. 한 IT서비스기업 임원은 “최근 정기적으로 진행하는 기업 임원 대상 AI 세미나가 매번 자리가 부족할 정도로 많은 관심을 받고 있다”며 “하반기 정도에는 상당수의 임원들이 각 산업과 AI를 어떻게 접목할 것인지 충분히 파악할 수 있을 정도의 역량을 확보할 것으로 예상된다”고 말했다. 다른 클라우드 기업 관계자는 “희망적인 부분이 있다면 기존에는 이렇게 시장이 불황일 때 가장 먼저 사업에서 제외되는 것이 IT, 소프트웨어(SW) 분야였다”며 “하지만 최근에는 워낙 AI 열풍이 강세라 규모를 줄이더라도 도입을 고려하려는 기업들이 상당 수에 달한다”고 말했다.

2024.03.18 14:11남혁우

"누구나 이용 가능"…일론 머스크, '그록' 소스코드 공개

얼마전 오픈AI를 상대로 소송을 제기했던 일론 머스크 테슬라 최고경영자(CEO)가 이번엔 챗봇 '그록'의 소스코드를 공개했다. 인공지능(AI) 기술 대중화를 통해 주도권을 잡겠다는 행보로 풀이된다. 17일(현지시간) 뉴욕타임스에 따르면, 일론 머스크 CEO가 자신이 운영하는 회사 xAI의 챗봇 그록의 언어모델 그록-1 코드를 공개했다. 그록-1은 파라미터 3천140억개로 구성된 모델이다. 현재 공개된 코드는 기본 모델 가중치와 네트워크 아키텍처로 구성됐다. 다만 학습에 사용된 미세조정 코드나 데이터셋은 비공개다. xAI는 그록-1을 통해 챗봇 그록을 만든 뒤 지난해 12월 X 유료 가입자들에게 우선 배포했다. 지금은 누구나 그록-1 소스에 접근할 수 있으며 이를 개발에 활용할 수 있다. 그동안 일론 머스크 CEO는 AI 기술 공개에 긍정적인 태도를 보였다. 지난 11일 미국 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서 "AI의 오픈소스화가 마음에 든다"고 밝힌 바 있다. 머스크의 이번 행보는 AI를 인류를 위해 사용한다는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 3주 만이다. 이에 맞서 오픈AI는 지난 주 소송 기각 요청서를 법원에 제출했다. 오픈AI 측은 "우리는 현재 일반인공지능(AGI)이 모든 인류에 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 관련 증거를 공개하기도 했다. 뉴욕타임스에 따르면 AI의 오픈소스화에 대한 찬반 여론이 이어지고 있다. AI 기술 악용 사례를 막기 위해 오픈소스를 반대하는 진영과 오픈소스로 인한 이점이 악용 사례보다 크다고 주장하는 입장이 팽팽히 맞서고 있다. 여기서 머스크는 코드를 공개함으로써 AI의 오픈소스화에 무게를 실은 셈이다.

2024.03.18 13:23김미정

UAE, 오픈AI 'AI 반도체 개발 투자'...국가 경쟁 본격화

인공지능(AI)을 둘러싼 경쟁이 국가단위 대규모 투자 경쟁으로 이어질 전망이다. 최근 엣지미들이스트 등 외신에 따르면 아랍에미리트(UAE) 국영 투자사 MGX가 오픈AI의 AI 반도체 개발 프로젝트 초기 투자를 논의 중이다. UAE는 이번 투자를 통해 글로벌 시장에서 IT분야 국가 경쟁력을 확보하기 위한 것으로 분석된다. MGX는 셰이크 모하메드 빈 자이드 알 나얀 UAE 대통령이 설립한 인공지능 및 첨단기술위원회(AIATC)산하 기술투자기업이다. 전 세계 메모리 및 AI로직 칩 설계 및 제조용 반도체, AI 모델, 데이터센터, 로봇 공학 등 AI핵심 기술에 집중적으로 투자하며 UAE를 AI 핵심 국가로 만드는 것을 목표로 한다. 오픈AI의 샘 올트먼은 최고경영자(CEO)는 자체 AI 반도체 생산시설을 구축하기 위한 적극적인 행보를 이어오고 있다. 생성AI 학습 및 운영에 필요한 컴퓨팅 인프라를 독점적으로 제공 중인 엔비디아의 지배력을 벗어나겠다는 계획이다. 이를 위해 아랍에미리트(UAE) 투자자를 비롯해 삼성전자와 SK 반도체 관계자와 대만 TSMC 등을 만나며 협의를 이어왔다. 아직 초기 투자논의 단계로 정확한 비용이나 계획 등에 대해 공개되지 않았다. 하지만 국영투자사에서 직접 참여하는 만큼 이번 프로젝트의 상당 부분을 차지할 것으로 주목받고 있다. 셰이크 빈 자이드 알 나흐얀 아부다비 부통령 겸 AIATC 회장은 “MGX를 통해 더욱 번영하고 지속 가능하며 상호 연결될 수 있는 미래를 형성할 AI 및 첨단 기술에 초점을 맞춘 UAE 국가 기업을 지원하고 있다”며 “우리가 지원한 회사는 최고의 기술 인재, 투자자 및 기업가를 위한 본거지이자 생태계로서 UAE의 역할을 더욱 발전시킬 것”이라고 포부를 밝혔다.

2024.03.18 10:49남혁우

오픈AI가 '픽'한 韓스타트업 3곳···와들·마리나체인·클라이원트

중소벤처기업부(장관 오영주)는 14일(현지 시간) 미국 실리콘밸리에 위치한 글로벌 AI 선도기업 오픈AI 본사에서 'K-Startup & OpenAI Matching Day in US' 행사를 개최, 2024년 글로벌 기업 협업 프로그램에 참여해 오픈AI와 협업을 진행할 스타트업들의 최종 발표 평가를 진행했다. 발표 종료 후에는 오픈AI 임원진의 현장 평가를 바탕으로 '마리나체인' '와들' '클라이원트' 3개사를 '일반인공지능(AGI) 최고 잠재력 기업(Most AGI Potential Award)'으로 선정했다. 마리나체인(대표 김다원)은 AI기술을 활용해 해운, 항만, 물류의 서플라이체인 전체 탄소회계를 실현하는 Scope 3 탄소 배출량 플랫폼이다. 또 와들(대표 박지혁)은 대화형 에이전트를 통해 고객에게 상품을 추천하고 고객 인사이트를 확보하는 AI 쇼핑 비서 '젠투'를 운영하고 있다. 클라이원트(대표 조준호)는 AI 기반 문맥 분석 기술을 활용해 입찰에 특화한 LLM 서비스를 제공하는 스타트업이다. 이들 3개사를 포함해 중기부는 오픈AI 소속 전문가 평가 결과와 지원 사업 참여 요건 검토를 종합해 2024년도 글로벌 기업 협업 프로그램에 참여할 스타트업 10개사를 최종 선정했다. 선정 10개사는 ㈜에이슬립, ㈜클라이원트, 디케이메디인포, 마리나체인, ㈜넥스트페이먼츠, ㈜나인와트, ㈜런코리안인코리안, ㈜튜링, ㈜와들, ㈜위레이저 등이다. 이들 스타트업은 중기부에서 사업화 자금(최대 2억원)을 지원받는다. 또 오픈AI에게서는 오픈AI 서비스 이용을 위한 크레딧, 전문가 멘토링과 컨설팅을 받을 수 있다. 이날 행사는 오전 10시부터 오후 4시까지 열렸다. 참석자는 임정욱 중소벤처기업부 벤처창업실장, 샘 알트만 CEO와 오픈AI 임원진, 샌프란시스코 총영사관, 예선 통과 스타트업 14개사 등이다. 행사 진행은 오픈AI 임원진 대상 발표 평가와 샘 알트만 CEO 질의응답, 오픈AI 본사 전문가 멘토링과 네트워킹으로 순으로 이뤄졌다. 특히 당초 예정되지 않은 샘 알트만 오픈AI CEO가 행사장을 방문해 한국 스타트업 대표들을 격려하며 질의응답 시간도 가졌다. 스타트업 대표들은 GPT-5 출시계획, AI 기술 미래, AI 칩 생산 등 다양한 질문을 했고, 샘 알트만은 질문 하나하나에 성실히 답변했다고 중기부는 밝혔다. 앞서 중기부는 작년 6월 오픈AI 대표 샘 알트만(Sam Altman)을 초청해 개최한 공개 간담회에서 오픈AI와 글로벌 기업 협업 프로그램을 통해 AI 분야 한국 유망스타트업을 공동 육성하기로 합의한 바 있다. 이어 작년 12월에는 국내에서 'K-Startup & Open AI Matching Day'행사를 개최하고, 오픈AI와의 협업 프로그램에 지원한 스타트업 220개사를 대상으로 서류 심사와 예선 발표 평가를 진행해 이번 행사에 참여한 스타트업 14개사를 선발했다. 오영주 중기부 장관은 "이번 행사에 참여한 스타트업들이 오픈AI와 협업을 통해 글로벌 경쟁력을 갖춘 AI 기업으로 성장해나가길 바란다”면서 "중소벤처기업부는 국내 유망 스타트업들의 기술 개발 역량 향상과 글로벌 진출 확대를 위해 오픈AI와 같이 각 업계를 선도해나가는 글로벌 기업과 협업을 지속적으로 확대해나가겠다”고 밝혔다.

2024.03.17 19:18방은주

"정말 충격적"…사과 건넨 AI 로봇, 전 세계서 '화들짝'

생성형 인공지능(AI) 챗봇을 적용해 인간과 실시간으로 대화하고 상황에 맞게 행동하는 휴머노이드 로봇이 등장했다. 인간의 명령을 이해하고 직접 물건을 찾아서 건네주는가 하면 도움이 되는 작업을 스스로 파악하고 수행하는 모습에 많은 이들이 '충격적인 기술'이라는 평가를 내놨다. 로봇 개발 스타트업 '피규어 AI(Figure AI)'는 14일 자사 소셜 미디어 계정에 챗GPT 개발사 오픈AI와 협업한 로봇 '피규어 01'의 시연 비디오를 공개했다. 피규어AI는 지난 2022년 테슬라와 로봇 전문기업인 보스턴 다이내믹스 출신 엔지니어들이 설립한 스타트업이다. 지금까지 오픈AI와 마이크로소프트 등 내로라하는 테크기업들로부터 6억7천500만 달러 규모의 투자를 유치하며 로봇 시장을 선도하고 있다. 지난해 3월에는 첫 번째 휴머노이드 로봇 '피규어 1'을 선보인 바 있다. 이번에 공개된 영상에서 인간 형태를 한 로봇은 "지금 무엇이 보이냐"는 질문에 "테이블 중앙에 놓인 접시 위에 빨간 사과가 있고 컵과 접시가 있는 건조대가 있다. 당신은 테이블 위에 손을 얹고 근처에 서 있다"고 대답했다. 이어 사람이 "먹을 것을 달라"고 요청하자 오른손으로 사과를 들어 왼손으로 옮긴 뒤 전달했다. 테이블 위에 있는 여러 사물 중 사과만이 먹을 수 있는 것이라는 점을 미리 인지하고 행동했다는 점에서 놀랍다는 반응이다. 실제로 사과를 받은 사람이 "쓰레기를 치우면서 네가 방금 한 일을 설명해달라"고 요구하자, 로봇은 바구니에 쓰레기 봉지를 주워 담으며 "테이블 위 물건 중 사과가 유일하게 먹을 수 있는 것이어서 내가 당신에게 사과를 줬다"고 답했다. 로봇의 동작은 사람만큼 빠르지 않았지만 아주 느린 편도 아니었다. 또 사람이 "네 앞에 있는 접시들은 어디로 가야 할 것 같나"고 질문하자, 로봇은 "테이블 위에 있는 접시와 컵은 건조대로 가야 할 것 같다"고 말해 눈길을 끌었다. 이후 "그것들을 옮겨달라"는 요구를 받자 사람처럼 접시와 컵을 가지런히 정리하는 모습도 보였다. 이 영상을 본 전 세계 네티즌들은 "영화 '터미네이터'가 현실화할 날이 멀지 않았다"며 충격에 빠졌다. 이들은 영상에 "정말 충격적이다", "정말 미친 짓에 가깝다", "인간 시대의 끝이 도래했다" 등의 반응을 내놨다. 영상에 등장한 코리 린치 피겨 AI 수석 엔지니어는 자신의 엑스 계정에서 "우리는 오픈AI와의 협력 덕분에 피규어 01과 완전한 대화를 나눌 수 있게 됐다"며 "우리 로봇은 시각적 경험을 설명하고 다음 행동을 계획하는 동시에 기억을 반추하고 추론을 구두로 설명할 수 있다"고 밝혔다.

2024.03.14 21:49장유미

EU 의회 통과한 AI 법안…"강제성 짙고 디테일 없어" 비판

인공지능(AI) 법안이 유럽연합(EU) 의회를 통과한 가운데 법 실효성에 대한 지적이 이어지고 있다. 법적인 강제성이 너무 짙고, 이로 인해 AI 생태계 동력이 상실될 수 있을 거라는 우려다. 반면 AI법은 지속적으로 개선될 것이므로 일단 지켜보자는 의견도 나오고 있다. EU 의회가 13일 프랑스 스트라스부르에서 열린 본회의에서 AI법 최종안을 찬성 523표로 가결했다고 CNBC를 비롯한 외신들이 일제히 보도했다. 이날 표결에서 반대는 46표, 기권 49표가 나왔다. 최종안은 AI 활용 분야를 네 단계의 위험 등급으로 나눠 차등 규제하는 내용을 담고 있다. 고위험 등급으로 분류되는 의료, 교육을 비롯한 공공 서비스나 선거, 자율주행 등에서 AI 기술을 사용할 경우, 사람이 반드시 감독하고 위험관리시스템을 구축해야 한다는 내용을 담았다. 그동안 핵심 쟁점으로 알려진 얼굴인식 기술 사용도 엄격하게 제한하기로 했다. 생성형 AI 조항도 새로 추가했다. 금지 규정을 위반할 경우 최대 3천500만 유로(약 500억원) 혹은 세계 매출 7%에 해당하는 벌금을 내야 한다. AI법이 최종 확정된 것은 아니다. 오는 5월 유럽의회 마지막 확인 과정과 유럽이사회 인준 과정을 거쳐야 한다. 이후 각 회원국에 효력을 발휘하기까지는 최대 2년 걸릴 것으로 예상된다. AI 감시 기관 설립…생성형 AI 조항도 추가 최종안 내용에 따르면, EU 국가들은 올해 자체적으로 AI 사무소를 설립한다. 사무소 관계자들은 범용 AI 시스템에 대한 법 진행과 감독을 담당한다. 이들은 AI를 개발하는 기업에 정보를 요청하고 해당 시스템이 법망 안에서 작동하는 것을 확인할 수 있는 권한을 갖는다. 시민들이 억울하게 규칙 위반자가 됐을 경우, 해당 기관에 이의를 제기할 수도 있다. 법무법인 원 오정익 AI대응팀 변호사는 "EU 집행위는 올해 1월 사무소 설립을 결정하고 2월 이에 필요한 내부 절차를 진행 중인 것으로 알고 있다"고 밝혔다. 오정익 변호사는 "이 사무소가 해당 법 진행의 주도적인 역할을 할 것으로 본다"고 말했다. 법안 최종안에는 생성형 AI 조항도 추가됐다. 생성형 AI 모델 개발자는 시스템 학습에 사용된 온라인 텍스트, 사진, 동영상, 기타 데이터에 대한 자세한 요약 정보를 모두 공개해야 한다. 이와 동시에 EU 저작권법도 준수해야 한다. 개발사는 생성형 AI가 만든 이미지와 비디오, 오디오, 딥페이크 콘텐츠 등에 인위적으로 제작됐다는 표시를 별도로 해야 한다. 자율주행차 같은 고위험 기술을 사용하는 기업들도 데이터를 공개해야만 한다. 이와 함께 안전 강화를 위해 엄격한 테스트를 거치도록 했다. 2021년 AI법 구축을 시작하던 당시 생성형 AI에 대한 조항은 없었다. 당시 AI가 매우 제한된 범위 내에서 활용됐기 때문이다. 2022년 오픈AI의 챗GPT 출시 후, EU 정책 입안자들이 생성형 AI 조항 필요성을 느낀 셈이다. "공개 의무화 지나쳐…가이드라인 명확해야" AI법이 다소 지나치다는 지적도 나왔다. 다수 AI 기업은 법 강제성이 너무 짙다는 입장이다. 또 AI 문제 발생에 대한 법적 책임 등 세부 항목이 부족하다는 점도 지적했다. 김동환 포티투마루 대표는 AI법이 고위험과 저위험을 나누는 건 좋지만 기업에게 의무성을 지나치게 부여했다는 점을 꼽았다. 김동환 대표는 AI 개발사의 학습 데이터 공개 의무 조항을 예시로 들었다. 그는 "기업이 어떤 종류의 데이터를 AI 모델에 넣는지, 어떻게 데이터를 다루는지 공개하는 건 과하다"며 "마치 영업 비밀을 만천하에 공개하는 것과 같은 이치"라고 말했다. 일반적으로 개발사는 AI 모델에 데이터를 필터링 없이 넣지 않는다. 각 기업 기술력과 노하우로 데이터를 가공·정제한다. 이 과정은 모델 성능을 좌우할 수 있을 정도로 중요하다. 김 대표는 "기업들은 학습 데이터 공개로 자사 기술을 침해 당할 수 있다"고 설명했다. 그는 AI 제품 문제 발생 시 법적 책임에 대한 조항도 부족하다고 했다. 김동환 대표는 "기업이 AI법을 다 지켜서 AI 제품을 개발해도 문제가 발생할 수 있다"며 "이때 누가, 어떻게 책임을 질 것인지에 대한 명확한 조항이 없다"고 지적했다. 그는 "이대로는 기업이 법도 지키고 책임까지 다 질 수 있을 것"이라고 덧붙였다. AI법이 빅테크뿐 아니라 스타트업에도 영향을 미칠 것이라는 의견도 내놨다. 김 대표는 "스타트업이 개발뿐 아니라 AI법까지 디테일하게 지키기엔 여력이 부족할 수 있다"며 "스타트업 생태계를 망가뜨릴 수 있을 것"이라고 전망했다. 오정익 변호사도 AI법에 명확한 기준이 정해지지 않은 점을 지적했다. 오 변호사는 "예를 들어, 주요 인프라 관련 AI 시스템 중 어느 범위를 고위험 AI에 넣는 것으로 볼 것인지에 대한 명확한 기준이 없다"고 지적했다. 그는 "우선 법적인 기준이 명확히 정해져야 혼선이 없을 것으로 보인다"며 "이에 관해 추가적인 지침이나 가이드라인 등이 나올 것으로 본다"고 설명했다. 미국 "EU, 기업 경쟁력 제한" 비판…국내 관계자 "한국, 미국·유럽 전략 융합" 미국 전문가들도 AI법에 대한 우려하고 있다. 법이 기업 경쟁력과 투자 생태계를 제한할 것이라는 이유에서다. 유럽 싱크탱크 연구소 카네기 랄루카의 세르나토니 연구원은 "유럽 내 AI 기업은 미국, 중국 빅테크들로부터 투자금과 기술 주권을 빼앗길 수 있다"며 "AI 리더십에 대한 EU의 야망은 상당한 장애물에 봉착할 것"이라고 CNBC를 통해 지적했다. 미국 로펌 하보틀 앤 루이스의 엠마 라이트 변호사는 "AI는 빠르게 변화하는 기술"이라며 "2년 후 AI법은 구시대적인 법안으로 전락할 수 있다"고 했다. 국내 법률 관계자도 정부가 AI법을 급히 따를 필요 없다는 입장이다. 강민구 서울고등법원 전 부장판사는 "EU권 국가는 미국과 비교할 수 없을 정도로 뒤처진 AI 기술 수준을 갖고 있다"며 "이런 상황에서 여러 가지 기본권 보호, 데이터 주권, 개인정보 보호 등을 앞세우는 규정을 만들어 낸 셈"이라고 설명했다. 강 전 부장판사는 "한국은 EU의 AI 규제 입법 추세를 검토하더라도 AI 산업 진흥에 중점을 두는 미국 방식을 따라가는 투 트랙 전략을 짜야 한다"며 "유럽식 규제에 맞춰 입법을 추진하는 우를 범해선 안 된다"고 강조했다. 모든 EU 회원국이 AI법을 긍정적으로 보는 것도 아니다. 최근 프랑스와 독일 정부는 생성형 AI 규제 방안에 우려를 표명한 바 있다. 해당 법안이 프랑스의 미스트랄AI와 독일의 알레프 알파와 같은 유럽 스타트업에 오히려 피해를 줄 것이라는 이유에서다. 현재 두 기업은 미국 빅테크들로부터 투자받으며 유럽 내에서 주목받고 있다. 유럽 시민단체도 AI법 조항을 지적했다. 기업유럽관측소(CEO) 등 시민단체는 "현재 생성형 AI 기업은 규제를 면제받은 것과 다름없다"며 "몇가지 투명성 의무만 준수하면 되는 정도"라고 지적했다. 이들은 생성형 AI 기업들이 현 AI법망을 피해 더 광범위한 작업을 수행할 수 있을 것으로 봤다. AI 관련 법안을 주도적으로 발의한 의원 중 한명인 드라고스 투도라쉬 의원은 "이번 AI법은 여정의 끝이 아니라 새로운 거버넌스 모델을 위한 출발점이다"며 "AI법이 현실화하는데 정치적 에너지를 집중해야 한다"고 밝혔다.

2024.03.14 16:41김미정

영상 생성AI '소라', 하반기엔 공식 출시되나

오픈AI가 지난 달 선보인 영상 생성 인공지능(AI) 서비스 '소라'가 올 하반기 출시될 것이란 전망이 제기됐다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 "올해 일반 사용자들도 소라를 이용할 수 있을 것"이라고 말했다고 월스트리트저널이 13일(현지시간) 보도했다. 무라티는 구체적인 출시 일정은 언급하지 않은 채 "몇 달 후 출시될 예정"이라고만 밝혔다. 이에 월스트리트저널은 소라 출시는 올 하반기로 유력하다고 전망했다. 오픈AI가 지난 달 공개한 소라는 텍스트를 영상으로 변환하는 생성형 AI 서비스다. 현재 일부 개발자와 창작자들에게만 공개된 상태다. 오픈AI는 이들의 피드백을 받으면서 서비스 개선 작업을 진행하고 있다. 미라 무라티 CTO는 소라의 음향 기능도 개선할 계획이라고 말했다. 그는 "소라가 만드는 영상에 현실감을 더하기 위해 음향 품질을 높일 것"이라고 설명했다. 또 "현재는 소라 영상을 편집할 수 없는 상태다"면서 "향후 이용자가 소라 영상을 직접 편집할 수 있는 기능도 추가할 것을 고려 중"이라고 설명했다. 월스트리트저널은 미라 무라티 CTO가 "법적으로 허가된 데이터만 학습했다"고 말하고 구체적인 데이터는 공개하지 않았다고 전했다. 이 외에도 무라티는 "소라 이용자는 정치인을 비롯한 가수, 영화배우 등 공인 이미지를 생성할 수 없을 것"이라며 "소라의 영상과 실제 영상을 구분할 수 있도록 워터마크도 부착할 예정"이라고 덧붙였다. 오픈AI가 생성형 AI 악용 사례인 딥페이크, 가짜뉴스 등을 예방하려는 조치다.

2024.03.14 14:07김미정

"AI가 아닌 AI를 활용하는 사람이 업무 대체한다"

“인공지능(AI)의 발전을 꾸준히 지켜본 결과 AI가 사람을 대체하지 않지만, AI를 활용하는 사람은 그렇지 못한 사람을 대체할 가능성은 크다. 기업도 AI를 활용할 수 있는 방법을 필수적으로 익혀야 할 시기다.” 김덕진 IT커뮤니케이션 연구소 소장은 13일 한국IT전문가협회가 개최한 조찬 세미나를 통해 글로벌 AI 트렌드와 국내 기업이 이에 대응하기 위한 방안에 대해 발표했다. 김 소장은 인공지능(AI)이 전기처럼 이미 산업과 소비자 경험에 깊이 파고들고 있다며 CES2024를 예로 들었다. 로레알, 월마트, 퀄컴 등 CES 2024에 참가한 모든 기업은 제조, 유통 분야를 가리지 않고 AI를 이야기했으며 관련 서비스를 공개했다. 특히 모빌리티 기업들은 스스로를 소프트웨어(SW) 기업이라고 선언하며 AI와 관련 서비스, 인프라를 대거 선보였다. 김덕진 소장은 모든 산업에서 AI와 SW를 강조하는 근본적인 이유로 데이터와 시간을 지목했다. 단순히 제품을 판매하는 것이 아니라 사용자의 일상에 지속적으로 제품을 노출하며 수집한 데이터를 이용해 AI를 학습시키는 등 새로운 비즈니스 모델을 구축할 수 있다는 설명이다. 그는 “특히 AI를 발전시키 위해 가장 중요한 것은 데이터인 만큼 어디에 가장 데이터가 몰리는 것을 파악하는 것이 중요하다”며 “현재 우리가 가장 많은 시간을 투자하고 데이터가 저장되는 곳은 스마트폰이지만 애플의 비전프로 같은 확장현실(XR)이나 자율주행 차량 같은 분야로 확대될 수 있을 것”이라고 소개했다. 이미 국내에서도 주요 대기업을 중심으로 이러한 미래에 대비해 준비하고 있는 중이다. 특히 눈에 띄는 점은 기업간 협력을 통해 부족한 기술력과 인프라를 보완한다는 것이다. 대표적으로 삼성전자는 현대오토에버와 사물인터넷 플랫폼 스마트싱스를 연계한 서비스를 준비 중이다. 이를 통해 사용자는 차량과 스마트홈을 스마트폰으로 동시에 관리할 수 있을 뿐 아니라 양사는 각 기업에 부족했던 가전과 차량 데이터를 확보해 신규 비즈니스를 창출할 수 있을 전망이다. 김덕진 소장은 AI는 막대한 인프라와 대규모 데이터, 기술력이 필요한 분야로 기존 기업이 독자적으로 구축하기엔 비용 효율적이지 못하다고 평가했다. 그는 “결국 기업들은 AI를 활용해 어떻게 기존 비즈니스를 강화할 것인지를 고민해야 한다”며 “그만큼 도메인 전문성이 더 중요한 시기라고 할 수 있다”고 말했다. 김덕진 소장은 AI를 중심으로 급변하는 시기에 대응할 수 있도록 다양한 언어모델과 AI서비스를 체험해보고 특징과 활용법을 익히며 기업에 맞는 AI도구를 찾는 것이 중요하다고 강조했다. 또한, AI는 기업 혼자서 모두 감당할 수 없는 분야인 만큼 기술을 지원해줄 수 있는 파트너를 적극적으로 찾고 협력방안을 강구해야 한다고 말했다. 김 소장은 “AI를 사용하는 과정에서 가장 중요한 것은 어떤 목적으로 AI를 활용할 것인지 명확한 방향성을 가지고 있어야 한다는 것”이라며 “AI는 결국 랜덤하게 결과를 내는 만큼 오류가 섞일 수밖에 없는데 이를 가려낼 수 없다면 기업은 AI의 결과물에 끌려 다닐 수밖에 없을 것”이라고 강조했다.

2024.03.13 11:09남혁우

IPO 준비하는 '레딧'…외신 "알트먼 CEO 지분 가치 5천만 달러"

온라인 커뮤니티 업체 '레딧' 기업 가치가 약 8조원 대를 기록할 것이라는 전망이 나온 가운데 세 번째로 큰 지분을 가진 샘 알트먼 오픈AI 최고경영자(CEO) 향후 수익이 주목받고 있다. 11일 외신들에 따르면 미국 뉴욕증시 상장을 추진 중인 레딧이 미국 증권거래위원회(SEC)에 주식 공모가격 희망 범위를 주당 31~34달러로 증권신고서를 통해 제시했다고 보도했다. 레딧은 A급 주식 2천200만 주를 발행할 예정이다. 레딧이 기업공개(IPO)로 최대 7억4천800만 달러(약 9천820억원)를 조달할 수 있다는 의미다. 매체들은 레딧의 상장 후 기업가치가 최대 64억 달러(약 8조3천910억원)일 것으로 봤다. 업계에선 레딧 지분 소유자 수익에 관심이 쏠리고 있다. 현재 글로벌 미디어 기업인 콘테나스트 소유 기업 뉴하우스 가문의 어드밴스가 가장 많은 레딧 지분을 갖고 있다. 전체 지분의 30% 이상이 어드밴스 몫이다. 틱톡 대주주 중국 텐센트가 11%로 뒤를 이었다. 다음으로 큰 지분을 가진 건 샘 알트먼 오픈AI CEO다. 현재 알트먼을 비롯한 관련 회사들이 보유한 레딧 지분은 약 8%대다. 이중 알트먼 개인 지분만 166만 주로 추정되고 있다. 외신은 "레딧의 희망 공모가를 적용하면 올트만 개인 지분 가치만 5천640만 달러(약 740억원)일 수 있다"고 분석했다. 알트먼은 지난 2014년부터 레딧에 투자하기 시작했다. 그는 2014년 레딧의 5천만 달러(약 656억원) 자금 조달을 주도했고, 2021년까지 레딧 이사회 멤버로 활동했다. 그는 X를 통해 "약 9년간 매일 레딧에 접속했다"며 "아마 레딧을 초기부터 사용한 사람들 중 한명일 것"이라고 밝힌 바 있다.

2024.03.13 08:56김미정

GPT-4, 게임실력은 어떨까...둠 실행시켜보니

사전학습 없이 GPT-4로 1인칭 슈팅 게임인 둠을 플레이하는 연구가 진행됐다. 연구 결과 기존 강화학습에 비해 낮은 성능을 기록했지만 추가 학습 없이도 스스로 게임을 진행하는 등 잠재적인 발전 가능성을 확인했다. 11일(현지시간) 더레지스터 등 외신에 따르면 마이크로소프트의 수석 응용 과학자이자 영국 요크 대학의 연구원인 아드리안 드 윈터는 연구 논문 'GPT-4가 둠을 플레이할 수 있을까(Will GPT-4 Run DOOM?)'를 아카이브를 통해 공개했다. 이번 연구는 GPT-4가 둠을 실행하고 플레이할 수 있는지에 대해 조사한 것이다. 대규모 언어 모델(LLM)이 복잡한 환경과 상호작용하며 계획하고 추론할 수 있는지를 탐구하기 위해 수행됐다. 고전 게임인 둠을 선택한 이유는 소스코드가 공개되어 활용이 쉽고, 다양한 분야에서 테스팅 툴로 사용되는 등 개발분야에서 널리 쓰이기 때문이다. 이에 연구팀은 GPT-4가 둠을 플레이하는 능력을 수치화해 이를 LLM의 추론 및 계획 능력을 측정하는 비공식 벤치마킹 수치로 활용하는 방안도 제시했다. 연구팀은 테스트를 진행하기전 GPT-4에 별도의 학습 등은 진행하지 않았다. 대신 GPT-4가 게임의 시각적 상태를 이해할 수 있도록, 게임의 이미지나 스크린샷을 텍스트 설명으로 변환했다. 텍스트 설명은 게임 내의 객체, 상황, 적의 위치 등 게임 상태에 대한 정보를 제공한다. 또한 GPT-4에서 생성한 텍스트가 게임 내 액션으로 변환할 수 있도록 별도의 툴을 개발해 적용했다. 조사 결과 연구팀은 GPT-4의 추론 및 계획 능력이 둠을 실행하고 몇 가지 기본 지침과 게임 상태에 대한 텍스트 설명만으로 게임을 플레이할 수 있음을 발견했다. GPT-4는 게임을 클리어하진 못했지만 문을 열고, 적과 싸우며, 경로를 따라 목표를 찾아갈 수 있었다. 게임 실행 중 보다 복잡한 목표를 수행할 수 있도록 프롬프트를 입력한 결과 이를 상당 부분 수행할 수 있는 것도 확인했다. 연구팀은 게임에 주로 활용하던 강화 학습에 비해 GPT-4가 더 나은 결과를 기록하진 못했지만 몇 가지 잠재적 이점을 가지고 있다고 밝혔다. 사전 훈련된 지식을 기반으로 행동하는 만큼 새로운 작업이나 도메인에 빠르게 적용할 수 있으며 프롬프트를 이용한 미세조정으로 목표를 조정하거나 성능을 유지할 수 있다는 장점이 있다. 또한 복잡한 문제 상황에서 추론을 수행하고, 여러 단계에 걸쳐 목표를 달성하기 위한 계획을 세울 수 있어 전략적 사고나 장기 계획이 요구되는 분야에 유리할 것으로 연구팀은 분석했다. 아드리안 드 윈터 연구원은 “강화학습에 비해 성능이 다소 낮게 나왔지만 GPT-4가 사전 교육 없이도 자체 추론 및 관찰 능력만으로 둠을 플레이할 수 있다는 점이 놀랍다”며 “이를 활용한다면 강화학습과 LLM의 방식을 보완하거나 향상시킬 수 있을 것으로 기대된다”고 말했다.

2024.03.12 10:16남혁우

일론 머스크 "AI 챗봇 그록, 오픈소스로 공개"

일론 머스크 테슬라 최고경영자(CEO)가 자신의 인공지능(AI) 회사 xAI의 챗봇 '그록'을 오픈소스로 공개한다고 말했다. 11일(현지시간) 일론 머스크 CEO는 "이번 주 xAI는 AI 챗봇 그록 코드를 공개하겠다"고 소셜미디어 'X' 계정을 통해 발표했다. 같은 날 그는 렉스 프리드먼과 진행한 팟캐스트 인터뷰에서도 오픈소스에 대한 긍정적인 태도를 보였다. 그는 "오픈소스 AI가 마음에 든다"며 "그록을 이번 주 오픈소스화할 것"이라고 했다. 그록은 오픈AI의 챗GPT 같은 AI 챗봇이다. 지난해 12월 그록을 소셜미디어 X 유료 가입자 대상으로 우선 배포한 상태다. 그록이 오픈소스화 된다면 앞으로 누구나 이 챗봇을 이용할 수 있는 셈이다. 머스크의 이러한 행보는 인류를 AI로 도울 것이라는 사명을 버리고 이윤을 추구한다는 이유로 오픈AI에 소송을 제기한 지 열흘 만이다. 현재 오픈AI는 소송 기각 요청서를 법원에 제출한 상태다. 이 회사는 "일반인공지능(AGI)이 모든 인류에게 혜택을 줄 수 있도록 하는 사명에 여전히 전념하고 있다"며 "당시 오픈AI를 영리 회사로 만들려는 인물은 일론 머스크"라며 증거를 공개하기도 했다. 이에 다수 외신은 "머스크 자신은 오픈AI와 달리 모두를 위한 AI를 개발한다는 인상을 주기 위해 진행한 조치로 보인다"고 분석했다. 월스트리트저널도 "머스크는 그록 오픈소스화로 마케팅 효과를 얻기 위함일 수 있다"고 짚었다. 이어 그록이 오픈소스화되면 개발자들이 모델을 테스트하고 피드백을 주기 때문에, 그록의 새 버전 개발 가속화라는 이윤까지 얻을 수 있다고 덧붙였다.

2024.03.12 08:57김미정

샘 알트먼, 오픈AI 이사회 공식 복귀...신임 이사 합류

샘 알트먼 오픈AI 최고경영자(CEO)가 이사회에 공식 복귀했다. 이사회 내 갈등으로 해임된 이후 4개월만이다. 이번 해임 논란을 조사한 로펌은 문제의 원인으로 이사회와 샘 아트먼 CEO 간의 신뢰부족과 부족한 기업 거버넌스를 지목했다. 오픈AI는 이러한 문제를 방지하기 위한 개선책을 마련한다. 9일(현지시간) 테크크런치 등 외신에 따르면 오픈AI 이사회 특별위원회는 로펌 윌머헤일에서 샘 알트먼의 해임 관련 내부 조사를 마무리했다고 발표했다. 오픈AI는 조사 보고서를 게시하지 않았지만 조사 결과 샘 알트먼 CEO가 이사회에 다시 합류하기로 결론 내렸다고 밝혔다. 위원회는 검토를 위해 이전 이사회 구성원과 고문, 오픈AI 임원을 비롯해 기타 관련 증인과 수십 차례의 인터뷰를 실시했다. 3만 건 이상의 문서를 검토하고 샘 알트먼의 기업 활동을 평가했다. 윌머헤일에서 작성한 기록과 특별위원회의 권고안을 확인한 이사회는 샘 알트먼 CEO와 공동 설립자 그렉 브록만에 대해 지속적인 리더십에 대한 완전한 신뢰를 표명했다. 윌머헤일은 이번 해고 건에 대해 기업 거버넌스에서 발생한 문제라고 평가했다. 조사결과 해고 이전부터 이전 이사회와 샘 알트먼 사이에 신뢰가 붕괴하고 있다는 상황을 파악했다. 이전 이사회는 샘 알트먼 CEO를 해고하는 조치가 내부 관리 문제를 완화할 것이라고 믿었으며 회사를 불안정하게 만들 것이라고 예상하지 못한 것으로 나타났다. 더불어, 샘 알트먼에게 이사회에서 우려하는 사항을 해결할 수 있는 기회도 주어지지 않고 단시간에 이러한 결정을 이행했다는 사실도 발견됐다. 이사회 의장인 브렛 테일러는 “검토 결과 이번 해고 건은 이전 이사회와 샘 알트먼, 그렉 브록먼 사이에의 신뢰 붕괴에 의한 것으로 확인됐다”며 “외부의 우려와 달리 이사회가 선의로 행동하려는 와중에 불안정성을 예상하지 못한 것으로 나타났다”고 밝혔다. 이에 오픈AI는 이러한 문제점을 해결하기 위해 기업 거버넌스를 개선한다. 오픈AI의 이해 상충 정책을 강화하며 모든 직원 및 계약자를 위한 익명 보고 리소스 역할을 하는 내부고발자 핫라인을 신설한다. 또한, 핵심 임무 구현 및 발전에 초점을 맞춘 임무 및 전략 위원회를 포함하여 추가 이사회 위원회를 설립한다. 이와 함께 오픈AI는 개선된 거버넌스 운영을 위해 재 합류한 샘 알트먼 CEO와 함께 신규 이사진 3명을 선임했다고 밝혔다. 신규 이사진은 빌&멜린다 게이츠 재단의 전 CEO인 수 데스몬드-헬만 박사와 소니그룹의 전 부사장(EVP) 겸 법률 고문인 니콜 셀리그만 그리고 인스타카트의 CEO이자 의장인 피지 시모다. 알트먼과 새로운 이사회 멤버들은 오픈AI의 거버넌스를 발전시키고, AI가 인류에게 긍정적인 영향을 미치도록 할 오픈AI의 고위 경영진과 협력할 예정이다.

2024.03.10 09:35남혁우

이탈리아 "오픈AI, '소라' 데이터 처리 방식 알려야"

이탈리아가 오픈AI의 영상 생성 인공지능(AI) 모델 '소라' 조사에 나섰다. 현재 오픈AI에게 소라의 개인정보 처리 방식을 설명해달라고 요청한 상태다. 8일 로이터는 이탈리아 개인정보 보호기구인 '가란테'가 소라의 개인정보 처리법에 대한 조사를 시작했다고 보도했다. 현재 가란테는 오픈AI에게 소라에 대한 정보 제공을 요청한 상태다. 해당 기구는 오픈AI에게 이탈리아 사용자의 개인 데이터를 어떻게 처리했는지, 처리 방법이 향후 서비스 운영에 어떤 영향을 미칠 수 있는지 구체적으로 명시해 달라는 요구를 한 셈이다. 가란테는 "이탈리아 사용자의 데이터 처리 방식과 이에 따른 영향을 알아볼 필요가 있다"고 밝혔다. 이에 오픈AI는 소라 학습 방법과 훈련에 활용한 데이터를 어떻게 수집했는지 알려야 한다. 또 사용된 데이터가 유럽연합(EU) 정보보호규정을 준수하는지 증명해야 한다. 오픈AI는 20일 안에 관련 문의에 답해야 한다. 오픈AI는 지난달 15일 소라에 대한 기술과 데모 영상을 공개한 바 있다. 그러나 소라의 출시 예정일을 밝히진 않았다. 일부 제한된 테스터들로부터 피드백 받고 있다고만 알렸다. 이에 소라에 활용된 정보처리 방식 서류를 이탈리아 기구에 제공할 진 미지수다. 이탈리아는 지난해 오픈AI의 챗GPT 사용 금지 조치를 내린 첫 서방 국가다. 이에 이번 소라 조사 착수에 대한 관심이 주목받고 있다.

2024.03.10 09:21김미정

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

전 국민 최대 45만원 '소비쿠폰' 지급…21일부터 신청

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.