• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (331건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[MWC]유영상 SKT "AI로 시장 판도 바꾸겠다"

“우리는 항상 글로벌에 대한 갈망과 피해의식이 있었다. 통신을 포함해 한국 서비스 기업이 글로벌 스케일을 가진 적이 많지 않다. 제조업은 글로벌 활약이 두드러지는데, 서비스는 왜 글로벌 강자가 탄생하지 못할까 자책도 해봤다.” 유영상 SK텔레콤 사장은 26일(현지시간) 스페인 바르셀로나에서 개막한 MWC24 현장에서 '글로벌 텔코 AI 얼라이언스(GTAA)'에 모인 회사들이 AI 합작법인을 추진키로 한 이유를 묻자 이같이 말했다. 기존과 같은 사업 운영으로는 ICT 시장의 주도권을 되찾기 어려웠지만, 글로벌 통신사들과 AI 협력으로 판도를 바꿀 자신감을 얻게 됐다는 것이다. 이날 SK텔레콤은 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크와 함께 AI 거대언어모델(LLM) 공동 개발과 사업 협력을 수행할 합작법인을 공동으로 설립하기로 했다. AI 언어모델 개발에 SK텔레콤과 뜻을 모은 회사들은 각각 유럽, 중동, 동남아 지역에서 통신사업을 주도하는 회사들이다. 또 소프트뱅크는 혁신 투자에 뛰어난 회사다. "AI 시대 리더십 위해 모였다" 유 사장은 여러 통신사들이 뜻을 모은 과정을 두고 “함께 하는 회사들과 비교하면 (SK텔레콤은) 가입자도 제일 적고 시총도 가장 작은 수준이다”며 “글로벌 강자가 되기 위해서는 동맹 체계를 우선 구축해야 했고, 이들을 설득하는 과정이 어려웠는데 AI(로 인한) 성장 모멘텀이 있어서 가능했다”고 회고했다. 이어, “통신 사업자들이 인터넷이나 모바일(을 통한 ICT 산업 발전) 모멘텀에 적극적으로 나서지 않고 분열됐다가 주도권을 잃게 됐는데, AI 시대에는 그렇게 하지 않았으면 좋겠다는 생각을 모은 것”이라고 설명했다. 그러면서 “챗GPT 등장 후 통신사들이 힘을 모아 제대로 AI 시대에 대응해보자고 생각했다"며 "왜 함께해야 하는지, 또 AI여야만 하는지 질문이 많았는데 (얼라이언스 구축 이후) 1년이 지났고, 이제 모든 기업이 AI를 외치고 있다”고 강조했다. 글로벌 유수의 통신사들과 뜻을 모은 것은 단순히 AI 경쟁력 확보를 넘어 글로벌 AI 강자로 나서겠다는 야심찬 포부인 셈이다. 텔코 LLM, 남들이 가질 수 없는 무기 유 사장은 SK텔레콤 대표 취임 1년이 지난 후부터 'AI 컴퍼니' 비전을 강조해왔다. 본업은 통신이지만 AI로 기존 사업과 신사업을 일구며 일하는 방식도 바꿔야 한다고 강조해왔다. 지난해 MWC에서는 AI 협력사들과 뜻을 모았는데, 지난해 하반기부터는 GTAA를 결성하면서 통신사만의 AI도 갖춰야 한다는 철학에 따라 텔코 거대언어모델(LLM) 구축의 필요성을 외쳤다. 자강과 협력을 키워드로 AI 피라미드 전략을 내세우며 AI 컴퍼니로의 전환 의지는 더욱 커졌다. 유 사장은 “1년 전 거대언어모델(LLM) 매개변수 크기를 따졌다면, 지금은 활용 방안과 어떤 비즈니스모델(BM)을 마련할지 여부에 관심이 쏠리고 있다”며 “텔코 LLM 같은 버티컬(특화형) LLM 발전이 하나의 기업을 넘어 산업 전체에 AI 전환을 불러일으키고, 수익화하는 데 중요한 축이 될 것”이라고 내다봤다. 범용 LLM이 아니라 통신에 특화된 버티컬 LLM은 꾸준한 데이터 학습과 함께, 규모의 경제를 통해 시간이 지나 큰 경쟁력을 가지며 산업 판도를 바꿀 수 있다는 자신감이다. AI 피라미드 전략 주효했다...게임체인저 도약 SK텔레콤의 AI 피라미드 전략에 따르면 데이터센터와 같은 AI 인프라를 갖추고 전 산업 영역에 걸쳐 AI 전환을 추진하며 실제 AI 서비스를 구현해야 글로벌 AI 회사로 성장하는 발판을 다질 수 있다. 구체적인 AI 서비스로 에이닷과 같은 AI 개인비서를 꼽았다. 즉, 통신사가 가장 잘할 수 있는 AI 개인비서(PAA, 퍼스널 AI 어시스턴트)로 글로벌 시장에서도 통할 수 있는 무기를 가지고 승부를 내겠다는 뜻이다. 유 사장은 “에이닷을 비롯한 PAA는 현 AI 시대 흐름과 궤를 같이하고 있다”며 “이는 빅테크의 전유물이 아니라 GTAA에서 서비스가 나올 수 있지 않을까 생각한다”고 말했다. 그는 또 “지금은 한 산업분야에 특화된 LLM이 해당분야의 변화를 이끌어가는 시대”라며, “글로벌 통신사들이 텔코 LLM 등 AI 분야 협력을 통해 시장 변화를 주도하는 게임 체인저가 되려는 것”이라고 강조했다. 그러면서 “기존 혁신에 그치지 않고 국내외 시장에서 과감한 도전을 계속할 것”이라며, “이를 통해 진정한 글로벌 AI 컴퍼니로 거듭날 것”이라고 밝혔다.

2024.02.27 08:00김성현

[MWC] SKT, 글로벌 통신사 4곳과 AI 합작법인 세운다

SK텔레콤이 26일(현지시간) MWC24 개막 현장에서 유럽, 중동, 아시아의 대표 통신사 최고 경영진들과 만나 인공지능(AI) 기술 공동 개발 과 사업 협력을 수행할 합작법인을 설립하기로 뜻을 모았다. 이 자리에 최태원 SK 회장이 직접 참석해 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크의 최고경영자들과 만나 글로벌 AI 기술 혁신과 AI 산업 생태계 선도에 대해 의견을 나누었다. 합작법인으로 글로벌 텔코 AI 협력체 구축 SK텔레콤, 도이치텔레콤, 이앤그룹, 싱텔그룹, 소프트뱅크는 MWC24에서 GTAA 창립총회를 열고 AI 거대언어모델(LLM) 공동 개발과 사업 협력을 수행할 합작법인 설립 계약을 체결했다. 이날 열린 창립총회에는 최태원 회장과 유영상 SK텔레콤 CEO를 비롯해 팀 회트게스 도이치텔레콤 회장, 하템 도비다 이앤그룹 CEO, 위엔 콴 문 싱텔 그룹 CEO, 타다시 이이다 소프트뱅크 최고정보보안책임자(CISO) 등 최고 경영진들이 한자리에 모였다. 합작법인은 '통신사 특화 거대언어모델(텔코 LLM)'을 본격적으로 개발할 계획이다. 한국어, 영어, 일본어, 독일어, 아랍어 등 5개 국어를 시작으로 전 세계 다양한 언어를 지원하는 다국어 LLM을 개발하는 것이 목표다. 합작법인은 연내에 설립할 예정이다. 텔코 LLM은 범용 LLM보다 통신 영역에 대한 이해도가 높고 이용자 의도도 잘 파악할 수 있다. AI컨택센터(AICC) 등 다양한 통신 사업 및 서비스 영역을 AI로 전환하는데 활용도가 높다는 강점을 가지고 있다. SK텔레콤은 텔코 LLM이 개발되면 전 세계 통신사들이 각국 환경에 맞춰 유연하게 AI 에이전트와 같은 생성형 AI 서비스를 만들어 낼 수 있다고 강조했다. 글로벌 통신사들의 합작법인 설립을 통해 전 세계 약 13억 명의 고객 기반을 확보할 수 있게 된 점도 주목할 부분이다. 국경 없는 AI 협력 나서 SK텔레콤, 도이치텔레콤, 이앤그룹, 싱텔그룹, 소프트뱅크는 전 세계 20여 개 통신사들을 초청해 글로벌 통신사 AI 협의체인 '글로벌 텔코 AI 라운드테이블(GTAR)' 행사를 열고 GTAA 참여를 제안했다. SK텔레콤은 특히 현장에 참석한 글로벌 통신사들에게 텔코 LLM을 선보였다. 데모 버전으로 준비한 LLM을 직접 시연하며 통신사 특화 LLM의 기술적 특징과 적용 사례에 대해 설명했다. 5社는 글로벌 통신기업들이 유무선 통신, 미디어 등 핵심사업을 인공지능으로 대전환해 미래 성장동력을 확보해야 한다고 강조하며, 인공지능 기술 확보 및 사업구조 혁신을 위해 GTAA에 참여할 것을 제안했다. 이 자리에서 SK텔레콤은 AI 기술을 개발하는 통신사들이 공통으로 구축해야 할 원칙과 체계의 수립에 대해서도 함께 고민해 보자고 제안했다. SK텔레콤은 올 초 회사 경영시스템에 AI 추구가치, AI 기술을 관리하는 체계 등을 설정하는 AI거버넌스를 도입한다고 밝혔다. 앞으로 5社는 통신사들의 AI 혁신 사례를 공유하고 AI 생태계를 선도해 나가기 위해 GTAR 행사를 정기적으로 운영하고 전 세계 글로벌 통신사들을 초청하기로 했다. 유영상 사장은 “합작법인을 기반으로 GTAA를 확장해 글로벌 AI 생태계 주도권을 확보할 것“이라며 “전 세계 13억 통신 가입자가 통신사 특화 LLM을 통해 새로운 AI 경험 누리게 될 것”이라고 말했다. 클라우디아 네맛 도이치텔레콤 기술혁신담당이사는 “독일에서는 월 10만 건 이상의 고객 서비스 대화가 생성형 인공지능을 통해 처리될 만큼 AI가 고객과 챗봇 간의 대화를 개인화하고 있다”며 “이번 합작법인 설립은 유럽과 아시아를 더욱 가까워지게 만들 것”이라고 설명했다. 데나 알만수리 이앤그룹 AI&데이터 최고책임자는 “텔코 LLM은 고객 지원을 손쉽게 하고 개인화된 추천을 가능하게 하는 등 기업이 고객과 소통하는 방식을 혁신할 것”이라며 “GTAA를 통해 통신을 혁신할 새로운 표준을 만들고 고객에게 더 나은 서비스를 제공할 수 있기를 기대한다”고 밝혔다. 콴 문 위엔 싱텔 그룹 CEO는 “텔코 LLM은 챗봇 기능을 크게 확장해 고객의 기술적 문의에 적절한 답을 하는 등 복잡한 고객 문제를 쉽게 처리할 수 있을 것”이라며 “글로벌 통신 업계가 AI 개발 협력에 뜻을 모은 것은 큰 의미가 있다”고 말했다. 히데유키 츠쿠다 소프트뱅크 부사장은 “GTAA와 같은 강력한 동맹을 통해 글로벌 커뮤니케이션을 혁신하고 서비스 품질을 높이며 AI를 기반으로 한 새로운 기술 혁신의 시대를 열 것”이라며 “전 세계 커뮤니티에 원활한 연결성과 무한한 기회를 제공함으로써 통신의 미래를 만들어갈 수 있는 힘을 가지게 됐다”고 말했다.

2024.02.26 17:00박수형

스테이블디퓨전3 미리보기 공개

텍스트-이미지 모델 '스테이블 디퓨전'의 세번째 버전이 초기 미리보기로 공개됐다. 품질 및 철자 기능 향상, 다중 주제 프롬프트 등이 특징이다. 22일(현지시간) 스태빌리티AI는 차세대 텍스트-이미지 모델 '스테이블디퓨전 3' 초기 미리보기를 발표했다. 사용을 원하는 경우 미리보기 대기자명단에 등록해 이용할 수 있다. 접근권한을 얻게 되면 디스코드 서버 초대 메일을 받게 된다. 스테이블디퓨전은 2022년 2.0 버전 공개로 이미지 생성 AI 모델의 획기적 진보를 보여줬다. 세번째 버전은 기존 아키텍처와 달리 디퓨전 트랜스포머 아키텍처와 플로우 매칭을 결합했다. 디퓨전 트랜스포머 아키텍처는 일반적으로 사용되는 U-Net 백본을 트랜스포머로 대체해 이미지 디퓨전 모델을 훈련한다. 이 방식은 효율적으로 확장하고 더 높은 품질의 이미지를 생성할 수 있다. 플로우 매칭은 랜덤 노이즈에서 구조화된 이미지로 원환하게 전환하는 방법을 학습해 이미지를 생성하는 AI 모델을 만드는 기술이다. 스테이블디퓨전3는 이전 모델보다 더 나은 성능과 품질로 이미지를 만들어낸다. 한 프롬프트에 여러 주제를 넣을 수 있다. 철자 생성의 정확도도 더 높아졌다. 스테이블디퓨전3의 크기는 다양하다. 8억에서 80억개의 매개변수를 제공한다. 스테이블디퓨전은 기본적으로 오픈소스 라이선스를 따른다. 모델의 소스코드에 접근할 수 있고 미세조정이 가능하다. 현재 스테이블디퓨전3의 소스코드와 기술문서는 공개돼 있지 않다. 회사측은 미리보기 단계에서 성능과 안정성을 개선할 것이라고 밝혔다.

2024.02.23 10:43김우용

플래티어, AI 등 디지털 신기술 마케팅 활용 전략 소개

플래티어(대표 이상훈)는 지난 22일 서울 양재동 엘타워에서 '엔터프라이즈 플랫폼의 새로운 미래'를 주제로 더 퓨처리스틱 플래티어 2024를 성공적으로 개최했다고 23일 밝혔다. 올해 처음 개최된 이번 행사에는 제조·유통·IT 등 다양한 분야의 실무자 및 책임자 약 300여 명이 참석했다. AI·빅데이터·LLM(거대언어모델) 등 최근 화두로 떠오르고 있는 디지털 신기술 트렌드를 짚어보고, 이를 자사 제품 및 서비스에 적용할 수 있도록 맞춤형 활용 전략 등을 다양한 고객 사례와 함께 소개했다. 행사 포문은 이상훈 대표가 열었다. 이 대표는 "생성형 AI 등 새로운 기술들이 빠르게 발전하면서 기존 산업의 생태계를 완전히 바꾸는 이른바 '파괴적 혁신'이 일어나고 있다"면서 "이러한 기술 위협에서 살아남기 위해서는 기업들이 기술보다 비즈니스를 먼저 정의해야 하는데, 이런 과정을 함께 고민하고 해결책을 제시할 수 있는 역량있는 파트너 모색이 성공의 관건이 될 것"이라고 말했다. 기조연설을 맡은 최재붕 성균관대학교 교수는 인류문명의 디지털 전환 과정과 생성형 AI의 등장이 가져온 세계경제 및 산업구조의 다양한 변화상과 사례를 소개했다. 그는 뉴노멀 시대 디지털 경제는 '팬덤' 기반 생태계가 주도하고 있다고 설명했다. 최 교수는 "기존 산업이 AI 등 4차 산업기술과 만나 차원이 다른 비즈니스로 전환되는 '메타 인더스트리'를 창조할 수 있는 실력을 키우고, 고객경험 디자인으로 팬덤을 창조할 수 있어야 한다"고 강조했다. 다음으로 신성석 EC솔루션사업전략실장은 급변하는 국내 이커머스 시장에 대응하기 위해 보다 유연하고 확장성이 높은 '컴포저블 커머스(Composable Commerce)'를 채택하려는 기업들의 수요가 증가하고 있다고 강조했다. 신 실장은 "컴포저블 커머스 도입으로 이커머스 플랫폼 구축 및 운영 비용을 크게 절감할 수 있으며, 2배 이상 빠르게 구축할 수 있다"고 말했다. 이어서 남덕현 최고기술책임자(CTO)는 "빅테크 기업들은 LLM을 활용해 고객경험 개선, 기업의 운영 및 관리 효율화 등을 꾀하고 있다"면서 "하지만 대규모 투자와 개발 시간이 필요한 LLM을 어떻게 중견 이커머스·D2C 기업들도 효과적으로 활용하여 비즈니스에 실질적으로 도입하고 개선할 수 있을지 고민이 필요하다"면서 자사가 개발 중인 이커머스 특화 LLM을 설명했다. 이봉교 데이터솔루션사업추진단장은 고객 소멸의 위기를 맞이한 국내 이커머스 기업들이 고객 락인(Lock-In)을 할 수 있는 로드맵에 대해 소개했다. 이 단장은 "개인화 고객경험을 향상시키는 비즈니스 여정을 설계해야 한다"며 "AI 기반 개인화 마테크 솔루션 '그루비'는 좋은 고객경험을 이끌어내기 위해 최신 AI 기술을 꾸준히 적용하며 지속적인 기술 개발을 이어오고 있다"고 말했다. 마지막으로 류성현 DT기술본부장은 플래티어의 성공적인 ITSM(IT 서비스 관리) 시스템 구축 사례 소개와 더불어 플래티어의 이커머스 서비스 관리 솔루션이 어떤 변화와 성과를 이루고 있는지 등에 대해 상세히 다뤘다. 이상훈 플래티어 대표는 "플래티어는 빠르게 발전하는 디지털 신기술을 선도적으로 도입 및 적용해 기업 고객들이 이를 쉽고 효율적이게 활용할 수 있도록 돕는 기술 파트너로서 최선을 다하겠다"고 말했다.

2024.02.23 08:56백봉삼

제미나이, 엉터리 이미지 내놓더니…결국 중단됐다

구글이 범용 인공지능(AI) 모델 제미나이(Gemini)의 이미지 생성 기능을 일시 중단시켰다고 CNBC를 비롯한 외신들이 22일 보도했다. 제미나이는 최근 역사적 사실과 맞지 않는 이미지를 생성해 논란을 불러 일으켰다. 이를테면 미국 건국의 아버지(Founding Fathers) 같은 역사적인 인물을 유색 인종으로 그렸다. 또 '1943년 독일군'을 그리라는 프롬프트(명령어)에 흑인과 아시아인 이미지를 생성하기도 했다. 논란이 커지자 구글은 제미나이의 이미지 생성 기능 자체를 일시 중단시켰다. 구글은 이날 엑스(X)에 올린 글을 통해 “제미나이가 일부 역사적 이미지를 부정확하게 생성한다는 사실을 인지하고 있다”면서 “수정 작업을 하는 동안 이미지 생성 기능을 일시 정지시켰다”고 공지했다. 또 “조만간 향상된 버전을 새롭게 선보일 예정이다”고 덧붙였다. 제미나이는 구글이 지난 해 12월 선보인 대규모 언어모델(LLM)이다. 제미나이는 이미지를 인식하고 음성으로 말하거나 들을 수 있으며 코딩을 할 수 있는 능력까지 갖춘 '멀티모달 AI'로 만들어졌다. 제미나이 발표 당시 구글은 “오픈AI의 최신 모델인 GPT-4보다 성능이 우수하다”고 주장했다. 하지만 최근 이미지 생성 기능에 연이어 오류가 발견되면서 체면을 구기게 됐다.

2024.02.22 22:23김익현

"MS 애저보다 빠르다"…美 스타트업 그로크, AI 칩으로 시장 판도 흔들까

거대언어모델(LLM)의 추론·응답 속도를 높인 인공지능(AI) 칩이 나왔다. 엔비디아 그래픽처리장치(GPU)보다 더 빠른 속도를 갖췄다는 점에서 업계의 주목을 받고 있다. 22일 미국 IT 매체 뉴아틀라스에 따르면 미국 AI 스타트업 그로크는 지난 20일 LLM의 추론과 응답 속도를 높이는 AI 칩 '언어처리장치(LPU)'를 출시했다. 그로크는 구글 개발자 출신들이 모여 2016년 설립한 반도체 기업이다. 설립자 중에는 구글 머신러닝(ML) 칩을 개발한 조나단 로스가 최고경영자(CEO)다. 보도에 따르면 LPU는 LLM을 탑재한 챗봇인 오픈AI의 '챗GPT', 구글의 '제미나이' 등의 응답 속도 향상에 특화됐다. 사용자 질문에 1초도 안 되는 시간에 영어 기준 수백 단어의 답변을 생성할 수 있다. 벤치마크 테스트에서도 LPU는 마이크로소프트의 애저 클라우드 인프라 성능을 능가했다. 메타의 700억 매개변수 '라마 2'는 마이크로소프트 애저 클라우드상에서 초당 19개 토큰을 생성했지만, 그로크를 탑재했을 때 초당 241개 토큰을 만들었다. LLM이 그로크를 탑재할 경우 18배 이상 빠른 추론 속도를 갖출 수 있는 셈이다. 또 LPU는 100개 토큰을 생성하는 데 0.8초가 걸렸지만, 마이크로소프트의 애저 클라우드는 10.1초 소요됐다. 현재 개발자는 그로크챗 인터페이스에서 LPU 엔진을 이용할 수 있다. 승인된 사용자는 라마 2, 미스트랄, 팰컨 등을 통해 엔진을 시험해 볼 수 있다. 조나단 로스 그로크 CEO는 "LLM의 추론 속도는 개발자의 아이디어를 사업화할 수 있다"며 "이는 AI 사업 생태계 필수 요소"라고 밝혔다.

2024.02.22 11:05김미정

크라우드웍스, 가트너 '생성형AI 기술' 공급기업' 선정

크라우드웍스(대표 박민우)는 최근 가트너가 발행한 '생성형AI 기술'에 관한 보고서에서 글로벌 IT기업들과 함께 '생성형AI 기술' 공급기업으로 선정됐다고 22일 밝혔다. 글로벌 IT 리서치·컨설팅 기업 가트너는 '생성형AI 기술을 위한 혁신 가이드' 보고서에서 생성형AI 기술 스택을 크게 4가지 ▲Generative Al Apps ▲AI Engineering ▲Model Providers ▲Infrastructure Providers로 구분, 생성형AI 도입을 위한 기술 공급기업을 소개했다. 이 보고서에서 크라우드웍스는 AI 엔지니어링 기술 스택과 관련해 거대언어모델(LLM) 기반 AI Ops(AI for IT Operations) 솔루션 부문에 등재됐다. 크라우드웍스가 가트너 리포트에서 언급된 것은 이번이 처음이 아니다. 가트너사가 발표하는 하이프 사이클(Hype Cycle) 보고서에서 ▲데이터과학 및 머신러닝 ▲AI 관련 테마로 2년 연속 '데이터 라벨링 및 가공' 샘플 벤더로 등재된 바 있다. 이번에는 데이터 라벨링이 아닌 '생성형AI 기술' 부문 공급기업으로 등재된 것이다. 크라우드웍스는 LLM을 중심으로 엔터프라이즈 AI 솔루션 시장에서 입지를 넓혀가고 있다. 고품질의 AI용 데이터를 제공해온 전문성을 바탕으로 기업들이 맞춤형 LLM을 도입할 때 필요한 ▲전략 컨설팅 ▲고품질 데이터 구축 및 자산화 ▲기업 맞춤형 LLM 모델 구축 ▲AI 에이전트 등 맞춤형 애플리케이션 개발 ▲레드팀을 포함한 전문적인 데이터 및 모델 평가 등 AI 도입 전과정을 모듈화해 솔루션을 제공하고 있다. 박민우 크라우드웍스 대표는 “글로벌 시장에서 먼저 LLM AI Ops 서비스에 대한 전문성과 기술력을 인정받고 있다. 올 한해 LLM을 중심으로 한 생성형AI 시장을 집중 공략할 계획”이라며 “가트너 등재를 계기로 글로벌 시장에서의 긍정적인 비즈니스 효과를 기대하고 있다”고 말했다.

2024.02.22 09:09백봉삼

어도비, 애크로뱃·리더 'AI 어시스턴트' 출시

어도비는 '리더'와 '애크로뱃'에 새로운 생성형 AI 구동 대화형 엔진인 AI 어시스턴트 베타를 21일 공개했다. 리더와 애크로뱃의 워크플로우에 긴밀히 통합된 AI 어시스턴트는 긴 문서에 대한 요약과 인사이트를 즉시 생성하고, 사용자 질문에 답하며, 이메일, 보고서 및 발표자료 서식에 맞춰 정보를 제공한다. AI 어시스턴트는 전 세계 약 3조 건의 PDF에 담긴 정보에서 새로운 가치를 창출하는 생성형 AI를 대중에게 제공하고 있다. AI 어시스턴트는 모바일에서 PDF의 반응형 읽기 환경을 지원하며 다수의 수상을 석권한 애크로뱃 리퀴드 모드와 동일한 AI 및 머신 러닝 모델을 활용한다. 이 어도비 자체 모델은 PDF 구조와 콘텐츠에 대한 심층적인 이해를 바탕으로 AI 어시스턴트 결과물의 품질과 안정성을 향상시킨다. 애크로뱃 개인, 프로 및 팀즈 구독자와 애크로뱃 프로 체험판 사용자는 이제부터 AI 어시스턴트 베타를 사용해 별도의 복잡한 설치 없이 보다 생산적으로 작업할 수 있다. 또한 앞으로 몇 주에 걸쳐 리더에도 기능이 추가될 예정이다. AI 어시스턴트는 직관적인 대화형 인터페이스를 통해 PDF 콘텐츠를 기반으로 사용자에게 질문을 제안하거나 문서 내용에 대한 질문에 답한다. 생성형 요약은 가독성 좋은 서식으로 짧은 개요를 생성해 사용자가 긴 문서 내용을 빠르게 파악할 수 있도록 돕는다. 어도비의 맞춤형 인용 출처 엔진 및 자체 AI를 활용하는 지능형 인용을 통해 AI 어시스턴트가 제공한 답변의 출처를 쉽게 검증 가능하다. 클릭 가능한 링크로 간편한 탐색이 가능해, 사용자는 방대한 양의 문서에서도 필요한 정보를 빠르게 찾으며 중요한 정보를 탐색하고 실행하는 데 집중할 수 있다. AI 어시스턴트의 서식 출력을 통해 핵심 요약이나 이메일, 보고서 및 발표용 텍스트 등의 여러 용도에 맞게 정보를 통합하고 서식을 지정할 수 있으며, '복사' 버튼으로 쉽게 잘라 붙이거나 공유할 수 있다. 고객 데이터를 존중하는 AI 어시스턴트는 데이터 보안 프로토콜에 의해 관리되며, 고객 동의 없이 고객 문서 내용을 저장하거나 AI 어시스턴트 학습을 위해 사용하지 않는다. AI 어시스턴트는 PDF 외에도 워드, 파워포인트, 회의 기록 등 모든 종류의 문서 서식을 지원한다. 애크로뱃은 PDF 읽기, 편집 및 변환을 위한 도구다. 데스크톱, 웹, 모바일 기기, 독립형 애플리케이션, 마이크로소프트 및 구글 같은 생산성 앱에 주요 브라우저에 내장되는 등 어디에서나 사용 가능하다. 리더와 애크로뱃의 AI 어시스턴트는 개인부터 대기업까지 모두가 안심하고 사용할 수 있는 안전장치를 갖추고 있다. 대기업 고객에게 엔터프라이즈급 보안 및 정보 거버넌스를 제공한다. AI 어시스턴트는 어도비의AI 윤리 프로세스에 따라 개발됐다. 어도비는 리더 및 애크로뱃의 AI 어시스턴트를 통해 다양한 고객 사례를 처리할 수 있는 기술을 채택함으로써 대규모언어모델(LLM)에 구애받지 않는 접근 방식을 취하고 있다. 어도비는 서드파티 LLM의 어도비 고객 데이터 학습을 금지한다. 리더 및 애크로뱃의 AI 어시스턴트는 긴 문서와 방대한 양의 정보를 유용한 인사이트 및 이해하기 쉽고 실용적인 콘텐츠로 전환한다. 프로젝트 매니저는 회의의 주요 내용을 몇 초 안에 확인하고, 요약 및 공유할 수 있으며, 영업팀은 관련 자료를 맞춤화하고 몇 분 내 고객 요청에 대응할 수 있다. 또한 학생은 자료 검색 대신 분석과 인사이트 발굴에 더 많은 시간을 할애할 수 있고, 소셜 미디어 및 마케팅 팀은 이해관계자를 위한 일간 트렌드 및 이슈 업데이트를 신속하게 제공 가능하다. AI 어시스턴트는 이메일 작성이나 각종 계약서 스캔에 소요되는 시간을 줄여, 어디서나 사무직 근로자와 소비자에게 생산성을 제공한다. 어도비는 이번 발표로 생성형 AI를 활용해 디지털 문서의 가치를 재창조하겠다는 비전을 본격화한다. 어도비는 AI 어시스턴트에 대한 폭넓고 심도 있는 로드맵을 갖고 있다. AI 어시스턴트는 여러 문서 및 문서 유형과 소스에 적용돼 어디서나 가장 중요한 정보를 즉각 제시한다. 지난해 사용자들은 애크로뱃에서 수십억 건의 문서를 편집했다. AI 어시스턴트는 초안을 빠르게 생성하는 한편, 용이한 카피 편집을 위해 어투와 문체를 즉시 수정하고 카피 길이를 줄이거나, 콘텐츠 디자인 및 레이아웃을 제안한다. 어도비의 크리에이티브 생성형 AI 모델 제품군인 파이어플라이와 어도비 익스프레스의 주요 기능을 통해 누구나 쉽게 창의적이고 전문적이며 개인화된 문서를 만들 수 있다. 디지털 협업은 초안에서 완성까지 작업을 수행하는 방식이다. 공유되고 있는 문서 수가 전년 대비 75% 증가하면서 사용자들은 애크로뱃으로 그 어느때보다도 활발한 디지털 협업을 진행하고 있다. 생성형 AI는 피드백과 주석을 분석하고 변경 사항을 제안하며, 상충되는 피드백을 따로 표시하고 해결하도록 지원하는 등 협업 프로세스를 간소화한다. 리더 및 애크로뱃 사용자는 AI 어시스턴트의 베타 종료 후 새로운 애드-온 구독 플랜을 통해 모든 AI 어시스턴트 기능을 이용할 수 있다. 그 전까지 새로운 AI 어시스턴트 기능은 데스크톱 및 웹에서 애크로뱃 스탠더드와 애크로뱃 프로의 개인 및 팀즈 구독 플랜을 통해 영어로만 베타로 이용할 수 있으며, 향후 몇 주 내 데스크톱 리더에서도 영어로 기능을 이용해볼 수 있다. 추후 다른 언어도 지원될 예정이며, 기업 고객의 경우 비공개 베타로 이용할 수 있다. 아비간 모디 어도비 도큐먼트 클라우드 수석 부사장은 “생성형 AI는 PDF내 정보를 실용적인 지식과 전문가 수준의 콘텐츠로 전환하며 보다 지능적인 문서 경험을 제공한다”며 “PDF는 가장 중요한 문서에 대한 사실상 표준으로 이번에 소개된 기능은 리더와 애크로뱃 애플리케이션 및 서비스를 통해 AI 어시스턴트가 제공하고자 하는 새로운 가치의 시작에 불과하다”고 밝혔다.

2024.02.21 09:35김우용

리벨리온, ISSCC 2024서 AI 칩 '아톰' 기술력 입증

AI반도체 스타트업 리벨리온은 글로벌 반도체 학회 'ISSCC 2024(국제고체회로학회)'에 참가해 자사의 머신러닝 시스템온칩(SoC) 기술 논문을 발표했다고 21일 밝혔다. ISSCC는 반도체 회로 설계 분야에서 가장 명망 있는 학술대회로 약 3천 명의 연구자들이 참여한다. 올해 학회는 미국 샌프란시스코에서 2월 18일(현지시간)부터 5일간 개최된다. 리벨리온은 19일 진행된 '프로세서 및 커뮤니케이션 시스템온칩' 세션에서 논문을 발표했다. 리벨리온은 "ISSCC가 기술에 대한 이론적 주장을 넘어 실제 구현된 칩을 기반으로 제품성능의 실현가능성을 검증하는 학회인만큼, 이번 논문 채택과 발표는 곧 리벨리온의 실제 제품 경쟁력에 대한 신뢰성을 보여준다"고 밝혔다. 논문에서 리벨리온은 인공지능 추론용 시스템온칩 '아톰(ATOM)' 설계에 적용된 리벨리온의 고유한 기술을 설명하고, 이를 바탕으로 작은 크기의 칩으로도 높은 수준의 연산 능력을 발휘할 수 있음을 증명했다. 특히 ▲다양한 목적에 따라 활용될 수 있는 (flexible) AI 연산 코어 ▲온칩(On-chip) 네트워크 ▲속도에 방점을 둔 메모리 아키텍처 등 고도화된 설계 방식을 활용해 타사 GPU와 NPU 대비 높은 컴퓨팅 자원 활용 역량을 선보였다. 이번에 공개된 기술은 올 상반기 양산에 나서는 데이터센터향 AI반도체 '아톰(ATOM)'에 적용됐다. 논문 세션에 이어 리벨리온은 '아톰'을 활용한 실시간 데모 시연도 함께 진행했다. 이번 시연에서 '아톰'은 LLM 모델 구동과 이미지 생성 등 생성형AI 추론 영역에 있어 GPU 대비 높은 에너지 효율성을 보이며 학계와 글로벌 업계 관계자의 주목을 받았다. 오진욱 리벨리온 CTO는 “양산단계에 접어든 제품의 에너지 효율성과 성능을 객관적으로 입증했다는 점에서 이번 ISSCC 논문 채택은 리벨리온에 매우 뜻깊은 순간“이라며 “검증된 글로벌 수준의 기술 경쟁력이 리벨리온이 목표로 하는 세계 시장 진출에 좋은 밑거름이 될 것으로 기대한다”고 말했다.

2024.02.21 09:03장경윤

BHSN, 법률 특화 언어모델 '리걸LLM' 고도화

한국에서도 법률 특화 생성형 인공지능(AI) 서비스가 본격화할 전망이다. 기존보다 데이터 처리량과 답변 정확도가 올라 서비스 품질이 향상됐다. BHSN(대표 임정근)은 자체 개발한 법률 특화 언어모델 '리걸LLM'를 고도화했다고 21일 밝혔다. 리걸LLM 고도화 핵심은 ▲리걸 롱시퀀스 기술 도입 ▲리걸 특화 얼라인먼트러닝 강화 ▲리걸 데이터베이스 강화다. 리걸LLM을 올해 상반기 내 자사 올인원 AI 리걸 솔루션 '앨리비', 추후 출시 예정인 서비스에 탑재할 예정이다. 롱시퀀스는 범용 생성형 AI 서비스 대비 많은 양의 데이터를 처리할 수 있어, 현재 오픈AI의 챗GPT, 메타의 라마, 앤트로픽의 클로드 등 글로벌 빅테크의 LLM 모델에 적용된 기술이다. BHSN은 이를 송무, 사건수사 등 대량 문서가 필수로 발생하는 리걸 업무에 적용할 방침이다. 리걸 특화 얼라인먼트러닝은 생성형AI 서비스가 제공하는 답변의 정확도를 높이는 기술이다. 도메인 특화 사전 학습(DAPT), 인간 피드백 기반 강화 학습(RLHF) 등 다양한 AI 방법론을 적용한 전방위적인 얼라인먼트러닝을 강화해 답변의 정확도를 더욱 높였다. 이를 기반으로 국내 법률 문서에 실제로 사용되는 언어 및 문체, 단어, 형식을 유지한 고품질의 AI로 계약서, 법률 자문 초안 등을 간편하게 생성할 수 있다. BHSN은 리걸LLM의 학습 및 서비스의 질을 좌우하는 데이터베이스도 한 층 강화했다는 입장이다. 현재 공개돼 있는 계약서, 판례, 법령, 심결례, 보고서, 행정규칙 등 리걸 데이터에 BHSN 소속 변호사가 자체 개발한 고품질 비공개 데이터를 결합해 자체 리걸AI 엔진의 성능을 높였다. BHSN은 2020년 설립 이후, CJ제일제당, SK텔레콤 등 국내 대기업에 자체 개발 AI 리걸 솔루션을 제공해 왔다. 최근 클라우드 기반 올인원 AI 리걸 솔루션 앨리비를 신규 출시했다. 앨리비는 자체 개발한 법률 특화 AI 언어모델을 탑재한 계약관리솔루션(CLM), 기업법무솔루션(ELM) 2종으로 구성됐다. 임정근 BHSN 대표는 "리걸LLM은 서비스 확장성이 넓은 것이 특징으로, 기업, 공공기관, 로펌 등에서 다양한 목적의 리걸 업무를 실질적으로 지원할 수 있도록 고도의 AI 기술과 전문성을 결합해 리걸 업무 수행의 정확도가 높은 것이 핵심이다"며 "업계 최고 경쟁력을 갖춘 리걸LLM 기반, 시장 내 경쟁력을 확보하고 프로덕트를 다각화해 비즈니스에 박차를 가하겠다"고 했다.

2024.02.21 08:59김미정

디노티시아·코셈, AI 전자현미경 솔루션 개발 협약 체결

인공지능 시스템 전문기업 디노티시아는 대한민국 전자현미경 전문기업 코셈과 지난 16일 AI 기술을 접목한 전자현미경 개발과 사업화를 위한 업무 협약(MoU)을 체결했다고 20일 밝혔다. 양사는 2023년부터 AI 기술을 전자현미경에 적용해 촬영 시간 단축 및 영상 품질 개선을 목표로 공동 연구를 진행해왔다. 이번 협약은 그간의 PoC(개념증명) 결과를 바탕으로 기술 제품화와 지속적인 연구 협력을 공식화한 것이다. 전자현미경은 전통적인 계측장비 제품으로 극도의 정확성을 요구한다. 반면 인공지능은 급격한 기술 발전에도 불구하고 아직까지 인간이 이해하지 못하는 오류 가능성을 내포하고 있다. 또한 문제 발생시 원인파악이 어려운 단점을 가지고 있어 고도의 정밀성을 요구하는 산업계에는 인공지능을 적용하기 어려웠다. 그러나 이번 협력을 통해 인공지능과 전자현미경 분야 최고의 기술을 가진 양사가 어려움을 극복하고 혁신적인 제품을 내놓을 기반을 마련했으며, 연내 상용제품을 출시하기로 협약했다. 전자현미경은 기초과학이 발전한 일본, 독일 등이 시장을 장악하고 있는 산업으로 후발 주자가 따라가기 어려운 분야다. 다만 양사는 인공지능이라는 새로운 기술의 접목으로 지금까지의 전자현미경 기술 패러다임을 완전히 바꿀 수 있다고 확신하고, 이를 통해 시장 판도를 뒤집을 목표를 가지고 있다. 물리학과 인공지능이 결합해 계측 시간을 단축하고 정확도를 높일 뿐 아니,라 다양한 부가 기능을 제공하는 등 새로운 가치를 창조할 수 있는 분야가 바로 전자현미경이 될 것이라 내다보고 있다. 디노티시아는 다양한 서비스 분야에 인공지능, 특히 LLM(거대언어모델) 솔루션을 제공하는 기업이다. 최적의 온디바이스 AI 시스템 및 솔루션을 제공한다. GPU 및 NPU를 활용한 인공지능 하드웨어 시스템부터 인공지능 연산을 최적화한 소프트웨어 프레임워크, 그리고 인공지능 알고리즘까지 수직 최적화를 통해 고성능, 고효율 솔루션을 고객에게 제공한다. 코셈은 오는 23일 코스닥 상장을 앞둔 전자현미경 전문회사로 전세계 40개국에 매출의 70% 이상을 수출하는 기업이다. 코셈은 본 기술을 기반으로 인공지능 전자현미경을 개발하여 세계시장에 내놓을 계획이다. 정무경 디노티시아 대표는 "이번 협력을 통해 전자현미경 분야에서 인공지능 기술의 새로운 가능성을 열고, 시장에서의 리더십을 확립할 것"이라며 "양사의 기술력과 혁신을 바탕으로 한국의 전자현미경 산업이 세계적인 경쟁력을 갖출 수 있을 것으로 기대한다"고 밝혔다.

2024.02.20 09:47장경윤

크라우드웍스, 작년 매출 239억원·영업손실 15억원

크라우드웍스가 지난해 연간 최대 매출을 기록하고, 영업손실은 줄였다. 크라우드웍스(대표 박민우)는 지난해 연결 기준 매출 239억원, 영업손실 15억원을 기록했다고 19일 밝혔다. 매출은 전년 대비 101% 늘었고, 영업손실은 같은 기간 76% 줄었다. 이 같은 성과는 기업들의 대형 언어 모델(LLM) 도입을 위한 데이터 구축 수요 증가와 AI 데이터 전문가 양성 교육 사업의 견조한 성장이 배경이 됐다. 실제로 지난해 하반기 출시한 LLM 플랫폼 사업 부문 매출은 지난해 전체 매출의 약 15%를 차지하는 성과를 거뒀다. AI 데이터 전문가 양성을 위한 교육 사업도 지난해 고성장을 이어갔다. 전문 교육 및 기관 대상 교육, 맞춤 교육 과정 세분화 등을 통해 교육 사업을 전문화해 전체 매출 성장을 이끌었다. 의료 AI 데이터 테크 기업인 자회사 닥터웍스도 견조한 매출을 유지하면서 의료AI 시장을 겨냥한 LLM 기반 의사용 전문 서비스 개발에 속도를 내고 있다. 크라우드웍스는 올해 LLM을 신성장 동력으로 삼고 시장 확대에 나선다는 전략이다. 이를 위해 기업들이 맞춤형 LLM을 도입할 때 필요한 ▲전략 컨설팅 ▲고품질 데이터 구축 및 자산화 ▲기업 맞춤형 LLM 모델 구축 ▲AI 에이전트 등 맞춤형 애플리케이션 개발 ▲레드팀을 통한 전문적인 데이터 및 모델 평가 등 AI 도입 전과정을 모듈화했다. 이를 통해 기업들이 내부 상황과 목적에 맞게 LLM 도입을 원활히 검토할 수 있게 경쟁력을 높였다는 설명이다. 크라우드웍스 이상민 최고재무책임자는 "지난해 8월 코스닥 상장 이후 기업 인지도와 신뢰도를 제고하며 외형과 내실 모두 의미있는 성과를 만들었다"며 "올해 조직 역량과 핵심 사업 경쟁력을 강화해 데이터 전문 기업에서 AI 테크 기업으로 전환하고 기업들의 AI 혁신 파트너로서 지속적인 성장을 만들어가겠다"고 말했다.

2024.02.19 08:58백봉삼

SKT, MWC24서 통신사 AI 언어모델 청사진 내놓는다

SK텔레콤이 이달 26일 스페인 바르셀로나에서 막을 여는 MWC24에서 다양한 통신 서비스와 네트워크 인프라, 실생활 영역 등 인공지능(AI) 혁신을 바탕으로 한 미래 기술을 전 세계에 소개한다. 또한 세계 통신사들 간 동맹인 글로벌 텔코 AI 얼라이언스(GTAA)를 비롯해, 빅테크와 초협력을 통해 SK텔레콤의 AI 지형을 글로벌 무대로 본격 확대한다. 올해 MWC 주제는 '미래가 먼저다'로, 미래와 현재 잠재력 실현을 우선순위 삼아 200여개국 2천400여개 회사가 AI를 포함해 6G, 사물인터넷(IoT), 로봇 등 다양한 신기술을 선보이는 장이 펼쳐질 전망이다. SK텔레콤은 MWC24 핵심 전시장인 피라그란비아(Fira Gran Via) 3홀 중앙에 약 300평(992㎡) 규모의 대형 전시장을 꾸린다. '새로운 변화의 시작, 변곡점이 될 AI'를 주제로 텔코 중심의 AI 기술을 선보일 예정이다. 전체 전시의 핵심 키워드는 텔코 거대언어모델(LLM)이다. 통신 사업에 특화한 LLM을 개발하고 이를 다양한 분야에 적용함으로써 사업자와 이용자 효용을 극대화한다는 것이다. 텔코 LLM을 바탕으로 SK텔레콤은 챗봇이 구현된 버추얼 에이전트, AI 기반의 스팸, 스미싱 필터링 시스템, AI콜센터(AICC) 등 다양한 적용 사례를 소개할 예정이다. 또 텔코 LLM을 활용해 기존 AI 기반 실내외 유동인구 데이터 분석 시스템 '리트머스 플러스', 로봇, 보안, 의료 등 여러 분야에 적용되는 'AI 퀀텀 카메라' 기능 강화에 대한 구상도 선보일 계획이다. 미디어와 의료 등 생활 속에서 활용되는 AI 기술도 선보인다. 반려동물 AI 진단보조 서비스 엑스칼리버를 비롯해 미디어 가공, 콘텐츠 품질향상 플랫폼 AI 미디어 스튜디오, 비전 AI를 활용한 바이오 현미경 인텔리전스 비전 등이 SK텔레콤 전시관에 마련된다. 이밖에 차세대 열관리 방식 액침 냉각을 포함한 AI 데이터센터(DC) 기술과 AI 기반 각종 네트워크 인프라 기술, 가상 체험 가능한 실물 크기의 도심항공교통(UAM) 등도 관람객 이목을 끌 것으로 기대된다. 회사는 별도 공간을 꾸려 국내 15개 혁신 스타트업과 진행 중인 ESG 프로젝트를 전시한다. 참여 기업들은 피라 그란 비아 8.1홀에 위치한 스타트업 전시회 4YFN(4 Years From Now)에서 사회문제 해결을 위한 ESG 추진 방안을 제시한다. 유영상 SK텔레콤 대표는 2천400여개 기업이 참가하는 MWC24 현장을 직접 찾아 글로벌 AI 컴퍼니로 진화하는 회사 미래 전략을 세계에 알리고, 다양한 글로벌 파트너사와 협력을 추진할 계획이다. 지난해 7월 공식 출범한 글로벌 텔코 AI 얼라이언스와 관련한 논의도 이번 MWC 무대에서 한층 구체화할 계획이다. 유영상 대표는 “이번 MWC는 우리가 보유한 핵심 AI 기술을 바탕으로 다양한 적용 사례를 소개하는 자리가 될 것”이라며 “세계적 기업들과의 초협력을 통해 글로벌 AI 컴퍼니로 빠르게 변모할 것”이라고 말했다.

2024.02.18 09:44김성현

구글, 제미나이 1.5 공개…더 적은 자원으로 더 빠른 성능

구글이 대규모언어모델(LLM) 제미나이 1.5를 공개했다. 전 버전보다 더 적은 자원을 사용하고도 더 높은 성능을 낸다고 강조했다. 15일(현지시간) 구글은 제미나이 1.5를 개발자와 기업에게 제공한다고 밝혔다. 구글에 의하면, 제미나이 1.5 프로의 경우 기존 제미나이 울트바와 동등한 수준의 성능을 보이며, 기존 제미나이 1.0 프로를 능가한다. 쿼리를 전송할 때 전체 모델에서 처리하는 대신 일부만 실행해 성능을 더 높였다는 설명이다. 제미나이 1.5 프로는 한 컨텍스트 창에 3만2천개 토큰을 입력할 수 있고, 한번에 100만개 토큰을 생성할 수 있다. 구글은 1시간의 비디오, 11시간의 오디오, 3만줄 이상의 코드, 70만 단어 이상의 코드베이스를 한번에 처리할 수 있는 용량이라고 강조했다. 경쟁모델인 GPT-4의 컨텍스트 용량은 12만8천개다. 주어진 프롬프트에서 더 많은 양의 콘텐츠를 분석, 분류, 요약할 수 있다. 순다 피차이 알파벳 최고경영자(CEO)는 "모델의 컨텍스트 창이 클수록 주어진 프롬프트에서 더 많은 정보를 받아들이고 처리할 수 있으므로 출력이 더욱 일관되고 관련성 높으며 유용해진다"며 "구글 연구원이 1천만개 토큰 컨텍스트 창을 성공적으로 테스트했다"고 밝혔다. 구글은 제미나이 1.5 프로가 아폴로11의 달 탐사 임무를 다룬 402 페이지 분량의 기록을 이해하고 추론할 수 있다고 강조했다. 제미나이 1.5는 구글클라우드의 버텍스AI와 AI 스튜디오를 통해 기업 사용자와 개발자에게 제공된다. 제미나이 프로 표준 버전은 한 컨텍스트 창에 12만8천 토큰까지 입력할 수 있고, 100만개 단위까지 추가 용량을 원하는 경우 비용을 더 지불해야 한다. 테스트 기간 중에 100만개 토큰을 무료로 입력할 수 있다.

2024.02.16 13:59김우용

카카오 "자체 LLM '코GPT 2.0' 고도화 작업 중"

카카오가 미래 성장 동력으로 주목받고 있는 자체개발 인공지능(AI) 대규모언어모델(LLM) '코GPT 2.0' 내부 테스트를 진행 중이라고 밝혔다. 홍은택 카카오 대표는 15일 컨퍼런스 콜에서 “카카오브레인 코GPT 2.0는 카카오 서비스에 실제 적용되기 충분한 수준의 기술력을 확보하고, 현재 공동체 내부에서 다양한 테스트를 진행하면서 고도화 작업을 진행 중”이라고 말했다. 이어 홍 대표는 “카카오 생태계 내 많은 서비스들은 전 국민을 대상으로 하고 있는 만큼, 비용 경쟁력과 서비스의 효용성을 우선적으로 검토해 자체 개발한 파운데이션 모델과 글로벌 AI 모델을 유연하게 고려하는 하이브리드 형태의 전략을 펼쳐나가고자 한다”고 설명했다. 또 그는 “지난 하반기부터 카카오엔터프라이즈에서 제공하는 대규모 AI 학습 인프라를 활용해 다양한 파운데이션 모델을 구축해 왔다”며 “브레인에서 개발을 완료한 경량형 파운데이션 모델은 이미 지난 12월부터 카카오톡 AI 기능이 적용돼 서비스되고 있다”고 덧붙였다. 신사업(뉴이니셔티브) 일환인 카카오헬스케어에 대해 홍 대표는 “실시간 혈당 관리 서비스인 파스타를 지난 2월1일 출시했다”면서 “카카오 헬스케어는 먼저 당뇨 환자들과 의학계로부터 전문성과 신뢰성을 인정받은 후 보다 넓은 헬스케어 시장으로 진입하고자 한다”고 밝혔다.

2024.02.15 09:48최다래

구글 "개인용 PC서도 생성형AI 앱 만든다"

구글클라우드가 고성능컴퓨팅(HPC) 환경 없이도 생성형 인공지능(AI) 앱을 구축할 수 있는 오픈소스 도구를 공개했다. 7일(현지시간) MS파워유저 등 외신에 따르면 구글클라우드는 오픈소스 클라우드 서비스인 로컬LLM을 공개했다. 로컬LLM은 사용자의 PC 환경에 상관없이 생성형AI앱을 개발할 수 있는 클라우드 개발환경이다. 오픈소스 AI모델인 허깅페이스 기반으로 가상 프라이빗 클라우드 서비스인 클라우드 워크스테이션 상에서 개발된다. 사용자는 개발하려는 생성형AI앱의 특성에 따라 고성능 GPU, 저전력 CPU 등 필요한 컴퓨팅 인프라를 자유롭게 설정할 수 있다. 구글클라우드는 로컬LLM과 함께 제한된 컴퓨팅 환경에 최적화된 양자화 모델을 함께 공개했다. 메모리 사용 및 처리 능력 측면에서 효율적으로 설계되어 스마트폰, 노트북 및 기타 엣지 디바이스 등에 AI가 실제 적용됐을 때 안정적인 성능을 낼 수 있도록 지원한다. 구글클라우드의 제프리 앤더슨 제품 관리자는 “빠르게 변하는 AI시장에서 GPU 부족은 기업의 경쟁력 향상에 상당한 장애물로 작용하고 있다"며 “로컬LLM은 GPU 부족으로 인한 문제를 극복하고, 생산성을 향상시키고 비용 효율성을 높이며 생성형AI앱 개발 과정에 혁신을 제공할 것”이라고 강조했다.

2024.02.08 09:23남혁우

[기고] LLM의 새 시대 개막:혁신기술서 비즈니스 필수요소로

우리는 더이상 거대언어모델(Large Language Model, 이하 LLM)을 가벼이 여기지 않는다. 챗GTP, 바드(Bard)와 같은 LLM이 이제 혁신 기술을 넘어 비즈니스 필수 요소가 됐기 때문이다. 실제로 기업들이 생성AI 솔루션에 지출하는 금액은 2023년부터 2027년까지 연평균 86.1% 성장해 2027년 1511억 달러(약 202조원)에 달할 것으로 예상된다. 이는 AI 애플리케이션에 대한 관심이 급증하고 있음을 시사한다. 초창기부터 뜨거웠던 LLM에 대한 관심은 AI를 기업 운영에 보다 심층적으로 통합시키기 위한 전략으로 발전해왔다. 맥킨지의 AI 현황에 관한 연례 조사에 따르면 기업의 3분의 1이 적어도 하나의 비즈니스 기능에 생성형 AI를 정기적으로 사용하고 있으며, AI를 활용 중인 기업의 25%는 이미 이사회 안건에 생성형 AI를 포함시켰다. 이처럼 기업내 생성형 AI 사용이 늘어나는 이 주목할 만한 변화는 전반적인 성능을 향상시키고 있다. 더불어 생성형 AI 솔루션이 더 전략적이고 목표지향적인 방향으로 진화하고 있는 만큼 2024년은 LLM 채택의 중요한 기점이 될 전망이다. AI가 실험적 도구에서 비즈니스 전략과 운영의 기본 요소가 되는 새로운 시대가 도래한 것이다. ■ LLM 애플리케이션: 2023년 vs. 2024년 2023년 기업 내 몇몇 직원들이 챗GPT나 다른 LLM을 테스트했을 때에는 주로 이메일 작성이나 메시지 답변을 위한 용도에 그쳤다. 좀더 용기 있는 직원들이 제안서나 긴 형식의 문서에 사용하기도 했지만 대부분의 경우 LLM으로 작성한 결과물은 내부용으로만 사용됐다. 사실관계 부정확성 및 기타 오류 가능성을 고려할 때 외부에 공개하는 콘텐츠에 LLM을 사용하는 것은 적절치 않았기 때문이다. 그러나 LLM 개발자들은 1년 간의 실험과 개선을 통해 비즈니스용 제품 출시 준비를 마쳤으며, 일부는 이미 출시됐다. 우리가 올해 기대할 수 있는 LLM 애플리케이션은 '고객 서비스'와 '콘텐츠 생성'이다. 특히 이 두 가지 응용 분야의 품질이 크게 향상되고 이에 따라 더 많은 곳에서 도입할 것으로 예상된다. ■ 왜 2024년인가? 2024년은 기술 발전과 시장 심리라는 두 핵심 요소가 결합해 LLM 애플리케이션이 대중화하는 해가 될 것이다. LLM은 2022년 11월 챗GPT 출시 이후 텍스트 완성 및 분석 모델에서부터 코드 실행, 도구 사용, 외부 정보 접근 및 웹 검색 기능을 갖춘 강력한 챗봇으로 진화해왔다. 기술 커뮤니티 전체가 약 1년 만에 이미 혁신으로 여겨지던 도구를 더욱 혁신적으로 발전시킨 것이다. 그러나 만약 경영진들이 받아들이지 않았다면 이러한 기술적 발전은 시장 가치를 가지지 못했을 것이다. 2023년이 그랬다. 하지만 이제 대부분의 CEO들은 AI에 대한 투자가 '최우선 과제'임을 명확히 밝히고 AI 솔루션을 비즈니스 운영에 도입하는 데 동참하고 있다. 각 업종에 특화된 LLM이 더 많아질수록 기업들이 생성형 AI 솔루션을 채택하고 적용하는 것이 더욱 쉬워질 것이다. 또한 2024년에는 LLM 개발자들이 주요 우려사항 중 하나인 데이터 보안 이슈에 대응할 것으로 예상된다. 기업의 데이터를 해당 기업의 시스템 내에 유지할 수 있게 함으로써 기존보다 더 안전하고 강력한 솔루션을 제공할 수 있게 되며, 이는 위험을 기피하는 CEO들에게 더 매력적으로 보일 수 있을 것이다. 한편, 2023년은 정부와 다른 감시 기관들이 AI 규제를 위해 노력한 해이기도 했다. 지난해 12월 유럽연합(EU)은 AI 사용을 규제하고 제한하는 내용의 'AI법(AI Act)'에 합의했다. 이 법안이 시행되면 향후 기술 기업들이 AI 솔루션에 접근하는 방식에 영향을 미칠 것으로 보인다. 간단히 말해, 이 법안들은 무엇이 허용되고 무엇이 금지되는지에 대한 기본 원칙을 정하게 될 것이다. 더 강력한 기능과 더 많은 참여, 더 높은 명확성을 갖추게 되면 LLM 애플리케이션은 전 세계 대기업들에게 더 널리 채택될 것이다. ■ 고객 서비스, 콘텐츠 생성 그리고 LLM 챗GPT가 웹사이트의 고객 서비스 챗봇이라고 상상해 보자. 아마도 실제 사람인지 챗봇인지 구분할 수 없을 것이다. 기업들은 LLM 챗봇을 고객 서비스에 통합함으로써 언제든 고객에게 서비스를 제공할 수 있는 비용 절감의 기회를 얻을 수 있다. 실제로 소비자들이 기업에게 더 많은 것을 요구하고 기업과의 경험에서 더 큰 것을 기대할수록 LLM 챗봇은 더 개인화된 상호작용을 제공, 고객 만족도를 향상시킬 수 있는 해답이 될 수 있다. 콘텐츠 생성에 LLM을 사용하는 장점 중 하나는 속도다. 결과가 마음에 들지 않을 경우 프롬프트(명령어)를 다시 입력하면 1분 이내에 새로운 결과를 얻을 수 있다. 이는 다변량 테스트와 반복(iteration)이 중요한 마케팅 및 광고분야에서 특히 유용하다. 광고 슬로건, 정보성 블로그 게시물, 심지어 단편 소설에 이르기까지 LLM은 훈련받은 방대한 데이터를 활용해 새로운 아이디어와 텍스트를 생성할 수 있다. 기업들이 콘텐츠 생성에 LLM을 사용하는 이유가 속도 때문만은 아니다. LLM은 형식, 스타일, 어조 등 콘텐츠의 다양성을 제공한다. 챗GPT가 처음 등장했을 때 모든 콘텐츠가 똑같을 수 있다는 우려의 목소리가 있었다. 예를 들어 특정 주제에 대해 SEO(검색엔진 최적화)를 고려한 블로그 포스트를 작성해달라고 챗GPT에게 요청하면, 해당 주제에 대한 모든 글이 동일할 것으로 예상했다. 그러나 엔지니어링 프롬프트 엔지니어링 덕분에 이런 일은 일어나지 않았다. 프롬프트 문구를 약간만 변경하면 챗GPT 및 유사 솔루션들은 동일한 주제에 대해 서로 다른 콘텐츠를 생성할 수 있다. 더 중요한 것은 사용자가 LLM 콘텐츠 생성기에 특정 스타일이나 어조를 채택하도록 요청할 수 있다는 점이다. 이는 반복이 매우 중요한 부분으로, 능숙한 사용자들은 LLM을 반복적으로 사용하면서 결과물이 보다 자신들과 비슷해지도록 훈련시킨다. 물론 궁극적으로는 LLM이 가능한 최단 시간 내에 회사의 보이스와 일치하는 훌륭한 콘텐츠를 생성하도록 하는 것이 목표다. ■ LLM이 재정의 할 2024년 이후 기업 미래 2024년에 접어들면서 LLM이 실험적인 도구에서 필수적인 비즈니스 자산으로 전환되는 양상이 더욱 선명해지고 있다. 특히 기술적 역량에서 큰 발전을 거듭하면서 고객 서비스 및 콘텐츠 제작과 같은 영역에서 탁월한 효율성과 맞춤화를 제공하고 있다. 올해는 기술발전 뿐 아니라 변화하는 규제 환경과 경영 전략에 맞춰 LMM을 비즈니스 운영의 핵심으로 통합하는 한 해가 될 것이다. LLM의 광범위한 도입은 기업 운영은 물론 소통 및 발전하는 방식을 혁신할 가능성을 입증하는 것이기도 하다. LLM은 단순히 기업 미래의 일부분이 아닌 적극적으로 미래를 만들어나가기 위한 한 축으로 점점 더 디지털화하고 있는 세상에서 성장과 효율성을 위한 새로운 길을 제시할 것이다.

2024.02.02 08:03로버트 첸 박사

생성 AI가 화상회의에 활용된다는 것의 의미

“작년 모든 사람이 챗GPT와 대규모언어모델(LLM)을 이야기했고, 그게 큰 변화인 건 맞다. 하지만 시스코 시각에서 LLM은 소통에 필요한 일부에 불과하다. LLM은 소통의 전체적인 전환 과정에서 어떤 메시지나 문서, 대본 등을 인사이트로 바꾸고 메시지를 작성하는 마지막 단계다. 조직 내 진정한 소통을 구현하려면 전반적 정보 흐름에서 인사이트를 도출하는 종합적 지식과 함께 즉각적인 소통 요소도 필요하다. 미팅에서 내가 제대로 상대방에게 보이는지, 상대의 말을 잘 알아들었는지 밀리초 단위의 실시간 소통 여부가 중요하다. 시스코는 이런 즉각적인 소통을 지원하는 과제를 해결하기 위해 AI를 혁신했다.” 크리스 로웬 시스코 웹엑스 협업 부문 AI 기술 부사장은 1일 서울 삼성동 시스코코리아 사옥에서 열린 웹엑스원 미디어 라운드테이블에서 자사의 '리얼타임 미디어 모델(RMM)'을 소개하며 이같이 밝혔다. 시스코는 작년 10월 웹엑스의 AI 혁신 기술 중 하나로 RMM을 발표했다. RMM은 화상회의에 특화돼 참여자의 말투, 어조, 반응 등 비언어적인 맥락 정보를 전달하는 시스코 자체 모델이다. 사람 간의 실시간 소통은 문자보다 음성, 표정, 손짓, 어조, 억양 등 여러 요소를 통해 이뤄진다. 현존하는 LLM은 텍스트를 생성하는 AI로 실시간으로 발생하는 소통 요소 중 일부만 직접 다룬다. 멀티모달 모델이 나오고 있지만 여러 요소를 텍스트로 변환해 처리하므로 즉각적인 소통에서 한계가 있다. 시스코의 RMM은 카메라와 마이크로 포착되는 회의 참석자의 여러 소통 요소를 인식해 그에 맞는 액션을 만들어낸다. LLM과 댜양한 모델을 혼합, 최적화한 것이다. 오디오 및 영상 품질을 향상시키며, 여러 미디어 스트림을 기반으로 사람과 사물 인식 및 제스처를 포함한 움직임 분석 등 다양한 아웃풋을 제공한다. 텍스트 기반의 미팅 요약과 미팅 하이라이트에서 대화 맥락을 이해하는 데 오디오 및 영상 채널을 활용한다. 텍스트, 오디오 및 영상 AI를 모두 활용함으로써 웹엑스 사용자는 풍부한 실시간 정보를 얻을 수 있다. 앞으로 웹엑스에서는 미팅 참가자가 미팅에서 나갔을 때 퇴장한 것을 인식하여 미팅 메모를 캡처하고, 해당 참가자가 돌아왔을 때 신속하게 업데이트된 정보를 제공할 수 있게 된다. 시스코 웹엑스는 RMM과 함께 AI 어시스턴트, AI 코덱 등도 선보였다. 웹엑스 AI 어시스턴트는 '내가 놓친 미팅에 대해 업데이트해 줘' 등과 같은 질문에 실시간으로 답변을 제공한다. 메시지 어조 변경, 컨택센터 답변제안, 미팅 요약, 메시지 요약, 슬라이도 주제 요약 등의 기능도 제공한다. 웹엑스 AI 코덱은 불안정한 네트워크의 지역에서도 통신망 상태와 상관없이 선명한 오디오를 제공한다. AI 오디오 코덱은 네트워크 패킷 손실을 복구하고, 소음 제거, 에코 제거, 대역폭 확장 같은 음성 향상 기능을 제공한다. 또한 머신러닝(ML) 기술을 바탕으로 낮은 대역폭에서도 고화질 비디오를 사용할 수 있는 '초해상도' 기능을 제공한다. 크리스 로웬 부사장은 “시스코 웹엑스 앱 전반에서 AI 어시스턴트를 사용하면 놓친 미팅 내용을 확인하고, 메시지 흐름 파악, 번역, 어조 변경, 요약 기반 액션, 제안 기반 고객 대응 등 다양한 경험을 누릴 수 있다”며 “그 기반에 생성 AI 기반 언어처리 역량이 있다”고 말했다. 그는 “웹엑스 AI 코덱은 업계 표준 코덱인 Opus의 24kbps 대역폭을 16kbps로 낮추며 우수한 음질을 보장한다”며 “또한 6kbps까지 대역폭이 낮아져도 인코딩 가능하고, 1kbps 대역폭에서도 우수한 음질을 제공할 수 있다”고 밝혔다. 그에 의하면, 웹엑스 AI 오디오 코덱은 낮은 대역폭에서 음성 정보를 이중화 패킷으로 전송한다. 이는 불안전한 네트워크 상황에서 일부 패킷이 손상되더라도 온전한 오디오 품질을 유지하게 해준다. 로웬 부사장은 “일반적으로 오디오는 20밀리초 단위 프레임이 하나의 패킷으로 네트워크를 타고 전송되는데,좋지 않은 네트워크에서 패킷 일부가 손상돼 거의 알아들을 수 없게 된다”며 “AI 오디오 코덱은 하나의 패킷에 여러 오디오 프레임을 넣어서 전송하므로 한번에 여러 패킷 사본을 보내며, 불완전한 네트워크에서 손실된 일부 패킷을 최종단에서 재구성하고 복구할 수 있다”고 설명했다. 그는 HD 보이스를 유지하는 경우에도 이런 기술을 활용하고 있다고 했다. 휴대폰이나 유선 전화에서 HD 음성 품질은 제한된 대역폭에서 손실되기 쉽다. 웹엑스 AI 코덱은 저주파 음성을 기반으로 고주파 음성을 재구성할 수 있어서 또렷한 음성을 저품질 네트워크 상황에서도 유지할 수 있다. 이는 영상에서도 힘을 발휘한다. 로웬 부사장은 “모두가 고해상도 영상을 누리고 싶지만, 네트워크 상의 병목 현상 때문에 더 낮은 대역폭과 낮은 프레임 레이트를 감수해야 한다”며 “720픽셀 영상을 원하지만 180픽셀만 소화할 수 있다면, 픽셀을 다운스케일하고 전송해서 픽셀을 다시 확대하는 업스케일을 하게 되는데 결과적으로 뿌연 화질을 보게 된다”고 설명했다. 이어 “시스코의 초해상도는 네트워킹 시스템이 180픽셀이나 90픽셀만 지원한다 해도, 영상을 고해상도로 재구성해준다”며 “화상화의에서 초해상도 기술로 고화질 영상 재구성하면 낮은 대역폭 환경에서도 픽셀을 16배 업스케일하고도 더 깨끗하고 뚜렷하게 상대방을 볼 수 있다”고 강조했다. 시스코의 여러 생성 AI 기능은 웹엑스 클라우드 상에서 작동하지 않고 사용자의 화상회의 장비에서 작동한다.시스코 웹엑스 전용 장비뿐 아니라 휴대폰, 노트북, 데스크톱 등 다양한 하드웨어에서 쓰일 수 있게 소프트웨어로 구현됐으며, 사용자 기기의 GPU나 뉴럴액셀러레이터를 활용하게 했다. 로웬 부사장은 “RMM을 비롯해 엣지서 작동하는 AI는 전력을 더 적게 소모하고, 대기 시간을 짧게 하며, 개인정보 보호도 더 강화해준다는 장점을 갖는다”며 “대규모 GPU 없이도 에지에서 구현되도록 적용했다”고 밝혔다. 시스코코리아는 이날 미디어 라운드테이블에서 AI 트렌드에 맞춰 협업 분야 내 AI의 역할 및 중요성에 대한 인사이트를 공유하고, 이러한 기술을 원활히 제공하기 위한 시스코의 AI 전략을 소개했다. 시스코가 조사한 '의무적 출근이 아닌 매력적인 장소로의 탈바꿈: 하이브리드 미래를 위한 업무 공간의 재해석' (From Mandate to Magnet: The Race to Reimagine Workplaces and Workspaces for a Hybrid Future) 연구 결과에 따르면 국내 기업의 78%가 생산성 향상을 목적으로 사무실 전면 복귀 또는 하이브리드 근무를 의무화한 것으로 나타났다. 대부분의 근로자가 사무실 출근을 선호하지 않을 것이라는 일반적인 인식과 달리, 국내 응답자의 51%는 조직의 사무실 근무 의무화에 긍정적인 반응을 보였으며, 97%는 일주일 중 일부는 사무실로 출근하고 싶다고 답했다. 효과적인 협업의 중요성이 증가하고 있음에도 불구하고, 국내 근로자 82%는 현재 근무 중인 사무실이 업무 효율을 높이는 데 적합하지 않다고 답했다. 94%의 응답자는 사무실 구조와 좌석 배치가 협업 및 브레인스토밍에 도움이 되지 않는다고 밝혔다. 실제로 설문조사에 참여한 기업 중 87%는 여전히 사무실의 절반 이상을 개인 업무 공간에 사용하고 있는 것으로 나타났다. 회의실 중 41%만이 하이브리드 협업에 적합한 비디오 및 오디오 기능을 갖춘 것으로 조사되며, 기술 인프라 및 통합 또한 원활한 하이브리드 근무 환경을 제공하는 데에 있어서 걸림돌로 작용하고 있는 것으로 나타났다. 사무실 내 회의실이 생산성 향상에 효과적이지 않다고 생각하는 응답자들은 주요 이유로 ▲부족한 오디오 및 비디오 엔드포인트(53%) ▲시청각 경험 저하(36%) ▲포괄적인 오디오 및 비디오 엔드포인트의 부재(30%) ▲원격 및 사무실 등 접속 장소에 따른 참가자 경험의 차이(30%) 등을 꼽았다. 시스코는 다양한 형태의 회의실을 지원하는 시네마틱 미팅 환경의 새로운 청사진도 제시했다. 시스코가 새롭게 선보인 캠프파이어 미팅 공간은 대면 회의 참가자가 4개의 쿼드 카메라와 스크린을 눈높이에 맞춰 둘러앉을 수 있다. 해당 장비는 AI 기반 지능형 프레이밍 덕분에 가상 또는 대면 회의 참가자 모두에게 얼굴을 직접 보고 협업하는 것과 비슷한 경험을 제공한다. 시스코는 뱅앤올룹슨과 협업해 직장인을 위한 맞춤형 엔터프라이즈급 기능을 탑재한 무선 이어버드 '뱅앤올룹슨 시스코 950'을 공개했다. 양사는 사용자들이 집, 직장, 이동 중 등 장소에 관계없이 최상의 오디오 경험을 제공하기 위해 이번 신제품을 선보였다. 해당 제품은 고급스러운 디자인과 프리미엄 사운드를 제공하는 동시에 업무와 개인적인 용도를 아우르는 사용자의 라이프 스타일에 맞게 멀티 기능을 갖춘 것이 특징이다. 또한, 엔터프라이즈 용도에 맞게 고급 보안 및 관리 기능이 탑재됐으며, 시스코의 컨트롤 허브 플랫폼에서 관리가 가능해 다른 장치 및 주변 기기에 대한 높은 가시성을 확보하고 바로 시스템을 제어할 수 있다. 또한, 시스코는 애플과의 파트너십도 확대하고 있다. 해당 파트너십을 기반으로 웹엑스는 애플티비 4K 및 애플워치 전용 앱을 출시해 사용자가 언제 어디에서나 업무를 더 다양하게 수행하면서도 높은 수준의 협업 경험을 누릴 수 있도록 지원한다. 애플TV 4K 웹엑스 앱은 설치 후 아이폰으로 QR 코드를 스캔하기만 하면 간편히 로그인할 수 있으며, 거실이나 사무실 등 어디에서나 큰 화면으로 사용할 수 있다는 것이 장점이다. 애플워치용 웹엑스 앱 사용자는 애플워치와 에어팟만으로도 회의 목록을 확인하고 원터치로 오디오 전용 모드에서 회의에 참여할 수 있다. 산딥 메라 시스코 APJC 협업 부문 매니징 디렉터는 “시스코 웹엑스팀과 엔지니어가 이룬 혁신은 기업의 리더와 CIO의 두가지 큰 어려움인 하이브리드 근무의 진정한 구현, 디지털 고객 경험 구축 등에 대한 것”이라며 “웹엑스 스위트는 업무 공간을 다시 상상하고 재정의하게 도우며, 시스코 컨택센터는 디지털 고객의 경험을 변모시키도록 지원한다”고 강조했다.

2024.02.01 16:33김우용

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

마이디포 "오픈소스 AI-LLM 잘 꿰어야 보배"

속담에 '구슬이 서 말이라도 꿰어야 보배'(아무리 좋은 것이라도 쓸모 있게 만들어 놓아야 값어치가 있다는 뜻)라 했다. 다양한 인공지능(AI) 기술들이 쏟아져 나왔지만, 아직 사람들의 일상과 업무에 눈에 띄게 사용되는 제품이나 서비스가 기대만큼 많지 않은 게 사실이다. 그나마 지난해 초거대 언어모델(LLM)과 생성형 AI 기술 고도화가 무르익으면서 실생활에 쓰이는 AI 제품과 서비스들이 하나둘 늘어나는 추세다. 이런 한계를 딛고, 개별적인 AI 기술과 서비스들을 한 데 모아 업무 효율성과 완성도를 높이는 기업이 있다. 그야말로 구슬(AI)을 하나하나 꿰어(조합) 보배(앱)로 만드는 AI 매시업 기업 '마이디포'가 그 주인공이다. 매시업이란 웹서비스 업체들이 제공하는 각종 콘텐츠와 서비스를 융합해 새로운 웹서비스를 만들어내는 것을 뜻한다. 예를 들어 AI 기술을 활용해 번역서를 출간한다고 하면, 도서 표지는 '스테이블 디퓨젼'이 디자인하고, 교정과 윤문은 '챗GPT'가, 번역은 'DeepL'이 담당하는 식이다. 그 동안에는 출판사가 디자이너·편집자·번역가 등을 채용해 번역서를 펴냈다면, 마이디포는 마치 오케스트라 지휘자처럼 결과물에 적합한 최적의 AI 서비스들을 조합해 결과물을 만들어낸다. 이처럼 마이디포는 각각의 AI 모델(서비스)들을 모듈화하고, 사용자가 필요로 하는 서비스(앱)에 적합한 모듈을 가져다 쓸 수 있도록 했다. 요청하는 작업은 각각의 모듈에 뿌려져 분산·병렬 처리되기 때문에 사용자는 시간 단축 효과를 볼 수 있다. 마이디포 솔루션은 먼저 판례 및 사건 분석 등이 필요한 변호사, 보고서 작성이 많은 금융사, 초벌 번역 등이 필요한 출판사, 외신 번역과 기사 작성이 주 업무인 언론사 등에게 유용하게 쓰일 수 있다. 또 벤처캐피털의 투자심사 보고서 작성 등에도 활용할 수 있다. 류승훈 대표, 코트라 직원서 창업가로...생성 AI 가능성 보고 '마이디포' 창업 마이디포를 창업한 류승훈 대표는 대한무역투자진흥공사(KOTRA) 출신이다. 2012년 퇴직 후 '플랫클'이란 회사를 창업해 '거인의 서재' 앱을 출시, 출판계의 디지털 마케팅을 혁신했다. 그 후 거인의 서재는 체인지그라운드에 매각됐고, 류 대표는 300명의 뛰어난 개발자를 육성하겠다는 취지로 '300Dev'라는 회사를 세웠다. 베네수엘라를 중심으로 중남미 개발자들에게 글로벌 네트워크와 글로벌 비즈니스 기회를 제공, 북미 시장에 실력 있는 각국 개발자들이 접근할 수 있는 토양을 만들었다. 류 대표의 도전은 여기에서 멈추지 않았다. 본인 지분을 매각한 뒤, 지난해 생성형 AI 가능성을 보고 마이디포를 창업했다. 류승훈 대표는 “라틴아메리카에 있는 6명의 팀원은 기술 개발과 마케팅 담당을 하고, 국내에는 3명의 직원들이 B2B 영업과 기획, 디자인 등의 업무를 맡고 있다”면서 “마이디포는 파편화된 AI 서비스들을 하나하나 모듈화 시키고 조합함으로써 대용량을 병렬, 분산처리 해 고속으로 결과물을 얻을 수 있다”고 설명했다. 류 대표에 따르면 마이디포는 현재 '팔만대장경 프로젝트'를 진행 중이다. 이 프로젝트는 1971년 미국 일리노이대 학생이던 마이클 하트가 시작한 '구텐베르크 프로젝트'라는 사회 운동을 모티브로 한다. 저작권 문제가 해결된 고전을 직접 타이핑해 모두가 무료 또는 최소한의 비용으로 읽을 수 있도록 한 이 프로젝트는 50년도 넘게 진행돼 현재 7만권이 넘는 세계 각국의 도서가 인터넷을 통해 공유되고 있다. 마이디포는 구텐베르크 프로젝트의 문서를 LLM AI를 활용해 읽기 쉬운 우리말 도서로 변환하는 작업을 하고 있다. 번역, 교정, 표지 디자인, 전자책 출간 등의 작업이 과거에는 수주에서 몇 달이 걸렸다면, 팔만대장경 프로젝트는 300페이지 외서 초벌 번역을 5분까지 단축시키는 것이 목표다. 류 대표는 “여전히 구텐베르크 프로젝트의 과실은 영어 사용자들이 주로 누리고 있는데, 생성형 AI 시대에는 모든 게 달라질 것”이라며 “언어 장벽 탓에 쉽게 접근할 수 없었던 구텐베르크 프로젝트의 문서를 읽기 쉬운 현대 우리말로 만들 것으로 기대, LLM 인공지능을 활용해 구텐베르크 도서를 한국어 도서로 변환하고 있다. 수주에서 몇 달 걸리던 작업을 단 5분으로 단축하고자 하는데 이것이 우리의 팔만대장경 프로젝트”라고 말했다. 종착지는북미 시장..."누구나 쉽게 이용하고 조합할 수 있는 AI 서비스 지향" 류 대표가 궁극적으로 바라보는 시장은 히스패닉 시장을 교두보로 한 북미 지역이다. 창업 초기부터 글로벌 개발팀을 꾸렸는데, 챗GPT 상위 국가에 미국·인도, 그 뒤로 콜롬비아와 브라질 등 히스패닉 국가가 상위 5위권에 오른 것을 눈여겨봤다. 미국 내 히스패닉 인구가 이미 6천500만을 넘었는데, 류 대표는 히스패닉 시장을 교두보 삼아 세계 최대 시장인 북미 지역으로 진출한다는 구상이다. 류 대표는 “마이디포를 지난해 3월에 개발해 그해 5월 개념증명(PoC)을 했고, 7월 최소기능제품(MVP)을 출시, 현재는 서비스 고도화에 집중하고 있다”면서 “현재 이용 고객의 70%가 히스패닉 시장에서 발생하고 있는데, 서비스 안정화와 완성도가 갖춰지면 글로벌 시장뿐 아니라 국내에서도 마케팅 활동을 펼칠 계획”이라고 밝혔다. 마이디포 AI 서비스는 크게 세 가지로 구분된다. 먼저 월 구독 모델로 AI 매시업 프레임워크를 제공한다. 또 마이디포 AI 컨설턴트들이 AI 활용 방법을 상담해준다. 끝으로 프롬프트 엔지니어링 등 기업 맞춤형 매시업 솔루션을 제작, 공급해준다. 개인 또는 기업은 필요로 하는 나만의 AI 서비스(앱)를 마이디포에 직접 제작 의뢰해 최적의 결과물을 얻을 수도 있으며, 다른 창작자들이 공개해 놓은 오픈마켓에서 적합한 서비스를 골라 유료로 구매한 크레딧을 지불하고 이용할 수도 있다. 이 때 창작자는 앱 사용 수익의 70%를 받는 구조다. 류승훈 대표는 “마이디포 서비스 고도화 맵에 있어 기술적인 목표는 LLM을 어떻게 나에게 더 잘 맞는 서비스로 만드느냐가 있다. 데이터를 양과 질을 고도화 시켜 맥락에 맞는 결과물을 얻는 것”이라면서 “각 AI 기술과 서비스들의 장점을 활용해 누구나 쉽게 이용하고 조합할 수 있도록 확장시키는 것이 마이디포의 목표”라고 말했다. 이어 “우리가 생각하는 범용인공지능(AGI)은 단순한 만물박사가 아니라, 여러 가지가 조합돼 결국은 우리가 원하는 결과를 얻어내는 것”이라며 “각 모듈들이 AGI 내에서 하나의 플러그인으로 활용될 수 있다. 마이디포의 리퀘스트 마켓이 적극 활용되고 집단적인 프롬프터들이 쌓인다면 다양한 AI 서비스들이 보다 쉽고 널리 쓰일 것”이라고 말했다.

2024.01.31 14:14백봉삼

  Prev 11 12 13 14 15 16 17 Next  

지금 뜨는 기사

이시각 헤드라인

정부, AI 연구에 GPU 1천장 푼다…삼성SDS·KT클라우드·엘리스 선정

스테이블코인 행정입법 10월 윤곽…"외화 발행 규제 소홀해선 안돼"

[종합] 상반기 韓 중견·중소 SW 기업 '성장세'…AI·신사업 중심 전략 본격화

재고털이 끝…車 업계, 관세發 가격 인상 눈치싸움

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.