• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 모델'통합검색 결과 입니다. (366건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

높아지는 오픈소스 AI 모델 선호도…"GPT-4 인기는 독보적"

올해 오픈소스 인공지능(AI) 모델 활용도가 지난해보다 늘 것이라는 보고서 결과가 나왔다. 그럼에도 폐쇄형 모델인 오픈AI의 GPT-4 인기는 독보적일 것이란 전망이다. 8일(현지시간) 미국 비즈니스 월간지 포춘은 이같은 조사 결과를 보도했다. 미국 벤처캐피털 기업 에이식스틴제트가 내놓은 설문조사를 근거로 삼았다. 조사 대상은 500대 포춘 기업서 종사하는 최고경영자(CEO) 70명이다. 지난해 기업들은 폐쇄형 모델로 생성형 AI 기능을 테스트한 것으로 전해졌다. 응답자는 "AI 테스트를 위해 오픈AI의 GPT-3.5나 GPT-4를 주로 활용했다"고 답했다. 조사에 따르면 2023년 폐쇄형 소스모델 시장점유율은 약 90%다. 이중 다수는 오픈AI의 GPT 모델 군이다. 보고서는 올해 기업들이 생성형 AI 구축 방법을 다각화할 것으로 봤다. 모델 2개 이상을 비교하면서 가장 업무에 유용한 모델을 채택하는 식이다. 이때 활용되는 모델 다수가 오픈소스 형태일 것으로 전망했다. 조사 결과 응답자 46%가 "오픈소스 모델을 선호하거나 매우 선호한다"고 답했다. "기업 정보 제어·맞춤 기능 만족"...라마·미스트랄 선호도 높아 에이식스틴제트는 오픈소스 모델 선호도가 올해 본격적으로 높아질 것으로 봤다. 메타의 '라마2'와 미스트랄AI의 '미스트랄'이 가장 인기 많은 모델인 것으로 나타났다. 조사를 진행한 에이식스틴제트 사라 왕은 오픈소스 모델 인기 이유를 저렴한 비용보다 정보 제어, 맞춤형 기능으로 꼽았다. 보통 오픈소스 모델은 GPT-4 같은 폐쇄형 모델보다 저렴하다. 예를 들어, 메타의 라마2는 영어 기준 100만 토큰 생성에 오픈AI의 GPT-4보다 최대 20배 저렴하다. 사라 왕 연구원은 기업들이 비용 때문에 오픈소스 모델 활용도를 높인 건 아니라는 입장이다. 왕 연구원은 "기업이 오픈소스 모델로 자사 정보를 제어할 수 있다는 점을 높이 산다"고 주장했다. 오픈소스 모델이 폐쇄형 모델보다 데이터 활용 내역을 투명하게 제공한다는 이유에서다. AI 결과물에 대한 이유를 직접 확인할 수 있다는 점도 알렸다. 그는 "폐쇄형 모델과 달리 오픈소스 모델은 어떤 과정으로 결과물을 생성했는지 근거를 보여준다"며 "사용자는 AI 생성물에 대한 이해도를 높일 수 있다"고 설명했다. 기업이 오픈소스 모델로 맞춤형 AI 시스템을 구축할 수 있다는 점도 이유다. 사라 왕은 "기업은 특정 업무에 맞게 AI를 활용할 수 있다는 점을 만족스러워한다"고 했다. "GPT-4, 실제 산업서 인기 여전" 보고서는 오픈AI의 GPT-4가 실제 산업에 가장 많이 적용됐다고 했다. 폐쇄형 모델 사용자 약 90%는 자사 AI 시스템에 GPT-3.5나 GPT-4를 활용했다고 응답해서다. 사라 왕은 향후 GPT-4 모델 사용률이 낮아지지 않을 것이라고 했다. 오히려 기업은 오픈소스와 폐쇄형 모델을 혼합할 것으로 내다봤다. 그는 "AI 모델 전환 비용은 낮다"며 "기업은 오픈소스 모델과 폐쇄형 모델을 혼합해 지속적으로 연구개발을 할 가능성이 높다"고 설명했다. 사라 왕은 GPT-5에 대한 전망도 했다. GPT-5 출시가 곧 이뤄질 것이라는 입장이다. 그는 "오픈AI가 모델 시장 점유율을 굳건히 지킬 것"이라며 "GPT-5 공개를 늦추지 않을 것"이라고 했다. 알리 고드시 데이터브릭스 CEO도 올해 오픈소스 AI 모델 활성화를 기대한다는 입장이다. 고드시 데이터브릭스 CEO는 "매력적인 폐쇄형 모델이 시장에 나와도 오픈소스 모델 인기는 식지 않을 것"이라고 포춘지를 통해 설명했다.

2024.04.09 17:04김미정

GPT-3.5, 스트리트파이터3로 GPT-4 꺾었다

오픈AI의 GPT-3.5 터보가 GPT-4 등 상위 인공지능(AI) 모델을 꺾고 스트리트파이터3 챔피언에 올랐다. 14개 대규모언어모델(LLM)들이 각축을 벌인 스트리트파이터3 게임 대회에서 'GPT-3.5'가 우승을 차지했다고 PC게이머 등 외신들이 최근 보도했다. 보도에 따르면 미국 샌프란시스코에서 개최한 미스트랄 AI SF 해커톤에서 LLM간 이벤트 매치가 열렸다. 비디오게임 스트리트파이터3를 학습해 치러진 이번 대회는 LLM이 실제 업무에서 어떤 성과를 낼 수 있는지 시각적으로 확인할 수 있도록 마련됐다. 단기간에 치러진 대회인 만큼 학습시간을 줄이기 위해 캐릭터는 켄으로 제한됐다. 승부에 참여한 LLM은 화면을 인식할 수 있도록 텍스트 설명이 제공되며 캐릭터와 상대의 동작 그리고 양쪽의 체력바를 학습해 대회가 치러졌다. 오픈AI의 GPT-3.5 및 GPT-4과 다양한 버전의 미스트랄 LLM 등 총 14종의 LLM이 경합을 벌인 결과 GPT-3.5 터보버전이 최종 우승을 차지했다. 이어서 미스트랄 스몰 파이널버전이 뒤를 이었다. 기본 성능이 더 높은 GPT-4와 미스트랄 AI 상위 모델이 오히려 하위권을 기록해 눈길을 끌기도 했다. 이에 대해 미스트랄 AI의 운영진은 각 AI가 갖는 특성이 게임에 영향을 미쳤다고 설명했다. 모델의 크기가 작으면 대기 시간과 속도에 이점을 가질 수 있는 만큼 게임에서 유리해질 가능성이 크다는 설명이다.

2024.04.08 14:11남혁우

"AI, 창작자 권리 침해 NO"…빌리 아일리쉬 등 음악인 공개서한

인공지능(AI)이 영화, 음악 등 문화계로도 확산하는 가운데 빌리 아일리시와 니키 미나즈 등 외국 유명 음악인들이 이에 대한 우려를 나타냈다. AI가 음악인들의 저작권을 침해서는 안 된다고 공표한 것이다. BBC 등 복수의 외신에 따르면 예술가권리연합(The Artist Rights Alliance)은 지난 3일(현지시간) 이같은 내용을 담은 공개서한을 발표했다. 이들은 "전문 예술가의 목소리와 초상을 도용하고 창작자의 권리를 침해하는 AI의 약탈적 공격을 막아야 한다"고 목소리를 높였다. 이어 "예술가의 작품이 허락 없이 AI 모델과 시스템 훈련에 사용되는 것은 인간 창의성에 대한 공격"이라고 지적했다. 이번 서한에는 지난 2020년 그래미 어워드의 제너럴 4부문을 모두 수상한 미국 인기 가수 빌리 아일리시를 비롯해 니키 미나즈, 케이티 페리, 스티비 원더 등 유명 음악인 200여명이 서명에 함께했다. 최근 인간 고유 영역이던 음악 창작은 AI가 급격히 대체하고 있다. 실제 구글과 메타, 스태빌리티, 어도비 등이 음악 생성 AI 모델을 출시하기도 했다. 지난 5일엔 전라남도 교육청이 글로컬 미래교육박람회 주제곡 공모에서 AI 프로그램으로 제작한 음악이 최우수작에 선정돼 촌극이 빚어진 바 있다. 심사위원으로 참여한 김형석 작곡가는 해당곡이 AI로 제작됐다는 것을 알게 된 후 자신의 X(옛 트위터)에 "이걸 상을 줘야 하나 말아야 하나, 그리고 이제 난 뭐 먹고 살아야 하나"며 복잡한 심정을 표한 바 있다.

2024.04.07 13:59이한얼

더존비즈온, 카이스트와 AI 공동 연구 '맞손' …AI 기술 경쟁력 확대

더존비즈온과 카이스트(KAIST)가 인공지능(AI) 분야 기술 확대를 위해 손을 맞잡았다. 더존비즈온은 서울 중구 더존을지타워에서 'AI 공동 연구'를 위한 업무협약을 체결했다고 5일 밝혔다. 인공지능 전환(AX·AI Transformation) 선도기업과 국제적 역량을 가진 연구중심대학이 손잡고 AI 분야 협력을 위한 첫발을 뗐다. 양사는 상호 긴밀한 협력체계를 구축하기로 약속했다. AI 연구센터 공동설립을 통해 다양한 연구과제 발굴에 나서는 것이 핵심이다. 특히 더존비즈온이 축적한 양질의 데이터와 AI 기술 경쟁력을 활용해 KAIST의 학문적인 비전을 구체화할 수 있을 것으로 기대를 모은다. 이를 위해 양측은 AI 분야 희망 연구과제 도출을 시작으로 산학협력을 통한 실질적 성과를 목표로 기존 AI 기술 및 모델의 심화 연구에 돌입한다는 방침이다. AI 분야 개발 역량 강화를 위해 교육 및 훈련을 겸한 공동연구를 진행하며 AI 학습 및 추론 능력을 극대화해 AI 모델의 성능 향상을 구현해 나간다는 방침이다. 더존비즈온 관계자는 "이번 업무협약을 시작으로 양사 간 AI 공동연구를 통해 AI 산업 혁신을 촉진할 수 있는 각종 모델을 개발해 국가 차원의 AX 혁신 생태계를 조성할 것"이라며 "국가 및 산업 전반에 걸친 정책 전략 수립에 기여하기 위한 AI 공동연구를 지속적으로 이어나가겠다"고 말했다.

2024.04.05 14:24이한얼

"더 똑똑한 '시리' 만든다"…애플, 소형 언어모델 '렘' 출시

애플이 아이폰 음성모델 '시리'를 더 똑똑하게 만들기 위해 소형언어모델(SLM)을 출시했다. 시리가 사용자 요구사항과 문맥을 더 정확히 이해할 수 있도록 도울 수 있다. 2일(현지시간) 미국 지디넷 등 IT 외신은 애플이 아이폰 내 시리가 사용자 문맥을 정확히 이해하고 요구사항을 맞춤형으로 수행하는 데 활용할 SLM '렘(ReALM)'을 출시했다고 보도했다. 이 모델은 온디바이스AI에 특화된 형태다. 시리가 사용자 대화 내용을 기존보다 더 오래 기억하고, 아이폰 화면에 표시된 내용을 이해할 수 있도록 도울 수 있다. 재생 중인 음악 등까지 인식할 수 있어서 사용자 취향에 따른 답변과 검색도 향상시킬 수 있다. 해당 모델은 파라미터 규모에 따라 'ReALM-80M' 'ReALM-250M' 'ReALM-1B' 'ReALM-3B'로 총 네가지 유형으로 이뤄졌다. 애플 AI연구팀은 "해당 모델들은 기존 거대언어모델(LLM)보다 파라미터는 작지만 특정 업무 수행에선 더 높은 성능을 보인다"고 밝혔다. 연구팀은 해당 모델을 오픈AI GPT-3.5와 GPT-4와 비교하는 테스트를 진행했다. 벤치마킹 테스트 결과 특정 작업에서 자사 모델이 오픈AI의 모델 성능을 뛰어넘었다는 평가다. 연구진은 "파라미터가 가장 작은 모델은 GPT-4와 비슷한 성능을 달성했다"며 "가장 큰 모델은 GPT-4보다 특정 작업에서 더 뛰어난 성능을 보였다"고 설명했다. 또 "렘이 GPT보다 적은 수의 파라미터로 구성됐음에도 최신 LLM과 비슷한 수준의 성능을 보인 셈"이라고 덧붙였다. GPT-3.5는 1천750억 매개변수로 이뤄졌다. GPT-4는 약 1조5천억개 매개변수가 있는 것으로 알려졌다. 일각에선 이 모델이 오는 6월 열릴 애플세계개발자회의(WWDC) 2024에서 소개할 iOS18 버전에 탑재될 것으로 보고 있지만, 확실한 적용 시기는 미정이다. 애플조차 해당 모델이 최신 버전이나 기기에 탑재할 여부에 대해 밝히지 않았다. 최근 스마트폰 시장에선 생성형 AI가 핵심 기능으로 떠오르고 있는 분위기지만 애플은 아이폰에 생성형 AI 탑재 등에 대한 뚜렷한 청사진을 제시하지 않았다. 일각에선 아이폰 혁신이 사라지고 있다고 평가하기 시작했다. 이에 애플은 10년 동안 공들인 애플카 프로젝트를 중단하고 생성형 AI 기능에 주력하기로 했다. 지난달 구글, 바이두, 앤트로픽 등에 도움을 요청한 것으로 전해졌다.

2024.04.03 09:02김미정

오픈AI, 목소리 복제하는 '보이스 엔진' 미리보기 공개

오픈AI가 음성을 복제할 수 있는 인공지능(AI) 모델을 공개했다. 현재 소수 테스터들만 해당 모델에 접근할 수 있다. 29일 벤처비트는 오픈AI가 AI 음성 모델 '보이스 엔진'을 미리보기 버전으로 공개했다고 보도했다. 모델 개발 기간은 약 2년 걸렸다. 그동안 보이스 모델은 챗GPT의 음성 기능에 탑재됐다. 사용자 음성을 인식하고, 답변을 음성으로 제공하는 역할에 그쳤다. 이번에 공개된 모델은 음성 복제까지 가능하다. 사용자가 15초 분량의 음성 클립을 넣으면, 해당 목소리와 매우 유사한 음성을 생성하는 식이다. 오픈AI 측은 공식 블로그에서 해당 모델을 소수 파트너 그룹에만 우선 제공한다고 밝혔다. 각국 선거를 앞둔 상황에서 악영향을 미칠 수 있다는 우려에서다. 실제 올해 초 일레븐랩스의 음성 복제 기술을 사용해 조 바이든 미국 대통령의 목소리를 복제한 사건이 발생해 연방 정부가 조사에 나선 바 있다. 회사는 "해당 모델은 언어 장애인이나 학생들에게 유용할 것"이라며 "신뢰할 수 있는 소규모 파트너 그룹에게만 제공한 상태"라고 밝혔다. 현재 교육 업체 에이지 오브 러닝, 비디오 번역 업체 헤이젠, 의료용 도구 업체 디마지, 언어 장애용 장치 업체 리복스, 의료 및 교육 장치 업체 라이프스판 등이 보이스 엔진을 받았다. 블로그 내용에 따르면, 파트너사는 무단 사칭을 금지하고 음성 제공자의 사전 동의를 요구하는 사용 정책을 지켜야 한다. 생성된 복제 음성에는 귀에 들리지 않는 워터마크도 넣어야 한다.

2024.03.31 10:34김미정

개인정보위, 오픈 AI 등 6개 기업에 개인정보 취약점 보완 권고

개인정보보호위원회 대규모 언어 모델(Large Language Model, LLM) 기반으로 인공지능(AI) 사업을 운영 중인 오픈 AI등 6개 기업에게 개인정보 취약점을 보완하라고 권고했다. 개인정보위는 27일 제6회 전체회의를 열고 인공지능(AI) 서비스 기업에게 이같이 의결했다. 이번 권고 조치를 받은 기업은 ▲오픈AI ▲구글 ▲MS ▲메타 ▲네이버 ▲뤼튼 등 6개 기업이다. 개인정보위는 지난해 11월부터 한국인터넷진흥원(KISA)과 함께 주요 AI 서비스를 대상으로 사전 실태점검을 진행한 바 있다. AI 단계별 개인정보 보호의 취약점 점검 결과 ▲공개된 데이터에 포함된 개인정보 처리 ▲이용자 입력 데이터 등의 처리 ▲개인정보 침해 예방‧대응 조치 및 투명성 등 관련해 일부 미흡한 사항이 발견됐다. AI 서비스 제공사업자는 인터넷에 공개된 데이터를 수집 AI 모델 학습데이터로 사용하는데 이 과정에서 주민등록번호, 신용카드번호 등 한국 정보주체의 중요한 개인정보가 포함될 수 있는 것으로 지적됐다. 오픈AI, 구글, 메타는 개인정보 집적 사이트를 AI 모델 학습에서 배제하고 학습데이터 내 중복, 유해 콘텐츠 제거조치와 AI 모델이 개인정보를 답변하지 않도록 하는 조치를 적용하고 있다. 다만 학습데이터에서 주민등록번호 등 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다. 개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구할 계획이다. 최소한 사전 학습단계(pre-training)에서 주요 개인식별정보 등이 제거될 수 있도록 인터넷에 개인정보가 노출된 것을 탐지한 데이터(URL)를 AI 서비스 제공사업자에게 제공할 계획이다. 개인정보위는 AI 모델 등 개선 목적으로 이용자 입력 데이터에 대한 인적 검토과정을 거치는 경우 이용자에게 관련 사실을 명확하게 고지하는 한편, 이용자가 입력 데이터를 손쉽게 제거‧삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다. 개인정보위는 AI 서비스와 관련된 내용을 종합해 개인정보 처리방침 등에 보다 구체적으로 안내하고 부적절한 답변에 대한 신고 기능을 반드시 포함토록 했다. 또 AI 서비스와 LLM의 취약점 발견 시 신속히 조치할 수 있는 과정도 갖추도록 개선권고했다.

2024.03.28 12:00이한얼

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

메타, '라마3' 전용 AI인프라 공개...GPU만 4만9천개

메타가 차기 대규모언어모델(LLM) '라마 3' 학습을 위한 세계 최대 규모의 컴퓨팅 인프라를 공개했다. 최근 실리콘 앵글 등 외신에 따르면 메타는 AI학습을 위한 데이터센터급의 24K GPU 클러스터 한 쌍의 세부정보를 공식 블로그를 통해 공개했다. 여러 그래픽처리장치(GPU)를 네트워크로 연결해 병렬 컴퓨팅 작업을 수행하는 시스템이다. 기계학습, 대규모 시뮬레이션 등 대규모 계산 작업을 더 빠르게 처리하기 위해 활용된다. 메타에서 공개한 24K GPU 클러스터는 2022년 선보인 리서치슈퍼클러스터(RSC)의 후속모델이다. 이름처럼 2개의 클러스터에 각 2만4천576개의 엔비디아 텐서 코어 H100(이하 H100) GPU가 적용된 것이 특징으로 총 4만9천 개 이상의 H100 CPU를 활용할 수 있다. 이번 발표는 일반인공지능(AGI) 연구를 위해 대규모 인프라 구축 계획의 일환이다. 메타는 2024년 말까지 35만 개의 H100 GPU를 포함한 AI 인프라를 확장할 계획이다. 이를 통해 기존에 확보한 인프라를 포함해 60만 개의 H100 GPU 수준의 컴퓨팅 파워를 갖추는 것을 목표로 한다. 두 클러스터는 GPU 수가 동일하며 개방형 GPU 하드웨어 플랫폼 '그랜드 티톤(Grand Teton)'을 사용해 구축됐다. 하지만 네트워크 인프라 설계에 차이가 있다. 하나는 웻지 400 및 미니팩 2 OCP 랙 스위치와 아리스타 7800를 기반으로 자체 개발한 RDMA 오버 컨버지드 이더넷(RoCE) 솔수션을 적용했다. 두 번째 클러스터는 엔비디아의 퀀텀2 인피니밴드 패브릭 솔루션이 적용됐다. 두 클러스터의 구조를 다르게 한 이유는 향후 더 크고 확장된 클러스터 구축을 목표로 하기 때문이다. 두 클러스터에서 다양한 분야의 AI를 학습하며 어떤 구조와 설계 방식이 AI에 적합한지 데이터를 확보해 이후 적용하겠다는 비전이다. 저장장치도 해머스케이프와 협력해 자체 개발했다. 생성형 AI 훈련 작업이 점점 빨라지고 규모가 커지는 것에 대비해 고성능이면서도 수만개의 GPU에서 동시 작업하는 데이터를 감당할 수 있도록 E1.S SSD를 활용했다. 이와 함께 구글은 개방형 AI 생태계 활성화를 위해 AI 소프트웨어 프레임워크인 파이토치를 지속해서 지원할 것이라고 강조했다. 케빈 리 등 구글 연구원은 “지난 2015년 빅서 플랫폼을 시작으로 GPU 하드웨어 플랫폼을 설계를 공개하고 있다”며 “우리는 이런 정보 공유가 업계의 문제 해결을 돕는데 도움이 될 것이라고 믿고 있다”고 이번 GPU 클러스터 관련 내용을 공개한 이유를 밝혔다. 이어서 “우리의 AI 노력은 개방형 과학과 교차 협력의 철학을 바탕으로 구축됐다”며 “개방형 생태계는 AI 개발에 투명성, 정밀성, 신뢰를 제공하고 안전과 책임을 최우선으로 하여 모든 사람이 혜택을 누릴 수 있는 혁신을 이끌어낼 것”이라고 강조했다.

2024.03.17 13:07남혁우

[기고] 생성형 AI 도입, 기업이 반드시 유념해야 할 두 가지 전략

생성형 AI 모델에 대한 뜨거운 관심은 이제 다방면으로 확산되고 있다. 지난 해 까지만 해도 변호사 자격시험 통과나 다양한 주제의 학술 논문 작성은 물론, 정보 검색 지원 등 놀라운 신기능이 화제의 중심이었다. 이제 우리는 생성형 AI가 텍스트 생성과 SQL 쿼리 생성, 코드 작성, 심지어는 예술작품 제작은 물론, 기업의 제품 지원에 이르기까지 거의 모든 분야의 작업을 수행하는 것을 목격하고 있다. 생산성과 수익을 향상시킬 수 있는 방법을 늘 고민중인 기업 경영진의 마음을 생성형AI가 사로잡고 있다고 해도 과언이 아니다. 실제 우리 기업들은 이제 향후 어떤 업무에 생성형 AI의 어떤 기능을 더 추가적으로 도입할 지 심각하게 고민하고 있는 상황이다. 기업은 생성형 AI 기능을 원하는 업무에 도입해 비즈니스 결과를 개선하려면 우선적으로 중요한 원칙을 되새겨야 한다. 즉 해당 AI기능이 자사의 비즈니스 적용업무에 통합되어 그에 적합하고 정확한 결과를 제공하는 대상 모델은 무엇인지 정의하는 것과, 그에 맞게 해당 인프라를 설정하고, 모델을 선택, 맞춤화하고 배포를 어떻게 할 것인지 대한 기획이다. 이와 같은 원칙과 전제하에 기업이 생성형 AI를 도입해 자사의 비즈니스를 향상시키는 방안은 두 가지로 구분할 수 있다. 애플리케이션에서 AI 서비스 및 데이터와 인프라 전반을 아우르는 '풀스택 AI'의 활용 전략과 '특정 비즈니스 업무에 적합한 맞춤형 서비스 활용'이 그것이다. 풀스택 AI 활용과 그 경험을 구현하는 방법은 무엇인가? 이는 생성형 AI에 대한 시스템 차원의 '총체적인 접근방식'으로, 기업이 AI 구현을 위해 필요로 하는 기술 전반을 통합한 환경을 의미한다. 이와 관련해 기업은 자사의 온프레미스(구축형)와 퍼블릭 클라우드로 운영되는 IT시스템 환경의 전반에서 애플리케이션과 서비스, 데이터 및 인프라를 아우르는 단일한 AI 솔루션 적용을 통해 AI의 ROI(투자대비효과)를 거둘 수 있다. 보통 기업에서는 AI 프로젝트를 진행할 경우 여러 곳에 편재한 단편적인 부분과 툴을 결합하는 방식으로 AI를 구현한다. 이와 달리 풀스택 접근방식은 기업 핵심 애플리케이션의 사용 경험에 생성형 AI 기술을 접목할 수 있는 기술력을 갖추고 있다는 장점이 있다. 덕분에 기업은 자사 애플리케이션에 필요한 생성형 AI 기술을 획기적으로 간단히 통합할 수 있다. 필자가 속한 오라클 역시 기업이 생성형 AI를 성공적으로 구현하기 위해 정말 필요한 것이 무엇인지에 대해 고민하면서 생성형 AI에 대해 이러한 총체적인 접근 방식을 취하고 있다. 또한 데이터베이스에 탑재된 AI 기반 운영 자동화 및 벡터 검색 기능은 기업이 추가적인 개발의 노력을 들이지 않아도 데이터베이스 관리 업무와 앱 개발 과정을 대폭 간소화하고 정확도 높은 모델을 지원할 수 있어 비용 절감을 돕는다. 오라클은 자사의 서비스형 소프트웨어(SaaS)에서 시작해 이러한 AI 기술이 접목된 풀스택 서비스와 함께 광범위한 미세 조정 모델 및 즉시 사용 가능한 검색 증강 생성(RAG)을 통해 기업의 차별화된 AI 전략을 지원하고 있다. 두 번째로, 생성형 AI가 기업 내의 다양한 활용을 지원하기 위해 미세 조정 또는 RAG 기술을 통해 대형 언어 모델을 현업 요구 사항에 적합하도록 맞춤화해 제공하는 방안이다. 이 중 '미세 조정'은 대형 언어 모델에 기업의 내부 정보, 지식 문서 등을 학습하는 것으로, 여기에는 많은 시간과 비용이 든다. RAG 기술은 이러한 미세조정을 돕기 위한 기술이다. 데이터 사용자와 자연어 기반의 대화 맥락 속에서 질의를 SQL 쿼리로 자동 변환하고 기업 보유의 벡터 데이터베이스와 연동을 통해 의도에 맞는 답변을 제공한다는 점에서 비용 효과성을 더 높은 수준으로 향상시켜준다. 한 예로 기업의 한 사용자가 RAG 기술을 탑재한 에이전트에 병가에 대한 인사(HR) 정책을 요약해서 알려 달라고 요청할 경우, 모델은 RAG를 통해 기업 HR 정책과 관련된 내부 문서에서 연관 있는 문단을 추출해 내어 자연어 대응 답변을 출처 문서에 대한 하이퍼링크와 함께 맞춤형으로 제공할 수 있다. 향후에는 사용자의 요청에 따라 기존 문서 편집과 같은 후속 조치까지도 지원할 것으로 기대된다. 이처럼 기업 업무의 특수한 맥락에 정교한 성능을 제공하는 생성형 AI 기술은 고객 서비스 자동화를 비롯해 개인화된 마케팅이나 가상 세일즈맨 역할, 계약서 작성, 경쟁사 및 고객 모니터링 등 비즈니스의 많은 영역에 적용해 가치를 창출할 수 있을 것으로 기대되고 있다. 성공적인 생성형 AI 구현은 인프라에 대한 총체적인 접근방식과 더불어, 생성형 AI 모델의 실제 비즈니스 적합성에 달려 있다. 이 두 가지 전략을 함께 고려하고 운용할 수 있을 때 비로소 기업은 생성형 AI 와 관련된 여정을 단계별로 차근차근 밟아 나가며 혁신을 가속화하고 고도화 할 수 있을 것이다.

2024.03.14 15:27나정옥

스노우플레이크, 미스트랄AI와 협력…'미스트랄 라지' 모델 제공

스노우플레이크는 최근 프랑스 AI 솔루션 제공업체 미스트랄AI와 파트너십을 체결했다고 11일 일 발표했다. 이 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스의 미스트랄AI의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 미스트랄AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(LLM)인 '미스트랄 라지'를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 미스트랄AI의 기본 모델인 '미스트랄 7B'와 오픈 소스 모델 '믹스트랄8x7B'에도 액세스할 수 있다. '미스트랄 라지'는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 '대규모 다중 작업 언어 이해 측정(MMLU)' 비교함에서 뛰어난 성능을 입증하며 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. '미스트랄 7B'는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. '믹스트랄 8x7B'는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄AI의 모델들은 '스노우플레이크 코텍스'에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타 '라마2' 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아와 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 슈리다 라마스워미 스노우플레이크 신임 CEO는 “스노우플레이크는 미스트랄AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 밝혔다. 아르튀르 멘슈 미스트랄AI 공동창립자 겸 CEO 는 “스노우플레이크의 보안, 개인 정보 보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 미스트랄AI의 포부와 맞아떨어진다”며 “미스트랄AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”고 강조했다. 그는 “스노우플레이크 데이터 클라우드에서 미스트랄AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 덧붙였다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 'AI 얼라이언스'에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다.

2024.03.11 10:52김우용

kt클라우드, LLM으로 AI디지털교과서 맞춤형 교육 구현

kt클라우드(대표 황태현)가 AI디지털교과서에 학습분석 및 개인별 맞춤형 교육을 구현한다. kt클라우드는 스마트앤와이즈와 'AI기반 학습분석 플랫폼'을 선보인다고 8일 밝혔다. 양사는 지난 해 AI디지털교과서 사업을 위한 업무협약을 맺고, AI디지털교과서 구축에 필요한 AI학습분석 제공 플랫폼을 공동 개발했다. AI디지털교과서는 AI기반 학습 데이터를 수집∙분석하고, AI보조교사와 실시간으로 상호작용하며 학생별로 맞춤화된 교육을 제공하는 것이 핵심이다. 현재 다양한 에듀테크 기업에서 각자의 노하우를 바탕으로 학습 플랫폼을 개발하고 있지만, 대부분 AI기반이 아닌 단순 규칙에 따라 한정적으로 반응하는 룰베이스 방식을 활용하고 있다. kt클라우드는 스마트앤와이즈의 교육 전용 대규모언어모델(LLM) 및 플랫폼 개발을 위해 AI클라우드 인프라를 지원한다. kt클라우드의 AI 인프라는 LLM 학습, 개발에 있어 동적할당 기반의 이용료 과금, 대규모 클러스터링 지원 GPU 인프라를 제공한다. 향후 AI디지털교과서 사업이 확대되면서 늘어날 AI 인프라에 대비해 kt클라우드는 NPU 기반 인프라 공급도 적극 검토하고 있다. 발행사 및 에듀테크 기업은 NPU 이용으로 AI 인프라 이용 부담이 줄어들 전망이다. 스마트앤와이즈는 오랜 경험과 노하우가 축적된 교수학습플랫폼을 통해 교육 LLM을 개발했고, 이를 기반으로 학습자의 성향 및 과제 수행 정보를 분석하여 맞춤형 학습 전략을 제시하는 루츠(Roots) 플랫폼을 선보였다. 실제 교육현장 안착 및 확산을 위해 대구교육대학교와 시범 사업을 진행 중이며 연내 클라우드 보안인증(CSAP) 획득을 추진할 예정이다. 2023년 과학기술정보통신부와 한국지능정보사회진흥원이 주관한 'K-클라우드' 프로젝트에도 선정된 바 있다. 국정원은 '챗GPT 등 생성형 AI 활용 보안 가이드라인에 따라 발행사 및 에듀테크의 오픈AI 이용을 제한하고 있다. 또한 공공 교육에서는 ▲선행학습 ▲할루시네이션(허위정보) 등의 문제로, 객관적으로 검증할 수 있고 제어가능한 교육LLM의 이용이 필수적이다. 스마트앤와이즈 이민주 연구소장은 “CSAP 인증 획득을 통해 공공분야에 AI디지털교과서 제공을 위한 적격성 확보와 발행사의 콘텐츠 기반으로 특화된 교육 LLM을 구축∙제공할 수 있게 될 것”이라고 말하며 “이를 통해 공공분야 오픈 AI이용 제한과 학교 교육에서 엄격히 제한하고 있는 선행학습, 할루시네이션(허위정보) 등의 이슈를 해소할 것”이라고 강조했다. kt클라우드 남충범 본부장은 “다양한 발행사∙에듀테크에게 AI 인프라를 제공하여 사업자들의 이용 부담을 줄이고 효율적인 학습 플랫폼 개발을 적극 지원하겠다”고 말했다. 이어 “특히 AI디지털교과서 사업 및 생태계 활성화를 이끄는 선도 사업자로 앞장서겠다”며 다짐했다.

2024.03.08 10:29남혁우

올거나이즈-마키나락스, 금융권 LLM 인프라 최적화 전략 제시

올거나이즈(대표 이창수)가 금융업 실무자들이 LLM 솔루션을 업무에 쉽고 빠르게 적용할 수 있도록 금융권 인공지능(AI) 도입 핵심 사례와 활용 노하우를 공개한다. 올거나이즈는 마키나락스와 '알짜 기업이 쓰는 진짜 AI-금융권 LLM+AI 인프라 최적화 전략'을 주제로 세미나를 개최한다고 27일 밝혔다. 지난 1월 진행된 동명 세미나의 후속으로 진행되는 이번 세미나는 금융권 기업의 AI 실제 도입 사례를 보다 풍부하게 소개할 예정이다. 다음 달 5일 오후 6시부터 9시까지 서울 역삼동에 위치한 창업지원센터인 마루180의 이벤트홀에서 진행된다. 마키나락스의 신민석 이사가 '금융기업의 AI 자원 최적화: 하이브리드 AI 플랫폼의 구축과 운영 전략'을 주제로 강연을 시작한다. 비용 효율성, 운영의 민첩성, 유연성 측면에서 하이브리드 AI 플랫폼의 구축 및 운영 전략을 살펴본다. 금융 분야에서 AI를 활용해 비즈니스 가치를 극대화하고, 규제 준수 요건을 충족하면서도 기술적 유연성을 유지하는 전략을 공유한다. 올거나이즈의 이창수 대표는 '금융권 생성형 AI 프로젝트 성공을 위한 베스트 프랙티스'를 주제로 강연을 진행한다. 금융권 고객들과 실제 협업했던 사례를 중심으로, 금융권에서 첫 번째 생성형 AI 프로젝트를 시작할 때 내부에서 어떤 데이터를 준비하고 어떻게 팀을 꾸려 대응해야 하는지, AI 내재화와 고도화를 위해 지금 바로 사용할 수 있는 생성형 AI 애플리케이션은 어떤 것들이 있는지 등을 설명한다. 패널토론 및 질의응답은 총 1시간 진행된다. 실사례 위주로 진행되는 세미나인 만큼, 강연자 외에도 실제 금융권 AI 도입 프로젝트를 이끌었던 담당자들이 패널로 참여해 실무자들의 궁금증을 해소할 예정이다. 사례의 구체적인 내용에 대한 현장 질문도 가능하다. 올거나이즈에서 실제 금융권 AI 프로젝트를 진행중인 유태하 PM과 이창수 대표가 30분간 토론 및 질의응답을 진행한다. 금융권에서 AI를 도입할 때의 주의점, AI 프로젝트를 효율적으로 운영하고 관리하며 생산성을 혁신할 수 있는 방법 등을 중점으로 이야기 나눌 예정이다. 이어 마키나락스의 신민석 이사와 허영신 CBO가 금융권의 AI 인프라 및 플랫폼 구축에 대한 실제 사례와 장기적으로 비용 및 운영 측면에서 고려해야 할 사항 등에 대해 토론한다. 올거나이즈는 4월 4일 SK텔레콤, 마이크로소프트와 함께 '금융 AI 도입의 핵심 사례'를 주제로 세미나를 개최할 예정이다. 서울 중구에 위치한 SKT 타워에서 오후 3시부터 6시까지 진행된다. 올거나이즈의 이창수 대표는 "2024년은 4대 은행그룹 회장, 은행장들이 2024년 조직 개편과 신년사를 통해 AI 활용 확대를 선언할 정도로 금융업 전반에서 생성형 AI를 적용한 서비스가 확대되는 해"라며, "양사가 금융권 고객 기업과 실제 프로젝트를 진행하며 경험한 노하우를 벤치마킹할 수 있을 것"이라고 밝혔다.

2024.02.27 08:57남혁우

中 바이트댄스, 10배 속도 '텍스트로 이미지 생성' AI 모델 공개

틱톡 모회사인 중국 바이트댄스가 텍스트로 이미지를 만들어내는 인공지능(AI) 모델을 공개했다. 24일 중국 언론 졔몐신원에 따르면 중국 바이트댄스는 텍스트투이미지(Text-to-Image) 오픈 모델 'SDXL-라이트닝(Lightning)'을 출시했다. 이 모델을 사용하면, 매우 짧은 시간에 고품질, 고해상도 이미지를 생성할 수 있으며 최근 가장 빠른 텍스트투이미지 모델로 꼽힌다고 소개됐다. 텍스트투이미지는 AI 기술을 이용해 텍스트를 기반으로 이미지를 생성해내는 기술이다. 매체에 따르면 바이트댄스의 SDXL-라이트닝 모델은 전례없는 생성 속도를 달성했으며, 2~4개 단계 만에 고품질의 고해상도 이미지를 생성해내면서 생성속도를 기존 대비 10배 향상시켰다. 이를 통해 1024 해상도에서 가장 빠른 텍스트투 이미지 모델이 됐으며, 컴퓨팅 원가를 10분의 1로 낮춘다. 이 기술을 개발한 바이트댄스의 지능창작팀에 따르면 이 모델은 오픈소스 텍스트투이미지 모델 SDXL의 업그레이드 버전으로서 개방형 모델 커뮤니티의 다른 툴 및 플러그인과 호환된다. 개발자, 연구원 및 창의적 임무를 맡은 이들이 사용할 수 있다. 중국 언론에 따르면 이 모델은 이미 AI 오픈소스 커뮤니티 허깅페이스에도 공개돼 인기 모델이 됐다.

2024.02.25 23:47유효정

"MS 애저보다 빠르다"…美 스타트업 그로크, AI 칩으로 시장 판도 흔들까

거대언어모델(LLM)의 추론·응답 속도를 높인 인공지능(AI) 칩이 나왔다. 엔비디아 그래픽처리장치(GPU)보다 더 빠른 속도를 갖췄다는 점에서 업계의 주목을 받고 있다. 22일 미국 IT 매체 뉴아틀라스에 따르면 미국 AI 스타트업 그로크는 지난 20일 LLM의 추론과 응답 속도를 높이는 AI 칩 '언어처리장치(LPU)'를 출시했다. 그로크는 구글 개발자 출신들이 모여 2016년 설립한 반도체 기업이다. 설립자 중에는 구글 머신러닝(ML) 칩을 개발한 조나단 로스가 최고경영자(CEO)다. 보도에 따르면 LPU는 LLM을 탑재한 챗봇인 오픈AI의 '챗GPT', 구글의 '제미나이' 등의 응답 속도 향상에 특화됐다. 사용자 질문에 1초도 안 되는 시간에 영어 기준 수백 단어의 답변을 생성할 수 있다. 벤치마크 테스트에서도 LPU는 마이크로소프트의 애저 클라우드 인프라 성능을 능가했다. 메타의 700억 매개변수 '라마 2'는 마이크로소프트 애저 클라우드상에서 초당 19개 토큰을 생성했지만, 그로크를 탑재했을 때 초당 241개 토큰을 만들었다. LLM이 그로크를 탑재할 경우 18배 이상 빠른 추론 속도를 갖출 수 있는 셈이다. 또 LPU는 100개 토큰을 생성하는 데 0.8초가 걸렸지만, 마이크로소프트의 애저 클라우드는 10.1초 소요됐다. 현재 개발자는 그로크챗 인터페이스에서 LPU 엔진을 이용할 수 있다. 승인된 사용자는 라마 2, 미스트랄, 팰컨 등을 통해 엔진을 시험해 볼 수 있다. 조나단 로스 그로크 CEO는 "LLM의 추론 속도는 개발자의 아이디어를 사업화할 수 있다"며 "이는 AI 사업 생태계 필수 요소"라고 밝혔다.

2024.02.22 11:05김미정

MS가 보는 올해 AI 트렌드…SLM·멀티모달·과학

마이크로소프트는 올해 주목해야 할 3가지 인공지능(AI) 트렌드를 14일 발표했다. 마이크로소프트는 올 한해 AI가 사람들의 일상과 업무 방식을 크게 변화시킬 것으로 전망했다. 나아가 AI 기술 통합과 발전으로 가장 어려운 문제 해결을 돕는 기술에 보다 쉽게 접근할 수 있으며, 인류의 삶을 더 풍요롭게 만들어 줄 것으로 기대하고 있다. ■ AI 연구와 혁신을 촉진하는 소형언어모델 가장 먼저 소형언어모델(SLMs)이 AI분야에서 더욱 중요한 역할을 하게 될 것으로 예상된다. 수십억 개의 매개변수로 이뤄진 소형언어모델은 학습에 필요한 시간과 자원을 적게 소모해 모바일 기기에서도 쉽게 실행 가능하며, 인터넷이 지원되지 않는 오프라인 상태에서도 언제 어디서나 사용할 수 있다는 장점이 있다. 또한 선별된 고품질 학습 데이터를 사용해 보다 정확한 결과를 얻을 수 있다. 이에 반해 방대한 양의 인터넷 데이터로 학습된 대형언어모델(LLMs)의 경우 매개변수가 수천억 개 이상이기 때문에 저장 공간이 많이 필요하며, 실행 시에도 많은 자원이 소모된다. 매개변수는 언어 모델이 문장을 생성하거나 해석할 때 사용되는 변수를 말한다. 실제로 마이크로소프트 연구진은 특정 분야에서 대형언어모델과 동등하거나 더 나은 성능을 보이는 두개의 소형언어모델인 파이(Phi)와 오르카(Orca)를 개발해 성능에 대한 새로운 기준점을 찾기 위해 노력하고 있다. 특히 2024년에는 개선된 모델을 출시해 더 많은 연구와 혁신 촉진에 기여할 것으로 기대하고 있다. 세바스티앙 부벡 마이크로소프트 머신러닝 파운데이션그룹 팀장은 “소형언어모델은 그 크기와 비용 효율성으로 인해 AI에 대한 접근성을 높일 수 있다”며 “우리는 대형언어모델만큼 소형언어모델을 강화하는 새로운 방법을 연구하고 있다”고 설명했다. ■ 인간의 인지능력을 활용하는 멀티모달 AI 이와 함께 멀티모달 AI가 인간의 인지 능력과 더욱 유사하게 발전할 것으로 기대된다. 해당 기술은 텍스트·이미지·오디오·비디오 등 다양한 형태의 데이터를 동시에 처리해 검색 도구부터 크리에이티브 앱까지 다양한 기술의 성능을 향상시킨다. 코파일럿은 멀티모달AI 기술을 활용해 이미지, 자연어, 빙 검색 데이터를 처리한다. 이를 통해 사용자는 본인이 업로드한 이미지에 담긴 역사적 배경과 같은 관련 정보를 파악할 수 있다. 해당 AI 기술은 마이크로소프트 디자이너 그래픽 디자인 앱에도 적용된다. 사용자가 원하는 이미지에 대한 설명을 기반으로 이미지를 생성할 수 있으며, 사용자 지정 신경망 음성 기능을 통해 텍스트 리더기 및 청각 장애인용 도구에 사용 가능한 자연스러운 음성을 지원한다. 제니퍼 마스맨 마이크로소프트 CTO오피스 수석 엔지니어는 “멀티 모달리티는 인간이 사용하는 시각, 음성 및 청각과 같은 다양한 감각을 활용해 인간과 유사한 경험을 만들어낼 수 있는 능력을 가지고 있다”고 강조했다. ■ 과학분야의 새로운 가능성을 여는 AI 마지막으로 AI 기술이 국제적 문제인 기후 변화, 에너지 위기, 질병 등 과학 분야에서도 혁신적인 해결책을 제시할 수 있을 것으로 내다봤다. 마이크로소프트는 AI를 활용해 기후 변화 완화와 농부들의 효율적인 작업을 목표로 향상된 일기예보 시스템과 탄소 측정기를 개발하는 등 지속가능한 농업을 위한 도구를 구축하고 있다. 또한 잡초의 정보를 파악하고 트랙터의 상태를 체크할 수 있는 등 농부들이 현장에서 사용가능한 AI챗봇도 개발하고 있다. 생명과학 분야 연구원이 암 퇴치를 위한 세계 최대 규모 이미지 기반 AI 모델과 공동 연구를 진행 중이며, 감염병 신약과 혁신 의약품을 위한 새로운 분자를 찾기 위해 첨단 AI를 활용하고 있다. 이를 통해 수년 이상 소요되는 검증과정을 수 주 또는 수 개월로 단축 가능하다. 재료 과학 분야에서도 혁신을 일으키고 있다. 스위스의 제약회사인 노바티스는 마이크로소프트와 협력해 AI와 고성능 컴퓨팅 기술을 활용, 저독성 배터리 소재 발견을 위한 검색 가속화에 성공했다. 크리스 비숍 마이크로소프트 리서치 AI4사이언스팀 디렉터는 “AI가 과학발견의 혁명을 주도하고 있다”며 “가장 흥미롭고 궁극적으로 가장 중요한 AI의 활용 분야가 될 것”이라고 전망했다.

2024.02.14 11:30김우용

애플, 명령어로 이미지 편집하는 AI 모델 내놔

애플은 명령어만으로 이미지를 편집할 수 있는 인공지능(AI) 모델을 내놨다. 7일(현지시간) 더버지 등 주요 외신은 애플이 사진 편집 소프트웨어(SW) 없이 프롬프트로만 이미지를 수정하는 모델 'MGIE'를 출시했다고 보도했다. 현재 MGIE는 깃허브에 무료로 공개됐다. 허깅페이스에는 웹 데모 형태로 나왔다. 외신은 MGIE가 사진 속 물체나 사람을 다른 모양으로 만들거나 더 밝게 보이도록 수정하는 등 간단하고 복잡한 이미지 편집 작업을 돕는다고 전했다. 이미지 자르기, 사진 크기 조정, 뒤집기, 필터 추가 기능을 사용자 명령어에 따라 수행할 수 있다. 모델 이용법은 간단하다. 사용자가 사진 속 이미지를 편집할 때 변경하고 싶은 부분을 글로 입력하기만 하면 된다. 예를 들어, 페퍼로니 피자 사진에 건강한 이미지를 넣고 싶을 경우, 사용자가 "더 건강하게"라고 키워드 입력만 하면 된다. 그럼 모델이 페퍼로니 피자에 야채 토핑 이미지를 추가한다. 애플은 "이미지 편집에 대한 광범위한 연구를 몇 년간 수행함으로써 MGIE를 만들 수 있었다"며 "내부 테스트에서도 이미지 편집 기능을 효과적으로 수행한다는 사실을 입증했다"고 전했다.

2024.02.08 10:46김미정

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

마이디포 "오픈소스 AI-LLM 잘 꿰어야 보배"

속담에 '구슬이 서 말이라도 꿰어야 보배'(아무리 좋은 것이라도 쓸모 있게 만들어 놓아야 값어치가 있다는 뜻)라 했다. 다양한 인공지능(AI) 기술들이 쏟아져 나왔지만, 아직 사람들의 일상과 업무에 눈에 띄게 사용되는 제품이나 서비스가 기대만큼 많지 않은 게 사실이다. 그나마 지난해 초거대 언어모델(LLM)과 생성형 AI 기술 고도화가 무르익으면서 실생활에 쓰이는 AI 제품과 서비스들이 하나둘 늘어나는 추세다. 이런 한계를 딛고, 개별적인 AI 기술과 서비스들을 한 데 모아 업무 효율성과 완성도를 높이는 기업이 있다. 그야말로 구슬(AI)을 하나하나 꿰어(조합) 보배(앱)로 만드는 AI 매시업 기업 '마이디포'가 그 주인공이다. 매시업이란 웹서비스 업체들이 제공하는 각종 콘텐츠와 서비스를 융합해 새로운 웹서비스를 만들어내는 것을 뜻한다. 예를 들어 AI 기술을 활용해 번역서를 출간한다고 하면, 도서 표지는 '스테이블 디퓨젼'이 디자인하고, 교정과 윤문은 '챗GPT'가, 번역은 'DeepL'이 담당하는 식이다. 그 동안에는 출판사가 디자이너·편집자·번역가 등을 채용해 번역서를 펴냈다면, 마이디포는 마치 오케스트라 지휘자처럼 결과물에 적합한 최적의 AI 서비스들을 조합해 결과물을 만들어낸다. 이처럼 마이디포는 각각의 AI 모델(서비스)들을 모듈화하고, 사용자가 필요로 하는 서비스(앱)에 적합한 모듈을 가져다 쓸 수 있도록 했다. 요청하는 작업은 각각의 모듈에 뿌려져 분산·병렬 처리되기 때문에 사용자는 시간 단축 효과를 볼 수 있다. 마이디포 솔루션은 먼저 판례 및 사건 분석 등이 필요한 변호사, 보고서 작성이 많은 금융사, 초벌 번역 등이 필요한 출판사, 외신 번역과 기사 작성이 주 업무인 언론사 등에게 유용하게 쓰일 수 있다. 또 벤처캐피털의 투자심사 보고서 작성 등에도 활용할 수 있다. 류승훈 대표, 코트라 직원서 창업가로...생성 AI 가능성 보고 '마이디포' 창업 마이디포를 창업한 류승훈 대표는 대한무역투자진흥공사(KOTRA) 출신이다. 2012년 퇴직 후 '플랫클'이란 회사를 창업해 '거인의 서재' 앱을 출시, 출판계의 디지털 마케팅을 혁신했다. 그 후 거인의 서재는 체인지그라운드에 매각됐고, 류 대표는 300명의 뛰어난 개발자를 육성하겠다는 취지로 '300Dev'라는 회사를 세웠다. 베네수엘라를 중심으로 중남미 개발자들에게 글로벌 네트워크와 글로벌 비즈니스 기회를 제공, 북미 시장에 실력 있는 각국 개발자들이 접근할 수 있는 토양을 만들었다. 류 대표의 도전은 여기에서 멈추지 않았다. 본인 지분을 매각한 뒤, 지난해 생성형 AI 가능성을 보고 마이디포를 창업했다. 류승훈 대표는 “라틴아메리카에 있는 6명의 팀원은 기술 개발과 마케팅 담당을 하고, 국내에는 3명의 직원들이 B2B 영업과 기획, 디자인 등의 업무를 맡고 있다”면서 “마이디포는 파편화된 AI 서비스들을 하나하나 모듈화 시키고 조합함으로써 대용량을 병렬, 분산처리 해 고속으로 결과물을 얻을 수 있다”고 설명했다. 류 대표에 따르면 마이디포는 현재 '팔만대장경 프로젝트'를 진행 중이다. 이 프로젝트는 1971년 미국 일리노이대 학생이던 마이클 하트가 시작한 '구텐베르크 프로젝트'라는 사회 운동을 모티브로 한다. 저작권 문제가 해결된 고전을 직접 타이핑해 모두가 무료 또는 최소한의 비용으로 읽을 수 있도록 한 이 프로젝트는 50년도 넘게 진행돼 현재 7만권이 넘는 세계 각국의 도서가 인터넷을 통해 공유되고 있다. 마이디포는 구텐베르크 프로젝트의 문서를 LLM AI를 활용해 읽기 쉬운 우리말 도서로 변환하는 작업을 하고 있다. 번역, 교정, 표지 디자인, 전자책 출간 등의 작업이 과거에는 수주에서 몇 달이 걸렸다면, 팔만대장경 프로젝트는 300페이지 외서 초벌 번역을 5분까지 단축시키는 것이 목표다. 류 대표는 “여전히 구텐베르크 프로젝트의 과실은 영어 사용자들이 주로 누리고 있는데, 생성형 AI 시대에는 모든 게 달라질 것”이라며 “언어 장벽 탓에 쉽게 접근할 수 없었던 구텐베르크 프로젝트의 문서를 읽기 쉬운 현대 우리말로 만들 것으로 기대, LLM 인공지능을 활용해 구텐베르크 도서를 한국어 도서로 변환하고 있다. 수주에서 몇 달 걸리던 작업을 단 5분으로 단축하고자 하는데 이것이 우리의 팔만대장경 프로젝트”라고 말했다. 종착지는북미 시장..."누구나 쉽게 이용하고 조합할 수 있는 AI 서비스 지향" 류 대표가 궁극적으로 바라보는 시장은 히스패닉 시장을 교두보로 한 북미 지역이다. 창업 초기부터 글로벌 개발팀을 꾸렸는데, 챗GPT 상위 국가에 미국·인도, 그 뒤로 콜롬비아와 브라질 등 히스패닉 국가가 상위 5위권에 오른 것을 눈여겨봤다. 미국 내 히스패닉 인구가 이미 6천500만을 넘었는데, 류 대표는 히스패닉 시장을 교두보 삼아 세계 최대 시장인 북미 지역으로 진출한다는 구상이다. 류 대표는 “마이디포를 지난해 3월에 개발해 그해 5월 개념증명(PoC)을 했고, 7월 최소기능제품(MVP)을 출시, 현재는 서비스 고도화에 집중하고 있다”면서 “현재 이용 고객의 70%가 히스패닉 시장에서 발생하고 있는데, 서비스 안정화와 완성도가 갖춰지면 글로벌 시장뿐 아니라 국내에서도 마케팅 활동을 펼칠 계획”이라고 밝혔다. 마이디포 AI 서비스는 크게 세 가지로 구분된다. 먼저 월 구독 모델로 AI 매시업 프레임워크를 제공한다. 또 마이디포 AI 컨설턴트들이 AI 활용 방법을 상담해준다. 끝으로 프롬프트 엔지니어링 등 기업 맞춤형 매시업 솔루션을 제작, 공급해준다. 개인 또는 기업은 필요로 하는 나만의 AI 서비스(앱)를 마이디포에 직접 제작 의뢰해 최적의 결과물을 얻을 수도 있으며, 다른 창작자들이 공개해 놓은 오픈마켓에서 적합한 서비스를 골라 유료로 구매한 크레딧을 지불하고 이용할 수도 있다. 이 때 창작자는 앱 사용 수익의 70%를 받는 구조다. 류승훈 대표는 “마이디포 서비스 고도화 맵에 있어 기술적인 목표는 LLM을 어떻게 나에게 더 잘 맞는 서비스로 만드느냐가 있다. 데이터를 양과 질을 고도화 시켜 맥락에 맞는 결과물을 얻는 것”이라면서 “각 AI 기술과 서비스들의 장점을 활용해 누구나 쉽게 이용하고 조합할 수 있도록 확장시키는 것이 마이디포의 목표”라고 말했다. 이어 “우리가 생각하는 범용인공지능(AGI)은 단순한 만물박사가 아니라, 여러 가지가 조합돼 결국은 우리가 원하는 결과를 얻어내는 것”이라며 “각 모듈들이 AGI 내에서 하나의 플러그인으로 활용될 수 있다. 마이디포의 리퀘스트 마켓이 적극 활용되고 집단적인 프롬프터들이 쌓인다면 다양한 AI 서비스들이 보다 쉽고 널리 쓰일 것”이라고 말했다.

2024.01.31 14:14백봉삼

  Prev 11 12 13 14 15 16 17 18 19 Next  

지금 뜨는 기사

이시각 헤드라인

적자기업 라포랩스는 SK스토아 인수 왜·어떻게 한다는 걸까

'서울 자가 대기업 김부장' 인사쟁이들은 이렇게 봤다

엔비디아 실적 발표에 쏠린 눈…분석가들의 전망은?

구글, 신규 모델 '제미나이3' 출시…"추론력 최고치"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.