너도나도 독점 LLM, 클라우드 경쟁 핵심으로
빅테크가 대규모언어모델(LLM)을 차별화 요소로 삼으면서 생성형 인공지능(AI) 시장이 상용 모델과 오픈소스 모델의 양대 축으로 굳어지는 모습이다. 마이크로소프트는 100억 달러 이상 투자한 오픈AI를 통해 GPT-4 서비스를 사실상 독점하고, 구글은 PaLM2와 제미나이를 내놓으며 선두를 맹추격하고 있다. 반면, 아마존웹서비스(AWS)는 한동안 생성 AI의 개방성을 강조하며 '아마존 베드록'에서 다양한 LLM을 취사선택할 수 있다는 점을 강조했다. 오픈AI의 경쟁 스타트업인 앤트로픽에 투자해 '클로드2' 주요 후원사로서 이미지를 구축했다. 그러나 AWS도 자체 모델인 '타이탄'을 계속 강화하고 독점 모델을 보유했다는 이미지도 함께 만들려 애썼다. 생성형 AI 애플리케이션을 개발하려는 기업은 현재 오픈AI의 GPT 모델 시리즈를 마이크로소프트 애저와 오픈AI 자체 서비스를 통해 이용할 수 있다. 접근 경로는 두개지만 실제로 인프라와 서비스 안정성 측면 때문에 기업용으로 마이크로소프트 애저가 유일한 선택지다. PaLM2, 제미나이의 API를 이용하고자 하는 기업은 구글클라우드를 활용해야 한다. GPT-4와 제미나이가 현존하는 LLM 중 가장 앞서 있다는 평가를 받는 만큼 자체적으로 대규모 LLM을 구축하지 않는 경우 대다수 기업은 GPT-4와 제미나이를 이용하려 한다. 마이크로소프트와 구글클라우드가 구체적인 수치를 밝히지 않지만 현재 두 회사에 대한 생성 AI 수요의 매출기여도는 10% 미만으로 추정된다. 다소 작은 규모로 보이는데 폭발적인 수요에 AI 인프라 공급이 충분하지 못해 생긴 제약으로 해석된다. 아직 LLM 분야에 대해 기업들은 명확한 판단을 내리지 못한 상태다. GPT-4나 제미나이 같은 저명한 모델을 미세조정하거나 프롬프트 엔지니어힝을 이용해야 할 지, 자체적인 LLM을 구축하거나 다른 오픈소스 혹은 상용 모델을 사용해야 할 지 검증하고 있다. 전세계적인 엔비디아 H100 및 A100 GPU 수요 폭증은 자체 개발이냐 상용 서비스 이용이냐 양면에서 고민하는 기업의 현재 상황을 보여준다. GPT-4와 제미나이를 제외하고도 시중에 다양한 파운데이션모델이 나와 있다. 앤트로픽의 클로드2, 코히어, 모자이크ML 등 상용 모델도 있고, 돌리, 팰컨, 미스트랄 등 오픈소스 모델도 있다. 상용과 오픈소스의 성격을 모두 가진 메타의 라마2도 있다. 한국의 경우 네이버의 하이퍼클로바X가 대표적이다. 여러 스타트업의 상용 모델은 각사의 자체 API 서비스로도 이용할 수 있지만, 마이크로소프트 애저나 구글클라우드, AWS에서도 이용가능하다. 오픈소스 모델도 마찬가지다. 메타의 라마2도 제한적이지만 주요 클라우드 서비스에서 접근할 수 있다. 생성 AI 애플리케이션을 구축하려는 기업은 여러 선택지를 평가, 검증하고 자사의 AI 전략을 고도화할 수 있다. 특정 모델에 온전히 집중할 수도 있고, 여러 모델을 혼용할 수도 있다. 최근 증강검색생성(RAG)을 활용해 여러 LLM을 혼용하는 방안이 대세를 이루는 모습이다. 그 와중에 GPT-4를 최우선순위 선택지로 보는 기업이 다수다. 상용 LLM의 독점 서비스는 클라우드 기업에게 고객의 수요를 끌어들이면서 붙잡아두는 핵심이다. 애플리케이션이나 서비스의 사례에 따라 그에 가장 적합한 LLM이 있기 때문에 기업은 GPT-4나 제미나이 활용을 필연적으로 고민할 수밖에 없다. 돌고 돌아 결국 애저나 구글클라우드로 흘러들어가게 되는 것이다. AWS가 엔트로픽 투자와 타이탄 LLM 강화를 병렬로 진행하는 것도 이같은 계산과 관련된다. 비록 아마존 타이탄의 인지도는 주요 LLM에 비해 극히 낮지만 자칫 주요 수요를 경쟁사에 내주는 상황을 차단하려면 AWS에서만 이용가능한 모델을 보유해야 이롭다. 상용 모델을 개발하는 스타트업의 경우 주요 투자처를 계속 확보하면서 발전해야 하는 입장이다. 오픈소스모델은 자발적 기여로 발전해야 하는데 모델 학습용 인프라 확보 문제 때문에 획기적 역량 확장은 현실적으로 어렵다. 라마2 정도가 메타란 강력한 후원을 바탕으로 발전 가능성을 갖고 있는데, 라이선스 정책 상 라마2로 상용 AI 서비스를 만들어 대규모 사업을 벌이는 건 불가능해 외부의 개발 동력이 떨어진다. 대형 클라우드 기업의 독점 LLM 선호는 탈 엔비디아 GPU란 명제와도 관련된다. 마이크로소프트가 마이아100을 공개하고, 구글클라우드가 클라우드TPUv5를 출시하며, AWS가 트레이니움과 인퍼런시아 칩의 업그레이드를 이어가고 있다. 모델의 최고 성능을 끌어내려면 AI 칩 최적화가 필수적인데, 여러 모델을 지원하는 것보다 특정 모델에 투자하는 게 더 효율적이다. 엔비디아 GPU 구매 및 운영비용을 줄이고 전용 칩으로 고객을 유도하는 게 클라우드 사업자의 운영부담을 줄이는 길이다. 상용 모델 중 GPT-4와 제미나이의 선두 입지는 당분간 공고할 것으로 전망된다. 두 모델 모두 텍스트모델에서 이미지, 오디오, 비디오 등을 모두 처리할 수 있는 멀티모달로 진화하고 있고 발전속도와 성능에서 경쟁 모델을 압도한다. 클라우드 사업자들이 고객 이동을 막고, 지속적으로 신규 수요를 이끌어내는데 현 상황에서 독점 LLM보다 나은 선택지가 없다.