한국IBM "생성형 AI로 더 복잡해진 IT, 자동화는 필수"
“오늘날 기업들은 다양한 클라우드 환경과 수 많은 애플리케이션을 비즈니스에서 활용하고 있으며, 이 환경은 생성형 AI의 도입으로 더욱 복잡해지고 있다. 생성형 AI가 2028년까지 최대 10억 개의 앱을 만들어낼 것으로 예상되는 상황에서 자동화는 더 이상 선택 사항이 아니다.” 이은주 한국IBM 사장은 13일 서울 여의도 본사에서 개최된 기자간담회에서 이같이 밝혔다. 이날 한국IBM은 하이브리드 클라우드와 AI, 자동화를 중심으로 한 비즈니스 전략과 포트폴리오를 업데이트하고, 최근 발표한 왓슨x 플랫폼 관련 기술들에 대해 소개했다. 이은주 한국IBM 사장은 “자동화를 통해 기업은 시간을 절약하고, 문제를 해결하고, 더 빠르게 의사 결정을 내릴 수 있다”며 “하이브리드 클라우드와 AI 기술은 비즈니스 성장에 실질적인 도움을 줄 수 있는 성숙 단계에 접어들고 있다”고 말했다. 이은주 사장은 "AI 기술 혜택을 기업고객에게 전달하기 위해 수립한 IBM의 4가지 원칙인 '개방성, 신뢰성, 맞춤형, 역량 강화' 등을 기반으로 제품을 개발하는데 집중하고 있다"고 소개했다. 이 사장은 “IBM은 업계에서 가장 완벽한 자동화 솔루션을 제공하고 있다”며 “IBM은 통합가시성, 네트워크, 고객사의 기술 관련 비용, 인사이트 확보 자동화의 모든 측면을 고려한 포트폴리오를 보유하고 있다”고 강조했다. 기업은 인스타나(Instana)를 통해 퍼블릭, 프라이빗 클라우드, 엣지 디바이스 등 다양한 환경에서의 운영 상태에 대한 자동화된 통합가시성을 가질 수 있다. 앱티오(Apptio)를 사용하면 기술 투자에 대한 지출과 여기에서 창출된 비즈니스 가치를 명확하게 파악해 데이터에 기반한 투자 결정을 내리고, 변화하는 시장 상황에 신속하게 대응할 수 있다. 자원 최적화 관리 솔루션인 터보노믹(Turbonomic)을 활용하면 자원을 사용하지 않을 시간대에는 중지하거나 과다 할당된 경우 자원을 줄여 비용 절감할 수 있는 기회를 찾아낸다. 특히, 이러한 기술은 최근 AI 플랫폼이나 자체 거대언어모델(LLM) 구축 시 가장 큰 문제가 되고 있는 GPU 자원 최적화에도 적용이 가능하여, 기업의 하드웨어와 소프트웨어 인프라 비용 및 GPU 비용 절감에도 도움을 줄 수 있다. 이러한 제품에 더해 최근 IBM은 인프라 수명주기 관리와 보안 수명주기 관리로 멀티 클라우드 및 하이브리드 환경을 자동화하는 테라폼, 볼트 등의 제품을 제공하는 하시코프를 인수하기로 했다. 하시코프를 통해 고객은 멀티 클라우드 및 하이브리드 클라우드 환경으로 쉽게 전환하고 이를 운영할 수 있다. 이은주 사장은 곧 출시될 새로운 생성형 AI 기반 툴인 IBM 콘서트도 소개했다. 왓슨x의 AI를 기반으로 하는 IBM 콘서트는 고객의 애플리케이션 포트폴리오 전반에 걸쳐 문제를 식별, 예측, 해결책을 제시하는 생성형 AI 기반 통찰력을 제공한다. 이 새로운 도구는 고객의 기존 시스템에 통합되어 생성형 AI를 사용하여 클라우드 인프라, 소스 리포지토리, CI/CD 파이프라인 및 기타 기존 애플리케이션 관리 솔루션의 데이터와 연결하고 연결된 애플리케이션에 대한 자세한 시각정보를 제공한다. IBM 리서치의 케이트 소울 생성형 AI 리서치 프로그램 디렉터는 최근 IBM에서 발표한 왓슨x 관련 정책, 기술과 그 의미에 대해 설명했다. 최근 IBM은 IBM에서 성능이 가장 뛰어난 언어 및 코드 그래니트 AI 모델 제품군을 오픈 소스로 배포했다. 이로써 고객, 개발자, 글로벌 전문가들은 엔터프라이즈 환경에서 AI가 달성할 수 있는 한계를 확장할 수 있게 됐다. 현재 허깅페이스와 깃허브에서 아파치 2.0 라이선스로 제공되는 오픈 소스 그래니트 모델은 개발 프로세스, 품질, 투명성, 효율성 면에서 매우 뛰어나다. 그래니트 코드 모델은 30억 개~340억 개의 매개변수 범위에서 기본형과 명령어 추종형 모델들로 제공되며 복잡한 애플리케이션 현대화, 코드 생성, 버그 수정, 코드 설명 및 문서화, 리포지토리 유지 관리 등의 작업에 적합하다. 파이썬, 자바스크립트, 자바, 고, C++, 러스트 등 116개 프로그래밍 언어가 학습되어 있는 그래니트 코드 모델은 IBM의 테스트 결과, 두 배나 큰 다른 오픈 소스 코드 모델보다 우수한 성능을 보이는 등 다양한 코드 관련 작업에서 오픈 소스 코드 거대언어모델(LLM) 중 최고 수준의 성능을 발휘하는 것으로 나타났다. 이와 함께 케이트 소울 디렉터는 LLM 성능을 높이기 위해 IBM과 레드햇이 함께 개발한 인스트럭트랩을 소개했다. 인스트럭트랩 방법론은 수십 년 동안 오픈 소스에서 소프트웨어 개발이 진행돼 온 것처럼 지속적이고 점진적 기여를 통해 기본 모델을 지속적으로 발전시킬 수 있도록 한다. 기업의 개발자는 인스트럭트랩을 통해 자사의 데이터로 해당 비즈니스 도메인이나 산업에 특화된 모델을 구축할 수 있으므로 AI의 직접적인 가치를 확인할 수 있다. IBM은 이 접근법을 왓슨x.ai 및 새로운 레드햇 엔터프라이즈 리눅스 AI(RHEL AI) 솔루션에 통합함으로써 고객에게 추가적인 가치를 제공하는데 이러한 오픈 소스 기여 모델을 활용할 계획이다. 이은주 사장은 “점점 더 많은 고객이 하이브리드 클라우드로 가고 있으며, 복잡한 IT 환경은 생성형 AI 활용으로 훨씬 더 복잡해지고 있다”며 “IBM은 레드햇 , 왓슨X, 각종 자동화 도구를 제공해 비용을 절감하고 윤영을 더 쉽게 하며, 기업에게 운영 인사이트를 제공하는데 집중하겠다”고 밝혔다.