• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스 클라우드'통합검색 결과 입니다. (20건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

티맥스티베로, 오픈소스 DB 솔루션 '오픈SQL 3' 출시…성능·보안 '강화'

티맥스티베로가 클라우드 네이티브 환경에서의 성능과 안정성을 개선한 새로운 오픈소스 데이터베이스 관리 시스템(DBMS) 플랫폼을 선보인다. 티맥스티베로는 엔터프라이즈급 오픈소스 DB 솔루션 '오픈SQL 3'를 정식 출시했다고 29일 밝혔다. 오픈SQL은 글로벌 오픈소스 커뮤니티 DB인 '포스트그레SQL' 기반의 DBMS 플랫폼이다. 티맥스티베로의 DB 기술력과 노하우를 토대로 상용 소프트웨어(SW) 수준의 성능·보안 및 관리·기술지원 등 체계적인 서비스를 함께 제공한다. 현재 공공기관 시스템 통합, 공공 온라인 학습 시스템 구축, 금융사 대고객 서비스 사업 등에 성공적으로 적용된 사례를 다수 보유하고 있다. 이번 신규 버전은 클라우드 네이티브 환경에서의 성능과 안정성을 종합적으로 강화하는 한편, 연결 관리·부하 분산·장애 대응 기능을 분리·모듈화해 시스템 효율성과 확장성이 개선됐다. 특히 메모리·중앙처리장치(CPU)의 자원을 효율적으로 사용할 수 있는 새로운 아키텍처를 적용해 동시 접속 처리 능력과 데이터 처리 속도를 크게 향상했다. 기존 단일 프로그램이 담당하던 역할을 ▲커넥션 풀러 ▲로드 밸런서 ▲고가용성 클러스터 매니저에 분리한 것이다. 또 장애 발생 시 자동 복구하는 기능을 강화하고 운영 중에도 서버를 자유롭게 확장·축소할 수 있게 해 미션 크리티컬한 업무에서도 높은 가용성을 보장한다. 무엇보다 보안 정책 수준을 제고해 고객의 오픈소스 도입 우려 사항을 해소시켰다. 상용 DB 솔루션처럼 주요 보안 취약점에 대한 최신 패치를 정기적으로 배포해 고객의 신속한 보안 위협 대응과 안전한 DB 운영 환경을 지원한다. 티맥스티베로는 대규모 인공지능(AI) 데이터 처리·학습·추론 환경에서도 우수한 DB 솔루션을 제공한다는 목표다. 이에 AI 워크로드 최적화를 위한 주요 AI 프레임워크 연동 모듈도 제품에 순차적으로 추가할 계획이다. 박경희 티맥스티베로 대표는 "오픈SQL 3는 클라우드 네이티브 시장 변화와 산업의 요구를 철저히 반영해 설계됐다"며 "상용 SW와 오픈소스 수요를 모두 충족하고 글로벌 경쟁력을 충분히 갖춘 다양한 고성능 DB 솔루션으로 고객의 디지털 혁신을 적극 돕겠다"고 밝혔다.

2025.05.29 15:00한정호

레드햇-구글클라우드, 엔터프라이즈 AI 추론 강화 협력

레드햇이 구글클라우드와 협력을 확대해 인공지능(AI) 추론 성능을 높이고 대규모 배포를 지원하는 환경을 구축한다. 레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 ·구글의 개방형 모델 제품군 '젬마'를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 29일 밝혔다. 레드햇은 구글의 젬마 모델과 가상거대언어모델(vLLM)을 결합해 AI 추론 효율을 높일 방침이다. 대규모언어모델분산(llm-d) 프로젝트 론칭·에이전트투에이전트(A2A) 프로토콜 참여로 에이전틱 AI 확장을 도모할 계획이다. 레드햇은 젬마3 배포판에서 vLLM의 0일차 지원을 제공해 생성형 AI 애플리케이션의 출력 속도를 높인다. vLLM은 오픈소스 추론 서버로 빠르고 비용 효율적인 AI 플랫폼을 제공해 엔터프라이즈 고객의 반응성을 강화한다. 구글클라우드 텐서처리장치(TPU) 및 그래픽처리장치(GPU) 기반 가상머신에서 vLLM 사용이 가능해지면서 개발자는 성능과 효율성을 극대화할 수 있다. 또 레드햇은 llm-d 오픈소스 프로젝트를 통해 이기종 리소스 전반에서 AI 추론의 확장성·비용 최적화·워크로드 효율성을 개선한다. 레드햇 AI 인퍼런스 서버는 구글 클라우드 상에서 최신 커뮤니티 개선 사항을 반영해 기업용 모델 추론 최적화를 지원한다. 이를 통해 기업은 신뢰할 수 있는 인프라에서 대규모 AI 모델을 빠르고 안정적으로 배포할 수 있게 된다. 레드햇 브라이언 스티븐스 AI 부문 수석 부사장 겸 최고기술책임자는 "이번 협력 확대를 통해 획기적 AI 혁신을 주도할 것"이라며 "vLLM과 오픈소스 기술로 개발자는 최적화된 추론 기반의 고성능 AI 솔루션을 구축할 리소스를 확보할 수 있다"고 밝혔다. 구글클라우드 마크 로마이어 AI 및 컴퓨팅 인프라 부문 부사장 겸 총괄은 "이번 협력은 AI 잠재력을 고객에게 제공한다는 양사 비전의 결과"라며 "조직이 AI 추론을 효과적으로 확장하고 고성능 에이전틱 AI를 구현할 길을 열었다"고 말했다.

2025.05.29 14:53김미정

과기정통부, '오픈소스 아카데미' 개최…AI·SW 기여할 300명 선정

과학기술정보통신부(과기정통부)가 국내 예비 개발자 300명을 대상으로 세계 유수의 오픈소스 프로젝트에 직접 참여할 기회를 제공한다. 과기정통부는 '2025 오픈소스 컨트리뷰션 아카데미' 참여자 모집을 시작한다고 27일 밝혔다. 모집 기간은 다음달 22일까지이며 국내외 유명 오픈소스 프로젝트 15종에 멘티 300명을 선발한다. 선발된 인원은 오는 7월부터 네달간 각 프로젝트에서 실습과 멘토링을 병행하며 활동하게 된다. 이 프로그램은 단순 교육이 아닌 실전 참여형 방식이다. 예비·초급 개발자들이 실제 오픈소스 생태계에 기여하며 기술력과 협업 경험을 쌓도록 설계됐다. 특히 올해는 허깅페이스, 파이오다이드 등 AI 관련 프로젝트의 비중이 늘어나 AI 개발 역량을 갖춘 인재를 양성하려는 의도가 강하게 반영됐다. 멘토는 각 프로젝트의 리더급 개발자로 구성된다. 커미터 또는 핵심 의사결정권자가 직접 1:1 교육을 제공하며 활동팀에는 개발 인프라를 포함한 프로젝트 운영 자원이 지원된다. 활동 결과에 따라 과기정통부 장관상이 수여되며 최대 200만원의 상금이 주어지는 경쟁 체계도 갖췄다. 선발된 멘티들은 자신이 선택한 프로젝트에 따라 20명 내외로 팀을 이루며 오픈소스 도구 활용 역량과 기술 수준, 관심 분야 등을 고려해 매칭된다. 교육과 실습을 병행하며 프로젝트 완성도를 높이고 평가 결과에 따라 대상, 최우수상, 우수상, 장려상이 각각 1팀씩 수상한다. 참가 신청은 공개 소프트웨어 포털을 통해 가능하며 선정 결과는 오는 7월 7일 발표된다. 아카데미 종료 후에는 소프트웨어 주간과 연계한 시상식이 예정돼 있다. 신청 요건은 오픈소스 기여 의지가 있고 개발 및 도구 활용에 대한 기본 역량을 갖춘 자라면 누구나 가능하다. 황규철 과기정통부 소프트웨어정책관은 "AI 등의 발전에 오픈소스의 중요성이 부각되고 있으며 오픈소스 기여 경험이 AI·SW 개발자의 필수 역량으로 평가받고 있다"며 "예비 개발자들이 글로벌 인재로 성장할 수 있기를 기대한다"고 밝혔다.

2025.05.27 16:45조이환

네이버 하이퍼클로바X, 오픈소스 공개 한 달만에 30만 다운로드 돌파

네이버클라우드의 오픈소스 인공지능(AI) 모델이 글로벌 시장에서 인기를 끌며 경쟁력을 입증하고 있다. 네이버클라우드는 지난달 24일 공개한 오픈소스 AI '하이퍼클로바X 시드' 3종 모델이 출시 한 달여 만에 30만 다운로드를 넘어섰다고 26일 밝혔다. 이는 글로벌 AI 모델 공유 커뮤니티 '허깅페이스'에 등록된 모델 중 상위 약 0.03%에 해당하는 수치로, 하이퍼클로바X의 영향력이 글로벌로 확대되고 있는 모습이다. 텍스트와 이미지, 영상 정보를 함께 처리할 수 있는 시각언어모델인 '하이퍼클로바X 시드 3B'는 약 26만 7천 회 다운로드를 기록하며 3종 모델 중 가장 큰 호응을 얻었다. 네이버클라우드가 한국어 및 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크의 평균 점수를 비교한 결과, 하이퍼클로바X 시드 3B는 유사 규모의 미국·중국 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과 유사한 정답률을 보여 성능 경쟁력을 입증한 바 있다. 텍스트 모델인 '하이퍼클로바X 시드 1.5B'와 '하이퍼클로바X 시드 0.5B'도 약 3만5천 회의 다운로드를 기록했다. 특히 두 모델을 기반으로 29개에 달하는 파생 모델이 만들어지는 등 다양한 개선과 실험이 이뤄졌다. 개발자들은 "작은 크기에도 불구하고 균형 잡힌 언어 성능과 뛰어난 안정성이 돋보인다"며 "CPU 환경에서도 빨라 사내용 챗봇으로 매우 손쉽게 활용할 수 있을 것 같다"고 말했다. 네이버클라우드는 현재 개발 중인 하이퍼클로바X 추론 모델도 다음 달 대화형 AI 서비스 '클로바X'를 통해 선보일 계획이다. 또 하이퍼클로바X 음성 모델을 활용한 서비스도 향후 순차적으로 선보일 예정이다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "프롬 스크래치로 개발한 생성형 AI 모델이 글로벌 오픈소스 커뮤니티에서 주목받고 있어 뜻깊게 생각한다"고 말했다. 이어 "한국어를 비롯해 여러 언어와 문화를 이해하는 각각의 모델들이 공존할 수 있도록 AI 생태계에 다양성을 더할 것"이라며 "이를 기반으로 더욱 혁신적인 기술과 서비스가 나오는 데에 하이퍼클로바X가 기여할 수 있기를 기대한다"고 덧붙였다.

2025.05.26 14:59한정호

생성형 AI 시대, 늘어나는 오픈소스 SW 도입…"보안·거버넌스 마련해야"

생성형 인공지능(AI) 시대를 맞아 클라우드 네이티브 인프라와 이를 구성하는 오픈소스 소프트웨어(SW) 도입이 크게 늘고 있는 양상이다. 이에 맞춰 오픈소스 취약점을 보완하고 거버넌스를 마련해야 할 것으로 전망된다. 13일 오픈로직이 433명의 글로벌 IT 전문가를 대상으로 수행한 설문조사 결과에 따르면 응답자의 95%가 오픈소스 SW를 사용하고 있는 것으로 조사됐다. 특히 응답자의 40%는 클라우드 네이티브의 구성요소인 컨테이너 기술을 사용 중이며 컨테이너 관리 도구로는 59%가 '도커'를, 39%는 '쿠버네티스'를 이용하는 것으로 나타났다. 주목할 점은 26% 이상의 응답자가 지난해 오픈소스 SW 사용이 크게 증가했다고 답변한 것이다. 응답자 53%는 오픈소스를 사용하는 주된 이유로 비용 절감을 꼽았다. 다음으로는 공급업체 종속성 탈피(33%)와 개방형 표준 및 상호 운용성 준수(28%) 등이 뒤를 이었다. 오픈소스 SW는 시스템 구축과 비용 절감에 있어 여러 대안을 제공해 주지만, 기업이 해결해야 할 과제도 포함하고 있다. 이번 설문조사에서 IT 리더들은 오픈소스 SW를 도입할 때 직면하는 가장 큰 어려움으로 인력 부족(57%)과 기술·경험·숙련도 부족(54%) 등을 꼽았다. 또 수준 높은 실시간 기술 지원의 부족(52%)도 주요 문제로 답변했다. 이번 조사에서 다양한 오픈소스 기술에 대한 전문가를 보유한 기업은 31%에 불과한 것으로 나타났다. 오픈로직의 매튜 와이어 오피니 수석 제품 매니저는 "기업들이 더 광범위한 오픈소스 기술을 구현할 만큼의 IT 전문 지식은 부족하다"며 "50%는 교육을 통해 이 문제를 해결하고 있으며 31%는 외부 계약업체와 컨설턴트를 고용하고 25%는 외부 공급업체와 협력 중"이라고 설명했다. 특히 기업들은 빅데이터 플랫폼 구축에도 어려움을 겪는 것으로 조사됐다. 47%의 응답자는 내부 빅데이터 스택 관리에 자신이 없다고 답했다. 주요 요인으로는 여러 소스의 데이터 통합(59%), 데이터 품질·거버넌스(41%), 확장성·성능(38%), 보안·규정 준수(35%), 기술 격차·전문성(35%)이 꼽혔다. 아울러 기업이 오픈소스 SW를 배포·유지·관리할 때 직면하는 가장 큰 과제로는 ▲업데이트·패치 적용(64%) ▲보안·규정 준수 정책 충족(60%) ▲수명 종료(EOL) 버전 유지(59%) ▲설치· 구성·업그레이드 문제(57%)로 조사됐다. 실제 많은 기업에서 오픈소스 SW를 이미 기술 지원이 종료된 EOL 버전으로 유지하고 있는 사례가 늘고 있다. 이번 조사에서도 응답자의 41%가 지원 종료된 센트OS와 앵귤러JS를 사용 중인 것으로 나타났다. 또 이들 기업은 지난해 규정 준수 감사를 통과하지 못했다고 답했다. 이번 설문조사에서 오픈소스 보안, 규정 준수 및 거버넌스 정책을 보유한 조직은 35%에 불과한 것으로 조사됐다. 매튜 와이어 오피니 수석 제품 매니저는 "오픈소스 SW가 독점 SW에 비해 매력적인 대안을 제공하지만, 기업은 SW 소프트웨어를 배포하고 유지하는 데 필요한 사항을 현실적으로 판단해야 한다"고 강조했다. 이어 "내부적으로 전문 지식을 키우든 외부 서비스 제공업체에 의존하든 오픈소스 SW에는 기업이 고려해야 할 몇 가지 내재적 비용이 따른다"고 덧붙였다.

2025.04.13 14:12한정호

[현장] 어려운 클라우드 네이티브·AI 운영…글로벌 오픈소스 기업 수세의 지원방안은?

수세가 최적의 오픈소스 기반 플랫폼을 앞세워 클라우드 네이티브와 생성형 AI 운영·관리에 어려움을 겪는 국내 금융권 대상 지원에 나선다. 수세의 베르너 크노블리히(Werner Knoblich) 총매출책임자(CRO)는 2일 콘래드 호텔 서울에서 개최한 '금융 IT 리더를 위한 수세 오픈소스 데이' 행사에서 "AI를 뒷받침하는 인프라와 여러 구성요소의 표준으로 오픈소스가 자리 잡은 가운데 자사는 고객에게 가장 넓고 최적의 오픈소스 선택지를 제공한다"고 강조했다. 이날 행사는 클라우드 네이티브 전환을 위한 오픈소스 전략과 수세의 솔루션을 공유하는 자리로 마련됐다. 행사에는 베르너 크노블리히 CRO를 비롯해 최근홍 수세코리아 지사장과 파트너사인 HPE와 샤맥스, 국내 금융기업 IT 담당자들이 참석했다. 최근 금융권의 생성형 AI 도입·개발이 활발해짐에 따라 AI 애플리케이션이 구동되는 핵심 기반인 컨테이너와 쿠버네티스 등 클라우드 네이티브 인프라 운영이 중요한 과제로 떠올랐다. 이에 금융권을 비롯한 많은 기업이 조직의 인프라 환경과 연계해 활용할 수 있는 다양한 오픈소스 소프트웨어(SW)를 도입하는 추세다. 다만 어떤 오픈소스를 선택해야 할지, 보안 취약점이 있지는 않은지 등 전반적인 사항들을 많은 비용과 시간을 들여 고려해야 하는 실정이다. 또 레거시 시스템부터 퍼블릭·프라이빗·하이브리드 클라우드 등 여러 인프라를 통합 관리할 수 있는 역량도 요구된다. 베르노 크로블리히 CRO는 "클라우드 인프라와 AI 운영에 있어 전 세계적으로 비용 최적화, 애플리케이션 현대화, 보안 확보, 안전한 AI 도입과 활용 등의 공통된 어려움을 겪고 있다"며 "특히 금융권은 보안에 더욱 민감해야 하기에 수세는 오픈소스의 취약점을 보완한 최적화된 솔루션을 제공 중"이라고 설명했다. 수세는 AI 시스템 구축에 필요한 주요 과제들을 해결할 수 있는 오픈소스 기반 서비스로 '수세 랜처 프라임'과 '수세 AI'를 지원하고 있다. 수세 랜처 프라임은 가상화 환경부터 클라우드, 나아가 에지 환경까지 단일 콘솔을 통해 통합 관리할 수 있는 쿠버네티스 기반 솔루션이다. 기본적인 오픈소스 쿠버네티스 엔진부터 아마존웹서비스(AWS)·마이크로소프트(MS)·구글 클라우드 등 주요 클라우드 서비스 기업들이 제공하는 쿠버네티스 엔진까지 다양하게 지원한다. 이를 통해 고객의 클라우드 네이티브 인프라와 컨테이너 상의 AI 애플리케이션이 안정적으로 운용될 수 있도록 돕는다. 더 나아가 수세는 AI 운영을 위한 오픈소스 SW 스택을 폭넓게 제공하는 AI 특화 플랫폼 수세 AI를 공급한다. 수세 AI는 GPU 리소스 등 인프라 사용량 가시성 확보를 위한 모니터링 툴부터 머신러닝(ML) 워크플로우 관리까지 지원한다. 거대언어모델(LLM) 관리·배포를 위한 올라마(Ollama), 벡터 데이터베이스인 밀버스(Milvus), ML 라이브러리 파이토치(PyTorch) 등 모두 수세가 검증하고 최적화한 오픈소스 툴들로 구성돼 있다. 여기에 더해 보안 확보를 위한 오픈소스 컨테이너 보안 플랫폼 뉴벡터(NeuVector)도 지원한다. 수세는 이 같은 오픈소스 기반 플랫폼과 기술지원 서비스를 바탕으로 국내 금융권에서 추진되는 클라우드 네이티브 전환과 AI 구축 프로젝트를 긴밀히 지원한다는 방침이다. 베르노 크로블리히 CRO는 "가장 안전하고 사용하기 쉬운 오픈소스를 맞춤형으로 지원해 고객의 선택지를 넓히겠다"고 말했다. 최 지사장은 "다양한 오픈소스들을 두고 고민하는 고객들을 위해 자사는 가장 신뢰할 수 있는 수세 오픈소스 기반 플랫폼 랜처 프라임과 AI 스택을 제안한다"며 "고객들의 AI 프로젝트를 옆에서 함께 지원해 나가겠다"고 밝혔다.

2025.04.02 14:46한정호

알리바바, AI 경량 모델 오픈소스 공개…에이전트 사업 확장

알리바바그룹이 새 멀티모달 인공지능(AI) 모델을 출시해 통합형 AI 에이전트 사업 확장에 나섰다. 알리바바클라우드는 자사 큐원 시리즈의 통합 엔드투엔드 멀티모달 모델인 '큐원2.5-옴니-7B'를 오픈소스로 공개했다고 31일 밝혔다. 이 모델은 70억 파라미터로 구성된 경량형 모델이지만 성능 저하 없이 다양한 작업을 수행할 수 있다는 평가를 받고 있다. 큐원2.5-옴니-7B는 실시간 음성 생성을 비롯한 명령어 이행, 영상 분석 등에서 산업별 AI 활용 사례를 확장할 수 있는 기반을 제공한다. 예를 들어 시각 장애인을 위한 음성 내비게이션, 영상 기반 요리 가이드, 지능형 고객응대 시스템 등에 적용 가능하다. 해당 모델은 텍스트 생성과 음성 합성을 분리한 '싱커-토커 아키텍처'와 모달 간 동기화를 위한 시간 정렬 멀티모달 로프 임베딩(TMRoPE), 저지연 스트리밍 응답을 위한 블록와이즈 처리 구조로 이뤄졌다. 모델은 이미지-텍스트, 영상-음성, 음성-텍스트 등 여러 조합의 데이터셋 기반으로 사전학습돼 멀티모달 태스크가 가능하다. 알리바바클라우드는 이 모델이 텍스트 기반 성능에 근접하는 수준의 정밀도를 유지하면서도 다양한 모달을 통합해 해석할 수 있다고 주장했다. 또 상황 기반 음성 이해 능력을 강화한 인컨텍스트 러닝을 통해 자연스러운 응답 흐름을 구현했다. 강화학습 기반 최적화 과정에서 발음 오류, 음성 중단 등 문제를 최소화했다. 알리바바클라우드는 이 모델을 허깅페이스와 깃허브, 모델스코프 등에 공개했다. 큐원챗에도 모델을 통합한 상태다. 알리바바클라우드는 "큐원2.5-옴니는 단일 모달 모델과 비교해도 뒤처지지 않는 성능을 보인다"며 "특히 윰니벤치 평가에서는 최고 수준의 결과를 기록했다"고 강조했다.

2025.03.31 14:43김미정

엘리스클라우드, 오픈소스 AI 생태계 최적화 솔루션 선보여

엘리스그룹(대표 김재원)의 AI 특화 클라우드 '엘리스클라우드'가 오픈소스를 포함한 다양한 범용 AI 모델을 클라우드 환경에서 안전하고 편리하게 사용할 수 있는 솔루션을 20일 공개했다. 엘리스클라우드는 기존 머신러닝(ML) API 기능을 업그레이드해 오픈소스 AI 모델을 맞춤형 AI 인프라에서 활용할 수 있는 'ML API 라이브러리' 기능을 선보였다. 이번 업그레이드의 특징은, 별도의 설치, 설정 없이 다양한 오픈소스 AI 모델도 편리하게 쓸 수 있는 최적화된 GPU·NPU 환경을 제공하는 것이다. API 기반 솔루션이 제공되는 일반 상용 AI 모델과 달리 오픈소스 AI 모델은 사용하는 모델에 따라 환경을 설정해야 하고, 원하는 특정 작업에 맞추는 파인 튜닝과정이 필요하다. 이런 어려움을 해소하기 위해 엘리스클라우드는 GPU·NPU 환경을 각 오픈소스 모델에 최적화하고, 최적화된 API를 제공한다. 딥시크의 R1, 메타의 라마 등 오픈소스를 포함한 다양한 AI 모델에 따라 맞춤형으로 구성한 고성능 AI 인프라 환경에서 AI 챗봇 등을 개발하고 관리, 배포까지 간편히 할 수 있다. 엘리스클라우드가 협약을 맺은 퓨리오사AI, 리벨리온의 최신 NPU를 활용한 고성능 컴퓨팅 서비스도 제공한다. 엣지데이터센터인 엘리스 AI PMDC(Portable Modular Data Center, 이동형 모듈러 데이터 센터) 기반의 프라이빗 클라우드 환경에서 실행돼 민감한 데이터의 외부 유출도 방지한다. 엘리스 AI PMDC는 모듈 단위로 구성이 가능해 물리적 격리가 가능하고, AI 수요 변화에 민첩하게 대응하는 것은 물론 전력효율지수(PUE)를 1.27까지 낮춰 뛰어난 에너지 효율도 갖췄다. 엘리스클라우드는 연내 운영을 목표로 1기당 1MW급 AI PMDC를 설계 및 구축하고 있다. 고밀도 전력과 발열을 안정적으로 관리하기 위해 공간 최적화 설계와 직접액체냉각(DLC) 기술을 도입, 업계 최고 수준인 랙 당 160kW전력으로 엔비디아 B100을 비롯한 최신 고성능 GPU를 지원하도록 설계된다. 김재원 엘리스그룹 대표는 "현재 고성능 GPU H100 5천장까지 수용할 수 있는 AI PMDC 설계·구축했고, 이는 국내 클라우드 기업 중 최대 규모일 것으로 예상한다"며 "엘리스클라우드 사업 본격화를 위해 GPU 확보에 더불어 R&D를 통한 기술 혁신과 투자에 집중하겠다"고 밝혔다.

2025.02.20 11:21백봉삼

"레드햇, AI 대중화·클라우드 현대화로 IT 혁신 가속"

한국레드햇이 2025년 핵심 전략으로 클라우드 네이티브 애플리케이션 현대화와 AI 대중화, 엣지 컴퓨팅 확산을 제시했다. 올해를 AI 확산과 클라우드 현대화의 원년으로 삼아 국내시장에 본격적인 AI기술 도입을 위한 기반을 마련하고, 성공 사례를 확보한다는 방침이다. 김경상 한국레드햇 대표는 3일 여의도 사옥에서 진행한 인터뷰에서 기업들이 AI를 보다 쉽게 활용할 수 있도록 AI 대중화에 주력할 계획이라며 올해 사업 계획을 소개했다. 레드햇은 AI 대중화, 클라우드 네이티브 앱 현대화, 엣지 컴퓨팅 확산을 핵심 전략으로 설정하고 있다. AI 대중화는 AI 도입 과정에서 요구하는 비용, 기술 역량 등을 낮춰 모든 기업에서 보다 쉽게 도입하고 활용할 수 있도록 진입장벽을 낮추는 것에 중점을 둔 전략이다. 중소, 중견 기업들도 각 업무환경이나 특성에 맞춰 필요한 AI 솔루션을 구축하고 운영할 수 있도록 돕는 것을 목표로 한다. 레드햇은 GPU 없이 AI 워크로드를 운영할 수 있는 기술을 보유한 뉴럴 매직을 인수하며 막대한 AI 인프라 최적화 및 비용을 절감할 수 있는 환경을 조성하고, AI 모델을 쉽게 학습 및 튜닝할 수 있도록 렐 AI(RHEL AI) AI 및 오픈시프트 AI(OpenShift AI)의 플랫폼을 지원한다. 더불어 AI를 쉽게 도입할 수 있도록 전문 컨설팅 및 지원 서비스를 지원하고 파트너 네트워크를 강화한다. 김 대표는 "AI 도입의 가장 큰 장애물은 고사양 하드웨어 및 전문 인력 부족"이라며 "레드햇은 기업들이 보다 쉽게 AI를 활용할 수 있도록 인프라 최적화 및 모델 튜닝 기술을 개발하고 있다"고 설명했다. 또한 지난해 브로드컴의 VM웨어 가격 인상으로 인해 가상화 시장이 변화하고 있는 가운데 레드햇은 가상머신(VM)을 컨테이너 중심으로 전환을 추진하고 있다. CPU, 메모리, 디스크 등의 자원을 많이 소모하는 가상머신과 달리 컨테이너는 OS 커널을 공유하며 앱단위로 실행되기 때문에 리소스 사용량이 적고 성능이 최적화할 수 있기 때문이다. 또한 빠른 배포 및 실행이 가능해 급격하게 변하는 시장 환경에 유연하게 대응할 수 있다는 장점이 있다. 레드햇은 오픈시프트 기반의 컨테이너 오케스트레이션을 통해 기존 VM을 점진적으로 컨테이너로 전환할 수 있도록 지원하고 있으며, 기업들이 보다 유연하고 비용 효율적인 IT 환경 구축을 돕는다는 계획이다. 김 대표는 "우리는 VM웨어 와 단순한 경쟁 구도가 아니라, 클라우드 컨테이너 기반으로 가상머신 현대화를 주도하는 방향으로 나아가고 있다"고 강조했다. 레드햇은 금융, 공공 등 기존에 주력해온 분야를 비롯해 제조, 유통 등 신규 시장으로 저변 확대에 나선다. 이미 삼성전자와 협업해 일본 통신사 KDDI에 오픈랜 공급하는 사업을 수주하는 등 엣지컴퓨팅 시장에서 성과를 기록 중이다. 레드햇 차량용 운영체제(RHIVOS)를 기반으로 한 신규 사업도 자동차 관련 소프트웨어(SW)를 개발 중인 국내 기업들과 논의를 진행하고 있다. 또한 지난해 배포용 리눅스인 센트OS(CentOS)를 센트OS 스트림(CentOS Stream)으로 전환했다. 김경상 대표는 "기대에 비해 센트OS가 오픈소스 생태계 기여도가 낮았기 때문에, 보다 발전적인 방향으로 공개 방식을 변경한 것"이라며 "레드햇은 오픈소스의 가치를 유지하고, 기업들이 안전하게 사용할 수 있도록 품질 보완 및 보안 지원을 지속할 것"이라고 설명했다. 이어서 그는 "올해는 변화하는 시장 환경에 발맞추어 빠르고 유연한 대응이 필수적인 해가 될 것"이라며 "한국 기업들이 AI와 오픈소스를 활용하여 혁신을 가속화할 수 있도록 지원을 아끼지 않으며 고객과의 신뢰를 기반으로 성장하는 한 해가 되도록 최선을 다하겠다"고 강조했다.

2025.02.03 15:50남혁우

알리바바, 새 AI 모델 출시…"오픈AI·딥시크·메타 능가"

알리바바가 오픈AI와 메타, 딥시크의 모델을 능가하는 새 인공지능(AI) 모델을 개발했다고 주장했다. 29일 알리바바는 세 번째 AI 모델 '큐원(Qwen) 2.5-맥스' 출시 소식을 소셜미디어 위챗 계정을 통해 이같이 밝혔다. 큐원 2.5-맥스가 오픈AI의 GPT-4o와 딥시크-V3, 메타의 라마-3.1-405B를 거의 모든 영역에서 뛰어넘었다는 주장이다. 알리바바는 "이번 모델의 사전 훈련 데이터는 토큰만 20조개를 넘는다"고 "전 세계에서 가장 진보한 오픈소스 AI 모델"이라고 강조했다. 테크크런치 등 외신은 딥시크 돌풍 속에서 중국 기업이 미국뿐 아니라 자국 기업끼리도 AI 경쟁을 본격화했다고 평했다. 앞서 지난해 5월 딥시크가 딥시크-V2 사용료를 100만 토큰당 1위안(약 200원)으로 제시하자 알리바바는 자사 모델 가격을 97%까지 낮추면서 국내 기업 간 경쟁을 시작했다. 이후 텐센트와 바이두 등 중국 빅테크도 AI 모델 경쟁에 합류했다. 이런 가운데 딥시크가 최근 가성비를 앞세워 딥시크 R1을 새로 출시했다. 이를 통해 중국을 넘어선 글로벌 AI 생태계를 강타했다. 이어 알리바바가 모델을 새로 출시해 재응수한 셈이다. 같은 날 틱톡을 운영하는 중국 바이트댄스도 플래그십 AI 모델 업데이트를 발표하면서 새 모델 성능이 오픈AI의 GPT-4o를 능가한다고 주장했다.

2025.01.30 10:35김미정

"오픈소스로 가상화 시장 혼란 극복"…레드햇의 전략은?

브로드컴의 VM웨어 라이선스 전환으로 서버 가상화 비용과 지속 가능한 운영에 부담이 늘어나는 추세다. 서버 가상화는 클라우드의 핵심적인 기술인 만큼 인공지능(AI)을 도입하거나 클라우드 전환을 고려하던 기업들의 혼란이 확대되고 있다. 레드햇은 고객사의 혼란에 대응하고 클라우드와 AI 시장 저변 확대를 위해 오픈소스 기반 가상머신(VM) 현대화를 비즈니스 핵심 전략 중 하나로 내세웠다. 이와 함께 중소, 중견기업을 포함한 전산업에 걸쳐 시장공략에 박차를 가하는 모습이다. 레드햇의 연례 오픈소스 기술 행사인 '레드햇 서밋: 커넥트 서울 2024'에서 만난 바지라 위라세케라 APAC 기술 담당 부사장은 한국 기업의 AI도입 현황과 급변하는 시대 안정적인 클라우드, AI도입 방안을 소개했다. 바지라 부사장은 IDC 조사 결과 72%의 한국 고객사에서 이미 AI를 사용하거나 곧 사용할 계획이라고 응답하는 등 한국은 전 세계에서 가장 AI 분야가 활발한 시장 중 하나라고 설명했다. 이러한 추세와 함께 AI 활용을 위해 제조, 유통, 통신 등 다양한 산업에서 하이브리드 클라우드, 멀티 클라우드 전략에 대한 수요 성장이 기대되고 있다. 하지만 인력과 기술적인 역량 부족으로 클라우드 및 AI 도입 과정에서 발생하는 복잡성을 감당하기 어렵고, 벤더 환경 변화로 증가가 우려되는 가상화 비용 등이 진입장벽으로 작용하며 실제 전환이 지체되고 있다는 것이 그의 설명이다. 레드햇은 이런 장벽을 극복하고 안정적인 클라우드 도입을 위해 점진적인 현대화 방안을 제시하고 있다. 점진적 현대화는 기존 VM 또는 온프레미스 환경을 한 번에 클라우드로 전환하는 것이 아니라 우선순위를 설정하여 단계적으로 진행하는 방식이다. 레드햇은 마이그레이션 어세스먼트(평가)를 통해 고객사의 현재 환경을 분석하고, 비용과 리스크를 최소화해 순차적으로 전환할 수 있도록 지원한다. 바지라 부사장은 "조직 내에서 작은 규모의 프로젝트를 먼저 전환한 후 점차 더 큰 규모로 확장하는 것이 유리하다"며 "고객은 작은 단위의 성공을 거듭하며 자신감과 경험을 축적하게 되고 이를 통해 보다 성공적으로 원하는 목표를 달성할 수 있다"고 설명했다. 레드햇은 효과적인 VM, 앱 현대화를 위한 방안으로 오픈 시프트 버추얼라이제이션을 제시했다. 오픈 시프트 버추얼라이제이션은 레드햇 오픈 시프트 플랫폼에서 가상머신과 컨테이너를 한 번에 실행할 수 있는 기능이다. 이를 통해 사용자는 클라우드 전환하지 않은 워크로드와 컨테이너 기반 앱을 통합 운영 관리할 수 있다. 온프레미스와 클라우드 환경을 통합 운영하는 만큼 관리의 복잡성을 줄이고, 각각 별도의 인프라에서 운영될 때 발생하는 리소스 낭비를 최소화한다. 클라우드와 함께 AI를 도입하려는 기업의 진입장벽을 낮추기 위한 지원도 함께 제공한다. 개인 사용자와 중소·중견기업의 AI 활용 및 배포를 위한 인스트럭트랩을 비롯해 자체 데이터센터, 단일 클라우드에서 효과적으로 AI를 학습하고 배포할 수 있도록 돕는 레드햇 엔터프라이즈 리눅스 AI를 지원한다. 하이브리드 클라우드 또는 멀티클라우드 같은 대규모 인프라를 위한 오픈시프트 AI도 마련돼 있다. 바지라 부사장은 "우리는 AI와 클라우드 시장에서 다양한 선택의 여지를 제공하는 것을 핵심 전략으로 삼고 있다"며 "각 기업의 특성이나 요구에 맞춰 특정 벤더나 모델에 종속되지 않고 다양한 AI 모델과 솔루션을 선택할 수 있도록 지원할 것"이라고 말했다. 이어 "오픈소스는 단순한 기술 도입이 아닌 AI 철학과 접근 방식 전반에서 혁신을 이루는 것이 가장 효과적인 방법"이라며 "레드햇은 오픈 소스의 철학을 기반으로 쉽게 AI와 클라우드를 도입하고 확장할 수 있는 환경을 제공하기 위해 노력할 것"이라고 강조했다.

2024.10.17 09:43남혁우

"AI의 근간은 오픈소스"…수세, AI 시장 진출 박차

오픈소스 전문 기업 수세가 인공지능(AI) 시장에 본격 진출한다. 쿠버네티스나 트랜스포머 등 AI와 클라우드를 이루는 기반 기술이 모두 오픈소스인 만큼 수세는 각 기업에 최적화된 오픈소스 기반 AI환경을 구축하고 운영을 지원할 계획이다. 최근홍 수세코리아 지사장은 16일 서울 강남구 그랜드인터컨티넨탈 서울 파르나스에서 개최한 수세 오픈소스 데이에서 이와 같이 말하며 AI 전략을 소개했다. 'AI시대를 연다'는 주제로 개최한 이번 행사는 수세가 오픈소스를 활용해 AI시장에 진출한다는 선언과 함께 관련 전략과 솔루션, 고객 사례를 공유하기 위해 마련됐다. 최근홍 지사장은 '클라우드 네이티브와 AI 시대, 올바른 오픈소스 전략'을 주제로 수세의 AI 사업 전략을 소개했다. 클라우드와 AI가 본격화되며 이런 기술의 근간을 이루고 있는 오픈소스에 대한 관심도 커지고 있다. 하지만 보안 문제와 급변하는 발전속도로 인한 기술 부채 등 해결해야 할 과제도 산적한 상황이다. 수세는 빠르게 변화하는 기술 환경에서 각 기업에 적합한 오픈소스를 선택하고 인프라를 관리할 수 있는 솔루션을 제공하는 기업으로 포지셔닝할 계획이다. 오픈소스를 선택 과정에서 필수적으로 고려해야 하는 보안, 라이선스, 기술 지원을 비롯해 특정 기술이나 서비스에 종속되지 않는 환경을 간결하게 제공해 기업의 부담을 최소화한다는 방침이다. 이를 위해 멀티클라우드 환경에서 다양한 클러스터를 관리할 수 있도록 인프라 전반에 걸쳐 가시성을 제공하고 제로 트러스트 환경과 자동화된 보안 솔루션을 지원한다. 수세의 이안 콰켄보스 글로벌AI리드는 "AI 관련 혁신은 대부분 오픈소스에서 발생하고 있다"며 "오픈소스 기반 솔루션을 통해 기업이 안정적으로 AI를 도입하고 확장할 수 있는 인프라를 지원할 것"이라고 설명했다. 이어 특히 "오픈소스를 활용하는 과정에서 가장 고려해야 할 부분이 보안"이라고 지목하며 "보안을 강화하기 위해 신뢰할 수 있는 소프트웨어 공급망을 구축해 개발 과정에서 발생하는 위험을 줄이는데 주력하고 있다"고 강조했다. 이어 자율주행 전문 기업 스트라드비전의 여은철 팀장은 수세의 렌처 솔루션을 활용해 AI 서비스 과정에 발생한 문제를 해결한 사례를 소개했다. 내부 인프라를 최적화하고 효율적인 클라우드 활용 방안을 제시하는 여 팀장은 카메라를 활용한 AI 기반 자율주행 시스템 개발 과정에서 그래픽카드(GPU)의 효율이 낮음을 발견했다. 문제의 원인은 각 팀마다 GPU를 사용규모가 다르지만 수십 개의 GPU가 연결된 랙 단위로만 활용할 수 있어 리소스 누수가 발생하고 있었던 것이다. 여 팀장은 컴퓨팅 파워 누수를 해결하기 위해 오픈소스 기반의 쿠버네티스 관리 플랫폼인 렌처를 활용해 GPU를 하나씩 활용하면서도 전체 인프라를 통합 관리할 수 있는 환경을 구축했다. 덕분에 GPU 사용률을 70% 이상으로 끌어 오렸을 뿐 아니라 문제 발생 시 빠르게 대응할 수 있는 시스템을 구축할 수 있었다. 여은철 팀장은 "수세의 렌처 덕분에 운영 효율을 크게 개선할 수 있었을 뿐 아니라 IT 자원 관리의 복잡성을 해결해 생산성을 극대화할 수 있었다"고 설명했다. 최근홍 지사장은 "올해로 3회를 맞은 이번 행사는 제조, 유통 등 다양한 산업 분야의 IT리더와 함께 오픈소스 AI 솔루션과 인사이트를 공유하기 위해 마련됐다"며 "오늘 선보이는 전문가들의 오픈소스 전략과 포트폴리오를 바탕으로 고객사의 AI 전략에 도움을 제공할 수 있도록 최선을 다하겠다"고 말했다.

2024.10.16 14:56남혁우

"기술 혁신 리딩할 것"…KT클라우드, 오픈소스 생태계서 클라우드 리더로 '도약'

KT클라우드가 오픈소스 생태계의 발전을 도모하는 자리에서 업계와 협력해 글로벌 클라우드 시장에서의 경쟁력을 강화하겠다고 선언했다. KT클라우드는 지난 3일부터 이틀간 진행된 '오픈 인프라 서밋 아시아 2024'에서 헤드라인 스폰서로 참여했다고 4일 밝혔다. 이 행사에서 KT클라우드는 1천500명 이상의 전 세계 클라우드 전문가들 앞에서 기술 리더십 강화 방안을 발표했다. 안재석 KT클라우드 기술본부장은 '의존에서 주도로(From Dependency to Dominance)'라는 주제로 키노트를 진행하며 KT클라우드가 클라우드 네이티브 기술을 활용해 기존 의존성을 극복하고 주도적인 기술 리더로 변모하겠다는 비전을 제시했다. 특히 안 본부장은 KT클라우드가 오픈소스 소프트웨어 생태계에 적극 참여하고 다양한 플랫폼 및 서비스 생태계를 수용하는 유연한 클라우드 환경을 구축할 계획이라고 밝혔다. 또 하이브리드 클라우드를 구현해 고객 맞춤형 서비스를 제공할 것을 강조했다. KT클라우드는 이날 관리형 데이터베이스(DB) 서비스와 인공지능(AI) 오픈 클라우드 플랫폼을 소개하는 두 개 세션을 발표했다. 여기서 관리형 데이터베이스 서비스(DBaaS)와 플랫폼 서비스(PaaS)로의 서비스 플랫폼 확장 과정과 AI 플랫폼 성능 향상 사례를 공유했다. 오픈인프라 재단 관계자는 "이번 행사는 아시아의 오픈인프라 멤버 성장에 힘입어 개최한 첫 번째 서밋으로 그 의미가 크다"며 "오픈 스택 기술을 적극 활용하는 KT클라우드 참여와 지원에 감사한다"고 밝혔다. 안 본부장은 "오픈소스 생태계 발전을 위해 모인 각국의 개발자들과 한 자리에서 소통하는 의미 있는 행사에 함께 할 수 있어 영광"이라며 "앞으로 변화하는 클라우드 패러다임에 따라 서비스 기술과 인적 역량 강화를 통해 기술 혁신을 리딩할 것"이라고 강조했다.

2024.09.04 11:00조이환

레드햇-퀄컴, SW정의차량 테스트·배포 플랫폼 제공

레드햇은 퀄컴테크놀로지(퀄컴)와 기술 협력을 통해 소프트웨어 정의 차량(SDV)의 가상 테스트와 배포를 위한 플랫폼을 제공한다고 13일 발표했다. 양사는 이번 협력을 통해 마이크로서비스 기반 첨단 운전자 지원 시스템(ADAS) 애플리케이션의 완전한 엔드투엔드 개발과 배포를 통해 SDV를 가속화할 수 있는 방법을 제시할 예정이다. 퀄컴의 스냅드래곤 라이드 플렉스 SoC와 '레드햇 차량용 운영체제'를 기반으로 하는 이 플랫폼은 자동차 제조업체가 클라우드에서 기능을 개발하고 이러한 컨테이너 네이티브 워크로드 및 애플리케이션을 테스트 시설이나 차량에 배포할 수 있게 하는 것을 목표로 한다. 레드햇과 퀄컴의 협력은 SDV를 성공적으로 실현하는데 있어 중요한 역할을 한다. 양사의 협력을 통해 자동차 제조업체는 소프트웨어 수정 사항과 신기능, 수익 창출 서비스를 차량에 배포하기에 앞서 프로토타입을 클라우드 상에서 더 잘 제작할 수 있게 될 예정이다. 소프트웨어 업데이트를 공장의 테스트 랩 또는 운행 중인 차량에 직접 배포할 수 있어 시스템 테스트를 대폭 개선하고 비용과 출시 시간을 줄일 수 있다. 예를 들어, 자동차 제조업체는 퀄컴의 AI 기술과 스냅드래곤 라이드 플렉스 SoC를 사용해 소프트웨어 수정 사항, SDV용 신기능 및 수익 창출 서비스의 개발과 배포를 가속화할 수 있다. 우선 인클라우드 에뮬레이션 구성을 통해 AI 객체 감지 모델의 프로토타입을 제작하고 검증할 수 있다. 그런 다음 이를 클라우드 환경에서 테스트하고 개선함으로써 차량에 배포하기 전에 정확성과 효율성을 확인할 수 있다. 이 모든 과정은 개방형 표준 기반 플랫폼인 레드햇 차량용 운영체제를 통해 이루어지므로, 고객은 모바일 장치에서 애플리케이션이나 소프트웨어를 업그레이드하는 것과 동일한 방식으로 차량을 업데이트할 수 있다. 레드햇은 자동차 산업 전반에 걸쳐 SDV을 위한 오픈소스 솔루션을 제공하기 위해 딜로이트, 이타스, 제너럴모터스 등과 같은 기업과 협력하고 있다. 레드햇 서밋에서 레드햇 센트럴의 엣지 부스에 마련된 데모를 통해 퀄컴과의 이번 협력에 대해 자세히 알아볼 수 있다. 프랜시스 차우 레드햇 차량용 운영체제 및 엣지 부문 부사장 겸 총괄은 “레드햇은 퀄컴과의 협력을 통해 자동차 제조업체가 오픈소스와 소프트웨어 정의 솔루션을 활용해 차량 기능을 재정의할 수 있도록 지원하고 있다”며 “이러한 새로운 접근 방식은 우리가 더욱 스마트한 커넥티드 차량을 향한 업계의 여정을 가속화하고, 혁신과 민첩성을 촉진하고, 전 세계 운전자에게 최상의 경험을 제공할 수 있게 한다”고 밝혔다. 빌 피넬 퀄컴테크놀로지 제품 관리 부문 부사장은 “자동차 업계는 오픈소스, SDV 및 클라우드 기술을 도입함으로써 지속적인 개선을 추진하고 변화하는 고객의 요구에 대응하며 운전 경험을 향상시킬 수 있는 혁신적인 솔루션을 제공할 수 있다”며 “퀄컴 테크놀로지는 이러한 혁신적인 여정에서 자동차 제조업체를 지원하기 위해 최선을 다하고 있으며, 레드햇과의 협력은 SDV가 모빌리티를 재정의하는 미래에 대한 양사의 공통된 비전을 보여준다”고 강조했다.

2024.05.13 11:10김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

IBM, 하시코프 64억달러에 인수…오픈소스 양날개 확보

IBM이 오픈소스 기반 클라우드 관리 자동화 솔루션업체 하시코프를 64억달러에 인수했다. 레드햇과 더불어 오픈소스 기반 비즈니스에 또 하나의 날개를 달았다. 지난 25일 IBM은 하시코프를 64억달러에 인수한다고 발표했다. 하시코프는 테라폼이란 인프라 자동화 플랫폼으로 주가를 높인 회사다. 테라폼은 소프트웨어 코드 형식로 인프라 프로비저닝를 프로비저닝할 수 있는 오픈소스 도구다. 하시코프는 테라폼의 엔터프라이즈 버전을 판매했으며, '코드형 인프라'란 개념을 개척했다. 애플리케이션 딜리버리 워크플로우 자동화 플랫폼 '웨이포인트', 서비스 디스커버리 플랫폼 '노마드', 마이크로서비스 아키텍처의 네트워킹 모니터링 플랫폼 '컨설', 보안 인증 플랫폼 '볼트' 등도 대표 상품이다. IBM은 하시코프의 제품 포트폴리오와 레드햇 포트폴리오를 결합해 IT 인프라 관리를 위한 광범위한 자동화 솔루션을 제공한다는 방침이다. 아빈드 크리슈나 IBM 최고경영자(CEO)는 "기업은 멀티 클라우드, 온프레미스 환경 및 애플리케이션에 걸쳐 퍼져있는 복잡한 기술 자산과 씨름하는데 어려움을 겪고 있다"며 "IBM의 포트폴리오 및 전문 지식과 하시코프의 역량 및 재능을 결합하면 AI 시대에 맞게 설계된 포괄적인 하이브리드 클라우드 플랫폼이 만들어질 것"이라고 강조했다. IBM은 하시코프를 주당 35달러 현금에 인수하기로 했다. 하시코프는 레드햇에 포함되지 않고, IBM의 소프트웨어 사업부에 속하게 된다. 앞으로 고객은 레드햇 앤서블 오토메이션 플랫폼과 테라폼 자동화를 함께 이용할 수 있게 된다. 아몬 대드가 하시코프 공동창업자 겸 최고기술책임자(CTO)는 "이는 하시코프의 사명을 더욱 발전시키고 IBM의 지원을 통해 훨씬 더 폭넓은 고객층으로 확장할 수 있는 기회라고 믿는다"며 "계속해서 제품과 서비스를 구축할 것이며 IBM에 합류하면 하시코프 제품을 훨씬 더 많은 사람들이 사용할 수 있게 돼 더 많은 사용자와 고객에게 서비스를 제공할 수 있다"고 밝혔다.

2024.04.26 11:54김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

[기고] AI 안전 계획에 오픈소스는 필수

최근 한국의 과기정통부도 AI를 통해 경제 성장과 더불어 일자리를 창출할 수 있는 신사업·서비스를 발굴하고, 교육‧의료‧법률 등 5대 AI 일상화 프로젝트로 국민생활 속 AI 활용 확산하겠다고 발표할 정도로 AI 기술이 우리의 일상과 경제에 미치는 영향은 더욱 커지고 있다. 하지만 이런 시스템이 의도대로 안전하게 작동하도록 보장하는 것 역시 중요해지고 있어서 최근에는 한국에서도 AI의 안전성 연구와 평가를 담당하는 'AI 안전 연구소' 설립이 추진되고 있다. 지난해 11월 영국 블레츨리 파크에서 개최된 제1회 AI 안전 정상회의에서 한국을 포함해 함께 모인 28개국이 AI가 초래할지도 모르는 피해를 막기 위해 협력을 다짐했지만 사실 이번 회의는 AI 안전에 대한 답보다는 앞으로 나아갈 방향에 대한 질문을 더 많이 남겼다. AI 개발의 평등과 안전에 대한 질문은 물론, '빅테크들이 지배하는 산업에서 다른 조직과 국가들이 AI의 미래에 대한 발언권과 가질 수 있는가?'라는 질문처럼 말이다. 회의에서 나왔던 내용 중 AI에도 오픈소스가 필요하다는 주장은 특히 흥미롭다. 이에 대한 비판적인 시각도 존재하지만 오픈소스가 협업과 성장을 위한 기반을 마련한다는 점은 부인할 수 없는 사실이다. 그래서인지 AI 안전 정상회의에서 장 노엘 바로 프랑스 디지털 이슈 담당 차관은 "오픈소스가 다른 기술 분야에서 '경쟁적 평등'을 보장하고 '혁신에 해로운 독점의 발전'을 막는 면에서 그 가치를 발현해 왔다"며 "그 누구도 선입견 때문에 오픈소스를 배제해서는 안 된다”고 강조했다. 모질라는 “오픈소스부터 오픈 사이언스에 이르기까지 다양한 접근 방식에 대한 투자를 촉구한다"며 "이런 투자가 독립적인 연구, 협업 및 지식 공유를 통해 AI의 역량, 위험 및 가져올 피해에 대한 이해를 돕는 기반이 돼야 한다”고 밝혔다. 또한 “공공의 주의와 책임 강화의 필요성 강조와 함께 오픈소스가 책임감 있는 AI를 만들려는 새로운 참여자들의 진입장벽을 낮출 수 있을 것”이라고 설명했다. 알리바바 클라우드 역시 오랫동안 오픈소스를 지원하고, AI를 투명하게 다루는 방향을 지지해 왔다. 알리바바 클라우드는 2022년 자체적인 클라우드 기반 오픈소스 AI 모델 커뮤니티인 모델스코프를 개설했는데, 이 플랫폼은 지난 1년간 280만 명의 개발자에게 2,300개 이상의 AI 모델에 접근할 수 있는 기회를 제공해왔다. 또 작년 12월을 기준으로 알리바바 클라우드는 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 자체 대규모 언어 모델(LLM)뿐 아니라 오디오 및 비디오 판독 기능을 탑재한 멀티모달 LLM을 오픈 소스로 공개했다. 기술 플랫폼의 역량 강화를 지원하는 클라우드 공급업체들은 고객이 최신 기술과 툴에 대해 배우고 이를 사용할 수 있도록 최선을 다해야 하는데 특히 생성형 AI는 현재 가장 주목받는 기술이므로 자사 LLM에 대한 관심도 눈에 띄게 증가하고 있다. 그럼에도 불구하고 역랑강화, 성장 및 안전 간에 균형을 잡아야 하는데 이는 이 모든 부면이 서로 연계되어 있기 때문이다. 따라서 오픈소스는 앞으로도 지속될 AI 방법론에 대한 논의에서 유효한 제안으로 고려돼야 한다. ■ 원칙에 근거한 접근 사실 오픈 소스가 없었다면 생성형 AI의 혁신적인 발전 또한 없었을 것이다. 물론 생성형 AI 분야는 빠르게 성장하고 있으며, 조만산 그것의 상업적인 활용에 대한 아이디어도 증가하고 기업 사유(proprietary) 시스템도 등장할 것이다. 하지만 IT 산업에서 늘 그래왔듯이 혁신가와 기업가들은 AI 산업에서도 아이디어 및 소프트웨어의 시장과 틈새를 확보하려 할 것이다. 그리고 우리 클라우드 공급업체들은 이를 가능하게 지원하는 한편 이런 아이디어와 제품들은 오픈소스 커뮤니티를 통해 더욱 강화되고 빠르게 성장할 것이라고 믿고 도와야 한다. 이 과정에서 공공기관과 기업들은 규제 가이드라인과 관련된 협업을 계속해야 하지만, 그러는 중에도 AI 산업은 빠른 속도록 발전해 나길 것이다. 이에 알리바바 클라우드는 기술을 '사용 가능하고, 내구성이 좋으며, 신뢰성이 높고 제어 가능하도록' 발전시키기 위해 자체적인 AI 개발 가이드라인을 마련했다. 이어 더해 알고리즘의 투명성과 공정성 향상, 사용자 개인정보 보호 및 데이터 보안 강화를 위해 프라이버시 보존형(privacy-preserving) 컴퓨팅 및 설명 가능한 AI(explainable AI)와 같은 기술에도 투자를 했다. 올해 초, 알리바바 클라우드는 모두가 AI를 쉽고 저렴하게 개발하고 사용할 수 있도록 AI 시대에 가장 오픈한 회사가 되겠다는 목표를 발표했다. 생성형 AI는 이미 다양한 기업에서 사용되고 있으며, 대규모 럭셔리 브랜드부터 온라인 쇼핑, 디지털 인텔리전스 및 AI에 이르기까지 여러 공급망의 민첩성과 회복력을 향상하고 있다. 따라서 알리바바 클라우드는 게임, 음악 및 유통 분야에서 차세대 경험을 구축하기 위해 많은 업계 리더 및 스타트업과 협력을 확대해나고 있다. 이런 파트너 또는 비즈니스 생태계는 기업들이 AI를 활용해 전통적인 비즈니스 방식을 넘어서는 혁신을 주도하도록 지원하며. 그 과정에서 오픈소스는 기업 사유 시스템으로 인한 종속을 방지하고 혁신가와 스타트업의 진입 장벽을 낮춰주는 장점을 갖는다. 또한 오픈소스는 더 낮은 비용으로 견고한 커뮤니티 내의 실험과 협업을 장려해 위험부담이 적은 기회를 만들어 주기도 한다. 뿐만 아니라 오픈소스는 유연성과 회복력에 대한 비즈니스 대화가 끊임없이 이루어지는 가운데 실경비만으로 확장가능한 플랫폼을 제공할 수 있다는 장점도 지닌다. 이런 여러 가지 이유로 오픈소스는 AI의 미래와 관련된 대화에서 반드시 포함되어야 하는 핵심 요소가 돼야 한다고 생각한다. 일부 업계 관계자들은 상황을 더 지켜보자는 입장이지만 챗GPT가 12개월 전에 보여주었듯 커다란 기술 변화의 순간들은 분명 존재하며, AI 분야에서 이런 변화가 더욱 가속화될 전망이다. 올해 5월 한국에서 온라인으로 개최될 제2회 AI 안전 정상회의에서 기업이나 국가가 AI를 어떻게 활용하고, 그 역량을 강화하며 관리할지에 대한 고민과 함께 오픈소스에 대한 논의도 더욱 확대되기를 기대한다.

2024.03.12 14:13케니 송

EDB "올해 상용 DB에서 오픈소스로 이동 가속”

오픈소스 포스트그레SQL의 최대 지원 기업인 EDB는 2024년 DB 분야 주요 기술 트렌드를 17일 발표했다. EDB는 ▲레거시·상용 데이터베이스에서 오픈소스로의 이동 가속 ▲인공지능(AI)과 머신러닝(ML) 기술의 도입 확대 ▲클라우드 데이터베이스의 부상 ▲DB 보안 강화에 대한 관심 증대 ▲오픈소스 DBMS 활용으로 기술 인재 격차 해소 등을 2024년 DB 분야 주요 기술 트렌드가 될 것으로 예상했다. 1. 레거시·상용 데이터베이스에서 오픈소스로의 이동 가속화 오픈 소스 데이터베이스 라이선스는 2021년부터 상용 데이터베이스 라이선스를 앞지르기 시작했으며, 이러한 추세는 둔화될 기미가 보이지 않고 있다. 레드햇의 최근 설문조사에 따르면, IT 관리자의 98%가 현재 또는 향후 엔터프라이즈 오픈소스 사용의 비즈니스 이점을 인식하고 있으며, 현재 오픈소스를 사용하는 응답자의 80%가 오픈소스 사용을 늘릴 계획이라고 답했다. 오픈소스로의 전환이 가속화되는 이유에 대해 '제4차 연례 기업 기술 현황' 백서에서 오픈소스 기술로의 전환이 비용 절감(응답자의 63%)과 혁신(60%), 약관 개선(59%) 같은 요인에 의해 주도되고 있는 있는 것으로 나타났다. 이 조사에 따르면 가격만이 전부는 아니며, 디지털 트랜스포메이션을 추진하기 위한 혁신이 현재 기술과 유연하게 통합해 사용될 수 있도록 조정하는 것이 필요한 것으로 나타났다. 설문조사 응답자의 거의 절반이 엔터프라이즈 오픈 소스 사용의 가장 큰 이점은 AI, 컨테이너, 엣지 컴퓨팅과 같은 새로운 기술을 활용할 수 있다는 점이라고 답했다. 오픈소스 DBMS인 EDB 포스트그레스와 같은 오픈 소스 데이터베이스 관리 솔루션은 기업이 데이터의 힘을 활용하는 방식에 있어 최고의 유연성과 엔터프라이즈급 성능에 필요한 강력한 기능을 제공하는 디지털 혁신을 위한 이상적인 인프라다. 대표적인 포스트그레스 기여자인 EDB는 오라클, SQL서버, IBM DB2와 같은 단일 공급업체의 레거시 데이터베이스에서 워크로드를 전환하고 구축하는 데 필요한 아키텍처 선택부터 고가용성 유지에 이르기까지 모든 단계에서 고객이 정확하고 유용한 정보에 입각한 결정을 내릴 수 있도록 지원하는 독보적인 전문성을 보유하고 있다. 최신 수준의 보안, 모니터링, 성능, 복원력을 모두 최적의 가격으로 제공하는 완벽한 도구 세트를 제공하여 데이터베이스 워크로드를 위한 새로운 표준이다. 2. 인공지능(AI)과 머신러닝(ML) 기술의 도입 확대 모든 기업들이 AI 도입을 전략적 이니셔티브로 삼고 있다. 레드햇의 2023 글로벌 기술 전망 보고서에서 설문조사에 참여한 IT 리더의 43%는 빅데이터 및 분석이 향후 12개월 동안 회사의 최우선 투자 우선순위라고 답했다. 스태티스타에 따르면 2025년까지 181제타바이트에 달할 것으로 예상된다. 이와 같은 여러 가지 요인이 AI의 빠른 성장에 기여하고 있다. 사전 학습된 머신 러닝(ML) 모델의 대중화도 또 다른 요인이다. ML 모델, 특히 대규모 언어 모델(LLM)은 과거에는 개발에 투자할 시간, 비용, 전문 지식이 없는 조직이 접근하기 어려웠지만, 이제 사전 학습된 모델을 쉽게 사용할 수 있게 되면서 모든 것이 바뀌었다. 이러한 사전 학습된 모델을 실행하는 데 필요한 컴퓨팅 성능에 대한 액세스도 중요한데, 클라우드를 통해 컴퓨팅 및 ML 모델 실행이 더 쉽고 저렴해졌다. 포스트그레스 전문가이자 EDB의 레티티아 아브로트 CTO는 "AI의 시너지 효과와 포스트그레SQL의 결합은 무한한 기회를 창출할 것”이라며 "특히 더 많은 도메인과 사용 사례에 적합하도록 포스트그레SQL의 확장성과 유연성을 향상시키는 데 있어서는 더욱 그렇다”고 설명했다. 그는 “반응형 AI에서 제한적 AI에 이르는 AI의 진화는 데이터 분석 기능을 향상시키고 있으며, 포스트그레스는 이러한 미래를 현실로 만드는 데 이상적인 도구"라고 밝혔다. 3. 클라우드 데이터베이스의 부상 기업들은 클라우드 컴퓨팅 환경에서 호스팅되는 데이터베이스 관리 시스템이 유연성, 확장성, 성능, 비용 효율성의 수준을 높인다는 사실을 인식하고 있다. 이에 실제로 가트너는 2026년까지 조직의 75%가 클라우드를 기본 기반 플랫폼으로 하는 디지털 트랜스포메이션 모델을 채택할 것으로 예측하고 있다. 가트너는 퍼블릭 클라우드 서비스에 대한 전 세계 최종 사용자의 지출이 2023년 5천636억 달러에서 2024년 6천790억 달러로 20.4% 증가할 것으로 예측하고 있다. 또한 제4차 연례 기업 기술 현황 2023 보고서에 따르면 클라우드 수용에 대한 분명한 신호는 설문 조사 참가자들이 '향후 모든 프로젝트에 대해 '클라우드 우선' 접근 방식을 취하고 있는가?'라는 질문에 78%가 '그렇다'고 답했다. 또한 "클라우드 도입이 기대했던 것에 부응했는지 여부"에 대한 질문에서 60% 이상이 강력하게 동의했다. 클라우드는 AI 애플리케이션의 개발과 배포를 위한 이상적인 기반이기 때문에 클라우드와 AI 사용이 함께 증가할 것이다. 생성형 AI 서비스를 사용하는 조직은 필요한 인프라의 규모를 고려할 때 퍼블릭 클라우드를 고려하게 될 것이다. EDB는 2024년에 모든 단계의 여정을 위한 도구와 지원을 통해 조직이 포스트그레SQL 데이터베이스를 클라우드로 이전할 수 있도록 지원한다. 4. DB 보안 강화에 대한 관심 증대 레드햇의 글로벌 기술 전망 보고서에 따르면 2023년 IT 자금 조달의 최우선 순위는 보안이었으며, 44%의 응답자가 보안을 3대 자금 조달 우선 순위라고 답했다. 2024년에도 보안이 자금 조달의 최우선 순위가 될 것으로 예상되며, 많은 조직이 오픈 소스 자산을 보호하는 데 중점을 둔 전담 팀에 투자하고 물리적 및 네트워크 보안, 데이터베이스 액세스 관리 등을 다루는 계층화된 데이터베이스 보안 모델을 채택할 것으로 예상된다. 오픈 소스 소프트웨어의 사용이 증가함에 따라 규제 기관은 보안을 보장하기 위한 가이드라인과 표준의 필요성을 인식하고 있다. 미국 의회는 오픈소스의 긍정적인 영향과 잠재적인 보안 문제에 주목하여 오픈소스 보안을 강화하기 위한 오픈소스 소프트웨어 보안 법안을 검토하고 있다. 이 법안은 연방 정부와 중요 인프라를 운영하는 기업에 초점을 맞추고 있지만, 향후 업계와 정부가 주도하는 오픈소스 보안 이니셔티브의 토대가 될 수 있다. 보안 문제를 해결하기 위해서는 업계의 협력이 필수적이며, 2024년 이후에는 보안팀이 오픈소스 커뮤니티와 더욱 긴밀하게 협력할 것으로 예상된다. 5. 오픈소스 DBMS 활용으로 기술 인재 격차 해소 스킬셋 또는 인재 격차는 2024년 기업이 직면하게 될 가장 큰 디지털 트랜스포메이션 장벽이 될것이다. 가트너의 2023년 CEO 및 고위 비즈니스 임원 설문조사에서 인터뷰에 응한 CEO의 26%는 인재 부족을 조직에 가장 큰 피해를 입히는 리스크로 꼽았다. 외부 채용 노력이 이러한 인재 부족 문제를 해결하는 데 도움이 될 수 있지만, 리눅스 재단의 2023 기술 인재 현황 보고서는 조직이 경쟁력을 유지하기 위해서는 클라우드/컨테이너, 사이버 보안, AI/ML과 같은 신흥 기술 분야에서 인력을 육성시키는 것이 중요하다고 강조한다. 이 보고서에 따르면 오픈소스 프로젝트에 참여할 수 있는 기회를 제공하는 것도 최고의 인재를 효과적으로 유치하고 유지하는 방법이 될 수 있다. 숙련도 향상과 아웃소싱의 조합은 DBA 팀의 역량을 강화하고 오픈 소스 포스트그레스 솔루션을 지원하는 가장 효과적인 방법 중 하나일 수 있다. EDB에서는 무료 주문형 Postgres 교육을 제공해 팀이 최신 포스트그레스 자격증을 빠르게 취득할 수 있도록 지원한다. 또한 다른 곳에서는 얻을 수 없는 심층적인 전문 지식과 연중무휴 사전 예방적 관리를 제공하는 원격 DBA 서비스도 제공한다. 적절한 아웃소싱 IT 활용과 내부 인력의 숙련도를 향상시킴으로써, 조직의 IT팀을 적절하게 균형을 유지해야 한다. 원하는 가격대와 조건으로 원하는 DBA 팀을 구성하여 디지털 트랜스포메이션을 추진할 수 있다.

2024.01.17 09:58김우용

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 침해사고 이후 해지 위약금 면제...8월 요금 50% 감면

인천공항-면세업계, 임대료 인하 공방…"깎아줘" vs "왜 너만"

챗GPT가 우주선 조종하는 날 올까

전 국민 최대 45만원 '소비쿠폰' 지급…21일부터 신청

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.