• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 클라우드'통합검색 결과 입니다. (662건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KAIST-네이버-인텔, AI 반도체 시장에 '도전장'

새로운 인공지능 반도체의 생태계 구축을 위해 KAIST(총장 이광형)와 네이버, 인텔이 손을 맞잡았다. KAIST는 30일 대전 KAIST 본원에서 네이버클라우드(대표 김유원)와 'NIK AI 공동연구센터'(NAVER· intel · KAIST AI Research Center) 설립과 운영에 관한 업무협약(MOU)을 체결했다. 이 협약은 인공지능 반도체·인공지능 서버와 클라우드·데이터센터 등의 성능개선 및 최적의 구동을 위한 오픈소스용 첨단 소프트웨어 개발 등이 미션이다. 첨단 반도체 CPU 설계부터 파운드리까지 역량을 보유한 인텔이 기존의 중앙처리장치(CPU)를 넘어 인공지능 반도체 '가우디(GAUDI)'를 최적의 환경에서 구동하기 위해 오픈소스용 소프트웨어 개발 등을 목적으로 국내 대학에 공동연구센터를 설립하기는 KAIST가 처음이다. KAIST-네이버-인텔, AI 반도체 시장 도전장 반도체 업계에서는 이들 세 기관의 전략적 제휴에 주목했다. 하드웨어나 소프트웨어 기술과 역량을 융합, 새로운 인공지능 반도체 생태계가 구축될 계기가 확보될 것으로 기대했다. 특히, 시장과 기술 주도권 확보를 위해 네이버와 인텔이 KAIST와 함께 AI반도체 시장에 도전장을 내민 것으로 보고 있다. KAIST 측은 “인텔이 인공지능과 반도체 분야 오픈소스용 소프트웨어 개발파트너로 네이버와 KAIST를 선택한 것은 전략적으로 매우 큰 의미가 있다”고 강조했다. 네이버클라우드가 지닌 컴퓨팅·데이터베이스·인공지능 등 네이버 클라우드 플랫폼(NAVER Cloud Platform) 기반의 다양한 인공지능 서비스 역량과 인텔의 차세대 인공지능 칩 기술, 그리고 KAIST가 갖추고 있는 세계적인 수준의 전문인력과 소프트웨어 연구 능력이 결합해 인공지능 반도체 분야에서 기존과는 다른 창조적이면서도 혁신적인 생태계 조성을 성공적으로 이뤄낼 것으로 기대하는 분위기다. 이날 협약식에는 KAIST 측에서 이광형 총장을 비롯해 이균민 교학부총장, 이상엽 연구부총장, 전기및전자공학부 김정호 교수 등이 참석했다. 네이버클라우드 측에선 김유원 대표와 하정우 AI 이노베이션 센터장, 이동수 하이퍼스케일 AI 담당 이사 등 주요 경영진이 참석했다. NIK AI 공동연구센터 상반기 구축, 7월부터 본격 연구 KAIST와 네이버클라우드는 이번 협약을 계기로 오는 6월까지 KAIST에 'NIK AI 공동연구센터를 구축하고 7월부터 본격 연구에 착수할 계획이다. 센터장은 KAIST와 네이버클라우드 측에서 같이 맡기로 했다. HBM(고대역폭메모리) 등 인공지능 반도체 설계와 인공지능 응용설계(AI-X) 분야에서 세계적인 석학으로 꼽히는 김정호 전기및전자공학부 교수와 인공지능 반도체 설계 및 인공지능 소프트웨어 전문가인 이동수 이사다. 또 KAIST 전산학부 성민혁 교수와 네이버클라우드 권세중 리더가 각각 부센터장을 맡아 공동연구센터를 이끈다. 공동연구센터 운영 기간은 3년이다. 다만, 연구성과와 참여기관의 필요에 따라 연장하기로 했다. KAIST에서는 이 센터 R&D에 인공지능과 소프트웨어 분야 전문가인 20명 내외의 교수진과 100여 명의 석·박사 대학원생들이 대거 참여한다. 초기 2년간은 인텔의 하바나랩스가 개발한 인공지능 학습 및 추론용 칩(Chip) '가우디(GAUDI)'를 위한 플랫폼 생태계 공동 구축을 목적으로 20~30개 규모의 산학 연구과제를 진행한다. 자연어 처리, 컴퓨터 비전과 머신러닝 등 주로 인공지능 분야 오픈소스용 소프트웨어 개발 위주로 연구가 이뤄진다. 자율 주제 연구가 50%, 인공지능 반도체의 경량화 및 최적화에 관한 연구가 각각 30%와 20%를 차지한다. 가우디2 기반 연구결과 매년 오픈사이트 공개 예정 이를 위해 네이버와 인텔은 네이버 클라우드 플랫폼 기반의 '가우디2(GAUDI2)'를 KAIST 공동연구센터에 제공한다. KAIST 연구진은 '가우디2'를 이용한 논문 등 연구 실적을 매년 공개할 계획이다. 이 밖에 인공지능·클라우드 등 각자가 보유한 역량 외에 공동 연구에 필요한 각종 인프라 시설(Infrastructure)과 장비 등을 공유하기로 했다. 또 연구 인력의 상호 교류를 위해 공동연구센터에 필요한 공간과 행정인력은 KAIST가 지원한다. KAIST 김정호 교수는 “가우디 시리즈의 활용을 통해 인공지능 개발, 반도체 설계와 운영 소프트웨어 개발 등에서 기술 노하우를 쌓을 것으로 기대한다”며 “대규모 인공지능 데이터센터 운영 경험과 향후 연구개발에 필요한 인공지능 컴퓨팅 인프라를 확보할 수 있다는 점에서 이번 공동연구센터 설립이 큰 의미가 있다”고 강조했다. 김유원 네이버클라우드 CEO는 "우리나라를 10~20년 먹여살릴 근본기술을 개발하고, 이 기술이 생태계 위에서 존재하도록 할 것"이라며 "돈벌이에 급급한 회사가 아니라, 진정 생태계 동반자 역할에 최선을 다할 것"이라고 말했다. 네이버클라우드 이동수 이사는 “네이버클라우드는 KAIST와 함께 다양한 연구를 주도해 나가며 하이퍼클로바X 중심의 인공지능 생태계가 확장되기를 기대한다”며, “공동연구센터를 통해 국내 인공지능 연구가 보다 활성화되고 인공지능 칩 생태계의 다양성이 확보되기를 바란다”라고 덧붙였다.

2024.04.30 10:28박희범

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

한국IDC "올해 국내 서버 시장 GPU 공급확대로 성장 전환"

한국IDC는 최근 발간한 '국내 엔터프라이즈 인프라스트럭처 서버 컴핏 보고서'에서 국내 서버 시장이 향후 5년간 연평균 성장률(CAGR) 9.9%를 기록하며 2028년 4조7천246억원의 매출 규모를 형성할 것이라고 30일 밝혔다. 국내 서버 시장은 주요 GPU 제조사의 공급이 회복되며 2024년부터 성장세로 전환할 것으로 분석됐다. IDC 보고서에 따르면 작년 국내 서버 시장 매출 규모는 전년 대비 5.1% 감소한 2조9천521억원으로 나타났다. 신규 데이터센터 증가에도 불구하고 서버 증설 물량이 기대에 미치지 못한 점이 시장 감소의 주요 원인으로 꼽힌다. 2022년말부터 생성형AI 시장의 가파른 성장으로 인해 기업 IT예산이 GPU 서버에 집중되며 기존 데이터센터 랙서버 물량의 감소, GPU 서버 공급 지연 문제 등의 요인이 시장 하락에 영향을 미친 것으로 분석됐다. 국내 서버 시장은 그간 기업의 디지털화를 지원하는 클라우드가 성장의 동력이었으나 재작년부터 생성형 AI 시장이 급격히 성장하며 시장 판도가 바뀌었다. 작년 정부의 공공 클라우드 전환 사업 예산 삭감으로 투자 방향을 잃은 국내 클라우드 사업자들이 생성형AI를 위한 GPU 서버 확보에 IT투자를 집중하는 추세다. 특히 생성형AI를 구축하기 위해서 많은 데이터의 트레이닝을 위한 8GPU 서버가 선호되며8GPU 서버 공급이 가능한 서버 벤더가 국내 서버 시장을 주도했다. 향후 제조, 통신, 공공, 금융 등 다양한 산업의 GPU서버 도입도 증가하면서 생성형AI 시장의 저변이 확대될 것으로 예상된다. 엔비디아가 서버 GPU를 단독으로 공급하면서 수요가 몰리는 경향이 있었으나, AMD도 서버 GPU를 출시하며 향후 인퍼런싱 단계에서 GPU외에 다른 가속기 수요도 증가할 전망이다. 아직 생성형AI의 초기 단계로 트레이닝을 위한 8GPU 서버의 수요가 빠르게 증가하고 있지만 본격적으로 생성형AI가 상용화되는 시점에서는 인퍼런싱에 대한 수요도 증가하면서 8GPU 서버와 단일 GPU 벤더로 집중되는 현상은 해소될 것으로 예상된다. IDC는 서버를 크게 x86 프로세서를 사용하는 x86서버와 그 외 비x86 서버로 구분하고 있다. 대부분의 플랫폼이 x86 서버 기반으로 전환되면서 국내에서 대략적으로 90% 이상이 x86 서버로 공급되고 있으나 일부 공공 및 금융권에서는 여전히 미션크리티컬 서버로 비x86 서버 기반의 유닉스 시스템이 운영되고 있다. 저전력으로 운영되는 ARM 서버도 글로벌 클라우드 서비스 사업자 중심으로 빠르게 성장하는 추세다. 이런 기조를 바탕으로 국내 비x86 서버 시장의 향후 연평균 성장률은 5.9%를 기록하며 2028년에는 3천866억원의 매출 규모를 형성할 전망이다. 국내 x86 서버 시장 역시 기업의 AI 및 클라우드 등 디지털 전환을 주도하면서 향후 5년간 연평균 성장률은 10.3%로 증가하여 2028년에는 4조3천379억원의 매출 규모를 기록할 것으로 예상된다. 한국IDC에서 엔터프라이즈 인프라 시장 리서치를 담당하고 있는 김민철 수석연구원은 “서버 시장의 경우 아직 생성형AI의 초기 단계지만 GPU 서버에 대한 투자 과열과 늘어나는 GPU는 소비 전력 증가 및 발열 상승으로 이어지고 있다"며 "이는 데이터센터의 운영 비용 증가로 이어져 앞으로 수도권의 추가적인 데이터센터 구축은 점차 힘들어질 것”이라고 설명했다. 그는 "현재 생성형AI는 대부분 LLM 기반으로 운영되고 있으나, 향후에는 이미지, 사운드, 비디오 등 다양한 고용량 데이터가 증가하며 AI기술을 위한 GPU 서버 공급이 더욱 증가할 것"이라고 전망했다.

2024.04.30 09:46김우용

에스넷그룹, 클라우드 실무 엔지니어 직접 양성한다

에스넷그룹이 실무에 필요한 클라우드 엔지니어를 직접 양성하기 위해 교육생 모집을 시작한다. 에스넷그룹은 '클라우드 활용 네트워크 엔지니어 양성과정' 교육 프로그램을 시작한다고 29일 밝혔다. 기업의 클라우드 도입과 디지털 전환이 확대되면서, AI 기반의 IT 인프라 역량을 갖춘 인재 양성에 대한 필요성이 커지고 있다. 이에, 에스넷그룹은 교육생들이 관련 역량을 갖출 수 있도록 체계적이고 실무 중심의 교육 프로그램을 추진하게 되었다. 5월 20일부터 9월 20일까지 진행되는 '클라우드 활용 네트워크 엔지니어 양성과정'의 교육 시간은 총 88일 704시간으로 운영된다. 해당 교육은 ▲기술교육 ▲멘토링, 기술 관련 프로젝트 ▲트렌드, 인성, 면접 관련 특강 등 3개의 교육 과정으로 이뤄져있으며 온라인으로 신청이 가능하다. 프로젝트 세부 커리큘럼은 ▲클라우드 가상화 시스템 구현 ▲클라우드 PaaS 구축 ▲모니터링 및 분석역량 강화 ▲AWS 클라우드 스마트공장 네트워크 관리 ▲AWS 클라우드 네트워크 모니터링 시스템 구현 등을 주제로 구성했다. 해당 주제를 바탕으로 인프라 구축 기획 및 계획 수립부터 설계, 검증, 모니터링, 운영하는 등의 실무형 교육까지 제공하고 있다. 이외에도 기술교육은 서버, 네크워크 기반의 인프라 구조 뿐만 아니라 클라우드 인프라 관련 기술인 VM웨어 및 쿠버네티스, 데브옵스 등의 신기술을 배울 수 있는 주제로 구성했다. 이번 교육 프로그램을 통해 에스넷그룹은 직접 교육 커리큘럼을 설계하고 훈련을 진행하여, 실무 적합형 인재 확보가 가능할 것으로 기대하고 있다. 동시에 해당 프로그램 교육생들에게는 학력과 전공에 얽매이지 않는 네트워크 분야 학습을 통해 개인별 커리어 축적은 물론 수료생 대상 채용우대 혜택을 제공할 방침이다. 에스넷시스템 인사담당 박정욱 상무는 "국내 기업들은 빠르게 변화하고 있는 IT 환경 속에서 신기술 기반의 역량을 갖춘 인재 양성의 필요함을 느끼고 있으며, 에스넷그룹은 실무 중심의 교육 프로그램을 통해 역량 개발은 물론 IT 인프라 환경의 신속한 디지털 전환에 기여하고자 한다”며 "이번 교육 과정이 교육생들에게 AI 역량 향상을 돕고, 실무형 인재로서 성장할 수 있는 중요한 계기가 되길 바란다”고 말했다.

2024.04.29 16:13남혁우

네이버, 생성형 AI 도입 장벽 더 낮췄다…하이퍼클로바X 대시 모델 출시

네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 신규 모델 'HCX-DASH'가 공개됐다. 네이버클라우드(대표 김유원)는 최근 AI 개발 도구 '클로바 스튜디오(CLOVA Studio)'를 통해 HCX-DASH의 첫 번째 버전인 'HCX-DASH-001'을 출시했다. 클로바 스튜디오 고객사는 앞으로 기존 하이퍼클로바X 모델들뿐만 아니라 HCX-DASH-001을 활용해서도 맞춤형 AI를 제작할 수 있다. HCX-DASH는 하이퍼클로바X의 기존 모델(HCX-003)보다 저렴한 비용으로 이용 가능하다. 고객사는 클로바 스튜디오에서 기존 대비 5분의 1 수준의 가격으로 신규 모델을 이용할 수 있다. 또한 효율적인 컴퓨팅 자원 활용을 기반으로 속도를 개선한 것도 특징이다. 하이퍼클로바X는 대부분의 학습 데이터가 영어로 구성된 AI보다 더 적은 비용으로, 더 빠르게 한국어를 처리할 수 있어 이미 국내 사용자에게 상대적으로 우수한 비용 효율성 및 사용성을 갖추고 있었다. HCX-DASH는 이러한 장점을 한층 강화하여, 하이퍼클로바X의 산업계 도입은 가속화될 전망이다. 네이버클라우드는 향후 여러 종류의 하이퍼클로바X 모델들을 클로바 스튜디오에서 순차적으로 제공할 예정이다. 사용자는 작업의 종류, 비용 등을 고려해 가장 적합한 모델을 유연하게 선택할 수 있다. 특히 HCX-DASH는 문장 생성 및 변환, 분류, 요약과 같은 비교적 단순한 업무부터 보고서를 작성하거나 맞춤형 챗봇을 구현하는 데에도 뛰어난 성능을 보여 다양한 목적의 서비스에 접목될 것으로 예상된다. 정교하고 복잡한 작업을 더 완성도 높게 수행할 수 있는 모델, 텍스트뿐만 아니라 이미지나 오디오 데이터를 처리할 수 있는 모델도 공개해나간다는 계획이다. 지난해 8월 공개된 하이퍼클로바X는 전문 데이터 확보, 강화학습 알고리즘 개선, 대화형 AI 서비스 '클로바X(CLOVA X)'의 사용자 피드백 데이터 기반 학습 등을 통해 고도화돼 왔다. 올해 1월부터는 정렬, 묘사, 요약, 추출, 설명, 구조화, 판단, 계획 등 주요 영역 전반에 걸쳐 수행 능력을 크게 향상시킨 하이퍼클로바X 모델인 'HCX-003'이 서비스되고 있다. 기업들이 하이퍼클로바X로 특화 모델이나 AI 서비스를 구축하는 사례도 빠르게 증가 중이다. 2천여 곳의 기업, 연구기관 등에서 클로바 스튜디오를 활용했고, 금융, 교육, 법률, 유통, 게임, 소프트웨어 등 여러 분야 기업 및 공공기관과 하이퍼클로바X 기반 혁신 서비스 구축에 협력하고 있다. 네이버클라우드 하이퍼스케일AI 성낙호 기술 총괄은 “업계 전반에서 AI 도입이 점점 더 중요해지고 있는 가운데, HCX-DASH가 생성형 AI 기술 적용에 대해 기업들이 느끼는 장벽을 낮출 수 있기를 기대한다”며 “AI로 수행하고자 하는 작업이 다양해지고 구체화되고 있는 만큼, 사용 목적에 가장 적합한 선택지를 제공할 수 있도록 필요한 기능을 갖춘 하이퍼클로바X 모델들을 출시하며 AI 생태계를 확장해나갈 것”이라고 말했다.

2024.04.28 09:16안희정

[유미's 픽] "인텔·삼성도 반했다"…네이버클라우드에 러브콜 보낸 이유

"네이버는 아시아에서 엄청난 인공지능(AI) 모델을 구축한 대단한 회사입니다." 팻 겔싱어 인텔 최고경영자(CEO)는 지난 9일(현지시간) 미국 애리조나주 피닉스에서 진행된 '인텔 비전 2024' 행사에서 네이버와의 협업을 깜짝 발표했다. 인텔이 개발한 AI 가속기 '가우디'를 토대로 작동하는 오픈 플랫폼 소프트웨어 생태계를 확대하기 위한 것으로, 네이버는 AI 시장에서의 글로벌 경쟁력을 단 번에 입증했다. 25일 업계에 따르면 인텔이 네이버를 파트너로 삼은 것은 네이버클라우드의 '하이퍼클로바X' 때문이다. 미국과 중국의 갈등이 고조되는 상황 속에 오픈 AI(GPT-3·2020년)·화웨이(판구·2021년)와 손을 잡기가 쉽지 않았던 탓도 있다. 특히 오픈AI는 마이크로소프트(MS)와 이미 파트너십을 체결해 끈끈한 관계를 유지하고 있어 인텔과 협업에 나서기가 쉽지 않았던 것으로 알려졌다. MS는 오픈AI와 파트너십을 체결한 후 지난해 100억 달러를 투자하는 등 2019년부터 총 130억 달러를 투자, 지분 49%를 보유하고 있다. MS는 지난해 11월 공개한 AI용 그래픽처리장치(GPU) '마이아100'을 오픈AI를 통해 테스트 중이다. 화웨이는 미국이 중국에 대한 견제 강도를 높이고 있다는 점에서 협업을 하기 쉽지 않은 상태다. 이곳은 2019년부터 미국 정부의 블랙리스트 기업 명단에 올라 있다. 이에 따라 인텔은 전 세계에서 세 번째로 자체 거대언어모델(LLM)을 개발한 네이버클라우드에 러브콜을 보냈다. 네이버클라우드는 지난 2021년 국내 최초로 초거대 AI 모델 '하이퍼클로바'를 공개한 후 지난해 8월 이를 고도화한 '하이퍼클로바X'를 공개한 상태였다. '하이퍼클로바X'가 글로벌 경쟁력을 갖추고 있다는 점도 인텔의 흥미를 일으켰다. 최근 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이 탓에 '하이퍼클로바X'는 국내외 다양한 곳에서 활용되며 AI 생태계 확장을 가속화하고 있다. 국내 금융, 교육, 조선뿐 아니라 리걸테크, 게임, 유통, 모빌리티, 헬스케어 등 산업 전반에 걸쳐 활용되고 있다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업도 수주했다. 이 같은 성과에 힘입어 네이버클라우드는 인텔의 AI 칩 소프트웨어 생태계 구축에 필요한 파트너로 낙점됐다. 양사는 앞으로 국내 스타트업과 대학들이 AI 연구를 진행할 수 있도록 지원할 방침이다. 인텔의 AI 가속기 칩인 '가우디' 기반의 IT 인프라를 다양한 대학과 스타트업에 제공하는 게 핵심이다. 이들은 '가우디'를 기반으로 소프트웨어 개발과 산학 연구 과제 등을 운영할 방침이다. 이를 위해 네이버클라우드와 인텔은 'AI 공동연구센터(NICL)'도 설립한다. 물리적인 센터를 설립한다기 보다 한국과학기술원(KAIST·카이스트)·서울대학교·포항공과대학교(POSTECH·포스텍)를 포함한 국내 20여 개 연구실·스타트업이 참여해 온라인상에서 유기적으로 연구 결과를 공유하는 식으로 운영될 것으로 알려졌다. 또 인텔은 네이버클라우드에 '가우디2'를 제공해 '하이버클로바X'를 테스트에 활용할 수 있도록 제공하는 한편, 일부 현물 투자도 진행하는 것으로 파악됐다. 네이버 측은 '가우디2'로 자체 LLM 구축에 박차를 가할 방침이다. 인텔 관계자는 "네이버 측과 이전부터 오랫동안 협업하며 신뢰를 쌓아왔고 국내 소프트웨어 생태계를 '가우디' 기반으로 만들어보자는 뜻이 맞아 이번에도 손을 잡게 됐다"며 "네이버가 '가우디'를 통해 '하이퍼클로바X'를 어떤 분야에 활용하면 효율적인지 찾아가는 과정이 당분간 이어질 것으로 보인다"고 말했다. 네이버클라우드도 인텔과 협력해 다진 AI 기술 경쟁력을 기반으로 '하이퍼클로바X'를 보다 합리적인 비용에 고도화할 계획이다. 나아가 미래 고부가가치 AI 신사업을 발굴·육성하고, 기존 주력 사업이었던 인터넷검색, 커머스(네이버스토어), 핀테크(네이버페이), 콘텐츠(웹툰), 클라우드 등에도 자체 AI 기술력을 접목시켜 본업 경쟁력도 공고히 할 방침이다. 김유원 네이버클라우드 대표는 "네이버클라우드처럼 초거대언어모델(LLM)을 처음부터 개발해 운영하고 있는 기업은 전 세계적으로 많지 않다"며 "더 나아가 고비용 LLM을 효율적으로 운용하기 위한 최적화 기술과 솔루션까지 제안할 수 있는 기업은 미국과 중국의 빅테크를 제외하면 네이버클라우드가 거의 유일하다"고 설명했다. 업계에선 네이버클라우드가 인텔과의 협업을 계기로 비용 절감 문제도 해소할 수 있을 것으로 봤다. 현재 AI칩 시장을 독점하고 있는 엔비디아의 GPU의 가격은 천정부지로 오른 상태로, 'H100'의 경우 공급 부족 현상 탓에 가격이 1개당 5천만원이 넘는 것으로 알려졌다. 이에 업체들은 엔비디아 중심의 AI 가속기를 대체할 만한 대안을 계속 찾고 있는 상황이다. 네이버 역시 지난해 비용 문제로 기존 AI 모델을 구동하는데 쓰던 엔비디아의 GPU를 인텔의 중앙처리장치(CPU)로 일부 전환한 바 있다. 인텔도 이 점을 노리고 지난 9일 '인텔 비전 2024'를 통해 '가우디3'를 공개했다. AI 학습과 추론에 모두 사용할 수 있는 신형 AI 가속기로, 인텔은 이 제품이 엔비디아의 제품인 'H100'보다 성능과 효율은 높다고 주장했다. LLM은 평균 50% 이상 빠르게 훈련시킬 수 있고 에너지 효율은 40% 뛰어난데 가격은 'H100'보다 더 저렴하다는 점이 강점이다. 업계 관계자는 "AI 가속기가 현재 엔비디아의 GPU처럼 범용으로 쓸 수 있는 것은 아니다"며 "네이버가 '가우디'를 어떤 워크로드에서 얼마나 효율적으로 잘 사용하고, 그 결과물을 내놓을지에 따라 양사의 사업에 대한 평가가 달라지게 될 것"이라고 말했다. 그러면서 "인텔은 이번 공동 연구를 '가우디' 성능 입증의 수단으로 활용할 수 있을 것"이라며 "네이버클라우드 역시 '하이퍼클로바X' 중심의 생태계 확장을 노릴 수 있을 것"이라고 덧붙였다. AI칩 주도권 확보를 노리는 삼성전자도 네이버클라우드에 도움의 손길을 내밀었다. AI반도체는 크게 학습용과 추론용으로 나뉘는데, 양사는 추론형 AI 반도체 '마하1' 공동 개발에 나선 상태다. 인텔 '가우스'와는 성격이 달라 경쟁 대상이 아니다. 방대한 데이터 학습을 목적으로 하는 학습용과 달리, 추론용 AI반도체는 이미 학습된 데이터를 기반으로 AI서비스를 구현하기 때문에 경량화에 특화된 것으로 평가된다. '마하1'은 기존 AI반도체 대비 데이터 병목(지연) 현상을 8분의 1로 줄이고 전력 효율을 8배 높이는 것을 목표로 한다. 업계 관계자는 "현재 AI반도체는 공급 부족 상태로, 엔비디아의 GPU가 사실상 학습용과 추론용으로 모두 쓰이고 있다"며 "추론형인 '마하1'의 가격은 엔비디아 'H100'의 10분의 1수준인 500만원 정도에 책정될 것으로 보여 가격 경쟁력을 갖출 것으로 보인다"고 말했다. 이어 "네이버클라우드가 인텔, 삼성전자 등과 손을 잡는 것은 AI 반도체의 재고 한계와 높은 비용에 대한 부담이 크게 작용한 듯 하다"며 "시장 진입이 어려운 인텔, 삼성과 엔비디아 GPU 수급이 어려워 '하이퍼클로바X'를 업데이트하기 쉽지 않은 네이버 측의 협업은 현재로선 불가피한 선택인 듯 하다"고 덧붙였다.

2024.04.25 10:44장유미

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

"아이폰16에 이런 AI 기능 들어간다"

삼성전자와 구글이 생성형 인공지능(AI) 기능을 탑재한 스마트폰을 잇따라 출시하면서 스마트폰에 AI 기능을 내장하는 것이 또 하나의 흐름이 됐다. 올 가을 출시될 예정인 아이폰16에도 다양한 AI 기능들이 탑재될 예정이며, AI 기능이 아이폰16 시리즈의 주요 판매 포인트가 될 것으로 전망되고 있다. IT매체 폰아레나는 23일(현지시간) 올해 출시될 아이폰16에 탑재될 것으로 예상되는 AI 기능들을 모아서 보도했다. ■ 시리 업그레이드 애플 AI 음성 비서 '시리'는 경쟁 서비스인 구글 어시스턴트나 아마존 알렉사와 비교하면 덜 똑똑하다는 게 일반적인 평가다. 하지만, 아이폰16에 탑재되는 시리는 챗GPT와 유사한 기능을 제공해 큰 폭의 업그레이드가 기대되고 있다. 블룸버그 통신 마크 거먼은 아이폰16에 탑재되는 시리와 메시지 앱이 생성형AI를 접목해 복잡한 질문에 대한 답변 능력을 향상시키고, 문장을 자동 완성할 수 있는 기능을 제공할 것이라고 밝혔다. 이는 시리도 구글 어시스턴트처럼 텍스트를 바꿔 말투나 어조를 바꿀 수 있고, 심지어 텍스트 구성 방법에 대한 제안을 추가할 수 있다는 것을 의미한다고 폰아레나는 전했다. ■ AI로 강화된 이미지·영상 편집 대규모언어모델(LLM)의 주요 사용 사례 중 하나는 사진과 영상의 품질을 향상시키는 것이다. 구글은 사진과 영상 콘텐츠를 보기 좋게 변환시켜주는 '매직 에디터', '비디오 부스터' 기능을 도입했다. 애플이 아이폰 카메라에 중점을 두고 있다는 점을 고려하면, 아이폰16에도 이와 유사한 기능들이 포함될 것으로 예상된다. 실제 애플은 지난 2월 이미 캘리포니아대학 산타바바라 캠퍼스 연구진과 공동 개발한 AI 모델 'MGIE'을 선보이기도 했다. 이는 사진 편집 소프트웨어(SW) 없이 명령어로반 이미지를 편집할 수 있는 AI 모델로, 이 역시 올해 아이폰16에서 볼 수 있을 것으로 전망된다고 폰아레나는 밝혔다. ■ 콘텐츠·이미지 제안 블룸버그 통신은 애플이 일부 iOS 앱에 AI 기능을 통합할 수도 있다고 밝혔다. iOS18에는 시리, 스포트라이트, 단축어, 애플뮤직, 메시지, 건강, 키노트 등의 앱에 새로운 생성형 AI 기능이 포함될 예정이며 구체적인 예시로는 애플뮤직 앱에서 자동으로 음악 목록을 생성해 주거나 키노트 앱에서 슬라이드쇼가 자동 생성되는 식이다. 또, 애플은 이 기능을 타사 앱 개발자에게 제공하는 방법을 연구하고 있는 것으로 알려졌다. ■ 온디바이스AI·클라우드 기반 AI 이번 주 블룸버그 통신은 아이폰16에 탑재되는 AI 기능은 온디바이스AI가 기반이 될 예정이라고 보도했다. 이에 따라 애플의 AI 기능은 응답 속도나 개인정보 측면에선 강점이 있을 것으로 전망됐다. 하지만 온디바이스AI의 가장 큰 단점은 복잡한 AI 알고리즘을 처리할 수 없다는 점이다. 때문에 애플은 아이폰16에서 온디바이스AI와 함께 구글 등 타 업체의 클라우드 기반 AI 기능도 함께 제공할 것으로 예상되고 있다.

2024.04.24 14:50이정현

AI 메가트렌드 시대..."네이버 '하이퍼클로바X' 혁신 주도"

올해는 세계적으로 인공지능(AI)의 폭발적인 성장이 예고된 해다. AI는 이제 단순한 기술 트렌드를 넘어 산업 전반의 판도를 바꾸는 메가트렌드로 자리 잡았다. 한국무역협회 국제무역통상연구원이 지난 3월 발표한 '우리 기업이 주목할 만한 2024년 글로벌 기술 트렌드 전망'에서도 AI의 위상을 확인할 수 있다. 보고서는 생성형 AI가 모빌리티·로봇·헬스케어·스마트홈 등 전 산업군에 활용되고 있으며, 비(非) 테크 분야의 기업들까지 AI 기술 도입에 적극적이라고 분석했다. 하지만 글로벌 빅테크 기업들이 AI 시장을 선점하고 있어, 후발주자인 한국 기업들의 고민이 깊어지고 있다. 막대한 자본으로 무장한 거대 기업들의 벽을 넘기가 쉽지 않기 때문이다. 보고서는 이 같은 상황에서 한국 기업들의 전략적 접근이 그 어느 때보다 중요하다고 강조한다. 이 가운데 네이버의 초대규모 AI '하이퍼클로바X(HyperCLOVA X)'의 행보가 주목 받고 있다. 지난해 공개된 하이퍼클로바X는 불과 1년여 만에 55건의 업무협약(MOU)을 성사시키며, 산업 전반에 걸친 AI 생태계 확장을 가속화하고 있다. 네이버클라우드는 최근 HD현대와 MOU를 체결하고 HD현대가 보유한 2억 건 이상의 조선 분야 데이터베이스(DB)에 하이퍼클로바X를 접목해 생성형 AI 서비스 구현 및 조선·해운 영역에서의 다양한 신사업을 공동 진행한다고 밝혔다. 또 법무법인 대륙아주, 넥서스AI와 협력해 하이퍼클로바X 기반으로 개발한 법률Q&A서비스 'AI 대륙아주'를 통해 리걸테크 분야 혁신을 주도하고 있다. AI 도입에 관심이 높은 금융과 교육 분야에서도 하이퍼클로바X의 활약이 기대된다. 금융권에서는 지난해 미래에셋증권과 해외 주식 실시간 번역·요약 서비스를 출시한 것을 시작으로, 한국은행, 한국투자증권 등과 연달아 업무협약을 체결했다. 최근 파트너십을 맺은 금융감독원과는 AI 기술을 활용해 개선할 수 있는 금융감독 업무 분야를 발굴할 계획이다. 교육 분야에서는 경상북도교육청과 하이퍼클로바X를 적용한 AI 플랫폼 학교지원종합자료실을 개설해 교직원들의 업무 경감에 도움을 줬다. 한국교과서협회와 함께 AI디지털교과서 공동 활용 플랫폼을 개발해 국내 환경에 최적화된 교육 서비스를 제공한다는 구상이다. 이 밖에도 NHN클라우드와 AI 공동사업을 위한 MOU를 체결하고, 쏘카와는 AI 기반 모빌리티 서비스 고도화를 추진 중이다. 스마일게이트, 현대백화점, 국민건강보험공단, 한국수력원자력 등 모빌리티, 게임, 유통, 헬스케어, 에너지 등 다양한 분야의 기업 및 기관과 협력하며 AI 기반 혁신을 주도하고 있다. 하이퍼클로바X의 성과는 국내에 그치지 않는다. 지난해 10월에는 사우디아라비아 정부로부터 디지털 트윈 구축 사업을 수주했으며, 올해 3월에는 사우디 아람코의 자회사인 아람코디지털과 아랍어 초거대언어모델(LLM) 기반의 소버린 AI 개발에 협력하기로 했다. 사우디 대중교통공사인 SAPTCO와는 지능형 교통 시스템 구축을 위한 MOU를 체결했다. 중동을 시작으로 글로벌 AI 시장 공략에 속도를 내고 있는 것이다. 네이버클라우드의 이 같은 행보에는 하이퍼클로바X의 탄탄한 기술력과 인프라가 자리 잡고 있다. 4월 공개된 하이퍼클로바X '테크니컬 리포트'에 따르면, 하이퍼클로바X는 한국어, 일반상식, 수학, 코딩 부문에서 글로벌 오픈소스 AI 모델들을 능가하는 성능을 보였다. 특히 한국어 이해도와 언어 간 번역, 다국어 추론 능력 등에서 세계 최고 수준을 자랑한다. 또 팀네이버의 검증된 기술력을 기반으로 네이버웍스, 파파고 웨일스페이스 등 협업·교육·번역·공공 등 다양한 분야의 AI 서비스 경험과 인프라를 보유하고 있다. 여기에 AI 공인교육, AI 윤리 정책 수립 등 미래 지향적인 AI 기술 개발과 선도적인 정책 수립에도 앞장서고 있다. 이런 하이퍼클로바X의 사례는 국내 IT 기업은 물론, 금융, 의료, 에너지 등 주력산업 기업들의 AI 도입을 가속화하는 마중물이 되고 있다. 특히 국내 AI 스타트업과 연구 생태계에 활력을 불어넣으며, 한국의 AI 주권을 수호하고 있다는 평가다. 네이버클라우드 관계자는 "하이퍼클로바X는 한국을 대표하는 생성형 AI로서, 국내 산업의 AI 대전환을 가속화하는 견인차 역할을 하고 있다"며 "앞으로도 산업 맞춤형 AI 서비스 개발과 글로벌 시장 진출을 본격화해, AI 생태계 확장을 주도해 나갈 것"이라고 강조했다.

2024.04.23 16:47백봉삼

SAS 바이야, 생성형 AI 기능 강화

SAS는 지난 16일부터 19일까지 미국 라스베이거스에서 개최한 'SAS 이노베이트 2024'에서 최신 AI 및 데이터 분석 관련 제품과 비즈니스 사례를 발표했다고 22일 밝혔다. SAS는 데이터 분석 플랫폼인 'SAS 바이야'에 대규모언어모델(LLM) 오케스트레이션 기능을 제공한다고 밝혔다. 이를 통해 생성형 AI를 활용하고자 하는 고객은 LLM에 대한 설명력을 제공받아 업무 프로세스에 LLM을 쉽게 통합할 수 있게 됐다. SAS는 'SAS 데이터 메이커'를 출시하고, 생성형 AI 구현에 필요한 합성 데이터 생성을 지원한다. 더불어 산업별로 특화된 생성형 AI 비서 기능을 통해, 신뢰성 있는 생성형 AI의 적용을 확대하며 혁신을 이어나갈 예정이다. SAS 바이야는 LLM 오케스트레이션 기능을 통해 외부 생성형 AI 모델을 기존 비즈니스 프로세스 및 시스템과 쉽게 통합할 수 있어, 활용성을 높여준다. SAS 바이야 코파일럿 기능을 통해 분석 및 산업별 업무를 지원하는 개인 비서를 활용할 수 있다. 'SAS 바이야 코파일럿'은 코드 생성, 데이터 정리, 데이터 탐색, 마케팅 계획, 여정 설계 및 지식 격차 분석과 같은 작업에 활용되며, 개발자, 데이터 과학자 및 비즈니스 사용자의 생산성을 높여준다. SAS 데이터 메이커는 민감한 정보를 손상시키지 않으면서 고품질의 합성 데이터를 생성해 데이터 개인 정보 보호 및 데이터 부족 문제를 해결해 준다. SAS의 마케팅 솔루션인 'SAS 커스터머 인텔리전스 360'도 마케팅 계획, 여정 설계 및 콘텐츠 개발에 생성형 AI 지원을 제공한다. 'SAS 커스터머 인텔리전스 360'에서 자연어 프롬프트를 통해 타겟 고객층을 선정하거나, 채팅 서비스, 이메일 제목 추천 등에 생성형 AI를 활용할 수 있다. SAS는 'SAS 바이야'의 생성형 AI 및 LLM 오케스트레이션 기능의 사례로 미국 종합 제지 및 포장 제조 기업 조지아 퍼시픽 사례를 소개했다. 'SAS 바이야'의 센서 데이터, 비즈니스 룰, 추천 시스템, 스트리밍 분석 및 지능형 의사 결정 관리 지원을 통해 조지아-퍼시픽은 이벤트 발생 시, 빠르게 올바른 결정을 내림으로써 즉각적인 가치를 창출하고 있다. 조지아-퍼시픽은 SAS LLM 오케스트레이션과 제조에 특화된 생성형 AI 비서를 활용해 실시간으로 운영 문제를 해결하고 있다. 작년 5월 AI 산업 솔루션 개발에 10억 달러 투자 계획을 발표했던 SAS는 그 일환으로 패키지 형태의 산업특화형 AI 모델을 공급한다고 밝혔다. SAS는 개별 라이선스 방식으로 이용할 수 있는 산업별 맞춤형 경량 AI 모델을 제공함으로써 기업 고객들은 효율적인 방식으로 모델 패키지 도입 즉시 AI 기술 활용이 가능하다. SAS는 수십 년간 전 세계 금융, 의료, 제조 및 정부 기관에 확장 가능하고 신뢰성 있는 AI 모델을 배포하는 데 독보적인 입지를 보유하고 있다. 이번에 발표된 산업특화형 AI 모델을 통해 SAS는 LLM을 넘어, 사기 탐지, 공급망 최적화, 문서 기반 대화 서비스 및 의료비 사기 적발 등의 분야에서 사용이 입증된 결정론적 AI 모델을 제공하게 됐다. 특히, SAS의 산업별 AI 모델은 신속한 통합이 가능하도록 설계돼, 기업은 신뢰성 있는 AI 기술을 운영하고 가시적인 이익과 신뢰할 수 있는 결과를 더욱 빠르게 얻을 수 있다. SAS는 AI 모델 개발을 위한 경량 플랫폼 'SAS 바이야 워크벤치' 출시를 발표했다. 'SAS 바이야 워크벤치'는 개발자 및 모델작업자를 위한 셀프서비스 방식의 컴퓨팅 환경으로, 데이터 준비, 탐색 데이터 분석, 분석 모델 및 머신러닝 모델 개발 작업을 할 수 있다. 개발자와 모델작업자는 'SAS 바이야 워크벤치'를 이용해 클라우드 기반의 확장형 환경에서 SAS 나 파이썬 중 선호하는 언어로 작업이 가능하다. 현재 SAS와 파이썬으로 이용 가능하며, 2024년 말에는 R도 지원 예정이다. 또한, 주피터 노트북 및 주피터 랩과 비주얼 스튜디오 코드 등 두 가지 개발 환경 옵션을 제공한다. 'SAS 바이야 워크벤치'에서 제공하는 강력한 SAS 분석 프로시저(PROCs)와 네이티브 파이썬 API를 통해 고성능의 AI 모델을 더욱 빠르게 개발할 수 있다. 'SAS 바이야 워크벤치'는 아마존 AWS 마켓플레이스에서 올 2분기 내에 공급 예정이며, 추후 추가적인 클라우드 및 SaaS 옵션이 발표될 예정이다. SAS는 'SAS 호스티드 매니지드 서비스'를 아마존웹서비스(이하 AWS)로 확대한다고 밝혔다. SAS는 'SAS 매니지드 서비스' 포트폴리오에 AWS를 추가함으로써 고객들의 퍼블릭 클라우드 플랫폼에 대한 선택권을 넓히게 되었으며, 또한 클라우드 기반 데이터 및 AI 플래폼인 'SAS 바이야'를 포함해 자사의 다양한 첨단 기술 및 제품을 호스티드 매니지드 서비스의 형태로 고객들에게 공급할 수 있게 됐다. SAS는 이미 마이크로소프트 애저, 구글클라우드플랫폼 등을 포함한 다양한 클라우드 포털을 통해 SAS 바이야를 공급해 왔다. 이번 발표는 'SAS 호스티드 매니지드 서비스'의 확대로, SAS 제품의 설치, 구성, 운영 및 유지 보수에 이르는 전과정을 SAS의 전문적인 클라우드 서비스를 통해 제공하는 것이다. 이를 통해 이미 AWS를 사용 중인 'SAS 9' 고객들은 보다 간소하게 'SAS 바이야'로 전환할 수 있게 됐다. 'SAS 매니지드 서비스'는 가동시간을 극대화하고 관리 비용은 최소화하는 동시에 데이터의 가치 실현까지의 시간을 단축한다. SAS는 AI 거버넌스 및 지원 모델의 신뢰도와 투명성을 향상하기 위해 새로운 신뢰성 있는 AI 제품 및 서비스인 '모델 카드'와 'AI 거버넌스 자문 서비스'를 소개했다. 이를 통해, 기업들은 급변하는 AI 환경에서 올바른 선택을 하고, 리스크를 완화하며, 보다 확신 있게 AI 목표를 달성할 수 있다. SAS 바이야에서 제공되는 '모델 카드'는 AI 모델을 위한 '영양 성분표'와 같은 개념으로 정확도, 공정성, 모델 드리프트와 같은 지표를 보여준다. 모델의 최종 수정 시기, 모델에 기여한 사람, 모델에 대한 책임자와 같은 거버넌스 정보가 포함돼 있어, 조직이 비정상적인 모델 성능을 내부적으로 해결할 수 있게 해준다. 이처럼 개발자와 의사결정권자 등 모든 사용자에게 AI 수명 주기 전반에 걸쳐 독자 모델과 오픈소스 모델을 지원하는 엄선된 툴을 공급함으로써 신뢰성 있는 AI의 가치를 창출하게 될 것이다. 2024년 중반에 출시되는 '모델 카드'는 SAS 제품에서 콘텐츠를 가져와 등록된 모델에 대한 '모델 카드'를 자동으로 생성해, 개별 사용자가 '모델 카드'를 생성해야 하는 부담을 덜어준다. SAS 바이야는 이미 오픈소스 관리를 위한 기존 아키텍처를 보유하고 있어, 파이썬 모델을 시작으로 오픈소스 모델에도 '모델 카드'를 사용할 수 있다. '모델 카드'와 함께 'AI 거버넌스 자문 서비스'는 AI와 데이터 활용 방법을 고민하는 고객을 위해 제공하는 부가서비스로, 고객과의 미팅을 통해 조직의 현 상황을 파악하고 관련 서비스를 제공한다.

2024.04.22 09:36김우용

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

삼성 SDS "업무 환경 바꾼 생성형 AI…SCP로 쉽게 쓴다"

"생성형 인공지능(AI)으로 인해 업무 환경에 큰 변화가 생길 것으로 예상합니다. 향후에는 AI에 어떻게 일을 시킬지 지시하고, 이후 업무 시간에는 AI가 스스로 일하는 양상이 이뤄질 것으로 보입니다. 삼성 SDS는 클라우드 플랫폼을 통해 이러한 환경 조성을 지원할 수 있도록 힘쓰겠습니다." 삼성SDS 최정진 그룹장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '어드밴스드 컴퓨팅 컨퍼런스 플러스(ACC+) 2024'에서 생성형 AI 도입을 위한 클라우드 서비스에 대해 이같이 밝혔다. 최 그룹장이 이처럼 클라우드 서비스를 강조하고 나선 것은 최근 다양한 기업에서 효율성과 신속성 증대를 위해 생성형 AI를 업무에 적용하고 있어서다. 최 그룹장은 "이러한 상황에서 클라우드 서비스의 중요성이 높아지고 있다"며 "이를 잘 사용하기 위해서는 서비스 제공자와 사용자 양쪽 모두가 책임을 다해야 한다"고 설명했다. 이어 "생성형 AI를 활용하기 위한 요소로는 프라이빗한 클라우드, 데이터 플랫폼, AI 인프라가 필요하다"며 "삼성 SDS는 궁극적으로 '사람이 지시하면 생성형 AI가 스스로 데이터를 연결, 생성하고 분석해서 수행하는 하이퍼 오토메이션'을 지향한다. 삼성 클라우드는 이러한 것을 지원하는 형태"라고 덧붙였다. 최 그룹장은 삼성 클라우드 플랫폼(SCP) 적용 사례에 대해서도 설명했다. 최 그룹장이 강조한 것은 크게 ▲국내 카드사 ▲보험사 콜센터 ▲글로벌 전지제조사 등이 있다. 이날 강연에 따르면 기존 카드사들은 디지털 채널을 사용했다. 이 경우 회원관리·대출·결제 등의 다양한 기능이 하나의 시스템에서 진행됐다. 최 그룹장은 "기존에는 하나의 기능이 문제가 생기면 시스템 전체가 다운되는 현상이 발생했고, 기능을 업그레이드할 때 전체 서비스를 멈춰야하는 단점도 있었다"며 "금융 사이트에서 주말이나 명절에 점검 시간을 두는 것도 이러한 이유"라고 설명했다. 그러면서 "하지만 디지털 채널을 SCP로 적용하면서 서비스별 MSA(마이크로 서비스 아키텍처)를 적용할 수 있게 됐다"며 "이를 통해 고객사는 서비스 가용성 향상, 비용절감을 포함해 다양한 이벤트와 서비스 기능을 신속하게 구현할 수 있게 됐다"고 덧붙였다. 삼성SDS는 보험사 콜센터의 경우 고객 개인정보를 프라이빗 클라우드 시스템으로 구축할 수 있게 했다. 이를 통해 콜센터와 보험 시스템 사이 응답속도를 빠르게 해 업무효율성을 증대시켰고 고객 개인정보에 대한 보안도 높였다. 글로벌 전지 제조사와 관련해선 "전기차의 경우 배터리로 인한 화재가 발생했을 시 데이터를 신속·정확하게 분석해야 한다"며 "하지만 사진과 같은 비정형 데이터를 조회하고 추철하려면 오랜 시간이 걸린다"고 말했다. 이어 "특정 데이터로 인사이트를 도출하기 위한 분석 플랫폼도 부족하다"며 "SCP를 적용하면서 이러한 단점들이 상쇄됐다"고 부연했다. 또 그는 "삼성 SDS는 기업의 생성형 AI 적용을 위해 SCP 서비스를 지원하고 있고, 고객이 이를 손쉽게 활용할 수 있도록 다양한 방식으로 무료 교육도 제공하고 있다"며 "삼성 SDS 유튜브 채널에는 이를 손쉽게 활용할 수 있도록 하는 다양한 데모 및 교육영상이 게재됐다"고 강조했다.

2024.04.17 15:24강한결

'ACC+ 2024' 찾은 관람객 "흥미롭다"…AI·클라우드 혁신 전략 쏟아져

"인공지능(AI) 최신 트렌드를 한 자리에서 많이 알 수 있어서 좋았어요." 챗GPT를 비롯한 생성형 AI 기술이 빠른 속도로 발전하고 있는 가운데 혁신적인 최신 IT 기술과 현업에 종사하는 디지털 선구자들의 통찰력을 확인할 수 있는 자리가 마련돼 업계의 높은 관심을 받았다. 지디넷코리아는 17일 서울 강남구 인터컨티넨탈 코엑스 하모니볼룸에서 'ACC+ 2024(Advanced Computing Conference+ 2024)' 컨퍼런스를 진행했다. '디지털 프론티어 2024 : 더 넥스트 웨이브 오브 테크 이노베이션(Digital Frontier 2024 : The Next Wave of Tech Innovation)을 주제로 이날 막을 올린 'ACC+ 2024'에서는 국내외 19개 기업이 참여해 최근 각광받고 있는 AI를 비롯해 IT 혁신안 등을 제시했다. 또 행사장 한 켠에선 AI, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 보다 직접적으로 경험해 볼 수 있는 기업 전시부스도 운영돼 관람객들의 이목을 집중시켰다. 이날 현장엔 개막 시간 이전인 이른 아침부터 참관객들이 몰려 북새통을 이뤘다. 특히 등록 부스 현장 앞에선 IT 업계인들끼리 명함을 교환하며 친목을 다지기도 했다. AI와 클라우드 등 저마다의 견해를 표하는 인사들로 들썩이던 장내는 본격적인 발표 세션이 시작되자 일순 조용해지며 연사에게 시선이 주목됐다. 이날 첫 번째 기조연사로 나선 김진용 지코어코리아 팀장은 시야를 국외로 확장해 유럽연합(EU) AI 현황을 짚었다. 김 팀장은 AI의 이상과 현실은 간극이 있다는 해석을 표하면서 AI의 다양한 자원, 현실적 적용 사례들을 제시했다. 두 번째 연사를 맡은 팀뷰어코리아의 이찬종 솔루션 컨설턴트는 물리적 세계와 가상의 융합, 즉 증강현실과 AI를 접목한 혁신 사례를 소개했다. 증강현실을 통해 물리적 이동 없이 현장과 가상에서 많은 사람들이 함께 협업할 수 있는 AI 기술은 혁신이라는 설명이다. 또 다양한 산업에 AI가 어떻게 적용될 수 있는지 전략도 알렸다. 총 3개 트랙으로 진행된 오후 세션엔 레노버를 비롯해 ▲메사쿠어컴퍼니 ▲삼성SDS ▲시스코&모코엠시스 ▲알리바바 클라우드 ▲수세(SUSE) ▲오라클 ▲크라우드웍스 ▲오픈서베이 ▲플로우 ▲세일즈포스 등 국내외를 총망라한 기업 관계자들이 등장해 저마다 AI 시대를 맞는 순도 높은 해법을 공개했다. 다양한 AI 혁신을 주제로 진행된 행사인 만큼 참관객들의 반응도 돋보였다. 실제 작년과 올해 연이어 두 번째 방문이라는 교원그룹 소속 정유정 씨는 "AI와 신기술에 관심이 있어서 올해도 연이어 참여했다"며 "전반적인 산업 트렌드를 얻은 것 같은 기분이다. 우리 회사가 교육 기업인 만큼 기술을 다방면으로 검토할 수 있을 것 같다"고 말했다. 이날 행사를 찾은 또 다른 기업 관계자 역시 "데이터 관련해서 최신 IT 전략을 관심있게 지켜봤다"며 "보통 업무 관련해서 클라우드 행사를 많이 다니는데 이번 행사에서는 AI 관련 세션도 특히 흥미가 있었다"고 밝혔다. 지디넷코리아 관계자는 "엔데믹 이후 디지털 혁신 기술의 물결이 거세게 밀려오는 가운데, 이번 ACC+ 2024 행사가 기업 디지털 전환의 방향타 역할을 할 것으로 기대된다"고 전망했다.

2024.04.17 13:50이한얼

지코어 "삶을 바꾸는 생성 AI의 위치는 엣지"

“인공지능(AI)이 인류의 미래를 바꿀 것이라 전망되지만, AI가 어떻게 산업에 연결돼 서비스로 다가오고 경제 생활을 만들어낼 지 알 수 없다. 가시적인 변화는 AI가 생산성으로 이어져야 가능할 것이다. 일반인공지능(AGI)도 중요한 문제고 인류의 미래를 바꾸겠지만, 기업의 먹거리와 인류의 삶을 바꾸는 AI는 결국 엣지에서 있을 것이다.” 지코어코리아 김진용 팀장은 지디넷코리아가 17일 서울 인터컨티넨탈코엑스에서 개최한 '제21회 어드밴스드컴퓨팅컨퍼런스플러스(ACC+) 2024' 기조연설에서 이같이 밝혔다. 김진용 팀장은 "생성형 AI는 2년도 안 돼 부풀려진 기대치의 정점을 찍었고, 곧 환멸의 골짜기에 도달할 것으로 보인다”며 “생성형 AI 기업의 운영 비용은 월 100만달러에 달하는 큰 부담을 주고 실질적인 이익을 벌어들이지 못하는 상황이기 때문”이라고 설명했다. 김 팀장은 “현 시점에서 필요한 것은 기존 자산을 잘 조합하고 새로운 아이디어를 고안해내서 새로운 혁신을 이루는 것”이라며 “AI 학습과 추론, 모델을 묶어서 사용자 가까이 있는 디바이스와 안전한 통신으로 연결되는 모든 세트를 갖춰야 한다”고 강조했다. 지코어는 160개 이상의 국가와 지역에 PoP를 운영하고 있다. 강력하고 안전한 클라우드 및 엣지 AI에 대한 노하우를 보유하고 있는 기업이라고 스스로를 강조한다. 특히 생성형 AI 학습과 추론에 필요한 전용 인프라를 클라우드 서비스로 제공하고 있다. 최근 지코어코리아는 한국 데이터센터를 개소했다. 품귀현상을 보이는 엔비디아 H100 텐서코어 GPU 서버를 설치했다.지코어의 H100 기반 AI 퍼블릭 클라우드 서비스는 SMX5 타입의 H100 GPU를 각 8개씩 탑재한 서버들을 대규모 클러스터로 구성해 강력한 컴퓨팅 능력을 제공한다. AI학습 성능에 가장 큰 영향을 미치는 GPU간 연결을 모두 인피니밴드 NDR(400Gbps)로 구성해 각 서버당 대역폭을 3.2Tbps로 제공한다. 김진용 팀장은 “생성형 AI의 아키텍처는 기존 엔터프라이즈용 애플리케이션과 달리 서비스 부분에서 많은 자원이 필요하다”며 “지코어는 훈련용과 추론용 인프라로 GPU 자원을 제공하며, 더 특별한 수요에 대응하는 IPU도 제공한다”고 말했다. 지코어의 또 다른 강점은 네트워킹 인프라다. 콘텐츠딜리버리네트워크(CDN)에서 시작한 회사란 장점을 살려 초저지연시간을 보장하는 고속 네트워크를 생성 AI에 제공할 수 있다. 지코어의 클라우드 컴퓨팅은 '서버리스 컴퓨팅'에 기반한다. 거대언어모델(LLM)을 사용할 때 자원 할당을 별도로 하지 않아도 되며, 실제로 모델을 작동시키는 양만큼만 비용을 내면 된다. 그는 “AI는 지연시간에 민감한 서비스기에 지코어는 글로벌 평균 26밀리초의 지연시간을 유지하며, 한국의 경우 한자릿수 밀리초의 지연시간으로 이용할 수 있다”며 “다양한 LLM을 기업이 모두 미리 깔아놓을 수 없으므로 정말 필요할 때 자원과 모델을 곧바로 활용할 수 있도록 서버리스 컴퓨팅으로 제공하고 있다”고 설명했다. 지코어는 중앙의 인프라와 네트워킹에 더해 엣지 단계에서 AI 모델 추론을 수행할 수 있는 환경도 제공한다. '인퍼런스앳더엣지'란 서비스는 160여개 지코어 POP의 캐싱서버에 암페어 알트라맥스와 엔비디아 L40S 칩을 두고 고객의 AI 서비스를 구동할 수 있게 한다. 필요한 LLM도 캐싱해 빠르게 제공할 수 있으며, 유사한 추론을 반복적으로 하게 되는 상황을 감안해 모델응답을 캐시할 수 있다. 김 팀장은 “사용자가 지코어 기잔의 AI 서비스에 접속하면 인퍼런스앳더엣지의 AI 칩으로 다양한 모델을 끌어와 서비스를 돌릴 수 있다”며 “지리적 혹은 정치적 이유에 따른 규제 차이에 맞게 답변과 모델에 차이를 둬야 할 때도 맞춤형으로 대응가능하다”고 말했다. 그는 여기에 '5G 보안 네트워크' 기반으로 생성 AI와 사용자 디바이스를 연결할 수 있다고 했다. 사용자, 기업 등의 데이터가 외부에 유출되지 않도록 제로트러스트 네트워크를 통해 정보를 주고 받을 수 있다. 그는 “어떤 IoT 디바이스든 데이터를 실제 AI 서비스 장소까지 안전하게 전달하는 센서 데이터 보안 확보가 가능하다” 그는 “지코어의 서비스를 통해 '모든 것의 인터넷(IoT)'에서 '모든 것의 AI(AioT)'라 할 수 있게 된다”며 “지코어는 앞으로 AI 시장이 우리 현실 속에 들어온 엣지 디바이스에서 일어날 것으로 생각하며 이를 실현하기 위해 어느 기업보다 먼저 아키텍처를 고안해 선보이고 실제로 잘 움직이도록 잘 조율해 서비스에 녹여왔다”고 강조했다.

2024.04.17 11:53김우용

中 'AI 초거대 모델'로 우주 관측·분석도 자동화

중국에서 천문학 연구에 초거대 인공지능(AI) 모델을 접목한다. 16일 중국 언론 IT즈자에 따르면 중국과학원 국가천문대 인공지능TF는 차세대 천문 초거대 AI 모델 '싱위(星语) 3.0'을 발표했다. 싱위 3.0은 알리바바클라우드의 '퉁이쳰원' 오픈소스 모델을 기반으로 만들어졌다. 이미 중국 국립 천문대 싱풍관측소의 망원경 '미니 쓰톈'에 연결됐다. 최근 망원경 갯수가 증가하면서 대형 망원경의 배치를 제어하는 방법은 천문학계가 직면한 공통 과제로 꼽힌다. 과거 천문 관측은 주로 관측 보조원과 과학 연구자들의 협력에 의존해왔다. 과학 연구진이 관측 장소의 기상 조건에 따라 관측 계획을 수정하고, 관측실에 데이터가 피드백될 때 까지 기다렸다가 실시간으로 데이터를 분석한 결과를 갖고 관측 계획을 수정했다. 중요한 관측 목표물 각각에 대한 수동적인 제어가 필요해 동시에 여러 망원경을 제어하기 어렵고 효율도 낮았다. 싱위 3.0은 이러한 문제를 해결하기 위해 30만 명 이상의 전문가 교정 데이터를 바탕으로 훈련을 완수했다. 이를 통해 중국 국립 천문대 싱룽관측소 망원경 미니 쓰톈에 연결돼, 이 망원경을 독립적으로 제어하면서 관측을 수행하고 관측 결과를 분석할뿐 아니라 지능적으로 다음 관측 계획을 제안할 수도 있다. 예컨대 '특정 행성 관찰' 임무를 받으면, 먼저 특정 행성의 좌표 정보를 조사하고 확인해 관측자에게 피드백한다. 확인을 받으면, 관측자가 입력한 계획에 따라 자동으로 관측을 한다. 한 번 노출이 이뤄지고 나면, 초거대 모델이 데이터를 회수 및 처리하며 목표물의 관측 가치를 판단해 다음 관측 계획을 추천한다. 쓰톈은 중국 천문학자들이 국가 차원의 천문 인프라 프로젝트로, 2030년까지 미터급 망원경 수가 72개에 달하고 매일 밤 약 140TB의 처리 데이터를 생성한다. 초거대 AI 모델 도입을 통해 과학 연구진은 지루한 관측에서 벗어나 연구에 더 집중할 수 있을 것이라고 매체는 전했다.

2024.04.17 07:16유효정

AWS코리아, 다음달 'AWS서밋서울 2024' 개최

아마존웹서비스(AWS)코리아는 다음달 16일과 17일 양일간 서울 코엑스에서 'AWS 서밋 서울 2024'를 개최한다고 16일 발표했다. 올해로 10주년째인 'AWS 서밋 서울'은 클라우드 기술 컨퍼런스다. 2015년부터 10만 명 이상의 고객이 참여했다. 이 행사는 각 기업 및 정부 부처의 리더와 개발자 및 일반 대중이 한자리에 모여 생성형 AI 및 업계의 최신 동향과 AWS 서비스에 관해 소통·협업하고 배울 수 있는 무료 교육 행사다. 올해 AWS 서밋 서울은 10주년을 기념해 2015년 첫 행사 이래 최대 규모로 개최될 예정이다. 서밋 참가자들은 지난 10년 간의 AWS 서밋의 여정을 살펴보는 동시에, 혁신을 강화하고 미래를 변화시키고자 하는 AWS의 비전을 현장에서 경험할 수 있다. 이번 서밋에서는 기조연설과 세션, 엑스포를 통해 생성형 AI를 중점적으로 다룰 예정이다. 행사는 클라우드 및 생성형 AI 혁신을 다루는 70개 이상의 고객사 세션을 포함한 100개 이상의 세션으로 구성되며, 60개 이상의 파트너사가 세션 및 엑스포 부스를 통해 AWS 에서 운영되는 다양한 서비스를 선보인다. 행사 첫날은 함기호 AWS 코리아 대표의 기조연설로 시작된다. 함기호 대표는 올해로 10주년을 맞이하는 서밋의 의의, 올해 행사 내용 소개와 함께 AWS의 국내 투자 및 지원에 대해 발표하고, 이어서 프란체스카 바스케즈 AWS 프로페셔널 서비스 및 생성형 AI 혁신센터 부사장이 AI 기반 혁신의 미래에 대해 이야기할 예정이다. AWS 고객사와 파트너사인 앤스로픽, SK텔레콤, 우아한형제들이 AWS와의 협력 및 클라우드 기술 기반 디지털 혁신 성공사례를 기조연설을 통해 공유할 예정이다. 행사 둘째 날 기술적인 영역에 집중해 생성형 AI를 중심으로 AI와 머신러닝(ML), 분석, 보안, 데브옵스, 최신 애플리케이션, 서비스형 소프트웨어(SaaS), 마이그레이션 전략 등의 최신 기술에 대해 심도 있게 다룰 예정이다. 버너 보겔스 아마존 부사장 겸 CTO와 맷 우드 AWS 제품 담당 부사장의 화상 기조연설, 그리고 인프랩, 카카오페이증권, 센드버드 및 윤석찬 AWS 수석 테크 에반젤리스트의 현장 기조연설을 통해 AWS의 주요 서비스 및 기술에 대한 종합적인 인사이트를 선보일 예정이다. 방문객은 양일 간 현장 엑스포를 통해 새로운 기술 아이디어와 최신 트렌드를 경험할 수 있다. 특히 체험존에서는 모빌리티, 로보틱스 등 다양한 산업군과 연계된 생성형 AI 기반의 창의적인 솔루션에 대한 데모가 시연될 예정이다. 고객들은 현대자동차와 AWS의 협업을 기반으로 생성형 AI로 구동되는 스마트 모빌리티의 혁신을 체험할 수 있으며, 다양한 AWS 서비스를 통해 작동하는 언어와 댄스 동작을 구현하는 AI 기반 로봇도 만나볼 수 있다. 함기호 AWS코리아 대표는 “지금까지 10만여 명에게 새로운 인사이트를 제공해 온 AWS 서밋 서울이 어느덧 올해로 10주년을 맞았다”며 “AWS는 앞으로도 생성형 AI 시대를 위한 핵심 역할을 하며, 고객과 함께 산업과 기업 전반의 혁신을 주도해 나갈 것”이라고 밝혔다. 그는 “국내 최대 규모의 클라우드 행사인 이번 AWS 서밋 서울 2024를 통해 조직의 효율성과 성장력 제고를 위한 생성형 AI와 클라우드 기술 활용에 관한 귀중한 인사이트와 경험을 얻어 가실 수 있기를 바란다”고 강조했다.

2024.04.16 10:23김우용

몽고DB, 구글클라우드와 생성형 AI 협력 확대

몽고DB는 최근 개최된 '구글 클라우드 넥스트 2024'에서 구글 클라우드와 협력 강화를 발표했다. 협력 확대로 개발자는 몽고DB 아틀라스 벡터 서치와 구글 클라우드의 버텍스 AI를 사용해 생성형 AI 애플리케이션을 더욱 쉽고 비용 효율적으로 구축, 확장 및 배포할 수 있으며, 빅쿼리를 통한 데이터 처리 시 추가 지원을 제공받을 수 있다. 양사는 유통 및 제조업을 위한 새로운 산업 솔루션을 위해 손잡고, 몰입도 높은 쇼핑 경험과 스마트 팩토리용 데이터 기반 애플리케이션에 적합한 개발 환경을 제공한다. 이와 함께 민감한 데이터 기반의 워크로드 실행을 위한 몽고DB 엔터프라이즈 어드밴스드 구글 분산형 클라우드(GDC) 지원도 새롭게 추가됐다. 몽고DB와 구글 클라우드는 2018년 파트너십 체결 이후 켈러 윌리엄스, 파워렛저, 렌트더런웨이, 얼타 등 수천 개의 공동 고객사가 클라우드 네이티브 데이터 전략을 채택하고 조직 운영 및 엔드 유저 서비스 방식을 현대화하도록 도왔다. 몽고DB 아틀라스 서치 노드를 구글 클라우드에서 이용할 수 있게 됨에 따라 아틀라스 벡터 서치 및 아틀라스 서치를 사용하는 생성형 AI 및 관련성 기반 검색 워크로드를 위한 전용 인프라를 제공한다. 고객은 핵심 운영 데이터베이스 노드와는 별개로 아틀라스 서치 노드를 통해 워크로드를 분리하고 비용을 최적화하며 쿼리 시간을 최대 60%까지 단축할 수 있다. 특정 기간에만 트래픽이 많은 애플리케이션을 운영하는 금융 서비스 기업의 경우, 아틀라스 서치 노드가 포함된 전용 인프라를 통해 전체 워크로드 중 생성형 AI가 적용된 영역을 분리 및 확장하며 데이터베이스로부터 독립적으로 성능을 최적화할 수 있다. 기업은 전체 데이터베이스 크기를 조정할 필요 없이 자율 작업이 가능한 AI 에이전트를 위해 아틀라스 벡터 서치로 지식 검색 워크로드를 확장할 수 있다. 양사는 지난해 아틀라스 벡터 서치와 버텍스AI의 통합을 발표한 이래 생성형 AI 애플리케이션 구축을 위한 관리형 파운데이션 모델의 선택지를 넓혀왔다. 이제 전용 버텍스AI 확장 프로그램을 통해 데이터 변환이나 아틀라스 및 구글 클라우드 간 데이터 파이프라인을 관리할 필요 없이 엔트로픽, 구글클라우드, 메타, 미스트랄 등 대규모 언어 모델(LLM)을 쉽게 활용할 수 있다. 개발자는 조직의 실시간 운영 데이터로 LLM을 보강할 수 있어 복잡성을 낮추는 한편, 정확성과 신뢰성을 갖추고, 컨텍스트에 맞는 고도로 개인화된 엔드 유저 경험을 제공하는 최신 애플리케이션을 구축할 수 있다. 버텍스AI 콘솔에서 자연어 채팅을 통해 아틀라스에 저장된 데이터로 데이터 작업 및 데이터베이스 운영에 필요한 쿼리를 자동 생성할 수도 있다. 빅쿼리는 클라우드 전반에서 분석, 비즈니스 인텔리전스(BI) 및 머신 러닝 워크로드를 위한 확장성 및 비용 효율성을 갖춘 서버리스 엔터프라이즈 데이터 웨어하우스다. 현재 개발팀은 빅쿼리와 아틀라스 간 양방향 동기화를 통해 실시간 운영 데이터로 분석 워크로드를 강화하거나 엔드 유저 애플리케이션에 기존 엔터프라이즈 데이터에 대한 액세스를 제공하고 있다. 이제 스파크의 저장 프로시져와 빅쿼리의 새로운 통합으로 분석, BI 및 엔드 유저 애플리케이션을 위한 빅쿼리와 아틀라스 간 데이터 처리 워크플로우를 자동화하고 최적화 및 재사용할 수 있다. 수만 개의 기업이 높은 성능과 확장성을 갖춘 다양한 유형의 실시간 애플리케이션 데이터를 안전하게 저장, 처리 및 관리하기 위해 아틀라스를 사용하고 있다. 오늘날 많은 제조기업이 공장 장비 센서, 엔드 유저 애플리케이션, 전사적자원관리(ERP) 시스템 등 여러 소스의 데이터를 결합해 의사결정을 자동화하고 효율성을 높이며 운영 현대화를 도모하고 있으나 여전히 레거시 기술에 대한 의존으로 인해 혁신에 어려움을 겪고 있다. 새로운 아틀라스와 구글 클라우드 매뉴팩처링 데이터 엔진의 통합은 최신 실시간 애플리케이션으로 프로세스를 자동화하고 운영을 최적화하도록 돕는다. 몽고DB는 구글 클라우드의 '인더스트리 밸류 네트워크(IVN)' 파트너 프로그램에 합류해 유통기업이 대규모 고객 경험을 제공할 수 있도록 애플리케이션 구축을 지원한다. IVN은 SI파트너와 협업해 산업 전반에서 차별화된 엔드투엔드 솔루션 개발을 간소화하며 혁신을 가속화하는 이니셔티브다. 유통기업은 디지털 혁신 컨설팅 기업인 킨 앤 카르타의 통합 커머스 네트워크를 사용해 구글 클라우드용 아틀라스에서 비즈니스 요구 사항을 충족하고 고객에게 몰입도 높은 쇼핑 경험을 제공할 수 있는 최신 상거래 아키텍처를 구축할 수 있다. 민감한 데이터를 다루는 정부나 공공기관, 규제 산업군의 기업은 제한적인 워크로드 실행으로 인해 운영 현대화에 어려움을 겪고 있다. GDC에서 제공되는 몽고DB 엔터프라이즈 어드밴스드는 구글 클라우드나 공용 인터넷에 연결되지 않은 에어갭 환경에서 애플리케이션을 구축, 배포 및 확장할 수 있다. 몽고DB는 민감한 워크로드를 실행하는 고객을 위한 분산형 클라우드 프로그램인 '구글 클라우드 레디'에 검증된 솔루션을 제공 중인 초기 소프트웨어 기업 중 한 곳이다. GDC는 정부, 공공기관 및 규제 산업군의 기업이 엄격한 데이터 레지던시와 보안 요구 사항을 해소하도록 돕는다. 이들은 GDC와 엔터프라이즈 어드밴스드의 통합으로 민감한 데이터를 보호하면서 혁신적인 애플리케이션과 기능을 안전하고 유연하게 배포하며 운영 전반을 현대화할 수 있게 됐다. 앨런 차브라 몽고DB 파트너 부문 수석부사장은 “몽고DB와 구글 클라우드의 강력한 파트너십은 다양한 산업군에 걸친 기업의 요구 사항을 충족하기 위해 긴밀히 협력한 결과”라며 “몽고DB는 마켓플레이스 부문에서 '구글 클라우드 올해의 파트너'로 선정되며, 고객의 최신 애플리케이션 구축을 위한 최상의 솔루션을 제공하고 엄격한 보안 및 데이터 프라이버시를 준수하기 위한 노력을 인정받았다”고 밝혔다. 그는 “더 많은 고객이 새로운 유형의 생성형 AI 애플리케이션으로 비즈니스를 강화하는 데 몽고DB와 구글 클라우드를 선택해 양사의 파트너십이 계속 성장하길 기대한다”고 덧붙엿다. 스티븐 오반 구글클라우드 마이그레이션, ISV 및 마켓플레이스 부문 부사장은 “양사는 이미 수천 개의 공동 고객사에 구글 클라우드용 몽고DB 아틀라스를 통한 성공적인 애플리케이션 구축 및 배포를 지원했다”며 “앞으로도 전략적 파트너십을 지속하며, 버텍스 AI 및 빅쿼리를 통한 자동화된 데이터 파이프라인으로 선도적인 모델에 액세스하는 것을 비롯해 생성형 AI로 애플리케이션을 빠르고 효과적으로 구축 및 강화하도록 다양한 선택지를 제공할 것”이라고 강조했다.

2024.04.15 11:46김우용

VM과 컨테이너를 병용하며 AI를 도입하는 확실한 전략

클라우드는 인프라 현대화를 넘어 애플리케이션 현대화 시대로 나아가고 있다. 클라우드 네이티브 기술의 핵심인 컨테이너, 쿠버네티스 등이 새롭게 만들어지는 클라우드향 애플리케이션의 토대를 이루고 있다. 그러면서 한때 IT시스템 혁신의 선두역할을 했던 서버 가상화 기술이 레거시 기술로 여겨진다. 애플리케이션 현대화는 구식 시스템을 최신 클라우드 네이티브 기술 기반으로 교체해 급변하는 IT 트렌드에 유연하고 민첩하게 대응하려 추진된다. 현재 당연하게 활용되는 기저의 클라우드 네이티브 기술이 컨테이너와 쿠버네티스다. 기존에 구축한 시스템을 한꺼번에 교체하기 어려울 수 있다. 서버 가상화 기술은 앞으로도 많이 사용될 전망이다. KBV리서치의 조사에 따르면, 세계 가상머신(VM) 시장은 2030년까지 303억달러 규모를 형성할 것으로 예측된다. 그사이 연평균 성장률(CAGR)이 15.8%로 예상됐다. 컨테이너를 VM과 통합하는 환경을 구축하면 워크로드 관리에 더 유연성을 얻을 수 있고, 컨테이너와 VM 간 원활한 전환을 추구할 수 있다. 서버 가상화는 장기적으로 애플리케이션 현대화에 걸림돌일 수 있다. 하지만 가상화 환경과 컨테이너 환경을 이원화 운영하기는 어렵고 복잡하다. 그래서 우선 컨테이너와 가상화를 단일한 제어환경으로 통합한 뒤 점진적으로 컨테이너 기반의 마이크로서비스 환경으로 전환해 가는게 적절한 방안으로 제시된다. 인공지능(AI)·머신러닝(ML) 같은 최신 워크로드는 리소스를 많이 할애해야하므로 컨테이너 환경이 적합하다. 다만, 기존의 기업용 애플리케이션까지 컨테이너로 전환해야 하는가는 세부 상황을 따져봐야 한다. 레드햇은 가상화 또한 클라우드 네이티브 가상화를 실현할 수 있도록 지원하며 레거시 가상화 기술과 최신 컨테이너 기술이 공존할 수 있는 방법을 제시하고 하고 있다. 레드햇은 오픈시프트AI를 비롯한 AI 솔루션을 통해 AI·ML 및 ML옵스를 더욱 효과적으로 도입할 수 있도록 지원하는 개방형 아키텍처를 제공한다. 레드햇은 기존 가상화를 활용할 수 있는 방안과 더불어 AI 솔루션을 효과적으로 도입하기 위한 방안을 제시한다. 레드햇은 단계적 해법을 제안한다. 먼저, 가상화와 컨테이너를 오픈시프트 플랫폼으로 통합 운영하고, 한번에 모든 인프라를 변경하기보다 VM을 컨테이너와 혼용하면서 단계적으로 전환하며, 컨테이너 도입 비중을 늘려서 애플리케이션 현대화를 완수하는 것이다. 이 전략을 통해 기존 가상화 시스템과 인프라를 활용하면서도 리소스가 많이 활용되는 워크로드도 해결할 수 있게 된다. 무엇보다 클라우드 네이티브 가상화에서 나아가 컨테이너를 통한 애플리케이션 현대화를 위한 기반을 마련할 수 있다. 개발자는 오픈시프트를 통해 쿠버네티스의 이점을 유지하면서 VM에 필요한 아키텍처를 활용하고, 레거시를 운영하면서 동시에 애플리케이션을 컨테이너로 리팩토링할 수 있다. 컨테이너, VM, 서버리스 등의 워크로드를 통합된 환경에서 단일한 개발 방법론과 경험으로 개발할 수 있게 된다. 컨테이너로 VM을 변경하는 과정을 거치지 않고도 VM에 클라우드 네이티브의 이점인 확장성과 자동화 요소를 접목할 수 있다. 운영자는 데브옵스를 매우 효율적으로 구성할 수 있다. 오픈시프트의 셀프서비스 기능을 VM에서 이용하면, 워크로드 관리권한을 담당 현업이나 개발팀에 넘겨주고 인프라와 플랫폼 유지보수에 더 집중할 수 있다. 기업은 레드햇 오픈시프트 가상화(Redhat OpenShift Virtualization)를 활용해 기존 VM을 쿠버네티스 기반으로 이동한다. 다음으로 비즈니스 로직에 큰 변화를 주지 않고 VM웨어를 컨테이너로 전환할 수 있다. 운영중인 애플리케이션을 마이크로서비스로 리팩토링하는 게 가능하다.마지막으로 클라우드 네이티브 개발 접근법을 활용해 새로운 버전의 애플리케이션을 개발하는 동안 레거시 환경을 지속적으로 실행할 수 있는 기반을 재구축한다. 레드햇 오픈시프트는 기본적으로 KVM이란 가상화 기술 위에서 작동한다. 레드햇가상화(RHV), 오픈스택에서도 활용되는 가상화 환경과 동일하다. 레드햇 오픈시프트 가상화는 레드햇엔터프라이즈리눅스(RHEL) 코어OS 기반의 게스트 OS를 무제한으로 생성할 수 있다. 마이크로소프트 서버가상화검증프로그램(SVVP)을 통해 마이크로소프트 윈도 게스트 OS도 지원한다. 레드햇 오픈시프트는 세가지 종류로 나뉜다. 리눅스 환경에 쿠버네티스와 쿠버네티스 클러스터 서비스를 포함하는 '레드햇 오픈시프트 쿠버네티스 엔진'과, 그 엔진 위에 워크로드 관리, 클라우드 네이티브 앱 빌드, 데이터 서비스, 개발자 생산성 기능 등을 제공하는 '레드햇 오픈시프트 컨테이너 플랫폼', 여기에 멀티클러스터 관리, 클러스터 보안, 글로벌 레지스트리, 클러스터 데이터 관리 등의 기능까지 제공하는 '레드햇 오픈시프트 플랫폼 플러스' 등이다. VM을 오픈시프트 가상화로 이전하면 이같은 레드햇 오픈시프트 제품군의 모든 기능을 이용할 수 있다. 레드햇은 기존 VM웨어 환경의 VM을 오픈시프트로 이전할 수 있는 '마이그레이션 툴킷 포 버추얼라이제이션((Migration Toolkit for Virtualization, MTV)'을 제공한다. 이 도구를 활용하면 대규모 VM을 무중단에 가깝게 마이그레이션할 수 있다. 전통적인 VM 작업인 관리자 개념과 작업, 네트워크 및 스토리지 연결, 라이브 마이그레이션 등을 최신 플랫폼에서 동작시킬 수 있다. 전통적인 VM에 담긴 비즈니스 크리티컬 애플리케이션을 유지 관리하면서 시간을 두고 기술 세트를 현대화할 수 있다. 운영자는 오픈시프트 프로젝트 단위로 VM 권한을 현업 담당자나 개발자에게 부여할 수 있다. VM 프로비저닝도 레드햇 앤서블 자동화 도구를 활용해 하드웨어부터 모든 설정에 이르기까지 단순화할 수 있다. VM은 컨테이너와 기본적으로 동일한 네트워크 상에 올라가 있으므로, VM과 컨테이너의 연결이 매우 자유롭다. 오픈시프트 위의 VM은 컨테이너와 동일한 소프트웨어정의네트워킹(SDN) 네트워크에 연결되며, 쿠버네티스의 서비스, 라우트, 인그레스, 서비스메시, 파이프라인, 깃옵스 등 표준 방식으로 접근할 수 있다. 네트워크 정책은 컨테이너 POD와 동일한 방식으로 VM에 적용된다. 네트워크 연결에 따라 SDN이나 인그레스를 통해 VM-POD 혹은 반대로 통신도 가능하다. 전세계적인 AI 열풍에 따라가려면 신규 AI·ML 도입을 위한 효과적인 애플리케이션 현대화 전략이 필요하다. 디지털 환경에서 데이터는 중요한 경쟁력은 데이터의 양뿐 아니라 데이터를 어떻게 활용하느냐다. 컨테이너와 쿠버네티스는 데이터 활용에 필요한 시스템을 유연하고 민첩하게, 확장가능하게 구축할 수 있으므로 AI/ML에서 대부분 활용된다. 레드햇 오픈시프트AI는 검증된 기술 포트폴리오, 입증된 전문성, 전략적 파트너십 등을 제공해 기업의 AI/ML 목표 실현을 지원한다. 레드햇 오픈시프트는 온디맨드 컴퓨팅 리소스, 하드웨어 및 GPU 가속 지원, 온사이트와 퍼블릭 클라우드 및 엣지 환경 전반의 일관성을 통해 성공 필요한 속도와 유연성을 제공한다. 레드햇 오픈시프트 AI는 AI/ML 모델 및 애플리케이션의 라이프사이클을 교육, 서비스, 모니터링, 관리할 수 있고, 엔비디아, 인텔, 스타버스트, 아나콘다, IBM, 파키덤(Pachyderm) 등 주요 인증 파트너 제품을 통합하는 일관된 협업 환경을 통해 실험 단계에서 프로덕션으로 이동할 수 있다. 이같은 기존 VM 활용과 신규 AI 도입을 위한 효과적인 애플리케이션 현대화 방안은 오는 17일 인터컨티넨탈서울코엑스 하모니볼룸에서 열리는 'ACC+ 2024' 행사에서 더 자세히 확인할 수 있다. ACC+ 2024는 AI와 더불어, 빅데이터, 클라우드, 보안 등 최신 IT 솔루션과 서비스를 확인할 수 있는 세미나와 함께 직접 경험할 수 있는 기업 전시부스를 다양하게 운영한다. 사전 등록을 통해 행사에 참가할 수 있으며, 현재 얼리버드 등록 이벤트를 통해 할인 혜택을 제공하고 있다. 사전 등록과 등록 문의는 공식 웹사이트를 통해 가능하다.

2024.04.15 11:24김우용

원티드랩-네이버, '하이퍼클로바X' 기반 원티드 LaaS 서비스 협력

원티드랩은 네이버클라우드와 '하이퍼클로바X 기반 원티드 LaaS 서비스 협력을 위한 업무협약'을 체결했다고 15일 밝혔다. 원티드랩의 생성형 AI 응용기술과 네이버의 초대규모 AI를 결합해 기업의 생성형 AI 도입을 가속화한다는 계획이다. 이번 협약은 생성형 AI 개발·운영 구독 솔루션인 '원티드 LaaS(LLM-as-a-Service)'를 운영하고 있는 원티드랩과 글로벌 수준의 초대규모 AI 인 '하이퍼클로바X'를 제공하고 있는 네이버클라우드가 손을 잡은 것이다. ▲생성형 AI 원천기술(하이퍼클로바X)의 활용 확대 지원 ▲생성형 AI 응용기술(원티드 LaaS) 전파를 위한 공동 협력 △성공 사례에 대한 대외 홍보 협력 등을 골자로 한다. 원티드 LaaS는 원티드랩이 다수 생성형 AI 서비스를 개발·운영하며 쌓은 노하우를 집약한 솔루션이다. ▲생성형 AI 서비스를 쉽게 개발할 수 있는 환경 ▲다양한 LLM 모델 ▲자동화된 테스트 환경 ▲프로젝트 및 프리셋 단위 상세한 토큰 사용량 관리 ▲할루시네이션 제어를 위한 RAG 기능 등을 구독 형태로 제공한다. 하이퍼클로바X는 언어 능력뿐 아니라 보편 지식, 프로그래밍 등 다양한 분야 문제 해결력까지 갖춘 초거대 언어모델(LLM)이다. 최근 발표한 하이퍼클로바X의 테크니컬 리포트에 따르면 하이퍼클로바X'는 한국어, 일반상식, 수학, 코딩 부문 성능 평가에서 글로벌 오픈소스 모델을 제치고 1위를 기록했다. 한국어와 영어 데이터를 활용해 제3의 언어로 추론하는 다국어 능력 또한 뛰어남을 확인했다. 고객들은 기업이 보유한 자체 데이터를 '하이퍼클로바'X와 결합해 사용자 니즈에 맞는 신속한 응답을 제공하고 다양한 비즈니스 기회 모색이 가능하다. 네이버클라우드 윤희영 상무는 "하이퍼클로바X는 한국 특화 지식뿐 아니라 수학적 추론, 프로그래밍, 다국어 능력 등 다양한 영역에서 글로벌 수준의 경쟁력을 보유하고 있다"면서 "이번 협약을 통해 하이퍼클로바X의 활용과 확산을 촉진하고, 생성형 AI 도입을 가속화해 국내 기업들의 AI 전환에 기여할 것"이라고 말했다. 원티드랩 주형민 AX사업개발 총괄은 "네이버클라우드와의 협력을 통해 기업고객이 생성형 AI 서비스 개발 시 글로벌 수준의 능력을 갖춘 하이퍼클로바X를 활용할 수 있다는 점, 그리고 언어모델의 선택지를 다양화할 수 있다는 점에 많은 효능감을 느끼게 될 것"이라며 "이번 협약을 시작으로 네이버클라우드와 함께 기업의 생성형 AI 도입을 돕고, 나아가 국내 생성형 AI 생태계 활성화에 기여할 수 있는 다양한 활동을 선보일 계획"이라고 밝혔다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유(프리즘·몬스터)·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 담당자 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다.

2024.04.15 09:47백봉삼

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

LG전자, 2분기 영업이익 반토막...美 트럼프 관세 영향

무너지는 중소웹툰플랫폼…네카오, 양강 체제 굳어진다

정부 요청에…유통업계, 라면·빵·커피 등 ‘최대 반값 할인’

LG엔솔, IRA 세액공제 없이 흑자 달성…저점 통과 기대↑

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.