• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (234건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

생성 AI가 화상회의에 활용된다는 것의 의미

“작년 모든 사람이 챗GPT와 대규모언어모델(LLM)을 이야기했고, 그게 큰 변화인 건 맞다. 하지만 시스코 시각에서 LLM은 소통에 필요한 일부에 불과하다. LLM은 소통의 전체적인 전환 과정에서 어떤 메시지나 문서, 대본 등을 인사이트로 바꾸고 메시지를 작성하는 마지막 단계다. 조직 내 진정한 소통을 구현하려면 전반적 정보 흐름에서 인사이트를 도출하는 종합적 지식과 함께 즉각적인 소통 요소도 필요하다. 미팅에서 내가 제대로 상대방에게 보이는지, 상대의 말을 잘 알아들었는지 밀리초 단위의 실시간 소통 여부가 중요하다. 시스코는 이런 즉각적인 소통을 지원하는 과제를 해결하기 위해 AI를 혁신했다.” 크리스 로웬 시스코 웹엑스 협업 부문 AI 기술 부사장은 1일 서울 삼성동 시스코코리아 사옥에서 열린 웹엑스원 미디어 라운드테이블에서 자사의 '리얼타임 미디어 모델(RMM)'을 소개하며 이같이 밝혔다. 시스코는 작년 10월 웹엑스의 AI 혁신 기술 중 하나로 RMM을 발표했다. RMM은 화상회의에 특화돼 참여자의 말투, 어조, 반응 등 비언어적인 맥락 정보를 전달하는 시스코 자체 모델이다. 사람 간의 실시간 소통은 문자보다 음성, 표정, 손짓, 어조, 억양 등 여러 요소를 통해 이뤄진다. 현존하는 LLM은 텍스트를 생성하는 AI로 실시간으로 발생하는 소통 요소 중 일부만 직접 다룬다. 멀티모달 모델이 나오고 있지만 여러 요소를 텍스트로 변환해 처리하므로 즉각적인 소통에서 한계가 있다. 시스코의 RMM은 카메라와 마이크로 포착되는 회의 참석자의 여러 소통 요소를 인식해 그에 맞는 액션을 만들어낸다. LLM과 댜양한 모델을 혼합, 최적화한 것이다. 오디오 및 영상 품질을 향상시키며, 여러 미디어 스트림을 기반으로 사람과 사물 인식 및 제스처를 포함한 움직임 분석 등 다양한 아웃풋을 제공한다. 텍스트 기반의 미팅 요약과 미팅 하이라이트에서 대화 맥락을 이해하는 데 오디오 및 영상 채널을 활용한다. 텍스트, 오디오 및 영상 AI를 모두 활용함으로써 웹엑스 사용자는 풍부한 실시간 정보를 얻을 수 있다. 앞으로 웹엑스에서는 미팅 참가자가 미팅에서 나갔을 때 퇴장한 것을 인식하여 미팅 메모를 캡처하고, 해당 참가자가 돌아왔을 때 신속하게 업데이트된 정보를 제공할 수 있게 된다. 시스코 웹엑스는 RMM과 함께 AI 어시스턴트, AI 코덱 등도 선보였다. 웹엑스 AI 어시스턴트는 '내가 놓친 미팅에 대해 업데이트해 줘' 등과 같은 질문에 실시간으로 답변을 제공한다. 메시지 어조 변경, 컨택센터 답변제안, 미팅 요약, 메시지 요약, 슬라이도 주제 요약 등의 기능도 제공한다. 웹엑스 AI 코덱은 불안정한 네트워크의 지역에서도 통신망 상태와 상관없이 선명한 오디오를 제공한다. AI 오디오 코덱은 네트워크 패킷 손실을 복구하고, 소음 제거, 에코 제거, 대역폭 확장 같은 음성 향상 기능을 제공한다. 또한 머신러닝(ML) 기술을 바탕으로 낮은 대역폭에서도 고화질 비디오를 사용할 수 있는 '초해상도' 기능을 제공한다. 크리스 로웬 부사장은 “시스코 웹엑스 앱 전반에서 AI 어시스턴트를 사용하면 놓친 미팅 내용을 확인하고, 메시지 흐름 파악, 번역, 어조 변경, 요약 기반 액션, 제안 기반 고객 대응 등 다양한 경험을 누릴 수 있다”며 “그 기반에 생성 AI 기반 언어처리 역량이 있다”고 말했다. 그는 “웹엑스 AI 코덱은 업계 표준 코덱인 Opus의 24kbps 대역폭을 16kbps로 낮추며 우수한 음질을 보장한다”며 “또한 6kbps까지 대역폭이 낮아져도 인코딩 가능하고, 1kbps 대역폭에서도 우수한 음질을 제공할 수 있다”고 밝혔다. 그에 의하면, 웹엑스 AI 오디오 코덱은 낮은 대역폭에서 음성 정보를 이중화 패킷으로 전송한다. 이는 불안전한 네트워크 상황에서 일부 패킷이 손상되더라도 온전한 오디오 품질을 유지하게 해준다. 로웬 부사장은 “일반적으로 오디오는 20밀리초 단위 프레임이 하나의 패킷으로 네트워크를 타고 전송되는데,좋지 않은 네트워크에서 패킷 일부가 손상돼 거의 알아들을 수 없게 된다”며 “AI 오디오 코덱은 하나의 패킷에 여러 오디오 프레임을 넣어서 전송하므로 한번에 여러 패킷 사본을 보내며, 불완전한 네트워크에서 손실된 일부 패킷을 최종단에서 재구성하고 복구할 수 있다”고 설명했다. 그는 HD 보이스를 유지하는 경우에도 이런 기술을 활용하고 있다고 했다. 휴대폰이나 유선 전화에서 HD 음성 품질은 제한된 대역폭에서 손실되기 쉽다. 웹엑스 AI 코덱은 저주파 음성을 기반으로 고주파 음성을 재구성할 수 있어서 또렷한 음성을 저품질 네트워크 상황에서도 유지할 수 있다. 이는 영상에서도 힘을 발휘한다. 로웬 부사장은 “모두가 고해상도 영상을 누리고 싶지만, 네트워크 상의 병목 현상 때문에 더 낮은 대역폭과 낮은 프레임 레이트를 감수해야 한다”며 “720픽셀 영상을 원하지만 180픽셀만 소화할 수 있다면, 픽셀을 다운스케일하고 전송해서 픽셀을 다시 확대하는 업스케일을 하게 되는데 결과적으로 뿌연 화질을 보게 된다”고 설명했다. 이어 “시스코의 초해상도는 네트워킹 시스템이 180픽셀이나 90픽셀만 지원한다 해도, 영상을 고해상도로 재구성해준다”며 “화상화의에서 초해상도 기술로 고화질 영상 재구성하면 낮은 대역폭 환경에서도 픽셀을 16배 업스케일하고도 더 깨끗하고 뚜렷하게 상대방을 볼 수 있다”고 강조했다. 시스코의 여러 생성 AI 기능은 웹엑스 클라우드 상에서 작동하지 않고 사용자의 화상회의 장비에서 작동한다.시스코 웹엑스 전용 장비뿐 아니라 휴대폰, 노트북, 데스크톱 등 다양한 하드웨어에서 쓰일 수 있게 소프트웨어로 구현됐으며, 사용자 기기의 GPU나 뉴럴액셀러레이터를 활용하게 했다. 로웬 부사장은 “RMM을 비롯해 엣지서 작동하는 AI는 전력을 더 적게 소모하고, 대기 시간을 짧게 하며, 개인정보 보호도 더 강화해준다는 장점을 갖는다”며 “대규모 GPU 없이도 에지에서 구현되도록 적용했다”고 밝혔다. 시스코코리아는 이날 미디어 라운드테이블에서 AI 트렌드에 맞춰 협업 분야 내 AI의 역할 및 중요성에 대한 인사이트를 공유하고, 이러한 기술을 원활히 제공하기 위한 시스코의 AI 전략을 소개했다. 시스코가 조사한 '의무적 출근이 아닌 매력적인 장소로의 탈바꿈: 하이브리드 미래를 위한 업무 공간의 재해석' (From Mandate to Magnet: The Race to Reimagine Workplaces and Workspaces for a Hybrid Future) 연구 결과에 따르면 국내 기업의 78%가 생산성 향상을 목적으로 사무실 전면 복귀 또는 하이브리드 근무를 의무화한 것으로 나타났다. 대부분의 근로자가 사무실 출근을 선호하지 않을 것이라는 일반적인 인식과 달리, 국내 응답자의 51%는 조직의 사무실 근무 의무화에 긍정적인 반응을 보였으며, 97%는 일주일 중 일부는 사무실로 출근하고 싶다고 답했다. 효과적인 협업의 중요성이 증가하고 있음에도 불구하고, 국내 근로자 82%는 현재 근무 중인 사무실이 업무 효율을 높이는 데 적합하지 않다고 답했다. 94%의 응답자는 사무실 구조와 좌석 배치가 협업 및 브레인스토밍에 도움이 되지 않는다고 밝혔다. 실제로 설문조사에 참여한 기업 중 87%는 여전히 사무실의 절반 이상을 개인 업무 공간에 사용하고 있는 것으로 나타났다. 회의실 중 41%만이 하이브리드 협업에 적합한 비디오 및 오디오 기능을 갖춘 것으로 조사되며, 기술 인프라 및 통합 또한 원활한 하이브리드 근무 환경을 제공하는 데에 있어서 걸림돌로 작용하고 있는 것으로 나타났다. 사무실 내 회의실이 생산성 향상에 효과적이지 않다고 생각하는 응답자들은 주요 이유로 ▲부족한 오디오 및 비디오 엔드포인트(53%) ▲시청각 경험 저하(36%) ▲포괄적인 오디오 및 비디오 엔드포인트의 부재(30%) ▲원격 및 사무실 등 접속 장소에 따른 참가자 경험의 차이(30%) 등을 꼽았다. 시스코는 다양한 형태의 회의실을 지원하는 시네마틱 미팅 환경의 새로운 청사진도 제시했다. 시스코가 새롭게 선보인 캠프파이어 미팅 공간은 대면 회의 참가자가 4개의 쿼드 카메라와 스크린을 눈높이에 맞춰 둘러앉을 수 있다. 해당 장비는 AI 기반 지능형 프레이밍 덕분에 가상 또는 대면 회의 참가자 모두에게 얼굴을 직접 보고 협업하는 것과 비슷한 경험을 제공한다. 시스코는 뱅앤올룹슨과 협업해 직장인을 위한 맞춤형 엔터프라이즈급 기능을 탑재한 무선 이어버드 '뱅앤올룹슨 시스코 950'을 공개했다. 양사는 사용자들이 집, 직장, 이동 중 등 장소에 관계없이 최상의 오디오 경험을 제공하기 위해 이번 신제품을 선보였다. 해당 제품은 고급스러운 디자인과 프리미엄 사운드를 제공하는 동시에 업무와 개인적인 용도를 아우르는 사용자의 라이프 스타일에 맞게 멀티 기능을 갖춘 것이 특징이다. 또한, 엔터프라이즈 용도에 맞게 고급 보안 및 관리 기능이 탑재됐으며, 시스코의 컨트롤 허브 플랫폼에서 관리가 가능해 다른 장치 및 주변 기기에 대한 높은 가시성을 확보하고 바로 시스템을 제어할 수 있다. 또한, 시스코는 애플과의 파트너십도 확대하고 있다. 해당 파트너십을 기반으로 웹엑스는 애플티비 4K 및 애플워치 전용 앱을 출시해 사용자가 언제 어디에서나 업무를 더 다양하게 수행하면서도 높은 수준의 협업 경험을 누릴 수 있도록 지원한다. 애플TV 4K 웹엑스 앱은 설치 후 아이폰으로 QR 코드를 스캔하기만 하면 간편히 로그인할 수 있으며, 거실이나 사무실 등 어디에서나 큰 화면으로 사용할 수 있다는 것이 장점이다. 애플워치용 웹엑스 앱 사용자는 애플워치와 에어팟만으로도 회의 목록을 확인하고 원터치로 오디오 전용 모드에서 회의에 참여할 수 있다. 산딥 메라 시스코 APJC 협업 부문 매니징 디렉터는 “시스코 웹엑스팀과 엔지니어가 이룬 혁신은 기업의 리더와 CIO의 두가지 큰 어려움인 하이브리드 근무의 진정한 구현, 디지털 고객 경험 구축 등에 대한 것”이라며 “웹엑스 스위트는 업무 공간을 다시 상상하고 재정의하게 도우며, 시스코 컨택센터는 디지털 고객의 경험을 변모시키도록 지원한다”고 강조했다.

2024.02.01 16:33김우용

AI 에브리웨어를 위한 인텔의 소프트웨어 전략

인텔은 최근 'AI 에브리웨어'란 캐치프레이즈를 전면에 걸었다. 클라우드, 데이터센터, 디바이스에 이르는 AI 전 영역에서 입지를 새롭게 다지려는 시도다. PC용 코어 프로세서, 서버용 제온 프로세서, AI 가속기 등을 통해 생성형 AI 개발과 배포, 사용에 이르는 전 수명주기를 뒷받침하겠다고 강조한다. 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 엣지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원한다는 것이인텔 AI 에브리웨어 전략의 골자다. 이런 인텔의 AI 에브리웨어 전략은 하드웨어와 소프트웨어 등에서 전방위적으로 진행된다. CPU는 AI 연산 역량을 자체적으로 내장하고, GPU나 가속기는 업계 선두권의 성능을 내도록 발전하고 있다. AI 소프트웨어 생태계에도 공격적으로 투자하고 있다. 현재 챗GPT나 구글 바드 같은 생성 AI 서비스는 대규모 클라우드에서만 돌아가는 것으로 여겨진다. 대규모언어모델(LLM)이란 개념 자체가 방대한 GPU 클러스터를 활용해야만 적절한 속도로 서비스될 수 있다고 보기 때문이다. 이는 생성 AI 서비스 사용자가 반드시 인터넷에 접속돼 있어야 한다는 뜻이기도 하다. 안정적인 네트워크를 활용하지 못하는 상황에선 생성 AI를 제대로 활용하기 어렵다. 인텔은 AI를 클라우드에서만 하게 되면, 시간적 지연, 데이터 이동, 데이터 주권 등에 따른 비용 상승이 일어난다고 지적한다. 민감하거나 기밀인 데이터를 옮기지 않고 AI 모델을 PC에서 개발하고, 완성된 모델을 클라우드로 옮기거나 그냥 PC나 모바일 기기에서 구동하면 앞서 지적한 문제를 해소할 수 있다고 강조한다. 인텔의 AI 에브리웨어 전략이 제대로 기능하려면 기본적으로 '하이브리드 AI' 환경을 구현해야 한다. LLM의 연산 위치를 클라우드와 사용자 디바이스 어디로든 옮기기 편해야 하는 것이다. 트랜스포머 아키텍처에 기반한 LLM은 그 크기가 매우 크다. 이를 디바이스 환경에서도 작동하려면 사용자 기기의 사양으로도 빠르고 고품질로 성능을 내도록 경량화, 최적화하는 게 필요하다. 나승주 인텔코리아 상무는 “하이브리드 AI는 하드웨어만 갖고 되지 않고, 한몸과 같은 소프트웨어의 역할이 중요하다”며 “각 하드웨어에서 최적 성능을 뽑아내고, 모든 곳에서 모델을 운영하게 하는 역할이 소프트웨어 부분”이라고 설명했다. 인텔의 AI 소프트웨어 스택은 기본적으로 다양한 하드웨어 위에 존재한다. 제온 프로세서, 코어 프로세서, 가우디 프로세서 등이 생성 AI를 잘 구동할 수 있게 준비됐다. 이런 하드웨어를 운영하기 위한 인프라 소프트웨어가 존재한다. 운영체제(OS)와 쿠버네티스나 레드햇 오픈시프트 같은 가상화나 컨테이너 기술이 올라간다. 그 위에 모델 개발과 서비스 환경이 자리한다. AI옵스, 개발 및 운영 흐름 등을 처리하는 곳이다. 데이터를 수집하고, 가공하며, 모델을 학습시키고, 모델을 추론하도록 배포하며, 결과를 다시 가져와 재학습시키는 '루프'가 올라간다. 이런 기반 위에 다양한 AI 라이브러리가 있다. 하드웨어와 직접 소통하는 라이브러리로, DNN, DAL, MPI, KNN, CCL 등이 대표적이다. 이 라이브러리를 개발자가 더 쉽게 활용할 수 있는 파이토치, 텐서플로우, 오픈비노 같은 프레임워크가 그 위에 있다. 데이터 분석용 도구도 있다. 인텔은 기본적인 라이브러리와 각종 도구를 직접 개발하거나, 오픈소스를 최적화해 제공하고 있다. 원API를 기본으로, 원DNN, 원MKL, 원DAL, 인텔오픈MP, 원CCL, 인텔MPI 등을 이용할 수 있다. 시중의 여러 프레임워크와 미들웨어를 활용할 수 있도록 인텔 옵티마이제이션(ITEX 및 IPEX)을 제공하고 있다. 파이토치, 텐서플로우, 오픈비노 등의 개방형 프레임워크는 업스트림 개발에 참여함으로써 인텔 하드웨어와 라이브러리를 쓸 수 있게 한다. 나승주 상무는 “파이토치, 텐서플로우, ONNX 런타임 등은 인텔의 소유가 아니므로 업스트림에 참여해 최적화하고, 업스트림에서 모든 걸 만족시킬 수 없는 부분의 경우 익스텐션으로 보강한다”며 “가령 파이토치에서 인텔 익스텐션을 쓰면 더 뛰어난 성능을 얻을 수 있고, 하드웨어에서 기대한 성능을 얻지 못하는 경우 익스텐션으로 그 성능을 더 끌어올릴 수 있다”고 설명했다. 나 상무는 “라이브러리뿐 아니라 뉴럴컴프레셔 같은 자체 툴도 제공하고, 데이터 수집, 학습, 추론, 배포에 이르는 모든 과정을 커버하는 소프트웨어를 보유했다”며 “최근 ML옵스 업체인 컨버지드닷아이오를 인수함으로써 모든 오퍼레이션도 다 다룰 수 있게 됐다”고 강조했다. 인텔의 AI 소프트웨어는 기본적으로 '원API'란 개방형 표준을 따른다. 원API는 리눅스재단에서 관리하는 오픈소스다. 인텔은 표준의 원API를 자사 하드웨어에 최적화한 버전으로 '인텔 원API'란 것을 고객사에 제공한다. 엔비디아 쿠다에 최적화된 라이브러리나 코드를 인텔 하드웨어에서 사용할 수 있도록 C++ 기반 개방형 프로그래밍 모델 SYCL로 변환하는 툴도 제공한다. 작년말 AI 에브리웨어 전략을 실현하는 새로운 코어 울트라 프로세서는 이런 인텔 소프트웨어를 바탕으로 '온디바이스 AI'를 작동시킨다. 모델이 경량화돼 다른 곳으로 옮겨갔을 때 정확도 문제도 해결 가능한 문제라 본다. 나 상무는 “매개변수 감소나 플로팅포인트 변경 같은 경량화가 이뤄지면 이론 상 성능은 빨라지고 정확도가 줄어들게 된다”며 “하지만 실제 환경에서 정확도 차이는 1~2% 정도이며, 트랜스포머 아키텍처 자체가 반복적인 재학습을 통해 정확도로 올린다는 특성을 갖기 때문에 에너지 효율이나 성능 문제가 두드러지는 시나리오에서 크게 문제되지 않는다”고 설명했다. 인텔의 AI 소프트웨어를 활용하면 기존의 LLM이나 모델을 여러 하드웨어 환경에 맞게 만들 수 있다. 인텔 하드웨어에서도 AI 소프트웨어만 바꿔도 모델의 성능을 바로 향상시킬 수 있다. 굳이 모든 AI 모델을 GPU에서만 구동하는 것도 낭비라고 본다. CPU와 소프트웨어 최적화로 LLM 비용을 절감할 수 있다는 것이다. 나 상무는 “만약 4세대 제온 프로세서 기반의 AI 시스템이라면, 소프트웨어만 바꿔서 32% 성능을 올릴 수 있다”며 “파치토치에 제온 8480 프로세서, 인텔 익스텐션 등을 활용하면 10주 만에 3~5배 성능 향상을 누릴 수 있게 된다”고 말했다. 나 상무는 “LLM은 GPU 집약적인 컴퓨팅 외에도 엔터프라이즈에서 운영되는 여러 일반 서버와 엣지 서버, 단말기 등에서도 활용된다”며 “5세대 제온 기반 서버는 싱글노드에서 라마2 13B 같은 경량의 LLM에 대해 레이턴시를 75밀리초 이내로 매우 빠르게 처리하며, GPT-J 6B의 경우 25~50 밀리초로 처리한다”고 강조했다. 그는 “LLM의 성능에서 매개변수도 중요하지만, 이를 실제 성능을 유지하게면서 디바이스로 가져오기 위한 경량화나 알고리즘 기법이 많다”고 덧붙였다. 인텔은 생성 AI 분야에서 텍스트를 넘어선 비전, 오디오 등의 발전에 주목하고 있다. GPT로 대표되는 텍스트 모델은 어느정도 성숙해졌지만, 비전과 오디오 분야는 이제 막 시작됐다. 인텔 가우디의 경우 비주얼랭귀지모델을 돌릴 때 엔비디아 H100 GPU보다 더 빠르다는 결과가 허깅페이스에서 나오기도 했다. 나 상무는 “비전을 처리하려면 이미지 트레이닝으로 시작하는데, 이미지를 가져와 JPEG나 MP4 같은 인코딩을 로우 데이터로 변환하는 디코딩 과정과 증강하는 과정이 필요하다”며 “디코딩부터 증강까지 단계를 엔비디아는 GPU 대신 CPU에서 처리하게 하지만, 인텔은 전체 프로세싱을 가우디 안에서 한번에 하게 하므로 시간이 덜 걸리는 것”이라고 설명했다. 그는 “AI PC와 AI 에브리웨어는 AI를 어디서나 쓸 수 있게 하는 것”이라며 “모든 AI의 혜택을 모든 사람이 저렴하고 쉽게 얻게 하는 게 인텔의 전략”이라고 강조했다.

2024.02.01 14:53김우용

마이디포 "오픈소스 AI-LLM 잘 꿰어야 보배"

속담에 '구슬이 서 말이라도 꿰어야 보배'(아무리 좋은 것이라도 쓸모 있게 만들어 놓아야 값어치가 있다는 뜻)라 했다. 다양한 인공지능(AI) 기술들이 쏟아져 나왔지만, 아직 사람들의 일상과 업무에 눈에 띄게 사용되는 제품이나 서비스가 기대만큼 많지 않은 게 사실이다. 그나마 지난해 초거대 언어모델(LLM)과 생성형 AI 기술 고도화가 무르익으면서 실생활에 쓰이는 AI 제품과 서비스들이 하나둘 늘어나는 추세다. 이런 한계를 딛고, 개별적인 AI 기술과 서비스들을 한 데 모아 업무 효율성과 완성도를 높이는 기업이 있다. 그야말로 구슬(AI)을 하나하나 꿰어(조합) 보배(앱)로 만드는 AI 매시업 기업 '마이디포'가 그 주인공이다. 매시업이란 웹서비스 업체들이 제공하는 각종 콘텐츠와 서비스를 융합해 새로운 웹서비스를 만들어내는 것을 뜻한다. 예를 들어 AI 기술을 활용해 번역서를 출간한다고 하면, 도서 표지는 '스테이블 디퓨젼'이 디자인하고, 교정과 윤문은 '챗GPT'가, 번역은 'DeepL'이 담당하는 식이다. 그 동안에는 출판사가 디자이너·편집자·번역가 등을 채용해 번역서를 펴냈다면, 마이디포는 마치 오케스트라 지휘자처럼 결과물에 적합한 최적의 AI 서비스들을 조합해 결과물을 만들어낸다. 이처럼 마이디포는 각각의 AI 모델(서비스)들을 모듈화하고, 사용자가 필요로 하는 서비스(앱)에 적합한 모듈을 가져다 쓸 수 있도록 했다. 요청하는 작업은 각각의 모듈에 뿌려져 분산·병렬 처리되기 때문에 사용자는 시간 단축 효과를 볼 수 있다. 마이디포 솔루션은 먼저 판례 및 사건 분석 등이 필요한 변호사, 보고서 작성이 많은 금융사, 초벌 번역 등이 필요한 출판사, 외신 번역과 기사 작성이 주 업무인 언론사 등에게 유용하게 쓰일 수 있다. 또 벤처캐피털의 투자심사 보고서 작성 등에도 활용할 수 있다. 류승훈 대표, 코트라 직원서 창업가로...생성 AI 가능성 보고 '마이디포' 창업 마이디포를 창업한 류승훈 대표는 대한무역투자진흥공사(KOTRA) 출신이다. 2012년 퇴직 후 '플랫클'이란 회사를 창업해 '거인의 서재' 앱을 출시, 출판계의 디지털 마케팅을 혁신했다. 그 후 거인의 서재는 체인지그라운드에 매각됐고, 류 대표는 300명의 뛰어난 개발자를 육성하겠다는 취지로 '300Dev'라는 회사를 세웠다. 베네수엘라를 중심으로 중남미 개발자들에게 글로벌 네트워크와 글로벌 비즈니스 기회를 제공, 북미 시장에 실력 있는 각국 개발자들이 접근할 수 있는 토양을 만들었다. 류 대표의 도전은 여기에서 멈추지 않았다. 본인 지분을 매각한 뒤, 지난해 생성형 AI 가능성을 보고 마이디포를 창업했다. 류승훈 대표는 “라틴아메리카에 있는 6명의 팀원은 기술 개발과 마케팅 담당을 하고, 국내에는 3명의 직원들이 B2B 영업과 기획, 디자인 등의 업무를 맡고 있다”면서 “마이디포는 파편화된 AI 서비스들을 하나하나 모듈화 시키고 조합함으로써 대용량을 병렬, 분산처리 해 고속으로 결과물을 얻을 수 있다”고 설명했다. 류 대표에 따르면 마이디포는 현재 '팔만대장경 프로젝트'를 진행 중이다. 이 프로젝트는 1971년 미국 일리노이대 학생이던 마이클 하트가 시작한 '구텐베르크 프로젝트'라는 사회 운동을 모티브로 한다. 저작권 문제가 해결된 고전을 직접 타이핑해 모두가 무료 또는 최소한의 비용으로 읽을 수 있도록 한 이 프로젝트는 50년도 넘게 진행돼 현재 7만권이 넘는 세계 각국의 도서가 인터넷을 통해 공유되고 있다. 마이디포는 구텐베르크 프로젝트의 문서를 LLM AI를 활용해 읽기 쉬운 우리말 도서로 변환하는 작업을 하고 있다. 번역, 교정, 표지 디자인, 전자책 출간 등의 작업이 과거에는 수주에서 몇 달이 걸렸다면, 팔만대장경 프로젝트는 300페이지 외서 초벌 번역을 5분까지 단축시키는 것이 목표다. 류 대표는 “여전히 구텐베르크 프로젝트의 과실은 영어 사용자들이 주로 누리고 있는데, 생성형 AI 시대에는 모든 게 달라질 것”이라며 “언어 장벽 탓에 쉽게 접근할 수 없었던 구텐베르크 프로젝트의 문서를 읽기 쉬운 현대 우리말로 만들 것으로 기대, LLM 인공지능을 활용해 구텐베르크 도서를 한국어 도서로 변환하고 있다. 수주에서 몇 달 걸리던 작업을 단 5분으로 단축하고자 하는데 이것이 우리의 팔만대장경 프로젝트”라고 말했다. 종착지는북미 시장..."누구나 쉽게 이용하고 조합할 수 있는 AI 서비스 지향" 류 대표가 궁극적으로 바라보는 시장은 히스패닉 시장을 교두보로 한 북미 지역이다. 창업 초기부터 글로벌 개발팀을 꾸렸는데, 챗GPT 상위 국가에 미국·인도, 그 뒤로 콜롬비아와 브라질 등 히스패닉 국가가 상위 5위권에 오른 것을 눈여겨봤다. 미국 내 히스패닉 인구가 이미 6천500만을 넘었는데, 류 대표는 히스패닉 시장을 교두보 삼아 세계 최대 시장인 북미 지역으로 진출한다는 구상이다. 류 대표는 “마이디포를 지난해 3월에 개발해 그해 5월 개념증명(PoC)을 했고, 7월 최소기능제품(MVP)을 출시, 현재는 서비스 고도화에 집중하고 있다”면서 “현재 이용 고객의 70%가 히스패닉 시장에서 발생하고 있는데, 서비스 안정화와 완성도가 갖춰지면 글로벌 시장뿐 아니라 국내에서도 마케팅 활동을 펼칠 계획”이라고 밝혔다. 마이디포 AI 서비스는 크게 세 가지로 구분된다. 먼저 월 구독 모델로 AI 매시업 프레임워크를 제공한다. 또 마이디포 AI 컨설턴트들이 AI 활용 방법을 상담해준다. 끝으로 프롬프트 엔지니어링 등 기업 맞춤형 매시업 솔루션을 제작, 공급해준다. 개인 또는 기업은 필요로 하는 나만의 AI 서비스(앱)를 마이디포에 직접 제작 의뢰해 최적의 결과물을 얻을 수도 있으며, 다른 창작자들이 공개해 놓은 오픈마켓에서 적합한 서비스를 골라 유료로 구매한 크레딧을 지불하고 이용할 수도 있다. 이 때 창작자는 앱 사용 수익의 70%를 받는 구조다. 류승훈 대표는 “마이디포 서비스 고도화 맵에 있어 기술적인 목표는 LLM을 어떻게 나에게 더 잘 맞는 서비스로 만드느냐가 있다. 데이터를 양과 질을 고도화 시켜 맥락에 맞는 결과물을 얻는 것”이라면서 “각 AI 기술과 서비스들의 장점을 활용해 누구나 쉽게 이용하고 조합할 수 있도록 확장시키는 것이 마이디포의 목표”라고 말했다. 이어 “우리가 생각하는 범용인공지능(AGI)은 단순한 만물박사가 아니라, 여러 가지가 조합돼 결국은 우리가 원하는 결과를 얻어내는 것”이라며 “각 모듈들이 AGI 내에서 하나의 플러그인으로 활용될 수 있다. 마이디포의 리퀘스트 마켓이 적극 활용되고 집단적인 프롬프터들이 쌓인다면 다양한 AI 서비스들이 보다 쉽고 널리 쓰일 것”이라고 말했다.

2024.01.31 14:14백봉삼

"iOS18, 아이폰 역사상 최대 SW 업데이트 될 것"

애플이 올 가을 출시할 차세대 아이폰 운영체체 iOS18이 아이폰 역사상 가장 큰 소프트웨어(SW) 업데이트가 될 가능성이 높다고 블룸버그 통신이 28일(현지시간) 보도했다. 블룸버그 마크 거먼은 파워온 뉴스레터를 통해 “새 운영체제는 애플 역사상 가장 큰 iOS 업데이트 중 하나가 될 것이라고 들었다”고 밝혔다. iOS18은 오는 9월 출시에 앞서 오는 6월 개최되는 애플 연례개발자회의(WWDC) 2024에서 개발자 대상 첫 번째 iOS18 베타버전을 공개할 예정이다. ■ RCS 지원 작년 11월 애플은 올해 아이폰·아이패드와 맥OS 기반 맥북에어•맥북프로 등 PC에 기본 탑재되는 '메시지' 앱에 국제 표준 기술 'RCS'를 적용할 예정이라고 밝혔다. 따라서 iOS18에 RCS 지원이 도입될 전망이다. 이를 통해 아이폰에서도 RCS 탑재 안드로이드폰에 문자를 전송할 때도 ▲ 고해상도 사진•비디오 ▲ 오디오 메시지 ▲ 입력표시기 ▲ 실시간 읽기 상태 확인 ▲ 아이폰과 안드로이드 기기간 와이파이 메시징 ▲ SMS에 비해 향상된 암호화 기능 ▲ 안드로이드폰 사용자와의 그룹 채팅 기능이 제공될 예정이다. ■ 더 똑똑해진 시리 마크 거먼은 iOS18에 시리와 메시지 앱에 인공지능(AI)이 사용자의 질문을 처리하고 문장을 자동 완성하는 '생성AI' 기술이 탑재 될 것으로 밝혔다. 그는 애플이 애플뮤직, 페이지스, 키노트, 엑스코드를 포함한 애플 핵심 앱에도 생성 AI 기능을 탐색 중이라고 덧붙였다. IT매체 디인포메이션은 작년 9월 애플이 사용자의 복잡한 작업을 자동화할 수 있도록 대규모 언어 모델(LLM)을 시리에 통합할 계획이라고 보도했다. 이 기능에는 일련의 작업을 수동으로 프로그래밍할 수 있는 단축어 앱과의 통합이 포함된다. 이 기능 역시 올해 출시될 iOS18에서 출시될 것으로 예상된다.

2024.01.29 08:37이정현

올거나이즈 "'알리 앱 마켓'으로 금융·공공·제조업 공략"

"올거나이즈는 그동안 생성형 인공지능(AI) 애플리케이션을 연달아 출시해 왔다. 현재 이를 '알리 LLM 앱 마켓'에 모아뒀다. 고객사는 알리 LLM 앱 마켓에서 원하는 올거나이즈 앱을 자유롭게 사용하거나 새 앱을 만들 수 있다. 이를 통해 올해 금융·공공·제조업 고객사를 집중적으로 공략하겠다." 이창수 올거나이즈 대표는 최근 기자와 인터뷰에서 올해 사업 전략에 대한 계획을 이같이 밝혔다. 기존에 쌓아둔 고객 사례 기반으로 생성형 AI 제품을 통한 고객사 추가 확보에 나선다. 올거나이즈는 지난해 9월 기업용 '알리 LLM 앱 마켓'를 출시했다. 메타의 라마 2 기반의 올거나이즈 언어모델로 만든 앱 100개가 마켓에 업로드됐다. 카테고리는 일반, 법률, 인사, 고객지원, 생산성, 기타 카테고리로 이뤄졌다. 고객은 원하는 앱을 골라서 사용하면 된다. 자사 모델과 데이터로 직업 앱을 구축할 수도 있다. 이창수 대표는 올해 하반기 외부 개발자의 앱을 추가로 업로드할 것을 알렸다. 개발자가 앱을 알리 LLM 앱 마켓에 올리면, 올거나이즈가 해당 앱을 검토한 후 게재하는 식이다. "알리 앱 마켓으로 하루만에 앱 구축 완료 가능" 이창수 대표는 알리 앱 마켓 강점으로 신속성과 경제성을 꼽았다. 그는 "현재 아마존웹서비스(AWS)나 오라클 등 빅테크도 고객들에게 앱 구축 플랫폼을 제공하지만, 시간과 비용이 많이 요구한다"고 지적했다. 예를 들어, 고객은 AWS의 베드록으로 앱을 구축할 수 있다. 그러나 하루 만에 앱을 완성할 수 없다. 반면, 알리 앱 마켓은 이를 하루 만에 끝낼 수 있도록 돕는다. 이창수 대표는 알리 LLM 앱 마켓은 GPT스토어와 분명히 다르다고 설명했다. 우선 그는 "GPT스토어는 기업소비자간거래(B2C) 서비스지만, 알리 앱 마켓은 기업 고객을 위한 플랫폼"이라고 강조했다. 이 대표 설명에 따르면, GPT스토어 내 챗봇들은 간단한 개인 업무용과 엔터테인먼트가 주요 콘셉트다. 그는 "알리 앱 마켓의 앱들은 기업의 업무 간소화를 목적으로 탄생했다"며 "기업이 AI를 통해 매출을 늘리고 운영 비용을 낮추는 것을 주요 목표로 뒀다"고 설명했다. 그는 마켓 내 탑재된 앱 보안을 철저히 구축했다는 입장이다. 우선 올거나이즈 자체 언어모델에 검색증강생성(RAG)를 장착했다. 이 대표는 "사용자 질문에 가장 정확한 답변을 해야 한다"며 "RAG를 통해 답 후보를 뽑아 이 중 제일 적절한 대답을 제공한다"고 설명했다. 그는 "올거나이즈의 언어모델과 RAG, 고객사 데이터 파인튜닝이 앱 구축에서 가장 중요하다"고 전했다. "고객 사례 충분히 모았다...금융·공공·제조업 공략" 이창수 올거나이즈 대표는 다양한 산업에서 생성형 AI 솔루션 고객 사례를 충분히 모았다고 말했다. 마켓에서 가장 인기 많은 앱은 AI 인지 검색서비스 '알리'다. 사용자가 알리에 기업 문서를 업로드하고 관련 내용에 대해 질문하면, 알리는 문서 내용 기반으로 답을 찾아주고 출처를 보여주는 서비스형 소프트웨어(SaaS)다. 이 대표는 알리로 올해 금융, 공공, 제조업 고객을 집중 공략할 계획이다. 이창수 대표 설명에 따르면, 세 산업군은 생성형 AI를 업무에 가장 효과적으로 적용할 수 있는 분야다. 현재 생성형 AI를 통해 실질적으로 업무 생산성 향상을 가시적으로 보여줬다. 올거나이즈는 그동안 금융권 고객 사례에 공을 들였다고 말했다. 이 대표는 "금융권은 매우 복잡한 문서를 다룬다"며 "AI를 통한 생산성 증대가 결국 매출 상승과 비용 축소로 이어질 수 있었다"고 설명했다. 그는 "금융권은 솔루션 활용 사례를 중요하게 생각하는 업종"이라며 "초기 활용 레퍼런스가 긍정적이어야 고객 문의가 이어진다"며 "그동안 쌓아온 사례 기반으로 올해 금융권 고객사 확보에 주력하겠다"고 전했다. 이창수 대표는 제조업도 생성형 AI를 통한 업무 생산성과 매출 증대 사례를 꾸준히 내놓고 있다고 설명했다. 보통 제조업 종사자는 공장에서 사무직원들과 지속적으로 소통해야 한다. 현장에서 문제가 발생했을 때 현장 밖에 있는 관계자에게도 이를 알리고 해결책을 마련해야 하기 때문이다. 이에 이창수 대표는 "생성형 AI 앱이 제조공장 매뉴얼을 학습함으로써 현장서 발생하는 문제 대부분을 풀 수 있다"며 "이는 제조업 매출까지 증대할 수 있다"고 전했다. 공공의 경우 현재 국내 교육 기관에 AI 챗봇 등을 제공할 것도 알렸다. 이 대표는 올해 언어모델뿐 아니라 이미지까지 이해·처리할 수 있는 멀티모달 서비스도 구상 중이라고 밝혔다. 그는 "고객이 알리 LLM 앱 마켓으로 '나만의 AI 앱'을 만들어 사용하고, 기본적으로 탑재된 '알리' 등 생성형 AI 솔루션으로 업무 자동화를 이룰 수 있길 바란다"고 했다.

2024.01.26 17:35김미정

허깅페이스, 구글클라우드와 손잡았다

구글클라우드는 인공지능(AI) 스타트업 허깅페이스와 전략적 파트너십을 체결했다고 26일 밝혔다. 개발자는 허깅페이스의 모든 서비스에서 구글클라우드 인프라를 활용하고, 구글클라우드에서 허깅페이스 모델을 학습 및 제공할 수 있다. 허깅페이스는 AI 대중화 비전을 가속화하고 구글클라우드는 오픈소스 AI 생태계 발전을 위한 지원을 강화한다. 구글클라우드는 허깅페이스의 전략적 클라우드 파트너이자 학습 및 추론 워크로드를 위한 우선 대상자로 선정됐다. 개발자는 컴퓨팅, 텐서 처리 장치(TPU), 그래픽 처리 장치(GPU) 등 AI에 최적화된 구글클라우드 인프라를 간편하게 이용해 오픈 모델을 학습 및 제공하고 새로운 생성형 AI 애플리케이션을 구축할 수 있다. 구글클라우드와 허깅페이스는 개발자가 구글클라우드에서 대규모 AI 모델을 더 빠르고 비용 효율적으로 학습 및 제공할 수 있도록 긴밀히 협력할 예정이다. 개발자는 허깅페이스 플랫폼에서 간단한 클릭만으로 버텍스 AI를 사용해 허깅페이스 모델을 학습, 튜닝 및 제공할 수 있다. 이를 통해 구글클라우드의 특화된 엔드투엔드 ML옵스 서비스를 쉽게 활용해 생성형 AI 애플리케이션을 구축할 수 있다. 구글 쿠버네티스 엔진(GKE) 배포 지원으로 개발자는 허깅페이스에서 자체 설정한 인프라를 이용해 워크로드를 학습, 튜닝 및 제공하고, GKE에서 허깅페이스 전용 딥 러닝 컨테이너를 이용해 모델을 확장할 수 있다. 버텍스 AI와 GKE는 2024년 상반기 중 허깅페이스 플랫폼에 배포 옵션으로 제공될 예정이다. 양사의 파트너십으로 더 많은 오픈소스 개발자가 클라우드 TPU v5e를 사용할 수 있게 된다. 클라우드 TPU v5e는 이전 버전에 비해 달러당 최대 2.5배 더 높은 성능을 제공하고 추론 지연 시간은 최대 1.7배 단축한다. 엔비디아의 H100 텐서 코어 GPU를 탑재해 이전 세대에 비해 3배 빠른 학습과 10배 증가한 네트워크 대역폭을 제공하는 A3 VM에 대한 지원 또한 향후 확대할 계획이다. 이외에 인퍼런스, 엔드포인트, 스페이스, 오토트레인 등 허깅페이스 관리형 플랫폼에 대한 간단한 관리 및 과금 기능이 구글클라우드 마켓플레이스를 통해 제공될 예정이다. 토마스 쿠리안 구글클라우드 CEO는 “구글클라우드와 허깅페이스는 개발자가 생성형 AI를 보다 손쉽게 활용하고 영향력을 발휘할 수 있도록 지원하는 비전을 공유하고 있다”며 “이번 파트너십으로 개발자는 허깅페이스에서 구글클라우드의 AI 플랫폼인 버텍스 AI와 보안 인프라를 활용해 차세대 AI 서비스와 애플리케이션 구축을 가속화할 수 있을 것”이라고 밝혔다. 클레망 드랑주 허깅페이스 CEO는 “구글은 초기 트랜스포머 논문부터 T5 및 비전 트랜스포머(ViT) 모델에 이르기까지, AI 발전과 오픈 사이언스 운동을 이끌어 왔다”며 “이번 파트너십을 통해 허깅페이스 사용자와 구글클라우드 고객이 최신 오픈 모델과 함께 버텍스 AI, TPU 등 AI에 최적화된 구글클라우드의 대표 인프라와 도구를 더욱 쉽게 활용함으로써, 개발자가 자체 AI 모델을 구축하는 역량을 한층 더 발전시킬 수 있도록 지원하겠다”고 강조했다.

2024.01.26 10:47김우용

데이터 보안과 AI 기능으로 日기업 사로잡은 '다이렉트클라우드'

[도쿄(일본)=김인순기자] 회사 내부에 쌓이는 수많은 문서를 효율적으로 안전하게 관리할 수 있는 방법은 없을까? 많은 기업들이 하는 고민이다. 일본에서 이런 고민을 해결한 한국 기업이 있다. 다이렉트클라우드(대표 안정선)는 깐깐하기로 소문난 일본에서 2천 여개 기업에 클라우드 스토리지 서비스를 하고 있다. 이 회사는 2023년 9억3천만엔(약 84억원)의 매출을 올렸으며 2026년 일본 그로스마켓 상장도 준비 중이다. 다이렉트클라우드는 지란지교가 2016년 일본에 설립한 B2B SaaS 스타트업이다. 일본 기업은 각종 서류 데이터를 자체 스토리지(온프라미스)에 저장하거나 심지어 캐비넷에 보관하는 경우도 있다. 외부로 데이터가 유출되는 것에 대한 불안이 높다. 데이터 활용 보다는 보관에 급급하다. 안정선 다이렉트클라우드 대표는 2015년부터 기업의 디지털 전환(Digital Transformation)이 가속화되고 있는 추세를 목격했다. 이 때부터 2018년까지 3년 간 일본 기업 고객이 요구하는 클라우드 스토리지 서비스 개발에 집중했다. 2013년 동일본 대지진은 일본의 클라우드 도입을 확산한 계기가 됐다. 당시 클라우드 서비스로 이전한 기업은 업무에 재빠르게 복귀할 수 있었다. 이렇게 탄생한 서비스가 다이렉트클라우드다. 다이렉트클라우드는 아마존웹서비스(AWS) 환경을 기반으로 순수 국산 기술로 개발한 클라우드 스토리지 서비스다. 기존 파일서버나 사무실에서 쓰는 파일공유 같은 제한적인 활용에서 벗어나, 하이브리드 근무 및 재택 원격 근무 등 새로운 근무 환경에 적합한 서비스다. 기업이 중요 파일을 클라우드에 안전하게 저장하고 편리하게 활용하게 돕는다. 일본에서 2천개 기업 80만명이 사용한다. 다이렉트클라우드는 구글 드라이브, 원드라이브, 드롭박스, 박스 등 글로벌 기업과 경쟁한다. 다이렉트클라우드는 빅테크와 경쟁하면서 어떻게 일본 고객의 마음을 사로잡았을까. 일본 도쿄에 위치한 다이렉트클라우드 사무실을 직접 찾아 이야기를 들었다. ■ 빅테크 보다 강력한 '보안'에 합리적인 가격 안정선 대표는 '보안'에 방점을 찍었다. 안전한 데이터 보안 기술을 기반으로 데이터를 활용하는데 집중했다. 일본 기업은 한국보다 더 보수적이다. 사내 데이터가 클라우드 스토리지에 저장되는 것에 대한 거부감이 높다. 안 대표는 “신뢰할 수 있는 제3의 기관을 통해 보안 인증을 받으며 서비스를 키웠다. 중소기업에 맞게 구성할 수 있는 디테일한 맞춤 서비스를 제공했다"고 설명했다. 그는 "처음 일본 고객은 캐드 데이터나 고객 정보 등을 클라우드로 이전하길 꺼려했다. 이런 고객에게 절대 유출하지 않겠다는 약속은 물론 손해 배상 보험에도 가입했다. 시장에서 인정받을 수 있는 보안 인증도 미리미리 대응해 고객들의 불안 요소를 줄였다"고 말했다. 다이렉트클라우드는 무단 접속이나 정보 유출 위협에서 중요 데이터를 보호한다. 인가된 기기나 특정 IP에서만 접속이 가능하다. 다이렉트클라우드에서 데이터를 업로드 하고 다운로드하는 경우 모든 데이터는 SSL(Secure Sockets Layer)로 암호화해 전송된다. 사용자가 보안 규정을 어기고 중요 데이터를 공유했을 때 원격에서 해당 파일을 삭제하는 기능도 있다. 안 대표는 "고객 관리자는 내부 보안 정책을 사원이나 부서별로 자유롭게 적용하길 원했고 이런 요구를 서비스에 반영했다"고 말했다. 구글, 마이크로소프트 등 빅테크와 경쟁하는 다이렉트클라우드는 '유저수 무제한' 요금제를 내세웠다. 기업 내 전직원이 합리적인 가격에 클라우드 스토리지를 활용할 수 있다. 안 대표는 “구글이나 마이크로소프트 등 빅테크와 비교해 인지도가 낮았지만 중소 기업이 사용하기 쉬운 클라우드 스토리지로 포지셔닝했다”고 말했다. ■ 인공지능(AI)로 데이터 활용도 높여 다이렉트클라우드는 2023년 11월 AI 기능을 활용한 서비스를 시작했다. 기업에는 수 많은 문서가 쌓인다. 이를 안전하게 활용하는 서비스다. 다이렉트클라우드AI는 지정한 폴더 내에 있는 파일 내용만 학습한다. 기존 생성AI는 인터넷에서 취득한 일반정보를 학습하고 답변해 오류가 많다. 이와 달리 다이렉트클라우드AI는 사내 문서 등 내부 파일을 기반으로 정확하고 신뢰도 높은 답변을 한다. 예를 들어, 신입사원은 제품과 관련된 상세한 정보를 다이렉트클라우드AI에게 질문하고 답변을 받을 수 있다. 고객 문의사항 대응이나 사내 업무와 관련된 답변을 받아 효율을 높인다. 이 기능은 애플리케이션프로그래밍인터페이스(API)를 통해 사내 포털 사이트에 접목할 수 있다. 고객이 직접 문의할 수 있는 AI 채팅 서비스로 활용이 가능하다. 안 대표는 “챗GPT는 인터넷에서 일반적인 답변이나 혹은 허위 정보에 기반한 답변을 제공하는 경우도 있다. 다이렉트클라우드AI는 사용자가 지정한 폴더의 문서에 기반해 답하기 때문에 정확도를 보장한다. 다이렉트클라우드AI는 RAG(Retrieval-Augmented Generation)라는 검색 증강 생성 기술을 사용한다”고 말했다. 검색 증강 생성 기술은 미리 학습된 대규모 언어 모델(LLM)이나 자체 데이터를 통해 응답을 생성하는 방식이다. 미리 설정한 파일에서만 답변하기 때문에 문서와 관계없는 내용이나 허위 정보를 제공하지 않는다. 안 대표는 “향후에는 특정 폴더의 파일만이 아닌, 사내 문서 전체를 대상으로 AI 질의응답을 할 수 있는 기능과 문서 요약 기능도 추가 제공할 계획이다”라고 말했다. 다이렉트클라우드는 2020년 시리즈A, 2022년 일본 현지 VC와 기업으로부터 80억원의 프리 시리즈B 라운드를 마감했다. 일본 벤처캐피탈 코로프라넥스트 외에 기업용 클라우드 서비스 전문 유통기업 사테라이토오피스와 일본 상장기업 등이 전략적 투자자로 참여했다.

2024.01.25 16:35김인순

오라클, OCI 생성형 AI 서비스 정식 출시

오라클은 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 정식 출시한다고 25일 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신기술들을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어의 대규모 언어 모델(LLM)과 메타의 라마 2 LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전을 통해 온프레미스 환경에서도 이용 가능하다. 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 오라클의 검색 증강 생성(RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트 서비스에는 RAG 에이전트를 포함했다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어 기능을 활용한 MySQL 히트웨이브에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트, 오라클 넷스위트를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 오라클의 선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오는 고객의 두터운 신뢰를 얻고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스의 트랜스포머, 파이토치 등 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스 기능을 확장해 나가고 있다. 2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션 기능은 메타 또는 미스트랄 AI 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다. 오라클의 그렉 파블릭 OCI 사업부문 AI 및 데이터 관리담당 수석부사장은 "오라클의 AI 부문 전략적 목표는 기업들의 광범위한 AI 도입을 위해 실제 비즈니스 사례에서 발생했던 문제들을 해결하는 데 집중하는 것”이라며 “따라서 빠르고 비용 효율적인 AI 인프라를 기반으로 생성형 AI 모델을 자체 애플리케이션 및 융합형 데이터베이스에 통합하고, 새로운 LLM 및 관리형 서비스 제공을 통해 AI를 오라클 기술 스택의 모든 계층에 내장하고 있다"고 밝혔다. 그는 "오라클은 고객이 직접 모아서 구성해야 하는 방식의 도구모음이 아닌, 하나의 제품처럼 유기적으로 작동하는 강력한 사전구축 생성형 AI 서비스 및 기능 제품군을 제공한다”며 “이를 통해 고객은 비즈니스 문제를 영민하고 빠른 방식으로 해결할 수 있게 된다"고 강조했다.

2024.01.25 11:00김우용

애플도 'AI 아이폰' 만드나…"AI 스타트업 인수·인력 채용"

애플이 차세대 아이폰에 온 디바이스 인공지능(AI) 기술을 적용하기 위해 부지런히 AI 스타트업을 인수하고 관련 인력을 채용하고 있다고 파이낸셜타임스가 24일(현지시간) 보도했다. 보도에 따르면, 애플은 현재 모바일 기기를 통해 AI를 실행하는 데 발생하는 기술적 문제를 해결하는 데 집중하고 있다. 이를 위해 애플은 여러 AI 스타트업들을 인수했는데 인수한 업체의 수는 2017년 이후 21개에 달하며, 작년 초에는 AI 기반 영상 압축 기술을 보유한 미국 캘리포니아 소재의 웨이브원(WaveOne)을 인수했다. 최근 미국 투자은행 모건스탠리의 보고서에 따르면, 애플의 AI 채용 공고 중 거의 절반에 달하는게시글에 '딥 러닝'이라는 용어가 포함되어 있으며, 이는 생성 AI를 구동하는 데 사용되는 알고리즘과 관련이 있다고 전해졌다. 이전 보도에 따르면, 애플은 2023년 초부터 '에이젝스'(Ajax)라고 불리는 대규모 언어모델(LLM)을 테스트(대형 언어 모델)을 테스트해 왔다. 이는 오픈AI의 챗GPT와 같은 LLM과 달리 데이터센터의 클라우드 서비스 기반이 아닌 아이폰과 같은 기기를 통해 로컬에서 작동하는 생성 AI 기술이다. 이를 위해서는 LLM을 최적화함과 동시에 데이터 크기를 줄여야 하며 고성능 모바일 하드웨어와 더 빠른 애플 실리콘 칩이 필요하다. 애플은 AI로 강화된 새로운 시리 서비스를 제공하기 위해 아이폰16 마이크를 대대적으로 업그레이드할 예정이다. 애플은 올해 6월 WWDC2024 행사에서 iOS18을 공개하며 생성 AI 기반 기능들을 발표할 것으로전망된다. 모건스탠리 분석가들은 새롭게 선보이는 iOS18가 생성 AI 기능에 중점을 둘 예정이며, LLM으로 구동되는 시리를 포함할 것으로 예상했다.

2024.01.25 09:41이정현

올거나이즈, SKT에 '알리 LLM 앱 마켓' 공급

올거나이즈(대표 이창수)가 SK텔레콤에 '알리 거대언어모델(LLM) 앱 마켓'을 제공한다고 17일 밝혔다. 알리 LLM 앱 마켓에는 법무, 인사, 마케팅, 고객지원 등 업무에 특화된 LLM 앱이 등록돼 있다. 계약서를 비교 분석해 유리한 조항이나 독소 조항을 보여주고, 특정 고객들에게 전달할 자동응답 이메일을 생성해 주는 솔루션 등이 포함됐다. 이메일 중 중요한 내용만 요약해서 일간 리포트로 정리해 주거나, 문서를 기업의 톤 앤 매너에 맞게 스타일을 변경해 주는 등 업무 생산성 향상을 돕는 앱이 포함됐다. 함께 제공되는 '앱 빌더'를 활용하면, 개발자 없이도 LLM 앱을 노코드로 직접 생성해 사용할 수 있다. 앱에 적용될 LLM은 오픈AI의 GPT-3.5, GPT-4, 네이버의 하이퍼클로바X, 구글의 팜2, 앤트로픽의 클로드2 등의 LLM부터 금융에 특화된 알리 파이낸스 13B 모델로 이뤄졌다. 한편 올거나이즈는 알리 플랫폼으로 기업용 LLM 인에이블러 서비스를 제공하고 있다. 다양한 LLM 모델을 이용한 LLM 앱 개발 도구 및 미리 개발된 LLM 앱들을 앱 마켓 형태로 제공한다. 보다 많은 기업들이 올거나이즈의 LLM 솔루션을 활용할 수 있도록 화이트라벨링 방식의 공급도 지원하고 있다. 이창수 올거나이즈 대표는 "한미일 기업에 LLM 앱 마켓을 개발하고 운영해 온 올거나이즈가 SK텔레콤과 함께 엔터프라이즈 AI 앱 마켓 시장을 이끌어 나갈 수 있는 좋은 기회라 생각한다"며 "그간 기업 실무자들의 목소리를 반영한 업무자동화 AI 앱을 100여개 만들어 왔기 때문에, SK텔레콤과 함께 기업공공용 AI마켓에서도 특화된 다양한 업무 앱을 빠르게 확장해 나갈 수 있을 것"이라고 밝혔다.

2024.01.17 09:45김미정

액센추어 "AI가 인간 잠재력 한단계 더 끌어올릴 것"

더 인간적 면모를 갖는 쪽으로 발전한 인공지능(AI)이 사람의 생산성을 더 높이고, 향후 사람의 잠재력을 한단계 더 끌어올릴 것이란 전망이 나왔다. 9일 미국지디넷은 이같은 내용을 담은 액센추어의 '테크놀로지비전 2024' 보고서를 소개했다. 액센추어 테크놀로지비전 2024 보고서에 따르면, 전세계 경영진의 95%는 기술을 더욱 인간답게 만드는 게 모든 산업의 기회를 대폭 확대할 것이라고 여겼다. 보고서는 생성 AI가 현재보다 훨씬 더 많은 영향을 미칠 수 있다는 잠재력을 가졌가고 강조하고, 그 예를 제시했다. 또한 AI가 조직과 시장을 근본적으로 재편하기 시작했다고 강조했다. 여러 윤리적 질문을 담은 이 보고서의 질문 상당수는 여전히 현재진행형인 것들이다. 액센추어는 경영진의 93%가 빠른 기술발전으로 조직이 목적을 갖고 혁신하는 게 그 어느때보다 중요하다는 점에 동의하고 있다고 밝혔다. 보고서는 인간과 기술의 관계가 변곡점에 도달했으며, 이제 설계를 통해 기술을 인간으로 만들 때라는 말로 시작한다. 기술이 더욱 인간적일수록 접근성이 좋아지고, 디지털 경험, 데이터 및 분석, 제품 등을 모두 변화시킬 것이고 했다. 보고서는 생각, 행동, 느낌, 이해방식 등을 인간다움의 특성으로 꼽았다. ■ AI의 조화: 지식과 관계 재편 사람들은 생성 AI에게 정보를 요청하고 있다. 이는 검색 비즈니스를 변화시키고 향후 소프트웨어와 데이터 기반 기업의 미래를 바꾸고 있다. 액센추어는 사람의 정보처리 방식을 기술이 어떻게 모방하기 시작했는지 연구했다. AI 기술은 사람의 두뇌와 유사하게 설꼐되고 조직된 기억 구조를 따라하고 있다. 보고서에 의하면, 2025년까지 선도적인 한 항공사는 고객이 인간 상담사만큼 챗봇 상담사에 만족한다고 발표할 것으로 전망된다. 2027년 머신러닝 모델에 악성 데이터를 추가하는 데이터 중독이 기업게에 가장 큰 사이버 보안 위협이 될 전망이다. 2028년까지 주요 기업은 지식 관리, 연구, 작업 완료 등을 지원하는 독점 챗봇을 보유할 것으로 예상된다. 2029년까지 AI 조언자는 기존 검색 엔진보다 더 많은 검색 트래픽을 받게 된다. 2031년이면 앱 기반 인터페이스스를 에이전트 기반 인터페이스로 대체하는 스마트폰이 출시될 예쩡이다. ■ 독점 에이전트와 만남: AI를 위한 생태계 조금씩 사람 대신 AI가 조치를 취하고 있다. 곧 AI 에이전트의 전체 생태계가 비즈니스 주요 측면을 장악하게 될 것으로 예상된다. 이런 상황에서 적절한 사람의 지도와 감독이 중요해진다. 액센추어는 단일 작업을 수행할 수 있는 오늘날의 AI가 적절한 감독으로 서로 협력하고 사람과 기업 모두를 위한 프록시 역할을 하는 AI 에이전트로 진화할 것이라고 예측했다. 현재는 AI 에이전트가 개인 상호작용을 위한 자동화된 보조자지만, 미래에 에이전트 생태계가 전체 B2B 환경을 뒷받침할 잠재력을 갖게 될 것이라고 한다. 2025년까지 에이전트가 작성한 오픈소스 코드 전용의 새 코드 저장소가 출시될 것으로 예상된다. 2026년까지 지식 근로자의 4분의3이 매일 부조종사를 이용할 전망이다. 2028년이면 최초의 완전소등 자동차 제조공장이 문을 열 것으로 전망됐다. 2030년 주택 담보 대출의 절반이 AI 대리인의 승인으로 서비스될 것으로 예상된다. 2032년 정부는 보호된 정보를 수집하기 위해 지능형 에이전트를 사용했던 내부자 거래 조직을 해체할 것으로 예상됐다. ■ 우리에게 필요한 공간: 새로운 현실에서 가치 창출 공간 컴퓨팅 기술이 성장하고 있지만, 기업은 새 미디어를 성공적으로 활용하기 위한 킬러 앱을 찾아야 한다. 액센추어는 새로운 공간 컴퓨팅 매체의 출현과 물리적 공간과 디지털 공간 간 격차를 해소하기 위해 이 매체의 기능을 활용하는 애플리케이션을 관찰했다. ■ 새로운 인간 인터페이스 시선 추적 기술, 머신러닝, BCI 등에 이르기까지 일련의 기술은 인간을 더 깊이, 인간 중심적인 방식으로 이해하기 시작했다. 액센추어는 과거의 부자연스러운 기술 상호 작용을 회피해 사람들을 더 자세히 읽고 이해하기 시작한 새로운 기술 제품군을 살펴봤다. 데이터와 인간의 관계는 변화하고 있으며, 데이터를 통해 사람이 생각하고, 일하고, 기술과 상호작용하는 방식도 변하고 있다. 이는 디지털 기업의 전체 기반을 붕괴시키고 있다. 보고서는 "우리는 검색에 너무 익숙해서 대부분의 사람이 자신의 살메 얼마나 많은 검색이 스며들었는지조차 깨닫지 못한다"고 설명했다. 보고서는 데이터의 중요성을 강조했다. 데이터는 오늘날 비즈니스를 형성하는 가장 중요한 요소 중 하나다. 기업은 조직 전체에서 정보의 작동 방식을 재구성하고, 이를 통해 차세대 데이터 기반 비즈니스를 만들 기회를 얻었다. 액센추어는 생성 AI를 통해 드디어 디지털 집사가 등장했다고 했다. 데이터와 상호 작용하는 방식과 일하고 사고하는 방식이 바뀌는 가운데 기업은 유연성을 가져야 한다. 그렇지 않으면 새로운 세대의 데이터 기반 비즈니스가 유연성없이 성장하게 된다. 디지털 작업자의 다수가 업무를 효과적으로 수행하는데 필요한 정보나 데이터를 찾기 힘들어한다. 생성 AI는 이를 도울 수 있는 능력을 가졌다. 보고서에 의하면, 경영진의 95%는 생성 AI가 조직의 기술 아키텍처 현대화에 도움을 줄 것이라고 여겼다. 보고서는 새로운 데이터 인터페이스인 대규모언어모델(LLM)을 탐색했다. 기업이 탐색할 수 있는 LLM 옵션은 네가지다. 우선 자체 LLM을 교육하는 대신 아마존웹서비스, 오픈AI, 구글, 메타, AI21, 앤트로픽 등을 사용하는 것이다. 다움은 기존 LLM을 선택해 미세조정하고, 분야별 데이터 세트를 추가 학습시켜 특정 작업에 더 맞춤화되거나 효율적 모델을 다듬는 것이다. 세번째로 특수한 사례에 맞게 소규모언어모델(SLM)을 미세조정하는 것이다. 마지막으로 검색증강생성(RAG)를 활용해 관련성 높은 사용 사례뼐 정보를 제공해 사전훈련된 LLM을 기반으로 하는 것이다. 정보검색시스템과 생성 AI 모델을 결합시키는 방식으로 처음부터 LLM을 교육하거나 미세조정하는 방식보다 더 적은 시간과 컴퓨팅 용량을 필요로 한다. 세일즈포스의 아인슈타인GPT가 오픈AI의 LLM과 외부 LLM을 연결한 RAG로 제공되는 AI 챗봇의 예다. 액센추어는 훈련을 통하든 프롬프트를 통하든 LLM에 들어가는 데이터가 고품질이어야 한다고 지적했다. 신선하고 레이블을 잘 지정해야 하고, 편견이 없어야 한다. 훈련 데이터는 제로파티(Zero-Party)여야 하며 고객이 사전에 공유하거나 회사에서 직접 수집해야 한다. 정확성 외에도 생성 AI 챗봇의 출력물은 설명가능하고 브랜드와 일치해야 한다. 액센추어는 생성 AI 챗봇이 지속적인 테스트와 인간의 감독을 받아야 한다고 조언했다. 기업이 윤리적 AI에 투자하고, 준수해야 할 최소한의 표준을 개발해야 하며, 정기적으로 피드백을 수집하고 직원을 교육해야 한다고 강조했다. ■ AI 생태계에서 인간의 역할 보고서의 의하면, 경영진의 96%는 AI 에이전트 생태계 활용이 향후 3년 내 조직에 중요한 기회를 제공할 것이라고 동의했다. 액센추어는 신제품과 서비스를 출시하기 위해 기업에서 AI를 채택한 실제 사례를 들었다. 예를 들어 AI는 제조상의 결함을 감지할 수 있지만, 에이전트는 진정한 무인제조를 가능하게 할 수 있다. AI는 이미 주문을 처리하고 있지만, 상담원은 제품을 판매한 다음 고객의 집까지 배달할 수 있다. 에이전트 생태계를 통해 기업은 자사의 제품과 제공법을 재창조할 수 있다. AI 비서는 사람을 대신해 행동할 수 있는 프록시로 성숙해지고 있다. 이런 에이전트의 등장으로 비즈니스 기회는 실시간 데이터 및 서비스에 대한 접근에 따라 달라진다. 복잡한 사고 사슬을 통한 추론은 사람대신 에이전트 자체를 사용하는 도구를 만든다. 인간을 안내하고 감독하는 발전을 통해 에이전트 생태계는 물리적 세계외 디지털 세계 모두에서 작업을 완료할 수 있게 될 것이다. 보고서는 작년 여러 AI 혁신과 AI 에이전트 채택 혁명을 주도하는 산업을 제시했다. 또한 보조 또는 부조종사로서 대리인이 개별 직원의 성과를 극적으로 지적했다. 항상 사람에게 의존하는 기업 프로세스의 경우 에이전트는 협력자 역할을 한다. 기업은 이런 에이전트를 지원하는 데 필요한 인간적, 기술적 접근 방식을 생각해야 한다. 기술 측면에서 주요 고려 사항은 엔티티가 자신을 식별하는 방법이다. 오늘날 기계는 기업 네트워크 ID의 43%를 차지한다. 기계와 인간의 미래 작업에 대해 보고서는 "에이전트 생태계 시대에 가장 귀중한 직원은 에이전트의 지침을 설정할 수 있는 최고의 인력일 것"이라고 강조했다. 주요 성공 요인은 회사의 핵심 가치와 지침 원칙이다. 보고서는 자율 에이전트에 대한 기업의 신뢰 수준이 에이전트에서 창출되는 가치를 결정한다고 강조했다. 에이전트가 올바른 정보에 접근할 수 있게 되면 인간도 에이전트에게 해당 정보를 추론하는 방법을 가르쳐야 한다. 보고서는 "에이전트는 그를 가르치는 인간만큼만 가치가 있다"고 강조했다. 기업은 에이전트의 전임자, LLM 및 지원 시스템 간의 연결 패브릭을 엮는 것부터 시작해야 한다. 회사 정보에 대한 LLM을 미세조정함으로써 전문 지식 개발에 앞서 기초 모델을 제공할 수 있다. 보고서는 "에이전트 생태계는 기업의 생산성과 혁신을 인간이 거의 이해할 수 없는 수준으로 높일 수 있는 잠재력을 가졌다"며 "단, 이를 안내하는 인간만큼만 가치를 가지며, 인간의 지식과 추론은 하나의 에이전트 네트워크를 제공한다"고 밝혔다. 또 "오늘날 AI는 하나의 도구이고, 미래엔 AI 에이전트가 회사를 운영하게 될 것"이라며 "그들이 날뛰지 않도록 하는 게 우리의 임무"라고 강조했다.

2024.01.11 11:40김우용

비아이매트릭스, 데이터 분석 AI비서용 자체 LLM 출시

비아이매트릭스는 자체 개발한 LLM(거대 언어 모델) 'G-매트릭스(G-MATRIX) MX-7B'를 출시했다고 10일 밝혔다. 이번에 발표한 'G- 매트릭스 MX-7B'는 자연어 기반 데이터 분석 및 시각화 서비스에 특화된 언어 모델이다. 업무 담당자가 AI와 대화를 하듯이 기업의 데이터베이스에서 데이터를 조회하고, 조회한 데이터를 바탕으로 분석 화면을 제작하는 생성형 AI 솔루션 G-매트릭스에 최적화했다. G- 매트릭스 MX-7B는 70억 개의 매개변수를 가진 경량 언어 모델이다. 산업군에 특화된 5만 개 이상의 데이터 분석용 질문과 다양한 시각화 대시보드 탬플릿을 학습해, 자연어로 기업의 데이터를 추출하고 데이터 특성에 맞는 시각화 화면을 추천하는 것이 가능하다. 모든 기업에서는 그동안 생성형 AI를 활용한 업무혁신을 희망하였으나, 보안을 이유로 도입을 망설였던 기업을 위하여 온프레미스형 LLM으로 내부망에서 구축 가능한 환경을 제공한다. 지금까지 다양한 시스템 구축을 필요로 했던 데이터 분석 업무 혁신 분야에 특화됐다. 또한 데이터 분석 업무용으로 최적화, 경량화되어 하드웨어 자원의 최소화가 가능하여 타사 대비 도입 비용이 절감되고 빠른 처리 속도를 제공한다. 이번에 출시된 MX-7B는 전 세계 인공지능 솔루션이 모여있는 허깅페이스에도 등록되어 있다. 비아이매트릭스는 2023년 데이터 분석용 생성형 AI 솔루션 G-매트릭스 2.0을 출시한데 이어 기업에서 보안 걱정없이 사용할 수 있는 자체 LLM까지 출시하여 실용적 AI를 구현하는 회사로써의 이미지를 부각시킴과 동시에 기업의 업무 생산성 혁신에 기여할 예정이다. 올해 생성형 AI 분야의 R&D 인력을 대폭 강화하고, 그동안 보유한 데이터 기반 특허 기술들과 융합하여 상반기에는 데이터 예측 및 아우디(AUD) 플랫폼 코팡일럿도 선보일 예정이다. 또한 이번 출시로 더 나은 비즈니스 환경과 업무 효율성을 추구하는 기업들에게 혁신적이고 안전한 솔루션을 제공하고 성공 가능한 사업 모델을 지속적으로 제시하여 현실성있는 생성형 AI 분야에서 시장을 선도해 나가겠다는 포부를 밝혔다.

2024.01.10 11:32남혁우

AI 해킹을 막을 완벽한 방법은 없다

공격자는 인공지능(AI) 시스템에 의도적으로 접근해 오작동을 일으킬 수 있는데 이에 대한 완벽한 방어책은 없다. 미국 국가표준기술연구소(NIST)는 '적대적 머신러닝(ML): 공격 및 완화에 대한 분류와 용어' 가이드를 발표하고, 생성AI 도구 발전과 사이버 보안 위험을 경고했다. 인공지능, 머신러닝을 채택하는 기업은 늘어나고 있지만 이에 대한 취약성을 인지하고 사이버 보안 대책을 세우는 곳은 드물다. 대부분의 소프트웨어 에코시스템과 마찬가지로 진입 장벽이 낮을수록 보안 장벽도 낮아진다. NIST는 가이드에서 AI에 나타날 수 있는 사이버 위협을 회피, 중독, 남용, 프라이버시 등 4가지 유형으로 분류했다. 사이버 보안 전문가들은 머신러닝 모델의 취약점과 특수성을 악용하는 공격 활동에 촉각을 곤두 세우고 있다. ML이 새로운 사이버 공격 표면이 됐기 때문이다. 회피 공격(Evasion attack)은 AI시스템이 배포된 후 발생한다. 입력을 변경해 시스템이 응답하는 방식을 변경하는 공격이다. 예를 들면, 자율주행자동차가 인식하는 정지 표시판을 속도제한 표지판으로 잘 못 해석하게 하는 식이다. 혼란스러운 차선 표시를 만들어 차량이 도로를 벗어나게 하는 형태의 공격이다. 중독 공격(Poisoning attack)은 손상된 데이터를 삽입해 AI시스템 훈련 단계에서 발생한다. 적이 훈련 데이터 세트를 조작하는 공격이다. 공격자가 ML 모델에 부정확하거나 잘못 해석된 데이터를 공급해 잘못된 예측을 내놓게 만든다. 공격자가 훈련 데이터 중 일부에 부적절한 내용을 넣는다. AI 모델이 사용하는 데이터세트의 0.1%만 중독해도 성공적인 조작으로 이어질 수 있는 것으로 나타났다. 공격자는 위키피디아(Wikipedia)와 같은 크라우드 소스 정보 저장소 등을 악용해 LLM 모델을 간접적으로 조작할 수도 있다. 남용 공격(Abuse attack)은 피싱 이메일을 생성하거나 악성코드 작성과 같이 악성 콘텐츠를 생성하기 위해 AI 도구를 무기화하는 것이 포함된다. 실제로 다크웹에서 프러드(Fraud)GPT나 웜(Worm)GPT와 같이 사이버 범죄를 지원하는 LLM 서비스가 나왔다. 프라이버시 공격(Privacy attack)은 AI가 훈련한 데이터 중 민감 정보를 추출해 이를 오용하는 시도다. 공격자는 챗봇에게 다양한 질문을 한 후 모델을 리버스 엔지니어링해 약점을 찾거나 원본을 추측할 수 있다. 이외에도 공격자는 AI나 ML 모델의 취약점을 찾아 백도어를 만들거나 악성코드를 주입해 기업 내부로 침투하는 초기 네트워크 액세스 권한을 얻고 측면으로 이동할 수 있다. 악성코드를 배포하고 데이터를 훔치고 심지어 조직의 공급망을 오염시키는 공격이 가능하다. 가트너에 따르면 일반 소프트웨어에 대한 대부분 공격이 AI와 ML에 적용될 수 있다. 생성AI 보안 스타트업을 창업한 윤두식 이로운앤 컴퍼니 대표는 "기업이 LLM을 도입하는 과정에서 개인정보나 지적재산권이 유출될 수 있고 악성코드나 저품질 코드를 받을 있다"면서 "세계적으로도 생성AI 사이버 보안을 고려하는 LLMOps 분야가 확대되면서 대응책 마련을 시작했다"고 말했다.

2024.01.10 11:29김인순

구글, 직접 학습하고 개선하는 로봇 훈련도구 공개

로봇이 주변 환경을 인식하고 스스로의 행동을 분석해 작업을 개선하는 대규모 인공지능(AI) 모델 기반 학습도구를 구글에서 공개했다. 5일 테크크런치 등 외신에 따르면 구글 딥마인드 로보틱스는 로봇 학습모델 '오토RT'와 'RT-트레젝토리' 등을 공개했다. 오토RT는 로봇에게 주어지는 다양한 환경과 목적에 따라 명령을 자연스럽게 수행할 수 있도록 개발된 기본 학습모델이다. 대규모 언어모델(LLM)과 비전 언어모델(VLM)과 로봇 제어 모델을 결합해 사전에 설정되지 않은 환경을 스스로 분석 후 주어진 목표를 적합하게 수행하기 위한 방안을 도출하고 수행한다. 예를 들어 '책상 위의 캔을 들어'라는 명령이 주어지면 언어모델이 주변 환경을 스캔한 후 모든 객체에 따른 정보를 텍스트 데이터화 한다. 이후 LLM이 책상과 캔과 관련된 데이터를 확인 후 명령을 수행하기 위한 작업 프로세스을 생성한다. 작업 프로세스는 환경을 고려해 다양하게 생성되며 부적절한 방식과 실제 업무에 필요한 작업 등을 분류하는 과정을 거친다. 실제 유효하다고 판단된 작업만이 업무 프로세스로 샘플링 된 후 로봇에 적용되어 수행된다. 또한, 수행 과정과 결과에 대한 데이터를 수집 후 분석해 이후 작업을 개선할 수 있는 기능도 갖췄다. 구글 측에 따르면 오토RT는 로봇이 얼마나 자율적으로 명령을 수행할 것인지 원하는 정도에 따라 설정할 수 있다. 또한 얼마나 안전하고, 자율적으로 업무를 수행하는지 판단하기 위해 테스트를 진행했다. 7개월에 걸쳐 한 번에 최대 20대의 로봇을 다양한 환경을 조성하며 테스트를 실시한 결과 6천650개의 고유한 언어 지침을 다루는 7만7천 개 이상의 사례를 수집할 수 있었다고 밝혔다. 구글은 로봇이 업무를 수행하는 과정에서 가장 적합한 물리적 동작을 수행하기 위한 RT-트레젝토리라는 학습모델도 도입했다. 로봇의 동작 궤도를 시각화해 반복 학습 과정에서 어떤 동작으로 업무를 수행했을 때 더 좋은 결과를 얻을 수 있는지 확인하고 개선할 수 있도록 지원한다. 훈련 데이터를 지원하지 않은 41개 작업으로 테스트한 결과 작업 성공률이 29%에서 63%로 2배 이상 향상됐다고 밝혔다. 또한 보다 안전한 로봇 활용을 위해 자체 필터링 기능 외에도 추가적인 안전조치 계층을 구성했다. 관절에 가해지는 힘이 주어진 임계값을 초과하면 자동으로 멈추도록 설정했다. 더불어 작동 중인 모든 로봇은 사람이 직접 중단한 수 있는 물리적 비활성화 스위치가 눈에 잘 띄는 곳에 위치하도록 구성할 것을 권했다. 구글 딥마인드 로보틱스 팀은 “우리는 여러 환경에서 다양한 명령을 자연스럽게 수행하기 위한 다목적 로봇개발을 목표로 하고 있다”며 “이번에 공개한 대규모 AI모델과 시스템 등을 통해 더욱 효율적인 로봇을 선보일 수 있을 것으로 기대한다”고 말했다.

2024.01.05 09:09남혁우

  Prev 11 12 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

"입는 로봇, 스마트폰처럼 쓰게 될 것…라인업 다각화 계획"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현