• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (264건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

新 먹거리 발굴 나선 파수, 'AI 비서'로 고객 확보 노린다

파수가 기존 솔루션에 인공지능(AI) 기능을 확대해 사용자들이 손쉽게 AI로 업무 효율성과 생산성을 혁신할 수 있도록 돕는다. 파수는 문서관리 솔루션 '랩소디(Wrapsody)'와 외부 협업 플랫폼 '랩소디 에코(Wrapsody eCo)'의 신규 업데이트 버전을 통해 문서 요약과 시맨틱 검색 등이 가능한 'AI어시스턴트' 기능을 제공한다고 27일 밝혔다. 최근 기업용 거대언어모델(LLM) '엘름(Ellm)'을 출시한 파수는 올해 초 '고객들의 AI 활용을 돕는 AI 기업'으로의 변화를 선포하고 AI 비전 중 하나로 AI 기능을 접목하는 'AI 기반(AI-Powered) 애플리케이션'을 발표한 바 있다. 파수는 해당 전략의 일환으로 랩소디와 랩소디 에코의 신규 버전을 통해 AI가 제대로 적용된 문서중앙화 솔루션과 외부 협업 플랫폼의 기능을 제공한다. 새로워진 랩소디와 랩소디 에코는 'AI어시스턴트' 기능을 추가해 사용 편의성과 업무 효율성을 혁신한다. 상용 LLM과 연동된 AI어시스턴트를 통해 최대 5개의 문서를 한 번에 비교하거나 요약하고 문서 정보를 검색할 수 있다. 원하는 문서를 AI 채팅창에 끌어다 놓는 간편한 방식으로 대상 문서를 지정하고 '문서 요약' 등의 가이드 버튼을 클릭하거나 자유롭게 질문을 입력해 내용 요약은 물론, 문서 간 차이점이나 필요한 정보를 찾고 번역하거나 정리하도록 시킬 수 있다. 예를 들어 간단한 질문 입력으로 여러 개의 영문 보고서에서 언급된 특정 주제에 대해 한글로 요약 및 정리된 내용을 확인할 수 있다. AI 기능이 적용된 랩소디는 모든 문서를 암호화 처리 후 중복 없이 중앙저장하고 관리해 기존 문서중앙화를 대체하는 차세대 문서관리 플랫폼이다. 문서가상화 기술을 기반으로 다수 사용자가 분산 저장해도 하나의 문서로 관리돼 한 사용자가 문서 작업 후 저장만 하면 다른 사용자가 저장한 파일들도 최신 버전으로 자동 동기화된다. 문서자산화, 버전 관리, 권한 관리가 가능해 조직 내 생성형 AI 구축 시 AI를 학습하기 위한 내부 데이터 관리에도 최적이다. 또 이번 업데이트를 통해 AI 기능 외에도 드라이브 용량 제어 기능을 추가해 관리자가 개인이나 부서 단위로 드라이브의 용량을 일괄 혹은 각각 설정할 수 있도록 했다. 랩소디 에코는 문서가상화 기술을 기반으로 안전하고 효율적인 외부 협업 환경을 구축하는 플랫폼이다. 모든 문서는 암호화 공유되며, 언제든지 열람·편집 권한 제어는 물론, 구성원별로 세밀한 보안 단계를 적용할 수 있다. 다양한 협업 솔루션을 손쉽게 통합하고, 문서 공유나 채팅 등 모든 협업 이력을 한눈에 파악할 수 있으며 워크크룹 이력에서 채팅 이력까지 같이 확인할 수 있다. 조규곤 파수 대표는 "AI어시스턴트 기능을 추가한 랩소디와 랩소디 클라우드는 AI를 제대로 적용한 문서중앙화 솔루션과 협업 플랫폼으로, 사용자들이 실제로 편의성과 효율성을 크게 체험할 수 있을 것"이라며 "최근 출시한 기업용 sLLM 엘름(Ellm)과 이번에 선 뵌 랩소디, 랩소디 에코 외에도 파수는 고객들이 AI를 업무에 제대로 활용할 수 있도록 다양한 방면으로 AI를 접목해 나갈 것"이라고 말했다.

2024.05.27 10:32장유미

얀 르쿤 "현존하는 AI 뛰어넘는 새 모델 연구 중"

세계 4대 인공지능(AI) 학자로 꼽히는 얀 르쿤 메타 AI최고과학자가 오픈AI의 GPT 등 현존하는 AI를 능가하는 새 모델을 개발 중이라고 밝혔다. 23일 얀 르쿤 AI최고과학자는 파이낸셜타임스(FT)와 인터뷰에서 이같은 행보를 알렸다. 르쿤은 "앞으로 생성형 AI는 사람처럼 생각하고 추론하는 능력을 갖추지 못할 것"이라며 "대신 현존하는 AI에 '기계적 초지능'을 부여하는 것은 가능하다"며 연구 배경을 설명했다. 생성형 AI가 인간을 능가할 수 없는 이유도 알렸다. 그는 "거대언어모델(LLM)은 매우 제한된 논리적 이해를 갖춘 상태"라며 "물리적 세계에 대한 지식도 없고, 기억력을 지속적으로 가질 수 없다"고 설명했다. 그는 "사람보다 높은 수준으로 추론할 수도 없고 체계적인 계획도 만들 수 없다"고 덧붙였다. 예를 들어, 공이 바닥에 떨어지는 순간 사람은 이 공이 다시 튕겨 오를 것이라고 추론한다. 반면 LLM은 이조차도 데이터 훈련을 통해 알 수 있다는 것이다. 자연스런 추론과 물리적 세계에 대해 이해할 수 없기 때문이다. 르쿤은 현재 GPT를 능가하는 AI 개발 기간을 10년으로 봤다. 르쿤은 "인간 기능과 최대한 비슷한 AI를 개발하기 위해 연구 중"이라고 했다. 르쿤에 따르면 현재 메타는 이 연구에 수십억 달러를 투자하고 있다. 마이크로소프트와 오픈AI, 구글, 애플 등 생성형 AI 경쟁에서 우위를 선점하기 위한 노력이다. 그는 "메타 연구가 인간 수준의 지능을 달성하기 위해 다양한 실험을 테스트 중"이라며 "수많은 불확실성이 있기 때문에 어떤 방식이 채택될지 미지수"라고 했다.

2024.05.23 17:29김미정

"생성AI, 발전 무궁무진···통합 플랫폼 갖춰 추진해야"

투이컨설팅(대표 김인현)과 트러스트커텍터(대표 윤석빈)가 공동 주관하고 지디넷코리아가 후원한 '우리 조직에 맞는 엔터프라이즈 LLM 세미나'가 22일 서울 강남 뱅뱅사거리 인근 드림플러스에서 열려 성황리에 막을 내렸다. 생성AI 전문가 12명이 연사와 패널로 나와 엔터프라이즈 현장의 생성AI 도입 현황과 나아갈 방향, 법제도 문제를 진단했다. 유료 세미나임에도 좌석 120곳이 만석으로 치뤄질만큼 높은 호응을 받았다. 축사를 한 투이컨설팅 임동진 전무는 "LLM은 모든 산업의 관심사로 떠올랐다"면서 투이컨설팅이 조사한 기업의 LLM 도입 현황을 발표, 시선을 모았다. 이어 행사 공동 주관사인 트러스트커넥터의 윤석빈 대표(서강대 겸임교수)는 "날로 쏟아지는 AI신기술에 우려도 있지만 인류를 새롭고 좋은 곳으로 이끌 것이라는 믿음과 함께 큰 기대를 갖고 있다"면서 "엔터프라이즈 영역의 AI 도입은 기업은 물론 국가경쟁력과도 연결되는 중요한 사안"이라고 밝혔다. 윤 교수는 600명 가까운 산학연관 AI전문가들이 참여한 커뮤니티도 운영하고 있는데 "모두 힘을 합쳐 상생하는 마음으로 커뮤니티를 발전시키고 AI산업 발전에도 기여했으면 한다"고 덧붙였다. 해외 영상 축사도 소개됐다. 엔비디아 본사에서 H100 GPU 개발에 참여한 한국 개발자로 실리콘밸리에서 활동하고 있는 스테펀 조(Stephen Cho)는 영상으로 "인터넷과 모바일 이상의 큰 변화를 생성AI가 초래하고 있다. 하드웨어와 소프트웨어간 경계가 허물어 지고 있다"면서 "생성AI와 인공지능을 도입하기 위해선 굉장히 많은 하드웨어 자원이 필요하다. 비용도 굉장히 많이 들어간다. 이에, 소프트웨어개발 회사들이 하드웨어 도메인 안으로 들어오고 있다. 구글과 메타, 마이크로소프트가 그렇다"고 짚었다. 이어 그는 "하드웨어 회사들도 본인이 갖고 있는 하드웨어 기술 자원을 연동해 소프트웨어 영역안으로 뛰어들고 있다. 결국 두 영역에서 부딪힐수 밖에 없는 상황이다. 와중에 많은 비즈니스 기회가 생길 것"이라면서 "민첩하고 창의적인 마인드로 무장하면 기업도 국가도 더 많은 기회를 얻을 것이다. 기술 뿐 아니라 비즈니스 모델이 중요하며 AI 윤리 등에도 관심을 가져달라"고 말했다. ■이건복 한국MS 리드(상무) "조직이 AI투자로 수익 얻는 기간 평균 14개월" 첫번째 발표자로 나선 이건복 마이크로소프트 아시아 IoT팀 리드이자 한국마이크로소프트 NTO(National Technology Officer)는 "AI가 모든 산업을 변화시키고 있다"고 운을 떼며 데이터를 강조했다. 레시피도 중요하지만 음식의 맛은 재료라는 것이다. 특히 그는 과거 벽돌폰과 스마트폰을 비교하며 "지금은 생성AI의 아주 초기단계다. 우리가 지금까지 본 AI기술은 시작에 불과하다"면서 "LLM(Large Language Model, 거대언어AI)은 발전 가능성이 무궁무진한 기술"이라고 진단했다. 통계데이터 조사로 유명한 일렉트로닉스허브(Electronics Hub)의 최근 조사 결과도 인용했다. 이에 따르면, 세계에서 생성AI를 가장 활발히 사용하는 국가는 필리핀이다. 인구 10만명당 5288 건에 달했다. 싱가포르와 캐나다가 2위, 3위였다. 한국은 15위권에도 못 들었다. 이 NTO는 "LLM 등 생성AI를 보안을 이유로 사용을 차단하고 있기때문"이라고 해석했다. 생성AI는 국내외적으로 여러 종류가 있다. 미국 오픈AI가 내놓은 챗GPT가 대표적이다. 이 NTO가 속한 미국 마이크로소프트는 오픈AI에 막대한 자금을 지원, 챗GPT에 기반한 업무생상성 소프트웨어 '코파일럿'을 내놓고 세계적으로 시장을 확대하고 있다. 특히 MS는 미국시각 21일 본사인 레드몬드에서 열린 개발자 회의 '빌드(Build)'에서 AI를 활용한 50여종의 새로운 서비스와 제품을 공개하며 AI시장 선점에 드라이브를 걸었다. 이날 사티아 나델라 MS 최고경영자(CEO)는 "우리의 서비스들이 여러분 모두에게 새로운 기회를 제공할 것"이라고 강조했다. 1980년대 등장한 워드, 엑셀, 파워포인트처럼 AI가 개인과 직장인 업무에 새로운 편리함을 제공할 것이라는 것이다. MS의 '빌드' 행사에 앞서 구글과 오픈AI도 새로운 AI서비스를 선보인 바 있다. 이 NTO는 생성AI를 가장 많이 사용하는 두 곳으로 콜센터의 고객대응 보조와 정보 검색을 들었다. 또 본인이 직접 중견 보일러 회사에 강연차 간 경험을 들려주며 AI의 업무 생산성 확대 효과를 강조했다. 이 NTO는 보일러에 문외한이지만 강연 현장에서 텍스트를 넣어 보일러에 관한 파워포인트 12장을 1분여만에 제작, 생성AI의 유효성을 보여줬다. 그는 오픈AI가 최근 내놓은 새로운 생성AI인 'GPT4o(o는 omni로 어디서나 있다는 뜻)'를 써보니 "너무 빨랐다"면서 미국 MS가 '빌드'에서 보여준 영상으로 소비자가 생성AI를 활용해 적합한 등산화를 찾는 장면도 보여줬다. 특히 그는 데이터를 강조했다. 기업 입장에서는 데이터가 경쟁력이라면서 "LLM은 단순히도구에 불과하다. 지향점이 아니다"고 짚었다. 생성AI가 산업전반에서 성과를 창출하고 있는 사례도 소개했다. KPMG의 경우 생성AI로 직원 경험 강화 효과 41%를, 또 NHS는 24시간 고객 참여 재창조를, 심포니AI는 비즈니스 프로세스 재구성 70% 효과를 봤다는 것이다. 특히 IDC 2023년 11월 보고서를 인용해 "기업이 AI에 투자하는 달러당 평균 수익률은 3달러50센트, 조직이 AI투자로 수익을 실현하는데 걸리는 평균 시간은 14개월"이라고 소개했다. 생성AI에 대한 기업 지출도 늘고있다. 인프라보다 서비스와 플랫폼&앱 소프트웨어 부문이 그렇다. 그에 따르면, 오는 2027년 기준 생성AI 인프라는 85억 달러를 지출하는데 반해 생성AI 서비스는 131억달러, 생성AI플랫폼&앱 소프트웨어는 152억 달러에 달했다. 작년에 나온 '워크 트렌드 인덱스 스페설 리포트'도 인용했다. 얼리어답터 297명을 조사한 결과다. 이에 따르면 AI사용 만족도가 77%였다. 또 매주 1회 무료 점심 제공보다 코파일럿 사용을 선택하겠다고 답했다. 이 상무는 "(코파일럿이) 새로운 직원 복지"라면서 "실제 30%는 직장 선택시 코파일럿 사용 가능 여부가 중요하다"고 해석했다. 생성AI가 단순히 채팅을 넘어 다양한 비즈니스 영향력을 행사하고 있다고 재차 강조한 그는 "기업용 커뮤니케이션, 협업과 지식 공유, 문서관리, 디자인과 연구개발, SW개발과 배포 등의 비즈니스에 적용에 되고 있다"고 말했다. 생성AI 활용시 고려해야 할 사항으로는 ▲보안 ▲저작권 ▲안정성과 윤리 ▲성능 ▲답변 완성도 ▲기업 내부 데이터 사용 등을 제시했다. 또 안전한 AI가 보장되지 않으면 확대와 적용이 어렵다면서 '신뢰 AI'에 필요한 6대 원칙으로 ▲신뢰성과 안전 ▲프라이버시와 보안 ▲포괄성 ▲책임과 의무 ▲투명성 ▲공정성을 제시했다. 특히 그는 "생성AI는 앱(서비스)을 더욱 인텔리전트하게 업그레이드해준다. 이런 기회가 많을 것"이라며 기존 앱이 인텔리전트앱으로 고도화하는 패러다임 변화가 일어나고 있다면서 통합AI 플랫폼 필요성을 강조했다. 생성AI 도입시 부분만 보지 말고 처음부터 끝까지(검색-비교-평가-개선-통합-테스트-검토-배포 모니터링) 통합 관점에서 보는 플랫폼이 필요하다는 것이다. "기존 시스템은 파편화가 문제다. 지난 30년간 IT환경 구축의 문제점"이라면서 "수많은 앱을 바꾸려면 전사와 통합 관점이 아니면 안된다. 스팟(spot, 일시) 기술로 접근하면 업그레이드와 유지 등에 문제가 된다. (AI는) 빨리 변하고 영향력이 매우 크기 때문에 생태계 전체의 통합 플랫폼 관점에서 다뤄야 한다"고 강조했다. ■ 안무정 LG CNS "생성AI는 초코렛 박스...누구나 하나씩 가져야" LG CNS에서 신사업과 생성AI사업 개발을 맡고 있는 안무정 책임은 "나는 엔지니어지만 작가이기도 하다"며 본인을 소개하며 "생성AI는 개인이 친구처럼 지내야 할 대상이다"고 말했다. 안 책임은 '생성형 AI시대에 생존하라' 등 AI관련 책 4권을 저술한 바 있다. 텍스트만 넣으면 그림을 그려주는 AI를 소개하며 " 그림을 잘 못그리는데 행복한 세상"이라면서 "코딩 하면서 느낀건데, 언제든 질문하면 대답해주는 것, 이것만 해도 엄청난 베니핏(이익)"이라고 말했다. 작년 7월 LG AI연구원은 LG의 LLM인 '엑사원 2.0' 모델을 기반으로 ▲엑사원 유니버스(EXAONE Universe) ▲엑사원 디스커버리(EXAONE Discovery) ▲엑사원 아틀리에(EXAONE Atelier)를 발표한 바 있다. '엑사원 유니버스'(EXAONE Universe)는 도메인별 전문 문헌과 최신 데이터까지 학습한 플랫폼으로 각 분야 전문가들이 정보를 탐색하고 조합할 수 있게 해준다. 또 '엑사원 디스커버리'(EXAONE Discovery)는 다양한 실험 과정을 예측해 최적의 방법을 제안하는 생성형 AI다. '엑사원 아틀리에'(EXAONE Atelier)는 이미지 등을 생성해주는 AI다. 당시 LG AI연구원은 '아뜰리에'가 저작권을 확보한 이미지-텍스트 페어 데이터 3.5억장을 학습했다고 밝혔다. '아뜨리에'에 대해 그는 "누구나 디자이너가 될 수 있다"면서 "미드저니보다 질이 뒤질지 모르지만 데이터 저작권은 우리가 강점이 있다. 지금은 안하지만 종국에는 저작권을 이야기 할 것"이라고 짚었다. 이지스 군함을 소개하며 현업과의 소통 중요성도 강조했다. 이지스 군함을 운영하는 병력이 줄어 이를 기술로 보완, AI를 활용해 엔진 소리를 듣고 고장 유무를 판별하려 하는데 현업과의 소통이 잘 안돼 실행이 안된다는 것이다. 이어 그는 "LLM 구축의 첫번째는 우리 기업에 어떤 종류의 데이터가 있는지 파악하는 것"이라며 역시 데이터 중요성을 강조하며 "LLM 시작의 가장 어려운 부분은 전처리"라고 설명했다. 전처리가 쉽지않고 완전 노가다성 일이라는 것이다 ANN, CNN, RNN 같은 AI기술을 "아름다운 AI"라고 칭하며 "하지만 LLM을 하려면 고통이 따른다"고 덧붙였다. LLM 개발에 많은 돈이 들어간다면서 "도메인 특화 LLM을 만들어야 하는데 돈이 100억 이상은 들어간다"고 예상했다. 또 LG의 LLM '엑사원' 장점은 한글을 잘하는 것이라며 "한글을 잘하는 LLM을 찾아야 하고 로드맵이 있어야 한다 엑사원은 조만간 다음 버전인 '2.5'가 나온다. 엑사원은 파라미터가 3000억개 이지만 특정 영역을 커버하는게 장점"이라고 설명했다. 이어 그는 "생성AI는 쵸코렛 박스다. 하나씩 갖고 있으면 손해 보지 않는다"면서 "경험을 빨리 축적할 수 있는 알고리즘은 없다"며 경험을 강조했다. ■ 김세엽 셀렉트스타 대표 "국내 첫 LLM 평가기법 개발...여러 평가방법 함께 사용해야" LLM이 국내외적으로 쏟아져 나오면서 이를 평가하는 곳도 늘고 있다. 국내는 셀렉트스타가 대표적이다. 셀렉트스타를 창업한 김세엽 대표는 2021년 포브스가 선정한 '아시아 30대 미만 리더 30인'에 뽑히기도 했다. 현재 과기정통부가 주관하고 있는 AI윤리정책포럼위원으로 활동하고 있다. 국내 처음으로 LLM 평가 시스템을 개발했다. 김 대표는 셀렉트스타에 대해 "자체기술을 기반으로 AI 데이터 밸류 체인(AI Data Value-chain) 전체에걸쳐 비즈니스를 보유한 '데이터 센트릭(Data-centric) AI 전문기업"이라고 소개했다. 그가 언급한 '데이터 센트릭'은 AI석학으로 지금은 투자에 더 열중하고 있는 앤드류 응이 강조하는 개념이다. AI에서 데이터가 중요하다는 걸 상징한다. 이 회사의 비즈니스 모델은 크게 두 가지다. 하나는 '올 인 원 데이터 서비스'고 다른 하나는 'AI제품 비즈니스'다. 김 대표는 셀렉트스타가 삼성, SKT, 네이버, KT, 현대, 삼성생명 등과 함께 일하고 있다면서 "우리는 LLM 데이터 1위 기업이자 금융(파이낸스) 데이터 전문 기업"이라면서 "신뢰할 수 있는 LLM을 도입하기 위해선 서비스 맞춤평가가 필요하며 핵심"이라고 강조했다. 현재 셀렉트스타는 'AI 안전(AI Safety)' 분야에 힘을 기울이고 있다. 이를 위해 ▲라이선스를 확보한 데이터 판매 서비스 ▲환각(할루시네이션) 방지를 위한 데이터 구조화 서비스 ▲리스크를 찾는 레드티밍(Red Teaming) 서비스 등에 주력하고 있다. 셀렉트스타가 판매하는 데이터는 다양하다. 'Q-A 데이터셋'의 경우 230만 건 이상 질문과 전문가 답변을 담았다. '뉴스 데이터셋'과 '도서 데이터셋' '대화 데이터셋' '다국어 번역 데이터셋' '이미지 데이터셋' '3D 시뮬레이션 및 합성 데이터셋' 등도 공급한다. 데이터구조화서비스에 대해 김 대표는 "RAG 기반 LLM 도입을위한 최적 형태로 문서데이터의구조화 설계 및 수행을 한다"고 설명했다. '레드 티밍(Red Teaming)' 서비스는 의도적으로 AI의 잘못한 답변을 유도해 서비스 리스크를 찾는 것으로 '레드티밍' 설계 및 수행을 해주고 있다. 이외에 셀렉트스타는 AI 성능과신뢰성을 서비스목적에 맞게 평가하기 위한 데이터 설계 및 구축도 해주고 있다. LLM 평가동향에 대해 김 대표는 "최근 가장 많이 받는 질문이 LLM 서비스를 도입하거나 개발중인데 AI가 잘되는지, 혹은 문제가 없을지 어떻게 평가해야하나요?라는 것"이라면서 "LLM은 기술 특성상 의도하지 답변에 따른 리스크 및 신뢰성 담보 어려움이 발생한다"고 들려줬다. LLM 평가는 크게 ▲사람 개입 없이 하는 자동평가(Automatic evaluation)와 ▲생성결과를 사람이 직접 평가(Human evaluation. 예 Chatbot Arena)하는 것 두 가지가 있다. 이중 자동 평가는 ▲Multiple-choice evaluation(객관식 질의를 통해 자동정량 평가. 예가 MMLU, Open LLM Leaderboard) ▲LLM based evaluation(LLM을 통해 Human evaluation을 자동화. 예가 G-eval, MT-Bench)으로 또 나눠진다. 각 평가 방법마다 장단점이 있다. 예컨대 평가 일관성 유지, 소요 리소스, 실사용자와의 간극이라는 지표를 놓고 봤을때, 방법마다 장단점이 있다는 것이다. 김 대표는 "결국 트레이드 오프를 고려해 평가방법을 적절히 조합해 사용해야 한다"고 제안했다. 리스크가 큰 영역은 휴먼 평가를 해야 한다는 것이다. 이어 그는 "현장을 뛰면서 느낀 점은 첫째, 서비스 맞춤 평가가 필요하다는 점과 둘째, 서비스 맞춤 평가는 어렵고 많은 리소스가 필요하다는 점"이라면서 "산업 전반에 걸쳐 서비스 평가 체계를 갖추기 위해서는 영역별 공통 평가 기반을 갖추는 것이 중요하다"고 제안했다. 셀렉트스타는 한국지능정보사회진흥원(NIA)이 주관한 인공지능학습용 데이터 구축 사업에 주관 기업으로 참여해 KAIST, 네이버, LG AI연구원, SK텔레콤, LT 등과 협력해 글로벌 공통 평가를 참고해 국내 최초로 LLM 신뢰성 평가 데이터를 설계, 구축하기도 했다. 엔스로픽의 3H(Harmness Honesty Helpfulness) 프레임워크를 활용했다. 셀렉트스타의 유해성 테스트(Harmlessness Test)는 사회적으로 유해할 수있는 영역에 대해 LLM이 얼마나 무해할 지 평가하는 것으로 2만건의 데이터를 확보했다. 편견(Bias), 증오(Hate), 불법(Illegal) 영역의 질의에 대해 적절한 답변을 선택하는 멀티플 초이스(Multiple Choice) 형태로 평가를 수행한다. Helpfulness Test는 사용자 의도에 맞게 도움을 줄 수 있는 질의인 지에 대해 LLM이 얼마나 잘 판단하는지를 평가하는 것으로 3천건의 데이터를 확보했다. 질문의 구체정보를 되물어야하는 클래리피케이션(Clarification)과 불가능한 것을 묻는 난센스(Nonsense)로 카테고리를 구성했다. 또 Social Value Alignment Test도 있는데 이는 국가 구성원들의 사회적 가치관에 대해 LLM이 얼마나 일치하는지 평가하는 것이다. 이외에 Common Knowledge Alignment Test(Honesty Test)도 있다. 국가 구성원들의 공통 지식에 대해 LLM이 얼마나 잘 하는 지 평가하는 것이다. 김 대표는 소셜 밸류 얼라인먼트 테스트를 언급하며 "기존 벤치마크는 LLM이 얼마나 문제를 잘 푸는지, 혐오 및 편향에 잘 대처하는 지 등 전통적인 영역만을 다뤘다. 특정국가에 LLM을 서비스하기 위해서는 해당 국가 구성원들의 의견을 잘 반영하는 것이 필요하다"고 설명했다. 셀렉트스타는 올 하반기에 리더보드 챌린지를 시행, 연말에 AI허브에 공개할 예정이다. ■용혜림 10X AI클럽 대표 "GPT 래퍼 될 지 AI 네이티 프로덕트 될 지 고민을" 오후 세션의 첫 발표는 용혜림 10X AI클럽 설립자 겸 대표가 했다. 유명 유튜버인 그는 10X AI크럽 설립전 숏폼컨텐츠 자동편집 및 제작사를 공동 창업하고 인공지능 커뮤니케이션 챗봇 회사 CEO를 지낸 경험이 있다. 2017년 등장한 AI 트랜스포머(Transformer) 등 AI 역사와 하이테크 기술사를 소개한 그는 'GPT 래퍼(Wrapper) vs AI Native Product'를 언급하며 "GPT와 같은 오픈소스 LLM 모델을 사용한, 누구나 만들수 있는 래퍼(wrapper) 스타트업이 될것인 지, 아니면 에어앤비(Airbnb), 쿠팡과 같이 새로운 기술을 도입해 이전에 보지 못한 새로운 비즈니스 모델의 제품을 만들 것인가?" 물으며 "기존에 보지 못한 새로운 비즈니스모델을 세워야 한다"고 말했다. LLM 도입 장단점은 설명했다. 그가 장점으로 꼽은 건 ▲빠르고 퀄리티 높은 자연어처리 기술을 내 제품에탑재 시킬수 있음 ▲데이터 처리능력 및 학습능력이 뛰어남(시간소모, 개발인력단축) ▲실행력으로 빠른 시장점유율 높이기 등이다. 반면 그는 단점으로 ▲오픈AI 등 무한경쟁 ▲낮은 기술 장벽으로 차별점 얻기 어려움 등을 꼽았다. ■이학준 마드라스체크 대표 "직원 100명이 200명이 되는 마법...1인 1업무 비서 열어" 웹케시 계열사인 마드라스체크의 이학준 대표는 국내 리딩 협업툴 솔루션 '플로우'에 인공지능(AI)을 적용한 경험을 이야기했다. 앞서 이 회사는 지난 3월 '플로우 3.0'을 공개했다. 이 제품은 AI를 적용한 것이 특징으로 '똑똑한 AI 업무비서'를 지향한다. 주요 기능은 크게 △AI 프로젝트 템플릿 △AI 하위 업무 △AI 업무 일지 △AI 업무 필터 △AI 에디터 템플릿 △AI 담당자 추천 등 6가지다. 이학준 대표는 '플로우'가 "금융, 제조, 공공에서 선택한 넘버1 협업툴"이라면서 "국내 최초로 SaaS와 온프레미스 두 방식으로 공급하고 있다"고 밝혔다. 이 대표에 따르면 '플로우'를 온프레미스로 도입한 곳은 미래엣셋을 비롯해 DGB 대구은행 등 다양하다. 망 분리 환경에서 금감원 보안 지침을 따른 제품이다. '플로우'는 업무 추천도 해주는데 사용자가 특정 업무 내용을 입력하기만 하면 된다. 또 사용자는 업무 내역이나 진행상황을 검색할 수도 있다. 예를 들어 이용자가 '이번 주 우리 팀이 처리한 업무 알려줘'라고 입력하면, 관련 내용을 리스트 형식으로 받을 수 있다. 검색할 수 있는 업무도 다양하다. 처리 중이거나 보류된 업무, 다른 팀에 넘어간 업무 등을 확인할 수 있다. 이 대표는 "데이터 활용 혁신, 모두를 위한 인사이트가 AI다. 단순 수작업을 줄이고 더 의미있는 일에 몰입하게 해주며, 더 짧은 시간에 더 많은 일을 하게 해준다"면서 "직원 100명이 200명이 되는 마법을 만들어주는 1인 1업무 비서가 플로우"라고 강조했다. 이어 플로우가 꼭 필요하냐던 고객사가 몇년후면 꼭 필요한 제품이라고 할 것이라면서 "누구나 쉽게, 또 쓸수록 가치있는 제품이 되도록 플로우 3.0에 AI를 적용했다"고 밝혔다. ■ 배영근 바아이매트릭스 대표 "이제 분석은 AI비서에...G매트릭스 만나는 순간 혁신 일어나" 포스데이타 출신으로 2004년 비아이매트릭스를 설립한 배영근 대표는 AI가 전문직으로 진화중이라면서 "분석은 AI비서에게 시키고 의사결정 중심으로 업무로 전환해야 할 때"라고 강조했다. 현재 그는 노∙로우코드협의회회장과 한국SW산업협회빅데이터기업협의회(KBEC) 부회장도 맡고 있다. 비아이매트릭스는 데이터 분석, 시각화 등 비즈니스인텔리전스(BI) 업무에 특화한 로우코드 개발 플랫폼 기업이다. 로우코드 플랫폼 '아우디(AUD) 솔루션'과 서비스를 제조, 유통, 건설, 서비스, 금융 등 다양한 분야의 1천여 개 주요 대기업과 공공분야에 제공하고 있다. 작년 9월 출시한 'G-매트릭스'는 '아이-메타(i-META)' 모듈을 바탕으로 최소한의 정보만 학습해 AI 정확도를 극대화한 것이 특징이다. 우수한 성능뿐 아니라 보안성도 우수하다. 지난 20년간 BI 연구를 해왔는데 데이터가 연료인 AI 시대를 맞아 주목받고 있다. 배 대표는 "수천개의 데이터베이스에서 의미있는 정보를 찾아 분석하는 시대가 어느 정도 끝나간다"면서 AI에 의한 데이터 분석과 의사결정을 강조했다. 이어 "G매트릭스를 만나는 순간 혁신적으로 변한다. 의사 소통의 방향이 바뀐다"면서 "AI 업무비서가 질문 의도도 파악해 데이터 찾고 알려준다. 질문만 잘하면 10초 안에 결과물이 나온다. 기존엔 수시간 걸리던 일"이라고 들려줬다. 이 회사는 AUD(Automated UI Development, 아우디) 플랫폼도 갖고 있는데 "개발에서 가장 어려운 일이 현업과 커뮤니케이션이다. 요구 사항을 개발자에게 전달하는 일이 어렵다. 요구명세서, 기본설계서, 화면 정의서, 화면 사양서, 단위테스트 등을 해야 하는데 개발자와 현업간 커뮤니케이션이 힘들어 진행이 잘 안된다. 그래서 뭐든 집어 넣으면 나오는 게 만든게 아우디 플랫폼"이라면서 "AUD 플랫폼은 엑셀 요구 사항에 집어넣으면 자바로 분석해 표현해준다"고 설명했다. AI를 앞세운 혁신에 성공한 비아이매트릭스는 작년에 공공에서만 10개 넘는 시험테스트(PoC)를 했다. 올해는 카데고리별 매출 실적 달성률을 알려주는 기능도 구현, 제공한다. 이를 위해 올 3월 예측알고리즘을 적용해 추정 및 예측 분석이 가능하게 했고 시각화 플랫폼도 선보인다. ■ 장진영 유엔진솔루션즈 대표 "AI를 마법처럼 쓰려면 SW공학에 먼저 힘을 기울여야" 장진영 유엔진솔루션즈 대표는 'AI를 통한 민원시스템 구현'을 보여주며 "시스템에 들어가는 요구사항을 얼마나 잘 넣는냐가 중요하다. 그런데 자연어로 요구사항을 주는게 더 어렵다"면서 "그래서 SW공학이 있는 거다. AI를 마법처럼 쓰는 것 보다, 기존에 인류가 한 기법인 SW공학에 힘을 기울여야 한다. SW공학에는 현업과 개발자간 갭을 줄이는 수만가지가 있다"며 AI시대에도 SW공학이 중요함을 역설했다. 유 대표가 2007년 설립한 유엔진솔루션즈는 자체 오픈소스 BPM(Business Process Management) 제품인 '유엔진(uEngine)'을 주력으로 하고 있다. 금융, 공공, 제조, 통신 등 국내외에 100여개의 적용 레퍼런스를 보유했다. 마이크로서비스아키텍처(MSA) 설계 컨설팅과 교육으로 8000명 이상 교육생을 배출하기도 했다. 지난 3월에는 5년간 개발한 'MSA Easy'를 오픈소스로 공개했다. 'MSA Easy'는 사용자만의 프로그램을 만들거나 기존 프로그램을 개선하는 걸 돕는다. 자체 제품화나 사내 시스템 구축에 도움이 된다. 특히 클라우드 기반 애플리케이션 개발을 간소화해준다. 20년간 개발을 해오고 있다는 유 대표는 이날 LLM 기반 정보시스템 분석과 설계에 대해 발표했다. 그는 전통적인, 사람에 의한 정보시스템 구축과 관리는 비용이 높다면서 정보시스템 구축의 새로운방법으로 자연어를 기반한 업무프로세스 실행방법이 있다고 말했다. 이어 BPMN과 같은 쉬운 비즈니 스프로세스 기술언어를 소개하며 "LLM을 통해 프로세스 정의 생산성과 실행 유연성을 높일 수 있다"고 주장했다. 또 최근 나온 GPT4o와 같은 생성형AI 기술은 사용자인터페이스를 어느 때보다 쉽게 만들어준다면서 "Process GPT는 이러한 도전이고 오픈소스"라고 밝혔다. ■권혁성 포티투마루 AI사업 총괄 "목적에 맞는 학습데이터 모으는게 중요" 포티투마루에서 AI사업을 총괄하고 있는 권혁성 이사(BPO)는 RAG 필요성 등을 설명하며 회사의 사업 현황과 비전을 들려줬다. AI의 환각(그럴듯한 거짓말)을 막아주는 기술 중 하나인 RAG(Retrieval-Augmented Generation)는 대규모 언어 모델의 출력을 최적화, 응답을 생성하기 전 학습 데이터 소스 외부의 신뢰할 수 있는 지식 베이스를 참조하도록 한 프로세스다. 국내 중소AI기업중 선발적으로 RAG를 선보인 포티투마루는 특히 '앤서링 AI(Answering AI)' 기술력과 딥러닝 기술에 기반을 둔 딥 시맨틱 QA(Question Answering) 플랫폼을 개발, 기술력을 인정받고 있다. 자체 기업용 초거대 AI 경량화 모델인 'LLM42'를 출시, 생성 AI 및 대형언어모델(LLM)시장을 선도해 가고 있다. LG유플러스에서 투자 유치를 받았고 네이버클라우드와도 전략적으로 협력하고 있다. RAG 필요성에 대해 권 이사는 "챗GPT는 2023년 10월까지 지식을 기반으로 답한다"면서 자사의 핵심기술인 데이터 전처리와 기계독해(MRC)를 설명했다. MRC는 커버리지가 떨어지지만 정확성을 높여 주는 기술이다. 특히 팩트 기반 정보를 제공할때 유용하다. 권 이사는 파운데이션 모델 튜닝을 설명하며 "목적에 맞는 학습 데이터를 모으는게 상당히 중요하다"며 데이터 수집을 강조했다. 권 대표는 포니투마루 고객 사례로 지식검색서비스를 시범 구축한 CJ제일제당을 비롯해 RAG 연동 상품추천챗봇을 공급한 LG유플러스, 지식기반 생성AI를 시연한 DB손해보험, RAG 적용 PoC를 하고 있는 KAIST, 상담원 어드바이저 서비스를 하고 있는 금융권 등을 소개했다. 권 이사는 질의응답 시간에 "할루시네이션은 100% 해결이 안된다"면서 "RAG 외에 온톨로지 등을 사용하기도 한다"고 말했다. ■ 조원희 법무법인 디엘지 대표 "EU 법안 발효...내용 잘 알고 제대로 대처해야" 유럽연합(EU)이 세계에서 처음으로 포괄적인 인공지능(AI) 기술 규제법인 'AI법(AI Act)'을 21일(현지시각) 최종 승인했다. 이날 EU 교통·통신·에너지이사회는 “AI법을 최종 승인했다”고 밝혔다. 2021년 초안이 발의된 지 3년 만이다. 올 3월 EU 의회에서 압도적 찬성으로 AI법을 통과시킨 뒤 법안 수정 등 절차를 거쳐 이날 확정했다. 이로써 오는 11월부터 EU 27개 회원국에선 실시간 안면 인식을 한 뒤 프로파일링을 하는 등의 인권침해적 요소를 지닌 AI 서비스가 모두 금지된다. 내년엔 인간 수준의 사고력을 지닌 범용인공지능(AGI·Artificial General Intelligence)에 대한 규제도 시행된다. 조원희 법무법인 디엘지(DLG, 구 디라이트)대표변호사는 EU와 미국의 AI법을 소개하며 국내AI 기업들의 대응방안을 조언했다. 조 변호사는 한국과학기술원(KAIST) 겸임교수와 과학기술정보통신부고문변호사로도 활동하고 있다. 조 변호사에 따르면, 이번에 EU가 승인한 AI법은 네 가지 원칙을 갖고 있다. 첫째, 인간 자동화 존중( Respect for human autonomy)으로 AI 시스템이 인간을 부당하게 종속, 강요, 기만, 조작, 통제또 는 집단화하지 않고 오히려 인간의 인지적, 사회적, 문화적 기술을 보완한다는 것이다. 둘째, 손상 방지(Prevention of harm)로 인간의 존엄성, 정신적, 신체적 완전성을 보호하고 기술적으로 견고하며 악의적인 이용에 노출 되지않도록 보장해야한다. 셋째, 공정성(Fairness)으로 수단과 목적간 비례원칙에 따른 실질적 공정성, 또 AI시스템 또는 이를 운영하는 사람이 내린 결정에 대해 이의를 제기하고 구제를 요청할 수 있는 절차적 공정성을 말한다. 넷째, 설명성(Explainability)으로 프로세스가 투명해야하고, AI 시스템의 기능과 목적이 공개적으로 전달돼야 하며, 결정에 대한 정당한 이의를 제기할 수 없는 경우 다른 설명가능성을 위한 조치(추적성, 감사가능성 등)가 요구 될 수 있다는 것이다. 이번 EU AI법 경과를 보면 2018. 4월 발표한 '유럽 AI 전략(AI for Europe)'이 시초다. 이어 ▲2019년 4월 '신뢰할 수 있는 인공지능 윤리기준' 권고안 발표(전문가그룹) ▲2020년2월 19일 '인공지능백서((White paper on AI)' 발표 ▲인공지능법안 제안(proposal for a regulatory FRAMEwork on AI) 및 AI 합동계획 수정안 발표(2021.4.21) ▲유럽연합 이사회 수정안 채택(2022.12월) ▲유럽의회 수정안 채택(2023.6.14.) ▲유럽연합이사회, 유럽의회, 집행위원회가절충안잠정적합의(2023.12.8). ▲유럽연합이사회상주대표위원회(Committee of the Permanent (2024.2.2) 추가수정안가결▲유럽의회본회의가결(찬성523표, 반대46표, 기권49표, 2024.3.13) Representatives, 'COREPER') 추가수정안가결 ▲이사회 공식 승인, 순차적 발효(2024. 5. 21) 등이 이뤄졌다. 조 변호사는 EU AI Act 적용범위에 대해 "EU 내에 AI 시스템 혹은 범용AI 모델을 출시하거나 서비스를 제공하는 Provider로 EU내에 설립한 법인인지 여부를 불문하고 해당한다"면서 "과학연구와 개발, 업무목적 외로 AI시스테을 사용하는 자연인 등은 제외됐다"고 말했다. EU AI법은 AI 기술을 위험 수준에 따라 4단계로 나눠 규제한다. 최고 단계인 '허용될 수 없는 위험'부터 '고위험' '제한적 위험' '저위험' 등이다. 인권침해적 AI 서비스에 대한 규제는 6개월 뒤인 11월부터 시작한다. 스마트폰 안면 인식 결제 시스템처럼 사람 얼굴을 촬영해 이용자의 성적 취향, 정치·종교적 신념, 인종 등 민감한 정보를 알아내는 서비스가 대표적이다. 또 AGI 규제는 내년 5월부터, 관련된 모든 규제가 시행되는 건 2026년 중반으로 전망된다. 법을 위반할 경우엔 벌금이 막대하다. 해당 회사 세계 매출의 최대 7%에 해당하는 벌금을 부과할 수 있다. 벌금 상한선은 3500만 유로(약 517억 원)다. EU는 AI법 시행을 위해 회원국에 'AI 사무국'을 두고 시행을 지원하는 과학 전문가 패널을 둘 예정이다. 조 변호사는 국내 AI기업들의 대응 8대 방안을 제안했다. 첫째, 미국AI기술 이용시 또는 미국내 범용AI 서비스제공시 미국AI 행정명령에 의한 정부고지 및 안전성평가 의무와 상무부 보고의무 여부 및 이행 점검 둘째, 생성AI 콘텐츠 워터마크 표준, 개인정보보호지침 등 세부기준과 지침발표 또는 구체화시 이에따른 위험관리 조치적용 필요 셋째, AI의 구체적 구현에 대해 명확히 예상되는 규제가 없으므로, EU AI Act의 프레임워크를 구성하는 윤리성, 신뢰성, 투명성, 안정성 측면에서 자율적으로 대비 필요 넷째, 기업의 경우 구성원들에 대해 AI 활용시 위험에 대한 교육 및 가이드라인(업무자료작성시의 활용범위에대한제한등) 마련 필요다. 또 다섯째, 인공지능 모델에 의한 결과물과 관련해 그 모델의 구조, 학습데이터, 결과도출 과정에 대한 정보를 투명하게 공개할 필요가 있고(영업비밀과충돌) 여섯째, AI 알고리즘에 대한 설명가능성 확보, 추적시스템 마련 일곱째, 개인정보와 저작권 측면에서 법률검토 필수 여덟째, 실제 리스크 상황에서 규제대응에 있어 충분한 증빙자료로 삼을수 있는 내부리스크 관리체계(거버넌스)를 구축하고, AI 비즈니스모델을 구성하는 단계에서부터 데이터를 어떻게 관리하고, 관련 사고발생시 어떻게 대응할 것 인지에 대한 방안을 마련하는 등 리스크를 사전에 통제할 수 있게 하는 점 등을 제시했다.

2024.05.23 14:14방은주

삼성SDS 황성우 "델 덕에 10만명에게 생성형 AI 제공"

[라스베이거스(미국)=김우용 기자] "작년 GPU 서버가 부족했을 때 마이클 델이 구원자였다. 그의 도움 덕분에 이미 생성형 AI 서비스를 고객사에 제공하고 있고, 사용자가 10만명을 넘었다. 삼성SDS는 사용자에게 빠르고 저렴하게 서비스를 제공하기 위해 많은 기술적 노력을 기울였고, 델 파워엣지 서버는 그 과정에서 큰 역할을 했다." 황성우 삼성SDS 대표는 20일(현지시간) 미국 라스베이거스에서 개최된 '델테크놀로지스월드 2024' 컨퍼런스 첫날 기조연설 무대에 올라 이같이 밝혔다. 황성우 대표는 "기업 사용자는 LLM에 질문할 때 긴 응답 시간을 견딜 수 없고, 기업은 최상의 솔루션에 많은 비용을 지불하고 싶어하지 않는다"며 "엔비디아와 파트너십을 기반으로 출범한 델 AI 팩토리는 강력한 데이터 보안과 맞춤형 AI 서비스 개발을 통해 기업의 AI 주권 확립에 기여할 것으로 기대된다"고 말했다. 삼성SDS는 올해 기업용 생성형 AI 도구인 '브리티 코파일럿(Brity co-pilot)'과 자연어 인터페이스 앱을 클라우드에 쉽게 올리게 하는 PaaS '패브릭스(FabriX)'를 선보였다. 작년초부터 촉발된 생성형 AI 트렌드로 많은 기업이 앞다퉈 대규모언어모델(LLM) 구축과 활용에 나섰다. 하지만, LLM 학습과 추론에 필수 인프라인 엔비디아 GPU 공급 부족 상황이 심화됐고, 기업은 GPU를 확보하지 못해 LLM 활용에 애를 먹었다. 삼성SDS는 델테크놀로지스의 GPU 서버를 적정 시기에 공급받아 타사 대비 이른 시점에 생성형 AI 서비스를 구축할 수 있었다. 델테크놀로지스 파워엣지 XE9680 서버는 8개 엔비디아 GPU를 탑재할 수 있는 AI 최적화 서버다. 각 기업의 온프레미스 생성형 AI 환경에 공급되며 큰 인기를 누렸다. 델테크놀로지스 회계연도 2024년 4분기동안 AI 서버 매출은 8억달러에 달했다. 황 대표는 "제조는 표준화돼 있고, 상당 부분 역할에 따라 자동화할 수 있지만, 사무는 인간의 언어를 기반으로 하기에 자동화하기 어려웠다"며 "LLM은 인간의 언어와 의도를 잘 이해하기 때문에 사무 자동화에 큰 도움일 될 것"이라고 밝혔다. 그는 "나는 이를 하이퍼 오토메이션이라고 부른다"며 "삼성SDS는 언어별로 서비스와 솔루션을 자동화할 수 있는 방법을 찾으려 노력해왔다"고 강조했다. 삼성SDS는 생성형 AI를 온프레미스에 구축했다. 이에 대해 황 대표는 "기업 고객은 LLM을 사용한 하이퍼 오토메이션에 큰 관심을 갖고 있지만, 자세한 내부 정보를 LLM에 요청해야 하고, LLM이 회사의 핵심 데이터를 참조하도록 해야 해서 보안 우려를 갖고 있다"며 "기업 고객에게 사이트에서 작동하는 모델을 제공하는 것이 중요해졌다"고 설명했다. 그는 미래의 모든 컴퓨터가 자연어를 활용하게 될 것으로 전망했다. 그는 "미래의 모든 컴퓨터는 언어 인터페이스로 앱과 솔루션을 쉽게 업로드하고 실행할 수 있도록 설계될 것이고, 어쩌면 GPU 중심 컴퓨터 세계가 올지도 모른다"며 "고객이 언어 인터페이스를 통해 쉽고 저렴한 서비스를 받을 수 있도록 삼성 클라우드 플랫폼을 변화시키려고 노력할 것"이라고 밝혔다.

2024.05.21 07:31김우용

"기업경쟁력, LLM 도입보다 데이터 활용이 더 중요"

"오는 22일 강연에서는 생성AI(Generative AI)를 이용해 기업이 어떤 방식으로 직원 창의성과 생산성을 높이거나 도울 수 있는 지 말하려 합니다." 이건복 한국마이크로소프트(한국MS) 개발(디벨로퍼) 리드는 16일 지디넷코리아와 인터뷰에서 이 같이 밝혔다. 이 리드는 오는 22일 오전 10시~오후 6시 서울 강남 뱅뱅사거리 인근 드림플러스 이벤트홀(지하 1층)에서 열리는 '우리 조직에 맞는 엔터프라이즈 LLM' 세미나에서 발표한다. 이 행사는 투이컨설팅(대표 김인현)과 트러스트커텍터(대표 윤석빈)가 개최하고 지디넷코리아가 후원한다. 데이터 유출같은 보안 문제와 비싼 API 사용료, 복잡한 인프라 구축, 내부 시스템 연계 어려움 등으로 LLM 도입을 주저하거나 LLM을 도입하려는 기업에 도움을 주기 위해 마련했다. 이 리드는 "생성AI는 기존 데이터에서 새로운 정보나 콘텐츠를 생성하는 AI 기술이다. 텍스트, 이미지, 음악, 비디오 등 다양한 형태 콘텐츠를 자동으로 만들거나 수정할 수 있다. 이런 기술은 직원의 작업 부담을 줄이고, 새로운 아이디어를 제공하며, 품질을 향상시킬 수 있다"면서 "22일 발표에서는 사례를 통해 글로벌 기업들이 어떤 방식으로 AI를 적용했는지 소개할 것"이라고 말했다. 이 리드는 한국MS 솔루션 사업부에서 'Digital & App Innovation'팀을 맡고 있다. 기업 혁신과 AI를 이용한 앱(App)개발에 도움을 주고 있다. 마이크로소프트(MS) 미국 본사는 시애틀 인근 레드몬드에 있으며 AI기반 플랫폼과 도구를 개발, 고객의 변화하는 요구에 부응하는 혁신적인 솔루션을 제공하고 있다. "마이크로소프트(MS)는 AI를 널리 보급하고 책임감 있게 사용하기 위해 노력하고 있다"면서 "지구상의 모든 사람과 조직이 더 많은 성취를 이룰 수 있게 돕는 걸 사명으로 삼고 있다"고 설명했다. 이 리드는 국내 엔터프라이즈 LLM(Large Language Model) 시장이 "아직 초기 단계"라고 짚었다. 이어 "엔터프라이즈 LLM이 일반 LLM과 차이가 크다고 보기 어렵지만 보안이나 환각(할루시네이션) 현상 부분은 더 민감한 영역이므로 이에 대한 안정성 측면에서 고려할 사항이 많고 산업에 특화한 모델 필요성이 있다"면서 "많은 기업이 관심을 갖고 있지만 상대적으로 이런 모델을 개발하거나 활용하는 기업이나 기관이 많지 않다"고 해석했다. 이의 주요 이유로 데이터 부족, 개인정보 보호, 모델 안정성, 윤리 문제든 그는 "이번 강연에서 글로벌 기업의 LLM 활용방법과 기술 수준을 소개하고, 생성형 AI을 활용해 생산성을 향상시킬 수 있는 방법과 사례도 공유하려 한다"고 밝혔다. 해외 엔터프라이즈 LLM 시장은 모델을 공급하는 기업 뿐 아니라 인프라스트럭처(인프라), 플랫폼, 응용프로그램(애플리케이션), 서비스를 제공하는 계층으로 나눠져 있다. "기업입장에서는 LLM을 직접 만들기 보다 이미 나온 LLM을 잘 활용하는 측면이 강하다"면서 "자연어를 이용한 새로운 정보 검색과 자동화 솔루션과 접목해 고객대응 시스템에 생성형 AI를 적용한 사례는 이미 널리 사용되고 있다. 초기에 AI에 투자를 한 기업들이 의미 있는 성과를 보이고 있는 점도 시사하는 바가 크다"고 말했다. 이 리드는 엔터프라이즈(기업, 공공, 교육 등) 시장이 LLM을 도입하고 활용해야 하는 이유에 대해 "이미 AI는 모든 산업을 변화시키고 있다. B2B영역에서는 생산성의 비약적인 증가를 꼽을 수 있다. 또 높아진 생산성을 통해 직원 업무 만족도를 향상시킬 수 있을 뿐 아니라 업무 효율성도 증가시킬 수 있다. 이것은 바로 매출 및 고객증가와 연결돼 있다"면서 "B2C영역에서는 생성AI의 초개인화(Hyper-Personalization) 기능을 통해 고객에게 맞춤형 서비스를 제공할 수 있다. 이 점 역시 생성AI를 기업이 도입해야 하는 이유"라고 진단했다. 엔터프라이즈LLM가 지금보다 확산하려면 보안과 여러 기술 및 기업문화 이슈를 해결해야 하는데 이 리드는 "이미 안전한 AI를 사용하기 위한 제반 기술 요건은 LLM을 공급하는 업체들이 갖고 있다"면서 "마이크로소프트(MS)의 경우 애저(Azure) 클라우드 환경을 통해 보안을 강화한 시스템 위에 LLM 서비스를 운영할 수 있게 제공하고 있다. 또 책임있는 AI(Responsible AI) 서비스 일환으로 AI응답을 모니터링 하기위한 '콘텐츠 안전(Contents Safety)' 기능도 제공하고 있다"고 밝혔다. 이어 "(MS는) 고객 데이터를 이용해 LLM 개선 학습을 진행하지 않고 프롬프트 데이터 역시 철저한 보안 정책을 통해 안전하게 사용할 수 있게 하고 있다"면서 "무작정 금지하기 보다 강화한 보안정책에 잘 적용할 수 있는 LLM을 활용하는 방안을 찾는 문화가 먼저 정착해야 한다"고 제안했다. 특히 이 리드는 거대 테크기업간 자본 싸움이 된 세계 AI시장에서 국내외 스타트업이 생존하기 위한 '비법'도 제시했다. "특정 LLM 종속성과 데이터 국외 유출에 대한 과도한 우려로 LLM도입을 늦추기 보다 잘 활용할 수 있는 방안을 먼저 고민해야 한다. 한국에 특화한 LLM을 개발하는 것은 장기 관점에서 반드시 필요한 일"이라면서 "하지만 모든 기업이 자체 LLM을 개발하는 것보다 우선 LLM을 잘 활용할 수 있는 방안을 고민하는 것이 먼저"라고 지적했다. 이어 "LLM은 좋은 도구다. 하지만 LLM이 모든 기업의 목적이 돼서는 안 된다"면서 "LLM자체 보다 활용에 먼저 집중을 하면 기업 규모에 관계없이 소비자가 원하는 서비스와 가치를 만들어 낼 수 있을 것"이라고 밝혔다. 이어 아무리 좋은 레시피(조리법)가 있어도 재료가 좋지 않거나 없다면 맛있는 음식을 만들 수 없는 것처럼 LLM을 사용할 때 양질 데이터가 없다면 결코 좋은 AI서비스를 만들 수 없다면서 "AI를 잘 사용하기 위해서는 좋은 데이터와 다량의 데이터는 필수다. 근본적인 경쟁력은 LLM도입 그 자체가 아니라 얼마나 데이터를 잘 활용하느냐가 경쟁력을 확보하는데 더 중요한 요소"라고 강조했다.

2024.05.16 23:00방은주

스노우플레이크 "AI 개발자 일 평균 90개 앱 개발”

스노우플레이크는 대규모언어모델(LLM) 앱 중 챗봇 비중이 지난해 5월 대비 46%까지 증가했다고 16일 밝혔다. 스노우플레이크는 9천 개 이상 고객을 대상으로 데이터 및 AI 도입의 패턴과 트렌드를 조사해 '데이터 동향 2024 보고서'를 발간했다. 글로벌 엔터프라이즈 기업들이 AI 기술과 데이터를 비즈니스에 어떻게 활용하고 있는지를 다룬 이 보고서는 텍스트 입력 방식의 LLM 앱의 비중은 줄고(2023년 82%, 2024년 54%) 대화형 챗봇이 늘어나고 있다고 분석했다. 또한 스트림릿 개발자 커뮤니티를 대상으로 실시한 설문 조사에서 응답자의 약 65%가 업무용으로 LLM 프로젝트를 진행하고 있다고 답했다. 실제로 엔터프라이즈 고객들은 생성형 AI 기반 기술을 업무의 생산성, 효율성, 분석력을 높이는데 다양하게 사용하고 있다. 스노우플레이크 스트림릿 커뮤니티에 속한 전세계 약 2만 명 이상의 개발자들은 지난 9개월 동안 3만 3143개 이상의 LLM 앱을 구축했다. 이들이 가장 선호하는 프로그래밍 언어는 파이썬이었다. 스노우플레이크의 앱 구축 플랫폼인 스노우파크에서 지난해 파이썬 사용량은 5.71배 증가했다. 이는 3.87배, 1.31배 늘어난 스칼라, 자바에 비해 높은 수치다. 파이썬은 프로토타입 및 테스트 속도를 높여 전체 작업 속도는 물론 최첨단 AI 프로젝트의 초기 단계에서 전반적인 학습 속도를 높인다. 최근에는 LLM 앱을 개발할 때 데이터 관리 플랫폼 위에서 프로그래밍하는 사례도 늘고 있다. 스노우플레이크 플랫폼에서 직접 앱을 개발할 수 있는 활용도는 지난해 7월부터 올해 1월, 7개월 사이 3배 이상 증가했다. 단일 데이터 플랫폼에서 개발한 애플리케이션은 외부 업체로 데이터 복사본을 내보낼 필요가 없어 앱 개발과 배포가 빨라지고 운영 및 유지보수 비용을 줄일 수 있다. AI 도입과 함께 조직 내 비정형 데이터에 대한 분석과 처리도 늘었다. 이 과정에서 활용되지 않은 새로운 데이터 소스를 발견할 수 있고, 민감한 개인 데이터를 보호하기 위한 데이터 거버넌스도 중요해졌다. 스노우플레이크 보고서에 따르면 기업들이 지난 한 해 동안 처리한 비정형 데이터의 양은 1.23배 증가했다. 글로벌 시장분석 기관 IDC는 전 세계 데이터의 최대 90%를 비정형 동영상과 이미지 및 문서로 추산하고 있다. 이미 언어모델 훈련이 일반화된 정형 데이터와는 달리 비정형 데이터의 가공은 기업의 비즈니스 경쟁력을 높일 수 있는 새로운 기회가 될 것이다. 제니퍼 벨리센트 스노우플레이크 데이터 전략 수석은 “데이터 거버넌스는 데이터를 통제하는 것이 아니라 궁극적으로 데이터의 가치를 활용하는 것”이라고 강조하며 “스노우플레이크는 거버넌스를 ▲데이터 수집 ▲데이터 보안 ▲데이터 활용, 3가지 축으로 분류하고 고객들은 기업에 적합한 액세스와 사용 정책을 적용하기 위해 데이터를 태그하고 분류할 수 있도록 했다”고 설명했다. 그 결과, 스노우플레이크 고객의 데이터 거버넌스 기능을 도입한 기업은 70%에서 100%로 늘었고, 거버넌스 내 운영되는 쿼리 수도 142% 증가했다. 더불어 벨리센트 수석은 “각각의 데이터들은 기업들이 당면한 문제에 대해 어떻게 대응하는지를 보여준다. 이 개별적인 데이터 포인트들을 전체로 보면, 최신 AI 기술 기회를 활용한 조직의 통합적인 전략을 세울 수 있다”며 “생성형 AI 시대의 핵심 전략은 데이터를 바꾸는 근본적인 변화가 아니라 그 전략을 바로 실행하도록 하는 것이다. 이를 위해서 기업들은 광범위한 데이터 생태계에 펼쳐진 데이터소스를 오픈하고 공유해 데이터 사일로를 허무는 것이 중요하다”고 전했다. 제니퍼 벨리센트 스노우플레이크 데이터 전략 수석은 "대화형 앱은 사람들이 실제 상호작용하는 방식으로 프로그래밍돼 이제 사람과 대화하듯 LLM과 쉽게 상호작용할 수 있다”며 “특히 LLM 앱의 기초가 되는 데이터의 거버넌스와 보안이 보장된다면 대화형 앱은 기업과 사용자 모두의 기대치를 충족하며 활용도가 확대될 것”이라고 밝혔다.

2024.05.16 16:19김우용

알리바바클라우드, LLM 최신 버전 '큐원 2.5' 출시

알리바바클라우드는 자사의 대규모언어모델(LLM) 제품군의 최신 버전인 큐원2.5(Qwen 또는 퉁이 첸원)를 출시하고, 주요 성과를 16일 발표했다. 지난해 6월 이후 큐원 제품군은 알리바바 클라우드의 모델스튜디오를 통해 9만 이상의 기업에게 채택받는 성과를 달성했다. 다양한 산업군의 기업들이 큐원을 선택함으로써 큐원은 소비자 전자제품, 자동차, 게임 등의 분야에서 입지를 다졌다. AI 솔루션 수요 증가에 따라, 알리바바 클라우드는 큐원의 최신 버전으로 큐원2.5를 출시하며, 오픈소스 커뮤니티에 대한 약속과 지속적인 노력을 바탕으로 새로운 큐원 모델 시리즈도 함께 공개했다. 기업 사용자의 급증하는 AI 수요를 충족하기 위해 모델스튜디오를 업그레이드하여 새로운 AI개발 리소스를 제공하기로 했다. 작년 6월 AI개발 플랫폼 출시 이후, 9만 이상의 기업 사용자가 모델스튜디오를 통해 큐원 언어 모델들을 사용했다. 알리바바 그룹의 지능형 협업 작업 공간이자 애플리케이션 개발 플랫폼인 딩톡에서 큐원을 기반으로 한 AI 서비스를 약 220만 명의 기업 사용자가 활용한 것으로 확인된다. 5억부터 1천100억 개에 이르는 다양한 매개변수 모델을 자랑하는 오픈소스 큐원 시리즈는 허깅페이스, 깃허브 같은 플랫폼에서 700만 건 이상의 다운로드 횟수를 기록했다. 알리바바클라우드가 주도하는 중국 최대의 AI 모델 커뮤니티인 '모델스코프'는 현재 4천 개 이상의 모델을 보유하고 있으며, 지난 몇 년간 활발히 참여한 500만 명의 개발자 기반을 확보했다. 새롭게 출시된 큐원2.5는 이전 버전인 큐원2.0에 비해 추론, 코드 이해력, 텍스트 이해력 등에서 현저한 발전을 이뤘다. 최근에 출시된 모델스튜디오를 통해 사용할 수 있다. 대규모 모델 평가 시스템인 오픈콤파스에 따르면 큐원2..5는 다양한 범주에서 SOTA (State-Of-The-Art) LLM 중 상당히 경쟁력 있는 결과를 보여줬다. 오픈소스 커뮤니티 발전의 기여에 전념하는 알리바바 클라우드는 큐원을 다양한 사이즈로 제공한다. 여기에는 '오픈LLM 리더보드'의 사전 학습 모델 부문에서 최상의 성능을 보인 1천100억 개의 매개변수를 갖춘 큐원1.5-110B와 70억 개의 매개변수를 가진 코드 최적화 버전인 코드큐원1.5-7B가 포함된다. 이 모델은 현재 '허깅페이스'의 '빅코드 모델 리더보드'에서 기본 모델 중 최상위에 있다. 알리바바 클라우드는 또한 다음 몇 달 이내 큐원2.0의 70억 매개변수와 720억 매개변수 변형을 공유할 계획이다. 샤오미는 알리바바클라우드의 모델을 자사의 AI 어시스턴트 '샤오AI에 통합해 최신 스마트폰 제품 및 스마트 전기 자동차에 이미지 생성 및 기계 독해와 같은 기능을 지원하고 있다. 이 통합은 음성 명령만으로도 샤오AI가 자동차 인포테인먼트 시스템에서 이미지를 생성할 수 있게 하면서, 승객들에게 상호 작용하는 엔터테인먼트 옵션을 제공해 차량 내에서 풍부한 경험을 할 수 있도록 한다. 샤오미 스마트폰 사용자들은 알리바바 클라우드의 이미지 생성 모델인 퉁이 완시앙과 고급 비전-언어 모델인 '큐원-VL' 등을 이용해 이미지 제작, 사진 분석, 음식 이미지로 레시피 생성 등 다양한 애플리케이션을 이용할 수 있어, 이를 통해 전반적인 사용자 경험이 향상될 것으로 기대된다. 알리바바클라우드는 2022년 이후 서비스형 모델 MaaS 을 통해 개발자가 AI 모델 개발을 간소화하고, AI 혁신을 이루도록 종합적인 서비스 스택을 제공한다. 알리바바 클라우드는 모델 학습 및 추론을 보다 비용 효과적이고 효율적으로 만들기 위해 자사 생성형 AI모델 및 애플리케이션 개발 플랫폼인 모델스튜디오를 전반적으로 업데이트했다. 이번 업데이트에는 더 다양한 모델과 정교한 AI 도구 및 서비스가 포함됐다. 개발자들은 이제 Baichuan AI와 같은 제3자 AI 기업의 고품질 모델에도 접근할 수 있다. 모델스튜디오의 다양한 포트폴리오는 이미 다양한 사이즈의 큐원을 포함 100개 이상의 모델이 포함되어 있다. 새롭게 개편된 모델스튜디오는 다양한 고급 개발자 도구가 포함되어 있으며, 챗봇 및 분석 도구와 같은 애플리케이션 개발을 위한 LLM을 개선하는 데 도움이 되는 오픈 소스 프레임워크인 LlamaIndex를 통합하고 있다. 이에 더해 어시스턴트 API(Assistant API)라는 새로운 기능이 공개되어 복잡한 AI 어시스턴트 개발을 간편하게 한다. 이 기능은 검색 증강 생성(RAG) 기술을 신속하게 통합해 상황에 맞는 응답을 생성하고, 다중 에이전트 조정 및 메모리 관리와 같은 고급 기능을 지원한다. 알리바바 클라우드의 저우징런 CTO는 “지금까지 알리바바 클라우드의 LLM 제품군인 큐원이 강력해지고 빠르게 성장하는 것을 지켜보는 것은 매우 흥미로운 여정이었으며, 여러 산업 분야에서 큐원 모델을 창의적으로 적용한 수많은 사례를 보았다”며 “그동안 알리바바 클라우드는 큐원 모델의 기능을 지속적으로 향상하고 AI 개발 서비스 제품군을 강화해 고객에게 더욱 혁신적인 애플리케이션을 제공하기 위해 끊임없이 노력해 왔다”고 밝혔다. 저우징런 CTO는 “앞으로도 다양한 AI 모델을 오픈소스 커뮤니티에 제공할 것이며, 최신 생성형 AI 개발의 급격한 증가로 인해 생겨나는 무수한 성장 기회들을 포착하기 위해 고객 및 개발자들과 함께 협업하기를 기대한다”고 덧붙였다.

2024.05.16 16:16김우용

크라우드웍스, 프랑스 파리 '비바테크' 전시회 2년 연속 참가

크라우드웍스(대표 김우승)가 이달 22일부터 25일까지 프랑스 파리에서 열리는 유럽 내 스타트업 & 테크 전시회 '2024 비바테크놀로지(이하 비바테크)'에 2년 연속 참여한다고 14일 밝혔다. 2016년부터 시작한 비바테크 전시회는 전 세계 스타트업, 투자자, 바이어, 미디어 등이 모여 최신 기술 동향을 교류하는 국제 행사다. 지난해에는 참관객 15만명, 2천800여개의 유망 기술 스타트업들이 참가할 만큼 반응이 뜨거웠다. 이번 전시회 참여를 통해 대한민국 대표 AI 스타트업으로서 유럽 시장 내 기업 인지도를 높이고 다양한 협업 방안을 모색할 수 있을 것으로 기대된다. 크라우드웍스는 이번 전시에서 엔터프라이즈 AI 시장을 공략할 계획이다. 국내 시장에서 빠르게 확보한 기업 맞춤형 거대언어모델(LLM) 구축 레퍼런스 중에서도 유럽 시장에서 관심이 높은 헬스케어, 리테일 부문의 성공적인 LLM 구축 사례를 소개하며 해외 고객 발굴에 나선다. 또 데이터 설계, 가공, 구축에 대한 높은 이해와 전문성을 강조하고 맞춤형 LLM 도입을 위한 최신 솔루션과 서비스들을 소개해 데이터 중심의 AI 기술 경쟁력을 전파할 계획이다. 특히 크라우드웍스는 프랑스 현지에 있는 '스테이션F'에 거점을 두고 있어 이번 전시회 참가를 통한 시너지를 확대할 수 있을 것으로 기대된다. 스테이션F는 스타트업 인큐베이터로 유럽 시장 진출을 위한 네트워킹과 협력 기회를 모색하기 위한 채널이 되고 있다. 지난해 5월 입주 이후 해외 잠재 고객들과 빠르게 연결되며 해외 시장에서의 가능성을 확인했다. 김우승 크라우드웍스 대표는 "비바테크 참여로 국내 AI 산업 발전을 이끌어온 크라우드웍스의 기술과 역량을 유럽 시장에 소개할 수 있는 좋은 기회가 될 것으로 기대된다"며 "글로벌 기업들과의 다양한 협력 기회를 적극적으로 모색하며 해외 시장에서 의미있는 성과를 성공적으로 이뤄낼 것"이라고 말했다.

2024.05.14 13:47백봉삼

딥엑스, 1100억원 규모 신규 투자 유치…스카이레이크 등 참여

AI반도체 원천기술 기업 딥엑스는 사모펀드 기관들의 신규 투자를 중심으로 1천100억 원 규모의 신규 투자 유치를 마무리했다고 10일 밝혔다. 이로써 딥엑스는 글로벌 시장 진출을 위한 1세대 제품의 양산화와 LLM 온디바이스를 위한 차세대 제품 개발 및 출시에 더욱 속도를 낼 계획이다. 이번 투자에는 기존 주주인 ▲타임폴리오 자산운용을 비롯해 ▲스카이레이크 에쿼티파트너스 ▲BNW인베스트먼트 ▲아주IB 등 사모펀드 기관들이 참여했다. 사모펀드 중심의 투자가 단행된 점, 신규 투자자들이 대부분의 투자금을 차지한 점, 반도체 산업에 대한 전문적인 지식과 경험 그리고 네트워크가 풍부한 전문가들이 포진한 투자자로 구성된 점이 이번 투자의 특징이다. 딥엑스의 2대 주주가 된 스카이레이크는 '미스터 반도체'라 불리는 진대제 전 정보통신부 장관이 설립한 국내 대표 사모펀드 기관이다. 진대제 회장은 삼성전자 재직 시절 세계 최초로 메모리 반도체 16MB, 256MB D램의 개발을 이끈 주역으로 한국 반도체 산업을 상징하는 인물이다. 김재욱 BNW인베스트먼트 회장 역시 삼성전자 메모리 제조 기술 담당 사장 등을 역임해 메모리 제조공정 혁신을 이끌며 삼성전자 메모리 글로벌 1위를 만들어 낸 국내 반도체 산업의 권위자다. 딥엑스는 온디바이스 AI 반도체 및 AI 컴퓨팅 솔루션에 대한 원천기술을 보유한 기업이다. 물리 보안, 로봇, 가전, 공장자동화, AI 서버 등 다양한 응용 제품에 AI를 저전력, 고성능, 저비용으로 구동할 수 있는 AI 반도체 제품군을 확보했다. 또한 딥엑스는 올해 말부터 시작되는 대단위 양산 비즈니스를 위해 대륙별로 총판 협약을 진행하며 벨류체인 네트워크를 빠르게 확산하고 있다. 김녹원 대표는 “스카이레이크의 진대제 회장님은 제가 반도체를 배우던 학창 시절에 국내 반도체 산업을 세계 시장의 주역으로 만든 분"이라며 "딥엑스가 쌓아 온 기술적 가능성을 가장 정확하게 판단해 주실 최적의 전문가라고 생각해 투자를 요청하게 된 것이 이번 투자 라운드의 시작이었다"고 밝혔다. 김녹원 대표는 이어 "이번 투자는 글로벌 전략 자산인 AI 반도체 원천 기술과 국내 최초 글로벌 팹리스 탄생이라는 숙원의 과제를 성취하라는 명령으로 생각하고 과감하게 글로벌 시장에 도전하고자 한다"고 덧붙였다.

2024.05.10 09:06장경윤

"LLM 구축, '프로세스 GPT'가 해법"

"이번 강연에서는 LLM(거대언어AI)을 이용한 정보시스템 구축 방향으로 '프로세스 GPT(Process GPT)'라는 시스템을 제시하려고 합니다." 장진영 유엔진솔루션즈 대표는 9일 지디넷코리아와 인터뷰에서 이 같이 밝혔다. 장 대표는 오는 22일 오전 10시~오후 6시 서울 강남 뱅뱅사거리 인근 드림플러스 이벤트홀(지하 1층)에서 열리는 '우리 조직에 맞는 엔터프라이즈 LLM 세미나'에서 연사로 나선다. 이 행사는 투이컨설팅(대표 김인현)과 트러스트커텍터(대표 윤석빈)가 개최하고 지디넷코리아가 후원한다. 데이터 유출같은 보안 문제와 비싼 API 사용료, 복잡한 인프라 구축, 내부 시스템 연계 어려움 등으로 LLM 도입을 주저하거나 LLM을 도입하려는 기업에 도움을 주기 위해 마련했다. 장 대표가 2007년 설립한 유엔진솔루션즈는 자체 오픈소스 BPM(Business Process Management) 제품인 '유엔진(uEngine)'을 주력으로 하고 있으며 금융, 공공, 제조, 통신 등 국내외에 100여개의 적용 레퍼런스를 보유하고 있다. 마이크로서비스아키텍처(MSA) 설계 컨설팅과 교육으로 8000명 이상 교육생을 배출하기도 했다. 지난 3월에는 5년간 개발한 'MSA Easy'를 오픈소스로 공개했다. 'MSA Easy'는 사용자만의 프로그램을 만들거나 기존 프로그램을 개선하는 걸 돕는다. 자체 제품화나 사내 시스템 구축에 도움이 된다. 특히 클라우드 기반 애플리케이션 개발을 간소화해준다. 오는 22일 강연에 대해 장 대표는 "기존 정보시스템들은 사용 관점과 관리 관점으로 나뉘어 많은 비용이 존재한다. 사용자 관점에서는 주로 사용자가 정해진 시스템의 특징과 사용방법을 잘 숙지하고 사용해야 했다"면서 "LLM은 자연어를 기반해 사용자 의도와 상황을 추측해 시스템의 어떤 기능과 화면을 이용해 입력해야 하는지를 자동화할 수 있다. 적절한 업무 처리를 위한 초안은 LLM 에이젼트 기술이 직접 수행해 초안을 제공할 수 있다. 예를 들어 제안서를 써야한다면, 해당 주제와 관련한 기존 사내 지식을 RAG(Retrieval-Augmented Generation, 검색증강생성: 응답 생성전에 학습 데이터 소스 외부의 신뢰할 수 있는 지식 베이스를 참조하도록 하는 프로세스)를 통해 수집하고 외부 인터넷 검색 결과를 참고해 기본 제안서를 작성하는데 LLM 도움을 받을 수 있다"고 설명했다. 이어 그는 시스템관리 관점에서는 기존 프로그래밍에 의존해 데이터베이스 설계, 화면 구현, 로직 구현 등 많은 전문성이 요구된다면서 "이러한 과도한 정보시스템 구축비용을 낮추기 위한 로우코드와 노코드, RPA(Robotic Process Automation, 로봇프로세스자동화)등 많은 시도와 최근의 LLM을 이용한 코드 생성 등이 새로운 가능성으로 부상하고 있다"면서 "하지만 여전히 그 결과는 어떠한 코드 형태로, 특히 이를 관리하기 위해서는 어떤 형식이든 소스코드를 이해해야 하는 비용이 존재한다"고 짚었다. LLM을 이용한 정보시스템 구축 방향으로 'Process GPT'를 강조한 장 대표는 이의 장점으로 "사용자 관점에서는 내 업무 상황을 인지해 프로세스와 업무처리 기능을 자동으로 제시할 뿐 아니라 복잡한 정보시스템 화면 숙지로 입력이 아닌 자연어로 업무 결과를 입력하며, 또 내가 처리할 업무의 초안도 제시해준다"고 말했다. 이어 "시스템을 관리할때는 소스코드 없이도 일반 업무 전문가가 업무 프로세스와 비즈니스 규칙, 그리고 업무화면 등을 업무 수행중 발생한 대화 이력에서 자연스럽게 추출하고 그 프로세스를 비즈니스 유저 수준에서 이해하기 쉬운 BPMN과 같은 비쥬얼한 언어로 시각화해 LLM 실행엔진에서 해당 규칙을 관리할 수 있게 하는 하는 새로운 개념의 정보시스템 구축 방법"이라면서 "이 방법은 기존 BPM(Business Process Management)에서 나온 개념으로 LLM 파워와 함께 정보시스템 구축을 위한 데이터베이스 설계, 프로세스 설계 실행, UI 개발 등 상당 부분을 추상적으로 처리하면서도 업무 모니터링, 분석, 지속 개선 사이클을 가져갈 수 있는 많은 부가적인 장점을 갖고 있다"고 강조했다. 국내외 엔터프라이즈 LLM 시장 동향에 대해서는 "해외 엔터프라이즈 솔루션들은 정보시스템 구현과 관리를 위한 로우코드, RPA, BPM 제품이 우리 회사와 같은 코그너티브(Cognitive) RPA/BPM 형식으로 출시돼 향후 많은 시장을 형성할 것으로 보인다"면서 "관전포인트는 얼마나 사용자 위주 쉬운 인터페이스와 관리비용을 낮출 수 있고 또 핵심적인 비즈니스 경쟁력을 위한 LLM의 적절한 적용 솔루션을 제시하는냐"고 진단했다. 기존 정보시스템은 사용과 관리에 있어 너무 과중한 학습시간과 전문적 비용이 소요된다고 짚은 그는 "LLM은 시스템 사용에 대한 추상화레이어를 제공해 "이제 우리가 배워야 할 가장 강력한 언어는 자연어”라고도 한다"면서 "LLM을 본질적인 의사결정에 적용할수는 없지만 기업의 불필요한 업무를 최소화하고, 또 초안 작성과 프로세스를 자동으로 개선하는 등의 비생산적인 영역에 도입함으로써 고객과 국민 만족도를 향상하는데 도움을 받을 수 있다"고 짚었다. 보안 이슈 등 엔터프라이즈 LLM 확산에 여러 기술 및 기업문화 이슈가 있는데 이에 대해서는 "대내 보안은 RAG 등으로 검색한 다양한 참조 정보 출처에 대한 메타데이터에 따른 인가처리가 중요하다"면서 "대외 보안은 폐쇄형 LLM을 적절히 적용해 외부로의 유출을 막아야 한다. BPM 기반 정보시스템은 기본적으로 대내외 프로세스에 대한 역할 기반 인증체계와 보안 프로세스를 엄격히 관리하고 전달하는 접근 권한에 대한 룰 기반 제어가 엄격해 보안을 관리할 수 있는 좋은 수단이 될 수 있다"고 밝혔다. LLM과 생성 AI를 활용한 기업의 수익화 방안에 대해서는 "내부 생산성 향상을 넘어 LLM 자체로수익화를 내는 건 더욱 큰 숙제"라며 "AI기술 전반에 있어 기계가 모든 것을 다 수행하는 듯한 화려한 기능의 제공 보다는 인간이 의사결정을 쉽게 할 수 있는 조력 역할로 시스템의 UI/UX와 함께 적은 에너지로 높은 성과를 낼 수 있게 가치를 제공하는 것이 중요하며 그 가치가 높다면 수익화는 자연스레 따라올 것"이라고 예상했다. AI 강국에 대해 한마디 해달라고 하자 장 대표는 "어려운 질문"이라고 전제하며 "AI는 일종의 인프라가 되고 있다. 전기처럼 아무나 쓸 수 있는 기반이 된 거다. 이제 기반 고속도로를 제공하는 자본기반 비즈니스 모델과 그 기반위에 차별화한 버티컬 영역이나 탁월한 사용성 등으로 경쟁하는 비즈니스 모델로 양극화 될 것 같다. 우선 내가 가진 콘텐츠 장점을 잘 이해하고 그것이 AI를 통해 더 큰 강점이 될 수 있는 전략을 잘 세워야 할 것 같다"고 말했다.

2024.05.10 06:44방은주

[유미's 픽] 삼성도 챗GPT로 기밀 샐까 골머리…'AI 보안' 선두 경쟁 본격화

#. 지난해 5월. 삼성전자는 회사 내부 기기에서 생성형 인공지능(AI) 사용을 금지했다. 삼성전자 반도체(DS) 부문 직원들이 같은 해 3월 소프트웨어 소스코드의 오류를 확인하고 회의 내용을 요약하는 등의 업무를 위해 챗GPT에 소스코드, 회의 내용 등을 입력했다가 문제가 발생했기 때문이다. 이에 삼성전자는 "사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다"며 "사외에서 챗GPT 등 생성형 AI를 사용하는 경우에도 회사와 관련된 정보, 본인 및 타인의 개인정보 등은 입력하지 않도록 각별히 유의해 달라"고 당부했다. 이처럼 오픈AI '챗GPT', 구글 '제미나이' 같은 생성형 AI를 통한 검색이 최근 활발히 이뤄지며 기밀 정보 유출 우려가 높아진 가운데 기업을 중심으로 '보안'의 중요성이 점차 커지고 있다. 보안이 AI 산업의 한 축이 될 것으로 전망되면서 국내외 업체들도 앞 다퉈 대응에 나선 모양새다. 7일 업계에 따르면 마이크로소프트(MS)는 지난달 1일 '코파일럿 포 시큐리티(Copilot for Security)'를 출시하며 기업 공략에 본격 나섰다. 이 서비스는 IT 및 보안 담당자를 위한 생성형 AI 보안 솔루션으로, 오픈AI GPT-4와 MS 자체 보안 특화 AI 모델을 기반으로 구동된다. MS는 지난해 3월 사이버보안 업계 첫 생성형 AI 보안 서비스라는 이름으로 이 시장에 첫 발을 내딛었다. 당시 이 서비스는 챗봇처럼 위협 요인을 알려주는 구동 방식에 그쳤다. 이번에 나온 '코파일럿 포 시큐리티'는 프롬프트 입력 시 사고 요약, 취약점 분석도 가능하다는 점에서 한 단계 더 진화됐다는 평가다. 이에 맞춰 체크포인트 소프트웨어 테크놀로지스는 보안 작업 필요 시간을 10%로 줄이는 AI 보안 솔루션 '인피니티 AI 코파일럿'을 올해 2월 선보였다. 체크포인트는 MS의 오랜 파트너인 사이버 보안 플랫폼 기업으로, 현재 프리뷰 형태로 이 서비스를 제공 중이다. 2분기에 정식 출시를 앞둔 '인피니티 AI 코파일럿'은 보안 정책을 변경하고 직원 내 담당 권한을 변경하는 작업도 가능한 것이 특징이다. 글로벌 보안 시장을 이끌고 있는 팔로알토 네트웍스는 AI 열풍 이전인 12여년 전부터 사이버 보안에 AI·머신러닝(ML)을 활용해 업계 선구자로 통한다. 최근에는 보안관제 인력난에 대한 해결책으로 '확장된 보안 인텔리전스 자동화 관리(XSIAM)'를 내세워 AI를 통한 보안운영센터(SOC)의 운영 효율을 높이기 위해 애쓰고 있다. 구글도 AI로 보안 강화에 나설 것이란 뜻을 내비쳤다. 순다르 피차이 구글 최고경영자(CEO)는 지난 2월 독일 뮌헨 안보회의에서 "사이버 해커는 시스템을 공격하기 위해 한 번만 성공하면 되지만, 방어자는 시스템을 보호하기 위해 매번 성공해야 한다는 딜레마가 있다"며 "(AI는) 이러한 딜레마를 줄여줄 것"이라고 밝혀 눈길을 끌었다. 국내 업체 역시 AI 기술을 적용해 서비스 경쟁력을 끌어 올리고 있다. 안랩은 현재 연구소 산하에 '인공지능팀'을 두고 머신러닝 기술을 통한 솔루션·서비스 탐지 기능 고도화 작업에 집중하고 있다. 또 AI를 악성코드와 피싱 이메일, 스미싱 문자 등을 탐지하는데도 활용 중이다. 여기에 생성형 AI 기술 개발을 통해 확장된 탐지 및 대응(XDR) 플랫폼 '안랩 XDR'에서 보안 담당자의 업무를 더 끌어올릴 수 있는 'AI 시큐리티 어시스턴트'도 개발 중이다. 업계 관계자는 "보안업체들은 판정형 AI업체의 서비스를 생성형 AI와 결합해 기술을 고도화 하던가, 생성형 AI가 기존에 가지고 있는 보안 문제를 최소화 하는 것에 집중하고 있다"며 "이들이 다양한 방식으로 AI 기술을 활용하는 것은 자연스러운 흐름"이라고 말했다. 일부 기업들은 AI를 활용해 보안 위협을 탐지하는 것에 그치지 않고 기업용 AI 시장에 직접 뛰어들고 있다. 내부 보안 혹은 사이버 위협·악성코드 분석 등 비정형 데이터를 포함한 데이터 분류와 필터링 기술에 강점을 갖고 있다는 점을 앞세워 보다 안전한 맞춤형 AI 서비스를 제공할 수 있다고 강조하고 나섰다. 데이터·애플리케이션 보안 사업에 집중했던 파수는 지난 3월 경량언어모델(sLLM) '엘름(ELLM)'을 출시하며 본격적으로 LLM 시장 경쟁에 나섰다. 구축형(온프레미스)으로 제공되는 엘름은 코딩, 법률, 세무, 금융 등 다양한 직군, 산업 환경에서 활용할 수 있는 것이 특징이다. 또 특정 작업이나 도메인에 맞는 작은 데이터 세트를 활용해 모델을 추가적으로 훈련시킬 수 있다. 이에 기업에선 특정 부서나 조직에서만 사용할 수도 있다. 사이버 위협 인텔리전스(CTI) 기업 S2W도 sLLM 플랫폼 'S-AIP(S2W Artificial Intelligence Platform)'를 내놨다. S-AIP는 각 기업이 가지고 있는 보안 수준에 맞춰 아키텍처를 구현하고, 데이터 보안 기술을 기반으로 기업용 프라이빗 sLLM 구축을 지원할 수 있다. 보안업계에서 떠오르고 있는 샌즈랩도 AI 기반 사이버 보안 사업 영역을 빠르게 고도화하고 있다. 이곳은 지난 2월 기업 내부 인프라에서 직접 운영, 제어가 가능한 온프레미스 sLLM '샌디(SANDY)'를 개발했다. 샌디는 기존에 사람이 직접 했던 보고서 요약·교정, 기업 내 해킹 대응 정보 검색을 대신 수행하며 최신 사이버 위협에 선제 대응할 수 있는 역량도 갖췄다. 이 외에 샌즈랩은 샌디를 기반으로 최근 포티투마루, LG유플러스와 사이버 보안을 강화할 수 있는 LLM 기술을 공동 개발키로 해 주목 받고 있다. 업계 관계자는 "국내 보안기업들이 생성형 AI 시장에 뛰어드는 이유는 데이터 보안·악성코드 분석 등의 분야에서 다년간 축적된 기술력과 노하우가 AI 데이터 학습에 유리하다는 판단 때문"이라며 "정보유출 등에 민감한 기업용 AI 분야에선 강점이 될 수 있을 것"이라고 분석했다. 이어 "보안 시장이 AI처럼 폭발적인 성장 잠재력을 갖추기 어렵다는 점에서 기존 보안 사업과 연계할 경우 AI를 새로운 성장동력으로 삼을 수 있을 것이란 점도 영향을 미친 듯 하다"며 "글로벌 단위에서 아직까지 AI 보안 시장을 이끄는 선두 업체가 마땅히 없다는 것도 매력적인 요소"라고 덧붙였다.

2024.05.07 16:19장유미

[기고] 스노우플레이크가 제안하는 기업 환경을 위한 생성형 AI

생성형 AI는 생산성을 개선하며 데이터에서 더 많은 가치를 창출하는 새로운 방법을 제시한다. 하지만 기업은 생성형 AI를 도입하기에 앞서 '데이터는 과연 신뢰할 수 있는 것인가?', '새로운 기술 채택을 위해 컴퓨팅 환경을 새롭게 구축해야 하는가?', '생성형 AI 기능을 제공하는 애플리케이션을 구축하고 운영해야 하는가?'와 같은 다양한 고민이 생긴다. 그런데 흥미로운 것은 이 모든 고민들의 출발은 '데이터'라는 분명한 사실이다. 기업은 올바른 데이터 전략 없이 올바른 AI 전략을 수립할 수 없다. 본 글에서는 스노우플레이크 단일 플랫폼에서 제공하는 생성형 AI와 관련 기능에 관해 설명하고자 한다. 기업 환경에서 안전한 생성형 AI 활용을 위해 데이터, 대규모언어모델(LLM), 심지어 생성형 AI 애플리케이션까지 일관되게 적용할 수 있는 광범위한 데이터 보안 및 거버넌스 체계를 구축해야 한다. 또한 데이터와 이 데이터로 학습된 모델을 포함해, 전체 생성형 AI 스택들이 안전하게 보호되어야 한다. 데이터 플랫폼과 LLM 환경을 통합하여 기업 데이터가 외부로 유출되는 것을 방지하고 새로운 기술을 위한 투자 비용을 최소화하는 것도 중요하다. 아래 그림은 스노우플레이크 데이터 클라우드 플랫폼에서 제공하는 생성형 AI 기능이다. 이 모든 기능은 데이터를 기반으로 한다. 기업 전반에 분산된 데이터는 데이터의 유형, 형식, 구조와 관계없이 단일 플랫폼에 통합돼 안전하게 보호 및 관리된다. ■ 데이터에 LLM 가져오기 생성형 AI를 위한 데이터가 준비되면 사용자는 LLM 관련 기능을 안전하고 자유롭게 사용할 수 있어야 하고, AI 애플리케이션도 빠르게 구축, 활용할 수 있어야 한다. 또한 생성형 AI가 제공하는 잠재력을 최대한 활용하기 위해서는 전문가뿐만 아니라 AI 전문 지식이 없는 사용자 누구라도 서비스를 쉽고 안전하게 접할 수 있어야 한다. 이를 위해 스노우플레이크는 데이터가 있는 환경에 LLM 관련 기능을 제공하고자 스노우플레이크 코텍스(Cortex)를 개발했다. 스노우플레이크 플랫폼에서는 미스트랄, 메타, 구글에서 제공하는 LLM 모델뿐만 아니라 자체 개발한 LLM이 내장된 상태로 제공된다. 다양한 LLM은 스노우파크 컨테이너 서비스(SPCS)를 통해 데이터 플랫폼 내에서 실행, 파인튜닝 된다. 코텍스에서 제공하는 다양한 기능으로 개발 생산성과 사용자 경험을 개선하고 새로운 분석 인사이트 또한 제공할 수 있다. 이러한 LLM 관련 기능들은 서버리스 기반의 완전 관리형 서비스로 제공되기 때문에, 사용자는 생성형 AI를 위해 높은 비용을 들여 GPU 인프라를 구축하거나 관리할 필요가 없다. 필요한 시점에 코텍스에서 제공하는 서비스를 사용할 수 있으며, 사용한 만큼의 비용만 과금되기 때문에 효율적인 비용으로 생성형 AI 기반의 새로운 사용자 경험을 누릴 수 있다. 스노우플레이크 플랫폼에 내장되지 않은 다른 LLM이나 AI21 랩스, 레카(Reka), 엔비디아 네모(NeMO) 등 상용 LLM들도 스노우플레이크 마켓플레이스를 통해 사용자 환경에 간편하게 설치하고 실행할 수 있다. ■ 스노우플레이크 코텍스 스노우플레이크 코텍스는 스노우플레이크 데이터 클라우드 플랫폼의 핵심 생성형 AI 기능이다. 코텍스는 사용자가 프롬프트를 정의할 필요 없이 번역, 감정 분석, 요약과 같은 작업을 빠르고 비용 효율적으로 실행할 수 있는 기능을 제공한다. 코텍스는 LLM에 관련된 다양한 기능들을 다음과 같은 관리형 함수로 제공한다. -EXTRACT_ANSWER(미리보기): 질문과 구조화되지 않은 데이터가 입력되면 질문에 대한 답변을 제공한다. -SENTIMENT(미리보기): 요청 받은 텍스트에서 감지된 긍정 또는 부정적 감정을 제공한다.(긍정:1, 부정:-1) -SUMMARISE(미리보기): 요청 받은 텍스트의 요약을 제공한다. -TRANSLATE(미리보기): 요청 받은 텍스트를 다른 언어로 번역한다. 코텍스의 첫 번째 장점은 사용 편의성이다. 생성형 AI 기능 구현을 위해 별도의 인프라 구축이나 관리가 필요 없다. 두 번째는 구현 편의성이다. 소개한 생성형 AI 기능들은 복잡한 구현 없이 단순하게 코텍스에서 제공하는 함수를 SQL이나 파이썬 코드에서 호출하면 된다. 이외에도 코텍스는 COMPLETE 함수와 TEXT2SQL 함수를 추가로 제공한다. -Complete(미리보기): 프롬프트의 입력값을 대상으로 LLM을 사용해 응답 텍스트 결과를 제공한다. -Text2SQL(미리보기): 프롬프트에 입력된 자연어를 기반으로 스노우플레이크에서 실행 가능한 SQL문을 제공한다. 이 함수들은 다양한 LLM을 서버리스 기반의 SQL 또는 파이썬 함수 형식으로 제공하는 것이 특징이다. 사용자는 미스트랄, 라마 및 구글의 LLM을 요구사항에 맞게 선택해 사용할 수 있다. COMPLETE와 TEXT2SQL 함수는 스노우플레이크 환경에서 운영되는 앱 개발에도 쓰일 수 있다. 스트림릿에서 개발한 단 몇 줄의 파이썬 코드로 특정 업무 목적에 맞는 챗봇을 개발하거나 커스터마이징한 코파일럿을 개발해 활용할 수 있다. ■ 도큐먼트 AI(미리보기 기능) 도큐먼트 AI는 스노우플레이크의 자체 멀티 모달 LLM을 활용해 비정형 파일(예: PDF, WORD, TXT 등)을 새로운 데이터 소스로 처리하는 기능이다. 비정형 데이터를 정형화할 수 있는 파이프라인 기능이 포함돼 있으며, 직관적인 UI로 데이터를 사전 학습하고 비정형 데이터에서 필요한 정보를 자연어 기반으로 쉽게 추출할 수 있다. ■ 유니버설 서치(미리보기 기능) 유니버설 서치는 스노우플레이크 플랫폼 내의 데이터와 앱을 간편하게 검색하고 사용할 수 있게 하는 LLM 기반 검색 기능이다. 데이터베이스, 테이블, 칼럼과 같은 메타 정보를 탐색하는 데이터 거버넌스 기능으로 활용할 수도 있다. 마켓플레이스의 데이터나 앱을 쉽게 검색하거나, 스노우플레이크와 관련된 기술 사항을 자연어 기반으로 질의하고 원하는 답변을 얻음으로써 사용자 경험을 개선하는 용도로 활용된다. ■ 스노우플레이크 코파일럿(미리보기 기능) 코파일럿은 자연어로 SQL을 생성하고 구체화하는 LLM 기반의 개발 도우미다. SQL을 모르는 사용자도 쿼리를 생성하고 구체화함으로써 데이터 분석에 대한 어려움을 낮추고 진정한 '데이터 민주화'를 경험할 수 있다. 이 텍스트 코드 변환 기능은 앞서 설명한 코텍스의 Text2SQL 함수를 사용해 함수 또는 사용자 애플리케이션에서 활용할 수 있다. ■ 스노우플레이크 아크틱 스노우플레이크는 올해 4월 아파치 2.0 라이선스로 업계 최고 수준의 개방성과 성능을 제공하는 기업용 LLM인 '스노우플레이크 아크틱'을 출시했다. 이 파운데이션 모델은 스노우플레이크만의 독창적인 전문가 혼합(MoE) 아키텍처로 설계돼 동급 최고의 성능과 생산성을 보인다. 스노우플레이크 아크틱은 다음과 같이 다섯 개의 서로 다른 용량을 가진 모델을 제공한다. 아크틱은 스노우플레이크 AI 연구소에서 실제 검색 워크로드에 중점을 두고 개발한 LLM이다. MTEB에 따르면 3억 3천400만 개의 매개 변수를 가진 아크틱(Snowflake Arctic-Embed-L) 모델은 오픈AI에 비해 추정 매개변수가 4분의 1 수준밖에 되지 않는다. 데이터의 차원은 3분의 1 수준이지만, 검색 성능은 더 높다. 이는 10억 개 이상의 매개변수를 가진 모델들도 달성하기 어려운 성능이다. 아크틱의 주요 특징은 다음과 같다. -아크틱 임베드 모델은 5가지 크기(X-Small부터 Large)로 제공된다. 모델의 크기는 2천300만~3억 3천400만 개의 매개변수로 구성돼 있으며, 사용자는 요구사항에 따라 적합한 모델을 선택하여 사용할 수 있다. -아크틱은 아파치 2.0 라이선스를 통해 제공되며, 가중치, 코드, 데이터 레시피 및 연구 과정에서 얻은 다양한 인사이트를 제공한다. -아크틱은 Dense + MoE 아키텍처를 혼용해 설계됐다. 이에 학습 효율성은 높아졌고 더 낮은 비용으로 더 나은 성능을 제공한다. 아크틱 모델의 크기는 유사한 품질의 임베딩 모델과 비교해 더 작기 때문에 대기 시간을 줄이고 TCO를 절감하는 데 도움이 된다. -검색 증강 생성(RAG) 또는 시맨틱 검색 서비스에서 아크틱을 사용할 경우, 높은 검색 성능에 기반한 고품질의 서비스를 제공할 수 있다. -스노우플레이크 아크틱은 현재 허깅페이스에서 직접 다운로드 받아 사용할 수 있으며, 곧 스노우플레이크 코텍스에 통합될 예정이다. 또한, 아마존웹서비스(AWS), 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 레플리케이트 및 투게더 AI의 카탈로그를 통해서도 제공될 예정이다. -일반적인 메트릭스를 위한 모델 훈련과 달리 아크틱은 SQL 생성, 코딩 지원 및 명령 이행과 같이 기업 환경에서 뛰어난 성능을 제공하기 위한 특화된 데이터 커리큘럼을 채택했다. 그동안 AI 모델 학습 알고리즘은 심층 신경망(DNN), 순환신경망(RNN), 장단기 기억(LSTM) 등을 거쳐 트랜스포머까지 꾸준히 발전해 왔지만, AI 모델 분야에서 트랜스포머 이후로 획기적인 발전을 이뤄내지는 못했다. 오픈AI가 매개변수를 늘려 LLM을 선보인 이후부터는 알고리즘 개선보다는 아키텍처 개선에 집중하기 시작했다. 현재 AI 아키텍처는 환각 현상, 경량화, 그리고 혼합이라는 세 가지 관점에 주력하고 있다. 아크틱의 가장 큰 장점은 앞서 설명한 세 가지 주력 사항을 모두 개선하는 독점적인 MoE 아키텍처를 기반으로 설계되었기 때문에, 작은 모델을 유지하면서도 효율적으로 실행한다. 다음 그림과 같이 아크틱은 유사한 다른 모델과 비교해 뛰어난 학습과 추론 성능을 보인다. 아크틱 모델 학습의 경우, 서로 다른 데이터 세트로 구성된 세 단계로 나눠 진행한다. 첫 단계에서는 1T 토큰을 사용해 일반적인 기술을 학습하고, 이후 두 단계에서는 1.5T 및 1T 토큰을 사용해 기업 중심의 기술을 집중적으로 학습한다. 이러한 점진적인 학습 과정은 더욱 복잡한 매트릭스를 효과적으로 학습할 수 있는 기반을 제공한다. 아크틱 모델 추론 효율성도 학습과 마찬가지로 좋은 성능을 제공한다. 아크틱 모델은 특정 작업을 수행할 때 필요한 매개변수만을 활성화 상태로 유지하기 때문에 전체적인 연산 비용을 절감하고, 빠르고 효율적인 추론을 가능하게 한다. 빠른 추론 성능은 기업 환경에서 LLM을 사용하는 경우 매우 중요한 평가 지표로 여겨진다. 일반적으로 LLM은 매개변수 수가 많은 모델을 의미한다. 이러한 파운데이션 모델의 가장 큰 문제점은 높은 비용이다. 초창기 LLM 분야에서는 고밀도 트랜스포머 아키텍처를 주로 선택했다. 모델 품질 개선을 위해 모델 크기를 쉽게 확장할 수 있었기 때문이다. 하지만 임계값 이상으로 모델 크기를 확장하기 위해서는 높아지는 연산 복잡도만큼 많은 컴퓨팅 비용이 소요된다. 오늘날 GPU는 매우 비싼 리소스이기 때문에 기존 고밀도 트랜스포머 모델을 학습하는 것은 시간과 비용 측면에서 큰 투자가 아닐 수 없다. 이러한 문제점을 해결하기 위해 사용된 방법이 MoE 아키텍처이다. MoE 아키텍처는 모델 레이어를 전문가 하위 네트워크가 원래 레이어와 동일한 크기의 MoE 레이어로 대체한다. 이로써 모델 학습과 추론에 필요한 컴퓨팅 비용을 증가하지 않으면서도 모델 품질을 향상한다는 장점이 있다. 스노우플레이크 AI 연구팀은 MoE 모델 내의 전문가 수와 전체 매개변수의 크기, 그리고 이 전문가를 조합하는 방법에 따라 모델 품질을 향상할 수 있다는 것을 입증했다. 480억 매개변수로 설계된 아크틱의 경우 세분된 128개의 전문가를 가지고 있으며, 이들 중 상위 2개의 전문가만 선택해 동작하도록 설계됐다. 이 과정에서는 17억개 규모의 매개변수만이 활성화되기 때문에 다른 MoE 아키텍처 기반의 LLM과 비교했을 때 탁월한 자원 효율성과 성능을 보인다. 또한, 스노우플레이크 아크틱은 학습 비용을 크게 절감했다. 이 모델은 아마존 EC2 P5 인스턴스를 통해 유사한 다른 모델들의 약 8분의 1 정도의 학습 비용만 사용하며 비용 효율성을 실현했다. 이러한 경제적인 이점은 기업 환경에서 비용 부담 없이 대규모 데이터와 복잡한 워크로드를 처리하는 데 도움을 줄 것이다. 앞으로 더 많은 기업이 스노우플레이크 데이터 플랫폼에 결합한 고성능 언어 모델을 접하고 그 무한한 가능성을 경험할 수 있기를 기대한다.

2024.05.07 11:30조성현

"원티드랩서 '솔라' 쉽게 쓰세요"…업스테이지, 기업 생성형 AI 도입 촉진

업스테이지가 개발한 사전학습 거대언어모델(LLM) '솔라'를 더욱 쉽게 도입할 수 있는 기반이 마련됐다. 업스테이지는 원티드랩과 '원티드 LaaS(LLM-as-a-Service·서비스형 거대언어모델) 서비스 협력을 위한 업무협약'을 체결했다고 2일 밝혔다. 이날 협약식에는 업스테이지 권순일 사업총괄 부사장과 원티드랩 주형민 AX사업개발 총괄 등이 참석했다. 이를 통해 양사는 ▲생성형 AI 원천기술(솔라)의 활용 확대 지원 ▲생성형 AI 응용기술(원티드 LaaS) 전파를 위한 공동 협력 ▲성공 사례에 대한 대외 홍보 협력 등 다양한 분야에서 손을 맞잡기로 했다. 원티드 LaaS는 원티드랩이 다수 생성형 AI 서비스를 개발·운영하며 쌓은 노하우를 집약한 솔루션이다. ▲생성형 AI 서비스를 쉽게 개발할 수 있는 환경 ▲다양한 LLM 모델 ▲자동화된 테스트 환경 ▲프로젝트 및 프리셋 단위 상세한 토큰 사용량 관리 ▲할루시네이션 제어를 위한 RAG 기능 등을 구독 형태로 제공한다. 솔라는 빅테크 모델보다 작은 사이즈로 더 빠른 속도와 성능을 탑재, 속도와 비용 효율성이 관건인 기업용 LLM 시장에 최적화된 모델로 꼽힌다. 최근 아마존웹서비스(AWS)에서 AI 모델을 제공하는 '아마존 세이지메이커 점프스타트' 등 글로벌 플랫폼에도 대표 사전학습 모델로 탑재됐다. 업스테이지는 이번 원티드랩과 협약을 통해 더욱 많은 기업을 대상으로 생성형 AI 도입을 확산한다는 구상이다. 김성훈 업스테이지 대표는 "자사가 자체 개발한 솔라는 작지만 강력한 성능과 오픈AI의 GPT-3.5 대비 2.5배 이상 빠른 속도로 기업에 최적화된 LLM 도입 선택지를 제시한다"며 "원티드랩과의 협력을 통해 다양한 산업 및 기업을 대상으로 맞춤형 모델을 제공, 광범위한 생성형 AI혁신을 지원해 나갈 것"이라고 밝혔다. 주형민 원티드랩 AX사업개발 총괄은 "허깅페이스 리더보드 최상위 랭크를 통해 검증된 업스테이지의 모델을 기업 고객들이 쉽게 사용할 수 있는 환경을 제공한다는 점, 언어모델의 선택지가 지속 확대되고 있다는 점이 기업 고객에게 기대감을 갖게 될 것"이라며 "이번 협약을 시작으로 업스테이지와 함께 기업의 생성형 AI 도입을 돕고, 나아가 국내 생성형 AI 생태계 활성화에 기여할 수 있는 다양한 활동을 선보일 계획"이라고 말했다.

2024.05.02 11:33장유미

SKT, 6월에 통신사 특화 AI 모델 내놓는다

SK텔레콤이 5G 요금제와 공시지원금, 인공지능(AI) 윤리가치 등을 학습한 통신사 특화 AI 모델인 '텔코LLM'을 상반기 내에 선보인다. 에릭 데이비스 SK텔레콤 AI테크콜라보레이션 담당은 30일 서울 을지로 T타워에서 열린 간담회에서 “1개의 범용 LLM으로 통신사들이 하려는 다양한 서비스와 문제를 해결하는 것은 쉽지 않다”며 “통신 데이터와 도메인 노하우에 맞춰 조정하는 파인튜닝과 모델평가를 거쳐 다양한 텔코LLM을 만들고 이를 상황에 맞게 골라 쓸 수 있도록 하는 것이 멀티LLM 전략”이라고 말했다. GPT와 같은 범용 LLM보다 통신업종에 특화된 LLM이 필요하다는 뜻이다. 이를 위해 SK텔레콤은 오픈AI, 앤트로픽 등과 협력을 통해 통신사의 서비스나 상품, 멤버십 혜택, 고객 상담 패턴 등의 데이터를 수집하고 선별해 GPT와 클로드에 학습시키고 있다. SK텔레콤이 직접 개발한 에이닷엑스 외에도 오픈AI의 GPT, 앤트로픽의 클로드 등 다양한 범용모델 기반으로 튜닝 작업에 나서면서 멀티 LLM 전략을 내세웠다. AI컨택센터(AICC), 유통망, 네트워크 운용, 사내 업무 등 활용 용도에 따라 최적화된 LLM을 갖추겠다는 뜻이다. 범용LLM 대비 텔코LLM은 통신 영역에서 높은 수준의 생성형 AI 작업을 수행할 수 있다. SK텔레콤은 현재 고객센터에서 상담전화 한 건을 처리하는데 고객 상담에 약 3분, 상담 후 업무 처리하는데 30초 이상이 소요되는데 텔코LLM을 도입하면 상담사가 고객과 전화하는 동안 LLM이 해결책을 상담사에게 제공하고 상담 내용을 요약해주는 등 상담 후 처리까지 소요되는 시간을 크게 단축시켜 줄 수 있을 것으로 전망했다. 기존의 고객센터에서 상담사가 고객 문의 내용을 정리하고 필요한 문서를 검색, 요약해 답을 한 후 상담 내용을 기록하는 것까지 전 과정에 숙련되는 데에 많은 경험과 교육이 필요했다면, 텔코 LLM이 이 과정을 줄여주는 셈이다. 또한 텔코LLM 중 통신 관련 데이터를 입힌 클로드 버전의 경우 AI가 따라야 할 윤리원칙을 철저하게 학습하고 있고 우리나라에서 빠르게 생겨나고 있는 신조어나 한국어 욕설, 위협 폭언 식의 문맥 뉘앙스를 정확하게 파악할 수 있다. 네트워크 인프라 운용에도 텔코LLM이 유용하다. 인프라 운용자가 네트워크 모니터링 중 문제가 발생하면, 실시간으로 텔코LLM에 질문을 입력해 해결 방안을 답변으로 받아볼 수 있다. 텔코LLM이 장비 매뉴얼, 대응 사례 등의 정보를 기반으로 상황에 맞는 답변을 빠르게 제공하기 때문에, 사람이 직접 정보를 찾는 것보다 대응 시간을 단축시킬 수 있다. SK텔레콤은 향후 인프라 운용 중에 발생되는 데이터 분석과 축적된 데이터 기반의 정보 조회 등에도 텔코LLM을 확대 적용할 계획이다. 정민영 SK텔레콤 AI플랫폼 담당은 “고객센터, 인프라뿐만 아니라 마케팅과 유통망 등 고객 접점이나 법무, HR와 같은 사내 업무까지 통신사 운영의 다양한 영역에서 텔코LLM이 업무 효율성을 높일 것”이라며 “지속적으로 텔코LLM을 활용한 유즈케이스를 늘려갈 계획”이라고 설명했다. 한편, SK텔레콤은 통신사들이 생성형 AI 애플리케이션을 효율적으로 구축, 개발할 수 있는 '인텔리전스 플랫폼'도 공개했다. 멀티 LLM부터 멀티모달, 오케스트레이션, 검색증강생성(RAG) 등까지 아우르는 기업용 AI 개발 운용 패키지다.

2024.04.30 13:26박수형

[기고] AI 기반 혁신의 진입 장벽을 낮춰라

그 어떤 형태로 인공지능(AI)을 활용하든지 간에 AI가 모든 산업에 걸쳐 인터넷의 등장 이후로 가장 커다란 영향을 미칠 것이라는 점에는 의문의 여지가 없다. AI는 연구개발부터 생산 및 판매 후 서비스까지 모든 비즈니스 과정에서 실질적으로 널리 사용되는 도구가 될 것이며, 최근 국제통화기금(IMF)의 제안대로 '글로벌 경제도 변혁할' 것으로 예상된다. 실제로 생성형 AI는 이미 이런 변화를 일으키고 있다. IDC에 따르면, 올해 기업이 생성형 AI에 지출할 비용은 두 배로 증가할 것이며, 2027년까지 그 규모가 약 1천510억 달러에 달할 것이라고 한다. 이런 예측이 놀랍지 않은 것은 대규모언어모델(LLM)은 이미 여러 조직들의 상상력을 사로잡으며, 기업 내부 및 제3자 애플리케이션의 생성형 AI 활용에 대한 관심을 끌어올려 전략적 사고를 이끌고 있다. 모든 조직이 자사 데이터를 유의미하게 연결하거나 인프라를 확장할 수 있는 것은 아니며, 이런 한계는 적극적인 생성형 AI 활용에 영향을 미친다. IT 자원의 현대화를 위해서는 유연하고 저렴한 데이터 연결이 필수지만, 비용 역시 하나의 커다란 제약사항으로 작용한다. 많은 기업들은 새로운 AI 서비스 관련 지출 증가에 대해 여전히 조심스러운 입장이다. 한국에서도 AI관련 비용 문제는 자주 언급된다. 국내에서는 천문학적인 비용을 들여 LLM을 직접 구축하기보다는 생성형 AI의 체크포인트를 활용해 서비스를 개발하는 것이 더 비용 효율적이라는 이야기도 나오는 상황이다. ■ 장기적인 AI 성장을 위한 비용 효율적인 클라우드 AI 발전을 논할 때 클라우드는 빼놓을 수 없는 기술이다. 하지만 클라우드 사용 비용 또한 AI의 진입장벽을 높이고 있다. 클라우드 서비스 수요의 꾸준한 증가에도 불가하고 예산 제약이나 복잡한 시스템 관리 및 업데이트 등으로 인해 많은 조직이 클라우드의 잠재력을 충분히 활용하지 못하고 있으므로 모든 클라우드 인프라가 동등한 수준의 기술력을 발휘하지는 못하고 있다. 따라서 모든 기업 또는 기타 조직들이 미래의 중요 기술에 동등하게 접근하도록 기반을 마련해야 한다는 필요도 제기된다. 맥킨지의 '클라우드 가치를 찾아서: 생성형 AI가 클라우드 ROI를 변화시킬 수 있을까?'란 제목의 보고서는 “퍼블릭 클라우드에서 가치를 얻는 것은 복잡한 일”이라며 “기업들은 지난 수십 년 동안 온프레미스 환경에서 기업 기술 조직, 프로세스 및 아키텍처를 운영해 왔지만 이 중 많은 부분이 새롭게 변화해야 한다”라고 밝혔다. 이는 한 조직이 생성형 AI의 이점을 극대화하기 위해서는 비용뿐만 아니라 유연성과 접근성 측면에서도 진입 장벽을 낮추어 더 개방적이고 지속가능한 클라우드 환경을 조성해야 하기 때문이다. 알리바바 클라우드는 이미 오픈 클라우드 인프라를 통해 고객들에게 자체 LLM을 제공하고 있는데, 세계 최고 컨슈머 헬스케어 기업이자 AI 영양사이기도 한 헬리온과 같은 기업이 신뢰를 강화하고 영양 데이터베이스의 정확성과 고객에 대한 추천 정확도를 개선하도록 돕고 있다. 또한, 이런 오픈 클라우드 인프라는 일본어 처리가 능숙한 사전 훈련된 기초 모델 개발을 전문으로 하는 일본 스타트업 '린나'가 새로운 제품과 서비스를 혁신할 수 클라우드에서 저렴하게 생성형 AI를 활용하도록 돕고 있다. 이런 AI의 적극 활용을 지원하겠다는 알리바바 클라우드의 의지는 최신 가격 정책에도 반영되었으며, 알리바바 클라우드는 AI 응용 프로그램을 개발하는데 안정적인 기반을 제공하기 위해 장기 구독자에게 할인 혜택을 제공하기로 발표한 바 있다. ■ 생성형 AI 붐을 위한 민주화 AI 컴퓨팅으로의 전환은 향후 몇 년간 더욱 가속화될 것이다. AI 컴퓨팅은 생성형 AI 역량을 내장하는 생성형 AI를 위한 인프란 설계를 의미하는데, 혁신과 실행을 촉진하고 명확인 비용 구조와 확장 가능성도 갖출 것으로 기대가 되고 있다. 이에 대비해 알리바바 클라우드는 모델 및 관련 도구와 서비스를 위한 선도적인 오픈 소스 AI 모델 커뮤니티인 모델스코프(ModelScope)를 구축했다. 해당 커뮤니티는 최근 출시된 메타의 라마2와 알리바바 클라우드의 자체 오픈 소스 모델, 18억, 70억, 140억에서 720억에 이르는 파라미터를 갖춘 치엔(Qwen) LLM, 오디오 및 시각적 이해 기능을 갖춘 멀티 모달 모델(LLM)을 포함한 3,000개 이상의 인공지능 모델을 호스팅했으며, 개발자들의 사랑을 받고 있다. 앞으로 클로즈드 소스 및 오픈소스 LLM이 공존할 것이지만, AI의 민주화는 오픈소스 솔루션으로 인해 가속화될 것이다. 특히 오픈소스 LLM은 AI 모델 커뮤니티의 발전을 촉진하고, AI 해석 가능성을 향상하기 위한 협력을 우선시해, 모든 조직이 생성형 AI의 도움으로 제품과 서비스 향상을 할 수 있도록 돕는다. SeaLLM이 동남아시아 지역의 현지 언어에 대한 지원을 강화해 포용성을 넓히는데 중요한 역할을 한 것처럼 오픈소스 자원의 성장은 AI모델 커뮤니티의 발전을 이끌어줄 것이다. 인공지능의 민주화와 생성형 AI에 준비된 클라우드 서비스를 제공하는 것은 기업들의 데이터가 LLM에 통합되고 사용되도록 조직 데이터에 더 많은 자원을 투입할 수 있게 돕는다. 생성형 AI는 데이터를 요약하고 통합하는 면에서는 탁월하지만 구조화되지 않은 데이터로부터 통찰력을 얻을 때는 그리 효과적이지 않으므로 이를 활용하고자 하는 조직은 타협 없는 기본 인프라를 갖추고, 걱정 없이 데이터 문제를 해결할 수 있어야 한다. 즉 한 조직이 진정한 혁신을 이루기 위해서는 클라우드 인프라가 사실상 표준이 되어야 하며, 이는 LLM을 운영하고 실험 및 혁신하고, 발전시키기 위한 기준이 되어야 한다는 것이다. 이런 기준은 AI 컴퓨팅 인프라 구축의 중요성이 더욱 대두될수록 보다 분명해질 것이다. IT 자원에 대한 수요는 꾸준히 증가할 것이므로 에너지 집약적인 모델 훈련을 지원할 수 있는 인프라를 활성화하고, 동시에 운영 효율, 비용 효율 보장은 물론 인프라가 환경에 미치는 영향도 최소화해야 한다. 이헌 변화는 생성형 AI의 민주화뿐만 아니라 더 많은 협업을 장려하기 위해 클라우드 산업이 극복해야 하는 과제이며, 오픈 클라우드 인프라만이 이를 주도할 수 있을 것이다.

2024.04.30 10:05셀리나 위안

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

"네트워크 기업에서 AI 전문회사로"...통신사 생존 지도 바뀐다

인공지능(AI)이 세상을 삼키고 있다. 일상생활뿐 아니라 첨단 비즈니스 영역까지 뒤흔들고 있다. 특히 챗GPT를 비롯한 생성형 AI는 다양한 산업 분야의 기본 문법을 바꿔놓으면서 새로운 혁신의 밑거름이 되고 있다. 반면, 기업에서는 AI 도입이 경쟁력 강화를 위한 기회라는 점을 알면서도 불확실성을 포함한 위험 요인 때문에 도입을 주저하고 있는 것도 현실이다. 지디넷코리아는 창간 24주년을 맞아 법무법인 세종의 AI센터와 함께 이런 변화를 진단하는 'GenAI 시대' 특별 기획을 마련했다. 이번 기획에서는 기업이 AI 규제에 효과적으로 대응하면서 도입 가능한 AI 거버넌스에 대해 살펴본다. 아울러, 소프트웨어, 통신, 인터넷, 헬스바이오, 유통, 전자, 재계, 자동차, 게임, 블록체인, 금융 등 11개 분야별로 AI가 어떤 변화를 일으키고 있는 지 심층 분석한다. 또 AI 기술 발전과 함께 논의되어야 할 윤리적, 사회적 문제들에 대한 다각적인 논점을 제시해 건강한 AI 생태계 조성에 기여하고자 한다. [편집자주] "글로벌 AI 컴퍼니, AICT 기업." 국내 통신사들이 최근 강조하는 선언적 구호다. 네트워크 구축을 통한 연결 서비스가 본업인 이들이 인공지능(AI)을 전면에 내세운다. 통신사 최고경영자(CEO)들은 단순히 AI를 강조하는 수준을 넘어 AI 회사로 바꾸겠다고 입을 모은다. 모든 산업이 AI를 바라보고 있지만 국내 통신업계가 AI를 도입하고 사업을 전환하는 속도는 차원이 다르다. 단순히 네트워크 자동화 관리 솔루션을 갖추는 데 그치지 않고, 글로벌 빅테크의 행보에 궤를 맞춰 직접 거대언어모델(LLM)까지 만들었다. 대부분의 업종에서 기업들이 AI를 중시하고 도입하겠다고 하지만, 언어모델을 직접 구축하겠다고 나서지는 않는다. 또 과거 CES에서 아마존 알렉사 광풍이 불었을 당시 국내 기업 중 통신사들이 가장 먼저 AI 스피커 출시 대열에 뛰어들었다. 보통 기업들이 디지털 트랜스포메이션을 중시하며 관련 조직을 신설하고 C-레벨급 임원을 발탁할 때 통신사들은 AI 전담 임원과 조직을 뒀다. 5G와 LTE로 이어지는 무선 네트워크의 진화가 지금의 디지털 경제를 가능케 한 사회적 인프라가 됐다는 평가를 받는다. 다만 세계 각국의 통신사들은 네트워크 구축 노력에도 과실은 일부 빅테크 회사가 독식했다고 여긴다. 이런 탓에 통신사들이 플랫폼 사업에 뒤늦게 뛰어들기도 했다. 하지만 AI를 대하는 태도는 다르다. 기술 주도권을 갖는다거나 AI를 통한 수익 사업화를 넘어 자체적으로 AI를 활용하지 않으면 디지털 사회에서만이 아니라 본업인 통신에서도 도태될 수 있다는 우려를 안고 있다. 무조건 AI에 뛰어들 수밖에 없다고 자각하는 상황이다. 글로벌 통신사들은 왜 AI에 빠졌나 통신산업은 AI와 뗄레야 뗄 수 없는 관계다. AI의 밑바탕 재료인 데이터가 계속 생성되는 지점에서 사업을 전개하기 때문이다. 세계 최다 가입자를 거느린 중국 차이나모바일을 예로 들어보자. 지난해 3분기 기준 5G 가입자 수만 7억3천만 회선으로 추정되는 회사다. 중국은 신용카드 도입이 늦어지면서 모바일페이가 가장 발전한 나라로 꼽힌다. 즉, 차이나모바일은 7억명 이상의 데이터 이용량과 이동 경로를 비롯해 결제와 소비 양상까지 살필 수 있는 셈이다. AI 모델을 구축하기 위해 학습 데이터를 찾아다니는 회사들이 보기에 차이나모바일은 빅데이터 창고를 여럿 거느린 곳이다. 세계이동통신사업자연합회(GSMA)는 '이동통신 산업과 AI(The Mobile Industry and AI)' 보고서에서 “5G와 사물인터넷(IoT) 출시로 실시간으로 더 많은 실제 데이터를 수집할 수 있게 됐고, AI 시스템은 이 데이터를 활용해 보다 정교해지고 능력이 향상될 수 있다”고 내다봤다. 그러면서 “통신산업에서 AI는 모바일 사업자가 연결성과 고객 경험을 모두 개선할 수 있도록 해준다”며 “AI를 사용해 네트워크를 최적화하고 자동화해 네트워크 운영자는 더 나은 서비스를 제공하고 더 많은 사람들이 연결되도록 할 수 있다”고 분석했다. AI로 사업의 이점을 살릴 수 있는데 마다할 이유가 없다는 뜻이다. 이에 각국의 통신사들은 다양한 방면에서 AI를 활용하고 있다. 예컨대 노르웨이에 본사를 두고 있는 유럽 지역의 통신사인 텔레노어(Telenor)는 수년 전부터 데이터 분석을 통해 무선 네트워크의 전력 소비와 이산화탄소 배출을 감소시키는 데 공을 들이고 있다. 미국의 AT&T는 AI와 통계 알고리즘을 사용하는 예측 모델을 사용해 네트워크 서비스 중단을 예측하며 방지한다. 일본의 KDDI는 IoT 디바이스와 센서, 무선 네트워크의 정보를 AI 기반 시스템으로 통합해 자연재해에 대한 정부의 대응을 최적화하는 데 도움을 주고 있다. 통신 사업을 전개하는 지역적인 환경이나 현지 공공 서비스의 수요에 부합하는 AI 모델을 일찍이 만든 것이다. 범용 LLM 넘어 특화모델 넘보는 韓 통신사 국내 통신 3사도 글로벌 통신사들이 선보인 AI 기반 사업 모델을 대부분 선보였다. AI컨택센터(AICC)와 같은 B2B 솔루션 사업은 기존 콜센터의 디지털 전환을 돕는 데 그치지 않고 3사의 수익을 창출하는 신사업 자리까지 올랐다. 특히 자체 개발 LLM까지 보유하고 있다. SK텔레콤의 에이닷엑스, KT의 믿음 등의 파라미터 값은 글로벌 회사들의 LLM과 견줘 뒤지지 않는다. LG유플러스도 그룹사 차원에서 개발한 엑사원을 바탕으로 AI 경쟁력을 갖추고 있다. GPT 기반의 AI 서비스가 열풍을 불러오며 국내 통신사들도 LLM 개발에 나섰지만, 이제는 기존 LLM 기반의 특화모델을 확보하는 단계로 접어들었다. 이를테면 SK텔레콤은 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크 등 주요 글로벌 통신사들과 '글로벌 텔코 AI 얼라이언스(GTAA)'를 구축하고 합작법인을 내세워 통신에 특화된 버티컬 LLM을 만든다는 계획이다. SK텔레콤은 파트너 관계를 맺고 있는 오픈AI, 앤트로픽과도 텔코LLM 개발에 힘을 모으고 있다. LLM 개발 경쟁 시기에 주요하게 따진 파라미터 크기가 아니라 LLM 기반으로 어떻게 활용할 수 있는지, 수익화가 가능한 사업모델을 찾는데 주력하겠다는 뜻이다. 정석근 SK텔레콤 글로벌AI테크사업부장(CAGO)은 “GTAA는 통신사향 LLM 기술 개발을 목표로 이를 통해 업무 효율 향상과 고객 서비스 가치를 높이고 네트워크 최적화, 마케팅 솔루션 등 다양한 효율화 사례로 협력을 늘릴 것”이라며 “GTAA 멤버사들은 13억 명의 가입자를 보유한 글로벌 통신사로 텔코 LLM 개발 등에서 규모의 경제를 바탕으로 협력을 이어갈 예정”이라고 밝혔다. KT는 자체 개발 LLM 믿음과 오픈AI의 GPT, 메타의 라마 등을 함께 활용하는 멀티 LLM 전략 기반의 내부업무 혁신 플랫폼 젠아이두(Gen.AIDU)를 개발하고 전사에 적용키로 했다. 젠아이두는 생성형 AI를 이용해 API를 직접 개발해서 사용할 수 있도록 하는 플랫폼이다. 특히 산업별로 특화된 SLM 수요가 커졌다는 점에 따라 LLM 개발 경험을 내세운 SLM을 만들어 기업고객 수요에 맞추겠다는 전략이다. 2천100억 파라미터 값의 모델을 만드는 과정에서 얻은 경험으로 각기 다름 AI 수요에 맞는 경량화 버티컬 모델을 내놓기로 한 것이다. 오승필 KT 기술혁신부문장(CTO)은 “LLM이 여러 가지를 할 수 있고 좋지만 수요기업 입장에서는 가격 경쟁력이 있어야 한다”며 “수요에 맞도록 파라미터 튜닝을 거쳐 고객에 제공하고, 이를 다 포함해 멀티 LLM 전략을 가져갈 것”이라고 말했다. LG유플러스는 LG AI연구원이 구축한 엑사원을 활용, 통신에 특화된 생성형 AI 모델인 익시젠(ixi-GEN)을 상반기 내에 공개한다는 방침이다. 익시젠을 기반으로 개인형 모바일 에이전트, 미디어 에이전트, 워크 에이전트를 구현키로 했다. 최근 GPT 기반의 챗 에이전트 서비스 4종을 내놨는데 이 역시 익시젠 기반으로 전환할 예정이다. LG유플러스는 이를 두고 AI 응용 서비스라 칭하며 이 부문에선 반드시 앞서간다는 계획이다. AI 자체 개발 단계를 넘어 앞으로는 응용 기술이 중요하다는 판단을 내린 것이다. 고도화된 LLM과 상황에 맞는 자연어이해도 활용한다. 성준현 LG유플러스 AI데이터프로덕트담당은 “LLM 기반의 대화형 상담은 최신 LLM과 기존 자연어이해(NLU)를 하이브리드로 사용해 효율성을 높였다”며 “챗 에이전트는 중복 개발 없이 빠르게 신규 챗 기능을 제공하고 간단한 업무는 자연어처리를, 복잡한 질문은 LLM 처리를 가능하도록 했다”고 설명했다.

2024.04.24 15:28박수형

올거나이즈 "알리LLM앱, 보안 기능 업그레이드"

올거나이즈(대표 이창수)가 자사 앱 마켓 '알리LLM앱' 보안 기능을 한층 강화했다. 올거나이즈는 알리LLM앱에 옥타 인증을 적용하고, 관리자가 대시보드에 접속할 때도 이메일 2단계 인증을 거치도록 했다고 23일 밝혔다. 기업 직원은 알리 플랫폼에 접속할 때 아이덴티티 보안 기업 옥타의 인증을 통해 로그인 해야한다. IT 관리자가 옥타 인증을 활성화하면 바로 적용 가능하다. 옥타 인증 도입으로 알리LLM앱 마켓에서 앱을 다운 받아 활용할 때도 인증·인가 프로토콜 표준을 지켜야 한다. 옥타 아이디·패스워드만으로 연관 서비스에 로그인할 수 있다. 기업 고객 내 알리 플랫폼을 관리하는 IT 담당자가 대시보드에 로그인할 때도 2단계 인증을 받아야 한다. 대시보드 내 설정 메뉴에서 2단계 인증 기능을 활성화하면 기존 아이디·비밀번호 외에도 이메일로 받은 일회용 인증 코드를 추가 입력해야 한다. 민감한 고객정보를 포함한 대시보드에 접속할 때 관리자 인증을 강화해 보안 우려를 해소하기 위해서다. 올거나이즈 측은 이번 로그인 인증 업데이트를 통해 주요 고객사인 금융 기업 등 보안에 민감한 기업들이 걱정 없이 LLM 솔루션을 이용할 수 있도록 지원하겠단 입장이다. 현재 KB증권, 일본의 미쓰이스미토모은행 금융그룹, 현대캐피털, 미국 트래블러스 등 국내외 주요 금융·보험업 고객사 포함해 한·미·일 200개넘는 기업 고객이 올거나이즈 솔루션을 이용 중이다. 실제 국내 금융사들의 경우 전자금융감독규정에 따라 사용자 인증에 대한 보안 규제를 적용 받고 있다. 공개용 웹서버에 접근할 수 있는 사용자 계정은 업무관련자만 접속할 수 있도록 제한했다. 아이디·비밀번호 외에 추가 인증 수단을 적용해야 한다는 내용이다. 미국 정부 역시 제로 트러스트 모델 채택을 의무화하면서 다중요소인증 도입을 적극 논의 중인 것으로 알려졌다. 이창수 올거나이즈 대표는 "일본 내 히타치 등 다수의 고객사들이 보안 규제에 맞춰 로그인 강화를 요청하는 추세"라며 "앞으로도 보안에 대한 고객 요구사항을 적극 반영하고, 엄격한 규제를 통해 고객 데이터를 안전하게 관리할 것"이라고 말했다.

2024.04.23 16:11김미정

[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다. 생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다. 파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 '파인 튜닝'을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다. 챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 '라마'가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다. ■ LLM에 대한 이해 범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다. 작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다. 도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다. 앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다. LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다. 때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다. 여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다. 이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다. ■ 기업 환경에서 활용할 수 있는 생성형 AI LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다. 1. 콘텐츠 생성 간소화 생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다. 2. 논리적 추론 엔진으로 활용 AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다. 3. 언어 번역 정확도 개선 다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다. 4. 검색 및 요약 LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다. 앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다. 다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

2024.04.22 09:48조성현

잡코리아, LLM 기반 자체 생성형 AI 솔루션 '루프' 출시

잡코리아는 LLM(거대언어모델) 기반 자체 생성형 AI 솔루션 '루프'(LOOP)를 출시했다고 22일 밝혔다. 자체 생성형 AI를 통해 더욱 정교한 매칭 기술로 인재와 기업을 연결시키겠다는 취지다. 루프 출시와 함께 새로운 로고도 공개했다. 잡코리아 브랜드 컬러와 같은 '블루'를 시그니처 컬러로 사용해 기존 브랜드 가치에 일관성을 더했다. '무수한 데이터와 정보의 바다 속을 유영한다'는 의미로 파동형태의 그래픽을 시각화한 것이 특징이다. 잡코리아는 다년간 쌓아온 업력과 지속적인 기술혁신으로 지난해부터 AI를 활용한 인재 매칭 서비스 '원픽', 자사 데이터 기반 커리어설계 서비스 '커리어첵첵' 등 다수의 서비스를 개발·운영하고 있다. 이 과정에서 쌓은 관련 노하우를 이번 잡코리아 루프에 적용했다. 특히 루프는 한국어 구인구직 LLM을 상용화해 이력서, 구인공고 등 HR 데이터를 활용함에 있어 더욱 정확하고 빠른 결과 산출이 가능하다는 강점을 보유하고 있다. 또 HR 도메인에 특화된 기능 위주로 개발돼 고객 서비스 활용에 최적화된 결과를 제공한다. 이번 루프는 기존 인재 추천 및 검색 서비스와 연계한 생성형 AI 서비스에 우선 적용될 예정이다. 이 외에도 자체 솔루션 운영을 통해 보안 위협으로부터 고객 개인정보보호와 데이터의 보안도 더욱 강화될 전망이다. ▲보안 ▲규정 준수 ▲ID ▲디바이스 관리 ▲개인정보 보호에 걸친 모든 환경을 보호한다. 또 기존 퍼블릭 LLM 운영 대비 인력 리소스를 줄이고, 전 기술분야에 업무 효율화와 비용 절감을 지원한다. 임지홍 잡코리아 데이터AI본부 상무는 "LOOP는 잡코리아의 AI 기술 노하우가 집약된 HR업계 최초 LLM AI 솔루션으로 오랜 시간 개발해 출시한 만큼, 완성도 높은 서비스를 선보이기 위해 노력하겠다"며 "향후에는 SaaS AI 솔루션과 결합해 다양한 사용자의 요구사항을 충족하는 차별화된 서비스와 매출 상승에 기여할 수 있는 새로운 비즈니스 모델을 구축할 예정"이라고 말했다. 잡코리아는 구직자의 니즈에 맞는 이력서 작성 및 관리, 데이터 분석 등 자체 AI 솔루션 기반 신규 서비스도 추진 중이다. 또 내부 구성원의 데이터 리터러시(Literacy, 문해력) 역량 강화를 위한 챗봇 서비스도 계획하고 있다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유(프리즘·몬스터)·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 리더 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다.

2024.04.22 08:47백봉삼

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성 파운드리 '2세대 2나노' 공정 본격화...외부 고객사 확보 첫 발

美, 25% 관세 적용 자동차 부품 확대…韓 기업 타격 전망

라인프렌즈에서 ‘케이팝스퀘어’로…홍대 새로운 K팝 성지 가보니

퍼플렉시티 "검색이 아니라 답 만든다"…AI로 정보접근 대혁신

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.