• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
2026전망
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'모델'통합검색 결과 입니다. (543건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

개인정보위, 오픈 AI 등 6개 기업에 개인정보 취약점 보완 권고

개인정보보호위원회 대규모 언어 모델(Large Language Model, LLM) 기반으로 인공지능(AI) 사업을 운영 중인 오픈 AI등 6개 기업에게 개인정보 취약점을 보완하라고 권고했다. 개인정보위는 27일 제6회 전체회의를 열고 인공지능(AI) 서비스 기업에게 이같이 의결했다. 이번 권고 조치를 받은 기업은 ▲오픈AI ▲구글 ▲MS ▲메타 ▲네이버 ▲뤼튼 등 6개 기업이다. 개인정보위는 지난해 11월부터 한국인터넷진흥원(KISA)과 함께 주요 AI 서비스를 대상으로 사전 실태점검을 진행한 바 있다. AI 단계별 개인정보 보호의 취약점 점검 결과 ▲공개된 데이터에 포함된 개인정보 처리 ▲이용자 입력 데이터 등의 처리 ▲개인정보 침해 예방‧대응 조치 및 투명성 등 관련해 일부 미흡한 사항이 발견됐다. AI 서비스 제공사업자는 인터넷에 공개된 데이터를 수집 AI 모델 학습데이터로 사용하는데 이 과정에서 주민등록번호, 신용카드번호 등 한국 정보주체의 중요한 개인정보가 포함될 수 있는 것으로 지적됐다. 오픈AI, 구글, 메타는 개인정보 집적 사이트를 AI 모델 학습에서 배제하고 학습데이터 내 중복, 유해 콘텐츠 제거조치와 AI 모델이 개인정보를 답변하지 않도록 하는 조치를 적용하고 있다. 다만 학습데이터에서 주민등록번호 등 주요 식별정보를 사전 제거하는 조치가 충분하지 않은 것으로 확인됐다. 개인정보위는 AI 서비스 제공 단계별 보호조치 강화를 요구할 계획이다. 최소한 사전 학습단계(pre-training)에서 주요 개인식별정보 등이 제거될 수 있도록 인터넷에 개인정보가 노출된 것을 탐지한 데이터(URL)를 AI 서비스 제공사업자에게 제공할 계획이다. 개인정보위는 AI 모델 등 개선 목적으로 이용자 입력 데이터에 대한 인적 검토과정을 거치는 경우 이용자에게 관련 사실을 명확하게 고지하는 한편, 이용자가 입력 데이터를 손쉽게 제거‧삭제할 수 있도록 해당 기능에 대한 접근성을 제고하도록 권고했다. 개인정보위는 AI 서비스와 관련된 내용을 종합해 개인정보 처리방침 등에 보다 구체적으로 안내하고 부적절한 답변에 대한 신고 기능을 반드시 포함토록 했다. 또 AI 서비스와 LLM의 취약점 발견 시 신속히 조치할 수 있는 과정도 갖추도록 개선권고했다.

2024.03.28 12:00이한얼

데이터브릭스, 범용 대형언어모델 'DBRX' 출시

데이터브릭스가 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 출시했다. 데이터브릭스는 기업의 자체 밤줌형 LLM을 구축, 학습시킬 수 있는 LLM 'DBRX'를 오픈소스로 28일 공개했다. DBRX는 모든 기업을 위해 맞춤형 고성능 LLM의 학습과 튜닝을 보편화한다. 조직은 DBRX를 통해 더 이상 소수의 폐쇄형 모델에 의존하지 않아도 된다. DBRX는 오늘부터 바로 사용 가능하며, 전 세계 조직은 비용 효율적으로 자체 맞춤형 LLM을 구축, 교육 및 서비스할 수 있다. DBRX는 언어 이해, 프로그래밍, 수학 및 논리와 같은 표준 업계 벤치마크에서 라마2 70B 및 믹스트랄 8x7B와 같은 기존 오픈소스 LLM보다 뛰어난 성능을 제공한다. DBRX는 여러 벤치마크에서 GPT-3.5의 성능을 능가한다. 모델 평가와 성능 벤치마크에 대한 보다 자세한 정보, 그리고 DBRX가 SQL과 같은 내부 사용 사례에서 GPT-4 품질 대비 어떤 경쟁력을 제공하는지에 대한 자세한 정보는 모자이크 리서치 블로그에서 확인할 수 있다. 데이터브릭스는 효율성을 위해 메가블록스의 오픈소스 프로젝트에 기반한 전문가 혼합(MoE) 아키텍처로 DBRX를 최적화했다. 이로 인해 DBRX는 다른 주요 LLM대비 최대 2배 높은 컴퓨팅 효율 등 최고의 성능을 갖추고 있다. 또한 DBRX는 주어진 시간에 360억 개의 매개변수만 사용한다. 하지만 모델 자체는 1천320억 개 파라미터이므로 속도(토큰/초) 대 성능(품질) 측면에서 두 마리 토끼를 모두 잡을 수 있다. DBRX는 모든 기업이 커스터마이징할 수 있는 투명한 생성형 AI로 오픈소스 모델의 새로운 기준을 제시한다. 최근 미국 VC 기업 안드레센 호로위츠가 발표한 조사 결과에 따르면 AI 리더의 약 60% 가 오픈소스 사용을 늘리거나 미세 조정된 오픈소스 모델이 폐쇄형 모델의 성능과 거의 일치할 경우, 오픈소스로 전환하는데 관심을 보이는 것으로 나타났다. 2024년 이후에는 상당수의 기업이 폐쇄형에서 오픈소스로 전환할 것으로 예상되며, 데이터브릭스는 DBRX가 이러한 추세를 더욱 가속화할 수 있을 것이라고 확신한다. DBRX는 데이터브릭스 모자이크 AI의 통합 툴링과 결합돼, 고객이 데이터와 지적 재산에 대한 제어권을 유지하면서도 안전하고 정확하며 관리 가능한 생산 품질의 생성형 AI 애플리케이션을 신속하게 구축 및 배포할 수 있도록 지원한다. 고객은 데이터 관리, 거버넌스, 리니지 및 모니터링 기능이 내장된 데이터브릭스의 데이터 인텔리전스 플랫폼의 다양한 이점을 누릴 수 있다. DBRX는 깃허브와 허깅페이스에서 연구 및 상업적 용도로 무료로 사용 가능하다. 기업은 데이터브릭스 플랫폼에서 DBRX와 상호 작용하고, 검색 증강 생성(RAG) 시스템에서 긴 문장(context) 기능을 활용하며, 자체 고유 데이터에서 맞춤형 DBRX 모델을 구축할 수 있다. AWS와 구글 클라우드,, 마이크로소프트 애저 등에서도 직접 사용할 수 있다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “데이터브릭스는 데이터와 AI를 보편화하겠다는 사명 아래 모든 기업에 데이터 인텔리전스를 제공하여 그들이 보유 중인 데이터를 이해하고 이를 활용하여 자체적인 AI 시스템을 구축할 수 있도록 지원하고 있다”며 “DBRX 출시는 이러한 노력의 결과물”이라고 밝혔다. 그는 “DBRX는 최신 업계 벤치마크에서 오픈소스 모델을 능가하고, 대부분의 벤치마크에서 GPT-3.5를 뛰어넘는 수준으로, 우리는 독점 모델을 오픈소스 모델로 대체하는 추세가 고객 기반 전반에 걸쳐 가속화될 것으로 기대된다”며 “DBRX는 전문가 혼합 아키텍처를 사용하기 때문에 초당 토큰 전송 속도가 매우 빠르며 비용 효율적이므로, DBRX는 오픈소스 LLM의 새로운 기준을 제시하며, 기업이 자체 데이터를 기반으로 맞춤형 추론 기능을 구축할 수 있는 플랫폼을 제공해 준다”고 덧붙였다. 데이터브릭스는 오는 4월 26일 한국시간으로 오전 12시 DBRX 웨비나를 개최할 예정이다.

2024.03.28 11:24김우용

아이유 대신 임영웅 '삼다수', 아이유와 장기동행하는 '하이트진로'

생수 브랜드 '제주삼다수'가 가수 아이유 대신 가수 임영웅을 광고모델로 기용했지만 하이트진로는 10년 차 모델 아이유와 다시 손을 맞잡았다. 28일 하이트진로는 소주 '참이슬' 모델로 아이유와 인연을 이어가며, 10년 차 주류업계 모델은 아이유가 최장수라고 설명했다. 아이유는 2014년 처음으로 참이슬 모델이 돼 다양한 활동으로 하이트진로를 지원 사격해왔다. 하이트진로는 최근 참이슬을 더욱 깨끗한 맛으로 리뉴얼한만큼, 아이유의 이미지와 잘 부합할 것이라고 판단했다는 후문. 하이트진로 오성택 상무는 "아이유는 참이슬의 '깨끗함'이라는 브랜드 정체성과 가장 잘 부합하는 모델"이라며 "이번 재계약은 신뢰와 의리를 기반으로 한 최고의 파트너이자 동반자로서의 의미도 크다"고 말했다. 제주삼다수는 2020년부터 4년 연속 아이유를 광고 모델로 기용했으나, 올해는 임영웅을 택했다. 임영웅의 신뢰감 있는 모습이 제주삼다수를 더욱 잘 드러낼 수 있다는 이유에서다. '신뢰'의 아이콘을 광고모델로 기용하는 은행업계에서도 아이유와 임영웅의 이미지를 높이 평가하고 있다. 앞서 아이유는 2022년 우리금융그룹의 광고모델로 낙점됐다. 최근 아이유는 유튜브에서 우리은행의 광고모델답게 우리은행 카드를 사용하는 모습이 포착돼 주목을 받기도 했다. 가수 임영웅은 올해 하나금융그룹과 연을 맺었다. 하나금융 측은 "임영웅의 선하고 따스한 이미지가 더해지며, 그룹에 대한 높은 브랜드 친밀도가 전 세대로 확산될 것으로 기대된다"고 그 배경을 설명했다.

2024.03.28 10:51손희연

테슬라, 유럽서 '모델Y' 300만원 인상…"전기차 성수기 대비"

테슬라가 가격인하를 멈추고 마진 챙기기에 나섰다. 날씨가 따뜻해지는 전기차 성수기를 앞두고 수요 증가에 대비한 것인데, 차세대 전기차에 들어가는 투자비용 확보도 염두에 둔 행보로 분석된다. 로이터통신은 테슬라가 오는 22일 유럽 여러 국가에서 모델 Y 가격을 약 2천유로(290만원) 인상한다고 밝혔다고 17일(현지시간) 보도했다. 이번 조치는 다음달부터 미국에서 모델 Y의 가격을 1천달러(133만원) 인상하겠다고 발표한 데 이은 것이다. 테슬라는 지난 1일 모델 Y 후륜구동(RWD)과 롱레인지 가격을 각각 4만3천990달러(5천859만원), 4만8천990달러(6천525만원)로 1천달러 인상했다. 이번 인상은 지난 2월 재고처분을 위해 1천달러 할인했던 것을 되돌린 가격이다. 일론 머스크 테슬라 최고경영자(CEO)는 지난 2월 "공장은 효율성을 위해 지속적인 생산을 필요로 하지만 소비자 수요는 계절적"이라며 다음 달 가격이 오를 것이라고 밝혔다. 한편 테슬라의 마진은 1년여 전부터 시작된 가격인하 전쟁으로 타격을 입은 바 있다. 지난 1월 테슬라는 코드명 '레드우드'인 차세대 전기차 생산에 집중하면서 올해 매출 성장률이 "눈에 띄게 낮아질 것"이라고 경고했다.

2024.03.17 15:05김재성

메타, '라마3' 전용 AI인프라 공개...GPU만 4만9천개

메타가 차기 대규모언어모델(LLM) '라마 3' 학습을 위한 세계 최대 규모의 컴퓨팅 인프라를 공개했다. 최근 실리콘 앵글 등 외신에 따르면 메타는 AI학습을 위한 데이터센터급의 24K GPU 클러스터 한 쌍의 세부정보를 공식 블로그를 통해 공개했다. 여러 그래픽처리장치(GPU)를 네트워크로 연결해 병렬 컴퓨팅 작업을 수행하는 시스템이다. 기계학습, 대규모 시뮬레이션 등 대규모 계산 작업을 더 빠르게 처리하기 위해 활용된다. 메타에서 공개한 24K GPU 클러스터는 2022년 선보인 리서치슈퍼클러스터(RSC)의 후속모델이다. 이름처럼 2개의 클러스터에 각 2만4천576개의 엔비디아 텐서 코어 H100(이하 H100) GPU가 적용된 것이 특징으로 총 4만9천 개 이상의 H100 CPU를 활용할 수 있다. 이번 발표는 일반인공지능(AGI) 연구를 위해 대규모 인프라 구축 계획의 일환이다. 메타는 2024년 말까지 35만 개의 H100 GPU를 포함한 AI 인프라를 확장할 계획이다. 이를 통해 기존에 확보한 인프라를 포함해 60만 개의 H100 GPU 수준의 컴퓨팅 파워를 갖추는 것을 목표로 한다. 두 클러스터는 GPU 수가 동일하며 개방형 GPU 하드웨어 플랫폼 '그랜드 티톤(Grand Teton)'을 사용해 구축됐다. 하지만 네트워크 인프라 설계에 차이가 있다. 하나는 웻지 400 및 미니팩 2 OCP 랙 스위치와 아리스타 7800를 기반으로 자체 개발한 RDMA 오버 컨버지드 이더넷(RoCE) 솔수션을 적용했다. 두 번째 클러스터는 엔비디아의 퀀텀2 인피니밴드 패브릭 솔루션이 적용됐다. 두 클러스터의 구조를 다르게 한 이유는 향후 더 크고 확장된 클러스터 구축을 목표로 하기 때문이다. 두 클러스터에서 다양한 분야의 AI를 학습하며 어떤 구조와 설계 방식이 AI에 적합한지 데이터를 확보해 이후 적용하겠다는 비전이다. 저장장치도 해머스케이프와 협력해 자체 개발했다. 생성형 AI 훈련 작업이 점점 빨라지고 규모가 커지는 것에 대비해 고성능이면서도 수만개의 GPU에서 동시 작업하는 데이터를 감당할 수 있도록 E1.S SSD를 활용했다. 이와 함께 구글은 개방형 AI 생태계 활성화를 위해 AI 소프트웨어 프레임워크인 파이토치를 지속해서 지원할 것이라고 강조했다. 케빈 리 등 구글 연구원은 “지난 2015년 빅서 플랫폼을 시작으로 GPU 하드웨어 플랫폼을 설계를 공개하고 있다”며 “우리는 이런 정보 공유가 업계의 문제 해결을 돕는데 도움이 될 것이라고 믿고 있다”고 이번 GPU 클러스터 관련 내용을 공개한 이유를 밝혔다. 이어서 “우리의 AI 노력은 개방형 과학과 교차 협력의 철학을 바탕으로 구축됐다”며 “개방형 생태계는 AI 개발에 투명성, 정밀성, 신뢰를 제공하고 안전과 책임을 최우선으로 하여 모든 사람이 혜택을 누릴 수 있는 혁신을 이끌어낼 것”이라고 강조했다.

2024.03.17 13:07남혁우

솔트룩스 AI 루시아, 오픈 LLM 리더보드 35B 이하 모델 기준 '1위' 수성

세계 언어모델들을 평가하는 허깅페이스(Hugging Face)의 오픈 LLM 리더보드(Open LLM Leaderboard)에서 국내 스타트업이 1위를 차지하며 기술력을 입증했다. 인공지능(AI) 기업 솔트룩스는 오픈 LLM 리더보드에서 자체 개발 초거대 언어모델 루시아(LUXIA)로 전 세계 1위를 달성했다고 15일 밝혔다. 루시아의 이번 성과는 35B 이하 언어모델들 사이에서 확보한 순위다. 평균 점수는 약 77.74점이다. 전체 초거대 모델들을 기준으로도 피라미터 50B 이상의 대규모 모델들을 제치고 전 세계 4위를 달성했다. 특히 '상식능력(HellaSwag)'과 '추론능력(ARC)' 테스트 점수는 각각 91.88점, 77.47점을 최초로 받으며 기존 기록을 경신했다. 솔트룩스 관계자는 "자체 연례 행사인 올해 솔트룩스 AI 컨퍼런스에서 현재의 루시아를 압도적으로 뛰어넘는 혁신적인 LLM을 공식적으로 선보일 것"이라며 "국내 대표 인공지능 기업으로서 글로벌 AI 시장을 선점할 초격자 경쟁력을 계속해서 확보해 나가겠다"고 말했다.

2024.03.15 16:10이한얼

에스넷시스템, 코난테크놀로지와 자체 LLM 구축 전망

에스넷시스템(대표 유홍준, 장병강)이 협력을 통해 자체 LLM을 구축할 전망이다. 에스넷시스템은 코난테크놀로지(이하 코난)와 AI 관련 사업 협력을 위한 업무협약(MOU)을 체결했다고 15일 밝혔다. 이번 업무협약은 AI 시스템 구축 및 AI 솔루션 공동개발을 통해 상호 시너지를 창출하고 사업 성장 동력을 확보하기 위함이다. ▲AI 솔루션 상호 협력 ▲AI 인프라 부문 공급, 설치 및 기술지원 ▲AI 플랫폼, 솔루션 부문 지원을 주요 골자로 하고 있다. 에스넷시스템이 AI 인프라, GPU 클라우드 서비스 그리고 아마존웹서비스(AWS), 삼성 클라우드 플랫폼(SCP) 등 클라우드 관련 부문을 지원하고, 코난테크놀로지가 대규모 언어 모델(LLM), 생성형 AI 등의 AI 솔루션 부문을 지원한다. 에스넷시스템은 AI 에너지 최적화 솔루션과 코난LLM을 대표적으로 코난테크놀로지의 생성형 AI솔루션과 함께 협업할 예정이다. 양사의 솔루션 협업을 통해 새로운 부가가치를 만드는 솔루션을 개발하겠다는 방침이다. AI 인프라 부문 지원을 위해 GPU 서버 및 클라우드, GPU 네트워크 뿐만 아니라 테스트 및 PoC용(기술검증용) GPU 서버까지 아우르는 공급, 설치 및 기술지원을 제공할 계획이다. AI 플랫폼, 솔루션 부문도 지원한다. 구체적으로 AI 인프라 운영 관리 플랫폼과 어플리케이션 개발 플랫폼을 제공할 예정이다. 유홍준 에스넷시스템 대표는 “에스넷시스템이 AI사업을 지속 강화해 나가는 과정에서 인공지능 소프트웨어 전문기업인 코난테크놀로지와 업무 추진하게 되어 뜻깊게 생각한다”며 “이번 협약을 통해 도출된 역량을 활용하여 경쟁력 있는 AI 인프라 및 솔루션 서비스를 선도할 예정”이라고 말했다. 김영섬 코난테크놀로지 대표는 “IT산업을 선도하는 에스넷시스템과 AI 관련 사업을 함께하게 되어 기쁘다”며 “코난테크놀로지가 가지고 있는 AI 기술과 역량을 기반으로 에스넷시스템과 긴밀히 협력하여 앞으로는 AI 시장에서 유의미한 성과를 도출할 수 있도록 노력하겠다”고 밝혔다.

2024.03.15 11:22남혁우

[기고] 생성형 AI 도입, 기업이 반드시 유념해야 할 두 가지 전략

생성형 AI 모델에 대한 뜨거운 관심은 이제 다방면으로 확산되고 있다. 지난 해 까지만 해도 변호사 자격시험 통과나 다양한 주제의 학술 논문 작성은 물론, 정보 검색 지원 등 놀라운 신기능이 화제의 중심이었다. 이제 우리는 생성형 AI가 텍스트 생성과 SQL 쿼리 생성, 코드 작성, 심지어는 예술작품 제작은 물론, 기업의 제품 지원에 이르기까지 거의 모든 분야의 작업을 수행하는 것을 목격하고 있다. 생산성과 수익을 향상시킬 수 있는 방법을 늘 고민중인 기업 경영진의 마음을 생성형AI가 사로잡고 있다고 해도 과언이 아니다. 실제 우리 기업들은 이제 향후 어떤 업무에 생성형 AI의 어떤 기능을 더 추가적으로 도입할 지 심각하게 고민하고 있는 상황이다. 기업은 생성형 AI 기능을 원하는 업무에 도입해 비즈니스 결과를 개선하려면 우선적으로 중요한 원칙을 되새겨야 한다. 즉 해당 AI기능이 자사의 비즈니스 적용업무에 통합되어 그에 적합하고 정확한 결과를 제공하는 대상 모델은 무엇인지 정의하는 것과, 그에 맞게 해당 인프라를 설정하고, 모델을 선택, 맞춤화하고 배포를 어떻게 할 것인지 대한 기획이다. 이와 같은 원칙과 전제하에 기업이 생성형 AI를 도입해 자사의 비즈니스를 향상시키는 방안은 두 가지로 구분할 수 있다. 애플리케이션에서 AI 서비스 및 데이터와 인프라 전반을 아우르는 '풀스택 AI'의 활용 전략과 '특정 비즈니스 업무에 적합한 맞춤형 서비스 활용'이 그것이다. 풀스택 AI 활용과 그 경험을 구현하는 방법은 무엇인가? 이는 생성형 AI에 대한 시스템 차원의 '총체적인 접근방식'으로, 기업이 AI 구현을 위해 필요로 하는 기술 전반을 통합한 환경을 의미한다. 이와 관련해 기업은 자사의 온프레미스(구축형)와 퍼블릭 클라우드로 운영되는 IT시스템 환경의 전반에서 애플리케이션과 서비스, 데이터 및 인프라를 아우르는 단일한 AI 솔루션 적용을 통해 AI의 ROI(투자대비효과)를 거둘 수 있다. 보통 기업에서는 AI 프로젝트를 진행할 경우 여러 곳에 편재한 단편적인 부분과 툴을 결합하는 방식으로 AI를 구현한다. 이와 달리 풀스택 접근방식은 기업 핵심 애플리케이션의 사용 경험에 생성형 AI 기술을 접목할 수 있는 기술력을 갖추고 있다는 장점이 있다. 덕분에 기업은 자사 애플리케이션에 필요한 생성형 AI 기술을 획기적으로 간단히 통합할 수 있다. 필자가 속한 오라클 역시 기업이 생성형 AI를 성공적으로 구현하기 위해 정말 필요한 것이 무엇인지에 대해 고민하면서 생성형 AI에 대해 이러한 총체적인 접근 방식을 취하고 있다. 또한 데이터베이스에 탑재된 AI 기반 운영 자동화 및 벡터 검색 기능은 기업이 추가적인 개발의 노력을 들이지 않아도 데이터베이스 관리 업무와 앱 개발 과정을 대폭 간소화하고 정확도 높은 모델을 지원할 수 있어 비용 절감을 돕는다. 오라클은 자사의 서비스형 소프트웨어(SaaS)에서 시작해 이러한 AI 기술이 접목된 풀스택 서비스와 함께 광범위한 미세 조정 모델 및 즉시 사용 가능한 검색 증강 생성(RAG)을 통해 기업의 차별화된 AI 전략을 지원하고 있다. 두 번째로, 생성형 AI가 기업 내의 다양한 활용을 지원하기 위해 미세 조정 또는 RAG 기술을 통해 대형 언어 모델을 현업 요구 사항에 적합하도록 맞춤화해 제공하는 방안이다. 이 중 '미세 조정'은 대형 언어 모델에 기업의 내부 정보, 지식 문서 등을 학습하는 것으로, 여기에는 많은 시간과 비용이 든다. RAG 기술은 이러한 미세조정을 돕기 위한 기술이다. 데이터 사용자와 자연어 기반의 대화 맥락 속에서 질의를 SQL 쿼리로 자동 변환하고 기업 보유의 벡터 데이터베이스와 연동을 통해 의도에 맞는 답변을 제공한다는 점에서 비용 효과성을 더 높은 수준으로 향상시켜준다. 한 예로 기업의 한 사용자가 RAG 기술을 탑재한 에이전트에 병가에 대한 인사(HR) 정책을 요약해서 알려 달라고 요청할 경우, 모델은 RAG를 통해 기업 HR 정책과 관련된 내부 문서에서 연관 있는 문단을 추출해 내어 자연어 대응 답변을 출처 문서에 대한 하이퍼링크와 함께 맞춤형으로 제공할 수 있다. 향후에는 사용자의 요청에 따라 기존 문서 편집과 같은 후속 조치까지도 지원할 것으로 기대된다. 이처럼 기업 업무의 특수한 맥락에 정교한 성능을 제공하는 생성형 AI 기술은 고객 서비스 자동화를 비롯해 개인화된 마케팅이나 가상 세일즈맨 역할, 계약서 작성, 경쟁사 및 고객 모니터링 등 비즈니스의 많은 영역에 적용해 가치를 창출할 수 있을 것으로 기대되고 있다. 성공적인 생성형 AI 구현은 인프라에 대한 총체적인 접근방식과 더불어, 생성형 AI 모델의 실제 비즈니스 적합성에 달려 있다. 이 두 가지 전략을 함께 고려하고 운용할 수 있을 때 비로소 기업은 생성형 AI 와 관련된 여정을 단계별로 차근차근 밟아 나가며 혁신을 가속화하고 고도화 할 수 있을 것이다.

2024.03.14 15:27나정옥

지니언스, 글로벌 사업 순항..."세계 시장서 연이은 수주"

지니언스가 글로벌 시장에서 고객사 확보를 이어가며 경쟁력을 입증하고 있다. 지니언스는 최근 미국·중동·남미·동남아 지역에 네트워크 보안 솔루션 '지니안 NAC(Network Access Control)'를 잇따라 공급했다고 12일 밝혔다. 주정부 기관 포함 금융, 의료, 방산, 항공, 유통 등 고객 분야도 다양하다. 양적인 성장뿐 아니다. 글로벌 가구 유통 기업은 과거 온프레미스(구축형) 형태의 NAC를 도입해 활용 중이었으나, 전체 매장으로 확대 적용하는 과정에서 클라우드 기반 구독형 모델로 전환했다. 재택·원격 근무 확산 등으로 IT환경이 복잡해지면서 '클라우드 NAC'에 대한 관심은 더욱 높아졌다. 지니언스는 초기 도입 비용·관리에 어려움을 겪는 중소기업(SMB)부터 다국적 기업까지 다양한 글로벌 고객층에 구독형 모델 '클라우드 NAC'를 제공했다. 지니언스는 이번 수주를 통해 올해 글로벌 고객사도 다수 확보했다. 현재 지니언스 글로벌 고객은 100곳을 넘어섰으며 ▲딜로이트 그룹을 포함한 전 세 주요 글로벌 파트너와 협업 ▲고도화된 클라우드 서비스 제공 ▲주요 국가에서 시행되는 사이버 보안 전시회 참가 등을 통해 글로벌 시장에서 입지를 한층 더 강화하고 있다. 김계연 지니언스 CTO·미국법인장은 "해외 기업들로부터 지속적인 제품 문의가 이어지고 있으며, 최근 잠재력이 높은 중동 지역 고객 추가 확보에도 성공했다"며 "정부 정책과의 시너지로 더 많은 사업 기회를 발굴해 글로벌 정보보호 시장에서 입지를 다질 것"이라고 말했다.

2024.03.12 10:12이한얼

스노우플레이크, 미스트랄AI와 협력…'미스트랄 라지' 모델 제공

스노우플레이크는 최근 프랑스 AI 솔루션 제공업체 미스트랄AI와 파트너십을 체결했다고 11일 일 발표했다. 이 파트너십은 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스의 미스트랄AI의 시리즈 A 투자를 포함한다. 양사의 협력으로 스노우플레이크 고객은 미스트랄AI가 가장 최근에 선보인 플래그십 대규모 언어 모델(LLM)인 '미스트랄 라지'를 스노우플레이크 데이터 클라우드 플랫폼에서 적용할 수 있다. 미스트랄AI의 기본 모델인 '미스트랄 7B'와 오픈 소스 모델 '믹스트랄8x7B'에도 액세스할 수 있다. '미스트랄 라지'는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능하다. 기존 생성형 AI 모델과 '대규모 다중 작업 언어 이해 측정(MMLU)' 비교함에서 뛰어난 성능을 입증하며 챗GPT-4에 이어 API를 통해 사용 가능한 모델 중 2위를 차지하기도 했다. '미스트랄 7B'는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이다. '믹스트랄 8x7B'는 대부분의 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄AI의 모델들은 '스노우플레이크 코텍스'에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다. 스노우플레이크 지난해 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타 '라마2' 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 복잡한 GPU 관리 대신 사용자의 AI 활용도를 넓히기 위해 엔비디아와 적극적으로 협력하고 있다. 스노우플레이크 코텍스는 엔비디아 트라이튼 추론 서버를 활용해 풀스택 가속 컴퓨팅 플랫폼을 제공하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되며 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 슈리다 라마스워미 스노우플레이크 신임 CEO는 “스노우플레이크는 미스트랄AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 됐다”며 “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 밝혔다. 아르튀르 멘슈 미스트랄AI 공동창립자 겸 CEO 는 “스노우플레이크의 보안, 개인 정보 보호 및 거버넌스에 대한 원칙은 누구나 어디에서든 혁신적인 AI를 활용할 수 있도록 하겠다는 미스트랄AI의 포부와 맞아떨어진다”며 “미스트랄AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”고 강조했다. 그는 “스노우플레이크 데이터 클라우드에서 미스트랄AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 덧붙였다. 스노우플레이크는 고객, 데이터 클라우드 생태계는 물론, 기술 커뮤니티 전체에 대한 AI 혁신을 위해 노력하고 있다. 이에 스노우플레이크는 최근 개발자, 연구원 및 조직이 개방적이고 안전하며 책임감 있는 AI를 개발하기 위한 국제 커뮤니티인 'AI 얼라이언스'에 가입했다. AI 얼라이언스를 통해 스노우플레이크는 생성형 AI가 가져올 도전과제와 기회에 대해 전방위적이고 개방적으로 대응하며 누구나 AI 기술을 활용하고 혜택을 얻을 수 있도록 지속적으로 노력할 계획이다.

2024.03.11 10:52김우용

퓨어스토리지, 서비스형 모델에 '셀프서비스' 기능 추가

퓨어스토리지는 스토리지 관리 플랫폼 퓨어1 및 구독형 스토리지 제품군 에버그린 포트폴리오에 새로운 '셀프서비스 기능'을 추가한다고 11일 밝혔다. 이 업데이트는 셀프서비스 기능을 통한 데이터 복원 및 자동화 기능을 확장해 사용자가 서비스형 모델을 더 효율적으로 활용하도록 지원한다. 퓨어스토리지는 고성능 스토리지 하드웨어 연구 및 개발에 집중하며 서비스형 스토리지(STaaS) 및 자동화된 소프트웨어 서비스 제공을 바탕으로 한 종합적인 플랫폼으로 발전해왔다. 이러한 전략적 변화는 효율성, 경제성, 확장성을 두루 갖춘 스토리지 솔루션을 찾는 현대 비즈니스의 변화하는 요구사항들을 충족시키며, 퓨어스토리지의 비전을 실현하는 데 기여하고 있다. 새롭게 선보이는 셀프서비스 스토리지 관리 기능은 에버그린 구독 서비스를 사용 중인 모든 기업 대상 무료 제공된다. 새로 추가된 기능들은 ▲퓨리티 플래시 스토리지 운영 환경에 대한 업그레이드를 자동화하고 ▲데이터 보호와 인보이스 관리 및 ESG 보고서 작성을 단순화하며 ▲파트너 인텔리전스를 향상시키는 등 확장된 소프트웨어를 제공하여 시간 소모가 큰 IT 작업을 줄여준다. 먼저, 향상된 셀프서비스 기능을 통해 셀프서비스 자동 업그레이드가 가능해졌다. 퓨어스토리지의 고객 중 30% 이상이 액티브클러스터를 사용하고 있으며, 이를 위한 퓨리티 운영 환경으로의 업그레이드가 필요하다. 이제 고객은 퓨어1 플랫폼에서 제공하는 셀프서비스 자동 업그레이드 기능으로 업그레이드 과정을 간소화하여 시간을 절약할 수 있다. 데이터 복원 기능도 간소화됐다. 퓨어1을 통해 기업은 자신의 데이터 자산에서 랜섬웨어 이상 징후를 탐지하는 데 AIOps를 활용할 수 있다. 이상 징후 발생 시 고객이 영향을 받은 데이터를 로컬 및 원격으로 복원할 수 있는 스냅샷을 추천하여 몇 시간에서 며칠이 소요되는 번거로운 수동 스냅샷 카탈로그 검토 과정을 생략할 수 있다. 퓨어스토리지는 또한 서비스형 재해복구(DRaaS) 제품을 선보이며 고객이 단 15분 이내에 데이터센터에 재해복구를 구축할 수 있도록 지원한다. VM웨어 환경에서 가상머신(VM)을 운영하는 기업은 이제 퓨어1을 활용해 AWS 클라우드에서 재해 복구를 위한 셀프서비스 환경을 구축할 수 있다. 또한, 퓨어스토리지는 데이터센터의 VM에 태그를 지정해 보호 기능을 강화하는 새로운 자동 등록 기능을 출시했다. 파트너 경험 역시 강화됐다. 퓨어스토리지 파트너는 베타 버전에서 파트너 인텔리전스 및 성과 추적 기능을 통해 향상된 사용자 경험은 물론, 더욱 세분화된 성능을 확보할 수 있다. 이와 더불어 퓨어스토리지는 새롭게 간소화된 인보이스 관리 기능을 통해 파트너와 고객 관계에 부담이 될 수 있는 비용 청구에 대한 추적 기능을 강화하여, 파트너가 고객에게 청구되는 비용을 조정할 수 있는 기능을 강화했다. 마지막으로, 퓨어스토리지는 기업의 지속가능성 규정 준수를 위해 고객의 데이터센터 및 전체 제품군에 대한 요약된 정보와 함께 개선이 필요한 부분을 맞춤형으로 요약한 고위 경영진 대상 ESG 보고서를 제공한다. IT팀이 IT 인프라의 지속가능성 영향을 경영진에게 더욱 효과적으로 전달하고, 기업의 지속가능성 목표를 더욱 잘 달성할 수 있도록 지원한다. 퓨어스토리지 프라카시 달지 디지털경험부문 총괄은 "퓨어스토리지는 고성능 올플래시 스토리지 하드웨어에 기반을 두고, 서비스형 스토리지와 자동화된 소프트웨어 제공을 강조하는 혁신적인 플랫폼으로 발전해왔다”며 “이번 발표는 확장 가능한 셀프서비스 스토리지 솔루션을 통해 현대 비즈니스의 다양한 요구를 충족하기 위한 변함없는 의지를 보여준다”고 밝혔다. 그는 “확장된 셀프서비스 기능은 IT 병목 현상을 제거하고, 전 세계 고객들에게 더욱 향상된 서비스 경험을 제공하는데 기여할 것”이라고 강조했다.

2024.03.11 10:36김우용

kt클라우드, LLM으로 AI디지털교과서 맞춤형 교육 구현

kt클라우드(대표 황태현)가 AI디지털교과서에 학습분석 및 개인별 맞춤형 교육을 구현한다. kt클라우드는 스마트앤와이즈와 'AI기반 학습분석 플랫폼'을 선보인다고 8일 밝혔다. 양사는 지난 해 AI디지털교과서 사업을 위한 업무협약을 맺고, AI디지털교과서 구축에 필요한 AI학습분석 제공 플랫폼을 공동 개발했다. AI디지털교과서는 AI기반 학습 데이터를 수집∙분석하고, AI보조교사와 실시간으로 상호작용하며 학생별로 맞춤화된 교육을 제공하는 것이 핵심이다. 현재 다양한 에듀테크 기업에서 각자의 노하우를 바탕으로 학습 플랫폼을 개발하고 있지만, 대부분 AI기반이 아닌 단순 규칙에 따라 한정적으로 반응하는 룰베이스 방식을 활용하고 있다. kt클라우드는 스마트앤와이즈의 교육 전용 대규모언어모델(LLM) 및 플랫폼 개발을 위해 AI클라우드 인프라를 지원한다. kt클라우드의 AI 인프라는 LLM 학습, 개발에 있어 동적할당 기반의 이용료 과금, 대규모 클러스터링 지원 GPU 인프라를 제공한다. 향후 AI디지털교과서 사업이 확대되면서 늘어날 AI 인프라에 대비해 kt클라우드는 NPU 기반 인프라 공급도 적극 검토하고 있다. 발행사 및 에듀테크 기업은 NPU 이용으로 AI 인프라 이용 부담이 줄어들 전망이다. 스마트앤와이즈는 오랜 경험과 노하우가 축적된 교수학습플랫폼을 통해 교육 LLM을 개발했고, 이를 기반으로 학습자의 성향 및 과제 수행 정보를 분석하여 맞춤형 학습 전략을 제시하는 루츠(Roots) 플랫폼을 선보였다. 실제 교육현장 안착 및 확산을 위해 대구교육대학교와 시범 사업을 진행 중이며 연내 클라우드 보안인증(CSAP) 획득을 추진할 예정이다. 2023년 과학기술정보통신부와 한국지능정보사회진흥원이 주관한 'K-클라우드' 프로젝트에도 선정된 바 있다. 국정원은 '챗GPT 등 생성형 AI 활용 보안 가이드라인에 따라 발행사 및 에듀테크의 오픈AI 이용을 제한하고 있다. 또한 공공 교육에서는 ▲선행학습 ▲할루시네이션(허위정보) 등의 문제로, 객관적으로 검증할 수 있고 제어가능한 교육LLM의 이용이 필수적이다. 스마트앤와이즈 이민주 연구소장은 “CSAP 인증 획득을 통해 공공분야에 AI디지털교과서 제공을 위한 적격성 확보와 발행사의 콘텐츠 기반으로 특화된 교육 LLM을 구축∙제공할 수 있게 될 것”이라고 말하며 “이를 통해 공공분야 오픈 AI이용 제한과 학교 교육에서 엄격히 제한하고 있는 선행학습, 할루시네이션(허위정보) 등의 이슈를 해소할 것”이라고 강조했다. kt클라우드 남충범 본부장은 “다양한 발행사∙에듀테크에게 AI 인프라를 제공하여 사업자들의 이용 부담을 줄이고 효율적인 학습 플랫폼 개발을 적극 지원하겠다”고 말했다. 이어 “특히 AI디지털교과서 사업 및 생태계 활성화를 이끄는 선도 사업자로 앞장서겠다”며 다짐했다.

2024.03.08 10:29남혁우

ETRI, 절차 생성 AI 벤치마크 기술 첫 개발

대형언어모델(LLM)을 기반으로 만들어진 절차 성능을 자동 평가하는 기술이 세계 처음 개발했다. 한국전자통신연구원(ETRI)은 사람이 말로 작업을 명령하면 스스로 작업 절차를 이해하고 계획을 수립해 수행하는 절차 생성 인공지능(AI)의 성능을 자동 평가할 수 있는 로타벤치마크(LoTa-Bench) 기술을 개발했다고 7일 밝혔다. 기존에는 절차 이해 성능 평가를 자동으로 할 수 있는 벤치마크 기술이 없어서 사람이 직접 평가함으로써 손이 많이 갈 수밖에 없었다. 구글 세이캔(SayCan)을 비롯한 기존 연구에서는 여러 사람이 직접 작업 수행 결과를 관찰하고 성공 실패 여부를 투표하는 방법을 채택했다. 이는 성능 평가에 매우 긴 시간과 노력이 들어 번거로울 뿐 아니라 평가 결과에 주관적 판단이 개입하는 문제가 있다. 반면 ETRI가 개발한 로타벤치마크 기술은 사용자의 명령에 따라 대형언어모델이 생성한 작업 절차를 실행하고, 결과가 지시한 목표와 같은지 자동으로 비교해 성공 여부를 판단한다. 평가 시간과 비용을 최소화할 수 있고, 결과가 객관적인 이유다. 연구진은 알프레드(ALFRED) 기반 벤치마크 결과, 오픈AI(OpenAI)의 GPT-3는 21.36%, GPT-4는 40.38%, 메타(Meta)의 라마2(LLaMA 2)-70B 모델은 18.27%, 모자이크엠엘(MosaicML)의 MPT-30B 모델은 18.75% 성공률을 보였다고 밝혔다. 규모가 클수록 절차 생성 능력도 우수했다. 성공률이 20%면 100개의 절차 중 20개를 성공한 셈이다. 성능 평가는 로봇과 체화 에이전트 지능의 연구개발 목적으로 개발된 미국 알렌인공지능연구소(AI2-THOR)와 미국 MIT(버츄얼홈, VirtualHome) 가상 시뮬레이션 환경에서 이뤄졌다. “전자레인지에 차갑게 식힌 사과를 넣어라.”라는 일상적인 가사 작업 지시 명령을 내리고 각 작업 절차를 포함하는 데이터셋으로 평가했다. 또한, 연구진은 새로운 절차 생성 방법을 쉽고 빠르게 검증할 수 있는 로타벤치마크 기술의 이점을 활용해 데이터를 통한 훈련으로 절차 생성 성능을 개선할 수 있는 두 가지 전략도 발견했다. 컨텍스트 내 예제 선별법(In-Context Example Selection)과 피드백 기반 재계획(Feedback and Replanning)이다. 이와함께 파인튜닝을 통한 절차 생성 성능 개선 효과도 확인했다. 소프트웨어 오픈소스로 공개 기업·학교 활용 가능 연구진은 이 기술 개발로 대형언어모델을 이용한 로봇 작업계획 기술의 성능평가 시간과 비용을 대폭 줄일 수 있을 것으로 전망했다. 연구진은 또 관련 소프트웨어를 오픈소스로 공개했다. 기업, 학교 등에서 이 기술을 자유롭게 활용할 수 있다. 최근 대형언어모델은 언어처리, 대화, 수학 문제 풀이, 논리 증명 외에 사람 명령을 이해해 하위 작업을 스스로 선택하고 순서대로 수행해 목표를 달성하는 절차 이해 영역에서도 우수한 성능을 나타내고 있다. 이에 따라 대형언어모델을 로봇 응용과 서비스 구현에 적용하려는 시도가 폭넓게 이뤄지고 있다. 연구진은 국제 인공지능 학술대회인 표현학습국제학회(ICLR)에 논문을 발표하고, 이 기술을 이용한 대형언어모델 총 33종의 절차 생성 성능 평가 결과를 깃허브를 통해 공개했다. 장민수 소셜로보틱스연구실 책임연구원은 “로타벤치마크는 절차 생성 AI 개발의 첫걸음”이라며 “향후 불확실한 상황에서 작업 실패를 예측하거나 사람에게 질문하며 도움을 받아 작업 생성 지능을 지속 개선하는 기술을 개발할 계획”이라고 말했다. 장 책임연구원은 또 “1가구 1로봇 생활 시대의 구현을 위해서는 이 기술이 반드시 필요하다”고 덧붙였다. 김재홍 소셜로보틱스연구실장은 “ETRI는 실세계에서 각종 임무 계획을 생성하고 실행할 수 있는 로봇을 실현하기 위해 파운데이션 모델을 활용한 로봇 지능 고도화 연구개발에 매진하고 있다”고 밝혔다. 이 기술은 과학기술정보통신부와 정보통신기획평가원(IITP)의 “사람중심 인공지능 핵심원천기술 개발 사업”의 일환으로 '스스로 불확실성을 자각하며 질문하면서 성장하는 에이전트 기술 개발' 과제를 통해 수행됐다.

2024.03.07 10:55박희범

머스크가 지원한 플라잉카, 예약 주문만 약 3천 건

미국 항공 스타트업 알레프 에어로노틱스(Alef Aeronautics)가 개발 중인 하늘을 나는 자동차 예약 주문이 약 2천850건이 넘었다고 비즈니스인사이더 등 외신들이 5일(현지시간) 보도했다. 최근 짐 두코브니 알레프 에어로노틱스 공동 창업자이자 최고경영자(CEO)는 2인승 전기수직이착륙기(eVTOL) '모델A'의 예약 주문이 약 2천850대를 넘었다고 밝혔다. 그는 “보잉과 에어버스, 조비에비에이션 등 대부분 전기수직이착륙기를 합친 것보다 더 많이 팔린 역사상 최고 모델”라고 덧붙였다. 모델A 가격은 30만 달러(약 4억원)다. 또 예약 주문을 하려면 보증금 150달러를 내야 한다. 만약 모델A를 예약한 사람 모두가 이 차를 구매하게 된다면, 이 회사의 매출은 8억 5천만 달러(약 1조 1천350억원)가 넘을 것으로 예상된다. 이 회사는 일론 머스크 테슬라 최고경영자(CEO)의 우주기업 스페이스X의 지원을 받아 작년 10월 최초의 100% 전기비행 자동차 '모델A'를 공개했다. 모델A는 1번 충전 시 최대 약 321km 가량 도로 주행이 가능하며 하늘에서는 약 177km의 거리를 날 수 있다. 모델A는 2022년 10월부터 사전 주문이 받고 있으며, 2025년 4분기 차량 생산이 시작될 예정이다. 알레프는 현재 모델A를 비롯해 2035년 출시를 목표로 '모델Z'라고 불리는 3만5천 달러짜리 4인승 세단 자동차도 개발 중이다.

2024.03.06 14:35이정현

파수, '엔터프라이즈 LLM' 출시..."사내 AI 구축 통합지원"

파수가 기업용 sLLM(경량 대형언어모델) 시장에 출사표를 던졌다. 파수는 지난 5일 '파수 ELLM'을 출시했다고 6일 밝혔다. 이 모델은 조직의 특성에 맞는 생성형 인공지능(AI)을 구축해 보고서 작성 및 문서 요약, 내부 데이터 분석, 지식창고 운영, 고객 응대 등 다양한 분야의 업무 생산성과 효율성을 높인다. 파수 ELLM은 고객별 도메인 사전 특화 학습(DAPT)와 태스크별 미세조정(파인튜닝) 학습으로 맞춤형 결과물을 제공한다. 멀티홉 추론 방식을 채택해 사용자 요청을 분석, 태스크를 분류하고 각 태스크별 최적의 프롬프트를 적용하기도 한다. 또 검생증강생성(RAG) 방식으로 필요에 따라 외부 검색 엔진이나 내부 시스템의 검색 기능 등과 연계할 수 있는 확장형 구조인 점도 특징이다. 파수는 해당 모델이 내부구축형(프라이빗, 온프레미스) AI 도입을 고려하고 있지만 AI 학습에 필요한 내부 데이터를 제대로 관리하지 못하고 있는 조직에게 적합하다고 설명했다. 윤경구 파수 전무는 "문서에 대한 높은 이해도를 갖춘 ELLM의 출시를 시작으로 '고객들의 AI 활용을 돕는 AI 기업'으로서 고객이 가장 필요한 솔루션과 서비스를 지속적으로 선 보일 예정"이라고 말했다.

2024.03.06 08:37이한얼

샌즈랩-포티투마루-LG U+, 정보유출 위험 없는 보안LLM 구축

샌즈랩(대표 김기홍)이 정보 유출 위험이 없는 사이버 보안 분야 대규모언어모델(LLM)구축에 나선다. 샌즈랩은 포티투마루, LG유플러스와 사이버 보안 강화를 위한 대규모언어모델(이하 LLM) 기술을 공동 개발한다고 4일 밝혔다. LG유플러스 마곡 사옥에서 진행된 업무 협약식에는 LG유플러스 한영섭 AI기술담당, 포티투마루 김동환 대표, 샌즈랩 김기홍 대표 등이 참석했다. 3사는 이번 협약을 통해 사이버 보안 핵심 4대 분야인 ▲보안 관제 ▲위협 인텔리전스 ▲이상 징후 분석 ▲취약점 식별 등에 특화된 LLM을 구축하고 LLM 배포 체계를 만들기로 했다. 이 체계가 상용화되면 기업들은 LLM을 기업 내부에서 활용하며, 정보 유출 위험을 막을 수 있다. 샌즈랩은 이번협약으로 정보 유출 위험이 없는 사이버 보안 분야 LLM 상용화에 도움이 될 것으로 기대하고 있다. 사이버보안 분야 및 사이버 범죄에 대응할 인공지능(이하 AI) 기술 공동 개발을 통해 관련 사업분야에서 시너지 효과를 기대하고 있다. LG유플러스는 LLM 개발과 고객 정보 보호 안전망 구축 역할을 담당하며, 포티투마루는 사이버 보안 및 범죄 예방에 특화된 LLM 모델링 및 검색증강생성(RAG) 등의 원천 기술 개발, 샌즈랩은 기업 내부 인프라에서 운영 가능한 데이터셋 개발 역량을 제공한다. 샌즈랩은 생성형 AI 기술과 인공지능 모델 학습용 데이터셋을 자사 전반의 보안 서비스와 솔루션에 적용하고 있는 AI 보안기업이다. 전문적인 위협 인텔리전스 분야 서비스를 자연어 형태로 손쉽게 활용할 수 있도록 한 'CTX for GPT'의 GPT 스토어 출시를 비롯해 기업 내부 인프라에서 운영할 수 있는 사이버보안 전문 소형언어모델(sLLM) 'SANDY'를 개발했다. 포티투마루는 기업이 LLM을 도입 시 발생되는 환각, 보안, 비용 문제를 극복하기 위한 전문 산업 분야별 도메인 특화 언어 모델인 'LLM42'를 개발하고 있다. 딥러닝 기반 인공지능 독해 솔루션(MRC42), 검색 증강 생성 솔루션(RAG42) 등을 통해 답변의 신뢰성을 제고하고, 기업 내부 데이터나 고객 정보가 유출되지 않도록 기업용 프라이빗 모드를 지원하며, 경량화 버전의 상용 실현을 통해 초거대 AI 도입 및 운영 비용을 절감할 수 있도록 돕는다. LG유플러스는 LG AI 연구원과 협업해 대규모언어모델(LLM) '익시젠(ixi-GEN)'을 출시할 예정이다. 상반기엔 챗봇의 진화 형태인 'AI 에이전트'를 선보인다. AI 기술을 활용해 차별적 고객 가치를 제공하고 신성장 동력을 만들어 디지털 혁신(DX) 역량을 강화한다는 복안이다. 샌즈랩 김기홍 대표는 “사이버 보안과 AI 기술에 강점을 가진 분야별 전문 기업들의 융합으로 시너지 효과가 극대화될 것”이라며 “샌즈랩만의 데이터셋과 보안 기술력에 포티투마루와 LG유플러스의 고도화된 AI 기술을 결합해 혁신적인 AI 보안 환경을 조성하겠다”고 말했다. 포티투마루 김동환 대표는 “LLM 모델을 활용해 각종 사이버 범죄에 선제적으로 대응할 수 있을 것”이라며 “이번 협력을 통해 국내 보안 기술 수준을 높일 수 있을 것으로 기대한다”고 밝혔다. LG유플러스 한영섭 AI 기술담당은 “LG 유플러스는 이번 협력을 통해 샌즈랩의 보안 기술력과 포티투마루의 AI 기술을 결합하여 사이버 위협으로부터 고객들의 정보를 보호하는 안전망을 구축할 것“이라며, “특히, 고객들의 정보 보호를 최우선으로 하며 사이버 위협에 대하여 보다 안전한 디지털 환경을 조성하겠다”고 말했다.

2024.03.04 16:01남혁우

S2W, 기업용 AI 플랫폼 'S-AIP' 소개 행사 개최

데이터 기업 S2W가 기업용 sLLM 인공지능(AI) 플랫폼 에스에이아이피(S-AIP)를 출시한다. S2W는 S-AIP를 소개하는 행사를 3월 13일 코엑스에서 개최한다고 28일 밝혔다. 이번 행사에서 S2W는 S-AIP의 차별점과 산업에서 실제 활용 사례를 제시할 예정이다. S-AIP의 강점은 제로트러스트 관점에서 설계돼 보안성이 보장되며 다년간의 빅데이터 분석을 통해 실전에서 검증된 안정성과 성능을 보여준다는 점이다. S2W는 사이버 공간의 빅데이터를 AI로 분석하는 전문 기업이다. 지난해 S2W는 한국과학기술원(KAIST)와 공동 연구를 통해 다크웹 빅데이터 분석에 인공지능을 접목한 다크웹 전용 언어모델 다크버트(DarkBERT)를 국제학술지(ACL)에 세계 최초로 공개한 바 있다.

2024.02.28 16:46이한얼

[MWC] 5.5G 원년...화웨이, 지능형 디지털 혁신 고도화

화웨이가 MWC24에서 전 세계 이동통신사업자, 업계 파트너, 오피니언 리더를 초청해 미래 네트워크, 클라우드, 인텔리전스 간 시너지에 대해 논의할 수 있는 '어드밴스드 인텔리전스' 쇼케이스를 운영한다. 화웨이는 산업 전반에서 지능형 디지털 혁신을 촉진하고 활발한 생태계를 구축하는 동시에, 5G 비즈니스 선순환 구조 가속화로 다가오는 5.5G 시대에 대비하는 것을 목표로 하고 있다. MWC 행사장 1홀에 마련된 화웨이 부스에선 모든 것이 지능적으로 연결된 지능형 디지털 세상의 모습을 확인할 수 있다. 미래 지능형 세상 속 디지털 인프라는 일상과 산업, 사회의 모든 영역에 깊숙이 통합될 것으로 예상된다. 화웨이는 MWC24에서 다양한 시나리오를 지원하는 5.5G, F5.5G, Net5.5G 제품과 솔루션을 선보이며 글로벌 이통사, 업계 파트너와 협력해 도전과 기회를 수용하고 미래 지능형 세상을 선도하기 위해 전력을 다하고 있다는 점을 역설했다. 회사는 그간 전 세계 20개 이상 도시에서 이통사가 5.5G 상용 검증, 테스트에 착수할 수 있도록 지원했다. 중동지역에서는 걸프협력회의(GCC) 6개 회원국이 모두 5.5G 10Gbps 속도 검증을 완료하고, 레드캡(RedCap), 패시브 사물인터넷(IoT)과 같은 새로운 서비스를 시범 도입하는 등 5.5G 발전에 대한 공감대를 형성하고 있다. 중국에선 3대 주요 이통사가 모두 핵심 도시에서 5.5G 네트워크 구축을 시작했으며, 연결된 개인, 사물, 차량, 산업, 가정을 위한 서비스를 검토하고 있다. 홍콩 이통사들 역시 C-밴드와 밀리미터파(mmWave)에서 5.5G 10Gbps 속도 테스트 및 검증을 완료하고 5.5G 고정무선접속(FWA) 서비스를 시작했다. 유럽의 경우, 핀란드 이통사들이 상용 네트워크에서 5.5G 기술 검증을 거쳐 10Gbps 이상의 피크 속도를 달성하고 패시브 IoT 기술을 검증했으며, 독일에서는 6GHz 대역을 운영 중인 이통사가 다중 반송파 기술을 사용해 12Gbps의 최고 속도를 달성했다. 화웨이는 이번 MWC에서 통신 파운데이션 모델을 공개할 예정이다. 이 파운데이션 모델은 역할 기반, 시나리오 기반 지능형 앱을 제공해 신속한 서비스 프로비저닝, 정확한 사용자 경험 보장, 도메인 전반의 효율적인 운영, 유지보수에 대한 업계 요구를 지원할 수 있다. 또 이통사가 직원 역량을 강화하고 사용자 만족도를 높이며 종합적으로 네트워크 생산성을 개선할 수 있도록 돕는다. 화웨이 엔터프라이즈 비즈니스 부문은 '산업 인텔리전스 가속화를 위한 선도적 인프라'를 주제로 10가지 산업을 위한 새로운 지능형 디지털 솔루션과 일련의 주력 제품을 공개할 예정이다. 이 자리에서 화웨이는 전 세계 이용자, 파트너와 함께 지능형 디지털 전환에 대한 혁신과 사례를 모색할 계획이다. 올해 MWC에서는 화웨이 디바이스 비즈니스 부문이 선보이는 유행을 한 발 앞선 하이엔드, 기술 중심의 플래그십 제품 라인업을 만날 수 있다. ▲패션 포워드 ▲아름다움의 창조 ▲피트니스, 헬스 등 시나리오 기반 체험 존으로 구성된 부스는 화웨이의 솔루션이 일상생활에 어떻게 새로운 기술을 제공하고 시나리오 기반 경험을 풍부하게 하는지에 초점을 두고 있다.

2024.02.27 14:49김성현

올거나이즈-마키나락스, 금융권 LLM 인프라 최적화 전략 제시

올거나이즈(대표 이창수)가 금융업 실무자들이 LLM 솔루션을 업무에 쉽고 빠르게 적용할 수 있도록 금융권 인공지능(AI) 도입 핵심 사례와 활용 노하우를 공개한다. 올거나이즈는 마키나락스와 '알짜 기업이 쓰는 진짜 AI-금융권 LLM+AI 인프라 최적화 전략'을 주제로 세미나를 개최한다고 27일 밝혔다. 지난 1월 진행된 동명 세미나의 후속으로 진행되는 이번 세미나는 금융권 기업의 AI 실제 도입 사례를 보다 풍부하게 소개할 예정이다. 다음 달 5일 오후 6시부터 9시까지 서울 역삼동에 위치한 창업지원센터인 마루180의 이벤트홀에서 진행된다. 마키나락스의 신민석 이사가 '금융기업의 AI 자원 최적화: 하이브리드 AI 플랫폼의 구축과 운영 전략'을 주제로 강연을 시작한다. 비용 효율성, 운영의 민첩성, 유연성 측면에서 하이브리드 AI 플랫폼의 구축 및 운영 전략을 살펴본다. 금융 분야에서 AI를 활용해 비즈니스 가치를 극대화하고, 규제 준수 요건을 충족하면서도 기술적 유연성을 유지하는 전략을 공유한다. 올거나이즈의 이창수 대표는 '금융권 생성형 AI 프로젝트 성공을 위한 베스트 프랙티스'를 주제로 강연을 진행한다. 금융권 고객들과 실제 협업했던 사례를 중심으로, 금융권에서 첫 번째 생성형 AI 프로젝트를 시작할 때 내부에서 어떤 데이터를 준비하고 어떻게 팀을 꾸려 대응해야 하는지, AI 내재화와 고도화를 위해 지금 바로 사용할 수 있는 생성형 AI 애플리케이션은 어떤 것들이 있는지 등을 설명한다. 패널토론 및 질의응답은 총 1시간 진행된다. 실사례 위주로 진행되는 세미나인 만큼, 강연자 외에도 실제 금융권 AI 도입 프로젝트를 이끌었던 담당자들이 패널로 참여해 실무자들의 궁금증을 해소할 예정이다. 사례의 구체적인 내용에 대한 현장 질문도 가능하다. 올거나이즈에서 실제 금융권 AI 프로젝트를 진행중인 유태하 PM과 이창수 대표가 30분간 토론 및 질의응답을 진행한다. 금융권에서 AI를 도입할 때의 주의점, AI 프로젝트를 효율적으로 운영하고 관리하며 생산성을 혁신할 수 있는 방법 등을 중점으로 이야기 나눌 예정이다. 이어 마키나락스의 신민석 이사와 허영신 CBO가 금융권의 AI 인프라 및 플랫폼 구축에 대한 실제 사례와 장기적으로 비용 및 운영 측면에서 고려해야 할 사항 등에 대해 토론한다. 올거나이즈는 4월 4일 SK텔레콤, 마이크로소프트와 함께 '금융 AI 도입의 핵심 사례'를 주제로 세미나를 개최할 예정이다. 서울 중구에 위치한 SKT 타워에서 오후 3시부터 6시까지 진행된다. 올거나이즈의 이창수 대표는 "2024년은 4대 은행그룹 회장, 은행장들이 2024년 조직 개편과 신년사를 통해 AI 활용 확대를 선언할 정도로 금융업 전반에서 생성형 AI를 적용한 서비스가 확대되는 해"라며, "양사가 금융권 고객 기업과 실제 프로젝트를 진행하며 경험한 노하우를 벤치마킹할 수 있을 것"이라고 밝혔다.

2024.02.27 08:57남혁우

[MWC]유영상 SKT "AI로 시장 판도 바꾸겠다"

“우리는 항상 글로벌에 대한 갈망과 피해의식이 있었다. 통신을 포함해 한국 서비스 기업이 글로벌 스케일을 가진 적이 많지 않다. 제조업은 글로벌 활약이 두드러지는데, 서비스는 왜 글로벌 강자가 탄생하지 못할까 자책도 해봤다.” 유영상 SK텔레콤 사장은 26일(현지시간) 스페인 바르셀로나에서 개막한 MWC24 현장에서 '글로벌 텔코 AI 얼라이언스(GTAA)'에 모인 회사들이 AI 합작법인을 추진키로 한 이유를 묻자 이같이 말했다. 기존과 같은 사업 운영으로는 ICT 시장의 주도권을 되찾기 어려웠지만, 글로벌 통신사들과 AI 협력으로 판도를 바꿀 자신감을 얻게 됐다는 것이다. 이날 SK텔레콤은 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크와 함께 AI 거대언어모델(LLM) 공동 개발과 사업 협력을 수행할 합작법인을 공동으로 설립하기로 했다. AI 언어모델 개발에 SK텔레콤과 뜻을 모은 회사들은 각각 유럽, 중동, 동남아 지역에서 통신사업을 주도하는 회사들이다. 또 소프트뱅크는 혁신 투자에 뛰어난 회사다. "AI 시대 리더십 위해 모였다" 유 사장은 여러 통신사들이 뜻을 모은 과정을 두고 “함께 하는 회사들과 비교하면 (SK텔레콤은) 가입자도 제일 적고 시총도 가장 작은 수준이다”며 “글로벌 강자가 되기 위해서는 동맹 체계를 우선 구축해야 했고, 이들을 설득하는 과정이 어려웠는데 AI(로 인한) 성장 모멘텀이 있어서 가능했다”고 회고했다. 이어, “통신 사업자들이 인터넷이나 모바일(을 통한 ICT 산업 발전) 모멘텀에 적극적으로 나서지 않고 분열됐다가 주도권을 잃게 됐는데, AI 시대에는 그렇게 하지 않았으면 좋겠다는 생각을 모은 것”이라고 설명했다. 그러면서 “챗GPT 등장 후 통신사들이 힘을 모아 제대로 AI 시대에 대응해보자고 생각했다"며 "왜 함께해야 하는지, 또 AI여야만 하는지 질문이 많았는데 (얼라이언스 구축 이후) 1년이 지났고, 이제 모든 기업이 AI를 외치고 있다”고 강조했다. 글로벌 유수의 통신사들과 뜻을 모은 것은 단순히 AI 경쟁력 확보를 넘어 글로벌 AI 강자로 나서겠다는 야심찬 포부인 셈이다. 텔코 LLM, 남들이 가질 수 없는 무기 유 사장은 SK텔레콤 대표 취임 1년이 지난 후부터 'AI 컴퍼니' 비전을 강조해왔다. 본업은 통신이지만 AI로 기존 사업과 신사업을 일구며 일하는 방식도 바꿔야 한다고 강조해왔다. 지난해 MWC에서는 AI 협력사들과 뜻을 모았는데, 지난해 하반기부터는 GTAA를 결성하면서 통신사만의 AI도 갖춰야 한다는 철학에 따라 텔코 거대언어모델(LLM) 구축의 필요성을 외쳤다. 자강과 협력을 키워드로 AI 피라미드 전략을 내세우며 AI 컴퍼니로의 전환 의지는 더욱 커졌다. 유 사장은 “1년 전 거대언어모델(LLM) 매개변수 크기를 따졌다면, 지금은 활용 방안과 어떤 비즈니스모델(BM)을 마련할지 여부에 관심이 쏠리고 있다”며 “텔코 LLM 같은 버티컬(특화형) LLM 발전이 하나의 기업을 넘어 산업 전체에 AI 전환을 불러일으키고, 수익화하는 데 중요한 축이 될 것”이라고 내다봤다. 범용 LLM이 아니라 통신에 특화된 버티컬 LLM은 꾸준한 데이터 학습과 함께, 규모의 경제를 통해 시간이 지나 큰 경쟁력을 가지며 산업 판도를 바꿀 수 있다는 자신감이다. AI 피라미드 전략 주효했다...게임체인저 도약 SK텔레콤의 AI 피라미드 전략에 따르면 데이터센터와 같은 AI 인프라를 갖추고 전 산업 영역에 걸쳐 AI 전환을 추진하며 실제 AI 서비스를 구현해야 글로벌 AI 회사로 성장하는 발판을 다질 수 있다. 구체적인 AI 서비스로 에이닷과 같은 AI 개인비서를 꼽았다. 즉, 통신사가 가장 잘할 수 있는 AI 개인비서(PAA, 퍼스널 AI 어시스턴트)로 글로벌 시장에서도 통할 수 있는 무기를 가지고 승부를 내겠다는 뜻이다. 유 사장은 “에이닷을 비롯한 PAA는 현 AI 시대 흐름과 궤를 같이하고 있다”며 “이는 빅테크의 전유물이 아니라 GTAA에서 서비스가 나올 수 있지 않을까 생각한다”고 말했다. 그는 또 “지금은 한 산업분야에 특화된 LLM이 해당분야의 변화를 이끌어가는 시대”라며, “글로벌 통신사들이 텔코 LLM 등 AI 분야 협력을 통해 시장 변화를 주도하는 게임 체인저가 되려는 것”이라고 강조했다. 그러면서 “기존 혁신에 그치지 않고 국내외 시장에서 과감한 도전을 계속할 것”이라며, “이를 통해 진정한 글로벌 AI 컴퍼니로 거듭날 것”이라고 밝혔다.

2024.02.27 08:00김성현

  Prev 21 22 23 24 25 26 27 28 Next  

지금 뜨는 기사

이시각 헤드라인

AI로 성장 발판 마련한 네카오…새해엔 '수익화' 시험대

[ZD브리핑] 독자 AI 파운데이션 모델 1차 발표...5개팀 기술 뽐낸다

과기부총리제 부활 R&D 새판 짤 기회..."누리호 5차·양자이득 원년 기대"

김범석 쿠팡 의장 "초기 대응·소통 부족 진심 사과"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.