• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'데이터 유출/침해 수준 인덱스'통합검색 결과 입니다. (1419건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[컨콜] 삼성SDS "생성형AI, 물류 전반에 활용하겠다"

삼성SDS는 25일 올해 1분기 실적 컨퍼런스 콜을 열고 "생성형AI를 물류 전반에 활용하겠다"고 밝혔다. 이어 "보안관제 업무와 화물트랙킹 업무도 통합해 효율성을 올리겠다"면서 "물류 데이터에서도 대화형 AI로 추출할 기능을 준비 중이다"고 덧붙였다. 또 "이를 통해 복잡한 물류데이터를 쉽고 빠르게 분석할 것으로 기대한다"고 부연했다.

2024.04.25 14:42이한얼

데이터센터 에너지 절감을 위한 슈퍼마이크로의 제안

전세계적으로 인공지능(AI) 수요가 폭발적으로 증가하면서 데이터센터의 에너지 소비 증가 문제가 대두되고 있다. 생성형 AI의 기반 인프라인 GPU 서버가 그 자체로 대량의 에너지를 소모하고, 서버 발열을 식히기 위한 냉각 시스템도 대량의 에너지를 필요로 하고 있다. 마이클 맥너니 슈퍼마이크로 마케팅 및 네트워크 시큐리티 부사장과 김성민 슈퍼마이크로 FAE & 비즈니스 개발 부문 이사는 최근 본지와 진행한 서면 인터뷰에서 데이터센터의 에너지 소비 문제를 진단하고 그에 대한 슈퍼마이크로의 솔루션을 설명했다. 마이클 맥너니 부사장은 “국제에너지기구(IEA)에 따르면 데이터센터, AI 및 암호화폐 부문의 전력 수요가 2026년까지 두 배 증가할 것으로 예측되며, 이중 데이터센터가 주요인으로 꼽혔다”며 “2022년 전세계 데이터센터는 연간 전력 소비 중 2%에 달하는 460테라와트시(TWh)의 전력을 소비했고, 2026년 1천TWh를 초과할 것으로 전망된다”고 설명했다. 그는 “데이터센터에서 냉각 시스템과 서버는 주요 전력 소비원으로, 일반적으로 각각 전체 소비량의 40%를 차지하며 나머지 20%는 전원 공급 시스템, 스토리지, 통신 장비가 사용한다”며 “ 2023년 전 세계 전력 생산으로 인한 CO2 배출량은 1만3천575 톤에 달했으며, 한국과 일본의 경우 728 톤을 배출했는데, 이는 데이터센터의 전력 사용량을 감축했을 때 환경에 미치는 영향 또한 줄일 수 있음을 의미한다”고 밝혔다. 그는 “기후 변화가 점점 더 악화될 것으로 예상되는만큼 데이터센터의 환경 영향을 저감하기 위한 조치를 취해야 할 때”라며 “서버 기술의 발전 및 가용 범위의 증가에도 불구하고 대부분의 서버는 최대 성능에 훨씬 못 미치는 수준으로 실행되고, 가장 효율적인 서버도 약 50% 정도의 성능만만 발휘하며 에너지 낭비를 초래한다”고 덧붙였다. 환경단체뿐 아니라 정부, 기업 등도 데이터센터의 에너지 소비 증가 문제를 심각하게 여기고 있다. 하지만 투자평가사의 기업 ESG 평가 체제 중 IT 인프라에만 초점을 맞춘 구체적인 표준 등급이나 측정 항목은 없다. 다만 에너지 효율성, 재생 에너지 사용, 탄소 발자국, 전자 폐기물 관리, 공급망 영향, 데이터 보안 및 개인정보 보호 등 다양한 요소가 기업의 지속가능성 달성에 대한 평가 중 일부분으로 고려된다. 맥너니 부사장은 “슈퍼마이크로는 많은 제품의 제품 탄소발자국(PCF) 리포트를 최적화하기 위해 노력하고 있다”며 “다만 광범위한 포트폴리오로 인해 많은 시간이 필요해 요청에 따라 준비하고 있고, 여러가지 EPEAT 인증도 진행하고 있으며, 이는 슈퍼마이크로 및 EPEAT 웹사이트에 게시될 예정”이라고 밝혔다. 생성형 AI에서 고집적 GPU 클러스터의 급증에 따른 데이터센터 에너지 소비문제는 매우 심각하다. 마이클 맥너니 부사장에 의하면, 하이퍼스케일 데이터센터 하나에서 서버, 스토리지, 그리고 네트워킹 인프라를 원활히 작동하기 위해선 100메가와트(MW)의 전력을 필요로 한다. 이는 미국 8만 가구에 전력을 공급할 수 있는 양이다. 그는 “지정학적 여건에 따라 차이는 있지만 세계 각지에서 생산하는 전기 중 약 80%가 석탄, 가스, 석유 등 화석 연료를 연소하는 방식으로 만들어지고 있다”며 “일부 데이터센터와 이를 운영하는 기업이 재생 가능한 에너지로의 전환 또는 화석 연료 소비 감축을 위한 목표를 세우고 있으나, 데이터센터는 여전히 화석 연료를 태우는 전력망을 상당량 사용해 에너지 수요를 충족하고 있다”고 설명했다.. 그는 워크로드에서 에너지를 절감할 수 있는 방안으로 워크로드에 적합한 규모의 시스템 사용, 멀티 노드 및 블레이드 효율성 향상, 주요 서버 시스템의 구성 요소 선택 및 최적화, 서버 시스템 구성 요소의 교체 주기 늘리기 등을 제시했다.  맥너니 부사장은 “데이터센터 내 각 워크로드에 적합한 서버를 선택하면 전력 소비를 크게 줄일 수 있다”며 “최적화된 서버 시스템은 워크로드 요건에 맞춰 불필요한 처리를 최소화하며, 에너지 효율적인 설계와 부품 공유를 특징으로 하는 최신 서버는 와트당 처리량이 많아 전력 사용량을 줄인다”고 설명했다. 그는 “맞춤 설계는 불필요한 기능, 비용, 열 발생을 줄인다”며 “고속 CPU나 광범위한 I/O 기능을 요구하는 등 각 워크로드에 따라 맞춤화 된 서버가 과도한 용량 및 비용을 줄일 수 있다”고 덧붙였다. 다수의 노드에서 전원 공급 장치 및 팬과 같은 리소스를 공유해 부품 중복을 줄이고, 더 크고 효율적인 부품을 사용 가능하도록 함으로써 서버 시스템의 효율성을 높일 수 있다고 그는 강조했다. 그는 “이를 통해 모든 노드가 작동 중일 때 전력 소비를 줄일 수 있다”며 “또 다른 방법은 독립 서버가 네트워킹, 전원 공급 장치, 팬을 공용함으로써 랙 공간 및 케이블을 줄이는 것으로, 이는 공랭식 서버의 에너지 절약에는 케이블로 인한 공기 흐름 방해를 최소화하는 것이 중요하기 때문”이라고 설명했다. 이어 “특히 통합 스위칭 서버의 경우 일반적으로 연결 케이블 수가 적어 섀시 내외부에 전략적으로 케이블을 배치하면 에너지 효율 향상에 도움이 될 수 있다”며 “예를 들어, 1U 랙 마운트 서버 20대 대비 8U 섀시에 블레이드 20개가 탑재된 최신 블레이드 시스템은 케이블이 95% 감소하며, 공기 흐름 개선 및 팬 속도 감소로 인해 전기 사용량도 줄어든다”고 밝혔다.. 주요 서버 시스템의 구성 요소 선택 및 최적화 에 대해선 하드웨어와 워크로드 및 서비스수준협약(SLA) 준수율까지 고려해 새 서버 하드웨어를 구매해야 한다고 했다. 애플리케이션 실행에 소비되는 전력을 줄일 수 있다는 이유다. 그는 “CPU와 GPU 설계가 발전함에 따라 최신 서버의 와트당 성능은 최대 3배 높아지므로, 데이터센터의 서비스를 확장하면서도 필요한 전력량을 유지 또는 감축하려 할 때 도움이 된다”며 “CPU의 경우 코어 수, 클럭 속도, 전력 소모량, 캐시 크기 등의 옵션이 전기 사용량 및 열 출력에 직접적인 영향을 미친다”고 설명했다. 그는 “이메일 서버와 같이 처리 시간이 유연한 워크로드의 경우 저전력 CPU로도 충분할 수 있으며, 데이터베이스 작업과 같이 완료 속도가 중요한 작업에는 고성능 CPU가 적합하다”며 “GPU 같은 가속기는 특정 작업에서 성능을 향상시켜 작동 시간 및 전력 비용을 줄일 수 있는데, 하드 디스크 드라이브(HDD)에서 솔리드 스테이트 드라이브(SSD)로의 전환 시, 특히 I/O 집약적인 애플리케이션에서 데이터 검색 시간 및 전력 소비량이 줄어들며 이는 서버 운영의 전반적인 에너지 효율성에 기여한다”고 했다. 현재 아마존웹서비스(AWS), 마이크로소프트, 구글 등은 자사 데이터센터의 서버시스템 구성요소의 사용연한을 느려 시스템 교체주기를 늦추고 있다. 애플리케이션이 AI 학습이나 콘텐츠 전송 네트워크 등에 더 많은 데이터를 소요함에 따라 서버는 가격과 성능 측면에서 지속적으로 강화돼야 하지만, 서버 구성 요소는 각기 다른 속도로 발전하기 때문에 교체 주기가 서로 일치하지 않을 가능성이 있으며 전자 폐기물로 이어진다. 맥너니 부사장은 “이 때 분리형 방식을 사용한다면 최신 기술이 출시될 때마다 구성품 또는 하위 시스템을 개별적으로 교체할 수 있고, 그 결과로 서버를 통째로 폐기하는 일이 줄어든다”며 “잘 설계된 섀시는 전체가 아닌 각 구성 요소를 기술 주기에 따라 매끄럽게 교체할 수 있다”고 했다. 그는 “서버의 경우 다양한 CPU와 GPU를 수용하도록 설계된다면 전체 유닛을 폐기하지 않고 선택적으로 구성 요소를 업그레이드할 수 있다”며 “이러한 접근 방식은 환경에 미치는 영향을 최소화하는 동시에 서버가 발전하는 기술 요건에 맞춰 최신 상태를 유지하도록 보장한다”고 강조했다. 전세계적으로 데이터센터 에너지 소비 절약에 대한 관심과, 실천 정도는 어느정도일까. 국제에너지기구(IEA)에 따르면 2022년 전 세계 데이터센터에서 소비한 전력량은 460TWh에 달한다. 이는 전체 에너지 소비량 중 약 2%를 차지한다. 이로 인해 주요 국가들은 데이터센터에 대한 에너지 효율 규제를 도입하고 있다. EU는 2023년 10월 'EU 에너지 효율 지침(EED)'를 개정하며 이러한 변화를 선도하고 있다. EED는 2012년에 처음 채택되었으며, 에너지 효율 목표 달성을 위한 규칙 및 의무를 다루고 있다. 이번 개정은 EU가 2030년까지 2020년 기준치 대비 에너지 소비를 11.7% 추가 감축하기로 합의함에 따라 이루어졌다. 연간 에너지 절감 목표는 2023년 0.8%에서 2024년 이후 1.3%, 2030년 1.9%로 증가한다. 김성민 이사는 “세계적인 추세에 따라 우리나라도 구체적인 정책을 시행하기 시작했다”며 “정부가 건물 에너지 관리를 위해 도입한 제로에너지건축물(ZEB) 인증제도가 대표적인 예”라며 “ZEB는 건물의 에너지 부하를 최소화하고 신재생 에너지를 사용해 에너지 소비를 최소화하는 친환경 건축물로, 2017년부터 인증제도를 시행했다”고 설명했다. 그는 “2020년부터 연면적 1000m2 이상의 공공건축물에 의무화됐으며, 이는 민간 건축물까지 확장될 예정”이라며 “민간 데이터센터는 2025년부터 일정량의 재생에너지를 의무적으로 사용해야 한다는 의미로,. ZEB인증은 1) 에너지 효율 등급 1++ 이상, 2) 에너지 자립률 20% 이상, 3) 건물 에너지 관리 시스템(BEMS) 또는 원격 전자 계량기 설치 등을 기준으로 한다”고 했다. 그는 “이러한 정책의 확대는 기업들이 보다 적극적으로 데이터센터의 에너지 소비를 감축하는 데 동참할 수 있도록 장려할 것”이라며 “결과적으로, 전체 전력 소비의 40%를 차지하는 냉각 시스템에 대한 관심이 높아지고, 보다 효율적인 칠러 선택의 중요성도 강조될 것”이라고 덧붙였다. 슈퍼마이크로는 데이터센터 리소스 최적화를 위한 표준화와 비즈니스 경쟁력을 위한 유연성 간의 균형을 맞추기 위해 노력하고 있다. 슈퍼마이크로의 메가DC 및 클라우드DC 제품군은 차세대 하이퍼스케일 데이터센터를 위한 핵심 솔루션으로 제시된다. 버전 관리를 위한 OpenBMC, OCP3.0 SFF 표준을 지원하는 AIOM 모듈, 전력 최적화 설계를 비롯한 개방형 규격의 확장된 지원을 통해 데이터센터 운영자는 기존 인프라를 개조하지 않고도 개방형 컴퓨팅 개념의 이점을 누릴 수 있다고 회사측은 강조한다. 맥너니 부사장은 “슈퍼마이크로의 AIOM은 OCP3.0을 준수하고 향상된 기계 설계는 섀시를 열지 않고 서비스 및/또는 교체가 가능하도록 해 서비스 및 유지보수가 용이하다”며 “AIOM/OCP 3.0을 지원하는 플랫폼은 향상된 열 제어 기능으로 냉각 비용 절감이 가능하며, 소형 폼 팩터에 다양한 네트워킹 옵션이 제공되므로 간편한 구축이 가능하고, 열 효율이 높은 구성 요소를 갖춰 관리와 서비스가 간편하다”고 밝혔다. 그는 “슈퍼마이크로는 OCP 3.0 설계 개념을 활용해 아키텍처에 AIOM을 구현했을 때 아키텍처가 개선된 기성 표준 솔루션을 제공한다”고 덧붙였다.: 슈퍼마이크로의 AIOM 카드는 마더보드 상단에 수직 또는 수평으로 설치되는 기존 PCI-E와 달리 마더보드와 동일한 레벨에 설치되도록 설계됐다. 이로 인해 시스템 전체의 공기 흐름을 크게 증가시켜 열 관리를 개선한다. 기존 PCI-E 카드는 상단에 설치되어 설치 및 교체 시 섀시 상단을 열어야 하는 반면, AIOM 카드는 섀시 후면에서 설치되기 때문에 번거로운 작업이 필요하지 않으며, 풀 탭과 나사 노브로 인해 별도의 도구 없이 서비스 가능하다. 맥너니 부사장은 “슈퍼마이크로는 소형 폼 팩터(SFF), 열 효율성, 손쉬운 서비스 가능성, 그리고 OpenBMC 구현을 통해 서비스 시간을 단축하고 시스템 다운타임을 최소화하는 솔루션을 제공한다”며 “서버부터 랙, 데이터센터 규모까지 AIOM 탑재 솔루션을 도입한다면 인프라가 확장되는 만큼 TCO도 개선된다”고 밝혔다. 2018년 슈퍼마이크로는 실리콘밸리에서 최초로 청정 연료전지 에너지를 사용한 첨단 시설 '빌딩 21'을 공개했다. 이 시설은 로봇을 이용해 60대의 랙을 자동으로 한 번에 번인할수 있는 시설을 갖췄으며, 대규모 데이터센터에 필요한 장비를 신속하게 조립, 공급, 설치할 수 있다. 그는 “약 1만9천 제곱미터 규모의 건물에 생산 라인, 테스트 시설, 번인 시설, 랙 조립 시설이 갖춰져 있고, 슈퍼마이크로는 이와 같은 최첨단 시설을 통해 서버 구축 및 테스트부터 공급 단계까지의 엔드 투 엔드 프로세스를 관리하는 것은 물론, 에너지를 대폭 절약하고 환경 오염을 효과적으로 줄이는 데 앞장서고 있다”며 “빌딩 21을 통해 슈퍼마이크로는 향후 10년간 약 800만 달러의 에너지 비용을 절감할 수 있을 것으로 예상한다”고 강조했다. 슈퍼마이크로는 전세계적인 데이터센터 현대화 추세 속에서 강세를 보이며 급성장하고 있다. 맥너니 부사장은 '그린 컴퓨팅'에 초점을 맞춘 투자와 역량 강화에 있다고 했다. 그는 “전 세계 전력 수요의 1%에서 1.5%까지 소비하는 오늘날의 데이터센터에 그린 컴퓨팅은 매우 중요하다”며 “슈퍼마이크로의 완벽한 랙 스케일 수냉식 솔루션은 기존 냉각 방식의 필요성을 크게 낮추며, 공급 장치와 펌프는 핫스왑 및 이중 전원이 가능해 장애 발생 시 고성능 AI 및 HPC에 최적화된 서버의 랙 전체를 효율적으로 냉각할 수 있다”고 밝혔다. 그는 “이러한 솔루션은 CPU와 GPU 모두에 맞춤 설계된 콜드 플레이트를 사용해 기존 설계보다 효율적으로 열을 제거한다”며 “슈퍼마이크로 기술로 데이터센터 PUE를 1.0에 가깝게 낮출 시 30개의 화석 연료 발전소 건설을 하지 않아도 되며, 그로 인해 최대 100억 달러의 에너지 비용을 절감할 수 있다”고 설명했다. 슈퍼마이크로의 서버는 성능 대비 적은 전력을 사용하도록 설계됐다. 이는 가능한 경우 부품을 공유하는 설계를 통해 이뤄진다. 또한 슈퍼마이크로 서버는 전체 섀시 전체를 교체하지 않고 CPU, 메모리, 스토리지 등 개별 하위 시스템을 업그레이드할 수 있도록 설계됐다. 이러한 분리형 설계를 사용하면 전자 폐기물을 크게 줄이고 새로운 기술을 도입할 때 비용을 절감할 수 있다. 그는 “슈퍼마이크로 그린 컴퓨팅의 핵심은 슈퍼마이크로가 전력 소비를 줄이는 엔비디아, 인텔, AMD 등의 최신 CPU 및 GPU 기술을 통해 최첨단 서버와 스토리지 시스템을 설계, 제조 가능하게 한다는 것”이라며 “슈퍼마이크로의 혁신적인 랙 스케일 수냉식 냉각 옵션을 통해 데이터센터 전력 사용 비용을 최대 40%까지 줄일 수 있다”고 밝혔다. 그는 “엔비디아 HGX H100 8-GPU 서버를 탑재한 슈퍼마이크로의 대표 GPU 서버는 AI 워크로드로 인해 수요가 지속 증가하고 있다”며 “슈퍼마이크로는 전 세계 통틀어 매월 5천 개의 랙을 출하할 수 있으며, 그 결과 매출 200억 달러 달성을 향해 성장할 것으로 기대된다”고 강조했다.

2024.04.25 13:17김우용

효성인포메이션시스템, 국내 하이엔드 스토리지 10년째 1위

효성인포메이션시스템(대표 양정규)은 25일 서울 사옥에서 기자간담회를 열고 IT 시장분석 및 컨설팅업체 IDC의 분기별 외장형 스토리지 시스템 시장조사(2023 Q4)에서 히타치 밴타라가 작년 국내 하이엔드 스토리지 시장 매출액 기준 42.2%로 시장점유율 1위를 기록했다고 밝혔다. 히타치 밴타라 국내 영업을 담당하는 효성인포메이션시스템은 10년 연속 국내 하이엔드 스토리지 시장 1위라는 대기록을 달성했다. 권필주 효성인포메이션시스템 SA팀 전문위원은 “기업용 하이엔드 스토리지라면 저장 장치의 가용성을 99.9999%로 보장하고 높은 성능과, 용량, 확장성 등을 지원하는 것으로 정의된다”며 “효성인포메이션시스템은 여기에 프리미엄을 더해 24시간 365일 원격서비스 지원, 장애 시 4시간 이내 현장 지원, 실시간 액티브-액티브 데이터센터 재해복구, 가용성 99.999999% 등까지 제공하는 것을 하이엔드라 정의하고 있다”고 설명했다. 권필주 위원은 “히타치 벤타라와 효성인포메이션시스템이 하이엔드 시장에서 1위를 유지하는 비결은 100% 데이터 가용성 보장, 앞선 기술력, 맞춤형 고객 지원능력 등의 요소 때문”이라며 “데이터 가용성 100% 보장 프로그램을 23년째 운영하고, 이기종 스토리지 가상화, 실시간 비동기식 복제, 액티브액티브 미러링 같은 독보적 기술력, 고객사별 전담 엔지니어와 전국단위 밀착 서비스 등이 그 비결”이라고 강조했다. 하이엔드 스토리지는 주로 기업에서 핵심 업무 시스템의 데이터를 저장하는 용도로 쓰인다. 특히 고성능으로 거래를 처리하고 정합성을 유지해야 하는 관계형 데이터베이스 시스템의 저장소가 핵심이다. 때문에 하이엔드 스토리지는 데이터 손실을 없애고 서비스 무중단을 유지하는 것을 요건으로 한다. 효성인포메이션시스템은 2001년부터 데이터 가용성 100% 보증 프로그램을 운영하고 있다. 가트너의 크리티컬 캐머필리티 리포트의 RAS 부문에서 10년째 1위를 유지하고 있다. 기술적으로 2004년 이기종 스토리지 가상화(UVM)를 선보이며 타 벤더 스토리지 환경도 히타치 벤타라 스토리지 환경에서 통합 운영할 수 있게 했다. 2014년엔 액티브-액티브 미러링을 발표하고 재해복구 솔루션으로 가장 먼저 구현해 100개 이상의 고객사례를 확보했다. 실시간 비동기식 복제 기술을 통해 원거리 재해복구센터 구현을 실현했는데, 한국과 미국 워싱턴 사이에 DR 환경을 구축한 사례도 만들어냈다. 권 위원은 “최근 Ai 수요로 수도권 데이터센터의 전력 소비량이 포화상태에 도달하면서 정부가 데이터센터를 수도권 외 지방으로 분산하라는 권고를 계속 내고 있다”며 “대전, 천안, 광주, 대구 등으로 데이터센터를 분산하려 할 때 비동기식 복제를 이용하지 않으면 데이터 손실이 일어날 수 있다”고 설명했다. 그는 “손실없이 데이터를 복제해 실시간으로 원격 센터로 보낼 수 있는 유일한 솔루션으로 히타치 벤타라가 선택받고 있다”며 “이 기술은 특허 기술이기에 경쟁사가 동일하게 구현할 수 없다”고 강조했다. 효성인포메이션시스템은 하이엔드 스토리지 고객사에 전담 엔지니어를 배정하고, 해당 고객사에서 발생하는 모든 장애 처리와 유지보수를 책임지게 하고 있다. 전담 엔지니어는 항상 대기를 유지하고 문제 발생 시 2~4시간 내 현장에 도착한다. 해당 엔지니어는 장기로 고객사를 전담하기 때문에 고객 장비의 히스토리를 잘 알고 있어 문제를 깊이있게 들여다보고 해결할 수 있다고 한다. 또한 서울과 수도권뿐 아니라 고객사와 데이터센터가 있는 모든 지방에 사무소를 운영하고 있다. 현재 대전, 천안, 수원, 대구, 광주, 원주, 부산 등에 지역사무소가 있다. 권 위원은 “최근 클라우드 패러다임과 함께 오픈소스 활용이 늘어나고 있는데, 쿠버네티스나 오픈스택 같은 기술은 컴퓨트 부분의 가용성 유지에 치중하고 데이터 정합성 유지 방안이 마땅치 않다”며 “효성인포메이션시스템과 히타치 벤타라는 오픈스택과 쿠버네티스 환경의 데이터 재해복구 환경도 지원할 수 있는 역량을 갖고 있다”고 말했다. 그는 “하이엔드 스토리지 환경뿐 아니라 갈수록 변화하는 고객의 워크로드 수요에서도 계속 사례를 넓혀가고 있다”며 “하이엔드 제품은 하이브리드 클라우드 환경 지원과 다양한 연동 솔루션으로 클라우드 환경의 원활한 운영을 지원한다”고 강조했다. 효성인포메이션시스템의 VSP 스토리지 포트폴리오는 유연한 하이브리드 클라우드 인프라 구현과 AI 시대 디지털 비즈니스 혁신을 지원한다. VSP 5000 시리즈는 선도적 기술력과 혁신적 아키텍처, 100% 데이터 가용성 보장 등 미션 크리티컬하고 중단 없는 안정적 서비스를 위한 최상의 인프라 환경을 제공한다. 효성인포메이션시스템은 고객들의 데이터 전략을 강화하고 미래 혁신 설계를 위한 스토리지 전략을 제시하며 스토리지 시장 리더십을 유지해 나갈 계획이다. 블록, 파일, 오브젝트, 메인프레임과 같이 서로 다른 유형의 데이터 플랫폼을 하나의 데이터 플레인으로 통합 관리하는 'VSP ONE' 전략을 통해 미래지향적 스토리지 아키텍처를 선보인다. VSP ONE 파일, VSP ONE SDS 블록/클라우드 등을 순차적으로 출시하며, 궁극적으로 하이브리드 클라우드 환경을 위한 진화와 혁신을 지속해 나갈 전략이다. 구독형 스토리지 서비스 HIS STaaS 사업도 강화하며 기업의 IT 운영, 비즈니스 효율을 높이고 인프라 현대화를 추진할 수 있도록 지원한다.

2024.04.25 12:34김우용

마이크로스트레티지코리아, KB증권 데이터포털 구축

마이크로스트레티지코리아(대표 정경후)는 KB증권(대표 김성현, 이홍구)이 자사의 '마이크로스트레티지BI 플랫폼'을 기반으로 데이터포털 시스템을 구축했다고 25일 밝혔다. 데이터포털은 현업 부서에서 직접 필요한 데이터를 손쉽게 추출, 분석하고 정기적 모니터링이 필요한 정보를 용이하게 확보할 수 있는 시스템이다. KB증권은 데이터포털을 통해 다양한 관점의 내부 보고서를 적시성 있게 제공함으로써 신속한 데이터 기반의 의사결정 체계를 확립하고자 했으며, 이를 위해 최적의 기능을 수행할 BI 분석 플랫폼을 면밀히 검토했다. KB증권은 다양한 BI 공급업체의 제품들을 심도 있게 비교 검토한 결과, '마이크로스트레티지BI 플랫폼'을 최종 도입하기로 했다. 마이크로스트레티지 분석 플랫폼은 다차원 비정형 분석 기능과 데이터 시각화 기능을 단일 제품으로 지원하는 글로벌 분석 솔루션으로 대용량 데이터와 다수의 사용자를 안정적으로 지원하는 엔터프라이즈급 BI 솔루션이다. KB증권은 '마이크로스트레티지BI 플랫폼' 도입 이후, 데이터 유관부서 외에 일반 부서에서도 필요한 데이터를 직접 추출, 분석할 수 있게 됐으며, 엑셀 등 수작업 업무를 줄이고 업무효율화 및 업무 정확성을 강화할 수 있게 됐다. 기존 DW 및 빅데이터 인프라를 활용한 다양한 데이터 정보를 손쉽게 확보하고, 분산된 경영·영업정보의 통합관리 및 조회가 가능해져 보다 원활한 원소스멀티유즈가 가능해졌다. KB증권 데이터솔루션랩 곽재석 팀장은 “마이크로스트레티지BI 플랫폼을 통해 정기적 관리 및 분석이 필요한 지표에 대해 직접 시각화를 구현해 더 용이한 모니터링이 가능해졌고, 데이터 주도적인 문화를 조성할 수 있게 됐다”며 “'마이크로스트레티지BI 플랫폼'은 데이터 포털을 생성하고 데이터 분류 체계를 구성해 현업 담당자들이 누구나 쉽고 빠르게 필요한 데이터를 찾을 수 있도록 지원한다”고 밝혔다. 마이크로스트레티지코리아 정경후 지사장은 “KB증권이 자사의 BI 플랫폼을 통해 데이터 활용 및 업무효율성을 높이고 있다는 점에서 매우 만족스럽다” 며 “마이크로스트레티지코리아는 KB 증권 외에도 국내 대규모 금융권 프로젝트를 진행하며 금융권 시장에서 확고한 경쟁력을 나타내고 있다”고 강조했다. 그는 “KB증권의 성공적인 운영을 위해 지원을 아끼지 않을 것이며, 앞으로도 금융권 분야를 공략하기 위해 최선을 다할 것”이라고 덧붙였다.

2024.04.25 09:35김우용

스노우플레이크, 엔터프라이즈급 오픈소스 LLM '아크틱' 출시

스노우플레이크는 개방성과 성능을 갖춘 엔터프라이즈급 대규모언어모델(LLM) '스노우플레이크 아크틱(Arctic)'을 25일 출시했다. 스노우플레이크 고유의 전문가혼합(MoE) 방식으로 설계된 아크틱은 높은 성능과 생산성을 지원한다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 포레스터의 최근 보고서에 따르면 글로벌 기업의 AI 의사 결정권자 중 약 46%가 'AI 전략의 일환으로 자신이 속한 기업에 생성형 AI를 도입하기 위해 기존의 오픈소스 LLM을 활용한다'고 답했다. 스노우플레이크 데이터 클라우드 플랫폼은 현재 전 세계 9천400여 기업 및 기관의 데이터 기반으로 활용되고 있다. 아파치 2.0 라이선스를 적용한 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 엔비디아 텐서RT-LLM, vLLM, 허깅페이스 등의 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스에서 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 투게더 AI 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다. 스노우플레이크 AI 연구팀은 업계 최고의 연구원과 시스템 엔지니어들로 구성돼 있다. 아크틱 구축에는 3개월 미만이 소요됐다. 모델 학습에 아마존 EC2 P5 인스턴스가 활용됐으며, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 스노우플레이크는 최첨단 개방형 엔터프라이즈급 모델의 학습 속도에 새로운 기준을 제시하며, 궁극적으로는 사용자가 비용 효율적이고 맞춤화된 모델을 최적의 규모로 생성할 수 있도록 지원한다. 아크틱의 차별화된 MoE 설계는 기업의 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상한다. 4천800억 개의 매개 변수를 한 번에 17개씩 활성화함으로써 뛰어난 토큰 효율과 업계 최고의 품질을 구현하며 최상의 결과를 제공한다. 아크틱은 획기적인 효율 개선을 위해 추론이나 학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(Humaneval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 믹스트랄 8x7B 등 대표적인 기존 오픈소스 모델의 성능을 능가하고 일반 언어 이해(MMLU)에서 최상급 성능을 보인다. 스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것은 더욱 쉬워진다. 아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 최상의 검색 성능을 발휘하도록 최적화돼, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 최근 스노우플레이크는 레카와 미스트랄 AI의 모델도 추가하는 등 고객이 데이터 클라우드에서 가장 높은 성능의 최신 LLM을 접할 수 있도록 지원하고 있다. 또, 최근 엔비디아와의 확장된 파트너십을 발표하며 AI 혁신을 지속해 나가고 있다. 스노우플레이크의 데이터 클라우드는 풀스택 엔비디아 가속 플랫폼과 결합해 산업 전반에 걸쳐 AI의 생산성을 적극 활용하는 안전하고 강력한 인프라 및 컴퓨팅 역량을 제공하고 있다. 스노우플레이크 벤처스는 고객이 각자의 기업 데이터에서 LLM과 AI를 통한 가치 창출을 지원하기 위해 최근 랜딩 AI, 미스트랄 AI, 레카 등에도 투자했다. 슈리다 라마스워미 스노우플레이크 CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”며 “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다”고 밝혔다. 그는 “고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 강조했다.

2024.04.25 09:28김우용

인섹시큐리티, '마그넷 그레이키 패스트트랙' 첫 선

인섹시큐리티가 모바일 장치에서 동시에 데이터를 추출할 수 있는 '마그넷 그레이키 패스트트랙'을 앞세워 국내 시장 공략에 나선다. 인섹시큐리티는 '마그넷 그레이키 패스트트랙'을 국내에 공급한다고 24일 밝혔다. '그레이키(GrayKey)'는 법 집행기관용 모바일 잠금 해제 및 데이터 추출 전문 솔루션이다. 잠금돼 있는 상태의 iOS 및 안드로이드(Android) 모바일 장치의 암호화되거나 액세스할 수 없었던 전체 데이터를 합법적으로 추출할 수 있다. 그레이키는 현재 전세계 40개국 이상 1천200개 기관에서 사용되고 있다. 또 패스트트랙으로 추출된 모바일 데이터를 마그넷포렌식의 디지털포렌식 솔루션인 '마그넷 엑시엄(Magnet AXIOM)'과 연동시켜 통합 디지털포렌식 플랫폼을 구축하고 관련 데이터를 검토할 수 있다. 김종광 인섹시큐리티 대표는 "마그넷포렌식의 모바일 잠금 해제 및 데이터 추출 솔루션을 국내 고객사들이 납득할 수 있는 가격에 공급할 것"이라며 "관련 전문가 양성을 위해 기술 지원 및 공인 교육 과정을 운영할 계획"이라고 말했다.

2024.04.24 17:32이한얼

KTNET, 몽골 관세청과 전자통관 고도화 협력 강화

한국무역정보통신(KTNET·대표 차영환)은 인공지능(AI)·빅데이터 등 디지털 기술을 활용해 몽골 전자통관 시스템 고도화를 위해 몽골 관세청과 협력을 강화하기로 했다. 차영환 KTNET 사장은 23일 몽골 관세청을 방문, 렉지부 오트건자르갈 청장을 면담하고 몽골 관세행정의 디지털 전환에 대해 논의했다. KTNET은 몽골 관세청이 보유한 통관 데이터를 활용해 AI 기반 위험관리시스템을 적용, 일반 화물과 승객, 승객화물의 신속한 통관 서비스를 추진할 계획이다. 위험관리시스템은 불법화물로 의심되는 화물을 선별하고 실물 검사를 하는 대신 일반 화물은 서류 승인만으로 실물 검사 없이 신속 통관을 허용하는 시스템이다. 현재 몽골 관세청은 대부분의 화물을 실물 검사하고 있고 서류심사 통관은 전체의 5% 미만 수준이다. 위험관리시스템이 적용되면 신속 통관 비율을 높일 수 있다. KTNET은 또 최근 수요가 증가하고 있는 몽골 기업의 원산지증명 수요에 대해 효율적으로 업무처리를 위한 원산지관리시스템의 구축방안에 대해서도 몽골 관세청과 논의했다. 몽골은 2016년 일본과 경제동반자협정(EPA)을 체결했고 2021년에는 아시아·태평양무역협정(APTA)을, 지난해 말부터는 우리나라와도 EPA 협상을 시작했다. KTNET은 몽골의 전자통관 시스템인 CAIS(Customs Automated Information system)을 2008년부터 2010년중에 구축한 바 있다. CAIS는 수출입통관 신고 및 화물 신고를 인터넷으로 할 수 있는 관세행정 시스템이다. ADB는 CAIS 도입이 몽골 관세행정의 현대화에 크게 기여한 것으로 평가했다. ADB는 몽골의 관세 수입이 2009년 3억8천만 달러에서 CAIS 개통 후 2011년에는 11억4천500만 달러로 약 3배 증가했다. 수출통관 심사시간도 평균 2시간 20분에서 13분으로 절감됐다. 몽골 국민의 관세청 투명성 평가에도 CAIS 도입 전에는 몽골 정부기관 중 17위였으나 시스템 도입 후에는 11위로 개선됐다. KTNET은 몽골의 재해복구센터 구축, 몽골 전자무역시스템 타당성 조사 컨설팅 등 다수 프로젝트를 수행한 바 있다. 차영환 KTNET 사장은 “몽골 관세청의 디지털 전환이 이뤄지면 투명하고 신속한 관세행정 서비스가 제공돼 몽골 무역기업 환경이 크게 개선될 것”이라며 “우리나라 전자무역 시스템의 개발, 운영 경험을 몽골 등 여러 국가와 공유해 국제 무역의 원활화에 기여하도록 하겠다”고 말했다. KTNET은 몽골·탄자니아·파라과이 등에 전자통관 시스템을 구축하는 등 총 35개 국가에 디지털 시스템과 솔루션을 수출해 왔다.

2024.04.24 11:28주문정

한전-수자원공사-SKT, 사회안전망 서비스 협약체결

한국전력(대표 김동철)은 23일 수자원공사·SK텔레콤과 '공공·민간 데이터 기반의 사회안전망 서비스 시범운영'을 위한 MOU를 체결, 대국민 서비스 확대체계 마련 등에 협력하기로 했다고 밝혔다. 이번 협약은 전기·수도 등 공공 AMI(Advanced Metering Infrastructure)에서 취득한 데이터와 민간 부문 통신데이터를 연계해 취약계층 사회안전망 서비스를 고도화하기 위해 추진됐다. 한전은 전기·통신 사용량 데이터를 융합 분석해 대상자의 위기상황에 긴급 대처할 수 있는 '1인가구 안부살핌 서비스'를 개발해 2019년부터 지자체에 제공하고 있다. 이 서비스는 효용성(돌봄 대상자 생활간섭 없음, 위기상황 구제 사례 실적, AI 기술적용 등)을 인정받아 지난해 5월 보건복지부 '제1차 고독사 예방 기본계획'에 반영되기도 했다. 한전은 이번 수자원공사와의 협약으로 기존 전력·통신 데이터뿐만 아니라 수도사용량 데이터를 추가 연계·분석을 할 수 있게 돼 대상자의 위기 상황 예측도가 높아져 '사회안전망 서비스'가 고도화될 것으로 기대했다. 김태균 한전 기술혁신본부장은 “이번 업무협약을 통해 한전이 보유하고 있는 전력 빅데이터와 AI 기술이 사회적 고립가구에서 발생할 수 있는 고독사 등 사회문제를 해결하고 국민편익 증진에 기여할 수 있기를 기대한다”라고 밝혔다.

2024.04.24 08:50주문정

개인정보위, '개인정보 안심구역 시범운영기관' 지정 공모

개인정보보호위원회가 가명정보를 보다 유연하게 활용할 수 있는 방안 마련에 나선다. 개인정보위는 '개인정보 안심구역 시범운영기관' 지정 공모를 추진한다고 23일 밝혔다. 개인정보 안심구역은 '제로 트러스트' 보안모델 기반의 안전조치, 사전·사후적 데이터 처리과정 통제 등 환경적 안전성을 갖추면 기존에 사실상 제한돼 왔던 다양한 데이터 처리가 가능하도록 지원하는 제도다. 4인 이상의 담당조직, 오프라인 폐쇄망 분석환경, 멀티팩터 인증, 데이터 외부반출 금지 등에 따라 환경적 안정성을 갖췄는지 결정된다. 개인정보위는 다양한 연구자와 기업이 양질의 데이터를 보다 안전하게 활용할 수 있는 기반을 마련하고자 안심구역을 도입했으며, 지난해 12월 통계청과 국립암센터를 안심구역 시범운영 대상기관으로 선정했다. 올해도 지난 연말 안심구역 시범운영 공모와 동일하게 국비지원 부문과 자체구축 부문으로 구분해 모집하며, 국비지원 부문(공적기관만 지원 가능)으로 선정된 기관에는 안심구역 구축·운영을 위해 5억5천만원 규모의 국비를 지원(보안장비·인프라·SW 구축비 등)한다. 신청대상은 결합전문기관, 데이터 안심구역, 가명정보 활용지원센터이며, 5월 31일까지 신청서를 제출하면 된다. 개인정보위는 공정한 심사를 위해 관계부처 추천을 받아 지정심사위원회를 구성하고, 서류심사, 발표심사 및 현장실사를 진행할 예정이다. 6월 중에 시범운영 대상기관을 선정(조건부 지정)하고, 추후 운영준비가 완료된 지정대상기관부터 현장실사를 통해 지정요건 충족여부를 검증한 뒤 최종 지정할 계획이다.

2024.04.23 16:17이한얼

데이터브릭스, 한국 시장서 연간 100% 성장

데이터브릭스는 23일 서울 인터컨티넨탈코엑스에서 개최한 '데이터 인텔리전스 데이' 컨퍼런스' 관련 기자간담회에서 지난 회계연도에 한국에서 연간 100% 이상의 성장을 달성했다고 발표했다. 국내 기업의 데이터 및 AI 수요 급증에 따른 결과라고 회사측은 설명했다. 데이터브릭스는 급속한 제품 혁신에 힘입어 지난 1월 31일 마감된 회계연도를 기준으로 전 세계적으로 16억 달러 (약 2조2천억원)이상의 매출을 기록했으며, 연간 50% 이상의 성장을 달성했다. 데이터브릭스는 지난 3월 출시 당시 표준 벤치마크에서 모든 오픈소스 모델을 능가하는 범용 대형언어모델(LLM) DBRX를 선보였다. 데이터 선도 기업들은 이미 데이터브릭스의 데이터 인텔리전스 플랫폼을 활용해 다양한 워크로드에서 비용 효율성과 고성능을 보장하는 동시에 비즈니스 운영을 최적화하고, 예측 분석 및 AI 애플리케이션 등을 통해 혁신을 이끌며, 고급 데이터 거버넌스 및 분석 기능을 통해 의사 결정을 개선해나가고 있다. 데이비드 마이어 데이터브릭스 제품 담당 수석부사장은 기조연설에서 “기업의 데이터 프로젝트를 AI와 결합하고자 할 때 실패로 귀결되기 쉬운데, 이는 워낙 다양한 사일로 시스템이 존재하기 때문”이라며 “데이터와 AI 시스템의 사일로는 내재적으로 복잡하며 거버넌스와 보안도 이 때문에 더 어려워지고, 여러 개발언어와 시스템을 이해해 쉽게 만들 수 있는 고도화된 기술인력도 확보하기 어렵다”고 말했다. 그는 “데이터브릭스의 레이크하우스 '델타레이크'는 비정형과 정형 데이터 모두를 레이크로 가져와서 정교화한 다음 데이터 복제와 이동없이 레이크 자체에서 활용하게 하므로 근본적으로 단순하다”며 “데이터레이크하우스만으로 충분하지 않고, 그 위에 거버넌스 레이어 '유니티 카탈로그'를 얹어 SQL, 스칼라, 자바, R 같은 각기 다른 엔트리 진입지점을 관리하고 데이터모델이나 노트북까지 모두 관리할 수 있다”고 강조했다. 데이터브릭스의 유니티 카탈로그는 전체 데이터 플랫폼의 거버넌스를 관리하는 계층이다. 모든 데이터 쿼리는 유니티 카탈로그를 거치게 되고, 사용자별로 데이터 접근권한을 관리할 수 있다. 유니티 카탈로그는 데이터브릭스 솔루션 외에 다양한 외부 거버넌스 시스템과도 통합가능하다. 데이터브릭스는 모자이크ML을 인수하고 최근 DBRX란 개방형 언어모델을 출시하는 등 생성형 AI 분야에 공격적인 투자를 하고 있다. 생성형 AI를 자사 플랫폼에 접목해 자연어로 데이터를 활용하게 하는 데이터 민주화를 추구한다. 데이비드 마이어 부사장은 “생성형 AI 자체를 레이크하우스에 녹여 근본적으로 새로운 것을 가능하게 했다”며 “데이터 인텔리전스 엔진을 델타레이크와 유니티 카탈로그 위에 얹어서 생성형 AI로 데이터 의미를 이해한다”고 말했다. 그는 “플랫폼에서 파티셔닝, 인덱싱, 레이어링, 리퀘스트 등의 기능을 자동화했으며, AI가 데이터 트래픽 패턴을 학습해 데이터를 재작성하고 사용자의 사용 행태에 따라 더 적은 비용으로 쿼리를 수행하도록 진화한다”며 “최고의 데이터웨어하우스는 훨씬 더 간결한 레이크하우스”라고 강조했다. 그는 “1년전 인수한 모자이크ML은 고객의 모델 학습과 미세조정을 더 저렴한 비용으로 할 수 있게 하며, 최대 10배의 비용을 절감시켜준다”며 “DBRX는 미세조정이나 자체 모델을 완벽히 제어할 수 있다”고 덧붙였다. 이날 기조연설에서 염화음 크래프톤 딥러닝실 데이터실장과 문효준 엘지전자 데이터플랫폼실 팀장이 무대에 올라 자사의 데이터브릭스 플랫폼 활용 사례를 공유했다. 에드 렌타 데이터브릭스 아태지역 총괄 부사장은 “데이터브릭스 클라우드의 한국 리전 범위를 확대하고 서버리스 SQL을 5월 출시할 예정”이라며 “한국어 기술 지원을 시작하고, 제품 교육 및 인증 프로그램의 한국어 지원도 5월 중 이뤄질 것이며, 생성형 AI 기능의 한국 리전 확대와 모델 서빙, 벡터 서치 등도 한국에서 쓸 수 있을 것”이라고 밝혔다. 에드 렌타 데이 부사장은 “한국은 아태지역에서 가장 빠르게 성장하는 시장 중 하나”라며 “한국이 기업의 AI 도입에 대한 야심찬 목표를 가지고 있는 시장인 만큼, 데이터브릭스는 보다 많은 한국 고객들이 자체적인 프라이빗 데이터를 사용해 안전하게 AI를 활용할 수 있도록 지속적으로 지원해나갈 계획”이라고 말했다. 데이터브릭스의 데이터 인텔리전스 데이는 데이터브릭스 고객, 업계 리더, 기술 전문가, 파트너가 주도하는 심층 세션을 통해 자연어로 데이터 인사이트를 확보하는 방법부터 데이터 프라이버시 보호 및 제어를 유지하면서 생성형AI 애플리케이션을 개발하는 혁신적인 방법까지 자세히 살펴볼 수 있다. LG전자, 크래프톤, 여기어때컴퍼니, 정육각, 하이퍼커넥트, 신세계I&C, 스캐터랩, 아임웹 등이 연사로 나서 데이터 및 AI 여정을 공유했다.

2024.04.23 16:05김우용

세일즈포스코리아, '2024 디지털 혁신 트렌드 보고서' 발표

세일즈포스는 국내 기업의 CRM, AI, 데이터 기반 디지털 혁신 현황과 인사이트를 담은 '2024 디지털 혁신 트렌드 리포트'를 23일 발표했다. 보고서에 따르면 국내 기업은 생성형 AI 기술 등장 이후 새로운 방식으로 고객과 관계를 맺고자 하는 수요가 증가하고 있는 것으로 나타났다. AI 기술과 CRM 간의 시너지를 기반으로 소비자인 외부고객 뿐만 아니라 내부고객인 임직원들의 경험 및 업무 생산성 향상을 위한 혁신에 대한 관심도가 증가하고 있으며, 디지털 혁신을 바탕으로 전반적인 비용절감을 기대하고 있는 것으로 해석된다. 다만 응답자의 대부분이 성공적인 디지털 혁신을 위해서는 경영진의 적극적인 투자 및 지원이 필요하다고 응답했다. 이 보고서는 국내 약 1천 명 이상의 비즈니스 리더와 현업 전문가를 대상으로 지난 1월 진행한 연구조사 결과에 기반한다. 세일즈포스는 AI 혁신 시대를 맞이하여 국내 기업의 성공적인 디지털 혁신을 위해 CRM, AI, 데이터, 신뢰라는 네 가지 측면에서의 디지털 혁신 현황, 목표 및 주요 어려움 등을 기업의 규모, 업무 영역 및 산업별로 분석했다. 보고서에 따르면, 절반 이상의 응답자(55.8%)는 디지털 혁신 이후 가장 기대하고 있는 효과로 '반복 및 중복 업무 감소로 인한 비용 절감'을 꼽았으며, 디지털 혁신의 주된 목표로 '업무 생산성 향상과 부문 간 유기적인 협업(44.5%)'인 것으로 나타났다. 조사 결과 생성형 AI에 대한 관심이 높은 가운데 실제 기업에서 중요하게 인식하고 있는 디지털 혁신 요소는 '데이터'가 82.5%로 가장 높았으며 'CRM(80.8%)', 'AI(71.2%)'가 그 뒤를 이었다. 이와 관련해 세일즈포스는 생성형 AI와 같은 기술을 활용하기 위해 대다수의 국내 기업이 데이터의 품질과 정확성은 물론, 체계적인 관리 체계를 구축하기 위한 움직임을 강화하고 있다고 설명했다. 그 외에도 전문가들은 CRM 측면의 디지털 혁신을 시행할 때 가장 중요한 요소로 '정확도 높은 데이터 확보 및 활용 환경 구축(53.8%)'을 꼽았다. AI 측면에서는 '생산성 향상을 위한 업무 자동화 및 업무지원(48.8%)'을 디지털 혁신 시행 시 가장 중요한 요소로 지목했으며 이 밖에도 데이터 측면에서 국내 기업은 디지털 혁신 시행 시 '데이터 품질 정확도 향상(48.0%)'을 우선적으로 고려하고 있는 것으로 나타났다. 디지털 혁신을 추진하는 데 있어 기업이 겪고 있는 CRM, AI, 데이터 측면에서의 어려움 또한 상이했다. CRM 측면에서 '경영진의 투자 및 지원 미흡(41.9%)'을 꼽았으며, 데이터 측면에서는 '데이터 전문가의 부재(44.3%)'를, AI 측면에서는 '기술 활용에 필요한 교육 부재(45.1%)'가 성공적인 디지털 혁신을 위해 넘어야 할 허들인 것으로 나타났다. 대다수의 응답자가 AI 기반 디지털 혁신의 중요성에 대해 인지하고 있는 반면, 이를 위한 조직 내 디지털 혁신 노력 및 투자 정도는 부족한 것으로 보인다. 전체 응답자 중 디지털 혁신 추진 활동과 조직 내 투자 우선순위 간의 일치도는 약 40.4%에 불과했다. 급변하는 디지털 환경에서 업무 효율성 및 생산성 향상, 고객과의 연결성 향상을 위해서는 경영진의 적극적인 투자와 지원이 필요한 것으로 해석된다. 최근 IT 기술을 둘러싼 윤리, 데이터 보안, 개인정보보호 등에 대한 관심도가 높아지고 있는 가운데, 전체 응답자 중 81%는 CRM, AI, 데이터 측면의 디지털 혁신에 있어 '신뢰'가 가장 중요한 요소라는데 동의했다. 이와 관련하여 세일즈포스는 최근 생성형 AI 활용에 대한 사내 규정 및 윤리강령 정립, 안전한 데이터 보안 환경 등이 디지털 기술력에 앞서 기업, 소비자, 파트너를 포함한 모든 이해관계자가 가장 우선적으로 고려해야 할 필수 요소라고 설명했다. 세일즈포스코리아 손부한 대표는 “성공적인 디지털 혁신에 있어서 CRM, AI, 데이터, 신뢰라는 네 가지 키워드는 매우 밀접한 상관관계가 있으며, 신뢰할 수 있는 데이터를 올바른 방법으로 통합 및 활용할 수 있을 때 AI는 강력한 비즈니스 조력자 역할을 수행할 수 있다”며 “이번 보고서가 새로운 기회를 포착하고 시장 내 경쟁우위를 갖추기 위해 필요한 인사이트를 확보하는 데 있어 유용한 나침반이 되길 희망한다"고 밝혔다.

2024.04.23 11:58김우용

AI가 불러온 '전력 위기'…대비 나선 샘 알트먼, '이것'에 276억 '베팅'

'챗GPT'의 아버지 샘 알트먼 오픈AI 최고경영자(CEO)가 태양광 스타트업 투자에 나선다. 생성형 인공지능(AI)의 급부상으로 데이터센터가 잇따라 건설되면서 전력 수요가 급증하자 차세대 전력 공급 수단으로 청정에너지를 택한 것이란 분석이 나온다. 23일 월스트리트저널(WSJ)에 따르면 샘 알트먼 CEO는 태양광 스타트업인 엑소와트에 투자한다. 2천만 달러(약 276억원)의 돈을 투자한 이들 중 알트먼 CEO 외에 월가 유명 벤처캐피털(VC)인 앤드리슨호로비츠도 참여했다. 엑소와트는 빅데이터 센터에 필요한 에너지 수요를 해결하기 위해 설립된 스타트업이다. 이곳은 널찍한 태양광 패널 대신 태양광 렌즈를 이용해 에너지를 모으는 컨테이너 크기의 대형 모듈을 개발했다. 이 렌즈는 태양광을 한데 모은 후 열로 변환하기 때문에 발전 효율이 높고 하루 24시간 내내 에너지를 저장할 수 있는 것이 특징이다. 또 엑소와트는 미국의 인플레이션 감축법(IRA) 보조금을 받기 위해 중국산 부품 의존도를 줄이고 미국산 부품을 우선 사용했다. 보조금 없이 kWh당 1센트의 저렴한 비용으로 전력을 제공하는 것을 목표로 하고 있는데, 이는 에너지가 풍부해 전력 요금이 싼 텍사스주보다도 낮은 수준이다. 엑소와트는 미국 내 데이터센터 대부분이 태양광 발전에 용이한 지역 근처에 세워져 있다는 데이터를 바탕으로 태양광 산업을 시작했다. 하난 파르비지안 엑소와트 CEO는 "데이터센터 전력 문제를 해결하기 위해 화석연료로 회귀할 필요는 없다"며 "그것은 되려 역효과를 낳을 것"이라고 밝혔다. 알트먼 CEO는 이전에도 에너지 스타트업에 투자해 주목 받았다. 그는 소형모듈원전(SMP) 개발사 오클로뿐 아니라 지난 2021년 핵융합 발전을 통해 전기 에너지를 생산하는 스타트업인 헬리온에 3억7천500만 달러(5천178억원)를 투자한 바 있다. 헬리온은 지난해 5월 마이크로소프트(MS)와 오는 2028년부터 핵융합 발전을 통해 전기를 공급한다는 계약을 체결했다. 알트먼 CEO의 이 같은 투자는 AI를 가동시키기 위한 안정적인 재생에너지 공급망을 확보하기 위한 전략으로 보인다. 최근 AI 시장 확대에 따른 데이터센터 증설로 전력 확보가 갈수록 어려워지고 있어서다. 실제로 세계 최대 데이터센터 허브인 미국의 버지니아 북부 지역에서는 미국 유틸리티 기업(수도·전기·가스 공급업체)인 도미니언 에너지가 지난 2022년 새로운 데이터센터 연결을 일시 중단했다. 지난해 10월 버지니아 규제 당국에 제출한 서류에선 "데이터센터 개발로 인한 전력 부하 증가가 상당하다"라고 밝혔다. 미국 애리조나주의 최대 전력회사 APS도 초대형 데이터센터 신규 사업을 당분간 보류하겠다고 선언했다. 세계 최대 사모펀드 운용회사 블랙스톤의 창업자 겸 회장 스티브 슈워츠먼 역시 최근 "미국 여러 주에서는 이미 전력이 고갈되기 시작했다"고 말했다. 이에 AI 기업들의 최근 고민은 데이터 센터 투자를 위한 자금이 아니라 '전력 공급'이라는 평가가 나오고 있다. 파이낸셜타임스(FT)는 "새로운 AI 경제에서 한계 중 하나는 데이터 센터를 어디에 구축하고 어떻게 전력을 확보하느냐"라고 평가했다. 여기에 앞으로 전력 위기 문제는 더 심해질 것이란 전망도 나왔다. 국제에너지기구(IEA)에 따르면 전 세계에서 운영 중인 데이터 센터가 쓰는 전력량은 지난 2022년 연간 460테라와트시(TWh)에 달했다. 이는 프랑스의 2022년 전력 소비량(425TWh)과 맞먹는 수준이다. IEA는 전 세계적으로 데이터 센터에서 소비되는 전력이 2026년까지 두 배 이상 증가할 것으로 예상했다. 전력 공급 문제는 환경적인 영향도 미치고 있다. 데이터 센터 수요를 맞추려면 석탄·천연가스 같은 화석연료 의존도를 오히려 높여야 해서다. 이는 기후 변화 위기를 해결하기 위한 전 세계적인 노력과 반대된다는 점에서 우려되고 있다. 전 세계 주요국은 2050년 넷제로(탄소중립)를 약속한 바 있다. WSJ는 "현재의 태양광, 풍력, 배터리 기술은 전 세계 많은 지역에서 24시간 내내 비용 효율적인 전력을 요구하는 데이터 센터의 수요를 충족할 만큼 발전하지 않았다"며 "AI 붐은 태양광·에너지 저장 시설이 데이터 센터의 엄청난 전력 수요 일부를 처리할 수 있을 것이라는 데 베팅하고 있다"고 말했다.

2024.04.23 10:04장유미

"데이터로 일하는 방법 소개"···'오피니언 마이닝 워크숍" 26일 열려

빅데이터로 올해 트렌드를 알아보는 '제 19회 오피니언 마이닝 워크숍(Opinion Mining Workshop 2024)'이 오는 26일 서울 포스코타워 역삼에서 열린다. 올해가 19회째인 이 행사는 빅데이터 분석 의미를 찾는 연구모임인 '오피니언 마이닝 워킹 그룹'이 매년 주최하는 행사다. AI·빅데이터 전문기업 바이브컴퍼니와 빅데이터 기반 트렌드 연구소인 생활변화관측소가 후원한다. 이날 행사에는 과거와 일하는 방식이 변화함에 따라 앞으로 어떤 방식으로 일해야 할지 그 방법을 제시한다. 과거에는 일을 추진할 때 리더 직관이나 경험에 따라 업무를 처리하고 실행에 옮겼다면 이제는 '데이터 리터러시(Data Literacy)' 시대로, 데이터를 분석하고 해석해 의사결정을 내려야 한다. 직관이나 경험에 따른 업무 방식에서 벗어나 데이터 리터러시 시대에 어떻게 데이터를 분석하고 해석해 의사결정을 내려야 할지 데이터와 함께 일하는 방법을 소개한다 'OMW 2024' 사무국은 “통계 데이터, 소셜 데이터, 매출 데이터 등 우리 일상 곳곳에 있는 데이터들은 일을 수행함에 있어 또 다른 소통의 언어이고 아이디어를 위한 방법론이며 매출을 이끌어내는 도구"라며 “이번 OMW 2024에서는 일하는 개인이 데이터로 무장하게 되면 어떤 일들이 일어나는 지 소개할 예정"이라고 밝혔다. OMW 2024는 ▲데이터 ▲트렌드 ▲브랜드로 나눠 빅데이터 분석 전문가인 생활변화관측소의 박현영 소장과 연구원들, 그리고 산업계 전문가인 롯데웰푸드 푸드사업부 여명랑 사업부장, LG전자 Customer eXperience Center 김영수 팀장이 참여한다. 특히 생활변화관측소는 ▲데이터 패턴 속에서 의미있는 데이터를 관측하는 방법 ▲데이터로 본 공간 트렌드 ▲브랜드 관측소가 뽑은 올해 브랜드 ▲디저트로 보는 소셜 데이터 10년사 등 데이터 분석을 통한 다양한 사회 트렌드를 제시한다. 생활변화관측소는 바이브컴퍼니 산하 연구소로, 빅데이터 전문 연구원들이 빅데이터 분석 서비스 '썸트렌드'를 기반으로 실시간으로 데이터를 관측하고 그 안에서 찾아낸 새로운 인사이트를 콘텐츠로 전달한다. 또 기업 마케팅, 제품개발, 커뮤니케이션 등 당면한 목적에 맞춰 소셜 빅데이터를 분석하고 해석해 브랜드가 나아가야 할 방향 및 전략을 리포트 형태로 제공하고 있으며, 오는 6월 멤버십 서비스를 새로 오픈할 예정이다. 'OMW 2024'는 오는 25일까지 참가 접수를 받는다. 참가 등록은 행사 홈페이지에서 하면 된다. *

2024.04.22 20:34방은주

씽킹데이터, '히트맵 분석'·'랭킹 분석' 신규 업데이트

글로벌 게임 빅데이터 분석 솔루션 전문 기업인 씽킹데이터 코리아(ThinkingData Korea)는 지난 분기 진행한 인게이지 모듈 업데이트 이후 또 한번 게임 데이터 분석 서비스의 기능을 한층 강화하는 새로운 업데이트(4.3 버전)를 22일 발표했다. 이번 업데이트 중 대표적인 '히트맵 분석' 모델은 가장 요청사항이 많았던 부분으로 실제 게임 유저가 맵(지도)상에서 어떻게 활동하는지, 게임의 맵 내의 지역에서 얻는 자원의 양이 얼마인지 등을 분석할 수 있으며, 서로 다른 유저 그룹 간에 동일한 행동이 어떻게 다르게 나타나는지 또한 비교가능하다. 이를 통해 현재 맵(지도)상의 유저 행동 경로가 설계 의도대로 이루어지고 있는지 검증하고, 검증 결과를 바탕으로 게임 맵 디자인의 최적화 포인트를 찾는 등 게임의 후속 업데이트를 조정할 수 있다. 금번 4.3버전 업데이트에 추가된 또다른 분석 모델은 '랭킹 분석'으로 임의의 속성(단일, 멀티)을 기준으로 랭킹을 만들고 정렬규칙을 설정해 'Top N 순위표'를 확인 가능하고, [비교 단계]를 설정해 '순위 변동 데이터'도 확인 가능하다. 이를 통해 전투력 상위 Top 100의 유저가 어떤 성과를 달성했는지 분석하고, 이번 주 화제의 참여 콘텐츠가 지난주에 비해 어떻게 변화했는지 등을 살펴볼 수 있다. 패리스(Paris) 씽킹데이터 CEO는 "씽킹데이터는 매 분기 고객사의 니즈에 따라 지속적으로 기능 업데이트를 하고 있으며, 더욱더 성공적인 게임 사업을 위해 250명 이상의 R&D 조직을 기반으로 최선의 노력을 다하고 있다"라고 밝혔다. 다음달에 한차례 더 기능 최적화 및 업데이트가 이루어질 예정이며, 이를 올해 5월 부터 지속적인 세미나 개최를 통해 게임 고객사에게 소개할 예정이다. 2015년 설립 이후 씽킹데이터는 글로벌 1천200개의 고객사와 7천개의 라이브 게임에 대해 서비스 하고 있는 기업으로 앞으로 한국시장에 대한 대대적인 투자를 예고하고 있다.

2024.04.22 13:01강한결

[기고] 기업 경쟁력 좌우하는 생성형 AI, 어떻게 시작할 것인가

2023년 우리 모두는 챗GPT가 제공한 새로운 서비스를 경험했다. 생성형 AI와 대규모 언어 모델(LLM)은 개인과 직업의 환경을 혁신적으로 변화시키고 있다. 기업들도 불과 1년 만에 대다수가 생성형 AI에서 제공하는 서비스를 통해 비즈니스 역량을 강화하려는 시도를 하고 있다. 본 글에서는 생성형 AI와 대규모 언어 모델(이하 LLM)이 무엇이며 기업들은 이 서비스를 어떤 분야에 활용할 수 있는지 살펴보고자 한다. 생성형 AI는 신경망과 딥러닝 알고리즘을 사용하여 기존 머신러닝 모델과는 근본적으로 다른 복잡한 콘텐츠, 이미지, 동영상, 오디오 또는 코드를 생성하는 AI의 한 종류이다. 생성형 AI는 전통적인 머신러닝, 딥 러닝 모델보다 훨씬 많은 양의 데이터가 필요하다. 이렇게 훈련된 범용 모델을 파운데이션 모델이라고 한다. 파운데이션 모델을 개발하려면 방대한 양의 데이터와 고성능 컴퓨팅 리소스가 필요하기 때문에 일부 빅테크 회사만이 LLM 개발 및 개선 작업에 적극적으로 참여해왔다. 하지만 최근에는 오픈 소스 파운데이션 모델이 널리 공유돼 파운데이션 모델을 직접 개발하지 않아도 활용할 수 있게 되었다. 덕분에 일반 기업들도 '파인 튜닝'을 통해 LLM을 특정 도메인에 맞게 훈련시키고 자체 비즈니스 요건에 맞게 애플리케이션을 개발하여 사용할 수 있게 됐다. 파인 튜닝은 특정 비즈니스 요건이나 업무 도메인에 맞게 사전 훈련된 LLM에 특정 데이터셋을 사용해 추가적인 학습을 수행하는 작업을 말한다. 챗GPT의 성공 후, 이 시장에 뛰어든 후발 주자 빅테크 기업들은 경쟁력을 확보하기 위한 수단으로 자체 개발하는 LLM의 매개변수를 기하급수적으로 늘려 빠르게 성능을 올리는 전략을 채택했다. 매개변수는 사람의 뇌에서 정보를 처리하고 통합하는 시냅스와 같은 역할을 한다. 매개변수가 많을수록 LLM은 더 많은 정보를 저장하고 더 다양한 패턴을 학습함으로써 세밀한 언어 이해와 콘텐츠 생성을 할 수 있다. 하지만 더 많은 컴퓨팅 자원과 저장 공간이 필요하고 이 모델을 학습하는 데 더 많은 시간이 걸릴 수밖에 없다는 한계가 있다. 이에 반해 매개변수가 적은 LLM은 학습할 때 컴퓨팅 리소스가 덜 필요하기 때문에 파인 튜닝이나 배포가 상대적으로 용이하다. 최근에 공개되고 있는 대다수 LLM의 성능은 상향 평준화되고 있다. 특히 메타의 오픈소스 LLM인 '라마'가 다른 모델에 비해 상대적으로 적은 매개변수를 사용하면서 일정 수준의 성능을 보장한다. 이렇듯 모델 경량화와 최적화는 오늘날 LLM을 선택하는 데 중요한 기준으로 자리 잡았다. ■ LLM에 대한 이해 범용 LLM은 자연어와 컴퓨터 프로그램 언어를 이해할 수 있으며 광범위한 작업을 처리할 수 있다. 인터넷상에 존재하는 방대한 양의 데이터로 사전학습 되어 있으며, 모델 목적과 관련된 특정한 데이터 소스를 활용해 추가 학습할 수도 있다. 이러한 특성 때문에 LLM은 거의 모든 주제에 대한 문맥과 관련된 정보를 생성할 수 있다. 앞서 언급한 파운데이션 모델은 특정 도메인에 국한되지 않고 사용할 수 있는 생성형 AI 모델의 하나이다. 특정 작업이나 도메인 업무에 유용성을 높이기 위해 파운데이션 모델은 사용 목적에 맞게 전문화, 파인 튜닝 또는 수정이 가능하다. 일반적인 파운데이션 모델은 다음과 같이 구분할 수 있다. 작업에 특화된 LLM: 메타의 코드 라마와 같이 특정 업무 영역별 LLM은 프로그래밍 코드 작성과 같은 전문화된 작업에 특화됐다. 도메인에 특화된 LLM: 특정 주제나 산업에 생성형 AI 기술을 적용할 수 있다. 예를 들어, 의료 산업에 대해 학습한 엔비디아의 BioBERT는 제약 업계의 신약 개발과 관련한 논문을 이해하고 의료 문서에서 정보를 검색 및 추출할 수 있다. 앞서 살펴본 LLM은 법률, 미디어, 사이버 보안과 같은 다양한 분야의 도메인에 맞는 데이터를 통해 파인 튜닝될 수 있다. 이는 텍스트에만 국한되지 않으며, 오디오, 이미지, 동영상과 같은 다양한 멀티모달 콘텐츠 역시 생성할 수 있기 때문에 활용 분야는 굉장히 다양해질 수 있다. LLM이 문장뿐만 아니라 문맥을 이해할 수 있는 것은 데이터 세트를 다차원 공간에서 벡터 형식으로 변환한 단어를 활용하기 때문이다. 벡터 임베딩 기술은 자연어의 정량적 표현을 처리하고 저장하는 가장 효율적인 방법이다. 두 단어를 표현하는 벡터 간의 거리와 유사한 메트릭을 기반으로 데이터를 식별하고 처리함으로써 모델 내부에서 정보를 쉽게 비교·분석할 수 있고 정보 처리 시간 또한 크게 단축할 수 있다. 아래 그림과 같이 단어를 공간상의 벡터로 표현하고, 연관된 단어들을 인접한 곳에 배치함으로써 단어의 문맥적 언어를 이해하고 판단하는 것이다. 때문에 LLM 내부에서 벡터 데이터베이스를 사용하면 생성 및 추론 과정에서 AI 시스템이 관련 데이터를 빠르게 검색할 수 있으며, 검색, 추천, 텍스트 생성과 같은 다양한 용도로 활용할 수 있다. 또한, 검색증강생성(RAG), 벡터 유사성 검색(VSS)과 같이 문장을 맥락화하는 데 유용한 기술들이 백터 검색 기능으로 구동된다. 여기서 주목해야 하는 기술은 바로 RAG다. RAG는 맞춤형 데이터를 통해 LLM의 검색 정확도를 개선할 수 있는 프레임워크다. 파운데이션 모델은 광범위한 인터넷 정보를 기반으로 학습되었기 때문에 하나의 모델로 다양한 유형의 질문에 응답할 수 있지만, 학습되지 않은 데이터에 대한 질문을 받는 경우 오답을 할 확률이 높아진다. 기업 환경에서 사용하려는 LLM은 범용 데이터가 아닌 특정 도메인을 이해해야 하며, 이 도메인 정보를 기반으로 답변을 제공할 필요가 있다. 하지만 파운데이션 모델이 특정 도메인에 맞게 재학습하는 데는 비용이 너무 많이 들고 학습하는 시간도 오래 걸린다. 이 같은 문제를 해결하기 위해 RAG는 LLM이 사전에 학습한 데이터에만 의존하는 것이 아니라 질문받은 시점에 동적으로 관련된 데이터를 검색하고 증강된 문맥 속에서 답변을 생성한다. 이 과정을 거치면 답변 정확도가 크게 개선된다. 기업들은 RAG를 통해 LLM을 파인 튜닝하거나 사전 학습에 필요한 비용과 시간을 절약하고, 소량의 데이터만으로도 모델 정확도를 높일 수 있다. 다음 그림은 RAG로 파운데이션 모델의 정확도를 얼마나 효율적으로 개선할 수 있는가에 대한 연구 결과이다. ■ 기업 환경에서 활용할 수 있는 생성형 AI LLM은 콘텐츠 생성, 논리 추론, 언어 번역, 텍스트 검색, 프로그램 코드 생성, 콘텐츠 요약 및 검색 등을 주요 기능으로 삼는 수많은 고급 애플리케이션의 기반을 마련했다. 1. 콘텐츠 생성 간소화 생성형 AI는 텍스트, 사운드, 이미지 등 다양한 유형의 미디어를 생성하여 콘텐츠 제작을 간소화할 수 있다. 기업의 마케팅 부서에서는 캠페인 업무를 위한 맞춤형 이미지 제작을 포함해, 블로그, 기사, 소셜미디어 콘텐츠, 그리고 제품 설명 초안을 생성하는 데 활용할 수 있다. 다른 부서에서도 현업 사용자를 위한 챗봇 애플리케이션을 개발하거나 판매, CRM과 같은 고객 데이터를 활용해 고객 개인화 서비스 개선 또는 맞춤형 캠페인을 위한 콘텐츠 생성에 활용할 수 있다. 2. 논리적 추론 엔진으로 활용 AI 분야에서 자연어 이해는 인간의 복잡한 의사소통의 의미를 이해하는 데 사용된다. LLM은 제품 리뷰, 소셜미디어의 게시글, 고객 설문조사 결과와 같은 텍스트의 의미를 이해하고 콘텐츠 속 감정을 분석하거나 기타 복잡한 추론 작업에 활용될 수 있다. 3. 언어 번역 정확도 개선 다중 언어 간 번역 정확도를 높여 언어 장벽이 있는 사람들의 소통을 더 쉽게 도와준다. 4. 검색 및 요약 LLM은 방대한 양의 데이터를 사전 학습해 언어의 맥락을 파악하고 텍스트의 의미를 이해할 수 있다. 때문에 대규모 데이터베이스나 인터넷의 데이터를 검색하여 사용자 질문에 맞춤형 답변을 찾을 수 있다. 또한, 원래 데이터의 정보를 기반으로 간결한 요약본을 생성할 수 있다. 앞서 살펴본 생성형 AI와 LLM은 거의 모든 분야와 주제에 대해 사용할 수 있기 때문에, 개인 삶뿐만 아니라 업무 방식 역시 혁신적으로 변화시킬 수 있다. 이에 기업들은 생산성 향상, 프로세스와 수익성 개선 등을 위해 생성형 AI가 가진 엄청난 잠재력을 활용해 다양한 분야에서 적용 및 도입을 고려하고 있다. 하지만, 생성형 AI를 기업 환경에서 활용하기 위해서는 고려해야 할 사항이 많다. 지식재산권, 데이터 개인 정보 보호, 콘텐츠 오용 가능성 문제 등 지금껏 일반적으로 알려진 사항뿐만 아니라 '생성형 AI를 기업환경에 구축하기 위해 뒷받침되어야 할 것은 무엇인가', '어떤 업무에 적용할 것인가', '어떤 모델을 사용할 것인가', '투자 비용은 얼마가 적정한가'와 같이 다양한 현실적인 고민거리가 있을 수밖에 없다. 다음 글에서 기업에 AI, LLM 환경 구축을 지원하는 스노우플레이크의 신규 생성형 AI 기능을 소개하고자 한다. 생성형 AI의 잠재력을 극대화하기 위한 스노우플레이크의 비전을 통해 다양한 기업들의 고민을 해결할 수 있는 방안을 찾을 수 있을 것이다.

2024.04.22 09:48조성현

SAS 바이야, 생성형 AI 기능 강화

SAS는 지난 16일부터 19일까지 미국 라스베이거스에서 개최한 'SAS 이노베이트 2024'에서 최신 AI 및 데이터 분석 관련 제품과 비즈니스 사례를 발표했다고 22일 밝혔다. SAS는 데이터 분석 플랫폼인 'SAS 바이야'에 대규모언어모델(LLM) 오케스트레이션 기능을 제공한다고 밝혔다. 이를 통해 생성형 AI를 활용하고자 하는 고객은 LLM에 대한 설명력을 제공받아 업무 프로세스에 LLM을 쉽게 통합할 수 있게 됐다. SAS는 'SAS 데이터 메이커'를 출시하고, 생성형 AI 구현에 필요한 합성 데이터 생성을 지원한다. 더불어 산업별로 특화된 생성형 AI 비서 기능을 통해, 신뢰성 있는 생성형 AI의 적용을 확대하며 혁신을 이어나갈 예정이다. SAS 바이야는 LLM 오케스트레이션 기능을 통해 외부 생성형 AI 모델을 기존 비즈니스 프로세스 및 시스템과 쉽게 통합할 수 있어, 활용성을 높여준다. SAS 바이야 코파일럿 기능을 통해 분석 및 산업별 업무를 지원하는 개인 비서를 활용할 수 있다. 'SAS 바이야 코파일럿'은 코드 생성, 데이터 정리, 데이터 탐색, 마케팅 계획, 여정 설계 및 지식 격차 분석과 같은 작업에 활용되며, 개발자, 데이터 과학자 및 비즈니스 사용자의 생산성을 높여준다. SAS 데이터 메이커는 민감한 정보를 손상시키지 않으면서 고품질의 합성 데이터를 생성해 데이터 개인 정보 보호 및 데이터 부족 문제를 해결해 준다. SAS의 마케팅 솔루션인 'SAS 커스터머 인텔리전스 360'도 마케팅 계획, 여정 설계 및 콘텐츠 개발에 생성형 AI 지원을 제공한다. 'SAS 커스터머 인텔리전스 360'에서 자연어 프롬프트를 통해 타겟 고객층을 선정하거나, 채팅 서비스, 이메일 제목 추천 등에 생성형 AI를 활용할 수 있다. SAS는 'SAS 바이야'의 생성형 AI 및 LLM 오케스트레이션 기능의 사례로 미국 종합 제지 및 포장 제조 기업 조지아 퍼시픽 사례를 소개했다. 'SAS 바이야'의 센서 데이터, 비즈니스 룰, 추천 시스템, 스트리밍 분석 및 지능형 의사 결정 관리 지원을 통해 조지아-퍼시픽은 이벤트 발생 시, 빠르게 올바른 결정을 내림으로써 즉각적인 가치를 창출하고 있다. 조지아-퍼시픽은 SAS LLM 오케스트레이션과 제조에 특화된 생성형 AI 비서를 활용해 실시간으로 운영 문제를 해결하고 있다. 작년 5월 AI 산업 솔루션 개발에 10억 달러 투자 계획을 발표했던 SAS는 그 일환으로 패키지 형태의 산업특화형 AI 모델을 공급한다고 밝혔다. SAS는 개별 라이선스 방식으로 이용할 수 있는 산업별 맞춤형 경량 AI 모델을 제공함으로써 기업 고객들은 효율적인 방식으로 모델 패키지 도입 즉시 AI 기술 활용이 가능하다. SAS는 수십 년간 전 세계 금융, 의료, 제조 및 정부 기관에 확장 가능하고 신뢰성 있는 AI 모델을 배포하는 데 독보적인 입지를 보유하고 있다. 이번에 발표된 산업특화형 AI 모델을 통해 SAS는 LLM을 넘어, 사기 탐지, 공급망 최적화, 문서 기반 대화 서비스 및 의료비 사기 적발 등의 분야에서 사용이 입증된 결정론적 AI 모델을 제공하게 됐다. 특히, SAS의 산업별 AI 모델은 신속한 통합이 가능하도록 설계돼, 기업은 신뢰성 있는 AI 기술을 운영하고 가시적인 이익과 신뢰할 수 있는 결과를 더욱 빠르게 얻을 수 있다. SAS는 AI 모델 개발을 위한 경량 플랫폼 'SAS 바이야 워크벤치' 출시를 발표했다. 'SAS 바이야 워크벤치'는 개발자 및 모델작업자를 위한 셀프서비스 방식의 컴퓨팅 환경으로, 데이터 준비, 탐색 데이터 분석, 분석 모델 및 머신러닝 모델 개발 작업을 할 수 있다. 개발자와 모델작업자는 'SAS 바이야 워크벤치'를 이용해 클라우드 기반의 확장형 환경에서 SAS 나 파이썬 중 선호하는 언어로 작업이 가능하다. 현재 SAS와 파이썬으로 이용 가능하며, 2024년 말에는 R도 지원 예정이다. 또한, 주피터 노트북 및 주피터 랩과 비주얼 스튜디오 코드 등 두 가지 개발 환경 옵션을 제공한다. 'SAS 바이야 워크벤치'에서 제공하는 강력한 SAS 분석 프로시저(PROCs)와 네이티브 파이썬 API를 통해 고성능의 AI 모델을 더욱 빠르게 개발할 수 있다. 'SAS 바이야 워크벤치'는 아마존 AWS 마켓플레이스에서 올 2분기 내에 공급 예정이며, 추후 추가적인 클라우드 및 SaaS 옵션이 발표될 예정이다. SAS는 'SAS 호스티드 매니지드 서비스'를 아마존웹서비스(이하 AWS)로 확대한다고 밝혔다. SAS는 'SAS 매니지드 서비스' 포트폴리오에 AWS를 추가함으로써 고객들의 퍼블릭 클라우드 플랫폼에 대한 선택권을 넓히게 되었으며, 또한 클라우드 기반 데이터 및 AI 플래폼인 'SAS 바이야'를 포함해 자사의 다양한 첨단 기술 및 제품을 호스티드 매니지드 서비스의 형태로 고객들에게 공급할 수 있게 됐다. SAS는 이미 마이크로소프트 애저, 구글클라우드플랫폼 등을 포함한 다양한 클라우드 포털을 통해 SAS 바이야를 공급해 왔다. 이번 발표는 'SAS 호스티드 매니지드 서비스'의 확대로, SAS 제품의 설치, 구성, 운영 및 유지 보수에 이르는 전과정을 SAS의 전문적인 클라우드 서비스를 통해 제공하는 것이다. 이를 통해 이미 AWS를 사용 중인 'SAS 9' 고객들은 보다 간소하게 'SAS 바이야'로 전환할 수 있게 됐다. 'SAS 매니지드 서비스'는 가동시간을 극대화하고 관리 비용은 최소화하는 동시에 데이터의 가치 실현까지의 시간을 단축한다. SAS는 AI 거버넌스 및 지원 모델의 신뢰도와 투명성을 향상하기 위해 새로운 신뢰성 있는 AI 제품 및 서비스인 '모델 카드'와 'AI 거버넌스 자문 서비스'를 소개했다. 이를 통해, 기업들은 급변하는 AI 환경에서 올바른 선택을 하고, 리스크를 완화하며, 보다 확신 있게 AI 목표를 달성할 수 있다. SAS 바이야에서 제공되는 '모델 카드'는 AI 모델을 위한 '영양 성분표'와 같은 개념으로 정확도, 공정성, 모델 드리프트와 같은 지표를 보여준다. 모델의 최종 수정 시기, 모델에 기여한 사람, 모델에 대한 책임자와 같은 거버넌스 정보가 포함돼 있어, 조직이 비정상적인 모델 성능을 내부적으로 해결할 수 있게 해준다. 이처럼 개발자와 의사결정권자 등 모든 사용자에게 AI 수명 주기 전반에 걸쳐 독자 모델과 오픈소스 모델을 지원하는 엄선된 툴을 공급함으로써 신뢰성 있는 AI의 가치를 창출하게 될 것이다. 2024년 중반에 출시되는 '모델 카드'는 SAS 제품에서 콘텐츠를 가져와 등록된 모델에 대한 '모델 카드'를 자동으로 생성해, 개별 사용자가 '모델 카드'를 생성해야 하는 부담을 덜어준다. SAS 바이야는 이미 오픈소스 관리를 위한 기존 아키텍처를 보유하고 있어, 파이썬 모델을 시작으로 오픈소스 모델에도 '모델 카드'를 사용할 수 있다. '모델 카드'와 함께 'AI 거버넌스 자문 서비스'는 AI와 데이터 활용 방법을 고민하는 고객을 위해 제공하는 부가서비스로, 고객과의 미팅을 통해 조직의 현 상황을 파악하고 관련 서비스를 제공한다.

2024.04.22 09:36김우용

효성인포·태영소프트·카파정보기술, 헬스케어 사업 업무 협약 체결

효성인포메이션시스템(대표 양정규)은 차세대 의료영상저장전송시스템(PACS) 솔루션 전문기업 태영소프트(대표 나승호), IT 서비스 전문기업 카파정보기술(대표 이정필)과 병원·바이오·헬스케어 시장 데이터 레이크 및 랜섬웨어 대응 위한 업무 협약을 체결했다고 22일 밝혔다. 3사는 이번 협약을 통해 태영소프트의 PACS 솔루션 'ZeTTA'와 효성인포메이션시스템의 오브젝트 스토리지 'HCP'를 연계, 폭증하는 의료 데이터의 효과적인 저장·관리를 위한 데이터 레이크 사업 및 랜섬웨어 대응에 대한 기술력과 노하우를 공유한다. 또한 각 사가 보유한 기술력, 고객 레퍼런스, 사업 역량을 기반으로 공동 영업 및 마케팅 활동을 펼쳐 시장을 확대하고 시너지를 높일 계획이다. 병원·바이오·헬스케어 분야에서는 폭증하는 의료 데이터의 효율적 활용과 다양한 신기술 접목을 위한 의료시스템 고도화가 중요하다. PACS는 MRI, CT 등 영상 진단장치를 통해 진단한 영상을 디지털 형태로 저장하고, 판독과 진료기록을 전송·검색하는데 필요한 기능을 통합 처리하는 디지털 의료 영상 저장 전송 시스템이다. 상급종합병원을 중심으로 의료영상 기반 빅데이터 활용을 위한 차세대 연구용 PACS의 활용이 높아지고 있으며, 다양한 AI 기술과 연계한 플랫폼으로 진화를 거듭하고 있다. 태영소프트는 ZeTTA PACS 솔루션의 대용량 데이터 관리, 빠른 의료영상 로딩, 검색 속도, 시스템 안정성, 직관적 사용자 환경 등 기술적 강점과 함께 의료진 요구사항을 즉각 반영하는 만족도 높은 기술 지원을 제공한다. 이를 통해 상급종합병원 PACS 신규 및 교체 프로젝트를 성공적으로 연이어 구축하며 시장 점유율을 높이고 있다. 효성인포메이션시스템의 HCP는 비정형 데이터를 비롯한 대용량 데이터의 효율적인 저장 및 관리를 지원하는 오브젝트 스토리지다. 대용량 및 고성능 데이터 레이크 환경을 제공하고, 메타 데이터 관리를 통한 빅데이터 분석 기반을 지원한다. 파일 위변조·수정 방지, 버저닝 등 다양한 접근제어 기능을 이용해 랜섬웨어 등 보안 공격으로부터 안전하게 데이터를 보호할 수 있다. 양사는 이번 업무 협약을 통해 제품간 연동을 위한 API를 개발하고 노하우와 솔루션을 공유하며 최상의 PACS 솔루션 기술과 인프라 환경을 제공할 계획이다. 여기에 카파정보기술의 풍부한 사업 경험과 PACS 솔루션 전담 영업 인력, 엔지니어들의 기술 역량을 더해 시장 확대에 박차를 가할 전략이다. 효성인포메이션시스템 양정규 대표는 “3사간 협업으로 경쟁력 있는 PACS 솔루션과 대용량 데이터를 안전하게 처리할 수 있는 인프라 환경을 지원함으로써 병원·바이오·헬스케어 분야에서 IT 혁신을 위한 최상의 전략을 제시할 것”이라고 밝혔다.

2024.04.22 09:27김우용

시스코, AI 기반 클라우드 보호 기술 '시스코 하이퍼쉴드' 공개

시스코는 데이터센터 및 클라우드 보호 기술 '시스코 하이퍼쉴드'를 최근 공개했다고 22일 밝혔다. 인공지능(AI) 확대로 IT 인프라 요구 수준이 높아지는 가운데, 시스코는 AI과 워크로드의 활용 및 보호 방식을 재구성하겠다는 방침이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 모든 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 계층에서 이뤄진다. AI 네이티브로 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산 구조의 지원 접근이 가능하다. 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 확장버클리패킷필터(eBPF)를 기반으로 구축됐다. 시스코는 기업용 eBPF 선도업체인 아이소밸런트 인수를 이번 달 초 마무리했다. 시스코는 서버와 네트워크 패브릭 자체에 고급 보안 제어 기능을 탑재해 네트워크 보안 작동 방식을 변화시키고 있다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 네트워크, 보안 및 광범위한 파트너 에코시스템 분야에서 업계 최고의 전문성을 갖춘 시스코는 엔비디아와 함께 데이터센터를 보호하고 확장하기 위해 AI 네이티브 솔루션을 구축 및 최적화하는 데 노력을 기울이고 있다. 엔비디아와의 협력은 네트워크 이상 징후를 탐지하는 엔비디아 모르페우스 사이버보안 AI 프레임워크와 엔터프라이즈를 위한 맞춤형 보안 AI 어시스턴트를 구동하는 엔비디아 NIM 마이크로서비스를 활용하는 것을 포함한다. 엔비디아의 컨버지드 가속기는 GPU 및 DPU 컴퓨팅의 성능을 결합해 클라우드부터 엣지까지 강력한 보안을 갖춘 시스코 하이퍼쉴드를 강화한다. 케빈 디어링 엔비디아 네트워킹 부문 수석 부사장은 “기업들은 산업 분야에 상관없이 끊임없이 확정되는 사이버 위협으로부터 기업을 보호할 수 있는 방법을 찾고 있다”며 “시스코와 엔비디아는 AI가 가진 힘을 활용해 강력하고 안전한 데이터센터 인프라를 제공해 기업들이 비즈니스를 혁신하고 전 세계 모든 고객들이 혜택을 누릴 수 있도록 지원하고 있다”고 밝혔다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객이 직면하는 세 가지 문제를 해결할 수 있다. 분산 취약점 방어의 경우 공격자는 새로운 취약점 발표 후 보안 패치 적용 전에 빠르게 활용해 공격한다. 시스코의 보안 전문 조직 탈로스에 따르면, 방어자들은 매일 100 여개의 취약점을 새롭게 발견하고 있으며 이는 치명적인 결과로 이어질 수 있다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 공격자가 네트워크에 접근했을 때 세그멘테이션은 공격자의 측면 이동 공격을 차단하는 데 핵심적인 역할을 한다. 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 시스코 하이퍼쉴드는 이중 데이터 평면을 활용해 매우 복잡하고 오랜 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 고객 고유의 트래픽, 정책 및 기능 조합을 사용해 소프트웨어 업그레이드 및 정책 변경 사항을 디지털 트윈에 반영하고, 다운타임 없이 이를 적용한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 '시큐리티 클라우드'에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 전례 없는 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 지투 파텔 시스코 보안 및 협업 부문 부회장 겸 총괄 매니저는 "AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다”며 “이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 설명했다. 이어 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다”며 “수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 밝혔다. 척 로빈스 시스코 회장 겸 최고경영자(CEO)는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라며 “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 강조했다.

2024.04.22 09:24김우용

잡코리아, LLM 기반 자체 생성형 AI 솔루션 '루프' 출시

잡코리아는 LLM(거대언어모델) 기반 자체 생성형 AI 솔루션 '루프'(LOOP)를 출시했다고 22일 밝혔다. 자체 생성형 AI를 통해 더욱 정교한 매칭 기술로 인재와 기업을 연결시키겠다는 취지다. 루프 출시와 함께 새로운 로고도 공개했다. 잡코리아 브랜드 컬러와 같은 '블루'를 시그니처 컬러로 사용해 기존 브랜드 가치에 일관성을 더했다. '무수한 데이터와 정보의 바다 속을 유영한다'는 의미로 파동형태의 그래픽을 시각화한 것이 특징이다. 잡코리아는 다년간 쌓아온 업력과 지속적인 기술혁신으로 지난해부터 AI를 활용한 인재 매칭 서비스 '원픽', 자사 데이터 기반 커리어설계 서비스 '커리어첵첵' 등 다수의 서비스를 개발·운영하고 있다. 이 과정에서 쌓은 관련 노하우를 이번 잡코리아 루프에 적용했다. 특히 루프는 한국어 구인구직 LLM을 상용화해 이력서, 구인공고 등 HR 데이터를 활용함에 있어 더욱 정확하고 빠른 결과 산출이 가능하다는 강점을 보유하고 있다. 또 HR 도메인에 특화된 기능 위주로 개발돼 고객 서비스 활용에 최적화된 결과를 제공한다. 이번 루프는 기존 인재 추천 및 검색 서비스와 연계한 생성형 AI 서비스에 우선 적용될 예정이다. 이 외에도 자체 솔루션 운영을 통해 보안 위협으로부터 고객 개인정보보호와 데이터의 보안도 더욱 강화될 전망이다. ▲보안 ▲규정 준수 ▲ID ▲디바이스 관리 ▲개인정보 보호에 걸친 모든 환경을 보호한다. 또 기존 퍼블릭 LLM 운영 대비 인력 리소스를 줄이고, 전 기술분야에 업무 효율화와 비용 절감을 지원한다. 임지홍 잡코리아 데이터AI본부 상무는 "LOOP는 잡코리아의 AI 기술 노하우가 집약된 HR업계 최초 LLM AI 솔루션으로 오랜 시간 개발해 출시한 만큼, 완성도 높은 서비스를 선보이기 위해 노력하겠다"며 "향후에는 SaaS AI 솔루션과 결합해 다양한 사용자의 요구사항을 충족하는 차별화된 서비스와 매출 상승에 기여할 수 있는 새로운 비즈니스 모델을 구축할 예정"이라고 말했다. 잡코리아는 구직자의 니즈에 맞는 이력서 작성 및 관리, 데이터 분석 등 자체 AI 솔루션 기반 신규 서비스도 추진 중이다. 또 내부 구성원의 데이터 리터러시(Literacy, 문해력) 역량 강화를 위한 챗봇 서비스도 계획하고 있다. 지디넷코리아는 5월22일 강남구 봉은사로에 위치한 슈피겐홀에서 HR 담당자 대상의 'HR테크 커넥팅 데이즈' 세미나 행사를 연다. 이번 행사에는 리멤버(드라마앤컴퍼니)·잡플래닛(브레인커머스)·스펙터·블라인드·클랩(디웨일)·무하유(프리즘·몬스터)·잡코리아(나인하이어) 등 HR테크 분야 대표 기업들이 참여해 인적자원 관리(HRM)에 관한 최신 트렌드를 짚어보고, 데이터에 기반한 인사이트를 제시할 예정이다. 또 팀스파르타·데이원컴퍼니(패스트캠퍼스) 등 성인 교육 기업들도 참여해 인적자원 개발(HRD)에 필수인 '업스킬'과 '리스킬'에 대한 노하우도 풀어낼 계획이다. 이 밖에 HR 직무 현직자·노무 관련 전문 변호사 강연, 네트워킹 오찬 등이 마련될 예정이다. HR테크 커넥팅 데이즈 현장 참여를 원하는 HR 리더 및 임원은 [☞이곳]을 통해 사전 등록하면 된다. 사전 등록자 중 선정된 지원자들에게 4~5월 중 정식 초청장이 발송될 예정이다.

2024.04.22 08:47백봉삼

고려대 기술법정책센터, '마이데이터 2.0 시대 현안과 과제' 세미나 25일 개최

기술에 관한 각종 법정책 연구를 지향하는 고려대학교 기술법정책센터(센터장 이성엽 고려대 교수)는 KB금융지주·국민은행과 함께 오는 25일 KB금융지주 신관에서 '마이데이터 2.0 시대 현안과 과제'를 주제로 2024년 상반기 마이데이터 포럼 공개세미나를 개최한다. 마이데이터 2.0 시대를 맞이한 시점에서 열리는 이번 세미나에는 제도와 서비스 활성화를 위한 이슈로 발제 두개다 이뤄지고 이에 관한 종합 토론도 진행한다. 첫 번째 주제는 '마이데이터 2.0 시대 현안과 추진과제'로 KB국민은행 마이데이터부 유종배 부장이 발제하고, 두 번째 주제는 '마이데이터 2.0 시대 법제도 개선과제'로 김&장 법률사무소 김세중 변호사가 발제한다. 이어 토론에서는 고려대학교 이성엽 교수를 좌장으로 고환경 변호사(법무법인 광장), 김지식 부사장(네이버파이낸셜), 육창화 부행장(KB 금융지주), 조재박 부대표(삼정KPMG), 신상록 과장(금융위원회 금융데이터정책과), 황지은 과장(개인정보보호위원회 범정부 마이데이터추진단)이 패널 토론에 참여한다. 이성엽 고려대 교수는 "2022년 1월 시행한 마이데이터 사업 전반을 진단하고 마이데이터를 통해 금융소비자들이 더욱 다양한 서비스를 체감할 수 있는 금융플랫폼 기능을 강화하기 위한 마이데이터 2.0 전략과 관련한 현안과 과제를 살펴볼 수 있는 의미있는 세미나가 될 것"이라고 밝혔다.

2024.04.21 22:40방은주

  Prev 51 52 53 54 55 56 57 58 59 60 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 인재도, 데이터도 없다"…망분리 완화부터 속도내야

인텔, 컴퓨텍스 2025서 AI 경쟁력 강화 신기술 공개

조립·분해부터 용접까지…공장 풍경 바꾸는 'AI 로봇'

Z세대 술 안 마시는데…롯데칠성 전략 실패 어쩌나

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현