• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
6.3 대선
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'생성형 ai'통합검색 결과 입니다. (656건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

스노우플레이크, '크로스-클라우드' AI 협업 기능 강화

스노우플레이크가 데이터와 인공지능(AI) 협업을 통해 기업 보안과 생산성 강화에 나섰다. 스노우플레이크는 외부 파트너·고객과 데이터, AI 모델, 앱을 안전하게 공유하고 평가할 수 있는 기능을 공개했다고 10일 밝혔다. 내부 마켓플레이스와 스노우파크 머신러닝(ML) 모델링 API 등 도구로 기업의 AI 프로젝트 수행 효율성과 보안성을 높였다. 스노우플레이크의 내부 마켓플레이스는 조직 내 데이터를 검색하고 공유하는 과정을 간소화하며 권한 관리 기능을 제공한다. 이를 통해 AI 모델의 파인튜닝과 같은 고도화 작업을 팀 간 협업으로 효율적으로 진행할 수 있다. 데이터 복사와 이동 없이 모델 성능을 높여 배포할 수 있는 환경도 제공한다. 스노우파크 컨테이너 서비스와 네이티브 앱 프레임워크는 AI 기반 앱 개발 과정을 단축하고 상용화를 돕는다. 이를 통해 개발자들은 선호하는 언어와 환경에서 모델을 학습시키고 다양한 리전·클라우드 환경에 배포할 수 있다. 특히 그래픽처리장치(GPU)와 중앙처리장치(CPU) 인스턴스를 활용한 유연한 구성도 가능하다. 스노우플레이크는 보안 요구사항 높은 기업을 위한 맞춤형 지원도 확대했다. 보안 배포 기능과 컴플라이언스 배지 시스템은 외부 위협을 최소화하며 내부 표준 준수를 돕는다. 이를 통해 스노우플레이크는 엄격한 산업 기준에도 부합하는 AI와 데이터 제품의 안전한 배포를 가능케 했다. 스노우플레이크 프라사나 크리슈난 협업 및 호라이즌 사업부 총괄은 "기업들이 빠르게 변화하는 데이터와 AI 환경에서 성공하려면 조직 내외부 데이터를 즉시 활용할 수 있어야 한다"며 "보안과 협업이 조화를 이루는 환경을 제공할 것"이라고 밝혔다.

2024.12.10 17:23김미정

스노우플레이크 "방대한 기업 데이터, 단일 API로 관리 간소화"

"생성형 인공지능(AI) 시대 최대 과제는 기업 데이터 관리입니다. 단일 API로 데이터 환경을 간소화해야 합니다. 효율적인 데이터 관리로 쉬운 AI 애플리케이션 개발 환경을 고객에 제공할 수 있습니다. 또 고객에게 생성형 AI 서비스를 잘 지원하려면 높은 신뢰성·가성비도 필수입니다." 최기영 스노우플레이크 코리아 지사장은 10일 미디어 간담회를 통해 생성형 AI 시대 데이터 관리 방식과 AI 애플리케이션 개발 필수 요소를 이같이 밝혔다. 스노우플레이크는 10년 동안 글로벌 시장에 데이터 레이크하우스와 데이터 메시 등 다양한 데이터 아키텍처 솔루션을 지원해 왔다. 한국에는 3년 전 진출했다. 현재 전 세계적으로 50억 건 넘는 데이터를 매일 처리하고 있다. 고객은 약 10만 명이다. "AI로 복잡한 데이터 관리…단일 API로 간소화" 최기영 지사장은 생성형 AI 산업 활성화로 기업 데이터가 방대해졌다고 주장했다. 그동안 기업이 데이터 레이크 하우스와 데이터 메시, 웨어하우스 등으로 데이터 간소화에 노력했지만 복잡성이 오히려 늘었다고 지적했다. 이 과정에서 기업이 여러 엔진을 활용하면서 데이터 사일로가 다시 발생했다는 이유에서다. 이에 스노우플레이크는 방대한 데이터 관리를 간소화하기 위해 단일 API 방식을 채택했다. 이는 데이터 관리를 간소화할 뿐 아니라 여러 엔진을 하나로 합쳐줄 수 있는 방식으로 평가받고 있다. 현재 스노우플레이크 기업 고객은 단일 API로 정형 데이터와 비정형 데이터, 외부 데이터 등 다양한 소스를 하나의 통합된 인터페이스로 연결해 데이터를 간소화하고 통합적으로 활용하고 있다. 사용자는 복잡한 데이터 위치나 처리 방식을 고려하지 않아도 단일 API 호출로 데이터를 쿼리·분석할 수 있다. 예를 들어 PDF 계약서에서 결제 조건을 추출하거나 SQL 데이터베이스(DB)에서 배송 시간을 조회하는 작업을 동일한 API 호출로 한 번에 할 수 있다. 최 지사장은 "사용자는 단일 API를 통해 적합한 엔진을 자동으로 라우팅할 수 있다"며 "정형 데이터와 비정형 데이터를 유기적으로 연결할 수 있다"고 설명했다. 이어 "사용자는 별도 설정 없이 필요한 데이터를 간편하게 얻을 수 있다"며 "단일 API는 데이터 소스 간 경계를 허물고, 복잡한 데이터 추출·변환·적재(ETL) 작업을 줄여 효율성을 높인다"고 강조했다. "생성형 AI 환각현상 최소화·가성비 최대화 핵심" 스노우플레이크는 향후 AI 애플리케이션이 기업 시장에서 주요 킬러 앱으로 자리 잡을 것으로 내다봤다. 이를 실현하기 위한 필수 요소로 답변 신뢰성과 가성비를 꼽았다. 이날 스노우플레이크 코리아 이수현 테크에반젤리스트는 스노우플레이크의 검색증강생성(RAG) 주요 특징을 설명했다. 스노우플레이크는 현재 20개 넘는 매트릭스를 활용해 AI 모델 성능을 다각적으로 측정할 수 있는 방법을 도입했다. 측정 기준은 정확성과 연관성, 문맥 적합성이다. 우선 AI 모델이 내놓은 답변이 사용자 질문과 얼마나 밀접히 관련됐는지 평가한다. 이후 AI가 검색한 데이터와 제공한 응답 간 연관성을 검증한다. 마지막으로 답변이 질문 문맥과 얼마나 잘 맞는지 확인한다. 이를 자체적으로 수치화해 일정 점수가 넘어야 사용자에게 답변을 제공하는 식이다. 이 에반젤리스트는 AI 모델 성능이 임계값보다 낮을 경우 이를 자동으로 감지하고 사용자에게 알림을 제공한다고 설명했다. 과정도 간단하다. 우선 사용자는 모델 성능의 최소 허용 수준을 설정한다. 이후 시간이 지나면서 솔루션이 자체적으로 훈련 데이터와 현재 데이터 간 불일치를 탐지해 실시간으로 성능 저하를 식별한다. 이때 답변 정확도에 문제가 생기면 사용자는 기존 모델을 수정하거나 새 데이터로 모델을 재학습시키면 된다. 이 에반젤리스트는 "엔터프라이즈의 AI 핵심은 옵저버빌리티"라며 "AI 모델이 비즈니스 목표를 효과적으로 지원하고 기업에게 데이터 중심 의사 결정 기회를 줄 수 있을 것"이라고 밝혔다. 스노우플레이크는 데이터보안 강화를 위한 전략도 소개했다. 최근 잇따라 발생하는 데이터 거버넌스 이슈와 보안 문제를 해결하기 위한 목표다. 이 에반젤리스트는 "최근 기업들은 데이터를 AI 모델로 보내는 방식을 채택하기 일쑤"라며 "데이터를 외부 AI로 전송할 경우 보안 위험과 관리 어려움이 발생할 수 있다"고 지적했다. 이어 "AI 모델을 데이터 플랫폼으로 직접 가져와 데이터 내에서 관리하는 방식이 더 안전하다"며 "이를 통해 데이터 거버넌스와 보안에 생기는 이슈를 최소화할 수 있다"고 덧붙였다. 스노우플레이크는 가성비 있는 AI 활용을 지원하기 위해 오픈소스를 적극 활용할 것이라고 밝혔다. 기업이 데이터를 저비용에 처리할 수 있기 때문이다. 이를 통해 기업의 생성형 AI 사용 비용을 획기적으로 낮출 수 있다. 이 에반젤리스트는 "현재 아파치 아이스버그 도구로 생성형 AI의 학습 데이터 준비와 처리를 최적화해 비용 효율성을 높이고 있다"며 "대규모 데이터를 테이블 형식으로 관리해 필요한 데이터만 선택적으로 로드할 수 있어 데이터 준비와 처리 시간을 줄이고 불필요한 리소스 사용을 없앨 수 있다"고 강조했다.

2024.12.10 16:26김미정

"AI 악용·MLS, 내년 사이버 보안 핵심축"

내년 사이버 보안 분야에서 인공지능(AI) 악용과 딥페이크 공격, 차세대 보안관제센터 자동화, 다중계층보안(MLS) 등 신보안체계를 충족하는 공급망 보안 아키텍처가 주를 이룰 전망이다. 이글루코퍼레이션은 사이버 보안에 대한 주요 전망을 담은 '2025년 사이버 보안 위협 및 기술 전망 보고서'를 통해 이같이 10일 밝혔다. 이글루코퍼레이션 보안분석팀의 예측을 토대로 작성된 이번 보고서에는 내년 발생할 주요 보안 위협과 이에 대응하기 위한 보안 기술·방법론이 제시됐다. 이글루코퍼레이션은 AI의 급속한 발전·보편화로 인한 사회적 불안이 고조되면서 사이버 보안 역시 그 영향을 받을 것으로 전망했다. 악성 거대언어모델(LLM) 서비스, 딥페이크 등과 같은 신기술을 누구나 활용할 수 있게 되면서 이를 악용한 사이버 위협이 늘어 사회적 문제를 초래할 것으로 예상했다. 또 국가 주도의 공급망 공격, 다변화된 랜섬웨어 공격, 크리덴셜 탈취 공격도 늘어날 것으로 내다봤다. 이에 맞서 보안 위협의 복잡성을 해소해 효율성을 높이고 수많은 인프라·자산에 대한 통합적인 가시성을 확보할 수 있는 기술·방법론 중요성이 높아질 전망이다. 이글루코퍼레이션은 보안 정보 및 이벤트 관리(SIEM), 보안 운영·위협 대응 자동화 (SOAR), 위협 인텔리전스(TI) 등이 적용된 AI 기반 차세대 보안관제센터 자동화 구축에 대한 수요가 늘어날 것으로 예상했다. 또 위험 표면을 최소화하는 클라우드 보안 강화·해양 선박 운영기술(OT) 보안의 중요성이 높아지고 제로트러스트 아키텍처(ZTA) 및 다중계층보안(MLS) 등 신보안체계를 충족하는 공급망 보안 아키텍처 전략이 부각될 것으로 예측했다. 이글루코퍼레이션 김미희 보안분석팀장은 "생성형 AI 등 신기술을 적용한 다양한 형태 공격이 증가하면서 안정적인 보안 태세를 유지하고 보안 팀 역량을 확장할 수 있는AI 기반 차세대 보안관제센터 자동화 구현의 중요성이 높아질 것"이라며 "방어를 넘어 예측과 대응, 복구를 아우르는 전방위적인 보안 체계 구축에 힘쓸 것"이라고 강조했다.

2024.12.10 10:58김미정

스노우플레이크, 데이터 환경 개선·보안 강화 지원

스노우플레이크가 데이터 환경 단순화와 신뢰성 확보를 통해 기업에게 높은 개발 운영 효율성을 제공한다. 스노우플레이크는 자사 플렛폼 업그레이드와 신제품을 대거 출시했다고 10일 밝혔다. 이번 정식 출시된 '스노우플레이크 오픈 카탈로그'는 진화하는 데이터 아키텍쳐에서 새 엔진을 통합하고 일관된 거버넌스를 적용할 수 있다. 아파치 아이스커그 지원과 데이터 레이크하우스 기능도 강화했다. 스노우플레이크의 데이터 커버넌스 기능인 스노우플레이크 호라이즌 카탈로그에는 새 위협 예방 및 모니터링 기능을 추가하며 보안을 강화했다. 다크 웹에서 발견된 사용자의 비밀번호를 자동으로 비활성화하는 유출 비밀번호 보호기능과 API 인증을 위한 프로그래매틱 액세스 토큰을 지원한다. 애플리케이션 접근을 위한 개발자의 부담은 줄이고 해당 토큰에 범위와 만료 기한을 추가해 보안을 강화했다. 스노우플레이크는 트러스트 센터를 개선하고 플랫폼에 새로운 스토리지 라이프사이클 주기 정책, 데이터 레이크 성능 향상과 비용 절감을 위한 추가 기능도 더했다. 스노우컨버트의 경우 기존 테이블 오브젝트만 가능하던 마이그레이션을 뷰도 가능하도록 확대했다. '스노우플레이크 코텍스 AI' 업그레이드 스노우플레이크는 기업이 신뢰할 수 있는 AI를 프로덕션 환경에 도입할 수 있도록 지원하는 주요 기능도 발표했다. 이번에 업데이트된 스노우플레이크 코텍스 AI는 스노우플레이크의 완전 관리형 AI 서비스다. 기업이 고품질 대화형 앱을 더 효율적으로 구축하도록 지원한다. 이번 업데이트에는 메타의 라마 3.2 모델과 등 멀티모달 LLM을 통해 이미지와 곧 오디오, 다양한 형태의 비정형 데이터를 지원하는 기능이 추가됐다. 마이크로소프트 셰어포인트용 스노우플레이크 커넥터로 내부 지식 베이스와 외부 문서 데이터를 빠르게 통합할 수 있다. 마이크로소프트 365 셰어포인트 파일과 문서에 액세스, 자동으로 파일을 수집하고 AI 활용을 위한 전처리 작업을 생략할 수 있다. 문서 전처리 기능도 강화했다. 새로운 함수 호출로 PDF 및 다른 문서를 AI에 활용 가능한 상태로 쉽게 전처리할 수 있다. 텍스트 추출부터 청킹을 코텍스 서치에서 사용할 수 있다. 사용자는 코텍스 챗 API를 사용해 앱 프론트엔드와 스노우플레이크 간 통합을 간소화할 수 있다. 정형 데이터와 비정형 데이터를 단일 API 호출로 결합해 검색증강생성(RAG) 및 에이전트 기반 분석 앱을 더 쉽고 빠르게 구축하도록 돕는다. 사용자는 개발 및 운영 중에 AI 앱을 관련성, 정확도, 고정관념, 지연 등 20개 이상의 지표를 사용해 평가하고 지속적으로 모니터링할 수 있다. LLM을 위한 'AI 관찰'로 제공되며 스노우플레이크가 인수한 트루에라의 기술이 통합됐다. 정확한 셀프 서비스 분석도 제공한다. 코텍스 애널리스트를 통해 멀티턴 대화기능, 코텍스 서치 통합을 포함한 다양한 데이터 검색 기능으로 기업이 정형화된 데이터에서 더 정확한 인사이트를 얻도록 지원한다. 스노우플레이크는 자연어 처리(NLP) 기능을 향상해 배치 LLM 추론 옵션을 개선하고 더 많은 모델 옵션과 맞춤형 파인 튜닝 방식을 제공한다. 개발자는 코텍스 AI에 더 많은 사전 학습된 LLM, 임베딩 모델 크기, 지원하는 언어 등을 추가해 기업은 가장 적합한 LLM을 유연하게 선택할 수 있다. 이번에 추가된 코텍스 플레이그라운드 기능은 사용자가 다양한 LLM의 응답을 생성하고 비교할 수 있는 통합된 채팅 인터페이스다. 기업이 최적의 LLM 모델을 쉽게 찾도록 돕는다. 코텍스 서버리스 파인튜닝은 개발자가 데이터 자산으로 모델을 맞춤화하고 더 정확한 결과를 생성하도록 한다. 여러 작업에서 LLM을 대규모로 사용할 때 일관된 응답 생성을 지원한다. 프로비전드 스루풋은 대규모 LLM 추론 작업을 프로비전된 처리량으로 처리해야 하는 기업을 위해 기업이 성능을 보장하는 상태에서 성공적으로 작업을 처리하도록 지원한다. 스노우플레이크 배리스 굴테킨 AI 책임자는 "기업은 효과적인 의사 결정을 위해 정확하고 신뢰할 수 있는 AI가 필요하다"며 "이는 AI 모델을 작동할 다양한 출처의 고품질 데이터에 대한 접근으로부터 시작한다"고 강조했다. 이어 "스노우플레이크 코텍스 AI와 스노우플레이크 ML의 플랫폼 혁신을 통해 기업 데이터를 활용한 신뢰할 수 있는 AI를 더 빨리 제공할 수 있다"며 "이를 바탕으로 챗봇 개발 속도와 AI 프로젝트 비용, 성능을 개선해 ML 개발을 가속화할 수 있다"고 덧붙였다.

2024.12.10 10:37김미정

KISTI, 1억8천만 연구데이터 기반 대화형 AI검색 서비스 '개시'

대화형 AI 통합검색 서비스인 사이언스온 AI(SAI)이 공개됐다. 한국과학기술정보연구원(원장 이식, KISTI)은 과학기술 지식인프라 사이언스온(ScienceON)을 통해 대화형 AI 통합검색 서비스를 9일부터 선보인다. 과학기술 지식인프라 사이언스온은 1억 8천만 건의 국내외 논문, 특허, 국가R&D 보고서 등의 과학기술정보와 연구데이터, 정보분석 서비스 및 연구인프라를 연계·융합해 한 곳에서 제공하는 개방형 협업 연구환경 플랫폼이다. SAI는 통합검색 기능에 생성형 AI를 접목했다. AI와의 대화를 통해 연구 질문에 대한 답을 찾아나가는 서비스다. 이용자가 단어나 문장 형태의 질문을 입력하면, AI가 질문을 이해하고 관련된 논문, 특허, 보고서, 동향 등 사이언스온이 보유하고 있는 과학기술정보를 분석해 적절한 답변을 제공한다. 답변 생성을 위해 참고한 정보를 표기해 답변의 신뢰성을 높였다. 이용자가 질문한 내용에 대한 답변 뿐만 아니라, 추천 질문과 검색어를 제시하도록 만들었다. 이용자가 더 넓은 범위에서 정보를 탐색하고 새로운 연구 방향을 발견할 수 있도록 돕는다. KISTI가 자체 개발한 생성형 언어 모델 고니(KONI)와 검색 증강 생성(RAG) 기술을 적용했다. KISTI 유수현 융합서비스센터장은 “데이터 신뢰성을 높이고 나아가 연구 효율성을 높이는데 기여할 것”이라며, “지속적인 기술 개발을 통해 SAI가 이용자들에게 최적화된 연구환경을 제공할 수 있도록 할 것"이라고 말했다.

2024.12.09 18:00박희범

[현장] "AI 저작물은 창의적인가"…저작권 쟁점 논의의 장 열렸다

"인공지능(AI)이 만들어낸 창작물을 과연 진정한 예술로 볼 수 있을지에 대한 논의가 절실합니다. 이는 단순히 기술 발전의 문제로만 접근해선 안됩니다. 인간 창작자와 AI가 함께 빚어내는 예술적 가치에 대한 평가와 저작권에 대한 법적 개념까지 근본적으로 재검토해야 하는 등 시대적 과제가 산적했습니다." 남윤재 경희대학교 교수는 9일 서울 여의도 FKI타워에서 열린 '인공지능이 사회문화에 미칠 영향 및 합리적 정책 방향' 세미나에서 이같이 강조했다. 이날 세미나는 생성형 AI 기술 확산으로 문화예술·미디어·법률 산업 전반에서 일어나는 변화와 쟁점을 조망하기 위해 마련됐다. 특히 챗GPT를 비롯한 다양한 생성형 AI 기술이 대중화되면서 그동안 사람이 독점해왔던 '창작'의 개념이 흔들리고 저작권 체계와 정책 방향을 재정립해야 한다는 공감대가 형성됐다. 남 교수는 AI 기술이 엔터테인먼트 및 미디어 산업에 광범위하게 침투하고 있음을 강조했다. 현재 AI는 스토리 초안 생성, 음악·영상 편집, 광고 제작 등 창의적인 산업의 운영 과정 전반에서 효율성을 높이며 산업구조를 재편하고 있다. 실제로 과거에는 디자이너와 작가가 오랜 시간 공들여야 했던 콘셉트 아트나 스토리보드를 AI가 순식간에 내놓을 수 있게 되면서 창작 과정이 압축되고 있다. 또 엔터테인먼트 분야에서 AI를 활용해 맞춤형 콘텐츠를 추천하거나 실시간 번역·현지화를 통해 글로벌 시장 공략이 용이해지는 등 분명한 장점이 발생하고 있다. 다만 이러한 효율성 이면에는 새로운 문제가 도사리고 있다는 점을 남 교수는 강조했다. 대량 복제를 통해 다수의 작품을 즉각 생산하는 AI의 능력이 창작물의 '진정성'과 '희소성'을 약화시키고 있기 때문이다. 이러한 상황에 대해 그는 "소비자들이 AI가 만든 작품을 접했을 때 그 작품이 진정한 의미의 예술인지 아니면 단순한 알고리즘의 산물인지 고민하게 된다"며 "이는 결국 '창작자란 누구이며 예술적 가치는 어디서 오는가'라는 근원적 질문으로 이어진다"고 분석했다. 이어서 발표에 나선 김우균 법무법인 세종 변호사는 '생성형 AI 콘텐츠 활용에 대한 저작권 이슈'를 정면으로 다뤘다. 김 변호사는 AI가 학습 단계에서 기존 저작물을 대량 복제·전송하는 행위가 과연 저작권 침해인지의 여부에 대한 질문을 제기했다. 현재 미국, 유럽연합(EU), 일본 등 해외 국가들은 AI 학습 과정에서 발생하는 저작권 문제를 공정 이용(Fair Use)이나 예외 조항을 통해 완화하려는 입법적·사법적 시도를 시도하고 있다. 특히 미국은 학습을 위한 복제가 꼭 '표현 감상' 목적이 아니므로 일정 부분 허용하는 방향으로 논의를 전개하고 있다. EU나 일본 역시 텍스트·데이터 마이닝(TDM)에 대한 명시적 면책 규정을 두거나 저작권자가 반대하지 않는 한 학습 행위를 허용하는 식으로 제도화하고 있다. 반면 한국은 아직 명확한 법적 근거가 없고 사법적 판례도 미비한 상황이다. 김 변호사는 "지금과 같은 법적 공백 상태에서는 학습 과정부터 생성물에 이르기까지 다양한 저작권 이슈가 발생할 수 있다"며 "이는 창작자, 개발자, 소비자 모두에게 불안정한 환경을 초래한다"고 지적했다. 이는 저작권 인정에 대한 딜레마로 이어진다. 현재의 모호한 제도로는 AI가 만든 창작물에 대한 저작권을 인정하기 어렵기 때문이다. 저작권법은 원칙적으로 '인간'이 창작한 표현물에만 권리를 부여하는데 AI가 독자적으로 만들어낸 결과물은 여기에 해당하지 않는 상황이다. 또 생성 AI에 대한 프롬프트 입력은 단순히 아이디어 제공에 그치는 경우가 대부분이다. 이 때문에 기존 저작권 개념으로는 모델의 개발 회사나 프롬프트 엔지니어에게 저작권을 부여하기 어렵다. 이러한 상황에 대해 김 변호사는 "정당한 보상을 창작자에게 돌리는 대안적 장치 마련이 시급하다"며 "AI 산업의 성장 이면에 기존 창작자들의 권익 보호를 위한 새로운 패러다임이 필요하다"고 설명했다. 이날 이어진 세미나의 토론 세션은 황창근 홍익대학교 법학과 교수가 사회를 맡아 진행했다. 토론에는 남 교수와 김 변호사를 비롯해 김경숙 상명대학교 교수, 박구만 서울과학기술대학교 교수, 이원태 아주대학교 교수, 최진응 국회입법조사처 조사관, 한정훈 K-엔터테크허브 대표 등이 참여해 심도 있는 논의를 펼쳤다. 행사를 주최한 노창희 디지털산업정책연구소 대표는 "인공지능에 대해 규제를 강화하자는 입장이나 무조건 장려하자는 입장이 아니라 가치 중립적인 시각에서 논의의 장을 마련했다"며 "앞으로도 인공지능을 비롯한 디지털 산업의 다양한 이슈에 대해 공론의 장을 지속적으로 제공할 계획"이라고 밝혔다.

2024.12.09 17:31조이환

AI모델과 데이터 보호, '동형 암호'가 답이다

“머신러닝(ML)과 인공지능(AI)모델 활용으로 인한 데이터 유출 우려가 높습니다. 암호화된 데이터를 직접 연산할 수 있는 동형암호가 기업의 AI활용 방안을 제시합니다.” 천정희 크립토랩 대표는 데이터를 노출하지 않고 AI모델을 활용할 수 있는 방안을 제시했다. 크립토랩은 동형 암호(Homomorphic Encryption) 전문 스타트업이다. 동형 암호는 암호화된 데이터를 복호화하지 않고 직접 연산할 수 있는 기술이다. 데이터가 암호화된 상태에서 특정 계산을 수행하고, 그 결과를 암호화된 형태로 얻을 수 있다. 이 기술은 데이터를 노출하지 않고 유용한 정보를 추출할 수 있어 강력한 보안 수단으로 주목받는다. 기업과 기관은 ML과 AI모델로 업무 혁신을 꾀한다. 하지만, ML이나 AI모델에 기업 내부 정보나 고객 정보, 국가 중요 데이터가 활용될 때 어떻게 보호할 것인가가 이슈다. 천 대표는 “크립토랩의 동형 암호 '혜안(HEaaN)'은 고객 계좌정보나 거래내역, 환자 정보, 중요 시설 영상 정보 등을 암호화한 상태에서 활용할 수 있다”고 설명했다. 군 AI모델 암호화 실증 사업 수행 중 크립토랩은 최근 군과 관련된 AI모델 암호화 실증 사업 과제를 수주했다. 영상 객체 인식 AI모델을 동형 암호화해 암호화한 상태에서도 정확도와 속도를 유지할 수 있는지를 검증한다. 군사 작전 수행 과정에서 생성형 AI플랫폼을 안전하게 운용할 수 있도록 암호화된 RAG기반의 생성형 AI 플랫폼을 실증한다. 천 대표는 "크립토랩은 데이터 보호뿐만 아니라 인공지능 모델을 안전하게 운영하는 기술 개발에도 힘쓰고 있다"면서 "현재까지 ML에 최적화한 동형 암호 기술을 완성했고 향후 소형언어모델(sLLM) 적용까지 바라보고 있다"고 설명했다. 천 대표는 서울대 수리과학부 교수이기도 하다. 2016년 4세대 동형 암호를 개발한 후 사업화 필요성을 절감했다. 동형 암호는 46년된 기술이다. 데이터 수요가 급증하면서 동형암호 수요 증가가 점쳐졌기 때문이다. 이후 2017년 크립토랩을 설립했다. 그는 “66건의 특허를 등록하고 184건은 출원하면서 동형 암호 기술의 가능성을 깨달았다”면서 “기술을 제대로 이해하고 상용화할 전문경영인을 찾다가 직접 스타트업을 설립했다”고 설명했다. 크립토랩은 전세계에서 가장 빠른 동형암호 제품 라인업을 가졌다고 자부한다. 4세대 동형암호 'CKKS' 원천 기술을 기반으로 동형암호 라이브러리 '혜안'을 내놨다. 크립토랩은 미 국방부 DARPA 과제를 두번 수주했고 스타트업 최초로 가트너 동형 암호 기술 부분 샘플 벤더로 선정되는 등 해외에서 기술력을 검증받은 스타트업이다. 혜안 인사이드 시대 꿈꾼다 천 대표는 “10여개 분야에서 동형 암호를 적용한 시범사업이 진행 중”이라면서 “마크로젠과 유전체 데이터 분석을 통한 맞춤형 의료 서비스를 비롯해 금융, 국방, 의료에 적용되고 있다”고 설명했다. 동형 암호는 미국 등 선진국에서 활용이 증가하고 있는 분야다. 미국 국립과학재단(NSF)과 국방과학연구소(DARPA) 등이 동형 암호 연구와 투자를 늘렸다. 그는 “최근 정부와 금융권은 망분리 규제 개선안을 발표하고 데이터 등급에 맞춘 다층보안체계(MLS)를 발표했다”면서 “동형 암호는 데이터별로 등급에 맞춰 암호화하는 것은 물론 권한에 따라 안전하게 데이터를 취급할 수 있는 길을 제시한다”고 말했다. 천 대표는 “모든 데이터를 처리할 때마다 '혜안 인사이드(HEaaN inside!)'되는 날을 꿈꾼다”면서 “동형 암호를 기반으로 민감한 정보의 안전한 활용 시대를 열 것”이라고 강조했다.

2024.12.09 17:05김인순

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"누구나 비전언어모델 사용"…구글, 신형AI '팔리젬마2' 오픈소스로 공개

구글이 사람처럼 보고, 이해하고, 상호작용할 수 있는 신형 비전언어모델(VLM)을 오픈소스로 공개했다. 이를 통해 의료, 제조 등 다양한 산업 분야에서 보다 효율적으로 AI를 활용할 수 있을 전망이다. 5일 구글 딥마인드는 오픈소스 VLM '팔리젬마2(PaliGemma2)'를 공식 블로그를 통해 공개했다. 비전언어모델은 사람처럼 이미지와 텍스트를 함께 학습하고 업무를 처리하는 AI 모델이다. 이를 통해 두 가지 데이터 유형이 독립적으로 처리되었을 때 놓칠 수 있는 정보 간 연관성을 이해하고 처리할 수 있는 것이 특징이다. 구글의 팔리젬마2는 젬마2 언어 모델 기반으로 개발돼 언어 처리 성능을 향상시켰다. 이를 통해 세부 사항을 요구하는 작업을 보다 정확하게 수행할 수 있으며 복잡한 작업의 완성도도 높일 수 있다. 특히 구글의 AI전용 프로세서 TPUv5를 활용해 학습 효율성을 극대화했으며 일반 PC 환경에서도 효과적으로 실행될 수 있도록 최적화 작업을 거쳤다. 기존 페일젬마는 224px 해상도만 지원한 반면 팔리젬마2는 448px와 896px등 고해상도 까지 지원해 실제 활용할 수 있는 업무 범위를 확대했다. 이 밖에도 세밀한 글씨를 정확히 감지하고 인식하기 위한 광학문자인식(OCR) 등의 기능을 개선했다. 고해상도도 이미지를 학습하고 구연할 수 있어 ICDAR 15와 토털텍스트 데이터셋 벤치마크에서 이전 최고 성능 모델을 능가하며 F1 점수 75.9를 기록하며 VLM 중 가장 우수한 성능을 달성했다. 구글 딥러잉 측은 페일젬마2를 활용해 더욱 복잡한 분자구조나 X레이 이미지를 분석하고 음악 파형 등을 인식해 디지털 변환하는 과정의 정확도를 높이는 등 다양한 분야에 활용할 수 있을 것으로 예측하고 있다. 구글의 다니엘 카이저스 연구 엔지니어는 "볼 수 있는 맞춤형 AI를 구축하는 것은 복잡하고 리소스 집약적인 노력이 요구됐다"며 "하지만 이제는 팔리젬마2를 통해 누구나 시각적 입력을 이해하고 상호작용할 수 있는 AI를 활용할 수 있게됐다"고 말했다.

2024.12.06 10:25남혁우

업무 효율성 극대화 비결은?…답은 AI 협업툴 '플로우'

"지난주에 했던 업무를 1초 만에 파악하고 이를 바탕으로 이번 주 해야 할 일을 체계적으로 설정할 수 있습니다. '챗GPT'로는 불가능하지만 '플로우'는 가능합니다. 이외에도 과거 업무 히스토리, 공지, 규정 등을 즉시 검색해 업무 생산성을 극대화할 수 있습니다." 장아람 플로우 부장은 5일 서울 롯데호텔 월드에서 열린 '컨버전스 인사이트 서밋(CIS) 2024'에서 이같이 말했다. 이번 행사는 디지털 기술과 비즈니스 전략의 융합을 모색하기 위해 개최됐으며 국내 IT 및 경영 전문가들이 다수 참여해 최신 트렌드와 통찰을 공유했다. 지난 9년간 대한민국 1위 협업툴로 성장한 플로우는 인공지능(AI)를 활용한 차세대 업무 혁신 솔루션을 제공하고 있다. 특히 업무 데이터의 통합 관리와 효율성을 강조하며 기업들이 디지털 시대에 경쟁력을 확보하기 위한 방안을 제시하고 있다. 이를 위해 플로우는 메신저, 프로젝트 관리, 차트, 파일 공유, 목표 관리 등 다양한 기능을 한 플랫폼에서 제공해 소통 창구를 일원화하고 비용을 절감한다. 기존 협업툴이 각각 분리된 형태로 사용돼 비효율이 발생하는 문제를 해결한 것이다. 장 부장은 "우리는 회사 내 모든 데이터를 한 곳에 통합해 사용자가 즉각적으로 정보를 검색하고 활용할 수 있도록 돕는다"며 "이에 과거 업무 히스토리나 공지, 규정 등을 찾는 데 소요되는 시간을 획기적으로 줄일 수 있다"고 설명했다. 특히 AI 기반 스마트 검색 기능은 업무 생산성을 크게 향상시킨다. 사용자는 필요한 정보를 즉시 찾아볼 수 있어 업무 효율성이 증대된다. 또 클라우드 기반의 서비스형 소프트웨어(SaaS)와 망 분리 환경을 위한 온프레미스 서비스를 모두 제공해 다양한 기업 환경에 대응할 수 있게 한다. 유즈 케이스 역시 검증됐다. 삼성전자, 미래에셋증권, 대한민국 국군 등 다양한 분야에서 도입돼 성과를 거두고 있기 때문이다. 플로우가 제공하는 AI 비서 서비스의 진가를 알아본 덕이다. 이 솔루션은 모든 조직의 업무 일정을 자동으로 정리하고 주간 업무량과 처리 속도를 분석해 최적화된 작업 환경을 제공한다. 교육 시장에서도 큰 변화를 일으키고 있다. 학교는 플로우의 주요 고객 중 하나로, 선생과 학생들이 '플로우'를 통해 프로젝트를 진행하고 생활기록부를 작성하는 등 교육 현장에서의 활용 사례가 늘어나고 있다. 이를 통해 디지털 격차를 해소하고 미래 인재를 양성하는 데 기여하고 있다. 장 부장은 "우리는 단순한 협업툴을 넘어 100명의 직원이 200명처럼 일할 수 있는 환경을 목표로 하고 있다"며 "이를 위해 AI 기반의 데이터 활용 강화, 사용자 인터페이스(UI) 혁신, 글로벌 확장을 추진하고 있다"고 설명했다. 이어서 그는 "AI가 사람을 대체하지는 않지만 AI를 사용하지 않는 사람은 대체될 수 있다는 점을 기억해야 한다"고 강조했다.

2024.12.05 16:01조이환

"o1·소라 첫선 보일까"…오픈AI, 연말 12일간 AI 기술 공개 '대장정'

오픈AI가 크리스마스 시즌 동안 새로운 제품과 서비스를 선보이며 기술 혁신의 장을 연다. 5일 더버지에 따르면 오픈AI는 총 12일간 매일 새로운 기능, 제품, 데모를 발표할 계획이다. 발표에는 영상 생성 인공지능(AI) 도구 '소라(Sora)'와 추론 모델 'o1'의 풀 버전이 포함될 가능성이 높은 것으로 알려졌다. 샘 알트먼 오픈AI 대표는 최근 뉴욕타임즈 주최 딜북 컨퍼런스에서 "12일간의 발표를 준비 중"이라고 밝히며 이를 공식 확인했다. 다만 구체적인 발표 내용이나 일정은 언급하지 않았다. '소라'는 텍스트를 기반으로 고품질 비디오를 생성할 수 있는 AI 도구로, 거대 언어 모델의 확장판으로 알려져 있다. 이 도구는 올해 중 동안 일부 아티스트를 대상으로 알파 테스트가 진행됐으며 연말 출시를 목표로 개발 중이다. 발표를 앞두고 오픈AI 직원들도 소셜 미디어를 통해 기대감을 드러냈다. 한 기술 부서 담당자는 "크리스마스 소원 목록에 무엇을 적었나요"라는 포스트를 올렸고 다른 직원은 "트리를 막 세울 시간에 맞춰 돌아왔다"고 말했다. 알트먼 대표는 자신의 X 계정을 통해 "내일 태평양 시간 오전 10시부터 매주 평일마다 발표와 데모가 진행될 예정"이라며 "멋진 것들을 공유할 예정이니 기대해달라"고 말했다.

2024.12.05 13:06조이환

AWS "한국 AI 모델, 아마존베드락 마켓서 사용 가능"

"생성형 인공지능(AI) 모델은 빠른 추론과 높은 정확성, 낮은 비용입니다. 개발자는 '아마존베드락 마켓플레이스'에서 낮은 비용으로 빠르고 정확한 모델을 이용할 수 있습니다. 아마존웹서비스(AWS)는 개발자들의 편리한 모델 사용을 지원하기 위해 빠른 추론과 높은 정확도, 낮은 가격을 최대한 실현할 수 있는 기술을 꾸준히 개발할 것입니다." AWS 스와미 시바수브라마니안 데이터 및 AI 부문 부사장은 4일(현지시간) 열린 'AWS 리인벤트' 기조연설에서 이같이 밝혔다. 지난 2일 미국 라스베이거스에서 개막된 이번 행사는 6일까지 계속된다. 시바수브라마니안 부사장은 생성형 AI 생태계 확장을 위해 아마존베드락 마켓플레이스에 전 세계 AI 모델 100개를 구축할 목표를 내비쳤다. 이중 LG AI연구원, 업스테이지, 엔씨소프트 모델도 등록된 상태다. 그는 모델 다양성만으로는 우수한 AI 생태계를 구축은 할 수 없다고 주장했다. 사용자가 AI 모델을 빠르고 저렴하고 적합하게 경험할 수 있어야 진정한 AI 생태계 구축이 가능하다고 봤다. '아마존베드락 마켓플레이스' 발표…韓 모델도 등록 이날 시바수브라마니안 부사장은 아마존베드락 마켓플레이스를 발표했다. 해당 마켓플레이스는 생성형 AI 생태계 확장을 위해 구축된 AI 전용 마켓이다. 100개 넘는 새로운 파운데이션 모델에 대한 접근성을 제공한다. 기업이 자사 모델을 마켓플레이스에 배포하면, 사용자는 통합 API로 해당 모델을 사용하면 된다. 또 아마존베드락 기반의 가드레일, 에이전트, 보안, 모델 디스틸레이션 등 다양한 기능을 함께 이용할 수도 있다. AWS는 해당 마켓플레이스에 한국 모델도 들어갔다고 밝혔다. 현재 LG AI연구원, 업스테이지, 엔씨소프트 모델이 등록됐다. LG AI연구원은 오픈소스 모델 '엑사원 3.0 7.8B 인스트럭트'를 등록했다. 업스테이지는 솔라, 솔라 프로를 마켓플레이스에 올렸다. 엔씨소프트는 '바르고 LLM KO/EN 13B-IST'를 등록했다. 아마존베드락에 새로운 모델도 추가됐다. '레이2'와 '말리부' '풀사이드' '스테이블 디퓨전 3.5'가 내년 초 탑재될 예정이다. 말리부는 복잡한 소프트웨어(SW) 엔지니어링 이슈를 해결해 주는 역할을 맡는다. 풀사이드는 코드 개발 중에 발생하는 지연을 줄여주는 역할을 한다. 레이2는 루마 AI가 개발한 비디오 생성 모델이다. 스테이블 디퓨전 3.5는 스태빌리티AI의 이미지 생성 모델이다. "아마존베드락, 더 쉽고 저렴하고 빠른 개발 환경 조성" 이날 시바수브라마니안 부사장은 아마존베드락에 새로 추가한 기능을 발표했다. 모델 추가만으론 생성형 AI 생태계를 확장할 수 없다는 이유에서다. 그는 '프롬프트 캐싱' 기능을 소개했다. 사용자가 자주 사용하는 프롬프트를 미리 파악해 중복된 명령어를 제거하는 기술이다. 이를 통해 프롬프트 비용을 90% 줄이고 지연 시간도 85% 절약할 수 있다는 설명이다. 시바수브라마니안 부사장은 "보통 여러 사람이 생성형 AI에 동일한 프롬프트를 입력할 경우 비용이 이중으로 든다"며 "프롬프트 캐싱은 유사한 질문이 들어왔을 때 기존 명령어를 재사용함으로써 기존보다 더 빠르고 낮은 비용으로 서비스를 지원한다"고 강조했다. 그는 '인텔리전트 프롬프트 라우팅' 기능도 공유했다. 이 기능은 사용자 요청에 가장 적합한 답변을 할 수 있는 모델을 선별하는 기술이다. 단순한 질문은 소형모델에 던지고, 복잡한 질문은 LLM에 전달하는 식이다. 시바수브라마니안 부사장은 "이 기술은 비용을 30% 줄이면서도 정확성을 떨어뜨리지 않는다"며 "맞춤형 모델 라우팅을 통해 저가 비용으로 모델 최적화가 이뤄진다"고 강조했다. 그는 아마존베드락에 '데이터 오토메이션' 기능도 추가했다고 발표했다. 해당 기능은 비정형 데이터를 텍스트로 변환해 데이터를 통합 분석·처리하는 기술이다. 시바수브라마니안 부사장은 "이미지와 비디오, 음성 등 다양한 비정형 데이터에서 의미 있는 인사이트를 도출하는 기능"이라며 "다양한 산업군의 복잡한 데이터를 자동 분석함으로써 생산성을 높일 수 있다"고 강조했다. "RAG 더 효율적으로...책임감 있는 AI 구현할 것" 시바수브라마니안 부사장은 아마존베드락의 검색증강생성(RAG) 기능을 기존보다 고도화했다고 밝혔다. 우선 그는 '아마존베드락 날리지 베이스'를 소개했다. 기업 데이터를 쉽고 빠르게 검색할 수 있게 돕는 서비스다. 그동안 개발자는 데이터베이스(DB)에서 필요한 정보를 검색하려면 복잡한 SQL 쿼리를 작성해야 했다. 이번 신규 기능을 통해 사용자가 자연어로 원하는 데이터를 설명하기만 하면 된다. 사용자는 복잡한 DB 구조나 파이썬 등 전문 지식을 갖추지 않아도 원하는 정보를 얻을 수 있다. 비즈니스 전략 수립을 비롯한 보고서 작성, 애플리케이션 개발 등에 해당 기능을 활용할 수 있다. 또 아마존 S3를 비롯한 세이지메이커 레이크하우스, 레드시프트 등 여러 데이터 소스와 통합함으로써 흩어진 데이터를 한곳에 모아 효율성을 높일 수 있다. 시바수브라마니안 부사장은 "이 기능은 인간과 DB와의 상호작용을 간소화한다"며 "사용자 친화적인 인터페이스를 통해 비전문가도 데이터를 효과적으로 탐색할 수 있게 지원한다"고 설명했다. 그는 '아마존 켄드라 제너레이티브 AI 인덱스'도 소개했다. 40개 넘는 데이터 소스를 활용해 기업의 지식 베이스 기반으로 구조화된 검색을 돕는 솔루션이다. 해당 기술은 정형 데이터와 비정형 데이터를 통합 처리할 수 있다. 이를 통해 데이터 검색과 활용 효율성을 높인다. 시바수브라마니안 부사장은 "고객이 데이터를 머신러닝 파이프라인에 연결할 때 가장 필수적인 데이터 추출·변환·적재(ETL) 과정과 데이터 전처리 작업을 대폭 간소화한다"며 "데이터 관리 복잡성을 줄이면서도 정확한 답변 추출을 돕는다"고 밝혔다. 그는 '그래프RAG' 기능도 발표했다. 데이터 간 관계를 분석해 정보를 탐색함으로써 생성형 AI가 사용자 요청에 더 적합한 대답을 할 수 있게 돕는 기술이다. 보통 그래프 DB는 개념 간 관계를 선으로 연결해 시각화한다. 시바수브라마니안 부사장은 "그래프RAG는 기존 벡터 검색보다 맥락과 관계를 더 잘 이해할 수 있다"며 "생성형 AI는 데이터의 단편적 요소뿐 아니라 데이터 간 관계 기반으로 더 정교하고 관련 높은 응답을 제공할 수 있다"고 강조했다. 그는 아마존베드락이 유해 콘텐츠를 선별하는 기능을 탑재했다고 밝혔다. 최근 멀티모달 모델 활용 비중이 높아지면서 비정형 데이터에 들어있는 유해한 콘텐츠를 차단하기 위해서다. 그는 "혐오와 폭력, 위법행위가 담긴 이미지가 사람과 상호작용을 하지 못하게 베드락 내 모든 모델에 이를 적용했다"며 "유해 콘텐츠를 기존보다 85%까지 줄일 수 있다"고 설명했다.

2024.12.05 08:12김미정

[인터뷰] AWS는 생성형AI 환각 어떻게 극복하고 있나

[라스베이거스(미국)=김미정 기자] "기업은 인공지능(AI) 모델을 선택할 때 정확도와 비용, 속도를 가장 많이 봅니다. 이중 정확도가 낮으면 나머지는 무용지물입니다. '아마존베드락'에 자동화 추론 기능을 추가한 이유입니다. 이는 타사 AI 시스템에 없는 정확도 측정 기술입니다. 이 기술은 답변 정확도 측정뿐 아니라 명확한 답변을 위한 명령어까지 추천합니다." AWS 셰리 마커스 생성형 AI 기술개발 총괄은 2~6일 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 인터뷰를 통해 이같이 밝혔다. 마커스 총괄은 AWS 생성형 AI 제품 뒷단에 들어가는 가드레일, 에이전트, 검색증강생성(RAG) 등 기술 개발을 총괄하고 있다. 그는 '아마존베드락 추론 체크 자동화' 기능을 설명했다. 이번 AWS 리인벤트에서 처음 소개된 기능이다. 이 기술은 생성형 AI가 사용자 질문에 대한 답에 오류가 있는지 수학적으로 평가하고 명령어를 교정해 줄 수 있다. 해당 기능은 답변에 핵심 참조 내용이 포함됐는지, 질의 내용과 답변이 통일성 있는지, 답변과 질문 관련성이 얼마나 높은지를 동시에 측정한다. 답변에 오류가 섞이거나 답변 품질이 일정 기준 미만이면 사용자에게 답을 제공하지 않는다. 또 정확한 답변을 생성하기 위한 프롬프트를 사용자에게 추천해 주기도 한다. 자체적으로 명령어가 부실하다고 평가됐을 때 추가 정보를 요구하기도 한다. 마커스 총괄은 "생성형 AI를 통한 답변 정확도는 프롬프트 내용에 달렸다"며 "단순히 답변 수준을 체크하는 것을 넘어 프롬프트까지 교정해 준다"고 강조했다. 앞서 AWS는 아마존베드락 내 AI 모델에서 발생할 수 있는 환각현상 극복을 위해 노력해 왔다. 지난 8월 미국 뉴욕서 열린 AWS 행사에서 생성형 AI 결과물에 정확도 점수를 매기는 문맥 그라운딩 체크를 아마존베드락에 탑재한 바 있다. 베드락이 답변에 신뢰성·정확성 점수를 자체적으로 매겨 답변 품질을 평가하는 식이다. 마커스 총괄은 "문맥 그라운딩 체크는 답변 품질만을 평가하지만 신규 기능은 정확도 높은 답변을 위한 프롬프트까지 추천해 준다"며 "타사 AI 플랫폼에선 제공되지 않는 독보적 기능"이라고 설명했다. 이어 "고객은 의료, 금융, 방산 등 미션 크리티컬한 애플리케이션에 생성형 AI를 적용할 때 이 기능을 유용하게 사용할 것"이라며 "향후 아마존베드락 유스케이스가 늘어날 것으로 본다"고 내다봤다. "갓 태어난 '아마존 노바' 성능 객관적으로 증명할 것" 마커스 총괄은 이번 리인벤트서 공개된 새 AI 모델 시리즈 '아마존 노바'와 모델 신뢰성 향상을 위한 방안을 공유했다. 그는 "아마존 노바는 자사 거대언어모델(LLM) '타이탄' 확장판"이라며 "성능을 객관적으로 증명할 수 있도록 노력할 것"이라고 강조했다. 마커스 총괄은 노바를 비롯한 AI 모델 성능 검증 방식을 바꿔야 한다고 주장했다. 그동안 벤치마크 점수로 모델을 평가하는 시대는 끝났다는 설명이다. 대신 모델에 고객 데이터를 넣은 후 성능 평가하는 것이 진정한 성능 검증이라고 강조했다. 그는 "고객이 기대하는 정확성을 충족시키기 위해서는 모델 자체 성능만을 검증하면 안 된다"며 "고객 데이터를 모델에 넣고 정확도와 신뢰도를 측정해야 진짜다"고 재차 강조했다. 현재 마커스 총괄은 정확한 모델 성능 비교를 할 수 있는 도구를 개발하는 것을 목표로 잡았다. 그는 "고객은 AI 모델을 선택할 때 속도와 비용, 정확도를 가장 많이 본다"며 "이를 기준으로 성능 비교 가능한 도구 개발에 힘쓸 것"이라고 말했다.

2024.12.04 17:22김미정

LG AI연구원, AWS 행사에 떴다…질병 진단 속도 높이는 '엑사원패스' 출시

LG AI연구원이 아마존웹서비스(AWS) 기술로 병리학 모델 '엑사원패스'를 개발해 암 진단·치료 방식 개선에 나섰다. AWS는 6일까지 미국 라스베이거스에서 열리는 'AWS 리인벤트'에서 LG AI연구원이 '아마존 세이지메이커'와 러스트용 아마존 FSx를 통해 엑사원패스를 개발했다고 4일 밝혔다. 이 모델은 암 환자의 조직병리 이미지를 분석해 유전자 검사 시간을 기존 2주에서 1분 내로 줄일 수 있다. 엑사원패스는 여섯 가지 벤치마크에서 평균 86.1%의 정확도를 기록하며 대규모 데이터셋으로 학습된 다른 병리 모델과 견줄 만한 성능을 입증했다. LG AI연구원은 AWS 기술을 활용해 테라바이트급 데이터를 1시간 이내로 전송하고 모델 학습 시간을 기존 60일에서 1주일로 단축했다고 설명했다. LG AI연구원은 아마존 세이지메이커와 러스트용 아마존 FSx를 통해 대규모 병리학 데이터를 빠르게 처리하고 인프라 비용을 약 35% 절감했다고 밝혔다. 이를 통해 데이터 준비 시간도 95% 단축되며 암 진단·검출 성능을 올릴 수 있었다. 엑사원패스는 3천억 개 파라미터를 보유한 LG AI연구원의 멀티모달 모델 엑사원로 이뤄졌다. 고해상도 조직 샘플 이미지를 포함한 방대한 데이터셋을 학습했다. AWS 댄 시런 헬스케어·생명 과학 부문 총괄 매니저는 "LG AI연구원이 엑사원패스를 전례 없는 규모로 개발할 수 있었다"며 "이 기술은 진단 속도를 높이고 환자 맞춤형 치료를 제공하는 데 중요한 역할을 할 것"이라고 밝혔다. LG AI연구원 이화영 상무는 "AWS를 통해 AI 연구를 가속화해 접근이 용이하고 신속한 암 검진을 현실화할 수 있다"며 "엑사원패스의 향상된 데이터 처리 기능은 더 개인화되고 효율적인 암 치료를 제공해 환자 건강을 개선할 수 있을 것"이라고 강조했다.

2024.12.04 09:25김미정

트웰브랩스, AWS 기술로 멀티모달 AI 기능 확장

트웰브랩스가 아마존웹서비스(AWS) 기술로 멀티모달 모델을 확장했다. AWS는 6일까지 미국 라스베이거스에서 열리는 'AWS 리인벤트'에서 스타트업 트웰브랩스가 AWS상에서 자체 기반 모델을 구축했다고 4일 발표했다. 트웰브랩스는 AWS 기술로 자연어를 영상 내부에서 일어나는 일에 매핑하는 기반 모델의 개발을 가속화할 예정이다. 여기에는 동작, 객체, 배경 소리가 포함됐다. 개발자는 영상 검색부터 장면 분류, 요약, 영상 클립 챕터 구분이 가능한 애플리케이션을 만들 수 있다. 트웰브랩스는 아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod)을 사용해 영상, 이미지, 음성, 텍스트와 같은 데이터 형식을 동시에 이해할 수 있는 기반 모델을 훈련한다. 이를 통해 모델은 한 가지 데이터 유형에만 집중하는 다른 AI 모델들에 비해 더 깊은 통찰력을 얻을 수 있다. 훈련 작업은 병렬로 작동하는 여러 AWS 컴퓨팅 인스턴스에 분산돼 트웰브랩스는 중단 없이 몇 주 또는 몇 달 동안 기반 모델을 훈련시킬 수 있다. 아마존 세이지메이커 하이퍼팟은 AI 모델을 빠르게 가동하고, 성능을 미세 조정하며, 원활하게 운영을 확장하는 데 필요한 모든 것을 제공한다. 트웰브랩스는 AWS와 협력해 고급 영상 이해 기반 모델을 새로운 산업 분야에 배포하고 아마존 세이지메이커 하이퍼팟을 사용해 모델 훈련 능력을 향상시킬 예정이다. 스타트업의 성장을 돕는 프로그램인 AWS 액티베이트는 트웰브랩스가 생성형 AI 기술을 전 세계적으로 확장하고 수백 페타바이트의 영상에서 초 단위의 정확도로 더 깊은 통찰력을 얻을 수 있도록 지원했다. 이 지원에는 기계 학습 성능 최적화와 시장 진출 전략 구현을 위한 실무 전문 지식이 포함된다. 또 AWS 마켓플레이스를 통해 트웰브랩스는 혁신적인 영상 인텔리전스 서비스를 전 세계 고객 기반에 원활하게 제공할 수 있다. 트웰브랩스의 마렝고(Marengo)와 페가수스(Pegasus) 파운데이션 모델은 100개 이상의 언어로 텍스트 요약과 오디오 번역을 제공한다. 또 음성에서 말한 내용을 영상에 표시된 내용과 맞추는 등 단어, 이미지, 소리가 서로 어떻게 관련되는지 분석하는 영상 분석을 제공한다. 콘텐츠 제작자는 자연어 검색을 통해 쇼나 게임 내의 정확한 순간, 각도나 이벤트에 접근할 수 있다. 이재성 트웰브랩스 대표는 "AWS는 우리에게 멀티모달 AI의 과제를 해결하고 영상을 더 접근 가능하게 만들 수 있는 컴퓨팅 파워와 지원을 제공했다"며 "우리가 혁신을 지속하고 전 세계로 확장해 나갈 앞으로의 큰 협력을 기대한다"고 밝혔다. AWS 존 존스 스타트업 부문 부사장 겸 글로벌 책임자는 "트웰브랩스는 클라우드 기술을 통해 방대한 양의 멀티미디어 데이터를 접근 가능하고 유용한 콘텐츠로 전환해 다양한 산업 분야의 개선을 이끌고 있다"며 "트웰브랩스가 관련성 높은 콘텐츠를 더 잘 이해하고 신속하게 제작하는 데 필요한 도구를 구축할 수 있도록 지원했다"고 말했다.

2024.12.04 09:20김미정

오픈AI, 검색 광고 검토…AI 서비스, 수익 모델 전환 모색

오픈AI가 광고 도입을 통한 새로운 수익 모델 구축을 검토하고 있다. 인공지능(AI) 개발과 운영에 드는 막대한 비용 부담을 완화하고 지속 가능한 사업 구조를 확보하기 위해서다. 3일 파이낸셜타임즈에 따르면 사라 프라이어 오픈AI 최고재무책임자(CFO)는 자사 AI 모델에 광고를 적용하는 방안에 대해 신중히 검토 중이라고 밝혔다. 특히 AI 응답과 검색 서비스에 광고를 추가하는 방안에 대한 논의가 진행 중인 것으로 알려졌다. 업계 전문가들은 오픈AI가 지난달 출시한 새로운 AI 검색 서비스인 '서치GPT'에 광고를 도입할 가능성이 크다고 보고 있다. 또 오픈AI가 최근 메타와 구글 등 주요 광고 플랫폼에서 인재를 영입하며 광고 비즈니스 역량 강화에 나서고 있어 조만간 광고 사업을 시작할 것으로 분석한다. 현재 오픈AI의 주간 활성 사용자 수는 2억5천만 명을 넘었지만 유료 구독자는 약 1천만 명에 불과하다. 구독료 매출이 34억 달러(한화 약 4조8천억원)에 이를 것으로 예상되지만 AI 모델 개발에 필요한 비용은 최대 70억 달러(한화 약 10조원)에 달해 구독료만으로는 한계가 있다는 지적이 나온다. 특히 AI 개발 과정에서 발생하는 고성능 그래픽처리장치(GPU)와 대규모 데이터 활용에 따른 비용은 매년 기하급수적으로 증가하고 있다. 이러한 환경에서 광고는 구독료를 보완하는 실질적인 수익 모델로 자리 잡을 가능성이 높다. 오픈AI는 이와 함께 월 20달러(한화 약 3만원)인 유료 구독 요금을 오는 2029년까지 44달러(한화 약 6만6천원)로 대폭 인상할 계획도 세운 것으로 알려졌다. 이미 경쟁사들은 광고 도입을 통해 수익성 개선에 나섰다. 퍼플렉시티는 지난달 '스폰서 후속 질문' 형태의 광고를 선보였으며 구글은 미국에서 AI 오버뷰 검색 결과에 상업 광고를 적용하고 있다. 두 업체 모두 광고가 검색 결과의 공정성에 영향을 미치지 않는다고 강조하고 있다. 광고 시장의 변화는 검색 엔진 중심이던 기존 광고 시장의 판도를 AI 기반 플랫폼으로 확장시키는 결과를 초래하고 있다. 오픈AI가 광고를 통해 성공적으로 수익을 창출할 경우 기존 검색 광고 시장을 장악해온 구글과의 경쟁 구도가 본격화될 것으로 보인다. 프라이어 CFO는 "현재 비즈니스는 빠르게 성장하고 있다"며 "광고는 미래 수익 다변화 방안 중 하나로 검토되고 있으나 현재로서는 도입이 결정되지 않았다"고 말했다.

2024.12.03 18:20조이환

AWS-앤트로픽, AI 협력 더 확장…베드락 업그레이드로 시장 공략

[라스베이거스(미국)=김미정 기자] "지금은 '인공지능(AI) 에이전트' 시대입니다. 그만큼 AI 모델 추론·토큰 생성 속도가 중요해진 시점입니다. 이는 기업 요구사항이기도 합니다. '아마존 베드락'은 이에 발맞춰 AI 모델 훈련·추론 시간을 기존보다 획기적으로 줄여줍니다." AWS 피터 드산티스 유틸리티 컴퓨팅 수석 부사장은 2일(현지시간) 미국 라스베이거스에서 열린 'AWS 리인벤트' 개막식 '먼데이 나이트 라이브(Monday Night Live)' 행사에서 아마존 베드락 기능 업그레이드를 발표하며 이같이 밝혔다. 앤트로픽과 협력 확대를 통해 고성능·고비용 AI 모델을 구축하겠다는 점도 알렸다. 드산티스 부사장은 최근 고객이 원하는 AI 인프라 형태가 변했다고 주장했다. 최근 'AI 에이전트' 시대가 본격화하면서 AI 모델이 '에이전틱 워크플로'에 사용되는 추세이기 때문이다. 이 경우 AI가 다음 작업 단계로 넘어가기 전 모든 응답을 생성해야 한다. 그래야 모든 업무를 스스로 처리할 수 있는 에이전트 역할을 할 수 있기 때문이다. 이에 기업은 AI 모델이 빠른 추론 능력과 신속한 토큰 생성을 원하게 됐다. 드산티스 부사장은 "빠른 추론은 많은 컴퓨팅 자원이 필요하고 신속한 토큰 생성은 더 많은 메모리 대역폭이 필수"라며 "해당 작업은 동시에 진행돼야 한다"고 설명했다. 이어 "두 작업을 같은 강력한 AI 서버에서 실행한다면 AI 모델은 뛰어난 성능과 효율성을 달성할 것"이라고 내다봤다. 이에 AWS는 아마존 베드락에 '지연 시간 최적화' 기능을 추가했다. 아마존 베드락은 최신 AI 하드웨어(HW)와 기타 소프트웨어(SW) 최적화로 AI 모델 추론 시간을 획기적으로 줄일 수 있다. 현재 아마존 베드록 내 일부 모델만 프리뷰 형태로 제공되고 있다. 그는 대표적 예시로 메타 '라마' 모델 4천50억 파라미터(405B)와 700억 파라미터(70B)를 제시했다. 해당 모델은 신규 기능을 통해 아마존 베드록에서 기존보다 더 빠른 추론 성능을 보인다는 설명이다. 드산티스 부사장은 "사용자가 아마존 베드락 내에서 해당 모델 요청 처리·응답 생성에 걸리는 시간은 다른 제공업체보다 훨씬 낮은 지연 시간을 제공한다"고 강조했다. 이날 앤트로픽은 아마존 베드락 내 클로드 3.5 하이쿠에도 지연 시간 최적화 버전을 적용했다고 발표했다. 기존 클로드 3.5 하이쿠보다 속도를 60% 개선했다. 앤트로픽 톰 브라운 공동창립자 겸 최고컴퓨팅책임자(CCO)는 "클로드 3.5 하이쿠는 작지만 강력한 성능을 자랑하는 최신 모델"이라며 "같은 성능을 15배 적은 비용으로 제공한다"고 강조했다. 브라운 COO는 AWS의 트레니움2를 활용해 해당 모델에 지연 최적화 모델을 구축했다고 밝혔다. 기업이나 개발자는 아마존 베드록 내 API를 통해 요청만 하면 새로운 트레니움2 서버를 통해 해당 기능을 이용할 수 있다. 그는 "사용자는 하이쿠를 기존보다 60% 더 빠르게 실행할 수 있다"며 "이를 위해 별도 SW를 내려받거나 특정 작업을 할 필요도 없다"고 덧붙였다. AWS-앤트로픽, '프로젝트 레이니어'로 협력 확장 이날 AWS와 앤트로픽은 추론만으로도 AI 모델 스펙을 올리는 건 충분치 않다고 했다. 최상의 성능을 얻으려면 추론뿐 아니라 훈련도 효율적으로 해야 한다는 이유에서다. 이에 두 기업은 새 클러스터 '프로젝트 레이니어'를 발표했다. 프로젝트 레이니어는 AI 모델 훈련에 특화된 대규모 컴퓨팅 인프라다. 수십만 개 트레니움2 칩으로 구성됐다. 기존 클러스터보다 5배 이상 강력한 성능을 제공한다. 브라운 COO는 기존 클러스터로 이룬 성과를 설명했다. 올 초 앤트로픽은 '클로드 3 오푸스'를 출시했다. 4개월 후 오푸스 버전보다 더 높은 성능과 낮은 비용을 갖춘 '클로드 3.5 소네트'를 공개했다. 최근 한 달 새 클로드 3.5 하이쿠와 해당 모델 업그레이드 버전을 연달아 공개했다. 이에 앤트로픽은 트레니움2로 이뤄진 프로젝트 레이어를 통해 새 모델을 훈련할 방침이다. 그는 "프로젝트 레이니어 클러스터는 개발 속도를 더 올릴 것"이라고 강조했다. 일각에서는 아마존이 구글과 마이크로소프트, 오픈AI 등 빅테크와 생성형 AI 경쟁 격차를 따라잡기 위한 전략으로 분석하고 있다. 현재 구글은 자체 생성형 멀티모달 모델 '제미나이'로 자체 서비스를 운영 중이다. 마이크로소프트는 오픈AI에 전략적 투자를 통해 자사 솔루션에 GPT 시리즈를 탑재해 사업하고 있다. 이에 아마존은 오픈AI 경쟁사인 앤트로픽에 꾸준한 투자를 진행하고 있다. 실제 아마존은 앤트로픽에 투자금을 쏟아붓고 있다. 지난달 40억 달러(약 5조3천억원) 를 추가 투자해 현재까지 누적 투자금은 80억 달러(약 10조6천억원)를 기록했다. 드산티스 부사장은 "고객에게 더 높은 수준의 AI 모델을 더 낮은 비용과 빠른 속도로 제공할 것"이라고 밝혔다.

2024.12.03 18:05김미정

뤼튼, AI 수익화 '시동'…캐릭터 챗·광고 플랫폼으로 성장 '가속'

뤼튼테크놀로지스가 자사 '캐릭터 챗'을 부분 유료화하고 인공지능(AI) 광고 플랫폼 '뤼튼 애즈'를 출시하며 본격적인 수익화 행보에 나섰다. 뤼튼은 지난 10월 말 '캐릭터 챗' 서비스에 부분 유료화를 도입한 후 단 두 달만에 월 매출 10억원을 돌파했다고 3일 밝혔다. '캐릭터 챗'은 사용자가 제작한 AI 캐릭터와 대화할 수 있는 서비스로, 유료화 이후 뤼튼 모바일 앱이 구글 플레이스토어 최고 매출 앱 순위 18위에 오르는데 기여했다. 이번 유료 모델의 도입은 '캐릭터 챗' 창작자에게 수익을 분배하는 시스템을 구축하며 AI 캐릭터 생태계를 활성화하는 데 기여하고 있다. 이로써 창작자와 이용자가 함께 성장하는 선순환 구조를 마련했다는 분석이 나온다. 이와 함께 지난달 29일 출시된 '뤼튼 애즈'는 국내 최초 자연어 기술 기반 AI 광고 플랫폼으로 주목받고 있다. 월간 활성 이용자(MAU) 500만 명 이상을 기반으로 광고주에게 최적의 캠페인 대상을 자동 타겟팅하고 사용자 경험에 녹아든 광고 상품을 제공해 효과를 극대화한다. 특히 '한 문장으로 타겟 찾기' 기능은 광고 캠페인 대상을 자연어로 묘사하면 적합한 잠재 고객을 찾아내는 기술로, 클릭률과 전환율 향상에 기여하고 있다. 예산에 맞춘 광고 효율 최적화와 성과 분석 등 디지털 광고의 새로운 기준을 제시했다는 평가다. 업계 관계자는 "뤼튼은 글로벌 AI 플랫폼과 비교해도 손색없는 성과를 보여주고 있다"며 "현재 MAU가 500만 명 수준임을 감안하면 향후 이용자 규모가 확대될 경우 매출 잠재력에서 글로벌 기업들과도 충분히 경쟁할 가능성이 크다"고 분석했다. 이세영 뤼튼 대표는 "AI 대중화를 주도하는 기업으로서 우리의 모든 서비스는 계속 무료로 사용 가능하다"며 "이용자 경험을 해치지 않으면서도 고품질의 AI 서비스를 제공할 수 있는 입체적 수익 모델을 계속 추구해 나갈 것"이라고 밝혔다.

2024.12.03 14:33조이환

"AWS 개발툴 사용"…GE 헬스케어, 세계 첫 '3D MRI 모델' 출시

[라스베이거스(미국)=김미정 기자] 3D로 자기공명영상(MRI)을 지원하는 모델이 세계에서 처음 나왔다. 아마존웹서비스(AWS)의 개발 도구 'AWS 세이지메이커'를 통해 탄생한 모델이다. GE 헬스케어 아부 미르자 부사장(SVP)은 2~6일 미국 라스베이거스에서 열린 'AWS 리인벤트' 부대 행사 '미디어 패널: 혁신을 위한 구축'에서 모델 출시 소식을 이같이 밝혔다. 미르자 SVP는 "의료용 3D MRI 모델은 헬스케어 산업에서 처음 등장했다"며 "기존 MRI를 통한 분석은 2D로만 진행돼 한계가 있었다"고 설명했다. 이 3D MRI 모델은 이미지 데이터 약 18만 개로 학습했다. 정확도를 위해 약 1천900만 회 넘는 테스트도 거쳤다. 미르자 SVP는 "의료 전문가들이 MRI 영상을 해석하는 데 도움 줄 수 있을 것"이라며 "환자 치료 효율성과 품질도 같이 높일 것"이라고 기대했다. 그는 이날 엑스레이 이미지 분석 정확도를 높이는 기초 모델도 소개했다. 생성형 AI 기반으로 이미지 분석과 진단 향상을 돕는다. 해당 모델을 대량의 엑스레이 데이터로 훈련됐다. 두 모델은 AWS 세이지메티커와 클라우드 도구로 개발됐다. AWS 세이지메이커는 완전 관리형 머신러닝(ML) 서비스다. 개발자가 데이터 준비, 모델 학습, 배포 및 모니터링 등 개발 워크플로의 모든 단계를 통합 제공한다. 사용자는 인프라 관리에 대한 부담 없이 고품질 모델을 개발할 수 있다. 미르자 SVP는 이 과정에서 발생할 수 있는 데이터 편향도 예방했다고 자신했다. 그는 "임상 전문가와 꾸준히 협력해 데이터 편향 문제를 해결했다"며 "AWS와의 기술 파트너십뿐 아니라 학계와 협력해 의료 분야에 획기적 혁신을 이뤘다"고 강조했다. 미르자 SVP는 앞으로 의료 데이터를 합법적이고 유용하게 활용할 것이라고 말했다. 그는 "MRI나 엑스레이 등 디지털 의료 데이터가 전 세계 디지털 데이터의 약 3분의 1을 차지하지만 97% 이상이 아직 활용되지 못하고 있다"고 지적했다. 이어 "AI와 클라우드로 의료 데이터를 신속히 분석함으로써 이를 환자 맞춤형 치료에 활용해야 한다"고 주장했다.

2024.12.03 12:36김미정

비아이매트릭스, 데이터 접근 필요없는 ML모델 기술 개발

비아이매트릭스가 생성형 인공지능(AI)관련 원천 기술 개발에 성공했다. 비아이매트릭스는 한국전자통신연구원(ETRI) 컨소시엄을 통해 차세대 '데이터베이스 관리(DBMS)' 기술을 개발했다고 3일 밝혔다. 해당 연구 성과는 과기정통부․정보통신기획평가원의 'SW컴퓨팅산업원천기술개발'을 수행한 결과로 기계학습(ML) 모델을 사용해 질의에 대해 근사적인 답을 제공하는 기술이다. 기존 근사질의 기술과 달리 데이터에 접근할 필요가 없을 뿐 아니라 다양한 유형의 데이터에 적용 가능한 것이 장점이다. 비아이매트릭스 측은 원천 데이터 접근이 불가능한 환경이나 외부 클라우드에서도 생성형 AI 기술을 사용할 수 있어 활용도가 높을 것으로 기대중이다. 비아이매트릭스는 원천 기술 기반 AI 분석 분야 적용을 위해 '근사질의 처리 엔진 연동 탐사 데이터 분석기술' 연구를 거쳐 '그래픽 유저 인터페이스(GUI)' 기반의 워크벤치(DB 설계 도구)를 개발했다. 신규 워크벤치는 직관적으로 접근, 활용할 수 있어 이를 적용하면 복잡했던 DBMS 근사질의 처리 과정을 대폭 개선할 수 있다고 회사 측은 설명했다. 비아이매트릭스는 지난 2021년부터 과학기술정보통신부가 주관하는 '빅데이터 대상의 빠른 질의 처리가 가능한 탐사 데이터 분석 지원 근사질의 DBMS 기술개발' 국책과제를 진행 중이다. 국책과제는 올해 말까지 3년 9개월간 진행되며, 정부지원금은 총 53억원 규모다. 비아이매트릭스는 ETRI, KAIST, 광운대학교, 리얼타임테크 등과 함께 국책과제에 참여하고 있다. 비아이매트릭스 관계자는 "국내 DBMS 분야는 해외에 비해 기술경쟁력이 낮은 상황이었으나, 이번 ETRI 컨소시엄을 통한 차세대 DBMS 응용기술 개발로 글로벌 시장에서의 경쟁력을 강화하게 됐다"며 "확보한 DBMS 관련 기술을 비아이매트릭스의 자체 생성형 AI 데이터 분석 솔루션 'G-매트릭스'에 적용해 성능을 강화할 것"이라고 말했다. "그는 이어 "차세대 DBMS 기술은 원천 데이터를 사용하지 않고도 정확한 결과를 도출할 수 있어, 기술 자체의 활용도가 매우 높을 것으로 기대한다"며 "신기술의 접근성과 사용 편의성을 극대화하기 위해 시공간 데이터 지원, 가상 시뮬레이션 질의 지원 등 추가 고도화도 진행해 '2024 한국 소프트웨어 종합 학술대회(KSC2024)'에서 이 기술을 발표할 예정"이라고 덧붙였다.

2024.12.03 10:21남혁우

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 1c D램 상용화에 '올인'…성과와 과제는

bhc, 가격 결정권 가맹점에 넘긴다…이중가격제 도미노 되나

美·韓 통신망, 中 해커에 발칵 뒤집혔다…태양광도 '백도어' 위협에 불안

李·金의 AI 공약…100조 투자 한 목소리, 방식은 딴 판

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현