• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
APEC2025
국감2025
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'개발자 테스트'통합검색 결과 입니다. (597건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[ZD SW 투데이] 더존비즈온, 연말정산 세미나로 AI 혁신 시연 外

지디넷코리아가 소프트웨어(SW) 업계의 다양한 소식을 한 눈에 볼 수 있는 'ZD SW 투데이'를 새롭게 마련했습니다. SW뿐 아니라 클라우드, 보안, 인공지능(AI) 등 여러 분야에서 활발히 활동하고 있는 기업들의 소식을 담은 만큼 좀 더 쉽고 편하게 이슈를 확인해 보시기 바랍니다. [편집자주] ◆더존비즈온, 연말정산 세미나로 AI 혁신 시연 더존비즈온이 오는 16일부터 전국 15개 지역에서 '2024년 귀속 연말정산 집중 세미나'를 개최한다. 인사담당자와 직장인을 대상으로 연말정산 사전 점검, 절세 방법, 주요 세법 개정사항을 안내하고 AI 기반 혁신 방안을 소개할 예정이다. 세미나에서는 '아마란스(Amaranth) 10'과 '아이큐브(iCUBE)'를 활용한 연말정산 프로세스와 홈택스 자동신고 같은 신규 서비스도 선보인다. AI 기술을 활용해 공제 항목을 점검하고 데이터 분석 및 자동화를 통해 업무를 간소화하는 방법을 참가자들에게 제공할 예정이다. ◆NHN클라우드, '데이터 시대 CRM으로 살아남기' 세미나 성료 NHN클라우드가 패스트파이브와 공동으로 '데이터 시대 CRM으로 살아남기' 세미나를 개최했다. 이번 세미나에서는 NHN노티피케이션과 고객관계관리(CRM) 툴 연동 사례와 신규 서비스 '노티피케이션 허브'를 소개하며 100여 명의 마케터와 개발자들의 관심을 받았다. 세미나에서는 29CM의 그로스 마케팅 사례, '노티피케이션 허브' 설계 과정, 파이브클라우드의 IT 비즈니스 성과 등이 발표됐다. ◆AID학회연합, '2025년 AID법 전망' 전문가 좌담회 개최 AID학회연합이 오는 20일 서울 종로구 법무법인 태평양 본사에서 '인공지능, 정보, 데이터(AID) 법의 2024년 회고와 2025년 전망'을 주제로 전문가 좌담회를 개최한다. 이번 좌담회에서는 학계, 정부, 법조계 전문가들이 참여해 AID 법과 정책의 연구 실행 자문 경험을 공유하고 내년 정책 방향을 논의할 예정이다. 좌담회는 이성엽 한국데이터법정책학회 회장이 좌장을 맡고 황창근 한국정보법학회 공동회장, 최경진 한국인공지능법학회 회장 등 주요 전문가들이 패널로 나선다. ◆안랩, 임직원 대상 자원 재순환 캠페인 진행 안랩이 지난 8월부터 네 달 동안 임직원을 대상으로 물품 기부 캠페인을 진행해 총 3천186점의 물품을 성남시 굿윌스토어에 전달했다. 전달된 물품은 매장에서 판매되며 발생한 수익은 장애인 근로자의 급여 지원에 사용될 예정이다. 또 지난달에는 폐가전 수거 캠페인을 통해 135점의 폐가전을 수거해 재활용센터에 전달했다. 안랩은 환경경영 실천을 위해 임직원이 참여하는 자원 재순환 캠페인을 지속할 계획이다. ◆이즈피엠피 '오투미트-G' 조달청 디지털서비스몰 등록 이즈피엠피가 보안 강화 행사 자동화 솔루션 '오투미트-G'를 조달청 디지털서비스몰에 등록했다. '오투미트-G'는 보안 안전성을 높이고 클라우드보안인증(CSAP) 서비스형 소프트웨어(SaaS) 표준등급을 획득해 공공기관과 민간기업이 안전한 환경에서 마이스 행사를 관리할 수 있도록 돕는다. '오투미트-G'는 개인정보 비식별화 기술과 단독 서버 제공 등을 포함하며 웹사이트 개설과 비즈매칭 전시 회의 패키지를 제공한다. 최근 개편된 공식 홈페이지를 통해 민간기업도 손쉽게 서비스를 구독 형태로 도입할 수 있다. ◆이모션웨이브, 코스닥 기술특례상장 모의평가 완료 이모션웨이브가 과학기술정보통신부와 한국인터넷진흥원이 추진한 블록체인·정보보안 기술특례상장 컨설팅 사업을 통해 코스닥 기술특례상장을 위한 모의기술성평가를 완료했다. 이모션웨이브는 평가에서 기술개발 실적과 성장 전망 등에서 우수한 평가를 받았다. 이모션웨이브는 블록체인 기반 음악 플랫폼 '뮤타'와 초저지연 고퀄리티 방송을 지원하는 '에임플' 서비스를 제공하며 확장성 높은 미디어 플랫폼 기술을 보유하고 있다. ◆에이프리카, 클라우드 산업발전 유공 '과기정통부 장관 표창' 수상 에이프리카가 클라우드 산업 발전에 기여한 공로를 인정받아 '제3회 클라우드인의 밤' 행사에서 '과학기술정보통신부 장관 표창'을 수상했다. 에이프리카는 디지털플랫폼정부 허브 테스트베드 구축 사업에 클라우드 네이티브 플랫폼 '세렝게티'를 공급해 민간 클라우드 확산과 공공부문 협업에 기여했다. '세렝게티'는 멀티클라우드 환경 통합 관리와 자동화된 개발 환경 제공으로, 디지털플랫폼정부가 추구하는 개방성과 협업 가치를 실현하며 높은 기술적 성과를 보였다. 에이프리카는 이를 통해 클라우드 생태계 활성화와 디지털 전환의 기반 마련에 기여했다는 평가를 받았다.

2024.12.13 16:46조이환

[인터뷰] "아마존 Q 디벨로퍼, 500년 걸리는 개발 업무 몇 시간으로 단축"

"개발자는 '아마존 Q 디벨로퍼'로 높은 개발 효율성을 경험할 수 있습니다. 자바 패키지 수만 개를 최신 버전으로 자동 변환하고 테스트·문서 작업을 단순화하는 등 업무 부담을 크게 줄일 수 있습니다. 아마존 Q 디벨로퍼를 통해 4~500년 걸리는 소프트웨어(SW) 개발 시간을 단 몇 시간으로 단축할 수 있습니다." 아마존웹서비스(AWS) 스리니 이라가바라푸 생성형 AI 애플리케이션 및 개발자 경험 총괄은 지난 6일까지 미국 라스베이거스에서 열린 'AWS 리인벤트'에서 기자와 만나 아마존 Q 디벨로퍼 특장점을 이같이 밝혔다. AWS는 이번 행사에서 아마존 Q 디벨로퍼 기능을 처음 발표했다. 아마존 Q 디벨로퍼는 AWS 솔루션에서 애플리케이션 구축과 운영, 유지 보수 등 SW 개발 라이프사이클 전반을 지원하는 생성형 AI 개발 보조 도구다. 개발자는 단위 테스트와 문서화, 코드 리뷰 등 번거로운 개발 업무를 자동화할 수 있다. 이라가바라푸 총괄은 아마존 Q 디벨로퍼 특장점으로 에이전트 업무 자동화를 꼽았다. 에이전트가 코드 생성부터 테스트, 문서 작성, 문제 해결법 제안 등을 실행할 수 있어서다. 이 에이전트는 아마존 베드록을 통해 업무를 처리한다. 베드록에 탑재된 '아마존 노바'를 비롯한 오픈소스형 거대언어모델(LLM)을 통해 개발자에게 텍스트로 설명할 수 있다. 에이전트는 세 종류로 이뤄졌다. 유닛 데스트 생성 에이전트는 함수 단위나 파일 단위로 자동 테스트를 생성할 수 있다. 이를 통해 개발 시간을 단축한다. 문서화 에이전트는 코드 수정에 맞춰 관련 문서를 자동 업데이트해 준다. 이에 개발자들은 문서 작업에 들이는 시간을 줄일 수 있다. 코드 리뷰 에이전트는 AI를 통해 코드 변경 사항을 분석해 문제나 취약점, 성능 개선 사항을 작업자에 제안한다. 아마존 Q 디벨로퍼는 운영 측면에서도 활용된다. AWS 관리 콘솔에서 문제가 발생하면 아마존 Q 디벨로퍼가 이를 실시간으로 인식할 수 있어서다. 관리자에게 해결 방안까지 제시한다. 아라가바라푸 총괄은 "개발자들은 단순 업무 자동화를 직접적으로 경험할 수 있다"며 "기업이나 개인 개발자는 원하는 에이전트를 상황에 따라 선택할 수 있게 업무 자동화 옵션을 다양하게 만들었다"고 강조했다. 아라가바라푸 총괄은 아마존 Q 디벨로퍼 활용 사례도 공유했다. 특히 자바 업그레이드 에이전트 애플리케이션을 연동해 이룬 업무 효과를 소개했다. 그는 "최근 내부적으로 아마존 Q 디벨로퍼의 자바 에이전트 앱으로 3만 개 넘는 자바 패키지를 최신 버전으로 자동 변환했다"며 "이는 4~500년 걸리는 개발 시간을 몇 시간으로 단축하고 비용 절감을 2억6천만 달러(약 3천700억원) 절약한 것과 같은 셈"이라고 강조했다. 이어 "그동안 사람이 코드를 직접 수정해야 했다"며 "디벨로퍼 내 구축된 에이전트 덕에 이를 자동 처리할 수 있다"고 강조했다. 그는 향후 아마존 Q 디벨로퍼의 AI 기능을 더 고도화할 방침이다. 현재 AI가 개발 과정서 발생하는 단순 업무를 자동화하지만, 향후 복잡한 추론까지 자동화할 수 있도록 솔루션 업그레이드를 진행할 예정이다. 아라가바라푸 총괄은 "결국 아마존 Q 디벨로퍼는 SW 개발 라이프사이클 전 과정을 지원할 것"이라며 "기업과 개발자는 더 적은 비용과 시간으로 높은 수준의 결과물을 얻을 수 있을 것"이라고 강조했다.

2024.12.12 10:34김미정

람다테스트, AI 네이티브 QA 서비스 에이전트를 통해 QA를 혁신하기 위한 3천8백만 달러 펀딩 종료

람다테스트는 이번 펀딩을 통해 케인AI를 발전시켜 AI 기반 인사이트, 확장 가능한 테스트 클라우드와 최첨단 하이퍼엑시큐트 자동화를 통해 소프트웨어 QA를 혁신하는 AI 네이티브 QA 서비스 에이전트를 출시할 계획이다. 인도 노이다와 샌프란시스코, 2024년 12월 11일 /PRNewswire/ -- 업계를 선도하는 클라우드 기반 통합 테스트 플랫폼 람다테스트(LambdaTest)는 아바타 벤처스(Avataar Ventures)가 주도하고 퀄컴 벤처스(Qualcomm Ventures)가 참여하는 3천8백만 달러 규모의 펀딩 라운드를 확보하여 총 1억 8백만 달러의 펀딩을 달성했다. 이 핵심 투자는 혁신을 통해 고품질 엔지니어링을 민주화한다는 람다테스트의 사명 달성을 가속하고, 동사의 획기적인 혁신 제품 케인AI(KaneAI) – "AI 네이티브 QA 서비스 에이전트" 플랫폼을 통해 웹과 모바일 소프트웨어 품질에 대한 업계 표준을 재정의한다. L to R_ Maneesh Sharma, Jay Singh, Asad Khan, Mayank Bhola 포춘 500대 기업과 G2000 기업들을 포함한 15,000개 이상의 고객사를 보유한 람다테스트는 이미 QA 분야의 리더로 자리잡았다. 동사의 최신 혁신 기술에는 AI 기반 QA 자동화 서비스 에이전트인 케인AI와 기업들이 디지털 자산을 속도, 정밀도, 확장성으로 테스트할 수 있는 AI 네이티브 하이퍼엑시큐트(HyperExecute) 플랫폼이 들어 있다. 람다테스트의 AI 네이티브 통합 테스트 실행 및 오케스트레이션 클라우드 하이퍼엑시큐트는 팀들이 여러 환경에서 지능적으로 테스트를 실행하여 어떤 클라우드 그리드보다 최대 70% 더 빠르게 테스트를 실행할 수 있도록 해줌으로써 2.5배 더 빠른 테스트 처리 속도와 60% 더 빠른 오류 탐지가 가능하다. 최신 플랫폼인 케인AI는 테스트 스크립트 생성 과정에서 수작업을 40~70%까지 줄일 수 있도록 지원한다. 이러한 생성형 AI 기반 혁신 기술은 소프트웨어 개발 수명 주기가 더 빠르고 엄격하며 점점 더 복잡해짐에 따라 간소화되고 효율적인 QA 프로세스에 대한 시급한 필요성을 해결한다. 전년 동기 대비 약 105% 성장한 람다테스트는 전 세계 230만 명 이상의 개발자와 테스터들을 보유하고 있는데 이들은 람다테스트에 의존하여 지능적으로 테스트하며, 출시를 가속하고, 확신을 갖고 고품질 소프트웨어를 공급해 왔으며 현재까지 12억 건 이상의 테스트를 진행했다. 람다테스트 CEO 겸 공동 설립자 아사드 칸(Asad Khan)은 "케인AI는 도구 그 이상의 것으로, 팀들이 수작업을 줄여 스마트하고 빠르게 테스트할 수 있도록 지원하는 혁신적인 방식"이라면서 "우리는 람다테스트의 클라우드 기반 플랫폼을 바탕으로 이 솔루션을 대규모로 공급할 수 있는 경쟁력을 갖고 있으며, QA의 미래를 다시 만들어 가는 과정에서 아바타 벤처스와 퀄컴 벤처스의 지원을 받게 되어 기쁘게 생각한다"고 말했다. 아바타 설립 파트너 니샨트 라오(Nishant Rao)는 "아사드와 그 팀은 정말로 주목할 만한 존재들이며 단기간에 전체 시장을 혁신해 왔다. 그들은 최초의 AI 네이티브 노코드 QA 솔루션(케인AI) 개발에서부터 단 하나의 진정한 e2e 엔터프라이즈 등급의 안전한 테스트 오케스트레이션 플랫폼(하이퍼엑시큐트) 출시에 이르기까지, 게임을 완전히 바꾸고 기존 CBT 벤더들을 압도해 왔다. 말 그대로 모든 산업과 기업들이 디지털로 전환하고 있는 세상에서 람다테스트는 이제 최고의 고객 경험을 제공하고 출시 시간을 단축하는 동시에 비용을 크게 절감할 수 있는 필수 솔루션이 되었다"면서 "우리는 그들의 질 높은 성장 과정에 영감을 받았으며 그들의 미래를 매우 긍정적으로 보고 있다. 아바타의 독자적인 샵오페레이팅VC(#OperatingVC) 모델은 람다테스트가 갖고 있는 퍼스트무버의 강점을 글로벌 시장 리더로 전환해가는 과정의 모든 단계에서 그들에게 적극적인 지원을 제공할 것(하지만 이번에는 전 세계를 위해 인도에서 구축됨)!"이라고 덧붙였다. 퀄컴 테크놀로지스(Qualcomm Technologies, Inc.) 수석 부사장 겸 퀄컴 벤처스 글로벌 책임자 퀸 리(Quinn Li)는 "클라우드와 기기 상에서 AI 애플리케이션이 점점 더 보편화됨에 따라 AI 기반 자동화를 통한 지속적인 테스트는 출시 주기 단축과 CI/CD 파이프라인 효율 개선에 필수적"이라면서 "람다테스트의 종합 제품군은 AI 기반 자율 테스트 시스템을 통해 소프트웨어 품질 보증을 혁신하고 있다. 이들의 여정을 지원하게 되어 기쁘게 생각한다"고 말했다. 아바타 벤처스와 퀄컴 벤처스의 이러한 투자는 QA 시장에서 AI 기반 도구들이 갖고 있는 잠재력에 대한 증거이다. 기업들이 테스트 프로세스를 간소화하기 위해 클라우드 솔루션을 계속 채택함에 따라, 람다테스트의 포괄적인 접근 방식을 통해 동사는 QA 혁신의 선두에 서서 진화하는 거대 시장에서의 자신의 리더십을 강화하고 있다. 2017년에 설립된 람다테스트는 이전의 펀딩 라운드들에서 프렘지 인베스트(Premji Invest), 세쿼이아 캐피털 인디아(Sequoia Capital India), 티타늄 벤처스(Titanium Ventures), 레오 캐피털 홀딩스(Leo Capital Holdings), 블룸 벤처스(Blume Ventures) 등 최고 투자자들로부터 거의 7천만 달러에 이르는 자금을 조달했다. 편집자 용 노트 람다테스트 람다테스트는 지능형 옴니채널 소프트웨어 품질 보증 플랫폼으로 기업들이 AI가 구동하는 클라우드 기반 테스트의 작성, 오케스트레이션과 실행을 통해 제품 출시 시간을 단축할 수 있도록 지원한다. 130개 이상의 국가에서 15,000개 이상의 고객과 230만 명 이상의 사용자들이 자신들의 테스트 니즈를 람다테스트에 의존하고 있다. 브라우저 & 앱 테스트 클라우드를 사용할 경우 3천 개 이상의 다양한 브라우저, 실제 기기와 운영 체제 환경에서 웹 및 모바일 앱의 수동 및 자동 테스트를 모두 실행할 수 있다. 하이퍼엑시큐트(HyperExecute) 를 통해 고객들은 클라우드 내의 테스트 그리드를 모든 프레임워크와 프로그램 언어를 통해 엄청나게 빠른 속도로 돌리고 조율함으로써 테스트 시간을 단축하고 개발자들이 더 빠르게 소프트웨어를 개발할 수 있도록 지원한다. 상세 정보가 필요할 경우 https://lambdatest.com을 방문하기 바란다. 아바타 벤처스 아바타는 지역 기반의 뛰어난 기술 주도형 B2B 및 SaaS 스타트업들과 적극적으로 파트너십을 맺고 이들이 성공적이고 지속적이며 세계적인 기업들로 성장할 수 있도록 재창조하고 확장하며 변모시키는 성장 단계의 운영형 VC 펀드이다. 우리는 인도와 동남아시아가 B2B 제품 국가로 변모하여 전 세계를 위한 제품을 개발한다는 약속을 믿는다! 우리는 이 지역을 위해 새로운 기업-VC 방정식을 오케스트레이션할 수 있음을 믿고 있으며 이 지역 현장에서 당사 설립자들과 함께 사업을 직접 운영한다. 그들의 열정과 아이디어, 그리고 우리의 경험과 네트워크가 결합되어 포트폴리오에 있는 각 회사의 규모 확장 성공 공식이 가속된다. 상세 정보가 필요할 경우 http://avataar.vc/를 방문하기 바란다. 퀄컴 벤처스 퀄컴 벤처스 LLC 또는 그 계열사들을 통해 활동하는 퀄컴 벤처스는 2000년부터 우리 세상을 극적으로 변화시킬 잠재력을 가진 기술 기업들에 전략적 투자를 해오고 있다. 우리는 글로벌 투자자로서 기업가들이 우리 주위에 있는 세상을 재구성하는 혁신적인 기업들을 구축할 수 있도록 지원하고자 한다. 상세 정보가 필요할 경우 www.qualcommventures.com을 방문하기 바란다. 사진 - https://mma.prnasia.com/media2/2576342/LambdaTest_Leadership.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1721228/Lambda_Test_Logo.jpg?p=medium600

2024.12.11 13:10글로벌뉴스

"개발자 워크플로 가속"…AWS-깃랩, AI 통합 솔루션 출시

아마존웹서비스(AWS)가 개발자를 위한 인공지능(AI) 통합 솔루션을 출시했다. AWS는 AI 기반 데브섹옵스(DevSecOps) 플랫폼 깃랩과 손잡고 AWS 리인벤트에서 '깃랩 듀오'와 '아마존 Q'를 결합한 솔루션을 공개했다고 10일 발표했다. 깃랩 듀오와 아마존 Q는 데브섹옵스 워크플로와 아마존 Q 자율 에이전트 결합을 통해 원활한 AI 기반 개발자 경험을 제공한다. 조직이 보다 안전한 소프트웨어(SW)를 더욱 빠르게 제공할 수 있도록 지원한다. 개발자들은 깃랩 이슈와 병합 요청에서 고급 아마존 Q AI 에이전트와 깃랩 퀵 액션을 이용할 수 있다. 보통 개발팀은 코드 품질, 보안, 모범 사례를 보장하면서 여러 도구, 기술, 프로세스에 걸쳐 작업해야 한다. 이는 프로젝트 범위와 복잡성 증가에 따라 소프트웨어 개발 수명 주기를 분절하는 원인이 될 수 있다. 최근 깃랩 글로벌 데브섹옵스 보고서에 따르면 개별 기여자의 54%가 자신의 팀이 SW 개발에 최대 14개 도구를 사용한다고 답했다. 바면 단 17%의 조직만이 도구 통합 노력을 시작했다고 응답했다. 아마존 Q가 통합된 깃랩 듀오는 깃랩의 통합 데브섹옵스 플랫폼을 통해 복잡한 다단계 작업을 완료할 수 있도록 지원해 분절된 SW 개발 수명 주기에서 개발자들이 겪는 혼란을 해소한다. 이 통합 솔루션은 개발자의 일상적인 워크플로우에 아마존 Q의 자율 AI 에이전트를 접목시켜 원활한 개발자 경험을 제공할 수 있다. 이를 통해 조직이 안전한 소프트웨어를 더 빠르게 출시할 수 있도록 지원한다. 특히 셀프 매니지드의 깃랩 얼티미트 티어 고객은 아마존 Q와 깃랩 듀오를 프리뷰로 활용할 수 있다. 이를 통해 SW 개발을 간소화할 수 있다. 새로운 아이디어를 몇 분 만에 병합 준비된 코드로 변환할 수 있으며 깃랩에서 실시간 피드백을 통해 직접 반복해 처음부터 끝까지 개발 워크플로우를 가속화할 수 있다. 코드 최적화도 가능하다. 새로운 병합 요청에 대한 단위 테스트를 생성해 개발자 시간을 절약하고 팀 전체에 걸쳐 일관된 품질 보증 관행을 시행한다. 또 AI 기반 코드 품질 및 보안 검토를 제공해 피드백 주기를 가속화한다. 사용자는 자바 8 또는 자바 11 코드베이스부터 시작해 깃랩 프로젝트에서 직접 자바 17로 업그레이드해 애플리케이션 보안과 성능을 개선하고 기술 부채를 제거할 수 있다. AWS 디팍 싱 차세대 개발자 경험 부문 부사장은 "깃랩 듀오와 아마존 Q의 통합은 AI 기반 데브섹옵스의 획기적인 도약"이라며 "깃랩의 포괄적인 데브섹옵스 플랫폼과 깃랩 듀오, 아마존 Q의 고급 AI기능을 결합함으로써 개발자 워크플로우 가속화, 코드 품질 향상, 보안 조치 강화를 지원한다"고 강조했다. 깃랩 애슐리 크레이머 임시 수석 수익 책임자 및 마케팅·전략 책임자는 "두 솔루션은 코드 커밋부터 프로덕션까지 신뢰할 수 있고 안전한 환경에서 원활한 여정을 제공한다"며 "아마존 Q의 고급 기능을 활용하고 이를 통합 데이터 저장소에 통합함으로써 깃랩 듀오와 아마존 Q는 SW 개발을 가속화하고 자동화하는 동시에 보안, 규정 준수, 개인정보 보호를 보장하는 엔터프라이즈급 플랫폼을 제공한다"고 말했다.

2024.12.10 17:24김미정

애플, iOS 18.2 다음 주 출시…어떤 기능 추가되나

애플이 개발자 및 공개 베타 테스터 대상으로 iOS 18.2의 마지막 베타인 RC(Release Candidate) 버전을 5일(현지시간) 출시했다. IT매체 나인투파이브맥은 다음 주 중 일반 사용자 대상으로 iOS 18.2가 정식 출시될 예정이라며 추가될 주요 기능을 최근 보도했다. iOS 18.2에서 가장 주목되는 기능은 '애플 인텔리전스' 관련 기능이다. 사용자는 '이미지 플레이그라운드' 기능을 통해 원하는 이미지를 입력하고 애니메이션, 일러스트레이션, 스케치 등 형태를 선택해 원하는 이미지를 자동으로 만들 수 있다. 이용자가 원하는 이모티콘을 생성할 수 있는 젠모지 기능도 추가된다. 또 눈길을 끄는 기능은 챗GPT를 시리나 쓰기 도구를 통해 곧바로 쓸 수 있다는 것이다. 챗GPT 계정은 따로 필요 없으며, 사용자의 요청은 익명으로 처리되고 오픈AI의 AI 모델을 학습하는 데 사용되지 않는다. 카메라 컨트롤 기능에 '비주얼 인텔리전스' 기능도 적용된다. 구글 렌즈처럼 카메라를 통해 주변 정보를 검색할 수 있게 되는데 카메라 앱을 열어 대상에 대는 것만으로 장소나 제품에 대한 정보를 즉시 검색하거나 정보와 상호작용할 수 있다. 쓰기 도구도 업데이트된다. 텍스트를 더 전문적으로, 간결하게 만드는 옵션 외에도 예를 들어 “이문장을 시로 만들어 줘”라는 등 자유로운 표현으로 바꿀 수 있게 된다. 메일 앱도 AI 기능이 적용돼 가장 중요한 메시지를 우선 분류할 수 있으며, 한 발신자의 모든 메일을 손쉽게 검색할 수도 있다. 이번에 애플 인텔리전스는 미국 외에도 ▲ 호주 ▲ 캐나다 ▲ 뉴질랜드 ▲ 남아프리카 ▲ 아일랜드 ▲ 영국에서 영어로 사용할 수 있게 된다. 이 밖에도 iOS 18.2에서는 베타 테스트 기간 중 발견된 여러 버그 수정도 포함될 예정이다.

2024.12.07 09:00이정현

"최고의 크리스마스 선물"…오픈AI, 차세대 'o1·프리미엄 구독' 서비스 공개

오픈AI가 차세대 인공지능(AI) 추론모델과 신규 구독 서비스로 기술 혁신의 크리스마스 선물을 선사했다. 오픈AI는 '새로운 'o1' 모델의 정식 출시와 함께 프리미엄 서비스 '챗GPT 프로' 티어를 6일 공개했다. 이날 진행된 발표는 회사가 연말에 12일간 진행하는 '쉽마스(Shipmas)' 행사의 일환으로, 샘 알트먼 오픈AI 최고경영자와 정형원 연구원 등 임직원 4명이 참가해 직접 새 서비스의 성능을 시연하며 기대감을 높였다. 오픈AI는 이번에 출시한 'o1' 모델이 기존 'GPT-4' 및 지난 9월에 출시된 'o1' 프리뷰 모델보다 월등히 개선됐다고 밝혔다. 속도는 약 50% 빨라졌으며 환각 오류(잘못된 답변)가 약 34% 감소했다. 특히 과학, 수학, 코딩과 같은 고도의 기술 작업에서 정밀도가 크게 향상됐다. 'o1'의 새로운 멀티모달 기능도 주목할 만하다. 이 기능은 텍스트와 이미지를 동시에 처리하며 복잡한 문제를 해결할 수 있다. 데모에서는 손으로 그린 우주 냉각 시스템 설계를 분석하고 이를 기반으로 냉각 패널의 면적을 계산하는 과정이 시연됐다. 모델은 불완전한 문제 조건을 스스로 보완하며 최적의 답을 도출했다. 또 오픈AI는 향후 'o1' 모델에 웹 브라우징, 파일 업로드 기능 등을 추가할 예정이다. 또 개발자를 위한 애플리케이션 프로그램 인터페이스(API)를 통해 구조화된 출력, 함수 호출, 이미지 이해 등을 지원하며 더 강력한 개발 환경을 제공할 계획이다. 쉽마스 직후 'o1' 모델은 '챗GPT' 유료 구독자들을 대상으로 공개됐다. 이에 기자는 직접 "대한민국 역대 대통령들을 모두 나열하라"고 묻는 테스트를 진행했다. 'o1'은 단 10초 만에 정확한 목록을 제공했으며 대통령의 임기 기간, 대수, 재선 여부까지 정확히 설명해 그 성능을 입증했다. 함께 공개된 '챗GPT' 프로 티어는 월 200달러(한화 약 28만원)에 구독할 수 있는 프리미엄 서비스로, 파워 유저를 위한 고급 기능을 제공한다. 이 티어에는 'o1 프로 모드'가 포함돼 있으며 더 높은 연산 자원을 활용해 복잡한 문제 해결에 특화된 성능을 발휘한다. 오픈AI '쉽마스' 행사는 앞으로 11일간 평일마다 계속되며 매일 새로운 기능과 제품이 공개될 예정이다. 첫날 공개된 혁신적 기술과 성능은 앞으로의 AI 기술이 일상과 산업 전반에서 어떤 변화를 가져올지 기대를 모으고 있다. 샘 알트먼 오픈AI 대표는 발표를 마치며 "이번 쉽마스는 오픈AI가 지난 1년간 얼마나 진화했는지를 보여주는 기회"라며 "모든 사용자가 AI를 통해 더 나은 경험을 할 수 있도록 계속 노력할 것"이라고 강조했다.

2024.12.06 07:55조이환

AWS, 멀티모달 '아마존 노바' 공개…"구글·오픈AI보다 가성비↑"

[라스베이거스(미국)=김미정 기자] 아마존웹서비스(AWS)가 생성형 인공지능(AI) 사업을 본격 확장했다. 차세대 AI 칩과 새 AI 모델 시리즈를 공개하고 기존 솔루션 기능을 업그레이드했다. 이를 통해 고객에게 고성능·저비용 AI 서비스를 제공하겠다는 전략이다. 맷 가먼 AWS 최고경영자(CEO)는 3일(현지시간) 미국 라스베이거스에서 열린 'AWS 리인벤트' 기조연설에서 기업의 모든 애플리케이션에 AI가 탑재될 것이라며 이를 위한 AWS 사업 전략을 발표했다. 트레이니움3 내년 말 출시…애플 무대 첫 등장 이날 가먼 CEO는 3나노미터 공정으로 제작된 차세대 AI 칩인 '트레이니움3'를 공개했다. 내년 말 출시 예정이다. 이 칩은 이전 세대인 Trn2 울트라서버보다 4배 높은 성능을 갖췄다. 가먼 CEO는 현재 트레이니움2를 이용하는 고객을 소개했다. 이들이 트레이니움2를 통해 이룬 성과를 공유했다. 특히 애플이 처음 리인벤트에 참석해 트레이니움2를 통한 애플 인텔리전스 개발 후기를 알렸다. 애플은 AWS와 약 10년 동안 파트너십을 맺었다. 애플 브누아 뒤팽 머신러닝·AI 수석 디렉터는 "AWS와 협력을 통해 애플 인텔리전스 기술을 강화할 계획"이라면서 "이를 위한 확장성 있는 성능과 기술이 필요하다"고 밝혔다. 이어 "AWS는 이런 요구를 만족시킬 수 있다"며 "트레이니움2는 애플 인텔리전스 효율성을 50% 개선할 것이라는 내부 평가가 나오기도 했다"고 설명했다. 새 AI 모델 '아마존 노바' 발표..."타이탄 확장판" 이날 앤디 제시 아마존 CEO가 무대에 올라 새로운 AI 모델 시리즈 '아마존 노바'를 발표했다. 이번에 공개 모델은 거대언어모델(LLM) '아마존 노바 마이크로'와 멀티모달 모델 '아마존 노바 라이트' '아마존 노바 프로' '아마존 노바 프리미어'다. 현재 아마존 베드락에서 이용 가능하다. 기존 AI 모델인 '타이탄' 확장판인 것으로 알려졌다. 아마존 노바 마이크로는 문자만 이해·처리할 수 있는 모델이다. 초당 210개 출력 토큰을 생성할 수 있다. 메타의 '라마' 3.1 8B 모델과 구글의 '제미나이 1.5 플래시' 8B 모델 대비 모든 벤치마크에서 동등하거나 더 우수한 결과를 기록했다. 빠른 응답이 필요한 애플리케이션에 최적화된 모델이다. 아마존 노바 라이트는 텍스트와 이미지, 비디오를 처리하는 멀티모달 형태다. 오픈AI의 GPT-4o 미니와 비교했을 때 19개 부문 중 17개에서 동등하거나 더 나은 성과를 기록했다. 제시 CEO는 "이 모델은 비용 효율성과 속도를 동시에 갖춘 모델로 다양한 작업에서 활용될 수 있다"고 설명했다. 아마존 노바 프로는 다양한 작업에서 정확성, 속도, 비용 효율성을 최적화한 고성능 멀티모달 모델이다. 오픈AI의 GPT-4o와 비교했을 때 20개 벤치마크 중 17개에서 동등하거나 더 우수한 결과를 보였다. 구글의 '제미나이 1.5 프로'와 비교할 경우 21개 중 16개 벤치마크에서 동등하거나 더 나은 성과를 나타냈다. 복잡한 추론 작업과 사용자 정의 모델 학습을 위한 모델이다. 아마존 노바 프리미어는 복잡한 추론 작업에서 가장 강력한 성능을 제공하는 멀티모달 모델이다. 사용자 맞춤형 모델 학습도 지원한다. 긴 컨텍스트를 처리할 수 있는 능력을 갖췄으며, 최대 30만 개의 입력 토큰 또는 약 30분 분량의 비디오를 처리할 수 있다. 제시 CEO는 "내년 초까지 200만 개 이상의 입력 토큰을 지원할 계획"이라고 밝혔다. AWS는 내년 1분기에 음성 AI 모델 출시 계획도 알렸다. 이 모델은 스트리밍 음성 입력을 이해하고 음성 억양과 리듬 등 비언어적 신호를 해석하는 기능을 갖췄다. 이를 통해 자연스럽고 인간과 유사한 상호작용을 제공할 수 있다. 내년 중반에는 문자뿐 아니라 이미지, 오디오, 비디오를 입력받아 어떤 형식으로든 출력할 수 있는 멀티모달 모델 출시도 앞뒀다. "AI 개발 더 쉽고 저렴하게"…아마존 베드락 업데이트 AWS는 아마존 베드락 업데이트 소식도 알렸다. 개발자가 아마존 베드락으로 AI 연구와 애플리케이션 개발을 더 빠르고 저렴하게 진행할 수 있도록 신기능을 추가했다. 아마존 베드락은 '모델 디스틸레이션' 기능을 탑재했다. 대형 모델이 갖고 있는 복잡한 지식을 소형 모델에 쉽게 이전해 주는 기술이다. 해당 지식을 전달받은 소형 모델은 같은 지식을 가진 대형 모델보다 최대 500% 더 빠르고 75% 더 저렴한 비용으로 작동할 수 있다. AWS는 아마존 베드락 내 모델들에 '지연 시간 최적화 버전'을 적용했다고 발표했다. 현재 메타 '라마'와 앤트로픽 '클로드 3.5 하이쿠'에만 적용한 상태다. 특히 하이쿠 모델은 기존보다 추론 속도가 60% 개선됐다. 그는 "트레이니움2를 활용해 고성능·고효율 AI 모델을 구축할 것"이라고 밝혔다. 두 기업은 대규모 AI 모델 훈련에 특화된 클러스터 '프로젝트 레이니어'를 발표했다. 이 클러스터는 수십만 개의 트레이니움2 칩으로 구성돼 기존 대비 5배 이상의 성능을 제공한다. AWS는 자동화된 추론 검사(Automated Reasoning Check) 기능도 아마존 베드락에 추가했다. 이를 통해 모델 응답 정확성을 수학적 증명을 통해 검증하고 사실 오류를 방지할 수 있다. 가먼 CEO는 "자동화 추론 검사 목표는 모델의 환각 문제를 최소화하기 위함"이라며 "환각은 기업 환경이나 민감한 정보가 중요한 도메인에서 결과 신뢰성을 크게 저하할 수 있다"고 지적했다. 이에 "이 기능은 단순히 오류를 감지하는 데 그치지 않는다"며 "발견된 문제를 수정하기 위한 권장 사항도 제공한다"고 덧붙였다. AWS는 아마존 베드락에 '모델 지연 시간 최적화 버전'도 추가했다. 현재 메타의 '라마'와 앤트로픽의 '클로드 3.5 하이쿠'에 적용한 상태다. 특히 하이쿠는 해당 기능 적용 후 추론 속도가 60% 늘었다. 기업·개발자 업무 생산성, '아마존 Q'가 책임진다 이날 AWS는 생성형 AI를 개발·비즈니스에 활용할 수 있는 '아마존 Q' 제품군을 새로 발표했다. 아마존 Q 디벨로퍼는 개발자의 생산성을 높이고 반복적인 작업을 줄이기 위해 설계된 생성형 AI 어시스턴트다. 문서 검색부터 실시간 코드 제안, 에이전트로 복잡한 작업 간소화를 돕는다. 또 유닛 테스트 자동 생성, 코드 문서화 및 코드 리뷰 자동화, 코드 변환과 레거시 현대화 등 개발자의 업무 효율을 높이는 다양한 기능을 제공한다. 아마존 Q 비즈니스는 반복적이고 시간이 많이 드는 사무 업무를 줄인다. 다양한 시스템과 애플리케이션에서 데이터를 빠르게 찾고 분석해 비즈니스 의사 결정을 지원한다. 가먼 CEO는 "고객 요구에 부응하는 혁신적인 AI 솔루션을 제공하기 위해 노력할 것"이라며 "이번 발표를 통해 기업들이 AI 모델의 효율성과 성능을 극대화할 수 있을 것으로 기대한다"고 강조했다.

2024.12.04 09:19김미정

"AWS 개발툴 사용"…GE 헬스케어, 세계 첫 '3D MRI 모델' 출시

[라스베이거스(미국)=김미정 기자] 3D로 자기공명영상(MRI)을 지원하는 모델이 세계에서 처음 나왔다. 아마존웹서비스(AWS)의 개발 도구 'AWS 세이지메이커'를 통해 탄생한 모델이다. GE 헬스케어 아부 미르자 부사장(SVP)은 2~6일 미국 라스베이거스에서 열린 'AWS 리인벤트' 부대 행사 '미디어 패널: 혁신을 위한 구축'에서 모델 출시 소식을 이같이 밝혔다. 미르자 SVP는 "의료용 3D MRI 모델은 헬스케어 산업에서 처음 등장했다"며 "기존 MRI를 통한 분석은 2D로만 진행돼 한계가 있었다"고 설명했다. 이 3D MRI 모델은 이미지 데이터 약 18만 개로 학습했다. 정확도를 위해 약 1천900만 회 넘는 테스트도 거쳤다. 미르자 SVP는 "의료 전문가들이 MRI 영상을 해석하는 데 도움 줄 수 있을 것"이라며 "환자 치료 효율성과 품질도 같이 높일 것"이라고 기대했다. 그는 이날 엑스레이 이미지 분석 정확도를 높이는 기초 모델도 소개했다. 생성형 AI 기반으로 이미지 분석과 진단 향상을 돕는다. 해당 모델을 대량의 엑스레이 데이터로 훈련됐다. 두 모델은 AWS 세이지메티커와 클라우드 도구로 개발됐다. AWS 세이지메이커는 완전 관리형 머신러닝(ML) 서비스다. 개발자가 데이터 준비, 모델 학습, 배포 및 모니터링 등 개발 워크플로의 모든 단계를 통합 제공한다. 사용자는 인프라 관리에 대한 부담 없이 고품질 모델을 개발할 수 있다. 미르자 SVP는 이 과정에서 발생할 수 있는 데이터 편향도 예방했다고 자신했다. 그는 "임상 전문가와 꾸준히 협력해 데이터 편향 문제를 해결했다"며 "AWS와의 기술 파트너십뿐 아니라 학계와 협력해 의료 분야에 획기적 혁신을 이뤘다"고 강조했다. 미르자 SVP는 앞으로 의료 데이터를 합법적이고 유용하게 활용할 것이라고 말했다. 그는 "MRI나 엑스레이 등 디지털 의료 데이터가 전 세계 디지털 데이터의 약 3분의 1을 차지하지만 97% 이상이 아직 활용되지 못하고 있다"고 지적했다. 이어 "AI와 클라우드로 의료 데이터를 신속히 분석함으로써 이를 환자 맞춤형 치료에 활용해야 한다"고 주장했다.

2024.12.03 12:36김미정

고통스럽고 구시대적인 동물 실험 없이 화장품과 화학 물질을 안전하게 시험할 수 있는 과학자 양성을 위한 글로벌 이니셔티브 출범

브뤼셀, 2024년 11월 30일 /PRNewswire/ -- 동물을 사용하지 않고 화장품과 화학 물질을 시험하는 방법을 과학자들에게 교육하는 새로운 온라인 마스터 클래스 과정이 전 세계적으로 동물 없는 실험으로의 획기적인 변화를 가져올 것으로 주목받고 있습니다. 동물 없는 실험을 단계별로 안내하는 실제 사례 연구를 통해 이 커리큘럼은 동물사용 없는 안전성 평가 협력 (Animal-Free Safety Assessment Collaboration) (AFSA)에 의해 시작되었으며, 2023년 처음 개설된 이래 전 세계 70여 개국에서 1,200명 이상의 참가자를 유치하며 혁신적이고 윤리적인 시험 방법에 대한 전 세계적 관심을 반영하고 있습니다. 현재 마지막 모듈의 등록이 시작되어 총 10개 모듈로 구성된 과정이 완성되었습니다. AFSA Master Class; Edward Jenner/Pexels 산업계, 연구 개발자, 규제기관 및 동물 보호 전문가들의 의견을 통해 만들어진 이 과정은 사용자들을 "차세대 위험 평가"의 모든 단계를 안내하며, 이 과정은 강력한 소비자 안전에 대한 확실한 결론을 보장하기 위한 데이터 통합과 같은 첨단 기술로 마무리됩니다. 이러한 최첨단 방법론은 고통스러운 동물 기반 시험의 필요성을 없앨 뿐만 아니라 화학 물질과 제품의 안전성에 관한 보다 유효하고 신뢰할 수 있는 결과를 제공합니다. 전 세계 동물 사용 없는 안전성 평가 과학 분야 전문가들의 헌신적인 기여로 만들어진 AFSA 마스터 클래스의 목표는 인체 안전성을 더욱 확실히 보장하고자 지속적인 변화와 인도적인 과학적 활동을 장려하기 위한 교육적 기반을 제공하는 것입니다. 전 세계 규제 기관, 제품 개발자, 계약 연구 기관, 학계 전문가들이 이 과정의 개발에 적극적으로 참여하고 있어 동물을 사용하지 않는 안전성 평가 과학의 진정한 국제 협력적 특성을 성격을 보여주고 있습니다. 휴메인 소사이어티 인터내셔널(Humane Society International )의 과학 및 규제 담당 시니어 디렉터이자 AFSA 마스터 클래스의 수석 코디네이터 캐서린 윌렛(Catherine Willett) 박사는 "소비자와 기업들 모두 고통스럽고 구식의 동물 실험 방식에서 벗어나고자 하지만, 동물을 사용하지 않는 현재 이용 가능한 최천단 방법을 배우고 이를 이용하여 안전성 평가를 수행하고 결정을 내리는 것은 어려운 일입니다. "면서 "AFSA 마스터 클래스는 동물을 사용하지 않는 안전성 평가를 쉽게 이해할 수 있도록 하여 기업들이 쥐, 토끼, 기니피그를 첨단 비동물 모델과 컴퓨터 시뮬레이션으로 더 쉽게 대체할 수 있도록 지원한다"고 말했다. 과정 참가자인 데저트 인 블룸 코스메틱 랩(Desert in Bloom Cosmetics Lab)의 매니징 파트너 마크 브루사드(Mark Broussard)는 "AFSA 마스터 클래스는 동물을 사용하지 않는 방법으로 새로운 화장품 원료의 안전성을 결정하는 전체 과정을 이해하는 데 정말 큰 도움이 되었습니다. 저는 현재 안전성 테스트를 받지 않았고 인체용 화장품이나 치료 제품에 사용된 적이 없는 새로운 식물 추출물을 다루고 있기 때문입니다"면서 "이 새로운 접근 방식의 방법론은 고통스러운 동물 기반 테스트 절차에 동물들을 사용하지 않고도 화장품 원료의 안전성에 대해 더 유효하고 신뢰할 수 있는 결과를 도출할 것이라고 생각합니다"고 말했다. 유니레버(Unilever)의 안전, 환경 및 규제 과학 담당 부사장 줄리아 H 펜템(Julia H Fentem) 박사는 "소비자들이 매일 사용하고 신뢰하는 화장품과 개인 위생 제품들은 그 안전성이 가장 중요하다"면서 "우리의 독특한 AFSA 마스터 클래스 프로그램은 새로운 동물 실험 데이터를 만들지 않는 화장품과 원료의 안전성 평가에 초점을 맞추고 있으며, 규제 안전성 평가 뿐만 아니라 사내 의사 결정을 위해 동물을 사용하지 않는 도구와 데이터를 활용하는 모든 측면을 다루고 있습니다"고 말했다. AFSA 마스터 클래스는 주요 이해관계자들에게 동물을 사용하지 않는 안전성 시험 방법을 더욱 잘 탐구할 수 있는 방법과 지식을 제공하여, 화장품 및 화학 물질 안전성 과학의 동물 실험 없는 미래로의 광범위한 전환에 기여할 것 입니다. AFSA 마스터 클래스 전체 과정은 온라인 AFSAcollaboration.org/masterclass에서 무료로 이용하실 수 있습니다. 편집자 용 노트: AFSA 마스터 클래스는 다음 회원 기관들의 현물 기부로 구성된 과정이다: 에이본 프로덕츠(Avon Products Inc.), 크렘(Créme), 델픽 HSE(Delphic HSE), DSM-피르메니히(DSM-Firmenich), 지보단Givaudan), 휴메인 소사이어티 인터내셔널(Humane Society International), 인 비트로 사이언스 인스티튜트(Institute for In Vitro Sciences), 인터내셔널 플레이버스 & 프레이그런스(International Flavors & Fragrances, Inc.), 라사(Lhasa Ltd.), 로레알(L'Oreal), 러시 프레시 핸드메이드 코스메틱스(Lush Fresh Handmade Cosmetics), 프록터 & 갬블(Procter & Gamble), 심라이즈(Symrise), 유니레버(Unilever). 사진 - https://mma.prnasia.com/media2/2568080/Humane_Society_International_AFSA_Master_Class.jpg?p=medium600로고 - https://mma.prnasia.com/media2/2568079/AFSA_collab_purple_PNG_Logo.jpg?p=medium600

2024.11.30 04:10글로벌뉴스

유니버설로봇, 내년 상반기 국내 첫 서비스센터 개소

글로벌 협동로봇 전문기업 유니버설로봇이 내년 상반기 중 국내 첫 서비스센터를 열고 고객 지원 강화에 나선다. 킴 포블슨 유니버설로봇 최고경영자(CEO)는 29일 한국 첫 방문을 기념해 서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '2024 유니버설 로봇 기자간담회'에서 이같이 밝혔다. 킴 포블슨 CEO는 올해 현재 전 세계 협동로봇 시장을 선도하고 있는 유니버설로봇의 지속적인 성장에 대한 인사이트와 함께 행사의 포문을 열었다. 그는 "유니버설로봇이 2016년 국내에 진출한 이래 한국은 중요한 시장이었다"며 "내년부터 국내 최초 'UR 서비스 및 수리센터'를 공식적으로 열고 차별화된 고객 경험을 제공하고, 한국에 대한 투자를 더욱 확대할 예정"이라고 밝혔다. 유니버설로봇은 앞서 덴마크와 미국, 중국, 멕시코, 인도에 글로벌 센터를 운영해왔다. 국내 센터 설립은 업계 최고의 평생 고객 친밀도를 제공하려는 노력의 일환이며, 국내 시장의 중요성을 상징한다고 그는 설명했다. 킴 포블슨 CEO는 올 해 출시한 'UR AI 액셀러레이터'에 대해서도 발표했다. 그는 유니버설 로봇의 핵심인 '누구나, 언제나, 어디서나' 사용할 수 있는 '자동화를 위한 자동화'의 핵심은 고급 기능을 단순하게 유지하는 것이며, 물리 AI는 이미 로봇공학의 판도를 바꾸는 존재로 입증되고 있다고 강조했다. UR AI 액셀러레이터는 바로 사용할 수 있는 하드웨어 및 소프트웨어 툴킷으로 협동로봇에서 고급 AI 애플리케이션을 구현할 수 있도록 지원하며, 개발자가 애플리케이션을 구축하고 연구를 가속화하며, AI 제품의 출시 기간을 단축할 수 있는 확장 가능한 플랫폼을 제공한다. 대한민국은 현재 전 세계 로봇 설치의 6%, 전 세계 협동로봇 판매의 4.4%를 차지하는 세계 4위의 산업용 로봇 시장이다. 직원 1만 명당 사용 로봇 대수가 1천12대로 세계 평균의 6배가 넘는다. 킴 포블슨 CEO는 "2050년에는 국내 노동가능 인구가 약 1천300만 명 줄어들 것으로 예상된다"며 "점점 높아지고 있는 협동로봇에 대한 인식과 더불어 협동로봇이 대한민국의 산업 곳곳에서 인구 고령화, 노동력 부족을 해결할 수 있도록 지원할 것"이라고 강조했다. 유니버설로봇은 현재 국내에서 자동차, 조선업, 반도체, 기계, 2차 전지 산업의 자동화에 집중하고 있다. 특히 조선업은 협동로봇 용접 솔루션의 가능성을 확인한 바 있다. HD현대삼호는 유니버설로봇의 협동로봇을 도입해 용접 자동화에 나섰다. 킴 포블슨 CEO는 전날 전라남도 영암에 위치한 HD현대삼호중공업을 방문해 운영상황을 확인한 바 있다. 2005년 덴마크에서 시작된 유니버설 로봇은 2008년 세계 최초로 상용화된 협동로봇을 판매한 이래 현재까지 전 세계적으로 9만대 이상의 협동로봇을 판매하며 글로벌 시장을 선도해왔다. 유니버설로봇의 e-시리즈 협동로봇 '코봇'은 8만5천시간의 평균 무고장 시간(MTBF)을 지원한다. 유니버설로봇 아카데미는 현재 전 세계 25만 명 이상이 온·오프라인으로 교육을 받고 있으며, 국내에서는 약 5천 명이 이용중이다. 킴 포블슨 CEO는 "19년이 넘는 시간동안 사용자 친화적인 설계, 신뢰할 수 있는 고품질 부품, 엄격한 테스트를 진행해 왔다. 이는 전 세계 사용자에게 혁신적인 자동화를 제공하고 고객의 삶을 더 나은 방향으로 바꾸어나가는 여정이었다"며 "유니버설로봇은 세계 최고 협동로봇 기업으로서 앞으로도 매순간 최고의 고객 경험을 제공하고, 국내 기업의 자동화 여정을 돕겠다"고 말했다.

2024.11.29 13:28신영빈

그렙 'DTI 포럼 2024' 성료…온라인시험 글로벌 트렌드 강연

인공지능(AI) 기반 온라인 시험 솔루션 '모니토'를 제공하는 그렙이 지난 20일 '디지털 테스트 이노베이션 포럼 2024'(DTI Forum 2024)을 성공적으로 개최했다고 27일 밝혔다. 그렙에 따르면, 이번 행사에는 이번 행사에서는 정부기관, 공공기관, 대기업 및 주요 자격운영 기관과 대학 등 교육기관에서 참여해 온라인 시험에 대한 관심도를 보였다. 연사로 나선 말레이시아 시험위원회 평가혁신부서의 샤피자 모하메드 박사는 말레이시아 공공기관과 대학에서 성공적으로 시행된 대규모 온라인 시험 전환의 경험과 전략을 소개했다. 샤피자 박사는 말레이시아 시험위원회가 운영 중인 말레이시아 대학영어시험(MUET), 의학전문과정양성시험(MedEx) 등의 온라인 시험 운영 경험을 소개하며 시험 설계와 개발, 운영 측면에서의 노하우를 공유했다. 이어 연사로 나선 한국공인회계사회의 김태식 본부장은 성공적인 온라인 시험 전환 사례에 대해 발표했다. 한국공인회계사회는 2022년부터 AT(Accounting Technician) 시험에 모니토 솔루션을 도입해 운영하고 있다. 김 본부장은 발표에서 "예비 테스트와 본테스트 등 총 4차례의 테스트를 통해 관리운영능력을 검증하는 한편, 수험자 역시 비대면 온라인시험이 편리하고 안정적이며 공정성 역시 훼손되지 않는다고 평가했다"고 밝혔다. 김 본부장은 특히 다양한 부정행위 탐지 사례를 소개하며 "AI를 활용한 모니토 솔루션의 부정행위 탐지 기능으로 부정행위 방지에 더욱 용이해졌다"고 강조했다. 마지막 연사로 나선 그렙 평가사업본부 김가향 본부장은 미국 SAT 등 온라인시험으로 전환한 다양한 시험을 소개하며 글로벌 추세에 맞춘 국내 온라인 시험 도입 확신의 필요성을 강조했다. 임성수 그렙 대표는 "DTI Forum 2024 행사를 통해 국내 자격시험기관과 대학 등 교육기관, 그리고 공공기관과 스타트업 등 다양한 기관에서 온라인시험에 대한 높은 관심을 갖고 있다는 것을 확인할 수 있었다"며 "고용노동부 직능원이 승인한 국내 유일 온라인 화상 시험 플랫폼 모니토를 통해 국내외 다양한 기관의 온라인 시험 전환을 지원할 것"이라고 밝혔다.

2024.11.27 15:55백봉삼

클룩-구글 클라우드 파트너십 강화…"생성AI로 여행 경험 향상"

숙박·교통·액티비티 예약 플랫폼 클룩과 구글 클라우드가 AI 파트너십을 확대한다고 27일 밝혔다. 양사는 이번 파트너십을 통해 클룩 전사 차원의 통합 AI 인프라 레이어를 구축하고 여행객과 머천트(여행 상품 공급자)들의 주요 니즈를 해결해 나간다는 계획이다. 이번 파트너십 강화는 양사의 성공적인 AI 협업 사례를 기반으로 이뤄졌다. 클룩은 최근 여행 상품 페이지 콘텐츠 제작 및 현지화 작업에 구글 클라우드의 생성형 AI를 도입해 제작 시간을 80% 이상 단축하는 동시에 번역 정확도와 콘텐츠 품질을 향상시켰다. 또 클룩 R&D 팀은 다양한 소프트웨어 개발 및 테스트 프로세스에 구글의 생성형 AI 도구를 도입한 후, 코드 리뷰 작업의 효율성을 60% 높이는 동시에 플랫폼 성능을 최대 70% 개선했다. 클룩의 최고개발책임자 겸 공동 창업자 버니 시옹은 "구글 클라우드의 생성형 AI는 초기 탐색 단계에서도 클룩의 글로벌 입지 확장과 그에 맞는 능률 향상에 도움을 줬고, 보다 효율적인 혁신과 운영을 가능하게 했다"며 "이번 협업 확대로, 여행 업계의 AI 활용 범위를 넓혀 고객 경험, 머천트 운영, 내부 생산성 전반을 더욱 효과적으로 신속하게 개선할 수 있는 경쟁력을 확보하게 됐다"고 말했다. 클룩은 향후 1년 간 AI 혁신을 위한 로드맵을 추진하며 다양한 페인 포인트를 해결해 나갈 예정이다. 고객 대상으로는 아시아 OTA(온라인 여행사) 최초로 '쇼핑 가이드' 기능을 선보인다. 클룩이 곧 공개할 쇼핑 가이드는 사용자 피드백과 플랫폼 데이터를 기반으로 생성형 AI를 활용해 리뷰를 요약하고, 여러 개의 상품을 쉽게 비교할 수 있도록 공통 요소를 설정한다. 가격, 일정, 특징 등 상품 내용 요약과 고객 특성에 따른 추천 여부 등을 비교 분석해 비슷한 성격의 상품들 중에서 명확한 선택을 할 수 있도록 돕는 것이다. 또 클룩의 주요 파트너인 머천트들이 가치 있는 비즈니스 인사이트를 확보하고 운영 효율성 개선에 도움을 받을 수 있는 솔루션을 출시한다. 클룩은 최근 사용자 리뷰를 요약해 여행 상품 공급자들에 건설적인 피드백을 제공하는 파일럿 프로그램을 운영했으며, 참여 파트너사들은 이를 통해 서비스 수준을 크게 향상시켰다. 한 머천트는 이러한 피드백을 활용해 공급 중인 어트랙션에서 파생된 새로운 상품을 출시했으며, 현재 이 상품은 해당 어트랙션 매출의 24%를 차지하는 것으로 나타났다. 클룩의 개발자들은 구글의 '제미나이 코드 어시스트'를 사용해 클룩 플랫폼의 코드 테스트 및 생성을 지원하기 시작했다. 마케팅 및 재무팀 또한 AI를 활용해 검색 엔진 최적화(SEO)나 청구서 정산 등 노동 집약적인 작업을 간소화하는 방법을 개발하고 있다. 구글 클라우드와 클룩은 AI 인프라 레이어를 공동 개발하고, 초기 단계에는 모든 생성형 AI 결과물의 정확도와 신뢰성을 검증하는 기능에 중점을 둘 예정이다. 클룩은 구글 클라우드의 전문 지식을 활용해 책임 있는 AI에 대한 권장사항을 실천하고, 자체 기술력을 강화해 새로운 AI 기술에도 원활하게 대응하고 전환할 수 있도록 준비한다는 계획이다. 올해 초, 클룩은 기존 PaLM-2 모델에 비해 번역 정확도가 향상된 구글의 제미나이 기반 모델을 도입했으며, 구글 클라우드의 핵심 API 세트를 통해 AI 기술이 지속적으로 발전하는 환경에서도 안정적으로 인프라를 운영하고 있다. 클룩은 AI 전략을 강화해 여행객 피드백과 가맹점 인사이트를 기반으로 한 의미 있는 성과 도출에도 나선다. 클룩은 여행객 리뷰, 피드백, 여행지 정보를 핵심 기반으로 AI 기반 대화형 커머스를 개발 중이다. 대화형 커머스 방식은 채팅 기반 인터페이스를 통해 여행 전문가와 유사한 맞춤형 추천을 실시간으로 제공하는 것을 의미한다. 이를 통해 고객들은 각자의 니즈에 맞춰 원활하게 여행 계획을 세우고, 가장 적합한 현지 경험들을 예약할 수 있다. 카란 바좌 구글 클라우드 아태지역 총괄은 "클룩은 통합 AI 인프라 레이어를 도입해 비즈니스의 전 영역에서 혁신을 극대화하는 동시에, AI 개발 단계의 사일로화(고립)된 접근 방식에서 발생하는 중복 업무와 데이터 파편화의 위험을 최소화할 수 있게 될 것"이라며 "이를 통해 클룩은 생성형 AI 선두주자로서 경쟁력을 강화하고, 클룩이 가진 풍부한 여행 경험 데이터들을 고객과 파트너사를 위한 막대한 가치로 전환할 수 있는 강력한 입지를 확보하게 됐다"고 말했다.

2024.11.27 15:43백봉삼

현대오토에버, GPT기반 AI챗봇 '에이치챗' 도입…업무 생산성 혁신

현대오토에버가 생성형 인공지능(AI) 기반 대화형 서비스 '에이치챗(H Chat)'으로 업무 혁신을 가속한다. 현대오토에버는 마이크로소프트의 '애저 오픈AI(AOAI)'를 기반으로 에이치챗을 개발해 입직원 업무를 지원한다고 26일 밝혔다. AOAI는 마이크로소프트의 클라우드 서비스 애저를 바탕으로 오픈AI의 생성형 AI 'GPT'를 활용할 수 있도록 만든 서비스다. 현대오토에버 임직원들은 에이치챗을 활용해 소프트웨어(SW) 개발 업무를 효율적으로 수행할 수 있다. 단위 테스트 코드를 수행해 개발자들이 신뢰성 높은 코드를 쉽게 만들 수 있도록 돕는다. 이를 통해 코드 품질을 높이고 협업을 원활하게 할 수 있다. 단위 테스트는 작성한 코드가 의도대로 기능이 작동하는지 검증하는 절차로 상당한 시간이 소요되며 작업 난이도 역시 높다. 에이치챗은 소프트웨어 오류의 원인을 찾아내고 해결 방법까지 제시하는 '트러블 슈팅'도 수행할 수 있다. 임직원이 복잡한 오류 로그와 코드를 H Chat에 입력하면 코드를 개선할 방법까지 조언해준다. 또한 임직원이 특정 언어로 작성한 코드를 다른 언어로도 변환시켜주는 '코드 마이그레이션', 코드가 효율적으로 구성됐는지 검증하는 '코드 리뷰' 기능도 제공한다. 에이치챗은 ▲회의록 요약 ▲사내 공지 작성 ▲이메일 양식 작성 등 일반 업무에도 활용 가능하다. 6개 국어(한국어, 영어, 중국어, 일본어, 독일어, 프랑스어)를 지원하는 번역 기능도 갖췄다. 에이치챗의 또 다른 장점은 안전성이다. 현대오토에버는 보안 기능을 강화해 기업의 내부 데이터를 보호하면서도 임직원이 최신 AI 기술을 활용하도록 H Chat을 설계했다. 기업 내부 네트워크와 외부 거대언어모델(LLM) 사이의 통신에 보안 장치를 갖춰 민감한 정보나 개인정보의 유출과 기업 내부 자료의 재학습을 방지한다. 임직원이 에이치챗에 개인정보가 포함된 데이터를 실수로 입력하더라도 해당 정보는 자동으로 차단된다. 현대오토에버는 임직원의 접근성을 높이기 위해 MS의 비즈니스 커뮤니케이션 플랫폼 '팀즈(Teams)'에 H Chat을 연동해 제공한다. 향후 서비스 확장성을 높이기 위해 현대오토에버는 오픈AI 외에도 구글 젬마(Gemma), 앤트로픽 클로드(Claude) 등 다양한 LLM이 H Chat에 연계되도록 지원할 계획이다. 또한 그룹사 전반에 걸쳐 에이치챗이 확산될 수 있도록 제조, 건설, 금융 등 산업별로 요구하는 ▲운영방식 ▲장애대응 ▲유지보수 ▲신규기능을 개발해 맞춤형 서비스도 선보일 방침이다. 현대오토에버는 차량용SW플랫폼, 내비게이션, 스마트팩토리, 클라우드, 엔터프라이즈IT 등 핵심 영역에서 최신 AI 기술을 적용해 사업 경쟁력을 높이고 있다. 현대오토에버 솔루션사업부 김선우 상무는 "에이치챗을 기반으로 임직원의 업무 생산성을 향상시켜 고객사에게 최고의 IT서비스를 제공해 나가겠다"고 밝혔다.

2024.11.26 10:13남혁우

몽고DB, MS 이그나이트 2024 공개 AI신기술 3종 추가

마이크로소프트가 이그나이트 2024에서 선보인 신기술을 몽고DB(MongoDB)에 도입한다. 몽고DB는 마이크로소프트와의 협력을 통해 AI 기반 신규 기능을 세 가지를 지원한다고 25일 밝혔다. 이를 통해 양사 공동 고객은 검색 증강 생성(RAG) 기반 앱 구축 시 몽고DB 아틀라스를 마이크로소프트 애저 AI 파운드리의 벡터 저장소로 선택할 수 있다. 또한 아틀라스의 벡터 기능과 마이크로소프트 애저 및 애저 오픈AI의 생성형 AI 툴과 서비스를 함께 사용 가능하다. 몽고DB 아틀라스용 마이크로소프트 패브릭에서 오픈 미러링 기능을 제공해, 기업이 운영 데이터 기반 인사이트를 준실시간(near real-time)으로 활용할 수 있도록 돕는다. 애저 아크 기반 쿠버네티스 애플리케이션을 위한 애저 마켓플레이스에 몽고DB 엔터프라이즈 어드밴스드(이하 몽고DB EA)를 출시하고 온프레미스, 멀티클라우드 및 엣지 환경에서 쿠버네티스를 실행하는 기업의 몽고DB 도입을 지원할 예정이다. 기업은 애저 AI 파운드리를 통해 액세스할 수 있는 애저 오픈AI 서비스를 이용해 고급 LLM과 결합된 자체 데이터로 RAG 애플리케이션을 개발할 수 있다. 몽고DB 아틀라스와 애저 오픈AI 서비스의 새로운 통합을 통해 아틀라스에 저장된 엔터프라이즈 데이터를 불러와 자체 컨텍스트를 기반으로 대규모언어모델(LLM)을 보강할 수 있다. 이를 통해 기업은 최신 엔터프라이즈 데이터 및 컨텍스트에 기반한 맞춤형 챗봇, 코파일럿, 사내 애플리케이션 및 고객용 포털을 쉽게 구축할 수 있다. 개발자는 추가 코딩이나 파이프라인 구축 없이도 아틀라스를 고급 LLM을 위한 벡터 데이터 저장소로 추가하고, 애저 AI 파운드리의 '챗 플레이그라운드' 기능을 사용해 애플리케이션 생산 전 엔터프라이즈 데이터와 원하는 LLM을 빠르게 테스트해볼 수 있다. 마이크로소프트 패브릭은 기업이 AI 기반 분석 플랫폼에서 자체 데이터를 기반으로 실행 가능한 인사이트를 수집하도록 지원한다. 이제 몽고DB 아틀라스용 마이크로소프트 패브릭에서 준실시간 연결을 위한 새로운 오픈 미러링 기능을 통해 아틀라스 및 마이크로소프트 원레이크(OneLake) 간 데이터 동기화를 비롯해 준실시간 분석, AI 기반 예측, 비즈니스 인텔리전스 보고서 생성 등이 가능하다. 또한 아틀라스에서 원레이크로 데이터를 유지 및 복제하거나 한 가지 데이터 플랫폼을 선택할 필요 없이 양사 제품을 모두 매끄럽게 활용할 수 있다. 애저 아크 기반 쿠버네티스 애플리케이션을 위한 애저 마켓플레이스에 몽고DB EA 출시로 기업은 다양한 환경에서 더욱 유연하게 애플리케이션을 구축할 수 있다. 몽고DB EA가 제공하는 엔터프라이즈 쿠버네티스 오퍼레이터는 여러 쿠버네티스 클러스터에 레플리카 세트, 클러스터 샤딩, 옵스매니저(Ops Manager) 툴을 구축하고 핵심 워크로드에 대한 가용성과 회복탄력성, 확장성을 높인다. 애저 아크는 애저, 온프레미스 및 타사 클라우드를 비롯한 다양한 환경에서 해당 쿠버네티스 클러스터에 대한 효과적인 중앙 관리를 제공해, 고객은 강력한 데이터 계층의 회복탄력성을 누리며 강력하고 분산된 애플리케이션을 구축할 수 있다. 몽고DB 앨런 차브라 월드와이드 파트너 부문 수석 부사장은 "몽고DB의 여러 비즈니스 요구사항을 해결하고자 데이터 분석 및 인사이트 도출을 위한 툴을 모색하고 있다"며 "이제 몽고DB 아틀라스와 애저 AI 파운드리의 통합을 통해 고객은 몽고DB에 저장된 자체 데이터로 차세대 AI 애플리케이션을 강화할 수 있다"고 설명했다. 이어 "마이크로소프트 패브릭의 오픈 미러링을 활용한 아틀라스와 원레이크 간의 데이터 동기화 및 효율적인 데이터 분석도 가능해졌다"며 "마이크로소프트와 몽고DB의 강점이 통합된 이번 협력으로 개발자가 더 나은 애플리케이션을 개발하는 데 도움이 될 것"이라고 말했다.

2024.11.25 18:17남혁우

자체 AI칩 만드는 아마존, 엔비디아에 '도전장'…'트라이니엄2' 출시 임박

엔비디아가 인공지능(AI)칩 시장 강자로 우뚝 올라선 가운데 아마존이 자체 개발 칩을 앞세워 정면으로 도전장을 내밀었다. 자체 개발한 AI 반도체와 관련 소프트웨어를 AI 연구자들에게 대량으로 무료 제공함으로써 영역 확대에도 적극 나선 분위기다. 25일 블룸버그통신에 따르면 아마존은 올해 연말까지 자체 AI칩의 최신 버전인 '트라이니엄2(Trainium2)'를 데이터센터에 적용하는 것을 목표로 현재 제품 개발에 박차를 가하고 있다. 이 칩은 레바논 태생이자 Arm 출신인 라미 시노(Rami Sinno) 엔지니어 주도로 개발되고 있다. 아마존이 이처럼 나선 것은 엔비디아 AI칩에 대한 의존도를 줄이기 위해서다. 현재 AI용 데이터센터의 핵심 반도체 시장은 엔비디아가 90%가량 장악하고 있다. 이는 현재 대부분 개발자가 엔비디아의 고성능 AI 반도체와 개발용 소프트웨어 '쿠다'를 이용해 AI 모델을 만들고 있는 것이 주효했다. 쿠다가 엔비디아의 AI 칩에서만 구동되는 만큼 이 소프트웨어는 엔비디아가 AI 칩 시장을 장악하는 핵심 요인으로 거론된다. 이에 아마존웹서비스(AWS)와 마이크로소프트(MS) '애저', 구글 클라우드 등은 엔비디아 AI칩에 대한 의존도를 줄이려는 분위기다. 이들은 엔비디아의 최대 고객으로, 최근 각자 자체 실리콘을 개발하고 나선 상태다. 업계에선 아마존의 AI칩 개발 움직임에 가장 큰 기대를 걸고 있다. 15년 전 클라우드 컴퓨팅 비즈니스를 발명한 후 인텔을 포함한 기존 부품 업체에 대한 의존도를 줄이기 위해 끊임없이 노력해왔기 때문이다. 특히 아마존은 2015년 '안나푸르나 랩스'라는 이스라엘 반도체 설계 스타트업을 인수해 이를 중심으로 자체 칩 제작에 나섰다. 그 결과물로 아마존은 현재 추론 칩 '인페렌시아'와 트레이닝 칩 '트라이니엄'을 선보이고 있다. '인페렌시아'는 2019년 12월 아마존 데이터센터에 배포된 후 음성 비서 '알렉사'의 명령에 응답하는 데 사용됐으며 최근 '인페렌시아2'로 업그레이드 됐다. 아마존의 두 번째 칩인 '트라이니엄1'은 기계 학습 모델을 훈련하려는 기업을 대상으로 선보여진 AI칩이다. 아마존이 만든 칩은 일본 기업들이 적극 활용하는 중으로, 전자제품 제조업체인 리코(Ricoh)는 영어 데이터로 훈련된 대규모 언어 모델을 일본어로 변환하는 데 아마존 AI칩의 도움을 받았다. 아마존은 차기 AI칩인 '트라이니엄2'도 활발히 개발 중이다. 이는 3세대 AI칩으로 평가되고 있으며 아마존이 투자한 AI 스타트업인 앤스로픽과 데이터브릭스 등에서 테스트 중인 것으로 알려졌다. 데이터브릭스는 현재 엔비디아의 AI칩으로 주로 실행되는데 아마존의 AI칩을 활용할 경우 현재보다 30% 더 나은 성능을 제공할 수 있는 것으로 알려졌다. 생산은 대만업체인 TSMC가 맡는다. 아마존도 오하이오를 시작으로 '트라이니엄2'를 자체 데이터센터에 적용시키기 위한 움직임에 나섰다. 또 엔비디아에 대한 의존도를 줄이기 위해 약 18개월마다 새로운 칩을 시장에 출시하는 것을 목표로 하고 있다. 아마존은 AI칩 입지 확대를 위해서도 다양한 노력을 펼치고 있다. 특히 최근에는 '트라이니엄' 4만 장으로 '울트라 클러스터'를 대학 등에 소속된 AI 연구원들에게 무상 제공하는 연구 지원 프로젝트 추진에도 나섰다. '울트라 클러스터'는 거대한 데이터센터로, AI 모델 개발을 위한 필수 인프라다. 아마존은 AI 개발 소프트웨어 '빌드 온 트라이니엄'도 이들에게 무료로 서비스할 예정이다. 아마존이 이번에 지원하는 프로그램을 비용으로 환산하면 1억1천만 달러(약 1천548억원)에 이른다. 블룸버그통신은 "아마존의 '트라이니엄2'가 AWS 고객의 업무도 함께 수행할 수 있다면 성공적으로 안착할 수 있을 것"이라며 "엔비디아 칩을 대체하게 되면 아마존은 AI 장비를 위한 여유 자금을 확보하는 데 도움이 될 것"이라고 말했다. 이어 "'트라이니엄2'가 히트작이 되려면 엔지니어가 소프트웨어를 올바르게 만드는 것도 중요하다"며 "아직은 엔비디아에 비해 아마존의 소프트웨어는 초기 단계"라고 평가했다. 앤디 재시 아마존 최고경영자(CEO)는 올 초 주주 서한에서 "엔비디아 칩은 공급이 부족하고 비용이 여전히 문제여서 고객들은 AI 칩의 가격 대비 성능에 대한 한계를 뛰어넘어 달라고 요청하고 있다"며 "이는 우리가 맞춤형 훈련 칩 '트라이니엄'과 추론 칩 '인페렌시아'를 개발한 이유로, 이미 여러 고객사가 저희의 AI 칩을 사용하고 있다"고 밝혔다.

2024.11.25 11:16장유미

[기고] 의료 기술을 위한 AI 기반 컴퓨터 온 모듈

의료 기술에 AI가 접목되면서 의료 전문가의 진단 정확성이 크게 향상되고 있다. AI 알고리즘이 실시간으로 방대한 데이터를 빠르게 처리하려면 높은 컴퓨팅 성능이 필수적이다. 이에 따라 인텔 코어 울트라 프로세서를 탑재한 'conga-TC700'과 같은 컴퓨터 온 모듈(COM)이 주목받고 있다. 이 모듈은 CPU, GPU, NPU를 하나의 칩에 통합해 고성능 연산을 지원한다. 의료 기기 제조업체들은 혁신의 선두에 서서 AI 시스템을 일찍이 도입해왔으며 특히 강력한 하드웨어 부품의 보급과 고급 알고리즘의 개발이 시작된 1990년대부터 AI 기반 데이터 분석과 의료 영상 기술을 활용해왔다. 2000년대에는 AI 알고리즘을 학습시키기 위한 머신 러닝이 등장하면서 고도화된 영상 분석이 방사선학 등에서 실용화되며 고성능 컴퓨팅 시스템이 개발됐다. 이후 이미지 처리와 빅데이터 분석 기술이 2010년대에 더욱 발전했다. 의료 기기를 위한 모듈러 개념 콩가텍의 모듈러 개념은 MRI와 CT 스캐너 같은 고성능 의료 기기뿐만 아니라 초음파, X선, 내시경 장비, 유방 촬영 장치 등 다양한 소형 의료 장비에 적용할 수 있다. 콩가텍 AI 지원 컴퓨터 온 모듈은 모바일 초음파, X선 기기, 환자 모니터링 시스템, 수술 로봇 등에서 두각을 나타낸다. 또한, 각종 혈액분석기와 유전체 시퀀서에 전력을 공급하는 실험실 환경에서도 활용되고 있다. 진단 기기를 넘어, 인공호흡기와 같은 치료 장비에서도 COM은 중요한 역할을 한다. 환자에게 최적의 환기 조건을 자동으로 설정하는 지능형 알고리즘을 가능하게 하는 것이다. 이 알고리즘들은 환자의 주요 데이터를 지속적으로 분석하고 호흡률, 1회 호흡량, 산소 공급량과 같은 매개변수를 조정하는 것을 가능하게 한다. 의료 기술 분야에서 AI의 개발, 적용 및 중요성은 지난 10년 동안 크게 가속화됐다. 이는 컴퓨터 기술의 지속적인 발전과 AI 알고리즘의 최적화가 결합되면서 가능해졌으며 그로 인해 의료 현장에서는 보다 신속하고 정확한 진단이 이루어지고 있다. 1분 내로 단축된 MRI 스캔 MRI를 위한 혁신적인 AI 알고리즘으로 MRI 스캔 시간이 1분 이내로 단축됐다. 업스케일링 또는 슈퍼 스케일링으로 알려진 이 고급 스캔 과정은 기존 방식보다 적은 이미지 수로도 작업이 가능하게 해준다. 사전 학습된 AI 모델이 소수의 개별 이미지를 보간하여 고해상도의 전체 이미지를 생성함으로써 흐릿한 이미지 영역을 독립적이고 정확하게 보정할 수 있다. 이를 통해 환자 대기 시간을 단축하고 진단 과정을 더욱 효율적으로 만들 수 있게 됐다. AI는 내시경 장비에도 통합돼 진단의 정확성을 높이고 있다. 예를 들어, AI는 검사 중 발견이 어려운 병변을 탐지해 의사에게 경고하고 주목해야 할 부위를 안내해준다. 이 같은 기능이 실시간으로 이루어지고 학습된 모델이 신속하게 작동하기 위해서는 고성능 추론 능력이 필수적이다. AI 기반 내시경 장비는 의사들에게 보다 정확한 임상 결과를 제공해 환자에게 더 나은 진료를 가능하게 한다. 과거에는 의료 기기에서 필요한 AI 성능을 구현하려면 기존 PCI 익스프레스 슬롯에 전력 소모가 큰 GPGPU 컴퓨팅 가속기 또는 M.2 슬롯용 소형 AI 가속기 카드를 설치해야 했다. 최근 점점 더 많은 프로세서 제조업체들이 AI 수요를 충족하기 위해 칩 포트폴리오를 조정하고 있다. 이제 AI 기능을 직접 칩에 통합함으로써 추가적인 가속기 카드 없이도 신속하고 경제적인 방식으로 AI 기능을 탑재할 수 있게 됐고 이에 따른 총 소유 비용(TCO) 절감 효과도 기대할 수 있게 됐다. 인텔, 코어 울트라에 처음으로 CPU, GPU, NPU 통합 인텔이 지난 해 출시한 코어 울트라 시리즈1 프로세서(메테오레이크)는 이러한 트렌드를 잘 보여준다. 코어 울트라 프로세서는 CPU, GPU와 함께 처음으로 NPU(신경망처리장치)를 하나의 칩에 통합한 최초의 프로세서로, AI 기반 애플리케이션의 고성능 요구에 대응하기 위해 설계됐다. 고성능이 요구되는 AI 애플리케이션의 경우 CPU, GPU, NPU의 성능을 결합해 최적의 성능을 발휘하며 에너지 효율과 와트 당 성능을 우선시하는 AI 모델을 NPU만을 사용해 구동할 수 있도록 최적화됐다. 코어 울트라 시리즈1 프로세서에 통합된 NPU는 기존 x86 명령어 세트와 비교해 약 20배 높은 에너지 효율로 머신러닝 알고리즘과 AI 추론 작업을 실행한다. 특히 이미지 분류 작업에서는 내장 Xe-LPG GPU를 범용 GPU(GPGPU)로 활용해 별도의 외장형 그래픽 유닛과 비슷한 성능을 제공한다. 이를 통해 그래픽 처리 및 GPGPU 속도가 기존 대비 약 1.9배 향상되어 보다 세밀하고 몰입감 있는 사용자 경험을 가능하게 한다. 이러한 AI 기능은 표준화된 컴퓨터 온 모듈, 특히 COM Express를 통해 쉽게 구현 가능하며 기존 설계에 큰 수정 없이도 개발자들이 새로운 AI 기능을 도입할 수 있어 의료, 산업 분야에서 폭넓은 활용이 기대된다. 높은 유연성을 제공하는 COMs의 강점 COMs는 의료 기술을 포함한 다양한 산업에서 각광받고 있다. AI와 그 응용 분야가 지속적으로 발전하면서 COM 및 캐리어 보드 솔루션의 개발자들에게 탁월한 유연성을 제공한다. 최소한의 통합 노력과 소프트웨어 수정만으로 새로운 컴퓨팅 요구 사항에 쉽게 적응할 수 있어 기존 모듈을 분리하고 새로운 모듈을 연결하는 두 단계만으로 제품 업그레이드가 가능하다. conga-TC700은 이런 고도의 유연성을 발휘하는 컴퓨터 온 모듈 중 하나로, 까다로운 엣지 AI 워크로드에 적합하다. 인텔 코어 울트라 시리즈1 프로세서를 기반으로 구동되는 이 COM Express Type 6 컴팩트 모듈은 고성능 AI 기능을 통합해 다양한 애플리케이션에 대응할 수 있도록 설계됐다. conga-TC700은 의료 분야에 특화된 고성능 AI 모듈로, 10년의 긴 가용성과 개방형 COM Express 표준을 기반으로 손쉬운 업그레이드가 가능하다. 강력한 실시간 컴퓨팅 성능을 갖춘 이 모듈은 수술 로봇, 진단 시스템, 방사선 전문의용 고해상도 진단 워크스테이션 등 다양한 의료 애플리케이션에서 활용된다. 특히 고해상도 진단 워크스테이션은 중요한 소견을 자동 식별해 의료 전문가에게 진단을 위한 유용한 지원을 제공한다. 또한 인텔 코어 울트라 플랫폼은 컴퓨터 비전을 처리하는 인텔 게티(Intel Geti) 소프트웨어 플랫폼과도 연동된다. 이 종합적 플랫폼은 강력한 컴퓨터 비전 모델을 쉽게 생성하도록 돕고, 클라우드 머신러닝부터 AI 가속 엣지 디바이스에 이르는 통합된 생태계의 혜택을 제공해 개발자들이 의료 애플리케이션을 더욱 효과적으로 설계하고 운영할 수 있게 한다. 오픈비노 SDK로 AI 모델 최적화 콩가텍의 COMs 생태계는 인텔의 오픈소스 소프트웨어 툴킷인 오픈비노(OpenVINO)로 한층 강화됐다. 오픈비노는 하드웨어별로 미리 개발된 사전 AI 모델을 생성 위치에 관계없이 고객 플랫폼으로 최적화하고 전송할 수 있다. 또 워크로드 배포를 관리하여 CPU, GPU 또는 NPU에서 처리해야 할 작업을 지능적으로 결정해 효율성을 극대화한다. 또한 콩가텍은 애플리케이션 개발의 간소화 및 가속화를 위해 광범위한 에코시스템과 디자인인(Design-in) 서비스를 제공한다. 여기에는 평가 및 생산 준비가 완료된 애플리케이션 캐리어 보드와 맞춤형 냉각 솔루션이 포함되며 고객 맞춤형 시스템 설계를 위한 광범위한 문서화 및 교육, 고속 신호 무결성 측정, 충격 및 진동 방지 테스트, 온도 스크리닝, 고속 신호 컴플라이언스 테스팅 등의 다양한 애플리케이션 개발 서비스 또한 포함된다. NPU 통합 컴퓨터 온 모듈 의료기기, 정확도·에너지 효율 향상 AI는 다른 산업보다 앞서 의료 기술 분야에서 활용돼 왔으며 현재는 의료 기기의 핵심 운영 체제로 자리 잡고 있다. 최근 반도체 기술의 발전으로 높은 컴퓨팅 및 그래픽 성능을 갖춘 마이크로프로세서가 개발되었고 통합 NPU 유닛을 탑재한 프로세서는 이전 세대보다 빠르고 정확한 진단을 가능하게 하면서도 에너지 소비를 줄이고 있다. 컴퓨터 온 모듈을 통해 구현되는 AI 지원 의료 기기는 높은 확장성을 갖춰 모듈을 교체하는 것만으로도 미래 기술을 쉽게 통합할 수 있는 장점을 제공한다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.

2024.11.22 16:21맥시밀리언 게르스틀

"루이비통 회장·삼성도 투자했다"…佛 AI 유니콘 H, 국내 시장 공략 '시동'

프랑스의 인공지능(AI) 유니콘 H가 에이전트 기술을 출시하며 AI 기술이 비즈니스 성과를 창출하는 핵심 도구로 자리 잡았음을 다시 한 번 입증했다. 21일 업계에 따르면 H는 클라우드 기반 웹 AI 에이전트인 '러너 H(Runner H)'의 베타버전을 출시했다. 이 솔루션을 통해 한국을 포함한 글로벌 개발자들과 기업들이 혁신적인 생산성 도구를 활용하도록 지원할 계획이다. 찰스 칸토르 H 대표는 "AI 에이전트 시장에 러너 H를 출시하게 돼 기쁘다"며 "러너 H는 이전과는 전혀 다른 방식으로 AI를 활용할 수 있도록 고객을 지원한다"고 밝혔다. '러너 H'는 독자적인 파운데이션 및 실행 모델을 기반으로 추론·계획·실행이 가능한 고성능 자율 AI다. 최근 AI 기술의 최신 트렌드로 자리잡고 있는 에이전트 기술에 기반해 사용자의 워크플로우를 자동화하고 작업을 간소화하며 웹 환경에서 다양한 업무를 수행하도록 설계됐다. 특히 '러너 H'는 로보틱 프로세스 자동화(RPA), 품질 보증(QA), 비즈니스 프로세스 아웃소싱(BPO)과 같은 분야에서 기업의 다양한 워크플로우를 간소화하고 효율성을 극대화할 가능성을 보여준다. 이로써 채용 프로세스, 품질 테스트, 비용 청구 등 반복적인 업무를 혁신할 잠재력을 가지고 있다. 업계에 따르면 현재 H는 글로벌 AI 확장의 중요 거점으로서 높은 데이터 인프라(DI) 수준과 기술 수용성을 갖춘 국내 시장에 주목하고 있다. 아직 지사 설립은 하지 않았음에도 국내 개발자와 기업들이 '러너 H'를 직접 체험할 수 있도록 베타버전을 무료로 제공한 것은 초기 고객층을 확보하기 위함이라는 분석이다. H는 지난 2023년 설립 직후부터 세계적인 투자자들의 집중적인 관심을 받았다. 특히 루이비통으로 유명한 프랑스의 초거대 재벌인 베르나르 아르노 LVMH 회장은 그의 투자 계열사 아글레벤처스를 통해 H에 거대한 규모의 투자한 것으로 알려졌다. 아르노 회장뿐만 아니라 삼성전자, 아마존, 에릭 슈미트 전 구글 CEO 등도 H의 성장 가능성을 보고 투자에 참여했다. 이로써 설립 몇 개월 만에 총 2억2천만 달러(한화 약 2천940억원)의 초기 시드 투자를 유치해냈다. 이처럼 집중적인 지원과 투자를 받을 수 있었던 것은 프랑스 정부의 전략적인 AI 육성 정책이 자리하고 있다. 에마뉘엘 마크롱 프랑스 대통령은 자국을 AI 강국으로 도약시키기 위해 지난 2018년부터 AI 기술 개발과 스타트업 생태계 조성에 막대한 자원을 투입해왔다. 특히 두번째 임기부터는 H와 같은 유망 스타트업이 글로벌 무대에서 경쟁력을 갖출 수 있도록 투자 환경을 조성하고 인재 유치와 기술 개발을 전폭적으로 지원했다. 이러한 지원에 힘입어 H는 '러너 H'를 현재의 웹 환경 중심 기술에서 발전시켜 향후에는 모든 그래픽 인터페이스를 탐색할 수 있는 완전 범용 AI 에이전트로 발전시킬 계획이다. 이를 통해 AI를 활용한 업무 자동화의 미래를 선도한다는 전략이다. 칸토르 대표는 "자동화의 미래는 무궁무진하며 우리가 이 변화를 선도할 수 있어 자랑스럽다"며 "'러너 H'는 시작에 불과할 것"이라고 강조했다.

2024.11.21 17:30조이환

[유미's 픽] "1년 만에 달라졌다"…프랑스, 마크롱·갑부 지원에 AI 강국 급부상

"프랑스와 유럽연합(EU)은 인공지능(AI) 선도 국가인 미국과 중국, 영국에도 뒤처지고 있습니다. 우리는 혁신 측면에서 뒤처져 있고 너무 느리게 대응하고 있습니다." 에마뉘엘 마크롱 대통령이 지난해 6월 14일 파리에서 작심 발언을 한 후 프랑스가 AI 시장에서 핵심 기지로 최근 급부상하고 있다. 정부의 적극적인 지원 덕분에 AI 산업이 눈에 띄게 활성화 된 데다 미스트랄 AI를 비롯해 큐타이, H 등 글로벌 경쟁력을 갖춘 기업들도 속속 등장하고 있어서다. 21일 업계에 따르면 프랑스 정부는 지난 2018년부터 AI 기술 개발을 위한 환경 구축에 투자해왔다. 특히 지난 2022년부터는 추가로 22억 유로를 투입해 관련 인재 육성 및 유치에 집중하고 있다. 올해 3월에는 프랑스 범부처 AI 위원회가 정부에 향후 5년간 매년 50억 유로(약 7조원)를 투자하라고 권고해 주목을 받았다. 또 생성형 AI가 프랑스 경제에 미칠 영향과 전망이 담긴 130쪽 분량의 위원회 보고서는 에마뉘엘 마크롱 대통령에게 보고됐다. 보고서에선 특정 업무 자동화를 통해 프랑스의 연간 경제 성장률이 두 배로 증가할 수 있고, 2034년엔 최대 4천200억 유로의 국내총생산(GDP) 증가로 이어질 수 있다는 전망을 내놨다. 위원회는 "향후 생성 AI 기술 발달로 연간 경제 성장률이 두 배가 될 수 있다"며 "프랑스가 AI 경제를 놓치면 우리의 경제적 가치를 다른 나라에 점점 더 빼앗길 뿐 아니라 다른 활동 분야도 약화할 수 있다"고 경고했다. 그러면서 "프랑스의 민간·공공 부문에서 생성 AI 투자 규모가 미국의 20분의 1 수준"이라며 "단기적으로 100억 유로 규모의 투자 펀드를 조성해 미스트랄AI 같은 촉망받는 스타트업에 투자해야 한다"고 덧붙였다. 정부의 노력 덕분에 프랑스에선 우수한 기술을 지닌 AI 스타트업들이 쏟아져 나오고 있다. 대표적인 곳이 '미스트랄 AI'로, 올해 6월 총 6억 유로(한화 약 9천억원)의 대규모 투자를 유치해 회사 가치가 약 60억 달러(한화 약 7조8천억원)로 평가됐다. 민간 부문의 적극적인 참여도 AI 경쟁력 강화에 크게 기여하고 있는 것으로 알려졌다. 프랑스 억만장자 자비에 니엘은 지난해 10월 AI 연구 센터 설립과 스타트업 투자를 위해 2억 유로(한화 약 3천억원)를 투자하겠다고 발표한 바 있다. 또 니엘이 후원하는 AI 연구 비영리 단체인 큐타이는 올해 7월 오픈AI의 'GPT-4o'와 비슷한 음성 비서 '모시'를 공개해 주목 받기도 했다. 이 서비스는 70가지 감정과 스타일로 대화할 수 있는 것이 특징이다. 큐타이는 자비에르 니엘과 또 다른 현지 억만장자 로돌프 사데, 에릭 슈미트 구글 전 최고경영자(CEO) 등이 3억 유로(약 3억2천400만 달러)를 투자해 설립된 연구소다. 패트릭 페레즈 큐타이 CEO는 구글 딥마인드와 메타 AI 출신 연구원들을 고용했으며 거대언어모델(LLM) 개발을 위해 엔비디아의 H100 그래픽처리장치(GPU)도 대거 사들였다. 글로벌 '명품업계 대부'로 불리는 베르나르 아르노 루이비통모에헤네시(LVMH)그룹 회장도 AI 스타트업 투자에 뛰어들었다. 실적 부진을 극복하기 위해 AI를 새로운 돌파구로 삼은 것이다. 아르노 회장은 올해 투자 계열사 아글레벤처스를 통해 총 5곳의 스타트업에 투자했다. 모두 AI 서비스를 제공하는 기업들로 투자액은 3억 달러(약 4천억원)에 이르는 것으로 파악된다. 가장 큰 규모의 투자를 받은 것으로 알려진 기업은 프랑스 AI 에이전트 개발사 H(옛 홀리스틱AI)다. 알파벳의 AI자회사 딥마인드 출신 개발자와 스탠퍼드 대학 출신 연구진 4인이 지난해 공동 설립한 기업이다. 지난 5월 2억2천만 달러(약 2천940억원)의 초기 시드 투자를 받았다. 또 삼성전자와 아마존, 에릭 슈미트 구글 전 CEO도 초기 투자자로 참여했다. 현재 기업가치는 3억7천만 달러(약 5천억원)로 추산된다. 이를 토대로 H는 이달부터 한국 시장 공략에도 나섰다. 지난 19일 발표한 첫 번째 AI 에이전트인 '러너 H'를 앞세워 국내 개발자들이 많이 사용할 수 있도록 당분간 베타 버전을 통해 무료로 서비스를 제공한다는 방침이다. '러너 H 0.1'은 H의 독자적인 파운데이션 및 실행 모델을 기반으로 한 추론, 계획 및 실행이 가능한 고급 에이전트로, 웹을 중심으로 웹 테스트, 프로세스 자동화, 아웃소싱 등의 분야를 지원한다. 또 H는 글로벌 AI 시장에서 한국이 중요한 위치를 차지한다고 판단해 최근 국내 고객 확보를 위한 홍보 활동에도 나섰다. 아직 지사 설립 계획은 없는 상태로, 기업 규모와 상관없이 많은 개발자들이 '러너 H'를 활용할 기회를 제공하는 것을 우선적인 목표로 두고 있는 것으로 알려졌다. 이 같은 움직임 덕분에 프랑스는 최근 AI 시장 내 경쟁력이 급격하게 올랐다. 영국 데이터 분석 매체인 토터스미디어(Tortoise Media)가 지난 9월 발표한 '2024 글로벌 AI 인덱스'에 따르면 프랑스는 지난해 10위권 밖에 머물렀으나, 단 1년만에 단숨에 5위로 올라서며 한국을 앞질렀다. 한국은 전체 순위 중 6위를 기록하며 독일, 캐나다, 이스라엘 등을 앞섰다. 미국과 중국은 각각 1위와 2위를 차지했고, 싱가포르는 3위, 영국은 근소한 차이로 4위를 차지했다. 업계 관계자는 "프랑스는 국가 차원에서 자국 연구자들이 국내에 남도록 지원하고 토종 스타트업을 전폭적으로 지원했다"며 "한국 정부도 이를 배워야 한다"고 밝혔다.

2024.11.21 11:01장유미

웨카, 대규모 AI 추론을 간소화하는 새로운 솔루션 청사진 공개

WARRP 레퍼런스 아키텍처는 RAG 기반 추론 환경의 개발을 가속화하는 포괄적인 모듈식 솔루션을 제공한다 애틀란타, 캘리포니아주 캠벨, 2024년 11월 20일 /PRNewswire/ -- 슈퍼컴퓨팅 2024에서: AI 네이티브 데이터 플랫폼 기업 웨카(WEKA)는 엔터프라이즈 AI 추론 환경의 개발과 구현을 간소화하고 효율화하는 새로운 레퍼런스 아키텍처 솔루션을 선보였다. 웨카 AI RAG 레퍼런스 플랫폼(WARRP)은 생성형 AI(GenAI)개발자 및 클라우드 아키텍트에게 강력한 추론 인프라 프레임워크의 개발을 위한 설계 청사진을 제공한다. 이는 검색 증강 생성(RAG)을 통합하는 것으로, 대규모 언어 모델(LLM)이 외부 소스에서 새로운 데이터를 수집할 수 있도록 AI 추론 프로세스에서 사용되는 기술이다. Introducing WARRP (PRNewsFoto/WekaIO) 안전하고 신뢰할 수 있는 AI 운영 구축에 있어 RAG의 중요성S&P 글로벌 마켓 인텔리전스가 최근 실시한 글로벌 AI 트렌드 연구에 따르면, 생성형 AI는 기업에서 다른 모든 AI 애플리케이션을 제치고 가장 많이 채택된 AI 방식으로 빠르게 부상했다. [1] 기업이 LLM을 배포할 때 직면하는 주요 과제는 여러 환경과 외부 소스에서 새로운 데이터를 효과적으로 검색하고 상황에 맞게 구성하여 AI 추론을 지원할 수 있도록 하는 것이다. RAG는 AI 추론을 위한 선도적인 기술이며, 외부 데이터 소스에서 새로운 인사이트를 안전하게 검색하여 학습된 AI 모델을 향상시키는 데 사용된다. 추론 프로세스에서 RAG를 사용하면 AI 모델의 착시를 줄이고 출력의 정확도, 신뢰성 및 풍부함을 개선하여 비용이 많이 드는 재학습 주기를 줄일 수 있다. 그러나 아키텍처, 모범 사례, 도구, 테스트 전략이 여전히 빠르게 진화하고 있기 때문에, 대규모로 RAG 프레임워크를 지원할 수 있는 강력한 프로덕션 지원 추론 환경을 구축하는 것은 복잡하고 어려운 일이다. 추론 가속화를 위한 포괄적인 청사진웨카는 WARRP를 통해 인프라에 구애받지 않는 퍼런스 아키텍처를 정의했으며, 이를 활용하여 프로덕션 품질의 고성능 RAG 솔루션을 대규모로 구축하고 배포할 수 있다. 고객이 RAG 기반의 AI 추론 파이프라인을 신속하게 구축하고 구현할 수 있도록 설계된 WARRP는 워크로드 이동성, 분산된 글로벌 데이터센터 및 멀티클라우드 환경에 최적화된 세계적 수준의 AI 추론 환경을 신속하게 개발하고 배포하는 데 사용할 수 있는 모듈식 구성 요소의 포괄적인 청사진을 제공한다. WARRP 레퍼런스 아키텍처는 고객이 선호하는 클라우드나 서버 하드웨어에서 실행되는 웨카® 데이터 플랫폼 소프트웨어를 기본 계층으로 구축한다. 그런 다음 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부인 엔비디아NIM™ 마이크로서비스 및 엔비디아NeMo™ 리트리버를 비롯한 엔비디아의 동급 최고의 엔터프라이즈 AI 프레임워크, 런(Run):ai의 고급 AI 워크로드 및 GPU 오케스트레이션 기능, 데이터 오케스트레이션용 쿠버네티스, 데이터 수집용 밀버스 벡터 DB 등 인기 있는 상용 및 오픈 소스 데이터 관리 소프트웨어 기술을 통합한다. 웨카의 최고 기술 책임자 시몬 벤 데이비드(Shimon Ben-David)는 "2023년 생성형 AI 기술의 첫 번째 물결이 기업에 도입되기 시작했을 때, 대부분 조직의 컴퓨팅 및 데이터 인프라 리소스는 AI 모델 학습에 집중되어 있었다"면서 "생성형 AI 모델과 애플리케이션이 성숙해지면서, 많은 기업이 이러한 리소스를 전환하여 추론에 집중하도록 준비를 하고 있지만, 어디서부터 시작해야 할지 모르는 경우가 많다"며, "대규모로 AI 추론을 실행하는 것은 매우 어려운 일이다. 당사는 웨카, 엔비디아, 런:ai, 쿠버네티스, 밀버스 등의 선도적인 AI 및 클라우드 인프라 솔루션을 기반으로 웨카 AI RAG 아키텍처 플랫폼을 개발하여, 엔터프라이즈 AI 모델 실행의 정확성, 보안 및 비용을 개선하기 위해 RAG 구현 프로세스를 간소화하는 강력한 프로덕션 지원 청사진을 제공하고 있다"고 말했다. WARRP는 다양한 LLM 배포를 지원할 수 있는 유연한 모듈식 프레임워크를 제공하여, 프로덕션 환경에서 확장성, 적응성 및 탁월한 성능을 제공한다. 주요 이점은 다음과 같다. 프로덕션 지원 추론 환경을 더 빠르게 구축한다: 생성형 AI 개발자와 클라우드 아키텍트는 WARRP의 인프라와 클라우드에 구애받지 않는 아키텍처를 사용하여, 생성형 AI 애플리케이션 개발을 간소화하고 추론 작업을 대규모로 더 빠르게 실행할 수 있다. 이는 조직의 기존 및 향후 AI 인프라 구성 요소, 크고 작은 언어 모델, 선호하는 서버, 하이퍼스케일 또는 전문 AI 클라우드 제공업체와 원활하게 통합되어, 조직이 AI 추론 스택을 설계할 때 탁월한 유연성과 선택권을 갖게 한다. 하드웨어, 소프트웨어, 클라우드에 구애받지 않는다: WARRP의 모듈식 설계는 대부분의 주요 서버 및 클라우드 서비스 제공업체를 지원한다. 이 아키텍처는 AI 실무자가 선호하는 하이퍼스케일 클라우드 플랫폼, AI 클라우드 서비스 또는 내부 서버 하드웨어에서 최소한의 구성 변경을 통해 동일한 워크로드를 실행할 수 있도록 함으로써, 조직이 성능 저하 없이 워크로드 이동성을 쉽게 달성할 수 있도록 해준다. 공용, 민간 또는 하이브리드 클라우드 등 어떤 환경에 배포되든, AI 파이프라인은 안정적인 동작과 예측 가능한 결과를 보여주며, 하이브리드 및 멀티클라우드 운영을 간소화한다. 엔드투엔드 AI 추론 스택을 최적화한다: 특히 대규모 모델 리포지토리와 복잡한 AI 워크로드를 처리할 때, RAG 파이프라인을 실행하는 것은 매우 까다로울 수 있다. 조직은 특히 다중 모델 추론 시나리오에서 웨카 데이터 플랫폼을 AI 추론 스택에 통합함으로써 성능 향상을 크게 도모할 수 있다. 모델을 효율적으로 로드하고 언로드하는 웨카 데이터 플랫폼의 기능은 특히 여러 AI 모델을 포함하는 복잡한 연쇄 추론 워크플로우에서, 사용자 프롬프트에 대한 토큰을 더욱 가속화하고 효율적으로 전달한다. 런:ai의 최고 기술 책임자 로넨 다르(Ronen Dar)는 "AI 도입이 가속화되면서 프로덕션 워크로드를 대규모로 배포할 수 있는 간소화된 방법이 절실히 요구되고 있다. 한편, RAG 기반 추론은 AI 혁신 경쟁에서 중요한 영역으로 떠오르며, 조직의 기본 데이터 인프라에 대한 새로운 고려 사항을 제시하고 있다"면서 "WARRP 레퍼런스 아키텍처는 추론 환경을 구축하는 고객에게 탁월한 솔루션을 제공하여, 민간, 공용 및 하이브리드 클라우드 환경 전반에서 GPU 활용도를 극대화하기 위해 엔비디아, 웨카 및 런:ai의 업계 최고의 구성 요소를 사용하여 빠르고 유연하며 안전하게 개발할 수 있는 필수 청사진을 제공한다. 이 조합은 AI 혁신의 최전선에서 경쟁사를 앞서고자 하는 고객에게 윈윈이 될 것이다"고 말했다. 엔비디아의 엔터프라이즈 생성 AI 소프트웨어 담당 디렉터인 아만다 손더스(Amanda Saunders)는 "기업들은 데이터를 활용하여 RAG 파이프라인을 구축하고 배포할 수 있는 간단한 방법을 찾고 있다"면서 "웨카와 함께 엔비디아 NIM 및 NeMo를 사용하면 기업 고객은 고성능 AI 추론 및 RAG 작업을 대규모로 개발하고 배포하며 실행할 수 있는 빠른 경로를 확보할 수 있다"고 말했다. https://www.weka.io/resources/reference-architecture/warrp-weka-ai-rag-reference-platform/ 을 방문하면, WARRP 레퍼런스 아키텍처의 첫 번째 릴리스를 무료로 다운로드할 수 있다. 슈퍼컴퓨팅 2024 참석자는 부스 #1931의 웨카를 방문하여 자세한 내용과 새로운 솔루션의 데모 버전을 확인할 수 있다. AI 클라우드 서비스 제공업체 언급 어플라이드 디지털(Applied Digital)어플라이드 디지털의 최고 기술 책임자 마이크 매니스칼코(Mike Maniscalco)는 "점점 더 많은 기업이 고객과 직원의 역량을 강화하기 위해 고급 AI 및 생성형 AI 추론을 활용하면서, 단순성, 기능성 및 효율성을 향상시키는 데 RAG를 활용하는 이점을 인식하고 있다"면서 "웨카의 WARRP 스택은 강력한 엔비디아 기술과 안정적이고 확장 가능한 클라우드 인프라의 지원을 받아 RAG 파이프라인을 대규모 프로덕션 배포에 적용하는 데 매우 유용한 레퍼런스 프레임워크를 제공한다"고 말했다. 오리 클라우드(Ori Cloud)오리 클라우드의 설립자 겸 CEO인 마흐디 야히야(Mahdi Yahya)는 "선도적인 생성형 AI 기업들이 세계 최대 규모의 LLM을 학습하기 위해 오리 클라우드에서 실행하고 있으며, 웨카 데이터 플랫폼과의 통합 덕분에 GPU 활용도를 극대화하고 있다"면서 "웨카와 협력하여 WARRP 아키텍처를 사용한 강력한 추론 솔루션을 구축함으로써, 오리 클라우드 고객이 RAG 파이프라인의 이점을 극대화하여 AI 혁신을 가속화할 수 있기를 기대한다"고 말했다. 웨카웨카는 AI 시대를 위해 구축된 기업 데이터 스택에 대한 새로운 방식을 설계하고 있다. 웨카® 데이터 플랫폼은 클라우드와 어디에나 설치할 수 있는 AI 기반 아키텍처가 갖춰진 AI 인프라의 표준을 설정함으로써 온- 프레미스, 클라우드와 엣지 환경에서 데이터를 원활하게 이동할 수 있게 한다. 이 플랫폼은 종래의 데이터 사일로를 GPU, AI 모델 트레이닝과 추론 그리고 기타 성능 집약적인 워크로드를 가속하는 동적 데이터 파이프라인으로 변환하여 보다 효율적으로 작업하고 에너지를 덜 소비하며 관련 탄소 배출량을 줄일 수 있도록 지원한다. 웨카는 전세계에서 가장 혁신적인 기업과 연구 조직들이 복잡한 데이터 문제를 해결하여 더 빠르고 지속 가능하게 발견, 통찰과 결과에 도달할 수 있도록 해주는데 여기에는 포춘 50대 기업 중 12개가 포함되어 있다. 상세 정보가 필요할 경우 www.weka.io를 방문하거나 링크트인, X와 페이스북에서 웨카와 연결하기 바란다. WEKA와 WEKA 로고는 웨카아이오 주식회사의 등록상표이다. 여기에서 사용된 기타 트레이드 명칭들은 그들 각 소유자들의 상표일 수도 있다. [1] 2024 글로벌 AI 트렌드, 2024년 9월, S&P 글로벌 마켓 인텔리전스 사진 - https://mma.prnasia.com/media2/2561543/4304845.jpg?p=medium600 로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo.jpg?p=medium600

2024.11.20 07:10글로벌뉴스

엔비디아 만난 뉴타닉스, 'NAI' 출시…"AI 배포 안전성↑"

뉴타닉스가 기업의 인공지능(AI) 활용을 지원하는 클라우드 네이티브 제품을 공개했다. 뉴타닉스는 기업 AI 인프라 플랫폼 확장을 지원하는 '뉴타닉스 엔터프라이즈 AI(NAI)'를 출시했다고 19일 발표했다. 이 제품은 현재 엣지, 코어 데이터센터와 아마존 ESK, 애저 쿠버네티스 서비스, 구글 쿠버네티스 엔진 등 공공클라우드 서비스 등 모든 쿠버네티스 플랫폼에서 사용 가능하다. NAI는 엔비디아 NIM으로 파운데이션 모델의 성능을 최적화했다. 조직은 거대언어모델(LLM)의 추론 엔드포인트를 안전하게 배포할 수 있다. 이를 통해 생성형 AI 애플리케이션을 수 분 내 배포할 수 있다. 보통 생성형 AI는 하이브리드 워크로드 형태로 작동한다. 새로운 애플리케이션은 주로 퍼블릭 클라우드에서 구축되고, 사설 데이터를 사용한 모델의 미세 조정은 온프레미스에서 이뤄진다. 추론은 비즈니스 로직과 가장 가까운 곳에 배포되는데, 이는 엣지, 온프레미스 또는 퍼블릭 클라우드일 수 있다. 이런 분산된 하이브리드 생성형 AI 워크플로우는 복잡성, 데이터 프라이버시, 보안 및 비용 측면에서 조직에게 부담을 줄 수 있다. NAI는 일관된 멀티클라우드 운영 모델과 엔비디아 NIM에 최적화된 추론 마이크로서비스와 허깅페이스의 오픈 파운데이션 모델을 사용함으로써 LLM을 안전하게 배포, 확장 및 실행하게 돕는다. 이를 통해 기업은 비즈니스 핵심 애플리케이션에 필요한 복원력, 운영 역량 및 보안성을 갖춘 엔터프라이즈 생성형 AI 인프라를 온프레미스 또는 아마존 EKS, 애저 쿠버네티스 서비스, 구글 쿠버네티스 엔진에 구축할 수 있다. 특히 NAI는 기업 간 AI 기술 격차를 해소할 수 있다. 간편성, 선택의 폭, 내장 기능을 통해 IT 관리자가 AI 관리자로 전환할 수 있다. 데이터 과학자와 개발자가 최신 모델과 엔비디아 가속 컴퓨팅을 활용해 AI 개발을 가속화할 수 있다. 기업은 AI 준비 플랫폼 구축의 장벽도 NAI로 제거할 수 있다. 생성형 AI 도입을 고려하는 많은 조직이 온프레미스 인프라와 여러 퍼블릭 클라우드 간 일관성 유지를 포함해 AI 워크로드 지원에 적합한 플랫폼 구축에 어려움을 겪고 있다. NAI는 간단한 사용자인터페이스(UI) 기반 워크플로로 이 문제를 해결할 수 있다. 고객은 몇 분 만에 LLM 추론 엔드포인트를 배포·테스트할 수 있게 돕는다. 이 제품은 클라우드와 온프레미스 환경에서 최적화된 모델 성능을 보장하는 엔비디아 NIM 마이크로서비스 지원을 통해 고객 선택의 폭을 넓히고 허깅페이스와 기타 모델 표준도 지원한다. 또 뉴타닉스 쿠버네티스 플랫폼과의 기본 통합은 전체 뉴타닉스 클라우드 플랫폼 활용 능력을 제공하거나, 기업에게 엔비디아 가속 컴퓨팅을 갖춘 아마존 EKS, 애저 쿠버네티스 서비스, 구글 쿠버네티스 엔진을 포함한 모든 쿠버네티스 런타임에서 실행할 수 있는 옵션을 제공한다. 기업은 데이터 프라이버시와 보안 우려도 줄일 수 있다. NAI는 고객이 제어하는 컴퓨팅 리소스에서 모델과 데이터 실행을 제공함으로써 프라이버시와 보안 위험을 줄일 수 있도록 지원한다. 또 NAI는 LLM에 사용되는 리소스 문제 해결, 모니터링, 활용을 위한 직관적인 대시보드와 LLM 접근성을 제어하고 파악할 수 있는 빠르고 안전한 역할 기반 접근 제어(RBAC)를 제공한다. 강화된 보안이 필요한 조직은 에어갭이나 다크 사이트 환경에 이를 배포할 수도 있다. NAI는 생성형 AI 워크로드에 엔터프라이즈급 인프라 구축도 돕는다. 뉴타닉스 클라우드 플랫폼을 핵심 비즈니스 애플리케이션에 실행하는 고객은 이제 동일한 수준의 안전성, 운영 효율성, 보안을 생성형 AI 워크로드에 적용해 엔터프라이즈급 인프라를 구축할 수 있다. 뉴타닉스는 NAI 사용 사례로 ▲고객 피드백과 문서 분석을 통한 생성형 AI로 고객 경험 개선 ▲코파일럿과 지능형 문서 처리를 활용한 코드·콘텐츠 생성 가속화 ▲특정 도메인 데이터로 모델을 미세 조정해 코드·콘텐츠 생성 효율화 ▲사기 탐지, 위협 탐지, 경고 강화, 자동 정책 생성을 위한 AI 모델 활용으로 보안 강화 ▲사내 데이터로 미세 조정된 모델을 활용한 분석 개선 등이 있다. NAI는 뉴타닉스 GPT인어박스 2.0에 탑재됐다. GPT 인어박스에는 뉴타닉스 클라우드 인프라(NCI), 뉴타닉스 쿠버네티스 플랫폼(NKP), 뉴타닉스 통합 스토리지(NUS)와 온프레미스 훈련·추론을 위한 맞춤형 서비스로 이뤄졌다. 퍼블릭 클라우드 배포를 원하는 고객은 NAI를 모든 쿠버네티스 환경에 배포할 수 있으며, 온프레미스 배포와 운영 일관성을 유지할 수 있다. 뉴타닉스 토마스 코넬리 제품 관리 부문 수석 부사장은 "NAI는 온프레미스나 퍼블릭 클라우드에서 생성형 AI 애플리케이션을 쉽고 안전하게 실행할 수 있도록 돕는다"며 "모든 쿠버네티스 플랫폼에서 실행 가능하며, AI 애플리케이션을 예측 가능한 비용으로 안전한 환경에서 운영할 수 있게 한다"고 말했다. 엔비디아 저스틴 보이타노 엔터프라이즈 AI 부사장은 "생성형 AI 워크로드는 본질적으로 하이브리드 특성을 가지고 있어 훈련, 맞춤화, 추론이 퍼블릭 클라우드, 온프레미스 시스템, 엣지 환경에 걸쳐 이뤄진다"며 "엔비디아 NIM을 NAI에 통합하면 안전한 API를 갖춘 일관된 멀티클라우드 모델을 이용할 수 있다"고 강조했다.

2024.11.19 11:04김미정

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

[종합] 경주 찾은 트럼프, 韓 무역협상 타결 자신감…"美 투자하기 좋은 시기"

유통가로 번지는 한국시리즈 열기...LG·한화 ‘우승 세일’ 기대감↑

[르포] "디자이너도 '깃허브 코파일럿' 쓴다"…AI 개발 장벽 낮아져

코스피 또 사상 최고치 경신…4081.15로 마감

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.