• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'밸런스 〈캐리비안주소.𝖈𝖔𝖒〉 🌐코드𝓒𝓞𝓒𝓞🌐 에볼루션 캐리비안안전54'통합검색 결과 입니다. (3149건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

타이푼콘2024 개최 '해커의 관점을 배워라'

해커의 관점으로 보안 문제를 찾고 대응하는 방법을 논의하는 장이 열린다. 글로벌 보안 기업 SSD시큐어 디스클로저(SSD Secure Disclosure, 이하 SSD)는 27일부터 31일까지 서울 목시 명동 호텔에서 오펜시브 보안 컨퍼런스 '타이푼콘2024'를 개최한다. 6회를 맞은 타이푼콘2024는 공격자의 관점에서 보안 취약점을 찾고 이를 대응하는 방법을 논의하는 자리다. 타이푼콘은 보안 취약점 발견과 고급 공격 기술, 리버스 엔지니어링 등 주제의 강연과 실습으로 구성된다. 컨퍼런스에서는 '윈도 파일 공유 및 관리 시스템에서 버그 사냥 및 악용 방법', 'NFT공격벡터' 등을 다룬다. 트레이닝 세션에서는 임베디드 운용체계를 사용해 장치를 분석하고 퍼즈 테스트(fuzz test)하는 법을 강의한다. 지적재산권을 보호하는 코드 난독화와 리버스 엔지니어링을 위한 디버깅 방법 등의 실습이 마련됐다. 타이푼콘에서 '플레이스테이션4 커널 RCE'와 '안드로이드 생태계 디버그 모듈 공격' 등도 들을 수 있다. SSD는 트레이닝 참가자에게 컨퍼런스를 50% 할인된 가격에 제공한다. 타이푼콘의 후원사인 SSD 시큐어 디스클로저는 네트워크, 소프트웨어, 웹 애플리케이션의 보안 취약점을 테스트하고 방어하는 솔루션을 개발하는 글로벌 보안 기업이다. 관련 연구와 결과를 업계 관계자들과 공유하기 위해 타이푼콘을 시작했다.

2024.05.08 10:59김인순

애플리케이션 현대화를 유연하게 지원한다는 의미

“애플리케이션 현대화는 오래전 나온 주제지만 여전히 보수적인 산업의 경우 발빠르게 채택되지 못하고 있다. 기업이 보유한 애플리케이션 포트폴리오는 수백, 수천개에 이른다. 보수적인 엔터프라이즈 고객의 경우 코어 시스템도 있지만, “기업마다 애플리케이션 현대화 여정의 시작점이 다르고, 현대화에 적합한 방안도 처한 상황에 따라 다르다. 비록 기본접근방식은 6R에 근거하지만, IBM의 관점은 고객의 목표나 속도에 맞춰서 선택할 수 있는 다양한 옵션을 제공하자는 것이다. 라이선스 체계나 도구, 기타 등등을 세트로 준비해서 제공한다. IBM은 애플리케이션 현대화를 폭넓게, 유연하게 실행할 수 있는 다양한 툴과 역량을 지원할 수 있다.” 조상철 한국IBM 상무는 본지와 인터뷰에서 IBM의 애플리케이션 현대화 사업 전략에 대해 이같이 밝혔다. 기업의 애플리케이션 현대화는 급변하는 시장에서 생존과 재도약을 위해 반드시 수행해야 하는 사업으로 여겨진다. 그러나 현대화 숙명론이 대세를 이루는 가운데서도 실제로 애플리케이션 현대화 여정에서 발빠르게 나아간 엔터프라이즈 기업은 드물다. 애플리케이션 현대화를 한다고 할 때 기업의 출발점은 모두 다르다. 기업마다 그전까지 투자해온 IT 환경이 제각각이고, 현대화로 갈 수 있는 능력과 투자 규모도 천차만별이다. 딱 꼬집어 '애플리케이션 현대화의 정답'이라 할 게 없으므로 솔루션 기업의 접근법도 다 다를 수 있다. 그중 IBM은 매우 폭넓게 애플리케이션 현대화를 정의한다. 기업 내외부 시스템의 기능을 더 현대적으로 바꾸는 것을 애플리케이션 현대화라 한다. 오랜 시간 기업 고객의 IT서비스를 지원해온 만큼 수많은 경우의수가 존재한다는 것을 이해하고 있고, 상황별로 필요한 솔루션이 다양하다는 것도 알고 있기에 광범위하게 정의하는 것이다. 저마다 다른 상황이지만, 애플리케이션 현대화 과정에서 기업이 만나게 되는 어려움은 거의 비슷하다. 조상철 상무는 그를 경험 부족, 레거시와 통합, 성능 등으로 정리했다. 조상철 상무는 “애플리케이션 현대화에서 나오는 용어는 마이크로서비스아키텍처(MSA), 컨테이너, 쿠버네티스 등인데, 현재 엔터프라이즈 기업의 IT시스템 운영 인력은 그 이전 세대의 기술인 객체지향, SOA 등에 익숙하기에 현대화를 곧바로 추진하기 어렵다”며 “교육도 필요하지만, 현대화를 직접 도와줄 수 있는 도구를 제공해서 안정적으로 프로젝트를 진행하도록 하는 게 필요하다”고 설명했다. 그는 “한 기업에 수십에서 수천개에 이르는 애플리케이션이 존재하는데, 이를 일거에 다 현대화할 수 없으니 순차적으로 진행되게 된다”며 “일부 앱은 현대화되고 일부는 레거시에 남게 되는 과정에서 IT 서비스를 지속하면서 통합을 계속 빠르게 해야 하는 레거시와 통합 문제가 발생한다”고 말했다. 그는 “마지막으로 힘겹게 애플리케이션 현대화를 진행했는데 성능을 보장받지 못할 수 있다”고 덧붙였다. IBM은 애플리케이션 현대화 도구로 크게 2종을 제공한다. 경험과 인력 부족을 해결할 수 있는 '트랜스포메이션 어드바이저'와 '모노투마이크로' 등이다. 트팬스포메이션 어드바이저는 IBM 클라우드팩포애플리케이션이란 패키지에 포함된 도구로 기존 자바 애플리케이션을 리프트앤시프트나 컨테이너화 방식으로 전환하기 위해 원본 코드를 분석하고, 전환 가능 여부를 판단한 뒤 작업 난이도와 필요한 작업 등을 정리해 보여준다. 트랜스포메이션 어드바이저는 작업 수행에 앞서 할 수 있는 것과 할 수 없는 것을 식별하고, 어떻게 해야 처한 상황에서 가장 적절한 방법을 택해야 하는지 선택지를 제시하는 역할이다. 반면, 모노투마이크로는 실제로 기존 자바 애플리케이션을 마이크로서비스로 전환해주는 도구다. 원본 자바 코드를 정적 및 동적, 도메인 드리븐 등으로 분석하고, 클러스터링 알고리즘이 원하는 수준의 단계에 따라 묶음으로 만들어준다. 다양한 변수에 따른 API 호출 코드도 만든다. 필요하다면 로직도 변경한다. 알고리즘은 수천개 자바클래스 속에서 조합을 반복하면서 최적값을 찾아낸다. 사실 엔터프라이즈 기업의 애플리케이션 현대화에서 가장 힘든 부분이 코드 검토다. 클라우드 네이티브로 여정은 리호스트(Rehost), 리플랫폼(Replatform), 리팩토링(Refactoring), 재구매(Repurchase), 리타이어(Retire), 리테인(Retain) 등 6R이란 접근방식을 대표적으로 사용한다. 어떤 방식을 채택하든 시작 단계에 기존 애플리케이션의 코드를 살펴보고 의사결정을 내려야 하는데, 방대한 코드를 사람이 일일이 살펴본다는 게 사실상 불가능한 일이다. 인터뷰에 동석한 김홍석 한국IBM 전문위원은 “수십년 전 만들어진 코드의 작성자가 은퇴하거나 퇴사했을 수도 있고, 개발자마다 조금씩 다르게 로직을 구현했을 수 있다”며 “소스는 있는데 런타임이 없거나, 그 반대일 수도 있고, 코드 중 한번 쓰이는데 그치지 않고 여러번 쓰이는 것도 있다”고 설명했다. 그는 “만약 3천 줄의 코드를 3개 마이크로서비스로 쪼갠다고 해서 사업을 하고 났더니 애초에 기대했던 1천줄짜리 3개로 나뉜게 아니라 2천줄짜리 3개로 나뉘기도 한다”며 “어떤 코드는 여러곳에서 참조된다고 하는데 실제론 하나도 안쓰이는 것도 있어서, 모노투마이크로로 분석해보면 실제 앱 코드 중 30%는 쓰이지 않는 '데드코드'다”라고 덧붙였다. 모노투마이크로는 수많은 코드 가운데 데드코드를 찾아내고 최적화된 마이크로서비스를 만들 수 있도록 도와준다. 정적 분석뿐 아니라 동적 분석도 가능하므로 현대화 과정에서 나타나는 여러 불필요한 투자를 없애준다. 조상철 상무는 “고객은 트랜스포메이션 어드바이저와 모노투마이크로를 통해 얻는 이점이 명확하다”며 “개발시간을 단축하고 코드 품질도 향상시킬 수 있다”고 강조했다. IBM은 레거시 애플리케이션과 통합 문제에 대해선 노코드 기반 통합 도구를 제공해 발빠르게 대응할 수 있도록 하고 있다. 클라우드팩포인티그레이션이 그것이다 또한, 현대화 후 애플리케이션 성능 향상을 보장할 수 있도록 고성능 런타임을 선택하도록 해 초기 구동은 빠르고 CPU나 메모리 자원을 덜 쓰면서 전체 스루풋을 향상시킬 수 있게 한다. 엔터프라이즈 애플리케이션 현대화에서 정답은 없다고 본다. 다만 상황에 가장 적절한 답안은 있다. 조 상무는 “애플리케이션 현대화는 비용과 노력, 시간 그리고 거기서 얻는 성과 등을 다 따져볼 때 어느 게 가장 ROI 높을지 여러 답안이 있을 수 있다”고 말했다. 그는 “상황과 니즈에 맞게 선택할 수 있게 패키징해서. 런타임 여러개로. 라이선스도 구독형이나 영구형으로 유연하게 사용할 수 있게 하는게 우리의 전략”이라며 “고객이 원하는 속도대로 리스크와 비용을 절감하며 가장 적절한 수준의 현대화를 할 수 있도록 돕고 있다”고 강조했다.

2024.05.08 10:57김우용

[컨콜] 카카오게임즈 "크로노 오디세이, 2025년 출시 목표"

한상우 카카오게임즈 대표는 8일 진행된 2024년 1분기 실적 컨퍼런스콜을 통해 "'검은사막'의 서비스를 통한 글로벌 PC게임 서비스 노하우를 지니고 있다"며 "'크로노 오디세이' 개발사와 저희 모두 바라보는 방향도 유사하고 사업적 성과를 충분히 거둘 수 있다고 판단했다"고 말했다. 이어 "PC·콘솔 게임은 플랫폼과의 협력관계가 중요하기에, 다수의 플랫폼과 협력을 논의하고 있다"며 "(크로노 오디세이는) 2025년 출시를 목표로 준비 중"이라고 덧붙였다. 이어 "글로벌 PC 콘솔 유저들한테 적합한 바이투 플레이 방식의 패키지를 전제로 BM과 밸런스를 맞춰서 개발하고 있다"며, "여러 차례 유저 테스트나 자체적인 해외 테스트를 통해 유저 인터페이스나 캐릭터 선정, 자유도 같은 측면에서 사전 폴리싱 작업을 하고 있다. 글로벌 유저들이 쉽게 잘 이해하고 공감할 수 있는 독특한 판타지 세계관을 갖고 있어 내러티브 측면에서도 자연스럽게 흡입이 될 수 있을 것이라고 기대하고 있다"고 전했다.

2024.05.08 10:19강한결

서비스나우, 지난해 낳은 'AI 비서' 더 똑똑하게 길렀다

[라스베이거스(미국)=김미정 기자] 서비스나우가 통합 플랫폼에 탑재된 생성형 인공지능(AI)을 업그레이드했다. 고객은 플랫폼 하나로 모든 업무 과정에서 향상된 생성형 AI 기능을 이용할 수 있다. 단순 편리함뿐 아니라 업무 생산성 향상을 가시적으로 보여줄 수 있는 셈이다. 서비스나우는 7일(현지시간)부터 9일까지 미국 네바다주 라스베이거스에서 열린 '서비스나우 날리지 2024'에서 자사 플랫폼에 들어간 생성형 AI 업데이트 내용을 이같이 발표했다. 이 회사는 기업 통합 시스템 '나우 플랫폼'에 AI 비서인 나우 어시스트를 지난해 탑재했다. 나우 어시스트는 고객들에게 생성형 AI를 비롯한 노코드-로우코드 기능 등을 제공해 왔다. 올해 이런 생성형 AI 기능을 한 단계 고도화했다. 이날 서비스나우는 전략적 파트너십 소식도 알렸다. 기술 융합을 통해 생성형 AI 기능을 한 단계 끌어올리기 위해서다. 일본 후지쯔를 비롯한 제네시스, 인포시스와 손잡고 기술 융합을 본격화했다. 이를 통해 고객 업무 경험과 기술 혁신을 본격화할 방침이다. "'나우 어시스트' 생성형 AI, 똑똑한 직원으로 컸다" 나우 어시스트는 기업 의사 결정을 효과적으로 돕는 '전략적 포트폴리오 관리' 기능을 소개했다. 이 기능은 고객 피드백과 요청을 한곳에 모아 데이터화한다. 이를 통해 고객에 맞는 의사 결정을 전략적인 방향으로 제시해 기업 의사 결정 과정을 돕는다. 개발자를 위한 생성형 AI 기능도 생겼다. 가장 대표 기능은 '프롬프트 관리' 기능이다. 서비스나우 에이미 로키 글로벌고객경험부문 대표는 "생성형 AI에서 프롬프트 역할은 중요하다"며 "생성 결과물을 결정하는 가장 중요한 요소다"고 설명했다. 그는 "서비스나우에서는 IT 지식이 없는 사람도 쉽게 자연어를 통해 생성물을 만들어볼 수 있다"고 강조했다. 서비스나우는 '카랄로그 생성' 기능도 발표했다. 기업이 서비스 카탈로그에 해당하는 항목을 생성할 때 AI를 활용하는 식이다. 복잡한 코딩이나 IT 내용을 몰라도 된다. 로키 대표는 "사용자는 명령어를 활용해 비즈니스와 IT 서비스를 문서화할 수 있는 항목을 몇 분 내로 만들 수 있다"고 덧붙였다. 이 외에도 개발자를 위한 '플레이북 생성'과 '애플리케이션 생성' 기능도 공개했다. 사용자는 자연어만으로 플레이북과 기업 앱을 수분 내로 자동 설계할 수 있다. 기업 관리자는 나우 어시스트에서 문서 초안 생성을 비롯한 비슷한 사례 기록, 작업 노트 기능도 활용할 수 있다. 기업은 자사 고객 피드백 요약도 나우 어시스트로 할 수 있다. 나우 어시스트는 해당 의견과 요청을 자동으로 분석해 인사이트를 도출한다. 모든 고객은 나우 플랫폼에서 거대언어모델(LLM)을 골라 활용할 수 있다. 빌 맥더멋 서비스나우 최고경영자(CEO)는 "고객은 오픈AI나 구글, 메타 LLM을 혼합해 활용할 수 있다"며 "나우 어시스트의 새로운 생성형 AI 기능을 통해 기업의 통합 플랫폼 이용 경험을 끌어올릴 것"이라고 강조했다. 회사는 이 외에도 크리에이터와 공공기관 업무 향상을 돕는 생성형 AI도 새로 구축했다. 이를 통해 공공 업무와 작업 포트폴리오 구축을 한단계 원활하게 할 수 있다는 설명이다. "AI 생태계, 뭉쳐야 산다"…전략적 파트너십 줄줄이 이날 서비스나우는 전략적 파트너십 소식도 알렸다. 기술 융합을 통해 생성형 AI 기능을 한 단계 끌어올리기 위해서다. 실제 이 기업은 일본 기업 후지쯔와 산업 솔루션 출시를 위한 파트너십을 맺었다. 두 기업은 '후지쯔-서비스나우 혁신 센터'를 세우고, 기업 디지털 전환(DX)과 고객 사례 늘리기에 나설 방침이다. 서비스나우는 제네시스와 고객과 직원 경험 향상을 위한 전략적 파트너십도 맺었다. 앞으로 양사는 제네시스 클라우드와 서비스나우의 고객서비스관리(CSM)를 통합할 방침이다. 이를 통해 인사(HR)를 비롯한 업무 관리를 생성형 AI 기반으로 최적화할 예정이다. 이 회사는 인도 기업 인포시스와도 손잡았다. 인포시스의 '코발트 클라우드 오퍼링'과 서비스나우의 나우 어시스트를 통합할 방침이다. 기업 생산성 향상, 효율성 강화, 사용자 경험 개선을 지원하는 것을 목표로 뒀다. 인포시스는 자사에 AI 교육 투자도 2배 늘릴 방침이다. 이를 통해 자사 직원 약 3천500명에게 서비스나우의 생성형 AI 기술을 제공한다. 빌 맥더멋 서비스나우 CEO는 "생성형 인공지능(AI)이 기업 비즈니스에 속속 스며들려면, 기술만 있어선 안 된다"며 "다양한 기업과 파트너십 맺는 것도 필수 요소"라고 강조했다.

2024.05.08 09:58김미정

'레드햇 오픈시프트 AI' 업데이트, 엣지로 AI 모델 배포 지원

레드햇은 개방형 하이브리드 인공지능(AI) 및 머신러닝(ML) 플랫폼인 '레드햇 오픈시프트 AI'의 업데이트 내용을 8일 발표했다. 레드햇 오픈시프트 AI는 기업이 하이브리드 클라우드 전반에 걸쳐 AI 지원 애플리케이션을 대규모로 생성하고 제공할 수 있도록 돕는다. 이번 업데이트는 기본 하드웨어부터 주피터나 파이토치와 같이 플랫폼 구축에 사용되는 서비스 및 도구에 이르기까지 지능형 워크로드에 대한 고객의 선택권을 보장하고자 하는 레드햇의 AI 비전을 강조한다. 레드햇의 AI 전략은 하이브리드 클라우드 전반에서 유연성을 지원하고, 고객 데이터로 사전 학습되거나 선별된 파운데이션 모델을 강화할 수 있는 기능 및 다양한 하드웨어·소프트웨어 가속기를 자유롭게 사용할 수 있는 기능을 제공한다. 새롭게 업데이트된 레드햇 오픈시프트 AI는 최신 AI·ML 혁신에 대한 액세스와 AI 중심의 광범위한 파트너 에코시스템 지원을 통해 이러한 요구 사항을 충족한다. 최신 버전인 레드햇 오픈시프트 AI 2.9는 엣지에서의 모델 서빙 기능을 제공한다. 엣지에서의 모델 서빙은 단일 노드 오픈시프트를 통해 AI 모델 배포를 원격으로 확장한다. 이는 외부와 연결이 끊겼거나(air-gapped) 간헐적(intermittent)인 네트워크 액세스 등 리소스의 제약이 있는 환경에 추론 기능을 제공한다. 이 기술 프리뷰는 조직에 코어부터 클라우드, 엣지에 이르기까지 확장 가능하고 일관된 운영 환경을 제공하며, 즉시 사용 가능한 통합 가시성을 포함한다. 향상된 모델 서빙 기능은 여러 모델 서버를 사용해 예측형 및 생성형 AI를 모두 지원할 수 있게 한다. 지원되는 내용으로는 모든 유형의 모델에 대한 서빙을 오케스트레이션하는 쿠버네티스 커스텀 리소스 정의인 K서브, vLLM 및 텍스트 생성 추론 서버(TGIS), LLM용 서빙 엔진, 자연어 처리(NLP) 모델과 작업을 다루는 Caikit-nlp-tgis 런타임 등이 포함된다. 향상된 모델 서빙을 통해 사용자는 단일 플랫폼에서 여러 사용 사례를 위한 예측형 및 생성형 AI 실행이 가능해, 비용을 절감하고 운영을 간소화할 수 있다. 이는 즉시 사용할 수 있는 모델 서비스를 LLM에 제공하고 주변 사용자 워크플로우 또한 간소화한다. 더 빠르고 효율적인 데이터 처리와 모델 학습을 위해 여러 클러스터 노드를 사용하는 코드플레어와 큐브레이를 통해 레이로 워크로드를 분산한다. 레이는 AI 워크로드 가속화를 위한 프레임워크이며, 큐브레이는 쿠버네티스에서 이러한 워크로드 관리를 돕는다. 코드플레어는 레드햇 오픈시프트 AI의 분산 워크로드 기능의 핵심으로, 작업 오케스트레이션 및 모니터링 간소화에 도움이 되는 사용자 친화적인 프레임워크를 제공한다. 또한 중앙 큐잉 및 관리 기능으로 최적의 노드 활용이 가능하고 GPU와 같은 리소스를 적절한 사용자 및 워크로드에 할당할 수 있다. 프로젝트 작업 공간과 추가 워크벤치 이미지를 통해 모델 개발을 개선해, 데이터 과학자가 다양한 사용 사례와 모델 유형에 대해 현재 기술 프리뷰로 제공되는 VS Code 및 RStudio, 향상된 CUDA를 포함한 IDE와 툴킷을 유연하게 사용할 수 있도록 한다. 성능 및 운영 메트릭에 대한 모델 모니터링을 시각화하여 AI 모델의 성능에 대한 가시성을 개선한다. 관리자가 모델 개발 및 모델 제공 워크플로우에 사용 가능한 다양한 유형의 하드웨어 가속기를 구성할 수 있도록 새로운 가속기 프로필이 추가됐다. 사용자는 이를 통해 특정 워크로드에 적합한 가속기 유형에 셀프서비스 방식으로 간단히 접근할 수 있다. 현재 IBM의 왓슨x.ai뿐 아니라 AGESIC과 오텍 파이낸스 등 다양한 산업 분야의 기업이 더욱 큰 AI 혁신과 성장을 추진하기 위해 레드햇 오픈시프트 AI를 도입하고 있다. 또한 다양한 파트너들과 협업을 통해 에코시스템을 확장하고 있다. 레드햇은 레드햇 오픈시프트 AI에서의 엔터프라이즈 AI 활용 강화를 위해 인텔과 협력한다고 발표했다. 양사는 가우디 AI 가속기, 제온 프로세서, 코어 울트라 및 코어 프로세서, 아크 GPU 등의 인텔 AI 제품에서 하이브리드 클라우드 인프라 전반에 걸친 모델 개발·교육, 제공, 관리, 관리·모니터링을 위한 엔드투엔드 AI 솔루션을 제공할 예정이다. 레드햇 오픈시프트 AI는 인텔의 AI 제품에 대한 일관된 지원을 제공해 조직이 다양한 환경에서 AI 애플리케이션을 원활히 배포할 수 있도록 지원한다. 양사는 이번 협력을 통해 데이터 센터에서 엣지까지 유연하고 탄력적인 AI 솔루션을 제공해 상호 운용성을 보장하고 확장 가능한 소프트웨어 제품을 통해 AI 혁신을 가속화할 예정이다. AI 워크로드의 구축, 배포, 관리에 대한 고객 선택권 확대를 위한 AMD의 협력도 발표했다. 레드햇과 AMD는 AMD GPU를 레드햇 오픈시프트 AI에 통합함으로써 AI 아키텍처에 더 큰 선택권과 유연성을 제공하고 AI 워크로드를 채택하는 기업의 진입 장벽을 낮춰 엔터프라이즈 AI 역량을 강화할 계획이다. 양사는 레드햇 오픈시프트 AI에서 AMD GPU 오퍼레이터를 지원해 AI 워크플로우의 간소화, 인프라 격차 해소, 지능형 애플리케이션의 시장 배포 가속화를 돕고, AMD 인스팅트 가속기에서 레드햇 오픈 하이브리드 클라우드 기술을 지원해 AI 혁신을 더욱 촉진하고 고객에게 향상된 GPU 리소스 선택권을 제공할 예정이다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "엔터프라이즈 AI를 도입하는 것은 이제 '만약'의 문제가 아니라 '언제'의 문제”라며 “기업은 생산성을 높이고 수익을 창출하며 시장에서 차별화될 수 있도록, 보다 안정적이고 일관되며 유연한 AI 플랫폼이 필요하다”고 설명했다. 그는 “레드햇 오픈시프트 AI는 엔터프라이즈 AI를 향한 대규모 수요에 대한 해답”이라며 “IT 리더는 레드햇 오픈시프트 AI를 통해 하이브리드 클라우드의 모든 곳에 지능형 애플리케이션을 배포하는 동시에, 운영 및 모델을 필요에 따라 성장시키고 미세 조정하여 프로덕션 애플리케이션과 서비스를 지원할 수 있다”고 강조했다.

2024.05.08 09:47김우용

레드햇, 생성형 AI 플랫폼 'RHEL AI' 출시

레드햇은 7일(현지시간) 개최한 '레드햇서밋2024'에서 사용자의 생성형 AI 모델 개발·테스트·배포를 지원하는 파운데이션 모델 플랫폼 '레드햇 엔터프라이즈 리눅스 AI(RHEL AI)'를 출시했다고 발표했다. RHEL AI는 IBM리서치의 오픈소스 라이선스 그래니트 LLM제품군과 챗봇을 위한 대규모 정렬(LAB) 방법론에 기반한 인스트럭트랩 모델 정렬 도구, 인스트럭트랩 프로젝트를 통한 커뮤니티 중심의 모델 개발 접근 방식을 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징돼 있으며, 분산 클러스터 환경에서 모델과 인스트럭트랩을 대규모로 실행하기 위해 레드햇의 하이브리드ML옵스 플랫폼인 오픈시프트 AI에 포함됐다. 챗GPT 가 생성형 AI에 대한 폭발적인 관심을 불러일으킨 이래 혁신의 속도는 더욱 빨라지고 있다. 기업은 생성형 AI 서비스에 대한 초기 평가 단계에서 AI 기반 애플리케이션 구축 단계로 전환하기 시작했다. 빠르게 성장하는 개방형 모델 옵션 생태계는 AI 혁신에 박차를 가하고 있으며, '모든 것을 지배하는 하나의 모델'은 존재하지 않을 것임을 시사한다. 고객은 다양한 선택지 중에서 특정 요구 사항 해결을 위한 모델을 선택할 수 있으며, 이러한 혁신은 개방형 접근 방식을 통해 더욱 가속화될 것이다. AI 전략 구현을 위해서는 단순히 모델을 선택하는 것만으로는 부족하며, 특정 사용 사례에 맞게 주어진 모델을 조정하고 AI 구현에 드는 막대한 비용을 처리할 수 있는 전문 지식을 필요로 한다. 데이터 과학 기술의 부족은 ▲AI 인프라 조달 또는 AI 서비스 사용 ▲비즈니스 요구 사항에 맞도록 AI 모델을 조정하는 복잡한 프로세스 ▲엔터프라이즈 애플리케이션에 AI 통합 ▲애플리케이션과 모델 라이프사이클의 관리 등 여러 분야에 비용을 요구해 더욱 어려움을 겪을 수 있다. AI 혁신의 진입 장벽을 확실히 낮추려면 AI 이니셔티브 참여자의 범위를 넓히는 동시에 이러한 비용을 통제할 수 있어야 한다. 레드햇은 인스트럭트랩 정렬 도구, 그래니트 모델, RHEL AI를 통해 접근과 재사용이 자유롭고 완전히 투명하며 기여에 개방적인 진정한 오픈소스 프로젝트의 장점을 생성형 AI에 적용함으로써 이러한 장애물을 제거할 계획이다. IBM리서치는 분류법(taxonomy) 기반 합성 데이터 생성과 새로운 다단계 튜닝 프레임워크를 사용하는 모델 정렬 방식인 LAB 기술을 개발했다. 이 접근 방식은 비용이 많이 드는 사람의 주석이나 독점 모델에 대한 의존도를 줄임으로써 모든 사용자가 보다 개방적이고 접근하기 쉬운 AI 모델 개발을 가능하게 한다. LAB 방식을 사용하면 분류법에 수반되는 기술과 지식을 특정하고, 해당 정보로부터 대규모로 합성 데이터를 생성해 모델에 영향을 주고, 생성된 데이터를 모델 학습에 사용함으로써 모델을 개선할 수 있다. LAB 방식이 모델 성능을 크게 향상시키는 데 도움이 될 수 있다는 것을 확인한 IBM과 레드햇은 LAB 방식과 IBM의 오픈소스 그래니트 모델을 중심으로 구축된 오픈소스 커뮤니티인 인스트럭트랩을 출범하기로 결정했다. 인스트럭트랩 프로젝트는 타 오픈소스 프로젝트에 기여하는 것만큼 간단하게 LLM을 구축하고 기여할 수 있도록 함으로써 개발자들의 LLM 개발을 돕는 것이 목표다. IBM은 인스트럭트랩 출시의 일환으로 그래니트 영어 모델 및 코드 모델 제품군도 공개했다. 아파치 라이선스에 따라 출시된 이 모델들은 모델 학습에 사용된 데이터 세트에 대한 완전한 투명성을 갖췄다. 그래니트 7B(Granite 7B) 영어 모델은 인스트럭트랩 커뮤니티에 통합됐으며, 최종 사용자는 다른 오픈소스 프로젝트에 기여할 때와 마찬가지로 이 모델의 공동 개선을 위해 기술과 지식을 기여할 수 있다. 인스트럭트랩 내 그래니트 코드 모델에 대해서도 유사한 지원이 곧 제공될 예정이다. RHEL AI는 AI 혁신에 대한 이러한 개방형 접근 방식을 기반으로 구축됐다. 하이브리드 인프라 환경 전반에서 배포를 간소화하기 위해 세계 선도적인 엔터프라이즈 리눅스 플랫폼과 결합된 인스트럭트랩 프로젝트 및 그래니트 언어 및 코드 모델의 엔터프라이즈 지원 버전을 통합한다. 이를 통해 오픈소스 라이선스 생성형 AI 모델을 엔터프라이즈에 도입할 수 있는 파운데이션 모델 플랫폼이 만들어진다. RHEL AI는 레드햇에 의해 전적으로 지원되고 면책되는 오픈소스 라이선스 그래니트 언어 모델 및 코드 모델이다. LLM 기능을 향상하고 더 많은 사용자가 지식과 기술을 활용할 수 있도록 확장 가능하고 비용 효율적인 솔루션을 제공하는 인스트럭트랩의 라이프싸이클을 지원한다. RHEL 이미지 모드를 통해 부팅 가능한 RHEL 이미지로 제공하며 엔비디아, 인텔, AMD에 필요한 런타임 라이브러리 및 하드웨어 가속기와 파이토치(Pytorch)를 포함한다. 신뢰할 수 있는 엔터프라이즈 제품 배포, 연중무휴 생산 지원, 모델 라이프사이클 연장 지원, 모델 지적 재산권 면책 등 레드햇의 완전한 엔터프라이즈 지원 및 라이프사이클 서비스를 제공한다. 사용자는 RHEL AI에서 새로운 AI 모델을 실험하고 조정할 때, RHEL AI가 포함된 레드햇 오픈시프트 AI를 통해 이러한 워크플로우를 확장할 수 있는 준비된 진입로를 확보할 수 있다., 여기서 AI 모델의 대규모 학습을 위한 오픈시프트의 쿠버네티스 엔진과 모델 라이프사이클 관리를 위한 오픈시프트 AI의 통합 ML옵스 기능을 활용할 수 있다. 또한 오픈시프트 AI와 RHEL AI는 엔터프라이즈 AI 개발과 데이터 관리, 모델 거버넌스를 위한 추가 기능을 제공하는 IBM 왓슨X와 통합될 예정이다. 오픈소스 기술은 지난 30년 이상 IT 비용을 크게 절감하고 혁신의 장벽을 낮춰 빠른 혁신에 기여해 왔다. 마찬가지로 레드햇은 2000년대 초 RHEL을 통해 개방형 엔터프라이즈 리눅스 플랫폼을 제공한 이래 레드햇 오픈시프트를 통해 컨테이너와 쿠버네티스를 오픈 하이브리드 클라우드 및 클라우드 네이티브 컴퓨팅의 기반으로 자리잡게 하는 등 이러한 변화를 선도해 왔다. 이러한 추진력은 레드햇이 오픈 하이브리드 클라우드 전반에 걸쳐 AI/ML 전략을 강화하는 것으로 계속되어, 데이터센터나 여러 퍼블릭 클라우드, 엣지 등 데이터가 있는 모든 곳에서 AI 워크로드를 실행할 수 있도록 지원한다. 워크로드뿐만 아니라, 레드햇의 AI 비전은 모델 학습 및 조정을 동일한 방법으로 제공함으로써 데이터 주권와 규정 준수, 운영 무결성과 관련된 한계를 더 잘 해결할 수 있게 한다. 이와 같은 환경 전반에서 레드햇 플랫폼이 제공하는 일관성은 실행되는 위치와 무관하게 AI 혁신의 흐름을 유지하는 데 매우 중요하다. RHEL AI와 인스트럭트랩 커뮤니티는 이러한 비전의 실현을 한층 더 고도화하여 AI 모델 실험 및 구축의 많은 장벽을 허물고 차세대 지능형 워크로드에 필요한 도구, 데이터 및 개념을 제공한다. RHEL AI는 현재 개발자 프리뷰 버전으로 제공된다. 이제 IBM 클라우드는 그래니트 모델을 학습하고 인스트럭트랩을 지원하는 IBM 클라우드의 GPU 인프라를 기반으로 하여 RHEL AI 및 오픈시프트 AI에 대한 지원을 추가할 예정이다. 이러한 통합으로 기업은 미션 크리티컬 애플리케이션에 생성형 AI를 보다 쉽게 배포할 수 있다. 아셰시 바다니 레드햇 최고 제품 책임자 겸 수석 부사장은 "생성형 AI는 기업에게 혁신적인 도약을 제시하지만, 이는 기술 조직이 그들의 비즈니스 요구 사항에 맞는 방식으로 AI 모델을 실제로 배포하고 사용할 수 있을 때만 실현 가능하다”며 “RHEL AI와 인스트럭트랩 프로젝트는 레드햇 오픈시프트 AI와 큰 규모로 결합돼 제한된 데이터 과학 기술부터 필요한 리소스에 이르기까지 하이브리드 클라우드 전반에서 생성형 AI가 직면한 많은 허들을 낮추고 기업 배포와 업스트림 커뮤니티 모두에서 혁신을 촉진하도록 설계됐다"고 밝혔다.

2024.05.08 09:38김우용

[영상] AI·자동화 전략 제시한 '노코드·로우코드 하이퍼오토메이션 2024' 현장

지디넷코리아는 노코드로우코드협의회와 2일 서울 양재 엘타워 그레이스홀에서노코드·로우코드 하이퍼오토메이션 2024 컨퍼런스를 개최했다. 이번 행사는 IBM, 삼성SDS 등 국내외 주요 AI, 자동화 전문기업들이 공공⋅금융⋅제조 등 산업 각 분야에서의 업무 자동화를 위한 AI도입 방안과 불황 속 기업의 생존 전략에 대해 논의했다.

2024.05.07 17:26유회현

인스웨이브시스템즈, AI증강개발 솔루션으로 개발비용 단축

인스웨이브시스템즈(대표 어세룡)가 '국제인공지능산업대전 2024(AI EXPO KOREA 2024)'에서 AI 증강개발 솔루션을 소개했다고 7일 밝혔다. AI EXPO KOREA 2024는 올해 7회를 맞은 인공지능(AI) 전문 전시회로 코엑스에서 1일부터 3일까지 인공지능·데이터 전문 기업들과 연구 및 학계 관계자들이 관련 최신 기술과 인사이트를 공유했다. 인스웨이브시스템즈가 선보인 웹스퀘어 AI는 인스웨이브의 주요 제품 중 하나인 웹 표준 UI/UX 솔루션 '웹스퀘어5'와 AI 기술을 접목한 AI 증강개발 솔루션으로 웹스퀘어5의 메이저 업그레이드 버전이다. 웹스퀘어AI는 대규모 언어 모델(LLM)을 활용한 AI 코파일럿 기능을 지원한다. ▲이미지나 화면 설계서를 웹스퀘어 화면으로 생성하는 '스케치' ▲코딩 시 적절한 소스를 제안하고 자동 완성하는 '코드' ▲사용자의 질문에 맞는 답변 및 예제 코드를 제공해주는 'Q&A챗봇' ▲테스트 케이스를 생성하고 자동 실행하는 '테스트'로 구성되어 있다. 이외에도 MSA로 구성된 서버에 있는 분산된 페이지를 참조해 하나의 페이지로 구성할 수 있는 마이크로 프론트엔드 기능과 서버에서 메시지(전문)를 조회해서 최적의 화면을 자동 생성하는 퀵코드/노코드 개발 기능을 통해 급변하는 시장의 요구에 신속히 대응할 수 있는 웹 애플리케이션을 개발할 수 있다. 웹스퀘어 AI는 분석/설계, UI/UX디자인, 구현, 테스트, 배포 유지보수 단계로 진행되는 개발 라이프사이클의 전반을 다양한 개발 도구 기능을 통해 지원한다. 또한 개발생산성을 높이고 기업의 개발 프로젝트 비용과 운영비용을 감소시킬 수 있다. 어세룡 대표는 "이번 행사를 통해 인스웨이브시스템즈는 AI 기술과 디지털 전환 분야에서의 역량을 강화하고, 산업과 사회에 더 많은 가치를 제공하기 위한 노력을 지속할 것"이라며, "업그레이드된 기술적 역량을 바탕으로 디지털 트렌드에 부응하겠다"고 말했다.

2024.05.07 16:29남혁우

[유미's 픽] 삼성도 챗GPT로 기밀 샐까 골머리…'AI 보안' 선두 경쟁 본격화

#. 지난해 5월. 삼성전자는 회사 내부 기기에서 생성형 인공지능(AI) 사용을 금지했다. 삼성전자 반도체(DS) 부문 직원들이 같은 해 3월 소프트웨어 소스코드의 오류를 확인하고 회의 내용을 요약하는 등의 업무를 위해 챗GPT에 소스코드, 회의 내용 등을 입력했다가 문제가 발생했기 때문이다. 이에 삼성전자는 "사내 PC를 통한 생성형 AI 사용을 일시적으로 제한한다"며 "사외에서 챗GPT 등 생성형 AI를 사용하는 경우에도 회사와 관련된 정보, 본인 및 타인의 개인정보 등은 입력하지 않도록 각별히 유의해 달라"고 당부했다. 이처럼 오픈AI '챗GPT', 구글 '제미나이' 같은 생성형 AI를 통한 검색이 최근 활발히 이뤄지며 기밀 정보 유출 우려가 높아진 가운데 기업을 중심으로 '보안'의 중요성이 점차 커지고 있다. 보안이 AI 산업의 한 축이 될 것으로 전망되면서 국내외 업체들도 앞 다퉈 대응에 나선 모양새다. 7일 업계에 따르면 마이크로소프트(MS)는 지난달 1일 '코파일럿 포 시큐리티(Copilot for Security)'를 출시하며 기업 공략에 본격 나섰다. 이 서비스는 IT 및 보안 담당자를 위한 생성형 AI 보안 솔루션으로, 오픈AI GPT-4와 MS 자체 보안 특화 AI 모델을 기반으로 구동된다. MS는 지난해 3월 사이버보안 업계 첫 생성형 AI 보안 서비스라는 이름으로 이 시장에 첫 발을 내딛었다. 당시 이 서비스는 챗봇처럼 위협 요인을 알려주는 구동 방식에 그쳤다. 이번에 나온 '코파일럿 포 시큐리티'는 프롬프트 입력 시 사고 요약, 취약점 분석도 가능하다는 점에서 한 단계 더 진화됐다는 평가다. 이에 맞춰 체크포인트 소프트웨어 테크놀로지스는 보안 작업 필요 시간을 10%로 줄이는 AI 보안 솔루션 '인피니티 AI 코파일럿'을 올해 2월 선보였다. 체크포인트는 MS의 오랜 파트너인 사이버 보안 플랫폼 기업으로, 현재 프리뷰 형태로 이 서비스를 제공 중이다. 2분기에 정식 출시를 앞둔 '인피니티 AI 코파일럿'은 보안 정책을 변경하고 직원 내 담당 권한을 변경하는 작업도 가능한 것이 특징이다. 글로벌 보안 시장을 이끌고 있는 팔로알토 네트웍스는 AI 열풍 이전인 12여년 전부터 사이버 보안에 AI·머신러닝(ML)을 활용해 업계 선구자로 통한다. 최근에는 보안관제 인력난에 대한 해결책으로 '확장된 보안 인텔리전스 자동화 관리(XSIAM)'를 내세워 AI를 통한 보안운영센터(SOC)의 운영 효율을 높이기 위해 애쓰고 있다. 구글도 AI로 보안 강화에 나설 것이란 뜻을 내비쳤다. 순다르 피차이 구글 최고경영자(CEO)는 지난 2월 독일 뮌헨 안보회의에서 "사이버 해커는 시스템을 공격하기 위해 한 번만 성공하면 되지만, 방어자는 시스템을 보호하기 위해 매번 성공해야 한다는 딜레마가 있다"며 "(AI는) 이러한 딜레마를 줄여줄 것"이라고 밝혀 눈길을 끌었다. 국내 업체 역시 AI 기술을 적용해 서비스 경쟁력을 끌어 올리고 있다. 안랩은 현재 연구소 산하에 '인공지능팀'을 두고 머신러닝 기술을 통한 솔루션·서비스 탐지 기능 고도화 작업에 집중하고 있다. 또 AI를 악성코드와 피싱 이메일, 스미싱 문자 등을 탐지하는데도 활용 중이다. 여기에 생성형 AI 기술 개발을 통해 확장된 탐지 및 대응(XDR) 플랫폼 '안랩 XDR'에서 보안 담당자의 업무를 더 끌어올릴 수 있는 'AI 시큐리티 어시스턴트'도 개발 중이다. 업계 관계자는 "보안업체들은 판정형 AI업체의 서비스를 생성형 AI와 결합해 기술을 고도화 하던가, 생성형 AI가 기존에 가지고 있는 보안 문제를 최소화 하는 것에 집중하고 있다"며 "이들이 다양한 방식으로 AI 기술을 활용하는 것은 자연스러운 흐름"이라고 말했다. 일부 기업들은 AI를 활용해 보안 위협을 탐지하는 것에 그치지 않고 기업용 AI 시장에 직접 뛰어들고 있다. 내부 보안 혹은 사이버 위협·악성코드 분석 등 비정형 데이터를 포함한 데이터 분류와 필터링 기술에 강점을 갖고 있다는 점을 앞세워 보다 안전한 맞춤형 AI 서비스를 제공할 수 있다고 강조하고 나섰다. 데이터·애플리케이션 보안 사업에 집중했던 파수는 지난 3월 경량언어모델(sLLM) '엘름(ELLM)'을 출시하며 본격적으로 LLM 시장 경쟁에 나섰다. 구축형(온프레미스)으로 제공되는 엘름은 코딩, 법률, 세무, 금융 등 다양한 직군, 산업 환경에서 활용할 수 있는 것이 특징이다. 또 특정 작업이나 도메인에 맞는 작은 데이터 세트를 활용해 모델을 추가적으로 훈련시킬 수 있다. 이에 기업에선 특정 부서나 조직에서만 사용할 수도 있다. 사이버 위협 인텔리전스(CTI) 기업 S2W도 sLLM 플랫폼 'S-AIP(S2W Artificial Intelligence Platform)'를 내놨다. S-AIP는 각 기업이 가지고 있는 보안 수준에 맞춰 아키텍처를 구현하고, 데이터 보안 기술을 기반으로 기업용 프라이빗 sLLM 구축을 지원할 수 있다. 보안업계에서 떠오르고 있는 샌즈랩도 AI 기반 사이버 보안 사업 영역을 빠르게 고도화하고 있다. 이곳은 지난 2월 기업 내부 인프라에서 직접 운영, 제어가 가능한 온프레미스 sLLM '샌디(SANDY)'를 개발했다. 샌디는 기존에 사람이 직접 했던 보고서 요약·교정, 기업 내 해킹 대응 정보 검색을 대신 수행하며 최신 사이버 위협에 선제 대응할 수 있는 역량도 갖췄다. 이 외에 샌즈랩은 샌디를 기반으로 최근 포티투마루, LG유플러스와 사이버 보안을 강화할 수 있는 LLM 기술을 공동 개발키로 해 주목 받고 있다. 업계 관계자는 "국내 보안기업들이 생성형 AI 시장에 뛰어드는 이유는 데이터 보안·악성코드 분석 등의 분야에서 다년간 축적된 기술력과 노하우가 AI 데이터 학습에 유리하다는 판단 때문"이라며 "정보유출 등에 민감한 기업용 AI 분야에선 강점이 될 수 있을 것"이라고 분석했다. 이어 "보안 시장이 AI처럼 폭발적인 성장 잠재력을 갖추기 어렵다는 점에서 기존 보안 사업과 연계할 경우 AI를 새로운 성장동력으로 삼을 수 있을 것이란 점도 영향을 미친 듯 하다"며 "글로벌 단위에서 아직까지 AI 보안 시장을 이끄는 선두 업체가 마땅히 없다는 것도 매력적인 요소"라고 덧붙였다.

2024.05.07 16:19장유미

IT시민연대 "라인사태, '제2 독도 사태'로 비화될 수도"

시민단체인 공정과 정의를 위한 IT시민연대(준비위)는 7일, 최근 일본 정부가 내린 라인야후에 대한 행정지도에 심각한 우려를 표했다. 이 단체는 IT분야에서 공정성과 정의를 추구하는 목적으로 결성중인 시민 결사체다. 사회적으로 중요한 이슈들에 대해 목소리를 내고, IT 분야에서의 정책 결정 과정에 시민들의 의견이 반영되도록 노력한다는 계획이다. 준비위원장은 중앙대 위정현 교수가 맡았다. 먼저 IT시민연대는 “일본 정부는 현재의 상황으로 인해 모처럼 형성된 한일 양국의 우호적인 관계가 악화될 수 있음을 인식해야 한다”며 “이번 사태가 라인을 완전히 탈취하기 위한 '보이지 않는 손의 작용'이 아닌지 의심하고있다. 일본 정부와 자민당의 라인과 네이버 때리기가 혹시 소프트뱅크라는 일본기업의 라인 지배력을 강화하기 위한 작업의 일환이 아닌가 하는 합리적 의심이 든다”고 우려했다. 또 이 단체는 이번 사태에 임하는 네이버의 무능과 무책임에 대해서도 개탄스럽다고도 했다. 준비위는 “네이버 최수연 대표는 이번 라인사태를 '이례적'이라고 규정하면서도 '중장기적인 경영 방침을 고려해 결정하겠다'며 사태의 본질을 흐리고 있다. 우리는 '중장기적인 방침'하에서 라인을 헐값으로 매각하겠다는 말인지 묻고 싶다”고 반문했다. 그러면서 "만일 지금 라인을 뺏긴다면 네이버는 지금까지 쌓아온 해외 진출 역량과 기반을 송두리 채 뽑힐 수밖에 없으며 원점에서 다시 시작할 수밖에 없다"면서 "이런 심각한 사태 인식 없이 AI에 대한 투자 재원이 필요하다는 분위기가 만일 네이버 내부에 있다면 이것은 정말 개탄할 만한 상황"이라고 덧붙였다. 준비위는 “네이버가 이번 사태 대응에 실패하고 소프트뱅크에 백기 투항한다면 향후 두고두고 네이버는 '친일기업'으로 낙인찍힐 수 있다는 점을 명심해야 한다"며 "이는 13년간 피땀 흘려 일군 기업을 상대 국가의 압력에 굴복해 넘겨준다면 이를 환영할 국민은 없기 때문"이라고 주장했다. 마지막으로 IT시민연대는 “일본 정부의 라인/네이버 압력 사태에 대한 국가적인 대응이 필요하며, 국회는 물론 정부, 민간전문가를 포함한 범국가적 TF를 구성해 일본 정부의 부당한 조치에 적절히 대응할 필요가 있다”면서 “디지털 세계에서 국가의 주권은 물리적인 제한이 없으며, 플랫폼 역시 국가의 영토와 연관된 중요한 요소로 인식해야 한다. 우리는 지난 2021년 3월 시점에서 대응했어야 할 이번 라인 사태에 대해, '호미로 막을 것을 가래로도 막지 못한' 이번 사태에 대해 통탄을 금치 못한다"고 지적했다. 그러면서 "지금 외교부와 과기정통부가 네이버의 입만을 바라보면서 수수방관하고 있는 현실은 개탄스럽다"며 "정부와 국회는 이번 라인 사태가 원만하게 해결되지 않으면 '제2의 독도 사태'로 비화될 수도 있다는 점을 명심해야 한다"고 맺었다. [다음은 성명서 전문] 1. 우리는 일본 정부의 라인야후(이하 라인)에 대한 네이버의 자본 관계 개선을 포함한 행정지도에 대해 심각한 우려를 표명한다. 일본 총무성은 지난 3월 라인이 시스템 업무를 위탁한 네이버에 과도하게 의존해 사이버 보안 대책이 충분하지 않다고 지적하며 네이버와 자본 관계 변화를 포함한 경영 체제 개선을 요구했다. 이는 작년 11월 네이버 클라우드가 사이버 공격으로 인해 악성코드에 감염돼 일부 내부 시스템을 공유하던 라인에서 개인정보 51만건이 유출된 사건을 일본 정부가 직접 문제 삼고 나선 것이다. 일본 총무성의 개입은 일본경제신문 등 일본 언론에서조차 '이례적'이라고 지적되고 있다. 일본 정부 뿐 아니라 집권여당인 자민당에서도 여러 차례에 걸쳐 라인의 보안 대책이 부족하다며 경영 책임을 물어야 한다는 비난을 쏟아낸 바 있다. 자민당 디지털사회추진본부는 지난 4월 25일 회의를 열어 라인 임원을 불러내 유명인 SNS 사칭 사기 대책에 관한 설명을 요구하는 등 압박했다. 자민당이라는 거대 여당이 지속적으로 라인을 압박하고 있는 상태는 역시 대단히 '이례적'이라고 볼 수 밖에 없다 그런데 더 놀라운 점은 라인에 대한 비판이 일본의 진보와 보수를 넘어 공동전선을 형성하고 있다는 데에 있다. 최초로 라인의 정보 유출 가능성을 제기한, 진보매체로 분류되는 아사히신문은 3년전인 2021년 3월 라인 이용자 간 대화 서비스의 모든 사진과 동영상이 한국 서버에 보관되고 있다고 문제제기했다. 라인의 한국 자회사인 라인플러스 직원은 개인정보에 접근할 수 있는 권한이 있다는 것이다. 일본 정부는 현재의 상황으로 인해 모처럼 형성된 한일 양국의 우호적인 관계가 악화될 수 있음을 인식해야 한다. 2. 우리는 이번 사태가 라인을 완전히 탈취하기 위한 '보이지 않는 손의 작용'이 아닌지 의심한다. 일본 정부와 자민당의 라인과 네이버 때리기가 혹시 소프트뱅크라는 일본기업의 라인 지배력을 강화하기 위한 작업의 일환이 아닌가 하는 합리적 의심이다. 아사히신문은 라인 이용자 간에 주고받는 대화 서비스의 모든 사진과 동영상이 한국에 있는 서버에 보관되고 있다고 보도한 바 있다. 그런데 2021년 당시 라인은 데이터의 한국 보관은 법적으로 아무런 문제가 없다고 피력한 바 있다. 일본 개인정보보호법에 따르면 서비스 주체 기업은 이용자들에게 동의를 얻고 현지 정부의 개인정보보호위원회에 해당 내용을 보고하면 개인정보 데이터를 일본 외 지역에 보관할 수 있도록 규정했다. 그럼에도 불구하고 이러한 초법적인 행정지도가 이루어진 상황에서 우리는 일본 정부에 반대로 '구글이나 트위터, 인스타그램 등 일본인이 많이 쓰는 미국 IT 대기업의 경우 모든 이용자들이 올리는 사진이나 영상 등 모든 데이터를 일본내 서버에 보관하고 있는지'를 질문하고 싶다. 만일 미국 등 타국의 IT 기업의 데이터 보관에 대해서는 관대하면서 유독 한국계 기업에만 엄격하다면 이는 적대국가도 아닌 우방인 한국에 대한 중대한 차별행위일 것이다. 3. 우리는 이번 사태에 임하는 네이버의 무능과 무책임에 대해 개탄한다. 네이버 최수연 대표는 이번 라인사태를 '이례적'이라고 규정하면서도 '중장기적인 경영 방침을 고려해 결정하겠다'며 사태의 본질을 흐리고 있다. 우리는 '중장기적인 방침'하에서 라인을 헐값으로 매각하겠다는 말인지 묻고 싶다. 만일 지금 라인을 뺏긴다면 네이버는 지금까지 쌓아온 해외 진출 역량과 기반을 송두리 채 뽑힐 수밖에 없으며 원점에서 다시 시작할 수밖에 없다. 이런 심각한 사태 인식 없이 AI에 대한 투자 재원이 필요하다는 분위기가 만일 네이버 내부에 있다면 이것은 정말 개탄할 만한 상황이다. 네이버가 이번 사태 대응에 실패하고 소프트뱅크에 백기투항한다면 향후 두고두고 네이버는 '친일기업'으로 낙인찍힐 수 있다는 점을 명심해야 한다. 13년간 피땀 흘려 일군 기업을 상대 국가의 압력에 굴복해 넘겨준다면 이를 환영할 국민은 없기 때문이다. 4. 이번 일본 정부의 라인/네이버 압력 사태에 대한 국가적인 대응이 필요하다. 국회는 물론 정부, 민간전문가를 포함한 범국가적 TF를 구성하여 일본 정부의 부당한 조치에 적절히 대응할 필요가 있다. 현대의 디지털 경제에서 한 국가의 주권과 영토는 물리적인 공간에만 국한되지 않는다. 플랫폼을 기반으로 한 글로벌 디지털 공간과 주권 역시 대단히 중요하다 것이다. 구글이 전 세계를 지배하고 있는 이러한 상황은 미국이라는 물리적 영토를 벗어나 글로벌 디지털 지배력을 미국이라는 국가가 가지고 있다는 것을 의미한다. 디지털 세계에서 국가의 주권은 물리적인 제한이 없으며, 플랫폼 역시 국가의 영토와 연관된 중요한 요소로 인식해야 한다. 또한 오늘날의 메신저앱은 개인간의 소통의 도구 역할을 넘어 금융, 쇼핑 등 일상 생활의 전반을 지배하는 하나의 거대한 플랫폼으로 영향력이 확대되고 있다. 우리는 지난 2021년 3월 시점에서 대응했어야 할 이번 라인 사태에 대해, '호미로 막을 것을 가래로도 막지 못한' 이번 사태에 대해 통탄을 금치 못한다. 더구나 지금 외교부와 과기부가 네이버의 입만을 바라보면서 수수방관하고 있는 현실은 개탄스러운 것이다. 정부와 국회는 이번 라인 사태가 원만하게 해결되지 않으면 '제2의 독도 사태'로 비화될 수도 있다는 점을 명심해야 한다. 따라서 지금이라도 국회와 정부, 그리고 민간의 전문가들을 포함한 국가적 TF를 구성할 것을 제안한다. 그리고 이 TF를 통해서 일본 정부의 이러한 부당한 압박에 대해 어떻게 대응할 것인지를 고민해야 할 것이다.

2024.05.07 15:22안희정

넵튠 '무한의계단', 의류·문구류 등 한정판 굿즈 출시

넵튠(217270)은 7일 캐주얼 모바일 게임 '무한의계단'의 한정판 굿즈를 출시했다고 밝혔다. 이번에 출시한 무한의계단 굿즈는 인기 캐릭터인 ▲'비지니스 맨' ▲'보안관' ▲'치어리더' 등을 비롯해 펫과 게임 속 소재를 도트 그래픽 형태로 제품에 담아낸 게 특징이다. 티셔츠, 후드티, 양말 등 의류부터 클리어파일, 스터디플래너, 마우스패드, 지비츠, 카드홀더, 러기지택 등 문구·완구·액세서리류까지 총 10종의 다양한 상품으로 구성됐다. 가정의달을 맞아 넵튠은 10~20대 사이에서 큰 인기를 끌고 있는 무한의계단 IP를 기반으로 오프라인에서 색다른 즐거움을 주고자 굿즈를 선보이게 됐다. 넵튠은 앞서 무한의계단 IP를 활용한 코믹북 총 3권을 출간, 현재까지 누적 판매 10만 부에 육박하고 있다 한정판으로 선보이는 무한의계단 굿즈는 티몬에서 독점 판매되며 상품 구매 시 무한의계단 캐릭터 포토카드를 랜덤 증정한다. 또한 무한의계단 게임 내 마련된 티몬 이벤트 미션을 통해 티몬 캐릭터 3종 및 택배 계단 스킨도 지급한다. 이와 함께 넵튠은 신세계푸드의 노브랜드버거(NBB)와의 콜라보레이션 이벤트도 진행, 내달 말까지 '무한의계단 버거팩'이나 무한의계단 디자인이 적용된 한정판 노브랜드 콜라 구매 고객 전원에게 이벤트 스테이지 수행 시 노브랜드버거 캐릭터 '버거버거' 스킨을 지급하는 QR 코드를 제공 중에 있다. 넵튠의 무한의계단을 총괄하는 고무진 이사는 “무한의계단이 지난 9년간 꾸준히 게이머들에게 사랑받은 만큼 온·오프라인에 걸친 이벤트로 이색적인 경험을 제공하고 이를 통해 게임 플레이 재미도 극대화할 수 있도록 다양한 활동을 기획할 것”이라고 말했다. 넵튠의 대표 모바일 게임인 무한의계단은 두 손가락을 이용한 화면 터치 만으로 플레이 가능한 간단한 게임 방식과 460종의 캐릭터를 기반으로 현재 누적 다운로드 수 2500만건을 돌파했다. 올해 3월 기준 월간 활성 이용자(MAU) 수는 212만명, 아케이드 카테고리 순위(모바일인덱스 기준)는 1위에 달한다

2024.05.07 15:10강한결

생성형 AI로 사업 키우는 비결, 美 라스베이거스서 공개

[라스베이거스(미국)=김미정 기자] 생성형 인공지능(AI) 탑재한 기업 플랫폼으로 사업을 확장할 수 있는 비결이 미국 라스베이거스에서 소개된다. 서비스나우는 7일(현지시간)부터 9일까지 미국 네바다주 라스베이거스 베네시안 엑스포에서 '서비스나우 날리지 2024(ServiceNow Knowledge 2024)'를 열고 기업 통합 플랫폼과 새로운 생성형 AI 기능을 공개한다. 이 행사는 서비스나우 대표 제품인 서비스나우 소개와 개발자 커뮤니티를 위한 연례 컨퍼런스다. 솔루션 새 기능 발표와 시연, 고객사 사례 발표 등이 이뤄진다. 올해 행사 핵심 키워드는 생성형 AI다. 기업이 생성형 AI를 탑재한 서비스나우 플랫폼으로 업무 효율성을 높이고 운영 비용을 낮출 수 있는 비결이 소개된다. 행사에선 '서비스나우 플랫폼으로 생성형 AI의 힘 발휘하기' '생성형 AI로 모든 비즈니스 영역 자동화하기' 등 생성형 AI 관련 주제 발표가 진행된다. 기업이 생성형 AI로 사업 확장할 방법과 관련 사례를 소개한다. 서비스나우는 기업 전반 비즈니스 프로세스를 가속하는 솔루션을 제공하고 있다. 워크플로와 자동화를 기업 업무에 도입해 고객 비즈니스 가치를 높이고 있다. 플랫폼에 노코드와 로우코드를 활용해 프로세스를 확장함으로써 업무 방식을 최적화할 수 있다. 대표 솔루션은 '나우 플랫폼'이다. 나우 플랫폼은 자동화 기술을 통해 기업을 비롯한 고객, 직원 간 원활하고 지능적인 업무 경험을 제공하고 있다. 서비스나우는 지난해부터 나우 플랫폼에 생성형 AI를 탑재하기 시작했다. 이런 방식으로 '나우 플랫폼 벤쿠버'를 지난해 공개한 바 있다. 올해 '나우 플랫폼 워싱턴 D.C.'도 출시했다. 워싱턴 D.C. 릴리스에는 중요 상호작용을 최적화하고 비즈니스 성장을 촉진하며 끊임없이 변화하는 고객과 직원의 요구에 조직이 적응할 수 있도록 돕는 새로운 도구도 들어있다. 회사는 이번 행사에서 한층 더 강화된 생성형 AI 기능을 소개할 예정이다. 서비스나우 관계자는 "앞으로 기업 비즈니스 모든 과정에 생성형 AI 기능이 촘촘히 접목될 것"이라며 "고객은 이번 행사를 통해 서비스나우가 제시한 기업용 생성형 AI 기술을 구체적으로 알 수 있을 것"이라고 밝혔다.

2024.05.07 14:03김미정

美 전기차 기업 루시드, 1분기 기대 이하 실적...주가 급락

미국 전기차 기업 루시드가 1분기 기대 이하의 실적을 기록했다. 루시드는 6일(현지시간) 올해 1분기 매출 1억7천270만 달러(약 2천340억원), 영업손실 7억2천990만 달러(약 9천892억원), 순손실 6억8천90만 달러(약 9천228억원)를 기록했다고 발표했다. 전년 동기 대비 매출은 15.6% 증가하고 영업손실 규모는 5.48%, 순손실 규모는 12.7% 감소했다. 매출은 시장 전망치인 1억5천600만 달러를 상회했지만, 순손실은 시장 전망치인 6억5천만 달러보다 더 늘어났다. 1분기 차량 인도량은 1천967대로 집계돼 전분기 1천734대보다 13% 증가했다. 생산량은 크게 줄었다. 전분기 2천391대보다 27.7% 감소한 1천727대를 생산했다. 루시드는 사우디 국부펀드(PIF)로부터 10억 달러를 투자받아 1분기 말 기준 50억 3천만 달러의 유동성을 유지하고 있다고 밝혔다. 피터 롤린슨 루시드 최고경영자(CEO)겸 최고기술책임자(CTO)는 올해 순수전기차(BEV) 약 9천대를 생산할 계획이라고 밝혔다. 전년 8천428대보다 6.8% 가량 생산량을 늘린다는 것이다. 연내 신형 모델 '그래비티' 인도를 시작할 예정이고, 이에 따라 생산량이 늘어날 것으로 전망했다. 그래비티 이후 신형 모델 '미드사이즈(코드명)'의 경우 두 가지 버전으로 출시될 예정이라고 언급했다. 이날 루시드 주가는 시간외 거래서 7% 이상 하락한 상태다.

2024.05.07 13:08김윤희

[기고] 스노우플레이크가 제안하는 기업 환경을 위한 생성형 AI

생성형 AI는 생산성을 개선하며 데이터에서 더 많은 가치를 창출하는 새로운 방법을 제시한다. 하지만 기업은 생성형 AI를 도입하기에 앞서 '데이터는 과연 신뢰할 수 있는 것인가?', '새로운 기술 채택을 위해 컴퓨팅 환경을 새롭게 구축해야 하는가?', '생성형 AI 기능을 제공하는 애플리케이션을 구축하고 운영해야 하는가?'와 같은 다양한 고민이 생긴다. 그런데 흥미로운 것은 이 모든 고민들의 출발은 '데이터'라는 분명한 사실이다. 기업은 올바른 데이터 전략 없이 올바른 AI 전략을 수립할 수 없다. 본 글에서는 스노우플레이크 단일 플랫폼에서 제공하는 생성형 AI와 관련 기능에 관해 설명하고자 한다. 기업 환경에서 안전한 생성형 AI 활용을 위해 데이터, 대규모언어모델(LLM), 심지어 생성형 AI 애플리케이션까지 일관되게 적용할 수 있는 광범위한 데이터 보안 및 거버넌스 체계를 구축해야 한다. 또한 데이터와 이 데이터로 학습된 모델을 포함해, 전체 생성형 AI 스택들이 안전하게 보호되어야 한다. 데이터 플랫폼과 LLM 환경을 통합하여 기업 데이터가 외부로 유출되는 것을 방지하고 새로운 기술을 위한 투자 비용을 최소화하는 것도 중요하다. 아래 그림은 스노우플레이크 데이터 클라우드 플랫폼에서 제공하는 생성형 AI 기능이다. 이 모든 기능은 데이터를 기반으로 한다. 기업 전반에 분산된 데이터는 데이터의 유형, 형식, 구조와 관계없이 단일 플랫폼에 통합돼 안전하게 보호 및 관리된다. ■ 데이터에 LLM 가져오기 생성형 AI를 위한 데이터가 준비되면 사용자는 LLM 관련 기능을 안전하고 자유롭게 사용할 수 있어야 하고, AI 애플리케이션도 빠르게 구축, 활용할 수 있어야 한다. 또한 생성형 AI가 제공하는 잠재력을 최대한 활용하기 위해서는 전문가뿐만 아니라 AI 전문 지식이 없는 사용자 누구라도 서비스를 쉽고 안전하게 접할 수 있어야 한다. 이를 위해 스노우플레이크는 데이터가 있는 환경에 LLM 관련 기능을 제공하고자 스노우플레이크 코텍스(Cortex)를 개발했다. 스노우플레이크 플랫폼에서는 미스트랄, 메타, 구글에서 제공하는 LLM 모델뿐만 아니라 자체 개발한 LLM이 내장된 상태로 제공된다. 다양한 LLM은 스노우파크 컨테이너 서비스(SPCS)를 통해 데이터 플랫폼 내에서 실행, 파인튜닝 된다. 코텍스에서 제공하는 다양한 기능으로 개발 생산성과 사용자 경험을 개선하고 새로운 분석 인사이트 또한 제공할 수 있다. 이러한 LLM 관련 기능들은 서버리스 기반의 완전 관리형 서비스로 제공되기 때문에, 사용자는 생성형 AI를 위해 높은 비용을 들여 GPU 인프라를 구축하거나 관리할 필요가 없다. 필요한 시점에 코텍스에서 제공하는 서비스를 사용할 수 있으며, 사용한 만큼의 비용만 과금되기 때문에 효율적인 비용으로 생성형 AI 기반의 새로운 사용자 경험을 누릴 수 있다. 스노우플레이크 플랫폼에 내장되지 않은 다른 LLM이나 AI21 랩스, 레카(Reka), 엔비디아 네모(NeMO) 등 상용 LLM들도 스노우플레이크 마켓플레이스를 통해 사용자 환경에 간편하게 설치하고 실행할 수 있다. ■ 스노우플레이크 코텍스 스노우플레이크 코텍스는 스노우플레이크 데이터 클라우드 플랫폼의 핵심 생성형 AI 기능이다. 코텍스는 사용자가 프롬프트를 정의할 필요 없이 번역, 감정 분석, 요약과 같은 작업을 빠르고 비용 효율적으로 실행할 수 있는 기능을 제공한다. 코텍스는 LLM에 관련된 다양한 기능들을 다음과 같은 관리형 함수로 제공한다. -EXTRACT_ANSWER(미리보기): 질문과 구조화되지 않은 데이터가 입력되면 질문에 대한 답변을 제공한다. -SENTIMENT(미리보기): 요청 받은 텍스트에서 감지된 긍정 또는 부정적 감정을 제공한다.(긍정:1, 부정:-1) -SUMMARISE(미리보기): 요청 받은 텍스트의 요약을 제공한다. -TRANSLATE(미리보기): 요청 받은 텍스트를 다른 언어로 번역한다. 코텍스의 첫 번째 장점은 사용 편의성이다. 생성형 AI 기능 구현을 위해 별도의 인프라 구축이나 관리가 필요 없다. 두 번째는 구현 편의성이다. 소개한 생성형 AI 기능들은 복잡한 구현 없이 단순하게 코텍스에서 제공하는 함수를 SQL이나 파이썬 코드에서 호출하면 된다. 이외에도 코텍스는 COMPLETE 함수와 TEXT2SQL 함수를 추가로 제공한다. -Complete(미리보기): 프롬프트의 입력값을 대상으로 LLM을 사용해 응답 텍스트 결과를 제공한다. -Text2SQL(미리보기): 프롬프트에 입력된 자연어를 기반으로 스노우플레이크에서 실행 가능한 SQL문을 제공한다. 이 함수들은 다양한 LLM을 서버리스 기반의 SQL 또는 파이썬 함수 형식으로 제공하는 것이 특징이다. 사용자는 미스트랄, 라마 및 구글의 LLM을 요구사항에 맞게 선택해 사용할 수 있다. COMPLETE와 TEXT2SQL 함수는 스노우플레이크 환경에서 운영되는 앱 개발에도 쓰일 수 있다. 스트림릿에서 개발한 단 몇 줄의 파이썬 코드로 특정 업무 목적에 맞는 챗봇을 개발하거나 커스터마이징한 코파일럿을 개발해 활용할 수 있다. ■ 도큐먼트 AI(미리보기 기능) 도큐먼트 AI는 스노우플레이크의 자체 멀티 모달 LLM을 활용해 비정형 파일(예: PDF, WORD, TXT 등)을 새로운 데이터 소스로 처리하는 기능이다. 비정형 데이터를 정형화할 수 있는 파이프라인 기능이 포함돼 있으며, 직관적인 UI로 데이터를 사전 학습하고 비정형 데이터에서 필요한 정보를 자연어 기반으로 쉽게 추출할 수 있다. ■ 유니버설 서치(미리보기 기능) 유니버설 서치는 스노우플레이크 플랫폼 내의 데이터와 앱을 간편하게 검색하고 사용할 수 있게 하는 LLM 기반 검색 기능이다. 데이터베이스, 테이블, 칼럼과 같은 메타 정보를 탐색하는 데이터 거버넌스 기능으로 활용할 수도 있다. 마켓플레이스의 데이터나 앱을 쉽게 검색하거나, 스노우플레이크와 관련된 기술 사항을 자연어 기반으로 질의하고 원하는 답변을 얻음으로써 사용자 경험을 개선하는 용도로 활용된다. ■ 스노우플레이크 코파일럿(미리보기 기능) 코파일럿은 자연어로 SQL을 생성하고 구체화하는 LLM 기반의 개발 도우미다. SQL을 모르는 사용자도 쿼리를 생성하고 구체화함으로써 데이터 분석에 대한 어려움을 낮추고 진정한 '데이터 민주화'를 경험할 수 있다. 이 텍스트 코드 변환 기능은 앞서 설명한 코텍스의 Text2SQL 함수를 사용해 함수 또는 사용자 애플리케이션에서 활용할 수 있다. ■ 스노우플레이크 아크틱 스노우플레이크는 올해 4월 아파치 2.0 라이선스로 업계 최고 수준의 개방성과 성능을 제공하는 기업용 LLM인 '스노우플레이크 아크틱'을 출시했다. 이 파운데이션 모델은 스노우플레이크만의 독창적인 전문가 혼합(MoE) 아키텍처로 설계돼 동급 최고의 성능과 생산성을 보인다. 스노우플레이크 아크틱은 다음과 같이 다섯 개의 서로 다른 용량을 가진 모델을 제공한다. 아크틱은 스노우플레이크 AI 연구소에서 실제 검색 워크로드에 중점을 두고 개발한 LLM이다. MTEB에 따르면 3억 3천400만 개의 매개 변수를 가진 아크틱(Snowflake Arctic-Embed-L) 모델은 오픈AI에 비해 추정 매개변수가 4분의 1 수준밖에 되지 않는다. 데이터의 차원은 3분의 1 수준이지만, 검색 성능은 더 높다. 이는 10억 개 이상의 매개변수를 가진 모델들도 달성하기 어려운 성능이다. 아크틱의 주요 특징은 다음과 같다. -아크틱 임베드 모델은 5가지 크기(X-Small부터 Large)로 제공된다. 모델의 크기는 2천300만~3억 3천400만 개의 매개변수로 구성돼 있으며, 사용자는 요구사항에 따라 적합한 모델을 선택하여 사용할 수 있다. -아크틱은 아파치 2.0 라이선스를 통해 제공되며, 가중치, 코드, 데이터 레시피 및 연구 과정에서 얻은 다양한 인사이트를 제공한다. -아크틱은 Dense + MoE 아키텍처를 혼용해 설계됐다. 이에 학습 효율성은 높아졌고 더 낮은 비용으로 더 나은 성능을 제공한다. 아크틱 모델의 크기는 유사한 품질의 임베딩 모델과 비교해 더 작기 때문에 대기 시간을 줄이고 TCO를 절감하는 데 도움이 된다. -검색 증강 생성(RAG) 또는 시맨틱 검색 서비스에서 아크틱을 사용할 경우, 높은 검색 성능에 기반한 고품질의 서비스를 제공할 수 있다. -스노우플레이크 아크틱은 현재 허깅페이스에서 직접 다운로드 받아 사용할 수 있으며, 곧 스노우플레이크 코텍스에 통합될 예정이다. 또한, 아마존웹서비스(AWS), 라미니, 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티, 레플리케이트 및 투게더 AI의 카탈로그를 통해서도 제공될 예정이다. -일반적인 메트릭스를 위한 모델 훈련과 달리 아크틱은 SQL 생성, 코딩 지원 및 명령 이행과 같이 기업 환경에서 뛰어난 성능을 제공하기 위한 특화된 데이터 커리큘럼을 채택했다. 그동안 AI 모델 학습 알고리즘은 심층 신경망(DNN), 순환신경망(RNN), 장단기 기억(LSTM) 등을 거쳐 트랜스포머까지 꾸준히 발전해 왔지만, AI 모델 분야에서 트랜스포머 이후로 획기적인 발전을 이뤄내지는 못했다. 오픈AI가 매개변수를 늘려 LLM을 선보인 이후부터는 알고리즘 개선보다는 아키텍처 개선에 집중하기 시작했다. 현재 AI 아키텍처는 환각 현상, 경량화, 그리고 혼합이라는 세 가지 관점에 주력하고 있다. 아크틱의 가장 큰 장점은 앞서 설명한 세 가지 주력 사항을 모두 개선하는 독점적인 MoE 아키텍처를 기반으로 설계되었기 때문에, 작은 모델을 유지하면서도 효율적으로 실행한다. 다음 그림과 같이 아크틱은 유사한 다른 모델과 비교해 뛰어난 학습과 추론 성능을 보인다. 아크틱 모델 학습의 경우, 서로 다른 데이터 세트로 구성된 세 단계로 나눠 진행한다. 첫 단계에서는 1T 토큰을 사용해 일반적인 기술을 학습하고, 이후 두 단계에서는 1.5T 및 1T 토큰을 사용해 기업 중심의 기술을 집중적으로 학습한다. 이러한 점진적인 학습 과정은 더욱 복잡한 매트릭스를 효과적으로 학습할 수 있는 기반을 제공한다. 아크틱 모델 추론 효율성도 학습과 마찬가지로 좋은 성능을 제공한다. 아크틱 모델은 특정 작업을 수행할 때 필요한 매개변수만을 활성화 상태로 유지하기 때문에 전체적인 연산 비용을 절감하고, 빠르고 효율적인 추론을 가능하게 한다. 빠른 추론 성능은 기업 환경에서 LLM을 사용하는 경우 매우 중요한 평가 지표로 여겨진다. 일반적으로 LLM은 매개변수 수가 많은 모델을 의미한다. 이러한 파운데이션 모델의 가장 큰 문제점은 높은 비용이다. 초창기 LLM 분야에서는 고밀도 트랜스포머 아키텍처를 주로 선택했다. 모델 품질 개선을 위해 모델 크기를 쉽게 확장할 수 있었기 때문이다. 하지만 임계값 이상으로 모델 크기를 확장하기 위해서는 높아지는 연산 복잡도만큼 많은 컴퓨팅 비용이 소요된다. 오늘날 GPU는 매우 비싼 리소스이기 때문에 기존 고밀도 트랜스포머 모델을 학습하는 것은 시간과 비용 측면에서 큰 투자가 아닐 수 없다. 이러한 문제점을 해결하기 위해 사용된 방법이 MoE 아키텍처이다. MoE 아키텍처는 모델 레이어를 전문가 하위 네트워크가 원래 레이어와 동일한 크기의 MoE 레이어로 대체한다. 이로써 모델 학습과 추론에 필요한 컴퓨팅 비용을 증가하지 않으면서도 모델 품질을 향상한다는 장점이 있다. 스노우플레이크 AI 연구팀은 MoE 모델 내의 전문가 수와 전체 매개변수의 크기, 그리고 이 전문가를 조합하는 방법에 따라 모델 품질을 향상할 수 있다는 것을 입증했다. 480억 매개변수로 설계된 아크틱의 경우 세분된 128개의 전문가를 가지고 있으며, 이들 중 상위 2개의 전문가만 선택해 동작하도록 설계됐다. 이 과정에서는 17억개 규모의 매개변수만이 활성화되기 때문에 다른 MoE 아키텍처 기반의 LLM과 비교했을 때 탁월한 자원 효율성과 성능을 보인다. 또한, 스노우플레이크 아크틱은 학습 비용을 크게 절감했다. 이 모델은 아마존 EC2 P5 인스턴스를 통해 유사한 다른 모델들의 약 8분의 1 정도의 학습 비용만 사용하며 비용 효율성을 실현했다. 이러한 경제적인 이점은 기업 환경에서 비용 부담 없이 대규모 데이터와 복잡한 워크로드를 처리하는 데 도움을 줄 것이다. 앞으로 더 많은 기업이 스노우플레이크 데이터 플랫폼에 결합한 고성능 언어 모델을 접하고 그 무한한 가능성을 경험할 수 있기를 기대한다.

2024.05.07 11:30조성현

넷마블 "나혼자만 레벨업, 글로벌 흥행 기대"

넷마블이 유명 웹툰 '나 혼자만 레벨업' IP를 활용한 모바일-PC 액션 게임 '나 혼자만 레벨업: 어라이즈'을 오는 8일 글로벌 출시한다. 이 게임은 넷마블이 역대 출시한 게임 가운데 가장 높은 글로벌 사전등록자 수(1천200만 명)를 기록해 흥행 기대감을 높였다. 넷마블은 게임의 출시를 앞두고 언론 미디어를 대상으로 넷마블 네오의 김준성 개발총괄 본부장, 진성건 개발 PD, 넷마블 문준기 사업 본부장과의 서면 인터뷰를 진행했다. 문준기 사업본부장은 "플랫폼 구애 없이 많은 이용자분께 다가가는 것이 목표"라며 "모바일에서도 PC에서도 최대화된 액션의 재미를 느끼실 수 있도록 준비하고 있으니 많은 기대 부탁드린다"라고 자신했다. 넷마블네오의 김준성 개발총괄 본부장도 "원작에 등장하는 감동적인 장면을 직접 플레이로 즐길 수 있다"라며 "원작에 나오지 않았던 오리지널 스토리나 비하인드 스토리들을 게임 내에 추가하면서 원작 팬들도 게임을 하면서 새로운 스토리를 만날 수 있도록 완성도를 높였다"라고 말했다. 나혼렙은 글로벌 누적 조회수 143억 뷰를 기록한 인기 웹툰 '나혼렙' IP를 활용한 최초의 모바일 게임이다. 지난 2021년부터 개발을 시작해 현재 약 100여명이 넘는 순수 개발진들이 개발 중이다. 문 본부장은 "글로벌 사전 예약 가운데, 우선 한국에서 반응이 뜨겁다. 한국 뿐만 아니라 일본, 미국, 프랑스 등 전 세계의 많은 이용자분들께서 사전등록을 진행했다며 "IP가 가지고 있는 성진우의 성장 과정, 몰입력 있는 서사, 그리고 멋진 전투 액션을 즐기는 IP팬들의 반응뿐만 아니라, 스타일리시한 액션을 직접 즐길 수 있다는 점에서 많은 액션 게임 팬분들의 응원으로도 판단하고 있다"고 말했다. 나혼렙의 매출과 관련해 문 본부장은 "최근 글로벌 누적 매출 10억 달러를 돌파한 '일곱 개의 대죄: 그랜드 크로스' 이상의 캐시카우로 발돋움할 수 있을 것"이라고 내다봤다. 개발진의 설명에 따르면 이 게임은 액션 게임의 재미를 쉽게 느끼고 몰입할 수 있도록 개발됐다. 전투의 재미를 살리면서도 IP를 충실히 구현해 원작 팬과 게이머 모두를 사로잡는다는 것이 개발진의 설명이다. 진 PD는 "싱글플레이 환경을 통한 액션감을 극대화하는 것에 집중했고 스피디하고 스타일리쉬한 액션, 기민한 조작을 핵심 재미 요소로 기획했다. 완성도 높은 액션을 기반으로 글로벌 이용자와 레이드, 던전 공략 기록을 경쟁하는 타임어택 콘텐츠 등을 지원할 예정"이라고 말했다. 이어 "액션 게임이 익숙하지 않은 이용자들을 위해서 플레이가 재미있는 게임인 동시에 플레이 학습이 쉬운 게임으로 만들었다. 튜토리얼 구성 외에도 직관적인 조작과 캐릭터들의 빠른 반응, 명확한 공격 범위, 회피 타이밍 알림 신호 등 많은 요소를 구현했다"고 덧붙였다. 과금구조(BM)에 대해서는 해외와 국내 BM 차이 없이 모든 유저들이 수용 가능한 수준으로 BM을 구성하는 것이 목표라고 밝혔다. 또 인게임 재화로 아이템을 얻을 수 있고 소위 '천장'을 적극 제공할 계획이다. 더불어 정식 출시 시점에 구독 상품이 추가될 예정이다. 문 본부장은 "나혼렙은 글로벌 원빌드로 서비스를 준비하고 있다 보니, 해외와 국내의 BM의 차이 없이 모든 유저들이 수용 가능한 수준으로 BM을 구성하는 것을 목표로 했다"며 "전체적으로 싱글 플레이 중심의 게임성이다보니, 과금을 선택할 수 있으나 게임 플레이를 통한 아이템 획득 및 제작으로도 게임을 진행할 수 있는 방향으로 준비 중이고 이러한 형태는 글로벌 이용자분들도 거부감 없이 받아들일 수 있는 수준이라고 생각한다"고 말했다. 현재 나혼렙은 태국과 캐나다에서 미리해보기(얼리액세스) 서비스를 진행 중이다. 문 본부장은 "얼리액세스에서는 필수적으로 검증하고자 하는 지표와 상품들을 테스트해보았다"며 "매출 부분보단 밸런스에 대한 검증과 여러 가지 상품이나 이용자 반응을 테스트하는 것이 목적이였고 결과 역시 만족할만한 데이터를 확인했다"고 말했다. 이어 "얼리액세스 기간 내 매출 측면에서의 추가적인 보완점들도 보여서 정식출시에는 월정액이나 패스 BM 등이 일부 보완되는 부분도 존재한다 가장 크게는 구독 상품이 정식출시 시점에 추가될 예정이다"라고 덧붙였다. 나혼렙은 모바일과 PC 크로스플레이를 지원한다. 넷마블은 두 플랫폼간 조작감 차이를 최소화하기 위해 연구를 거듭해왔다. 진 PD는 “시점이 TPS(3인칭)뷰이다 보니 이용자가 가장 즐겁게 플레이 할 수 있는 플레이 조작 방식에 대해서 R&D를 계속 했다. 현재 조작계는 원했던 조작기능의 대부분을 구현한 상태”라고 설명했다. 그는 “모바일에서의 조작성이 약간 아쉬운 부분이 있다”면서도 “모바일 버전은 직접 조작의 재미보다는 되도록 적은 조작으로 적을 잘 공격하고 피하는 편의성을 더 중요시해 제작했다. 키보드와 마우스, 콘트롤러보다 부족함이 없도록 계속해서 연구할 것”이라고 말했다. 나혼렙은 향후 스팀과 콘솔 플랫폼으로도 영역을 확장할 계획이다. 콘솔 버전은 이르면 2025년으로 예상된다. 넷마블은 콘솔 출시 전 스팀 출시를 고려 중이다. PC 버전을 스팀에 이식하는 것으로 충분히 성공 가능성이 있다고 전망했다. 나혼렙은 출시 시점 18챕터 스테이지 공개를 시작으로 주기적으로 스토리 모드와 이벤트, 레이드 등의 신규 콘텐츠 업데이트를 진행할 예정이다. 업데이트 소식이나 고민들을 미리 소통하는 자리와 온·오프라인 행사를 마련하는 등 이용자와 소통도 강화할 계획이다. 김 본부장은 “정식출시 시점에 맞춰 스토리 콘텐츠 확장을 생각하고 있으며 길드 콘텐츠, 레이드 콘텐츠 등 다양한 신규 콘텐츠 개발도 진행하고 있다. 많은 기대 부탁드린다”고 당부했다.

2024.05.07 11:29강한결

'망분리'는 갈라파고스를 야기하는 규제인가

공공 및 금융기관의 망분리에 대한 논란이 뜨겁다. 망분리를 리셋하고 원점에서 다시 보안 아키텍처를 구축해야 한다는 목소리도 적지 않다. 망분리의 효과를 인정하되, 부작용을 완화시킬 방안에 대해 차분히 논의를 진행해야 할 때이다. ■ 망 분리 효과 우리나라 공공기관과 금융기관은 인터넷 접속단말(PC)에 망분리 정책을 시행하고 있다. 금융기관은 주요 서버접근 단말(PC)에도 망분리를 적용하고 있다. 망분리는 해당 단말을 외부 인터넷과 연결되지 않도록 차단하는 역할을 하기 때문에 인터넷을 통한 해킹을 효과적으로 예방할 수 있다. 만일 해킹이 되었다 해도 자료가 인터넷으로 유출되는 것을 막아줄 수 있다. 이처럼 망분리는 단말보안(PC보안)에 효과를 보였다. 2017년, 전세계 금융기관이 '워너크라이'를 필두로 하는 랜섬웨어 공격으로 큰 피해를 입었다. 그러나 우리나라 금융기관은 피해가 전무했다. 이는 상당부분 망분리 효과로 판단된다. 실제로 망분리 사업을 총괄했던 모 금융기관 보안임원은 망분리 도입 후 PC에서 발견된 악성코드는 이전대비 80% 감소했다고 말할 정도이다. 위와 같은 이유로 금융, 공공기관 최고보안책임자(CISO)는 단말 망분리를 유지하는 것을 선호할 수밖에 없다. 망분리를 걷어낼 경우, 단말보호 및 악성코드 차단에 큰 부담을 안게 되기 때문이다. 금융, 공공분야 CISO중에서는 '지금도 위태위태하게 유지되고 있는 보안체계에서 단말 망분리마저 걷어내게 된다면 앞으로는 밤잠을 잘 수 없을 것 같다'고 하소연한다. 망분리는 기술적으로 '논리적 망분리 방식'과 '물리적 망분리 방식'으로 분류된다. 금융기관의 경우 편리성과 유연성을 중시하기 때문에 대부분 '논리적 망분리 방식'을 도입하여 활용하고 있다. ■ 망분리에 대한 비난 망분리에 대한 비판은 크게 세가지 관점으로 언급된다. 첫번째, 망분리는 업무 효율성을 저해한다고 한다. 특히 소프트웨어 연구개발 업무에 걸림돌이 된다는 평가를 받는다. 두번째, 퍼블릭 클라우드의 적극적 활용이나 서비스형 소프트웨어(SaaS: Software as a service) 활용에도 걸림돌이 되고 있다고 한다. 마지막으로 '망분리 규제'는 한국에만 있고 선진국에는 없기 때문에 '갈라파고스 규제'라는 주장이다. ■ 소프트웨어 연구개발 생산성 저해를 초래한다는 비판과 대안 태생적으로 보안부서와 연구개발부서 사이에는 시각이 다르다. 망분리 이외 다른 보안 솔루션을 적용할 때도 연구소는 불편함을 호소한다. 연구소는 개방과 공유를 선호하며 지적재산권에 대한 개념은 상대적으로 낮은 편이다. 반면 보안부서는 업무가 다소 불편해지더라도 회사의 핵심기밀정보와 개인정보는 반드시 보호해야 한다는 입장이다. 업무 특성상 소프트웨어 개발자들은 인터넷에 있는 외부 소스코드 저장소를 활용해 개발을 수행하기 때문에 인터넷 망분리 환경에서는 개발업무 효율성이 크게 저해된다고 말한다. 소프트웨어 개발에서 속도 중요성이 계속 강조되고 있다. 최근 소프트웨어 개발측면에서 '애자일 방법론'이 각광받고 있다. 이는 빠른 서비스 출시와 업데이트를 목표로 한다. '애자일 방법론'은 데브옵스(DevOps)의 유래가 된 방법론이다. 개발완료 후 최대한 빠르게 실제 서비스에 적용하여 신속한 서비스 업데이트를 꾀하고 경쟁력을 강화하는 방식이다. 애자일 방법론에 익숙해진 소프트웨어 개발회사는 데이터 교류를 보수적으로 허용하는 망분리가 어색할 수밖에 없다. 소프트웨어 개발측면에서 위와 같은 요구사항이 대두되었기에 금융당국에서는 금융기관 소프트웨어 개발망에 대해서는 망분리 예외를 허용했다. 개발자들의 직접 인터넷 접속을 허용한 것이다. 대신 유해사이트 접속차단, 악성코드통제 등 망분리를 대체할 수 있는 정보보안 체계를 강화하는 것을 주문했다. 개발망과 서비스 운영망은 별도 분리하도록 보완조치도 마련했다. 개발망에서 완성된 결과를 서비스망에 적용하고자 할 경우, 시큐어 게이트웨이(망연계 솔루션 등)를 통하도록 명시했다. 개발망 침해사고는 서비스 운영망 해킹사고로 바로 이어질 수 있기에 이를 예방하도록 하는 조치였다. ■ 퍼블릭 클라우드와 SaaS 서비스 활용제약에 대한 비판과 대안 공공기관과 금융기관은 퍼블릭 클라우드를 통해서 민감한 고객의 개인정보를 처리하는데 보수적인 입장이다. 퍼블릭 클라우드 개인정보 유출통제는 시스템이 내부에 있을 때 보다 쉽지 않기 때문이다. 해외에서도 퍼블릭 클라우드에서 유출사고가 빈번하게 발생하고 있다. 퍼블릭 클라우드에 올라 간 고객 데이터의 국외이전 통제문제도 까다롭다. 데이터가 여러 번 복제되는 클라우드 특성 상, 고객 데이터가 어디에 있는지 특정하기 어렵기 때문이다. 이처럼 공공/금융기관의 퍼블릭 클라우드 활성화는 개인정보보호 측면에서 해결해야 할 부분 또한 적지 않다. 퍼블릭 클라우드를 제공하는 곳 대부분은 해외기업이다. 해외 퍼블릭 클라우드 기업은 전산감사자료(Audit) 협조에 제한적으로 대응할 수도 있다. 해킹 침해사고가 일어나더라도 수사기관의 조사역량에 크게 제약이 생기기도 한다. 적지 않은 나라에서 공공기관과 금융기관이 퍼블릭 클라우드 활용이 민간에 비해 보수적인 이유이다. 이는 민감정보를 처리하는 기관이 독자적으로 자체 프라이빗 클라우드를 구축하거나 또는 전용 클라우드센터 구축에 힘쓰는 배경이기도 하다. 클라우드 업체에게 공공전용 클라우드 센터를 구축해달라고 요청하거나, 공공클라우드 센터를 물리적으로 구축한 후 운영을 민간 클라우드 업체에게 맡기는 방식이다. '망분리 때문에 챗지피티(ChatGPT), 슬랙(Slack)과 같은 외부 SaaS 서비스 활용이 번거롭다'는 문제는 선별적 허용을 제안해본다. 업무효율성과 생산성을 위해 적극 도입해야 할 서비스가 있다면 개인정보 유출통제와 검역소 기능을 가진 '시큐어 게이트웨이'를 경유하여 내부 단말에서 접속되도록 허용하는 방식으로 풀어나가는 것을 제안한다. 금융기관의 경우 '비조치 의견'을 통해 특정 서비스에 대해서는 점진적으로 확대해 나가는 것을 기대해본다. ■ 미국 등 선진국은 망분리 규제가 없다는 주장과 자율보안의 전제 조건 미국은 망분리 등 기술적 보호조치를 공공 및 금융기관에게 일률적으로 강제하지 않는다. 다만 미국 공공기관도 기밀보호 수준이 최상위인 곳은 망분리를 시행하고 있다. 일급 정보기관이 활용하는 '비밀 클라우드 센터(Secret Cloud Center)'는 물리적 위치도 비밀로 유지되며, 운영 역시 검증된 미국시민에 의해서만 이뤄진다. 미국은 자율보안을 강조한다. 대신 사고발생 시 징벌적 과징금을 부과한다. 정보보호에 대한 투자는 자율에 맡기되, 주요한 개인정보 유출사고가 발생했을 때는 천문학적 과징금을 부과한다. 2019년, 미국 연방거래위원회(FTC)는 고객 개인정보 관리를 소홀히 한 페이스북에 50억 달러(한화 약 6조원) 과징금을 부과하기도 했다. 아직 한국은 징벌적 과징금 문화가 정착되지 않았다. 보안사고에 대한 정부기관의 책임은 여전히 크게 존재한다. 중대 보안사고가 발생하면 '정부는 그동안 도대체 뭐하고 있었나' 라고 여전히 목소리를 높인다. '잘못된 것은 모두 정부 탓'이 되는 분위기 속에서 공공, 금융기관 망분리를 비롯한 보안규제를 전면적으로 해제하는 것은 쉽지 않은 선택일 수 있다. 보안사고의 책임을 정부기관에 묻지 않는 문화가 정착되었을 때, 비로소 자율보안체제가 안착될 수 있다. 대규모 보안사고 발생으로 매출의 몇 퍼센트에 달하는 과징금도 감내할 수 있을 때, 기업체에게 자율보안의 선택지도 제공될 것이다. 다만 이는 사회 전체 인식의 변화가 필요한 장기적 과제이며 우리가 풀어나가야 숙제이다. 보안은 기밀성과 가용성이라는 상호갈등관계의 균형추를 끊임없이 조정하는 작업이다. 데이터 활용성을 높이는 것과 보안을 강화하는 것에 대한 골디락스(Goldilocks) 균형은 업무특성과 시대변화에 따라서 달라진다. 망분리 정책 역시 시대변화와 개별 비즈니스 특성에 따라 변화해야 하는 것은 당연한 일이다. 소프트웨어 개발효율성, 외부 SaaS서비스 활용을 통한 업무경쟁력 강화, 금융/공공기관 보안사고 발생 시 정부당국의 책임, 깊어 가는 CISO의 고민을 함께 테이블에 올려 놓고 균형추를 다시한번 점검할 시기이다. 올해 추진되는 공공기관 클라우드 네이티브 선도사업 등을 통해서 기존 망분리대체 정보보호체계를 적용하여 안전성을 검증한 후, 단계별로 확대해 나가는 것이 해결책 중 하나로 제시되는 이유이다.

2024.05.07 11:22김대환

"애플, AI 데이터센터용 자체 칩 개발 중"

애플이 데이터센터에서 인공지능(AI) 소프트웨어를 실행하는 자체 칩을 개발하고 있다고 월스트리트저널(WSJ)이 6일(현지시간) 정통한 소식통을 인용해 보도했다. 보도에 따르면, 데이터센터용 애플 칩의 내부 코드명은 프로젝트 'ACDC'로 수년 간 개발이 진행된 것으로 알려졌다. 소식통에 따르면, 애플 서버 칩의 구성요소는 AI 모델 훈련보다는 AI 모델 실행(추론)에 중점을 둘 가능성이 높다. 오픈AI 챗GPT 등장 이후, 마이크로소프트, 메타와 같은 경쟁사들이 생성형 AI 시장에 진출하며 적극적인 투자에 나선 이후 상대적으로 애플이 AI 분야에서 뒤쳐진 것이 아니냐는 지적이 많았다. 이에 팀 쿡 애플 최고경영자(CEO)는 투자자들에게 애플이 AI 기술에 투자하고 있으며, 곧 주요 AI 발표가 있을 것임을 강조해왔다. 1분기 실적 발표 자리에서 팀 쿡은 “애플은 생성형 AI 분야에서 맞이할 기회를 매우 낙관적으로 보고 있다”면서 “앞으로 몇 주 안에 AI와 관련해 큰 발표 계획을 갖고 있다”고 밝혔다. 애플은 다음 달 6월 WWDC 2024에서 차세대 아이폰 운영체제 iOS18 등 소프트웨어에 탑재될 생성형 AI 기능을 선보일 것으로 예상된다. 또, 애플은 오프라인에서 실행할 수 있는 자체 언어 모델을 개발해 온 것으로 알려져 있으며, iOS18에 AI 기술을 탑재하기 위해 오픈AI, 구글 등과 논의 중이다.

2024.05.07 11:08이정현

LG전자, '가전 폐배터리' 수거해 재활용한다

LG전자가 무선청소기 폐배터리 수거와 재활용에 앞장서며 ESG 경영을 실천한다. LG전자는 5월 7일부터 6월 30일까지 '배터리턴' 캠페인을 진행한다. 무선청소기 폐배터리를 수거해 고객이 자원순환에 동참토록 하고 새 배터리 구입 시 할인해 주는 것이다. 이 캠페인은 2022년부터 연 2회씩 꾸준히 진행돼 이번에 5회차를 맞았다. 올해부터는 LG전자와 한국환경공단, E-순환거버넌스가 공동 주관한다. 이와 관련해 LG전자는 7일 한국환경공단·E-순환거버넌스와 함께 경남 창원 LG스마트파크2에서 '소형 2차전지 수거·재활용 업무협약'을 맺었다. 협약식에는 LG전자 정기욱 청소기사업담당, 한국환경공단 정재웅 자원순환이사, E-순환거버넌스 정덕기 이사장 등이 참석했다. LG전자와 두 기관은 전자제품의 자원순환체계를 구축·운영하고 재활용 우수기업 인센티브 등 관련 제도 도입을 추진하며 순환경제사회로의 전환을 위해 협력하기로 했다. LG전자 '코드제로 A9S' 무선청소기 폐배터리 1개에서는 니켈(31.91g), 코발트(4.21g), 리튬(6.06g), 망간(2.04g)의 희유금속(rare metal)이 회수된다. LG전자는 수거한 폐배터리에서 추출된 희유금속을 새로운 배터리 재료로 재활용할 계획이다. 지금까지 2년(22년~23년) 동안 누적 6만3천여 명의 고객이 LG전자 배터리턴 캠페인에 참여했다. LG전자가 수거한 폐배터리의 총 무게는 51만2천톤, 수량으로는 11만3천여 개에 달한다. 여기에서 추출된 희유금속은 LG전자 코드제로 A9S 기준 약 10만 개의 새 배터리를 만들 수 있는 양이다. 캠페인 참여를 원하는 고객은 제조사 관계없이 사용했던 무선청소기 폐배터리를 전국 LG전자 서비스센터에 반납하면 된다. 폐배터리 반납 후 서비스센터에서 LG전자 코드제로 A9S 무선청소기의 새 배터리를 구입하면 2만원 할인을 받는다. LG전자 서비스센터 방문이 어려운 고객은 가까운 폐가전 수거함에 폐배터리를 반납하면 된다. 폐가전 수거함 위치는 자원순환 실천플랫폼 홈페이지에서 확인할 수 있다. 이 경우에도 LG전자 홈페이지에서 최대 1만1000원 할인된 가격으로 새 배터리를 구매할 수 있다. LG전자 H&A 사업본부 리빙솔루션사업부장 백승태 부사장은 “프리미엄 무선청소기 코드제로 A9S로 차별화된 고객경험을 제공하는 것은 물론, 폐배터리를 수거해 재활용하는 등 순환경제사회로의 전환을 위해 다양한 ESG 활동을 이어갈 것”이라고 말했다.

2024.05.07 10:00이나리

사람인, 채용 솔루션 '리버스'와 인사관리 솔루션 '제이드' 연동

사람인(대표 황현순)이 채용 관리 솔루션(ATS, Applicant Tracking system) '리버스'에 인사관리 솔루션 '제이드'를 연동했다고 7일 밝혔다. 이번 연동은 리버스에서 채용을 넘어 인사관리 기능을 연동한 첫 사례다. 연동을 통해 제이드를 사용 중인 기업은 리버스와 제이드 간 직원 정보를 자유롭게 내보내거나 불러올 수 있게 됐다. 리버스에서 채용한 최종 합격자 정보를 클릭 한 번으로 제이드로 전송해 별도의 절차 없이 바로 임직원으로 등록할 수 있다. 반대로 제이드에 등록된 직원들을 리버스로 불러와 진행 중인 채용의 평가자로 초대하는 것도 가능하다. 합격자 정보 내보내기나 직원 불러오기 기능 모두 여러 명을 한 번에 선택해 진행할 수 있어 편리하다. 사람인이 올해 출시한 리버스는 공고 게재부터 서류 검토, 면접, 평가 및 합격 발표까지 채용의 모든 절차를 쉽고 간편하게 진행할 수 있는 원스톱 채용 관리 솔루션이다. 여러 채용 플랫폼에 게재한 공고와 후보자들을 한 곳에서 관리할 수 있으며, 리버스에 게재한 공고를 사람인, 랠릿, 잡브레인 등 채용 플랫폼에 클릭 한 번으로 연동 가능하다. ▲실시간 협업 평가 ▲면접 스케쥴링 ▲노코드 채용 홈페이지 제작 ▲채용 데이터 분석 ▲후보자나 합격자에 대한 기프티콘 발송 등 편의성을 높이는 다양하고 혁신적인 부가기능도 갖췄다. 휴먼컨설팅그룹(HCG)이 만든 올인원 e-HR 솔루션 제이드는 ▲조직/인사 ▲급여 ▲세무 ▲근태 ▲평가 ▲교육 등 임직원 인사관리 분야를 망라한다. 체계적인 인사조직을 갖추기 어려운 중견· 중소기업들이 각 회사의 사정에 맞게 맞춤형으로 활용할 수 있다. 리버스는 기업들이 부담 없이 이용할 수 있도록 프로모션도 실시 중이다. 오는 6월까지 가입하는 기업들에게는 올해말까지 리버스를 무료로 체험하고, 2025년부터 2026년까지 2년간은 정가에서 50% 할인된 가격으로 이용할 수 있는 파격 특전을 제공한다. 리버스는 모든 기능을 제공하는 단일 상품으로 구성됐으며, 정가는 월 5만원이다. 올해 4월까지 가입하면 내년과 내후년에는 월 2만5천원만 내면 되는 셈이다. 연간 구매시에는 10%를 추가 할인해준다. 사람인 이경호 실장은 “채용 업무를 혁신하기 위한 여러 방안을 모색하는 가운데, 제이드와의 연동으로 그간 인사담당자들이 겪던 불편을 해소하게 됐다”라며, “앞으로도 채용 프로세스 상 불편한 점을 지속 발굴하고 개선해 나갈 것”이라고 말했다.

2024.05.07 08:40안희정

모토로라 新 플립형 폴더폰 '레이저 50 울트라' 실물 유출

중국 모토로라의 신제품 플립형 폴더블 스마트폰이 출시를 앞두고 실물이 유출됐다. 6일 중국 언론들은 91모바일스를 인용해 중국 모토로라가 올 상반기 출시할 폴더폰인 '레이저 50 울트라'의 실물로 추정되는 제품 이미지를 게재했다. 이 제품의 내부 코드명은 '글로리(Glory)'로 알려졌다. '레이저 40 울트라'의 후속작인 이 제품의 출시는 연초부터 관심을 모아왔으며 지난 달 중순 관련 통신 인증설이 제기되기도 했다. 91모바일스가 공개한 실물 이미지에 따르면 외관상 모토로라의 '엣지 40 울트라' 모델과 유사하다는 평가가 나왔다. 하드웨어 스팩상 최대 12GB 램과 512GB 내장 메모리 조합을 제공하며 세 가지 색상으로 출시된다. 시중 스마트폰 시장에서 하이엔드급 플래그십 제품으로 출시가 예상되며, 100만 원을 넘는 가격에 출시가 유력하다. 이 제품은 미국 시장에서 판매가 유력하며, 미국 현지 통신사 버라이즌과 협력해 레이저 브랜드로 판매될 예정이다. 전작인 모토 레이저 40 울트라 스마트폰은 지난해 6월 5천699위안(약 107만 원)에 출시됐다. 이 제품은 퀄컴의 스냅드래곤 8+ 프로세서를 탑재하고 3.6인치 외부 디스플레이가 144Hz 주사율을 지원하며, 6.9인치의 내부 OLED 디스플레이가 1~165Hz의 LTPO를 지원한다. 3800mAh의 배터리를 내장하고 33W 유선 고속 충전, 5W 무선 충전을 지원한다.

2024.05.07 08:19유효정

  Prev 121 122 123 124 125 126 127 128 129 130 Next  

지금 뜨는 기사

이시각 헤드라인

단통법 이후 휴대폰 싸게 사면 위약금 폭탄 온다

폭염·장마로 ‘밥상 물가’ 비상…"수박·닭·상추 귀한 몸"

이근주 핀산협회장 "스테이블코인, 디지털 금융 주권 지키는 핵심"

단통법 사라지고 매장마다 보조금 달라진다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.