• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 데이터'통합검색 결과 입니다. (980건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

메타, '라마' 차기 버전 유럽에 안 판다…왜?

메타가 인공지능(AI) 모델 '라마(Llama)'의 차기 멀티모달 버전을 유럽연합(EU) 기업들에 팔지 않기로 했다. 유럽 규제환경이 예측 불가능하다는 이유에서다. 미국 뉴스매체 액시오스는 18일 메타가 몇 달 후 출시할 '라마' 멀티모달 버전을 EU 시장에 출시하지 않을 것이라며 이같이 보도했다. 이에 따라 유럽 기업들은 비디오를 비롯한 오디오, 이미지, 텍스트를 모두 이해·처리하는 라마 멀티모달 모델을 사용할 수 없게 된다. 또 비EU 기업들도 이 모델을 사용한 제품과 서비스를 유럽에서 제공할 수 없게 될 가능성이 높다. 다만 텍스트 전용 버전인 '라마 3'는 EU 내에서도 출시 될 예정이다. 메타는 이런 결정을 내린 이유가 EU의 기존 데이터 보호법인 일반데이터보호법(GDPR) 때문이라는 입장이다. 이 기업은 지난 5월 페이스북·인스타그램 게시물을 통해 모델을 훈련할 계획이었다. 당시 유럽 사용자들에게 데이터 수집을 거부할 수 있는 권리인 옵트아웃(opt-out)을 지원했다. 그러나 EU 규제 당국은 6월 데이터 훈련을 중단하라는 명령을 내렸다. 메타가 GDPR에 반하는 행보를 보인다는 이유에서다. 메타 관계자는 "EU와 유사한 법을 가진 영국에서는 이러한 문제를 겪지 않고 있다"며 "영국 시장에는 새로운 모델을 출시할 계획"이라고 밝혔다. 외신은 이번 사건이 미국 빅테크와 유럽 규제 당국 간 갈등이 커지고 있음을 암시한다고 분석했다. 액시오스는 "EU는 개인정보 보호와 독점 금지 문제를 중요하게 보고 있다"며 "이는 기술 기업들과 상반된 입장"이라고 언급했다.

2024.07.18 14:57조이환

삼성전자, CXL 2.0 D램 하반기 양산 시작…"1y D램 탑재"

삼성전자가 차세대 메모리 솔루션으로 주목받는 CXL(컴퓨트 익스프레스 링크) 2.0 D램의 양산을 연내 시작한다. 해당 제품은 1y D램(10나노급 2세대)을 기반으로, 256GB(기가바이트)의 고용량을 구현한 것이 특징이다. 최장석 삼성전자 메모리사업부 신사업기획팀장(상무)은 18일 서울 중구 소재의 삼성전자 기자실에서 열린 'CXL 기술 및 삼성전자 CXL 솔루션 설명회'에서 "올해 하반기부터 CXL 시장이 열릴 것이고, 삼성전자의 제품은 준비가 돼 있다"고 밝혔다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU, CPU, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 기존 각각의 칩들은 별도의 인터페이스가 존재해 빠른 상호연결이 어렵다는 문제점이 있었다. 반면 CXL은 PCIe(PCI 익스프레스; 고속 입출력 인터페이스)를 기반으로 각 칩의 인터페이스를 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 정해진 아키텍쳐에 따라 서버 내 칩을 구성해야 하는 기존 시스템과 달리, 용도에 따라 유연하게 서버를 설계할 수 있다는 것도 장점이다. 또한 CXL은 시스템 반도체와 메모리의 거리가 멀어져도 원활한 통신을 가능하게 해, 더 많은 메모리 모듈을 연결할 수 있게 만든다. 삼성전자는 이 CXL 인터페이스를 갖춘 D램, 'CMM-D(CXL 메모리 모듈 D램' 개발에 주력해 왔다. 최 상무는 "CMM은 한마디로 SSD를 장착할 자리에 메모리를 추가할 수 있는 제품"이라며 "기존 D램 등 메인 메모리의 주변에서 CPU의 고용량 데이터 전송을 도와주는 역할을 하게될 것"이라고 설명했다. 삼성전자는 지난 2021년 업계 최초로 CXL 기반 D램 제품을 개발했으며, 이후 업계 최고 용량 512GB CMM-D 개발, 업계 최초 CMM-D 2.0 개발 등에 성공한 바 있다. 특히 지난해 5월 개발 완료한 삼성전자의 'CXL 2.0 D램'은 업계 최초로 '메모리 풀링(Pooling)' 기능을 지원한다. 메모리 풀링은 서버 플랫폼에서 다수의 CXL 메모리를 묶어 풀(Pool)을 만들고, 각각의 호스트가 풀에서 메모리를 필요한 만큼 나누어 사용할 수 있는 기술이다. 이를 이용하면 CXL 메모리의 전 용량을 유휴 영역 없이 사용할 수 있어 데이터 전송 병목현상이 줄어든다. 또한 삼성전자는 올해 2분기 CXL 2.0을 지원하는 256GB(기가바이트) CMM-D 제품을 출시하고, 주요 고객사들과 검증을 진행하고 있다. 실제 양산은 연내 시작할 계획이다. 적용되는 D램은 1y D램으로, 가장 최신 세대인 1b(10나노급 6세대)와 비교하면 레거시 메모리에 해당한다. 최 상무는 "금년 256GB CMM-D 2.0 양산을 시작하고, CXL 3.1 버전과 풀링 기술이 지원되는 2028년 정도가 되면 CXL 시장이 본격적으로 개화할 것"이라며 "이번 CXL 2.0 D램은 고용량 구현 및 즉시 적용에 용이한 1y D램을 채용했다. 향후에는 탑재 D램을 바꿀 수 있다"고 밝혔다. 또한 최 상무는 CXL이 HBM(고대역폭메모리)을 대체하는 것이냐는 질문에 "서버 내 SoC(시스템온칩)에 최적화된 메모리 솔루션이 각각 다르기 때문에, AI 산업에서 두 제품의 쓰임새가 다를 것"이라며 "HBM의 다음 제품이 아닌 AI용 솔루션들 중 하나라고 보면 된다"고 답변했다. CXL 제품의 향후 로드맵에 대해서도 소개했다. 삼성전자는 CMM-D를 박스 형태로 만든 CMM-B, CMM-D에 컴퓨팅 기능을 더한 CMM-DC, CMM-D에 낸드를 결합하는 CMM-H 등 다양한 응용 제품을 연구하고 있다. 최 상무는 "CMM-DC 등은 당장 상용화 단계는 아니지만 연구 단계에서 프로젝트를 진행 중"이라며 "CMM-D을 시작으로 여기에 낸드, 컴퓨팅 기능 등을 어떻게 붙여야할 지 고민도 하고 있다"고 말했다. 한편 삼성전자는 CXL 컨소시엄을 결성한 15개 이사회 회원사 중 하나로, 메모리 업체 중 유일하게 이사회 멤버로 선정되어 CXL 기술의 고도화 및 표준화를 위한 역할을 수행하고 있다. CXL 컨소시엄은 CXL 표준화와 인터페이스의 진화 방향 등에 대해 논의하는 협회다. 삼성전자, 알리바바 그룹, AMD, Arm, 델, 구글, 화웨이, IBM, 인텔, 메타, MS, 엔비디아 등 빅테크 기업들이 이사회 회원사로 참여하고 있다.

2024.07.18 14:00장경윤

구글클라우드, 에어갭 적용 구글 분산형 클라우드 정식 출시

구글클라우드는 전술 엣지(tactical edge) 환경에서 구글의 클라우드와 AI 기술을 제공하는 구글 분산형 클라우드(GDC)의 새로운 제품군 '에어갭 적용된 구글 분산형 클라우드'를 18일 정식 출시했다. 원격지에 위치한 연구실, 장거리 트럭 운송 작업 및 재난 지역과 같이 열악하고 연결이 불안정하거나 이동이 잦은 환경에 놓인 기업은 컴퓨팅 기능을 제공하는 데 큰 어려움을 겪기 마련이다. 특히 고유한 과제나 요구사항이 존재하는 까다로운 에지 환경에서 비즈니스에 핵심적인 워크로드를 운영하는 조직은 중요한 클라우드 및 AI 기능을 활용하는 데 제약이 있었다. 에어갭이 적용된 구글 분산형 클라우드는 하드웨어 및 소프트웨어 통합 솔루션으로 객체 탐지, 의료 영상 분석, 중요 인프라의 예측 유지 보수와 같은 AI 활용 사례에 대한 실시간 로컬 데이터 처리를 지원한다. 이 장비는 견고한 케이스에 넣어 편리하게 운반하거나 고객별 로컬 운영 환경 내 랙에 장착할 수 있다. 에어갭이 적용된 구글 분산형 클라우드는 완전한 격리, 발전된 AI 기능, 통합 클라우드, 데이터 보안, , 내구성과 이동성 기반 디자인 등의 장점을 갖는다. 에어갭 적용된 구글 분산형 클라우드는 구글클라우드나 퍼블릭 인터넷망에 연결되지 않아도 작동하도록 설계됐다. 네트워크 연결이 없는 환경에서도 정상적으로 동작하며 기기가 관리하는 인프라, 서비스 및 API의 보안과 격리를 보장한다. 이를 통해 엄격한 규제, 컴플라이언스 및 데이터 주권 요건을 충족하며 민감한 데이터를 처리할 수 있다. 고객은 에어갭 적용된 구글 분산형 클라우드가 빌트인으로 제공하는 AI 솔루션인 번역, 음성 인식 및 광학 문자 인식(OCR) 등을 활용해 핵심 애플리케이션의 성능을 향상할 수 있다. 예를 들어 OCR 및 번역 기능을 사용하면 다양한 언어로 작성된 문서를 스캔하고 번역해, 최종 사용자가 이해할 수 있도록 제공할 수 있다. 에어갭 적용된 구글 분산형 클라우드는 컴퓨팅, 네트워킹, 스토리지와 같은 서비스형 인프라(IaaS) 기능과 데이터 전송 및 데이터 분석 기술과 같은 구글클라우드 서비스를 모두 제공한다. 민감한 정보를 보호하기 위해 암호화, 데이터 격리, 방화벽 및 안전 모드 부팅과 같은 강력한 보안 기능을 포함하고 있다. 극한의 온도, 충격, 진동과 같은 가혹한 환경 조건을 견딜 수 있도록 설계됐다. 약 45kg의 무게로 휴대 가능해 다양한 장소로 쉽게 운반하고 배포할 수 있다. 에어갭 적용된 구글 분산형 클라우드는 엄격한 보안 요건을 지닌 조직을 위해 다양한 활용 사례를 지원한다. 산업 자동화, 운송 및 물류, 보안 민감 산업의 제한된 워크로드, 재난 대응 등에서 유용할 것으로 예상된다.

2024.07.18 13:32김우용

삼성전자, 英 지식 그래프 기술 스타트업 '옥스퍼드시멘틱' 인수

삼성전자가 이달 16일(현지시간) 지식 그래프 기술을 보유한 영국 스타트업 '옥스퍼드시멘틱 테크놀로지스(Oxford Semantic Technologies)' 인수 계약을 체결했다. 옥스퍼드시멘틱 테크놀로지스는 2017년 옥스퍼드 대학교 교수 3인이 공동 창업한 스타트업으로, 데이터를 사람의 지식 기억 및 회상 방식과 유사하게 저장, 처리하는 세계 최고 수준의 '지식 그래프' 원천 기술을 보유하고 있다. '지식 그래프'는 관련 있는 정보들을 서로 연결된 그래프 형태로 표현해 주는 기술이다. 데이터를 통합하고 연결해 사용자에 대한 이해를 높이고, 빠른 정보 검색과 추론을 지원할 수 있다. 이런 특징으로 정교하고 개인화된 AI를 구현하는 핵심 기술 중 하나로 꼽힌다. 또한 실생활에 사용되는 기기에서 끊임없이 변화하는 방대한 데이터를 지식 그래프로 변환하고 활용하는 과정에서 복잡한 연산이 수반되기 때문에 난이도가 높은 기술이기도 하다. 옥스퍼드시멘틱 테크놀로지스는 지식 그래프 기술을 성공적으로 상용화해 현재 유럽 및 북미 지역의 금융, 제조, 전자상거래 등 다양한 분야 회사들과 협력 중이다. 삼성전자는 2018년부터 옥스퍼드 시멘틱 테크놀로지스와 여러 프로젝트를 협업하며 다각도로 기술력을 검증했다. 이번 인수를 통해 더욱 진화된 '개인화 지식 그래프' 핵심 기술을 확보해 나갈 계획이다. '개인화 지식 그래프' 기술은 서비스와 앱별로 분산되어 있던 정보와 맥락을 연결해 마치 나만을 위한 기기를 사용하는 듯한 경험을 제공할 것으로 기대된다. 사용하면 할수록 나를 더욱 잘 이해하는 기기로 변화하는 것을 목표로 하고 있다. 이 기술은 삼성전자가 갤럭시 S24부터 강조한 온디바이스(On-Device) AI와 결합해 민감한 개인 정보가 기기 외부로 유출되지 않도록 보호하면서도 초개인화된 경험을 제공할 수 있다. 향후 모바일 뿐만 아니라 TV, 가전 등 다양한 제품에 적용될 예정이다. 피터 크로커(Peter Crocker) 옥스퍼드시멘틱 테크놀로지스 최고경영자(CEO)는 "삼성전자와 함께 하게 되어 기쁘다"며 "삼성전자의 사용자 경험과 데이터, 당사의 지식 그래프 기술과 역량을 결합하여 앞으로 더욱 진보된 개인화 경험을 제공할 수 있을 것"이라고 말했다. 삼성전자 DX부문 최고기술책임자(CTO)겸 삼성리서치장 전경훈 사장은 "이번 인수는 삼성전자가 데이터 지식화 분야에서 세계적인 기술력을 한층 더 높이는 모멘텀이 될 것"이라며, "삼성전자는 전 제품에 걸쳐 사용자에게 차별화된 개인화 AI 경험을 제공하고 다양한 AI 기술 혁신을 지속 선보일 예정"이라고 밝혔다.

2024.07.18 08:32이나리

[현장] "AI 개발용 공개 데이터 처리법, 필수 아닌 선택"

정부가 인공지능(AI) 개발·서비스용 공개 데이터 처리 방식을 제시한 가운데 일각에선 해당 법이 필수가 아닌 '자율'이라는 점을 지적했다. 향후 처리법 활용도가 저조해질 것이라는 우려에서다. 반면 정부는 데이터 처리 방식 모호성을 없앨 수 있는 핵심 방안이라며 문제없다는 입장이다. 개인정보보호위원회 양청삼 개인정보정책국장은 17일 정부서울청사에서 진행한 브리핑을 통해 'AI 개발·서비스를 위한 공개된 개인정보 처리 안내서' 개념과 전망에 대해 발표했다. 이날 개인정보위는 생성형 AI 개발에 활용할 '인터넷상 공개 데이터'를 안전하게 처리할 수 있는 기준을 마련하고 안내서를 내놨다. 이를 통해 AI 개발사는 앞으로 공개된 개인정보 수집‧활용의 법적기준을 명확히 할 수 있게 됐다. 또 AI 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지 알 수도 있다. 공개된 개인정보를 활용하는 개발사는 개인정보 침해 이슈를 최소화할 수 있다. 그동안 AI 기업은 제품이나 모델을 개발할 때 불확실성에 늘 부딪혔다. AI 개발 윤활유 역할을 하는 데이터 처리 방식에 대한 명확한 기준이 없었기 때문이다. 양청삼 개인정보정책국장은 "정부는 이 점을 간파했다"며 "기업은 안내문을 통해 공개된 데이터 처리를 명확하고 안전하게 처리할 수 있을 것"이라고 강조했다. 일각에선 이번 처리 방식이 필수가 아닌 선택이라는 점을 지적했다. 안내서에 제시된 여러 안전 조치를 도입해야 한다는 부담을 느낄 수 있다는 이유에서다. 기업이 자발적으로 데이터 처리 기준을 채택하는 만큼 향후 이용도가 낮아질 것이라는 우려도 나왔다. 이에 대해 양 국장은 자율적 권고가 문제없다는 입장이다. 그는 "기업마다 개발 목적과 용도가 다양하다"며 "이 안내서에 제시된 모든 안전조치가 필수인 게 오히려 발목 잡는 셈"이라고 설명했다. 이어 "개발사는 연구에 필요한 데이터 처리 방안만 선택적으로 활용하는 게 이득일 것"이라며 "AI 개발에 명확성을 심어줄 것"이라고 강조했다. 양 국장은 해당 방식으로 데이터 처리하는 기업이 늘 것이라고 내다봤다. 그는 "정부가 제시한 기준은 글로벌 시장서도 통한다"며 "국제적으로 상호운용성 있다"고 주장했다. 그러면서 "현재 AI 기업이 유럽연합(EU)이나 미국 등으로 활발히 진출한다"며 "적어도 데이터 처리 문제로 골머리 앓는 경우는 없을 것"이라고 덧붙였다.

2024.07.17 17:09김미정

"現 반도체 한계 뛰어넘자"…소니드, R&D 컨소시엄 구성

소니드가 인공지능(AI) 반도체 메모리 용량 한계를 극복하기 위해 나섰다. 소니드는 '컴퓨터익스프레스링크-그래픽처리장치(CXL-GPU)' 기술 개발을 위해 서울대학교 컴퓨터공학부·스타랩스와 컨소시엄을 구성했다고 17일 밝혔다. 소니드가 이처럼 나선 것은 생성형 AI 서비스로 인해 기하급수적으로 늘어난 데이터 처리 용량 때문이다. '챗GPT' 등 생성형 AI 데이터 처리에는 수십 테라바이트(TB) 용량이 필요한 반면 엔비디아 'H100'과 같은 첨단 그래픽처리장치(GPU)는 메모리 용량이 수십 기가바이트(GB)에 그친다. 이에 반도체 업계는 용량 문제를 지속적으로 제기해 왔다. 소니드는 CXL-GPU 기술로 기존 메모리 확장 기술보다 2배 이상 높은 성능을 구현할 방침이다. 특히 CPU와 GPU, 저장장치를 CXL 인터페이스로 직접 연결해 메모리 비용을 줄이고 성능을 올릴 예정이다. 이곳은 클라우드프리(Cloud-free) AI 플랫폼도 보급형과 고성능형으로 나눠 양산할 방침이다. 또 AI 애플리케이션 통합 알고리즘을 개발하고 CXL 보드를 총 3종 시험생산할 계획이다. 이미 AI 분야에서는 다양한 성과를 거뒀다. 특히 지난 2월 자회사 소니드로보틱스를 통해 AI '브레인 봇'을 개발·양산했다. 이 제품은 알고리즘을 통한 영상 데이터 분석으로 특정 이벤트나 인물을 자동 감지한다. 오중건 소니드 대표는 "이번 기술 개발을 통해 AI 반도체 시장에서의 경쟁력을 갖출 것"이라며 "CXL을 활용해 혁신적인 메모리 확장 솔루션을 제공하려고 노력하겠다"고 강조했다.

2024.07.17 16:20조이환

'챗GPT' 등 AI 개발엔진, '공개 데이터' 처리 기준 나왔다

정부가 생성형 인공지능(AI) 개발에 활용할 '인터넷상 공개 데이터'를 안전하게 처리할 수 있는 기준을 마련했다. 개인정보보호위원회는 AI 개발에 필수적인 공개 데이터가 현행 개인정보 규율체계 내에서 적법하고 안전하게 처리될 수 있도록 'AI 개발·서비스를 위한 공개된 개인정보 처리 안내서'를 내놨다고 17일 밝혔다. 공개 데이터는 인터넷상 누구나 합법적으로 접근할 수 있는 데이터다. 오픈AI 챗GPT 등 생성형 AI 서비스 개발을 위한 엔진 역할을 맡는다. AI 기업들은 커먼크롤를 비롯한 위키백과, 블로그, 웹사이트 등에 있는 공개 데이터를 웹 스크래핑 방식으로 수집해 AI 학습데이터로 활용하고 있다. 이런 공개 데이터에는 주소, 고유식별번호, 신용카드번호 등 여러 개인정보가 포함될 수 있어 개인 프라이버시가 침해될 가능성이 있다. 그러나 현행 개인정보 보호법에는 공개된 개인정보 처리에 적용될 수 있는 명확한 기준이 없다. 예를 들어 AI 학습에 공개 데이터가 대규모 처리되는 상황에서 현행 보호법 상의 정보주체 개별 동의나 계약 체결 등의 조항을 적용하는 것은 어렵다. AI 학습이 전통적인 개인정보 처리방식과 다르기 때문이다. 이에 보호법상 안전성 확보조치 등 규정도 그대로 적용하는 것에 한계가 있다. 이로 인해 개인정보위는 공개된 개인정보 수집‧활용의 법적기준을 명확화하고 AI 개발 및 서비스 단계에서 어떤 안전조치를 취하는 것이 적정한지에 대해 기업이 참고할 수 있는 최소한의 기준을 제시하는 안내서를 이번에 마련했다. 공개된 개인정보를 활용하는 기업들이 개인정보 침해 이슈를 최소화하는 동시에 법적 불확실성을 해소할 목적이다. "공개 데이터 처리 기준, EU GDPR 등과 상호운용↑" 개인정보위는 국제적으로 상호운용성 있는 기준 마련에 집중했다는 입장이다. 유럽연합(EU)이나 미국 등 해외 주요국에서 공개 데이터 처리 기준에 대해 개인정보 보호 규율체계를 형성해 나가는 추세에 발맞추기 위해서다. 보호법 제15조에 따른 '정당한 이익' 조항에 의해 공개된 개인정보를 AI 학습·서비스 개발에 활용할 수 있다는 점도 분명히 했다. 또 이런 정당한 이익 조항이 적용되려면 AI 개발 목적의 정당성, 공개된 개인정보 처리의 필요성, 구체적 이익형량이라는 세 가지 요건을 충족해야 한다. 이번 안내서는 세 가지 요건과 적용사례도 포함했다. 개인정보위는 정당한 이익 조항의 합리적 해석기준을 마련하는 것은 EU 일반 개인정보보호법(EU GDPR)이나 AI 안전성 규범 논의 등 글로벌 기준과의 상호 운용성을 높이는 기회라고 강조했다. "기준 유연성도 높아…기업 정보보호책임자 역할 중요" 개인정보위는 안내서를 통해 AI 기업이 정당한 이익으로 공개된 개인정보를 처리할 때 필요한 기술적‧관리적 안전성 확보조치와 정보주체 권리보장 방안도 안내했다. 또 빠른 AI 기술변화 등을 고려해 세부적 안전조치 등을 유연하게 도입·시행할 수 있도록 설명했다. 다만 AI 기업이 모든 안전조치를 의무적으로 시행해야 하는 것은 아니다. 안내서에 제시된 여러 안전조치 순기능과 AI 성능저하, 편향성 등 부작용과 기술 성숙도를 고려함으로써 기업 특성에 맞는 '안전조치의 최적 조합'에 맞게 이행할 수 있다. 개인정보위는 안내서를 통해 AI 개발을 위한 학습데이터 처리와 관련한 AI 기업과 개인정보보호책임자(CPO) 역할을 강조했다. CPO를 구심점으로 하는 'AI 프라이버시 담당조직(가칭)'을 자율적으로 구성·운영하고 안내서에 따른 기준 충족 여부를 평가함으로써 그 근거를 작성‧보관하도록 권고했다. AI 성능 개선 등 중대한 기술적 변경이나 개인정보 침해 발생 우려 등 위험 요인을 주기적으로 모니터링하고, 개인정보 유·노출 등 침해사고 발생 시 신속한 권리구제 방안도 마련하도록 했다. 이번 안내서 관련 논의에 참여한 김병필 카이스트 교수 겸 민·관 정책협의회 데이터 처리기준 분과장은 "AI 기술이 빠르게 변화하는 만큼 향후 본 안내서에 포함된 내용도 지속적으로 발전해 나갈 것"이라고 강조했다. 민·관 정책협의회의 공동의장인 배경훈 LG AI연구원장은 "안내서가 AI 기술 개발 중 발생할 수 있는 법적 불확실성이 낮아졌다"며 "모두가 신뢰할 수 있는 데이터 처리 환경에서 AI 기술 혜택을 누릴 수 있을 것"이라고 전망했다. 고학수 개인정보위 위원장은 "AI 기술 진보가 빠르게 이뤄지고 있지만 AI 개발 핵심 관건인 공개 데이터 학습이 보호법에 적법하고 안전한지 확인할 수 없었다"며 "이번 안내서를 통해 모두 신뢰하는 AI·데이터 처리 관행을 기업 스스로 만들어 나가길 바란다"고 말했다.

2024.07.17 14:00김미정

인공위성 데이터의 무궁무진한 가능성을 판다

우주와 인공위성 산업은 이제 한국서도 본격적으로 활성화되고 있다. 매우 희귀한 데이터로 분류되는 인공위성 촬영 영상을 활용해 다양한 분야에서 활용하려는 민간 기업이 속속 등장하고 있다. 그중 국내 인공위성 데이터 분석 산업을 선도하는 에스아이에이(SIA)는 방대한 양의 위성 데이터를 기반으로 활발하게 사업을 확장하고 있다. 전태균 SIA 대표이사는 최근 본지와 인터뷰에서 “창업 후 6년째 국내의 주요 정부기관을 대상으로 다양한 솔루션과 플랫폼을 제공하고 있다”며 “국방, 안보 시장 중심으로 국내와 다수 국가에 진출하려 다각적인 방향을 모색하고 있다”고 밝혔다. SIA는 국내 대표 인공위성제조기업인 세트렉아이의 자회사로 2018년 설립됐다. 인공지능 분야 박사학위를 취득한 전태균 대표는 세트렉아이 연구원으로 재직 중 여러 데이터 중 독보적인 데이터를 찾다가 우주, 위성 데이터에 관심을 갖게 돼 SIA를 창업하게 됐다고 한다. 현재 지구 상공에서 운영되는 국가 및 민간 소유 인공위성은 국방, 기상 등에서 쓰이고 있고, 그 수는 헤아리기 힘들 정도로 많다. 고해상도 카메라를 탑재한 인공위성이 급증하고, 다수의 초소형 위성이 군집 운영되고 있다. 이에 위성 촬영 영상의 양과 하루에 처리하는 데이터의 양도 증가하고 있다. 촬영된 영상 속 표적을 AI로 식별, 판독하는 게 가능해졌다. 전태균 대표는 “인공위성 촬영 영상은 국가 간 분쟁과 분열에 쓰이기도 하지만, 전지구적으로 하나로 뭉쳐서 해결해야 하는 기상이변, 재난재해 등의 문제에서도 중요하게 쓰인다”며 “SIA도 사업 초기 국방안보에 집중했는제 이제 전지구적 문제에 더 집중해서 사업을 확장하는 단계”라고 설명했다. 인공위성의 촬영 대상물은 지구다. 시간의 흐름에 따라 촬영 대상인 지구는 계속 바뀌고, 카메라는 오로지 한 순간만 촬영할 수 있다. 과거로 되돌아가 촬영할 수 없다는 특징을 갖는다. 순간순간 촬영한 사진을 이어붙여서 영상으로 만들게 된다. 우주에서 촬영된 사진은 가로 2만5천, 세로 2만5천의 초고해상도로, 여러 장의 사진을 영상으로 만들면 그 파일의 크기가 매우 크다. SIA는 위성 촬영 영상을 저장, 처리, 유통하고, 데이터를 분석하는 플랫폼과 솔루션을 보유했다. 전 대표에 의하면, 우주 산업은 크게 세 영역으로 나뉜다. 위성 사진의 촬영 목적에 따라 카메라를 설계해 인공위성을 제작하는 제조 분야, 만들어진 인공위성을 우주로 보내는 발사 분야, 궤도 위성으로 사진을 찍어 촬영본을 분석해 의사결정에 활용하도록 지원하는 분석 분야다. SIA는 분석 분야에서 활약하고 있다. 전 대표는 “위성 데이터를 활용하고자 하는 사용자는 두가지 중 하나를 선택할 수 있는데, 인공위성 데이터를 직접 구매하거나 자체 인공위성을 쏘아올리는 것”이라며 “위성은 안타깝게도 지구 위에서 실시간으로 멈춰서 찍을 수 없고 빠르게 회전하기 때문에 한번 지나가면 다음번까지 기다려야 한다”고 말했다. 그는 “그래서 사용자는 인공위성 자체를 궤도 상에서 공유하며, 하나가 지나가면서 사진을 찍고, 다음 위성이 또 같은 자리를 찍는 식인데, 내 머리 위에 위성 몇대가 지나갈지 감안해서 그 위성을 가진 소유자에게 사진 촬영을 요청하는 공급계약을 맺는다”며 "SIA는 한국 정부 소유 위성으로 부족하므로 해외 민간기업 소유 위성의 파트너십을 맺어서 300개 정도의 위성을 쓰고 있고, 국가 예산으로 만들 수 있는 위성보다 공유받는 역량이 훨씬 더 커서 데이터를 더 많이 빨리 처리하고 국가목적에 맞게 대응하는 장점을 갖고 있다”고 강조했다. SIA는 지구를 촬영한 사진 속 표적물을 빠르게 식별하는 기술을 보유했다. 통상 촬영 해상도의 경우 약 120km에 해당하는 면적을 사람이 일일이 분석할 수 없으므로 AI로 분석한다. 또한 표적 식별 외에도 미래를 예측할 수도 있다. 전 대표는 “건물이 토지대장 대비 비정상 건물인지, 차량이 일상적인 차량인지 특수차량인지 등을 분석하는 게 SIA의 업무”라며 “식별, 분석, 예측 등으로 업무를 나누고 미래에 여길 찍어야 할 지,. 혹은 다음주 여기를 찍어서 통상 활동이 일어날 것으로 예상되는가도 본다”고 말했다. 그는 “지구를 관측해서 더 많은 영역을 보고, 의사판단을 하고 결정하게끔 하는게 우리의 역할”이라며 “국가 모니터링뿐 아니라 이제 민간이나 기업 의사결정에서도 글로벌 전체의 상황을 보고 의사결정하는 게 많아졌다”고 덧붙였다. 인공위성 영상은 단순한 모니터링 외에도 다양하게 활용될 수 있다. 일례로 2년전 우크라이나와 러시아 간 전쟁이 발발했을 때 전세계는 우크라이나 곡창지대의 농산물 생산에 차질을 빚을 것으로 우려해 곡물 선물 가격이 급등했었다. 이에 NASA와 민간 기업이 겨울 전쟁 후 우크라이나 곡창지대를 분석했다. 그 결과 파종이 정상적으로 이뤄졌고, 수개월 뒤에도 농작물이 잘 자라고 있으며, 유통과 저장 시설도 안전하다다는 것을 밝혀내 글로벌 공급망이나 곡물생산에 영향없을 것이란 선물시장 보고서를 냈다. SIA도 특정 지역을 주기적으로 모니터링하면서 이상징후와 변화상을 알아내고 있다. 이 회사의 위성 영상 분석 모델인 SIA AI 팩은 방대한 면적의 촬영 이미지에 대한 해상도를 개선하는 초해상화 기술, 주요 지형지물 표적을 탐지하는 객체 검출 기술, 이상 상황을 탐지하는 변화 탐지 기술 등을 보유했다. 초해상화 기술인 SIA 슈퍼X는 광학 위성 영상의 가시성과 선명도를 향상시켜 이미지의 정확한 해석에 도움을 준다. 기상 위성 영상과 딥러닝 분석을 활용해 기상기후와 재난재해 시작점을 예측하는 것도 가능하다. 지금은 온실가스를 정확히 측정하는 AI 모델을 개발중이다. SIA의 관계사인 세트렉아이는 전세계 3대 위성용 카메라 제조기업으로 꼽힐 정도의 초고해상도 카메라 제조 역량을 보유했다. 분단국가란 특수성 덕에 한국은 특정 지역을 지속적으로 모니터링하는 경험과 데이터를 축적하게 됐고, 시간 흐름 상의 데이터를 축적해 활용하는 기술을 제공하는 에스아이에이의 역량도 높을 수밖에 없다. 전 대표는 “기술적인 강점은 기본적으로 갖고 있고, 데이터 구성에 대한 노하우도 보유했다”며 “유사 기업이 국내외에 많지만, 이 장벽은 쉽게 따라오지 못할 것이라고 생각한다”고 자신했다. SIA의 AI는 얼마나 경쟁력을 갖고 있을까. 전 대표에 의하면, 사진 한장을 판독가가 해석하는데 30~40분 정도 걸리지만, AI로 하면 수초 안에 식별을 찾아낼 수 있다. 전 대표는 “식별한 정보를 이미 저장 분석한 데이터와 결합해 명확한 수치정보를 곧바로 제공할 수 있다”며 “해당 지역의 대상물이 통상 몇대 발견되고, 이번엔 갑자기 절반으로 줄었다거나 혹은 두배 늘었다 같은 명확한 수치정보를 바로 제공 할 수 있으며, 직관적으로 보기에 지역이 지난주 몇대 았었나 사람이 알기 어려우니 바로 보고 영상 분석결과 보고서를 만들기까지 3~5분이면 만든다”고 밝혔다, 그는 “원래 하던 워크플로에서 AI를 넣으면 업무 생산량이 10배 늘어난다”며 “IT 디바이스의 급증처럼 위성도 폭발적으로 증가하는 시기를 겪고 있어서 봐야 할 영상이 수십 수백배로 증가했고 데이터 증가량에 따른 생산성 증가를 위해서라도 AI 적용은 필수”라고 덧붙였다. SIA는 클라우드 컴퓨팅을 적극 활용한다. 지난 AWS코리아의 퍼블릭섹터데이 행사에 전태균 대표가 패널토의에 참석해 클라우드 활용 경험을 공유하기도 했다. 일단 위성 데이터를 제공하는 곳이 클라우드를 쓰고 있다. 데이터 공급자가 방대한 데이터를 일일이 다운로드해 저장하는 자체 인프라를 구축하지 않고 클라우드로 유통한다. SIA는 AI 모델을 클라우드 상에서 개발해 운영하면서, 클라우드에 저장된 위성 데이터를 학습하게 한다. 전 대표는 “모델과 데이터를 올려서 쓰고, 완성되면 공급하는 앱도 클라우드에 같이 있어야 하는 삼박자가 맞아서 클라우드를 선택하고 있다”고 말했다. 그는 “5년전 고생한 경험이 있는데, AI 시스템을 고객사에서 시연해야 해서 블랙박스 같은 랩톱을 특수제작해 비행기에 싣고 가 시연했었다”며 “말도 못할 고생과 현지 네트워크 설정 때문에 고생을 몇번 하다가 도저히 못할 일이라 여겼고, 클라우드 기업의 도움을 받아서 북미, 싱가포르, 중동 등의 리전에서 모델을 운영하며 다양한 지역에서 바로 쓰게 준비해놓게 했다”고 덧붙였다. 현재 AWS 서비스로 아마존 EC2를 기본 활용하고, 모기업인 세트렉아이는 클라우드 기반 지상국 서비스인 AWS 그라운드 스테이션을 활용한다. 전 대표는 “특히 AWS의 기술적 지원 외에도 마켓플레이스가 많은 역할을 하고 있다”며 “솔루션 기업의 경우 많은 국가에서 요청왔을 때 그 국가에 대한 보안체계, 법률적 문제, 시장진입 관련 다양한 부분에서 넘어야 할 장벽이 많은데. 마켓픟레이스에 우리 솔루션 올리게 되면 다양한 국가 사용자에게 전달하기 위한 확장이 용이하기에 이를 협의하고 있다”고 햇다. SIA의 최근 확장 분야는 기후 변화 부분이다. 전 대표는 “한국의 슈퍼컴퓨터를 이용한 기상예측은 수치예보모델 기반인데, 움직이는 바람 같이 다양한 외적 요인을 수식화해서 조율하면서 비를 예측한다”며 “그 전체를 인공지능으로 통째로 바꿔서, 수식을 자동으로 만드는 알고리즘 만들었고, 지구 전체 데이터를 봐야 하는 문제를 해결하기 위해 유럽 정지궤도, 아시아, 미국 정지궤도 등으로 삼등분해서 다 연결하는 데이터화를 진행했다”고 말했다. 그는 “인공지능으로 구름이 어디로 이동하고, 그게 얼마나 비를 담고 있고, 언제 비를 내릴지 예측하는 걸 새로 만들었다”며 “일기예보에서 중요한 레이더 정보는 지상에서 레이터 시스템으로 공기중 수분을 측정해야 하는데, 전세계적으로 국가의 자본 역량 차이 때문에 데이터 균질성이 떨어지므로 일반 구름 사진에서 레이더 데이터로 바꾸는 생성형 AI 모델을 만들어서 데이터 부족 국가에서도 하드웨어 없이 데이터를 만들 수 있는 기술을 연구했다”고 설명했다. 그는 한국 외 국가의 건물을 잘 탐지하기 위해 국가지역 별 건물 양상을 총체적으로 인식할 수 있는 일반인공지능 모델도 개발하고 있다고 밝혔다. 그는 위성영상을 잘 이해하는 AI 역량과 그 외 위성영상 혹은 다른 일반 정보를 잘 이해하고 설명할 수 있는 대화형 언어모델은 많이 시도되지만, 이같은 시도는 없다”며 “이 기술을 내부적으로 고도화 작업을 진행중으로 앞으로 우리 회사를 독보적으로 치고 나가게 하는 성장동력이 될 거라고 생각한다”고 강조했다. 그는 마지막으로 인공위성 시스템을 만드는 것 자체에 매몰되지 말아야 한다고 했다. 그는 “많은 공공기관에서 시스템 만드는 것에 집중하고 있는데, 어떻게 시스템을 만들든 그를 잘 활용해서 어떤 국가적 이득을 올릴 수 있는가에 집중하면 좋겠다”며 “시스템이 파편화되고, 기관내에 독립적으로 존재하는 시스템이 많아져 기관마다 제품을 따로 만들어서 공급해야 하는 어려움이 있다”고 말했다. 그는 “가장 신뢰하고 먼저쓸 수 있는 준비돼 있는 클라우드를 기반으로 전체를 통째로 바꾸는 건 어렵더라도 새롭게 시작하는 비즈니스의 경우에 선제적으로 클라우드 도입해보고 효과성 나오면 공공전체로 확대하는 국가적 고민도 필요한 것 같다”고 조언했다.

2024.07.16 11:33김우용

SKT, 美 AI클러스터 설계 기업에 2800억원 투자..."AI 분야 역대 최대규모"

SK텔레콤이 미국의 AI 데이터센터 통합 솔루션 기업 '스마트글로벌홀딩스(SGH)'에 2억 달러(약 2천800억원) 규모의 전환우선주 투자 계약을 체결했다. SK텔레콤의 AI 투자 가운데 최대 규모다. 향후 보통주 전환을 통해 SK텔레콤은 약 10% 수준의 지분을 확보하게 된다. 미국 실리콘밸리에 본사를 둔 SGH는 대규모 GPU 서버로 구성된 AI 클러스터를 설계, 구축, 운영하는 'AI 데이터센터 통합 솔루션' 전문 기업이다. 1988년 설립된 SGH의 주력 사업은 'AI 데이터센터 통합 솔루션'이다. ▲수천 수만 개 GPU로 구성된 AI 클러스터 설계 ▲서버, 랙, 네트워크, 스토리지 설치 및 성능 최적화 ▲AI 클러스터 모니터링, 유지보수 등 AI 클러스터의 설계부터 구축, 운영까지 전 과정을 아우른다. SGH는 산업 현장에 특화한 엣지(Edge) 솔루션과 메모리 모듈 등의 사업을 영위하고 있다. 2017년 나스닥에 상장했으며, 지난해 SGH 매출액은 약 14억4천만 달러(한화 약 2조원)를 기록했다. 대규모 데이터 학습이 필요한 거대언어모델 특성에 따라 더 많은 GPU가 요구되고, AI 클러스터 구축의 난이도와 복잡성이 높아지고 있다. 이에 따라 전문적인 AI 데이터센터 솔루션 사업자에 대한 필요성이 증가하고 있다. SGH는 이러한 역량을 인정받아 전 세계에서 대규모 AI 클러스터를 구축한 몇 안되는 기업으로 손꼽힌다. 현재 GPU 누적 구축 규모만 7만5천개에 달한다. SGH는 지난 2023년 메타의 GPU 1만6천개 규모 '리서치 슈퍼 클러스터'를 구축했다. 당시 전 세계에서 가장 큰 규모의 AI 클러스터로 주목받았다. 또한 최근 미국 차세대 GPU 클라우드 서비스 업체인 '볼티지 파크(Voltage Park)'의 GPU 2만4천개 규모 AI 클러스터 운영 업체로 선정됐다. SK텔레콤과 SGH는 올해 협력 파트너십을 추가로 체결해 AI 데이터센터, 엣지 AI, 미래 메모리 솔루션 등 AI 인프라 사업 영역 전반에 걸친 협력을 보다 구체화한다는 방침이다. 국내외 AI 데이터센터 시장 진출을 적극 추진 중인 SK텔레콤은 데이터센터 관리 시스템, 액침냉각 등의 솔루션에 SGH의 AI 클러스터 구축 운영 역량이 더해지면 시너지 효과가 배가될 것으로 기대했다. 산업용 특화 엣지 솔루션에 통신 인프라와 AI를 접목한 '텔코(Telco) 엣지 AI 솔루션' 개발도 함께 할 계획이다. 마크 아담스 SGH CEO는 “SK텔레콤이 전략적 투자자로 합류하게 되어 매우 기쁘다”며 “우리는 SK텔레콤과 AI 데이터센터 솔루션 영역에서 전략적 협력을 기대하고 있으며, 이를 통해 이해관계자들에게 새로운 가치를 창출할 것”이라고 말했다. 유영상 SK텔레콤 CEO는 “SGH에 대한 투자와 협력은 AI 인프라 밸류체인에 대한 경쟁력을 공고히 다질 수 있는 기회”라며 “AI 변혁의 시대를 맞아 선제적인 투자와 협력을 지속해 글로벌 수준 AI인프라 사업 리더십을 확보할 것”이라고 밝혔다.

2024.07.16 06:33박수형

"엔비디아, TSMC에 AI 칩 '블랙웰' 주문량 25% 확대"

엔비디아가 TSMC에 의뢰한 최신 AI 반도체 '블랙웰(Blackwell)'에 대한 주문량을 당초 대비 25% 늘렸다고 대만 연합보가 15일 밝혔다. 연합보는 "TSMC가 가까운 시일 내에 엔비디아의 블랙웰 아키텍처 기반 GPU(그래픽처리장치)의 생산을 시작한다"며 "이는 AI 시장이 전례 없는 호황을 누리고 있다는 의미일 뿐만 아니라, TSMC의 하반기 실적에 강력한 성장요인이 될 것"이라고 밝혔다. 블랙웰은 엔비디아가 지난 3월 공개한 최신형 AI 반도체다. 3분기부터 양산에 들어가, 연말께 본격적으로 출시될 예정이다. 블랙웰은 2천80억개의 트랜지스터를 집적해, 이전 세대인 H100 대비 데이터 연산 속도를 2.5배가량 향상시킨 것이 특징이다. TSMC의 4나노미터(nm) 공정을 활용한다. 블랙웰은 전력 소모량에 따라 B100, B200 등의 모델로 나뉜다. 두 개의 블랙웰 GPU와 72코어의 그레이스 CPU를 결합하면 'GB200'라는 AI 가속기가 된다. 이 GB200을 여러 개 연결하면 서버 랙 스케일 솔루션인 'GB200 NVL'을 만들 수 있다. 연합보는 업계 관계자를 인용해 "아마존, 델, 구글, 메타, 마이크로소프트 등 주요 해외 기업들이 AI 서버 구축을 위해 예상보다 많은 B100 칩을 주문했다"며 "이에 엔비디아가 TSMC에 주문량을 25% 늘렸다"고 설명했다. 이에 따라 B100 기반의 엔비디아 서버 솔루션인 'GB200 NVL72', 'GB200 NVL36' 출하량은 기존 4만대에서 6만대로 50% 증가할 전망이다. 이 중 GB200 NVL36은 출하량이 5만대에 달해 가장 많을 것으로 전망된다. 업계는 GB200 NVL72의 가격을 300만 달러로 주장하고 있다. GB200 NVL36의 예상가격은 180만 달러 수준이다.

2024.07.15 11:03장경윤

오라클, '엑사데이터 엑사스케일' 정식 출시

오라클은 인공지능(AI) 벡터 처리와 데이터 분석, 트랜잭션을 포함한 모든 종류, 모든 규모의 오라클 데이터베이스 워크로드를 위한 최대 성능을 제공하는 클라우드용 지능형 데이터 아키텍처인 엑사데이터 엑사스케일을 정식 출시한다고 15일 밝혔다. 오라클 엑사데이터 엑사스케일을 통해 기업 조직은 규모를 망라해 오라클 엑사데이터에 내장된 성능과 안정성, 가용성, 보안 관련 기능의 활용 비용을 대폭 절감할 수 있다. 엑사데이터 엑사스케일은 엑사스케일 인프라스트럭처 기반의 엑사데이터 데이터베이스 서비스 및 오라클 클라우드 인프라스트럭처(OCI) 기반의 오라클 데이터베이스 23ai와 함께 사용 가능하다. 엑사데이터 엑사스케일은 기업 고객이 엑사데이터 클라우드 인프라스트럭처를 이용할 수 있는 새로운 방식이다. 가상화된 데이터베이스에 최적화된, 공유 컴퓨트 및 스토리지 풀에 기반한 인프라를 활용하는 지능형 데이터 아키텍처를 통해 극도로 탄력적인 확장성 및 사용량 기반 요금 정책을 지원한다. 대기업에서 중소기업에 이르기까지 적게는 매월 수십만원대 수준의 저렴한 요금으로도 이용 가능해, 이제 합리적인 비용으로 엑사데이터 데이터베이스 플랫폼의 업계 선도적 기술을 활용해 모든 데이터 워크로드 관련 혁신을 가속화할 수 있게 됐다. 엑사데이터 엑사스케일은 고객에게 여러 독자적 지능형 데이터 아키텍처의 이점을 제공한다. 탄력적인 사용량 기반 요금 정책을 통해 엑사스케일의 리소스는 추가 IOPS에 대한 비용 없이 매우 탄력적인 종량제 요금제를 통해 이용할 수 있다. 사용자가 필요로 하는 데이터베이스 서버 ECPU 수와 스토리지 용량을 지정하면 모든 데이터베이스가 풀링된 스토리지 서버에 자동으로 분산돼 최고의 성능 및 가용성을 제공하므로 전용 데이터베이스 및 스토리지 서버를 별도로 프로비저닝할 필요가 없다. 결과적으로 엑사데이터 데이터베이스 서비스 엔트리 수준의 인프라 비용을 최대 95% 절감하고, 온라인 리소스를 최대한 유연하고 세밀하게 확장할 수 있다. 오라클은 엑사스케일을 통해 RDMA 지원 스토리지 클라우드 서비스를 제공한다. 지능형 스토리지 클라우드 서비스인 엑사스케일은 사용 가능한 모든 스토리지 서버에 데이터베이스를 분산하고, 데이터 인식 지능형 스마트 스캔을 통해 수천 개의 CPU 코어를 사용해 모든 데이터베이스 쿼리의 속도를 향상시킨다. 3개의 서로 다른 스토리지 서버에 데이터를 복제해 높은 수준의 내결함성을 제공한다. 엑사스케일 스토리지 클라우드는 핫데이터나 자주 액세스하는 데이터를 디스크로부터 메모리 또는 플래시 드라이브로 지능적인 방식으로 이동시키므로 사용자는 DRAM의 성능, 플래시 드라이브의 IOPS 속도, 디스크의 용량을 모두 활용할 수 있다. 엑사스케일은 독자적 기능인 'AI 스마트 스캔'을 사용해 데이터 및 컴퓨트 집약적인 AI 벡터 검색 작업을 엑사스케일 지능형 스토리지 클라우드로 오프로드한다. AI 스마트 스캔 및 엑사데이터 시스템 소프트웨어 24ai를 통해 주요 벡터 검색 작업을 최대 30배 빠르게 처리하여 고객이 다중 사용자 환경에서 수천 건의 AI 벡터 검색을 동시에 실행할 수 있도록 지원한다. 서버 간의 지능형 통신을 바탕으로 엑사스케일 가상 머신 클러스터 전반에 걸친 고성능 데이터베이스 확장을 제공하고, 지능형 저지연 OLTP IO를 통해 미션 크리티컬 트랜잭션을 신속히 완료하고 더 많은 동시 사용자를 지원한다. 엑사데이터 엑사스케일은 다른 데이터베이스 클라우드 서비스 대비 230배 많은 2천880 GBps의 처리량을 제공한다. 최대 21GBps에 그치는 다른 하이퍼스케일러의 처리량과 극명히 대조되는 성능이다. 또한 엑사스케일의 지연시간은 다른 클라우드 제공업체의 1천 마이크로초 대비 50배 낮은 17마이크로초에 불과하다. 고유한 데이터 인텔리전스가 데이터 집약적 SQL 쿼리를 엑사스케일 지능형 스토리지 클라우드로 자동 오프로드하여 데이터 분석을 위한 처리량 확장을 지원한다. 자동 컬럼화 기능을 통해 데이터를 초고속 인메모리 컬럼 형식으로 변환하고, 엑사스케일 인텔리전트 스토리지 클라우드의 플래시 캐시를 자동적으로 사용하여 기능 및 성능을 향상시킬 수 있다. 사용자는 엑사스케일 지능형 스토리지 클라우드 및 쓰기 시 재지정 기술을 사용해 데이터베이스의 전체 복제본 또는 씬 복제본을 즉시 생성할 수 있다. 고급 스냅샷 기능을 통해 읽기·쓰기 소스를 사용하여 플러그형 또는 컨테이너 데이터베이스의 공간 효율적 복제본을 간단하게 생성 가능하다. 새롭게 생성한 개발, 테스트 또는 복구용 복제본은 즉시 사용 가능하고, 소스 데이터베이스와 동일한 네이티브 엑사데이터 데이터베이스의 성능 및 확장성을 지원한다. 코탄다 우마마지스와란 오라클 엑사데이터 및 수평확장기술담당 수석부사장은 "엑사데이터 엑사스케일은 멀티테넌트와 초탄력적 클라우드용으로 재구성된 엑사데이터이자 모든 오라클 데이터베이스 클라우드 서비스의 미래형 아키텍처”라며 "인프라 비용을 최대 95% 절감시켜주는 엑사데이터 엑사스케일을 통해 이제 중소기업이나 적은 규모의 워크로드 및 클라우드 환경에서도 오라클 데이터베이스용 오라클 엑사데이터의 이점을 활용할 수 있게 됐다”고 설명했다.

2024.07.15 10:15김우용

데이터브릭스, 강형준 신임 한국지사장 선임

데이터브릭스는 강형준 신임 한국 지사장과 엄경순 한국지사 기술총괄 부사장을 선임한다고 15일 발표했다. 데이터브릭스는 이번 신규 임원 영입을 통해 한국 시장 내 입지를 강화하고, 국내 고객의 비즈니스 성장 지원 및 성공을 촉진한다는 계획이다. 강형준 데이터브릭스 코리아 대표 겸 지사장은 데이터 소프트웨어 업계에서 20년 이상의 경력과 풍부한 리더십 경험을 갖춘 전문가다. 이같은 경험을 바탕으로 향후 데이터브릭스 한국 사업을 이끌며 다양한 산업 분야에서 데이터브릭스 데이터 인텔리전스 플랫폼의 도입 촉진에 앞장설 예정이다. 강 지사장의 선임은 데이터브릭스가 지난 회계연도 한국에서 전년 대비 100%의 성장률을 기록한 데 따른 결과다. 데이터브릭스에 합류하기 전에는 구글 클라우드 코리아의 지사장을 역임했으며, 이전에는 스노우플레이크 한국 지사장을 지냈다. 또한 클라우데라, 호튼웍스, 테라데이터에서 주요 요직을 두루 거치며 비즈니스 성장을 주도한 바 있다. 에드 렌타 데이터브릭스 아태지역 총괄 수석 부사장은 "강형준 지사장이 데이터 소프트웨어 기업의 확장에 대한 전문성을 갖춘 강 지사장이 한국 시장에서 비즈니스를 새로운 차원으로 끌어올리고, 보다 많은 고객이 데이터 및 AI 혁신 여정에서 성공을 거둘 수 있도록 지원할 것이라고 확신한다”고 설명했다 강형준 데이터브릭스코리아 지사장은 "국내 기업들이 데이터브릭스의 데이터 인텔리전스 플랫폼을 도입하여 데이터 문제를 해결하고, 생성형 AI의 이점을 활용할 수 있도록 지원하는 데에는 방대한 기회가 있다고 생각한다”며 “데이터브릭스에 합류해 고객과 긴밀히 협력하고 데이터와 AI의 잠재력을 최대한 활용할 수 있도록 지원하게 되어 매우 기쁘다"고 밝혔다. 데이터브릭스는 엄경순 데이터브릭스 코리아 기술 총괄 부사장을 새롭게 영입했다. 엄경순 부사장은 30년 이상의 기술 솔루션 구현 및 디지털 전환 여정 지원 경험을 보유하고 있다. 데이터브릭스에 합류하기 전에는 구글 클라우드 코리아에서 기술 총괄로 재직했으며, IBM에서 30년 이상 근무하며 아태지역에서 다양한 임원 요직을 수행해 왔다. 닉 에어스 데이터브릭스 아태지역 필드 엔지니어링 담당 부사장은 "엄경순 부사장이 데이터브릭스 코리아의 기술 및 필드 엔지니어링 팀을 이끌게 되어 기쁘게 생각한다”며 “엄 부사장의 심도 있는 기술 전문성과 널리 검증된 기술 문제 해결력을 바탕으로, 국내 고객이 데이터브릭스 데이터 인텔리전스 플랫폼에서 데이터 및 AI 전략을 해결하고 구현하는 데 핵심적인 역할을 할 것이라고 확신한다”고 밝혔다. 엄경순 데이터브릭스 코리아 기술 총괄 부사장은 “데이터브릭스는 데이터 및 AI 분야의 선두주자다. 보다 많은 고객과 경영진이 통합 플랫폼의 가치를 이해하고 활용함으로써 데이터 및 AI 우선순위를 원활하게 실행하고 비즈니스 가치를 창출할 수 있도록 지원할 수 있게 되어 매우 기쁘다”고 강조했다.

2024.07.15 10:01김우용

지코어 CEO "생성형 AI는 엣지에서 꽃 피울 것"

"한국은 IT 강국이면서 다양한 제품과 서비스를 수출하는 국가다. 작년 한국 시장에서 AI 칩 수요에 대응하려 AI 인프라를 저변에 구축했다면, 올해는 인프라 구축에서 나아가 유즈케이스를 찾아내는 것에 집중하고 있다. 기업이 AI를 실행하는 단계에 돌입했다고 보고 추론이나 엣지의 다방면 서비스를 배포하고 부하를 줄이는 방법으로 서비스를 진행중이다. 엔비디아의 새로운 칩도 액체 냉각 역량을 갖춘 데이터센터만 확보되면 바로 도입할 예정이다.” 안드레 레이텐바흐 지코어 창업자 겸 최고경영자(CEO)는 최근 본지와 인터뷰에서 이같이 밝혔다. 2014년 룩셈부르크에 설립된 지코어는 전세계 180 개 이상의 PoP를 기반으로 한국을 비롯해 중국, 일본 등으로 강력하고 안전한 클라우드 및 엣지 컴퓨팅 솔루션을 확장하며 아태지역에서의 영향력을 확대해 나가고 있다. 이는 엔터프라이즈 급 AI GPU 클라우드 인프라에 대한 고객 수요의 증가, 그중에서도 엔비디아 기반 머신러닝 트레이닝과 AI 애플리케이션을 위한 엣지 추론에 대한 필요성이 늘고 있는데 따른 것이다. 작년 오픈AI 챗GPT로 촉발된 생성형 AI 열풍은 전세계 기업의 대규모언어모델(LLM) 개발 붐을 일으켰다. 이에 언어모델 훈련에 필수재로 꼽히는 고성능 엔비디아 GPU가 공급부족 현상을 보였다. 지코어는 엔비디아 텐서코어 H100 GPU 기반 데이터센터를 각국에 배포해 기업의 LLM 개발 수요를 지원했다. 한국 기업도 지난 4월15일 H100 GPU 클러스터를 갖춘 지코어 데이터센터를 국내에서 이용할 수 있게 됐다. 지코어는 또한 지난 6 월 사전 학습된 머신러닝 모델을 지코어 엣지 추론 노드 중 사용자와 가장 가까운 위치에서 응답할 수 있도록 해 초저지연 추론을 실시간 제공하는 '인퍼런스 앳 더 엣지(Inference at the Edge)' 솔루션을 출시했다. 안드레 레이텐바흐 CEO는 “한국 투자의 경우 한국 지역 회사 파트너를 더 잘 지원하는 역량을 갖출 수 있게 팀을 더 강화하는 방면으로 투자할 것”이라며 “마케팅, 엔지니어링, 파트너십 등의 인력을 계속 공고히하고, 인프라 투자도 계속 진행할 계획”이라고 말했다. 그는 “최근 한국에 도입한 기술 중 하나는 AI 중심의 콘텐츠를 인지하는 부분”이라며 “고객이 원하는 콘텐츠를 필터링하고 중재하고, 원하는 방식으로 콘텐츠를 인지하게 하는 방식도 진행하고 있는데, 이는 데이터가 잘 보호되고 보안을 지킬 수 있게 하는 방안”이라고 덧붙였다. 지코어는 올해 들어 생성형 AI의 흐름이 모델 학습에서 추론 모델 구동 부분으로 이동하고 있다고 보고 있다. 글로벌과 유사하게 국내 기업에서도 AI 추론 수요가 증가할 것으로 예상한다. 이런 추세에 대응하려 집중하는 부분이 '인퍼런스 앳 더 엣지'다. 이 솔루션은 사전 학습된 머신러닝 모델을 전세계에 분포돼 있는 엣지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 보장한다. 180 개 이상의 엣지 노드로 구성된 지코어의 광범위한 글로벌 네트워크(PoP)에서 실행되며, 모두 지코어의 정교한 저지연 스마트 라우팅 기술로 상호 연결된다. 고성능의 각 노드는 지코어 네트워크 중 최종 사용자와 가까운 엣지에 전략적으로 배치된다. 지코어 각 엣지에서의 AI 추론은, 이를 위해 특별히 설계된 엔비디아 L40S GPU에서 실행된다. 사용자가 요청을 보내면 엣지 노드는 지연 시간이 가장 짧은, 가장 가까운 엣지 추론 노드로 경로를 설정해 일반적으로 30 밀리초(ms) 미만의 응답 시간을 보장한다. 네트워크 간 최대 대역폭도 200Tbps 로 학습 및 추론 능력이 가능하다. 인퍼런스 앳 더 엣지는 광범위한 기본 머신러닝 및 커스텀 모델을 지원한다. 지코어 머신 러닝 모델 허브에서 라마 프로 8B, 미스트랄 7B, 스테이블디퓨전 XL 등의 오픈 모델을 사용할 수 있다. 여러 형식 또는 여러 소스로부터 데이터를 수신해, 모델을 사용 사례에 맞게 선택하고 학습한 후 전 세계에 위치하고 있는 인퍼런스 앳더 엣지 노드에 배포할 수 있다. 인터뷰에 함께 한 파브리스 모이잔 지코어 최고수익책임자(CRO)는 “지코어가 10년 간 공고하게 구축해놓은 CDN 인프라를 최대한 활용하는 서비스로 보안과 패스트엣지를 갖춘 AI를 제공하고자 한다”며 “엣지 AI는 저지연이고 보안도 강화한 기술로, 이미 여러 금융서비스와 금융사에서 활용되고 있으며, 보안과 저지연성은 자율주행차나 휴머노이드 로봇 같은 AI에서 필수적인 요소”라고 밝혔다. 그는 “한국은 세계적으로 중요한 자동차 제조사 두곳이 있고, 세계적인 통신회사와 통신서비스를 자랑하고 있다”며 “LLM은 이런 분야에서 혁신을 이룰 것이라고 생각한다”고 덧붙였다. 지코어 인퍼런스 앳더는 유연한 가격구조로 사용한 자원에 대해서만 비용을 지불할 수 있으며, 디도스 공격에도 머신러닝의 각 엔드포인트를 자동으로 보호하는 내장형 디도스 보호 기능을 갖췄다. 모델 자동확장 기능으로 모델이 항상 최대 수요는 물론 예기치 않은 로드 급증을 지원하고, 진화하는 요구에 맞춰 아마존 S3 호환 클라우드 오브젝트 스토리지를 무제한으로 제공한다. 뿐만 아니라 FaaS 기반으로 동작되기 때문에, 자체 개발모델을 포함해 어떤 레퍼지토리에 있는 모델이든, 손쉽게 전세계로 서비스를 할 수 있다. 로드 밸런싱과 부하 증감에 따른 시스템의 변경도 맡겨 둘 수 있다. 개발자는 서비스의 배포를 걱정할 필요없이 본연의 업무에 집중할 수 있다. 모델의 크기에 따라서 적절한 가속기와 자원을 선택할 수 있으며, 서비스의 확장에 따른 컨테이너의 배포수량도 지역별로 정의할 수가 있다. 손쉬운 서비스는 더 많은 횟수의 서비스 레벨 사전 테스트를 가능케 하므로, 실질적인 서비스의 품질 향상에도 도움을 주게 된다. 안드레 레이텐바흐 CEO는 "지코어 인퍼런스 앳더 엣지는 고객이 전 세계에 AI 애플리케이션을 배포하는 데 필요한 비용, 기술, 인프라를 걱정할 필요 없이 머신러닝 모델을 학습시키는 데 집중할 수 있도록 지원한다”며 “지코어는 엣지가 최고의 성능과 최종 사용자 경험을 제공하는 곳이라고 믿으며, 모든 고객이 탁월한 규모와 성능을 누릴 수 있도록 지속적으로 혁신해 나가고 있다”고 말했다. 그는 “지코어의 자랑은 유연성이며, 서비스를 배포할 때 이미 트레이닝된 모델도 제공하지만 고객이 원하는 LLM을 우리쪽에 배포해서 원하는 방식으로 사용가능하다”며 “우리의 방식과 고객의 방식 다 제공 가능해서 극강의 유연성을 자랑한다”고 강조했다. 파브리스 모이잔 CRO는 “지코어는 엣지 AI를 생각하고 배포하고자 하는 고객에게 정말 실행할 수 있게 하는 부분을 지원할 수 있다”며 “한국 고객사에게 미래로 일컬어지는 엣지 AI로 갈 수 있는 가장 빠른 길을 제안할 수 있다”고 밝혔다. 인퍼런스 앳 더 엣지는 특히 GDPR, PCI DSS, ISO/IEC 27001 등 업계표준을 준수하는 데이터 프라이버시 및 보안을 보장한다. 안드레 레이텐바흐 CEO는 “특히 많은 사람이 데이터 주도권, 데이터 보안 이슈를 걱정하고 있다”며 “지적재산권 문제에 대해서도 여러 기업과 함께 해결책을 모색하고자 한다”고 말했다. 파브리스 모이잔 CRO는 “지코어는 유럽 회사기 때문에 GDPR과 전세계 최초의 AI 법에 대응하는 경험을 가졌으며 10년간 보안 솔루션을 제공해왔다”며 “데이터 보안과 주권에 대해 선도 기업이라 자신하며, 유럽회사로서 더 중립적으로 서비스를 제공할 수 있고, 사우디아라비아에서 프라이빗 소버린 클라우드 구축 계획도 발표했다”고 설명했다. 안드레 레이텐바흐 CEO는 “한국은 매우 빠르고, 기술을 선도하는 기업이 많은 나라기 때문에 한국 기업과 협업하면 세계가 어디로 향하는지 알 수 있다”며 “그들과 같이 성장하고 생태계를 발전시킬 수 있도록 노력하겠다”고 강조했다.

2024.07.11 13:58김우용

이음, 파두와 연내 CXL용 칩 제작 돌입…"sLM 시장 노린다"

국내 팹리스 파두의 자회사 이음이 연내 CXL(컴퓨트익스프레스링크) 칩 제작에 착수한다. 오는 2026년 CXL 3.0용 스위치 SoC(시스템온칩)를 상용화하는 것을 목표로 파두와의 시너지 효과를 극대화한다는 전략이다. 한진기 이음 대표는 최근 서울 소재의 파두 본사에서 기자들과 만나 CXL 제품 개발 로드맵에 대해 이같이 밝혔다. 이음은 국내 메모리 분야 팹리스인 파두가 지난해 10월 미국 실리콘밸리에 설립한 자회사다. 차세대 메모리 솔루션으로 주목받는 CXL 관련 기술을 전문으로 개발하고 있다. CXL은 고성능 서버에서 CPU(중앙처리장치)와 함께 사용되는 GPU 가속기, D램, 저장장치 등을 효율적으로 활용하기 위한 차세대 인터페이스다. 기존 각각의 칩들은 별도의 인터페이스가 존재해 원활한 상호연결이 어렵다는 문제점이 있었다. 반면 CXL은 PCIe(PCI 익스프레스; 고속 입출력 인터페이스)를 기반으로 각 칩의 인터페이스를 통합해 메모리의 대역폭 및 용량을 확장할 수 있다. 정해진 아키텍쳐에 따라 서버 내 칩을 구성해야 하는 기존 시스템과 달리, 용도에 따라 유연하게 구성을 설계할 수 있다는 점도 CXL의 장점이다. 또한 CXL은 시스템 반도체와 메모리의 거리가 멀어져도 원활한 통신을 가능하게 해, 더 많은 메모리 모듈을 연결할 수 있게 만든다. 이음은 이 CXL의 핵심 요소인 스위치 SoC를 개발하고 있다. 스위치는 서버 내 시스템반도체와 메모리 등이 동일한 인터페이스로 통신할 수 있게 조율해주는 가교 역할을 담당한다. 한 대표는 "CXL이 차세대 데이터센터 솔루션으로 각광받고 있으나, 스위치 기술은 높은 개발 난이도로 아직 상용화에 이른 곳은 없다"며 "이음은 스위치 SoC와 소프트웨어를 모두 개발해 시장을 선점할 것"이라고 밝혔다. ■ "연내 칩 개발 착수…파두와 시너지 효과 낼 것" 한 대표는 삼성전자, SK하이닉스 등 주요 반도체 기업에서 SSD 등 메모리 개발에 주력해 온 반도체 전문가다. 이후 미국 실리콘밸리에서도 반도체 관련 스타트업을 운영했으며, 2022년경부터 CXL에 주목해 사업 진출을 검토해 왔다. 미국 현지에서도 협업을 제안한 기업들이 있었으나, 한 대표는 파두와 손을 잡기로 했다. 이후 지난해 10월 파두의 자회사로 이음이라는 회사를 공식 설립했다. 한 대표는 "파두는 SSD 컨트롤러 분야에서 단연 최고 수준의 기술력을 지닌 기업으로, SSD도 PCIe 표준을 활용해 CXL과 기술적 연관성이 깊다"며 "CXL 스위치를 만들기 위해선 전문 엔지니어들이 많이 필요한데, 이음은 설계를 담당하고 파두가 칩 제작을 지원하는 구조로 협업할 예정"이라고 설명했다. 현재 이음은 CXL 스위치 칩의 아키텍처, 모델 등을 모두 개발한 상태다. 칩을 만들기 위한 사전단계는 모두 끝낸 격으로, 연내 파두와 칩 제작에 돌입할 수 있을 것으로 전망된다. 한 대표는 "파두와 일정을 조율해 연내 칩 제작을 시작하면 1년 반 정도의 시간이 소요될 것으로 보고 있다"며 "4나노미터(nm) 수준의 최선단 공정을 활용할 예정으로, 삼성전자와 TSMC를 모두 고려하고 있다"고 밝혔다. ■ 목표 시장은 LLM이 아닌 'sLM' 이음이 바라보는 CXL의 유망한 적용처는 LLM(거대언어모델)이 아닌 sLM(소형언어모델)이다. 현재 AI 업계에서 챗GPT로 대표되는 LLM이 가장 많은 주목을 받고 있으나, 데이터 처리 효율성을 고려하면 특정 목적에 초점을 맞춘 sLM이 향후 각광받을 것이라는 판단 하에서다. 한 대표는 "엔비디아와 오픈AI가 주도하는 LLM은 400GB 이상의 데이터 용량을 요구하는데, 간단한 답변을 얻기 위해 이러한 대규모 모델 전체를 구동하는 것은 매우 비효율적"이라며 "향후에는 50~80GB 급의 sLM을 여러 개 두고 목적에 따라 특정 시스템만을 구동하는 방식으로 나아갈 것"이라고 내다봤다. 이러한 sLM 구동 모델에서는 CXL이 핵심 역할을 담당할 수 있다. CXL은 서버 내 각 칩들을 유기적으로 연결하기 때문에, 목적에 따라 구동 시스템을 변환하면서 서비스하는 데 최적화돼있다. 그는 "현재 시스템은 아키텍처가 정해져 있는 데 반해, CXL은 스위칭 기술로 데이터센터 내 구성 요소를 자유롭게 커스터마이즈할 수 있다"며 "이 경우 데이터센터의 유지비용이 획기적으로 줄일 수 있게 된다"고 말했다. ■ CXL, 3.0부터 본격 개화…한국도 미리 에코시스템 갖춰야 CXL은 이를 지원하는 각종 시스템반도체와 메모리, 표준 등 제반 기술이 구축돼야만 실제 적용이 가능하다. 그러나 현재로선 2.0 버전의 일부 개별 요소만이 개발 완료됐을 뿐, 전체 시스템 구축에는 더 많은 시간이 걸릴 것으로 전망된다. 한 대표는 "AI 산업에서 CXL이 본격적으로 개화하는 시기는 오는 2026년 CXL 3.0이 도래하는 때가 될 것"이라며 "이음 역시 CXL 3.0용 스위치를 2026년 상용화하는 것을 목표로 하고 있다"고 밝혔다. 또한 이음의 구체적인 비즈니스 모델은 단순히 칩 공급에만 있지 않다. CXL은 엔비디아의 NV링크, NV스위치처럼 각 칩의 통신을 돕는 소프트웨어가 반드시 필요하다. 이음은 CXL용 소프트웨어를 함께 개발 중으로, 고객사가 이음 칩 활용시 소프트웨어를 구독해 지속적인 매출을 올리는 사업 방향을 구상하고 있다. 끝으로 한 대표는 "CXL 스위치를 잘 만들기 위해서는 시스템반도체와 그 하위 시스템을 모두 이해하고 검증할 수 있는 에코시스템이 갖춰져야 한다"며 "우리나라도 AI 시대를 대비하기 위해선 다양한 기업들이 협력할 수 있는 새로운 생태계를 만들어야 할 것"이라고 강조했다.

2024.07.10 14:48장경윤

연구소까지 만든 엠클라우독, 'AI 주도권' 잡기 시동

엠클라우독이 인공지능(AI) 시장에서 최신 기술을 앞세워 시장을 선도하기 위해 본격 나섰다. 엠클라우독은 최근 AI 개발연구소와 기획연구소를 신설했다고 10일 밝혔다. 엠클라우독은 이번 인공지능 개발연구소 및 기획연구소 신설을 통해 최신 AI 기술을 연구하고 업계 최고 수준의 솔루션을 고객들에게 제공하는 것을 목표로 한다. 엠클라우독은 지난 20여 년간 공공, 금융, 제조 등 다양한 분야의 기업 및 기관에 문서중앙화 솔루션을 제공하고 있다. 특히 2022년 출시된 '아이독(aidoc)'은 사내 지식자산 관리를 돕는 인공지능 지식관리 솔루션으로, 열람 중인 문서와 유사한 문서를 자동으로 추천해주는 '유사문서 추천', 문서와 관련 있는 사내 직원을 추천해 협업을 돕는 '전문가 추천' 등 다양한 기능을 제공한다. 생성형 AI가 결합된 지식관리 솔루션 '아이채터(aichatter)' 역시 생성형 AI 챗봇, 프롬프트 빌더, AI 번역 서비스 등을 통해 고객들의 업무 효율성을 높일 예정이다. 엠클라우독은 올해 하반기 싱가포르에서 개최되는 '빅 데이터 앤 AI 월드(Big Data & AI World) 2024'를 비롯한 다양한 국내외 전시회에도 참가할 계획이다. AI 지식관리 솔루션을 선보이기 위해서다. 엠클라우독 관계자는 "이번 연구소 신설은 엠클라우독이 AI 기술 선도 기업으로 자리매김하는 데 중요한 전환점이 될 것"이라며 "우수한 기술력과 각 분야 전문가들의 협업을 통해 고객들에게 더욱 편리한 솔루션을 제공할 수 있도록 최선을 다하겠다"고 말했다.

2024.07.10 11:13장유미

에이모, AI 솔루션 개발 위한 학습데이터 구축 지원한다

에이모(대표 오승택)가 '2024 데이터바우처 지원사업' 공급기업으로서 수요기업으로 선정된 기업들과 협약을 체결, AI 개발을 위한 데이터 구축 사업을 지원한다고 10일 밝혔다. 과학기술정보통신부와 한국데이터산업진흥원이 주관하는 '2024 데이터바우처 지원사업'은 데이터수요와 공급의 생태계를 조성하고 디지털 기반 데이터 활용 활성화 촉진을 위해 비즈니스 혁신 및 서비스 개발이 필요한 기업을 대상으로 바우처 형식의 데이터 구매, 가공 서비스를 지원하는 사업이다. 에이모는 수요기업에게 자사 핵심기술인 '에이모 코어'를 활용해 로봇·물류·환경 등 분야의 솔루션 개발을 위한 데이터 구축 사업을 지원하고 각 사의 새로운 비즈니스 창출 기회를 제공할 계획이다. 에이모 코어는 디지털 전환 산업에 데이터 최적화, AI 모델링 솔루션을 제공하는 서비스다. 데이터 수집부터 정제, 가공, 평가까지 데이터 관리 과정에서 AI 모델에 필요한 데이터를 제공해 최적의 효율을 추구하는 것이 핵심이다. 이번 협약으로 에이모는 수요기업에 ▲과실 수확 로봇 ▲영상기반 콘텐츠 생성형 인공지능 ▲냄새 감지기와 센서를 활용한 환경 모니터링 및 객체 인식 ▲맞춤형 자율학습 ▲3D 모션 제작 서비스형 소프트웨어(SaaS) 사업을 위한 모션 스타일 트랜스퍼 모델 ▲자율 비행 드론을 이용한 물류창고 재고조사 ▲AI를 활용한 트럭 고장 진단 및 정보 제공 시스템 등 솔루션 개발을 위한 학습 데이터 구축을 적극 지원한다. 에이모 관계자는 "다수의 글로벌 기업과 프로젝트를 진행한 경험을 바탕으로 AI 모델 개발에 있어 학습 데이터의 중요성에 대한 높은 이해도를 갖고 있다"며 "그동안 쌓아온 경험과 노하우를 기반으로 수요기업들에게 고품질의 데이터를 제공해 실효성이 있는 AI 개발을 적극 지원하고, 국내 AI 산업과 데이터 시장을 성장시키는 데 기여할 수 있도록 노력하겠다"고 말했다.

2024.07.10 10:52백봉삼

조주완 LG전자 CEO "AI·디지털 기반 서비스로 차별화 경험 제공"

조주완 LG전자 최고경영자(CEO)가 AI와 디지털을 통해 고도화한 글로벌 고객 서비스 시스템 현황 점검에 나섰다 LG전자는 고객 서비스 영역 전반에서 AI와 디지털 기술을 활용해 서비스 정확도와 속도를 높이고 있다. GPS 기반의 실시간 고객 관리 시스템을 비롯해 AI 상담 및 원격 진단·조치 시스템, 사용 데이터 기반 제품 진단 시스템, 선제적인 고객 페인포인트 발굴·개선 시스템 등이 대표적이다. 조 CEO는 지난 9일 서울 마곡 LG사이언스파크에서 한국 및 해외의 고객접점 서비스 시스템을 집중 점검하고 "AI와 디지털을 통해 고객접점을 지속적으로 혁신하며 글로벌 고객에게 LG전자만의 차별화된 서비스 경험을 제공할 것"을 당부했다. 그는 특히 서비스 품질의 지속적인 제고를 위해 구축한 조직적인 통합 지원 체계와 DX 성과를 꼼꼼히 들여다봤다. 지난 2021년 본격 도입한 실시간 고객 상황 관리 시스템 G-CAS(GPS-based Customer Assistant system)가 대표적인 예다. G-CAS는 고객과 서비스매니저의 실시간 위치를 파악해 맞춤형 서비스를 제공하는 시스템이다. 교통 상황으로 서비스매니저가 약속한 시간에 도착하지 못하는 경우 가장 근접해 있는 매니저를 대신 배치하거나, 제품 수리 중 부품 수급이 필요한 경우 해당 부품을 가진 인근 매니저가 즉시 지원하는 식이다. LG전자는 또 구매·상담·서비스 등 고객 이력을 한 번에 확인할 수 있는 '고객 One View'에 최근 스마트홈 플랫폼 LG 씽큐(ThinQ)의 다양한 데이터를 접목해 기반한 효율적인 상담 및 원격 진단·조치를 시행 중이다. 이 외에도 ▲제품을 분해하지 않고도 사용 정보를 통해 고장 여부를 확인할 수 있는 'LG 스마트 체크' ▲무인상담 서비스 'AI 챗봇' 등도 갖췄다. 해외를 대상으로도 해외 서비스 종합 상황실을 구축, 50여개 법인의 서비스 운영 지표를 실시간 관리하고 있다. 글로벌 가전 기업으로서 해외에도 지역 편차 없는 수준 높은 서비스 경험을 제공하겠다는 목표다. 아울러 한국서비스 명장 등으로 구성된 전문가 조직을 꾸려 출장 교육을 통해 한국서비스의 우수한 서비스 역량을 해외로 전파한다. 또 직접 교육 및 코칭하는 것에서 나아가 전문성이 담긴 수리 콘텐츠를 제작·배포해 해외 법인에서 이를 활용해 자체적으로 역량을 높일 수 있도록 하고 있다. 조 CEO는 또 50여 개 해외 법인 산하 60여 개 상담센터 운영 지표를 실시간으로 관리하는 글로벌 상담센터 통합 상황실도 점검했다. 특히 글로벌 고객의 불편 사항을 빠르게 파악해 대응하는 호크아이(Hawk-Eye) 활용 현황을 꼼꼼히 확인했다. 호크아이는 상담 데이터나 온라인 트렌드를 모니터링, 선제적으로 고객 페인포인트를 찾고 개선하는 시스템이다. 아직 불편을 느끼지 못하던 고객들의 잠재 페인포인트까지 사전에 방지할 수 있다는 게 장점이다. HE사업본부 HE연구소에서 개발했다. 해외에서는 또 AI 상담 인프라를 이용해 언어와 지역, 시간의 경계 없는 24시간 다국어 응대 시스템 구축을 추진하고 있다. 60여 개 언어를 실시간으로 번역해 고객이 원하는 정보를 고객의 언어로 전달하고, 자연어 처리 기술로 고객의 숨은 의도까지 파악하는 자연스러운 대화가 가능하다는 점이 특징이다. 우선 유럽 지역에서 통합 챗봇을 운영하며 중장기 무인상담률을 50%까지 늘릴 계획이다. 조 CEO는 “방대한 데이터에 새로운 시각으로 접근해 고객에게 유의미한 도움을 줄 수 있는 지표를 찾아야 한다”며 “세계 곳곳의 고객들에게 더욱 수준 높은 서비스 경험을 제공할 수 있도록 DX 활동을 지속해 나갈 것”이라고 강조했다. 한편 조 CEO는 서비스 시스템 현장 점검 후 27년 간 외진 섬마을을 돌며 가전 수리를 담당한 목포센터 서요신 기정 등 국내외 고객접점 최일선에서 일하는 서비스매니저들을 만났다. 그는 이 자리에서 “서비스는 고객이 다시 한 번 LG전자를 사랑하게 만들 수 있는 소중한 골든타임”이라며 “책임감 있게 업무에 임하는 여러분이 자랑스럽다”고 격려했다.

2024.07.10 10:00이나리

"돈 없으면 못한다"…앤트로픽 창업자, AI 비용 급등 경고

다리오 아모데이 앤트로픽 창업자 겸 최고경영자(CEO)가 향후 인공지능(AI) 훈련 비용이 현재보다 최대 1천 배까지 상승할 것으로 예상했다. 9일 캐나다 IT 전문매체인 톰스하드웨어에 따르면 아모데이 CEO는 지난 6월 팟캐스트를 통해 현재 챗GPT와 같은 대형 AI 모델을 훈련하는데 약 1억 달러가 소요된다고 주장했다. 또 향후 3년 안에 100억~1천억 달러까지 훈련 비용이 증가할 가능성이 있다고 봤다. 아모데이 CEO는 AI를 일반인공지능(AGI)으로 발전시키는 방안에 대해 언급하며 AGI로의 급격한 도약 대신 '어린아이가 학습하는 것과 같은 모델'의 점진적 발전을 예상했다. AI 모델이 매년 10배 강력해질 경우 AI 훈련에 필요한 하드웨어의 발전도 필요할 것으로 예측했다. 또 하드웨어 비용이 훈련 비용의 주요 요인이 될 것으로 봤다. 실제로 일부 기업들의 행보는 이러한 예측을 뒷받침하고 있다. 오픈AI와 마이크로소프트는 1천억 달러 규모의 AI 데이터센터를 구축할 계획을 세웠다. 일론 머스크는 30만 개의 AI 칩을 활용해 자신의 회사인 그록(Grok)의 챗봇을 개선하기 위해 나섰다. 엔비디아(NVIDIA)의 최신 그래픽처리장치(GPU) 'B200'의 가격이 개당 약 3만~4만 달러인 점을 고려할 때 아모데이의 예측은 연내 현실화될 가능성이 크다. 또 전력 공급 및 관련 인프라도 비용 상승의 주요 원인이 될 전망이다. 지난해 판매된 모든 데이터센터용 GPU는 미국에 거주하는 130만여 가구가 사용하는 전기량을 소모했다. 엔비디아의 차세대 GPU인 'B100'은 기존 제품인 'H200'에 비해 전력 소모량이 40% 증가한 1천 와트를 소모할 것으로 예상된다. 톰스하드웨어는 "데이터센터의 전력 요구량이 기하급수적으로 증가하면 전기 가격도 상승할 것"이라며 "이러한 이유로 마이크로소프트 등의 테크 대기업들이 데이터센터의 모듈형 원자력 발전을 고려하기 시작했다"고 말했다.

2024.07.09 15:38조이환

거짓말하는 생성형AI, 내 투자는 누가 책임지나?

생성형 인공지능(AI)이 전 세계를 강타하면서, 우리나라 금융사도 조금씩 생성형AI를 업무에 도입하고 있다. 오는 10월 망 분리 규제 완화가 이뤄진다면 생성형AI가 광범위하게 이용될 것으로 관측된다. 이에 앞서 생성형AI로 인한 리스크에 대한 선제적 관리·감독 방안이 필요한 것으로 보인다. 한국금융연구원이 주최한 '미래의 거대트렌드가 가져올 금융의 변화' 세미나에서 자본시장연구원 이효섭 금융산업실장은 "기술이 발전하면서 금융산업도 변화하고 있다"며 "생성형AI와 클라우드가 쓰이면서 금융산업에 미칠 리스크 요인들도 상존하고 있는 상황"이라고 진단했다. 가장 대표적으로 꼽히는 것은 개인 및 회사의 중요 정보가 유출될 위험이 있다는 것이다. 데이터 유출은 빅데이터가 거론됐던 때부터 리스크로 늘 꼽혀왔다. 생성형AI에서는 이보다 더 나아가 데이터 자체 문제로 생길 수 있는 문제도 추가된다. 이효섭 실장은 "거짓 정보 또는 과잉 정보 생성으로 인한 위험으로 학습한 데이터가 사실이 아니거나 최신 정보로 업데이트 하지 않은 경우 생성형AI가 사실과 다르게 데이터를 생성할 수 있다"고 말했다. 또 금융안정성면에서도 리스크가 생길 수 있다. 이 실장은 "생성형AI 활용 시 알고리즘 오류가 발생하거나 알고리즘이 지배력을 가질 경우 금융시장 변동성이 활대될 개연성이 있다"고 부연했다. 금융위원회 김소영 부위원장 역시 "생성형AI로 개인 정보가 누설되거나 딥페이크 기술을 이용한 금융 사기, 금융 정보 유출 위험이 있다"며 "생성형AI가 사실과 다른 정보를 생성해 의사 결정의 왜곡이 일어나고 사회적 신뢰 훼손이 이뤄질 가능성도 있다"고 짚었다. 현재까진 망 분리 규제로 인해 금융권의 생성형AI 도입은 제한적인 상황이다. 오픈된 대규모 언어 모델(LLM)을 쓸 수 없는 물리적 상황이기 때문이다. 하반기 금융사에 제한적이나마 망 분리 규제 완화 가능성이 높아져 생성형AI에 관한 가이드라인이 우선돼야 한다는 업계의 우려도 나오고 있다. 금융감독원 심은섭 디지털혁신총괄팀장은 "생성형AI만으로는 가이드라인이 없지만 AI 전체에 대한 가이드라인이 있으며 위험 관리에 대한 내용이 포함됐다"며 "일각에선 생성형AI에 맞는 내용들이 추가되거나 별도로 마련해야 한다는 지적이 있어 금융위원회의 금융데이터정책과와 함께 논의 중"이라고 말했다. 지난 3월 금융권AI협의회가 열렸으나 이후에는 추가적으로 논의된 내용은 없는 상태다.

2024.07.09 10:50손희연

[유미's 픽] "블랙웰부터 수랭식 도입해라"…엔비디아 경고에 韓 데이터센터 '이것' 관심

"차기 그래픽처리장치(GPU)인 '블랙웰'부터는 데이터센터에 수랭식(흐르는 물)을 도입하기 바랍니다." 전 세계 인공지능(AI) 칩 시장을 장악한 엔비디아가 최근 데이터센터를 운영하는 업체들을 향해 이처럼 경고하고 나섰다. AI 열풍으로 고성능 GPU 도입이 늘어나면서 현재 공랭식 위주로 운영되는 데이터센터에서 열 관리가 감당되지 않는다고 판단돼서다. 9일 업계에 따르면 국내서 자체 데이터센터를 보유하고 있는 삼성SDS, LG CNS 등 일부업체들은 최근 수랭식보다 한 단계 더 발전한 '액침냉각' 시스템 도입을 잇따라 추진 중인 것으로 파악됐다. 온도가 일정 수준 이상 올라가면 화재 위험이 커지는 데다 서버를 식히는 냉각장치에 들어가는 전기 소비량이 갈수록 늘어나는 만큼, 에너지 낭비를 줄이기 위해 국내 기업들도 대안 찾기에 적극 나선 분위기다. 액침냉각 시스템은 특수 액체인 냉각유에 데이터 서버 등을 담가 열을 식히는 열관리 기술로, 기존의 공기 냉각 방식에 비해 훨씬 높은 냉각 성능을 제공한다. 또 기존에 일부 부품에만 냉각 시스템을 적용했던 것에서 한 걸음 나아간 기술이란 평가도 받는다. 기존에 많이 쓰이던 수랭식, 공랭식 시스템은 기계를 차가운 물이나 공기를 활용해 식히는 간접적인 냉각 방식이다. 반면 액침냉각은 액체 상태의 냉각유가 기계를 휘감아 온도를 내리는 더 직접적인 냉각 시스템으로 분류된다. 수랭식 시스템은 차가운 공기 활용해 열을 식히는 공랭식보다 약 20% 적은 에너지를 사용하는 것으로 알려졌다. 액침냉각은 공랭식보다 전력효율을 약 30% 이상 개선할 수 있는 것으로 전해졌다. 이에 업계에선 액침냉각이 데이터센터의 전력 사용량을 절감하고 향후 운용 비용을 낮출 뿐 아니라 공간 활용도를 높이는 데 더 기여한다는 점에서 크게 주목하고 있다. 업계 관계자는 "현재 많이 쓰이는 공기 냉각 방식은 전력 사용 효율성이 액침냉각 기술보다 낮은데다 소음도 높다"며 "초기 비용과 운영 비용을 고려해야 하지만, 전력 비용 절감과 높은 냉각 성능을 고려하면 장기적인 비용 절감 효과를 기대할 수 있다"고 설명했다. 국내에서 액침냉각에 가장 큰 관심을 보이고 있는 곳은 SK텔레콤이다. 지난해 11월 인천사옥에 AI 서비스를 위한 전용 데이터센터를 구축하며 액침냉각 기술을 이곳에 올 하반기 중 본격 도입하겠다는 계획을 밝힌 바 있다. 이를 위해 SK텔레콤은 업계 최초로 실제 IDC 환경에서 액침냉각 기술 효과를 입증했다. SK엔무브, 미국 GRC와 손잡고 지난해 6월부터 약 4개월간 테스트를 진행한 결과, 기존 공랭식 대비 냉방 전력의 93%, 서버 전력에서 10% 이상 절감돼 총 전력 37%를 줄일 수 있었던 것으로 분석됐다. 삼성SDS는 지난 2022년 12월 가동을 시작한 동탄 데이터센터에 수랭식 시스템과 함께 액침냉각 시스템 적용을 위한 관련 인프라도 갖춰놓은 상태다. 다만 국내 기업들이 비용 부담과 함께 액침냉각에 대한 신뢰가 적어 적극 활용에 나서지 않아 시설을 비워 놓은 채 운영되고 있다. LG CNS는 오는 2028년께 부산 데이터센터에 액침냉각 방식을 적용하기 위해 연구 중이다. 현재 이곳에는 '빌트업 항온 항습 시스템'이 적용돼 있는데, 이 시스템은 차가온 공기를 순환시켜 열을 식히는 기존의 항온항습기보다 한층 진화된 방식으로 평가된다. 이를 통해 LG CNS는 연간 냉방 전력 35%를 이미 절감하고 있다. 다만 다른 대기업 SI 업체들과 달리 SK C&C는 판교, 대덕 등에서 데이터센터를 운영 중이지만 액침냉각 방식은 따로 검토하고 있지 않은 것으로 파악됐다. 비용 부담이 큰 만큼 고객사들이 원하면 도입을 고려하겠다는 입장이다. KT클라우드, NHN클라우드, 카카오엔터프라이즈 등 국내 클라우드 서비스 제공 사업자(CSP)들도 데이터센터에 아직은 액침냉각 도입에 미온적이다. 네이버클라우드만 춘천, 세종에 위치한 데이터센터에 액침냉각 도입을 검토 중이나, 구체적인 일정은 아직 미정이다. 대신 KT와 NHN, 카카오 등은 국내에 아직 적극 도입되지 않은 수랭식에 많은 관심을 보이고 있다. KT는 내년에 오픈하는 가산 데이터센터에, 카카오는 향후 건립될 제2데이터센터에 수랭식을 처음 도입할 계획이다. NHN은 현재 판교 데이터센터와 광주 국가 AI 데이터센터 모두 공랭식을 도입했으나, 액침 및 수랭식 시스템 등 다양한 냉각 방식에 대한 기술 검토를 이어나가고 있다. 다만 KT는 액침냉각 시스템 전문기업 이머젼4와 데이터센터 액침 냉각 시스템 적용을 위한 MOU(업무협약)을 체결했다. 업계 관계자는 "최근 구글, 마이크로소프트(MS), 메타 등 글로벌 빅테크 기업들은 자체 데이터센터를 설립할 때 공랭식 대신 수랭식 시스템을 중심으로 적용하는 추세"라며 "AI 기능이 고도화되면서 고성능 GPU를 써야 하는 경우가 점차 많아지고 있는 만큼, 데이터센터 냉각 시스템 구축에 대한 기업들의 고민도 늘어날 것"이라고 밝혔다. 그러면서도 "아직까지 국내에선 수랭식을 도입한 기업들도 많지 않은 상황에서 액침냉각의 안전성에 대한 불신이 여전하다"며 "국내에서 액침냉각이 널리 쓰이는 데까진 상당한 시일이 걸릴 것으로 보인다"고 덧붙였다.

2024.07.09 10:23장유미

  Prev 31 32 33 34 35 36 37 38 39 40 Next  

지금 뜨는 기사

이시각 헤드라인

美 "보조금 줄게, 지분 내놔"...삼성·SK까지 확대되나

삼성·SK, 하반기도 낸드 투자에 보수적…장비 업계 '한숨'

"글로벌 게이머 축제"…게임스컴 2025 개막, 'K-게임' 글로벌 공략 시동

구글에 韓 정밀지도 내줘도 괜찮다?...공정위, 주병기 후보자 관련 보도 해명

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.