• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'ai'통합검색 결과 입니다. (9643건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

셀바스AI, 스마트안전 관제에 AI 음성인식 기술 적용

셀바스AI는 자사 인공지능(AI) 음성인식 기술 '셀비 STT'를 범죄 예방 및 생활안전 보장 등 스마트 안전관제 영역에 적용했다고 30일 밝혔다. 이 솔루션은 대전 소방청의 119 신고 접수, 음원 분석 등에 활용되고 있다. 대전 소방청은 AI 기반 119 신고접수 시스템을 통해 지난해 총 37만 6천여 건 접수, 하루 평균 1천30건 처리되는 등 신고 편의를 높였다고 평가했다. 이 외에도 셀바스AI 측은 공중 화장실, 지하보도, 공영주차장, 폐쇄회로(CCTV) 미설치 지역, 통학로, 공원 등 인적이 드문 치안 취약지역에 범죄 예방 및 생활안전을 위해 음성인식 활용도가 높아지고 있다는 입장이다. 회사는 스마트 안전 관제 서비스 기술인 AI 명령어 음성인식 기술 '셀비 트리거'의 활용도를 높이기 위해 최대 '사람 살려' '살려주세요' '누구 없나요' '도와주세요' 등 여러 개의 명령어를 동시 인식할 수 있도록 고도화 중이다. 셀바스AI 윤재선 음성인식 사업대표는 "약 25년 간 사업화, AI 허브 등을 통해 확보한 학습 데이터로 지역별 사투리도 척척 알아듣는다"며 "모든 지역의 스마트 안전 관제 플랫폼, 안전 시설물 등으로 AI 음성인식 적용이 확대되어 중대재해처벌법 대상을 포함한 기업 및 기관이 신속하고 정확하게 위급상황에 대응, 예방할 수 있을 것으로 기대한다"고 전했다.

2024.01.30 16:50김미정

AI 네트워킹, 인피니밴드에서 이더넷으로 대세 바뀐다

챗GPT 등장 후 생성형 인공지능(AI) 기반 서비스가 모든 산업군에 변화를 만들고 있다. AI 기술은 모든 산업의 새로운 먹거리로 인식되는 상황이다. 대기업, 인터넷서비스기업, 클라우드 기업 등은 AI 시장을 선점하려 대대적인 물량 투자와 함께 기업 인프라를 개혁하고 있다. 오늘날 AI 기술은 챗GPT 이전과 이후로 나뉜다고 할 정도다. 챗GPT를 뒷받침하는 트랜스포머 아키텍처는 인간과 소통하듯 '자연스러운' 대규모언어모델(LLM)을 만들어냈다. 그리고 이 '자연스러움'을 더욱더 인간처럼 구현하려면 방대한 규모의 고성능 GPU 클러스터 인프라가 필수적이다. AI 인프라의 근간인 GPU, 서버, 스토리지, 네트워크 등은 수많은 제품을 요구하는 고비용 서비스다. LLM의 경우 GPU 갯수를 늘릴수록 학습 시간을 획기적으로 늘릴 수 있는 구조다. 예를 들어 2년 전 나온 GPT-3.5의 경우 1만개의 GPU로 서비스된다. GPT-3.5를 GPU 한개로 학습시킨다면 약 355년이 필요하다. AI 인프라 기술 그 자체는 전과 크게 달라지지 않았다. AI 인프라가 작은 연산 자원을 대규모로 한대 묶어 성능을 획기적으로 높이는 고성능컴퓨팅(HPC) 기술을 근간으로 한다. HPC 기술은 처음에 CPU를 중심으로 발전하다 21세기 들어 GPU 클러스터로 발전했다. 현재 LLM 학습과 추론을 위한 GPU 시장은 엔비디아 독주 체제다. 엔비디아 텐서코어 H100이나 A100 GPU는 칩셋 하나당 5천만원 내외의 단가로 거래되고, 그마저도 공급부족으로 품귀현상을 보인다. 주문한다고 해도 구하기 쉽지 않고, 가격도 고공행진중이다. 오픈AI의 GPT, 구글 제미나이, 메타 라마 등 유명 LLM의 발전과 출시는 GPU의 빅테크 쏠림과 공급부족 현상을 한층 부추기고, 일반 수요자를 더 안달나게 만든다. 이런 독점 체제를 깨기 위해 AMD, 인텔 등이 경쟁 제품을 속속 출시중이다. ■ AI 인프라에서 네트워킹이 왜 중요한가 AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적인 것이다. 고성능 AI 인프라 수용을 위한 네트워킹은 전통적인 워크로드 수용을 위한 인프라보다 거대할 수밖에 없는 구조다. 노드 내 GPU 간 연산 능력은 4개의 GPU를 내부 버스를 통해 P2P로 연결하는 NV링크 또는 서버 내 8개의 GPU를 연결하기 위해 NV스위치를 통해 극대화 가능하다. 여러 GPU 노드를 클러스트링하고 각 GPU 노드들의 통신 간 병목현상을 최소화하려면 GPU 당 한개의 고성능의 네트워크인터페이스카드(NIC)를 할당하게 된다. 각 NIC는 400Gbps 대역폭을 수용할 수 있어야 한다. GPU 한개에 1대의 400Gbps급 스위치를 연결하게 된다. 400Gbps가 제공되는 고사양의 스위치를 근간으로 2티어에서 3티어 구조의 '리프스파인(Leaf-spine)' 아키텍처를 구성하므로 대형 GPU 노드 클러스터의 경우 최소 수십대의 400Gbps급 스위치가 기본 제공돼야 한다. 엔비디아의 멀티 GPU 클러스터 상품인 '슈퍼팟(SuperPOD)'의 경우 32대의 DGX H100 노드를 최대 256개의 GPU 클러스터링으로 연결하며, 이론적으로 최대 57.8 TBps의 데이터 연산 성능을 제공하게 돼 있다. 따라서 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요해진다. LLM의 경우 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. ■ 왜 인피니밴드보다 이더넷인가 AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩(Off-Loading)기술인 RDMA(Remote Direct Memory Access)는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA(Direct Memory Access)'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 인피니밴드나 RDMA오버컨버지드이더넷(RoCE)를 통해 활용가능하다. 수백개 GPU가 병렬처리를 통해 수백, 수천 시간을 학습하고 빠르게 서비스를 제공하려면 네트워크의 안정성도 중요하다. 잠깐의 방해도 재연산을 하게 만들 수 있다. 과거 네트워킹 기술의 성능과 안정성 면에서 인피니밴드가 이더넷보다 앞선 것으로 여겨져왔다. 인피니밴드가 이더넷의 대역폭을 월등히 앞섰기 때문에 HPC 분야에서 주료 인피니밴드를 활용했었다. 엔비디아 DGX 서버도 이더넷보다 인피니밴드를 장려한다. 안정성의 측면에서 인피니밴드는 패킷 무손실을 전제하지만, 이더넷은 어느정도의 패킷손실을 전제로 한다. LLM 인프라가 HPC 기술을 바탕에 두기 때문에 GPU 클러스터의 네트워킹은 인피니밴드를 주로 쓴다. 만약 앞서 계산했듯 기존 비즈니스 워크로드 대비 3~4배 많은 네트워킹 인프라 물량을 인피니밴드로 구성하면 비용 부담이 적지 않다. 특히 인피니밴드 기술은 제조사 간 경쟁이 사라진 독점 기술이다. 과거 인피니밴드 솔루션을 개발하고 공급해오던 기업들이 하나둘 대형 업체에 흡수되거나 사라졌는데, 마지막 독립 업체로 남아 있던 멜라녹스도 엔비디아에 인수됐다. 지금은 엔비디아가 인피니밴드 기술을 독점 공급하는 상황이다. 공개 표준 기술이 아니므로 인피니밴드 핵심 기술은 비공개다. 발전 방향이나 정도가 엔비디아 결정에 100% 달려있다. 비용 구조도 엔비디아 종속적이다. 심지어 인피니밴드 스위치 공급 부족 현상이 GPU 공급부족보다 더 심각하다는 말까지 나온다. 비용, 기술 모두 특정업체 종속적인 상황에서 인피니밴드는 외부의 여러 워크로드를 LLM에 연동하기 힘들게 하는 장애물이 된다. 인피니밴드를 다룰 줄 아는 전문가는 매우 희귀하며, 기술적 어려운 정도도 매우 높다. AI 인프라에서 인피니밴드가 당연시 된 건 이더넷 기술에 대한 오해 때문이기도 하다. 얼마전까지 인피니밴드는 속도 면에서 이더넷을 앞섰으며, 400Gbps란 대역폭은 인피니밴드의 전유물처럼 여겨졌었다. 하지만, GPU 제조사인 엔비디아도 네트워킹 영역의 무게중심을 인피니밴드에서 이더넷으로 이동하고 있을 정도다. 대부분의 기존 AI 네트워크 인프라는 인피니밴드라는 프로토콜과 특정 업체가 시장을 독점했지만, 이젠 표준 기반 기술을 통해 비용 이슈 제거 및 편리한 운영 관리가 가능한 표준 기반의 RDMA 방식인 RoCE가 인피니밴드 기술을 대체할 것으로 기대된다. 근래 들어 이더넷 진영은 400G, 800G 제품을 선보이면서 인피니밴드와 동등한 성능을 제공하게 됐다. 지금은 인피니밴드나 이더넷이나 현존하는 NIC과 스위치 포트에서 낼 수 있는 최대한의 대역폭이 400Gbps로 똑같다. 이젠 인피니밴드와 이더넷 모두에서 어느정도 동급 성능을 기대할 수 있을 정도로 이더넷 기술의 진화는 뚜렷해졌고 엔비디아의 GPU 성능 테스트 도구인 NCCL을 이용해 인피니밴드와 RoCE를 비교 테스트 결과를 보더라도 대역폭과 지연시간이 동등하거나 약간의 차이만 보일정도로 AI 인프라 영역에서의 이더넷 기술의 상당한 신뢰성을 제공할 수 있는 프로토콜로 발전하고 있다. RoCEv2(버전2)는 인피니밴드의 헤더와 RDMA 기술을 그대로 탑재했으며, TCP 제거, UDP 활용 등을 통해 이더넷 스위치의 지연시간을 개선하고 있다. 안정성 면에서도 PFC, ECN 등 이더넷의 표준 기술로 패킷 손실을 최대한 상쇄할 수 있다. 무엇보다 이더넷은 표준 기술이고 치열한 경쟁을 보이는 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 기술 로드맵상으로도 인피니밴드와 이더넷은 800Gbp란 같은 방향을 가리키고 있는데, 오히려 이더넷의 대역폭 증가가 인비니밴드를 앞선 상황이다. 인피니밴드의 800G 이후 계획은 시점을 확정하지 않은 반면, 이더넷의 800G는 이미 상용화됐다. 2025년이면 1.6Tbps 기반 패브릭 기술 제품도 출시될 것으로 예상된다. 이같은 흐름속에 시스코는 LLM 인프라용 제품으로 넥서스 시리즈 스위치를 제공하고 있다. 네트워킹 프로비저닝과 모니터링에 쓰이는 오케스트레이션 툴 '넥서스 대시보드'는 대규모 AI 인프라의 빠른 구축과 관리를 위해 턴키 기반 자동화와 로스리스 안정성을 보장하는 가시성을 제공한다. 또한 지연시간에 민감한 AI 트래픽의 가시성을 제공하는 분석 도구와 솔루션도 이용가능하다. 시스코는 특히 전용 SoC 칩으로 넥서스 스위치를 구동해 인피니밴드 장비보다 더 적은 전력으로 고성능 AI 인프라를 구동할 수 있다고 강조한다. AI 인프라에서 서서히 독점의 시대가 저물고 있다. 개방형 표준 제품과 기술이 갈수록 높아지는 AI 인프라 투자 및 운영 비용을 절감하고 기업 경쟁력을 높이는 열쇠가 될 것이다.

2024.01.30 16:07김우용

포티투마루, 하나증권·IBK기업은행서 추가 투자 받아

포티투마루(대표 김동환)가 하나증권과 IBK기업은행으로부터 후속 투자를 받았다고 30일 밝혔다. 하나증권과 IBK기업은행은 지난 2021년 말 시리즈A 투자에 참여했다. 그 후 약 2년 만에 시리즈B 라운드에서도 후속 투자를 이은 셈이다. 포티투마루는 이번 투자 단계에서 진행한 기술 평가에서 최고 등급인 T3를 받았다. 회사 측은 생성형 AI 서비스 구축에 필수 요소인 검색증강생성(RAG) 컨설팅부터 거대언어모델(LLM) 솔루션 구축까지 원스톱 서비스를 제공하는 등 시장 혁신성 및 성장 가능성이 투자 유치에 주요하게 작용했다고 전했다. 포티투마루는 생성형 AI의 단점인 환각 현상을 정확도 중심인 인공지능 독해(MRC) 기반의 QA 모델과의 엔지니어링으로 완화하는 기술을 공급하고 있다. 전문 산업 분야에 특화한 모델을 구현함으로써 솔루션 구축과 학습, 서빙에 들어가는 비용을 줄이도록 돕는다. 이를 통해 기업 고객은 자사 프라이빗 모드를 통해 자사 내부 데이터와 민감한 정보 유출 없이 안전하게 LLM을 활용할 수 있다. 김동환 포티투마루 대표는 "후속 투자로 인해 기쁜 만큼 어깨가 무겁다"며 "포티투마루를 믿고 지원한 만큼 상용 AI 기술을 바탕으로 생성형 AI 시장을 선도해 나가겠다"고 전했다.

2024.01.30 11:28김미정

주니퍼네트웍스, AI 네이티브 네트워킹 플랫폼 발표

주니퍼 네트웍스는 AI 네이티브 네트워킹 플랫폼을 30일 발표했다. 7년간 축적된 인사이트 및 데이터 과학 발전을 바탕으로 훈련된 주니퍼의 AI 네이티브 네트워킹 플랫폼은 기본적으로 모든 기기, 사용자, 애플리케이션, 자산에 대해 매번 안정적이고, 측정 가능하며, 안전한 연결을 보장하도록 설계됐다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 캠퍼스, 브랜치, 데이터센터 네트워킹 솔루션 모두를 공통 AI 엔진과 마비스 가상 네트워크 어시스턴트(VNA)로 통합한다. 이를 통해 심층적 인사이트, 자동화된 문제 해결, 엔드투엔드 AI옵스를 구현한다. IT 팀은 기본적인 네트워크 연결 유지 관리에서 탈피해 학생, 교직원, 환자, 게스트, 고객, 직원에게 안전한 고품질 경험을 제공하는 데 주력할 수 있다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 간단하면서 안정적인 데이 0/1/2+ 운영을 제공한다. 기존 솔루션 대비 운영비용 최대 85% 절감, 사용자 지원 요청 최대 90% 감소, IT 현장 방문 횟수 85% 감소, 네트워크 사고 해결 시간 최대 50% 단축 등의 효과를 기대할 수 있다.. 주니퍼는 새로운 AI 네이티브 네트워킹 플랫폼과 더불어 몇 가지 신제품을 출시한다. 신제품들은 AI를 활용해 더욱 예측 가능하고, 안정적이며, 측정 가능한 IT 운영을 지원할 뿐만 아니라, AI 학습 및 추론을 위해 전문 설계된 하이 퍼포먼스 데이터센터 네트워크를 간소화하여 경험 최우선 네트워킹을 지원하게 된다. 새로운 AI 네이티브 네트워킹 플랫폼에는 마비스 최신 기능 두 가지가 포함된다. 미스트AI를 기반으로 하는 AI 네이티브 VNA인 마비스는 선제적 권고 조치와 셀프 드라이빙 운영, 대화형 인터페이스를 제공한다. 마비스 미니는 AI 네이티브 네트워킹 디지털 트윈 기능이다. 미스트 AI를 사용해 사용자 연결을 사전에 시뮬레이션함으로써 사용자가 없는 상태에서도 네트워크 구성을 즉시 검증하고 문제를 발견, 탐지한다. 미니는 최종 사용자, 클라이언트, 디바이스, 앱 등의 트래픽을 시뮬레이션해 비지도학습 기반으로 네트워크 구성을 학습하고, 네트워크 문제를 선제적으로 파악한다. 미니의 데이터는 지속적으로 미스트 AI 엔진에 전달돼 최적의 AIOps 대응을 위한 추가적인 인사이트 소스를 제공한다. 미니는 항상 켜져 있으며, 트리거 이벤트 또는 네트워크 사용이 적은 시간대에 자동 배포가 가능하기 때문에 별도의 수동 구성이 필요치 않다. 또한 마비스 미니는 기존 디지털 트윈 솔루션이나 신세틱 테스트와 달리 네트워크에 직접 통합되므로 외부 센서, 클라이언트, 애플리케이션을 통한 수동 모니터링 및 분석이 필요 없다. 데이터센터를 위한 마비스 VNA는 데이터센터용 AI 네이티브 VNA다. 모든 제조사 하드웨어에 대해 데이터센터 수명 주기 전반에 걸쳐 최고의 인사이트를 제공한다. 어떤 벤더의 하드웨어이든 관계없이 데이터센터 케이블링, 구성, 연결과 관련된 문제 발생 시 주니퍼 앱스트라에서 선제 권고 조치와 함께 마비스 액션 UI에 표시된다. 또한 마비스 대화형 인터페이스는 IT 팀이 생성형AI를 활용해 데이터센터 제품 설명서와 지식 기반에 직접 쿼리하고, 간단하고 효율적으로 인사이트를 얻을 수 있도록 해준다. 데이터센터 액션은 유선 액세스, 무선 액세스, 보안 SD-WAN에 대한 유사한 마비스 액션과 함께 단일 UI에 표시된다. 또한 동일한 마비스 CI가 모든 주니퍼 제품에서 지식 기반 쿼리를 생성하는 데 사용된다. 역대 최초로 주니퍼 고객은 모든 엔터프라이즈 도메인 전반의 엔드-투-엔드 가시성과 보장을 위한 단일 VNA를 확보하게 됐다. 주니퍼는 AI 데이터센터 솔루션을 확장하고 있다. AI 데이터센터 솔루션은 고성능 AI 학습 및 추론 클러스터를 배포하는 가장 빠르고 유연하며, 제한된 IT 리소스로 가장 단순하게 운영할 수 있는 방법이다. 주니퍼 AI 데이터센터 솔루션은 주니퍼 앱스트라로 운영되는 QFX 스위치와 PTX 라우터를 기반으로 한 스파인 리프 데이터센터 아키텍처로 구성된다. 주니퍼 앱스트라는 데이터센터 패브릭 관리, 자동화, 보장을 위한 멀티벤더 솔루션이다. 이 솔루션은 실리콘의 다양성, 멀티벤더 스위치 관리, 개방형 표준 기반 이더넷 패브릭 지원을 통해 벤더 종속을 방지하고 고객에게 유연성을 제공한다. 주니퍼 앱스트라는 이더넷을 통한 AI/ML 트래픽의 더욱 빠르고 효율적인 처리를 제공하도록 확장됐다. 여기에 혼잡 관리, 로드 밸런싱, 흐름 제어를 포함한다. 신제품 최신 익스프레스 5실리콘 기반 PTX 라우터 및 라인 카드는 고성능과 에너지 효율적인 지속가능성 보장을 기반으로 고밀도 800GE 용량에 필요한 대규모 확장을 지원한다. 신제품 QFX 스위치는 이전 세대 대비 2배의 용량을 제공하고, 800GE를 위한 최첨단 브로드컴 토마호크 5를 탑재했다. 새로운 PTX 플랫폼과 QFX 플랫폼 신제품 모두 고밀도 800GE 포트를 지원하며, 전력 효율성이 우수하고 확장가능한 AI 데이터센터 네트워킹을 위해 RDMA오버이더넷(RoCE v2)를 비롯한 필수 AI 인프라 프로토콜을 지원한다. 주니퍼 AI 네이티브 네트워킹 플랫폼은 성능과 보안을 유지하면서 지속가능성 요건을 초과 충족한다. AI 네이티브 네트워킹 플랫폼의 AIOps는 신속한 원격 문제 해결을 통해 특정 사례에서 사이트 간 이동을 85%까지 감소시킨다. 전력 효율이 뛰어난 하드웨어는 에너지 소비를 최소화하며 모듈형으로 설계되어 수리가 간편하고 제품 수명이 연장된다. 라미 라힘 주니퍼 네트웍스 최고경영자(CEO)는 "AI는 인터넷의 등장 이후 가장 큰 기술 변곡점이며, AI가 네트워킹에 미치는 지속적인 영향은 아무리 강조해도 지나치지 않는다”며 “주니퍼는 시장 판도를 변화시킨 AI옵스가 수천 개의 글로벌 기업에게 엄청난 시간과 비용을 절약하는 효과를 가져다주는 동시에 최종 사용자에게 탁월한 경험을 제공하는 방법을 직접 확인했다”고 밝혔다. 그는 “AI 네이티브 네트워킹 플랫폼은 주니퍼와 우리 업계를 위한 명확하고, 새로운 방향을 제시한다”며 “AI옵스를 최종 사용자에서 애플리케이션까지, 그리고 그 사이의 모든 네트워크 도메인으로 확장함으로써 네트워크 중단, 문제 발생 이슈 제시 및 애플리케이션 다운타임 문제를 해결하기 위한 큰 진전을 만들어내고 있다"고 덧붙였다.

2024.01.30 10:54김우용

블룸버그, '어닝콜' 뉴스 요약 AI 서비스 내놨다

미국의 경제전문 미디어그룹인 블룸버그가 생성 인공지능(AI)기술을 이용해 기업 실적을 요약해주는 서비스를 시작했다. AI 뉴스 요약 서비스는 지난 해 공개된 블룸버그GPT와 함께 블룸버그 단말기의 서비스를 향상시키는 데 큰 역할을 할 전망이다. 블룸버그가 1분기 실적 시즌을 앞두고 컨퍼런스 콜 주요 내용을 기사로 요약해주는 'AI 로 구동되는 어닝콜 요약' 서비스를 시작한다고 주요 외신들이 보도했다. 블룸버그는 이 기능을 단말기에 추가했다. 보도에 따르면 블룸버그는 기업 어닝콜에서 나온 실적 가이던드, 자금 할당, 고용 및 노동 계획, 거시경제, 신제품, 공급망 이슈, 소비자 수요 같은 내용들을 찾아낸 뒤 기사 형태로 생성해 준다. 현재 블룸버그 단말기 구독자는 32만5천 여 곳을 웃도는 수준이다. 블룸버그는 지난 해 금융 분야에 특화한 대규모 언어 모델(LLM) '블룸버그GPT'를 개발했다. 역시 단말기에 추가된 블룸버그GPT는 입력창에 자연어로 질문해도 관련 정보를 출력해주는 등의 기능을 갖고 있다. 특히 복잡한 금융보고서의 초안을 잡아주거나, 개별기업과 임원의 정보를 구조화해주는 기능도 있다.

2024.01.30 10:00김익현

IBM-한국퀀텀컴퓨팅, 왓슨x·양자컴퓨터 국내 도입 협력

IBM은 한국퀀텀컴퓨팅(KQC)과 협력해 한국 내 기업 고객에게 AI 소프트웨어와 인프라, 양자 컴퓨팅 서비스를 제공한다고 30일 발표했다. KQC 고객은 첨단 기업용 AI 모델 및 소프트웨어를 학습, 조정, 배치하는 AI 및 데이터 플랫폼인 왓슨x를 포함한IBM의 AI 풀 스택 솔루션을 활용할 수 있게 된다. KQC는 양자 컴퓨팅 분야에서 IBM과 협업을 확대하고 있다. 2022년부터 IBM 퀀텀 이노베이션 센터((구) IBM 퀀텀 허브)로 역할을 해온 KQC는 국내 고객에게 IBM의 글로벌 유틸리티 스케일의 양자 시스템 자원을 클라우드를 통해 계속 제공하고, 2028년까지 부산에 IBM 퀀텀 시스템 투를 설치할 계획이다. KQC는 국내 양자 컴퓨팅 생태계에 기여하기 위해 IBM뿐 아니라 기타 국내 기관과도 협력하고 있다. KQC 대표인 김준영 박사는 "KQC는 금융, 바이오-헬스케어, 제약 등 국내 유수 기업들과 양자 연구 협력을 활발히 이어오고 있다"며 "작년 단국대학교 병원이 양자 헬스케어 공동 연구 멤버로 합류했고, 한림제약은 IBM 퀀텀 이노베이션 센터 회원사로서 KQC와 함께 IBM의 양자 시스템, 소프트웨어, 리소스를 활용해 신약 개발을 위한 공동 연구를 시작했다"고 밝혔다. 그는 "국내 핀테크 스타트업인 디뉴로는 옵션 평가방식의 비상장 기업가치평가 및 초개인화 포트폴리오 분야에서 양자 알고리즘을 개발하고 있다"고 덧붙였다. 이 협력은 생성형 AI의 개발과 배포를 지원하는 인프라에 대한 투자를 포함한다. AI에 최적화된 인프라 설립 계획은 첨단 GPU와 IBM의 AI 반도체(AIU)를 포함하며, 클라우드 네이티브 환경을 제공하기 위해 레드햇 오픈시프트로 관리될 예정이다. 이 GPU 시스템과 AIU의 조합은 고객들에게 AI 연구와 비즈니스 기회를 강화할 수 있는 최첨단 하드웨어를 제공하기 위해 설계되고 있다. 또한 KQC의 고객들이 관리 및 런타임 요구를 충족하기 위해 레드햇 오픈시프트 AI를 활용하고, 생성형 AI와 차세대 컴퓨팅 기술에 대한 역량 강화를 위해 IBM 왓슨x 플랫폼을 활용할 수 있도록 풀 스택 솔루션을 제공하는 내용도 포함됐다. KQC 고객사는 자사 워크플로우와 솔루션에 왓슨x 소프트웨어를 도입함으로써 기업용 생성형 AI 기술을 활용할 수 있게 된다. 권지훈 KQC 회장은 "KQC는 IBM과의 협업을 통해 한국에 다양한 컴퓨팅 인프라를 제공하고 있다"며 "우리가 구축할 양자 및 AI 분야의 강력한 하드웨어 컴퓨팅 자원과 핵심 소프트웨어는 증가하고 있는 고성능 컴퓨팅에 대한 수요를 충족시킬 뿐만 아니라 산업 활용과 생태계 발전을 촉진할 것으로 기대한다"고 밝혔다. 그는 "KQC는 이번 협력 뿐만 아니라 산업별 파트너사와의 협업을 통해 서비스와 인프라를 꾸준히 강화해 나가고 있다"고 덧붙였다. 다리오 길 IBM 수석부사장 겸 리서치 총괄은 "이번 협약을 통해 KQC 고객은 첨단 AI 인프라와 IBM 왓슨x를 사용해 첨단 AI 모델을 학습, 미세 조정, 배치할 수 있게 될 것"이라며 "KQC의 고객들은 현재는 클라우드를 통해, 향후 몇 년 뒤에는 차세대 양자 시스템을 통해 IBM 양자 시스템을 활용할 수 있는 기회를 갖게 됨으로써 그들 업계의 가장 어려운 문제를 해결하기 위한 새로운 애플리케이션을 개발하는데 AI와 양자 기술을 통합해 사용할 수 있게 될 것이다"라고 강조했다.

2024.01.30 09:41김우용

리벨리온, 1650억원 규모 시리즈B 투자 유치 완료

AI 반도체 스타트업 리벨리온은 약 1천650억원 규모의 시리즈B 투자 유치를 마무리했다고 30일 밝혔다. 이로써 리벨리온은 창업 3년 반 만에 누적 투자유치 금액 총 2천800억원에 달하는 자금을 성공적으로 조달했다. 이는 국내 반도체 스타트업 중 가장 큰 규모의 누적 투자금이다. 이번 투자에는 기존 전략적 투자자(SI)인 KT와 더불어 kt cloud(케이티클라우드)와 신한벤처투자가 신규 SI로 참여하며 엔터프라이즈 및 금융 부문의 전략적 협업 관계를 강화했다. 또한 시리즈A에 투자했던 싱가포르 국부펀드 테마섹의 파빌리온 캐피탈을 비롯해 다수의 해외 투자자가 참여했다. 이외에도 ▲KDB산업은행 ▲노앤파트너스 ▲KB증권 ▲KB인베스트먼트 ▲SV인베스트먼트 ▲미래에셋벤처투자 ▲미래에셋캐피탈 ▲IMM인베스트먼트 ▲KT인베스트먼트 ▲서울대기술지주 ▲오아시스PE ▲경남벤처투자 ▲SDB인베스트먼트 등이 시리즈B 투자에 함께했다. 특히 리벨리온은 이번 시리즈B 라운드에서 다양한 글로벌 투자사의 투자를 이끌어내며 본격적인 해외 진출의 발판을 마련했다. 먼저 한국 스타트업으로는 최초로 파빌리온 캐피탈로부터 후속 투자를 받았다. 또한 프랑스 디지털 경제부 장관과 문화부 장관을 역임한 플뢰르 펠르랭 대표가 설립한 코렐리아 캐피탈, 일본계 벤처캐피탈인 DG 다이와 벤처스(DGDV)가 신규 투자자로 이름을 올렸다. 이번 투자 유치 성공을 바탕으로 리벨리온은 채용 시장에서도 그 기세를 이어간다. 전직군에 걸쳐 공격적인 인재 채용에 나서는 한편 글로벌 인재 확보에도 적극 나선다는 계획이다. 이를 토대로 초거대 언어 모델(LLM)을 겨냥해 삼성전자와 공동개발 중인 차세대 AI반도체 '리벨(REBEL)' 개발에도 박차를 가할 예정이다. 또한 올해 데이터센터향 AI반도체 '아톰(ATOM)'의 양산이 개시됨에 따라 보다 본격적으로 국내외 고객 확보에 나선다. 신성규 리벨리온 CFO는 “녹록치 않은 투자환경 속에서도 투자자들이 1천650억원이라는 큰 규모의 투자를 결정해주신 덕분에 대한민국의 간판 AI반도체 기업으로서 확고한 위치를 확인하고 리벨리온의 저력을 입증할 수 있었다"며 "이번 대규모 투자유치는 미국과 일본 등 글로벌로 리벨리온의 무대를 확장하고, 계획 중인 국내외 비즈니스와 차세대 제품 개발의 속도를 높이는 데 튼튼한 기반이 될 것"이라고 밝혔다.

2024.01.30 09:22장경윤

SK하이닉스·NTT·인텔, 차세대 광통신칩 개발 협력

일본 통신업체 NTT가 미국 인텔, 국내 SK하이닉스와 협력해 광학 기반의 차세대 반도체 양산 기술을 개발할 예정이라고 닛케이아시아통신이 29일 보도했다. 해당 기술은 반도체 내부의 신호 전달 방식을 기존 전기에서 광자(Photon; 빛의 최소 단위)로 바꾼 것이 주 골자다. 광자를 적용하면 이론상 데이터 전송 속도를 기존 대비 수십 배 이상 빠르게 할 수 있고, 전력 효율성도 크게 높일 수 있다. 업계에서는 실리콘 포토닉스(Silicon Photonics)라고도 부른다. 대표적인 적용 사례가 데이터센터에 필수적으로 쓰이는 '광통신'이다. 현재 데이터센터는 광섬유를 통해 빛으로 데이터를 주고받은 뒤, 광트랜시버라는 부품을 통해 수신된 정보를 전기적 신호로 변환하는 과정을 거친다. 이후 변환된 전기 신호는 서버 내부의 반도체로 전달된다. 만약 반도체 회로에도 광통신이 적용되면, 반도체 칩 및 데이터센터의 성능과 효율성을 동시에 높일 수 있게 된다. 특히 AI 산업의 발달로 반도체에 요구되는 데이터 처리 성능이 급격히 높아지는 추세에 대응할 수 있을 것으로 기대된다. 일본 정부도 이를 첨단 전략기술로서 주목하고 있으며, 약 450억 엔(한화 약 4천억 원)을 지원할 예정이다. NTT와 인텔, SK하이닉스는 오는 2027년까지 해당 기술이 적용된 반도체 소자 생산과 테라비트(Tb) 급으로 처리된 데이터를 저장할 수 있는 메모리 기술을 확보하는 것을 목표로 하고 있다.

2024.01.30 09:20장경윤

KT그룹, 리벨리온에 330억원 추가 투자…AI 동맹 강화

KT와 KT클라우드, KT인베스트먼트는 인공지능(AI) 반도체 설계(팹리스) 업체 리벨리온의 시리즈B 라운드에 각각 200억원, 100억원, 30억원을 투자한다고 30일 밝혔다. 2022년 KT가 300억원, KT인베스트먼트가 35억원씩 투자한 데 이어 두 번째다. 리벨리온은 이번 투자유치를 바탕으로 100B AI모델까지 추론할 수 있는 반도체 리벨 개발에 박차를 가한다. 리벨리온은 KT AI 하드웨어 분야의 중요한 파트너로, 국내외 경쟁사 대비 빠른 연산속도와 높은 전력 효율을 가진 NPU(신경망처리장치) '아톰'을 KT와 협력 개발하며 KT클라우드의 NPU인프라 서비스 상용화에 기여해 왔다. KT가 본격화한 초거대 AI 믿음 경량화에도 아톰이 일부 적용됐다. KT그룹은 최근 새롭게 주목받고 있는 별도 클라우드 서버를 통하지 않고 기기 자체적으로 정보를 수집, 연산하는 온디바이스AI에도 리벨을 적용하는 등 향후 리벨리온에서 출시하는 다양한 AI 반도체 라인업을 활용해 AI 인프라, 서비스 경쟁력을 강화한다는 방침이다. KT그룹은 “리벨리온과 협력해 가격 경쟁력을 갖춘 초거대 AI 서비스들을 제공할 수 있을 것”이라며 “글로벌 시장에서 국산 AI 반도체가 경쟁력을 가질 수 있도록, 리벨리온을 포함해 다양한 테크기업들과 협력을 이어 나가겠다”고 밝혔다. 그간 KT그룹은 KT클라우드, 리벨리온, 업스테이지, 모레, 콴다 등 초거대 AI 생태계를 대표하는 기업들의 순수 국산 기술 기반 소프트웨어, 하드웨어를 아우르는 AI 동맹을 기반으로 AI 사업전략을 펼쳐왔다. 리벨리온은 “이번 대규모 투자유치는 미국과 일본 등 글로벌로 리벨리온의 무대를 확장하고, 계획 중인 국내외 비즈니스와 차세대 제품 개발의 속도를 높이는 데 튼튼한 기반이 될 것”이라고 말했다.

2024.01.30 09:20김성현

사전판매 신기록 갤럭시S24, 120여개국 순차 출시

삼성전자가 갤럭시S24 시리즈를 전세계 주요 국가에서 31일부터 출시한다. 삼성전자는 30일 갤럭시S24 시리즈를 한국, 미국, 영국, 프랑스, 독일, 인도, 싱가포르 등을 시작으로 전세계 120여개국에 순차 출시한다고 밝혔다. 노태문 삼성전자 MX사업부 사장은 "갤럭시S24 시리즈의 출시는 스마트폰을 넘어 새로운 AI폰의 시대를 여는 삼성전자의 첫 걸음"이라며 "모든 사용자가 갤럭시 AI를 통해 변화된 일상을 경험하고 무한한 가능성을 발견하기를 기대한다"고 말했다. 한편, 삼성전자는 언팩 직후 갤럭시S24 시리즈 전세계 사전 판매를 시작했으며, 전작 대비 두 자리 수 판매 성장률을 기록했다. 특히 '갤럭시S24 울트라'가 전체 판매의 65% 이상을 차지했다. 국내의 경우 1주일간 121만대의 사전 판매를 기록하며 역대 갤럭시S 시리즈 중 가장 높은 사전 판매고를 올렸다. 갤럭시S24 시리즈는 전 모델이 갤럭시 AI 기반 기능들을 제공한다. 13개 언어를 지원하는 '실시간 통역' 기능과 메시지의 번역부터 톤 변경까지 제공하는 '채팅 어시스트' 기능을 통해, 언어의 장벽을 넘는 보다 자유로운 사용자 커뮤니케이션을 지원한다. 지원 언어는 출시 시점의 13개를 넘어 지속 확대될 예정이다. 구글과 협력으로 탄생한 '서클 투 서치'는 검색 방식의 새로운 기준을 제시한다. 여러 앱을 오갈 필요 없이 어느 화면에서나 간단히 동그라미를 그리면 검색 결과가 제공된다. 한편, 삼성전자는 갤럭시 S24 시리즈의 AI 경험을 더 많은 사용자들에게 제공하기 위해 이전 세대 단말로도 갤럭시AI 경험을 확대할 예정이다. 소프트웨어 업데이트 대상 모델은 ▲갤럭시S23 시리즈 ▲갤럭시S23 FE ▲갤럭시Z폴드5·플립5 ▲갤럭시탭S9 시리즈로 구체적인 업데이트 시기는 추후 공지될 예정이다. 뿐만 아니라, 삼성전자는 갤럭시 S24 시리즈를 시작으로 7세대의 OS 업그레이드와 7년의 보안 업데이트를 지원할 예정이다. 삼성전자는 공식 출시일인 31일부터 내달 29일까지 갤럭시S24 시리즈를 구매하는 고객에게 혜택을 제공한다. 기간 중 개통 고객에게는 ▲이벤트몰에서 액세서리 등을 구매할 수 있는 10만원 쿠폰이 제공되며, 삼성닷컴에서 사용 가능한 ▲갤럭시워치6 시리즈 10만원 할인 쿠폰 ▲스마트싱스 스테이션 50% 할인쿠폰 ▲갤럭시S24 시리즈 브랜드 콜라보 액세서리 30% 할인 쿠폰이 제공된다. 또한 ▲마이크로소프트 365 베이직 6개월 체험권 ▲오디오북 플랫폼 윌라 3개월 구독권과 추가 3개월 30% 할인권도 함께 제공된다. 한편, 갤럭시S24 시리즈 구매 고객을 대상으로 진행하는 '중고폰 추가 보상프로그램'도 2월 29일까지 운영된다. 기존에 사용하던 스마트폰을 반납하면 기본 중고 시세에 최대 15만원을 추가로 보상해 준다. 반납 모델은 일부 갤럭시 스마트폰에 한정해 운영한다.

2024.01.30 08:46류은주

오픈AI, 청소년용 AI 사용 가이드라인·교육 자료 만든다

오픈AI는 청소년을 위한 인공지능(AI) 사용 가이드라인과 교육 자료를 제작하기 위해 미국 비영리교육단체 커먼센스 미디어와 손을 잡았다. 29일(현지시간) CNBC 등 외신은 샘 알트먼 오픈AI 최고경영자(CEO)가 이날 미국 샌프란시스코에서 열린 '커먼센스 컨퍼런스'에서 "AI를 접할 기회가 없는 아이들에게 사용 기회를 제공하겠다"며 "이들이 AI를 안전하고 유용하게 활용하도록 돕겠다"고 밝혔다고 보도했다. 커먼센스는 청소년들이 기술을 안전하고 쉽게 이용할 수 있도록 지원하는 미국 비영리단체다. 이 단체는 기술의 위험과 이점을 아이들에게 쉽고 재밌게 알리는 노력을 한다. 특히 AI가 청소년 학습 의욕을 높이는지, 인권과 아동 권리를 존중하는지, 기술이 잘못된 정보를 퍼뜨리는지도 확인한다. 현재 청소년을 비롯한 부모, 교육자가 AI의 위험과 이점을 더 잘 이해할 수 있도록 AI 등급 및 리뷰 시스템을 개발 중이다. 오픈AI와 커먼센스는 AI 사용법과 교육 자료를 청소년, 교육자, 부모들에게 배포하는 것을 목표로 뒀다. 특히 챗GPT를 통해 안전하고 윤리적인 답변을 얻기 위한 프롬프트를 선별할 수 있는 방법을 가르쳐 준다. 다만 구체적인 AI 사용 가이드라인과 교육 자료 청사진을 구체적으로 언급하진 않았다. 알트먼은 이날 행사에서 "이번 파트너십이 AI에 쉽게 접근하지 못하는 아이들에게 도움 되기를 바란다"며 "오픈AI는 'AI를 모두에게 무료로'라는 사명을 갖고 있기 때문"이라고 전했다. 짐 스타이어 커먼센스 미디어 CEO는 "청소년뿐 아니라 일반 교육자들까지 안전하고 책임감 있는 챗GPT 사용에 대해 교육할 것"이라며 "이 새로운 기술이 의도치 않은 결과를 만들지 않도록 최선을 다할 것"이라고 밝혔다.

2024.01.30 08:42김미정

샘 알트먼의 '월드코인', 여의도서 팝업 스토어 연다

샘 알트먼 오픈AI 최고경영자(CEO)가 만든 월드코인이 국내에서 처음으로 팝업스토어를 연다. 체인파트너스는 다음 달 2일까지 서울 여의도 오투타워에 위치한 서울핀테크랩에서 월드코인 팝업을 개최한다고 29일 밝혔다. 지난주 샘 알트먼 CEO가 한국을 방문해 관심을 끈 가운데, 그의 블록체인 제품이 다시 대중 앞에 선보이는 셈이다. 팝업스토어는 사용자들이 월드코인의 핵심인 홍채 인식기기 오브(Orb) 및 관련 애플리케이션을 활용하고 유용성을 느끼는 경험에 초점을 맞췄다. 오브는 현재 마포 프론트원 라운지엑스에 설치돼 있으며 향후 여의도와 판교에도 추가 설치될 예정이다. 국내에서는 이번 행사를 개최하는 체인파트너스가 월드코인 오브의 공식 운영사로 지정된 상태다. 월드코인은 알트먼 CEO가 만든 제품이다. 인공지능(AI) 시대에서 인간과 AI를 홍채 인증으로 구분 짓고, 인간이 잃어버린 일자리를 블록체인을 통한 기초소득으로 보상하겠다는 비전을 갖고 있다. 유저는 전 세계에 위치한 오브에서 홍채를 인증하면 고유한 개인 식별 코드를 받고, 보상으로 월드코인 일정량을 갖게 된다. 현재 미국 뉴욕과 마이애미, 샌프란시스코, 일본 도쿄, 영국 런던, 독일 베를린 등 전 세계 주요 도시들에 오브가 배치됐다. 현재까지 300만명 넘는 사람들이 가입한 상황이다. 앞서 월드코인 재단은 지난해 7월부터 전 세계 20개국 1천500개가 넘는 오브를 배포하겠다고 발표한 바 있다. 표철민 체인파트너스 대표는 "AI로 인간의 생산형 향상을 돕는 챗GPT와 AI로 일자리를 잃는 인간에게 기초소득을 지급하겠다는 월드코인은 서로 정확히 반대편에 있기도 하고 긴밀히 연결돼 있기도 하다"며 "AI 시대를 맨 앞에서 그려가고 있는 샘 알트먼이 만든 블록체인 프로젝트를 국내에 소개할 수 있어서 기쁘다"고 전했다.

2024.01.29 17:14김미정

AIOCP, 데이터 서버용 그래픽카드 AI GPU 컨설팅 무료 제공

이호스트ICT가 GPU 성능을 설정하고 효율적인 구매를 돕는 AI GPU 컨설팅 서비스를 AIOCP를 통해 무료 제공한다고 29일 밝혔다. AIOCP는 이호스트ICT에서 운영하는 서버 전문 브랜드다. 기계학습(ML)이나 딥러닝 등의 AI 연구 개발에 필요한 작업 요구 사항을 분석하여 최적화된 성능을 구현하기 위한 컨설팅 서비스를 제공한다. DDoS방어, 방화벽 운영, 네트워크 모니터링, 장애 대응 솔루션도 무상 제공하고 있다. 또한, 이호스트ICT는 티어 3급 고가용성을 확보한 IDC 시설을 통해 4만 킬로와트(kw) 규모의 안정적인 고전력 IDC 환경을 제공한다. 김철민 대표는 "이호스트ICT는 서버 전문 브랜드 AIOCP를 보유하고 있어, GPU 서버 뿐 아니라 관련된 통합 인프라를 안정적으로 공급 가능한 기업"이라며 "4차 산업을 이끄는 AI 기술을 함께 만들어간다는 자부심을 가지고 고객 만족과 사업 확장을 위해 노력하고 있다"라며 포부를 전했다.

2024.01.29 16:52남혁우

더존비즈온 서비스형 인프라, 'SPEC 클라우드' 등재

더존비즈온(대표 김용우)은 자체 클라우드 데이터센터의 서비스형 인프라(IaaS)가 국내 기업 중 처음으로 국제 벤치마크 'SPEC 클라우드 IaaS'에 등재됐다고 29일 밝혔다. SPEC은 컴퓨팅 시스템의 성능과 에너지 효율성을 평가하는 산업표준을 제정하고 공표하는 비영리단체다. 소프트웨어(SW)와 컴퓨팅장비, 인공지능(AI) 시스템 등의 신뢰성 제고를 위해 국제적으로 통용된다. 이번 성능 검증은 과학기술정보통신부 'HPC이노베이션허브' 사업 일환으로 한국정보통신기술협회가 지원했다. 국제 공인 검증도구를 통해 객관적 검증을 진행한 결과, 더존비즈온은 동일 분야와 비교 시 성능 점수 2위를 기록했다. 평균 프로비저닝(시스템 자원 준비) 시간은 모든 게재 결과 중 가장 빠른 27초 이하로 등록됐다. 실제로 클라우드 IaaS는 AI 모델 훈련을 위한 대용량의 데이터를 저장하고 관리하는 데 최적의 환경을 제공한다. 더존비즈온이 연내 순차적으로 AI 서비스 출시를 예고한 가운데, 각종 AI 서비스 모델의 배포와 실행을 위한 필수 인프라로 데이터의 가치를 고도화할 수 있을 것으로 기대를 모은다. 더존비즈온 송호철 플랫폼사업부문 대표는 "클라우드 인프라 기반으로 기업의 고품질 데이터, 기술력, 전문인력의 혁신 역량을 더해 전 산업계의 AX 혁신을 주도할 것"이라고 전했다.

2024.01.29 15:31김미정

美 정부 "오픈AI·구글, AI 모델 훈련 내역 알려야"

미국 정부가 오픈AI, 구글 등 인공지능(AI) 기업에 AI 모델 훈련에 대한 정보 제출 의무화를 시행하겠다고 밝혔다. 지나 라이몬도 미국 상무부 장관이 지난주 스탠퍼드대 후버연구소가 개최한 '스탠퍼드 이머징 테크놀로지 리뷰'에서 이 같은 사실을 밝혔다고 와이어드가 27일(현지시간) 보도했다. 라이몬도 상무부 장관은 "앞으로 미국 AI 기업은 거대언어모델(LLM)을 훈련할 때마다 정부에 해당 소식을 알려야 한다"며 "정부가 이를 검토할 수 있도록 관련 서류를 필수로 제출해야 할 것"이라고 설명했다. AI 기업은 모델에 들어간 훈련 데이터셋, 데이터 출처, 훈련 기간을 보고서 형태로 정부에 제출해야 한다. 현재 이에 해당하는 기업은 자사 AI 모델을 보유한 오픈AI, 구글, 메타 등이다. 이에 따라 미국 정부는 오픈AI의 GPT-4, 구글의 제미나이 등의 데이터셋 훈련 기록을 들여다보게 될 전망이다. 그동안 미국 AI 기업은 모델 훈련 내역을 공개하지 않았다. 라이몬도는 "빅테크가 국가 안보에 중대한 위협이 될 수 있는 LLM을 구축하고 있다는 점을 늘 기억해야 한다"며 "전례 없는 컴퓨팅 성능을 갖춘 LLM은 잠재적인 국가 안보에 큰 위협을 가할 것이다"고 강조했다. 앞서 미국 정부는 아마존웹서비스(AWS), 구글 등 미국 기업의 클라우드 컴퓨팅 서비스를 이용하는 외국 고객 신원을 정부에 제출하도록 의무화하기로 했다. 다수 외신은 미국이 중국의 AI 개발을 막기 위한 규정이라고 분석했다. 중국이 미국 반도체 규제를 피해 AI 개발을 클라우드 컴퓨팅 방식으로 전환한 것을 차단하기 위해서다. 이번 행사에서 라이몬도 장관도 외국 고객 신원 제출 의무화 정책에 대해 입을 열었다. 그는 "외국 기업이 미국 회사 클라우드 인프라를 사용할 때마다 정보를 요청하는 정당한 절차"라고 전했다.

2024.01.29 15:10김미정

온디바이스 AI 시대, HBM도 '저전력' 맞춤 설계 주목

최근 IT 시장에 온디바이스 AI 기술이 빠르게 도입되면서, 미래 HBM(고대역폭메모리) 시장에도 변화가 감지된다. HBM의 성능을 다소 낮추더라도 저전력(LP)에 특화된 맞춤 제품에 대한 수요가 최근 증가하고 있는 것으로 파악된다. 29일 업계에 따르면 일부 IT 기업들은 온디바이스AI 시장을 겨냥해 저전력 특성을 높인 HBM 설계를 요청하고 있다. HBM은 여러 개의 D램을 수직으로 적층한 첨단 메모리다. 전기 신호를 통하게 하는 입출력 단자(I/O)를 1천24개로 기존 D램(최대 32개) 대비 크게 늘려, 대역폭을 크게 확장한 것이 특징이다. 대역폭이 높으면 데이터 처리 속도가 빨라진다. 현재 HBM은 고용량 데이터를 처리해야 하는 AI 산업에서 수요가 빠르게 증가하고 있다. 엔비디아·AMD 등이 설계하는 서버용 GPU(그래픽처리장치)와 여러 개의 HBM을 집적한 AI 가속기가 대표적인 사례다. 나아가 HBM 시장은 향후 온디바이스 AI 등 저전력 특성이 강조되는 시장에 맞춰 설계될 수 있을 것으로 기대된다. 반도체용 소프트웨어 업계 관계자는 "최근 복수의 잠재 고객사들이 HBM의 대역폭을 낮추더라도 저전력 특성을 강화하는 방안을 제시해 왔다"며 "서버 만큼의 성능은 아니지만, 일부 엣지 단에서 HBM을 쓰고자 하는 요청이 적지 않다"고 밝혔다. 온디바이스 AI는 클라우드 및 데이터센터를 거치지 않고 기기 자체에서 AI 기능을 수행하는 기술이다. 삼성전자, 퀄컴, 인텔 등이 최근 온디바이스 AI 성능이 강조된 칩셋 및 제품을 잇따라 공개하면서 시장 안착에 속도를 붙이고 있다. 온디바이스 AI의 실제 구동 환경에서는 클라우드와 엣지 네트워크를 동시에 활용하는 '하이브리드 AI' 운용이 필요할 것으로 관측된다. 이에 전 세계 주요 IT기업들도 엣지 분야에서 HBM을 활용할 수 있는 방안을 강구하고 있다. AI 반도체 기업 고위 임원은 "모바일이나 오토모티브 등을 겨냥한 엣지용 AI 칩셋도 향후 HBM과 결합될 가능성이 충분히 높다고 본다"며 "아직까진 설계 초기 단계이기는 하나 막연하게 먼 미래가 아닌 시장에서 가시적으로 실체가 나타나고 있는 상황"이라고 말했다.

2024.01.29 14:48장경윤

와이오엘 욜카고, 기술신용평가 T3 등급 획득

AI 해외 운송 플랫폼 '욜카고'를 운영하는 와이오엘(대표 정현웅)이 기술신용평가기관 한국기술신용평가의 기술평가 우수기업인증에서 'T3' 등급을 획득했다고 29일 밝혔다. 한국기술신용평가의 기술신용평가(TCB)는 기업이 보유한 기술 가치를 기술성, 시장성, 시장타당성 등의 항목에서 종합적인 평가 절차를 거쳐 T1에서 T10까지 10단계 등급으로 나눠 적합한 기업에게 매년 부여하는 지표다. 이 중 와이오엘은 'AI 기반 스마트 해상 운송 솔루션 개발 기술'로 상위 3단계에 해당하는 T3등급을 획득, 코스닥 기술 특례 상장 조건에 부합할 정도의 우수한 기술력을 인정받게 됐다. 와이오엘의 AI 해외 운송 플랫폼 욜카고는 AI 기술과 빅데이터 분석 기술을 통해 고객이 원하는 목적지와 운송 조건을 입력하면 최적의 운송 경로와 비용을 자동으로 계산해준다. 또 실시간 화물 운송 추적 서비스를 기반으로 물류 상황을 빠르고 쉽게 파악할 수 있도록 돕는다. 욜카고는 운임 경쟁력은 물론 웹에서 견적, 문서 교환, 결제까지 한번에 가능한 올인원 국제 물류 서비스다. 현재 한국타이어를 비롯한 수출입 물류 서비스를 필요로 하는 1천700여개 기업이 비용 절약과 운송 시간 감축을 위해 이용 중에 있다. 정현웅 와이오엘 대표는 "욜카고는 고도화된 고객 맞춤형 서비스를 제공하기 위해 기술을 개발하고 적용시키는 작업에 주력하고 있다"며 "앞으로는 스마트 물류 기술로 해외 물류의 효율성과 편리성을 극대화 시키고, 글로벌 시장에 진출해 아시아 최고의 AI 해외 운송 플랫폼으로 도약할 것"이라고 말했다. 와이오엘은 기술력과 글로벌 진출 가능성 등을 인정 받아 스타트업 액셀러레이터 스파크랩의 18기 기업으로 선정돼 투자를 유치했다. 지난해 11월에는 해양수산부가 주최하고 UNIST와 울산항만공사에서 주관하는 '2023 스마트 해상물류 유니콘테스트 창업 경진대회'에서 해상수산부 장관 대상을 수상했다.

2024.01.29 11:08백봉삼

일론 머스크 "AI 스타트업 xAI, 투자유치 사실 아냐"

일론 머스크가 자신의 인공지능(AI) 스타트업 'xAI'의 자금 조달 보도에 대해 사실이 아니라고 밝혔다고 로이터통신이 27일(현지시간) 보도했다. 머스크의 이 같은 발언은 전날 나온 파이낸셜타임스 보도를 반박한 것이다. 파이낸셜타임스는 소식통을 인용해 xAI가 지난 몇 주 동안 홍콩 등에서 갑부와 투자자들을 대상으로 투자를 타진, 최대 60억 달러(약 8조원) 규모 투자 유치를 논의 중이라고 보도했다. 이 소식은 머스크가 중동 국부펀드와 한국과 일본 투자자들에게도 접근했다고 알려지며 관심을 끌었다. 해당 투자에서 머스크는 xAI의 기업가치를 최대 200억 달러로 제안한 것으로 알려졌다. 일론 머스크는 자신의 엑스를 통해 "xAI는 자본을 조달하지 않고 있으며, 이와 관련해 누구와도 대화를 나눈 적이 없다"고 부인했다. 머스트는 또 xAI가 5억 달러 투자를 받았다는 21일자 블룸버그 보도도 사실이 아니라고 밝혔다. 챗GP 열풍에 힘입어 인공지능(AI) 스타트업은 최근 침체된 스타트업 투자 시장에서 보기 드물게 관심이 높은 시장으로 꼽히고 있다. AI 스타트업 앤트로픽(Anthropic)과 마이크로소프트가 지원하는 인플렉션(Inflection) AI도 최근 자금을 조달한 것으로 알려졌다.

2024.01.29 11:04이정현

워크데이 "직원과 비즈니스 리더 간 AI 신뢰도 차이 커”

워크데이는 직장 내 인공지능(AI) 신뢰 격차가 형성되고 있다는 내용의 최신 글로벌 연구 결과를 29일 발표했다. 해당 연구 결과에서 비즈니스 리더와 직원 모두 AI가 비즈니스 트랜스포메이션을 위한 큰 기회를 제공한다는 데는 동의하지만, AI가 책임감 있게 활용될 것이라는 신뢰는 부족하며 직원들은 이에 대해 경영진보다 훨씬 더 회의적인 태도를 보인 것으로 나타났다. C레벨 또는 직속보고라인의 62%는 AI를 환영한다고 답했다. 직원들의 경우 52%가 AI를 환영한다고 답해 리더가 응답한 수치에 못 미치는 것으로 나타났다. 직원의 23%는 기업이 AI를 구현할 때 직원의 이익을 회사의 이익보다 우선시하는지 확신하지 못했다. 비즈니스 리더의 70%는 AI가 인간이 쉽게 검토하고 개입할 수 있는 방식으로 개발되어야 한다는데 동의한다. 42%의 직원들은 회사가 자동화할 시스템과 인간이 개입해야 하는 시스템이 무엇인지 명확하게 파악하지 못하고 있다고 생각한다. 직원 4명 중 3명은 기업이 AI 규제에 협력하고 있지 않다고 응답했다. 직원 5명 중 4명은 회사가 책임감 있는 AI 활용에 대한 가이드라인을 아직 공유하지 않았다고 답했다. 기업이 책임감 있게 AI를 도입하고 활용하는 것과 관련해 모든 직급, 특히 직원들의 신뢰가 부족한 것으로 나타났다. 리더의 62%가 기업에서 AI를 도입하는 것을 환영했으며, 같은 비율로 기업이 책임감 있고 신뢰할 수 있는 방식으로 AI를 구현할 것이라고 확신했다. 직원의 경우, 각각 52%와 55%로 수치가 리더보다 훨씬 더 낮았다. 직원과 리더들 사이에 기업이 올바른 방식으로 AI를 구현할지에 대한 불확실성도 존재했다. 직원의 약1/4(23%)은 AI를 구현할 때 기업이 직원의 이익을 회사의 이익보다 우선시할 것이라고 확신하지 못한다고 답했는데, 리더들도 이와 비슷하게 동의했다. 21%의 리더는 기업이 직원 이익을 최우선시할 것이라고 확신하지 못한다고 응답했다. 리더와 직원은 AI 프로세스에 인간의 개입을 원하지만 이를 위한 최선의 방법은 불분명하다. 비즈니스 리더의 대다수(70%)는 AI가 인간이 쉽게 검토하고 개입할 수 있는 방식으로 개발되어야 한다는데 동의한다. 하지만 직원의 42%는 회사가 자동화할 시스템과 인간이 개입해야 하는 시스템이 무엇인지 명확하게 파악하지 못하고 있다고 생각하고 있었다. 앞서 워크데이가 의뢰한 AI 관련 연구에서도 기업의 책임감 있고 효과적인 AI 구현 능력에 대한 우려를 확인할 수 있었다. 리더의 약 4분의 3(72%)은 기업이 AI와 ML을 완전히 구현하는 기술이 부족하다고 답했으며, 훨씬 더 높은 비율(76%)이 AI 및 ML 애플리케이션에 대한 자체 지식 개선이 필요하다고 응답했다. AI가 일상 생활의 일부가 되는 미래를 상상해보라는 질문에 리더의 42%, 직원의 36%가 신뢰할 수 있는 AI 구축을 위해 가장 중요한 요소로 조직 프레임워크와 규제를 꼽았다. 하지만 AI 규제와 가이드라인에 대한 기업 전반의 가시성이 부족한 것으로 나타났다. 직원 4명 중 3명은 기업이 AI 규제에 협력하고 있지 않다고 응답했으며, 5명 중 4명은 회사가 책임감 있는 AI 활용에 대한 가이드라인을 아직 공유하지 않았다고 답했다. 짐 스트래튼 워크데이 최고기술책임자(CTO)는 "AI가 비즈니스 트랜스포메이션을 위한 막대한 기회를 제공한다는 사실은 부인할 수 없다”며 “하지만 워크데이의 조사에 따르면, 리더와 직원은 직장 내 AI 활용에 관련해 기업의 의도에 대한 신뢰와 이해가 부족하다는 것을 확인했다"고 설명했다. 그는 "이러한 신뢰 격차를 해소하기 위해 기업은 혁신과 신뢰 사이의 적절한 균형을 맞출 수 있도록 지원하는 정책 옹호에 초점을 맞춰 AI 책임 및 거버넌스에 대한 포괄적인 접근 방식을 채택해야 한다"고 강조했다.

2024.01.29 10:45김우용

LG전자 올레드 에보, AI로 '스테파니 딘킨스' 작품 선보여

LG전자가 지난 25일(현지시간) 미국 뉴욕의 구겐하임 미술관에서 열린 'Late Shift x 스테파니 딘킨스' 전시에서 인간과 인공지능(AI) 기술 사이의 소통과 공감을 담은 예술 작품을 올레드 TV로 선보였다. LG전자는 97형 올레드 에보를 비롯해 올레드 오브제컬렉션 포제, 투명 올레드 사이니지 등 올레드 디스플레이 총 7대를 활용해 세계적인 AI 아티스트 '스테파니 딘킨스'의 신작 3점을 공개했다. 딘킨스는 AI, AR·VR 등 최신 디지털 기술을 활용한 작품으로 유명하다. LG와 구겐하임 미술관이 지난해부터 기술을 활용한 혁신 작품을 선보인 아티스트에게 수여하는 'LG 구겐하임 어워드'의 첫 번째 수상자이자 미국 타임(TIME)지로부터 'AI 분야 가장 영향력 있는 100인'에도 선정된 바 있다. LG 올레드 에보는 생성형 AI 기술을 기반으로 관람객과 소통하는 창으로 활용됐다. 관람객은 '우리가 기계에 들려주는 이야기'라는 주제로 자신의 생각을 마이크를 통해 전달하면 AI가 올레드 TV의 화면을 통해 대답하는 색다른 경험을 즐겼다. 또 전시장 한편에서는 AI가 그린 예술 작품도 압도적 올레드 화질로 생생하게 선보였다. LG전자는 AI가 사용자를 더 배려하고 공감해 차별화된 고객경험을 제공한다는 의미에서 '공감지능(Affectionate Intelligence)'으로 재정의하고 있다. 올해 LG 올레드 에보는 현존 유일한 올레드 전용 AI 화질·음질 엔진인 '알파11 프로세서'를 기반으로 영상 제작자가 의도한 분위기와 감정까지 고려해 색을 보정하는 등 AI 성능이 한 차원 진화했다.

2024.01.29 10:00이나리

  Prev 461 462 463 464 465 466 467 468 469 470 Next  

지금 뜨는 기사

이시각 헤드라인

"집에서도 캠핑장에서도"...휴대용 프로젝터 인기몰이

대학서 웹툰 숏폼 특화 수업 개설 는다...왜?

애플 "AI 뒤진다고? 맥·아이폰도 처음엔 1등 아니었다"

테슬라 '오토파일럿 사고' 일부 책임…"3300억 배상"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.