• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'에볼양방 ㅡ캐리비안주소.🅒🅞🅜ㅡ [가입코드ℂ𝕆ℂ𝕆] 토큰 벨픽116'통합검색 결과 입니다. (820건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG의 새 AI '엑사원 딥', 수능서 94.5% 정답률...수학·코딩 능력 탁월

동급 최강 성능의 EXAONE Deep, 작은 모델도 오픈AI 추월 LG AI 연구소가 개발한 EXAONE Deep 시리즈가 수학과 코딩 등 다양한 추론 과제에서 뛰어난 성능을 보여주고 있다. EXAONE Deep 시리즈는 2.4B, 7.8B, 32B 세 가지 크기로 출시되었으며, 이 모델들은 기존 EXAONE 3.5 시리즈를 기반으로 추론 능력을 강화하기 위해 특별히 최적화된 버전이다. EXAONE Deep 모델은 단계적 사고 과정을 포함하는 특화된 데이터셋으로 학습되었다. 연구팀은 지도 학습(Supervised Fine-Tuning, SFT), 직접 선호도 최적화(Direct Preference Optimization, DPO), 온라인 강화학습(Online Reinforcement Learning, Online RL)과 같은 세 가지 주요 기법을 활용해 모델을 훈련시켰다. 성능 평가 결과에 따르면, 가장 작은 모델인 EXAONE Deep 2.4B는 DeepSeek-R1-Distill-Qwen-1.5B보다 우수한 성능을 보여주었다. 중간 크기인 7.8B 모델은 DeepSeek-R1-Distill-Qwen-7B와 DeepSeek-R1-Distill-Llama-8B 같은 오픈 웨이트 모델뿐만 아니라 상용 추론 모델인 OpenAI o1-mini보다도 뛰어난 성능을 입증했다. 가장 큰 모델인 32B는 QwQ-32B와 DeepSeek-R1 같은 최첨단 오픈 웨이트 추론 모델과 견줄 만한 성능을 보여주었으며, DeepSeek-R1-Distill-Qwen-32B와 DeepSeek-R1-Distill-Llama-70B를 능가했다. 단계별 논리적 사고로 무장한 EXAONE Deep, 120억 토큰 데이터로 학습 EXAONE Deep 모델의 추론 능력을 강화하기 위해 연구팀은 약 160만 건의 SFT 데이터, 2만 건의 선호도 데이터(DPO용), 그리고 1만 건의 온라인 RL 데이터를 활용했다. SFT 데이터셋은 약 120억 개의 토큰을 포함하며, 확장된 사고 연쇄(chain-of-thought) 과정을 통해 모델이 추론을 수행하도록 설계되었다. 특히 눈에 띄는 점은 이 데이터셋의 구조이다. 각 학습 인스턴스는 구조화된 사고 과정과 최종 답변으로 구성되어 있다. EXAONE 3.5 모델은 <thought> 태그 내에서 논리적 진행, 자기 반성, 자체 검사, 수정 등의 단계별 추론을 수행하도록 훈련되었다. 이렇게 추론 후 생성된 최종 답변은 자기 완결적이며, 사고 과정에서 도출된 핵심 통찰력을 명확하고 간결하게 요약한다. 훈련 계산 리소스 면에서, EXAONE Deep 모델은 Google Cloud Platform과 NVIDIA NeMo FRAMEwork에서 제공하는 NVIDIA H100 GPU 클러스터를 사용하여 훈련되었다. 기본 모델의 사전 훈련과 추론 능력 향상을 위한 미세 조정에 사용된 계산량은 정밀하게 측정되어, 32B 모델의 경우 총 1.26 × 10^24 FLOP가 사용되었다. 수학 시험에서 빛난 EXAONE Deep, 한국 수능 수학 94.5% 정답률 달성 EXAONE Deep 모델은 MATH-500, 미국 수학 초청 시험(AIME) 2024/2025, 한국 대학수학능력시험(CSAT) 2025의 수학 영역, GPQA Diamond, LiveCodeBench, MMLU, MMLU-Pro 등 다양한 벤치마크에서 평가되었다. 수학 분야에서 EXAONE Deep 32B 모델은 MATH-500에서 95.7%, AIME 2024에서 72.1%, AIME 2025에서 65.8%, CSAT 2025에서 94.5%의 놀라운 정확도를 보여주었다. 특히 한국 수능 수학 영역의 세 가지 선택 과목인 미적분, 통계, 기하에서 각각 95.1%, 95.0%, 93.5%의 높은 성능을 보여 전체 평균 94.5%라는 인상적인 결과를 달성했다. 과학 및 코딩 분야에서도 EXAONE Deep 32B는 GPQA Diamond에서 66.1%, LiveCodeBench에서 59.5%의 성능을 보여주었다. 일반 지식을 평가하는 MMLU와 MMLU-Pro에서는 각각 83.0%와 74.0%의 정확도를 달성했다. 7.8B 모델 역시 동급의 모델들과 비교해 모든 분야에서 우수한 성능을 보여주었으며, 특히 수학 분야에서는 MATH-500 94.8%, AIME 2024 70.0%, CSAT 2025 89.9%의 높은 정확도를 기록했다. 무료로 사용 가능한 EXAONE Deep, 상업용은 별도 라이선스 필요 EXAONE Deep 모델은 연구 목적으로 모든 사람이 사용할 수 있도록 공개되어 있다. 이 모델들은 허깅페이스(Hugging Face)를 통해 다운로드할 수 있다. 그러나 이 모델은 추론 작업에 특화되어 있으므로, 넓은 범위의 실제 사용 사례에 적용하려면 EXAONE 3.5 Instruct 모델 사용을 권장한다. 또한, EXAONE AI 모델 라이선스 계약에 따르면, 이 모델은 상업적 용도로 사용할 수 없으며, 별도의 상업용 라이선스 계약이 필요하다. FAQ Q: EXAONE Deep 모델은 어떤 특징이 있나요? A: EXAONE Deep은 추론 능력에 특화된 AI 모델로, 단계적 사고 과정을 포함하는 특별한 데이터셋으로 학습되었습니다. 수학, 코딩 등 논리적 추론이 필요한 과제에서 뛰어난 성능을 보이며, 2.4B, 7.8B, 32B 세 가지 크기로 제공됩니다. Q: 이 모델은 어떻게 사용할 수 있나요? A: EXAONE Deep 모델은 연구 목적으로 누구나 무료로 사용할 수 있으며, 허깅페이스를 통해 다운로드할 수 있습니다. 상업적 목적으로 사용하려면 별도의 라이선스가 필요합니다. Q: EXAONE Deep과 다른 AI 모델과의 차이점은 무엇인가요? A: EXAONE Deep은 추론에 특화된 모델로, 같은 크기의 다른 모델들보다 수학, 과학, 코딩 분야에서 우수한 성능을 보입니다. 특히 7.8B 모델은 상용 추론 모델인 OpenAI o1-mini보다도 더 나은 성능을 입증했습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.22 13:47AI 에디터

[황승진의 AI칼럼] 블룸버그GPT와 스탠포드 MUSK

블룸버그는 금융 및 비즈니스 정보, 뉴스 및 리서치를 제공하는 회사다. 금융정보 세계의 독보 위치를 활용해 블룸버그GPT라는 별도의 LLM 기초+응용 모델을 만들었다. 대부분의 지식을 기초 모델에 넣었다. 이 새로운 LLM은 금융 산업 내 정보를 자연어 처리(NLP) 할 수 있다. 이를 '분야별 LLM' 혹은 '수직형(버티컬) LLM'이라 부른다. 이는 챗GPT 같은 일반 '수평형 LLM'(혹은범용 LLM)과 구분된다. 사실, 블룸버그는 이 둘을 합쳤다. 금융 데이터와 일반 데이터 세트를 결합해 내부 직원과 외부 금융업 종사자가 금융 시장을 탐색, 분석 및 예측하도록 지원한다. 또 인수합병(M&A)과 기업공개(IPO, 상장)와 같은 금융 거래 준비에도 도움을 줄 수 있다. 이러한 성과를 달성하기 위해, 블룸버그 데이터 분석가들은 40년 동안 생성, 수집 및 정리한 그 분야 역대 최대 규모의 데이터 세트를 구축했다. 규모가 총 3630억 토큰(AI모델의 정보처리 단위)에 달했고, 500억개 파라미터(AI의 성능을 측정하는 주요 지표)를 훈련하는데 62만 GPU 시간이 걸렸다. 그 결과, 블룸버그GPT는 금융 지식에서는 탁월하고, 일반 지식도 수준 급이 되었다. 블룸버그GPT 사용자는 여러 종류의 질문을 할 수 있다. “내년 시장 분위기를 알아봐줘” 혹은 "지난 5년간 기업 인수 거래를 보고, 다음 일어날 인수 거래를 예측해 줘"라고 질문할 수 있다. 블룸버그는 막대한 지적, 재정적 이점을 이용해 새 시대에 맞춰 발빠르게 재정비했다. 다른 산업, 특히 의료 분야는, 분야(도메인)별 LLM을 보유하고 있다. 2025년 스탠포드 의대팀은 MUSK라는 암을 예측, 반응 및 치료하기 위한 임상용 기초모델을 개발했다. 일론 머스크하고는 전혀 관계없는 이름이다. 과거의 '진단' 위주 AI가 아니라 '예측'의 도구가 된다. “이 환자에게 이 치료는 어떤 결과가 나올까”를 예측하고, 그 중에 가장 효과적인 치료법을 찾는데 쓸 수 있다. 이에는 두 종류의 과거 경험 데이터가 필요하다. 환자가 암과의 투쟁할 때의 X레이, MRI, CT스캔 같은 이미지 데이터, 그리고 주치의의 코멘트, 진료 기록, 전문의와의 대화 같은 텍스트 데이터다. MUSK는 많은 환자 케이스의 텍스트-이미지 멀티모달 데이터로 사전 훈련된 트랜스포머 기초 모델을 만들었다. 들어간 데이터양이 거대하다. 5천만개의 의료 이미지와 10억개의 병리학 텍스트를 동원했다. 이 데이터를 '마스킹'방식으로 학습했다. 단어나 이미지를 가리고 이를 맞춰보라고 묻고 답을 가르쳐주며 배우게 한다. 그리고 이미지와 텍스트를 같은 임베딩 체제에 넣어, 먼저 각자에서 연결(self-attention)한 후, 다음 서로 연결해 교차 어텐션(cross attention)을 수행했다. 즉, 텍스트와 이미지의 연결 관계를 임베딩에 반영했다. 어느 쿼리에 답할 때, 텍스트와 관련된 이미지가 같이 불려 나온다. 이를 '텍스트-이미지 모델' 혹은 '올인원'이라 부르며, 최근 LLM (오픈AI CLIP, Flamingo, 제미나이)은 이렇게 훈련되어 답에 텍스트와 이미지가 같이 나온다. 게다가, 이 기초모델을 파인튜닝해 사용자 병원이 자기 나름대로의 새로운 응용을 개발할 수도 있다. MUSK의 목표는 의사로 하여금 과거 세상 모든 의료 경험을 내 실력과 합쳐, 현재 내 환자의 성공 확률을 최대화하는 것이다. 아이작 뉴턴 경의 표현대로 “과거 거인들의 어깨 위에 지은” 지식의 탑이다. 바이오텍 분야도 연구 및 개발용으로 분야별 LLM이 존재한다. BioBERT, PubMedBio와 BioGPT가 그 예다. 이 분야에 3천만 편의 연구 논문이 있다니, 교육생과 연구자에게 매우 유익할 것이다. 이들은 인터넷이나 서적 등 데이터로 자가학습을 시켜 기초모델을 만든 후 용도에 맞게 파인튜닝을 했다. 논문 제목이나 저자 이름으로 서치하는 게 아니라, 내용으로 한다. 예컨대, “누가 처음 DNA를 X레이 촬영했지?”와 같이 묻는 식이다. 블룸버그GPT는 기초 모델부터 시작해 끝까지 자신이 만든 거대한 작품이지만, 비슷한 기능의 FinGPT는 오픈소스 기초모델을 가져와 금융 정보로 파인튜닝을 했다. 이렇게 '기초모델+파인튜닝'은 흔히 사용되는 분야별 LLM 개발 방식이지만, 다른 가능성은 LLM 위에 분야에 특화된 소형 언어 모델(SLM)을 구축하는 것이다. 이러한 2층 구조의 기초 모델은 두 모델의 장점을 모두 얻을 수 있다. LLM은 일반 지식과 기능을 제공하고, SLM은 분야(도메인) 지식을 제공한다. 실리콘 밸리의 한 시스템 개발업체는 자신의 몇 제조분야 고객 기업과의 경험을 외부 정보와 융합해 SLM을 만든 후 일반 LLM과 함께 2층 구조를 만들었다. 흥미롭게도, 그 회사에 따르면, 자기네는 LLM을 주로 '기능'으로 사용하고, '지식'은 SLM에서 나오니 환각현상을 피할 수 있다고 한다. '분야별 LLM' 외에도 국가 수준에서 '국가별' 모델도 있다. 예를 들어 중국, 미국, EU는 모두 '주권 AI'를 구축하기 시작했다. 언어, 문화, 산업과 안보를 고려해 외국의 힘에 의존하지 않겠다는 의도다. 덕분에 국민 여럿이 많이 배우고 그들이 새로운 사업을 시작하는 낙수효과도 기대할 만하다. 미국 오라클 회장인 래리 엘리슨(Larry Ellison)은 모든 국가가 '주권 AI 클라우드'를 구축하길 원할 것이라고 전망했다. 수직형 LLM, 즉 분야별 LLM과 주권 LLM이 오늘날 대세다.

2025.03.22 12:06황승진

가상자산? 디지털자산?…용어 혼선에 투자자 보호 걸림돌

한국 가상자산 시장에서 용어 통일 문제가 부각되고 있다 정부와 업계, 투자자 사이에서 가상자산, 디지털자산, 암호화폐 등 다양한 용어가 혼재되면서 시장 규제와 투자자 보호에도 혼선을 초래할 수 있다는 우려가 나온다. 정치권에서도 용어가 제각각 사용되면서 투자자들이 혼란을 겪고 있다는 지적이 나오는 상황이다. 법률과 제도에서 사용하는 용어를 일관되게 정립하는 것이 시급하다는 이야기다. 현재 한국 금융당국은 가상자산이라는 용어를 공식적으로 사용하고 있다. 특정금융정보법에서도 가상자산을 법적 용어로 정의하고 있으며 금융위원회 역시 같은 표현을 사용한다. 반면 한국은행과 일부 블록체인 기업들은 디지털자산이라는 용어를 선호한다. 블록체인 기반의 모든 자산을 포괄하는 개념이기 때문이다. 업계에서도 용어 사용이 천차만별이다. 일부 블록체인 기업들은 증권형 토큰(STO)과 같은 금융상품을 강조하면서 디지털자산으로 표현하는 것을 선호한다. 반면 거래소와 일반 투자자들은 가상자산 혹은 암호화폐라는 표현을 더 많이 사용한다. 특히 비트코인과 같은 주요 가상자산은 코인, 플랫폼 기반 자산은 토큰이라는 용어로도 불리지만 이 둘을 통틀어 코인으로 칭하는 경우도 흔하다. 투자자들 사이에서도 정확한 개념 정리가 부족한 실정이다. 이러한 용어 불일치는 투자자 보호 및 규제 정비에도 걸림돌이 되고 있다. 법률에서 가상자산과 디지털자산을 혼용하면서 특정 자산이 규제 대상인지 여부가 모호해진다. 증권형 토큰(STO)이 금융투자상품인지 가상자산인지에 대한 법적 정의가 불명확해 사업자들이 제도적 리스크를 감수해야 한다. 정부는 가상자산으로 규정하지만, 업계에서는 디지털자산이라는 용어를 사용하면서 투자자들이 정보 습득 과정에서 혼동을 겪는 문제도 지적된다. 또한 새로운 법안이 등장할 때마다 용어가 다르게 해석될 가능성이 있어 투자자들이 정책 변화에 대응하기 어려워진다. 국제적으로는 가상자산, 디지털자산, 암호화폐 등 다양한 용어가 쓰이고 있지만 글로벌 각국은 법률적으로 명확한 기준을 세우고 있다. 한국은 여전히 일관된 정의를 마련하지 못해 글로벌 금융 규제 및 기업들과 협업 시 어려움을 겪을 수 있다. 민병덕 의원은 최근 국회에서 진행된 토론회에서 가상자산 시장이 제도권으로 편입되면서 법적 정비가 이뤄지고 있지만 용어 통일이 되지 않으면 혼란은 계속될 것이라고 말했다. 이 자리에서 그는 "법률과 정책에서 사용하는 용어를 일관되게 정리해 시장의 투명성을 높여야 한다"고 강조했다. 전문가들은 가상자산 시장의 신뢰도를 높이기 위해 정부와 업계가 협의해 공식 용어를 통일할 필요가 있다고 조언한다. 국제 기준에 맞춰 '가상자산'과 '디지털자산'의 범위를 명확히 구분하고 증권형 토큰(STO) 등 새롭게 등장하는 개념들도 체계적으로 정리해야 한다는 의견이 나온다. 업계의 한 관계자는 "가상자산 시장이 빠르게 성장하면서 법적 정비도 진행되고 있지만 용어 정리가 미흡할 경우 시장 신뢰성과 투자자 보호에 악영향을 줄 수 있다"라며 "명확한 개념 정립과 법적 정의가 마련될 때 비로소 가상자산 시장의 건전한 발전이 가능할 것으로 보인다"라고 말했다.

2025.03.21 13:00김한준

메타큐, 블록체인 게임 개발사 닷볼드와 업무 협약 체결

메타큐(대표 김지윤)는 블록체인 게임 개발 전문 기업 닷볼드(대표 루이스 우)와 블록체인 솔루션 사용을 위한 업무 협약을 체결했다고 21일 밝혔다. 닷볼드는 자사 게임에 독창적인 블록체인 기술을 접목해 차별화된 게임 경험을 제공하는 기업으로, 이번 협약을 통해 메타큐가 개발한 블록체인 솔루션 '체인트래커 플러스'를 도입하기로 했다. '체인트래커 플러스'는 서비스형 블록체인(BaaS, Blockchain as a Service) 솔루션으로, 가상자산의 흐름을 쉽게 파악하고 관리할 수 있도록 설계됐다. 단순한 토큰 관리를 넘어 자산 추적, 소유권 증명, 거래 기록 투명성 보장을 지원해, 다양한 블록체인 비즈니스 구현을 가능하게 한다. 김지윤 메타큐 대표는 "'체인트래커 플러스'는 가상자산의 투명한 관리와 활용을 돕는 솔루션으로, 닷볼드의 블록체인 기반 게임 생태계에서 디지털 자산의 신뢰성을 한층 높이는 데 기여할 것"이라며, "이번 협업을 통해 메타큐의 기술력이 게임 산업에 새로운 가능성을 열어줄 것으로 기대한다"고 밝혔다. 루이스 우 닷볼드 대표는 "사용자에게 경제적 가치를 제공하는 게임 시장에서 블록체인 기술의 안정적 활용은 중요한 과제"라며, "'체인트래커 플러스'는 자산 관리 투명성을 높여주는 강력한 도구로, 우리의 게임 개발 목표를 실현하는 데 큰 힘이 될 것"이라고 말했다.

2025.03.21 10:00김한준

[기고] 글로벌 스테이블코인 경쟁 가속화, 한국의 길을 묻다

최근 스테이블코인은 글로벌 금융 시장에서 빠르게 성장하며 디지털 자산 생태계의 핵심 요소로 자리 잡고 있다. 특히 USDT(테더)와 USDC(서클) 등의 스테이블코인은 암호화폐 시장에서 결제 및 거래의 주요 수단으로 활용되며, 글로벌 송금과 탈중앙화 금융(DeFi)에서도 중요한 역할을 하고 있다. 2024년 11월 17일 기준, 미국 달러(USD) 기반 스테이블코인의 총 공급량은 약 1,742억 달러로, 이는 2024년 초보다 25% 이상 증가한 수치이다. 이러한 성장은 스테이블코인이 안정적인 거래 수단으로 자리매김하고 있음을 보여준다. 이제 스테이블코인은 단순한 디지털 자산을 넘어 국경 간 결제와 글로벌 금융 시스템의 일부로 자리 잡아가고 있다. 이러한 시장변화에 따라 최근 글로벌 금융기관과 핀테크 기업들이 스테이블코인 시장에 적극적으로 진출하는 움직임을 보이고 있다. 특히 미국을 대표하는 은행 중 하나인 뱅크오브아메리카(BOA)의 CEO인 브라이언 모이니한은 "스테이블코인이 합법화된다면, 우리도 그 사업에 뛰어들 것"이라고 밝혔으며, 스탠다드차타드는 홍콩의 스테이블코인 규제 변화에 맞춰 홍콩 달러 기반의 토큰을 출시하는 계획을 발표했다. 또한, 미국의 대표적인 핀테크 기업 스트라이프(Stripe)는 11억 달러를 투자해 스테이블코인 플랫폼, 브리지(Bridge) 인수를 통하여 시장 점유율 확대에 나섰으며, 페이팔 역시 기존의 PYUSD 스테이블코인을 확대할 계획을 발표하며 시장 참여 확대를 예고했다. 이러한 변화는 글로벌 규제 환경이 스테이블코인을 금융 시스템의 일부로 인정하는 방향으로 나아가고 있음을 시사한다고 할 수 있다. 미국 의회는 스테이블코인 관련 법안을 논의 중이며, 유럽연합(EU) 역시 스테이블코인 사업자에 대한 규제를 도입했다. 영국 금융감독청(FCA) 또한 시장의 의견을 수렴하며 규제 방향을 설정하는 적극적 움직임을 보이고 있다. 이는 과거 메타(구 페이스북)의 리브라 프로젝트가 강한 규제에 부딪혀 무산되었던 것과는 대조적으로, 이제는 글로벌 금융기관과 정부가 스테이블코인을 제도권 내에서 적극적으로 수용하겠다는 의지로 볼 수 있다. 최근 한국은행 이창용 총재는 스테이블코인이 한국 금융 및 외환시장에 미치는 영향이 크다고 지적하며, 이에 대한 규제 도입이 시급하다고 강조했다. 특히, 스테이블코인은 외환시장에서 새로운 변수로 떠오르고 있으며, 기획재정부 또한 이에 대한 규제 도입을 검토 중인 것으로 알려졌다. 사실 현존하는 나라 중, CBDC 개발에 가장 앞서 있다는 중국 인민은행은 디지털 위안화를 활용해 대규모 거래를 처리하고 있다. 한국은행도 CBDC 개발을 적극 추진하고 있지만, CBDC가 스테이블코인을 완전히 대체하기에는 한계가 있다는 지적이 나오고 있다. 어쨌던 최근 스테이블코인은 글로벌 금융의 새로운 패러다임을 형성하며 빠르게 확산되고 있다. 미국과 EU를 비롯한 주요 국가들이 적극적으로 규제 프레임워크를 구축하는 가운데, 한국도 이에 대한 전략적 대응이 필요해 보인다. 그렇다면 스테이블코인이 도입되기 위해서는 어떤 부분에 대한 준비가 필요할까? 여러 가지가 있겠지만 핵심 몇 가지만 정리해 보기로 한다. 먼저, 투명한 준비금 관리 체계 구축이 필수적이다. 스테이블코인의 핵심은 준비금이 적절하게 유지되고 있음을 보장하는 것이다. 이를 위해 금융기관과 협력하여 법정화폐 및 안전자산 기반의 준비금을 보관하고, 이를 실시간으로 증명할 수 있는 체계를 마련해야 한다. 특히, 블록체인 기반의 POR(Proof of Reserves) 시스템을 통해 준비금의 투명성을 확보하는 것이 필수적이다. 둘째는 규제 환경에 대한 명확한 기준 정립이 필요하다. 스테이블코인이 금융 시스템과 연결되려면, 금융당국의 규제와 감독이 필수적이다. 현재 각국의 규제가 상이하고, 일부 국가에서는 스테이블코인을 법적으로 인정하지 않는 경우도 있다. 따라서 스테이블코인 발행사는 각국의 규제 환경을 고려하여 운영 방식을 조정하고, 금융당국과 협력하여 합법적인 운용이 가능하도록 대비해야 한다. 셋째로 스테이블코인 운영의 기술적 신뢰성을 확보해야 한다. 스테이블코인이 금융 시스템과 원활하게 연결되기 위해서는 단순한 블록체인 기술이 아니라, 강력한 스마트 컨트랙트 그리고 보안 시스템 체계가 필요하다. 이를 통해 사용자들이 스테이블코인을 안전하게 보유하고 사용할 수 있도록 신뢰성을 높여야 한다. 마지막으로 금융 기관 및 결제 네트워크와의 협업도 중요하다. 스테이블코인이 전통 금융 시스템과 원활하게 연결되기 위해서는 은행, 카드사, 결제 네트워크와의 긴밀한 협력이 필요하다. 특히, 글로벌 지급결제 시스템과의 연계를 통해 스테이블코인의 사용성을 확대시킬 수 있다면, 스테이블코인이 실제 금융 환경에서 효과적으로 자리 잡을 수 있는 명분이 될 것이다. 지금과 같이 기술이 급변하는 디지털 금융 시대에서 스테이블코인은 단순한 디지털 자산을 넘어 토큰 경제와 전통 금융을 연결하는 가교이자, 글로벌 금융 인프라 재편을 이끄는 전략적 수단으로 성장할 가능성이 크다. 왜냐하면 스테이블코인이 글로벌 지급결제의 중심축인 SWIFT망의 개선을 통하여 실시간 결제, 비용 절감, 투명성 확보라는 측면에서 새로운 글로벌 표준으로 자리 매김 할 수 있기 때문이다. 그렇기 때문에, 특히, 은행은 고객 신뢰를 바탕으로한 스테이블코인의 발행과 유통을 주도하고, 디지털 자산과 전통 금융을 연결하는 핵심 허브로의 기능을 고민해야 한다. 조금 오버한다고 할 수 있겠지만, 스테이블코인은 향후 국가 금융 경쟁력의 시험대가 될 수도있다. 우리나라가 이러한 글로벌 시장에서 유리한 입지를 확보하기 위해서는 정부, 금융기관, 블록체인 기술 기업 간의 긴밀한 협력과 국제 규제 체계와의 조화로운 연계를 바탕으로 한 선제적 대응과 거시적 전략 수립이 무엇보다 중요하다 할 것이다. *본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.

2025.03.20 14:00김봉규

오픈AI, 'o1-프로' 출시…역대 최고가 AI 모델 선보여

오픈AI가 인공지능(AI) 추론 모델 'o1'의 VIP 개발자 전용 모델을 공개했다. 기존 모델보다 연산량을 늘려 더 깊이 사고할 수 있도록 했지만 가격도 역대 최고 수준으로 책정돼 주목 받고 있다. 20일 테크크런치 등 외신에 따르면 오픈AI는 회사의 공식 개발자 플랫폼인 '오픈AI 플랫폼'을 통해 프로그래머를 위한 'o1-프로' 모델을 선보였다. 지난해 9월 출시된 'o1' 모델보다 연산을 더 많이 사용해 보다 정교한 답변을 제공하는 것이 목표로, 현재는 애플리케이션 프로그램 인터페이스(API) 서비스에서 최소 5달러 이상을 지출한 일부 개발자에게만 제공된다. 가격은 파격적이다. 'o1-프로'의 입력 비용은 100만 토큰(약 75만 단어)당 150달러(한화 21만원)로, 출력 비용은 600달러(한화 84만원)에 달한다. 이는 오픈AI의 대표 모델 'GPT-4.5'보다 입력 비용이 2배, 기존 'o1' 모델보다 출력 비용이 10배 비싸다. 오픈AI는 높은 가격에도 불구하고 'o1-프로'의 성능 개선이 충분한 가치를 제공할 것이라고 보고 있다. 회사 측 주장에 따르면 이 모델은 기존보다 더 많은 연산을 통해 더 깊게 사고하며 가장 어려운 문제에서도 더 나은 답변을 제공한다. 다만 시장 반응은 미지수다. 'o1-프로'는 지난 12월부터 '챗GPT 프로'에 탑재돼 일부 사용자가 경험해봤지만 성능 개선 효과에 대한 평가가 엇갈린다. 특히 스도쿠 문제를 풀지 못하거나 착시 유머에 속는 등 한계를 보였다. 내부 테스트에서도 기대만큼의 차이를 보이지 못했다. 오픈AI가 지난해 말 공개한 자체 벤치마크 결과에 따르면 'o1-프로'는 코딩 및 수학 문제에서 기본 'o1'보다 다소 나은 성능을 보였지만 획기적인 차이는 아니었다. 그러나 답변의 일관성과 신뢰성이 향상됐다는 점이 강점으로 꼽혔다. 오픈AI 관계자는 "'o1-프로'는 'o1'보다 많은 연산을 사용해 더 깊게 사고하고 가장 어려운 문제에 대해 더 나은 답변을 제공하는 모델"이라며 "개발자 커뮤니티로부터 많은 요청을 받아 API에 추가하게 됐으며 보다 신뢰할 수 있는 응답을 제공하기 위해 노력하고 있다"고 밝혔다.

2025.03.20 11:05조이환

혼하이 테크놀로지 그룹(폭스콘), 엔비디아 GTC에서 AI 진전 상황 공개

-- 휴머노이드 로봇공학, GB300 NVL72 인프라 및 디지털 트윈으로 AI 공장 확장 타이페이, 캘리포니아주 새너제이 2025년 3월 19일 /PRNewswire/ -- 세계 최대 전자제품 제조 서비스 제공업체인 혼하이 테크놀로지 그룹(Hon Hai Technology Group, 이하 '폭스콘')(TWSE:2317)이 3월 19일 최고의 인공지능(AI) 콘퍼런스인 GTC 2025에서 휴머노이드 로봇공학, 차세대 NVIDIA GB300 NVL72 플랫폼을 위한 독보적인 인프라, 미래의 AI 공장 운영을 가속화해주는 디지털 트윈에 대한 종합적인 진전 상황을 최초로 공개했다. 폭스콘은 새너제이에서 열린 올해 GTC에 작년보다 두 배 이상 더 많은 대표단을 파견하여 6개의 GTC 세션에 참가하고, 프런티어 AI와 하이브리드 및 간호 로봇부터 NVIDIA Omniverse 및 Mega Omniverse Blueprint를 기반으로 구축된 첨단 물리적 AI 및 시뮬레이션 솔루션의 배포에 이르기까지 다양한 분야의 전문 지식을 공개했다. 70명 이상의 엔지니어와 경영진으로 구성된 기업 대표단을 이끌고 GTC를 찾은 류양웨이(Young Liu) 폭스콘 회장은 "여러분은 폭스콘을 지구상에서 가장 빠른 슈퍼칩이 탑재된 최첨단 AI 서버의 최대 제조업체로 알고 있지만, 우리는 그 이상의 일을 하고 있다"면서 "GTC에서 우리는 우리의 1급 기술력이 어떻게 스마트 시티, 스마트 제조, 스마트 전기차(EV)로 확장되는지를 보여주고 있다"고 말했다. 그는 이어 "이 멋진 행사에 AI의 미래에 대한 통찰력을 교환할 수 있는 훌륭한 파트너들이 한자리에 모였다"면서 "우리가 엔비디아를 다시 한번 지원하게 되어 기쁘다"고 덧붙였다. 폭스콘의 GTC 부스 323에서 드물게 공개된 차세대 GB300 NVL72 서버 랙 모델은 폭스콘이 엔비디아와 공동으로 설계하고 개발했다. 이 모델은 AI 공장의 컴퓨팅 엔진 역할을 하는 조 파라미터의 대형언어모델(large langue model•LLM)의 훈련과 추론을 지원하는 AI 인프라를 시각적으로 보여준다. 폭스콘은 NVIDIA GB200 NVL72부터 GB300 NVL72 플랫폼 제조에 이르기까지 최적의 컴퓨팅 성능을 보장하기 위해 노력하고 있으며, 엔비디아로부터 PBR(Pilot Build Request) 파트너 자격을 획득했다. 첨단 슈퍼칩 생태계는 NVIDIA Blackwell 아키텍처와 폭스콘의 자회사 인그라시스(Ingrasys)의 우수한 액체 냉각 솔루션을 통해 가속화되고 있다. 액체 냉각 솔루션은 NVIDIA Omniverse에 구축된 디지털 트윈 시뮬레이션 솔루션을 활용해 서버 냉각 및 데이터 센터 설계를 최적화함으로써 효율적이고 안정적인 운영을 보장한다. 폭스콘은 광범위한 글로벌 사업장에서 스마트 제조 우수성의 최적화를 추진 중이다. 이는 운영과 안전 모니터링에 필요한 비디오 검색 및 요약(video search and summarization•VSS)을 위한 엔비디아 AI 청사진 등의 엔비디아 AI 솔루션으로 보완된다. 전시장에서는 AI가 실제 시나리오에서 어떻게 작동하는지 보여주기 위해 공장 레이아웃과 운영에 대한 실시간 시뮬레이션이 함께 진행된다. 또 GTC 세션인 '스마트 공장 설계에 NVIDIA Omniverse를 사용하는 방법: NVIDIA GB200 Grace Blackwell 슈퍼칩 생산 라인에서 Fii Omniverse 디지털 트윈 프로젝트(How to Use NVIDIA Omniverse on Smart Factory Design: The Fii Omniverse Digital Twin Project on NVIDIA GB200 Grace Blackwell Superchip Production Line)'는 폭스콘의 지속 가능한 랜드마크 공장들이 어떻게 복제되고 산업 파트너들에게 AI 공장을 확장할 수 있는 솔루션으로 수출될 수 있을지에 대한 가능성을 살펴볼 예정이다. 올해 다이아몬드(Diamond) 스폰서인 폭스콘은 또 첨단 시각 인식과 정밀 이동 기술을 통해 반도체와 자동화 요구를 지원하는 하이브리드 로봇(Hybrid Robot)을 전시하기 위해 로봇공학 존(Robotics Zone)을 마련했다. GTC 세션인 '스마트 제조의 재창조: 폭스콘이 AI 인력을 구축하고 배치하는 방법(Reinventing Smart Manufacturing: How Foxconn Builds and Deploys an AI Workforce)'에서는 AI 공장이 어떻게 에이전틱 AI뿐 아니라 팩토리 GPT와 내장형 지능 로봇과 같은 물리적 AI 애플리케이션을 제공할 수 있는지를 자세히 보여줄 예정이다. 의료 워크플로를 최적화하고 환자 치료를 향상시키는 간호 협업 로봇인 폭스콘의 Nurabot도 GTC에서 데뷔한다. 이 로봇은 올해 말 대만의 파트너 병원들에 배치될 예정이다. 주문형 GTC 세션인 '디지털 트윈과 간호 협업 로봇으로 환자 치료 혁신(Transform Patient Care With Digital Twins and Nursing Collaborative Robots)'는 폭스콘 고위 경영진이 대만에서 가장 바쁜 병동의 디지털 트윈을 주요 콘퍼런스에서 처음으로 자세히 설명하는 시간이 될 것이다. . 처음으로 열리는 또 다른 GTC 세션인 '오픈소스에서 프런티어 AI로: 파운데이션 모델 구축, 맞춤화, 확장(From Open Source to Frontier AI: Build, Customize, and Extend Foundation Models)'에서는 추론 기능을 갖춘 최초의 중국어 번체 LLM인 FoxBrain에 대해 자세히 설명할 예정이다. FoxBrain은 폭스콘의 3대 플랫폼인 스마트 제조, 스마트 전기차, 스마트 시티의 업그레이드를 추진하는 데 중요한 엔진 역할을 할 것으로 기대된다. 주문형 GTC 세션인 '생성형 AI, Metropolis, NVIDIA Omniverse를 통한 도로 안전 개선(Improving Road Safety with GenAI, Metropolis, and NVIDIA Omniverse)'에서 멋진 아바타를 만나고, GTC 부스 323에서 독특한 초콜릿 토큰을 받아 갈 수 있다. 전시장과 운영 시간에 대한 정보는 여기에서 확인 가능하다. 폭스콘의 GTC 세션에 대한 자세한 정보는 여기에서 확인할 수 있다. 1.스마트 공장 설계에 NVIDIA Omniverse를 사용하는 방법: NVIDIA GB200 Grace Blackwell 슈퍼칩 생산 라인에서 Fii Omniverse 디지털 트윈 프로젝트(폭스콘 제공) [S74429] 2.스마트 제조의 재창조: 폭스콘이 AI 인력을 구축하고 배치하는 방법 [S72841] 3.오픈소스에서 프런티어 AI로: 파운데이션 모델 구축, 맞춤화, 확장 [S74035] 4.생성형 AI, Metropolis, NVIDIA Omniverse를 통한 도로 안전 개선 [S74446] 5.디지털 트윈과 간호 협업 로봇으로 환자 치료 혁신 [S74078] 6.산업 디지털화의 다음 개척자를 위한 물리적 AI [S73232; 패널 세션] 폭스콘 소개.

2025.03.19 18:10글로벌뉴스

카카오게임즈, 스크린골프 자회사 카카오VX 연내 매각 추진

카카오게임즈가 자회사 카카오VX를 연내 매각한다. 19일 게임업계에 따르면, 카카오게임즈는 전날 사업보고서를 통해 “카카오VX 및 종속 기업으로 구성된 골프사업부문 매각 계획을 수립했고, 2025년 해당 계획이 이행될 것으로 예상한다”고 밝혔다. 카카오VX는 스크린골프 및 골프 예약 플랫폼을 운영하는 기업으로, 카카오게임즈가 지분 65.2%를 보유하고 있다. 코로나19 팬데믹 당시 골프 붐으로 호실적을 기록했으나, 엔데믹 이후 실적이 지속적으로 하락했다. 지난해 매출 1천116억원, 당기순손실 249억원을 기록했다. 카카오게임즈는 이번 매각 계획에 대해 “비지배 주주의 동의 절차를 진행 중이며 계약 발생 가능성이 높다고 판단한다”고 설명했다. 카카오게임즈는 지난해 3분기부터 골프 사업 전체를 중단 영업으로 분류하며 매각 의지를 드러냈으며, 공식적으로 매각 계획을 발표한 것은 이번이 처음이다. 이와 함께 헬스케어 플랫폼 및 NFT(대체불가토큰) 사업 부문에서도 철수했다. 카카오게임즈가 카카오VX 매각을 추진하는 것은 비핵심 사업을 정리하고 게임 사업에 집중하기 위한 전략으로 해석된다. 지난해 9월에도 무선통신기기 사업을 영위하던 종속회사 세나테크놀로지를 매각한 바 있다.

2025.03.19 14:20강한결

엔비디아, 구글과 손잡고 AI 판도 재편…옴니버스로 '피지컬 AI' 혁신

엔비디아가 인공지능(AI) 추론, 기상 예측, 피지컬 AI 기반 산업 자동화 기술을 종합적으로 혁신하고 있다. 오픈소스 소프트웨어와 협력 이니셔티브를 통해 반도체 강자로서의 입지를 공고히 하는 동시에 AI 시대에서도 지속적인 경쟁력을 확보하기 위한 초읽기에 들어갔다. 엔비디아는 18일(현지 시간) 미국 새너제이에서 열린 GTC 2025에서 '다이나모', '어스-2', '옴니버스' 등의 AI 기술을 발표하고 알파벳과의 협력 이니셔티브를 공개했다. 지난 17일부터 닷새간 진행되는 이번 행사는 회사가 발전시킨 주요 기술과 업계 협력 사례를 공개하기 위해 마련됐다. 엔비디아는 '다이나모'를 통해 AI 추론 최적화를 실현하고 '어스-2'로 초정밀 기상 예측 솔루션을 선보였다. 더불어 알파벳·구글과 협력해 물리 AI 기반 로봇·신약 개발·전력망 최적화 등 다양한 산업 분야에서 AI 자동화를 추진하며 세부 기술력을 한층 고도화하고 있다. '다이나모'로 AI 추론 성능 극대화…'어스-2'로 기상 예측 혁신 엔비디아는 GTC 2025에서 '다이나모'와 '어스-2' 플랫폼을 공개했다. 각각 AI 모델의 성능 향상과 기상 예측 정밀도를 높이는 데 초점을 맞추고 있지만 두 기술 모두 엔비디아 GPU의 가속 성능을 극대화해 기존보다 효율적이면서도 신속한 모델 운영을 지원한다. '다이나모'는 대규모 그래픽처리장치(GPU) 클러스터에서 AI 추론을 최적화하는 소프트웨어다. 다수의 GPU를 활용해 AI 모델이 더 많은 데이터를 빠르게 처리하도록 돕는다. 특히 언어 모델의 추론을 각 단계별로 다른 GPU에 분산하는 '분리 서빙' 방식을 채택해 처리량을 극대화하고 비용을 절감할 수 있다. 기존 AI 추론 방식에는 모델이 한 번 계산한 데이터를 다시 연산하는 비효율이 존재했다. 이에 '다이나모'는 '스마트 라우터' 기능을 도입해 이미 연산된 정보를 특정 GPU에 저장하고 필요할 때 재사용할 수 있도록 한다. 이로써 대규모 AI 팩토리에서 토큰 수익을 극대화하고 GPU 활용도를 높일 수 있게 됐다. 특히 엔비디아 최신 GPU 아키텍처인 '호퍼' 기반 시스템에서 '다이나모'를 활용할 경우 동일한 수의 GPU에서 AI 모델의 처리량을 두 배 이상 증가시킬 수 있다. 또 'GB200 NVL72' 랙에서 딥시크 'R1' 모델을 실행할 때는 GPU당 생성되는 토큰 수가 30배 이상 증가하는 것으로 나타났다. 엔비디아는 AI 추론뿐만 아니라 기상 예측 기술도 혁신하고 있다. '다이나모'와 동시에 공개된 '어스-2 기상 분석용 블루프린트'는 AI 기반 고해상도 기상 예측 솔루션이다. 기후 변화로 인한 재해 위험이 증가하는 가운데 보다 정확하고 빠른 기상 예측이 가능하도록 지원한다. '어스-2 블루프린트'에는 AI 기상 모델 '포캐스트넷'과 고해상도 데이터 변환 모델 '코디프'가 포함됐다. 이들은 기존 CPU 기반 기상 예측보다 최대 500배 빠른 연산 속도를 제공한다. 또 GPU 기반 AI 기상 분석을 통해 보다 세밀한 지역별 기상 예측이 가능하며 예측 정확도도 향상됐다. 엔비디아는 이번 블루프린트를 통해 다양한 기업과 연구 기관이 기상 분석과 재해 대응에 AI를 활용할 수 있도록 돕고 있다. 실제로 아랍에미리트 국립기상센터(UAE NCM), 기상 리스크 관리 기업 JBA 리스크 매니지먼트, 위성 데이터 분석 기업 스파이어 글로벌 등이 어스-2 블루프린트를 도입해 자체 AI 예측 모델을 구축하고 있다. 특히 스파이어 글로벌은 엔비디아 GPU를 활용해 기존 물리 기반 기상 모델보다 1천배 빠른 예측 시스템을 개발했다. 이 시스템은 위성 데이터를 분석해 최대 45일간의 기후 변화를 예측할 수 있다. 젠슨 황 엔비디아 창립자 겸 최고경영자(CEO)는 "어느 때보다도 극심한 기상 이변과 자연재해가 인류의 생명, 재산을 위협하고 있다"며 "'어스-2용 옴니버스 블루프린트'는 전 세계 산업들을 도와 기후 변화와 기상 관련 재난의 대비, 피해 완화에 기여할 것"이라고 말했다. 알파벳과 함께 '물리 AI' 혁신 맞손…'옴니버스'로 산업 자동화 확대 엔비디아는 물리 분야에서도 AI 혁신을 주도하고 있다. 알파벳·구글과 협력해 물리 AI(Physical AI) 개발을 강화하고 산업용 AI 운영체제 '옴니버스'를 통해 산업 자동화를 가속하고 있다. 실제로 엔비디아는 이번 행사에서 알파벳과 함께 'AI 발전을 위한 공동 이니셔티브'를 발표했다. 이번 협력으로 엔비디아의 AI 가속 기술과 알파벳의 인공지능·로보틱스 연구가 결합돼 의료·제조·에너지·스포츠 등 산업 전반에서 AI 혁신을 가속화할 전망이다. 알파벳의 계열사인 구글 클라우드는 엔비디아의 최신 AI 인프라 'GB300 NVL72 랙 스케일 솔루션'과 'RTX PRO 6000 블랙웰 서버 에디션'을 가장 먼저 도입한다. AI 연구와 생산 시스템을 위한 인프라 최적화를 목표로, 생성형 AI의 투명성을 높이기 위해 구글 딥마인드의 AI 워터마킹 기술 '신스ID'도 도입하기로 했다. 알파벳의 로봇 연구 조직인 인트린직은 엔비디아의 '아이작 매니퓰레이터 파운데이션 모델'을 활용해 AI 기반 로봇 자동화 기술을 개발하고 있다. 이를 통해 산업용 로봇이 보다 정교한 작업을 수행할 수 있도록 지원하며 제조업체들이 AI 기반 로봇을 보다 쉽게 적용할 수 있도록 한다. 엔비디아는 물리 AI의 확장을 위해 '옴니버스 물리 AI 운영체제' 역시 전면 업그레이드했다. 옴니버스는 현실 데이터를 디지털 환경과 연결하는 산업용 AI 운영체제로, 제조업·물류·데이터센터·전력망 관리 등 다양한 분야에서 AI 최적화를 지원한다. 특히 이번 GTC 2025에서는 ▲AI 기반 로봇 공장 ▲물류 자동화 ▲데이터센터 디지털 트윈 ▲대규모 합성 데이터 생성을 포함한 4개의 새로운 '옴니버스 블루프린트'를 공개했다. 이를 통해 공장 자동화와 물류 시스템의 효율성을 높이고, AI 로봇의 학습 속도를 더욱 향상시킬 수 있도록 했다. 폭스콘, GM, 현대자동차, 메르세데스-벤츠 등 글로벌 제조 기업들은 이미 '옴니버스'를 도입해 생산라인과 물류 시스템을 최적화하고 있다. 현대차는 보스턴 다이내믹스의 '아틀라스' 로봇을 생산 공정에 적용해 테스트하고 있으며 메르세데스-벤츠는 '아폴로' 휴머노이드 로봇을 활용해 차량 조립 작업을 혁신하고 있다. 또 데이터센터 운영 효율을 높이기 위해 옴니버스를 활용한 디지털 트윈 시스템도 공개됐다. AI 팩토리 디지털 트윈을 통해 공장의 냉각·전력 시스템을 설계하고 시뮬레이션할 수 있어 AI 기반 데이터센터의 에너지 절감 효과를 극대화할 수 있다. 엔비디아는 클라우드 환경에서도 옴니버스 사용을 확대하고 있다. 아마존웹서비스(AWS), 마이크로소프트 애저, 오라클 클라우드, 구글 클라우드에서도 옴니버스를 지원해 개발자들이 보다 쉽게 AI 모델을 학습하고 배포할 수 있도록 하고 있다. 젠슨 황 엔비디아 CEO는 "우리는 알파벳과 AI 인프라 및 소프트웨어 구축부터 대규모 산업에서의 AI 활용을 촉진하는 데까지 오랜 기간 협력해 왔다"며 "신약 개발에서 로보틱스에 이르기까지 구글과 엔비디아의 연구진과 엔지니어들이 협력해 어려운 과제들을 해결해 나가는 모습을 보면 매우 뿌듯하다”고 말했다.

2025.03.19 11:50조이환

KLPGA 대회, 네이버페이로 예약하고 QR로 들어가자

네이버페이가 한국여자프로골프투어(KLPGT)와 'KLPGA 정규투어 티켓판매 서비스 및 통합결제 시스템 구축을 위한 업무협약'을 체결했다고 19일 밝혔다. 앞으로 KLPGA 대회에 네이버페이를 활용한 티켓 예매와 결제, 입장 서비스가 도입된다. '네이버페이 월렛'을 통한 대체불가능토큰(NFT) 기반의 QR티켓 기능이 KLPGA 대회에 도입된다. 네이버페이 월렛은 비수탁형 디지털 자산 지갑으로, 사용자들은 네이버페이 월렛 전용 NFT인 '아트'의 형태로 티켓을 보관하고 경기 입장이나 행사장 내 결제 시 활용할 수 있으며, 전용 혜택과 이벤트, 경기 안내까지 간편하게 이용할 수 있다. 양사는 오는 5월에 개최 예정인 '2025 NH투자증권 레이디스 챔피언십'을 시작으로 KLPGA 경기 티켓팅 및 결제, 이벤트 등 '네이버페이 월렛'을 활용한 서비스를 확대해 나갈 계획이다. 네이버페이 박상진 대표는 “앞으로 네이버페이 월렛을 통해 다채로운 스포츠 관련 콘텐츠들을 제공할 수 있도록 서비스를 지속 확대하겠다”고 말했다.

2025.03.19 10:22손희연

로똔다, 비수탁형 지갑 연계 거버넌스 토큰 'BUN' 출시

블록체인 기업 로똔다(대표 신민철)는 웹3 가상자산 지갑 플랫폼 부리또를 통해 국내 최초 비수탁형 지갑 연계 거버넌스 토큰 'BUN'을 출시한다고 19일 밝혔다 'BUN'은 단순한 유틸리티 토큰을 넘어 이용자가 직접 블록체인 생태계 운영에 참여하고 의사결정에 기여할 수 있는 거버넌스 토큰이다. 거버넌스 토큰은 이용자가 정책과 운영 방향을 결정할 수 있는 투표권 역할을 하며 탈중앙화 가치 실현의 핵심 요소로 활용된다. 국내에서 웹3 지갑과 연계된 거버넌스 토큰 출시 사례는 'BUN'이 처음으로, 향후 이용자 참여 활성화, 거버넌스 강화, 생태계 인센티브 확대 등 다양한 역할을 수행할 예정이다. 부리또는 'BUN' 백서를 통해 기술적 사양과 로드맵을 공개하고, 중앙화 거래소(CEX) 및 탈중앙화 거래소(DEX) 상장을 통해 초기 유동성을 확보할 계획이다. 부리또 관계자는 "BUN은 부리또 생태계의 핵심 자산으로, 이용자가 직접 거버넌스에 참여하고 웹3 서비스와 연계된 다양한 혜택을 누릴 수 있도록 설계됐다"며 "국내 웹3 시장에 새로운 패러다임을 제시하고 글로벌 웹3 생태계에서도 높은 영향력을 발휘할 수 있도록 확장해 나갈 것"이라고 밝혔다.

2025.03.19 09:55김한준

웨카, 엔비디아 통합 및 인증 확대… GTC 2025에서 Augmented Memory Grid 공개

NVIDIA AI Data Platform으로 AI 추론 가속화와 함께 엔비디아 클라우드 파트너 및 엔터프라이즈 배포를 위한 새로운 스토리지 인증 획득 캘리포니아주 새너제이 및 캠벨, 2025년 3월 19일 /PRNewswire/ -- AI 네이티브 데이터 플랫폼 회사인 웨카(WEKA)가 미국 캘리포니아주 새너제이에서 열리고 있는 GTC 2025에서 NVIDIA AI Data Platform 레퍼런스 디자인과의 통합을 발표했다. 이와 더불어 웨카는 에이전틱 AI(Agentic AI)와 추론 모델의 미래를 대비해 최적화된 AI 인프라를 제공할 목적으로 엔비디아 스토리지 인증도 획득했다. 더불어 웨카는 NVIDIA GB200 NVL72를 사용하는 NVIDIA Cloud Partner(NCP) Reference Architecture에 대한 새로운 인증과 엔비디아 NVIDIA Enterprise Reference Architecture를 사용하는 엔터프라이즈 AI 공장에 배포하기 위한 NVIDIA-Certified System™ Storage 지정을 발표했다. Optimizing AI Infrastructure for the Future of Agentic AI 웨카는 또한 WEKA Data Platform 소프트웨어를 엔비디아의 가속 컴퓨팅, 네트워킹, 엔터프라이즈 소프트웨어와 통합해 AI 추론 속도를 높이고, 초당 처리되는 토큰 수를 극대화해 토큰의 효율성을 획기적으로 향상시키는 새로운 Augmented Memory Grid™ 기능을 공개했다. 웨카의 고성능 스토리지로 AI 에이전트 성능 강화NVIDIA AI Data Platform은 에이전틱 AI 시대를 위한 기업 인프라를 재정의하고 있다. NVIDIA Blackwell 플랫폼, NVIDIA BlueField® DPU, NVIDIA Spectrum-X™ 네트워킹, NVIDIA AI Enterprise 소프트웨어를 기업용 스토리지와 통합해 데이터를 실행 가능한 인텔리전스로 변환하는 맞춤형 레퍼런스 디자인을 제공한다. 이제 기업들은 WEKA Data Platform 소프트웨어로 NVIDIA AI Data Platform의 이점을 활용해 AI 쿼리 에이전트를 비즈니스 지식에 연결하고, 복잡한 추론에 대해 최고의 AI 추론 성능과 더 높은 정확도를 보여주는, 대규모 확장이 가능한 엔터프라이즈 AI용 고성능 파운데이션을 생성할 수 있다. WEKA Augmented Memory Grid로 AI 메모리 장벽을 깨다AI 에이전트의 자율적 의사 결정, 복잡한 문제 해결, 적응형 학습 기능을 계속 확장함에 따라 더 긴 컨텍스트 창을 지원할 수 있는 AI 인프라의 필요성이 확대되면서, 모델의 매개 변수가 증가하고, 시스템 메모리 요구 사항이 증가하고 있다. WEKA Augmented Memory Grid를 사용하는 AI 모델은 1테라바이트로 고정된 오늘날의 용량 증가량 대신 테라바이트의 세 자릿수 크기인 페타바이트로 용량을 추가해 대규모 모델 추론에 맞게 메모리를 확장할 수 있다. 이와 동시에 WEKA Augmented Memory Grid는 마이크로초 수준의 지연이란 메모리 속도에 가까운 성능으로 더 빠른 토큰 처리가 가능해 전례 없는 추론 결과를 얻을 수 있다. 주요 이점은 다음과 같다. 첫 번째 토큰 도달 시간 극적으로 단축: 10만 5000개의 토큰을 처리할 때 WEKA Augmented Memory Grid는 프리필(prefill) 컨텍스트를 재계산하는 시간 대비 첫 번째 토큰 도달 시간을 41배 단축했다. 토큰 처리 최적화: 추론 클러스터는 클러스터 전체에서 더 높은 토큰 처리량을 달성할 수 있고, 전체 추론 시스템의 토큰 처리 비용을 최대 24%까지 낮출 수 있다. 새로운 엔비디아 스토리지 인증으로 엔터프라이즈 AI 혁신 앞당겨 WEKApod™ Nitro Data Platform Appliance는 NVIDIA HGX H200, B200, GB200 NVL72를 통해 NVIDIA Cloud Partner(NCP) 배포를 위한 최초의 고성능 스토리지 솔루션 중 하나로 인증을 받음으로써 AI 개발자와 혁신가를 위한 NCP 제공업체의 인프라 서비스를 강화한다. WEKApod 어플라이언스는 고성능 밀도와 전력 효율성을 제공해, 단일 8U 엔트리 레벨 구성으로 최대 1152개의 GPU를 지원할 수 있다. WEKApod™ Nitro 어플라이언스는 NVIDIA-Certified System을 갖춘 NVIDIA Enterprise Reference Architecture 지침에 따라 AI 공장을 구축하는 기업을 위한 새로운 NVIDIA-Certified Systems Storage 지정을 획득했다. 이 인증은 WEKA Data Platform이 엔비디아의 우수 사례와 호환되어 광범위한 엔터프라이즈 AI와 HPC 워크로드를 위해 최적의 스토리지 성능과 효율성 및 확장성을 보장한다는 것을 입증해준다. 나일레쉬 파텔(Nilesh Patel) 웨카 최고제품책임자(CPO)는 "웨카는 엔비디아와의 협력을 통해 NVIDIA AI Data Platform을 가진 조직에 고성능 AI 스토리지 솔루션을 제공함으로써 AI 혁신을 억제하고 모델의 성능과 인프라 효율성을 저하시키는 데이터 문제를 해결하고 있다"면서 "음속 장벽 돌파가 항공우주 혁신에 새로운 지평을 열었듯이 WEKA Augmented Memory Grid는 AI 메모리 장벽을 허물고, GPU 메모리를 확장하고, NVIDIA AI Data Platform 전반에 걸쳐 토큰의 효율성을 최적화하고 있다. 이러한 혁신은 AI 토큰 경제를 변화시켜 성능 저하 없이도 더 낮은 비용으로 더 빠른 혁신을 이루게 해줄 것이다"라고 덧붙였다. 롭 데이비스(Rob Davis) 엔비디아 스토리지 네트워킹 기술 담당 부사장은 "에이전틱 AI와 추론 모델의 힘을 활용하려는 기업이 이처럼 까다로운 워크로드를 처리하려면 전례 없는 효율성과 확장성이 필요하다"면서 "엔비디아와 웨카의 기술을 합치면 AI 에이전트가 추론 과정에서 최첨단 속도와 정확성으로 데이터에 액세스하고 데이터를 처리할 수 있다"고 말했다. 제공 시기 NVIDIA Blackwell 시스템용 웨카의 NCP 레퍼런스 아키텍처는 이달 말 말부터 판매된다. WEKA Augmented Memory Grid 기능은 2025년 봄에 WEKA Data Platform 고객에게 제공될 예정이다. 추가 정보 블로그 참조: 새로운 Augmented Memory Grid, AI 추론 인프라 경제학에 혁명 일으켜 웨카, NVIDIA Blackwell 및 웨카와 함께 AI 추론의 잠재력 발휘 엔비디아 GTC 2025 방문객은 GTC 엑스포 홀에 있는 웨카 부스를 방문하면 새로운 WEKA Augmented Memory Grid 기능을 시연해 볼 수 있다. 고객 추천사 투게더 AI(Together AI) 처장(Ce Zhang) 투게더 AI 최고기술책임자(CTO)는 "투게더 AI에는 속도와 효율성에 집착한다. 그래서 업계에서 가장 빠른 추론 속도를 제공하는 Together Interference Engine을 구축했다. 웨카의 Augmented Memory Grid 기능을 활용해 프롬프트 캐싱(prompt caching)에 소요되는 시간을 줄이고 여러 노드에서 이 캐시를 활용하는 유연성을 개선해 지연 시간을 줄이고 투게더 AI를 기반으로 모델을 구축하는 50만 명이 넘는 AI 개발자에게 혜택을 제공할 수 있게 되어 기쁘다"고 말했다. 요타 데이터 서비시즈(Yotta Data Services)엔비디아 클라우드 파트너인 요타 데이터 서비시즈의 공동 설립자 겸 전무이사인 서닐 굽타(Sunil Gupta) CEO는 "WEKA Data Platform은 인도에서 가장 빠른 AI 슈퍼컴퓨팅 플랫폼인 Yotta Shakti Supercloud의 성능과 확장성을 향상시키는 데 핵심적인 역할을 한다. 웨카의 혁신적인 Augmented Memory Grid 기능과 NVIDIA Blackwell 배포를 위한 고성능 데이터 저장소 인증은 클라우드 규모에서 AI의 효율성을 향상시킨다. 웨카는 GPU 메모리를 확장하고 Shakti Supercloud 제품군 전체에서 활용도를 극대화함으로써 AI 성능 향상, 더 빠른 추론, 더 나은 비용 효율성을 제공할 수 있도록 지원한다"고 말했다. 웨카 소개웨카는 AI 시대를 위해 구축된 기업 데이터 스택에 대한 새로운 방식을 설계하고 있다. WEKA® Data Platform은 클라우드와 어디에나 설치할 수 있는 AI 기반 아키텍처가 갖춰진 AI 인프라의 표준을 설정해 온-프레미스와 클라우드 및 엣지 환경에서 데이터의 원활한 이동을 보장한다. 이 플랫폼은 종래의 데이터 사일로를 GPU, AI 모델 트레이닝과 추론 그리고 기타 성능 집약적인 워크로드를 가속하는 동적 데이터 파이프라인으로 변환해 보다 작업 효율성 상승, 에너지 소비 감소, 관련 탄소 배출 저하를 유도한다. 웨카는 전 세계에서 가장 혁신적인 기업과 연구 조직들이 복잡한 데이터 문제를 해결해 더욱 신속하고 지속 가능한 방식으로 발견, 통찰, 결과에 도달할 수 있도록 지원하고 있으며, 여기에는 포춘 50대 기업 중 12개가 포함되어 있다. www.weka.io를 더 자세한 정보를 확인하거나, 링크드인과 엑스(X)를 통해 웨카와 연결하기 바란다. 웨카와 웨카 로고는 웨카아이오 주식회사(WekaIO, Inc.)의 등록상표이다. 여기에서 사용된 기타 트레이드 명칭들은 각 소유자의 상표일 수 있다. 사진 - https://mma.prnasia.com/media2/2643877/PR_WEKA_NVIDIA_GTC2025.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo.jpg?p=medium600

2025.03.19 07:10글로벌뉴스

"AI 에이전트 시대 주도"…엔비디아, 추론 강화 돕는 SW 공개

엔비디아가 인공지능(AI) 에이전트 시대 본격화를 위한 기술 로드맵을 공개했다. AI 에이전트 개발·유지에 필요한 소프트웨어(SW) 기술을 비롯한 오픈소스 추론 모델 시리즈, 기업용 AI 워크플로 솔루션까지 잇따라 선보였다. 엔비디아는 17~21일까지(현지시간) 미국 새너제이에서 열리는 개발자 회의 'GTC 2025' 미디어 프리브리핑에서 AI 에이전트 개발·추론 강화에 필요한 SW 기술을 공개했다. 이를 통해 AI 에이전트 기술 생태계를 선점하고 기업용 AI 시장에서 주도권을 확보 하려는 전략이다. 이번에 발표할 주요 SW 제품으로는 AI 추론 모델 성능 강화를 돕는 '엔비디아 다이나모(NVIDIA Dynamo)'와 오픈소스 모델 '라마 네모트톤(Llama Nemotron)' 시리즈, '엔비디아 IQ 블루프린트'다. 엔비디아는 해당 제품 모두 AI 에이전트 구축 필수 요소로 자리잡을 것이라 재차 강조했다. '엔비디아 다이나모'로 AI 모델 추론 강화 이번 행사에서 엔비디아는 '엔비디아 다이나모'를 발표한다. 엔비디아 다니어모는 대규모 AI 추론 모델 성능을 올리는 오픈소스 소프트웨어(SW)다. 엔비디아 다이나모는 전체 데이터센터에서 분산·분해 방식으로 작동한다. 분산 방식은 하나의 AI 작업을 여러 개 GPU로 나눠 동시 처리하는 식이다. 기존에는 단일 GPU가 연산을 수행하는 방식이었다면, 다이나모는 동일 작업을 여러 GPU가 협력해 처리하도록 설계됐다. 이를 통해 대량 데이터를 더 빠르고 효율적으로 분석할 수 있다는 설명이다. 엔비디아는 다이나모 분해 방식도 핵심 요소로 꼽았다. 이 방식은 AI 모델이 하나의 질문을 받으면 이를 작은 단위로 쪼개 여러 GPU에 나눠 연산을 수행한다. 이후 최종 결과를 합치는 식이다. 이는 GPU 간 연산 부담을 줄이고 처리 속도를 높일 수 있다. 특히 데이터센터 내 수백~수천 개 GPU가 동시에 운영될 경우, 다이나모 최적화 기술이 GPU 성능 향상을 극대화할 수 있다. 다이나모는 해당 작동방식에 기반해 쿼리 하나를 최대 1천개 그래픽장치(GPU)로 확장할 수 있도록 설계됐다. 기존 방식보다 GPU 활용도를 높여 동일 개수의 GPU로도 처리량을 두 배까지 늘릴 수 있다. AI 모델이 데이터 처리하는 속도가 늘면 자연스럽게 비용 절감 효과와 처리 가능한 데이터 양도 는다. 향후 AI 기반 서비스 운영 효율성을 높이는 핵심 요소로 작용할 전망이다. 여기에 엔비디아의 최신 GPU 네트워크 기술 'NY링크'를 결합하면 성능 향상 폭이 더욱 커진다. NY링크는 GPU 간 데이터 전송 속도를 높이는 기술이다. AI 모델 연산 과정에서 병목현상을 줄이는 역할을 한다. 이를 통해 같은 개수의 GPU를 사용하면서도 최대 30배까지 처리 성능을 끌어올릴 수 있다. 이 외에도 다이나모는 파이토치(PyTorch)를 비롯한 텐서RT, sglang 등 다양한 AI 프레임워크와 호환되는 개방형 아키텍처를 지원한다. 이를 통해 기존 AI 모델을 변경하지 않고도 성능을 개선할 수 있다. 엔비디아는 "딥시크처럼 대규모 데이터를 처리하는 모델은 연산량이 많아 GPU의 확장성이 중요하다"며 "다이나모는 이런 대형 모델 연산 부담을 효과적으로 분산시키는 역할을 한다"고 강조했다. "똑똑한 AI 에이전트 구축"…오픈소스 모델 '라마 네모트론' 시리즈 엔비디아는 AI 에이전트 추론 능력 강화를 위해 새 오픈소스 AI 모델 '라마 니모트론(Llama Nemotron)' 시리즈를 내놨다. 이는 비즈니스 환경에서 즉시 활용 가능한 AI 추론 모델이다. 주로 복잡한 문제 해결을 위한 고급 AI 에이전트 구축에 사용된다. 메타의 오픈소스 모델 '라마' 기반으로 작동한다. 엔비디아는 "해당 모델은 알고리즘적으로 가지치기 과정을 거쳐 모델 크기를 줄였다"며 "이로 인해 컴퓨팅 자원을 덜 소모하면서도 정확도를 유지할 수 있게 최적화됐다"고 설명했다. 또 "사후학습 기법을 통해 라마 니모트론 모델을 더욱 개선했다"고 말했다. 그러면서 "주로 수학 문제 해결과 도구 호출, 명령어 처리, 대화 기능 등 여러 분야에서 최상의 추론 성능을 발휘할 수 있다"고 말했다. 라마 니모트론 모델군은 '나노(Nano)'와 '수퍼(Super)' '울트라(Ultra)' 버전으로 이뤄졌다. 나노는 해당 모델 크기에서 가장 높은 추론 정확도를 제공한다. 수퍼는 단일 데이터센터 GPU에서 가장 빠른 처리 속도를 제공한다. 울트라는 데이터센터급 멀티 GPU 환경에서 AI 에이전트 추론 정확도 극대화를 돕는 모델이다. 나노와 수퍼는 이번 GTC에서 NIM 마이크로서비스 형태로 제공된다. 울트라 모델은 추후 공개된다. 해당 모델 시리즈는 데이터셋 관련 기술과 패키지 형태로 제공된다. 이 데이터셋은 엔비디아가 생성한 600억 개 토큰으로 구성한 합성 데이터셋이다. 약 36만 시간의 H100 GPU 추론 수행과 4만 5천 시간의 인간 주석 작업을 통해 개발됐다. 이 외에도 해당 모델 시리즈는 추론 기능을 온·오프(toggle on/off)할 수 있는 옵션도 제공한다. 이는 오픈 모델에서는 드문 기능인 것으로 평가받고 있다. '엔비디아 IQ 블루프린트'로 AI 에이전트 유연성 높였다 엔비디아는 '엔비디아 IQ 블루프린트'를 출시했다. 해당 솔루션은 4월부터 이용 가능하다. IQ 블루프린트는 개발자가 NIM으로 AI 에이전트를 구축하고 이를 엔터프라이즈 비즈니스 시스템과 연결하게 돕는 AI 워크플로 도구다. 이를 통해 AI 에이전트가 텍스트, 이미지, 영상 등 여러 데이터 유형을 검색·활용할 수 있게 지원한다. 웹 검색이나 다른 AI 에이전트와 같은 외부 도구 활용도 가능하다. 또 다수 AI 에이전트가 팀을 이뤄 협력할 때 개발자가 AI 시스템 작동 과정을 모니터링하고 성능을 개선할 수 있도록 가시성과 투명성을 제공한다. 엔비디아는 "IQ 블루프린트를 활용하면 AI 에이전트 정확도를 높이고, 복잡한 작업 처리 시간을 몇 시간에서 몇 분으로 단축할 수 있다"고 강조했다. 또 엔비디아는 주요 데이터 스토리지 기업과 협력해 AI 데이터 플랫폼을 개발 중이라고 밝혔다. 해당 플랫폼에는 네모 리트리버와 IQ 블루프린트, 블랙웰 GPU, 스펙트럼-X 네트워킹, 블루필드 DPU 등이 포함된다. 이를 통해 실시간에 가까운 데이터 기능을 제공할 방침이다. 엔비디아는 "앞으로 엔터프라이즈 데이터가 AI 에이전트를 위한 핵심 자원으로 활용될 전망"이리며 데이터 플랫폼 개발 배경을 밝혔다. 그러면서 "현재 기업 데이터 저장 시스템은 단순히 파일을 저장하고 제공하는 역할만 수행하고 있다"며 "AI 에이전트가 도입되면, 기업은 데이터 저장·관리 시스템을 지식 제공 시스템으로 전환할 수 있다"고 강조했다.

2025.03.19 05:02김미정

한은, 4월부터 CBDC 일상 생활서 테스트한다

한국은행이 디지털 화폐(CBDC)를 일상 생활서 쓸 수 있는지 테스트 과정에 돌입한다. 18일 한은 및 금융업계에 따르면 오는 4월초부터 6월말까지 한은과 7개 금융사가 협업해 디지털 화폐를 편의점 등과 같은 곳에서 결제하는 실험 '디지털 테스트 프로젝트 한강'을 착수한다. 한은이 발행한 협업한 은행들에게 발행한 기관용 CBDC를 활용해 금융사가 만든 디지털 화폐(예금토큰 등)을 실생활 결제서 적용할 수 있는지를 보는 것이다. KB국민은행·신한은행·하나은행·우리은행·NH농협은행·IBK기업은행·BNK부산은행이 참여하며, 프로젝트에 참여한 가맹점에서 은행 애플리케이션(앱)을 활용해 QR코드로 결제하는 방식이다. 가맹점은 세븐일레븐·교보문고·하나로마트·땡겨요·현대홈쇼핑 등으로 전해졌다. 테스트에 참여할 시민들은 이달 중 공고를 통해 모집할 예정이다. 규모는 10만명으로 알려졌으며 1인당 보유 한도는 100만원이고 테스트 기간 중 총 결제 한도는 500만원이다. 앞서 한은은 2023년 금융감독당국 등과 공동으로 CBDC 활용성에 대한 테스트를 예고한 바 있다. 이창용 총재도 지난해 "은행이 한은의 기관용 CBDC를 기반으로 예금토큰을 발행하고 기관용 CBDC로 100% 담보된 이 머니 토큰을 은행이 발행할 수 있도록 시스템을 설계했다"며 "CBDC 파일럿을 하는 국가들 중 일반인 대상의 실거래 테스트를 진행하는 국가는 일부에 불과해 이번 파일럿의 의의가 매우 크다"고 밝힌 바 있다.

2025.03.18 17:06손희연

옥타코, 피싱 막는 M2A 선봬…"제로 트러스트"

인증 보안 기업 옥타코는 18일 제로 트러스트(Zero Trust) 인증 방법으로 '옥타코 피싱 방어 M2A'를 선보였다. 제로 트러스트는 '절대 믿지 말고 항상 검증하라'는 뜻이다. M2A(Multi-Attribute Authentication)는 다양한 속성을 활용해 사용자·기기·환경을 종합 인증하는 체계다. 단순히 여러 인증 요소(MFA)를 모으는 것만이 아니라 사용자 신원과 기기 무결성, 행동 양식, 네트워크 상태 등을 동시에 검증한다. 피싱·중간자 공격을 비롯한 해킹 시도에 대응하는 신원 인증 방법이라고 옥타코는 소개했다. M2A는 비밀번호와 일회용비밀번호(OTP) 조합을 넘어 기기 자체가 믿을 만한 환경인지를 함께 판단한다고 옥타코는 설명했다. 이를 위해 생체 인증이나 하드웨어 보안 번호와 더불어 기기 보안 패치 상태, 악성코드 감염 여부, 위치 정보, 네트워크 상태까지 살펴본다. 비밀번호가 유출됐거나 일회성 토큰이 탈취돼도 뚫기 어렵다는 입장이다. 옥타코는 M2A가 로그인 시도한 때를 넘어 그 시간에도 다중 속성을 계속 점검한다고 강조했다. 권한은 나눠서 적용한다고 덧붙였다.

2025.03.18 16:57유혜진

카나리 캐피탈, 美 SEC에 수이 ETF 등록 위한 S-1 서류 제출

수이(SUI)는 미국 자산운용사 카나리 캐피탈이 미국 증권거래위원회(SEC)에 최초의 수이 기반 상장지수펀드(ETF) 등록을 위한 S-1 서류를 제출했다고 18일 밝혔다. 이는 수이 ETF가 미국 공공 시장에 정식 상장되기 위한 첫 단계로, 향후 수이 생태계의 제도권 편입을 가속화하는 중대한 전환점이 될 전망이다. 이번 ETF는 수이 네트워크의 네이티브 토큰인 SUI에 직접 투자할 수 있는 최초의 공모형 금융상품으로, 기관 및 일반 투자자들이 보다 익숙한 방식으로 수이에 접근할 수 있도록 설계됐다. 특히, ETF는 투자자들이 직접 자산을 보관하거나 관리할 필요 없이 규제된 경로를 통해 가상자산에 투자할 수 있는 수단으로, 다양한 투자자층에게 수이를 개방하는 역할을 하게 된다. 최근 6개월간 그레이스케일, 프랭클린템플턴, 반에크, 앤트파이낸셜 등 주요 금융기관들이 수이 생태계를 기반으로 다양한 투자상품과 프로젝트를 선보이며, 글로벌 기관들의 수이 수요가 빠르게 증가하고 있다. 이들은 토큰화 펀드, 상장지수채권(ETN) 등 다양한 형태의 상품을 출시하며, 수이가 제공하는 확장성 높은 블록체인 인프라가 글로벌 자산 이전의 새로운 표준이 될 가능성을 입증하고 있다. 블록체인 기술이 탈중앙화 금융, 게임, 기업 솔루션 등 다양한 분야로 확장되는 가운데, 수이는 고속 처리, 확장성, 보안성 측면에서 차별화된 인프라를 제공하고 있다. 실제로 수이 생태계는 최근 분산거래소(DEX) 누적 거래량 700억 달러를 돌파했으며, 등록 계정 수는 6천700만 개를 넘어섰다.

2025.03.18 15:23김한준

인엑스, 이더리움-베이스 체인 기반 디파이 프로토콜 '모포' 연결

가상자산 거래소 인엑스는 자사가 운영하는 디앱스토어에 이더리움 및 베이스 체인 기반 렌딩 프로토콜 모포(Morpho)가 공식 연결됐다고 18일 밝혔다. 모포는 탈중앙화 금융 서비스의 핵심인 대출 및 예치 기능을 보다 효율적으로 제공하는 프로토콜로 이용자들은 낮은 이자율로 대출을 받고, 높은 수익률로 자산을 예치할 수 있는 환경을 제공받는다. 모포의 가장 큰 특징은 기존 탈중앙화 금융 대출 프로토콜 대비 최적화된 금리 구조와 효율적인 유동성 운용 방식이다. 이를 통해 이용자들은 예치 자산에 대한 수익을 극대화할 수 있으며, 대출 시 보다 낮은 이자율을 적용받아 경쟁력 있는 금융 서비스를 이용할 수 있다. 또한 모포는 프로토콜 거버넌스 토큰 'MORPHO'를 활용해 정책 결정 과정에 참여할 수 있도록 하여, 탈중앙화 금융 생태계 내에서 이용자들의 역할을 강화하고 있다. 인엑스 디앱스토어는 ▲기술 평가 ▲토크노믹스 분석 ▲커뮤니티 평가 ▲질적 평가 ▲투명성 평가 등 다섯 가지 기준을 기반으로 신뢰할 수 있는 블록체인 애플리케이션을 선별하여 제공한다. 이번 모포 추가를 통해 이용자들에게 보다 다양한 탈중앙화 금융 솔루션을 지원하고, 블록체인 금융 서비스 접근성을 확대할 계획이다. 인엑스 관계자는 "모포는 효율적인 대출 및 예치 서비스를 제공하는 혁신적인 렌딩 프로토콜로, 디앱스토어 이용자들에게 최적화된 탈중앙화 금융 경험을 제공할 것"이라며, "앞으로도 블록체인 금융 시장의 발전을 선도하기 위해 우수한 디앱을 지속적으로 선보일 계획"이라고 밝혔다.

2025.03.18 10:03김한준

넥써쓰, 1천만 달러 규모 프라이빗 세일 종료…"퍼블릭 세일도 동일 가격 유지"

넥써쓰가 1천만 달러(약 144억원) 규모 프라이빗 토큰 세일을 마감했다. 장현국 넥써쓰 대표는 18일 트위터를 통해 이번 프라이빗 세일이 토큰당 0.1달러(약 144원)로 진행됐으며 퍼블릭 세일에서도 동일한 가격을 유지할 것이라고 밝혔다. 그는 "열정적인 초기 투자자들은 프라이빗 세일과 퍼블릭 세일에서 동일한 가격을 지불하는 것이 공정하다"며 "말보다 행동이 중요하다"고 강조했다. 이에 앞서 장 대표는 지난 12일 트위터를 통해 넥써쓰의 중국 지사 설립을 발표하며 글로벌 확장 계획을 밝히기도 했다. 장현국 대표는 "중국 지사를 설립했다. 이는 중국 게임을 신흥 글로벌 시장과 연결하는 역할을 할 것"이라며 "중국은 세계 최대 게임 시장이며, 개발자들도 빠르게 성장하고 있다. 새로운 챔피언에게는 새로운 퀘스트가 필요하다"고 말했다. 넥써쓰의 중국 지사 설립은 현지 게임 개발사들과 협력해 블록체인 기반 게임 생태계를 확장하려는 전략으로 풀이된다.

2025.03.18 09:27김한준

툴스포휴머니티, 'AI 시대 게임 공정성' 강화 위한 인간 인증 시스템 도입

블록체인 기반의 디지털 신원 인증 기업 툴스포휴머니티(TFH)가 글로벌 게이밍 브랜드 레이저와 협력해 인간 인증 시스템을 도입한다고 발표했다. TFH는 월드코인 프로젝트의 핵심 개발사로 프로젝트 운영에 필요한 다양한 인프라를 구축하고 관리하는 역할도 맡고 있다. TFH와 레이저는 지난 14일 온라인 미디어간담회를 진행하고 이와 같이 밝혔다. 이번 발표는 AI와 봇(bot)으로 인한 게임 내 불공정 플레이 문제가 점차 대두되는 가운데 이뤄진 것으로 협력을 통해 월드 아이디 기술이 레이저의 싱글 사인온 시스템인 레이저 아이디에 적용된다. TFH와 레이저는 게임 이용자가 AI 및 봇과 구별된 '인간 인증'을 받을 수 있도록 할 계획이다. TFH 티아고 사다 최고 제품 책임자(CPO)는 "AI가 점점 발전하면서 인터넷과 게임 환경이 급격히 변화하고 있다. 게임에서는 원래부터 치팅이 존재했지만 AI의 발전으로 인해 이제는 누구나 손쉽게 부정행위를 저지를 수 있는 상황이다"라고 지적했다. 그는 "미국에서 진행한 설문 조사에 따르면 게이머의 70%가 멀티플레이어 게임에서 봇이 부정적인 영향을 미친다고 답했고, 20%는 이러한 이유로 게임을 아예 그만두었다. 또한 75%의 게이머는 게임에서 상대가 인간인지 확인할 수 있는 인증 시스템을 원한다고 밝혔다"고 강조했다. TFH는 월드 아이디와 연계한 인증 시스템을 도입하며 이를 레이저 아이디에 적용할 예정이다. 사다는 "월드 아이디는 기존의 신원 인증 시스템과 달리 사용자의 신원 정보를 보관하지 않는다. 우리는 오직 이 사용자가 실제 인간인가만을 검증하며 그 외 개인정보는 수집하지 않는다"고 설명했다. 레이저 웨이핀 추 최고 기업 책임자(CCO)는 "레이저 아이디 베리파이드 바이 월드 아이디는 게이머들이 단순한 SSO 계정을 넘어 인간임을 인증받을 수 있는 시스템"이라며 "이 기능을 통해 AI 및 봇 문제를 해결하고, 게임 내 공정성을 강화하겠다"라고 밝혔다. 이번 시스템은 오는 5월 출시 예정인 웹3 게임 '도쿄 비스트'에서 최초로 적용될 예정이다. 이 게임은 토큰 보상과 디지털 자산 스테이킹 기능을 포함하고 있어 AI 및 봇으로부터 자산을 보호할 필요가 높은 것이 특징이다. 티아고 사다는 "게임 플레이에서 봇이 개입하지 못하도록 하고, 게이머를 스캠 및 부정행위로부터 보호하는 것이 중요하다. 공정한 플레이를 유지하는 것이 이번 프로젝트의 핵심 목표"라고 말했다. TFH와 레이저는 기존 대형 게임사와 협력 가능성도 열어두고 있다고 설명했다. 티아고 사다는 "AI와 봇 문제는 웹3뿐만 아니라 기존 웹2 게임에서도 공통적으로 발생하는 문제다. 월드 아이디는 특정 플랫폼에 국한되지 않고, 모든 게임과 웹사이트에서 인간 인증을 제공할 수 있는 시스템"이라고 설명했다. 웨이핀 추는 "레이저 생태계는 단순한 하드웨어 브랜드가 아니다. 우리는 게이머들이 게임 내 결제와 런처, 소프트웨어 등을 하나의 아이디로 통합해 사용할 수 있도록 다양한 서비스를 제공하고 있다"며, "대형 게임사들과도 협력할 의향이 있다"고 밝혔다. TFH와 레이저는 앞으로도 AI 시대의 게임 공정성을 유지하기 위한 기술 개발을 지속할 계획이다. 티아고 사다는 "이번 협력은 시작일 뿐이며, 월드 아이디가 향후 더 많은 게임과 플랫폼에 적용될 수 있도록 할 것"이라며, "우리의 목표는 AI 및 봇이 난무하는 온라인 게임 환경에서도 게이머들이 안심하고 공정한 플레이를 즐길 수 있도록 돕는 것이다"이라고 계획을 밝혔다.

2025.03.18 09:00김한준

카이스트, LLM 학습시간 예측 모델 개발… AI 훈련 비용 5% 절감

GPU 활용률 10% 저하로 훈련 비용 수백만 달러 증가, vTrain으로 해결책 제시 대규모 언어 모델(LLM)이 다양한 응용 분야에서 널리 보급됨에 따라 인공지능 커뮤니티가 직면한 중요한 과제는 이러한 대규모 AI 모델을 비용 효율적인 방식으로 훈련하는 방법이다. 기존의 LLM 훈련 계획은 일반적으로 LLM 병렬화 공간에 대한 철저한 검토보다는 경험적 관찰에 기반한 휴리스틱 기반 병렬 훈련 전략을 채택한다. 이러한 한계로 인해 기존 시스템은 상당한 성능 향상의 여지를 남겨두게 되며, 수백만 달러에 달하는 훈련 비용이 낭비된다. 예를 들어, 1,024대의 NVIDIA A100 GPU를 사용하여 GPT-3(175B 매개변수)를 훈련할 때, GPU 컴퓨팅 활용률이 단지 10%(50%에서 40%로) 감소하더라도 훈련 시간이 8일 증가하여 수백만 달러의 추가 비용이 발생한다. 그러나 이러한 대규모 LLM을 훈련해야 하는 규모 때문에 훈련 시스템 구성의 설계 공간을 철저히 탐색하여 가장 최적의 비용 효율적인 하이퍼파라미터를 찾는 것은 극히 어려운 일이다. 수십 분 내 최적 훈련 전략 도출하는 vTrain의 혁신적 시뮬레이션 기술 카이스트가 발표한 논문에 따르면, 비용 효율적이고 컴퓨팅 최적의 LLM 훈련 시스템 평가를 안내하는 프로파일링 기반 시뮬레이터인 vTrain은 해당 문제를 해결하는 데 도움이 된다. vTrain은 AI 실무자들에게 효율적이고 비용 효율적인 LLM 훈련 시스템 구성을 결정하기 위한 빠르고 정확한 소프트웨어 프레임워크를 제공한다. vTrain의 핵심 특징은 프로파일링 기반 방법론을 사용하여 각 설계 지점의 LLM 훈련 시간을 정확하게 추정하는 것이다. 이는 고성능 멀티코어 CPU 서버에서 몇 십 분 내에 최적의 LLM 훈련 시스템 구성을 결정할 수 있게 한다. vTrain의 설계는 LLM 훈련 시간을 정확하게 추정할 수 있게 하는 다음과 같은 핵심 관찰에 기반한다. 첫째, 최신 AI 알고리즘은 각 그래프 노드가 신경망 레이어를 나타내는 비순환 그래프로 표현된다. 둘째, LLM 추론과 달리, 훈련을 위한 LLM 그래프 노드의 실행 순서는 컴파일 시간에 정확하게 정의되므로 vTrain은 얼마나 많은 LLM 그래프 노드를 실행해야 하는지와 그 실행 순서를 정적으로 결정할 수 있다. 셋째, 대상 GPU 아키텍처에서 각 개별 LLM 그래프 노드(각 레이어)의 실행 시간은 매우 결정적이며 서로 다른 실행 간에 거의 변동이 없다. 경험적 방식 대비 10% 적은 GPU로 5% 비용 절감, vTrain의 사례 연구 vTrain의 실용성을 입증하기 위해 여러 사례 연구를 실시했다. 첫 번째 사례는 비용 효율적인 LLM 훈련 계획이다. 주어진 LLM, 훈련 토큰 크기 및 컴퓨팅 예산(즉, 총 GPU 수)이 주어졌을 때, 벽시계 훈련 시간과 그에 관련된 훈련 비용을 최소화하는 가장 최적의 훈련 병렬화 전략을 결정할 수 있다. 두 번째는 비용 효율적인 멀티테넌트 LLM 스케줄링으로, 여러 LLM 훈련 작업이 GPU 클러스터를 공유할 때, GPU 활용률을 최대화하면서 작업 완료 시간을 최소화하는 효율적인 스케줄링 알고리즘을 식별할 수 있다. 세 번째는 컴퓨팅 최적의 LLM 모델 설계로, 고정된 컴퓨팅 및 훈련 시간 예산이 주어졌을 때, Chinchilla 스케일링 법칙을 만족하는 가장 큰 LLM을 결정할 수 있다. 예를 들어, MT-NLG(530B) 모델 훈련에서 vTrain은 기존 방식보다 10% 적은 GPU를 사용하면서 4.5% 높은 GPU 활용률을 달성하고, 훈련 비용을 5% 절감하는 훈련 계획을 도출했다. 텐서, 데이터, 파이프라인 병렬화의 최적 조합으로 LLM 훈련 효율성 극대화 현대 LLM 훈련은 최첨단 3D 병렬화 방식(데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화)을 적용한다. 이는 LLM과 같은 거대한 AI 모델을 분할하여 여러 GPU에서 효율적으로 학습시키기 위한 전략이다. 텐서 병렬화는 모델 가중치를 GPU 내에서 열과 행 차원으로 나누어 같은 노드 내 GPU 간에 고대역폭 통신을 활용한다. 데이터 병렬화와 파이프라인 병렬화는 주로 노드 간 병렬화에 사용되며, 상대적으로 통신 오버헤드가 적다. vTrain은 이러한 복잡한 병렬화 전략의 성능을 정확하게 모델링하고, 최적의 구성을 찾아내어 GPU 활용률을 높이고 훈련 비용을 최소화할 수 있다. 145억에서 76억 매개변수로: vTrain으로 발견한 30일 내 훈련 가능한 현실적 모델 크기 Chinchilla 스케일링 법칙에 따르면, 주어진 컴퓨팅 예산 내에서 최적의 모델 크기와 훈련 토큰 수 사이에는 균형이 필요하다. 단순히 모델 크기만 키우는 것은 과소훈련으로 이어져 알고리즘 성능을 완전히 활용하지 못한다. GPU 효율성에 대한 현실적인 평가 없이 단순히 가용 GPU 수만으로 컴퓨팅 예산을 결정하면 오해의 소지가 있다. vTrain은 실제 GPU 활용률을 고려하여 보다 현실적인 컴퓨팅 최적 모델 크기를 도출할 수 있다. 예를 들어, 420개의 NVIDIA DGX A100 서버(3,360 A100 GPU)를 30일 동안 사용한다고 가정할 때, 단순히 100% GPU 활용률을 가정하면 1,456억 매개변수의 모델을 2,912억 토큰으로 훈련할 수 있다고 예상할 수 있다. 그러나 vTrain은 실제로는 평균 35.56%의 GPU 활용률만 달성 가능하며, 이는 원래 기대했던 30일 대신 85일의 훈련 시간이 필요함을 보여준다. vTrain을 사용하면 760억 매개변수의 모델을 1,521억 토큰으로 30일 내에 훈련할 수 있는 더 현실적인 계획을 수립할 수 있다. FAQ Q: 대규모 언어 모델 훈련에서 GPU 활용률이 왜 그렇게 중요한가요? A: GPU 활용률은 훈련 시간과 비용에 직접적인 영향을 미칩니다. vTrain의 연구에 따르면 GPU 활용률이 단 10% 감소하더라도(50%에서 40%로) 훈련 시간이 8일 증가하며, 이는 수백만 달러의 추가 비용을 의미합니다. 따라서 최적의 병렬화 전략을 통한 GPU 활용률 최적화는 비용 효율적인 LLM 훈련에 필수적입니다. Q: vTrain은 어떻게 기존 LLM 훈련 방식보다 더 효율적인 방법을 찾아낼 수 있나요? A: vTrain은 프로파일링 기반 시뮬레이션을 통해 수천 가지의 가능한 병렬화 구성을 빠르게 평가하여 최적의 훈련 계획을 도출합니다. 기존 방식은 경험적 관찰에 기반한 휴리스틱에 의존하지만, vTrain은 전체 설계 공간을 체계적으로 탐색하여 GPU 활용률과 훈련 시간 사이의 최적 균형점을 찾아냅니다. Q: Chinchilla 스케일링 법칙이란 무엇이며 LLM 훈련에 어떤 영향을 미치나요? A: Chinchilla 스케일링 법칙은 주어진 컴퓨팅 예산 내에서 모델 크기와 훈련 토큰 수를 균형있게 확장해야 한다는 원칙입니다. 이 법칙에 따르면, 모델을 과소훈련하면 해당 모델의 알고리즘 잠재력을 완전히 발휘할 수 없습니다. vTrain은 실제 GPU 효율성을 고려하여 이 법칙을 적용함으로써, 주어진 시간과 자원 내에서 훈련할 수 있는 최적의 모델 크기와 토큰 수를 더 정확하게 예측할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:48AI 에디터

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

‘AI 컨트롤타워’ 과기정통부, 부총리급 격상 논의

배달앱 수수료 탓하는 프랜차이즈...가맹점 상생에는 '뒷짐'

과거의 집 북촌에 둥지 튼 '오늘의집' 첫 쇼룸 가보니

EUV 공정서 수천억 손실 막는다...반도체 '톱5' 중 4곳이 쓴다는 '이것'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.