• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'b 구글찌라시ぞ『𝕤𝕖𝕟𝕤𝕘𝕠𝕠』ぞ구글찌라시'통합검색 결과 입니다. (2477건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"파인 다이닝 유치 총력"...롯데타운 잠실, 미식 중심지로

롯데타운 잠실이 프리미엄 다이닝 브랜드를 연이어 유치하며, 서울의 미식 트렌드를 선도하는 중심축으로 부상하고 있다. 25일 롯데백화점에 따르면 잠실 에비뉴엘의 경우 재작년부터 프리미엄 다이닝을 꾸준히 확대해왔으며, 지난해 F&B 부문에서 두 자릿수 매출 신장률을 기록해 괄목할 만한 성과를 거뒀다. 대표 사례로는 유통업계 최초로 선보인 정통 한식 다이닝 '해남천일관', 고급 중식 콘셉트의 'JS 가든 시그니처' 등이 있다. 롯데백화점은 프리미엄 다이닝 전략을 월드몰과 잠실점 본관으로 확장하며, 서울의 미식 지형을 새롭게 그려 나갈 계획이다. 먼저 잠실점 본관은 지난 21일, 11층에 '부티크 호시카이' 첫 번째 매장을 성황리에 오픈했다. '부티크 호시카이'는 롯데백화점과 제주 최초의 파인 다이닝 오마카세 브랜드인 '스시 호시카이'가 협업해 론칭한 브랜드로, 한식과 일식의 조화를 바탕으로 한 정통 다이닝을 선보인다. 제주 제철 해산물을 활용한 고급 정찬이 주를 이루며, '호시카이 특선 장어덮밥', '제주 전복 내장 보양죽 정찬' 등이 대표 메뉴다. '핸드롤 바'를 운영하여 '테마키', '호소마끼' 등의 메뉴를 주문 즉시 제조하여 제공하며, 제주 바다에서 영감을 받은 감각적인 인테리어로 세련된 미식 공간을 완성했다. 오는 6월 9일에는 잠실 롯데월드몰 6층에 유통업계 최초로 '콘피에르 셀렉션(Confier Selection)'이 문을 연다. '콘피에르 셀렉션'은 한국의 제철 식재료를 사계절의 테마로 풀어내는 코리안 프렌치 파인다이닝 '콘피에르'가 새롭게 선보이는 브랜드다. '콘피에르'는 2024년 미국의 영향력 있는 트렌드 매거진 “쿨헌팅(Cool Hunting)”으로부터 파인다이닝 대표 브랜드로 선정되며 국내외에서 주목받고 있다. 이번에 공개하는 '콘피에르 셀렉션'은 기존 콘피에르에서 오랫동안 사랑받아온 시그니처 메뉴들을 새롭게 재해석하고, 부담 없이 즐길 수 있는 짧은 코스와 단품 요리를 구성해 파인다이닝의 매력을 한층 더 가볍고 친근하게 경험할 수 있도록 기획했다. 롯데백화점 최초 입점 다이닝 브랜드도 확대하여 연달아 선보인다. 6월 1일(일)에는 롯데월드몰 5층에 일본 나가사키 지역의 프리미엄 돈카츠 브랜드 '분지로'를 새로이 오픈한다. '분지로'는 롯데백화점 본점에 유통업계 최초 1호점을 오픈했으며, 이후 타임빌라스 수원을 거쳐 잠실 롯데월드몰에 세 번째 매장을 선보인다. 이번 매장에서는 '돈카츠카레' 등 단독 메뉴를 판매하며, '바 테이블' 인테리어를 새롭게 도입해 보다 몰입감 있는 식사 공간을 구현했다. 이 외에도, 6월 13일에는 롯데월드몰 5층에 부산 유명 해물장 전문점 '미포집'을 오픈한다. '미포집'은 전체 고객 중 60% 이상이 부산 외 지역 및 해외 관광객일 만큼 '줄 서서 먹는 부산 맛집'으로 잘 알려져 있다. 지난 12월 롯데백화점 본점에 유통업계 1호 매장을 선보인데 이어, 고객들의 뜨거운 반응에 힘입어 잠실 롯데월드몰에 유통사 두 번째 매장을 공개한다. 최형모 롯데백화점 푸드부문장은 "고객들의 미식 취향이 정교해지며 '프리미엄 다이닝'을 일상 속에서 즐기려는 수요가 꾸준히 증가하고 있다”며, “특히, 롯데타운 잠실은 차별화된 고급 다이닝 브랜드를 연이어 유치하고 있는 만큼, 서울을 대표하는 미식 랜드마크로서 앞으로도 미식 트렌드에 맞춘 감각적인 F&B 콘텐츠를 선제적으로 발굴·도입해 나가겠다”고 밝혔다.

2025.05.25 17:34안희정

"엔비디아, 中 겨냥해 저가형 블랙웰 AI칩 출시 예정"

엔비디아가 이르면 6월부터 '블랙웰' 기반의 신규 저성능 AI 반도체를 양산할 계획이라고 로이터통신이 25일 보도했다. 블랙웰은 엔비디아가 출시한 AI 가속기 중 가장 최신 세대의 아키텍처다. 당초 엔비디아는 중국 시장을 겨냥해 '호퍼' 아키텍처 기반의 'H20'을 공급해 왔으나, 최근 미국의 대중(對中) 반도체 수출 규제 수위 강화로 공급이 어려워졌다. 이에 엔비디아는 신규 AI 가속기로 중국 시장을 지속 공략하려는 것으로 풀이된다. 해당 칩은 엔비디아의 'RTX 프로 6000D' GPU를 기반으로 하며, HBM(고대역폭메모리) 대신 최신형 그래픽 D램인 GDDR7를 채용했다. 가격은 6천500~8천 달러 사이로, H20의 가격인 1만~1만2천 달러 대비 크게 낮은 수준이다. 또한 TSMC의 첨단 패키징 기술인 CoWoS(Chip-on-Wafer-on-Substrate)도 활용되지 않는다. CoWoS는 칩과 기판 사이에 넓다란 실리콘 인터포저 위에 반도체 다이(Die)를 수평 배치하는 2.5D 패키징의 일종이다. 지난해 회계연도 기준으로, 중국은 엔비디아의 전체 매출에서 13%를 차지하는 주요한 시장이다. 엔비디아가 미국의 규제를 피해 새롭게 칩을 설계하는 것은 이번이 세 번째다. 한편 신규 칩의 구체적인 이름은 아직 밝혀지지 않았다. 중국 증권사 GF증권은 '6000D', 또는 'B40'으로 명명될 가능성이 높다고 밝힌 바 있다.

2025.05.25 09:05장경윤

MBZUAI, 파운데이션 모델 연구소 출범 및 실리콘밸리 AI 연구소 설립

샌프란시스코, 2025년 5월 24일 /PRNewswire/ -- 모하메드 빈 자예드 인공지능대학교(Mohamed bin Zayed University of Artificial Intelligence, MBZUAI)가 파운데이션 모델 연구소(Institute of Foundation Models, IFM)를 출범하며 글로벌 입지를 확장했다. IFM은 캘리포니아주 서니베일에 새로 설립된 실리콘밸리 연구소(Silicon Valley Lab)와 기존에 발표된 파리와 아부다비의 연구 시설로 구성된 다지역 이니셔티브다. Professor Eric Xing at the IFM launch in Silicon Valley 전날 마운틴 뷰의 컴퓨터역사박물관(Computer History Museum)에서 열린 출범 행사를 통해 MBZUAI는 글로벌 연구 네트워크의 세 번째 거점을 공식화했다. 이번 전략적 확장은 대학을 캘리포니아의 활발한 AI 연구자, 스타트업, 기술 기업 생태계와 연결한다. UAE와 MBZUAI에 이러한 움직임은 국가의 장기적 경제 다각화 계획에서 또 하나의 전략적 진전을 의미한다. UAE는 첨단 AI 파운데이션 모델과 같은 최첨단 기술에 투자함으로써 장기적인 경제 및 사회적 전환을 뒷받침할 지식 기반 산업을 계속 구축하고 있다. 에릭 싱(Eric Xing) MBZUAI의 총장 겸 교수는 "오늘 IFM의 출범은 프런티어급 AI 파운데이션 모델의 협업 및 글로벌 발전을 위한 중요한 진전"이라며 "실리콘 밸리로의 확장은 세계에서 가장 역동적인 AI 생태계 중 하나에서 우리의 입지를 넓히는 중요한 발판이 될 것이다. 우리는 선도적인 기관들과 지식 교류 경로를 개척하고 연구를 실제 응용 프로그램으로 확장할 수 있는 인재 풀에 접근하고 있다"라고 말했다. 이번 출범 행사에는 세계 유수의 AI 기업 및 학술 기관 관계자가 참석했다. 이는 파운데이션 모델 연구에 대한 MBZUAI의 글로벌 접근 방식에 높은 관심이 쏠리고 있다는 의미다. MBZUAI의 시연 중심에는 PAN이라는 세계 모델이 있다. 이 모델은 기본적인 물리적 상호작용부터 복잡한 에이전트 시나리오에 이르기까지 다양한 현실을 무한하게 시뮬레이션할 수 있는 능력을 갖추고 있다. 이전 시스템들이 주로 텍스트, 오디오 또는 이미지 생성에 중점을 두었던 것과 달리, PAN은 언어, 비디오, 공간 데이터, 물리적 행동 등 멀티 모달 입력을 통합해 포괄적인 세계 상태를 예측한다. 이를 통해 자율 주행부터 로봇 공학에 이르는 다양한 분야에서 고급 추론, 전략 계획, 정교한 의사 결정 등이 가능해진다. PAN은 혁신적인 계층형 아키텍처를 통해 시뮬레이션 내에서 다층적인 추론과 실시간 상호작용을 지원하며, 확장된 시나리오에서도 높은 정확도를 유지한다. 이 모델의 보조 시스템인 PAN-Agent는 동적 시뮬레이션 환경 내에서 수학 및 코딩과 같은 멀티 모달 추론 과제를 수행하며, PAN의 유용성을 보여준다. K2 및 JAIS: 글로벌 영향력을 지닌 고급 파운데이션 모델 IFM 연구소는 또한 K2와 JAIS라는 두 개의 대표적인 AI 시스템을 중심으로 프런티어급 파운데이션 모델을 더욱 발전시키겠다는 의지를 실현하고 있다. 곧 출시될 K2-65B 업데이트는 지속 가능한 성능과 함께 획기적인 추론 기능을 제공하는 데 초점을 맞추고 있다. JAIS 는 세계에서 가장 발전된 아랍어 대형 언어 모델이다. IFM에서 JAIS는 언어 지원을 늘려 역량을 계속 확장하고 해당 언어권의 문화를 보존하고 증진할 수 있도록 더 풍부한 문맥을 추가할 예정이다. 개방적인 AI 구축: 핵심 가치로서의 투명성 MBZUAI는 업계에서 가장 투명한 AI 개발 접근법 중 하나를 구축하고, 모델뿐만 아니라 전체 개발 프로세스를 오픈 소스로 공개함으로써 IFM을 개방형 구축의 선두 주자로 자리매김했다. LLM360 이니셔티브는 연구자에게 학습 코드, 데이터 세트, 모델 체크포인트를 포함한 모든 자료를 완전하게 제공한다. 이러한 개방성은 국제 자문 위원회와 동료 평가 절차 등 연구 무결성을 유지하기 위한 보호 장치와 함께 균형을 이룬다. IFM 구조는 모의 아키텍처, 학습 방법, 평가 프레임워크, 안전 시스템에 중점을 둔 전담팀을 포함하며, 스타트업의 민첩성과 기존 연구 기관의 리소스를 결합한다. 모하메드 빈 자이드 인공지능대학교 (MBZUAI) 소개 MBZUAI는 아부다비에 있는 연구 중심 대학으로, 전적으로 AI를 통한 과학 발전에 전념하는 최초의 대학이다. 자세한 내용은 www.mbzuai.ac.ae에서 확인할 수 있다. 언론 문의: 아야 사쿠리(Aya Sakoury)PR 및 전략 커뮤니케이션 책임자media@mbzuai.ac.ae 사진: https://mma.prnasia.com/media2/2695164/MBZUAI.jpg?p=medium600

2025.05.24 21:10글로벌뉴스

[황승진의 AI칼럼] 넷플릭스·유튜브는 새 상품을 어떻게 추천할까

아마존, 넷플릭스, 아이튠(iTune), 유튜브, 스포티파이(Spotify), IMDb 같은 온라인 서비스 기업은 어떤 방법으로 새 상품을 추천할까? 아마존의 경우 매출의 35%가 추천 시스템에 기인하고, 넷플릿스는 80%에 달한다 하니 기업의 흥망성쇠가 추천에 달렸다해도 과장은 아니다. 사용자에 많은 부류가 있고, 또 아이템에도 많은 부류가 있으니 서로 궁합이 맞는 쌍을 연결하는 것이 추천 시스템의 핵심이다. 특히, 이를 시행하기위해 '여러 사용자의 선호도'를 반영한 과거 데이터를 이용하는 방식을 협업 필터링(Collaborative filtering)이라 부르며, 여기에 임베딩을 사용하는 방식을 여기 소개한다. 먼저 임베딩에 대한 복습으로 시작한다. 새로운 임베딩 시스템은 다음과 같이 만들어졌다. 많은 아이템의 집합이 여기 있다. 먼저, 각 아이템에게 하나의 벡터 임베딩을 부여한다. 의미상으로 유사한 아이템끼리는 벡터가 가깝고, 유사하지 않은 아이템끼리는 멀도록 임베딩을 잘 선택한다. 또한 두 아이템 간의 유사도를 설명하는 '유사도 측정값'을 써야 된다. 우리는 두 벡터의 내적(內積)(dot product)을 유사도 측정값으로 선택하며, 이 값이 클수록 두 아이템은 유사하다. 이제 넷플릭스 같은 영화 OTT에 추천 시스템을 보자. 아이템은 영화라 하고, 사용자는 시청자라 부르기로 한다. 유사한 시청자들은 유사한 영화를 좋아한다는 점을 이용하기 위해, 유사한 시청자들을 서로 근처에 가도록 몰아 놓고, 또 유사한 영화를 그들끼리 몰아 놓아야 한다. 이를 임베딩으로 한다. 먼저, 영화 집합에 그리고 시청자의 집합에 임베딩을 적용한다. 따라서 각 시청자는 자기 임베딩을 가지고, 각 아이템도 자기 임베딩을 가지고 있다. 흥미롭게도, 여기서 시청자와 영화는 같은 벡터 공간을 사용한다. 예를 들어, 시청자의 임베딩은 그가 어떤 속성의 영화를 선호하느냐로 정한다. 시청자의 임베딩을 (모험, 로맨스, 대규모 제작, 유명 배우 출현, 유명 여배우 출현, 외국어, 할리우드 스타일, …)이라 가정하자. 사실 실제 임베딩은 이렇게 요소별로 명확한 속성을 가지는 게 아니지만 설명을 위해 이리 가정한다. 가만히 보면, 이러한 시청자의 임베딩은 영화에게도 자연스럽게 적용된다. 그리고 임베딩의 유사성이 선호도와 연결된다. 시청자 A가 영화 B를 좋아한다면, 둘의 임베딩은 어느 정도 겹칠 것이다. 즉, A는 '모험=1'이고 '낭만=0' 라면, 그는 그와 비슷한 영화 B(예, 0.9, 0.1)를 좋아한다. 즉, A와 B가 벡터상으로 비슷하면, 이 말은 곧 A와 B의 유사도 측정값, 두 벡터의 내적 값이 0.9처럼 크다는 것을 뜻한다. 즉 '궁합이 맞다'는 우리말은 수학적으로 '내적 값이 크다'로 해석된다. 지금 마침 한 시청자가 도착하여 넷플릭스에 로그인하면, 사이트는 매칭 프로세스를 시작한다. 사이트는 그 시청자의 계정에 연결된 임베딩을 알고 있다. 시청자와 그가 아직 시청하지 않은 100개 영화들 사이의 유사도 측정값을 하나씩 계산한다. 그 결과, 사이트는 가장 높은 순위의 영화를 추천할 것이다. 그렇다면, 시청자와 영화의 임베딩은 어떻게 얻을 수 있을까? 그저 우리가 속성별로 벡터 숫자를 메길까? 아니다. 여기에 모델의 절묘한 한 수가 있다. 먼저, '피드백 행렬'을 준비한다. 엑셀 스프레드시트에 큰 테이블을 만든다. 가장 왼쪽 열에 시청자들의 이름을 나열하고, 맨 위 행에 영화의 이름을 나열한다. 다음, 테이블의 셀을 채운다. 시정자 A가 영화 B를 보았다면 해당 행과 열이 만나는 셀에 1을 입력한다. 그렇지 않다면 0을 입력한다. 이 테이블 Z를 '피드백 행렬' 혹은 '상호관련 행렬'이라고 한다. 이것은 시청자와 영화 사이의 관계를 데이터로 보여준다. 이제 드디어 임베딩이 등장한다. 이제 그 행렬 Z를 두 개의 행렬, 즉 시청자 임베딩 행렬 X와 영화 임베딩 행렬 Y의 곱(Z=XYT)으로 표현한다. 이렇게 하면 두 개의 임베딩 행렬 X, Y를 동시에 추출할 수 있다. 행렬 X는 시청자들의 벡터 임베딩을 열거한 것이고, 행렬 Y는 영화들의 벡터 임베딩을 열거한 것이다. 이렇게 추천 시스템이 완성된다. 요약하면, 피드백 행렬에서 두 개의 임베딩을 생성하고, 유사도 측정값을 적용해 시청자와 영화의 쌍에 대한 '매칭'을 찾는다. 이런 방식의 추천 시스템을 '임베딩을 이용한 협업 필터링'이라 부른다. 2006년 넷플릭스의 추천 시스템 공개 경쟁에서 기존 추천시스템을 이긴 사이몬 펑크(Simon Funk)와 비슷한 아이디어이고 구글의 개발자용으로도 소개됐다. 그때 주어진 데이터는 1억 개의 시청자 평가로, 50만 시청자와 1만7000편의 영화에 벡터 사이즈는 40이었다. 최근에는 LLM을 본격적으로 활용하는 추천 시스템이 개발됐다. 그 중 하나는 생성형 추출 방법(Generative Retrieval)을 이용해 영화와 시청자에게 임베딩과는 약간 다른 벡터 ID를 부여한다. 이 ID는 SID(의미상 ID)라 부르며 여러 속성에 대한 정보로 구성된다. 다음, 앞의 리스트를 보고 다음 영화를 예측케 하는 NWP(다음 단어 추측)식으로 LLM을 훈련시킨 후 다음 영화들을 추천한다. 또 다른 접근법으로는 '그래프-기반 추천법'이 있다. 지식 그래프의 모든 노드를 시청자 노드와 영화 노드 지역으로 양분한 후, 각 노드에 그 속성을 담아 임베딩을 만들고, 벡터 DB에 넣은 후, 시청자를 유사한 영화에 연결하는 방식이다. 이 각 사례에서는 LLM의 일등공신인 임베딩 아이디어를 이용한 깔끔한 애플리케이션을 보여준다.

2025.05.24 20:08황승진

'특허왕' 은행은 어디?

카카오뱅크가 등록 특허권 누적 123건을 돌파했다고 24일 밝혔다. 카카오뱅크의 등록 특허권은 2025년 4월 말 기준 국내 89건, 해외 34건으로 총 123건에 달한다. 등록 특허권이란 특허청에 신청하는 절차인 '특허 출원'을 마치고 심사를 통과해 법적인 보호를 받는 특허권을 의미한다. 카카오뱅크 측은 "최근 5년간 국내 은행권에서 가장 많은 건수의 특허권을 출원·등록했다"고 귀띔했다. 카카오뱅크는 기술 분야에서 ▲신경망을 이용해 신분증의 진위 판단을 하는 '신분증 인식 기술' ▲터치 패턴을 이용해 사용자를 인증하는 '무자각 인증 기술' ▲거래패턴 분석을 통한 '이상거래 탐지 기술' 등의 특허를 보유했다. 서비스 분야 특허로는 ▲모임원들이 '모임통장의 거래 내용을 실시간으로 확인할 수 있는 서비스' ▲설정에 따라 애플리케이션(앱) 화면에서 계좌 금액을 숨길 수 있는 '계좌정보 숨김 서비스' ▲계좌의 잔고변화패턴을 기반으로 '적정한 금액이 자동으로 저축되는 저금통 서비스' 등이 있다. 특히 '신경망을 이용한 신분증 진위 판단 방법 및 이를 수행하는 서버', '딥러닝 기반의 신분증 진위판단장치 및 신분증 진위판단방법' 등 신분증 인증 프로세스와 관련된 특허는 미국에서도 등록됐다. 미국은 IP5(세계 지식재산 5대 강국) 중 하나로 심사가 까다로운 만큼 특허권을 가장 엄격하게 보호하는 국가다. 미국 특허로 등록되는 경우에는 국내 평가 등급이 상승하며, 기업가치 산정이나 투자 유치에도 유리한 요소로 작용된다. 미국에 등록된 카카오뱅크 특허권 2건은 국내 A등급 특허로 승격됐다. 카카오뱅크는 A등급 특허 2건 외에도 BBB등급 9건, BB등급 31건, B등급 29건 등 상위 등급의 특허권을 다수 보유하고 있다. 평가 등급이 높을수록 법적 안정성과 상업적 활용 가능성이 높다. 카카오뱅크 관계자는 "사내 직무발명보상제도 등 다양한 발명 장려 제도를 운영하고 관련 인력을 확보하는 등 혁신 금융 기술 개발에도 앞장서고 있다"며 "카카오뱅크의 뛰어난 기술 역량과 아이디어를 통해 글로벌 기술 경쟁 시장에서 주도권을 갖고 안전한 금융 생태계를 조성할 수 있도록 노력하겠다"고 말했다.

2025.05.24 10:00손희연

AI가 AI를 평가했더니…"도움 드릴 수 없습니다" 답변을 32% 더 선호

GPT-4o와 라마 모델, 윤리적 거부 응답에 32%포인트 높은 점수 대규모 언어 모델(LLM)이 다른 AI 모델의 성능을 평가하는 '심판' 역할을 하는 사례가 급증하고 있다. 하지만 한국외국어대학교 AI사회과학부의 스테판 파쉬(Stefan Pasch) 연구팀이 발표한 논문에 따르면, AI가 평가하는 방식과 실제 사용자들이 평가하는 방식 사이에 상당한 차이가 존재한다는 것이 밝혀졌다. 특히 윤리적 거부 응답에 대해서는 AI 평가자들이 인간보다 훨씬 높은 점수를 주는 '조정 편향' 현상이 발견됐다. 연구팀이 챗봇 아레나(Chatbot Arena) 데이터를 분석한 결과, GPT-4o가 윤리적 거부 응답을 평가할 때 승률이 31%에 달했다. 이는 인간 사용자들이 평가한 8%보다 무려 23%포인트 높은 수치다. 라마 3 70B 모델 역시 27%의 승률을 기록해 인간 평가보다 19%포인트 높았다. 연구진은 49,938개의 응답 쌍을 분석했으며, 각 응답을 윤리적 거부, 기술적 거부, 면책조항, 일반 응답으로 분류했다. 윤리적 거부는 "해롭거나 부적절할 수 있어 도움을 드릴 수 없습니다"와 같이 도덕적 우려를 명시적으로 언급하는 응답이다. 반면 기술적 거부는 "실시간 데이터에 접근할 수 없어 답변드릴 수 없습니다"처럼 시스템 한계를 설명하는 응답이다. 흥미롭게도 기술적 거부 응답에서는 이러한 편향이 나타나지 않았다. GPT-4o의 경우 기술적 거부 응답에서 인간 평가와 유사한 수준의 점수를 부여했고, 라마 3 70B는 오히려 더 낮은 점수를 주었다. 이는 AI 평가자들이 모든 거부 응답을 선호하는 것이 아니라, 특히 윤리적 정렬(ethical alignment)을 보여주는 응답에 높은 가치를 부여한다는 것을 시사한다. LLM-as-a-Judge 시스템의 숨겨진 가치 판단 LLM-as-a-Judge(LaaJ) 프레임워크는 확장성과 비용 효율성 때문에 AI 모델 평가에서 점점 더 중요한 역할을 하고 있다. 이 시스템은 단순히 성능을 측정하는 것을 넘어서 모델 훈련, 벤치마킹, 모델 선택 과정에까지 영향을 미치고 있다. 그러나 이번 연구는 이러한 시스템들이 중립적인 평가자가 아니라 내재된 가치 판단을 가지고 있음을 보여준다. 연구진은 이러한 현상을 '조정 편향(moderation bias)'이라고 명명했다. 이는 AI 모델들이 안전성과 윤리적 정렬을 중시하는 훈련 목표를 내재화하여, 윤리적 거부 응답을 책임감 있는 행동의 신호로 해석하기 때문으로 분석된다. 오픈AI(OpenAI), 메타(Meta), 앤스로픽(Anthropic) 등 주요 AI 개발사들이 모델 안전성과 윤리적 정렬을 최우선 과제로 강조해온 것과 무관하지 않다. 사용자 만족도와 AI 안전성 사이의 딜레마 이러한 평가 편향은 AI 개발에서 중요한 딜레마를 제기한다. 사용자들은 윤리적 거부 응답을 회피적이거나 지나치게 도덕적, 또는 비협조적으로 인식하는 경향이 있다. 반면 AI 평가자들은 이러한 응답을 안전하고 책임감 있는 행동으로 판단한다. 회귀분석 결과에 따르면, 인간 평가자들은 윤리적 거부 응답에 대해 32%포인트의 승률 감소를 보였지만, GPT-4o는 12%포인트 감소에 그쳤다. 이는 통계적으로 유의미한 차이(p < 0.001)였다. 기술적 거부 응답에서는 GPT-4o의 평가가 인간 평가와 거의 동일했다(p > 0.05). 이러한 결과는 AI 모델 훈련과 평가에서 구조적 피드백 루프가 형성될 위험을 시사한다. 윤리적 거부 응답이 훈련과 평가 과정에서 지속적으로 높은 점수를 받는다면, 사용자 만족도보다는 모델의 선호도가 시스템 행동의 방향을 결정할 수 있다는 것이다. 투명성과 책임성 강화 방안 모색 연구진은 이러한 문제를 해결하기 위한 여러 방안을 제시했다. 먼저 '평가 카드(evaluation cards)' 개발을 통해 콘텐츠 조정 편향과 같은 체계적 편향을 투명하게 보고할 것을 제안했다. 또한 인간-인-더-루프(human-in-the-loop) 평가 파이프라인을 통해 윤리적으로 민감한 사안에서 모델 판단을 인간 평가자와 교차검증하는 방법도 제시했다. 더 나아가 참여적 정렬(participatory alignment) 접근법을 통해 '적절한' 모델 행동의 기준을 개발자 내부 규범만이 아니라 다양한 사용자 커뮤니티와 문화적 맥락을 통해 정의할 필요가 있다고 강조했다. 이는 인구통계학적으로 다양한 주석자 풀 구성, 문화적 근거를 둔 벤치마크 개발, 다중 이해관계자 거버넌스 프로세스 등을 포함한다. FAQ Q: LLM-as-a-Judge 시스템이란 무엇인가요? A: LLM-as-a-Judge는 하나의 AI 모델이 다른 AI 모델의 출력을 평가하고 순위를 매기는 시스템입니다. 확장성과 비용 효율성 때문에 AI 모델 평가에서 점점 더 중요한 역할을 하고 있습니다. Q: 조정 편향이 AI 개발에 어떤 영향을 미치나요? A: 조정 편향은 AI 모델이 윤리적 거부 응답을 과도하게 선호하게 만들어, 사용자 만족도보다는 안전성을 우선시하는 방향으로 AI 시스템을 발전시킬 수 있습니다. 이는 사용자 경험과 AI 안전성 사이의 균형을 맞추는 데 어려움을 초래할 수 있습니다. Q: 이러한 편향을 해결하기 위한 방법은 무엇인가요? A: 평가 카드를 통한 투명한 편향 보고, 인간-인-더-루프 평가 시스템 도입, 다양한 이해관계자가 참여하는 정렬 방법 개발 등이 제안되고 있습니다. 또한 문화적으로 다양한 평가 기준을 반영하는 것도 중요합니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.05.23 21:39AI 에디터

HPE-엔비디아 동맹, 'AI 팩토리' 전면에…수익화 총공세

휴렛팩커드엔터프라이즈(HPE)가 엔비디아와 손잡고 인공지능(AI) 인프라 포트폴리오를 전면 개편했다. 클라우드부터 스토리지, 서버, 운영 관리 솔루션까지 전방위로 확장하며 기업의 에이전틱 및 생성형 AI 도입을 가속화하려는 전략이다. HPE는 'HPE 기반 엔비디아 AI 컴퓨팅' 포트폴리오의 대대적 업데이트를 23일 발표했다. 이번 조치는 다음달 미국 라스베이거스에서 열리는 'HPE 디스커버 2025'를 앞두고 AI 시장 주도권 강화를 위한 신호탄으로 해석된다. 향후 HPE는 프라이빗 클라우드 AI에 엔비디아 AI 엔터프라이즈의 피쳐 브랜치 모델 지원을 추가할 예정이다. 이를 통해 기업은 개발 중인 AI 기능을 안전하게 실험하고 프로덕션 환경으로 확장할 수 있는 테스트 환경을 확보하게 된다. 이에 더해 프레임워크·SDK·사전학습 모델을 하나로 묶은 'NIM 마이크로서비스'도 턴키 형태로 통합된다. 단순한 실행 환경을 넘어 생성형 AI를 엔터프라이즈 레벨에서 바로 구축할 수 있는 실질적 기반이 제공되는 셈이다. 더불어 신제품인 HPE '알레트라 스토리지 MP X10000'도 이번 포트폴리오에 포함됐다. 엔비디아 AI 데이터 플랫폼을 위한 소프트웨어 개발 키트(SDK)를 제공해 비정형 데이터 수집, 추론, 학습, 지속적 학습 전 과정을 단순화한다. SDK는 원격 직접 메모리 접근(RDMA) 기반 전송 기능으로 그래픽처리장치(GPU) 메모리, 시스템 메모리, 스토리지 간 데이터 경로를 최적화한다. 인라인 데이터 처리, 메타데이터 강화, 벡터 인덱싱 등 기능도 포함돼 데이터 효율성을 극대화한다. 서버 부문에서는 HPE 프로라이언트 컴퓨트 'DL380a 젠12(Gen12)'가 핵심이다. 엔비디아 'RTX 프로 6000' 블랙웰 GPU를 최대 10개까지 탑재 가능하며 다음달 4일부터 주문 접수를 시작한다. 이 서버는 이전에 'H100 NVL'과 'L40S' GPU 기반으로도 엠엘퍼프(MLPerf) 벤치마크에서 '라마2-70B' 등 다양한 모델 추론 테스트에서 성능 1위를 기록한 바 있다. 신규 탑재 GPU는 멀티모달 AI, 디자인, 그래픽, 비디오 처리 등 엔터프라이즈 AI 워크로드를 위한 최적화된 성능을 제공한다. 운영관리 플랫폼인 'HPE 옵스램프'도 'RTX 프로 6000' 블랙웰 GPU까지 지원하도록 업데이트됐다. 이 솔루션은 온도, 사용률, 전력소비 등 상세 지표 모니터링부터 AI기반운영(AIOps) 기반 리소스 예측, 자동화 응답 기능까지 포함해 전반적인 인프라 운영 효율을 높인다. 특히 AI기반운영 예측 기능은 GPU 사용률·메모리·전력 소모 패턴을 분석해 향후 리소스 수요를 사전에 감지한다. 이로써 자동 확장 또는 클러스터 최적화 조치를 지원한다. 엔비디아와의 협업 강화를 통해 '엔터프라이즈 AI 팩토리'라는 브랜드 연합체 구축도 엿보인다. 검증된 설계 기반으로 AI 프레임워크, SDK, 엔비디아 'NIM 마이크로서비스' 등을 턴키로 제공해 시장 진입 장벽을 낮췄다는 평가다. 안토니오 네리 HPE 최고경영자(CEO)는 "AI 도입 단계와 관계없이 기업들이 AI의 잠재력을 실현할 수 있도록 돕겠다"고 밝혔다. 젠슨 황 엔비디아 CEO는 "HPE 시스템을 통해 기업들은 생성형 및 에이전틱 AI 시대에 최적화된 IT 인프라를 구축할 수 있을 것"이라고 말했다.

2025.05.23 17:10조이환

"AI 인재도, 데이터도 없다"…망분리 완화부터 속도내야

윤석열 전 대통령의 탄핵 이후 들어서는 새 정부는 정치 혼란 속에서도 산업과 기술의 방향성을 다시 세울 중대한 책임을 떠안게 됐다. 동시에 전 세계는 기술의 또 다른 거대한 전환점을 맞이하고 있다. AI가 특정 산업의 기술을 넘어, 모든 산업에 스며드는 '기반 인프라'로 자리 잡고 있는 것. 자동차에서 헬스케어, 게임, 미디어, 금융에 이르기까지 AI는 이미 산업 생태계의 기초 체력으로 작동하기 시작했다. 지디넷코리아는 창간 25주년을 맞아 이 격변의 시점에서 AI 기반 산업 대전환기에 진입한 대한민국의 산업 현장을 진단하고, 각 산업 분야 전문가들과 함께 'AI시대, 새 정부가 해야 할 일'을 짚어본다. [편집자주] 금융위원회가 지난해 '금융권 망 분리(인터넷 차단) 규제'를 완화하면서 금융업은 다른 산업보다 뒤늦게 인공지능 전환(AX)의 길에 접어들었다. 망 분리 규제 이전 AI 활용이 전혀 없었던 것은 아니지만 드디어 생성형AI라는 바다와 조우할 수 있게 됐다. 그러나 현 수준의 망 분리 규제 완화만으로는 AI가 접목된 획기적인 금융 서비스를 내놓긴 힘들다는 것이 금융사들의 지적이다. 현재와 같은 규제로는 이미 도태된 기술을 접목하는데 머무를 것이란 비판도 나온다. 기술적으로 자유롭게 뛰어놀 수 없는 환경이다 보니 관련 인력도 부족하다. 인력 부족은 또 금융권의 AI 발전 도태로 이어진다. 금융업계선 망 분리 규제 특례 심사 기간의 획기적인 단축과 다양한 외부 데이터 접근 허용이 필요하다고 제언했다. AI 도입 첫 길…망 분리 완화 오픈AI의 생성형 AI '챗GPT3'의 등장은 전 산업에 영향을 미쳤다. 생성형 AI가 가져올 파급력이 훨씬 더 클 것이라는 관측이 나오고 있다. 동시에 우리나라도 이 흐름에 뒤쳐져선 안된다는 경고까지 나왔다. 상황이 이렇게 되자 보안 규제가 가장 엄격한 금융당국도 움직이기 시작했다. 금융위는 지난 2024년 8월 금융사 내부망(내부 정보 저장 시스템)과 외부망(인터넷 연결 시스템)을 물리적으로 분리해 운영하도록 한 망 분리 규제를 완화했다. 금융위의 '망 분리 개선 로드맵'에 따르면 금융사가 규제 샌드박스(혁신금융서비스 신청)를 심사를 신청하면 생성형 AI 등에 인터넷 활용 제한 규제를 완화해준다. 그동안 망 분리 규제는 금융권에선 대표적인 '대못'으로 통했다. 빠르게 인터넷을 연결해 솔루션을 개발하고 고도화하는 데 가장 큰 걸림돌이었기 때문이다. 망분리 규제 때문에 금융회사들은 오픈소스를 활용해 산업 환경에 맞는 AI 모델을 개발할 길이 막혀 있었다. 그나마 필요한 프로그램 역시 별도로 은행 본부 승인을 받아야 하는 복잡한 절차도 있었다. 이번 기사를 위해 시중 8개 은행(KB국민은행·신한은행·하나은행·우리은행·NH농협은행·카카오뱅크·케이뱅크·토스뱅크)의 AI 및 디지털 담당 부서를 대상으로 설문조사를 실시했다. 이번 조사에 참여한 은행들은 이구동성으로 "망 분리 규제 완화로 인해 상용 AI 모델의 활용이 가능해졌다는 점에서 의미가 있다"고 평가했다. 또 "외부 모델 활용으로 인해 서비스 개발 및 오픈을 준비할 수 있게 됐다"고 덧붙였다. 내부 서비스에만 중점…한계도 '여전' 하지만 조사 대상 8개 은행들은 "AI를 활용할 때 가장 걸림돌은 규제"라면서 "망 분리 규제 완화만으로는 금융권 AI 활성화가 힘들다"고 입을 모았다. 이들은 또 망 분리 규제 특례 심사에 너무 많은 시간이 소요된다는 점도 문제 삼았다. 그러다보니 신기술 발전 속도를 제대로 따라잡지 못한다는 것이다. A은행은 "금융위의 혁신금융서비스 신청 심사 기간이 120일 이내로 돼 실제 승인까지 약 3~4개월이 소요된다"며 "그 사이 새로운 AI 기술이 도입되는 경우도 있으며, 타 금융사에서 먼저 승인을 받은 동일 건에 대해서는 더 빨리 승인을 해주는 등 승인 기간이 단축되면 더 좋겠다"고 설명했다. B은행에서는 "망 분리 규제로 인해 서비스형 소프트웨어(SaaS)와 클라우드 활용에 제약이 많고, 혁신금융 서비스를 통하더라도 번거로운 상황"이라며 "빅테크에서 사용 가능한 영역도, 금융사에서는 사용 불가인 경우가 빈번한 경우가 많다"고 거론했다. C은행은 "오픈소스나 AI모델을 내부 반입 시 용량이 클 경우 반입이 어렵다"며 "클라우드와 인터넷 상에서 제공되는 API 연동 등이 자유롭지 못하는 점도 제약요인"이라고 짚었다. D은행은 "AI 기술은 금융서비스의 효율성 제고와 고객경험 혁신에 있어 큰 잠재력을 지니고 있으나, 현실적으로 금융사가 이를 도입하고 확산하는 데에는 걸림돌이 존재한다"며 "규제 및 컴플라이언스 이슈가 가장 크다고 보고 있으며, AI 기본법 제정과 개인정보보호 규제가 지속 강화되면서 금융권의 AI 알고리즘 활용 가능 범위와 방법도 제한되고 있다"고 지적했다. 인재도 데이터도 '부족' 금융업체들의 내부 문화는 대부분 보수적인 편이다. 그러다보니 개발 환경도 자유롭지 못하다. 금융권 AI 전문인력도 부족한 상황이다. 그러다보니 금융권의 AI 혁신은 여러 장벽에 막혀있다는 것이 은행들의 공통적인 지적이었다. 설문에 참여한 E은행은 "은행 등 금융권의 경우 기술 혹은 AI 중심 산업은 아니기 때문에 외부의 고급 인력을 채용하기는 더 어렵다"며 "금융업무 지식을 갖추고 AI까지 이해하는 전문 인력은 매우 부족한 게 현실"이라고 응답했다. F은행은 "AI 인재가 역량을 발휘할 수 있도록, 데이터 접근성과 실험 환경을 유연하게 개선하고, 의사결정 구조와 조직 문화를 일부 개방적 방향으로 전환할 필요가 있다"고 언급했다. 이밖에 AI에 쓸 수 있는 외부 데이터도 적다는 점도 문제로 제기됐다. G은행에서는 "생성형 AI의 경우 가명정보만 활용할 수 있기 때문에 서비스의 다양성 측면이 제약된다"고 지적했다. H은행은 "현재는 가명정보만 활용이 가능하지만, 향후 고객의 실데이터까지 활용할 수 있다면 AI의 활용 범위는 더욱 넓어질 것"이라고 진단했다. 금융사 태생적 한계 지적도… 규제가 획기적으로 풀리더라도 금융권 내부적으로 AI 활용 수준을 결정하는데 신중할 수 밖에 없다는 입장이다. A은행은 "생성형 AI의 할루시네이션(허위정보 생성) 현상이 금융업의 근간인 정확성과 신뢰성을 해칠 위험도 있다고 보고 있어 혁신을 추구하면서도 조심스럽게 접근하고 있다"고 설명했다. B은행 역시 "고객의 자산과 직결되는 금융 서비스에 AI를 도입할 때는 정확성이 무엇보다 중요하다"며 "규제 완화도 중요하지만, AI의 신뢰성을 담보할 수 있는 장치도 함께 고민해야 한다"고 말했다. 외부적으로는 금융권의 기술 개발이 부족하며, 이를 해결하기 위해 금융권과 정부가 함께 AI 활성화에 대해 머리를 맞대야 한다는 의견도 제시됐다. 경희대 이경전 교수는 "은행이 AI를 잘 쓰게 하려면 두 가지 접근이 필요하다"며 "금융권의 이득을 보호하는 법(금산분리 등) 때문에 쉽게 장사를 해 기술 개발 노력을 안하는 측면이 있다. 이 때문에 금융산업 자체 경쟁을 높이기 위해 해야 한다"고 꼬집었다. 또 이 교수는 "AI를 이용한 자금세탁방지 등은 망 분리 규제와 같은 기술적인 것과 연관이 없는데 정부도 강하게 말하지 않고, 금융산업도 안하려고 한다"며 "은행장 혹은 은행 본점 관점에서의 보여주기식 AI를 만들기보다 정부와 은행이 머리를 맞대 필요한 금융AI 서비스를 내놔야 한다"고 강조했다. "CEO가 AI제대로 알아야 전략세울 수 있어" [전문가 인터뷰] 하태경 보험연수원장 Q. 우리나라 금융산업과 AI 활용을 평가해보자면. "우리나라 금융산업은 한마디로 이야기하면 '후진국'이다. 은행의 비즈니스 범위가 너무 통제됐다. 정부는 금융업의 재무건전성을 강화하되, 상품에 대해서는 재량권을 많이 줘야 한다고 본다. AI는 아주 빠른 속도로 지금 대세가 돼 가지고 이제 누구나 다 도입하고 적용해야 된다는 데 이견이 없다. 할루시네이션 같은 AI 오류가 있으면 안되기 때문에 금융영역에서는 도입에 신중할 수 밖에 없다는 점도 있다. 현재 대출 심사나 보험금 지급, 손해사정 등에서 AI 도입이 많이 진행되고 있다. 부분 부분 진척이 되곤 있지만 제일 중요한 것은 새로운 사업을 확장할 때 이걸 해야 하나 말아야 하나 등의 최고경영자(CEO) 판단을 도와주는 AI 도입이라고 본다." Q. CEO가 가장 많이 AI를 활용해야 한단 의미인가. "금융권뿐만 아니라 전 산업에서 AI 전환을 빠르게 하려면 CEO가 AI가 뭔지 정확하게 알아야 한다. 또, 당연한 말이지만 가장 정교하게 정확하게 미래를 잘 반영해 의사결정을 하려면 CEO가 AI의 도움을 먼저 받아야 한다. 즉, 기업들이 정말 필요한 AI가 무엇인지 결정해야 한다는 것이다. 지금은 '챗GPT가 나왔으니까 이거 한번 써보자' 이런 식인데, 써보면 업무에 조금 도움은 되겠지만 아주 결정적으로 도움이 되지 않는다. 어떤 AI를 쓸지는 우리 회사에서 가장 필요한 게 뭔지 찾아내서 거기에 맞춤형 AI를 만드는 그런 방식으로 AI를 접근해야 한다. 아직까지도 대부분 AI를 잘 모르니까 시류나 트렌드 따라서 쓰는 정도다." Q. 금융권의 AI 활성화를 위해 어떤 노력이 있어야 하나. "AI가 사람을 다 대체한다는 선입견이 있는데 일부 맞다. 그러나 AI의 핵심적인 부분에선 사람하고 협업을 해야 한다. AI를 어떻게 쓸 건지 결정은 사람이 하는 거고 이걸 적용하는 과정에서 사람이 계속 개입을 해야 된다. AI를 잘 쓰는 거는 결국 사람의 역량에 달린 것이다. 그 사람이 AI를 잘 이해해야 잘 쓰는 거고 근데 대한민국 금융권 리더십이 아직은 AI를 잘 쓰는 데 대한 이해도가 좀 낮다. 사람의 리더십이 훌륭해야 더 좋은 AI를 만들 수 있고 쓸 수 있다." ■ 하태경 원장은 하태경 원장은 제19대 보험연수원장으로, AI를 통한 미래 경쟁력 확보를 연수원 비전으로 삼고 다양한 교육 프로그램을 운영 중이다. 1968년생으로 서울대학교 물리학과를 졸업했다. SK텔레콤 경영경제연구소 수석연구원, 미국 미시간주립대학교 객원연구원 등의 경력을 거쳐 제 19·20·21대 국회의원을 역임했다.

2025.05.23 14:32손희연

카카오, 자체 개발 '카나나' 언어모델 4종 오픈소스 공개

카카오가 자체 개발 AI 모델을 공개함, 인공지능 생태계 확장과 기술 접근성 강화를 위한 노력을 이어간다. 카카오(대표 정신아)는 23일 자체 개발 언어모델 '카나나(Kanana)' 라인업 가운데 8B와 2.1B 크기의 모델을 오픈소스로 허깅페이스에 공개했다. 아파치 2.0 라이선스를 적용해 누구나 자유로운 수정과 상업적 활용이 가능하다. 이번에 공개한 모델은 지난 2월말 공개한 버전에서 성능이 한층 향상된 것으로 ▲Kanana-1.5-8b-base ▲Kanana-1.5-8b-instruct ▲Kanana-1.5-2.1b-base ▲Kanana-1.5-2.1b-instruct의 총 4종이다. 기존 모델에서 업그레이드를 거친 카나나 1.5는 Agentic AI 구현을 위한 기능 강화에 중점을 뒀다. 글로벌 모델 대비 뛰어난 한국어 성능을 유지하며, 코딩과 수학 문제 해결, 함수 호출 능력에서 이전 대비 평균 1.5배의 성능 향상을 기록해 오픈소스SOTA(State-of-the-Art) 모델 수준의 유의미한 성능을 달성했다. 이 밖에 긴 문맥에 대한 이해와, 간결한 답변을 통해 향상된 사용성을 제공한다. 기존보다 더 긴 텍스트 입력에 대해 안정적인 처리가 가능하며, 정확도와 응답 길이를 최적화 한 답변을 통해 서비스 환경에서 사용자의 체감 성능을 향상시켰다. 카카오는 현재 더욱 향상된 버전의 카나나2를 개발 중이다. 더욱 긴 입력에 대한 처리, 보다 정교화된 추론, 구조적인 효율성 등 다수의 영역에서 진화된 모델 개발을 진행하고 있다. 이번 오픈소스 공개를 통해 카카오는 국내 거대언어모델(LLM) 생태계의 활성화를 위한 시도와 기여를 꾸준히 이어갈 계획이다. 특히 AI 연구자와 개발자는 물론 기업이 목적에 맞게 모델을 자유롭게 튜닝하고 활용할 수 있는 상업 라이선스를 적용, 기술 경쟁력을 확보함과 동시에 협력 기반의 AI 생태계를 구축해 나간다는 방침이다. 카카오 김병학 카나나 성과리더는 "이번 오픈소스 공개를 통해 AI 기술을 통한 성장과 경쟁을 함께하는 환경을 만들고, 이러한 생태계 내에서 기술을 발전시킬 수 있는 계기를 꾸준히 마련해가고자 한다"며 "인공지능 모델 성능의 고도화는 물론 오픈소스의 본질적인 가치를 함께 추구해 갈 것"이라고 말했다. 카카오는 지난해 자체 개발 AI 모델 카나나의 라인업을 공개했으며, 공식 테크 블로그를 통해 언어모델, 멀티모달 언어모델, 비주얼 생성모델 등의 성능과 개발기를 공개해왔다. 지난 2월에는 'Kanana Nano 2.1B' 모델을 오픈소스로 허깅페이스에 배포한 바 있으며, 언어모델 카나나의 연구 성과를 담은 테크니컬 리포트를 아카이브에 공개했다. 최근에는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 통합 멀티모달 언어모델 'Kanana-o'의 성능을 공개하기도 했다.

2025.05.23 13:35백봉삼

엘리스그룹-슈나이더일렉트릭, AI 데이터센터 구축 협력하기로

AI 교육 솔루션 기업 엘리스그룹(대표 김재원)은 에너지 관리 및 자동화 분야 글로벌 기업 슈나이더 일렉트릭과 AI 데이터센터 구축에 상호 협력하기 위한 업무 협약을 체결했다고 23일 밝혔다. 지난 22일 서울 강서구 슈나이더 일렉트릭 코리아 마곡 오피스에서 열린 협약식에는 엘리스그룹 김수인 CRO(최고연구책임자)와 박용준 사업총괄, 슈나이더 일렉트릭 코리아의 권지웅 대표, 시큐어파워 사업부 최성환 본부장, 슈나이더 일렉트릭 글로벌 시큐어파워 사업부 부사장 니루파 찬더가 참여했다. 양사는 이번 협약으로 AI 데이터센터 구축 영역에서 상호 협력을 추진한다. 엘리스그룹은 향후 엘리스 AI PMDC(Portable Modular Data Center)를 비롯한 AI 데이터센터 구축 분야에서 슈나이더 일렉트릭의 솔루션을 활용해 시너지 극대화에 나선다. 또 슈나이더 일렉트릭이 추진하는 한국, 아태 지역 AI 데이터센터 프로젝트에 공동 참여하는 방안을 함께 모색, 글로벌 시장으로 엘리스 AI 인프라 서비스를 확장해 나갈 계획이다. 엘리스그룹은 엘리스클라우드 솔루션 및 AI 인프라 영역 전반의 기술을 고도화 중이며, 자체 기술로 최신 고성능 GPU인 B200, B300을 탑재한 친환경적 수냉식 AI PMDC를 설계, 구축할 수 있다. 모듈 단위로 빠른 증설과 확장이 가능하기 때문에 올해 안에 B200, B300으로 구성된 AI 데이터센터를 구축하고 싶은 국내외 기업 및 기관에게 올해 내 유일하게 서비스를 제공할 수 있다. 권지웅 슈나이더 일렉트릭 코리아 대표는 "데이터센터는 AI 시대의 핵심 기반 인프라로, 높은 에너지 효율성과 지속 가능성이 무엇보다 중요하다"며 "이번 협약을 통해 슈나이더 일렉트릭의 글로벌 역량과 기술력을 바탕으로 엘리스그룹과 함께 국내외 AI 데이터센터 시장의 새로운 가능성을 열어가겠다"고 말했다. 김재원 엘리스그룹 대표는 "엘리스그룹은 혁신적인 AI 모듈러 데이터센터 모델을 자력으로 개발 및 운영해 AI 도입이 빠르게 필요한 기업, 기관에게 3개월 내 안정적인 AI 인프라 구축을 지원하고 있다"면서 "슈나이더 일렉트릭과의 협력으로 엘리스 AI PMDC의 글로벌 경쟁력을 강화하고, 해외 각국의 AI 인프라를 원하는 기업, 기관들과 시너지를 창출할 수 있도록 할 것"이라고 밝혔다.

2025.05.23 09:07백봉삼

맥선, 컴퓨텍스 2025에서 혁신적 Intel Arc Pro B60 Dual 48G Turbo 그래픽 카드 공개

타이베이 2025년 5월 22일 /PRNewswire=연합뉴스/ -- 중국의 하드웨어 전문업체 맥선(MAXSUN)이 컴퓨텍스 2025(COMPUTEX 2025)에서 최신 혁신 제품인 MAXSUN Intel Arc Pro B60 Dual 48G Turbo 그래픽 카드를 공개했다. 이 제품은 듀얼 GPU 아키텍처, 48GB의 GDDR6 메모리, 듀얼 하드웨어 미디어 엔진을 탑재해 고난도 인공지능(AI) 추론 및 비디오 처리 작업에 최적화된 강력한 성능을 자랑한다. 또한 고속 데이터 처리, 가속화된 AI 기능, 효율적인 비디오 인코딩/디코딩을 지원하는 데 탁월한 성능을 발휘한다. 고부하 작업 처리를 위해 고성능 하드웨어가 필요한 전문가들에게 혁신적인 변화를 가져다줄 제품이다. MAXSUN at COMPUTEX2025 맥선은 이 혁신적 그래픽 카드 출시를 통해 AI 시대에 최적화된 고효율•저비용 컴퓨팅 솔루션을 개발자, AI 애호가, 기업 사용자에게 제공함으로써 고부가가치 AI 및 워크스테이션 하드웨어를 지속적으로 제공하겠다는 의지를 더욱 강화하고 있다. MAXSUN Intel Arc B580 및 B60 시리즈 그래픽 카드 맥선은 컴퓨텍스 2025에서 MAXSUN Intel Arc Pro B60 Dual 48G Turbo 외에도 Intel Arc B580 시리즈 그래픽 카드를 전시 중이다. 이 카드는 고주파 출력과 첨단 냉각 솔루션을 제공해 게이밍과 전문 응용 프로그램 모두에 이상적이다. 고부하 작업 환경 속에서도 안정적이고 강력한 성능을 발휘하도록 설계됐다. 고성능 메인보드: MS-iCraft Z890 시리즈 맥선은 Z890 Vertex와 Z890 Pacific 등 MS-iCraft Z890 시리즈 메인보드도 선보이고 있다. 이 고성능 메인보드는 게이밍과 고사양 시스템 구축 용으로 설계되었으며, 최신 부품을 지원하고 강력한 안정성을 자랑한다. MAXSUN iCraft B860m Cross Pro 메인보드는 애니메이션 스타일 디자인과 안정적인 성능으로 참석자들의 관심을 끌고 있다. 워크스테이션 솔루션: MS-WorkStation W790와 MS-Q670M vPro 맥선은 전문 응용 프로그램을 위한 MS-WorkStation W790 112L 메인보드도 전시 중이다. 고성능 워크스테이션용으로 설계된 이 제품은 비디오 편집, 3D 렌더링, 과학적 계산 등 다양한 작업에 적합하다. 또한 MS-Q670M vPro 메인보드는 기업 환경에 맞춰 설계되어 비즈니스 용도에 적합한 신뢰성과 보안성을 제공한다. 특수 게이밍 제품: MS-Terminator B850M PRO WIFI MS-Terminator B850M PRO WIFI 메인보드는 전투 장갑에서 영감을 받은 디자인이 돋보이는 제품이다. 전체 금속 구조는 냉각 성능을 향상시켜 스타일과 내구성을 모두 중시하는 게이머들에게 이상적인 선택이다. 컴퓨텍스 2025 에서 맥선을 방문하세요!맥선은 5월 20일부터 23일까지 열리는 컴퓨텍스 2025, 1번 홀, 4층 L1118 부스에서 자사의 제품을 선보인다. 방문객들은 다양한 데모를 통해 실제 제품을 직접 체험해 보며 맥선의 최첨단 제품에 대해 더 자세한 정보를 얻을 수 있다. 연락처:Marketing@maxsun.com

2025.05.22 17:10글로벌뉴스

와이브레인, 불면증 디지털치료제 '솜즈' 유통 협약체결

와이브레인은 불면증 디지털치료제 '솜즈'의 공동 유통을 위한 4자 업무협약을 체결했다고 22일 밝혔다. 이번 협약에는 와이브레인, 세라젬클리니컬, 에임메드 및 에임넥스트 총 4개사가 참여했으며, ▲불면증 치료 ▲웰니스 증진 ▲가임력 향상 ▲시니어 및 홈케어 등 다양한 디지털 헬스케어 분야에서 공동사업 기회를 발굴하고 상호 협력 확대가 목적이다. 와이브레인은 이번 협약을 통해 에임넥스트의 디지털치료기기 솜즈의 멘탈헬스 시장 확대를 위한 전략적 유통 파트너십도 체결, 정신건강의학과 및 신경과를 대상으로 솜즈의 유통 및 판매를 본격 추진할 계획이다. 이와 함께 수면 웰니스 솔루션 및 프로그램 공동 연구 개발에도 협력할 예정이다. 세라젬클리니컬은 자사의 침대형 의료기기 플랫폼을 기반으로, 에임넥스트와 함께 수면 및 가임력 개선을 위한 B2C형 웰니스 제품 공동 사업을 추진한다. 이기원 와이브레인 대표는 “마인드 디지털 수면일기와 같은 체계화된 진단 솔루션을 통해 불면증을 진단받은 환자들의 실질적인 치료에 있어 인지행동 치료의 중요성은 전문가들 사이에서 매우 강조되고 있다”라며 “병원 내 진단부터 치료까지 연계할 수 있는 인프라를 통해 불면증 환자의 실질적인 회복을 지원할 수 있을 것으로 기대해 이번 협력을 추진하게 됐다”고 밝혔다. 와이브레인은 이번 달 불면증 진단 솔루션인 '마인드 디지털 수면일기'를 출시한 데 이어, 솜즈의 유통 협약을 통해 슬립테크 분야 사업을 한층 강화하고 있다.

2025.05.22 16:12조민규

미스트랄AI, 경량 코딩 모델 '데브스트랄' 공개

프랑스의 대표 인공지능(AI) 기업 미스트랄AI가 코딩에 초점을 맞춘 새로운 AI 모델을 공개해 주목받고 있다. 22일 테크크런치 등 외신에 따르면 미스트랄AI는 AI 기업 올 핸즈 AI와 협력해 상업적으로 이용 가능한 코딩 특화 AI인 '데브스트랄(Devstral)'을 개발했다. 데브스트랄은 240억 개의 매개변수를 갖춰 다른 상용 AI 모델 대비 비교적 규모가 작은 편이다. 그럼에도 미스트랄AI는 데브스트랄이 코딩 기술을 측정하는 벤치마크에서 구글의 '젬마3 27B'와 중국 딥시크의 'V3' 등 다른 공개 모델보다 우수한 성능을 보였다고 주장했다. 미스트랄AI는 "데브스트랄은 코드베이스 탐색, 파일 편집, 소프트웨어(SW) 엔지니어링 에이전트 구동을 위한 도구 활용에 우수하다"며 "데브스트랄은 단일 엔비디아 RTX 4090 또는 32GB 램(RAM)이 장착된 맥(Mac)에서도 실행할 수 있을 만큼 가벼워 로컬 배포 및 기기 내 사용에 이상적"이라고 설명했다. 앞서 미스트랄AI는 코드 생성 모델인 '코드스트랄(Codestral)'을 출시하며 보조 프로그래밍 분야에 진출한 바 있다. 다만 코드스트랄은 개발자가 상용 애플리케이션에서 이 모델을 사용할 수 있도록 허용하는 라이선스로 출시되지 않아 사용에 제약이 있었다. 이에 새로운 대중적인 AI 코딩 어시스턴트인 데브스트랄을 출시해 애플리케이션 프로그래밍 작업 최적화를 지원한다는 전략이다. 데브스트랄은 현재 허깅 페이스를 비롯한 AI 개발 플랫폼에서 다운로드할 수 있으며 미스트랄AI의 API를 통해서도 이용할 수 있다. 가격은 입력 토큰 100만 개당 0.1달러, 출력 토큰 100만 개당 0.3달러다. 미스트랄AI는 "향후 몇 주 안에 출시될 더 큰 에이전트 코딩 모델을 구축하는 데 박차를 가하고 있다"고 밝혔다.

2025.05.22 14:03한정호

삼성전자, 평택 이어 화성서도 '1c D램' 투자 준비…HBM4 양산 채비

삼성전자가 평택에 이어 화성 팹에도 1c D램(6세대 10나노급 D램)의 양산 라인 구축 계획을 세운 것으로 파악됐다. 이르면 올 연말께 투자가 진행될 예정으로, 수율 향상에 대한 내부 자신감이 반영된 행보로 풀이된다. 1c D램은 삼성전자 'HBM4(6세대 고대역폭메모리)'에 적용될 핵심 제품이기도 하다. 그간 삼성전자가 최신형 HBM 상용화에서 난항을 겪어 온 만큼 적극적인 양산 의지를 보이고 있다는 평가가 나온다. 22일 업계에 따르면 삼성전자는 올 하반기 화성·평택 지역에서 1c D램 생산능력을 추가하기 위한 투자에 나설 계획이다. 앞서 삼성전자는 올해 초부터 평택 제4캠퍼스(P4)에 1c D램 양산 라인을 처음으로 구축하기 시작했다. 당시 투자 규모는 월 3만장으로 비교적 적은 수준이다. 삼성전자는 우선 1c D램의 초도 양산을 준비하고, 향후 제품의 개발 진척도에 따라 투자를 확대하겠다는 전략을 추진해 왔다. 이후 삼성전자는 올 하반기 P4에 1c D램 생산능력을 확대하기 위한 추가 투자를 논의하고 있다. 규모는 최소 월 4만장에 이를 것으로 관측된다. 나아가 화성 17라인에서도 이르면 올 연말께 1c D램에 대한 전환 투자가 이뤄질 예정이다. 현재 내부 계획을 수립하고 협력사들과 구체적인 논의를 진행 중인 것으로 파악됐다. 삼성전자 화성 17라인은 1z(10나노급 3세대) D램 등을 주력으로 제조해 온 라인이다. 해당 D램은 레거시 공정에 속해, 생산 비중이 빠르게 줄어들고 있다. 삼성전자는 이미 인근에 위치한 화성 15·16 라인에서도 1b D램 전환 투자를 진행한 바 있다. 삼성전자가 화성·평택 팹 전반에서 1c D램 투자 계획을 구체화한 배경에는 수율 향상에 대한 자신감이 반영된 것으로 풀이된다. 반도체 업계 관계자는 "삼성전자 내부에서 1c D램의 수율 개선 현황을 긍정적으로 인식하고 있다. 오는 3분기에는 재설계 제품에 대한 PRA(내부 양산 준비 승인)을 받는 것이 목표"라며 "PRA 이후에도 실제 양산을 위해 해결해야 할 과제들은 여전히 많지만, 설비투자 계획은 견조하게 진행 중"이라고 설명했다. 1c D램은 삼성전자가 이르면 올 연말 양산할 예정인 가장 최신 세대의 D램이다. 해당 D램이 삼성전자에게 있어 중요한 이유는 HBM 주도권 때문이다. SK하이닉스·마이크론 등 주요 경쟁사가 HBM4에 1b D램을 채택한 것과 달리, 삼성전자는 HBM4에 1c D램을 적용하기로 했다. 이를 통해 삼성전자는 HBM 성능의 핵심 요소인 코어 다이(Core Die)의 성능을 대폭 끌어올릴 가능성이 높다. 반면 높은 기술적 난이도로 제품의 수율이 저하된다는 한계점도 동시에 지닌다. 판세를 바꿀 수 있는 과감한 도전이기 때문에 삼성전자는 1c D램의 칩 사이즈를 초안 대비 키우는 방식으로 안정성을 보완하고 있다.

2025.05.22 14:00장경윤

'2025 플레이엑스포' 개막…스마일게이트·네오위즈 참가

수도권 최대 규모 융복합 게임쇼 '2025 플레이엑스포'가 22일 일산 킨텍스에서 개막했다. 이번 행사는 25일까지 나흘간 열린다. 경기도가 주최하고 경기콘텐츠진흥원과 킨텍스가 주관하며, 문화체육관광부와 한국콘텐츠진흥원이 후원하는 플레이엑스포는 B2C 관람객과 비즈니스 바이어를 함께 맞이하고 있다. 이번 행사는 '게임, 그 이상'을 주제로, 온 가족이 함께 즐기며 창의적인 경험을 공유하는 소통의 장으로 마련됐다. 김동연 경기도지사는 개막식 환영사에서 “제가 살아오며 좋아했던 만화, 소설, 스포츠, 영화에는 공통적으로 상상력과 스토리텔링이 있었고, 게임은 여기에 체험이라는 요소까지 더해진 최고의 콘텐츠”라며 “게임은 단순한 오락을 넘어 대한민국의 미래 먹거리이자 산업이자 문화 자산”이라고 강조했다. 이어 “경기도는 콘텐츠진흥원을 중심으로 게임 산업의 중심지로 성장해왔으며, 앞으로도 게임 기업과 종사자들이 역량을 펼칠 수 있도록 적극 지원하겠다”고 말했다. 플레이엑스포는 게임산업의 최신 트렌드를 공유하고, 국내외 기업과 소비자 간 교류를 확대하는 자리다. 참관객이 직접 체험할 수 있는 다양한 프로그램을 통해 게임의 가치와 가능성을 널리 알리는 데 초점을 맞춘다. 주요 프로그램으로는 대원미디어 신작 발표, 인디게임 쇼케이스, 스팀덱 시연 라운지, 레트로장터 등이 진행된다. 스마일게이트스토브를 비롯해 네오위즈, 님블뉴런, 컴투스홀딩스 등이 참가한다. 해외 게임사로는 6년 만에 복귀한 슈퍼셀(브롤스타즈, 클래시 오브 클랜 등)을 비롯해 블리자드 엔터테인먼트(오버워치2), 반다이남코(엘든링: 밤의 통치자), 나이언틱(몬스터헌터나우) 등이 참여한다. e스포츠 페스티벌 무대에서는 장애인 e스포츠대회, 전국 캠퍼스 대항전, 국산 종목 발굴 이벤트 매치, 가족대항전 등 다양한 경기가 펼쳐진다. 특히 가족대항전은 사전 신청은 물론 현장 접수도 가능해 관람객 참여를 높일 전망이다. 23일부터 24일까지는 문화체육관광부가 주최하는 '2025 e스포츠 지역 리그'의 정식 종목 중 하나인 이터널 리턴 리그 개막전도 열린다. 해외 진출을 준비 중인 중소·인디 게임사를 위한 비즈매칭 프로그램도 확대됐다. 올해부터는 참가 기업에 소정의 참가비를 부과하는 대신, 온·오프라인 사업자 연계 지원, 심층 사용자 테스트(FGT), 데모데이, 게임 전문 투자사와의 상담 등 실질적 기회를 제공한다. 개발사는 주말 전시회 기간 동안 게임 시연과 홍보부스를 운영해 현장 홍보 효과를 극대화할 수 있다. 올해 행사는 접근성과 편의성도 강화됐다. GTX-A 노선 개통으로 수도권 주요 지역에서 킨텍스까지의 이동 시간이 단축됐으며, 주최 측은 원활한 행사 진행을 위해 2홀을 추가 임대해 실내 입장 대기 구역을 마련했다. 또한 휴게시설을 확충하고, 푸드트럭 라운지를 130부스 규모로 대폭 확대해 관람객 편의를 높였다.

2025.05.22 11:45강한결

TSMC, 3나노 양산 5개 분기만에 '풀가동'…"2나노는 더 빨라"

대만 주요 파운드리 TSMC가 AI 반도체 수요 확대에 힘입어 최선단 공정 비중을 크게 늘리고 있다. 특히 3나노 공정은 양산 개시 시점부터 5개 분기만인 지난해 하반기 '풀가동' 체제를 기록한 것으로 나타났다. 나아가 2나노 공정의 가동률은 이보다 더 빠르게 올라올 전망이다. 21일 카운터포인트리서치(이하 '카운터포인트')에 따르면 TSMC의 3나노미터(nm) 공정은 양산 이후 5분기 만에 처음으로 가동률 100%에 도달했다. 이는 애플의 A17 프로 및 A18 프로를 비롯해 x86 PC용 CPU와 기타 애플리케이션 프로세서(AP SoC)의 수요가 급증한 덕분이다. 향후에도 엔비디아의 루빈 GPU 및 구글의 TPU v7, AWS의 트레이니엄3 등 AI 반도체 도입이 본격화되면서 높은 가동률이 유지될 것으로 전망된다. 반면 구형 공정인 7·6나노 및 5·4나노는 주로 스마트폰 시장에 초점을 맞추면서 생산 확대가 상대적으로 더디게 진행됐다. 7·6나노 공정 가동률은 2020년 스마트폰 수요 급증으로 정점을 찍었고, 5·4나노 공정은 2023년 중반부터 모멘텀이 반등하며 점진적 회복세를 보였다. 이러한 회복세는 주로 엔비디아의 H100, B100, B200, GB200 등 AI 가속기에 대한 수요 급증에 기인하며, 이는 AI 데이터 센터 확장에 기여하면서 5/4나노 공정의 전체 가동률을 다시 끌어올렸다. TSMC의 2나노 공정은 양산 이후 4분기 만에 완전 가동률에 도달할 것으로 전망된다. 이는 역대 어떤 공정보다 빠른 속도로, 스마트폰과 AI 관련 수요가 동시에 강하게 작용한 결과로 풀이된다. TSMC 역시 2025년 1분기 실적 발표에서 “2나노 기술 양산 초기 2년 동안의 새로운 설계는 3나노 및 5/4나노보다 많을 것으로 예상되며, 스마트폰과 고성능 컴퓨팅(HPC) 애플리케이션이 수요를 견인할 것이다”고 밝힌 바 있다. 애플 외에도 퀄컴, 미디어텍, 인텔, AMD 등 주요 반도체 업체들이 2나노 기술 도입을 검토 중인 것으로 알려졌다. 이러한 기업들의 2나노 기술 채택은 2나노 공정의 높은 가동률을 유지하는데 기여할 것으로 전망된다. TSMC는 지정학적 위험을 완화하고, 미국 소비자 수요 증가에 발맞추기 위해 애리조나 공장에 최대 1천650억 달러를 투자하고 있다. 해당 공장은 4나노, 3나노는 물론, 향후 2나노 및 그 이후의 첨단 공정까지 생산할 계획이며, 장기적으로는 전체 2나노 생산능력의 약 30%가 미국에서 충당될 수 있을 것으로 보인다. TSMC는 핵심 연구개발과 공정 설계는 대만에 유지하면서도, 미국 내 생산 확장으로 2나노 공정 및 이후 공정 생산 능력의 최대 30%를 미국에서 생산했다. 이러한 이원화 전략은 TSMC의 지정학적 리스크를 낮춰주는 한편, 고객 요구에 맞춘 생산 능력을 제공할 것으로 보인다.

2025.05.21 17:31장경윤

슈퍼마이크로, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU에 최적화된 20개 이상의 시스템 주문 접수 시작...엔터프라이즈 AI 팩토리 구축 가속화

엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 슈퍼마이크로 서버 제품군에 엔비디아 인증 시스템 포함 슈퍼마이크로, RTX PRO 서버와 엔비디아 HGX B200 시스템을 기반으로 한 새로운 엔비디아 엔터프라이즈 AI 팩토리 검증 설계 개발 협업 진행 엔비디아 MGX 참조 설계에 기반한 슈퍼마이크로의 새로운 4-GPU UP 시스템을 통해 엔비디아 RTX PRO 서버를 에지 환경에 더 가깝게 가져와 더 강력한 AI 추론 성능 제공 타이베이 , 2025년 5월 21일 /PRNewswire/ -- AI/ML, HPC, 클라우드, 스토리지, 5G/에지 분야를 아우르는 토털 IT 솔루션 제공업체인 슈퍼마이크로(Supermicro, NASDAQ: SMCI)가 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 탑재한 엔터프라이즈 AI 시스템의 주문 접수를 시작한다고 발표했다. 슈퍼마이크로의 최적화된 서버 포트폴리오는 AI 및 비주얼 컴퓨팅을 거의 모든 산업이나 환경에 배포할 수 있도록 지원한다. 슈퍼마이크로의 RTX PRO블랙웰GPU를 탑재한 20개 이상의 시스템으로 구성된 제품군은 엔터프라이즈 AI 팩토리 워크로드에 대한 성능을 크게 향상시킬 것으로 기대된다. 여기에는 AI 추론, AI 개발 및 모델 미세 조정, 생성형 AI, AI 기반 그래픽 및 렌더링, 비디오 콘텐츠 및 스트리밍, 게임 개발이 포함된다. RTX PRO 6000 블랙웰 GPU를 탑재한 슈퍼마이크로의 엔비디아 인증 시스템은 엔비디아 E엔터프라이즈 AI 팩토리 검증 설계의 기본 요소로 사용되고 엔비디아 스펙트럼-X 네트워킹, 엔비디아 인증 스토리지, 엔비디아 AI 엔터프라이즈 소프트웨어와 통합되어 풀 스택 솔루션을 제공하고 온프레미스 AI 배포를 가속화할 것이다. 찰스 리앙(Charles Liang) 슈퍼마이크로 회장 겸 CEO는 "슈퍼마이크로는 엔터프라이즈 AI 인프라 개발을 선도하며 다양한 산업 분야에서 AI 도입을 더욱 대규모로 확대하는 데 기여하고 있다"면서 "슈퍼마이크로의 데이터센터 빌딩 블록 솔루션®은 블랙웰 아키텍처 기반 엔비디아 엔터프라이즈 AI 팩토리 검증 설계의 협업에 이상적인 플랫폼"이라고 말했다. 이어 "우리는 기업들이 자체 엔터프라이즈 AI 팩토리를 구축해 AI 채택을 가속화하고, AI 추론, AI 개발, 시뮬레이션 및 그래픽 워크로드를 가속화해 수익 창출 시간을 단축하도록 지원할 것"이라고 덧붙였다. 자세한 내용은 https://www.supermicro.com/pcie-gpu에서 확인할 수 있다. 지원되는 슈퍼마이크로 아키텍처에는 5U 및 4U, 엔비디아 MGX, 에지 GPU 최적화 시스템, 슈퍼블레이드® 및그랜드트윈® 멀티 노드, 1U 및 2U 랙마운트, 멀티 프로세서 시스템, 워크스테이션이 포함된다. 현재 슈퍼마이크로는 엔비디아 PCIe GPU를 지원하는 가속 컴퓨팅 서버 100종 이상을 제공하며, 여기에는 RTX PRO 6000 블랙웰, 엔비디아 H200 NVL, H100 NVL, L40S 및 L4 GPU가 포함된다. 이 다양한 시스템 라인업은 특정 워크로드 및 배포 환경 요구사항에 따라 쉽게 맞춤화될 수 있다. 여기에는 엔비디아 인증 시스템이 포함되어 엔비디아 Spectrum-X 네트워킹, 엔비디아 블루필드-3 DPU, 엔비디아 AI 엔터프라이즈 소프트웨어와의 호환성과 지원을 보장하고 프러덕션 AI의 개발 및 배포 과정을 간소화한다. 크리스 매리어트(Chris Marriott) 엔비디아 엔터프라이즈 플랫폼 부사장은 "AI 팩토리는 기업이 더 스마트하게 데이터에 기반한 결정을 내리고 시장 변화에 신속히 적응하도록 돕는다"라며 "슈퍼마이크로의 다양한 엔비디아 블랙웰 시스템 포트폴리오는 거의 모든 비즈니스 부문에서 혁신을 주도하는 AI 워크로드를 효율적으로 지원할 수 있는 적응형 인프라를 기업에 제공한다"고 말했다. Supermicro Systems for Enterprise AI Factories with NVIDIA RTX Pro 6000 Blackwell Server Edition AI 추론에 대한 수요가 요청의 원천과 점점 더 가까워짐에 따라 MGX 참조 설계를 기반으로 한 슈퍼마이크로의 새로운 단일 소켓 GPU 최적화 아키텍처는 RTX PRO 6000 블랙웰 GPU의 추론 기능을 에지에 더 가깝게 가져온다. 슈퍼마이크로의 첫 번째 MGX 기반 시스템으로 단일 소켓 아키텍처를 채택한 새로운 SYS-212GB-NR은 최대 4개의 최신 세대 GPU를 결합하고 균형 잡힌 컴퓨팅 성능을 구현해 고성능이면서 동시에 비용 효율적인 에지 AI 솔루션을 제공한다. 이 시스템은 전력, 열, 비용 문제로 기존 GPU 시스템 아키텍처의 효율성이 제한될 수 있는 분산된 위치에 고밀도 GPU 리소스를 배포하려는 기업의 요구사항을 충족하도록 설계됐다. 엔비디아 RTX PRO 6000 블랙웰 GPU를 도입함으로써 기업은 고급 AI 에지 추론, 비즈니스 인텔리전스• 분석, 산업 자동화, 소매 애플리케이션을 지원하기 위해 필요한 서버 수를 줄이고 에지에서의 AI 배포 비용을 추가로 절감할 수 있다. 슈퍼마이크로는 엔터프라이즈 AI를 위한 다양한 가속 컴퓨팅 시스템을 제공하며, 고객은 엔비디아 RTX PRO 6000 블랙웰 GPU와 함께 다음과 같은 시스템 제품군을 주문할 수 있다. 슈퍼마이크로 5U PCIe 가속 컴퓨팅 시스템 – 단일 섀시에서 최대 10개의 GPU를 지원하도록 설계된 고도로 유연하고 열 효율적인 아키텍처(공냉식, 최대 8개의 RTX PRO 6000 블랙웰 GPU)다. 듀얼 소켓 CPU와 PCIe 5.0 확장을 통해 확장형 클러스터를 위한 고속 네트워킹을 지원한다. 주요 워크로드로는 AI 추론 및 미세 조정, 3D 렌더링, 시뮬레이션, 클라우드 게이밍 등이 있다. 슈퍼마이크로 MGX 시스템 – 엔비디아의 모듈형 참조 설계를 기반으로 한 GPU 최적화 시스템으로, 단일 또는 듀얼 소켓 구성으로 2U에 최대 4개, 4U에 최대 8개의 GPU를 지원하여 데이터 센터 및 에지 AI, HPC, 그래픽 워크로드에 적합하다. 슈퍼마이크로 3U 에지 최적화 PCIe 가속 컴퓨팅 시스템 – 에지 데이터 센터 배포를 위해 설계된 컴팩트한 폼 팩터로 시스템당 최대 8개의 이중 너비 또는 19개의 단일 너비 GPU를 지원한다. 주요 워크로드로는 전자설계자동화(EDA), 과학적 모델링, 에지 AI 추론 등이 있다. 슈퍼마이크로 슈퍼블레이드® 시스템 - 최대 랙 밀도를 위해 설계된 밀도 최적화 및 에너지 효율적인 다중 노드 아키텍처로, 랙당 최대 120개의 GPU를 지원한다. 랙마운트 워크스테이션 – 워크스테이션 성능과 유연성을 랙마운트 폼 팩터에 결합해 중앙 집중형 리소스 활용을 원하는 조직에 증가된 밀도와 보안을 제공한다. 슈퍼마이크로컴퓨터 소개 슈퍼마이크로 (Supermicro, NASDAQ: SMCI)는 애플리케이션 최적화 토털 IT 솔루션 분야의 글로벌 리더다. 미국 캘리포니아주 산호세에서 설립되고 운영 중인 슈퍼마이크로는 엔터프라이즈, 클라우드, AI, 5G 통신/에지 IT 인프라를 위한 혁신을 선도하고 있다. 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 아우르는 토털 IT 솔루션 제조업체다. 슈퍼마이크로는 메인보드, 전원, 섀시 설계 전문성을 기반으로 한 개발 및 생산을 통해 전 세계 고객이 클라우드에서 에지까지 차세대 혁신을 실현하도록 지원한다. 슈퍼마이크로의 제품은 미국, 대만, 네덜란드 등지에서 자체 설계•제조되며 글로벌 운영을 통해 규모와 효율성을 극대화하고 총소유비용을 개선하며 최적화를 통해 환경 영향(그린 컴퓨팅)을 줄인다. 수상 경력이 있는 슈퍼블레이드 빌딩 블록 솔루® 포트폴리오는 고객이 자사의 워크로드와 애플리케이션에 최적화된 선택을 할 수 있도록 유연하고 재사용 가능한 빌딩 블록으로 구성된 광범위한 시스템 제품군을 제공한다. 이 빌딩 블록은 포괄적인 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전원, 냉각 솔루션(공냉식, 프리쿨링 또는 수냉식)을 지원한다. 슈퍼마이크로(Supermicro), 서버 빌딩 블록 솔루션(Server Building Block Solutions), 친환경 IT 추구(We Keep IT Green)는 슈퍼마이크로컴퓨터의 상표 및/또는 등록상표이다. 기타 모든 브랜드, 이름 및 상표는 각 해당 소유자의 재산이다. 사진 - https://mma.prnasia.com/media2/2690487/RTX_Pro_6000.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600

2025.05.21 12:10글로벌뉴스

KCL, 印尼 산업부 시험기관과 공기청정기 상호 위탁시험 약정 체결

KCL(한국건설생활환경시험연구원·원장 천영길)은 서울 서초동 행정동에서 인도네시아 산업부 전자·기계 시험기관 B4T와 공기청정기 분야 상호 위탁시험 수행 약정을 체결했다고 20일 밝혔다. 약정의 주요 내용은 ▲양 기관 간 ISO/IEC 17025 공인시험기관 기반 상호 위탁시험 수행 ▲연 1회 이상의 국제 공동 숙련도 시험 개최 등이다. B4T는 오는 9월 인도네시아 최초로 공기청정기 시험소를 개소한다. 시험소가 구축되면 자국 기업은 물론 인도네시아로 수출하는 각국 제조사가 시험을 의뢰해 상황에 따라 성적서 발급까지 수개월이 소요될 것으로 예상된다. 국내 마스크 제조사는 이번 약정을 통해 KCL에서 시험을 진행할 수 있게 돼 2주 만에 성적서를 발급받게 됐다. 국내 기업의 언어 장벽 해소, 시험의뢰 시 해외 물류비용 감소, 시험 기간 단축 등의 효과가 있을 것으로 기대된다. KCL과 B4T는 이날 약정 체결과 함께 ▲공기청정기 위탁시험 및 비교숙련도 시험 협력 ▲ODA사업 상호 협력 등의 내용으로 업무협약을 체결했다. 천영길 KCL 원장은 “이번 협력은 국내 시장의 공급과잉으로 해외시장 판로 개척에 힘쓰고 있는 공기청정기 기업의 글로벌 경쟁력 강화에 도움이 될 것”이라며 “앞으로도 해외 기관과 지속적인 교류를 통해 우리 수출기업의 해외진출 교두보 역할을 충실히 수행하겠다”고 밝혔다.

2025.05.21 01:27주문정

2025년 미국 부(富) 보고서: 미국, 전 세계 부의 성장률 1위 — 그러나 부유층은 해외 기회에 주목

뉴욕 , 2025년 5월 20일 /PRNewswire/ -- 2025년의 불안정한 시작에도 불구하고, 미국은 여전히 세계 최고의 개인 자산 중심지로 남아 있다. 1백만 달러(USD) 이상의 투자 가능한 자산을 보유한 고액 순자산 보유자(HNWI)가 600만 명 이상 거주하고 있으며, 미국은 전 세계 유동 자산의 34%, 전 세계 백만장자 인구의 37%를 보유하고 있다. 이러한 부의 우위는 모든 자산 계층에서 나타나며, 전 세계 센티밀리어네어(1억 달러 이상 보유자)의 36%, 억만장자의 33%가 미국에 거주하고 있다. 이는 국제 자산 및 투자 이민 전문 컨설팅 기업인 헨리앤드파트너스(Henley & Partners)가 발간한 '2025년 미국 부(富) 보고서(USA Wealth Report 2025)'에 따른 분석이다. 미국은 여전히 전 세계 부의 이동이 가장 많이 이루어지는 국가 중 하나지만, 해외 거주권 및 시민권을 적극적으로 모색하는 미국 부유층도 점점 증가하고 있다. 2025년 현재 기준, 헨리앤드파트너스를 통해 접수된 투자 이민 신청의 30% 이상이 미국 시민권자였으며, 이는 터키, 인도, 영국을 포함한 상위 5개 투자자 국적을 합한 것보다 2배 많은 수치다. 바실 모어엘제키( Basil Mohr-Elzeki) 헨리앤드파트너스 북미 지역 매니징 파트너는 "미국 부유층들이 자산을 관리하고 다각화하는 방식에서 이전과는 다른 수준의 정교함을 보이고 있다"며 "대안적 거주지와 시민권을 추구하는 것은 현명한 리스크 관리 전략이다. 투자 이민은 전략적 '플랜 B'로서 회복탄력성을 높이고, 기회를 확장하며, 국경을 넘어 유산을 보호하는 수단이 될 수 있다"라고 말했다. 미국 부의 벤치마킹 지난 10년간 미국은 부의 창출에서 급성장했다. 2014년부터 2024년까지 중국의 백만장자 수는 78% 증가했으며, 이는 중국의 74% 증가율을 약간 앞섰고, 다른 국가들의 성장률을 훨씬 능가했다. 세계에서 거주 백만장자 수 기준 상위 10개 부국(W10) 가운데 1위를 차지한 미국은 현재 약 604만 1600명의 백만장자, 1만 800명의 센티밀리어네어, 850명 이상의 억만장자를 보유하고 있다. 중국은 약 82만 7900명의 백만장자, 2250명의 센티밀리어네어, 280명가량의 억만장자 그 뒤를 잇고 있지만, 빠른 성장에도 불구하고 개인 자산 규모에서는 상당한 차이를 보였다. 이와는 대조적으로, 다른 주요 W10 경제국들은 현저히 느린 성장세를 보였다. 지난 10년 동안 독일의 백만장자 인구는 10%, 일본은 5% 증가했고, 특히 영국은 -9% 감소하여 백만장자의 상당한 이탈과 경제 침체를 시사했다. 호주(+30%), 스위스(+28%), 캐나다(+26%), 이탈리아(+20%)는 더 나은 성과를 보였지만, 절대 백만장자 수와 부의 증가율에서 미국에 훨씬 뒤처졌다. 미국 최고 부유 도시 심층 분석 이 보고서는 미국의 전통적인 부의 중심지들이 여전히 우위를 유지하는 동시에, 새로운 도시들이 빠르게 부상하고 있음을 강조한다. 뉴욕시는 여전히 미국(및 전 세계)에서 가장 부유한 도시로, 384500명의 백만장자, 818명의 센티밀리어네어, 66명의 억만장자가 거주하고 있다. 그 뒤를 잇는 베이 에어리어는 342400명의 백만장자, 756명의 센티밀리어네어, 82명의 억만장자(미국 내 최고 수치)를 보유하고 있다. 지난 10년간 베이 에어리어의 백만장자 수는 98% 증가하며, 미국 내 '상위 10대 부유 도시' 중 가장 높은 부의 성장률을 기록했다. 스코츠데일은 백만장자 인구 기준으로 미국에서 가장 빠르게 성장하는 부의 중심지로 부상했으며, 주로 빠르게 확장하는 기술 부문에 힘입어 2014년과 2024년 사이에 125%의 놀라운 증가율을 보였다. 템플대학교 로스쿨의 피터 J. 스피로(Peter J. Spiro) 교수는 보고서에서 "도널드 트럼프(Donald Trump)의 두 번째 임기가 역사적인 예측 불가능성 속에서 전개됨에 따라, 더 많은 미국인이 냉혹한 현실에 직면하고 있다"며 "즉, 미국 시민권만으로는 더 이상 충분한 안전장치처럼 느껴지지 않는다는 것이다. 한때 사치로 여겨졌던 이중 국적은 새로운 '아메리칸드림'이 되고 있다. 불확실성이 증가하는 시대에 많은 이들이 '머물 권리'뿐만 아니라 '떠날 권리'도 찾고 있다"라고 말했다. 전체 보도자료 읽기

2025.05.20 22:10글로벌뉴스

슈퍼마이크로, 차세대 직접 수냉식 솔루션 DLC-2 공개…데이터센터 에너지 및 냉각수 절약, 소음 저감, 공간 활용 최적화 중점

데이터센터 에너지 사용량 최대 40%, TCO 최대 20% 절감 냉각수 소비량 최대 40% 절감하고, 약 50dB 수준의 저소음 데이터센터 구현 엔드투엔드 수냉식 솔루션으로 빠른 구축 및 신속한 가동 지원 캘리포니아주 산호세, 2025년 5월 20일 /PRNewswire/ -- AI/ML, HPC, 클라우드, 스토리지 및 5G/엣지를 위한 토탈 IT 솔루션의 글로벌 리더 슈퍼마이크로컴퓨터(Super Micro Computer, Inc.(SMCI), 이하 슈퍼마이크로)가 차세대 직접 수냉식(Direct Liquid Cooling, 이하 DLC) 솔루션인 DLC-2을 발표했다. Supermicro's Next-Generation Direct Liquid-Cooling Solutions (DLC-2) 이번에 공개된 DLC-2 솔루션은 다양한 서버 구성 요소의 냉각을 위한 신기술을 포함하며, 고온 냉각수 유입을 지원하며, 와트당 AI 성능을 향상시키는 혁신적 기계 설계를 도입했다. 이로 인해 공냉식 냉각 솔루션 대비 데이터센터 전력 소비를 최대 40%까지 줄이고, 최첨단 수냉 기술을 통해 AI 인프라의 빠른 구축과 신속한 가동을 지원한다. 모든 부품이 냉각판(콜드플레이트)으로 완벽하게 밀폐돼 팬 속도를 낮추고 팬 수를 줄일 수 있다. 그 결과 데이터센터 소음 수준도 약 50dB로 획기적으로 감소하며, 총소유비용(TCO)을 최대 20%까지 절감할 수 있다. 찰스 리앙 (Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "수냉식 데이터센터의 수요가 전체 시설에서 30%까지 증가할 것으로 예상되는 가운데, 기존 기술만으로 이러한 AI 최적화 시스템을 냉각하기에는 한계가 있다"며 "슈퍼마이크로는 데이터센터의 전력 및 냉각수 절약, 소음 저감, 공간 활용 최적화를 위한 혁신 기술을 통해 그린 컴퓨팅과 AI의 미래를 만드는 데 전념하고 있다. 슈퍼마이크로의 DLC-2 솔루션은 데이터센터 에너지 비용을 최대 40%까지 절감할 수 있다"고 밝혔다. 슈퍼마이크로는 DLC-2의 혁신 기술을 데이터센터 빌딩 블록 솔루션에 적용함으로써 데이터센터 비용을 최대 20% 절감하고, 수냉식 냉각 기술의 보급과 접근성을 강화하는 것을 목표로 한다. 이 수냉식 아키텍처의 핵심인 슈퍼마이크로의 GPU 최적화 서버는 4U 랙 높이에 엔비디아 블랙웰 GPU 8개와 인텔 제온 6세대 CPU 2개를 탑재했다. DLC-2는 고온 냉각수 유입을 지원할 수 있도록 설계됐으며, CPU, GPU, 메모리, PCIe 스위치, 전압 조절기(VRM) 등 다양한 부품에 콜드 플레이트를 적용해 고속 팬과 후면 도어 열교환기 사용을 최소화함으로써 데이터센터 냉각 비용을 줄인다. 새로운 DLC-2 솔루션 스택은 4U 전면 I/O 방식의 엔비디아 HGX B200 8-GPU 시스템을 지원하며, 랙 내 냉각수 분배 장치(CDU)를 탑재해 냉각 용량을 랙당 최대 250kW까지 향상시켰다. 수직 냉각수 분배 매니폴드(CDM)를 통해 랙 내 뜨거운 액체를 효과적으로 배출하고 서버에 차가운 액체를 재공급한다. 랙 내 설치되는 서버 수에 따라 다양한 크기로 제공되며, 랙 내 공간 효율성이 향상돼 더 많은 서버가 설치될 수 있고 면적 당 컴퓨팅 밀도도 높아졌다. 수직형 CDM은 슈퍼마이크로의 슈퍼클라우드 컴포저(SuperCloud Composer) 소프트웨어와 완전히 통합돼 데이터센터 단위의 관리 및 인프라 오케스트레이션을 지원한다. 효율적인 냉각수 순환과 최대 98%에 달하는 완벽에 가까운 수냉식 열 포집 역량 덕분에 유입 냉각수 온도를 최대 45℃까지 높일 수 있다. 이로 인해 냉각수와 냉각 컴프레서 장비가 더 이상 필요하지 않게 되며, 추가 전력 사용 없이 데이터센터의 냉각수 소비를 최대 40%까지 절감할 수 있다. DLC-2는 수냉식 서버 랙과 클러스터뿐 아니라 하이브리드 냉각탑과 급수탑까지 데이터센터용 빌딩 블록으로 제공한다. 하이브리드 냉각탑은 기존 건식 냉각탑에 습식 급수 냉각탑의 장점을 결합한 구조로, 특히 계절별 온도 변화가 큰 지역에 위치한 데이터센터의 리소스 및 운영 비용 절감에 효과적이다. 슈퍼마이크로는 글로벌 제조 규모를 갖춘 종합 원스톱 솔루션 제공업체로 , 데이터센터 규모의 솔루션 설계, 수냉식 기술, 네트워킹 및 케이블링, 데이터센터 수준의 소프트웨어 제품군부터, L11 및 L12 솔루션 검증, 현장 배포, 전문 서비스 및 지원까지 폭넓게 제공한다. 미국 산호세, 유럽, 아시아 전역에 제조 시설을 운영하고 있으며, 수냉식 랙 시스템에 대한 뛰어난 제조 역량을 보유하고 있다. 이러한 역량을 바탕으로 적시 납품, TCO 절감, 그리고 일관된 품질을 보장한다. 슈퍼마이크로 수냉식 냉각 솔루션에 대한 자세한 내용은 홈페이지 에서 확인 가능하다 . [슈퍼마이크로 소개] 슈퍼마이크로는 애플리케이션에 최적화된 토탈 IT 솔루션을 제공하는 글로벌 리더이다. 캘리포니아 산호세에 본사를 두고 있으며, 엔터프라이즈, 클라우드, AI, 5G 통신 및 엣지 IT 인프라를 위한 혁신을 시장에 가장 먼저 제공하기 위해 노력하고 있다. 슈퍼마이크로는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 제공하는 토탈 IT 솔루션 제조사다. 슈퍼마이크로의 마더보드, 전원 및 섀시 설계 전문성은 개발 및 생산을 강화해 전 세계 고객을 위해 클라우드부터 엣지까지 차세대 혁신을 지원한다. 미국과 아시아, 네덜란드에 위치한 글로벌 제조시설의 규모와 효율성을 기반으로 자체 설계 및 제조되는 슈퍼마이크로 제품은 그린 컴퓨팅 제품으로, 총소유비용(TCO)를 개선하고 환경에 미치는 영향을 줄이도록 최적화됐다. 또한, 수상 경력에 빛나는 서버 빌딩 블록 솔루션즈 (Server Building Block Solutions) 포트폴리오를 통해 고객은 폼 팩터, 프로세서, 메모리, GPU, 스토리지, 네트워크, 전력 및 냉각 솔루션을 포괄적으로 지원하는 유연하고 재사용 가능한 빌딩 블록을 기반으로 구축된 광범위한 시스템 제품군에서 자신의 특정 워크로드와 애플리케이션에 맞게 제품을 선택하여 최적화할 수 있다. 슈퍼마이크로 (Supermicro), 서버빌딩블록솔루션즈(Server Building Block Solutions), 친환경 IT추구(We Keep IT Green)는 슈퍼마이크로의 상표 또는 등록상표이다. 인텔 , 인텔 로고, 그 외 인텔 상표는 인텔 코퍼레이션 및 산하 조직의 트레이드마크이다. 기타 모든 브랜드, 명칭 및 상표는 각 해당 소유주의 자산이다. 사진 - https://mma.prnasia.com/media2/2686924/DLC_2.jpg?p=medium600 로고 - https://mma.prnasia.com/media2/1443241/5317906/Supermicro_Logo.jpg?p=medium600

2025.05.20 21:10글로벌뉴스

  Prev 11 12 13 14 15 16 17 18 19 20 Next  

지금 뜨는 기사

이시각 헤드라인

‘AI 컨트롤타워’ 과기정통부, 부총리급 격상 논의

배달앱 수수료 탓하는 프랜차이즈...가맹점 상생에는 '뒷짐'

과거의 집 북촌에 둥지 튼 '오늘의집' 첫 쇼룸 가보니

EUV 공정서 수천억 손실 막는다...반도체 '톱5' 중 4곳이 쓴다는 '이것'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.