• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'b 구글찌라시ぞ『𝕤𝕖𝕟𝕤𝕘𝕠𝕠』ぞ구글찌라시'통합검색 결과 입니다. (2477건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

'1b LPDDR5X' 양산 개시...SK하이닉스, 엔비디아 등 AI 고객사 잡는다

SK하이닉스가 지난해 하반기 최선단 D램 공정 기반의 LPDDR(저전력 D램) 양산을 시작한 것으로 확인됐다. AI 서버가 주요 적용처로, 엔비디아 등 글로벌 빅테크 공략에 속도를 낼 것으로 관측된다. 19일 SK하이닉스 사업보고서에 따르면 이 회사는 지난해 10월부터 1b(5세대 10나노급) 기반의 LPDDR5X 양산을 시작했다. 1b D램은 현재 양산 중인 D램의 가장 최신 세대에 해당한다. SK하이닉스는 1b 공정을 기반으로 16Gb(기가비트) LPDDR5X를 지난해 6월 개발 완료한 뒤, 10월부터 양산에 돌입했다. 해당 제품의 동작 속도는 10.7Gbps로, 이전 세대(9.6Gbps) 대비 약 10% 빠르다. 전력 효율도 최대 15%까지 절감할 수 있다는 게 SK하이닉스의 설명이다. 이번 1b LPDDR5X의 주요 타겟은 AI, HPC(고성능컴퓨팅) 등이다. SK하이닉스는 시장에서 향후 수요가 빠르게 증가할 것으로 예상되는 신규 메모리 모듈인 LPCAMM·SOCAMM 등에 해당 제품을 채용할 예정이다. LPCAMM은 기존 LPDDR 모듈 방식인 So-DIMM(탈부착)과 온보드(직접 탑재)의 장점을 결합한 기술이다. 기존 방식 대비 패키지 면적을 줄이면서도 전력 효율성을 높이고, 탈부착 형식으로 제작하는 것이 가능하다. SOCAMM 역시 LPDDR 기반의 차세대 모듈이다. LPCAMM과 마찬가지로 탈부착이 가능하지만, 데이터를 주고받는 I/O(입출력단자) 수가 694개로 LPCAMM(644개) 대비 소폭 증가했다. LPCAMM 및 SOCAMM은 이 같은 장점을 무기로 글로벌 빅테크와 주요 메모리 기업들의 주목을 받고 있다. 현재 AI 산업을 주도하고 있는 엔비디아도 차세대 AI PC에 이들 제품을 채택할 것으로 알려졌다.

2025.03.19 17:11장경윤

[현장] 앤트로픽 "韓 AI 시장, B2C 성장 두드러져…한국어 성능 개선할 것"

앤트로픽이 한국 시장을 인공지능(AI) 채택 속도가 빠르고 B2C 중심으로 활성화된 시장으로 평가하며 맞춤형 AI 솔루션을 지속적으로 개선할 계획을 밝혔다. 앤트로픽은 19일 서울 잠실 시그니엘에서 콕스웨이브와 함께 개발자 행사인 '빌더 서밋'을 진행했다. 1천명 이상의 국내외 개발자들이 찾아온 이 행사에서 마이크 크리거 앤트로픽 최고제품책임자(CPO)와 이엽 콕스웨이브 이사는 AI 모델의 글로벌 확장성과 한국 시장에서의 기회를 집중적으로 논의했다. 크리거 CPO에 따르면 한국은 AI 채택 속도가 빠르고 스타트업부터 대기업까지 AI 활용도가 높은 시장으로, 앤트로픽은 이를 지속적으로 지원할 수 있도록 자사 '클로드' 모델을 지속적으로 개선해 나갈 계획이다. 한국어 지원 관련해서도 피드백을 받아 지속적으로 개선 중이라는 점을 강조했다. 현재 '클로드'는 한국어를 꽤 잘 다루고 있다는 평가를 받았지만 존댓말이나 미묘한 표현 등에서는 보완이 필요한 상황이다. 이에 앤트로픽은 한국 사용자의 피드백을 적극 반영해 모델 품질을 더욱 고도화할 계획이다. B2C 시장이 활성화된 만큼 AI가 다양한 산업군에서 활용될 가능성도 크다는 점도 언급됐다. 크리거 CPO는 "미국에서는 AI가 주로 금융·엔터프라이즈 등 B2B 서비스에 집중되어 있지만 한국에서는 콘텐츠·커머스·게임 등 다양한 분야에서 AI가 적용되고 있어 흥미롭다"며 "클로드 기반으로 자동화·에이전틱 코딩 등의 기능을 확장하면 한국 시장에서 더 많은 AI 활용 사례가 나올 것"이라고 전망했다. 이엽 콕스웨이브 이사는 "과거에는 AI 기반 대화 데이터 분석이 충분히 이뤄지지 못했지만 최근 앤트로픽의 모델 컨텍스트 프토로콜(MCP) 기술 도입으로 모델의 신뢰도를 높일 수 있는 기반이 마련됐다"며 "이를 통해 기업들이 AI 모델의 운영 효율성을 극대화할 수 있을 것"이라고 말했다.

2025.03.19 16:57조이환

우주 전문가 2045년까지 3만명 양성…매년 1천500명

정부가 오는 2045년까지 우주 전문가 3만명을 양성하는 등 대학과 정부출연연구기관 간 벽허물기를 포함한 5대 핵심분야 인재양성에 시동을 걸었다. 정부는 19일 고려대학교에서 최상목 대통령 권한대행 부총리 겸 기획재정부 장관 주재로 제4차 인재양성전략회의를 개최했다. 이날 행사에는 중앙부처, 교육·연구·산업계 전문가, 정출연 연구원, 우주항공 전문가 등 60여 명이 참석했다. 정부는 이번 제4차 회의에서 ▲대학-출연연 벽 허물기 추진전략(교육부, 과기정통부) ▲5대 우주강국 도약을 위한 인재양성방안 등 2개 안건을 보고했다. 대학 주요 보직도 개방형 공모 벽허물기는 학-연 간 인적·물적 칸막이 제거와 학-연 공진화 시스템 구축, 개방형 공공 R&D 생태계 전환으로 구성돼 있다. 특히, 중장기적으로 (가칭) 국가연구소 네트워크 구축이 눈길을 끈다. 국가 임무 중심 공공 R&D 네트워크 구축이 핵심이다. 대학 연구소와 개방형 출연연 협력체계 간 긴밀한 협력으로 공공 R&D를 강화할 방침이다. 정부는 우선 대학 주요보직 개방형 공모 특례제도를 시범운영할 방침이다. 우수 교원·연구원에게는 파격적으로 대우 대책도 포함시켰다. 또 대학이 우수 은퇴 연구원을 교원으로 활용할 수 있도록 채용절차・정년에 관한 규제도 개선하는 등 특례를 인정하기로 했다. 대학과 출연연 간 인력교류 촉진을 위해 '연구자 교류형' 사업과 '연구팀 교류형' 사업을 신규로 수립했다. 연구자교류형은 1인당 최대 월 170만 원, 연구팀교류형은 팀당 최대 월 900만 원을 지원한다. 이외 출연연 처우 개선도 추진한다. 출연연이 소유한 부지·건축물을 대학교지·교사로 활용할 수 있도록 하는 '대학설립・운영규정'(대통령령)도 개정하기로 했다. 규제특례를 통해 출연연 보유 인프라를 활용한 협동수업의 학점인정 범위도 확대할 계획이다. 학-연 공진화 시스템 구축을 위해서는 공동 연구실(JRL) 및 공동연구소(JRC) 모델을 확산할 계획이다. JRL-JRC-공동포닥연구지원사업 등도 관심 JRL은 글로벌 TOP 전략연구단과 연계하는 방안이 현재 검토 중이다. JRC는 지난해 출범한 충북대와 한국원자력연구원(KAERI), 기초과학지원연구원(KBSI)과의 협력 모델이 대표적이다. 이곳에서는 미래에너지를 공동 연구한다. 또 공동포닥연구지원사업(가칭)도 내년부터 운영한다. 박사후연구원이 아이디어를 내고, 이를 원천기술 개발 및 사업화까지 연계시킬 계획이다. 과제별 지원액은 최대 1억 원이다. 개방형 공공 R&D 생태계 전환을 위해서는 학연 협력 스퀘어를 매년 개최하기로 했다. 첨단분야 인재 양성 전략 중 바이오헬스(B), 반도체(C), 디지털(D), 환경·에너지(E)에 이어 5대 우주강국 도약을 위한 인재양성방안(A=Aerospace)도 내놨다. 이 계획에 따르면 우주항공청은 매년 1천500명씩 오는 2045년까지 우주 전문인력 3만명을 양성할 계획이다. 최상목 대통령 권한대행 부총리 겸 기획재정부 장관은 “세계 수준의 연구・교육 역량 확보와 혁신생태계 조성을 적극 추진할 것"이라며 "우주강국 도약을 위한 인재양성 전주기 선순환 체계도 구축하는 등 대한민국의 미래를 만들어 갈 것"이라고 말했다.

2025.03.19 15:39박희범

美 경제성장 비결은 '우수 인재'…"韓도 해외 AI 인력 유치 적극 나서야"

최근 전 세계적으로 인공지능(AI) 등 첨단 산업 분야를 중심으로 우수 인력 쟁탈전이 치열해진 가운데 우리나라도 미국처럼 해외 인력 유치에 적극 나설 필요가 있다는 지적이 나왔다. 19일 국회 기획재정위원회 소속 안도걸 의원이 IMF 와 미국 정부기관의 데이터를 분석한 결과, 이민을 통한 노동 공급 증가가 미국의 높은 경제성장을 견인한 것으로 나타났다. 최근 미국 경제는 코로나 19 이후 경제성장률이 더 상승한 상태다. 미국의 연평균 실질 GDP 성장률은 코로나 19 이전인 2016~2019년 2.5%에서 2021~2024년 3.6%로, 1.4 배 상승했다. IMF의 '세계 경제 전망'에 따르면 2025~2029년 미국의 실질 GDP 성장률 평균은 2.1%로 전망되며, G7 성장률 평균 1.6% 대비 1.3배에 달하는 경제성장을 지속할 것으로 분석됐다. 미국 의회예산처(CBO) 분석에선 이 같은 미국 경제의 고도성장이 이민에 따른 해외인력 증가에 크게 기인하는 것으로 나타났다. 이에 따르면 우선 해외 우수인력 유입이 크게 증가하면서 전문인력 및 기능인력의 공급확대가 경제성장률을 높인 것으로 조사됐다. 실제 미국 국무부의 자료에 따르면 과학·기술·공학·수학(STEM)에 주로 종사하는 전문인력을 위한 H-1B 비자 발급은 코로나 19 이후 크게 증가한 것으로 나타났다. 2016~2019년 연평균 18만2천 건이던 전문인력 비자(H-1B) 발급건수는 코로나 19 이후인 2022~2024년에는 연평균 23만6천 건으로 26.9% 증가했다. 또 임시직 및 계절 근로자 등 기능인력 대상 비자(H-2A 와 H-2B) 발급은 2016~2019년 연평균 26만2천 건에서 2022~2024년 연평균 43만3천 건으로 65.3% 늘었다. 안 의원은 "이러한 풍부한 인력 공급이 노동력 투입 규모를 늘려 (미국의) 경제성장을 제고시킨 것"이라고 평가했다. 안 의원은 해외에서 유입된 전문인력이 AI 등 첨단산업의 연구개발 분야(R&D 분야) 에서 적극 활용되며 미국의 생산성 향상에 크게 기여했다고도 봤다. 일단 미국의 비농업 부문의 총요소생산성은 2016~2019년 연평균 0.7% 상승한 반면, 2020~2023년 연평균 1.0%로 42.9% 증가했다. 미국의 이러한 생산성 향상에는 해외 우수인력의 기여도가 상대적으로 높은 것으로 나타났다. 전미경제연구소의 연구에 따르면 이민 연구개발자는 전체 연구자 중 16%에 불과하지만, 미국 특허 실적과 경제적 부가가치 창출분의 36%를 차지하면서 미국 혁신을 선도하는 것으로 드러났다. 안 의원은 이민 증가로 미국의 소비와 투자가 확대되며 경제가 성장하는 선순환이 발생한 것도 긍정적인 영향을 줬다고 분석했다. UN에 따르면 2022년 기준 이민자는 평균적으로 소득의 15%를 본국으로 송금하는 것으로 나타났다. 또 미국 내에서 고용된 이민자의 임금 중 85%는 국내 소비로 이어지면서 내수 시장이 활성화됐고, 이는 미국의 경제성장을 촉진하는 요인으로 작용한 것으로 드러났다. 더불어 미국 경제가 성장함에 따라 기업은 생산을 확대하기 위해 투자를 증가하면서 경제성장률 상승을 견인한 것으로 나타났다. CBO는 2022~2024년 이민 증가로 인한 소비와 투자 확대가 실질 GDP를 연평균 0.4%p 상승시킨 것으로 분석했다. 안 의원은 "최근 우수 인력 확보 여부가 AI 등 첨단기술과 산업 선점에 있어서 관건이 되고 있다"며 "우수 과학 기술 인력의 절대부족에 시달리고 있는 우리나라도 해외 우수인력을 유치하기 위한 전방위 노력을 시급히 추진해야 한다"고 지적했다. 이어 "해외 우수인력에 대한 특례비자 발급 확대와 소득에 대한 소득세 감면, 무상 임대주택 공급, 연구자금 지원 등 패키지 지원 프로그램을 마련해야 한다"며 "고급 인력 부족에 허덕이는 지방에 해외 우수인력을 우선 배치할 수 있도록 지방 대학·지자체·기업이 협력해 전방위적인 유치노력을 전개하고, 인재들이 지방에 정착할 수 있도록 하는 인센티브를 적극적으로 제공해야 한다"고 제안했다.

2025.03.19 11:01장유미

로봇 개가 빗자루질 하자 와우!…삼성전자 주총 현장

팔 달린 로봇 개가 빗자루질을 하고, 공 모양 로봇이 집안 도우미 역할을 한다. 19일 경기도 수원시 수원컨벤션센터에서 열린 삼성전자 제56기 정기 주주총회장 현장 모습이다. 주주들이 인공지능(AI)과 차세대 기술을 직접 체험하고 신성장 사업에 대한 비전을 공유할 수 있도록 다양한 볼거리가 마련됐다. 특히 주주총회장에는 최근 기업결합 승인을 받은 레인보우로보틱스의 사족보행 로봇 'RBQ-10'과 AI 홈 컴패니언 로봇 '볼리' 등이 전시됐다. RBQ-10은 다양한 임무 수행이 가능한 사족보행 로봇이다. 라이다와 카메라 등 다양한 센서를 탑재해 방범순찰, 군용 등 다양한 분야에 활용될 수 있다. 총회장에서는 팔을 탑재한 로봇이 빗자루를 들고 바닥을 쓰는 모습을 볼 수 있었다. 볼리는 두 바퀴가 달린 노란 공 모양의 볼리는 카메라와 스피커, 프로젝터를 내장한 AI 기반 자율주행 가정용 로봇이다. 삼성전자가 지난 2020년 CES에서 처음 선보였다. 볼리는 다양한 사물인터넷(IoT) 기기를 제어하며 로봇집사 역할을 한다. 아이와 반려동물 등을 살피는 역할을 한다. 사용자를 따라다니며 음악을 틀어주고 업무를 도와주는 등 비서 역할도 수행한다. 이 밖에도 ▲스마트싱스와 최신 AI 제품 기반의 AI 홈 ▲갤럭시 S25 시리즈를 활용한 갤럭시 AI ▲투명 마이크로 LED 등 차세대 디스플레이 ▲하만의 AI기반 전장 솔루션과 오디오 기기 ▲삼성메디슨의 프리미엄 초음파 진단기기 등이 소개됐다. 삼성전자는 주주와의 소통을 강화하기 위해 주주들이 직접 현장에서 갤럭시 탭을 활용해 응원 메시지를 입력하면 대형 LED 디스플레이 '메시지 월'에 소개되는 프로그램도 운영했다. 현장을 찾은 주주 A씨는 "처음 참여한 주주총회인데 규모가 크고 볼거리가 많아 놀랐다"고 소감을 밝혔다. 자녀와 함께 방문한 B씨는 "주가가 많이 떨어졌지만 다시 회복할 것으로 믿는다"고 말했다.

2025.03.19 10:41신영빈

퓨어스토리지, 엔비디아 AI 데이터 플랫폼 통합…스토리지 '강화'

퓨어스토리지가 엔비디아 인공지능(AI) 데이터 플랫폼을 자사 솔루션에 통합해 스토리지 기술을 한층 강화한다. 퓨어스토리지는 엔터프라이즈급 확장형 AI 지원 솔루션을 고객에게 제공하기 위해 '플래시블레이드'에 엔비디아 AI 데이터 플랫폼 레퍼런스 디자인을 통합한다고 19일 발표했다. 플래시블레이드는 엔비디아 가속 컴퓨팅, 네트워킹, AI 엔터프라이즈 소프트웨어를 활용해 AI 애플리케이션의 속도와 민첩성을 올릴 수 있다. 이번 발표는 플래시블레이드//EXA 출시 후 이어진 것으로, AI와 고성능 컴퓨팅 요구사항을 충족하는 엔터프라이즈 스토리지 기술을 한층 발전시키기 위한 행보다. 퓨어스토리지는 엔비디아 B200와 H200 그래픽처리장치(GPU) 기반 HGX 시스템을 위한 공식 인증도 받았다. 이를 통해 엔비디아 클라우드 파트너들에게 신뢰할 수 있는 스토리지 솔루션을 제공한다. 최첨단 GPU 클라우드 구축을 위한 성능·기술 요구사항도 충족한다. AI 프로젝트가 대규모화되면서 고성능 스토리지 중요성이 커지고 있다. 기존 스토리지 시스템은 데이터 액세스 병목 현상을 초래해 AI 모델 학습과 추론 성능을 저하시킬 수 있다. 이에 반해 퓨어스토리지는 높은 읽기·쓰기 성능을 제공해 AI 모델 학습과 추론 속도를 가속화하며, 멀티테넌시 환경에서도 안정적인 품질을 유지한다. 퓨어스토리지 롭 리 최고기술책임자(CTO)는 "플래시블레이드에 엔비디아 AI 데이터 플랫폼을 통합해 AI 스토리지의 성능을 극대화했다"며 "기업들이 AI를 더욱 효율적으로 활용해 혁신을 가속할 수 있도록 지원할 것"이라고 밝혔다. 엔비디아 롭 데이비스 스토리지 네트워킹 기술 부문 부사장은 "AI 추론을 위한 데이터 처리 파이프라인은 상시 가동돼야 한다"며 "퓨어스토리지와의 협력을 통해 AI 에이전트가 거의 실시간으로 업데이트되는 데이터를 처리할 수 있도록 지원할 것"이라고 말했다. 시스코 제레미 포스터 데이터센터 인프라 부문 수석 부사장은 "AI 구축을 간소화하고 데이터 활용도를 높이는 것이 기업 경쟁력을 결정짓는다"며 "퓨어스토리지와 협력해 기업이 AI 워크로드를 효과적으로 관리할 수 있도록 지원할 것"이라고 강조했다.

2025.03.19 10:33김미정

"MBTI about HR"...프리미엄 HR테크 행사 열린다

따뜻한 봄과 열정적인 여름이 교차하는 5월, 인적자원(HR)에 관한 최신 정보와 꿀팁이 공유된다. 국내 최고 HR테크 기업과, 사람과 일에 고민인 기업·기관 HR 리더들이 한자리에 모이는 컨퍼런스가 열리는 것. IT 전문 미디어 지디넷코리아(대표 김경묵)는 5월8일 서울 강남구 봉은사로에 위치한 슈피겐홀에서 세 번째 HR 행사인 'HR테크 리더스 데이'(구 HR테크 커넥팅 데이즈)를 개최한다. 이번 행사는 국내 대표 HR 커뮤니티 '기고만장'의 공동 주최로 열린다. HR테크 리더스 데이의 대주제는 'MBTI about HR'이다. 개인 간에도 서로의 성향을 파악하고 더 나은 관계를 바라는 것처럼, 조직과 구성원 사이에도 서로의 성향을 이해하고 존중하자는 뜻을 담았다. 또 ▲M(Method, 방법) ▲B(Branding, 브랜딩) ▲T(Technology, 기술) ▲I(Inspiration, 영감) 키워드를 정하고, HR에 관한 방법·브랜딩·기술·영감에 관해 이야기를 풀어본다는 의미도 있다. 5월8일 오전·오후 진행될 강연은 ▲HR테크 ▲HR테크닉 ▲HR테크트리 세 가지 세션으로 구분된다. HR테크 세션은 데이터와 기술에 기반한 HR 강연을, HR테크닉 세션은 기술뿐 아니라 HR에 관한 여러 노하우와 기법들을 알려준다. 마지막 HR테크트리 세션은 구성원의 성장법과 HR담당자 스스로의 커리어 패스에 도움이 되는 팁들을 공유한다. 지난해 HR테크 리더스 데이에는 리멤버·잡플래닛·팀스파르타·두들린·나인하이어·데이원컴퍼니·스펙터·블라인드·클랩·블라인드·무하유·에이치웨이브·자소설닷컴·엘리스그룹·헤세드릿지·이십사점오 등 HR 기업들이 참여했다. 올해 행사도 기술력과 명성을 갖춘 톱티어 HR테크 기업들과 현직 HRer, 그리고 HR 분야 전문가 등이 참여를 확정했다. 최종 참가 기업과 강연자 정보는 추후 공개할 예정이다. 사전 신청자 중 약 120명은 오프라인 현장 참석(유료)이 가능하며, 현장에 참여하지 못한 신청자들은 유튜브 생중계를 통해 무료로 시청할 수 있다. 최종 현장 참석자 초청은 4월 중순부터 이뤄질 예정이다. HR테크 리더스 데이 참가자들은 기존의 일반적인 HR 행사와 달리, 우리 조직에 가장 적합한 분야별 HR 솔루션을 한 자리에서 비교해볼 수 있다. 보다 밀도감 있는 소통을 나누고, 실용적인 정보도 나누는 뜻깊은 자리가 될 것으로 기대된다. HR테크 리더스 데이 참여를 원하는 HRer들은 [☞사전등록] 페이지를 통해 신청하면 된다.

2025.03.19 09:45백봉삼

번개장터, 월 거래상품 100만건 넘었다

중고거래 플랫폼 번개장터(공동대표 강승현∙최재화)가 서비스 출시 이후 최다 거래 건수를 돌파했다고 19일 밝혔다. 번개장터에 따르면 올해 2월 기준 전체 월 거래상품은 100만건, 월 거래액은 900억원을 넘어섰다. 지난해 8월 전면 도입한 안전거래 정책의 안전성과 편의성이 거래 활성화로 이어진 것으로 나타났다. 도입 직전 달인 지난해 7월과 올해 2월을 비교했을 때 번개장터의 개인간 거래(C2C) 건수는 299%, 거래액은 116% 증가했다. 전체 구매자 수는 25년 2월 기준 24년 7월 대비 138% 증가 했으며, 동시에 번개장터의 올해 2월 월간 활성 이용자 수(MAU)는 680만명을 기록했다. 안전결제 도입 6개월만에 번개장터 플랫폼을 통해 중고거래를 이용하는 개인 이용자 수 또한 2배 이상 증가했다. 구매자가 안심할 수 있는 결제 정책 도입은 결과적으로 상품이 빨리 팔리는 효과도 가져왔다. 번개장터의 14일 이내 판매완료율 경우도 안전결제 도입 6개월만에 2배 가까이 상승하며 구매자 뿐만 아니라 판매자에게도 긍정적으로 작용하는 것으로 드러난 것. 특히, 전문 판매자들이 운영하는 '프로상점' 거래(B2C) 건수 역시 69%, 거래액은 52% 성장했다. 번개장터 관계자는 “안전결제가 호응을 얻는 이유는, 구매자의 구매확정을 통한 정산 기능 때문”이라며, “판매자가 작성한 상품 정보만을 의지해서 구매해야 하고 환불이 어려운 개인간 중고거래에서 안전결제의 구매확정 기능은 구매자가 감내해야 했던 불안과 염려를 차단하는 역할을 해낸다”고 말했다.

2025.03.19 08:27안희정

웨카, 엔비디아 통합 및 인증 확대… GTC 2025에서 Augmented Memory Grid 공개

NVIDIA AI Data Platform으로 AI 추론 가속화와 함께 엔비디아 클라우드 파트너 및 엔터프라이즈 배포를 위한 새로운 스토리지 인증 획득 캘리포니아주 새너제이 및 캠벨, 2025년 3월 19일 /PRNewswire/ -- AI 네이티브 데이터 플랫폼 회사인 웨카(WEKA)가 미국 캘리포니아주 새너제이에서 열리고 있는 GTC 2025에서 NVIDIA AI Data Platform 레퍼런스 디자인과의 통합을 발표했다. 이와 더불어 웨카는 에이전틱 AI(Agentic AI)와 추론 모델의 미래를 대비해 최적화된 AI 인프라를 제공할 목적으로 엔비디아 스토리지 인증도 획득했다. 더불어 웨카는 NVIDIA GB200 NVL72를 사용하는 NVIDIA Cloud Partner(NCP) Reference Architecture에 대한 새로운 인증과 엔비디아 NVIDIA Enterprise Reference Architecture를 사용하는 엔터프라이즈 AI 공장에 배포하기 위한 NVIDIA-Certified System™ Storage 지정을 발표했다. Optimizing AI Infrastructure for the Future of Agentic AI 웨카는 또한 WEKA Data Platform 소프트웨어를 엔비디아의 가속 컴퓨팅, 네트워킹, 엔터프라이즈 소프트웨어와 통합해 AI 추론 속도를 높이고, 초당 처리되는 토큰 수를 극대화해 토큰의 효율성을 획기적으로 향상시키는 새로운 Augmented Memory Grid™ 기능을 공개했다. 웨카의 고성능 스토리지로 AI 에이전트 성능 강화NVIDIA AI Data Platform은 에이전틱 AI 시대를 위한 기업 인프라를 재정의하고 있다. NVIDIA Blackwell 플랫폼, NVIDIA BlueField® DPU, NVIDIA Spectrum-X™ 네트워킹, NVIDIA AI Enterprise 소프트웨어를 기업용 스토리지와 통합해 데이터를 실행 가능한 인텔리전스로 변환하는 맞춤형 레퍼런스 디자인을 제공한다. 이제 기업들은 WEKA Data Platform 소프트웨어로 NVIDIA AI Data Platform의 이점을 활용해 AI 쿼리 에이전트를 비즈니스 지식에 연결하고, 복잡한 추론에 대해 최고의 AI 추론 성능과 더 높은 정확도를 보여주는, 대규모 확장이 가능한 엔터프라이즈 AI용 고성능 파운데이션을 생성할 수 있다. WEKA Augmented Memory Grid로 AI 메모리 장벽을 깨다AI 에이전트의 자율적 의사 결정, 복잡한 문제 해결, 적응형 학습 기능을 계속 확장함에 따라 더 긴 컨텍스트 창을 지원할 수 있는 AI 인프라의 필요성이 확대되면서, 모델의 매개 변수가 증가하고, 시스템 메모리 요구 사항이 증가하고 있다. WEKA Augmented Memory Grid를 사용하는 AI 모델은 1테라바이트로 고정된 오늘날의 용량 증가량 대신 테라바이트의 세 자릿수 크기인 페타바이트로 용량을 추가해 대규모 모델 추론에 맞게 메모리를 확장할 수 있다. 이와 동시에 WEKA Augmented Memory Grid는 마이크로초 수준의 지연이란 메모리 속도에 가까운 성능으로 더 빠른 토큰 처리가 가능해 전례 없는 추론 결과를 얻을 수 있다. 주요 이점은 다음과 같다. 첫 번째 토큰 도달 시간 극적으로 단축: 10만 5000개의 토큰을 처리할 때 WEKA Augmented Memory Grid는 프리필(prefill) 컨텍스트를 재계산하는 시간 대비 첫 번째 토큰 도달 시간을 41배 단축했다. 토큰 처리 최적화: 추론 클러스터는 클러스터 전체에서 더 높은 토큰 처리량을 달성할 수 있고, 전체 추론 시스템의 토큰 처리 비용을 최대 24%까지 낮출 수 있다. 새로운 엔비디아 스토리지 인증으로 엔터프라이즈 AI 혁신 앞당겨 WEKApod™ Nitro Data Platform Appliance는 NVIDIA HGX H200, B200, GB200 NVL72를 통해 NVIDIA Cloud Partner(NCP) 배포를 위한 최초의 고성능 스토리지 솔루션 중 하나로 인증을 받음으로써 AI 개발자와 혁신가를 위한 NCP 제공업체의 인프라 서비스를 강화한다. WEKApod 어플라이언스는 고성능 밀도와 전력 효율성을 제공해, 단일 8U 엔트리 레벨 구성으로 최대 1152개의 GPU를 지원할 수 있다. WEKApod™ Nitro 어플라이언스는 NVIDIA-Certified System을 갖춘 NVIDIA Enterprise Reference Architecture 지침에 따라 AI 공장을 구축하는 기업을 위한 새로운 NVIDIA-Certified Systems Storage 지정을 획득했다. 이 인증은 WEKA Data Platform이 엔비디아의 우수 사례와 호환되어 광범위한 엔터프라이즈 AI와 HPC 워크로드를 위해 최적의 스토리지 성능과 효율성 및 확장성을 보장한다는 것을 입증해준다. 나일레쉬 파텔(Nilesh Patel) 웨카 최고제품책임자(CPO)는 "웨카는 엔비디아와의 협력을 통해 NVIDIA AI Data Platform을 가진 조직에 고성능 AI 스토리지 솔루션을 제공함으로써 AI 혁신을 억제하고 모델의 성능과 인프라 효율성을 저하시키는 데이터 문제를 해결하고 있다"면서 "음속 장벽 돌파가 항공우주 혁신에 새로운 지평을 열었듯이 WEKA Augmented Memory Grid는 AI 메모리 장벽을 허물고, GPU 메모리를 확장하고, NVIDIA AI Data Platform 전반에 걸쳐 토큰의 효율성을 최적화하고 있다. 이러한 혁신은 AI 토큰 경제를 변화시켜 성능 저하 없이도 더 낮은 비용으로 더 빠른 혁신을 이루게 해줄 것이다"라고 덧붙였다. 롭 데이비스(Rob Davis) 엔비디아 스토리지 네트워킹 기술 담당 부사장은 "에이전틱 AI와 추론 모델의 힘을 활용하려는 기업이 이처럼 까다로운 워크로드를 처리하려면 전례 없는 효율성과 확장성이 필요하다"면서 "엔비디아와 웨카의 기술을 합치면 AI 에이전트가 추론 과정에서 최첨단 속도와 정확성으로 데이터에 액세스하고 데이터를 처리할 수 있다"고 말했다. 제공 시기 NVIDIA Blackwell 시스템용 웨카의 NCP 레퍼런스 아키텍처는 이달 말 말부터 판매된다. WEKA Augmented Memory Grid 기능은 2025년 봄에 WEKA Data Platform 고객에게 제공될 예정이다. 추가 정보 블로그 참조: 새로운 Augmented Memory Grid, AI 추론 인프라 경제학에 혁명 일으켜 웨카, NVIDIA Blackwell 및 웨카와 함께 AI 추론의 잠재력 발휘 엔비디아 GTC 2025 방문객은 GTC 엑스포 홀에 있는 웨카 부스를 방문하면 새로운 WEKA Augmented Memory Grid 기능을 시연해 볼 수 있다. 고객 추천사 투게더 AI(Together AI) 처장(Ce Zhang) 투게더 AI 최고기술책임자(CTO)는 "투게더 AI에는 속도와 효율성에 집착한다. 그래서 업계에서 가장 빠른 추론 속도를 제공하는 Together Interference Engine을 구축했다. 웨카의 Augmented Memory Grid 기능을 활용해 프롬프트 캐싱(prompt caching)에 소요되는 시간을 줄이고 여러 노드에서 이 캐시를 활용하는 유연성을 개선해 지연 시간을 줄이고 투게더 AI를 기반으로 모델을 구축하는 50만 명이 넘는 AI 개발자에게 혜택을 제공할 수 있게 되어 기쁘다"고 말했다. 요타 데이터 서비시즈(Yotta Data Services)엔비디아 클라우드 파트너인 요타 데이터 서비시즈의 공동 설립자 겸 전무이사인 서닐 굽타(Sunil Gupta) CEO는 "WEKA Data Platform은 인도에서 가장 빠른 AI 슈퍼컴퓨팅 플랫폼인 Yotta Shakti Supercloud의 성능과 확장성을 향상시키는 데 핵심적인 역할을 한다. 웨카의 혁신적인 Augmented Memory Grid 기능과 NVIDIA Blackwell 배포를 위한 고성능 데이터 저장소 인증은 클라우드 규모에서 AI의 효율성을 향상시킨다. 웨카는 GPU 메모리를 확장하고 Shakti Supercloud 제품군 전체에서 활용도를 극대화함으로써 AI 성능 향상, 더 빠른 추론, 더 나은 비용 효율성을 제공할 수 있도록 지원한다"고 말했다. 웨카 소개웨카는 AI 시대를 위해 구축된 기업 데이터 스택에 대한 새로운 방식을 설계하고 있다. WEKA® Data Platform은 클라우드와 어디에나 설치할 수 있는 AI 기반 아키텍처가 갖춰진 AI 인프라의 표준을 설정해 온-프레미스와 클라우드 및 엣지 환경에서 데이터의 원활한 이동을 보장한다. 이 플랫폼은 종래의 데이터 사일로를 GPU, AI 모델 트레이닝과 추론 그리고 기타 성능 집약적인 워크로드를 가속하는 동적 데이터 파이프라인으로 변환해 보다 작업 효율성 상승, 에너지 소비 감소, 관련 탄소 배출 저하를 유도한다. 웨카는 전 세계에서 가장 혁신적인 기업과 연구 조직들이 복잡한 데이터 문제를 해결해 더욱 신속하고 지속 가능한 방식으로 발견, 통찰, 결과에 도달할 수 있도록 지원하고 있으며, 여기에는 포춘 50대 기업 중 12개가 포함되어 있다. www.weka.io를 더 자세한 정보를 확인하거나, 링크드인과 엑스(X)를 통해 웨카와 연결하기 바란다. 웨카와 웨카 로고는 웨카아이오 주식회사(WekaIO, Inc.)의 등록상표이다. 여기에서 사용된 기타 트레이드 명칭들은 각 소유자의 상표일 수 있다. 사진 - https://mma.prnasia.com/media2/2643877/PR_WEKA_NVIDIA_GTC2025.jpg?p=medium600로고 - https://mma.prnasia.com/media2/1796062/WEKA_v1_Logo.jpg?p=medium600

2025.03.19 07:10글로벌뉴스

밀켄 연구소, '기로에 선 대한민국' 주제로 글로벌 디너 대화 개최

-- 국내외 금융∙비즈니스 리더, 이달 말 서울에서 한국과 세계 경제전망 및 투자 기회 논의 서울, 한국 2025년 3월 18일 /PRNewswire=연합뉴스/ -- 밀켄 연구소(Milken Institute)가 3월 27일(목) 서울 광화문 포시즌스 호텔에서 한국에서의 첫 '글로벌 디너 대화(Global Dinner Dialogues)'를 개최한다. '기로에 선 대한민국(South Korea at the Crossroads)'이라는 주제로 열리는 이번 행사는 국내외 주요 기업 경영진과 금융계 인사들이 모여 한국의 금융과 경제 전망, 투자 환경 및 한국-글로벌 협력 기회를 심도있게 논의하는 특별한 자리다. 본 행사는 혁신 및 소프트 파워 등으로 한국의 영향력이 전세계적으로 확대되는 가운데 한국이 글로벌 시장에서 차지하는 핵심적인 역할과 떠오르는 새로운 투자 기회들을 조명할 예정이다. 행사 내용은 밀켄연구소 공식 웹사이트를 통해 공개되며, 온라인 스트리밍 서비스도 제공될 예정이다. 김병환 금융위원회 위원장은 "한국이 글로벌 자본 시장에서 매력적인 투자처로 자리 잡을 수 있도록 정부, 기업, 투자자 등 모든 시장 참여자 간 협력을 적극적으로 강화해 나갈 계획"이라고 언급하며 "밀켄연구소가 서울에서 첫 행사를 개최하여 한국 시장을 글로벌 무대에 소개하는 것은 매우 의미 있는 일로서, 밀켄연구소의 글로벌 금융 커뮤니티가 서울에 방문하는 것을 진심으로 환영한다"고 밝혔다. 이번 디너 대화는 김병환 금융위원장의 개회사로 시작된다. 이어서 '투자자들의 한국∙글로벌 투자환경에 대한 시각'과 '한국의 변화하는 비즈니스∙투자 환경'을 주제로 두 개의 패널토론이 진행된다. 이훈 한국투자공사 투자운용부문장, 존 퀸(John B. Quinn) 퀸 엠마누엘 설립자이자 회장, 김상현 롯데그룹 유통군 총괄대표 등이 연사로 참여하며, 최종구 국제금융협력대사가 폐회사를 한다. 밀켄연구소 국제부문 총괄 부사장 로라 딜 레이시(Laura Deal Lacey)는 "2025년에도 지정학적 분열이 심화되며 글로벌 무역 환경이 전례 없는 변화를 맞이하는 가운데, 한국은 국제 비즈니스 허브이자 글로벌 제조•물류 중심지, 그리고 글로벌 공급망에서 중요한 역할을 수행하고 있다"고 강조하며 "밀켄연구소의 글로벌 네트워크를 바탕으로 한국에서 '글로벌 디너 대화' 시리즈의 막을 열게되어 매우 뜻깊게 생각하며, 한국의 성장 포텐셜을 탐구하고 비즈니스 리더 및 정책결정자 간 협력의 장을 마련하는 데 기여하고자 한다"고 밝혔다. 글로벌 디너 대화는 밀켄연구소가 한국에서 개최하는 사상 첫 고위급 행사로, 3월 24일 홍콩에서 개최되는 글로벌 투자자 심포지엄(Global Investors' Symposium)에 뒤이어 3월 27일에 서울에서 개최된다. 자세한 내용은 공식 웹사이트를 방문하거나 오정희 한국담당자(joh@milkeninstitute.org)에게 문의하면 된다. 밀켄 연구소 소개 밀켄연구소는 보다 나은 삶을 위한 실질적 변화를 이끌어가는 비영리•비당파적 싱크탱크이다. 연구소는 금융, 신체적•정신적 건강, 환경적 지속 가능성을 핵심 주제로 삼아, 가장 시급한 글로벌 과제에 대한 창의적 해법과 실행 가능한 전략을 제시한다. 이를 위해 전 세계 최고의 전문가와 혁신적 자원들을 연결하여, 현재 직면한 문제뿐만 아니라 미래를 대비하는 구체적인 청사진을 마련한다. 자세한 정보는 https://milkeninstitute.org/에서 확인할 수 있다.

2025.03.18 18:10글로벌뉴스

와이즈넛, AI 세미나 '와이즈 엣지' 개최…AI 에이전트 기술 첫 선

와이즈넛(대표 강용성)이 올해해 주력으로 내세울 인공지능(AI) 에이전트 플랫폼과 핵심 기술을 공개했다. 와이즈넛은 서울 여의도에서 AI세미나 '2025 와이즈 엣지(WISE Edge)'를 성공적으로 개최했다고 18일 밝혔다. 이번 행사의 주제는 'AI 에이전트를 통한 인간의 역량 확장(Empowering human with AI agents)'으로 AI 에이전트와 인간의 협력을 통해 인간이 가진 본연의 역량을 극대화할 수 있는 구체적 방향을 모색하는 자리로 마련됐다. 와이즈넛 강용성 대표와 장정훈 CTO(연구소장), 김분도 공공사업부문장이 연사로 나서 와이즈넛의 AI 사업 전략 및 기술 비전을 공유했다. AI 에이전트가 다양한 산업에 활용되며 실질적인 가치를 창출하는 방법과 함께, 향후 와이즈넛의 AI 에이전트 기술 청사진을 구체화했다. 강용성 대표는 인간의 노동력이 AI 시대의 도래와 함께 초효율로 전환되는 시대에 돌입했음을 강조했다. 강 대표는 "AI 에이전트가 각 산업과 업무에 도입됨으로써 생산성과 효율성이 획기적으로 향상될 것"이라며 "AI는 단순히 똑똑한 답변을 제공하는 것이 아니라, 기업이 원하는 방식으로 함께 '일하는' 존재가 되어야 한다"라고 역설했다. 이어 B2B 맞춤형 AI 에이전트 구현을 위해서 중요한 것은 LLM만이 아니라, 도메인 날리지, RAG와 같은 핵심 구성요소들 또한 중요하게 다뤄져야 한다고 말했다. 강 대표는 행사에서 와이즈넛이 지난 25년간 다양한 사업을 통해 축적한 도메인 지식과 노하우, RAG 기술력, 그리고 국내 최고 자연어 처리 기술이 글로벌 기업들과 경쟁할 수 있는 와이즈넛만의 차별화된 강점이라고 강조하며, B2B 맞춤형 AI 에이전트 분야에서도 최강자로 자리매김할 수 있다는 강한 자신감을 드러냈다. 이어진 발표에서 장정훈 CTO는 '와이즈넛의 AI 에이전트 플랫폼 : 생성형 AI와 RAG를 활용한 업무 혁신'을 주제로 AI 에이전트에 적용된 핵심 기술을 상세히 소개하며 그 혁신적인 가능성을 조명했다. 이날 와이즈넛이 공개한 AI 에이전트 플랫폼은 다양한 고객 업무 시스템을 자동화하는 핵심 기술인 ▲추론(Reasoning)과 ▲핵심 지능(Core Intelligence) ▲그래프 서치(Graph Search) 등을 탑재한 것이 특징이다. 추론(Reasoning)은 업무 수행 전략을 수립하고, 지식과 맥락을 분석하여 최적의 의사결정을 내린 후, 이를 에이전트 도구를 활용해 실행하는 과정이다. 핵심 지능(Core Intelligence)은 자체 개발한 WISE LLM과 최신 검색 기반 생성(RAG) 기술로 구성되어 있다. 내 최고의 검색 솔루션을 보유한 와이즈넛의 RAG 기술은 기존 벡터와 자연어처리 기반 하이브리드 서치 기술에서 한 단계 더 진화한 혼합형 검색 모델을 적용하고, 여기에 그래프 서치(Graph Search) 기술까지 융합해 더욱 의미 있는 수준으로 업그레이드됐다고 강조했다. 장CTO는 기업의 레거시 시스템과 조직의 특성 및 문화, 조직도, 내부 규정 등에서 데이터 간의 관계를 자동으로 지식화하고 비즈니스 프로세스 모델링까지 구현하는 와이즈 하이퍼그래프(WISE Hypergraph) 기술을 통해 B2B 맞춤형 AI 에이전트 구현이 가능하다고 설명했다. 최근 와이즈넛은 자체 개발한 '와이즈 LLM 70B' 모델과 딥시크의 R1 70B 모델을 비교한 자체 벤치마크 테스트 결과를 공개하여 정밀성, 포괄성, 독해 능력 등에서 우수한 성능을 증명한 바 있다. 특히, 독해 능력 부문에서는 약 20% 높은 성능 우위를 보이며, 복잡한 고객 환경에서도 최적의 답변을 제공하는 기술적 강점을 입증했다. 마지막으로 산업별 생성형 AI 도입 전략 및 사례 발표는 김분도 공공사업부문장이 맡았다. 현재 산업분야에서 생성형 AI를 어떻게 활용하고 있는지 살펴보고 와이즈넛이 그간 구축한 ▲한국도로공사 ▲고용노동부 ▲한전KPS ▲NIPA 과제 등 생성형AI 사업 사례를 소개했다. 더 나아가 해당 자리에서 와이즈넛이 구현하고 있는 AI 에이전트 플랫폼을 최초 공개해, 실제 업무 환경에서 적용가능한 현실적이고 가시적인 활용사례를 선보여 참관객들의 이목을 집중시켰다. 강용성 대표는 "오늘 올해 상반기 중 신규 출시를 앞두고 있는 AI 에이전트 플랫폼을 공개한 것은, AI 에이전트가 가져올 실질적 혁신을 와이즈넛만의 이야기로 먼저 보여드리고자 함이었다"며 "지난 25년간 그랬듯, 와이즈넛이 선보일 AI 에이전트로의 새로운 여정을 지켜봐 달라"라고 말했다.

2025.03.18 17:42남혁우

MiTAC, 클라우드페스트 2025에서 에너지 효율적인 서버 혁신 공개하며 지속 가능한 클라우드 컴퓨팅 강화

러스트, 독일 2025년 3월 18일 /PRNewswire/ -- MiTAC 홀딩스 코퍼레이션(MiTA Holdings Corp., TSE: 3706)의 자회사이자 서버 플랫폼 설계 분야의 선도적인 제조업체인 MiTAC 컴퓨팅 테크놀로지 코퍼레이션(MiTAC Computing Technology Corp.)이 3월 17일부터 20일까지 독일 유로파파크에서 열리는 인터넷 인프라 산업 행사인 '클라우드페스트(CloudFest) 2025' H12 및 H13번 부스에서 에너지 효율적인 최신 클라우드 및 AI 기반 서버 플랫폼을 공개한다. AMD EPYC™ 9005 시리즈와 Intel® Xeon® 6 프로세서를 특징으로 하는 이 플랫폼은 지속 가능한 컴퓨팅, 최적화된 전력 효율성 달성, 고성능 클라우드 인프라 개발을 위한 MiTAC의 노력이 빚어낸 결과물이다. Empowering Sustainable Cloud Computing: MiTAC Delivers Energy-Efficient Server Innovations at CloudFest 2025 에너지 효율적인 컴퓨팅으로 클라우드 지속 가능성 향상 클라우드와 AI 워크로드가 계속 증가하면서 데이터 센터는 전력 소비를 줄이는 동시에 성능을 향상해야 하는 과제가 직면했다. MiTAC 컴퓨팅은 높은 컴퓨팅 성능과 에너지 효율성의 균형을 유지하는 서버 솔루션 설계로 이러한 과제를 해결하며, 기업과 클라우드 제공업체가 운영 비용과 탄소 발자국을 최소화할 수 있도록 돕고 있다. MiTAC의 최신 서버 플랫폼은 전력 효율적인 프로세서 아키텍처, 지능형 워크로드 관리, 첨단 열 설계 등을 통합해 조직의 과도한 에너지 소비 방지 및 컴퓨팅 자원 확장을 지원한다. MiTAC은 내장된 가속화 기술, 최적화된 메모리 대역폭, 고속 연결성을 통해 와트당 성능 효율성을 극대화하는 솔루션을 제공한다. 인텔 기반 솔루션: AI 기반 워크로드를 위한 성능과 효율성 달성 MiTAC은 AI, 클라우드, 기업용 애플리케이션에 최적화된 전력 효율적인 고성능 컴퓨팅 서버인 2U 듀얼 소켓 MiTAC R2520G6 등 인텔 기반 라인업을 선보인다. 이 라인업은 최대 8TB의 DDR5 메모리, 5개의 PCIe 5.0 x16 슬롯, U.2와 E1.S SSD를 위한 유연한 스토리지 구성을 지원함으로써 전력 효율성을 유지하면서 성능을 확장할 수 있다. MiTAC 플랫폼은 Intel Xeon 6 프로세서를 통합함으로써 AI 워크로드를 위한 내장형 가속기 및 고속 I/O와 최적화된 전력 활용 기능을 제공해 현대 데이터 센터에 지속 가능한 고성능 컴퓨팅을 보장한다. AMD 기반 솔루션: 지속 가능한 설계로 컴퓨팅 파워 극대화 MiTAC의 AMD EPYC™ 9005 시리즈 기반 플랫폼은 와트당 성능 효율성 면에서 최첨단 성능을 자랑하며 클라우드와 AI 제공업체가 에너지 효율성을 극대화하면서 워크로드를 확장할 수 있도록 지원한다. MiTAC TYAN GC68C-B8056은 1U 단일 소켓 서버로, 고밀도 클라우드와 AI 워크로드에 최적화되어 있다. 이 서버는 24개의 DDR5 DIMM 슬롯, 12개의 공구 없이 교체 가능한 2.5인치 NVMe U.2 핫스왑 베이, 현대적인 클라우드 환경을 지원하는 고효율 열 설계가 특징이다. AMD EPYC™ 9005 시리즈 프로세서가 통합되어 있어 업계 최고의 컴퓨팅 성능을 보장하는 동시에 전력 소비를 낮게 유지함으로써 기업이 성능 저하 없이도 지속 가능성을 향상시킬 수 있도록 지원한다. MiTAC의 솔루션은 AMD EPYC™ 9005 시리즈 프로세서를 활용함으로써 낮은 에너지 소비로 고성능 컴퓨팅을 보장하면서 기업이 처리 효율성을 유지하면서 데이터 센터 전력 수요를 줄일 수 있게 돕는다. MiTAC은 또한 높은 확장성을 요구하는 클라우드 서비스 제공업체를 위해 설계된 2U 멀티노드 서버인 MiTAC TYAN TD76-B8058를 선보일 예정이다. AMD EPYC™ 9004 시리즈 프로세서로 구동되는 이 플랫폼은 4개의 프론트 서비스 노드, 16개의 DDR5 RDIMM 슬롯, 4개의 핫스왑 E1.S 드라이브 트레이, 2개의 NVMe M.2 슬롯, 그리고 PCIe 5.0과 OCP 3.0 LAN 메자닌 슬롯(mezzanine slot)을 통한 유연한 확장을 특징으로 한다. 이것은 에너지 효율성을 유지하면서 강력한 성능을 제공하므로, 클라우드와 AI 애플리케이션 모두에 신뢰할 수 있는 선택이다. 클라우드페스트 2025에서 MiTAC 부스 방문은 지속 가능한 서버 혁신을 탐색할 기회 MiTAC의 최신 인텔 및 AMD 기반 서버 플랫폼은 에너지 효율적인 클라우드 컴퓨팅의 미래를 보여주면서 기업에 최첨단의 지속 가능한 고성능 솔루션을 제공한다. 클라우드페스트 2025에 마련된 MiTAC의 H12 및 H13번 부스를 방문하면 이러한 혁신이 어떻게 클라우드의 지속 가능성을 향상시키고, 전력 효율을 최적화하고, AI와 클라우드 컴퓨팅의 미래를 주도하는지 알아볼 수 있다. MiTAC 컴퓨팅 테크놀로지 코퍼레이션 소개 MiTAC 홀딩스의 자회사인 MiTAC 컴퓨팅 테크놀로지 코퍼레이션은 1990년대부터 업계에서 쌓아온 전문 지식을 바탕으로 포괄적이면서 에너지 효율적인 서버 솔루션을 제공한다. AI, 고성능 컴퓨팅(HPC), 클라우드, AI, 엣지 컴퓨팅을 전문으로 하며, 기본 구성 요소 수준뿐만 아니라 무엇보다 성능과 통합이 가장 중요한 시스템과 랙(rack) 수준에서도 타협 없는 품질을 보장하기 위해 엄격한 방법을 사용한다. 품질에 대한 이런 전방위적 노력은 MiTAC 컴퓨팅이 업계의 다른 회사들과 차별을 두는 요소다. MiTAC 컴퓨팅은 하이퍼스케일 데이터 센터, HPC, AI 애플리케이션을 위해 맞춤형 플랫폼을 제공하고 최적의 성능과 확장성을 보장한다. MiTAC 컴퓨팅은 연구개발(R&D)과 제조에서 글로벌 지원에 이르는 분야에서 확보한 글로벌 입지와 엔드투엔드(end-to-end) 역량을 바탕으로 각 기업만의 특별한 니즈를 충족하기 위해 설계된 유연한 고품질의 솔루션을 제공한다. MiTAC 컴퓨팅은 최근 인텔 DSG와 타이안(TYAN)의 서버 제품을 통합하고, 최신 AI 및 액체 냉각 발전을 활용해 혁신, 효율성, 신뢰성 면에서 두각을 나타내면서 기업이 미래의 도전에 대처할 수 있도록 지원하고 있다. MiTAC 컴퓨팅 테크놀로지 코퍼레이션 웹사이트: https://www.mitaccomputing.com/

2025.03.18 17:10글로벌뉴스

케냐 디지스쿨 연결 프로젝트, 청각장애 아동의 온라인 학습 지원

나이로비, 케냐 2025년 3월 18일 /PRNewswire=연합뉴스/ -- 화웨이(Huawei)와 유네스코, 정부 파트너들이 케냐 디지스쿨(DigiSchool) 연결 프로젝트 2단계 사업을 완료했다고 공식 발표했다. 이번 사업을 통해 특수 교육 대상 아동 학교 6곳을 포함한 총 21개 학교에 인터넷 연결을 지원했다. Students, teachers, and administrators at Machakos Primary School for the Deaf 케냐 정부의 디지털 슈퍼하이웨이 어젠다와 모든 케냐 학교에 인터넷 연결을 제공하겠다는 목표에 따라 디지스쿨 프로젝트는 케냐 교육부, 정보통신디지털경제부, 케냐전력공사(KPLC), 유네스코, 화웨이 TECH4ALL 간 협력 사업으로 추진된다. 지난 14일 마차코스 청각장애 초등학교에서 열린 발표 행사에는 존 타누이(John Tanui) 케냐 정보통신디지털경제부 차관이 참석했다. 이 학교는 디지스쿨 연결 프로젝트 2단계 사업을 통해 케냐 초고속 광대역 네트워크에 연결된 청각장애 아동 학교 중 하나다. 존 타누이 정보통신디지털경제부 차관은 "국립 광섬유망 연결을 통해 학생들에게 더 나은 학습 환경을 제공하고 학업 성취도를 높이는 데 기여하고자 마차코스 청각장애 초등학교를 찾았다. 청각장애 학생들에게는 시각적 접근성이 중요하기 때문에 화상 회의 솔루션도 함께 제공할 예정이다. 정부는 마차코스 청각장애 초등학교 학생들의 삶을 변화시키는 이러한 프로그램을 진행할 수 있도록 지원해 준 화웨이, 유네스코 등 민간 부문 파트너들의 역할에 감사를 표한다. 이 사업은 화웨이, 유네스코와 같은 파트너들과의 전략적 협업이 필요한 중요한 사업이다. 앞으로도 디지털 포용 의제를 통해 삶과 생계를 함께 발전시켜 나갈 수 있기를 바란다"고 말했다. 화상 회의 장비는 케냐 특수교육원(KISE)이 청각장애 학교의 교직원과 학생들에게 원격 지원을 제공해 학교의 교육 역량을 강화하고 다양한 서비스 접근성을 향상하는 데 기여한다. 스티븐 장(Stephen Zhang) 화웨이 케냐 부사장은 "이번에 제공된 인터넷 연결 솔루션 덕분에 교육 관리 효율성 상승과 함께 관리 시스템에 대한 학교 교장의 온라인 접근성이 개선되고 있다. 또한 영상, 교육 과정, 전문가의 원격 지원 등 교육 자료에 대한 접근성도 높아지고 있다. 아울러 교실 내 인터넷 연결은 더욱 흥미롭고 효과적인 학습을 보장하고 있으며, 특수 교육이 필요한 학교에서는 전문가들이 원격으로 평가 및 재활 서비스를 제공할 수 있다"고 밝혔다. 발표 행사에서 참석자들은 학생들이 수업 중 인터넷을 어떻게 활용하는지, 학생과 KISE 전문가들이 온라인 화상 통화를 통해 어떤 이점을 얻을 수 있는지 체험하는 시간을 가졌다. 루이스 헉스타우센(Louise Haxthausen) 유네스코 동아프리카 지역사무소장은 "유네스코는 지속가능발전목표 4와 국가 교육 부문 전략 계획에 따라 케냐 정부, 화웨이 및 모든 이해관계자와 협력해 포용적이고 공평한 양질의 교육을 보장하고, 모두를 위한 평생 학습 기회를 증진하기 위해 지속적으로 노력할 준비가 돼 있다"고 말했다. 화웨이는 장기적인 디지털 포용 이니셔티브인 TECH4ALL을 통해 디지스쿨 연결 프로젝트 1단계부터 기술 평가, 솔루션 설계, 장비 공급, 프로젝트 관리를 지원해 왔다. 정부의 광섬유 네트워크 NOFBI에 연결된 화웨이의 신속 설치형 올-옵티컬 액세스 및 FTTR-B 솔루션 덕분에 대상 학교들은 고품질의 올-옵티컬 와이파이 연결, 고속 네트워크 환경을 통해 온라인 수업과 실시간 영상 수업을 진행할 수 있다. 디지스쿨 프로젝트 1단계에서는 13개 학교를 인터넷에 연결해 6000명의 학생과 교사에게 혜택을 제공했다. 1단계 평가 결과는 다음과 같이 나타났다. 학생의 98%는 인터넷이 교육적 요구를 충족한다고 응답했다. 84%는 인터넷 덕분에 학습이 더욱 흥미로워졌다고 밝혔다. 71%는 온라인 자료가 복잡한 개념을 이해하는 데 도움이 된다고 말했다. TECH4ALL 소개 TECH4ALL은 화웨이의 장기적인 디지털 포용 이니셔티브이자 실행 계획이다. 혁신적인 기술과 파트너십을 기반으로 하는 TECH4ALL의 목표는 디지털 세계에서 포용성과 지속 가능성을 실현하는 것이다. 화웨이 TECH4ALL 웹사이트: https://www.huawei.com/en/tech4all 엑스(X)에서 팔로우: https://x.com/HUAWEI_TECH4ALL

2025.03.18 17:10글로벌뉴스

"딥시크보다 작고 더 강하다"…LG, 엔비디아 GTC서 '엑사원 딥'으로 AI 시장 재편

LG AI연구원이 추론 인공지능(AI) 모델을 오픈소스로 자체 개발해 고성능 AI 연구·개발 분야에서 글로벌 경쟁력을 증명했다. LG AI연구원은 18일 미국 캘리포니아주 새너제이에서 열린 엔비디아 개발자 콘퍼런스(GTC)에서 '엑사원 딥'을 소개하고 오픈소스 플랫폼을 통해 모델을 배포했다. 이 모델은 글로벌 오픈소스 AI 플랫폼 허깅페이스(Hugging Face)를 통해 다운로드할 수 있으며 다양한 성능 평가 데이터도 동시에 공개됐다. '엑사원 딥'은 기존 AI와 달리 단순한 지식 기반이 아니라 스스로 가설을 세우고 이를 검증하는 방식으로 문제를 해결하는 에이전틱(Agentic) AI 개념을 적용한다. 현재 미국 오픈AI·구글, 중국 딥시크·알리바바 등 소수의 기업만이 자체 추론 AI를 보유한 상태로, LG AI연구원의 이번 발표는 글로벌 AI 패권 경쟁에 본격적으로 뛰어들겠다는 선언으로 해석된다. 특히 320억 패러미터의 '엑사원 딥-32B'는 6천710억 패러미터의 딥시크 'R1'에 비해 5% 밖에 되지 않는 규모만으로도 최고 수준의 성능을 기록했다. 한국어 강점을 기반으로 지난해 수능 수학 영역에서 94.5점의 최고점을 기록했으며 선택과목인 확률과 통계, 미적분, 기하에서도 1등급을 달성했다. 또 수학(MATH)-500 테스트에서 95.7점을 받으며 수학적 논리 추론 능력을 입증했다. LG AI연구원은 '엑사원 딥'의 성능 평가 데이터를 허깅페이스에 즉시 공개하며 모델의 논리적 사고력과 문제 해결 능력을 비교할 수 있도록 했다. 박사 수준의 과학 문제 해결 능력을 평가하는 GPQA 다이아몬드 테스트에서 66.1점을 기록했으며 코딩 능력을 평가하는 라이브코드벤치(LiveCodeBench)에서도 59.5점을 기록하며 경쟁력을 보였다. '엑사원 딥-32B' 외에도 경량 모델인 '엑사원 딥-7.8B'와 온디바이스 초경량 모델인 '엑사원 딥-2.4B'가 함께 공개됐다. 경량 모델은 32B 대비 24% 크기지만 성능을 95%까지 유지하고 온디바이스 모델은 7.5% 크기로도 86% 성능을 유지해 실용성과 경제성을 동시에 확보했다. 특히 온디바이스 모델은 외부 서버와의 연결 없이 기기 내부에서 데이터를 처리할 수 있어 보안성과 개인정보 보호 측면에서 강점을 지닌다. 이러한 특징은 스마트폰, 자동차, 로봇 등 다양한 산업에서 온디바이스 AI의 활용이 빠르게 증가할 것으로 전망되는 상황에서 큰 강점을 가질 것으로 전망된다. 연구원은 LG전자, LG유플러스 등 계열사와 협력해 모델을 고도화하고 온디바이스 AI 시장을 선도할 계획이다. 또 AI 기술의 경량화와 고성능 최적화를 통해 기업과 연구소에서 효율적으로 활용할 수 있도록 지속적으로 개선해 나간다는 방침이다. 이번 발표는 지난달 국가인공지능위원회에서 열린 국내 AI 산업 경쟁력 진단 간담회에서 딥시크 R1급 모델을 오픈소스로 공개하겠다고 예고한 지 단 1개월 만에 벌어진 일이다. 이에 업계에서는 빠른 개발 속도와 기술 최적화 전략을 LG의 강점으로 주목하고 있다. 실제로 미국의 비영리 AI 연구기관인 에포크 AI는 '엑사원 딥'을 '주목할 만한 AI 모델(Notable AI Models)'로 선정한 바 있다. LG AI연구원 관계자는 "딥시크 'R1'급 모델을 공개하겠다는 예고 후 한 달여 만에 '엑사원 딥'을 발표하게 됐다"며 "모델 크기를 줄이면서도 성능을 유지하는 것이 우리 AI 기술의 핵심"이라고 밝혔다. 구광모 LG 대표는 올해 신년사에서 "새로운 영역에 도전하고 전에 없던 가치를 만든 많은 순간들이 쌓여 지금의 LG가 됐다"며 "AI와 같은 첨단 기술을 일상에서 편리하게 사용할 수 있게 해 소중한 시간을 보다 즐겁고 의미 있는 일에 쓰는 새로운 라이프 스타일을 만들어 갈 것"이라고 강조했다.

2025.03.18 16:17조이환

신일, 대학생 서포터즈 '엔디' 모집

종합가전기업 신일전자는 브랜드 인지도 확대와 젊은 세대와의 소통 강화를 위해 대학생 서포터즈 '엔디'를 모집한다고 18일 밝혔다. 신일은 2021년 대학생 서포터즈 웨디를 운영한 이후 4년 만에 서포터즈 프로그램을 재개한다. 이번 서포터즈는 신일의 공식 캐릭터 '웨디 프렌즈' 중 하나인 엔디의 이름을 활용했다. 에코를 모티브로 한 캐릭터로 친환경적인 이미지를 갖고 있다. 모집 대상은 신일을 비롯한 기업과 소비자간 거래(B2C) 브랜드 마케팅에 관심이 있고, 홍보·마케팅 분야로 진출을 꿈꾸는 대학생이다. 총 5명을 선발한다. 신청은 신일전자 공식 이메일을 통해 접수할 수 있다. 접수 기간은 오는 31일까지다. 최종 선발 결과는 4월 14일 개별 통보되며, 선발된 서포터즈는 4월 16일부터 6월 17일까지 약 2개월 동안 활동하게 된다. 서포터즈로 선발된 인원은 신일의 브랜드 홍보 콘텐츠 기획 및 제작, SNS 마케팅 활동, 브랜드 홍보 아이디어 기획 등 다양한 프로젝트에 참여하게 된다. 수료 인증서와 우수 활동자 시상도 진행될 예정이다. 신일전자 관계자는 "MZ세대와의 접점을 넓혀 다양한 연령층의 소비자에게 더욱 친숙한 브랜드가 되기 위해 서포터즈를 운영하게 됐다"며 "창의적인 아이디어를 바탕으로 브랜드 홍보에 참여할 열정 있는 지원자들의 많은 관심을 바란다"고 전했다. 한편 신일은 올해 엔디 서포터즈를 시작으로 웨디 프렌즈 캐릭터를 활용한 서포터즈를 정기적으로 운영할 계획이다.

2025.03.18 15:54신영빈

GC녹십자 美관계사 '큐레보', 1억1천만 달러 규모 시리즈B 투자 유치

GC녹십자(는 미국 관계사 큐레보(Curevo Vaccine)가 대상포진 백신 '아메조스바테인'(Amezosvatein, 프로젝트명:CRV-101) 개발을 위한 1억1천만 달러 규모의 시리즈B 투자 유치에 성공했다고 18일 밝혔다. 이번 자금 조달은 백신 투자 경험이 풍부한 유럽 생명과학 전문 벤처캐피탈 메디치(Medicxi)의 주도로, 오비메드(OrbiMed), HBM 헬스케어 인베스터스(HBM Healthcare Investors), 사노피 벤처스(Sanofi Ventures) 등이 참여했다. 회사 측은 설립 투자자인 GC녹십자를 포함한 기존 투자자들의 적극적인 후속 투자와 다수의 신규 투자자 합류로 성공적인 자금 유치가 이뤄졌다며, 바이오 신약 투자 심리가 오랜 기간 얼어붙었던 가운데 이번 투자 라운드에서 이례적으로 백신 분야의 최고 전문가들이 합류한 것은 큐레보의 혁신성과 성장 가능성을 높이 평가받은 결과라고 설명했다. 조지 시몬(George Simeon) 큐레보 대표는 “이번 투자금은 성공적인 결과가 확인된임상 2상의 투여 대상 환자군을 확장하기 위한 연구에 쓰일 것“이라며 “70세 이상의 성인을 포함한 640명의 참가자를 올해 중순부터 모집해 임상 3상의 최적 용량을 결정할 예정”이라고 말했다. 큐레보 이사회에 새롭게 합류한 몬세프 슬라위(Moncef Slaoui) 박사는 “큐레보와의 협력으로 뛰어난 효능에 우수한 내약성까지 갖춘 최적의 대상포진 백신 개발에 참여할 수 있어 기쁘다”며 “임상 데이터를 통해 큐레보의 면역증강제(Adjuvant) 기술이 아주 중요한 역할을 하고 있음을 알 수 있다”고 밝혔다. 슬라위 박사는 30년 가까이 GSK에 근무하며 싱그릭스(대상포진), 서바릭스(자궁경부암), 로타릭스(로타바이러스), 신플로릭스(폐렴구균) 등 수많은 백신 개발에 기여했다. 코로나19 팬데믹 기간에는 미국 정부가 코로나19 백신 개발을 주도하기 위해 출범시킨 오퍼레이션 워프 스피드(Operation Warp Speed)의 수석 과학 고문으로서 SARS-CoV-2 바이러스 백신 개발에도 참여한 바 있다. 감염병 분야의 많은 투자 경험이 있는 메디치의 공동 창립자이자 파트너인 지오반니 마리기(Giovanni Mariggi) 박사도 “환자 및 의료 종사자를 포함한 글로벌 시장에서 더 우수한 대상포진 백신인 아메조스바테인을 환영하게 될 것”이라며 “큐레보를 지원할 수 있게 되어 기쁘다”고 전했다. 전 모더나의 최고 의료 책임자로서 SARS-CoV-2 바이러스에 대한 mRNA 백신 개발을 이끌었던 오비메드의 탈 자크(Tal Zaks) 박사는 “아메조스바테인은 기존 백신보다 우수한 내약성을 가짐과 동시에 생물학적 위험을 줄일 수 있어 대상포진 예방 백신의 첫번째 선택 옵션이 될 수 있을 것”이라고 말했다. 허은철 GC녹십자 대표는 “큐레보의 설립 목적은 고령층의 대상포진 예방 백신에 대한 미충족된 수요(unmet needs)를 해결하고자 한 노력의 일환이었다”며 “이번 시리즈B의 공동 투자자로 참여함으로써 큐레보에 대한 지원을 지속해 나갈 것”이라고 말했다.

2025.03.18 11:31조민규

롯데百 영플라자, 내달부터 전면 리뉴얼

롯데백화점이 다음 달부터 본점 영플라자 전면 개보수 공사에 돌입한다고 18일 밝혔다. 롯데백화점은 명동 상권의 장점을 살려 글로벌 젠지(Gen-Z) 고객들의 발길을 이끌 패션, F&B, 아트 등을 총망라한 'K-콘텐츠' 전문관 조성을 비롯해 '롯데타운 명동'의 경쟁력 강화 방안을 검토할 예정이다. 이를 위해 영플라자는 오는 31일까지 영업 종료 및 매장 정리 작업을 마치고, 4월부터 공사에 본격 착수한다. 영플라자는 기존 '미도파백화점(메트로미도파점)'을 롯데백화점이 2002년 인수해 이듬해 '영플라자'라는 새로운 브랜드로 오픈한 점포다. 오픈 당시 젊은 고객들을 타깃으로 패션 카테고리를 특화한 새로운 컨셉의 매장이라는 점에서 큰 화제를 모았다. 이후 영플라자는 '영' 컨셉은 유지하면서 시대의 변화에 따라 글로벌 SPA, 온라인 기반 패션 브랜드, IP콘텐츠 등을 지속적으로 선보였다. 롯데백화점은 '영플라자'의 이러한 위치적 장점을 살리면서 본점의 본관, 에비뉴엘관과 시너지를 낼 수 있는 다양한 방안을 모색할 예정이다. 한편 롯데백화점은 강북 상권을 대표하는 '롯데타운 명동' 완성을 위해 본점의 경쟁력 강화를 노력하고 있다. 본관은 2019년 프리미엄 리빙관(8F) 조성에 이어 2021년부터 리뉴얼을 시작해 ▲남성해외패션관 ▲여성패션관 ▲식품관 ▲뷰티관 ▲스포츠&레저관 ▲키즈관을 차례로 오픈했다. 올해 하반기에는 신진 디자이너 중심의 K패션 전문관 '키네틱 그라운드'를 선보일 예정이다. 본점의 에비뉴엘관 역시 리뉴얼을 준비 중이다. 김종환 롯데백화점 본점장은 “2027년 말 강북 상권 최고의 쇼핑·관광·문화 지역으로 자리잡게 될 '롯데타운 명동'을 기대해 달라”고 말했다.

2025.03.18 10:50김민아

"주가 하락 막자"…롯데이노베이트 경영진 19명, 4억원 규모 자사주 매입

김경엽 롯데이노베이트 대표를 비롯해 경영진 19명이 자사주 매입을 통해 책임 경영 실천에 나섰다. 롯데이노베이트는 최근 경영진 19명이 약 4억원 규모의 자기회사 주식을 매입하며 주주가치 제고에 나섰다고 18일 밝혔다. 이는 최근 롯데이노베이트의 주가가 계속 우하향하는 모습을 보이고 있어서다. 실제 롯데이노베이트는 지난해 1월 26일 5만3천900원으로 52주 최고가를 달성한 후 꾸준히 하락세를 보여 이날 기준 주가가 1만9천580원에 머물고 있다. 1년 전에 비해선 주가가 45.8% 내렸다. 특히 지난해 4월 25일 주주가치 제고를 목적으로 주식매수청구권 행사를 통한 자기주식 소각을 진행하는 감자(자본금 감소)를 결정했음에도 주가는 회복하지 못하는 모습을 보였다. 당시 롯데이노베이트가 소각한 주식은 2019년 현대정보기술 흡수합병 과정에서 발생한 보통주 26만6천964주(주당 액면가 5천원)다. 이에 롯데이노베이트는 지난해 10월 29일 '2024 기업가치 제고 계획'을 발표하며 분위기 전환에 나섰다. 우선 기업가치 제고를 위해 오는 2028년까지 'A·B·C(인공지능, 빅데이터, 클라우드) 플랫폼'을 기반으로 연평균 10% 이상 매출 성장을 이루는 한편, 모빌리티·메타버스 등 신규 사업 매출 비중을 20%까지 늘린다는 방침을 내세웠다. 또 배당성향을 30% 이상 추진하며 적극적으로 주주환원 정책에 나서는 동시에 향후 지배구조 핵심 지표를 현재 53.3%에서 86.7%까지 개선키로 했다. 그럼에도 불구하고 주가가 더 떨어지는 모습을 보이자 롯데이노베이트는 최근 새로운 대표 선임과 조직 개편 등 고강도 쇄신을 통해 경영 체질을 본질적으로 혁신하기 위해 나섰다. 또 새로운 먹거리 발굴을 위해 지난해 4월에는 미국 캘리포니아주에 '이브이시스 아메리카(EVSIS America)'를 설립하고 하반기부터 가동을 시작했다. 더불어 지난해 8월 초실감형 메티버스 칼리버스를 본격 론칭한 후 두 차례 대규모 업데이트를 진행하며 글로벌 진출과 함께 신사업 강화에도 적극 나서고 있다. 앞으로도 롯데이노베이트는 기존 사업들과 새로운 IT 트렌드에 부합하는 사업 모델을 발굴하며 인공지능(AI), 빅데이터, 클라우드, 메타버스, 모빌리티 등 다양한 기술력을 기반으로 고객의 비즈니스 전환을 이끌고 기업의 경쟁력을 높일 계획이다. 롯데이노베이트 관계자는 "이번 자기회사 주식 매입은 기업가치 제고에 대한 확신을 투자자분들께 전달하고 미래 성장에 대한 경영진의 책임경영을 강화화기 위해 전 임원이 뜻을 모았다"며 "향후에도 주주가치 제고를 위해 다양한 방안을 모색할 것"이라고 말했다.

2025.03.18 09:15장유미

오늘의집, '기계식 키보드 브랜드 빅세일' 진행

오늘의집은 오는 23일까지 '기계식 키보드 브랜드 빅세일'을 진행한다고 18일 밝혔다. '기계식 키보드 브랜드 빅세일'에는 AULA, 키크론, YUNZII(윤지), 앱코, 한성, SPM, QSENN, 레이저(RAZER), 콕스(COX), 라이프썸, 엑토, 몬스타기어 등 기계식 키보드를 대표하는 20개 주요 브랜드가 참여한다. 디자인에 타건감은 기본, 성능까지 좋은 인기 상품을 한데 모아 특가에 판매한다. 오늘의집은 고객이 자신의 취향에 맞춰 원하는 상품을 빠르게 찾을 수 있도록 타건감 별로 테마를 나눠 상품을 선보인다. 먼저 '또각또각 조약돌 소리' 테마관에서는 깔끔한 타건감을 자랑하는 상품들을 소개한다. 대표 상품으로는 한성의 GK898B PRO 시리즈, 라이프썸의 슬림 블루투스 키보드, 긱스타의 GK01 멤브레인 키보드 핑크, 로이체의 펜타그래프 슬림 저소음 무선 키보드 등이 있다. '쉿! 소음 없는 키보드' 테마관에서는 흡음 구조로 부드러운 타건감을 뽐내는 상품들로 꾸렸다. AULA의 F108 유무선 독거미 키보드, 키크론의 K10 화이트 알루미늄 키보드, 콕스의 CMK87R 자석축 래피드 트리거, 산리오 캐릭터즈 키보드 등이 있다. 온종일 함께하는 상품인 만큼 디자인 요소를 중요시하는 고객을 위한 '나만의 예쁜 키보드 꾸미기' 커스텀 테마관도 있다. 귀여운 고양이들로 가득한 몬스타기어의 고양이 집사 키캡, 레트로한 타자기의 디테일을 살린 엑토의 레트로 키보드 등이 있다. 스페셜 할인 혜택도 마련했다. 고객이 알뜰한 쇼핑을 즐길 수 있도록 상품별 최대 54% 할인 쿠폰 및 최대 10% 장바구니 할인 쿠폰을 제공한다. 또 브랜드 빅세일 기간 중 카카오페이와 토스페이로 결제할 경우 최대 10만원 한도 내에서 7% 추가 할인, NH카드로 결제 시 최대 5만원 한도 내에서 10% 할인이 적용된다. 오늘의집 관계자는 “지난 2월 진행된 아이파크몰 키보드 페스티벌을 비롯해 3월 21일부터 '제2회 서울 기계식키보드 박람회'가 잇따라 개최되는 등 기계식 키보드에 대한 관심이 많아지고 있는 상황”이라며 “다양한 상품을 합리적인 가격에 만나볼 수 있는 '기계식 키보드 브랜드 빅세일'을 통해 고객이 자신에게 꼭 맞는 타건감과 디자인을 보유한 키보드를 만나는 경험을 누리시길 바란다”고 말했다.

2025.03.18 09:10안희정

카이스트, LLM 학습시간 예측 모델 개발… AI 훈련 비용 5% 절감

GPU 활용률 10% 저하로 훈련 비용 수백만 달러 증가, vTrain으로 해결책 제시 대규모 언어 모델(LLM)이 다양한 응용 분야에서 널리 보급됨에 따라 인공지능 커뮤니티가 직면한 중요한 과제는 이러한 대규모 AI 모델을 비용 효율적인 방식으로 훈련하는 방법이다. 기존의 LLM 훈련 계획은 일반적으로 LLM 병렬화 공간에 대한 철저한 검토보다는 경험적 관찰에 기반한 휴리스틱 기반 병렬 훈련 전략을 채택한다. 이러한 한계로 인해 기존 시스템은 상당한 성능 향상의 여지를 남겨두게 되며, 수백만 달러에 달하는 훈련 비용이 낭비된다. 예를 들어, 1,024대의 NVIDIA A100 GPU를 사용하여 GPT-3(175B 매개변수)를 훈련할 때, GPU 컴퓨팅 활용률이 단지 10%(50%에서 40%로) 감소하더라도 훈련 시간이 8일 증가하여 수백만 달러의 추가 비용이 발생한다. 그러나 이러한 대규모 LLM을 훈련해야 하는 규모 때문에 훈련 시스템 구성의 설계 공간을 철저히 탐색하여 가장 최적의 비용 효율적인 하이퍼파라미터를 찾는 것은 극히 어려운 일이다. 수십 분 내 최적 훈련 전략 도출하는 vTrain의 혁신적 시뮬레이션 기술 카이스트가 발표한 논문에 따르면, 비용 효율적이고 컴퓨팅 최적의 LLM 훈련 시스템 평가를 안내하는 프로파일링 기반 시뮬레이터인 vTrain은 해당 문제를 해결하는 데 도움이 된다. vTrain은 AI 실무자들에게 효율적이고 비용 효율적인 LLM 훈련 시스템 구성을 결정하기 위한 빠르고 정확한 소프트웨어 프레임워크를 제공한다. vTrain의 핵심 특징은 프로파일링 기반 방법론을 사용하여 각 설계 지점의 LLM 훈련 시간을 정확하게 추정하는 것이다. 이는 고성능 멀티코어 CPU 서버에서 몇 십 분 내에 최적의 LLM 훈련 시스템 구성을 결정할 수 있게 한다. vTrain의 설계는 LLM 훈련 시간을 정확하게 추정할 수 있게 하는 다음과 같은 핵심 관찰에 기반한다. 첫째, 최신 AI 알고리즘은 각 그래프 노드가 신경망 레이어를 나타내는 비순환 그래프로 표현된다. 둘째, LLM 추론과 달리, 훈련을 위한 LLM 그래프 노드의 실행 순서는 컴파일 시간에 정확하게 정의되므로 vTrain은 얼마나 많은 LLM 그래프 노드를 실행해야 하는지와 그 실행 순서를 정적으로 결정할 수 있다. 셋째, 대상 GPU 아키텍처에서 각 개별 LLM 그래프 노드(각 레이어)의 실행 시간은 매우 결정적이며 서로 다른 실행 간에 거의 변동이 없다. 경험적 방식 대비 10% 적은 GPU로 5% 비용 절감, vTrain의 사례 연구 vTrain의 실용성을 입증하기 위해 여러 사례 연구를 실시했다. 첫 번째 사례는 비용 효율적인 LLM 훈련 계획이다. 주어진 LLM, 훈련 토큰 크기 및 컴퓨팅 예산(즉, 총 GPU 수)이 주어졌을 때, 벽시계 훈련 시간과 그에 관련된 훈련 비용을 최소화하는 가장 최적의 훈련 병렬화 전략을 결정할 수 있다. 두 번째는 비용 효율적인 멀티테넌트 LLM 스케줄링으로, 여러 LLM 훈련 작업이 GPU 클러스터를 공유할 때, GPU 활용률을 최대화하면서 작업 완료 시간을 최소화하는 효율적인 스케줄링 알고리즘을 식별할 수 있다. 세 번째는 컴퓨팅 최적의 LLM 모델 설계로, 고정된 컴퓨팅 및 훈련 시간 예산이 주어졌을 때, Chinchilla 스케일링 법칙을 만족하는 가장 큰 LLM을 결정할 수 있다. 예를 들어, MT-NLG(530B) 모델 훈련에서 vTrain은 기존 방식보다 10% 적은 GPU를 사용하면서 4.5% 높은 GPU 활용률을 달성하고, 훈련 비용을 5% 절감하는 훈련 계획을 도출했다. 텐서, 데이터, 파이프라인 병렬화의 최적 조합으로 LLM 훈련 효율성 극대화 현대 LLM 훈련은 최첨단 3D 병렬화 방식(데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화)을 적용한다. 이는 LLM과 같은 거대한 AI 모델을 분할하여 여러 GPU에서 효율적으로 학습시키기 위한 전략이다. 텐서 병렬화는 모델 가중치를 GPU 내에서 열과 행 차원으로 나누어 같은 노드 내 GPU 간에 고대역폭 통신을 활용한다. 데이터 병렬화와 파이프라인 병렬화는 주로 노드 간 병렬화에 사용되며, 상대적으로 통신 오버헤드가 적다. vTrain은 이러한 복잡한 병렬화 전략의 성능을 정확하게 모델링하고, 최적의 구성을 찾아내어 GPU 활용률을 높이고 훈련 비용을 최소화할 수 있다. 145억에서 76억 매개변수로: vTrain으로 발견한 30일 내 훈련 가능한 현실적 모델 크기 Chinchilla 스케일링 법칙에 따르면, 주어진 컴퓨팅 예산 내에서 최적의 모델 크기와 훈련 토큰 수 사이에는 균형이 필요하다. 단순히 모델 크기만 키우는 것은 과소훈련으로 이어져 알고리즘 성능을 완전히 활용하지 못한다. GPU 효율성에 대한 현실적인 평가 없이 단순히 가용 GPU 수만으로 컴퓨팅 예산을 결정하면 오해의 소지가 있다. vTrain은 실제 GPU 활용률을 고려하여 보다 현실적인 컴퓨팅 최적 모델 크기를 도출할 수 있다. 예를 들어, 420개의 NVIDIA DGX A100 서버(3,360 A100 GPU)를 30일 동안 사용한다고 가정할 때, 단순히 100% GPU 활용률을 가정하면 1,456억 매개변수의 모델을 2,912억 토큰으로 훈련할 수 있다고 예상할 수 있다. 그러나 vTrain은 실제로는 평균 35.56%의 GPU 활용률만 달성 가능하며, 이는 원래 기대했던 30일 대신 85일의 훈련 시간이 필요함을 보여준다. vTrain을 사용하면 760억 매개변수의 모델을 1,521억 토큰으로 30일 내에 훈련할 수 있는 더 현실적인 계획을 수립할 수 있다. FAQ Q: 대규모 언어 모델 훈련에서 GPU 활용률이 왜 그렇게 중요한가요? A: GPU 활용률은 훈련 시간과 비용에 직접적인 영향을 미칩니다. vTrain의 연구에 따르면 GPU 활용률이 단 10% 감소하더라도(50%에서 40%로) 훈련 시간이 8일 증가하며, 이는 수백만 달러의 추가 비용을 의미합니다. 따라서 최적의 병렬화 전략을 통한 GPU 활용률 최적화는 비용 효율적인 LLM 훈련에 필수적입니다. Q: vTrain은 어떻게 기존 LLM 훈련 방식보다 더 효율적인 방법을 찾아낼 수 있나요? A: vTrain은 프로파일링 기반 시뮬레이션을 통해 수천 가지의 가능한 병렬화 구성을 빠르게 평가하여 최적의 훈련 계획을 도출합니다. 기존 방식은 경험적 관찰에 기반한 휴리스틱에 의존하지만, vTrain은 전체 설계 공간을 체계적으로 탐색하여 GPU 활용률과 훈련 시간 사이의 최적 균형점을 찾아냅니다. Q: Chinchilla 스케일링 법칙이란 무엇이며 LLM 훈련에 어떤 영향을 미치나요? A: Chinchilla 스케일링 법칙은 주어진 컴퓨팅 예산 내에서 모델 크기와 훈련 토큰 수를 균형있게 확장해야 한다는 원칙입니다. 이 법칙에 따르면, 모델을 과소훈련하면 해당 모델의 알고리즘 잠재력을 완전히 발휘할 수 없습니다. vTrain은 실제 GPU 효율성을 고려하여 이 법칙을 적용함으로써, 주어진 시간과 자원 내에서 훈련할 수 있는 최적의 모델 크기와 토큰 수를 더 정확하게 예측할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:48AI 에디터

  Prev 21 22 23 24 25 26 27 28 29 30 Next  

지금 뜨는 기사

이시각 헤드라인

‘AI 컨트롤타워’ 과기정통부, 부총리급 격상 논의

배달앱 수수료 탓하는 프랜차이즈...가맹점 상생에는 '뒷짐'

과거의 집 북촌에 둥지 튼 '오늘의집' 첫 쇼룸 가보니

EUV 공정서 수천억 손실 막는다...반도체 '톱5' 중 4곳이 쓴다는 '이것'

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.