• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'h 구글찌라시ち(SENSGOO)ち구글찌라시'통합검색 결과 입니다. (1324건)

  • 영역
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

한전, 전기요금 2분기 동결

2분기 전기요금이 동결됐다. 한국전력은 21일 연료비 조정단가를 지난 1분기와 같은 1kWh 당 5원으로 확정했다고 밝혔다. 연료비 조정단가는 해당 분기 직전 3개월간의 유연탄·액화천연가스(LNG) 등 연료비 변동 상황에 따라 -5원에서 +5원까지 10원의 범위에서 전기요금에 탄력적으로 반영된다. 연료비 조정단가는 2022년 3분기부터 8개 분기 연속 1㎾h당 5원 적용이 유지돼 왔다. 한전 관계자는 “정부에서 2분기 연료비조정단가는 한전의 재무상황과 연료비조정요금 미조정액이 상당한 점 등을 고려해 1분기와 동일하게 1㎾h당 5원을 계속 적용할 것을 통보했다”고 전했다. 정부는 한전에 2분기 연료비조정단가 시행에 차질이 없도록 하고, 한전 경영 정상화를 위한 자구노력도 철저히 이행할 것을 주문했다.

2024.03.21 13:29주문정

현대백화점, 봄 맞아 갤러리로 변신…전 점 예술 조형물 전시

현대백화점이 본격적인 봄을 맞아 갤러리로 변신한다. 백화점을 볼거리가 가득한 '아트테인먼트' 콘텐츠로 채워 고객들에게 새로운 경험을 제공하겠다는 취지다. 현대백화점은 다음달 30일까지 압구정본점 등 전국 16개 전 점포에서 '어웨이큰 더 시즌(Awaken the Season)'을 주제로 '봄'과 '시작'에 관련된 다양한 예술 조형물과 전시를 진행한다고 21일 밝혔다. 더현대 서울 5층 에픽 서울에서는 다음달 7일까지 아트 플랫폼 하입앤에서 진행하는 '드로잉 가든(Drawing Garden)' 전시를 선보인다. 행사에는 유명 신진 작가 '노마'와 '드로잉메리'의 일러스트 원화가 전시되며, 스티커·그립톡 등 작품을 활용해 제작한 굿즈 상품도 판매된다. 이와 함께 23일과 30일 오후 5시에는 작가의 작업 과정을 실제로 볼 수 있는 '라이브 드로잉' 이벤트가 진행된다. 판교점에서는 오는 5월 19일까지 3~4층에 대형 조각 예술 작가 캔 캘러 '가든 오브 드림스(Garden of Dreams)'를 설치한다. 조형물은 여러가지 색깔의 꽃을 형상화하는 디자인으로 판교점을 위해 특별 제작했다. 무역센터점에서는 다음달 19일부터 28일까지 '2024년 디아프(Diaf) 프리뷰' 전시를 진행해 대한민국 3대 아트페어 디아프에서 선보일 예정인 트렌디한 국내외 주요 원화 작품 100여 점을 미리 만나볼 수 있는 특별전을 진행한다. 이외에도 미아점에서는 오는 30일까지 갤러리H에서 소윤아 작가 개인전 '스프링 블로썸'을, 중동점에서는 다음달 14일까지 고은주 작가 '화양연화'와 이훈상 작가 '비밀의 화원'을 선보인다. 현대백화점이 이같이 아트테인먼트 콘텐츠를 확대하는 것은 최근 패션과 예술 등 다양한 분야 간의 경계가 모호해지며 예술을 즐기는 젊은 고객이 많아지고 있기 때문이다.현대백화점은 고객이 일상 속에서 다양한 문화예술을 체험할 수 있는 공간을 만들고자 했다. 현대백화점 관계자는 "다가오는 봄을 맞아 점포별로 특색 있는 다양한 아트 콘텐츠를 준비해 고객들의 눈과 마음을 즐겁게 하고자 한다"며 "앞으로도 현대백화점을 방문한 고객들이 즐겁고 편안하게 문화예술 콘텐츠를 즐길 수 있도록 다양한 아트테인먼트 콘텐츠를 선보일 계획"이라고 말했다. 한편, 현대백화점은 올 초 고객에게 예술 경험을 제공하겠다는 의지를 담아 '더 아트풀 현대(The Artful HYUNDAI)'를 아트 마케팅 캐치프레이즈로 선정해 점포별 특성에 맞는 다양한 예술 작품을 전시, 판매하고 있다.

2024.03.21 10:08최다래

데이터브릭스-엔비디아, 기술 통합 강화

데이터브릭스는 엔비디아와 협력을 확대하고 기술 통합을 강화한다고 21일 밝혔다. 엔비디아 GTC 2024 컨퍼런스에서 양사는 데이터브릭스의 데이터 인텔리전스 플랫폼의 데이터 및 AI 워크로드 최적화에 박차를 가할 계획이라고 강조했다. 이 협력은 최근 엔비디아가 데이터브릭스 시리즈I 투자에 참여한 것의 연장선이다. 데이터브릭스 모자이크 AI와 엔비디아는 데이터브릭스의 엔드투엔드 플랫폼에서의 생성형 AI 모델 구축과 배포를 향상하기 위해 모델 훈련 및 추론 분야에서 협력할 방침이다. 데이터브릭스는 데이터 및 모델 전반에 대한 완벽한 제어와 거버넌스는 물론, 생성형 AI 솔루션을 구축, 테스트 및 배포하기 위한 포괄적인 툴 세트를 제공한다. 데이터브릭스 모자이크 AI는 생성형 AI 모델 훈련을 위해 대형 언어 모델(LLM) 개발에 최적화된 엔비디아 H100 텐서 코어 GPU를 사용한다. 이로써 모자이크 AI는 엔비디아 가속 컴퓨팅의 성능을 활용하고, 고객을 위해 LLM을 커스터마이징할 수 있는 효율적이며 확장 가능한 플랫폼을 제공할 수 있게 된다. 한편, 데이터브릭스는 모델 배포를 위해 스택 전반에서 엔비디아 가속 컴퓨팅 및 소프트웨어를 활용한다. 데이터브릭스 모자이크 AI 모델 서빙의 핵심 구성 요소는 최첨단 성능을 제공하고 솔루션의 비용 효율성, 확장성 및 성능을 보장하는 엔비디아 텐서RT-LLM 소프트웨어다. 모자이크 AI는 텐서RT-LLM의 출시 파트너로서 엔비디아 팀과 긴밀한 기술 협력을 이어왔다. 데이터브릭스는 자사의 벡터화된 차세대 쿼리 엔진인 포톤에서 엔비디아 가속 컴퓨팅에 대한 기본적인(native) 지원을 제공하고, 이로써 고객의 데이터 웨어하우징 및 분석 워크로드의 속도와 효율성을 개선한다는 계획이다. 포톤은 업계 최고 수준의 가격 대비 성능과 총소유비용(TCO)을 자랑하는 데이터브릭스의 서버리스 데이터 웨어하우스인 데이터브릭스 SQL을 구동하고 있다. 데이터 쿼리 처리를 위해 GPU를 사용하는 데이터브릭스 고객이 늘어나는 가운데, 양사의 협력은 이러한 성장을 더욱 가속화할 것으로 기대된다. 데이터브릭스 머신러닝은 엔비디아 GPU를 포함하는 사전 구축된 딥러닝 인프라를 제공하며, ML용 데이터브릭스 런타임에는 드라이버와 라이브러리 등 사전 구성된 GPU 지원이 포함되어 있다. 사용자는 이러한 툴을 통해 적합한 엔비디아 인프라를 기반으로 신속하게 작업을 시작할 수 있을 뿐만 아니라, 사용자 간 일관된 환경을 유지할 수 있다. 데이터브릭스는 3대 주요 클라우드에서 엔비디아 텐서 코어 GPU를 지원해, ML 워크로드를 위한 고성능 단일 노드 및 분산 훈련을 지원한다. 데이터브릭스와 엔비디아는 데이터 인텔리전스 플랫폼의 모멘텀을 강화해 보다 다양한 조직이 품질, 속도 및 민첩성을 갖춘 차세대 데이터 및 AI 애플리케이션을 개발할 수 있도록 지원해 나갈 계획이다. 알리 고드시 데이터브릭스 공동창립자 겸 CEO는 “이번 파트너십 확장으로 엔비디아의 가속 컴퓨팅 및 소프트웨어를 통해 데이터브릭스의 워크로드를 가속화하고 고객에 보다 많은 가치를 제공할 수 있게 돼 기쁘다"며 “엔비디아는 분석 사용 사례에서 AI에 이르기까지 데이터브릭스의 기본 모델 이니셔티브를 다수 지원해 왔다"고 밝혔다. 그는 "쿼리 가속화를 위한 상호 협력을 통해 더 많은 기업에게 가치를 입증할 수 있을 것으로 기대한다”고 덧붙였다. 젠슨 황 엔비디아 창립자 겸 CEO는 “AI 시대에서 기업이 보유하고 있는 데이터는 인텔리전스를 도출하는 데 필요한 매우 중요한 자산"이라며 “엔비디아와 데이터브릭스는 효율성을 개선해 더욱 우수한 인사이트와 결과를 얻고자 하는 기업을 위해 데이터 처리를 가속화하고, 이로써 AI의 개발과 배포를 향상할 수 있다"고 강조했다.

2024.03.21 09:35김우용

美 마이크론 호실적에 '어닝 서프라이즈'…삼성·SK도 기대감↑

미국 주요 메모리업체 마이크론이 실적 발표를 통해 '어닝 서프라이즈'를 기록했다. 메모리 가격의 반등, AI 산업에 따른 메모리 수요 증가 등이 호재로 작용했다. 마이크론의 실적은 삼성전자, SK하이닉스 등의 실적을 미리 가늠할 수 있는 지표로 작용한다. 이에 국내 메모리업계도 올 1분기 예상보다 견조한 실적을 달성할 것이라는 기대감이 나온다. 마이크론은 회계연도 2024년 2분기(2024년 2월 말 종료) 매출로 58억2천만 달러(한화 약 7조7천400억원)를 기록했다고 21일 밝혔다. 이번 매출은 전분기 대비 23.2%, 전년동기 대비 57.7% 가량 증가한 수치다. 영업이익은 1억9천만 달러로 전분기 및 전년동기 대비 모두 흑자전환했다. 주당순이익은 42센트다. 또한 마이크론은 시장의 예상치를 크게 상회했다. 당초 증권가는 마이크론이 해당 분기 매출 53억5천만 달러, 주당 영업손실 24센트를 기록할 것으로 예상해 왔다. 마이크론의 호실적은 지난해 4분기부터 본격화된 D램 가격의 반등, AI 산업 부흥에 따른 메모리 수요 증가에 따른 효과로 분석된다. 산제이 메로트라 마이크론 최고경영자(CEO)는 성명을 통해 "AI로 인해 발생할 반도체 업계 내 기회에서 마이크론은 가장 큰 수혜자 중 하나가 될 것으로 믿는다"고 밝혔다. 마이크론은 회계연도 2024년 3분기에 대해서도 긍정적인 전망을 내비쳤다. 해당 분기 매출 가이던스는 64억~68억 달러(중간값 66억 달러)로, 증권가 컨센서스인 59억9천만 달러를 크게 웃돌았다. 한편 마이크론은 최근 AI 산업용 차세대 메모리인 HBM(고대역폭메모리)의 상용화에 적극 나서고 있다. 지난달 26(현지시간)에는 "5세대 HBM인 24GB(기가바이트) 8단 HBM3E의 본격적인 양산을 시작한다"며 "해당 제품은 엔비디아가 2분기에 출시하는 GPU H200에 탑재될 예정"이라고 밝힌 바 있다.

2024.03.21 09:34장경윤

LG전자, 美 냉동공조협회 '퍼포먼스 어워드' 7년 연속 수상

LG전자가 고효율 히트펌프 기술을 기반으로 미국냉동공조협회(AHRI; Air-Conditioning, Heating & Refrigeration Institute)가 수여하는 '퍼포먼스 어워드'를 7년 연속 수상했다. AHRI는 1953년 출범한 협회로 350여 개 글로벌 에어컨 제조업체가 가입해 있다. 제품 성능을 철저하게 평가하기로 유명해 소비자들의 신뢰가 높다. AHRI는 글로벌 시험인증기관 인터텍(Intertek) 등 분야별 지정시험기관을 통해 각 제조사의 제품을 제품군별로 무작위 선정해 실제 성능이 사양과 부합하는지 엄격하게 평가한다. 평가 대상이 된 모든 제품이 최근 3년 연속 1차 성능평가를 통과해야만 제품군 단위로 수여되는 퍼포먼스 어워드를 받는다. LG전자는 2018년부터 매년 이 상을 수상하며 시스템 에어컨 등 차별화된 냉난방공조 솔루션의 기술력과 품질을 인정받았다. LG전자가 이번 퍼포먼스 어워드에서 수상한 제품은 ▲대용량 시스템 에어컨(VRF) ▲공랭식 냉각시스템(ACCL) ▲수랭식 냉각시스템(WCCL) ▲소형 단일 냉난방기(USHP) ▲에너지 회수형 환기장치(ERV) ▲공기조화기(AHU) 등 6개 제품군이다. 2021년부터 2023년까지 3년간 평가 대상으로 선정된 62개 제품이 모두 성능 평가를 통과했다. LG전자 대용량 시스템 에어컨(VRF)의 대표제품인 멀티브이(Multi V)는 건물의 크기, 특징, 용도에 따라 최적의 냉난방을 구현한다. 특히 이 제품은 고효율 인버터 컴프레서로 구현한 공기열원 히트펌프 기술을 적용해 성능과 에너지효율이 우수하다. 바깥 기온이 영하 30도인 환경에서도 안정적으로 작동해 겨울철 기온이 크게 낮아지는 북미 지역에서 인기가 높다. LG전자의 에너지 회수형 환기장치(ERV)는 실내 공기를 바깥으로 배출하고 필터를 거친 깨끗한 외부 공기를 실내로 공급해 준다. 전열교환기를 탑재해 외부로 배출되는 공기의 열 손실을 대폭 줄여줘 냉난방비 절감에도 도움이 된다. 공기조화기(AHU)는 실내 냉난방과 환기, 가습 등을 제어해 실내 공기질을 효과적으로 관리해준다. LG전자 냉난방공조 제품의 차별화된 경쟁력은 핵심 부품 기술력인 '코어테크'로부터 비롯된다. LG전자는 공조 제품의 핵심 부품인 컴프레서와 모터를 자체 개발해 생산한다. 또 열교환기, 인버터, 히트 펌프 기술 등을 진화시키기 위해 적극적인 R&D 투자도 이어가고 있다. LG전자는 최근 혹한에서도 고성능을 내는 냉난방공조 제품을 연구개발하기 위해 미국 알래스카에 'LG 알래스카 히트펌프연구소'를 신설한 바 있다. LG전자 H&A사업본부 에어솔루션사업부장 이재성 부사장은 "탈탄소 및 전기화 추세에 맞춰 차별화된 히트펌프 솔루션을 앞세워 미국을 비롯한 글로벌 공조 시장을 공략해 나갈 것"이라고 말했다.

2024.03.20 10:00이나리

젠슨 황 CEO "블랙웰 칩 가격 3만~4만 달러"

엔비디아가 'GTC 2024'에서 선보인 차세대 인공지능(AI) GPU '블랙웰'(Blackwell)의 가격대가 공개됐다. 젠슨 황 엔비디아 최고경영자(CEO)는 19일(현지시간) CNBC의 '스쿼크 온 더 스트리트'(Squawk on the Street)와의 인터뷰에서 블랙웰 'B200' 칩 가격이 3만~4만 달러(약 4천만 원~5천300만원) 수준이라고 밝혔다. 그는 "우리는 그것을 가능하게 하기 위해 몇 가지 새로운 기술을 개발해야 했다"며, 해당 칩의 연구개발에 약 100억 달러(약 13조 3천800억원)의 예산이 들어갔을 것으로 추정했다. 하루 전 엔비디아는 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"며 차세대 AI GPU 블랙웰을 공개했으나 가격대는 밝히지 않았다. 엔비디아의 기존 H100은 칩당 2만5천 달러~4만 달러에 달하는 것으로 알려져 있기 때문에 블랙웰 칩의 가격도 H100과 크게 다른 수준은 아닌 것으로 보인다. IT매체 톰스가이드는 엔비디아는 가속기 자체를 공급하는 것보다 데이터센터 블록 전체를 판매하는 경향이 있기 때문에 3만~4만 달러라는 가격은 대략적인 가격이라고 평했다.

2024.03.20 09:54이정현

삼성·SK하이닉스, '12단 HBM3E' 경쟁 가열...美GTC서 실물 공개

AI 반도체 시장 성장으로 고대역폭메모리(HBM) 경쟁이 치열해진 가운데 삼성전자, SK하이닉스, 마이크론이 최신 제품인 HBM3E 실물을 나란히 공개해 주목된다. 엔비디아는 18~21일(현지시각) 3일간 미국 캘리포니아 실리콘밸리에서 연례 개발자 콘퍼런스 GTC 2024를 개최했다. GTC에는 엔비디아 협력사인 삼성전자, SK하이닉스, 마이크론 등이 전시 부스를 마련하고 최신 HBM3E 실물을 전시해 눈길을 끌었다. HBM은 여러 개 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 고성능 제품이다. HBM은 1세대(HBM)·2세대(HBM2)·3세대(HBM2E)에 이어 4세대(HBM3) 제품이 공급되고 있으며, 올해 상반부터 5세대(HBM3E) 양산이 시작된다. 엔비디아는 AI 반도체로 사용되는 그래픽처리장치(GPU) 시장에서 80% 점유율로 사실상을 독점체제를 구축하고 있기에, 메모리 시장에서 최대 고객사로 여겨진다. 이런 이유로 메모리 업체가 엔비디아 행사에서 앞다퉈 최신 HBM3E를 공개한 이유다. 삼성전자는 부스에서 D램을 12단까지 쌓은 12단 HBM3E 실물을 처음으로 공개했다. 삼성전자는 HBM 시장에서 SK하이닉스에 뒤쳐졌다는 평가를 인식한듯 지난달 27일 업계에서 처음으로 12단 HBM3E 샘플을 고객사에 제공하기 시작했다고 공식 발표한 바 있다. 삼성전자에 따르면 12단 HBM3E는 초당 최대 1280GB의 대역폭과 36GB 용량을 제공해 성능과 용량 모두 전작인 8단 HBM3 대비 50% 이상 개선된 제품이다. 삼성전자는 '어드벤스드 TC NCF'(Thermal Compression Non Conductive Film, 열압착 비전도성 접착 필름) 기술로 12단 제품을 8단 제품과 동일한 높이로 구현했다. NCF 소재 두께는 업계 최소 칩간 간격인 '7마이크로미터(um)'다. SK하이닉스도 지난 1월 CES 2024에서 처음으로 12단 HBM3E 실물을 전시한데 이어 이번 GTC에서도 공개했다. SK하이닉스 또한 지난달 엔비디아에 12단 HBM3E 샘플을 공급을 시작한 것으로 알려진다. 이에 더해 SK하이닉스는 GTC 행사 첫날 업계 최초로 8단 HBM3E 양산을 시작했다고 공식적으로 알리며 시장 우위를 강조했다. SK하이닉스의 8단 HBM3E는 엔비디아 'H200' GPU에 공급된다. SK하이닉스는 가장 먼저 HBM3 양산과 동시에 엔비디아에 독점 공급권을 따내면서 HBM 시장에서 선두를 달려왔다. 이날 SK하이닉스는 경쟁사인 삼성전자와 달리 적층에 어드밴스드 MR-MUF(매스 리플로우-몰디드 언더필) 공정을 적용해, 열 방출 성능을 이전 세대(HBM3) 대비 10% 향상시켰다는 점도 내세웠다. MR-MUF는 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 액체 형태의 보호재를 공간 사이에 주입하고 굳히는 공정이다. 마이크론 또한 GTC에서 8단 HBM3E를 전시했다. 후발주자인 마이크론은 HBM3을 건너 뛰고 지난달 27일 8단 HBM3E 양산을 시작했다고 밝히며 “해당 HBM3E는 엔비디아가 2분기에 출시하는 GPU H200에 탑재될 예정"이라고 전했다. 아울러 마이크론도 이달부터 엔비디아에 12단 HBM3E 샘플을 공급한다. 한편, 엔비디아는 올해부터 GPU에 HBM3E를 탑재한다. 엔비디아는 올해 2분기 말에 출시되는'H200'에는 HBM3E 6개를 탑재되고, 하반기에 출시하는 'B100'에는 HBM3E 8개가 탑재된다. B100은 엔비디아가 오늘 발표한 차세대 GPU '블랙웰'이다. 시장조사업체 트렌드포스에 따르면 전체 D램 매출에서 HBM이 차지하는 비중이 지난해 8.4%에서 올해 말 20.1%로 증가한다고 전망했다. 올해 HBM의 연간 비트(용량) 증가율은 약 260%에 달할 것으로 내다봤다. 현재 주류인 HBM3 시장에서 SK하이닉스는 90% 이상을 점유하고 있는 것으로 집계된다. 삼성전자는 향후 몇 분기에 걸쳐 AMD의 MI300에 HBM3을 공급하면서 점진적으로 시장 점유율을 늘릴 것으로 전망된다.

2024.03.19 16:02이나리

레노버, 엔비디아와 하이브리드 AI 솔루션 공개

레노버는 18일(현지시간) 개최된 엔비디아 GTC에 참가하고 신규 하이브리드 AI 솔루션을 발표했다. 지난 레노버 테크 월드에서 발표한 엔비디아와 파트너십을 기반으로 양사는 기업들로 하여금 AI 시대에 필수적인 컴퓨팅 기술을 갖추고 새로운 AI 활용 사례를 효율적으로 개발 및 구현할 수 있도록 지원할 예정이다. 양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 이로써 레노버는 '모두를 위한 AI' 비전에 한 걸음 더 가까워졌을 뿐 아니라, 생성형 AI를 위한 획기적인 아키텍처의 시장 출시를 지원하게 됐다. 이제 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버와 같은 마이크로 서비스에 액세스할 수 있게 된다. 전 세계 산업들이 방대한 데이터를 분석하기 위해 AI를 사용하기 시작하면서, 컴퓨팅 집약적인 워크로드를 처리하기 위한 전력효율성도 강조되고 있다. 레노버는 효율적인 고성능 컴퓨팅(HPC)을 구현하는데 앞장서 왔으며, 엔비디아 GPU 디자인이 적용된 HPC는 그린500 리스트 1위를 차지했다. 레노버 넵튠 다이렉트 수냉식 기술을 적용한 해당 디자인은 고열 및 다중 GPU 환경에서도 낮은 온도를 유지하여 컴퓨팅 성능을 가속화한다. 레노버는 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개하며, 대규모 AI 워크로드를 효율적으로 처리해 내는 데 있어 획기적인 이정표를 세웠다. 해당 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다. 신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치 기술을 사용해 발열 문제없이 최대 성능을 유지할 수 있다. 10년간 사용된 레노버 넵튠 다이렉트 수냉식 기술은 온수 루프를 재활용하여 데이터 센터 시스템을 냉각하고, 기존 공랭 방식에 비해 최대 40%의 전력 소비 절감 및 3.5배의 열효율을 향상시킨다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 해당 시스템은 방대한 계산 능력을 제공하며, 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성됐다. 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 '엔비디아 AI 엔터프라이즈'를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 레노버 씽크시스템 AI 서버 포트폴리오에는 중앙 집중화된 리소스 관리 시스템을 제공하는 '레노버 엑스클라리티 관리 시스템'과 AI 모델 개발 및 훈련, HPC 워크로드를 위한 클러스터된 컴퓨팅 리소스 사용을 간소화하는 통합 플랫폼 '레노버 리코(LiCO)'가 포함되어 있다. 또한, 4세대 및 5세대 인텔 제온 스케일러블 프로세서를 지원하며, 고전력 GPU를 위한 써멀 헤드룸을 갖췄다. 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션 GPU를 제공해 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴로써 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원한다. 이제 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계돼, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 커크 스카우젠 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능의 경계를 허물고 있다”며 “생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”고 밝혔다. 그는 “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다”며 “레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것”이라고 강조했다. 밥 피트 엔비디아 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며 “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 밝혔다.

2024.03.19 13:54김우용

韓 MCU 시장 강화 나선 ST…"2025년까지 생산능력 2배 확장"

ST마이크로일렉트로닉스가 국내 범용 마이크로컨트롤러(MCU) 시장 공략을 위한 전략을 공개했다. 올해 엣지 AI 등 다양한 산업을 위한 신규 칩을 출시하는 것은 물론, 오는 2025년까지 생산능력을 2배 확충하기 위한 투자에도 나선다. 19일 ST마이크로일렉트로닉스는 서울 강남 노보텔에서 '2024년 STM32 신제품 발표회'를 개최했다. 이날 발표를 맡은 최경화 ST코리아 이사는 올해 ST의 국내 범용 마이크로컨트롤러 시장 공략을 위한 핵심 전략을 크게 4가지로 제시했다. 첫 번째 전략은 STM32 제품군의 확장이다. STM32는 Arm '코어텍스-M' 프로세서 기반의 32비트 마이크로컨트롤러 및 마이크로프로세서(MPU)다. AI와 같은 고성능은 물론 무선, 저전력, 임베디드 등 다양한 산업을 위한 제품으로 구성돼 있다. 이에 따라 ST는 이달 STM 신제품 칩 4종을 국내에 출시한다. 먼저 MPU 제품에서는 64비트 프로세싱 및 엣지 AI 가속 기능을 갖춘 'STM32MP2'를 선보였다. STM32MP2는 첨단 보안 기능과 함께, 까다롭고 시간에 민감한 작업부하와 AI 추론, 통신을 지원하도록 설계됐다. MCU 제품은 ▲STM32U0 ▲STM32H7R ▲STM32WBA55 등을 공개했다. STM32U0은 STM32 시리즈 중 가장 소비전력이 낮은 MCU다. 다양한 저전력 모드를 지원해 배터리 사용 시간을 최대로 확대할 수 있다. STM32H7R은 최대 600MHz의 동작 속도를 가지는 고성능 MCU다. 다양한 고속의 직렬/병렬 메모리 인터페이스가 제공돼 메모리 선택 폭을 넓혔다. STM32WBA55는 저전력 블루투스(Bluetooth LE) 5.4 및 SESIP(IoT용 보안 평가 표준) 레벨 3 인증을 위한 무선 MCU다. 최 이사는 "IoT 환경에서 수십 개의 장치가 점차 더 자율적으로 작동 및 연결되고 있어, 로컬 네트워크에서 데이터를 처리하는 일이 많아지고 있다"며 "이에 ST는 시장의 요구에 대응하기 위해 지금까지 약 3천300개의 제품을 출시했다"고 밝혔다. 두 번째 전략은 에코시스템 강화다. ST는 STM32 제품과 관련한 각종 소프트웨어 및 하드웨어 툴을 제공하고 있다. 엣지 AI 산업을 위해 자동으로 머신러닝 모델을 생성하는 '나노엣지 AI 스튜디오'를 STM32 사용자들에게 무묘로 제공하는 것이 대표적인 사례다. 세 번째 전략은 제조 분야 강화다. ST는 올해부터 내년까지 전공정 관련 협력사를 2곳 추가하고, 후공정 협력사도 3곳 추가해 생산능력과 제조 유연성을 높일 예정이다. 최 이사는 "ST는 지난 2022년부터 2025년까지 생산능력을 2배 확장하기 위해 투자하고 있다"며 "설비투자는 주로 ST의 자회사가 위치한 이탈리아, 프랑스 공장에서 이뤄지고 있다"고 설명했다. 네 번째 전략은 접근성과 영향력 확장이다. ST는 현재 전 세계에서 1천여개 이상의 유통 파트너십을 구축한 상황으로, STM32 관련 커뮤니티 운영을 통해 고객사의 접근성을 높이고 있다.

2024.03.19 13:49장경윤

델테크놀로지스, 엔비디아 기반 'AI 팩토리 솔루션' 공개

델테크놀로지스는 엔비디아와 전략적 협력을 강화하고 '델 AI 팩토리 위드 엔비디아' 솔루션을 출시한다고 19일 밝혔다. '델 AI 팩토리 위드 엔비디아'는 델의 생성형 AI 솔루션 포트폴리오 중 하나로, 기업과 기관들이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것을 골자로 한다. 델과 엔비디아는 긴밀한 협력을 통해 델의 엔드투엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원에 나선다. '델 AI 팩토리 위드 엔비디아'는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 통합형 솔루션이다. 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다. '델 AI 팩토리 위드 엔비디아'는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 델테크놀로지스는 엔비디아와 협력해 '엔비디아 그레이스 블랙웰 슈퍼칩'을 기반으로 하는 랙 스케일 고밀도 수랭식 아키텍처를 채용할 예정이다. 이 시스템은 엔터프라이즈 AI 워크로드의 성능 집적도 향상을 위한 기반으로서 차세대 생태계를 지원하게 된다. 델 파워엣지 XE9680 서버는 '엔비디아 B200 텐서 코어 GPU'를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹 플랫폼도 지원할 예정이다. '검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션'은 '엔비디아 AI 엔터프라이즈'의 새로운 마이크로서비스를 활용해 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 '생성형 AI를 위한 델 프로페셔널 서비스'는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 '생성형 AI 데이터 보호를 위한 자문 서비스' 등을 포함한다. 젠슨 황 엔비디아 설립자 겸 CEO는 "AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것"이라며 "엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 밝혔다. 김경진 한국델테크놀로지스 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다”며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다. '델 AI 팩토리 위드 엔비디아'는 기존 채널 파트너를 통하거나, 또는 '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 엔비디아 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680 서버는 델 회계연도 2분기(5월~7월)에 출시되며, 엔비디아 B200 및 B100 GPU를 탑재한 XE9680 서버는 4분기(11월~내년 1월) 내에 출시될 예정이다. 'RAG를 위한 델과 엔비디아의 생성형 AI 솔루션'은 현재 기존 채널 파트너와 델 에이펙스를 통해 전 세계에서 구입할 수 있으며, '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 4월에 출시될 예정이다. 'RAG를 위한 델 구현 서비스'는 5월 31일부터 한국을 비롯한 일부 지역에서 제공되며, '모델 훈련을 위한 델 인프라스트럭처 구축 서비스'와 '델 생성형 AI 데이터 보안을 위한 자문 서비스'는 3월 29일부터 한국을 비롯한 일부 국가에서 출시될 예정이다.

2024.03.19 13:47김우용

인간이 걸어서 화성을 한 바퀴 돈다면 얼마나 걸릴까 [우주로 간다]

미국 항공우주국(NASA)은 향후 수십 년 안에 화성에 인간을 보내는 야심찬 계획을 가지고 있다. 하지만 화성에 처음 발을 내딛는 인간은 아직은 화성 전체 지표면의 작은 부문만 탐험하게 될 전망이다. 우주과학매체 스페이스닷컴은 18일(현지시간) 바다와 같은 장애물 없이 우주비행사가 화성 주위를 걸어서 한 바퀴 돈다면 얼마나 걸릴 지를 조사한 연구 결과를 보도했다. 화성 대기를 연구하는 에르달 이지트(Erdal Yigit) 미국 조지메이슨대학 물리학·천문학 교수는 우주비행사의 속도와 이동거리라는 두 가지 매개 변수를 고려해 이 시간을 계산했다. 우주비행사가 화성 적도를 따라 화성 전체를 한 바퀴 돌려면 약 2만1천400km를 걸어야 한다. 극 지방을 통과해 화성 주위를 걷는다면 이동거리는 약 160km가 단축될 수 있지만 극한의 추위로 인해 더 힘든 도전이 될 것이라고 이지트 교수는 설명했다. 지구에서의 평균 보행 속도인 약 5km/h로 우주비행사가 화성을 걷는다면 어떻게 될까? 화성의 중력은 지구의 약 40%에 불과하지만 지구에서 걷는 것과 달리 산소통이나 물, 식량 등 무거운 보급품을 갖추고 우주복을 입고 걸어야 한다. 따라서 화성에서의 보행 속도는 지구와 비슷할 것으로 예상했다. 해당 거리를 약 5km/h 속도로 쉬지 않고 걷게 되면 약 4천290시간이 소요된다. 이 시간을 화성의 하루 '솔'(SOL, 1솔은 24시간 37분 23초로 지구보다 조금 더 길다)로 계산할 경우 한 바퀴 도는 데 약 174솔이 걸린다. 하지만, 인간이 이 기간 동안 쉬지 않고 걷는 것은 불가능하다. 잠도 자야 하고 음식도 섭취해야 하기 때문이다. 우주비행사가 매일 8시간 정도 잠을 잔다고 가정하면 약 56솔이 추가되고 식사, 휴식, 옷 갈아입기, 청소, 야영지 설치 및 해체를 위해 매일 4~5솔씩 더 멈춘다면 약 30~35솔이 더 소요된다. 이 부분을 모두 고려하면 화성을 한 바퀴 도는데 최소 265솔이 걸리는 것으로 조사됐다. 하지만, 이는 높은 산을 비롯해 계곡, 분화구 등 화성의 험난한 지형들을 고려하지 않은 수치다. 가까운 미래에 인간이 화성 주위를 걷게 될 가능성은 거의 없다. 하지만, 우주 비행사를 화성 지표면으로 보내는 것은 무인 탐사선에 비해 여전히 많은 이점이 있다고 이지트 교수는 설명했다. 그는 "로버는 먼지와 다른 전기적 문제에 취약해 어떤 일이 일어날 수 있다"며, “인간과 함께라면 문제가 있더라도 주변에서 해결책을 찾을 수 있다”며 화성 유인 탐사의 필요성에 대해 강조했다.

2024.03.19 10:35이정현

엔비디아, 생성형 AI·디지털 트윈 세계 확장했다

엔비디아가 생성형 인공지능(AI)과 디지털 트윈 세계를 확장한다. AI 추론 속도를 높였고, 협업을 통해 디지털 트윈 플랫폼 활용도까지 넓혔다. 엔비디아는 18일(현지시간) 미국 캘리포니아주 새너제이에서 열린 GTC2024에서 AI 추론 속도를 높이는 소프트웨어 '엔비디아 인퍼런스 마이크로서비스(NIM)'와 디지털 트윈 플랫폼 '옴니버스' 업그레이드 내용을 발표했다. NIM은 생성형 AI 앱 개발·추론 속도를 높였다. 현재 개발자는 '엔비디아 AI 엔터프라이즈 버전 5.0'에서 NIM을 활용할 수 있다. 옴니버스는 PC를 넘어 애플의 '애플 비전프로'에 들어갔다. "NIM으로 생성형 AI 앱 구축·배포 더 빠르게" 엔비디아는 개발자가 생성형 AI 앱을 빠르게 구축·배포할 수 있도록 돕는 솔루션 NIM을 내놨다. NIM은 AI 모델과 통합 코드를 포함해 추론에 필요한 기능을 패키지 형태로 제공한다. 보통 개발자가 생성형 AI 앱이나 거대언어모델(LLM)을 제작한 후 배포할 때 복잡한 과정을 거쳐야 한다. 추론 작업에 필요한 하드웨어 크기 조정, 검색증강생성(RAG)용 데이터 통합, 랭체인 같은 도구를 통한 엔지니어링 작업을 별도로 진행해야 한다. 이는 업무 시간과 비용이 많이 든다. 해당 과정에 데이터 과학자도 필수다. 반면 NIM은 이러한 과정을 한 플랫폼 내에서 간소화할 수 있다. 엔비디아 마누비르 다스 엔터프라이즈 컴퓨팅담당 부사장은 이번 행사에서 "NIM은 이러한 모든 번거로운 과정을 생략하고 한 플랫폼 내에서 모든 작업을 처리할 수 있도록 한다"며 "이를 통해 개발자는 NIM을 통해 생성형 AI 앱을 구축하자마자 별도의 과정 없이 바로 배포 단계에 들어설 수 있다"고 강조했다. NIM은 생성형 AI 앱 개발에 필요한 모든 작업을 한데 모아 패키지로 구성된 셈이다. 고객은 NIM을 통해 오픈AI, 메타, 미스트랄 등의 다양한 독점·오픈 소스 LLM에 접근할 수도 있다. NIM은 보안 기능도 갖췄다. 다스 부사장은 "클라우드에서 실행되는 대형 H100부터 엣지에서 진행되는 엔비디아 젯슨 같은 소형 제품까지 다양한 엔비디아 그래픽처리장치(GPU)에서 작동하는 모델 보안 문제도 바로 잡았다"며 "개발자는 NIM에서 걱정 없이 생성형 AI 앱 개발 과정만 진행하기만 하면 된다"고 강조했다. 다스 부사장은 "엔비디아는 개발자가 수행해야 하는 개발 작업의 양을 줄이고 속도를 높도록 도울 것"이라며 "이를 통해 기업은 막 개발한 생성형 AI 앱을 몇분 만에 배포 가능한 상태로 전환할 수 있다"고 강조했다. 현재 NIM을 탑재한 엔비디아 AI 엔터프라이즈 가격은 GPU당 연간 4천500달러(약 602만원)다. 고객은 시간당 GPU 1달러(약 1천337원)로 클라우드를 통해 접근할 수도 있다. 디지털 트윈 플랫폼 '옴니버스', 애플 비전프로 속으로 엔비디아는 디지털 트윈 플랫폼 '옴니버스'를 애플의 '애플 비전프로'에 탑재한다고 밝혔다. 사용자는 애플 비전프로를 통해 다양한 산업에서 디지털 트윈 기술을 활용할 수 있다. 활용법은 간단하다. 옴니버스 클라우드 API를 통해 접속한 후, 애플비전 프로로 직접 스트리밍해 주는 그래픽 전송 네트워크를 통해 디지털 트윈 기능을 이용할 수 있다. 엔비디아 레바레디언 시뮬레이션 담당 부사장은 "기업 고객은 애플 비전프로를 통해 성능 저하 없이 디지털 트윈 작업을 실현할 수 있다"며 "이를 옴니버스 내에서 활용한다면 더욱 확장된 기능에 접근할 수 있다"고 강조했다. 이번 행사에서 엔비디아는 직접 옴니버스가 설치된 애플 비전프로로 디지털 트윈 기술을 선보이는 시연회도 진행했다. 한 디자이너가 비전 프로를 통해 자동차 제작 프로그램에 접속하는 시연이었다. 개발자가 차량의 다양한 측면을 옴니버스로 설계·조작한 후 해당 차량에 탑승하는 장면을 보여줬다. 외신은 이번 솔루션 결합은 엔비디아와 애플 모두에게 이득이라고 판단했다. 우선 엔비디아는 옴니버스 고객층을 늘릴 수 있다. PC뿐 아니라 애플 비전프로 사용자도 자사 고객으로 만들 수 있기 때문이다. 애플도 마찬가지다. 기업들이 비전프로를 다양한 산업에서 활용할 가능성이 높아졌다. 그동안 해당 제품은 개인의 엔터테인먼트용으로만 활용됐다. 다만 3천499 달러(약 4백67만원)라는 가격 장벽으로 인해 판매량을 좀처럼 늘릴 수 없었다. 두 기업의 솔루션 통합으로 새로운 고객층을 만들 수 있는 셈이다.

2024.03.19 10:01김미정

엔비디아, DGX B200에 인텔 제온 5세대 프로세서 채택

엔비디아가 19일(미국 현지시간 18일) 공개한 AI 연산 플랫폼 'DGX B200'에 인텔 5세대 제온 프로세서(에메랄드래피즈)를 탑재했다. DGX B200은 x86 기반 생성 AI를 처리하기 위한 플랫폼이다. 차세대 AI GPU인 블랙웰 B200 텐서코어 GPU를 8개 탑재했고 AI 모델 훈련 속도는 최대 72페타플롭스(PFLOPS), 추론 속도는 최대 144 페타플롭스다. 엔비디아는 DGX B200을 구성하는 x86 프로세서로 인텔 5세대 제온 프로세서인 '제온 플래티넘 8570' 프로세서 두 개를 탑재했다. 제온 플래티넘 8570은 기본 작동 클록 2.1GHz, 최대 작동 클록 4GHz이며 캐시 메모리 300MB를 탑재했다. DGX H100에 탑재된 제온 플래티넘 8480C(기본 2.0GHz, 최대 3.8GHz, 캐시 메모리 105MB) 대비 작동 클록이 향상됐고 캐시 메모리는 3배 늘어났다. 인텔 4세대/5세대 제온 프로세서는 소켓 차원에서 호환 가능하며 기존 서버 업체가 개발한 서버에서 프로세서만 교체해 업그레이드 가능하다. 엔비디아는 2020년 출시된 DGX A100에 AMD 2세대 에픽(EPYC) 프로세서를 탑재했지만 지난 해 1월 출시한 DGX H100부터 인텔 제온 프로세서로 전환했다. 2022년 6월 젠슨황 엔비디아 CEO는 "인텔 제온 스케일러블 프로세서는 뛰어난 싱글스레드(1코어) 성능을 지녔다"고 선정 동기를 밝힌 바 있다. 엔비디아 DGX B200은 올해 안에 출시 예정이며 가격은 미정.

2024.03.19 08:22권봉석

TSMC·시높시스, 엔비디아 cu리소로 포토마스크 생성 공정 가속

엔비디아가 18일(미국 현지시간) 전세계 1위 파운드리 업체인 대만 TSMC, 전자설계자동화(EDA) 업체인 시높시스와 협력해 반도체 생산 공정에 필요한 포토마스크 생성 과정을 가속할 것이라고 밝혔다. 컴퓨테이셔널 리소그래피(Computational Lithography)는 반도체 식각 공정에 쓰이는 포토마스크 생산에 컴퓨터 연산을 활용한다. 마스크에 새긴 패턴을 실제 반도체 웨이퍼에 새길 때 발생할 수 있는 왜곡을 미리 보정하는 OPC 연산에 CPU와 GPU 등을 활용한다. 엔비디아는 지난 해 GPU와 쿠다(CUDA)를 이용해 이를 가속할 수 있는 소프트웨어 라이브러리인 cu리소(cuLitho)를 개발했다 엔비디아는 "4만 개의 CPU로 구성된 클러스터에서 컴퓨테이셔널 리소그래피를 실행할 경우 포토마스크 한 장을 생성하는 데 2주 이상 걸린다. 그러나 엔비디아 H100 시스템 350개로 구성한 시스템에서 cu리소를 활용하면 이를 하루 안에 끝낼 수 있다"고 설명했다. 시높시스는 포토마스크 합성용 소프트웨어 '프로테우스'에 엔비디아 cu리소를 적용했고 기존 CPU 연산 대비 연산 시간을 줄이면서 정확도를 높였다. TSMC도 cu리소 활용 결과 작업 속도를 45배에서 60배 가량 향상됐다고 밝혔다. TSMC와 시높시스는 엔비디아 cu리소(cuLitho)를 소프트웨어에 통합하고 향후 초미세공정 반도체 설계와 생산에 활용할 예정이다.

2024.03.19 07:40권봉석

엔비디아, 차세대 AI GPU 플랫폼 '블랙웰' 공개

엔비디아가 18일 오후(현지시간, 한국시간 19일 오전 5시) 미국 캘리포니아 주 새너제이에서 진행된 GTC 2024 기조연설을 통해 차세대 AI GPU '블랙웰'(Blackwell)을 공개했다. 엔비디아는 차세대 AI 칩에 게임 이론, 확률론, 정보 이론 등을 확립한 20세기 미국인 수학자인 데이빗 해럴드 블랙웰(1919-2010)의 이름을 따왔다. 젠슨 황 엔비디아 CEO는 이날 기조연설에서 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"고 밝혔다. 블랙웰 GPU는 대만 TSMC의 4나노급 공정(4NP)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동한다. 최대 576개의 GPU 사이에서 양방향으로 초당 1.8TB 데이터를 주고 받는 연결 통로인 5세대 NV링크, 장시간 구동되는 데이터센터 환경에서 GPU와 메모리 신뢰성을 검증하는 AI 기반 RAS 엔진, 민감한 데이터를 암호화하고 신뢰성을 보장하는 시큐어 AI 등이 내장됐다. 블랙웰 두 개와 그레이스(Grace) CPU 한 개로 GB200이 구성된다. 이를 36개 모은 GB200 NVL72는 초당 1.4엑사플롭스 AI 연산이 가능하며 HBM3e 메모리를 30TB 내장한다. 엔비디아는 H100 36개로 구성된 기존 시스템 대비 LLM(거대언어모델) 처리 속도를 최대 30배 향상했다고 밝혔다. 엔비디아는 인텔 제온·AMD 에픽 등 기존 x86 기반 프로세서를 활용할 수 있는 가속기인 HGX B200도 출시할 예정이다. B200 텐서코어 GPU를 8개 내장했고 엔비디아 퀀텀2 이더넷 네트워크를 이용해 초당 최대 400Gbps로 데이터를 전송한다. 블랙웰은 올해 안에 출시될 예정이다. 시스코, 델테크놀로지스, HPE, 레노버, 슈퍼마이크로 등 주요 서버 업체 역시 블랙웰 기반 서버를 공급 예정이다. 엔비디아는 자체 운영하는 DGX 클라우드 이외에 AWS(아마존 웹 서비스), 구글 클라우드, 마이크로소프트 애저 등 전세계 주요 클라우드 사업자를 통해 블랙웰 인스턴스를 제공할 예정이다.

2024.03.19 07:05권봉석

LG전자, 작년 시설투자에 4.2조원 투자...전장 비중 높아

LG전자가 지난해 글로벌 경기침체에도 4조1천586억 원을 투자하며 전년과 비슷한 수준을 유지했다. 그중 전장(VS) 사업 부문이 가장 많은 비중을 차지했다. 올해 LG전자는 전년 보다 규모를 늘린 4조3천845억원을 시설투자해 미래 준비에 나선다는 방침이다. 18일 LG전자가 공시한 2023년도 사업보고서에 따르면 LG전자는 지난해 시설투자에 4조1천586억 원을 집행하면서 전년(4조1천682억 원) 보다 소폭으로 늘렸다. 사업 부문별로는 전장(VS) 부문의 투자액이 8천685억 원으로 가장 많았으며, 대부분 신모델 개발과 연구 개발에 쓰였다. 전장부분은 LG전자의 신성장 동력으로 자리매김한 사업이다. LG전자 VS 사업부는 지난해 연매출 10조1천476억 원으로 본부 출범 10년 만에 매출액 10조 원을 넘겼고, 실적 공시를 시작한 2015년 이후 8년 연속 성장을 이뤄냈다. 전체 연결 매출에서 차지하는 비중은 12%까지 올라갔다. 올해 1월에는 미국 텍사스주 포트워스에 전기차 충전기 생산 공장을 구축하고 생산을 시작했다. 이곳은 지난해 LG전자가 자회사인 하이비차저를 통해 국내에서 전기차 충전기 생산을 본격 시작한 이래 첫 해외 생산 공장이다. 지난해 시설투자 규모에서 주력인 생활가전(H&A) 부문은 7천201억 원으로 두번째로 높았다. 그 밖에 TV 사업을 담당하는 HE 부문에는 1천937억 원, 노트북·모니터 등 사업을 맡은 BS 부문은 811억 원을 각각 투자했다. 인프라, 신모델 개발, 연구개발 등 기타 투자액으로는 2조2천952억 원을 집행했다. 올해 LG전자는 생산 능력 향상, 신모델 개발 및 연구 개발, 인프라 투자 등에 4조3천845억원을 투자할 계획이다. 사업 부분 별로는 ▲H&A 부문에 1조1천048억 원 ▲VS 부문에 1조970억 원 ▲HE 부문에 2천412억 원 ▲BS 부문에 1천51억 원을 각각 투자하기로 결정했다. 기타 투자액은 1조8천364억 원을 집행했다.

2024.03.18 23:21이나리

전기안전公, 전기설비 검사·점검기준(KESC/케스코드) 기술세미나 개최

한국전기안전공사(대표 박지현)는 18일 서울 역삼동 과학기술컨벤션센터에서 '2024 KESC 기술세미나'를 개최했다. 이날 세미나는 전기안전관리법 시행 이후 달라진 전기설비 안전에 관한 최신 기준을 공유하고 전기산업의 미래 발전 방향에 대해 논의하는 자리로 마련됐다. 산학연 관계자 250여 명이 참석한 이날 세미나는 전기설비 검사·검정 기준(KESC)과 전기안전관리법 주요 개정사항을 발표한 1부와 2부 최신 전기안전 기술동향 세미나로 진행됐다. 1부에서는 공사 정책관련 실무부서 담당자들이 피뢰설비·무정전전원장치(UPS) 검사제도 도입 등 전기안전관리법 주요 개정사항과 옥외 H형 주상설비 시설기준 등 기준 개정 내용을 소개하고 의견을 수렴했다. 고려대학교 전기전자공학부 최승연 교수가 좌장을 맡은 2부 기술세미나에서는 ▲직류배전(LVDC) 보호 및 안전기술 ▲UPS용 리튬배터리의 화재 안전 ▲낙뢰특성과 외부 선형 전원공급장치(LPS) 적용 등 전기산업계 주요 이슈에 대한 전문가들의 주제 발표와 토론이 펼쳐졌다. 박지현 전기안전공사 사장은 “이번 세미나가 전기설비 안전관리에 대한 최신 기준과 지식을 공유하는 의미있는 자리가 되었길 바란다”며 “앞으로도 현장 목소리를 반영해 전기설비 검사·점검 기준을 지속해서 개선해 나아가겠다”고 말했다.

2024.03.18 17:26주문정

마이다스 개최 '사람경영포럼' 조찬 4회차 성료···"사람경영 학습의 장"

마이다스그룹(마이다스아이티,마이다스인 등) 계열사 자인연구소는 지난 7일 개최한 '사람경영포럼 조찬 간담회' 4회차를 성료했다고 밝혔다. '사람경영포럼 조찬 간담회'는 사람중심 경영을 추구하는 기업 경영진 및 HR 리더들이 모여 경영 고민과 지혜를 나누는 자리다. 행사는 오전 7시 30분부터 약 2시간 동안 마이다스그룹 판교 본사에서 진행했다. 참석자들은 5성급 호텔 뷔페식으로 유명한 마이다스 라운지에서 조찬을 함께했다. 날리지큐브 김학훈 대표, 케이유니콘인베스트먼트 김홍일 대표, 비아이씨 이선진 대표, 경희대학교 임성수 교수, 베스핀글로벌 장인수 대표, 엑셈 조종암 대표, 펑션베이 최진환 교수 등 기업 혁신과 인재 경영에 관심이 많은 7개 기업대표들이 참석했다. '사람경영포럼 조찬'은 경영현장의 다양한 고민과 난제에 대해 '자연주의 인본경영(인간 정체성의 과학적 이해와 합리적 규명을 통해 개인과 조직의 행복을 돕는 이론)'을 기반으로 해결책과 대안을 토론하고 공유하는 자리다. 이번 4회차에서는 자인연구소 최원호 대표와 이승규PD가 사람 정체성에 대한 과학 기반의 연구 내용과 함께 일 잘하는 조직문화 형성과정을 발표했다. 최 대표는 "구성원을 육성하고 성장시키며 조직 시너지와 성과를 챙겨야 하는 경영자는 생물학적 속성인 욕망체계와 신경학적 특성인 역량체계를 이해하는 것이 중요하다"면서 "사람의 욕망체계를 이해하면 어떻게 동기부여를 해 성과중심 몰입을 할 수 있는지, 또 평가 및 보상 체계를 어떻게 설계해야 주인의식을 갖고 자율적으로 일할 수 있는지에 대한 중요한 실마리를 얻을 수 있다"고 밝혔다. 이어 "역량체계를 이해하면 어떤 환경 조건과 리더십을 뒷받침해야 성과메커니즘을 바탕으로 구성원 성과와 성장을 도울 수 있는 지 명확한 방향을 알 수 있다"고 덧붙였다. 이어 이승규 자인연구소 PD는 사람경영을 기반으로 설계하고 실행 중인 '프로젝트 일잘마'를 소개했다. '프로젝트 일잘마'는 성과중심적 상호작용을 돕는 CSR(소통, 전략, 성찰) 관계 기술과 집단 시너지를 통해 구성원들이 성과를 창출하는 한편 성공경험을 쌓는 성과문화 프로젝트다. 이 PD는 "프로젝트에 참여한 구성원 중 81.8%가 CSR 관계기술이 향상됐고, 또 이들 중 60%가 높은 성과를 달성했다"고 설명하며 개인과 조직 성장을 이끄는 성과문화 조성의 성공적인 사례인 '프로젝트 일잘마'의 사례 자료도 공유했다. 마이다스그룹 이형우 회장은 "사람경영은 사람에서 답을 찾고 사람을 키우는 것을 목적으로 하며 사람과 사회의 행복을 지향한다"면서 "경영자는 사람의 결에 대한 합리적 이해에서 바람직한 경영의 길을 찾을 수 있다"고 강조했다. 이어 "앞으로도 사람경영에 대한 과학 기반의 연구 내용과 이를 기반으로 설계한 다양한 본질기반 HR경영 제도와 체계를 적극적으로 공유해 기업인들의 올바른 경영을 돕겠다"고 밝혔다. 이날 마이다스그룹은 조찬간담회에 참석한 경영진들에게 인사 서식부터 반복 업무 자동화 도구까지 58가지 툴을 포함한 인사서식 종합자료인 'HR툴즈' 정보도 공유했다. 'HR툴즈'는 마이다스가 운영하는 'H.LAB' 공식 홈페이지에서 무료로 사용이 가능하다. 엑셈 조종암 대표는 “경영 지식과 지혜를 아낌없이 나누는 자인연구소에 감사드린다"는 후기를 남겼다. 한편 자인연구소는 기업 경영혁신과 사회 교육혁신을 위해 2023년 9월부터 기업 경영진 및 HR 리더를 대상으로 다양한 형태의 '사람경영포럼'을 운영하고 있다. 마이다스그룹은 마이다스아이티, 마이다스인, 자인연구소, 자인원 등으로 구성된 건설공학 소프트웨어 분야 세계 1위 기업이자 경영 소프트웨어 국내 1위 기업이다. 높은 입사 경쟁율과 호텔같은 점심으로 '한국의 구글'이라는 평가를 받고 있다.

2024.03.18 17:14방은주

휴롬, 美 시장 건강 마케팅 확대

휴롬은 17~19일(현지시간) 미국 시카고에서 열린 국제 가정용품 박람회 'IHS 2024(Inspired Home Show 2024)'에 참가해 미국 소비자를 대상으로 휴롬의 건강 가치를 전파한다고 18일 밝혔다. 'IHS 2024'는 80년 이상의 전통을 가진 북미 최대 규모의 가정용품 전문 박람회다. 40개국 2천800여 개 기업이 참가하고 약 6만여 명 이상의 관람객이 방문한다. 독일 암비안테, 홍콩 홈 인스타일과 함께 세계 3대 소비재 박람회로 꼽힌다. 휴롬은 전시·시연 부스를 운영하며 신제품 착즙기 H410을 첫 공개하고 스테디셀러 착즙기 H400, H320 등 다양한 라인업의 착즙기를 선보였다. 또한 현장에서 CCA 주스 등의 착즙 시연을 통해 해외 소비자들에게 건강하고 신선한 착즙주스를 경험할 수 있게 했다. 이번 박람회는 휴롬의 세 번째 해외 전시회다. 휴롬은 올해 해외 소비자 및 바이어들과의 접점을 적극 확대하며 휴롬의 건강 가치를 전파할 예정이다. 또한 미국 시장 내에서 채소 과일과 착즙주스의 건강 효과를 몸소 경험한 유명 미식축구 선수인 닉 보사와 베스트셀러 작가인 크리스 카 등 글로벌 앰배서더를 통한 건강 접점 및 SNS 채널을 통한 건강 마케팅 확대를 통해 미국 시장을 적극 공략할 계획이다. 김재원 휴롬 대표는 "북미 최대 규모의 가정용품 박람회 'IHS 2024' 참가를 통해 미국 소비자분들께 휴롬의 헤리티지와 기술력을 선보일 수 있어 뜻 깊게 생각한다"며 "앞으로도 휴롬은 진정성 있는 '건강' 가치 전파를 통해 국내를 넘어 해외 소비자 접점을 적극 확대해 나갈 것"이라고 밝혔다.

2024.03.18 08:52신영빈

메타, '라마3' 전용 AI인프라 공개...GPU만 4만9천개

메타가 차기 대규모언어모델(LLM) '라마 3' 학습을 위한 세계 최대 규모의 컴퓨팅 인프라를 공개했다. 최근 실리콘 앵글 등 외신에 따르면 메타는 AI학습을 위한 데이터센터급의 24K GPU 클러스터 한 쌍의 세부정보를 공식 블로그를 통해 공개했다. 여러 그래픽처리장치(GPU)를 네트워크로 연결해 병렬 컴퓨팅 작업을 수행하는 시스템이다. 기계학습, 대규모 시뮬레이션 등 대규모 계산 작업을 더 빠르게 처리하기 위해 활용된다. 메타에서 공개한 24K GPU 클러스터는 2022년 선보인 리서치슈퍼클러스터(RSC)의 후속모델이다. 이름처럼 2개의 클러스터에 각 2만4천576개의 엔비디아 텐서 코어 H100(이하 H100) GPU가 적용된 것이 특징으로 총 4만9천 개 이상의 H100 CPU를 활용할 수 있다. 이번 발표는 일반인공지능(AGI) 연구를 위해 대규모 인프라 구축 계획의 일환이다. 메타는 2024년 말까지 35만 개의 H100 GPU를 포함한 AI 인프라를 확장할 계획이다. 이를 통해 기존에 확보한 인프라를 포함해 60만 개의 H100 GPU 수준의 컴퓨팅 파워를 갖추는 것을 목표로 한다. 두 클러스터는 GPU 수가 동일하며 개방형 GPU 하드웨어 플랫폼 '그랜드 티톤(Grand Teton)'을 사용해 구축됐다. 하지만 네트워크 인프라 설계에 차이가 있다. 하나는 웻지 400 및 미니팩 2 OCP 랙 스위치와 아리스타 7800를 기반으로 자체 개발한 RDMA 오버 컨버지드 이더넷(RoCE) 솔수션을 적용했다. 두 번째 클러스터는 엔비디아의 퀀텀2 인피니밴드 패브릭 솔루션이 적용됐다. 두 클러스터의 구조를 다르게 한 이유는 향후 더 크고 확장된 클러스터 구축을 목표로 하기 때문이다. 두 클러스터에서 다양한 분야의 AI를 학습하며 어떤 구조와 설계 방식이 AI에 적합한지 데이터를 확보해 이후 적용하겠다는 비전이다. 저장장치도 해머스케이프와 협력해 자체 개발했다. 생성형 AI 훈련 작업이 점점 빨라지고 규모가 커지는 것에 대비해 고성능이면서도 수만개의 GPU에서 동시 작업하는 데이터를 감당할 수 있도록 E1.S SSD를 활용했다. 이와 함께 구글은 개방형 AI 생태계 활성화를 위해 AI 소프트웨어 프레임워크인 파이토치를 지속해서 지원할 것이라고 강조했다. 케빈 리 등 구글 연구원은 “지난 2015년 빅서 플랫폼을 시작으로 GPU 하드웨어 플랫폼을 설계를 공개하고 있다”며 “우리는 이런 정보 공유가 업계의 문제 해결을 돕는데 도움이 될 것이라고 믿고 있다”고 이번 GPU 클러스터 관련 내용을 공개한 이유를 밝혔다. 이어서 “우리의 AI 노력은 개방형 과학과 교차 협력의 철학을 바탕으로 구축됐다”며 “개방형 생태계는 AI 개발에 투명성, 정밀성, 신뢰를 제공하고 안전과 책임을 최우선으로 하여 모든 사람이 혜택을 누릴 수 있는 혁신을 이끌어낼 것”이라고 강조했다.

2024.03.17 13:07남혁우

  Prev 51 52 53 54 55 56 57 58 59 60 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑]美 관세협상 막판 총력...최휘영 문체부 장관 후보자 청문회

[타보고서] 키 180㎝ 앉아도 무릎 공간 넉넉... '르노 세닉'

"팔 부러져도 다시 도전"…부산대 로보컵 우승記

고급차 시장 겨냥한 중국차 속사정

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.