• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'AI 서버'통합검색 결과 입니다. (90건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

삼성전기, 1분기 실적 '선방'…하반기 AI서버·전장으로 성장 가속화

삼성전기가 1분기 영업이익 1천803억 원을 기록하며 시장 기대치를 상회하는 실적을 기록했다. 이 같은 실적은 플래그십 스마트폰 신규 출시와 더불어 AI용 서버, 전장용 부품 수요가 증가하면서 매출 성장을 이끈 덕분이다. 삼성전기는 산업·전장용 수요 증가에 힘입어 하반기까지 매출 증가를 이어갈 전망이다. 삼성전기는 올해 1분기 연결기준으로 매출 2조6천243억 원으로 전년동기 대비 30%, 전분기 대비 14% 증가했다. 1분기 영업이익은 1천803억 원으로 전년동기 대비 29%, 전분기 대비 63% 증가한 실적이다. 삼성전기는 "AI서버 등 산업용 및 전장용 고부가 MLCC(적층세라믹콘덴서) 판매 증가와 플래그십 스마트폰 신규 출시 효과로 폴디드 줌 등 고성능 카메라모듈 공급을 확대해 매출과 영업이익이 늘었다"고 설명했다. 올 2분기는 산업용·전장용 MLCC 및 AI·서버용 패키지기판 등 고부가품 시장이 성장할 것으로 예상된다. 이에 따라 삼성전기는 지속성장이 예상되는 하이엔드 제품에 사업 역량을 집중하고 고객 대응력을 강화하겠다는 계획이다. ■ AI서버용 MLCC·FC-BGA 시장, 전년比 2배 성장..전장용 두자릿수 성장세 사업별로는 컴포넌트 부문의 1분기 매출이 전년동기 대비 24%, 전분기 대비 5% 증가한 1조230억 원으로 집계됐다. 삼성전기는 AI서버 및 파워 등 산업용 MLCC와 전장용 MLCC 등 고부가품 중심의 공급 확대로 매출이 증가했다고 설명했다. 2분기는 SET 수요의 완만한 성장으로 MLCC 수요는 증가할 것으로 전망된다. 삼성전기는 IT용 소형·고용량 제품 및 AI서버용 초고용량 MLCC 판매를 늘리고, 자동차의 전장화에 따라 수요가 증가하는 전장용 고부가품 확대를 지속 추진할 계획이다. 삼성전기는 컨콜에서 "AI 산업에서 초소형 및 고용량 MLCC와 고다층 대면적 패키지 기판 수요가 증가할 것"이라며 "특히 AI 서버용 MLCC와 FC-BGA의 올해 시장 규모는 전년 대비 각각 2배 이상 성장할 것"이라며 "AI 서버용 MLCC의 경우 초고용량 제품을 중심으로 고객사 확대를 진행하고 있고, FC-BGA는 대면적 고다층 제품을 중심으로 공급 확대 및 고객사 다변화를 추진 중이다"고 말했다. 이어서 회사는 "자사 제품의 채용을 계획하고 있는 CSP(클라우드서비스제공자) 업체가 늘어나고 있어 이들과 기술 개발 및 프로모션을 진행 중"이라며 "AI 관련 매출을 매년 2배 이상 성장시키는 것을 목포료 고객사 다변화 등을 적극 추진할 계획"이라고 강조했다. 또 "전기차 성장률은 과거 대비 둔화가 예상되나 올해도 두 자릿수의 고성장이 전망되며, 꾸준한 성장을 하고 있는 하이브리드 차량도 내연기관 대비 MLCC 수요 원수가 최대 2배 수준이므로 전장용 MLCC 수요에 긍정적인 영향을줄것으로 전망된다"고 말했다. 이어서 "ADAS 보급률도 지속 증가하면서 올해는 레벨 2 이상 적용 비율이 40%를 초과할 것으로 예상된다"고 덧붙였다. 광학통신솔루션 부문의 1분기 매출은 1조 1천733억 원으로 전년동기 대비 47%, 전분기 대비 32% 성장했다. 삼성전기는 주요 거래선에 고화소 제품 및 고화질 슬림 폴디드줌과 해외 거래선에 가변조리개가 적용된 고사양 제품 공급을 확대해 매출이 늘었다고 밝혔다. 삼성전기는 하반기 출시 예정인 국내외 거래선의 신규 플래그십용 고성능 카메라모듈 제품을 적기 대응하고, 전장용 카메라모듈은 고화소 제품 공급을 늘리고 사계절 전천후 히팅 카메라, 하이브리드 렌즈 등 차세대 제품 개발에 집중할 계획이다. 패키지솔루션 부문은 1분기에 전년동기 대비 8% 증가한 4천280억 원의 매출을 기록했다. ARM프로세서용 BGA 및 ADAS, 자율주행 관련 고부가 전장용 FCBGA 공급이 늘어났지만, 모바일, PC 등 일부 응용처의 수요 둔화 영향으로 전 분기보다 매출이 감소했다고 밝혔다. 삼성전기는 PC, 서버 등 SET 수요의 점진적 회복이 전망됨에 따라 PC/서버 CPU용 FCBGA, 메모리용 BGA 기판 등의 공급 확대를 추진할 계획이다. 서버·AI가속기 등 고부가 제품의 수요가 저점을 통과, 앞으로 증가가 예상된다. ■ 글라스 기판 올해 파일럿 라인 구축...2026년 양산 삼성전기는 올해 글라스 기판 파일럿 라인을 구축하고, 2026년에 본격 양산할 계획이라고 밝혔다. 삼성전기는 세종 사업장에 글라스 기판 시제품 생산 라인을 구축하고 있는 중이다. 회사는 "글라스 기판은 기존 기판 대비해서 회로 미세화 기판 대응화에 유리해 AI 서버용 등 고사양 반도체에서 활용도가 높을 것으로 예상한다"라며 "당사는 소재 설비 업체뿐만 아니라 관계사 협력을 통해 글라스 기판 개발을 위한 원천 기술을 확보 중이며, 올해 파일럿 라인을 구축할 예정이다"고 말했다. 이어서 "글로벌 고객사들의 니즈를 반영해 제품 개발을 진행 중으로 고객 로드맵과 연계해 2026년 이후 양산을 준비하는 등 글라스 기반 사업을 추진해 나가겠다"고 덧붙였다. ■ 베트남 신공장 2분기부터 가동·매출 발생...올해 투자 전년과 비슷 삼성전기는 베트남 신공장이 올 2분기부터 본격 가동과 동시에 매출이 발생한다고 밝혔다. 올해 시설투자는 전년과 비슷하나 전장용 MLCC와 글라스 기판에 주력할 계획이다. 삼성전기는 1조3천억 원을 들여 베트남 생산법인 내 FC-BGA 라인 증설을 추진해 왔다. 회사는 "베트남 신공장은 올해 초 제품 양산을 위한 고객사 승인을 완료해, 2분기부터 가동 시작과 함께 매출이 발생할 예정"이라며 "고객사 수요와 연계해 대응하고 있다"고 설명했다. 이어서 "올해는 지속 성장이 예상되는 전장용 MLCC 수요 대응을 위한 증설 투자가 확대될 예정"이라며 "신사업 관련해서는 글라스 기판의 파일럿 라인 확보 등 핵심 기술 확보와 사업기반 구축을 위한 투자가 진행될 것"이라고 밝혔다.

2024.04.29 16:15이나리

삼성전기, 1분기 영업이익 1803억…AI서버·전장 상승세

삼성전기는 올해 1분기 연결기준으로 매출 2조6천243억 원, 영업이익 1천803억 원을 기록했다고 29일 밝혔다. 매출은 전년동기 대비 30%, 전분기 대비 14% 증가했다. 영업이익은 전년동기 대비29%, 전분기 대비 63% 증가했다. 삼성전기는 "AI서버 등 산업용 및 전장용 고부가 MLCC(적층세라믹콘덴서) 판매 증가와 플래그십 스마트폰 신규 출시 효과로 폴디드 줌 등 고성능 카메라모듈 공급을 확대해 매출과 영업이익이 늘었다"고 설명했다. 올 2분기는 산업용·전장용 MLCC 및 AI·서버용 패키지기판 등 고부가품 시장이 성장할 것으로 예상된다. 이에 따라 삼성전기는 지속성장이 예상되는 하이엔드 제품에 사업 역량을 집중하고 고객 대응력을 강화하겠다는 계획이다. 사업별로는 컴포넌트 부문의 1분기 매출이 전년동기 대비 24%, 전분기 대비 5% 증가한 1조 230억 원으로 집계됐다. 삼성전기는 AI서버 및 파워 등 산업용 MLCC와 전장용 MLCC 등 고부가품 중심의 공급 확대로 매출이 증가했다고 설명했다. 2분기는 SET 수요의 완만한 성장으로 MLCC 수요는 증가할 것으로 전망된다. 삼성전기는 IT용 소형·고용량 제품 및 AI서버용 초고용량 MLCC 판매를 늘리고, 자동차의 전장화에 따라 수요가 증가하는 전장용 고부가품 확대를 지속 추진할 계획이다. 광학통신솔루션 부문의 1분기 매출은 1조 1천733억 원으로 전년동기 대비 47%, 전분기 대비 32% 성장했다. 삼성전기는 주요 거래선에 고화소 제품 및 고화질 슬림 폴디드줌과 해외 거래선에 가변조리개가 적용된 고사양 제품 공급을 확대해 매출이 늘었다고 밝혔다. 삼성전기는 하반기 출시 예정인 국내외 거래선의 신규 플래그십용 고성능 카메라모듈 제품을 적기 대응하고, 전장용 카메라모듈은 고화소 제품 공급을 늘리고 사계절 전천후 히팅 카메라, 하이브리드 렌즈 등 차세대 제품 개발에 집중할 계획이다. 패키지솔루션 부문은 1분기에 전년동기 대비 8% 증가한 4천280억 원의 매출을 기록했다. ARM프로세서용 BGA 및 ADAS, 자율주행 관련 고부가 전장용 FCBGA 공급이 늘어났지만, 모바일, PC 등 일부 응용처의 수요 둔화 영향으로 전 분기보다 매출이 감소했다고 밝혔다. 삼성전기는 PC, 서버 등 SET 수요의 점진적 회복이 전망됨에 따라 PC/서버 CPU용 FCBGA, 메모리용 BGA 기판 등의 공급 확대를 추진할 계획이다. 서버·AI가속기 등 고부가 제품의 수요가 저점을 통과, 앞으로 증가가 예상되어 베트남 신공장 가동 및 양산 안정화를 통해 고객 수요에 적기 대응할 계획이다.

2024.04.29 13:39장경윤

퓨리오사AI, 차세대 AI칩 '레니게이드' 첫 공개

서버용 AI반도체 팹리스 퓨리오사AI는 지난 24일(현지시간) 미국 산타클라라 컨벤션센터에서 열린 'TSMC 2024 테크놀로지 심포지엄'에 참가해 차세대 칩인 RNGD(레니게이드)의 실물을 최초 공개했다고 26일 밝혔다. 레니게이드는 TSMC 5나노미터(nm) 공정 기반의 NPU(신경망처리장치)다. 추론용 AI반도체 최초로 HBM3(4세대 고대역폭메모리)를 탑재했다. 또한 엔비디아 고성능 GPU와 동일한 CoWoS 패키지(2.5D 패키지)로 제작됐다. 공개된 레니게이드는 가로, 세로 각 5.5cm 크기에 400억개 이상의 트랜지스터가 집적돼 있으며, 탑재된 HBM3를 통해 1.5TB/S 이상의 대역폭을 갖췄다. 이를 통해 초거대언어모델(LLM) 서빙에 필요한 성능을 충족하는 한편, 전력소모량은 150W로 전성비(전력대비 성능)면에서 경쟁력을 확보하고 있는 것으로 평가된다. 백준호 퓨리오사 대표는 “챗GPT가 나오기 전 선제적으로 HBM3를 탑재한 고성능 AI 반도체 개발에 착수한 후 TSMC, GUC등 글로벌 파트너사들과의 협업과 적극적 지원으로 레니게이드가 완성될 수 있었다”며 “시기적으로도 추론용 AI반도체 수요가 급증하는 시점인 만큼, 시장 기회를 선점할 수 있도록 하겠다”고 밝혔다.

2024.04.26 08:56장경윤

삼성전자, 업계 최고 속도 LPDDR5X 개발 성공...온디바이스 AI 최적화

삼성전자가 업계 최고 동작속도 10.7Gbps LPDDR5X D램 개발에 성공했다고 17일 밝혔다. 삼성전자는 신제품 LPDDR5X D램을 애플리케이션 프로세서∙모바일 업체와의 협업을 통해 제품 검증 후 하반기 양산할 예정이다. AI 시장이 본격적으로 활성화 되면서 기기 자체에서 AI를 구동하는 '온디바이스 AI(On-device AI)' 시장이 빠르게 확대되고 있어 저전력∙고성능 LPDDR의 역할이 그 어느 때보다 커지고 있다. 이번 제품은 12나노급 LPDDR D램 중 가장 작은 칩으로 구현한 저전력∙고성능 메모리 솔루션으로 온디바이스 AI 시대에 최적화됐다. 향후 모바일 분야를 넘어 ▲AI PC ▲AI 가속기 ▲서버 ▲전장 등 다양한 응용처에 확대 적용될 것으로 기대된다. 전 세대 제품과 비교해서는 ▲성능 25% ▲용량 30% 이상 각각 향상됐고, 모바일 D램 단일 패키지로 최대 32기가바이트(GB)를 지원한다. 삼성전자는 이번 제품에 저전력 특성을 강화하기 위해 성능과 속도에 따라 전력을 조절하는 '전력 가변 최적화 기술'과 '저전력 동작 구간 확대 기술'등을 적용해 전 세대 제품보다 소비전력을 약 25% 개선했다. 전력 가변 최적화 기술은 전력 절감 기술 중 하나, 프로세서에 공급되는 전압과 주파수를 동적으로 변경하여 성능과 전력소모를 함께 조절해 준다. 저전력 동작 구간 확대는 저전력으로 동작하는 저주파수 구간을 확대하여 전력소모 개선하는 기술이다. 삼성전자는 해당 기술을 통해 모바일 기기에서는 더 긴 배터리 사용 시간을 제공하고 서버에서는 데이터를 처리하는 데 소요되는 에너지를 감소시킬 수 있어 총 소유 비용(TCO, Total Cost of Ownership) 절감이 가능하다. 배용철 삼성전자 메모리사업부 상품기획실장 부사장은 "저전력, 고성능 반도체의 수요가 증가함에 따라 LPDDR D램의 응용처가 기존 모바일에서 서버 등으로 늘어날 것"이라며 "삼성전자는 앞으로도 고객과의 긴밀한 협력을 통해 다가오는 온디바이스 AI시대에 최적화된 솔루션을 제공하며 끊임없이 혁신해 나가겠다"고 밝혔다.

2024.04.17 11:00이나리

슈퍼마이크로, X14 서버에 6세대 인텔 제온 탑재 예고

슈퍼마이크로컴퓨터는 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 17일 공개했다. 신제품은 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 광범위한 인텔 제온 6 프로세서 신제품군을 결합했다. 슈퍼마이크로는 고객의 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 슈퍼마이크로의 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온6 프로세서에 대한 소켓 호환성을 지원한다. 해당 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어 SKU와 AI, HPC, 스토리지 및 엣지 워크로드에 대해 코어당 성능을 높이는 P-코어 SKU로 제공된다. 인텔 AMX에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 대폭 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다. 라이언 타브라 인텔 부사장 겸 제온 E-코어 제품 부문 총괄은 "해당 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다”며 “고객은 온프레미스, 클라우드, 또는 엣지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다"고 강조했다. 슈퍼마이크로의 X14 서버 제품군은 성능 및 에너지 효율의 최적화, 관리 용이성과 보안 개선, 개방형 산업 표준 지원, 랙 스케일 최적화를 갖췄다. 찰스 리앙 슈퍼마이크로 사장 겸 CEO는 "인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것"이라며 "슈퍼마이크로는 수냉식 100kW 랙 1천350개를 포함해 전 세계적으로 매월 5천개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다”고 밝혔다. 그는 “현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다"고 덧붙였다. 한편, 슈퍼마이크로는 워크로드 검증을 위해 원격 점프스타트 및 조기 배송 프로그램을 제공함으로써 일부 고객에게 인텔 제온 6 프로세서로 구동되는 새로운 X14 서버에 대한 조기 엑세스를 제공할 예정이라고 밝혔다.

2024.04.17 09:18김우용

델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원

델테크놀로지스는 고성능 AI 서버 '델 파워엣지 XE9680'에 '인텔 가우디 3' AI 가속기 지원을 추가한다고 15일 밝혔다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화 할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다. XE9680은 가우디3 가속기를 추가함으로써 더 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블 프로세서를 2개를 장착했으며, 가장 고난도의 AI·ML 워크로드에 대한 데이터 처리 및 분석에 최적화됐다. 기존 하드웨어 성능을 뛰어넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 이 제품은 AI 가속화의 새로운 기준을 제시하며, 비즈니스 성과를 촉진하는 신속하고 실행 가능한 인사이트를 제공한다. 인텔 가우디 3 AI 가속기를 탑재한 '파워엣지 XE9680' 서버 모델은 올해 안에 국내 출시될 계획이다 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 필수적인 스펙을 갖췄다. 가우디3는 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결 가능해 인프라를 단순화하고 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 향상시킨다. 델은 최근 포레스터웨이브 보고서에서 AI 분야 선도 기업으로 선정됐다. IT 및 데이터 과학자가 AI를 적용하고 생산성을 높일 수 있도록 포괄적인 솔루션을 제공함으로써 엔드투엔드 환경의 생성형AI 성과를 이끌어낸다는 평가를 받으며 전략과 오퍼링 측면 모두에서 높은 점수를 획득했다. 김경진 한국델테크놀로지스의 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”며 “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고, 미래에 필요하게 될 요구 성능에 대비하는 동시에 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 강조했다.

2024.04.15 11:39김우용

리벨리온, 'PCIe 5.0' 컴플라이언스 테스트 통과

AI 반도체 스타트업 리벨리온은 데이터센터향 AI반도체 '아톰(ATOM)'을 탑재한 '아톰 카드'가 업계 표준화 단체 'PCI-SIG'가 주관하는 PCIe 5.0 컴플라이언스 테스트를 통과했다고 12일 밝혔다. 리벨리온은 국내 AI 반도체 스타트업으로는 최초로 PCIe 5.0 지원에 대한 공식 검증을 통과했다. 국내에서 해당 검증을 통과한 기업은 삼성전자, SK하이닉스와 리벨리온이 유일하다. PCIe는 컴퓨터 내부에서 다양한 부품들이 빠르고 정확하게 데이터를 주고받을 수 있도록 하는 기술 규격으로 SSD, 그래픽카드 등 다양한 전자 기기에 활용된다. PCI-SIG가 주관하는 컴플라이언스 테스트는 특정 기기 또는 플랫폼이 특정 세대의 PCIe를 얼마나 안정적으로 지원하는지 다양한 항목을 기반으로 평가한다. 리벨리온의 아톰 카드는 이번 테스트의 모든 평가항목을 통과해 최신 5세대 규격인 PCIe 5.0을 지원하기 위한 기술과 성능, 다양한 서버 및 플랫폼에 대한 호환성을 증명했다. 더불어 16개의 레인(Lane)을 지원해 높은 대역폭(bandwidth)과 속도를 확보했다. 레인(Lane): PCIe에서 데이터롤 전송하는 하나의 양방향 경로를 말하며, 레인이 많을수록 컴퓨터 내부에서 데이터를 더 많이, 빠르게 전송할 수 있다. 리벨리온은 여러 대의 아톰 카드를 연결해 AI연산의 성능과 효율성을 높이는 일명 멀티카드 환경에 PCIe 5.0 기술을 활용하며, 언어모델을 포함한 생성형AI 모델을 가속한다. 고객은 공인받은 고속 통신 기술을 기반으로 큰 규모의 AI모델을 더욱 빠르고 효율적으로 연산할 수 있다. 리벨리온은 올해 중순부터 고객에게 멀티카드 환경 기반으로 소규모 언어모델(SLM)을 가속할 수 있도록 지원할 예정이다. 이를 바탕으로 SLM 기반 상용서비스를 기획하는 PoC를 본격적으로 진행하고, ATOM 양산품의 상용화를 추진할 계획이다. 오진욱 리벨리온 CTO는 "수준 높은 AI 추론 연산을 제공하기 위해선 칩 설계 뿐 아니라 카드 단위에 적용되는 통신 기술 또한 중요한 역할을 수행한다"며 “리벨리온은 단순히 최신 통신기술을 선제 적용하는 데 그치지 않고 기술의 안정성까지 철저히 검증받음으로써 생성형 AI 추론의 필수 인프라인 멀티카드 솔루션의 성능과 신뢰성을 모두 확보하고자 했다"고 밝혔다.

2024.04.12 10:01장경윤

딥엑스-대원씨티에스, '온디바이스 AI' 솔루션 확산 협력

AI 반도체 원천기술 기업 딥엑스는 국내 최대 AI 인프라 공급업체인 대원씨티에스와 전략 비즈니스 협력 계약을 체결했다고 12일 밝혔다. 지난 11일 판교 딥엑스 본사에서 김녹원 딥엑스 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전 산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해 왔으며 작년 7천200억 원의 유통 매출을 달성했다. 이번 협약을 통해 딥엑스는 올해 하반기부터 양산되는 제품을 국내 최대 IT 유통망으로 시장에 공급해 AI 반도체 선두기업으로 거듭나기 위한 비즈니스 가시화에 박차를 가할 전망이다. 더불어 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 나아가 온디바이스 솔루션까지 영역을 확대할 계획이다. 특히 글로벌 서버 업체들의 국내 총판을 넘어 딥엑스와의 협업을 통해 AI를 위한 토탈 패키지 솔루션을 공급할 수 있을 것으로 기대하고 있다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의 DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 AI 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 하성원 대원씨티에스 대표는 “그동안 국내 시장에서 AI 인프라 시장을 타깃하면서 다양한 서버 업체들의 총판을 담당을 해왔다”며 “이번에 딥엑스와의 총판 계약 체결로 서버 인프라와 온디바이스 인프라를 통합하는 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 김녹원 딥엑스 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다"며 "올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어갈 것"이라고 밝혔다.

2024.04.12 08:58장경윤

가비아, AI 기업에 GPU 서비스 57% 할인

가비아(대표 김홍국)는 GPU 서비스를 인공지능(AI) 및 딥러닝 관련 기업에게 최대 57% 할인을 제공한다고 4일 밝혔다. 이 이벤트로 AI 서비스를 개발, 제공 중인 기업은 GPU 서버 및 고전력 랙을 저렴한 가격으로 사용할 수 있게 됐다. 가비아의 GPU 서버호스팅 상품은 자체 GPU 서버가 없는 고객에게 서버를 임대해주는 서비스다. AI 스타트업이나 단기로 GPU 서버가 필요한 고객이 부담 없이 이용할 수 있다. 가비아는 RTX 3080부터 A6000까지 다양한 GPU 제품군을 보유했다. 가비아는 서버호스팅 서비스를 도입하는 고객 모두에게 약정 없이 할인가를 적용하고, 월 2만 원 상당의 GPU 전문 모니터링 서비스를 무상으로 제공할 방침이다. 이미 자체 물리 서버를 보유하고 있는 고객이라면 고전력 랙 코로케이션 상품을 선택하면 된다. 코로케이션이란 자사가 보유하고 있는 서버를 가비아에 위탁하여 운영하는 서비스다. 고객은 저전력부터 고전력 하이퍼스케일 IDC까지 기업의 비즈니스 용도에 맞게 상품을 선택하여 이용하면 된다. 가비아는 코로케이션 신규 고객에게 랙당 5A 추가 전력과 회선 100M를 무상으로 제공한다고 밝혔다. 이벤트 참여를 원하는 기업은 가비아 공식 홈페이지에서 신청하면 된다. 참여 고객이 많을 경우 이벤트는 조기 종료될 수 있다. 가비아 측은 “최근 AI가 IT 업계의 트렌드로 떠오르면서 관련 기업이 많이 생겨남에 따라, AI 서비스를 제공하는 기업 고객의 부담을 줄이고자 이번 이벤트를 기획했다”며 “가비아가 과학기술정보통신부가 지정한 보안관제 전문기업인 만큼 고객은 가비아에서 안전하고 안정적인 GPU 서비스를 이용할 수 있다”고 밝혔다.

2024.04.04 10:36김우용

ISC, 美 CPU사 양산 검증 통과...대면적용 신규 소켓 사업 순항

아이에스시(ISC)가 고성능 시스템반도체용 테스트 소켓 사업 확장에 추진력을 얻고 있다. 지난해 개발한 대면적용 소켓으로 주요 고객사와 검증에 돌입해, 최근 양산 적용에 대한 승인을 받은 것으로 파악됐다. 2일 업계에 따르면 ISC는 올 1분기 북미 CPU 고객사로부터 신규 테스트 소켓에 대한 퀄(품질) 테스트를 완료했다. ISC가 이번에 승인을 받은 제품은 대면적 시스템반도체용 실리콘 러버 소켓이다. 모델명은 WiDER2로, ISC가 지난해 개발한 제품이다. 이전 세대(WiDER) 대비 작동 범위 및 대응력을 높였다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰인다. 테스트 방식에 따라 포고핀(Pogo pin)과 러버(Rubber)로 나뉜다. 이 중 러버 소켓은 칩에 손상을 줄 가능성이 낮고 미세공정에 적합하다. ISC는 지난해 북미 CPU 고객사에 WiDER2를 공급해 R&D(연구개발) 영역에서 테스트를 거쳐 왔다. 이후 올 1분기에는 양산 적용에 대한 퀄 테스트를 통과했다. 이르면 올 2분기부터 발주가 진행될 예정으로, 실제 공급 규모는 시장 상황에 따라 가변적일 것으로 관측된다. 업계가 ISC의 WiDER 사업에 주목하는 이유는 반도체 산업의 트렌드에 있다. 최근 CPU·GPU 등 시스템반도체 시장은 AI 산업의 발전에 대응하고자 데이터 처리 성능을 급격히 끌어올리고 있다. 특히 서버용 반도체의 경우, 핵심 칩과 각종 고성능 메모리·인터페이스 칩을 함께 집적하는 방식으로 진화하고 있다. 이 같은 반도체의 고성능화는 필연적으로 칩 면적의 확장을 촉진한다. 반도체 후공정 소부장 기업들 역시 점차 커지는 칩 면적에 대응하기 위한 신규 장비, 부품 등을 적극 개발해 왔다. 반도체 업계 관계자는 "칩 사이즈를 최대한 줄이려던 모바일 시대와 달리, AI 시대에서는 성능의 극대화를 위해 칩 사이즈를 키우는 방향으로 나아가고 있다"며 "부품 업계도 칩 면적 확대와 함께 높아지는 기술적 난이도에 잘 대응한다면 글로벌 경쟁력을 확보할 수 있을 것"이라고 설명했다. 한편 ISC는 이와 관련해 "구체적으로 말씀드릴 수 있는 사안은 없다"고 밝혔다.

2024.04.02 11:08장경윤

[기고] AI 생성, 생각보다 쉬울 수 있다

챗GPT 등장 후 1년이 조금 넘었는데, 그 사이 AI는 이미 여러 산업에서 그 적용 범위를 확대해 나가고 있으며, 생성형 AI의 인기는 텍스트부터 이미지 생성, 심지어 의료 및 과학 연구 등 다양한 분야에서의 활용 가능성 덕분에 나날이 높아지고 있다. 이런 생성형 AI의 열풍에 부응하려면 높은 비용과 복잡성이 요구되는데, 이런 상황에서 AI를 어떻게 잘, 그리고 정확하게 작동시킬지에 대한 고민이 생기는 것은 당연하다. 우리가 AI에 이르게 되는 과정을 살펴보면, AI의 잠재력은 그 지혜로움에서 비롯됨을 알 수 있다. 그 방대한 용량과 일관된 처리 능력 때문에 인간이 간과할 수 있는 세부 사항도 포착하는 AI지만 궁극적으로 AI도 데이터를 기반으로 작동한다. 우리는 이런 데이터를 적절하게 처리하고 보호해야 하는데, 이는 데이터가 IT 인프라뿐만 아니라 사람 또는 인공 지능이 만들어내는 모든 혁신의 기초가 되기 때문이다. 생성형 AI의 가장 기초가 되는 데이터베이스는 생성형 AI 시대에 기업들의 요구사항에 부응하기 위해 발전해 왔으므로 기업의 효과적인 AI 활용은 올바른 데이터 관리와 깊은 관련이 있다. ■ 흔한 데이터베이스 모델 비즈니스에서 흔히 사용되는 데이터베이스에는 여러 가지가 있는데 그중 온라인 트랜잭션 처리(OLTP)라는 데이터베이스 유형은 온라인 거래를 지원한다. OLTP는 온라인 뱅킹 또는 쇼핑 환경에서 기업이 동시에 여러 거래를 처리하도록 돕는데, 데이터가 축적되면 그 데이터 풀을 활용해 새로운 비즈니스 가치를 만들어낼 수 있다. 또 여러 소스의 데이터를 통합해 신속하고 강력한 상호작용형 애널리틱스를 지원하는 온라인 분석 처리(OLAP) 데이터베이스도 있다. OLAP을 사용하면 소매업자는 재고와 실제 재고 데이터를 다른 데이터세트인 고객 구매 데이터와 결합해 특정 상품의 수요가 다른 상품보다 높아져서 해당 상품의 생산을 증가시킬 필요에 대한 통찰력을 얻을 수 있다. NoSQL이라는 또 다른 데이터베이스는 위 두 모델과 달리 비정형 데이터를 정렬하는 데 도움이 되어 인기를 얻고 있다. ■ AI를 위한 새로운 데이터베이스 모델 앞서 언급된 모델들이 각자의 영역에서 충실히 제 기능을 해왔음에도 AI 시대에는 벡터 데이터베이스 모델이 가장 혁신적인 변화를 가져올 것이다. 벡터 데이터베이스는 대규모 언어 모델의 '인텔리전트 워크로드'를 처리하고 수백만 개의 고차원 벡터를 저장하는 데 쓰인다. 문서, 이미지, 오디오 녹음, 비디오 등과 같은 비구조화된 데이터가 여기에 해당되는데, 이런 데이터는 2050년까지 전 세계 데이터의 80% 이상을 차지할 것으로 예상된다. 이는 단순 의미 파악을 넘어서 AI 시대에 걸맞게 전체 맥락과 뉘앙스까지 이해하는 시맨틱스(기존 데이터의 의미)에 대한 이해를 가능하게 한다. 벡터 데이터베이스 없이는 그런 이해를 얻기 어려우므로 이는 대규모 언어 모델을 통한 특화된 산업 지식의 발전에 필수적인 요소가 된다. 이에 대비해 알리바바 클라우드는 독자적인 벡터 엔진을 통해 클라우드 네이티브 데이터베이스 폴라DB, 클라우드 네이티브 데이터 웨어하우스 애널리틱DB, 클라우드 네이티브 다중 모델 데이터베이스 린돔을 포함한 모든 데이터베이스 솔루션을 강화해 왔다. 그 결과 기업들은 벡터 데이터베이스에 분야별 지식을 입력해 생성형 AI 애플리케이션을 구축 및 출시할 수 있게 됐다. 일례로 동남아시아의 한 온라인 게임 회사는 알리바바 클라우드의 데이터베이스 솔루션을 사용해 지능적인 비플레이어 캐릭터(NPC)를 생성하고 있다. 이 NPC들은 사전에 정해진 대사를 단순히 읽는 것이 아니라 플레이어가 전달하는 내용을 실시간으로 이해하고 반응해 실제 플레이어들과 더욱 현실감 있는 상호작용을 할 수 있다. ■ AI로 가능해지는 합리적인 소비 AI의 잠재력은 게임이나 비정형 데이터의 이해에만 국한되지 않는다. AI는 데이터베이스를 스스로 관리할 수 있는 능력도 갖췄다. 예를 들어, 저장 공간이 부족해지면 AI는 시스템 관리자에게 경고를 보내고, 추가 저장 공간을 확장할지 여부를 물을 수 있다. 또 권한이 주어지면 저장 공간을 자동으로 확장하는 조치도 취할 수 있으며, 이런 기능은 CPU 용량, 메모리 용량 및 기타 기능에도 적용될 수 있다. 이런 AI의 능력은 서버리스 클라우드 컴퓨팅으로 전환을 고려할 때 특히 유용하다. 과거에 클라우드 서비스 제품을 구매할 때 일정량의 서버를 준비하는 프로비저닝 작업이 필요했는데, 이 과정에서 추가 비용이 발생하는 것은 물론, 실제 워크로드보다 더 많은 용량을 준비할 경우 자원을 낭비하는 일도 발생했다. 하지만 서버리스 컴퓨팅은 클라우드 서비스가 사용하는 서버 용량을 워크로드에 정확히 맞추며, 워크로드 변동에 따라 서버 용량을 유연하게 조절할 수 있는 장점을 지닌다. ■ 일거양득: AI와 서버리스 클라우드 컴퓨팅의 장점 누리기 따라서 AI와 서버리스 클라우드 컴퓨팅의 결합은 비정형 데이터의 이해 및 데이터베이스 자가 관리뿐만 아니라 서버 용량의 유연한 조절까지, 두 기술의 장점을 모두 활용할 기회를 제공한다. 이제 바로 알리바바 클라우드가 핵심 AI 기반 데이터베이스 제품을 서버리스로 만든 이유이기도 하다. 이를 통해 고객은 필요한 자원에 대해서만 비용을 지불하고, AI의 지능적 관리를 통해 급격한 수요 증가나 변동이 큰 워크로드에 효과적으로 대응할 수 있을 것이다. 다시 요약하자면 AI 활용의 성패는 올바른 데이터베이스 활용 전략에 좌우됨을 명심해야 한다.

2024.04.02 09:01리페이페이

어드밴텍-마키나락스, AI용 임베디드 서버 공동 개발 MOU 체결

어드밴텍케이알(대표 정준교)는 마키나락스(대표 윤성호)와 AI 플랫폼 임베디드 서버를 공동 개발하기 위한 양해각서(MOU)를 체결했다고 26일 발표했다. 양사는 기술력과 전문 지식을 결합해 제조 산업에 특화된 혁신적인 AI솔루션을 제공하는 것을 목표로 한다. 어드밴텍 엣지 AI 하드웨어와 마키나락스의 AI 플랫폼 '런웨이' 를 결합한 새로운 어플라이언스 제품 개발에 대한 기술 및 사업적 협력을 포함한다. 양 사는 이 협력을 통해 제조 산업에서의 AI 모델 활용을 더욱 간편하게 만들어 강화하고, AI 플랫폼에서 노코드·로우코드로 손쉽게 이상 탐지, 최적 제어, 믈류 스케줄링 등의 기능을 제공할 예정이다. MOU는 지난 20일 서울 서초구에 위치한 마키나락스 사옥에서 진행됐다. 양사는 이번 협력을 통해 제조업체들이 AI를 활용해 운영 효율을 극대화하고, 새로운 기술 도입을 통해 경쟁력을 강화할 수 있도록 제조업의 스마트화여 기여할 것으로 기대했다. 어드밴텍케이알 정준교 대표는 “스마트 공장에서 AI의 역할이 점점 더 중요해지고 있으며, 우리는 마키나락스와의 협력을 통해 제조 현장에서 AI를 더욱 쉽고 효과적으로 활용할 수 있는 솔루션을 제공하고자 한다”며 “어드밴텍의 고성능 엣지 AI 개발부터 배포까지의 과정을 더욱 더 신속하고 비용 효율적으로 진행할 수 있게 될 것”이라고 밝혔다. 마키나락스 윤성호 대표는 “어드밴텍과의 협력은 AI 모델의 실제 적용 가능성을 크게 높이는 발판이 될 것”이라며 “엔터프라이즈 AI 플랫폼 '런웨이'는 기업들이 AI/ML 모델을 더욱 효율적으로 개발하고 운영할 수 있도록 지원하며, 어드밴텍의 하드웨어와의 결합은 이러한 프로세스를 더욱 가속화할 것”이라고 강조했다.

2024.03.26 11:23김우용

델테크놀로지스, 엔비디아 기반 'AI 팩토리 솔루션' 공개

델테크놀로지스는 엔비디아와 전략적 협력을 강화하고 '델 AI 팩토리 위드 엔비디아' 솔루션을 출시한다고 19일 밝혔다. '델 AI 팩토리 위드 엔비디아'는 델의 생성형 AI 솔루션 포트폴리오 중 하나로, 기업과 기관들이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것을 골자로 한다. 델과 엔비디아는 긴밀한 협력을 통해 델의 엔드투엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원에 나선다. '델 AI 팩토리 위드 엔비디아'는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 통합형 솔루션이다. 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다. '델 AI 팩토리 위드 엔비디아'는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 델테크놀로지스는 엔비디아와 협력해 '엔비디아 그레이스 블랙웰 슈퍼칩'을 기반으로 하는 랙 스케일 고밀도 수랭식 아키텍처를 채용할 예정이다. 이 시스템은 엔터프라이즈 AI 워크로드의 성능 집적도 향상을 위한 기반으로서 차세대 생태계를 지원하게 된다. 델 파워엣지 XE9680 서버는 '엔비디아 B200 텐서 코어 GPU'를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹 플랫폼도 지원할 예정이다. '검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션'은 '엔비디아 AI 엔터프라이즈'의 새로운 마이크로서비스를 활용해 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 '생성형 AI를 위한 델 프로페셔널 서비스'는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 '생성형 AI 데이터 보호를 위한 자문 서비스' 등을 포함한다. 젠슨 황 엔비디아 설립자 겸 CEO는 "AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것"이라며 "엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 밝혔다. 김경진 한국델테크놀로지스 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다”며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다. '델 AI 팩토리 위드 엔비디아'는 기존 채널 파트너를 통하거나, 또는 '델 에이펙스(APEX)' 구독형 모델을 통해 도입할 수 있다. 엔비디아 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680 서버는 델 회계연도 2분기(5월~7월)에 출시되며, 엔비디아 B200 및 B100 GPU를 탑재한 XE9680 서버는 4분기(11월~내년 1월) 내에 출시될 예정이다. 'RAG를 위한 델과 엔비디아의 생성형 AI 솔루션'은 현재 기존 채널 파트너와 델 에이펙스를 통해 전 세계에서 구입할 수 있으며, '모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션'은 4월에 출시될 예정이다. 'RAG를 위한 델 구현 서비스'는 5월 31일부터 한국을 비롯한 일부 지역에서 제공되며, '모델 훈련을 위한 델 인프라스트럭처 구축 서비스'와 '델 생성형 AI 데이터 보안을 위한 자문 서비스'는 3월 29일부터 한국을 비롯한 일부 국가에서 출시될 예정이다.

2024.03.19 13:47김우용

엔비디아, 4분기 매출 265% 급증…AI 서버로 '퀀텀 점프'

글로벌 팹리스 엔비디아가 또 다시 '어닝 서프라이즈'를 달성했다. 폭발적인 인공지능(AI) 서버 수요 증가세에 따른 효과로, 회사는 올해 상반기에도 당초 예상을 뛰어넘는 매출을 달성할 수 있을 것으로 내다봤다. 엔비디아는 22일 2023 회계연도 4분기(2024년 1월 종료) 매출이 221억 달러로 전년 동기에 비해 265% 증가했다고 발표했다. 이는 전분기에 비해서도 22% 늘어난 것이며 증권가 전망치 204억 달러를 크게 웃돌았다. 같은 분기 주당 순이익(GAAP 기준)도 4.93달러로 전분기 대비 33%, 전년동기 대비 765% 늘어났다. 엔비디아 호실적의 주역은 데이터센터 사업이다. 해당 분기 데이터센터 사업 매출은 184억 달러로 전분기 대비 27%, 전년동기 대비 409% 증가했다. 젠슨 황 엔비디아 최고경영자(CEO)는 "가속컴퓨팅 및 생성형 AI가 티핑 포인트(특정 현상이 급속도로 커지는 지점)에 도달했다"며 "국가, 산업을 가리지 않고 전 세계적으로 수요가 급증하고 있다"고 밝혔다. 엔비디아는 올 상반기 실적에 대해서도 긍정적인 전망을 내비쳤다. 회사는 2024 회계연도 1분기(2024년 4월 종료) 매출 예상치로 전분기 대비 8% 증가한 240억 달러를 제시했다. 이 전망치 역시 증권가 예상보다 9% 가량 상회한 수치다. 현재 엔비디아는 AI 산업의 핵심인 고성능 그래픽처리장치(GPU)와 이를 기반으로 한 AI 가속기 시장을 사실상 독과점하고 있다. 올해에도 3나노미터(nm) 기반의 신규 제품 'B100' 출시를 목표로 하는 등, 시장 지배력 유지를 위한 행보를 이어가고 있다.

2024.02.22 08:50장경윤

사피온·어드밴텍, 엣지 서버용 AI칩 시장 공략 나서

AI 반도체 기업 사피온(SAPEON)은 엣지 인공지능(Edge AI) 및 IoT, 임베디드 컴퓨팅 분야 글로벌 선도기업 어드밴텍코리아(어드밴텍케이알)와 함께 수요연계를 통한 시스템반도체 시제품 제작 지원 사업인 '콤파스(COMPASS)' 시제품 제작 지원 대상자로 선정됐다고 16일 밝혔다. 양사는 협력을 통해 고성능 엣지 AI시장 공략에 나선다. 엣지 AI는 서비스가 필요한 장치 혹은 제품에서 인공지능 응용이 직접 구동되는 것을 의미한다. 클라우드(Cloud) 시스템과 비교해 엣지 AI의 기술을 통해 저지연 실시간 서비스 및 개인 정보 보안 강화 등이 가능하다. 콤파스는 산업통상자원부 산하 한국산업기술기획평가원이 운영하고 한국반도체연구조합이 주관하는 수요연계를 통한 시스템반도체시제품 제작지원사업이다. 시스템반도체 분야 수요가 있는 기업과 기술을 가진 반도체 공급 기업을 매칭하고, 상용화를 위한 시제품 개발에 필요한 사업비를 지원한다. 사피온은 데이터센터에 이어 엣지 분야에서도 사업을 확대해갈 계획으로, 어드밴텍과 AI 엣지 컴퓨팅용 서버개발의 속도를 높일 예정이다. 사피온은 AI반도체를 탑재한 엣지 서버용 카드를 개발하고, 어드밴텍은 사피온의 카드를 탑재한 엣지 서버 개발을 추진한다. 이를 통해 사피온은 AI 반도체의 활용 범위를 확대하고, 고성능 엣지 AI에 적용 가능한 NPU와 어드밴텍 엣지 서버를 함께 공급해 고성능 엣지 AI 컴퓨팅 시장을 공략한다. 류수정 사피온 대표는 “사피온은 AI반도체를 탑재한 엣지 서버용 카드와 어드밴텍 엣지 서버를 함께 공급해 고성능 엣지 AI 컴퓨팅 시장 공략에 나서고 있다”며 “이를 통해 국내 최고 수준의 AI 기술 역량과 인프라를 확보해 반도체 생태계를 강화함으로써, 향후 등장할 미래 디바이스에도 바로 활용 가능한 다양한 사례를 만들어 나갈 계획"이라고 밝혔다. 정준교 어드밴텍케이알 대표는 “AI 대전환 시대를 맞아 경쟁력 강화를 위해 사피온과 협력을 강화하고 있다"며 "어드밴텍은 엣지 AI 플렛폼 개발 선도기업으로 사피온과의 기술 개발 분야의 협력에 속도를 높여, 글로벌 최고 수준의 신뢰성 있는 엣지AI와 엣지 컴퓨팅 플렛폼을 제공해 함께 시장 확대를 앞당길 것"이라고 밝혔다.

2024.02.16 09:44장경윤

'83년생' 이동훈 SK하이닉스 부사장 "321단 4D 낸드, 새로운 이정표될 것"

"AI를 활용하는 분야가 확대됨에 따라, 데이터를 생성하는 매개도 늘어날 것임을 예상할 수 있습니다. 저는 이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠습니다." 14일 SK하이닉스는 공식 뉴스룸을 통해 회사의 역대 최연소 신임 임원으로 선임된 이동훈 부사장과의 인터뷰를 공개했다. 1983년생인 이 부사장은 올해 신설된 조직인 'N-S Committee'의 임원으로 발탁됐다. N-S Committee는 낸드(NAND)와 솔루션(Solution) 사업 경쟁력을 강화하기 위한 조직으로, 낸드·솔루션 사업의 컨트롤 타워 역할을 맡아 제품 및 관련 프로젝트의 수익성과 자원 활용의 효율성을 높이는 업무를 맡고 있다. 이 부사장은 지난 2006년 SK하이닉스 장학생으로 선발돼 석·박사 과정을 수료하고, 2011년 입사한 기술 인재다. 특히 128단과 176단 낸드 개발 과정에서 기술전략 팀장을, 238단 낸드 개발 과정부터는 PnR(Performance & Reliability) 담당을 맡아 SK하이닉스의 4D 낸드 기술이 업계 표준으로 자리잡는 데 기여했다. 현재 세계 최고층 321단 4D 낸드 개발에서 제품의 성능과 신뢰성, 품질 확보를 위해 힘쓰고 있는 이 부사장은 새로운 낸드에 대한 기대감을 내비쳤다. 이 부사장은 "현재 개발 중인 321단 4D 낸드가 압도적인 성능으로 업계의 새로운 이정표가 될 것이라 기대한다"며 "최대한 빠르게 개발을 마무리하고 제품을 공급해, 리스크를 최소화하는 것을 단기적인 목표로 생각하고 있다"고 밝혔다. 4D 낸드의 뒤를 이을 차세대 기술에 대한 방향성도 제시했다. 기존 낸드 개발의 핵심은 비용 대비 성능을 최대한 높이는 것으로, 이에 업계는 2D, 3D, 4D 등 기술로 낸드를 진화시켜 왔다. 앞으로는 AI 산업의 발달로 필요한 데이터 처리량이 폭발적으로 늘어날 것으로 전망된다. 이 부사장은 "AI 산업의 발전에서 볼 수 있듯이, 데이터를 생성하는 디바이스나 환경에 따라 낸드에 요구되는 성능이나 조건도 크게 달라질 수 있다"며 "이러한 환경 변화를 예의주시하며 SK하이닉스가 기술 리더십을 이어나갈 수 있도록 선제적인 혁신에 앞장서겠다”고 말했다. 올해 낸드 시장 전망에 대해서는 지난해 부진을 딛고 업턴을 이뤄낼 수 있을 것으로 내다봤다. 다만 다양한 분야의 혁신이 지속되고 있어, 이에 따른 유연한 대응이 필요하다는 점을 강조했다. 이 부사장은 "2024년 메모리 반도체 시장은 상승기류를 타고 있으나 동시에 도전이 계속될 것"이라며 "특히 올해 차세대 낸드 제품 출시가 예상되고 있어, 변혁의 시기에 더 좋은 성과를 낼 수 있도록 최선의 노력을 다하겠다"고 밝혔다.

2024.02.14 10:20장경윤

시스코-엔비디아, 'AI 네트워킹' 동맹 체결

시스코와 엔비디아가 인공지능(AI) 네트워킹 인프라 동맹을 체결했다. 시스코는 지난주 암스테르담에서 개최한 '시스코 라이브'에서 엔비디아와 AI 인프라 솔루션 파트너십을 발표했다. 이 파트너십에 따르면, 시스코는 엔비디아 GPU 클러스터에 특수목적 이더넷 네트워킹 기반 솔루션을 제공한다. 엔비디아의 GPU 클러스터를 이더넷 인프라로 확장할 수 있는 솔루션이다. 엔비디아의 텐서코어 GPU는 시스코 UCS-X 시리즈, UCS-X 시리즈 다이렉트 등 시스코 UCS M7 세대 랙 및 블레이드 서버에서 사용가능하다. 각종 AI 관련 프레임워크와 사전훈련 모델, 개발 도구 등을 포함하는 엔비디아 AI 엔터프라이즈를 시스코를 통해 사용할 수 있다. 시스코는 엔비디아와 참조 아키텍처를 공동 검증하고 고객에게 제공한다. 생성 AI 추론을 위한 플렉스포드, 플래시스택용 시스코검증설계(CVD, Cisco Validated Design)를 시작으로 여러 검증 아키텍처가 출시될 예정이다. 시스코는 넥서스 대시보드, 시스코 인터사이트 등을 사용해 엔비디아 GPU 클러스터 운영을 간소화한다. 시스코 사우전드아이즈와 시스코 가시성 플랫폼이 AI 인프라 모니터링을 제공한다. AI 인프라의 핵심인 GPU의 성능을 높이려면 여러 GPU를 연결하는 네트워킹 기술이 필요하다. 여기서 GPU 연결에 노드 내부와 노드 외부 등 두 종류의 네트워킹이 요구된다. LLM 환경은 기존 네트워크 물량 대비 최소 3~4배의 네트워킹 물량이 필요하다. 손실없는 완벽한 논블로킹 네트워킹 구조를 요구하므로, 네트워킹 장비와 케이블 수가 문자그대로 '기하급수'로 증가한다. 엔비디아의 경우 표준 아키텍처에 의하면, DGX 같은 전용 서버 한 대에 GPU를 8개씩 장착할 수 있다. 8개의 GPU는 노드 내 연결은 엔비디아의 NV링크란 독점 기술을 쓴다. 그리고 GPU 서버를 여러대 연결하는 노드 외 연결은 고대역폭 인피니밴드나 이더넷 스위치를 이용한다. 엔비디아는 H100 GPU의 노드 연결에 400Gbps의 고대역폭 네트워킹을 기본 사양으로 권고한다. 엔비디아는 고사양 GPU 신제품을 내놓을 때마다 대폭의 네트워킹 사양 업그레이드를 요구해왔다. V100 GPU에서 A100으로 넘어가면서 네트워킹 사양을 100Gbps에서 200Gbps로 올렸다. 성능 요구치는 초당 300GB에서 600GB로 올렸다. H100의 성능 요구치는 초당 900GB에 이른다. 만약 네트워킹 사양을 부족하게 구성하면 아무리 많은 GPU를 구비한다 해도 LLM 학습이나 추론 성능이 떨어질 수밖에 없다. 빠른 AI 서비스를 출시하려면 고비용의 대규모 AI 인프라 도입에서 특히 각 연산 요소 간 통신에 필요한 네트워킹이 필수적이다. 현재 엔비디아 GPU 클러스터링의 네트워킹 인프라는 인피니밴드 중심이다. 델오로그룹 분석에 의하면, 전세계 엔비디아 기반 AI 인프라의 90%는 엔비디아 멜라녹스의 인피니밴드를 사용중인 것으로 추정된다. 인피니밴드가 이더넷을 압도하며 AI 인프라에 활용된 건 고대역폭과 안정성 때문이다. 하지만 기술의 발전으로 인피니밴드로만 구현가능했던 부하분산, 안정성, 고대역폭, 저지연시간 등의 요건이 이더넷에서도 충족가능해졌다. AI 인프라는 다수의 GPU 간 병렬 연산을 빠르게 수행하기 위해 다양한 부하분산 기술을 필요로 한다. RDMA, GPU 간 P2P, GPU 다이렉트스토리지 등이 활용된다. 이중 대표적인 오프로딩 기술인 RDMA는 워크로드 내 존재하는 다수의 프로토콜 계층을 건너뛰는 제로카피 기술 'DMA'를 네트워킹까지 확장한 것이다. RDMA는 서버 간 혹은 서버와 스토리지 간 간섭없는 메모리 접근을 제공해 GPU 간 병렬 연산 능력을 극대화한다. 시스코의 경우 실리콘원 G200 스위치 ASIC을 통해 고급 혼잡 관리, 패킷 스프레이 기술, 링크 장애 조치 등 AI 환경에 유용한 여러 기능을 제공한다. 이 ASIC의 경우 전력 효율도 우월해 인피니밴드 대비 운영비용을 더 절감할 수 있다. 인피니밴드보다 이더넷을 AI 인프라에 활용할 경우 운영 인력 확보도 더 용이해진다. 인피니밴드와 달리 이더넷은 표준 기술이고 경쟁 시장이기 때문에 개방적이면서 누구나 쉽게 구축 및 운영할 수 있다. 이미 이더넷으로 구축된 외부 서비스와 연동도 더 쉽다. 운영 인력의 저변도 매우 넓다. 척 로빈스 시스코 회장 겸 최고경영자는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 변화시키고 있으며, 이러한 규모의 변화로 인해 기업은 인프라를 재고하고 재구축해야 한다는 것을 역사를 통해 알 수 있다”며 "엔비디아와 훌륭한 파트너십을 강화하면 기업은 AI 솔루션을 대규모로 구축, 배포, 관리 및 보호하는 데 필요한 기술과 전문 지식을 갖추게 될 것”이라고 밝혔다. 젠슨 황 엔비디아 CEO는 "모든 기업이 생성 AI를 통해 비즈니스를 혁신하기 위해 경쟁하고 있다"며 “시스코와 긴밀히 협력해 기업이 평생 가장 강력한 기술인 AI의 혜택을 받는 데 필요한 인프라를 그 어느 때보다 쉽게 확보할 수 있도록 만들고 있다”고 강조했다.

2024.02.13 11:56김우용

젠슨 황 엔비디아 "세계 각국, AI 인프라 독자 구축해야"

젠슨 황 엔비디아 CEO가 세계 각국이 독자적인 AI(인공지능) 인프라를 구축해야 함을 강조했다고 로이터통신 등이 12일 보도했다. 이날 두바이에서 열린 '세계정부정상회의(WGS) 2024'에 참석한 황 CEO는 "AI의 경제적 잠재력을 활용하면서 자국의 문화를 보호하려면 모든 국가가 자체 AI 인프라를 보유해야 한다"며 "다른 국가가 그런 일을 하도록 허용해서는 안 된다"고 말했다. 그는 이어 "가능한 한 빨리 AI 산업의 주도권을 잡고, 업계를 활성화하고, 인프라를 구축하는 것은 전적으로 각국 정부에 달렸다"고 덧붙였다. AI 산업의 위험성에 대해서는 "과도한 두려움"이라는 입장을 밝혔다. 황 CEO는 "자동차, 항공 등 다른 신기술 및 산업도 성공적으로 규제된 바 있다"며 "AI에 대한 공포를 부추기면서 아무 것도 하지 않도록 장려하는 사람들은 실수를 하고 있다고 생각한다"고 강조했다. 현재 엔비디아는 AI 구현의 핵심으로 꼽히는 고성능 서버용 GPU(그래픽처리장치) 분야에서 압도적인 시장 점유율을 차지하고 있다. 덕분에 최근 엔비디아의 시가총액은 1조8천200억 달러까지 상승하면서 지난 2002년 이후 처음으로 아마존을 앞지르기도 했다.

2024.02.13 08:49장경윤

소켓 사업 '초격차' 노리는 ISC…신규 M&A·생산거점 개편 추진

국내 후공정 부품기업 ISC가 주력 분야인 소켓 사업의 초격차 달성에 대한 강한 의지를 드러냈다. 현재 삼성전자 등 전 세계 주요 고객사와의 비메모리 제품 확대는 물론 신규 M&A, 국내 생산거점 통합 등 다양한 전략을 추진하고 있다. 6일 ISC는 서울 여의도 한국투자증권 본사에서 '애널리스트 데이 2024' 행사를 열고 향후 사업에 대한 중장기 계획에 대해 밝혔다. ■ "서버, 모바일, 오토모티브용 시스템반도체 모두 순항" 지난해 10월 SKC에 인수된 ISC는 반도체 후공정에 쓰이는 각종 부품을 전문으로 개발 및 양산하는 기업이다. 삼성전자, SK하이닉스를 비롯한 국내외 주요 고객사에 테스트 소켓을 납품하고 있다. 테스트 소켓은 패키징 공정이 끝난 칩의 양품 여부를 최종적으로 검사하는 데 쓰이는 소모성 부품이다. 검사 방식에 따라 실리콘 러버와 포고(Pogo) 핀으로 나뉘며, 아이에스시는 해당 사업을 모두 진행하고 있다. 반도체를 고온 환경에서 테스트하는 데 쓰이는 번인 소켓도 ISC의 주력 사업 중 하나다. ISC는 올해 소켓 사업이 AI 서버, 모바일, 오토모티브 등 다양한 분야에서 모두 큰 성장의 폭을 이뤄낼 수 있을 것으로 자신했다. 지난해 4분기 말부터 주요 고객사의 CPU·GPU용 제품 수요가 확대됐고, 기존 R&D(연구개발) 영역의 고객사 제품이 올해 본격적인 양산으로 이어지기 때문이다. 이상호 ISC IR팀장은 "국내는 물론 미국, 중화권 고객사들과의 스마트폰용 AP(애플리케이션프로세서) R&D 진행 등으로 모바일 시장에서의 성장이 기대된다"며 "오토모티브 분야도 지난해 하반기에 차량용 SoC(시스템온칩) 관련 R&D를 신규 수주에 성공했다"고 설명했다. 특히 ISC는 삼성전자의 모바일 AP 시리즈인 '엑시노스' 개발에도 협력하고 있다. 삼성전자가 최근 공개한 엑시노스 2400 및 후속 제품에서도 가장 높은 소켓 점유율을 차지할 수 있을 것으로 회사는 내다봤다. 지난해 극심한 다운턴을 겪은 메모리 사업은 올 하반기에 회복될 전망이다. AI 서버에 쓰이는 DDR5나 GDDR6, 모바일용 LPDDR5 등 고부가 제품은 현재 수주 상황이 개선되는 흐름을 보이고 있다. ■ 신규 M&A, 생산거점 재편 등 미래 경쟁력 확보에도 박차 회사를 성장시키기 위한 중장기적 전략으로는 M&A 등 사업구조 및 생산거점 개편, 신규 고객사 확보 등을 제시했다. 먼저 사업구조 개편을 위해서는 기존 ISC의 사업과 시너지를 낼 수 있는 기업을 인수할 예정이다. 현재 국내외 여러 기업을 인수 후보로 고려하고 있다. 반대로 주력 사업과는 거리가 먼 일부 사업은 과감하게 철수할 계획이다. 또한 ISC는 고객사 영역 확대를 위해 마케팅 채널을 강화하고자 하고 있다. 이동훈 ISC 최고재무책임자(CFO)는 "현재 ISC의 VIP 고객사가 8~9곳 되는데, 비메모리 분야 고객사를 신규로 확보하는 것이 목표"라며 "중국 쪽의 신규 시장 확대에 대한 고민도 하고 있다"고 밝혔다. 생산거점도 재편한다. 현재 ISC는 국내 3곳과 베트남에 생산 공장을 두고 있다. 이 중 국내 공장은 고부가 기술 중심으로 한 곳에 통합하는 동시에, 베트남 공장의 생산량 비중을 90%로 확대해 원가 경쟁력을 강화하는 방안을 추진한다. 베트남 공장으로의 설비 이전 작업은 올해 초부터 이미 이뤄지고 있다. 이 같은 전략을 통해 ISC는 오는 2024~2025년경 매출액 3천300억 원을 달성하겠다는 목표다. 나아가 2025~2026년경에는 M&A 등에 힘입어 매출을 5천억 원까지 끌어올릴 수 있을 것으로 보고 있다. 이동훈 CFO는 "ISC가 지닌 뛰어난 기술력을 토대로 주력 사업에서 글로벌 초격차를 실현할 수 있도록 최선을 다할 것"이라며 "또한 과감한 포트폴리오 개편으로 선택과 집중 전략을 구사하겠다"고 밝혔다.

2024.02.07 10:49장경윤

"올해 서버 내 D램 용량 17.3% 증가"…AI 덕분

AI 서버 업계의 활발한 투자가 고성능 메모리에 대한 수요를 촉진하고 있다. 올해 서버용 D램의 기기당 용량 증가율이 스마트폰, 노트북 등 타 IT 산업을 크게 앞설 것이라는 전망이 나왔다. 5일 시장조사업체 트렌드포스에 따르면 올해 서버용 D램의 기기당 용량 증가율은 17.3%에 달할 것으로 예상된다. 현재 AI 서버 업계는 엔비디아·AMD 등 주요 팹리스의 최첨단 AI 가속기 확보에 열을 올리고 있다. 동시에 고용량·고효율 데이터 처리를 뒷받침해 줄 고성능 메모리에 대한 수요도 함께 증가하는 추세다. 이에 서버용 D램의 기기당 용량 증가율은 올해 17.3%를 기록할 전망이다. 전년 증가율(13.6%) 대비 3.7%p 상승한 수치로, 다른 IT 산업과 비교하면 가장 증가율이 높다. 스마트폰 및 노트북 분야의 올해 기기당 D램 용량 증가율은 각각 14.1%, 12.4%로 관측된다. 트렌드포스는 "지난해에 이어 올해에도 IT 산업이 AI에 초점을 맞추면서, 서버 부문 내 D램이 가장 큰 성장을 이룰 것"이라며 "아직 AI 기능 도입이 부족한 스마트폰과 PC의 경우 2025년부터 성장이 본격화될 것으로 보인다"고 설명했다. 낸드플래시 역시 AI 산업의 발달에 따라 고용량화를 지속하고 있다. 올해 기기당 SSD 용량 증가율은 서버가 13.2%로 가장 높으며, 스마트폰과 노트북은 각각 9.3%, 9.7% 수준일 것으로 예상된다.

2024.02.06 10:04장경윤

  Prev 1 2 3 4 5 Next  

지금 뜨는 기사

이시각 헤드라인

이재용 회장, 10년 사법리스크 끊고 경영 무대 전면에…'뉴삼성' 시동

135억원 투입해 'G-클라우드' 확장…정부, 공공시스템 대전환 나선다

"테슬라와 경쟁하지 않아...B2B 자율주행 선두 되겠다"

"새 장관님은 ENTJ"...취임 직후 직원소통 나선 배경훈 장관

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.