• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'하이퍼엑셀'통합검색 결과 입니다. (13건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

하이퍼엑셀, '생성형 AI 전용 LPU' 승부수… 2세대 팹리스의 역습

국내 AI 반도체 생태계가 1세대 기업들의 칩 양산 경쟁을 넘어 특정 목적에 최적화된 2세대 기업들의 등장으로 진화하고 있다. 그 중심에 선 하이퍼엑셀은 리벨리온, 퓨리오사AI 등 선배 격인 기업들과 출발선부터 궤를 달리한다. 1세대 기업들이 비전 기술에서 시작해 LLM(거대언어모델)으로 영역을 확장해온 것과 달리, 하이퍼엑셀은 설립 초기부터 오직 '생성형 AI'만을 타깃으로 삼았다. 'LLM 하나만큼은 세계 최고 기술로 돌리는 칩을 만든다'는 이들의 전략은 엔비디아의 독주 속에 실질적인 대안을 찾는 글로벌 수요 기업들의 시선을 사로 잡고 있다. [강점: Strength] LPDDR 기반의 압도적 효율…'토큰 생성 지연' 최소화 하이퍼엑셀의 가장 강력한 무기는 스스로 명명한 LPU(Large language model Processing Unit) 아키텍처다. 기존 NPU 칩이 다양한 AI 모델을 두루 섭렵하려다 설계가 복잡해진 것과 달리, 하이퍼엑셀은 트랜스포머 기반의 LLM 추론에만 모든 자원을 집중했다. 하이퍼엑셀과 협력 중인 정무경 디노티시아 대표는 “하이퍼엑셀의 LPU는 사실상 '트랜스포머 액셀러레이터'라고 정의할 수 있다”며 “아직 제품이 정식 출시 전이라 시장의 전체적인 평가를 논하기엔 이르지만, 기술적 지향점만큼은 매우 명확하고 유망하다”고 평했다. 특히 하이퍼엑셀은 고가의 HBM(고대역폭 메모리) 대신 저전력·고효율 메모리인 LPDDR을 활용해 전력 효율과 비용 문제를 동시에 해결했다. LLM 추론의 최대 난제인 메모리 병목 현상을 하드웨어 차원에서 최적화된 스케줄링 기술로 극복한 것이다. 이러한 설계적 묘수는 실제 성능으로 이어진다. 하이퍼엑셀의 LPU는 실시간 AI 서비스의 핵심 지표인 토큰 생성 지연 시간을 최소화하는 데 성공했다. 이는 사용자의 질문에 즉각적으로 반응해야 하는 챗봇이나 실시간 대화형 AI 서비스에서 엔비디아 GPU 대비 경제성과 성능 우위를 점할 수 있는 근거가 된다. [약점: Weakness] 트랜스포머 이후 범용성 리스크와 SW 생태계 한계 반면, 특정 목적에 극도로 최적화된 설계는 양날의 검이 될 수 있다. 현재 AI 시장을 지배하는 것은 트랜스포머 아키텍처지만, 미래에는 이와 전혀 다른 구조의 새로운 AI 모델이 대두될 경우 하이퍼엑셀의 하드웨어 범용성이 심각하게 제약될 수 있다는 우려가 나온다. 'LPU'라는 정체성 자체가 트랜스포머 이후의 변화에 유연하게 대응하기 어려울 수 있다는 점은 투자자와 고객사들이 신중하게 살피는 대목이다. 소프트웨어 스택의 성숙도 역시 극복해야 할 산이다. 1세대 기업들에 비해 상대적으로 짧은 업력으로 인해, 엔비디아의 '쿠다(CUDA)'와 경쟁할 만한 소프트웨어 생태계를 단기간에 구축하는 것은 물리적으로 한계가 있다는 지적이 적지 않다. 개발자들이 하이퍼엑셀의 칩을 엔비디아만큼 편하게 쓸 수 있는 환경을 조성하기까지는 상당한 시간과 자본의 투입이 필수적이다. 하이퍼엑셀 관계자는 “AI 인프라 시장은 안정성과 검증된 레퍼런스를 중시하는 만큼 신규 AI칩 기업에게는 초기 고객 확보가 중요한 단계”라며 “이를 위해 글로벌 CSP 및 데이터센터 고객과 PoC 및 협력을 확대하며 실제 서비스 환경에서 성능 및 비용 효율을 검증하고 있다”고 말했다. [기회: Opportunity] 추론 중심 시장 재편과 50조 규모 'K-엔비디아' 수혜 시장 환경은 하이퍼엑셀에게 호의적이다. AI 산업의 무게추가 '학습'에서 '추론'으로 이동하면서 고효율 가속기 수요가 폭발하고 있기 때문이다. 특히 하이퍼엑셀은 서버를 넘어 엣지(Edge) 시장까지 조준하고 있는 걸로 전해진다. AI 반도체 업계 관계자는 “현재는 LLM 모델이 너무 커서 데이터센터 위주로 돌아가지만, 향후 워크로드의 5~10% 정도는 반드시 엣지로 내려올 수 밖에 없다”며 “LLM 모델을 가속할 수 있는 엣지 반도체 시장은 반드시 열릴 것이며, 하이퍼엑셀의 다변화 어프로치는 매우 유효한 전략”이라고 분석했다. 최근 발표된 정부의 'K-엔비디아 프로젝트' 역시 천군만마다. 향후 5년간 50조원이 투입되는 AI 반도체 산업 육성을 위한 정책 자금은 하이퍼엑셀과 같은 2세대 기업들이 대규모 양산 체계를 갖추는 데 결정적인 역할을 할 것으로 보인다. [위협: Threat] 엔비디아의 추론 시장 진출 선언 가장 실질적인 위협은 글로벌 AI 반도체 최강자인 엔비디아가 본격적으로 추론 시장에 진출한 점이다. 엔비디아는 최근 진행된 연례 개발자 컨퍼런스 'GTC 2026'에서 추론용 가속기 '그록3(Groq)'를 소개했다. 이 그록3는 LPU(Language Processing Unit)라는 명칭을 사용한다. 다만 두 칩은 추론 시장을 공략하고 있지만, 지향점은 다소 상이하다. 그록3는 실시간성과 초저지연을 바탕으로 한 '초고속 서비스'에 집중한다. 반면 하이퍼엑셀의 LPU는 LPDDR을 활용해 저전력 환경에 최적화되어 있다. 그록이 극강의 속도를 지향한다면, 하이퍼엑셀은 상대적으로 단가가 낮고 저전력이면서도 많은 메모리 용량이 필요한 환경에 적합한 구조를 취하고 있다.

2026.03.22 17:38전화평 기자

국방 AI 경쟁력, 반도체 주권에 달렸다…국산 NPU·생태계 구축 시급

국방 AI 반도체 경쟁력 확보를 위해 소버린 반도체 구축과 공급망 안정화가 핵심 과제로 제시됐다. 한국국방연구원(KIDA) 국방인공지능정책연구실과 과실연 AI미래포럼은 2026년 3월 18일 서울 강남구 모두의연구소 강남캠퍼스에서 산·학·연·군 관계자들이 참석한 가운데 '제26-3차 국방 인공지능 혁신 네트워크' 포럼을 공동 개최했다. '국방 AI 반도체'를 주제로 열린 이번 세미나에서는 무기체계 고도화와 국방 데이터센터 구축에 필수적인 AI 반도체 기술 동향을 점검하고, 군의 AI 도입 전략과 국내 반도체 생태계 협력 방안이 집중 논의됐다. 발제자로 나선 백준호 퓨리오사AI 대표는 '국방 AI 반도체: 현재와 미래'를 주제로 발표했다. 그는 "국방 AI의 핵심은 무기체계에 들어가는 엣지 디바이스뿐 아니라, 강력한 모델을 학습하고 전체 상황을 통제하는 데이터센터 인프라에 있다"고 강조했다. 이어 "AI 사용 확대로 추론 수요가 학습을 넘어서는 구조로 바뀌고 있다"고 진단했다. 국방 AI 역시 개별 무기체계보다 데이터센터 중심 구조가 중요하며, 이를 위한 인프라 투자가 필수라는 설명이다. 발제 이후에는 심승배 KIDA 책임연구위원의 사회로 패널 토의가 이어졌다. 토론에는 이형진 방위사업청 서기관, 신성규 리벨리온 부사장, 서영우 한화에어로스페이스 전무, 신동주 모빌린트 대표, 이승영 LIG넥스원 CTO, 이진원 하이퍼엑셀 CTO, 김중훈 네이버클라우드 리더가 참여했다. 이형진 방위사업청 서기관은 국방 반도체 정책 추진 상황을 소개하며 "2025년부터 국방 반도체 R&D를 본격 시작했고 전담 조직을 신설해 AI와 반도체를 통합적으로 추진하고 있다"고 밝혔다. 이어 "향후 예산 확대를 통해 AI 반도체 과제를 늘리고 관계 부처 협력을 통해 대형 과제도 추진할 계획"이라며 "수출 통제 환경을 고려하면 자체 반도체 확보는 필수"라고 강조했다. 신성규 리벨리온 부사장은 국방 AI 반도체의 핵심 과제로 공급망과 규제를 지목했다. 그는 "저지연 성능은 기본 전제"라며 "실제 사업에서는 전략물자 규제와 수출 통제 대응이 더 큰 장벽이 될 수 있다"고 말했다. 이어 "국내에서 설계, 제조, 패키징까지 이어지는 반도체 생태계를 구축하는 것이 공급망 관점에서 중요하다"고 밝혔다. 서영우 한화에어로스페이스 전무는 국산화 필요성을 강조했다. 그는 "국방은 국가 생존과 직결된 영역으로 외산 반도체와 AI에 의존하는 것은 리스크"라며 "국산 반도체와 국산 AI 모델을 함께 활용하는 구조가 필요하다"고 말했다. 이어 "민간 기업만으로는 한계가 있는 만큼 정부 차원의 적극적인 투자와 지원이 필요하다"고 덧붙였다. 신동주 모빌린트 대표는 엣지 AI 환경에서의 반도체 중요성을 강조했다. 그는 "드론과 로봇 등 차세대 무기체계에서는 온디바이스 AI 반도체가 핵심 역할을 한다"며 "국내 기술력은 이미 글로벌 수준에 올라와 있다"고 평가했다. 이어 "향후 2~3년이 산업 경쟁력을 좌우할 골든타임으로, 이 기간 내 협력을 통해 실질적인 성과를 만들어야 한다"고 말했다. 이승영 LIG넥스원 CTO는 실무 도입 관점에서의 과제를 짚었다. 그는 "무기체계는 높은 신뢰성과 검증이 요구된다"며 "NPU가 바뀌어도 기존 알고리즘이 동일하게 동작할 수 있는 소프트웨어 표준이 필요하다"고 설명했다. 이어 "시험·검증 인프라와 공통 소프트웨어 스택이 구축돼야 산업 확산이 가능하다"고 강조했다. 이진원 하이퍼엑셀 CTO는 AI 반도체의 방향성을 특화로 제시했다. 그는 "범용 칩보다는 사용 시나리오에 맞춘 특화 반도체가 중요해지고 있다"며 "국방도 요구사항을 명확히 제시하면 최적화된 칩을 빠르게 개발할 수 있다"고 밝혔다. 이어 "사용자 피드백 기반 생태계가 기술 발전을 가속화할 것"이라고 덧붙였다. 김중훈 네이버클라우드 리더는 실제 서비스 관점에서 접근해야 한다고 강조했다. 그는 "AI 반도체 평가는 결국 사용자 시나리오가 기준"이라며 "지연시간, 처리량, 동시 접속자 수 등 실제 운영 환경을 고려해야 한다"고 설명했다. 이어 "데이터센터와 엣지 사이 중간 영역까지 고려한 아키텍처 설계도 필요하다"고 말했다.

2026.03.18 13:06남혁우 기자

K-엔비디아 육성에 50조 투자...배경훈 "GPU 독점 깬다"

정부가 엔비디아 중심의 글로벌 AI 반도체 독점 구조를 타파하기 위해 향후 5년간 총 50조원 규모의 금융 지원에 나선다. 국내 토종 AI 반도체 5개사를 대상으로 대규모 정책 자금을 투입, '장기 인내 자금'을 통해 글로벌 시장 안착을 전폭 지원한다는 전략이다. 과학기술정보통신부와 금융위원회는 17일 오후 서울 프레스센터에서 '국민성장펀드 K-엔비디아 프로젝트 민관 합동 간담회'를 열고 이 같은 내용의 AI 반도체 산업 도약 지원 방안을 발표했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 이날 인사말에서 “현재 글로벌 AI 시장은 엔비디아의 GPU가 사실상 독점하고 있지만, 고비용과 막대한 전력 소모라는 치명적인 한계에 직면해 있다”고 진단하며, “우리가 가진 저전력·고효율 NPU 기술에 금융권의 전폭적인 지원이 더해진다면 충분히 글로벌 시장의 판도를 바꿀 수 있다”고 강조했다. 이어 “이번 프로젝트는 단순한 자금 공급을 넘어 금융과 산업이 원팀으로 움직이는 메가 프로젝트의 시작”이라며 “국내 AI 반도체 기업들이 엔비디아를 넘어선 'K-엔비디아'로 거듭날 수 있도록 정부가 든든한 버팀목이 되겠다”고 덧붙였다. 국내 NPU 5개사 대표 한자리… 'K-엔비디아' 주역으로 육성 이날 행사에는 국내 AI 반도체 시장을 이끄는 주요 팹리스 기업인 리벨리온, 퓨리오사AI, 딥엑스, 하이퍼엑셀, 모빌린트 등 5개사 대표 및 관계자들이 참석해 정부의 지원 방안을 경청하고 현장의 애로사항을 전달했다. 정부는 이들 5개사를 필두로 한 국내 팹리스 생태계가 글로벌 수준의 유니콘으로 성장할 수 있도록 맞춤형 금융 솔루션을 제공할 계획이다. 특히 기술 발전 속도가 빠른 AI 산업 특성을 고려해, 단순 대출 위주의 지원에서 벗어나 지분 투자와 정책 펀드를 결합한 다각도 지원책을 마련한다. 올해 10조원 집중 투입… '장기 인내 자금'으로 팹리스 뒷받침 금융위원회는 올 한 해에만 약 10조원 규모를 AI와 반도체 분야에 집중 투자하고, 향후 5년간 총 50조원 규모의 대규모 장기 투자를 추진할 계획이다. 특히 초기 개발 비용이 높고 운영 과정에서 전력 비용 부담이 큰 AI 산업의 특성을 반영해, 기업들이 흑자 전환까지 버틸 수 있는 '장기 인내 자금' 공급에 주력한다. 이억원 금융위원장은 “AI 산업은 반도체부터 서버, 클라우드 구축까지 전 주기에 걸친 대규모 투자가 필수적”이라며 “기술력이 있는 기업이 자금난으로 고사하지 않도록 기업의 성장 단계에 맞는 자금을 맞춤형으로 공급하겠다”고 말했다. AI 3대 강국 도약을 위해서는 1차 메가프로젝트에 포함된 'K-엔비디아 육성', '국가 AI컴퓨팅센터'뿐 아니라 '피지컬 AI 생태계 구축', '공공·산업 AI전환(AX) 가속' 등을 적극 지원하는 한편 후속 메가 프로젝트를 지속적으로 발굴해나가야 한다고도 밝혔다. 박태완 정보통신산업정책관은 "AI 반도체 시장의 패러다임이 범용성에서 효율성으로 옮겨가고 있다"며 "국내 기술 혁신이 성과로 연결되려면 대규모 자본 투입이 필수적이며 이를 위해 국민성장펀드와의 연계를 통한 집중 투자가 뒷받침돼야 한다"고 말했다. 정부는 이날 도출된 제안들을 향후 펀드 운용 계획에 적극 반영하고, 상반기 중 7대 메가 프로젝트에 대한 승인 절차를 마무리할 예정이다.

2026.03.17 16:50전화평 기자

하이퍼엑셀, '독파모' 업스테이지 정예팀서 LLM 추론 인프라 고도화

하이퍼엑셀이 정부 주도의 '독자 AI 파운데이션 모델(독파모)' 개발 사업에 참여 중인 업스테이지 정예팀에 합류했다. 하이퍼엑셀은 업스테이지 정예팀에서 독자 인공지능(AI) 모델의 경제성과 확장성을 확보하기 위한 추론 인프라 고도화 협력을 추진한다고 24일 밝혔다. 하이퍼엑셀은 생성형 AI 응용 환경에 최적화된 거대언어모델(LLM) 추론 전용 반도체를 설계·개발하는 기업이다. 독자 아키텍처 기반의 언어처리장치(LPU)를 통해 기존 인프라의 전력 및 비용 문제를 해결해 왔다. 하이퍼엑셀은 이번 독파모 프로젝트에서 LLM 추론 특화 LPU 설계와 성능 고도화를 담당한다. 특히 ▲고효율·저비용 AI 서비스 인프라 구현 ▲가상 거대언어모델(vLLM)·파이토치 기반 고가용성(HA) 풀스택 소프트웨어 개발 등을 수행해 실제 데이터센터 환경에 최적화된 추론 가속 기술을 제공할 계획이다. 초거대 모델 상용화 과정에 필수적인 처리 효율과 운영 안정성을 동시에 확보함으로써 국내 AI 모델이 산업 서비스 현장에서 실질적인 가격 경쟁력을 갖출 수 있도록 지원한다는 방침이다. 김주영 하이퍼엑셀 대표는 "초거대 AI 경쟁은 모델 규모뿐 아니라 이를 얼마나 효율적으로 서비스할 수 있는지에 달렸다"며 "LPU 기반 추론 가속 기술을 통해 국내 AI 인프라의 기술 자립과 글로벌 수준의 비용 경쟁력 확보에 기여하겠다"고 말했다.

2026.02.24 14:14이나연 기자

"고비용 AI 인프라는 지속 가능하지 않아"…하이퍼엑셀의 LPU 전략

생성형 AI 확산과 함께 데이터센터 전력 소모 문제가 산업 전반의 핵심 과제로 떠오르고 있다. LLM(대규모언어모델)을 돌리기 위한 연산 수요가 급증하면서, 데이터센터 유지에 랙당 수백 킬로와트(kW) 전력을 요구하는 구조로 빠르게 전환하고 있는 것이다. 그러나 전력 공급과 냉각, 인프라 구축 비용이 한계에 다다르면서 AI 인프라가 이 같은 전력 소모 구조를 계속 감당할 수 있을지에 대한 회의론도 확산되고 있다. 이 같은 상황에서 LLM 추론에 특화된 저전력·고효율 AI 반도체를 앞세운 하이퍼엑셀이 대안으로 주목받고 있다. 하이퍼엑셀은 GPU(그래픽처리장치) 중심의 기존 AI 인프라를 전면 대체하기보다는, 전력 효율과 비용 효율을 극대화한 새로운 가속기로 전체 시스템 차원의 총소유비용(TCO)을 낮추는 전략을 제시한다. 하이퍼엑셀은 LLM 추론에 특화된 AI 반도체 기업이다. 학습이 아닌, 이미 만들어진 모델을 실제 서비스 환경에서 효율적으로 구동하는 데 초점을 맞췄다. 챗GPT, 제미나이 등 생성형 AI 서비스의 핵심 연산 구간을 담당하는 영역이다. 김주영 하이퍼엑셀 대표는 "LLM 서비스의 병목은 더 이상 모델이 아니라, 이를 얼마나 효율적으로 돌릴 수 있느냐에 있다"며 "하이퍼엑셀은 LLM 추론에 맞게 처음부터 다시 설계한 칩을 만든다"고 설명했다. GPU와 다른 접근…저전력 강점 LPU의 차별성 하이퍼엑셀은 LPU(LLM Processing Unit)를 앞세워 시장 공략에 나선다. LPU는 LLM 추론에 특화된 AI 가속 칩으로, 학습과 추론을 모두 수행하는 범용 GPU와 달리 이미 학습된 모델을 서비스하는 데 필요한 연산만을 위해 설계된 전용 칩이다. 수천~수만 개의 작은 코어를 활용하는 GPU와 달리, LPU는 수십 개의 대형·특화 코어로 구성됐다. GPU가 절대적인 성능과 생태계 측면에서는 강점을 갖지만, 실제 LLM 추론 환경에서는 코어와 메모리 대역폭 활용률이 낮다는 한계가 있다. 하이퍼엑셀 LPU는 어텐션·피드포워드·노멀라이제이션 등 추론 연산을 코어 하나가 처음부터 끝까지 처리하는 구조로, 불필요한 데이터 이동을 줄여 같은 전력과 비용에서 더 많은 토큰을 처리할 수 있도록 최적화됐다. 김 대표는 "LPU는 GPU를 대체하기 위한 칩이 아니라, 추론 서비스에 가장 잘 맞는 역할을 수행하는 칩"이라며 "AI 서비스가 커질수록 전용 추론 가속기의 중요성은 더욱 커질 것"이라고 말했다. HBM 대신 LPDDR…비용·전력 효율을 겨냥한 전략 하이퍼엑셀의 또 다른 차별화 포인트는 HBM 대신 LPDDR 메모리를 채택한 전략이다. 업계에서는 LLM에는 초고속 HBM이 필수라는 인식이 강하지만, 하이퍼엑셀은 이와 다른 길을 택한 셈이다. LPDDR은 HBM 대비 속도는 느리지만 가격과 전력 소모가 크게 낮다. 하이퍼엑셀은 높은 유틸리제이션과 대규모 배칭(Batching) 기술을 통해 메모리 속도 한계를 보완했다. 한 번 모델을 읽어 여러 사용자를 동시에 처리하는 구조로, 토큰당 비용을 획기적으로 낮추는 방식이다. 김 대표는 "HBM을 쓰는 순간 모든 것이 고성능·고비용 구조로 간다"며 "우리는 충분한 성능을 유지하면서도 가격과 전력을 낮추는 쪽을 선택했다"고 말했다. LG전자와 온디바이스 LLM 협력…IP 확장성도 주목 하이퍼엑셀은 최근 LG전자와 온디바이스 LLM 가속기 협력으로도 주목받고 있다. 데이터센터용 칩뿐 아니라, 가전과 로봇 등 온디바이스 환경에서도 LLM을 효율적으로 구동할 수 있는 반도체를 공동 개발 중이다. 하이퍼엑셀의 LPU 아키텍처는 코어 크기와 전력, 성능을 요구사항에 따라 조정할 수 있도록 설계돼 IP 형태로도 확장 가능하다. 다만 회사의 주력 모델은 여전히 완성 칩을 중심으로 한 반도체 사업이다. 김 대표는 "고객과 단순히 칩을 사고 파는 관계가 아니라, 설계 단계부터 함께 제품을 만드는 전략"이라며 "데이터센터는 네이버클라우드, 온디바이스는 LG전자와 협업하고 있다"고 설명했다. "토큰 경제성을 높이는 칩"…하이퍼엑셀의 비전 하이퍼엑셀이 내세우는 비전은 명확하다. '토큰 경제성'을 극대화하는 AI 반도체를 만드는 것이다. 달러당 얼마나 많은 토큰을 생성할 수 있느냐를 기준으로, LLM 서비스의 비용 구조를 근본적으로 바꾸겠다는 목표다. 김 대표는 최근 기가와트(GW)급 데이터센터 논의를 언급하며 “AI 가속기가 지금처럼 랙당 수백 킬로와트의 전력을 요구하는 구조는 지속 가능하지 않다”고 지적했다. 그러면서 “결국 AI 인프라가 지속 가능해지려면, 가속기 자체가 더 에너지 효율적으로 바뀌어야 한다”며 “하이퍼엑셀의 칩은 그 방향을 겨냥하고 있다”고 말했다. 한편 김주영 대표는 한국공학한림원이 선정한 한국을 이끌어갈 젊은 과학자 29명에 선정된 바 있다.

2025.12.23 15:50전화평 기자

하이퍼엑셀-망고부스트, 차세대 AI 인프라 고도화 MOU

AI반도체 스타트업 하이퍼엑셀(HyperAccel)은 망고부스트(MangoBoost)와 차세대 AI 인프라 고도화를 위한 기술 및·사업 협력을 목적으로 업무협약(MOU)을 체결했다고 23일 밝혔다. 이번 협약은 AI 워크로드 증가로 복잡해지는 데이터센터 환경에 대응하기 위한 것으로, 양사는 지속가능한 데이터센터 구현과 AI 인프라 성능 및 운영 효율 개선을 공동 목표로 설정하고 기술 교류와 공동 검증을 중심으로 단계적인 협력 체계를 구축할 계획이다. 하이퍼엑셀은 LLM(거대언어모델) 추론에 특화된 고효율 AI 반도체 LPU(LLM Processing Unit)와 소프트웨어 스택을 기반으로 차세대 AI 가속 인프라를 개발하고 있으며, 망고부스트는 DPU 기반 네트워크 및 시스템 최적화 기술을 통해 AI 인프라의 효율을 높이는 솔루션을 보유하고 있다. 양사의 기술 역량을 결합해 AI 인프라 전반에서 실질적인 운영 개선 효과를 제공하는 것을 목표로 한다. 하이퍼엑셀 김주영 대표이사는 “AI 인프라의 확산과 함께 데이터센터의 성능, 효율, 지속가능성은 더 이상 선택이 아닌 필수 과제가 됐다”며 “망고부스트와의 협력을 통해 AI 반도체부터 데이터센터 운영까지 아우르는 실질적인 기술·사업 성과를 만들어갈 것”이라고 밝혔다. 망고부스트 김장우 대표이사는 “이번 협약은 AI에 최적화된 차세대 데이터센터 인프라를 구현하기 위한 중요한 출발점”이라며 “양사의 기술 역량을 결합해 고객에게 더 높은 성능과 효율, 그리고 지속가능한 데이터센터 환경을 제공하겠다”고 말했다. 양사는 향후 국내외 AI 및 데이터센터 시장을 대상으로 협력을 단계적으로 확대할 계획이다.

2025.12.23 14:09전화평 기자

김주영 하이퍼엑셀 대표, 팹리스산업 유공자 '중기부 장관상' 수상

AI 반도체 스타트업 하이퍼엑셀은 김주영 대표이사가 지난달 26일 열린 '2025 K-팹리스 테크포럼 & 제3회 팹리스인의 날'에서 팹리스 산업 유공자 부문 '중소벤처기업부 장관상'을 수상했다고 2일 밝혔다. 이번 포상은 팹리스 산업 생태계 혁신과 기술 자립에 기여한 기업과 인물을 선정하는 최고 권위의 정부 포상이다. 김 대표는 창업 이후 세계 최초 LLM 추론 특화 반도체 'LPU(LLM Processing Unit)'를 독자 개발하고 상용화를 성공적으로 이끌며, 국내 팹리스 기술 경쟁력 강화와 AI 반도체 기술 자립에 기여한 공로를 인정받아 중소벤처기업부 장관상을 수상했다. 특히 LPU 기반의 고성능·저전력 반도체 구축으로 해외 GPU 중심 인프라 의존도를 낮추고, 국산 AI 인프라 구축과 디지털 전환 생태계 조성에 초석을 마련한 점이 이번 수상의 핵심 근거가 됐다. 대규모 언어모델(LLM) 추론에 최적화된 LPU 아키텍처는 높은 에너지 효율성과 가격 경쟁력을 갖춘 차세대 반도체 기술로 주목받고 있다. 또한 하이퍼엑셀은 전문 연구·엔지니어링 인력을 적극 채용·육성하며 반도체 및 AI 산업의 인재 생태계 강화에 기여하고 있다. AI 반도체, 시스템 설계, 소프트웨어·플랫폼 등 전 영역의 전문 인력을 확보함으로써 국내 반도체 산업의 지속적 성장 기반을 마련하고 있다. 하이퍼엑셀은 이번 수상을 계기로 차세대 LPU 기술을 중심으로 국산 AI 반도체 및 AI 인프라 생태계 확장에 속도를 높이며, 대한민국 AI 기술 경쟁력 강화와 지속 가능한 혁신을 선도해 나갈 계획이다. 김주영 대표는 “국산 LPU 반도체 기술의 잠재력과 산업적 가치를 국가적으로 인정받은 뜻깊은 상”이라며 “한국 팹리스 산업이 글로벌 경쟁력을 갖출 수 있도록 연구개발과 상용화에 더욱 박차를 가하겠다”고 말했다.

2025.12.02 09:48전화평 기자

엔비디아 독주에 제동…메타, TPU 도입에 'K-AI칩' 시장 열린다

글로벌 AI 반도체 시장의 힘의 추가 움직이고 있다. 메타가 구글의 TPU(텐서프로세서유닛) 도입을 본격화하며 엔비디아를 중심의 GPU(그래픽처리장치) 생태계가 흔들리기 시작한 것이다. AI 학습부터 추론까지 전 과정을 GPU로만 해결하던 기존 산업 구조가, 다양한 형태의 AI 가속기(ASIC·TPU·NPU)로 분화하는 흐름으로 전환하면서 국내 AI 반도체 업체에도 새로운 기회가 열릴 것으로 관측된다. 27일 업계에 따르면 메타는 최근 자체 AI 인프라에 구글의 새로운 TPU를 대규모로 도입하는 방안을 검토 중이다. 이미 구글 클라우드를 통한 TPU 사용 협력에도 나선 것으로 전해진다. AI 인프라 투자액이 수십조 원에 달하는 메타가 GPU 외 대안을 공식 채택하는 첫 글로벌 빅테크가 된 셈이다. 메타의 선택은 단순한 장비 교체가 아니라, AI 인프라가 더 이상 GPU 한 종류로 감당할 수 없는 단계에 접어들었다는 신호로 읽힌다. 전력·비용·수급 문제를 해결하기 위해 기업들이 맞춤형 반도체(ASIC), TPU, 자체 AI 칩으로 눈을 돌리기 시작한 것이다. 국내 AI 반도체 업계 관계자는 “데이터센터에서 TPU가 활용되기 시작됐다는 건 추론 분야에서 엔비디아 GPU의 대안이 관심 수준을 넘어서 실제 수요 기반의 시장으로 자리 잡고 있다는 의미로 해석된다”고 말했다. GPU가 놓친 틈새, 한국 업체들이 파고드는 시장 이 같은 글로벌 흐름은 국내 AI 반도체 업계에는 수년 만의 기회로 평가된다. 엔비디아 GPU 중심 구조가 흔들리면서 AI 가속기 시장이 다원화되는 구간이 열렸고, 이는 곧 국산 AI 칩이 진입할 수 있는 틈새가 커진다는 의미이기 때문이다. 국내 AI 반도체 기업 중에서는 리벨리온과 퓨리오사AI가 직접적인 수혜를 받을 것으로 전망된다. 양사는 '서버용 AI 추론'에 특화된 NPU(신경망처리장치)를 개발하는 회사다. 두 회사 모두 GPU 대비 높은 전력 효율과 비용 절감을 강점으로 내세우며, 데이터센터와 클라우드 환경에서 빠르게 늘어나는 AI 추론 부담을 줄이는 데 초점을 맞추고 있다. 양사 외에도 하이퍼엑셀이 GPU 없이 LLM 추론 인프라를 구축할 수 있는 추론 서버 풀스택 전략을 통해 업계 안팎에서 주목받고 있다. 업계에서는 TPU 채택을 시작으로 국내 추론용 칩 시장도 활성화될 것으로 내다보고 있다. AI 반도체 업계 관계자는 “이런 시장의 변화는 ASIC 업체들이 준비 중인 추론 특화 칩에 대한 논의로 자연스럽게 이어질 것”이라며 “장기적인 부분에서 의미있는 신호로 보인다”고 설명했다. K-AI칩 활성화...한국 생태계 전반에 호재 이 같은 시장 변화는 칩 개발사에 그치지 않고, 국내 반도체 생태계 전반으로 확산될 수 있다. 국내 AI 칩 생산의 상당 부분을 맡고 있는 삼성전자 파운드리(반도체 위탁생산)는 칩 수요가 늘어날수록 선단공정·2.5D 패키징 등 부가 공정 수요까지 함께 확대될 것으로 예상된다. 아울러 글로벌 HBM 시장을 주도하는 SK하이닉스도 직접적 수혜가 기대된다. 대부분의 AI 가속기가 HBM을 기본 메모리로 채택하면서, GPU 외 대안 가속기 시장이 커질수록 HBM의 전략적 중요성은 더욱 커지는 것이다. 여기에 AI 칩 설계 수요가 증가하면 가온칩스·퀄리타스반도체 등 국내 디자인하우스와 IP 기업의 일감도 자연스럽게 늘어날 것으로 보인다. ASIC 개발 프로젝트가 늘어날수록 설계·IP·검증 생태계가 함께 성장하는 구조이기 때문이다. 반도체 업계 관계자는 "GPU를 대체하는 시장 흐름은 한국 반도체 업계에는 긍정적인 신호가 될 수 있다"고 말했다.

2025.11.27 15:20전화평 기자

하이퍼엑셀, 신용보증기금 '제14기 혁신아이콘' 선정

AI 반도체 스타트업 하이퍼엑셀은 신용보증기금이 선정한 '제14기 혁신아이콘'에 이름을 올렸다고 10일 밝혔다. 신용보증기금의 혁신아이콘 프로그램은 글로벌 혁신기업으로 성장 가능성이 높은 혁신 스타트업의 스케일업을 돕는 프로그램으로, 성장 유망한 혁신 기업을 발굴해 지원한다. 이번 제14기에는 143개 기업이 지원해 약 29:1의 높은 경쟁률을 기록했으며, 하이퍼엑셀은 반도체 분야 대표 기업으로 선정됐다. 하이퍼엑셀은 3년간 최대 200억원 신용보증, 최저보증료율 적용, 협약은행 추가 보증료 지원과 함께 해외 진출, 컨설팅, 홍보 등 다양한 혜택을 받게 된다. 하이퍼엑셀은 대규모 언어모델(LLM) 추론에 최적화된 고성능·저전력 AI 반도체(LPU) 기술력을 기반으로, 생성형 AI 서비스에 필요한 실시간 응답성과 비용 효율성을 동시에 실현한 점을 높이 평가받았다. 또한 데이터센터, 온프레미스 서버, 엣지 디바이스 등 다양한 환경에서 적용 가능한 확장성과 범용성을 입증하며, AI 반도체 분야의 차세대 혁신 기업으로서 성장 잠재력을 인정받았다. 특히 하이퍼엑셀은 LPU 기술을 기반으로 글로벌 생성형 AI 시장을 겨냥한 제품 포트폴리오를 확대하고 있으며, 2026년 이후 본격적인 칩 양산과 함께 해외 데이터센터 및 클라우드 기업과의 협업을 통해 글로벌 시장 공략을 가속화할 계획이다. 김주영 하이퍼엑셀 대표는 “혁신아이콘 선정을 통해 하이퍼엑셀의 기술 경쟁력과 성장 잠재력을 공식적으로 인정받게 되어 의미가 크다”며, “앞으로도 LPU 기반의 기술 혁신과 제품 고도화를 지속해 글로벌 AI 반도체 시장에서 새로운 표준을 만들어가겠다”고 말했다.

2025.11.10 16:55전화평 기자

기원테크·하이퍼엑셀·정원엔시스, 차세대 AI 생태계 구축 힘 모은다

국제표준 이메일 보안 전문기업 기원테크(대표 김동철)가 생성 AI 가속 반도체 전문기업 하이퍼엑셀, IT 시스템 통합 전문기업 정원엔시스와 차세대 AI 생태계 구축을 위한 3자 전략적 업무협약(MOU)을 체결했다고 19일 밝혔다. 이번 협약의 핵심은 기원테크의 생성형 AI 기반 민원 분석 솔루션 '민원e'를 중심으로, 하이퍼엑셀의 거대언어모델(LLM) 특화 반도체 LPU를 적용해 GPU+LPU 하이브리드 시스템을 구축하는 것이다. 여기에 정원엔시스의 공공부문 총판 역량을 더해 대규모 음성 및 텍스트 데이터를 안정적으로 처리할 수 있는 차세대 AI 인프라를 완성하고, 공공 민원처리 시장에서 기술 혁신과 공급망 확산을 동시에 추진한다. 하이퍼엑셀은 2023년 설립된 생성 AI 가속 반도체 및 서버 솔루션 전문기업이다. 이 회사는 LLM 추론에 특화된 반도체 LPU(LLM Processing Unit)를 개발하고 있다. LPU는 GPU 대비 10배 이상 높은 가격 대비 성능과 5배 수준의 전력 효율성 향상을 목표로 하는 차세대 AI 반도체다. 정원엔시스는 1978년부터 IT사업을 시작한 기업으로, 시스템 인프라 구축부터 통합, 마이그레이션까지 IT 컨설팅 능력과 기술 지원 노하우를 보유한 IT 전문기업이다. 한국휴렛팩커드의 총판으로서 서버, 스토리지 등 하드웨어와 솔루션을 납품하며, 최근 238억원 규모의 국가AI사업용 인프라장비 공급계약에 참여하는 성과를 거뒀다. 3사 협력을 통해 구축되는 GPU+LPU 하이브리드 시스템은 기존 GPU만으로는 한계가 있던 대규모 음성 상담 데이터와 텍스트 데이터의 동시 고속 처리를 가능하게 한다. 하이퍼엑셀의 LPU가 LLM 추론 작업을 담당하고, GPU가 음성인식과 자연어처리를 처리함으로써 전체 시스템의 처리 성능을 획기적으로 향상시키면서도 전력 효율성과 비용 효율성을 동시에 확보할 수 있게 됐다. 기원테크는 이번 협력을 통해 소프트웨어 전문성을 기반으로 하드웨어-소프트웨어 통합 최적화 솔루션 제공까지 영역을 확장하게 됐다. 하이퍼엑셀의 LPU 기반 플랫폼에서 '민원e'가 최적화되어 구동됨으로써 기존 대비 처리 속도는 30~50% 향상되고, 운영 비용도 크게 절감될 수 있을 것으로 기대된다. 김주영 하이퍼엑셀 대표는 "LPU는 LLM 워크로드에 최적화된 차세대 AI 반도체로, 민원e와 같은 실제 공공 서비스에 적용돼 그 가치를 입증할 수 있게 돼 매우 기쁘다"며 "이번 협력을 통해 국산 AI 반도체 기술의 우수성을 실증하고, 공공 분야 AI 전환의 새로운 표준을 제시하겠다"라고 말했다. 한덕희 정원엔시스 대표는 "설립 이후 축적한 IT 인프라 구축 노하우와 최근의 성과를 바탕으로 혁신적인 AI 솔루션의 안정적 운영 기반을 제공하게 돼 자랑스럽다"며 "국내 기술 기반의 완전 자립형 AI 인프라 구축을 통해 공공 디지털 혁신을 선도하겠다"고 밝혔다. 김동철 기원테크 대표는 "이번 3자 협력은 국제표준 기반 기술력과 국산 AI 반도체의 만남으로 진정한 의미의 기술 자립을 실현하는 계기"라며서 "민원e가 공공 서비스 혁신의 새로운 표준이 되도록 최선을 다하겠다"고 했다.

2025.09.19 17:05백봉삼 기자

KAIST-하이퍼엑셀, NPU 신기술 공개…"챗GPT 추론성능 60% 개선"

챗GPT의 추론 성능을 60%이상 개선할 수 있는 신경망처리장치(NPU) 핵심기술이 개발됐다. KAIST는 전산학부 박종세 교수 연구팀과 (주)하이퍼엑셀(전기및전자공학부 김주영 교수 창업기업)이 챗GPT와 같은 생성형AI 클라우드에 특화된 고성능·저전력 NPU 핵심기술을 새로 설계하는데 성공했다고 4일 밝혔다. 핵심은 2가지다. 키-값(KV) 캐시를 경량화하는 양자화 (quantization) 알고리즘과 이를 가속하는 NPU 기반 하드웨어 모듈(아키텍처)을 새로 개발했다. 트랜스포머 기반 언어 모델 추론 과정에서 생성되는 KV 캐시는 매 요청, 매 토큰마다 생성돼 누적되기 때문에 대규모 시스템에서는 메모리 용량과 대역폭 사용량 대부분을 차지한다. 이로인해 시스템 성능 병목을 초래한다. 연구자들이 이를 타개하기 위한 방편으로 최신 GPU를 최대한 많이 확보하려고 애쓰는 이유다. 연구팀은 이같은 문제 해결을 위해 다양한 모델 및 입력 데이터셋 KV 캐시 값 분포를 분석하고 이를 특성화했다. 연구팀은 "이를 바탕으로 정확도 손실을 최소화하는 양자화 기법을 새로 설계했다"며 "양자화된 KV 캐시 평균 비트 폭 (bitwidth)를 줄이기 위해 양자화가 어려운 값들을 효과적으로 처리하는 경량화 기법도 함께 설계했다"고 설명했다. 하드웨어 모듈은 기존 NPU 아키텍처 연산 로직을 변경하지 않으면서도 메모리 인터페이스와 통합될 수 있도록 설계했다. 연구팀은 이 모듈에 제한된 메모리 대역폭 및 용량을 효율적으로 활용하기 위한 페이지 단위 메모리 관리 기법과 양자화된 KV 캐시에 최적화된 새로운 인코딩 기법 등을 개발, 적용했다. 연구팀은 "이를 적용한 NPU 디바이스는 최신 GPU 기반 기존 경량화 기법 대비 추론 성능(초당 생성 토큰 개수)과 정확도가 60%이상 우수했다"며 "전력 소모도 기존 대비 44%이상 효율성을 확보했다"고 부연 설명했다. 박종세 교수는 "메모리 사용의 대부분을 차지하는 KV 캐시를 양자화함으로써, 적은 수의 NPU 디바이스 만으로 동일 수준의 AI 인프라를 구성할 수 있게 됐다"며 "생성형 AI 클라우드 구축 비용을 크게 절감할 수 있을 것"이라고 말했다. 박 교수는 또 "능동적인 실행형 AI인 '에이전틱 AI '등으로 대표되는 AI 대전환(AX) 환경에서도 핵심 역할을 할 것"으로 기대했다. 연구는 KAIST 김민수 연구생(박사과정)과 ㈜하이퍼엑셀 홍성민 박사가 공동 제1 저자로 진행했다. 연구결과는 지난 달 21일부터 25일까지 일본 도쿄에서 열린 '2025 국제 컴퓨터구조 심포지엄(ISCA)'에 발표됐다. 예산은 한국연구재단 우수신진연구자지원사업, 정보통신기획평가원(IITP), 인공지능반도체대학원지원사업 지원을 받았다.

2025.07.04 09:01박희범 기자

하이퍼엑셀, 국산 AI 반도체 기반 K-클라우드 기술개발 국책과제 수주

LLM 특화 AI 반도체 스타트업 하이퍼엑셀은 과학기술정보통신부와 정보통신기획평가원(IITP)이 추진하는 450억원 규모의 'AI반도체를 활용한 K-클라우드 기술개발사업' 국책과제를 수주했다고 8일 밝혔다. 이번 과제는 국산 AI 반도체 기반 데이터센터 학습 및 추론 시스템 통합 및 검증을 목표로 하며 2030년 12월까지 진행될 예정이다. 하이퍼엑셀이 주관하는 이번 과제에는 리벨리온, 파네시아, 망고부스트, 래블업, 스퀴즈비츠 등 국내 유명 AI 반도체 및 AI 솔루션 기업들과 한국과학기술원(KAIST), 서울대학교 등 국내 유수 대학이 참여하여 최고의 전문성과 기술력을 보유한 AI 인프라 '드림팀'으로 인정받았다. 특히, 국내 최대 데이터센터 운영사이자 AI 반도체 수요처인 네이버클라우드가 직접 과제에 참여하여 기술 개발 이후 사업화 성공 가능성까지 확보했다. 특히, 국내 최대 데이터센터 운영사인 네이버클라우드가 직접 해당 기술의 실증에 적극 참여함으로써 국내 NPU 기술 산업 생태계 확산에 기여한다고 밝혔다. 이동수 네이버클라우드 전무는 “국내 소버린AI 생태계 구축에 있어서 금번 과제가 갖는 의미에 공감하고, 네이버클라우드가 가진 AI 밸류체인 전 영역에 걸친 경험과 역량을 바탕으로 금번 과제의 성공에 적극적으로 기여하고자 참여를 결정했다”고 말했다. 하이퍼엑셀은 이번 과제를 통해 대한민국의 독자적인 AI 반도체 기술 역량을 확보하고, 국산 AI 반도체 기반의 데이터센터 인프라를 구축하여 외산 AI 반도체의 의존성을 줄이고 글로벌 시장에서 경쟁력을 강화할 계획이다. 특히 추론에 최적화한 저전력 고효율 AI 반도체인 LPU(LLM Processing Unit)를 삼성전자 4나노미터 공정을 통해 개발 중이며, 데이터센터의 성능 향상 및 비용 절감 등 운영 효율성을 극대화하는 것을 목표로 하고 있다. 김주영 하이퍼엑셀 대표는 "이번 과제를 통해 국내 최고의 AI 반도체 및 AI 기업들과 함께 시너지를 낼 수 있게 되어 매우 기쁘다"며 "연구개발부터 사업화까지 참여기관들과 협업을 통해 국내 기술 역량을 총결집하여 글로벌 시장에서도 K-클라우드의 경쟁력을 인정받고 현재 정부 주도로 추진 중인 국가 AI컴퓨팅센터 구축에도 기여할 수 있을 것”이라고 말했다.

2025.05.09 14:35장경윤 기자

디노티시아·하이퍼엑셀, AI칩 결합해 최적 추론 시스템 개발

인공지능(AI)·반도체 통합 솔루션 전문기업 디노티시아는 AI 반도체 설계 팹리스 스타트업 하이퍼엑셀과 공동으로 'RAG(검색증강생성) 최적화 AI 추론 시스템' 개발에 나선다고 20일 밝혔다. 이번 협력은 디노티시아의 벡터 데이터 연산 가속기 칩(VDPU)과 하이퍼엑셀의 거대언어모델(LLM) 가속기 칩인 'LLM 프로세싱 유닛(LPU)'을 결합해 하나의 통합 시스템으로 구현하는 방식으로 진행된다. AI 서비스 분야에서 데이터 검색의 중요성이 점차 커지고, 데이터의 모달리티(modality)도 다양해지며 양이 늘어나면서, 더 빠른 데이터 검색이 점점 더 요구되고 있다. 기존 시스템은 소프트웨어에 의존해 데이터를 검색하고, LLM 기반의 GenAI 과정을 별도로 처리해 응답 속도가 느리고 전력 소모가 많았다. 디노티시아는 벡터 데이터베이스 연산 가속기 칩, VDPU를 활용해 AI가 대규모 멀티모달 (Multi-modal) 데이터를 실시간으로 검색·활용할 수 있도록 제공하고, 하이퍼엑셀은 LPU 칩을 통해 AI 모델의 연산 성능을 극대화 한다. 양사는 이 두 칩을 결합해, 검색과 추론을 동시에 처리하는 세계 최초의 RAG 특화 AI 시스템을 완성할 계획이다. 정무경 디노티시아 대표는 “LLM 서비스가 확산되면서 데이터 검색에 대한 요구사항이 급격히 늘어나고 있다”며 “이번 협력을 통해 AI 모델의 추론뿐 아니라 데이터 검색 기능까지 최적화한 새로운 개념의 AI 시스템을 선보이겠다”고 말했다. 김주영 하이퍼엑셀 대표는 “AI 연산의 병목 현상을 해결하고, 성능과 효율성을 동시에 확보하는 것이 AI 반도체의 핵심 과제”라며 “이번 협력을 통해 RAG와 LLM을 최적화한 AI 시스템을 구축함으로써, AI 시스템 운영 방식을 혁신하는 중요한 전환점이 될 것”이라고 말했다.

2025.03.20 10:42장경윤 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

[ZD브리핑] 삼성전자 잠정실적 발표...기아 CEO 인베스터 데이 개최

7년전 개발된 '완벽진공' 시스템…"외산장악 반도체 공정 효자될까"

넥슨 '바람의나라', 30년 장기 흥행 비결은?

쇠고기 넘어 GPU·클라우드까지…美, 韓 첨단 디지털 산업 '통상 전선' 확대

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.