• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
  • AI의 눈
AI의 눈
HR컨퍼런스
디지털트러스트
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'KV'통합검색 결과 입니다. (8건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

메모리 1/6로 줄인다고?…구글 터보퀀트 쇼크의 치명적 착각

구글 리서치가 발표한 대규모 언어모델(LLM) 메모리 압축 기술 '터보퀀트(TurboQuant)'에 글로벌 반도체 시장이 요동쳤다. 이 기술이 AI가 문맥을 기억하는 KV캐시(Key-Value Cache) 용량을 최대 6분의 1로 압축한다는 소식에, 고대역폭메모리(HBM) 등 메모리 반도체 수요가 급감할 것이란 우려가 덮치며 관련 기업들의 주가가 일제히 크게 하락한 것이다. 하지만 국내 AI 반도체 및 아키텍처 전문가들의 진단은 정반대 방향을 가리키고 있다. 시장은 터보퀀트를 '수요 파괴자'로 오해했다. 하지만 기술의 본질과 최신 인공지능(AI) 서비스 트렌드를 뜯어보면 오히려 다가올 '메모리 폭발'을 지탱하기 위한 산소호흡기이자, AI 생태계를 확장할 강력한 촉매제라는 분석이다. 워킹 메모리의 확장…"책상 안 줄이고 참고서 늘린다" 전문가들은 가장 큰 착각으로 '압축의 목적'을 꼽았다. 기업들이 메모리를 압축하려는 이유는 돈을 아끼기 위해서가 아니라, AI를 더 똑똑하게 만들기 위해서라는 것이다. 정무경 디노티시아 대표는 'KV캐시'를 사람이 복잡한 문제를 풀 때 당장 머릿속에 지식을 임시로 얹어두는 '워킹 메모리(Working Memory)'에 비유했다. 예컨대 어려운 문제를 풀 때 지식을 바로바로 꺼내 쓰기 위해 넓게 펼쳐두는 '책상'과 그 위의 '참고서' 같은 역할이다. 당장 풀어야 할 문제가 복잡할수록 책상 위에 참고서를 많이 올려둘 수 있어야 답변의 퀄리티가 높아진다. 현재 AI 업계의 최대 화두인 AI가 한 번에 읽고 기억할 수 있는 문맥(컨텍스트)의 길이를 어떻게든 늘리는 것도 이 때문이다. 문제는 그동안 물리적인 HBM 메모리의 용량이 턱없이 부족해 방대한 지식을 한 번에 올려놓지 못했다는 점이다. 이때 터보퀀트 같은 기술로 데이터 크기를 6분의 1로 압축하게 되면 어떤 일이 벌어질까. 기업들은 '이제 책상 크기를 줄여 비용을 아끼자'고 생각하지 않는다. 역설적으로 기존 책상 크기를 그대로 유지한 채, 2권밖에 못 놓던 참고서를 12권이나 꽉 채워 올려둔다. 같은 하드웨어 공간에 6배 더 많은 지식을 밀어 넣어 AI의 지능을 극대화하는 쪽을 택한다는 전망이 우세하다. 정 대표는 "6배로 압축했다가 아니고 6배 많이 올려놓을 수 있다, 이렇게 생각해야 한다"며, "성능이 좋아지면 이제 작은 하드웨어로도 구동이 되기 때문에 디멘드(수요)가 없어질 거라고 착각하는 경우가 되게 많다"고 꼬집었다. 효율이 높아질 수록 (메모리)수요가 줄어드는 게 아니라 오히려 더 늘어나게 된다는 말이다. 학계 주장도 이를 뒷받침한다. 김지훈 한양대 융합전자공학부 교수는 "메모리 요구량이 줄어드는 만큼 구매에 여유가 생기기 때문에, 더 다른 큰 모델과 시퀀스를 쓰거나 확장하게 된다"고 설명했다. '에이전틱 AI'가 부른 데이터 폭증 그렇다면 작년 4월에 이미 공개됐던 이 논문 기반의 기술이 왜 하필 지금 뜨거운 감자가 되었을까. 그 배경에는 최근 AI 시장의 게임 체인저로 떠오른 '에이전틱 AI(Agentic AI)'의 등장에 있다는 게 전문가들의 분석이다. 과거의 단순 문답형 LLM에서는 한 번의 추론에 한정된 KV캐시만 필요했다. 하지만 에이전틱 AI는 스스로 단계별 논리 전개를 수행하며 루프를 반복한다. 루프는 프로그래밍이나 AI 작동 과정에서 특정 목표를 달성할 때까지 생각과 행동 과정을 계속해서 되돌아가며 반복하는 것을 말한다. 카이스트 교수인 정명수 파네시아 대표는 "에이전트랑 LLM이 루프로 돌아가는 그 구조는 KV캐시를 훨씬 많이 더 쌓는다"고 지적했다. 정 대표는 에이전트가 동작하며 루프 백(Loop back)을 돌게 되면 KV캐시 요구량이 "몇 십 배, 몇 백 배 막 늘어난다"고 설명했다. 결국 에이전틱 AI 시대로 접어들면서 메모리 요구량이 기하급수적으로 폭증하자, 드웨어를 물리적으로 추가해 수습하던 기존 방식이 한계에 달했다는 지적이다. 터보퀀트와 같은 극단적인 소프트웨어 압축 기술은 이러한 데이터 폭발을 견뎌내기 위한 필수불가결한 고육지책일 뿐, 결코 장기적인 메모리 수요를 꺾을 수 없다는 것이 현업 전문가들의 중론이다. 정확도 하락에 연산 병목까지…결론은 영원한 '다다익램' 극단적인 압축 기술이 공짜로 얻어지는 마법도 아니다. 구글은 터보퀀트가 성능 하락 없이 데이터를 압축한다고 발표했지만, 현장의 시각은 더 냉정하다. 양자화(Quantization) 기술의 본질 자체가 소수점 이하의 세밀한 데이터를 덜어내는 '손실 압축'이기 때문이다. 정명수 대표는 이를 과거 슈퍼컴퓨터의 기후 예측 시뮬레이션에 빗대어 설명했다. 메모리 용량을 아끼기 위해 숫자의 정밀도를 낮추면 결국 일기예보가 틀리듯, 극단적인 메모리 축소는 필연적으로 AI 서비스의 정확도(품질) 하락이라는 또다른 청구서를 내밀 수밖에 없다는 지적이다. 아울러 추가 연산 병목 문제까지 더하면, 터보퀀트가 물리적 메모리를 완벽히 대체할 수 없다는 한계는 명확해진다. 이진원 하이퍼엑셀 CTO는 "메모리 저장은 3비트로 하더라도 꺼내서 연산할 때 4비트로 변환한 다음에 해야 한다”며, 현재 하드웨어 구조상 3비트 연산기가 부재한 현실을 꼬집었다. 즉, 터보퀀트 기술은 저장 공간만 줄여줄 뿐 실제 연산 효율에는 이득이 없다는 뜻이다. 오히려 데이터를 다시 역양자화(압축 해제)하는 과정에서 추가 연산 오버헤드가 발생한다. 이를 병목 없이 매끄럽게 처리할 최적화 커널이 뒷받침되지 않는다면, 최악의 경우 메모리 사용량은 줄이더라도 AI 구동 속도는 오히려 느려질 수 있다는 치명적인 딜레마를 안고 있는 셈이다. 결과적으로 효율성 혁신은 메모리 반도체의 파이를 갉아먹는 것이 아니라 오히려 거대하게 키울 가능성이 더 많다는 관측이다. 이 CTO는 경제학의 '제본스의 역설'을 인용하며 "사람들은 '예전보다 10배 효율성이 높아지게 됐으니까 우리 이제 하드웨어를 10분의 1만 쓰자'라고 절대 그렇게 안 한다"며 “오히려 10배 더 많이 사용해보자는 쪽으로 이야기가 나올 것”이라고 말했다. 그러면서 "이것(터보퀀트) 때문에 메모리가 덜 팔리거나 이럴 일은 절대 없다"고 단언했다. AI가 더 긴 문맥을 이해하고 스스로 추론하는 시대로 나아가는 이상, 메모리는 그 진화의 속도를 받쳐줄 유일한 토대라는 것이다. 김지훈 교수의 한 마디는 반도체 시장을 향한 섣부른 위기론을 관통한다. "이미 시장에 메모리 공급이 너무 모자란 상황에서, 메모리는 많으면 많을수록 좋다는 '다다익램(多多益RAM)'의 법칙은 절대 깨지지 않습니다.”

2026.03.27 15:27전화평 기자

[유미's 픽] "연산보다 메모리"…구글 '터보퀀트' 등장에 엔비디아도 '긴장'

구글이 생성형 인공지능(AI) 운영의 핵심 병목으로 꼽혀온 '메모리 문제'를 소프트웨어 방식으로 풀어내는 기술을 공개하면서 AI 인프라 경쟁의 방향이 바뀌고 있다. 모델 규모 확대 중심이던 기존 경쟁 구도가 실행 효율과 메모리 최적화 중심으로 이동하고 있다는 분석이 나온다. 27일 업계에 따르면 최근 대규모언어모델(LLM) 운영에서는 연산 성능보다 메모리 처리 효율이 전체 성능을 좌우하는 사례가 늘고 있다. LLM은 답변 생성 과정에서 이전 정보를 반복적으로 참조하는 구조를 갖고 있어 데이터 접근 과정에서 발생하는 지연이 속도와 비용을 동시에 제한하는 요인으로 작용한다. 현재 엔비디아 H100 등 최신 그래픽처리장치(GPU) 도입으로 연산 성능은 크게 향상됐지만, 메모리 대역폭과 데이터 이동 효율은 상대적으로 제한돼 있다. 실제 서비스 환경에서는 GPU 연산보다 메모리 접근이 병목으로 작용하는 경우가 적지 않다. 이 같은 흐름 속에서 AI 추론 시스템을 구성하는 기술 구조에 대한 이해도 중요해지고 있다. AI 추론은 모델, 메모리 구조, 실행 소프트웨어, 하드웨어가 단계적으로 결합된 형태로 작동한다. 우선 모델은 연산 과정에서 생성된 정보를 메모리에 저장하고 이를 반복적으로 참조한다. 이 과정에서 메모리 사용량이 급격히 증가하며 병목이 발생한다. 이를 해결하기 위한 접근이 메모리 압축 기술로, 데이터 표현을 줄이는 양자화(Quantization) 방식과 데이터 구조를 효율적으로 인코딩하는 방식이 함께 발전하고 있다. 이 가운데 구글이 지난 24일 공개한 터보퀀트(TurboQuant)는 데이터 표현 방식을 재구성하는 양자화 기반 접근으로, 메모리 사용량을 줄이면서도 정확도를 유지하는 데 초점을 맞춘 기술로 평가받는다. 엔비디아 역시 같은 문제를 두고 다른 접근을 시도하고 있다. 특히 최근에는 KV 캐시를 효율적으로 저장하기 위한 'KV 캐시 트랜스폼 코딩(KV Cache Transform Coding)' 기반 기술을 앞세우고 있다. 이는 데이터를 단순히 제거하는 방식이 아닌, 정보 구조를 효율적으로 인코딩해 저장 효율을 높이는 접근에 가깝다. 다만 모델별 특성에 맞춘 보정 과정이 필요하다는 점에서 적용 방식에는 차이가 있다. 두 기술 모두 메모리 압축을 목표로 하지만 접근 방식에는 차이가 있다. 터보퀀트가 양자화를 기반으로 정확도 손실을 최소화하는 데 초점을 둔 반면, KV 캐시 트랜스폼 코딩은 인코딩 효율을 높여 압축률을 끌어올리는 기술로 분석된다. 두 기술은 기존 메모리 최적화 기술의 연장선에선 의미 있는 진전으로 평가된다. KV 캐시의 정밀도를 낮추는 양자화 기법은 GPTQ, AWQ 등 오픈소스 진영과 스타트업을 중심으로 확산돼 왔고, 중요도가 낮은 토큰을 선택적으로 제거하는 방식이나 슬라이딩 윈도우 기반 메모리 관리 기법도 일부 모델에 적용돼 왔다. 또 메모리 접근을 줄이는 어텐션 최적화 기술은 데이터 전송 횟수를 줄여 속도를 높이는 플래시어텐션(FlashAttention) 등으로 발전하며 주요 AI 기업과 연구 커뮤니티에서 활용되고 있다. 업계 관계자는 "양자화나 토큰 프루닝 같은 기법은 이미 널리 쓰이고 있지만, 실제 서비스에서는 정확도나 안정성 문제 때문에 적용 범위가 제한적인 경우가 많다"며 "KV 캐시 자체를 압축 대상으로 삼는 접근은 구현 난이도는 높지만, 제대로 적용되면 체감 성능을 크게 바꿀 수 있는 영역"이라고 밝혔다. 메모리 압축과 더불어 모델 실행 방식 자체를 개선하려는 소프트웨어 경쟁도 확대되고 있다. vLLM, 텐서RT-LLM(TensorRT-LLM)을 비롯해 라마(llama.cpp) 등 다양한 추론 엔진들이 등장하며 요청 처리 방식과 메모리 관리 효율을 높이는 방향으로 발전하고 있다. 특히 vLLM은 미국 UC버클리 연구진이 주도해 개발한 오픈소스 추론 엔진으로, 요청을 효율적으로 묶어 처리하고 페이지드어텐션(PagedAttention) 구조를 통해 메모리를 동적으로 관리하는 방식으로 처리 효율을 높인다. 엔비디아가 개발한 텐서RT-LLM(TensorRT-LLM) 역시 GPU 연산을 최적화해 추론 속도를 개선하는 소프트웨어로, 데이터센터 환경에서 널리 활용되고 있다. 추론 엔진은 모델 자체를 변경하지 않고도 실행 방식만으로 성능을 개선할 수 있다. 동일한 모델이라도 어떤 실행 소프트웨어를 사용하느냐에 따라 처리 속도와 비용이 달라지는 구조다. 업계 관계자는 "같은 모델이라도 vLLM이나 텐서RT 같은 추론 엔진 설정에 따라 처리량 차이가 크게 난다"며 "실제 서비스에서는 모델보다 실행 스택이 성능을 좌우하는 경우도 적지 않다"고 설명했다. 메모리 압축 기술과 추론 엔진이 결합된 뒤 최종 연산은 GPU에서 수행된다. 특히 최신 GPU 환경에서는 연산 성능보다 메모리 활용 효율이 전체 성능을 좌우하는 경우가 많아지면서 소프트웨어 기반 최적화의 중요성이 더욱 커지고 있다. 이와 함께 AI 경쟁의 방향도 변화하고 있다. 그동안 생성형 AI는 더 많은 데이터를 학습하고 더 큰 모델을 구축하는 데 집중해 왔지만, 최근에는 동일한 모델을 얼마나 빠르고 비용 효율적으로 운영할 수 있는지가 핵심 경쟁력으로 부상하고 있다. 업계 관계자는 "대규모 서비스에서는 모델 성능보다 추론 효율이 비용 구조를 좌우하는 경우가 더 많다"며 "메모리 구조와 추론 엔진을 함께 최적화하지 않으면 GPU를 늘려도 수익성을 맞추기 어려운 단계에 들어섰다"고 말했다.

2026.03.27 12:11장유미 기자

한전, 美번스앤맥도널과 765kV 송전망 기술 컨설팅 계약 체결

한국전력(대표 김동철)은 미국 전력분야 1위 엔지니어링 기업인 번스앤맥도널과 미국 송전망 기술 협력을 본격화하며 미국 시장 진출에 나선다고 11일 밝혔다. 한전은 지난 9일(현지시간) 미국 미주리주 캔자스시티에 위치한 번스앤맥도널 본사에서 번스앤맥도널과 765kV 송전망 기술컨설팅 계약(MSA·Master Service Agreement)를 체결했다. 이번 계약을 통해 한전은 국내에서 축적한 765kV 송전망 설계·건설·운영의 전 주기 기술역량을 활용해 번스앤맥도널이 추진 중인 미국 765kV 송전망 사업 설계 기술검토, 기자재 성능시험 등 기술 컨설팅 서비스를 제공할 예정이다. 특히 최근 확대되고 있는 600억 달러 규모 미국 765kV 송전망 확충 계획에 맞춰 번스앤맥도널의 풍부한 현지 사업 경험과 한전의 초고압 송전 기술을 결합해 미국 시장을 선점하는 계기가 될 것으로 전망된다. 양사는 2026년부터 3년간 미국 중부·텍사스·중서부 등 지역에서 관련 사업을 수행할 계획이다. 김동철 한전 사장은 “한전은 세계적으로 검증된 기술과 운영 경험을 보유한 독보적인 기술역량을 갖춘 기업”이라며 “이번 기술 컨설팅 계약을 통해 미국 전력 인프라 고도화에 기여하고, 향후 송전망 투자사업으로의 사업 영역 확장을 위한 성장동력이 될 것으로 기대한다”고 밝혔다. 레슬리 듀크 번스앤맥도널 CEO는 “765kV 기술 전문성을 가진 한전과 협력하게 된 것을 뜻깊게 생각한다”며 “양사의 기술역량과 현장 경험을 결합해 대규모 765kV 송전 프로젝트 품질과 신뢰성을 강화하고, 향후 미국 전력 인프라 확충을 위한 새로운 협력 모델을 제시할 것”이라고 말했다. 한전은 이번 계약을 계기로 미국 내 초고압 송전망 분야 투자사업 참여를 위한 후속 사업 개발을 본격화할 계획이다. 또 지능형 디지털 발전소(IDPP), 변전 예방진단 시스템(SEDA) 등 한전의 전력망 핵심 기술 패키지인 K-스마트그리드 플랫폼을 활용해 에너지 신기술 수출 등 협력을 단계적으로 확대할 예정이다.

2026.01.11 23:21주문정 기자

엔비디아, AI 추론 병목현상 줄이는 스토리지 플랫폼 공개

[라스베이거스(미국)=권봉석 기자] 엔비디아가 5일(이하 현지시간) 오후 라스베이거스 퐁텐블로 시어터에서 진행한 기조연설에서 AI 추론 병목현상을 줄일 수 있는 새로운 스토리지 플랫폼을 공개했다. AI 모델이 다루는 매개변수(패러미터)는 수십 억 개 수준에서 수 조개까지 확장되고 다단계 추론을 통해 정밀도를 높이고 있다. 또 추론 과정에서 오류를 줄이기 위한 컨텍스트 데이터가 성능과 효율을 좌우하는 핵심 요소로 꼽힌다. 기존에는 추론을 실행하는 GPU와 연결된 메모리에 컨텍스트 데이터를 키밸류(KV, 핵심값) 캐시 형태로 담아 활용했다. 그러나 컨텍스트 데이터 용량이 커지면서 이를 GPU 메모리에 담아 두는 것은 비용과 확장성, 효율성 면에서 문제가 있었다. 엔비디아는 이날 데이터센터 내 GPU 사이의 데이터 이동을 효율적으로 관리하는 블루필드4 데이터처리장치(DPU)를 활용한 '추론 컨텍스트 메모리 스토리지 플랫폼'을 제안했다. 이 플랫폼은 GPU 메모리 대신 키밸류 캐시를 담아 둘 수 있는 전용 인프라를 제공해 랙 스케일 AI 시스템 전반에서 컨텍스트 데이터를 효율적으로 활용할 수 있도록 설계됐다. 이를 통해 초당 토큰 처리량을 최대 5배까지 끌어올리고, 기존 스토리지 대비 전력 효율 역시 최대 5배 높아진다는 것이 엔비디아 설명이다. 블루필드4는 엔비디아 DOCA 프레임워크를 기반으로 NIXL 라이브러리, 다이나모(Dynamo) 소프트웨어와 긴밀히 통합돼 하드웨어 가속 키밸류 캐시 공유를 구현한다. DPU가 KV 캐시의 배치와 접근을 직접 관리함으로써 메타데이터 오버헤드를 제거하고, 데이터 이동을 최소화하며, GPU 노드와 분리된 보안 접근을 보장한다. 여기에 스펙트럼-X 이더넷을 활용한 RDMA 기반 네트워크 패브릭을 결합해 AI 노드 간 고대역폭 컨텍스트 공유를 지원한다. 이를 통해 AI 에이전트 반응성 개선, AI 팩토리 처리량(스루풋) 증가, 추론 효율 향상 등을 거둘 수 있다. 엔비디아는 DPU를 중심으로 AI 인프라 전반을 통합하며, 데이터센터 아키텍처의 주도권 강화에 나설 예정이다. 이날 젠슨 황 엔비디아 CEO는 "AI는 이제 컴퓨팅과 네트워크를 넘어 스토리지까지 재정의하고 있다"며 "블루필드4를 중심으로 한 스토리지 스택은 차세대 지능형 AI를 구현하기 위한 핵심 인프라가 될 것"이라고 말했다. 델테크놀로지스, HPE, IBM, 퓨어스토리지 등 엔비디아 주요 파트너사는 블루필드4 기반 AI 스토리지 플랫폼을 구현해 올 하반기 출시 예정이다.

2026.01.06 12:37권봉석 기자

한전, K-전력기술로 북미 전력망 시장 공략 기반 마련

한전이 미국 주요 전력회사 관계자를 대상으로 765kV 전력망 기술력을 선보이며, K-전력기술의 북미 전력망 시장 진출 기반을 강화했다. 한국전력(대표 김동철)은 지난 10일부터 14일까지 닷새간 ITC홀딩스·AES코퍼레이션 등 9개 전력회사와 번즈앤맥도넬·파워엔지니어스 등 3개 엔지니어링회사, 미국 전력연구소(EPRI) 등 총 13개 기관, 37명의 북미 전력산업 관계자를 대상으로 '765kV 기술 교육 워크숍'을 개최했다. 이번 교육은 최근 북미지역 765kV 전력망 건설이 본격화하고 관련 기술에 대한 관심과 수요가 증가하면서 EPRI가 한전에 미국 전력회사를 대상으로 한 765kV 기술 교육을 요청하면서 성사됐다. 한전은 765kV 설계·운영·시험 분야 기술력과 국내 제조사의 기자재 공급역량을 체감할 수 있도록 HD현대일렉트릭·LS전선·보성파워텍·제룡산업과 함께 커리큘럼 기획과 교육을 공동 준비했다. 10일 참가자들은 한전 신안성변전소에서 변압기·GIS·철탑 등 765kV 실계통 핵심 설비 시찰과 함께 전자파·소음 측정과 드론 점검 등 시연을 통해 최신 유지보수 기술을 확인했다. 11일에는 한전 고창전력시험센터에서 765kV 설비가 실제 계통에 적용되기까지 거치는 다양한 안정성·신뢰성 검증 과정을 소개하는 시험 기술 참관이 이어졌다. 참가자들은 철탑 승탑과 코로나케이지 송전선로의 실제 구간을 축소 모델로 재현해 코로나 방전현상을 정량화할 수 있는 시험설비를 활용한 전기환경 측정 시험 등 평소 접하기 어려운 실험을 직접 경험하기도 했다. 12일부터 14일까지는 변압기·차단기·전선·금구류 등 765kV 전력기기 제조사를 방문, 생산라인을 둘러보고 품질관리와 공급역량을 확인하는 시간을 가졌다. 한전은 국내 제조사의 북미 시장 진출을 돕기 위해 제조사와 미국 전력회사 간 일대일 비즈니스 미팅 등 실질적 교류의 장을 마련하기도 했다. 이창열 한전 기술기획처장은 “한전과 국내 제조사가 결합한 '765kV 팀코리아'는 기술력과 생산역량을 기반으로 세계적 경쟁력을 확보한 전략 모델”이라며 “이번 워크숍이 K-전력기술의 미국 전력망 적용을 앞당기는 기반이 되고, 한전과 제조사가 공동으로 글로벌 시장에 진출하는 출발점이 되길 바란다”고 밝혔다.

2025.11.18 11:24주문정 기자

경찰, 디나미스원 불구속 송치…넥슨게임즈 신작 프로젝트 유출 의혹

모바일 게임 '블루 아카이브'의 핵심 개발진이 주축이 된 게임사 디나미스원 관계자들이 검찰에 넘겨졌다. 17일 경찰에 따르면 서울경찰청 산업기술안보수사대는 최근 디나미스원 박병림 대표 및 관계자들을 부정경쟁방지법 위반 등 혐의로 서울중앙지검에 불구속 송치했다. 박 대표 등은 넥슨게임즈에서 퇴사하면서 개발 중이던 미공개 신작 게임의 애셋(개발 자료)을 무단으로 반출한 혐의를 받고 있다. 박 대표는 넥슨게임즈에서 '블루 아카이브' PD를 맡았던 인물로, 지난해 4월 시나리오 및 아트 디렉터 등 핵심 개발진과 함께 퇴사해 디나미스원을 설립했다. 이후 디나미스원은 같은 해 9월 첫 게임으로 '프로젝트 KV'를 공개했으나, 전반적인 화풍과 음악, 캐릭터 디자인 등이 '블루 아카이브'와 유사하다는 지적이 제기되며 표절 논란이 일었다. 이러한 정황을 파악한 경찰은 지난 2월 디나미스원 사옥을 압수수색하고 개발 관련 자료를 확보해 박 대표 등을 입건해 조사해왔다. 당시 넥슨게임즈는 압수수색 직후 "디나미스원의 일부 인사들이 퇴사 전부터 장기간 계획 하에 개발에 참여 중이던 비공개 신규 프로젝트 'MX BLADE'의 핵심 정보를 무단 유출하고, 신설 법인 게임 개발에 활용하기로 모의한 정황을 확인했다"고 밝힌 바 있다. 디나미스원 측은 "혐의 내용은 사실과 다른 부분이 많다"고 반박했으나, 경찰은 혐의가 입증된다고 보고 기소 의견으로 검찰에 송치했다. 이날 넥슨게임즈 측은 "향후 절차에 최선을 다해 협조할 예정"이라고 전했다.

2025.10.17 13:43정진성 기자

카카오벤처스가 주목한 디지털헬스케어 스타트업 '이모코그·알피'

카카오벤처스(KV)는 '의료현장에 도달한 디지털 진단과 치료'를 주제로 브라운백미팅을 개최했다고 15일 밝혔다. 이번 행사는 디지털헬스케어 기업이 식약처 인허가 이후 거두고 있는 성과를 공유하기 위해 마련됐으며, 카카오벤처스 디지털 헬스케어 파트너 김치원 부대표와 정주연 선임 심사역 키노트에 이어 이모코그와 알피의 발표가 진행됐다. '이모코그'는 국내 최초로 식약처 허가를 획득한 경도인지장애(MCI) 대상 디지털치료기기 '코그테라(Cogthera)'를 개발한 디지털 헬스케어 스타트업이다. 코그테라는 고령자를 위한 음성 기반 인터페이스와 맞춤형 훈련 설계를 갖춘 앱 기반 디지털 치료 솔루션으로, 경도인지장애 환자의 증상 진행을 늦추기 위해 개발됐다. 현재 보건복지부의 혁신의료기술 고시를 앞두고 있으며, 올해 9월부터 병의원에서 비급여 처방이 가능할 전망이다. 이날 행사에서 이모코그는 치매 전 단계인 경도인지장애 진행을 늦추는 디지털 치료의 필요성과 함께 코그테라의 의료현장 도입 준비 상황을 중심으로 발표했다. 노유헌 이모코그 대표는 “코그테라는 경도인지장애의 진행을 늦추는 혁신적인 솔루션으로 자리매김하고 있다”며 “국내 시장뿐만 아니라 글로벌 진출을 위해 독일 시장에서 보험등재를 위한 임상시험을 마무리하고 유럽시장을 공략해 나갈 예정이다”고 말했다. '알피'는 12리드 심전도를 활용해 심장질환 및 응급상황을 조기 진단하는 AI 솔루션 'ECG Buddy'를 개발하고 사업화에 성공했다. ECG Buddy는 현재 응급실과 구급 현장에서 심근경색, 심부전, 고칼륨혈증, 부정맥 등 중증 심장질환을 선별하는데 활용되며 의료현장에서 환자의 골든타임을 확보하는 필수 앱으로 자리잡고 있다. 스마트폰, 데스크톱PC, 전자의무기록(EMR) 연동 등 다양한 방식으로 사용할 수 있어 편의성을 강점으로 의료현장에 빠르게 확산 중이다. 김중희 알피 대표는 “구급 현장부터 입원실까지 ECG Buddy가 폭넓게 활용되며 응급상황 조기 진단에 큰 역할을 하고 있다”며 “국내 의료현장에서 축적한 경험을 바탕으로 유럽, 미국, 대만, 인도네시아 등 글로벌 시장 진출을 본격화할 계획”이라고 밝혔다. 카카오벤처스 김치원 부대표는 "의료 파운데이션 모델이 발전해도 의료분야는 특수한 데이터와 까다로운 인허가 과정 때문에 전문기업들이 강점을 발휘할 수 있는 영역"이라며 "이모코그와 알피처럼 임상 데이터를 기반으로 신뢰성과 확장 가능성을 입증한 팀들이 앞으로 의료 AI 생태계 표준을 만들어갈 것으로 기대한다”고 말했다. 정주연 선임 심사역은 키노트에서 "인허가 획득은 시작일 뿐, 실제 의료 현장에서 지속 가능한 성장을 이루는 것이 진정한 과제"라며 "기술적 우수성을 넘어 임상 현장에서의 실용성과 확산 가능성을 입증해야 한다"고 강조했다.

2025.07.15 17:59조민규 기자

로옴 '2kV SiC MOSFET' 탑재 모듈, SMA 태양광 시스템에 채용

로옴은 자사의 최신 2kV SiC MOSFET를 탑재한 세미크론 댄포스의 파워 모듈이 SMA 솔라 테크놀로지 AG(이하 SMA)의 신형 태양광 시스템 'Sunny Central(서니 센트럴) FLEX'에 채용됐다고 12일 밝혔다. 서니 센트럴 FLEX는 대규모 태양광 발전 설비, 축전 시스템, 차세대 기술용으로 설계된 모듈러 타입의 플랫폼으로, 전력망의 효율화와 안정성 향상을 지향한다. 로옴의 새로운 2kV 내압 SiC MOSFET는 1천500V DC 링크용으로 심플하고 효율이 높은 컨버터 회로를 실현하기 위해 설계된 제품이다. 높은 신뢰성을 목표로, 우주선에 대한 내성을 구비해, 태양광 발전 분야에서의 까다로운 환경 조건이나 컨버터의 장수명화에 대한 요구에 대응할 수 있다. 또한 로옴의 게이트 저항을 내장한 SiC 디바이스 기술은 모듈 내에서의 병렬 구동을 용이하게 해, 고출력 모듈 설계의 간소화에도 기여한다. 세미크론 댄포스의 'SEMITRANS 20'은 대전력 용도 및 고속 스위칭 동작용으로 설계된 제품이다. 직류전압 1천500V에 대응하는 어플리케이션용으로 고효율의 심플한 솔루션을 제공해, 태양광 발전 및 축전 시스템에 적합하다. 세미크론 댄포스는 "로옴의 2kV SiC를 탑재한 SEMITRANS 20은 SMA의 서니 센트럴 FLEX의 중요한 구성 요소로, 향후 고출력 전동 트럭용 충전기 및 풍력 발전용 컨버터에도 활용될 것으로 기대하고 있다"며 "세미크론 댄포스와 로옴은 실리콘 IGBT 모듈에 있어서도 협업을 전개 중"이라고 밝혔다.

2025.05.12 10:37장경윤 기자

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

수천억 적자의 역설… '회계 착시' 걷어낸 K-팹리스 진짜 체력

신세계가 열흘만에 오픈AI 협업 계획 뒤집은 이유

10분만에 매진된 핫플 '쿠팡 메가뷰티쇼' 가보니

R&D 지표 가른 양산성 확보…장부 엇갈린 K-AI 반도체

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.