• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
CES2026
스테이블코인
배터리
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'MLA '통합검색 결과 입니다. (4건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

카카오, '카나나-2' 오픈소스 공개…에이전틱 AI 최적화

카카오는 허깅페이스에 자체 개발한 차세대 언어모델 '카나나-2'를 오픈소스로 공개했다고 19일 밝혔다. 카카오는 지난해 자체 개발 AI 모델 '카나나'의 라인업을 선보인 이래, 경량 사이즈의 모델부터 고난이도 문제 해결에 특화된 '카나나-1.5'까지 꾸준히 오픈소스로 추가 공개해왔다. 이번에 선보인 '카나나-2' 모델은 성능과 효율을 개선한 최신 연구 성과로, 사용자 명령의 맥락을 파악하고 능동적으로 동작하는 '동료'와 같은 AI 구현에 초점을 맞췄다. 이번에 공개된 모델은 총 3종으로 기본 모델인 ▲베이스, 사후 학습을 통해 지시 이행 능력을 높인 ▲인스트럭트, 이번에 처음 선보이는 ▲추론 특화 모델로 구성됐다. 개발자들이 자체 데이터를 활용해 자유롭게 모델을 파인튜닝할 수 있도록 학습 단계의 웨이트(학습된 매개변수 값)를 모두 공개한 점이 특징이다. 카나나-2는 에이전틱 AI 구현의 핵심인 도구 호출 기능과 사용자 지시 이행 능력이 향상됐다. 이전 모델(카나나-1.5-32.5b) 대비 다중 대화 도구 호출 능력을 3배 이상 향상시켰으며, 복잡한 단계별 요구 사항을 정확하게 이해하고 수행하도록 설계됐다. 지원 언어도 기존 한국어, 영어에서 ▲한국어 ▲영어 ▲일본어 ▲중국어 ▲태국어 ▲베트남어까지 6개로 확장해 활용도를 높였다. 기술적으로는 효율성을 극대화하기 위해 최신 아키텍처를 도입했다. 긴 입력을 효율적으로 처리하는 방식인 'MLA' 기법을 적용했으며, 추론 시 필요한 파라미터만 활성화하는 'MoE' 구조를 적용했다. 이를 통해 적은 메모리 자원으로도 긴 문맥을 효율적으로 처리할 수 있게 됐으며, 추론 시 필요한 파라미터만 활성화 해 연산 비용과 응답 속도가 개선됐다. 대규모 동시 접속 요청을 빠르게 처리하는 성능 진화를 만들었다. 성능 지표에서 인스트럭트 모델의 경우 동일한 구조의 최신 모델 'Qwen3-30B-A3B'와 유사한 수준을 달성했다. 이달 한국정보과학회와 공동 개최한 'AI 에이전트 경진대회'에서 참가자들에게 선공개돼 실제 에이전트 개발 환경에서의 활용 능력이 검증되기도 했다. 추론 특화 모델은 다양한 사고 능력이 요구되는 벤치마크에서 추론 모드를 적용한 'Qwen3-30B-A3B'와 유사한 성능을 보였다. 카카오는 향후 동일한 MoE 구조를 기반으로 모델 규모를 확장하고, 고차원적인 지시 이행 능력을 확보할 계획이다. 이와 함께 복잡한 AI 에이전트 시나리오에 특화된 모델 개발과 온 디바이스 경량화 모델의 고도화를 지속적으로 추진할 계획이다.

2025.12.19 10:00박서린

옵트론텍, MLA 기술 현대차 제네시스 전 모델로 확대

광학부품 전문기업 옵트론텍은 마이크로 렌즈 어레이(MLA) 글래스 웨이퍼 기술을 현대차 제네시스 전 차종으로 확대 적용하기 위해, 기존 스탠다드형 양산에 이어 슬림형 8인치 글래스 웨이퍼 양산 체제를 구축하고 공급을 시작했다고 27일 밝혔다. 옵트론텍의 MLA 기술은 수백 개의 초미세 렌즈를 양면에 광축을 정밀하게 맞춰 배열하고, 각 렌즈의 위치를 이온증착 기반 패턴 기술로 초정밀 제어하는 고난도 광학 기술이다. 특히 8인치 웨이퍼의 접합 공정에는 삼성전자 및 하이닉스의 반도체 공정 장비와 동일한 특수 장비를 활용해 미크론 단위의 무결점 접합을 구현하고 있다. 모든 생산 공정은 제조실행시스템(MES)을 통해 100% 데이터 추적 관리되며, 반도체 수준의 99.9% 품질 기준을 적용해 고신뢰성 제품을 생산중이다. MLA 기술은 기존 헤드램프 대비 슬림한 디자인 구현은 물론, 눈부심 저감과 야간 시인성 향상 등 다양한 기능적 장점을 제공한다. 이로 인해 운전자와 보행자 모두에게 더 안전한 주행 환경을 제공하며, 현대차는 이를 전략적으로 고급 제네시스 라인업에 채택하고 있다. 현재 GV80 및 GV80 쿠페에 적용된 MLA 헤드램프는 G90 플래그십 모델을 거쳐, 향후 GV90 전기차 및 그랜저 페이스리프트 모델까지 확대 적용이 논의되고 있다. 회사 측은 MLA 기술이 향후 글로벌 자동차 OEM(주문자 상표 부착 생산) 전반으로 확산될 가능성이 크다고 전망하고 있으며, 이를 위해 대전 대덕연구단지에 위치한 옵트론텍 광기술센터를 중심으로 차세대 기술 개발에 집중하고 있다. 스마트폰에서 출발한 광학 기술력을 MLA를 통해 자동차 산업의 혁신 동력으로 키울 방침이다. 옵트론텍 관계자는 "37년간 쌓아온 증착 및 코팅 기술을 지속 발전시켜 글로벌 시장에서 초격차 광학 기술을 선행 확보하고, 이를 글로벌 고객사에게 공급하는 것을 핵심 사업 확장 전략으로 삼고 있다"고 밝혔다. 한편, 옵트론텍의 광기술센터에서는 MLA 개발 및 양산과 함께, 현재 양산 중인 1채널 로고 램프의 차세대 업그레이드 제품인 4채널 이상의 APU(Automotive Projection Unit)의 양산기술 개발에 박차를 가하고 있다.

2025.10.27 09:59장경윤

모빌린트, AI 가속기 모듈 'MLA100 MXM' 출시

모빌린트는 자사 AI 가속기 칩 'ARIES'를 기반으로 설계한 MXM(Mobile PCI Express Module) 타입의 AI 가속기 모듈 'MLA100 MXM'을 새롭게 출시했다고 29일 밝혔다. MLA100 MXM은 25W의 저전력 환경에서 최대 80 TOPS(Tera Operations Per Second)의 연산 성능을 제공하며, 8개의 고성능 코어를 통해 복수의 AI 모델을 병렬 실행하거나 대규모 추론 연산을 안정적으로 소화할 수 있는 구조를 갖췄다. 또한 82x70mm의 콤팩트한 크기와 110g의 경량화 된 MXM 규격을 채택해, 공간과 전력, 발열 관리가 중요한 로보틱스, 산업 자동화, 엣지 서버 등 임베디드 AI 시스템에 적합하다. 또한 MLA100 MXM은 LLM, VLM 등의 Transformer 모델 처리도 가능해 이번 제품을 통해 기존 GPU 기반 엣지 솔루션의 대안으로 포지셔닝 한다는 전략이다. 현재 국내 주요 엣지형 AI 솔루션을 보유한 대기업 및 산업 파트너들이 해당 제품을 기반으로 임베디드 시스템 통합 및 PoC(기술 검증 테스트) 협력을 착수하였으며, 이를 바탕으로 로보틱스, 스마트팩토리, 헬스케어 등 특화 시장에서 적용 범위를 확대해 나가고 있다. 모빌린트 신동주 대표는 “MLA100 MXM 카드는 로보틱스 및 엣지 디바이스에 서버급 추론 성능을 제공하는 것을 목표로 하고 있다”며 “AI 성능 극대화를 위해서는 하드웨어, 소프트웨어, 알고리즘의 균형이 핵심이며 모빌린트는 자체 최적화된 소프트웨어 및 알고리즘 스택을 통해 이를 실현하고 있다”고 말했다. 한편 모빌린트는 기존 MLA100 PCIe 카드에 이어 MXM 제품을 일본, 대만 등 아시아 지역의 글로벌 파트너사와 함께 본격적인 공급에 나설 계획이다.

2025.04.29 09:31장경윤

모빌린트, AI칩 에리스 탑재 'MLA100' 출시…"글로벌 시장 공략"

AI 반도체 스타트업 모빌린트는 딥러닝 알고리즘 연산에 최적화된 온프레미스용 AI 반도체 에리스(ARIES)를 탑재한 MLA100(NPU PCIe 카드)을 출시한다고 25일 밝혔다. MLA100은 모빌린트의 혁신적인 AI 반도체 에리스를 기반으로 개발됐다. 기존 GPU 대비 3.3배 이상의 AI 연산 성능을 제공하면서도 전력 소모는 1/10 수준으로 대폭 절감했다. 최대 80TOPS의 성능을 실현하며, 실제 유효 성능에서도 동급 제품을 뛰어넘는다. 이 제품은 25W 수준의 저전력으로 동작하며, 리눅스와 윈도우 환경에서의 호환성을 제공해 높은 범용성을 자랑한다. 이러한 강점을 통해 MLA100은 AI 서버, 챗봇, 스마트 팩토리, 스마트 시티, 스마트 헬스케어, 로보틱스 등 다양한 AI 응용 분야에서 뛰어난 성능과 에너지 효율을 발휘할 수 있다. MLA100의 핵심인 에리스는 딥러닝 알고리즘에 최적화된 ASIC 아키텍처를 채택한 NPU로, 세계 최고 수준의 성능과 가격 경쟁력을 갖췄다. 에리스는 합성곱신경망(CNN), 순환신경망(RNN), LSTM(Long Short-Term Memory)뿐만 아니라 트랜스포머 계열 모델 연산도 지원하며, 최근 소프트웨어 업데이트를 통해 대형언어모델(LLM) 및 멀티모달 모델도 지원할 수 있게 되었다. 또한, 전력 효율과 비용 효율을 극대화하기 위해 다양한 첨단 기술을 적용했다. 오프 칩 메모리 액세스를 최소화하는 기술, 네트워크 최적화 동적 융합 계층 기술, 자체 동적 고정 소수점 기술을 활용해 전력 소모를 최소화했으며, 칩 면적 최적화를 통해 비용 효율성을 높였다. 이를 통해 MLA100은 전력 소모가 중요한 엣지 환경에서도 강력한 성능을 발휘한다. MLA100은 모빌린트가 장기간 축적한 하드웨어 아키텍처와 컴파일러 기술을 기반으로 대부분의 머신러닝 프레임워크와 300종 이상의 다양한 딥러닝 모델을 지원한다. 특히, 딥러닝 알고리즘 연산에서 높은 효율성을 제공하며, PoC(실증사업)에서 충분한 검증을 마친 상태다. 2024년 말에는 양산 제품 초도 물량이 출하되어 제품 성능과 품질을 입증했다. 신동주 모빌린트 대표는 “MLA100은 성능, 전력 효율, 비용 면에서 글로벌 AI 시장을 선도할 혁신적인 솔루션”이라며, “온프레미스부터 온디바이스 AI까지 다양한 환경에서 최적의 솔루션을 제공해 고객의 혁신을 지원할 것”이라고 밝혔다.

2025.02.25 09:56장경윤

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

애플 시리에 구글 제미나이 품는다…AI 동맹에 주가도 들썩

홈플러스는 왜 '김병주 MBK 회장 구하기' 앞장설까

'K-AI' 주도권 잡을 4개 정예팀은…정부, 첫 심사 발표 임박

배경훈 부총리 "피지컬AI, 차세대 국가전략 핵심 축으로 명확히 설정"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.