• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
지스타2025
인공지능
스테이블코인
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'추론'통합검색 결과 입니다. (60건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

AI 추론 수요에 메모리 슈퍼사이클 기대감↑

"당사는 삼성전자와 SK하이닉스의 범용 D램 가격이 4분기 각각 22%, 20% 상승할 것으로 예상하고 있습니다." 미국 증권가 골드만삭스가 최근 밝힌 국내 메모리 양사의 4분기 실적 전망이다. 골드만삭스 내부 추정치를 뛰어넘는다는 예상이다. 지난 2018년을 넘어설 메모리 슈퍼사이클이 도래할 것이란 기대감이 커지는 이유다. 11일 반도체 및 증권가에 따르면 올 4분기 메모리 가격이 급등할 것으로 전망된다. 특히 고무적인 부분은 서버뿐 아니라 모바일, PC 등 모든 분야에서 메모리 가격 상승이 기대된다는 점이다. 메모리는 한동안 AI 인프라 확장으로 서버향 제품 판매량은 늘어난 반면, 모바일과 PC에 대한 수요는 감소했었다. 골드만삭스는 보고서를 통해 “서버 고객들이 2027년 물량까지 선계약을 추진하고 있으며, 이로 인해 PC·모바일용 메모리 공급이 제한되고 있다”며 “삼성전자와 SK하이닉스의 가격 협상력이 강화되고 있다”고 전했다. 트렌드포스도 이달 초 4분기 PC용 D램 가격 전망을 전 분기 대비 25~30% 상승할 것으로 내다봤다. 서버용 D램에 생산이 집중되면서 PC와 모바일용 공급이 빠듯해졌고, 전 제품군 가격이 상승세로 확산된다는 분석이다. 업계에서는 이번 메모리 호황의 핵심 원인을 AI 추론 수요 폭발로 보고 있다. AI 추론은 학습이 끝난 인공지능 모델이 실제 데이터를 입력받아 추론을 수행하는 단계로, 막대한 양의 메모리 대역폭과 실시간 데이터 접근 속도가 필요하다. 특히 생성형 AI 서비스 확산으로 클라우드 데이터센터의 추론 서버 수요가 폭발적으로 증가하면서, GPU뿐 아니라 메모리 전반의 사용량이 급격히 늘고 있다. 이로 인해 AI 인프라 확충이 곧 메모리 수요 급증으로 이어지는 구조가 형성된 것이다. 낸드플래시 컨트롤러를 개발하는 대만 파이슨 푸아 케인센 CEO는 최근 인터뷰에서 “이런 사이클은 평생 한 번 볼까 말까 하다”며 “AI 인퍼런스 수요가 메모리 시장을 근본적으로 바꾸고 있다”고 말했다. 국내 업계도 시장 상황을 유사하게 보고 있다. SK하이닉스는 최근 실적 발표에서 “AI 수요가 예상을 뛰어넘고 있으며, 슈퍼사이클이 장기화될 것”이라고 전망했다. 한편 시장조사업체 욜(Yole)은 올해 메모리 시장 규모가 1천700억달러(248조9천140억원)로 사상 최대치, 내년에는 2천억달러(292조8천800억원)에 이를 것으로 전망했다. 재고 역시 3.3주 수준으로 2018년 슈퍼사이클 저점과 유사하다.

2025.11.11 16:18전화평

튜링 논문, 국제 자연어처리 학회 'EMNLP 2025'서 채택

추론 AI 에이전트 개발사 튜링(대표 최민규)의 논문이 자연어처리(NLP) 학회인 'EMNLP 2025'에 채택됐다고 11일 밝혔다. EMNLP은 국제언어학회(ACL·Association for Computational Linguistics) 산하 세계 3대 자연어처리 학회 중 하나다. 글로벌 빅테크 기업과 주요 연구기관의 최신 AI 연구 성과를 평가한다. 특히 실용성을 강조해 실무 적용 가능한 연구를 중심으로 엄격하게 심사하며 매년 높은 경쟁률을 기록하고 있다. 튜링의 논문은 튜링 AI팀(김정훈·남진우·조근식)이 주도한 연구로, EMNLP 인더스트리 트랙에 채택됐다. 이 트랙은 학술적 기여보다 실제 산업 현장에서의 효과성을 기준으로 평가하는 부문으로 지난해에는 애플·엔비디아·구글 등 글로벌 빅테크 기업들의 논문이 다수 게재됐다. 특히 이번에 참여한 기업 중 국내 스타트업 단일 기업 논문으로는 튜링이 유일하게 채택됐다. 튜링 AI팀 남진우 팀장을 중심으로 김정훈 연구원, 조근식 연구원이 참여한 이번 논문은 'Computational Blueprints: Generating Isomorphic Math Problems with Large Language Models'이다. 대형언어모델(LLM)을 활용해 대량의 수학 유사 문항을 생성하는 새로운 방법론인 'CBIT(Computational Blueprint for Isomorphic Twins)' 프레임워크를 제안했다. 지금까지 LLM으로 생성된 문항들이 교육적 타당성이 보장되지 못해 실제 교육산업에 활용되지 못한 점을 주목, AI가 생성한 수학 문항의 실제 교육 현장 적용 가능성을 입증했다. 튜링은 학생들을 대상으로 CBIT 문항 생성 실험을 진행해 높은 생성 정확도와 효율성을 달성했다. 초등학교 4학년부터 고등학교 3학년을 대상으로 진행된 실험은 기존 대비 생성 정확도를 최대 83배까지 향상시키고, 생성 비용은 최대 42.3배 절감할 수 있다는 결과를 보였다. 동시에 누적 18만 건 이상의 상호작용 기록 중 오류 신고율이 전문가가 직접 제작한 문항보다 20% 낮은 것으로 나타나 AI가 생성한 수학 문항의 실질적인 교육 적용이 가능함을 뒷받침했다. 남진우 튜링 AI팀 팀장은 “이번 연구를 통해 튜링은 학생의 학습 효율을 높이기 위해 문제를 추천하던 단계를 넘어, 문제를 스스로 생성하고 검증할 수 있는 AI를 구현했다”며 “앞으로도 튜링은 AI 중심의 개인화된 교육 혁신을 주도하며 현장에 가장 효과적인 방식으로 적용해 STEM 학습에 새로운 물결을 만들어갈 것”이라고 말했다. 튜링은 지난 8월 이번 튜링 AI 모델이 적용된 이공계 특화 AI 에이전트 'GPAI'를 출시했다. 인도와 미국 등지에서 이공계 학생들을 중심으로 사용자를 빠르게 확보하고 있다. 향후 튜링은 추론 AI 에이전트 개발사로서 교육을 넘어 AI 기반 공학 시뮬레이션과 모델링 기능을 탑재해 박사와 교수진도 폭넓게 활용할 수 있는 연구 도구로 발전시킬 계획이다. 최민규 튜링 대표는 “이번 EMNLP 논문 채택은 튜링이 추론 AI 에이전트 개발사로서 선도적인 기술력을 가졌다는 것을 증명하는 것이다”며 “튜링은 논리·추론·수학 특화 AI에 지속적으로 집중하며 정확성을 무기로 글로벌 시장을 공략할 것이다”고 말했다.

2025.11.11 10:53백봉삼

"팔리든, 합치든, 함께하든"... AI 반도체, 세 갈래 생존전 시작됐다

AI 반도체 시장이 대전환기에 들어섰다. AI 모델의 단계가 '훈련(Training)'에서 '추론(Inference)'으로 이동하며, 글로벌 빅테크들은 GPU(그래픽처리장치) 이후 시대를 준비하고 있는 것이다. 이에 국내외 AI반도체 스타트업은 인수, 컨소시엄, 고객동맹형으로 생존을 모색하고 있다. 7일 반도체 업계에 따르면 최근 AI 반도체 산업의 무게중심이 훈련용 칩에서 추론용 칩으로 이동하고 있다. 챗GPT를 비롯한 생성형 AI의 확산으로, 서비스 제공 기업들이 대규모 학습보다 실시간 응답 효율성을 높이는 데 집중하면서다. 추론형 칩이 주목받는 이유로 전력 효율과 운영비 절감 효과가 꼽힌다. 대모델 학습이 일회성 작업이라면, 추론은 상시 반복되는 과정이어서 누적 전력 소모가 훨씬 크기 때문이다. 특히 글로벌 데이터센터들이 에너지 절감과 처리 속도 향상을 동시에 요구하면서, GPU 기반 범용 구조 대신 특정 워크로드에 최적화된 전용 ASIC(맞춤형 반도체) 수요가 급증하고 있다. 이 같은 시장 변화는 AI 반도체 스타트업들의 생존 전략에도 직접적인 영향을 미치고 있다. 시장 전체가 여전히 GPU 중심 구조에 의존하고 있는 상황에서 스타트업들은 독자 노선만으로는 수익성을 확보하기 어렵다고 판단하고 있는 것이다. 이에 따라 일부는 대기업 인수에 나서고, 일부는 컨소시엄이나 고객사 공동 설계 방식으로 기술을 시장 안으로 편입시키는 전략을 택하고 있다. 결국 추론 효율 경쟁이 AI칩 산업 전반의 재편으로 이어지고 있는 셈이다. 거대 기업 품으로… '인수 전쟁' 치열 AI 반도체 스타트업들이 가장 많이 택하는 생존 방식은 대기업 인수다. 유망한 스타트업이 빅테크의 생태계에 편입돼 기술·인력·시간을 동시에 거래하는 형태다. 대표적인 예시가 인텔의 삼바노바 인수 추진이다. 삼바노바는 누적 투자액이 10억 달러를 넘겼지만, 후속 자금 유치가 막히며 매각을 검토하고 있다. AI칩 개발은 테이프아웃 이후 양산까지 3년 이상 걸리고 수천억 원이 투입되는 구조라 독자 생존이 어려운 기업들이 매각 협상에 나서는 사례가 늘고 있다. 빅테크에서도 자체 칩 개발을 위해 인수를 시도 중이다. 엔비디아 의존도를 낮추고, 자체 칩 생태계를 구축하기 위함이다. 올해 상반기 있었던 메타의 퓨리오사AI 인수 시도 역시 같은 맥락이다. 메타는 퓨리오사AI 인수에는 실패했으나, 현재 미국 리보스 인수를 추진하고 있다. 소프트뱅크의 경우 앰페어를 65억달러(약 9조4천600억원)에 인수했으며, AMD는 AI 소프트웨어 최적화 스타트업 브리움을 흡수했다. AI 반도체 업계 관계자는 “AI 반도체 스타트업의 인수는 어느 회사나 투자자들이 기대하는 어떤 성과를 내야하는 냉엄한 현실을 보여주는 예시”라면서도 “한편으로는 AI 반도체가 이전에 없던 분야이기 때문에, 어려운 도전에 대해서 똘똘 뭉쳐 있는 스타트업 팀이 성과를 더 내기 좋은 구조다. 대기업도 그래서 스타트업 인수로 눈을 돌리는 것 같다”고 설명했다. 협력으로 버틴다… 대기업 연합형 생존 모델 확산 두 번째 생존 방식은 대기업 컨소시엄이다. 대기업에 종속되는 인수형과 달리 AI 반도체 스타트업이 대기업과 손잡고 운영을 공유하는 구조다. 해당 방식의 대표적인 예시는 국내 AI 반도체 스타트업 리벨리온이다. 리벨리온은 SK텔레콤, SK하이닉스 등 SK그릅과 함께 국산 AI반도체 개발을 위한 전략적 컨소시엄을 꾸려 상용화에 나섰다. 리벨리온은 이 외에도 KT, 네이버 등 국내 대기업과 협력해 시장을 공략하고 있다. 지난해 투자를 받기 시작한 아람코도 대기업 협력 모델 중 하나로 볼 수 있다. 또한 반도체의 전설 짐 켈러가 있는 텐스토렌트와 LG AI연구원, 삼성전자 간 협력처럼 RISC-V(리스크파이브) 기반 IP와 대형 언어모델(LLM) 최적화를 함께 개발하는 형태도 나타나고 있다. 업계에서는 이러한 대기업 연합형 모델이 스타트업의 자금난을 완화하고 공급망 리스크를 줄이는 현실적 대안으로 보고 있다. 다만 협력 구조가 복잡해지는 만큼 스타트업의 장점인 빠른 의사결정이 다소 늦어진다는 점이 한계로 지목된다. 고객과 함께 만든다… 맞춤형 공동 설계 확산 세 번째 방식은 고객동맹 모델이다. 칩 기업이 클라우드·AI 서비스 사업자 등 실제 수요자와 공동으로 반도체를 설계·최적화하는 형태다. 미국 세레브라스시스템즈는 UAE 국부펀드 계열 G42와 협력해 AI 데이터센터 '콘도르 갤럭시'를 구축했다. 양사는 초대형 인공지능 모델 '자이스(Jais)'의 추론 효율을 높이기 위해하드웨어와 소프트웨어를 함께 최적화하는 공동 개발을 진행하고 있다. 초대형 모델 자이스의 추론 효율을 높이기 위한 하드웨어–소프트웨어 공동 최적화를 진행 중이다. 그록은 생성형 AI 서비스 기업인 퍼플렉시티AI, 캐릭터 AI등과 협력해 응용프로그램인터페이스(API) 기반의 추론 성능을 개선하는 서비스형 추론 모델을 운영하고 있다. 그래프코어는 스태빌리티AI, 마이크로소프트, 델과 협력해 이미지 생성 모델에 최적화된 지능처리장치(IPU) 공동 설계를 추진하고 있다. 한 AI반도체 업계 관계자는 “현재 AI반도체 기업들의 생존 방식은 전략이기도 하지만 산업 구조가 강제한 결과”라며 “칩 개발에만 수천억원의 자금이 필요하고, GPU 중심의 생태계가 이어지고 있기 때문에 독자적으로 살아남기 힘든 산업 구조다”라고 말했다.

2025.11.09 14:14전화평

퀄컴 "모든 분야 커버할 수 있는 기술 기업으로 변화중"

크리스티아노 아몬 퀄컴 CEO는 5일(미국 현지시간) 올 3분기(회계연도 기준 2025년 4분기) 실적 발표 이후 이어진 컨퍼런스 콜에서 "퀄컴은 소비전력 5W에서 500W 범위 전반을 커버하는 기술 기업으로 변화하고 있다"고 밝혔다. 이어 "모바일을 넘어 데이터센터·로보틱스·자동차·웨어러블로 사업 다각화가 진전되고 있으며 모든 분야에서 기술 선도를 위해 노력하겠다"고 덧붙였다. 퀄컴은 10월 말 자체 개발한 오라이온 CPU와 헥사곤 NPU를 조합한 추론 특화 AI 시스템반도체(SoC) 2종, AI200/250을 공개했다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. 크리스티아노 아몬 CEO 역시 "퀄컴은 데이터센터 시장에서 추론 중심 경쟁력 확보에 주력하고 있다. 2020년 첫 제품인 '클라우드 AI 100'을 바탕으로 이미 소프트웨어 생태계는 구축됐고 이를 바탕으로 SoC에서 탑재 카드, 랙으로 이어지는 솔루션을 개발 중"이라고 설명했다. 이어 "AI200 및 AI250은 GPU와 고대역폭메모리(HBM)로 구성된 기존 가속기 구조 대신 DDR 메모리와 PCI 익스프레스 기반 설계로 토큰당 전력 효율과 연산 밀도를 높이기 위해 새로운 아키텍처로 설계 중"이라고 설명했다. 애플은 보급형 아이폰인 아이폰16e와 아이폰 에어에 자체 개발한 5G 모뎀인 C1을 탑재하고 있다. 아카시 팔키왈라 퀄컴 CFO/COO는 "올 3분기 핸드셋 부문 매출 중 상당수는 안드로이드 프리미엄 고객사 중심이며 애플의 비중은 제한적"이라고 설명했다. 크리스티아노 아몬 CEO는 "삼성전자에 공급되는 모바일용 SoC 스냅드래곤의 비중은 올해 출시된 갤럭시S25에서는 100%이지만 내년 출시될 갤럭시S26에서는 75% 가량이 될 것"이라고 전망했다. 최근 삼성전자와 구글이 출시한 확장현실(XR) 헤드셋 '갤럭시 XR'은 퀄컴 스냅드래곤 XR2+ 2세대 플랫폼 기반으로 개발됐다. 크리스티아노 아몬 CEO는 "AI 스마트 글래스 시장의 확산이 가속화되고 있으며, XR이 단순히 AR·VR 기기에 국한되지 않고, AI가 내장된 개인형 기기 시장으로 확장되고 있다"고 설명했다. 이어 "스마트 글래스, 워치, 이어버드 등 다양한 폼팩터의 AI 웨어러블 디바이스가 새로운 대형 시장을 형성하고 이런 트렌드가 퀄컴의 핵심 성장 기회가 될 수 있다"고 덧붙였다.

2025.11.06 09:25권봉석

퀄컴, 독자 CPU·NPU로 AI 추론 인프라 도전장...인텔과 맞붙나

퀄컴이 27일(미국 현지시간) AI 시스템반도체(SoC) 2종을 공개하며 내년 데이터센터 시장 재진입을 선언했다. 엔비디아나 AMD처럼 대규모 AI 모델을 훈련시키기 위한 칩이 아니라, 기존 모델 활용을 위한 저전력·고효율 추론용 반도체에 초점을 맞췄다. GPU 중심의 AI 훈련 수요보다 실제 비즈니스 적용 단계에서 요구되는 추론 연산 효율을 극대화해 대안을 제시하겠다는 것이다. 이런 접근 방식으로 AI PC 분야는 물론 최근 AI 추론 시장 확장에 나선 인텔과 경쟁 심화를 피할 수 없게 됐다. GPU 기반 모델 훈련 시장에서는 엔비디아가 압도적인 우위를 점하고 있는 만큼, 퀄컴과 인텔 모두 저전력·고효율을 내세운 '추론 최적화' 반도체 시장을 차세대 성장 영역으로 지목하고 있다. 퀄컴, 누비아 인수 2년만에 새 CPU '오라이온' 투입 퀄컴이 2021년 인수한 반도체 스타트업 누비아(Nubia)는 본래 Arm IP(지적재산권)를 활용해 데이터센터용 고성능 CPU '피닉스(Phoenix)'를 개발하던 회사였다. 퀄컴은 누비아 인수 이후 해당 기술을 흡수해 자사 CPU 설계 역량을 강화했고, 2022년 10월 '스냅드래곤 서밋'에서 누비아 기술을 바탕으로 한 새 CPU '오라이온(Oryon)' 개발을 공식화했다. 당시 누비아 출신으로 퀄컴에 합류한 제러드 윌리엄스 수석부사장은 "오라이온 CPU는 기존 크라이오(Kryo) CPU IP를 대체하며, 모바일부터 XR, 컴퓨트까지 다양한 플랫폼으로 확장될 것"이라고 설명했다. 퀄컴, 5월 데이터센터 진출 공식화 오라이온 CPU는 이후 PC용 '스냅드래곤 X'(2023), 스마트폰용 '스냅드래곤8 엘리트'(2024), 자동차용 '스냅드래곤 라이드 엘리트'(2024) 등 퀄컴 고성능 SoC에 순차적으로 투입됐다. 퀄컴은 지난해 말 20년 이상 서버용 프로세서를 설계한 인텔 출신 사일레시 코타팔리를 영입하고 데이터센터용 CPU 개발을 총괄하는 수석부사장으로 임명했다. 올해 5월 '컴퓨텍스 타이베이 2025' 기조연설에서는 오라이온 CPU를 서버 시장으로 확대할 계획을 공식화했다. 업계 관계자들은 당시 퀄컴이 이동통신 기지국의 데이터 처리용 서버·어플라이언스 분야를 우선 공략할 것으로 전망했다. 퀄컴, 예상 깨고 AI 추론 시장 먼저 겨냥 퀄컴이 27일 공개한 AI200/250 SoC는 오라이온 CPU와 헥사곤 NPU를 결합해 철저히 추론(인퍼런스)에 최적화된 제품이다. 새 AI 모델을 훈련하기보다 이미 완성된 모델을 저전력·비용 효율적으로 실행하려는 기업 수요를 겨냥했다. AI200은 LPDDR5 메모리를 채택해 비용 효율을 강조했으며, 최대 768GB LPDDR 메모리를 지원해 대규모 AI 추론 환경에서 유연성과 확장성을 높였다. AI200 기반 랙의 전력 소모는 약 160킬로와트(kW) 수준이다. AI250은 메모리 인접 연산 구조를 통해 지연시간을 줄이고, 대역폭을 10배 이상 향상시킬 계획이다. 퀄컴은 AI200을 2026년, AI250을 2027년 출시할 예정으로 예측 가능한 로드맵도 제시했다. 최초 고객사로 사우디 AI 스타트업 '휴메인' 나서 AI200 SoC 최초 고객사로 사우디아라비아 무함마드 빈 살만 왕세자가 설립한 AI 스타트업 '휴메인'(Humain)이 참여했다. 휴메인은 이미 퀄컴 스냅드래곤 X 엘리트를 기반으로 AI PC를 개발 중이며, 퀄컴과의 협력을 지속 강화하고 있다. 휴메인은 '미래 투자 이니셔티브(FII)' 제9차 포럼을 앞둔 28일(사우디 현지시간) 퀄컴 AI200·AI250 기반 200메가와트(MW)급 랙 솔루션을 도입, 사우디 및 글로벌 시장에 공급할 계획을 밝혔다. 휴메인은 자체 개발한 아랍어 기반 멀티모달 LLM 구현에도 퀄컴 인프라를 적극 활용할 방침이다. 인텔과 AI PC 이어 추론 시장서도 충돌 불가피 AI 관련 후발 주자로 볼 수 있는 퀄컴이 추론 시장 진출을 선언하며 비슷한 입지에 있는 인텔과 충돌이 불가피해졌다. 인텔은 엔비디아나 AMD에 비해 GPU 포트폴리오가 약하다는 평가를 받지만, 제온6 프로세서·코어 울트라·가우디3 AI 가속기를 결합한 추론 플랫폼으로 대응 중이다. 내년에는 저비용 추론용 GPU '크레센트 아일랜드' 출시도 예고돼 있다. 현재 퀄컴은 인텔과 함께 AI PC용 프로세서 시장에서도 경쟁 중이다. 인텔의 차세대 코어 울트라 시리즈 3(팬서레이크) 탑재 PC는 내년 1월 말부터, 퀄컴 스냅드래곤 X2 엘리트 탑재 PC는 내년 6월 전후 출시 전망이다.

2025.10.28 16:07권봉석

퀄컴, AI 추론용 신규 가속기 출시…엔비디아·AMD에 도전장

퀄컴이 차세대 AI 가속기로 AI 데이터센터 시장을 공략한다. 해당 칩은 저전력 D램을 채용해 엔비디아·AMD 등 기존 HBM(고대역폭메모리) 기반의 AI 가속기 대비 비용을 낮춘 것이 특징이다. 28일 퀄컴은 데이터센터용 AI 추론 최적화 솔루션인 'AI200', 'A250' 칩 기반 가속기 카드와 랙을 출시한다고 밝혔다. 퀄컴에 따르면 AI200은 LLM 및 멀티모달 추론 등 다양한 AI 기능에 최적화된 성능과 낮은 총소유비용(TCO)를 제공하도록 설계됐다. 카드 당 768GB(기가바이트)의 LPDDR을 지원한다. LPDDR은 저전력 D램을 뜻한다. 엔비디아·AMD 등 기존 데이터센터용 AI 가속기 개발업체가 HBM(고대역폭메모리)을 주요 메모리로 채용한 데 반해, 퀄컴은 LPDDR을 탑재해 비용 및 전력 효율성을 극대화하려는 것으로 풀이된다. 또한 AI250은 메모리 기반 컴퓨팅을 통해 메모리 아키텍처에 변화를 줬다. 퀄컴은 "10배 이상 향상된 유효 메모리 대역폭과 훨씬 낮은 전력 소비를 제공해 AI 추론 워크로드의 효율성과 성능을 획기적으로 향상시킨다"고 설명했다. 이외에도 AI200 및 A250 기반의 랙 솔루션은 열 효율성을 위한 액체 냉각, 160kW 수준의 전력 소비, PCIe·이더넷 등의 연결 기술, 보안 컴퓨팅 적용 등을 특징으로 한다. AI200 및 A250은 각각 2026년과 2027년에 상용화될 예정이다. 기존 AI 가속기 대비 뛰어난 가성비를 강조한 만큼, 업계는 해당 칩이 반도체 업계에 불러올 파장에 대해 주목하고 있다. 다만 AI200 및 AI250의 구체적인 성능이 공개되지 않았다는 점은 아직 변수로 남아있다. 문준호 삼성증권 연구원은 "퀄컴은 AI 추론에 초점을 맞춰 HBM이 아닌 LPPDR을 탑재했기 때문에 가격을 낮출 수 있다"면서도 "랙 솔루션의 예상 전력 소비량이 HBM을 탑재한 엔비디아 GB300 NVL72(140~150kW)에 달하는 만큼, 고객사 및 스펙을 먼저 확인해야 할 것"이라고 밝혔다.

2025.10.28 09:58장경윤

SK하이닉스, GPU 넘는 메모리 중심 AI 가속기 구상

인공지능(AI)이 답을 내는 데 시간이 걸리는 진짜 이유가 '메모리 부족'이라 보고, SK하이닉스가 메모리 중심 가속기를 연구 중이다. 그래픽처리장치(GPU)보다 메모리를 훨씬 많이 탑재해 대형 언어모델(LLM) 추론 속도를 끌어올리겠다는 계획이다. 주영표 SK하이닉스 연구위원은 24일 서울 강남구 코엑스에서 진행된 제8회 반도체 산·학·연 교류 워크숍에서 'AI 시대를 위한 미래 메모리 솔루션 형성'이라는 제목으로 이같은 내용을 발표했다. 그는 “GPU와 다른 연산·메모리 비율을 갖는 추론형 가속기 구조를 고민하고 있다”며 “연산기보다는 메모리를 훨씬 더 많이 탑재해, 데이터 접근 대역폭을 극대화하는 방향으로 연구가 진행 중”이라고 밝혔다. “GPU보다 메모리를 더 많이 탑재한 추론형 가속기” 주 연구위원이 밝힌 추론형 가속기 구조는 메모리 특화 가속기다. 이 칩은 기존 GPU 대비 메모리 비중을 대폭 높인 추론형 칩이다. 패키지당 메모리 용량을 확대하, 메모리-연산기 간 접점 면적(쇼어라인)을 넓혀 연산기에 더 많은 대역폭을 공급하는 것이 목표다. 즉, 칩당 메모리 용량을 대폭 키우는 동시에, GPU가 메모리 병목 없이 데이터를 빠르게 공급받을 수 있게 하는 것이 핵심이다. 그는 “기존에는 중앙에 GPU, 주변에 HBM(고대역폭메모리)을 배치했지만, 앞으로는 HBM보다 더 많은 메모리를 탑재하고 인터페이스 쇼어라인을 확대해 대역폭을 극대화하는 구조를 지향한다”고 설명했다. LLM 추론 병목의 본질은 '연산' 아닌 '메모리' 메모리 특화 가속기가 필요한 이유로는 병목 현상을 지목했다. AI 추론 과정에서 메모리 병목이 GPU 효율을 크게 떨어뜨린다는 이유에서다. 주 연구위원은 “LLM 디코드 단계는 GPU 연산 자원을 20~30%밖에 활용하지 못한다”며 “대부분의 시간이 데이터를 읽고 쓰는 과정에 소모돼, GPU 성능이 아니라 메모리 대역폭이 병목으로 작용하고 있다”고 지적했다. 이러한 문제를 해결하기 위해 SK하이닉스는 HBM 외에 LPDDR(저전력 D램), 호스트 메모리 등과의 계층적 결합도 연구 중이다. 계층적 결합은 여러 종류 메모리를 계층으로 묶어, 데이터를 효율적으로 배치하고 이동시키는 방식이다. 필요한 데이터를 상황에 맞게 옮겨쓸 수 있다. 이를 통해 GPU가 LPDDR에 직접 접근하거나, CPU(인텔·ARM 기반) 메모리를 공유하는 방식으로 확장성을 확보한다는 구상이다. 그는 “AI 추론 환경의 병목은 이제 연산이 아니라 메모리 접근에 있다”며 “밴드위스(대역폭)를 극대화하기 위해 메모리-SoC 간 쇼어라인을 늘리고, 나아가 3D 적층 구조로 확장하는 방향이 유력하다”고 말했다. 이어 “업계 전반이 연산을 메모리 가까이 두는 구조로 전환 중"이라며 "하이닉스 역시 CXL·HBM·하이브리드 메모리 등 다양한 솔루션을 병행 연구하고 있다"고 덧붙였다.

2025.10.24 17:43전화평

엔피, '홍콩전자전'서 XR 명상 앱 '무아' 소개

엔피(대표 백승업·최지훈)는 지난 13일부터 16일까지 홍콩 컨벤션센터에서 열린 '2025 추계 홍콩전자전'에 참가해 XR 명상 앱 '무아'를 선보였다고 밝혔다. 이번 전시에서 엔피는 카이스트 뇌인지과학과 및 산하 명상과학연구센터와 공동 연구·개발한 감정추론 AI 알고리즘(MIND-C AI)을 적용한 무아의 최신 버전을 선보였다. AI와 명상이 결합된 새로운 디지털 웰니스 모델로 현지 바이어와 관람객들의 관심을 끌었다. 엔피는 전시 부스에 '스마트 미러' 기반 체험존을 운영해 현장을 찾은 방문객들이 직접 감정추론 기술을 체험할 수 있도록 했다. 스마트 미러는 거울 형태의 키오스크로, 사용자가 약 1분간 거울을 바라보는 것만으로 심박수·심박변이도(HRV)·혈압 등 주요 생체 데이터를 측정하고, 이를 바탕으로 맞춤형 명상 콘텐츠를 큐레이팅한다. 엔피 부스는 행사 주최기관인 홍콩무역발전국 관계자들의 주목을 받았으며, 홍콩 디지털정책국장을 비롯한 주요 인사들이 방문해 무아의 감정추론 AI 알고리즘과 스마트 미러 솔루션에 대한 설명을 들었다. 또 대만 소재 벤처캐피털(VC)을 대상으로 IR 피칭 세션을 진행하며 아시아권 투자자와의 교류 자리도 만들어졌다. 전시 기간동안 십여 차례 이상의 바이어 매칭을 진행하며 전자전을 방문한 소비재 및 서비스 제공사들과 사업모델 확장을 위한 논의도 활발히 이뤄졌다. 엔피 관계자는 "중국, 인도, 대만, 태국 등 다양한 국가의 바이어들로부터 기술력과 콘텐츠 완성도에 대한 긍정적인 반응을 얻었다"며 "이번 전시를 통해 무아의 글로벌 확장 가능성과 시장성을 확인했다"고 말했다. 엔피 백승업 대표는 "무아는 AI와 XR 기술을 통해 개인의 감정 상태와 생체 데이터를 정밀하게 반영하는 맞춤형 명상 환경을 구현한 독창적인 명상 앱"이라면서 "이번 홍콩전자전 참가를 계기로 한국 XR 웰니스 콘텐츠의 기술력과 가능성을 글로벌 시장에 알리고자 한다"고 밝혔다. 엔피는 10월 말 무아의 감정추론 AI 업데이트 버전을 정식 공개하면서 글로벌 마케팅을 본격화할 계획이다.

2025.10.17 08:44백봉삼

엔피, 감정추론 AI 적용한 XR 명상 앱 '무아' 업데이트 공개

XR(확장현실) 콘텐츠 크리에이티브 기업 엔피(대표 백승업·최지훈)는 자사가 개발한 XR 명상 앱 '무아'의 신규 업데이트 버전을 이달 말 공개한다고 1일 밝혔다. 이번 업데이트는 감정추론 AI 알고리즘을 적용하고, XR·모바일·웨어러블을 아우르는 통합 플랫폼으로 확장되는 것이 특징이다. 업데이트 버전에는 카이스트 뇌인지과학과 및 산하 명상과학연구센터와 공동 개발한 감정추론 AI 알고리즘(MIND-C AI)이 적용될 예정이다. 이를 통해 사용자의 생체 데이터와 감정 상태를 정밀하게 추론해, 개인 맞춤형 명상 경험을 제공한다. 또 MUA는 MUA XR, MUA Mobile, MUA Sensor(watch) 세 가지 플랫폼으로 연동돼 이용 환경을 확장한다. XR은 메타 퀘스트3 이상 기기에 최적화된 몰입형 명상 체험을 제공하며, 모바일 앱은 VR 기기 없이도 '미리 듣기' 기능으로 무아 콘텐츠를 경험할 수 있다. MUA Sensor(watch)는 심박수·심박변이도(HRV)를 실시간 측정하고 XR 환경으로 전송해 맞춤 콘텐츠 추천 데이터로 활용된다. 향후 애플워치, 스마트 링 등 다양한 웨어러블 기기로 확장할 예정이다. 무아의 진화된 모습은 13일부터 16일까지 열리는 '2025 추계 홍콩전자전'에서 처음 공개된다. 현장에서는 감정추론 알고리즘 기반 체험을 위한 '스마트 미러형 디바이스'도 첫 선을 보인다. 스마트 미러는 사용자가 약 1분간 거울을 바라보는 것만으로 주요 생체 데이터를 측정하고, 이를 바탕으로 맞춤형 명상 콘텐츠를 큐레이팅하는 장치다. 이는 웰니스 센터, 기업 복지 프로그램(EAP) 등 다중 이용 시설에서 활용될 수 있어, 무아의 서비스 영역을 B2C에서 B2B 시장으로 확장하는 교두보가 될 전망이다. 엔피는 전시 기간 중 현지 바이어 및 투자자와의 네트워킹, IR 피칭 행사에도 적극 나설 계획이다. 또한 글로벌 시장 진출을 위해 영문 홈페이지를 새롭게 개편하고, 인플루언서 협업 캠페인 등 본격적인 마케팅 활동도 진행할 예정이다. 엔피는 내년 초 8종의 신규 콘텐츠를 추가해 한층 다채로운 체험을 선보인다. 체스·오르골 같은 일상적 소재를 활용한 명상, 우리 문화유산을 접목한 예술 명상, 색채 심리 분석을 활용한 컬러 명상 등 다양한 프로그램을 통해 깊이 있는 몰입 경험을 제공할 계획이다. 백승업 엔피 대표는 “무아는 카이스트와의 공동 연구 성과를 바탕으로, 사용자 개개인의 감정 상태와 생체 데이터를 정밀하게 반영하는 맞춤형 명상 환경을 구현했다”며 “이는 단순한 명상 앱을 넘어, 디지털 웰니스 시장에서 기술과 과학이 결합된 새로운 기준을 제시하는 시도가 될 것”이라고 밝혔다.

2025.10.01 21:55백봉삼

GIST, AI·로봇 기반 기술 공개…"배터리 분리·랜선꽂기 마치 사람처럼"

로봇과 인공지능(AI)이 하루가 다르게 진화하고 있다. 기계적인 로봇에 AI기술이 결합되며 에이전틱을 지나 피지컬AI를 눈앞에 뒀다. 사람과 공존하는 휴머노이드 로봇 세상도 조만간 영화 속 얘기만은 아닌 현실이 될 전망이다. GIST AI융합학과(지도교수 이규빈)가 오는 2일까지 코엑스 1층에서 과학기술정보통신부 주최로 열리는 AI페스타에서 첨단 로봇 기술과 AI 기술을 선보여 관객들의 발길을 붙들었다. 최첨단 기술은 아니어도, 소소한 관심을 끌기에 충분하다. 이를 모아 소개한다. ▲로봇액션 데이터 수집을 위한 휴대형 데이터 수집 시스템 사람이 손으로 직접 데이터를 수집하는 핸드 헬드(Hand held) 그리퍼다. 이 그리퍼는 일반적으로 쓰는 카메라를 이용한 이미지 데이터에 힘 데이터까지 수집, 정교한 조작이 가능하도록 설계했다. 기어조립이나 랜선 꽂기, 배터리 분해, 커넥터 조립 등 정교한 6개 기능을 마치 사람 손이 움직이듯 조작한다. 로봇 손가락의 접촉면을 늘려 실수를 크게 줄였다. 이건협 박사과정생은 "공차 0.5mm 이하까지 작업할 수 있다"며 "산업자원부의 알키미스트 사업의 지원을 받아 개발 중"이라고 설명했다. ▲큐버(Quber) 오류 추정에 기반한 인스턴스(객체) 분할 개선 방법을 제시한 모델이다. 데이터 셋 구축 과정에서 필수적으로 '정제 과정'을 거치게 되어 있다. 그런데 정제 과정에서 객체를 인식시키는 작업이 쉽지 않다. 특히, 객체의 경계 분류가 어렵다. 연구진이 이 문제를 해결했다. 이상범 박사과정생은 "4자 경계 오류 정정 모델로 이해하면 될 것"이라며 "기존 모델은 경계 부분만 정제하거나 속도가 느린 단점이 있다. 그러나 'Quber'는 오류 측정 후 바로 마스크 출력을 하기 때문에 속도가 빠르다"고 말했다. 객체분할 범용 모델인 HQ-SAM이나 미학습 물체 인식 모델인 RICE 모델 대비 정확도가 83.3으로 5% 정도, 분할 속도는 20배 가까이 개선했다. 최근 열린 국제로봇학술대회인 ICRA(이크라)에 논문을 발표하기도 했다. ▲인공지능 자가진단 및 데이터 불확실성 자각 기술 추론 결과의 불확실성을 진단하는 AI 기술이다. 모델이 스스로 추론을 내리고, 불확실한 추론을 찾아내 관리자에 의사결정을 요청한다. 이는 모델이 생성한 세그멘테이션(분할) 마스크를 대상으로 예측 신뢰 점수에 따라 기준치 미달인 마스크를 가려, 잘못 여부를 관리자가 판단하는 방식이다. 허윤재 박사과정생은 "불확실성을 해소한 데이터를 다시 데이터셋으로 활용해 AI를 학습하는 과정이 지속 진행된다"며 "이를 통해 AI 성능을 점진적으로 개선한다"고 말했다. 허윤재 박사과정생은 "기술 개발 4년 차"라며 "상용화에 대한 구체적인 계획은 아직 없지만, 기술성숙도(TRL)가 점차 올라 일정 수준에 도달한다면 지도교수님과 상의하에가능할 것"이라고 덧붙였다. ▲3D 플로우 디퓨전 폴리시(Policy) 연구팀이 액션 출력 정책 학습기법을 제안했다. 3D 플로우(액션)를 예측하고, 예측된 플로우를 바탕으로 로봇 정책 모델을 학습하는 기술이다. 예를 들어, 로봇이 망치질을 할 경우 로봇은 못이 어떻게 박히는 지 예측하지 못했다. 그러나 이 기술은 못이 들어가는 상황을 예측, 그에 맞는 행동이 가능하다. 로봇의 행동으로 인해 장면이 어떻게 변할지를 예측하고 액션을 출력하는 것이 특징이다. 노상준 박사과정생은 "더 복잡한 환경에서 다양한 로봇 작업이 가능해졌다는 것을 의미한다"며 "에이전트 AI와 휴머노이드로 갈수록 더 유용한 분야"라고 설명했다.

2025.10.01 08:30박희범

리벨리온 "고비용 엔비디아 대체제 필요...추론용 AI칩 예선전 시작돼"

“AI 모델을 만들 때는 엔비디아 제품을 사용하지만, 완성된 모델을 서빙(Serving)할 때는 비용 효율적인 추론용 칩이 필요합니다.” 박성현 리벨리온 대표는 30일 서울 코엑스에서 열린 'AI 페스타 2025'에서 “엔비디아의 고비용 구조를 대체할 지속 가능한 대안이 필요하며, 이 시장은 빠르게 성장할 것”이라고 전망했다. 박 대표가 언급한 대체제는 추론용 AI 반도체다. 아직 개발 단계인 만큼 시장 주류는 아니지만, 본격적인 AI 서비스 시대가 열리면 수요가 급격히 늘어날 것으로 예상된다. 특히 그는 “추론형 AI 칩 시장은 한국에 기회가 있다”며 “전체 AI 시장에서는 경쟁이 쉽지 않지만, 삼성전자와 SK하이닉스 같은 글로벌 반도체 기업을 기반으로 한 인프라 경쟁력은 충분하다”고 강조했다. 다만 글로벌 경쟁도 만만치 않다. 현재 리벨리온을 비롯해 그로크, 쌈바노바, 텐스토렌트 등 유수의 스타트업들이 시장 주도권을 놓고 치열한 경쟁을 벌이고 있다. 박 대표는 “결국 Non(논)-엔비디아 진영 내에서 예선전을 마무리해야 한다”며 “상대 기업들도 만만치 않다”고 말했다. 그럼에도 그는 한국의 반도체 생태계를 강점으로 꼽았다. “삼성전자와 SK하이닉스가 있다는 사실만으로도 큰 자산”이라며 “정부가 글로벌 레퍼런스를 만들어주고, 기업들이 이를 기반으로 해외로 나아갈 수 있도록 지원해야 한다”고 했다. 리벨리온이 추론형 칩 시장에 주목하는 또 다른 이유는 공급의 불확실성이다. 엔비디아 칩 확보가 쉽지 않은 일부 국가와 기업들이 새로운 선택지를 원하고 있다는 점이다. 박 대표는 “사우디아라비아는 언제든 엔비디아가 공급을 끊을 수 있다는 불안 때문에 리벨리온 같은 대안을 찾고 있다”며 “사우디의 리벨리온 투자는 그 같은 배경에서 이뤄진 것”이라고 설명했다. 박 대표는 AI 반도체가 더 이상 '미래 기술'이 아니라고 강조했다. 그는 “이미 산업 현장에서 활용되고 있으며, 일상과도 가까워지고 있다”며 “SK텔레콤의 통화 요약 기능에는 리벨리온의 NPU가 적용되고 있다. 이 정도 규모의 비즈니스를 운영하는 기업은 화웨이를 제외하면 리벨리온이 유일하다”고 말했다. 아울러 “AI 반도체는 미래가 아닌 현재의 기술”이라며 “실사용 사례가 계속 늘어나고 있다”고 덧붙였다.

2025.09.30 17:13전화평

美 AI반도체 기업 그로크, 기업가치 69억 달러...1년 만에 두 배 이상 급등

미국 AI 반도체 스타트업 그로크(Groq)의 기업가치가 1년 만에 두 배 이상 뛰어올랐다. 20일 로이터통신 등 외신과 반도체 업계에 따르면 그로크는 최근 자금 조달 라운드를 통해 7억5천만달러(약 1조원)를 유치하면서 기업가치가 지난해 28억달러(약 3조9천100억원)에서 69억달러(약 9조6천351억원)로 급등했다. 그로크는 구글 모회사 알파벳 출신 엔지니어가 설립한 회사로, AI 추론용 칩에 특화돼 있다. 대형언어모델(LLM)을 기반으로 실시간으로 채팅할 수 있게 만드는 AI 추론 칩 '언어처리장치(LPU)'을 설계한다. 업계에서는 해당 기술이 최근 열리기 시작한 AI 추론 시장에 특화됐다고 판단해 투자가 이어진 것으로 보고 있다. 한 AI반도체 업계 관계자는 “추론형 AI 모델은 매월 두 배씩 성장하고 있다”며 추론형 AI반도체 시장이 곧 열릴 것으로 내다본 바 있다. 이번 투자에는 디스럽티브, 블랙록, 노이버거 버먼, 도이체 텔레콤 캐피탈 파트너스 등이 참여했으며, 삼성과 시스코(Cisco)도 투자사 명단에 이름을 올렸다. 이 중 디스럽티브는 약 3억5천만달러(약 4천885억원)를 투자했다. 조너선 로스 그로크 CEO는 “추론이 AI 시대를 정의하고 있으며, 속도와 비용 효율을 갖춘 미국 내 인프라를 구축 중”이라고 말했다. 또한 그로크는 사우디아라비아와 15억 달러 규모 공급 협약을 체결했으며, 이를 통해 올해 약 5억 달러 매출을 올릴 것으로 관측된다.

2025.09.21 10:35전화평

추론형 AI 폭풍 성장…데이터센터 스토리지 지각변동

“추론형 AI 모델은 매월 두 배씩 성장하고 있습니다.” 국내 추론형 AI칩 스타트업 퓨리오사AI 관계자는 AI 추론 시장에 대해 이 같이 설명했다. 아울러 시장이 급속도로 성장함에 따라 반도체 시장 지형도에도 변화가 있을 것으로 예상했다. 16일 업계 안팎에서는 추론형 AI 시장 확대에 따른 시장 변화가 감지되고 있다. 시장조사업체 트렌드포스 보고서에 따르면 데이터센터 스토리지 시장에서 시그널이 나타나고 있다. 기존 시장 주류를 차지하던 니어라인 HDD(nearline HDD)가 심각한 공급 부족에 직면하면서, 차세대 저장장치인 QLC SSD가 대안으로 떠오르고 있다. 트렌드포스는 “인퍼런스 AI 수요 폭증으로 니어라인 HDD 리드타임이 수주에서 최대 52주로 늘어나며, 클라우드 서비스 제공업체(CSP)들의 스토리지 격차가 심화되고 있다”고 전했다. HDD 제조사들이 최근 몇 년간 생산능력 확충에 소극적이었던 점도 공급난을 가중시킨 요인으로 지목된다. 이에 북미 CSP들은 원래 웜 데이터 중심으로 SSD 도입을 확대하려던 계획을 일부 조정, 콜드 데이터 저장에도 SSD 적용을 검토 중이다. 스토리지 분야에서는 데이터를 보통 핫(Hot), 웜(Warm), 콜드(Cold)로 나눠 관리한다. 핫 데이터는 실시간으로 자주 수정되는 데이터로, 지연에 매우 민감하다. 웜 데이터는 핫 데이터보다는 접근 빈도가 낮지만 필요할 때 빠르게 불러와야 하는 데이터로 주기적으로 조회되지만 실시간만큼 급하지는 않다. 콜드 데이터는 거의 접근하지 않는 장기 보관용 데이터를 뜻한다. 니어라인 HDD는 이 중 콜드데이터에 적합한 제품이며, 웜 데이터와 핫 데이터는 보통 SSD를 활용한다. 북미 CSP들이 콜드데이터에 대한 SSD 도입이 특별한 이유다. 트렌드포스는 “특히 QLC SSD는 HDD 대비 성능이 뛰어나고 전력 소비도 약 30% 낮다”며 점이 클라우드 업체에서 주목하는 이유에 대해 설명했다. 다만 비용과 공급망 제약은 여전히 걸림돌이다. QLC SSD 도입을 위해서는 데이터 관리 알고리즘 조정, 소프트웨어 스택 호환성 확보 등 추가적인 과제가 뒤따른다. 트렌드포스는 “HDD 공급 부족이 SSD 업체에 수익성 개선 기회를 제공하고 있지만, 고용량 SSD 공급이 제한적이어서 가격 하락 가능성은 낮다”며 “올해 4분기 기업용 SSD 계약 가격은 전분기 대비 5~10% 상승할 것”이라고 전망했다. 한편 업계는 QLC SSD가 본격적으로 시장에 안착하는 시점을 2026년으로 보고 있다. HDD 공급난이 장기화되는 가운데, 데이터센터의 스토리지 구조 개편이 가속화될지 주목된다.

2025.09.16 15:37전화평

AI 연산 폭증에 반도체 새 판 짠다…삼성 'DTCO', SK '풀스택 메모리'

인공지능(AI)의 폭발적 성장이 반도체 산업의 판도를 흔들고 있다. 데이터센터부터 모바일 기기까지 AI 연산 수요가 기하급수적으로 늘어나면서, 반도체 업계는 설계 최적화와 메모리 혁신을 해법으로 제시하고 있다. 11일 업계에 따르면 삼성전자와 SK하이닉스는 최근 서울 롯데호텔월드에서 개최된 '케이던스라이브 코리아 2025(CadenceLIVE Korea 2025)'에서 AI 시대 대응 방안을 제시했다. 삼성전자, AI 시대의 한계를 뛰어넘기 위한 기술 'DTCO' 먼저 백상훈 삼성전자 부사장은 DTCO(Design-Technology Co-Optimization)를 AI 시대의 한계를 뛰어넘기 위한 기술 대안으로 발표했다. DTCO는 반도체 설계와 공정 기술을 동시에 최적화해 PPA(전력·성능·면적), 생산 수율, 제조 비용 등 반도체 칩의 성능을 극대화하는 기술이다. 단순 설계 개선을 넘어 설계와 공정 기술을 하나의 유기체처럼 함께 최적화하는 게 필수다. 설계 과정에서 발생하는 문제점을 공정 단계에서 예측하고, 공정 기술 발전을 고려해 설계를 개선하는 상호 협력 과정이 중요하다. 발표에 따르면 DTCO의 핵심은 하이퍼셀(Hyper cell), 퓨전셀(Fusion cell) 등 차세대 셀 구조다. 하이퍼셀은 인접 채널을 병합해 고밀도 셀에서 발생하는 속도 저하 문제를 해결한다. 물리적으로는 면적 효율성을 유지하면서도 전류 구동 능력(Ion)을 개선할 수 있다. 퓨전셀은 서로 다른 특성을 가진 셀 구조를 통합(Fusion)해 상황에 따라 성능과 전력을 동시에 최적화하는 방식이다. 설계자가 공정 노드 내에서 고성능(HP)셀과 저전력(ULP)셀을 별도 선택할 필요 없이, 융합된 셀 라이브러리를 통해 균형 잡힌 설계가 가능해진다. 백 부사장은 “설계와 공정을 유기적으로 결합하는 DTCO 방식이 전력·성능·면적(PPA) 문제를 동시에 풀어낼 수 있는 해법”이라고 강조했다. 그러면서 "케이던스와의 협업을 통해 이 기술이 실제 제품에서 성과를 내고 있다"고 전했다. SK하이닉스, 풀스택 메모리로 AI 미래 설계 오늘날 AI 산업은 훈련 단계에서 추론 단계로 빠르게 이동하고 있다. 이에 따라 메모리는 단순한 저장 수단을 넘어, 고성능과 전력 효율을 동시에 만족시켜야 하는 핵심 인프라로 자리매김했다. SK하이닉스는 풀스택 메모리 포트폴리오로 이 같은 AI 환경 전반에 대응한다는 전략이다. 발표자로 나선 김천성 SK하이닉스 사장은 HBM(고대역폭메모리), D램, SSD까지 아우르는 풀스택 메모리 포트폴리오를 공개하며, AI 학습뿐 아니라 추론 환경에서도 효율적이고 확장성 높은 솔루션을 제공하겠다고 밝혔다. 그는 “AI 산업이 AI 학습에서 추론으로 빠르게 전환됨에 따라 메모리 기술의 진화가 필수적”이라고 전하며 “SK하이닉스의 스토리지 솔루션은 AI 추론 시나리오에서 데이터 집약적인 워크로드에 빠르고 안정적으로 액세스할 수 있도록 설계되어 있다”고 자신했다. 특히 HBM과 스토리지 SSD의 역할에 대해 강조했다. HBM이 전력 효율과 데이터 처리 속도라는 구조적 장점을 통해 고객 요구를 충족할 수 있다는 주장이다. 스토리지 SSD 등 스토리지 기술은 AI 추론 워크로드에서 요구되는 데이터 집약적인 연산 처리를 가능한 빠르고 안정적으로 지원하는 역할을 담당할 것으로 기대했다. 한편 행사에는 삼성전자 파운드리(위탁생산) 관계사인 가온칩스, 세미파이브, 코아시아 등 디자인하우스들도 참가했다. 이들 업체는 부스를 통해 고객과 만났다. 특히 코아시아의 경우 연사로 참가해 칩렛, SiP(시스템인패키지) 등에 대한 회사의 기술력을 소개했다.

2025.09.11 15:16전화평

UAE, 오픈AI·딥시크에 도전장…저비용 추론 모델 'K2 씽크' 공개

아랍에미리트(UAE)가 글로벌 인공지능(AI) 경쟁 구도 속에서 새로운 도전장을 내밀었다. 10일 CNBC에 따르면 UAE 아부다비에 위치한 무함마드 빈 자이드 인공지능대학(MBZUAI)은 오픈AI와 중국 딥시크에 맞설 수 있는 저비용 AI 추론 모델 'K2 씽크'를 공개했다. K2 씽크는 320억 개 파라미터로, 오픈AI와 딥시크의 플래그십 모델보다 훨씬 작은 규모다. 딥시크가 올해 초 공개한 'R1'은 6천710억 개 파라미터를 탑재한 것과 비교하면 큰 차이다. 이번 모델은 알리바바의 오픈소스 '큐원 2.5' 기반으로 구축됐으며 AI 반도체 기업 세레바스의 하드웨어(HW)에서 실행·검증됐다. 개발에는 마이크로소프트(MS)가 투자한 UAE AI 기업 G42가 참여했다. MBZUAI 측은 수학·코딩·과학 등 여러 벤치마크 테스트에서 오픈AI와 딥시크 모델에 필적하는 성능을 보였다고 설명했다. 핵심 기술로는 단계별 추론 방식의 감독학습 미세조정, 추론 시 연산 자원을 추가 투입하는 테스트 타임 스케일링 기법 등이 활용됐다. MBZUAI 헥터 류 기초모델연구소장은 "모델을 단순히 배포하는 데 그치지 않고 시스템처럼 운영·개선한 점이 차별점"이라고 강조했다. UAE는 이번 행보를 통해 AI 강국으로서 입지를 다지고 원유 의존도를 낮추려는 전략을 가속화하고 있다. 다만 미국과 중국이 각각 개방형·전략형으로 이미 AI 패권 경쟁을 주도하고 있어 얼마나 경쟁력을 이어갈지 주목된다. MBZUAI는 이번 모델이 챗봇과 같은 범용 서비스보다는 수학·과학 연구 지원 등 특정 목적에 최적화됐다고 밝혔다. MBZUAI 리처드 모튼 전무는 "이번 기술은 수천 명의 연구자가 수년간 진행할 작업을 단기간에 압축할 수 있는 가능성을 보여준다"며 "무엇보다 우리는 적은 자원으로도 훨씬 많은 일을 할 수 있다는 점을 확인하고 있다"고 말했다.

2025.09.10 10:59한정호

AWS, '에이전틱 AI' 시장 삼킬까…개발·보안 생태계 확장 시동

아마존웹서비스(AWS)가 에이전틱 인공지능(AI) 시대 선점에 시동 걸었다. 고객이 업무에 AI 에이전트를 보다 빠르고 안전하게 도입해, 운영 단계에서 생산성과 보안을 동시에 확보할 수 있도록 핵심 인프라와 솔루션을 공개해 시장 주도권 강화에 나섰다. AWS는 19일 서울 역삼 AWS코리아 사무실에서 열린 'AWS 최신 생성형 AI 및 보안 기술 전략 기자간담회'에서 에이전틱 AI 시장 전략을 위한 새 기술과 솔루션을 공개했다. 이번 발표는 올해 미국서 열린 'AWS 뉴욕 서밋'과 'AWS 리인포스 2025'에서 소개된 AI 에이전트 개발 도구와 보안 기술 중심으로 이뤄졌다. 이날 AWS코리아 최영준 데이터·AI 스페셜리스트 솔루션아키텍트(SA) 리더는 AWS 뉴욕 서밋서 첫선을 보인 AI 에이전트 기술을 발표했다. 우선 최영준 리더는 '에이전트 코어'를 소개했다. 에이전트 코어는 AI 에이전트를 실제 서비스에 적용할 수 있도록 돕는 플랫폼이다. 런타임을 비롯한 메모리, 신원 인증, 브라우저 연동 등 총 7가지 기능을 각 모듈 형태로 제공한다. 개발자는 이 중 필요한 기능만 골라 사용할 수 있다. 에이전트 코어는 서버를 직접 운영할 필요 없는 서버리스, 장시간 사용자 세션을 안정적으로 유지하는 기능도 포함됐다. 이를 통해 에이전트가 끊기지 않고 수 시간 동안 작동할 수 있다. 최 리더는 "개발자는 에이전트 코어를 통해 실험용으로 만든 개념 검증(PoC) 수준의 AI 에이전트를 실제 서비스 환경에 빠르게 배포할 수 있다"고 강조했다. 이 서비스는 오픈AI의 오픈웨이트 모델 'gpt-oss'뿐 아니라 구글 '제미나이', 마이크로소프트 애저 기반 오픈AI 모델 등 외부 AI 모델과 연동 가능하다. 최 리더는 "기존 AWS-마이크로소프트 애저 간 클라우드 연동 구조를 그대로 적용했다"며 "고객 요구에 따라 유연하게 작동한다"고 설명했다. 이날 최 리더는 AI 개발 생산성을 높이기 위한 도구 '키로'도 소개했다. 키로는 AI 에이전트 개발에 필요한 코드를 제작하는 도구다. 인간 개발자가 복잡한 코딩 작업을 일일이 하지 않아도 되는 셈이다. 기술에 익숙하지 않은 사용자도 키로에게 아이디어를 제공하면, 복잡한 코딩 없이도 AI 기능을 빠르게 구현할 수 있다. 이 외에도 최 리더는 '아마존 S3 벡터스' 서비스도 발표했다. 해당 서비스는 벡터 데이터 저장과 검색 효율을 높일 수 있다. 기존 '아마존 S3'에 벡터 데이터 전용 기능을 더한 형태다. 최 리더는 "최대 90%까지 저장 비용을 줄이면서도 검색 응답 속도는 1초 이내"라며 "AI 기반 검색뿐 아니라 추천 시스템, 챗봇 등 다양한 애플리케이션에서 더 빠르고 저렴한 벡터 활용이 가능해진 셈"이라고 강조했다. "AI가 대답한 것 수학적으로 검사…99% 정확도" 이날 AWS코리아 신은수 수석 보안 전문 SA는 AWS 리인포스 발표에서 소개된 주요 내용을 공유했다. 신 SA는 고객이 AWS 솔루션으로 기존보다 저렴한 가격에 더 높은 보안 장벽을 구축할 수 있다고 설명했다. 그는 특히 AI의 환각을 사전 차단할 수 있는 '자동 추론 검사' 서비스를 소개했다. 이 서비스는 AI 답변이 사전 정의된 조건·규칙에 부합하는지 자동 점검할 수 있다. 디시전 트리 기반의 형식 논리 추론 방식으로 작동한다. 이를 통해 테스트 시나리오별 오류 가능성을 단계적으로 검토할 수 있다. 필요한 경우 정책 개선이나 응답 수정 권고도 제시할 수 있다. AI 답변 중 팩트가 아닌 부분을 최대 99% 정확도로 탐지할 수 있다. 현재 '아마존 베드록'에 탑재됐다. AWS는 AI 응답의 신뢰성을 높이기 위한 또 다른 보안 기능으로 '가드레일' 서비스도 제공한다. 이 안에 포함된 '컨텍스추얼 바운딩 체크' 기능은 AI가 생성한 응답이 기존 지식이나 문서 기반과 일치하는지 자동으로 점검해 부정확한 정보 제공을 방지한다. 현재 가드레일 기능은 일정 단계까지 무료다. 고객이 가드레일 첫 적용 시 2단계까지 과금을 내지 않아도 되는 구조다. 이를 통해 초기 테스트나 PoC 단계에서 부담 없이 활용 가능하다. 신 SA는 "고객은 단순 오류 감지 수준을 넘어 응답의 구조적 타당성까지 분석할 수 있다"며 "AI 도입 초기 기업의 진입 장벽을 낮춘 셈"이라고 강조했다. 신 SA는 AWS의 신원 및 접근 관리(IAM) 서비스에 추가된 '내부 접근 분석기' 기능도 공유했다. IAM이 외부 공격뿐 아니라 내부 위협까지 대응할 수 있도록 고도화된 것이 핵심 내용이다. 이를 통해 조직 구성원들은 어떤 데이터나 시스템에 접근할 수 있는지 실시간 점검할 수 있으며 이상 접근 여부까지 미리 파악할 수 있다. 또 신 SA는 AWS가 최상위 관리자 권한을 가진 루트 계정에 대해 다중 인증(MFA) 적용을 의무화했다는 점도 알렸다. 기존에는 설정 여부가 선택 사항이었지만, 앞으로 루트 계정에 반드시 MFA를 활성화해야만 콘솔 접근이 가능하다. 이를 통해 민감 자원에 대한 비인가 접근을 차단할 수 있다. 비밀번호 탈취 시 2차 인증 절차를 통해 계정 보호를 강화할 수 있다. 이 외에도 AWS는 기존 보안 솔루션 기능일 업그레이드하거나 통합해 AI 에이전틱 시대 보안 위협에 대응하고 있다. 우선 EC2 인스턴스 트래픽 제어를 위한 '블랙풋'과 위협 정보를 실시간 업데이트하는 '메드팟'을 연동해 네트워크 보안을 강화했다. 두 시스템은 실시간 네트워크 공격 감지와 대응을 지원하며 모든 고객에게 무료 제공되고 있다. 신 SA는 "고객이 에이전트 본연 기능 개발에 집중할 수 있도록 운영과 보안 기능을 강화했다"며 "우리가 AI 서비스 전환을 적극 지원할 것"이라고 밝혔다.

2025.08.19 15:17김미정

GPU 기반 추론 워크스테이션 '배틀매트릭스' 힘 주는 인텔

엔비디아·AMD GPU 대비 가격 대비 성능을 극대화한 인텔 AI GPU 워크스테이션 '프로젝트 배틀매트릭스'(Project Battlematrix)가 최근 리눅스용 소프트웨어 정식 버전(1.0)을 공개하고 지속적인 업데이트를 예고했다. 프로젝트 배틀매트릭스는 최대 1만 달러(약 1천383만원) 가격에 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 처리할 수 있는 AI 추론 특화 워크스테이션이다. 비용 대비 효율을 중시하는 중/소규모 기업과 개발자 대상으로 클라우드 의존도가 높은 현 AI 워크로드 운영 방식을 온프레미스 중심으로 일부 전환할 수 있는 가능성을 제공한다는 점에서 의미가 크다. 5월 아크 프로 GPU 기반 '배틀매트릭스' 공개 프로젝트 배틀매트릭스는 인텔이 지난 5월 워크스테이션 GPU인 아크 프로 B시리즈와 함께 공개한 AI 워크스테이션 플랫폼이다. Xe2 코어 20개와 24GB 메모리를 탑재한 아크 프로 B60 GPU 최대 8개를 결합해 INT8(정수, 8비트) 기준 1,576 TOPS(1초당 1조 번 연산)급 연산 성능을 구현했다. GPU가 활용하는 메모리 용량은 192GB로 1천500억 개 매개변수로 구성된 거대언어모델(LLM)을 구동할 수 있다. 운영체제 구동에는 워크스테이션급 제온 프로세서를 활용하고 운영체제는 리눅스를 활용하다. 가격대는 5천 달러(약 691만원)에서 1만 달러(약 1천383만원)로 AI 추론 인프라에 대한 진입 장벽을 낮추는 것을 목표로 한다. LLM 스케일러 1.0 공개... 추론 속도 최대 4배 향상 인텔은 배틀매트릭스용 소프트웨어 구축에 CPU와 GPU, NPU와 가속기 등 연산 자원을 모두 활용하는 원API(OneAPI)를 활용하고 이를 지속적으로 개선하고 있다. 이달 초순 공개된 LLM 스케일러 1.0 버전은 초기 버전 대비 LLM 처리 속도 향상에 중점을 뒀다. 매개변수 320억 개 규모 모델 기준 처리 속도는 1.8배, 700억 개급 모델 처리 성능은 4.2배 높아졌다. 레이어별 온라인 양자화를 통해 GPU 메모리 요구량을 줄였고, vLLM 기반 파이프라인 병렬 처리를 실험적으로 도입해 대규모 모델 추론의 병목을 완화했다. 임베딩·재순위 모델 지원, 멀티모달 입력 처리 강화, 최대 길이 자동 감지, 데이터 병렬 처리 최적화 기능도 새롭게 추가됐다. 원격 관리가 필요한 기업 환경에서 GPU 전력 관리와 펌웨어 업데이트, 메모리 대역폭 모니터링 등 기능을 갖춘 XPU 매니저를 추가했다. GPU 1개를 여러 가상화 인스턴스가 활용할 수 있는 SR-IOV 기능도 추가했다. 중소기업·개인 개발자 위한 온프레미스 추론 인프라 제공 현재 GPU 시장은 엔비디아와 AMD가 성능 중심의 서버 시장을 양분하다시피 하는 상황이다. 반면 인텔이 하바나랩스 인수 후 출시하고 있는 AI 가속기인 가우디3는 제한적인 시장 점유율을 확보하고 있다. 배틀매트릭스는 정체된 서버 시장 대신 합리적인 가격·멀티 GPU 확장성·관리 편의성을 무기로 중소기업과 개인 개발자층을 직접 공략하기 위한 제품이다. 향후 로드맵도 공격적이다. 인텔은 이달 LLM 스케일러 공개에 이어 오는 SR-IOV 고도화, VDI 지원, 관리 소프트웨어 배포 기능 등 모든 기능을 구현한 완전판을 공개 예정이다.

2025.08.14 15:36권봉석

"AI 답변 수학적으로 검증"…AWS, 자동 추론 검사 서비스 공개

아마존웹서비스(AWS)가 인공지능(AI) 결과물 정확성을 수학적으로 검증하는 자동 추론 검사 서비스를 공개했다. AWS는 '아마존 베드록' 가드레일 내에 해당 기능을 정식 출시했다고 8일 밝혔다. 해당 서비스는 최대 99% 정확도로 AI 응답을 검사할 수 있다. 대규모 문서 처리부터 정책 검증 자동화, 시나리오 자동 생성, 정책 개선 제안, 신뢰도 임계치 조정까지 처리할 수 있다. 자동 추론 검사 서비스는 통계적 샘플링이나 인간 검토 대신 형식 검증 기법으로 작동한다. 이는 AWS가 10여 년간 클라우드 인프라 보안에 활용해 온 수학적 방법이다. 비즈니스 규칙과 도메인 지식에 따라 AI 출력이 적합한지 확인하는 원리다. 테스트 결과는 정답(valid), 오답(invalid), 특정 가정에 따라 참 또는 거짓(satisfiable)중 하나로 설정된다. 자연어에서 논리로의 변환에 대한 신뢰도 임계값도 설정할 수 있다. 이 서비스는 자연어를 구조화된 언어로 변환하고 사실 정의를 가능하게 하며, 대규모 경우의 수에 대한 확정적 추론을 빠르게 수행한다. 이를 통해 모호한 규칙 해석과 변경에도 유연하게 대응할 수 있다. AWS는 자동 추론 검사 서비스가 헬스케어와 금융, 유틸리티 등 규제 산업의 AI 도입 장벽을 낮춘다고 강조했다. 실제 AWS 파트너 PwC는 이를 의약품 검토, 유틸리티 운영, 헬스케어 커뮤니케이션, 보험 청구 등 실제 업무에 적용한 상태다. 해당 서비스는 미국 동부·서부, 유럽 등 AWS 주요 리전에서 우선 제공된다. 고객은 아마존 베드록 콘솔과 파이썬용 AWS 소프트웨어 개발 키트(SDK)를 통해 이용할 수 있다. 에이전트형 AI 워크플로와 통합돼 실행 전 검증과 감사 추적 기능을 제공한다. 바이런 쿡 AWS 부사장 겸 특임 과학자는 "언어 문법 의미 타당성 완전성 등 과거에는 학문적이고 멀게 느껴졌던 문제가 이제는 바뀌었다"며 "우리 팀은 자연어 번역과 사실 정의 확정적 추론 방식을 지속적으로 개선해 왔다"고 말했다.

2025.08.08 13:39김미정

오픈AI, AWS 클라우드에 상륙…MS 독점 균열 가시화

오픈AI가 처음으로 글로벌 클라우드 1위 사업자인 아마존웹서비스(AWS)를 통해 인공지능(AI) 모델을 제공한다. 6일 테크크런치에 따르면 오픈AI는 자체 오픈 가중치 추론 모델 2종을 발표하며 해당 모델들이 AWS의 AI 서비스 플랫폼인 '아마존 베드록'과 '세이지메이커'에 탑재된다고 밝혔다. AWS는 오픈AI 모델을 자사 클라우드 서비스에 처음으로 도입하게 됐다. 오픈AI는 이번 모델을 아파치 2.0 오픈소스 라이선스로 공개했으며 누구나 허깅페이스를 통해 내려받을 수 있지만, AWS는 오픈AI의 승인과 협력하에 해당 모델을 직접 호스팅하는 방식으로 서비스를 시작했다. 이는 AWS가 올 초 중국의 '딥시크-R1'을 자사 플랫폼에 탑재한 것과 유사한 접근 방식이다. 이번 협력은 양사 모두에게 전략적인 의미가 있다. AWS는 오픈AI 모델을 통해 마이크로소프트(MS)와의 경쟁 구도에서 균열을 꾀할 수 있게 됐다. 오픈AI는 MS 외 클라우드 파트너를 확대함으로써 독점적 구조에서 벗어나 유연성을 확보하게 됐다. 그동안 오픈AI는 MS의 애저를 통해 AI 서비스를 주로 제공해 왔다. MS는 오픈AI 최대 투자자이자 클라우드 파트너로, 자사 애저 플랫폼을 기반으로 챗GPT와 GPT API를 운영하고 있다. 하지만 최근 오픈AI와 MS가 장기 파트너십 재협상을 진행 중인 것으로 알려지면서 관계 변화 조짐이 감지됐다. 이런 상황 속 AWS와의 협력은 오픈AI가 협상력을 강화하기 위한 포석으로도 해석된다. AWS 입장에서도 이번 파트너십은 시기적으로 중요하다. 최근 발표된 실적 발표에서 AWS는 MS와 구글에 비해 AI 분야에서의 경쟁력이 약하다는 투자자들의 지적을 받았다. 특히 JP모건과 모건스탠리 등 주요 투자기관 애널리스트들은 AWS의 생성형 AI 경쟁력 저하에 대한 우려를 직접적으로 제기하며 점유율 하락 가능성을 지적했다. AWS는 이번 오픈AI 모델 도입을 통해 클라우드·AI 주도권을 다시금 공고히 한다는 목표다. 아마존 베드록과 세이지메이커 플랫폼에서 오픈AI 모델을 직접 사용할 수 있게 되면서 AWS 사용자들은 보다 손쉽게 고성능 추론 모델을 활용한 서비스를 개발할 수 있게 된다. 업계 관계자는 "오픈AI가 AWS에 모델을 공식 제공한 것은 단순한 파트너십 이상의 상징성을 가진다"며 "MS 중심이었던 오픈AI의 생태계가 점차 다변화되고 있다는 신호이자 AWS 역시 생성형 AI 경쟁에서 반격의 계기를 마련한 것으로 볼 수 있다"고 말했다.

2025.08.06 11:19한정호

[써보고서] 업스테이지 '솔라 프로 2' 써보니…韓 AI 모델, 어디까지 왔나

업스테이지가 자체 개발한 '솔라 프로 2'로 추론 인공지능(AI)의 실무 활용성을 입증하며 국내 기업 시장 공략의 포문을 열었다. 13일 업계에 따르면 업스테이지는 최근 일반 사용자도 '솔라 프로 2'를 직접 체험할 수 있도록 회사의 콘솔 플랫폼을 개방했다. 이에 기자는 해당 플랫폼에 직접 접속해 한정된 데모가 아닌 실제 서비스와 동일한 환경에서 모델의 성능을 점검했다. '솔라 프로 2'는 업스테이지가 최근 선보인 차세대 거대언어모델(LLM)이다. 사용자는 이 모델을 통해 단순 질의응답은 물론 복잡한 자료의 요약 및 번역, 데이터 변환 같은 고차원적인 과제를 수행할 수 있다. 사용자 인터페이스(UI)는 현재 시장의 주류 AI 챗봇들과 유사한 대화형 방식을 따른다. 사용자에게 익숙한 채팅 창에 바로 질문을 입력해 사용하는 구조로, 별도의 사용법을 익힐 필요는 없다. 기자에게 거대언어모델(LLM)의 추론 능력이 가장 필요한 순간은 해외 자료에 나온 수치를 원화로 환산할 때다. 이에 가트너 보고서에 언급된 생성 AI 관련 투자액을 달러에서 원화로 변환해달라고 요청했다. '솔라 프로 2'는 1달러가 1천400원이라는 기준을 세우고 지난해와 올해 글로벌 생성 AI 모델 지출액을 오차 없이 환산해냈다. 결과값은 단순히 숫자를 나열하는 데 그치지 않고 '억' 단위를 사용해 한국 사용자가 이해하기 쉬운 형태로 깔끔하게 정리해 보여줬다. 복잡한 수학 문제는 아니지만 업무 중 빈번하게 발생하는 데이터 처리 과정에서 신뢰할 수 있는 성능을 보여준다는 점은 분명한 장점이다. 기계번역에 있어서도 상당한 성능을 드러냈다. 기자는 한국의 소버린 AI 전략에 대해 최근 작성한 2천 단어 분량의 영문 기사를 한국어로 번역하도록 지시했다. 수 초가 지나지 않아 결과물이 쏟아져 나왔다. 보다 경량모델이기 때문이겠지만 체감상 구글 '제미나이 2.5 프로'나 오픈AI '챗GPT-4o'보다 신속한 속도였다. 번역의 질도 만족스러웠다. 내용 확인 결과 모든 문장이 원문의 의미를 정확하게 담고 있었다. 문체가 아주 유려하지는 않았다. 일부 표현은 '약간 투박한 대학생의 과제물' 같은 느낌을 주기도 했다. 사람 이름과 같은 고유명사에서는 일부 오류가 있기도 했다. 다만 속도와 정확성의 수준을 고려하면 해외 자료를 신속히 검토하고 핵심을 파악해야 하는 실무 환경에서는 충분한 수준이다. 결과물을 빠른 시간에 내놓는다는 점에서 실용성은 글로벌 경쟁 모델과 비교해도 뒤지지 않았다. 더불어 고유명사에서의 오류는 파운데이션 모델 자체가 고질적으로 겪는 구조적 문제다. 이번 테스트는 '솔라 프로 2'에만 진행되지 않았다. 업스테이지의 또 다른 핵심 기술인 광학문자인식(OCR) 성능도 함께 확인했다. 이는 업스테이지가 창업 초기부터 두각을 나타낸 분야로, 김성훈 대표는 여러 차례 OCR과 LLM을 통합해 '일의 미래'를 실현하겠다는 비전을 밝힌 바 있다. 플랫폼의 '도큐먼트 OCR' 기능을 이용해 2차 세계대전 당시 헨리 스팀슨 미 육군장관이 트루먼 대통령에게 보낸 편지를 인식시켜 봤다. 결과는 상당히 괜찮았다. 80%의 신뢰도(Confidence)로 인식이 진행됐으며 흘려 써서 사람도 알아보기 힘든 몇몇 단어를 제외하고는 대부분의 내용을 정확하게 디지털 텍스트로 변환했다. 이는 업스테이지가 단순히 LLM 개발에만 매달리는 것이 아니라 문서 처리라는 핵심 기술력 위에 AI 모델을 쌓아 올리고 있음을 보여주는 대목이다. '솔라 프로 2'를 체험한 소감은 '실용적이고 빠르다'로 요약할 수 있다. 사실 오픈AI, 구글, 앤트로픽 등 글로벌 빅테크부터 알리바바, 딥시크 같은 중화권 모델에 이르기까지 파운데이션 모델의 발전 방향은 대체로 대동소이해지며 상향 평준화되는 추세다. 이같은 상황에서 완전히 새로운 기능은 없으나 번역·요약·계산 등 사용자가 가장 필요로 하는 핵심 기능에서 국내 스타트업이 꾸준히 경쟁력을 유지하고 있다는 점은 그 자체로 고무적이다. 글로벌 최상위 모델과 성능 수치를 일대일로 비교하기엔 무리가 있을 수 있다. 다만 '솔라 프로 2'가 보여준 성능은 기업 실무자가 현장에서 필요로 하는 수준을 이미 충분히 만족시키는 수준이다. 이는 곧 시장에서의 현명한 포지셔닝으로 이어질 수 있는 대목이다. 글로벌 B2C 구독 시장은 미국 빅테크가, 중국 내수 시장은 중국 기업들이 장악한 구도 속에서 국내 기업이 정면으로 경쟁하기는 쉽지 않다. 대신 데이터 보안에 민감하거나 국내 환경에 최적화된 기술 지원을 필요로 하는 기업들에게 '솔라 프로 2'는 매력적인 B2B 대안이 될 수 있다. 김성훈 대표는 "'솔라 프로2'는 문제를 이해하고 논리적으로 사고하며 AI 비서처럼 명령까지 수행한다"며 "향후 발전과 사용자들의 적극적인 참여를 기대한다"고 말했다.

2025.07.13 06:49조이환

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

SKT, 임원 수 줄여 조직 재정비..."책임 경영 확대"

"이래도 안 봐?"...디즈니플러스, 오리지널 6편으로 韓 시장 잡는다

최신 밈부터 직원 꿀팁까지…GS25 '더블 100만' 팔로워 성공기

LG·벤츠, AI 전장·배터리서 '빅딜' 기대…"폭넓은 협의 나눴다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.