• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (346건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"AI가 변화시키는 산업과 사회"...삼성전자, '삼성 AI 포럼 2025' 개최

삼성전자가 15일부터 이틀간 '삼성 AI 포럼 2025'를 개최한다고 이날 밝혔다. 올해로 9회째를 맞는 '삼성 AI 포럼'은 매년 학계와 업계 전문가들이 한자리에 모여 AI 분야의 최신 연구 성과를 공유하고, 향후 연구 방향을 모색하는 기술 교류의 장이다. 이번 포럼에는 ▲딥러닝 분야의 세계적 석학인 요슈아 벤지오 캐나다 몬트리올대 교수 ▲언어모델과 AI 에이전트 연구의 권위자인 조셉 곤잘레스 UC 버클리 교수 등 글로벌 AI 전문가들이 기조 강연에 나선다. 전영현 삼성전자 대표이사 부회장은 개회사를 통해 "삼성전자는 다양한 업무영역에 AI 기술을 적용해 언제 어디서나 쉽고 빠르게 AI를 활용할 수 있는 기반 기술을 개발하고 있다"며 "올해 삼성 AI 포럼은 산업계와 학계를 대표하는 전문가들을 모시고 AI가 사회와 산업을 어떻게 변화 시키는지 논의하고 함께 지혜를 나누는 의미 있는 시간이 될 것"이라고 말했다. 글로벌 학계 리더들과 반도체 특화 AI 기술 현황과 미래 논의 삼성전자 DS부문이 주관하는 1일차 포럼은 경기도 용인에 위치한 삼성전자 The UniverSE에서 진행됐다. 이날 포럼에는 사전 초청자 200여 명이 참석해 '반도체 산업의 버티컬 AI 전략과 비전'을 주제로 논의가 이뤄졌다. 기조 강연에 나선 캐나다 몬트리올대 벤지오 교수는 기존 AI 모델에서 발생할 수 있는 '인간 통제 회피', '악의적 사용' 등 잠재적 위험 요소를 설명하고, 안전장치 역할을 할 새로운 모델 '과학자 AI'를 소개했다. 그는 "과학자 AI 모델은 인간을 모방하거나 기쁘게 하려는 의도 없이 검증된 사실과 데이터를 근거로 정직한 답변을 제공한다"며 "안전성과 과학적 발견의 가속화 측면에서 과학자 AI 기술이 중요하다"고 강조했다. 반도체 설계 자동화 회사인 지멘스 EDA의 아밋 굽타 부사장은 'AI 기반 전자 설계의 미래'를 주제로 강연을 진행했다. 그는 "반도체 전자 설계 자동화 도구에 AI를 통합하는 것이 무엇보다 중요하다"며 "특히 AI의 잠재력을 완전하게 활용하기 위해서는 전체 워크플로우에서 작동하는 엔드투엔드 시스템이 필요하다"고 설명했다. 이 외에도 송용호 삼성전자 DS부문 AI센터장(부사장)과 포항공대 강석형 교수, 한국과학기술원(KAIST) 문일철 교수가 진행한 기술 세션에서는 반도체 설계 및 제조 분야의 최신 AI 응용 연구 성과와 미래 전망이 논의됐다. 에이전틱 AI 시대, 업무 생산성 향상을 위한 AI 기술 논의 16일에 진행하는 2일차 포럼은 삼성전자 DX부문이 주관하며 '생성형 AI를 넘어, 에이전틱 AI로'를 주제로 온라인 운영된다. 에이전틱 AI는 자율적으로 의사결정을 내리고 작업을 수행할 수 있는 AI 시스템이다. 전경훈 삼성전자 DX부문 최고기술책임자(CTO) 겸 삼성리서치장(사장)은 "생성형 AI는 이미 일상과 산업 전반에서 필수 도구로 자리잡았다"며 "삼성전자는 본격화되는 에이전틱 AI 시대에 맞춰 사용자에게 실질적으로 도움이 되는 AI 기술을 준비할 것"이라고 말했다. 둘째 날 기조 강연에는 ▲조셉 곤잘레스 UC 버클리 교수 ▲수바라오 캄밤파티 애리조나 주립대 교수 ▲스테파노 에르몬 스탠퍼드대 교수 등이 나선다. 기조 강연 후에는 이주형 삼성리서치 AI센터 부사장이 기조 강연 연사들과 함께 질의응답 시간을 갖는다. UC 버클리 곤잘레스 교수는 거대언어모델(LLM) 기반의 에이전트 능력 고도화 연구 사례를 발표한다. 또 사용자와 에이전트간 상호작용 사이에 발생하는 공백 시간을 활용해 에이전트가 추론·학습·계획을 수행하는 '슬립타임 컴퓨트' 패러다임도 소개한다. 캄밤파티 애리조나 주립대 교수는 기존 거대언어모델의 한계를 보완하기 위한 '대규모 추론 모델(LRM)' 연구 결과를 공유한다. 그는 언어 모델에서 해결돼야 할 주요 과제로 ▲정확성 보장 ▲상황 적응형 계산 ▲중간 추론 해석 제공 등을 제시할 예정이다. 에르몬 스탠퍼드대 교수는 이미지·영상·오디오 생성에 활용되던 확산 모델을 언어에 적용한 '확산 언어 모델(DLM)'을 발표한다. 이 기술은 순차적 텍스트 생성 방식의 한계를 극복하고 보다 효율적인 언어 모델의 패러다임을 제시할 전망이다. 기술 세션에서는 삼성리서치 연구원들이 ▲카메라 색온도 자동 조절 AI 기술 ▲지식 증류를 활용한 효율적인 거대언어모델 학습 기법과 적용 사례 ▲스마트폰, TV 등 전자제품에 거대언어모델을 탑재하기 위한 온디바이스 기술 ▲실제 목소리로 더빙 음성을 자동 생성하는 AI 기술 등 최신 연구개발 성과를 공유한다. 또한 ▲멀티 에이전트 시스템으로 다양한 보고서를 분석하고 자동 생성하는 '딥 다이브' 기술 ▲다양한 형식의 문서를 거대언어모델이 이해할 수 있는 구조로 자동 변환시켜주는 '문서 AI' 기술 ▲제품에 탑재되는 생성형 AI 모델들의 개발 주기를 단축하는 '온디바이스 AI 스튜디오' 등 사내 생산성 향상을 위한 기술과 적용 사례도 공개된다.

2025.09.15 10:25전화평

"네이버·카카오 보고 있나"…설립 1년차 신생기업, 70B LLM '설계도' 통째로 풀었다

트릴리온랩스가 국내 최대 규모 거대언어모델(LLM)의 훈련 과정까지 전면 공개했다. 전례 없는 수준의 개방성을 앞세워 국내 AI 기술 생태계의 주도권을 확보하려는 전략으로 풀이된다. 트릴리온랩스는 자체 개발한 700억 파라미터 규모 LLM '트리(Tri)-70B'를 10일 공개했다. 회사에 따르면 이 모델은 한국에서 프롬 스크래치로 개발된 언어모델 중 가장 큰 규모다. 사후학습이 최소화된 베이스 모델 형태라 활용성이 높다. 트릴리온랩스는 70B 모델 공개와 함께 '오픈소스 먼스'를 선언했다. ▲0.5B ▲1.8B ▲7B ▲70B에 이르는 모델 전체 라인업을 아파치 2.0 라이선스로 개방해 상업적 활용의 길을 열었다. 특히 이번 공개에서 가장 주목받는 부분은 학습 중간 과정이 담긴 체크포인트까지 전면 공개한 점이다. 이는 연구자들이 모델의 학습 과정을 정밀하게 분석하고 효율적으로 재학습할 수 있는 길을 연 것으로 평가된다. 전 세계적으로도 허깅페이스 등 소수만 시도한 방식으로 국내에서는 최초다. 공개된 모델에는 다국어 번역과 실시간 검색에 특화된 버전도 포함됐다. 검색 특화 모델은 '덕덕고' 같은 검색 엔진과 연동해 최신 정보를 즉각 반영할 수 있어 LLM의 지식 확장 가능성을 제시한다. 트릴리온랩스는 지난해 8월 설립된 스타트업으로 독자적인 한국어 중심 LLM을 개발해왔다. 신재민 대표를 중심으로 카이스트, 옥스포드, 아마존, 네이버 등 출신의 인재들로 구성됐다. 회사는 지난해 9월 90억원 규모의 프리-시드 투자를 유치한 바 있다. 신재민 트릴리온랩스 대표는 "단순히 언어 모델을 만드는 데 그치지 않고 훈련 과정과 핵심 기법까지 모두 공개해 연구의 투명성을 확보하고 글로벌 AI 연구 생태계 발전의 토대를 마련하고자 한다"며 "이번 공개는 국내 AI 기업들이 기술적 우수성과 개방적 연구 문화를 통해 글로벌 경쟁력을 확보할 수 있음을 보여주는 중요한 출발점이 될 것"이라고 밝혔다.

2025.09.10 16:49조이환

[현장] 오픈AI, 韓 공식 상륙…"단순 진출 아닌 'AI 대전환' 핵심 파트너 될 것"

오픈AI가 국내 법인 공식 출범을 계기로 국내 인공지능(AI) 대전환을 위한 핵심 파트너로의 역할 확장에 나섰다. 오픈AI는 10일 서울 광진구 파이팩토리 스튜디오에서 기자간담회를 열고 오픈AI 코리아의 공식 출범을 알렸다. 이날 행사에는 제이슨 권 오픈AI 최고전략책임자(CSO)가 직접 참석해 발표를 진행했다. 오픈AI 코리아는 아시아 3번째이자 전 세계 12번째 지사다. 오픈AI는 한국을 차세대 글로벌 AI 허브로 지목했다. 첨단 인프라와 기술 친화적 소비자를 갖춰 AI 발전의 최적지라는 평가다. 실제 국내 '챗GPT' 주간 사용자 수는 1년 전보다 4배 늘었고 유료 구독자 규모는 아시아태평양 지역 최대 수준이다. 오픈AI는 향후 산업계와 학계 정부를 아우르는 전방위적 협력을 통해 국가 AI 전환을 가속하겠다는 비전을 제시했다. 제이슨 권 CSO "韓 AI 대전환 파트너 될 것…모두의 AGI 만들겠다" 이날 발표를 맡은 제이슨 권 CSO는 오픈AI의 미션을 강조하며 한국 시장의 중요성을 역설했다. 그는 인류 전체에 이로운 범용인공지능(AGI) 개발을 위해 한국과의 파트너십이 필수적이라고 못 박았다. 오픈AI는 '챗GPT' 출시 이후 3년 만에 전 세계 주간 활성 사용자 7억명, 개발자 400만명, 유료 비즈니스 고객 500만 이상을 확보했다는 설명으로, 현재 3천 명 이상의 직원이 함께하며 폭발적인 성장을 이끌고 있다. 제이슨 권 CSO는 "우리의 미션은 AGI가 인류 전체에 이롭도록 하는 것"이라며 "한국처럼 AI 개발을 선도하는 국가와 긴밀히 협력하지 않고는 그 미션을 달성할 수 없다"고 강조했다. 권 CSO는 이날 기술 발전의 다음 단계로 '에이전트의 시대'를 선언했다. 지난 2022년 대화형 AI 시대를 연 '챗GPT'와 지난해 추론 기능을 강화한 'O 시리즈' 모델에 이어 올해부터는 AI가 스스로 문제를 해결하는 '에이전트' 시대를 열겠다는 청사진이다. 이를 뒷받침할 최신 기술도 대거 공개했다. 지난달 출시한 플래그십 모델 'GPT-5'는 신속한 답변과 심층 추론을 결합해 최초로 무료 사용자를 포함한 모두에게 고차원적 추론 기능을 제공한다. 소프트웨어 엔지니어링 팀원처럼 작동하는 코딩 에이전트 '코덱스'는 최근 2주 만에 사용량이 10배 급증하며 현업의 높은 관심을 증명했다. 이와 함께 정답 대신 유도 질문으로 깊이 있는 학습을 돕는 '스터디 모드'와 사용자가 직접 AI를 맞춤화할 수 있는 오픈 웨이트 모델 'GPT-OSS'도 공개했다. 권 CSO는 "한국은 최첨단 인프라와 혁신적 기업 빠른 기술 도입 속도를 갖춘 AI 혁신의 최적지"라며 "AI 도입 측면에서도 한국은 전 세계에서 가장 빠르게 성장하는 시장 중 하나"라고 평가했다. 오픈AI 코리아는 향후 국내 산업계와 학계 스타트업 생태계 전반을 아우르는 AI 전환 파트너 역할을 수행한다. 한국은 오픈AI의 애플리케이션 프로그램 인터페이스(API) 사용량 기준 전 세계 10위권에 포함될 만큼 기업의 도입 열기가 뜨겁다. 이미 카카오, SK텔레콤, LG전자, 토스 등 다수 기업이 오픈AI 기술을 도입해 생산성 혁신에 나서고 있다. 카카오는 자체 생태계에 오픈AI 기술을 연동 중이며 KT와 GS 등은 사내 업무용으로 '챗GPT' 엔터프라이즈를 도입했다. 학계와의 협력도 본격화한다. 오픈AI는 오는 11일 서울대학교와 연구 혁신을 위한 업무협약(MOU)을 체결한다. 이는 한국 대학과 맺는 최초의 공식 파트너십으로 향후 연구 협력의 의미 있는 출발점이 될 전망이다. 국내 스타트업과 개발자 생태계 지원 역시 핵심 과제다. 오픈AI는 지난 2월 개발자 워크숍 '빌더랩'을 연 데 이어 오는 12일 스타트업과 투자자를 잇는 '파운더스 데이'를 개최한다. 이 행사에는 오픈AI의 'GPT-5' 해커톤 우승팀인 국내 스타트업 와들도 참여해 자리를 빛낼 예정이다. 오는 11월에는 개발자 컨퍼런스인 '데브데이 익스체인지'를 열어 최신 기술을 공유할 계획이다. 크리에이터 커뮤니티와의 동반 성장도 추진한다. 최근에는 서울디자인재단과 협력해 국내 아티스트 21명과 '크리에이티브 랩 서울' 워크숍을 진행했다. 당시 영상 생성 AI '소라'로 제작된 미디어 아트가 DDP 외벽에 투사돼 주목받기도 했다. 이같이 오픈AI는 곧 공식 선임될 한국 지사장을 중심으로 국내 파트너들과의 협력을 한층 강화할 방침이다. 권 CSO는 "한국의 기업, 정부, 학계, 창작자들과 함께 무엇을 만들어 나갈 수 있을지 기대가 크다"며 "한국과의 파트너십을 더욱 공고히 해나갈 것"이라고 전했다. "韓 AI 주권 존중…데이터센터부터 소버린 AI까지 맞춤형 협력" 이어진 질의응답에서는 국내 시장에 대한 구체적인 투자와 정책 협력 방안에 대한 질문이 쏟아졌다. 제이슨 권 CSO는 AI 데이터센터 설립부터 국내 기업과의 파트너십, 소버린 AI 정책에 이르기까지 폭넓은 현안에 대해 답했다. 권 CSO는 AI 데이터센터 등 국내 직접 투자 가능성을 열어뒀다. 그는 한국을 가장 빠르게 성장하는 최고 시장 중 하나라고 평가하며 물리적인 데이터센터 건설 외에도 SK, 삼성 등과의 하드웨어·칩 분야 협력 클라우드 제휴 등 다양한 파트너십을 검토 중이라고 설명했다. 또 한국에서의 활동을 이끌 지사장 선임이 현재 최종 단계에 있다고 밝혔다. 국내 기업과의 파트너십은 '장기적 신뢰 구축'을 핵심으로 제시했다. 카카오와의 협력은 API를 기반으로 한 장기적 기술 협력이며 최근 진행된 삼성, SK 등 최고 경영진과의 만남 역시 신뢰 관계를 쌓는 과정이라고 밝혔다. 기업들의 데이터 보안 우려에는 두 가지를 약속했다. API 데이터는 절대 모델 훈련에 사용하지 않으며 개발자가 직접 데이터를 통제할 수 있는 강력한 보안 기능도 함께 제공한다는 것이다. 최근 화두인 '소버린 AI'에 대해서는 한국의 강점을 살린 파트너십 모델을 제안했다. 권 CSO는 "한국은 하드웨어부터 소프트웨어까지 아우르는 '풀스택' AI 강국이 될 잠재력이 있다"며 "모든 것을 단독으로 하기보다 잘하는 분야의 강점을 살려 다른 파트너와 협력하는 것이 한국의 성공 모델이 될 것"이라고 진단했다. 지연된 AI 기본법 등 국내 규제 환경에 대해서는 정부의 '입법 파트너'가 되겠다는 입장을 명확히 했다. 권 CSO는 "개인정보보호 보안 안전과 같은 영역에서 좋은 결과를 만들기 위해 협력할 것"이라며 "이미 우리는 이들 영역에서 선제적으로 기술을 개발해왔으며 정부가 자문을 원하면 언제든 경험을 공유할 준비가 돼 있다"고 말했다. 정부와의 정책 협력 의지도 강하게 드러냈다. 그는 한국 정부의 '글로벌 탑 3 AI 강국' 목표와 오픈AI의 비전이 일치한다고 설명했다. 오픈AI의 AGI 개발에는 막대한 컴퓨팅 자원이 필요하고 한국은 삼성, SK 등 세계적인 기술력을 갖춘 기업이 있다는 점을 상호보완적 요소로 꼽았다. 학계 및 교육계와의 협력 계획도 구체화했다. 권 CSO는 "서울대와의 업무협약은 'AI 연구 지식의 상호 교류'에 중점을 둔다"고 밝혔다. 이어 "한국은 교육열이 높아 AI를 교육에 접목하는 방식을 선도하는 국가가 될 것"이라며 "이 분야에서 스타트업들과 협력해 좋은 결과를 만들고 싶다"고 말했다. 국내 스타트업 생태계에 대해서는 인수나 직접 투자 계획은 구체화 된 바가 없다는 점을 밝혔다. 대신 API를 통해 생태계가 성장하도록 지원하고 현지 요구에 귀 기울이는 방식으로 기여하겠다는 설명이다. '챗GPT'의 한국어 정확도 지적에는 언어 능력은 더 많은 상호작용을 통해 향상된다며 모델은 계속해서 개선하고 있다고 답했다. 제이슨 권 CSO는 "AGI는 인류 모두에게 혜택을 주는 방향으로 만들어져야 한다"며 "우리의 모든 활동은 결국 파트너들과 함께 안전하고 유익한 AGI의 미래를 만들기 위한 과정"이라고 밝혔다.

2025.09.10 11:33조이환

코난테크놀로지, 국방기관 AI 사업 수주…'군 특화 LLM' 개발 착수

코난테크놀로지가 국방 특화 거대언어모델(LLM) 개발을 통해 군사 인공지능(AI) 시장 지배력 강화에 나선다. 코난테크놀로지는 최근 국방 기관의 '생성형 기반 에이전틱 AI 실증' 사업에 착수했다고 9일 밝혔다. 이번 사업은 국군 환경에 최적화된 AI 플랫폼과 군사 분야 전문 LLM을 구축하는 것을 골자로 한다. 회사는 자체 개발한 '코난 LLM'을 기반으로 방대한 군사용어 데이터를 학습시키고 미세조정을 진행한다. 여기에 최신 AI 검색 기술인 검색증강생성(RAG)을 적용해 정보의 생성, 요약, 번역 기능을 고도화한다. 또 AI 에이전트 기반 검색 기능으로 실무자의 신속하고 정확한 의사결정을 지원한다. 이미 '코난 LLM'은 한국남부발전과 한림대의료원에서 실무 적용을 마쳤다. 최근에는 경기도청, 대법원, 한국서부발전, 한국동서발전의 생성형 AI 사업에도 도입이 확정되며 보안이 핵심인 공공 시장에서 독보적인 입지를 다지고 있다. 더불어 현재 회사는 ▲인식 및 판단 ▲플랫폼 구축 ▲스마트 전력지원 분야에서 약 20여개 국방 기관과 협력하고 있다. 육군 교육사령부의 밀리터리 이미지넷 구축, 국방부의 국방 지능형 플랫폼, 공군 전력지원체계 사업단의 AI 기반 수집·분석체계 등이 대표적 성공 사례로 꼽힌다. 코난테크놀로지는 축적된 국방 특화 AI 기술을 바탕으로 향후 계획을 구체화하고 있다. ▲국방 AI 플랫폼 표준화 ▲에이전틱 AI 기반 정보수집·분석 체계 구축 ▲피지컬 AI를 활용한 자율 전장 지원 등을 단계적으로 추진해 나갈 방침이다. 김규훈 코난테크놀로지 국방AI 사업부 이사는 "전장을 판단하는 에이전트를 적용해 지휘결심지원을 첨단화하는데 힘 쓰겠다"고 밝혔다.

2025.09.09 16:52조이환

AI가 엉뚱한 말을 하는 이유?…오픈AI가 찾은 '근본 원인'

챗GPT 개발사인 오픈AI가 대규모언어모델(LLM)의 '환각(할루시네이션)' 현상이 왜 발생하는지, 또 줄일 수 있는 방법은 무엇인지에 대해 새로운 연구 결과를 발표했다. 8일 테크크런치에 따르면 오픈AI는 블로그를 통해 발표한 논문에서 환각을 "그럴듯하지만 사실과 다른 문장을 생성하는 현상"이라고 정의했다. 또 모델 성능 개선에도 불구하고 "환각은 모든 LLM의 근본적 과제"라며 "완전히 사라지지 않을 것"이라고 밝혔다. 오픈AI 연구진은 예시로 논문 공저자인 애덤 타우만 칼라이의 사례를 들었다. 연구팀이 한 챗봇에 칼라이의 박사 학위 논문 제목을 물었을 때 세 번 모두 서로 다른 답을 내놨으나 모두 틀린 것으로 나타났다. 생일을 물었을 때도 세 번 모두 잘못된 날짜가 제시됐다. 오픈AI는 이런 현상이 언어모델의 학습 구조에서 비롯된다고 설명했다. 현재 AI 모델은 참·거짓 라벨 없이 방대한 텍스트를 기반으로 다음 단어를 예측하는 방식으로 학습한다. 맞춤법이나 문장 구조와 같은 패턴은 대규모 학습을 통해 개선되지만, 특정 인물의 생일 같은 저빈도 사실은 패턴만으로 정확히 예측하기 어렵다는 설명이다. 다만 연구진은 문제 해결의 열쇠가 학습 과정 자체보다는 평가 방식에 있다고 지적했다. 현재 널리 쓰이는 정확도 중심 평가가 모델이 정답을 모를 때도 추측하도록 유도한다는 설명이다. 객관식 시험에서 빈칸을 남기는 것보다 찍어서 맞힐 경우 점수를 얻을 가능성이 높기 때문에 학생들이 추측을 택하는 것과 유사하다는 비유도 제시됐다. 이에 연구진은 모델 평가 체계가 자신감 있게 틀린 답변에는 더 강한 불이익을 주고 '모르겠다'와 같은 불확실성 표현에는 부분 점수를 주는 방향으로 바뀌어야 한다고 제안했다. SAT처럼 오답에는 감점을, 무응답에는 부분 점수를 주는 제도와 비슷한 방식이다. 오픈AI는 불확실성을 반영하는 새로운 평가를 일부 추가하는 데 그칠 것이 아니라, 기존의 정확도 중심 평가 전반이 개편돼야 한다고 강조했다. 연구진은 "주요 평가 지표가 여전히 '운 좋은 추측'을 보상한다면 모델은 계속 추측할 것"이라고 결론지었다.

2025.09.08 14:33한정호

"애플, 내년 초 AI 기반 웹 검색 출시...시리에 통합"

애플이 내년 초 인공지능(AI) 기반 웹 검색 기능을 선보일 계획이라고 블룸버그통신이 3일(현지시간) 업계 관계자를 인용 보도했다. 보도에 따르면, 애플은 '월드 날리지 앤서스(World Knowledge Answers)'라는 새로운 시스템을 개발 중이다. 이 기능은 시리 음성 비서에 통합될 예정이다. 애플은 또 사파리 웹 브라우저와 아이폰 홈 화면 검색 기능인 스포트라이트에도 이 기술을 적용하는 방안을 검토하고 있다. 익명의 소식통은 애플이 시리 전면 개편의 일환으로 내년 봄 해당 서비스를 출시할 계획이라고 밝혔다. 생성형 AI의 핵심 기술인 대규모 언어모델(LLM)을 기반으로 하는 이 시스템을 이용하면 사용자들이 시리와 애플 운영체제를 통해 인터넷에서 직접 검색할 수 있게 된다. 챗GPT나 구글 AI 검색 등과 유사한 방식이다. 관계자에 따르면, 애플의 새 검색환경에는 문자, 사진, 영상 및 지역 관심 지점을 활용하는 인터페이스가 포함되며 현재 시리보다 더 빠르고 정확한 검색을 제공하도록 설계된 AI 기반 요약 시스템도 제공될 예정이다. 새로운 시리를 구현하는 기반 기술은 애플의 오랜 검색 파트너인 구글에서 일부 제공될 가능성이 있다고 해당 매체는 전했다. 이번 주 애플은 음성 비서 구동을 위해 구글이 개발한 AI 모델을 평가하고 테스트하기로 공식 합의했다고 관계자들이 전했다. 3일 애플의 주가는 장중 최고치를 경신하며 전일 대비 3.8% 상승한 238.47달러로 마감하며 거의 한 달 만에 가장 큰 일일 상승률을 기록했다.

2025.09.04 08:39이정현

챗GPT, '국민 AI' 됐다…월 사용자 2천만명 돌파

오픈AI의 '챗GPT'가 국내 스마트폰 사용자 10명 중 4명이 사용하는 국민 앱 반열에 올랐다는 조사 결과가 나왔다. AI 기술이 특정 세대를 넘어 사회 전반의 필수 도구로 자리 잡고 있음을 시사하는 결과다. 2일 와이즈앱·리테일 조사 결과에 따르면 지난달 국내 '챗GPT' 앱의 월간 활성 사용자 수(MAU)는 2천31만 명을 기록했다. 이는 역대 최대치로, 한국인 스마트폰 사용자 5천120만 명의 약 40%에 해당하는 규모다. 이번 수치는 지난해 8월 사용자 수 407만 명과 비교했을 때 약 5배 폭증한 결과다. 가파른 성장세는 '챗GPT'가 대중적 인지도를 넘어 실생활과 업무에 깊숙이 파고들었음을 보여준다. 사용자 층을 세부적으로 살펴보면 20대가 24.2%, 30대가 22.0%, 40대가 22.4%로 도합 68.6%를 차지해 가장 높은 비중을 보였다. 청년 세대가 생성형 AI 기술을 가장 활발하게 수용하고 활용하는 연령대임이 명확히 드러난 셈이다. 그 뒤를 이어 20세 미만이 13.6%, 50대가 12.6%, 60세 이상이 5.2% 순으로 나타나 중장년층과 청소년층에서도 꾸준한 이용 흐름이 관찰됐다. 성별 사용자 비율은 남성 50.1%, 여성 49.9%로 거의 차이가 없어 성별에 관계없이 고르게 사용되는 것으로 분석됐다. 와이즈앱·리테일 측은 "이번 조사는 실시간 앱·결제 데이터 기반 시장 및 경쟁사 분석 솔루션을 통해 한국인 안드로이드 및 iOS 스마트폰 사용자 표본 조사로 실시했다"며 "데이터는 추정 값이며 실제와 차이가 있을 수 있다"고 밝혔다.

2025.09.02 15:39조이환

스마일서브, 엔비디아·AMD 아우른 '올라마' 기반 GPU 클라우드 출시

스마일서브가 인공지능(AI) 서비스 개발 기업을 겨냥해 '올라마(Ollama)' 프레임워크 기반의 솔루션을 새롭게 선보인다. 스마일서브는 대규모 언어 모델(LLM) 구축에 최적화된 그래픽처리장치(GPU) 클라우드 및 서버 호스팅 상품을 출시했다고 1일 밝혔다. 이번 상품은 올라마 프레임워크 기반으로 AMD와 엔비디아 GPU를 혼합해 다양한 선택지를 제공하는 것이 특징이다. 올라마는 GPU·신경망처리장치(NPU) 호환성이 넓어 가성비 높은 LLM 모델 구축 환경을 원하는 개발자와 서비스 기업 사이에서 각광받고 있다. 올해 초 저가형 게임용 GPU에서도 LLM 서비스 운용이 가능하다는 점이 알려지면서 엔비디아 주가에 일시적 영향을 줄 정도로 주목을 받은 바 있다. 스마일서브는 AMD 라이젠 CPU 내장 GPU, 라데온 RX 9600 XT, W6800 프로 GPU 등을 자사 '클라우드브이' 서버 호스팅 서비스에 적용했다. 기존 엔비디아 중급 GPU 라인업은 올라마 전용 구성으로 리뉴얼해 새롭게 선보일 계획이다. 스마일서브는 데이터센터에서 활용도가 낮았던 내장 GPU도 올라마를 통해 LLM 서비스에 적용할 수 있게 됐으며 이를 활용해 8GB VRAM 환경을 지원하는 신규 서버 호스팅 상품을 출시했다. 스마일서브 이유미 대리는 "8GB VRAM 환경에서도 젬마 3 4B 모델을 포함한 중소형 LLM 모델 설치가 가능하다"며 "내장 GPU만으로 업무 자동화나 간단한 챗봇 운영이 가능해졌다"고 말했다. 이어 "DDR5 기반 라이젠 PC와 노트북 내장 GPU에서도 설치가 가능해 저비용 개발 환경을 원하는 이용자라면 자사 블로그 가이드를 참고해 직접 구현할 수 있다"고 덧붙였다. 새롭게 추가된 라데온 GPU도 눈에 띈다. 지난 6월 출시된 RX 9060 XT는 가성비 최강으로 평가받는 제품으로, 16GB VRAM을 탑재해 젬마 3 12B 등 중대형 모델도 안정적으로 지원한다. 함께 출시된 라데온 프로 W6800은 32GB VRAM을 갖춰 젬마 3 27B 같은 초대형 모델도 무리 없이 운영할 수 있다. 스마일서브는 이 GPU 기반으로 자사 챗봇을 개발 중이며 응답 정확도를 90% 수준까지 끌어올린 상태다. 정식 서비스는 이달 중 출시될 예정이다. 엔비디아 중급 GPU 라인업도 올라마 특화 GPU 클라우드 서비스 '아이윈브이'에서 새롭게 전면 배치된다. 이 라인업은 최소 16GB VRAM부터 최대 96GB까지 지원하는 다양한 GPU로 구성됐다. 특히 GDDR7 VRAM을 탑재한 제품군을 중심으로 LLM 운영에서 발생할 수 있는 메모리 부족 문제를 해결하는 데 초점을 맞췄다. 스마일서브는 장기 이용자 대상 1년 약정 시 정가 대비 50% 할인 혜택을 제공하는 프로모션도 준비 중이다. 스마일서브 관계자는 "GPU 호스팅 상품은 GPU 가격뿐 아니라 서버·전력·공간·회선 등 다양한 요소가 단가에 영향을 주기에 가격을 낮추기 쉽지 않지만, 신규 론칭 단계에서 최대한 비용을 억제하고 가성비를 확보했다"고 밝혔다.

2025.09.01 17:55한정호

야놀자, 자체 개발 번역 특화 LLM '이브 로제타' 공개

트레블 테크 기업 야놀자(총괄대표 이수진)가 번역 특화 LLM(거대언어모델) 'EEVE ROSETTA(이브 로제타)'를 누구나 사용 가능한 오픈소스 AI 플랫폼 Hugging Face(허깅페이스)에 공개했다고 1일 밝혔다. EEVE는 야놀자가 독자적으로 개발한 한국어 최적화 LLM으로, 텍스트 생성, 콘텐츠 요약, 언어 번역, 감성 분석 등 다양한 자연어 처리 기능을 갖춘 범용 모델이다. 야놀자 연구개발(R&D) 조직에서 '가장 효율적이고 효과적인 단어의 확장'(Efficient and Effective Vocabulary Expansion)이라는 프로젝트를 토대로 개발했다. 초기 모델 공개 직후 한국지능정보사회진흥원이 선정한 '올해의 한국어 LLM', 허깅페이스 한국어 리더보드 및 호랑이 리더보드에서 모두 1위를 차지하는 등 경쟁력을 입증한 바 있다. 일반 번역 LLM이 주로 영어와 중국어 기반으로 작동하는 데 반해, 이번에 선보인 이브 로제타타는 영어, 중국어, 한국어를 포함해 10여개 언어 간의 번역을 폭넓게 지원한다. 40억 개 파라미터(매개변수)를 갖춘 디코더 전용 언어 모델로, 초기 108억 개 이상의 파라미터를 사용한 EEVE 1.0 모델 대비 절반 이상 경량화한 것이 특징이다. 70억 개 이상 파라미터를 요구하는 일반적인 번역 LLM 모델 대비 운영 비용을 줄이고, 추론 정확도는 향상했으며 일반 PC 환경에서도 무리 없이 작동하도록 설계됐다. 이와 함께 복잡한 데이터 형식에서 뛰어난 번역 성능을 나타낸다. 이브 로제타는 번역 원문에 담긴 문맥과 뉘앙스, 문장 의미, 감정 등을 사전에 판단해 매끄럽고 명확한 번역문을 생성한다는 것이 차별점이다. 야놀자는 이브 로제타를 기업, 공공기관은 물론, 개인 개발자까지 모두 상업적으로 자유롭게 사용할 수 있는 라이선스로 공개했다. 향후 여행, 커머스, 헬스케어 등 여러 산업 분야에서 데이터 보존형 번역 모델로써 활용 가능할 것으로 기대된다. 이준영 야놀자그룹 기술 총괄은 “EEVE는 단순 AI 모델을 넘어, 다양한 산업의 디지털 전환을 지원하는 핵심 기술 인프라”라며 “앞으로도 한국어를 시작으로 일본어, 중국어 등 다양한 언어로 LLM 개발 범위를 확대해, 전 세계 고객이 야놀자의 버티컬AI 서비스로 더 쉽고 편리하게 여행을 즐길 수 있도록 지원할 것”이라고 말했다.

2025.09.01 15:52안희정

유라클, 'AI 서밋 2025' 9월 개최…기업 맞춤형 AI서비스 전략 제시

유라클(대표 조준희, 권태일)이 다음 달 'AI 서밋2025'를 열고 기업이 스스로 AI 서비스를 구축할 수 있는 구체적인 방안을 제시한다. 유라클은 서울 삼성동 코엑스에서 '유라클 AI 서밋 2025'를 개최한다고 27일 밝혔다. 다음 달 4일 열리는 이번 행사는 'AI, 비즈니스를 완성하다'라는 주제로 유라클의 AI 전환 전략과 신제품, 고객·파트너 사례가 공개된다. 첫 세션에서는 생성형 소규모언어모델(SLLM) '아테나(Athena)'를 기반으로 한 '아테나LLM 옵스'가 소개된다. 워크플로우 기반으로 다양한 기업 업무를 AI 서비스로 구현할 수 있으며 실시간 정보 참조(RAG)를 통한 서비스 설계가 가능한 구조를 선보인다. 두 번째 세션에서는 코드 생성·테스트·통합 과정 자동화와 API 문서화 등을 지원하는 '아테나 코드 어시스턴트'의 시연이 진행된다. 세 번째 세션에서는 아테나를 활용해 AI 서비스를 구축한 건설사 사례가 발표된다. 마지막 네 번째 세션에서는 최근 K-AI 5개 팀 중 하나로 선정된 NC AI가 참여해, 생성형 기술이 적용된 게임과 패션 분야 사례를 공유한다. 이번 컨퍼런스는 인공지능에 관심 있는 누구나 사전 등록을 통해 참여할 수 있다. 신청은 오는 9월 2일 오후 5시까지 행사 페이지에서 선착순으로 가능하다. 행사 참가자에게는 다양한 경품 이벤트도 마련돼 있다. 권태일 유라클 사장은 "이제 유라클은 AI기업"이라며 "20여 년간 축적한 B2B 고객 이해를 바탕으로 출시된 아테나 솔루션이 고객에게 큰 반향을 일으키고 있음을 이번 서밋에서 확인할 수 있을 것"이라고 말했다.

2025.08.27 16:18남혁우

"남부 이어 서부도 맡았다"…코난테크, 국내 발전사 생성형 AI 구축 앞장

코난테크놀로지가 국내 발전사 생성형 인공지능(AI) 구축에 나선다. 코난테크놀로지는 지난 18일 한국서부발전의 '생성형 AI 플랫폼 구축 용역' 사업자로 선정됐다고 26일 밝혔다. 사업은 착수일로부터 1년간 진행되며 사업비는 총 37억원 규모다. 서부발전은 업무 자동화와 디지털 혁신을 선도하기 위해 AI 인프라와 현장 밀착형 플랫폼 구축 사업을 본격 추진한다. 이를 위해 생성형 AI 플랫폼 도입에 필요한 전 과정을 통합 발주했다. 또 전 직원이 활용할 수 있는 고성능 생성형 AI 플랫폼과 검색증강생성(RAG) 연동 어시스턴스를 제공할 계획이다. 나아가 서부발전 정보시스템과 연계해 업무 자동화를 지원하는 AI 에이전트를 개발·적용할 예정으로, 이는 발전사 최초의 시도다. 또 모바일 오피스 영역까지 AI 적용 범위를 확대해 조직 전반의 생산성과 효율성을 높여 나갈 방침이다. 코난테크놀로지는 이번 사업에서 H200 그래픽처리장치(GPU) 등 고성능 그래픽카드와 80테라바이트(TB) 전용 스토리지, AI 전용 네트워크 등 첨단 인프라를 구축한다. 더불어 한국어 특화 거대언어모델(LLM)과 자체 미세조정된 경량화거대언어모델(sLLM)을 도입해 내부 데이터와 연동되는 하이브리드 생성형 AI 환경을 제공할 예정이다. 서부발전은 전사 차원의 생성형 AI 플랫폼 도입을 통해 직원들의 AI 활용 역량을 강화하고 조직 전반의 업무 효을 제고를 기대하고 있다. 서부발전 관계자는 "AI는 현재 공공기관에 던져진 가장 중요한 화두"라며 "이번 사업을 계기로 AI 기반 업무 혁신을 본격화 해 나가겠다"고 밝혔다. 코난테크놀로지는 지난해 6월 한국남부발전 '생성형 AI 구축 및 학습용역' 사업에 이어 서부발전 LLM 구축까지 연속 수주함으로써 발전사 대상 생성형 AI 사업에서 확고한 주도권을 확보하게 됐다. 김영섬 코난테크놀로지 대표는 "연이은 수주는 곧 당사 기술에 보내주신 신뢰라 여긴다"며 "발전 분야에서의 AI 수준이 곧 국가 에너지 경쟁력과 직결되는 만큼 사명감을 갖고 임하겠다"고 말했다.

2025.08.26 09:23장유미

디윅스, 시선AI·대보DX·클라비와 LLM·VLM기반 혁신사업모델 만든다

생성형 AI 플랫폼 전문 기업 디윅스(대표 안준형)는 시선AI·대보DX클라비와 함께 공공 및 민간 대상의 인공지능 전환(AX) 사업 협력을 위한 4자간 전략적 파트너십(MOU)을 체결했다고 25일 밝혔다. 이번 파트너십은 ▲AI 전환 관련 신규 사업 기회 발굴 및 공동 기획·영업·실행 ▲지속가능한 AX 사업 모델 개발 ▲AI 기술, 데이터 분석 역량, 산업별 도메인 지식 등 핵심 기술 및 노하우 공유를 골자로 한다. 디윅스를 포함한 4사는 각자의 전문 기술과 시장 경험을 융합해 산업 현장에서 즉시 활용 가능한 Agentic AI 기반 AX 솔루션을 공동 기획·구축해 나갈 계획이다. 디윅스는 LLM 기반의 AI 플랫폼 스타트업으로, 생성형 AI 기술을 넘어 실제 조직 내 업무 수행을 자동화·지능화하는 Agentic AI 솔루션에 특화된 기업이다. 복잡한 업무 시나리오 구현, 데이터 연결성 확보, 사용성과 운영 안정성을 아우르는 독자 플랫폼을 통해 산업 전환형 AI 모델을 다수 구축해왔다. 안준형 디윅스 대표는 “이번 협력을 통해 금융, 제조, 유통, 공공 등 다양한 산업에서 맞춤형 AI Agent 구축 프로젝트를 공동 발굴하고, 파트너사들의 기술력과 결합해 보다 정교한 산업별 전환 모델(Vertical AX)을 선보일 계획”이라고 밝혔다. 이어 그는 “이번 파트너십은 단순 기술 제휴를 넘어, 산업현장에서 실질적 전환을 이끌어낼 수 있는 실행 중심의 협력 구조를 마련한 데 의미가 있다”면서 “디윅스는 축적된 Agentic 기술력과 플랫폼 운영 노하우를 바탕으로, 국내 산업 생태계 전반에 효과적인 AX 모델을 빠르게 확산시킬 것”이라고 강조했다. 이번 파트너십에 참여한 코스닥 상장사인 시선AI는 VLM 기반 비전 AI 기술 고도화에 집중하고 있으며, 대보DX는 공공 부문 중심의 AX·CX(클라우드 전환) 전문 기업이다. 클라비는 초거대 AI 모델 HyperCLOVA X 기반 생성형 AI 솔루션 역량을 갖춘 기업으로, SaaS 기반 DX 및 AX 사업에 강점을 지니고 있다. 디윅스는 최근 뉴패러다임인베스트먼트로부터 프리 시리즈 A 투자를 유치하며 기술력과 사업성을 인정받았다. 이번 투자금은 개발 인력 확충, 산업별 특화 모델 고도화, 글로벌 시장 진출을 위한 기반 강화에 사용할 예정이다. 안준형 대표는 “4자간의 전략적인 파트너쉽을 통해 공공기관 스마트행정·지능형 민원시스템 구축과 금융권 RPA·AI챗봇 연계 플랫폼, 제조업 공정지능화 및 예측 모니터링 Agent와 B2B SaaS형 AI 전환 패키지 개발 등 실제 프로젝트 중심의 협업 모델을 다각도로 추진할 예정”이라고 포부를 밝혔다.

2025.08.25 11:47백봉삼

코히어 "AGI 아닌 '엔터프라이즈 AI' 집중…서울 허브로 亞 공략"

"우리의 목표는 범용인공지능(AGI) 경쟁이 아닙니다. 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 투자 대비 수익(ROI)으로 증명하는 '실현 가능한 인공지능(AI)'를 만드는 것입니다. 이 비전을 아시아 전역으로 확산시킬 최적의 허브는 바로 대한민국 서울입니다." 장화진 코히어 아시아태평양(APAC) 총괄사장은 최근 서울 강남에 위치한 코히어 코리아 오피스에서 지디넷코리아와 만나 이같이 밝혔다. 오픈AI, 앤트로픽 등의 거대언어모델(LLM) 기업들이 AGI 개발 무한 경쟁에 뛰어들 때 코히어는 '기업 문제 해결'과 '측정 가능한 ROI'라는 비전에 따라 서울을 중심으로 아태 시장을 공략하겠다는 선언이다. 25일 업계에 따르면 글로벌 AI 시장이 일반 소비자용 챗봇을 넘어 기업간거래(B2B) 시장으로 본격 확장되면서 데이터 보안과 비용 효율성을 갖춘 AI 솔루션에 대한 요구가 커지고 있다. 이같은 흐름 속에서 코히어는 지난달 한국에 APAC 허브를 설립하며 아시아 B2B 시장 공략의 출사표를 던졌다. 이러한 코히어의 결정은 오픈AI와 앤트로픽이 각각 싱가포르와 일본에 거점을 마련한 점과 대비되며 업계의 큰 주목을 받았다. 이는 지난 3월 창업자인 에이단 고메즈 최고경영자(CEO)가 직접 방한해 LG CNS와 파트너십을 발표하며 예고했던 국내 시장에 대한 본격적인 투자의 신호탄이다. 코히어의 전략은 AGI 개발 무한 경쟁에 뛰어든 경쟁사들과는 궤를 달리한다. 설립 초기부터 이들은 일반 소비자 시장이 아닌 명확한 ROI를 요구하는 엔터프라이즈 B2B 시장에만 집중해왔다. 이러한 철학은 최근 공식 출시한 에이전트 AI 플랫폼 '노스(North)'에 집약돼 있다. '노스'는 코딩 지식이 없는 현업 담당자도 손쉽게 AI 솔루션을 구축하고 배포하게 해주는 엔드투엔드(End-to-End) 플랫폼이다. 장 총괄사장은 "최근 MIT 보고서에 따르면 기업 AI 기술검증(PoC)의 95%가 실패하는데 이는 범용 AI가 기업 내부의 복잡한 시스템과 통합되지 못하기 때문"이라며 "'노스'는 바로 이 '통합의 문제'를 해결함으로써 기업이 실질적인 ROI를 달성하도록 돕는 솔루션"이라고 설명했다. 코히어의 자신감은 ▲보안 ▲비용 효율성 ▲다국어 지원이라는 세 가지 차별점에서 비롯된다. 장 총괄사장에 따르면 이중 핵심은 '보안'으로, 코히어는 외국계 기업임에도 대한민국 외교부 프로젝트를 수주하며 시장의 신뢰를 증명했다. 모든 솔루션을 고객사 데이터센터에 직접 설치하는 '온프레미스 배포'를 원칙으로 데이터가 외부로 유출될 가능성을 원천 차단했기 때문이다. 이같은 온프레미스 방식에는 막대한 하드웨어 투자 비용이 걸림돌이 될 수 있다. 이러한 '비용 효율성' 문제 역시 아키텍처 최적화로 해결했다는 것이 장 총괄사장의 설명이다. 그는 "경쟁사 모델이 16개 이상의 그래픽처리장치(GPU)를 요구할 때 우리의 LLM '커맨드'는 단 2개의 GPU만으로 동일하거나 더 나은 성능을 보인다"고 밝혔다. 마지막 강점은 '다국어 역량'이다. '커맨드' 모델은 한국어를 포함해 34개 언어를 공식 지원한다. 이러한 역량의 배경에는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 아래 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발한 비영리 단체 '코히어 랩스(Cohere Labs)'가 있다. 이 세 가지 강점의 조합이 코히어만의 '스윗 스팟(Sweet Spot)'을 만든다. 데이터 규제가 엄격한 금융, 공공, 헬스케어는 물론 에너지, 제조, 통신 등 국가 핵심 산업이 회사의 핵심 목표시장이다. 코히어의 기술적 깊이는 업계 최고 수준의 검색증강생성(RAG) 스택에서도 드러난다. 실제로 RAG 기술을 최초로 개발한 패트릭 루이스 코히어 에이전틱 AI 디렉터가 현재 직접 회사의 관련 솔루션 개발을 이끌고 있다. 장 총괄사장은 "미국의 한 헬스케어 기업은 우리 RAG의 '정확한 출처 제시(Citation)' 기능을 통해 환자 데이터 등 민감한 정보 검색에서 높은 신뢰도를 확보했다"고 소개했다. 국내 시장에서는 LG CNS와의 파트너십을 통해 초기 시장 개척의 발판을 마련한 상황이다. 장 총괄사장에 따르면 코히어의 기술적 우위, 특히 LLM을 특정 산업 환경에 맞춰 깊이 있게 미세조정(Customization)할 수 있는 역량이 파트너십의 핵심 동력으로 작용했다. 그는 "아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다"며 "공공·금융 분야의 성공 사례를 바탕으로 제조, 유통 등 다른 핵심 산업 분야에서도 한국 기업에 최적화된 솔루션을 제공해 나갈 것"이라고 밝혔다. 궁극적으로 코히어의 전략은 '소버린 AI'라는 시대적 요구와 맞닿아있다. 캐나다 토론토에 본사를 둔 이 회사는 미·중 패권 구도에서 비교적 벗어나 있어 각국의 데이터 주권 확보를 지원하는 최적의 파트너임을 자처한다. 온프레미스 배포를 통해 데이터 통제권을 고객에게 완전히 넘겨주고 오픈소스 모델 '아야'로 다국어·다문화 AI 기반을 제공하는 투트랙 전략이다. 특히 서울 허브는 단순한 영업 지사를 넘어 코히어의 아시아태평양 사업 전체를 이끄는 핵심 기지가 될 전망이다. 이미 본사 직속 머신러닝(ML) 엔지니어를 채용하며 테크 조직으로서의 면모를 갖췄고 최근 일본 지사장을 선임하는 등 아시아 전역으로의 확장을 준비하고 있다. 장 총괄사장은 "우리는 단순 소프트웨어 판매사가 아니라 기업의 문제를 함께 해결하고 ROI를 증명하는 '파트너'"라며 "전 세계 최고 수준의 전문가들과 함께 아시아태평양 지역의 비즈니스를 키워나가는 여정에 동참해달라"고 강조했다. 아래는 장화진 총괄사장과의 일문일답. Q. 오픈AI, 앤트로픽 등 다른 프론티어 AI 기업들은 일본이나 싱가포르를 첫 아시아 거점으로 삼았다. 이와 달리 코히어는 한국을 아시아태평양(APAC) 허브로 선택했다. 특별한 이유가 있나. A. 한국은 선진적인 디지털 인프라, 우수한 AI 인재, 고도로 발달된 기술 생태계를 모두 갖춘 곳이다. 특히 최근 정부와 기업 모두 '소버린 AI' 등으로 대표되는 AI 이니셔티브에 대한 관심과 수요가 매우 높다. 이러한 환경 덕분에 한국은 우리의 AI 솔루션을 가장 먼저 선보이고 아시아 전역으로 확산시킬 최적의 허브라고 판단했다. 이는 개인적으로 과거 여러 글로벌 테크 기업에서 일하며 얻은 확신이기도 하다. 한국 고객들은 요구사항 수준이 높고 기술적으로도 매우 앞서있다. 여기서 통하는 솔루션이라면 다른 어떤 시장에서도 성공할 수 있다는 의미다. Q. 여타 프론티어 AI랩들이 AGI 경쟁에 뛰어든 가운데 코히어는 수익화 가능한 기업 문제 해결에 집중하는 점이 인상적이다. 이러한 비즈니스 철학은 어디서 비롯됐나. (지난 2017년 생성형 AI의 기반 기술인 트랜스포머를 고안한) 에이단 고메즈, 닉 프로스트, 아이반 장이라는 세 공동창업자의 역할과 비전이 코히어의 전략에 어떻게 반영되고 있나. A. 실제로 우리의 목표는 AGI 경쟁이 아니라 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 개선하는 '실현 가능한 AI'를 만드는 것이다. 이것이 일반 소비자 시장이 아닌 엔터프라이즈 B2B 시장에 집중하는 이유다. 창업자 각자의 역할도 명확하다. 에이단 고메즈 CEO는 혁신을 통해 비즈니스 문제를 해결하는 데, 닉 프로스트 공동창업자는 차세대 AI 기술 개발과 사용자 경험(UX)에, 아이반 장 공동창업자는 실제 제품 개발을 총괄하는 데 집중한다. 특히 아이반은 이달 출시한 에이전트 AI 플랫폼 '노스' 개발을 직접 이끌었다. 여기에 공공 분야에도 관심이 많아 캐나다 정부와 협력하며 데이터 보안 및 주권(Residency) 문제에 깊이 관여하고 있다. 이 세 명의 공통된 비전은 "기업의 문제를 실질적으로 해결해 투자 대비 수익(ROI)을 신속히 실현하는 AI를 만들자"는 것이다. Q. 코히어의 제품 포트폴리오가 궁금하다. 핵심 제품인 노스(North), 커맨드(Command), 임베드(Embed), 리랭크(Rerank)는 각각 어떤 문제를 해결하며 이 솔루션들이 하나의 플랫폼으로서 어떻게 시너지를 내는가. A. 우리 제품군은 크게 파운데이션 모델과 이를 감싸는 플랫폼으로 나뉜다. 파운데이션 모델의 핵심은 '커맨드' LLM이다. 오랜 시간과 막대한 비용이 소요될 초거대 모델 대신 기업이 당장 효율적으로 쓸 수 있도록 최적화된 모델이다. 경쟁사가 수십 개의 GPU를 요구할 때 '커맨드'는 최소 단 2개의 GPU만으로도 비슷하거나 보다 나은 성능을 낸다. 특히 온프레미스 환경에서 아랍어 등 특정 언어의 다양한 방언이나 산업별 용어에 맞춰 미세조정이 가능한 것이 강점이다. 강력한 검색증강생성(RAG) 스택을 구성하는 '임베드(Embed)'와 '리랭크(Rerank)'도 있다. '임베드'는 100개 이상의 언어를 기반으로 텍스트는 물론 PDF, 이미지, 그래프 속 데이터까지 검색하고 '리랭크'는 이렇게 찾아낸 정보들 중 가장 정확하고 연관성 높은 답변의 순위를 매겨 제시한다. 이 모든 모델을 감싸는 것이 바로 에이전트 AI 플랫폼인 '노스'다. 이달 공식적으로 전 세계에 출시한 '노스'는 프로그래밍 지식이 필요 없는 노코드(No-code) 기반의 엔드투엔드 플랫폼이다. 최근 MIT 보고서에 따르면 기업 AI PoC의 95%가 실패하는데 이는 범용 AI 툴이 기업 내부의 전사적 자원관리(ERP), 데이터베이스(DB) 등 각기 다른 시스템과 연동되지 않아 실질적인 워크플로우에 적용될 수 없기 때문이다. 이 '통합의 문제'를 해결하는 것이 '노스'의 핵심이다. '노스'는 AI가 실제 업무 프로세스에 깊숙이 통합되도록 설계됐다. 이를 통해 기업들이 PoC 단계의 장벽을 넘어 실질적인 ROI를 신속히 달성하도록 돕는다. 즉, '커맨드', '임베드', '리랭크'가 엔진이라면 '노스'는 기업이 이 엔진을 손쉽게 활용해 AI 솔루션을 구축하고 배포하게 해주는 완성된 차체와 같다. Q. 외국계 기업임에도 대한민국 외교부 프로젝트를 수주한 사례가 놀랍다. 민감한 데이터를 다루는 공공·금융·헬스케어 기업들이 코히어를 선택하는 이유는 무엇인가. A. 핵심적인 이유는 온프레미스에 기반한 보안 역량이라고 본다. 공공·금융·헬스케어처럼 규제가 많은 산업에 있어 온프레미스 배포는 한국뿐만 아니라 아시아 및 글로벌 시장의 핵심 요구사항이다. 기업의 기밀문서가 외부 인터넷으로 나가는 것을 원천 차단해 보안 우려를 해소할 수 있기 때문이다. 우리는 이 지점에 주목해 우리의 모든 솔루션이 온프레미스 환경에서 완벽하게 작동하도록 설계했다. 특히 최근 주목받는 '에이전트 AI'를 제대로 활용하려면 이 지점이 보다 중요해진다. 에이전트 AI가 직원처럼 일하려면 그 직원이 접근할 수 있는 모든 내부 데이터베이스와 애플리케이션에 접근해야 하는데 클라우드 기반 AI는 보안 규제 때문에 이 접근이 막히는 경우가 많다. 우리는 '노스'를 통해 이 문제를 해결한다. '노스'는 업계 표준 기술인 모델 컨텍스트 프로토콜(MCP)을 기반으로, 온프레미스 환경 속에서도 구글·마이크로소프트(MS) 솔루션부터 SAP·오라클 등의 ERP, 이외 맞춤형 DB까지 기업이 사용하는 거의 모든 시스템과의 연결을 지원한다. 이같이 포괄적인 데이터 접근을 보안 걱정 없이 구현하기에 직원들은 에이전트 AI를 통해 효율적으로 일할 수 있게 된다. Q. 온프레미스 방식이 보안에는 유리하지만 GPU 클러스터 구축 등 막대한 초기 하드웨어 투자 비용이 부담으로 작용할 수 있다. 코히어는 이 비용 효율성 문제를 어떻게 해결했나. A. 온프레미스 AI 도입 시 고객들이 가장 우려하는 부분이다. 우리는 LLM 아키텍처를 기업 환경에 맞게 고도로 최적화해 이 문제를 해결한다. 앞서 언급했듯 경쟁사 모델이 제대로 성능을 내기 위해 16개 이상의 GPU를 필요로 하는데 비해 '커맨드' 모델은 단 2개의 GPU만으로도 동일하거나 보다 뛰어난 결과를 보여준다. 결과적으로 고객은 훨씬 적은 비용으로 온프레미스 AI를 구축하고 운영할 수 있다. Q. 한국뿐 아니라 일본, 동남아 등 다양한 언어가 공존하는 아시아 시장에서 다국어 능력은 필수적이다. 코히어 솔루션의 언어 역량은 어느 수준인가. A. '커맨드'는 공식적으로 한국어, 일본어, 중국어, 베트남어 등 34개 언어를 지원한다. 특히 아랍어의 경우 다양한 지역 방언들도 동시에 구사하는 등 우수한 언어 역량을 보여준다. 이러한 공식 지원 언어는 계속 확장해 나갈 계획이다. 이러한 역량의 배경에는 우리 비영리 단체인 '코히어 랩스'가 있다. 이 단체는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 하에 전 세계 AI 개발자들을 모아 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발했다. '아야'를 통해 확보된 기술력이 코히어의 상용 플랫폼에도 그대로 녹아들어 강력한 다국어 처리 능력을 갖추게 될 수 있었다. Q. 앞서 설명한 보안, 비용 효율성, 다국어 지원이라는 강점을 종합해 보면 코히어는 온프레미스·고규제 환경에서 사실상 경쟁자가 없는 독자적인 영역, 즉 '스윗 스팟'을 가지고 있는 것으로 보인다. A. 맞다. 우리의 경쟁력은 이 모든 요소를 동시적으로 제공하는 데 있다. 단순히 온프레미스에서 작동하는 에이전트 AI를 넘어 그 기반이 되는 LLM인 '커맨드'와 검색 스택인 '임베드' 및 '리랭크'까지 엔드투엔드로 제공하면서 동시에 특정 언어와 산업에 맞춰 미세조정할 수 있는 것은 현재 코히어가 유일하다고 본다. 이러한 면에서 볼 때 우리의 '스윗 스팟'은 바로 이 조합을 가장 필요로 하는 기업들이다. 대표적으로 데이터 규제가 엄격한 금융, 공공, 헬스케어 분야가 핵심 타겟이다. 그 외에도 국가 핵심 전략 산업인 에너지, 제조, 통신 분야의 글로벌 기업들과도 활발히 협력하고 있다. 벨 캐나다, 사우디 텔레콤 등이 좋은 사례다. Q. 회사의 RAG 스택 역시 업계에서 독보적인 강점을 보이는 것으로 알려져 있다. 이 기술력이 실제 고객 환경에서 가장 큰 차이를 만든 사례를 소개해달라. A. RAG 기술을 처음으로 개발한 패트릭 루이스가 현재 우리의 관련 솔루션 개발을 이끌고 있다. 덕분에 우리 RAG 스택은 업계 최고 수준이라고 자부한다. 그 효과의 가장 대표적인 사례는 미국의 한 헬스케어 기업이다. 생명과 직결되는 분야인 만큼 내부 데이터 검색의 정확성은 무엇보다 중요하다. 우리 RAG 솔루션은 이 기업의 방대한 내부 의료 프로토콜, 가이드라인, 환자 데이터 등을 기반으로 정확한 답변을 찾아준다. 더불어 우리의 강점은 '정확한 출처 제시'에 있다. 모든 답변에 근거가 된 문서의 출처를 명확히 밝혀주기 때문에 사용자는 언제든 원문을 직접 확인하며 정보의 정확성을 재차 검증할 수 있다. 이는 환각 현상을 억제할 뿐 아니라 결과에 대한 신뢰도를 극대화하는 핵심 기능이다. Q. 국내 시장에서는 LG CNS와의 협력이 가장 주목받았다. LG CNS를 첫 파트너로 선택한 이유는 무엇이며 이 파트너십이 외교부 프로젝트 수주와 같은 성과로 이어진 과정이 궁금하다. A. LG CNS는 규모가 크고 우수한 AI 인력을 보유했으며 동시에 금융권을 포함한 대외 사업에서 강력한 역량을 갖추고 있어 첫 파트너로 선택했다. 파트너십의 핵심은 'LLM 커스터마이제이션(미세조정)'에 있다. 아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다. 외교부 프로젝트는 이러한 협력의 대표적인 성공 사례다. 외교부는 수많은 내부 기밀문서를 다뤄야 하므로 온프레미스 환경이 필수적이었고 동시에 전 세계의 다양한 언어를 처리할 다국어 역량이 필요했다. 우리는 LG CNS와 함께 '똑똑한 AI 외교관'이라는 목표 아래 이 두 가지 핵심 요구사항을 모두 충족하며 프로젝트를 수주할 수 있었다. Q. LG CNS 외에 국내 시장에서 전략적으로 우선순위를 두는 다른 산업 분야나 파트너 유형이 있나. A. 우리의 '스윗 스팟'인 고규제 산업과 공공 분야를 계속해서 우선순위에 둘 계획이다. LG CNS와 집중하고 있는 공공·금융 분야 외에도 제조, 헬스케어, 통신, 에너지 등 국가 핵심 산업의 선도 기업들과 파트너십을 확대해 나갈 것이다. 이러한 모든 미래 협력의 중심에는 에이전트 AI 플랫폼인 '노스'가 자리하게 될 것이다. Q. 한국을 포함한 아태 시장에서는 데이터 주권과 각국의 상이한 규제를 존중하는 '소버린 AI'에 대한 요구가 커지고 있다. 국가별로 규제 환경이 다른 아시아태평양(APAC) 지역에 대응하는 코히어의 접근법은 무엇인가. A. 앞서 언급한 우리의 아키텍처 자체가 답이다. 우리 솔루션은 고객사의 데이터센터에 직접 설치하는 온프레미스 배포가 핵심이기 때문이다. 이를 통해 데이터 현지화(Localization), 보안, 개인정보보호 등 각국의 다양한 규제 요구사항을 원천적으로 충족시킨다. 가장 중요한 원칙은 "데이터 통제권은 전적으로 고객에게 있다"는 것이다. 고객의 데이터로 우리 모델을 미세조정하더라도 그 데이터는 절대 해당 기업이나 정부 기관의 방화벽 밖으로 나가지 않는다. 심지어 솔루션을 제공하는 우리조차도 고객 데이터에 접근하거나 들여다볼 수 없다. 기술을 제공할 뿐 데이터에 대한 모든 관리와 통제권은 고객이 갖는다. 이것이 우리가 다양한 규제 환경에 대응하는 방식이다. Q. AI 패권이 미국과 중국 중심으로 재편되는 가운데 한국, 캐나다, 프랑스, 인도 등이 제3의 AI 강국이 되기 위한 경쟁도 치열하다. 이 구도 속에서 코히어는 한국이 글로벌 AI 리더로 도약하기 위해 어떤 지원을 할 수 있나. A. 창업자인 에이단 고메즈가 캐나다 국적이듯 우리는 미국·중국 AI 패권 구도에서 비교적 벗어나 캐나다 토론토에 본사를 둔 기업이다. 최근 우리가 캐나다 정부와 파트너십을 맺고 소버린 AI 구축을 지원하는 것처럼 우리는 이 경험과 철학을 다른 국가에도 동일하게 적용한다. 나라마다 소버린 AI의 정의가 조금씩 다르지만 코히어가 한국을 지원하는 방식은 두 가지 축으로 명확히 나뉜다. 첫째는 우리 모델을 온프레미스 방식으로 제공해 한국의 데이터와 문화를 담은 고유의 AI 모델을 만들 수 있도록 돕는 것이다. 핵심은 AI 모델과 데이터에 대한 모든 통제권이 전적으로 한국 정부나 기업에 있다는 점이다. 둘째는 비상업적인 기여다. 앞서 언급한 우리의 비영리단체인 '코히어 랩스'에서 나온 100개 이상의 언어를 지원하는 모델 '아야'는 글로벌 오픈소스 커뮤니티에 올라와 있다. 이를 누구나 다운로드 받아 전 세계 모든 국가가 자체적인 AI 주권을 확보할 수 있도록 기술적 기반을 제공하고 있는 것이다. Q. 코히어 서울 허브는 회사의 아태 전략에서 어떤 역할을 담당하며 향후 아시아 시장 확장 계획은 어떻게 되나. A. 서울 허브는 아태 확장 전략의 핵심 기지다. 현재는 영업, 기술 배포, 고객 성공(Customer Success)을 책임지며 국내 시장 확산에 집중하고 있지만 동시에 기타 아시아 시장 진출을 위한 전략을 설정하는 역할도 맡고 있다. 구체적으로는 한국, 일본, 싱가포르를 최우선 집중 시장으로 보고 있다. 최근 일본 지사장을 선임해 이달 말 온보딩을 앞두고 있으며 일본 지사 설립도 곧 가시화될 것이다. 이후 단계로는 인도와 호주 시장 진출을 계획하고 있다. Q. 서울 허브가 단순한 영업 지사를 넘어 연구개발(R&D) 기능을 포함한 기술 조직으로 확장될 가능성도 있나. A. 이미 단순한 영업 지사가 아니다. 현재 국내에서 영업, 솔루션 아키텍트(SA), 고객 성공 매니저(CSM) 등 비즈니스 인력과 더불어 본사 직속으로 근무하는 머신러닝(ML) 엔지니어를 이미 채용했고 계속 충원하고 있다. 향후 아시아태평양 마케팅 인력까지 채용할 계획으로, 서울 허브는 코히어의 아시아 사업 전반을 이끄는 핵심 기술 및 비즈니스 조직으로 성장할 것이다. Q. 한국 허브 채용에서 가장 중점적으로 보는 역량과 인재상은 무엇인가. A. AI 분야에 대한 역량과 관심은 기본이다. 이 외에는 '산업 도메인에 대한 깊은 이해'를 갖춘 인재를 찾고 있다. B2B 비즈니스에 집중하기 때문에 고객이 속한 산업의 문제를 이해하고 함께 해결하려는 의지와 관심이 중요하다. 특히 우리의 '스윗 스팟'인 금융, 제조, 공공 등 규제가 많은 산업에 대한 이해도가 높은 분이라면 더욱 환영한다. Q. 마지막으로 한국의 엔터프라이즈 의사결정자, 개발자, 그리고 코히어 합류를 꿈꾸는 인재들에게 각각 메시지를 전한다면. A. 먼저 엔터프라이즈 의사결정자들께는 우리가 단순한 소프트웨어 판매사가 아닌 기업의 비즈니스 문제를 함께 해결하는 '파트너'가 되겠다고 약속한다. 우리는 AI를 가장 신속하고 쉽게 도입해 실질적으로 측정 가능한 ROI를 신속히 제시하는 데 집중한다. 이 모든 과정은 데이터 보안을 최우선으로 하는 프라이빗 배포(Private Deployment)를 통해 안전하게 제공될 것이다. 개발자들께는 차세대 AI 솔루션을 함께 만들자고 제안하고 싶다. 우리는 최첨단 기술을 다루는 기업으로서 에이전트 AI 플랫폼을 기반으로 B2B 고객에게 실질적인 가치를 제공하는 의미 있는 솔루션을 개발하고자 한다. 마지막으로 미래의 동료가 될 인재들께는 보람 있고 의미 있는 여정에 동참해달라고 말하고 싶다. 전 세계 최고 수준의 AI 전문가들과 함께 최첨단 기술이 실제 산업 현장에 어떻게 적용되는지 경험하고 우리의 아태 비즈니스를 키워나가는 성장의 기회를 잡길 바란다.

2025.08.25 10:58조이환

전 세계 개발자 10명 중 8명 "업무에 AI 도구 활용"…코딩 시장서 '클로드·파이썬' 대세

전 세계 개발자 절반 이상이 이미 업무에 인공지능(AI) 도구를 활용하고 있는 것으로 나타났다. AI 활용 능력을 기업들이 요구하면서 개발자의 필수 역량으로도 점차 자리 잡는 모양새다. 21일 사이트 운영업체 스택 익스체인지가 공개한 '스택 오퍼플로우 디벨로퍼 서베이 2025'에 따르면 개발자 10명 중 8명은 이미 업무에 AI 도구를 활용 중인 상태다. 특히 AI 코드 어시스턴트를 사용하는 기업 소프트웨어 엔지니어는 2023년 초 10% 미만이었으나, 2028년에는 75%까지 증가할 것으로 전망됐다. 미국 벤처 캐피탈(VC)인 멘로 벤처스가 공개한 '2025 미드-이어 거대언어모델 시장 업데이트(2025 Mid-Year LLM Market Update)'에선 개발자들이 앤트로픽의 '클로드'를 코딩에 가장 많이 활용하고 있는 것으로 드러났다. 클로드는 전체 42%로, 오픈AI 챗GPT를 제치고 코딩 분야 1위로 부상했다. 2위는 21%를 차지한 '챗GPT', 3위는 구글 '제미나이(16%)' 순으로 나타났다. LLM에 가장 많이 활용되는 개발언어는 '파이톤(Python)'으로 조사됐다. 학습데이터의 절대 다수가 '파이톤' 기반으로, 자연어와 유사한 문법, 풍부한 라이브러리 생태계와 실행 난이도 등의 이유로 LLM에서 개발자들이 가장 많이 활용하고 있는 것으로 나타났다. 개발 업무 활용분야에서는 ▲설계 단계에서 아키텍처 설계 아이디어 제안 및 기능 정의서 작성 ▲코딩 단계에서 기초코딩 작성, 로직 개선, 다른 개발언어로 코드 이식 ▲디버깅 및 테스트 단계에서 에러메세지 해석, 단위 테스트 코드 생성, 코드 리뷰 보조 ▲문서화 및 커뮤니케이션 단계에서 주석 자동 생성, 리드미(README.md) 자동 작성, 코드요약본 생성 등 각 단계별로 작업을 효율화, 자동화하고 있는 것으로 드러났다. 개발자 AI 활용 역량 평가 솔루션 '아이사(AISA)'를 출시한 구름은 이번 보고서를 분석하며 "LLM 활용에 있어 단순히 '코드 생성'을 주문하기보다는 '단계별 요청, 설명 요청, 비교 요청, 예외 처리 추가 요청' 등 맥락을 부여하는 질문이 더 좋은 결과를 얻을 수 있었다"며 "다만 AI 도구의 사용률은 급격히 증가했지만 신뢰도와 활용 역량 측면에서는 여전히 큰 격차를 보였다"고 밝혔다. 실제 AI 출력 정확성에 대한 개발자들의 신뢰도는 33%에 그쳤다. 46%는 AI 결과에 대해 의문을 제기한다고 응답했다. AI 도구의 신뢰성 부족으로 인해 디버깅 시간이 증가하는 등 경험 많은 개발자가 오히려 작업 시간이 19% 증가하기도 했다. 구름은 "최근 다양한 산업 분야에서 전사적인 AI 도입이 늘어나고 있다"며 "그러면서 객관적인 AI 활용 역량 평가에 대한 수요도 동반해 증가하고 있다"고 밝혔다.

2025.08.21 16:06장유미

유영상 SKT "연말까지 5천억 파라미터 LLM 공개"

유영상 SK텔레콤 대표가 "연말까지 5천억개 파라미터(매개변수)를 갖춘 초거대 언어모델(LLM)을 공개하겠다"고 밝혔다. 유 대표는 20일 링크드인을 통해 “SK텔레콤과 파트너사는 지난 4일 과학기술정보통신부가 주관하는 '독자 AI 파운데이션 모델 사업'의 국내 5대 선도 컨소시엄 가운데 하나로 선정됐다”고 설명하며 데이터, LLM, AI 반도체, 서비스까지 아우르는 통합 풀스택 AI 역량을 강조했다. 이번 컨소시엄에는 크래프톤, 포티투닷, 리벨리온, 라이너, 셀렉트스타 등 국내 대표 기술기업이 참여했다. 또한 서울대·KAIST를 비롯해 위스콘신 메디슨대 등 세계적 연구진도 합류해 원천기술 연구를 담당한다. 유 대표는 “사무, 제조, 자동차, 게임, 로보틱스 등 다양한 산업에서 혁신적인 변화를 주도하는 것을 목표로 한다”며 "네이버 클라우드, 업스테이지, NC AI, LG AI 리서치 등 선정된 다른 팀들과 함께 우리나라 AI 분야 글로벌 리더가 되기 위한 과감한 발걸음을 내딛고 있다"고 말했다.

2025.08.20 18:08진성우

[인터뷰] 김계관 그리드원 대표 "LLM 만능 아냐…현장 맞춤 AI가 답이다"

인공지능(AI)이 글로벌 IT 시장의 판도를 바꾸고 있지만, 실제 현장에서 '쓸모 있는 AI'를 구현하는 일은 여전히 쉽지 않다. 거대언어모델(LLM)의 발전에도 불구하고 복잡한 비정형 데이터 처리나 실행 단계에서의 한계는 여전하다. 이 가운데 로보틱 프로세스 자동화(RPA) 분야 강자인 그리드원은 AI와의 결합을 통해 '직접 행동하는 AI 에이전트'라는 차별화 전략을 제시하고 있다. 김계관 그리드원 대표는 최근 서울 서초구 본사에서 지디넷코리아와 만나 "AI 시장이 기술적 발전을 거듭하는 동안 우리는 20년간 다져온 자동화 기술 스택을 기반으로 실제 현장에서 가치를 창출하는 AI 에이전트를 구현했다"며 "AI는 그 자체가 목표가 아니라 특정 부서나 직무, 기업 전체, 나아가 개인의 모든 업무를 전면 자동화하는 수단"이라고 강조했다. 30년 '자동화 집념'이 만든 RPA와 AI 에이전트 김 대표의 자동화 여정은 1980년대 후반 대학원 시절로 거슬러 올라간다. 당시 그는 반도체 칩 설계 자동화를 연구하며 메모리와 연산 성능의 부족으로 규칙 기반 AI의 한계를 절감했다. 이에 현실적인 자동화 기술 축적을 선택했고 이 판단은 30년 뒤 AI 에이전트 사업을 촉진하는 토대가 됐다. 이후 김 대표는 KT 재직 시절 국내 최초 인터넷 뱅킹 시스템 개발을 주도하며 금융권 디지털 전환의 물꼬를 텄다. 1999년 국책과제 성과를 기반으로 KT 사내벤처 1호로 분사했고 2005년 그리드원을 설립했다. 사업 초창기에는 한국전자통신연구원(ETRI)·한국과학기술정보연구원(KISTI)과 함께 '그리드 컴퓨팅' 국책과제를 수행하며 고성능 컴퓨팅(HPC) 인프라를 구축하고 대규모 연산 자동화 역량을 확보했다. 당시 구축한 경험은 훗날 AI 학습과 대규모 데이터 처리 기술의 기초가 됐으며 RPA로의 사업 전환도 이뤄졌다. 김 대표는 "KT에서 테스트 자동화 시스템을 만들었는데 나중에 보니 이게 바로 RPA 개념이었다"며 "2016년 국내에 RPA가 소개됐을 때 하루 만에 기존 솔루션으로 구현할 수 있었다"라고 말했다. 김 대표에 따르면 2017년 그리드원은 금융권 RPA 시장 점유율 70% 이상을 기록하며 1위에 올랐다. 그러나 그는 곧 RPA의 한계를 직시했다. 김 대표는 "정형 프로세스만 처리하는 RPA로는 미래가 없다고 봤다"며 "비정형 데이터 처리와 복잡한 워크플로우 대응이 가능한 AI 기반 에이전트로 사업 전략을 집중하게 됐다"고 말했다. "LLM이 만능은 아니다"…그리드원, 도메인 특화 전략 속도 김 대표는 LLM이 전지전능한 해답이 될 수 없으며 기업·기관 업무에 적재적소에 맞춘 서비스 결합이 필요하다는 입장이다. 김 대표는 "LLM은 공개된 웹 정보에 강하지만 실제 기업 업무는 내부 데이터가 대부분"이라며 "외부 데이터만으로는 기업 환경에 최적화된 결과를 만들 수 없다"고 말했다. 그리드원의 접근법은 도메인 특화다. KTX 예매처럼 특정 영역에서 시작해 실행 범위를 넓히는 방식이다. 이는 매년 초거대 모델이 쏟아지는 상황에서 막대한 자본이 필요한 '빅뱅식 AI' 접근보다 효율적이라는 설명이다. 김 대표는 "오픈AI와 같은 군비 경쟁 방식의 개발은 운영비가 과도하다"며 "우리는 작은 시장에서부터 1등을 만들며 다양한 산업 영역에 AI를 확장해 나가는 민주화 전략을 채택한 것"이라고 말했다. 이같은 전략을 통해 초기 리소스를 최소화하면서도 고객 맞춤형 성과를 빠르게 도출한다는 목표다. 이와 관련해 김 대표는 정부 AI 정책 방향에 대해서도 의견을 냈다. 그는 "범용 독자 LLM 개발만큼 실질적 애플리케이션과 에이전트 활용에도 국가 자원이 집중돼야 한다"며 "B2B와 도메인 특화형 에이전트가 빠르고 확실한 성과를 낼 수 있다"고 밝혔다. 카드사·행안부도 쓴다…업무 자동화 현장 바꾸는 '고두' 그리드원의 핵심 솔루션은 '고두(GO;DO)'다. 이는 단순 질의응답을 넘어 직접 행동하는 AI 개인비서다. 20년간 쌓아온 테스트·자동화 노하우를 바탕으로 웹·앱 환경을 직접 조작하는 에이전트를 개발했다. KTX 예매나 스타벅스 주문처럼 API가 없는 서비스도 화면 인식 기반 자동화로 수행하는 것이 특징이다. 그중 핵심 차별화 기능인 '레디 투 고'는 사용자의 일정·메일·업무 패턴을 분석해 앞으로 해야 할 일을 먼저 제안한다. 예를 들어 신규 메일의 첨부파일에서 회의 안건을 추출·요약해 캘린더에 등록하고 메신저로 발송까지 자동 처리한다. 고객 사례도 다양하게 확보해 가고 있다. 금융권에서는 대형 카드사의 가맹점 심사 프로세스를 자동화해 심사 소요 시간을 절반 이상 줄였다. 한 카드사에서는 부정거래방지(FDS) 시스템과 연계해 아웃바운드 콜 업무를 AI가 전담, 상담 인력을 보다 고부가가치 업무에 투입할 수 있게 했다. 공공부문에서는 최근 행정안전부의 초거대 생성형 AI 사업에 참여해 민원 응대·문서 처리의 상당 부분을 AI 에이전트로 자동화하는 역할을 맡게 됐다. "에이전트 대중화 나선다"…SW 개발 도구·스마트폰 앱 확산 목표 그리드원은 공공·금융 고객을 위해 온프레미스 AI에 집중하고 있다. 김 대표는 "외부 API를 쓰면 데이터 통제권을 잃는다"며 "우리의 AI 에이전트 솔루션은 온프레미스 기반 설계와 보안 요구를 충족하는 내부망 구축으로 민감정보 유출을 원천 차단한다"고 설명했다. 특히 글로벌 경쟁사들이 LLM 성능 개선에 몰두하는 것과 달리 그리드원은 비정형 데이터 처리·도메인 특화·보안성을 핵심 차별점으로 내세운다. 이에 더해 장기 목표를 구현할 핵심 기술인 '고 에이스(GO AiSE)'를 갖췄다. 이는 그리드원 AI 소프트웨어(SW) 엔지니어의 약자로, SW 개발 전 과정을 자동화하는 AI 엔지니어 플랫폼이다. 요구사항 분석·설계·코드 작성·테스트·배포 등 일련의 개발 라이프사이클을 에이전트들이 협업해 수행하는 방식이다. 김 대표는 "개발자가 명령하면 AI가 실시간으로 코드를 생성·검증하고 다른 AI가 이를 테스트·배포하는 구조로, 사람은 감독자 역할만 하는 형태"라며 "이 기술이 상용화되면 소규모 기업도 대기업 수준의 개발 속도와 품질을 확보할 수 있으며 장기적으로는 자율 기업 실현의 핵심 축이 될 것"이라고 전망했다. 이어 "최근 주목받는 '바이브코딩'이 소규모 SW 개발을 효과적으로 지원하는 도구라면 고 에이스는 실제 회사에서 일하는 주니어·시니어 개발자 팀을 AI로 구현한 것"이라고 덧붙였다. 그러면서 "고 에이스를 통해 SW 개발 인력난을 해결할 새로운 패러다임을 만들겠다"며 "결국 AI가 코드를 짜고 배포·유지보수하는 시대를 여는 게 우리의 비전"이라고 밝혔다. 이와 함께 그리드원은 B2C용 고두 앱 개발도 병행하고 있다. 기업 환경에 특화된 기능을 개인 사용자 중심으로 재설계해 스마트폰만으로도 일정 관리·예약·쇼핑·결제·업무 보조까지 통합 수행할 수 있도록 하는 것이 목표다. 김 대표는 "AI 에이전트의 경험을 기업에서 개인의 일상까지 확장해 누구나 갖는 AI 비서를 만들겠다"고 강조했다.

2025.08.14 10:53한정호

[인터뷰] 네이버 "1등 경쟁보다 모두의 AI…기술 종속 막겠다"

"인공지능(AI) 모델을 만드는 것 자체가 목표가 될 수는 없습니다. 우리가 구축하고 싶은 것은 모든 국민이 AI를 누릴 수 있도록 하는 '접근성'과 '생태계'입니다. 이것이 '소버린 AI'의 본질입니다." 네이버클라우드 하이퍼스케일 AI 기술총괄(전무)는 최근 기자와 만나 이같이 말했다. 그는 '독자 AI 파운데이션 모델(이하 국가대표 AI)' 프로젝트의 지향점이 기술 경쟁에 있지 않다는 점을 강조하며 네이버가 AI 시대의 '플랫폼 주권'을 확보하겠다는 청사진을 제시했다. 14일 업계에 따르면 정부의 국가대표 AI 사업자로 최종 선정된 5개 팀이 오는 12월 1차 평가를 앞두고 본격적인 기술 경쟁에 돌입한 상태다. 이 가운데 네이버는 모델 개발 자체만큼이나 회사의 'AI 풀스택' 역량을 기반으로 누구나 AI 에이전트를 만들고 유통하는 '마켓플레이스'를 구축하고자 하고 있다. 성 전무는 "우리가 데이터센터에 규장각의 이름을 따 '각(閣)'이라는 이름을 붙이며 주권을 강조하는 것처럼 AI의 지능과 그로 인해 창출되는 부가 국내에 머무는 것이 진정한 기술 독립"이라며 "단순히 글로벌 모델을 따라가는 '추격자'가 아니라 우리 데이터와 철학에 기반한 독자 생태계를 만드는 '개척자'의 길을 가겠다"고 강조했다. '공감각 AI'와 '지도 데이터'…네이버가 그리는 기술의 미래는? 네이버가 그리는 AI 플랫폼의 심장에는 '옴니모달(Omni-modal)'이라는 강력한 엔진이 자리 잡고 있다. 이는 단순히 거대언어모델(LLM)에 시각 등 다른 기능을 덧붙이는 '멀티모달'과는 출발선부터 다르다는 주장이다. 성낙호 전무는 "글로 세상을 먼저 배운 AI가 뒤늦게 움직이려 하면 어설플 수밖에 없다"며 "처음부터 글, 이미지, 소리, 공간 정보까지 함께 학습해 세상에 대한 공감각적 이해를 갖춘 AI를 만드는 것이 네이버의 방식"이라고 강조했다. 네이버는 이 '네이티브 옴니모달' 기술이야말로 향후 로봇이나 자율주행 같은 '피지컬 AI' 시대를 여는 결정적 열쇠가 될 것으로 보고 있다. 인간의 뇌가 특정 지역을 자연스럽게 인지하듯 AI 모델 자체에 공간 이해 능력을 심어주면 훨씬 정교한 임무 수행이 가능하다는 것이다. 이러한 기술 전략의 핵심 재료는 바로 '소버린 데이터'다. AI의 지능은 결국 데이터의 질과 양에서 나오기 때문이다. 네이버는 누구나 접근 가능한 인터넷상의 'K-콘텐츠'가 아닌 오직 한국만이 가진 배타적 데이터를 확보하는 데 집중하고 있다. 성 전무는 "진정한 소버린 데이터는 우리의 지도, 골목 구석구석을 담은 거리뷰 같은 것"이라며 "이런 고유 데이터를 학습한 AI만이 한국의 복잡한 상황과 맥락을 진정으로 이해하는 '한국형 AI'가 될 수 있다"고 설명했다. 다만 여기에는 '저작권'이라는 딜레마가 있다. 글로벌 빅테크들이 '공정 이용(Fair Use)'을 명분으로 공개된 데이터를 자유롭게 학습에 활용하는 데 비해 네이버는 저작권 동의를 받은 데이터만 써야 하는 '기울어진 운동장'에서 싸우고 있는 것이다. 그는 "솔직히 우리도 (유튜브 등을) 학습하고 싶지만 법률 구조상 할 수가 없다"며 "이런 문제를 해소하기 위해 정부가 나서서 방송이나 CCTV 같은 공공 데이터 활용에 대한 명확한 가이드라인을 만들어주는 것이 절실하다"고 토로했다. 네이버의 컨소시엄 구성 역시 이 같은 기술 및 데이터 전략을 그대로 반영한다. 산업계 파트너를 대거 모은 경쟁사들과 달리 원천 기술 확보에 집중하기 위해 서울대, 카이스트 등 학계 전문가들을 전면에 내세웠다는 것이다. 이번 프로젝트 1차 목표는 특정 산업용 AI(+X)가 아닌 모든 AI 에이전트의 기반이 될 '줄기세포' 같은 옴니모달 파운데이션 모델을 제대로 만드는 것이라는 설명이다. 영상 AI 기술 스타트업 '트웰브랩스'를 컨소시엄의 '데이터 총괄'로 영입한 것도 같은 맥락이다. 성 전무는 "좋은 AI는 좋은 데이터에서 나온다"며 "트웰브랩스는 옴니모달의 핵심인 고품질 영상 데이터를 만드는 최고의 파트너"라고 말했다. 'AI판 스마트스토어'로 여는 생태계…'데이터 주권'은 개인에게 네이버의 기술이 향하는 최종 목적지는 'AI 에이전트 마켓플레이스'다. 단순히 좋은 AI 모델 하나를 만들어 사용자에게 제공하는 것을 넘어 AI 시대의 새로운 산업 생태계 자체를 만들겠다는 구상이다. 성낙호 전무는 이를 네이버의 가장 성공적인 플랫폼인 '스마트스토어'에 비유했다. 그는 "과거 웹사이트 제작에 수백만 원을 써야 했던 소상공인들의 장벽을 없애고 거대한 상거래 생태계를 만들었다"며 "AI 에이전트 역시 누구나 쉽게 만들고 거래할 수 있는 판을 깔아주는 것이 우리의 역할"이라고 말했다. 이 구상의 핵심은 특정 기업이 모든 것을 해결하는 '만능 AI'가 아니라 각자의 목적에 특화된 수많은 AI 에이전트가 상호작용하며 가치를 만드는 세상이다. 네이버는 이 에이전트들이 공존하고 거래될 수 있는 '포털'이자 '유통 플랫폼'이 되겠다는 것이다. 특히 플랫폼의 가장 차별화된 철학은 '라이프 롱 로그(Life-long Log)' 개념에서 드러난다. 이는 AI와 상호작용한 모든 기록, 즉 '로그 데이터'의 소유권을 기업이 아닌 사용자 개인에게 돌려주는 것을 골자로 한다. 성 전무는 "사용자가 A 에이전트를 쓰다 B 에이전트로 넘어갈 때 기존의 대화나 경험 기록을 그대로 가져갈 수 있어야 한다"며 "이는 마치 마이데이터처럼 AI 시대에 개인의 '데이터 주권'을 보장하는 핵심적인 장치가 될 것"이라고 설명했다. 이러한 구조는 사용자가 어떤 AI 에이전트를 쓰든 단절 없는 개인화 경험을 이어가게 만든다는 것이 네이버의 설명이다. '나를 가장 잘 아는 AI'를 여러 서비스에서 끊김 없이 이용할 수 있게 되는 셈으로, 이는 사용자를 플랫폼에 머무르게 하는 강력한 유인책이기도 하다. 네이버가 그리는 '모두의 AI' 비전 역시 같은 맥락이다. 일부 전문가나 고학력자를 위한 고성능 AI 경쟁에서 벗어나 국민 다수가 실생활에서 AI의 혜택을 체감하게 하는 데 집중한다. 성 전무는 "우리의 목표는 국제수학올림피아드(IMO) 금메달리스트를 위한 AI가 아니다"며 "어업이나 농업에 종사하는 분들처럼 평범한 국민들의 삶을 실질적으로 돕는 '증강 지능(Augmented Intelligence)'을 제공하고 싶다"고 밝혔다. 이를 위해선 사용자의 말 속에 숨겨진 진짜 의도인 '암묵지(Tacit Knowledge)'를 이해하는 능력이 필수적이다. 네이버는 앞서 언급된 '옴니모달' 기술을 통해 텍스트뿐만 아니라 주변 상황과 분위기까지 파악해 이 암묵지를 이해하는 AI를 구현하겠다는 전략이다. 소버린AI, 기술 종속 막을 '협상력'…"정부가 수요 만들어줘야" 네이버가 이처럼 '플랫폼'과 '생태계'를 강조하는 근간에는 이들이 처음 주창한 '소버린 AI'에 대한 철학이 있다. 이들이 정의하는 '진정한 소버린 AI'는 단순히 국산 모델을 개발하는 것을 넘어선다. 첫째는 데이터와 지능이 국경 내에 머무르는 '영토 주권'이다. 성낙호 전무는 "AI 서비스를 이용할 때 데이터가 암호화돼 해외로 나가도 현지 그래픽처리장치(GPU)에서 결국 복호화된다"며 "이는 작정하면 들여다볼 수 있다는 의미로, 안보 차원에서 심각한 문제를 야기할 수 있다"고 지적했다. 또다른 요소는 우리 문화와 상황에 맞게 AI를 제어할 수 있는 '레시피 주권'이다. 어떤 데이터를 어떤 방식으로 학습시키냐에 따라 AI의 역량과 정체성이 완전히 달라지기에 이 '레시피'를 우리 손에 쥐고 있어야 기술 종속을 피할 수 있다는 것이다. 다만 성 전무는 네이버가 이상적인 철학과 별개로 글로벌 빅테크와의 경쟁에서는 현실적인 전략을 택했다고 설명했다. 시장 규모 자체가 50분의 1에 불과한 상황에서 무모한 '스케일 경쟁'은 승산이 없다는 판단에 근거한 것이었다. 성 전무는 "우리는 이번 독자 AI PT에서도 '글로벌 최고 모델 대비 95% 성능'을 현실적인 목표로 제시했다"며 "1등을 차지하는 것이 아니라 기술 종속을 피하고 독자적인 목소리를 낼 수 있는 '협상력'을 갖추는 것이 핵심"이라고 말했다. 이어 "민감한 데이터를 다루는 금융, 국방, 공공 등에서는 우리 모델을 선택지로 쓸 수 있게 되고 이 정도 역량만 갖춰도 해외 기업이 우리를 함부로 할 수 없는 기술 주권이 가능하다"고 말했다. 결국 관건은 정부의 역할이다라는 것이 성 전무의 의견이다. 그는 이번 프로젝트에서 모델 개발을 위한 GPU 지원만큼이나 중요한 것이 '안정적인 수요 창출'이라고 여러 차례 강조했다. 성 전무는 "시장이 있어야 기업은 움직인다"며 "정부가 먼저 공공, 금융 등 핵심 분야에서 국산 AI를 우선 사용하겠다는 확실한 신호를 주고 안정적인 수요 체계를 만들어주는 것이 중요하다"고 강조했다. 그는 네이버가 과기정통부 중복 사업 참여로 인해 '국가대표 AI' 1차 사업에서 GPU 지원 을 받지 못하게 된데에는 아쉬움을 표하며 국내 기업 간 소모적 경쟁을 넘어 국가 차원의 AI 하드웨어 생태계 육성이 필요하다고 제언했다. 성낙호 네이버클라우드 전무는 "중국 정부가 자국 신경망처리장치(NPU) 성능이 다소 떨어져도 의무적으로 사용하며 생태계를 키웠듯 우리도 삼성전자 등 반도체 역량을 활용해 완전한 AI 주권을 이뤄야 한다"며 "이번 프로젝트가 그 마중물이 되길 바란다"고 밝혔다.

2025.08.14 10:01조이환

SK하이닉스, 자체 생성형 AI 플랫폼 '가이아'로 업무 혁신

SK하이닉스가 내부 업무 혁신을 가속화하기 위한 AI 활용 생태계를 체계적으로 구축하고 있다. 그 중심에는 반도체 업무에 특화된 생성형 AI 플랫폼 'GaiA(Generative AI Assistant, 가이아)'가 있다. GaiA는 반도체 제조 프로세스의 혁신을 뒷받침하는 것은 물론, 임직원의 다양한 업무를 지원해 효율성과 혁신성을 동시에 끌어올리는 것을 목표로 개발됐다. SK하이닉스는 AI 플랫폼 및 생성형 AI 서비스 3종을 개발했다고 14일 공식 뉴스룸을 통해 밝혔다. 자체 생성형 AI 플랫폼으로 반도체 업무 지원 SK하이닉스는 DT(Digital Transformation)를 중심으로 AI 전환(AIX)을 가속하고 있으며, AI를 활용한 업무 효율 향상, 전략 수립, 비즈니스 개선을 전사적으로 추진하고 있다. 기업형 생성형 AI 활용을 확대하기 위해서는 내부 인프라, 플랫폼, 모델, 서비스 등 네 가지 핵심 요소가 유기적으로 결합해야 한다. SK하이닉스는 이러한 체계를 기반으로, 반도체 업무 전반에 최적화된 생성형 AI 플랫폼 GaiA를 개발했다. GaiA는 대지의 여신(Gaia)에서 영감을 받은 이름처럼, 구성원의 업무 효율성과 창의성을 풍요롭게 키우는 든든한 토대 역할을 하고 있다. 또한 구성원들이 사내 보안망 내에서 안전하게 생성형 AI를 활용하고 업무 특화 서비스를 개발 및 운영하도록 지원하고 있다. GaiA를 활용하면 업무 프로세스를 그대로 반영한 에이전틱 AI를 구현할 수 있어, 부서·업무별 맞춤형 AI 에이전트(Agent)를 개발할 수 있다. 이와 함께 피드백 루프 체계를 통해 현업 도메인의 지식과 경험을 지속적으로 반영할 수 있는 환경도 제공한다. 이를 통해 회사는 지난 7월 '비즈(Biz) 특화' 서비스로, ▲장비 보전 에이전트 ▲글로벌 정책·기술 분석 에이전트 ▲HR 제도 에이전트 ▲회의 에이전트 등을 베타 오픈했다. 이들 서비스는 반도체 생산·제조에 활용할 수 있는 점이 특징이다. 실제로 개발, 양산 현장에서 활용되며 긍정적인 반응을 이끌고 있다. 8월 초에는 전사 구성원 대상으로 SK하이닉스향 ChatGPT 서비스인 'LLM Chat'을 베타 오픈했다. LLM Chat을 이용하면 사내 보안망으로 안전하게 접속해, 사내 데이터 및 지식 기반의 질의응답 서비스로 업무를 효율화할 수 있다. 에이닷 비즈(A.Biz)는 일반 업무와 전문 업무를 모두 지원하는 AI 비서 서비스다. 범용성과 전문성을 갖춘 덕분에 회의록, 보고서 작성 등과 같은 일반 사무를 비롯해 구매, 채용, 세무, 법무, PR 등 전문 업무도 맡길 수 있다. GaiA 연계를 목표로 SK텔레콤과 함께 개발 중인 에이닷 비즈는 11월 정식 공개 예정이다. 생성형 AI 로드맵 따라 순차 개발… 에이전트 간 스스로 협업 구현 도전 이번 GaiA 플랫폼을 구성하는 AI 서비스 3종은 SK하이닉스의 '생성형 AI 로드맵'에 맞춰 완성됐다. 지난 2023년부터 회사는 ▲네이티브 RAG* + LLM(2023) ▲에이전트 및 작업 도구(2024) ▲에이전틱 AI(2025) ▲에이전트 오케스트레이션(2025) 순서로 AI 서비스를 개발 중이다. 네이티브 RAG + LLM은 외부 데이터베이스나 문서에서 필요한 정보를 찾아 답변을 만드는 가장 기본적인 방식이다. 구현이 쉽지만, 검색 결과 품질에 따라 답변이 달라지고 복잡한 작업은 어렵다. 에이전트 및 작업 도구는 LLM이 웹 검색, API 호출, 코드 실행 등 다양한 도구를 골라 사용해 문제를 푸는 방식이다. 더 많은 일을 할 수 있지만, 어떤 도구를 쓸지 판단을 잘못하면 오류가 날 수 있다. 에이전틱 AI는 여러 에이전트가 각자 맡은 역할로 나눠서 함께 문제를 해결한다. 효율이 높지만, 구조가 복잡해져서 관리와 조율이 어렵다. 에이전트 오케스트레이션(Agent Orchestration)은 여러 에이전트를 상황에 맞게 조합하고 순서를 바꿔가며 일을 진행하는 방식이다. 변화에 잘 대응하지만, 만들기 어렵고 안정성을 유지하기 힘들다. 이중 비즈 특화 서비스는 에이전틱 AI 기술이 본격적으로 적용된 서비스로, 회사는 다양한 역할의 에이전트(기획자 에이전트, 개발자 에이전트 등)를 제작하고, 성능을 고도화하는 작업을 거쳤다. 이를 통해 각 분야의 전문성과 정확성을 높여, 복잡하고 추상적인 문제까지 해결할 수 있도록 했다. SK하이닉스는 한 차원 진화한 형태의 AI 시스템도 준비 중이다. 최종 목표는 에이전트 오케스트레이션 기술로, A2A(Agent to Agent)를 구현하는 것이다. A2A는 에이전트 간 상호 소통하며 역할을 분담하고, 스스로 문제를 해결하는 시스템을 말한다. 그 중심에는 자원을 최적화하고, 효율적인 에이전트 조합으로 워크 플로(Work Flow)를 구성하는 에이전트 오케스트레이션이 있다. 향후 회사는 다양한 에이전트가 협업하는 A2A로 유연하고 단계적인 문제 해결 방식을 도입한다는 계획이다. 또한, 비즈 특화·LLM Chat·그룹사 에이닷 비즈를 하나로 통합한 에이전틱 AI를 개발하는 동시에, 기존 RAG + LLM 인터페이스의 한계를 극복하고, 팹(Fab) 내 모든 시스템을 연결하는 통합적 스마트팩토리도 구현한다는 방침이다. SK하이닉스는 지난 2017년 국내 제조업 최초로 데이터 사이언스 조직을 출범시켰고, 데이터 기반 의사결정 문화를 내재화했다. 2024년에는 AIX 전문 팀을 꾸려 AI 전환을 위한 체계적인 기반도 마련했다. 이와 함께 생성형 AI 서비스를 지속해서 개발·공개하며 AI 혁신을 앞당기고 있다. SK하이닉스는 “전 세계가 주목하고 있는 에이전틱 AI를 반도체 산업에 특화해 개발하고, 전사적으로 접목해 업무 효율성과 혁신성을 끌어올릴 것”이라며 “올해는 에이전틱 AI를 더 고도화하고, 에이전트 오케스트레이션을 개발해 또 한 번의 생성형 AI 혁신을 이룰 것”이라고 밝혔다.

2025.08.14 09:33장경윤

[인터뷰] 업스테이지 "AI는 전부…절실함으로 '독자 파운데이션' 주도권 증명할 것"

"우리에게 인공지능(AI)은 전부입니다. 이번 사업은 AI를 모두에게 이롭게 만들겠다는 창업의 이유를 증명하고 스타트업도 할 수 있다는 것을 보여줄 기회로, 전 구성원이 다른 어떤 것도 없이 이 프로젝트에만 집중하고 있습니다. 그만큼 절실하고 또 진심입니다." 권순일 업스테이지 부사장은 13일 기자와 만나 '국가대표 AI' 사업자로 선정된 소회를 이같이 밝혔다. 대기업들이 주도하는 경쟁 구도에서 유일한 스타트업으로 최종 명단에 이름을 올린 업스테이지가 '스타트업 어벤저스'와 함께 어떻게 생존하고 승리할 것인지에 대한 출사표를 던진 것이다. 정부의 '독자 AI 파운데이션 모델(국가대표 AI)' 사업자로 최종 선정된 5개 팀이 오는 12월 1차 평가를 앞두고 본격적인 기술 경쟁에 돌입했다. 이 가운데 업스테이지는 '선택과 집중', '실용주의', '글로벌 기술 주도권'이라는 명확한 키워드를 내걸고 거대 자본과는 다른 방식으로 승부하겠다는 전략을 분명히 해 업계의 이목이 집중되고 있다. 스타트업 연합군, '소버린 AI' 넘어 '기술 주도권' 노린다 업스테이지의 전략은 소버린 AI를 넘어 '기술 주도권'을 확보하는 데 초점이 맞춰져 있다. 우리만 쓰는 한국형 AI가 아닌 글로벌 시장에서 통용되는 모델을 만들어야 진정한 의미의 AI 주권을 달성할 수 있다는 철학이다. 권순일 업스테이지 부사장은 "내부적으로 기술 주권이라는 방어적 목표를 넘어 글로벌 시장에서 통용되는 '기술 주도권'을 확보해야 한다는 데 의견을 모았다"며 "세계가 인정하는 모델을 만드는 것이 우리의 목표"라고 말했다. 이러한 목표를 달성하기 위한 방법론은 '스타트업 연합군'의 결성이다. 업스테이지는 이번 프로젝트를 철저히 문제 해결의 관점에서 접근했다. 필요한 기술 스택을 먼저 정의한 뒤 각 분야 최고 전문성을 갖춘 스타트업들을 '어벤저스'처럼 모았다. 권 부사장은 "모델 개발에만 집중하는 우리를 중심으로, 데이터는 플리토, 모델 최적화는 노타, 거대언어모델(LLM) 최적화는 래블업이 맡는 등 기술 스펙별로 역할을 명확히 나눴다"며 "거대 컨소시엄이 아닌 신속하고 효율적으로 움직이는 스타트업 연합군을 결성한 것"이라고 설명했다. 기술 파트너 외에도 금융(금융결제원), 법률(로앤컴퍼니), 의료(뷰노), 제조(마키나락스) 등 각 산업을 대표하는 기업들이 참여해 개발될 모델의 실질적인 활용처와 데이터 피드백을 제공하는 역할을 맡는다. 이 연합군이 만들 무기는 '솔라 더블유비엘(Solar WBL)'이라는 이름의 새로운 파운데이션 모델이다. 기존 '솔라' 시리즈의 성공 방정식을 계승하되 범용성을 극대화해 처음부터 새롭게 구축한다. 일각에서 강조하는 '프롬 스크래치'에 대해 권 부사장은 "'솔라'는 파인튜닝이 아닌 기존 모델의 구조를 변경하고 개선한 '재설계' 모델"이라고 설명했다. 이어 "재설계에 필요한 기술 스택과 프롬 스크래치에 필요한 기술은 사실상 동일하다"며 "우리는 이미 특정 목적의 소형 모델들을 프롬 스크래치로 개발한 경험도 충분히 갖추고 있다"고 자신했다. 회사는 오는 12월 1차 단계에서 1천억(100B) 파라미터 규모의 모델을 개발하고 이후 2~3차 단계에서 2천억~3천억 파라미터 규모까지 확장할 계획이다. 글로벌 기술 주도권이라는 명확한 목표, 이를 실행할 스타트업 연합군, 재설계 경험으로 증명된 기술력을 통해 경쟁에 나선다는 포부다. '벤치마크' 넘어 '실용'으로…업스테이지의 승리 공식은? 업스테이지의 승리 공식은 '실용주의'다. 학술적인 벤치마크 점수 경쟁을 넘어 실제 산업 현장에서 돈을 벌고 문제를 해결하기 위한 범용 파운데이션 모델을 만들겠다는 것이다. 이는 기업간거래(B2B) 사업을 통해 얻은 업스테이지의 확고한 철학이다. 권 부사장은 좋은 모델의 조건으로 세 가지를 꼽았다. 그는 "첫째는 지식·지능, 둘째는 환각(할루시네이션)이 없는 안전성과 신뢰성, 마지막은 다른 서비스와 잘 연동되는 '에이전트'로서의 능력"이라며 "벤치마크 점수만 높은 모델은 결국 쓰이지 않는다"고 강조했다. 이러한 자신감은 글로벌 프런티어 모델을 능가하겠다는 야심 찬 목표로 이어진다. 업스테이지는 한국어를 포함한 비영어권 모델에 있어서는 세계 최고 모델의 95% 수준으로 따라잡는 것을 넘어 성능을 105%까지 끌어올려 추월하겠다는 목표를 제시했다. 권 부사장은 "이미 지난해 태국에 AI 모델 기술을 수출하며 특정 언어와 문화를 모델에 녹여내는 노하우를 증명했다"며 "언어 확장은 우리가 가장 자신 있는 분야 중 하나"라고 밝혔다. '스타트업'이라는 꼬리표가 주는 자원 열세에 대한 우려도 '선택과 집중'으로 정면 돌파한다. 인력의 절대 수는 적을 수 있지만 140여 명 대부분이 자연어처리에만 집중하는 전문가 집단으로, 질적인 측면에서는 결코 밀리지 않는다는 것이다. 더불어 단기 프로젝트의 가장 큰 병목은 데이터 준비지만 이 역시 기존 사업을 통해 충분한 노하우를 갖췄기에 극복 가능하다는 것이 업스테이지의 설명이다. 정부 지원금만으로 글로벌 수준의 프런티어 모델 개발이 가능하냐는 우려에 대해서는 "'GPT-4' 같은 초기 모델은 막대한 비용이 들었지만 최근 딥시크 등은 훨씬 저렴한 비용으로도 최고 수준의 모델을 만들 수 있음을 증명했다"며 "최신 방법론과 효율적인 자원 활용을 통해 충분히 구현 가능하다"고 설명했다. '모두를 위한 AI'로 기술 수출…최종 목표는? 업스테이지가 그리는 최종적인 미래는 'AI 리터러시 확산'과 '기술 수출'이라는 두 개의 축으로 완성된다. 단순히 좋은 모델 하나를 만드는 것을 넘어 AI를 다루는 국가 전체의 역량을 키우고 그 노하우를 세계로 전파하겠다는 포부다. 권순일 부사장은 이번 국가 독자 AI 프로젝트의 목표이자 정부의 AI 과제인 '모두의 AI'를 실현하기 위해 과거 카카오톡에서 애스크업(AskUp) 서비스로 250만 사용자를 모았던 경험을 살려 1천만 명 이상이 사용하는 대국민 AI 서비스를 만들 것이라고 자신했다. 특정 기능을 제공하기보다 국민 전체의 AI 활용 능력을 끌어올리기 위한 공익적 목표라는 설명이다. 인재 확보와 생태계 기여에도 적극적이다. 업스테이지는 이번 사업에서 제시된 과기정통부 지원사업을 통해 ▲AI 안전성 ▲언어 확장 등 분야의 해외 전문가 3명을 영입할 계획이다. 또 개발 과정에서 확보한 학습 데이터셋의 100%를 공개하고 상업적 활용까지 가능한 라이선스를 적용하는 등 '딥시크'에 준하는 수준의 완전한 오픈소스 정책을 펼치겠다고 약속했다. 궁극적으로 업스테이지는 '한국형 AI' 구축 노하우 자체를 수출하는 것을 목표로 한다. 이들이 정의하는 '한국형 AI'는 단순히 한국어를 잘하는 것을 넘어 한국의 문화와 가치관에 기반한 판단이 가능한 AI다. 권 부사장은 "미국과 중국의 AI가 각자의 문화적 편향성을 갖듯 우리는 한국적 사고가 가능한 AI를 만들 수 있다"며 "자체 모델 구축 역량이 부족한 제3국에 우리의 이러한 'AI 현지화' 기술과 노하우를 수출하는 것이 우리가 그리는 큰 그림"이라고 밝혔다.

2025.08.13 18:01조이환

[유미's 픽] 축하금 2천만원·스톡옵션도 내걸었다…AI 인재 확보에 '난리'

국내 인공지능(AI) 기술의 미래를 이끌어 갈 '독자 AI 파운데이션 모델 프로젝트(국가대표 AI)' 최종 사업자가 결정된 가운데 기업들이 이를 맡을 인재 영입에 열을 올리고 있다. AI 역량 강화를 위해 일부 기업은 스톡옵션까지 내세우며 우수 인재를 끌어 들이려는 모습이다. 13일 업계에 따르면 업스테이지는 지난 4일 과학기술정보통신부가 발표한 '독자 AI 파운데이션 모델' 최종 사업자 5팀에 선정된 직후 해당 사업을 맡을 인재를 영입하기 위한 채용 공고를 올렸다. 분야는 ▲AI 리서치 엔지니어 - 비전 언어 모델 ▲AI 리서치 엔지니어 - 거대언어모델(LLM) ▲AI 모델 프로덕션 - LLM 등으로, 채용 규모는 정하지 않았다. 업스테이지는 '독자 AI 파운데이션 모델' 사업에서 인재 지원 기업으로도 선정된 상태다. 정부로부터 AI 인재 고용에 필요한 인건비도 지원 받는다. 채용 대상은 LLM 관련 분야의 석사 학위를 보유하고 있거나 2년 이상의 실무 경험을 가진 연구자를 대상으로 한다. 이들은 엔터프라이즈 AI 기술을 성공적으로 도입할 수 있도록 모델을 개발하고 AI 컨설팅 등의 업무를 맡게 된다. 정규직도 있지만 3~6개월의 체험형 인턴십을 모집하는 것도 눈에 띈다. 이는 6개월마다 평가를 통해 오는 2027년까지 최대 2개 정예팀을 추리는 프로젝트 특성을 고려해 단기간에 최대 성과를 내기 위한 것으로 분석된다. 정부는 올해 12월 말쯤 1차 단계평가를 진행해 5팀 중 1팀을 탈락시킬 예정이다. 최종 5팀으로 선정된 곳은 LG AI연구원, 네이버클라우드, SK텔레콤, NC AI, 업스테이지로, AI 인력 확보가 향후 최종 정예팀 선발에 영향을 줄 지 주목된다. 이에 '독자 AI 파운데이션 모델' 사업자 선정에서 유일하게 인턴십 운영 등 AI 인재 양성 계획을 제시한 LG AI연구원도 최근 석·박사를 대상으로 채용에 나섰다. 채용된 인턴은 학습 데이터 수집, 생성, 가공 방법 연구, 개발 등의 업무를 맡게 되고 파운데이션 모델의 성능 향상 방법 연구 개발 등에 참여하게 된다. 네이버클라우드도 '독자 AI 파운데이션 모델' 사업자 최종 5팀에 선정된 후 멀티모달 LLM 개발 직무 채용에 돌입했다. 시각 데이터를 처리하는 비전을 넘어 텍스트, 이미지, 음성, 비디오 등을 통합 처리하는 옴니 모달리티로 LLM을 개발하는데 참여하게 된다. SK텔레콤도 '국책과제 수행 보안 체계 운영 지원 직무' 채용을 시작했다. 또 SK텔레콤 컨소시엄에 참여한 크래프톤도 ▲AI 적용 전문가 ▲에이전틱 AI 개발자 ▲생성형 AI 개발자 ▲AI 클라이언트 프로그래머 ▲물리 기반 AI 에이전트 등 5개의 AI 관련 직무에서 인력 채용에 나섰다. 크래프톤은 AI 전담 연구 조직인 딥러닝 본부를 중심으로 신입사원 채용뿐만 아니라 연중 수시 채용, 인턴십 프로그램과 AI 펠로우십 프로그램 등 다양한 채용을 진행하고 있다. 엔씨소프트의 AI 전문 자회사 NC AI도 ▲AI 엔지니어링 ▲AI 연구·개발(R&D) ▲AI 리서치 ▲오디오 엔지니어링 ▲언어 AI 리서치 ▲비전 AI 리서치 ▲프론트엔드 등 7개 직무에서 인재 영입 시도에 나섰다. 5년 이상의 소프트웨어 엔지니어링 경험이 있는 연구자가 대상자다. 이처럼 각 업체들의 인재 영입 움직임이 활발해지자 일부 업체는 당근책도 제시했다. 정부 프로젝트를 기점으로 'AI 인재 쟁탈전'이 가열되면서 우수 인재를 빼앗길 가능성이 높아졌기 때문이다. 특히 김성훈 업스테이지 대표는 이번 인재 채용에 스톡옵션까지 내걸었다. 오는 9월 30일에 전 직원을 대상으로 스톡옵션을 지급할 것이란 사실을 공개하며 빠른 시일 내에 AI 인재들이 회사에 합류하길 원한다는 뜻을 내비쳤다. 김 대표는 자신의 소셜 미디어(SNS)를 통해 "회사의 성장을 개인의 성장과 보상으로 어떻게 이어갈 것인지 고민하고 있다"며 "결국 회사가 성장할 수 있는 것은 개인 구성원 덕분이기 때문"이라고 말했다. 그러면서 "다음 퀀텀점프를 향해 회사를 더 성장시켜 줄 멤버들에게 감사의 마음을 담아 올해 상반기에 이어 하반기에 한 번 더 전사 스톡옵션을 지급하고자 한다"며 "9월 30일 전에 함께하면 좋을 것 같다"고 덧붙였다. 업계에선 AI 관련 기술력이 기업의 경쟁력으로 직결되는 만큼 5개 업체를 중심으로 인력 확보 쟁탈전이 앞으로 더 가속화될 것으로 봤다. 다른 대기업, 중견·중소기업들도 AI 사업 확대를 위해 인재 영입에 사활을 걸고 있는 만큼 우수 인력 확보가 향후 더 어려워질 수 있다는 전망도 나왔다. 앞서 뤼튼테크놀로지스, 토스 등은 각각 합격 축하금 2천만원, 면접비 1천만원 지급을 내세워 AI 인재 영입을 추진해 눈길을 끌었다. 업계 관계자는 "AI 전문 인력의 상당수가 대규모 자금을 앞세운 대기업과 글로벌 IT 기업에 몰려 있어 중소기업은 인력 확보 경쟁에서 더 배제되는 분위기"라며 "인재 편중 현상이 더 심화하고 있는 만큼 우리나라도 전략적으로 AI 전문 인력을 적극 양성하고 중소기업들도 인재를 확보할 수 있게 지원하는 방안을 더 많이 고민해야 할 것"이라고 짚었다.

2025.08.13 10:24장유미

  Prev 1 2 3 4 5 6 7 8 9 10 Next  

지금 뜨는 기사

이시각 헤드라인

오픈AI·퍼플렉시티 등 총 출동…'AI 페스타 2025' 30일 개막

2차 소비쿠폰 지급 D-7…유통업계 ‘대규모 할인’ 채비

시속 95㎞ 손 놓고 달린다…벤츠 '레벨3' 자율주행 타보니

세계적 해킹그룹 국내 금융사 2곳 해킹..."고객 명단에 유명 정치인 포함"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.