• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'언어 생성 AI'통합검색 결과 입니다. (30건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[인터뷰] 퍼플렉시티 "AI는 기술 넘어선 '문화'…서울서 철학 증명할 것"

"20세기 초 비엔나의 철학자들이 카페에 모여 위대한 담론을 형성했듯 '카페 큐리어스'가 기술과 문화가 만나는 현대적 허브가 되기를 바랐습니다. 나아가 인공지능(AI)이 커피처럼 누구나 일상에서 활용하는 기술이 되기를 기대합니다. 우리는 궁극적으로 AI가 개인의 꿈을 실현하도록 돕는 강력한 조력자가 되도록 앞장설 것입니다." 모리타 준 퍼플렉시티 아시아 대표는 최근 서울 강남구에 문을 연 '카페 큐리어스'에서 지디넷코리아와 만나 인공지능(AI) 시대의 기술이 나아가야 할 방향은 '문화'와 '철학'에 있다고 강조하며 이같이 밝혔다. 22일 업계에 따르면 프론티어 AI 랩들이 기술 패권을 두고 경쟁하는 AI 전쟁의 한복판에서 퍼플렉시티는 '답변 엔진'이라는 독자적인 노선을 통해 시장에 등장해 주목받고 있다. 모리타 대표는 단순히 기술 우위를 점하는 것을 넘어 AI가 인간의 '호기심'과 어떻게 상호작용해야 하는지에 대한 근본적인 질문을 던지며 아시아태평양 시장 공략의 선봉에 섰다. 퍼플렉시티는 단순한 기술 기업을 넘어 하나의 '문화 브랜드'가 되기를 꿈꾼다. 그 철학의 첫 번째 증거가 바로 AI 기업이 세계 최초로 서울 청담동에 문을 연 AI 테마 카페 '카페 큐리어스'다. '지적 탐험'이라는 컨셉 아래 공간은 AI가 생성한 음악으로 채워지고 벽면에는 '궁금함을 유지하라(Stay Curious)'와 같은 브랜드 철학이 새겨져 있다. 방문객은 1960년대 브라운관 TV와 철학자의 서재처럼 꾸며진 공간을 지나며 퍼플렉시티가 추구하는 기술적 낙관주의와 지적 탐험의 분위기를 동시에 느낄 수 있다. 모리타 대표는 AI 기업이 카페를 세운 이유에 대한 기자의 질문에 "인간이 새로운 문화를 만들기 위해서는 물리적 공간이 필수적"이라며 "여러 도시 중 서울을 첫 거점으로 택한 것은 시대에 따라 변화해 온 문화의 중심지가 이제는 서울이라고 보았기 때문"이라고 밝혔다. 이 같은 문화 중심적 접근은 퍼플렉시티의 기술 철학과도 맞닿아 있다. 회사는 스스로를 '답변 엔진'을 넘어 궁극적으로 '행동 엔진(Action Engine)'으로 설명한다. 모리타 대표는 회사의 AI 네이티브 브라우저 '코멧'이 단순한 '답변'을 넘어 최적의 '선택'과 '행동'으로 이어지는 첫 단계라며 궁극적으로는 사용자를 깊이 이해하고 대신 행동하는 '에이전트(Agent)'를 지향한다고 강조했다. 물론 '환각(Hallucination)' 현상과 같은 기술적 한계와 신뢰성 문제는 모든 AI 기업의 숙제다. 이에 대해 모리타 대표는 "정확도와 환각은 모든 AI 기업에게 있어 '평생의 과제'"라면서도 "우리는 기술적 노력과 동시에 모든 답변에 출처를 명확히 제시하는 사용자 경험(UX)을 통해 신뢰를 쌓고 있다"고 밝혔다. 이어 "궁극적으로 수많은 AI 서비스들 사이에서 사용자의 최종 선택을 받는 기준은 '신뢰'가 될 것"이라고 전망했다. 퍼플렉시티의 대담한 행보는 시장에서도 증명되고 있다. 단 1년 만에 연간 반복 매출(ARR) 1억5천만 달러(한화 약 2천억원)를 돌파하고 200억 달러(한화 약 27조8천억원)의 기업 가치를 인정받았다. 그는 이 성장의 동력이 최고의 거대언어모델(LLM)을 만드는 데 있는 것이 아니라 그 기술을 누구나 일상에서 편안하게 사용하도록 돕는 '서비스 레이어(Service Layer)'를 지향하기 때문이라고 진단했다. 회사는 미래 세대와의 소통에도 적극적이다. 전 세계의 대학생을 대상으로 하는 '캠퍼스 파트너' 프로그램은 대학생에게 프로 플랜을 1년간 무료로 제공하며 미래 인재 양성에 투자하고 있다. 그는 AI가 개인이 하고 싶은 일을 마음껏 하도록 돕는 강력한 도구가 될 것이라는 비전을 제시했다. 퍼플렉시티의 영향력은 국내 최대의 AI 행사에서도 확인될 전망이다. 과학기술정보통신부 주관으로 오는 30일부터 사흘간 개최되는 'AI 페스타'에는 모리타 대표가 키노트 연사로 나선다. 이번 행사에는 오픈AI, 코히어, 깃허브 등 글로벌 프론티어 AI 연구소와 네이버, LG AI연구원, 업스테이지 등 국내 대표 AI 기업들이 총출동할 예정으로, 퍼플렉시티 역시 이들과 어깨를 나란히 하며 회사의 AI 비전을 제시할 계획이다. 인터뷰를 마치며 모리타 대표는 퍼플렉시티의 근간에는 실리콘밸리 스타트업의 DNA가 깊이 자리 잡고 있다고 강조했다. 그는 "조직이 확장되더라도 스스로 동기를 부여하고 주도적으로 성과를 만들어내는 '스타트업 DNA'를 유지하는 것이 가장 중요하다"며 "이것이 우리가 가장 '퍼플렉시티다운' 방식으로 성장하고 핵심 문화를 지켜나가는 방식"이라고 밝혔다. 아래는 모리타 준 퍼플렉시티 아시아 대표와의 일문일답. Q. 퍼플렉시티라는 기업을 한 문장으로 어떻게 정의할 수 있는가. 그 정의에 담긴 핵심 철학은 무엇인가. A. 공식적으로 우리는 스스로를 '답변 엔진(Answer Engine)'을 넘어 '행동 엔진(Action Engine)'으로 나아가는 기업이라고 설명한다. 보다 근본적인 차원에서 볼때는 우리가 '다음 세대를 위해 기술과 인간이 일상적으로 공존하는 생태계를 만드는 기업'이라고 생각한다. 기술이 단순히 인간을 돕는 보조적 역할을 넘어 하나의 유기체처럼 함께 살아가며 새로운 가능성을 창조하는 관계를 지향한다는 의미다. Q. AI 기업이 테크 컨퍼런스를 진행하는 대신 서울 청담동에 '카페 큐리어스'라는 문화 공간을 세계 최초로 열었다. 매우 이례적인 행보다. 전 세계 여러 도시 중 서울을 첫 번째 거점으로 선택한 근본적인 이유는 무엇인가. A. 카페를 여는 것이 개발자 커뮤니티를 소홀히 한다는 의미는 결코 아니다. 우리는 인간이 새로운 시대를 열고 문화를 만들기 위해서는 물리적인 공간에 모여야 한다고 믿는다. 역사적으로도 그래왔다. 20세기 초반 오스트리아 비엔나의 철학자들이 카페에 모여 위대한 담론을 형성했듯 '카페 큐리어스'가 그런 현대적 허브가 되기를 바랐다. 이곳은 개발자와 크리에이터를 포함한 다양한 분야의 전문가들과 일상적 사용자들이 모두 모여 'AI로 무엇을 더 할 수 있을까'를 함께 고민하고 탐구하는 기회의 장이다. 여러 도시 중 서울을 선택한 것은 시대적 흐름에 따른 필연적 결정이었다. 문화적 중심지는 10년, 20년 단위로 파리, 런던, 비엔나 등으로 옮겨왔다. 우리는 현재 그 중심이 바로 서울이라고 판단했다. 세계적인 K-컬처의 중심에서 기술과 문화가 만나는 새로운 담론의 장을 여는 것은 우리의 철학을 실현하는 데 있어 매우 중요하며 나아가 서울이 세계를 향해 나아갈 수 있는 거점이 되기를 기대하고 있다. Q. 퍼플렉시티의 핵심 가치인 '호기심(Curiosity)'은 '카페 큐리어스'라는 공간을 통해 어떻게 구현되는가. 방문객들이 이곳에서 기술 데모 이상의 어떤 지적인 영감과 문화적 경험을 얻어 가기를 기대하는가. A. 현재는 아직 초기 단계다. 다만 공간의 핵심 디자인 테마인 '레트로 퓨처리즘(Retro-futurism)'을 통해 우리의 지향점을 명확히 하고자 했다. 이는 1960~70년대 미국에서 우주 탐사와 기술 발전을 통해 미래를 밝게 전망하던 시대의 미학과 낙관주의를 담고 있다. 우리는 이 컨셉을 통해 AI 기술이 인류에게 가져다줄 긍정적이고 밝은 미래에 대한 비전을 시각적으로 전달하고자 한다. 향후 이곳에서 다양한 대화, 강연, 문화 행사를 기획해 나갈 예정이다. 방문객들이 단순히 기술을 체험하는 것을 넘어 지적인 영감을 교류하고 새로운 가능성을 탐색하는 문화적 경험을 제공하는 것이 목표다. Q. 퍼플렉시티의 '문화에 대한 강조'는 아라빈드 스리니바스 최고경영자(CEO)가 '오징어 게임'에 매료돼 배우이자 감독인 이정재의 '아티스트컴퍼니'와 파트너십을 맺은 것과도 맞닿아 보인다. 이 협력을 통해 기술과 엔터테인먼트, 예술을 융합해 어떤 새로운 내러티브를 만들어가고 싶은가. 구체적인 비전을 듣고 싶다. A. 구체적인 프로젝트를 논하기는 아직 이른 단계다. 그럼에도 이정재 감독과 우리는 '문화'와 '엔터테인먼트'라는 공통된 관심사를 바탕으로 깊은 대화를 나누고 있다. 기술과 예술이 어떻게 시너지를 낼 수 있는지에 대한 철학적 교감이 양측 협력의 핵심 기반이다. 사실 어떤 면에서 '카페 큐리어스'는 이러한 교감과 지속적인 대화 속에서 탄생한 첫 번째 협업 결과물이라고 할 수 있다. 현재는 이를 이어 함께 방향성을 모색해 나가는 과정에 있다. Q. 앞서 서울이 새로운 '문화 허브'가 될 것이라고 진단했다. K-콘텐츠가 전 세계적으로 큰 영향력을 발휘하는 지금 '카페 큐리어스' 외에 한국의 독창적인 문화적 자산과 결합해 구상 중인 또 다른 프로젝트나 협력 모델이 있는가. A. '카페 큐리어스'는 시작일 뿐이다. 현재 한국의 독창적인 문화 자산과 시너지를 낼 수 있는 다양한 협력 모델을 적극적으로 검토하고 있다. 구체적인 내용을 공유하기는 아직 이르지만 조만간 여러 흥미로운 소식을 전할 수 있을 것으로 기대한다. Q. 퍼플렉시티는 스스로를 '답변 엔진'을 넘어 궁극적으로 '행동 엔진'으로 정의한다. 이러한 철학이 AI 네이티브 브라우저 '코멧(Comet)'의 설계에는 어떻게 반영됐는가. A. '행동 엔진'이라는 철학은 코멧의 핵심 설계에 그대로 반영돼 있다. 코멧은 단순한 정보 제공자를 넘어 사용자를 깊이 이해하고 대신 행동하는 '에이전트(Agent)'의 역할을 수행하는 것을 목표로 한다. 기존 모델이 질문에 대한 '답변'을 제시하는 데 그쳤다면 코멧은 그 답변을 바탕으로 최적의 '선택'을 하고 이를 '행동'으로 옮기는 단계까지 나아간다. 즉, 코멧은 '행동 엔진'이라는 퍼플렉시티의 철학을 사용자가 직접 경험할 수 있도록 구현한 첫 번째 결과물이다. 현재 데스크톱 버전과 모바일 버전이 출시된 상황이다. Q. 아라빈드 스리니바스 CEO는 '코멧'을 '거의 모든 것을 할 수 있는 운영체제(OS)'로 만들고 싶다고 언급한 바 있다. 이는 기존의 구글 크롬이나 애플 사파리와는 근본적으로 다른 새로운 사용자 경험을 의미하는가. A. 코멧은 구글에서 개발하는 오픈소스 웹 브라우저 및 리눅스 계열 운영체제 프로젝트인 '크로미움(Chromium)' 기반으로 만들어져 외견상으로는 기존 브라우저와 유사해 보일 수 있다. 그럼에도 코멧의 핵심적인 차이는 단순한 검색 기능의 내장을 넘어 브라우저 자체가 사용자의 의도를 먼저 파악하고 행동하는 '지능적 연동성'에 있다. 일례로 사용자가 무언가를 질문하거나 요청하면 코멧은 단순히 검색 결과를 보여주는 것을 넘어 그 의도를 파악해 직접 행동으로 옮기거나 개인화된 다음 행동을 제안한다. 이것이 바로 브라우저가 사용자의 작업을 처리하는 OS로 진화하는 첫 단계다. Q. '코멧 어시스턴트'를 위시한 퍼플렉시티 서비스는 '사고 엔진'이자 '행동 엔진'의 가능성을 보여줬으나 복잡한 요청에는 거대언어모델(LLM)의 구조적 한계에 기반한 '환각(Hallucination)' 현상과 같은 기술적 한계도 명확하다. 퍼플렉시티는 이 신뢰성의 간극을 어떻게 메워나갈 계획인가. A. 정확도와 환각 문제는 모든 프론티어 AI 기업이 마주한 '평생의 과제'다. 우리는 이 문제를 두 가지 차원에서 접근하고 있다. 첫째는 기술적 차원이다. 환각 현상을 최소화하고 데이터 보안을 강화하는 것을 최우선 과제로 삼고 연구개발에 집중하고 있다. 둘째는 사용자 경험(UX) 차원이다. 우리는 신뢰도가 기술적 완벽함만으로 얻어지는 것이 아니라고 본다. 사용자가 직접 검증하고 판단할 수 있는 경험을 제공하는 것이 무엇보다 중요하다. 퍼플렉시티가 모든 답변에 출처를 명확하게 제시하는 이유가 바로 여기에 있다. 이는 사용자가 정보의 근거를 직접 확인하게 함으로써 답변에 대한 신뢰를 스스로 구축하도록 돕는 장치다. 궁극적으로 수많은 AI 서비스들 사이에서 사용자의 최종 선택을 받는 기준은 '신뢰'가 될 것이다. 우리는 기술과 경험 두 가지 측면에서 이 신뢰를 쌓아나갈 것이다. Q. 최근 성장세가 가파르다. 단 1년 만에 연간 반복 매출(ARR) 1억5천만 달러(한화 약 2천억원)를 돌파하는 등 시장의 반응이 뜨겁다. 이 성장의 핵심 동력은 무엇이라고 진단하는가. A. 시장이 우리에게 열광하는 이유는 우리가 LLM 기술을 누구나 일상과 업무에서 편안하게 사용할 수 있도록 돕는 '서비스 레이어'에서 최고를 지향하기 때문이라고 본다. 이를 위해 기술의 성능만큼이나 신뢰도와 안정성, 보안을 핵심 가치로 삼고 있다. 아무리 뛰어난 기술이라도 사용자가 매일 편하게 쓸 수 없다면 의미가 없다. 직관적인 인터페이스와 '일상속의 문화 브랜드'로서의 접근 역시 역시 성장의 핵심 동력이다. 더불어 엔터프라이즈용 서비스의 경우 복잡한 시스템 통합(SI) 과정 없이도 쉽게 도입하고 커스터마이징할 수 있다는 점 역시 중요한 경쟁력으로 작용하고 있다. Q. 이전에 올가을 한국 법인 설립 계획을 밝힌 바 있다. 현재 시점에서 이 계획은 잘 진행되고 있나. A. 내부적으로 전략적 변경이 있었다. 기존 계획은 다소 지연될 예정이며 곧 새로운 소식으로 다시 안내드릴 수 있을 것이다. Q. SK텔레콤, NH투자증권 등 국내 주요 기업들과 파트너십을 맺은 상황이다. 이 과정에서 얻은 핵심적인 인사이트는 무엇이며 향후 어떤 산업 분야에 전략적으로 집중할 계획인가. A. 특정 산업 분야에 국한되지 않을 것이다. AI는 금융, 통신 등을 넘어 모든 산업에 적용될 수 있는 근본적인 기술이기 때문이다. 우리의 목표는 기업 대 소비자(B2C), 기업 대 기업(B2B)을 가리지 않고 우리 기술이 다양한 분야의 파트너들과 함께 최대한 폭넓게 사용되도록 해 생태계를 확장하는 것이다. Q. '캠퍼스 스트래트지스트' 프로그램을 통해 '대학생 프로 플랜 1년 무료'라는 독보적인 정책을 한국에서 시작했다. 1년 넘게 프로그램을 운영하며 한국 학생들에게 받은 가장 인상적인 아이디어나 피드백은 무엇이었나. A. 먼저 '캠퍼스 스트래티지스트'였던 프로그램의 공식 명칭이 '캠퍼스 파트너(Campus Partner)'로 변경됐다는 점을 이 자리를 통해 처음 밝힌다. 특정 아이디어나 피드백을 수집하는 것보다 우리는 AI에 대한 관심이 높은 한국 학생들이 우리의 리소스와 프로그램을 활용해 AI를 어떻게 사용하는지에 더 큰 관심을 두고 있다. 우리의 목표는 그들의 활동을 관찰하는 것이 아니라 그들이 AI를 통해 무엇을 창조하고 성취할 수 있을지 응원하고 지원하는 것이다. 프로그램을 시작한 지 1년이 넘었고 향후 보다 많은 한국 대학들이 이 기회를 활용할 수 있도록 파트너십을 계속 확장해나갈 계획이다. 대학생에게 프로 플랜을 1년간 무료로 제공하는 정책은 다른 국가에서는 찾아볼 수 없는, 한국 시장에 대한 우리의 기대를 보여주는 사례다. Q. 대학생을 대상으로 하는 프로그램이라 마케팅을 넘어 미래 인재들을 위한 장기 투자로도 보인다. A. 맞다. 우리는 AI가 일자리를 없앨 것이라는 비관적인 전망에 동의하지 않는다. 오히려 AI는 개인이 하고 싶은 일을 마음껏 할 수 있도록 돕는 '가장 강력한 도구'가 될 것이다. '캠퍼스 파트너' 프로그램은 학생들에게 바로 이 가능성을 탐험할 기회를 제공한다. 퍼플렉시티를 통해 새로운 프로젝트를 구상하고 미래의 회사를 만들며 자신이 속한 학교와 교육 시스템까지 혁신하는 경험을 하기를 바란다. 이 프로그램은 미래 인재들이 AI를 활용해 스스로 성장하고 새로운 가치를 창출하는 환경을 함께 만들어나가기 위한 장기적인 투자다. Q. 퍼플렉시티는 '호기심(Curiosity)'과 '창조'를 핵심 가치로 강조하고 있고 '카페 큐리어스'는 이러한 철학의 대표적인 발현으로 보인다. 향후 아시아 등 글로벌 시장으로 조직을 확장해 나갈 때 실리콘밸리 본사의 핵심적인 조직 문화를 어떻게 유지하고 이식해나갈 계획인가. A. 우리의 근간에는 실리콘밸리 스타트업의 DNA가 깊이 자리 잡고 있다. 초기 100명 미만이던 시절의 핵심 멤버들 중 상당수가 여전히 회사에 남아 린 스타트업(Lean Startup)의 정신을 지켜나가고 있다. 조직이 확장되더라도 이 DNA는 변하지 않을 것이다. 우리는 스스로 동기를 부여하고 주도적으로 성과를 만들어나간다. 이것이 우리가 가장 '퍼플렉시티 다운' 방식으로 성장하고 핵심 문화를 지켜나가는 방식이다. Q. 그렇다면 그 핵심적인 '스타트업 DNA'를 유지하기 위해 인재를 채용할 때 어떤 자질을 가장 중요하게 보는가. 미래에 지사가 설립된다면 합류할 한국의 인재들은 기술적 역량 외에도 퍼플렉시티가 추구하는 문화적 가치에 어떻게 부합해야 한다고 생각하는가. A. 기술적 역량만큼이나, 어쩌면 그 이상으로 중요한 것은 우리의 문화적 가치에 부합하는지 여부다. 우리는 창의적이고 재능 있는 인재를 찾지만 그만큼 중요하게 보는 것은 '스타트업 DNA'를 내재한 사람인가 하는 점이다. 구체적으로, 주어진 업무를 수동적으로 처리하는 인재보다는 스스로 문제를 찾아 해결하고 자발적으로 성과를 만들어내는 사람을 선호한다. 신속히 움직이면서도 실질적인 결과를 만들어내는 주도적인 자세가 필수적이다. Q. 마지막으로 한국의 잠재적 사용자, 파트너사, 그리고 미래 인재들에게 각각 메시지를 전한다면. A. 우선 사용자들에게는 매일 커피를 마시듯 퍼플렉시티에 자유롭게 질문하며 호기심을 탐구하길 바란다. '호기심'은 AI가 모방할 수 없는 가장 인간적인 가치다. 우리는 모든 한국 사용자들이 매일 보다 나은 선택과 결정을 내릴 수 있도록 돕는 지적 파트너가 될 것이다. 한국의 기업 및 스타트업에게는 우리가 기술과 생태계를 통해 비즈니스의 역량을 대폭 확장하는 파트너가 될 것을 약속한다. 단순히 효율성을 높이는 것을 넘어 '사람을 포용하는 방식'으로 보다 많은 가치를 창출하는 협력이 될 것이다. 미래의 동료들에게는 우리가 '호기심'과 '창의성'을 가진 인재를 언제나 환영한다고 전하고 싶다. AI 산업은 그 어떤 분야보다 신속하게 변화하고 있다. 이에 변화에 적응하며 다음 시대를 함께 고민할 수 있는 동료를 찾고 있다. 전 세계적으로 채용을 진행하고 있으니 우리의 여정에 동참하고 싶다면 언제든 문을 두드려주길 바란다.

2025.09.22 15:07조이환

챗GPT, '국민 AI' 됐다…월 사용자 2천만명 돌파

오픈AI의 '챗GPT'가 국내 스마트폰 사용자 10명 중 4명이 사용하는 국민 앱 반열에 올랐다는 조사 결과가 나왔다. AI 기술이 특정 세대를 넘어 사회 전반의 필수 도구로 자리 잡고 있음을 시사하는 결과다. 2일 와이즈앱·리테일 조사 결과에 따르면 지난달 국내 '챗GPT' 앱의 월간 활성 사용자 수(MAU)는 2천31만 명을 기록했다. 이는 역대 최대치로, 한국인 스마트폰 사용자 5천120만 명의 약 40%에 해당하는 규모다. 이번 수치는 지난해 8월 사용자 수 407만 명과 비교했을 때 약 5배 폭증한 결과다. 가파른 성장세는 '챗GPT'가 대중적 인지도를 넘어 실생활과 업무에 깊숙이 파고들었음을 보여준다. 사용자 층을 세부적으로 살펴보면 20대가 24.2%, 30대가 22.0%, 40대가 22.4%로 도합 68.6%를 차지해 가장 높은 비중을 보였다. 청년 세대가 생성형 AI 기술을 가장 활발하게 수용하고 활용하는 연령대임이 명확히 드러난 셈이다. 그 뒤를 이어 20세 미만이 13.6%, 50대가 12.6%, 60세 이상이 5.2% 순으로 나타나 중장년층과 청소년층에서도 꾸준한 이용 흐름이 관찰됐다. 성별 사용자 비율은 남성 50.1%, 여성 49.9%로 거의 차이가 없어 성별에 관계없이 고르게 사용되는 것으로 분석됐다. 와이즈앱·리테일 측은 "이번 조사는 실시간 앱·결제 데이터 기반 시장 및 경쟁사 분석 솔루션을 통해 한국인 안드로이드 및 iOS 스마트폰 사용자 표본 조사로 실시했다"며 "데이터는 추정 값이며 실제와 차이가 있을 수 있다"고 밝혔다.

2025.09.02 15:39조이환

네이버, KAIST·서울대와 AI 인재 동맹…국가대표 인력 확보 나선다

네이버클라우드가 국내 주요 5개 대학과 손잡고 국가대표급 인공지능(AI) 인재 양성에 나선다. 학생에게는 현장 경험을, 기업에는 우수 인재 확보 기회를 제공해 국내 AI 생태계의 선순환 구조를 만들겠다는 구상이다. 네이버클라우드는 지난 22일 성남 네이버 1784에서 '독자 AI 파운데이션 모델' 프로젝트의 일환으로 산학협력 컨소시엄 협약식을 개최했다고 25일 밝혔다. 이 자리에는 카이스트, 서울대학교, 포항공과대학교, 고려대학교, 한양대학교 등 5개 대학의 교수진과 학생 100여 명이 참석했다. 이 회사는 '산학협력 레지던시 프로그램'을 통해 컨소시엄에 소속된 석박사 과정 학생 30-40여 명을 지원한다. 이들은 연구에만 전념하며 AI 모델 개발과 응용 연구를 공동으로 추진하게 된다. 더불어 이번 협력은 학생들에게 실제 산업 현장에서의 모델 개발 경험을 제공한다. 기업 입장에서는 우수 인재를 조기에 발굴하고 확보할 기회가 열려 산학이 함께 성장하는 선순환 구조를 구축한다는 방침이다. 컨소시엄에는 글로벌 영상 멀티모달 AI 스타트업 트웰브랩스도 참여한다. 네이버클라우드는 자사의 음성·언어 기술에 트웰브랩스의 비전 AI 역량을 결합해 '옴니모델 AI'를 구현할 계획이다. 성낙호 네이버클라우드 하이퍼스케일 기술총괄은 "이번 컨소시엄은 기업과 학계가 각자의 강점을 결합해 미래 AI 인재를 양성하고 국가 차원의 기술 주권과 글로벌 경쟁력을 강화하는 중요한 토대가 될 것"이라며 "단순한 기술 개발을 넘어 국민 누구나 체감할 수 있는 AI 활용 경험으로 이어지도록 완성도를 높여갈 것"이라고 밝혔다.

2025.08.25 11:48조이환

코히어 "AGI 아닌 '엔터프라이즈 AI' 집중…서울 허브로 亞 공략"

"우리의 목표는 범용인공지능(AGI) 경쟁이 아닙니다. 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 투자 대비 수익(ROI)으로 증명하는 '실현 가능한 인공지능(AI)'를 만드는 것입니다. 이 비전을 아시아 전역으로 확산시킬 최적의 허브는 바로 대한민국 서울입니다." 장화진 코히어 아시아태평양(APAC) 총괄사장은 최근 서울 강남에 위치한 코히어 코리아 오피스에서 지디넷코리아와 만나 이같이 밝혔다. 오픈AI, 앤트로픽 등의 거대언어모델(LLM) 기업들이 AGI 개발 무한 경쟁에 뛰어들 때 코히어는 '기업 문제 해결'과 '측정 가능한 ROI'라는 비전에 따라 서울을 중심으로 아태 시장을 공략하겠다는 선언이다. 25일 업계에 따르면 글로벌 AI 시장이 일반 소비자용 챗봇을 넘어 기업간거래(B2B) 시장으로 본격 확장되면서 데이터 보안과 비용 효율성을 갖춘 AI 솔루션에 대한 요구가 커지고 있다. 이같은 흐름 속에서 코히어는 지난달 한국에 APAC 허브를 설립하며 아시아 B2B 시장 공략의 출사표를 던졌다. 이러한 코히어의 결정은 오픈AI와 앤트로픽이 각각 싱가포르와 일본에 거점을 마련한 점과 대비되며 업계의 큰 주목을 받았다. 이는 지난 3월 창업자인 에이단 고메즈 최고경영자(CEO)가 직접 방한해 LG CNS와 파트너십을 발표하며 예고했던 국내 시장에 대한 본격적인 투자의 신호탄이다. 코히어의 전략은 AGI 개발 무한 경쟁에 뛰어든 경쟁사들과는 궤를 달리한다. 설립 초기부터 이들은 일반 소비자 시장이 아닌 명확한 ROI를 요구하는 엔터프라이즈 B2B 시장에만 집중해왔다. 이러한 철학은 최근 공식 출시한 에이전트 AI 플랫폼 '노스(North)'에 집약돼 있다. '노스'는 코딩 지식이 없는 현업 담당자도 손쉽게 AI 솔루션을 구축하고 배포하게 해주는 엔드투엔드(End-to-End) 플랫폼이다. 장 총괄사장은 "최근 MIT 보고서에 따르면 기업 AI 기술검증(PoC)의 95%가 실패하는데 이는 범용 AI가 기업 내부의 복잡한 시스템과 통합되지 못하기 때문"이라며 "'노스'는 바로 이 '통합의 문제'를 해결함으로써 기업이 실질적인 ROI를 달성하도록 돕는 솔루션"이라고 설명했다. 코히어의 자신감은 ▲보안 ▲비용 효율성 ▲다국어 지원이라는 세 가지 차별점에서 비롯된다. 장 총괄사장에 따르면 이중 핵심은 '보안'으로, 코히어는 외국계 기업임에도 대한민국 외교부 프로젝트를 수주하며 시장의 신뢰를 증명했다. 모든 솔루션을 고객사 데이터센터에 직접 설치하는 '온프레미스 배포'를 원칙으로 데이터가 외부로 유출될 가능성을 원천 차단했기 때문이다. 이같은 온프레미스 방식에는 막대한 하드웨어 투자 비용이 걸림돌이 될 수 있다. 이러한 '비용 효율성' 문제 역시 아키텍처 최적화로 해결했다는 것이 장 총괄사장의 설명이다. 그는 "경쟁사 모델이 16개 이상의 그래픽처리장치(GPU)를 요구할 때 우리의 LLM '커맨드'는 단 2개의 GPU만으로 동일하거나 더 나은 성능을 보인다"고 밝혔다. 마지막 강점은 '다국어 역량'이다. '커맨드' 모델은 한국어를 포함해 34개 언어를 공식 지원한다. 이러한 역량의 배경에는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 아래 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발한 비영리 단체 '코히어 랩스(Cohere Labs)'가 있다. 이 세 가지 강점의 조합이 코히어만의 '스윗 스팟(Sweet Spot)'을 만든다. 데이터 규제가 엄격한 금융, 공공, 헬스케어는 물론 에너지, 제조, 통신 등 국가 핵심 산업이 회사의 핵심 목표시장이다. 코히어의 기술적 깊이는 업계 최고 수준의 검색증강생성(RAG) 스택에서도 드러난다. 실제로 RAG 기술을 최초로 개발한 패트릭 루이스 코히어 에이전틱 AI 디렉터가 현재 직접 회사의 관련 솔루션 개발을 이끌고 있다. 장 총괄사장은 "미국의 한 헬스케어 기업은 우리 RAG의 '정확한 출처 제시(Citation)' 기능을 통해 환자 데이터 등 민감한 정보 검색에서 높은 신뢰도를 확보했다"고 소개했다. 국내 시장에서는 LG CNS와의 파트너십을 통해 초기 시장 개척의 발판을 마련한 상황이다. 장 총괄사장에 따르면 코히어의 기술적 우위, 특히 LLM을 특정 산업 환경에 맞춰 깊이 있게 미세조정(Customization)할 수 있는 역량이 파트너십의 핵심 동력으로 작용했다. 그는 "아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다"며 "공공·금융 분야의 성공 사례를 바탕으로 제조, 유통 등 다른 핵심 산업 분야에서도 한국 기업에 최적화된 솔루션을 제공해 나갈 것"이라고 밝혔다. 궁극적으로 코히어의 전략은 '소버린 AI'라는 시대적 요구와 맞닿아있다. 캐나다 토론토에 본사를 둔 이 회사는 미·중 패권 구도에서 비교적 벗어나 있어 각국의 데이터 주권 확보를 지원하는 최적의 파트너임을 자처한다. 온프레미스 배포를 통해 데이터 통제권을 고객에게 완전히 넘겨주고 오픈소스 모델 '아야'로 다국어·다문화 AI 기반을 제공하는 투트랙 전략이다. 특히 서울 허브는 단순한 영업 지사를 넘어 코히어의 아시아태평양 사업 전체를 이끄는 핵심 기지가 될 전망이다. 이미 본사 직속 머신러닝(ML) 엔지니어를 채용하며 테크 조직으로서의 면모를 갖췄고 최근 일본 지사장을 선임하는 등 아시아 전역으로의 확장을 준비하고 있다. 장 총괄사장은 "우리는 단순 소프트웨어 판매사가 아니라 기업의 문제를 함께 해결하고 ROI를 증명하는 '파트너'"라며 "전 세계 최고 수준의 전문가들과 함께 아시아태평양 지역의 비즈니스를 키워나가는 여정에 동참해달라"고 강조했다. 아래는 장화진 총괄사장과의 일문일답. Q. 오픈AI, 앤트로픽 등 다른 프론티어 AI 기업들은 일본이나 싱가포르를 첫 아시아 거점으로 삼았다. 이와 달리 코히어는 한국을 아시아태평양(APAC) 허브로 선택했다. 특별한 이유가 있나. A. 한국은 선진적인 디지털 인프라, 우수한 AI 인재, 고도로 발달된 기술 생태계를 모두 갖춘 곳이다. 특히 최근 정부와 기업 모두 '소버린 AI' 등으로 대표되는 AI 이니셔티브에 대한 관심과 수요가 매우 높다. 이러한 환경 덕분에 한국은 우리의 AI 솔루션을 가장 먼저 선보이고 아시아 전역으로 확산시킬 최적의 허브라고 판단했다. 이는 개인적으로 과거 여러 글로벌 테크 기업에서 일하며 얻은 확신이기도 하다. 한국 고객들은 요구사항 수준이 높고 기술적으로도 매우 앞서있다. 여기서 통하는 솔루션이라면 다른 어떤 시장에서도 성공할 수 있다는 의미다. Q. 여타 프론티어 AI랩들이 AGI 경쟁에 뛰어든 가운데 코히어는 수익화 가능한 기업 문제 해결에 집중하는 점이 인상적이다. 이러한 비즈니스 철학은 어디서 비롯됐나. (지난 2017년 생성형 AI의 기반 기술인 트랜스포머를 고안한) 에이단 고메즈, 닉 프로스트, 아이반 장이라는 세 공동창업자의 역할과 비전이 코히어의 전략에 어떻게 반영되고 있나. A. 실제로 우리의 목표는 AGI 경쟁이 아니라 기업이 실제 현장에서 직면하는 비즈니스 문제를 해결하고 그 가치를 직접 수치화해 개선하는 '실현 가능한 AI'를 만드는 것이다. 이것이 일반 소비자 시장이 아닌 엔터프라이즈 B2B 시장에 집중하는 이유다. 창업자 각자의 역할도 명확하다. 에이단 고메즈 CEO는 혁신을 통해 비즈니스 문제를 해결하는 데, 닉 프로스트 공동창업자는 차세대 AI 기술 개발과 사용자 경험(UX)에, 아이반 장 공동창업자는 실제 제품 개발을 총괄하는 데 집중한다. 특히 아이반은 이달 출시한 에이전트 AI 플랫폼 '노스' 개발을 직접 이끌었다. 여기에 공공 분야에도 관심이 많아 캐나다 정부와 협력하며 데이터 보안 및 주권(Residency) 문제에 깊이 관여하고 있다. 이 세 명의 공통된 비전은 "기업의 문제를 실질적으로 해결해 투자 대비 수익(ROI)을 신속히 실현하는 AI를 만들자"는 것이다. Q. 코히어의 제품 포트폴리오가 궁금하다. 핵심 제품인 노스(North), 커맨드(Command), 임베드(Embed), 리랭크(Rerank)는 각각 어떤 문제를 해결하며 이 솔루션들이 하나의 플랫폼으로서 어떻게 시너지를 내는가. A. 우리 제품군은 크게 파운데이션 모델과 이를 감싸는 플랫폼으로 나뉜다. 파운데이션 모델의 핵심은 '커맨드' LLM이다. 오랜 시간과 막대한 비용이 소요될 초거대 모델 대신 기업이 당장 효율적으로 쓸 수 있도록 최적화된 모델이다. 경쟁사가 수십 개의 GPU를 요구할 때 '커맨드'는 최소 단 2개의 GPU만으로도 비슷하거나 보다 나은 성능을 낸다. 특히 온프레미스 환경에서 아랍어 등 특정 언어의 다양한 방언이나 산업별 용어에 맞춰 미세조정이 가능한 것이 강점이다. 강력한 검색증강생성(RAG) 스택을 구성하는 '임베드(Embed)'와 '리랭크(Rerank)'도 있다. '임베드'는 100개 이상의 언어를 기반으로 텍스트는 물론 PDF, 이미지, 그래프 속 데이터까지 검색하고 '리랭크'는 이렇게 찾아낸 정보들 중 가장 정확하고 연관성 높은 답변의 순위를 매겨 제시한다. 이 모든 모델을 감싸는 것이 바로 에이전트 AI 플랫폼인 '노스'다. 이달 공식적으로 전 세계에 출시한 '노스'는 프로그래밍 지식이 필요 없는 노코드(No-code) 기반의 엔드투엔드 플랫폼이다. 최근 MIT 보고서에 따르면 기업 AI PoC의 95%가 실패하는데 이는 범용 AI 툴이 기업 내부의 전사적 자원관리(ERP), 데이터베이스(DB) 등 각기 다른 시스템과 연동되지 않아 실질적인 워크플로우에 적용될 수 없기 때문이다. 이 '통합의 문제'를 해결하는 것이 '노스'의 핵심이다. '노스'는 AI가 실제 업무 프로세스에 깊숙이 통합되도록 설계됐다. 이를 통해 기업들이 PoC 단계의 장벽을 넘어 실질적인 ROI를 신속히 달성하도록 돕는다. 즉, '커맨드', '임베드', '리랭크'가 엔진이라면 '노스'는 기업이 이 엔진을 손쉽게 활용해 AI 솔루션을 구축하고 배포하게 해주는 완성된 차체와 같다. Q. 외국계 기업임에도 대한민국 외교부 프로젝트를 수주한 사례가 놀랍다. 민감한 데이터를 다루는 공공·금융·헬스케어 기업들이 코히어를 선택하는 이유는 무엇인가. A. 핵심적인 이유는 온프레미스에 기반한 보안 역량이라고 본다. 공공·금융·헬스케어처럼 규제가 많은 산업에 있어 온프레미스 배포는 한국뿐만 아니라 아시아 및 글로벌 시장의 핵심 요구사항이다. 기업의 기밀문서가 외부 인터넷으로 나가는 것을 원천 차단해 보안 우려를 해소할 수 있기 때문이다. 우리는 이 지점에 주목해 우리의 모든 솔루션이 온프레미스 환경에서 완벽하게 작동하도록 설계했다. 특히 최근 주목받는 '에이전트 AI'를 제대로 활용하려면 이 지점이 보다 중요해진다. 에이전트 AI가 직원처럼 일하려면 그 직원이 접근할 수 있는 모든 내부 데이터베이스와 애플리케이션에 접근해야 하는데 클라우드 기반 AI는 보안 규제 때문에 이 접근이 막히는 경우가 많다. 우리는 '노스'를 통해 이 문제를 해결한다. '노스'는 업계 표준 기술인 모델 컨텍스트 프로토콜(MCP)을 기반으로, 온프레미스 환경 속에서도 구글·마이크로소프트(MS) 솔루션부터 SAP·오라클 등의 ERP, 이외 맞춤형 DB까지 기업이 사용하는 거의 모든 시스템과의 연결을 지원한다. 이같이 포괄적인 데이터 접근을 보안 걱정 없이 구현하기에 직원들은 에이전트 AI를 통해 효율적으로 일할 수 있게 된다. Q. 온프레미스 방식이 보안에는 유리하지만 GPU 클러스터 구축 등 막대한 초기 하드웨어 투자 비용이 부담으로 작용할 수 있다. 코히어는 이 비용 효율성 문제를 어떻게 해결했나. A. 온프레미스 AI 도입 시 고객들이 가장 우려하는 부분이다. 우리는 LLM 아키텍처를 기업 환경에 맞게 고도로 최적화해 이 문제를 해결한다. 앞서 언급했듯 경쟁사 모델이 제대로 성능을 내기 위해 16개 이상의 GPU를 필요로 하는데 비해 '커맨드' 모델은 단 2개의 GPU만으로도 동일하거나 보다 뛰어난 결과를 보여준다. 결과적으로 고객은 훨씬 적은 비용으로 온프레미스 AI를 구축하고 운영할 수 있다. Q. 한국뿐 아니라 일본, 동남아 등 다양한 언어가 공존하는 아시아 시장에서 다국어 능력은 필수적이다. 코히어 솔루션의 언어 역량은 어느 수준인가. A. '커맨드'는 공식적으로 한국어, 일본어, 중국어, 베트남어 등 34개 언어를 지원한다. 특히 아랍어의 경우 다양한 지역 방언들도 동시에 구사하는 등 우수한 언어 역량을 보여준다. 이러한 공식 지원 언어는 계속 확장해 나갈 계획이다. 이러한 역량의 배경에는 우리 비영리 단체인 '코히어 랩스'가 있다. 이 단체는 "AI의 혜택이 영어권에만 집중돼서는 안 된다"는 철학 하에 전 세계 AI 개발자들을 모아 100개 이상의 언어를 지원하는 오픈소스 모델 '아야(Aya)'를 개발했다. '아야'를 통해 확보된 기술력이 코히어의 상용 플랫폼에도 그대로 녹아들어 강력한 다국어 처리 능력을 갖추게 될 수 있었다. Q. 앞서 설명한 보안, 비용 효율성, 다국어 지원이라는 강점을 종합해 보면 코히어는 온프레미스·고규제 환경에서 사실상 경쟁자가 없는 독자적인 영역, 즉 '스윗 스팟'을 가지고 있는 것으로 보인다. A. 맞다. 우리의 경쟁력은 이 모든 요소를 동시적으로 제공하는 데 있다. 단순히 온프레미스에서 작동하는 에이전트 AI를 넘어 그 기반이 되는 LLM인 '커맨드'와 검색 스택인 '임베드' 및 '리랭크'까지 엔드투엔드로 제공하면서 동시에 특정 언어와 산업에 맞춰 미세조정할 수 있는 것은 현재 코히어가 유일하다고 본다. 이러한 면에서 볼 때 우리의 '스윗 스팟'은 바로 이 조합을 가장 필요로 하는 기업들이다. 대표적으로 데이터 규제가 엄격한 금융, 공공, 헬스케어 분야가 핵심 타겟이다. 그 외에도 국가 핵심 전략 산업인 에너지, 제조, 통신 분야의 글로벌 기업들과도 활발히 협력하고 있다. 벨 캐나다, 사우디 텔레콤 등이 좋은 사례다. Q. 회사의 RAG 스택 역시 업계에서 독보적인 강점을 보이는 것으로 알려져 있다. 이 기술력이 실제 고객 환경에서 가장 큰 차이를 만든 사례를 소개해달라. A. RAG 기술을 처음으로 개발한 패트릭 루이스가 현재 우리의 관련 솔루션 개발을 이끌고 있다. 덕분에 우리 RAG 스택은 업계 최고 수준이라고 자부한다. 그 효과의 가장 대표적인 사례는 미국의 한 헬스케어 기업이다. 생명과 직결되는 분야인 만큼 내부 데이터 검색의 정확성은 무엇보다 중요하다. 우리 RAG 솔루션은 이 기업의 방대한 내부 의료 프로토콜, 가이드라인, 환자 데이터 등을 기반으로 정확한 답변을 찾아준다. 더불어 우리의 강점은 '정확한 출처 제시'에 있다. 모든 답변에 근거가 된 문서의 출처를 명확히 밝혀주기 때문에 사용자는 언제든 원문을 직접 확인하며 정보의 정확성을 재차 검증할 수 있다. 이는 환각 현상을 억제할 뿐 아니라 결과에 대한 신뢰도를 극대화하는 핵심 기능이다. Q. 국내 시장에서는 LG CNS와의 협력이 가장 주목받았다. LG CNS를 첫 파트너로 선택한 이유는 무엇이며 이 파트너십이 외교부 프로젝트 수주와 같은 성과로 이어진 과정이 궁금하다. A. LG CNS는 규모가 크고 우수한 AI 인력을 보유했으며 동시에 금융권을 포함한 대외 사업에서 강력한 역량을 갖추고 있어 첫 파트너로 선택했다. 파트너십의 핵심은 'LLM 커스터마이제이션(미세조정)'에 있다. 아키텍처 구조상 미세조정이 어려운 경쟁사들과 달리 우리는 LG CNS가 한국의 공공·금융 환경에 특화된 자체 LLM을 만들 수 있도록 지원했다. 외교부 프로젝트는 이러한 협력의 대표적인 성공 사례다. 외교부는 수많은 내부 기밀문서를 다뤄야 하므로 온프레미스 환경이 필수적이었고 동시에 전 세계의 다양한 언어를 처리할 다국어 역량이 필요했다. 우리는 LG CNS와 함께 '똑똑한 AI 외교관'이라는 목표 아래 이 두 가지 핵심 요구사항을 모두 충족하며 프로젝트를 수주할 수 있었다. Q. LG CNS 외에 국내 시장에서 전략적으로 우선순위를 두는 다른 산업 분야나 파트너 유형이 있나. A. 우리의 '스윗 스팟'인 고규제 산업과 공공 분야를 계속해서 우선순위에 둘 계획이다. LG CNS와 집중하고 있는 공공·금융 분야 외에도 제조, 헬스케어, 통신, 에너지 등 국가 핵심 산업의 선도 기업들과 파트너십을 확대해 나갈 것이다. 이러한 모든 미래 협력의 중심에는 에이전트 AI 플랫폼인 '노스'가 자리하게 될 것이다. Q. 한국을 포함한 아태 시장에서는 데이터 주권과 각국의 상이한 규제를 존중하는 '소버린 AI'에 대한 요구가 커지고 있다. 국가별로 규제 환경이 다른 아시아태평양(APAC) 지역에 대응하는 코히어의 접근법은 무엇인가. A. 앞서 언급한 우리의 아키텍처 자체가 답이다. 우리 솔루션은 고객사의 데이터센터에 직접 설치하는 온프레미스 배포가 핵심이기 때문이다. 이를 통해 데이터 현지화(Localization), 보안, 개인정보보호 등 각국의 다양한 규제 요구사항을 원천적으로 충족시킨다. 가장 중요한 원칙은 "데이터 통제권은 전적으로 고객에게 있다"는 것이다. 고객의 데이터로 우리 모델을 미세조정하더라도 그 데이터는 절대 해당 기업이나 정부 기관의 방화벽 밖으로 나가지 않는다. 심지어 솔루션을 제공하는 우리조차도 고객 데이터에 접근하거나 들여다볼 수 없다. 기술을 제공할 뿐 데이터에 대한 모든 관리와 통제권은 고객이 갖는다. 이것이 우리가 다양한 규제 환경에 대응하는 방식이다. Q. AI 패권이 미국과 중국 중심으로 재편되는 가운데 한국, 캐나다, 프랑스, 인도 등이 제3의 AI 강국이 되기 위한 경쟁도 치열하다. 이 구도 속에서 코히어는 한국이 글로벌 AI 리더로 도약하기 위해 어떤 지원을 할 수 있나. A. 창업자인 에이단 고메즈가 캐나다 국적이듯 우리는 미국·중국 AI 패권 구도에서 비교적 벗어나 캐나다 토론토에 본사를 둔 기업이다. 최근 우리가 캐나다 정부와 파트너십을 맺고 소버린 AI 구축을 지원하는 것처럼 우리는 이 경험과 철학을 다른 국가에도 동일하게 적용한다. 나라마다 소버린 AI의 정의가 조금씩 다르지만 코히어가 한국을 지원하는 방식은 두 가지 축으로 명확히 나뉜다. 첫째는 우리 모델을 온프레미스 방식으로 제공해 한국의 데이터와 문화를 담은 고유의 AI 모델을 만들 수 있도록 돕는 것이다. 핵심은 AI 모델과 데이터에 대한 모든 통제권이 전적으로 한국 정부나 기업에 있다는 점이다. 둘째는 비상업적인 기여다. 앞서 언급한 우리의 비영리단체인 '코히어 랩스'에서 나온 100개 이상의 언어를 지원하는 모델 '아야'는 글로벌 오픈소스 커뮤니티에 올라와 있다. 이를 누구나 다운로드 받아 전 세계 모든 국가가 자체적인 AI 주권을 확보할 수 있도록 기술적 기반을 제공하고 있는 것이다. Q. 코히어 서울 허브는 회사의 아태 전략에서 어떤 역할을 담당하며 향후 아시아 시장 확장 계획은 어떻게 되나. A. 서울 허브는 아태 확장 전략의 핵심 기지다. 현재는 영업, 기술 배포, 고객 성공(Customer Success)을 책임지며 국내 시장 확산에 집중하고 있지만 동시에 기타 아시아 시장 진출을 위한 전략을 설정하는 역할도 맡고 있다. 구체적으로는 한국, 일본, 싱가포르를 최우선 집중 시장으로 보고 있다. 최근 일본 지사장을 선임해 이달 말 온보딩을 앞두고 있으며 일본 지사 설립도 곧 가시화될 것이다. 이후 단계로는 인도와 호주 시장 진출을 계획하고 있다. Q. 서울 허브가 단순한 영업 지사를 넘어 연구개발(R&D) 기능을 포함한 기술 조직으로 확장될 가능성도 있나. A. 이미 단순한 영업 지사가 아니다. 현재 국내에서 영업, 솔루션 아키텍트(SA), 고객 성공 매니저(CSM) 등 비즈니스 인력과 더불어 본사 직속으로 근무하는 머신러닝(ML) 엔지니어를 이미 채용했고 계속 충원하고 있다. 향후 아시아태평양 마케팅 인력까지 채용할 계획으로, 서울 허브는 코히어의 아시아 사업 전반을 이끄는 핵심 기술 및 비즈니스 조직으로 성장할 것이다. Q. 한국 허브 채용에서 가장 중점적으로 보는 역량과 인재상은 무엇인가. A. AI 분야에 대한 역량과 관심은 기본이다. 이 외에는 '산업 도메인에 대한 깊은 이해'를 갖춘 인재를 찾고 있다. B2B 비즈니스에 집중하기 때문에 고객이 속한 산업의 문제를 이해하고 함께 해결하려는 의지와 관심이 중요하다. 특히 우리의 '스윗 스팟'인 금융, 제조, 공공 등 규제가 많은 산업에 대한 이해도가 높은 분이라면 더욱 환영한다. Q. 마지막으로 한국의 엔터프라이즈 의사결정자, 개발자, 그리고 코히어 합류를 꿈꾸는 인재들에게 각각 메시지를 전한다면. A. 먼저 엔터프라이즈 의사결정자들께는 우리가 단순한 소프트웨어 판매사가 아닌 기업의 비즈니스 문제를 함께 해결하는 '파트너'가 되겠다고 약속한다. 우리는 AI를 가장 신속하고 쉽게 도입해 실질적으로 측정 가능한 ROI를 신속히 제시하는 데 집중한다. 이 모든 과정은 데이터 보안을 최우선으로 하는 프라이빗 배포(Private Deployment)를 통해 안전하게 제공될 것이다. 개발자들께는 차세대 AI 솔루션을 함께 만들자고 제안하고 싶다. 우리는 최첨단 기술을 다루는 기업으로서 에이전트 AI 플랫폼을 기반으로 B2B 고객에게 실질적인 가치를 제공하는 의미 있는 솔루션을 개발하고자 한다. 마지막으로 미래의 동료가 될 인재들께는 보람 있고 의미 있는 여정에 동참해달라고 말하고 싶다. 전 세계 최고 수준의 AI 전문가들과 함께 최첨단 기술이 실제 산업 현장에 어떻게 적용되는지 경험하고 우리의 아태 비즈니스를 키워나가는 성장의 기회를 잡길 바란다.

2025.08.25 10:58조이환

"미래 인재는 우리가 먼저"…퍼플렉시티의 '파격' 제안에 글로벌 MZ 관심 ↑

퍼플렉시티가 한국을 포함한 전 세계 대학생들과 직접 실전 마케팅을 펼치는 프로그램을 운영한다. 미래의 잠재고객인 대학생 커뮤니티 내 영향력을 강화하고 기술과 마케팅에 능통한 인재를 조기 발굴하려는 포석이다. 퍼플렉시티는 글로벌 대학생을 대상으로 '2025 캠퍼스 스트래티지스트(Campus Strategist)' 프로그램 참가자를 모집한다고 30일 밝혔다. 지원 접수는 다음달 15일까지 퍼플렉시티 공식 프로그램 페이지를 통해 진행하며 선발 인원은 대학당 최대 3명이다. 이번 프로그램은 퍼플렉시티 AI를 사용하는 대학생들이 직접 실전 마케팅 캠페인을 기획하고 실행하며 AI 기술과 마케팅 현장 경험을 쌓도록 설계됐다. 선발된 참가자는 퍼플렉시티 리더십 및 그로스(Growth)팀과 직접 협업하며 캠퍼스 내 마케팅 활동을 자율적으로 펼친다. 참가자에게는 기획한 프로모션을 위한 소정의 마케팅 예산이 지원된다. 또 유료 구독 서비스인 퍼플렉시티 프로 계정과 현재 개발 중인 기능에 대한 얼리 액세스 권한도 제공받는다. 정규 학기 중인 전일제 대학생이라면 전공과 무관하게 지원할 수 있으나 기본적인 영어 소통 능력은 필수다. 퍼플렉시티는 창의적 사고, 소통 능력, 자기주도적 실행력을 갖춘 인재를 우대하며 플랫폼 이해도가 높거나 캠퍼스 내 리더십 경험이 있는 지원자를 환영한다고 설명했다. 활동 최상위 우수 성과자에게는 파격적인 특전이 주어진다. 미국 샌프란시스코에 위치한 퍼플렉시티 본사 방문 기회와 함께 공식 추천서가 제공된다. 성과에 따른 현금 보상도 지급될 예정이다. 이 프로그램은 전 세계 각국에서 선발된 다른 캠퍼스 스트래티지스트들과 교류할 기회도 제공한다. 이를 통해 참가자들은 글로벌 역량을 키울 수 있을 것으로 기대된다. 지난해 '2024 캠퍼스 스트래티지스트'로 선발된 한국 학생들은 국내 대학생들을 위한 특별 프로모션을 직접 제안해 성사시킨 바 있다. 학생 이메일로 가입하는 대학생에게 지난 4월부터 두달간 1년간 프로 계정을 무료 제공하는 내용이었다. 당시 캠퍼스 스트래티지스트로 활동한 서울대학교 4학년 오지승 씨는 "학생들을 위한 플랫폼 구축에 기여하면서 마케팅 전략에 대해 많이 배울 수 있었다"며 "한국 학생들이 기술 변화에 때로 뒤쳐진다는 느낌을 받을 때도 있는데 퍼플렉시티를 더 쉽게 접하도록 하고 일찍부터 관심을 이끌어낼 수 있어 의미가 컸다"고 밝혔다.

2025.07.30 09:40조이환

"챗GPT보다 싸고 빠르다"…라이너, 검색 LLM으로 AI 검색 시장 '정조준'

라이너가 '챗GPT'보다 정확하고 비용 효율적인 자체 검색 인공지능(AI) 성능을 공개했다. 핵심은 리서치에 최적화된 검색 결과를 신속히 제공하는 구조와 이를 뒷받침하는 데이터 기반 학습 역량이다. 라이너는 자사 '라이너 검색 LLM'이 AI 검색 컴포넌트 성능 비교 평가에서 오픈AI 'GPT-4.1'보다 우수한 결과를 기록했다고 3일 밝혔다. 이번 모델은 기존 오픈 소스 기반 구조 위에 10여 년간 축적한 방대한 사용자 데이터를 사후 학습 방식으로 적용해 정확도와 처리 속도를 높였다. 토큰당 비용도 평균 30~50% 절감한 것으로 나타났다. '라이너 검색 LLM'은 질문 분석부터 답변 생성까지 검색형 에이전트의 전 과정을 처리하는 데 필요한 8개 컴포넌트를 통합 구성한 모델이다. 이 중 카테고리 분류, 과제 분류, 외부 도구 실행, 중간 답변 생성 컴포넌트는 성능·속도·비용 전 항목에서 'GPT-4.1'을 상회했다. 특히 실제 서비스 환경에서 재현성과 신뢰성을 기반으로 성능을 측정한 점이 주목된다. 단순 벤치마크 수치가 아니라 실사용 기반 결과를 중심으로 비용·속도·정확도의 균형을 검증한 구조다. 이로 인해 기존 대형 모델 대비 가볍고 빠른 검색형 LLM 구현이 가능해졌다는 평가다. 라이너는 수년간 테스트와 개선을 반복하며 LLM 학습 구조를 고도화해 왔다. 자사 사용자 데이터를 활용한 정밀 학습을 통해 질문 처리 구조를 체계화하고 할루시네이션 가능성을 줄이는 방향으로 검색 정확도를 끌어올렸다는 설명이다. 검색 LLM의 비용 경쟁력 역시 차별점으로 꼽힌다. 'GPT-4.1' 대비 평균 30~50% 낮은 토큰당 처리 비용으로, 대규모 트래픽이 발생하는 검색형 에이전트 환경에서도 운영 효율성과 수익성 확보가 가능하다는 계산이다. 조현석 라이너 테크 리드는 "'라이너 검색 LLM'은 8가지 모든 컴포넌트에서 '챗GPT'를 뛰어넘는 성능을 입증했다"며 "어떤 데이터를 어떻게 학습하고 어떤 구조로 질문을 처리하느냐가 AI 할루시네이션을 줄이는 핵심"이라고 밝혔다. 이어 "데이터 학습과 연구 개발에 꾸준히 집중해 온 노력이 차별화된 AI 에이전트 기술 경쟁력으로 이어졌다는 점에서 의미가 크다"고 말했다.

2025.07.03 16:56조이환

[현장] 통합형 LLM·멀티소스 RAG로 '출격'…코난테크놀로지, 올해 실적 반등 노린다

"생성형 인공지능(AI)의 핵심은 더 이상 모델 성능의 경쟁이 아닙니다. 이제는 얼마나 실질적인 업무 수요를 반영하고 이를 통해 실제 성과를 만들어낼 수 있는가가 관건입니다." 김영섬 코난테크놀로지 대표는 13일 서울 광화문 호텔 코리아나에서 열린 기자간담회에서 이같이 밝히며 자체 개발한 차세대 거대언어모델(LLM), 신규 인공지능(AI) 제품군, 이를 아우르는 사업화 전략과 기술 로드맵을 공개했다. '추론 통합형 LLM부터 AI PC까지'라는 주제로 진행된 이번 간담회는 실제 업무 현장에서 검증 가능한 생성형 AI 기술을 중심으로, 코난테크놀로지가 독자 개발한 코난 LLM 'ENT-11', 레거시 연동형 검색증강생성(RAG) 시스템 'RAG-X', 그리고 온디바이스 AI 솔루션 'AI스테이션' 등을 소개하는 자리였다. 김 대표는 환영사에서 "지난 26년간 축적해온 기술 역량을 기반으로 우리는 단순 모델 성능이 아닌 비즈니스 실효성과 현장 접목 가능성에 초점을 맞춘 생성형 AI 전략을 펼쳐가고 있다"며 "제품군 확장을 통해 AI의 도입 허들을 낮추고 시장 성과로 이어지는 환경을 주도하겠다"고 강조했다. 실무형 RAG·통합형 LLM 앞세워…공공·의료 레퍼런스 '확보' 임완택 코난테크놀로지 전략기획본부 상무는 이날 간담회에서 검색증강생성 기술 기반의 신규 제품 '코난 RAG-X'를 소개했다. 발표에 앞서 그는 "LLM은 아무리 고성능이어도 최신 정보를 반영하지 못하고 사내 문서처럼 민감한 내부 데이터를 다루지 못하는 아키텍처 상의 한계가 있다"며 "우리는 이 한계를 실무 환경에서 해결하기 위해 RAG 기술을 핵심으로 재설계했다"고 설명했다. 임 상무에 따르면 '코난 RAG-X'는 단순한 외부 검색용 챗봇이 아니라 내부 데이터베이스(DB), 레거시 시스템, 공공기관 데이터, 뉴스, 논문, 커뮤니티 자료 등 다양한 정보를 연동해 활용할 수 있도록 구성된 멀티소스 기반의 B2B 특화형 시스템이다. 퍼플렉시티처럼 외부 웹에 의존하는 B2C형 RAG 솔루션과 달리 온프레미스 환경에서 구동돼 사내 민감 데이터가 외부로 유출될 우려 없이 운용 가능하다. 그는 기술 구조에도 차별점이 있다고 설명했다. 단일 질문에 대해 즉시 응답하는 일반형 RAG와 달리 '코난 RAG-X'는 하나의 복합 질문을 다단계 질의로 나누고 각 하위 질의에 대해 순차적으로 정보를 검색·검증한 뒤 최종 응답을 조합하는 구조다. 일례로 "최근 3개월간 대출 연체가 발생한 건설사를 알려주고 각 기업의 자본금, 분양 실적, 관련 뉴스 반응을 종합해 리스크 대응 전략을 보고서로 만들어줘" 같은 질의도 단계별로 자동 처리 가능하다는 설명이다. 이러한 구조 덕분에 'RAG-X'가 금융, 공공, 제조업처럼 의사결정 과정이 복잡하고 규제 요건이 엄격한 B2B 환경에서 유효하는 설명이다. 실제 도입을 검토하는 고객들도 질문부터 보고서 작성에 이르는 전 과정을 하나의 AI로 대체할 수 있다는 점에 높은 관심을 보이고 있다는 것이다. 이어 발표를 맡은 도원철 코난테크놀로지 연구소 상무는 회사의 최신 LLM '코난 ENT-11'을 중심으로 단일 모델 구조와 추론 성능 개선 내용을 발표했다. 그는 "'ENT-11'은 일반 모드와 추론 모드를 하나의 엔진으로 통합한 국내 유일의 모델"이라며 "별도 모델을 병행 도입할 필요 없이 다양한 업무에 확장 적용할 수 있다"고 강조했다. 도 상무는 'ENT-11'이 기존의 범용 생성 모델과 달리 정밀 추론에 특화된 구조를 갖췄다고 설명했다. 단순 질의응답을 넘어 수학 계산, 법률 문서 해석, 테이블 기반 질의 등 복합 태스크까지 하나의 모델로 처리할 수 있도록 설계됐다는 설명이다. 현장에서는 세 가지 시연이 진행됐다. 첫 번째는 법원 판결문을 기반으로 양형 인자 항목을 추출하는 과제였다. 'ENT-11'은 해당되는 양형 인자를 골라낸 뒤 문서 내 근거 문장까지 함께 출력해 응답의 신뢰성을 높였다. 더불어 신축 건물 정보를 담은 테이블에서 대지 면적의 총합을 계산하는 과제에서는 테이블 내 조건 필터링, 수치 추출, 합산 계산을 모두 수행해 정확한 결과를 출력했다. 또 유명한 AI 수학 벤치마크인 'MATH500' 문제를 'ENT-11'이 풀었고 94점을 기록했다는 결과도 공유됐다. 도 상무는 "'ENT-11'이 딥시크 'R1' 대비 20분의 1 규모의 파라미터로 유사한 수준의 성능을 냈고 한국어 추론에서는 더 높은 정확도를 확보했다"며 "설명 가능한 추론 과정을 한국어로 출력하는 기능은 현재 ENT-11이 유일하다"고 덧붙였다. 이어 이형주 코난테크놀로지 AI사업부 이사는 코난 LLM의 실제 도입 사례와 산업별 적용 효과를 소개했다. 이 이사에 따르면 한국남부발전은 발전사 최초로 생성형 AI를 전사 35개 태스크와 15개 시스템에 연동해 구축했다. 발전소 운영에 필요한 기술문서, 정책 자료, 현장 보고서 등을 자동 분류·요약·생성하는 데 코난 LLM이 적용됐으며 연간 약 10만 시간의 업무 절감과 최대 51억원 규모의 생산성 향상이 기대된다. 한림대학교의료원 역시 의료진이 매일 작성하는 일일 경과기록지 초안을 자동 생성하는 데 코난 LLM을 도입했다. 기존 수작업 대신 전자의무기록(EMR) 기반으로 초안을 자동 작성한 뒤 의료진이 검토·승인하는 방식으로, 연간 약 9만5천시간의 업무 시간을 줄이고 의사 1인당 약 36일의 진료 가능 시간을 확보할 수 있을 것으로 분석된다. 이와 함께 국민권익위원회는 행정심판 청구서 작성에 생성형 AI를 적용해 유사 판례 검색부터 청구서 초안 생성까지의 과정을 자동화했다. 전체 작성 시간이 최대 60% 이상 단축됐으며 민원인의 정보 접근성과 업무 담당자의 처리 효율 모두 개선된 것으로 나타났다. 이형주 이사는 "이제는 개념검증(PoC)을 넘어서 실질적 수익확보 단계로 넘어가고 있다"며 "생성형 AI는 '자동화 툴'이 아니라 '업무 자산'으로 재정의돼야 한다"고 말했다. 폐쇄망 AI스테이션·서버 공개…공공·B2B 실무 자동화 '정조준' 코난테크놀로지는 이번 행사에서 자사의 자체 개발 LLM이 탑재된 온디바이스형 AI PC '코난 AI스테이션(AIStation)'과 기업형 AI 서버 'AI스테이션 서버(aiStation Server)'를 공개하며 제품군 확장을 마무리했다. 발표는 조인배 TG삼보 팀장과 이형주 코난테크놀로지 AI사업부 이사가 각각 맡았다. 조인배 팀장은 'AI PC가 바꾸는 업무환경'을 주제로 "'AI스테이션'은 인터넷 없이도 AI 기능을 활용할 수 있어 공공기관의 보안 요건과 반복 업무 자동화 수요를 동시에 충족할 수 있는 실무형 장비"라며 "민원 응대, 보고서 작성, 외국어 안내 등 반복적인 행정 태스크에 특히 효과적"이라고 설명했다. 조 팀장은 AIStation의 핵심 기능으로 ▲문서 요약 및 질의응답 ▲다국어 번역 ▲RAG 기반 정보 생성 ▲유해 콘텐츠 차단 등을 꼽았다. 더불어 RAG 기능이 내장돼 있기 때문에 단순한 생성형 응답을 넘어 맥락에 기반한 응답 생성이 가능하다는 점을 주요 장점으로 꼽았다. 'AI스테이션'의 하드웨어는 인텔 14세대 i7·i9 CPU, 엔비디아 RTX 그래픽처리장치(GPU), 고용량 SSD 등으로 구성된다. 보급형과 고급형 모델로 나뉘어 오는 7월 조달 등록이 예정돼 있다. 이어 발표를 진행한 이형주 코난테크놀로지 AI사업부 이사는 기업형 AI 서버 제품 'AI스테이션 서버'를 소개했다. 그는 "중소기업이나 연구기관 입장에선 고가의 다중 서버 LLM 환경을 도입하기 어렵다"며 "'AI스테이션 서버'는 폐쇄망 기반에서도 단일 장비로 생성형 AI 환경을 구축할 수 있도록 설계된 어플라이언스형 제품"이라고 말했다. 'AI스테이션 서버'는 코난 LLM을 중심으로 문서 임베딩, 개인정보 필터링, 유해 질의 차단, 시스템 관리 기능이 통합된 단일 서버 구조다. 생산성은 높이고 보안과 비용 부담은 줄이기 위해 하나의 서버에 모든 기능을 통합해 50명 이하 소규모부터 300명 규모 조직까지 대응할 수 있다는 설명이다. 현장 시연에서는 사내 매뉴얼 기반 계획서 자동 생성, 보험업무 대응 화법 작성, 다국어 이메일 자동화 사례 등이 공개됐다. 유통 전략은 에스넷 그룹과의 협력을 중심으로 구축된다. 현재 서울, 대전, 대구, 부산의 에스넷 물류 거점을 통해 전국 단위 서비스 체계를 갖췄으며 에스넷 계열사들과 연계해 공공, 금융, 연구 기관 대상 B2B 사업화가 추진될 예정이다. 이형주 이사는 "AI스테이션 서버는 하나의 서버에 문서 검색, 요약, 보고서 생성, 다국어 대응 등 실질적인 B2B 태스크를 통합한 제품"이라며 "LLM이 단순한 기술이 아니라 현장 자동화 도구로 기능할 수 있다는 것을 입증하는 플랫폼이 될 것"이라고 강조했다. 실적 반등 신호…공공 조달·GPU 효율로 수익성 강화 노려 현장 질의응답에서는 실적 전망, 제품 가격, 기술 우위 등을 두고 구체적인 설명이 이어졌다. 임완택 전략기획본부 상무는 회사의 실적과 관련된 기자의 질문에 "지난 1분기 실적은 오는 15일 공시될 예정"이라며 "지난해 다수의 PoC가 마무리되며 올해는 본계약과 실 매출이 빠르게 증가하는 구간에 진입했다"고 밝혔다. 그는 공공·국방·대기업 중심으로 파이프라인이 확대되고 있다며 매출은 전년 대비 큰 폭으로 증가하고 적자 규모는 대폭 축소될 것으로 내다봤다. AI스테이션의 조달 전략을 묻는 질문에 대해서는 연간 40만 대 이상 규모의 데스크톱 조달 시장에서 5~10% 점유율 확보를 목표로 하고 있다는 조인배 TG삼보 팀장의 설명이 나왔다. 일정 비율만 확보해도 자체 LLM 수요 확대와 매출 증가로 이어질 수 있다는 판단에서다. 제품 가격은 천만 원 이하로 조율 중이다. GPU는 예산 구조와 성능 효율을 고려해 엔비디아 '지포스 RTX 4070'이 탑재됐다. 조인배 팀장은 "고성능 대비 최적화 작업을 통해 비용을 최소화했다"며 "공공기관에선 AI 서버보다 AI 기능 탑재 PC 형태로 접근하는 게 현실적"이라고 설명했다. LG '엑사원', 솔트룩스 '루시아' 등 타사 모델과의 성능 차이를 묻는 질문에는 GPU 사용 효율을 중심으로 비교 설명이 나왔다. 도원철 코난테크놀로지 연구소 상무는 'ENT-11'이 일반 생성형 모델과 추론 특화 모델을 하나로 통합한 구조라며 동일 작업을 처리할 때 필요한 GPU 자원이 절반 수준으로 줄어든다고 설명했다. 기존에는 쉬운 질의응답과 복잡한 추론 태스크에 각각 다른 모델을 띄워야 했지만 'ENT-11'은 하나의 모델로 모두 처리해 비용과 운용 부담을 동시에 낮추는 등 경쟁력을 갖췄다는 설명이다. 도원철 상무는 "두 모델을 따로 띄우는 구조는 GPU 자원이 2배로 들 수밖에 없다"며 "'ENT-11'은 단일 모델로 동일 기능을 처리해 훨씬 효율적이며 한국어 기반 추론 정확도도 타 모델 대비 높게 나온다"고 말했다.

2025.05.13 14:23조이환

"글로벌 수준"...카카오, 멀티모달 언어모델 'Kanana-o' 성능 공개

카카오가 새로운 인공지능 모델을 통해 기술 경쟁력 강화를 이어간다. 카카오(대표 정신아)는 공식 테크블로그를 통해 통합 멀티모달 언어모델 'Kanana-o'와 오디오 언어모델 'Kanana-a'의 성능과 개발 후기를 1일 공개했다. 통합 멀티모달 언어모델인 Kanana-o는 텍스트와 음성, 이미지까지 다양한 형태의 정보를 동시에 이해하고 처리할 수 있는 모델이다. 텍스트, 음성, 이미지 중 어떠한 조합으로 질문을 입력하더라도 처리 가능하며, 상황에 맞는 텍스트나 자연스러운 음성으로 응답 가능한 구조로 설계됐다. 카카오는 '모델 병합' 기술을 기반으로 이미지 처리에 특화된 모델 'Kanana-v'와 오디오 이해 및 생성에 특화된 'Kanana-a' 모델을 통합, 단기간 내 효율적으로 Kanana-o를 개발했다. 통합 후에는 이미지, 오디오, 텍스트 데이터를 동시에 학습하는 '병합 학습'을 통해 시각과 청각 정보를 동시에 이해하고, 텍스트와 연결 지을 수 있도록 통합 훈련을 거쳤다. 이런 과정을 통해 기존 LLM 구조에서 이미지 이해 능력과 음성 인식과 합성, 감정 이해 등 고도화된 오디오 능력을 확장시킨 통합 멀티모달 언어모델이 구현됐다. Kanana-o는 음성 감정 인식 기술을 통해 사용자의 의도를 올바르게 해석하고, 상황에 맞는 적절한 반응과 답변을 제공해준다. 억양, 말투, 목소리 떨림 등 비언어적 신호를 분석하고, 대화 맥락에 맞는 감정적이고 자연스러운 음성의 응답을 생성하는 것이 특징이다. 대규모 한국어 데이터셋을 활용해 한국어의 특수한 발화 구조, 억양, 어미 변화 등을 정밀하게 반영하기도 했다. 특히 제주도, 경상도 등 지역 방언을 인식하고 이를 표준어로 변환해 자연스러운 음성을 생성할 수 있다. 지속적인 성능의 고도화를 위해 카카오는 현재 독자적인 한국어 음성 토크나이저(오디오 신호를 일정 단위로 작게 분해하는 도구) 개발을 진행 중이다. 스트리밍 방식의 음성합성 기술을 적용해 사용자가 긴 대기 시간 없이 응답을 제공하는 강점도 보유했다. 예를 들어, 이미지와 함께 "이 그림에 어울리는 동화를 만들어 줘"라고 입력하면, Kanana-o는 해당 음성을 이해하고 사용자의 억양과 감정 등을 분석해 자연스럽고 창의적인 이야기를 실시간으로 생성해 들려준다. Kanana-o는 한국어 및 영어 벤치마크에서 글로벌 최고 모델들과 유사 수준을 기록했으며, 한국어 벤치마크에서는 높은 우위를 보였다. 특히, 감정인식 능력에서는 한국어와 영어 모두에서 큰 격차를 기록하며, 감정까지 이해하고 소통할 수 있는 AI 모델의 가능성을 입증했다. 이미지와 음성을 통합적으로 이해해야 하는 '이미지-음성 QA(질의응답)' 태스크에서도 강력한 성능을 달성하며, 통합 멀티모달 언어모델로서의 글로벌 경쟁력을 확인했다. 카카오는 향후 Kanana-o를 통해 ▲다중 턴 대화 처리 ▲양방향 데이터 동시 송수신 기술 대응 능력 강화 ▲부적절한 응답 방지를 위한 안전성 확보 등을 목표로 연구 개발을 지속해 갈 계획이다. 이를 통해 다중 음성 대화 환경에서의 사용자 경험을 혁신하고, 실제 대화에 가까운 자연스러운 상호작용을 실현해가는 것이 목표다. 카카오 김병학 카나나 성과리더는 "카나나 모델은 복합적인 형태의 정보를 통합적으로 처리함으로써 기존의 텍스트 중심 AI를 넘어 사람처럼 보고 듣고 말하며 공감하는 AI로 진화하고 있다"며 "독자적인 멀티모달 기술을 바탕으로 자사의 인공지능 기술 경쟁력을 강화하는 한편, 지속적 연구 결과 공유를 통해 국내 AI 생태계 발전에 꾸준히 기여할 계획"이라고 말했다.

2025.05.01 10:13백봉삼

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

"업무 생산성 게임체인저"…코난테크놀로지, AI 기반 검색 플랫폼 'RAG-X' 공개

인공지능(AI) 기반 검색 기술이 기업 경쟁력의 핵심 요소로 떠오르는 가운데 기업 맞춤형 솔루션을 개발해온 코난테크놀로지가 자사 AI 검색 플랫폼의 본격적인 시장 진입을 예고했다. 코난테크놀로지는 기업용 AI 검색 플랫폼 '코난 검색증강생성(RAG)-X'의 베타 테스트를 진행 중이라고 13일 밝혔다. 이 솔루션은 기업 내부 데이터, 실시간 웹사이트, 고객 맞춤형 사이트까지 검색 결과를 통합해 AI가 즉각적인 답변을 제공하는 B2B형 플랫폼이다. '코난 RAG-X'는 단순 검색을 넘어 AI가 종합적이고 심층적인 답변을 생성하는 것이 특징이다. 기존 웹 기반 검색 서비스와 달리 검색 증강 생성(RAG) 기술을 활용해 내부 문서, 데이터베이스(DB), 외부 사이트 정보까지 아우르며 기업에 최적화된 정보를 제공한다. 일례로 사용자가 특정 산업 동향에 대한 최신 정보를 요청하면 AI가 내부 자료와 실시간 웹사이트 데이터를 분석해 핵심 변화를 정리하고 보고서 초안까지 생성한다. AI의 답변에는 모든 출처가 명확하게 표시되며 연관 검색어나 참고자료도 자동 추천된다. 이같은 기능을 통해 기업들은 수작업으로 정보를 찾을 필요 없이 원클릭 검색만으로 신속하고 정확한 답변을 제공받을 수 있다. 업무 생산성을 높이고 시장 분석·경쟁사 동향 파악·신제품 조사·정책 연구 등 다양한 분야에서 활용될 것으로 기대된다. 코난테크놀로지는 지난 1999년 설립 이후 AI 검색엔진 '코난 서치'를 포함해 2천900여 개 기업과 3천400건 이상의 프로젝트를 수행하며 기술력을 입증해왔다. 특히 자체 개발한 대규모 언어 모델 '코난 거대언어모델(LLM)'은 지난해 미국 스탠퍼드대학의 AI 생태계 분석 리포트 '에코시스템 그래프'에 포함되며 글로벌 경쟁력을 인정받았다. 현재 '코난 RAG-X'는 200여 명의 사내 인력과 일부 고객사를 대상으로 비공개 베타 테스트를 진행 중이다. 다음달 정식 출시를 목표로 서비스 안정성과 성능을 최적화하고 있다. 코난테크놀로지는 또 '코난 LLM'의 차세대 버전도 다음 달 공개할 예정이다. 최신 AI 연구 트렌드에 맞춰 추론 데이터와 인스트럭션 튜닝을 대폭 강화해 한층 업그레이드된 성능을 선보일 계획이다. 김영섬 코난테크놀로지 대표는 "검색 품질에 대한 기대가 높아지는 가운데 기업 맞춤형 검색 수요도 증가하고 있다"며 "새로운 생성형 AI 경험을 통해 고객의 비즈니스 혁신을 적극 지원하겠다"고 밝혔다.

2025.02.13 14:45조이환

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우

"산업 현장 데이터가 경쟁력"…LG, '엑사원 3.5'로 오픈소스 AI 시장 공략

LG AI연구원이 오픈소스 AI 모델 '엑사원(Exaone) 3.5'를 공개했다. 이번 발표는 초경량(2.4B), 범용(7.8B), 고성능(32B) 모델을 모두 오픈소스로 공개한 국내 기업 중 보기 드문 사례로, 글로벌 오픈소스 AI 시장에서 산업 특화 '니치(niche)' 공략에 나서겠다는 전략으로 해석된다. 9일 업계에 따르면 메타의 '라마(LLaMA)'는 오픈소스 AI 시장에서 현재 압도적인 1인자로 자리하고 있다. 메타는 지난 2022년 이후 다양한 크기의 모델을 공개하며 연구자와 기업들로부터 폭넓은 피드백을 받아왔다. 12월 기준으로 6억5천만 회 이상을 기록한 '라마' 앱 다운로드는 그 생태계가 얼마나 탄탄한지를 보여준다. 매개변수 규모도 거대하다. 가장 최신인 '라마 3.3'의 매개변수는 700억(70B) 파라미터로, '엑사원' 고성능 모델과 비교해 약 두 배 가까운 차이를 보인다. 실제로 라마의 지배력에 도전장을 내밀었던 오픈소스 경쟁자들의 성과는 미미했다. 마크롱 프랑스 대통령의 지원을 받는 초거대 AI 기업인 미스트랄은 올해 초 완전 오픈소스 라이선스를 적용한 모델을 출시하며 시장에 도전했으나 '라마' 생태계의 벽을 넘지 못하고 한정된 사용자층 확보에 그쳤다. 이러한 빅테크의 오픈소스 AI 시장 독주 속에서 LG AI연구원은 단순히 파라미터를 늘리는 대신 효율성을 극대화하는 경량화 전략을 내세우고 있다. '라마' 최신 모델의 절반 수준인 32B 모델만으로 고성능을 구현하면서도 전력 소비와 운영 비용을 대폭 줄여 실질적인 산업 적용이 가능하게 한 것이다. 이러한 전략을 시도할 수 있었던 것은 LG가 축적해온 전문 데이터 때문이다. LG 계열사들은 생화학·병리학·제조업 등 다양한 산업 분야에서 고품질 도메인 데이터를 확보해왔다. 이 데이터를 활용해 엑사원의 성능을 강화하면서도 매개변수 규모는 줄이는 효율적인 모델 설계가 가능했다는 설명이다. LG 관계자는 "엄청난 자금력을 가진 빅테크들과 같은 전략을 쓰는 대신 회사가 오랜 기간 쌓아온 자체 데이터를 활용해 산업별 맞춤형 역량을 제공하는데 집중하고 있다"며 "단순히 크롤링한 데이터가 아닌 양질의 도메인 데이터가 특화의 비결"이라고 설명했다. 이러한 전문 데이터 기반 경량화 전략은 실질적인 성과로 이어지고 있다. 최근 LG는 병리학 모델인 '엑사원 패스(EXAONEPath)'를 개발해 기존 대비 10배 경량화된 모델로도 우수한 성능을 구현했다. 이 모델은 특히 병리학 데이터에서 높은 정확도를 기록하며 글로벌 의료 AI 시장에서도 주목받았다. 이로 인해 LG는 현재 잭슨 랩(Jackson Laboratory)과 협업을 진행하고 있다. 잭슨 랩은 전임상 시험 분야에서 세계 최고의 기술력을 보유한 미국의 연구기관으로, LG의 우수한 병리학 데이터 덕분에 협업을 결정한 것으로 알려졌다. 이에 더해 LG AI연구원은 경량화를 넘어 대규모 행동모델(LAM, Large Action Model) 기반 AI 에이전트를 개발해 산업 현장에서의 혁신을 앞당길 계획이다. 단순히 생성형 AI에 그치지 않고 복합적인 기술을 통합해 산업 전반에 실질적인 가치를 제공하려는 의도로 풀이된다. LG 관계자는 "거대 생태계를 구축한 빅테크와 동일한 전략을 취하기보다는 선택과 집중을 통해 강점을 극대화하고 있다"며 "LLM뿐만 아니라 다양한 AI 기술에서의 기술적 돌파구를 모색하고 도메인 특화 데이터를 기반으로 산업 전반의 주요 문제를 해결하는 데 기여할 것"이라고 강조했다.

2024.12.09 14:59조이환

"누구나 비전언어모델 사용"…구글, 신형AI '팔리젬마2' 오픈소스로 공개

구글이 사람처럼 보고, 이해하고, 상호작용할 수 있는 신형 비전언어모델(VLM)을 오픈소스로 공개했다. 이를 통해 의료, 제조 등 다양한 산업 분야에서 보다 효율적으로 AI를 활용할 수 있을 전망이다. 5일 구글 딥마인드는 오픈소스 VLM '팔리젬마2(PaliGemma2)'를 공식 블로그를 통해 공개했다. 비전언어모델은 사람처럼 이미지와 텍스트를 함께 학습하고 업무를 처리하는 AI 모델이다. 이를 통해 두 가지 데이터 유형이 독립적으로 처리되었을 때 놓칠 수 있는 정보 간 연관성을 이해하고 처리할 수 있는 것이 특징이다. 구글의 팔리젬마2는 젬마2 언어 모델 기반으로 개발돼 언어 처리 성능을 향상시켰다. 이를 통해 세부 사항을 요구하는 작업을 보다 정확하게 수행할 수 있으며 복잡한 작업의 완성도도 높일 수 있다. 특히 구글의 AI전용 프로세서 TPUv5를 활용해 학습 효율성을 극대화했으며 일반 PC 환경에서도 효과적으로 실행될 수 있도록 최적화 작업을 거쳤다. 기존 페일젬마는 224px 해상도만 지원한 반면 팔리젬마2는 448px와 896px등 고해상도 까지 지원해 실제 활용할 수 있는 업무 범위를 확대했다. 이 밖에도 세밀한 글씨를 정확히 감지하고 인식하기 위한 광학문자인식(OCR) 등의 기능을 개선했다. 고해상도도 이미지를 학습하고 구연할 수 있어 ICDAR 15와 토털텍스트 데이터셋 벤치마크에서 이전 최고 성능 모델을 능가하며 F1 점수 75.9를 기록하며 VLM 중 가장 우수한 성능을 달성했다. 구글 딥러잉 측은 페일젬마2를 활용해 더욱 복잡한 분자구조나 X레이 이미지를 분석하고 음악 파형 등을 인식해 디지털 변환하는 과정의 정확도를 높이는 등 다양한 분야에 활용할 수 있을 것으로 예측하고 있다. 구글의 다니엘 카이저스 연구 엔지니어는 "볼 수 있는 맞춤형 AI를 구축하는 것은 복잡하고 리소스 집약적인 노력이 요구됐다"며 "하지만 이제는 팔리젬마2를 통해 누구나 시각적 입력을 이해하고 상호작용할 수 있는 AI를 활용할 수 있게됐다"고 말했다.

2024.12.06 10:25남혁우

뤼튼, AI 수익화 '시동'…캐릭터 챗·광고 플랫폼으로 성장 '가속'

뤼튼테크놀로지스가 자사 '캐릭터 챗'을 부분 유료화하고 인공지능(AI) 광고 플랫폼 '뤼튼 애즈'를 출시하며 본격적인 수익화 행보에 나섰다. 뤼튼은 지난 10월 말 '캐릭터 챗' 서비스에 부분 유료화를 도입한 후 단 두 달만에 월 매출 10억원을 돌파했다고 3일 밝혔다. '캐릭터 챗'은 사용자가 제작한 AI 캐릭터와 대화할 수 있는 서비스로, 유료화 이후 뤼튼 모바일 앱이 구글 플레이스토어 최고 매출 앱 순위 18위에 오르는데 기여했다. 이번 유료 모델의 도입은 '캐릭터 챗' 창작자에게 수익을 분배하는 시스템을 구축하며 AI 캐릭터 생태계를 활성화하는 데 기여하고 있다. 이로써 창작자와 이용자가 함께 성장하는 선순환 구조를 마련했다는 분석이 나온다. 이와 함께 지난달 29일 출시된 '뤼튼 애즈'는 국내 최초 자연어 기술 기반 AI 광고 플랫폼으로 주목받고 있다. 월간 활성 이용자(MAU) 500만 명 이상을 기반으로 광고주에게 최적의 캠페인 대상을 자동 타겟팅하고 사용자 경험에 녹아든 광고 상품을 제공해 효과를 극대화한다. 특히 '한 문장으로 타겟 찾기' 기능은 광고 캠페인 대상을 자연어로 묘사하면 적합한 잠재 고객을 찾아내는 기술로, 클릭률과 전환율 향상에 기여하고 있다. 예산에 맞춘 광고 효율 최적화와 성과 분석 등 디지털 광고의 새로운 기준을 제시했다는 평가다. 업계 관계자는 "뤼튼은 글로벌 AI 플랫폼과 비교해도 손색없는 성과를 보여주고 있다"며 "현재 MAU가 500만 명 수준임을 감안하면 향후 이용자 규모가 확대될 경우 매출 잠재력에서 글로벌 기업들과도 충분히 경쟁할 가능성이 크다"고 분석했다. 이세영 뤼튼 대표는 "AI 대중화를 주도하는 기업으로서 우리의 모든 서비스는 계속 무료로 사용 가능하다"며 "이용자 경험을 해치지 않으면서도 고품질의 AI 서비스를 제공할 수 있는 입체적 수익 모델을 계속 추구해 나갈 것"이라고 밝혔다.

2024.12.03 14:33조이환

구글클라우드, 워크스페이스 AI 툴 진화…'제미나이' 한국어 지원 확대

구글클라우드가 자사 워크스페이스의 인공지능(AI) 도구 '제미나이'의 언어 지원을 확대하며 전 세계 10억 명 이상 사용자가 모국어로 서비스를 이용할 수 있게 했다. 구글클라우드는 최근에 진행한 업데이트를 통해 '제미나이' 사이드 패널에 한국어를 포함한 7개 언어를 새롭게 추가한다고 22일 밝혔다. 한국어 외에도 독일어, 이탈리아어, 일본어, 포르투갈어, 스페인어, 프랑스어가 포함됐다. '제미나이'는 구글 '닥스', '시트', '드라이브', '지메일' 등 워크스페이스 주요 애플리케이션의 사이드 패널에 내장돼 있다. 이번 언어 업데이트를 통해 사용자는 문서 작성, 파일 요약, 이메일 답장 등 다양한 업무를 자신의 언어로 처리할 수 있게 됐다. 이미 이 도구는 마케팅과 영업 분야에서 활용도가 높다. '제미나이'는 창의적인 문구를 작성하거나 필요한 데이터를 빠르게 요약해 제공하며 팀의 생산성을 높이는 데 기여한다. 또 구글 '미트' 영상 통화에서는 실시간 번역 자막 기능을 통해 언어 장벽을 극복할 수 있다. 구글클라우드는 향후 구글 챗의 자동 번역 기능 추가를 준비 중이다. 이번 업데이트는 60일 무료 체험판으로 제공돼 더 많은 사용자들이 제미나이를 경험할 수 있도록 지원하고 있다. 내년에는 더 많은 언어가 추가될 예정이다. 브라질 기업 나투라의 레나타 마르케스 최고정보책임자는 "'제미나이'를 통해 직원들의 역량이 향상되고 업무가 크게 개선됐다"며 "모든 직원이 AI를 활용해 새로운 가능성을 열어가고 있다"고 밝혔다.

2024.11.22 14:20조이환

"오픈AI 따라잡을 수 있을까"…머스크, AI 주도권 놓고 '총력전'

일론 머스크가 인공지능(AI) 분야에서 공격적인 행보를 보이며 미래 기술의 주도권을 노리고 있다. 대규모 투자 유치, 경쟁사 견제, 소셜미디어 엑스(X)를 활용한 자극적인 홍보 등으로 AI 사업 확장에 박차를 가하고 있지만 선두주자와의 격차를 좁히기 위한 과제가 여전히 산재해 있다. 18일 업계에 따르면 머스크의 AI 스타트업 엑스AI(xAI)는 최근 60억 달러(한화 약 8조3천억원) 규모의 투자 유치에 성공하며 기업 가치를 무려 500억 달러(약 70조원) 수준으로 끌어올렸다. 이는 겨우 6개월 만에 기업 가치가 두 배 이상 급증한 것으로, 회사의 기술력과 시장의 높은 기대감을 동시에 입증했다. 확보한 자금은 엔비디아의 최신 그래픽처리장치(GPU) 10만 개를 매입하는 데 사용할 예정이다. 이를 통해 AI 모델의 훈련을 강화하고 오픈AI, 앤트로픽 등 선발주자와의 기술 격차를 좁히겠다는 전략이다. 실제로 엑스AI는 미국 테네시주 멤피스에 세계 최대 규모의 데이터 센터를 구축하고 있다. 멤피스 남서부에 위치한 약 7만3천 평방미터 규모의 공장 부지에 건설 중인 이 시설에는 최신 GPU가 최소 10만 개에서 최대 20만 개까지 설치될 예정이다. 머스크는 회사의 내실 강화에 그치지 않고 경쟁업체를 겨냥한 공격에도 나서고 있다. 그는 지난 15일 AI 업계 내 공정한 경쟁을 사유로 지목하며 오픈AI와 마이크로소프트(MS)를 상대로 법적 소송을 제기했다. 오픈AI와 MS의 파트너십은 사실상의 합병으로, AI 업계에서 독점적 지위를 형성해 시장을 교란했다는 주장이다. 머스크는 "오픈AI는 경쟁사들의 AI 인재 확보도 방해하고 있다"며 "평균 연봉이 약 53만4천 달러(약 7억5천만원)로, 실리콘밸리 평균보다 훨씬 높아 시장을 왜곡시키고 공정한 경쟁을 저해한다"고 비판했다. 이와 같은 갈등의 배경에는 머스크와 오픈AI 사이의 오랜 불화가 자리 잡고 있다. 지난 2015년 비영리단체로 시작한 오픈AI의 공동창립자였던 머스크는 테슬라의 AI 개발과의 이해충돌 우려로 이사회에서 사임한 바 있다. 이후 오픈AI가 영리 조직으로 전환되자 머스크는 오픈AI가 원래의 목적을 잃었다며 여러 차례 소송을 제기했다. 그럼에도 업계 일각에서는 머스크의 소송 목적이 오픈AI의 공익적 가치 보존이 아니라 엑스AI의 AI 업계 주도권 확보에 있다고 분석한다. 실제로 머스크가 오픈AI 이사였던 지난 2017년에 이미 그가 회사에서 절대적인 통제권을 가지려고 시도했다는 우려가 제기됐기 때문이다. 당시 일리야 수츠케버 전 오픈AI 공동창업자는 머스크에게 이메일을 통해 "현재 회사 구조로는 당신이 범용인공지능(AGI)에 대한 절대적 통제를 가지게 될 위험이 있다"며 "당신이 독재자가 될 가능성을 배제할 수 없다"고 말했다. 이러한 우려는 머스크가 소셜 미디어에서 보이는 행보에서도 그대로 드러난다. AI 안전성·공공선을 위해 오픈AI를 견제한다는 본인의 주장과는 반대로 엑스AI에 대한 자극적인 소식과 과장을 이어가고 있기 때문이다. 그는 지난해 11월 자신의 엑스(X) 계정에 자사 챗봇 '그록(Grok)'에게 코카인 제조법을 물어보는 스크린샷을 게시하며 논란을 일으킨 바 있다. 또 지난 8월에는 '그록-2'를 두고 타사의 그림 생성 AI에 비해 검열이 적다는 점을 강조해 화제를 모았다. 최근에는 직원도 이러한 행렬에 가세했다. 히우 팜 엑스AI 연구원은 지난 17일 자신의 X 계정을 통해 "최근 출시된 '그록-3(Grok-3)' AI가 수학계의 오랜 난제인 리만 가설을 증명했다"며 "증명이 맞을 경우 AI가 너무 똑똑해서 인류에게 위험할 수 있기 때문에 모델 훈련을 일시 중단했다"고 주장했다. 업계 전문가들은 팜 연구원의 주장에 대해 회의적인 반응을 보이며 이러한 발언이 대중의 관심을 끌고 투자 유치를 위한 홍보 효과를 노린 것이라고 평했다. 오픈AI나 앤트로픽의 후발 주자로서 기술적 성숙도나 인지도가 부족한 상황을 극복하려는 과장된 시도라는 분석이다. 실리콘밸리의 한 AI 업계 관계자는 "머스크가 테크 분야 전반에서와 마찬가지로 AI 산업에서도 파격적인 행보를 보이고 있는 것은 사실"이라면서도 "다만 기술적 측면에서 볼 때 오픈AI와 같은 선두주자들이 보다 앞서 있는 상황"이라고 분석했다.

2024.11.18 17:24조이환

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

카카오 '카나나' 라인업 발표…"한국어 AI 성능으로 글로벌 모델 압도할 것"

"이번에 발표된 '카나나'는 우리가 지금까지 개발해 온 모든 인공지능(AI)을 통합한 모델로, 한국어 처리에서 글로벌 AI 모델들을 능가하는 성과를 냈습니다. '카나나'를 통해 글로벌 AI 시장에서 선두로 나아가고자 합니다." 김병학 카카오 성과리더는 23일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사로, 지난 22일부터 사흘간 진행된다. 김 성과리더는 '카나나 모델 라인업의 핵심(Essence of Kanana Model Family)' 세션을 통해 카카오의 통합 AI 모델인 '카나나(Kanana)'를 소개했다. 그는 "카카오의 모든 AI 서비스를 '카나나'로 통합해 일관된 경험과 새로운 가치를 제공할 것"이라며 "한국어 처리에서 글로벌 모델을 능가하는 성능을 보유했다"고 강조했다. '카나나'는 언어모델(LLM), 멀티모달 언어모델(MLLM), 비주얼 생성모델, 음성모델 등으로 구성된 카카오의 통합 AI 모델이다. 특히 언어모델은 모델 크기에 따라 '카나나 나노', '카나나 에센스', '카나나 플래그'로 분류돼 서비스 환경에 따라 맞춤형의 성능과 비용 효율성을 제공한다. 김 성과리더는 "'카나나 에센스' 모델은 한국어 논리 및 추론 평가에서 글로벌 최고 수준의 성능을 기록했다"며 "케이엠엠엘유(KMMLU), 해래(HAE-RAE) 등의 벤치마크에서 글로벌 대표 모델들을 앞서는 결과를 얻었다"고 밝혔다. 이는 카카오가 자체 구축한 고품질의 한국어 데이터셋과 개인정보 및 저작권 이슈를 해결한 투명한 학습 과정을 통해 이루어진 성과다. '카나나' 모델은 비용 효율성 면에서도 강점을 지닌다. 다양한 모델들이 라인업 형태로 출시돼 각기 다른 목적을 위해 활용될 수 있기 때문이다. 이에 대해 김 성과리더는 "큰 모델을 모든 서비스에 적용하는 것은 비용 효율성이 떨어진다"며 "'카나나'는 서비스 목적에 맞게 학습 과정을 최적화해 처리 시간과 운영 비용을 절감할 수 있다"고 설명했다. 카카오는 이러한 '카나나' 모델을 활용해 카카오톡의 AI 대화 요약, 톡채널 AI 매니저 등 다양한 서비스에 AI 기술을 적용할 계획이다. 특히 멀티모달 언어모델인 '카나나 O'는 텍스트, 이미지, 오디오 데이터를 동시에 이해하고 처리할 수 있어 더욱 자연스러운 사용자 경험을 제공한다. 또 비주얼 생성모델 '콜라주'와 '키네마'는 개인화된 이미지와 동영상을 생성하며 음성모델 '카부'와 '퀘스트'는 자연스러운 음성 인식과 합성을 지원한다. 김 성과리더는 "'카나나' 모델은 다양한 신기술을 통해 사용자와 깊이 있는 상호작용을 이끌어낸다"며 "정확한 지식과 통찰력을 바탕으로 답변을 제공해 서비스에 새로운 가치를 더할 것"이라고 말했다. AI 모델 개발에는 여전히 해결해야 할 과제들이 있다. 그럼에도 김 성과리더는 이러한 도전에 대응하기 위한 해결책을 제시했다. 그는 "사용자 발화의 맥락을 정확히 이해하고 적절한 응답을 제공하기 위해서는 생성형 AI와 대형 언어모델(LLM)의 활용이 필요하다"며 "책임감 있고 신뢰할 수 있는 AI 모델을 만들어가고 있다"고 밝혔다. 그러면서 "'카나나' AI 기술을 서비스로 연결해 사용자 문제를 직접적으로 해결하는 AI 네이티브 컴퍼니로 나아가기 위한 기반을 확대하겠다"고 강조했다.

2024.10.23 14:02조이환

"집과 자동차를 하나로"…카카오가 AI와 IoT 결합하는 방법은

"인공지능(AI)과 사물인터넷(IoT)을 결합해 보다 스마트하고 개인화된 서비스를 제공하려고 합니다. 이를 통해 사용자들의 생활을 획기적으로 개선하는 것이 우리의 궁극적인 목표입니다." 김덕형 카카오 담당자는 22일 경기도 용인시 카카오 AI 캠퍼스에서 열린 '이프카카오 2024' 행사에서 이같이 말했다. '이프카카오 2024'는 카카오 그룹이 AI 및 클라우드 기술 성과를 공유하고 국내 IT 기술 발전에 기여하기 위해 마련한 행사다. 첫날에만 10개 이상의 다양한 기술 세션이 진행됐다. 이날 김 담당자는 '카카오i를 통한 AIoT 서비스의 사례와 미래' 세션을 맡아 '인공지능-사물인터넷(AIoT)'을 구현하기 위한 카카오i의 역할을 설명했다. AIoT란 인공지능(AI)과 사물인터넷(IoT)의 융합으로, 데이터 수집과 학습이 동시에 이뤄져 큰 시너지를 발휘한다. 이는 AI의 학습·추론 능력과 IoT의 데이터 수집·연결성이 결합돼 더 효율적이고 지능적인 시스템을 구축할 수 있기 때문이다. 김 담당자는 "IoT의 발전 단계는 현재 자율형 단계로 나아가고 있다"며 "이 단계에서는 AI 기술이 IoT 기기 자체에서 실행돼 데이터 수집과 학습을 동시에 수행하고 기기 간의 협업도 가능해진다"고 설명했다. 카카오 AI 서비스들 역시 이러한 방향성을 따르며 발전하고 있다. '헤이 카카오', '카카오홈', '카카오i 오토' 등의 솔루션이 자연어를 기반으로 다양한 기능을 제공하고 있기 때문이다. 사용자들은 이미 이러한 서비스를 통해 AIoT의 초기 단계를 경험하고 있다. 이어 발표를 맡은 김진호 담당자는 AIoT가 구현될 미래의 구체적인 시나리오를 제시했다. 그는 AIoT 기술의 지속적인 발전이 개인화된 서비스로 구현되면서 기기간의 연결성이 증대되는 상황을 시나리오를 통해 설명했다. 김 담당자는 "취침 전에 카카오i 솔루션을 대상으로 '나 잘게'라고 말하면 기기가 자동으로 에어컨 온도를 조절하고 조명의 밝기와 색상을 변경하며 커튼을 닫는다"며 "리모콘처럼 하나의 기기를 제어하는 것을 넘어 사용자의 진정한 의도를 이해하고 여러 기기를 통합적으로 관리하는 상황이 가능해질 것"이라고 강조했다. 또 그는 환경 변화에 따라 적절한 서비스를 추천하는 기능도 소개하며 자동차를 예시로 들었다. 가까운 미래에 카카오i 솔루션은 운전 중 날씨와 차량 상태를 고려해 에어컨을 켜고 장시간 운전 시 환기를 추천하는 기능을 제공할 예정이다. 이러한 기대에 대해 김 담당자는 "사용자들은 더욱 편리하고 안전한 생활을 누릴 수 있게 될 것"이라고 강조했다. 그럼에도 불구하고 AIoT 구현을 위해서는 해결해야 할 도전과제들이 있다. 김 담당자는 "복잡하고 다양한 표현을 AIoT가 이해하는데는 기존의 자연어 처리 방식으로는 한계가 있다"며 "생성형 AI와 거대언어모델(LLM)을 활용해 사용자 발화의 맥락을 정확히 이해하고 적절한 기기 제어를 수행해야 한다"고 밝혔다. 그 중 해결책으로 각광 받는 최신 AI 기술로는 생각의 연쇄(Chain of Thought), 멀티 에이전트 LLM, 검색증강생성(RAG) 등이 있다. 이러한 기술들은 사용자 발화에서 제어해야 할 기기 목록을 정확히 추출하고 AI가 그럴듯하게 거짓말하는 환각 현상을 줄이는 데 도움이 된다. 김 담당자는 "우리는 기술적인 과제들을 해결해 결국 집에서는 차량을, 차량에서는 집을 제어할 수 있는 통합된 서비스를 제공하게 될 것"이라며 "AI를 통한 스마트한 결정으로 사용자 경험을 혁신하겠다"고 강조했다.

2024.10.22 15:46조이환

미스트랄AI, 온디바이스 AI 모델 '레 미니스트로' 출시

미스트랄AI가 인터넷 연결 없이 노트북·스마트폰 등에서 작동하는 생성형 인공지능(AI) 모델을 출시했다. 17일 테크크런치 등 외신에 따르면 미스트랄AI는 온디바이스용 AI 경량화 모델 '레 미니스트로(Les Ministraux)'를 '미스트랄 3B'와 '미스트랄 8B' 버전으로 각각 공개했다. 해당 모델들은 영어 기준으로 약 50페이지 분량 텍스트를 한 번에 이해할 수 있는 수준이다. 미스트랄 8B는 입·출력 토큰 당 10센트 비용이 든다. 미스트랄 3B는 같은 양에 4센트다. 노트북이나 스마트폰에서 번역, 업무 지원, 로컬 분석, 자율 로봇, 응용 프로그램 개발에 활용될 수 있다. 인터넷 연결 없이 작동 가능해 개인정보 보호를 기존보다 강화할 수 있다는 점도 특징이다. 현재 개인이나 기업은 미스트랄 8B만 다운로드할 수 있다. 연구 목적으로만 사용 가능하다. 상업적 모델 사용을 위해 미스트랄AI에 별도 연락을 해야 한다. 이 외 사용자들도 미스트랄AI 클라우드 플랫폼인 '라 플라토르므(La Platformee)'나 향후 파트너십을 맺은 다른 클라우드를 통해서 해당 모델 시리즈를 이용할 수 있다. 최근 AI 개발사들이 경량화 모델을 잇달아 출시하고 있다. 거대모델보다 훈련, 미세 조정, 실행 비용이 더 낮고 속도가 빠르다는 이유에서다. 이에 개발자와 기업은 경량 모델을 이전보다 더 요구하고 있다. 앞서 구글은 제미나이 경량화 버전 '젬마' 모델 시리즈를 출시했다. 마이크로소프트도 경량 모델 '파이' 모델을 제공하고 있다. 메타도 오픈소스 모델 '라마'를 업데이트해 온디바이스용 경량화 버전을 공개한 바 있다. 미스트랄AI는 최근6억4천만 달러(약 8천576억원) 투자금을 유치하고 AI 제품 포트폴리오를 점차 확장하고 있다. 최근 개발자들이 자사 모델을 테스트할 수 있는 무료 서비스를 출시했다. 사용자가 모델을 미세 조정할 수 있게 돕는 소프트웨어 개발 키트(SDK)도 내놨다. 코드 생성 모델 코드스트랄'도 공개했다. 이날 미스트랄AI는 "최근 고객과 파트너들은 프라이버시 강화를 위해 로컬에서 실행할 수 있는 AI 추론을 요구하고 있다"며 "레 미니스트로는 이런 시나리오에 적합한 컴퓨팅 효율적이고 지연 시간 적은솔루션을을 제공하기 위해 탄생했다"고 공식 블로그에 밝혔다.

2024.10.17 09:44김미정

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

과기정통부, AI 중심 조직 개편 '가속'…정책 컨트롤타워 본격화

"국정자원 화재 초래 서버-배터리 간격 규제해야"

미 연방정부 셧다운에 사이버보안도 '셧다운' 위기

오픈AI 영향력 이 정도?…AI에 진심인 이재명, 43년 묵은 금산분리 '완화' 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.