• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'언어 생성 AI'통합검색 결과 입니다. (30건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

MIT 박사·삼성 최연소 임원이 AI 기업 '투플랫폼' 세운 이유는

"인간과 인공지능(AI) 간의 상호작용을 혁신하고자 하는 마음이 저를 이끌었습니다. 둘 사이의 관계를 새롭게 정의해 인류 모두를 위한 AI를 실현하는 것이 우리의 최종 목표입니다. 이를 위해 우리는 비용 효율적이면서도 다문화 지향적인 '듀얼 트랜스포머 아키텍처' 기술을 적극 활용하고 있습니다." 프라나브 미스트리 투플랫폼 대표는 최근 기자와 만나 회사의 AI 기술 성과와 향후 계획을 이같이 밝혔다. 미스트리 대표는 지난 2012년 MIT에서 박사 과정을 밟던 중 삼성전자에 입사해 최연소 임원이 된 것으로 국내에 널리 알려진 바 있다. 그 이전에는 구글, 마이크로소프트, 나사(NASA) 등에서 근무하며 폭넓은 경험을 쌓았으며 삼성전자 입사 후에는 최연소 상무·전무로 초고속 승진해 최첨단 기술 프로젝트를 이끌었다. 그가 지난 2021년 삼성전자를 나온 후 세운 기업이 바로 투플랫폼이다. 인간과 AI의 관계를 재정의하고자 하는 목표를 가진 테크 스타트업으로서, 투플랫폼은 자체 거대언어모델(LLM)인 '수트라(Sutra)'를 개발해 다국어 지원·현지화에 특화된 솔루션을 제공한다. 미스트리 대표는 "'수트라'의 설계 철학은 전 세계 모든 다른 언어를 영어만큼이나 효율적으로 처리하는 것"이라며 "기존 모델들과 달리 진정한 의미에서 현지화된 경험을 대규모 사용자들에게 제공하는 것이 목표"라고 강조했다. 미스트리 대표에 따르면 오픈AI의 '챗GPT'와 같은 타사 LLM 역시 다양한 언어를 지원하고 있지만 '수트라'는 보다 비용 효율적이며 현지화에 특화돼 있다. 그는 "'수트라'는 기존 모델들보다 영어 이외의 언어에 최대 8배까지 비용 효율적"이라며 "이는 에너지 자원이 제한된 비영어권 시장에서 AI 도입이 확대되는 데 가장 중요한 요소"라고 주장했다. 이러한 비용 효율성을 가능하게 하는 것은 투플랫폼에서 개발한 '듀얼 트랜스포머 아키텍처' 기술 덕분이다. 인간의 뇌 작동 방식을 모방한 기술로서, '듀얼 트랜스포머'는 LLM이 한 언어에서 배운 지식과 개념을 다른 언어에도 그대로 적용할 수 있게 한다. 미스트리 대표는 "우리가 새로운 언어를 배울 때 굳이 이미 알고 있는 개념을 다시 배우지 않는다"며 "수트라 LLM 역시 이와 같이 이미 알고 있는 개념을 다른 언어에서 추가로 학습할 필요가 없게 설계됐다"고 설명했다. 이러한 기술 개발은 단순히 비용 효율성뿐만 아니라 문화적 다양성에도 도움을 준다. 실제로 '수트라'는 인도의 여러 방언과 혼합 언어까지 동시적으로 지원하고 있다. 미스트리 대표는 "우리의 주요 시장 중 하나인 인도는 각 지역들끼리 서로 포르투갈과 아르메니아 사이만큼이나 거대한 문화·언어적 차이가 있다"며 "'수트라'는 이와 같은 다양한 언어·문화차이를 극복하고 서비스를 제공할 수 있다"고 강조했다. 이러한 '수트라'의 장점은 최근 대두되는 '소버린 AI' 개념과도 연결된다. 실제로 지난 2022년부터 각국의 AI 주권을 위해 소버린 AI 개념을 강조해 왔던 네이버도 자회사 스노우를 통해 투플랫폼에 5백만 달러(약 60억원)를 투자한 바 있다. 상용화 역시 활발하다. 투플랫폼은 인도의 대표 통신기업인 릴라이언스 지오(Reliance Jio)와 협력해 '수트라'를 공급 중이다. 최근에는 국내 유수의 대기업들과도 사업 계약을 추진하고 있는 것으로 알려졌다. 투플랫폼의 철학은 실제 사업 행보에서도 드러난다. 본사가 위치한 실리콘밸리 외에는 인도 뭄바이와 서울에 사무실을 두고 있기 때문이다. 이는 대부분의 다국적 기업들이 세금 혜택을 목적으로 주로 싱가포르·두바이에 해외 사무소를 두는 것과는 차별화됐다. 미스트리 대표는 "지사를 세울 때 최우선 기준은 우리 기술 모델에 걸맞는 현지 인재를 확보하고 시장을 이해하는 것"이라며 "고객들과 가까이서 소통하며 현지 시장에 맞는 제품을 개발하고 언어 문제를 해결하는 '글로컬(Glocal)' 기업이 되기 위한 전략"이라고 밝혔다. 미스트리 대표에 따르면 투플랫폼의 장기 목표는 인간과 AI의 관계에 대한 재정의다. 실제로 투플랫폼의 슬로건은 '나(I)와 AI'로, 인간과 기계의 상호작용을 새로운 단계로 발전시키는 것이다. 이를 위해 텍스트나 음성을 넘어 몰입형 경험을 선도하는 것이 주요 전략이다. 실제로 회사 제품들도 이를 반영하고 있다. 올해 1월에는 AI 소셜앱 '재피(ZAPPY)'를 국내에 정식 출시했으며 출시 2개월 만에 25만 명이 넘는 유저를 확보했다. 인간 친구뿐만 아니라 AI 캐릭터들과도 함께 대화하는 기능을 통해 새로운 형태의 커뮤니케이션을 가능케 했다. 기술 혁신의 중요성을 강조하는 동시에 미스트리 대표는 책임 있는 AI 개발의 중요성에 대해서도 역설했다. 실제로 투플랫폼은 군사 분야에서의 책임 있는 AI 활용을 위해 대한민국 외교부가 전 세계 국가들을 대상으로 지난 9~10일 개최한 'REAIM' 정상회의에 AI 스타트업으로서는 유일하게 초청된 바 있다. 10일 개최된 주요 세션 패널로서 미스트리 대표는 스웜(Swarm)과 같은 최신 AI 기술들의 발전이 국제 안보에 미칠 수 있는 잠재적 악영향에 대해 발표했다. 스웜 AI는 작은 AI 에이전트들이 협력해 더 큰 지능을 발휘하는 기술로, 통제하기 어려운 집단 지능을 형성해 예측 불가능한 행동을 초래할 수 있다. 미스트리 대표는 패널에서 "새로운 AI들의 기술적 특성과 잠재적 악영향을 고려해야 한다"며 "비단 스웜 만이 아니라 앞으로 기하급수적으로 발전할 기술들의 잠재적 악용을 지속적으로 방지하고 책임감 있게 활용하는 것이 매우 중요하다"고 역설했다. 투플랫폼이 유일하게 행사에 초청된 AI 기업인 이유를 묻는 기자의 질문에 그는 "책임·효율성의 균형을 맞추는 동시에 인간과 기술 모두에 집중해 온 경영 철학이 주효했던 것 같다"며 "끊임없이 발전하는 AI가 의도치 않게 발생시킬 수 있는 악영향에 끊임없이 대비하고 인간을 위한 기술을 개발하겠다"고 밝혔다. 그러면서 "우리는 디즈니처럼 상상력과 기술로 세상을 변화시키는 회사가 되고자 한다"며 "기술이 일상에 스며들어 경계가 사라지는 세상을 만들고 싶다"고 강조했다.

2024.09.18 10:36조이환

[기고] 기업 데이터 분석의 새로운 패러다임, 생성형 BI

그야말로 AI열풍이다. 기업에서는 업무 전반에 인공지능(AI) 특히, 대규모 언어모델(LLM)을 적용하거나 새로운 비즈니스 기회를 창출하는 시도가 활발하게 이루어지고 있다. LLM은 언어 모델이기 때문에 주로 비정형 텍스트 문서를 기반으로 AI 활용을 모색하고 있다. LLM의 단점을 보완하기 위해 검색 증강 생성(RAG) 아키텍처를 적용하는 경우도 많다. 다만, 기업의 중요한 정보는 비정형(unstructured) 문서에만 존재하는 것이 아니라, 관계형 데이터베이스(RDB) 같은 데이터 저장소에 정형(structured) 형태로도 존재한다. RDB 데이터의 LLM 적용을 위해서 RDB 데이터를 문서형태로 변환하는 것은 비효율적이다. RDB 데이터는 SQL을 통해 질의하고 결과를 얻는 것이 적절하므로, LLM이 SQL을 생성하도록 하는 것이 바람직하다. 이 과정은 자연어 기반 질의(NL2SQL) 영역에 속하며, LLM이 자연어 질의를 SQL로 변환할 수 있다. LLM은 자연어 질의에 대한 답변을 비롯해 SQL 작성에도 비교적 높은 수준의 성능을 보인다. 다만, LLM은 조직의 내부 DB 정보를 학습하지 않았으므로 RAG 방식으로 기업 내 DB 정보를 LLM 프롬프트에 질의와 함께 전달해 주면, 비교적 정확한 SQL을 생성할 수 있다. RDB에 데이터를 저장하고 분석하는 일은 전통적인 비즈니스 인텔리전스(BI) 영역에 속한다. 데이터 분석을 목적으로 한 NL2SQL은 BI 영역에 생성형AI를 적용한 것이므로 '생성형 BI'라 부를 수 있다. 글로벌 리서치 기관인 가트너에서도 생성형 BI라는 용어를 사용하기 시작했으며, 비정형 텍스트를 대상으로 생성형AI가 활발히 적용된 만큼, 정형 데이터를 대상으로 한 생성형 BI 영역도 급속도로 성장할 것으로 예상된다. 하지만 LLM이 생성하는 SQL이 항상 정확한 것은 아니다. 단순한 DB 모델에서는 LLM의 정확도가 높지만, 복잡한 DB 모델에서는 성능이 떨어질 수 있다. 정확도를 높이기 위해 DB 정보에 대한 설명을 풍부하게 만들어주면 성능이 향상될 수 있으나, 여전히 100% 만족하기는 어렵다. 그 이유는 기업의 복잡한 업무가 DB 테이블 설계에 반영되어 있을 뿐만 아니라, DB 설계자의 설계 스타일도 반영되기 때문이다. 이러한 정보를 모두 서술하기도 어렵고, LLM에 전달해도 이해하지 못해 잘못된 SQL을 생성할 가능성이 크다. 또 다른 문제점은 BI 데이터 분석이 주로 수치화된 정보를 다룬다는 점이다. 예를 들어, 판매수량, 판매금액, 생산수량, 불량수량 등을 집계하는 경우가 많은데, 잘못 생성된 SQL의 결과값이 정답 SQL의 결과값과 조금만 다르다면, 예를 들어 연간 매출액이 10조인데 9.9조나 10.1조의 결과가 나왔다면, 사용자가 이를 오답으로 인지하기 어렵다. 텍스트 문서를 기반으로 한 생성형 AI의 답변이 거짓일 경우, 예를 들어 "세종대왕이 아이패드를 던졌다"는 식의 거짓말은 문장의 특성상 사용자가 쉽게 알아차릴 수 있지만, 숫자로 된 답변은 큰 차이가 아니라면 잘못된 결과임을 인지하기 어렵다. 이러한 Gen BI의 한계를 극복하는 방법 중 하나는 온라인 분석 처리(OLAP)를 활용하는 것이다. OLAP은 SQL을 모르는 사용자도 DB 데이터를 분석할 수 있게 해주는 기술이다. 사용자가 OLAP솔루션에서 OLAP리포트를 작성하고 실행 버튼을 누르면, OLAP엔진이 SQL을 자동 생성해주고 실행 결과를 리포트에 반환해준다. 마치 엑셀의 피봇테이블 기능으로 엑셀의 데이터를 분석하는 것과 유사하다. OLAP이 쿼리 생성자로서의 역할을 수행하는 셈이다. OLAP은 수십 년에 걸쳐 상용화된 기술로, OLAP의 쿼리는 항상 안전하고 정확하다. OLAP 메타데이터를 설정할 때 비즈니스 메타데이터와 기술 메타데이터의 매핑 및 테이블 간의 조인 관계를 미리 설정하기 때문에, 설정되지 않은 조합의 SQL은 생성되지 않는다. OLAP 기반의 Gen BI에서는 LLM이 OLAP 리포트 항목을 선택할 수 있도록, RAG 방식에서 DB 정보 대신 OLAP 메타 정보를 전달하면 된다. 이후 LLM이 OLAP 리포트를 생성하면, OLAP 엔진을 통해 정확한 SQL을 생성하고 실행할 수 있다. OLAP 기반 생성형 BI의 또 다른 장점은 NL2SQL 방식의 Gen BI보다 오류 식별이 용이하다는 점이다. 질의에서 바로 SQL이 생성되는 것이 아니라, 중간 단계에서 OLAP 리포트 항목(관점, 측정값, 필터 조건 등)이 만들어지므로, 사용자가 이를 보고 LLM이 올바른 답을 도출했는지 쉽게 검증할 수 있다. 많은 OLAP 기반 BI 솔루션과 분석 솔루션들이 Gen BI 기능과 서비스를 출시하고 있다. 아직 Gen BI는 초기 단계이지만, 정확도를 높이기 위한 RAG 적용이나 외부 LLM 활용에 따른 데이터 보안 문제 등이 점차 개선될 것으로 보인다. 예를 들어 마이크로스트레티지와 같은 OLAP 기반 BI 솔루션 제공업체들은 기존 BI의 장점에 AI를 결합한 솔루션을 제공하고 있다. NL2SQL 기반의 생성형 BI도 SQL을 아는 개발자나 분석가의 생산성을 높이는 초도 Query 작성용으로 활용한다면 가치를 발휘할 것이다. 그러나 SQL을 모르는 일반 사용자에게는 OLAP 기반의 생성형 BI가 더 유리할 것이다. 언제까지? 아마도 LLM이 DB 설계자의 성향까지 극복해 정확한 NL2SQL을 생성할 때까지일 것이다. 챗GPT의 등장과 빠른 업그레이드처럼, 그 시기는 예상보다 빨리 올 수도 있다.

2024.09.13 10:29류진수

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

美 클라우드플레어, '웹사이트 스크랩' 차단 지원

미국의 인터넷 보안 업체 클라우드플레어가 웹사이트 소유자들이 인공지능(AI) 서비스의 콘텐츠 접근을 차단하는 기능을 출시했다. 여러 AI 기업들이 타사 웹사이트를 무단으로 스크랩해 콘텐츠를 수집하자 대응 조치를 내놓은 것이다. 지난 6일 포브스 등 외신에 따르면, 클라우드플레어는 공식 블로그를 통해 클라우드플레어 고객이 자신의 웹사이트를 방문하는 AI 봇을 차단하는 기능을 출시했다고 밝혔다. 클라우드플레어 관계자는 해당 기능을 출시한 이유에 대해 "생성형 AI의 인기로 모델 학습이나 추론 실행에 사용되는 콘텐츠 수요가 급증하고 있다"며 "웹 스크래핑용 AI봇을 투명하게 운영하지 않는 일부 AI 기업이 무단으로 콘텐츠를 가져가는 사례도 발생하고 있다"고 설명했다. 해당 기능은 클릭 한 번으로 클라우드플레어 고객 누구나 활성화할 수 있으며 무료 사용자도 이용 가능하다. 해당 기능이 활성화되면 클라우드플레어 자체 기술로 봇 점수를 계산하며, AI봇을 식별하고 막는다. 클라우드플레어는 발표와 함께 자사가 수집한 'AI 스크랩퍼'들의 활동 데이터를 공유했다. AI 모델을 학습시키기 위해 대규모언어모델(LLM) 등의 콘텐츠 수요가 급증하자 여러 기업에서 타사의 홈페이지의 스크랩해 콘텐츠를 도용한 것이다. 해당 데이터에 따르면, 6월 한 달 간 클라우드플레어 사용자 중 약 39%가 AI 봇에 의해 홈페이지 스크랩을 당했다. 또한 이 중 2.98%만이 홈페이지 스크랩을 자체적으로 차단한 것으로 나타났다. 클라우드플레어 관계자는 "봇 탐지를 회피하기 위해 기존 감지 규칙을 우회해 콘텐츠에 접근하려는 AI 기업이 계속 나올 것으로 보인다"며 "클라우드플레어는 머신러닝 모델을 고도화하고 더 많은 AI봇을 차단목록에 추가해 콘텐츠 제작자가 성장할 환경을 제공할 것"이라고 말했다.

2024.07.07 14:13정석규

메타, '라마3' 전용 AI인프라 공개...GPU만 4만9천개

메타가 차기 대규모언어모델(LLM) '라마 3' 학습을 위한 세계 최대 규모의 컴퓨팅 인프라를 공개했다. 최근 실리콘 앵글 등 외신에 따르면 메타는 AI학습을 위한 데이터센터급의 24K GPU 클러스터 한 쌍의 세부정보를 공식 블로그를 통해 공개했다. 여러 그래픽처리장치(GPU)를 네트워크로 연결해 병렬 컴퓨팅 작업을 수행하는 시스템이다. 기계학습, 대규모 시뮬레이션 등 대규모 계산 작업을 더 빠르게 처리하기 위해 활용된다. 메타에서 공개한 24K GPU 클러스터는 2022년 선보인 리서치슈퍼클러스터(RSC)의 후속모델이다. 이름처럼 2개의 클러스터에 각 2만4천576개의 엔비디아 텐서 코어 H100(이하 H100) GPU가 적용된 것이 특징으로 총 4만9천 개 이상의 H100 CPU를 활용할 수 있다. 이번 발표는 일반인공지능(AGI) 연구를 위해 대규모 인프라 구축 계획의 일환이다. 메타는 2024년 말까지 35만 개의 H100 GPU를 포함한 AI 인프라를 확장할 계획이다. 이를 통해 기존에 확보한 인프라를 포함해 60만 개의 H100 GPU 수준의 컴퓨팅 파워를 갖추는 것을 목표로 한다. 두 클러스터는 GPU 수가 동일하며 개방형 GPU 하드웨어 플랫폼 '그랜드 티톤(Grand Teton)'을 사용해 구축됐다. 하지만 네트워크 인프라 설계에 차이가 있다. 하나는 웻지 400 및 미니팩 2 OCP 랙 스위치와 아리스타 7800를 기반으로 자체 개발한 RDMA 오버 컨버지드 이더넷(RoCE) 솔수션을 적용했다. 두 번째 클러스터는 엔비디아의 퀀텀2 인피니밴드 패브릭 솔루션이 적용됐다. 두 클러스터의 구조를 다르게 한 이유는 향후 더 크고 확장된 클러스터 구축을 목표로 하기 때문이다. 두 클러스터에서 다양한 분야의 AI를 학습하며 어떤 구조와 설계 방식이 AI에 적합한지 데이터를 확보해 이후 적용하겠다는 비전이다. 저장장치도 해머스케이프와 협력해 자체 개발했다. 생성형 AI 훈련 작업이 점점 빨라지고 규모가 커지는 것에 대비해 고성능이면서도 수만개의 GPU에서 동시 작업하는 데이터를 감당할 수 있도록 E1.S SSD를 활용했다. 이와 함께 구글은 개방형 AI 생태계 활성화를 위해 AI 소프트웨어 프레임워크인 파이토치를 지속해서 지원할 것이라고 강조했다. 케빈 리 등 구글 연구원은 “지난 2015년 빅서 플랫폼을 시작으로 GPU 하드웨어 플랫폼을 설계를 공개하고 있다”며 “우리는 이런 정보 공유가 업계의 문제 해결을 돕는데 도움이 될 것이라고 믿고 있다”고 이번 GPU 클러스터 관련 내용을 공개한 이유를 밝혔다. 이어서 “우리의 AI 노력은 개방형 과학과 교차 협력의 철학을 바탕으로 구축됐다”며 “개방형 생태계는 AI 개발에 투명성, 정밀성, 신뢰를 제공하고 안전과 책임을 최우선으로 하여 모든 사람이 혜택을 누릴 수 있는 혁신을 이끌어낼 것”이라고 강조했다.

2024.03.17 13:07남혁우

줌, 생성 AI 어시스턴트 한국어로 대화한다

줌비디오커뮤니케이션즈(이하 줌)은 생성형 AI 어시스턴트 '줌 AI 컴패니언'의 지원 언어를 한국어를 포함한 36개 언어로 확대한다고 8일 밝혔다. 줌 미팅 내 줌 AI 컴패니언 기능은 프리뷰 버전으로 한국어를 포함 36개국 언어로 제공될 예정이며, 미팅 요약 기능에는 자동 언어 감지 기능이 추가된다. 줌의 비동기식 커뮤니케이션 툴인 줌 팀챗의 지원 언어도 9개로 확대된다. 유료 계정 사용자에게 추가 비용없이 제공되는 줌 AI 컴패니언은 작년 9월 출시됐다. 출시 후 현재까지 51만 건 이상의 계정에서 사용됐으며, 720만 건 이상의 미팅 요약을 생성했다. 현재 프리뷰 버전으로 제공되는 줌 미팅의 AI 컴패니언 미팅 요약 및 미팅 중 질문 기능은 이제 한국어를 포함해 36개국 언어를 지원한다. AI 컴패니언이 회의 중 사용되는 언어를 자동으로 감지해 해당 언어로 미팅 요약을 생성하는 기능도 추가됐다. 이제 사용자가 사전에 직접 언어를 미리 설정하지 않아도 사용 언어로 작성된 미팅 요약을 받아볼 수 있다. 줌 팀챗의 AI 컴패니언도 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 중국어 간체자 및 번체자, 일본어 등 지원 언어가 9개로 확대된다. 사용자는 9가지 언어로 제공되는 AI 컴패니언을 활용해 챗을 생성하거나 챗 스레드의 요약본을 받아볼 수 있다. 줌은 줌 팀챗 지원 언어를 추가적으로 확대해나갈 예정이다. 마헤쉬 람 줌 AI총괄은 “글로벌 조직이라면 더더욱 다국어 서비스를 지원하는 AI를 사용해야한다”며 “협업과 생산성 향상을 위해 AI를 사용하는 경우, AI가 팀원의 언어를 지원하는 것은 매우 중요하다”고 밝혔다. 그는 이어 “글로벌 팀의 효과적 협업 지원을 목표로 하는 줌에게 AI 컴패니언 언어 지원 확대는 당연한 수순"이라고 덧붙였다.

2024.03.08 11:23김우용

마이디포 "오픈소스 AI-LLM 잘 꿰어야 보배"

속담에 '구슬이 서 말이라도 꿰어야 보배'(아무리 좋은 것이라도 쓸모 있게 만들어 놓아야 값어치가 있다는 뜻)라 했다. 다양한 인공지능(AI) 기술들이 쏟아져 나왔지만, 아직 사람들의 일상과 업무에 눈에 띄게 사용되는 제품이나 서비스가 기대만큼 많지 않은 게 사실이다. 그나마 지난해 초거대 언어모델(LLM)과 생성형 AI 기술 고도화가 무르익으면서 실생활에 쓰이는 AI 제품과 서비스들이 하나둘 늘어나는 추세다. 이런 한계를 딛고, 개별적인 AI 기술과 서비스들을 한 데 모아 업무 효율성과 완성도를 높이는 기업이 있다. 그야말로 구슬(AI)을 하나하나 꿰어(조합) 보배(앱)로 만드는 AI 매시업 기업 '마이디포'가 그 주인공이다. 매시업이란 웹서비스 업체들이 제공하는 각종 콘텐츠와 서비스를 융합해 새로운 웹서비스를 만들어내는 것을 뜻한다. 예를 들어 AI 기술을 활용해 번역서를 출간한다고 하면, 도서 표지는 '스테이블 디퓨젼'이 디자인하고, 교정과 윤문은 '챗GPT'가, 번역은 'DeepL'이 담당하는 식이다. 그 동안에는 출판사가 디자이너·편집자·번역가 등을 채용해 번역서를 펴냈다면, 마이디포는 마치 오케스트라 지휘자처럼 결과물에 적합한 최적의 AI 서비스들을 조합해 결과물을 만들어낸다. 이처럼 마이디포는 각각의 AI 모델(서비스)들을 모듈화하고, 사용자가 필요로 하는 서비스(앱)에 적합한 모듈을 가져다 쓸 수 있도록 했다. 요청하는 작업은 각각의 모듈에 뿌려져 분산·병렬 처리되기 때문에 사용자는 시간 단축 효과를 볼 수 있다. 마이디포 솔루션은 먼저 판례 및 사건 분석 등이 필요한 변호사, 보고서 작성이 많은 금융사, 초벌 번역 등이 필요한 출판사, 외신 번역과 기사 작성이 주 업무인 언론사 등에게 유용하게 쓰일 수 있다. 또 벤처캐피털의 투자심사 보고서 작성 등에도 활용할 수 있다. 류승훈 대표, 코트라 직원서 창업가로...생성 AI 가능성 보고 '마이디포' 창업 마이디포를 창업한 류승훈 대표는 대한무역투자진흥공사(KOTRA) 출신이다. 2012년 퇴직 후 '플랫클'이란 회사를 창업해 '거인의 서재' 앱을 출시, 출판계의 디지털 마케팅을 혁신했다. 그 후 거인의 서재는 체인지그라운드에 매각됐고, 류 대표는 300명의 뛰어난 개발자를 육성하겠다는 취지로 '300Dev'라는 회사를 세웠다. 베네수엘라를 중심으로 중남미 개발자들에게 글로벌 네트워크와 글로벌 비즈니스 기회를 제공, 북미 시장에 실력 있는 각국 개발자들이 접근할 수 있는 토양을 만들었다. 류 대표의 도전은 여기에서 멈추지 않았다. 본인 지분을 매각한 뒤, 지난해 생성형 AI 가능성을 보고 마이디포를 창업했다. 류승훈 대표는 “라틴아메리카에 있는 6명의 팀원은 기술 개발과 마케팅 담당을 하고, 국내에는 3명의 직원들이 B2B 영업과 기획, 디자인 등의 업무를 맡고 있다”면서 “마이디포는 파편화된 AI 서비스들을 하나하나 모듈화 시키고 조합함으로써 대용량을 병렬, 분산처리 해 고속으로 결과물을 얻을 수 있다”고 설명했다. 류 대표에 따르면 마이디포는 현재 '팔만대장경 프로젝트'를 진행 중이다. 이 프로젝트는 1971년 미국 일리노이대 학생이던 마이클 하트가 시작한 '구텐베르크 프로젝트'라는 사회 운동을 모티브로 한다. 저작권 문제가 해결된 고전을 직접 타이핑해 모두가 무료 또는 최소한의 비용으로 읽을 수 있도록 한 이 프로젝트는 50년도 넘게 진행돼 현재 7만권이 넘는 세계 각국의 도서가 인터넷을 통해 공유되고 있다. 마이디포는 구텐베르크 프로젝트의 문서를 LLM AI를 활용해 읽기 쉬운 우리말 도서로 변환하는 작업을 하고 있다. 번역, 교정, 표지 디자인, 전자책 출간 등의 작업이 과거에는 수주에서 몇 달이 걸렸다면, 팔만대장경 프로젝트는 300페이지 외서 초벌 번역을 5분까지 단축시키는 것이 목표다. 류 대표는 “여전히 구텐베르크 프로젝트의 과실은 영어 사용자들이 주로 누리고 있는데, 생성형 AI 시대에는 모든 게 달라질 것”이라며 “언어 장벽 탓에 쉽게 접근할 수 없었던 구텐베르크 프로젝트의 문서를 읽기 쉬운 현대 우리말로 만들 것으로 기대, LLM 인공지능을 활용해 구텐베르크 도서를 한국어 도서로 변환하고 있다. 수주에서 몇 달 걸리던 작업을 단 5분으로 단축하고자 하는데 이것이 우리의 팔만대장경 프로젝트”라고 말했다. 종착지는북미 시장..."누구나 쉽게 이용하고 조합할 수 있는 AI 서비스 지향" 류 대표가 궁극적으로 바라보는 시장은 히스패닉 시장을 교두보로 한 북미 지역이다. 창업 초기부터 글로벌 개발팀을 꾸렸는데, 챗GPT 상위 국가에 미국·인도, 그 뒤로 콜롬비아와 브라질 등 히스패닉 국가가 상위 5위권에 오른 것을 눈여겨봤다. 미국 내 히스패닉 인구가 이미 6천500만을 넘었는데, 류 대표는 히스패닉 시장을 교두보 삼아 세계 최대 시장인 북미 지역으로 진출한다는 구상이다. 류 대표는 “마이디포를 지난해 3월에 개발해 그해 5월 개념증명(PoC)을 했고, 7월 최소기능제품(MVP)을 출시, 현재는 서비스 고도화에 집중하고 있다”면서 “현재 이용 고객의 70%가 히스패닉 시장에서 발생하고 있는데, 서비스 안정화와 완성도가 갖춰지면 글로벌 시장뿐 아니라 국내에서도 마케팅 활동을 펼칠 계획”이라고 밝혔다. 마이디포 AI 서비스는 크게 세 가지로 구분된다. 먼저 월 구독 모델로 AI 매시업 프레임워크를 제공한다. 또 마이디포 AI 컨설턴트들이 AI 활용 방법을 상담해준다. 끝으로 프롬프트 엔지니어링 등 기업 맞춤형 매시업 솔루션을 제작, 공급해준다. 개인 또는 기업은 필요로 하는 나만의 AI 서비스(앱)를 마이디포에 직접 제작 의뢰해 최적의 결과물을 얻을 수도 있으며, 다른 창작자들이 공개해 놓은 오픈마켓에서 적합한 서비스를 골라 유료로 구매한 크레딧을 지불하고 이용할 수도 있다. 이 때 창작자는 앱 사용 수익의 70%를 받는 구조다. 류승훈 대표는 “마이디포 서비스 고도화 맵에 있어 기술적인 목표는 LLM을 어떻게 나에게 더 잘 맞는 서비스로 만드느냐가 있다. 데이터를 양과 질을 고도화 시켜 맥락에 맞는 결과물을 얻는 것”이라면서 “각 AI 기술과 서비스들의 장점을 활용해 누구나 쉽게 이용하고 조합할 수 있도록 확장시키는 것이 마이디포의 목표”라고 말했다. 이어 “우리가 생각하는 범용인공지능(AGI)은 단순한 만물박사가 아니라, 여러 가지가 조합돼 결국은 우리가 원하는 결과를 얻어내는 것”이라며 “각 모듈들이 AGI 내에서 하나의 플러그인으로 활용될 수 있다. 마이디포의 리퀘스트 마켓이 적극 활용되고 집단적인 프롬프터들이 쌓인다면 다양한 AI 서비스들이 보다 쉽고 널리 쓰일 것”이라고 말했다.

2024.01.31 14:14백봉삼

비아이매트릭스, 데이터 분석 AI비서용 자체 LLM 출시

비아이매트릭스는 자체 개발한 LLM(거대 언어 모델) 'G-매트릭스(G-MATRIX) MX-7B'를 출시했다고 10일 밝혔다. 이번에 발표한 'G- 매트릭스 MX-7B'는 자연어 기반 데이터 분석 및 시각화 서비스에 특화된 언어 모델이다. 업무 담당자가 AI와 대화를 하듯이 기업의 데이터베이스에서 데이터를 조회하고, 조회한 데이터를 바탕으로 분석 화면을 제작하는 생성형 AI 솔루션 G-매트릭스에 최적화했다. G- 매트릭스 MX-7B는 70억 개의 매개변수를 가진 경량 언어 모델이다. 산업군에 특화된 5만 개 이상의 데이터 분석용 질문과 다양한 시각화 대시보드 탬플릿을 학습해, 자연어로 기업의 데이터를 추출하고 데이터 특성에 맞는 시각화 화면을 추천하는 것이 가능하다. 모든 기업에서는 그동안 생성형 AI를 활용한 업무혁신을 희망하였으나, 보안을 이유로 도입을 망설였던 기업을 위하여 온프레미스형 LLM으로 내부망에서 구축 가능한 환경을 제공한다. 지금까지 다양한 시스템 구축을 필요로 했던 데이터 분석 업무 혁신 분야에 특화됐다. 또한 데이터 분석 업무용으로 최적화, 경량화되어 하드웨어 자원의 최소화가 가능하여 타사 대비 도입 비용이 절감되고 빠른 처리 속도를 제공한다. 이번에 출시된 MX-7B는 전 세계 인공지능 솔루션이 모여있는 허깅페이스에도 등록되어 있다. 비아이매트릭스는 2023년 데이터 분석용 생성형 AI 솔루션 G-매트릭스 2.0을 출시한데 이어 기업에서 보안 걱정없이 사용할 수 있는 자체 LLM까지 출시하여 실용적 AI를 구현하는 회사로써의 이미지를 부각시킴과 동시에 기업의 업무 생산성 혁신에 기여할 예정이다. 올해 생성형 AI 분야의 R&D 인력을 대폭 강화하고, 그동안 보유한 데이터 기반 특허 기술들과 융합하여 상반기에는 데이터 예측 및 아우디(AUD) 플랫폼 코팡일럿도 선보일 예정이다. 또한 이번 출시로 더 나은 비즈니스 환경과 업무 효율성을 추구하는 기업들에게 혁신적이고 안전한 솔루션을 제공하고 성공 가능한 사업 모델을 지속적으로 제시하여 현실성있는 생성형 AI 분야에서 시장을 선도해 나가겠다는 포부를 밝혔다.

2024.01.10 11:32남혁우

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

과기정통부, AI 중심 조직 개편 '가속'…정책 컨트롤타워 본격화

"국정자원 화재 초래 서버-배터리 간격 규제해야"

미 연방정부 셧다운에 사이버보안도 '셧다운' 위기

오픈AI 영향력 이 정도?…AI에 진심인 이재명, 43년 묵은 금산분리 '완화' 추진

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.