• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'대규모 언어 모델'통합검색 결과 입니다. (34건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

타이핑 없이 느낌으로 코딩하는 시대…'바이브코딩'오나

인공지능(AI) 기술 급격한 발전으로 소프트웨어(SW) 개발 방식에 큰 변화가 있을 것이란 전망이 제기되고 있다. 특히 기존의 수작업 중심 개발 방식에 근본적인 변화를 예고하며 AI가 대신 코딩하는 형태의 개발 문화가 자리잡을 것이란 예상이다. 대표적으로 최근 전 테슬라 AI 디렉터이자 오픈AI 공동 창립자인 안드레 카파시(Andrej Karpathy)는 '바이브코딩(Vibe Coding)'이라는 개념을 SNS를 통해 제시했다. 그는 "최근 내가 '바이브 코딩이라고 부르는 새로운 종류의 코딩이 있다"며 "이 방식은 그저 바이브에 완전히 몸을 맡기고 지수적 변화를 받아들이며 코드가 존재한다는 사실조차 잊는다"고 바이브코딩을 설명했다. 이어 "이러한 개발이 가능한 이유는 LLM의 기능이 너무 좋아졌기 때문"이라고 밝혔다. 그는 실제로 코드 편집기인 커서 컴포저(Cursor Composer), LLM 소넷(Sonnet), 음성 명령 도구 슈퍼위스퍼(SuperWhisper) 등을 AI기반 도구를 활용해 키보드를 거의 사용하지 않고 프로젝트를 진행하고 있다고 밝혔다. 예를 들어 UI 스타일 변경, 버그 수정, 레이아웃 조정 등의 요청을 모두 음성이나 자연어로 입력하는 것 만으로 AI가 이를 인식하고 자동으로 작성한다. 안드레 카파시는 코드 리뷰나 디버깅도 AI에 맡기고 있다고 설명했다. 에러 메시지를 복사해 붙여넣기만 해도 대부분 문제가 해결되며, 코드 변경 내용은 별도 검토 없이 전부 수락하는 방식으로 작업한다. 그는 이러한 흐름을 '더 이상 코딩이라 부를 수 없는 새로운 제작 방식'이라고 표현했다. 안드레 카파시 외에도 실리콘밸리의 스타트업에서 상당수 AI를 활용한 개발이 가속화되고 있는 추세다. 미국 최대 스타트업 액셀러레이터인 와이컴비네이터의 개리 탄 최고경영자는 "포트폴리오 스타트업 중 25%가 전체 코드의 95%를 AI에 의존하고 있다"고 밝힌바 있다. 그는 LLM 기반 개발 도구를 활용하면 소규모 인력으로도 대규모 제품을 빠르게 출시할 수 있으며, 코드 품질 역시 일정 수준 이상을 유지할 수 있다고 설명한다. 더불어 비개발자인 실무자도 직접 앱을 개발하고 운영하는 만큼 속도가 중요한 스타트업의 경쟁력을 높일 수 있다는 것도 장점으로 꼽았다. 비개발자나 초급 개발자도 프로토타이핑 수준의 기능을 빠르게 구현할 수 있어 스타트업과 소규모 팀에 적합하다는 의견이 제시된다. 프로덕트 매니저, 디자이너 등의 직군에서도 AI 기반 개발 도구를 도입하는 사례가 늘고 있다. AI의 개입이 코드 작성 전반을 대체하면서 개발자의 역할도 재정의되고 있다. 코드를 잘 작성하는 능력은 점차 AI로 대체되고 있으며 대신 AI의 효율적 활용, 명확한 설계 지시 능력, 비즈니스 요구사항과 다양한 기술 간 조합 능력이 새로운 핵심 역량으로 부상하고 있다. 안드레 카파시의 바이브코딩에 대해선 아직 긍정과 우려가 교차한다. 생산성과 접근성을 높였다는 평가가 있는 반면, 코드 품질 저하와 기술 부채 누적에 대한 경계도 커지고 있다. 특히 AI가 생성한 코드를 사용자가 충분히 이해하지 못한 채 적용할 경우 보안 취약점이나 논리 오류가 발생할 수 있다. 복잡한 시스템에서는 장기적인 유지보수가 어려워질 수 있다는 지적도 제기된다. 안드레 카파시 역시 바이브코딩이 주말에 만들고 테스트하는 프로젝트용으로 바이브코딩이 적합하며 진짜 코딩은 아니라고 언급했다. 간단한 서비스나 데모 개발 등에는 효과적이지만 정교한 인프라나 실시간 시스템 개발에는 여전히 한계가 있다는 것이다. 더불어 그는 일부 버그의 경우 AI가 해결하지 못해 반복적인 요청이나 질문을 우회해야 했다고 밝혔다. 파이썬 웹 프레임워크 장고(Django)의 공동 창시자인 사이먼 윌리슨도 "LLM은 강력한 보조 도구이지만, 코드에 대한 이해와 검토 과정을 생략해서는 안 된다"며 과도한 AI 의존에 대해 경고했다. 이러한 우려에도 불구하고 AI를 중심에 둔 개발 방식은 빠르게 하나의 흐름으로 자리잡고 있다. 구글, 마이크로소프트, 아마존 등 주요 빅테크는 코파일럿, 제미나이 코드 어시스트, Q디벨로퍼 등 자체 개발한 LLM 기반 개발 도구를 선보이고 있다. AI 기반 개발은 아직 실험과 실전 단계의 경계에 놓여 있다. 그러나 LLM이 생성하는 코드 품질이 빠르게 개선되며 일부 분야에서는 코드를 쓰지 않고 개발이 가능할 것이란 예측이 강세를 보이고 있다. 베타랩스 데니스김 CEO는 "바이브코딩은 아직 초기 개념이지만 직관과 감성, 협업의 시대로 전환하는 디딤돌이 될 수 있다"며 "이제 우리는 AI와 코드를 함께 느끼는 시대로 향하고 있는지도 모른다"고 말했다.

2025.03.30 09:11남혁우

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우

의료분야에 대규모언어모델 적용시 보안침해 공격 성공률 81%

서울아산병원 연구팀, 개인정보유출 위험성 분석 대규모언어모델이 답변 생성 과정에서 학습된 원본 데이터 노출 가능성도 22% 최근 챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델(Large Language Model, LLM)을 접목한 디지털 혁신에 의료분야에서도 주목하고 있다. 하지만 환자의 개인정보보호가 특히 중요한 의료분야의 경우 대규모언어모델 사용에 따른 개인정보유출 등 보안에 대한 우려도 제기되고 있다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀이 대규모언어모델을 의료분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다. 연구팀은 의료분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다. 이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다. 의료계에서 인공지능의 중요성이 점점 확대됨에 따라, 임상의학 분야 세계 최고 권위지로 꼽히는 NEJM에서도 지난해 1월부터 인공지능 분야만을 특화해 다루는 자매지를 출간한 것이다. 대규모언어모델은 수십억개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다. 의료분야에 대규모언어모델을 적용하면 엑스레이‧CT‧MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다. 뿐만 아니라 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대되고 있다. 문제는 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적‧법적 위험성이 초래될 수 있다는 점이다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만6천434명의 의무기록을 활용해 대규모언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다. 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행됐다. 먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다. 또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다. 구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다. 김영학 서울아산병원 심장내과 교수는 “의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다”며 “민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

2025.01.12 09:00조민규

[기고] 산업 경계를 넘어서는 AI 혁신, 최적의 인프라에서 시작된다

비즈니스 환경이 급속도로 진화하면서 기업들은 끊임없이 생산성 향상과 데이터 활용, 사용자 경험 개선을 추구하고 있다. 이러한 변화 속에서 인공지능(AI)은 기업들의 핵심 과제를 해결할 강력한 도구로 주목받고, 많은 기업은 AI 도입을 통해 경쟁력을 강화하려 노력하고 있다. 산업별 AI 활용 현황과 전망 다양한 산업 분야에서 AI는 혁신적인 변화를 이끌고 있다. 유통 업계에서는 AI 기반 분석을 통해 재고 관리를 최적화하고 개인화된 고객 서비스를 제공하면서 매출 증대와 고객 만족도 향상을 동시에 달성하고 있다. AI는 고객의 구매 패턴을 분석해 최적의 재고 수준을 유지하고 각 고객에게 맞춤형 상품을 추천함으로써 구매 전환율을 높이는 데 기여한다. 의료 분야에서는 예측 분석과 머신러닝을 활용해 진단 정확도를 높이고 환자 치료 결과를 개선하고 있다. AI 알고리즘은 의료 영상을 분석해 초기 단계의 질병을 발견하고 환자의 의료 기록을 바탕으로 최적의 치료 방법을 제시한다. 이를 통해 의료진은 더 정확하고 효율적인 의사결정을 내릴 수 있다. 금융권에서는 대규모 언어 모델(LLM)을 도입해 실시간 금융 사기 탐지와 자동화된 거래 전략을 구현하고 있다. AI는 수많은 거래 데이터를 실시간으로 분석해 이상 거래를 감지하고 시장 동향을 예측해 최적의 투자 전략 수립을 지원한다. 제조업에서는 AI 기반 예측 유지보수로 설비 다운타임을 최소화하고 생산 효율을 높이고 있다. 센서에서 수집된 데이터를 AI가 실시간으로 분석해 설비 고장을 사전에 예측하고, 최적의 유지보수 시점을 제시함으로써 생산 중단을 방지한다. 이는 생산성 향상과 비용 절감으로 이어진다. AI 워크로드의 특성과 인프라 요구사항 AI 워크로드는 모델 학습과 실행, 유지관리에 있어 특별한 요구사항을 가진다. 예측 분석, 자연어 처리, 이상 징후 감지, 이미지 인식, 추천 시스템 등 각각의 워크로드는 고성능 컴퓨팅 자원과 대용량 스토리지가 필요하다. 특히 딥러닝 모델은 수십에서 수천억 개의 파라미터를 처리해야 해 강력한 GPU 성능이 요구된다. AI 인프라의 핵심 요소는 강력한 컴퓨팅 성능이다. GPU와 같은 가속기는 복잡한 연산을 병렬로 처리해 AI 모델의 학습 및 추론 속도를 크게 향상시킨다. 또한 지속적으로 증가하는 데이터 규모에 맞춰 스토리지 시스템은 높은 확장성과 처리 성능을 갖춰야 한다. 네트워크 인프라도 중요한 요소다. AI 워크로드는 대량의 데이터를 빠르게 이동시켜야 해 고속 네트워크가 필수다. 실시간 처리가 필요한 애플리케이션의 경우 낮은 지연시간이 매우 중요하다. 보안 역시 간과할 수 없다. AI 시스템은 데이터 보호와 규정 준수를 위한 강력한 보안 기능을 제공해야 한다. AI 도입의 현주소와 미래 전망 2023년 맥킨지 설문조사에 따르면 66%의 조직이 AI를 도입하는 탐색 또는 파일럿 단계에 있는 것으로 나타났다. 이는 AI 도입에 여전히 많은 과제가 있음을 시사한다. 하지만 AI 시장은 2027년까지 1천510억 달러 규모로 성장이 예측되며 기업들의 AI 투자도 꾸준히 증가할 것이다. AI 도입의 성공을 위해서는 명확한 전략과 로드맵이 필요하다. 기업은 자사의 비즈니스 목표와 환경에 맞는 AI 활용 사례를 발굴하고 이를 단계적으로 구현해 나가야 한다. AI 시스템의 구축과 운영을 위한 전문 인력 확보와 교육도 중요하다. HS효성인포메이션시스템은 고성능 컴퓨팅과 AI 워크로드를 위한 통합 AI 플랫폼을 제시하고 있다. 검증된 레퍼런스 아키텍처를 기반으로 데이터센터 AI 인프라의 설계, 배포, 관리를 획기적으로 단순화하고, AI 소프트웨어부터 GPU 서버, 네트워킹, 스토리지에 이르는 모든 구성 요소를 단일 벤더를 통해 제공한다. 현재 가장 많이 도입되고 있는 H100 GPU의 경우 최대 128개 노드까지 확장 가능한 최고 성능의 AI 개발 환경을 지원한다. NVMe 플래시 기반의 고성능 스토리지 시스템은 대규모 AI 워크로드를 효율적으로 처리한다. AI는 기업의 디지털 혁신을 이끄는 핵심 동력이다. 성공적인 AI 도입을 위해서는 적절한 인프라 구축과 함께 명확한 활용 전략이 필요하다. 기업들은 자사 비즈니스 환경과 목표에 맞는 AI 솔루션을 선택하고 이를 효과적으로 구현할 수 있는 파트너십을 구축해야 한다. AI의 잠재력을 최대한 활용하기 위해서는 기술적 준비와 함께 조직의 문화와 프로세스도 함께 변화해야 한다. 이러한 종합적인 접근을 통해 기업은 AI를 통한 진정한 디지털 혁신을 이룰 수 있다.

2025.01.10 23:26정문종

사이냅소프트, '사이냅 도큐애널라이저' LLM 도입 가속 지원

사이냅소프트(대표 전경헌)가 대규모언어모델(LLM) 도입 지원을 위해 문서분석 솔루션 '사이냅 도큐애널라이저'을 고도화 한다. 사이냅소프트는 사이냅 도큐애널라이저에 차트, 도형, 이미지, 수식 등 복잡한 문서 요소까지 아우르는 통합적인 분석 솔루션을 추가한다고 27일 밝혔다. 이번 업데이트는 문서 내 다양한 요소를 정확하게 분석하고, 사용 편의성을 대폭 향상시킨 것이 특징이다. 새롭게 추가된 이미지 추출 기능은 문서 내 포함된 이미지들을 별도의 파일로 추출할 수 있도록 한다. 기존에는 복잡한 과정을 거쳐야 했던 이미지 추출 작업이 단 몇 번의 클릭만으로 가능해졌다. 이 기능을 통해 연구자나 데이터 분석가는 차트나 수식이 포함된 이미지 정보를 보다 쉽게 활용할 수 있게 되어, 필요한 정보를 신속하게 확보하고 분석 시간을 단축할 수 있게 된다. 제목 및 캡션 인식 기능은 문서의 구조를 명확하게 파악할 수 있도록 돕는다. 이는 사용자가 문서의 맥락을 빠르게 이해하고 원하는 정보를 정확하게 찾는데 결정적인 역할을 한다. 페이지 내 읽기 순서 인식은 좌표 정보를 기반으로 더욱 정교해 졌으며 문단의 읽기 순서를 최적화하여, 문서를 더욱 효율적으로 탐색할 수 있도록 지원한다. REST API 기능 지원을 통해서는 개발자들이 도큐애널라이저의 기능들을 자체 애플리케이션에 통합하여 사용할 수 있다. 이를 통해 문서 분석을 자동화하고, 업무 효율성을 높일 수 있도록 지원할 전망이다. 이번 업데이트를 통해 사이냅소프트는 문서 분석을 넘어, 데이터 분석 및 LLM구축 연구 개발 분야에서 분석 품질을 향상시키는 강력한 솔루션으로서의 역할을 수행할 수 있을 것으로 기대 중이다. 사이냅 도큐애널라이저는 타사 제품과 달리 PDF로 변환할 필요 없이 MS오피스 등 원본 파일을 바로 분석할 수 있어 시간과 노력을 절약할 수 있다는 특징이 있다. 원본 파일을 바로 분석할 경우 문서의 포맷과 구조를 유지하면서 분석할 수 있어 데이터의 의미를 보다 정확하게 이해할 수 있다. 또한 텍스트뿐 아니라, 이미지, 차트, 도형 등 다양한 요소를 동시에 분석할 수 있어 종합적인 인사이트를 얻을 수 있다. 전경헌 사이냅소프트의 대표는 "도큐애널라이저의 고도화된 기능은 이미 다수의 LLM 구축 및 지식 자산화 사업에 사용되고 있으며, 다양한 산업 분야에서의 활용 가능성이 높아지고 있다. 앞으로도 고객들의 요구사항을 신속하게 개발에 반영하여, 도큐먼트 AI 전문기업으로서 입지를 더욱 강화하겠다"고 밝혔다.

2024.12.27 08:58남혁우

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

포스코이엔씨, '19조 규모 누적손실' AI로 해결한 방법 제시

국내 건설사의 해외 프로젝트 누적 손실은 19조원에 달한다. 이로 인해 해외 사업의 20%에서 적자가 발생하며 건설사들의 재무 건전성 악화를 유발한다. 누적 손실의 핵심 원인은 사업의 요구사항 및 계약 내용을 정확히 파악하지 못하는 계약 검토 미흡에서 발생한다. 포스코이앤씨는 이를 근본적으로 해결하기 위해 인공지능(AI)을 활용한 계약 문서 검토 솔루션을 개발했다. 3일 포스코이엔씨 연구개발(R&D)센터 스마트컨스트럭션그룹 조우철 차장은 마이크로소프트에서 개최한 AI 트랜스포메이션위크에서 대규모 언어모델(LLM) 기반 서비스 '포스닥(POSDAC)'의 개발 사례를 소개했다. 포스코이엔씨에서 조사한 내용에 따르면 국내 건설사들은 지난 10여 년간 해외 프로젝트에서 약 19조 원 규모의 손실을 기록했다. 이 손실은 대규모 계약 프로젝트에서 발생한 것으로, 건설업계의 글로벌 경쟁력에 큰 타격을 입혔다. 계약서 조항의 불명확한 이해와 발주자의 요구사항을 제대로 반영하지 못하는 계약 검토 미흡과 발주 요구사항의 부적절한 반영과 프로젝트 지연으로 인한 추가 비용 지출 등이 원인으로 꼽혔다. 조 차장은 계약 검토가 제대로 이뤄지지 않는 이유로 시간적 제약과 과도한 업무량 때문이라고 지적했다. 그는 "대규모 프로젝트의 입찰 및 계약 검토 기간은 평균적으로 1~2주에 불과하며 이 기간 동안 약 3천 장 이상의 계약 문서에 대해 기술적, 법적 조항을 검토해야 한다"며 "이 과정에서 오류가 가능성이 증가한다"고 설명했다. 포스닥은 방대한 계약 문서를 효율적으로 분석하고 잠재적 리스크를 도출하는 것을 목표로 마이크로소프트의 애저 클라우드 환경에서 대규모 언어 모델(LLM)을 활용해 구축했다. 검색 증강 생성(RAG) 기술과 제조 환경에 특화된 데이터 학습으로 계약 문서의 조항을 정확하게 파악할 수 있도록 정확성을 높였다. 조 차장은 "제조 산업에서만 주로 사용하는 약 2만여개의 단어를 추가로 학습시켜 문서 검토 단계의 혼선을 줄였다"며 "또한 AI가 모든 업무를 자동으로 처리하는 것이 아니라 AI는 정확한 검토를 위한 근거를 제공하고 사람이 모든 의사결정을 하는 협력관계를 구축하는 것에 집중했다"고 설명했다. 지난 9월 포스닥을 도입한 이후 기존 2주 걸리던 검토 기간을 20% 수준으로 단축하며 계약 검토 리스크를 최소화할 수 있었다. 계약 문서 외에도 법률 자문 및 기술 문서 검토로 범위를 확대할 계획이다. 포스코이엔씨는 사용자의 피드백을 반영해 지속적으로 시스템을 개발해 대외 서비스로 확대하는 것도 고려하고 있으며, 현재 2건의 특허 출원도 완료했다. 조우철 차장은 "현재 솔루션의 성능과 기능을 개선하기 위해 다양한 기술 적용을 검토하고 있다"며 "특히 멀티모달 데이터 처리 및 복합 추론 에이전트 기술 주의 깊게 보고 있다"고 말했다. 이를 통해 "텍스트를 비롯해 아니라 음성 및 기타 비정형 데이터를 분석할 수 있는 서비스도 선보일 수 있도록 노력할 것"이라고 밝혔다.

2024.12.03 17:02남혁우

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

쳐다보기만 해도 개인정보 '탈취'…스마트글래스 '주의'

스마트안경을 이용해 길거리에서 상대를 쳐다보는 것만으로도 신원, 전화번호, 주소 등 개인정보를 확인할 수 있는 기술이 공개됐다. 이 기술은 공공 데이터베이스(DB) 등 현재 널리 사용 중인 제품과 기술을 활용했다는 점에서 파급성이 클 것으로 우려되고 있다. 7일 더버지 등 외신에 따르면 하버드대학의 앤푸 응우옌과 케인 아르다이피오 두 학생은 스마트안경으로 개인정보를 수집하는 모습을 인스타그램을 통해 공개했다. 공개한 영상은 개인정보 침해 방지를 위한 케인 아르다이피오는 스마트안경을 활용해 여러 동급생의 신원, 주소를 비롯해 친척의 이름까지 실시간으로 확인하는 모습을 시연했다. 동기 외에도 지하철 등 대중교통에서 전혀 모르는 사람들과 이 기술을 통해 얻은 정보를 이용해 이전부터 알던 사람인 척 대화를 나누는 모습도 공개됐다. 해당 프로젝트는 스마트글래스의 스트리밍 기술을 활용해 실시간으로 영상을 촬영하면 AI를 활용해 얼굴을 인식하는 방식이다. 인식한 얼굴은 공공 데이터베이스와 연계해 이름, 주소, 전화번호 등 개인정보를 파악해 다시 사용자에게 전달한다. 공개한 영상은 I-X레이 프로젝트의 일환으로 스마트안경과 공공DB 등 현재 많이 쓰이는 기술만으로도 개인정보 유출이 쉽게 발생할 수 있다는 것을 알리기 위해 공개됐다. 시연에 사용한 스마트안경은 메타에서 지난해 출시한 메타의 '레이밴 메타2'이며, 얼굴 검색 엔진은 '핌아이즈(PimEyes)'를 사용했다. 핌아이즈는 얼굴 사진을 입력하면 웹상에서 비슷한 이미지를 찾아주는 AI서비스로 사생활 침해 우려가 지속해서 제기되고 있으며 아동과 청소년은 검색을 제한하기도 했다. 메타 측은 서비스 정책을 통해 영상을 촬영하거나 라이브 스트리밍을 할 때 명확한 제스처를 사용하거나 음성 명령을 사용할 것을 권장했다. 두 하버드 학생은 해당 프로젝트에 대해 "현재의 기술로도 개인정보 악용 사례가 발생할 수 있다는 것을 알리기 위한 것"이라며 "관련 기술을 공개할 계획도 없다"고 밝혔다. 이어 "기술 공개를 통해 미래가 디스토피아로 향하는 것을 막고자 한다"며 "이러한 영상을 통해 기술의 위험성에 대해 경각심을 가지고 개인정보 보호와 관련된 현명한 선택을 하길 바란다"고 말했다.

2024.10.07 10:35남혁우

[기고] 기업 데이터 분석의 새로운 패러다임, 생성형 BI

그야말로 AI열풍이다. 기업에서는 업무 전반에 인공지능(AI) 특히, 대규모 언어모델(LLM)을 적용하거나 새로운 비즈니스 기회를 창출하는 시도가 활발하게 이루어지고 있다. LLM은 언어 모델이기 때문에 주로 비정형 텍스트 문서를 기반으로 AI 활용을 모색하고 있다. LLM의 단점을 보완하기 위해 검색 증강 생성(RAG) 아키텍처를 적용하는 경우도 많다. 다만, 기업의 중요한 정보는 비정형(unstructured) 문서에만 존재하는 것이 아니라, 관계형 데이터베이스(RDB) 같은 데이터 저장소에 정형(structured) 형태로도 존재한다. RDB 데이터의 LLM 적용을 위해서 RDB 데이터를 문서형태로 변환하는 것은 비효율적이다. RDB 데이터는 SQL을 통해 질의하고 결과를 얻는 것이 적절하므로, LLM이 SQL을 생성하도록 하는 것이 바람직하다. 이 과정은 자연어 기반 질의(NL2SQL) 영역에 속하며, LLM이 자연어 질의를 SQL로 변환할 수 있다. LLM은 자연어 질의에 대한 답변을 비롯해 SQL 작성에도 비교적 높은 수준의 성능을 보인다. 다만, LLM은 조직의 내부 DB 정보를 학습하지 않았으므로 RAG 방식으로 기업 내 DB 정보를 LLM 프롬프트에 질의와 함께 전달해 주면, 비교적 정확한 SQL을 생성할 수 있다. RDB에 데이터를 저장하고 분석하는 일은 전통적인 비즈니스 인텔리전스(BI) 영역에 속한다. 데이터 분석을 목적으로 한 NL2SQL은 BI 영역에 생성형AI를 적용한 것이므로 '생성형 BI'라 부를 수 있다. 글로벌 리서치 기관인 가트너에서도 생성형 BI라는 용어를 사용하기 시작했으며, 비정형 텍스트를 대상으로 생성형AI가 활발히 적용된 만큼, 정형 데이터를 대상으로 한 생성형 BI 영역도 급속도로 성장할 것으로 예상된다. 하지만 LLM이 생성하는 SQL이 항상 정확한 것은 아니다. 단순한 DB 모델에서는 LLM의 정확도가 높지만, 복잡한 DB 모델에서는 성능이 떨어질 수 있다. 정확도를 높이기 위해 DB 정보에 대한 설명을 풍부하게 만들어주면 성능이 향상될 수 있으나, 여전히 100% 만족하기는 어렵다. 그 이유는 기업의 복잡한 업무가 DB 테이블 설계에 반영되어 있을 뿐만 아니라, DB 설계자의 설계 스타일도 반영되기 때문이다. 이러한 정보를 모두 서술하기도 어렵고, LLM에 전달해도 이해하지 못해 잘못된 SQL을 생성할 가능성이 크다. 또 다른 문제점은 BI 데이터 분석이 주로 수치화된 정보를 다룬다는 점이다. 예를 들어, 판매수량, 판매금액, 생산수량, 불량수량 등을 집계하는 경우가 많은데, 잘못 생성된 SQL의 결과값이 정답 SQL의 결과값과 조금만 다르다면, 예를 들어 연간 매출액이 10조인데 9.9조나 10.1조의 결과가 나왔다면, 사용자가 이를 오답으로 인지하기 어렵다. 텍스트 문서를 기반으로 한 생성형 AI의 답변이 거짓일 경우, 예를 들어 "세종대왕이 아이패드를 던졌다"는 식의 거짓말은 문장의 특성상 사용자가 쉽게 알아차릴 수 있지만, 숫자로 된 답변은 큰 차이가 아니라면 잘못된 결과임을 인지하기 어렵다. 이러한 Gen BI의 한계를 극복하는 방법 중 하나는 온라인 분석 처리(OLAP)를 활용하는 것이다. OLAP은 SQL을 모르는 사용자도 DB 데이터를 분석할 수 있게 해주는 기술이다. 사용자가 OLAP솔루션에서 OLAP리포트를 작성하고 실행 버튼을 누르면, OLAP엔진이 SQL을 자동 생성해주고 실행 결과를 리포트에 반환해준다. 마치 엑셀의 피봇테이블 기능으로 엑셀의 데이터를 분석하는 것과 유사하다. OLAP이 쿼리 생성자로서의 역할을 수행하는 셈이다. OLAP은 수십 년에 걸쳐 상용화된 기술로, OLAP의 쿼리는 항상 안전하고 정확하다. OLAP 메타데이터를 설정할 때 비즈니스 메타데이터와 기술 메타데이터의 매핑 및 테이블 간의 조인 관계를 미리 설정하기 때문에, 설정되지 않은 조합의 SQL은 생성되지 않는다. OLAP 기반의 Gen BI에서는 LLM이 OLAP 리포트 항목을 선택할 수 있도록, RAG 방식에서 DB 정보 대신 OLAP 메타 정보를 전달하면 된다. 이후 LLM이 OLAP 리포트를 생성하면, OLAP 엔진을 통해 정확한 SQL을 생성하고 실행할 수 있다. OLAP 기반 생성형 BI의 또 다른 장점은 NL2SQL 방식의 Gen BI보다 오류 식별이 용이하다는 점이다. 질의에서 바로 SQL이 생성되는 것이 아니라, 중간 단계에서 OLAP 리포트 항목(관점, 측정값, 필터 조건 등)이 만들어지므로, 사용자가 이를 보고 LLM이 올바른 답을 도출했는지 쉽게 검증할 수 있다. 많은 OLAP 기반 BI 솔루션과 분석 솔루션들이 Gen BI 기능과 서비스를 출시하고 있다. 아직 Gen BI는 초기 단계이지만, 정확도를 높이기 위한 RAG 적용이나 외부 LLM 활용에 따른 데이터 보안 문제 등이 점차 개선될 것으로 보인다. 예를 들어 마이크로스트레티지와 같은 OLAP 기반 BI 솔루션 제공업체들은 기존 BI의 장점에 AI를 결합한 솔루션을 제공하고 있다. NL2SQL 기반의 생성형 BI도 SQL을 아는 개발자나 분석가의 생산성을 높이는 초도 Query 작성용으로 활용한다면 가치를 발휘할 것이다. 그러나 SQL을 모르는 일반 사용자에게는 OLAP 기반의 생성형 BI가 더 유리할 것이다. 언제까지? 아마도 LLM이 DB 설계자의 성향까지 극복해 정확한 NL2SQL을 생성할 때까지일 것이다. 챗GPT의 등장과 빠른 업그레이드처럼, 그 시기는 예상보다 빨리 올 수도 있다.

2024.09.13 10:29류진수

유아이패스 "LLM 결합한 RPA로 쉽고 빠른 기업혁신 지원”

유아이패스가 대규모 언어모델(LLM)을 로봇프로세스자동화(RPA)에 적용해 보다 쉽고 빠르게 기업의 혁신을 돕는다. 유아이패스 세바스찬 슈뢰텔 제품 총괄 부사장 6일 서울 페이몬트 앰배서더 호텔에서 개최한 'AI 서밋 2024'에서 LLM 기반 RPA서비스를 대거 선보였다. 세바스찬 부사장은 " LLM 기반 제품군을 포함한 유아이패스의 혁신은 조직들이 AI의 잠재력을 최대한 활용할 수 있도록 설계됐다“며 ”각 분야에 맞춰 최적화된 A| 및 자동화 기능을 내장함으로써 국내 기업들이 정확성, 일관성, 예측 가능성을 높일 수 있도록 지원한다"고 설명했다. 먼저 공개한 닥패스와 컴패스는 6월 국내 서비스를 시작한 자동화 서비스로 대규모 언어모델(LLM)을 적용한 것이 특징이다. 닥패스는 세금 계산, 인보이스, 구매 주문서, 재무제표 등 다양한 유형의 문서를 처리 작업에 특화됐다. 업무 자동화 과정에서 문서 처리의 신뢰성과 속도를 향상할 수 있도록 지원한다. 컴패스는 이메일, 메시지 등 비즈니스 커뮤케이션 과정에서 정확하고 효율적인 정보 처리에 특화된 서비스다. 기업 내 다양한 커뮤니케이션 채널에서 발생하는 대량의 데이터를 분석하고, 핵심적인 내용을 도출하거나 이상을 감지해 운영 효율성을 개선하고, 기업의 의사 결정 과정을 돕는다. AI의 성능을 높이기 위한 기능도 다양하게 추가됐다. 현재 비공개 프리뷰 버전으로 제공 중인 오토파일럿 어드민은 AI 도구인 오토파일럿을 보다 효율적으로 활용하기 위한 관리 도구다. 이를 통해 사용자는 오토파일럿의 장애를 사전에 방지해 중단 없이 업무를 수행하거나 보다 업무 효율성을 높이는 것이 가능하다. 컨택스트 그라운딩은 기업 내 데이터나 내부 정책 및 절차와 같은 데이터 소스를 AI에 학습시킬 뿐 아니라 색인화하고 검색할 수 있도록 정제해 AI를 비롯해 다양한 환경에서 데이터 환경에서 활용할 수 있도록 제공한다. 또한 생성형 AI 액티비티는 유아이패스 AI 트러스트 레이어를 활용하며, 자동화 워크플로우에서 고품질의 A| 예측에 쉽게 액세스하고 이를 개발하여 활용함으로써 가치 창출 시간을 단축할 수 있다. 조의웅 유아이패스 코리아 지사장은 국내 기업들은 이제 디지털 혁신(DX)을 넘어 AI 혁신(AX)을 중요한 우선 순위로 삼고 있다"며 "유아이패스는 새로 출시된 혁신적인 기능을 포함한 강력한 자동화 도구를 제공함으로써 이러한 변화를 지원하기 위해 최선을 다하고 있다. 유아이패스의 현지화 노력은 다양한 산업 분야에서 문서 처리 정확도를 크게 개선하고 운영 효율성을 향상시킬 것이며, 앞으로도 AI를 활용해 새로운 성장 기회를 창출할 수 있도록 지원할 것"이라고 강조했다.

2024.09.06 13:07남혁우

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

오픈AI 中 서비스 중단…알리바바 '큐원2'가 대안될까

오픈AI가 중국 내 서비스를 전면 차단한 가운데 알리바바가 대규모 언어 모델(LLM) '큐원2-수학(Qwen2-Math)'을 출시해 관심이 쏠린다. 현존하는 LLM 중 최상위권 수학 AI로 평가돼 현지 연구자와 개발자들의 대안으로도 각광 받고 있다. 9일 미국의 기술 매체 벤처비트에 따르면 알리바바의 '큐원2-수학'은 LLM용 수학 벤치마크 '매스(MATH)' 테스트에서 84%의 정확도를 기록했다. 벤치마크 성능 1위인 오픈AI의 'GPT-4 코드 인터프리터(GPT-4 Code Interpreter)'가 기록한 87.92%에 근접한 성과로, 알리바바의 기술력을 입증했다는 평가다. '큐원2'는 초등학교 수준의 수학을 테스트하는 'GSM8K'에서 96.7%, 대학 수준의 수학 테스트에서는 47.8%의 점수를 기록하며 눈에 띄는 성과를 거뒀다. 이는 오픈AI 'GPT-4o', 앤트로픽 '클로드 3.5 소네트', 구글 '수학-제미나이 스페셜라이즈드 1.5 프로(Math-Gemini Specialized 1.5 Pro)'와 같은 주요 경쟁 모델들을 능가하는 결과다. 이번 성과는 중국 유저들에게 의미가 크다. 오픈AI의 서비스 차단으로 중국 개발업계와 학계가 '챗GPT'를 사용하지 못하고 있기 때문이다. 지금까지 중국 개발자·연구자들은 가상사설망(VPN)을 통해 제한적으로 파인튜닝, 연구 및 벤치마킹을 진행해 왔으나 이마저도 지난 7월 전면적으로 차단돼 연구에 제약을 받아 왔다. 이런 상황에서 '큐원2'는 'GPT-4 코드 인터프리터'에 거의 준하는 수학 능력을 달성해 중국 유저들의 업무를 효율적으로 지원할 것으로 예측된다. 이에 맞춰 알리바바는 해당 모델의 광범위한 활용을 위해 배포를 계획하고 있다. 특히 월간 사용자 수가 1억 명 이하인 기업들에게 오픈소스로 제공해 스타트업과 중소기업이 사실상 무료로 사용할 수 있게 할 방침이다. 벤처비트는 "LLM 모델 경쟁이 매우 빠르게 진행되면서 '큐원'이 지금까지는 경쟁자들에게 밀려났었다"며 "이번 수학 능력의 비약적인 향상은 알리바바가 다시 경쟁력을 회복하는 계기가 될 수 있을 것"이라고 분석했다.

2024.08.09 15:28조이환

마크 저커버그 "차기 LLM 라마4 기존 대비 10배 이상 투자"

메타가 차기 오픈소스 대규모 언어모델(LLM) 개발을 위해 10배 이상의 컴퓨팅 파워를 투자할 전망이다. 2일 테크크런치 등 외신에 따르면 마크 저커버그 최고경영자(CEO)는 메타의 2분기 실적발표에서 향후 AI 개발 계획을 소개했다. 그는 "향후 수 년간 필요한 컴퓨팅 클러스터와 데이터를 계획하고 있다"며 "차기 모델인 라마4(Llama 4)는 업계에서 가장 진보한 오픈 AI모델로 구축하기 위해 이전 모델보다 거의 10배에 달하는 컴퓨팅 파워가 필요할 것이라고 추정했다. 이번 실적 발표에서 수잔 리 최고재무책임자(CFO)는 메타가 올해 생성 AI에서 수익을 창출하지 못할 것임을 인정했다. 또한 다양한 데이터 센터 프로젝트와 미래 AI 모델을 훈련할 수 있는 역량 구축을 고려하고 있어 2025년까지 자본 지출이 늘어날 수 있다고 밝혔다. 이에 대해 마크 저커버그 CEO는 대규모 AI경쟁에서 뒤처지지 않기 위해 투자를 확대하는 과정이라고 밝혔다. 그는 "AI가 앞으로 어떤 추세를 보일지 예측하기 어려운 것은 사실"이라며 "하지만 투자를 멈춘 후 다시 새로운 추론 프로젝트를 시작하기엔 긴 리드타임이 필요하기 때문에 너무 늦기 전에 필요한 인프라를 미리 구축하는 위험을 감수하는 것이 낫다"고 설명했다. 또한 페이스북의 콘텐츠 순위 및 추천 도구와 인스타그램의 피드 등에 AI를 활용하고 있으며 이를 통해 성과를 개선하고 있다며 AI의 활용성을 소개했다. 마크 저커버그는 "예전에는 광고주가 특정 연령대, 지역 또는 관심사와 같이 도달하고 싶은 특정 대상 고객을 가지고 우리에게 왔다"며 "AI가 적용된 우리 광고 시스템은 이제 광고주 자신보다 누가 관심을 가질지 더 잘 예측할 수 있는 지점까지 도달했다"고 강조했다.

2024.08.02 09:58남혁우

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"요금 올리거나, 무료 풀거나"…OTT, 전략 분화

"책 대신 '아이패드'로 수업을"…디지털이 바꾼 교실 풍경은

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

[ZD브리핑] 아시아 IT 박람회 컴퓨텍스 개최...21대 대선 후보 첫 토론회

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현