• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'대규모언어모델'통합검색 결과 입니다. (32건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감

"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.

2025.08.07 11:09남혁우

자연어만으로 UI 설계부터 코딩까지… 토마토시스템 'AI젠' 출시

토마토시스템(대표 조길주)이 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼을 선보인다. 토마토시스템은 대규모 언어 모델(LLM) 기반 UI 자동화 플랫폼 '엑스빌더6 AI젠'(이하 AI젠)을 공식 출시했다고 17일 밝혔다. 이 플랫폼은 단순한 코드 생성 도구를 넘어, 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼으로 평가받고 있다. AI젠은 사용자가 자연어로 입력한 문서, 회의 스케치, 이미지 등을 바탕으로 실시간으로 UI 화면을 설계하고 관련 소스코드까지 자동으로 생성하는 이클립스 기반 플러그인 도구다. 코딩 경험이 없는 비전문가도 손쉽게 UI를 구성할 수 있어 기존 개발 방식에서 발생하는 복잡한 커뮤니케이션 과정을 획기적으로 줄일 수 있다. 특히 AI젠은 요구사항에서 UI 설계, 코드 생성으로 이어지는 정방향 흐름과 이미지에서 UI 설계, 요구사항 도출로 이어지는 역방향 흐름을 모두 지원한다. 이를 통해 기업은 디지털 전환 속도를 크게 높일 수 있으며 인공지능 기반 모델 중심 아키텍처를 실제 개발 환경에 구현할 수 있다. 실시간 애니메이션 형태의 '목업 UI'를 통해 설계 결과를 직관적으로 확인하고 즉시 수정할 수 있어 개발 초기 단계에서의 의사결정 정확성과 속도 역시 크게 향상된다. 업계에서는 AI젠의 등장이 시스템통합(SI) 산업의 구조적 전환을 예고하는 신호탄으로 보고 있다. 기존의 인력 중심 개발 방식에서 벗어나 인공지능이 실질적인 개발을 주도하는 자동화 생태계로의 전환이 가속화되고 있기 때문이다. 실제로 AI젠은 요구사항 분석부터 코드 생성, 테스트, 오류 수정까지 자동으로 수행할 수 있는 기술적 완성도를 갖췄다. 토마토시스템은 AI젠을 통해 개발자의 역할을 전략적 설계 중심으로 전환하고, 개발 리스크를 최소화하는 동시에 생산성 극대화를 실현할 수 있다고 강조했다. 이는 기업의 IT 투자 효율성 향상은 물론, 디지털 전환 수요가 집중되고 있는 공공 및 대기업 시장에서의 경쟁력 확보로 이어질 것으로 전망된다. 조길주 토마토시스템 대표는 "AI젠은 사람 중심의 전통적 개발 방식에서 벗어나 인공지능과 협업하는 새로운 개발 패러다임을 제시한다"며 "기존 수개월이 소요되던 시스템 개발을 수일 내로 단축할 수 있어 기업의 디지털 전환 속도를 획기적으로 끌어올릴 수 있다"고 말했다. 토마토시스템은 AI젠 출시와 함께 온앤온정보시스템, 플로우컨트롤, 칠로엔, 메타빌드 등 인공지능 기술 선도 기업들과 업무협약(MOU)을 체결하고, 산업별 자동화 개발 사례 확보 및 공동 개발 환경 구축에 나섰다. AI젠은 다양한 범용 초거대 언어 모델은 물론, 설치형 모델과도 연동이 가능하며, 향후 산업군별 특화 기능을 지속적으로 확장해 나갈 계획이다.

2025.07.17 17:11남혁우

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권

이스트소프트, AI 휴먼 키오스크 사업 시동…자체 LLM 첫 상용화

이스트소프트(대표 정상원)가 자체 개발한 경량 대규모언어모델(LLM) '앨런'을 앞세워 온디바이스 AI 시장 공략에 본격 나선다. 이스트소프트는 이큐비알과 대화형 AI 휴먼 솔루션 'AI 라이브 챗' 공급 계약을 체결했다고 19일 밝혔다. 이 계약을 통해 양사는 온디바이스 AI 키오스크 시장 공략에 본격 나선다. 이번 계약은 이스트소프트기 '앨런 LLM'과 AI 휴먼 기술을 기반으로 한 온디바이스 소프트웨어 개발 키트(Full On-Device SDK)를 이큐비알에 공급하는 내용이다. 이를 통해 양사는 온디바이스 AI 휴먼 키오스크를 빠른 시일 내에 제품화하고, 초도 물량 20억원 규모를 시작으로 순차적 유통에 돌입한다. 이스트소프트는 키오스크에 탑재되는 AI 라이브 챗이 독립 환경에서 구동돼 ▲높은 보안성 ▲지연시간 최소화 ▲클라우드 인프라 비용 절감 등의 장점을 제공한다고 설명했다. 여기에 검색 기반 생성형 AI(RAG), 음성합성(TTS), AI 휴먼 인터페이스 등 온디바이스 최적화를 위한 기술 고도화를 지속 추진하고 있다. 이큐비알은 금융권 SI 사업에서 쌓은 구축·유통·운영 노하우를 기반으로 키오스크 현장 설치와 유지보수까지 전반을 담당하게 된다. 양사는 기술-사업 연계 모델을 통해 온디바이스 기반 LLM 서비스의 상용화 속도를 높이겠다는 계획이다. 이스트소프트는 이번 계약을 통해 자체 개발한 앨런 LLM을 처음으로 상업 공급하게 됐으며, 이를 기점으로 에이전트 AI 구축 사업과 LLM 플랫폼 확장에 속도를 낼 방침이다. 하반기에는 LLM 기반 온디바이스 솔루션 사업을 주력으로 추진한다. 정상원 이스트소프트 대표는 "이번 계약은 자체 LLM 기술을 온디바이스 환경에 상용화한 상징적인 첫 사례"라며 "AI 라이브 챗을 포함한 다양한 솔루션을 통해 온디바이스 AI 생태계를 선도하고, LLM 기반 사업의 본격 성장을 이끌겠다"고 강조했다. 향후 양사는 공공, 의료, 유통, 관광 등 다양한 분야로 온디바이스 AI 키오스크 사업을 확대하고, 베리어프리 키오스크 도입 의무화에 선제 대응할 계획이다.

2025.06.19 09:43남혁우

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우

의료분야에 대규모언어모델 적용시 보안침해 공격 성공률 81%

서울아산병원 연구팀, 개인정보유출 위험성 분석 대규모언어모델이 답변 생성 과정에서 학습된 원본 데이터 노출 가능성도 22% 최근 챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델(Large Language Model, LLM)을 접목한 디지털 혁신에 의료분야에서도 주목하고 있다. 하지만 환자의 개인정보보호가 특히 중요한 의료분야의 경우 대규모언어모델 사용에 따른 개인정보유출 등 보안에 대한 우려도 제기되고 있다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀이 대규모언어모델을 의료분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다. 연구팀은 의료분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다. 이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다. 의료계에서 인공지능의 중요성이 점점 확대됨에 따라, 임상의학 분야 세계 최고 권위지로 꼽히는 NEJM에서도 지난해 1월부터 인공지능 분야만을 특화해 다루는 자매지를 출간한 것이다. 대규모언어모델은 수십억개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다. 의료분야에 대규모언어모델을 적용하면 엑스레이‧CT‧MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다. 뿐만 아니라 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대되고 있다. 문제는 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적‧법적 위험성이 초래될 수 있다는 점이다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만6천434명의 의무기록을 활용해 대규모언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다. 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행됐다. 먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다. 또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다. 구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다. 김영학 서울아산병원 심장내과 교수는 “의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다”며 “민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

2025.01.12 09:00조민규

"윈도처럼 복잡한 AI, 만들기 보다 도입이 유리"

"AI 모델 개발에는 막대한 데이터와 고성능 컴퓨팅 자원이 필요하며, 이는 많은 기업에 현실적으로 큰 부담이 된다. 이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 유사하다." 발전 속도가 날로 빨라지는 AI를 중심으로 기업 경영과 비즈니스 혁신이 이뤄지고 있다. AI를 효과적으로 활용하지 못하는 기업은 가속화되는 변화를 따라잡기 어려워지는 추세다. 베스핀글로벌은 이런 상황에 대처하기 위해 양질의 상용AI를 활용해 빠르게 시스템을 구축하고 기업은 비즈니스와 장점에 집중할 것을 권하고 있다. 11일 만난 베스핀글로벌의 박기철 헬프나우AI 실장은 이와 같이 말하며 급변하는 AI시대 기업들이 갖춰야 할 AI전략을 제시했다. 박 실장은 AI 기술의 발전 속도가 가속화됨에 따라 기업 내에서 대규모 언어모델(LLM) 등 AI 서비스를 개발하기에는 시간과 자원의 제약이 크다고 지적했다. 특히 천문학적인 단위의 비용과 대규모 전문 인력을 투자하는 상용AI나 오픈소스AI와 비교해 성능이나 개발 속도 면에서 차이가 발생할 수밖에 없다는 설명이다. 그는 "오픈AI나 메타의 경우 AI 개발을 위해 막대한 인력과 고성능 컴퓨팅 자원을 투자하고 있다"며 "이런 방식을 일반 기업에서 그대로 따라하는 것은 현실적으로 한계가 있다"고 설명했다. 이어 "이는 기업에서 윈도나 리눅스 등 운영체제(OS)를 직접 만들어 사용하는 것과 비슷하다"며 "그보다는 이미 검증된 AI와 서비스를 활용하고 기업은 보유한 데이터와 비즈니스에 집중하는 것이 중요하다"고 말했다. GPT나 라마 등 기성 AI는 개발 과정을 최소화해 도입할 수 있는 만큼 초기 투자 비용과 리소스를 줄일 수 있으며, 각 개발사에서 지속적으로 모델을 업데이트하는 만큼 자동으로 최신 기술을 선점할 수 있다. 더불어 박 실장은 상용AI를 기업에 더욱 최적화해 사용할 수 있는 방안으로 헬프나우AI를 활용할 것을 제시했다. 헬프나우AI는 복잡한 코딩이나 프로그램 작업 없이 기업 데이터와 AI를 연계해 맞춤형 AI 서비스를 구축할 수 있도록 지원하는 AI플랫폼이다. AI 에이전트를 통해 반복적인 업무를 자동화하고, 내부 검색 시스템을 고도화하며, 고객 지원 서비스를 혁신적으로 개선할 수 있도록 돕는다. 오픈AI의 GPT-4, 구글의 PaLM2를 비롯해 구글 다이얼로그플로우, 아마존웹서비스(AWS) 렉스, IBM 왓슨 등 다양한 AI를 지원한다. 공공, 통신, 모빌리티, 물류, 제조, 교육 등 다양한 산업 분야에 특화된 AI서비스 환경을 제공한다. 노코드 기반의 인터페이스로 기존 6개월 이상 소요되던 개발 기간을 1개월 내외로 단축하며, 비용도 50% 이상 절감할 수 있다. 이런 장점을 바탕으로 현재 한국공항공사의 김포국제공항 AI챗봇 시범서비스, 매년 대규모로 변경되는 제도·규정을 민원상담사에게 알려주는 한 공공기관의 대내 상담서비스 등에 적용됐다. 한 제조사는 헬프나우AI를 활용해 전사적자원관리(ERP)와 연동한 음성 인식 기반 주문 처리 시스템을 구축했다. 이를 통해 제조 과정에 필요한 자재 주문을 자동화해 주문 처리 시간을 50% 단축하고 인적 오류가 감소하는 성과를 거뒀다. 울산교육청은 헬프나우AI를 기반으로 생성형 AI 기반 개인화 교육 지원 시스템을 구축했다. AI가 학생들의 질문 수준과 학습 이해도에 따라 맞춤형 응답을 제공하는 등 각 학생에 최적화된 교육 서비스를 제공할 수 있었다. 다른 지방자치단체는 민원 처리 시스템에 AI 검색 기능을 추가해 민원 등 업무 처리 시간을 기존 대비 30% 단축시키는 성과를 기록했다. 박기철 실장은 급변하는 AI 시대에 기업이 적응하기 위해서는 AI 기술을 빠르게 도입해 실질적인 비즈니스 성과를 도출하는 것이 중요하다며, 이를 위해서는 상용AI에 기업 데이터를 연동해 맞춤형 AI환경을 구축하는 것이 가장 유리하다고 강조했다. 그는 "기업에서 AI를 개발하고 운영하기 위해서는 그만큼 막대한 투자비용이 지출되고 도입까지의 기간도 늘어질 수밖에 없다"며 "AI 도입과 운영은 우리가 담당할 테니 각 기업은 그동안 축적한 데이터와 노하우를 AI와 연계해 비즈니스에 활용하기만 하면 된다"고 말했다. 이어 "이제 AI는 단순히 기술 트렌드가 아닌 모든 기업이 필수적으로 사용하는 도구로 발전하고 있다"며 "베스핀글로벌은 기업들이 AI를 고민 없이 효율적으로 활용할 수 있도록 최선을 다할 것"이라고 강조했다.

2024.12.11 16:06남혁우

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

포스코이엔씨, '19조 규모 누적손실' AI로 해결한 방법 제시

국내 건설사의 해외 프로젝트 누적 손실은 19조원에 달한다. 이로 인해 해외 사업의 20%에서 적자가 발생하며 건설사들의 재무 건전성 악화를 유발한다. 누적 손실의 핵심 원인은 사업의 요구사항 및 계약 내용을 정확히 파악하지 못하는 계약 검토 미흡에서 발생한다. 포스코이앤씨는 이를 근본적으로 해결하기 위해 인공지능(AI)을 활용한 계약 문서 검토 솔루션을 개발했다. 3일 포스코이엔씨 연구개발(R&D)센터 스마트컨스트럭션그룹 조우철 차장은 마이크로소프트에서 개최한 AI 트랜스포메이션위크에서 대규모 언어모델(LLM) 기반 서비스 '포스닥(POSDAC)'의 개발 사례를 소개했다. 포스코이엔씨에서 조사한 내용에 따르면 국내 건설사들은 지난 10여 년간 해외 프로젝트에서 약 19조 원 규모의 손실을 기록했다. 이 손실은 대규모 계약 프로젝트에서 발생한 것으로, 건설업계의 글로벌 경쟁력에 큰 타격을 입혔다. 계약서 조항의 불명확한 이해와 발주자의 요구사항을 제대로 반영하지 못하는 계약 검토 미흡과 발주 요구사항의 부적절한 반영과 프로젝트 지연으로 인한 추가 비용 지출 등이 원인으로 꼽혔다. 조 차장은 계약 검토가 제대로 이뤄지지 않는 이유로 시간적 제약과 과도한 업무량 때문이라고 지적했다. 그는 "대규모 프로젝트의 입찰 및 계약 검토 기간은 평균적으로 1~2주에 불과하며 이 기간 동안 약 3천 장 이상의 계약 문서에 대해 기술적, 법적 조항을 검토해야 한다"며 "이 과정에서 오류가 가능성이 증가한다"고 설명했다. 포스닥은 방대한 계약 문서를 효율적으로 분석하고 잠재적 리스크를 도출하는 것을 목표로 마이크로소프트의 애저 클라우드 환경에서 대규모 언어 모델(LLM)을 활용해 구축했다. 검색 증강 생성(RAG) 기술과 제조 환경에 특화된 데이터 학습으로 계약 문서의 조항을 정확하게 파악할 수 있도록 정확성을 높였다. 조 차장은 "제조 산업에서만 주로 사용하는 약 2만여개의 단어를 추가로 학습시켜 문서 검토 단계의 혼선을 줄였다"며 "또한 AI가 모든 업무를 자동으로 처리하는 것이 아니라 AI는 정확한 검토를 위한 근거를 제공하고 사람이 모든 의사결정을 하는 협력관계를 구축하는 것에 집중했다"고 설명했다. 지난 9월 포스닥을 도입한 이후 기존 2주 걸리던 검토 기간을 20% 수준으로 단축하며 계약 검토 리스크를 최소화할 수 있었다. 계약 문서 외에도 법률 자문 및 기술 문서 검토로 범위를 확대할 계획이다. 포스코이엔씨는 사용자의 피드백을 반영해 지속적으로 시스템을 개발해 대외 서비스로 확대하는 것도 고려하고 있으며, 현재 2건의 특허 출원도 완료했다. 조우철 차장은 "현재 솔루션의 성능과 기능을 개선하기 위해 다양한 기술 적용을 검토하고 있다"며 "특히 멀티모달 데이터 처리 및 복합 추론 에이전트 기술 주의 깊게 보고 있다"고 말했다. 이를 통해 "텍스트를 비롯해 아니라 음성 및 기타 비정형 데이터를 분석할 수 있는 서비스도 선보일 수 있도록 노력할 것"이라고 밝혔다.

2024.12.03 17:02남혁우

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

[컨콜] 삼성SDS "내년 상반기 멀티모달 챗·지식 그래프 선보일 것"

삼성SDS가 주력 비즈니스로 인공지능(AI) 서비스 확대를 위해 내년 상반기 멀티모달 챗·지식 그래프기반 기술을 선보일 예정이다. 삼성SDS는 30일 개최한 3분기 컨퍼런스콜을 통해 차기 AI 비즈니스 계획을 공개했다. 구형준 클라우드서비스사업부장은 "내년 상반기 안으로 멀티모달 챗, 지식 그래프 등의 핵심 기술을 확보할 것"이라며 "이를 사업에 활용할 수 있도록 준비할 것"이라고 밝혔다. 멀티모달 챗은 텍스트, 이미지, 소리 등 여러 형태의 입력과 출력을 통합해 사용자와 상호작용하는 챗봇 시스템을 말한다. 다양한 데이터 소스에서 정보를 수집하고 분석하여 더욱 풍부하고 정확한 대화를 제공할 수 있도록 지원한다. 지식 그래프는 정보와 데이터를 연결해 시각적, 구조적으로 나타내는 데이터 모델이다. 사람, 장소, 사물 등 다양한 개체 간의 관계를 그래프 형태로 표현해 정보 간의 연결을 보여주며 이를 통해 단순한 데이터 집합이 아닌 맥락화된 정보를 제공해 더 높은 수준의 데이터 분석과 추론이 가능하도록 돕는다. 구 부사장은 "현재 200개가 넘는 기업 고객사례를 바탕으로 다양한 요구사항을 수집하고 있다"며 "이를 해결하기 위해 대규모언어모델(LLM), 에이전트 등을 활용한 기술을 구체화하고 있다"고 밝혔다.

2024.10.30 15:57남혁우

쳐다보기만 해도 개인정보 '탈취'…스마트글래스 '주의'

스마트안경을 이용해 길거리에서 상대를 쳐다보는 것만으로도 신원, 전화번호, 주소 등 개인정보를 확인할 수 있는 기술이 공개됐다. 이 기술은 공공 데이터베이스(DB) 등 현재 널리 사용 중인 제품과 기술을 활용했다는 점에서 파급성이 클 것으로 우려되고 있다. 7일 더버지 등 외신에 따르면 하버드대학의 앤푸 응우옌과 케인 아르다이피오 두 학생은 스마트안경으로 개인정보를 수집하는 모습을 인스타그램을 통해 공개했다. 공개한 영상은 개인정보 침해 방지를 위한 케인 아르다이피오는 스마트안경을 활용해 여러 동급생의 신원, 주소를 비롯해 친척의 이름까지 실시간으로 확인하는 모습을 시연했다. 동기 외에도 지하철 등 대중교통에서 전혀 모르는 사람들과 이 기술을 통해 얻은 정보를 이용해 이전부터 알던 사람인 척 대화를 나누는 모습도 공개됐다. 해당 프로젝트는 스마트글래스의 스트리밍 기술을 활용해 실시간으로 영상을 촬영하면 AI를 활용해 얼굴을 인식하는 방식이다. 인식한 얼굴은 공공 데이터베이스와 연계해 이름, 주소, 전화번호 등 개인정보를 파악해 다시 사용자에게 전달한다. 공개한 영상은 I-X레이 프로젝트의 일환으로 스마트안경과 공공DB 등 현재 많이 쓰이는 기술만으로도 개인정보 유출이 쉽게 발생할 수 있다는 것을 알리기 위해 공개됐다. 시연에 사용한 스마트안경은 메타에서 지난해 출시한 메타의 '레이밴 메타2'이며, 얼굴 검색 엔진은 '핌아이즈(PimEyes)'를 사용했다. 핌아이즈는 얼굴 사진을 입력하면 웹상에서 비슷한 이미지를 찾아주는 AI서비스로 사생활 침해 우려가 지속해서 제기되고 있으며 아동과 청소년은 검색을 제한하기도 했다. 메타 측은 서비스 정책을 통해 영상을 촬영하거나 라이브 스트리밍을 할 때 명확한 제스처를 사용하거나 음성 명령을 사용할 것을 권장했다. 두 하버드 학생은 해당 프로젝트에 대해 "현재의 기술로도 개인정보 악용 사례가 발생할 수 있다는 것을 알리기 위한 것"이라며 "관련 기술을 공개할 계획도 없다"고 밝혔다. 이어 "기술 공개를 통해 미래가 디스토피아로 향하는 것을 막고자 한다"며 "이러한 영상을 통해 기술의 위험성에 대해 경각심을 가지고 개인정보 보호와 관련된 현명한 선택을 하길 바란다"고 말했다.

2024.10.07 10:35남혁우

유아이패스 "LLM 결합한 RPA로 쉽고 빠른 기업혁신 지원”

유아이패스가 대규모 언어모델(LLM)을 로봇프로세스자동화(RPA)에 적용해 보다 쉽고 빠르게 기업의 혁신을 돕는다. 유아이패스 세바스찬 슈뢰텔 제품 총괄 부사장 6일 서울 페이몬트 앰배서더 호텔에서 개최한 'AI 서밋 2024'에서 LLM 기반 RPA서비스를 대거 선보였다. 세바스찬 부사장은 " LLM 기반 제품군을 포함한 유아이패스의 혁신은 조직들이 AI의 잠재력을 최대한 활용할 수 있도록 설계됐다“며 ”각 분야에 맞춰 최적화된 A| 및 자동화 기능을 내장함으로써 국내 기업들이 정확성, 일관성, 예측 가능성을 높일 수 있도록 지원한다"고 설명했다. 먼저 공개한 닥패스와 컴패스는 6월 국내 서비스를 시작한 자동화 서비스로 대규모 언어모델(LLM)을 적용한 것이 특징이다. 닥패스는 세금 계산, 인보이스, 구매 주문서, 재무제표 등 다양한 유형의 문서를 처리 작업에 특화됐다. 업무 자동화 과정에서 문서 처리의 신뢰성과 속도를 향상할 수 있도록 지원한다. 컴패스는 이메일, 메시지 등 비즈니스 커뮤케이션 과정에서 정확하고 효율적인 정보 처리에 특화된 서비스다. 기업 내 다양한 커뮤니케이션 채널에서 발생하는 대량의 데이터를 분석하고, 핵심적인 내용을 도출하거나 이상을 감지해 운영 효율성을 개선하고, 기업의 의사 결정 과정을 돕는다. AI의 성능을 높이기 위한 기능도 다양하게 추가됐다. 현재 비공개 프리뷰 버전으로 제공 중인 오토파일럿 어드민은 AI 도구인 오토파일럿을 보다 효율적으로 활용하기 위한 관리 도구다. 이를 통해 사용자는 오토파일럿의 장애를 사전에 방지해 중단 없이 업무를 수행하거나 보다 업무 효율성을 높이는 것이 가능하다. 컨택스트 그라운딩은 기업 내 데이터나 내부 정책 및 절차와 같은 데이터 소스를 AI에 학습시킬 뿐 아니라 색인화하고 검색할 수 있도록 정제해 AI를 비롯해 다양한 환경에서 데이터 환경에서 활용할 수 있도록 제공한다. 또한 생성형 AI 액티비티는 유아이패스 AI 트러스트 레이어를 활용하며, 자동화 워크플로우에서 고품질의 A| 예측에 쉽게 액세스하고 이를 개발하여 활용함으로써 가치 창출 시간을 단축할 수 있다. 조의웅 유아이패스 코리아 지사장은 국내 기업들은 이제 디지털 혁신(DX)을 넘어 AI 혁신(AX)을 중요한 우선 순위로 삼고 있다"며 "유아이패스는 새로 출시된 혁신적인 기능을 포함한 강력한 자동화 도구를 제공함으로써 이러한 변화를 지원하기 위해 최선을 다하고 있다. 유아이패스의 현지화 노력은 다양한 산업 분야에서 문서 처리 정확도를 크게 개선하고 운영 효율성을 향상시킬 것이며, 앞으로도 AI를 활용해 새로운 성장 기회를 창출할 수 있도록 지원할 것"이라고 강조했다.

2024.09.06 13:07남혁우

"AI 운영비용 최대 90% 감소"…앤트로픽, 프롬프트 캐싱 도입

앤트로픽이 생성형 인공지능(AI) 클로드의 운영비용을 최대 90% 줄이고 반응속도를 개선하는 새로운 기능을 공개했다. 16일 실리콘앵글 등 외신에 따르면 앤트로픽은 프롬프트 캐싱을 공식 홈페이지를 통해 발표했다. 이 기능은 앤트로픽의 멀티모달 대규모언어모델(LLM) 클로드3.5 소네트와 고속 AI모델인 클로드3 하이쿠에서 베타모드로 먼저 도입된다. 프롬프트 캐싱은 AI챗봇의 응답 처리 과정에서 발생하는 비용을 줄이고 반응속도를 높이기 위한 기술이다. 일반적인 AI모델은 프롬프트를 입력할 때마다 해당 데이터를 새로 입력해야 하는 만큼 많은 비용과 시간을 소모한다. 반면, 프롬프트 캐싱은 반복적으로 사용할 긴 문서나 복잡한 프롬프트를 캐시에 저장해 반복 사용하는 방식이다. 앤트로픽에 따르면 프롬프트를 캐시에 저장할 때는 백만 토큰당 3.75달러의 비용이 든다. 하지만 캐시에 저장된 데이터를 불러와 사용할 경우에는 백만 토큰당 0.3달러로 줄어든다. 이를 통해 반복적인 작업에서 기존 대비 최대 90%의 비용 감소효과를 일으킬 수 있다는 설명이다. 더불어 매번 데이터를 새로 불러올 필요가 없는 만큼 응답 시간 역시 2배 이상 높일 수 있다. 앤트로픽에 따르면 10만 토큰 규모의 특정 문서 기반 대화의 경우 캐싱 전 지연 시간은 11.5초수준이었다. 프롬프트 캐싱 적용 후 지연 시간은 2.4초로 79% 줄어드는 성과를 기록했다. 앤트로픽은 프롬프트 캐싱의 실무 사례로 노션을 소개했다. 노션은 해당 기능을 통해 AI 운영 비용을 최대 90%까지 절감했으며, 10초가 걸리던 응답 시간도 약 2.5초로 단축했다고 밝혔다. 더불어 AI응답속도가 증가하고 비용을 절감하게 되면서 더 많은 사용자에게 보다 빠른 AI서비스를 제공할 수 있어 사용자 경험 향상에 큰 영향을 미쳤다고 답했다. 노션의 공동창업자인 사이먼라스트는 "프롬프트 캐싱을 사용해 노션AI를 더 빠르고 저렴할 뿐 아니라 높은 품질을 유지할 수 있게 됐다"며 해당 서비스를 평가했다.

2024.08.16 09:52남혁우

[현장] 오픈AI 제이슨 권 "AI 극초기 단계…낙관론 유지해야"

"사람들이 인공지능(AI)을 '스마트하다'고 느끼기 시작했음에도 이 기술은 아직 초기 단계에 있습니다. 기술의 유용성을 극대화하기 위해서는 AI를 '과대광고'라고 생각하지 말고 합리적 낙관론을 유지해야 합니다." 제이슨 권 오픈AI 최고전략임원(CSO)은 12일 서울 페럼홀에서 열린 '서울 AI 정책 컨퍼런스(Seoul AI Policy Conference) 2024'에서 임용 서울대 교수와 대담하며 AI 기술의 현황과 잠재력에 대한 자신의 견해를 밝혔다. 권 이사는 지난 2022년 11월 '챗GPT-3.5'가 출시된 후 생성 AI에 대한 대중의 인식이 급격히 변화했다고 언급했다. 거대언어모델(LLM)을 통해 AI가 사람의 말을 이해하게 되면서 20년 전에는 상상할 수 없었던 기술들이 실현됐기 때문이다. 그는 직접 오픈AI 'GPT-4o' 최신 음성 모드를 시연하며 기술의 급격한 발전을 증명했다. 한국인 교수와의 대화를 통역해 달라는 권 이사의 영어로 된 요청에 'GPT-4o'는 그의 말을 한국어로 실시간 변환하며 성공적인 통역을 수행했다. 권 이사는 "불과 1년 반 전만 해도 텍스트를 키보드로 입력해야 했던 모델이 이제는 음성으로 실시간 통역을 제공할 수 있게 됐다"며 "기술은 매우 빠르게 발전하고 있다"고 강조했다. AI 능력의 급격한 발전에도 여전히 할루시네이션(환각)이나 음성 인식 오류와 같은 문제가 존재한다. 그럼에도 불구하고 AI는 여전히 추론 능력을 개선하고 있으며 엔지니어들은 최신 기술인 '트랜스포머' 이후의 새로운 패러다임을 모색하고 있다. 이러한 발전 과정에 대해 권 이사는 "우리는 기술을 점진적으로 발전시키고 AI가 일상 업무를 대신하도록 하는 것이 목표"라며 "단 한번의 도약이 아닌 점진적인 진화 과정을 통해 종국에는 일반인공지능(AGI)에 도달할 것이라고 믿는다"고 밝혔다. AI의 급격한 발전이 안전성 문제를 초래할 수 있지 않냐는 질문에 그는 AI 시스템 발전이 오히려 '정렬(Alignment)' 문제를 해결하는 데 도움될 수 있다는 점을 강조했다. 실제로 'GPT-2' 시절의 AI는 일반화 능력이 부족해 비윤리적인 명령을 실행했던 바 있으나 현재의 강력한 모델들은 스스로를 윤리적인 방향으로 제어할 수 있게 됐다. 또 권 이사는 AI 기업의 구조·거버넌스는 필요에 따라 변할 수 있지만 중요한 것은 조직을 운영하고 결정을 내리는 사람이라는 점을 강조했다. 오픈AI 역시 비영리로 시작했지만 컴퓨팅 자원과 투자 유치로 인해 복잡한 구조를 가지게 됐기 때문이다. 권 이사는 "AGI라는 핵심 목표를 위해 우리는 세상과 상호작용하며 유연하게 진화해 왔다"며 "이는 회사 구성원들이 원했던 목적을 이루기 위해 변화한 결과"라고 주장했다. 오픈AI의 향후 계획에 대해 권 이사는 "앞으로 사람들이 AI를 지금보다 많은 방향으로 활용하며 잠재력을 실현할 것"이라며 "AI의 추론 능력을 더욱 발전시켜 사람들의 업무에 실질적인 도움을 주고 동시에 안전성을 확보하는 것이 회사의 목표"라고 밝혔다.

2024.08.12 14:52조이환

오픈AI 中 서비스 중단…알리바바 '큐원2'가 대안될까

오픈AI가 중국 내 서비스를 전면 차단한 가운데 알리바바가 대규모 언어 모델(LLM) '큐원2-수학(Qwen2-Math)'을 출시해 관심이 쏠린다. 현존하는 LLM 중 최상위권 수학 AI로 평가돼 현지 연구자와 개발자들의 대안으로도 각광 받고 있다. 9일 미국의 기술 매체 벤처비트에 따르면 알리바바의 '큐원2-수학'은 LLM용 수학 벤치마크 '매스(MATH)' 테스트에서 84%의 정확도를 기록했다. 벤치마크 성능 1위인 오픈AI의 'GPT-4 코드 인터프리터(GPT-4 Code Interpreter)'가 기록한 87.92%에 근접한 성과로, 알리바바의 기술력을 입증했다는 평가다. '큐원2'는 초등학교 수준의 수학을 테스트하는 'GSM8K'에서 96.7%, 대학 수준의 수학 테스트에서는 47.8%의 점수를 기록하며 눈에 띄는 성과를 거뒀다. 이는 오픈AI 'GPT-4o', 앤트로픽 '클로드 3.5 소네트', 구글 '수학-제미나이 스페셜라이즈드 1.5 프로(Math-Gemini Specialized 1.5 Pro)'와 같은 주요 경쟁 모델들을 능가하는 결과다. 이번 성과는 중국 유저들에게 의미가 크다. 오픈AI의 서비스 차단으로 중국 개발업계와 학계가 '챗GPT'를 사용하지 못하고 있기 때문이다. 지금까지 중국 개발자·연구자들은 가상사설망(VPN)을 통해 제한적으로 파인튜닝, 연구 및 벤치마킹을 진행해 왔으나 이마저도 지난 7월 전면적으로 차단돼 연구에 제약을 받아 왔다. 이런 상황에서 '큐원2'는 'GPT-4 코드 인터프리터'에 거의 준하는 수학 능력을 달성해 중국 유저들의 업무를 효율적으로 지원할 것으로 예측된다. 이에 맞춰 알리바바는 해당 모델의 광범위한 활용을 위해 배포를 계획하고 있다. 특히 월간 사용자 수가 1억 명 이하인 기업들에게 오픈소스로 제공해 스타트업과 중소기업이 사실상 무료로 사용할 수 있게 할 방침이다. 벤처비트는 "LLM 모델 경쟁이 매우 빠르게 진행되면서 '큐원'이 지금까지는 경쟁자들에게 밀려났었다"며 "이번 수학 능력의 비약적인 향상은 알리바바가 다시 경쟁력을 회복하는 계기가 될 수 있을 것"이라고 분석했다.

2024.08.09 15:28조이환

마크 저커버그 "차기 LLM 라마4 기존 대비 10배 이상 투자"

메타가 차기 오픈소스 대규모 언어모델(LLM) 개발을 위해 10배 이상의 컴퓨팅 파워를 투자할 전망이다. 2일 테크크런치 등 외신에 따르면 마크 저커버그 최고경영자(CEO)는 메타의 2분기 실적발표에서 향후 AI 개발 계획을 소개했다. 그는 "향후 수 년간 필요한 컴퓨팅 클러스터와 데이터를 계획하고 있다"며 "차기 모델인 라마4(Llama 4)는 업계에서 가장 진보한 오픈 AI모델로 구축하기 위해 이전 모델보다 거의 10배에 달하는 컴퓨팅 파워가 필요할 것이라고 추정했다. 이번 실적 발표에서 수잔 리 최고재무책임자(CFO)는 메타가 올해 생성 AI에서 수익을 창출하지 못할 것임을 인정했다. 또한 다양한 데이터 센터 프로젝트와 미래 AI 모델을 훈련할 수 있는 역량 구축을 고려하고 있어 2025년까지 자본 지출이 늘어날 수 있다고 밝혔다. 이에 대해 마크 저커버그 CEO는 대규모 AI경쟁에서 뒤처지지 않기 위해 투자를 확대하는 과정이라고 밝혔다. 그는 "AI가 앞으로 어떤 추세를 보일지 예측하기 어려운 것은 사실"이라며 "하지만 투자를 멈춘 후 다시 새로운 추론 프로젝트를 시작하기엔 긴 리드타임이 필요하기 때문에 너무 늦기 전에 필요한 인프라를 미리 구축하는 위험을 감수하는 것이 낫다"고 설명했다. 또한 페이스북의 콘텐츠 순위 및 추천 도구와 인스타그램의 피드 등에 AI를 활용하고 있으며 이를 통해 성과를 개선하고 있다며 AI의 활용성을 소개했다. 마크 저커버그는 "예전에는 광고주가 특정 연령대, 지역 또는 관심사와 같이 도달하고 싶은 특정 대상 고객을 가지고 우리에게 왔다"며 "AI가 적용된 우리 광고 시스템은 이제 광고주 자신보다 누가 관심을 가질지 더 잘 예측할 수 있는 지점까지 도달했다"고 강조했다.

2024.08.02 09:58남혁우

오픈AI, 챗GPT 때문에 파산할 수도…왜?

오픈AI가 챗GPT의 유지 비용이 높아서 올해 안에 파산 위기에 처할 수 있다는 우려가 나왔다. 인공지능(AI) 기업인 오픈AI는 AI 챗봇 '챗GPT' 운영비 부담 때문에 올해 50억 달러(약 6조9천250억원) 가량 손실을 볼 가능성이 있다고 튀르키예투데이, 디인포메이션 등 외신들이 28일(현지시간) 보도했다. 보도에 따르면 챗GPT는 하드웨어를 운영 비용만 매일 70만 달러(약 9억6천950만원) 가량이 필요하다. 이 수치는 앞으로 AI 기능이 정교해지게 되면 더 늘어날 것으로 예상된다. 또 오픈AI는 올해 ▲AI 교육 부문 70억 달러(약 9조6천950억원) ▲인건비 15억 달러(약 2조775억원) 가량 필요할 전망이다. 이는 아마존의 지원을 받는 앤트로픽 등 경쟁업체의 같은 기간 지출 27억 달러(약 3조7천395억원)를 능가하는 수치다. 반면 오픈AI가 챗GPT로 벌어들이는 돈은 운영 비용을 감당하기에는 턱 없이 부족한 수준이다. 디인포메이션에 따르면 오픈AI는 챗GPT로 연간 약 20억 달러(약 2조7천700억원)를 벌어들이고 있다. 이와 별도로 대규모언어모델(LLM) 이용료로 10억 달러(약 1조3천850억원) 매출을 추가로 만들어내고 있다. 현재 오픈AI의 기업 가치는 800억 달러(약 110조8천억원)를 웃도는 수준이다. 또 생성형 AI에 대한 기업들의 관심이 높아짐에 따라 오는 2025년까지 매출이 두 배 이상 증가할 것이라는 기대도 있다. 오픈AI는 7번의 투자 라운드를 통해 110억 달러(약 15조2천416억원) 이상의 금액을 모금했으며, 마이크로소프트의 클라우드 서비스 '애저(Azure)' 할인 혜택도 누리고 있다. 그럼에도 오픈AI는 35만개의 서버 중 29만개를 챗GPT 전용으로 운영 중이다. 오픈AI는 파산을 피하기 위해 향후 12개월 이내에 추가 자본을 확보해야 한다. 이러한 리스크에도 오픈AI는 샘 알트만(Sam Altman) 대표와 함께 일반인공지능(AGI)을 발전에 집중하고 있다. 또한 AI 기반 검색 엔진인 서치(Search)GPT를 출시하며 제품과 수익원을 다각화를 모색 중이다.

2024.07.29 13:48정석규

오픈AI, 더 똑똑한 AI 모델 내놓나…비밀리에 '스트로베리' 개발

오픈AI가 인공지능(AI) 모델 추론능력 향상을 위해 비공개 연구를 진행 중인 것으로 전해졌다. 성공 시 AI는 인터넷을 자율적으로 탐색하고 작업을 순차적으로 계획·수행 할 수 있게 된다. 15일 로이터에 따르면 오픈AI는 코드명 '스트로베리(Strawberry)'라는 모델을 개발 중인 것으로 알려졌다. 이 모델의 목표는 AI가 심층연구(Deep Research)를 수행하도록 하는 것이다. 심층연구란 AI가 자율적으로 인터넷을 탐색하고 문제를 해결하며 단계에 따라 계획을 수립·실행하는 능력이다. 스트로베리는 질의에 대한 답변만 생성하는 기존 AI모델과 달리 고도의 심층연구 능력을 달성하는 것을 목표로 한다. '챗GPT' 등 생성형 AI 서비스는 이미 인간보다 빠르게 텍스트를 요약하고 산문을 작성할 수 있다. 그러나 인간이 직관적으로 이해하는 상식적 문제나 논리적 오류를 해결하지는 못한다. 대신 거짓 정보를 내뱉는 '환각(Hallucination)' 문제가 발생한다. 로이터는 스트로베리가 성공적으로 개발된다면 현재 AI가 직면한 추론 능력 문제를 해결할 수 있을 것으로 분석했다. 전문가들은 향후 AI가 애플리케이션 개발과 과학적 발견에 중요한 역할을 하게 될 것으로 기대하고 있다. 로이터 소식통은 "스트로베리 개발은 진행 중인 사안"이라며 "모델의 작동원리는 오픈AI 내부에서도 철저한 기밀"이라고 말했다. 스트로베리는 지난해 '큐스타(Q*)'로 알려져 있었다. 이 모델은 기존 AI가 해결하지 못하던 과학 및 수학 문제에 대해 답을 하는 등 발전된 추론능력을 보였다. 오픈AI 관계자는 스트로베리에 대한 직접적인 언급을 피하며 "우리는 AI 모델이 인간처럼 세상을 보고 이해하기를 바란다"며 "AI 기능에 대한 지속적인 연구는 업계에서 일반적인 관행"이라고 밝혔다.

2024.07.15 14:19조이환

"AI가 다 한다"...앤트로픽, 고품질 프롬프트 기능 추가

앤트로픽이 안전하고 전문적으로 대규모언어모델(LLM) '클로드(Claude)'를 사용할 수 있도록 고품질 프롬프트를 생성하고 검사하는 기능을 도입했다. 앤트로픽은 공식 뉴스룸을 통해 '클로드' 개발자 콘솔에 테스트케이스를 추가했다고 11일 밝혔다. 개발자 콘솔은 모델의 응답을 평가하고 개선하기 위해 사용하는 도구다. 앞서 지난 5월 앤트로픽은 콘솔에 프롬프트 생성기를 추가했다. 이 기능은 생각의 사슬(CoT) 기법 등 최신 추론 기법에 기반해 정확하고 안정적인 고품질 프롬프트를 생성한다. 새로 추가된 테스트케이스는 프롬프트 생성기 등을 통해 작성한 프롬프트가 올바르게 작동하는지를 검증한다. 마케팅용 이메일 작성, 기술 메뉴얼 작성 등 산업이나 업무의 특성에 따라 달라지는 프롬프트 요구사항을 가상환경에서 안전하고 빠르게 확인하기 위함이다. 테스트케이스는 콘솔에서 자동으로 생성하거나 수동으로 작성할 수 있으며, 다양한 종류의 테스트케이스를 하나로 통합해 테스트묶음(Test Suite)으로 운영할 수도 있다. 개발자 콘솔은 다양한 기능을 추가로 제공한다. 프롬프트 생성과 테스트케이스 묶음을 통한 검증 작업은 여러 차례 반복이 가능하며 유저는 이 결과물들을 서로 비교해 최고의 결과물을 채택할 수 있다. 또 앤트로픽은 평점을 통해 결과물 개선 작업을 지원한다. 인간 전문가가 결과의 질적 향상 여부에 대해 평가를 내리게 함으로써 모델 성능의 접근성과 속도를 향상했다. 앤트로픽은 "프롬프트 및 테스트케이스 생성·출력 기능은 모든 콘솔 사용자에게 제공된다"며 이 기능의 적극적인 사용을 독려했다.

2024.07.11 16:35조이환

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 챗봇 '과잉 공감' 경계해야"…나르시시즘·망상 키울 수도

'보안 올림픽' 4연승 박세준 "K-보안, 글로벌로 가야"

공공 클라우드 전환 앞장서는 美정부…한국은 '제자리걸음'

블룸버그 "트럼프 행정부, 인텔에 지분 투자 검토"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.