• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'한국 AI 모델'통합검색 결과 입니다. (14건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

KAIST-네이버AI랩, 창의성 강화한 AI 기술 개발..."뻔한 건 안그려"

KAIST(총장 이광형)는 김재철AI대학원 최재식 교수 연구팀이 네이버 AI 랩과 공동으로 추가 학습 없이 인공지능(AI) 생성 모델의 창의적 생성을 강화하는 기술을 개발했다고 19일 밝혔다. 이 기술은 '뻔한' 이미지는 절대 그리지 않는다. 텍스트 기반 이미지 생성 모델의 내부 특징 맵을 증폭해 창의적 생성을 강화하는 식이다. 연구팀은 모델 내부의 얕은 블록들이 창의적 생성에 중요한 역할을 한다는 것을 발견하고, 특징 맵을 주파수 영역으로 변환 후 높은 주파수 영역에 해당하는 부분의 값을 증폭했다. 이 결과 연구팀은 노이즈나 작게 조각난 색깔 패턴의 형태가 유발되는 것을 확인했다. 권다희 연구생(박사과정, 공동제1저자)은 "얕은 블록의 낮은 주파수 영역을 증폭했더니 창의적 생성이 강화됐다"고 설명했다. 연구팀은 또 생성 모델 내부 각 블록 별로 최적의 증폭 값을 자동으로 선택하는 알고리즘도 개발했다. 이 알고리즘은 사전 학습된 스테이블 디퓨전 모델의 내부 특징 맵을 적절히 증폭해 추가적인 분류 데이터나 학습 없이 창의적 생성을 강화한다. 한지연 연구생(박사과정, 공동제1저자)은 "SDXL-터보 모델에서 발생하는 모드 붕괴 문제를 완화, 이미지 다양성이 증가한 것을 확인했다"고 말했다. 최재식 교수(교신저자)는 "생성 모델을 새로 학습하거나 미세조정 학습하지 않고 생성 모델의 창의적인 생성을 강화하는 최초의 방법론ˮ이라며 "학습된 인공지능 생성 모델 내부에 잠재된 창의성을 특징 맵 조작을 통해 강화할 수 있게 됐다"고 덧붙였다. 최 교수는 또 “이번 연구는 기존 학습된 모델에서도 텍스트만으로 창의적 이미지를 손쉽게 생성할 수 있게 됐으며, 이를 통해 창의적인 상품 디자인 등 다양한 분야에서 새로운 영감을 제공하고, 인공지능 모델이 창의적 생태계에서 실질적으로 유용하게 활용될 수 있도록 기여할 것"으로 기대했다. 연구결과는 국제 학술지 `국제 컴퓨터 비전 및 패턴인식 학술대회(CVPR)'에서 지난 15일 발표됐다. 연구는 KAIST-네이버 초창의적 AI 연구센터, 과학기술정보통신부의 재원으로 수행됐다.

2025.06.19 11:37박희범

GIST, "사람 마음 읽는" 세계 최고 AI 로봇 파지 모델 개발

사람과 협업이 가능한 세계 최고 성능의 AI로봇 파지 모델이 개발됐다. 광주과학기술원(GIST, 총장 임기철)은 AI융합학과 이규빈 교수 연구팀이 단순한 자동화를 넘어, 작업자와의 협업을 고려한 세계 최고 성능의 혁신적인 로봇 파지 모델(GraspSAM)을 개발했다고 29일 밝혔다. 이 모델은 점, 박스, 텍스트 등 다양한 형태의 프롬프트 입력을 지원한다. 한 번의 추론만으로 물체의 파지점을 정확히 예측할 수 있다. 기존 딥러닝 기반 파지 모델들은 환경과 상황에 따라 별도의 AI모델을 학습해야 하는 한계가 있었다. 연구팀은 이를 해결하기 위해 페이스북 모회사 메타(Meta)가 개발한 범용 이미지 분할 모델인 'SAM(Segment Anything Model)'을 최초로 로봇 파지 출력이 가능하도록 도입했다. 최소한의 미세 조정만으로 물체의 파지점을 예측하기 위해 어댑터(Adapter) 기법과 학습 가능한 토큰 기법을 적용했다. 'SAM'은 Meta AI(구 페이스북)에서 개발한 범용 이미지 분할 모델이다. 이름 그대로 어떤 것이라도 분할할 수 있다. 연구진은 "산업 현장에서의 적용 범위를 획기적으로 확장했다"며 "파지 벤치마크 데이터세트(Grasp-anything, Jacquard)에서 최고 수준(SOTA) 성능을 달성했다"고 말했다. 'SOTA'는 벤치마크 데이터셋에서 최고 성능을 기록하거나 특정 과제에서 가장 효율적이고 정확한 결과를 제공하는 모델을 의미한다. 연구진은 "실험 결과 복잡한 실제 환경에서도 로봇이 안정적으로 파지 작업을 수행할 수 있다는 것을 확인했다"고 부연설명했다. 연구진은 또 "눈동자 추적 기술과 결합해 작업자의 시선에 맞춰 파지 작업을 수행하는 기능까지 성공적으로 구현, 산업 현장은 물론 다양한 분야에서 폭넓은 활용 가능할 것"으로 내다봤다. 이규빈 교수는 “로봇과 사용자의 직관적인 상호작용이 가능하다"며 "산업 현장뿐만 아니라 가정용 로봇, 서비스 로봇 등 다양한 분야에 폭넓게 활용될 것으로 기대한다”고 밝혔다. 연구는 AI 융합학과 이규빈 교수가 지도하고, 노상준 연구생(박사과정)이 제1논문 저자로 진행했다. 산업통상자원부와 과학기술정보통신부의 지원을 받았다. 연구 결과는 로봇 분야 국제 학회인 IEEE ICRA(International Conference on Robotics and Automation)에서 다음 달 발표 예정이다.

2025.04.29 08:56박희범

KISTI 박경석 박사 "AI모델 붕괴, 각자 대응 외 답 없나…AI 망치는 건 AI 자신"

"최근 불거진 AI모델 붕괴는 빅테크가 개발한 모형(파운데이션 모델)을 기반으로 각 기업이 보유한 '현실성 있는' 데이터로 튜닝하는 방법이 최선일 것입니다." 한국과학기술정보연구원(KISTI) 충청지원이 주관한 제22차 방위산업지식연구회(회장 이계광) 월례모임에서 주제발표자로 나선 KISTI 슈퍼컴퓨팅기술개발센터 박경석 책임연구원(박사)은 강연 끝자락에 'AI모델 붕괴론'을 언급하며 이 같이 말했다. 박 책임은 "AI가 스스로 반복 학습하며 생성한 데이터가 저품질이거나, 납득이 안되는 결과를 출력하는 모델 붕괴 현상은 데이터 생성량 증가와 밀접하다"며 "AI를 망치는 것은 결국 AI 자신"이라고 말했다. 이에 대한 대안으로 박 책임은 "파운데이션 모델을 만든 빅테크들도 고민은 하겠지만, 현재로서는 개별 기업이 대응하는 것 외에는 없다"며 "파운데이션 모델을 기반으로 각자 튜닝해야 할 것"이라고 덧붙였다. 박 책임은 또 "AI 확산은 산업계를 넘어 국방과 방산 분야에도 큰 변화를 예고한다"며 국방분야에서 AI를 제대로 활용한 사례로 '팔란티어' 모델을 추천했다. '팔란티어'는 AI 기반 데이터 분석 플랫폼을 통해 국방·정보기관의 의사결정을 지원하는 대표적인 국방 AI 활용 모델이다. 박 책임은 “AI 기반 하드웨어 개발이나 기존 시스템의 지능화를 통해, 국방 전반의 서비스 플랫폼을 강화할 것"도 주문했다. 이어 ▲한국건설생활환경시험연구원 박진확 박사는 '방산혁신클러스터 시험장비 및 지원사업 ▲KAIST 융복합연구센터(CRC) 이채석 연구교수는 재난안전을 위한 AI공간정보 혁신기술'에 대해 소개했다. 이 교수는 첨단기술과 주소정보를 융합한 소방관 119 구조 공간 정보와 실시간 실내외 길안내 서비스, 인천공항 주차장 위치 탐색 등을 시연해 관심을 끌었다. 이 교수는 "인간과 흡사한 AGI를 만들기 보다는 초능력을 가진 AGI에 관심이 많다"며 "공간정보는 AI가 모든 환경을 인지하고 있어야 어떤 상황에서도 정확한 길안내가 가능한 인프라 구성원"이라고 강조했다. 한편 이날 폐회 인사말에서 이계광 연구회장은 사우디 경찰청과의 사업 협력 진척에 대해 설명하며 "IMF 때도 그랬듯 급변하는 상황 속에서 오히려 기회가 많이 생기는 것 같다"며 "머리를 맞대고, 더 논의하고 준비하자"고 말했다.

2025.04.11 15:56박희범

아토믹GPT, AI 에이전트로 진화하나

한국원자력연구원이 자체 개발한 '아토믹 GPT'가 지능형 에이전트로 진화 중이다. 한국원자력연구원은 인공지능(AI) 스타트업인 ㈜젠티(대표 최은진)와 거대언어모델(LLM) 기술 활용에 관한 업무협약(MOA)을 체결했다고 27일 밝혔다. 이번 협약은 연구원이 최근 선보인 원자력 특화 AI 솔루션 '아토믹GPT'와 ㈜젠티의 강력한 거대언어모델 기술을 결합하자는 것. 원자력과 관련된 방대한 자료를 신속하게 분석해 활용할 수 있도록 도와주는 혁신적 AI 솔루션인 지능형 에이전트를 구축하는 것이 목표다. '아토믹 GPT'는 원자력 기술 문서 분석, 연구 정보 검색, 연구 문서 자동 요약 및 생성 등 연구자들이 겪는 다양한 어려움을 해소하기 위해 연구원이 자체 개발한 AI 프로그램이다. 현재 연구원 내부 직원들을 위한 전용 서비스로도 제공 중이다. ㈜젠티는자연어 처리와 의미 기반 검색 기술로 정리되지 않은 복잡한 문서를 분석해 원하는 정보를 신속․정확하게 제공하는 플랫폼을 보유했다. 지난 2021년 한국원자력연구원과 과학기술정보통신부가 주관한 인공지능그랜드챌린지에 참가해 대상을 차지했다. 이번 협약을 통해 양 기관은 표와 그림 등이 포함된 복잡한 원자력 관련 문서에서 핵심 정보를 빠르게 찾아 정리해주고, 자연어 기반의 질의응답 챗봇 등을 갖춘 AI 에이전트 서비스를 구축할 계획이다. 특히, 연구원의 외부와 분리된 네트워크 환경에서도 보안과 독립성을 유지하면서 서비스 이용이 가능하도록 개발해 연구자들의 활용성을 높인다는 복안이다. 원자력연구원 유용균 인공지능응용연구실장은 "원자력 연구에서 기초적인 문서작업 소요 시간을 최소화함으로써 연구자들이 창의적 연구 활동에 전념할 수 있도록 도울 것"이라고 말했다. ㈜젠티 최은진 대표는 “다년간 축적된 문서 분석 기술을 바탕으로 원자력연구원이 혁신적인 정보처리 및 연구지원 시스템을 구축할 수 있도록 기술적 협력과 맞춤형 솔루션을 제공할 것”이라고 덧붙였다. 원자력연구원 조윤제 디지털원자로․AI연구센터장은 “원자력과 같이 데이터가 방대하고 전문성이 요구되는 분야일수록 문서 분석 AI 기술의 효과가 클 것”이라며, “앞으로도 인공지능을 통해 산업 현장에서 실질적 변화를 만들어 갈 것"이라고 밝혔다.

2025.03.27 09:22박희범

[현장] 앤트로픽 "韓 AI 시장, B2C 성장 두드러져…한국어 성능 개선할 것"

앤트로픽이 한국 시장을 인공지능(AI) 채택 속도가 빠르고 B2C 중심으로 활성화된 시장으로 평가하며 맞춤형 AI 솔루션을 지속적으로 개선할 계획을 밝혔다. 앤트로픽은 19일 서울 잠실 시그니엘에서 콕스웨이브와 함께 개발자 행사인 '빌더 서밋'을 진행했다. 1천명 이상의 국내외 개발자들이 찾아온 이 행사에서 마이크 크리거 앤트로픽 최고제품책임자(CPO)와 이엽 콕스웨이브 이사는 AI 모델의 글로벌 확장성과 한국 시장에서의 기회를 집중적으로 논의했다. 크리거 CPO에 따르면 한국은 AI 채택 속도가 빠르고 스타트업부터 대기업까지 AI 활용도가 높은 시장으로, 앤트로픽은 이를 지속적으로 지원할 수 있도록 자사 '클로드' 모델을 지속적으로 개선해 나갈 계획이다. 한국어 지원 관련해서도 피드백을 받아 지속적으로 개선 중이라는 점을 강조했다. 현재 '클로드'는 한국어를 꽤 잘 다루고 있다는 평가를 받았지만 존댓말이나 미묘한 표현 등에서는 보완이 필요한 상황이다. 이에 앤트로픽은 한국 사용자의 피드백을 적극 반영해 모델 품질을 더욱 고도화할 계획이다. B2C 시장이 활성화된 만큼 AI가 다양한 산업군에서 활용될 가능성도 크다는 점도 언급됐다. 크리거 CPO는 "미국에서는 AI가 주로 금융·엔터프라이즈 등 B2B 서비스에 집중되어 있지만 한국에서는 콘텐츠·커머스·게임 등 다양한 분야에서 AI가 적용되고 있어 흥미롭다"며 "클로드 기반으로 자동화·에이전틱 코딩 등의 기능을 확장하면 한국 시장에서 더 많은 AI 활용 사례가 나올 것"이라고 전망했다. 이엽 콕스웨이브 이사는 "과거에는 AI 기반 대화 데이터 분석이 충분히 이뤄지지 못했지만 최근 앤트로픽의 모델 컨텍스트 프토로콜(MCP) 기술 도입으로 모델의 신뢰도를 높일 수 있는 기반이 마련됐다"며 "이를 통해 기업들이 AI 모델의 운영 효율성을 극대화할 수 있을 것"이라고 말했다.

2025.03.19 16:57조이환

[현장] 이경일 솔트룩스 대표 "초거대 AI 대신 에이전트로 돌파구 찾아야"

"한국이 초거대 AI 모델 경쟁에서 살아남기 위해서는 소형 모델 최적화와 데이터 활용 전략이 필수적입니다. 단순한 거대 모델 구축이 아니라 에이전트 AI와 같은 차별화된 기술을 통해 비용을 절감하고 성능을 극대화해야 합니다. 당장 이 변화를 준비하지 않으면 글로벌 AI 시장에서 도태될 것입니다." 이경일 솔트룩스 대표는 14일 강남 해성빌딩에서 열린 '한국데이터산업협회(KODIA) 정기총회'에서 '생성형 AI와 데이터 산업의 미래'를 주제로 특별 강연을 진행하며 이같이 말했다. 이날 행사는 국내 데이터 산업의 발전 방향을 모색하고 업계 관계자들이 최신 AI 트렌드를 공유하기 위해 KODIA가 마련했다. 이 대표는 행사에서 거대언어모델(LLM) 중심의 경쟁이 아닌 에이전트 AI를 기반으로 한 차별화 전략이 필요하다는 점을 강조했다. 글로벌 기업들과 정면 승부하기보다는 데이터 활용 최적화와 협업형 AI 모델로 새로운 시장 기회를 모색해야 한다는 주장이다. 지난 2022년 '챗GPT' 출시 이후 AI 산업은 PC·인터넷·스마트폰 시대를 거쳐 또 한 번의 변곡점을 맞았다. 기술 패러다임이 변화할 때마다 기존 강자들이 몰락하거나 새로운 기업들이 부상했는데 생성형 AI는 이 흐름을 이어받아 새로운 혁신을 이끌고 있다. 지난 1980년대 유닉스 기반 기업들의 쇠퇴, 1990년대 인터넷 기업의 등장, 2010년대 스마트폰 혁명이 대표적인 사례다. 현재 생성형 AI는 지난 2022년 이후 급격한 성장세를 보이며 또 하나의 기술 혁신 시점을 맞고 있다. 이 대표는 "단순히 오픈AI '챗GPT' 같은 거대 모델을 구축하는 방식은 비용과 인프라 측면에서 한계가 크기 때문에 국내 기업들은 소형 모델 최적화 및 데이터 기반 전략으로 경쟁력을 확보해야 한다"고 주장했다. 이어 "트랜스포머(Transformer) 모델의 발전과 초거대 모델의 등장으로 AI 성능이 폭발적으로 증가하고 있지만 그에 따른 문제점도 함께 발생하고 있다"고 지적했다. 그는 ▲환각(Hallucination) ▲최신 정보 부족 ▲보안 문제를 생성형 AI의 주요 한계점으로 꼽았다. 생성형 AI가 확률 통계적으로 답변을 생성하는 방식 때문에 존재하지 않는 사실을 말하는 문제가 빈번히 발생하며 이는 AI 신뢰성을 저하시킨다. 이를 해결하기 위해 검색증강생성(RAG)이 기본적으로 적용되고 있으며 솔트룩스도 이를 기반으로 한 에이전트 AI 개발에 집중하고 있다고 밝혔다. 이 대표는 국내에서 초거대 모델을 구축하기에는 비용과 인프라 측면에서 현실적인 한계가 있다며 대안으로 ▲믹스오브엑스퍼드(MoE) ▲지식 증류(Knowledge Distillation) ▲양자화(Quantization) 등의 기술을 활용한 비용 절감 및 성능 최적화 전략이 필요하다는 점을 강조했다. MoE는 거대 모델 하나에 모든 기능을 몰아넣기보다 여러 개의 소형 특화 모델을 협업하게 만드는 방식이다. 이를 통해 비용을 절감하면서도 고성능 AI 서비스를 제공할 수 있다. 지식 증류는 이미 학습된 대형 모델에서 중요한 지식만을 추출해 더 작은 모델에 적용하는 기술로, 연산량을 줄이면서도 학습된 정보의 핵심을 유지할 수 있는 방식이다. 이를 통해 경량 모델이 대형 모델 수준의 성능을 갖추도록 만들 수 있다. 양자화는 AI 모델이 사용하는 수치 연산을 더 작은 비트(bit)로 변환해 메모리 사용량을 줄이고 연산 속도를 향상시키는 기법이다. AI 시스템의 전력 소모를 줄이는 동시에 제한된 컴퓨팅 자원에서도 보다 효율적인 추론이 가능해진다. 에이전트 AI가 차세대 기술로 부상하는 이유에 대해 그는 "단순 질의응답이 아닌 다단계 추론과 문제 해결이 가능한 AI가 필요하기 때문"이라고 설명했다. 기존 LLM 기반 서비스가 사용자의 질문에 바로 답하는 방식이었다면 에이전트 AI는 검색·추론·결정 과정을 거쳐 최적의 솔루션을 제공하는 구조다. 이에 따라 마이크로소프트(MS), 구글, 오픈소스 커뮤니티 등이 에이전트 AI 개발을 가속화하고 있다. 솔트룩스 역시 '구버(Guber)'라는 에이전트 AI 서비스를 개발하고 있다. 이 대표에 따르면 '구버'는 사용자의 질문을 받아 분석한 후 검색증강생성(RAG)과 다단계 추론을 거쳐 최적의 답변을 제공하는 시스템으로, 회사는 이를 챗봇을 넘어 전문적인 데이터 활용이 가능한 AI로 발전시킬 계획을 세우고 있다. AI 생태계에서 데이터의 중요성도 강조됐다. 이 대표는 "AI는 결국 데이터 산업"이라며 "모델은 알고리즘을 통과한 숫자 데이터 덩어리일 뿐으로, 이는 결국 데이터가 곧 AI 경쟁력을 좌우함을 의미한다"고 강조했다. 행사를 마치며 그는 한국 AI 산업이 글로벌 시장에서 생존하기 위한 조건으로 ▲GPU 인프라 확충 ▲도메인 특화 AI 사례 확보 ▲공공 부문 AI 국산화 가속화 ▲글로벌 AI 스타트업 지원 ▲AI 투자 환경 개선 등을 제안했다. 이 대표는 "AI 산업이 변화하는 속도가 매우 빠르다"며 "신속히 에이전트 AI 기반 서비스 및 데이터 최적화 전략을 도입하지 않으면 글로벌 경쟁에서 뒤처질 것"이라고 말했다.

2025.03.14 16:55조이환

삼성·KAIST, 초거대 AI모델 학습 최적화 시뮬레이션 개발…"GPU 사용률 10% 개선"

국내 대학과 기업이 챗GPT나 딥시크 등 초거대형 AI 모델 학습 비용을 5%정도 줄일 시뮬레이션 프레임워크를 개발하고, 이를 '깃허브'에 공개했다. KAIST(총장 이광형)는 전기및전자공학부 유민수 교수 연구팀이 삼성전자 삼성종합기술원과 공동으로 대규모 분산 시스템에서 대형 언어 모델(LLM)의 학습 시간을 예측하고 최적화할 수 있는 시뮬레이션 프레임워크(이하 vTrain)를 개발했다고 13일 밝혔다. 최근 챗GPT나 딥시크등과 같은 초거대 언어 모델(LLM)이 주목받으면서 대규모 GPU 클러스터 운영과 최적화가 현안으로 떠올랐다. 그러나 이 같은 LLM은 수천에서 수만 개의 GPU를 활용한 학습이 필요하다. 특히, 학습 과정을 어떻게 병렬화하고 분산시키느냐에 따라 학습 시간과 비용이 크게 달라진다. KAIST와 삼성이 개발한 시뮬레이션이 이 같은 학습효율과 비용 문제를 개선했다. 연구팀은 병렬화 기법에 따른 통신 패턴을 효과적으로 표현하는 실행 그래프 생성 방법과 프로파일링 오버헤드를 최소화하는 연산 선별 기법을 개발했다. 이를 연구팀이 다중 GPU 환경에서 다양한 대형 언어 모델 학습 시간 실측값과 '브이트레인' 예측값을 비교한 결과, 단일 노드에서 평균 절대 오차(MAPE) 8.37%, 다중 노드에서 14.73%의 정확도로 학습 시간을 예측했다. 유민수 교수는 "기존 경험적 방식 대비 GPU 사용률을 10% 이상 향상시키면서도 학습 비용은 5% 이상 절감하는 것을 확인했다"고 말했다. 연구팀은 또 클라우드 환경에서 다중 테넌트 GPU 클러스터 운영 최적화와 주어진 컴퓨팅 자원 내에서 최적의 LLM 크기와 학습 토큰 수를 결정하는 문제와 같은 사례에서도 이 시물레이션 활용이 가능하다고 부연설명했다. 연구팀은 이 프레임워크와 1천500개 이상의 실제 학습 시간 측정 데이터를 오픈소스로 '깃허브'에 공개, AI 연구자와 기업이 이를 자유롭게 활용할 수 있도록 했다. 유민수 교수는 “프로파일링 기반 시뮬레이션 기법으로 기존 경험적 방식 대비 GPU 사용률을 높이고 학습 비용을 절감할 수 있는 학습 전략"이라고 덧붙였다. 연구 결과는 방제현 박사과정이 제 1저자로 참여했다. 과학기술정보통신부와 삼성전자가 지원했다.

2025.03.13 08:49박희범

KAIST, 변환 라벨없이 스스로 학습가능한 AI 모델 개발

KAIST 연구진이 변환라벨((transformational labels)없이 스스로 학습할 수 있는 새로운 시각 인공지능 모델(STL)을 개발했다고 13일 밝혔다. 컴퓨터 비전에서 주로 사용하는 자기지도 학습(self-supervised learning)은 데이터를 시각적으로 표현하는데 많이 사용하지만, 변환 전후의 이미지 표현을 동일하게 만들기 때문에 일부 시각적 세부사항을 놓칠 가능성이 있다 특히, 세부적인 특징이 필요한 작업에 한계가 있다. 이를 극복할 대안으로 변환 등변 학습(transformation-equivariant learning) 방법이 쓰이지만, 이는 명시적인 변환 레이블에 의존하는 경우가 많아 일반화 능력이 제한적이다. 연구진은 이에 이미지 간 변환 관계를 효과적으로 학습할 수 있는 AI모델인 STL(Self-supervised Transformation Learning) 프레임워크를 개발했다. 논문 제1저자인 유재명 연구생(전기 및 전자공학부 박사과정)은 "이미지 변환 전후의 특징을 비교해 변환 과정을 나타내는 '변환 표현'을 학습하는 방법으로 새로운 AI모델을 설계했다"며 "이를 통해 같은 변환이 다른 이미지에서도 동일하게 작용하도록 학습하며, 별도의 변환 라벨 없이도 복잡한 변환 방식을 이해하고 적용할 수 있다"고 설명했다. 유재명 연구생은 "기존 방법론들을 통해 학습한 모델이 이해할 수 없는 세부적인 특징까지도 학습할수 있다"며 "기존 방법 대비 최대 42% 우수한 성능을 나타냈다"고 부연 설명했다. 김준모 교수는 "이번에 개발한 STL은 복잡한 변환 패턴을 학습하고 이를 표현 공간에서 효과적으로 반영하는 능력을 통해 변환 민감 특징 학습의 새로운 가능성을 제시했다”고 말했다. 김 교수는 "라벨 없이도 변환 정보를 학습할 수 있는 이 기술이 향후 다양한 AI 응용 분야에서 핵심적인 역할을 할 것”으로 기대했다. 연구결과는 국제 학술대회 '신경정보처리시스템학회(NeurIPS) 2024'에서 이달 내 발표할 예정이다.

2024.12.13 22:57박희범

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

네이버클라우드, '하이퍼클로바X' 통해 건강관리 서비스 '혁신'

네이버클라우드가 자사 거대언어모델(LLM)을 통해 건강관리 서비스 혁신에 나섰다. 네이버클라우드는 KMI한국의학연구소·다나아데이터와 함께 '하이퍼클로바X' 기반 건강검진 결과안내 서비스 '에스크미(asKMI)'를 정식 출시했다고 23일 밝혔다. '에스크미'는 건강검진 수검자가 검진 결과를 보다 쉽게 이해·관리할 수 있게 하는 AI 서비스로, 네이버 '하이퍼클로바X(HyperCLOVA X)'를 활용해 다나아데이터가 개발했다. 이 서비스는 보건복지부의 비의료 건강관리 서비스 가이드라인을 준수해 의료 상담이나 조언은 제공하지 않으면서도 건강 관리에 도움을 주는 정보를 제공한다. 다나아데이터는 '에스크미' 개발을 위해 '하이퍼클로바X'를 선택한 이유로 서비스 개발의 편리함과 우수한 한국어 성능을 꼽았다. 할루시네이션을 줄여야 하는 의료 서비스 특성 상 네이버의 한국어 기반 거대언어모델 운영(LLMOps)·머신러닝 운영(MLOps) 기술이 정확하고 완성도 높은 답변에 기여하기 때문이다. 현재 '에스크미'는 챗봇 기반으로 건강검진 결과 해석·검사항목 설명·의료용어 해설 등의 기능을 제공하고 있다. 향후에는 사용자 질문 이력과 검사 결과를 바탕으로 필요한 검사, 맞춤형 건강 프로그램 등을 추천하는 서비스로 확대될 예정이다. 임태건 네이버클라우드 전무는 "최근 공동개발한 AI 법률 Q&A 서비스인 'AI 대륙아주'에 이어 다양한 분야에서 '하이퍼클로바X' 기반 서비스가 나오고 있다"며 "'하이퍼클로바X'가 우리의 생활과 밀접한 다양한 분야에서 혁신을 만들도록 파트너들과 협업을 확대해 나갈 것"이라고 강조했다.

2024.09.23 14:58조이환

업스테이지 "산업 특화 AI로 시장 공략…매출 급증했다"

"생성형 인공지능(AI)을 통해 돈 버는 기업으로 자리매김 했습니다. 올해 1분기 매출 100억원을 기록했습니다. 단순히 AI 모델 개발에만 그치지 않고 국내 금융·법률·의료·커머스 기업들에 맞춤형 거대언어모델(LLM)을 제공했기 때문입니다. 이런 사업 방향으로 국내뿐 아니라 미국 등 해외 시장에서도 본격 활약하겠습니다." 김자현 업스테이지 LLM 사업개발 리드는 최근 기자와 만나 자사 LLM '솔라'를 통한 비즈니스 성과와 향후 계획을 이같이 밝혔다. 김 리드는 업스테이지가 '솔라'를 통해 각 산업 도메인 업무에 특화된 솔루션을 제공해 왔다고 설명했다. 현재 업스테이지는 신한투자증권, 케이뱅크 등 금융회사에 파이낸스 LLM을 공급하고 있으며 법률상담 플랫폼 로톡을 운영하는 로앤컴퍼니에 법률 특화 솔루션을 제공하고 있다. 김 리드는 "고객이 요구하는 문제를 해결하기 위해 맞춤형 솔루션을 제공한 점이 주효했다"며 "이를 통해 고객사에 실질적인 가치를 제공하고 성공에 일조할 수 있었다"고 강조했다. 업스테이지는 금융과 법률뿐만 아니라 의료와 커머스 분야에서도 활약하고 있다. 의료 분야에서는 카카오 헬스케어와 손잡고 대학병원 3곳을 대상으로 AI 솔루션 제공용 메디컬 특화 모델을 제공한다. 커머스 분야에서는 커넥트웨이브와 협력해 AI 기반 맞춤형 상품 검색 및 추천 서비스를 구축했다. 현재 업스테이지는 생성형 AI 비즈니스로 올해 1분기 100억원 넘는 매출을 기록했다. 이는 지난해 회사 전체 매출보다 높은 수치다. 김 리드는 "업스테이지가 창업 원년부터 매출 창출을 목표로 사업을 진행했다"며 "최근 이례적인 성과를 얻은 셈"이라고 말했다. 이어 "생성형 AI 기업이 실제 매출을 올린 사례가 적다"며 "이런 상황에서 업스테이지 성과가 더 주목받고 있다"고 덧붙였다. 매출 성과 비결을 자체 개발한 LLM '솔라'와 파인튜닝 기술로 꼽았다. 파인튜닝은 LLM을 특정 작업이나 도메인에 맞게 학습 시키는 기술로, 업스테이지는 '솔라'를 특정 도메인에 맞게 파인튜닝해 고객사에 제공했다. 김 리드는 '솔라'가 번역·수학 풀이 등 특정 작업에서 오픈AI 'GPT-4' 같은 타사 LLM보다 뛰어난 성능을 보인다고 주장했다. 김 리드는 "파인튜닝 전문사인 프레디베이스(Predibase)와 협력해 '솔라' 성능 테스트를 500번 이상 실시했다"며 "'솔라'가 특정 도메인에선 빅테크 모델보다 우수하단 점을 정량적으로 입증했다"고 강조했다. 美·日 등 해외 진출 가속…"시장 수요에 맞는 전략 채택" 업스테이지는 글로벌 시장 진출도 빠르게 추진하고 있다. 현재 미국과 일본, 동남아시아 등 아시아태평양 지역으로 사업을 확장하며 국가 특성에 맞는 전략을 구사하고 있다. 김 리드는 "미국 시장에서는 온프레미스(On-premise) 수요를 주로 공략하고 있다"며 "생성형 AI 보안이나 비용 효율성 측면에서 온프레미스를 선호하는 기업 수요가 늘어났기 때문"이라고 밝혔다. 또 아태지역에서는 각국 언어와 도메인에 맞는 모델을 개발 중이다. 최근 '솔라' 일본어 버전을 개발 개발해 일본 시장 문을 두드리고 있다. 특히 '솔라' 일본어 버전은 니케이 아시아가 발표한 일본어 모델 벤치마크 테스트에서 상위 20위권에 포함된 것으로 알려졌다. 이중 유일한 한국산 모델이다. 김 리드는 "아태지역에서는 대규모 LLM을 자체 구축하기 어려운 경우가 많다"며 "한국서 입증된 경쟁력 있는 AI 솔루션을 통해 향후 베트남, 인도네시아, 아랍에미리트 등 다양한 국가에 언어 특화 모델을 제공할 계획"이라고 밝혔다. 김 리드는 업스테이지가 '솔라' 영어 모델을 공개해 AI 생태계 강화에 기여하고 있다는 점도 설명했다. 이를 통해 피드백과 사용 사례를 추가 확보하기 위함이다. 김 리드는 "오픈소스를 통해 개발자와 기업들이 업스테이지 모델을 활용하면 더 많은 애플리케이션과 솔루션이 나올 것"이라며 "이는 AI 공동 발전을 도모하고 AI 경쟁력을 알리는 좋은 기회"라고 강조했다. 같은 목적으로 업스테이지는 한국어 모델 성능을 평가하는 자체 리더보드를 운영 중이다. 리더보드 시즌 1에서는 LLM 기본 능력인 자연어 이해나 상식 등의 지표를 주로 사용했다. 최근에는 평가를 시즌 2로 업데이트 해 한국어 모델 성능뿐만 아니라 문화와 규범을 이해하는 능력까지 포함시켰다. 김 리드는 "평가 세트를 공개하지 않음으로써 모델들이 평가 세트를 학습하는 문제를 방지했다"며 "이로써 공정하고 정확한 성능 평가가 가능해졌다"고 밝혔다. 그러면서 "오픈소스와 리더보드 등을 통해 국내 AI 생태계가 함께 상생하고 발전하길 바란다"며 "이는 업스테이지도 한층 더 성장할 수 있는 기회일 것"이라고 강조했다.

2024.09.08 09:32조이환

KAIST, 멀티모달 대형언어모델 '깃허브' 공개…GPT-4V 시각성능 "제꼈다"

국내 연구진이 오픈AI의 GPT-4V와 구글 제미나이-프로(Gemini-Pro)의 시각 성능을 능가하는 멀티모달 대형언어모델을 개발, 오픈소스 커뮤니티 깃허브(Github)에 공개했다. 최근 주목받는 생성형 AI 트랜드가 멀티모달화로 진화 중이어서 귀추가 주목됐다. KAIST는 전기및전자공학부 노용만 교수 연구팀이 GPT-4V 등 비공개 상업 모델의 시각 성능을 넘어서는 공개형 멀티모달 대형언어모델을 선보였다고 20일 밝혔다. 연구팀은 멀티모달 대형언어모델 시각 성능을 개선하기 위해 '콜라보(CoLLaVO)'와 '모아이(MoAI)' 2가지 기술을 자체 개발했다. 이병관 연구원(박사과정,제1저자)은 "GPT-4V나 제미나이-프로 등과 시각성능 만을 비교하면 점수나 정확도 면에서 최대 10% 더 우수하다"고 말했다. 인지추론성도 함께 따져봐야 하지만, 이는 이번 연구 주제에서 벗어나 나중에 생각할 부분이라는 것이 이 연구원 얘기다. 사실 인지추론성도 개별 검토한 결과 오픈AI나 구글 모델 대비 결코 뒤지진 않는다는 것이 이 연구원의 귀뜸이다. 연구팀은 '콜라보'를 개발하기 전 기존 공개형 멀티모달 대형언어모델 성능이 비공개형에 비해 떨어지는 이유를 1차적으로 물체 수준에 대한 이미지 이해 능력 저하에서 찾았다. 연구팀은 이를 개선하기 위해 이미지 내 정보를 배경과 물체 단위로 분할하고 각 배경 및 물체에 대한 정보를 멀티모달 대형언어모델에 직접 넣어주는 '크레용 프롬프트(Crayon Prompt)'라는 시각적 프롬프트를 새로 설계했다. 또 시각적 지시 조정 단계에서 크레용 프롬프트로 학습한 정보를 잃어버리지 않기 위해 물체 수준 이미지 이해 능력과 시각-언어 태스크 처리 능력을 서로 다른 파라미터로 학습시키는 획기적인 학습전략인 '듀얼 큐로라(Dual QLoRA)'를 제안했다. 이병관 연구원은 "이로 인해 이미지 내에서 배경 및 물체를 1차원적으로 구분하는 능력이 크게 향상됐다"고 덧붙였다. 대형언어모델인 모아이(MoAI)'도 개발했다. 인간이 사물을 판단하는 인지과학적 요소(물체 존재나 상태, 상호작용, 배경, 텍스트 등)에서 영감을 얻었다는 것이 연구팀 설명이다. 연구팀은 "기존 멀티모달 대형언어모델은 텍스트에 의미적으로 정렬된 시각 인코더(vision encoder)만을 사용하기 때문에, 이미지 픽셀 수준에서의 상세하고 종합적인 실세계 장면에 대한 이해가 모자란다고 판단했다"고 말했다. 연구팀은 △전체적 분할 △한계가 없는 물체 검출기 △상황 그래프 생성 △글자 인식 등 4가지 컴퓨터 비전 모델을 언어로 변환한 뒤 멀티모달 대형언어모델에 입력했다. 이를 연구팀이 실제 검증한 결과 '콜라보'는 Math Vista(대학수준 수학 및 물리문제)나 MM-벤치(영어 객관식 문제), MMB-CN(중국어 객관식 문제), AI2D(어학문제) 등의 풀이에서 기존 모델 대비 최대 10%까지 점수와 정확도가 우수했다. 또 '모아이'는 기존 공개형 및 비공개형 LLVMs(멀티모달 대형언어)와 비교한 결과 각 질문에 따라 점수가 20포인트 이상 우수하게 답변한 경우도 나타났다. 이병관 연구원은 "3개월전 깃허브에 올려놓은 '콜라보'(https://github.com/ByungKwanLee/CoLLaVO)와 '모아이'(https://github.com/ByungKwanLee/MoAI)에 관심을 가져달라"며 "박사학위가 마무리되면 멀티모달 대형언어를 아이템으로 창업할 생각도 있다"고 말했다. 박사과정 5년차인 이 연구원은 또 "개인적으로 향후 기회가 닿는다면, 핸드폰에 들어가는 사이즈로 현재 성능을 유지하는 멀티모달 대형언어모델을 만들어 볼 것"이라고 덧붙였다. 노용만 교수는 “연구팀에서 개발한 공개형 멀티모달 대형언어모델이 허깅페이스 일간 화제의 논문(Huggingface Daily Papers)에 추천됐다"며 "SNS 등을 통해 전세계에 점차 알려지는 등 관련분야 발전에 기여할 것"으로 기대했다. 연구에는 논문 제1저자 이병관 박사과정 연구원 외에도 박범찬 석박사통합과정, 김채원 박사과정이 공동 저자로 참여했다. 연구결과는 '콜라보'의 경우 자연어 처리(NLP) 분야 국제 학회 'ACL Findings 2024'(5월16일자)에 게재됐다. '모아이(MoAI)'는 컴퓨터 비전 국제 학회인 'ECCV 2024'에 논문을 제출하고 결과를 기다리고 있다. 한편 이 연구는 KAIST 미래국방 인공지능 특화연구센터 및 전기및전자공학부 지원을 받아 수행했다.

2024.06.20 14:26박희범

韓 제외한 스탠퍼드 AI보고서…"모델 선정에 참고한 출처 겨우 2개"

스탠퍼드대 인간중심 인공지능연구소(HAI)가 올해 발표한 '인공지능(AI) 인덱스 리포트 2024'에 한국 AI 모델을 포함하지 않은 이유를 밝혔다. 연구진이 파운데이션 모델을 '생태계 그래프(Ecosystems Graph)'에서, 주목할 만한 모델을 '에포크(Epoch)'에서만 참고한 탓이다. 22일 HAI 네스터 마슬레이 AI인덱스연구책임은 보고서에 네이버의 '하이퍼클로바X' 등 한국 AI 모델이 비교 대상에서 생략된 이유를 이같이 본지에 전했다. 네스터 마슬레이 연구책임은 매년 전 세계 AI 동향을 조사하는 AI 인덱스 보고서 제작을 담당한다. 지난해 글로벌 AI 동향을 정리한 보고서를 이달 15일 공개했다. 마슬레이 책임은 이번 모델 비교에 좁은 데이터 범위를 활용했다고 인정했다. 전 세계 AI 모델을 비교한 것이 아니라 제3자가 만든 특정 소스로만 비교 대상을 잡았다는 의미다. 그는 보고서에 모든 AI 모델을 조사에 포함시키는 건 무리라고 언급한 바 있다. 그는 "파운데이션 모델 데이터는 생태계 그래프에서, 주목할 만한 모델에 대한 데이터는 에포크의 주목할 만한 모델 부문에서 가져왔다"고 설명했다. 두 사이트는 전 세계 AI 모델을 모아둔 사이트다. 오픈소스 모델과 폐쇄형 모두 등록돼 있다. 두 데이터셋에 없는 모델은 이번 HAI 조사 대상에서 제외됐다. HAI는 해당 범위 내에서만 파운데이션 모델 출시 현황을 조사하고, 주목만 한만 모델을 선정한 셈이다. 네이버의 하이퍼클로바X 같은 한국 모델이 낮은 성능을 갖춰서 비교 대상에서 빠진 것이 아니라, 애초 HAI가 활용한 데이터 소스 범위 자체가 좁았다. 마슬레이 책임은 "두 출처에서 가져온 데이터가 한국 같은 비영어권 국가 모델을 포함하지 않았을 수 있다"며 "전 세계 주요 모델을 완전히 포괄하지 못했음을 인정한다"고 했다. 그는 "현재 이를 바로잡기 위해 노력 중"이라며 "데이터 활용 범위를 넓혀서 보고서에 더 많은 비영어권 모델을 포함하겠다"고 했다. 스탠퍼드대는 AI 인덱스 2024 보고서에서 지역별 파운데이션 모델 수를 공개하면서 미국이 109개로 가장 많고, 중국과 영국, 아랍에미리트(UAE)가 각각 20개와 8개, 4개로 집계됐다고 전했다. 이외에 약 10개국이 파운데이션 모델을 갖고 있는 것으로 표기됐지만 보고서에 한국은 없었다. 지역별 주목할 만한 모델 수에도 미국이 61개로 가장 많았고, 중국(15개)과 프랑스(8개), 이스라엘(4개) 등의 순으로 나왔지만 한국은 거론되지 않았다. 이에 국내 AI 모델이 '패싱'당했다는 지적이 이어졌다. 심지어 몇몇 언론에서도 보고서 데이터 출처와 조사 범위를 확인하지 않고 이를 그대로 보도하는 사태까지 벌어졌다. 익명을 요구한 AI 기업 관계자는 "한국 기업이 전혀 거론되지 않은 것 자체부터 이상했다"며 "논문에 활용된 데이터 조사 범위를 신중히 볼 필요가 있다"고 했다.

2024.04.22 00:03김미정

중부발전, 민간기업 공동개발 '풍력발전량 예측 AI 모델' 공유

한국중부발전(대표 김호빈)은 한국데이터산업진흥원(K-DATA)의 '데이터안심구역'을 활용해 제공한 데이터를 바탕으로 민간기업과 공동 연구 개발한 '풍력발전량 예측 AI 모델'을 공유한다고 9일 밝혔다. '데이터안심구역'은 접하기 힘든 미개방 데이터를 누구나 안전하게 분석하고 활용할 수 있는 플랫폼으로, 안심구역에서는 쉽게 접할 수 없는 다양한 분야 공공기관과 민간기업의 미개방 데이터를 안전하게 활용할 수 있다. 중부발전은 물리적 보안과 분석환경이 제공되는 '데이터안심구역'을 활용해 풍력발전 운전정보를 제공하고 민간기업은 새로운 기상예보 보정모델을 적용해 공동으로 '풍력발전량 예측 AI 모델'을 연구 개발했다. 예측 AI 모델은 중부발전이 운영하는 'KOMIPO AI-Hub 데이터쉐어링존'에서 실증과정을 거쳐 예측 정확도를 인정받았다. 중부발전이 민간기업과 공동으로 개발한 '풍력발전량 예측 AI Model'은 풍력 발전단지 기상예보 데이터 보정모델과 풍력발전기 구성 설비 센서 데이터를 활용한 AI 기법으로 복잡한 제주지역의 육상 지형에서도 풍력 발전량을 정확도 높게 예측할 수 있다. 김호빈 중부발전 사장은 “중부발전은 검증된 성과물인 AI 모델을 중부형 신재생에너지 발전량 예측모델 구축에 적극적으로 수용하고 데이터안심구역 공동활용 경험을 토대로 국민이 원하는 다양한 데이터를 민간에 더욱 적극적으로 공개할 예정”이라며 “민간기업이 새로운 사업 모델을 개발하거나 실증할 때 데이터와 개발·분석 환경(KOMIPO AI-HUB 데이터쉐어링존) 제공에 최선을 다하겠다”고 밝혔다.

2024.01.09 18:06주문정

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

삼성전자, 브로드컴과 HBM3E 12단 공급 추진…ASIC서 기회 포착

메타의 공격적 AI 인재 사냥, 핵심은 '데이터 전쟁'

입점하면 서로 이득…유통가, ‘올다무’ 유치 경쟁 치열

이재명 대통령 "AI·반도체·재생에너지·문화 투자 아끼지 않겠다"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.