• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'학습 데이터'통합검색 결과 입니다. (7건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI 리더스] "AI는 새로운 전기"…에너지연 이제현, '레고형 자동화'로 연구 시스템 재편

"인공지능(AI)은 단순한 도구를 넘어 연구와 조직 운영 전반을 재설계하는 실천적 수단입니다. 기계학습(ML) 자체만큼 중요한 것은 그것을 사람과 문제에 어떻게 연결하고 조합하느냐입니다. 오늘날의 연구자는 데이터를 다루는 기술자이자 AI에게 가치와 맥락을 설계해 주는 해석자여야 합니다." 이제현 한국에너지기술연구원 에너지AI·계산과학실장은 최근 기자와 인터뷰에서 이같이 말했다. 그는 에너지와 AI라는 두 축을 접목한 '실천가형 연구자'로, 기술 자체만큼이나 "기술이 어떻게 조직 안에 어떻게 퍼질 수 있는가"에 집중하는 전략가다. 현장 연구자와 행정 실무자 모두가 AI를 손에 쥐게 하려면 결국 언어와 문화가 먼저라는 것이 그의 신념이다. 23일 업계에 따르면 최근 공공, 산업계 전반에서 AI 실용화를 이끄는 'AI 에반젤리스트'에 대한 요구가 높아지고 있다. 특히 연구 생산성과 행정 자동화를 아우르는 현장형 사례가 주목받는 가운데 이제현 에너지연구원 실장은 대표적 실천가로 관심을 모으고 있다. 이 실장은 서울대학교에서 재료공학 박사, 비엔나공과대학교에서 고체물리학 박사 학위를 취득한 이중 박사 출신이다. 삼성전자 반도체연구소에서 3D 모델링과 AI 응용을 이끄는 실무 책임자로 근무하며 연례기술상과 미래창조상을 수상했고 이후 서울대 재료공학부 연구교수를 거쳐 한국에너지기술연구원으로 자리를 옮겼다. 지난해부터는 대통령 직속 국가인공지능위원회 산업·공공분과 위원으로도 활동하고 있다. "AI 전환 활동, 창피함에서 시작됐다"…'AI-에너지 실천가'가 된 여정은 이 실장이 정부출연 연구기관(출연연)의 'AI 에반젤리스트'를 넘어 AI 없이는 설명할 수 없는 '필수불가결의 실천가'로 정체성을 확립하기까지는 예상 밖의 출발점이 있었다. 그것은 바로 '부끄러움'이었다. 그는 지난 2018년 출연연에 입사했을 당시를 떠올리며 태양광·풍력·수소·배터리 등 에너지 공학 전반에 대한 이해가 거의 없었다고 밝혔다. 데이터 분석과 AI 개발에는 자신 있었지만 실제 에너지 기술 논문을 해석하는 데 큰 어려움을 겪었다는 설명이다. 이 실장은 "그 당시에는 하루 세 편 이상의 논문을 읽는 것조차 버거웠고 에너지 전문 연구자들 사이에선 스스로가 '바보가 된 느낌'이었다"며 "이에 더더욱 살아남아야겠다고 마음먹었다"고 말했다. 이어 "여기서 AI를 단순한 연구 주제가 아니라 나를 구하는 실전 무기로 써야겠다는 각성이 생겼다"고 말했다. 실제 전환점은 지난 2020년 초 한 랩 세미나 발표 일정에서 찾아왔다. 5일 안에 최신 태양광 논문 20편을 읽고 리뷰를 정리해 발표해야 했던 그는 시간 부족과 전문성 한계를 동시에 마주하며 해결책을 고민했다. 이에 논문 PDF를 자동 수집하고 형태소 분석과 동사 추출을 통해 주요 키워드와 연구 동향을 집계하는 텍스트 마이닝 기법을 고안했다. 단순 요약이 아닌 논문 간 흐름을 데이터 기반으로 구조화하는 전략이었다. 결과는 예상과 달리 압도적이었다. 5일 만에 8천여 편의 논문을 자동으로 요약·분류했고 세미나 당일에는 정제된 연구 분야 지도와 핵심 트렌드를 제시해 긍정적 평가를 받았다. 이 실장은 "호통을 기대했는데 대신 칭찬이 돌아왔다"며 "AI를 단순한 분석 도구가 아닌 생존을 가능케 하는 실전형 활용법으로 처음 체감한 순간이었다"고 회상했다. 다만 이를 본격적으로 활용하려 파고들자 이 실장은 곧 기술적 한계에 직면했다. 당시 사용한 초창기 언어모델인 'BERT' 기반 딥러닝 요약 애플리케이션 프로그램 인터페이스(API)가 논문 초록의 앞부분만 뽑는 '두괄식 요약'에 그쳐 실제 연구의 고유한 기여 내용은 제대로 반영되지 않았던 것이다. 이에 그는 자신이 과거에 작성한 논문 40여 편을 직접 분석하며 연구자가 '고유 기여'를 선언할 때 반복적으로 사용하는 표현들을 선별해 나갔다. 일례로 "이 논문에서 우리는…", "본 연구는 다음을 제시한다…", "이 연구에서는 처음으로…"와 같은 문장들이 대표적이다. 이 실장은 이러한 문장 패턴을 정규표현식으로 구현해 논문 핵심 기여만을 자동으로 추출하는 20개의 규칙 세트를 설계했다. 이 세트는 실제 태양광, 수소, 배터리 등 다양한 에너지 기술 논문에 적용한 결과 매우 높은 정확도로 고유 기여 문장을 뽑아내는 성과를 거뒀다. 이에 당시에는 "이 정도 수준이면 사업화해도 되지 않겠느냐"는 제안까지 이어졌다. 이 실장의 실천가적 성향은 기술의 실용성과 시장성에 대한 감각에서도 드러난다. 그는 박사 시절 스핀트로닉스라는 첨단 주제를 연구했지만 산업계가 해당 기술을 외면하면서 좌절을 겪은 경험이 있다. 실용적이고 경쟁력 있는 연구 주제가 결국 살아남는다는 깨달음은 이후 그가 다양한 에너지 기술을 '같은 거리'에서 관찰하고 AI와 데이터로 조망하는 전략으로 전환하는 계기가 됐다. "레고처럼 조합한 AI"…에너지연을 AI 조직으로 바꾼 실천형 전략 이제현 연구실장은 "기술을 직접 개발하지 않아도 잘 조합하면 된다"는 철학 아래 다양한 API를 연결해 활용하는 전략을 구사하고 있다. 초창기에는 BERT 기반 요약 API와 구글 번역 API를 결합해 한글·영문 동시 요약 파이프라인을 구성하고 논문 데이터의 전처리와 후처리는 파이썬 스크립트로 처리하는 방식으로 자동화 체계를 구축했다. 그는 "우리가 AI를 직접 구축하지 않는다고 해도 이를 레고 블록처럼 조립해서 붙일 수 있다"며 "이를 통해 지금까지 상상되지 않은 생산적인 사용 사례를 창출할 수 있다"고 설명했다. 이 실장이 설계한 조립형 전략은 이후 생성형 AI 확산과 맞물리며 보다 강력한 효과를 냈다. 특히 지난 2023년 '챗GPT' API가 공개됐을 당시 기존에 구축해 둔 다양한 입출력 파이프라인 덕분에 새로운 모델을 별도 수정 없이 그대로 끼워 넣는 방식으로 즉시 적용할 수 있었다. 연구 생산 흐름에 AI를 유기적으로 결합하는 구조 중심의 접근이 자체 개발보다 현실적이고 효율적인 전략으로 작동한 셈이다. AI를 레고 블록처럼 조립한 실험 중 하나는 'GPT-4' 기반 '딴지봇'이다. 챗GPT의 'GPT스토어'에서 찾아서 쓸 수 있는 이 봇은 단순한 챗봇이 아니다. 숫자 계산·단어 수 비교 등 논리 판단이 필요한 질문에는 파이썬 코드로 정확한 값을 먼저 구한 뒤 GPT가 해당 결과를 기억해 끝까지 유지하도록 설계됐다. "생각이라는 걸 할 줄 아는거죠?" 같은 태클형 멘트도 함께 삽입해 독특한 캐릭터를 갖췄다. '딴지봇'은 기존 챗GPT와 달리 유저가 자기 생각 속에 잠기게 되는 편향을 줄이고 논리적 사고를 유도하는 데도 효과적이다. 끊임없이 반박하는 구조 덕분에 사용자가 스스로 논리를 점검하게 된다. 이 실장의 소개 후 기자 역시 이 챗봇을 사용하며 비용 편익 분석과 판단에 있어 도움을 받고 있다. 또 다른 실험으로는 '플랏봇'과 '싹둑봇'이 있다. 플랏봇은 '챗GPT'가 한글·한자 폰트를 직접 불러와 디자인 과정에서 발생하는 글자 뭉침 현상을 자동으로 해결한다. 싹둑봇은 복수의 아이콘이 담긴 PNG 이미지를 자동으로 분리해 저장하며 사용자 요청에 따라 반복 편집도 가능하다. 이 실장은 "AI를 직접 구축하지 않아도 잘 조립하면 된다"며 "이런 도구들을 AI가 직접 짜준 코드 한 줄로 연결하면 연구자들의 일상적인 작업도 단숨에 자동화할 수 있다"고 설명했다. 다만 아무리 강력한 도구라도 '공감할 언어' 없이 전파되긴 어렵다. 이 실장이 연구원에 부임한 이후 택한 전략은 단순한 기술 전파가 아닌 '문화 설계'에 가까웠다. 그는 처음 부임했을 때부터 내부 게시판에 AI 관련 사용기를 꾸준히 게시하며 일상 언어로 기술을 설명하고 사례를 공유했다. 주 독자인 태양광·수소 분야 연구자들이 공감할 수 있도록 콘텐츠는 절반은 익숙한 개념, 나머지 절반은 새로운 시사점으로 구성해 진입 장벽을 낮췄다. "기술은 낯설어도 맥락은 익숙해야 따라올 수 있다"는 것이 전략이었다. 그렇게 쌓아올린 AI 관련 사용기와 활용 노트는 어느덧 5년간 누적 52페이지에 달했다. 이같은 접근은 단순한 기술 놀이가 아니라 연구원 조직 전체에 AI 문화를 확산시키는 촉매로 작용했다. 이후 전산실과 지식정보실, 행정부서 등이 서로 협력해 '논문 요약 자동화', '회의록 정리', '보고서 DOCX 변환' 등 실제 행정에 적용 가능한 AI 툴 실험이 이어졌다. 업무 질 제고를 위해 작은 단위의 자동화부터 전체 문서 파이프라인 개편까지 범위도 넓었다. 대표적인 예는 'GPT-4'를 활용한 보고서 자동 출력 기능이다. 과거에는 보고서를 문서로 만들기 위해 파이썬 코드나 API를 직접 다뤄야 했지만 지금은 "이 내용 워드로 정리해줘" 한 줄만 입력하면 AI가 알아서 워드 파일을 만들어준다. 표나 숫자가 포함된 내용은 엑셀 파일까지 자동으로 생성된다. 이처럼 여러 AI 도구가 서로 연결돼 자연스럽게 이어지는 작업 흐름이 실제 연구원 내부에 자리잡고 있다. 연구원 수뇌부의 지원도 강력했다. 전임 원장은 표창과 강연 기회를 통해 AI 실험가들을 공개적으로 격려했고 공공기관 속 숨은 고수들이 전면에 나설 수 있도록 환경을 조성했다. 현 경영진 역시 R&D 예산삭감 와중에도 출연연 최초 DGX GPU 도입 등 지원을 아끼지 않았다. 전파 속도도 가팔랐다. 다른 출연연에서 AI 태스크포스가 직접 방문해 벤치마킹할 정도로 한국에너지기술연구원은 행정과 연구 전반에 AI를 접목한 선도 기관으로 주목받고 있다. 정보 요약부터 가설·실험까지…AI가 만드는 미래의 연구 루프 이제현 실장은 AI가 전기나 원유처럼 '사회의 기반'으로 받아들이는 시대가 머지않았다고 보고 있다. 모든 산업과 학문이 전기를 쓰듯 이제는 AI를 자연스럽게 흡수하게 될 것이며 연구기관도 예외가 아니라는 것이다. 이 실장이 구상하는 연구기관 내 AI 활용의 미래는 세 가지 축으로 정리된다. 이 중 핵심은 정보 습득의 가속이다. 그는 방대한 논문, 보고서, 뉴스 등 텍스트 기반 데이터를 빠르게 흡수하기 위해 요약 파이프라인을 구축해 왔다. 끊임없이 쌓이는 '과잉 정보'에 대응하기 위해 BERT, GPT, 딥엘 등 언어 모델을 조합하고 이를 노트북LM, 마누스 등 도구와 연계해 핵심 문장만 추출하고 시각자료와 자동 연결하는 구조를 실험하고 있다. 정보 판단을 기계에 맡겨도 되는가라는 기자의 질문에는 "인간이 조직과 컨설팅 서비스를 만든 이유도 결국 판단의 효율을 높이기 위한 것이었다"며 "지금처럼 정보가 넘쳐나는 시대에 일부 판단을 기술에 위임하는 현상이 자연스럽게 발생하는 것"이라고 말했다. 또 다른 핵심 축은 추론과 가설 생성의 자동화다. 이 실장은 AI가 단순한 보조 도구를 넘어 연구자의 사고 방식과 문제 접근법까지 학습하는 수준으로 진화할 것으로 예측한다. 이미 그는 자신이 설계한 '딴지봇'에 '연구자 성향'과 '판단 기준' 같은 논리적 편향을 의도적으로 주입해 AI가 스스로 문제를 정의하고 가설을 제안할 수 있는 구조를 실험 중이다. 연구 자동화의 마지막 축으로 이 실장은 실험과 검증의 기계화를 제시했다. 장기적으로 AI가 실험 설계까지 최적화할 수 있을 것이라는 예측이다. 로봇과 랩 오토메이션을 연계하면 사람이 손을 대지 않아도 전체 연구 과정을 하나의 사이클로 자동 수행하는 구조가 가능하다는 구상이다. 다만 그는 실험의 실행은 자동화하더라도 그 방향을 설정하는 가치 판단과 최종 결정은 인간의 몫이어야 한다는 점을 강조했다. 그는 AI가 절대 넘볼 수 없는 분야로 '철학·역사·문화적 맥락'을 꼽았다. 독일의 인종주의 트라우마나 한국의 민주화 경험 같은 집단 기억과 감정은 기존의 데이터만으로 온전히 담아내기 어렵다는 이유에서다. '챗GPT' 지브리풍 그림이 빠르게 식상해지는 현상을 예로 들며 "새로움과 차별점을 설계하는 능력이야말로 인간 고유의 가치"라고 설명했다. 이 실장과 에너지연구원은 '연구 자동화'라는 미래를 향해 실질적으로 가능한 실험들을 하나씩 진행 중이다. 미국의 프론티어 AI랩들에게만 가능한 자체 LLM을 구축할 역량이 없다고 해도 외부 AI 모델을 최대한 잘 활용해 레고와 같이 데이터 파이프라인을 최고 수준으로 설계하는 것은 가능하기 때문이다. 이미 연구원 내부에서는 보고서, 뉴스, 논문 같은 데이터를 자동으로 수집·정리한 뒤 이를 기반으로 표, 그래프, 설명형 문서까지 자동으로 생성하는 시스템이 실험되고 있다. 향후에는 이를 보다 고도화해 '딥 리서치 에이전트'를 구축할 계획이다. 이는 에너지·기후 관련 논문, 특허, 정책 자료 등을 AI가 메타리뷰하고 위험 요소를 정리한 리스크 맵이나 요약 보고서까지 자동 생성하게 만든다는 구상이다. 사용자가 직접 입력하는 프롬프트와 부서별 서식도 미리 정해 둬 결과물이 자동으로 워드 문서로 출력되고 원문 링크도 함께 붙는 구조다. 이에 더해 AI가 실험 설계 단계까지 관여할 수 있도록 윤리 기준이나 연구자의 판단 기준을 변수로 설정하는 시도도 추진 중이다. 장기적으로는 실험 로봇, 디지털 트윈과 연계해 아이디어가 뜨자마자 실험되고 결과까지 해석되는 '완전 자동화 루프'를 구현하겠다는 계획이다. 이제현 한국에너지기술연구원 실장은 "AI가 논문을 읽고 가설을 세우고 실험을 설계하는 시대는 언젠가 오게 될 것"이라며 "이러한 시대에 대비해 우리는 AI에게 어떤 맥락을 학습시킬 것인가를 물어야 한다"고 강조했다.

2025.04.23 10:07조이환

성과 입증한 공공데이터 개방…행안부, AI 시대 맞춰 기업 지원 '강화'

행정·공공부문 데이터 개방이 기업들의 매출 성장과 인원 확충에 주효한 역할을 하고 있는 것으로 나타났다. 20일 행안부가 발표한 '2024년 공공데이터 활용기업 실태조사' 결과에 따르면 공공데이터를 활용한 기업의 제품·서비스 매출 비율은 지난 3년간(2022~2024년) 꾸준히 증가했다. 또 신규 채용인원 중 공공데이터 활용 관련 채용인원이 차지하는 비율도 전년도(26%) 대비 증가(32.4%)하는 등 공공데이터가 기업의 매출 증대와 고용 창출에 기여한 것으로 나타났다. 다만 '필요한 공공데이터의 미개방(33.7%)'과 '개방된 데이터 내 정보의 양 불충분(31.1%)', '공공데이터 간 결합·연계 활용이 원활하지 못함(15.8%)' 등은 문제점으로 지적됐다. 또 기업들은 공공데이터를 활용한 비즈니스 시 정부 지원이 가장 필요한 시기로 '제품·서비스 기획 단계(52.6%)'를 꼽았다. 특히 예비창업·초기창업 기업의 경우에는 '공공데이터포털 내 데이터 확보와 사업 활용 방법 지원(35.7%)'을, 성장기업의 경우 '데이터 결합 활용과 신규 서비스 창출 컨설팅(13.8%)'을 가장 필요한 정책 지원이라고 답했다. 행안부는 이번 실태조사를 통해 파악한 정책 수요를 토대로 국내 기업의 성장을 지원하는 공공데이터 개방 정책을 고도화해 추진할 방침이다. 먼저 기업들의 AI 사업을 뒷받침하기 위해 비정형데이터 중심의 AI 학습용 공공데이터와 핵심 고가치 데이터를 개방할 계획이다. 데이터의 표준화와 품질관리도 강화한다. 아울러 행안부는 공공데이터 활용기업이 제품·서비스 기획 단계부터 도움을 받을 수 있도록 사업 초기 단계 컨설팅 강화에 나선다. 또 기업 간 소통 체계를 마련하고 스타트업 멘토링 제공 등 맞춤형 기업 지원을 확대·체계화할 계획이다. 이용석 행안부 디지털정부혁신실장은 "실태조사 결과를 바탕으로 AI 시대에 맞는 공공데이터 개방 정책을 추진하겠다"고 말했다.

2025.03.20 16:09한정호

[기고] AI 컴퓨팅이 분산형이 되어야 하는 이유

AI의 폭발적인 성장은 새로운 산업혁명을 이끌고 있다. 이미 일반 사무 업무는 물론 의료 분야나 산업 분야에서 질병, 장애 등에 대한 진단에 인공지능 활용을 접목하고 있고, 앞으로 도입 산업군은 더욱 확대될 것이다. AI 시대는 데이터를 저장하고 처리하는 '컴퓨팅 파워'가 산업의 기반이 될 것이다. 물과 전기가 점차 유틸리티로 취급되며 언제 어디서나 필수적으로 제공 가능한 자원이 된 것처럼, 컴퓨팅 파워도 상시 가용한 상태가 되어야 하는 시대가 오고 있다. 컴퓨팅 파워 없이는 통신망이 무너지고 공급망이 와해되는 상황이 올 수도 있다. 모든 곳에 AI를 접목시키고자 한다면 컴퓨팅 파워의 가용성과 효율성이 뒷받침되어야 한다. 이를 위해서는 컴퓨팅 인프라 네트워크의 재구축이 필요하다. 단순히 댐 건설 하나만으로는 한 국가의 수자원이 안정적으로 관리되지 않듯이, AI 시대가 도래하기 위해서는 데이터센터, PC 및 엣지 디바이스 모두가 뒷받침하는 분산형 컴퓨팅 파워가 필요하다. AI 컴퓨팅의 미래가 분산형이어야 하는 데에는 세 가지 주요 이유가 있다. 경제, 물리적 거리 및 컴플라이언스 'AI 혁명'의 핵심에 데이터센터가 있다는 것에는 의심의 여지가 없다. 대형언어모델(LLM) 기반 생성형 AI는 다량의 데이터를 활용한 학습을 요구한다. 이러한 집중적인 처리작업에는 수백, 수천 개의 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 가속기 및 네트워킹 칩으로 구성된 대규모의 고성능 컴퓨팅 인프라가 필요하다. 데이터센터도 물론 중요하지만, 데이터센터 이외 요소들도 살펴봐야 할 세 가지 주요 이유가 있다. 첫 번째 이유는 경제성이다. AI를 데이터 센터나 클라우드를 통해 처리하는 데는 많은 비용이 든다. 데이터 센터의 소유 혹은 임대 또는 클라우드 구독 비용은 많은 조직에 부담이 될 수 있다. 두 번째는 물리적 거리이다. 데이터 생성 위치와 데이터 센터 간 데이터 전송은 지연을 초래할 수 있으며, 이는 자율주행차와 같은 시간 민감형 애플리케이션에 적합하지 않을수 있다. 마지막으로, 보안상의 이유로 데이터가 조직 외부나 국가 외부에 저장되는 것을 허용하지 않는 규정이 있다. 따라서, AI에 필요한 컴퓨팅은 다양한 위치와 장치로 분산되어야 한다. 컴퓨팅 기술이 점점 더 강력하고 효율적으로 발전하면서, 데이터 센터나 클라우드에서 작은 언어 모델을 학습시키기보다 PC에서 직접 학습시키는 것이 가능해지고 있다. PC의 중요성 증가 PC는 AI PC의 등장으로 중요한 전환점에 있다. CPU, GPU, NPU를 결합해 생산성, 창작, 게임 등이 AI로 강화되며, 로컬에서 효율적으로 처리된다. 예를 들어, 파워포인트에서 몇 줄의 명령만으로도 시각적으로 놀라운 프레젠테이션을 몇 초 만에 만들 수 있다. 기존 노트북으로 웹 브라우저를 통해 가능하다는 의견도 있지만, 오래된 PC는 처리 시간이 길고 에너지를 더 소모하며, 클라우드와 데이터 전송 비용이 증가하고, 민감한 데이터를 다룰 경우 제약이 따른다. 이러한 문제는 기업 환경에서 더욱 심화된다. 점점 더 많은 직원들이 일상 업무에 AI 애플리케이션을 사용하고 있으며, 기업은 독점 데이터를 활용해 AI 모델을 학습시키거나 조정해야 할 필요성이 커지고 있다. 또한 데이터베이스 관리 소프트웨어와 같은 엔터프라이즈 소프트웨어는 클라우드 CPU 코어 사용량에 따라 라이선스 비용이 발생한다. AI PC를 활용하면 이러한 AI 워크로드를 최적화하여 하드웨어 자원을 효율적으로 사용할 수 있다. 직원 PC에서 직접 AI 애플리케이션을 실행하게 되면 클라우드 컴퓨팅 비용을 절감할 수 있다. 장기적으로는 운영 효율성과 생산성을 높여 기업에 큰 이점을 제공할 수 있다. AI 시대에서 엣지의 장점 데이터 센터와 AI PC를 넘어, 점점 더 많은 AI가 “엣지”로 이동하고 있다. 엣지는 사물인터넷(IoT), 자율주행차, 스마트 시티 장치와 같은 일상적인 AI 경험을 포함한다. 엣지 컴퓨팅은 데이터 생성 지점 근처에서 처리하는 것을 의미하며, 중앙 데이터 센터 의존도를 낮춘다. AI 시대에서 엣지 컴퓨팅은 실시간 처리를 통해 안전과 관련된 즉각적인 결정을 가능하게 하고, 데이터의 지역 처리를 통해 클라우드 전송량을 줄여 네트워크 혼잡을 완화하며 비용을 절감한다. 또한, 민감한 데이터의 전송 중 노출을 최소화하여 보안을 강화한다. 인터넷 연결이 끊긴 상황에서도 중요한 애플리케이션을 유지할 수 있어 특히 의료 산업에서 중요하다. 이러한 AI 사용 사례는 새로운 입력 데이터에 기반하여 예측이나 결정을 내리는 훈련된 기계 학습 모델을 활용하며, 이를 "추론"이라고 한다. 추론은 대체로 고성능 컴퓨팅 인프라가 필요한 학습과는 달리 CPU를 통해 엣지에서 더 쉽게 실행할 수 있다. 추론은 효율성, 낮은 전력 소모, 유연성이 강점으로, 다양한 환경에서도 잘 작동한다. IDC는 2025년까지 전 세계적으로 기업 생성 데이터의 75%가 전통적인 데이터 센터나 클라우드가 아닌 엣지에서 생성 및 처리될 것으로 예측했다. 특히 AI와 컴퓨팅이 엣지로 이동함에 따라, 주요 워크로드는 추론이 차지할 것이다. 비슷한 예시로, 기상 관측 관련 날씨 모델을 "만드는" 사람보다 "활용하는" 사람이 훨씬 많은 사례와 유사하다. 추론이 미래 AI 워크로드의 대부분을 차지할 것임을 인식하면, 기업은 적절한 컴퓨팅 인프라를 준비할 수 있다. 적합한 작업에 적합한 도구 활용 필요 핵심은 엣지 컴퓨팅이 데이터 센터에서의 컴퓨팅보다 더 중요한지, CPU가 GPU보다 중요한지가 아니라, 적합한 작업에 적합한 도구를 사용하는 것이다. AI는 복잡하고, 사용 사례에 따라 요구되는 컴퓨팅 사양이 크게 달라진다. 이는 사용자 경험, 운영적 고려사항, 비용, 정부 규제 등을 포함한다. AI의 지속 가능한 성장을 위해서는 세계의 끊임없는 컴퓨팅 수요를 충족할 수 있는 적합한 인프라를 구축해야 한다. 유틸리티 공급의 비유로 돌아가자면, 국가의 물 공급은 댐만 필요한 것이 아니라, 물 저장소, 정수 시설 등 다양한 인프라가 필요하다. 마찬가지로, 컴퓨팅 파워의 공급도 다양한 종류의 인프라 네트워크가 필요하다. 유틸리티 공급에서 효율성, 보안, 지속 가능성 등의 교훈을 얻었듯이, 대부분의 것에 맞는 해결책은 하나만 있는 것이 아님을 기억하는 것이 중요하다. 이는 AI 시대의 컴퓨팅 파워에도 동일하게 적용된다.

2024.12.26 10:51조민성

"사업 하기 리스크 커"…개보위 공개 데이터 가이드라인에 AI 업계 '우려'

국내 인공지능(AI) 업계가 공개 데이터 처리 기준의 모호성으로 인해 기술 발전이 지연되고 있다고 호소하고 있다. 명확한 사용 기준이 없어 혼란이 가중되면서 AI 기술 및 서비스 개발에 직접적인 지장을 주고 있다는 지적이다. 2일 업계에 따르면 개인정보보호위원회(개보위)는 지난 7월 AI 개발 및 서비스에 활용되는 '공개 데이터 처리 기준'을 제시한 바 있다. 공개 데이터란 인터넷에서 누구나 합법적으로 접근할 수 있는 정보를 의미한다. 이는 생성 AI의 학습에 있어 핵심적인 역할을 하지만 주소와 고유식별번호 등 개인정보가 포함될 수 있어 개인정보 침해 우려가 있다. 개보위가 발표한 '공개 데이터 처리 기준'에 따르면 개인정보보호법 제15조 제1항 제6호에 명시된 개인정보처리자의 '정당한 이익'은 공개 데이터 사용의 법적 근거가 될 수 있다. 개보위는 이를 적용하기 위해서는 '목적의 정당성', '처리의 필요성', '구체적 이익형량' 등 세 가지 요건을 충족해야 한다고 설명했다. AI 기업들과 전문가들은 이러한 처리 기준이 지나치게 모호하며 구체적인 지침이 부족하다고 입을 모으고 있다. 업계 전문가들은 구체적인 가이드가 부재한 상황에서 각 AI 기업에게 강제된 자율성으로 인해 불필요한 추가 개발 및 비용이 발생함을 지적했다. 이에 따른 리스크 역시 기업이 부담하고 있는 상황이기 때문이다. IT 중소기업 B사 관계자는 "모호한 가이드만 있는 상황에서 자율적인 판단을 내리는 것은 원해서 하는 것이 아니라 거의 강제적으로 이뤄지는 것"이라며 "그 리스크도 어쩔 수 없이 각 회사가 지고 있다"고 토로했다. B사 관계자에 따르면 이러한 '자율성'은 스타트업과 중소기업에 특히 치명적이다. 회사가 자율적으로 판단해 데이터를 수집하고 모델 학습에 활용했다가 법적인 리스크를 져 발생하는 잠재적인 비용이 수십억 원에 달할 수도 있는 상황이기 때문이다. 대기업은 감당할 수 있겠지만 규모가 작은 기업에게는 큰 부담이 된다는 설명이다. 그는 "개발을 완료한 후 개인정보보호법에 따라 사용 불가 판정이 나오면 막대한 비용을 들여 다시 개발해야 하는 상황"이라며 "하루라도 빨리 명확한 가이드라인을 제공해 사업을 빠르게 진행할 수 있도록 해주면 좋겠다"고 강조했다. 또 다른 IT 대기업 R사 관계자는 AI 학습 데이터에 대한 처리 기준이 전 세계 차원에서도 명확한 규칙이 정해지지 않은 상황임을 지적했다. 그는 "해외 모델도 국내 공개 데이터를 이미 학습에 활용하고 있는 것으로 추정되는데 국내 기업에 더 강한 규제가 적용된다면 역차별이 될 수 있다"며 "AI 모델 경쟁이 심화되는 가운데 그래픽처리장치(GPU)와 학습 데이터 등 인프라 자원 확보가 기술 경쟁력으로 직결되기 때문에 신중한 규제나 가이드라인 제정이 필요하다"고 밝혔다. 그러면서 "단순히 빠르게 규칙을 정하는 데만 치중하지 말고 콘텐츠 기업·창작자·AI 기업이 함께 성장할 수 있는 방향으로 의견을 모아가면서 룰을 만들어가는 것이 필요하다"고 강조했다. 이러한 업계의 우려에 대해 개보위는 이날 저녁 공식적으로 반박했다. 우선 '정당한 이익'이라는 개념이 이미 전 세계적으로 확립된 적법 처리 근거로, 해외에서도 공개 데이터 처리에 법적으로 인정되고 있다는 것이다. 개보위 측은 "현재 프랑스에서는 지난해 10월부터 AI 학습 목적으로 개인정보 처리 시 '정당한 이익'이 인정되기 위한 기준을 제시한 바 있다"며 "마찬가지로 영국도 웹 스크래핑 수집 데이터를 생성 AI 학습에 사용하는 것을 두고 '정당한 이익'으로 인정된다고 밝혔다"고 주장했다. 또 개보위 측에 따르면 개인정보 처리의 목적·필요성·안전조치를 마련하는 것은 개인정보처리자의 기본 의무다. 이에 따라 안내서는 단순히 기업들이 '정당한 이익'을 적법 근거로 사용할 수 있도록 구체적 기준과 사례를 제시하는 목적으로 제작됐다는 것이다. 개보위 측은 "기업이 이를 준수하는 과정에서 일정 시간이 걸릴 수 있다"면서도 "그럼에도 이는 개인정보 보호의 기본적인 책임"이라고 강조했다. 개보위는 인허가 과정에 대한 우려도 일축했다. 기업들이 제기한 '인허가 과정'에 대한 우려는 사실과 다르며 정부는 어떠한 인허가 절차도 운영하지 않고 있다는 것이다. 이와 동시에 개보위는 AI 시대에 원칙 중심의 규율 체계를 정립하기 위해 노력 중이라는 점을 덧붙였다. 개보위 측은 "신기술 분야는 기술 발전 속도가 빠르기 때문에 안내서를 지속적으로 수정·보완할 예정"이라며 "그 과정에서 구속력 있는 법규의 필요성이 구체화되면 법 개정도 병행할 예정"이라고 밝혔다.

2024.10.02 19:08조이환

"Q&A 커뮤니티와 LLM이 함께 발전할 겁니다"

꿈은 삶의 이정표이자 동력이다. 꿈은 곧 미래의 삶이다. 꿈은 그래서 소중하다. 꿈은 사람마다 다르고 다른 만큼 다채롭다. 스타트업이 꾸는 꿈도 그럴 것이다. 소중하고 다채롭다. '이균성의 스타트업 스토리'는 누군가의 꿈 이야기다. 꿈꾸는 사람이 자신의 이야기를 들려주고 다른 꿈꾸는 사람을 소개하는 릴레이 형식으로 진행된다. [편집자주] “Q&A 커뮤니티와 LLM이 함께 발전할 겁니다” 서한울 아하앤컴퍼니 대표는 챗GPT가 처음 각광을 받기 시작했을 때 불안했다. 아하는 질문과 대답(Q&A)을 중심으로 하는 커뮤니티 서비스다. 사람이 질문하고 사람이 대답한다. 그런데 챗GPT가 사람과 비슷한 대답을 내놓자 아하 같은 비즈니스 모델이 더 이상 불가능한 게 아닌가 하는 생각을 했던 것이다. 그런데 결과는 그 반대였다. 챗GPT 출시 이후 오히려 아하의 성장지표는 우상향 했고, 새로운 수익모델까지 나오게 됐다. “챗GPT 출시 후 생성형 인공지능 개발 붐이 불고, 특히 거대언어모델(LLM)에 대한 관심이 커지면서, 이를 학습시킬 데이터가 더 중요해졌어요. 그런데 아하에 있는 수많은 문답 콘텐츠가 여기에 꼭 필요한 양질의 학습 데이터였던 것이지요. 그 덕분에 데이터를 판매하는 새로운 수익원이 생기게 되었습니다.” ■왜 Q&A 서비스로 창업했는가 서한울 대표에게는 슬픈 개인사가 있다. 4살 터울의 친형이 있었다. 친형은 그러나 안타깝게도 젊은 나이에 췌장암 말기 판정을 받았다. 불행히도 얼마 버티지 못하고 고인이 되었다. 서 대표는 친형을 살리기 위해 다양한 노력을 했고, 대형 카페와 여러 Q&A 서비스를 들락날락한 것도 그런 노력의 일환이었다. “병원 치료가 중심이었지만 지푸라기라도 잡는 심정으로 각종 Q&A도 스터디 했죠. 그 와중에 사기만 10번은 당한 것 같아요. 큰 상처만 안고 형님을 하늘나라로 보내고 난 뒤 곰곰 생각해보니 인터넷 공간의 Q&A 서비스 문제는 비단 의료 영역에만 해당되는 것은 아니라는 생각을 하게 됐습니다. Q&A의 본질은 궁금증을 풀거나 문제 해결의 단서를 얻는 곳이어야 하는데 대부분의 서비스가 심각하게 오염돼 있다는 판단을 하게 됐죠. 크게 2가지 문제가 있다고 봤습니다. 우선 콘텐츠 문제죠. 신뢰할 수 없는 사람이 내놓은 답변이나 홍보 및 마케팅에 불과한 답변 등 질 낮은 콘텐츠가 너무 많다는 거죠. 이런 콘텐츠가 만연한 구조의 문제가 두 번째입니다. 진정성을 담은 질 높은 콘텐츠에 대한 보상 시스템이 없는 게 그 원인이라 보았죠. 이런 문제를 해결하는 Q&A 서비스를 해보고 싶어졌어요.” ■아하는 기존 Q&A 서비스와 무엇이 다른가 아하는 이 문제를 해결하기 위해서 사용자의 질문에 대한 답변을 두 가지로 구분한다. 전문가답변과 누구나답변이 그것이다. 어떤 질문은 전문성에 기반한 전문가의 답변이 중요하지만 어떤 질문은 여러 사람의 다양한 생각이 더 중요할 수도 있기 때문이다. 질문자가 자신의 의도에 맞게 참고하면 되는 것이다. “아하에는 의사 약사 변호사 세무사 노무사 등 약 1만 명 규모의 인증전문가가 답변 활동을 하고 있습니다. 모두 실명이죠. 답변자로서 실명을 밝히는 것만으로도 전문성과 신뢰성을 더 높일 수 있다고 생각합니다. 질문과 답변에 대해서는 저희가 마련한 시스템에 따라 디지털 자산으로 보상합니다. 생태계 성장에 기여한 보답인 것이죠. 생산된 콘텐츠에 대해서는 인공지능(AI) 기술을 활용해 거릅니다. 미풍양속을 해치는 콘텐츠나 광고성 답변 등 어뷰징 계정을 실시간으로 모니터링하고 있습니다. 악성 유저가 있다면 모니터링해 제재를 가하고 있어요.” ■“챗GPT 출시 이후 더 성장하고 있어요” 아하는 2019년 1월에 오픈했다. 현재 누적 회원 수는 약 140만 명이고, 월 평균 45만 개의 질문 및 답변이 달리고 있다. 월 평균 웹 UV는 구글이나 네이버 같은 검색 사이트를 통해 들어온 것까지 합쳐 1300만이다. “아하 오픈 이후 매년 지표가 크게 좋아지고 있어요. 특이한 것은 2022년 11월 챗GPT 출시 이후 사람과 사람 사이의 질문 답변 커뮤니티가 위태로울 수도 있다는 생각을 잠시 했는데 성장세가 전혀 꺾이지 않았다는 사실이에요. 예를 들어 2022년 답변 콘텐츠 수는 161만여 개로 전년 123만여 개에 비해 40여만 개 늘어났는데, 2023년에는 287만개로 2022년에 비해 무려 120만 개가 더 늘어난 것이죠.” 지표가 좋아지면서 2023년부터는 수익모델도 붙이기 시작했다. “아하 수익모델은 크게 세 가지죠. 유료 멤버쉽과 광고 그리고 데이터 판매죠. 멤버쉽과 광고는 아하 오픈 시점부터 구상한 수익모델이기는 하지만 데이터 판매는 당시에는 전혀 생각하지 않았던 것이에요. 특이하게도 챗GPT가 우릴 도와줬죠. 챗GPT 덕에 생성형 AI 모델 개발업체에 데이터를 팔 수 있게 됐어요. AI 시대에도 사람과 사람이 묻고 답하는 커뮤니티가 여전히 유효하다는 방증이 바로 아하죠.” 아하의 지난해 매출은 42억 원이고 영업이익은 약 19억 원이다. ■“Quora 형식의 레딧 모델을 꿈꿉니다” 서 대표는 중국인민대학교 법학과를 졸업했다. 아하는 두 번째 창업이다. 첫 창업과 두 번째 창업 초기에는 우여곡절도 많았다. 가족에 대한 아픔으로 아하를 오픈한 뒤에는 갈 길이 명확해졌다. “사람이 살아가는 데는 수많은 궁금증이 생기게 마련이고 문제도 발생하잖아요. 어떤 방법으로든 이를 해결해야 하고요. 아하는 그에 관한 질 좋은 콘텐츠가 담긴 공간이 되었으면 해요. 미국엔 쿼라(Quora)라는 사이트가 있는데, 2020년 기준으로 월간 사용자가 3억 명이 넘고 기업가치도 20억 달러가 넘었습니다. 아하는 그런데 질문 답변 방식에서는 쿼라를 지향하지만 전체적으로 레딧(Reddit) 모델을 추구합니다. 질 좋은 질문과 답변을 기반으로 하되 그것으로 끝나지 않고 커뮤니티 기능을 더 강화할 생각이에요. 이를 위해 조만간 답변에 대한 토론 그리고 생성된 콘텐츠에 대한 투표 등의 기능을 추가할 계획이죠.” 단기 목표는 현재 140만 명인 회원을 3년 안에 2천만 명으로 늘리는 것이다. “불가능한 목표는 아니라고 봅니다. 현재 대한민국 인터넷 이용자의 96%인 4600만 명은 정보 획득 및 검색을 목적으로 인터넷을 하죠. 그 행위가 사실은 질문과 답변이죠. 토론과 투표는 그 신뢰도를 더 높일 수도 있겠고요. 그중 절반 정도가 아하에서 질 좋은 콘텐츠를 만날 수 있게 해드리고 싶은 것입니다.” 덧붙이는 말씀: 서한울 아하앤컴퍼니 대표가 다음 인터뷰 대상으로 추천한 사람은 푸드테크 스타트업 지구인컴퍼니의 민금채 대표입니다.

2024.06.27 11:14이균성

부실한 'AI 허브' 데이터 품질..."연합학습·입찰 방식 간소화 필요"

정부가 운영하는 인공지능(AI) 학습용 데이터 플랫폼 'AI 허브'가 부실하다는 목소리가 나왔다. AI 허브에 등록된 공공데이터 품질 수준이 낮다는 지적이다. 전문가들은 AI 허브에 기업이 직접 데이터 올리는 방식을 개편해야 한다고 입을 모았다. 기업이 AI 허브에 데이터를 공유한다는 건 영업 비밀을 공개하는 것과 같은 이치이기 때문이다. 이 외에도 입찰 방식을 간소화하고 과금을 매기는 등 세밀한 정책 설계가 필요하다는 의견도 나왔다. 정부는 2017년부터 내년까지 1천300여종으로 이뤄진 AI 학습용 공공데이터 조성 목표로 AI 허브를 개설했다. 현재 전담 기관은 한국지능정보사회진흥원이다. 감사원에 따르면 2020년부터 현재까지 진행된 데이터 중 122종 데이터 품질에 문제가 있는 것으로 전해졌다. 여기에 투입된 사업비만 1천148억원이다. "데이터 직접 공유, 보안·품질↓…'연합학습' 채택 필요" 기업이 데이터를 AI 허브에 직접 공유하는 방식이 개편돼야 한다는 주장이 이어지고 있다. 자사 핵심 데이터를 납품하는 순간 기업 영업 비밀이 공개된다는 이유에서다. 한 업계 관계자는 "그동안 기업은 고의적으로 품질 낮은 데이터만 골라 공유하는 분위기"라며 "일회성 납품일뿐더러 데이터 품질을 직접 측정하기 힘들기 때문"이라고 귀띔했다. 전문가들은 연합학습으로 데이터 공유 환경을 조성해야 한다고 목소리를 높였다. 기업이 자사 기기나 서버로 데이터를 훈련한 후, 업데이트 결과만 중앙 서버에 공유하는 방법이다. 다른 기업들은 중앙 서버에 공유된 것만으로 AI 모델을 개발할 수 있다. 이때 데이터는 중앙 서버로 전송되지 않고, 데이터 생산자 기기나 서버에 보관된다. 데이터 정보보호를 높일 수 있는 셈이다. 직접 데이터를 물리적으로 공유하는 방식과 다르다. 이경전 경희대 빅데이터·빅데이터응용학과 교수는 "기업이 자사 데이터를 직접 공유하는 것보다는 연합학습 방식이 효과적"이라며 "결과적으로 AI 허브에 등록된 데이터 품질에 긍정적인 영향을 미칠 것"이라고 본지에 전했다. 김진형 카이스트 명예교수도 "데이터 댐 과제에서 연합학습을 허용하고 과금을 설정하는 등 섬세한 정책 설계가 절실하다"고 말했다. "입찰 방식 바꿔야 수익 좋은 기업도 참여할 것" 공공 입찰 방식에도 전면적 수정이 필요하다는 주장도 나왔다. 소모적인 검토가 지나치다는 지적도 나왔다. 불필요한 서류 검토로 인해 정부 사업 필요 없는 수익성 좋은 기업이 낮은 참여도를 기록했다는 입장이다. 한 업계 관계자는 일반 기업이 입찰하는 방식 채택으로 이를 교체해야 한다고 주장했다. 그는 "보통 기업이 업체에 용역을 맡기면 회계 검증 등 불필요한 검토를 하지 않는다"며 "계획대로 용역을 잘 수행하는지, 품질 기준을 잘 충족하는지만 평가한다"고 설명했다. 그는 "공공 사업을 수주하지 않아도 되는 소위 '잘 나가는 기업'은 지나친 서류 검토나 불필요한 형식 절차로 인해 AI 허브 참여를 꺼리고 있다"며 "정책에 변화가 있어야 할 것"이라고 강조했다.

2024.05.27 18:37김미정

파수, '엔터프라이즈 LLM' 출시..."사내 AI 구축 통합지원"

파수가 기업용 sLLM(경량 대형언어모델) 시장에 출사표를 던졌다. 파수는 지난 5일 '파수 ELLM'을 출시했다고 6일 밝혔다. 이 모델은 조직의 특성에 맞는 생성형 인공지능(AI)을 구축해 보고서 작성 및 문서 요약, 내부 데이터 분석, 지식창고 운영, 고객 응대 등 다양한 분야의 업무 생산성과 효율성을 높인다. 파수 ELLM은 고객별 도메인 사전 특화 학습(DAPT)와 태스크별 미세조정(파인튜닝) 학습으로 맞춤형 결과물을 제공한다. 멀티홉 추론 방식을 채택해 사용자 요청을 분석, 태스크를 분류하고 각 태스크별 최적의 프롬프트를 적용하기도 한다. 또 검생증강생성(RAG) 방식으로 필요에 따라 외부 검색 엔진이나 내부 시스템의 검색 기능 등과 연계할 수 있는 확장형 구조인 점도 특징이다. 파수는 해당 모델이 내부구축형(프라이빗, 온프레미스) AI 도입을 고려하고 있지만 AI 학습에 필요한 내부 데이터를 제대로 관리하지 못하고 있는 조직에게 적합하다고 설명했다. 윤경구 파수 전무는 "문서에 대한 높은 이해도를 갖춘 ELLM의 출시를 시작으로 '고객들의 AI 활용을 돕는 AI 기업'으로서 고객이 가장 필요한 솔루션과 서비스를 지속적으로 선 보일 예정"이라고 말했다.

2024.03.06 08:37이한얼

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

블록체인 가상자산, '입법지연·예산삭감·규제' 악순환 끊어야

[AI는 지금] 대선후보들 'AI 전쟁' 돌입…기술 주권부터 전력 인프라까지 격돌

한화 김동선 진두지휘 ‘벤슨' 뭐가 다른가…‘100% 국내산 유제품'

SKT "정보 유출 없다 '확신'...있더라도 끝까지 책임"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현