• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'2025 AI 대전환: 주도권을 선점하라'통합검색 결과 입니다. (8958건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

카이스트, LLM 학습시간 예측 모델 개발… AI 훈련 비용 5% 절감

GPU 활용률 10% 저하로 훈련 비용 수백만 달러 증가, vTrain으로 해결책 제시 대규모 언어 모델(LLM)이 다양한 응용 분야에서 널리 보급됨에 따라 인공지능 커뮤니티가 직면한 중요한 과제는 이러한 대규모 AI 모델을 비용 효율적인 방식으로 훈련하는 방법이다. 기존의 LLM 훈련 계획은 일반적으로 LLM 병렬화 공간에 대한 철저한 검토보다는 경험적 관찰에 기반한 휴리스틱 기반 병렬 훈련 전략을 채택한다. 이러한 한계로 인해 기존 시스템은 상당한 성능 향상의 여지를 남겨두게 되며, 수백만 달러에 달하는 훈련 비용이 낭비된다. 예를 들어, 1,024대의 NVIDIA A100 GPU를 사용하여 GPT-3(175B 매개변수)를 훈련할 때, GPU 컴퓨팅 활용률이 단지 10%(50%에서 40%로) 감소하더라도 훈련 시간이 8일 증가하여 수백만 달러의 추가 비용이 발생한다. 그러나 이러한 대규모 LLM을 훈련해야 하는 규모 때문에 훈련 시스템 구성의 설계 공간을 철저히 탐색하여 가장 최적의 비용 효율적인 하이퍼파라미터를 찾는 것은 극히 어려운 일이다. 수십 분 내 최적 훈련 전략 도출하는 vTrain의 혁신적 시뮬레이션 기술 카이스트가 발표한 논문에 따르면, 비용 효율적이고 컴퓨팅 최적의 LLM 훈련 시스템 평가를 안내하는 프로파일링 기반 시뮬레이터인 vTrain은 해당 문제를 해결하는 데 도움이 된다. vTrain은 AI 실무자들에게 효율적이고 비용 효율적인 LLM 훈련 시스템 구성을 결정하기 위한 빠르고 정확한 소프트웨어 프레임워크를 제공한다. vTrain의 핵심 특징은 프로파일링 기반 방법론을 사용하여 각 설계 지점의 LLM 훈련 시간을 정확하게 추정하는 것이다. 이는 고성능 멀티코어 CPU 서버에서 몇 십 분 내에 최적의 LLM 훈련 시스템 구성을 결정할 수 있게 한다. vTrain의 설계는 LLM 훈련 시간을 정확하게 추정할 수 있게 하는 다음과 같은 핵심 관찰에 기반한다. 첫째, 최신 AI 알고리즘은 각 그래프 노드가 신경망 레이어를 나타내는 비순환 그래프로 표현된다. 둘째, LLM 추론과 달리, 훈련을 위한 LLM 그래프 노드의 실행 순서는 컴파일 시간에 정확하게 정의되므로 vTrain은 얼마나 많은 LLM 그래프 노드를 실행해야 하는지와 그 실행 순서를 정적으로 결정할 수 있다. 셋째, 대상 GPU 아키텍처에서 각 개별 LLM 그래프 노드(각 레이어)의 실행 시간은 매우 결정적이며 서로 다른 실행 간에 거의 변동이 없다. 경험적 방식 대비 10% 적은 GPU로 5% 비용 절감, vTrain의 사례 연구 vTrain의 실용성을 입증하기 위해 여러 사례 연구를 실시했다. 첫 번째 사례는 비용 효율적인 LLM 훈련 계획이다. 주어진 LLM, 훈련 토큰 크기 및 컴퓨팅 예산(즉, 총 GPU 수)이 주어졌을 때, 벽시계 훈련 시간과 그에 관련된 훈련 비용을 최소화하는 가장 최적의 훈련 병렬화 전략을 결정할 수 있다. 두 번째는 비용 효율적인 멀티테넌트 LLM 스케줄링으로, 여러 LLM 훈련 작업이 GPU 클러스터를 공유할 때, GPU 활용률을 최대화하면서 작업 완료 시간을 최소화하는 효율적인 스케줄링 알고리즘을 식별할 수 있다. 세 번째는 컴퓨팅 최적의 LLM 모델 설계로, 고정된 컴퓨팅 및 훈련 시간 예산이 주어졌을 때, Chinchilla 스케일링 법칙을 만족하는 가장 큰 LLM을 결정할 수 있다. 예를 들어, MT-NLG(530B) 모델 훈련에서 vTrain은 기존 방식보다 10% 적은 GPU를 사용하면서 4.5% 높은 GPU 활용률을 달성하고, 훈련 비용을 5% 절감하는 훈련 계획을 도출했다. 텐서, 데이터, 파이프라인 병렬화의 최적 조합으로 LLM 훈련 효율성 극대화 현대 LLM 훈련은 최첨단 3D 병렬화 방식(데이터 병렬화, 텐서 병렬화, 파이프라인 병렬화)을 적용한다. 이는 LLM과 같은 거대한 AI 모델을 분할하여 여러 GPU에서 효율적으로 학습시키기 위한 전략이다. 텐서 병렬화는 모델 가중치를 GPU 내에서 열과 행 차원으로 나누어 같은 노드 내 GPU 간에 고대역폭 통신을 활용한다. 데이터 병렬화와 파이프라인 병렬화는 주로 노드 간 병렬화에 사용되며, 상대적으로 통신 오버헤드가 적다. vTrain은 이러한 복잡한 병렬화 전략의 성능을 정확하게 모델링하고, 최적의 구성을 찾아내어 GPU 활용률을 높이고 훈련 비용을 최소화할 수 있다. 145억에서 76억 매개변수로: vTrain으로 발견한 30일 내 훈련 가능한 현실적 모델 크기 Chinchilla 스케일링 법칙에 따르면, 주어진 컴퓨팅 예산 내에서 최적의 모델 크기와 훈련 토큰 수 사이에는 균형이 필요하다. 단순히 모델 크기만 키우는 것은 과소훈련으로 이어져 알고리즘 성능을 완전히 활용하지 못한다. GPU 효율성에 대한 현실적인 평가 없이 단순히 가용 GPU 수만으로 컴퓨팅 예산을 결정하면 오해의 소지가 있다. vTrain은 실제 GPU 활용률을 고려하여 보다 현실적인 컴퓨팅 최적 모델 크기를 도출할 수 있다. 예를 들어, 420개의 NVIDIA DGX A100 서버(3,360 A100 GPU)를 30일 동안 사용한다고 가정할 때, 단순히 100% GPU 활용률을 가정하면 1,456억 매개변수의 모델을 2,912억 토큰으로 훈련할 수 있다고 예상할 수 있다. 그러나 vTrain은 실제로는 평균 35.56%의 GPU 활용률만 달성 가능하며, 이는 원래 기대했던 30일 대신 85일의 훈련 시간이 필요함을 보여준다. vTrain을 사용하면 760억 매개변수의 모델을 1,521억 토큰으로 30일 내에 훈련할 수 있는 더 현실적인 계획을 수립할 수 있다. FAQ Q: 대규모 언어 모델 훈련에서 GPU 활용률이 왜 그렇게 중요한가요? A: GPU 활용률은 훈련 시간과 비용에 직접적인 영향을 미칩니다. vTrain의 연구에 따르면 GPU 활용률이 단 10% 감소하더라도(50%에서 40%로) 훈련 시간이 8일 증가하며, 이는 수백만 달러의 추가 비용을 의미합니다. 따라서 최적의 병렬화 전략을 통한 GPU 활용률 최적화는 비용 효율적인 LLM 훈련에 필수적입니다. Q: vTrain은 어떻게 기존 LLM 훈련 방식보다 더 효율적인 방법을 찾아낼 수 있나요? A: vTrain은 프로파일링 기반 시뮬레이션을 통해 수천 가지의 가능한 병렬화 구성을 빠르게 평가하여 최적의 훈련 계획을 도출합니다. 기존 방식은 경험적 관찰에 기반한 휴리스틱에 의존하지만, vTrain은 전체 설계 공간을 체계적으로 탐색하여 GPU 활용률과 훈련 시간 사이의 최적 균형점을 찾아냅니다. Q: Chinchilla 스케일링 법칙이란 무엇이며 LLM 훈련에 어떤 영향을 미치나요? A: Chinchilla 스케일링 법칙은 주어진 컴퓨팅 예산 내에서 모델 크기와 훈련 토큰 수를 균형있게 확장해야 한다는 원칙입니다. 이 법칙에 따르면, 모델을 과소훈련하면 해당 모델의 알고리즘 잠재력을 완전히 발휘할 수 없습니다. vTrain은 실제 GPU 효율성을 고려하여 이 법칙을 적용함으로써, 주어진 시간과 자원 내에서 훈련할 수 있는 최적의 모델 크기와 토큰 수를 더 정확하게 예측할 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니>다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:48AI 에디터

AI는 시각장애인의 눈이 될 수 있을까

전 세계 22억 명 시각장애인을 위한 최초의 1인칭 시점 비디오 데이터셋 'EgoBlind' 현재 전 세계에는 약 22억 명의 시각장애인이 살고 있다. 이들이 일상생활을 더 독립적으로 영위할 수 있도록 돕는 기술은 계속해서 발전하고 있으며, 최근 다중 모달 대규모 언어 모델(MLLM)의 발전으로 시각적 질의응답(VQA) 기술이 크게 향상되었다. 그러나 지금까지 대부분의 VQA 데이터셋은 제3자 시점이나 일반적인 이미지와 비디오 이해에 초점을 맞추고 있어, 실제 시각장애인의 관점에서 필요한 실시간 지원에는 한계가 있었다. 싱가포르 국립대학교, 중국 커뮤니케이션 대학교, 중국 과학기술대학교, 허페이 공과대학교 연구팀이 공동으로 개발한 'EgoBlind'는 시각장애인의 1인칭 시점에서 촬영된 비디오를 기반으로 한 최초의 VideoQA 데이터셋이다. 이 데이터셋은 시각장애인이 직접 착용한 카메라로 촬영된 1,210개의 비디오와 4,927개의 질문을 포함하고 있으며, 이 질문들은 시각장애인이 직접 제기하거나 검증한 것들로 구성되어 있다. "길이 앞에 있나요?" - 시각장애인이 실제 일상에서 가장 필요로 하는 6가지 정보 유형 EgoBlind 데이터셋은 시각장애인이 일상생활에서 필요로 하는 지원 유형을 여섯 가지 주요 카테고리로 분류했다. 정보 판독(Information Reading): 시각장애인이 알고 싶어하는 특정 정보 획득. 예: "이 메뉴에는 무엇이 있나요?", "지금 엘리베이터는 몇 층인가요?" 안전 경고(Safety Warning): 주변 환경의 물리적 안전 위험이나 인적 요소 관련 위험 판단. 예: "길을 건널 때 차가 지나가고 있나요?", "에스컬레이터의 방향은 어떻게 되나요?" 길 안내(Navigation): 실내외 이동 시 필요한 방향과 위치 정보. 예: "화장실은 어디에 있나요?", "지금 내가 출구를 향해 서 있나요?" 사회적 소통(Social Communication): 주변 사람들과의 상호작용 및 다중 활동을 위한 상태 정보 파악. 예: "지금 누가 나에게 말하고 있나요?", "안내견이 엘리베이터에 안전하게 탔나요?" 도구 사용(Tool Use): 각종 도구나 기기 사용 방법. 예: "전자레인지는 어떻게 사용하나요?", "이 문은 어떻게 여나요?" 기타 자원(Other Resources): 주변의 서비스 시설이나 활동 정보. 예: "근처에 시각장애인용 보행로가 있나요?", "특정 브랜드 상점이 있나요?" 이 분류는 시각장애인의 실제 필요에 기반하여 만들어진 것으로, 연구팀은 시각장애인 참가자들을 대상으로 광범위한 설문조사를 실시해 각 질문 유형의 실질적 유용성을 검증했다. GPT-4o도 인간보다 30%p 뒤처진다 - 15개 최신 AI 모델의 성능 실험 결과 연구팀은 EgoBlind 데이터셋을 활용해 현재 최고 수준의 MLLM 15개(GPT-4o, Gemini 2.0 등의 상용 모델 3개와 InternVL2, LLaVA-OV 등의 오픈소스 모델 12개)의 성능을 종합적으로 평가했다. 그 결과, 모든 모델이 시각장애인을 위한 실시간 지원에 상당한 한계를 보였다. 주요 발견 사항: 가장 성능이 좋은 모델(Gemini 2.0)도 정확도가 56.6%에 그쳐, 인간 성능(87.4%)에 비해 약 30%p 낮았다. 상용 모델과 최고 성능의 오픈소스 모델 간 성능 차이가 크지 않았다. 일반적인 자기 중심적 VQA나 시각장애인용 이미지 QA에서 좋은 성능을 보이는 모델이 반드시 EgoBlind에서도 좋은 성능을 보이지는 않았다. 특히 '길 안내', '안전 경고', '도구 사용' 질문에서 모델들의 성능이 현저히 떨어졌다. "이 차가 움직이고 있나요?" - AI가 시각장애인의 가장 중요한 질문에 답하지 못하는 5가지 이유 연구팀은 다양한 질문 유형과 실패 사례를 분석하여 다음과 같은 주요 문제점을 식별했다. 사용자 의도 이해 부족: AI는 시각 콘텐츠에 대해 객관적으로 정확한 답변을 제공할 수 있지만, 동적인 자기 중심적 시각 맥락 내에서 시각장애인의 의도를 추론하는 데 한계를 보였다. 예를 들어, "앞에 길이 있나요?"라는 질문에 장애물이 있음에도 단순히 "네"라고 대답하는 경우가 많았다. 실시간 공간 인식 문제: 모델들은 시각장애인 사용자가 움직일 때 사용자 기준의 공간 방향(예: "내 오른쪽에 있는 제품은 무엇인가요?")을 효과적으로 업데이트하지 못했다. 시간적 맥락 추론 한계: 모델들은 비디오의 시간적 맥락을 추론하고 사용자의 실시간 위치에 상대적인 객체를 파악하는 데 어려움을 겪었다. 장애물 식별 부족: '안전 경고' 질문에서 모델들은 실제 장애물을 정확히 식별하고 경고하는 데 한계를 보였다. 비현실적 답변(Sycophancy): 모델들, 특히 오픈소스 모델들은 시각장애인이 실제로 존재하지 않는 대상에 대해 질문할 때 잘못되거나 잠재적으로 해로운 답변을 제공하는 경향이 있었다. 이 연구는 시각장애인을 위한 AI 지원 기술 개발의 중요한 방향을 제시하고 있다. 연구팀은 향후 개선을 위해 사용자 의도에 대한 더 나은 이해, 연속적인 비디오 프레임의 미묘한 차이에 민감한 모델 개발, 장기 기억 기술 적용, 시각장애인의 실제 필요에 초점을 맞춘 훈련 데이터 합성 등을 제안했다. 87.4%의 인간 성능 VS 56.6%의 AI 성능 - 실질적인 시각장애인 지원 기술의 미래 전망 EgoBlind 연구는 시각장애인의 실제 필요에 부합하는 AI 시각 지원 기술 개발에 중요한 기반을 마련했다. 이 데이터셋은 현재 MLLM 모델들의 한계를 분명히 보여주는 동시에, 향후 연구 방향에 대한 통찰력을 제공한다. 특히, 시각장애인의 1인칭 시점에서의 동적 장면 이해, 실시간 맥락 인식 사용자 의도 추론, 지원 중심의 답변 생성 등 세 가지 핵심 과제를 해결하는 데 초점을 맞추어야 한다는 점이 강조되었다. 이 연구는 단순한 객체 인식이나 설명을 넘어, 시각장애인의 구체적인 필요와 맥락에 맞춘 실질적인 AI 지원 시스템 개발의 중요성을 환기시킨다. EgoBlind 데이터셋과 연구 결과는 앞으로의 AI 시각 지원 기술이 더욱 정확하고 유용한 방향으로 발전하는 데 중요한 역할을 할 것으로 기대된다. FAQ Q: 시각장애인을 위한 AI 시각 지원 기술은 기존 기술과 어떤 점이 다른가요? A: 기존 기술이 일반적인 객체 인식이나 장면 설명에 초점을 맞췄다면, EgoBlind 연구를 통해 개발 중인 AI 시각 지원 기술은 시각장애인의 1인칭 시점에서 실시간으로 필요한 정보(안전 위험, 길 안내, 도구 사용법 등)를 맥락에 맞게 제공하는 데 중점을 둡니다. Q: 현재 AI 모델들이 시각장애인 지원에 있어 가장 어려워하는 부분은 무엇인가요? A: 현재 AI 모델들은 시각장애인의 실제 의도 파악, 사용자 중심의 공간 방향 인식, 시간적 맥락 추론, 안전 관련 장애물 식별에 가장 큰 어려움을 겪고 있습니다. 특히 실시간으로 변화하는 환경에서 사용자 관점의 정보를 제공하는 데 한계가 있습니다. Q: EgoBlind 연구가 일반 사용자에게도 의미가 있을까요? A: 네, EgoBlind 연구는 AI가 인간의 관점에서 세상을 이해하고 맥락에 맞는 지원을 제공하는 능력을 향상시키는 데 기여합니다. 이러한 발전은 자율주행 차량, 증강현실, 로봇 보조 등 다양한 분야에도 적용될 수 있어 장기적으로는 모든 사용자에게 혜택을 줄 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 20:47AI 에디터

포바이포-제머나이소프트, AI 솔루션 플러그인 개발 협업하기로

포바이포(대표 윤준호)가 방송용 디지털 미디어 관리 플랫폼 전문 기업 제머나이소프트와 AI 솔루션 플러그인 공동 개발 및 공급에 대한 업무협약(MOU)을 체결했다고 17일 밝혔다. 제머나이소프트는 방송 환경에 최적화된 미디어 자산 관리 시스템 소프트웨어 'MAM(Media Asset Management)'를 개발, 제공하는 업체다. 현재 MBC, SBS, EBS, 연합뉴스TV 등 국내 방송사들의 시스템을 구축하고 운영 및 관리하고 있다. 제머나이소프트가 개발한 다양한 시스템 소프트웨어를 활용하면 방송사에서 제작해 송출하는 방대한 미디어 데이터, 통칭 '미디어 자산'들을 자동으로 수집하고 변환해 저장하거나 쉽게 검색해 찾을 수 있도록 도와준다. 또 저장된 자산들을 활용해 새로운 미디어를 만들거나 편집할 수도 있고 보도용 자료의 배포 및 송출까지 도와주는 등 방송 전 과정의 효율성을 극대화할 수 있다. 이번 MOU를 계기로 포바이포는 자체 화질 개선 AI 솔루션 픽셀을 제머나이소프트가 제공하는 다양한 서비스에 결합할 수 있는 '플러그인' 형태로 최적화, 경량화 하는 작업을 우선 진행하게 된다. 제머나이소프트는 기존 고객들이 각각의 워크플로우 안에서 용량(비트레이트)을 절감하거나 화질을 개선하는 등 다양한 방법으로 픽셀 플러그인을 자유롭게 활용할 수 있도록 플랫폼 개편 및 운영을 담당할 예정이다. 양사는 해당 플러그인 제품을 오는 4월 초, 미국 라스베이거스에서 개최되는 방송 장비 전시회 'NAB(National Association of Broadcasters) Show'에서 공개하는 것을 목표로 개발에 박차를 가할 계획이다. 제머나이소프트 넥스트비즈본부 이상봉 본부장은 "화질 개선 기능은 자사 미디어 자산 관리 시스템(MAM)과 보도 솔루션에서 활용 가능하고, 비트레이트 절감 기능은 포맷 변경 및 인코딩 작업에 함께 사용할 수 있는 등 픽셀 솔루션의 활용성은 무궁무진하다"며 "제작 및 관리, 송출 등 방송 과정 전체를 아우르는 제머나이소프트의 다양한 솔루션에 픽셀 플러그인을 광범위하게 적용해 사용할 계획"이라고 말했다. 포바이포 픽셀 사업본부 배성완 본부장은 "이번 MOU를 통해 포바이포는 픽셀 AI 솔루션의 적용 산업 저변을 넓힐 수 있고, 제머나이소프트 역시 회사가 제공하는 다양한 기능들의 효율성을 높일 수 있게 됐다"면서 "공동 개발하는 플러그인을 활용해 국내 방송사 뿐만 아니라 글로벌 방송 장비 시장을 직접 공략할 수 있는 계기가 될 것"이라고 밝혔다.

2025.03.17 18:14백봉삼

SBA, 2025년 서울형 R&D 지원사업 통합설명회 성료

서울경제진흥원(대표 김현우, SBA)은 지난 13일 SETEC 컨벤션홀에서 '2025년 서울형 R&D 지원사업 통합설명회'를 성황리에 개최했다고 밝혔다. 이번 통합설명회는 서울형 R&D 지원사업에 관심있는 서울 소재 중소기업을 대상으로 2025년도 서울형 R&D 지원사업과 협력 기관 사업을 소개하고, 전년 대비 달라지는 내용과 세부 사업내용 및 지원절차 등을 안내하기 위해 개최됐다. 서울 소재 중소기업 및 협력기관 담당자들이 참석했다. 통합설명회를 통해 미래성장동력 창출을 위한 서울시 6대 신성장 산업 기술사업화(인공지능, 바이오·의료, 양자, 로봇, 창조, 핀테크), 기업성장, 혁신·약자 기술사업화 및 SBA 각 협력기관의 지원사업 내용을 자세히 소개했다. 2025년 서울형 R&D 지원사업은 서울시 미래성장동력을 창출하기 위해 ▲신성장 산업 분야(인공지능, 바이오·의료, 양자, 로봇, 창조, 핀테크) ▲기업성장 분야(민간투자연계, 보증연계R&D, 서울혁신챌린지) ▲기술실증 분야(테스트베드) ▲약자기술 분야(약자를 위한 기술개발)등에 총 375억원 투입, 11개 사업분야, 155개 내외 신규과제를 지원한다. 특히 AI 3대 강국 달성을 위한 초석을 마련하기 위해 인공지능 R&D 분야 투자규모를 '24년 30억에서 '25년 50억, '26년에는 100억원 규모로 양적인 확대와 데이터 품질 진단 및 개발 결과물의 신뢰성 인증을 지원해 질적 개선도 동시에 제고한다는 계획이다. 또 서울 딥테크 기업의 해외진출 발판 마련을 위한 글로벌 테스트베드 실증사업을 신설함과 동시에 우수과제에 한해 대·중견기업, 기술 인증기관과 연계한 글로벌 사업화를 지원해 서울시 핵심산업의 글로벌 진출을 집중적으로 지원할 계획이다. 신성장산업 R&D 지원사업은 서울 소재 중소기업 중심의 산학연 컨소시엄이 필수다. 서울 소재 중소기업(필수) + 대학/연구소(필수) + 기업(선택) 형태로 구성해야 하며, 그 외 서울형 R&D 지원사업은 지원 분야별로 상이할 수 있으니 자격과 일정 등 공고내용을 반드시 확인해야 한다. 서울형 R&D 지원사업은 참여 중소기업의 기술경쟁력 확보 및 사업화 후속 연계 지원 강화를 위해 7개 지원기관이 참여하여 공동 협력 지원한다. 참여기관은 기술보증기금(KIBO), 신용보증기금(KODIT), 한국건설생활환경시험연구원(KCL), 한국화학융합시험연구원(KTR), 한국정보통신기술협회(TTA), 한국발명진흥회(KIPA), 한국데이터산업진흥원(Kdata)이다. 서울형 R&D 지원사업 참여 예정인 중소기업을 대상으로 각 기관별 지원사업 내용을 설명하고, 중소기업과 1:1 맞춤 상담을 통해 기술보증, 인증심사, 인공지능 신뢰성 검인증, 해외 규격인증 지식재산권 확보 등 각 기관별로 특화된 전문 분야별 상담서비스를 제공했다. 이번 통합설명회에서 소개한 발표자료는 서울R&D지원센터 홈페이지에 게시될 예정이므로 통합설명회에 참석하지 못한 중소기업은 온라인에서 주요내용을 확인할 수 있다. 서울형 R&D 지원사업은 4월 말까지 신청 접수를 받는다. 공고문을 통해 세부내용 확인 및 신청, 접수가 가능하다. 김현우 서울경제진흥원 대표는 “다른 정부 부처가 R&D 예산을 동결하거나 줄이는 상황속에서도 전 세계적 AI 혁신의 중요성을 인지하고 있는 만큼 지원예산을 확대하고 서울시, SBA 및 유관기관이 협력해 성공적인 R&D 성과 창출을 위해 지속 노력하겠다”고 약속했다.

2025.03.17 18:03백봉삼

동서발전, UNIST와 현장 문제 풀고 인재 키운다

한국동서발전(대표 권명호)은 울산과학기술원(UNIST) 산업공학과와 함께 빅데이터와 인공지능(AI)을 활용해 현업 문제를 해결하고 새로운 가치를 창출하는 협력 프로젝트를 본격 추진한다고 17일 밝혔다. 협력 프로젝트는 동서발전이 매년 추진하는 사내 혁신활동인 '전사 빅데이터 분석과제'의 일환으로, 데이터 기반의 솔루션(모델·지수·시각화 등)을 개발해 실질적 문제 해결과 가치 창출을 목표로 한다. 특히 대학생에게 실무 경험을 제공하는 '프로젝트 랩(Project Lab)'과 연계해 진행한다. '프로젝트 랩'은 학생이 사회에 진출하기 전에 기업에서 발생하는 실전 문제를 경험하고 해결할 수 있도록 지원하는 교육 프로그램으로, 학생은 현장을 경험하고 기업은 대학생의 창의적인 아이디어를 활용할 수 있다. 프로젝트에는 동서발전에서 제공하는 5가지 주요 과제를 바탕으로 UNIST 학생 35명이 12~15개의 팀을 구성해 한 학기 동안 연구와 분석을 진행한다. 이를 통해 동서발전은 AI·데이터 기반 혁신적 해결책을 도출하고, UNIST 학생은 실무형 프로젝트를 통해 기업과 협력하며 실무 역량을 키우게 된다. 김성일 UNIST 산업공학과 교수는 “학생들이 현업에서 접할 수 있는 실질적인 문제를 분석하고 해결하는 과정에서 더욱 심도 있는 학습을 할 수 있을 것”이라며 “데이터 기반의 문제 해결 능력을 갖춘 인재 양성을 위해 적극 지원하겠다”고 말했다. 권명호 동서발전 사장은 “산학 협력을 통해 빅데이터와 AI를 활용한 문제 해결 능력을 배양하고, 기업과 학생 모두가 성장할 수 있는 기회를 지속해서 마련하겠다”며 “앞으로도 데이터 기반 혁신 활동을 강화해 미래 에너지 산업을 선도하겠다”고 밝혔다.

2025.03.17 17:59주문정

제약바이오협, 식품의약품안전평가원과 2기 의약품 심사소통단 출범

한국제약바이오협회는 식품의약품안전처 소속 식품의약품안전평가원, 한국글로벌의약산업협회와 함께 의약품 심사 분야 민·관 소통 채널인 의약품 심사소통단(CHORUS) 제2기(25.3∼27.2)를 시작한다고 17일 밝혔다. 의약품 심사소통단은 식약처 소속 의약품 심사자와 국내·외 제약업계가 함께 참여하는 소통채널로 지난 2023년 3월 출범했으며, 심사분야 규제개선 사항을 발굴하고 해결방안을 함께 마련하고 있다. 이번에 출범하는 제2기는 안전성·유효성, 품질, 동등성 3개 분야에서 AI기반 원료품질심사 등 11개 분과로 구성·운영하며, 1기보다 60여명 늘어난 240여명이 참여할 계획이다. 구체적으로 식약처 분과장 및 업계 분과장(임상시험심사분과 동아에스티, 허가심사지원분과 유한양행, 전주기관리심사분과 대원제약, 첨단품질심사분과 GSK, 동등성심사분과 동구바이오제약) 각 1인 등 전체 분과원 240명(업계 약 93개 업체 210명)이다. 올해 주요 추진과제는 ▲인공지능을 활용한 원료 불순물 평가시스템 구축 ▲임상 및 동등성 시험 심사방안 국제조화 ▲개발이 증가하고 있는 합성 올리고뉴클레오티드 품질 분야 가이드라인 마련 등이다. 한국제약바이오협회는 “코러스와 함께 앞으로도 현장과 지속적으로 소통하며 불합리한 기준을 개선하는 한편, AI 등 기술발전 수준을 반영한 가이드라인 등을 개발해 제약업계가 경쟁력을 높일 수 있도록 지원해 나가겠다”고 밝혔다. 한편 앞서 의약품심사소통단 1기 참여업체를 대상으로 설문 조사한 결과에 따르면, 소통단 활동이 규제개선에 도움이 됐으며 앞으로도 계속 참여하겠다는 응답이 93%, 96%로 나타난 바 있다.

2025.03.17 17:42조민규

수입식품 해외공장 등록서류 검토에 AI 기술 적용…민원 처리 3일에서 1일로 단축

식품의약품안전처는 AI(인공지능) 등 디지털 기술을 적용한 '수입식품 해외제조업소 등록 서류 자동검토 시스템'을 3월17일부터 운영한다고 밝혔다. 2016년부터 국내로 수입식품등(축산물 제외)을 수입하려는 자 또는 해외제조업소 설치·운영자가 수입신고 전에 해외제조업소의 명칭, 소재지, 생산지, 생산품목 등 등록해야 한다. 등록 기관은 2024년 기준 약 5만1천 개소에 달한다. 새로운 시스템은 기존 민원 담당자가 직접 검토하던 민원서류를 AI 머신러닝 기반 광학 문자 인식(AI-OCR), 업무처리 자동화(RPA) 기술 등을 활용해 등록 신청인 정보, 해외제조업소 소재지 등 기초정보를 검토하고, 수출국 정부 증명서 등 다국어 서류를 자동번역·비교한다. 이를 통해 신청 정보 일치 여부, 중복업소 여부 등을 확인한다. 또 해외제조업소의 주소를 위‧경도 체계로 변환해 지도 앱(구글맵)으로 정확한 위치 정보를 검증한다. 이 경우 식품관련 사고나 질병·재난 등 위험지역 내에 위치한 업소를 신속하게 파악해 수입식품 검사 등에 반영할 수 있다. 특히 연간 약 4만 건에 달하는 민원의 처리기간을 3일에서 1일로 단축할 수 있을 것으로 기대하고 있다. 식약처는 해외제조업소 등록 정보 오류를 최소화하고 민원처리시간을 줄여 정확하고 효율적인 수입식품 안전관리가 가능해질 것으로 기대하며, 다양한 디지털 기술을 활용해 수입식품 안전관리 혁신을 지속 추진하고, 국민이 수입식품을 안심하고 소비하는 환경을 조성하는데 최선을 다할 계획이라고 밝혔다.

2025.03.17 17:38조민규

KTL, AI 데이터 품질 국제표준(ISO/IEC 5259-5) 출판

한국산업기술시험원(KTL)은 이화여자대학교 김경민 교수(경영학·빅데이터분석학)와 공동으로 인공지능(AI) 데이터 품질 국제표준을 개발하고 지난 2월 국제표준화기구(ISO)에 공식 출판했다고 17일 밝혔다. 출판된 국제표준은 AI와 데이터 분석에 활용되는 데이터 품질을 체계적으로 관리하는 국제 지침인 'ISO/IEC 5259-5:2025'다. 표준명은 '인공지능-데이터 분석 및 기계학습(ML)을 위한 데이터품질-제 5부 : 데이터 품질 거버넌스 프레임워크'다. 최근 산업 디지털 전환(IDX)이 가속함에 따라 AI를 활용한 데이터 기반 의사결정이 증가하고 있지만 데이터 품질에 대한 명확한 기준과 체계적인 관리가 이뤄지지 않으면 데이터 오류가 누적될 위험이 크다. 데이터 오류는 의사결정의 정확성과 효율성에 악영향을 미쳐 신뢰도 하락, 매출 손실 등으로 이어질 수 있다. 산업통상자원부는 이러한 문제를 해결하기 위해 2022년 KTL을 '산업 디지털 전환 적합성 인증 및 실증기반 구축사업' 주관기관으로 선정하고 관련 표준 마련에 나섰다. KTL은 산업부 국가기술표준원이 발표한 AI 표준화 로드맵에 따라 연구결과를 토대로 'ISO/IEC 5259-5' 표준 제정을 완료했다. 해당 표준은 AI·데이터 분석의 신뢰성을 확보하기 위한 필수 기준이다. 데이터 수집부터 폐기까지 전 과정에서 적용 가능한 품질을 유지하고 적절한 통제 및 운영 원칙을 제공한다. 특히, 유럽연합(EU)의 AI법(AI Act)를 준수하려는 기업은 반드시 이행해야 할 핵심 사항으로 자리 잡을 전망이다. KTL 권종원 산업인공지능혁신센터장과 김경민 이화여대 교수는 다양한 산업 분야의 요구사항을 파악해 반영하고, 국제표준화기구와 협력해 글로벌 수준의 데이터 품질 관리 체계를 구축했다. 또 해당 표준이 데이터가 정보기술(IT) 부서뿐만 아니라 다양한 현업 부서에서도 효과적으로 공유 및 활용될 수 있도록 이사회와 경영진의 역할을 강조하는 데이터 관리(거버넌스) 체계 정립에 중점을 뒀다. 송태승 KTL 디지털산업본부장은 “이번 'ISO/IEC 5259-5' 표준 출판은 데이터 기반 산업 환경에서 신뢰성 있는 의사결정을 지원하기 위해 꼭 필요한 값진 성과”라며 “앞으로 관련 표준 활동을 더욱 강화하고 국내 기업이 글로벌 시장에서 경쟁력을 갖출 수 있도록 적극 앞장 서겠다”고 밝혔다.

2025.03.17 17:28주문정

클라우다이크, 37억원 투자 유치…미디어 특화 AI SaaS 개발 가속

클라우다이크가 투자 유치에 성공하며 민간·공공 클라우드 스토리지 사업 확산과 인공지능(AI) 기반 신규 미디어 솔루션 개발에 나선다. 클라우다이크는 네이버클라우드, NVC, 중소기업진흥공단의 투자 및 스케일업팁스 연구개발(R&D) 자금으로 총 37억원을 유치했다고 17일 밝혔다. 클라우다이크는 이번 투자금을 사업 확장과 미디어 특화 AI 서비스형 소프트웨어(SaaS) 개발을 위한 R&D에 집중 활용할 방침이다. 회사는 이번 투자로 클라우드 스토리지 및 AI SaaS 시장에서의 입지를 더욱 강화한다는 목표다. 특히 유치 자금을 활용해 클라우드 스토리지 기술을 고도화하고 확장성을 개선하며 AI 기반 미디어 솔루션을 새롭게 개발할 계획이다. 클라우다이크는 기업용 클라우드 스토리지 사업을 영위하며 네이버웍스 및 기타 비즈니스 플랫폼과 통합되는 솔루션을 제공하고 있다. 공공부문 사업을 위한 클라우드 보안인증(CSAP)도 획득, 디지털이용지원시스템에 클라우드 파일공유 서비스로 등록돼 공공기관은 복잡한 조달절차 없이 수의 구매가 가능하다. 현재 넥슨코리아, CJ, HK이노엔, 테라펀딩 등이 사내에 기업용 클라우다이크를 구축해 이용하고 있다. 또 영상·제조·건설 관련 700여 개 중소기업들도 구독형으로 기업용 클라우다이크를 유료 사용 중이다. 해외 고객으로는 인도네시아 텔콤시그마에서 클라우드SME라는 브랜드로 기업 고객에 서비스되고 있다. 이선웅 클라우다이크 대표는 "스타트업 투자 환경이 어려워져서 투자 라운드 마감에 매우 오랜 시간이 걸렸다"며 "기술력을 더욱 강화해 미디어 산업의 요구를 충족하는 차세대 AI SaaS 제품을 시장에 선보일 계획"이라고 말했다.

2025.03.17 16:59한정호

나무기술, AI 서버팜 구축 사업 수주…성능·안정성 극대화

나무기술이 글로벌 전자 부품 기업 S전기의 인공지능(AI) 서버팜 구축 프로젝트를 수주했다고 17일 밝혔다. 이번 사업은 기계학습 운영(MLOps)에 적합한 GPU 서버팜을 구축하고, 연산 환경을 고도화하는 데 중점을 둔다. 이번 프로젝트는 연산 성능뿐만 아니라 관리 편의성 향상에도 초점을 맞췄다. 프라이빗 클라우드 환경을 기반으로 리소스를 효과적으로 배치하고, AI 및 데이터 분석 워크로드를 유연하게 운영할 수 있도록 구성했다. 웹 기반 UI를 통해 실시간 모니터링이 가능하며, 시스템 오류를 줄여 안정성을 확보한다. 핵심 솔루션으로 나무기술의 클라우드 네이티브 플랫폼 '칵테일 클라우드(Cocktail Cloud)'가 적용된다. 멀티 쿠버네티스 클러스터를 단일 제어 화면에서 통합 관리할 수 있도록 지원하며 GPU, 노드, 네임스페이스, 워크로드 등 다양한 PaaS 구성 요소를 통합 운영할 수 있는 환경을 제공한다. 이를 통해 S사는 복잡한 클라우드 인프라를 보다 체계적으로 운영하고, GPU 사용성을 극대화할 전망이다. 최근 기업들의 AI 및 클라우드 인프라 투자가 확대되면서, 안정적인 운영과 환경에 맞는 운영 시스템 구축 기술이 더욱 중요해지고 있다. 나무기술은 다수의 프로젝트 수행 경험을 바탕으로, 기업들의 AI 및 클라우드 환경 전환을 적극 지원하며 국내외 시장에서 경쟁력을 한층 강화할 계획이다. 나무기술은 클라우드 솔루션 제공 및 관리 역량을 바탕으로 GPU 서버팜 운영 환경을 설계하고, 쿠버네티스를 적용한 최적화된 관리 체계를 구현한다. 엔비디아(NVIDIA)의 멀티인스턴스GPU(MIG) 기술을 활용해 단일 GPU 자원을 여러 워크로드에서 동시에 사용할 수 있도록 배분해 데이터 분석 성능을 높이는 동시에 GPU 자원을 효율적으로 운용할 수 있도록 한다. 나무기술 관계자는 "칵테일 클라우드는 AI 인프라의 안정적인 운영과 GPU자원의 활용을 지원하는 핵심 클라우드 관리 솔루션"이라며 "이번 프로젝트를 통해 기업들이 클라우드 네이티브 환경에서 AI 및 데이터 분석 워크로드를 효과적으로 운영할 수 있도록 지원할 것"이라고 밝혔다.

2025.03.17 16:55남혁우

[AI는 지금] 검색 시장에 부는 AI 바람…글로벌 포털, 생존 전략 재편한다

인공지능(AI) 검색이 기존 검색 시장을 변화시키고 있다. 기존 키워드 검색이 여러 링크를 클릭해야 하는 번거로움을 수반했던 점과 달리 직접 답변을 제공하는 방식으로 진화하고 있기 때문이다. 이러한 변화 속에서 국내외 검색 엔진 업계는 새로운 환경에 적응하기 위한 생존 전략을 모색해야 하는 상황에 놓였다. 17일 업계에 따르면 해외에서는 이미 AI 검색 서비스가 빠르게 확산하며 검색 시장의 주류로 자리 잡고 있다. 대표적인 서비스로는 퍼플렉시티, 오픈AI '챗GPT 서치', 구글 'AI 오버뷰' 등이 있다. 이들 서비스는 기존 검색 방식보다 빠르고 직관적인 정보를 제공하며 사용자의 검색 경험을 근본적으로 변화시키고 있다. 퍼플렉시티는 AI가 질문에 대한 직접적인 답변을 제공하며 검색 결과의 출처를 명확히 표시해 신뢰도를 높이는 것이 특징이다. 오픈AI '챗GPT 서치'는 기존 '챗GPT'에 탑재 돼 기존 검색 엔진과 차별화를 꾀했다. 구글 'AI 오버뷰'는 생성형 AI를 활용해 검색 결과 상단에 요약된 정보를 제공하며 링크 탐색을 통해 추가 정보를 찾을 수 있도록 구성됐다. 이들 AI 검색의 가장 큰 특징은 기존 키워드 검색과 전혀 다른 방식으로 정보를 제공한다는 점이다. 기존 검색 엔진은 사용자의 입력 키워드를 기반으로 연관 웹사이트 링크를 나열해 사용자가 추가적으로 정보를 찾아야 하는 식이었다. 반대로 AI 검색은 문맥을 이해하고 맞춤형 답변을 직접 생성해 제공한다. 이는 사용자가 원하는 정보를 보다 빠르게 찾을 수 있도록 지원하지만 검색 광고 클릭률 감소를 유도할 가능성이 있다. 이러한 특성은 이미 기존 검색 엔진의 시장 점유율에도 영향을 미치고 있다. 구글의 글로벌 검색 시장 점유율은 지난해 말 91.58%에서 90%로 소폭 하락했다. 이는 지난 2015년 이후 최초로 발생한 이례적 현상으로, 올해 미국 내 검색 광고 점유율도 50.5%에서 48.3%로 감소할 것으로 전망된다. 검색 시장의 구조적 변화도 불가피하다. 기존 검색 엔진들은 광고 기반 수익 모델에 의존하고 있는 만큼 AI 검색이 대중화될 경우 핵심 비즈니스 모델이 흔들릴 가능성이 크다. AI가 직접적인 답변을 제공하는 방식이 확산되면 검색 광고 노출 기회가 줄어들어 수익 감소로 이어질 수 있기 때문이다. 업계 전문가들도 우려를 제기하고 있다. 로샤트 아드나니 엠앤씨사치퍼포먼스 아태지역 매니징 디렉터는 "제품 차원에서 직면한 도전 과제로 인해 구글은 시장 점유율 축소에 더 큰 영향을 받을 수 있다"며 "'챗GPT'가 이미 소비자 검색 행동을 변화시킨 와중에 검색 전문 AI 기술이 검색 패턴을 재편할 가능성이 크다"고 말했다. 국내에서도 AI 검색의 확산으로 검색 시장의 구조적 변화가 가속화되고 있다. 이러한 흐름 속에서 카카오는 지난 13일 다음을 독립 법인으로 분사하기로 결정했다. 카카오 관계자는 "재도약을 위해 분사를 준비하고 있다"며 "법인 독립을 통해 다양한 실험이 가능한 환경을 조성하고 독자적인 의사결정 구조를 갖춰 경쟁력을 강화할 것"이라고 밝혔다. 다만 이는 AI 검색 기술이 기존 검색 엔진을 대체하는 움직임이 본격화되는 가운데 다음의 검색 시장 점유율이 2.72%까지 하락하면서 불가피한 선택이 된 것으로 보인다. 실제로 카카오는 다음을 분사하는 동시에 지난해에 AI 서비스 '카나나'를 발표하고 지난 2월 오픈AI와 파트너십을 체결하는 등 AI 중심 기업으로의 전환을 가속화하고 있다. 이외에도 AI 검색 기술을 활용한 서비스가 국내에서 속속 등장하고 있다. 네이버는 AI 검색 서비스 '큐(Cue:)'를 통해 생성형 AI 기술을 접목한 새로운 검색 방식을 도입했다. 네이버 '하이퍼클로바X' 모델을 기반으로 개발된 '큐'는 복잡한 질의를 분석하고 검색 증강 생성(RAG) 기술을 활용해 보다 정교한 답변을 제공한다. 특히 대화형 검색을 지원해 사용자의 이전 질문을 기억하고 맥락을 반영한 지속적인 검색이 가능하다. '큐'는 지난 2023년 9월 시범 출시돼 현재 PC 버전으로 제공 중이며 올해부터는 네이버 통합검색과 본격적으로 연계될 예정이다. 또 쇼핑·예약 등 맞춤형 서비스와의 연계를 통해 활용 범위가 확대될 것으로 예상된다. 이같은 상황에서 오픈리서치의 '오오에이아이(oo.ai)' 역시 주목받고 있다. 이 회사는 김일두 대표 등 카카오브레인 출신 AI 전문가들이 설립한 기업으로, 지난해 7월 창업과 동시에 100억원 규모의 시드 투자를 유치하며 기대를 모았다. 오픈리서치는 이 솔루션을 통해 AI 기술을 활용해 검색어를 분석하고 맥락을 이해하여 신속하고 정확한 검색 결과를 제공하는 것을 목표로 한다. 오픈리서치에 따르면 '오오에이'는 기존 AI 검색 서비스보다 10배 이상 많은 참고 자료를 활용하며 검색 시간이 3초 이내로 단축했다. 이는 기존 검색 엔진이 7~8개의 문서를 참고하는 것과 비교해 압도적인 차이를 보인다. 특히 퍼플렉시티 '프로'와의 비교에서도 검색 속도와 데이터 활용량 측면에서 우위를 점했다. '프로'가 유료 서비스로 운영되는 것과 달리 무료로 제공된다는 점도 차별화 요소다. 이러한 접근 방식은 AI 검색의 대중화를 촉진할 가능성이 크다. 커머스 분야에서도 강점을 보인다. 단순한 가격 비교를 넘어 소비자 맞춤형 정보를 제공할 수 있도록 설계됐다. 일례로 '당뇨병 환자에게 적합한 사과'를 검색하면 사과 품종별 당도와 식이섬유 함량을 분석해 최적의 제품을 추천하는 방식이다. 이러한 기능은 소비자들에게 더욱 정확하고 유용한 검색 경험을 제공할 것으로 예측된다. 김일두 오픈리서치 대표는 "'오오에이아이'는 신속한 속도, 높은 정확성, 직관적인 인터페이스로 차별화된 검색 경험을 제공하는 차세대 '검색 코파일럿'"이라며 "기존 검색에서는 찾기 어려웠던 정보들까지 답변해 사람들이 가장 편하게 많이 사용하는 AI 검색 서비스로 거듭나겠다"고 강조했다.

2025.03.17 16:52조이환

이재명 대표, 22일 유발 하라리 교수와 AI 대담 나눈다

이재명 더불어민주당 대표가 저서 '사피엔스'로 국내에 잘 알려진 유발 하라리 교수와 인공지능(AI)을 주제로 대담을 나눈다. 17일 민주당에 따르면, 이 대표는 오는 22일 오후 6시부터 90분간 국회 사랑재에서 유발 하라리와 AI 발전과 이에 따른 사회 변화, 국가 대응 등을 놓고 대담을 갖는다. 앞서 한국형 엔비디아, AI 국민펀드 등 AI 정책 아젠다를 제시한 이 대표가 하라리 교수와 대담을 통해 미래성장 담론을 이끌고 있다는 차기 지도자 면보를 부각하려는 것으로 풀이된다. 대담 진행은 강선우 의원이 맡는다. 이공계 학생 등 관련 산업 전문가 30여 명도 참석할 예정이다. 대담은 유튜브를 통해 생중계가 이뤄진다. 이 대표는 지난 2022년 대선 후보 당시에도 하라리 교수와 포스트코로나 시대를 주제로 영상 대담을 나눴다.

2025.03.17 16:24박수형

비즈플레이 덕에 국가공무원 출장 관리 간편해졌다…"연간 약 85억 예산 절감 효과"

비즈플레이가 국가공무원들을 대상으로 새로운 시스템을 개발해 공공부문 출장 관리 플랫폼 구축 역량을 입증했다. 비즈플레이는 국가공무원 출장관리 자동화 시스템 개발을 완료했다고 17일 밝혔다. 비즈플레이가 구축한 이번 출장관리 자동화 시스템은 95개 중앙행정부 및 지방자치단체 소속 75만 공무원의 출장 업무를 디지털화해 복잡한 행정 절차를 획기적으로 개선하는 것이 목표다. 기존에는 출장 신청부터 예약 및 정산까지 모든 과정이 수기로 진행돼 행정 업무 부담이 컸으나, 이번 시스템 도입으로 전용 앱(App)을 통해 빠르고 간편하게 출장 업무를 처리할 수 있게 됐다. 비즈플레이는 이번 시스템에 인공지능(AI) 기술을 적용해 출장 업무 프로세스를 기존 7단계에서 3단계로 단순화하며 업무 효율성을 극대화했다. 출장자는 예약부터 정산까지 원스톱(One-Stop)으로 처리할 수 있으며 이를 통해 연간 약 85억원의 비용 절감 효과가 기대된다. 또 종이문서 사용량도 연간 525만 장 절감해 친환경 경영에 기여하는 한편, 추가로 약 1억원의 비용 절감 효과도 예상된다. 비즈플레이는 지난해부터 AI 복무 관리 서비스 개발에 민간 연계 사업자로 참여하며 국가공무원의 출장 예약 및 정산 관리 플랫폼 개발을 담당했다. 이번 프로젝트는 비즈플레이가 기업 시장에서 검증받은 'bzp 출장관리' 솔루션 기술력을 공공부문까지 확장한 사례로 평가받는다. 김홍기 비즈플레이 대표는 "이번에 자사가 개발한 출장관리 솔루션을 통해 국가공무원의 비용 절감과 친환경 부분에서 기여를 할 수 있게 돼 보람을 느낀다"며 "그동안 여러 기업들의 출장관리 솔루션을 개발하면서 축적된 노하우를 통해 향후 공무원뿐 아니라 공공기관의 출장관리 효율화에도 주도적인 역할을 해나가겠다"고 밝혔다.

2025.03.17 16:20한정호

마우저, 산업·엣지 AI용 디지 커넥트코어 'MP255' 개발 키트 공급

마우저일렉트로닉스는 디지(Digi)의 새로운 커넥트코어 'MP255' 개발 키트를 공급한다고 17일 밝혔다. 커넥트코어 MP255 키트는 배터리로 구동되는 산업용 AI 애플리케이션의 전력 효율성을 극대화할 수 있도록 설계된 다기능의 안전하고 비용 효율적인 무선 시스템온모듈(system-on-module SOM)을 기반으로 한다. 마우저에서 구매할 수 있는 디지의 커넥트코어 MP255 개발 키트는 산업 환경에 최적화된 성능을 제공하는 ST마이크로일렉트로닉스의 'STM32MP255C' 64비트 마이크로프로세서를 특징으로 한다. 이와 함께 엣지 AI와 컴퓨터 비전 애플리케이션 및 TSN(Time-Sensitive Networking)을 위한 신경망처리장치(NPU)와 이미지 신호 프로세서(ISP)를 탑재하고 있다. 이 개발 키트는 30x30mm 크기의 콤팩트한 SMTplus 폼 팩터로 제공되므로 소형의 휴대용 기기와 인더스트리 4.0 애플리케이션에 이상적이다. 또한 커넥트코어 MP255 키트는 통합 3D GPU와 비디오 인코더 및 디코더(VPU), 고해상도 MIPI, LVDS 또는 병렬 디스플레이 인터페이스, ISP 기반 MIPI 카메라 포트 등과 같은 STM32MP255C의 첨단 그래픽 기능을 활용할 수 있게 해주며, CPU, GPU 또는 NPU 상에서 AI 애플리케이션을 실행할 수 있는 유연성을 제공한다. 커넥트코어 MP255 개발 키트는 ST의 방대한 엣지 AI(Edge AI) 에코시스템에서 제공하는 멀티미디어 기능을 활용하고, PCIe Gen2, USB 3.0, CAN-FD 및 TSN 지원 기가비트 이더넷 같은 유선 연결 기능은 물론 사전 인증된 와이파이 6(3중 대역 6E 지원), 802.11ax 및 블루투스 5.4 등 완벽하게 통합된 무선 연결 기능을 제공함으로써, 머신 비전과 같은 첨단 엣지 컴퓨팅 애플리케이션을 지원한다.

2025.03.17 16:16장경윤

[르포] 클린룸 경쟁력·생산성 2.1배↑...신성이엔지 용인 스마트팩토리 가보니

경기도 용인시 처인구 남사읍에 위치한 신성이엔지 용인사업장은 국내 소부장 업계의 대표적인 스마트팩토리다. 이곳은 AI·빅데이터·로봇 등을 활용해 제조라인 증설 없이 생산능력을 2배 이상 끌어올리는 등 소기의 성과를 거뒀다. 신성이엔지는 향후에도 용인사업장의 자동화를 적극 추진할 계획이다. 특히 사업장 인근에 국내 최대 규모의 반도체 클러스터가 들어서는 만큼, 주요 고객사 투자에 발빠르게 대응할 수 있도록 제조 환경의 유연성을 강화한다는 방침이다. 조현성 신성이엔지 용인사업장 공장장(이사)은 지난 10일 기자와 만나 용인사업장의 향후 운영 전략에 대해 이같이 밝혔다. 클린룸 경쟁력 위한 '그린 스마트공장' 고도화...전력 수요 48% 태양광 발전 신성이엔지는 반도체·디스플레이 제조 공정의 오염도 및 온도 등을 제어하는 클린룸, 이차전지의 습도를 제어하는 드라이룸, 태양광 모듈 등을 주로 생산한다. 이 중 용인사업장은 클린룸용 핵심 부품 제조를 담당하고 있다. 공기를 정화하는 FFU(팬필터유닛)와 장비에 부착하는 EFU(장비 팬필터유닛), 클린룸용 조명인 엣지 라이트닝 등이 대표적인 제품이다. 지난 2016년 설립 당시부터 '스마트 팩토리'에 중점을 두고 설계됐다. 제품 설계부터 제조·물류·시공에 이르는 공장 운영 전반에 빅데이터와 AI를 접목해, 생산성 및 안정성을 높였다. 예를 들어, 용인사업장에 구축된 '3D 자동 설계 시스템'은 협력사의 도면을 2D와 3D로 자동 변환해 제품의 양산 주기를 단축시킨다. 또한 '지능형 마이크로 그리드 시스템'은 재생에너지를 활용한 공장 운영을 지원한다. AI 기술로 변동 요금제에 최적화된 태양광 발전을 자동 제어하는 방식이다. 현재 용인사업장은 이를 기반으로 조업 시간(8시간) 내 전력수요의 48%를 태양광 발전으로 이용하고 있다. 라인 증설 없이도 생산성 300대서 650대로 2.1배 향상 자동생산라인 운영 전략도 눈에 띈다. FFU 공정의 경우 자동화 비중을 80% 이상으로 구현했다. 실제로 용인사업장 내부에서는 다양한 형태의 로봇들이 각각 FFU 조립, 검사, 포장, 운송 등을 수행하고 있었다. 조 공장장은 "스마트 팩토리를 적극적으로 구축한 결과, 공장을 확장하지 않고도 생산능력이 8시간당 300대에서 650대로 2배 넘게 증가했다"며 "공정 불량률도 초기 대비 97% 수준으로 감축했다"고 설명했다. 신성이엔지는 향후에도 스마트팩토리 기술을 강화해나갈 계획이다. 특히 반도체 산업의 업황 주기가 불안정해진 만큼, 시장 수요에 유연하게 대응할 수 있는 제조 환경을 구축하는 것이 가장 큰 목표다. 조 공장장은 "현재 신성이엔지의 스마트팩토리 솔루션은 레벨 4에 근접한 상태로, 동종 업계가 레벨 2·3 수준인 것에 비해 굉장히 앞서나가고 있다"며 "클린룸 부품이 다품종 소량 생산 체계이기 때문에, 유연한 생산라인을 통해 시황에 적기 대응할 수 있도록 할 것"이라고 말했다. 용인 반도체 클러스터 착공…내년 하반기 수혜 기대 사업적으로는 용인 반도체 클러스터에 거는 기대감이 크다. 용인 반도체 클러스터는 국내 최대 반도체 산업단지로, 부지 규모만 약 126만 평에 달한다. SK하이닉스가 122조원을 투자해 2027년 첫 팹을 가동하며, 삼성전자는 360조원을 투자해 2030년 첫 파운드리 팹을 가동할 예정이다. 조 공장장은 "SK하이닉스가 지난달 착공에 들어갔기 때문에, 신성이엔지도 내년 하반기 정도면 용인 반도체 클러스터 구축에 따른 대응을 할 수 있을 것"이라며 "같은 용인시 내에 있다는 지리적 이점을 활용해, 입주 기업들과 시공에 대한 논의 등을 적극적으로 진행하려고 하고 있다"고 강조했다. 해외 시장 확대와 신규 진출도 미래 기대 요소다. 현재 신성이엔지는 아시아와 유럽, 북미 곳곳에 법인 및 지점을 두고 있다. 조 공장장은 "국내 고객사의 해외 사업 지원 외에도, 해외 반도체 기업을 신규 고객사로 확보하기 위한 논의도 진행 중"이라며 "당장은 투자가 없지만, 중동 등 반도체 공급망 구축을 추진 중인 지역에도 대응하도록 할 것"이라고 설명했다.

2025.03.17 16:15장경윤

양자컴퓨터, 초고전적 계산으로 양자 시뮬레이션 한계 돌파… D-웨이브 연구 결과

양자 프로세서, 고전적 방식으로 풀 수 없는 문제 해결 능력 입증 양자 컴퓨터는 수십 년간 특정 작업에서 고전적 알고리즘보다 월등한 속도 향상을 약속해왔다. D-웨이브(D-wave) 연구진은 초전도 양자 어닐링(Quantum Annealing) 프로세서를 사용해 슈뢰딩거 방정식의 해를 빠르게 찾아내는 데 성공했다. 이 연구는 양자 컴퓨팅이 특정 문제에서 '초고전적 계산'(beyond-classical computation) 능력을 보여주는 중요한 사례로, 고전적 컴퓨터로는 현실적인 시간 내에 도달하기 어려운 정확도를 달성했다. 연구진은 이차원, 삼차원 및 무한 차원 스핀 글래스(spin glasses)에서 얽힘(entanglement)의 면적법칙 스케일링을 증명하며, 행렬곱상태(matrix-product-state) 접근법에서 관찰된 확장-지수적 스케일링을 뒷받침했다. 특히 주목할 점은 텐서 네트워크와 신경망 기반의 고전적 방법들이 양자 어닐러와 동일한 정확도를 합리적인 시간 내에 달성할 수 없다는 것이다. 이는 양자 어닐러가 고전적 계산으로는 해결하기 어려운 실질적 중요성을 가진 문제들에 답할 수 있음을 보여준다. 양자 임계 동역학 시뮬레이션: 5000큐비트로 검증된 횡단-장 이징 모델 양자 컴퓨팅의 이론은 특정 작업에서 고전적 알고리즘보다 큰 속도 향상을 약속해왔지만, 실질적인 관심을 가진 문제에서 이러한 능력을 확고히 입증하는 것은 여전히 중요한 과제로 남아있다. 이번 연구는 연속-시간 양자 동역학의 일반적이고 실용적인 문제인 횡단-장 이징 모델(transverse-field Ising model, TFIM)을 시뮬레이션하는 데 중점을 두었다. 초전도 양자 어닐링(QA) 프로세서는 이미 이징형 시스템에서 양자 상전이 시뮬레이션과 큐비트 스핀 글래스에서의 양자 임계 동역학에 활용되어 왔다. 이번 연구에서는 5000개 이상의 큐비트에서 측정된 임계 지수가 예상되는 보편성 클래스의 추정치와 밀접하게 일치하는 것을 확인했다. 이는 슈뢰딩거 진화를 증명하는 설득력 있는 증거지만, 이 매개변수 범위에서도 고전적 방법으로 시뮬레이션할 수 없다는 점을 확립하는 것이 중요하다. 고전 vs 양자: MPS 시뮬레이션과 QPU의 격자 크기별 성능 비교 연구팀은 먼저 작은 문제에서 양자 처리 장치(QPU)의 오차를 평가하기 위해 행렬곱상태(MPS) 시뮬레이션으로 계산된 기준 진실과 비교했다. 서로 다른 설계의 두 가지 양자 프로세서를 사용하여 정사각형, 입방체, 다이아몬드, 이중 클릭(biclique) 등 다양한 차원의 프로그래밍 가능한 토폴로지에서 스핀 글래스를 시뮬레이션했다. 연구 결과, MPS는 이차원 격자 시뮬레이션 문제에 효과적이지만, PEPS(Projected Entangled Pair States)와 NQS(Neural Quantum State) 방법은 느린 퀜치(slow quenches)에서 어려움을 겪는 것으로 나타났다. 특히 이차원 시스템에서 QPU 결과는 L(격자 크기)에 따라 평평한 스케일링을 보였지만, 이를 MPS로 매칭하려면 지수적으로 증가하는 본드 차원이 필요했다. 이는 면적법칙 스케일링과 일치하는 결과다. 양자 우위의 증거: 양자 시뮬레이션에 필요한 고전 컴퓨터는 수백 페타바이트 메모리 필요 고차원 시스템에서는 QPU 오차가 거의 일정하게 유지되는 반면, 이를 MPS로 매칭하려면 훨씬 더 많은 본드 차원이 필요했다. 연구진은 다양한 토폴로지, 크기, 퀜치 속도에서 선형 관계를 관찰했는데, 이는 MPS 표현 복잡성과 얽힘 사이의 긴밀한 연결을 보여준다. 연구진은 고전적으로 시뮬레이션 가능한 시스템에서 얻은 데이터를 바탕으로 더 큰 크기로 외삽했을 때, MPS가 QPU 시뮬레이션 품질을 매칭하기 위해 필요한 계산 리소스를 추정했다. 가장 큰 문제에서는 앞으로 수십 년간 최첨단 슈퍼컴퓨터에서도 QPU 품질에 맞추기 위해 수백 페타바이트의 메모리와 연간 전 세계 전력 소비량을 초과하는 전력이 필요할 것으로 예상된다. 이 스케일링 분석은 모든 고려된 퀜치 시간에서 QPU 품질을 매칭할 수 있는 유일한 방법인 MPS에 적용되며, 모든 고전적 방법에 대한 본질적인 하한은 아니다. 그러나 이 연구는 양자 프로세서가 기존 고전적 방법으로는 해결하기 어려운 복잡한 양자 역학 문제를 정확하게 시뮬레이션할 수 있는 능력을 갖추고 있음을 입증한다. FAQ Q: 양자 어닐링(Quantum Annealing)이란 무엇이며 왜 중요한가요? A: 양자 어닐링은 양자역학적 터널링 효과를 이용해 복잡한 최적화 문제의 해를 찾는 방법입니다. 이 논문에서는 양자 어닐링 프로세서가 고전적 컴퓨터로는 합리적인 시간 내에 해결하기 어려운 양자 시스템 동역학을 시뮬레이션할 수 있음을 보여주는데, 이는 양자 컴퓨팅이 실질적으로 유용한 문제에서 '양자 우위'를 달성할 수 있다는 중요한 증거입니다. Q: 이 연구에서 말하는 '초고전적 계산'(beyond-classical computation)이란 어떤 의미인가요? A: 초고전적 계산이란 양자 컴퓨터가 최고의 고전적 알고리즘보다 본질적으로 더 빠르게 특정 문제를 해결할 수 있는 능력을 의미합니다. 이 연구에서는 양자 프로세서가 양자 스핀 글래스 역학을 시뮬레이션하는 데 있어, 가장 발전된 고전적 방법(텐서 네트워크, 신경망 등)으로도 동일한 정확도를 달성하기 위해 비현실적인 양의 계산 자원과 시간이 필요함을 증명했습니다. Q: 이 연구 결과가 미래 컴퓨팅에 어떤 영향을 미칠까요? A: 이 연구는 양자 컴퓨터가 양자역학 시뮬레이션과 같은 특정 영역에서 고전적 컴퓨터의 한계를 뛰어넘을 수 있음을 보여줍니다. 이는 물리학, 화학, 재료 과학 등 복잡한 양자 시스템을 이해해야 하는 분야에서 중요한 돌파구가 될 수 있으며, 새로운 소재 개발, 약물 설계, 더 효율적인 화학 반응 설계 등 다양한 응용 분야에서 혁신을 가져올 수 있습니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 16:06AI 에디터

[영상]"3개국어 동시 통역"…삼성SDS, 글로벌 언어장벽 없앤다

삼성SDS가 한국어와 영어, 베트남어 등 3개 이상의 언어를 동시에 번역해 다국적 원격회의를 보다 효율적으로 수행할 수 있도록 지원한다. 17일 삼성SDS는 생성형AI 기반 기업용 협업 솔루션 브리티 코파일럿의 신규 업데이트 기능을 영상을 통해 소개했다. 브리티 코파일럿은 원격회의, 메신저, 메일 등 실제 기업 업무에서 주로 활용하는 기능을 중심으로 편의성을 제공하는 기업용 생성형AI기반 협업 도구다. 정확하고 빠른 소통을 위한 높은 음성 인식도와 다양한 협업 도구와 통합해 일관된 업무 경험을 강점으로 내세우고 있다. 대표적으로 원격 회의 도구인 브리티 미팅은 보다 효율적인 글로벌 협업을 지원하기 위해 실시간 번역 기능을 지원한다. 이번 업데이트에서는 그동안 2개 언어 동시 통역을 지원하던 것에서 한발 더 발전해 총 3개 언어를 동시통역할 수 있는 것이 특징이다. 시연 영상은 미국, 베트남 법인의 현지 직원과 원격 회의 중이라는 내용으로 진행됐다. 화면 하단에 위치한 자막 창에는 참석자의 언어 설정에 따라 실시간으로 자동 번역된 내용이 표시된다. 화면 우측에는 지금까지 대화내역이 모두 기록돼 기존 대화 내용을 바로 조회할 수 있다. 해외 법인과의 회의 상황이라는 설정으로 진행된 시연영상에서 각국의 참가자들은 각자의 언어로 대화를 진행했다. 이들은 화면에 실시간으로 번역되는 자막을 통해 상대의 발언을 확인하며 어려움 없이 자연스럽게 회의를 진행할 수 있었다. 특히 다음 문장이 이어지기 전에 번역이 완료되며, 복잡한 복잡한 IT 용어들도 매끄럽게 번역돼 원활하게 화상회의가 진행된다는 느낌을 제공했다. 삼성SDS는 국가간 언어 장벽없이 회의를 자연스럽고 원활하게 진행할 수 있도록 각 기업별로 자주 사용하는 전문 용어나 기술 용어를 별도로 설정하고 시켜 AI의 정확성을 높이는 작업을 수행했다. 이를 통해 브리티 코파일럿은 한국어 음성 인식률이 98%, 영어 인식률은 97.6 수준으로 실제 사람보다 높은 수준의 정확도를 확보했다. 이 밖에도 회의를 마치면 자동으로 전체 내용을 정리한 회의록을 작성한다. 작성한 회의록에는 회의에 참가하지 않은 관계자도 한눈에 파악할 수 있도록 주요 주제를 비롯해 핵심 아이템과 각 참가자별 주요 발언을 간단하게 정리해 제공한다. AI에이전트를 활용한 기능인 퍼스널 에이전트도 새롭게 추가됐다. AI에이전트를 활용하면 사용자가 외근이나 회의 중일 때, 퍼스널 에이전트가 사용자를 대신하여 업무를 자동으로 대응할 수 있다. 또한 주어진 업무를 수행하기 위한 데이터를 수집하고 업무 계획을 마련해 일정까지 추가하는 등 보다 폭넓게 사용자를 지원할 수 있도록 개발됐다. 삼성SDS 관계자는 "삼성SDS는 기업과 개인의 업무를 혁신하고 지원하기 위해 다양한 AI기반 서비스를 준비하고 있다"며 "개발 중인 기술들은 순차적으로 선보일 예정인 만큼 많은 관심 부탁드린다"고 말했다.

2025.03.17 15:28남혁우

AI 코딩 시대, 개발자에게 필요한 건 '품질 감별력'

인공지능(AI) 코딩 품질을 알아볼 수 있는 인력 필요성이 높아질 것이란 전망이 나왔다. 17일 IT 업계에 따르면, AI가 코딩 작업을 대체하는 속도가 빨라지면서 개발 효율성은 올랐지만 AI가 생성한 코드 품질을 관리할 수 있는 전문성은 여전히 부족하다는 의견이 이어지고 있다. 현재 전문가는 AI 코딩 능력이 인간 수준을 넘어섰다고 봤다. 앞서 다리오 아모데이 앤트로픽 최고경영자(CEO)는 장기적으론 AI가 인간 역할을 완전히 대체할 것이라고 주장했다. 그는 "AI가 3~6개월 안에 코드 95%를, 12개월 안에는 모든 코드를 작성할 것"이라고 예상했다. 오픈AI의 코딩 에이전트도 이미 일반 개발자 수준을 넘어섰다는 평가가 나오고 있다. 코딩 능력을 평가하는 '코드포스'에서 GPT-4 기반 모델은 2천727점을 받아 기존 모델 능력을 넘어섰다. 업계에선 AI 코딩 수준을 평가할 수 있는 능력은 필수라는 주장이 나오고 있다. AI가 내놓은 코딩이 기업 제품 서비스·품질에 영향을 미칠 수 있다는 이유에서다. 한 업계 관계자는 "회사에서 사람이 직접 코딩하는 작업물 자체는 확실히 줄었다"며 "이젠 코딩 작업량보다 코딩 품질 판단에 집중해야 할 시기"라고 강조했다. 그러면서 "개발자가 코딩 지식 자체가 부족할 경우 저품질 코딩 결과물을 받아낼 것"이라며 "이는 제품 제작 등 회사에 큰 손실"이라고 덧붙였다. 또 다른 업계 관계자는 AI 코딩 어시스턴트를 통한 부작용 사례가 다양해지고 있다는 점을 지적했다. 실제 한 사용자가 '커서 AI'로 레이싱 게임 스키드 마크 페이드 효과 코드를 생성하려 했지만, 약 750~800줄에서 AI가 작업을 중단했다는 사례를 SNS에 게재한 바 있다. 당시 커서 AI는 "개인적인 코딩 연습이 중요하다"며 "수동으로 작업을 이어가야 한다"고 사용자에게 답변했다. 관계자는 "AI 코딩 어시스턴트의 기술적 한계인지, 의도적 제한인지는 불분명한 상황"이라며 "인간의 코딩 방식 능력에 대한 논의가 필요하다는 점은 분명하다"고 설명했다.

2025.03.17 15:05김미정

중국, 자국 AI '딥시크' 감시 강화... 직원들 여행 제한 조치까지

테크크런치가 14일(현지 시간) 보도한 내용에 따르면, 중국 정부가 자국의 인공지능 스타트업 딥시크(DeepSeek)를 자국의 주요 기술 성공 사례로 키우기 위해 면밀히 관리하고 있는 것으로 드러났다. 디인포메이션(The Information)에 의하면, 지난 1월 오픈소스 '추론' 모델인 R1을 출시하며 급부상한 딥시크는 현재 정부의 영향력이 강화된 새로운 제한 조치 하에서 운영되고 있다. 일부 직원들은 해외 여행이 자유롭게 허용되지 않으며, 중국 정부는 잠재적 투자자 심사에도 관여하고 있다. 딥시크는 모회사인 퀀트 헤지펀드 하이플라이어(High-Flyer)가 특정 직원들의 여권을 보관하는 방식으로 여행 제한을 강제하고 있다. 이러한 조치는 몇 주 전 중국 정부가 기술 유출을 우려해 AI 연구원과 기업가들에게 미국 여행을 자제하라고 지시했다는 보도가 나온 이후 이루어졌다. 중국은 자국 AI 기술의 해외 유출을 막기 위한 보호 조치를 강화하고 있다. 딥시크는 1월 R1 모델 출시 이후 글로벌 AI 시장에서 주목받은 바 있으며, 중국 정부는 이를 국가 차원의 기술 자산으로 관리하고 있는 것으로 보인다. 테크크런치(TechCrunch)는 이에 대한 입장을 듣기 위해 딥시크에 연락을 취했지만, 현재까지 공식 답변은 없는 상태다. 이번 조치는 미국과 중국 간 기술 패권 경쟁이 심화되는 가운데, 중국이 자국 AI 기술과 인재를 보호하기 위한 전략의 일환으로 분석된다. 특히 첨단 AI 모델 개발 분야에서 경쟁력을 확보하려는 중국 정부의 의지가 반영된 것으로 볼 수 있다. ■ 기사는 클로드와 챗GPT를 활용해 작성되었습니다.

2025.03.17 15:03AI 에디터

당신 회사는 AI 준비가 됐나…가트너가 제시하는 2025 로드맵

생성형 AI, 하이프 사이클 정점에서 22.6% 생산성 향상 약속 가트너의 2024년 AI 하이프 사이클에서 생성형 AI(Generative AI)는 여전히 정점에 위치하고 있다. 기업 경영진들은 생성형 AI를 통해 향후 12~18개월 동안 평균 22.6%의 생산성 향상, 15.8%의 매출 증가, 15.2%의 비용 절감을 기대하고 있다. 이러한 수치는 생성형 AI가 비즈니스 성과에 미치는 잠재적 영향력을 보여준다. 하지만 76%의 CIO와 기술 리더들은 혁신 속도와 확장 필요성 사이에서 균형을 맞추는 데 어려움을 겪고 있다. 생성형 AI 기술은 2024년에도 빠르게 발전했다. 주요 상용 및 오픈소스 대규모 언어 모델(LLM)은 성능이 크게 향상되면서도 토큰 길이 비용은、감소했다. 맥락 길이가 약 2,500페이지의 텍스트에 해당하는 100만 토큰까지 증가했으며, 특정 목적을 위한 소형 언어 모델의 등장, 여러 소규모 전문가 모델을 결합한 전문가 혼합(MoE) 모델, LLM 기반의 고급 추론 기능을 활용하는 AI 에이전트 등이 주목할 만한 발전이다. 2025년에는 기업들이 안전하고 민첩하며 확장 가능한 분석 및 AI 서비스를 제공해야 하는 과제에 직면할 것이다. 이를 위해 데이터 및 분석 기술 전문가들은 AI 및 분석 기반을 강화하고, 가치와 신뢰성을 강조하며, 신뢰와 투명성을 촉진해야 한다. 크롤-워크-런: 76%의 CIO가 선택한 AI 확장 전략 가트너는 기업이 생성형 AI를 도입하고 확장하기 위해 '크롤-워크-런(Crawl-Walk-Run)' 접근법을 제안한다. 이는 초기 파일럿부터 생산 구현, 그리고 최종적으로 확장 가능한 기반 구축으로 진행되는 전략이다. 첫 단계인 '크롤'에서는 내부 사용 사례로 시작하여 접근 가능한 기술 환경을 선택하고, 개념과 기술을 검증한 후 결과를 평가하고 문제점을 식별한다. 이 파일럿 단계에서 기업은 다양한 이해관계자에게 생성형 AI의 역량과 이점을 시연하고, 새로운 사용 사례의 우선순위를 정하며, 기술·위험·규정 준수·개인정보 보호·보안 관련 문제를 파악해야 한다. '워크' 단계에서는 초기 파일럿의 성공과 교훈을 바탕으로 아이디어를 수집하고 사용 사례를 선택하는 공식적인 접근 방식을 수립한다. 생산성 향상과 고객 및 직원 경험 개선이 주요 기능적 사용 사례이며, 이는 텍스트 생성, Q&A 대화, 요약, 분류, 개체명 인식, 감정 분석, 언어 번역 등의 기술적 사용 사례로 구현된다. '런' 단계에서는 중앙 집중식 핵심 팀을 넘어 여러 AI 및 소프트웨어 개발 팀이 참여하는 민주화된 모델로 확장하기 위한 접근 방식을 고려해야 한다. 이는 모듈식 아키텍처와 전체론적 관점을 필요로 한다. RAG 아키텍처로 AI 환각 문제 해결: 기업 신뢰도 확보 전략 기업에서 생성형 AI를 확장 구현하기 위해서는 모듈식 아키텍처가 필수적이다. 통화 센터 상담원이 고객과 대화하는 도중 추가 정보를 찾고, 대화를 요약하며, 다른 팀에 대한 후속 조치를 식별하고, 대화 품질을 평가해야 하는 시나리오를 생각해보자. 이런 사용 사례는 다양한 프롬프트 흐름을 조율하고 여러 전문 모델을 활용해야 한다. 가트너의 클라이언트들은 생성형 AI 구현과 관련하여 세 가지 주요 우려사항을 표현했다. 첫째, 데이터 및 콘텐츠 개인정보 보호에 대한 염려로, 기업 독점 콘텐츠와 개인 식별 정보를 보호해야 한다. 둘째, 환각과 오래된 소스 데이터로 인한 신뢰성과 정확성 문제다. 셋째, 접근 제어와 잠재적 오용에 대한 우려가 있다. 이러한 위험을 완화하기 위해 대부분의 현재 기업 생성형 AI 구현은 검색 증강 생성(RAG) 설계 패턴을 기반으로 한다. RAG 아키텍처는 관련 컨텍스트와 프롬프트 지침으로 사용자 쿼리를 강화하고 가드레일과 모니터링 기능으로 지원하여 강력한 기업 솔루션을 제공한다. 효과적인 기업 솔루션 프레임워크는 다양한 비정형 콘텐츠를 수용하고, 여러 검색 기술을 활용하며, 구성 가능한 프롬프트 템플릿을 제공해야 한다. AI 인재 부족 해결책: 데이터 과학자에서 AI 엔지니어까지 팀 구성 가이드 생성형 AI를 성공적으로 구현하려면 팀의 역량을 강화하는 것이 중요하다. RAG 솔루션 개발과 LLM 미세 조정은 일반적인 기계 학습 개발 프로세스와는 다른 지식과 기술을 요구한다. 데이터 과학자가 AI 및 ML 모델 개발 팀의 중심에 있지만, 성공적인 기술 팀은 AI 및 ML 엔지니어와 데이터 엔지니어의 동등한 기여가 필요하다. 기업들은 데이터 기반 의사결정에 대한 경쟁 우위를 확보하기 위해 시급한 필요성과 급변하는 기술 및 제품 역량 사이에서 기술, 도입, 위험 이해에 격차가 드러나고 있다. 이에 대응하여 기업은 기술 옵션을 평가하고, 팀 역량을 강화하며, 자동화와 간소화된 방법론을 통해 민첩성을 증가시키고, 일관되고 신뢰할 수 있는 구현을 위한 지침과 프레임워크를 수립해야 한다. 신뢰와 투명성에 대한 요구는 거버넌스, 데이터 및 AI 리터러시 관행을 주도할 것이다. 효과적인 AI 개발을 위해서는 데이터 및 AI 리터러시 프로그램을 구현하고, 가드레일과 지표를 설정하여 거버넌스 제어를 통합하며, 조직 프로세스, 표준, 모범 사례에 맞춰 조정해야 한다. FAQ Q: 생성형 AI는 실제로 기업에 어떤 가치를 제공할 수 있나요? A: 생성형 AI는 기업에 생산성 향상(평균 22.6%), 매출 증가(15.8%), 비용 절감(15.2%)과 같은 실질적 가치를 제공할 수 있습니다. 주요 사용 사례로는 텍스트 생성(코드, 문서, 이메일 등), 대화형 Q&A, 콘텐츠 요약, 감정 분석, 언어 번역 등이 있으며, 이를 통해 업무 효율성을 높이고 고객 및 직원 경험을 개선할 수 있습니다. Q: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 무엇인가요? A: 기업이 생성형 AI를 도입할 때 가장 큰 위험 요소는 데이터 개인정보 보호 문제, 환각(hallucination)으로 인한 부정확한 정보 생성, 그리고 접근 제어 미흡으로 인한 잠재적 오용입니다. 이러한 위험을 완화하기 위해 검색 증강 생성(RAG) 아키텍처 도입, 적절한 가드레일 설정, 그리고 철저한 모니터링이 필요합니다. Q: 일반 기업이 생성형 AI를 어떻게 시작해야 할까요? A: 일반 기업은 '크롤-워크-런' 접근법으로 생성형 AI를 시작하는 것이 좋습니다. 먼저 내부 사용 사례로 파일럿 프로젝트를 시작하고, 개념과 기술을 검증한 후, 결과를 평가합니다. 이후 성공적인 사례를 기반으로 우선순위가 높은 사용 사례를 선택하여 확장하고, 최종적으로 모듈식 아키텍처와 전체론적 역량 맵을 구축하여 기업 전체에 AI 기술을 민주화하는 단계로 나아갑니다. ■ 이 기사는 AI 전문 매체 'AI 매터스'와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

2025.03.17 14:56AI 에디터

  Prev 111 112 113 114 115 116 117 118 119 120 Next  

지금 뜨는 기사

이시각 헤드라인

울산 AI 단지 방문한 李 대통령…'지방 데이터센터' 활성화 신호탄 될까

[AI 리더스] '국내 첫 LLM' 만든 김영섬 "코난테크, 한국형 챗GPT 개발 역량 충분"

[써보고서] 입기만 하면 하지마비 환자도 일상으로…'엔젤슈트 H10'

AI 품은 KOSA, '소버린 AI'에 힘 준다…조준희 발언에 이재명 "저도 답답"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현