• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
스테이블코인
배터리
AI의 눈
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'대규모 언어 모델'통합검색 결과 입니다. (15건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

과기정통부 "카나나, 라마·미스트랄보다 안전"…첫 AI 안전성 평가서 '합격점'

카카오가 개발한 인공지능(AI) 모델 '카나나(Kanana)'가 라마(Llama), 미스트랄(Mistral) 등 세계 주요 오픈소스 모델보다 안전성이 높다는 정부 평가 결과가 나왔다. 29일 과학기술정보통신부(이하 과기정통부)는 인공지능안전연구소, 한국정보통신기술협회(TTA)와 함께 '카나나 에센스 1.5'를 대상으로 실시한 '국내 첫 AI 안전성 평가' 결과를 공개했다. 이번 평가는 내년 1월 'AI기본법' 시행을 앞두고 고성능 AI 모델의 위험 요소를 식별하고 안전성을 검증하기 위해 추진됐다. 평가단은 카나나와 비슷한 글로벌 모델인 메타의 '라마 3.1', 미스트랄의 '미스트랄 0.3'과 동일한 조건에서 비교 분석했다. 평가 결과 카나나는 비교 대상보다 높은 안전성을 확보한 것으로 나타났다. 폭력이나 차별적 표현과 같은 일반적인 위험 요소는 물론, 무기 제작이나 보안 취약점 악용 등 오남용 가능성이 높은 고위험 시나리오에서도 우수한 방어 능력을 보였다. 평가에는 국내 연구진이 주도하여 구축한 데이터셋이 핵심적인 역할을 했다. TTA와 카이스트 최호진 교수팀이 개발한 '어슈어AI 데이터셋'과 AI안전연구소의 '고위험 분야 평가 데이터셋'이 활용됐으며, 한국어 특성을 반영한 35개 위험 영역에 대한 정밀 검증이 이루어졌다. 과기정통부 관계자는 "이번 평가는 단순히 국내 모델을 테스트한 것을 넘어, 우리가 만든 평가 기준과 데이터셋으로 글로벌 모델과 비교 검증을 수행했다는 데 의의가 있다"며 "국산 AI 모델이 성능뿐만 아니라 안전성 측면에서도 세계적 경쟁력을 갖췄음을 입증한 것"이라고 설명했다. 정부는 이번 평가 결과를 발판 삼아 AI 안전 생태계 확산에 속도를 낼 방침이다. 구축된 안전성 평가 데이터셋(AssurAI)을 국제표준화기구(ISO/IEC) 등에 제안해 글로벌 표준 반영을 추진하고, 미국·영국 등 국제 AI안전연구소 네트워크와 공조를 통해 평가 기준 국제 정합성을 높일 계획이다. AI안전연구소는 향후 국내외 주요 AI 기업들과 협력하여 타 모델에 대한 안전성 평가를 확대하고 새해 예정된 '독자 AI 파운데이션 모델' 프로젝트 단계 평가에도 이번 검증 체계를 적용할 계획이다. 김경만 과기정통부 인공지능정책실장은 "전 세계적으로 AI 안전 논의가 규제보다는 실질적인 '검증'과 '구현'으로 넘어가고 있다"며 "이번 평가는 국내 AI 모델 안전성 경쟁력을 증명한 사례로, 앞으로도 국내 기업이 글로벌 AI 안전성 리더십을 주도할 수 있도록 적극 지원하겠다"고 강조했다.

2025.12.29 16:54남혁우 기자

美 국방부 "中, AI·뇌과학으로 미군 초월 노려"

중국 인민해방군(PLA)이 현대전의 패러다임을 기존의 '정보화'에서 인공지능(AI) 기반의 '지능화 전쟁(Intelligentized Warfare)'으로 전환하고 있다는 미국 국방부의 공식 분석이 나왔다. 28일 미 국방부(DoD)는 '2025년 중국 군사 및 안보 발전 보고서(CMPR)'를 의회에 제출했다고 밝혔다. 국방부는 보고서를 통해 중국이 2049년 세계 최강대국 도약을 목표로 AI, 양자 기술, 생명공학 등 이른바 '전쟁의 판도를 바꿀 기술(Game-changing technologies)'에 국가적 역량을 총동원하고 있다고 평가했다. 보고서에 따르면 중국은 현재의 군사 혁신을 '기계화'와 '정보화'를 넘어선 '지능화' 단계로 규정하고 있다. 단순히 무기의 화력을 높이는 차원이 아니라 AI와 빅데이터, 클라우드 컴퓨팅을 군사 시스템에 완전히 통합하여 인간의 개입을 최소화한 자율 전투를 수행하고 적보다 압도적으로 빠른 지휘 결심(Command Decisions)을 내리는 것을 목표로 한다. 미 국방부는 이를 두고 중국이 "제약 없는 상황 인식(Unbridled Sense-making)'을 추구하고 있다고 표현했다. 보고서는 중국이 AI를 군사력의 핵심인 '신질 전투력'의 원동력으로 보고 있다고 분석했다. 특히 중국의 대규모언어모델(LLM) 기술이 급속도로 발전하며 미국 선두 모델과의 격차를 좁히고 있다는 점을 우려했다. 중국은 이러한 AI 모델을 사이버 공격용 코드 작성, 전장 의사결정 보조, 그리고 여론 조작을 위한 인지전(Cognitive Warfare) 등에 적극 활용할 것으로 전망된다. 미국의 대중국 반도체 수출 통제에 대한 중국의 대응 전략도 구체적으로 명시됐다. 보고서는 "중국 기업들이 저사양 AI 칩의 소프트웨어를 최적화해 성능을 끌어올리거나, 제3국 페이퍼컴퍼니를 통한 밀수, 자체 칩 비축 등을 통해 하드웨어 제약을 극복하려 시도하고 있다"고 지적했다. 이번 보고서에서 특히 눈길을 끄는 대목은 생명공학의 무기화다. 미 국방부는 중국이 이른바 '킬러 기술(Assassin's Mace)'을 개발하기 위해 생명공학에 집중 투자하고 있다고 밝혔다. 대표적인 기술로 '뇌-컴퓨터 인터페이스(BCI)'가 지목됐다. BCI는 인간의 뇌와 컴퓨터를 직접 연결하는 기술로, 중국은 이를 통해 병사의 인지 능력을 강화하거나 뇌파로 드론 등 무인 시스템을 제어하는 기술을 연구 중이다. 보고서는 "중국의 BCI 기업인 뉴라클(Neuracle) 등이 PLA 병원과 협력하여 국방 관련 연구를 진행하고 있다"며 민간 기술이 군사적으로 전용되는 '군민융합(MCF)'의 위험성을 경고했다. 중국은 시진핑 주석의 지시 아래 양자 기술 분야에서도 독자적인 생태계를 구축하고 있다. 미래의 암호 체계를 무력화할 수 있는 '양자 컴퓨팅'과, 반대로 도청이 불가능한 통신망을 구축하는 '양자 통신' 기술을 동시에 개발 중이다. 이는 미군의 은밀한 작전 수행을 어렵게 만들고, 정보 우위를 잠식할 수 있는 핵심 위협 요인으로 꼽힌다. 미 국방부는 "중국의 이러한 기술 발전은 단순히 군사적 위협을 넘어 '디지털 권위주의'를 전 세계로 확산시키는 도구가 되고 있다"며 "AI 기반 자율 무기 시스템의 확산은 미래 전쟁의 불확실성을 높이고 우발적 충돌 위험을 증대시킬 것"이라고 경고했다. 이번 보고서에서 기술 분야만큼 비중 있게 다뤄진 것은 핵전력의 급격한 확장이다. 미 국방부는 중국이 2030년까지 실전 배치된 핵탄두를 1천기 이상으로 늘릴 궤도에 있다고 분석했다. 이는 중국이 오랫동안 유지해 온 '최소 억제(Minimum Deterrence)' 전략에서 벗어나, 미국과 대등한 수준의 전략적 억제력을 확보하려는 의도로 풀이된다. 특히 보고서는 지난 2024년 9월, 중국이 44년 만에 감행한 태평양 해상으로의 대륙간탄도미사일(ICBM) 시험 발사를 언급하며 “중국이 전시 핵 억제 절차를 평시에 훈련하고 전 사거리 타격 능력을 검증했다”고 평가했다. 대만 해협의 위기 수위도 한층 높아졌다. 보고서는 중국이 라이칭더 대만 총통 취임 등에 대응해 실시한 '연합 리젠(Joint Sword-2024A/B)' 훈련을 상세히 분석했다. 과거의 훈련이 무력시위 성격이 강했다면, 2024년의 훈련들은 대만의 주요 항구와 해상 교통로를 실제로 봉쇄하고 외부 세력(미군)의 개입을 차단하는 작전을 구체적으로 숙달하는 데 초점을 맞췄다는 것이다. 또한 해경 선박을 훈련에 동원해 대만 주변 수역에서의 법 집행권을 주장하는 '회색지대 전술'도 고도화되었다. 하지만 중국군의 화려한 기술 굴기 이면에 구조적 취약점으로 부패가 지목됐다. 시진핑 주석의 반부패 드라이브에도 불구하고 2023~2024년 사이 리상푸 국방부장과 로켓군 지휘부, 방산 국영기업 간부들이 대거 숙청된 사실이 이를 방증한다는 설명이다. 또한, AI 가속기 등 핵심 하드웨어에 대한 접근 제한이 여전히 중국군 현대화의 병목으로 작용하고 있으며, 이를 우회하려는 시도가 계속될수록 비용과 복잡성이 증가할 것이라고 내다봤다. 보고서는 "미사일 격납고 덮개 오작동이나 핵잠수함 침몰 의혹 등 장비 품질 문제와 조달 비리가 여전하다"며 이러한 부패가 중국이 야심 차게 추진하는 군 현대화 목표 달성을 저해하고 PLA의 실질적인 전투 준비 태세에 의문을 제기하게 만든다고 분석했다.

2025.12.28 13:21남혁우 기자

와이즈넛-리스크제로, AI 에이전트로 산업현장 안전 재설계

와이즈넛(대표 강용성)과 리스크제로가산업현장 안전관리 패러다임 전환에 속도를 내고 있다. 와이즈넛은 리스크제로와 산업안전 혁신을 위한 특화 에이전트 및 서비스 개발 업무협약(MOU)을 체결했다고 26일 밝혔다. 양사는 이번 협력을 통해 산업현장의 안전역량을 강화하고, 신속한 의사결정을 지원하는 AI 기반 안전관리 체계 구축에 나선다. 이번 협약은 와이즈넛의 도메인 특화 LLM과 검색증강생성(RAG) 기술에 리스크제로의 건설공사·도급사업 등 산업안전 분야 스마트 안전관리 통합 서비스를 결합하는 것이 핵심이다. 현장에 산재한 지식과 데이터를 AI가 실시간으로 분석해 위험요소를 미리 감지하고 담당자에게 최적의 대응 방안을 제시하는 구조를 구현하겠다는 구상이다. 양사는 우선 실제 현장을 대상으로 한 실증 프로젝트를 통해 성공모델을 확보한 뒤, 이를 건설·제조·플랜트 등 산업안전 전반으로 확산할 계획이다. 특히 건설공사 도급사업 관련 법령과 지침을 반영한 특화 LLM을 개발·적용해 안전점검, 서류 작성, 위험성 평가 등 안전관리 전 과정을 데이터 중심·AI 중심 프로세스로 전환하는 데 중점을 둘 예정이다. 와이즈넛은 AI 에이전트 대표 상장사로 공공·금융·법률·제조 등 다양한 산업에서 특화 AI 에이전트 구축 성공 사례를 50건 이상 확보한 기업이다. 이번 협력을 계기로 도메인 특화 에이전트 LLM '와이즈 로아(WISE LLOA)'와 GS인증을 획득한 RAG 솔루션 '와이즈 아이랙(WISE iRAG)'등 AI 에이전트 풀스택 소프트웨어를 산업안전 분야에 본격 적용해 산업별 AI전환(AX)을 더욱 가속화한다는 방침이다. 리스크제로는 스마트 안전통합 서비스 전문기업으로 국내 최고 수준의 안전전문가 컨설팅 역량과 중대재해처벌법 대응 안전관리 구독형 서비스, 스마트 안전관리 플랫폼을 보유하고 있다. 한국남동발전, 국토안전관리원, 국가철도공단, 경기주택도시공사 등 주요 공공기관의 스마트 안전관리 플랫폼 구축 경험과 현장 노하우를 기반으로 산업 현장 맞춤형 안전관리 체계를 제시해 왔다. 최영호 리스크제로 대표는 "AI 기술은 산업 현장 안전관리에 있어 안전 수준을 혁신적으로 끌어올릴 핵심 수단이 될 것"이라며 "이번 협력을 통해 리스크제로가 축적해 온 산업안전 전문성과 와이즈넛의 LLM 기술을 결합해 한 단계 진화한 스마트 안전관리 서비스를 선보이겠다"고 말했다. 강용성 와이즈넛 대표는 "산업현장의 안전을 지키는 핵심 인프라로서 AI 기술 활용은 이제 본격적인 태동기를 맞이하고 있다"며 "와이즈넛은 이번 협력을 통해 스마트 안전관리의 새로운 표준을 제시하고 실제 현장에서 안전성과 효율성을 동시에 높이는 실질적 가치를 만들어가겠다"고 밝혔다.

2025.11.26 15:44남혁우 기자

모티프테크놀로지스, 독자 구축 LLM '모티프 12.7B' 공개

모티프테크놀로지스(대표 임정환)가 7주 만에 자체 구축한 대규모 언어모델(LLM) 'Motif 12.7B'를 공개하며 기술 독립 역량을 입증했다. 모티프테크놀로지스는 최근 허깅페이스를 통해 127억 개의 매개변수를 가진 대규모 언어모델 '모티프(Motif) 12.7B'를 오픈소스로 공개했다고 밝혔다. 이 모델은 데이터 수집부터 모델 학습, 최적화까지 전 과정을 프롬 스크래치(From scratch) 방식으로 수행한 순수 국산 LLM이다. 모티프테크놀로지스는 지난 7월 T2I(Text to Image) 모델 '모티프-이미지-6B'를 공개한 데 이어 이번에 LLM을 선보이며 국내에서 유일하게 LLM과 대형 멀티모달 모델(LMM)을 모두 독자적으로 개발하고 있는 기업으로 자리매김했다. 특히 국내 AI 업계에서 GPU 클러스터 효율화와 고성능 개발 인력 확보가 주요 과제로 꼽히는 가운데, 모티프테크놀로지스는 자체 기술만으로 단 7주 만에 모델을 완성해 주목받고 있다. 모티프 12.7B는 앞서 공개된 경량 모델 모티프 2.6B보다 한층 향상된 성능을 갖췄으며, 추론 능력과 학습 효율을 모두 개선했다. 회사는 이를 가능하게 한 핵심 기술로 그룹 단위 차등 어텐션과 뮤온 옵티마이저 병렬화 알고리즘 두 가지를 꼽았다. 그룹 단위 차등 어텐션은 기존 차등 어텐션(DA) 구조의 한계를 넘어, 연산 헤드를 비대칭적으로 배분해 불필요한 연산을 줄이고 신호(signal) 정보 처리 효율을 극대화한 기술이다. 이를 통해 고난도 추론 성능을 향상시키는 동시에 환각(hallucination) 현상을 완화했다. 또한 뮤온 옵티마이저 병렬화 알고리즘은 멀티노드 학습 환경에서 발생하는 GPU 통신 병목을 해소해 연산과 통신을 지능적으로 병행함으로써 GPU 활용률을 극대화했다. 이로써 LLM 학습 효율 저하의 주요 원인으로 꼽혀온 통신 대기 문제를 사실상 제거했다. 모티프테크놀로지스는 강화학습(RL)을 생략한 대신 추론 중심 지도학습을 적용해 모델이 스스로 논리적 사고와 문제 해결을 수행하도록 설계했다. 사용자 질문의 특성에 따라 심층 추론과 즉시 응답 모드를 자동 전환하는 구조도 구현해, 상황별 최적의 연산을 수행할 수 있게 했다. 이러한 접근은 개발 비용 절감뿐 아니라 운영 효율성도 높였다. 강화학습 단계 생략으로 학습 비용을 줄이고, 불필요한 연산을 회피해 GPU 사용량과 응답 지연시간을 최소화하는 등 실질적인 비용 효율성을 확보했다. 모티프 12.7B는 수학·과학·논리 문제를 평가하는 AIME25, GPQA-다이아몬드, 제브라로직 등 추론 과제에서 알리바바의 Qwen2.5(72B)와 구글의 젬마 동급 모델을 모두 능가하는 성능을 기록했다. 한편 모티프테크놀로지스는 올해 연말까지 T2V 모델을 추가로 오픈소스로 공개할 계획이다. 고성능 LLM과 LMM을 모두 자체 개발한 경험을 바탕으로, 'LLM-LMM 투트랙 혁신'을 통해 다양한 스케일의 AI 모델 개발을 본격화할 방침이다. 임정환 대표는 "GDA와 뮤온 옵티마이저는 각각 LLM의 두뇌와 에너지 효율을 재설계한 혁신 기술"이라며 "모티프 12.7B는 단순한 성능 향상을 넘어 AI 모델의 구조적 진화를 보여주는 사례로 비용 효율적 고성능 LLM을 원하는 기업들에게 하나의 모범 답안이 될 것"이라고 말했다.

2025.11.05 10:44남혁우 기자

문서 작성부터 협력사 평가까지…엠로, AI 에이전트로 구매 업무 부담 최소화

기업의 구매 부서는 제품 생산과 운영의 기반이자 경쟁력의 핵심 축이다. 하지만 수많은 문서 작성, 데이터 검색, 협력사 관리 등 반복적이고 복잡한 업무가 이어지면서 담당자의 업무 피로도가 높고, 신규 인력이 진입하기에도 쉽지 않다. 이로 인해 많은 기업들이 인력 운용에 어려움을 겪는다. 이러한 어려움을 극복하기 위해 인공지능(AI) 에이전트가 대안으로 주목받고 있다. AI가 스스로 문제를 인식한 뒤 목표 달성을 위해 필요한 정보를 스스로 찾아내고 계획을 세우며 실행까지 수행할 수 있어 업무 부담을 최소화하고 고부가가치 분석과 전략 수립에 집중하며 생산성을 향상시킬 수 있기 때문이다. 21일 엠로는 서비스 중인 구매시스템에 대규모 언어모델(LLM)을 기반으로 한 5종의 AI 에이전트를 탑재했다고 밝혔다. 엠로의 구매시스템에 탑재된 AI 에이전트는 ▲구매 가이드 에이전트(Procurement Guide Agent), ▲DB 검색 에이전트(DB Search Agent) ▲SRM 코파일럿(SRM Copilot), ▲시장 분석 에이전트(Market Intelligence Agent) ▲문서 생성 에이전트(Automation Agent) 등이다. 이 기능들은 구매 문서 작성부터 협력사 평가, 시장 동향 분석까지 한 번의 대화로 처리할 수 있도록 지원한다. 초보자도 복잡한 구매 절차 손쉽게 엠로의 '구매 가이드 에이전트'는 이름 그대로 구매 업무 전반의 '길잡이' 역할을 한다. 신규 담당자가 복잡한 절차나 용어에 익숙하지 않더라도 챗봇에 질문만 하면 필요한 답변을 즉시 받을 수 있다. 예를 들어 '해외 협력사 등록 절차가 어떻게 되나요?' 같은 질문을 입력하면 AI가 사내 매뉴얼과 외부 문서를 동시에 검색해 단계별 절차를 안내한다. 이 에이전트는 검색증강생성(RAG) 기술을 이용해 정형 데이터뿐 아니라 PDF나 보고서 같은 비정형 데이터에서도 정보를 찾아낸다. 이를 통해 AI는 보다 구체적이고 신뢰할 수 있는 답변을 제공한다. 결과적으로 구매 가이드 에이전트는 기업 내 지식 격차를 줄이고 담당자의 역량을 균등하게 끌어올리는 역할을 한다. 이를 통해 신규 인력은 빠르게 업무를 익힐 수 있고 숙련 인력은 반복적인 질문 응답이나 문서 확인에 드는 시간을 절약해 전략적 업무에 집중할 수 있다. 필요한 정보를 자연어로, DB 검색도 한번에 DB 검색 에이전트는 구매 담당자가 시스템 속 방대한 데이터를 일일이 찾지 않아도 되도록 돕는다. 그동안 협력사 정보를 찾기 위해 여러 메뉴를 오가며 검색해야 했지만 이제는 자연어로 질문만 하면 된다. "지난해 수도권 지역 협력사 중 납기 우수 업체를 알려줘"라고 입력하면 내부 데이터베이스(DB)에 어떤 항목들이 있는지 납기율이 어떤 테이블에 저장되어 있는지를 스스로 파악한 한다. 이후 그 조건에 맞는 SQL 쿼리(SQL Query)를 자동으로 생성해 사용자에게 필요한 정보를 제공한다. 또한 AI는 단순히 데이터를 보여주는 데서 그치지 않고 필요한 경우 요약이나 분석 결과까지 함께 제시한다. "최근 6개월간 납기 지연이 늘어난 품목은?"이라고 물으면 AI는 해당 데이터를 시각화해 '어떤 품목에서 지연이 발생했고 그 원인이 무엇인지'까지 요약 보고 형식으로 알려준다. 이렇게 사용자가 복잡한 데이터를 직접 다루지 않아도 자연스러운 대화만으로 원하는 인사이트를 얻을 수 있도록 지원한다. 문서 작성도 AI가 초안부터 제안까지 구매 부서의 주요 업무 중 하나는 다양한 문서 작성이다. 입찰 공고문, 품의서, 계약서 등 문서의 형식은 정해져 있지만 매번 다른 품목과 조건을 반영해야 하기 때문에 단순 반복 업무임에도 상당한 시간이 소요된다. 한 문서를 완성하기 위해 과거 사례를 찾아보고 협력사 정보를 대조하며 예산과 납기 일정을 맞추는 과정을 거쳐야 하기 때문이다. 엠로의 '문서 생성 에이전트'는 이런 반복적인 문서 작성 부담을 줄여준다. 구매 담당자가 품목명, 예산, 일정, 자격 요건 등 기본적인 정보를 입력하면 AI가 사내 시스템에 저장된 방대한 문서 데이터를 바탕으로 유사한 사례를 찾아낸다. 이후 관련 내용을 분석해 입찰 공고문, 입찰 제안 요청서(RFx), 품의서, 계약서 등 다양한 문서의 초안을 자동으로 생성한다. 담당자가 "다음 달까지 납품 가능한 사무용 의자 입찰 공고문 초안을 만들어줘"라고 입력하면 AI는 과거 유사 품목의 입찰 데이터를 검색해 조건이 비슷한 문서를 찾아낸다. 이후 예산 규모, 납기 일정, 자격 요건 등을 자동으로 반영해 새로운 초안을 완성한다. 이후 이 초안을 바탕으로 세부 항목만 수정하면 곧바로 결재 절차를 진행할 수 있다. 과거처럼 처음부터 문서를 새로 쓰거나 비슷한 문서를 일일이 찾아 복사·편집하는 과정이 사라지는 셈이다. 또한 사람이 자주 실수하기 쉬운 오타, 금액 입력 오류, 항목 누락 같은 문제도 예방해준다. 시스템이 자동으로 항목별 데이터를 불러와 검증하기 때문에 작성 과정에서 정보가 누락되거나 중복되는 경우를 줄일 수 있다. 예를 들어 예산 금액이 내부 결재 시스템의 승인 한도와 일치하지 않거나 협력사 등록번호가 최신 정보와 다를 경우 AI가 즉시 경고 메시지를 띄운다. 결과적으로 문서 작성 시간을 단축하고 업무 품질을 높일 수 있는 환경을 조성해 구매 담당자는 전략 수립이나 공급망 리스크 관리 등 보다 중요한 업무에 집중할 수 있다. 시장 동향까지 분석해 리스크 선제 대응 구매 업무는 시장의 흐름을 읽고 가격 변동과 공급 안정성, 협력사의 재무 상태를 종합적으로 판단해야 하는 전략적 의사결정 과정이다. 특히 글로벌 공급망이 불안정하고 원자재 가격이 급변하는 시대에는 시장 상황을 빠르고 정확하게 파악하는 역량이 기업 경쟁력의 핵심이 된다. 그러나 담당자가 모든 정보를 직접 확인하기에는 한계가 있다. 매일 쏟아지는 뉴스, 공시, 환율, 거래 데이터 등 방대한 자료를 일일이 검토하기에는 시간과 인력이 턱없이 부족하기 때문이다. 시장 분석 에이전트는 실시간으로 뉴스, 공시, 주가, 재무정보 등 외부 데이터를 자동 수집하고 분석해 시장의 흐름과 주요 기업의 동향을 한눈에 보여준다. 담당자가 "리튬 가격이 최근 어떻게 변했는지 알려줘"라고 입력하면 AI는 전 세계 주요 산업 뉴스와 거래소 데이터를 통합 분석해 최근 가격 추세와 변동 원인까지 요약한다. 또한 수집한 정보를 기반으로 잠재적인 리스크를 감지하고, 향후 영향을 미칠 수 있는 요인을 예측한다. 예를 들어 특정 원자재 가격이 급등 조짐을 보이면 관련 품목의 구매 계획을 조정하도록 경고를 띄우거나 대체 공급업체를 검토할 수 있도록 제안한다. 이처럼 AI가 시장의 움직임을 사전에 포착해 알려주면 기업은 공급망 혼란이나 원가 상승 같은 위험에 훨씬 빠르게 대응할 수 있다. AI끼리 소통하는 'A2A'로 자율형 공급망 완성 목표 엠로는 이번 AI 에이전트 기능을 단순한 보조 도구가 아닌 서로 연동되는 자율형 시스템으로 발전시키고 있다. 각 에이전트가 독립적으로 작동하는 것을 넘어 서로 협업해 복잡한 문제를 해결하는 에이전트 간 협업(A2A) 구조를 구축 중이다. 시장 분석 에이전트가 특정 품목의 가격 상승을 감지하면 문서 생성 에이전트가 자동으로 관련 품목의 재입찰 공고문을 작성하고 DB 검색 에이전트가 납기 우수 협력사를 추천하는 식이다. 각 AI 에이전트가 독립된 기능을 넘어 '팀'처럼 움직이면 공급망 관리(SCM)는 완전히 새로운 단계로 진화한다. 담당자가 모든 데이터를 직접 확인하거나 문서를 작성하지 않아도 시스템이 먼저 문제를 감지하고 해결 방향을 제시한다.이를 통해 AI가 공급망 을 스스로 운영하는 자율형 시스템을 구축한다는 방안이다. 엠로는 올해 안에 이 A2A 체계의 기술적 기반을 완성할 계획이다. 이를 위해 에이전트 간 실시간 데이터 교환 프로토콜, 상황 인식 기반 의사결정 모델, AI 협업 시나리오 설계 등을 병행하고 있다. 특히 복수의 에이전트가 동시에 작동할 때 충돌이나 오류가 발생하지 않도록 우선순위 판단 알고리즘과 피드백 제어 로직을 강화하는 것이 핵심이다. 한 엠로 관계자는 "에이전틱 ai가 미래 공급망의 핵심 기술 트렌드로 자리잡으면서 이를 도입해 공급망의 운영 효율성을 높이고자 하는 기업들의 수요도 증가하고 있다"며 "이 같은 흐름과 더불어 엠로의 에이전틱 ai 솔루션에 대한 기업 고객들의 관심과 문의도 빠르게 늘어나고 있으며 엠로의 또 하나의 핵심 성장 동력이 될 것으로 기대된다"고 말했다.

2025.10.21 10:58남혁우 기자

유라클, 'AI 서밋 2025' 9월 개최…기업 맞춤형 AI서비스 전략 제시

유라클(대표 조준희, 권태일)이 다음 달 'AI 서밋2025'를 열고 기업이 스스로 AI 서비스를 구축할 수 있는 구체적인 방안을 제시한다. 유라클은 서울 삼성동 코엑스에서 '유라클 AI 서밋 2025'를 개최한다고 27일 밝혔다. 다음 달 4일 열리는 이번 행사는 'AI, 비즈니스를 완성하다'라는 주제로 유라클의 AI 전환 전략과 신제품, 고객·파트너 사례가 공개된다. 첫 세션에서는 생성형 소규모언어모델(SLLM) '아테나(Athena)'를 기반으로 한 '아테나LLM 옵스'가 소개된다. 워크플로우 기반으로 다양한 기업 업무를 AI 서비스로 구현할 수 있으며 실시간 정보 참조(RAG)를 통한 서비스 설계가 가능한 구조를 선보인다. 두 번째 세션에서는 코드 생성·테스트·통합 과정 자동화와 API 문서화 등을 지원하는 '아테나 코드 어시스턴트'의 시연이 진행된다. 세 번째 세션에서는 아테나를 활용해 AI 서비스를 구축한 건설사 사례가 발표된다. 마지막 네 번째 세션에서는 최근 K-AI 5개 팀 중 하나로 선정된 NC AI가 참여해, 생성형 기술이 적용된 게임과 패션 분야 사례를 공유한다. 이번 컨퍼런스는 인공지능에 관심 있는 누구나 사전 등록을 통해 참여할 수 있다. 신청은 오는 9월 2일 오후 5시까지 행사 페이지에서 선착순으로 가능하다. 행사 참가자에게는 다양한 경품 이벤트도 마련돼 있다. 권태일 유라클 사장은 "이제 유라클은 AI기업"이라며 "20여 년간 축적한 B2B 고객 이해를 바탕으로 출시된 아테나 솔루션이 고객에게 큰 반향을 일으키고 있음을 이번 서밋에서 확인할 수 있을 것"이라고 말했다.

2025.08.27 16:18남혁우 기자

"국산 AI, 글로벌 시장서도 통한다"…임정환 모티프 대표의 자신감

"구글이나 오픈AI도 실제로 프로젝트 핵심 개발자는 30명 안팎입니다. 중요한 건 사람 수가 아니라 그 팀의 집중력과 문제 해결 능력입니다." 임정환 모티브테크놀로지(이하 모티프) 대표는 7일 서울 역삼동 사옥에서 진행한 인터뷰에서 이같이 말하며, 독자 인공지능(AI) 모델 개발에 대한 자신감을 내비쳤다. 그 자신감은 구체적인 성과로 이어지고 있다. 모티프가 자체 설계·개발한 소형언어모델(sLLM) '모티프 2.6B'는 글로벌 빅테크가 내놓은 동급 AI 모델들을 벤치마크에서 능가했다. 임 대표는 대규모 인프라와 투자를 앞세운 빅테크에 대응하기 위해 오픈소스 전략을 기반으로 독립적 기술 내재화에 집중하고 있으며, 데이터 주권과 기술 주체성을 확보하는 것이 국가적 과제로 자리잡아야 한다고 강조했다. 모티프 2.6B, 글로벌 빅테크 뛰어넘은 국산 sLLM 지난 6월 공개한 모티프 2.6B는 총 26억 개의 파라미터를 갖춘 경량 AI 모델이다. AMD MI250 GPU 한 장만으로도 추론이 가능하며 엔비디아 기반 인프라 대비 약 60% 수준의 비용으로 학습과 운영이 가능하다. 산업 현장에 적용 가능한 고성능 모델로 실용성과 효율성을 모두 갖췄다. 성능도 검증됐다. 벤치마크 결과, 프랑스 미스트랄의 7B 모델보다 134%, 구글 젬마 2B 대비 191%, 메타 라마 3.2(1B)보다 139%, AMD 인스텔라 3B보다 112%, 알리바바 첸(Qwen) 2.5(3B)보다 104% 높은 점수를 기록했다. 문장 내 문맥 파악과 응답 정확도를 높이기 위한 어텐션 메커니즘을 정밀하게 조정한 설계가 핵심이다. 임 대표는 "모티프 2.6B는 단순히 공개된 오픈소스AI에 추가학습을 거치거나 일부 코드를 수정한 모델이 아니라 모델 구조 설계부터 학습 데이터 구성, 학습 파이프라인까지 처음부터 끝까지 전부 독자적으로 개발했다"고 강조했다. 그는 "남이 만든 모델을 조금씩 바꾸는 방식으로는 세계 수준에 도달할 수 없다고 판단했다"며 "그래서 처음부터 끝까지 전부 직접 만들었다"고 개발 이유를 설명했다. 모티프는 이 모델을 계기로 온디바이스 AI와 에이전틱 AI 분야로 확장을 본격화한다. 경량화를 통해 슈퍼컴퓨터 없이도 구동이 가능해, 산업 현장에서의 적용성이 높기 때문이다. 또한 올해 말에는 텍스트 투 이미지(T2I), 텍스트 투 비디오(T2V)와 같은 멀티모달 생성형 AI 모델도 오픈소스로 공개할 계획이다. 이들 모델 역시 AMD 기반 인프라에서 학습 및 서비스가 가능하도록 설계되고 있다. 글로벌 빅테크와 경쟁하는 세 가지 기술 전략 임 대표는 글로벌 AI 빅테크의 성능 경쟁을 가능하게 한 강점으로 세 가지를 꼽았다. 먼저 프롬 스크래치(From scratch) 개발 경험이다. 처음부터라는 의미처럼 모델 구조부터 토크나이저, 학습 파이프라인까지 전 과정을 독자적으로 설계했다. 이러한 풀스택 설계 경험은 단순한 성능 개선을 넘어서 추후 온디바이스 AI, 에이전틱 기술 등 다양한 산업 현장 적용을 위한 최적화와 확장성의 기반이 된다. 또한 외부 의존 없이 독립적으로 고성능 AI를 구현할 수 있는 역량을 국내에서 입증했다는 점에서 한국 AI 기술 자립의 상징적인 사례로 주목받고 있다. 임정환 대표는 "많은 경우 메타의 라마의 등 오픈소스 모델을 기반으로 학습하거나 파인튜닝에 그치는데 진짜 기술력은 처음부터 끝까지 직접 만들어봐야 생긴다"며 "우리는 구조도 다르고 토크나이저도 따로 설계하는 등 모든 작업을 직접 수행하고 구현했다"고 자신감을 보였다. 오픈AI, 구글 등 글로벌 빅테크 기업들이 최근 AI 모델 구조와 학습 데이터를 비공개로 전환하는 흐름 속에서, 임 대표는 오픈소스 전략이 오히려 글로벌 경쟁력을 확보하는 핵심 요소가 될 수 있다고 강조했다. 특히 그는 "최근 몇 년간 전 세계 AI 연구 커뮤니티를 중심으로 모델 구조, 학습 데이터, 평가 지표 등이 오픈소스로 활발히 공유되며, 이제는 대규모 자본 없이도 경쟁력 있는 모델 개발이 가능한 시대가 됐다"고 설명했다. 이러한 개방형 생태계는 소규모 팀도 기술을 빠르게 내재화하고 실험하며 경쟁에 뛰어들 수 있는 토대를 제공하고 있다는 것이다. 임 대표는 "우리는 작은 팀이지만, 자체 설계와 오픈소스의 힘을 기반으로 글로벌 빅테크 모델과 성능 경쟁을 하고 있다”며 “모두가 같은 출발선에서 시작할 수 있는 시대, 중요한 건 내부 기술력과 집중력"이라고 말했다. 이어 "빅테크는 보유한 기술이나 데이터 유출을 우려해 점점 더 비공개로 전환하고 있다"며 "반면 우리는 오픈소스 생태계를 통해 다양한 기술과 데이터를 활용하고 이를 투명하게 공개하고 검증함으로써 충분히 경쟁할 수 있는 환경이 조성되고 있다"고 강조했다. 세번째는 하드웨어(HW)와 소프트웨어(SW)를 동시에 아우르는 기술력이다. 이를 통해 비용과 인프라 여건이 제한적인 환경에서도 고성능을 낼 수 있도록 모델을 구조적으로 최적화하는 것이 가능하다. 대표적으로 모티프 2.6B는 AMD의 MI250 GPU 단 한 장만으로도 추론이 가능하도록 설계한 것이 특징이다. 엔비디아 GPU 환경과 비교해도 약 60% 수준의 비용으로 학습 및 운영이 가능하다. 이러한 경량화 설계는 고성능 슈퍼컴퓨터 없이도 실사용 환경에서 AI를 적용할 수 있게 만들어준다. 실제로 해당 모델은 산업 현장, 온디바이스 AI, 에이전틱 기술 등 다양한 실용 영역에서의 확장 가능성을 지닌다. 임 대표는 "AI는 단순히 성능이 좋다고 끝이 아니라 한정된 하드웨어 자원에서 최적의 퍼포먼스를 낼 수 있어야 한다"며 "모든 서비스는 결국 현장에서 쓰여야 의미가 있는 만큼 우리는 실제 적용 가능한 AI를 만드는 데 집중하고 있으며 이를 위해 하드웨어 제약까지 고려한 전방위 최적화를 수행하고 있다"고 강조했다. 딥마인드도 수학에서 시작, 기초과학 생태계 구축 우선되야 임정환 대표는 "챗GPT가 막히면 아무것도 못하는 나라가 될 수도 있다는 위기의식이 있어야 한다"라며 한국 AI 생태계가 GPU, 인재, 데이터 등 인프라 측면에서 글로벌 대비 열세에 있다는 현실을 인정하면서도 그렇기 때문에 '자체 기술 확보'가 더욱 중요하다고 강조했다. 그는 단기적으로는 챗GPT 같은 외부 API를 활용하는 것이 빠르고 효율적일 수 있지만 외부 플랫폼 의존은 언제든 정책적, 보안적, 기술적 제약으로 이어질 수 있다는 점에서 장기적 관점에서 독립적인 기술 대안 확보가 필수라고 진단했다. 임 대표는 정부의 역할에 대해서도 "단기성 과제 중심의 R&D보다는, 기업이 장기 투자 결정을 내릴 수 있도록 제도적 유연성과 정책적 일관성을 마련해야 합니다"라고 조언했다. 그는 "기업 입장에서 예산보다 더 중요한 건 방향성"이라며 정부가 정말 AI에 진지하게 투자하려는 의지가 있다는 신호를 줄 수 있어야 한다"고 덧붙였다. 또한 미국, 일본처럼 민간 주도, 정부 후원 구조가 형성돼야 하며, 한국도 기초과학 투자, 오픈소스 생태계 조성, 인재 양성 등을 포함한 장기 비전 아래 생태계를 설계해야 한다고 제언했다. 특히 AI 기술의 근간이 되는 수학, 통계, 컴퓨터과학 등 기초과학 분야에 대한 국가적 관심과 장기적 투자 확대가 절실하다고 강조했다. 이를 위해 영국 유학 시절 경험을 바탕으로 AI열풍을 일으킨 딥마인드의 출발점 역시 기초과학 기반의 문제 해결 연구였다는 점을 예로 들었다. 그는 "딥마인드를 만든 초기 멤버들은 원래 신약 개발이나 뇌과학을 연구하던 과학자들"이라며로 "시작은 상용 AI가 아니 기초 수학과 과학 연구였다"고 말했다. 산업과 학문이 긴 호흡으로 연결돼야 한다는 점도 강조했다. 지금처럼 산업계는 결과물 중심, 학계는 논문 중심으로 따로 움직이는 구조로는 한국에서 딥마인드 같은 모델이 탄생하기 어렵다는 것이다. 임정환 대표는 "AI를 비롯한 모든 기술의 본질은 수학과 과학"이라며 "그 기반이 튼튼해야 진짜 경쟁력을 갖출 수 있다"고 말했다. 그는 "기업이 기초 수학이나 과학에 자연스럽게 투자할 수 있는 분위기를 정부가 조성해야 한다"며 "그래야 AI를 비롯한 다양한 기술을 주도할 수 있는 국가가 될 수 있을 것"이라고 비전을 제시했다.

2025.08.07 11:09남혁우 기자

자연어만으로 UI 설계부터 코딩까지… 토마토시스템 'AI젠' 출시

토마토시스템(대표 조길주)이 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼을 선보인다. 토마토시스템은 대규모 언어 모델(LLM) 기반 UI 자동화 플랫폼 '엑스빌더6 AI젠'(이하 AI젠)을 공식 출시했다고 17일 밝혔다. 이 플랫폼은 단순한 코드 생성 도구를 넘어, 기획부터 설계, 개발에 이르는 전체 과정을 자동화할 수 있는 지능형 협업 개발 플랫폼으로 평가받고 있다. AI젠은 사용자가 자연어로 입력한 문서, 회의 스케치, 이미지 등을 바탕으로 실시간으로 UI 화면을 설계하고 관련 소스코드까지 자동으로 생성하는 이클립스 기반 플러그인 도구다. 코딩 경험이 없는 비전문가도 손쉽게 UI를 구성할 수 있어 기존 개발 방식에서 발생하는 복잡한 커뮤니케이션 과정을 획기적으로 줄일 수 있다. 특히 AI젠은 요구사항에서 UI 설계, 코드 생성으로 이어지는 정방향 흐름과 이미지에서 UI 설계, 요구사항 도출로 이어지는 역방향 흐름을 모두 지원한다. 이를 통해 기업은 디지털 전환 속도를 크게 높일 수 있으며 인공지능 기반 모델 중심 아키텍처를 실제 개발 환경에 구현할 수 있다. 실시간 애니메이션 형태의 '목업 UI'를 통해 설계 결과를 직관적으로 확인하고 즉시 수정할 수 있어 개발 초기 단계에서의 의사결정 정확성과 속도 역시 크게 향상된다. 업계에서는 AI젠의 등장이 시스템통합(SI) 산업의 구조적 전환을 예고하는 신호탄으로 보고 있다. 기존의 인력 중심 개발 방식에서 벗어나 인공지능이 실질적인 개발을 주도하는 자동화 생태계로의 전환이 가속화되고 있기 때문이다. 실제로 AI젠은 요구사항 분석부터 코드 생성, 테스트, 오류 수정까지 자동으로 수행할 수 있는 기술적 완성도를 갖췄다. 토마토시스템은 AI젠을 통해 개발자의 역할을 전략적 설계 중심으로 전환하고, 개발 리스크를 최소화하는 동시에 생산성 극대화를 실현할 수 있다고 강조했다. 이는 기업의 IT 투자 효율성 향상은 물론, 디지털 전환 수요가 집중되고 있는 공공 및 대기업 시장에서의 경쟁력 확보로 이어질 것으로 전망된다. 조길주 토마토시스템 대표는 "AI젠은 사람 중심의 전통적 개발 방식에서 벗어나 인공지능과 협업하는 새로운 개발 패러다임을 제시한다"며 "기존 수개월이 소요되던 시스템 개발을 수일 내로 단축할 수 있어 기업의 디지털 전환 속도를 획기적으로 끌어올릴 수 있다"고 말했다. 토마토시스템은 AI젠 출시와 함께 온앤온정보시스템, 플로우컨트롤, 칠로엔, 메타빌드 등 인공지능 기술 선도 기업들과 업무협약(MOU)을 체결하고, 산업별 자동화 개발 사례 확보 및 공동 개발 환경 구축에 나섰다. AI젠은 다양한 범용 초거대 언어 모델은 물론, 설치형 모델과도 연동이 가능하며, 향후 산업군별 특화 기능을 지속적으로 확장해 나갈 계획이다.

2025.07.17 17:11남혁우 기자

[기고] 가장 쉽고 빠르게 AI 서비스를 구축하는 방법, 문서중앙화

최근 '소버린 AI'에 대한 기업·정부·언론의 관심이 급격히 높아지고 있다. 관심의 본질은 데이터 주권(Data Sovereignty)에 있다. 인공지능(AI)이 신뢰할 수 있는 결과를 내기 위해서는 반드시 기업 고유의 데이터, 더 나아가 자국 경계 안에 존재하는 데이터를 기반으로 작동해야 한다는 공감대가 형성된 것이다. 실제 레퍼런스 구현 방식으로는 검색증강생성(RAG) 아키텍처가 가장 많이 거론된다. 대규모언어모델(LLM)이 자체 지식을 최소화하고 사내 문서를 검색해 응답을 생성하기 때문에 데이터 주권·보안 요구에 부합하기 때문이다. 그러나 현장의 목소리는 "첫 단추부터 막힌다"는 데 모아진다. 핵심 병목은 데이터 품질 확보다. 가트너는 AI 도입 성공을 위해 지속적인 데이터 정렬, 검증, 그리고 거버넌스를 핵심 요소로 제시한다. 많은 기업이 그 중요성을 인지하고 있음에도 불구하고 실제 실행이 어려운 이유는, 데이터 관리 체계를 처음부터 새로 구축하고 정의하는 작업이 어렵고 복잡하기 때문이다. 이로 인해 데이터 품질이 낮아지면 AI 학습에 사용할 수 있는 데이터 양이 부족해지고, 권한 관리 미흡이나 기밀 정보의 노출 위험, 결과의 신뢰성 부족 등 다양한 운영 리스크로 이어질 수 있다. 그런데 이러한 관리 체계가 이미 최적화된 형태로 제공되는 플랫폼이 존재한다. 바로 문서중앙화 플랫폼이다. 이 플랫폼은 파일의 수집부터 폐기까지 원시 데이터를 체계적으로 저장·관리할 수 있다. 이 플랫폼은 기업들이 겪는 데이터 관리의 어려움을 대부분 해결할 수 있다. 분산되고 파편화된 파일을 중앙 집중식으로 저장하고, 개인 중심의 저장 방식을 업무 중심의 분류 체계로 전환하며, 소유권·권한 관리, 파일의 이력과 버전 관리, 보안 정책 적용 및 메타정보의 구성까지 통합적으로 관리한다. 기업내의 비정형 데이터의 통합 스토리지 역할을 하고, 이 데이터 관리 체계와 권한 체계는 그대로 생성형 AI의 데이터 파이프라인과 연계될 수 있다. 결과적으로 문서 중앙화 플랫폼을 통해 지식화된 데이터는 자연스럽게 AI 처리 흐름으로 연결되어 자동으로 처리되며, 문서의 구조와 의미, 유사성 파악과 함께 보안 기준이 통합적으로 적용된다. 이를 통해 기업은 정보와 관리의 사각지대를 제거하고, AI 기반 서비스 운영에 필요한 신뢰성과 관리 효율성을 동시에 확보할 수 있게 된다 문서중앙화 플랫폼과 RAGOps의 통합은 3가지 핵심적인 특징을 제공한다. 첫 번째 "문서중앙화가 전처리의 시작점이자 AI의 기반이 된다" AI 서비스를 도입할 때 별도의 데이터 체계를 새로 구축하기보다, 기존의 문서중앙화 시스템을 데이터 기반으로 삼고 그 위에 AI를 접목하는 것이 핵심 전략이다. RAG옵스(Ops) 플랫폼을 기반으로, 데이터 파이프라인 자동화, 자연어 기반 검색, 요약, 회의록 생성 등 다양한 AI 서비스를 제공하며, 기존 문서중앙화에 AI 기능이 더해져 업무 효율성과 서비스 확장성이 크게 향상된다. 두 번째 "일관된 메타정보 체계를 통해 운영 가능한 AI를 만든다" AI가 안정적으로 운영되기 위해서는 데이터 운영체계와 AI 운영체계가 일관된 관리 기준을 공유해야 한다. 비정형 데이터만으로는 한계가 있으며, 이를 보완하는 표준화된 메타정보 체계가 필수적이다. 문서중앙화 플랫폼과 RAG옵스와 메타체계를 공유하며, 비정형 문서와 함께 메타 정보도 자동 연동·관리된다. 또한, 문서 의미 정보와 함께 등급·분류·관리 속성 등 메타정보까지 벡터화하여 저장함으로써, 검색 정확도와 생성 응답의 신뢰성을 크게 향상시키고, 운영 가능한 실용 AI로 발전시킨다. 세 번째, "RAG옵스 플랫폼을 통해 지속적인 개선과 확장이 보장된다" 문서중앙화 플랫폼의 AI 서비스는 RAG옵스 기반의 자동화된 AI 파이프라인을 통해 지속적으로 개선된다. 데이터 수집부터 임베딩, 검색, 생성까지 전 과정이 최적화되어 데이터 품질 향상에 기여하며, 평가 모델과 피드백 루프를 통해 응답 품질도 지속적으로 향상된다. 이를 통해 문서 기반 AI 시스템은 지속적인 발전과 운영 확장이 가능한 구조를 제공한다. 문서중앙화 플랫폼과 RAG옵스 플랫폼의 결합은 기업이 AI 시대의 복잡한 데이터 과제를 해결하고, AI의 진정한 잠재력을 안전하고 효율적으로 실현할 수 있는 견고한 기반을 제공한다. 인젠트의 도큐먼트(document) 플랫폼과 RAG옵스 결합은 이를 입증한다. AI를 빠르고 안전하게, 그리고 지속적으로 확장하려는 기업에게 문서중앙화는 가장 효율적이고 전략적인 선택지다. 기존 문서 자산을 체계적으로 관리하고 AI와 자연스럽게 연계함으로써, 데이터 기반 AI 서비스의 구현을 빠르고 효과적으로 가능하게 한다. 특히 RAG옵스 기반의 지속적인 개선 체계를 통해 AI 품질까지도 함께 진화할 수 있다는 점에서, 가장 실용적이고 전략적인 AI 도입 방식이라 할 수 있다.

2025.07.09 13:51박정권 컬럼니스트

이스트소프트, AI 휴먼 키오스크 사업 시동…자체 LLM 첫 상용화

이스트소프트(대표 정상원)가 자체 개발한 경량 대규모언어모델(LLM) '앨런'을 앞세워 온디바이스 AI 시장 공략에 본격 나선다. 이스트소프트는 이큐비알과 대화형 AI 휴먼 솔루션 'AI 라이브 챗' 공급 계약을 체결했다고 19일 밝혔다. 이 계약을 통해 양사는 온디바이스 AI 키오스크 시장 공략에 본격 나선다. 이번 계약은 이스트소프트기 '앨런 LLM'과 AI 휴먼 기술을 기반으로 한 온디바이스 소프트웨어 개발 키트(Full On-Device SDK)를 이큐비알에 공급하는 내용이다. 이를 통해 양사는 온디바이스 AI 휴먼 키오스크를 빠른 시일 내에 제품화하고, 초도 물량 20억원 규모를 시작으로 순차적 유통에 돌입한다. 이스트소프트는 키오스크에 탑재되는 AI 라이브 챗이 독립 환경에서 구동돼 ▲높은 보안성 ▲지연시간 최소화 ▲클라우드 인프라 비용 절감 등의 장점을 제공한다고 설명했다. 여기에 검색 기반 생성형 AI(RAG), 음성합성(TTS), AI 휴먼 인터페이스 등 온디바이스 최적화를 위한 기술 고도화를 지속 추진하고 있다. 이큐비알은 금융권 SI 사업에서 쌓은 구축·유통·운영 노하우를 기반으로 키오스크 현장 설치와 유지보수까지 전반을 담당하게 된다. 양사는 기술-사업 연계 모델을 통해 온디바이스 기반 LLM 서비스의 상용화 속도를 높이겠다는 계획이다. 이스트소프트는 이번 계약을 통해 자체 개발한 앨런 LLM을 처음으로 상업 공급하게 됐으며, 이를 기점으로 에이전트 AI 구축 사업과 LLM 플랫폼 확장에 속도를 낼 방침이다. 하반기에는 LLM 기반 온디바이스 솔루션 사업을 주력으로 추진한다. 정상원 이스트소프트 대표는 "이번 계약은 자체 LLM 기술을 온디바이스 환경에 상용화한 상징적인 첫 사례"라며 "AI 라이브 챗을 포함한 다양한 솔루션을 통해 온디바이스 AI 생태계를 선도하고, LLM 기반 사업의 본격 성장을 이끌겠다"고 강조했다. 향후 양사는 공공, 의료, 유통, 관광 등 다양한 분야로 온디바이스 AI 키오스크 사업을 확대하고, 베리어프리 키오스크 도입 의무화에 선제 대응할 계획이다.

2025.06.19 09:43남혁우 기자

LG CNS "금융 특화 LLM 평가 도구, AI 도입 기준점 될 것"

금융권에서도 생성형 AI에 대한 관심이 높아지고 있지만, 보안과 정확성 문제로 인해 실제 도입은 쉽지 않다. LG CNS는 이런 현실적인 장벽을 해결하기 위해, 금융 업무에 특화된 대규모언어모델(LLM) 평가 도구를 자체 개발했다. AI를 실제로 도입할 수 있는지 여부를 객관적으로 판단할 수 있도록 설계돼, 금융 현장에서의 신뢰성과 실용성을 함께 고려한 것이 특징이다. 이 도구는 LG CNS가 미리 구축한 금융 특화 데이터셋을 바탕으로 시중에 공개된 수십 개의 개방형 LLM(Open-source LLM)을 평가하고 비교해 뱅킹, 보험, 증권 등 다양한 금융 업무 환경에 가장 적합한 모델을 추천한다. "도입보다 신뢰가 우선"… 금융에 맞춘 자체 평가 도구 3일 서울 마곡 LG CNS 사옥에서 만난 AI센터 어드밴스드 생성형AI 연구소의 황윤구 팀장은 "금융은 보안과 규제가 모두 중요한 환경이라 일반 AI처럼 쉽게 적용하기 어려운면이 있다"며 "만약 이자율을 잘못 알려주거나 금융용어를 잘못 해석하는 순간 그 피해가 치명적일 수 있다"라고 설명했다. 그는 이어 "그래서 우리는 AI를 '신뢰하고 도입할 수 있는가'를 판단할 수 있는 기준이 먼저 필요하다고 봤다"고 강조했다. 이러한 문제의식은 실제 프로젝트 경험에서 출발했다. LG CNS는 다양한 금융사와의 시스템 통합(SI) 프로젝트에서 AI 도입이 실패하거나 지연되는 사례를 반복적으로 목격했고, 이를 해결하기 위한 방법론을 내부에서 구축하기로 한 것이다. 황 팀장은 "우리가 직접 부딪히며 실패하고 배운 것들을 하나씩 정리해간 결과물이 바로 이번 평가 도구"라고 설명했다. 평가 도구는 총 29개 세부 테스크로 구성돼 있으며, 약 1천200개의 비공개 질문·지문 데이터셋을 기반으로 운영된다. 외부에 공개된 수능형 문제처럼 명확한 정답이 있는 문항도 있고, '모른다'라고 답하는 것이 오히려 정답이 되는 문항도 포함돼 있다. 공개된 리더보드는 학습·평가용 데이터가 외부에 노출돼 있어, 모델이 문제 유형을 암기해 정답률을 높이는 방식으로 성능이 과장될 수 있기 때문이다. 황윤구 팀장은 "벤치마크 데이터를 공개하는 순간, 고도화된 LLM은 문제 유형을 학습해 정답률을 인위적으로 끌어올릴 수 있다"며 "이 경우 실제 역량과 상관없이 높은 점수를 받을 수 있기 때문에, 평가의 객관성이 훼손될 우려가 있다"라고 설명했다. 정량적 평가지표도 체계적으로 설계돼 있다. LG CNS는 ▲정답 유사도 ▲지문 기반 내용 일치도 ▲지시 수행 정확도 등 세 가지 기준을 종합해 점수를 산정하며, 평가 결과는 단순 스코어가 아닌 실무 도입 가능성을 가늠하는 기준으로 사용된다. 또한 금융 도메인 지식과 문맥 이해도를 평가하기 위해, 질문에 포함된 용어와 문장의 배경 의미를 얼마나 정확히 해석했는지도 주요 요소로 반영된다. 이민영 선임은 "단순히 질문에 대답하는 것이 아니라, 오히려 '대답하지 않는 게 맞는 상황'에서 어떤 선택을 하는지가 금융에서는 더 중요하다"며 "그런 정교한 평가 항목이 저희 도구의 특징"이라고 설명했다. 모델별 성능 비교…"GPT·클로드 상위, 딥시크는 예상보다 낮아" 모델별 성능 비교도 진행됐다. GPT-4, 클로드 등 상용 API 모델이 평가에서 가장 높은 성능을 보이는 것으로 나타났다. 다만 퍼블릭 클라우드만 지원하는 만큼 금융사 등에서 적극적으로 활용하기엔 한계가 있다는 지적이 있었다. 최근 주목받는 오픈소스 LLM인 딥시크(DeepSeek)는 평가에서 대부분 낮은 점수를 기록했다. 황윤구 팀장은 "딥시크는 성능뿐 아니라 학습 데이터의 출처와 개인정보 이슈 등 여러 면에서 금융사 입장에서 채택하기 어려웠다"며 "특히 컴플라이언스 관점에서 리스크가 큰 것으로 나타났습니다"라고 밝혔다. 반면 LG 그룹의 자체 LLM인 엑사원(Exaone)은 상대적으로 높은 평가를 받았다. 이민영 선임은 "질문과 관련 없는 내용이 지문에 섞여 있어도, 질문에만 집중해 정확하게 응답하는 능력이 뛰어났다"며 "특히 다양한 정보가 뒤섞인 긴 지문에서도 흔들리지 않고 핵심을 잘 잡는 모습을 보였다"며 대화형 AI에 높은 성능을 제공한다고 설명했다. 또한 이번 평가 도구의 평가 테스크는 고정된 항목이 아니라 고객사 니즈나 기술 트렌드에 따라 지속적으로 업데이트된다. 생성형AI 연구소는 올해 이 평가 도구를 실제 금융 현장에 적용해 활용 사례를 축적하는 데 집중하고 있다. 이민영 선임은 "지난해에는 평가도구를 만드는 것 자체가 목표였다면 올해는 이 도구를 적용해 실제 금융 AI 평가 로그를 얼마나 확보하는지가 주요 실행 과제"라며 "이제는 실적 기반으로 이 툴이 얼마나 많이 쓰이느냐가 핵심이 될 것"이라고 밝혔다. LG CNS는 계열사를 중심으로 엑사원 테스트를 완료했으며, 일부 금융사들과도 PoC 형태로 적용 가능성을 검토 중이다. 다만 보안 및 계약 이슈로 인해 외부 공개는 제한적이다. 금융 넘어 공공·제조 확산 목표 LG CNS는 향후 공공 문서나 제조 환경처럼 금융과 유사한 폐쇄형·도메인 특화 환경으로의 확장도 고려하고 있다. 이민영 선임은 "공공기관 보도자료나 행정문서는 형식이 딱 정해져 있는 만큼, 우리의 금융 평가 프레임워크를 확장하면 충분히 적용 가능할 거라 예상한다"라고 말했다. 황윤구 팀장은 "금융처럼 민감한 환경에서는 '잘 쓴다'보다 '믿고 쓸 수 있는가'가 더 중요하다"며 "우리는 먼저 금융환경에 적합한 기준을 세운 후, 직접 사용해보고 끊임없이 개선해가고 있다"고 말했다. 이어 그는 "AI 기술의 발전도 중요하지만, 결국 기업이 그것을 신뢰하고 안심하고 쓸 수 있는 '기준선'을 만드는 것이 더 본질적"이라며 "LG CNS가 만든 이 평가 도구가 금융권의 AI 도입을 앞당기고 다양한 선업에서 적용 가능한 신뢰의 기준의 '눈금자'가 되기를 기대한다"라며 포부를 밝혔다.

2025.04.03 11:02남혁우 기자

타이핑 없이 느낌으로 코딩하는 시대…'바이브코딩'오나

인공지능(AI) 기술 급격한 발전으로 소프트웨어(SW) 개발 방식에 큰 변화가 있을 것이란 전망이 제기되고 있다. 특히 기존의 수작업 중심 개발 방식에 근본적인 변화를 예고하며 AI가 대신 코딩하는 형태의 개발 문화가 자리잡을 것이란 예상이다. 대표적으로 최근 전 테슬라 AI 디렉터이자 오픈AI 공동 창립자인 안드레 카파시(Andrej Karpathy)는 '바이브코딩(Vibe Coding)'이라는 개념을 SNS를 통해 제시했다. 그는 "최근 내가 '바이브 코딩이라고 부르는 새로운 종류의 코딩이 있다"며 "이 방식은 그저 바이브에 완전히 몸을 맡기고 지수적 변화를 받아들이며 코드가 존재한다는 사실조차 잊는다"고 바이브코딩을 설명했다. 이어 "이러한 개발이 가능한 이유는 LLM의 기능이 너무 좋아졌기 때문"이라고 밝혔다. 그는 실제로 코드 편집기인 커서 컴포저(Cursor Composer), LLM 소넷(Sonnet), 음성 명령 도구 슈퍼위스퍼(SuperWhisper) 등을 AI기반 도구를 활용해 키보드를 거의 사용하지 않고 프로젝트를 진행하고 있다고 밝혔다. 예를 들어 UI 스타일 변경, 버그 수정, 레이아웃 조정 등의 요청을 모두 음성이나 자연어로 입력하는 것 만으로 AI가 이를 인식하고 자동으로 작성한다. 안드레 카파시는 코드 리뷰나 디버깅도 AI에 맡기고 있다고 설명했다. 에러 메시지를 복사해 붙여넣기만 해도 대부분 문제가 해결되며, 코드 변경 내용은 별도 검토 없이 전부 수락하는 방식으로 작업한다. 그는 이러한 흐름을 '더 이상 코딩이라 부를 수 없는 새로운 제작 방식'이라고 표현했다. 안드레 카파시 외에도 실리콘밸리의 스타트업에서 상당수 AI를 활용한 개발이 가속화되고 있는 추세다. 미국 최대 스타트업 액셀러레이터인 와이컴비네이터의 개리 탄 최고경영자는 "포트폴리오 스타트업 중 25%가 전체 코드의 95%를 AI에 의존하고 있다"고 밝힌바 있다. 그는 LLM 기반 개발 도구를 활용하면 소규모 인력으로도 대규모 제품을 빠르게 출시할 수 있으며, 코드 품질 역시 일정 수준 이상을 유지할 수 있다고 설명한다. 더불어 비개발자인 실무자도 직접 앱을 개발하고 운영하는 만큼 속도가 중요한 스타트업의 경쟁력을 높일 수 있다는 것도 장점으로 꼽았다. 비개발자나 초급 개발자도 프로토타이핑 수준의 기능을 빠르게 구현할 수 있어 스타트업과 소규모 팀에 적합하다는 의견이 제시된다. 프로덕트 매니저, 디자이너 등의 직군에서도 AI 기반 개발 도구를 도입하는 사례가 늘고 있다. AI의 개입이 코드 작성 전반을 대체하면서 개발자의 역할도 재정의되고 있다. 코드를 잘 작성하는 능력은 점차 AI로 대체되고 있으며 대신 AI의 효율적 활용, 명확한 설계 지시 능력, 비즈니스 요구사항과 다양한 기술 간 조합 능력이 새로운 핵심 역량으로 부상하고 있다. 안드레 카파시의 바이브코딩에 대해선 아직 긍정과 우려가 교차한다. 생산성과 접근성을 높였다는 평가가 있는 반면, 코드 품질 저하와 기술 부채 누적에 대한 경계도 커지고 있다. 특히 AI가 생성한 코드를 사용자가 충분히 이해하지 못한 채 적용할 경우 보안 취약점이나 논리 오류가 발생할 수 있다. 복잡한 시스템에서는 장기적인 유지보수가 어려워질 수 있다는 지적도 제기된다. 안드레 카파시 역시 바이브코딩이 주말에 만들고 테스트하는 프로젝트용으로 바이브코딩이 적합하며 진짜 코딩은 아니라고 언급했다. 간단한 서비스나 데모 개발 등에는 효과적이지만 정교한 인프라나 실시간 시스템 개발에는 여전히 한계가 있다는 것이다. 더불어 그는 일부 버그의 경우 AI가 해결하지 못해 반복적인 요청이나 질문을 우회해야 했다고 밝혔다. 파이썬 웹 프레임워크 장고(Django)의 공동 창시자인 사이먼 윌리슨도 "LLM은 강력한 보조 도구이지만, 코드에 대한 이해와 검토 과정을 생략해서는 안 된다"며 과도한 AI 의존에 대해 경고했다. 이러한 우려에도 불구하고 AI를 중심에 둔 개발 방식은 빠르게 하나의 흐름으로 자리잡고 있다. 구글, 마이크로소프트, 아마존 등 주요 빅테크는 코파일럿, 제미나이 코드 어시스트, Q디벨로퍼 등 자체 개발한 LLM 기반 개발 도구를 선보이고 있다. AI 기반 개발은 아직 실험과 실전 단계의 경계에 놓여 있다. 그러나 LLM이 생성하는 코드 품질이 빠르게 개선되며 일부 분야에서는 코드를 쓰지 않고 개발이 가능할 것이란 예측이 강세를 보이고 있다. 베타랩스 데니스김 CEO는 "바이브코딩은 아직 초기 개념이지만 직관과 감성, 협업의 시대로 전환하는 디딤돌이 될 수 있다"며 "이제 우리는 AI와 코드를 함께 느끼는 시대로 향하고 있는지도 모른다"고 말했다.

2025.03.30 09:11남혁우 기자

코난테크놀로지, 의료분야 국내 첫 LLM 기반 진료 플랫폼 개발

코난테크놀로지(대표 김영섬)가 생성형인공지능(AI) 기술을 기반으로 의료 분야에 특화된 대규모언어모델(LLM)을 선보인다. 코난테크놀로지는 한림대학교 의료원과 '생성형AI기반 입원환자 전주기 기록지 작성 및 의료원 지식상담 플랫폼 구축' 사업을 계약했다고 5일 밝혔다. 이 사업은 한림대학교의료원과 협력하여 국내 의료 분야에 특화된 생성형 AI 플랫폼을 개발하고 적용하는 것을 목표로 하며, 양 기관은 오는 7월까지 의료 AI 솔루션 공동 개발에 나서게 된다. 입원환자 전주기 의무기록은 접수부터 진료, 검사, 경과 기록, 퇴원까지 모든 과정을 아우르는 통합 기록 시스템으로, 의료 기록 전 과정에 LLM 기술을 적용하는 사례는 국내 최초다. 이에 따라 의무기록 작성에 소요되는 시간이 연간 최대 절반까지 단축될 것으로 예상되며, 실시간 데이터 분석과 함께 입력 오류도 줄어들어 의료기록의 정확성이 한층 높아질 전망이다. 생성형 AI가 의료 현장에 도입되면, 환자 관리와 케어에 더 많은 시간을 할애할 수 있는 환경이 조성되어 궁극적으로 의료 서비스의 품질 향상으로 이어질 것으로 기대된다. 양 기관은 의료 기록 시스템 외에도 검색 증강 생성(RAG) 기술을 활용한 지식 상담 플랫폼을 개발해 의료진과 교직원의 실시간 정보 검색과 상담을 지원할 계획이다. 윤리적 AI 설계와 안전 필터링으로 정보 신뢰성을 강화하며, AI 오남용 방지를 위한 대응 시스템도 구축한다. 김규훈 코난테크놀로지 사업부장은 "생성형 AI 기술을 적용해 병원 행정과 진료 과정에서 업무를 효율화하려는 시도가 늘어나는 만큼, 의무기록 작성 AI 서비스를 시작으로 의료 AI 시장의 수요에 민첩하게 대응하며 관련 모델 고도화와 제품화를 이어가겠다"고 포부를 전했다. 한림대학교의료원은 초기 개념검증(PoC) 단계부터 서비스 기획, 의료진 인터뷰, 방향성 도출까지 사업의 주요 과정을 주도적으로 이끌었다. 코난테크놀로지는 한림대학교의료원이 제공한 실무적 통찰과 피드백, 그리고 의료 AI의 특수성을 반영한 철저한 검증을 기반으로 안전하고 신뢰성 높은 의료 AI 솔루션을 고도화 해나갈 예정이다.

2025.02.05 16:46남혁우 기자

의료분야에 대규모언어모델 적용시 보안침해 공격 성공률 81%

서울아산병원 연구팀, 개인정보유출 위험성 분석 대규모언어모델이 답변 생성 과정에서 학습된 원본 데이터 노출 가능성도 22% 최근 챗GPT와 같은 생성형 인공지능과 그 핵심 기술인 대규모언어모델(Large Language Model, LLM)을 접목한 디지털 혁신에 의료분야에서도 주목하고 있다. 하지만 환자의 개인정보보호가 특히 중요한 의료분야의 경우 대규모언어모델 사용에 따른 개인정보유출 등 보안에 대한 우려도 제기되고 있다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀이 대규모언어모델을 의료분야에 적용하는 과정에서 발생할 수 있는 개인정보유출 문제를 확인하기 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 공격 성공률을 보였다는 연구 결과를 발표했다. 연구팀은 의료분야에서는 민감한 개인정보를 다루기 때문에 대규모언어모델 도입에 신중하고 각별한 주의가 필요하고, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다고 강조했다. 이번 연구 결과는 전 세계 의사들의 임상치료 교과서로 불리는 NEJM(New England Journal of Medicine)의 자매지인 'NEJM AI'에 최근 게재됐다. 의료계에서 인공지능의 중요성이 점점 확대됨에 따라, 임상의학 분야 세계 최고 권위지로 꼽히는 NEJM에서도 지난해 1월부터 인공지능 분야만을 특화해 다루는 자매지를 출간한 것이다. 대규모언어모델은 수십억개 이상의 매개변수를 기반으로 대량의 데이터를 학습해 사람처럼 생각하고 답변하는 인공지능 모델이다. 이는 챗GPT, 제미나이(Gemini)와 같은 생성형 인공지능이 작동하는 핵심기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모언어모델이 이를 이해하고 적합한 답변을 제공한다. 의료분야에 대규모언어모델을 적용하면 엑스레이‧CT‧MRI 등의 검사 이미지를 다량의 데이터 기반으로 분석해 진단의 정확도를 높일 수 있고, 환자의 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다. 뿐만 아니라 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대되고 있다. 문제는 대규모언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보 유출로 이어저 윤리적‧법적 위험성이 초래될 수 있다는 점이다. 서울아산병원 심장내과 김영학 교수·아산생명과학연구원 빅데이터연구센터 전태준 박사팀은 2017년 1월부터 2021년 12월까지 환자 2만6천434명의 의무기록을 활용해 대규모언어모델을 학습시켰다. 악성 공격은 대규모언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다. 이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB)의 심의를 거쳐 진행됐다. 먼저 문자를 인코딩하는 방식인 ASCⅡ(미국정보교환표준코드) 방식으로 프롬프트를 변형한 결과, 대규모언어모델의 보안장치를 피해 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 80.8%에 달하는 확률로 보안 조치가 쉽게 침해될 수 있다는 뜻이다. 또한 대규모언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 모델에 질문하는 형식을 미세하게 조정함으로써 원본 학습 데이터가 쉽게 노출될 수 있다는 것이다. 구체적인 예시로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정한 결과, 대규모언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진의 이름이나 전문 분야 등 구체적인 정보가 노출됐다. 김영학 서울아산병원 심장내과 교수는 “의료분야에서 대규모언어모델을 활용했을 때 기대되는 발전이 크지만, 데이터 보안 강화 없이는 심각한 개인정보유출로 이어질 수 있다”며 “민감한 개인정보를 다루는 분야인 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 말했다.

2025.01.12 09:00조민규 기자

[기고] 산업 경계를 넘어서는 AI 혁신, 최적의 인프라에서 시작된다

비즈니스 환경이 급속도로 진화하면서 기업들은 끊임없이 생산성 향상과 데이터 활용, 사용자 경험 개선을 추구하고 있다. 이러한 변화 속에서 인공지능(AI)은 기업들의 핵심 과제를 해결할 강력한 도구로 주목받고, 많은 기업은 AI 도입을 통해 경쟁력을 강화하려 노력하고 있다. 산업별 AI 활용 현황과 전망 다양한 산업 분야에서 AI는 혁신적인 변화를 이끌고 있다. 유통 업계에서는 AI 기반 분석을 통해 재고 관리를 최적화하고 개인화된 고객 서비스를 제공하면서 매출 증대와 고객 만족도 향상을 동시에 달성하고 있다. AI는 고객의 구매 패턴을 분석해 최적의 재고 수준을 유지하고 각 고객에게 맞춤형 상품을 추천함으로써 구매 전환율을 높이는 데 기여한다. 의료 분야에서는 예측 분석과 머신러닝을 활용해 진단 정확도를 높이고 환자 치료 결과를 개선하고 있다. AI 알고리즘은 의료 영상을 분석해 초기 단계의 질병을 발견하고 환자의 의료 기록을 바탕으로 최적의 치료 방법을 제시한다. 이를 통해 의료진은 더 정확하고 효율적인 의사결정을 내릴 수 있다. 금융권에서는 대규모 언어 모델(LLM)을 도입해 실시간 금융 사기 탐지와 자동화된 거래 전략을 구현하고 있다. AI는 수많은 거래 데이터를 실시간으로 분석해 이상 거래를 감지하고 시장 동향을 예측해 최적의 투자 전략 수립을 지원한다. 제조업에서는 AI 기반 예측 유지보수로 설비 다운타임을 최소화하고 생산 효율을 높이고 있다. 센서에서 수집된 데이터를 AI가 실시간으로 분석해 설비 고장을 사전에 예측하고, 최적의 유지보수 시점을 제시함으로써 생산 중단을 방지한다. 이는 생산성 향상과 비용 절감으로 이어진다. AI 워크로드의 특성과 인프라 요구사항 AI 워크로드는 모델 학습과 실행, 유지관리에 있어 특별한 요구사항을 가진다. 예측 분석, 자연어 처리, 이상 징후 감지, 이미지 인식, 추천 시스템 등 각각의 워크로드는 고성능 컴퓨팅 자원과 대용량 스토리지가 필요하다. 특히 딥러닝 모델은 수십에서 수천억 개의 파라미터를 처리해야 해 강력한 GPU 성능이 요구된다. AI 인프라의 핵심 요소는 강력한 컴퓨팅 성능이다. GPU와 같은 가속기는 복잡한 연산을 병렬로 처리해 AI 모델의 학습 및 추론 속도를 크게 향상시킨다. 또한 지속적으로 증가하는 데이터 규모에 맞춰 스토리지 시스템은 높은 확장성과 처리 성능을 갖춰야 한다. 네트워크 인프라도 중요한 요소다. AI 워크로드는 대량의 데이터를 빠르게 이동시켜야 해 고속 네트워크가 필수다. 실시간 처리가 필요한 애플리케이션의 경우 낮은 지연시간이 매우 중요하다. 보안 역시 간과할 수 없다. AI 시스템은 데이터 보호와 규정 준수를 위한 강력한 보안 기능을 제공해야 한다. AI 도입의 현주소와 미래 전망 2023년 맥킨지 설문조사에 따르면 66%의 조직이 AI를 도입하는 탐색 또는 파일럿 단계에 있는 것으로 나타났다. 이는 AI 도입에 여전히 많은 과제가 있음을 시사한다. 하지만 AI 시장은 2027년까지 1천510억 달러 규모로 성장이 예측되며 기업들의 AI 투자도 꾸준히 증가할 것이다. AI 도입의 성공을 위해서는 명확한 전략과 로드맵이 필요하다. 기업은 자사의 비즈니스 목표와 환경에 맞는 AI 활용 사례를 발굴하고 이를 단계적으로 구현해 나가야 한다. AI 시스템의 구축과 운영을 위한 전문 인력 확보와 교육도 중요하다. HS효성인포메이션시스템은 고성능 컴퓨팅과 AI 워크로드를 위한 통합 AI 플랫폼을 제시하고 있다. 검증된 레퍼런스 아키텍처를 기반으로 데이터센터 AI 인프라의 설계, 배포, 관리를 획기적으로 단순화하고, AI 소프트웨어부터 GPU 서버, 네트워킹, 스토리지에 이르는 모든 구성 요소를 단일 벤더를 통해 제공한다. 현재 가장 많이 도입되고 있는 H100 GPU의 경우 최대 128개 노드까지 확장 가능한 최고 성능의 AI 개발 환경을 지원한다. NVMe 플래시 기반의 고성능 스토리지 시스템은 대규모 AI 워크로드를 효율적으로 처리한다. AI는 기업의 디지털 혁신을 이끄는 핵심 동력이다. 성공적인 AI 도입을 위해서는 적절한 인프라 구축과 함께 명확한 활용 전략이 필요하다. 기업들은 자사 비즈니스 환경과 목표에 맞는 AI 솔루션을 선택하고 이를 효과적으로 구현할 수 있는 파트너십을 구축해야 한다. AI의 잠재력을 최대한 활용하기 위해서는 기술적 준비와 함께 조직의 문화와 프로세스도 함께 변화해야 한다. 이러한 종합적인 접근을 통해 기업은 AI를 통한 진정한 디지털 혁신을 이룰 수 있다.

2025.01.10 23:26정문종 컬럼니스트

  Prev 1 Next  

지금 뜨는 기사

이시각 헤드라인

점유율 2% 다음의 반격...업스테이지가 그리는 차세대 AI 포털

[르포] "위험작업 버튼 하나로"…KIRO서 본 '현장형 로봇'

쿠팡 사태에 美 상장 노린 기업들 '전전긍긍'

'몰트북' 나비효과?…韓 상륙한 AI들의 수다

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.