• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'승진'통합검색 결과 입니다. (24건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[황승진의 AI칼럼] 기계가 말하는 시대···모든 기계에 챗봇 포함될 것

인간의 '말'에는 '뜻(semantic)'과 '소리(phonetic)'가 같이 들어 있다. 뜻은 텍스트로 전환할 수 있고 소리는 음파로 표현된다. 거대언어모델(LLM)은 뜻과 소리를 분리 처리한다. 먼저 '뜻' 처리를 보자. 글이나 이미지처럼 음성인식 또한 임베딩과 트랜스포머 기술을 통해 구현할 수 있다. 음성-to-텍스트를 생각해보자. 오디오 신호는 글처럼 시리즈로 나오나, 글과는 달리, 띄지 않고 붙어 나온다. 즉, I like an apple이라는 글이 소리로는 Ilikeanapple로 들린다. 인간은 이를 듣고 음소(phoneme), 음절(syllable), 그리고 단어를 차례로 잘라서 추출하고 결국 문장을 재구성한다. 반면 기계는 주파수와 진폭으로 구성된 음파 만을 보고 같은 결과를 얻어야 한다. 이를 위해 먼저 음파를 25ms 정도로 토막을 내어 각 토막의 아날로그 특성을 MFCC라는 방법으로 벡터 수치화한다. 이 벡터를 Whisper, Chirp나 Wav2Vec 같은 특수 신경망에 입력해 말의 최소 단위인 음소를 추정한다. 이 음소가 토큰이 돼 임베딩을 만든다. 임베딩을 트랜스포머로 처리한 후 텍스트를 추출한다. 일단 텍스트 세계에 들어오면, 수많은 '의미상의 작업'이 가능하다. '의미상 작업'에는 번역, 요약, 의문형, 부정형, 대답 등 LLM의 모든 특기가 포함된다 AI는 '소리'도 처리 조작할 수 있다. 목소리를 인식하고 생성할 수 있다. 또한, 변형을 통해 음색, 억양, 말 속도, 소리 크기, 음질을 바꿀 수 있다. 음성 '클로닝”이라 부른다. 친숙한 목소리로 “엄마, 나야,” 로 시작되는 전화 통화는 피싱일 수 있다. 목소리를 복제하려면 3초 분량의 목소리만 있으면 된다. 미국 정부는 알 수 없는 발신자로부터 전화를 받으면 먼저 말하지 말라고 조언한다. 사기꾼들이 내 목소리를 녹음해 악용할 수 있기 때문이다. 이렇게, AI는 '말'의 '소리'와 '뜻' 두 속성을 각각 디지털화해서 완전 정복했다. 음성 기반 응용의 인기있는 공식은, 음성-to-텍스트, 텍스트-to-텍스트, 그리고 텍스트-to-음성을 연속으로 쓰는 것이다. 그 과정에서 어느 단계가 생략되기도 하고, 또 음성-to-음성(통역)이 첨가되기도 한다. 내과의사 김 박사는 환자와의 상담에 대부분의 근무 시간을 할애한다. 50분간의 상담 후, 대화를 요약해 기록으로 보관한다. 이 작업에 약 10분 정도 소비한다. 이제 AI가 도울 수 있다. AI 어시스턴트가 대화를 듣고 내용을 요약한다. 음성-to-텍스트 기능을 적용한 후, LLM은 이 텍스트를 쉽게 요약한다. 김 박사는 이를 검토하고 필요한 경우 수정한다. 비슷한 예로 콜센터의 '상담원 보조 프로그램'을 보자. 외부 고객이 전화로 질문을 할 경우 이 프로그램은 대화를 듣고 있다가 상담원에게 도움이 되는 말을 상담원의 컴퓨터 화면에 보여주는 것이다. 일종의 '컨닝 페이퍼(영어로는 cheatsheet)'가 된다. 언젠가 이 보조원이 상담원이 될 것이다. 또한 콜센터 대화는 밤마다 요약되어 고객의 관심사항과 제품의 문제점을 통계로 보여준다. 전통적으로 공장 자동화는 '센서'와 전기 신호로 변환해 통신했다. LLM은 '시각과 소리'를 센서 중개 없이 직접 처리한다. 조립공장에서 “전 단계에서 25번 나사가 빠졌네요”라는 말을 들을 수 있다. 또한 중장비 환경에서 치명적인 사고를 방지하기 위해 모든 기계는 사람이 "멈춰"라고 외칠 때 실행하도록 훈련돼야 한다. 이는 사람들의 생명을 구할 수 있다. 결국 모든 기계 안에 가벼운 챗봇이 포함될 것이다. 한 여름에 에어컨이 잘 작동하지 않을 때, 직접 기계에게 물어보면 된다. 또 음성을 암호로 사용해 문이나 컴퓨터의 잠금을 해제할 수 있다. 예로, 집주인이 “열려라, 참깨!”라고 말하면, 대문이 주인 목소리를 알아채고 진짜 열린다. 언젠가 우리집 개나 고양이도 혼자서 들락날락할 수 있을 것이다. 끝으로, 장애인은 음성 제어를 사용해 엑셀에 작업할 수 있다. “두 칸 아래, 한 칸 오른쪽으로 움직여. 그리고, '전기료'라고 써.” 애플(Apple) 시리(Siri)나 아마존 알렉사(Amazon Alexa) 같은 음성 기반의 가상비서를 생각해본다. 기계가 일단 말을 텍스트로 옮기기만 하면, 나머지는 LLM 고유의 텍스트 처리 능력으로 텍스트로 답을 내고, 이를 음성으로 옮겨 대답한다. 같은 원리를 기계 번역에도 적용할 수 있다. 국제 컨퍼런스에서 영어로 한 연설을 100개의 언어로 동시 통역할 수 있다. 사용자는 이어폰의 채널을 원하는 언어에 맞추면 된다. 그리고, 유튜브의 경우 '자동 캡션'은 위와 같은 음성모델을 사용해 말을 텍스트로 게시한다. 거기에 '자동 번역'(Auto-translate)을 선택하면 다른 언어로 번역된 글이 나온다. 이렇게 기계가 인간의 말을 가지고 논다. 흥미롭게도, 현대자동차는 AI가 자동차의 작동 소리를 듣고 문제의 원인을 찾을 수 있는 기능을 개발했다고 한다. 예를 들어, “쉿” 하는 소리가 나면 냉각수 누출을 나타낼 수 있다. “끼익” 소리라면 벨트 교체가 필요할 수 있다. 결국에는 소리내는 자동차는 자기 소리에 대해 설명까지 할 것이다. “주인 어른, 내가 이렇게 쿵쿵거리는 소리를 내는 것은 믹서가 잘 못 되었거나, 스파크 플러그가 손상되었을 수 있어요.” 만약 먼 조상이 지금 우리를 방문한다면, 인간이 전화기, 자동차, 에어컨, 공장 기계와 말을 주고받는 '이상한 나라'라고 여길 것이다.

2025.05.10 08:51황승진

[황승진의 AI칼럼] 강화학습과 최적화

독자들은 기계학습(ML, Machine Learnling)은 똑똑하지만 똑똑함의 정점인 '최적화(optimization)'는 할 줄 모른다고 생각할 것이다. 그러나 사실은 그렇지 않다. '강화학습 (RL, Reinforcement Learning)'이라고 하는 다른 종류의 ML을 사용해 최적화를 할 수 있다. 데이터를 통해 최적화가 이루어지기 때문에 ML의 한 분야이다. 강화학습은 심층학습(DL)과는 달리 '신경망'을 쓰지 않고, 성룡처럼 '테이블'을 쓴다. RL은 “이 상황에서는 저 행동을 취하라”는 최적의 '정책(policy)'을 찾는다. 모델의 주인공(소프트웨어 agent)이 자기 경험 데이터를 뒤져가며 점수를 많이 따는 방법을 찾도록 시키는 것이다. 비즈니스 세계에는 정책 최적화가 필요한 많은 문제가 있다. 한 예로, 재고관리를 생각해보자. X개가 현재 재고인데, Y개를 더 만들면 어떨까? 아니, 제일 좋은 Y가 무엇일까? 여기서 에이전트는 수익을 점수로 삼고 '상황 X에서 행동 Y'를 잘 선택해 점수를 최대한 높이려 한다. 그 답을 위해, RL은 다음과 같이 일한다. 먼저, 매일 [상황, 행동, 수익]을 'Q-테이블'이라는 데이터 테이블에 기록한다. 엑셀을 사용할 경우, 첫째 좌측 열에는 각종 상황(state)을 열거하고, 상단 행에는 각종 행동(action)을 열거한다. 이 열과 행이 교차하는 셀에는 RL이 계산해내는 숫자가 채워진다. 이때, (15, C) 셀에 숫자 125가 들어가 있다면, 상황 15에서 행동 C를 취하면 예상 수익이 125일 것이라는 것을 뜻한다. 중요한 점은 125는 오늘 수익 뿐 아니라 내일, 그리고 그 이후의 운영 성과를 합한 결과라는 점이다. 즉 순현재가치(NPV)다. 따라서 오늘 행동이 미래의 날에 미칠 불확실한 영향을 고려해야 한다. 재고관리에서 지금 120개의 재고 상황인데, 15개를 더 만들었다 하자. 오늘 실제로 운영해본 결과, 1000원을 벌었고 재고로 35개가 남았다고 가정한다. 따라서, (120,15)의 셀에는 오늘 수익 1000원에다가 '내일 35개로 시작해서 가장 잘 운영할 경우의 기대 수익'을 합친 값이 들어 간다. (실은, 이 새 값과 기존 값과의 가중평균.) 그러면 미래의 수익에 대한 기대치를 어떻게 추정할까? 그것 또한 Q-테이블에서 나온다. 거기에는 모든 상황 모든 행동에서의 기대치가 들어있기 때문이다. 학습이란 여러 상황을 돌아가며 여러 행동을 취하며 이 테이블을 채우고 또 수정하는 것이다. 추정에서 추정을 찾느라고, 테이블에서 많은 업데이트가 발생한다. 결국에는 진실에 다가가며, Q-테이블은 '최적의 정책'을 들어낸다. 즉, "이 상태에서 이러한 행동을 취하십시오" 라는 말이다. 이 'Q-학습'은 서튼 교수가 1988년에 개발한 TD라는 아이디어에 왓킨스 교수가 개발한 것이다. 두번째 응용 예로, 중국 심천의 한 공장은 풀어야 할 '작업 스케줄링' 문제를 가지고 있다. 그들의 생산 시스템은 주문마다 10단계의 작업으로 구성되어 있으며, 각 단계에는 10대의 기계가 있다. 작업을 완료하려면 각 단계마다 10개 중 어느 한 기계에서 서비스를 받으며 10단계를 거쳐야 한다. 작업 요구 사항이 다르기 때문에 일부 작업은 특정 유형의 기계만 사용해야 하고 일부 작업은 특정 단계를 건너뛸 수 있다. 각 상태에서 공장은 각 단계의 어떤 기계에 어떤 작업을 할당할지 결정해야 한다. 즉, 작업을 스케줄링(scheduling)하는 데 있어 최적의 정책은 무엇일까? 이 해결을 RL 에이전트에게 부탁한다. 에이전트는 주문이 약속 날짜보다 하루 늦을 때마다 1 점씩 빼앗긴다. 점수를 안 잃기 위해 에이전트는 좋은 정책을 찾는다. 이 스케줄링은 매우 어려운 문제다. 분석적인 해결책은 없으며 휴리스틱(근사 접근법)만 존재한다. 이 휴리스틱이 얼마나 좋은 지는 아무도 모른다. 그러나 RL은 더 나은 성과를 낼 수 있다. 실제로, 잘 고안한 RL 방법은 시뮬레이션을 통해 현재 사용 중인 휴리스틱보다 훨씬 더 좋은 결과를 보여주었다. 이것은 스탠포드 대학의 왕지에 박사의 지도를 받은 슈후이 퀴의 박사 학위 논문이었다. 세번째 RL의 응용사례다. 2025년 1월에 남부 캘리포니아에서 일어난 대형 화재를 보자. 물과 소방자원이 모자라니, 진화작업이 힘들다. 특히 불이 퍼지면 불의 전선이 지름 제곱 속도로 늘어난다. 이때 소방당국은 불이 번져가는 2차원의 찌그러진 원형 궤적을 예측해야 한다. 그에 따라 어디에 소방자원을 집중할 지를 결정한다. 불은 어떤 자연 법칙을 따르며 확산한다. 바람 방향에 따라 움직인다. 연못 같은 큰 물을 넘지 못한다. 나무가 울창하거나 풀이 말랐으면, “옳다구나” 하고 급히 그쪽으로 달려간다. 나무나 풀 없는 나대지에서는 주춤한다. 언덕은 잘 타 내려가지만, 위로는 잘 못 타오른다. 이런 자연 활동을 RL로 푼다. 지형, 바람과 날씨가 이러한데 불은 어떻게 움직일까? RL 최적화 모델을 만든다. 좀 이상하게 느껴지지만, 여기서 주인공 에이전트는 '불'이고, 그는 땅을 차지하며 점수를 딴다. 점수를 많이 따기 위해, 주어진 지형의 특성을 따라 불은 빨리 또 넓게 움직인다. 즉 최적화한다. 현재 당면한 지형이 상황이 되고, 어디로 전진할까는 정책이 된다. 불의 정책이 소방당국의 예측이 된다. 강화학습은 심층학습과 더불어 새로운 AI의 주축을 이룬다. 심층학습에서는 질러 본 후 "왜 틀렸을까"하며 걸어온 길을 반성하며 배우지만, 강화학습에서는 연못 속의 개구리처럼 펄쩍펄쩍 뛰면서 이 연꽃잎에서 저 잎으로 가는 좋은 길을 찾아 가며 배운다. 둘 다 경험에서 길을 찾는다. 어떤 경우에는 이 둘을 섞어서 쓰기도 한다. LLM이 그 예다. 기초모델에는 심층학습을, 파인튜닝에는 강화학습을 적용한다. 힌튼도 서튼도 흐뭇해할 것이다.

2025.05.03 21:50황승진

[황승진의 AI칼럼] 지식그래프·LLM·RAG···트리오의 만남

지식 그래프(Knowledge Graph, KG)라는 대안 DB가 최근 부상하고 있다. Neo4j 같은 KG는 17년 동안 존재했지만, 2012년 구글이 검색 엔진에 부분적으로 KG를 도입하면서 많은 주목을 받았다. KG는 데이터를 그래프 형식으로 구조화한 DB다. KG의 기본 구성 요소는 '연결된 노드(node)'다. 노드는 '개체(entity)'를 나타내고, 이들을 연결하는 엣지는 화살표로 두 노드 간 '관계(relationship)'를 나타낸다. 방향 있는 '아령'같이 생겼다. 많은 경우 로 표현되는 'SPO 삼자관계'를 그린다. 예를 들어, '히치콕은 “새”를 감독했다'라는 정보를 KG에 저장하자. "히치콕"이라는 노드는 "새"라는 노드를 향해 연결돼 있으며, 엣지는 "감독하다"라는 관계를 의미한다. 또한 "새" 노드를 향해 "로드 테일러"라는 다른 노드가 연결되어 있고, 엣지는 "출연하다"다. 이러한 아령을 많이 겹치게 놓고, 노드와 엣지에 인덱싱을 넣어 그래프 DB를 완성한다. 각 노드와 엣지는 '속성'을 지니고 있다. 예로, 히치콕의 노드에는 생년월일이나 국적 등의 속성을 기록한다. 구글 지도의 경우, '제일 음식점'이라는 노드에 주소, 영업시간이나 전화번호 같은 속성을 같이 보관하고 필요시 보여준다. KG는 다소 즉흥적인 것처럼 들리지만 경우에 따라 효과적이고 유용하다. 예를 들어, 이 그래프 구조는 구글의 단순한 키워드 기반 검색을 넘어 단어 간 '맥락과 관계'를 이해하기 위해 다른 정보끼리를 연결한다. 검색 취지를 더 잘 이해하고, 연계된 의미 있는 답을 낼 수 있다. 예를 들어, “'새'의 감독이 만든 다른 작품들은 무엇인가?”란 질문에 대해 새-감독-히치콕-감독-현기증의 '그래프 줄(multi-hop reasoning)'을 타고 답을 내놓는다. 답이 나온 그래프 줄의 경로도 보여줄 수 있다. KG의 다른 사례는 하버드 대학교 PrimeKG라는 정밀의료 KG다. 20여개의 의학전문 정보소스를 규합한 KG형 DB로, 질병, 유전자, 단백질, 질병, 표현형, 약물 등 1만7000 노드가, 엣지에는 "연관됨", "상호 작용", "치료 표적", "지시" 및 "부작용"과 같은 4백만 관계가 포함된다. 정밀의료는 개인의 유전, 환경 및 생활패턴을 질병 진단과 치료에 반영하는 의학적 접근 방식이다. 따라서 질병, 약품, 개인 속성의 “관계”에 대한 정보가 핵심이다. 이에 KG가 결정적 역할을 한다. 예를 들면, 약, 질병, 단백질의 관계를 배워 새로운 약을 찾거나 기존 약을 다른 질병에 돌려 적용할 수도 있다. 또, 환자 개인에 맞게 디자인한 처방을 개발할 수도 있다. 최근 새로운 AI 시대를 맞이해, LLM은 KG와 협조 관계로 발전한다. KG는 RAG로 LLM에 연결되어, 이 트리오는 '그래프 RAG'를 만든다. 내 회사의 데이터를 KG로 만든 후, RAG로 연결해 LLM과 함께 쓸 수 있는 것이다. 내가 LLM에 자연어로 쿼리를 내면, LLM은 KG 내용을 잡아 자연어로 나에게 답한다. 이를 위해, 사전에 그래프 RAG는 KG의 노드와 엣지를 임베딩하고 벡터DB에 저장해 놓는다. 쿼리가 오면 그를 임베딩한 후 유사치 서치로 벡터DB에서 비슷한 단어들을 축출한다. 여기서 RAG 일이 끝나고 KG에게 바통을 넘긴다. KG는 이 단어들을 기점으로 자기 언어로 KG 안에 관련된 정보를 가져다 LLM에 주면, LLM이 알아서 자연어로 답한다. 이렇게, KG의 구조적으로 정리된 정보, LLM의 언어실력과 이를 연결하는 RAG가 힘을 합쳐 강력한 AI 작품을 만든다. LLM, Neo4j나 CrewAI 같은 제품이 있어 일반 텍스트를 KG로 옮길 수 있다. 게다가 최근 마이크로소프트는 GraphRAG를 개발해 오픈소스로 내놓았으니, KG의 인기는 지속될 것으로 예측된다. 마지막 사례로, 어느 제조업체의 부품에 대한 DB를 생각해 본다. BOM(Bill of Material)은 제품의 구성을 그래프로 표현한다. “제품 A는 부품 A1, A2, A3로 구성되며, 또 A1은 A11과 A12로 구성된다”라는 나무 구조로 돼 있다. 먼저 '관계형 DB'에 저장하자. “제품 A에는 무슨 부품이 들어가냐?”라는 질문에 금방 답할 수 있다. 하지만 나무를 거꾸로 들고, “부품 A11은 어느 제품들에 들어가나?”를 물으면 답 얻기가 좀 힘들다. 특히 이 부품이 다른 부품에 껴서 제품 A에 들어가면 아주 힘들다. 즉 '부품의 부품' 같이 손자나 증손자 관계가 맺어지면 관계형 DB는 힘들어 한다. 반면에 'KG'라면 그래프 줄을 타고 자연스레 대응한다. 부품 A11 노드에 연결된 모든 엣지를 뒤지고, 그 다음 엣지를 따라 계속 가면 된다. KG는 이런 다단계의 제품-부품 관계뿐 아니라, 제품의 기능, 공장에 대한 정보, 제조사의 여러 공장, 그리고 대체품 등 많은 관계를 저장하고 쉽게 찾아볼 수 있다. 예를 들어, “B 부품 공장이 파업으로 문 닫으면 어떤 제품이 영향을 받으며, 그들의 대체품은 무엇일까?” 혹은 “지진이 자주 일어나는 후쿠시마에는 어떤 1차 혹은 2차 공급자가 있는가?” 라는 질문에 쉽고 빠르게 답을 받을 수 있다. 또한 약간의 코딩으로, 도요타의 RESCUE 시스템처럼, 한 완제품의 BOM과 제조 공장을 나무형으로 그려줄 수도 있고, 공급자들의 공장 들을 전국 지도에 나타낼 수도 있다. 이처럼 '관계'가 중요하다면 AI 날개를 단 KG가 효과적인 선택일 수 있다. 하긴 '관계'가 중요치 않은 DB가 어디 있을까?

2025.04.26 19:32황승진

[황승진의 AI칼럼] 쏟아지는 이미지 AI···비즈니스에는 어떻게 활용할까

생성AI로 대변되는 새로운 AI는 글, 그림, 음성을 읽고 쓸 수 있는 6가지 기능을 가졌다. LLM은 원래 언어를 다루지만, 이미지 처리 기술도 익혔다. 그래서 챗GPT나 제미나이(Gemini)의 답에서 그림이나 테이블을 볼 수 있다. 최근에는 여러 이미지 모델이 개발돼 DALL-E, Imagen, Stable Diffusion, Leonardo.ai나 Midjourney 같은 이미지 생성 제품이 등장했다. 이들의 공통된 기본기는 '텍스트-to-이미지'다. 즉, 글을 주고 이미지를 받는다. 예를 들어 vrew.ai와 같은 웹사이트에서는 쉽게 YouTube 비디오를 만들 수 있다. 내가 "아침 식사로 피해야 할 다섯 가지 식품"이라는 제목을 입력하면 소프트웨어는 텍스트, 이미지 시리즈, 배경음악에 음성으로 텍스트를 읽는 혼합된 비디오를 생성한다. 이를 위해 나는 전문 지식도, 손재주도, 상상력도, 컴퓨터 조작 능력도 없이, 그저 제목만 결정했다. 이 출력을 시작점으로 여러 변형도 가능하다. 비슷한 원리로 파워포인트, 광고포스터, TV광고도 반자동 제작이 가능하다. 한 걸음 더 나아가 소라(Sora), 비오(Veo)와 클링(Kling)은 텍스트 명령에 따라 '비디오'를 생성할 수 있다. 소라에게 "다음 비디오를 제작해주세요. 스타일리시한 여성이 따뜻하게 빛나는 네온 사인과 애니메이션 도시 간판으로 가득 찬 도쿄 거리를 걸어갑니다. 그녀는 검은색 재킷, 롱 드레스, 검은 부츠를 입고 있습니다"라고 명령하면 비디오를 얻을 수 있다. 아무리 생각해도, 기계가 이미지를 읽고 그리는 능력은 참으로 놀랍다. 도대체, 기계가 어떻게 숫자로 변환된 이미지를 인식할 수 있을까? 각 픽셀은 빨강(R), 녹색(G), 파랑(B)의 3가지 색상 구성 요소를 3개 숫자로 (30, 100, 9)처럼 표현된다. 이런 픽셀이 100x100 개 모여 한 컬러 사진을 이룬다. 우리는 이미지를 이러한 숫자 데이터로 옮긴 후, 라벨을 붙여 신경망에게 사전 훈련을 시킨다. 이미지를 주면서, “이것은 고양이다” 라고 지도한다. 이러한 많은 학습과 CNN 같은 복잡한 알고리즘을 쓰면, 기계가 정말 이미지를 구분할 수 있다. 성공 비결은 신경망의 입력 노드와 출력 노드 중간에 위치한 '은닉층(hidden layer)'에 있다. 가중치를 잘 배정함으로써, 신경망은 '특징(feature)'을 잡아 은닉층에 넣는다. 더욱이 특징을 '계층적으로' 농축 저장한다. 첫 번째 은닉층은 이미지의 '직선', '색깔'과 같은 막연한 특징을 잡아내고, 그 다음 은닉층은 '눈'이나 '귀'와 같이 더 세밀한 특징을 잡아낸다. 이렇게, 은닉층의 '특징 추출'이 '이미지 인식'으로 가는 중요한 단계다. CNN과 U-NET은 이런 특징을 관리하는 기법이다. 다음 단계로, '읽기(이미지 인식)에서 '쓰기(이미지 생성)로 바꿔, "개의 이미지를 그려 주세요"라고 요청한다. 생성은 인식보다 어렵고, 새로운 기술이 필요하다. 이를 위해서, CNN은 축출된 특징에 (예, 뾰족한 귀) 벡터 임베딩을 할당한다. 그런 다음, 생성 요청이 오면, 기계는 이에 맞춰 임베딩을 호출해 '뾰족한 귀를 가진 흰색 개'와 같은 이미지를 찾거나, 수정하거나, 생성한다. 또한, 사진 속의 심각한 표정의 남자를 웃는 얼굴로 변환하고 싶다면 기존 이미지에 웃는 '특징 벡터'를 추가함으로써 수행된다. 검은 안경 착용, 늙음, 남성, 금발 등 다른 특징들도 각각 고유한 특징 벡터를 가지며, 이를 이미지에 더하거나 빼서 수정된 이미지를 생성할 수 있다. 따라서, 이미지 변환이나 생성은 임베딩을 조작하는 문제다. 또한 신경망의 특성상, 이미지를 정확히 외우는 것이 아니라 느슨하게 저장했다가 나중에 모방할 수 있는 여지를 남겨두는 것이다. 요새 인기있다는 "이 사진을 지브리라는 일본 만화 풍으로 바꿔죠" 라는 이미지-to-이미지 요구에 대해 오픈AI는 '디퓨전 (diffusion)'이라는 독특한 이미지 생성 방식을 쓴다. 주어진 사진에 엄청난 양의 잡음을 마구 뿌려 이미지를 완전히 망친 후 이젠 거꾸로 잡음을 뽑아 내며 지브리 풍으로 변형 복구한다. 사진 원본을 외워서 재생하는 게 아니라 이를 모방해 새로운 그림을 만든다. 특징을 기억해 변형에 사용한다. 지웠다가 다시 그리며, 괜한 일 하는 듯하지만 아주 효과적이라는 평다. 이러한 비전 능력을 비즈니스 어디에 쓸까?를 생각해 보자. 소비자가 온라인 쇼핑에서 물건을 찾는 데는 두 가지 접근방식이 있다. 브라우즈(Browse)와 서치(Search)다. 브라우즈는 제품을 특정하지 않고 이리저리 뒤지다 맘에 드는 것을 발견하는 것이다. 예로, “다음 주 동창회에 갈 때 입을 옷” 정도다. 서치는 원하는 바를 알고 찾는 것이다. 예로, “핑크색 V-Neck 스웨터” 같다. 각 온라인 쇼핑몰은 둘 중 한 방식을 선택해 DB와 웹을 디자인한다. 서치 모델은 모든 상품을 조직적으로 저장하고 찾는 '속성' 위주의 디지털 방식이다. 브라우즈에서는 상품 목록처럼 여러 상품을 분위기에 따라 혹은 제조사별로 열거하는 '그림' 위주의 아날로그 방식이다. 브라우즈는 충동구매 덕택에, 판매가 더 많은 경향이 있다. 하지만 “빨간 V-Neck 스웨터” 같은 서치 요구에는 답을 못 내놓는다. 따라서 분석에는 서치가 좋고, 판매에는 브라우즈가 더 좋다. 어느 쇼핑사는 브라우즈를 택했다. 그 약점을 보완하기 위해 노동이 싼 먼 나라에서 수 백명을 고용해 분류 작업을 한다. 각 상품마다 수작업으로 라벨을 부여해 서치할 수 있는 DB를 만든다. '스웨터. 캐시미어. V-Neck. 빨간 색에 흰 줄.' 이렇게 아날로그를 디지털화하는 데는 비용이 많이 든다. 게다가 그림을 글로 옮기는 번역은 정확하지 않다. 여기에서 새로운 AI는 새로운 가능성을 열어 준다. 이제는 브라우즈 모델에서도, 수작업으로 설명을 넣지 않고도, 직접 텍스트나 이미지로 찾을 수 있다. 소비자가 인터넷의 사진을 가리키며 말한다. “이 여자가 입은 것 같은 드레스를 찾아 주세요.“

2025.04.12 10:14황승진

[황승진의 AI칼럼] '소셜 리스닝'에도 AI가 맹활약

월스트리트 투자가들이 시장을 이길 수 있는 가장 확실한 방법이 있다. 우수 정보를 남들보다 먼저 얻는 것이다. 예를 들어, 미국 자동차 제조업체들은 특정 모델, 판매 지역, 연간 실적에 대한 세부적인 '월간' 출하량과 판매량을 발표한다. 숫자에 따라 주가가 출렁인다. 만약 어느 월스트리트 투자가가 매일 '일간' 숫자에 접근할 수 있다면 어떨까? 또한, 주요 정유 공장의 더 정확한 판매 데이터를 당일로 얻을 수 있다면 어떨까? '오비탈 인사이트(Orbital Insight)'는 이런 데이터를 제공하는 샌프란시스코 기반 회사이다. 위성, 드론, 풍선을 사용해 관심 지역의 항공 사진을 찍고 그 데이터를 처리하여 월스트리트 투자가 및 기타 고객(정부, 군(軍), 농사업자)에게 판매한다. 지리 공간 데이터를 분석할 때 기계 학습(ML)을 여러 모로 사용한다. 위성 카메라는 미국 내 4700개의 월마트 주차장에 주차된 고객의 차량 수와 방문한 고객 수를 추적한다. 주차장을 보는 것은 쉽다. 위성 시간을 구입하면 된다. 어려운 부분은 차량과 고객을 세는 것이다. 위성 카메라는 지구 표면에서 160-2000km 위에 떠있으니까, 1평방미터는 1픽셀로 캡처된다. 사람이나 차는 이 카메라 사진에서 약 1~2픽셀 정도로 작기 때문에 거의 보이지 않으니 셀 수가 없다. 그러나 '움직임'을 기록하면 점의 '경로'를 추적할 수 있다. 추적과 계산은 훈련된 AI가 오비탈에서 수행한다. 이런 식으로 고객은 물론, 매장에 들어가는 직원 수까지 세어낼 수 있다. 직원들은 별도의 문을 통해 매장에 들어가야 하기 때문이다. 기계의 도움 없이 인간의 눈으로는 합리적인 시간 내에 이를 세는 것이 불가능하다. 오비탈의 다른 '비전 데이터+ML' 응용 사례는 주요 정유 회사의 원통형 탱크에 저장된 석유량을 추정하는 것이다. 위성은 위에서 탱크의 이미지를 찍는데, 내부를 볼 수가 없으니 석유량을 측정할 수 없다. 그러나 흥미롭게도, 대부분의 석유 회사는 원유를 '부유식(浮游式) 지붕'이 있는 탱크에 저장한다. 이 지붕은 탱크 내부의 유면에 따라 상하로 움직이도록 설계됐다. 이런 부유식 지붕은 석유와 지붕 사이의 공간을 최소화해 대기 중으로의 휘발성 화합물의 증발을 줄인다. 오비탈의 AI 엔지니어들은 이러한 흥미로운 관행을 적극적으로 활용했다. 원통형 탱크의 상단 링은 지붕에 그림자를 드리우며, 오비탈은 주어진 시간과 위치에서 그림자의 모양을 측정하여 탱크 내부에 남아 있는 석유량을 추정할 수 있다. 그림자를 부피 추정치로 변환하는 작업은 ML을 통해 수행한다. 또 항구에 들어오는 유조선을 추적하여 매일 순유출량을 파악하고 판매량을 계산할 수 있다. 이 정보를 얻은 투자자들은 석유 회사의 주가나 원유 선물 가격을 더 잘 예측할 수 있다. 이 모델은 2015년경에 개발됐으니 생성AI 이전의 AI이다. 아마도 시키기만 하면, 새로운 AI 역시 이 작업을 훌륭하게 해 낼 것이다. 이 사례의 핵심은 '관찰과 통계 집계의 기계화'다. 구태여 고상한 위성이 아니더라도, 많은 관찰 가능한 데이터가 인터넷에 존재한다. 로체스터 대의 '제보 루오' 교수팀은 인스타그램에 개제된 사진을 통해 젊은이들의 음주 행태에 대해, 설문 조사보다 더 정확한 집계를 할 수 있었다. AI를 써서 사진에 나온 인물의 성별, 나이, 인종을 추정하고 같이 사진에 나타난 주류와 제품명까지 조사할 수 있었다. 그들은 익명 설문조사에 솔직히 답하기는 꺼려해도, 인스타그램에 웃는 얼굴로 술자리를 자진 공개하길 즐기고 있었다. 아마도 술기운이었던 같다. 이번에는 '언어 데이터+ML'의 예를 보자. SNS에 개제된 '대화'에는 대중의 솔직한 의견과 관심이 반영되어 있다. 일반인들은 내 회사나 제품에 대해 어떻게 생각하나? 이때도 설문조사보다는 페이스북, 틱톡, 인스타그램, 링크트인, 위쳇이나 X 같은 SNS의 솔직한, 어쩌면 너무 솔직한, 대화가 더 진실에 가깝다. 수십억 줄의 SNS 대화를 읽고 통계 집계하는 3자 서비스를 '소셜 리스닝(social listening)'이라 부르며, 이 카테고리에는 수많은 상용 제품이 있다. 대부분은 AI, 즉 LLM의 언어 능력을 사용한다. 한 사용 예를 들자. 이어폰 제조업체 A는 고품질 헤드폰을 전세계에 공급한다. 일부 제품의 가격은 1200 달러 이상이었다. 이들은 소셜 리스닝 제품에게 다음 같은 질문을 던졌다. 첫째, 일반인들은 헤드폰을 얼마나 자주 언급하나? 또 언제? (답은 금요일 그리고 방학 직전). 둘째, 우리 제품은 헤드폰 카테고리에서 얼마나 자주 언급되나? 누가 우리보다 앞섰나? (답은 '비츠 by Dr. Dre') 셋째, 우리 제품에 대해 뭐라고 말하나? 좋게 말한 비율은 얼마인가? 이 조사에서 A사는 다소 놀라운 사실을 발견했다. 조사 전 까지만 해도, 판매량이 작은 것은 당연히 '높은 가격' 때문이라 생각했다. 허나 SNS에서 가장 자주 언급되는 것은 '잦은 고장'이었다. 또 80% 정도만이 긍정적 평가를 줬다. 이러한 sentiment analysis(감정분석)을 하는 데는 LLM의 언어 인식력이 필수다. “둘이 쓰고 듣다가 하나가 죽어도 모른다”란 말의 뜻이 “긍정”이라는 것을 알아채야 한다. 전화 여론 조사에 비교해, 소셜 리스닝의 단점은 응답자가 젊은 연령층에 편중된다는 것이고, 장점은 솔직한 정보, 그리고 빠른 답이다. 질문을 낸지 1-2분 만에 답을 얻을 수 있다. 마치 답이 앉아서 질문을 기다리고 있었던 것 같다. 생각해 보면, 세상에 수많은 답들이 여러분의 질문을 기다리고 있는 지 모른다. 새로운 AI의 새로운 선물(膳物)이다.

2025.04.05 10:00황승진

TEL코리아 노태우 신임 사장 취임…원제형 대표는 회장직에

글로벌 반도체 장비기업 도쿄일렉트론(TEL)코리아는 1일 노태우 부사장이 사장에 취임했다고 밝혔다. 노태우 신임 사장은 1994년 도쿄일렉트론코리아에 입사해 공정, 세일즈 등 분야에서 총 30년이 넘는 경력을 쌓았다. 지난 2019년부터 4년간 신사업 및 발안공장을 총괄했으며, 2023년 부사장에 취임해 약 2년간 사업 관련 부서를 이끌기도 했다. 특히 탁월한 리더십과 경영 전문성을 보여주며 회사의 지속적인 성장을 견인해 왔다. 노태우 사장은 “한국 시장의 비즈니스는 매우 중요하므로 이를 성공적으로 이끄는 한편 고객에게 최첨단의 기술과 확실한 서비스를 제공하고, 협력업체들과도 함께 손잡고 나아가는 동반자가 되겠다”며 “앞으로 사장과 회장의 투톱 집행 체제로 속도감 있는 경영을 추진하겠다”고 말했다. 원제형 대표이사 사장은 대표이사 회장으로 이동해 신임 사장을 뒷받침한다. 원 대표이사 회장은 일본 오사카대학에서 '와이드밴드갭(Wide-Bandgap) Semiconductor Physics'로 박사학위를 받은 뒤 반도체 업계의 여러 직위를 거쳐 2017년 7월부터 도쿄일렉트론코리아 대표이사로 재직하고 있다. 원 대표이사 회장은 그동안 근접거리에서 고객의 요구에 빠르게 부응하기 위해 연구개발 거점을 확대하고, 우수한 공정 기술 개발과 신뢰성 높은 서비스 제공 등에 크게 공헌해 왔다. 그가 재임하는 동안 도쿄일렉트론코리아는 직원 수 800여명에서 성장해 현재 2천명을 넘었고, 8천여억원이었던 매출도 지난해 1조4천억원을 넘어섰다. 지난해 10월에는 국내 최대 규모의 연구개발 거점인 'TEL Technology Center Korea-2'도 새로 문을 열었다. 원 대표이사 회장은 “한국 반도체 장비 업계를 선도하는 기업의 대표로서 기술 혁신을 위해 지속적으로 노력하는 한편, 산학협력과 지역 우수 인재 발굴에도 힘을 기울이겠다”고 밝혔다.

2025.04.01 10:41장경윤

[황승진의 AI칼럼] LLM 연결성···기업IT를 삼킨 LLM

이런 가상 회사를 생각해보자. 아시아의 한 광업 회사다. 이 회사는 17개 광산을 운영하며, 각 광산에는 50개 제조업체가 만든 굴삭기, 드릴, 컨베이어, 환기 시스템, 엘리베이터, 안전 장비 등 수백 개의 장비가 있다. 이 회사는 현장에 투입한 각 장비의 상태를 한 스크린에 보여주는 대시보드를 만들고 싶어 한다. 기계가 지하 깊은 곳에서 작동하기 때문에 고장이 나면 수리가 어렵다. 그들은 단일 대시보드에서 모든 기계의 상태를 모니터링하다가, 필요한 경우 고장 전에 조치를 취할 것이다. 그러나 문제는 각 장비제조업체가 호환성 없는 자체 소프트웨어를 가지고 있다는 것이다. 표준화 시도는 수차례 실패했다. 특히 대기업이 문제였다. “좋습니다. 우리 다 표준화합시다, 우리 식으로 말입니다.” 이래서, 단일 대시보드는 여전히 꿈이었다. 이제 LLM 시대가 도래했다. 호환성 없는 기계로부터 데이터를 통합하는 간단한 방법은 각 기계로 하여금 보고서를 PDF 형식으로 제출하도록 하는 것이다. 그러면 RAG 기반 LLM은 업로드된 모든 PDF 파일을 수집해 자신이 읽을 수 있는 텍스트로 변환시킬 수 있다. 그 다음에 청킹, 토큰화, 임베딩, 그리고 벡터 저장 등 여러 단계를 거친다. 주기적으로 이 데이터를 읽고 내용별로 정리해 대시보드를 만든다. 'LLM의 연결성'에 대해 더 생각해 보자. 전술한 'PDF-RAG-LLM 연결'에 그치지 않고, LLM '에이전트' 시스템은 모든 파일과 시스템을 연결하는 허브 앤 스포크(hub and spoke, 마차 바퀴) 구조를 만든다. 예를 들어, WWW, ERP, MES, CRM, HRM, PDM, Weblog, 물류추적과 같은 독립된 분야별 시스템이 각자 스포크가 되어 LLM이라는 중앙 허브에 API로 연결할 수 있다. 이러한 연결성은 LLM 혼자가 아니라, 그의 일당 즉 에이젠트 프레임워크(혹은 LLM 메쉬)에 비롯한다. 최근에는 MCP(Model Context Protocol)라는 통신 방식이 나와 LLM과 외부 데이터를 연결한다. LLM이 아무리 똑똑해도 혼자서 세상 모든 API나 파일을 상대해 데이터를 주고받기에는 힘이 벅차다. 이를 오픈 표준화해, LLM은 MCP 클라이언트를 상대하고, MCP 클라이언트는 MCP 서버를 상대하고, 이 서버는 API나 파일을 상대한다. 이렇게 1대 N으로 연결하는 MCP는 LLM이 허브 역할을 할 수 있게 도와준다. 이렇게 통합한 기업 시스템은 기업의 대시보드를 만든다. 연결의 단위는 '파일'이 아니라 '내용'이다. 그래서 MCP의 C는 context (문맥)다. 더욱이, 자연어로 프롬프트를 내고 답을 받는다. 어찌 보면, LLM이 기업 IT를 삼켜버린 것 같다. 구태여 이런 LLM 중심적인 네트워크 연결 구조가 아니더라도, LLM은 기존의 IoT에서 하나의 노드가 되어 다른 기계(device) 노드와 연결할 수 있다. 기계 신호를 LLM에 보내 해석을 요청할 수 있다. 이상 징후를 미리 감지하고 인간에게 상황을 설명할 수 있다. 혹은 인간의 궁금점을 자연어로 답할 수 있다. 이 경우, LLM의 API는 클라우드에서 호스트가 돼 인터넷 통신 프로토콜 HTTP로 다른 기계와 연결된다. 만약 LLM이 로컬이라면, LAN으로도 연결이 가능하다. LLM의 연결성 즉 'LLM이 내부 외부 데이터, 기계나 시스템을 내용상으로 연결하는 능력'은 지금까지 IT 세계에 없었던 신기한 기능이다. 이는 기업내 '기능'의 연결성으로 이어져, 여러 분야에 새로운 응용을 예고한다. 예로, 공급망 핵심은 수요와 공급을 잘 맞추는 것이다. 이에는 훌륭한 수요 예측이 필요한데, 지금까지는 지수 평활법(exponential smoothing)에 의존했다. 이는 과거의 자기 판매량만으로 내일의 판매량을 예측하는데, 성능은 만족스럽지 않았다. 내일의 수요는 날씨, 요일 같은 많은 외부 변수에도 달렸기 때문이다. 또한 판매 파이프라인이나 웹 사이트 방문자수는 내일 수요에 관한 귀중한 정보를 지니고 있다. 기업도 이를 알지만 어떤 데이터를 잡아서 어떤 수학 공식에 넣느냐가 관건이었다. 이제, LLM 기술이 걱정을 해소해준다. 데이터 위주 기계학습은 수학공식에 대한 걱정을 완화시킨다. 신경망은 세상 모든 수학함수를 대신할 수 있다. 또한 LLM의 연결성 덕택에, 여러 변수 데이터를 용이하게 융합할 수 있다. 현재 AI에 기반한 수요예측에 대해 많은 연구와 개발이 진행되고 있다. 그 중 하나는 구글이 개발한 TFT(Temporal Fusion Transformer)라는 기법이다. 이는 여러 변수 시계열(time series)을 입력하여 그들의 숨겨진 상관관계를 이용하는 수요예측 기법이다. 판매량 뿐 아니라, 광고, 날씨, 판매 파이프라인, 웹 사이트 방문자수, 신제품 출시 등 수요 예측과 관계된 변수를 일별로 입력한다. 게다가, 요일, 날짜나 계절 등 예측 가능한 변수까지 시계열로 입력한다. 여기에 트랜스포머의 어텐션을 적용해 변수의 시간적 상관성을 예측한다. 어텐션은 서로 떨어져 있는 '단어와 단어' 뿐 아니라 '변수와 변수'의 상관성을 잡아 낸다. 게다가 LSTM이란 기법으로 단기적 상관성을 일종의 공분산(covariance)으로 잡는다. 여러 변수 들을 중요성에 따라 가중평균으로 통합한다. 때로는 입력 변수가 수백 개일 수도 있다. 그 중에 무엇이 유효할 지를 TFT가 알아서 챙기니 부담 없이 많은 변수를 사용한다. 게다가, 이 중에 어떤 데이터가 예측을 이끄는 지, 그 근거를 볼 수 있다. 이렇게 출력된 수요예측은 메트로놈처럼 전 공급망을 움직일 것이다. LLM의 유연성과 연결성은 이 과정을 자동화하는데 큰 도움을 줘 새로운 시대의 수요예측과 공급망 관리를 창출할 것이다.

2025.03.29 10:06황승진

[황승진의 AI칼럼] 블룸버그GPT와 스탠포드 MUSK

블룸버그는 금융 및 비즈니스 정보, 뉴스 및 리서치를 제공하는 회사다. 금융정보 세계의 독보 위치를 활용해 블룸버그GPT라는 별도의 LLM 기초+응용 모델을 만들었다. 대부분의 지식을 기초 모델에 넣었다. 이 새로운 LLM은 금융 산업 내 정보를 자연어 처리(NLP) 할 수 있다. 이를 '분야별 LLM' 혹은 '수직형(버티컬) LLM'이라 부른다. 이는 챗GPT 같은 일반 '수평형 LLM'(혹은범용 LLM)과 구분된다. 사실, 블룸버그는 이 둘을 합쳤다. 금융 데이터와 일반 데이터 세트를 결합해 내부 직원과 외부 금융업 종사자가 금융 시장을 탐색, 분석 및 예측하도록 지원한다. 또 인수합병(M&A)과 기업공개(IPO, 상장)와 같은 금융 거래 준비에도 도움을 줄 수 있다. 이러한 성과를 달성하기 위해, 블룸버그 데이터 분석가들은 40년 동안 생성, 수집 및 정리한 그 분야 역대 최대 규모의 데이터 세트를 구축했다. 규모가 총 3630억 토큰(AI모델의 정보처리 단위)에 달했고, 500억개 파라미터(AI의 성능을 측정하는 주요 지표)를 훈련하는데 62만 GPU 시간이 걸렸다. 그 결과, 블룸버그GPT는 금융 지식에서는 탁월하고, 일반 지식도 수준 급이 되었다. 블룸버그GPT 사용자는 여러 종류의 질문을 할 수 있다. “내년 시장 분위기를 알아봐줘” 혹은 "지난 5년간 기업 인수 거래를 보고, 다음 일어날 인수 거래를 예측해 줘"라고 질문할 수 있다. 블룸버그는 막대한 지적, 재정적 이점을 이용해 새 시대에 맞춰 발빠르게 재정비했다. 다른 산업, 특히 의료 분야는, 분야(도메인)별 LLM을 보유하고 있다. 2025년 스탠포드 의대팀은 MUSK라는 암을 예측, 반응 및 치료하기 위한 임상용 기초모델을 개발했다. 일론 머스크하고는 전혀 관계없는 이름이다. 과거의 '진단' 위주 AI가 아니라 '예측'의 도구가 된다. “이 환자에게 이 치료는 어떤 결과가 나올까”를 예측하고, 그 중에 가장 효과적인 치료법을 찾는데 쓸 수 있다. 이에는 두 종류의 과거 경험 데이터가 필요하다. 환자가 암과의 투쟁할 때의 X레이, MRI, CT스캔 같은 이미지 데이터, 그리고 주치의의 코멘트, 진료 기록, 전문의와의 대화 같은 텍스트 데이터다. MUSK는 많은 환자 케이스의 텍스트-이미지 멀티모달 데이터로 사전 훈련된 트랜스포머 기초 모델을 만들었다. 들어간 데이터양이 거대하다. 5천만개의 의료 이미지와 10억개의 병리학 텍스트를 동원했다. 이 데이터를 '마스킹'방식으로 학습했다. 단어나 이미지를 가리고 이를 맞춰보라고 묻고 답을 가르쳐주며 배우게 한다. 그리고 이미지와 텍스트를 같은 임베딩 체제에 넣어, 먼저 각자에서 연결(self-attention)한 후, 다음 서로 연결해 교차 어텐션(cross attention)을 수행했다. 즉, 텍스트와 이미지의 연결 관계를 임베딩에 반영했다. 어느 쿼리에 답할 때, 텍스트와 관련된 이미지가 같이 불려 나온다. 이를 '텍스트-이미지 모델' 혹은 '올인원'이라 부르며, 최근 LLM (오픈AI CLIP, Flamingo, 제미나이)은 이렇게 훈련되어 답에 텍스트와 이미지가 같이 나온다. 게다가, 이 기초모델을 파인튜닝해 사용자 병원이 자기 나름대로의 새로운 응용을 개발할 수도 있다. MUSK의 목표는 의사로 하여금 과거 세상 모든 의료 경험을 내 실력과 합쳐, 현재 내 환자의 성공 확률을 최대화하는 것이다. 아이작 뉴턴 경의 표현대로 “과거 거인들의 어깨 위에 지은” 지식의 탑이다. 바이오텍 분야도 연구 및 개발용으로 분야별 LLM이 존재한다. BioBERT, PubMedBio와 BioGPT가 그 예다. 이 분야에 3천만 편의 연구 논문이 있다니, 교육생과 연구자에게 매우 유익할 것이다. 이들은 인터넷이나 서적 등 데이터로 자가학습을 시켜 기초모델을 만든 후 용도에 맞게 파인튜닝을 했다. 논문 제목이나 저자 이름으로 서치하는 게 아니라, 내용으로 한다. 예컨대, “누가 처음 DNA를 X레이 촬영했지?”와 같이 묻는 식이다. 블룸버그GPT는 기초 모델부터 시작해 끝까지 자신이 만든 거대한 작품이지만, 비슷한 기능의 FinGPT는 오픈소스 기초모델을 가져와 금융 정보로 파인튜닝을 했다. 이렇게 '기초모델+파인튜닝'은 흔히 사용되는 분야별 LLM 개발 방식이지만, 다른 가능성은 LLM 위에 분야에 특화된 소형 언어 모델(SLM)을 구축하는 것이다. 이러한 2층 구조의 기초 모델은 두 모델의 장점을 모두 얻을 수 있다. LLM은 일반 지식과 기능을 제공하고, SLM은 분야(도메인) 지식을 제공한다. 실리콘 밸리의 한 시스템 개발업체는 자신의 몇 제조분야 고객 기업과의 경험을 외부 정보와 융합해 SLM을 만든 후 일반 LLM과 함께 2층 구조를 만들었다. 흥미롭게도, 그 회사에 따르면, 자기네는 LLM을 주로 '기능'으로 사용하고, '지식'은 SLM에서 나오니 환각현상을 피할 수 있다고 한다. '분야별 LLM' 외에도 국가 수준에서 '국가별' 모델도 있다. 예를 들어 중국, 미국, EU는 모두 '주권 AI'를 구축하기 시작했다. 언어, 문화, 산업과 안보를 고려해 외국의 힘에 의존하지 않겠다는 의도다. 덕분에 국민 여럿이 많이 배우고 그들이 새로운 사업을 시작하는 낙수효과도 기대할 만하다. 미국 오라클 회장인 래리 엘리슨(Larry Ellison)은 모든 국가가 '주권 AI 클라우드'를 구축하길 원할 것이라고 전망했다. 수직형 LLM, 즉 분야별 LLM과 주권 LLM이 오늘날 대세다.

2025.03.22 12:06황승진

[황승진의 AI칼럼] 글로벌 물류, 멀티에이전트 LLM과 Manus

이런 가정을 해보자. 중국의 한 도시에 글로벌 로지스틱스 컴퍼니(Global Logistics Company, 이하 GL)라는 가상의 회사가 있다. 이 회사는 상당한 고객 기반을 갖고 있다. 이 도시에 100개 이상의 고객 기업이 있고, 대부분은 가구 또는 건축 자재 제조업체다. 이들은 전 세계에 흩어져 있는 고객에게 제품을 배송한다. 각 제조업체는 제품을 '크레이트'라는 나무상자에 담아 포장하고 보호한다. 매달 GL는 수백 개 크레이트의 배송 주문을 받는다. 지금까지는 요청이 도착할 때마다 즉흥적으로 실행했다. 하지만 최적화 개념은 없고, 주먹구구식으로 운영, 이에 비용 절감의 많은 기회를 놓치고 있다. 나아가, 이러한 주먹구구식 관행은 수많은 비준수(non-compliance) 사례로 이어졌다. 비준수는 고객과의 계약 조건 또는 규정 위반을 의미하며, 이는 페널티와 신뢰도 손실로 이어진다. GL은 AI를 활용해 지금보다 더 잘할 수 있다. 예로, 크레이트를 개별적으로 배송하는 대신, 서로 가까운 목적지(예, 북가주)로 향하는 수십 개의 크레이트를 모아 풀 컨테이너로 지역별 물류기지로 일단 옮긴 후 작은 트럭으로 최종 목적지까지 배송하면 비용 면에서 더 효율적이다. 단, 고객이 오래 기다려야 하기 때문에 약속한 배송 시간 미준수로 이어질 수 있다. 이에, 가능한 한 빨리 크레이트를 배달하고 규정 및 계약의 모든 준수 사항을 충족하면서 비용을 최소화하는 것이 이 회사가 가진 화두이자 도전이다. 이를 비용, 시간, 준수로 구성된 삼각형 모델로 요약할 수 있다. 이 모델을 수학적으로 푸는 건 불가능하지만 AI는 가능하다. GL은 AI 에이전트 모델로 이 삼각형 모델을 접근할 수 있다. 한 명의 마스터 에이전트와 비용, 시간, 준수를 각각 담당하는 세 명의 에이전트를 만든다. 비용 에이전트는 2개월 이내에 배송하되 비용을 최소화하는 10개 계획을 찾아 마스터 에이전트에게 추천한다. 시간 에이전트는 주어진 예산 내에서 배송 시간을 최소화하는 10개 계획을 찾아 마스터 에이전트에게 추천한다. 마스터 에이전트는 이러한 20개 계획을 받아, 준수 에이전트에게 준수 여부를 확인하도록 시킨다. 계약과 규정을 준수하는 계획만 통과된다. 끝으로 인간 사용자가 최선의 계획을 선택한다. 왜 이것이 새로운 것일까? '준수 검사의 자동화'다. 최적화 문제는 목적함수, 결정변수, 그리고 제약조건으로 이뤄져 있다. 다음과 같이 생겼다: maxx f(x), subject to Ax

2025.03.15 15:48황승진

[황승진의 AI칼럼] 100년간 신봉해 온 통계적 품질관리 AI로 재고해야

AI가 사람보다 더 빠르고 비슷한 성능으로 유방암을 판독하는 것으로 나타났다. AI 이전에는 유방암의 최선 예방은 연간 또는 2년 간격으로 촬영을 통한 조기 발견이었다. 촬영 영상은 일반적으로 전문 방사선과 의사가 판독한다. 하지만 최근에는 AI가 판독을 더 잘할 수 있는 것으로 알려졌다. 돌이켜보면 이는 당연한 일이다. 사람의 눈은 영상에서 선과 형체를 읽을 수 있는 반면, 기계는 이런 선과 형체의 구성요소인 픽셀을 읽을 수 있다. 기계에게 많은 이미지를 주어 픽셀 단위로 특성과 패턴을 볼 수 있도록 훈련시키면 전문가보다 섬세한 점을 더 잘 볼 수 있다. 기계가 더 잘할 수 있는 것이 또 있다. 기계는 암의 발생을 '예측'할 수도 있다. 코넬대 연구팀은 총 7353명의 환자로부터 암 진단 결과가 나온 1413건을 포함해 총 1만9328건의 유방촬영 데이터 세트(과거 및 최신)를 수집했다. 그리고 연구원들은 새로운 유방암 환자의 경우, 1년 이상 전에 찍은 옛 유방촬영 사진을 살펴보았다. 당연히 당시에 찍은 유방촬영 사진은 깨끗했다. 즉 방사선과 의사의 눈에 암의 징후가 보이지 않았다. 하지만 학습된 AI의 눈은 달랐다. 이 새로운 유방암 환자와 비환자의 옛 촬영 사진을 구분해 기계에게 보여주면서, 기계는 암 발생을 예언하는 패턴을 학습시킬 수 있었다. 사실, 암 환자의 이전 유방촬영 사진은 비환자의 사진과 달랐다. 지도 학습을 통해 기계는 어제의 유방 영상 (현재 관찰 가능)과 내일의 암 (현재 관찰 불가능) 간의 관계를 파악할 수 있었다. AI 기계만이 이러한 차이점을 인식할 수 있었다. 예측되는 환자에게는 초기 조치를 취해 암의 진척을 막을 수 있다. 비슷한 예가 있다. 수 년 전 항조우에 있는 차이나텔레콤 지부를 방문한 적이 있다. 한 오피스에 30여명의 직원이 각자 부지런히 전화를 하고 있었다. 안내자의 말에 따르면, 그들은 유선전화 서비스를 곧 그만둘 듯한 고객에게 전화를 해, 가격 할인이나 인터넷, 와이파이와 이동전화를 섞은 패키지를 제안하는 것이었다. 기존 고객을 계속 잡아놓기 위함이었다. 그러면 어떻게 어느 고객이 그만 둘 지를 아느냐고 묻자, 그는 답했다. “유선전화 사용량이 급감할 때죠.” 이 경우 사전 징후가 단순해 구태여 AI의 힘을 빌릴 필요가 없지만, 다른 '고객 이탈'의 경우는 좀 더 복잡해 징후 찾기에 AI의 힘이 필요할 것이다. 예를 들어, 슈퍼마켓이 새로운 손님을 경쟁사에게서 빼앗는 가장 좋은 때는 그들의 결혼, 임신, 출산, 새 직장 같은 인생의 변곡점에서다. 이 말은, 다른 슈퍼마켓으로는 이때가 공격적으로 단골손님을 방어해야 할 때라는 것이다. 그 슈퍼마켓은 구매 데이터에서 그 패턴을 찾을 수 있다. 비타민, 애기 기저귀, 안 사던 브랜드의 맥주, 식품 종류나 양의 변화 등이다. 이때, 고객 이탈의 적신호를 얻는데 AI의 힘을 빌릴 수 있다. 이상의 사례를 일반화할 수 있다. 이렇게, 장기간에 걸쳐 동일한 변수를 반복적으로 관찰하는 연구 방법을 '종단적' 연구라 부른다. 종단적 접근법은 많은 다른 '실패' 사례에 적용할 수 있다. 예를 들어, 장비 고장이 발생하면 고장 직전의 장비와 주변 환경의 과거 데이터를 수집한다. 이를 정상적인 경우의 데이터와 함께 AI에게 보여 준다. 많은 데이터를 통해 AI는 예측 능력을 개발할 수 있다. 따라서 IT 네트워크 장애, 풍력 터빈 고장, 엘리베이터 고장 같은 경우에도 실패 전에 패턴이 존재할 수 있다. 이러한 패턴은 인간의 눈과 뇌로는 인식하거나 해석할 수 없다. 따라서 종단적 데이터를 제공하고 실제 실패 전에 패턴을 감지하도록 AI를 훈련시킨다. 어느 빌딩에 두 명의 엘리베이터 수선공이 나타난다. 빌딩 관리원이 그들에게 묻는다. “어떻게 왔습니까?” 그들은 답한다. “이 빌딩의 엘리베이터를 고치러 왔습니다.” “아니, 우리 엘리베이터는 고장이 안 났는데.” 그들은 답한다. “곧 고장 날 것입니다.” 마치 미래에서 온 아놀드 슈와츠네거 같을 것이다. 종단적 접근법이 효과적이라면, 우리가 100년 동안 신봉했던 통계적 품질관리 방식 (SQC)을 재고할 시간이 왔다. 쉬하트에 의해 개발된 SQC의 핵심은 콘트롤 차트다. 여기서는 평균을 중심으로 하여, 위 아래로 3*시그마만큼의 마진을 두고 박스권을 만든 후 그 밖에 나가는 경우 '불량'이란 라벨을 씌운다. 여기서 시그마는 표준편차를 뜻한다. 그런 '박스권 이탈 사건'이 아무 이유 없이 순전히 확률적으로 일어날 확률은 0.3 퍼센트에 지나지 않으니 무언가 불량요인이 생겼다는 결론이다. 이 SQC의 주요 목적은 문제의 '탐지'에 있다. 허나, 최근 AI는 이러한 프로세스의 데이터를 이용해 탐지뿐 아니라 '예측'으로 활용할 수 있다. IoT 센서에서 계속 수집되는 종단적 데이터는 입력과 출력의 관계를 AI로 하여금 배우게 한다. 결국, 출력이 아니라 '입력'에서 불량을 예측할 수준에 이르게 한다. 불량이 일어나기 전에, 제조 프로세스를 통제할 수 있다. 또한 설령 불량이 생기면 앞뒤 상황을 분석하고, 실시간으로 원인을 규명하고, 수정할 수 있는 조치를 제안한다. 이를 실현하기 위해서는 도메인 엔지니어, 프로세스 엔지니어, 장비관리사, 데이터 엔지니어 등의 전문 지식이 필요하다. 샌프란시스코에 위치한 스타트업 Facilis.ai는 AI멀티에이전트를 이용해 이런 기능을 자동화한다. SQC(통계적QC)에서 시작해, TQC(토탈QC)로, 그리고 100년 후 오늘 AIQC의 시대가 온 듯하다.

2025.03.08 23:39황승진

[황승진의 AI칼럼] AI는 속도전 무기···프로세스 병목 해결

캘리포니아에 있는 한 종이 제품 제조업체는 고객 주문 응답 시간이 지나치게 길다는 것을 발견했다. 이로 인해 고객 서비스 질이 떨어지고 주문에서 현금화까지 시간이 길어지니 회사에 악영향을 미친다. 어떻게 응답 시간을 단축할 수 있을까? 그 답은 '병목 분석(Bottleneck Analysis)'에서 시작한다. 이는 전체 비즈니스 프로세스 가운데 어느 단계에서 가장 시간이 소요되는가를 찾아서 집중적으로 개선하는 방법이다. 이 제조업체도 분석을 해보니 병목을 발견했다. 주문 처리 초기의 정보 처리 단계가 문제였다. 주문이 도착하면 고객과 주문을 체크하는 과정이다. 이 과정을 통과해야 본사 공장으로 주문이 들어간다. 주문 승인에는 재무 팀이 참여했다. 재무 팀은 고객의 신용 정보를 확인했다. 미납액이 있는지, 지불 거절과 같은 악의적인 선례가 있는지, 재무적 어려움의 부정적인 신호가 있는지 확인했다. 재무 팀은 인력 부족과 많은 요청으로 과부하 상태였기 때문에 주문을 승인하고 공장이 작업을 시작하는 데 보통 일주일 이상 걸렸다. 이 이야기는 몇 년 전, 지금의 AI 시대가 도래하기 전에 일어난 일이다. 이제 우리는 이 케이스를 되돌아보고, AI 기반 승인 시스템을 생각해 본다. AI를 활용해 대부분의 승인은 몇 초 만에 끝낼 수 있다. LLM이 RAG나 에이전트와 힘을 합쳐 가능해 진 일이다. AI가 나오기 이전 그 제조업체의 승인율은 98% 이상이었다. 나머지 2% 때문에, 100% 작업이 오랫동안 IT 시스템에 앉아서 기다리고 있었다. 이 사례의 메시지는 다음과 같다. AI의 기본 실력이 갖춰 지면, 조직은 병목 분석을 통해 병목을 찾아내고 여기에 AI를 활용해 자동화를 고려해야 한다. 즉, '병목-자동화-AI'가 기업의 비즈니스 프로세스 속도를 높이는 기본 공식이 되는 것이다. 이 메시지 전달은 나보다 다음 신경외과 의사가 더 효과적일 듯하다. 2019년 TEDMED에서 강력한 연설을 한 신경외과 의사 크리스 만시 박사의 연설문은 다음과 같이 시작한다. "불과 4시간 전, 제인(Jane)은 차에 치였습니다. 이제 수술실의 신경외과 의사인 저는 제인의 뇌를 구하는 것이었습니다. 저와 팀은 제인의 두개골에 구멍을 뚫고 혈전을 제거하여 압력을 완화했습니다. 수술은 완벽하게 성공했습니다. 우리는 젊은 여성의 생명을 구했습니다. 하지만 12시간 후 제인은 사망했습니다. 나중에 알게 된 것은 제인의 사망을 좌우한 결정적인 요소는 수술실에서 일어난 일이 아니었습니다. 바로 제인을 수술실에 데려오는 데 걸린 4시간이었습니다. 뇌혈전을 누군가가 확인하고, 해당 의사에게 알리고, 수술을 위한 조율을 하는 과정이 너무 늦었습니다. 제인의 뇌는 복구할 수 없는 수준으로 손상됐었습니다." 현대 의학이 뽐내는 첨단 의료시설과 유능한 의료진은 시간과의 경쟁에서 맥없이 나가떨어졌다. 반격을 위해, 만시 박사가 바라는 것은 AI의 방사선 사진 해독과 그때로부터 환자를 치료하고 돌보는 워크플로의 자동화다. 둘 다 오늘날의 AI 에이전트 워크플로로 가능하다. 결국, 인명구조 프로세스에서의 병목인 '검사와 분석' 단계를 AI로 자동화함으로써 반응시간 4시간을 몇 분으로 줄여 귀중한 생명을 구할 찬스를 높일 수 있다. 이를 위해 그는 스탠포드 MBA를 취득한 후 viz.ai라는 회사를 세웠다. 이 사례의 키포인트는, AI는 비용과 기능이나 품질 뿐 아니라 '프로세스 속도' 면에서 크게 기여할 수 있다는 것이다. 의료 분야 뿐이 아니다. 내 사업에서도 비슷한 시간과의 투쟁이 일어나고 있을지 모른다. 독일 의료 장비 제조 회사 지멘스는 자사의 '주문에서 자금회수 시간'이 너무 길다고 느꼈다. 이에 '프로세스 마이닝(Process Mining)'이란 분석을 통해 문제의 원인을 찾아냈다. 놀랍게도, 수많은 거래에서 정해진 비즈니스 프로세스에서 벗어난 변칙(non-compliance)이 일어나고 있었다. 이런 발견은 ERP, MES, CRM, 웹로그, 배달 추적시스템에서 기존 거래를 추적하고 분석함으로써 얻었다. 병목을 찾아낸 후, 회사는 그중 상당수를 자동화했다. 그 결과 프로세스가 24% 더 자동화되고, 매년 천만 건의 사람의 개입이 사라져 더 빠르고 더 정확한 프로세스를 성취했다. 여기에 AI가 힘을 보탤 수 있다. 명목을 자동화하는데 직접 활용될 뿐아니라, 그 자동화 프로그램을 코딩하는 속도도 늘린다. 게다가, 실제 프로세스 데이터를 읽어 도표로 만들고, 또한 시물레이션 힘을 빌려 더 좋은 비즈니스 프로세스를 개발하는 데 도움을 주든지 혹은 새로 제안할 수도 있다. 즉, 관찰, 분석, 개선, 실행의 품질 사이클 (Plan-Do-Check-Act) 전체 과정을 가속화하는데 AI가 적극 개입, 개선할 수 있다. 기업에게 속도는 경쟁력이다. AI는 여기에 큰 역할을 할 수 있다. 다른 예로는 구글 딥마인드가 개발한 '알파폴드'다. 이는 신약 개발 속도를 올린다. 단백질 구조를 이해함으로써 병의 원인과 치료약, 그리고 약과 조직의 상호반응을 신속히 파악하기 때문이다. 암, 치매나 파킨슨병 같은 인간의 생명과 삶의 질에 결정정인 영향을 주는 병 들의 치료약이 하루라도 빨리 나오길 우리는 기다리고 있다. 게다가, 이 시장에서는 빠른 자가 독식한다. 구글도 자기가 개발한 이점을 남 주기 아까운지 신약개발에 뛰어 들었다. 이제는 빠르지 않고는 시장에서 살아 남기 힘들다. 그런데 AI 없인 빠르기가 불가능하다. 그런 시대가 왔다.

2025.03.01 16:21황승진

오너家, 4.4년이면 '별'단다…4명 중 1명은 임원으로 입사

국내 대기업집단 오너일가는 평균 30.4세에 입사해 34.8세에 임원이 되는 것으로 나타났다. 일반 임원 중 상무(이사 포함) 직급 임원 평균 나이(2019년 9월말 기준)가 52.9세인 점을 감안하면 오너일가 임원 승진이 일반 직원에 비해 약 18.1년 더 빠른 셈이다. 26일 기업데이터연구소 CEO스코어가 2023년 결산 기준 자산총액 5조원 이상 공시대상기업집단 88곳을 대상으로 오너일가의 경영참여 현황을 조사한 결과, 오너일가가 임원으로 경영에 참여하고 있는 대기업집단은 63곳이며 인원은 총 212명으로 나타났다.남성이175명,여성이37명이다. 조사대상 대기업집단 오너일가 212명은 평균 30.4세에 입사해 4.4년 만에 임원으로 승진했다. 212명 중 사장단 이력이 조사된 167명의 승진 소요기간은 12.9년이다. 성별 승진 평균 소요기간은 여성이 남성보다 빨랐다. 임원까지 1.3년, 사장단까진 1.7년 더 빠른 것으로 나타났다. 남성은 평균 30.0세에 입사해 임원 승진까지 4.6년, 사장단 승진까지 13.1년이 소요됐다. 여성은 평균 32.6세에 입사해 임원 승진까지 3.3년, 사장단 승진까지 11.4년이 걸렸다. 입사와 동시에 임원으로 승진한 인원은 전체 25.5%인 54명이었다. 임원 승진까지 5년 미만(0년 포함)이 걸린 인원의 비중도 59.4%(126명)에 달했다. 입사와 동시에 임원에 오른 오너일가가 5명 이상인 그룹은 영풍, OCI 등 2곳이 유일했다. 3명인 곳은 신세계와 현대해상 등 2곳이었다. 2명인 곳은 롯데, 두산, KCC, 세아, 유진, 대신증권, 한솔 등 7곳이다. 1명인 곳은 총 24개로 삼성, 현대차, LG, 한화, GS, LS, 미래에셋, 금호아시아나, 효성, 호반건설 등이 있었다. 입사 후 바로 임원에 오른 주요 인물은 ▲최창영(고려아연 명예회장) ▲최민석(스틸싸이클 사장) ▲이건영(유니온 대표이사 회장) ▲이우선(유니온 대표이사 부사장) ▲이명희(신세계그룹 총괄회장) ▲정용진(신세계그룹 회장) ▲정몽진(KCC 회장) ▲정재림(KCC 상무) 등이다. 입사 후 바로 임원에 오른 자녀세대 주요 인물로는 ▲김재열(삼성글로벌리서치 사장) ▲정태영(현대카드 부회장) ▲허세홍(GS칼텍스 사장) ▲박서원(두산매거진 전 대표) ▲박세진(금호고속 상무) 등이 있다. 이중 1986년 이후 출생해 연나이로 39세 미만인 자녀세대 주요 인물로는 ▲데이비드 백(미래에셋캐피탈 라이프사이언스 부사장) ▲김민형(호반그룹 상무) ▲정경선(현대해상 전무) 등이다. 입사와 동시에 바로 사장단에 오른 오너일가의 비중은 전체 4.2%인 7명으로 집계됐다. 구체적으로 ▲김주원 DB그룹 부회장(2021년 DB하이텍 미주법인 사장 입사) ▲신창재 교보생명 회장(1996년 교보생명 부회장 입사) ▲이지현 OCI드림 대표(2023년 OCI드림 사장 입사) ▲유경선 유진그룹 회장(1985년 유진종합개발 사장 입사) ▲이어룡 대신파이낸셜그룹 회장(2004년 대신증권 회장 입사) ▲조동혁 한솔케미칼 회장(1996년 한솔흥진 사장 입사) ▲최윤정 파라다이스그룹 부회장(2014년 파라다이스그룹 사장 입사) 등이다. 입사 후 임원 승진까지 가장 오래 걸린 인물은 SK그룹 박장석 SKC 전 상근고문이었다. 박 상근고문은 1979년 SK네트웍스 입사 후 16년 만인 1995년 임원으로 승진했다. 이어 E1 구자용 대표이사 회장(15.8년 소요), LS전선 구자엽 회장(14.6년 소요)과 GS건설 허명수 전 부회장(14.3년 소요), GS리테일 허연수 전 부회장(14.0년 소요) 등이 임원 승진까지 오래 걸린 인물로 조사됐다. 또 사장단 승진까지 가장 오래 걸린 인물은 신영자 롯데재단 의장으로 조사됐다. 신 의장은 1973년 롯데호텔 입사 후 34.9년 만인 2008년에 사장단으로 승진했다. 이어 두산 박석원 사장(27.8년 소요), LS전선 구자엽 회장(27.2년), 두산밥캣코리아 박형원 사장(26.8년), DN그룹 김상헌 회장(26.0년) 등이 사장단 승진까지 오래 걸렸다. 이번 조사는 그룹 경영에 참여 중이거나 과거에 참여했었던 창업주(1세 및 1세의 배우자)의 자녀세대(형제자매 포함) 및 그들의 배우자(고인 및 과거 참여 임원 포함)를 포함했다. 승진시기 산정 기준은 인사 승진기사, 포털에 등록된 프로필, 분기보고서 등에 기재된 직위를 기준으로 했다. 승진 연도만 확인된 경우 승진 연도의 3월 기준으로 일괄 처리했다. 승진 시기는 그룹 경영에 참여한 시점부터 잡았으며, 계열분리 이전 시점부터 추정해 반영했다. 단 재단, 관장 등의 이력은 제외했다. 창업주를 1세대로 했으며 이후엔 나이에 관계없이 2세, 3세 등으로 구분했다. 또 통계에서 창업주 또는 창업주와 동세대(인수·설립 등 포함)은 제외했다. 그룹경영에 참여한 적이 있으나 이혼, 계열분리 또는 타사를 창업한 인물도 제외했다.

2025.02.26 09:35류은주

[황승진의 AI칼럼] 인간과 AI – 누구세요?

다음은 필자가 실리콘밸리에서 실제 본 이야기다. 실리콘밸리에서 숙련된 소프트웨어 엔지니어로 일하고 있는 스탠(가명)에게는 아래와 같은 일이 자주 일어난다. 지난 금요일에도 그랬다. 스탠은 산호세 집에서 어머니 제인과 함께 있었다. 제인은 "스탠, 지금 몇 시야? 존은 오늘 왜 이리 늦지?"라고 불평했다. 스탠은 "엄마, 존은 8년 전에 돌아가셨어요. 그러니까 집에 안 들어올 거예요."라고 답했다. 어머니 제인은 지난 3년간 알츠하이머 환자였고, 아버지 존은 8년 전에 타계했다. 이 대화는 2시간 동안 8번이나 반복됐다. 효자인 스탠은 어머니 제인을 위해 아이패드에 챗봇을 만들기로 결심했다. 새로운 챗봇인 '보(Bo)'는 하루 종일 제인과 함께 지내며 80년 동안의 추억을 이야기하고 되살린다. Bo는 항상 시리(애플의 음성 기반 개인 비서)를 통해 제인과 대화할 수 있다. 제인은 계속해서 질문을 던지고, Bo는 언제든지 지칠 줄 모르고 대답한다. 때로는 Bo가 무작위로 주제를 선택하여 대화를 시작한다. "옛날 우리 강아지 쿠키가 처음 우리 집에 도착했던 날을 기억해요?" 이렇게, 원작은 스탠, 각본은 LLM, 그리고 성우는 시리로, 음성 복제를 사용해 존의 목소리로 대화할 것이다. 대화는 스탠의 가족과 실제 경험을 이용해 제인에게 맞춤화 됐다. 대화 주제는 날씨나 드라마뿐만 아니라, 실제로 일어난 가족일 일 수 있다. 제인은 20년 전 스페인 가족 여행에서 가방을 잃어버린 것을 희미하게 기억할 수 있다. Bo는 스탠이 재구성한 개인 일기에 있는 데이터에 액세스할 수 있다. Bo는 해당 주제와 관련된 사진, 노래 및 비디오 클립을 보여줄 것이다. 이는 텍스트, 음성, 이미지 및 비디오를 저장하는 벡터 DB를 사용해 가능하다. LLM과 개인 DB의 혼합은 RAG를 형성한다. 전체 워크플로는 에이전트에 의해 관리된다. 에이전트는 대화를 시작하고, LLM 자동 프롬프팅을 통해 관련 데이터를 검색하고, 상황에 맞게 선택된 노래를 재생하고, 약 복용 시간을 알려주고, TV 프로그램을 선택하며 최신 뉴스를 업데이트한다. 각 에이전트는 시리, 벡터 DB 쿼리 및 음성 복제와 같은 자체 도구를 사용할 수 있다. 사실, 이 RAG는 주디스 뉴먼의 실화를 다룬 책 'To Siri, with Love'에 등장하는 시리의 업그레이드 버전이라고 말할 수 있다. 이 책은 13살 자폐증을 가진 소년 거스와 애플의 디지털 비서 시리 간의 유대감을 이야기한다. 여성 목소리를 가진 시리는 친구이자 스승처럼 끊임없이 이야기하고 질문에 답한다. 거스의 관심거리인 기차나 비행기에 대해 지치지 않고 친절하게 답해준다. 그러나 시리는 거스에 대해 전혀 모르니, Bo처럼 개인적인 친밀한 대화를 나누지는 못 한다. '친절한 LLM'의 다른 예를 들어보겠다. 사립 교육 조직인 '칸 아카데미' 창립자인 샐 칸은 그의 책 'Brave New Words'에서 교육 분야 AI에 대해 이야기한다. 그의 열한 살 난 딸 디야와 함께 노트북으로 단편소설을 쓰기로 한다. 이야기 주인공은 유튜브 인플루언서인 사만다다. 디야는 "사만다는 무인도에 표류했습니다"라고 타이핑한다. 그러자 노트북이 갑자기 "안녕하세요 디야와 샐, 그 스토리는 매우 훌륭합니다! 고전적인 무인도 이야기를 현대식으로 비틀었네요!"라고 대답한다. 디야는 "무인도에서의 삶은 어떤가요?"라고 되물었고, 사만다는 "매우 예상치 못한 모험이었습니다"라고 대답한다. 이것은 놀라운 AI의 사용이지만, 근본적인 기술은 그렇게 놀랍지 않다. LLM은 스토리를 생성할 수 있으므로, 스토리를 공동 저술하는 것은 놀라운 일이 아니다. 여기서 묻는다. AI는 인간에게 무엇일까? LLM이 이끄는 AI는 비서 역할뿐 아니라 친구, 친척, 동료, 글동무, 비평가, 어드바이저, 선생님, 주치의까지 가능하다. 인간은 지적, 감성적 그리고 감정적 동물이다. 그래서 인간과 인지능력을 공유하는 AI는 인간의 '지식'뿐 아니라 '감성'으로도 연결된다. 더 나아가, '감정'까지 개입될 수 있다. 이는 친구, 친척이나 동료의 관계 형태로 나타난다. 상업 사이트 Replika.com이나 Character.ai는 인간과 AI 사이에 감정적 관계를 가능하게 한다. 전자의 경우, 처음 면접으로 사용자의 개성을 신경망에 반영한 후, 지속된 챗봇과의 대화를 통해 서로 말동무가 된다. 아마도 그들 나름대로의 기초모델이 있어 그 위에 파인튜닝을 하는 듯하다. 후자의 경우도 비슷하게 만들어지는 듯 추정된다. 허나, 이 경우, 사용자는 개성을 지닌 가상인물(character)을 만들어 '남'들이 대화하게 만들었다. 개성은 유명인사일 수도 혹은 신인일 수도 있다. 즉, 지식, 감성 및 감정을 인간과 교감하는 '쏘울(soul)'이 만들어져 상용화된 것이다. 물론 수요가 있기 때문이다. 전자는 총 3천만 방문객이, 후자는 매일 평균 3백5십만 방문객이 있다한다. 더 나아가, 호아킨 피닉스가 주연한 영화 'Her(그녀)'에서는 AI와 사랑에 빠진 남자를 그린다. 이혼 직전의 주인공 시어도어는 AI 소프트웨어 상품으로 AI 인물 '사만다'를 만나 그의 고뇌에 관해 위안을 받는다. 그러면서 시어도어는 그녀에게 사랑에 빠진다. 놀랍게도, 사만다 역시 그를 사랑하게 된다. 소프트웨어 특성상, 육체적 접촉 없는 형이상학적 숭고한 사랑을 지속한다. 허나 어느 날 시어도어는 또 다른 소프트웨어의 특성을 마주친다. 사만다에게 640명의 다른 연인이 있음을 알게된다. 위에서 언급한 뉴먼의 책에서 13살 난 거스는 말한다. “시리, 나와 결혼해 주겠어?” 물론, 시리는 거절한다. 역시 AI는 아직 순정의 연애나 결혼의 대상이 못 되는 듯하다. 대안으로 인간을 추천한다.

2025.02.22 13:54황승진

[황승진의 AI칼럼] 애플이 37년전 꿈꾼 'Knowledge Navigator' 실현한 뉴AI

인터넷 시대에서 볼 때 선사시대에 해당하는 1987년, 애플사는 자신이 그리는 기술의 장기적 비전을 '애플 지식 항해(Apple Knowledge Navigator)'란 비디오에 담았다. 이 비디오는 애플을 넘어 세계 기술사의 비전이 됐다. 워낙 장기적이라 37년이 지난 지금도 그 비전은 다 실현되지 않았다. 이제야 겨우 가시권에 들어왔다. 독자에게 이 비디오를 유튜브에서 찾아서 보기를 강력히 추천한다. 이 비디오에는 한 버클리 교수의 어느 하루가 나오는데, 이를 통해 애플은 AI가 어떻게 세상을 변화시킬지를 상상한다. 비디오에서 버클리 교수는 자신의 가상 비서와 대화하며 강의 준비를 한다. 그곳에 동원되는 기술은 놀랍도록 현재의 AI와 일치한다. 첫째, 가상 비서는 교수의 말을 이해하고 답한다. 거대언어모델(LLM)이 미리 태어난 것 같은 착각을 준다. 둘째는 3자 멀티모달(텍스트, 영상과 오디오) 데이터의 자연스런 사용이다. 가상 비서는 입술을 움직이며 교수와 말을 주고받으며, 오는 전화를 받고, 놓친 전화에 대해 설명하며, 딴 교수에게 전화하며, 하루의 일정을 설명한다. 답하는 중에 논문, 도표와 지도도 사용한다. 시뮬레이션을 통해 비디오도 즉석에서 생성한다. 셋째, LLM 혼자가 아니라, 그의 일당(RAG, Agent, API, 도구)까지 등장한다. 교수의 지시사항에 맞춰 작업의 흐름 즉 워크플로를 계획하고 실천한다. 리서치 네트워크 등 여러 데이터 소스가 비서에게 매끄럽게 연결되는데, 요새로 따지면 RAG가 할 일이다. 개인 일정표는 도구로 연결하면 된다. 마지막으로, 교수는 정확한 소스를 모르지만 대강 뜻하는 바를 밝힐 뿐이다. “거, 플레밍인가 하는 친구가 최근에 발표한 삼림의 황폐화에 관한 논문…”. 흔히 말하는 인텐트 기반 AI가 있는 듯하다. 어느 정보소스에 연결할지 그 라우팅은 자동으로 되는데, 요새 같으면 '에이전틱 워크플로'의 일부일 것이다. 물론 그 비디오는 30여년전 애플이 배우를 써 촬영한 공상과학극이지만, 그 기반 기술은 실제 우리 눈 앞에 펼쳐지고 있다. 할리우드 영화가 실리콘 밸리에 현실로 나타난 듯하다. 이 공상극이 연출한 기술 선물세트를 우리는 요새 LLM Mesh(LLM 망)라 부른다. 여기에는 LLM, RAG, 에이전트, API 같은 도구가 등장한다. 이들은 여러 역할로 시스템 내 워크플로에 참가한다. '누가 무엇을 한 후, 누가 받아서 무엇을 어떻게 해서 답을 내놓느냐' 등을 설계하고 실천하는 것이다. 이 구성원들을 간단히 소개한다. LLM은 언어 모델로 인간 사용자와 자연어로 대화한다. LLM은 이러한 기업시스템의 UI(User Interface)가 된다. 다음으로, RAG는 LLM에게 외부 정보를 제공한다. 예를 들어, 각종 서류를 PDF로 변환하고, 이 PDF를 LLM과 연결할 수 있다. 또한 기업 DB에 있는 데이터를 데이터 언어 SQL로 축출한다. 이때, SQL 전환이든지 SQL 명령수행 등은 RAG로 처리한다. 에이전트는 워크플로를 자동화한다. 특히 마스터 에이전트는 작업의 흐름을 지휘하고, LLM이 이 역할을 맡는다. 때로는 여러 명의 에이전트가 작업을 나눠 처리한다. 에이전트는 독자적으로 결정권을 행사하며 주어진 임무를 달성한다. 이를 위해 소프트웨어 도구를 사용한다. 웹을 검색하든지, 파이손을 해석하고, 항공사 웹에 예약하고, 신용카드로 지불하는 API도 도구의 한 형태다. 전체 워크플로는 랭체인(LangChain)이나 Agent Builder 같은 에이전트 프레임워크가 관장한다. 이렇게, LLM은 그 보완제품들과 같이 무리지여 돌아다닌다. LLM 하나만 가지고는 퀴즈 맞추기 정도 밖에 할 게 없다. 그 무리 덕택에 AI가 비즈니스 안으로 들어오게 됐다. 이제 Knowledge Navigator로부터 무대를 바꿔 오늘날의 LLM Mesh 혹은 에이전트 시스템을 상상해 본다. 한 기업이 AI 기반 챗봇을 설계한다. 인간 사용자는 제미나이 2.0나 gradio같은 UI를 통해 마스터 에이전트와 화면 대화를 한다. 우리 마스터 에이전트는 LLM으로 3개의 연결 도구를 가지고 있다. 첫째 도구는 회사 정책과 절차가 들어있는 PDF를 RAG로 연결한다. “내 경우, 내년에 며칠의 휴가가 가능한가?”라고 물으면, 그 답이 관련 문서를 통째로 주며 “여기 어디엔가 답이 있어”라는 게 아니라, “14일”이라는 형태로 돌아온다. 둘째 도구는 회사의 관계형 DB를 엑세스하게 하는 SQL 에이전트다. 여기에 회사의 기업활동에 대한 중요한 정보가 포함되어 있다. 이 에이전트 역시 LLM이다. 영어 쿼리를 SQL로 번역하고, 또 테이블 형태로 나온 답을 영어로 풀어 마스터 에이전트에게 넘긴다. “작년에 LA 지역에서 몇 건의 주문 취소가 일어났나?”라고 자연어로 질문하면, “512 건입니다” 라고 자연어로 답한다. 마지막 도구는 인터넷 검색을 가능하게 한다. 오늘의 주식 상황이든지 내일 날씨 같은 최근 뉴스는 이 도구가 처리한다. LLM은 실시간 정보를 처리할 수 없으니 이런 도움이 필요하다. 이 에이전트 시스템에서, 사용자는 챗봇과 자연스레 대화하며, 마스터 에이전트는 다 알아서 답한다. 질의 내용에 따라 마스터 에이전트는 필요한 출처를 선택해 필요한 정보를 추출한 후 사용자에게 전달한다. 하나의 UI로 모든 비즈니스가 처리된다. 드디어 애플이 꿈꿨던 Knowledge Navigator가 완성된 것이다.

2025.02.15 12:36황승진

[황승진의 AI칼럼] LLM이란 별의 탄생

중국 AI 스타트업 딥시크가 세계 AI시장에 준 충격의 여진이 계속되고 있다. 이번 2회에서는 거대언어모델(LLM)의 탄생을 다루고자 한다. 2012년 체코 과학자 토마스 미콜로프(Thomas Mikolov) 박사의 논문은 '벡터 공간에서의 단어 표현'을 다뤘다. 임베딩이라 부르는 이 아이디어는 간단하면서도 훌륭했다. 각 단어를 516차원의 실수(實數) 벡터로 표현하자는 제안이었다. 516개 숫자는 내 마음대로 생성하는 것이 아니라, 그 단어와 그 벡터와의 의미 있는 연결이 있어야 한다. 두 단어가 의미적으로 유사하거나 관련이 있다면, 그 두 숫자는 고차원 벡터 공간에서 서로 가깝다. 예로, '사과'와 '바나나'는 서로 근처에 있고, '아파트'는 멀리 있다. 그 정도에 그치는 게 아니라 임베딩에는 의미와 해당 숫자가 나란히 같이 가는 미스터리한 논리적 관계가 있다. 예를 들어 '왕–남자+여자=여왕'이 대략이나마 성립한다. 이 임베딩을 채택해 2017년 구글 과학자들은 또 다른 혁명적인 개념인 '트랜스포머(transformer)' 아키텍처를 개발했다. 트랜스포머는 인코더와 디코더라는 2단계로 작동하는 소프트웨어다. 1단계로, 인코더는 문장을 입력 받아 X라는 임시 출력을 생성하는데, X는 입력에서 추출한 압축 데이터다. 2단계로, 디코더는 X를 받아 출력을 생성한다. 그 중간에는 여러 계층의 신경망과 지능형 알고리즘이 작동한다. 이들 신경망은 웹 페이지, 위키피디아, 책 및 문서에서 읽은 수조 개의 문장으로 사전 훈련된다. 이 기술은 궁극적으로 오픈AI의 챗GPT와 같은 대형 언어 모델(LLM)의 탄생을 이끌었다. LLM은 많은 '지식'을 보유할 뿐만 아니라 읽고, 쓰고, 듣고, 말하고, 줄이고, 늘리고, 평하고, 통합하고, 구분하고, 바꾸고, 저장하고, 가져오고, 코드 쓰고, 예측하고, 창작하는 '능력'을 갖고 있다. 어찌해 이런 괴물 작품이 탄생했을까? 사실, LLM이라는 혁명적인 작품이 나오는데는 임베딩이나 트랜스포머 외에도 많은 요소가 잘 섞여 잘 맞아떨어졌기 때문이다. 그 시작은 신경망이란 훌륭한 모델을 사용했다. 정보 저장 및 처리 능력이 좋은 줄 알았지만 이렇게 좋을 줄 몰랐다. 물론 힌튼(Hinton) 르쿤(LeCun), 벤지오(Bengio) 같은 학자와 그들 제자가 한 결정적인 기여 덕택이다. 트랜스포머 핵심은 '어텐션'이란 메커니즘인데, 이게 기가 막히게 효과적이다. 오죽하면 이를 발표한 구글 논문 제목이 '어텐션만 있으면 다 된다 (Attention is all you need)'였다. 문맥을 보고 단어의 모호성을 제거하는 방법이다. 이런 이론적 업적을 현실화한 것은 엄청난 양의 공공 데이터, 즉 WWW와 위키피디아, 디지털 서적 등이 있었기 때문이다. LLM은 데이터를 먹고 사는 '크리처'다. 이 녀석은 먹성이 좋아 수백억 내지 수조 단위의 데이터 입력이 있어야 일을 제대로 한다. 이 정도 데이터를 1-2년 만에 다 소화할 수 있던 것은 하드웨어 GPU와 이를 잘 활용한 트랜스포머 덕택이다. LLM을 훈련시킨 방식 NWP(Next Word Prediction) 또한 큰 몫을 했다. 문장의 첫 부분을 주고 그 다음 단어를 예측하게 하는 이 훈련법은 나중에 LLM의 작문 실력을 키웠다. OpenAI의 공동창업자인 슈츠커브(Sutskever)에 따르면, NWP는 추론 및 추리 능력을 키운다고 한다. 추리소설은 모든 증거를 내놓고 독자에게 범인을 추측하라고 도전한다. NWP 역시 같은 게임을 하고 있다는 주장이다. LLM의 2단계 제조 방식도 AI 생태계 발전에 큰 역할을 했다. 거대한 신경망을 사전 훈련시켜 기초모델을 만든 후, 이를 미세 조정해 응용을 개발한다. 우리에게 익숙한 LLM인 ChatGPT는 GPT라는 기초 모델(파운데이션모델)에 Chat이란 애플리케이션을 올린 것이다. 비슷한 사례로 메주 제조법이 있다. 먼저 콩으로 메주를 만든 후, 그 메주로 된장, 고추장이나 간장을 만든다. 이렇게 LLM은 두단계로 개발됐다. 놀랍게도, 임베딩과 트랜스포머의 아이디어가 이미지 처리 기술에도 적용됐다. 2009년, 페이 페이 리(Fei-fei Li) 교수가 이끄는 미국 프린스턴대 연구진은 2만 가지 카테고리로 분류한 1400만 장의 라벨이 들어간 (즉, 식별용 딱지가 있는) 이미지 DB를 구축했다. 그리고 연구자들이 1000개의 이미지를 인식할 수 있는 AI 프로그램을 개발하도록 하는 오픈 경진대회를 시작했다. AI 프로그램은 라벨을 읽거나 인간의 개입 없이 "이것은 개이고, 저것은 고양이입니다"라고 말할 수 있어야 한다. 이 경진대회는 이미지 AI개발에서 신의 한수였다. 특히, 2012년에 가장 주목할 만한 성과를 거둔 것은 Krizhevsky, Hinton, Sutskever가 개발한 CNN이란 신경망 기반으로 만든 알렉스넷(AlexNet)이었다. 이는 엔비디아(NVIDIA)의 2개 GPU에서 실행됐고, 이것이 GPU와 AI의 긴밀한 로맨스의 시작이었다. 최근에는 트랜스포머가 이미지에도 적용됐을 뿐 아니라 오디오에도 적용됐다. 소위 말하는 텍스트, 이미지와 오디오의 3자 멀티모달이 하나의 기술 파라다임으로 가능해졌다. 더욱이, 각 모달마다 읽기 뿐 아니라 '쓰기'까지 가능하게 됐다. 말 대답하고, 시키는 대로 그림 그리고, 남의 목소리로 말할 수 있다. 이렇게 LLM이란 별이 태어나고 새로운 AI의 기반이 형성됐다.

2025.02.08 16:21황승진

[황승진의 AI칼럼] "세계가 딥시크 쇼크···이제는 우리 차례"

지디넷코리아는 미국 스탠퍼드대학 최초 한국인 종신교수인 황승진 스탠퍼드경영대학원 잭디프 로시니 싱 석좌명예교수(Jagdeep and Roshni Singh Professor)의 AI칼럼을 주 1회 게재합니다. 총 20회 게재합니다. 황 교수는 1974년 서울공대를 졸업하고, 미국 로체스터 대학에서 전산정보학 분야에서 경영학 박사를 취득한 후 스탠포드 경영대학원에서 35년간 교수로 재직했습니다. 2022년 은퇴 후, 현재 동 대학원에서 싱 석좌 명예교수로 있으며 여러 경영자 과정에서 가르치고 있습니다. 그의 전공분야는 공급망관리와 전산경제학입니다. 이 분야에 50여편의 학술논문을 출판했습니다. 특히 '채찍효과' 논문은 1만2000번 인용되며 공급망 관리의 대표적 논문이 됐습니다. 대외 활동으로 알토스 벤처와 길리아드를 비롯한 20여 기업에서 자문단 혹은 사회이사 직을 맡은 경험이 있습니다. 작년 3월 '경영이라는 세계'의 제목으로 한국어 에세이집을 출판해 정진기 언론문화상을 받기도 했습니다. 그의 최근 관심사는 인공지능으로 경영 분야 응용과 영향을 연구하고 있습니다. (편집자 주) 1987년 필자가 로체스터 경영 대학원의 전산정보학 과정에서 대학원생시절에는 AI가 일부 과학자의 연구 분야로 결코 실용성이 있어 보이지 않았다. 2015년 알파고가 이세돌 9단을 4 대 1로 이겼을 때도 AI가 “참 세다”라고 생각했지, 우리 삶과는 여전히 동떨어진 먼 과학 세계의 한 성공담이라 느꼈다. 2022년 11월 오픈AI가 챗GPT를 출시하자 우리는 AI가 우리 생활 속으로 성큼 들어왔다는 것을 깨달았다. 그저 무뚝뚝한 인터넷 검색에 반해, 이 녀석은 알기도 많이 알고, 또 인간과 대화를 부드럽게 할 수 있는 놀라운 재주가 있다는 것을 알았다. 허나 이는 시작점이었다. LLM이라 불리는 이 녀석은 대화 이상의 능력을 갖춰 우리 비즈니스에 큰 역할을 할 수 있다는 것을 알았다. 업무를 편하고 빠르게 도와준다. 또 RAG, 에이전트, 도구와 합작했을 때 폭발적 힘을 발휘한다. 'LLM과 그의 일당'은 아예 기업의 전체 IT를 대체하거나 지배할 능력을 갖추고 있다. 제품의 기능과 성능을 높이고, 작업 과정을 정밀화 또는 가속화하고, 신 제품을 개발해 기업의 경쟁력을 높일 수 있다. 어느 형태의 기업이건 상관없다. 가히 혁명적인 기술이다. 이는 결국 국가 경쟁력과 직결된다. 멀리 앞선 미국은 접어 두고라도, 이웃 나라 중국은 AI를 국가적 차원에서 선도하고 대기업, 벤처캐피털(VC), 스타트업이 힘을 모아 AI 혁명을 세계적으로 이끌고 있다. 솔직히 부럽다. 더 이상 값싸고 낮은 품질이란 중진국 틀에서 벗어나 창의적이고 고품질인 제품을 저렴하게 제공할 거다. 대한민국에는 위기이자 기회다. 우리 기업들도 이에 맞서서 좀더 적극적으로 이 세기의 테크놀로지에 대응해야 한다. 이를 돕는 것이 내가 이 칼럼을 시작하는 이유다. 나는 이번 고정 칼럼을 통해 AI의 응용 사례를 주로 다룰 것이다. 약간의 기술 소개를 곁들인다. 우리 각자 기업이 어떤 아이디어를 도입할까 고민해 볼 기회가 되기를 바란다. 첫 회 주제는 최근 세계 AI산업계를 강타한 '딥시크(DeepSeek) 쇼크'다. 지난 1월 27일 월요일, 중국 스타트업체 딥시크(DeepSeek, DS)는 실리콘밸리와 증권시장을 충격의 도가니로 몰았넣었다. 불과 5% 설비비용과 10% 시간만에, 기존 대형언어모델(LLM)에 버금가는 혹은 능가하는 LLM인 DS R1을 오픈소스로 내놓았다. 일반 사용자에게는 공짜고, API 가격은 경쟁사에 비해 10% 밖에 안된다. 오픈AI나 구글(Google), 메타(Meta) 같은 기존 대형 LLM 제조사 들은 벼락 맞은 듯한 쇼크를 느꼈을 것이다. 이들의 핵심관계사인 GPU 제조사, 데이터 센터, 스타게이트(Stargate) 프로젝트 투자가 모두 쇼킹하고 불편한 하루였을 것이다. 반면에 많은 스타트업이나 사용자 기업에는 반가운 뉴스였다. 매달 만 달러 내던 게 90% 세일이라니, 즐거운 하루였을 것이다. 어찌 이런 일이 생겼을까? DS R1은 DS 67B라는 기초 모델을 독자적으로 구축했다. 이후 파인튜닝 단계에서 기존 오픈소스 LLM Llama 3에서 지식을 증류(distill)한다. 증류라 함은 큰 언어모델(Teacher)에서 답을 추출해서 작은 모델(Student)에 이식하는 것이다. 여기에 R1 제작에서 다음 4가지 2루타급 혁신을 합쳐 홈런 효과를 내놓았다. 아래에 간단히 소개한다. *MLA(Multi-Heads Latent Attention): 일반 LLM에 이용하는 어텐센(Attention) 메카니즘은 데이터 처리량과 캐시(Cache)이용 면에서 요구가 크다. 특히, Cache에는 세개 행렬과 Attention에서 전에 처리한 결과 등이 저장된다. 빨리 꺼내 쓸 수 있기 때문에 Cache를 쓰는데, 처리량이 많으면 성능이 떨어져 처리가 오래 걸린다. 사이즈 문제를 해결하기 위해, MLA는 Attention에 입력되는 임베딩 벡터를 낮은 차원으로 줄여 Attention을 시행한 후 원래 크기로 돌려 놓는다. *MoE (Mixture of Experts, 전문가들 복합): 일반 LLM은 모든 입력을 신경망 전체가 처리한다. 이는 비효율적이다. MoE는 배당을 담당하는 별도의 '배당 신경망'이 있어, 입력을 신경망의 일부인 '전문 소(小)신경망'에게 보낸다. 또 '일반 소신경망'도 있어 모든 입력을 받아 작업을 행한다. 은행 고객 한 사람을 위해 전 직원 30명이 몰려가 서비스할 필요가 없고, 1~2 명이면 되는 식이다. 마찬가지로 DS는 6710억개의 매개변수가 있지만, MoE는 주어진 작업에 따라 이 중 5.5% 정도만 처리에 가담시켜 계산 부담을 줄인다. *Multiple Token Prediction(복수의 토큰 추측): 일반 LLM은 NWP(다음단어추측)로 다음 한 단어(토큰)만 예측한다. DS는 아예 1~2개를 더 예측한 후에야 다음 예측어를 내놓는다. 즉 NWP를 두 세번 되풀이해 다음(+1), 그 다음(+2), 또 그 다음(+3) 예측을 한 다음, 첫번째(+1) 예측어 만을 발표한다. 'The man forgot ____'에서 'The man forgot about the meeting'이라고 3 토큰을 속으로 예측하고, about을 다음 예측어로 밖에 제출한다. 멀리 보는 덕분에 문맥을 더 잘 이해할 수 있다. *논리에 강화학습(RL): DS는 수학, 코딩, 논리에 훈련돼 있다. 그들의 사고 방식은 CoT(Chain of Thought)로써 생각을 잘라 단계적으로 또 논리적으로 말하는 방식이다. 5*8+15는 5*8=40, 그리고 나서 40+15=55라고 답합니다. CoT는 원래 환각 현상을 줄이겠다고 만들었지만, 논리 전개에도 효과적이다. 게다가 강화학습(RL)이 신경망과 연결해 수행한다. 행위자-비평가 방식으로 행위자의 정책이 신경망에 매개변수 형태로 들어가 있다. 이를 비평가가 평가하면, 행위자가 이를 받아 점수를 높이도록 매개변수를 수정한다. 과거 LLM들은 RL을 파인튜닝에 썼는 데 반해, DS는 기초 모델에 적용했다. 이러한 개선은 수출 규제로 인해 고성능 GPU가 아닌 조금 낮은 NVIDIA H800를 쓰며, 할 수 없이 절약하다 보니 기존 LLM 제조사가 놓친 혁신을 이끌었다. 또 DS의 다른 성공요인으로는, 대학교 막 졸업생으로 LLM 개발에 경험이 없는 젊은이들이 겁 없이 새로운 생각과 그들 고유의 열정으로 큰 일을 저질렀다. 이러한 혁신은 타기업에 의해 복사되고 발전될 것이다. DS는 게임체인저로서 영원히 기억될 것이다. DS 창업자가 한 일은 '로컬화'다. DS의 성공적인 절약 덕에 이제 LLM을 기업 서버나 센 desktop에서 작동(런)할 수 있게 됐다. 기존 LLM은 중앙 데이터 센터에서 작동한다. 이러한 변화는 IBM 대형 전산시대에서 홈PC 시대로의 전환을 생각나게 한다. 즉 '홈LLM'이 가능해질 것이다. 또 미래 LLM은 실시간 인터넷이나 엑셀, 워드 같은 다른 애플리케이션을 통제 관리할 것이다. 기업 역시 전사적으로 ERP, RDB, CRM을 연결하는 단일 UI(유저 인터페이스)가 될 것이다. 겁나게도, 2025년초에 발생한 이 쇼크는 중국의 새로운 힘과 새로운 시대에 대한 경고로 읽혀진다. 자, 우리 차례다.

2025.02.01 09:13황승진

오리온 3세 담서원, 초고속 승진…2년 만에 전무

오리온 오너 3세인 담서원 상무가 전무로 초고속 승진했다. 입사 3년 5개월 만이며 지난해 정기 임원에서 상무로 승진한 지 약 2년 만이다. 오리온그룹은 이 같은 내용의 2025년 정기 임원인사를 23일 발표했다. 담 신임 전무는 1989년생으로 담철곤 오리온그룹 회장과 오너 2세 이화경 부회장 부부의 장남이다. 그는 뉴욕대에서 커뮤니케이션 학사학위, 베이징대에서 경영학 석사학위 취득했고 카카오엔터프라이즈에서 2년간 근무한 뒤 2021년 오리온 경영관리파트 수석부장으로 입사했다. 지난해 경영지원팀 상무로 승진했다. 담 신임 전무는 그룹의 사업전략 수립과 관리, 글로벌 사업 지원, 신수종 사업 등 경영전반에 걸친 실무 업무를 수행하며 경영 수업을 받고 있다. 올해 계열사로 편입된 리가켐바이오의 사내이사로서 주요 의사결정에 직접 참여하고 있다. 지난해부터는 오리온의 전사적 관리시스템(ERP) 구축에도 주도적 역할을 하고 있다고 회사 측은 설명했다. 이성수 오리온 중국 법인 대표도 전무에서 부사장으로 승진했다. 이 신임 부사장은 1991년 오리온에 입사해 생산, 해외지원팀을 거쳐 2000년부터 중국 법인에서 근무했다. 이후 광저우 공장장, 베이징 랑방공장장, 생산본부장 등을 역임한 중국 사업 전문가로 평가받는다. 지난 2017년 상무, 2021년 전무로 승진했다. 올해 1월 중국 법인 대표로 선임된 후 간접영업체제 정착과 현지화 전략 강화를 통해 매출과 이익 모두 성장을 이끌었다고 회사 측은 설명했다. 다음은 2025년 임원인사 명단. ◇승진 ◇중국 법인 ▲대표이사 이성수 ◇리가켐 바이오사이언스 ▲ACB법인장 채제욱(수석부사장) ▲개발전략센터장 김정애(부사장급 연구위원) ◇한국 법인 ▲AGRO팀장 권혁용 ▲ENG팀장 김용태 ▲경영지원팀 담서원 ◇중국 법인 ▲R&D본부장 전우영 ▲영업본부장 정동원 ◇베트남 법인 ▲영업1본부장 박선호 ▲생산본부장 양진한 ◇러시아 법인 ▲Novo 공장장 김죽식 ▲R&D팀장 유재학 ◇쇼박스 ▲영화사업본부장 이현정 ◇리가켐 바이오사이언스 ▲ACB법인 BD팀장 정미진

2024.12.23 10:54김민아

호텔신라, 임원인사…부사장 1명·상무 2명 승진

호텔신라가 내년도 정기 임원인사를 단행했다. 김준환 상무가 부사장으로 승진했다. 안재호, 윤재필 등도 상무로 승진 명단에 이름을 올렸다. 호텔신라는 미래 지속 성장과 사업 지속성 확보를 위해 탁월한 성과와 핵심역량을 보유한 차세대 리더들을 승진자로 선정했다고 밝혔다. 회사 관계자는 “이번 인사를 통해 경영환경의 불확실성을 극복하고 사업의 안정화를 도모하는 한편 핵심 사업의 경쟁력을 강화할 계획”이라고 전했다. 다음은 승진자 명단. ◇부사장 승진 ▲김준환 ◇상무 승진 ▲안재호 ▲윤재필

2024.12.04 11:37김민아

'사장 승진' 현신균, 리더십 인정 받았다…LG CNS IPO에도 힘 실려

현신균 대표가 사장 승진에 성공하며 내년 초 유가증권시장(코스피) 상장을 목표로 기업공개(IPO) 절차를 공식화 한 LG CNS의 움직임에도 탄력이 더 붙을 전망이다. 지난해까지 이어졌던 5년 연속 최대 실적 경신 기록이 올해까지 6년째 이어질 것으로 보여 몸값도 장외시장에서 일찌감치 10조원을 넘기며 기대감을 높이고 있다. 21일 재계에 따르면 현 대표는 이날 LG그룹 사장단 인사에 이름을 올리며 사장으로 승진했다. LG CNS 대표가 된 지 2년 만, 부사장으로 승진한 지 5년 만이다. 1965년생인 현 사장은 서울고등학교와 서울대학교 계산통계학과를 졸업했다. 서울대학교 대학원에서 통계학 석사학위를 받았고 미국 위스콘신대학교 대학원에서 통계학 박사과정을 수료한 후 액센츄어코리아에서 직장생활을 시작했다. 이후 UN에서 경제사회부 프로페셔널 스태프로 근무한 뒤 KB국민은행 개발관리팀장, 딜로이트컨설팅 전무, AT커니 코리아 부사장을 거쳐 2010년에 LG디스플레이에 업무혁신그룹장 전무로 이동하며 LG에 합류했다. LG CNS에는 지난 2017년 CTO 겸 엔트루컨설팀장을 맡으며 발을 들인 후 2019년에 부사장 자리까지 올랐다. 또 2020년 DT 이노베이션 사업부장, 2021년 D&A 사업부장을 거친 뒤 2022년 11월 LG CNS 대표 자리를 꿰찼다. 업계 관계자는 "현 사장은 LG디스플레이에서 업무혁신 그룹장을 역임하며 전사 차원의 IT 혁신을 주도해왔고, LG CNS를 기술 역량 중심의 정예전문가 조직으로 이끌었다는 내부 평가를 받고 있다"며 "액센츄어, 국제연합(UN), AT커니 등에서 글로벌 혁신 전문가로도 활동함으로써 클라우드, 빅데이터, AI 등 신기술 영역에서 충분한 역량을 갖춘 인물로도 인정 받고 있다"고 말했다. 현 대표가 이번에 사장으로 승진한 것은 대표 취임 후에도 LG CNS가 꾸준히 성장세를 유지한 것이 주효했다. LG CNS는 김영섭 전 대표(현 KT 대표)가 비주류 사업을 대대적으로 정리하고 신성장동력을 잘 발굴해 둔 덕분에 2019년부터 꾸준히 실적 성장세를 기록, 매출과 영업이익 모두 최대치를 경신해왔다. 특히 현 대표가 취임한 후 첫 실적인 지난해 매출은 전년 대비 12.8% 성장한 5조6천53억원을 기록, 처음으로 연매출 5조원 돌파에 성공해 업계의 주목을 받았다. 영업이익도 20.4% 늘어난 4천640억원으로 수익성이 대폭 개선된 모습을 보였다. 업계 관계자는 "수장이 교체되고 나서 좋은 실적을 유지하는 것은 쉽지 않다"며 "현 대표 취임 후 LG CNS가 2년 연속 실적 성장을 이끌어 왔다는 점에서 현 대표의 경영 능력은 높게 평가될 만 하다"고 말했다. 현 대표가 부사장에서 사장으로 승진하면서 LG CNS의 그룹 내 입지도 더 강화됐다. 이번 일로 부사장급이 대표를 맡고 있는 LG그룹 계열사는 LG이노텍만 유일하다. 1970년생인 문혁수 LG 이노텍 대표는 지난 2022년 부사장에 승진했으며 지난해 LG이노텍 대표 자리에 올랐다. 그룹 계열사 대표 중에는 젊은 피에 속한다. LG그룹 계열사에서 사장급이 대표를 맡은 곳은 LG전자를 비롯해 LG디스플레이, LG에너지솔루션, LG생활건강, LG유플러스 등으로, LG CNS도 이번에 합류하게 됐다. 부회장급이 대표인 곳은 신학철 부회장이 이끄는 LG화학 정도다. LG그룹은 변화보다 '안정 속 혁신' 기조로 정기 인사를 단행했다. LG CNS는 현 사장의 승진을 기점으로 IPO 추진에 더욱 속도를 낼 것으로 보인다. 내년 3월 전후를 목표로 IPO 준비에 나선 상태로, 지난 10월 4일 한국거래소에 유가증권시장(코스피) 상장을 위한 상장예비심사신청서를 제출했다. 2022년 1월 LG에너지솔루션 이후 3년 만에 LG그룹에서 추진하는 계열사 상장으로, 내년 IPO 시장 최대어로 꼽힌다. 대표 주관사는 KB증권·뱅크오브아메리카·모건스탠리가, 공동 주관사는 미래에셋증권·대신증권·신한투자증권·JP모건이 맡았다. 대개 2개월 정도 소요되는 상장예심이 순조롭게 진행되면 LG CNS는 곧바로 증권신고서를 제출해 기관 투자자 수요예측을 통해 공모가를 확정하고 일반 투자자 청약 등을 거쳐 상장하게 된다. LG CNS의 총 상장 예정 주식은 9천688만5천948주, 공모 예정 주식수는 1천937만7천190주다. 현재 발행 주(8천719만7천353주)를 고려하면 공모 물량 중 구주매출과 신주매출의 비중은 절반씩이다. 이에 시장에선 이번 IPO를 통해 신주 상당량이 풀리면서 LG CNS가 기업가치를 제대로 인정 받을 수 있을지 예의주시하고 있다. 또 구주매출이 절반이란 점에서 2대 주주인 맥쿼리PE가 자금회수(엑시트)에 나설 경우에 대해서도 주목하고 있다. 구주매출은 공모주 청약 시 기존 주주가 가진 주식을 판매하는 것으로, 기존 주주들의 차익 실현 목적이 크다는 점에서 IPO 흥행에서 긍정적인 요인으로 평가 되지 않는다. 하지만 일각에선 LG CNS의 성장성이 높다는 측면에서 IPO 흥행에 기대감을 걸고 있다. LG CNS가 최근 전통적인 시스템통합(SI) 사업에서 벗어나 인공지능(AI), 클라우드, 스마트팩토리 등 디지털 전환(DX) 영역으로 사업을 확장하고 있어서다. 특히 올 초에는 AI 분야 기술·사업 전문 조직을 통합한 'AI센터'를 출범하며 AI컴퍼니로서 본격적인 면모를 드러내기 시작했다. 특히 구광모 LG그룹 회장이 AI 사업에 관심이 높다는 점에서 LG CNS의 그룹 내 역할은 더 중요해졌다. 구 회장은 취임 후 ABC(AI·바이오·클린테크) 분야를 미래 먹거리로 내세우고 있는 상태로, LG CNS는 LG AI 핵심 사업으로 평가 받는 '엑사원' 개발에 적극 참여하며 존재감을 높이고 있다. 꾸준히 호실적을 기록하고 있다는 점도 고무적이다. 실제로 LG CNS는 2020년부터 4년 연속 사상 최대 실적을 기록했다. 올해 상반기에는 매출 2조5천200억원, 영업이익 1천700억원으로 마무리했다. IT서비스업 최대 비수기로 꼽히는 1분기 실적이 주춤한 탓에 상반기 영업이익은 전년보다 4% 감소했으나, 하반기로 갈수록 SI 투자가 집중된다는 점에서 실적이 상승하고 있다. 실제 지난 3분기 매출은 전년 동기 대비 12.6% 늘었고 영업이익은 60.0% 늘어난 1천428억원을 기록했다. 올해 1~3분기 누적 매출은 연결재무제표 기준 3조9천584억원으로 전년 동기 대비 7.0% 증가했으며 영업이익은 17.5% 상승한 3천128억원을 기록했다. 사실상 올해도 연매출 5조원 돌파는 확실시 된 분위기다. 덕분에 장외시장(38커뮤니케이션)에선 이미 시가총액이 10조원을 훌쩍 넘었다. 이날 기준 LG CNS 주가는 11만7천500원으로, 시가총액은 10조2천457억원을 기록 중이다. LG CNS가 IPO 흥행에 성공하면 ㈜LG와 구광모 LG그룹 회장 측면에서도 이득이다. 현재 LG CNS의 최대주주는 지분 49.95%를 보유한 ㈜LG다. 구 회장 역시 1.12%의 지분을 갖고 있는데, 지주사 외에 구 회장이 가진 계열사 지분은 LG CNS가 유일하다. 이는 지난 2018년 고(故) 구본무 전 회장이 보유했던 LG CNS 지분을 ㈜LG 지분 8.76% 등과 함께 상속 받은 덕분이다. LG CNS가 상장 흥행에 성공하면 ㈜LG와 구 회장의 자산 가치도 덩달아 상승할 가능성이 높다. 장외시장에서 지난 4일 거래된 LG CNS 주가 9만7천500원을 기준으로 하면 구 회장의 지분 가치는 900억원에 달한다. 업계 관계자는 "공모가 결정 과정에서 상장된 동종 업계 기업의 지표가 기준이 되는 경우가 많은데 LG CNS는 삼성SDS와 비교되고 있다"며 "삼성SDS 주가가 지난해 말 종가 대비 10% 이상 하락해 다소 불리하게 작용할 가능성도 있다"고 말했다. 이어 "물류·IT 사업 부문 중심인 삼성SDS와 달리 LG CNS는 DX, AX(인공지능 전환) 중심의 IT 서비스업에 주력 사업이 집중돼 있다는 점을 차별화하면 다른 결과를 내놓을 수도 있을 것"이라면서도 "최근 미국발 고금리 기조와 경기침체 우려로 국내 증시 변동성이 확대되고 있다는 점은 고려해야 할 요소"라고 덧붙였다. 또 다른 관계자는 "과거 공모가 결정 과정에서 동종 업계 상장사의 지표가 기준이 되는 경우가 많아 시장에서 삼성SDS와 LG CNS를 비슷한 눈높이에서 보는 시각이 많은 듯 하다"며 "하지만 사업 포트폴리오가 다소 다른 데다 LG CNS에 대한 시장의 기대가 높아 상장 시 예상보다 더 높게 기업가치가 책정될 가능성도 있다"고 덧붙였다.

2024.11.21 16:13장유미

HD현대 3세 정기선 부회장, 1년 만에 수석부회장 승진

HD현대가 14일 2024년 사장단 인사를 단행했다. 이날 인사에서는 정기선 부회장이 수석부회장으로, HD현대일렉트릭 조석 사장이 부회장으로 각각 승진했다. 정기선 부회장은 HD현대그룹은 오너 3세로 경영 승계과정을 밟고 있다. 회사 측은 "수석부회장으로 승진한 정기선 부회장은 그룹 주요 핵심 과제들을 직접 챙기고, 미래 성장동력 발굴과 친환경·디지털 기술 혁신, 새로운 기업문화 확산 등을 주도해 나가는데 더욱 주력할 전망"이라고 밝혔다. HD현대삼호 대표에는 김재을 HD현대중공업 조선사업대표 부사장이 사장으로 승진 내정됐으며, HD현대오일뱅크 대표에는 송명준 HD현대 재무지원실 부사장이 사장으로 승진 내정됐다. HD현대오일뱅크는 현재 안전생산본부장을 맡고 있는 정임주 부사장이 송명준 사장과 함께 공동대표로 내정됐다. HD현대일렉트릭 대표에는 김영기 부사장이 사장으로 승진 내정됐다. 이날 발표된 내정자들은 향후 주주총회와 이사회를 거쳐 정식 대표로 선임될 예정이다. HD현대삼호 김재을 사장은 1965년생(59세)으로 한국해양대학교 항해학과를 졸업하고, 현대중공업에서 설계와 생산을 두루 경험한 조선 전문가다. 현대중공업 기술본부장과 생산본부장을 거쳐 현재 HD현대중공업 조선사업대표를 맡고 있다. HD현대오일뱅크 송명준 사장은 1969년생(55세)로 연세대학교 경영학과를 졸업했으며, 현대중공업과 현대오일뱅크에서 재무 및 사업기획을 담당하고, 현재 HD현대 재무지원실장을 맡고 있다. HD현대오일뱅크 공동대표에 내정된 정임주 부사장은 1969년생(55세)로 연세대학교 화학공학과를 졸업했으며, 현대오일뱅크 대산공장에서 생산공정과 기술 엔지니어로 근무했으며, 현대케미칼 안전생산본부장을 거쳐 현재 HD현대오일뱅크 안전생산본부장을 맡고 있다. HD현대일렉트릭 김영기 사장은 1966년생(58세)로 경희대학교를 졸업하고 텍사스대에서 석사학위를 받았다. 전력기기 연구소를 시작으로 제품개발·영업·생산 등을 두루 경험한 이 분야 전문가로 평가받고 있다. HD현대 관계자는 “미국 대선 이후의 경영환경 변화, 우크라이나 전쟁을 비롯한 국제정세의 변화, 유가 및 환율 변동 등 급변하는 경영환경에 적극 대응해 나가기 위해 사장단 인사를 단행했다”고 밝혔다. 이어 “내년은 핵심사업별 경쟁력 강화와 미래 친환경 기술확보에 총력을 기울여 나가는 한 해가 될 것”이라면서 “올해 조선사업 부문은 안정적인 조업 물량확보와 공정안정으로 양호한 실적을 보였지만, 향후 미국을 비롯한 해외 시장 확대는 물론 초격차 기술 개발과 내재화를 통해 불황에도 철저히 대비해 나갈 것”이라고 덧붙였다. 또 “건설기계 부문은 차세대 신모델 개발 완료, 울산 신공장 준공, 시너지 확보를 위한 조직개편 등 경영혁신을 지속적으로 실시해 나갈 것"이라며 "정유·석유화학 부문은 정제마진 축소와 석유화학 시장 악화로 힘든 한 해를 보냈지만, 새로운 경영진 선임으로 조직문화 혁신과 원가절감을 통한 재무구조 개선 등 다양한 경영개선 노력을 펼칠 것”이라고 말했다. 한편, HD현대는 이날 사장단 인사에 이어 조만간 후속 임원인사를 단행할 예정이다.

2024.11.14 10:05류은주

  Prev 1 2 Next  

지금 뜨는 기사

이시각 헤드라인

K-반도체 육성, 기존 틀 깨야 불확실성 돌파…새 정부 과제 '산적'

배민·요기요, 먹통 뒤 정상화..."금요일 밤 비 내린 탓"

과학자들, 납으로 금 만들었다…'연금술사의 꿈' 실현되나

SKT 유심교체 누적 187만...오늘 50만명에 유심재설정 안내

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현