• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
창간특집
인공지능
배터리
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'LLM'통합검색 결과 입니다. (234건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[MWC]구글 쿠키 사라진 타깃광고판...KT, AI 문맥맞춤으로 해결

구글이 이용자 맞춤형 광고에 쓰이는 제3자 쿠키 지원을 올 9월부터 중단한다고 밝히자 '쿠키리스' 마케팅 대비책 마련이 시급하다는 우려가 쏟아진다. 구글이 실시한 AB테스트 결과를 보면, 쿠키 기반 기존 타깃 광고를 사용하지 못하면 광고 매출은 절반 이상 감소하는 것으로 확인됐기 때문이다. KT는 새로운 광고 전략이 필요하다고 판단했다. 이용자 개개인 식별 정보를 활용했던 맞춤형 광고에서 나타난 개인정보 문제나 광고에 대한 부정적 인식을 줄이고, 소비자 피로감을 덜어낼 만한 방안을 모색하다 인공지능(AI) 기반 문맥 맞춤 광고에서 답을 찾았다. 문맥 맞춤 광고는 이전부터 존재했지만 자연어처리(NLP) 능력이 떨어져 주목받지 못했는데, 최근 AI 기술 도입으로 이런 문제점이 개선됐다. 키워드 하나하나에 의존하는 대신 AI가 문장 전체를 살피고 문맥을 파악해 적합한 광고를 제공하는 방식이다. 이를테면 A 운동화가 허리디스크 원인이 될 수 있다는 뉴스 기사가 있다고 가정해 보자. 키워드만 놓고 보면, A 운동화 광고가 노출된다. 이 기사 핵심은 A 운동화 문제점이지, A 운동화가 아니라는 점을 AI가 파악한다. B 음료수가 당뇨 위험성을 높인다면, B보다는 당뇨 위험성 원인이라는 전체 흐름을 캐치한다는 의미다. KT는 MWC24에서 나스미디어와 협업한 AI 문맥 맞춤 광고 서비스를 선보였다. 여기에는 KT 자체 거대언어모델(LLM) '믿음'이 활용됐다. 이용자 데이터를 이용하지 않고, 단지 웹사이트 방문 유무 정보만으로도 타깃 광고 노출이 가능하다는 게 특장점이다. MWC 현장에서 만난 최명수 나스미디어 경영기획팀 책임매니저는 “AI 문맥 맞춤 광고는 광고주와 소비자 모두 '윈윈'할 수 있는 서비스”라며 “맥락을 토대로 한 정밀 타깃팅으로 부적절한 콘텐츠와의 연결을 차단해, 광고주들이 브랜드 안정성을 확보할 수 있다”고 말했다. 문맥 맞춤 서비스에는 대용량 한국어를 학습한 믿음을 비롯해 KT LLM 임베딩 모델이 활용됐다. 문맥을 분석해 단어의 중의적 의미까지 정확하게 이해하고, 생성AI 기술로 상품 용도 설명을 만들어 상황 정보에 맞는 광고를 추천할 수도 있다. 문장의 의미적 유사도를 이해하는 모델을 활용했기 때문에, 별도 학습 데이터가 불필요하며 향후 광고 상품군이 변경되더라도 모델 수정이 필요하지 않아 광고 플랫폼 유지 보수가 쉽다. 서비스 관련 특허 출원도 끝마쳤다. 전하영 KT AI 테크랩 딥러닝엔지니어링 프로젝트팀 전임연구원은 “문맥상 내용을 단순 비교하지 않고, 카테고리에 대한 디스크립션을 생성해 함께 견주어보는 차별화한 기술을 가지고 있다”며 “언제 광고가 필요한지, 어떤 목적인지 생성AI를 활용해 디스크립션을 추가하는 형태로 맥락을 파악하기 때문에 품질을 높일 수 있다”고 설명했다. 현재 광고성과 측정 등 서비스 테스트 단계로, 수익 구조는 아직 구체화하지 않았다. 나스미디어 자체 구축 데이터세트로 AI 문맥 맞춤 광고 서비스를 평가한 결과 타사 생성AI 임베딩 모델 대비 약 27% 우수한 성능을 보이는 것으로 나타났다. 김호수 나스미디어 책임연구원은 “이미 자체 개발한 데이터관리플랫폼(DMP)을 구축해, 쿠키리스 대안책을 충분히 마련했다”며 “문맥 광고 서비스는 쿠키리스 위에 하나의 타깃팅 정보를 추가한 신규 기능인 셈”이라고 말했다. KT 문맥 맞춤 광고는 연내 출시될 예정이다. 최명수 매니저는 “사내 공동 연구 과제를 도출해 하반기 상용화할 예정”이라며 “향후 서비스 완성도를 높여 똑같은 기술 바탕의 태국어 서비스도 출시할 것”이라고 밝혔다.

2024.03.01 08:05김성현

스켈터랩스, LLM 제품군 벨라에 'AI 비서' 심었다

스켈터랩스(대표 조원규)가 대화형 인공지능(AI) 기술과 서비스 운영 경험을 바탕으로 AI 에이전트 시장 진출에 나섰다. 스켈터랩스는 자사 거대언어모델(LLM) 제품군 벨라에 스스로 업무를 판단·수행하는 AI 에이전트 기능을 적용했다고 27일 밝혔다. AI 에이전트는 사용자가 목표를 제시하면 AI가 문제 해결을 위한 의사결정을 자율적으로 판단하고 수행하는 AI 비서 역할을 한다. 단순한 질의응답 수준을 넘어 사용자가 부여한 과업의 완료를 위해 AI 스스로 고차원적인 문제를 분석하고, 해결할 수 있는 최소 단위로 분리한 뒤 활용가능한 여러 도구와의 상호작용을 통해 정보를 수집하고 문제를 처리한다. 이후 답변을 찾을 때까지 여러 차례의 계획, 실행, 결과 분석 과정을 반복해 최적의 결과물을 내놓는다. 스켈터랩스는 내부 운영자를 위한 웹 도구인 벨라 운영 툴에 AI에이전트를 접목하며 기업의 업무 생산성과 효율성을 더욱 끌어올릴 계획이다. 이를 통해 기업은 마치 레고 블록을 조립하듯 기업의 목적에 부합하는 필요 기능들을 챗봇에 구축할 수 있다. 회사 측은 AI 에이전트가 단순한 질의응답을 넘어서 실제 과업 수행까지 할 수 있다고 설명했다. 이전에는 사용자가 제품을 검색하고 결과를 받아 구매 링크로 안내되는 방식이었다면, 이제는 사용자가 원하는 제품을 직접 구매하는 것까지 AI 에이전트가 수행할 수 있다. 예를 들어 사용자가 "출퇴근용 자동차를 알아보고 있어"라고 요청했을 때 AI 에이전트는 사용자의 상황과 요구 사항을 분석해 예산, 연비, 차량 유형 등을 고려한 맞춤형 자동차 추천 목록을 제공한다. 또 관심 있는 모델에 대한 상세 정보와 함께 딜러 정보까지 연결해 주는 과업까지 수행해 낸다. 조원규 스켈터랩스 대표는 "대화형 AI가 챗봇을 통해 시장에서 인정받기 시작한 것처럼 AI 에이전트는 생성형 AI를 실용적이고 효과적으로 활용하는 데 있어 중추적인 역할을 할 것"이라며 "스켈터랩스는 계속해서 AI 에이전트 기술 고도화 및 제품화에 집중하며 고객의 편익을 높이는 실용주의 AI 기술 개발 선도 기업으로서 입지를 강화해 나갈 계획"이라고 밝혔다.

2024.02.27 09:52김미정

올거나이즈-마키나락스, 금융권 LLM 인프라 최적화 전략 제시

올거나이즈(대표 이창수)가 금융업 실무자들이 LLM 솔루션을 업무에 쉽고 빠르게 적용할 수 있도록 금융권 인공지능(AI) 도입 핵심 사례와 활용 노하우를 공개한다. 올거나이즈는 마키나락스와 '알짜 기업이 쓰는 진짜 AI-금융권 LLM+AI 인프라 최적화 전략'을 주제로 세미나를 개최한다고 27일 밝혔다. 지난 1월 진행된 동명 세미나의 후속으로 진행되는 이번 세미나는 금융권 기업의 AI 실제 도입 사례를 보다 풍부하게 소개할 예정이다. 다음 달 5일 오후 6시부터 9시까지 서울 역삼동에 위치한 창업지원센터인 마루180의 이벤트홀에서 진행된다. 마키나락스의 신민석 이사가 '금융기업의 AI 자원 최적화: 하이브리드 AI 플랫폼의 구축과 운영 전략'을 주제로 강연을 시작한다. 비용 효율성, 운영의 민첩성, 유연성 측면에서 하이브리드 AI 플랫폼의 구축 및 운영 전략을 살펴본다. 금융 분야에서 AI를 활용해 비즈니스 가치를 극대화하고, 규제 준수 요건을 충족하면서도 기술적 유연성을 유지하는 전략을 공유한다. 올거나이즈의 이창수 대표는 '금융권 생성형 AI 프로젝트 성공을 위한 베스트 프랙티스'를 주제로 강연을 진행한다. 금융권 고객들과 실제 협업했던 사례를 중심으로, 금융권에서 첫 번째 생성형 AI 프로젝트를 시작할 때 내부에서 어떤 데이터를 준비하고 어떻게 팀을 꾸려 대응해야 하는지, AI 내재화와 고도화를 위해 지금 바로 사용할 수 있는 생성형 AI 애플리케이션은 어떤 것들이 있는지 등을 설명한다. 패널토론 및 질의응답은 총 1시간 진행된다. 실사례 위주로 진행되는 세미나인 만큼, 강연자 외에도 실제 금융권 AI 도입 프로젝트를 이끌었던 담당자들이 패널로 참여해 실무자들의 궁금증을 해소할 예정이다. 사례의 구체적인 내용에 대한 현장 질문도 가능하다. 올거나이즈에서 실제 금융권 AI 프로젝트를 진행중인 유태하 PM과 이창수 대표가 30분간 토론 및 질의응답을 진행한다. 금융권에서 AI를 도입할 때의 주의점, AI 프로젝트를 효율적으로 운영하고 관리하며 생산성을 혁신할 수 있는 방법 등을 중점으로 이야기 나눌 예정이다. 이어 마키나락스의 신민석 이사와 허영신 CBO가 금융권의 AI 인프라 및 플랫폼 구축에 대한 실제 사례와 장기적으로 비용 및 운영 측면에서 고려해야 할 사항 등에 대해 토론한다. 올거나이즈는 4월 4일 SK텔레콤, 마이크로소프트와 함께 '금융 AI 도입의 핵심 사례'를 주제로 세미나를 개최할 예정이다. 서울 중구에 위치한 SKT 타워에서 오후 3시부터 6시까지 진행된다. 올거나이즈의 이창수 대표는 "2024년은 4대 은행그룹 회장, 은행장들이 2024년 조직 개편과 신년사를 통해 AI 활용 확대를 선언할 정도로 금융업 전반에서 생성형 AI를 적용한 서비스가 확대되는 해"라며, "양사가 금융권 고객 기업과 실제 프로젝트를 진행하며 경험한 노하우를 벤치마킹할 수 있을 것"이라고 밝혔다.

2024.02.27 08:57남혁우

[MWC]유영상 SKT "AI로 시장 판도 바꾸겠다"

“우리는 항상 글로벌에 대한 갈망과 피해의식이 있었다. 통신을 포함해 한국 서비스 기업이 글로벌 스케일을 가진 적이 많지 않다. 제조업은 글로벌 활약이 두드러지는데, 서비스는 왜 글로벌 강자가 탄생하지 못할까 자책도 해봤다.” 유영상 SK텔레콤 사장은 26일(현지시간) 스페인 바르셀로나에서 개막한 MWC24 현장에서 '글로벌 텔코 AI 얼라이언스(GTAA)'에 모인 회사들이 AI 합작법인을 추진키로 한 이유를 묻자 이같이 말했다. 기존과 같은 사업 운영으로는 ICT 시장의 주도권을 되찾기 어려웠지만, 글로벌 통신사들과 AI 협력으로 판도를 바꿀 자신감을 얻게 됐다는 것이다. 이날 SK텔레콤은 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크와 함께 AI 거대언어모델(LLM) 공동 개발과 사업 협력을 수행할 합작법인을 공동으로 설립하기로 했다. AI 언어모델 개발에 SK텔레콤과 뜻을 모은 회사들은 각각 유럽, 중동, 동남아 지역에서 통신사업을 주도하는 회사들이다. 또 소프트뱅크는 혁신 투자에 뛰어난 회사다. "AI 시대 리더십 위해 모였다" 유 사장은 여러 통신사들이 뜻을 모은 과정을 두고 “함께 하는 회사들과 비교하면 (SK텔레콤은) 가입자도 제일 적고 시총도 가장 작은 수준이다”며 “글로벌 강자가 되기 위해서는 동맹 체계를 우선 구축해야 했고, 이들을 설득하는 과정이 어려웠는데 AI(로 인한) 성장 모멘텀이 있어서 가능했다”고 회고했다. 이어, “통신 사업자들이 인터넷이나 모바일(을 통한 ICT 산업 발전) 모멘텀에 적극적으로 나서지 않고 분열됐다가 주도권을 잃게 됐는데, AI 시대에는 그렇게 하지 않았으면 좋겠다는 생각을 모은 것”이라고 설명했다. 그러면서 “챗GPT 등장 후 통신사들이 힘을 모아 제대로 AI 시대에 대응해보자고 생각했다"며 "왜 함께해야 하는지, 또 AI여야만 하는지 질문이 많았는데 (얼라이언스 구축 이후) 1년이 지났고, 이제 모든 기업이 AI를 외치고 있다”고 강조했다. 글로벌 유수의 통신사들과 뜻을 모은 것은 단순히 AI 경쟁력 확보를 넘어 글로벌 AI 강자로 나서겠다는 야심찬 포부인 셈이다. 텔코 LLM, 남들이 가질 수 없는 무기 유 사장은 SK텔레콤 대표 취임 1년이 지난 후부터 'AI 컴퍼니' 비전을 강조해왔다. 본업은 통신이지만 AI로 기존 사업과 신사업을 일구며 일하는 방식도 바꿔야 한다고 강조해왔다. 지난해 MWC에서는 AI 협력사들과 뜻을 모았는데, 지난해 하반기부터는 GTAA를 결성하면서 통신사만의 AI도 갖춰야 한다는 철학에 따라 텔코 거대언어모델(LLM) 구축의 필요성을 외쳤다. 자강과 협력을 키워드로 AI 피라미드 전략을 내세우며 AI 컴퍼니로의 전환 의지는 더욱 커졌다. 유 사장은 “1년 전 거대언어모델(LLM) 매개변수 크기를 따졌다면, 지금은 활용 방안과 어떤 비즈니스모델(BM)을 마련할지 여부에 관심이 쏠리고 있다”며 “텔코 LLM 같은 버티컬(특화형) LLM 발전이 하나의 기업을 넘어 산업 전체에 AI 전환을 불러일으키고, 수익화하는 데 중요한 축이 될 것”이라고 내다봤다. 범용 LLM이 아니라 통신에 특화된 버티컬 LLM은 꾸준한 데이터 학습과 함께, 규모의 경제를 통해 시간이 지나 큰 경쟁력을 가지며 산업 판도를 바꿀 수 있다는 자신감이다. AI 피라미드 전략 주효했다...게임체인저 도약 SK텔레콤의 AI 피라미드 전략에 따르면 데이터센터와 같은 AI 인프라를 갖추고 전 산업 영역에 걸쳐 AI 전환을 추진하며 실제 AI 서비스를 구현해야 글로벌 AI 회사로 성장하는 발판을 다질 수 있다. 구체적인 AI 서비스로 에이닷과 같은 AI 개인비서를 꼽았다. 즉, 통신사가 가장 잘할 수 있는 AI 개인비서(PAA, 퍼스널 AI 어시스턴트)로 글로벌 시장에서도 통할 수 있는 무기를 가지고 승부를 내겠다는 뜻이다. 유 사장은 “에이닷을 비롯한 PAA는 현 AI 시대 흐름과 궤를 같이하고 있다”며 “이는 빅테크의 전유물이 아니라 GTAA에서 서비스가 나올 수 있지 않을까 생각한다”고 말했다. 그는 또 “지금은 한 산업분야에 특화된 LLM이 해당분야의 변화를 이끌어가는 시대”라며, “글로벌 통신사들이 텔코 LLM 등 AI 분야 협력을 통해 시장 변화를 주도하는 게임 체인저가 되려는 것”이라고 강조했다. 그러면서 “기존 혁신에 그치지 않고 국내외 시장에서 과감한 도전을 계속할 것”이라며, “이를 통해 진정한 글로벌 AI 컴퍼니로 거듭날 것”이라고 밝혔다.

2024.02.27 08:00김성현

[MWC] SKT, 글로벌 통신사 4곳과 AI 합작법인 세운다

SK텔레콤이 26일(현지시간) MWC24 개막 현장에서 유럽, 중동, 아시아의 대표 통신사 최고 경영진들과 만나 인공지능(AI) 기술 공동 개발 과 사업 협력을 수행할 합작법인을 설립하기로 뜻을 모았다. 이 자리에 최태원 SK 회장이 직접 참석해 도이치텔레콤, 이앤(e&)그룹, 싱텔그룹, 소프트뱅크의 최고경영자들과 만나 글로벌 AI 기술 혁신과 AI 산업 생태계 선도에 대해 의견을 나누었다. 합작법인으로 글로벌 텔코 AI 협력체 구축 SK텔레콤, 도이치텔레콤, 이앤그룹, 싱텔그룹, 소프트뱅크는 MWC24에서 GTAA 창립총회를 열고 AI 거대언어모델(LLM) 공동 개발과 사업 협력을 수행할 합작법인 설립 계약을 체결했다. 이날 열린 창립총회에는 최태원 회장과 유영상 SK텔레콤 CEO를 비롯해 팀 회트게스 도이치텔레콤 회장, 하템 도비다 이앤그룹 CEO, 위엔 콴 문 싱텔 그룹 CEO, 타다시 이이다 소프트뱅크 최고정보보안책임자(CISO) 등 최고 경영진들이 한자리에 모였다. 합작법인은 '통신사 특화 거대언어모델(텔코 LLM)'을 본격적으로 개발할 계획이다. 한국어, 영어, 일본어, 독일어, 아랍어 등 5개 국어를 시작으로 전 세계 다양한 언어를 지원하는 다국어 LLM을 개발하는 것이 목표다. 합작법인은 연내에 설립할 예정이다. 텔코 LLM은 범용 LLM보다 통신 영역에 대한 이해도가 높고 이용자 의도도 잘 파악할 수 있다. AI컨택센터(AICC) 등 다양한 통신 사업 및 서비스 영역을 AI로 전환하는데 활용도가 높다는 강점을 가지고 있다. SK텔레콤은 텔코 LLM이 개발되면 전 세계 통신사들이 각국 환경에 맞춰 유연하게 AI 에이전트와 같은 생성형 AI 서비스를 만들어 낼 수 있다고 강조했다. 글로벌 통신사들의 합작법인 설립을 통해 전 세계 약 13억 명의 고객 기반을 확보할 수 있게 된 점도 주목할 부분이다. 국경 없는 AI 협력 나서 SK텔레콤, 도이치텔레콤, 이앤그룹, 싱텔그룹, 소프트뱅크는 전 세계 20여 개 통신사들을 초청해 글로벌 통신사 AI 협의체인 '글로벌 텔코 AI 라운드테이블(GTAR)' 행사를 열고 GTAA 참여를 제안했다. SK텔레콤은 특히 현장에 참석한 글로벌 통신사들에게 텔코 LLM을 선보였다. 데모 버전으로 준비한 LLM을 직접 시연하며 통신사 특화 LLM의 기술적 특징과 적용 사례에 대해 설명했다. 5社는 글로벌 통신기업들이 유무선 통신, 미디어 등 핵심사업을 인공지능으로 대전환해 미래 성장동력을 확보해야 한다고 강조하며, 인공지능 기술 확보 및 사업구조 혁신을 위해 GTAA에 참여할 것을 제안했다. 이 자리에서 SK텔레콤은 AI 기술을 개발하는 통신사들이 공통으로 구축해야 할 원칙과 체계의 수립에 대해서도 함께 고민해 보자고 제안했다. SK텔레콤은 올 초 회사 경영시스템에 AI 추구가치, AI 기술을 관리하는 체계 등을 설정하는 AI거버넌스를 도입한다고 밝혔다. 앞으로 5社는 통신사들의 AI 혁신 사례를 공유하고 AI 생태계를 선도해 나가기 위해 GTAR 행사를 정기적으로 운영하고 전 세계 글로벌 통신사들을 초청하기로 했다. 유영상 사장은 “합작법인을 기반으로 GTAA를 확장해 글로벌 AI 생태계 주도권을 확보할 것“이라며 “전 세계 13억 통신 가입자가 통신사 특화 LLM을 통해 새로운 AI 경험 누리게 될 것”이라고 말했다. 클라우디아 네맛 도이치텔레콤 기술혁신담당이사는 “독일에서는 월 10만 건 이상의 고객 서비스 대화가 생성형 인공지능을 통해 처리될 만큼 AI가 고객과 챗봇 간의 대화를 개인화하고 있다”며 “이번 합작법인 설립은 유럽과 아시아를 더욱 가까워지게 만들 것”이라고 설명했다. 데나 알만수리 이앤그룹 AI&데이터 최고책임자는 “텔코 LLM은 고객 지원을 손쉽게 하고 개인화된 추천을 가능하게 하는 등 기업이 고객과 소통하는 방식을 혁신할 것”이라며 “GTAA를 통해 통신을 혁신할 새로운 표준을 만들고 고객에게 더 나은 서비스를 제공할 수 있기를 기대한다”고 밝혔다. 콴 문 위엔 싱텔 그룹 CEO는 “텔코 LLM은 챗봇 기능을 크게 확장해 고객의 기술적 문의에 적절한 답을 하는 등 복잡한 고객 문제를 쉽게 처리할 수 있을 것”이라며 “글로벌 통신 업계가 AI 개발 협력에 뜻을 모은 것은 큰 의미가 있다”고 말했다. 히데유키 츠쿠다 소프트뱅크 부사장은 “GTAA와 같은 강력한 동맹을 통해 글로벌 커뮤니케이션을 혁신하고 서비스 품질을 높이며 AI를 기반으로 한 새로운 기술 혁신의 시대를 열 것”이라며 “전 세계 커뮤니티에 원활한 연결성과 무한한 기회를 제공함으로써 통신의 미래를 만들어갈 수 있는 힘을 가지게 됐다”고 말했다.

2024.02.26 17:00박수형

스테이블디퓨전3 미리보기 공개

텍스트-이미지 모델 '스테이블 디퓨전'의 세번째 버전이 초기 미리보기로 공개됐다. 품질 및 철자 기능 향상, 다중 주제 프롬프트 등이 특징이다. 22일(현지시간) 스태빌리티AI는 차세대 텍스트-이미지 모델 '스테이블디퓨전 3' 초기 미리보기를 발표했다. 사용을 원하는 경우 미리보기 대기자명단에 등록해 이용할 수 있다. 접근권한을 얻게 되면 디스코드 서버 초대 메일을 받게 된다. 스테이블디퓨전은 2022년 2.0 버전 공개로 이미지 생성 AI 모델의 획기적 진보를 보여줬다. 세번째 버전은 기존 아키텍처와 달리 디퓨전 트랜스포머 아키텍처와 플로우 매칭을 결합했다. 디퓨전 트랜스포머 아키텍처는 일반적으로 사용되는 U-Net 백본을 트랜스포머로 대체해 이미지 디퓨전 모델을 훈련한다. 이 방식은 효율적으로 확장하고 더 높은 품질의 이미지를 생성할 수 있다. 플로우 매칭은 랜덤 노이즈에서 구조화된 이미지로 원환하게 전환하는 방법을 학습해 이미지를 생성하는 AI 모델을 만드는 기술이다. 스테이블디퓨전3는 이전 모델보다 더 나은 성능과 품질로 이미지를 만들어낸다. 한 프롬프트에 여러 주제를 넣을 수 있다. 철자 생성의 정확도도 더 높아졌다. 스테이블디퓨전3의 크기는 다양하다. 8억에서 80억개의 매개변수를 제공한다. 스테이블디퓨전은 기본적으로 오픈소스 라이선스를 따른다. 모델의 소스코드에 접근할 수 있고 미세조정이 가능하다. 현재 스테이블디퓨전3의 소스코드와 기술문서는 공개돼 있지 않다. 회사측은 미리보기 단계에서 성능과 안정성을 개선할 것이라고 밝혔다.

2024.02.23 10:43김우용

플래티어, AI 등 디지털 신기술 마케팅 활용 전략 소개

플래티어(대표 이상훈)는 지난 22일 서울 양재동 엘타워에서 '엔터프라이즈 플랫폼의 새로운 미래'를 주제로 더 퓨처리스틱 플래티어 2024를 성공적으로 개최했다고 23일 밝혔다. 올해 처음 개최된 이번 행사에는 제조·유통·IT 등 다양한 분야의 실무자 및 책임자 약 300여 명이 참석했다. AI·빅데이터·LLM(거대언어모델) 등 최근 화두로 떠오르고 있는 디지털 신기술 트렌드를 짚어보고, 이를 자사 제품 및 서비스에 적용할 수 있도록 맞춤형 활용 전략 등을 다양한 고객 사례와 함께 소개했다. 행사 포문은 이상훈 대표가 열었다. 이 대표는 "생성형 AI 등 새로운 기술들이 빠르게 발전하면서 기존 산업의 생태계를 완전히 바꾸는 이른바 '파괴적 혁신'이 일어나고 있다"면서 "이러한 기술 위협에서 살아남기 위해서는 기업들이 기술보다 비즈니스를 먼저 정의해야 하는데, 이런 과정을 함께 고민하고 해결책을 제시할 수 있는 역량있는 파트너 모색이 성공의 관건이 될 것"이라고 말했다. 기조연설을 맡은 최재붕 성균관대학교 교수는 인류문명의 디지털 전환 과정과 생성형 AI의 등장이 가져온 세계경제 및 산업구조의 다양한 변화상과 사례를 소개했다. 그는 뉴노멀 시대 디지털 경제는 '팬덤' 기반 생태계가 주도하고 있다고 설명했다. 최 교수는 "기존 산업이 AI 등 4차 산업기술과 만나 차원이 다른 비즈니스로 전환되는 '메타 인더스트리'를 창조할 수 있는 실력을 키우고, 고객경험 디자인으로 팬덤을 창조할 수 있어야 한다"고 강조했다. 다음으로 신성석 EC솔루션사업전략실장은 급변하는 국내 이커머스 시장에 대응하기 위해 보다 유연하고 확장성이 높은 '컴포저블 커머스(Composable Commerce)'를 채택하려는 기업들의 수요가 증가하고 있다고 강조했다. 신 실장은 "컴포저블 커머스 도입으로 이커머스 플랫폼 구축 및 운영 비용을 크게 절감할 수 있으며, 2배 이상 빠르게 구축할 수 있다"고 말했다. 이어서 남덕현 최고기술책임자(CTO)는 "빅테크 기업들은 LLM을 활용해 고객경험 개선, 기업의 운영 및 관리 효율화 등을 꾀하고 있다"면서 "하지만 대규모 투자와 개발 시간이 필요한 LLM을 어떻게 중견 이커머스·D2C 기업들도 효과적으로 활용하여 비즈니스에 실질적으로 도입하고 개선할 수 있을지 고민이 필요하다"면서 자사가 개발 중인 이커머스 특화 LLM을 설명했다. 이봉교 데이터솔루션사업추진단장은 고객 소멸의 위기를 맞이한 국내 이커머스 기업들이 고객 락인(Lock-In)을 할 수 있는 로드맵에 대해 소개했다. 이 단장은 "개인화 고객경험을 향상시키는 비즈니스 여정을 설계해야 한다"며 "AI 기반 개인화 마테크 솔루션 '그루비'는 좋은 고객경험을 이끌어내기 위해 최신 AI 기술을 꾸준히 적용하며 지속적인 기술 개발을 이어오고 있다"고 말했다. 마지막으로 류성현 DT기술본부장은 플래티어의 성공적인 ITSM(IT 서비스 관리) 시스템 구축 사례 소개와 더불어 플래티어의 이커머스 서비스 관리 솔루션이 어떤 변화와 성과를 이루고 있는지 등에 대해 상세히 다뤘다. 이상훈 플래티어 대표는 "플래티어는 빠르게 발전하는 디지털 신기술을 선도적으로 도입 및 적용해 기업 고객들이 이를 쉽고 효율적이게 활용할 수 있도록 돕는 기술 파트너로서 최선을 다하겠다"고 말했다.

2024.02.23 08:56백봉삼

제미나이, 엉터리 이미지 내놓더니…결국 중단됐다

구글이 범용 인공지능(AI) 모델 제미나이(Gemini)의 이미지 생성 기능을 일시 중단시켰다고 CNBC를 비롯한 외신들이 22일 보도했다. 제미나이는 최근 역사적 사실과 맞지 않는 이미지를 생성해 논란을 불러 일으켰다. 이를테면 미국 건국의 아버지(Founding Fathers) 같은 역사적인 인물을 유색 인종으로 그렸다. 또 '1943년 독일군'을 그리라는 프롬프트(명령어)에 흑인과 아시아인 이미지를 생성하기도 했다. 논란이 커지자 구글은 제미나이의 이미지 생성 기능 자체를 일시 중단시켰다. 구글은 이날 엑스(X)에 올린 글을 통해 “제미나이가 일부 역사적 이미지를 부정확하게 생성한다는 사실을 인지하고 있다”면서 “수정 작업을 하는 동안 이미지 생성 기능을 일시 정지시켰다”고 공지했다. 또 “조만간 향상된 버전을 새롭게 선보일 예정이다”고 덧붙였다. 제미나이는 구글이 지난 해 12월 선보인 대규모 언어모델(LLM)이다. 제미나이는 이미지를 인식하고 음성으로 말하거나 들을 수 있으며 코딩을 할 수 있는 능력까지 갖춘 '멀티모달 AI'로 만들어졌다. 제미나이 발표 당시 구글은 “오픈AI의 최신 모델인 GPT-4보다 성능이 우수하다”고 주장했다. 하지만 최근 이미지 생성 기능에 연이어 오류가 발견되면서 체면을 구기게 됐다.

2024.02.22 22:23김익현

"MS 애저보다 빠르다"…美 스타트업 그로크, AI 칩으로 시장 판도 흔들까

거대언어모델(LLM)의 추론·응답 속도를 높인 인공지능(AI) 칩이 나왔다. 엔비디아 그래픽처리장치(GPU)보다 더 빠른 속도를 갖췄다는 점에서 업계의 주목을 받고 있다. 22일 미국 IT 매체 뉴아틀라스에 따르면 미국 AI 스타트업 그로크는 지난 20일 LLM의 추론과 응답 속도를 높이는 AI 칩 '언어처리장치(LPU)'를 출시했다. 그로크는 구글 개발자 출신들이 모여 2016년 설립한 반도체 기업이다. 설립자 중에는 구글 머신러닝(ML) 칩을 개발한 조나단 로스가 최고경영자(CEO)다. 보도에 따르면 LPU는 LLM을 탑재한 챗봇인 오픈AI의 '챗GPT', 구글의 '제미나이' 등의 응답 속도 향상에 특화됐다. 사용자 질문에 1초도 안 되는 시간에 영어 기준 수백 단어의 답변을 생성할 수 있다. 벤치마크 테스트에서도 LPU는 마이크로소프트의 애저 클라우드 인프라 성능을 능가했다. 메타의 700억 매개변수 '라마 2'는 마이크로소프트 애저 클라우드상에서 초당 19개 토큰을 생성했지만, 그로크를 탑재했을 때 초당 241개 토큰을 만들었다. LLM이 그로크를 탑재할 경우 18배 이상 빠른 추론 속도를 갖출 수 있는 셈이다. 또 LPU는 100개 토큰을 생성하는 데 0.8초가 걸렸지만, 마이크로소프트의 애저 클라우드는 10.1초 소요됐다. 현재 개발자는 그로크챗 인터페이스에서 LPU 엔진을 이용할 수 있다. 승인된 사용자는 라마 2, 미스트랄, 팰컨 등을 통해 엔진을 시험해 볼 수 있다. 조나단 로스 그로크 CEO는 "LLM의 추론 속도는 개발자의 아이디어를 사업화할 수 있다"며 "이는 AI 사업 생태계 필수 요소"라고 밝혔다.

2024.02.22 11:05김미정

크라우드웍스, 가트너 '생성형AI 기술' 공급기업' 선정

크라우드웍스(대표 박민우)는 최근 가트너가 발행한 '생성형AI 기술'에 관한 보고서에서 글로벌 IT기업들과 함께 '생성형AI 기술' 공급기업으로 선정됐다고 22일 밝혔다. 글로벌 IT 리서치·컨설팅 기업 가트너는 '생성형AI 기술을 위한 혁신 가이드' 보고서에서 생성형AI 기술 스택을 크게 4가지 ▲Generative Al Apps ▲AI Engineering ▲Model Providers ▲Infrastructure Providers로 구분, 생성형AI 도입을 위한 기술 공급기업을 소개했다. 이 보고서에서 크라우드웍스는 AI 엔지니어링 기술 스택과 관련해 거대언어모델(LLM) 기반 AI Ops(AI for IT Operations) 솔루션 부문에 등재됐다. 크라우드웍스가 가트너 리포트에서 언급된 것은 이번이 처음이 아니다. 가트너사가 발표하는 하이프 사이클(Hype Cycle) 보고서에서 ▲데이터과학 및 머신러닝 ▲AI 관련 테마로 2년 연속 '데이터 라벨링 및 가공' 샘플 벤더로 등재된 바 있다. 이번에는 데이터 라벨링이 아닌 '생성형AI 기술' 부문 공급기업으로 등재된 것이다. 크라우드웍스는 LLM을 중심으로 엔터프라이즈 AI 솔루션 시장에서 입지를 넓혀가고 있다. 고품질의 AI용 데이터를 제공해온 전문성을 바탕으로 기업들이 맞춤형 LLM을 도입할 때 필요한 ▲전략 컨설팅 ▲고품질 데이터 구축 및 자산화 ▲기업 맞춤형 LLM 모델 구축 ▲AI 에이전트 등 맞춤형 애플리케이션 개발 ▲레드팀을 포함한 전문적인 데이터 및 모델 평가 등 AI 도입 전과정을 모듈화해 솔루션을 제공하고 있다. 박민우 크라우드웍스 대표는 “글로벌 시장에서 먼저 LLM AI Ops 서비스에 대한 전문성과 기술력을 인정받고 있다. 올 한해 LLM을 중심으로 한 생성형AI 시장을 집중 공략할 계획”이라며 “가트너 등재를 계기로 글로벌 시장에서의 긍정적인 비즈니스 효과를 기대하고 있다”고 말했다.

2024.02.22 09:09백봉삼

어도비, 애크로뱃·리더 'AI 어시스턴트' 출시

어도비는 '리더'와 '애크로뱃'에 새로운 생성형 AI 구동 대화형 엔진인 AI 어시스턴트 베타를 21일 공개했다. 리더와 애크로뱃의 워크플로우에 긴밀히 통합된 AI 어시스턴트는 긴 문서에 대한 요약과 인사이트를 즉시 생성하고, 사용자 질문에 답하며, 이메일, 보고서 및 발표자료 서식에 맞춰 정보를 제공한다. AI 어시스턴트는 전 세계 약 3조 건의 PDF에 담긴 정보에서 새로운 가치를 창출하는 생성형 AI를 대중에게 제공하고 있다. AI 어시스턴트는 모바일에서 PDF의 반응형 읽기 환경을 지원하며 다수의 수상을 석권한 애크로뱃 리퀴드 모드와 동일한 AI 및 머신 러닝 모델을 활용한다. 이 어도비 자체 모델은 PDF 구조와 콘텐츠에 대한 심층적인 이해를 바탕으로 AI 어시스턴트 결과물의 품질과 안정성을 향상시킨다. 애크로뱃 개인, 프로 및 팀즈 구독자와 애크로뱃 프로 체험판 사용자는 이제부터 AI 어시스턴트 베타를 사용해 별도의 복잡한 설치 없이 보다 생산적으로 작업할 수 있다. 또한 앞으로 몇 주에 걸쳐 리더에도 기능이 추가될 예정이다. AI 어시스턴트는 직관적인 대화형 인터페이스를 통해 PDF 콘텐츠를 기반으로 사용자에게 질문을 제안하거나 문서 내용에 대한 질문에 답한다. 생성형 요약은 가독성 좋은 서식으로 짧은 개요를 생성해 사용자가 긴 문서 내용을 빠르게 파악할 수 있도록 돕는다. 어도비의 맞춤형 인용 출처 엔진 및 자체 AI를 활용하는 지능형 인용을 통해 AI 어시스턴트가 제공한 답변의 출처를 쉽게 검증 가능하다. 클릭 가능한 링크로 간편한 탐색이 가능해, 사용자는 방대한 양의 문서에서도 필요한 정보를 빠르게 찾으며 중요한 정보를 탐색하고 실행하는 데 집중할 수 있다. AI 어시스턴트의 서식 출력을 통해 핵심 요약이나 이메일, 보고서 및 발표용 텍스트 등의 여러 용도에 맞게 정보를 통합하고 서식을 지정할 수 있으며, '복사' 버튼으로 쉽게 잘라 붙이거나 공유할 수 있다. 고객 데이터를 존중하는 AI 어시스턴트는 데이터 보안 프로토콜에 의해 관리되며, 고객 동의 없이 고객 문서 내용을 저장하거나 AI 어시스턴트 학습을 위해 사용하지 않는다. AI 어시스턴트는 PDF 외에도 워드, 파워포인트, 회의 기록 등 모든 종류의 문서 서식을 지원한다. 애크로뱃은 PDF 읽기, 편집 및 변환을 위한 도구다. 데스크톱, 웹, 모바일 기기, 독립형 애플리케이션, 마이크로소프트 및 구글 같은 생산성 앱에 주요 브라우저에 내장되는 등 어디에서나 사용 가능하다. 리더와 애크로뱃의 AI 어시스턴트는 개인부터 대기업까지 모두가 안심하고 사용할 수 있는 안전장치를 갖추고 있다. 대기업 고객에게 엔터프라이즈급 보안 및 정보 거버넌스를 제공한다. AI 어시스턴트는 어도비의AI 윤리 프로세스에 따라 개발됐다. 어도비는 리더 및 애크로뱃의 AI 어시스턴트를 통해 다양한 고객 사례를 처리할 수 있는 기술을 채택함으로써 대규모언어모델(LLM)에 구애받지 않는 접근 방식을 취하고 있다. 어도비는 서드파티 LLM의 어도비 고객 데이터 학습을 금지한다. 리더 및 애크로뱃의 AI 어시스턴트는 긴 문서와 방대한 양의 정보를 유용한 인사이트 및 이해하기 쉽고 실용적인 콘텐츠로 전환한다. 프로젝트 매니저는 회의의 주요 내용을 몇 초 안에 확인하고, 요약 및 공유할 수 있으며, 영업팀은 관련 자료를 맞춤화하고 몇 분 내 고객 요청에 대응할 수 있다. 또한 학생은 자료 검색 대신 분석과 인사이트 발굴에 더 많은 시간을 할애할 수 있고, 소셜 미디어 및 마케팅 팀은 이해관계자를 위한 일간 트렌드 및 이슈 업데이트를 신속하게 제공 가능하다. AI 어시스턴트는 이메일 작성이나 각종 계약서 스캔에 소요되는 시간을 줄여, 어디서나 사무직 근로자와 소비자에게 생산성을 제공한다. 어도비는 이번 발표로 생성형 AI를 활용해 디지털 문서의 가치를 재창조하겠다는 비전을 본격화한다. 어도비는 AI 어시스턴트에 대한 폭넓고 심도 있는 로드맵을 갖고 있다. AI 어시스턴트는 여러 문서 및 문서 유형과 소스에 적용돼 어디서나 가장 중요한 정보를 즉각 제시한다. 지난해 사용자들은 애크로뱃에서 수십억 건의 문서를 편집했다. AI 어시스턴트는 초안을 빠르게 생성하는 한편, 용이한 카피 편집을 위해 어투와 문체를 즉시 수정하고 카피 길이를 줄이거나, 콘텐츠 디자인 및 레이아웃을 제안한다. 어도비의 크리에이티브 생성형 AI 모델 제품군인 파이어플라이와 어도비 익스프레스의 주요 기능을 통해 누구나 쉽게 창의적이고 전문적이며 개인화된 문서를 만들 수 있다. 디지털 협업은 초안에서 완성까지 작업을 수행하는 방식이다. 공유되고 있는 문서 수가 전년 대비 75% 증가하면서 사용자들은 애크로뱃으로 그 어느때보다도 활발한 디지털 협업을 진행하고 있다. 생성형 AI는 피드백과 주석을 분석하고 변경 사항을 제안하며, 상충되는 피드백을 따로 표시하고 해결하도록 지원하는 등 협업 프로세스를 간소화한다. 리더 및 애크로뱃 사용자는 AI 어시스턴트의 베타 종료 후 새로운 애드-온 구독 플랜을 통해 모든 AI 어시스턴트 기능을 이용할 수 있다. 그 전까지 새로운 AI 어시스턴트 기능은 데스크톱 및 웹에서 애크로뱃 스탠더드와 애크로뱃 프로의 개인 및 팀즈 구독 플랜을 통해 영어로만 베타로 이용할 수 있으며, 향후 몇 주 내 데스크톱 리더에서도 영어로 기능을 이용해볼 수 있다. 추후 다른 언어도 지원될 예정이며, 기업 고객의 경우 비공개 베타로 이용할 수 있다. 아비간 모디 어도비 도큐먼트 클라우드 수석 부사장은 “생성형 AI는 PDF내 정보를 실용적인 지식과 전문가 수준의 콘텐츠로 전환하며 보다 지능적인 문서 경험을 제공한다”며 “PDF는 가장 중요한 문서에 대한 사실상 표준으로 이번에 소개된 기능은 리더와 애크로뱃 애플리케이션 및 서비스를 통해 AI 어시스턴트가 제공하고자 하는 새로운 가치의 시작에 불과하다”고 밝혔다.

2024.02.21 09:35김우용

리벨리온, ISSCC 2024서 AI 칩 '아톰' 기술력 입증

AI반도체 스타트업 리벨리온은 글로벌 반도체 학회 'ISSCC 2024(국제고체회로학회)'에 참가해 자사의 머신러닝 시스템온칩(SoC) 기술 논문을 발표했다고 21일 밝혔다. ISSCC는 반도체 회로 설계 분야에서 가장 명망 있는 학술대회로 약 3천 명의 연구자들이 참여한다. 올해 학회는 미국 샌프란시스코에서 2월 18일(현지시간)부터 5일간 개최된다. 리벨리온은 19일 진행된 '프로세서 및 커뮤니케이션 시스템온칩' 세션에서 논문을 발표했다. 리벨리온은 "ISSCC가 기술에 대한 이론적 주장을 넘어 실제 구현된 칩을 기반으로 제품성능의 실현가능성을 검증하는 학회인만큼, 이번 논문 채택과 발표는 곧 리벨리온의 실제 제품 경쟁력에 대한 신뢰성을 보여준다"고 밝혔다. 논문에서 리벨리온은 인공지능 추론용 시스템온칩 '아톰(ATOM)' 설계에 적용된 리벨리온의 고유한 기술을 설명하고, 이를 바탕으로 작은 크기의 칩으로도 높은 수준의 연산 능력을 발휘할 수 있음을 증명했다. 특히 ▲다양한 목적에 따라 활용될 수 있는 (flexible) AI 연산 코어 ▲온칩(On-chip) 네트워크 ▲속도에 방점을 둔 메모리 아키텍처 등 고도화된 설계 방식을 활용해 타사 GPU와 NPU 대비 높은 컴퓨팅 자원 활용 역량을 선보였다. 이번에 공개된 기술은 올 상반기 양산에 나서는 데이터센터향 AI반도체 '아톰(ATOM)'에 적용됐다. 논문 세션에 이어 리벨리온은 '아톰'을 활용한 실시간 데모 시연도 함께 진행했다. 이번 시연에서 '아톰'은 LLM 모델 구동과 이미지 생성 등 생성형AI 추론 영역에 있어 GPU 대비 높은 에너지 효율성을 보이며 학계와 글로벌 업계 관계자의 주목을 받았다. 오진욱 리벨리온 CTO는 “양산단계에 접어든 제품의 에너지 효율성과 성능을 객관적으로 입증했다는 점에서 이번 ISSCC 논문 채택은 리벨리온에 매우 뜻깊은 순간“이라며 “검증된 글로벌 수준의 기술 경쟁력이 리벨리온이 목표로 하는 세계 시장 진출에 좋은 밑거름이 될 것으로 기대한다”고 말했다.

2024.02.21 09:03장경윤

BHSN, 법률 특화 언어모델 '리걸LLM' 고도화

한국에서도 법률 특화 생성형 인공지능(AI) 서비스가 본격화할 전망이다. 기존보다 데이터 처리량과 답변 정확도가 올라 서비스 품질이 향상됐다. BHSN(대표 임정근)은 자체 개발한 법률 특화 언어모델 '리걸LLM'를 고도화했다고 21일 밝혔다. 리걸LLM 고도화 핵심은 ▲리걸 롱시퀀스 기술 도입 ▲리걸 특화 얼라인먼트러닝 강화 ▲리걸 데이터베이스 강화다. 리걸LLM을 올해 상반기 내 자사 올인원 AI 리걸 솔루션 '앨리비', 추후 출시 예정인 서비스에 탑재할 예정이다. 롱시퀀스는 범용 생성형 AI 서비스 대비 많은 양의 데이터를 처리할 수 있어, 현재 오픈AI의 챗GPT, 메타의 라마, 앤트로픽의 클로드 등 글로벌 빅테크의 LLM 모델에 적용된 기술이다. BHSN은 이를 송무, 사건수사 등 대량 문서가 필수로 발생하는 리걸 업무에 적용할 방침이다. 리걸 특화 얼라인먼트러닝은 생성형AI 서비스가 제공하는 답변의 정확도를 높이는 기술이다. 도메인 특화 사전 학습(DAPT), 인간 피드백 기반 강화 학습(RLHF) 등 다양한 AI 방법론을 적용한 전방위적인 얼라인먼트러닝을 강화해 답변의 정확도를 더욱 높였다. 이를 기반으로 국내 법률 문서에 실제로 사용되는 언어 및 문체, 단어, 형식을 유지한 고품질의 AI로 계약서, 법률 자문 초안 등을 간편하게 생성할 수 있다. BHSN은 리걸LLM의 학습 및 서비스의 질을 좌우하는 데이터베이스도 한 층 강화했다는 입장이다. 현재 공개돼 있는 계약서, 판례, 법령, 심결례, 보고서, 행정규칙 등 리걸 데이터에 BHSN 소속 변호사가 자체 개발한 고품질 비공개 데이터를 결합해 자체 리걸AI 엔진의 성능을 높였다. BHSN은 2020년 설립 이후, CJ제일제당, SK텔레콤 등 국내 대기업에 자체 개발 AI 리걸 솔루션을 제공해 왔다. 최근 클라우드 기반 올인원 AI 리걸 솔루션 앨리비를 신규 출시했다. 앨리비는 자체 개발한 법률 특화 AI 언어모델을 탑재한 계약관리솔루션(CLM), 기업법무솔루션(ELM) 2종으로 구성됐다. 임정근 BHSN 대표는 "리걸LLM은 서비스 확장성이 넓은 것이 특징으로, 기업, 공공기관, 로펌 등에서 다양한 목적의 리걸 업무를 실질적으로 지원할 수 있도록 고도의 AI 기술과 전문성을 결합해 리걸 업무 수행의 정확도가 높은 것이 핵심이다"며 "업계 최고 경쟁력을 갖춘 리걸LLM 기반, 시장 내 경쟁력을 확보하고 프로덕트를 다각화해 비즈니스에 박차를 가하겠다"고 했다.

2024.02.21 08:59김미정

디노티시아·코셈, AI 전자현미경 솔루션 개발 협약 체결

인공지능 시스템 전문기업 디노티시아는 대한민국 전자현미경 전문기업 코셈과 지난 16일 AI 기술을 접목한 전자현미경 개발과 사업화를 위한 업무 협약(MoU)을 체결했다고 20일 밝혔다. 양사는 2023년부터 AI 기술을 전자현미경에 적용해 촬영 시간 단축 및 영상 품질 개선을 목표로 공동 연구를 진행해왔다. 이번 협약은 그간의 PoC(개념증명) 결과를 바탕으로 기술 제품화와 지속적인 연구 협력을 공식화한 것이다. 전자현미경은 전통적인 계측장비 제품으로 극도의 정확성을 요구한다. 반면 인공지능은 급격한 기술 발전에도 불구하고 아직까지 인간이 이해하지 못하는 오류 가능성을 내포하고 있다. 또한 문제 발생시 원인파악이 어려운 단점을 가지고 있어 고도의 정밀성을 요구하는 산업계에는 인공지능을 적용하기 어려웠다. 그러나 이번 협력을 통해 인공지능과 전자현미경 분야 최고의 기술을 가진 양사가 어려움을 극복하고 혁신적인 제품을 내놓을 기반을 마련했으며, 연내 상용제품을 출시하기로 협약했다. 전자현미경은 기초과학이 발전한 일본, 독일 등이 시장을 장악하고 있는 산업으로 후발 주자가 따라가기 어려운 분야다. 다만 양사는 인공지능이라는 새로운 기술의 접목으로 지금까지의 전자현미경 기술 패러다임을 완전히 바꿀 수 있다고 확신하고, 이를 통해 시장 판도를 뒤집을 목표를 가지고 있다. 물리학과 인공지능이 결합해 계측 시간을 단축하고 정확도를 높일 뿐 아니,라 다양한 부가 기능을 제공하는 등 새로운 가치를 창조할 수 있는 분야가 바로 전자현미경이 될 것이라 내다보고 있다. 디노티시아는 다양한 서비스 분야에 인공지능, 특히 LLM(거대언어모델) 솔루션을 제공하는 기업이다. 최적의 온디바이스 AI 시스템 및 솔루션을 제공한다. GPU 및 NPU를 활용한 인공지능 하드웨어 시스템부터 인공지능 연산을 최적화한 소프트웨어 프레임워크, 그리고 인공지능 알고리즘까지 수직 최적화를 통해 고성능, 고효율 솔루션을 고객에게 제공한다. 코셈은 오는 23일 코스닥 상장을 앞둔 전자현미경 전문회사로 전세계 40개국에 매출의 70% 이상을 수출하는 기업이다. 코셈은 본 기술을 기반으로 인공지능 전자현미경을 개발하여 세계시장에 내놓을 계획이다. 정무경 디노티시아 대표는 "이번 협력을 통해 전자현미경 분야에서 인공지능 기술의 새로운 가능성을 열고, 시장에서의 리더십을 확립할 것"이라며 "양사의 기술력과 혁신을 바탕으로 한국의 전자현미경 산업이 세계적인 경쟁력을 갖출 수 있을 것으로 기대한다"고 밝혔다.

2024.02.20 09:47장경윤

크라우드웍스, 작년 매출 239억원·영업손실 15억원

크라우드웍스가 지난해 연간 최대 매출을 기록하고, 영업손실은 줄였다. 크라우드웍스(대표 박민우)는 지난해 연결 기준 매출 239억원, 영업손실 15억원을 기록했다고 19일 밝혔다. 매출은 전년 대비 101% 늘었고, 영업손실은 같은 기간 76% 줄었다. 이 같은 성과는 기업들의 대형 언어 모델(LLM) 도입을 위한 데이터 구축 수요 증가와 AI 데이터 전문가 양성 교육 사업의 견조한 성장이 배경이 됐다. 실제로 지난해 하반기 출시한 LLM 플랫폼 사업 부문 매출은 지난해 전체 매출의 약 15%를 차지하는 성과를 거뒀다. AI 데이터 전문가 양성을 위한 교육 사업도 지난해 고성장을 이어갔다. 전문 교육 및 기관 대상 교육, 맞춤 교육 과정 세분화 등을 통해 교육 사업을 전문화해 전체 매출 성장을 이끌었다. 의료 AI 데이터 테크 기업인 자회사 닥터웍스도 견조한 매출을 유지하면서 의료AI 시장을 겨냥한 LLM 기반 의사용 전문 서비스 개발에 속도를 내고 있다. 크라우드웍스는 올해 LLM을 신성장 동력으로 삼고 시장 확대에 나선다는 전략이다. 이를 위해 기업들이 맞춤형 LLM을 도입할 때 필요한 ▲전략 컨설팅 ▲고품질 데이터 구축 및 자산화 ▲기업 맞춤형 LLM 모델 구축 ▲AI 에이전트 등 맞춤형 애플리케이션 개발 ▲레드팀을 통한 전문적인 데이터 및 모델 평가 등 AI 도입 전과정을 모듈화했다. 이를 통해 기업들이 내부 상황과 목적에 맞게 LLM 도입을 원활히 검토할 수 있게 경쟁력을 높였다는 설명이다. 크라우드웍스 이상민 최고재무책임자는 "지난해 8월 코스닥 상장 이후 기업 인지도와 신뢰도를 제고하며 외형과 내실 모두 의미있는 성과를 만들었다"며 "올해 조직 역량과 핵심 사업 경쟁력을 강화해 데이터 전문 기업에서 AI 테크 기업으로 전환하고 기업들의 AI 혁신 파트너로서 지속적인 성장을 만들어가겠다"고 말했다.

2024.02.19 08:58백봉삼

SKT, MWC24서 통신사 AI 언어모델 청사진 내놓는다

SK텔레콤이 이달 26일 스페인 바르셀로나에서 막을 여는 MWC24에서 다양한 통신 서비스와 네트워크 인프라, 실생활 영역 등 인공지능(AI) 혁신을 바탕으로 한 미래 기술을 전 세계에 소개한다. 또한 세계 통신사들 간 동맹인 글로벌 텔코 AI 얼라이언스(GTAA)를 비롯해, 빅테크와 초협력을 통해 SK텔레콤의 AI 지형을 글로벌 무대로 본격 확대한다. 올해 MWC 주제는 '미래가 먼저다'로, 미래와 현재 잠재력 실현을 우선순위 삼아 200여개국 2천400여개 회사가 AI를 포함해 6G, 사물인터넷(IoT), 로봇 등 다양한 신기술을 선보이는 장이 펼쳐질 전망이다. SK텔레콤은 MWC24 핵심 전시장인 피라그란비아(Fira Gran Via) 3홀 중앙에 약 300평(992㎡) 규모의 대형 전시장을 꾸린다. '새로운 변화의 시작, 변곡점이 될 AI'를 주제로 텔코 중심의 AI 기술을 선보일 예정이다. 전체 전시의 핵심 키워드는 텔코 거대언어모델(LLM)이다. 통신 사업에 특화한 LLM을 개발하고 이를 다양한 분야에 적용함으로써 사업자와 이용자 효용을 극대화한다는 것이다. 텔코 LLM을 바탕으로 SK텔레콤은 챗봇이 구현된 버추얼 에이전트, AI 기반의 스팸, 스미싱 필터링 시스템, AI콜센터(AICC) 등 다양한 적용 사례를 소개할 예정이다. 또 텔코 LLM을 활용해 기존 AI 기반 실내외 유동인구 데이터 분석 시스템 '리트머스 플러스', 로봇, 보안, 의료 등 여러 분야에 적용되는 'AI 퀀텀 카메라' 기능 강화에 대한 구상도 선보일 계획이다. 미디어와 의료 등 생활 속에서 활용되는 AI 기술도 선보인다. 반려동물 AI 진단보조 서비스 엑스칼리버를 비롯해 미디어 가공, 콘텐츠 품질향상 플랫폼 AI 미디어 스튜디오, 비전 AI를 활용한 바이오 현미경 인텔리전스 비전 등이 SK텔레콤 전시관에 마련된다. 이밖에 차세대 열관리 방식 액침 냉각을 포함한 AI 데이터센터(DC) 기술과 AI 기반 각종 네트워크 인프라 기술, 가상 체험 가능한 실물 크기의 도심항공교통(UAM) 등도 관람객 이목을 끌 것으로 기대된다. 회사는 별도 공간을 꾸려 국내 15개 혁신 스타트업과 진행 중인 ESG 프로젝트를 전시한다. 참여 기업들은 피라 그란 비아 8.1홀에 위치한 스타트업 전시회 4YFN(4 Years From Now)에서 사회문제 해결을 위한 ESG 추진 방안을 제시한다. 유영상 SK텔레콤 대표는 2천400여개 기업이 참가하는 MWC24 현장을 직접 찾아 글로벌 AI 컴퍼니로 진화하는 회사 미래 전략을 세계에 알리고, 다양한 글로벌 파트너사와 협력을 추진할 계획이다. 지난해 7월 공식 출범한 글로벌 텔코 AI 얼라이언스와 관련한 논의도 이번 MWC 무대에서 한층 구체화할 계획이다. 유영상 대표는 “이번 MWC는 우리가 보유한 핵심 AI 기술을 바탕으로 다양한 적용 사례를 소개하는 자리가 될 것”이라며 “세계적 기업들과의 초협력을 통해 글로벌 AI 컴퍼니로 빠르게 변모할 것”이라고 말했다.

2024.02.18 09:44김성현

구글, 제미나이 1.5 공개…더 적은 자원으로 더 빠른 성능

구글이 대규모언어모델(LLM) 제미나이 1.5를 공개했다. 전 버전보다 더 적은 자원을 사용하고도 더 높은 성능을 낸다고 강조했다. 15일(현지시간) 구글은 제미나이 1.5를 개발자와 기업에게 제공한다고 밝혔다. 구글에 의하면, 제미나이 1.5 프로의 경우 기존 제미나이 울트바와 동등한 수준의 성능을 보이며, 기존 제미나이 1.0 프로를 능가한다. 쿼리를 전송할 때 전체 모델에서 처리하는 대신 일부만 실행해 성능을 더 높였다는 설명이다. 제미나이 1.5 프로는 한 컨텍스트 창에 3만2천개 토큰을 입력할 수 있고, 한번에 100만개 토큰을 생성할 수 있다. 구글은 1시간의 비디오, 11시간의 오디오, 3만줄 이상의 코드, 70만 단어 이상의 코드베이스를 한번에 처리할 수 있는 용량이라고 강조했다. 경쟁모델인 GPT-4의 컨텍스트 용량은 12만8천개다. 주어진 프롬프트에서 더 많은 양의 콘텐츠를 분석, 분류, 요약할 수 있다. 순다 피차이 알파벳 최고경영자(CEO)는 "모델의 컨텍스트 창이 클수록 주어진 프롬프트에서 더 많은 정보를 받아들이고 처리할 수 있으므로 출력이 더욱 일관되고 관련성 높으며 유용해진다"며 "구글 연구원이 1천만개 토큰 컨텍스트 창을 성공적으로 테스트했다"고 밝혔다. 구글은 제미나이 1.5 프로가 아폴로11의 달 탐사 임무를 다룬 402 페이지 분량의 기록을 이해하고 추론할 수 있다고 강조했다. 제미나이 1.5는 구글클라우드의 버텍스AI와 AI 스튜디오를 통해 기업 사용자와 개발자에게 제공된다. 제미나이 프로 표준 버전은 한 컨텍스트 창에 12만8천 토큰까지 입력할 수 있고, 100만개 단위까지 추가 용량을 원하는 경우 비용을 더 지불해야 한다. 테스트 기간 중에 100만개 토큰을 무료로 입력할 수 있다.

2024.02.16 13:59김우용

카카오 "자체 LLM '코GPT 2.0' 고도화 작업 중"

카카오가 미래 성장 동력으로 주목받고 있는 자체개발 인공지능(AI) 대규모언어모델(LLM) '코GPT 2.0' 내부 테스트를 진행 중이라고 밝혔다. 홍은택 카카오 대표는 15일 컨퍼런스 콜에서 “카카오브레인 코GPT 2.0는 카카오 서비스에 실제 적용되기 충분한 수준의 기술력을 확보하고, 현재 공동체 내부에서 다양한 테스트를 진행하면서 고도화 작업을 진행 중”이라고 말했다. 이어 홍 대표는 “카카오 생태계 내 많은 서비스들은 전 국민을 대상으로 하고 있는 만큼, 비용 경쟁력과 서비스의 효용성을 우선적으로 검토해 자체 개발한 파운데이션 모델과 글로벌 AI 모델을 유연하게 고려하는 하이브리드 형태의 전략을 펼쳐나가고자 한다”고 설명했다. 또 그는 “지난 하반기부터 카카오엔터프라이즈에서 제공하는 대규모 AI 학습 인프라를 활용해 다양한 파운데이션 모델을 구축해 왔다”며 “브레인에서 개발을 완료한 경량형 파운데이션 모델은 이미 지난 12월부터 카카오톡 AI 기능이 적용돼 서비스되고 있다”고 덧붙였다. 신사업(뉴이니셔티브) 일환인 카카오헬스케어에 대해 홍 대표는 “실시간 혈당 관리 서비스인 파스타를 지난 2월1일 출시했다”면서 “카카오 헬스케어는 먼저 당뇨 환자들과 의학계로부터 전문성과 신뢰성을 인정받은 후 보다 넓은 헬스케어 시장으로 진입하고자 한다”고 밝혔다.

2024.02.15 09:48최다래

구글 "개인용 PC서도 생성형AI 앱 만든다"

구글클라우드가 고성능컴퓨팅(HPC) 환경 없이도 생성형 인공지능(AI) 앱을 구축할 수 있는 오픈소스 도구를 공개했다. 7일(현지시간) MS파워유저 등 외신에 따르면 구글클라우드는 오픈소스 클라우드 서비스인 로컬LLM을 공개했다. 로컬LLM은 사용자의 PC 환경에 상관없이 생성형AI앱을 개발할 수 있는 클라우드 개발환경이다. 오픈소스 AI모델인 허깅페이스 기반으로 가상 프라이빗 클라우드 서비스인 클라우드 워크스테이션 상에서 개발된다. 사용자는 개발하려는 생성형AI앱의 특성에 따라 고성능 GPU, 저전력 CPU 등 필요한 컴퓨팅 인프라를 자유롭게 설정할 수 있다. 구글클라우드는 로컬LLM과 함께 제한된 컴퓨팅 환경에 최적화된 양자화 모델을 함께 공개했다. 메모리 사용 및 처리 능력 측면에서 효율적으로 설계되어 스마트폰, 노트북 및 기타 엣지 디바이스 등에 AI가 실제 적용됐을 때 안정적인 성능을 낼 수 있도록 지원한다. 구글클라우드의 제프리 앤더슨 제품 관리자는 “빠르게 변하는 AI시장에서 GPU 부족은 기업의 경쟁력 향상에 상당한 장애물로 작용하고 있다"며 “로컬LLM은 GPU 부족으로 인한 문제를 극복하고, 생산성을 향상시키고 비용 효율성을 높이며 생성형AI앱 개발 과정에 혁신을 제공할 것”이라고 강조했다.

2024.02.08 09:23남혁우

[기고] LLM의 새 시대 개막:혁신기술서 비즈니스 필수요소로

우리는 더이상 거대언어모델(Large Language Model, 이하 LLM)을 가벼이 여기지 않는다. 챗GTP, 바드(Bard)와 같은 LLM이 이제 혁신 기술을 넘어 비즈니스 필수 요소가 됐기 때문이다. 실제로 기업들이 생성AI 솔루션에 지출하는 금액은 2023년부터 2027년까지 연평균 86.1% 성장해 2027년 1511억 달러(약 202조원)에 달할 것으로 예상된다. 이는 AI 애플리케이션에 대한 관심이 급증하고 있음을 시사한다. 초창기부터 뜨거웠던 LLM에 대한 관심은 AI를 기업 운영에 보다 심층적으로 통합시키기 위한 전략으로 발전해왔다. 맥킨지의 AI 현황에 관한 연례 조사에 따르면 기업의 3분의 1이 적어도 하나의 비즈니스 기능에 생성형 AI를 정기적으로 사용하고 있으며, AI를 활용 중인 기업의 25%는 이미 이사회 안건에 생성형 AI를 포함시켰다. 이처럼 기업내 생성형 AI 사용이 늘어나는 이 주목할 만한 변화는 전반적인 성능을 향상시키고 있다. 더불어 생성형 AI 솔루션이 더 전략적이고 목표지향적인 방향으로 진화하고 있는 만큼 2024년은 LLM 채택의 중요한 기점이 될 전망이다. AI가 실험적 도구에서 비즈니스 전략과 운영의 기본 요소가 되는 새로운 시대가 도래한 것이다. ■ LLM 애플리케이션: 2023년 vs. 2024년 2023년 기업 내 몇몇 직원들이 챗GPT나 다른 LLM을 테스트했을 때에는 주로 이메일 작성이나 메시지 답변을 위한 용도에 그쳤다. 좀더 용기 있는 직원들이 제안서나 긴 형식의 문서에 사용하기도 했지만 대부분의 경우 LLM으로 작성한 결과물은 내부용으로만 사용됐다. 사실관계 부정확성 및 기타 오류 가능성을 고려할 때 외부에 공개하는 콘텐츠에 LLM을 사용하는 것은 적절치 않았기 때문이다. 그러나 LLM 개발자들은 1년 간의 실험과 개선을 통해 비즈니스용 제품 출시 준비를 마쳤으며, 일부는 이미 출시됐다. 우리가 올해 기대할 수 있는 LLM 애플리케이션은 '고객 서비스'와 '콘텐츠 생성'이다. 특히 이 두 가지 응용 분야의 품질이 크게 향상되고 이에 따라 더 많은 곳에서 도입할 것으로 예상된다. ■ 왜 2024년인가? 2024년은 기술 발전과 시장 심리라는 두 핵심 요소가 결합해 LLM 애플리케이션이 대중화하는 해가 될 것이다. LLM은 2022년 11월 챗GPT 출시 이후 텍스트 완성 및 분석 모델에서부터 코드 실행, 도구 사용, 외부 정보 접근 및 웹 검색 기능을 갖춘 강력한 챗봇으로 진화해왔다. 기술 커뮤니티 전체가 약 1년 만에 이미 혁신으로 여겨지던 도구를 더욱 혁신적으로 발전시킨 것이다. 그러나 만약 경영진들이 받아들이지 않았다면 이러한 기술적 발전은 시장 가치를 가지지 못했을 것이다. 2023년이 그랬다. 하지만 이제 대부분의 CEO들은 AI에 대한 투자가 '최우선 과제'임을 명확히 밝히고 AI 솔루션을 비즈니스 운영에 도입하는 데 동참하고 있다. 각 업종에 특화된 LLM이 더 많아질수록 기업들이 생성형 AI 솔루션을 채택하고 적용하는 것이 더욱 쉬워질 것이다. 또한 2024년에는 LLM 개발자들이 주요 우려사항 중 하나인 데이터 보안 이슈에 대응할 것으로 예상된다. 기업의 데이터를 해당 기업의 시스템 내에 유지할 수 있게 함으로써 기존보다 더 안전하고 강력한 솔루션을 제공할 수 있게 되며, 이는 위험을 기피하는 CEO들에게 더 매력적으로 보일 수 있을 것이다. 한편, 2023년은 정부와 다른 감시 기관들이 AI 규제를 위해 노력한 해이기도 했다. 지난해 12월 유럽연합(EU)은 AI 사용을 규제하고 제한하는 내용의 'AI법(AI Act)'에 합의했다. 이 법안이 시행되면 향후 기술 기업들이 AI 솔루션에 접근하는 방식에 영향을 미칠 것으로 보인다. 간단히 말해, 이 법안들은 무엇이 허용되고 무엇이 금지되는지에 대한 기본 원칙을 정하게 될 것이다. 더 강력한 기능과 더 많은 참여, 더 높은 명확성을 갖추게 되면 LLM 애플리케이션은 전 세계 대기업들에게 더 널리 채택될 것이다. ■ 고객 서비스, 콘텐츠 생성 그리고 LLM 챗GPT가 웹사이트의 고객 서비스 챗봇이라고 상상해 보자. 아마도 실제 사람인지 챗봇인지 구분할 수 없을 것이다. 기업들은 LLM 챗봇을 고객 서비스에 통합함으로써 언제든 고객에게 서비스를 제공할 수 있는 비용 절감의 기회를 얻을 수 있다. 실제로 소비자들이 기업에게 더 많은 것을 요구하고 기업과의 경험에서 더 큰 것을 기대할수록 LLM 챗봇은 더 개인화된 상호작용을 제공, 고객 만족도를 향상시킬 수 있는 해답이 될 수 있다. 콘텐츠 생성에 LLM을 사용하는 장점 중 하나는 속도다. 결과가 마음에 들지 않을 경우 프롬프트(명령어)를 다시 입력하면 1분 이내에 새로운 결과를 얻을 수 있다. 이는 다변량 테스트와 반복(iteration)이 중요한 마케팅 및 광고분야에서 특히 유용하다. 광고 슬로건, 정보성 블로그 게시물, 심지어 단편 소설에 이르기까지 LLM은 훈련받은 방대한 데이터를 활용해 새로운 아이디어와 텍스트를 생성할 수 있다. 기업들이 콘텐츠 생성에 LLM을 사용하는 이유가 속도 때문만은 아니다. LLM은 형식, 스타일, 어조 등 콘텐츠의 다양성을 제공한다. 챗GPT가 처음 등장했을 때 모든 콘텐츠가 똑같을 수 있다는 우려의 목소리가 있었다. 예를 들어 특정 주제에 대해 SEO(검색엔진 최적화)를 고려한 블로그 포스트를 작성해달라고 챗GPT에게 요청하면, 해당 주제에 대한 모든 글이 동일할 것으로 예상했다. 그러나 엔지니어링 프롬프트 엔지니어링 덕분에 이런 일은 일어나지 않았다. 프롬프트 문구를 약간만 변경하면 챗GPT 및 유사 솔루션들은 동일한 주제에 대해 서로 다른 콘텐츠를 생성할 수 있다. 더 중요한 것은 사용자가 LLM 콘텐츠 생성기에 특정 스타일이나 어조를 채택하도록 요청할 수 있다는 점이다. 이는 반복이 매우 중요한 부분으로, 능숙한 사용자들은 LLM을 반복적으로 사용하면서 결과물이 보다 자신들과 비슷해지도록 훈련시킨다. 물론 궁극적으로는 LLM이 가능한 최단 시간 내에 회사의 보이스와 일치하는 훌륭한 콘텐츠를 생성하도록 하는 것이 목표다. ■ LLM이 재정의 할 2024년 이후 기업 미래 2024년에 접어들면서 LLM이 실험적인 도구에서 필수적인 비즈니스 자산으로 전환되는 양상이 더욱 선명해지고 있다. 특히 기술적 역량에서 큰 발전을 거듭하면서 고객 서비스 및 콘텐츠 제작과 같은 영역에서 탁월한 효율성과 맞춤화를 제공하고 있다. 올해는 기술발전 뿐 아니라 변화하는 규제 환경과 경영 전략에 맞춰 LMM을 비즈니스 운영의 핵심으로 통합하는 한 해가 될 것이다. LLM의 광범위한 도입은 기업 운영은 물론 소통 및 발전하는 방식을 혁신할 가능성을 입증하는 것이기도 하다. LLM은 단순히 기업 미래의 일부분이 아닌 적극적으로 미래를 만들어나가기 위한 한 축으로 점점 더 디지털화하고 있는 세상에서 성장과 효율성을 위한 새로운 길을 제시할 것이다.

2024.02.02 08:03로버트 첸 박사

  Prev 11 12 Next  

지금 뜨는 기사

이시각 헤드라인

에너지 안보가 곧 국가 경쟁력…전력 인프라 대전환 시급

"입는 로봇, 스마트폰처럼 쓰게 될 것…라인업 다각화 계획"

직장 내 사람·일·협업 고민, 'HR테크'로 풀었다

네이버·카카오 올해 특명 '체류시간' 더 늘려라

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현