• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 생활/문화
  • 인사•부음
  • 글로벌뉴스
AI페스타
배터리
양자컴퓨팅
IT'sight
칼럼•연재
포토•영상

ZDNet 검색 페이지

'라마 3.1'통합검색 결과 입니다. (54건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

효성중공업, '일렉라마 2025' 참가…"인도 핵심 전력회사 자리매김"

효성중공업이 인도 최대 전력산업 전시회에서 최첨단 전력 솔루션을 선보였다. 효성중공업은 22일부터 26일까지 인도 뉴델리에서 개최되는 '일렉라마 2025'에 참가했다고 밝혔다. '일렉라마 2025'는 2년마다 개최되는 세계적인 전력산업 전시회로, 약 1천여개 기업이 참여하고 40만명 이상이 방문하는 대규모 행사다. 효성중공업은 이번 전시회에서 '에너지 전환 시대의 신뢰할 수 있는 파트너, 그리드 안정성을 책임지겠습니다'라는 주제로 최신 전력 기술과 제품을 선보였다. 주요 전시 제품으로는 ▲온실가스 배출량은 줄이고 고성능 절연 기술은 높인 SF6 Free GIS▲신속한 설치 및 이동으로 긴급상황 대처에 용이한 이동형 변전소 ▲신재생에너지 발전, 데이터센터 등에 안정적인 전력 공급을 돕는 STATCOM(정지형 무효 전력 보상장치) ▲효율적인 장거리 대용량 전력 전송이 가능한 미래 전력망 핵심 기술 HVDC(초고압 직류 송전 시스템) 등이 있다. 우태희 효성중공업 대표는 “인도는 세계에서 가장 빠르게 성장하고 있는 전력시장 중 하나”라며 “이번 전시회에 선보인 효성중공업의 전력 솔루션을 통해 인도 시장 내 선도적 입지를 더욱 강화하겠다”고 밝혔다. 한편, 효성중공업은 일찍이 인도 전력기기 시장의 잠재력을 파악해 2007년 뉴델리에 지사를 세웠고, 2015년에는 인도 중서부 푸네에 GIS 생산 공장을 준공하며 지속적으로 시장을 공략해왔다. 효성중공업은 인도 GIS 시장에서 점유율 50%가 넘는 1위를 차지하고 있고, 특히 800kv 이상 초고압 GIS 부문에서는 95% 이상의 점유율을 기록하고 있다. 2024년 기준 인도법인 매출이 전년 대비 2배 이상 성장했다.

2025.02.25 13:18류은주

"oo은행, '엑사원 3.5'가 딱이네"…금융권 노린 LG CNS, 최적 AI 모델 골라준다

LG CNS가 금융 맞춤형 인공지능(AI) 평가 도구를 앞세워 생성형 AI를 도입하고자 하는 금융 기업 공략에 나선다. LG CNS는 미리 구축한 데이터셋으로 시중에 공개된 수십 개의 개방형 거대언어모델(LLM)을 평가해 뱅킹, 보험, 증권 등 각 금융 서비스에 가장 적합한 AI 모델을 찾아주는 주는 서비스를 개발했다고 24일 밝혔다. 개방형 LLM은 공개된 소스코드나 알고리즘으로 누구나 자유롭게 수정하고 활용할 수 있는 거대언어모델(LLM)이다. 대표적으로 LG AI연구원의 엑사원(EXAONE) 3.5, 메타(Meta)의 라마(Llama), 알리바바(Alibaba)의 큐원(Qwen) 2.5 등이 있다. 금융 기업은 데이터 유출 등 보안의 이유로 AI 도입 시 개방형 LLM을 파인튜닝해 자체 모델을 구축한다. 파인튜닝은 AI 모델에 별도의 데이터를 학습시켜 특정한 목적에 맞게 만드는 과정을 의미한다. 오픈AI의 챗GPT나 구글의 제미나이(Gemini)같은 폐쇄형 LLM은 내부 소스코드가 공개되지 않아 기업이 자체 AI 모델로 구축해 활용할 수 없으며 돈을 내고 서비스를 이용하는 형태로만 사용 가능하다. LG CNS의 금융 특화 평가 도구는 29가지 평가지표와 약 1천200개의 데이터셋으로 구성돼 있다. 주요 평가 항목은 ▲금융 지식을 기반으로 추론하는 능력 ▲수학적 추론 능력 ▲복잡한 질문 이해력 ▲문서요약 능력 ▲금융 용어 이해도 ▲AI 에이전트(Agentic Tool) 사용 능력 등을 종합적으로 테스트한다. LG CNS는 특히 AI가 답변하기 어려워하는 금융 관련 추론 문제들을 29개 평가지표에 적용해 더 정확한 성능 검증이 가능하도록 했다. LG CNS는 금융 전문가들과의 협업을 통해 데이터셋의 평가 데이터에 실제 금융 현장에서 사용하는 서비스 정보나 전문 지식 등이 정확히 반영됐는지 점검하며 완성도를 높였다. 이를 통해 AI가 금융 산업 내 규제 요건이나 복잡한 서비스 구조 안에서도 정확한 답변을 하는지 판단할 수 있게 했다. LG CNS는 이 평가 도구를 통해 금융기업들이 AI를 도입할 때 최적의 LLM 선정부터 커스터마이징, 안정적인 운영까지 금융권에 특화된 생성형 AI 도입 전 단계에서 차별화된 고객가치를 제공해 나갈 계획이다. LG CNS는 다수의 금융 기업을 대상으로 생성형 AI를 활용한 비즈니스 혁신을 지속하며 금융 AX를 선도하고 있다. 최근 NH농협은행과 생성형 AI 플랫폼 구축 프로젝트에 착수했고, 신한카드와 생성형 AI 기반의 상담사 응대 시스템을 구축 중이다. 작년에는 신한은행과 함께 거대언어모델(LLM) 기반 미래형 영업점인 'AI 브랜치'를 개발했고, KB금융그룹에 AI, 클라우드 등 디지털 기술을 접목시킨 미래형고객센터(FCC, Future Contact Center)를 구축해 운영 중이다. 현신균 LG CNS 사장은 "금융 서비스에 생성형 AI를 도입하고자 하는 기업의 가장 큰 고민은 어떤 AI 모델이 서비스에 가장 적합할 지 파악하는 것"이라며 "자사금융 특화 AI 평가 도구는 금융 기업들의 고민을 빠르게 해결할 수 있는 최적의 솔루션이 될 것"이라고 말했다.

2025.02.24 10:00장유미

[남기자의 비욘드IT] 딥시크가 촉발한 '오픈워싱' 논란, 오픈소스의 미래는

중국 스타트업 딥시크(DeepSeek)가 'R1' 등 자체 개발한 인공지능(AI) 모델을 오픈소스로 공개하면서 논란이 일고 있다. AI모델의 코드와 가중치를 공개했지만, 학습 데이터와 훈련 과정은 비공개이기 때문이다. 이에 일부 개발자들은 '오픈소스'라고 부르기에 부족하다는 비판에 나섰다. AI오픈소스 커뮤니티인 허깅페이스 측은 R1의 숨겨진 요소를 모두 분석해 재구축하는 '오픈-R1(Open-R1)'를 진행 중이기도 하다. 문제는 구글과 메타 등 빅테크 기업 역시 이런 논란에서 자유롭지 않아 관련 업계에서 '오픈소스'라는 용어가 마케팅 도구로 전락하는 것 아니냐는 '오픈워싱(Openwashing)'에 대한 우려의 목소리가 나오고 있다. 7일 업계에 따르면 최근 AI 오픈소스의 정의와 방향에 대해 기업과 사용자간 논쟁이 치열하게 일고 있다. 오픈소스 생태계 위협하는 오픈워싱 AI 모델을 '오픈소스'로 공개하는 것은 연구자들과 개발자들이 자유롭게 활용하고 발전시킬 수 있도록 하기 위한 취지다. 그러나 최근 많은 기업들이 핵심 기술을 비공개로 유지한 채 '부분적 개방'만을 내세우고 있다. 해당 논란이 거세지는 이유는 오픈소스 철학의 핵심인 개방성과 투명성이 훼손되며 개발 생태계를 악화시킨다는 지적이다. 이로 인해 오픈소스 AI의 의미와 방향을 둘러싼 논쟁은 단순한 기술적 논의에서 벗어나, AI 생태계 전체의 구조를 결정하는 중요한 요소로 자리 잡고 있다. AI 발전 과정에서 오픈소스는 중요한 역할을 해왔다. 초기 AI 연구자들은 개방된 모델과 데이터를 활용해 기술을 발전시키고 협업을 통해 새로운 혁신을 이끌어냈다. 대표적으로 구글과 메타 같은 기업들은 AI 연구에 필수적인 오픈소스 프레임워크와 모델을 공개하면서 생태계를 확장했다. 구글은 2015년 텐서플로를 공개해 AI 연구 및 개발의 표준을 만들었고, 2014년에는 쿠버네티스(Kubernetes)를 통해 클라우드 환경에서 AI 모델을 효율적으로 운영할 수 있도록 했다. 메타 역시 AI 오픈소스를 적극적으로 활용한 기업으로 꼽힌다. 2016년 공개한 파이토치(PyTorch)는 현재 가장 널리 사용되는 AI 개발 프레임워크 중 하나다. 2022년에는 리눅스 재단 산하 파이토치 재단으로 이관해 커뮤니티 주도의 발전을 지원하고 있다. 오픈소스 생태계 이끌어온 빅테크의 달라진 행보 하지만 이렇게 AI오픈소스 생태계를 이끌어온 기업들이 본격적인 AI모델 출시와 함께 행보가 달라지고 있다. 구글은 젬마(Gemma)라는 AI 모델을 공개했지만, 학습 데이터와 훈련 코드는 공개하지 않고 있다. 또 구글의 AI전용 프로세서인 TPU에 최적화돼 특정 클라우드 종속성을 강화하는 방식으로 운영되고 있다. 메타도 라마를 오픈소스로 제공하고 있다고 밝혔지만 훈련 데이터와 세부 알고리즘은 비공개로 유지하고 있는 추세다. 이에 비영리 오픈소스 표준화 단체인 오픈소스 이니셔티브(OSI) 측은 '오픈소스'란 용어를 사용해 사용자를 혼란스럽게 하고 오픈소스를 오염시켰다며 강도 높게 비판했다. AI 오픈소스 커뮤니티인 허깅페이스도 오픈워싱 논란에 대해 비판적인 입장을 보이고 있다. 클레망 들랑브 최고경영자(CEO)는 AI 기업들이 오픈 모델이라는 용어를 남용하고 있으며, 진정한 오픈소스 AI는 학습 데이터와 훈련 과정까지 포함돼야 한다고 주장했다. 기술경쟁 심화된 AI, 기술 보호 중요성 커저 AI 오픈소스 생태계를 적극적으로 지원하며 생태계를 주도하던 기업들이 점점 폐쇄적인 방향으로 돌아서고 있는 이유는 AI 기술 경쟁이 심화되면서 '기술 보호'가 더 중요한 요소로 떠올랐기 때문이다. 오픈AI가 GPT-2까지는 공개했지만, GPT-3부터 모델을 비공개로 운영하며 API 기반 서비스로 전환한 것은 대표적인 사례다. 오픈AI는 학습 데이터와 훈련 알고리즘을 비공개로 유지하면서도 GPT 기반의 유료 API 서비스를 제공하며 AI 생태계를 선점하는 전략을 택했다. 마이크로소프트의 대규모 투자 이후 GPT-4는 완전히 비공개 모델이 됐다. 오픈AI 역시 연구 초기에는 'AI 기술을 모두에게 개방한다'는 비전을 내세웠지만, AI 기술이 상업화되면서 기업 중심의 폐쇄적인 운영 방식을 선택했다. 구글과 메타는 기술보호와 함께 AI 클라우드 서비스와의 연계를 강화하는 전략적 요소가 더 강해졌다. 막대한 비용이 소비되는 AI 연구 비용 지출을 클라우드 서비스와의 결합을 통해 완화할 수 있기 때문이다. AI 모델의 훈련과 운영에는 막대한 비용이 소요된다. GPT-4의 훈련 비용은 수억 달러(수천억원)로 추정되며, 기업이 AI 모델을 공개하면 경쟁사들이 해당 모델을 무료로 사용할 가능성이 높아진다. 이에 따라 기업은 비용을 부담하고 연구한 기술을 다른 기업들이 쉽게 복제해 경쟁력을 갖출 수 있게 된다. 이런 이유로 AI 기업들은 오픈소스보다는 '부분적 공개' 또는 '제한된 라이선스' 전략을 선택하는 추세다. 특히 딥시크 사례는 AI 모델이 공개되지 않아도 충분히 복제될 수 있다는 가능성을 보여줬다. 이에 따라 기업들은 AI 모델을 더욱 폐쇄적으로 운영할 가능성이 높아졌으며, AI 오픈소스 시장 자체가 위축될 가능성이 커진다는 지적이다. 모두 공개보다 제한적 공개로 전환할 가능성 높아진 빅테크 AI 모델을 오픈한다는 것이 곧바로 기술 공유를 의미하지 않는다는 점이 분명해지면서, AI 기업들은 '어떤 부분을 공개할 것인가'에 대한 전략적 판단을 더욱 신중하게 내릴 것으로 보인다. 특히 관련 업계에선 AI 모델의 소스코드가 모두 공개되지 않아도 복제될 수 있다는 점이 확인되면서, 기업들은 오픈소스 전략을 제한적으로 운영할 가능성이 높을 것이란 전망이다. 이러한 흐름에 따라 최근 샘 알트먼 오픈AI CEO가 발언도 오픈워싱 전략이 포함된 것이란 해석이 제기되고 있다. 최근 샘 알트먼은 레딧에서 진행한 '무엇이든 물어보세요(AMA)' 코너에서 딥시크의 부상을 보며 현재 오픈소스 전략이 잘못된 것 같다며 더 개방적인 방향을 고려할 것이라고 밝힌 바 있다. 하지만 완전한 오픈소스로 전환할 경우 오픈AI의 수익 모델에 악영향을 미칠 가능성이 있고 1위를 유지하고 있는 상황에서 굳이 경쟁자에게 최신 기술을 공유할 이유가 없다는 분석이다. 국내 한 AI전문가는 "현재 오픈AI의 AI모델이 가장 좋은 성능을 보유한 것은 알려져 있지만 자세한 정보를 공개하고 있지 않아 기업들과 개발자들의 불만이 큰 상황"이라며 "이런 불만을 잠재우고 여론을 돌리기 위해서라도 긍정적인 발언을 할 필요가 있었을 것"이라고 분석했다. AI 오픈소스 이끌 것으로 주목 받는 AI스타트업 다만 딥시크를 비롯해 미스트랄 등 AI스타트업을 중심으로 AI 오픈소스 생태계가 변화할 것이란 전망도 나온다. AI모델을 오픈소스로 공개하면 누구나 부담 없이 활용할 수 있을 뿐 아니라 외부 개발자들의 기여를 통해 개발 비용을 줄이고, 모델 개선 속도를 높일 수 있다는 장점이 있다. 또 오픈소스 프로젝트에 적극적으로 참여하는 AI 분야의 우수한 인재를 자연스럽게 확보하며 개발 생태계를 구축 가능하다. 더불어 개방적이고 투명한 AI 생태계를 지향하며 기존 AI기업과 차별화된 브랜드 이미지를 확보할 수 있다. 구글과 메타 역시 이러한 전략을 바탕으로 클라우드를 비롯해 웹브라우저, 가상현실(VR), 데이터 인프라스트럭처 등의 분야에서 안정적인 생태계를 구축한 바 있다. 한 AI 전문가는 "미스트랄이나 딥시크가 오픈소스로 공개되면서 오픈AI와 비교되며 관심을 끌고 있지, 기술독점 방식이었다면 지금 같은 반응은 끌어내지 못했을 것"이라며 "앞으로의 AI 시장은 자본과 인프라를 앞세운 빅테크와 오픈소스를 강조하는 스타트업 간의 경쟁 구도가 될 것으로 예상된다"고 전망했다.

2025.02.07 18:05남혁우

"AI 추론 비용 낮추는 양자화, 모델 성능까지 떨어뜨려"

인공지능(AI) 모델 추론 비용을 낮추기 위해 활용되는 '양자화' 기술이 오히려 모델 성능을 떨어뜨릴 수 있다는 의견이 나왔다. 29일 업계에 따르면 AI 모델 효율성을 높이기 위해 사용되는 양자화가 한계에 직면했다는 지적이 이어지고 있다. AI 모델 추론과 훈련 비용 문제를 해결하기 위한 수단으로 평가받았지만, 오히려 모델 성능을 저하할 수 있다는 평가다. 최근 AI 복잡성과 훈련 데이터 규모가 늘면서 모델 추론·운영에 드는 비용이 기하급수적으로 늘고 있는 것으로 전해졌다. 업계에서는 AI 모델이 질문에 답하거나 결과를 생성하는 추론 과정에 드는 비용이 늘었다는 분위기다. 이를 해결하기 위한 수단으로 양자화 기술이 활용되기 시작했다. 양자화는 모델이 데이터를 처리할 때 사용하는 숫자 정밀도를 낮추는 기술이다. 이는 모델 추론·계산 과정을 기존보다 빠르게 처리할 수 있게 돕는다. 예를 들어 사람이 AI 챗봇에 "지금 몇 시입니까?"라고 물었을 때 챗봇이 "12시 0분 1초 4밀리초" 대신 "12시"라고 답한다. 챗봇에 탑재된 모델이 양자화 과정을 거쳤기 때문에 답변을 간략히 내놓을 수 있다. 모델은 해당 방식으로 복잡한 추론 과정과 데이터 처리에 드는 정밀도를 줄여 업무를 진행한다. 이를 통해 추론·훈련 비용뿐 아니라 전력 소비까지 줄일 수 있다. 학계에선 AI 양자화가 모델 성능 자체를 떨어뜨릴 수 있다는 지적이 이어지고 있다. 추론 과정서 생기는 정밀도를 줄이면 비용을 낮출 순 있지만 환각현상이 생기거나 복잡한 업무 자체를 처리할 수 없다는 이유에서다. 지난 4월 메타의 '라마3' 성능이 양자화를 거친 후 타사 모델보다 성능 저하를 크게 보인다는 연구 결과가 나오기도 했다. 최근 하버드대와 스탠퍼드대, 메사추세츠 공대, 데이터브릭스, 카네기멜런이 공동 연구한 논문에 따르면 모델 규모가 클수록 양자화로 인한 부정적 영향을 받을 확률이 높은 것으로 전해졌다. 특히 오랜 시간 많은 데이터를 학습한 모델일수록 양자화 과정을 거친 후 성능 저하를 보일 수 있다는 연구 결과다. 해당 연구 1 저자인 하버드대 타니시 쿠마르 수학과 학생은 "양자화를 통해 모델 정밀도를 계속 낮추면 모델 성능이 낮아질 수밖에 없다"며 "모델 추론 비용을 줄이기 위한 지나친 양자화는 장기적으로 문제가 될 수 있다"고 지적했다. 그러면서 "높은 품질 데이터를 선별적으로 사용하거나 저정밀도 환경에서도 안정적으로 작동할 수 있는 새 AI 아키텍처가 필요한 시점"이라고 주장했다. 또 "기업이 대형 모델을 양자화하는 것보다 처음부터 소형 모델 개발하는 것이 이득일 수 있다"고 덧붙였다.

2024.12.29 10:15김미정

"운영 비용 8분의 1"...메타, 신형 AI '라마 3.3 70B' 출시

메타가 신형 대규모언어모델(LLM) '라마 3.3 70B'를 출시했다. 기존 언어모델 수준의 성능에 운영비용을 8분의 1 수준으로 사용할 수 있는 것이 특징이다. 8일 메타는 인공지능(AI) 개발 플랫폼 허깅페이스를 통해 라마 3.3 70B를 공개했다. 라마 3.3 70B는 지난 4월 출시한 라마 3의 신규 버전이다. 4천50억개의 매개변수를 활용한 라마 3.1 대비 6분의 1 수준인 매개변수를 700억개로 줄였음에도 유사하거나 일부 더 뛰어난 성능을 갖췄다. 메타에서 공개한 벤치마크 결과에 따르면 라마 3.3 70B는 라마 시리즈 중 가장 많은 매개변수를 활용한 라마 3.1 405B를 비롯해 오픈AI의 GPT-4o, 구글의 제미나이 1.5, 아마존의 노바 프로와 유사한 성능을 기록했다. 언어 모델의 다방면적인 지식 수준을 측정하는 MMLU는 소폭 낮은 기록을 보였지만 대화 내용을 이해하고 지침을 따르는 능력을 평가하는 IFeval은 노바 프로와 함께 가장 높은 점수를 달성했다. 더불어 라마 3.3 70B는 모델 크기, 추론 알고리즘, 데이터 효율성, 컴퓨팅 자원 활용에서 비용 절감 요인을 극대화하는 설계와 최적화로 타 AI대비 8분의 1 이하의 운영비용을 요구한다. 메타 측에 따르면 운영 비용은 토큰 100만개당 입력 0.1달러, 출력 0.4달러 수준이다. 라마 3.3은 다양한 언어환경에서 상업적 및 연구 목적으로 개발된 AI모델이다. 최적화된 트랜스포머 아키텍처를 기반으로 기업의 목표나 특성에 맞춰 감독 미세 조정(SFT)과 피드백을 통한 강화 학습(RLHF)을 지원한다. 다양한 언어 환경을 지원하는 만큼 영어, 독일어, 프랑스어 등 사전학습된 8개 언어 외에도 추가학습을 통해 새로운 언어를 사용하는 것도 가능하다. 마크 저커버그 메타 CEO는 인스타그램을 통해 "올해 마지막 빅 업데이트"라고 라마 3.3를 소개하며 "메타는 전 세계 모든 이용자에게 혜택을 제공하기 위해 AI를 개발하고 있으며 메타 AI는 현재 월간 활성 사용자가 6억명에 달한다"고 밝혔다. 이어 "다음은 2025년 출시할 라마 4"라며 차기 버전을 예고했다.

2024.12.08 14:35남혁우

메타, LLM '라마' 美정부 방위·군사기관 지원…中 AI경쟁 확대

페이스북, 인스타그램의 모기업인 메타가 미국 정부 방위 및 국가 안보 기관에 오픈 소스 인공지능(AI) 모델인 라마(Llama)를 제공한다. 6일 MS파워유저 등 외신에 따르면 메타는 액센츄어, 아마존웹서비스(AWS), 록히드 마틴, 오라클 등과 협력해 정부 기관에 AI모델을 제공한다고 밝혔다. 이번 협력을 통해 오라클은 라마를 기반으로 항공기 유지 관리 문서를 통합해 기술자가 문제를 빠르고 정확하게 진단하고 수리 시간을 단축할 수 있도록 항공 수리 시스템을 구축하며 스케일 AI는 라마를 미세 조정해 작전 계획 및 취약성 식별과 같은 안보 임무를 지원한다. 록히드마틴은 AI 팩토리에 라마를 통합해 코드 생성, 데이터 분석 및 비즈니스 프로세스 업무를 가속화한다. 이 밖에도 AWS와 마이크로소프트 애저는 민감한 데이터를 위한 보안 클라우드 솔루션을 라마를 활용해 구축하고 IBM은 왓슨 솔루션을 기반으로 자체 관리형 데이터 센터와 클라우드를 국가 안보 기관에 지원한다. 이번 조치는 그동안 군사적 용도 AI 사용을 제한했던 기존 AI기업들의 행보와 대비된다. 이에 대해 메타는 최근 중국 등 경쟁국에서 개발 중인 군사용AI에 대비하기 위한 것이라고 밝혔다. 닉 클레그 메타 글로벌 사업 사장은 "중국을 포함한 많은 경쟁국이 미국을 앞지르기 위해 자체 오픈소스 모델을 개발에 막대한 투자를 지속하고 있다"며 "미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 확대할 것"이라고 밝혔다. 또 일부에선 경쟁국에서 오픈소스의 메타의 라마를 활용한 군사용AI를 개발 중인 만큼 이에 대처하기 위해 직접 나선 것이란 분석도 나오고 있다. 로이터 등 외신에 따르면 중국의 인민해방군(PLA)과 연계된 연구그룹에서 군사 중심 AI 도구인 '챗빗(ChatBIT)'을 개발했다. 챗빗은 라마를 기반으로 개발됐으며 군사 전용 업무와 대화에 특화되어 기존 AI 대비 더 높은 성능을 보이는 것으로 알려졌다. 닉 클레그 사장은 "우리의 목표는 미국이 기술적 우위를 유지하는 동시에 AI에 대한 접근성을 전 세계적으로 확대하고 미국과 가까운 동맹국의 전략적, 지정학적 이익을 지원하는 선순환을 만든 것"이라며 "차세대 디지털 인프라가 민주적 가치와 보호 장치에 뿌리를 두고 있음을 보장하는 데 일조하고자 한다"고 말했다.

2024.11.06 10:11남혁우

메타, 오픈소스 '라마' 美 국가 안보에 활용…중국군 무단 사용에 '맞불'

메타가 자사 인공지능(AI) 모델인 '라마(Llama)'를 미국 국가 안보 관련 정부기관과 방위 계약업체에 제공한다. 이 조치는 오픈소스 AI가 외국 적대 세력의 도구로 쓰일 수 있다는 우려를 완화하려는 메타의 전략으로 풀이된다. 5일 테크크런치에 따르면 메타는 미국 연방정부의 주요 방위 산업 및 IT 파트너와 협력해 '라마' AI 모델을 각 기관에 맞게 최적화할 예정이다. 특히 액센추어, 아마존 웹서비스(AWS), 록히드 마틴 등의 미국 기업과 함께 항공기 유지보수 및 국가 안보 임무 지원과 같은 용도에 라마를 지원할 것으로 알려졌다. 최근 중국 인민해방군이 '라마'를 군사용으로 전환한 사례가 이번 메타 결정의 배경이 됐다. 지난 6월 중국 인민해방군 산하 연구 기관 소속 연구원들은 '라마' 기반 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다. '챗비트'는 정보 수집과 처리, 작전 의사결정을 지원하는 기능을 수행하며 전략 계획 및 시뮬레이션 훈련에 활용될 예정이다. 이 AI 모델은 중국군이 오픈 소스 AI를 군사적 용도로 사용한 첫 실례로 평가된다. 당시 메타는 중국 연구자들의 무단 사용에 대해 즉각적으로 강하게 반발했다. 기존에 메타는 자사 AI 모델 사용 규정에서 군사, 전쟁, 간첩 활동을 위한 활용을 금지하고 있으며 이러한 오용을 방지하기 위한 조치를 강화하고 있다고 밝혔던 바 있다. 메타가 자체적으로 라마를 군사적으로 활용하기로 한 최근의 결정은 오픈 소스 AI가 외국 적대 세력에 악용될 수 있다는 우려에 맞서 미국의 경제적·안보적 이익을 도모하려는 메타의 '맞불 대응'으로 해석된다. 일각에서는 AI 기술이 국가 안보에 활용될 경우 데이터 취약성, 편향성 문제 등이 위험 요소가 될 수 있다는 우려가 제기되고 있다. 비정부 연구기관인 AI 나우 인스티튜트(AI Now Institute)는 국방 산업에서 AI 의존성이 높아질 경우 악의적 목적으로 데이터가 오용될 수 있으며 여전히 해결되지 않은 편향성과 환각 문제가 존재한다고 지적한 바 있다. 테크크런치는 "메타는 오픈소스 AI가 미국의 경제 및 안보 이익을 증진시키며 방위 연구를 가속화할 수 있다고 주장한다"며 "그럼에도 현재 미군은 이 기술을 채택하는 데 느리게 움직이고 있으며 투자 수익률(ROI)에 대해 회의적인 상황"이라고 분석했다.

2024.11.05 11:19조이환

中, 메타 AI '라마' 사용해 군사용 챗봇 개발

중국이 메타의 인공지능(AI) 모델 '라마'(Llama)를 이용해 군사용 AI 모델을 개발한 것으로 밝혀졌다. 2일(현지시간) 테크크런치 등 외신에 따르면, 중국 인민해방군 핵심 연구기관 군사과학원(AMS) 소속 연구원 2명을 포함한 중국 연구자 6명은 지난 6월 발표한 논문에서 라마를 이용해 군사용 챗봇 '챗비트(ChatBIT)'를 개발했다고 밝혔다. 챗비트는 군사 관련 대화 및 질문 응답에 최적화된 AI 챗봇이다. 정보 수집·처리 및 의사 결정을 위한 정보 제공 등 기능을 수행한다. 향후 전략 계획, 시뮬레이션 훈련, 지휘부 의사결정 등에 활용될 예정인 것으로 알려졌다. 지난 6월 발표된 논문에 따르면, 중국 연구자들은 라마 초기 모델인 '라마 13B'에 사용자 지정 매개변수를 추가해 챗비트를 개발했다. 해당 논문에서 연구자들은 군사 분야에서 챗비트가 GPT-4와 비슷한 수준의 성능을 갖춘 AI 모델의 90%보다 더 나은 성과를 보였다고 주장했다. 다만 중국군이 챗비트를 실제 사용했는지에 대해서는 밝히지 않았다. 써니 청 제임스타운재단 부연구위원은 "중국군 전문가들이 오픈소스 대형언어모델(LLM), 특히 메타 LLM을 군사적 목적으로 체계적으로 연구하고 활용하려고 시도해왔다는 실질적 증거가 나온 것은 이번이 처음"이라고 말했다. 메타는 성명을 내고 중국의 라마 사용은 허가되지 않은 행위이며 오용을 방지하기 위한 조치를 취했다고 밝혔다. 메타는 라마 등 AI 모델 사용 규정에서 군사와 전쟁, 핵 산업 혹은 응용 분야, 간첩 활동, 미국 방위 수출 통제의 적용을 받는 활동 등을 위한 모델 사용을 금지하고 있다. 다만 라마는 오픈소스이기 때문에 메타가 중국 연구자들의 라마 사용을 저지하는 데에는 어려움이 따를 것으로 예상된다.

2024.11.03 08:38조수민

AI, 팟캐스트도 만든다…메타, 오픈소스 '노트북라마' 선보여

메타가 구글의 인공지능(AI) 팟캐스트 생성 기능을 본뜬 오픈소스 모델을 공개했지만 실망스럽다는 평가가 나오고 있다. 기술적인 한계로 인해 구글 음성의 자연스러운 품질과 비교 시 미흡한 것으로 판단돼서다. 28일 테크크런치에 따르면 메타는 자사의 AI 모델 '라마(Llama)'를 활용해 구글 '노트북LM' 팟캐스트 기능과 유사한 오픈소스 프로젝트 '노트북라마'를 출시했다. 이 모델은 텍스트 파일을 대화 형식의 팟캐스트 콘텐츠로 변환하는 기능을 제공한다. '노트북라마'는 파일로 입력된 텍스트를 먼저 분석해 대화체로 재구성한 후 텍스트-음성 변환 모델을 통해 이를 음성 콘텐츠로 출력한다. 이 과정에서 사용자들이 보다 드라마틱한 표현과 중간중간 자연스러운 끊김을 경험할 수 있도록 설정돼 있다. 그럼에도 불구하고 업계 전문가들은 노트북라마의 음성 품질이 아직 초기 단계에 머물러 있는 것으로 평가한다. 사용자가 실제 대화를 듣는 듯한 자연스러움을 구현하기에는 현재의 텍스트 및 음성 모델 수준이 불완전한 상태로, 대화가 겹치는 현상이나 로봇 같은 음성 표현이 발생한다는 것이다. 메타 연구팀은 이러한 품질 문제를 해결하기 위해 더 강력한 모델 도입을 검토하고 있다. 연구팀은 "현재는 단일 AI 모델로 팟캐스트 콘텐츠를 구성하고 있다"며 "두 개의 AI 에이전트가 주제에 대해 토론하는 형식으로 개선할 가능성도 있다"고 밝혔다. 현재 AI 팟캐스트 생성 분야에서는 현재 구글을 비롯한 여러 회사들이 경쟁 중인 상황이다. 특히 구글은 지난 6월 '노트북LM'을 출시한 후로 AI 팟캐스트가 가능한 '오디오 개요(Audio overview)' 기능을 통해 업계의 찬사를 받아왔다. 많은 사용자들은 해당 기능의 자연스러운 음성과 인간과 같은 재치있는 만담에 긍정적으로 평가했다. 테크크런치는 "'노트북LM'과 '노트북라마' 등 AI 기반 팟캐스트 생성은 아직 해결해야 할 기술적 과제가 많다"며 "향후 정확성과 자연스러운 표현력을 높이는 기술 개발이 필요하다"고 분석했다.

2024.10.28 10:07조이환

"오픈소스 AI로 한국 찾다"…메타, '라마 3.2'와 연구 성과로 글로벌 혁신 가속

메타가 오픈소스 인공지능(AI) 전략을 통한 글로벌 혁신을 소개하기 위해 한국을 찾았다. 메타는 AI 기술의 민주화와 투명성 증진을 목표로 오픈소스 생태계를 구축하며 전 세계 개발자들과의 협업을 통해 기술 혁신을 가속화하고 있다. 메타는 지난 10일 서울 강남구 메타 한국 지사에서 '메타의 AI 미디어 브리핑' 행사를 열었다고 14일 밝혔다. 행사에서는 메타의 오픈소스 대규모 언어 모델 '라마(Llama)'의 성과와 인공지능 연구소 'FAIR(Fundamental AI Research)'의 최신 연구 성과가 상세히 소개됐다. 마노하 팔루리 메타 생성형 AI 부사장, 니킬라 라비와 후안 피노 FAIR 연구원, 장광선 한국과학기술정보연구원(KISTI) 선임연구원 등이 발표자로 나서 메타의 AI 비전과 기술적 성과를 공유했다. 이번 행사는 메타가 오픈소스 AI 모델을 통해 기술 혁신을 주도하고 글로벌 AI 생태계를 구축하려는 전략을 공유하는 자리였다. 특히 라마 모델의 성과와 FAIR 연구소의 최신 연구 결과를 소개함으로써 메타의 AI 비전과 앞으로의 방향성을 제시했다. 한국에서의 활용 사례와 향후 협력 가능성에 대한 논의도 이어져 국내 AI 업계의 관심을 모았다. 첫 발표를 맡은 마노하 팔루리 부사장은 메타가 오픈소스 AI 모델을 채택한 전략적 이유와 라마의 발전 과정을 심도 있게 설명했다. 팔루리 부사장에 따르면 메타는 오픈소스 생태계를 통해 전 세계 개발자와 연구자들의 참여를 유도함으로써 기술 혁신을 가속화하고 있다. 팔루리 부사장은 "라마는 현재까지 4억 회 이상 다운로드됐다"며 "6만5천 개 이상의 파생 모델이 개발돼 다양한 산업 분야에서 활용되고 있다"고 밝혔다. 실제로 많은 거대 언어 모델(LLM)이 라마를 기반으로 개발되고 있다. 한국의 스타트업인 업스테이지도 라마 2 아키텍처를 기반으로 '솔라(SOLAR)' 모델을 개발했다. 또 마이크로소프트는 라마 2 13B를 기반으로 '오르카(Orca)' 모델을 선보여 오픈AI의 'GPT-4'와 유사한 성능을 구현하기도 했던 것으로 알려졌다. 이러한 성공에 대해 팔루리 부사장은 메타의 오픈소스 전략이 혁신 가속화, 시장 점유율 확대, 비용 효율성 향상, 인재 유치, 윤리적 이미지 강화 등 다양한 목표를 달성하기 위한 것이라고 설명했다. 그는 "오픈소스 모델은 개발자들이 자신의 모델을 훈련하고 미세 조정할 수 있게 해주며 지속 가능한 시스템 구축을 돕는다"며 "이를 통해 AI 기술의 민주화와 투명성 증진에 기여하고 있다"고 말했다. 이번에 새롭게 발표된 '라마 3.2'의 기술적 개선 사항도 소개됐다. 새로운 버전은 1조, 3조, 11조, 90조 등 다양한 파라미터 크기의 모델을 제공해 다양한 배포 요구사항에 대응한다. 또 텍스트와 이미지 입력을 모두 처리할 수 있는 멀티모달 기능을 최초로 도입했으며 12만8천 토큰의 확장된 컨텍스트 길이를 지원해 긴 문서 처리에 용이하다. 팔루리 부사장은 "라마 3.2는 의료, 법률, 마케팅 등 다양한 산업 분야에서 혁신적인 솔루션을 제공하고 있다"고 강조했다. 이 행사에서는 메타의 AI 연구소인 FAIR의 혁신적인 연구 성과도 주목을 받았다. 우선 니킬라 라비 연구원은 '샘 2(SAM 2)' 모델을 소개했다. 라비 연구원은 "'샘 2'는 이미지와 영상에서 객체를 더욱 정확하고 세밀하게 인식하는 기술"이라며 "자율주행 차량의 환경 인식, 의료 영상 분석에서의 종양 검출, 증강현실(AR) 애플리케이션에서의 객체 인식 및 상호작용 등에 활용될 수 있다"고 설명했다. 이어 후안 피노 연구원은 '심리스M4T(SeamlessM4T)'와 '오디오박스(Audiobox)'를 소개했다. '심리스M4T'는 약 100개 언어에 대한 음성 및 텍스트 번역을 단일 모델로 지원하는 다국어 멀티모달 번역 시스템이다. 피노 연구원은 "이 기술은 언어의 장벽을 허물어 글로벌 커뮤니케이션을 혁신적으로 개선할 것"이라며 "교육, 국제 협력, 다국어 콘텐츠 제작 및 현지화 프로세스 간소화 등에 큰 기여를 할 것"이라고 말했다. '오디오박스'는 음성 및 텍스트 명령을 통해 맞춤형 음향 효과와 자연스러운 목소리를 생성하는 오디오 생성 모델이다. 엔터테인먼트 산업에서 혁신적인 사운드 디자인을 가능케 하며 가상 비서 및 AI 음성 시스템의 품질 향상, 시각 장애인을 위한 접근성 향상 등 다양한 분야에서 활용될 수 있는 것으로 알려졌다. 행사의 마지막 순서에서는 한국에서 메타의 AI 기술이 어떻게 활용되고 있는지도 소개됐다. 장광선 한국과학기술정보연구원(KISTI) 선임연구원은 메타의 라마 모델을 기반으로 개발된 KISTI의 대형 언어 모델 '고니(KONI)'를 발표했다. 장 연구원은 "'고니'는 라마 모델에 과학기술 데이터를 추가 학습해 국내 연구자들과 공공기관에 특화된 과학기술정보 서비스를 제공한다"며 "이를 통해 연구자들은 방대한 데이터를 효율적으로 요약하고 최신 연구 동향을 쉽게 분석할 수 있다"고 말했다. 실제로 '고니'는 KISTI의 내부 주요 서비스인 사이언스온(ScienceON), 액세스온(AccessON) 등 주요 서비스에 적용될 예정이며 한전전력연구원, 농림식품기술기획평가원 등 타 공공기관에서도 활용될 계획이다. 메타는 한국의 개발자 커뮤니티와도 협력을 강화하고 있다. 행사 후 진행된 국내 개발자들과의 티타임에서는 라마 모델을 활용한 다양한 유즈케이스에 대한 논의가 이뤄졌다. 티타임에 참가한 이준엽 업스테이지 리더는 "많은 중소업체들이 라마 3 오픈소스를 활용함으로써 다양한 대형 언어 모델(LLM) 유즈케이스가 나오기를 기대한다"고 밝혔다. 이는 메타의 오픈소스 전략이 국내 AI 생태계에서 앞으로도 혁신의 촉매제로 작용할 수 있음을 시사한다. 이러한 성과는 라마가 오픈소스 AI 모델 중 가장 성공적인 사례 중 하나이기 때문이다. 지난 2023년 공개된 메타 '라마(LLaMA)'는 처음에는 공개적으로 유출됐으나 곧 전 세계 개발자들의 뜨거운 관심을 받으며 빠르게 확산됐다. 이는 메타의 오픈소스 전략이 AI 커뮤니티의 참여를 이끌어내어 기술 발전을 가속화한 결과다. 구글, 앤트로픽, 오픈AI 등 경쟁사들이 폐쇄적인 접근 방식을 취하는 것과 달리 메타는 오픈소스를 통해 커뮤니티와 함께하는 전략을 선택했다. 메타의 오픈소스 AI 전략은 중소기업과 스타트업이 AI 기술에 더 쉽게 접근할 수 있게 함으로써 다양한 산업에서의 응용 가능성을 확대하고 있다. 팔루리 부사장은 "오픈소스 AI는 개발자와 기업들이 비용 효율적으로 AI 솔루션을 개발할 수 있게 해준다"며 "앞으로도 다양한 이해관계자들과 협력해 AI 기술의 발전과 응용을 지속적으로 추구할 것"이라고 밝혔다.

2024.10.14 17:52조이환

메타 "라마 다운 4억회 기록…AGI 모델 오픈소스화 목표"

"메타는 '라마'를 통해 일반인공지능(AGI) 모델을 구축할 것입니다. 이후 이를 오픈소스로 공개하는 것이 회사 목표입니다. AI 접근 문턱을 낮춰 모든 사람이 AGI를 쉽게 접할 수 있도록 돕겠습니다." 메타 마노하 팔루리 생성형 AI 부사장은 10일 서울 강남구 메타코리아 사무실에서 열린 미디어 브리핑에서 이같이 밝혔다. 그는 메타 장기적 목표로 AGI 모델 구축을 꼽았다. AGI는 인간과 비슷하거나 그 이상 수준을 갖춘 AI를 의미한다. 메타는 이런 수준의 모델을 만들어 오픈소스로 사용자에 제공할 계획이다. 팔루리 부사장은 메타가 오픈소스 접근 방식을 택한 이유를 밝혔다. 그는 "개방형 생태계가 기술 혁신을 가속화하고 안전성·투명성 높이기 때문"이라며 "개발자는 오픈소스 환경에서 본인만의 개발과 연구를 진행할 수 있을 것"이라고 강조했다. 그는 오픈소스 거대언어모델(LLM) 라마가 해당 역할을 할 수 있다고 봤다. 팔루리 부사장은 "라마는 오픈소스 커뮤니티서 영향력을 키우고 있다"며 "현재 라마는 전 세계서 4억 건 넘는 다운로드를 기록했다"고 설명했다. 이날 라마 활용 사례도 공개됐다. 팔루리 부사장은 "라마가 교육, 헬스케어 등에 활발히 적용되고 있다"며 "라마로 파생된 모델만 6만5천개가 넘었다"고 강조했다. 이어 "앞으로 메타는 오픈소스 생태계를 강화하고 AI 기술의 민주화를 위해 노력할 것"이라며 "AGI 구축 성공을 통해 인류 발전에 기여하겠다"고 포부를 밝혔다.

2024.10.10 17:01김미정

베슬에이아이 "글로벌 빅테크와 AI 혁신의 장 연다"

베슬에이아이가 글로벌 빅테크와 스타트업들이 모이는 인공지능(AI) 에이전트 기술 혁신의 장을 연다. 베슬에이아이는 오는 11일부터 사흘간 실리콘밸리 팔로알토에서 AI 해커톤 '에이전틱 래거톤(Agentic RAG-A-THON)'을 개최한다. AI 스타트업 라마인덱스와 파인콘이 공동주최하는 이번 행사는 글로벌 벤처캐피털(VC) 앤드리슨 호로위츠(a16z)가 주관하는 샌프란시스코의 연례 IT 행사 '테크위크'의 일환으로 진행된다. 이번 행사는 AI 시장의 폭발적인 성장에 맞춰 기술 발전을 선도하는 수백 명의 현직자가 오프라인에서 만나는 자리로 꾸며졌다. 특히 a16z, 500 글로벌, 오픈AI, 미스트랄 AI, SAP 등 글로벌 VC와 AI 기업들이 스폰서로 참석해 행사 지원·참가자 멘토링·관계자 네트워킹 등을 도울 예정인 것으로 알려졌다. 행사 기간 동안 참가자들은 '검색 증강 생성(RAG)' 기술을 활용해 복잡한 추론 및 업무를 대신 처리하는 AI 에이전트의 개발 프로젝트를 진행한다. 산업계에서 실제로 활용 가능한 정교한 AI 구축을 목표로 다양한 모델을 결합해 자율형 AI와 인간 협업형 하이브리드 시스템까지 다채로운 가능성을 모색하게 된다. 이 과정에서 베슬에이아이의 AI 인프라 및 머신러닝 운영(MLOps) 활용 플랫폼, 라마인덱스의 거대언어모델(LLM) 및 RAG 상호 응용 기술, 파인콘의 효율적 데이터 저장 기술이 핵심적으로 활용될 예정이다. 우수한 결과물을 만들어낸 참가자들에게는 총 1만2천 달러(약 1천600만원)의 상금이 차등 지급되며 주최사의 솔루션 이용 혜택도 제공된다. 공동 주최사인 라마인덱스는 LLM의 활용을 돕기 위한 데이터 프레임워크를 제공하는 기업으로, 구조화된 데이터뿐 아니라 텍스트와 이미지 같은 비정형 데이터까지 처리할 수 있도록 지원한다. 파인콘은 AI 모델이 방대한 데이터를 효율적으로 저장하고 활용할 수 있게 돕는 '벡터 데이터베이스'를 운영 중이다. 특히 파인콘은 지난해 a16z 등 유수 투자자로부터 1조 원 이상의 기업 가치를 인정받은 유니콘 스타트업으로 주목받은 바 있다. 안재만 베슬에이아이 대표는 "글로벌 빅테크, VC, AI 선도사들이 한 자리에 모이는 뜻깊은 행사를 주최하게 되어 매우 영광"이라며 "해커톤을 통해 우리 플랫폼이 가진 뛰어난 호환성, 확장성, 효율적인 컴퓨팅 자원 배분, AI 워크플로우 자동화 기능의 실효성과 강점을 널리 알리겠다"고 강조했다.

2024.10.10 10:07조이환

中 알리바바 "초거대 모델 성능 메타 추월"

중국 알리바바가 생성형 인공지능(AI) 초거대 모델 신규 시리즈를 공개하면서 미국 메타의 모델을 뛰어넘었다고 강조했다. 19일 중국 언론 IT즈자에 따르면 알리바바클라우드의 저우징런 CTO는 "퉁이쳰원의 신규 오픈소스 모델 '큐원 2.5' 중 큐원 2.5-72B 모델의 성능이 메타의 '라마 405B' 성능을 뛰어넘었다"고 밝혔다. 이날 알리바바는 지난 9월 중순 기준 퉁이쳰원 오픈소스 모델의 누적 다운로드 수가 4천 만 건을 넘어서, 메타의 라마에 이어 세계적 수준의 모델 그룹이 됐다고도 공식적으로 밝혔다. 큐원 시리즈 파생 모델 총 수량이 5만 개를 넘어서면서 라마에 이어 세계 2위의 모델군이 됐다. 큐원 2.5는 이날 알리바바클라우드가 '2024 압사라 컨퍼런스'에서 발표한 모델이다. 큐원2.5-72B가 주력 모델이다. 72B는 매개 변수 숫자를 의미하며, 720억 개의 매개 변수를 지원한단 의미다. 큐원 2.5는 대규모 언어 모델, 멀티 모달 모델, 디지털 모델, 코딩 모델 등이 크기와 버전 별로 총 100여 개 포함돼있다. 데이터 관점에서 봤을 때, 모든 큐원2.5 시리즈 모델은 18T 토큰 데이터로 사전훈련돼있으며, 기존 큐원2와 비교해 전반적 성능이 18% 이상 향상됐다. 컨텍스트는 8K~128K(약 8천~12만8천 개 토큰) 길이로 생성할 수 있으며, 챗봇 작업도 구현한다. 큐원 2.5는 특히 명령 따르기, 이해 구조화 데이터, 구조화 데이터 출력 생성 등에서 상당한 진전을 이뤘다고 소개됐다. 또 코딩용 '큐원2.5-코더'와 수학용 '큐원2.5-매스'가 전 세대에 비해 눈에 띄게 발전했다. 큐원2.5-코더는 프로그래밍 관련 데이터 최대 5.5T 토큰 훈련을 받았으며, 큐원2.5-매스는 중국어와 영어로 된 이중 언어 수학 문제를 풀기 위해 사고 체인과 툴통합추론(TIR) 사용을 지원한다.

2024.09.20 08:43유효정

"韓 10대 기업이 찜"…스노우플레이크, 코텍스AI에 '라마3.1' 탑재

"애플리케이션 개발 플랫폼 '스노우플레이크 코텍스AI'에 오픈소스 모델 '라마 3.1'을 본격 추가했습니다. 기업은 코텍스AI로 앱 개발을 대규모로 원활히 진행할 수 있습니다. 현재 국내 10대 대기업이 이 플랫폼을 선택한 이유입니다." 최기영 스노우플레이크 한국 지사장은 9일 서울 강남 파크 하얏트에서 열린 '스노우플레이크 월드투어 서울'에서 새 거대언어모델(LLM) 호스팅 계획을 이같이 밝혔다. 이를 통해 코텍스AI는 엔터프라이즈 고객들에 원활한 인공지능(AI) 서비스를 추가 공급할 수 있다. 스노우플레이크 서비스에 탑재된 라마3.1은 오픈소스 LLM이다. 메타의 라마 제품군 중 가장 큰 모델로, 파라미터 405억개로 이뤄졌다. 코텍스AI는 라마3.1로 실시간 고처리량 추론을 진행하고 자연어처리(NLP)와 생성형 AI 앱 개발을 돕는 환경을 제공한다. 최기영 지사장은 "코텍스AI는 라마3.1로 더 빠른 시간 내에 높은 추론력을 구현할 수 있다"고 강조했다. 기존 오픈소스 솔루션보다 엔드투엔드(end-to-end) 지연시간은 최대 3분의 1로 줄고, 처리량은 1.4배 높아졌다는 이유에서다. 최 지사장은 스노우플레이크 AI 리서치팀이 라마3.1 출시와 더불어 LLM 추론과 파인튜닝 시스템 최적화 스택을 오픈소스화하고 있다는 점도 설명했다. 이를 통해 수천억개 매개변수로 이뤄진 모델 접근성을 높이고 파인튜닝 시스템에 필요한 솔루션을 구축할 방침이다. 최 지사장은 스노우플레이크가 LLM 추론과 파인튜닝 시스템 최적화를 위해 노력 중이라고 밝혔다. 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용 인프라 없이 효율적인 AI 처리가 가능하도록 만들기 위해서다. 그는 "라마 3.1 405B로 스노우플레이크의 시스템 스택은 GPU 노드 하나만으로 실시간의 고처리량 성능을 발휘할 수 있다"고 말했다. 이런 환경에서 개발자들은 적은 개수로 이뤄진 GPU 상에서 복잡한 기술로 라마 3.1 405B를 파인튜닝할 수 있다. 대규모 GPU 클러스터 환경 자체가 필요 없게 된 셈이다. 이에 기업들은 생성형 AI 앱을 전보다 편리하고 빠르게 구축·배포할 수 있다. 최 지사장은 "국내 상위 10대 기업 중 80%를 확보한 상태"라며 "사용하기 쉽고 효과적인 서비스를 제공한다는 가치를 지킬 것"이라고 말했다.

2024.09.09 16:06김미정

"오픈소스 성공적"...메타, LLM 라마 전년 대비 10배 성장

메타에서 서비스하는 대규모 언어모델(LLM) '라마(Llama)'의 인기가 급격하게 상승 중이다. 관련 업계에서는 메타의 오픈소스 전략이 점차 성공적으로 자리 잡고 있다는 분석이다. 30일 벤처비트 등 외신에 따르면 메타는 상반기 성과를 공식 홈페이지를 통해 발표했다. 공개된 내용에 따르면 라마의 다운로드 수는 3억5천만 건으로 전년 대비 10배 이상 늘어난 수치다. 라마의 인기는 꾸준한 상승세로 지난달에만 AI 오픈소스 커뮤니티인 허깅페이스를 통해 2천만 건 이상 다운로드를 기록했다. AI 커뮤니티 외에도 AT&T, 도어대시, 골드만삭스, 나이언틱, 스포티파이, 인포시스, KPMG 등 기업 파트너를 통해 서비스되는 사례를 포함하는 규모는 더욱 확대된다. 특히 최신 고성능 AI모델인 라마 3.1가 시리즈의 인기를 견인한 것으로 나타났다. 라마 3.1이 출시된 5월 이후 7월까지 2개월 만에 주요 클라우드 서비스 공급업체 파트너의 토큰 볼륨별 호스팅 사용량이 2배 이상 증가한 것으로 확인됐다. 메타는 급증하는 AI수요에 대응하기 위해 아마존웹서비스, 마이크로소프트, 구글 클라우드를 비롯해 데이터브릭스, 델, 엔비디아, IBM 왓슨, 스케일AI, 스노우플레이크 기업들과 협업하며 사용자를 지원하고 있다. 라마 3.1은 이전 모델보다 더 긴 128K 컨텍스트 길이를 지원한다. 이를 통해 더 복잡하고 세부적인 대화나 문서를 처리하고, 높은 정확도의 답변을 제공한다. 또한 라마3.1 405B, 라마3.1 8B, 라마 3.1 70B 3개 모델로 공개됐으며 이중 가장 높은 성능을 보유한 라마3.1 405B의 인기가 가장 높은 것으로 나타났다. 더불어 메타는 보고서를 통해 라마의 가파른 성과의 요인으로 오픈소스를 지목했다. AI 모델을 누구나 사용할 수 있도록 공개적으로 제공함으로써 급격하게 성장 중인 AI생태계의 기반으로 작용했다는 설명이다. 이를 위해 메타는 기계학습을 위한 도구, 라이브러리와 AI 파생모델 등 6만 개가 넘는 기술 지원을 허깅페이스를 통해 업데이트 했다고 밝혔다. 메타의 아마드 알-다흘레 생성형AI 부문 부사장은 "라마는 개방성, 수정 가능성, 비용 효율성에서 선두를 달리고 있다"며 "우리는 오픈소스 환경에서 구축하고 AI의 이점이 모든 사람에게 확대되도록 하는 데 전념하려 한다"고 말했다. 이어 "LLM은 어려운 질문에 답하고, 생산성을 개선하고, 창의성을 북돋우는 데 도움이 될 수 있다"며 "AI 어시스턴트가 일상생활에 적극적인 도움을 제공할 수 있는 미래의 비전에 다가가기 위해 노력하고 있다"고 강조했다.

2024.08.30 10:42남혁우

마크 저커버그 "차기 LLM 라마4 기존 대비 10배 이상 투자"

메타가 차기 오픈소스 대규모 언어모델(LLM) 개발을 위해 10배 이상의 컴퓨팅 파워를 투자할 전망이다. 2일 테크크런치 등 외신에 따르면 마크 저커버그 최고경영자(CEO)는 메타의 2분기 실적발표에서 향후 AI 개발 계획을 소개했다. 그는 "향후 수 년간 필요한 컴퓨팅 클러스터와 데이터를 계획하고 있다"며 "차기 모델인 라마4(Llama 4)는 업계에서 가장 진보한 오픈 AI모델로 구축하기 위해 이전 모델보다 거의 10배에 달하는 컴퓨팅 파워가 필요할 것이라고 추정했다. 이번 실적 발표에서 수잔 리 최고재무책임자(CFO)는 메타가 올해 생성 AI에서 수익을 창출하지 못할 것임을 인정했다. 또한 다양한 데이터 센터 프로젝트와 미래 AI 모델을 훈련할 수 있는 역량 구축을 고려하고 있어 2025년까지 자본 지출이 늘어날 수 있다고 밝혔다. 이에 대해 마크 저커버그 CEO는 대규모 AI경쟁에서 뒤처지지 않기 위해 투자를 확대하는 과정이라고 밝혔다. 그는 "AI가 앞으로 어떤 추세를 보일지 예측하기 어려운 것은 사실"이라며 "하지만 투자를 멈춘 후 다시 새로운 추론 프로젝트를 시작하기엔 긴 리드타임이 필요하기 때문에 너무 늦기 전에 필요한 인프라를 미리 구축하는 위험을 감수하는 것이 낫다"고 설명했다. 또한 페이스북의 콘텐츠 순위 및 추천 도구와 인스타그램의 피드 등에 AI를 활용하고 있으며 이를 통해 성과를 개선하고 있다며 AI의 활용성을 소개했다. 마크 저커버그는 "예전에는 광고주가 특정 연령대, 지역 또는 관심사와 같이 도달하고 싶은 특정 대상 고객을 가지고 우리에게 왔다"며 "AI가 적용된 우리 광고 시스템은 이제 광고주 자신보다 누가 관심을 가질지 더 잘 예측할 수 있는 지점까지 도달했다"고 강조했다.

2024.08.02 09:58남혁우

IBM, 왓슨x에서 라마 3.1·미스트랄 라지2 등 제공

IBM은 최근 메타에서 발표한 '라마3.1'과 미스트랄 AI에서 발표한 '미스트랄 라지 2' 등 최신 오픈소스 거대언어모델(LLM)을 왓슨x.ai에서 제공한다고 1일 발표했다. 왓슨x 사용 기업은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다. 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 라마 3.1-405B 모델은 한번에 처리할 수 있는 문맥의 길이가 토큰 8천192개에서 12만8천개로 16배 늘어났으며, 이는 약 8만5천 영어 단어에 해당한다. 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1천230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 뛰어난 성능을 발휘, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변들을 최소화했다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다. 라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 광범위한 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 '미스트랄 커머셜 라이선스'을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.

2024.08.01 09:58김우용

美 상무부 "누구나 쓸 수 있는 개방형 AI, 규제보다 지원 우선"

미국 상무부가 기술 발전을 위해 메타의 라마(Llama)나 구글의 제미나이처럼 누구나 사용할 수 있는 개방형 가중치(open-weight) 모델을 지지했다. 예상치 못한 악용 등에 대한 잠재적 위험에 대비해 해당 모델을 모니터링할 수 있는 새로운 역량을 개발하고, 정부가 나서 정책적 기반을 마련할 것도 권고했다. 31일 테크크런치 등 외신에 따르면 미국 상무부 국가통신정보청(NTIA)은 '이중용도 파운데이션 모델과 널리 이용가능한 모델 가중치(Dual-Use Foundation Models with Widely Available Model Weights)'라는 보고서를 발표했다. 이 보고서는 개방형 가중치 모델의 위험성을 평가하는 한편, 다양한 정책 도구와 권장 사항을 통해 이점을 극대화하고 위험을 관리할 수 있는 방안을 제안하기 위해 작성됐다. 보고서에 따르면 학습 방식이 공개되고 다양한 분야에 활용할 수 있는 개방형 가중치 AI모델은 소규모 회사, 연구자, 비영리 단체를 비롯한 개인의 생성형AI의 가용성을 확대하며 기술 발전을 촉진하는 것으로 나타났다. 이에 해당 모델이 시장에 악영향을 미칠 수 있다는 결과를 찾아내기 전까지 규제하거나 사용자의 접근을 제한하지 않을 것을 정부 측에 제안했다. 더불어 개방형 가중치 모델의 장점을 어떻게 사회적, 경제적 발전에 기여할 수 있을지 연구하고 기술 혁신에 적용할 수 있는 방안을 모색할 것을 권고했다. 이러한 평가는 리나 칸 FTC 위원장의 의견과 비슷하다. 그는 개방형 가중치 모델을 통해 더 많은 소규모 사업자가 아이디어를 시장에 내놓을 수 있고, 이를 통해 건전한 경쟁을 촉진할 수 있을 것이라고 의견을 제시했다. 더불어 NTIA는 아직 확인되지 않은 개방형 가중치 모델의 부작용에 대비할 것을 조언했다. 이를 위해 개방형 가중치 AI모델에 대한 위험성과 부작용을 파악하고 이를 평가하고 대처할 수 있는 프로그램을 개발도 촉구했다. 부작용 대응 프로그램에는 개방형 가중치 AI 모델의 잠재적 위험성을 분석하고, 위험성이 어떻게 국가 안보나 공공 안전에 영향을 줄 수 있는지 평가하고 위험을 관리하기 위한 정책이나 대안을 마련할 것을 제안했다. 보고서에서 언급한 이중용도 파운데이션 모델은 넓은 범위의 데이터를 학습해 다양한 분야에 활용할 수 있는 범용AI를 말한다. 오픈AI의 GPT나 메타의 라마, 구글의 제미나이 등이다. 널리 이용가능한 모델 가중치는 AI모델 학습에 사용된 데이터 파라미터를 다른 AI에도 적용할 수 있도록 공개된 것을 지칭하며 개방형 가중치라고도 불린다. 이를 통해 다른 개발자나 조직에서도 자체 AI를 개발하거나 새로운 서비스에 해당 AI모델을 적용하는 것도 가능하다. 개방형 가중치 모델은 누구나 사용가능한 만큼 기술혁신을 가속할 수 있지만 보안상의 위험과 잠재적인 오남용 가능성 등의 단점도 내포하고 있다. 특히 범용AI와 적용될 경우 예상치 못한 분야에서 악용될 가능성이 제기됐다. 이에 NTIA는 지난 2월에 개방형 가중치 모델에 대한 공개 의견 요청을 발표했고 332개의 의견을 받았다. 또 다양한 정책 및 기술 전문가의 의견을 수집하는 공청회 등을 거쳐 보고서를 작성했다고 밝혔다. 상무부 앨런 데이비슨 통신정보 담당 차관보 겸 NTIA 관리자는 "크고 강력한 AI의 개방성은 혁신적인 도구의 경쟁, 혁신을 비롯해 위험에도 영향을 미칠 것"이라며 "이번 NTIA 보고서는 개방형 AI 시스템의 중요성을 인식하고, 광범위한 가용성으로 인한 위험을 보다 적극적으로 모니터링할 것을 촉구한다"고 성명을 통해 밝혔다. 이어 "정부가 적극적으로 개방형 가중치 모델을 안전하고 신뢰할 수 있도록 정책적 기반을 마련해야 한다"고 강조했다.

2024.07.31 10:05남혁우

메타·엔트로픽·미스트랄, AI 新무기 내놔도 오픈AI 못 넘는다…이유는?

생성형 인공지능(AI) 시장을 주도하고 있는 오픈AI를 겨냥해 메타와 엔트로픽, 미스트랄 등이 잇따라 최신 모델을 선보이며 AI 경쟁이 치열해지고 있다. 각 업체들은 오픈AI의 최신 모델 'GPT-4o'나 'GPT-4'를 기준으로 성능을 비교하며 자사 모델의 경쟁력을 알리고 있지만 오픈AI를 뛰어넘기엔 기술적 한계가 여전하다는 평가다. 26일 IT 매체 테크크런치에 따르면 프랑스 AI 스타트업 미스트랄은 지난 24일 최신 AI 모델인 '라지(Large) 2'를 선보였다. 이 모델은 1천230억 개(123B)의 매개변수로 12만8천 토큰의 컨텍스트 창을 제공한다. 회사 측은 전날 출시한 메타의 '라마 3.1' 모델과 동등한 성능을 가졌다고 주장했지만, '라마 3.1' 중 가장 큰 모델(450B)에 비해 매개변수는 3분의 1도 안된다. 다만 전작에 비해선 추론뿐 아니라 코드 생성, 수학 등 전반에 걸쳐 성능이 개선됐다는 평가를 받는다. 고급 다국어 기능도 제공되는데 한국어를 포함해 영어, 프랑스어, 독일어, 스페인어, 이탈리아어, 포르투갈어, 아랍어, 힌디어, 러시아어, 중국어, 일본어 등 12개 언어와 80개의 코딩 언어를 지원한다. 또 고급 함수 호출 및 검색 등 새로운 기능이 추가됐고 AI의 큰 단점으로 꼽히는 '할루시네이션(환각 증상)'도 최소화했다. 페이스북 모회사 메타도 지난 23일 거대언어모델(LLM) 라마 3 시리즈 중 상위 버전인 '라마 3.1'을 출시했다. 지난 4월 '라마 3'을 선보인 이후 3개월여만으로, 405B와 8B, 70B 등 3가지 버전으로 구성됐다. '또 라마 3.1'은 엔비디아 최신 그래픽처리장치(GPU) 'H100' 1만6천 개를 기반으로 훈련됐다. 운영 비용은 오픈AI 'GPT-4o'에 비해 절반정도인 것으로 알려졌다. 올해 3월에는 앤트로픽도 차세대 LLM '클로드3'를 내놨다. 오픈AI의 GPT-4를 넘어섰다는 평가를 받은 '클로드3'는 성능과 속도에 따라 '오푸스', '소네트', '하이쿠'로 나뉜다. 이 중 가장 지능적인 '오푸스'는 대학원 수준의 전문 추론, 기초 수학 등 AI 성능 테스트에서 오픈AI의 GPT-4를 능가한 것으로 알려졌다. 이처럼 각 업체들이 오픈AI AI 모델을 기준으로 삼고 최신 버전을 내놓지만 'GPT'를 넘기엔 여전히 부족하다는 의견이 많다. 오픈AI와 달리 '멀티모달(Multi modal)' 기능을 제공하고 있지 않아서다. 멀티모달은 텍스트뿐 아니라 이미지, 음성, 영상 등 다양한 데이터를 인식할 수 있는 AI 모델 방식이다. 기존 AI는 대부분의 정보를 텍스트로 배우고 처리했지만, 멀티모달 AI는 여러 가지 정보를 한꺼번에 받아들여 더 정확한 결과물을 만들어낼 수 있다는 것이 강점이다. 이 탓에 현재로선 오픈AI와 겨룰 수 있는 경쟁사는 구글이 거의 유일하다. 구글은 올해 2월 멀티모달 AI 모델 '제미나이 1.5 프로'를 공개한 데 이어 5월 중순께 제미나이 탑재 검색 엔진을 정식 출시했다. 이에 맞서 오픈AI도 지난 5월 다양한 형태의 데이터를 동시에 인식하고 처리할 수 있는 대규모 멀티모달 모델(LMM) 'GPT-4o'를 공개했다. '음성 모드'가 지원되는 것이 특징으로, 텍스트로 대화를 나누던 기존 모델과 달리 실시간 음성으로 질의응답을 할 수 있고 사용자가 답변 중간에 끼어들어도 대화를 계속할 수 있는 것이 차별점이다. 최근에는 챗GPT 소형 모델인 'GPT-4o 미니'를 공개하며 멀티모달 AI의 소형화에 앞장서고 있다. 이미지와 동영상을 제공해주고 실시간 음성 대화가 가능했던 'GPT-4o'와는 달리 텍스트와 이미지 인식 기능만 지원된다. 가격은 일반 모델인 GPT-3.5 터보보다도 60% 저렴하지만, 성능은 최신 모델인 'GPT-4o' 수준과 유사한 것으로 알려졌다. 오픈AI는 "'GPT-4o 미니'는 지난해 10월까지의 지식을 보유하고 있다"며 "이미지·비디오·오디오 입출력은 향후 지원할 예정"이라고 밝혔다. 테크크런치는 "미스트랄 라지 2와 메타 라마 3.1 버전에도 없는 것이 바로 '멀티모달' 기능"이라며 "오픈AI는 멀티모달 AI 시스템과 관련해 경쟁사보다 훨씬 앞서 있고 일부 스타트업들이 이를 구축하려고 노력 중"이라고 분석했다.

2024.07.26 09:27장유미

엔비디아, 생성형 AI 강화하는 파운드리 서비스 제공

엔비디아가 메타의 인공지능(AI) 모델 라마 3.1을 활용해 전 세계 기업의 생성형 AI를 강화하는 인공지능 파운드리(AI Foundry) 서비스를 제공한다. 23일(현지시간) 씨엔비씨 등 외신에 따르면, 엔비디아 고객은 이제 AI 파운드리 서비스를 통해 라마 3.1과 엔비디아 소프트웨어를 사용함으로써 도메인별 특징에 맞는 맞춤형 'AI 모델'을 만들 수 있다. 엔비디아에 따르면, 해당 서비스는 세계 최고의 퍼블릭 클라우드와 공동 엔지니어링된 엔비디아의 클라우드 AI 플랫폼을 기반으로 상황별 AI 수요 변화에 대응할 수 있다. 엔비디아의 새로운 서비스는 기업이나 국가가 자체 AI 모델을 개발하면서 고유한 비즈니스 문화를 반영하게 해준다. 또한 생성형 AI 애플리케이션을 위한 기업이나 국가의 도메인별 지식을 갖춘 맞춤형 대규모언어모델(LLM)도 지원한다. 젠슨 황(Jensen Huang) 엔비디아 창업자 겸 최고경영자(CEO)는 "메타가 공개한 라마 3.1 모델은 전 세계 기업 내 생성형 AI 채택의 중추적인 순간을 의미한다"며 "메타가 공개한 라마 3.1 모델은 전 세계 기업에서 생성형 AI를 채택하는 데 있어 중요한 순간"이라고 말했다. 그는 "라마 3.1은 모든 기업과 산업이 최첨단 생성형 AI 애플리케이션을 구축할 수 있는 문을 열어준다. 엔비디아 AI 파운드리는 라마 3.1을 전체적으로 통합했으며, 기업이 맞춤형 AI 모델을 구축하고 배포할 수 있도록 지원할 준비가 돼 있다"고 덧붙였다.

2024.07.24 09:56정석규

  Prev 1 2 3 Next  

지금 뜨는 기사

이시각 헤드라인

"카톡 내 챗GPT 기다려진다"...AI 페스타 카카오 부스 체험 열기 '후끈'

차세대 'K배터리' 성패 가를 정책 포인트 두가지

양자 기술 관심은 많은데…"생태계 구축은 좀 더 가야"

韓 AI 최대축제 한가운데 빛으로 꾸민 KT AI 기술

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.