• ZDNet USA
  • ZDNet China
  • ZDNet Japan
  • English
  • 지디넷 웨비나
뉴스
  • 최신뉴스
  • 방송/통신
  • 컴퓨팅
  • 홈&모바일
  • 인터넷
  • 반도체/디스플레이
  • 카테크
  • 헬스케어
  • 게임
  • 중기&스타트업
  • 유통
  • 금융
  • 과학
  • 디지털경제
  • 취업/HR/교육
  • 인터뷰
  • 인사•부음
  • 글로벌뉴스
인공지능
배터리
양자컴퓨팅
컨퍼런스
칼럼•연재
포토•영상

ZDNet 검색 페이지

'오픈소스'통합검색 결과 입니다. (118건)

  • 태그
    • 제목
    • 제목 + 내용
    • 작성자
    • 태그
  • 기간
    • 3개월
    • 1년
    • 1년 이전

[AI는 지금] 정부, '국가 파운데이션 모델' 추진…업계 "설계는 훌륭, 실행이 관건"

정부가 글로벌 생성형 인공지능(AI) 시장에서 독립적 경쟁력을 확보하기 위한 '독자 파운데이션 모델' 개발에 착수했다. 모델을 오픈소스로 공개해 민간 활용도를 극대화하겠다는 구상이다. 업계에서는 방향성과 의도에 대해 긍정적인 평가가 나오지만 실질 집행에 대한 지속적인 모니터링은 필요하다는 시각도 병존한다. 24일 업계에 따르면 과학기술정보통신부는 지난 20일 정보통신산업진흥원(NIPA), 지능정보사회진흥원(NIA), 정보통신기획평가원(IITP) 등과 함께 '독자 AI 파운데이션 모델' 프로젝트를 공식 발표했다. 해당 사업은 기존 '월드 베스트 거대언어모델(LLM)'로 불리던 기획의 정식 명칭으로, 다음달 7월 21일까지 국내 AI 정예팀 공모를 진행해 최대 5개 팀을 선발하고 단계별 압축 평가를 통해 상위팀으로 압축할 계획이다. 이번 사업은 최근 6개월 내 출시된 글로벌 최신 AI 모델 대비 95% 이상의 성능을 목표로 삼고 있다. 다만 고정된 성능 수치에 집착하기보다는 '무빙 타겟' 방식을 도입해 기술환경 변화에 따라 목표와 평가 기준을 유연하게 조정하는 전략을 채택했다. 과기정통부는 이와 같은 방식을 미국 방위고등연구계획국(DARPA)의 모델에 빗대어 'DARPA형'이라고 정의했다. 기술주권 위한 'K-AI 전략' 본격화…정예팀 자율 설계·정부 전폭 지원 구조 이 프로젝트를 위해 정예팀은 AI 모델 개발 전략과 방법론을 스스로 제시해야 한다. 정부는 GPU, 데이터, 인재 등 자원 항목에 대해 '희망 수요'를 정예팀이 먼저 요청하도록 하고 평가를 통해 적정 수준을 매칭 지원한다. 이 과정에서 오픈소스 공개 범위가 넓을수록 정부의 지원 매칭 비율은 높아진다. 그래픽 처리장치(GPU)는 당장 1차 추경 예산 1천576억원 규모를 활용해 민간 GPU를 임차해 지원한다. 팀 당 초기 지원 수량은 GPU 500장 수준이며 평가 결과에 따라 1천 장 이상까지 확대된다. 내년 하반기부터는 정부가 직접 구매한 첨단 GPU 1만 장을 본격 투입할 예정이다. 데이터는 공통수요와 개별수요로 나눠 지원된다. 정예팀이 필요로 하는 저작물 기반 학습데이터를 연간 100억원 규모로 공동구매하고 팀별 데이터 구축 및 가공은 연간 30억~50억원 수준으로 지원한다. 학습 효율성과 저작권 이슈를 동시에 감안한 전략이다. 인재 지원은 해외 우수 연구자 유치를 전제로 한다. 정예팀이 해외 팀이나 재외 한인 인재를 유치하면 정부가 연간 20억원 내외의 인건비 및 연구비를 매칭한다. 이 항목은 정예팀이 탈락하더라도 오는 2027년까지 지속 지원된다. 모델 성능 평가는 6개월 주기로 진행된다. 국민과 전문가가 함께 참여하는 콘테스트 기반 평가, 국내외 벤치마크 기준에 따른 검증 평가, 파생 모델 수를 기준으로 한 파생 평가 등을 결합한 입체적 방식이다. 단계평가를 통해 5개 팀에서 4개, 3개, 2개로 점차 압축하는 경쟁형 설계를 따를 예정이다. 모델 개발 완료 후에는 오픈소스를 통해 국내 AI 생태계 전반에 확산될 예정이다. 정예팀은 공모 시 '국민 AI 접근성 향상'과 '공공·경제·사회 전반의 AI 전환'을 위한 활용 계획을 함께 제출해야 하며 정부는 필요에 따라 이에 매칭해 후속 지원도 가능하다고 밝혔다. AI 안전성 확보도 주요 과제로 포함된다. 정부는 AI 안전연구소(K-AISI)와 협력해 파운데이션 모델의 신뢰성과 확장성을 검증하고 일정 수준 이상에 도달한 모델에 대해 'K-AI 모델', 'K-AI 기업' 등 명칭을 부여해 글로벌 시장에서의 공신력을 제고한다는 방침이다. 송상훈 과기정통부 정보통신정책실장은 "이번 프로젝트는 단순히 AI 모델을 만드는 데 그치지 않고 기술주권을 확보하고 모두가 활용할 수 있는 AI 생태계를 조성하는 출발점이 될 것"이라며 "정예팀들이 글로벌 수준의 독자 모델을 확보해 대한민국이 AI 강국으로 도약하는 기반을 마련하길 기대한다"고 밝혔다. 설계는 잘 했다…'기술·자원·평가' 운용이 진짜 시험대 업계에서는 정부의 독자 파운데이션 모델 추진을 대체로 긍정적으로 평가하고 있다. 국가가 주도해 자국 모델을 구축하려는 흐름은 이미 전 세계적으로 확산 중이며 한국의 이번 시도도 그 연장선에 있다는 분석이다. 실제로 국가 주도 모델 개발은 미국 오픈AI, 앤트로픽 등과 중국 딥시크 만의 경쟁 구도가 아니다. 프랑스는 오픈소스 기반 생성형 AI 기업 미스트랄을 중심으로 자체 모델을 개발하고 있으며 에마뉘엘 마크롱 대통령이 직접 나서 수천억 원대 민간 투자와 글로벌 협력을 이끌고 있다. 싱가포르 역시 '씨라이언(SEA-LION)' 프로젝트를 통해 동남아 현지 언어 기반 LLM을 개발 중이다. 최근에는 칠레 AI센터를 중심으로 아르헨티나, 브라질 등 남미 12개국이 연합해 '라탐-GPT' 개발을 공식화하며 오는 9월 공개를 예고한 상태다. 라지브 쿠마르 한국외국어대학교 연구교수는 "국가가 주도해 독자적인 파운데이션 모델을 개발하는 건 지금 전 세계적인 흐름으로, 한국 정부의 이번 시도는 매우 긍정적으로 본다"며 "인도도 스타트업 중심의 개발을 정책적으로 지원하면서 정부 차원에서 국내 생태계를 강화하려는 시도가 있다"고 말했다. 더불어 업계에서는 이번 프로젝트가 단순히 모델 하나를 만드는 데 그치지 않고 자원 배분 방식과 생태계 설계까지 포괄하고 있다는 점에 주목하고 있다. 'GPU·데이터·인재'라는 AI 핵심 자원을 수요 기반으로 자율 신청받고 이를 정부가 평가 후 매칭하는 구조가 민간 주도성과 정부 책임성을 동시에 확보하려는 시도로 보고 대체로 긍정적으로 반응하는 상황이다. 다만 실무 현장에서는 자원 지원이 선언에만 머물 경우 효과가 반감될 수 있다는 우려도 제기된다. 일례로 GPU의 경우 1천576억원 규모의 예산이 잡혀 있다 해도 실제 장비 임차·세팅·운영까지 이뤄지는 시간 차를 간과해선 안 된다는 게 중론이다. 단순한 GPU 확보가 아니라 팀별 물리적 접근성과 운영 안정성까지 감안한 체계 설계가 필요하다는 것이다. 데이터 항목도 비슷한 맥락이다. 정예팀이 요청하는 데이터에 대한 품질 기준과 저작권 검토 체계가 정비되지 않을 경우 향후 오픈소스 공개 과정에서 법적 리스크나 생태계 혼란을 야기할 수 있다. 특히 저작물 데이터의 공동구매가 연간 100억원 규모로 설정된 만큼, 명확한 선별 기준과 기술적 정제 절차가 병행돼야 한다는 의견이 나온다. 인재 유치 항목에 대해선 방향성은 맞지만 실질 효과는 제약이 클 수 있다는 관측도 있다. 단순히 해외 인재에게 연구비를 매칭 지원한다고 해서 국내에 안착하는 건 어렵다는 것으로 국내 기관의 위상, 프로젝트 자체의 매력도, 그리고 연구 독립성 등이 종합적으로 뒷받침돼야 할 것으로 관측된다. 오픈소스 정책 역시 마찬가지다. 오픈소스 정책이 산업 육성과 충돌하지 않도록 장기적으로는 파라미터 제한이나 일부 모듈 비공개 등에 대한 세분화된 가이드라인이 수립될 필요가 있다는 것이다. 한 업계 관계자는 "오픈소스를 전제로 한 모델 전략은 지금 시기에 필요하다"면서도 "오픈소스에 대한 구체적인 정의가 프로젝트가 진행되면서 확립돼야 할 것으로 보인다"고 말했다. "이어 기술 보호 없이 모든 걸 일괄적으로 공개할 경우 산업적 격차를 키울 수 있다"고 우려했다. 일각에서는 이 프로젝트가 '국가대표 AI'를 선발하는 성격인 만큼 평가 기준의 엄정성과 공정성이 핵심이라는 지적도 있다. 단순한 국내 경쟁이 아니라 세계적 기술 경쟁의 문턱을 넘는 출발점이 되려면 국제적인 벤치마크와 기술 평가 기준을 적극 반영해야 한다는 주장이다. 또 다른 업계 관계자는 프로젝트를 두고 "파운데이션 모델 구축을 위한 기술력과 역량은 충분하지만 자원이 부족했던 강소기업에게는 매우 훌륭한 육성 프로젝트로 보인다"며 "다만 기술적 발전이 빠른 만큼 평가 기준에는 국제적인 수준이 반영돼야 그 공신력이 확보되고 국가대표로서도 의미가 있을 것"이라고 말했다. 이와 함께 모델 규모에 대한 조건이 명확히 규정돼 있지 않다는 점도 일부에서 우려되는 대목이다. 개발 전략과 방법론을 정예팀이 자율적으로 제안하는 'DARPA형' 설계는 기술 진화에 유연하게 대응할 수 있다는 점에서 긍정적이지만 자칫 자원 격차에 따른 구조적 불균형을 초래할 수 있다는 지적이다. 업계 관계자는 "모델 규모에 대한 규정이 자칫 잘못되면 큰 모델들만이 성능과 역량이 좋게 평가를 받을 것"이라며 "기울어진 운동장이 될 수도 있으므로 이를 방지하기 위한 노력을 기울여야 할 것"이라고 평가했다.

2025.06.24 11:21조이환

정부, '국가대표 AI' 만든다…글로벌 수준 모델 개발에 '총력'

대한민국 정부가 인공지능(AI) 기술 자립과 생태계 확장을 목표로 국내 정예팀을 뽑아 독자 모델 개발에 나선다. 글로벌 기업 중심의 AI 주도권 구도를 견제하고 기술 주권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '독자 AI 파운데이션 모델 프로젝트'를 공식 출범하고 다음달 21일까지 참여 정예팀 공모에 착수한다고 20일 밝혔다. 과기정통부 외에도 정보통신산업진흥원, 한국지능정보사회진흥원, 정보통신기획평가원이 공동으로 추진하는 이번 사업은 기존 '월드베스트 거대언어모델(World Best LLM)' 프로젝트의 공식화다. 이번 공모는 성능·전략·파급효과 등을 기준으로 최대 5개 정예팀을 선정한 뒤 단계별 평가를 통해 점진적으로 압축하는 방식으로 진행된다. 최신 글로벌 AI 모델 성능의 95% 이상 달성을 목표로, 참여팀은 자체적인 개발 전략과 방법론을 자유롭게 설계할 수 있다. 프로젝트는 일괄지원이 아닌 6개월 단위 경쟁형 압축 방식을 도입해 민첩한 기술 진화를 유도한다. 지원 자원은 그래픽 처리장치(GPU), 데이터, 인재라는 세 가지 축으로 구성된다. GPU는 올해부터 내년 상반기까지 민간 GPU 임차 형태로, 이후엔 정부 구매 GPU를 활용해 정예팀당 최대 1천 장 이상이 단계별로 지원된다. 데이터는 저작물 중심의 공동구매와 개별 가공 작업에 연간 최대 150억원 규모의 예산이 투입된다. 인재 분야는 해외 연구자 유치 시 연 20억원 한도 내에서 인건비와 연구비를 매칭해 준다. 특히 대학·대학원생의 참여를 필수로 명시하며 미래 인재 양성을 병행하는 구조다. 동시에 참여팀은 국민 AI 접근성 향상, 공공·경제·사회 전환(AX) 기여계획도 함께 제출해야 한다. 오픈소스 수준에 따라 정부 매칭 비율과 자부담 비율이 달라지는 구조도 설계됐다. 프로젝트는 단순한 기술개발에 머무르지 않는다. 국민 대상 사용성 평가, 컨테스트형 단계 심사, 벤치마크와 한국어 성능·안전성 검증 등 다층적 방식으로 완성도를 높인다. 우수한 모델에는 'K-AI' 명칭 부여 등 글로벌 브랜딩도 병행한다. 안전성 확보를 위해 AI안전연구소(K-ASIS)와의 협력도 예정돼 있다. 이 밖에 공공영역은 물론 국방·안보 등 민감 분야 활용도 계획에 포함돼 있다. 정부는 개발된 모델을 오픈소스화해 민간 AI 서비스 생태계 확산에도 적극 활용할 방침이다. 송상훈 과학기술정보통신부 정보통신정책실장은 "이번 프로젝트는 AI 기술 주권 확보와 모두의 성장을 위한 생태계 구축이 목표"라며 "글로벌 수준의 독자 AI 모델을 통해 대한민국이 진정한 AI 강국으로 도약하길 기대한다"고 밝혔다.

2025.06.20 13:37조이환

차량 기술 공유도 오픈소스로…NIPA-현대차그룹, '자동차 테크맵' 공개

정보통신산업진흥원(NIPA)이 국내 첫 오픈소스 기반 자동차 산업 기술 지도를 선보여 주목받고 있다. NIPA는 과학기술정보통신부와 국내 자동차 산업의 디지털 전환과 오픈소스 기반 소프트웨어(SW) 생태계 강화를 위한 '자동차 테크맵'을 공개했다고 18일 밝혔다. 이날 NIPA는 자동차 부품사 대상 설명회도 개최하며 본격적인 오픈소스 협업 생태계 조성에 나섰다. 자동차 테크맵은 국내 최초로 현대자동차 등 세계 주요 자동차 제조사들의 오픈소스 SW 정보를 수집·분석해 기술 분류 체계로 정리한 기술 지도다. 미래 모빌리티 시장의 국제 경쟁력 확보를 위한 완성차·부품사·SW 기업·연구기관 간의 기술·정보 공유와 개방형 협업 생태계를 조성하기 위해 NIPA와 현대자동차그룹이 함께 제작했다. 이는 지난 2023년 NIPA와 현대자동차그룹 간 체결한 자동차 제조업 분야의 오픈소스 SW 기반 디지털 전환을 위한 업무협약(MOU)의 일환으로 추진됐다. 자동차 테크맵은 누리집을 통해 기술 분야별 주요 오픈소스 정보, 활용·기여 안내, 참여 방법 등 다양한 자료를 누구나 자유롭게 열람하고 활용할 수 있다. NIPA는 앞으로 깃허브 기반의 자동차 테크맵 커뮤니티 운영으로 기술 지도 생태계에 참여할 기업·기관을 지속 발굴하고 기업 간 자율적이고 유기적인 협업 생태계를 조성할 계획이다. NIPA는 이번 자동차 테크맵 설명회를 통해 자동차 산업 전반에 확산하고 있는 오픈소스 SW의 흐름과 미래 차 선도기업들의 사례 및 자동차 테크맵 활용 방안을 소개했다. 이날 설명회는 ▲자동차 테크맵 소개 ▲미래 모빌리티 및 차량용 SW 국제 추세 ▲세계 주요 완성차 기업의 자동차 오픈소스 사례 분석 등으로 구성됐다. 현대자동차·기아 연구개발기획조정실장 성낙섭 전무는 "자동차 테크맵은 오픈소스를 매개로 완성차와 협력사가 기술 정보를 공유하고 함께 성장할 수 있는 새로운 협업 기반"이라며 "우리 그룹은 기술 지도를 중심으로 협력사의 SW 활용성과 개발 경쟁력을 높이고 미래 모빌리티 시대에 필요한 기술 경쟁력을 함께 키워나갈 것"이라고 밝혔다. 이어 "협력사와 함께 SW 중심의 생태계를 구축해 소프트웨어 정의 차량(SDV) 시대를 함께 열어가겠다"고 덧붙였다. 박윤규 NIPA 원장은 "미래 차로의 전환이라는 산업계의 거대한 흐름 속에서 자동차 테크맵은 SW 중심 협업 생태계를 조성하기 위한 기반"이라며 "부품사·완성차·SW 기업·연구기관 등 다양한 주체들이 오픈소스를 매개로 연결되고 성장할 수 있는 기반이 될 것으로 기대한다"고 말했다. 이어 "앞으로도 기술 지도를 중심으로 국내 자동차 산업의 디지털 경쟁력을 높이고 기술 자립과 국제 협력 확대를 지원하는 데 최선을 다하겠다"고 덧붙였다.

2025.06.18 17:07한정호

'상용 SW 못지않다'…티맥스, 오픈소스 미들웨어·DB 전략 공개

티맥스소프트와 티맥스티베로가 상용 소프트웨어 수준의 오픈소스 플랫폼을 앞세워 기업 IT 인프라 혁신에 나선다. 양사는 '미들웨어(Middleware, MW)부터 데이터베이스(DB)까지 오픈소스 운영관리'를 주제로 공동 웨비나를 개최한다고 18일 밝혔다 연다. 오는 25일 열리는 이번 웨비나는 급증하는 오픈소스 수요 속에서 기업의 IT 인프라 유연성과 비용 효율성을 높일 수 있는 전략을 제시하기 위해 마련됐다. 이번 웨비나에서는 티맥스의 오픈소스 솔루션인 '하이퍼프레임(HyperFRAME)'과 '오픈SQL(OpenSQL) 3'을 중심으로, 상용 소프트웨어(SW) 수준의 안정성과 관리 기능을 갖춘 오픈소스 플랫폼의 실전 적용 방안을 소개한다. 양사는 미들웨어부터 DB까지 통합적인 운영 관리 전략과 고객의 기술 독립성을 뒷받침할 수 있는 체계적 기술 지원 방안을 공유할 예정이다. 티맥스소프트는 자사의 원스톱 오픈소스 미들웨어 플랫폼 '하이퍼프레임'을 소개하며, 클라우드 네이티브와 컨테이너 환경에 최적화된 아키텍처와 통합 관리 기능을 강조한다. 티맥스티베로는 오픈소스 DBMS '포스트그레SQL(PostgreSQL)' 기반으로 개발된 '오픈SQL 3'를 통해 성능과 안정성을 동시에 확보한 데이터베이스 운영 방안을 제시한다. 양 사는 실제 고객 사례와 함께 복잡한 비즈니스 시스템 환경에서 오픈소스를 효과적으로 활용하고 운영할 수 있는 실질적인 방법론을 집중 조명할 계획이다. 특히 오픈소스 도입에 대한 불안 요소를 해소할 수 있도록, SW 검증 및 선별, 보안 취약점 대응, 통합 관리 도구 등을 포함한 토탈 서비스를 제공하는 전략도 함께 소개된다. 웨비나 참가 신청은 티맥스소프트 홈페이지 내 팝업창 또는 '올쇼(Allshow) TV' 사전 등록 페이지에서 가능하다. 참가자들을 위한 다양한 이벤트도 마련됐다. 웨비나 시청 후 도입 상담을 완료한 고객 10명에게 커피상품권을, 설문에 참여한 고객 10명에게 커피쿠폰을, 베스트 질문자 6명에게는 별도 선물을 증정한다. 티맥스소프트 관계자는 "하이퍼프레임은 상용 SW의 노하우를 접목한 엔드투엔드 오픈소스 미들웨어 솔루션으로, 안전하고 유연한 인프라 환경을 제공한다"며 "지속적으로 기능을 고도화해 확대되는 오픈소스와 클라우드 네이티브 수요에 적극 대응해 나가겠다"고 밝혔다. 티맥스티베로 관계자도 "이번에 출시한 오픈SQL 3는 클라우드 네이티브 환경에서의 성능과 안정성을 대폭 강화했다"며 "고객이 오픈소스를 통해 효과적인 클라우드 전환과 데이터베이스 경쟁력을 확보할 수 있도록 적극 지원할 것"이라고 말했다.

2025.06.18 10:37남혁우

엔텔스, 공공 DBMS 시장 문 두드린다…'타잔DB' 디지털서비스몰 등록

엔텔스가 도입이 확산되고 있는 공공부문 데이터베이스 관리 시스템(DBMS) 시장에 본격 진출한다. 엔텔스는 자사 DBMS 솔루션인 '타잔DB(TarzanDB)가 조달청과의 물품 계약을 통해 디지털서비스몰에 공식 등록됐다고 17일 밝혔다. 타잔DB는 포스트그레SQL을 기반으로 한 차세대 DBMS 솔루션으로, 대규모 데이터 처리와 실시간 분석에 최적화된 구조를 갖추고 있다. 주요 기능으로는 ▲자동 장애 조치 및 신속한 복구 ▲외부 쿼리 캐시 기능 ▲강화된 배큠(Vacuum) 모니터링 기능 ▲자동화된 고가용성 및 모니터링 기능 등이 포함된다. 이를 통해 데이터 처리 성능과 운영 효율성을 동시에 확보한다는 전략이다. 엔텔스는 전문 엔지니어 팀의 실시간 기술 지원 체계를 통해 장애 분석, 성능 튜닝 등 엔터프라이즈 환경에서 요구되는 고도화된 기술 지원도 제공한다. 고객의 안정적인 DB 운영을 지원하고 오픈소스 DBMS 시장에서의 요구 변화에 민첩하게 대응할 수 있다. 한국데이터산업진흥원에 따르면 국내 관계형 데이터베이스(RDBMS) 시장은 연간 약 2천억 원 규모로 추산된다. 엔텔스는 이번 조달청 등록과 함께 GS인증 1등급 획득을 기반으로 공공기관을 포함한 다양한 산업군의 고객층 확보에 나설 방침이다. 최일규 엔텔스 대표는 "포스트그레SQL 기반 오픈소스 DBMS의 도입이 빠르게 확산되고 있는 가운데 타잔DB는 공공부문에서의 실질적인 대안으로 자리매김할 수 있을 것"이라며 "조달청 등록을 계기로 공공시장 내 오픈소스 DBMS 공급을 공격적으로 확대해 나가겠다"고 말했다.

2025.06.17 10:43한정호

"클라우드 제약 벗어난 AI 혁신, 퀄컴 AI 허브로 돕는다"

"AI는 자료 요약이나 정리를 통한 생산성 향상과 업무 효율 향상, 문자인식이나 번역, 카메라 화질 개선 등 이미 우리 일상생활에서 널리 쓰이고 있다. 보다 다양한 기기와 응용프로그램이 AI로 지능적으로 작동하도록 돕는 것이 퀄컴의 목표다." 5일 오후 서울 강남구 그랜드 인터컨티넨탈 서울 파르나스에서 열린 '컨버전스 인사이트 서밋'(CIS 2025)에서 이규진 퀄컴코리아 이사가 이렇게 강조했다. 이날 이규진 이사는 "클라우드를 거치지 않고 다양한 기기 연산 능력만 활용하는 온디바이스 AI 개발에는 다양한 장애물이 있으며 퀄컴은 이를 해소할 수 있는 '퀄컴 AI 허브'를 제공하고 있다"고 설명했다. "온디바이스 AI, 지연시간·비용에 장점 지녀" 현재 주목받는 다양한 AI 서비스는 대부분 클라우드에서 구동된다. 웹브라우저나 스마트폰 앱으로 질문이나 이미지 생성 요청을 넣으면 불과 수 초 안에 원하는 결과물을 되돌려준다. 그러나 클라우드로 데이터가 오가고 결과물을 받아보는 구조 상 개인 정보 등 프라이버시나 기업 비밀, 민감 정보 노출 가능성에서 자유롭지 않다. 또 지연 시간이나 서비스 장애/중단시 이를 활용할 수 없다는 문제도 있다. 이규진 이사는 "AI 구동을 클라우드에서 로컬 기기로 전환하면 컴퓨팅 자원 이용에 드는 비용을 줄이는 것은 물론 처리 시간 단축, 개인정보나 민감정보, 비밀 유출 차단 등 다양한 이점을 얻을 수 있다"고 설명했다. 이어 "온디바이스 AI를 효과적으로 실행하려면 CPU나 GPU 뿐만 아니라 각종 AI 연산을 저전력으로 실행하는 NPU(신경망처리장치)가 필요하다. 퀄컴이 스마트폰이나 PC, 오토모티브(자동차)나 IoT용으로 제공하는 스냅드래곤 플랫폼은 이를 충족한다"고 덧붙였다. 다양한 모델 사전 최적화해 제공하는 '퀄컴 AI 허브' 퀄컴 AI 허브는 퀄컴 스냅드래곤/드래곤윙 시스템반도체(SoC) 탑재 기기에서 작동하는 AI 앱이나 서비스 개발을 돕기 위한 개발자 포털로 작년 3월부터 가동을 시작했다. 지원하는 런타임은 현재 라이트RT와 범용성을 갖춘 ONNX, 퀄컴 SoC에 최적화된 퀄컴 AI 스택 등 3가지다. 이규진 이사는 "퀄컴 AI 허브는 6월 기준으로 220개 이상의 오픈소스 AI 모델을 퀄컴 플랫폼에 최적화해 제공하고 있고 이들 모델을 활용한 상용 서비스 구현도 문제가 없다"고 설명했다. 이어 "자체 개발한 AI 모델이나 추론 성능을 강화한 모델, 튜닝한 모델을 가져와 대상 플랫폼에 맞는 형태로 최적화하는 작업도 '자체 모델 불러오기' 기능으로 지원한다"고 덧붙였다. "물리 기기 기반 프로파일링으로 PoC 시간 단축" 퀄컴 AI 허브는 허브 내에서 구동되는 실물 기기 기반 시뮬레이션으로 AI 모델을 직접 실행하고 실행 소요 시간 프로파일링, 메모리 이용량, 연산량 측정 등 기능도 수행한다. 이규진 이사는 "이들 기능을 활용하면 개념실증(PoC)을 더 빠르게 추진하고 완성도를 강화할 수 있다. 또 개발자와 퀄컴 담당자가 참여하는 슬랙 커뮤니티를 통해 개발 과정에서 겪는 어려움에 대해 서로 논의할 수 있다"고 설명했다. 이어 "퀄컴 AI 허브를 활용해 국내에서도 더 많은 개발자들이 온디바이스 AI 앱과 서비스를 개발하고 이를 통해 관련 생태계 활성화가 일어나길 바란다"고 당부했다.

2025.06.05 16:50권봉석

에스코어, 오픈소스 보안 인증 획득…글로벌 수준 보안 역량 검증

에스코어(대표 김장현)가 오픈소스 보안 국제표준을 획득하며 글로벌 수준 보안 내재화 역량을 입증했다. 에스코어는 국제표준화기구(ISO)와 국제전기기술위원회(IEC)가 제정한 오픈소스 보안 국제표준 'ISO/IEC 18974' 인증을 획득했다고 4일 밝혔다. 이로써 국내 기업 중 다섯 번째로 해당 인증을 보유하게 됐다. ISO/IEC 18974는 오픈소스 소프트웨어 보안 관리 체계 강화를 위한 국제표준이다. 오픈소스 관리 체계를 갖춘 기업에 대해 보안 정책 수립, 조직 역량, 정책 변경 관리 등 30여 항목을 심사해 인증을 부여한다. 에스코어는 이번 인증을 통해 ▲보안 정책과 프로세스 수립 ▲관리 조직 및 전문성 확보 ▲정책 변경 관리 등 오픈체인(OpenChain) 프로젝트 요구 사항을 모두 충족했다. 이는 에스코어가 체계적이고 일관된 오픈소스 보안 관리 역량을 갖췄다는 것을 의미한다. 에스코어는 오픈소스 컴플라이언스 국제표준인 'ISO/IEC 5230:2020' 인증도 보유하고 있다. 회사 측은 '디지털 신뢰(Digital Trust)'를 핵심 가치로 삼고, 국내 오픈소스 에코시스템 강화를 위해 다양한 기업들과 협력 활동을 확대해 나갈 방침이다. 에스코어 오픈소스사업부 서성한 사업부장은 "ISO/IEC 18974 인증은 단순한 자격 획득을 넘어, 에스코어가 오픈소스, AI, 클라우드 및 데이터 플랫폼 구축 전반에 걸쳐 보안을 내재화하고 있음을 보여주는 중요한 성과"라며 "앞으로도 업계를 선도하는 보안 리더십을 발휘해 오픈소스 생태계 전반의 보안 수준을 높이는 데 기여할 것"이라고 말했다.

2025.06.04 16:53남혁우

MS, 10년 만에 WSL 오픈소스 전환…AI·클라우드 개발 속도 가속

마이크로소프트(MS)가 윈도우용 리눅스 하위 시스템(WSL)을 약 10년 만에 오픈소스로 전환한다. 이를 통해 인공지능(AI)과 클라우드를 포함한 소프트웨어(SW) 개발 환경의 속도와 유연성이 한층 더 가속화될 전망이다. MS는 30일(현지시간) 공식 블로그를 통해 WSL의 주요 구성 요소를 깃허브(GitHub)를 통해 공개한다고 밝혔다. 2016년 처음 도입된 WSL은 윈도우에서 리눅스를 실행할 수 있도록 지원하는 도구다. 리눅스용 개발 툴체인을 윈도우 환경에서도 그대로 사용할 수 있어 빠르게 진화하는 AI·클라우드 기반 개발 환경에서 WSL은 양 플랫폼을 연결하는 핵심 가교 역할을 해왔다. MS는 이번 공개를 통해 WSL의 핵심 구성 요소 대부분을 오픈소스로 전환할 계획이라고 밝혔다. 다만 윈도우 커널 내 시스템 드라이버와 밀접하게 연결된 일부 컴포넌트는 보안 및 안정성 문제로 오픈소스화 대상에서 제외된다고 설명했다. 사티아 나델라 최고경영자(CEO) 체제 이후 MS는 오픈소스 생태계를 적극적으로 지지해왔다. 이번 WSL 오픈소스 전환 역시 이러한 정책 기조의 연장선으로, 동시에 윈도우 중심의 개발 생태계를 더욱 견고히 하려는 전략으로도 해석된다. 이번 결정으로 AI와 클라우드 기반 소프트웨어를 개발하는 엔지니어들은 별도의 리눅스 환경으로 전환할 필요 없이, 윈도우 내에서 모든 개발과 테스트 업무를 수행할 수 있게 됐다. 또한 텐서플로, 파이토치, VS코드, 깃허브 코파일럿 등 리눅스 기반 도구들과 윈도우 개발 환경이 자연스럽게 통합돼, 작업 효율도 크게 향상될 것으로 기대된다. 아울러 개발자들이 각자의 업무 또는 서비스 환경에 맞춰 WSL을 직접 최적화하거나 수정해 활용하는 것도 가능해졌다. 피에르 불레이 MS 수석 소프트웨어 엔지니어는 "WSL 공개 이후 이를 활용하는 개발자가 빠르게 늘어나면서 커뮤니티가 형성됐고, 더 많은 기능과 지원에 대한 요구도 함께 증가했다"며 "이 같은 요구와 커뮤니티 흐름에 부응하기 위해 WSL을 오픈소스로 전환하게 됐다"고 설명했다.

2025.05.31 09:00남혁우

티맥스티베로, 오픈소스 DB 솔루션 '오픈SQL 3' 출시…성능·보안 '강화'

티맥스티베로가 클라우드 네이티브 환경에서의 성능과 안정성을 개선한 새로운 오픈소스 데이터베이스 관리 시스템(DBMS) 플랫폼을 선보인다. 티맥스티베로는 엔터프라이즈급 오픈소스 DB 솔루션 '오픈SQL 3'를 정식 출시했다고 29일 밝혔다. 오픈SQL은 글로벌 오픈소스 커뮤니티 DB인 '포스트그레SQL' 기반의 DBMS 플랫폼이다. 티맥스티베로의 DB 기술력과 노하우를 토대로 상용 소프트웨어(SW) 수준의 성능·보안 및 관리·기술지원 등 체계적인 서비스를 함께 제공한다. 현재 공공기관 시스템 통합, 공공 온라인 학습 시스템 구축, 금융사 대고객 서비스 사업 등에 성공적으로 적용된 사례를 다수 보유하고 있다. 이번 신규 버전은 클라우드 네이티브 환경에서의 성능과 안정성을 종합적으로 강화하는 한편, 연결 관리·부하 분산·장애 대응 기능을 분리·모듈화해 시스템 효율성과 확장성이 개선됐다. 특히 메모리·중앙처리장치(CPU)의 자원을 효율적으로 사용할 수 있는 새로운 아키텍처를 적용해 동시 접속 처리 능력과 데이터 처리 속도를 크게 향상했다. 기존 단일 프로그램이 담당하던 역할을 ▲커넥션 풀러 ▲로드 밸런서 ▲고가용성 클러스터 매니저에 분리한 것이다. 또 장애 발생 시 자동 복구하는 기능을 강화하고 운영 중에도 서버를 자유롭게 확장·축소할 수 있게 해 미션 크리티컬한 업무에서도 높은 가용성을 보장한다. 무엇보다 보안 정책 수준을 제고해 고객의 오픈소스 도입 우려 사항을 해소시켰다. 상용 DB 솔루션처럼 주요 보안 취약점에 대한 최신 패치를 정기적으로 배포해 고객의 신속한 보안 위협 대응과 안전한 DB 운영 환경을 지원한다. 티맥스티베로는 대규모 인공지능(AI) 데이터 처리·학습·추론 환경에서도 우수한 DB 솔루션을 제공한다는 목표다. 이에 AI 워크로드 최적화를 위한 주요 AI 프레임워크 연동 모듈도 제품에 순차적으로 추가할 계획이다. 박경희 티맥스티베로 대표는 "오픈SQL 3는 클라우드 네이티브 시장 변화와 산업의 요구를 철저히 반영해 설계됐다"며 "상용 SW와 오픈소스 수요를 모두 충족하고 글로벌 경쟁력을 충분히 갖춘 다양한 고성능 DB 솔루션으로 고객의 디지털 혁신을 적극 돕겠다"고 밝혔다.

2025.05.29 15:00한정호

레드햇-구글클라우드, 엔터프라이즈 AI 추론 강화 협력

레드햇이 구글클라우드와 협력을 확대해 인공지능(AI) 추론 성능을 높이고 대규모 배포를 지원하는 환경을 구축한다. 레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 ·구글의 개방형 모델 제품군 '젬마'를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 29일 밝혔다. 레드햇은 구글의 젬마 모델과 가상거대언어모델(vLLM)을 결합해 AI 추론 효율을 높일 방침이다. 대규모언어모델분산(llm-d) 프로젝트 론칭·에이전트투에이전트(A2A) 프로토콜 참여로 에이전틱 AI 확장을 도모할 계획이다. 레드햇은 젬마3 배포판에서 vLLM의 0일차 지원을 제공해 생성형 AI 애플리케이션의 출력 속도를 높인다. vLLM은 오픈소스 추론 서버로 빠르고 비용 효율적인 AI 플랫폼을 제공해 엔터프라이즈 고객의 반응성을 강화한다. 구글클라우드 텐서처리장치(TPU) 및 그래픽처리장치(GPU) 기반 가상머신에서 vLLM 사용이 가능해지면서 개발자는 성능과 효율성을 극대화할 수 있다. 또 레드햇은 llm-d 오픈소스 프로젝트를 통해 이기종 리소스 전반에서 AI 추론의 확장성·비용 최적화·워크로드 효율성을 개선한다. 레드햇 AI 인퍼런스 서버는 구글 클라우드 상에서 최신 커뮤니티 개선 사항을 반영해 기업용 모델 추론 최적화를 지원한다. 이를 통해 기업은 신뢰할 수 있는 인프라에서 대규모 AI 모델을 빠르고 안정적으로 배포할 수 있게 된다. 레드햇 브라이언 스티븐스 AI 부문 수석 부사장 겸 최고기술책임자는 "이번 협력 확대를 통해 획기적 AI 혁신을 주도할 것"이라며 "vLLM과 오픈소스 기술로 개발자는 최적화된 추론 기반의 고성능 AI 솔루션을 구축할 리소스를 확보할 수 있다"고 밝혔다. 구글클라우드 마크 로마이어 AI 및 컴퓨팅 인프라 부문 부사장 겸 총괄은 "이번 협력은 AI 잠재력을 고객에게 제공한다는 양사 비전의 결과"라며 "조직이 AI 추론을 효과적으로 확장하고 고성능 에이전틱 AI를 구현할 길을 열었다"고 말했다.

2025.05.29 14:53김미정

[현장] EDB "불확실성 시대, 오픈소스가 돌파구…DB 전환으로 비용 80% 절감"

"오픈소스는 검토의 대상이 아닌 경제 불황을 타개하고 인공지능(AI) 혁신을 가속화하는 실질적인 방안입니다." 김희배 EDB코리아 지사장은 29일 한국정보산업연합회(FKII)가 그랜드 인터컨티넨탈 서울 파르나스에서 개최한 '한국CIO포럼 조찬회'에서 AI 시대 IT 전략에 대해 이같이 강조했다. EDB는 오픈소스 데이터베이스 관리 시스템(DBMS)인 '포스트그레SQL' 기반 DB 솔루션을 지원하는 기업이다. 글로벌 오픈소스 커뮤니티에서 포스트그레SQL 프로젝트를 주도하며 전문 기술 지원 서비스를 제공 중이다. 김 지사장은 최근 경제 불황을 타개하기 위한 기업들의 IT 비용 절감 및 효율성 제고 방안을 언급하며 오픈소스 도입의 중요성을 강조했다. 김 지사장은 "이미 전 세계 모든 소프트웨어(SW)의 70~80%가 오픈소스를 활용해 개발되고 있는 상황"이라며 "생성형 AI와 같은 새로운 혁신도 오픈소스 기술을 기반으로 일어나고 있다"고 말했다. 이어 "이 가운데 포스트그레SQL은 글로벌 SQL 표준에 가장 근접한 오픈소스 DB로 주목받고 있다"고 덧붙였다. EDB가 서비스하는 포스트그레SQL은 온라인 트랜잭션 처리(OLTP)와 온라인 분석 처리(OLAP), 나아가 AI 활용 증강을 위한 벡터DB 기능까지 지원한다. 이같은 오픈소스 DB 솔루션을 바탕으로 EDB는 기업의 벤더 종속성 탈피를 지원하고 이를 통한 비용 절감과 효율성 증대를 돕겠다는 목표다. 또 단일 DB를 넘어 통합 서비스를 지원하는 엔터프라이즈 플랫폼의 역할을 토대로 AI와 빅데이터 등 혁신을 가속화한다는 방침이다. 특히 EDB는 기존 레거시 시스템에서 주로 활용돼 온 오라클 DB의 전환 수요를 공략하고 있다. 김 지사장은 "최근 DB 시장에서는 IT 주도권 확보와 경제적 불확실성 해소를 위한 '탈(脫) 오라클' 수요가 증가하고 있다"며 "오라클 DB를 우리의 포스트그레SQL 기반 솔루션으로 전환하는 것만으로 라이선스 비용을 50~80% 절감할 수 있다"고 강조했다. 이어 "기존 사용 중인 오라클 DB와의 호환성도 제공해 프로젝트 기간을 40~60% 단축하는 등 비용과 리스크를 최소화할 수 있다"고 덧붙였다. 더불어 EDB는 기업들의 AI 도입 수요에 맞춰 온프레미스와 클라우드 인프라를 모두 아우르는 DB, 분석 시스템, AI 서비스, 모니터링 솔루션 등 전반을 다양하게 공급 중이다. 김 지사장은 "우리는 포스트그레SQL을 단순 배포·판매하는 업체와 다르다"며 "기술 지원과 패치, 긴급 장애 대응 체계를 제공하는 유일한 전문기업"이라고 강조했다. 이어 EDB코리아 이태윤 에반젤리스트는 2020년 카카오 부사장으로 재직할 당시 기간계 시스템의 오라클 DB를 EDB의 솔루션으로 전환해 얻은 효용을 소개했다. 이 에반젤리스트는 "카카오의 기간계 전체에서 오라클 DB를 EDB의 포스트그레SQL로 전환함으로써, 추가 라이선스 구입비와 유지보수 비용 등을 감축할 수 있었다"며 "이를 통해 신규 연구개발(R&D)과 기술 조직 신설 등에 투자할 수 있는 성과를 거뒀다"고 말했다. 이어 "최근에는 다양한 기술들이 오픈소스로 등장하고 있으며 이 운영 환경을 구축하고 관리해 주는 파트너사들도 굉장히 많아졌다"며 "오픈소스에 친숙한 개발자들도 많아진 만큼, 과거와 달리 이제는 오픈소스로의 전환을 망설일 이유가 없다"고 덧붙였다. 또 그는 "오픈소스 전환 프로젝트에서 가장 중요한 것은 기술적 자신감"이라며 "우리는 고객 프로젝트의 성공을 위한 구체적인 지원을 해나갈 것"이라고 밝혔다.

2025.05.29 10:40한정호

레드햇이 제시한 '비용 효율적 AI' 전략은?

레드햇이 오픈소스 생태계 기반으로 생성형 인공지능(AI)을 효과적으로 활용할 수 있는 방향을 제시한다. 레드햇은 내달 5일 서울 그랜드 인터컨티넨탈 서울 파르나스 그랜드볼룸에서 열리는 '컨버전스 인사이트 서밋(CIS) 2025'에서 'AI 대중화를 넘어서 비용 효율적인 AI로'를 주제로 기업을 위한 생성형 AI 전략을 발표할 예정이다. 발표는 한국레드햇 유혁 상무가 진행한다. 이날 레드햇은 AI 전략 두 가지를 소개한다. AI 오픈소스 커뮤니티에 대한 기여와 엔터프라이즈 오픈소스 AI 솔루션 관련 내용이다. 레드햇은 IBM 리서치와 협력해 오픈소스화한 그래니트 모델과 인스트럭트랩의 거대언어모델(LLM) 학습 도구를 통해 커뮤니티에 기여해 왔으며, 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)와 레드햇 오픈시프트 AI를 통해 각각 로컬 환경에서 AI 개발 기능과 통합 ML옵스 플랫폼을 제공해 왔다. 유 상무는 레드햇 서밋에서 공개된 '레드햇 AI 인퍼런스 서버'도 소개한다. 레드햇 AI 인퍼런스 서버는 고성능 AI 추론을 위한 오픈소스 엔진인 vLLM 기반으로 엔터프라이즈 환경에서 최적화된 추론을 위한 다양한 특장점을 제공한다. 기업 지원 측면에서는 상용 환경 에스컬레이션을 위한 서비스 수준 계약(SLA), 전문 개발자의 이슈 해결, 안정적인 빌드와 모델 검증 등을 제공한다. 해당 서버는 사전 최적화된 모델 가든을 통해 라마와 큐원, 미스트랄, 딥시크 등 다양한 모델을 지원하며 프로덕션 배포에 최적화됐다. 레드햇은 올해 1월 vLLM 분야의 전문 기업인 뉴럴매직을 인수해 여러 최적화 기술을 확보한 바 있다. 이를 통해 OpenAI API 호환성, 양자화, 멀티 로라 서빙, 옵저버빌리티, 구조화된 생성, 추측 디코딩 등 강력한 기능들을 지원한다. 레드햇 AI 인퍼런스 서버는 RHEL AI와 레드햇 오픈시프트 AI에 포함되는 새로운 구성요소로, 최적화된 생성형 AI 추론을 제공함으로써 하이브리드 클라우드 환경에서 더 빠르고 비용 효율적이며 확장 가능한 모델 배포를 지원한다. 레드햇 이외의 환경인 제3자 리눅스 및 쿠버네티스 환경에도 배포 가능하다. 2025년 5월 이후 RHEL AI는 확장돼 기존 그래니트과 인스트럭트랩에 더해 인퍼런스 서버, 최적화 모델 가든, OSS 모델 검증을 추가 제공할 예정이다. 이번 레드햇 AI 포트폴리오는 물리적 환경부터 가상 환경, 프라이빗·퍼블릭 클라우드, 엣지 컴퓨팅까지 다양한 인프라에서 일관된 AI 기반 구축을 지원한다. 이는 모든 클라우드에서 모든 가속기에 모든 모델을 배포할 수 있으면서도, 과도한 비용 없이 우수한 사용자 경험을 제공하고자 하는 레드햇의 목표에 부합하는 플랫폼이다. CIS 2025는 사전 등록을 통해 행사에 참여할 수 있으며, 사전등록과 등록 문의는 공식 웹사이트를 통해 가능하다. 레드햇 "이번 발표를 통해 오픈소스 생태계를 중심으로 누구나 효율적으로 AI를 개발하고 운영할 수 있는 기반을 제공하겠다는 비전을 강조하겠다"며 "기업이 필요로 하는 신뢰성과 확장성, 비용 효율성을 모두 갖춘 솔루션을 통해 생성형 AI의 실질적 활용을 넓혀가겠다"고 전략을 밝혔다.

2025.05.28 10:50김미정

과기정통부, '오픈소스 아카데미' 개최…AI·SW 기여할 300명 선정

과학기술정보통신부(과기정통부)가 국내 예비 개발자 300명을 대상으로 세계 유수의 오픈소스 프로젝트에 직접 참여할 기회를 제공한다. 과기정통부는 '2025 오픈소스 컨트리뷰션 아카데미' 참여자 모집을 시작한다고 27일 밝혔다. 모집 기간은 다음달 22일까지이며 국내외 유명 오픈소스 프로젝트 15종에 멘티 300명을 선발한다. 선발된 인원은 오는 7월부터 네달간 각 프로젝트에서 실습과 멘토링을 병행하며 활동하게 된다. 이 프로그램은 단순 교육이 아닌 실전 참여형 방식이다. 예비·초급 개발자들이 실제 오픈소스 생태계에 기여하며 기술력과 협업 경험을 쌓도록 설계됐다. 특히 올해는 허깅페이스, 파이오다이드 등 AI 관련 프로젝트의 비중이 늘어나 AI 개발 역량을 갖춘 인재를 양성하려는 의도가 강하게 반영됐다. 멘토는 각 프로젝트의 리더급 개발자로 구성된다. 커미터 또는 핵심 의사결정권자가 직접 1:1 교육을 제공하며 활동팀에는 개발 인프라를 포함한 프로젝트 운영 자원이 지원된다. 활동 결과에 따라 과기정통부 장관상이 수여되며 최대 200만원의 상금이 주어지는 경쟁 체계도 갖췄다. 선발된 멘티들은 자신이 선택한 프로젝트에 따라 20명 내외로 팀을 이루며 오픈소스 도구 활용 역량과 기술 수준, 관심 분야 등을 고려해 매칭된다. 교육과 실습을 병행하며 프로젝트 완성도를 높이고 평가 결과에 따라 대상, 최우수상, 우수상, 장려상이 각각 1팀씩 수상한다. 참가 신청은 공개 소프트웨어 포털을 통해 가능하며 선정 결과는 오는 7월 7일 발표된다. 아카데미 종료 후에는 소프트웨어 주간과 연계한 시상식이 예정돼 있다. 신청 요건은 오픈소스 기여 의지가 있고 개발 및 도구 활용에 대한 기본 역량을 갖춘 자라면 누구나 가능하다. 황규철 과기정통부 소프트웨어정책관은 "AI 등의 발전에 오픈소스의 중요성이 부각되고 있으며 오픈소스 기여 경험이 AI·SW 개발자의 필수 역량으로 평가받고 있다"며 "예비 개발자들이 글로벌 인재로 성장할 수 있기를 기대한다"고 밝혔다.

2025.05.27 16:45조이환

네이버 하이퍼클로바X, 오픈소스 공개 한 달만에 30만 다운로드 돌파

네이버클라우드의 오픈소스 인공지능(AI) 모델이 글로벌 시장에서 인기를 끌며 경쟁력을 입증하고 있다. 네이버클라우드는 지난달 24일 공개한 오픈소스 AI '하이퍼클로바X 시드' 3종 모델이 출시 한 달여 만에 30만 다운로드를 넘어섰다고 26일 밝혔다. 이는 글로벌 AI 모델 공유 커뮤니티 '허깅페이스'에 등록된 모델 중 상위 약 0.03%에 해당하는 수치로, 하이퍼클로바X의 영향력이 글로벌로 확대되고 있는 모습이다. 텍스트와 이미지, 영상 정보를 함께 처리할 수 있는 시각언어모델인 '하이퍼클로바X 시드 3B'는 약 26만 7천 회 다운로드를 기록하며 3종 모델 중 가장 큰 호응을 얻었다. 네이버클라우드가 한국어 및 영어 관련 시각 정보 이해 능력을 평가할 수 있는 9개 벤치마크의 평균 점수를 비교한 결과, 하이퍼클로바X 시드 3B는 유사 규모의 미국·중국 빅테크 모델보다 높은 점수를 기록했다. 또 파라미터 수가 훨씬 많은 해외 대규모 모델과 유사한 정답률을 보여 성능 경쟁력을 입증한 바 있다. 텍스트 모델인 '하이퍼클로바X 시드 1.5B'와 '하이퍼클로바X 시드 0.5B'도 약 3만5천 회의 다운로드를 기록했다. 특히 두 모델을 기반으로 29개에 달하는 파생 모델이 만들어지는 등 다양한 개선과 실험이 이뤄졌다. 개발자들은 "작은 크기에도 불구하고 균형 잡힌 언어 성능과 뛰어난 안정성이 돋보인다"며 "CPU 환경에서도 빨라 사내용 챗봇으로 매우 손쉽게 활용할 수 있을 것 같다"고 말했다. 네이버클라우드는 현재 개발 중인 하이퍼클로바X 추론 모델도 다음 달 대화형 AI 서비스 '클로바X'를 통해 선보일 계획이다. 또 하이퍼클로바X 음성 모델을 활용한 서비스도 향후 순차적으로 선보일 예정이다. 네이버클라우드 성낙호 하이퍼스케일 AI 기술 총괄은 "프롬 스크래치로 개발한 생성형 AI 모델이 글로벌 오픈소스 커뮤니티에서 주목받고 있어 뜻깊게 생각한다"고 말했다. 이어 "한국어를 비롯해 여러 언어와 문화를 이해하는 각각의 모델들이 공존할 수 있도록 AI 생태계에 다양성을 더할 것"이라며 "이를 기반으로 더욱 혁신적인 기술과 서비스가 나오는 데에 하이퍼클로바X가 기여할 수 있기를 기대한다"고 덧붙였다.

2025.05.26 14:59한정호

"오픈소스에 6천만원 쏜다"…과기정통부, AI시대 개발자 대회 개최

정부가 전국 규모의 오픈소스 인공지능 소프트웨어(AI SW) 개발자 대회를 개최한다. 민간의 창의성과 협업을 통해 글로벌 IT 생태계에서 주도권을 확보하기 위해서다. 과학기술정보통신부(과기정통부)는 '2025년 오픈소스 개발자 대회'를 공식 개시하고 참가 접수를 시작했다고 20일 밝혔다. 올해로 19회째를 맞는 이 대회는 기존 '공개SW 개발자 대회'에서 명칭을 변경해 오픈소스 중심의 기술 경쟁에 초점을 맞췄다. 참가 대상은 학생과 일반인을 포함한 전 국민이며 참가자는 온라인 포털을 통해 다음달 30일까지 지원할 수 있다. 과제 유형은 ▲AI·신기술 등 자유과제 ▲기업형·사회문제형 지정과제 ▲기출 프로젝트를 발전시키는 지속발전과제 등 세 가지로 구성된다. 'AI 분야'는 생성형 AI, 피지컬 AI, AI 에이전트, 백엔드 AI 등을 포함하고 '신기술 분야'는 빅데이터, 클라우드, 블록체인, 보안, 모바일 등 폭넓은 오픈소스 SW 기술이 적용된다. '지정과제'는 뤼튼테크놀로지스와 에스코어 등 실제 기업 수요를 기반으로 구성되며 사회문제 해결을 주제로 한 프로젝트도 포함된다. '지속발전과제'는 이전 대회 출품작을 성능 향상이나 비즈니스화로 이어가는 구조다. 기존 자산을 활용한 성장 가능성이 핵심 심사 기준이다. 모든 참가팀은 온라인 교육과 실무 개발자 멘토링을 제공받는다. 대상 수상팀은 학생부와 일반부 각 1팀씩으로, 과기정통부 장관상이 주어지고 팀당 1천만원의 상금이 지급된다. 금상은 정보통신산업진흥원 원장상으로 팀당 500만원이, 은상은 조직위원장상으로 팀당 250만원이 제공된다. 동상과 장려상은 후원기업과 오픈소스 협회가 시상한다. 특별상과 지속발전상도 포함돼 총 상금은 6천100만원에 이른다. 이 대회는 지난 18년간 5천여 개 팀이 참가해 약 2천여 명이 수상했다. 수상작 중 일부는 오픈소스 커뮤니티 확산과 제품 사업화로 이어졌다. 대표 사례로는 깃허브 스타 순위 상위권에 오른 SWC 등이 있다. 황규철 과학기술정보통신부 소프트웨어정책관은 "AI 경쟁 시대의 중요 자산인 오픈소스의 저변 확대를 통한 대한민국의 글로벌 AI 오픈소스 리더십 확보는 중요하다"며 "이번 대회를 통해 창의적이고 경쟁력 있는 인재와 혁신적인 프로젝트가 나오길 기대한다"고 밝혔다.

2025.05.20 12:02조이환

오픈AI·MS, 中 견제하나…"美 기술이 글로벌 핵심 돼야"

오픈AI, 마이크로소프트 등 미국 테크기업 수장들이 중국 등 타국 인공지능(AI) 기술 확산에 대응하려면 미국 기술이 글로벌 표준으로 자리 잡아야 한다고 입을 모았다. 9일 IT 업계와 주요 외신에 따르면 샘 알트먼 오픈AI 최고경영자(CEO)를 비롯한 브래드 스미스 마이크로소프트 사장, 리사 수 AMD CEO 등이 미국 상원 청문회에 참석해 이같이 주장했다. 우선 샘 알트먼 CEO는 미국 AI 기술이 가능한 한 많은 사람들에게 핵심축으로 인식돼야 한다고 강조했다. 그는 "애플의 아이폰이 전 세계적으로 가장 사랑받는 모바일 기기, 구글이 가장 인기 있는 검색 엔진으로 자리 잡은 것처럼 AI 기술 스텍도 동일해야 한다"고 말했다. 리사 수 CEO는 "미국 기술이 글로벌 표준이 되지 못하면 다른 나라가 그 자리를 차지할 것"이라고 경고했다. 그러면서 "중국을 비롯한 다른 나라 기술력이 미국보다 떨어질 지라도 시간이 흐르면 그들의 기술이 미국을 추월할 수 있다"고 덧붙였다. 스미스 사장은 "AI 경쟁 승패는 글로벌 시장에서 얼마나 폭넓게 채택될지에 달렸다"고 주장했다. 이날 청문회를 연 테드 크루즈 공화당 상원의원은 "중국은 2030년까지 AI 분야에서 글로벌 리더를 목표로 하고 있다"며 "미국은 기업가적 자유와 기술 혁신 전통을 따라갈 것인지, 아니면 유럽처럼 규제 중심 정책을 선택할 것인지 서둘러 결정해야 한다"고 언급했다. 미국 기업은 중국 등 타국의 AI 기술 확산을 저지하기 위해 나선 바 있다. 실제 오픈AI는 '오픈AI 포 컨트리' 프로그램을 시작했다. 당시 외신은 오픈AI가 중국의 '딥시크'와 알리바바클라우드의 '큐원3' 등 오픈소스 AI 모델 확산을 막기 위함이라고 분석했다. 오픈AI 크리스 레헨 글로벌 사무국장은 "전 세계가 민주적 AI와 독재적 AI 사이에서 선택해야 할 시점"이라며 "이 프로그램은 각 국가가 민주적 AI를 구축할 수 있는 기회를 제공할 것"이라고 말했다.

2025.05.09 15:05김미정

"브로드컴에 휘둘리지 마"…EDB, 그린플럼 유저 겨냥 '오픈소스' 대안 출격

EDB가 오픈소스 대체 솔루션을 선보인다. 최근 소스코드가 폐쇄된 '그린플럼'의 기존 사용자를 흡수하고 자사 포스트그레스 기반 인공지능(AI) 플랫폼을 확장하는 행보다. EDB는 'EDB 포스트그레스 AI : 그린플럼 워크로드 지원'과 오픈소스 데이터웨어하우스 '웨어하우스PG(WarehousePG)'를 함께 선보인다고 8일 밝혔다. 해당 제품은 그린플럼의 마지막 오픈소스 버전을 포크해 아파치 라이선스로 제공되며 '그린플럼 6.x'와 '7.x' 버전과의 바이너리 호환을 지원한다. '그린플럼'은 오픈소스 객체 관계형 데이터베이스 관리 시스템(PostgreSQL)을 기반으로 한 대규모 병렬 처리(Massively Parallel Processing, MPP) 구조의 데이터베이스 관리 시스템(DBMS)이다. 고성능 분석 쿼리와 대용량 데이터 적재에 최적화된 플랫폼으로 알려져 있다. 다만 지난 5월부터 브로드컴에 의해 폐쇄형으로 전환되며 더 이상 소스코드가 공개되지 않아 오픈소스 커뮤니티와 사용자 기업들 사이에서 대체 솔루션에 대한 수요가 급격히 늘었다. EDB는 이번 솔루션이 기존 그린플럼 사용자들의 인프라와 기술 투자 자산을 유지하면서도 무중단 이전이 가능하다고 강조했다. '웨어하우스PG'는 리팩토링이나 사용자 재교육 없이도 전환이 가능하도록 설계됐으며 EDB의 엔터프라이즈급 기술지원이 함께 제공된다. 특히 AI 및 고급 분석 워크로드를 위한 머신러닝, 그래픽처리장치(GPU) 가속, 벡터 검색 기능이 기본 탑재됐다. 다양한 소스와 연동되는 연합형 데이터 접근 방식도 지원해 최신 분석 환경에 대응할 수 있도록 구성됐다. 기존 그린플럼의 병렬 백업·복원, 자원 관리, 스탠바이 구성 등 기능을 계승해 확장성과 안정성 역시 확보했다. 모든 기능은 서명된 소프트웨어 패키지와 보안 업데이트 등으로 엔터프라이즈 환경에 적합하게 강화됐다. 웨어하우스PG는 깃허브에 공개돼 있으며 커뮤니티 중심 오픈소스 프로젝트로서 생태계의 확장을 염두에 두고 설계됐다. EDB는 이를 통해 향후 데이터 및 AI 인프라를 포괄하는 소버린 플랫폼으로의 진화를 목표로 한다는 방침이다. EDB는 추후 '하이브리드 컨트롤 플레인' 기능을 포함한 차세대 관리 플랫폼도 출시할 예정이다. 해당 플랫폼은 온프레미스와 클라우드 모두를 아우르며 고객사별 유연한 구축과 관리가 가능하도록 지원할 계획이다. 김희배 EDB코리아 지사장은 "'그린플럼'은 국내 제조기업을 포함해 여전히 다수의 고객이 사용 중"이라며 "기존에는 오라클, 그린플럼 같은 전용 어플라이언스나 스노우플레이크 같은 클라우드 전용 솔루션만 있었지만 우리는 온프레미스와 클라우드를 모두 지원해 더 유연한 선택지가 될 것"이라고 말했다.

2025.05.08 15:00조이환

"개발자 잡아야 살아남는다"…메타, 라마콘서 'AI 총력전' 선언

메타가 인공지능(AI) 개발자들을 위해 대규모 행사를 열어 생태계 확장에 나섰다. AI 앱, 모델 응용 프로그램 인터페이스(API), 개인 정보 보호형 연산 기능을 잇달아 내놓으며 폐쇄형 경쟁자보다 먼저 시장 선점을 시도하겠다는 의도로 해석된다. 29일 테크크런치 등 외신에 따르면 메타는 지난 28일 미국 멘로파크 본사에서 '라마콘' 개발자 컨퍼런스를 열고 라마 API와 독립형 AI 앱, 왓츠앱 전용 기능 등을 발표했다. 참석자들은 이날 마크 저커버그 메타 최고경영자(CEO)와 사티아 나델라 마이크로소프트 CEO 간의 대담, 기술 세션 등을 통해 최근 '라마4' 발표 이후 메타의 로드맵에 대한 구상을 확인했다. 가장 관심을 모은 발표는 '라마 API'였다. 이 도구를 사용하면 개발자가 데이터를 직접 만들어 모델을 학습시키고 결과를 평가하는 전 과정을 한 곳에서 처리할 수 있다. 학습된 모델은 메타의 서버에 종속되지 않아 다른 클라우드 환경으로 자유롭게 옮길 수 있다. 또 세레브라스(Cerebras)나 그록(Groq) 같은 파트너 서버를 API 옵션으로 제공해 실시간 응답이 중요한 대화형 AI 서비스도 손쉽게 구현할 수 있도록 했다. 추가 공개된 독립형 '메타 AI 앱'은 개인화 기능을 강화한 것이 특징이다. 페이스북이나 인스타그램에서 생성된 소셜 데이터, 사용자의 콘텐츠 반응 기록 등을 활용해 응답의 정확도를 높이도록 설계됐다. 음성 채팅과 프롬프트 공유용 디스커버 피드도 포함돼 '챗GPT'와의 정면 대결을 염두에 둔 구성이란 분석이 나온다. 메타는 자사 소셜미디어인 '왓츠앱'에도 생성형 AI를 적용하기 위한 별도 기술을 공개했다. '프라이빗 프로세싱'으로 명명된 이 기능은 메시지를 요약하거나 정리하는 과정에서도 종단간 암호화 구조를 그대로 유지하도록 설계됐다. 이는 사용자가 직접 설정을 통해 켜야 작동하며 암호화된 채팅 내용을 외부 서버에 노출하지 않고 AI 기능을 제공하는 방식이다. AI 보조 기능과 개인정보 보호를 동시에 충족시킨 첫 사례로, 유럽연합(EU)이나 인도처럼 규제가 강한 시장에서 메타 AI의 확장 가능성을 높였다는 평가가 나온다. 모델 로드맵에서는 경량형 라마4인 '리틀 라마', 미출시 상태인 대형 모델 '비히모스', '라마4' 모델 마이너 업그레이드(dot release) 등이 언급됐다. 특히 '리틀 라마'는 모바일 기반 저전력 응용에 활용될 가능성이 높다. '비히모스'는 아직 비공개 상태이나 메타는 이를 세계 최고 성능의 베이스 모델로 표현했다. 현재 메타는 최근 '라마4' 모델 출시 후 성능 논란에 휘말린 상태다. 대화 최적화 버전인 '매버릭'은 벤치마크 '언어모델 아레나(LM 아레나)'에서 좋은 점수를 받았지만 실제 배포된 모델은 해당 성능을 내지 못했다. 추론 능력을 갖춘 모델이 없다는 점도 비판을 받았다. 출시 직후 한 테크 비평가는 "모든 경쟁자가 추론 모델을 내놓고 있는 상황에서 메타는 무리하게 출시를 서둘렀다"고 말한 바 있다. 마크 저커버그 메타 CEO는 라마콘에서 "우리 모두가 AI 변화가 50년이나 걸리지는 않을 거라는 전제로 현재 수준의 투자를 지속하고 있다"고 강조했다.

2025.04.30 10:38조이환

中 '딥시크'에 자극 받은 메타, 첫 AI 개발자 회의로 주도권 잡기 본격화

'페이스북' 모회사 메타플랫폼이 첫 인공지능(AI) 개발자 회의를 열고 최신 AI 모델인 '라마4'를 앞세워 시장 공략에 본격 나선다. 29일 블룸버그통신, CNBC, 엔가젯 등 주요 외신에 따르면 메타플랫폼은 이날 미국 동부시간 기준 오후 1시(현지시간) 온라인을 통해 AI 개발자 회의인 '라마 컨퍼런스'를 개최한다. '라마(Llama)'는 메타의 오픈소스 거대언어모델(LLM)로, 메타는 이달 초 최신 버전인 '라마4'를 공개한 바 있다. '메타 포 디벨로퍼즈(Meta for Developers)' 공식 페이스북 페이지를 통해 생중계되는 이번 행사에선 향후 메타의 AI 전략이 공개될 예정이다. 메타는 그동안 매년 9월 신제품 발표 행사인 '메타 커넥트(connect)' 컨퍼런스를 통해 '라마' 모델을 소개해왔으나, 올해부터는 이를 분리해 독립적인 행사로 개최한다. 메타의 오픈소스AI 개발 현황을 공유하고 개발자들이 이를 활용해 혁신적인 앱과 제품을 만들 수 있도록 지원하기 위해서다. 메타는 AI 시장에서 오픈소스 전략을 고수하고 있는 상태로, 현재 골드만삭스와 노무라홀딩스, AT&T, 도어대시, 액센추어 등 다양한 글로벌 기업들이 '라마' 모델을 활용 중이다. 또 엔비디아와 데이터브릭스, 그록, 델, 스노우플레이크 등 최소 25개 파트너사가 '라마' 모델을 호스팅하고 있다. 이번 회의에선 크리스 콕스 메타 최고제품책임자를 비롯해 마노하르 팔루리 AI 부사장, 안젤라 팬 연구 과학자 등이 기조연설에 나선다. 이들은 메타의 오픈소스 AI 커뮤니티 최신 동향과 '라마' 모델 업데이트, 메타의 AI 전략 등을 발표한다. 이후 마크 저커버그 메타 최고경영자(CEO)는 데이터 분석기업 데이터브릭스 CEO 알리 고드시와 'AI 기반 애플리케이션 구축'을 주제로 대담에 나선다. 또 사티아 나델라 마이크로소프트(MS) CEO와 'AI의 최신 트렌드'에 관해서도 논의한다. 업계 관계자는 "데이터브릭스, MS 측과의 대화가 모두 공식적인 신제품 발표를 위한 세션은 아닌 것으로 보인다"면서도 "다만 MS와 메타가 이미 여러 차례 협업한 전례가 있어 깜짝 발표 가능성도 배제할 수 없다"고 봤다. 업계에선 메타가 AI 개발자 회의를 독립적으로 개최하게 된 배경으로 중국 AI 스타트업인 '딥시크'가 자극이 됐을 것으로 봤다. '딥시크'가 메타의 '라마' 모델과 경쟁하거나 이를 넘어설 수 있는 오픈소스 AI 모델을 출시하며 올 초부터 주목 받기 시작해서다. 이에 메타는 '딥시크'가 모델 운영 및 배포 비용을 대폭 낮춘 방식을 분석하기 위해 긴급 태스크포스(TF)도 구성한 것으로 알려졌다. 또 메타는 AI에 대한 대규모 투자를 통해 시장의 선두 주자로 올라서겠다는 계획도 세웠다. 이를 위해 올해는 AI 관련 프로젝트에만 최대 800억 달러(약 110조원) 가량을 투자할 예정이다. 이 자금은 AI 전문 인재 채용과 신형 AI 데이터센터 건설, 라마 시리즈 강화 등에 쓰일 것으로 알려졌다. 더불어 메타는 라마 기반의 AI 챗봇 '메타 AI'를 페이스북과 인스타그램, 왓츠앱 등 자사가 보유한 소셜미디어(SNS)에 접목하며 이용자 수를 늘리고 있다. 또 조만간 별도의 메타 AI 앱도 출시해 사용자 확장을 꾀할 계획이다. '메타 AI'의 월간 활성 사용자 수는 지난해 9월 기준 5억 명에 육박했다. 저커버그 CEO도 AI 시장에서 메타의 주도권을 잡기 위해 적극 나설 것임을 시사했다. 앞서 지난 1월에는 "2025년은 고도로 지능적이고 개인화된 AI 어시스턴트가 10억 명 이상에게 도달하는 해가 될 것"이라며 "메타 AI가 그 선두 주자가 될 것"이라고 말한 바 있다. 저커버그 CEO는 '라마4' 외에 올해 추론 능력과 멀티모달 기능을 갖춘 다양한 신형 AI 모델 출시도 예고했다. 또 '라마' 모델이 향후 자율적으로 작업을 수행할 수 있는 '에이전틱 AI' 기능도 지원할 것임을 예고했다. 다만 일각에선 메타가 AI 학습 과정에서 저작권이 있는 서적 자료를 무단 사용했다는 소송과 EU 일부 국가의 개인정보 보호 규제로 인한 모델 출시 연기, 취소 등 여러 도전에 직면하고 있다고 지적했다. 또 도널드 트럼프 행정부의 관세 여파도 우려되는 부분이라고 봤다. 업계 관계자는 "이 같은 상황 속에 메타가 '라마4'와 '라마 컨퍼런스'를 통해 시장을 이끌 수 있을 지 주목된다"며 "트럼프 행정부의 관세 영향도 다소 있을 것으로 보여 메타의 올해 AI 투자가 유지될지 지켜봐야 할 듯 하다"고 말했다.

2025.04.29 10:06장유미

1분기 실적 앞둔 메타, AI 시장 주도권 확보 방안 제시

메타가 1분기 실적 발표를 앞두고 글로벌 인공지능(AI) 시장 주도권 확보 방안을 제시한다. 29일 CNBC는 메타가 미국 캘리포니아 멘로파크 본사에서 첫 AI 개발자 컨퍼런스 '라마콘'을 열고 글로벌 오픈소스 AI 생태계 강화 전략을 공유한다고 밝혔다. 이후 31일(현지시간) 실적을 발표한다. 이번 라마콘에서는 메타의 최신 AI 모델인 '라마 4' 시리즈가 소개된다. 특히 주요 시리즈인 멀티모달 모델 '스카우트'와 '매버릭'도 공개된다. 2조개 파라미터로 이뤄진 모델 '비히모스'에 대한 정보도 공유될 예정이다. 이번 행사에는 마크 저커버그 메타 최고경영자(CEO)와 사티아 나델라 CEO 간 대담 세션도 포함됐다. 이에 두 CEO가 AI 분야 미래와 협업에 대한 논의를 진행할 가능성도 높다. 외신은 이번 행사에서 메타의 AI 투자 현황과 미국 관세 정책 대응안 이어질 것으로 봤다. 앞서 메타는 올해 AI 인프라 구축을 위해 올해 최대 650억 달러를 지출한다고 밝혔다. 분석가들은 메타가 투자 금액을 상향 조정할 가능성 있다고 내다봤다. 미국 투자은행 니드햄은 메타가 올해 600~650억 달러 자본 지출 계획을 변경하지 않을 것으로 예상했다. 다만 관세로 인해 향후 비용이 추가로 증가할 수 있다는 리스크를 지적했다. 앞서 인텔은 이번 1분기 실적 발표에서 무역정책이 경기 둔화 가능성을 높였다고 밝혔으며, 구글도 설비 투자 계획은 변함없지만 공급 일정 변동 가능성을 언급한 바 있다. 투자자들은 메타가 보유한 글로벌 사용자 기반으로 AI 시장에서 우위를 점할 것으로 기대하고 있다. 수조 달러 규모 시장을 겨냥한 만큼 라마 투자 지속 여부는 중장기적으로 실적과 직결될 전망이라는 이유에서다. 현재 메타는 라마4 모델을 출시해 AI 에이전트 개발에 속도를 내고 있다. 이를 통해 웹 브라우저나 앱에서 사용자 업무를 자동화하는 기능을 강화하고 있다. 최근 메타AI 디지털 어시스턴트 사업도 시작했다. 올해 2분기 중 독립형 메타AI 앱 출시와 유료 구독 서비스 테스트를 계획 중이다. 업계는 별도 앱 출시에 따라 메타AI가 차별화된 브랜드 가치를 확보할 수 있을 것으로 보고 있다. 다만 페이스북이나 인스타그램 사용자가 현재처럼 단순히 콘텐츠 소비에 집중할 경우 AI 서비스 확산에는 시간이 걸릴 수 있다는 분위기다. 윌리엄 블레어의 랄프 샤카트 연구원은 "메타는 다수 플랫폼을 통해 수십억 사용자 기반을 활용할 수 있는 좋은 위치에 있다"며 "초기 선점 효과를 바탕으로 AI 시장에서 강력한 존재감을 가질 것으로 본다"고 밝혔다. 웰스파고의 켄 가웰스키 전무는 "메타는 라마 모델이 최첨단 모델과 경쟁할 수 있는지 지속적으로 평가해야 한다"며 "아직까지 메타는 구글처럼 직접적으로 모델을 수익화하지 못했다"고 밝혔다.

2025.04.29 09:05김미정

  Prev 1 2 3 4 5 6 Next  

지금 뜨는 기사

이시각 헤드라인

"AI 3대 강국 되려면 기반 인프라 로드맵부터 이행돼야"... IT 업계 한목소리

[ZD 브리핑] SKT 침해사고 결과 나온다...국회 2차 추경안 논의 본격화

[비욘드IT] 7조 들여 AI 인프라 짓는 AWS, 지도 반출만 요구하는 구글

정은경 복지장관 후보자 "의정갈등 해결은 의료계와 신뢰 회복부터"

ZDNet Power Center

Connect with us

ZDNET Korea is operated by Money Today Group under license from Ziff Davis. Global family site >>    CNET.com | ZDNet.com
  • 회사소개
  • 광고문의
  • DB마케팅문의
  • 제휴문의
  • 개인정보취급방침
  • 이용약관
  • 청소년 보호정책
  • 회사명 : (주)메가뉴스
  • 제호 : 지디넷코리아
  • 등록번호 : 서울아00665
  • 등록연월일 : 2008년 9월 23일
  • 사업자 등록번호 : 220-8-44355
  • 주호 : 서울시 마포구 양화로111 지은빌딩 3층
  • 대표전화 : (02)330-0100
  • 발행인 : 김경묵
  • 편집인 : 김태진
  • 개인정보관리 책임자·청소년보호책입자 : 김익현
  • COPYRIGHT © ZDNETKOREA ALL RIGHTS RESERVED.