Loading Now

인간의 수행 능력 89% 고성능 AI 이제 소규모기업과 스타트업도 부담없이 사용가능 구글 젬마 출시 !

AI Lab Official Logo - Exploring AI Trends and News"

인간의 수행 능력 89% 고성능 AI 이제 소규모기업과 스타트업도 부담없이 사용가능 구글 젬마 출시 !

안녕하세요 , 오늘은 최근 구글에서 출시한 젬마에 대해 다뤄보겠습니다. 젬마(Gemma)는 구글 제미나이 개발의 핵심 기술과 연구를 기반으로 제작된 최첨단 경량 오픈 모델군입니다. 구글 딥마인드와 구글의 다양한 부서가 협력하여 개발한 젬마는 제미나이를 비롯하여 ‘보석’을 뜻하는 라틴어 ‘gemma’에서 영감을 받은 이름이라고 합니다.

인공지능(AI)의 경계를 넓히는 여정에서, 거대 언어 모델(LLM)이라 불리는 지능적인 시스템들이 그 중심에 서왔습니다. 이들은 인간과 같은 수준의 텍스트 생성과 대화 능력을 지닌 AI의 미래를 제시하며, 이 분야에서 놀라운 가능성을 보여주었습니다. 그러나 이러한 기술의 진정한 잠재력은 그들이 대중에게 공개되지 않아 한정된 범위에서만 탐구되어 왔습니다.그런 의미에서Google DeepMind의 최신 작품, Gemma가 등장하며 새로운 전환점을 얘기합니다 .

구글 젬마 블로그 바로가기

개방형 혁신 플랫폼으로 젬마의 오픈 모델 접근 방식은 전 세계 개발자와 연구자들이 AI 기술에 대한 실험과 혁신을 자유롭게 진행할 수 있는 환경을 조성합니다. 이는 기존의 폐쇄적이거나 제한된 AI 모델들과 달리, 광범위한 오픈 소스 커뮤니티의 참여와 협업을 가능하게 하여, AI 응용 프로그램의 발전을 가속화할 수 있습니다.

젬마는 DeepMind의 주요 Gemini 모델과 유사한 변환기 기반 아키텍처 및 교육 방법을 활용합니다. 웹 문서, 수학, 코드에서 최대 6조 개의 텍스트 토큰에 대해 교육을 받았습니다. 한마디로 , 젬마는 사전 훈련된 젬마체크포인트와 대화, 지침 따르기, 코딩과 같은 영역의 기능 향상을 위해 감독 학습 및 인간 피드백으로 미세 조정된 교육된 고성능AI라는건데요. 인간수행능력이 89%라고 하니 기대되는 부분입니다 . 젬마(Gemma)가 기존의 AI 모델들과 구별되는 주요 특징은 다음과 같습니다:

  1. 다양한 크기의 모델 제공: 젬마는 2B(20억 파라미터)와 7B(70억 파라미터)의 두 가지 크기로 제공되며, 이는 사용자가 자신의 요구와 리소스에 따라 최적의 모델을 선택할 수 있게 합니다. 이러한 유연성은 특히 자원이 제한된 환경에서 AI를 활용하고자 하는 사용자들에게 큰 이점을 제공합니다.
  2. 고급 아키텍처와 교육 방법론: 젬마는 변환기 기반 아키텍처를 사용하며, DeepMind의 강력한 Gemini 모델에서 유래한 선진적인 교육 기법을 활용합니다. 이를 통해 모델은 텍스트 생성, 상식 추론, 코딩과 같은 다양한 작업에서 인상적인 능력을 발휘할 수 있습니다.
  3. 대규모 데이터에 대한 교육: 젬마는 최대 6조 개의 텍스트 토큰에 대해 교육되었으며, 이는 웹 문서, 수학 문제, 코드 스니펫 등 다양한 유형의 텍스트를 포함합니다. 이처럼 방대한 교육 데이터를 통해 모델은 광범위한 지식을 습득하고, 다양한 형태의 쿼리에 대응할 수 있습니다.
  4. 책임감 있는 AI 사용에 대한 강조: 젬마는 책임감 있는 AI 사용을 강조하며, 이를 위해 안전성, 공정성, 견고성을 평가하는 철저한 테스트를 거쳤습니다. 또한, 데이터 필터링과 미세 조정 과정을 통해 유해하거나 편향된 콘텐츠의 영향을 최소화하려는 노력이 있었습니다.
  5. 플랫폼 간 호환성 및 접근성: 젬마는 다양한 플랫폼과 기기에서 사용할 수 있도록 설계되었으며, Google Cloud의 Vertex AI와 같은 서비스를 통해 쉽게 확장할 수 있습니다. 이는 사용자가 자신의 환경에 맞게 모델을 손쉽게 배포하고 활용할 수 있게 해줍니다.

구글 젬마 블로그 바로가기

젬마(Gemma)가 소규모 기업 및 스타트업에서 특히 유용할 수 있습니다 .

  1. 접근성과 비용 효율성: 소규모 기업이나 스타트업은 종종 제한된 자원과 예산을 가지고 있습니다. 젬마와 같은 오픈 모델은 무료로 제공되며, 다양한 규모의 모델을 선택할 수 있어서, 기업의 규모나 필요에 맞게 AI 기술을 활용할 수 있습니다. 이는 고가의 커스텀 AI 솔루션을 개발할 필요 없이 최첨단 AI 기능에 접근할 수 있음을 의미합니다.
  2. 사용의 용이성: 젬마는 네이티브 케라스(Keras) 3.0, JAX, PyTorch, TensorFlow 등 주요 프레임워크와의 호환성을 제공합니다. 이러한 통합성은 소규모 기업이나 스타트업이 기존에 사용하던 도구나 프레임워크 내에서 AI 모델을 쉽게 통합하고 사용할 수 있게 해줍니다.
  3. 혁신과 경쟁력 강화: AI 기술을 활용하면 작업의 자동화, 데이터 분석, 사용자 경험 개선 등 다양한 방면에서 혁신을 도모할 수 있습니다. 젬마를 활용함으로써, 소규모 기업도 맞춤형 솔루션을 개발하고 시장에서 경쟁력을 갖출 수 있습니다.
  4. 커뮤니티와 협업: 오픈 소스 모델인 젬마는 전 세계 개발자와 연구자들의 커뮤니티와 협업을 가능하게 합니다. 이는 소규모 기업이나 스타트업이 자신들의 문제에 대한 해결책을 찾거나, AI 모델을 개선하고 확장하는 데 있어 다른 전문가들과 지식과 경험을 공유할 수 있게 해줍니다.
  5. 유연성: 젬마는 다양한 용도로 활용될 수 있는 유연성을 가지고 있습니다. 예를 들어, 고객 서비스 자동화, 시장 분석, 제품 추천 시스템 등 다양한 분야에서 개별 기업의 요구에 맞춘 솔루션을 개발할 수 있습니다.

젬마의 성능 테스트 결과에 대해 알아보겠습니다

  • 수학: Gemma는 GSM8K 및 MATH와 같은 수학적 추론 테스트에서 탁월하며 Codex 및 Anthropic의 Claude와 같은 모델을 10포인트 이상 능가합니다.
  • 코딩: Gemma는 코드에 대해 특별히 교육을 받지 않았음에도 불구하고 MBPP와 같은 프로그래밍 벤치마크에서 Codex의 성능과 일치하거나 그 이상입니다.
  • 대화: Gemma는 인간 선호도 테스트에서 Anthropic의 Mistral-51.7B보다 7%의 승률로 강력한 대화 능력을 보여줍니다.
  • 추리: ARC 및 Winogrande와 같은 추론이 필요한 작업에서 Gemma는 다른 7B 모델보다 5~10점 더 나은 성능을 보입니다.

AI의 신뢰성, 해석 가능성, 제어 가능성을 개선하기 위한 작업은 여전히 ​​남아 있습니다. 수학과 같은 영역은 이러한 지속적인 격차를 강조하며, Gemma는 MMLU에서 64%의 점수를 얻었고 인간의 수행 능력은 89%로 추정됩니다.

이로인해 새로운 AI 커뮤니티 전반에 걸쳐 새로운 진전이 이루어질 것이라 예상 합니다 .

  • 접근성 : Gemma는 이전에 자체 LLM 교육을 위해 높은 컴퓨팅/데이터 비용에 직면했던 조직이 최첨단 NLP를 구축하는 장벽을 줄입니다.
  • 새로운 응용 프로그램 : 사전 훈련되고 조정된 체크포인트를 오픈 소스화함으로써 DeepMind는 교육, 과학, 접근성과 같은 분야에서 유용한 앱을 더 쉽게 개발할 수 있도록 지원합니다.
  • 사용자 지정 : 개발자는 독점 데이터에 대한 지속적인 교육을 통해 산업 또는 도메인별 애플리케이션에 맞게 Gemma를 추가로 맞춤화할 수 있습니다.
  • 연구: Gemma와 같은 개방형 모델은 현재 NLP 시스템의 투명성과 감사를 강화하여 미래 연구 방향을 밝힙니다.
  • 혁신: Gemma와 같은 강력한 기본 모델을 사용하면 편향 완화, 사실성, AI 안전성과 같은 영역의 발전이 가속화될 것입니다.

위험은 여전히 ​​남아 있지만 DeepMind의 기술적, 윤리적 노력은 Gemma의 이점이 잠재적인 위험보다 크다라는것을 의미합니다 . Gemma는 사람들에게 가져다줄 혜택은 소규모 기업과 스타트업 기업에게까지 AI에 한 걸음 더 다가가 새로운 비지니스의 모형을 제시합니다 .

DeepMind의 젬마 오픈 소스를 통해 모든 사람에게 Gemma의 기능을 제공함으로써 사회적 이익을 위한 책임 있는 AI 개발에 박차를 가하기를 희망합니다.

모두들 좋은 하루 되시길 기원합니다

구글 젬마 블로그 바로가기

Share this content:

댓글을 남겨주세요!

AI Lab에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

Continue reading