Gemmaとは何ですか?
Gemmaは、ジェミニモデルを作成する際に使用された同じ研究と技術から構築された軽量で最先端のオープンモデルのファミリーです。
Gemmaをどのように使用できますか?
Gemmaはさまざまな自然言語処理タスクに使用できます。 Gemmaモデルは、2Bおよび7Bのサイズで優れたベンチマーク結果を達成し、一部のより大きなオープンモデルを上回る性能を発揮します。 Keras 3.0を使用すると、JAX、TensorFlow、およびPyTorchとシームレスに互換性があり、タスクに応じてフレームワークを簡単に選択して切り替えることができます。
Gemmaの特徴
デザインによる責任
Gemmaモデルには包括的な安全対策が組み込まれており、キュレーションされたデータセットと厳密な調整を通じて、責任ある信頼性の高いAIソリューションを実現しています。
サイズでの無類のパフォーマンス
Gemmaモデルは、2Bおよび7Bのサイズで優れたベンチマーク結果を達成し、一部のより大きなオープンモデルを上回る性能を発揮します。
フレームワークの柔軟性
Keras 3.0を使用すると、JAX、TensorFlow、およびPyTorchとシームレスに互換性があり、タスクに応じてフレームワークを簡単に選択して切り替えることができます。
Gemmaのバリアント
Gemma
Gemmaモデルは、大規模なテキスト、コード、数学コンテンツの巨大なデータセットでトレーニングされた、軽量でテキスト対テキスト、デコーダー専用の大規模言語モデルであり、さまざまな自然言語処理タスクに使用されます。
CodeGemma
CodeGemmaは、ローカルコンピュータに適したサイズで、強力なコードの補完および生成機能を提供します。
PaliGemma
PaliGemmaは、幅広いビジョン言語タスクでのクラスをリードするファインチューニングパフォーマンスを実現するよう設計されたオープンなビジョン言語モデルです。
RecurrentGemma
RecurrentGemmaは、再帰ニューラルネットワークとローカルアテンションを活用してメモリ効率を向上させる技術的に異なるモデルです。
開発者向けクイックスタートガイド
Kaggle、Google Cloud、Colabでクイックスタートガイドを見つけることができます。