Qu'est-ce que Gemma ?
Gemma est une famille de modèles ouverts légers et à la pointe de la technologie, construits à partir des mêmes recherches et technologies utilisées pour créer les modèles Gemini.
Comment puis-je utiliser Gemma ?
Vous pouvez utiliser Gemma pour une variété de tâches de traitement du langage naturel. Les modèles Gemma obtiennent des résultats exceptionnels aux benchmarks à leurs tailles de 2B et 7B, surpassant même certains modèles ouverts plus grands. Avec Keras 3.0, vous pouvez profiter d'une compatibilité transparente avec JAX, TensorFlow et PyTorch, vous permettant de choisir et de changer de frameworks facilement en fonction de votre tâche.
Caractéristiques de Gemma
Responsable par conception
Les modèles Gemma intègrent des mesures de sécurité complètes, garantissant des solutions d'IA responsables et fiables grâce à des ensembles de données sélectionnés et à un réglage rigoureux.
Performances inégalées en fonction de la taille
Les modèles Gemma obtiennent des résultats exceptionnels aux benchmarks à leurs tailles de 2B et 7B, surpassant même certains modèles ouverts plus grands.
Flexible en termes de framework
Avec Keras 3.0, vous pouvez profiter d'une compatibilité transparente avec JAX, TensorFlow et PyTorch, vous permettant de choisir et de changer de frameworks facilement en fonction de votre tâche.
Variantes de Gemma
Gemma
Les modèles Gemma sont des modèles de langage volumineux légers, de type texte à texte, à décodeur uniquement, formés sur un ensemble massif de textes, de code et de contenus mathématiques pour une variété de tâches de traitement du langage naturel.
CodeGemma
CodeGemma offre de puissantes capacités de complétion et de génération de code dans des tailles adaptées à votre ordinateur local.
PaliGemma
PaliGemma est un modèle ouvert de vision-langage conçu pour offrir des performances de réglage fines de premier plan sur une large gamme de tâches de vision-langage.
RecurrentGemma
RecurrentGemma est un modèle techniquement distinct qui exploite les réseaux neuronaux récurrents et l'attention locale pour améliorer l'efficacité de la mémoire.
Guides de démarrage rapide pour les développeurs
Vous pouvez trouver des guides de démarrage rapide sur Kaggle, Google Cloud et Colab.