O que é Gemma?
Gemma é uma família de modelos abertos, leves e de última geração construídos a partir da mesma pesquisa e tecnologia utilizadas para criar os modelos Gemini.
Como posso usar Gemma?
Você pode usar Gemma para uma variedade de tarefas de processamento de linguagem natural. Os modelos Gemma alcançam resultados excepcionais nos benchmarks em seus tamanhos de 2B e 7B, superando até mesmo alguns modelos abertos maiores. Com o Keras 3.0, você pode desfrutar de compatibilidade perfeita com JAX, TensorFlow e PyTorch, capacitando você a escolher e alternar facilmente entre frameworks, dependendo da sua tarefa.
Recursos do Gemma
Responsável por design
Os modelos Gemma incorporam medidas abrangentes de segurança, garantindo soluções de IA responsáveis e confiáveis por meio de conjuntos de dados curados e ajustes rigorosos.
Desempenho incomparável em tamanho
Os modelos Gemma alcançam resultados excepcionais nos benchmarks em seus tamanhos de 2B e 7B, superando até mesmo alguns modelos abertos maiores.
Flexível em frameworks
Com o Keras 3.0, você pode desfrutar de compatibilidade perfeita com JAX, TensorFlow e PyTorch, capacitando você a escolher e alternar facilmente entre frameworks, dependendo da sua tarefa.
Variantes do Gemma
Gemma
Os modelos Gemma são modelos de linguagem grandes, leves, de texto para texto, somente decodificadores, treinados em um enorme conjunto de dados de texto, código e conteúdo matemático para uma variedade de tarefas de processamento de linguagem natural.
CodeGemma
CodeGemma traz capacidades poderosas de conclusão e geração de código em tamanhos adequados para o seu computador local.
PaliGemma
PaliGemma é um modelo aberto de linguagem de visão projetado para um desempenho de ajuste fino líder de classe em uma ampla gama de tarefas de linguagem de visão.
RecurrentGemma
RecurrentGemma é um modelo tecnicamente distinto que alavanca redes neurais recorrentes e atenção local para melhorar a eficiência da memória.
Guias de início rápido para desenvolvedores
Você pode encontrar guias de início rápido no Kaggle, Google Cloud e Colab.