Gemma è una famiglia di modelli aperti, leggeri e all'avanguardia, realizzati
la stessa ricerca e tecnologia utilizzate per creare
modelli Gemini.
Sviluppata da Google DeepMind e da altri team di Google, Gemma prende il nome da
latino gemma, che significa pietra preziosa. I pesi del modello Gemma
supportati da strumenti per sviluppatori che promuovono l'innovazione, la collaborazione
sull'uso responsabile dell'intelligenza artificiale (IA).
I modelli Gemma sono disponibili per l'esecuzione in
alle tue applicazioni e su hardware, dispositivi mobili o servizi in hosting. Tu
puoi anche personalizzare questi modelli utilizzando tecniche di ottimizzazione per eccellere in
eseguendo attività specifiche importanti per te e i tuoi utenti. I modelli Gemma disegnano
ispirazione e derivazione tecnologica dalla famiglia di modelli Gemini e sono
per consentire alla community di sviluppo dell'IA di estendersi e andare oltre.
Tutto pronto per iniziare? Inizia a utilizzare i modelli Gemma.
Modelli preaddestrati e ottimizzati per le istruzioni
Puoi modificare il comportamento dei modelli Gemma con addestramento aggiuntivo
in modo che il modello funzioni meglio
su attività specifiche. Questo processo è chiamato modello
ottimizzazione. Questa tecnica migliora la capacità di un modello di eseguire
ad attività mirate, può anche far peggiorare il modello in altre attività. Per
per questo motivo, i modelli Gemma sono disponibili sia nella versione ottimizzata per
versioni preaddestrate:
Ottimizzato per le istruzioni (IT): queste versioni del modello vengono addestrate con
interazioni con il linguaggio umano e può rispondere a input conversazionali, simili
a un bot di chat.
Preaddestrato (PT): queste versioni del modello non sono addestrate sulla base
istruzioni o attività specifiche che vanno oltre il set di dati
ad base di Gemma. Tu
non dovrebbero eseguire il deployment di questi modelli in applicazioni senza
dell'ottimizzazione.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Mancano le informazioni di cui ho bisogno","missingTheInformationINeed","thumb-down"],["Troppo complicato/troppi passaggi","tooComplicatedTooManySteps","thumb-down"],["Obsoleti","outOfDate","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Problema relativo a esempi/codice","samplesCodeIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2024-08-05 UTC."],[],[],null,["# Gemma models overview\n\nGemma is a family of lightweight, state-of-the-art open models built from the\nsame research and technology used to create the\n[Gemini](https://deepmind.google/technologies/gemini/#introduction) models.\nDeveloped by Google DeepMind and other teams across Google, Gemma is named after\nthe Latin *gemma*, meaning precious stone. The Gemma model weights are\nsupported by developer tools that promote innovation, collaboration, and the\nresponsible use of artificial intelligence (AI). You can get multiple variations\nof Gemma for general and specific use cases:\n\n- [**Gemma 3**](/gemma/docs/core): Solve a wide variety of generative AI tasks with text and image input, support for over 140 languages, and long 128K context window.\n- [**CodeGemma**](/gemma/docs/codegemma): Complete programming tasks with this lightweight, coding-focused generative model.\n- [**PaliGemma 2**](/gemma/docs/paligemma): Build visual data processing AI solutions with a model that's built to be fine-tuned for your image data processing applications and available in multiple resolutions.\n- [**ShieldGemma 2**](/gemma/docs/core): Evaluate the safety of generative AI models' input and output against defined policies.\n\nMany more Gemma variants are available from Google and our AI developer\ncommunity. Check them out on\n[Kaggle Models](https://www.kaggle.com/models?query=gemma) and\n[Hugging Face](https://huggingface.co/models?search=google/gemma).\nGet inspired by what our community members have built with Gemma in the\n[Gemmaverse](/gemma/gemmaverse).\n\nThe Gemma models are available to run in\nyour applications and on your hardware, mobile devices, or hosted services. You\ncan also customize these models using tuning techniques so that they excel at\nperforming specific tasks that matter to you and your users. Gemma models draw\ninspiration and technological lineage from the Gemini family of models, and are\nmade for the AI development community to extend and take further.\n\nReady to begin? **[Get started](/gemma/docs/get_started)** with Gemma models!"]]