Gemma-Modelle: Übersicht

Gemma ist eine Familie leichter, hochmoderner offener Modelle, die auf derselben Forschung und Technologie basieren, die auch zum Erstellen der Gemini-Modelle verwendet werden. Gemma wurde von Google DeepMind und anderen Teams bei Google entwickelt und ist nach dem lateinischen gemma benannt, was „Edelstein“ bedeutet. Die Gewichtungen des Gemma-Modells werden von Entwicklertools unterstützt, die Innovationen, Zusammenarbeit und den verantwortungsvollen Einsatz von künstlicher Intelligenz (KI) fördern.

Die Gemma-Modelle können in Ihren Anwendungen und auf Ihrer Hardware, Ihren Mobilgeräten oder gehosteten Diensten ausgeführt werden. Sie können diese Modelle auch mithilfe von Abstimmungstechniken anpassen, sodass sie bei der Ausführung von Aufgaben, die für Sie und Ihre Nutzer relevant sind, besonders gut geeignet sind. Gemma-Modelle schöpfen die Inspiration und technologische Herkunft aus der Gemini-Modellfamilie und wurden für die Erweiterung und Weiterentwicklung der KI-Entwicklungs-Community entwickelt.

Sie können Gemma-Modelle zur Textgenerierung verwenden, diese Modelle aber auch abstimmen, um sich auf die Ausführung bestimmter Aufgaben zu spezialisieren. Abgestimmte Gemma-Modelle können Ihnen und Ihren Nutzern gezieltere und effizientere Generative AI-Lösungen bieten. Sehen Sie sich unseren Leitfaden zur Feinabstimmung mit LoRA an und probieren Sie es aus! Wir sind gespannt, was du mit Gemma machst!

Diese Entwicklerdokumentation bietet einen Überblick über die verfügbaren Gemma-Modelle sowie Entwicklungsleitfäden für deren Anwendung und Feinabstimmung für bestimmte Anwendungen.

Modellgrößen und -funktionen

Gemma-Modelle sind in verschiedenen Größen verfügbar. So können Sie generative KI-Lösungen basierend auf Ihren verfügbaren Rechenressourcen, den benötigten Funktionen und der Umgebung erstellen, in der Sie sie ausführen möchten. Wenn Sie nicht sicher sind, wo Sie anfangen sollen, probieren Sie die Parametergröße von 2 Milliarden aus, um die Ressourcenanforderungen zu senken und die Bereitstellung des Modells flexibler zu gestalten.

Parametergröße Eingabe Ausgabe Abgestimmte Versionen Vorhergesehene Plattformen
2 Milliarden Text Text
  • Vortrainiert
  • Anleitungsabgestimmt
Mobilgeräte und Laptops
7 Mrd. Text Text
  • Vortrainiert
  • Anleitungsabgestimmt
Computer und kleine Server

Mit der mehrseitigen Keras 3.0-Funktion können Sie diese Modelle auf TensorFlow, JAX und PyTorch ausführen oder sogar die nativen Implementierungen von JAX (basierend auf dem FLAX-Framework) und PyTorch verwenden.

Sie können die Gemma-Modelle unter Kaggle Models herunterladen.

Abgestimmte Modelle

Sie können das Verhalten von Gemma-Modellen mit zusätzlichem Training ändern, damit das Modell bei bestimmten Aufgaben besser abschneidet. Dieser Vorgang wird als Modellabstimmung bezeichnet. Dieses Verfahren verbessert die Fähigkeit eines Modells, gezielte Aufgaben auszuführen, kann aber auch dazu führen, dass sich das Modell bei anderen Aufgaben verschlechtert. Aus diesem Grund sind Gemma-Modelle sowohl in abgestimmten als auch in vortrainierten Versionen verfügbar:

  • Vortrainiert – Diese Versionen des Modells werden nicht mit bestimmten Aufgaben oder Anweisungen über das Gemma-Kerndatentrainings-Dataset hinaus trainiert. Sie sollten diese Modelle nur bereitstellen, wenn Sie sie abgestimmt haben.
  • Anweisung abgestimmt – Diese Versionen des Modells werden mit Interaktionen in menschlicher Sprache trainiert und können auf Konversationseingaben reagieren, ähnlich wie ein Chatbot.

Mehr erfahren

Sehen Sie sich diese Leitfäden an, um mit Gemma Lösungen zu entwickeln: