EmbeddingGemma ist ein mehrsprachiges Texteinbettungsmodell mit 308 Millionen Parametern, das auf Gemma 3 basiert. Es ist für die Verwendung auf Alltagsgeräten wie Smartphones, Laptops und Tablets optimiert. Das Modell erstellt numerische Darstellungen von Text, die für nachgelagerte Aufgaben wie Informationsabruf, Suche nach semantischer Ähnlichkeit, Klassifizierung und Clustering verwendet werden können.
EmbeddingGemma umfasst die folgenden Hauptfunktionen:
- Mehrsprachiger Support: Umfassendes Verständnis von Sprachdaten, trainiert in über 100 Sprachen.
- Flexible Ausgabedimensionen: Mit Matryoshka Representation Learning (MRL) können Sie die Ausgabedimensionen zwischen 768 und 128 anpassen, um ein ausgewogenes Verhältnis zwischen Geschwindigkeit und Speicherplatz zu erzielen.
- Kontext mit 2.000 Tokens: Umfangreicher Eingabekontext für die Verarbeitung von Textdaten und Dokumenten direkt auf Ihrer Hardware.
- Speichereffizient: Mit Quantisierung kann es mit weniger als 200 MB RAM ausgeführt werden.
- Niedrige Latenz: Generative Embeddings in weniger als 22 ms auf EdgeTPU für schnelle und flüssige Anwendungen.
- Offline und sicher: Sie können Dokumente direkt auf Ihrer Hardware einbetten. Das funktioniert auch ohne Internetverbindung, damit sensible Daten geschützt bleiben.
Auf Hugging Face herunterladen Auf Kaggle herunterladen In Vertex aufrufen
Wie bei anderen Gemma-Modellen werden für EmbeddingGemma offene Gewichte bereitgestellt und es ist für die verantwortungsvolle kommerzielle Nutzung lizenziert. So können Sie es in Ihren eigenen Projekten und Anwendungen optimieren und bereitstellen.