Les stratégies de conception de requêtes telles que les requêtes de plans peu nombreuses ne produisent pas toujours les résultats dont vous avez besoin. Utilisez le réglage de modèle pour améliorer les performances d'un modèle sur des tâches spécifiques, ou pour aider le modèle à respecter des exigences de sortie spécifiques lorsque les instructions ne sont pas suffisantes et que vous disposez d'un ensemble d'exemples illustrant les résultats que vous souhaitez.
Cette page fournit des conseils sur le réglage du modèle de texte derrière le service de texte de l'API Gemini.
Fonctionnement du réglage du modèle
L'objectif du réglage de modèle est d'améliorer davantage ses performances pour une tâche spécifique. Pour affiner les réglages d'un modèle, fournissez-lui un ensemble de données d'entraînement contenant de nombreux exemples de la tâche. Pour les tâches de niche, vous pouvez obtenir des améliorations significatives des performances du modèle en ajustant le modèle sur un petit nombre d'exemples.
Vos données d'entraînement doivent être structurées comme des exemples avec des entrées de requête et des sorties de réponse attendues. Vous pouvez également régler des modèles à l'aide d'exemples de données directement dans Google AI Studio. L'objectif est d'apprendre au modèle à imiter le comportement ou la tâche souhaités, en lui donnant de nombreux exemples illustrant ce comportement ou cette tâche.
Lorsque vous exécutez une tâche de réglage, le modèle apprend des paramètres supplémentaires qui l'aident à encoder les informations nécessaires pour effectuer la tâche souhaitée ou apprendre le comportement souhaité. Ces paramètres peuvent ensuite être utilisés au moment de l'inférence. Le résultat de la tâche de réglage est un nouveau modèle, c'est-à-dire une combinaison des nouveaux paramètres appris et du modèle d'origine.
Modèles compatibles
Les modèles de fondation suivants sont compatibles avec le réglage de modèles. Seule la saisie semi-automatique en un seul tour est acceptée.
Gemini 1.0 Pro
text-bison-001
Workflow de réglage du modèle
Le workflow de réglage du modèle est le suivant:
- Préparez votre ensemble de données.
- Importez l'ensemble de données si vous utilisez Google AI Studio.
- Démarrez une tâche de réglage.
Une fois le réglage du modèle terminé, le nom du modèle réglé s'affiche. Vous pouvez également la sélectionner dans Google AI Studio comme modèle à utiliser lors de la création d'une requête.
Préparer votre ensemble de données
Avant de commencer le réglage, vous avez besoin d'un ensemble de données sur lequel régler le modèle. Pour des performances optimales, les exemples de l'ensemble de données doivent être de haute qualité, variés et représentatifs des entrées et sorties réelles.
Format
Les exemples de votre ensemble de données doivent correspondre au trafic de production attendu. Si votre ensemble de données contient une mise en forme, des mots clés, des instructions ou des informations spécifiques, les données de production doivent utiliser le même format et contenir les mêmes instructions.
Par exemple, si les exemples de votre ensemble de données incluent "question:"
et "context:"
, le trafic de production doit également être mis en forme de manière à inclure "question:"
et "context:"
dans le même ordre que les exemples de l'ensembles de données. Si vous excluez le contexte, le modèle ne peut pas reconnaître la structure, même si la question exacte se trouvait dans un exemple de l'ensemble de données.
L'ajout d'une requête ou d'un préambule à chaque exemple de votre ensemble de données peut également contribuer à améliorer les performances du modèle réglé. Notez que si une invite ou un préambule est inclus dans votre ensemble de données, il doit également être inclus dans la requête du modèle réglé au moment de l'inférence.
Taille des données d'entraînement
Vous pouvez régler un modèle avec seulement 20 exemples, et des données supplémentaires améliorent généralement la qualité des réponses. Vous devez cibler entre 100 et 500 exemples en fonction de votre application. Le tableau suivant indique les tailles d'ensembles de données recommandées pour régler un modèle de texte en fonction de diverses tâches courantes:
Tâche | Nombre d'exemples dans l'ensemble de données |
---|---|
Classification | + de 100 |
Synthèse | 100-500+ |
Rechercher des documents | + de 100 |
Importer l'ensemble de données de réglage
Les données sont transmises de manière intégrée à l'aide de l'API ou via des fichiers importés dans Google AI Studio.
Utilisez le bouton Import (Importer) pour importer des données à partir d'un fichier ou choisissez une invite structurée avec des exemples à importer en tant qu'ensemble de données de réglage.
Bibliothèque cliente
Pour utiliser la bibliothèque cliente, fournissez le fichier de données dans l'appel createTunedModel
.
La taille du fichier ne doit pas dépasser 4 Mo. Pour commencer, consultez le guide de démarrage rapide pour les réglages avec Python.
Curl
Pour appeler l'API REST à l'aide de Curl, fournissez des exemples d'entraînement au format JSON à l'argument training_data
. Pour commencer, consultez le guide de démarrage rapide avec Curl.
Paramètres de réglage avancés
Lorsque vous créez une tâche de réglage, vous pouvez spécifier les paramètres avancés suivants:
- Époques : pass d'entraînement complet sur l'ensemble de l'ensemble d'entraînement de sorte que chaque exemple soit traité une seule fois.
- Taille de lot : ensemble d'exemples utilisés dans une itération d'entraînement. La taille de lot détermine le nombre d'exemples dans un lot.
- Taux d'apprentissage : nombre à virgule flottante qui indique à l'algorithme la force d'ajustement des paramètres du modèle à chaque itération. Par exemple, un taux d'apprentissage de 0,3 ajusterait les pondérations et les biais trois fois plus qu'un taux d'apprentissage de 0,1. Les taux d'apprentissage élevés et faibles ont leurs propres compromis et doivent être ajustés en fonction de votre cas d'utilisation.
- Multiplicateur du taux d'apprentissage : le multiplicateur de taux modifie le taux d'apprentissage d'origine du modèle. La valeur 1 utilise le taux d'apprentissage d'origine du modèle. Les valeurs supérieures à 1 augmentent le taux d'apprentissage, et les valeurs comprises entre 1 et 0 le réduisent.
Configurations recommandées
Le tableau suivant présente les configurations recommandées pour régler un modèle de fondation:
Hyperparamètre | Valeur par défaut | Ajustements recommandés |
---|---|---|
Époque | 5 |
Si la perte commence à stagner avant cinq époques, utilisez une valeur inférieure. Si la perte converge et ne semble pas stagner, utilisez une valeur plus élevée. |
Taille de lot | 4 | |
Taux d'apprentissage | 0,001 | Utilisez une valeur plus faible pour les ensembles de données plus petits. |
La courbe de fonction de perte indique dans quelle mesure la prédiction du modèle s'écarte des prédictions idéales des exemples d'entraînement après chaque époque. Idéalement, vous devez arrêter l'entraînement au point le plus bas de la courbe, juste avant qu'elle ne stabilise. Par exemple, le graphique ci-dessous montre que la courbe de fonction de perte plafonne aux époques 4-6, ce qui signifie que vous pouvez définir le paramètre "Epoch" sur 4 pour obtenir les mêmes performances.
Vérifier l'état du job de réglage
Vous pouvez vérifier l'état de votre job de réglage dans l'interface utilisateur de Google AI Studio, dans l'onglet Ma bibliothèque ou en utilisant la propriété metadata
du modèle réglé dans l'API Gemini.
Résoudre les erreurs
Cette section contient des conseils sur la manière de résoudre les erreurs que vous pouvez rencontrer lors de la création d'un modèle réglé.
Ratio d'économie d'énergie (EER)
Le réglage à l'aide de l'API et de la bibliothèque cliente nécessite une authentification utilisateur. Une clé API seule ne suffit pas. Si une erreur 'PermissionDenied: 403 Request had
insufficient authentication scopes'
s'affiche, vous devez configurer l'authentification des utilisateurs.
Pour configurer les identifiants OAuth pour Python, consultez le tutoriel de configuration d'OAuth.
Modèles annulés
Vous pouvez annuler une tâche de réglage de modèle à tout moment avant la fin de l'opération. Cependant, les performances d'inférence d'un modèle annulé sont imprévisibles, en particulier si la tâche de réglage est annulée au début de l'entraînement. Si vous l'avez annulé parce que vous souhaitez arrêter l'entraînement à une époque antérieure, vous devez créer une autre tâche de réglage et définir l'époque sur une valeur inférieure.
Étapes suivantes
- Découvrez les bonnes pratiques en matière d'IA responsable.
- Commencez par consulter le guide de démarrage rapide pour le réglage avec Python ou le guide de démarrage rapide pour le réglage avec Curl.