Rregullimi i imët me Gemini API

Strategjitë e projektimit të menjëhershëm, si nxitja me disa goditje mund të mos prodhojnë gjithmonë rezultatet që ju nevojiten. Rregullimi i imët është një proces që mund të përmirësojë performancën e modelit tuaj në detyra specifike ose të ndihmojë modelin t'u përmbahet kërkesave specifike të prodhimit kur udhëzimet nuk janë të mjaftueshme dhe ju keni një sërë shembujsh që demonstrojnë rezultatet që dëshironi.

Kjo faqe ofron një përmbledhje konceptuale të rregullimit të modelit të tekstit pas shërbimit të tekstit Gemini API. Kur të jeni gati për të filluar akordimin, provoni tutorialin e akordimit . Nëse dëshironi një hyrje më të përgjithshme për personalizimin e LLM-ve për raste të veçanta përdorimi, shikoni LLM-të: Rregullimi i imët, distilimi dhe inxhinieria e shpejtëkursin e përplasjes së mësimit të makinerisë .

Si funksionon rregullimi i imët

Qëllimi i rregullimit të imët është të përmirësojë më tej performancën e modelit për detyrën tuaj specifike. Rregullimi i imët funksionon duke i siguruar modelit një grup të dhënash trajnimi që përmban shumë shembuj të detyrës. Për detyrat e veçanta, mund të merrni përmirësime të rëndësishme në performancën e modelit duke e akorduar modelin në një numër modest shembujsh. Ky lloj akordimi i modelit nganjëherë quhet akordim i mbikëqyrur , për ta dalluar atë nga llojet e tjera të akordimit të imët.

Të dhënat tuaja të trajnimit duhet të strukturohen si shembuj me hyrje të menjëhershme dhe rezultate të pritshme të përgjigjes. Ju gjithashtu mund të sintonizoni modelet duke përdorur të dhëna shembulli drejtpërdrejt në Google AI Studio. Qëllimi është të mësojmë modelin të imitojë sjelljen ose detyrën e dëshiruar, duke i dhënë atij shumë shembuj që ilustrojnë atë sjellje ose detyrë.

Kur kryeni një punë akordimi, modeli mëson parametra shtesë që e ndihmojnë atë të kodojë informacionin e nevojshëm për të kryer detyrën e kërkuar ose për të mësuar sjelljen e kërkuar. Këta parametra mund të përdoren më pas në kohën e përfundimit. Rezultati i punës së akordimit është një model i ri, i cili është efektivisht një kombinim i parametrave të mësuar rishtas dhe modelit origjinal.

Përgatitni të dhënat tuaja

Përpara se të filloni rregullimin e imët, ju nevojitet një grup të dhënash për të sintonizuar modelin. Për performancën më të mirë, shembujt në grupin e të dhënave duhet të jenë të cilësisë së lartë, të larmishëm dhe përfaqësues të inputeve dhe outputeve reale.

Formati

Shembujt e përfshirë në të dhënat tuaja duhet të përputhen me trafikun e pritur të prodhimit. Nëse grupi juaj i të dhënave përmban formatim specifik, fjalë kyçe, udhëzime ose informacione, të dhënat e prodhimit duhet të formatohen në të njëjtën mënyrë dhe të përmbajnë të njëjtat udhëzime.

Për shembull, nëse shembujt në grupin tuaj të të dhënave përfshijnë një "question:" dhe një "context:" , trafiku i prodhimit duhet gjithashtu të formatohet për të përfshirë një "question:" dhe një "context:" në të njëjtin rend siç shfaqet në shembujt e grupit të të dhënave. Nëse përjashtoni kontekstin, modeli nuk mund ta njohë modelin, edhe nëse pyetja e saktë ishte në një shembull në grupin e të dhënave.

Si një shembull tjetër, këtu janë të dhënat e trajnimit të Python për një aplikacion që gjeneron numrin tjetër në një sekuencë:

training_data = [
  {"text_input": "1", "output": "2"},
  {"text_input": "3", "output": "4"},
  {"text_input": "-3", "output": "-2"},
  {"text_input": "twenty two", "output": "twenty three"},
  {"text_input": "two hundred", "output": "two hundred one"},
  {"text_input": "ninety nine", "output": "one hundred"},
  {"text_input": "8", "output": "9"},
  {"text_input": "-98", "output": "-97"},
  {"text_input": "1,000", "output": "1,001"},
  {"text_input": "10,100,000", "output": "10,100,001"},
  {"text_input": "thirteen", "output": "fourteen"},
  {"text_input": "eighty", "output": "eighty one"},
  {"text_input": "one", "output": "two"},
  {"text_input": "three", "output": "four"},
  {"text_input": "seven", "output": "eight"},
]

Shtimi i një urdhri ose preambule për çdo shembull në grupin tuaj të të dhënave mund të ndihmojë gjithashtu në përmirësimin e performancës së modelit të akorduar. Vini re, nëse një kërkesë ose preambulë përfshihet në grupin tuaj të të dhënave, duhet të përfshihet gjithashtu në kërkesën për modelin e sintonizuar në kohën e përfundimit.

Kufizimet

Shënim: Rregullimi i saktë i grupeve të të dhënave për Gemini 1.5 Flash kanë kufizimet e mëposhtme:

  • Madhësia maksimale e hyrjes për shembull është 40,000 karaktere.
  • Madhësia maksimale e daljes për shembull është 5000 karaktere.

Madhësia e të dhënave të trajnimit

Ju mund të rregulloni një model me më pak se 20 shembuj. Të dhënat shtesë në përgjithësi përmirësojnë cilësinë e përgjigjeve. Ju duhet të synoni midis 100 dhe 500 shembuj, në varësi të aplikacionit tuaj. Tabela e mëposhtme tregon madhësitë e rekomanduara të të dhënave për rregullimin e një modeli teksti për detyra të ndryshme të zakonshme:

Detyrë Numri i shembujve në grupin e të dhënave
Klasifikimi 100+
Përmbledhje 100-500+
Kërkimi i dokumenteve 100+

Ngarkoni të dhënat tuaja të akordimit

Të dhënat ose kalohen në linjë duke përdorur API ose përmes skedarëve të ngarkuar në Google AI Studio.

Për të përdorur bibliotekën e klientit, jepni skedarin e të dhënave në thirrjen createTunedModel . Kufiri i madhësisë së skedarit është 4 MB. Shihni fillimin e shpejtë të rregullimit të imët me Python për të filluar.

Për të thirrur API-në REST duke përdorur cURL, jepni shembuj trajnimi në format JSON në argumentin training_data . Shikoni fillimin e shpejtë të akordimit me cURL për të filluar.

Cilësimet e avancuara të akordimit

Kur krijoni një punë akordimi, mund të specifikoni cilësimet e avancuara të mëposhtme:

  • Epokat: Një kalim i plotë trajnimi mbi të gjithë grupin e trajnimit në mënyrë që çdo shembull të jetë përpunuar një herë.
  • Madhësia e grupit: Grupi i shembujve të përdorur në një përsëritje trajnimi. Madhësia e grupit përcakton numrin e shembujve në një grup.
  • Shkalla e të mësuarit: Një numër me pikë lundruese që i tregon algoritmit se sa fort duhet të rregullojë parametrat e modelit në çdo përsëritje. Për shembull, një shkallë e të mësuarit prej 0.3 do të rregullonte peshat dhe paragjykimet tre herë më fuqishëm sesa një normë e të mësuarit prej 0.1. Normat e larta dhe të ulëta të të mësuarit kanë kompromiset e tyre unike dhe duhet të rregullohen bazuar në rastin tuaj të përdorimit.
  • Shumëzuesi i shkallës së të mësuarit: Shumëzuesi i shkallës modifikon shkallën fillestare të të mësuarit të modelit. Një vlerë prej 1 përdor normën origjinale të të mësuarit të modelit. Vlerat më të mëdha se 1 rrisin shkallën e të mësuarit dhe vlerat ndërmjet 1 dhe 0 ulin shkallën e të mësuarit.

Tabela e mëposhtme tregon konfigurimet e rekomanduara për rregullimin e një modeli themeli:

Hiperparametri Vlera e paracaktuar Rregullime të rekomanduara
Epoka 5

Nëse humbja fillon të rritet para 5 epokave, përdorni një vlerë më të vogël.

Nëse humbja është konvergjente dhe nuk duket se është pllajë, përdorni një vlerë më të lartë.

Madhësia e grupit 4
Shkalla e të mësuarit 0.001 Përdorni një vlerë më të vogël për grupe të dhënash më të vogla.

Kurba e humbjes tregon se sa shumë devijon parashikimi i modelit nga parashikimet ideale në shembujt e trajnimit pas çdo epoke. Në mënyrë ideale, ju dëshironi të ndaloni stërvitjen në pikën më të ulët të kurbës, pikërisht përpara se të ngrihet. Për shembull, grafiku i mëposhtëm tregon lakoren e humbjes që shtrihet rreth epokës 4-6 që do të thotë se mund ta vendosni parametrin Epoch në 4 dhe të merrni të njëjtën performancë.

Grafiku i linjës që tregon kurbën e humbjes për modelin. Vija bie në mes të epoka e parë dhe e dytë, pastaj bie ndjeshëm në pothuajse 0 dhe nivelohet pas tre epokave.

Kontrolloni statusin e punës së akordimit

Mund të kontrolloni statusin e punës suaj të akordimit në Google AI Studio nën skedën My Library ose duke përdorur veçorinë e metadata të modelit të sintonizuar në Gemini API.

Zgjidhja e gabimeve

Ky seksion përfshin këshilla se si të zgjidhni gabimet që mund të hasni gjatë krijimit të modelit tuaj të akorduar.

Autentifikimi

Sintonizimi duke përdorur API-në dhe bibliotekën e klientit kërkon vërtetim. Mund të konfiguroni vërtetimin duke përdorur ose një çelës API (rekomandohet) ose duke përdorur kredencialet OAuth. Për dokumentacionin mbi konfigurimin e një çelësi API, shihni Konfiguro tastin API .

Nëse shihni një gabim 'PermissionDenied: 403 Request had insufficient authentication scopes' , mund t'ju duhet të konfiguroni vërtetimin e përdoruesit duke përdorur kredencialet OAuth. Për të konfiguruar kredencialet OAuth për Python, vizitoni tutorialin tonë të konfigurimit të OAuth .

Modele të anuluara

Mund të anuloni një punë rregullimi të imët në çdo kohë përpara përfundimit të punës. Megjithatë, performanca e konkluzionit të një modeli të anuluar është e paparashikueshme, veçanërisht nëse puna e akordimit anulohet herët në trajnim. Nëse e anuloni sepse dëshironi të ndaloni trajnimin në një epokë më të hershme, duhet të krijoni një punë të re akordimi dhe ta vendosni epokën në një vlerë më të ulët.

Kufizimet e modeleve të akorduara

Shënim: Modelet e akorduara kanë kufizimet e mëposhtme:

  • Kufiri i hyrjes së një modeli të akorduar Gemini 1.5 Flash është 40,000 karaktere.
  • Modaliteti JSON nuk mbështetet me modelet e sintonizuara.
  • Mbështetet vetëm futja e tekstit.

Çfarë është më pas

Filloni me mësimet e rregullimit të imët: