Nëse jeni i ri për Binjakët, përdorimi i " Fillimeve të shpejta" është mënyra më e shpejtë për të filluar.
Megjithatë, ndërsa zgjidhjet tuaja gjeneruese të AI-së piqen, mund t'ju duhet një platformë për ndërtimin dhe vendosjen e aplikacioneve dhe zgjidhjeve gjeneruese të AI nga fundi në fund. Google Cloud ofron një ekosistem gjithëpërfshirës mjetesh për t'u mundësuar zhvilluesve të shfrytëzojnë fuqinë e AI gjeneruese, nga fazat fillestare të zhvillimit të aplikacionit deri te vendosja e aplikacionit, hostimi i aplikacioneve dhe administrimi i të dhënave komplekse në shkallë.
Platforma Vertex AI e Google Cloud ofron një sërë mjetesh MLOps që thjeshtojnë përdorimin, vendosjen dhe monitorimin e modeleve të AI për efikasitet dhe besueshmëri. Për më tepër, integrimet me bazat e të dhënave, mjetet DevOps, logging, monitorimin dhe IAM ofrojnë një qasje holistike për menaxhimin e të gjithë ciklit të jetës gjeneruese të AI.
Tabela e mëposhtme përmbledh ndryshimet kryesore midis Google AI dhe Vertex AI për t'ju ndihmuar të vendosni se cili opsion është i duhuri për rastin tuaj të përdorimit:
Veçoritë | Google AI Gemini API | Vertex AI Gemini API |
---|---|---|
Modelet e Binjakëve | Gemini 1.5 Flash, Gemini 1.5 Pro, Gemini 1.0 Pro, Gemini 1.0 Pro Vision (i vjetëruar) | Gemini 1.5 Flash, Gemini 1.5 Pro, Gemini 1.0 Pro, Gemini 1.0 Pro Vision, Gemini 1.0 Ultra, Gemini 1.0 Ultra Vision |
Regjistrohu | Llogaria e Google | Llogaria e Google Cloud (me marrëveshjen e kushteve dhe faturimin) |
Autentifikimi | Tasti API | Llogaria e shërbimit të Google Cloud |
Shesh lojërash të ndërfaqes së përdoruesit | Google AI Studio | Vertex AI Studio |
API dhe SDK | SDK-të e serverëve dhe celularëve/klientëve në internet
| SDK-të e serverëve dhe celularëve/klientëve në internet
|
Përdorimi pa kosto i API dhe SDK | Po, aty ku është e aplikueshme | 300 dollarë kredi në Google Cloud për përdoruesit e rinj |
Kuota (kërkesa për minutë) | Ndryshon në bazë të modelit dhe planit të çmimeve (shih informacionin e detajuar ) | Ndryshon në bazë të modelit dhe rajonit (shih informacionin e detajuar ) |
Mbështetja e ndërmarrjes | Nr | Çelësi i enkriptimit të klientit Re private virtuale Vendbanimi i të dhënave Qasja në transparencë Infrastrukturë e shkallëzueshme për pritjen e aplikacioneve Bazat e të dhënave dhe ruajtja e të dhënave |
MLOps | Nr | MLO të plota në Vertex AI (shembuj: vlerësimi i modelit, Monitorimi i modelit, Regjistri i modelit) |
Për të mësuar se cilat produkte, korniza dhe mjete janë më të përshtatshmet për ndërtimin e aplikacionit tuaj gjenerues të AI në Google Cloud, shihni Ndërtimi i një aplikacioni gjenerues të AI në Google Cloud .
Migroni nga Gemini në Google AI në Vertex AI
Nëse aplikacioni juaj përdor API-të e Google AI Gemini, do t'ju duhet të migroni në API-të e Vertex AI Gemini të Google Cloud.
Kur migroni:
Ju mund të përdorni projektin tuaj ekzistues të Google Cloud (të njëjtin që keni përdorur për të gjeneruar çelësin tuaj API) ose mund të krijoni një projekt të ri Google Cloud .
Rajonet e mbështetura mund të ndryshojnë midis Google AI Studio dhe Vertex AI. Shikoni listën e rajoneve të mbështetura për AI gjeneruese në Google Cloud .
Çdo model që keni krijuar në Google AI Studio duhet të ritrajnohet në Vertex AI.
Vini re se nëse doni të telefononi Gemini API direkt nga një aplikacion celular ose ueb i prodhimit, atëherë migroni për të përdorur Vertex AI në SDK-të e klientëve Firebase (të disponueshme për aplikacionet Swift, Android, Web dhe Flutter). Këto SDK të klientëve ofrojnë opsione kritike sigurie dhe veçori të tjera për prodhimin e aplikacioneve celulare dhe ueb.
Python: Migroni nga Google AI Gemini API në Vertex AI Gemini API
Seksionet e mëposhtme tregojnë copa kodi për t'ju ndihmuar të migroni kodin tuaj Python për të përdorur Vertex AI Gemini API.
Vertex AI Python SDK Setup
Në Vertex AI, nuk keni nevojë për një çelës API. Në vend të kësaj, Gemini në Vertex AI menaxhohet duke përdorur aksesin IAM, i cili kontrollon lejen për një përdorues, një grup ose një llogari shërbimi për të thirrur Gemini API përmes Vertex AI SDK.
Ndërsa ka shumë mënyra për të vërtetuar , metoda më e lehtë për vërtetimin në një mjedis zhvillimi është të instaloni Google Cloud CLI dhe më pas të përdorni kredencialet tuaja të përdoruesit për t'u identifikuar në CLI .
Për të bërë thirrje konkluzionesh te Vertex AI, duhet gjithashtu të siguroheni që llogaria juaj e përdoruesit ose e shërbimit të ketë rolin e përdoruesit të Vertex AI .
Shembull kodi për të instaluar klientin
Google AI | Vertex AI |
---|---|
# To install the Python SDK, use this CLI command: # pip install google-generativeai import google.generativeai as genai from google.generativeai import GenerativeModel API_KEY="API_KEY" genai.configure(api_key=API_KEY) | # To install the Python SDK, use this CLI command: # pip install google-cloud-aiplatform import vertexai from vertexai.generative_models import GenerativeModel, Image PROJECT_ID = "PROJECT_ID" REGION = "REGION" # e.g. us-central1 vertexai.init(project=PROJECT_ID, location=REGION) |
Shembull kodi për të gjeneruar tekst nga teksti i shpejtë
Google AI | Vertex AI |
---|---|
model = GenerativeModel("gemini-1.5-flash") response = model.generate_content("The opposite of hot is") print(response.text) # The opposite of hot is cold. | model = GenerativeModel("gemini-1.5-flash") response = model.generate_content("The opposite of hot is") print(response.text) # The opposite of hot is cold. |
Shembull kodi për të gjeneruar tekst nga teksti dhe imazhi
Google AI | Vertex AI |
---|---|
import PIL.Image multimodal_model = GenerativeModel("gemini-1.5-flash") image = PIL.Image.open("image.jpg") response = multimodal_model.generate_content(["What is this picture?", image]) print(response.text) # A cat is shown in this picture. | multimodal_model = GenerativeModel("gemini-1.5-flash") image = Image.load_from_file("image.jpg") response = multimodal_model.generate_content(["What is shown in this image?", image]) print(response.text) # A cat is shown in this picture. |
Shembull kodi për të gjeneruar bisedë me shumë kthesa
Google AI | Vertex AI |
---|---|
model = GenerativeModel("gemini-1.5-flash") chat = model.start_chat() print(chat.send_message("How are you?").text) print(chat.send_message("What can you do?").text) | model = GenerativeModel("gemini-1.5-flash") chat = model.start_chat() print(chat.send_message("How are you?").text) print(chat.send_message("What can you do?").text) |
Fshi çelësat e papërdorur API
Nëse nuk keni më nevojë të përdorni çelësin tuaj të Google AI Gemini API, ndiqni praktikat më të mira të sigurisë dhe fshijeni atë.
Për të fshirë një çelës API:
Hapni faqen Kredencialet e API të Google Cloud .
Gjeni çelësin API që dëshironi të fshini dhe klikoni ikonën Veprimet .
Zgjidhni butonin Fshi API .
Në modalin Fshi kredencialin , zgjidhni Fshij .
Fshirja e një çelësi API kërkon disa minuta për t'u përhapur. Pas përfundimit të përhapjes, çdo trafik që përdor çelësin e fshirë API refuzohet.
Hapat e ardhshëm
- Shihni përmbledhjen e përgjithshme të AI gjeneruese në Vertex AI për të mësuar më shumë rreth zgjidhjeve gjeneruese të AI në Vertex AI.
- Zhytuni më thellë në Vertex AI Gemini API .