Руководство разработчика Gemini 3

Gemini 3 — это наше самое интеллектуальное семейство моделей на сегодняшний день, построенное на основе передовых методов логического мышления. Оно разработано для воплощения любой идеи в жизнь путем освоения агентных рабочих процессов, автономного программирования и сложных многомодальных задач. В этом руководстве рассматриваются ключевые особенности семейства моделей Gemini 3 и способы получения от него максимальной пользы.

Ознакомьтесь с нашей коллекцией приложений Gemini 3, чтобы увидеть, как модель справляется с расширенными логическими рассуждениями, автономным программированием и сложными многомодальными задачами.

Начните с нескольких строк кода:

Python

from google import genai

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Find the race condition in this multi-threaded C++ snippet: [code here]",
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function run() {
  const response = await ai.models.generateContent({
    model: "gemini-3-pro-preview",
    contents: "Find the race condition in this multi-threaded C++ snippet: [code here]",
  });

  console.log(response.text);
}

run();

ОТДЫХ

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Find the race condition in this multi-threaded C++ snippet: [code here]"}]
    }]
  }'

Представляем серию Gemini 3

Gemini 3 Pro, первая модель в новой серии, лучше всего подходит для сложных задач, требующих обширных знаний об окружающем мире и развитого логического мышления в различных контекстах.

Gemini 3 Flash — это наша новейшая модель 3-й серии, обладающая профессиональными интеллектуальными функциями, но при этом доступная по цене и скорости работы с Flash.

Nano Banana Pro (также известный как Gemini 3 Pro Image) — это наша модель генерации изображений самого высокого качества на сегодняшний день.

В настоящее время все модели Gemini 3 находятся на стадии предварительного просмотра.

Идентификатор модели Контекстное окно (Вход/Выход) Крайний срок знаний Ценообразование (вход/выход)*
gemini-3-pro-preview 1M / 64k Январь 2025 г. 2 долл. США / 12 долл. США (<200 тыс. токенов)
4 доллара / 18 долларов (>200 тыс. токенов)
gemini-3-flash-preview 1M / 64k Январь 2025 г. 0,50 долл. / 3 долл.
gemini-3-pro-image-preview 65 тыс. / 32 тыс. Январь 2025 г. 2 доллара (ввод текста) / 0,134 доллара (вывод изображения)**

* Цена указана за 1 миллион токенов, если не указано иное. ** Цена изображений может варьироваться в зависимости от разрешения. Подробности см. на странице с ценами .

Подробную информацию об ограничениях, ценах и другие сведения см. на странице моделей .

Новые возможности API в Gemini 3

В Gemini 3 представлены новые параметры, призванные предоставить разработчикам больший контроль над задержкой, стоимостью и качеством мультимодального изображения.

Уровень мышления

Модели серии Gemini 3 по умолчанию используют динамическое мышление для обработки подсказок. Вы можете использовать параметр thinking_level , который контролирует максимальную глубину внутреннего процесса рассуждения модели, прежде чем она выдаст ответ. Gemini 3 рассматривает эти уровни как относительные допуски для мышления, а не как строгие гарантии количества токенов.

Если thinking_level не указан, Gemini 3 по умолчанию будет использовать значение high . Для более быстрых ответов с меньшей задержкой, когда сложные рассуждения не требуются, вы можете ограничить уровень мышления модели значением low .

Уровни мышления Gemini 3 Pro и Flash:

Gemini 3 Pro и Flash поддерживают следующие уровни мышления:

  • low : минимизирует задержку и стоимость. Лучше всего подходит для простого выполнения инструкций, чатов или высокопроизводительных приложений.
  • high (по умолчанию, динамический): Максимизирует глубину рассуждений. Модели может потребоваться значительно больше времени для получения первого токена, но результат будет более тщательно обоснован.

Уровни мышления Близнецов 3 (быстрое мышление)

В дополнение к указанным выше уровням, Gemini 3 Flash также поддерживает следующие уровни мышления, которые в настоящее время не поддерживаются Gemini 3 Pro:

  • minimal : соответствует настройке «без размышлений» для большинства запросов. Модель может мыслить очень минималистично для сложных задач программирования. Минимизирует задержку для чатов или приложений с высокой пропускной способностью.

  • medium : Сбалансированное мышление для решения большинства задач.

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="How does AI work?",
    config=types.GenerateContentConfig(
        thinking_config=types.ThinkingConfig(thinking_level="low")
    ),
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

const response = await ai.models.generateContent({
    model: "gemini-3-pro-preview",
    contents: "How does AI work?",
    config: {
      thinkingConfig: {
        thinkingLevel: "low",
      }
    },
  });

console.log(response.text);

ОТДЫХ

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "How does AI work?"}]
    }],
    "generationConfig": {
      "thinkingConfig": {
        "thinkingLevel": "low"
      }
    }
  }'

Разрешение СМИ

Gemini 3 обеспечивает детальный контроль над обработкой мультимодального изображения с помощью параметра media_resolution . Более высокое разрешение улучшает способность модели считывать мелкий текст или идентифицировать мелкие детали, но увеличивает использование токенов и задержку. Параметр media_resolution определяет максимальное количество токенов, выделяемых на каждое входное изображение или кадр видео.

Теперь вы можете установить разрешение на media_resolution_low , media_resolution_medium , media_resolution_high или media_resolution_ultra_high для каждой отдельной части медиафайла или глобально (через generation_config ; глобальное значение недоступно для сверхвысокого разрешения). Если значение не указано, модель использует оптимальные значения по умолчанию, основанные на типе медиафайла.

Рекомендуемые настройки

Тип носителя Рекомендуемые настройки Максимальное количество токенов Руководство по применению
Изображения media_resolution_high 1120 Рекомендуется для большинства задач анализа изображений, обеспечивающих максимальное качество.
PDF-файлы media_resolution_medium 560 Оптимальный уровень для понимания документов; качество обычно достигает насыщения на medium . Повышение до high редко улучшает результаты распознавания текста для стандартных документов.
Видео (Общее) media_resolution_low (или media_resolution_medium ) 70 (за кадр) Примечание: Для видео low и medium настройки обрабатываются одинаково (70 токенов) для оптимизации использования контекста. Этого достаточно для большинства задач распознавания и описания действий.
Видео (с большим количеством текста) media_resolution_high 280 (за кадр) Требуется только в тех случаях, когда сценарий использования включает распознавание текста с высоким разрешением (OCR) или чтение мелких деталей в видеокадрах.

Python

from google import genai
from google.genai import types
import base64

# The media_resolution parameter is currently only available in the v1alpha API version.
client = genai.Client(http_options={'api_version': 'v1alpha'})

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents=[
        types.Content(
            parts=[
                types.Part(text="What is in this image?"),
                types.Part(
                    inline_data=types.Blob(
                        mime_type="image/jpeg",
                        data=base64.b64decode("..."),
                    ),
                    media_resolution={"level": "media_resolution_high"}
                )
            ]
        )
    ]
)

print(response.text)

JavaScript

import { GoogleGenAI } from "@google/genai";

// The media_resolution parameter is currently only available in the v1alpha API version.
const ai = new GoogleGenAI({ apiVersion: "v1alpha" });

async function run() {
  const response = await ai.models.generateContent({
    model: "gemini-3-pro-preview",
    contents: [
      {
        parts: [
          { text: "What is in this image?" },
          {
            inlineData: {
              mimeType: "image/jpeg",
              data: "...",
            },
            mediaResolution: {
              level: "media_resolution_high"
            }
          }
        ]
      }
    ]
  });

  console.log(response.text);
}

run();

ОТДЫХ

curl "https://generativelanguage.googleapis.com/v1alpha/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [
        { "text": "What is in this image?" },
        {
          "inlineData": {
            "mimeType": "image/jpeg",
            "data": "..."
          },
          "mediaResolution": {
            "level": "media_resolution_high"
          }
        }
      ]
    }]
  }'

Температура

Для Gemini 3 мы настоятельно рекомендуем оставить параметр температуры со значением по умолчанию, равным 1.0 .

В то время как предыдущие модели часто выигрывали от настройки температуры для управления творческим процессом в противовес детерминированности, возможности логического мышления Gemini 3 оптимизированы для настроек по умолчанию. Изменение температуры (установка её ниже 1,0) может привести к неожиданному поведению, такому как зацикливание или ухудшение производительности, особенно в сложных математических или логических задачах.

Мыслительные подписи

Gemini 3 использует сигнатуры Thought для поддержания контекста рассуждений между вызовами API. Эти сигнатуры представляют собой зашифрованное отображение внутреннего мыслительного процесса модели. Чтобы гарантировать сохранение моделью своих возможностей рассуждений, необходимо возвращать эти сигнатуры модели в запросе в точном виде, в котором они были получены:

  • Вызов функций (строгий): API применяет строгую проверку к "текущему повороту". Отсутствие подписи приведет к ошибке 400.

  • Текст/Чат: Проверка подлинности не является строго обязательной, но отсутствие подписей ухудшит качество рассуждений модели и качество ответа.

  • Генерация/редактирование изображений (строгая проверка) : API применяет строгую проверку ко всем частям модели, включая thoughtSignature . Отсутствие подписей приведет к ошибке 400.

Вызов функции (строгая проверка)

Когда Gemini генерирует functionCall , он полагается на thoughtSignature для корректной обработки выходных данных инструмента в следующем ходе. "Текущий ход" включает все шаги модели ( functionCall ) и пользователя ( functionResponse ), которые произошли с момента последнего стандартного text сообщения пользователя .

  • Вызов одной функции: Часть functionCall содержит сигнатуру. Вы должны вернуть её.
  • Параллельные вызовы функций: сигнатура будет содержаться только в первой части functionCall из списка. Необходимо вернуть части в точном порядке их получения.
  • Многошаговый (последовательный): Если модель вызывает инструмент, получает результат и вызывает другой инструмент (в рамках одного и того же шага), оба вызова функции имеют свои сигнатуры. Необходимо вернуть все накопленные сигнатуры из истории.

Текст и потоковое вещание

При стандартном чате или генерации текста наличие подписи не гарантируется.

  • В режиме без потоковой передачи : заключительная часть ответа может содержать thoughtSignature , хотя она присутствует не всегда. Если она возвращается, следует отправить её обратно для обеспечения наилучшей производительности.
  • Потоковая передача : Если сгенерирована подпись, она может поступить в конечном блоке, содержащем пустую текстовую часть. Убедитесь, что ваш потоковый парсер проверяет наличие подписей, даже если текстовое поле пустое.

Создание и редактирование изображений

Для gemini-3-pro-image-preview «подписи мыслей» имеют решающее значение для редактирования в диалоговом режиме. Когда вы просите модель изменить изображение, она полагается на «подпись thoughtSignature из предыдущего хода, чтобы понять композицию и логику исходного изображения.

  • Редактирование: Подписи гарантируются в первой части после мыслей ответа ( text или inlineData ) и во всех последующих частях, inlineData . Для предотвращения ошибок необходимо вернуть все эти подписи.

Примеры кода

Многошаговый вызов функций (последовательный)

Пользователь задает вопрос, требующий выполнения двух отдельных шагов (Проверка рейса -> Заказ такси) за один раз.

Шаг 1: Модель вызывает инструмент Flight Tool.
Модель возвращает сигнатуру <Sig_A>

// Model Response (Turn 1, Step 1)
  {
    "role": "model",
    "parts": [
      {
        "functionCall": { "name": "check_flight", "args": {...} },
        "thoughtSignature": "<Sig_A>" // SAVE THIS
      }
    ]
  }

Шаг 2: Пользователь отправляет результат рейса
Для поддержания логической последовательности действий модели необходимо отправить обратно сигнал <Sig_A> .

// User Request (Turn 1, Step 2)
[
  { "role": "user", "parts": [{ "text": "Check flight AA100..." }] },
  { 
    "role": "model", 
    "parts": [
      { 
        "functionCall": { "name": "check_flight", "args": {...} }, 
        "thoughtSignature": "<Sig_A>" // REQUIRED
      } 
    ]
  },
  { "role": "user", "parts": [{ "functionResponse": { "name": "check_flight", "response": {...} } }] }
]

Шаг 3: Модель вызывает инструмент «Такси».
Модель запоминает задержку рейса по сигнатуре <Sig_A> и теперь решает заказать такси. Она генерирует новую сигнатуру <Sig_B> .

// Model Response (Turn 1, Step 3)
{
  "role": "model",
  "parts": [
    {
      "functionCall": { "name": "book_taxi", "args": {...} },
      "thoughtSignature": "<Sig_B>" // SAVE THIS
    }
  ]
}

Шаг 4: Пользователь отправляет результат заказа такси
Для завершения хода необходимо отправить обратно всю цепочку: <Sig_A> И <Sig_B> .

// User Request (Turn 1, Step 4)
[
  // ... previous history ...
  { 
    "role": "model", 
    "parts": [
       { "functionCall": { "name": "check_flight", ... }, "thoughtSignature": "<Sig_A>" } 
    ]
  },
  { "role": "user", "parts": [{ "functionResponse": {...} }] },
  { 
    "role": "model", 
    "parts": [
       { "functionCall": { "name": "book_taxi", ... }, "thoughtSignature": "<Sig_B>" } 
    ]
  },
  { "role": "user", "parts": [{ "functionResponse": {...} }] }
]

Параллельный вызов функций

Пользователь задает вопрос: «Проверьте погоду в Париже и Лондоне». Модель возвращает два вызова функции в одном ответе.

// User Request (Sending Parallel Results)
[
  {
    "role": "user",
    "parts": [
      { "text": "Check the weather in Paris and London." }
    ]
  },
  {
    "role": "model",
    "parts": [
      // 1. First Function Call has the signature
      {
        "functionCall": { "name": "check_weather", "args": { "city": "Paris" } },
        "thoughtSignature": "<Signature_A>" 
      },
      // 2. Subsequent parallel calls DO NOT have signatures
      {
        "functionCall": { "name": "check_weather", "args": { "city": "London" } }
      } 
    ]
  },
  {
    "role": "user",
    "parts": [
      // 3. Function Responses are grouped together in the next block
      {
        "functionResponse": { "name": "check_weather", "response": { "temp": "15C" } }
      },
      {
        "functionResponse": { "name": "check_weather", "response": { "temp": "12C" } }
      }
    ]
  }
]

Рассуждения на основе текста/контекста (без проверки достоверности)

Пользователь задает вопрос, требующий контекстного анализа без использования внешних инструментов. Хотя это и не является строго проверенным методом, включение сигнатуры помогает модели поддерживать цепочку рассуждений для последующих вопросов.

// User Request (Follow-up question)
[
  { 
    "role": "user", 
    "parts": [{ "text": "What are the risks of this investment?" }] 
  },
  { 
    "role": "model", 
    "parts": [
      {
        "text": "I need to calculate the risk step-by-step. First, I'll look at volatility...",
        "thoughtSignature": "<Signature_C>" // Recommended to include
      }
    ]
  },
  { 
    "role": "user", 
    "parts": [{ "text": "Summarize that in one sentence." }] 
  }
]

Создание и редактирование изображений

При генерации изображений подписи проходят строгую проверку. Они должны быть обнаружены в первой части (тексте или изображении) и во всех последующих частях изображения . Все подписи должны быть возвращены в следующем раунде.

// Model Response (Turn 1)
{
  "role": "model",
  "parts": [
    // 1. First part ALWAYS has a signature (even if text)
    {
      "text": "I will generate a cyberpunk city...",
      "thoughtSignature": "<Signature_D>" 
    },
    // 2. ALL InlineData (Image) parts ALWAYS have signatures
    {
      "inlineData": { ... }, 
      "thoughtSignature": "<Signature_E>" 
    },
  ]
}

// User Request (Turn 2 - Requesting an Edit)
{
  "contents": [
    // History must include ALL signatures received
    {
      "role": "user",
      "parts": [{ "text": "Generate a cyberpunk city" }]
    },
    {
      "role": "model",
      "parts": [
         { "text": "...", "thoughtSignature": "<Signature_D>" },
         { "inlineData": "...", "thoughtSignature": "<Signature_E>" },
      ]
    },
    // New User Prompt
    {
      "role": "user",
      "parts": [{ "text": "Make it daytime." }]
    }
  ]
}

Переход с других моделей

Если вы переносите трассировку разговора из другой модели (например, Gemini 2.5) или внедряете вызов пользовательской функции, которая не была сгенерирована Gemini 3, у вас не будет действительной подписи.

Чтобы обойти строгую проверку в этих конкретных сценариях, заполните поле следующей фиктивной строкой: "thoughtSignature": "context_engineering_is_the_way_to_go"

Структурированные результаты с использованием инструментов

Модели Gemini 3 позволяют комбинировать структурированные выходные данные со встроенными инструментами, включая сопоставление с результатами поиска Google , контекст URL-адреса и выполнение кода .

Python

from google import genai
from google.genai import types
from pydantic import BaseModel, Field
from typing import List

class MatchResult(BaseModel):
    winner: str = Field(description="The name of the winner.")
    final_match_score: str = Field(description="The final match score.")
    scorers: List[str] = Field(description="The name of the scorer.")

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Search for all details for the latest Euro.",
    config={
        "tools": [
            {"google_search": {}},
            {"url_context": {}}
        ],
        "response_mime_type": "application/json",
        "response_json_schema": MatchResult.model_json_schema(),
    },  
)

result = MatchResult.model_validate_json(response.text)
print(result)

JavaScript

import { GoogleGenAI } from "@google/genai";
import { z } from "zod";
import { zodToJsonSchema } from "zod-to-json-schema";

const ai = new GoogleGenAI({});

const matchSchema = z.object({
  winner: z.string().describe("The name of the winner."),
  final_match_score: z.string().describe("The final score."),
  scorers: z.array(z.string()).describe("The name of the scorer.")
});

async function run() {
  const response = await ai.models.generateContent({
    model: "gemini-3-pro-preview",
    contents: "Search for all details for the latest Euro.",
    config: {
      tools: [
        { googleSearch: {} },
        { urlContext: {} }
      ],
      responseMimeType: "application/json",
      responseJsonSchema: zodToJsonSchema(matchSchema),
    },
  });

  const match = matchSchema.parse(JSON.parse(response.text));
  console.log(match);
}

run();

ОТДЫХ

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Search for all details for the latest Euro."}]
    }],
    "tools": [
      {"googleSearch": {}},
      {"urlContext": {}}
    ],
    "generationConfig": {
        "responseMimeType": "application/json",
        "responseJsonSchema": {
            "type": "object",
            "properties": {
                "winner": {"type": "string", "description": "The name of the winner."},
                "final_match_score": {"type": "string", "description": "The final score."},
                "scorers": {
                    "type": "array",
                    "items": {"type": "string"},
                    "description": "The name of the scorer."
                }
            },
            "required": ["winner", "final_match_score", "scorers"]
        }
    }
  }'

генерация изображений

Gemini 3 Pro Image позволяет создавать и редактировать изображения на основе текстовых подсказок. Программа использует логический анализ для «продумывания» ответа на подсказку и может получать данные в реальном времени — например, прогнозы погоды или биржевые графики — прежде чем использовать данные из Google Search для генерации высококачественных изображений.

Новые и улучшенные возможности:

  • 4K и рендеринг текста: Создавайте четкий, разборчивый текст и диаграммы с разрешением до 2K и 4K.
  • Создание изображений на основе реальных данных: используйте инструмент google_search для проверки фактов и создания изображений на основе информации из реального мира.
  • Редактирование в диалоговом режиме: многоэтапное редактирование изображений путем простого запроса изменений (например, «Сделайте фон закатом»). Этот рабочий процесс основан на «мысленных подписях» для сохранения визуального контекста между этапами.

Подробную информацию о соотношении сторон, рабочих процессах редактирования и параметрах конфигурации см. в руководстве по созданию изображений .

Python

from google import genai
from google.genai import types

client = genai.Client()

response = client.models.generate_content(
    model="gemini-3-pro-image-preview",
    contents="Generate an infographic of the current weather in Tokyo.",
    config=types.GenerateContentConfig(
        tools=[{"google_search": {}}],
        image_config=types.ImageConfig(
            aspect_ratio="16:9",
            image_size="4K"
        )
    )
)

image_parts = [part for part in response.parts if part.inline_data]

if image_parts:
    image = image_parts[0].as_image()
    image.save('weather_tokyo.png')
    image.show()

JavaScript

import { GoogleGenAI } from "@google/genai";
import * as fs from "node:fs";

const ai = new GoogleGenAI({});

async function run() {
  const response = await ai.models.generateContent({
    model: "gemini-3-pro-image-preview",
    contents: "Generate a visualization of the current weather in Tokyo.",
    config: {
      tools: [{ googleSearch: {} }],
      imageConfig: {
        aspectRatio: "16:9",
        imageSize: "4K"
      }
    }
  });

  for (const part of response.candidates[0].content.parts) {
    if (part.inlineData) {
      const imageData = part.inlineData.data;
      const buffer = Buffer.from(imageData, "base64");
      fs.writeFileSync("weather_tokyo.png", buffer);
    }
  }
}

run();

ОТДЫХ

curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-3-pro-image-preview:generateContent" \
  -H "x-goog-api-key: $GEMINI_API_KEY" \
  -H 'Content-Type: application/json' \
  -X POST \
  -d '{
    "contents": [{
      "parts": [{"text": "Generate a visualization of the current weather in Tokyo."}]
    }],
    "tools": [{"googleSearch": {}}],
    "generationConfig": {
        "imageConfig": {
          "aspectRatio": "16:9",
          "imageSize": "4K"
      }
    }
  }'

Пример ответа

Погода в Токио

Переход с Gemini 2.5

Gemini 3 — это наша самая функциональная линейка моделей на сегодняшний день, представляющая собой поэтапное улучшение по сравнению с Gemini 2.5. При переходе на новую систему следует учитывать следующее:

  • Мышление: Если вы ранее использовали сложные методы построения подсказок (например, цепочку мыслей), чтобы заставить Gemini 2.5 рассуждать, попробуйте Gemini 3 с thinking_level: "high" и упрощенными подсказками.
  • Настройки температуры: Если в вашем существующем коде температура задается явно (особенно на низкие значения для детерминированных результатов), мы рекомендуем удалить этот параметр и использовать значение по умолчанию Gemini 3, равное 1.0, чтобы избежать потенциальных проблем с зацикливанием или снижения производительности при выполнении сложных задач.
  • Распознавание PDF-файлов и документов: Изменилось разрешение OCR по умолчанию для PDF-файлов. Если вы полагались на определенное поведение при разборе документов с большим объемом текста, протестируйте новый параметр media_resolution_high , чтобы обеспечить сохранение точности.
  • Расход токенов: Переход на настройки Gemini 3 по умолчанию может увеличить расход токенов для PDF-файлов, но уменьшить расход токенов для видео. Если запросы теперь превышают контекстное окно из-за более высокого разрешения по умолчанию, мы рекомендуем явно уменьшить разрешение медиафайла.
  • Сегментация изображений: Возможности сегментации изображений (возврат пиксельных масок для объектов) не поддерживаются в Gemini 3 Pro или Gemini 3 Flash. Для рабочих нагрузок, требующих встроенной сегментации изображений, мы рекомендуем продолжать использовать Gemini 2.5 Flash с отключенной функцией "думать" или Gemini Robotics-ER 1.5 .
  • Поддержка инструментов : Инструменты для привязки к карте и использования компьютера пока не поддерживаются для моделей Gemini 3, поэтому перенос невозможен. Кроме того, пока не поддерживается совмещение встроенных инструментов с вызовом функций.

совместимость с OpenAI

Для пользователей, использующих слой совместимости OpenAI, стандартные параметры автоматически сопоставляются с эквивалентами Gemini:

  • reasoning_effort (OAI) соответствует thinking_level (Близнецы). Обратите внимание, что средний уровень reasoning_effort соответствует высокому thinking_level .

Содействие внедрению передовых методов

Gemini 3 — это модель рассуждений, которая меняет подход к подсказкам.

  • Точные инструкции: Будьте краткими в своих запросах на ввод данных. Gemini 3 лучше всего реагирует на прямые и четкие инструкции. Он может чрезмерно анализировать многословные или излишне сложные инженерные методы, используемые в более старых моделях.
  • Уровень детализации вывода: по умолчанию Gemini 3 менее многословен и предпочитает давать прямые и краткие ответы. Если для вашего сценария использования требуется более разговорчивый или "общительный" образ, необходимо явно указать модели направление в подсказке (например, "Объясните это как дружелюбный, разговорчивый помощник").
  • Управление контекстом: При работе с большими наборами данных (например, целыми книгами, кодовыми базами или длинными видеороликами) размещайте конкретные инструкции или вопросы в конце запроса, после контекста данных. Привяжите рассуждения модели к предоставленным данным, начав свой вопрос фразой типа: «На основании приведенной выше информации...».

Подробнее о стратегиях оперативного проектирования можно узнать в руководстве по оперативному проектированию .

Часто задаваемые вопросы

  1. Какой минимальный уровень знаний необходим для моделей Gemini 3? Минимальный уровень знаний для моделей Gemini 3 — январь 2025 года. Для получения более актуальной информации воспользуйтесь инструментом «Поиск подтверждения» .

  2. Каковы ограничения контекстного окна? Модели Gemini 3 поддерживают контекстное окно ввода в 1 миллион токенов и до 64 тысяч токенов вывода.

  3. Есть ли бесплатный тариф для Gemini 3? Для Gemini 3 Flash gemini-3-flash-preview доступен бесплатный тариф в рамках API Gemini. Вы можете бесплатно попробовать Gemini 3 Pro и Flash в Google AI Studio, но в настоящее время для gemini-3-pro-preview в API Gemini бесплатный тариф недоступен.

  4. Будет ли мой старый код thinking_budget по-прежнему работать? Да, thinking_budget по-прежнему поддерживается для обратной совместимости, но мы рекомендуем перейти на thinking_level для более предсказуемой производительности. Не используйте оба кода в одном запросе.

  5. Поддерживает ли Gemini 3 пакетный API? Да, Gemini 3 поддерживает пакетный API.

  6. Поддерживается ли контекстное кэширование? Да, контекстное кэширование поддерживается в Gemini 3. Минимальное количество токенов, необходимое для запуска кэширования, составляет 2048 токенов.

  7. Какие инструменты поддерживаются в Gemini 3? Gemini 3 поддерживает поиск Google , поиск файлов , выполнение кода и контекст URL . Он также поддерживает стандартный вызов функций для ваших собственных пользовательских инструментов (но не для встроенных инструментов). Обратите внимание, что привязка к Google Maps и использование компьютера в настоящее время не поддерживаются.

Следующие шаги