Gemini API
Google の最新の AI モデルを使用して構築および拡張できる開発者プラットフォーム。数分で開始できます。
Python
from google import genai
client = genai.Client()
response = client.models.generate_content(
model="gemini-2.5-flash",
contents="Explain how AI works in a few words",
)
print(response.text)
JavaScript
import { GoogleGenAI } from "@google/genai";
const ai = new GoogleGenAI({});
async function main() {
const response = await ai.models.generateContent({
model: "gemini-2.5-flash",
contents: "Explain how AI works in a few words",
});
console.log(response.text);
}
await main();
Go
package main
import (
"context"
"fmt"
"log"
"google.golang.org/genai"
)
func main() {
ctx := context.Background()
client, err := genai.NewClient(ctx, nil)
if err != nil {
log.Fatal(err)
}
result, err := client.Models.GenerateContent(
ctx,
"gemini-2.5-flash",
genai.Text("Explain how AI works in a few words"),
nil,
)
if err != nil {
log.Fatal(err)
}
fmt.Println(result.Text())
}
Java
package com.example;
import com.google.genai.Client;
import com.google.genai.types.GenerateContentResponse;
public class GenerateTextFromTextInput {
public static void main(String[] args) {
Client client = new Client();
GenerateContentResponse response =
client.models.generateContent(
"gemini-2.5-flash",
"Explain how AI works in a few words",
null);
System.out.println(response.text());
}
}
C#
using System.Threading.Tasks;
using Google.GenAI;
using Google.GenAI.Types;
public class GenerateContentSimpleText {
public static async Task main() {
var client = new Client();
var response = await client.Models.GenerateContentAsync(
model: "gemini-2.0-flash", contents: "Explain how AI works in a few words"
);
Console.WriteLine(response.Candidates[0].Content.Parts[0].Text);
}
}
REST
curl "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash:generateContent" \
-H "x-goog-api-key: $GEMINI_API_KEY" \
-H 'Content-Type: application/json' \
-X POST \
-d '{
"contents": [
{
"parts": [
{
"text": "Explain how AI works in a few words"
}
]
}
]
}'
クイックスタート ガイドに沿って、API キーを取得し、最初の API 呼び出しを数分で行います。
ほとんどのモデルでは、請求アカウントを設定しなくても、無料レベルから始めることができます。
各モデルについて
ジェミニ 2.5 プロ
コーディングと複雑な推論タスクに優れた、当社の最も強力な推論モデル
Gemini 2.5 Flash
100 万トークンのコンテキスト ウィンドウを備えた、最もバランスの取れたモデル
ジェミニ 2.5 フラッシュライト
高頻度のタスクで優れたパフォーマンスを発揮する、最も高速で費用対効果の高いマルチモーダル モデル
Veo 3.1
ネイティブ音声に対応した最先端の動画生成モデル
ジェミニ 2.5 のフラッシュ画像(ナノバナナ)
最先端の画像生成および編集モデル
Gemini エンベディング
本番環境の RAG ワークフロー向けに設計された、Google 初の Gemini エンベディング モデル
機能を確認する
ネイティブ画像生成(Nano Banana)
Gemini 2.5 Flash Image を使用して、高度なコンテキスト画像をネイティブに生成および編集します。
長いコンテキスト
Gemini モデルに数百万個のトークンを入力し、非構造化画像、動画、ドキュメントから理解を導き出します。
構造化出力
Gemini が JSON(自動処理に適した構造化データ形式)で応答するように制約します。
関数呼び出し
Gemini を外部の API やツールに接続して、エージェント ワークフローを構築します。
Veo 3.1 による動画生成
当社の最先端モデルを使用して、テキストまたは画像のプロンプトから高品質のビデオ コンテンツを作成します。
Live API を使用した音声エージェント
Live API を使用して、リアルタイム音声アプリケーションとエージェントを構築します。
ツール
Google 検索、URL コンテキスト、Google マップ、コード実行、コンピュータ使用などの組み込みツールを通じて、Gemini を世界とつなげます。
ドキュメントの理解
最大 1,000 ページの PDF ファイルを処理します。
思考
思考能力が複雑なタスクやエージェントの推論をどのように改善するかについて説明します。