Gemini 모델을 사용하여 여러 분야에서 기초 연구를 발전시킬 수 있습니다.
다음은 연구를 위해 Gemini를 탐색할 수 있는 방법입니다.
미세 조정: 다양한 모달리티에 맞게 Gemini 모델을 미세 조정하여 연구를 진행할 수 있습니다. 자세히 알아보기
모델 출력 분석 및 제어: 추가 분석을 위해 Logprobs, CitationMetadata과 같은 도구를 사용하여 모델에서 생성된 응답 후보를 검사할 수 있습니다. responseSchema, topP, topK와 같은 모델 생성 및 출력 옵션을 구성할 수도 있습니다. 자세히 알아보기
멀티모달 입력: Gemini는 이미지, 오디오, 동영상을 처리할 수 있어 다양한 흥미로운 연구 방향을 지원합니다. 자세히 알아보기
긴 컨텍스트 기능: Gemini 1.5 Flash에는 토큰 100만 개 컨텍스트 윈도우가 제공되며 Gemini 1.5 Pro에는 토큰 200만 개 컨텍스트 윈도우가 제공됩니다.
자세히 알아보기
Grow with Google: API 및 Google AI Studio를 통해 프로덕션 사용 사례를 위한 Gemini 모델에 빠르게 액세스하세요. Google Cloud 기반 플랫폼을 찾고 있다면 Vertex AI에서 추가 지원 인프라를 제공할 수 있습니다.
학술 연구를 지원하고 최첨단 연구를 추진하기 위해 Google은 Gemini Academic Program을 통해 과학자 및 학술 연구자에게 Gemini API 크레딧을 제공합니다.
Gemini 시작하기
Gemini API와 Google AI Studio를 사용하면 Google의 최신 모델을 사용하고 아이디어를 확장 가능한 애플리케이션으로 전환할 수 있습니다.
Python
fromgoogleimportgenaiclient=genai.Client()response=client.models.generate_content(model="gemini-2.0-flash",contents="How large is the universe?",)print(response.text)
자바스크립트
import{GoogleGenAI}from"@google/genai";constai=newGoogleGenAI({});asyncfunctionmain(){constresponse=awaitai.models.generateContent({model:"gemini-2.0-flash",contents:"How large is the universe?",});console.log(response.text);}awaitmain();
REST
curl"https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash:generateContent"\
-H"x-goog-api-key: $GEMINI_API_KEY"\
-H'Content-Type: application/json'\
-XPOST\
-d'{ "contents": [{ "parts":[{"text": "How large is the universe?"}] }] }'
추천 학자
'Google의 연구에서는 Gemini를 시각적 언어 모델 (VLM)로 조사하고 견고성 및 안전성 관점에서 다양한 환경에서의 에이전트 행동을 조사합니다. 지금까지 VLM 에이전트가 컴퓨터 작업을 수행할 때 팝업 창과 같은 방해 요소에 대한 Gemini의 견고성을 평가했으며, Gemini를 활용하여 동영상 입력을 기반으로 소셜 상호작용, 시간적 이벤트, 위험 요소를 분석했습니다.'
"긴 컨텍스트 윈도우를 갖춘 Gemini Pro와 Flash는 개방형 어휘 모바일 조작 프로젝트인 OK-Robot에서 Google을 지원해 왔습니다. Gemini를 사용하면 로봇의 '메모리'(이 경우 긴 작동 시간 동안 로봇이 이전에 관찰한 내용)에 대해 복잡한 자연어 쿼리와 명령을 사용할 수 있습니다. 마히 샤피울라와 저는 Gemini를 사용하여 로봇이 실제 환경에서 실행할 수 있는 코드로 작업을 분해하고 있습니다.'
Gemini Academic Program
지원되는 국가의 자격 요건을 갖춘 학술 연구자 (예: 교수진, 직원, 박사 과정 학생)는 연구 프로젝트에 사용할 Gemini API 크레딧과 더 높은 비율 제한을 신청할 수 있습니다. 이 지원을 통해 과학 실험의 처리량을 높이고 연구를 발전시킬 수 있습니다.
다음 섹션의 연구 분야에 특히 관심이 있지만 다양한 과학 분야의 지원을 환영합니다.
평가 및 벤치마크: 사실성, 안전성, 지침 준수, 추론, 계획과 같은 영역에서 강력한 성능 신호를 제공할 수 있는 커뮤니티 승인 평가 방법입니다.
인류를 위한 과학적 발견 가속화: 희귀 질환 및 소외 질환, 실험 생물학, 재료 과학, 지속 가능성과 같은 분야를 포함한 학제간 과학 연구에서 AI의 잠재적 적용 사례
구체화 및 상호작용: 대규모 언어 모델을 활용하여 구체화된 AI, 주변 상호작용, 로봇 공학, 인간-컴퓨터 상호작용 분야의 새로운 상호작용을 조사합니다.
새로운 기능: 추론 및 계획을 개선하는 데 필요한 새로운 에이전틱 기능과 추론 중에 기능을 확장하는 방법 (예: Gemini Flash 활용)을 살펴봅니다.
멀티모달 상호작용 및 이해: 다양한 작업에서 분석, 추론, 계획을 위한 멀티모달 파운데이션 모델의 격차와 기회를 파악합니다.
자격 요건: 유효한 학술 기관 또는 학술 연구 기관에 소속된 개인 (교수진, 연구원 또는 이에 상응하는 직책)만 신청할 수 있습니다. API 액세스 및 크레딧은 Google의 재량에 따라 부여 및 삭제됩니다. Google에서는 매달 신청을 검토합니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-22(UTC)"],[],[],null,["Accelerate discovery with Gemini for Research\n=============================================\n\n[Get a Gemini API Key](https://aistudio.google.com/apikey)\n\nGemini models can be used to advance foundational research across disciplines.\nHere are ways that you can explore Gemini for your research:\n\n- **Fine-tuning** : You can fine-tune Gemini models for a variety of modalities to advance your research. [Learn more](/gemini-api/docs/model-tuning/tutorial).\n- **Analyze and control model outputs** : For further analysis, you can examine a response candidate generated by the model using tools like `Logprobs` and `CitationMetadata`. You can also configure options for model generation and outputs, such as `responseSchema`, `topP`, and `topK`. [Learn more](/api/generate-content).\n- **Multimodal inputs** : Gemini can process images, audio, and videos, enabling a multitude of exciting research directions. [Learn more](/gemini-api/docs/vision).\n- **Long-context capabilities** : Gemini 1.5 Flash comes with a 1-million-token context window, and Gemini 1.5 Pro comes with a 2-million-token context window. [Learn more](/gemini-api/docs/long-context).\n- **Grow with Google**: Quickly access Gemini models through the API and Google AI Studio for production use cases. If you're looking for a Google Cloud-based platform, Vertex AI can provide additional supporting infrastructure.\n\nTo support academic research and drive cutting-edge research, Google provides\naccess to Gemini API credits for scientists and academic researchers through the\n[Gemini Academic Program](/gemini-api/docs/gemini-for-research#gemini-academic-program).\n\nGet started with Gemini\n-----------------------\n\nThe Gemini API and Google AI Studio help you start working with Google's latest\nmodels and turn your ideas into applications that scale. \n\n### Python\n\n from google import genai\n\n client = genai.Client()\n response = client.models.generate_content(\n model=\"gemini-2.0-flash\",\n contents=\"How large is the universe?\",\n )\n\n print(response.text)\n\n### JavaScript\n\n import { GoogleGenAI } from \"@google/genai\";\n\n const ai = new GoogleGenAI({});\n\n async function main() {\n const response = await ai.models.generateContent({\n model: \"gemini-2.0-flash\",\n contents: \"How large is the universe?\",\n });\n console.log(response.text);\n }\n\n await main();\n\n### REST\n\n curl \"https://generativelanguage.googleapis.com/v1beta/models/gemini-1.5-flash:generateContent\" \\\n -H \"x-goog-api-key: $GEMINI_API_KEY\" \\\n -H 'Content-Type: application/json' \\\n -X POST \\\n -d '{\n \"contents\": [{\n \"parts\":[{\"text\": \"How large is the universe?\"}]\n }]\n }'\n\nFeatured academics\n------------------\n\n\"Our research investigates Gemini as a visual language model (VLM) and its agentic behaviors in diverse environments from robustness and safety perspectives. So far, we have evaluated Gemini's robustness against distractions such as pop-up windows when VLM agents perform computer tasks, and have leveraged Gemini to analyze social interaction, temporal events as well as risk factors based on video input.\"\n[](https://cs.stanford.edu/~diyiy/) \n\"Gemini Pro and Flash, with their long context window, have been helping us in OK-Robot, our open-vocabulary mobile manipulation project. Gemini enables complex natural language queries and commands over the robot's \"memory\": in this case, previous observations made by the robot over a long operation duration. Mahi Shafiullah and I are also using Gemini to decompose tasks into code that the robot can execute in the real world.\"\n[](https://www.lerrelpinto.com/)\n\nGemini Academic Program\n-----------------------\n\nQualified academic researchers (such as faculty, staff, and PhD students) in [supported\ncountries](/gemini-api/docs/available-regions) can apply to receive Gemini API\ncredits and higher rate limits for research projects. This support enables\nhigher throughput for scientific experiments and advances research.\n\nWe are particularly interested in the research areas in the following section,\nbut we welcome applications from diverse scientific disciplines:\n\n- **Evaluations and benchmarks**: Community-endorsed evaluation methods that\n can provide a strong performance signal in areas such as factuality, safety,\n instruction following, reasoning, and planning.\n\n- **Accelerating scientific discovery to benefit humanity**: Potential\n applications of AI in interdisciplinary scientific research, including areas\n such as rare and neglected diseases, experimental biology, materials science,\n and sustainability.\n\n- **Embodiment and interactions**: Utilizing large language models to\n investigate novel interactions within the fields of embodied AI, ambient\n interactions, robotics, and human-computer interaction.\n\n- **Emergent capabilities**: Exploring new agentic capabilities required to\n enhance reasoning and planning, and how capabilities can be expanded during\n inference (e.g., by utilizing Gemini Flash).\n\n- **Multimodal interaction and understanding**: Identifying gaps and\n opportunities for multimodal foundational models for analysis, reasoning,\n and planning across a variety of tasks.\n\nEligibility: Only individuals (faculty members, researchers or equivalent)\naffiliated with a valid academic institution, or academic research organization\ncan apply. Note that API access and credits will be granted and removed\nat Google's discretion. We review applications on a monthly basis. \n\n### Start researching with the Gemini API\n\n[Apply now](https://forms.gle/HMviQstU8PxC5iCt5)"]]