שיתוף

‫9 באפריל 2025

הגדלת היכולת להבין קוד: איך Jolt AI משתמש ב-Gemini API

יב ספקטור

מנכ"ל

וישאל דהרמדיקארי (Vishal Dharmadhikari)

מהנדס פתרונות מוצר

תמונה ראשית (Hero) של AgentOps

מפתחים שעובדים עם בסיסי קוד גדולים בהיקף של ייצור מכירים את הבעיה. הבנת ההקשר, מציאת קבצים רלוונטיים וביצוע שינויים יכולים להיות כמו ניווט במבוך. ‫Jolt AI מתמודד עם הבעיה הזו ישירות באמצעות כלי ליצירת קוד וצ'אט שנועד במיוחד לבסיסי קוד של יותר מ-100, 000 שורות בעולם האמיתי. מהו הנשק הסודי שלהם שמאפשר להם לספק גם מהירות וגם דיוק? ‫Gemini API, ובמיוחד Gemini 2.0 Flash.

המטרה של Jolt AI היא לאפשר למפתחים להבין באופן מיידי כל בסיס קוד ולתרום לו. הרבה כלים כיום מתקשים להתמודד עם בסיסי קוד גדולים וקיימים, ומחייבים את המשתמשים לבחור ידנית קובצי הקשר. זה מייגע ולא מעשי. ‫Jolt AI משתמש בחיפוש סמנטי חדשני שמזהה באופן מדויק ואוטומטי את קובצי ההקשר הרלוונטיים. הוא משנה את כללי המשחק בפיתוח תכונות, בתיקון באגים, בהצטרפות של משתמשים חדשים ועוד.

דיאגרמת זרימת מצב שנוצרה על ידי AI וממחישה את הלוגיקה של האפליקציה.

האתגר של Jolt AI היה למצוא מודל שיכול להפעיל את צינור החיפוש שלהם עם שילוב נכון של מהירות, עקביות והבנת קוד. "רצינו להאיץ 3 שלבים שמבוססים על AI בצינור החיפוש של הקוד שלנו", מסביר יב ספקטור, מנכ"ל Jolt AI. "כל שלב דורש הבנה של שפות תכנות שונות, מסגרות, קוד משתמש וכוונת משתמש".

‫Gemini 2.0 Flash: מהירות והבנה משופרת של קוד

הכירו את Gemini 2.0 Flash. במקרה של Jolt AI, המודל הזה סיפק את קפיצת הביצועים שהם חיפשו. "אחרי כמה שינויים בהנחיות, הצלחנו לקבל מ-Gemini 2.0 Flash פלט עקבי יותר ואיכותי יותר ממה שקיבלנו ממודל גדול יותר ואיטי יותר של ספק אחר", מציין ספקטור.

איך Jolt AI משתמש ב-Gemini 2.0 Flash? הוא מפעיל כמה שלבים חשובים בצינור החיפוש של הקוד, ומספק את המהירות והדיוק שנדרשים כדי להתמצא במאגרי מידע גדולים ולהבין אותם. הפרטים המדויקים הם 'הרוטב הסודי' שלהם, אבל ההשפעה ברורה: Gemini 2.0 Flash מאפשר ל-Jolt AI להציג במהירות את המידע הנכון בבסיסי קוד מורכבים.

המעבר ל-Gemini API היה יעיל במיוחד. "הטמעת ה-SDK לקחה כמה שעות, ונדרשו יומיים כדי לכוונן ולבדוק את ההנחיות", מספר ספקטור. הצוות גם השתמש ב-Google AI Studio כדי להעלות רעיונות להנחיות ולכוונן אותן, וכך ייעל את תהליך הפיתוח.

התוצאות: מהירות גבוהה יותר, איכות גבוהה יותר ועלות-תועלת גבוהה יותר

המעבר ל-Gemini 2.0 Flash הניב תוצאות מרשימות עבור Jolt AI:

  • קיצור של 70-80% בזמני התגובה: השלבים בצינור החיפוש שלהם שמבוססים על AI מהירים משמעותית.
  • תשובות באיכות גבוהה יותר ועקביות יותר: המשתמשים מקבלים תוצאות טובות יותר, ובמהירות כפולה.
  • 80% Lower costs: The migrated AI workloads are now significantly more cost-effective.


"אנחנו מקבלים תשובות איכותיות יותר למשתמשים שלנו, ובמהירות כפולה", מדגיש ספקטור. השילוב הזה של מהירות, איכות וחיסכון בעלויות מדגיש את היכולות של Gemini 2.0 Flash באפליקציות שבהן הביצועים הם קריטיים.

התמקדות בעתיד ותובנות למפתחים

אנחנו מרחיבים באופן פעיל את התמיכה ב-IDE של Jolt AI, עם פלאגין ל-JetBrains שיושק בקרוב, ובודקים את הנגישות ל-API. ספקטור נלהב מהפוטנציאל הרחב של Jolt AI בארגונים, החל מעזרה למפתחים ולמנהלי הנדסה ועד לתמיכה בצוותי תמיכת לקוחות והפעלת צינורות אוטומטיים של קוד AI.

בסיום המסע עם Gemini API, ספקטור מציע את העצה הבאה למפתחים אחרים:

‫"Gemini 2.0 Flash הוא משוכלל יותר ממה שאתם חושבים, אל תפספסו אותו. הוא מצוין בשליפה – הרבה יותר טוב מכמה מודלים איטיים ויקרים יותר". הוא גם מעודד מפתחים להתנסות במודלים החדשים ביותר מסדרת Gemini: "צריך לבדוק את הדור החדש, Gemini 2.0 Flash ו-Gemini 2.5 Pro. ‫Gemini 2.0 Flash שיפר את המהירות של המוצר שלנו ביותר מפי שניים, וגם את איכות התשובות. המודלים החדשים הם שיפור משמעותי".

סיפור ההצלחה של Jolt AI מדגיש איך המהירות והיכולות של Gemini 2.0 Flash יכולות לשפר באופן משמעותי כלי פיתוח מבוססי-AI, במיוחד כאלה שעוסקים במורכבויות של בסיסי קוד גדולים.

רוצים להתחיל? כל מה שחשוב לדעת מפורט במאמרי העזרה של Gemini API וכדי להתחיל להשתמש ב-Google AI Studio אפשר להיעזר במאמרים האלה.