9 באפריל 2025
הרחבת היכולת להבין קוד: איך Jolt AI משתמש ב-Gemini API
מפתחים שעובדים עם בסיסי קוד גדולים בהיקף של ייצור מכירים את הקושי. הבנת ההקשר, מציאת קבצים רלוונטיים וביצוע שינויים יכולים להיות כמו ניווט במבוך. Jolt AI מתמודד עם האתגר הזה באמצעות כלי ליצירת קוד וצ'אט שנועד במיוחד למאגרי קוד של יותר מ-100, 000 שורות בעולם האמיתי. מהו הנשק הסודי שלהם שמאפשר להם לספק גם מהירות וגם דיוק? Gemini API, ובמיוחד Gemini 2.0 Flash.
המטרה של Jolt AI היא לאפשר למפתחים להבין באופן מיידי כל בסיס קוד ולתרום לו. כלים רבים כיום מתקשים להתמודד עם בסיסי קוד גדולים וקיימים, ומחייבים את המשתמשים לבחור ידנית קבצי הקשר. זה מייגע ולא מעשי. Jolt AI משתמש בחיפוש סמנטי חדשני שמזהה באופן אוטומטי ומדויק את קובצי ההקשר הרלוונטיים. הוא משנה את כללי המשחק בפיתוח תכונות, בתיקון באגים, בהצטרפות של משתמשים חדשים ועוד.
האתגר של Jolt AI היה למצוא מודל שיכול להפעיל את צינור החיפוש שלהם עם שילוב נכון של מהירות, עקביות והבנת קוד. "רצינו להאיץ 3 שלבים שמבוססים על AI בצינור החיפוש של הקוד שלנו", מסביר יב ספקטור, מנכ"ל Jolt AI. "כל שלב מחייב הבנה של שפות תכנות שונות, מסגרות, קוד משתמש וכוונת משתמש".
Gemini 2.0 Flash: מהירות והבנת קוד משופרת
הכירו את Gemini 2.0 Flash. במקרה של Jolt AI, המודל הזה סיפק את קפיצת הביצועים שהם חיפשו. "אחרי כמה שינויים בהנחיות, הצלחנו לקבל מ-Gemini 2.0 Flash תוצאות עקביות יותר ואיכותיות יותר מאלה שקיבלנו ממודל גדול יותר ואיטי יותר של ספק אחר", מציין ספקטור.
איך Jolt AI משתמש ב-Gemini 2.0 Flash? הוא מפעיל כמה שלבים חשובים בצינור החיפוש של הקוד, ומספק את המהירות והדיוק שנדרשים כדי לנווט במאגרי מידע גדולים ולהבין אותם. הפרטים המדויקים הם 'הרוטב הסודי' שלהם, אבל ההשפעה ברורה: Gemini 2.0 Flash מאפשר ל-Jolt AI להציג במהירות את המידע הנכון במאגרי קוד מורכבים.
המעבר ל-Gemini API היה יעיל במיוחד. "הטמעת ה-SDK לקחה כמה שעות, ונדרשו יומיים כדי לכוונן ולבדוק את ההנחיות", מספר ספקטור. הצוות גם השתמש ב-Google AI Studio כדי להעלות רעיונות להנחיות ולכוונן אותן, וכך ייעל את תהליך הפיתוח.
התוצאות: מהירות, איכות גבוהה ועלות-תועלת
המעבר ל-Gemini 2.0 Flash הניב תוצאות מרשימות עבור Jolt AI:
- קיצור של 70-80% בזמני התגובה: השלבים בצינור החיפוש שלהם שמבוססים על AI מהירים משמעותית.
- תשובות באיכות גבוהה יותר ועקביות יותר: המשתמשים מקבלים תוצאות טובות יותר, ובמהירות כפולה.
- 80% Lower costs: The migrated AI workloads are now significantly more cost-effective.
"אנחנו מקבלים תשובות איכותיות יותר למשתמשים שלנו, ובמהירות כפולה", מדגיש ספקטור. השילוב הזה של מהירות, איכות וחיסכון בעלויות מדגיש את היכולות של Gemini 2.0 Flash באפליקציות שבהן הביצועים הם קריטיים.
התמקדות בעתיד ותובנות למפתחים
אנחנו מרחיבים באופן פעיל את התמיכה ב-IDE של Jolt AI, ובקרוב נשיק פלאגין של JetBrains. אנחנו גם בודקים את האפשרות של גישה ל-API. ספקטור נלהב מהפוטנציאל הרחב של Jolt AI בארגונים, החל מעזרה למפתחים ולמנהלי הנדסה ועד לתמיכה בצוותי תמיכת לקוחות והפעלת צינורות אוטומטיים של קוד AI.
בסיום המסע עם Gemini API, ספקטור מציע את העצה הבאה למפתחים אחרים:
"Gemini 2.0 Flash הוא יותר משוכלל ממה שאתם חושבים, אל תפספסו אותו. הוא מצטיין בשליפה מהזיכרון – הרבה יותר טוב מכמה מודלים איטיים ויקרים יותר". הוא גם מעודד מפתחים להתנסות במודלים החדשים ביותר ממשפחת Gemini: "צריך לבדוק את הדור החדש, Gemini 2.0 Flash ו-Gemini 2.5 Pro. Gemini 2.0 Flash שיפר את המהירות של המוצר שלנו ביותר מפי שניים, וגם שיפר את איכות התשובות. המודלים החדשים הם שיפור משמעותי מאוד".
סיפור ההצלחה של Jolt AI מדגיש איך המהירות והיכולות של Gemini 2.0 Flash יכולות לשפר באופן משמעותי כלי פיתוח מבוססי-AI, במיוחד כאלה שעוסקים במורכבויות של בסיסי קוד גדולים.
רוצים להתחיל? כל מה שחשוב לדעת מפורט במאמרי העזרה של Gemini API וכדי להתחיל להשתמש אפשר להיעזר ב-Google AI Studio.