توسيع نطاق فهم الرموز البرمجية: كيف تستفيد Jolt AI من Gemini API؟
ييف سبيكتور
الرئيس التنفيذي
فيشال دارماديكاري
مهندس حلول المنتجات
يدرك المطورون الذين يعملون على قواعد بيانات كبيرة الحجم وعلى نطاق واسع مدى صعوبة ذلك. قد يبدو فهم السياق والعثور على الملفات ذات الصلة وإجراء تغييرات عليها وكأنّك تتنقّل في متاهة. تتصدّى Jolt AI لهذه المشكلة مباشرةً من خلال أداة لإنشاء الرموز البرمجية وأداة محادثة مصمّمتَين خصيصًا لقواعد الرموز البرمجية التي تتضمّن أكثر من 100, 000 سطر من الرموز البرمجية. ما هي الأداة السرية التي تتيح لهم تقديم سرعة ودقة في الوقت نفسه؟ Gemini API، وخاصةً Gemini 2.0 Flash
تهدف Jolt AI إلى تمكين المطوّرين من فهم أي قاعدة رموز والمساهمة فيها على الفور. تواجه العديد من الأدوات الحالية صعوبة في التعامل مع قواعد الرموز البرمجية الكبيرة الحالية، وتتطلب من المستخدمين اختيار ملفات السياق يدويًا. وهي عملية مملة وغير عملية. تستخدم Jolt AI بحثًا دلاليًا جديدًا يحدّد ملفات السياق ذات الصلة بدقة وتلقائيًا. وهي تُحدث تحوّلاً جذريًا في تطوير الميزات وإصلاح الأخطاء وإعداد المستخدمين وغير ذلك.
كان التحدي الذي واجهته شركة Jolt AI هو العثور على نموذج يمكنه تشغيل مسار البحث الخاص بها بالمزيج المناسب من السرعة والاتساق وفهم الرموز البرمجية. يوضح يف سبيكتور، الرئيس التنفيذي لشركة Jolt AI، قائلاً: "كنّا نسعى إلى تسريع 3 خطوات مستندة إلى الذكاء الاصطناعي في مسار البحث عن الرموز البرمجية". "تتطلّب كل خطوة فهمًا للغات البرمجة والأُطر وبرامج المستخدمين ونواياهم".
Gemini 2.0 Flash: سرعة أكبر وفهم أفضل للرموز البرمجية
إليك 2.0 Flash في Gemini. بالنسبة إلى Jolt AI، حقّق هذا النموذج التحسّن المطلوب في الأداء. يقول "سبيكتور": "بعد إجراء بعض التعديلات على الطلبات، تمكّنا من الحصول على نتائج أكثر اتساقًا وأعلى جودة باستخدام Gemini 2.0 Flash مقارنةً بنموذج أبطأ وأكبر من مقدّم خدمة آخر".
كيف تستخدم Jolt AI نموذج 2.0 Flash من Gemini؟ وهي تتيح تنفيذ عدة خطوات مهمة في مسار البحث عن الرموز البرمجية، ما يوفّر السرعة والدقة اللازمتَين للتنقّل في المستودعات الضخمة وفهمها. على الرغم من أنّ التفاصيل الدقيقة هي "سر النجاح"، إلا أنّ التأثير واضح: يتيح Gemini 2.0 Flash لـ Jolt AI إبراز المعلومات الصحيحة بسرعة ضمن قواعد البيانات المعقدة.
كان التبديل إلى Gemini API فعّالاً بشكل ملحوظ. يقول "سبكتور": "يستغرق تنفيذ حزمة تطوير البرامج (SDK) بضع ساعات، ويستغرق ضبط الطلبات واختبارها يومَين". استخدم الفريق أيضًا Google AI Studio في وضع أفكار الطلبات وتعديلها، ما أدّى إلى تبسيط عملية التطوير.
النتائج: سرعة أكبر وجودة أعلى وفعالية أكبر من حيث التكلفة
وقد حقّقت شركة Jolt AI نتائج رائعة بعد استخدام نموذج 2.0 Flash من Gemini:
انخفاض في أوقات الاستجابة بنسبة تتراوح بين %70 و%80: إنّ الخطوات المستندة إلى الذكاء الاصطناعي في مسار البحث أسرع بكثير.
إجابات أكثر جودة وأكثر اتساقًا: يتلقّى المستخدمون نتائج أفضل أسرع من المعتاد بأكثر من مرتين.
انخفاض التكاليف بنسبة% 80: أصبحت أعباء عمل الذكاء الاصطناعي التي تم نقلها أكثر فعالية من حيث التكلفة بشكل كبير.
يؤكّد "سبيكتور" قائلاً: "نقدّم للمستخدمين إجابات بجودة أعلى وبسرعة تزيد عن الضعف". يؤكّد هذا المزيج من السرعة والجودة وتوفير التكاليف على فعالية نموذج 2.0 Flash من Gemini في التطبيقات التي تتطلّب أداءً عاليًا.
التركيز على المستقبل وإحصاءات المطوّرين
تعمل Jolt AI حاليًا على توسيع نطاق توافقها مع بيئات التطوير المتكاملة من خلال إضافة JetBrains القادمة واستكشاف إمكانية الوصول إلى واجهة برمجة التطبيقات. تتطلّع شركة Spektor إلى إمكانات Jolt AI الأوسع نطاقًا في المؤسسات، بدءًا من مساعدة المطوّرين وقادة الهندسة وصولاً إلى دعم فِرق دعم العملاء وتفعيل مسارات آلية لرموز الذكاء الاصطناعي.
في ما يتعلّق بتجربته مع Gemini API، يقدّم "سبكتور" النصيحة التالية للمطوّرين الآخرين:
"يتمتّع نموذج Gemini 2.0 Flash بقدرات أكبر مما تتوقّع، لذا أنصحك بتجربته. وهو ممتاز في استرجاع المعلومات، وأفضل بكثير من بعض النماذج الأبطأ والأكثر تكلفة". ويشجّع أيضًا المطوّرين على استكشاف أحدث النماذج من عائلة Gemini: "يجب إلقاء نظرة على الجيل الجديد، Gemini 2.0 Flash وGemini 2.5 Pro. لقد جعل نموذج 2.0 Flash من Gemini منتجنا أسرع بأكثر من الضعف مع تحسين جودة الردود. وتشكّل النماذج الجديدة خطوة كبيرة في هذا الاتجاه".
تسلّط قصة نجاح Jolt AI الضوء على كيف يمكن لسرعة نموذج 2.0 Flash من Gemini وقدرته أن يعزّزا بشكل كبير أدوات المطوّرين المستندة إلى الذكاء الاصطناعي، لا سيما تلك التي تتعامل مع تعقيدات قواعد الرموز البرمجية الكبيرة.
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],[],[],[],null,["[](/showcase) \nShare\nAPRIL 9, 2025 \n\nScaling Code Understanding: How Jolt AI Leverages the Gemini API \nYev Spektor\n\nCEO \nVishal Dharmadhikari\n\nProduct Solutions Engineer \n\nDevelopers working with sprawling, production-scale codebases know the pain. Understanding context, finding relevant files, and making changes can feel like navigating a labyrinth. [Jolt AI](https://www.usejolt.ai/) is tackling this head-on with a codegen and chat tool designed specifically for real-world, 100K+ line codebases. Their secret weapon for delivering both speed and accuracy? The Gemini API, particularly Gemini 2.0 Flash.\n\n\n\u003cbr /\u003e\n\n\nJolt AI's mission is to enable developers to instantly understand and contribute to any codebase. Many of today's tools struggle with large, existing codebases and require users to manually select context files. It's tedious and impractical. Jolt AI uses a novel semantic search that accurately and automatically identifies the relevant context files. It's a game-changer for feature development, bug fixing, onboarding, and more.\n\nThe challenge for Jolt AI was finding a model that could power their search pipeline with the right blend of speed, consistency, and code understanding. \"We were looking to speed up 3 AI-backed steps in our code search pipeline,\" explains Yev Spektor, CEO of Jolt AI. \"Each step requires an understanding of various programming languages, frameworks, user code, and user intent.\"\n\nGemini 2.0 Flash: Delivering Speed and Enhanced Code Understanding \n\nEnter Gemini 2.0 Flash. For Jolt AI, this model delivered the performance leap they were seeking. \"After some prompt tuning, we were able to get more consistent, higher-quality output with Gemini 2.0 Flash than we had with a slower, larger model from another provider,\" Spektor notes.\n\n\n\u003cbr /\u003e\n\n\nHow is Jolt AI using Gemini 2.0 Flash? It powers several crucial steps in their code search pipeline, providing the speed and accuracy needed to navigate and understand massive repositories. While the exact details are their \"secret sauce,\" the impact is clear: Gemini 2.0 Flash enables Jolt AI to quickly surface the right information within complex codebases.\n\n\n\u003cbr /\u003e\n\n\nSwitching to the Gemini API was remarkably efficient. \"A couple hours to get the SDK implemented, and 2 days for prompt tuning and testing,\" reports Spektor. The team also utilized Google AI Studio for prompt ideation and tuning, streamlining the development process.\n\nThe Results: Faster, Higher Quality, and More Cost-Effective \n\nThe move to Gemini 2.0 Flash has yielded impressive results for Jolt AI:\n\n\n\u003cbr /\u003e\n\n\n- **70-80% Reduction in response times:** The AI-backed steps in their search pipeline are significantly faster.\n- **Higher quality and more consistent answers:** Users receive better results more than twice as fast.\n- **80% Lower costs:** The migrated AI workloads are now significantly more cost-effective.\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\"We are getting higher-quality answers to our users more than twice as quickly,\" Spektor emphasizes. This combination of speed, quality, and cost savings underscores the power of Gemini 2.0 Flash for performance-critical applications.\n\n\u003cbr /\u003e\n\nFuture Focus and Developer Insights \n\nJolt AI is actively expanding its IDE support with an upcoming JetBrains plugin and exploring API accessibility. Spektor is excited about the broader potential of Jolt AI across enterprises, from aiding developers and engineering leaders to supporting customer support teams and enabling automated AI code pipelines.\n\n\n\u003cbr /\u003e\n\n\nReflecting on their journey with the Gemini API, Spektor offers this advice to fellow developers:\n\n\n\u003cbr /\u003e\n\n\n\"Gemini 2.0 Flash is more capable than you think, don't sleep on it. It's very good at recall - much better than some slow, more expensive models.\" He also encourages developers to explore the latest models from the Gemini family: \"The new generation, Gemini 2.0 Flash and Gemini 2.5 Pro, need to be looked at. Gemini 2.0 Flash has made our product over twice as fast while increasing the quality of responses. The new models are a major step function.\"\n\n\n\u003cbr /\u003e\n\n\nJolt AI's success story highlights how the speed and capability of Gemini 2.0 Flash can significantly enhance AI-powered developer tools, especially those dealing with the complexities of large codebases.\n\n\n\u003cbr /\u003e\n\n\nReady to build? Explore the [Gemini API documentation](https://ai.google.dev/gemini-api) and get started with [Google AI Studio](https://aistudio.google.com/) today. \n\nRelated case studies \n[Optimal AI\nOptimal AI Uses the Gemini API to Cut Code Review Times by 50%](/showcase/optimalai) [Langbase\nHigh-throughput, low-cost AI agents with Gemini Flash on Langbase](/showcase/langbase) [Calcam\nFast, accurate nutritional analysis with CalCam and Gemini 2.0 Flash](/showcase/calcam)"]]