EverythingAI API
مهام الذكاء الاصطناعي التي تم تدريبها بدون الحاجة إلى مجموعات بيانات كبيرة مخصّصة
وظيفتها
يمكن لواجهة برمجة التطبيقات هذه رصد المحتوى المزيّف العميق وتحويل الكلام إلى نص وتحليل لغة الإشارة الأمريكية (ASL) وما إلى ذلك بدون الحاجة إلى تدريبها على أي مجموعة بيانات. ويُتاح ذلك بفضل Gemini Flash 1.5 وتقنية "Imposition-Context".
تتضمّن واجهة برمجة التطبيقات هذه حاليًا مهام الذكاء الاصطناعي، مثل رصد التزييف العميق وتحويل الكلام إلى نص بعدة لغات بنتائج تفوق whisper-large-v3 على الصوت بعدة لغات، وتحليل لغة الإشارة في الفيديوهات وتفسيرها بشكل مفصّل ودقيق، وتصنيف ما يصل إلى 80 حالة عاطفية للنص في ثانيتين فقط، وتقنية التعرّف البصري على الأحرف مع رصد الأحرف بدقة تقارِن بأنظمة التعرّف البصري على الأحرف الكبيرة الحالية. لا أزال أعمل على دمج المزيد من مهام الذكاء الاصطناعي.
إذا أرسلنا الفيديو إلى Gemini Flash 1.5 فقط، لن يتمكّن من رصد الفيديوهات المزيّفة. يمكنك ملاحظة أنّ نموذج Gemini Flash 1.5 يواجه صعوبة في تحديد الفيديو المزيّف. لهذا السبب، طوّرت تقنية طلب "فرض السياق".
وبدلاً من النهج التقليدي الذي يطلب فيه المستخدم من النموذج تفسير السياق بنفسه، يفرض أسلوب "فرض السياق" مباشرةً سجلّ نتائج النموذج. لا يكتب النموذج نفسه الردود، بل أكتبها أنا.
ولكن عندما يراجع سجلّ المحادثات، يعتقد خطأً أنّه هو من أنشأ هذه الإجابات. ويؤدي ذلك إلى فهم نية المستخدم. كما ترى، يحقّق هذا النهج نتائج مذهلة. لا يمكن لخدمة Gemini Flash 1.5 تحليل المحتوى المزيّف فقط، بل يمكنها أيضًا تحقيق دقة مذهلة.
مصمَّم بالاستناد إلى
- الذكاء الاصطناعي لواجهات برمجة التطبيقات
الفريق
من
ShynAI
من
فيتنام