אפליקציית everies, שמבוססת על טכנולוגיית Gemini, מאפשרת לכם להפוך את האובייקטים שסביבכם לדמויות 'everies' ייחודיות, שובבות ואינטראקטיביות. פשוט סורקים את האובייקטים בסביבה באמצעות המצלמה, והעיניים של Everies יופיעו על האובייקטים. כשמקישים על העיניים האלה, נוצרת דמות עם אישיות, מראה, דיאלוג וקול ייחודיים, שמותאמים לאובייקט, לסביבה ולהקשר הספציפיים. אפשר גם להקיש על אובייקט כלשהו וליצור את הדמות של Everies, גם אם העין לא מופיעה בהתחלה. כל דמות יכולה לנהל שיחה מתמשכת באמצעות הקלט הקול שלכם, וכך לשפר את האינטראקציה. אתם יכולים גם לשמור את ה-everies האהובים עליכם ואת הסצנות המיוחדות.
היכולת הייחודית של everies להפוך 'הכול' לדמויות אינטראקטיביות וחברותיות היא תכונה בולטת של טכנולוגיית LLM, שמפשטת את החוויה ומאפשרת להשתמש בה בקלות רבה יותר. התהליך מתבצע באופן אוטומטי על ידי Gemini API, עם זיהוי אובייקטים שמבוסס על TensorFlow Lite ויצירת תווים באמצעות קובצי JSON. מיקום העיניים נקבע במהירות גבוהה של פריימים באמצעות זיהוי אובייקטים במכשיר בשילוב עם AR. ARCore ממקם את העיניים והפנים של הדמויות, בעוד שהזיהוי במסגרת פריימים גבוהה וה-LLM הרב-מודאלי (Gemini) מבטיחים תשובות מהירות וחוויה איכותית.
התכונה 'אירועים' נמצאת כרגע בגרסת בטא כרעיון להוכחת היתכנות. אנחנו שואפים להשיק אותה באופן רשמי עם עדכונים עתידיים, כולל שיחות רציפות עם אירועים מועדפים ותכונות של צילום וידאו.
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],[],[],[],null,["# Everies\n\n[See all winners](/competition#w-5) \nBest use of ARCore app \n\nEveries\n=======\n\nScan your surrounding objects and transform them into unique, playful, interactive characters \nWhat it does\n\nWith the everies app, powered by Gemini technology, your surrounding objects come to life with unique, playful, interactive characters \"everies.\" Simply scan your surrounding objects with your camera, and everies's eyes will appear on the objects. \nTapping on these eyes generates a character with a distinct personality, appearance, dialogue, and voice, all tailored to the specific object, environment, and context. You can also tap on any object and generate everies character, even if the eye doesn't initially appear. \nEvery character can engage in continuous conversation through your voice input, enhancing the interaction. You can also save your favorite everies and your memorable scenes. \n\neveries's one-and-only ability to turn 'everything' into interactive, playful characters is a standout feature of LLM technology, simplifying the experience and making it more user-friendly. The process is automated by the Gemini API, with object detection powered by TensorFlow Lite and character generation through JSON files. Eye positioning is determined at high frame rates using on-device object detection combined with AR. ARCore anchors the characters' eyes and faces, while high-frame-rate detection and the multi-modal LLM (Gemini) ensure fast responses and a high-quality experience. \n\nCurrently in beta as a proof of concept, everies aims for a formal release with future updates, including continuous conversations with favorite everies and video recording features. \nBuilt with\n\n- Android\n- ARCore\n- TensorFlow Lite\n- EfficientDet model for Object Detection \nTeam \nBy\n\nTeam everies \nFrom\n\nJapan \nMore winners \n[ViddyScribe\nBest Web app](/competition/projects/viddyscribe) [Prospera\nMost Useful app / Best Flutter app](/competition/projects/prospera) \n[](/competition)"]]