用途
我們的應用程式會使用 Gemini API,即時提供周遭環境的說明,為視障人士提供協助。開啟應用程式後,系統會自動啟用相機,並每 30 秒拍攝一張相片。這些圖片會傳送至 Gemini API,後者會使用自訂提示進行處理,產生詳細且符合情境的說明。系統會使用文字轉語音功能,將 API 回應轉換為語音,讓使用者聽到周遭環境的簡明說明。這個持續循環可確保使用者能取得最新的環境資訊,讓他們更有信心地獨立導航。
[[["容易理解","easyToUnderstand","thumb-up"],["確實解決了我的問題","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["缺少我需要的資訊","missingTheInformationINeed","thumb-down"],["過於複雜/步驟過多","tooComplicatedTooManySteps","thumb-down"],["過時","outOfDate","thumb-down"],["翻譯問題","translationIssue","thumb-down"],["示例/程式碼問題","samplesCodeIssue","thumb-down"],["其他","otherDown","thumb-down"]],[],[],[],null,[]]