Extension permettant de rechercher et de discuter dans l'historique de navigation de plusieurs années
Description
Imaginez pouvoir rechercher tout ce que vous avez vu dans votre navigateur: pas seulement les sites Web publics disponibles sur Google, mais aussi vos documents et notes Web privés, vos sites d'entreprise internes, ou même vos conversations avec des bots d'IA. Imaginez que vous puissiez enregistrer toutes ces informations de manière privée et locale, sans vous soucier de savoir qui les voit ni de leur coût. C'est ce que nous créons: un moteur de recherche privé et personnalisé pour tout ce qu'une personne a vu dans son navigateur Web. Il s'agit d'une extension de navigateur avec recherche, historique et chat. Notre application propose une recherche sémantique sur du texte précédemment observé, un chat basé sur l'IA, optimisé par Gemini, avec les résultats de recherche comme contexte, ainsi que des captures d'écran pour rendre les résultats plus reconnaissables. De plus, les utilisateurs peuvent bloquer les URL qu'ils ne souhaitent pas mémoriser. Mieux encore, tout ce qui est stocké est local sur l'appareil: les captures d'écran sont enregistrées dans OPFS, les embeddings sont créés avec des modèles ONNX, et le texte et les vecteurs sont enregistrés dans le navigateur à l'aide d'une base de données vectorielle SQL WASM. Notre combinaison de modèles ONNX et de base de données vectorielle fournit des résultats de recherche KNN sur des dizaines de millions de mots en moins d'une seconde, ce qui correspond à des années d'historique de navigation. Avez-vous déjà entendu parler de la fonctionnalité de stockage local sur l'appareil ? Cela signifie que la fonctionnalité est privée et sans frais cloud. Pour la fonctionnalité Chat, qui complète le tout, nous utilisons actuellement des modèles de conversion texte-texte. Les utilisateurs peuvent choisir entre l'API Gemini et l'API Ollama pour l'inférence locale. Une fois disponible, nous utiliserons Gemini Nano comme modèle par défaut.
Conçu avec
Web/Chrome
Équipe
Par
FlexVex
De
États-Unis
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],[],[],[],null,["# History++ Browser Extension\n\n[More Apps](/competition/vote) \n\nHistory++ Browser Extension\n===========================\n\nExtension to search through and chat with years of browsing history \nVote \nVoted!\nWhat it does\n\nImagine if you could search through everything you've seen on your browser: not just the public websites available on Google, but also your private web documents and notes, internal business sites, or even chats with AI bots. Imagine if you could save all that information privately and locally, without worrying about who else sees it or how much it costs. \nThat is what we are creating: a private, personalized search engine for everything a person has seen in their web browser. It is a browser extension with search, history, and chat. \nOur application features: semantic search over previously observed text, AI chat, powered by Gemini, with search results as context, as well as screen captures to make results more recognizable. In addition, users can block URLs they don't want remembered. Best of all, everything stored is local on the device: screen captures are saved to OPFS, embeddings are created with ONNX models, and text and vectors are saved in the browser using a WASM SQL vector database. Our combination of ONNX models and Vector DB provide KNN search results over tens of millions of words in under a second, translating to years of browsing history. Did we mention this is all local on-device? That means both private and with zero cloud costs. \nFor the Chat feature which rounds it all out, we currently use text-to-text models. Users can select from the Gemini API or the Ollama API for local inference. Once available, we will shift to using Gemini Nano as the default model. \nBuilt with\n\n- Web/Chrome \nTeam \nBy\n\nFlexVex \nFrom\n\nUnited States \n[](/competition/vote)"]]