MoodMind

Spersonalizowany monitor nastroju: poznaj swoje emocje i zwiększ efektywność

Działanie

MoodMind to system wykrywania emocji zintegrowany ze spersonalizowanymi rekomendacjami na podstawie wykrytych emocji. System używa interfejsu cv2 (OpenCV) do przechwytywania klatek wideo i DeepFace do analizy emocji.

Na podstawie wykrytej emocji wywoływany jest interfejs Gemini API, aby wygenerować rekomendację. Wywołanie interfejsu API powoduje wyświetlenie krótkiej rekomendacji zawierającej 5 słów, dostosowanej do konkretnego nastroju. Rekomendacje są generowane dynamicznie dla każdego wykrytego uczucia: szczęścia, smutku, złości, neutralności, zaskoczenia, strachu i obrzydzenia.

Uchwycony kadr z filmu jest wyświetlany z tekstem nakładki zawierającym imię i nazwisko użytkownika, jego wiek, wykryte uczucie oraz odpowiednią rekomendację z interfejsu Gemini API. Strumień wideo jest aktualizowany w czasie rzeczywistym, stale analizując i podając rekomendacje, dopóki użytkownik nie zdecyduje się zakończyć sesji przez zamknięcie strumienia wideo.

Model Gemini (``gemini-1.5-flash``) jest inicjowany w celu obsługi generowania treści. W przypadku każdego wykrytego rodzaju emocji wywoływana jest metoda „generate_content” modelu z promptem, aby wygenerować krótką rekomendację. Wygenerowany tekst jest następnie wyświetlany na pasku filmowym.

Dodatkowo system przechowuje dane użytkownika, w tym imię i nazwisko, wiek, wykryte emocje i rekomendacje, w Firebase Firestore. Dane wideo są aktualizowane co 10 sekund. System rejestruje bieżącą klatkę, analizuje emocje, generuje rekomendację i przechowuje dane w Firestore.

Utworzone za pomocą

  • Flutter
  • Wersja internetowa/Chrome
  • Firebase

Zespół

Autor:

BeezGroup

Od

Uganda