Thales Video Intelligence Indexing Platform

Un système full-stack, style production, qui transforme la vidéo brute en données structurées, searchables et prêtes pour l’analyse via CV + NLP + pipelines async.

Rôle: Ingénieur ML appliqué full-stack (solo)Durée: Prototype (local-first, CPU)Stack: FastAPI • Celery • Redis • SQLAlchemy • SQLite • ffmpeg • OpenCV • YOLOv8 • sentence-transformers • faster-whisper • Tesseract OCR • React • Vite • TypeScript • Tailwind • Docker Compose
Computer VisionNLPFull-StackAsync ProcessingSearch
Thales Video Intelligence Indexing Platform
En bref
  • Problème
    Un système full-stack, style production, qui transforme la vidéo brute en données structurées, searchables et prêtes pour l’analyse via CV + NLP + pipelines async.
  • Rôle
    Ingénieur ML appliqué full-stack (solo)
  • Durée
    Prototype (local-first, CPU)
  • Stack
    FastAPI • Celery • Redis • SQLAlchemy
  • Focus
    Computer Vision • NLP • Full-Stack

Problème

Avant : les analystes scrutent des vidéos à la main, pause/play en boucle, prennent des notes manuelles. Pas d’output structuré, pas de timeline corrélée, pas d’archive searchable.

Après : un seul upload produit des entités, timestamps, frames, transcripts, un index searchable, des rapports exportables et des liens read-only partageables.

Critères de succès : rechercher à travers les vidéos, accéder directement aux moments clés, et exporter des artifacts prêts pour l’analyse.

Résumé exécutif
  • Upload vidéo ou URL → pipeline async → rapport read-only partageable
  • UX timeline + recherche sémantique pour triage rapide
  • Artifacts JSON/PDF/CSV déterministes pour auditabilité
  • Traitement local, offline, CPU-first

Contexte

Périmètre : API backend, pipeline async, CV/NLP, agrégation d’entités, exporter dataset, UX recherche + timeline, rapports partageables, déploiement Docker.

Contraintes : solo, CPU local, offline, pas de cloud payant, vidéos de tailles réelles.

Positionnement : indexation vidéo orientée analystes, pas un système opérationnel.

Pipeline d’intelligence vidéo avec FastAPI, Celery et YOLOv8

Le traitement vidéo est asynchrone via FastAPI + Celery, avec YOLOv8 pour la détection d’objets sur frames extraites.

Le tout fonctionne en local sans inférence cloud.

Indexation d’entités, timeline search et exports probants

Les entités sont agrégées en plages temporelles avec scoring de confiance et indexées pour la recherche.

Exports : JSON/PDF/CSV, frames preuve et transcripts.

Sécurité / Modèle de menace

  • Les clés optionnelles doivent venir de env/.env/Docker secrets, jamais commitées.
  • Share links read-only stockées en SQLite.
  • Si exposé publiquement, ajouter auth + rate limiting et isoler le stockage.

Stack technique

FastAPICeleryRedisSQLAlchemySQLiteffmpegOpenCVYOLOv8sentence-transformersfaster-whisperTesseract OCRReactViteTypeScriptTailwindDocker Compose

FAQ

Qu’est‑ce qui différencie ce système d’une simple démo vidéo ?

C’est un pipeline complet : upload → traitement async → index searchable → rapports exportables et partageables.

Faut‑il du cloud pour exécuter le projet ?

Non. Le système est local‑first et CPU‑friendly, avec stockage local.

Comment valider la qualité des résultats ?

Scoring de confiance, passes de vérification et galerie de frames rendent l’audit visuel simple.

    Thales Video Intelligence Indexing Platform — Case Study