Le deep-fake est système de modification d’image ( vidéo, audio aussi ) comme si que c’était une vrai image. Par exemple une video qui remplace votre tête par la tête d’un autre. C’est très bluffant voir le solidarité sida. Il est vrai que la vidéo à mis du temps à être réalisée. C’est bluffant ;).
Le programme ZAPPEUR
L’objectif du programme est de récupérer un flux vidéo et de reconnaître les personnes. Le système est simple, je me connecte à un flux vidéo ( la télévision ) via VLC et sur chaque image je reconnais les personnes. Dans mes tests, j’ai testé plusieurs bibliothèques et j’ai fait mon choix sur la bibliothèque dlib
Détection d’image pédo-pornographie
IA nous permet maintenant de trouver des images pédopornographiques pour la gendarme. 2 programmes ont été réalisés en 2017: Le premier est un programme qui détecte les images à analyser ainsi que l’age des personnes des personnes. Les images sont archivées pour une validation humaine. La seconde est un programme qui détecte les images dans
KPU
Les nouvelles technologies avance. La KPU est l’abréviation “knowledge processor unit”. A quoi, ca sert ? La KPU est très peu documenté mais si on est débrouillard en IA+ électronique+information, on voit vite le principe. Actuellement, j’ai fait un POC sur ce système sur de la reconnaissance facial simple. Je n’ai pas trouvé comment créer
Bonjour tout le monde !
Le site est destiné à présenter mon travail passé et avenir sur plusieurs technologies.