AccessoiresBlog

Comment l’intelligence artificielle est utilisĂ©e pour effectuer des deepfakes et les dĂ©tecter

inteligencia artificiel para crear deepfakes y para detectarlos

Émergeant pour la première fois en 2018, deepfakes Ils se sont fait connaĂ®tre pour avoir permis d’Ă©changer les visages d’acteurs d’une vidĂ©o Ă  l’autre. Le mot Profond vient du terme l’apprentissage en profondeur (apprentissage en profondeur) une branche de l’IA qui implique des algorithmes qui reproduisent avec prĂ©cision les capacitĂ©s d’apprentissage des humains et des animaux.

Il existe un type de rĂ©seau neuronal utilisĂ© dans les contrefaçons appelĂ© autoencoder (autoencoder), qui est responsable de l’encodage d’une image d’entrĂ©e dans un petit ensemble de valeurs numĂ©riques Ă  l’aide de couches.

Les couches initiales avec de nombreuses variables sont simplifiĂ©es jusqu’Ă  atteindre la couche de goulot d’Ă©tranglement, qui est ensuite dĂ©codĂ©e par le rĂ©seau neuronal pour recrĂ©er l’image d’origine.

Une sĂ©rie d’images sert de source de donnĂ©es pour alimenter l’autocodeur pendant son processus d’apprentissage afin qu’il puisse trouver un moyen d’ajuster les paramètres correspondant Ă  la couche d’encodage et de dĂ©codage jusqu’Ă  ce que l’image de sortie soit aussi prĂ©cise que possible. Ă  l’entrĂ©e.

Pendant la formation, l’autocodeur reçoit une sĂ©rie d’images. Le but de la formation est de trouver un moyen d’ajuster les paramètres de la couche du codeur et du dĂ©codeur afin que l’image de sortie soit aussi proche que possible de l’image d’entrĂ©e.

Et bien que cette technologie ne soit toujours pas anodine, les deepfakes ont fait de la manipulation vidĂ©o une ressource accessible Ă  tous, provoquant ainsi l’apparition de falsifications axĂ©es sur la gĂ©nĂ©ration de fausses nouvelles.

Cela a conduit les chercheurs en IA Ă  prendre l’initiative de dĂ©velopper des outils permettant la dĂ©tection des faux. L’une d’elles a Ă©tĂ© dĂ©veloppĂ©e dans le but de marquer les vidĂ©os oĂą la personne ne clignait pas des yeux ou le faisait Ă  des intervalles anormaux.

Il existe une autre mĂ©thode qui envisage l’utilisation d’algorithmes d’apprentissage en profondeur conçus pour dĂ©tecter les signes de manipulation sur les bords des objets dans les images.

Bouton retour en haut de la page

Blocage d'annonces détecté

Vous devez supprimer le AD BLOCKER pour continuer Ă  utiliser notre site MERCI