L’intelligence artificielle pour contrôler les deep fakes.
Cette startup mise sur l’IA pour blinder les contrôles d’identités face aux deep fakes
Technologie : La technologie du “deepfake” pose des défis importants pour l’authentification et la vérification des consommateurs. Une startup en plein essor espère que l’IA peut aussi être une solution à ce danger qui nous guette. (Sources)
Le deepfake, ou hypertrucage, est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert à superposer des fichiers audio et vidéo existants sur d'autres vidéos. Le terme deepfake est un mot-valise formé à partir de deep learning et de fake. Le deepfake utilise l'intelligence artificielle afin de modifier une image, une vidéo ou un son en vue de tromper les internautes. La réalisation de cet "hypertrucage" multimédia consiste généralement à nuire en détournant sciemment l’image ou la voix d’une personne.
L'Intelligence Artificielle (IA), est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée. L'Intelligence Artificielle se développe dans de nombreux domaines comme par exemple les robots, les chatbots, les moteurs de recommandation ou les assistants intelligents. L'IA repose sur 3 éléments fondamentaux, les systèmes informatiques, les algorithmes avancés et les données de systèmes de gestion. La reconnaissance faciale, les assistant intelligents et les voitures autonomes feront parties des applications à très courts termes de l'Intelligence Artificielle dans le grand public. En novembre 2022, OpenAI lance son modèle ChatGPT qui ouvre la porte à l'interaction de manière conversationnelle avec l'intelligence artificielle.
Nicolas Coolman
Auteur
Messages
Vous lisez 0 fil de discussion
Vous devez être connecté pour répondre à ce sujet.