Page Accueil Forums Discussion Générale Attention aux arnaques par DeepFake.

Étiqueté : ,

Vous lisez 1 fil de discussion
  • Auteur
    Messages
    • #41591
      Nicolas Coolman
      Maître des clés

      Attention aux arnaques par DeepFake.

      Deep fake : Quatre exemples d’escroquerie qui peuvent vous arriver. Piéger un employeur, dérober des cryptomonnaies, demander un virement frauduleux, dénigrer des concurrents… Toutes ces actions sont possibles via les deep fake. (Sources)


      Les escroqueries en informatique, une menace omniprésente dans le monde numérique, se manifestent sous diverses formes telles que le phishing, les logiciels malveillants et les faux services. Ces pratiques frauduleuses ciblent souvent les utilisateurs peu méfiants, leur soutirant des informations personnelles ou financières. D'autres méthodes d'arnaques se font via les campagnes de SMiShing et de SPAM par courriel ou par téléphone. Voici quelques exemples de situations frauduleuses médiatisées.

      Escroquerie au président : Des cybercriminels usurpent l'identité d'un haut dirigeant d'une entreprise pour convaincre un employé de transférer des fonds à un compte bancaire contrôlé par les escrocs. Cette technique a été utilisée dans de nombreuses entreprises à travers le monde, causant des pertes financières considérables.

      Fraude aux cryptomonnaies : Des plateformes d'échange de cryptomonnaies ont été victimes de piratages où des millions de dollars en cryptomonnaies ont été dérobés. Parfois, des escrocs lancent également des ICO (Initial Coin Offerings) frauduleuses, promettant des rendements élevés mais ne livrant jamais les produits ou services annoncés.

      Fraude au support technique : Des escrocs se font passer pour des agents de support technique de grandes entreprises comme Microsoft ou Apple et contactent les utilisateurs pour leur faire croire qu'ils ont des problèmes avec leur ordinateur. Ils incitent ensuite les victimes à fournir un accès à distance à leur ordinateur ou à acheter des logiciels ou des services inutiles.

      Escroqueries liées à la pandémie de COVID-19 : Pendant la pandémie de COVID-19, de nombreuses escroqueries ont été signalées, telles que la vente de faux équipements de protection, la diffusion de fausses informations sur les traitements ou les vaccins, et la collecte de dons pour de prétendues organisations caritatives.

      Arnaques aux réseaux sociaux : Des faux profils sur les réseaux sociaux sont utilisés pour escroquer les utilisateurs en leur demandant de l'argent ou en leur promettant des cadeaux ou des récompenses en échange d'informations personnelles.

      Malgré les efforts des autorités et des entreprises pour contrer ces activités, les escroqueries informatiques persistent, mettant en danger la sécurité et la confidentialité des individus et des organisations.

      Le deepfake, ou hypertrucage, est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert à superposer des fichiers audio et vidéo existants sur d'autres vidéos. Le terme deepfake est un mot-valise formé à partir de deep learning et de fake. Le deepfake utilise l'intelligence artificielle afin de modifier une image, une vidéo ou un son en vue de tromper les internautes. La réalisation de cet "hypertrucage" multimédia consiste généralement à nuire en détournant sciemment l’image ou la voix d’une personne.

      L'Intelligence Artificielle (IA), est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée. L'Intelligence Artificielle se développe dans de nombreux domaines comme par exemple les robots, les chatbots, les moteurs de recommandation ou les assistants intelligents.

      L'IA repose sur 3 éléments fondamentaux, les systèmes informatiques, les algorithmes avancés et les données de systèmes de gestion. La reconnaissance faciale, les assistant intelligents et les voitures autonomes feront parties des applications à très courts termes de l'Intelligence Artificielle dans le grand public. En novembre 2022, OpenAI lance son modèle ChatGPT qui ouvre la porte à l'interaction de manière conversationnelle avec l'intelligence artificielle. En 2023, l'IA est largement utilisée par les escrocs pour réaliser des deepfakes en sextorsion.

    • #43545
      Nicolas Coolman
      Maître des clés

      McAfee détecte les Deepfakes audios.

      McAfee dévoile une technologie de détection des Deepfakes audios. McAfee dévoile une technologie avancée de détection des Deepfakes audio pour renforcer la protection contre les escroqueries et la désinformation générées par l’IA.

      Le deepfake, ou hypertrucage, est une technique de synthèse d'images basée sur l'intelligence artificielle. Elle sert à superposer des fichiers audio et vidéo existants sur d'autres vidéos. Le terme deepfake est un mot-valise formé à partir de deep learning et de fake. Le deepfake utilise l'intelligence artificielle afin de modifier une image, une vidéo ou un son en vue de tromper les internautes. La réalisation de cet "hypertrucage" multimédia consiste généralement à nuire en détournant sciemment l’image ou la voix d’une personne.


      McAfee, est un éditeur de logiciel initialement connu pour son logiciel anti-virus McAfee VirusScan. Le siège social de cette société est à San Jose. McAfee Social Protection est depuis août 2012, une application Facebook permettant de protéger les photographies publiées par les membres du réseau social. La sécurité résulte dans l’empêchement du téléchargement, de l'impression ou bien de l'imprime écran de celle-ci. McAfee Total Protection propose une protection tout-en-un pour vos informations personnelles et votre confidentialité, afin que vous puissiez profiter de la vie en ligne. Comprend deux ans d'abonnement Antivirus Premium, une navigation sécurisée, la protection de votre identité et un VPN sécurisé.

Vous lisez 1 fil de discussion
  • Vous devez être connecté pour répondre à ce sujet.
Retour en haut