Le gouvernement des Émirats arabes unis a fait part de ses inquiétudes face au nombre croissant d’escroqueries basées sur l’IA dans la région. En réponse, le Département d’autonomisation du gouvernement a publié un avis ferme, mettant en garde le public contre la menace croissante de la technologie deepfake et de la fraude basée sur l’IA. Les responsables ont expliqué que les cybercriminels utilisent de plus en plus l’intelligence artificielle pour se faire passer pour des personnalités gouvernementales et tromper les individus en leur faisant révéler des informations personnelles sensibles. Pour contrer cela, le ministère a défini des signes d’avertissement clés destinés à aider les utilisateurs à identifier et à éviter de telles attaques malveillantes.
S’exprimant à travers des messages de sensibilisation sur X, le ministère a souligné comment les fraudeurs combinent des tactiques d’ingénierie sociale avec des outils d’IA pour créer de faux appels et de fausses vidéos convaincants. “Les attaquants utilisent l’urgence et la peur pour manipuler les victimes”, a déclaré le ministère. « Reconnaître les signes précocement peut aider à prévenir de graves violations. »
Pour aider le public à rester en sécurité, le ministère a défini six signes d’avertissement clés : trois pour détecter les appels frauduleux et trois pour identifier les deepfakes. En ce qui concerne les appels, il est conseillé aux utilisateurs de se méfier des appels inconnus, notamment ceux demandant des informations personnelles. “Si vous recevez un appel suspect, raccrochez et vérifiez le numéro via les canaux officiels”, a conseillé le ministère.
Le deuxième conseil met en garde contre les tactiques d’urgence. Les fraudeurs créent souvent la panique pour pousser les gens à prendre des décisions rapides. La troisième ligne directrice exhorte les gens à rester calmes et à ne jamais partager de données personnelles telles que des numéros de compte bancaire ou des informations d’identification par téléphone.
Pour Deepfakes, le ministère a expliqué que de fausses vidéos et clips audio créés à l’aide de l’IA peuvent imiter de vraies voix et visages. Pour les détecter, les utilisateurs doivent surveiller une mauvaise synchronisation labiale, des mouvements oculaires non naturels et des expressions faciales étranges. « Vérifiez toujours la source avant de répondre à toute demande », a déclaré le ministère.
Les responsables ont également fait part de leurs inquiétudes concernant l’utilisation abusive des applications de retouche photo basées sur l’IA. De nombreux utilisateurs téléchargent sans le savoir des images personnelles pour les transformer en avatars ou en dessins animés, sans se rendre compte qu’ils partagent des données biométriques. « Avec une seule photo, vous révélez votre identité faciale », a prévenu le ministère. “Cette image peut être utilisée pour créer de faux comptes ou des vidéos deepfake.”
LIRE LA SUITE : Meta AI utilisera vos données de chat pour les publicités et la personnalisation du contenu, à partir du 16 décembre
