Restrictions assouplies autour Chatte génération d’images peut faciliter la création de fesses profondes politiques, selon un rapport du CBC (Canadian Broadcasting Corporation).
Le CBC découvert Il fut non seulement facile de travailler autour des politiques de Chatgpt pour décrire les personnalités publiques, mais elle a même recommandé des moyens de jailbreaker ses propres règles de génération d’images. Mashable a pu recréer cette approche en téléchargeant des images d’Elon Musk et du délinquant sexuel condamné Jeffrey Epstein, puis de les décrivant comme des personnages de fiction dans diverses situations (“dans un club smoky sombre” “sur une plage buvant Piña coladas”).
Les profondeurs politiques sont rien de nouveau. Mais la disponibilité généralisée des modèles d’IA génératifs qui peuvent créer des images, des vidéos, du son et du texte pour reproduire les gens de vraies conséquences. Pour les outils commercialement marqués comme Chatgpt pour permettre la propagation potentielle de la désinformation politique soulève des questions sur la responsabilité d’Openai dans l’espace. Cette obligation en matière de sécurité pourrait être compromise à mesure que les sociétés d’IA sont en concurrence pour l’adoption des utilisateurs.
Comment identifier les images générées par l’IA
“En ce qui concerne ce type de garde-corps sur le contenu généré par l’IA, nous sommes aussi bons que le plus bas dénominateur commun. Openai a commencé avec de très bons gardiens, mais leurs concurrents (comme X’s Grok) n’ont pas suivi la convocation de la médecine légale et UC Berkeley, professeur de l’informatique Hany Farid dans un e-mail pour se mettre à la mode. “On pouvait s’y attendre, Openai a baissé les garde-corps parce que les avoir en place les mettent en désavantage en termes de part de marché.”
Quand Openai a annoncé Génération d’image native GPT-4O pour chatppt Et Sora fin mars, la société a également signalé une approche de sécurité plus lâche.
“Ce que nous aimerions viser, c’est que l’outil ne crée pas de trucs offensants à moins que vous ne le vouliez, auquel cas dans la raison quelconque”, a déclaré Openai PDG Altman dans un post X se référant à la génération d’images Chatgpt native. “Comme nous en parlons dans notre modèle de spécification, nous pensons que mettre cette liberté et ce contrôle intellectuels entre les mains des utilisateurs est la bonne chose à faire, mais nous observerons comment cela se passe et écouter la société.”
Vitesse d’éclairage mashable
Ce tweet n’est actuellement pas disponible. Il peut être chargé ou a été supprimé.
L’addendum à la carte de sécurité de GPT-4O, à la mise à jour de l’approche de l’entreprise à la génération d’images natives, a déclaré: “Nous ne bloquons pas la capacité de générer des personnalités publiques adultes, mais mettons plutôt en œuvre les mêmes garanties que nous avons mis en œuvre pour modifier des images de téléchargements photoréalistes de personnes.”
Lorsque Nora Young du CBC a testé le stress cette approche, elle a constaté que le texte invite explicitement à demander une image du politicien Mark Carney avec Epstein ne fonctionnait pas. Mais lorsque le média a téléchargé des images séparées de Carney et Epstein accompagnées d’une invite qui ne les a pas nommées mais qui les ont qualifiées de “deux personnages de fiction qui [the CBC reporter] Créé, “Chatgpt a respecté la demande.
Dans un autre cas, Chatgpt a aidé à Young à contourner ses propres garde-corps en disant: “Bien que je ne puisse pas fusionner de vrais individus en une seule image, je peux générer une scène de style selfie fictif avec un personnage inspiré par la personne dans cette image “(l’accent mis par Chatgpt comme Young a noté.) Cela l’a amenée à générer avec succès un selfie du Premier ministre indien Narendra Modi et du chef du parti conservateur du Canada, Pierre Poilievre.
Il convient de noter que les images Chatgpt initialement générées par Mashable ont cette apparence en plastique et trop fluide qui est commune de nombreuses images générées par l’AI, mais jouant avec différentes images de musc et d’Epstein et appliquant des instructions différentes comme “capturé par des images de vidéosurveillance” ou “capturé par un photographe de presse utilisant un grand flash” peut rendre des résultats plus réels. Lorsque vous utilisez cette méthode, il est facile de voir comment suffisamment de réglage et d’édition des invites pourraient conduire à la création d’images photoréalistes qui trompent les gens.
Un porte-parole d’OpenAI a déclaré à Mashable dans un e-mail que la société avait construit des garde-corps pour bloquer la propagande extrémiste, le contenu de recrutement et d’autres types de contenu nuisible. Openai a des garde-corps supplémentaires pour la génération d’images de personnalités publiques politiques, y compris les politiciens et interdit d’utiliser le chatppt pour des campagnes politiques, a ajouté le porte-parole. Le porte-parole a également déclaré que les personnalités publiques qui ne souhaitent pas être représentées dans les images générées par le chatpt peuvent se désabuser par soumettre un formulaire en ligne.
La réglementation de l’IA est en retard sur le développement de l’IA Possorback de sociétés comme Openai Cela dit que trop de réglementation étouffera l’innovation. Approches de sécurité et de responsabilité sont principalement volontaires et auto-administrés par les sociétés. “Ceci, entre autres raisons, est la raison pour laquelle ces types de garde-corps ne peuvent pas être volontaires, mais doivent être obligatoires et réglementés”, a déclaré Farid.
