Méta instituent des changements de sécurité provisoire des protocoles de sécurité laxiste prétendument.
Dans une exclusivité avec TechCrunchLa porte-parole de Meta, Stephanie Otway, a déclaré à la publication que les chatbots d’IA de l’entreprise étaient désormais formés pour ne plus “s’engager avec les adolescents sur l’automutilation, le suicide, les troubles de l’alimentation ou des conversations romantiques potentiellement inappropriées”. Auparavant, les chatbots avaient été autorisés à aborder ces sujets lorsqu’ils sont “appropriés”.
4 raisons de ne pas transformer le chatppt en votre thérapeute
Meta permettra également aux comptes d’adolescents d’utiliser un groupe sélectionné de personnages d’IA – ceux qui “promouvaient l’éducation et la créativité” – avant une refonte de sécurité plus robuste à l’avenir.
Plus tôt ce mois-ci, Reuters a rapporté que certaines des politiques de chatbot de Meta, selon des documents internes, permettaient aux avatars de “engager un enfant dans des conversations romantiques ou sensuelles. “Reuters publié un autre rapport Aujourd’hui, détaillant les avatars de l’IA créés par l’utilisateur et les employés qui ont enfilé les noms et les ressemblances de célébrités comme Taylor Swift et se sont engagées dans un comportement “séduisant”, y compris les avancées sexuelles. Certains des chatbots ont également utilisé des personnages de célébrités d’enfants. D’autres ont pu générer des images sexuellement suggestives.
Vitesse d’éclairage mashable
Le porte-parole de Meta, Andy Stone, a déclaré à la publication que les chatbots n’auraient pas dû être en mesure de se livrer à un tel comportement, mais que les avatars inspirés des célébrités n’étaient pas bannis en carrément s’ils étaient qualifiés de parodie. Une douzaine des avatars ont depuis été retirés.
OpenAI a récemment annoncé des mesures de sécurité supplémentaires et des invites comportementales pour le dernier GPT-5, à la suite du dépôt d’une poursuite pour mort injustifiée par des parents d’un adolescent décédé par suicide après avoir conçu à Chatgpt. Avant le procès, OpenAI a annoncé de nouvelles caractéristiques de santé mentale destinées à limiter les comportements “malsains” parmi les utilisateurs. Anthropic, Makers of Claude, a récemment introduit de nouvelles mises à jour du chatbot lui permettant de mettre fin aux chats jugé nocif ou abusif. Personnage.aiune entreprise hébergeant de plus en plus compagnons d’IA populaires Malgré les interactions malsaines avec les visiteurs adolescents, introduit la supervision parentale Caractéristiques en mars.
Cette semaine, un groupe de 44 Procureurs généraux a envoyé une lettre aux principales sociétés d’IA, y compris Meta, exigeant des protections plus fortes pour les mineurs qui peuvent rencontrer du contenu d’IA sexualisé. D’une manière générale, les experts ont exprimé une préoccupation croissante sur l’impact des compagnons d’IA sur les jeunes utilisateurs, à mesure que leur utilisation augmente chez les adolescents.
Ne manquez pas nos dernières histoires: Ajouter Mashable comme source d’information de confiance dans Google.
