Instagram est accusé de « paresse administrative » : aurait pu lancer plus tôt la mise en place de mécanismes de protection des mineurs, révélant des lacunes et des ambiguïtés
IT House a rapporté le 28 février que le dossier d’interrogatoire judiciaire d’Adam Mosser, directeur d’Instagram, récemment levé, montrait que la plateforme de médias sociaux avait remarqué des contenus nuisibles pour les mineurs, y compris l’exposition de pornographie, dans les canaux de messagerie privée dès 2018, mais que le mécanisme de floutage de contenu protecteur n’a été officiellement lancé qu’en 2024, avec un intervalle pouvant aller jusqu’à 6 ans.
Adam Mosser a soutenu que l’entreprise a toujours cherché à trouver un équilibre entre les droits à la vie privée des utilisateurs et l’accent mis sur la sécurité, et que les utilisateurs ont toujours eu la possibilité de signaler des contenus inadaptés sur Instagram et d’autres applications de discussion en temps opportun.
Un porte-parole de Meta a déclaré au média étranger TechCrunch sur des sujets connexes :
Depuis plus d’une décennie, nous écoutons les parents, collaborons avec des experts et les forces de l’ordre, et menons des recherches approfondies pour identifier les problèmes fondamentaux. Nous utilisons ces connaissances pour apporter des améliorations substantielles — comme le déploiement de comptes adolescents avec des protections intégrées et la fourniture aux parents des outils pour gérer l’expérience de leurs enfants. Nous sommes fiers des progrès réalisés et continuerons à poursuivre de meilleurs services.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Instagram est accusé de « paresse administrative » : aurait pu lancer plus tôt la mise en place de mécanismes de protection des mineurs, révélant des lacunes et des ambiguïtés
IT House a rapporté le 28 février que le dossier d’interrogatoire judiciaire d’Adam Mosser, directeur d’Instagram, récemment levé, montrait que la plateforme de médias sociaux avait remarqué des contenus nuisibles pour les mineurs, y compris l’exposition de pornographie, dans les canaux de messagerie privée dès 2018, mais que le mécanisme de floutage de contenu protecteur n’a été officiellement lancé qu’en 2024, avec un intervalle pouvant aller jusqu’à 6 ans.
Adam Mosser a soutenu que l’entreprise a toujours cherché à trouver un équilibre entre les droits à la vie privée des utilisateurs et l’accent mis sur la sécurité, et que les utilisateurs ont toujours eu la possibilité de signaler des contenus inadaptés sur Instagram et d’autres applications de discussion en temps opportun.
Un porte-parole de Meta a déclaré au média étranger TechCrunch sur des sujets connexes :
Depuis plus d’une décennie, nous écoutons les parents, collaborons avec des experts et les forces de l’ordre, et menons des recherches approfondies pour identifier les problèmes fondamentaux. Nous utilisons ces connaissances pour apporter des améliorations substantielles — comme le déploiement de comptes adolescents avec des protections intégrées et la fourniture aux parents des outils pour gérer l’expérience de leurs enfants. Nous sommes fiers des progrès réalisés et continuerons à poursuivre de meilleurs services.