Meta prend des mesures audacieuses pour protéger les mineurs sur Instagram contre le chantage aux images intimes: découvrez comment

Le groupe Meta, parent d'Instagram, a annoncé qu'il mettra en œuvre une série de mesures pour protéger les jeunes utilisateurs du chantage aux photos de nu.

Introduction à l’initiative de Meta #

Ces nouvelles mesures, qui incluent un « contrôleur de nudité », sont conçues pour détecter automatiquement et rendre floues les images nues envoyées sur la messagerie de l’application. Le but est de donner aux destinataires le choix de voir ou non ces images potentiellement non désirées.

Ces mesures seront d’abord testées dans quelques pays d’Amérique centrale et latine à partir de mai, avant un déploiement mondial dans les prochains mois. Cette annonce fait suite à des critiques récurrentes selon lesquelles les réseaux sociaux ne font pas assez pour protéger les mineurs en ligne.

Actions spécifiques prises #

Outre le contrôleur de nudité, Meta prévoit d’envoyer des messages de sensibilisation sur le chantage aux photos à caractère sexuel, également appelé « sextorsion », à l’émetteur et au récepteur des images. Ces messages ont pour but de rappeler aux utilisateurs que le partage de contenus sensibles peut entraîner des captures d’écran et des transferts par des personnes malveillantes, ce qui peut potentiellement conduire à du chantage.

À lire Un gisement colossal de manganèse révélé par un drone amateur dans le Tarn, l’armée sécurise la zone

En outre, si un compte est identifié par l’intelligence artificielle de Meta comme étant potentiellement à l’origine de ce type de chantage, ses interactions avec les utilisateurs mineurs seront fortement limitées. Par exemple, un tel compte ne pourra pas envoyer de messages privés à un compte de mineur, n’aura pas accès à sa liste complète d’abonnés et les comptes de mineurs ne figureront plus dans la barre de recherche.

Limitations et défis potentiels #

Il convient de noter que cette technologie, rendue possible par l’intelligence artificielle, existe déjà depuis plusieurs années. La question se pose donc de savoir pourquoi Meta ne l’a pas mise en œuvre plus tôt. En outre, il y a un risque de « faux positifs », où des photos innocentes pourraient être signalées comme inappropriées. Cela pourrait conduire à de nouvelles formes de normativité, poussant les utilisateurs à se restreindre dans certains usages.

Il est également important de mentionner que malgré ces mesures, la modération humaine reste une nécessité. Les plateformes en ligne sont actuellement en défaut de modération humaine, et l’intervention d’un modérateur pourrait aider à éviter certains de ces écueils.

Mesures précédentes prises par Meta #

Il est important de rappeler que Meta, qui a été accusé de nuire à la santé mentale des adolescents, avait déjà annoncé en janvier une première série de mesures pour mieux protéger les jeunes utilisateurs. Parmi ces mesures, un utilisateur mineur doit désormais obtenir la permission explicite de ses parents pour changer son compte de privé à public, accéder à plus de contenus sensibles ou recevoir des messages de personnes qu’il ne suit pas déjà sur la plateforme.

À lire Découverte d’un gisement de scandium sous un ancien terrain militaire, les riverains réclament des compensations

En outre, la Commission européenne a lancé des enquêtes séparées sur Meta, Snap (Snapchat), TikTok, YouTube sur les mesures mises en œuvre pour protéger la « santé physique et mentale » des mineurs. Le Parlement français a également adopté en juin l’obligation pour les plateformes comme TikTok, Snapchat ou Instagram de vérifier l’âge de leurs utilisateurs et le consentement des parents quand ils ont moins de 15 ans.

  • Contrôleur de nudité
  • Messages de sensibilisation
  • Limitation des interactions pour les auteurs présumés de chantage
  • Possibilité de faux positifs
  • Mesures précédentes de Meta

Sciences et Démocratie est édité de façon indépendante. Soutenez la rédaction en nous ajoutant dans vos favoris sur Google Actualités :

Partagez votre avis