En septembre 2014, Facebook revendiquait un milliard de vidéos vues sur le réseau chaque jour. Mais pour que certains contenus « inappropriés ou inconvenants » ne choquent pas certains de ses membres, le site est en train de mettre en place des messages d’avertissement et des filtres sur les vidéos qu’ils téléchargent et partagent avec leurs amis, a indiqué un porte-parole du réseau social le 13 janvier 2015.
Le réseau social californien, qui accepte les inscriptions à partir de 13 ans, est ainsi en train d’instaurer des barrières pour les utilisateurs les plus jeunes afin d’empêcher, par exemple, les moins de 18 ans de voir des vidéos choquantes ou offensantes qui sont partagées sur leur fil d’actualité.
« Quand les gens partagent quelque chose sur Facebook on attend d’eux qu’ils partagent de manière responsable, notamment en ciblant qui va pouvoir voir leurs contenus », a expliqué à l’AFP un porte-parole du réseau social.
« Dans les cas où des utilisateurs signaleront des contenus non appropriés nous pourrons être amenés à mettre un message d’avertissement destiné aux adultes, et nous pourrons empêcher les jeunes utilisateurs de voir ces contenus », a ajouté ce porte-parole.
Facebook a commencé à mettre en place ces messages et ces filtres en novembre dernier après avoir mis en place un système permettant que des vidéos se lancent toutes seules sur les fils d’actualité des abonnés. Les gens sont obligés de cliquer sur le message d’avertissement pour lire les vidéos litigieuses par exemple.
Les messages d’avertissement ne sont cependant pas mis sur les vidéos de YouTube partagées sur le réseau social.
A lire aussi :
Grâce à Facebook, un ordinateur vous connaît mieux que vos amis !, paru le 13/1/2015
Comment Facebook veut vous chaperonner à coup d’intelligence artificielle, paru le 12/12/2014
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.