YouTube interdit aux pré-adolescents de son site, mais les jeunes enfants voient encore un contenu inquiétant


La vidéo YouTube commence par le personnage de dessin animé britannique pour enfants, Peppa Pig, qui se présente ainsi que sa famille, mais des signes de problèmes se manifestent presque immédiatement. Au cours de la neuvième seconde, la mère de Peppa ouvre la bouche et crie: «Fume de l'herbe!»

La vidéo – une version trafiquée d'un véritable épisode de Peppa – se dégrade à partir de ce point. Pendant cinq minutes, il y a des explosions et des insultes racistes et homophobes, qui culminent lorsque Peppa et ses parents portent des lunettes noires fumant de la marijuana alors que le rappeur Snoop Dogg danse à proximité. Depuis qu'elle a été téléchargée en 2015, la vidéo modifiée, qui ne présente aucune limite d'âge, a été visionnée plus de 1,5 million de fois.

Après des années consacrées au contenu inapproprié de la police, YouTube continue de diffuser des images violentes. Les chercheurs, les parents et les groupes de consommateurs déclarent que l'algorithme de recommandation de YouTube ne permet pas de segmenter de manière fiable le contenu en fonction d'un groupe d'âge approprié.

L'algorithme de recommandation de YouTube ne permet pas de segmenter le contenu de manière raciste. , et sa fonctionnalité de lecture automatique par défaut fournit des flux de vidéos presque infinis qui confondent, bouleversent et émoustillent les jeunes esprits. Bien que de nombreux parents essaient de surveiller ce que regardent leurs enfants, le volume considérable de contenu YouTube que beaucoup de consommateurs consomment rend cette tâche peu pratique, en particulier lorsqu'un seul clip court peut délivrer une série de messages hors-clé.

« YouTube est la plus grande douleur point pour les parents aujourd’hui « , a déclaré James Steyer, PDG de Common Sense Media, un groupe à but non lucratif basé à San Francisco qui défend les intérêts des familles et des écoles dans le monde entier. « Les enfants se heurtent constamment à des contenus complètement inappropriés, car ils sont basés sur des algorithmes. »

Steyer et d'autres auteurs affirment que YouTube incarne un changement tectonique dans la programmation pour enfants de la génération précédente, qui s'éloigne du monde réglementé par le gouvernement de la radiodiffusion télévisuelle. Le monde en ligne de plus en plus dominant fournit un contenu presque non réglementé qui peut être téléchargé par presque tout le monde, presque n'importe où dans le monde et qui peut atteindre les enfants à tout moment, en fonction de la vigilance parentale.

19659002] YouTube a toujours dit que sa plateforme n’était pas destinée aux enfants et elle a créé l’application YouTube Kids en 2015 pour répondre à la demande de contenus mieux conçus destinés à un public plus jeune.

« Protéger les enfants et les la famille est une priorité absolue pour nous », a déclaré YouTube en réponse à des questions sur le contenu inapproprié destiné aux enfants. « Parce que YouTube n'est pas pour les enfants, nous avons beaucoup investi dans la création de l'application YouTube pour enfants, une destination spécialement conçue pour les enfants. Nous n'autorisons pas les utilisateurs de moins de 13 ans à créer ou à posséder des comptes sur YouTube, et lorsque nous identifions un compte Dans le cadre de ce processus, nous supprimons chaque compte de milliers de mineurs chaque semaine. « 

Mais les parents, les groupes de consommateurs et les pédiatres rapportent que YouTube est lui-même extrêmement populaire auprès des enfants, plus que de l'application pour enfants. . Les enfants regardent YouTube sur des appareils mobiles – leurs propres appareils et ceux de leurs parents – ainsi que sur des téléviseurs compatibles Internet et via des navigateurs sur des ordinateurs portables. Sur les navigateurs, YouTube n’exige pas que les utilisateurs se connectent, sauf dans les cas où une vidéo est soumise à une limite d’âge, ce qui signifie qu’il n’ya aucun obstacle pratique à ce que les enfants regardent la plupart des vidéos du service.

un compte avant de regarder, donc il peut établir qu'ils ont au moins 18 ans. Cette étape peut décourager les enfants, bien que de nombreux enfants mentent à propos de leur âge pour créer des comptes sur YouTube et d'autres services. YouTube a déclaré que son « équipe de révision » impose des restrictions d'âge au contenu contenant du langage vulgaire, de la nudité, de la violence ou des activités dangereuses, lorsque de telles vidéos sont portées à l'attention de YouTube. Le contenu soumis à des restrictions d'âge ne peut pas diffuser d'annonces ni être monétisé par ses créateurs.

Dans un sondage réalisé l'année dernière par le Pew Research Center auprès de parents d'enfants de moins de 12 ans, plus de 80% ont déclaré que leurs enfants regardaient YouTube et 34%, leurs enfants. ça régulièrement. Dans son enquête annuelle de 2017, le cabinet d'études de marché Smarty Pants a désigné YouTube comme « la marque n ° 1 pour enfants », la qualifiant de « marque la plus puissante dans la vie des enfants ». L'enquête la distingue de l'application YouTube pour enfants, qui était moins populaire parmi les jeunes de 6 à 12 ans.

Les chercheurs affirment que les algorithmes de YouTube pour recommander des contenus posent des problèmes particuliers aux enfants, car ils restent souvent devant un écran pendant de longues périodes, regarder ce qui joue automatiquement. Le contenu, même inapproprié aux yeux des parents, peut hypnotiser les enfants qui manquent de maturité pour se détourner de mots ou d’images qui pourraient être malsains.

Les problèmes peuvent être particulièrement graves lorsque les enfants recherchent des termes aussi populaires et apparemment anodins que «Spiderman». , «  » super héros « et » Elsa « . La princesse au dessin animé blonde glacée qui a joué dans Frozen en 2013 a engendré un contenu YouTube tellement trafiqué et inapproprié que les critiques placent de telles vidéos sous le nom abrégé « Elsagate ». Disney n'a pas répondu aux demandes de commentaires.

Les critiques affirment également que le problème ne s'améliore pas visiblement. La saisie de « Peppa » dans le moteur de recherche de YouTube, par exemple, a généré au moins une vidéo recommandée que les chercheurs ont qualifiée de « troublante » 70% du temps, selon une étude publiée en janvier sur la base de 2 500 vidéos publiées sur YouTube.

interrogeant ces mots-clés ont trouvé des clips montrant une Elsa légèrement vêtue chevauchant un autre personnage de bande dessinée partiellement déshabillé, Spider-Man frétillant sous les draps avec une poupée Rapunzel grandeur nature, et Peppa rencontrant un monstre avec des couteaux pour les mains qui, au milieu de dialogues profanes, décrivaient ouvrir la tête de divers personnages dans des attaques sanglantes. (YouTube indique qu'aucune de ces vidéos ne viole ses règles et qu'aucune ne figure dans l'application YouTube Kids; celle présentant un monstre violent est soumise à des restrictions d'âge.)

Les chercheurs ont également découvert que les enfants avaient 45% de chances de voir au moins. une vidéo « dérangeante » ou inappropriée au sein de 10 séquences vidéo – un étirement qui équivaut souvent à une heure de visionnage. Certaines vidéos étaient des animations brutes, certains acteurs en costumes. Peppa Pig, une série télévisée d'animation britannique destinée aux enfants d'âge préscolaire, a fait ses débuts en 2004, notamment la vidéo Peppa sur le thème de la marijuana. public, est une cible particulièrement populaire pour ceux qui font de fausses versions alternatives d'épisodes originaux ou de vidéos entièrement nouvelles basées sur des personnages de la série. Entertainment One, qui produit Peppa, a refusé de commenter.

Les étudiants de l’Université de technologie de Chypre, qui ont visionné plusieurs vidéos mettant en scène plusieurs personnages populaires auprès des jeunes enfants, ont découvert que les fausses vidéos contenaient souvent des actes de violence, des profanations et des accusations sexuelles. [19659002] « Je suis un parent. Cela se produit certainement plus souvent que je ne suis pas à l'aise », a déclaré Jeremy Blackburn, professeur d'informatique à l'Université de l'Alabama à Birmingham, co-auteur de l'étude et père de trois enfants. « Le problème, c'est qu'ils peuvent être servis et recommandés, ce qui n'est pas simplement des ordures, mais inapproprié, des mauvaises choses. »

Une promesse de nettoyage qui a échoué
Le biologiste Leonore Reiser, qui vit à Oakland, en Californie, Sa fille de 9 ans a récemment déclaré avoir vu des vidéos la concernant sur YouTube. Quand elle vérifia son historique de visionnage, Reiser en trouva une portant la mention « Deux filles veulent un homme » (explétif). « 

Il dépeint deux jeunes femmes en maillot de bain en compétition pour attirer l'attention d'un homme dans une piscine publique et, ailleurs vidéo, le même homme caressant l'un des seins de la femme. Reiser a ensuite déterminé que son fils, pendant une période où il regardait YouTube sans surveillance, avait recherché la profanation, ce qui avait amené la vidéo à apparaître comme une option recommandée.

Lorsque le Washington Post a visionné le clip, la série de vidéos suivante de YouTube L'algorithme recommandé – sur un panneau en bas à droite de l'écran, sous le titre « Up next » – comprenait de nombreuses scènes d'intimité sexuelle qui s'arrêtaient sous la nudité. La plupart n'étaient pas limités par l'âge.

Bien que mécontent du contenu trouvé par son fils lors d'une recherche profane, Reiser était plus contrariée par les paroles des vidéos de rap qui accompagnent souvent les vidéos de faits saillants sur le football et le basket-ball que son fils regardait fréquemment. « Je suis en fait moins préoccupé par les paroles de malédiction que par les hommes qui parlent de b —– s, de houes et de violence », a déclaré Reiser. « C'est ce qui motive vraiment ma chèvre – la violence à l'égard des femmes. »

YouTube s'est longtemps engagé à nettoyer le contenu inapproprié de sa plate-forme au milieu d'une succession de controverses sur l'extrémisme violent, les complots haineux en ligne et le contenu troublant pour enfants. La société a engagé des milliers de modérateurs humains et a cherché à affiner ses systèmes d'intelligence artificielle afin de mieux identifier et supprimer les vidéos enfreignant les consignes de sa communauté.

Mais les efforts ont échoué en ce qui concerne de nombreux types de contenu répréhensible, affirment les chercheurs, parents et défenseurs. Au cours des dernières semaines, un vidéo blogueur a documenté comment des pédophiles parcouraient les vidéos d'enfants et partageaient des horodatages de moments sexuellement suggestifs, comparé à un « anneau de pédophilie à noyau mou », et un pédiatre de Floride a découvert qu'un clip expliquer comment se suicider avait été intégré aux vidéos pour enfants sur YouTube et YouTube Kids.

De telles controverses ont poussé certains annonceurs à abandonner YouTube, comme l'ont récemment fait Disney, Nestlé et d'autres. Cependant, la persistance des problèmes a amené certains de ceux qui étudiaient la plate-forme à conclure que la taille quasi-incompréhensible de YouTube – avec 500 heures de nouvelle vidéo téléchargées par minute – rendait la police si difficile à contrôler que les parents devraient empêcher leurs enfants de la regarder. 19659002] Un célèbre critique, artiste et auteur, James Bridle, qui a utilisé un post de Medium en novembre 2017 pour mettre en avant un contenu troublant que YouTube livrait aux enfants, a déclaré que les corrections tentées par la société n'avaient pas fonctionné. L'algorithme continue d'identifier et de fournir le contenu le plus extrême et le plus stimulant.

« Il semble assez évident que ce n'est qu'un jeu de whack-a-mole », a déclaré Bridle, auteur de « New Dark Age: La technologie et la fin du monde ». l'avenir. » « Plus la vidéo est extrême, plus elle génère de clics … Imaginez maintenant que cela s'applique aux jeunes enfants. »

Il était plus direct dans une conférence TED de l'année dernière: « Si vous avez de jeunes enfants, gardez loin de YouTube. « 

Un puits apparemment sans fond de vidéo
L'algorithme de recommandation de YouTube utilise l'apprentissage automatique et l'intelligence artificielle pour étudier ce que les utilisateurs visionnent et leur suggérer d'autres vidéos. Avec la lecture automatique activée, comme par défaut sur YouTube, le service continuera à diffuser des vidéos présentant des thèmes et des fonctionnalités similaires indéfiniment.

L'ancien ingénieur de YouTube, Guillaume Chaslot, qui a quitté la société en 2013 et dirige maintenant le groupe de surveillance AlgoTransparency, a déclaré YouTube luttera pour freiner le flux de contenu inapproprié tant que son intelligence artificielle sera formée pour maximiser le « temps passé devant la montre », une métrique qui nourrit le modèle commercial de la société.

Le résultat, at-il déclaré, est un système de recommandation qui donne la priorité à la stimulation des utilisateurs avant tout. Dans le récent scandale impliquant des pédophiles présumés énumérant les horodatages des images provocantes dans les sections de commentaire vidéo, Chaslot a déclaré que l'algorithme de recommandation permettait de diffuser un tel contenu. « La meilleure chose à faire pour (l'algorithme) est de trouver les vidéos destinées aux pédophiles et de les transmettre aux personnes les plus susceptibles de le devenir. C'est pourquoi la meilleure intelligence artificielle du monde le fait. »

complique la photo. Il est interdit aux sites destinés aux enfants de moins de 13 ans de collecter la plupart des types de données personnelles sur les utilisateurs sans autorisation parentale. YouTube, qui tire profit de la publicité axée sur les données, évite cette restriction en maintenant que le service ne devrait pas du tout être utilisé par des enfants. Si YouTube recommandait explicitement certains contenus destinés aux enfants, cette position deviendrait intenable, a déclaré Chaslot.

L'année dernière, plusieurs groupes de consommateurs ont déposé une plainte auprès des régulateurs fédéraux, alléguant que YouTube savait que les enfants utilisaient régulièrement le site, en dépit de sa politique. un résultat viole systématiquement la loi sur la protection de la vie privée.

Chaslot a fait valoir que, pour rendre YouTube plus sûre pour les enfants, l'entreprise devait donner la priorité à autre chose que le « temps passé devant un écran », idéalement un système dans lequel les parents évaluent les vidéos en fonction de leur valeur éducative ou de leur pertinence. simplement ce que les enfants cliquent ou regardent automatiquement lors de la lecture automatique.

La pédiatre Jenny Radesky, chercheuse à l'université du Michigan qui examine les effets de la technologie de pointe sur les enfants et les familles, a déclaré que les enfants avaient du mal à comprendre certaines des vidéos. , en particulier lorsque les personnages qu’ils admirent agissent de manière inappropriée. Cela remet en question leur sens émergent du bien et du mal et crée de la confusion. Cela peut aussi amener certains enfants à imiter les comportements qu’ils constatent, a déclaré Radesky.

Et la pression qui pèse sur les parents est sérieuse, car ils cherchent à protéger leurs enfants d’images et de messages troublants qui sont toujours aussi proches que l’appareil mobile le plus proche. De nombreux parents affirment qu’ils trouvent la surveillance constante peu pratique et que les contrôles de contenu sont limités et difficiles à utiliser.

« C’est difficile. C’est une lourde tâche pour les parents de surveiller et de surveiller les enfants », a déclaré Radesky. « Il a besoin d'une solution de design. »

Sen. Edward Markey, D-Mass., A déclaré qu'il proposerait prochainement une législation pour traiter le contenu en ligne pour enfants plutôt que pour la télévision traditionnelle pour enfants. Il est favorable à un étiquetage indiquant que les vidéos sont bien adaptées à leur âge pour aider les familles à prendre une décision et il souhaite examiner de près l'utilisation de fonctionnalités de conception, telles que la lecture automatique, qui encouragent une consommation particulièrement lourde, voire compulsive.

« Il existe des preuves extrêmement solides montrant que les algorithmes poussent le contenu sur YouTube n'est pas adapté aux enfants, et ce n'est pas correct « , a déclaré Markey. « YouTube est l'endroit où les enfants vont. Nous devons donc résoudre le problème … Nous devons mettre en place des règles pour protéger les enfants. »

Reiser, la mère d'Oakland, dont la fillette de 9 ans a trouvé des vidéos inappropriées, lui a dit. des découvertes récentes lui ont donné envie de bloquer la plate-forme de chez elle. « En raison de toutes les choses étranges qu'il trouve, nous regardons moins YouTube. Je l'ai supprimé de la télévision et je le supprime de mon iPhone. »

© The Washington Post 2018 [19659045]

->



Source

Top articles du moment

La Haute Cour de Delhi déclare à RBI que Google Pa... La Haute Cour de Delhi a demandé mercredi à la Reserve Bank of India (RBI) en quoi l'application de paiement mobile de Google, Google Pay, facil...
L'UE affirme que les médias sociaux sont désor... Des responsables de l'UE ont déclaré lundi que les géants de l'internet avaient plus que doublé le taux de répression du discours de haine e...
L'assistant Google apporte de jolies fonctionn... L'assistant Google reçoit maintenant la fonctionnalité Pretty Please annoncée lors de l'I / O 2018. Cette fonctionnalité est conçue pour offr...
Le pape dit «Cliquez pour prier» avant les Journée... Le pape François a utilisé une tablette dimanche pour lancer une nouvelle application permettant aux fidèles de prier avec lui, et a exprimé sa pein...
Spotify pourrait être lancé en Inde le 31 janvier:... L’entrée de Spotify en Inde est en préparation depuis des années pourrait enfin se concrétiser Pendant de nombreuses années, les Indiens devaie...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *