12 Matching Annotations
  1. Jun 2025
    1. Compte Rendu Détaillé : Anna Baldy sur les Effets Psychologiques de TikTok sur les Mineurs

      Introduction et Contexte

      • Ce compte rendu est basĂ© sur l'audition d'Anna Baldy, jeune adulte, ancienne utilisatrice intensive de TikTok et crĂ©atrice de contenu actuelle sur la plateforme.

      Son témoignage offre une perspective nuancée sur les impacts de TikTok, mêlant expérience personnelle, analyse critique et considérations éthiques.

      Ayant commencé à produire du contenu sur TikTok il y a un an, elle a rapidement atteint 160 000 abonnés, générant des revenus basés sur le nombre de vues de ses vidéos (entre 900 et 1400 € mensuels pour environ 4 heures de travail quotidien sur la création de vidéos).

      Elle déclare recevoir des revenus directement de TikTok, basés sur les vues, ce qui soulève des questions sur le modèle économique de la plateforme.

      Son objectif en tant que créatrice est "d'amener un peu plus de contradictoire dans le paysage informationnel des réseaux sociaux", en s'appuyant sur ses études en sciences politiques pour étayer ses propos par des sources d'experts ou de chercheurs.

      Thèmes Majeurs et Idées Clés

      • TikTok : Un Outil Ă  Double Tranchant (AccessibilitĂ© vs. InquiĂ©tudes)

      • Points Positifs :AccessibilitĂ© de l'information et pluralisme : TikTok est perçu comme un "lieu d'accessibilitĂ© de l'information gratuite" et un "rare espace mĂ©diatique que les jeunes peuvent investir pour faire entendre leurs paroles".

      Il permet la survie d'un "contre-discours fort" et donne la parole à ceux dont les idées ou l'identité ne conviennent pas aux médias classiques, considérés comme parfois élitistes ou influencés par des agendas politiques (propriété de millionnaires à l'agenda politique "d'extrême droite" assumé). * Éducation et découverte : En tant qu'utilisatrice, Anna Baldy souligne que TikTok l'a "éduque aussi énormément", lui donnant accès à des "réflexions de militants" et des "recommandations de livres" qu'elle n'aurait pas trouvées autrement. * Liberté et indépendance pour les créateurs : Pour elle, TikTok offre la possibilité de "garder une pleine indépendance" et de "trouver une audience" plus facilement que sur d'autres plateformes. * Inquiétudes et Points Négatifs :Propagation de fausses informations et polarisation : "Je m'inquiète quant à la propagation d'informations fausses ou simplifiées sorties de leur contexte souvent clivantes et détournées pour faire peur pour polariser en jouant des biais cognitifs et rhétoriques que se manipuler par les plus grands propagandistes de nos heures sombres." Elle s'inquiète particulièrement de l'accès à ces informations pour des "enfants de 13 ans". * Bulles algorithmiques et impact psychologique : L'algorithme peut entraîner les utilisateurs dans "une spirale de pensée mauvaise pour nous-mêmes mauvaise pour les autres".

      Elle a elle-même dû "supprimer TikTok de mon téléphone tellement je passais de temps dessus" et a désinstallé l'application à plusieurs reprises, notamment pendant l'adolescence, car "TikTok peut avoir tendance toujours dans cette ce fonctionnement des bulles algorithmiques à jouer sur le mal-être et le désespoir ressenti par tous mais surtout ressenti par les adolescents". * Contenu inapproprié et impunité : Elle déplore la "totale impunité qui entoure des comptes vidéos et des commentaires relevant d'un racisme qui n'a rien de tacite et d'une misogynie rampante".

      Elle cite des exemples concrets de commentaires violents, sexistes et racistes reçus sous ses propres vidéos, craignant qu'ils soient écrits par des mineurs et que la violence réelle subie par d'autres jeunes femmes soit bien pire. * Opacité de l'algorithme : L'algorithme est "très opaque" et les créateurs n'ont pas une connaissance précise de son fonctionnement, ce qui est "volontaire puisque pour qu'on puisse pas jouer de ces outils nous-mêmes". Elle observe que les 10 à 20 premières secondes des vidéos sont cruciales pour l'engagement.

      Modération et Responsabilité des Plateformes

      • Filtrage inefficace et manque de suivi : Bien que TikTok mette en place un filtrage automatique des commentaires insultants, certains passent au travers. Le principal problème est l'absence de retour sur les signalements : "une fois qu'on signale un commentaire on a aucune information sur le suivi".
      • Problème de communication avec les Ă©quipes de modĂ©ration : Si elle a eu une expĂ©rience positive avec l'Ă©quipe de TikTok pour une usurpation d'identitĂ©, elle note qu'une autre crĂ©atrice fĂ©ministe subissant un cyberharcèlement intense n'a reçu "aucune rĂ©ponse" après avoir contactĂ© la mĂŞme adresse.
      • DĂ©responsabilisation des plateformes : Elle critique la tendance des plateformes Ă  se dĂ©responsabiliser, citant l'exemple d'un reprĂ©sentant de Snapchat imputant la rĂ©ception de "dickpics" aux enfants ayant ajoutĂ© des inconnus.

      Pour elle, "c'est une réaction que je trouve très facile et c'est le jeu que font les plateformes aujourd'hui [...] pour se déresponsabiliser et tirer tous les profits de cette situation".

      Algorithme et Modèle Économique : Un Incitant aux Contenus Choc

      • RĂ©munĂ©ration par les vues et modèle opaque : Les revenus des crĂ©ateurs sont "liĂ©s essentiellement aux vues", mais uniquement celles qui "dĂ©passent une minute et qui est liĂ©e Ă  la page des pour toi". La plateforme doit donc "mettre en avant" le contenu pour qu'il soit rĂ©munĂ©rĂ©.
      • Contenus choquants plus rĂ©munĂ©rateurs : Le modèle de rĂ©munĂ©ration "liĂ© Ă  la mise en avant par l'algorithme et seulement par l'algorithme est quand mĂŞme au cĹ“ur de la problĂ©matique au sens oĂą des contenus choquants par exemple vont ĂŞtre plus rĂ©munĂ©rateurs que des contenus de qualitĂ© qui demandent un temps de prĂ©paration".
      • DĂ©fis pour le contenu Ă©ducatif/politisĂ© : Les collaborations pour le contenu Ă©ducatif sont "plus compliquĂ©es Ă  obtenir" que pour le contenu lifestyle. Les grandes marques, souvent "peu politiques", sont celles qui rĂ©munèrent le plus, tandis que les institutions culturelles ou les mĂ©dias indĂ©pendants n'ont pas les mĂŞmes moyens. Il est "Ă©vident que plus on fait un contenu politisĂ© ou Ă©ducatif plus les demandes de collaboration sont difficile Ă  obtenir".
      • Censure algorithmique : L'algorithme peut "dĂ©fĂ©rencer" des vidĂ©os contenant certains mots, mĂŞme lĂ©gitimes (ex: "Palestine" ou "viol"). Les crĂ©ateurs contournent cela en utilisant des "buzz words" ou des abrĂ©viations (ex: "V" pour viol, "AS" ou "SA" pour agression sexuelle) pour Ă©viter d'ĂŞtre pĂ©nalisĂ©s.

      Mineurs et Régulation : Éducation vs. Interdiction

      • ComplexitĂ© de l'interdiction d'accès pour les mineurs : Anna Baldy s'interroge sur l'accès des mineurs (13 ans vs 17 ans) aux mĂŞmes contenus, reconnaissant qu'"un adolescent Ă  qui on interdit de faire quelque chose dĂ©jĂ  sur internet trouvera un moyen de le faire". Elle cite l'exemple des sites pornographiques oĂą les jeunes se font passer pour des majeurs.
      • PrioritĂ© Ă  l'Ă©ducation : Elle n'est pas convaincue qu'on "apprend Ă  un enfant comment trier l'information et comment l'analyser en lui interdisant de la regarder". Pour elle, "beaucoup se jouent vis-Ă -vis de l'Ă©ducation que l'on donne aux enfants quant Ă  l'Ă©tude Ă  l'analyse de l'information". Elle estime que des contenus informatifs peuvent ĂŞtre bĂ©nĂ©fiques pour les mineurs.
      • NĂ©cessitĂ© de protection : Elle reconnaĂ®t la "difficultĂ© qu'on a aujourd'hui Ă  rĂ©guler Ă  modĂ©rer et Ă  contraindre notamment TikTok Ă  modĂ©rer de façon efficace".

      Elle est "d'accord" sur le fait qu'un enfant "doit être protégée" et qu'un "principe de précaution" pourrait s'appliquer pour les plus jeunes, non armés face à des contenus "extrêmement inappropriés". * Fiabilité des statistiques d'âge : Elle note l'étrangeté des statistiques d'audience de TikTok, qui indiquent seulement 0,5% de mineurs pour son contenu, ce qui la surprend au vu des commentaires qu'elle reçoit de lycéens. Elle-même a déclaré son vrai âge (15 ans) lors de sa première inscription.

      Conclusion

      • Le tĂ©moignage d'Anna Baldy met en lumière la nature intrinsèquement ambivalente de TikTok.

      La plateforme est à la fois un espace de liberté d'expression, de pluralisme informationnel et d'apprentissage, et un vecteur de désinformation, de haine et de harcèlement, exacerbé par un algorithme opaque et un modèle économique qui incite à la production de contenus sensationnels.

      Elle souligne la tension entre la volonté de protéger les mineurs et la réalité de leur capacité à contourner les interdictions, plaidant pour une approche équilibrée combinant protection, régulation et surtout éducation critique aux médias et à l'information.

      Son approche "gramscienne" de l'occupation des espaces culturels témoigne d'une volonté d'agir de l'intérieur pour contrer les dérives.

    1. Note de synthèse de l'audition de Isac Mayembo (Alex Hitchens) par la commission d'enquête sur TikTok

      Date de l'audition : [Non spécifiée, mais contexte indique "aujourd'hui" et "cet après-midi"]

      Personne auditionnée : Isac Mayembo, créateur de contenu sous le pseudonyme Alex Hitchens.

      1. Contexte de l'audition et déclaration d'intérêts

      • Isac Mayembo a Ă©tĂ© convoquĂ© par la commission d'enquĂŞte sur l'impact de TikTok sur la santĂ© mentale des jeunes.
      • Il est invitĂ© Ă  dĂ©clarer tout intĂ©rĂŞt public ou privĂ© susceptible d'influencer ses dĂ©clarations, notamment ses sources de rĂ©munĂ©ration liĂ©es aux plateformes.
      • Avant de commencer, il prĂŞte serment de "dire la vĂ©ritĂ©, toute la vĂ©ritĂ© et rien que la vĂ©ritĂ©" conformĂ©ment Ă  l'article 6 de l'ordonnance du 17 novembre 1958.
      • DĂ©claration d'intĂ©rĂŞts :
      • RĂ©munĂ©ration TikTok : Isac Mayembo dĂ©clare ne pas ĂŞtre directement rĂ©munĂ©rĂ© par la monĂ©tisation des vidĂ©os sur TikTok.
      • Modèle Ă©conomique : Ses revenus proviennent principalement de la vente de ses formations. Il a mis en place un programme d'affiliation oĂą d'autres personnes promeuvent ses formations sur TikTok et touchent des commissions (en moyenne 50%, voire 60-70% pour les meilleurs affiliĂ©s).
      • IntĂ©rĂŞts : Il reconnaĂ®t avoir des intĂ©rĂŞts financiers avec TikTok, affirmant : "Oui je gagne de l'argent avec TikTok et oui j'ai des intĂ©rĂŞts avec cette plateforme bien entendu."
      • HonnĂŞtetĂ© face Ă  la plateforme : MalgrĂ© ses intĂ©rĂŞts, il affirme vouloir ĂŞtre "100% honnĂŞte" et estime que TikTok est une plateforme "nĂ©faste" et qui "dĂ©prime". Il ajoute : "Je pense que cette plateforme de manière gĂ©nĂ©rale est nĂ©faste dĂ©prime Ă  bord lorsque TikTok est sorti c'Ă©tait quelque chose d'intĂ©ressant."

      2. Évolution et impact perçu de TikTok

      • TikTok initialement : Ă€ son lancement, il trouvait TikTok "intĂ©ressant", permettant de "condenser un peu les informations, regarder une vidĂ©o de 1 minute 2 minutes pour pouvoir ainsi apprendre tout un tas de choses".
      • Problèmes actuels : Le format court (1 Ă  2 minutes) rend difficile l'obtention d'informations complètes, ce qui a créé "Ă©normĂ©ment de problèmes notamment Ă©normĂ©ment de dĂ©sinformations". Il peut lui-mĂŞme ĂŞtre victime de dĂ©sinformation par l'isolement de propos hors de leur contexte (ex: "on va prendre une vidĂ©o de 10 minutes on va isoler 30 secondes ou une minute bien choisie pour manipuler l'information").
      • Recommandation : Il conclut son propos liminaire en affirmant que "TikTok est Ă  ban bien entendu selon moi et je pense que cette plateforme est nĂ©faste pour les jeunes si elle est mal entradĂ© encadrer bien entendu ça Ă  prĂ©ciser quand mĂŞme et c'est le cas je pense."

      3. Parcours sur TikTok et stratégies de contenu

      • DĂ©buts : Il a commencĂ© sur TikTok fin 2021/dĂ©but 2022.
      • Contenu performant : Il a rapidement constatĂ© que ce qui fonctionnait le mieux est le "contenu qui choque".
      • Importance des premières secondes : Sur TikTok, les "premières secondes sont primordiales", contrairement Ă  YouTube oĂą les miniatures attirent davantage. Le contenu doit ĂŞtre "tranchant", "cash", et "clair" dès le dĂ©but.
      • Contenu initial Ă  succès : Ses premières vidĂ©os Ă  succès Ă©taient sur le thème de la "sĂ©duction", notamment la "drague de rue" et les "camĂ©ras cachĂ©es" oĂą il abordait des gens dans la rue. Ce type de contenu "fonctionnait extrĂŞmement bien et ça fonctionne d'ailleurs encore maintenant".
      • MonĂ©tisation des vidĂ©os Ă  succès : Bien que ses vidĂ©os aient pu gĂ©nĂ©rer des millions de vues et de la monĂ©tisation, il affirme n'avoir "jamais touchĂ© Ă  cette monĂ©tisation".

      Il n'avait même pas connecté sa carte bancaire car la vente de formations était beaucoup plus rentable.

      La monétisation TikTok était "bien moins avantageuse" en 2021/début 2022. Actuellement, il laisse même la monétisation à ses collaborateurs qui créent du contenu pour lui.

      4. La communauté et l'interaction

      • Taille de la communautĂ© : Il estime avoir entre 3 et 5 millions de "personnes" qui le suivent via tous les comptes liĂ©s Ă  lui sur TikTok.
      • DifficultĂ© Ă  dĂ©finir la communautĂ© : Il trouve "extrĂŞmement dur" de cibler les tranches d'âge spĂ©cifiques de sa communautĂ©. Il rencontre aussi bien des hommes de 40 ans que des jeunes de 18 ans ou des personnes de 50 ans.
      • Interaction : Il n'a pas beaucoup l'occasion d'interagir directement avec sa communautĂ©, sauf lors de rares lives TikTok (une fois tous les deux-trois mois). Dans ces lives, les participants sont gĂ©nĂ©ralement des "jeunes", mais il prĂ©cise que TikTok est aussi très prĂ©sent chez les adultes (30-40 ans).
      • PrĂ©sence de mineurs : Il reconnaĂ®t qu'il y a "forcĂ©ment des mineurs" parmi les 4000 personnes qui peuvent regarder ses lives, mĂŞme s'il demande l'âge. Il estime que c'est Ă  la plateforme de modĂ©rer.

      5. Gestion des comptes et responsabilité

      • Comptes multiples : Il y a une "cinquantaine de comptes" le concernant. Sept comptes sont gĂ©rĂ©s personnellement par lui et son Ă©quipe.
      • Comptes "non-affiliĂ©s" : Les 43+ autres comptes sont gĂ©rĂ©s par des personnes qui "postent de leur plein grĂ© pour toucher la monĂ©tisation". Ces personnes ne sont pas affiliĂ©es Ă  lui et il ne touche pas directement d'argent de leur monĂ©tisation, bien qu'elles puissent vendre ses formations.
      • ResponsabilitĂ© et propriĂ©tĂ© intellectuelle : La rapporteur souligne qu'il a une responsabilitĂ© sur ces contenus si son nom et son image sont utilisĂ©s. Il tolère ces comptes mais a du mal Ă  les stopper malgrĂ© des tentatives.
      • Loi "influenceur" (Loi du 9 juin 2023) : InterrogĂ© sur le respect de cette loi concernant la mention des partenariats commerciaux, Isac Mayembo n'est pas certain de son application Ă  son modèle.

      Il pense qu'il n'est pas obligé de le notifier si la promotion n'est pas faite "dans la vidéo même" mais par un lien en description.

      Il reconnaît qu'il le ferait si la promotion était directe dans la vidéo. La rapporteur indique que la question sera examinée.

      6. Contenus controversés, modération et désinformation

      • Critiques sur les contenus : La rapporteur soulève les critiques concernant ses contenus, notamment leur impact sur la santĂ© mentale des jeunes et leur vision des femmes, mentionnant que son nom est connu par des enfants dès 9-10 ans.
      • Perception de ses contenus : Isac Mayembo rejette l'idĂ©e que ses contenus soient "contestables" ou "problĂ©matiques", les considĂ©rant comme "une question de point de vue". Il affirme : "Je ne trouve pas que mes propos soient problĂ©matiques mĂŞme si bon voilĂ  problĂ©matique ça ça veut rien dire Et je pense qu'un jeune homme de 13 14 ans 15 ans devrait suivre mes conseils Je pense que je donne de bons conseils pour la jeunesse."
      • Bannissement de TikTok : Il a Ă©tĂ© banni de TikTok. Il explique que cela est dĂ» Ă  un grand nombre de "signalements" (100, 200, 300, 400) de la part d'utilisateurs qui ne sont pas d'accord avec ses vidĂ©os, et non Ă  une dĂ©cision initiale de TikTok autorisant la publication. Il prĂ©cise qu'une mĂŞme vidĂ©o peut ne pas ĂŞtre bannie sur un autre compte.
      • Techniques d'Ă©vitement de la modĂ©ration : Il admet "adoucir" ses propos pour TikTok. Par exemple, utiliser le mot "poutrer" au lieu de termes plus vulgaires pour Ă©viter la censure.
      • Propos controversĂ©s citĂ©s par la commission : La commission cite des propos qu'il aurait tenus :
      • "Vous prenez son tĂ©lĂ©phone si elle refuse c'est une pute fin de relation."
      • "la majoritĂ© des femmes Ă©normĂ©ment de P u T S peu de filles bien." (il utilise "P U T S" pour Ă©chapper Ă  la modĂ©ration).
      • "une femme après 22h qu'est-ce qu'elle fout dehors ?"
      • DĂ©fense contre l'accusation de dĂ©sinformation : Isac Mayembo affirme que les propos citĂ©s par la commission ont Ă©tĂ© prononcĂ©s lors de lives YouTube et non TikTok.

      Il accuse la commission de "désinformation" en isolant ses propos : "Vous êtes en train d'isoler mon propos Donc vous avez pris 10 secondes d'un propos de 8 10 minutes où j'expliquais justement parce queon va rentrer en détail parce qu'apparemment on est en train d'en parler donc pourquoi pas J'expliquais que le gouvernement était responsable de la sécurité J'ai n'était pas normal qu'une femme en 2025 ne puisse pas sortir dehors euh le soir très tard sur Paris Et justement après je parlais du fait que dans ce monde dans ce monde qui est dur que fait une femme dehors après 22h et je poursuivais ensuite il est préférable de sortir avec une amie ou avec deux amis ou avec un homme Vous vous avez pris 10 secondes de vos propos vous l'avez isolé et vous venez de me le balancer à la gueule."

      7. Incident et suspension de l'audition

      • Un Ă©change tendu a lieu entre Isac Mayembo et le prĂ©sident de la commission, ce dernier lui reprochant de "balancer la gueule" et de ne pas le laisser finir.
      • Isac Mayembo refuse de se soumettre aux règles de l'audition ("Vous changer de sujet Je vous demande de me laisser finir C'est moi qui mène l'audition Je suis prĂ©sident de la commission d'enquĂŞte Je vous demande de me laisser finir Non je vous lis Je suis prĂ©sident Excusez-moi excusez-moi On va couper le son de monsieur Ichen s'il vous plaĂ®t si vous continuez VoilĂ  Donc je finis ma je finis mon propos s'il vous plaĂ®t Je vous disais au revoir monsieur Bonne journĂ©e").
      • Le son de Isac Mayembo est coupĂ©.
      • L'audition est suspendue pour le recontacter et l'informer qu'il ne peut quitter une audition sans autorisation.
    1. Document de Synthèse : Audition d'Adrien Laurent par la Commission d'Enquête sur TikTok

      Date de l'audition : Non spécifiée, mais fait suite à plus d'une centaine d'auditions. Intervenants principaux :

      • PrĂ©sident de la Commission : M. de la Porte
      • Rapporteure : Mme. Marie B. (dĂ©putĂ©e)
      • AuditionnĂ© : Adrien Laurent (AD Laurent), crĂ©ateur de contenu.
      • Autres dĂ©putĂ©s : M. Vermel, M. Vogeta

      1. Contexte et Objectifs de l'Audition

      • La commission d'enquĂŞte parlementaire a Ă©tĂ© mise en place pour comprendre le fonctionnement et les usages des rĂ©seaux sociaux, en particulier TikTok, et leurs mĂ©canismes qui peuvent aboutir Ă  des interpellations sur divers sujets.

      L'objectif est de faire la lumière sur la production de contenus et la régulation. L'audition d'Adrien Laurent fait suite à une consultation citoyenne ayant recueilli plus de 30 000 réponses et à des témoignages, son nom étant "revenu très souvent" parmi les influenceurs ou créateurs de contenu jugés "problématiques" par les jeunes.

      Le Président de la commission a rappelé qu'il ne s'agit pas d'un tribunal mais d'un travail de compréhension, avec des pouvoirs étendus, sans se substituer à la justice. L'audition est médiatisée, mais l'objectif premier reste la prise en compte des victimes.

      Adrien Laurent a été invité à déclarer tout intérêt public ou privé pouvant influencer ses déclarations et à détailler la nature de ses revenus liés aux plateformes. Il a prêté serment de "dire la vérité, toute la vérité, rien que la vérité".

      2. Présentation et Défense d'Adrien Laurent

      • Adrien Laurent, ancien sportif de haut niveau en basket, s'est fait connaĂ®tre Ă  22 ans dans la tĂ©lĂ©rĂ©alitĂ© avant de devenir "crĂ©ateur de contenu" plutĂ´t qu'influenceur, terme qu'il juge rĂ©ducteur.

      Il se présente comme son "propre producteur". Parallèlement, il est depuis deux ans créateur de contenu pour adultes, vidéos commercialisées exclusivement sur des plateformes réservées aux majeurs et "ne sont pas présentes sur TikTok". Il travaille avec des "actrices professionnelles majeures qui ont elles-mêmes leur compte sur ces plateformes".

      • Il rĂ©fute "avec force" les accusations du PrĂ©sident de la Porte le dĂ©crivant comme "un influenceur extrĂŞmement violent qui vĂ©hicule un imaginaire sexiste" et dont le contenu serait "problĂ©matique" en raison de vidĂ©os pour adultes sur son compte X (anciennement Twitter).

      Ses arguments principaux :

      • Contenu TikTok : Reprenait les codes de la tĂ©lĂ©rĂ©alitĂ©, montrant son quotidien, voyages, proches, et activitĂ© professionnelle, tout en respectant les règles de la plateforme (pas de nuditĂ©, accessibles aux plus de 13 ans). Il estime son bannissement de TikTok "infondĂ© et motivĂ© par des raisons politiques".
      • Contenu sexuel et lĂ©gislation : Fait une distinction claire entre contenu Ă©vocateur de sexualitĂ© adulte (classĂ© -12 ans par l'ARCOM) et contenu Ă©rotique (classĂ© -16 ans).

      Il affirme n'avoir "aucun contenu érotique sur TikTok". * Twitter/X : Reconnaît que Twitter autorise les contenus pour adultes mais en restreint l'accès aux majeurs via des réglages. * Accusations de sexisme/violence : Affirme que son contenu n'est "ni sexiste ni misogyne ni masculiniste" et qu'il n'a "jamais été violent". Il évoque sa vie d'acteur de contenu pour adultes "de manière assumée mais transparente et respectueuse", sans "dénigrer leurs envies ni leurs pratiques ni les rabaisser". * Public mineur et responsabilité : "Je n'ai jamais encouragé un public mineur à consommer du contenu inadapté." Il insiste sur le fait que "la sexualité ne s'apprend pas à travers le contenu pour adultes". Avec près de 2 millions d'abonnés sur TikTok, il a diffusé des messages de prévention sur le dépistage et le port du préservatif. * Accès des CM2 à TikTok : "Les CM2 ne peuvent pas avoir accès à TikTok. La plateforme est interdite au moins de 13 ans." Si des enfants de cet âge y accèdent, il s'agit d'un "problème de contrôle parental et de responsabilité de TikTok, pas de la mienne." Il refuse "d'endosser une responsabilité qui ne [lui] appartient pas".

      3. Relations avec TikTok et Revenus

      • Liens avec TikTok : Il n'a "pas de lien particulier avec la plateforme", n'est pas "son ambassadeur", et n'a "jamais Ă©tĂ© rĂ©munĂ©rĂ©" ni eu de partenariat direct avec TikTok.
      • Revenus TikTok : En 3 ans, il estime avoir gagnĂ© entre 15 000 et 20 000 €, soit une moyenne haute de 555 € par mois, "loin d'un business". Ses revenus provenaient majoritairement de la monĂ©tisation de contenu (0,50 € Ă  1 € pour 1000 vues de plus d'une minute) et des "cadeaux" (emojis monĂ©tisĂ©s) lors des lives.
      • Live Match : Il Ă©tait "rĂ©ticent Ă  cette pratique et [en] n'a fait que très peu" (environ une dizaine en 3 ans), bien que cela puisse "rapporter Ă©normĂ©ment d'argent".
      • Lives classiques : Ses lives, rĂ©alisĂ©s tous les soirs de 22h Ă  minuit, lui permettaient d'Ă©changer "directement et lĂ©gèrement" avec sa communautĂ©.
      • Règles d'accès aux lives TikTok : Selon lui, TikTok confirme l'âge des utilisateurs pour l'accès aux lives : "Si nous confirmons que tu as 18 ans ou plus, tu pourras passer en live.

      Si nous ne pouvons pas confirmer ton âge, tu ne pourras passer en live et enfin si nous confirmons que tu as moins de 18 ans tu ne pourras pas accéder au live."

      Il réfute les accusations de la ministre Aurore Berger concernant des "lives sexuels avec des jeunes femmes masquées" douteuses quant à leur majorité et consentement, affirmant qu'aucun contenu sexuel n'était diffusé et que les participants étaient "majeurs et consentants".

      4. Modération et Algorithme

      • Algorithme : Juge l'algorithme "flou", mais comprend qu'il faut ĂŞtre "percutant et accrocheur dans les premières secondes de la vidĂ©o".
      • RĂ´le de la commission : Trouve la commission "essentielle" et la rĂ©flexion "extrĂŞmement utile". Il ne comprend pas la dĂ©cision "hâtive" du bannissement de son compte par l'exĂ©cutif sans attendre les conclusions parlementaires.
      • Propositions : Si les conclusions montrent des effets nĂ©gatifs sur la santĂ© mentale des mineurs, il serait "le premier Ă  demander qu'il n'ait pas accès Ă  ce contenu", par exemple en "restreignant l'accès de certains rĂ©seaux ou certains contenus aux mineurs de 15 ans". Il faudrait un "contrĂ´le efficace mais sans faire peser toute la responsabilitĂ© sur les crĂ©ateurs qui ne sont ni Ă©ducateurs ni parents mais qui doivent seulement respecter les règles fixĂ©es par la plateforme."

      5. Échanges avec les Députés

      • NotoriĂ©tĂ© auprès des jeunes : La rapporteure confirme que son nom est "bien connu" des jeunes, y compris des collĂ©giens, lycĂ©ens, et parfois primaires. "Un jeune sur deux de 11 ans est sur la plateforme TikTok aujourd'hui".

      La commission cherche à comprendre "pourquoi vous êtes allé sur TikTok", "comment vous gérez vos contenus" face à cette communauté jeune, et la modération.

      • Bannissements d'autres plateformes : Adrien Laurent confirme avoir Ă©tĂ© banni de Snapchat et Instagram en raison de signalements massifs, sans toujours avoir d'explication claire.

      • Choix de TikTok : S'est mis sur TikTok "très tard" sur conseil de son frère, y voyant une opportunitĂ© de visibilitĂ© grâce Ă  l'application "la plus tĂ©lĂ©chargĂ©e en France et mĂŞme dans le monde". Il apprĂ©ciait les vidĂ©os "très rapides avec beaucoup d'engagement".

      • DiversitĂ© de sa communautĂ© : Sur ses 2 millions d'abonnĂ©s, "il n'y a pas 2 millions de personnes qui me suivent par rapport au contenu pour adultes". Beaucoup le suivent pour la tĂ©lĂ©rĂ©alitĂ© ou l'aspect "positif" et "bienveillant" de ses lives.

      • ResponsabilitĂ© vis-Ă -vis des mineurs : Il ne peut pas "ĂŞtre responsable de tout" si des CM2 contournent les règles d'âge.

      Il met en parallèle la vente d'alcool en magasin, où la responsabilité n'incombe pas au vendeur si un mineur contourne l'interdiction d'achat.

      Il se considère comme un "simple usager de la plateforme qui respecte les règles". * Comparaison avec Alex Chen : Il se dit "totalement mais sur tous les points opposés à ce monsieur", affirmant ne pas être "ni sexiste ni misogyne ni masculiniste". Il défend la "liberté sexuelle à égalité" et met la femme "sur un piédestal tout le temps". * Promotion croisée et contenu pour adultes : Il confirme rediriger sa communauté TikTok vers d'autres plateformes (Snap, Insta, Twitch, YouTube) pour "alimenter [ses] autres plateformes", mais insiste sur le fait que son contenu est "totalement différent" et adapté à chaque plateforme. Pour ses contenus privés (Mim, OnlyFans), il affirme une "double authentification" qui empêche l'accès aux mineurs, qualifiant son porno d'"éthique". * Lives avec des mineurs : Confronté à une vidéo de live avec un mineur très jeune, Adrien Laurent explique qu'il prend "énormément de gens tous les soirs" et que si une personne de moins de 18 ans réussit à contourner les règles, ce n'est pas son problème. Il affirme cependant avoir une "responsabilité" en énonçant un "propos responsable" même dans ces cas-là (ex: "il est tard faut que tu ailles te coucher"). * "Pranks" et provocation : Décrit ses "pranks" comme de l'"autodérision" et du "fun", citant l'exemple de la "trompe d'éléphant" ou "viser le trou" au basket. Sa mère, professeur, le soutient. * Accusation de transphobie/humiliation : Réfute l'accusation d'avoir humilié une personne transgenre en live. Il pose des questions par "intérêt", et "n'humilie jamais personne". * Outils de restriction d'audience : Questionné par M. Vogeta sur l'utilisation d'outils de restriction d'audience pour exclure les mineurs sur ses contenus "classiques" (non pornographiques), Adrien Laurent répond que sur Twitter/X, il faut modifier les réglages pour voir du contenu sensible, ce qui protège le compte vierge. * Agents OnlyFans/MIM : Il n'a pas d'agent mais une "équipe qui bosse avec [lui] justement pour sécuriser un petit peu [son] travail". Il insiste sur le fait que c'est un "boulot" qui demande "beaucoup de travail". Il se considère comme un "artiste" et demande le respect de sa "liberté de création artistique". * Recrutement pour la pornographie via TikTok : Il indique que certaines abonnées peuvent exprimer leur intérêt pour des collaborations dans le milieu du contenu pour adultes, mais il les redirige alors vers un "email professionnel" et "coupe le lien" sur TikTok, ne souhaitant pas en parler sur la plateforme. * Impact sur les enfants : Questionné en tant que députée et mère sur l'impact de ses contenus sur un enfant de 13 ans, il répond qu'il ne "choisit pas sa communauté". En tant que futur père, il ferait une éducation basée sur la "communication" et laisserait à sa fille, une fois majeure, le choix de son chemin professionnel. * Contenus sexualisants en live : La rapporteure constate, après un test avec un compte mineur, que les lives sont accessibles aux mineurs, malgré les affirmations d'Adrien Laurent. Elle cite des propos "sexualisants" (ex: "Ça va ma puce il y a du monde au balcon") et "hypersexualisants" (taille des poitrines) tenus en live. * Comparaison avec des artistes musicaux : Adrien Laurent compare ses propos à des paroles de chansons d'artistes comme Michel Sardou, Bruno Mars ou Orelsan (citant des extraits explicites), se plaignant d'une "indignation à géométrie" variable, ce que la rapporteure qualifie d'"œuvres à caractère artistique" et non de lives soumis à des conditions d'utilisation différentes. * Restriction des lives : La rapporteure précise que TikTok permet aux hôtes de "restreindre" leurs lives, option qu'Adrien Laurent n'active pas car il considère ses lives comme "bon enfant". Il reconnaît qu'il n'est pas un "technicien TikTok" mais s'efforce de "se conformer au maximum aux règles communautaires". * Modération interne : Il a une équipe de "modérateurs modératrices" qui "bannissent tous les commentaires à caractère négatif les insultes". Il note l'opacité de l'algorithme et la nécessité de contourner certains mots pour éviter le "shadow ban" (ex: "viol" par "ool", "pute" par "pu pute").

      6. Conclusions de l'Audition

      • L'audition met en lumière la tension entre la libertĂ© de crĂ©ation et d'expression d'un crĂ©ateur de contenu et la nĂ©cessitĂ© de protĂ©ger un public jeune et potentiellement vulnĂ©rable.

      Adrien Laurent insiste sur sa professionnalisation dans le contenu pour adultes éthique et son respect des règles (en théorie) de TikTok, tout en reconnaissant les défis de la modération et de l'accès des mineurs aux plateformes.

      La commission insiste sur la réalité de la présence de jeunes mineurs sur TikTok et la nécessité de trouver des solutions législatives pour protéger les enfants.

      La question de l'accessibilité réelle des lives aux mineurs et la responsabilité des créateurs et de la plateforme reste un point de divergence majeur.

    1. Compte-rendu de l'Audition de Manon et Julien Tanti par la Commission d'EnquĂŞte sur TikTok

      • Date de l'audition : Non spĂ©cifiĂ©e, mais mention de "cet après-midi". Contexte : La commission d'enquĂŞte a pour objectif de "prĂ©parer les lois Ă  venir, de rĂ©flĂ©chir sur la bonne application des diffĂ©rentes normes, des diffĂ©rents cadres juridiques (...) nationaux ou europĂ©ens et donc en fait l'enjeu c'est de nous Ă©clairer sur la meilleure protection des enfants Ă  l'air numĂ©rique et en particulier sur les effets psychologiques de TikTok sur les mineurs." (PrĂ©sident de la commission). Les personnes auditionnĂ©es doivent prĂŞter serment de dire la vĂ©ritĂ©.

      I. Préambule et Positionnement des Influenceurs

      Manon et Julien Tanti ont été convoqués en tant qu'influenceurs pour s'exprimer sur leur modèle économique, leurs revenus via TikTok et d'autres plateformes, ainsi que sur l'impact de TikTok sur les mineurs.

      • RĂ©action de Manon Tanti face aux accusations : Manon Tanti exprime un profond regret concernant la prĂ©paration publique de l'audition et les dĂ©clarations du prĂ©sident l'accusant d'ĂŞtre une "influenceuse Ă  contenu problĂ©matique" et d'humilier ou dĂ©grader l'image de ses propres enfants. Elle dĂ©clare : "Je ne suis pas venue ici pour fuir mes responsabilitĂ©s. J'ai conscience que lorsque l'on s'expose publiquement, surtout sur des plateformes comme TikTok, on a un devoir d'exemplaritĂ©, d'autant plus quand on est suivi par des jeunes. Mais je veux poser les choses clairement dès le dĂ©part : je regrette profondĂ©ment deux choses dans la manière dont cette audition a Ă©tĂ© prĂ©parĂ©e publiquement. Je regrette vos dĂ©clarations Monsieur le PrĂ©sident, je ne suis pas une influenceuse Ă  contenu problĂ©matique, du moins je ne pense pas, et du coup quelle dĂ©cision de justice vous fondez-vous pour affirmer cela ? Ce genre de jugement lancĂ© dans les mĂ©dias avant toute audition ne rĂ©vèle pas d'un travail d'enquĂŞte objectif, mais d'une condamnation sans dĂ©bat. La seconde, plus grave Ă  mes yeux, ce sont ces propos affirmant que j'humilierai et que je dĂ©graderai l'image de mes propres enfants. Ces accusations sont violentes, injustes et totalement dĂ©placĂ©es. Je suis mère avant tout et jamais je ne tolĂ©rerais qu'on prĂŞte des intentions aussi graves sans preuve ni dialogue." Elle prĂ©cise avoir Ă©tĂ© "profondĂ©ment attristĂ©e" par la diffusion de ces accusations sur des chaĂ®nes comme TF1 et BFM, alors qu'elle Ă©tait initialement "flattĂ©e d'avoir Ă©tĂ© convoquĂ©e" pour aider Ă  comprendre le fonctionnement de TikTok.

      • Positionnement professionnel : Julien Tanti se dĂ©finit principalement comme une "personne qui fait de la tĂ©lĂ©rĂ©alitĂ©" depuis 14 ans, et non comme un influenceur. Il affirme : "Moi travail principal les tournages, je fais de la tĂ©lĂ© ça fait 14 ans que je fais de la tĂ©lĂ© et le reste c'est des hobis parce que ben je suis Ă  DubaĂŻ (...)." Il ajoute : "je n'influence personne je suis sur les rĂ©seaux parce que j'aime ça parce que c'est pour moi c'est un divertissement c'est quelque chose que je kiffe et je n'influence personne Ă  faire quoi que ce soit je ne suis pas un influenceur." Manon Tanti soutient cette idĂ©e, expliquant qu'ils sont des "personnes qui font de la tĂ©lĂ©rĂ©alitĂ©" et que les rĂ©seaux sociaux sont une continuitĂ© de cette exposition de leur vie.

      II. Modèle Économique et Sources de Revenus

      Les deux influenceurs détaillent leurs différentes sources de revenus, insistant sur le fait que TikTok n'est pas leur source principale.

      Revenus de Julien Tanti :

      • TĂ©lĂ©vision : Principal revenu. Il effectue "3 Ă  4 tournages par an", ce qui Ă©quivaut Ă  "pratiquement 7 mois dans l'annĂ©e 6 Ă  7 mois" de travail.
      • TikTok Live (dons) : Une source de revenus secondaire, perçue comme un "kiff" et un "plaisir" plutĂ´t qu'une activitĂ© principale. Il explique que TikTok prend 50% des gains. Le prĂ©sident de la commission estime ses revenus liĂ©s aux lives Ă  environ "40000 dollars par mois", ce que Julien qualifie d' "Ă©norme". Il explique reverser cet argent en organisant des Ă©vĂ©nements pour sa "team" de joueurs, comme un yacht louĂ© Ă  DubaĂŻ pour plus de 30 personnes. Il passe "Ă  peu près 2-3 heures par jour" sur TikTok et se classe "souvent dans le top 20, dans le top 30, top 20, top 30, top 10". Manon souligne que son mari est un "showman" et que cette activitĂ© est sa "passion", allant au-delĂ  de la simple rĂ©munĂ©ration.

      Revenus de Manon Tanti :

      • TikTok (vidĂ©os de plus d'une minute) : Très peu de revenus. Elle explique ĂŞtre Ă©ligible Ă  la rĂ©munĂ©ration pour les vidĂ©os de plus d'une minute depuis peu et en poste très rarement (une ou deux par mois). Elle estime que TikTok reprĂ©sente "très très honnĂŞtement 1% de la question" de ses revenus. Elle mentionne un RPM (ratio par minute) très bas (0,10 centimes) car elle ne poste pas assez frĂ©quemment (il faudrait "minimum deux Ă  trois vidĂ©os par jour" pour optimiser l'algorithme). Sa vidĂ©o la plus lucrative lui aurait rapportĂ© "800 € il y a des annĂ©es en arrière", la moyenne Ă©tant plutĂ´t de "30-40 €".
      • Autres plateformes et partenariats : Principale source de revenus. Manon perçoit des revenus via d'autres plateformes.
      • Placements de produits : Ils sont toujours sous contrat avec des agences comme Shona Events et Wi Events. Julien Tanti affirme faire "toujours une pub ou deux, voir mĂŞme trois ou quatre par semaine" et Manon "deux ou trois". Ils expliquent que "les personnes qui veulent contacter ils contactent directement les agences" et qu'ils n'ont plus besoin de faire la promotion de ces collaborations.
      • III. Exposition des Enfants et Cadre LĂ©gal
      • Un point central de l'audition concerne l'exposition des enfants sur les rĂ©seaux sociaux et le respect de la lĂ©gislation.

      Motivation de l'exposition des enfants : Manon Tanti explique que l'exposition de ses enfants est une "continuité de ce qu'on fait en télé" car ils sont des "personnages publics".

      Elle insiste sur le caractère "naturel" de cette exposition dans leur quotidien : "nous sommes des personnages publics, nos enfants aussi".

      Elle affirme ne pas les "surexposer" et qu'ils sont "consentants" et même demandeurs d'apparaître dans les vidéos.

      Elle cite l'exemple de son fils qui "aimerait avoir une chaîne par exemple", comme des "enfants youtubeurs" célèbres.

      • Accusations d'humiliation et dĂ©gradation : Manon conteste fermement les accusations d'humiliation, citant l'exemple d'une vidĂ©o oĂą les enfants jouent avec des ballons d'eau lors d'un barbecue : "ce que je veux vous dire c'est que le terme humiliant dĂ©gradant en tout cas moi en tant que maman je pense savoir ce qui est bon pour mes enfants ce qui est humiliant dĂ©gradant ou pas mes enfants jamais je ferai des vidĂ©os ou des jeux s'ils en ont pas envie."

      Elle défend une vidéo où les enfants ont la "tête dans une espèce de bassine d'eau", expliquant que c'était une "trend" (tendance) et que les enfants étaient "morts de rire".

      Elle reconnaît cependant que "peut-être que d'autres parents le le reproduirait de d'une mauvaise manière" mais insiste : "sur cette vidéo je ne trouve absolument pas la vidéo humiliante puisque mes enfants sont ils sont morts de rire parce que c'est vraiment dans une bonne c'est bon enfant encore une fois je je je suis pas du tout en train de noyer mes enfants".

      Non-rémunération directe des enfants : Manon affirme ne pas utiliser ses enfants pour la rémunération : "je me sers pas de mes enfants pour la rémunération parce que dans tous les cas moi avec ou mes ou mes sans mes enfants je gagne ma vie".

      • Contrats de mannequins et placement de produits : La commission interroge Manon sur un placement de produit Instagram avec sa fille pour la marque "Ora Bora" (des brumes).

      La députée mentionne l'absence de "contrat de manquina" et de versement des revenus sur un "compte sous séquestre" comme l'exige la loi sur l'influence commerciale.

      Manon Tanti reconnaît : "premièrement déjà ça je ne savais pas deuxièmement encore une fois que cette marque là et cette vidéo là en l'occurrence que vous pouvez me citer et troisièmement au rabora en fait j'ai dû le faire une cinquantaine de je je n'ai pas besoin de ma fille pour vendre en fait".

      Un autre exemple est soulevé : une collaboration commerciale récente avec la marque "Shane" (vêtements) où les enfants apparaissent, sans mention de "collaboration commerciale" et sans respect du cadre légal.

      Manon se défend en disant : "j'ai appris avec vous il y a donc 10 minutes qu'à partir du moment où il y avait écrit collaboration mes enfants ne pouvaient pas apparaître je l'ai appris ben c'est vous qui me l'avez appris".

      Elle ajoute avoir déjà été contrôlée par la DGCCRF et avoir payé une amende, mais que "lorsque que Julien a eu son amende par exemple ça n'a pas été mentionné dans les choses qu'on avait mal faites donc si on l'avait su bah forcément on aurait arrêté".

      IV. Impact de TikTok sur les Mineurs et Propositions

      Les influenceurs sont interrogés sur leur perception de l'âge de leur communauté et leur avis sur la protection des mineurs.

      • Ă‚ge de la communautĂ© et restriction d'accès : Manon Tanti estime que sa communautĂ© est très diverse, allant des "prĂ©adolescents" aux "grand-mères". Elle est d'accord sur la nĂ©cessitĂ© de restrictions d'âge pour les rĂ©seaux sociaux : "TikTok est-ce que je sens il me semble que c'est interdit au moins de 15 ans c'est ça ça c'est quel est l'âge de TikTok ? 13 ans".

      Elle est catégorique : "mes enfants n'auront pas de compte TikTok et n'auront pas accès à TikTok".

      De même, pour Instagram, leurs enfants ont un compte géré par elle en tant que mère, mais "n'auront pas accès à ces réseaux sociaux là on en parlera quand ils seront plus grands mais je pense au moins avant leur 14 voir 16 ans".

      • Proposition de pièce d'identitĂ© : Manon Tanti propose une solution pour mieux encadrer l'accès des mineurs : "pour moi la seule solution qu'il aurait Ă  tout ça ce serait de demander une pièce, je sais que ce serait ce serait pas possible mais pour moi si les rĂ©seaux sociaux dès le dĂ©but comme certains rĂ©seaux de de contenu comme MIME ou tout ça demandait une pièce d'identitĂ© Ă  chaque inscription ça Ă©viterait plusieurs choses ça Ă©viterait dĂ©jĂ  bah que il y ait trop de mineurs qui qui qui tombent sur des choses qu'ils n'ont pas Ă  voir et en plus de ça ça Ă©viterait nous en tant qu'influenceur d'avoir du harcèlement des haters".

      Conclusion

      • L'audition met en lumière la complexitĂ© de rĂ©guler l'activitĂ© des influenceurs, notamment en ce qui concerne l'exposition des enfants et la distinction entre contenu personnel et commercial.

      Les Tanti se positionnent comme des personnalités de téléréalité avant d'être des influenceurs, gérant leurs réseaux sociaux comme un prolongement de leur vie médiatisée. Ils reconnaissent certaines lacunes dans leur connaissance de la loi (notamment sur les contrats de mannequins enfants) mais affirment leur volonté de se conformer aux réglementations une fois informés.

      L'échange souligne également le fossé entre la perception de l'influenceur sur son propre contenu ("bon enfant") et la réception par le public ou l'interprétation par la loi ("humiliant", "illégal").

    1. Compte rendu détaillé de l'audition de Nasser Sari (Nasdas) par la commission d'enquête sur TikTok

      • Date de l'audition : Non prĂ©cisĂ©e (rĂ©fĂ©rence Ă  "aujourd'hui")

      Personne auditionnée : Nasser Sari, alias Nasdas, influenceur avec 3,7 millions de followers sur TikTok et plus de 9 millions sur Snapchat.

      Contexte : La commission d'enquête de l'Assemblée nationale vise à comprendre les mécanismes de TikTok et des réseaux sociaux en général, ainsi qu'à élaborer une meilleure régulation pour protéger les mineurs des contenus choquants.

      L'audition fait suite Ă  une consultation citoyenne et des signalements.

      Thèmes principaux et idées/faits importants :

      1. Rôle et rémunération sur TikTok vs. Snapchat :

      • Nasdas se dĂ©finit avant tout comme un "Snapchatter", sa principale source de revenus Ă©tant Snapchat.
      • Il dĂ©clare que TikTok reprĂ©sente une part "quasi rien", estimĂ©e Ă  "0,1 %" de ses rĂ©munĂ©rations globales. Il affirme avoir gagnĂ© moins de 5000 € sur TikTok en 5 ans.
      • Sur TikTok, seuls les vidĂ©os de plus d'une minute et les lives (via dons) sont rĂ©munĂ©rĂ©s. Nasdas n'a postĂ© qu'une soixantaine de vidĂ©os en 4 ans, dont seulement deux de plus d'une minute, et environ 10 lives.
      • "Moi principalement ma source de revenu elle vient de Snapchat c'est un autre rĂ©seau [...] majoritairement ça vient de Snapchat."
      • "Sur TikTok comme je vous ai dit j'en gagne très peu."
      • Sur Snapchat, la rĂ©munĂ©ration se fait "Ă  la vue" et via des placements de produits. Il dĂ©clare que 80% de ses placements de produits sont gratuits, dĂ©diĂ©s au soutien des commerces de proximitĂ©.

      2. Utilisation de TikTok comme "tremplin" et viralité :

      • MalgrĂ© une faible monĂ©tisation directe, Nasdas utilise TikTok comme un "tremplin pour booster [ses] vidĂ©os", gagner en visibilitĂ© et en autoritĂ©.
      • Il reconnaĂ®t que "le rĂ©seau principal aujourd'hui pour avoir plus d'aud [audience] c'est c'est c'est TikTok."
      • Ses vidĂ©os Snapchat sont souvent relayĂ©es sur TikTok via des "comptes redif" (rediffusion), qui republient son contenu sans sa permission, obtenant parfois plus d'ampleur que sur Snapchat. Il qualifie cela de "normal" mais le reconnaĂ®t comme un "pillage de contenu".
      • Ces comptes rediffusent des vidĂ©os virales ou de petits crĂ©ateurs, en faisant des captures d'Ă©cran et en les repostant, sans identitĂ© claire. Il existe des milliers de ces comptes.

      3. Audience et présence de mineurs :

      • Nasdas est suivi par 3,7 millions de personnes sur TikTok et 9 millions sur Snapchat.
      • Il admet voir "Ă©normĂ©ment de jeunes" dans sa communautĂ©, reconnaissable Ă  leur Ă©criture et leurs commentaires ("on voit bien que c'est un gamin de 14 ans ou 15 ans").
      • Cependant, il affirme que sur Snapchat, son rĂ©seau principal, plus de 87% de son audience est majeure, sa plus grande communautĂ© Ă©tant les 25-36 ans. Il ne dispose pas de chiffres prĂ©cis pour TikTok.
      • "Je vais vous dire que je n'ai pas rĂ©ussi Ă  regarder le nombre de mineurs qui me regardent."

      4. Les jeunes fugueurs et la responsabilité :

      • Nasdas est conscient que sa notoriĂ©tĂ© a entraĂ®nĂ© des "jeunes mineurs qui fugent de leur ville pour venir Ă  Perpignan", y compris des enfants de 10-11 ans attendus Ă  2h du matin.
      • Son adresse a fuitĂ©, entraĂ®nant 200 Ă  300 personnes par jour devant sa maison.
      • Il reconnaĂ®t avoir "une part de responsabilitĂ©" mais souligne aussi celle des parents. "Vous pensez pas que les parents ont une part de responsabilitĂ© ?" Il cite des cas de parents lui demandant de garder leurs enfants fugueurs.
      • Il affirme avoir toujours inclus une "morale" dans ses vidĂ©os, disant "arrĂŞtez ne venez pas arrĂŞtez de croire au rĂŞve Nasdas."
      • Il aide les jeunes en difficultĂ© (hĂ©bergement, achat de vĂŞtements, aide financière pour des opĂ©rations mĂ©dicales), mais a "ralenti Ă©normĂ©ment" ces actions filmĂ©es, surtout l'annĂ©e dernière, et s'est "isolĂ© dans une villa" face Ă  l'ampleur du phĂ©nomène.
      • Il mentionne que beaucoup de jeunes qui viennent sont des jeunes de foyers (aide sociale Ă  l'enfance), se sentant "plus en sĂ©curitĂ© des fois que dans certains foyers".
      • Il nie "rajouter de la misère Ă  la misère" et souligne qu'il n'a jamais demandĂ© aux jeunes de venir. Il a mĂŞme collaborĂ© avec la police pour gĂ©rer la situation.
      • Le maire de Perpignan (RN) n'aurait mis aucune aide en place, et mĂŞme au contraire, des policiers seraient intervenus lors de ses actions sociales non autorisĂ©es. Il se sent "vraiment seul".

      5. La santé mentale des créateurs de contenu et la pression :

      • Nasdas a annoncĂ© suspendre ses rĂ©seaux sociaux, une dĂ©cision prise 3 mois avant l'audition, non liĂ©e Ă  cette dernière.
      • Il Ă©voque la difficultĂ© mentale du mĂ©tier : "notre santĂ© mentale elle est impactĂ©e."
      • La "course au vues", Ă  l'"image", au "buzz" met une pression sur les crĂ©ateurs, les poussant "Ă  poster des choses sans mĂŞme en ĂŞtre conscient".
      • Il se reconnaĂ®t responsable de ses erreurs mais estime n'avoir pas Ă©tĂ© prĂ©parĂ© Ă  une telle notoriĂ©tĂ©.
      • Il envisage une pause d'un Ă  trois ans : "je ne sais pas si j'arrĂŞte totalement dĂ©finitivement mais c'est une dĂ©cision sage." Il perdra "Ă©normĂ©ment d'argent" en s'arrĂŞtant.
      • Il estime qu'il faudrait "plus d'encadrement, pas sĂ©vère, pas des punitions" pour les crĂ©ateurs de contenu.

      6. Évolution de la ligne éditoriale et accusation de contenus choquants :

      • Des parlementaires accusent Nasdas d'une Ă©volution de sa ligne Ă©ditoriale vers une "mise en scène assez violente qu'elle soit physique, psychologique ou symbolique", montrant des personnes "vulnĂ©rables filmĂ©es dans des situations de mise en concurrence assez dĂ©gradante", avec des encouragements Ă  des comportements "discriminatoires et misogynes".
      • Il est spĂ©cifiquement interrogĂ© sur la mise en scène de relations amoureuses dans sa villa, impliquant parfois des mineurs, et sur la frontière entre rĂ©alitĂ© et fiction.
      • Le cas d'une jeune fille "Leina" accusĂ©e d'ĂŞtre tombĂ©e enceinte d'un homme de la villa alors qu'elle Ă©tait mineure est citĂ©. Nasdas affirme qu'elle a menti sur sa grossesse et son âge (16-17 ans). Il mentionne qu'elle est majeure et qu'elle a le droit Ă  l'image.
      • Le cas de "Dibril" jetant un tĂ©lĂ©phone sur sa compagne est Ă©voquĂ© comme un acte de violence conjugale filmĂ©. Nasdas affirme que la scène Ă©tait "surjouĂ©e" et que le couple est toujours ensemble.
      • Il admet que "il y a des choses qui sont mises en scène oui et d'autres choses rĂ©elles".
      • Un incident sur Twitch oĂą une jeune fille a montrĂ© sa poitrine a Ă©tĂ© "pas volontaire" et le live a Ă©tĂ© coupĂ© immĂ©diatement. Il affirme qu'elle est majeure et qu'il l'a conseillĂ©e de s'Ă©loigner des commentaires haineux.
      • Il rĂ©fute l'accusation d'avoir incitĂ© au racisme suite Ă  l'expression "ramenez un banania" concernant un jeune garçon. Il explique qu'il s'agissait d'une rĂ©fĂ©rence Ă  une boisson chocolatĂ©e et que l'auteur s'est excusĂ©.
      • Il nie contribuer Ă  la "banalisation de la violence" ou de l'harcèlement. Il se dit lui-mĂŞme victime de harcèlement via ses vidĂ©os. Il affirme que ses amis et lui se protègent mutuellement.

      7. Recommandations et auto-critique :

      • Nasdas reconnaĂ®t ne pas avoir de "baguette magique" ou de "solution miracle" pour rĂ©guler TikTok. Il se demande si "ce n'est pas un peu trop tard".
      • Il suggère qu'un "âge minimum" pour utiliser TikTok pourrait ĂŞtre de 14 ou 15 ans.
      • Il pense qu'il faudrait "plus une question d'algorithme pour les jeunes, plus les ramener vers un contenu on va dire Ă©ducatif".
      • Il souligne la difficultĂ© de vĂ©rifier l'âge des utilisateurs et la facilitĂ© de mentir sur l'âge Ă  l'inscription.
      • Il dĂ©clare que les "dramas" (contenus violents, misogynes, etc.) font "largement plus de vues qu'une vidĂ©o qui explique [...] comment fonctionne une commission d'enquĂŞte". "Donc ça rapporte plus d'argent de faire des dramas que de faire de la pĂ©dagogie ah ben mais mais mais totalement."
      • Il avoue avoir partagĂ© du "Paris sportif" et du "trading" par le passĂ©, avant la loi influenceur, sous l'influence d'agences peu scrupuleuses, et reconnaĂ®t avoir causĂ© des pertes Ă  des familles. Il salue la nouvelle loi qui responsabilise les agences.
      • Il regrette d'avoir indirectement poussĂ© les jeunes Ă  croire en lui plutĂ´t qu'en leurs Ă©tudes ou leur Ă©ducation. "Je reprĂ©sente un symbole de renaissance pour eux de d'une meilleure vie et surtout d'un meilleur avenir et c'est lĂ  oĂą j'ai C'est lĂ  ou c'est lĂ  oĂą je le regrette."

      En conclusion, il conseille à ceux qui veulent se lancer sur les réseaux : "vous lancez pas sur les réseaux."

      Questions en suspens / Points d'attention :

      • L'Ă©cart entre le discours de Nasdas sur la faible rĂ©munĂ©ration de TikTok et la reconnaissance de la plateforme comme "tremplin" pour la visibilitĂ©.
      • La difficultĂ© pour Nasdas de fournir des chiffres prĂ©cis sur la part des mineurs dans son audience TikTok, malgrĂ© son impact reconnu sur cette tranche d'âge.
      • La ligne floue entre "rĂ©alitĂ©" et "mise en scène" dans ses contenus, et les implications lĂ©gales potentielles.
      • Le rĂ´le des agences d'influenceurs et leur responsabilitĂ© dans les contenus problĂ©matiques (bien que la loi influenceur soit censĂ©e y remĂ©dier).
      • L'absence d'aide des services publics locaux face Ă  l'afflux de jeunes chez Nasdas Ă  Perpignan.
      • La perception de Nasdas que l'audition Ă©tait trop axĂ©e sur des attaques personnelles plutĂ´t que sur l'algorithme de TikTok.
    1. Voici un compte-rendu détaillé des principaux thèmes et idées importants des sources fournies, incluant des citations pertinentes :

      Synthèse du Rapport de la Commission d’Experts sur l’Impact de l’Exposition des Jeunes aux Écrans

      Ce document de briefing synthétise les points clés soulevés lors de l'audition de deux experts, * Madame Mouton (neurologue) et * Monsieur Benjamina (neurophysiologiste), co-présidents d'une commission antérieure sur l'impact des écrans.

      L'audition se concentre sur l'impact des réseaux sociaux, en particulier TikTok, sur la santé mentale et physique des jeunes.

      1. La Détérioration de la Santé Mentale des Jeunes et le Rôle des Réseaux Sociaux

      Les experts soulignent une chute de la santé mentale des moins de 25 ans depuis les années 2010, antérieure à la pandémie de COVID-19, qui a cependant accentué cette tendance.

      Parallèlement, l'usage des réseaux sociaux s'est massivement répandu, soulevant des questions sur leur implication dans cette détérioration.

      • Problème global des rĂ©seaux sociaux : Bien que la commission se concentre sur TikTok, les experts insistent sur le fait que "les rĂ©seaux sociaux posent globalement aujourd'hui tous les mĂŞmes problèmes de design non Ă©thique". TikTok est "peut-ĂŞtre particulièrement efficace pour capter et retenir l'attention des usagers", mais d'autres rĂ©seaux ne sont pas exempts de ces problèmes.

      • Modèle Ă©conomique et captation de l'attention : Le problème fondamental rĂ©side dans le "design de TikTok et des rĂ©seaux sociaux qui Ă©tant basĂ© sur l'Ă©conomie de l'attention, la captation des donnĂ©es qui vont ensuite ĂŞtre monnayĂ©es Ă  des fins de publicitĂ© ciblĂ©es". L'objectif est de "maintenir les usagers en ligne le plus longtemps possible de les faire venir en ligne le plus souvent possible et Ă©galement de leur faire des achats en ligne".

      2. Conséquences Négatives sur la Santé Physique et Mentale

      L'usage excessif des écrans et des réseaux sociaux entraîne de multiples effets délétères, même indépendamment des contenus.

      • SantĂ© physique :SĂ©dentaritĂ© : Les activitĂ©s sur Ă©cran sont sources d'inactivitĂ© sĂ©dentaire, un facteur de risque cardiovasculaire (infarctus, AVC, maladies artĂ©rielles, surpoids, obĂ©sitĂ©, diabète de type 2).
      • Sommeil : L'empiètement sur les heures de sommeil ou l'interruption de celui-ci (rĂ©veils pour des dĂ©fis en ligne) compromet la qualitĂ© et la quantitĂ© du sommeil, favorisant les maladies cardiovasculaires, le surpoids, l'obĂ©sitĂ© et les infections. "La dette chronique de sommeil pouvant favoriser Ă  nouveau les maladies cardiovasculaire mais aussi le surpoids l'obĂ©sitĂ© les infections".
      • Vision : L'activitĂ© en intĂ©rieur, le manque d'exposition Ă  la lumière naturelle, la surexposition Ă  la lumière bleue et la sursollicitation de la vision de près favorisent la myopie.
      • SantĂ© mentale (par l'intermĂ©diaire du sommeil) : La dette chronique de sommeil favorise Ă©galement "l'anxiĂ©tĂ© et la dĂ©pression".

      3. La Question de l'Addiction aux Écrans et Réseaux Sociaux

      La discussion autour de l'addiction est nuancée, soulignant une réalité clinique distincte des classifications académiques.

      • RĂ©alitĂ© clinique : Le Professeur Benjamina affirme traiter de nombreux jeunes "qui consomment et qui sont dĂ©pendants aux rĂ©seaux sociaux et TikTok en particulier".

      Ces problématiques sont prises en charge "à l'instar des produits comme le cannabis la cocaïne les extasiies ou l'alcool".

      Les dommages incluent des "effets métaboliques ou bien somatiques", ainsi que des "problématiques associées de type psychiatrique ou psychologique anxiété insomnie dépression difficulté l'adaptation relationnelle environnementale".

      • Classification acadĂ©mique : Sur le plan acadĂ©mique, l'addiction aux Ă©crans ou aux rĂ©seaux sociaux n'est pas encore classĂ©e comme telle dans les classifications internationales (OMS, Association AmĂ©ricaine de Psychiatrie), Ă  l'exception du jeu pathologique. Cependant, il est probable que cela Ă©voluera Ă  l'avenir.

      • TikTok, un produit "dĂ©pendogène" : TikTok est considĂ©rĂ© comme "extrĂŞmement accrocheur addictogène" en raison de son algorithme "extrĂŞmement dĂ©veloppĂ©" et de la "fugacitĂ© du contenu" (vidĂ©os courtes et rĂ©pĂ©titives), qui stimulent de manière intense le système de rĂ©compense. "Ces deux Ă©lĂ©ments ne sont pas lĂ  par le fait du hasard".

      4. Responsabilité des Plateformes et Nécessité de Régulation

      Les experts estiment que la responsabilité première du "mésusage" ou "surutilisation" des plateformes incombe aux industriels.

      • Design non Ă©thique : Le modèle Ă©conomique de TikTok et autres rĂ©seaux sociaux est dĂ©libĂ©rĂ©ment conçu pour maximiser le temps passĂ© en ligne, sans considĂ©ration Ă©thique pour la santĂ© des utilisateurs. "Aucune Ă©thique Ă©videmment n'est convoquĂ©e puisque on a des contenus absolument scandaleux".

      • Manque de bonne foi des plateformes : Les plateformes sont rĂ©ticentes Ă  mettre en place des contraintes sans obligation lĂ©gale. Elles mettent en avant "responsabilitĂ© libertĂ©" et renvoient la "minoritĂ©" vers la "responsabilitĂ© de ses parents".

      Le Professeur Benjamina déclare : "Il faut pas s'attendre que les plateformes s'exécutent s'il n'y a pas de contrainte parce qu'elles ont les capacités à évidemment mettre en place des choses éthiques".

      5. Prise de Conscience Sociétale et Mesures Recommandées

      Il y a une prise de conscience sociétale croissante, mais des efforts significatifs sont encore nécessaires.

      • Écart de connaissance : Il existe un "gouffre entre peut-ĂŞtre des parents ou des professionnels de santĂ© qui sont sensibles au sujet et qui sont bien informĂ©s et qui peuvent dĂ©jĂ  avoir cette connaissance de l'impact des rĂ©seaux sociaux sur la santĂ© des jeunes mais qu'il y a aussi toute une frange de la population aujourd'hui qui ignore totalement ses effets".

      • Communication massive et ciblĂ©e : Une "communication qui soit extrĂŞmement massive sur ce sujet" est nĂ©cessaire, ainsi qu'une "communication plus ciblĂ©e aussi sur les professionnels de santĂ©" qui n'ont pas toujours le rĂ©flexe d'interroger les jeunes sur leur usage des rĂ©seaux sociaux.

      • Formation des soignants : La formation des soignants sur l'usage des Ă©crans est "très hĂ©tĂ©rogène aujourd'hui" et nĂ©cessite une formation "massive" des professions en lien avec la petite enfance et les adolescents.

      • Alternatives et rĂ©investissement des espaces physiques : La question "si on nous retire les rĂ©seaux sociaux qu'est-ce que vous nous mettez Ă  la place" est comprise.

      Les jeunes trouvent dans ces plateformes un "refuge de divertissement". Il est essentiel de "proposer des alternatives aujourd'hui suffisamment puissantes pour les extraire de cette attraction très très forte de l'univers numérique".

      L'exemple des terrains vagues aménagés en espaces d'activités physiques montre l'efficacité de "choses qui n'ont pas demandé beaucoup de ni de temps ni d'énergie ni surtout d'argent et qui les ont finalement motivés à faire autre chose".

      • RĂ©seaux sociaux "Ă©thiques" et progressivitĂ© : La recommandation de limiter l'accès aux rĂ©seaux sociaux Ă  15 ans pour les plateformes dont la "conception serait Ă©thique" est Ă©voquĂ©e.

      Le concept de "réseau social éthique" implique un design qui ne vise pas la captation à tout prix, mais le bien-être de l'utilisateur. Cependant, la définition et l'application d'un tel âge limite se heurtent à la complexité de la vérification de l'âge et à la mauvaise foi des plateformes.

      L'idée de 15 ans se cale sur la "majorité numérique" et la "majorité sexuelle". La question est posée si cet âge ne devrait pas être plus élevé (18 ans), étant donné la vulnérabilité des adolescents et le fait que le cerveau continue de mûrir jusqu'à 25 ans.

      6. La Résistance des Jeunes et le Conflit de Génération

      Les jeunes rejettent souvent l'idée de la dangerosité des plateformes, considérant les adultes comme des "boomers" qui "n'ont rien compris".

      • Discours immobilisant : Le discours selon lequel "on peut pas revenir en arrière c'est le progrès et puis on peut pas faire autrement ils sont partout" est critiquĂ© car il "dĂ©sarme toute volontĂ© de changer".

      Les experts insistent sur le fait que "oui on a le choix" de développer des modèles différents et de réguler.

      • Information insuffisante : "L'information qu'un produit est nĂ©faste pour la santĂ© suffisait Ă  changer les comportements depuis le temps qu'on fait la prĂ©vention en santĂ© publique on le saurait". L'information seule ne suffit pas ; une "rĂ©gulation extrĂŞmement" forte est nĂ©cessaire pour les produits addictifs ou "addictif-like".

      • Temps de la science vs. Évolution technologique : La reconnaissance scientifique des addictions prend du temps (90-100 ans pour le tabac), mais la technologie Ă©volue "toutes les semaines" avec de nouveaux produits, plaçant la science "des annĂ©es de retard".

      7. Approche Clinique et Traitement des Addictions aux Écrans

      La prise en charge clinique ne dépend pas d'une classification officielle mais des dommages constatés.

      • Prise en charge globale : Le traitement est "biopsychosocial", incluant "des mesures Ă©videmment sociales", des "thĂ©rapies systĂ©miques parents enfants", et la limitation de la consommation pour "Ă©viter les le clash".
      • Bilan psychiatrique : Un bilan est crucial car de "grandes maladies psychiatriques commencent Ă  l'adolescence" (schizophrĂ©nie, troubles bipolaires, anxiĂ©tĂ©s).
      • ThĂ©rapies : Des thĂ©rapies cognitivocomportementales, la psychanalyse ou psychodynamie de groupe sont utilisĂ©es. La recrĂ©ation d'une "communautĂ©" de jeunes en milieu de soin est efficace.
      • Transfert de dĂ©pendance : Le fait d'arrĂŞter une consommation d'Ă©crans n'est pas "Ă  l'origine d'un transfert" vers d'autres substances. La rĂ©alitĂ© est plutĂ´t celle de "polyconsommateur" et "polyxpĂ©rimentateur" oĂą l'offre de drogues est variĂ©e.

      • En conclusion, l'audition met en lumière l'urgence d'une prise de conscience collective et d'une action politique ferme face Ă  l'impact dĂ©lĂ©tère des rĂ©seaux sociaux, dont le modèle Ă©conomique est intrinsèquement problĂ©matique pour la santĂ© des jeunes.

      La régulation des plateformes, la formation des professionnels de santé et le développement d'alternatives concrètes sont des pistes essentielles pour inverser la tendance.

    1. Synthèse des auditions des responsables de la modération TikTok par la commission d’enquête

      1. Structure de la modération de contenu chez TikTok

      TikTok emploie une approche hybride pour la modération des contenus, combinant des systèmes automatisés (algorithmes et IA) avec l'intervention humaine.

      Nikessou, responsable de la sécurité juridique, a précisé que "98 % des contenus qui violent les conditions" sont supprimés de manière proactive grâce à ces systèmes automatisés.

      La modération humaine, qui implique 509 modérateurs francophones, se concentre sur les contenus les plus sensibles ou contextuels. Les contenus signalés ou devenus populaires font l'objet d'examens supplémentaires.

      Cependant, il y a une diminution du nombre de modérateurs humains, passant de 634 au premier semestre à 509 au deuxième semestre.

      TikTok justifie cette baisse par l'amélioration de ses outils d'IA, permettant une suppression plus rapide et cohérente des contenus problématiques, et minimisant l'exposition des utilisateurs et des employés à ces contenus.

      Les modérateurs reçoivent une formation initiale et des vérifications hebdomadaires et mensuelles de leur interprétation des règles. Un soutien psychologique est également mis en place pour les modérateurs exposés à des contenus difficiles.

      2. Efficacité de la modération et défis liés aux contenus problématiques

      TikTok affirme que "moins de 1 % du contenu ne respecte pas les lignes directrices", mais la commission a remis en question la pertinence de ce pourcentage en raison de l'algorithme de recommandation qui peut amplifier même un faible volume de contenu problématique.

      Un exemple majeur de ce défi est la tendance "Skinny Talk", qui a incité à l'anorexie et aux troubles alimentaires. TikTok a expliqué avoir initialement détecté un volume faible et un faible taux de non-conformité.

      Ce n'est qu'après l'augmentation du volume et l'émergence d'une communauté centrée sur de mauvaises habitudes alimentaires que des mesures, y compris le blocage du hashtag, ont été prises.

      Malgré ces efforts, des contenus problématiques liés à ce thème, comme le hashtag "fearfood", persistent, soulevant des questions sur l'efficacité de la modération et la capacité de TikTok à honorer son "obligation de résultat".

      La représentante de TikTok a admis que "bien sûr, nous faisons des erreurs, c'est inévitable".

      La commission a également soulevé le problème des "moyens de contournement" utilisés par les jeunes, tels que l'utilisation de symboles (ex: petit zèbre pour la scarification) pour aborder des sujets sensibles sans être détectés.

      Les responsables de TikTok reconnaissent cette problématique et affirment travailler à anticiper ces contournements.

      3. Gestion des signalements et relations avec les organisations externes

      TikTok collabore avec des organisations comme Stop Fisha, e-Enfance, Génération Numérique et Point de Contact, qui agissent comme "signaleurs de confiance". Ces organisations bénéficient d'un canal de signalement prioritaire, assurant une réponse rapide.

      Cependant, la commission a fait état de divergences entre les signalements effectués par des particuliers et ceux des organisations, ces dernières entraînant des suppressions de contenu plus fréquentes. TikTok justifie cette différence par l'expertise des signaleurs de confiance, qui aident à identifier plus précisément les violations des règles communautaires.

      4. Sanction des comptes et politiques de tolérance

      TikTok applique une politique de tolérance variable selon la gravité des infractions.

      Les violations mineures peuvent entraîner des avertissements et des opportunités de correction, tandis que les infractions graves comme les discours de haine ou la pédopornographie entraînent une "tolérance zéro" et une interdiction immédiate.

      Un document public détaillant cette gradation des sanctions existe et peut être partagé.

      La commission a exprimé sa préoccupation quant à la lenteur de réaction face à des comptes d'influenceurs connus, suivis par des millions de personnes, qui diffusent des contenus problématiques (ex: propos sexistes, incitation à la violence). TikTok a souligné la difficulté d'examiner l'intégralité du contenu d'un utilisateur et le caractère contextuel des violations.

      5. Modération et fonctionnalités de TikTok Live

      TikTok Live est un produit de diffusion en direct où les créateurs interagissent avec leur communauté. L'équipe de modération (TNS) est la même que pour les contenus préenregistrés et agit en toute indépendance.

      Des modèles dédiés sont utilisés pour détecter des signaux de violation pendant les diffusions en direct, permettant d'interrompre la vidéo ou de donner des retours aux créateurs. Les menaces à la vie sont signalées aux autorités locales.

      Une fonctionnalité notable est le "Live Match", où deux ou quatre créateurs s'affrontent pendant 5 minutes, accumulant des points via des cadeaux virtuels et des "J'aime" du public.

      Le vainqueur est celui qui a le plus de points. Les cadeaux virtuels vont d'une "rose virtuelle" valant environ 5 centimes à plusieurs centaines d'euros. TikTok prélève 50 % de la valeur des cadeaux.

      Les agences externes spécialisées dans le live streaming sont rémunérées par TikTok et peuvent recevoir des pénalités financières si leurs créateurs enfreignent les règles. Un "score de santé" est attribué aux agences, démarrant à 100 points et diminuant en cas de violation.

        1. Préoccupations liées à l'addiction et à la protection des mineurs sur TikTok Live

      La commission a exprimé de vives inquiétudes quant au caractère addictif de TikTok, en particulier des Lives. Les responsables de TikTok ont souligné plusieurs mesures de protection:

      • Interdiction des Lives pour les moins de 18 ans: Les crĂ©ateurs doivent vĂ©rifier leur identitĂ© (pièce d'identitĂ© et selfie) pour lancer un Live.
      • Interdiction de l'envoi de cadeaux virtuels pour les mineurs: Seuls les majeurs peuvent acheter et envoyer des cadeaux.
      • Limitation du temps d'Ă©cran: Les utilisateurs de 13 Ă  17 ans ont une limite de 60 minutes par jour, activĂ©e par dĂ©faut, avec des rappels rĂ©guliers.
      • Contenu non personnalisĂ©: Dans le cadre du DSA, TikTok propose des flux non personnalisĂ©s pour permettre aux utilisateurs de dĂ©couvrir une diversitĂ© de contenus.
      • Cependant, la commission a confrontĂ© TikTok Ă  des tĂ©moignages directs de mineurs participant Ă  des Lives et dĂ©pensant de l'argent via le compte Apple Pay de leurs parents, ou Ă©tant incitĂ©s Ă  changer leur date de naissance pour accĂ©der Ă  certaines fonctionnalitĂ©s. La vĂ©rification de l'âge reste un dĂ©fi majeur. TikTok a reconnu la persistance du problème, indiquant que "642 000 comptes" de moins de 13 ans ont Ă©tĂ© supprimĂ©s en France l'annĂ©e dernière, et 6 millions par mois dans le monde.

      • La commission a Ă©galement interrogĂ© le modèle de rĂ©munĂ©ration des Live, oĂą les "top crĂ©ateurs" peuvent gagner "plusieurs dizaines de milliers d'euros par mois", et la nature des "Live Match" qui, selon certains membres, s'apparentent Ă  des "mĂ©canismes similaires Ă  ceux des jeux d'argent". TikTok a rĂ©futĂ© cette assimilation, arguant qu'il n'y a pas d'espĂ©rance de gain pour les donateurs et que les jeux d'argent sont strictement interdits.

      Le remerciement des donateurs par les streamers, même s'il est considéré par TikTok comme de la "politesse", est perçu par la commission comme une "forme de gratification" et d' "encouragement au don".

      7. Transparence et obligations légales

      TikTok publie des rapports de transparence trimestriels et des rapports dédiés sur les demandes de retrait gouvernementales, les demandes d'information, les suppressions pour propriété intellectuelle, la lutte contre les opérations d'influence et les abus sexuels sur mineurs.

      La plateforme est également soumise aux obligations du DSA (Digital Services Act) et du code de pratique de lutte contre la désinformation de l'Union européenne.

      Conclusion

      • L'audition a mis en lumière la complexitĂ© de la modĂ©ration de contenu sur une plateforme de l'ampleur de TikTok, confrontĂ©e Ă  la fois Ă  des dĂ©fis technologiques (dĂ©tection de contournements, vĂ©rification de l'âge) et humains (volume de contenu, contexte culturel).

      Si TikTok a détaillé ses efforts en matière de sécurité et de conformité réglementaire, la commission a exprimé de fortes réserves quant à l'efficacité réelle de ces mesures, en particulier concernant la protection des mineurs et la persistance de contenus problématiques.

      Des informations complémentaires ont été demandées à TikTok par écrit, avec la possibilité d'une reconvocation en cas de non-fourniture ou de divergence des réponses.

    1. Compte-Rendu d'Audition des Responsables de TikTok France

      Contexte de l'Audition et Objectifs * L'audition vise à examiner le modèle économique, les stratégies de contenu, les mesures de sécurité et de modération de TikTok en France, ainsi que son impact sur les mineurs. Les représentantes de TikTok, * Marlène Masure (Responsable du contenu, Europe, Moyen-Orient, Afrique) et * Marie Hugon (Responsable des enquêtes réglementaires européennes), ont prêté serment de dire la vérité.

      L'objectif de la commission est d'obtenir des informations précises et d'éviter les redites avec les auditions précédentes.

      I. Activités et Positionnement de TikTok en France et en Europe

      1. Portée et Mission de TikTok :

      • TikTok compte 25 millions d'utilisateurs actifs chaque mois en France et plus de 175 millions en Europe.
      • La plateforme se positionne comme un "tremplin pour des milliers de crĂ©ateurs et professionnels" et une "vĂ©ritable vitrine sur le monde".
      • L'objectif est d'encourager la crĂ©ation de contenus "crĂ©atifs, Ă©ducatifs, divertissants, de qualitĂ© au service d'une communautĂ© très engagĂ©e".
      • TikTok affirme soutenir les contenus "utiles et positifs" et veiller Ă  la "sĂ©curitĂ© et au bien-ĂŞtre de notre communautĂ©", agissant "en responsabilitĂ©".

      2. Partenariats et Contenus Promus :

      • TikTok collabore avec plus de 250 mĂ©dias (Le Monde, France Info, AFP, etc.) pour les aider Ă  "dĂ©velopper leur audience en favorisant l'interaction avec de nouveaux publics".
      • Des partenariats sont Ă©tablis avec des acteurs de la culture, du sport (ex: Tour de France, JO Paris 2024, INA).
      • L'entreprise soutient activement les crĂ©ateurs de contenu, notamment Ă  travers des initiatives Ă©ducatives :
      • Fil STEM (Sciences, Technologies, IngĂ©nierie, MathĂ©matiques) lancĂ© en avril 2024, consultĂ© par 27% des utilisateurs de moins de 18 ans au moins une fois par semaine en France. Les moins de 18 ans le voient par dĂ©faut.
      • Programme "Apprendre sur TikTok" : valorise "toutes les formes de savoir", a gĂ©nĂ©rĂ© plus de 5 milliards de vues depuis son lancement en 2023 grâce Ă  250 000 vidĂ©os Ă©ducatives.
      • Marlène Masure mentionne travailler avec une sĂ©lection de 1000 crĂ©ateurs et 400 partenaires pour crĂ©er du contenu jugĂ© "intĂ©ressant" et "utile".

      II. Engagement Réglementaire et Mesures de Sécurité

      1. Conformité au DSA (Digital Services Act) et Transparence :

      • TikTok a Ă©tĂ© dĂ©signĂ©e "très grande plateforme" (VLOP) par la Commission europĂ©enne en avril 2023.
      • L'entreprise soutient le DSA, le considĂ©rant comme une "avancĂ©e majeure" pour le secteur.
      • TikTok rĂ©alise des "Ă©valuations dĂ©taillĂ©es des risques systĂ©miques", notamment liĂ©s Ă  la protection des mineurs, et met en Ĺ“uvre des "mesures d'attĂ©nuation raisonnable, proportionnĂ©e et efficace".
      • Cela inclut l'ajustement des conditions d'utilisation, le renforcement des politiques de modĂ©ration, la modification des systèmes de recommandation et la promotion de l'Ă©ducation aux mĂ©dias.
      • Des audits externes et indĂ©pendants et des rapports de transparence (nombre d'utilisateurs actifs, suppressions proactives de contenus illĂ©gaux) sont publiĂ©s annuellement.
      • En France, 91% des contenus problĂ©matiques sont supprimĂ©s avant mĂŞme d'ĂŞtre vus. TikTok emploie 509 modĂ©rateurs en langue française et des milliers en Europe.

      2. Mesures Spécifiques pour la Protection des Mineurs :

      • TikTok applique une "approche ferme et globale" avec des "politiques de tolĂ©rance zĂ©ro", des "technologies innovantes", des "fonctionnalitĂ©s de contrĂ´les intĂ©grĂ©es" et des "ressources pĂ©dagogiques".
      • Contenus sensibles : les contenus classifiĂ©s "matures" ne sont pas proposĂ©s aux mineurs et peuvent ne pas apparaĂ®tre dans le "Pour Toi".
      • Contenu créé par des mineurs : le contenu créé par des moins de 16 ans n'est pas Ă©ligible aux recommandations (pas dans le "Pour Toi").
      • PublicitĂ© personnalisĂ©e : n'existe plus pour les 13-17 ans depuis aoĂ»t 2023.
      • Gestion du temps d'Ă©cran :
      • TikTok a Ă©tĂ© "la première plateforme Ă  proposer cette limite de 60 minutes de temps d'Ă©cran pour les mineurs". Si le contrĂ´le parental est activĂ©, l'enfant est bloquĂ© après 60 minutes, seul le parent peut prolonger. Sans contrĂ´le parental, l'enfant peut choisir de prolonger.
      • Notifications push dĂ©sactivĂ©es automatiquement entre 21h et 8h pour les 13-15 ans, et entre 22h et 8h pour les 16-17 ans.
      • Outils de contrĂ´le parental ("Mode Connexion Famille") : permettent de filtrer des mots-clĂ©s, gĂ©rer le temps d'Ă©cran, le type de personnes pouvant interagir, et bloquer des heures d'accès.
      • Marlène Masure insiste sur la "culture du feedback" et l'Ă©coute des retours des partenaires, associations et experts pour amĂ©liorer la sĂ©curitĂ©.

      3. Gestion des Données (Projet Clover) :

      • TikTok a investi 1,2 milliard de dollars dans le "projet Clover" pour la souverainetĂ© numĂ©rique, visant Ă  localiser les donnĂ©es personnelles des utilisateurs europĂ©ens en Europe (data centers Ă  Dublin, en Finlande, en Norvège).
      • Ce projet est validĂ© par un tiers de confiance, NCC. Actuellement, certaines donnĂ©es sont encore hĂ©bergĂ©es dans des pays ayant des accords avec l'UE (États-Unis, Singapour) en attendant le transfert complet.

      III. Défis et Points de Tension

      1. Contradiction entre Propos et Témoignages :

      • Les rapporteuses confrontent les reprĂ©sentantes de TikTok avec de nombreux tĂ©moignages de jeunes et d'enseignants dĂ©crivant des expĂ©riences nĂ©gatives : addiction, spirale de contenu toxique (liĂ©s Ă  la dĂ©pression, l'hypersexualisation, le racisme, le sexisme, les violences), dĂ©veloppement de complexes, idĂ©es noires, troubles du sommeil, dĂ©sintĂ©rĂŞt scolaire, perte d'esprit critique, isolement social.
      • "L'algorithme a amplifiĂ© mon Ă©tat en m'inondant de contenu en lien avec ma dĂ©tresse il savait exactement ce que je ressentais et il me le servait en boucle ce qui Ă©tait un divertissement est devenu un piège et j'ai mis des mois Ă  m'en sortir" (Thibault, 20 ans).
      • "Aujourd'hui TikTok est saturĂ© de contenus violents dĂ©gradants sexualisĂ©s ou tout simplement toxique" (Manon, 20 ans).
      • Une enseignante : "il est urgent de protĂ©ger nos enfants de cette addiction Leurs parents n'Ă©tant pas toujours au courant ou conscient de l'emprise de TikTok sur leur façon de penser ou de ne plus penser par eux-mĂŞmes".
      • Les reprĂ©sentantes reconnaissent l'importance de ces tĂ©moignages mais nuancent, soulignant l'existence de tĂ©moignages positifs de crĂ©ateurs ayant trouvĂ© soutien, créé des entreprises ou bĂ©nĂ©ficiĂ© des programmes Ă©ducatifs. Elles affirment que le problème dĂ©passe TikTok et concerne l'usage du numĂ©rique en gĂ©nĂ©ral.

      2. Fonctionnement de l'Algorithme et "Bulles de Contenu" :

      • L'algorithme de TikTok est basĂ© sur les "centres d'intĂ©rĂŞt" et non les connexions sociales, recommandant du contenu en fonction des consommations passĂ©es de l'utilisateur et d'utilisateurs similaires.
      • Les rapporteuses expriment leur prĂ©occupation face Ă  l'enfermement dans des "bulles de contenu" et la promotion de contenus "provocateurs" ou "choc" par l'algorithme qui privilĂ©gie l'"attention" plutĂ´t que les "intentions profondes" ou la "raison".
      • Elles Ă©voquent l'infinit scrolling comme une spĂ©cificitĂ© addictive de TikTok.
      • TikTok affirme avoir des "principes de dispersion des contenus" pour Ă©viter la rĂ©pĂ©tition excessive de contenus sensibles.
      • Concernant la recommandation de contenus Ă©ducatifs, TikTok encourage l'utilisation de hashtags comme #apprendresurTikTok et soutient des mĂ©dias et crĂ©ateurs qualitatifs. Elles citent l'exemple de BookTok, une "très belle histoire" de communautĂ© littĂ©raire, bien que les rapporteuses mentionnent des articles de presse faisant Ă©tat de la prĂ©sence de "Dark Romance" hypersexualisĂ©e et violente sur cette tendance.

      3. Efficacité de la Modération et Contournement des Règles :

      • TikTok se dit en "permanence en train de rééduquer nos algorithmes" pour dĂ©tecter les mots-clĂ©s dĂ©tournĂ©s (ex: "algospeak", substitution de lettres par des chiffres ou Ă©moticĂ´nes).
      • Cependant, des tests effectuĂ©s par la commission montrent que des recherches avec des mots-clĂ©s dĂ©tournĂ©s (ex: "scarification" avec un "c", "zèbre" pour scarification, "Suisse" pour suicide) donnent toujours accès Ă  des contenus problĂ©matiques, mĂŞme après signalement.
      • Les rapporteuses dĂ©noncent le manque de rĂ©activitĂ© de TikTok et l'insuffisance des messages de prĂ©vention pour des recherches telles que "je veux mourir" ou "comment se pendre".
      • Elles soulignent que l'obligation de TikTok est une "obligation de rĂ©sultat" pour la protection des enfants, pas seulement une "obligation de moyens".

      4. Vérification de l'Âge et Comptes de Mineurs :

      • TikTok reconnaĂ®t avoir supprimĂ© 642 000 comptes en France (sur la pĂ©riode 2024-2024) de moins de 13 ans n'ayant pas pu prouver leur âge, ce qui atteste que "beaucoup de jeunes mentent sur leur âge".
      • Cependant, TikTok ne dispose pas de statistiques prĂ©cises sur le pourcentage de mineurs rĂ©els sur la plateforme ni sur l'activation des outils de contrĂ´le parental par les comptes de mineurs identifiĂ©s.
      • Elles dĂ©clarent que la vĂ©rification de l'âge Ă  l'inscription est dĂ©clarative et qu'il n'y a pas d'obligation rĂ©glementaire europĂ©enne pour une vĂ©rification plus stricte.
      • Les rapporteuses critiquent cette passivitĂ©, suggĂ©rant que TikTok pourrait ĂŞtre "plus responsable que les autres" en mettant en place une vĂ©rification d'âge a priori, mĂŞme imparfaite (comme la solution "Connet" proposĂ©e par l'Éducation Nationale et refusĂ©e par TikTok).
      • Elles estiment que la rĂ©alitĂ© des mineurs sur la plateforme est que "deux tiers d'entre eux sont inscrits comme des majeurs" et ont accès Ă  des contenus inappropriĂ©s.

      5. Différences avec Douyin (version chinoise) :

      • Les reprĂ©sentantes de TikTok affirment que Douyin est une application "complètement diffĂ©rente" gĂ©rĂ©e par des Ă©quipes chinoises, et qu'elles n'ont pas de lien ni de connaissance approfondie de ce produit, ce qui limite leur capacitĂ© Ă  commenter ses mĂ©canismes de protection des mineurs.

      6. Influenceurs Problématiques et Signalement :

      • La commission s'interroge sur la lenteur de la rĂ©action de TikTok face Ă  des influenceurs problĂ©matiques très suivis (ex: Ad Laurent, Alexis Chens) qui ont Ă©tĂ© signalĂ©s par des associations (Stop Fisha) ou des personnalitĂ©s politiques (Aurore Berger).
      • TikTok affirme avoir Ă©tĂ© "les premiers" Ă  retirer certains comptes, mais reconnaĂ®t des systèmes de "graduation" avant le bannissement. Elles estiment que l'intervention mĂ©diatique met "un coup de pression" mais que des processus rĂ©glementaires existent.
      • Les rapporteuses regrettent que les signalements d'individus soient moins bien traitĂ©s que ceux d'organisations.

      IV. Conclusion et Perspectives

      • Les reprĂ©sentantes de TikTok rĂ©itèrent leur engagement continu pour la sĂ©curitĂ©, l'amĂ©lioration des outils et la collaboration avec les rĂ©gulateurs, associations et chercheurs. Elles soulignent les investissements massifs dans la sĂ©curitĂ© et les efforts de modĂ©ration (plus de 6 millions de vidĂ©os supprimĂ©es en France en 2024).
      • Elles reconnaissent que "cette marge d'erreur on l'accepte pas" et "on travaille pour lutter contre effectivement des contenus qui peuvent crĂ©er des drames".
      • Elles rappellent la "fiertĂ© de ce que la plateforme offre comme opportunitĂ©" et son rĂ´le dans la "crĂ©ation de valeur", "d'engagement" et de "carrières".
      • La commission exprime une "frustration" face aux rĂ©ponses, estimant que les mesures de TikTok ne sont pas Ă  la hauteur de la "dĂ©pendance très très forte des mineurs" et des "drames Ă©vitables" (suicides, scarifications).
      • La commission avertit qu'en l'absence d'"amĂ©lioration effective", l'interdiction de la plateforme pourrait devenir une option si des vies d'enfants continuent d'ĂŞtre affectĂ©es.
      • Des questions importantes sur le modèle Ă©conomique (revenus des lives, part des revenus publicitaires) restent sans rĂ©ponse et pourraient mener Ă  une nouvelle audition.
  2. Oct 2020
    1. you are granting us the right to use your User Content without the obligation to pay royalties to any third party
    2. You or the owner of your User Content still own the copyright in User Content sent to us, but by submitting User Content via the Services, you hereby grant us an unconditional irrevocable, non-exclusive, royalty-free, fully transferable, perpetual worldwide licence to use, modify, adapt, reproduce, make derivative works of, publish and/or transmit, and/or distribute and to authorise other users of the Services and other third-parties to view, access, use, download, modify, adapt, reproduce, make derivative works of, publish and/or transmit your User Content in any format and on any platform, either now known or hereinafter invented.
  3. May 2020
  4. Apr 2020