Amnesty urges stricter DSA enforcement over teen bans (Full Transcript)

Amnesty International France warns under-15 social media bans may fail and raise rights risks, urging tougher EU DSA enforcement to curb addictive design.
Download Transcript (DOCX)
Speakers
add Add new speaker

[00:00:00] Speaker 1: — Avec Katia Roux. Elle est chargée de plaidoyer technologie et droits humains à Amnesty International France. Bonsoir à vous. Merci d'être là ce soir avec nous. Le texte de loi devrait a priori trouver une majorité à l'Assemblée nationale. Alors sur le constat, c'est-à-dire les risques des réseaux sociaux sur les ados, qui sont listés d'ailleurs dans la proposition de loi, cyberharcèlement, comparaison permanente, exposition à des contenus violents, système de captation de l'attention au détriment du sommeil. Est-ce que vous, vous alertez sur tous ces dangers ? Et quel est le pire de tous ?

[00:00:36] Speaker 2: Alors nous alertons absolument sur tous les dangers que vous avez cités. Quand on creuse un petit peu le modèle d'activité des réseaux sociaux, on se rend compte effectivement que c'est un modèle fondé sur la surveillance, la captation des données personnelles, qui repose sur des choix addictifs. C'est-à-dire que les plateformes ont fait le choix de... de créer en fait des réseaux qui maintiennent le plus longtemps possible les utilisateurs et utilisatrices en ligne. Donc oui, les impacts peuvent être effectivement graves sur, par exemple, des jeunes vulnérables. On a mené une enquête à Amnesty International sur TikTok qui a montré les effets potentiels sur la santé mentale de jeunes vulnérables. Ce sont des systèmes qui entraînent dans des spirales de contenus potentiellement toxiques, potentiellement préjudiciables, et qui peuvent avoir des vraies conséquences dramatiques dans la vie réelle. Donc oui, on partage tout à fait le constat de l'impact de ces plateformes qui est directement lié au choix de conception des entreprises, des réseaux sociaux.

[00:01:33] Speaker 1: Et c'est bien à ça qu'il faut s'attaquer aujourd'hui. Le gouvernement donc engage une procédure accélérée sur ce texte qui vise lui donc à interdire les réseaux sociaux aux moins de 15 ans et à interdire les portables dans les lycées. L'interdiction est-elle la solution ?

[00:01:48] Speaker 2: Alors effectivement, le débat aujourd'hui est très présent. Dans l'espace politique, et c'est tant mieux, on se réjouit que les pouvoirs publics se saisissent de cette question et en fassent une urgence, parce que c'est une question aussi de droits humains. Impact sur le droit à la vie privée, impact sur la liberté de penser, impact sur le droit à la santé. Maintenant, est-ce que l'interdiction est une solution satisfaisante ? Effectivement, on questionne cela, puisque ça ne correspond pas vraiment à la réalité de toute une génération qui vit à la fois en ligne et hors ligne. On l'a vu dans le reportage que vous venez de passer. C'est-à-dire qu'il y a des gens qui disent leur addiction, leur impuissance à se défaire de ces réseaux-là. Mais est-ce qu'une interdiction va pouvoir effectivement les rendre plus sûrs ? Eh bien, probablement pas, puisqu'en fait, le fonctionnement de ces réseaux ne va pas changer. On craint que les jeunes puissent contourner cette interdiction. Et puis, effectivement, le fonctionnement, les contenus toxiques, problématiques resteront en fait sur ces réseaux. Donc aujourd'hui, nous, on pointe davantage la responsabilité des plateformes. On demande à ce que les réglementations qui existent, notamment en Europe, donc le Digital Services Act, qui encadrent les plateformes, qui leur imposent des obligations en termes de prise en compte de ces risques systémiques, justement, soient mises en œuvre de manière stricte. Aujourd'hui, on en est loin et on pense que c'est ça, la solution, qui permettra de rendre cet environnement numérique sûr pour toutes et tous.

[00:03:11] Speaker 1: Alors, l'Australie a fait, il y a un mois et demi, a mis en place cette interdiction, justement, des réseaux sociaux aux adolescents. Est-il possible de faire un premier bilan ? C'était il y a à peu près deux mois.

[00:03:22] Speaker 2: Alors, c'est difficile. Nous-mêmes, nous n'avons pas enquêté de manière exhaustive sur l'impact de la mesure. On entend parfois, selon les témoignages des personnes qui disent, bon, voilà, ça nous a sortis un petit peu de la plateforme. Et d'autres qui nous disent, en fait, c'est très facilement contournable, en fait, la vérification de l'âge. Donc aujourd'hui, c'est difficile de tirer un bilan. En revanche, les craintes persistent parce que les mesures qui sont mises en avant, et le reportage l'a mentionné, en termes de vérification d'âge, ça va être la reconnaissance faciale ou l'accès à des données personnelles. Et il ne faudrait pas que les mesures qui soient mises en place pour contrer les effets négatifs de ces plateformes comportent elles-mêmes des risques en matière de droits humains. Donc aujourd'hui, on n'a pas vraiment de système de vérification de l'âge qui soit fiable et qui garantisse qu'il n'y ait pas davantage d'atteinte aux droits humains. Et donc, on vient questionner cette mesure-là. Et effectivement, il y a une volonté d'accélérer les choses, mais en France, nous, on préférait qu'il y ait une volonté de vraiment remettre la responsabilité sur les plateformes et de mettre en œuvre une réglementation qui n'est pas parfaite, mais qui pourrait vraiment améliorer le quotidien et l'expérience en ligne de tous les utilisateurs et utilisatrices.

[00:04:34] Speaker 1: Donc vous, vous souhaiteriez une réglementation européenne appliquée à tous les Européens et qui puisse faire en sorte que les plateformes elles-mêmes soient réglementées. C'est ça, en fait, ce que vous défendez à Amnistie internationale.

[00:04:48] Speaker 2: Exactement. Cette réglementation, elle existe. C'est le Digital Services Act, le DSA, qui est mis en œuvre depuis 2023 pour les très grandes plateformes, donc les entreprises des réseaux sociaux, et qui, plus de deux ans après, peine à être mis en œuvre efficacement. Il y a des enquêtes qui ont été ouvertes par la Commission européenne. On attend toujours les conclusions, notamment celles précisément sur les effets de TikTok sur la santé mentale des jeunes. Aujourd'hui, il y a des mesures très claires qui ont été adoptées dans ce texte de lutter contre la conception addictive, donc cette lecture automatique des vidéos, le fait qu'il y a un système de recommandation algorithmique qui vient personnaliser tous les contenus qu'on va recevoir en ligne, le défilement à l'infini, tout ça, effectivement, fait que ça rend les jeunes, et les moins jeunes d'ailleurs, accros. Et c'est contre ces choix addictifs qu'il faut lutter, c'est contre le modèle de ces plateformes qui visent à maintenir les utilisateurs en ligne le plus longtemps possible, quel que soit le contenu qui est poussé.

[00:05:45] Speaker 1: Peu importe si le contenu est problématique, peu importe si ça a des conséquences sur les droits des utilisateurs, sur les droits des utilisateurs, sur les droits des utilisateurs, sur les droits des utilisateurs, sur les droits des utilisateurs, sur les droits des utilisateurs, sur les droits des utilisateurs, utilisatrices, l'idée, c'est de maintenir les gens le plus longtemps possible en ligne pour faire du contenu personnalisé, pour faire de la publicité ciblée, et in fine, pour faire du profit. Kétiaro, on voit bien que c'est quand même l'interdiction qui prend un peu le dessus, puisque là, il y a un consensus au sein de l'Assemblée nationale, donc c'est une mesure plus radicale, peut-être plus ou moins efficace, c'est ce que vous dites, votre approche est peut-être, en étant plus globale, plus longue, elle va prendre plus de temps à être mise en place, donc une interdiction pourrait peut-être accélérer cela ?

[00:06:21] Speaker 2: C'est vrai qu'on nous dit souvent, le changement de modèle d'activité des plateformes, c'est un peu utopique, en fait, comme vision. En réalité, pas du tout, encore une fois, ce sont des choix, donc ça peut prendre effectivement du temps, mais il ne faut pas que dans cet intervalle de temps, des mesures qui pourraient priver aussi d'accéder à des informations, priver de la liberté de s'exprimer ou de participer aux débats publics, ne puissent effectivement impacter encore plus les choses. Les droits des jeunes utilisateurs et utilisatrices, donc oui, c'est la mesure aujourd'hui qui est privilégiée, on comprend pourquoi cette mesure est poussée en termes de symboles pour aller vite. Malheureusement, ça risque non seulement de manquer l'effet escompté, peut-être de créer de nouveaux risques en matière de droits humains, mais surtout, ça ne rend pas les plateformes plus sûres et plus responsables. Et il faut continuer à demander, en fait, un changement de ce modèle. Il faut continuer à remettre en cause ce monopole, en fait, de ces grandes plateformes, parce qu'on nous fait croire, depuis très longtemps maintenant, qu'il n'y a pas de modèle alternatif. Et c'est ça aussi une des grandes réussites de ces plateformes, c'est finalement, si on nous dit, ça ne peut pas changer, donc il faut interdire entre-temps, eh bien, on ne remet pas en cause le modèle. On ne fait pas émerger d'autres alternatives plus respectueuses des droits humains, et puis on discrédite finalement les personnes qui revendiquent ces changements systémiques. Aujourd'hui, il faut absolument que la responsabilité soit replacée sur les plateformes.

[00:07:43] Speaker 1: Merci, Katia Roux. Vous êtes chargée de plaidoyer technologie et droits humains à Amnistie International. Amnistie International France.

ai AI Insights
Arow Summary
In a French interview, Amnesty International France’s tech and human rights advocacy lead, Katia Roux, agrees that social networks pose serious risks to adolescents (cyberbullying, harmful comparisons, violent content exposure, sleep disruption) and argues these harms are rooted in platforms’ surveillance-based, data-extractive business models and addictive design choices. She questions whether banning social media for under-15s (and phones in high schools) would be effective, warning it may be easily circumvented and would not change platform mechanics or toxic content dynamics. Roux emphasizes that enforcement methods like age verification can themselves threaten rights through intrusive data collection or facial recognition. Amnesty’s preferred solution is stricter enforcement of existing EU regulation—the Digital Services Act (DSA)—to address systemic risks such as addictive design (autoplay, infinite scroll) and algorithmic recommender systems, and to hold platforms accountable rather than shifting burden onto users or restricting youths’ access to information and expression. She cautions that quick bans may create new human-rights risks while delaying necessary structural reform and alternatives to dominant platforms.
Arow Title
Amnesty Questions Under-15 Social Media Ban, Urges DSA Enforcement
Arow Keywords
Amnesty International France Remove
Katia Roux Remove
social media Remove
adolescents Remove
mental health Remove
addictive design Remove
surveillance advertising model Remove
data privacy Remove
age verification Remove
facial recognition Remove
Digital Services Act Remove
DSA Remove
algorithmic recommendations Remove
TikTok Remove
cyberbullying Remove
human rights Remove
European regulation Remove
Arow Key Takeaways
  • Social media harms for teens are linked to platforms’ surveillance-based business models and addictive design patterns.
  • A blanket ban for under-15s may be ineffective due to circumvention and because it doesn’t change platform incentives or design.
  • Age-verification approaches can introduce new human-rights risks, especially if they rely on facial recognition or additional personal data collection.
  • The EU Digital Services Act already provides tools to tackle systemic risks (addictive design, recommender systems) but is not yet enforced strongly enough.
  • Policy should reassign responsibility to platforms, protect youths’ rights (privacy, health, freedom of expression), and encourage safer alternatives to dominant platforms.
Arow Sentiments
Neutral: The tone is concerned and critical of platform design and rushed bans, but primarily analytical and policy-focused, advocating regulatory enforcement and rights-respecting approaches rather than expressing strong positive or negative emotion overall.
Arow Enter your query
{{ secondsToHumanTime(time) }}
Back
Forward
{{ Math.round(speed * 100) / 100 }}x
{{ secondsToHumanTime(duration) }}
close
New speaker
Add speaker
close
Edit speaker
Save changes
close
Share Transcript