Proposal

Objectives of the initiative (1100 characters)

The digital environment is vital for EU democratic, social and economic life but faces two major challenges: online disinformation and risks to wellbeing, especially for minors. A regulation of the digital attention economy is essential. This European Citizens’ Initiative (ECI) has two goals:

1) Fight disinformation by strengthening regulation of very large platforms;

2) Promote digital wellbeing through education, protection of minors and ethical design.

Measures: hold large platforms (X, Facebook, Instagram) legally responsible, revise algorithms, limit filter bubbles, label manipulated content, slow viral fake news, ensure algorithm transparency, and fund independent oversight. Also: launch EU-wide digital education, reduce screen time for youth, raise awareness, require ethical design (default-off recommendations/notifications, user time alerts). Finally: harmonize digital consent age at 16 and reinforce protection of minors in DSA and GDPR. These steps build a safer, transparent, ethical digital space.

IN ENGLISH – Appendix detailing the project

Context and objectives

The digital environment has become an essential part of democratic, social, and economic life in the European Union. However, it is undermined by two major challenges: online disinformation and risks to well-being and mental health, particularly among minors. European regulation of the digital attention economy is therefore essential. Our proposed European Citizens’ Initiative (ECI) has two objectives:

1°) To fight disinformation by strengthening the regulation of very large online platforms.

2°) Promote digital well-being through educational measures, protection of minors, and a requirement for ethical design of digital services.

1 – Combating online disinformation

Online disinformation undermines democracy by blurring the line between truth and falsehood, increasing political polarization and citizens’ distrust of democracy. The European Commission has already strengthened its regulatory approach to combating online disinformation with its Code of Practice on Disinformation in February 2025. However, this code is non-binding, and it appears necessary to strengthen the effectiveness of the Digital Services Act (DSA) to combat growing disinformation. Our ECI therefore calls on the European Commission to:

-Revise the liability regime for very large online platforms, targeting platforms that reach an EU-wide audience threshold (X, Facebook, Instagram, etc.). These measures are necessary to ensure the proper functioning of the internal market. The DSA should be amended so that these platforms:

→ revise their algorithms that allow for overly specialized recommendations based on user data (for example, by imposing a certain proportion of non-recommended content, content that does not match the user’s interests, or content from users they do not know) and be required to take responsibility for monitoring and preventing the formation of bubbles of any kind (opinion, source, emotion, etc.)

-> label informational content to immediately visualize manipulated content (AI, etc.) and the epistemological quality of the information.

→ introduce mechanisms of “desirable friction,” thwarting users’ automatic responses and slowing the spread of viral fake news, for example by adding confirmation steps before resharing information or sharing opinions containing violent language.

It is also a question of holding these platforms criminally liable for the content they disseminate and removing all exemptions from liability provided for in the DSA, in order to ensure swift and effective action against the dissemination of manifestly false or manipulative content. A verification body could be created, financed by a tax on the advertising revenue of these platforms, for example. The platforms’ algorithmic data must be accessible to researchers and journalists to facilitate transparency.

These measures would strengthen the Union’s ability to ensure a transparent and secure digital market, while respecting the EU Charter of Fundamental Rights.

2 – Promoting digital well-being

Beyond combating disinformation, it is essential to protect the mental health, safety, and dignity of citizens, especially the youngest and most vulnerable.

2.a) Digital education

The EU only has supporting powers (Article 6 TFEU), which excludes harmonization of school curricula. However, our ECI calls on the Commission to:

-> integrate the actions of this ECI into the existing Digital Education Action Plan, and incorporate the objective of limiting screen time among young children in order to mitigate the addictive and cognitively harmful effects of screens on them.

-> launch a broad awareness campaign to promote recommendations on digital well-being, cyberbullying, and the online information industry.

2.b) Ethical design rules

The EU can act on the basis of Article 114 TFEU to harmonize the design and operational requirements of digital platforms. We propose:

The introduction of a “right to configuration” for online services: default deactivation of recommendation algorithms and intrusive notifications, with the choice left to the user, after informed consent and definition of user preferences.

Require platforms to integrate tools that promote ongoing user reflexivity (screen time alerts, etc.).

2.c) Enhanced protection for minors

Finally, the ECI calls for harmonization of the age of digital consent. Currently, the GDPR sets a default threshold of 16 years (Article 8), but leaves room for Member States to set their own thresholds (between 13 and 16 years). We call on the Commission to:

-> propose an amendment to the GDPR to set a uniform age of 16.

-> amend the DSA under Article 114 TFEU by introducing a definition of “minor” and strengthening the protection of minors under the DSA.

Ces mesures renforceraient la protection des droits fondamentaux, la lutte contre le cyber-harcèlement des plus jeunes, tout en assurant un marché intérieur du numérique plus sûr et transparent. Parce qu’un Internet plus sûr et plus éthique est une condition essentielle de la démocratie européenne et de la confiance des citoyens.

IN FRENCH

Contexte et objectifs

L’environnement numérique est devenu un espace essentiel de la vie démocratique, sociale et économique de l’Union européenne. Pourtant, il est fragilisé par deux défis majeurs : la désinformation en ligne et les risques pour le bien-être et la santé mentale, en particulier des mineurs. Une régulation européenne de l’économie de l’attention dans le numérique apparaît dès lors indispensable. Notre proposition d’Initiative Citoyenne Européenne (ICE) poursuit un double objectif :

  1. Lutter contre la désinformation en renforçant la régulation des très grandes plateformes en ligne.
  2. Promouvoir le bien-être numérique par des mesures éducatives, de protection des mineurs et une obligation de conception éthique des services numériques.

Axe 1 – Lutter contre la désinformation en ligne

La désinformation en ligne fragilise la démocratie, brouillant la frontière entre vrai et faux, augmentant les polarisations politiques et la méfiance des citoyens à l’encontre de la démocratie1. La Commission européenne a déjà renforcé son approche réglementaire visant à lutter contre la désinformation en ligne avec, en février 2025, son code de bonne conduite contre la désinformation. Mais son caractère est non contraignant et il apparaît nécessaire de renforcer l’efficacité du DSA (Digital Service Act) pour lutter contre la désinformation croissante. Notre ICE demande donc à la Commission européenne de :

  • Réviser le régime de responsabilité des très grandes plateformes en ligne,en ciblant les plateformes atteignant un seuil d’audience à l’échelle de l’UE (X, Facebook, Instagram…). Ces mesures sont nécessaires pour assurer le bon fonctionnement du marché intérieur 2, il s’agit de modifier le DSA pour que ces plateformes :révisent leurs algorithmes qui permettent des recommandations excessivement spécialisées par rapport aux données de l’utilisateur (par exemple en imposant une certaine part de contenu non recommandé, de contenu qui ne correspond pas aux intérêts de l’utilisateur ou de contenu provenant d’utilisateurs qu’il ne connaît pas) et soient obligées de prendre en charge le contrôle et la prévention de la formation de bulles de tout type (opinion, source, émotion, etc.)3étiquettent / labélisent les contenus informationnels4 pour visualiser immédiatement le contenu manipulé (IA…) et la qualité épistémologique de l’information. → introduisent des mécanismes de « frictions désirables », déjouant les automatismes des usagers et ralentissant la propagation de Fake News virales, par exemple en ajoutant des étapes de confirmation avant de repartager une information / de partager une opinion contenant des propos violents.5
  • Il s’agit également de tenir ces plateformes comme pénalement responsables des contenus diffusés6 et supprimer toutes les exemptions de responsabilité prévues par le DSA, afin de garantir une action rapide et efficace contre la diffusion de contenus manifestement faux ou manipulatoires. Un organisme de vérification7 pourrait être créé, financé par un impôt sur les revenus publicitaire de ces plateformes par exemple.8 Les données algorithmiques des plateformes doivent être accessibles aux chercheurs et journalistes, pour faciliter la transparence.

Ces mesures renforceraient la capacité de l’Union à assurer un marché numérique transparent et sécurisé, tout en respectant la Charte des droits fondamentaux de l’UE.

Axe 2 – Promouvoir le bien-être numérique

Au-delà de la lutte contre la désinformation, il est essentiel de protéger la santé mentale, la sécurité et la dignité des citoyens, en particulier des plus jeunes et des plus vulnérables.

a) Éducation numérique

L’UE ne dispose que d’une compétence d’appui (article 6 TFUE), ce qui exclut une harmonisation des programmes scolaires. Toutefois, notre ICE invite la Commission à :

  • intégrer les actions de cette ICE au Plan d’action pour l’éducation numérique9 déjà existant, et intégrer l’objectif de limiter les temps d’écran chez les plus jeunes, pour amortir le pouvoir d’addiction et de nuisance cognitive des écrans chez ces derniers10.
  • créer une vaste campagne de sensibilisation pour faire passer quelques recommandations sur le bien-être numérique, le cyber-harcèlement et la fabrique de l’information en ligne.11

b) Règles de conception éthique

L’UE peut agir sur la base de l’article 114 TFUE pour harmoniser les obligations de conception et de fonctionnement des plateformes numériques. Nous proposons :

  • L’introduction d’un « droit de configuration » des services en ligne: désactivation par défaut des algorithmes de recommandation et des notifications intrusives avec choix laissé à l’utilisateur, après consentement éclairé et définition des préférences de l’utilisateur.12
  • D’imposer aux plateformes l’intégration d’outils favorisant la réflexivité permanente de l’utilisateur (alertes de temps d’écran, …13 ).

c) Protection renforcée des mineurs

Enfin, l’ICE appelle à une harmonisation de l’âge du consentement numérique. Actuellement, le RGPD fixe un seuil par défaut à 16 ans (article 8), mais laisse une marge aux États membres (13 à 16 ans). Nous demandons à la Commission de :

  • proposer une modification du RGPD pour fixer un âge uniforme à 16 ans.
  • modifier le DSA en vertu de l’article 114 du TFUE en introduisant une définition de « mineur » et en renforçant la protection des mineurs au titre du DSA.

Ces mesures renforceraient la protection des droits fondamentaux, la lutte contre le cyber-harcèlement des plus jeunes, tout en assurant un marché intérieur du numérique plus sûr et transparent. Parce qu’un Internet plus sûr et plus éthique est une condition essentielle de la démocratie européenne et de la confiance des citoyens.

1Voir : Asma Mhalla, Technopolitique, comment la technologie fait de nous des soldats, Seuil, 2024; Mickael Lainé, L’ère de la post-vérité. Comment les algorithmes changent notre rapport à la réalité. La Découverte, 2025.

2En vertu de l’article 114 du TFUE, la Commission peut proposer les mesures d’harmonisation qui, si cela s’avère nécessaire, ont pour objet de garantir le bon fonctionnement du marché intérieur.

3Il s’agit d’atténuer l’effet « echo chamber » des algorithmes de recommandation, qui est à l’origine de multiples exemples de polarisation et de radicalisation. En obligeant à formuler des recommandations pertinentes tout en réduisant la probabilité que celles-ci incitent l’utilisateur à s’engager sur la voie de la radicalisation, il s’agit d’empêcher la propagation de fausses informations, souvent associées à la viralité de la colère, de l’indignation ou de la peur (émotions en général).

4Cela permettrait pour l’usager des réseaux sociaux de repérer rapidement les informations fiables car vérifiées / issues de médias assermentés, et ainsi de lutter contre les dérives informationnelles et les inégalités d’accès à une culture numérique saine et à une information de qualité. En effet les inégalités d’accès à l’information sont le reflet d’autres inégalités (sociales, territoriales…), et se creusent après le lycée, les jeunes les moins qualifiés qui sont souvent les moins armés pour s’informer de manière autonome sont alors tentés de se déconnecter de l’information ou de mal s’informer. Avec ce système d’indice visible, l’autonomie décisionnelle des utilisateurs est préservée, il leur permet d’être plus réflexifs et conscients à l’égard des choix qu’ils font pour s’informer.

5Voir : « Données et Design » de la CNIL et la notion de « frictions désirables » p. 127 de Broadbent, S.; Forestier, F.; Khamassi, M.; and Zolynski, C. 2024. Pour une nouvelle culture de l’attention. Odile Jacob

6Si l’imposition de sanctions pénales est nécessaire pour garantir la mise en œuvre effective des règles applicables aux plateformes l’UE peut imposer aux États membres des règles minimales en matière de sanction pénales, en vertu de l’article 83, paragraphe 2, du TFUE.

7Comme l’ARCOM en France, mais à l’échelle européenne et pour les médias sociaux.

8Dans la mesure où cet organisme est nécessaire pour le fonctionnement du marché intérieur, cette taxe serait fondée sur l’article 115 du TFUE.

9Articles 165 et 166 du TFUE

10« Plus les enfants passent de temps devant les écrans et moins ils en ont pour les jeux créatifs, les activités interactives et d’autres expériences cognitives sociales fondamentales. Des compétences telles que le partage, l’appréciation et le respect des autres, qui sont des acquisitions enracinées dans la petite enfance, s’en trouvent menacées » (https://www.sciencedirect.com/science/article/abs/pii/S1876220419301128 ) ; https://presse.inserm.fr/ecrans-et-developpement-cognitif-de-lenfant-le-temps-dexposition-nest-pas-le-seul-facteur-a-prendre-en-compte/67438/

11Voir Asma Mhalla, page 249-250 : « des campagnes de sensibilisation massives (…) construites avec des experts, citoyens, influenceurs et relais d’opinions civils pour faire passer le message et donner ces quelques recommandations. Par exemple : après l’exposition à un contenu ne jamais engager aucune action (like, share, follow, etc.) dans les cinq secondes qui suivent, le temps de basculer du circuit cognitif premier, celui des réflexes et des croyances, au circuit deux, celui de la pensée froide et du raisonnement ».

12Il s’agit de protéger les données personnelles ou les droits et la santé des consommateurs, ces dispositions pourraient donc être adoptées en vertu de l’article 16 du TFUE relatif à la protection des données ou de l’article 169 du TFUE relatif à la protection des consommateurs.

Cette idée permet de répondre au problème de la fragmentation de l’attention entraînée par les notifications multiples, souvent invasives, que les applications de smartphones suscitent. Les utilisateurs sont tentés d’interrompre leur activité à chaque nouvelle notification, or passer d’une tâche à une autre a un coût : plus de temps passé sur ces applications, plus d’erreurs dans les tâches interrompues, moindre capacité cognitives, baisse de la concentration… etc. (Voir : Rogers, R. D.; and Monsell, S. 1995. Costs of a predictible switch between simple cognitive tasks. Journal of experimental psychology: General, 124(2): 207 ; Ward, A. F.; Duke, K.; Gneezy, A.; and Bos, M. W. 2017. Brain drain: The mere presence of one’s own smartphone reduces available cognitive capacity. Journal of the Association for Consumer Research, 2(2): 140–154 ; antos, C.; Morozovaite, V.; and De Conca, S. 2024. No harm no foul: how harms caused by dark patterns are conceptualised and tackled under EU data protection, consumer and competition laws)

13Par exemple sous forme d’un petit « tableau de bord » intégré sur lequel les utilisateurs ont un retour d’information sur leur utilisation du système et sur eux-mêmes (par exemple : temps passé par jour ; utilisation concrète de leurs données personnelles et de navigation ; nombre d’interactions rédigées ; équivalent CO2 de leur utilisation des serveurs de la plateforme, …)