Entre liberté d’expression et censure numérique, la tendance mondiale est à l’uniformisation de la pensée. La Côte d’Ivoire n’échappe pas à ce grand boom de la pensée unique.
Qui décide de ce que nous devons voir, dire et écrire ?
Dans l’univers du numérique, ce que nous lisons, regardons ou partageons ne relève plus de notre arbitre. Ce sont des algorithmes, des programmes informatiques conçus pour filtrer, trier et recommander qui décident de ce qui apparaît sous nos yeux. Et ces algorithmes ne sont ni neutres, ni transparents.
Derrière leur apparente efficacité se cache une mécanique silencieuse : celle d’une censure algorithmique, qui ne supprime pas frontalement, mais invisibilise les idées jugées « non souhaitables ». Alors, le référencement devient une forme de contrôle doux, mais redoutablement efficace.
Le shadow-ban par exemple : une invisibilisation assumée
En juin 2024, lors d’une audition devant une commission parlementaire française, Thibaud Girod, directeur des affaires publiques de YouTube France, a reconnu que la plateforme pratique le « shadow-ban ». Cette technique consiste à limiter la visibilité de certains contenus sans les supprimer. Les vidéos concernées ne sont plus recommandées, ne remontent plus dans les moteurs de recherches et deviennent invisibles pour la majorité des utilisateurs, même si elles respectent la loi et les conditions d’utilisation de la plateforme.
YouTube n’est pas seul. Lors de la même audition devant cette commission, un représentant de X (ex-Twitter) a tenu un discours similaire. Il a confirmé que la limitation de portée est devenue une norme dans l’industrie. Des publications critiques sur des sujets sensibles comme le conflit Israël-Iran ou la crise à Gaza sont régulièrement dépriorisées, voire supprimées, sans justification claire.
L’argument de la lutte contre la désinformation
Ces pratiques alimentent les accusations de censure ciblée, où les voix dissidentes ou non alignées sur les narratifs dominants sont progressivement exclues du débat public. Des justifications floues, un cadre juridique contourné. Les plateformes justifient ces mesures par la lutte contre la désinformation, les discours de haine, ou les contenus nuisibles à la santé mentale. Mais, les experts estiment que ces critères restent vagues, subjectifs, et appliqués sans contrôle judiciaire.
Vers un effacement du pouvoir judiciaire
Dans une vidéo intitulée « Censure : le terrible aveu du patron de YouTube France », Alexandre Langlois, ancien cadre du renseignement français, dénonce une atteinte à l’article 11 de la Déclaration des Droits de l’Homme, qui garantit la liberté d’expression sauf décision d’un juge. En contournant ce cadre, les plateformes se substituent à l’autorité judiciaire. Elles décident de façon unilatérale de ce qui est “nuisible”, de ce qui a le mérite d’être entendu, lu, et promu.
Vers une uniformisation de la pensée ?
Depuis 2017, le gouvernement français collabore avec des entreprises privées comme VisiBrain, spécialisées dans la détection de « rumeurs » et d’opinions divergentes sur les réseaux sociaux. Cette surveillance algorithmique, bien que présentée comme préventive, soulève des questions sur la frontière entre modération légitime et contrôle politique.
La conséquence de cette logique algorithmique est une uniformisation de la pensée. Les contenus qui circulent sont ceux qui plaisent aux algorithmes : courts, viraux, consensuels. Les idées complexes, critiques ou minoritaires sont reléguées en marge. En parlant d’uniformisation de la pensée : une question se pose : qui est derrière les algorithmes ? L’Etat ? Les GAFAM ? Quoi qu’il en soit, pour redonner à la liberté d’expression tout son poids, il est impérieux de rééquilibrer le débat.
Quelles pistes pour rééquilibrer le débat ?
Pour préserver la liberté d’expression sans renoncer à la régulation, plusieurs solutions doivent être envisagées :
- Transparence des algorithmes : publier les critères de modération et de recommandation, comme le recommande le Digital Services Act européen ;
- Contrôle judiciaire renforcé : confier les décisions de censure à des juges, conformément aux principes de l’article 11 ;
- Souveraineté numérique : investir dans des infrastructures locales pour réduire la dépendance aux géants technologiques américains (GAFAM), comme le propose le rapport du Sénat français sur la cyber-souveraineté (mai 2025) ;
- Éducation aux médias : renforcer la capacité des citoyens à évaluer l’information, pour limiter les effets pervers de la désinformation et de la censure préventive.
Mathieu Kouamé





































