Suivre l’actualité de ce mois de novembre m’aura semblé au moins aussi intense que de regarder — sans fermer les yeux — le film de Coralie Fargeat, The Substance. J’aurai d’ailleurs mis du temps à publier une édition pourtant bien anticipée. Mais après avoir attendu le résultat des élections américaines pour décider du thème de cette nouvelle newsletter, j’étais partagé à l’idée d’écrire dès maintenant sur le sujet. Trop tôt, trop trouble, trop confus, trop de chaos à perte de vue.
D’un autre côté, je me connais : ça m’aurait été difficile de ne pas l’aborder. D’où l’idée de vous proposer d’y aller ensemble par un chemin détourné. Aujourd’hui, on va donc parler de ces mains invisibles qui agissent dans l’ombre, tantôt pour braquer notre attention, tantôt pour détourner notre regard. Alors après avoir mis les projecteurs sur les acteurs qui font et défont l’opinion, place à leurs meilleurs alliés pour la faire circuler : les algorithmes de recommandation.
Bonne lecture à vous,
Benjamin
Plumes With Attitude est une newsletter sur l’écriture sous toutes ses formes. Si vous avez envie de suivre cette publication, abonnez-vous pour recevoir les prochaines éditions. Et si vous voulez m’encourager dans la durée, vous pouvez maintenant me soutenir sur Tipeee. 🦚
🎙 INTERVIEW… Jean-Lou Fourquet
À chaque newsletter, je vous propose de découvrir le portrait et les idées de véritables plumes “With Attitude”. Aujourd’hui, j’ai le plaisir de recevoir Jean-Lou Fourquet, qui est le créateur du blog Après la bière et de la chaîne Youtube du même nom. En début d’année, il a publié La dictature des algorithmes aux éditions Tallandier, qu’il a co-écrit avec le mathématicien et vidéaste Lê Nguyên Hoang, de la chaîne Science4all. Ça fait un petit moment qu’on me demande si je vais me décider un jour à faire un sujet sur l’IA. Disons que ce n’est pas encore tout à fait le cas, mais qu’on s’en approche pas à pas.
Hello Jean-Lou et merci pour avoir répondu à l’invitation. Je suis ravi de te recevoir aujourd’hui pour rebondir sur l’un des grands sujets d’actualité de cette fin d’année. D’autant plus que La dictature des algorithmes en offre une bonne grille de lecture. Mais avant ça, j’aimerais commencer par une question rituelle que je pose souvent en début d’interview. Cela concerne le choix des mots, appliqué aux textes de mes invités. Alors dis-moi, comment avez-vous choisi le titre du livre ?
C’est un livre qui aura marqué mes premiers pas dans le monde de l’édition. Et j’ai découvert que s’il y a bien une chose sur laquelle les auteurs sont loin d’avoir la main, c’est bien le titre de leur livre. Ça m’a d’ailleurs évoqué les compromis que les créateurs de contenus doivent faire vis-à-vis des algorithmes. Ça va par exemple concerner le choix du titre et de la miniature d’une vidéo en fonction de ce qui marche sur YouTube ou non. Au fond, la logique est la même pour les éditeurs. C’est leur métier de savoir ce qui va se vendre ou non, et donc ils ont leur mot à dire sur le sujet.
Il y a eu pas mal de discussions sur les deux mots principaux du titre. L’éditeur voulait aller davantage sur l’IA, là où on était plus attachés au terme d’algorithmes de recommandation. Je reconnais que pour un titre, ça aurait sans doute été un peu long. Dans le corps du texte, on a parfois écrit “IA de recommandation” tant les technologies derrière les algorithmes en question sont sophistiquée. Mais pour le titre, s’en tenir au mot “algorithme” nous a semblé être le meilleur compromis.
Quant au choix du terme de dictature, il y a plusieurs raisons. La première, c’est par rapport à l’omnipotence et à l’hégémonie de ces algorithmes. Car ce sont eux qui dictent et dirigent le régime informationnel de tous les humains en ligne, et ce, en dehors de toute régulation démocratique. La seconde raison, c’est parce qu’ils ont cette capacité d’accentuer la polarisation au sein de nos sociétés, de faciliter la montée au pouvoir de régimes autoritaires, et ainsi de déstabiliser les démocraties.
Difficile de ne pas citer le rôle d’Elon Musk dans la réélection de Donald Trump. Ce mois-ci, Le Monde a publié une excellente vidéo sur le sujet. On y entend le chercheur David Chavalarias indiquer que, depuis le rachat de Twitter par Musk, le feed d’un utilisateur est enrichi en contenu polémique à hauteur de 50% — contre 30% l’année précédant le changement de direction. Alors même si Twitter avait déjà un problème de toxicité, celui-ci l’a largement aggravé… avec les résultats qu’on connaît.
Au cœur du développement des algorithmes des plateformes, il y a cette fameuse bataille pour notre attention. Selon toi, à quoi prête-t-on justement trop d’attention aujourd’hui dans le débat public autour des algos ? Et à l'inverse, quels sont selon toi les angles morts qu'on peut avoir tendance à minimiser ?
Il y a une expression anglophone que j’aime beaucoup : “freedom of speech is not freedom of reach” [traduction libre : “la liberté d'expression n’est pas synonyme de liberté d'amplification”]. Aujourd’hui, il y a un gros amalgame entre la définition historique d’un droit fondamental (la liberté d’expression des citoyens) et la faculté d’amplifier tous types de messages (soit le pouvoir des algorithmes et des médias). Cette absence de distinction claire entre les deux termes contribue beaucoup à la confusion croissante des débats sur les réseaux sociaux.
Enfin, il y a une banalisation flagrante des conflits d’intérêts dans la couverture médiatique autour de l’IA. Il y a un mois, la RTS (Radio Télévision Suisse) a invité Yann Le Cun, directeur scientifique de l’IA chez Meta, pour un sujet sur l’impact de ces technologies sur la société. Sans surprise, c’était évident qu’il allait nous inviter à être optimistes. Qu’il le pense sincèrement ou non, la question n’est même pas là : c’est son métier de dire ça. C’est comme demander à un cadre de l’industrie du tabac si fumer est dangereux pour la santé, ça n’a aucun sens.
Justement, un passage de ton livre qualifie les Big Tech de “nouveaux marchands de doute”. Peut-on revenir ensemble sur l’origine de cette expression ?
Cela fait référence au livre Les Marchands de Doute, publié en 2010 par les historiens Erik M. Conway et Naomi Oreskes. Leurs travaux sont notamment basés sur des mémos de l’industrie du tabac qui avaient été rendus publics. Le livre a montré que malgré une conscience en interne de la nocivité de la cigarette, une poignée d’industriels et de chercheurs ont collaboré pour entretenir le doute existant sur le sujet, et ainsi manipuler l’opinion publique à grande échelle. C’est une technique qui a été reprise par de nombreuses industries, notamment les fournisseurs d’énergie fossile vis-à-vis du réchauffement climatique.
L’une des idées principales derrière cette fabrique du doute, c’est d’exploiter la prudence scientifique qui invite à ne pas confondre corrélation et causalité. Dans les années 50, l’industrie du tabac était même allée jusqu’à s’offrir les services d’une pointure des statistiques, Ronald Fisher, pour réfuter dans des revues scientifiques les arguments qui affirmaient que fumer augmentait la probabilité d’avoir un cancer du poumon. Le pire, c’est qu’ils n’avaient pas entièrement tort à l’époque, dans le sens où il y avait moins d’études sur le sujet qu’aujourd’hui.
Le cas de la nocivité des réseaux sociaux et de leurs algorithmes est encore plus complexe à prouver que ça ne l’a été pour le tabac. D’une part, parce que les entreprises concernées sont propriétaires des données qui pourraient permettre à des chercheurs de prouver leurs responsabilités. Elles n’ont donc aucun intérêt à leur en donner l’accès. Et de l’autre, parce que ce sont ces mêmes entreprises qui financent en grande partie la recherche sur le sujet aujourd’hui.
Plusieurs scandales comme celui du licenciement de la chercheuse Timnit Gebru [par Google] suite à un papier de recherche ont pu illustrer leur volonté délibérée d’influer sur les conclusions des travaux publiés. D’ailleurs, ça m’inquiète beaucoup d’entendre un certain nombre de scientifiques parler de “panique morale” à propos de la menace de l’IA sur la société. Car c’est exactement le genre de message que les Big Tech ont intérêt à voir se répandre pendant qu’elles avancent de leur côté sur le sujet.
Depuis le rachat de Twitter par Musk et plus encore avec le retour de Trump, je me demande si le terme de “marchands de doute” va rester assez fort pour parler de cette tendance de plus en plus prononcée voire assumée du mensonge en politique.
Je reconnais aussi que le terme de “marchands de doute” peut induire en erreur. Car si ces entreprises profitent de l’idée qu’il n’y a pas de certitudes sur les conséquences néfastes de leurs produits, elles ne vendent pas non plus le doute en tant que marchandise. Reste qu’il n’y a pas que les fake news qui peuvent créer de la polarisation. Certaines opérations de déstabilisation politique sont basées sur l’amplification d’informations véridiques.
En 2019, on a eu l’exemple de RT France [Russia Today en français, interdit de diffusion dans l’Union Européenne depuis 2022] qui a apporté une nouvelle grille de lecture sur les Gilets Jaunes. Pour rappel, le mouvement était alors déconsidéré voire carrément snobé par la plupart des grands médias. RT France a fait partie des premiers à dénoncer les violences policières pendant les manifestations. Ce n’est donc pas une surprise si le média a été aussi suivi, apprécié et relayé par les Gilets Jaunes — et donc amplifié par les algorithmes des plateformes qu’ils utilisaient.
Pour le coup, on ne peut pas leur enlever qu’ils ont fait du bon travail journalistique sur ce dossier. Bien sûr, il faut garder à l’esprit les motivations derrière ce parti pris éditorial : souffler sur les braises sociales d’un pays “ennemi”. Mais ça reste un exemple qui illustre bien que tu n’as pas forcément besoin de fake news pour jouer la carte des algorithmes dans une optique de déstabilisation politique. Il suffit de marteler sur un dissensus particulièrement clivant pour activer la caisse de résonance algorithmique, et ainsi orienter le débat public dans une certaine direction.
Côté fiction, je trouve que la série La Fièvre en a été une bonne illustration cette année. J’aimerais maintenant revenir avec toi sur une autre notion de votre livre : l’idée que nos démocraties sont déjà algorithmiques. Qu’avez-vous voulu dire par là ?
D’une certaine façon, on peut considérer que les lois sont des algorithmes. En France, on est passés d’un pouvoir tiré de jugements enfouis dans la tête d’un monarque à la création de lois écrites et transparentes. L’idée que “nul n’est censé ignorer la loi” est déjà un immense progrès en soi. Le principe de transparence des lois fait qu’on peut tous s’y référer pour adapter notre comportement en fonction de ces dernières.
Au-delà de la transparence, on peut également décider ensemble de l’évolution des lois. En soi, le principe de la démocratie, c’est de choisir ensemble les algorithmes législatifs qui fixent les règles communes. Ce n’est pas du tout le cas des algorithmes de recommandation, alors qu’ils ont un impact énorme sur nos sociétés. C’est pour ça qu’un pouvoir aussi grand que celui qu’a Elon Musk sur l’information — qu’il peut choisir seul d’amplifier à l’échelle des États-Unis et du monde — est en soi un déni démocratique monumental.
Dans le livre, on fait une analogie en disant que les algorithmes de recommandation sont à nos sociétés ce que les biais cognitifs sont à l'être humain. Ces derniers fonctionnent comme des raccourcis de la pensée qui nous permettent de sélectionner la “bonne” information, c’est-à-dire celle qui optimise nos chances de survie. Et comme les algorithmes actuels génèrent plus de chaos qu’autre chose, c’est un peu comme si on avait des biais cognitifs qui nous incitent à nous couper les bras face au danger. Alors à mes yeux, l’humanité a besoin d’autres algorithmes pour résoudre les enjeux du XXIème siècle auxquels elle est déjà confrontée.
L’influence des Big Tech sur notre quotidien est si forte aujourd’hui que ça peut sembler un lieu commun de dire que “c’est de la faute des algorithmes”. Cette année en France, j’ai même plutôt eu l’impression que ça a davantage été Vincent Bolloré et ses médias qui ont été pointés du doigt sur le sujet de la déstabilisation politique. Dirais-tu qu’il y a une banalisation des problèmes liés aux algorithmes ?
De façon cynique, on pourrait presque se réjouir que Bolloré et les autres milliardaires français ne sont “pas assez riches” pour racheter une plateforme comme Twitter (rires). Bien sûr, ça va sans dire que c’est déjà un pouvoir énorme de posséder tout un éventail de grands médias. Mais c’est encore d’un autre niveau de racheter un réseau social d’envergure mondiale — et ses algorithmes de recommandation.
D’autant plus que la fabrique de l’information fonctionne grosso modo comme une boucle de rétroaction entre grands médias et réseaux sociaux. C’est devenu monnaie courante de voir des médias et politiques tester certains angles et idées sur les réseaux sociaux pour voir ce qui résonne ou non. Si ça marche sur Twitter, alors on va écrire dessus ou en parler en plateau… et ça repart de plus belle sur la plateforme.
Dans ma première interview de 2024, on était justement revenus avec Vincent Edin [cf. PWA #77] sur les nombreuses victoires culturelles et sémantiques remportées par l’extrême-droite. Je pense à la montée de termes comme “wokisme”, “grand remplacement” ou plus récemment “droit-de-l'hommisme” dans le débat public, alors qu’ils étaient auparavant cantonnés à des commentaires sur des vidéos de créateurs plus ou moins obscurs. Sauf qu’à force d’avoir été martelés dans un certain nombre de grands médias, ils font aujourd’hui partie du langage courant.
Oui, c’est la conséquence de ce qu’on appelle des chambres d’échos. Les grands médias comme les réseaux sociaux ont ce fameux pouvoir d’amplification dont on parlait plus tôt. C’est pour cette raison qu’on ne peut pas non plus dire que tout est de la faute des algorithmes. Car s’ils sont vecteurs de polarisation, c’est avant tout en jetant de l’huile sur un feu déjà existant. Mais c’est sûr que ce sont des leviers qui vont accélérer certains discours clivants — et inversement, en invisibiliser d’autres.
Enfin, je dirais que le problème majeur n’est pas tant la banalisation de l’influence des algorithmes que l’inaction qui en découle. Je fais souvent le parallèle avec le changement climatique qui, pour beaucoup de gens, n’est pas vraiment une menace tangible. Sans en avoir subi directement les conséquences dans sa chair (comme à Valence ce mois-ci), on ne va développer qu’un rapport distant au sujet. Même chez des personnes sensibilisées, ça peut tout à fait être une inquiétude rationnelle et conscientisée… mais qui reste désincarnée.
Quant aux menaces que font porter les algorithmes de recommandation sur nos démocraties, c’est encore plus difficilement appréhendable et tangible. Tu arrives encore moins à faire le lien entre une technologie qui t’a fait découvrir telle série sur Netflix et le recul des droits humains dans un pays qui n’est pas le tien. Alors pour le changement climatique comme pour la démocratie, il y a tout un travail à faire pour rendre charnelles pour tous et toutes des inquiétudes qui n’existent encore parfois aujourd’hui que sur le papier.
La troisième partie de La dictature des algorithmes est consacrée à l’action face à l'abîme devant nous. Ça m’a évoqué le livre d’un autre invité reçu l’an dernier, Olivier Lefebvre [cf. PWA #68], Lettre aux ingénieurs qui doutent. Celui-ci avançait l’idée qu’exprimer un doute vis-à-vis du non-sens écologique de son métier (voire de son mode de vie au global) est aujourd’hui souvent accepté comme “suffisant” sur le plan moral et éthique — au détriment de l’action. Plus concrètement, douter peut avoir cet écueil d’être plus un frein qu’autre chose face à l’éventualité d’une bifurcation vers un métier plus en accord avec nos convictions. Dans ton livre, tu as écrit tout un chapitre sur la naïveté et le cynisme. Peut-on revenir ensemble sur ces deux postures vis-à-vis du changement ?
D’un côté, avoir trop de doute peut empêcher l’action. De l’autre, ne pas en avoir assez est souvent synonyme de mauvaises décisions. Il y a donc un juste milieu à trouver entre ce qu’on a appelé la naïveté dogmatique et le cynisme pseudo-éclairé. Ce sont deux travers dans lesquels on peut facilement tomber en fonction de notre propre rapport au doute. À savoir que je viens de tourner une vidéo [depuis publiée] sur le sujet avec Maxime Lambrecht, de la chaîne de vulgarisation Philoxime.
La naïveté dogmatique, c’est en quelque sorte un syllogisme de politicien. Ça consiste à “faire quelque chose pour faire quelque chose”, souvent en faisant abstraction de l’impact réel ou des conséquences à long terme de cette action. C’est la fameuse métaphore du colibri rendue célèbre par Pierre Rabhi. Or, c’est bien de faire sa part dans son coin, mais ça ne va pas être suffisant face à l’ampleur de la situation.
Le cynisme pseudo-éclairé, c’est tout l’inverse. Ça revient à se contenter de dire que le problème est trop complexe ou systémique, et donc qu’on ne peut rien faire — comme si on n’était qu’un neurone dans un cerveau en pleine crise d’épilepsie. Sauf qu’au bout du compte, ça fait peu de différences avec l’inaction volontaire de personnes qui sont dans le déni et dont la pensée pourrait se résumer par “après moi le déluge”.
Entre ces deux extrêmes, la posture qui me semble plus intéressante est inspirée d’une notion du biologiste Stuart Kauffman : la théorie des adjacents possibles. En résumé, ça veut dire que chaque nouvelle mutation chez un être vivant ouvre le champ des possibles pour celles qui adviendront par la suite. J’aime cette idée que toute action s’inscrit dans un écosystème de décisions, et que ce qu’on choisit de faire aujourd’hui aura une influence sur ce que d’autres seront en capacité de faire demain.
À mon échelle, je travaille sur un autre projet avec mon co-auteur Lê. Il s’agit d’une plateforme open source qui s’appelle Tournesol et qui repose sur des algorithmes de recommandation à la gouvernance transparente et démocratique. Aujourd’hui, c’est un projet de recherche qui avance à son rythme, sans avoir la prétention de pouvoir remplacer les algorithmes de recommandation des Big Tech. Reste que ça me semble être une expérience alternative digne d’intérêt pour toute personne qui souhaiterait à l’avenir creuser le sujet.
C’est d’ailleurs arrivé par le passé que des plateformes plus niches finissent par s’imposer dans un contexte bien spécifique. Je pense en particulier à Polis, un outil d’intelligence collective qui a joué un rôle central dans les consultations citoyennes à Taïwan qui ont fait suite au Mouvement Tournesol en 2014. C’est à mes yeux une belle illustration de l’émergence d’un nouvel adjacent possible.
Dirais-tu qu’il y a des bons élèves chez les Big Tech dans le développement de leurs algorithmes de recommandation ?
Je vois plutôt des mauvais élèves qui se copient les uns sur les autres. En même temps, c’est dans l’intérêt de leurs modèles économiques de faire ça. Ces dernières années, ça a surtout été des imitations des stratégies phares de TikTok, qui a réussi à s’imposer en prenant quelque part le contrepied de toute l’industrie. Gardons en tête que c’est une plateforme dont le succès est intimement lié à la construction de ses algorithmes.
Historiquement, les recommandations algorithmiques avaient toujours pris en compte les choix que tu faisais par toi-même : être ami avec quelqu’un sur Facebook, suivre une chaîne sur YouTube, etc. Même si tu n’avais aucune interaction avec l’utilisateur ou les contenus en question, ça avait toujours compté dans l’équation vis-à-vis de ce que les plateformes allaient te recommander. Du moins, jusqu’à TikTok.
Ce qu’ils ont compris mieux que tout le monde, j’aime bien l’illustrer par un sondage. En 2011, une enquête TNS Sofres disait qu’Arte était la chaîne préférée des Français. Sauf que sa part d’audience sur cette décennie, ça a été entre 1,5% et 2,5% [source]. Là où TikTok a vu juste, c’est qu’entre l’idée que tu te fais de ce que tu aimerais regarder et le contenu que tu regardes vraiment, il y a souvent tout un monde. Et ce que l’algorithme de TikTok te recommande par défaut, c’est uniquement ce qui te fera rester sur la plateforme. Depuis, tout le monde s’y est mis.
Elle est aussi là cette dictature des algorithmes. Car ils ne se donnent même plus la peine de respecter nos choix et notre consentement. Ce sont aujourd’hui les personnes derrière le développement de ces technologies qui règnent en maître et s’accaparent un pouvoir de décision qu’on leur a abandonné par commodité. Dans un écosystème aussi dérégulé, tu ne peux pas avoir de vrais bons élèves. Et pour cause : ces entreprises ont tellement d’incitations à aller vite et à maximiser leurs revenus qu’elles ne peuvent pas prendre le temps de penser aux conséquences à long terme de leurs décisions. Celles qui le feraient seraient de facto mis hors concurrence.
Difficile de ne pas penser à la célèbre devise “Move fast and break things” des débuts de Facebook. Pour finir, je ne pourrais pas conclure cette interview sans aborder le sujet de l’IA. Tu disais plus tôt que dans le livre, vous aviez utilisé les termes d’IA et d’algorithmes comme des synonymes en ce qui concerne la recommandation. Pour autant, dirais-tu que les menaces que l’IA fait peser sur notre société sont les mêmes ? Ou y a-t-il selon toi un niveau de danger supplémentaire ?
Il y a une présomption de conformité envers toutes les innovations du secteur de la tech que je trouve très perturbante. À côté d’industries très surveillées comme les transports ou le pharmaceutique, la tech bénéficie d’une politique de laisser-faire très généreuse. Ce que m’évoque la dernière vague d’IA génératives lancée par OpenAI et son célèbre ChatGPT, c’est avant tout la plus grande expérience sociologique sauvage jamais entreprise à échelle planétaire.
Je trouve ça juste fou de laisser l’humanité interagir avec une technologie qui donne l’impression de maîtriser une faculté distinctive de notre espèce, le langage, avec pour seul mot d’ordre : “on verra bien ce que ça donne”. De toute évidence, ça ne va rien arranger aux nombreux problèmes liés aux fake news, au harcèlement en ligne, à la cybercriminalité, et j’en passe. Autant dire que c’est un pari que je trouve très risqué — et qui, une fois de plus, n’aura été décidé que par une poignée d’individus.
Reste que le sujet de la menace de l’IA ne doit pas occulter l’urgence de réguler les algorithmes de recommandation. Bien sûr, ça va sans dire que des outils génératifs comme ChatGPT ne vont faire que faciliter et accélérer la production de fake news et autres contenus orientés utilisés à des fins de déstabilisation politique. Mais on n’en est plus à se demander à quel point le lac est pollué. Pour moi, le véritable enjeu c’est d’éviter que la population ne boive de cette eau. Or, qui est garant du barrage informationnel aujourd’hui ? Ce sont les algorithmes de recommandation.
Car ce sont ces mêmes technologies qui font office de filtre pour que de nombreux contenus n’arrivent pas jusqu’à nous. L’enjeu de la modération algorithmique va donc être plus important que jamais. Que les fake news soient d’origine humaine ou générées par IA ne change pas fondamentalement notre problème. Le risque, c’est qu’elles se révèlent meilleures que nous pour créer du contenu capable de passer entre les mailles du filet — et donc de surpasser les technologies de filtre existantes. Car ne l’oublions pas : ce sont les algorithmes qui décident de ce qu’on voit en ligne… mais aussi de ce qu’on ne voit pas.
Et je te propose de conclure sur ça. J’aurais pu continuer cette conversation encore longtemps tant j’ai de questions liées à tous ces sujets. Alors un grand merci à toi Jean-Lou et je te dis à bientôt !
4 interviews de PWA sur des sujets voisins :
PWA #72 avec Albin Wagener : sur la perte de sens des mots
PWA #45 avec Fadeke Adegbuyi : sur les cultures Internet
PWA #35 avec Sari Azout : sur la curation humaine en ligne
PWA #27 avec Tristan Mendès France : sur le conspirationnisme
🔮 GRAND BAZAR… Dans le radar
Livre audio en cours : What’s our problem, de Tim Urban (Wait But Why).
Un Shifter sachant shifter : Après un mois de novembre marqué par une actu des plus sombres, je suis tombé sur un concours d’écriture qui a de quoi redonner des couleurs à la fin d’année. Votre mission si vous l’acceptez : écrire un sketch du premier spectacle de stand-up de… Jean-Marc Jancovici. C’est organisé par le collectif Bonne Vie et il y a du beau monde dans le jury. Si ça vous dit, vous avez jusqu’au 13 décembre.
Être ou ne pas être… sur Bluesky ? Un an et quelques après avoir déserté Twitter et seulement quelques mois après de modestes débuts sur Insta, telle est la nouvelle question qui se pose à moi. Si c’est aussi votre cas, Maël Thomas a écrit un bon papier sur le blog Bon Pote [cf. PWA #61] pour vous aider à vous décider. En ce qui me concerne, vous aurez peut-être le verdict dans la prochaine newsletter.
4ème pouvoir : C’est le nom de mon émission préférée sur Blast — ce qui n’est pas peu dire vu la qualité des programmes — en partenariat avec l’association Acrimed. Leur dernière vidéo [durée : 59 min] apporte une lecture critique de quarante ans de journalisme économique du côté des grands médias. Avec au cœur du propos une question qu’on devrait se poser plus souvent : comment en sommes-nous arrivés là ?
🗣 MEANWHILE… L’actu des plumes
Et vous, ils ressemblent à quoi vos projets du moment ? Écrivez-moi pour m’en parler et apparaître dans la prochaine édition : benjamin.perrin.pro[a]gmail.com
Jennifer a publié un livre de recettes qui retrace l’histoire des bouillons.
Pag propose une belle collection de puzzles pour les fêtes de Noël.
Renée a choisi un titre génial pour sa newsletter : Chaussettes de soirée.
Clémentine a publié son premier livre de poésie.
Aurore m’a partagé son site entre imaginaire et fantasy.
Flore a lancé un magazine en ligne sur l’analyse de mots.
Alexandre nous initie à adopter l’écriture sensorielle.
Sixtine a invité un sociologue pour son prochain dîner-débat à Paris.
DERNIÈRE CHOSE…
Refermons cette édition avec un sujet qui sent le sapin… ou peut-être pas assez ? Car je tiens pour sûr mon fail de l’année : les chaussettes PWA proposées en contreparties de dons récurrents ou ponctuels ne seront finalement pas livrées avant Noël. Oupsie.
La bonne nouvelle, c’est qu’elles arrivent courant janvier. De quoi commencer l’année du bon pied ! Je vous préviens au passage que je risque de réutiliser dans les prochaines éditions cette métaphore quelque peu surannée. 🙉
Mais trêve de plaisanterie, je vous donne rendez-vous sur Tipeee pour me soutenir, réserver votre paire en série limitée, et découvrir toujours plus de jeux de mots autour des oiseaux. Vos dons m’aident à faire vivoter le média, à couvrir quelques frais, ainsi qu’à me donner plus de moyens et d’énergie pour porter le projet dans la durée.
Je vous dis à bientôt pour la dernière interview de l’année et surtout…
May the words be with you,
Benjamin
Plumes With Attitude est une newsletter indépendante sur l'écriture au sens large, entre interviews de plumes de tous horizons et curation de haut vol. Si vous avez aimé cette lecture, n’hésitez pas à la partager autour de vous ou à me dire ce que vous en avez pensé par e-mail → benjamin.perrin.pro[a]gmail.com
Merci !
PS : Encore une super interview, j'ai beau suivre le sujet de près j'ai appris des choses !
PPS : Le nom "chaussettes de soirée" est littéralement apparu dans ma tête...