L’avenir du marketing de contenu devrait se lire ainsi : aux IA les corvées, à l’humain la pensée. Mais pas pour les raisons habituellement avancées. Dans ce texte qui sera diffusé en même temps que ma prise de parole au Com en or Congress de Lille, le 20 mars à 14 h, je démystifie plusieurs points de vue qui paraissent évidents et pourtant ne le sont pas. Premièrement, les IA génératives peuvent être créatives et le sont même souvent, deuxièmement les IA ne nous rendent pas forcément idiots, nous n’avons pas besoin d’elles pour cela, et troisièmement, devenir un Dieu du prompting n’est pas forcément le sésame pour produire un bon contenu. La question de la place de l’IA est en fait plus stratégique que technique en marketing de contenu : pourquoi et pour qui créer du contenu, quel impact sur la qualité, le référencement ou la place de l’humain ? Autant d’interrogations majeures pour les marketeurs d’aujourd’hui et de demain. Dans cette présentation j’enjoins le lecteur à ne pas sous-traiter ses raisonnements et à laisser aux IA les corvées des tâches sans valeur ajoutée, qu’elles ne traitent malheureusement pas toujours bien.
Aux IA les corvées, aux humains les pensées
Légende : Depuis que les machines se sont mises à penser, nous avons plus de temps pour descendre les poubelles, mais comme Joanna Macieojewska, je pense que c’est l’inverse qui est désirable.
TLPT (Trop Long Pas le Temps)
Marie-Louise Bernard est un avatar d’agence SEO qui fait des liens sur Visionary Marketing. Son « travail » soulève quelques questions de fond que nous abordons ici. Les critiques qui sont faites à l’IA sont souvent à côté de la plaque et occultent les questions de fond : pourquoi on écrit, pour qui, dans quel but … ?Nous démontons aussi quelques mythes : les IA peuvent être créatives, les IA ne nous rendent pas forcément idiots et maîtriser le prompting n’est pas forcément la solution à tous les problèmes.Ce qui fait que la question de la place de l’IA est en fait plus stratégique que technique en marketing de contenuDans cette présentation j’enjoins le lecteur à ne pas sous-traiter ses raisonnements et à laisser aux IA les corvées.Marie-Louise Bernard, reine de l’IA et du e-commerce
Laissez-moi vous présenter Marie-Louise Bernard. Cette jolie jeune femme, quelque peu artificielle dans son apparence, n’existe que dans les archives de Midjourney et du site Web de « son » agence SEO. Cette supposée experte en e-commerce s’est retrouvée au cœur d’une confusion sémantique aussi amusante qu’instructive.
En s’inspirant d’un de mes articles, cette géniale autrice a confondu « boule à neige » et effet « boule de neige ». L’honneur est sauf, car un lien a été placé vers Visionary Marketing. Cette anecdote, loin d’être anodine, soulève quelques questions de fond. Qui écrit ? Pour qui ? Comment ? Et dans quel but ? En fait, cela pose même des questions encore plus fondamentales comme : « quelle est la place des humains dans la société, et quelle société désirons-nous demain » ?
L’overdose de contenus IA
Les contenus sur l’IA générative sont tellement omniprésents que l’on frise l’overdose. Leurs auteurs s’affrontent à coup de tweets (X ?) et de billets LinkedIn principalement sur le plan de la technique (telle IA est plus capable que telle autre), de la créativité (elles sont capables d’inventer ou non des choses intéressantes, le style des IA est banal et inférieur à l’humain…), et de l’utilisation (téléchargez mon guide ultime du prompting !). Mais tous ces débats (et hélas d’autres, moins présents comme celui de la consommation d’énergie, mal documenté) passent à côté d’autres questions fondamentales : pour qui créons-nous, pourquoi et pour qui travaillons-nous, ou plus largement et plus exactement, quelle forme de société voulons-nous pour le futur ?
Les IA génératives au cœur des questionnements du monde
L’IA et en particulier l’IA générative occupe l’essentiel du bruit sur les médias sociaux, les blogs, les newsletters et les discussions autour de la machine à café, ceci même si l’économie classique semble ignorer plus ou moins ce phénomène ou le traiter comme accessoire — une vieille habitude par rapport aux innovations digitales.
La question de savoir ce que nous devons où pouvons faire avec l’intelligence artificielle générative est au centre des questionnements de nos sociétés contemporaines et cela est compréhensible. Si les machines sont capables de jouer avec du texte depuis les années 50, jamais les capacités de traitement alliées à un entraînement hors pair sur un corpus de données aussi large – et quoi qu’on en dise aussi bon – n’ont été aussi puissantes. Depuis quelques semaines, des ingénieurs ont même démontré à Londres comment des IA pouvaient converser ensemble. Même s’il ne s’agit que d’une démo, on sait depuis le début des années 2000 que des machines sont capables d’acheter et de vendre des actions (environ 60 à 75% du trading total sur les marchés les plus développés, et ce depuis au moinsn 2006 où je travaillais dans ce domaine) alors pourquoi une IA dite agentive n’achèterait-elle pas des billets de train ?
D’où ces légitimes interrogations.
Une machine capable d’écrire « comme » les humains ?
Le fait qu’un programme, une « machine » informatique où machine* est pris dans son sens littéral, soit capable d’écrire comme les humains, ou presque, est perturbant.
*[Machine] Objet fabriqué complexe capable de transformer une forme d’énergie en une autre et/ou d’utiliser cette transformation pour produire un effet donné, pour agir directement sur l’objet de travail afin de le modifier selon un but fixé. Synon. engin, mécanique, mécanisme
Mais ce qui est encore plus perturbant est que les humains écrivent souvent plus mal que les machines. C’est ce que décrit Loubna Ben Allal, chercheuse chez Huggingface et experte en entraînement des IA génératives, dans une vidéo de la chaîne underscore, dont le contenu vaut mieux que le titre.
Elle y explique le filtrage des contenus par les séquences d’entraînement et surprise, surprise, elle avance que les bons contenus synthétiques sont souvent meilleurs que les mauvais contenus humains. Hélas, ces derniers sont aussi nombreux que les mauvaises herbes.
À noter qu’il est aussi des textes, écrits à 100% par des IA, qui essaient de vous prouver que Loubna a raison.
Un texte destiné à nous convaincre que séparer le bon grain de l’ivraie en création de contenus est un faux problème. Hélas, il a été écrit par un LLM
Le langage, un système d’exploitation ?!
Si ces textes synthétiques sont si perturbants, c’est que le langage et l’écriture sont en effet une des caractéristiques fondamentales de l’espèce humaine.
In the beginning was the word. Language is the operating system of human culture
Yuva Harari — NYT mars 2023
Yuval Harari, dans un exercice d’anthropomorphisme inversé qui plairait bien à Louis de Diesbach parle même de « système d’exploitation de l’espèce humaine ». Malgré cette inversion, Harari a mis le doigt sur le véritable point de discussion.
Le sujet de fond n’est pas technique, mais éminemment philosophique, d’autant plus quand les outils d’IA générative les plus célèbres sont dirigés par un électron libre qui cherche par tous les moyens à nous mettre dans un film de Spike Jonze. En fin de compte, la philosophie pourrait ou devrait redéfinir la façon dont les IA sont entraînées expliquent Michael Schrage et David Kiron de MIT Sloan Management Review.
L’IA est la 4e blessure de l’humanité
Le véritable problème avec les outils dits « génératifs »
Le véritable problème avec ces outils génératifs n’est lié ni à la technique, ni à la créativité, ni même à la qualité de l’utilisation de l’outil. Celui-ci est plus fondamental, il est lié à l’essence même du travail et au-delà, des sociétés humaines. Quels que soient les lacunes des humains et leurs imperfections, ô combien nombreuses.
Et ce dernier point est d’autant plus fondamental que l’on évoque aujourd’hui la sortie de nouveaux outils comme Manus, qui promettent une intelligence encore plus autonome, capable d’« agentivité », une voie qui semble un but pour beaucoup des créateurs de ces « mécanismes ».
Les IA génératives vont disparaître ? Ah bon…
Il ne sert à rien de minimiser l’IA générative, comme je l’ai vu ici, en prédisant leur disparition (on ne fait pas disparaître des outils dont le monde entier s’est emparé, même s’ils sont imparfaits et lacunaires), ni de maximiser ses possibilités (avant tout, il y a trop d’outils et d’usages possibles).
Nier le caractère étonnant de ces outils serait superflu, même Daniel Andler et Hervé Le Tellier, titulaire d’un prix Goncourt, ont abandonné cette idée.
Inutile aussi de crier au « perroquet stochastique », si ces IAs fonctionnaient ainsi il y a quelques années, ce n’est plus le cas aujourd’hui. Des garde-fous existent, les pièges les plus grossiers (comme demander à ChatGPT de démontrer que la terre est plate) comme on le lit dans certains articles mal documentés, n’existent plus, et l’hybridation de ces LLM et autres outils génératifs avec l’informatique classique est une question de temps et probablement une formalité. Quiconque a suivi le développement de l’IT et du Web pendant 40 ans sait que l’innovation prend du temps. Il suffit d’attendre.
Ainsi, même si les résultats que nous obtenons aujourd’hui sont encore souvent décevants, lacunaires, voire carrément erronés, les modèles de 2025 hallucinent beaucoup moins, à condition de payer et de bien choisir son modèle.
D’ailleurs, vérifiez vous-même avec Perplexity.ai qui vous répondra sur ce sujet en vous fournissant des liens (parfois à côté de la plaque, il vous faudra encore trier et vérifier).
En résumé, il y a eu 4 avancées en 2024-2025 dans ce champ :
La réduction des taux d’erreurs factuelles de 1 à 3% avec l’introduction de techniques comme le Retrieval-Augmented Generation (RAG) en s’appuyant sur des documents préexistants. Améliorations des modèles : OpenAI, avec son modèle GPT-4.5 et les autres (je recommande Claude.ai en particulier).Les méthodes innovantes comme le « deep research » ou le « chain of thought », souvent imparfaits et trop lents, mais donnez-leur du temps, ils vont s’améliorer. Contrôles et ajustements : Des outils comme “Automated Reasoning Checks” introduits par AWS ont été conçus pour détecter et corriger les hallucinations avant leur utilisation en production.Toutefois, les hallucinations restent nombreuses et ne sont pas près de disparaître. Encore une fois, il faudra du temps afin de mettre en place des mécanismes de contrôle rétroactifs. Les chaînes de pensée en sont un exemple, bien maladroit, mais qui donne une idée de ce qu’il est possible de faire.
Ceci étant dit, et même si je ne parle pas d’AGI (voir le billet suivant), l’IA générative remet en cause la place de l’humain dans la société, car elle challenge nos capacités et nos compétences.
Trois voies d’approfondissement
En fait, il y a trois directions dans lesquelles, il faut chercher. D’une part, notre capacité à être véritablement créatifs. D’autre part, l’impact de l’IA sur nos propres caractéristiques cognitives et intellectuelles et enfin le sujet de l’utilisation.
1. Commençons par la créativité
Non seulement ces dispositifs d’IA générative posent la question de savoir s’ils sont « créatifs », mais ils posent aussi et surtout la question de savoir si nous, en tant qu’humains, le sommes autant qu’eux.
La réponse ne va pas de soi, même si cela va vous choquer. La question, par exemple, de savoir si les textes qui sont produits par les IA génératives sont bons ou mauvais n’occulte pas celle qui est de savoir si les textes qui sont produits par les humains le sont aussi. Et c’est cela qui est perturbant. Nous l’avons évoqué ci-dessus, Loubna Ben Allal remet le postulat « humain = bon, synthétique = mauvais » en question.
Il en est de même pour la créativité. Alan Turing, dans son article de 1950 Computing Machinery and Intelligence, a déjà réfuté un certain nombre d’objections à l’idée qu’une machine puisse être innovante. Et parmi ces objections, il y en avait une qui disait : « Une machine ne peut pas créer ».
La créativité est aussi et surtout une question de combinaisons, décombinaisons, recombinaisons. On assemble, on déconstruit, on reconstruit. Et finalement, même les artistes ne sont pas forcément très « créatifs », en ce sens que ce qu’ils produisent n’est pas toujours nouveau et recourt bien souvent à l’autocitation. Tinguely et ses machines absurdes, Monet et ses vues de Rouen et ses variations infinies sur les nénuphars, Soulage avec ses tableaux noirs, Rothco et son célèbre rouge. Les séries font partie de l’Art et en sont un des principaux mécanismes « créatifs ».
Jonathan Gibbs dans Randall, décrit les Young British Artists comme capables, comme tous les artistes, d’avoir au maximum quatre idées originales dans toute leur carrière, celles pour lesquelles on les gardera en mémoire.
‘The way it works is that you’re only going to be remembered for four things.’
Gibbs, Jonathan. Randall or The Painted Grape
Et ce n’est pas faux. Si les artistes sont spécialisés dans la reproduction de leurs propres idées c’est aussi et surtout ce que recherchent les humains. C’est pour cela par exemple que la musique répétitive aujourd’hui, renommée néoclassique (Max Richter, Nils Frahm, Nicklas Paschburg, GrandBrothers…), a autant de succès. Elle est la répétition souvent à l’infini de modèles sonores qui sont relativement semblables. Et je ne parlerai même pas de la musique populaire, bien plus caricaturale.
Cette question de la créativité des machines par rapport aux humains n’est donc pas triviale.
2. Les IA nous rendent-elles idiots ?
Ensuite, il y a la question de savoir si l’on devient idiot à force d’utiliser des machines qui pensent. Cette question fait aussi l’écho à ce qui était écrit, il y a quelques années par Nicholas Carr dans The Atlantic sous le titre : « Is Google Making Us Stupid? »
Dans ce billet, il argumentait que, bien que lui n’ait pas été élevé à l’âge de l’informatique et qu’il ait appris à lire normalement dans des livres, il s’était pris au jeu d’utiliser les moteurs de recherche et que ceux-ci finalement le rendaient fainéant en encourageant le moindre effort au lieu de compulser des documents pendant des heures avant de se forger une opinion.
Avec les IA génératives, on se situe un cran plus loin. Prenons l’exemple de Perplexity.ai. Au lieu d’utiliser les moteurs de recherche, on lui pose une question et c’est la machine qui va alors chercher elle-même les réponses et proposera des liens. Ceux-ci ne sont pas toujours bons, mais dans l’ensemble ils ne sont pas si mauvais que cela non plus. Ce n’est en effet pas moins efficace que de compulser des pages de résultats plus ou moins pertinents dont on ne connaît pas, ou mal, la provenance, et dont un bon paquet a été rédigé par des « experts SEO » pour tromper les moteurs de recherche (voir ce billet).
Il y a quelques années, ils les créaient à la main, souvent dans des pays à bas coûts, et aujourd’hui, quasi intégralement avec des LLMs (on estime à peu près à 19 % des 20 premiers résultats de Google qui sont générés par ces IA).
D’aucuns voient les IA génératives disparaîtres, leurs voisins nous remplacer. Où va s’arrêter ce délire
Cette question de savoir si l’IA générative nous rend stupides, est en fait une question un peu spécieuse, comme cela l’était un peu de Google sans doute. Par contre, ce qui est certain, c’est qu’elle peut nous rendre fainéants (là encore, comme Google, surtout depuis leur travail sur la position zéro).
À force d’obtenir directement les réponses à nos questions, on perd l’habitude d’aller les chercher et surtout on perd l’esprit critique. Mais la question n’est pas si simple que cela.
Ainsi, de là à déduire que les IA sont seules responsables de l’abêtissement du monde, et à supposer qu’un tel abêtissement soit avéré, il y a un pas que nous ne pouvons franchir. La paresse intellectuelle et le manque d’esprit critique ne datent pas d’aujourd’hui et pour vous en rendre compte nous vous convions à éplucher une à une les vidéos d’Alexis Bellas et ses compères de « l’esprit critique ». Celles-ci n’ont pas grand-chose à voir avec l’IA générative et c’est volontaire.
3. Les as du prompting
Troisième axe de recherche, la qualité d’utilisation de l’outil.
En fait, il y a un effet de biais par rapport à l’utilisation de ces outils où on pourrait croire que nous sommes tous devenus des pros du prompt. Ce n’est pas ce que j’observe sur le terrain.
Pour commencer, nous avons une dette informatique énorme par rapport à l’utilisation du numérique. Comment voulez-vous que tous les gens qui ont du mal à retenir un mot de passe ou signer un formulaire PDF puissent être capables demain matin d’utiliser l’IA générative de manière éclairée ?
J’observe beaucoup trop de copier-coller au premier degré. En outre, peu sont capables, je le remarque dans les formations que j’organise, de prendre le recul nécessaire à la valorisation du contenu produit par ces algorithmes. Même en les poussant à le faire.
Je le déplore, mais c’est ainsi, et c’est pour cela que Steve Yegge a raison, l’IA générative ne permettra pas aux médiocres de devenir bons, mais aux experts de se passer des médiocres. Débuter ne sera pas aisé dans les années qui viennent.
Par ailleurs, ce paysage de l’intelligence artificielle générative est tellement mouvant que même les experts finissent par en perdre leur latin et ne plus savoir quel est le modèle le plus efficace. Tous les jours ou presque, une annonce fracassante vient faire oublier celle de la veille.
Et les « experts » d’y aller de leurs analyses et prédictions. D’aucuns prévoient la disparition des IA génératives, ce qui est probablement stupide et d’autres prévoient au contraire qu’elles vont conquérir le monde instantanément ce qui est tout aussi stupide.
Légende : la courbe de digestion des technologies est un prisme intéressant pour comprendre les exagérations des uns et des autres. Un classique dans l’histoire des innovations technologiques.
La réalité du terrain c’est que nous sommes dans une courbe d’apprentissage et cette courbe d’apprentissage n’est finalement pas très différente de ce qu’on a connu avec d’autres systèmes numériques par le passé.
Légende : Kathy Sierra a en son temps développé la courbe de la « fonctionnalitite » qui était très bien vue.
Au fur et à mesure qu’un système se complexifie, a démontré Kathy Sierra, on finit par perdre les pédales et un utilisateur qui se sentait complètement en maîtrise de l’outil, finit par perdre cette maîtrise et à régresser de manière conséquente.
Assez récemment, Maurizio Bisogni a décrit la fluctuation de ce niveau de connaissances dans ChatGPT, par rapport au temps et à ce qu’il appelle l’effet Dunning Kruger, qui est un phénomène psychologique, décrit par les psychologues David Dunning et Justin Kruger en 1999, dans leur publication scientifique : « Nous n’avons pas les compétences et nous ne le savons pas : comment les difficultés d’accepter sa propre incompétence peuvent amener à surévaluer ses capacités ».
Ce phénomène montre que nous avons tendance à surévaluer nos capacités alors que nous disposons de trop peu d’informations. Un avertissement que l’on pourrait diriger vers beaucoup des analystes qui polluent nos « timelines » sur ce sujet.
À l’inverse, les personnes qui sont les plus expertes ont tendance à sous-estimer leurs compétences. C’est quelque chose que l’on connaît également sous le terme du « syndrome de l’imposteur ». Peut-être que je fais moi-même partie de cette dernière catégorie, car je déteste le terme d’expert, et bien que je pratique le marketing digital depuis plus de 30 ans, que j’aie commencé ma carrière dans l’intelligence artificielle, il y a près de 40 ans et que je documente ces sujets depuis des dizaines d’années, je considère que je ne sais pas grand-chose. Cela me paraît un réflexe naturel et nécessaire, car cet environnement est trop mouvant et trop complexe pour se vanter d’une quelconque compréhension totale du sujet.
Or je vois trop d’experts, dont certains sont même à l’origine de certaines de ces découvertes, comme Jeffrey Hinton, un des découvreurs des réseaux de neurones et détenteur d’un prix Nobel, qui ne comprennent rien à l’intelligence générative pourtant basée sur ces mêmes réseaux de neurones. Hinton, dans une vidéo de la BBC regarde ChatGPT et en conclut que ces machines peuvent se reprogrammer elles-mêmes. À terme, ce n’est sans doute pas faux. Mais ce n’est pas encore le cas. On en est même bien loin, j’y reviendrai. Il faut donc une certaine humilité par rapport à ces sujets.
J’écris cela non pour minimiser les immenses talents du grand scientifique anglo-canadien, mais plutôt pour vous démontrer à quel point ces disciplines sont cloisonnées et que l’on ne peut prétendre tout savoir. Alors, les blabla des influenceurs de LinkedIn…
Avec tout le respect dû à l’excellence des réalisations de Hinton dans le domaine de l’apprentissage automatique, il fait preuve d’une ignorance presque enfantine en prétendant que les réseaux neuronaux sont capables d’éprouver des sentiments. […] Les sentiments sont si complexes, ils sont un pont entre pensée et volonté, un passage vers la compréhension entre les gens et le monde. En affirmant que la machine peut éprouver des sentiments, Hinton montre qu’il ne comprend pas ce qu’il a construit.
Robert M. Burnside – Robo Robert on Substack (2024)
Sur ce troisième point en somme, je ne crois pas qu’une science du prompting, que je considère plutôt comme une pratique basée sur le bon sens et les essais-erreurs, soit indispensable. Ce qui me semble indispensable au contraire c’est le recul, la pensée réfléchie, la rationalité et l’aiguisement de son sens critique.
D’ailleurs, pour en revenir aux fameux prompts, j’avais intuitivement deviné que des générateurs de prompts feraient leur apparition. Et c’est chose faite, car cette interface est lourde et maladroite. Prompter est puissant, mais long, fastidieux, et demande des capacités de manipulation de la dictée vocale (qui échappent à l’immense majorité des utilisateurs) ou de frappe (« touch-typing » en anglais) qui ne sont en gros que l’apanage des gens qui ont appris à taper — souvent sur une machine à écrire qui ne pardonne pas les fautes — et savent taper sur le clavier sans le regarder, comme votre serviteur).
D’ailleurs, pour être transparent, tous mes prompts Midjourney sont déjà faits sur Claude ou ChatGPT, car je trouve l’exercice fort fastidieux, lent et que les LLMs sont les mieux placés pour personnaliser un prompt par rapport à une autre IA générative dans le style requis.
D’aucuns font même le pari que les chatbots pourront se parler dans une langue par eux seuls compréhensible (cf. cette vidéo. Attention ! Il ne s’agit pas d’un produit, mais d’une démo réalisée lors d’un hackathon).
Bref, l’usage ne me paraît pas être un problème majeur, même si la majorité des utilisateurs sont loin de montrer des résultats satisfaisants, et ce même quand on les guide.
Alors, quel est le problème avec les IA génératives ?
Mettons à part tout de suite quelques sujets. Les enjeux écologiques, hormis quelques incantations, ne semblent pas déclencher de mesures concrètes. Au vu de mon engagement fort et ancien sur ce sujet, je le regrette, mais je n’y peux rien.
Les menaces de bulle sont réelles, mais on sait aussi que les corrections mènent à des évolutions, pas forcément à des disparitions. Encore une fois, je ne vois pas les IA génératives disparaître alors que le monde entier les utilise (mal, mais les utilise quand même).
Le pourrissement (« enshitification ») du Web
Le pourrissement du Web est sans doute une bonne voie de recherche pour notre question. Je l’avais prédit dès les balbutiements des IA génératives et le lancement de GPT 3 en 2020. Je prévoyais alors que le Web serait noyé de contenus SEO fabriqués non par des humains, mais par ces machines qui fournissent un travail meilleur, qualitativement et quantitativement (selon les critères de ces « experts » SEO), que les armées de « créateurs » de contenus issus des pays à bas coûts chargés de référencer les pages Web en utilisant des méthodes dites de backlinking.
5 ans plus tard — une éternité en temps Internet — que constate-t-on ?
Les demandes de backlinking sont mortes instantanément en 2023 et ont été remplacées par des propositions de création de contenus par IA. Je les ai vues arriver sur Visionary Marketing instantanément et le changement a été brutal. Les contenus SEO se sont professionnalisés et multipliés à des rythmes infernaux comme l’a démontré The Verge qui a dénoncé les fermes à contenus synthétiques dès 2023.
Le résultat aujourd’hui est frappant.
Source : Originality.ai https://originality.ai/ai-content-in-google-search-results
Ce qui était prévisible est donc arrivé. Cela a mis cinq ans. Voilà pour les promoteurs de la révolution instantanée. Même pour quelque chose d’aussi simple que de remplacer des auteurs de « contenus » SEO dans un pays à bas coût pour produire du contenu au kilomètre avec des LLM qui font cela de manière quasi instantanée avec quelques instructions sommaires, il a fallu cinq ans. Pour le reste, on va pouvoir attendre un peu. Au passage on aura mis des centaines de pauvres gens au chômage à moins qu’ils se soient reconvertis dans le contenu par l’IA, ce qui est probable, mais non prouvé.
Source : Originality.ai https://originality.ai/ai-content-in-google-search-results
Le vrai fond du problème est là. Et c’est pour cela que j’ai créé humansubstance.com avec quelques amis.
Un groupe d’irréductibles blogueurs qui ont décidé d’écrire avec leurs mains et leurs cerveaux et non avec des machines. Comme cet article de plus de 4000 mots que j’aurais certainement pu rédiger en trois secondes avec ChatGPT. Si tant est que ChatGPT sache compter le nombre de mots. Car c’est là le problème, nous avons besoin des intelligences artificielles pour descendre les poubelles et compter des mots, corriger notre grammaire, notre ponctuation, éviter de faire des fautes d’orthographe.
Quillbot : enfin un outil qui descend les poubelles correctement.
Mais pas pour remplacer notre pensée. Et si le Web se pourrit, son « enmmerdification » pour reprendre et traduire le terme de Cory Doctorow, cela ne signifie sans doute pas la fin du marketing de contenu (le vrai j’entends, pas le contenu SEO).
Ce n’est peut-être grave que pour le Web lui-même. Car le contenu de qualité trouvera toujours un moyen de s’exprimer. Si ce n’est sur le Web, ce sera ailleurs. Peut-être que ma vision du monde est naïve, mais je l’assume. Car j’ai tendance à croire que le meilleur peut arriver et non le pire. Si cela est faux, cela m’aura au moins donné le sourire ce qui est mieux que de geindre.
A quoi servent les IA génératives si elles ne nous débarrassent pas des corvées
Si Gemini ne sait pas dédupliquer des données, il sert à quoi ? Exemple pris d’un Internaute sur LinkedIn
Je vois aussi autour de moi de nombreux acteurs, analystes, professionnels qui pensent, cherchent, grattent, documentent au-delà de l’apparence et des annonces à l’emporte-pièce des promoteurs de l’intelligence artificielle générative qui ressemblent de plus en plus aux transhumanistes pour reprendre les propos de Jean-Gabriel Ganascia.
humansubstance.com est le site du collectif 100% humain que nous avons constitué au début de 2024
Ne vous y trompez pas, je n’ai rien contre l’intelligence artificielle générative. J’ai simplement envie qu’elle descende les poubelles plutôt qu’elle tente de penser à ma place. Et quand je vois les résultats de certaines de mes requêtes sur ces outils, je doute que la partie soit jouée.
Si ChatGPT ne sait pas lire un fichier Apple Pages et m’oblige à le mettre en format Word, à quoi sert-il ?
Je les utilise souvent pour préparer mes cours (dont la plupart sont destinés à enseigner aux élèves le recul nécessaire pour bien appréhender les résultats de ces outils, de manière rationnelle et non émotionnelle), pour résumer mes articles afin de les mettre dans des présentations pour mes étudiants.
C’est toujours moi qui pense et tout ce que je demande de faire à ces outils est de descendre les poubelles et de mettre mes phrases les plus utiles dans une présentation PowerPoint.
Pourquoi ? Car recopier ses propres mots dans un PowerPoint c’est justement descendre les poubelles. Et c’est pour cette raison que dans cette présentation de Com en Or à Lille le 20 mars 2025, j’ai décidé de ne pas présenter de slides. Les « addicts » pourront néanmoins télécharger les images s’ils le désirent).
Enfin, au cœur de ce débat de la place de l’IA dans le marketing de contenu il y a avant tout une confusion autour de l’automatisation des processus de création qui ne sont pas des processus continus. L’illusion d’une automatisation qui se résume à appuyer sur un bouton pour obtenir un résultat est totale. Certes, on obtient un résultat, mais lequel et quelle est sa valeur ? Pour un « auteur SEO », ce résultat est sans doute mille fois meilleur et plus rapide que le texte rédigé par un humain. Mais l’automatisation de telles tâches donne en fait l’impression que l’on va gagner du temps, mais la réalité est souvent tout autre. Celle-ci est décrite admirablement par Randall Munroe dans son schéma appliqué au code. Et le constat est encore plus pertinent quand il concerne le marketing de contenu.
Et tout ce contenu SEO par IA pour quel résultat ? Plus d’efficacité ? Que nenni nous démontre Neil Patel dans le schéma suivant.
Alors, pour conclure cet article, je vous enjoins à ne jamais céder votre potentiel de réflexion et de critique. Certes, les humains sont faillibles. Parfois même ils sont plus mauvais que les LLMs comme le démontre Kevin Roose dans le New York Times. Et c’est bien là le drame.
Si l’intelligence artificielle générale est sans doute une exagération, puisqu’on n’arrive pas à la définir, prétendre à l’inverse, comme les détracteurs de l’IA, que tous les humains sont géniaux en est une bien plus grande.
Mais au-delà de ces failles, ce sont eux, les humains, qui ont construit ces machines qu’il nous appartient aujourd’hui d’utiliser pour le meilleur et non pour le pire. À vous de penser et de laisser l’IA descendre vos poubelles, elle devrait être faite pour ça.
Et voici l’enregistrement que j’ai fait de cette présentation pour la préparer
PS : sur l’histoire de Marie-Louise Bernard j’ai amalgamé deux backlinks pour la beauté de l’histoire, le lecteur me pardonnera cette licence poétique.
The post Aux IA les corvées, aux humains les pensées appeared first on Marketing and Innovation.