
Sign up to save your podcasts
Or
Au fil de nos travaux j’ai identifié 8 défis principaux de l’IA générative. Il en existe sans doute d’autres je ne prétends pas à l’exhaustivité. Une récente interview donnée à un élève [en Executive] de Master à Rennes School of Management m’a permis de rassembler mes réflexions sur l’IA, le contenu et en particulier l’IA générative. J’en ai profité pour me livrer à un exercice de synthétisation de mes paroles par l’IA. Alors que je trouvais cette fonction complètement inutile par le passé, je reconnais aujourd’hui des avancées spectaculaires dans ce domaine.
Au point que je ne pense plus qu’il faille l’écarter. Toutefois, comme le montre l’exemple ci-dessous, de nombreuses adaptations restent à la charge de l’auteur en fin de compte. En conclusion, cela sonne un peu comme la traduction automatique. L’outil ne fait pas gagner véritablement de temps, quand on maîtrise son sujet s’entend, mais permet de se débarrasser d’une tâche fastidieuse et sans valeur ajoutée. Mes recherches sur le sujet vont se poursuivre et il ne fait aucun doute que notre perception de ces outils et de leur utilité évoluera au fil du temps.
Voici le résumé de mes paroles — prononcées lors d’une interview — qui me permet d’évaluer à la fois l’outil de synthétisation (ici j’ai choisi Claude.ai) qui a fourni le meilleur résultat. Il m’offre également l’opportunité de publier un récapitulatif de mes travaux sur l’IA générative. Enfin, ce travail est également une préparation de mon futur cours sur création de contenu et IA générative de 2024-2025 auprès de 1 000 élèves d’Omnes Education Group.
L’IA générative n’est pas apparue en 2022. Dès 2020, pendant la pandémie de COVID-19, des moteurs comme GPT (alors uniquement disponible via API) ou Rytr.me révélaient déjà le potentiel de génération automatique de textes sur divers sujets. À l’époque, les cas d’usage n’étaient pas encore évidents, mais je prévoyais déjà un impact majeur sur la production de contenu SEO [voir mon billet de 2022 qui réalise l’adaptation française de cette présentation].
Sur le plan uniquement du contenu profond(*), le contenu SEO, que j’ai déjà qualifié parfois de « lèpre de l’Internet » (voir ce billet sur le backlinking) , est devenu une fin en soi pour certaines entreprises et indépendants, avec l’aide de multiples officines expertes en backlinking et contenu de remplissage.
Bien que le référencement soit nécessaire, la création de contenu, quand elle est uniquement tournée vers « l’enfumage » des moteurs de recherche, fait perdre de vue l’objectif principal : écrire pour des êtres humains. Depuis des années, nous assistons à une course effrénée visant à contourner les algorithmes d’indexation. Cette approche, souvent peu éthique, rappelle l’ère d’avant l’Internet ainsi que certaines pratiques de vente et marketing douteuses du passé .
[NDLR] Ici, le texte a été fortement repris afin d’apporter des précisions, réorganiser mes idées, les phrases, etc.].
(*) Dans ce cas précis je ne parle donc pas du référencement à but commercial qui rentre dans une catégorie bien à part, mais juste du contenu de fond, quand celui-ci est réalisé uniquement dans un but de référencement.
Avec l’IA générative, nous observons l’émergence de « fermes de contenu » capables de produire des volumes impressionnants d’articles. Certaines peuvent générer 1200 articles par jour, soit l’équivalent de la moitié du contenu publié sur Visionary Marketing en 20 ans.
Cette surproduction de contenu mène à ce que Mark Schaefer appelle le « content shock » : une saturation telle que le contenu perd de sa valeur et de son impact. J’ai fait le point avec Mark, 10 ans après l’écriture du Content Shock. Dans cette interview, il soulève la nécessité d’être un auteur d’autorité, comme son ami Shelly Palmer. Pour lui non plus, il ne s’agit pas d’une nouveauté, mais d’un « phénomène répétitif ».
Face à cette explosion de contenu généré, je prédisais moi-même dès 2020, de manière courageuse et à contre-courant de la folie IA ambiante, un retour nécessaire vers ces sources d’autorité. Ici je ne parle pas forcément des personnes célèbres, mais de celles dont les paroles comptent dans leur communauté, aussi petite soit-elle. Paradoxalement, l’abondance de contenu de qualité moyenne pourrait pousser les lecteurs à rechercher des experts reconnus et des contenus de haute qualité.
L’IA générative provoque une remise en cause de la valeur du contenu. Cela non plus n’est pas nouveau. Depuis des années maintenant, des producteurs de contenus à bas coût s’échinent à faire baisser les prix dans un marché saturé d’ordinateurs et de connexions Internet.
Toutefois, la valeur existe encore dans les marchés dits « complexes », où l’expertise et l’expérience terrain sont irremplaçables. Tant que les machines ne vont pas sur le terrain et ne sont pas capables de penser par elles-mêmes s’entend. En conclusion, ce n’est pas la fin du contenu, mais d’un certain contenu.
Nous avons moins vu cela arriver en Europe, ou à la marge et dans les médias, du fait de la plus grande protection des employés et de la latence propre à l’économie de notre continent.
Après tout, si les ordinateurs sont désormais bien plus forts que les humains pour jouer aux échecs, mais que les hommes continuent quand même à y jouer, pourquoi n’en serait-il pas de même pour le contenu en ligne ?
Pour se démarquer, le contenu devra être de plus en plus lié à une expertise terrain et à des expériences personnelles. Les anecdotes et les enseignements tirés de situations réelles deviendront cruciaux pour apporter une valeur ajoutée que l’IA ne peut reproduire. Et je ne serais pas surpris si, face à la raréfaction du bon contenu dû entre autres choses à cette production automatique, cette valeur finissait même par croître. Car ce qui est rare est cher.
Au-delà de cela, il faut signifier que l’IA générative ne se limite pas à la production de textes. Des outils spécialisés ont fait émerger des champions (« best of breed ») dans divers domaines :
En fin de compte, nous allons rencontrer un phénomène bien connu dans l’informatique, et notamment le cloud computing. Nous allons empiler les outils les uns sur les autres, et tout cela finira par coûter tellement cher que nous ferons l’impasse sur certains d’entre eux.
À tous ces constats, il faut ajouter quelques défis éthiques et pratiques. J’en ai dénombré huit principaux.
L’utilisation de contenus protégés pour entraîner les modèles d’IA soulève des questions éthiques et légales. Bien que des accords entre ayants droit et plateformes d’IA soient probables, cela pose la question de la juste rémunération des créateurs originaux.
Comme pour les effets spéciaux 3D au cinéma ou l’animation, l’utilisation massive de l’IA dans la création visuelle risque de mener à une standardisation esthétique. Il sera crucial de trouver des moyens d’hybrider les approches pour maintenir une diversité créative.
La facilité d’accès à du contenu généré par IA pourrait avoir un impact sur la créativité humaine. Il est essentiel d’encourager une utilisation réfléchie de ces outils, en les considérant comme des assistants plutôt que des remplaçants de la pensée créative.
Au-delà de tout cela, une question, celle qui précède, me taraude. Elle fait écho à un article de Nicholas Carr publié il y a une quinzaine d’années : « Google nous rend-il idiots ? ». Aujourd’hui, nous devons nous interroger sur l’impact de l’IA sur nos capacités cognitives et notre créativité.
Il est crucial d’encourager les nouvelles générations à développer leur esprit critique face aux contenus générés par IA. Les étudiants doivent apprendre à évaluer la pertinence et la qualité des informations, qu’elles soient produites par des humains ou des machines. C’est dans cet esprit que nous avons formé 1 000 élèves en 2023 avec Omnes Education et que nous réitérerons cette expérience cette année.
L’utilisation de l’IA pour gagner du temps ne doit pas se faire au détriment de l’apprentissage ni de la réflexion personnelle. Il faut trouver un équilibre entre l’efficacité apportée par ces outils et le développement de nos propres compétences. Et comme je l’ai déjà souligné, notre appréciation évolue, et évoluera encore, au fil du temps. Ce que nous trouvons efficace aujourd’hui, avec l’usage nous le trouvons moins performant demain. Parfois, c’est l’inverse. Nos perceptions évoluent, car au fil de l’utilisation des outils, nos niveaux d’exigence évoluent. Ceci d’autant plus que ces outils aussi évoluent et pas toujours dans le bon sens. (voir la courbe de Kathy Sierra ici)
Enfin, évaluer l’impact économique réel de l’IA, comme celui d’Internet avant elle, est un exercice complexe. Des économistes débattent encore de l’effet net d’Internet sur l’économie, 35 ans après son invention. Vaclav Smil, pourtant l’auteur favori de Bill Gates selon son éditeur, le déclare même nul. Même si Smil exagère un peu, la science économique est encore trop peu encline à trouver des preuves de l’augmentation de la productivité par le digital dans les pays occidentaux. Productivité qui, rappelons-le, décline depuis les années 60.
Mesurer la productivité liée à l’IA implique en outre d’évaluer non seulement le temps gagné, mais aussi la qualité du résultat obtenu. Cette évaluation est souvent subjective et dépend du contexte d’utilisation. Il est donc encore plus prématuré de tirer des conclusions définitives sur l’impact de l’IA générative, surtout sur les emplois.
Pour reprendre la métaphore de l’interview que Claude.ai a omise dans son résumé, j’ai comparé l’émerveillement du débutant sur ChatGPT à cet adolescent qui a réussi — nous en étions tous — à faire du vélo en lâchant le guidon et sans tomber. La prouesse technique était éblouissante, mais ne fit pas de nous les gagnants du prochain tour de France, même si Mark Cavendish est capable de lâcher le guidon après son sprint victorieux.
Des études suggèrent que les consommateurs ont une bonne acceptation des réponses générées par IA, surtout si on les compare à une absence de réponse. Cependant, il est encore tôt pour tirer des conclusions définitives sur l’efficacité à long terme de ces solutions. Sans oublier les effets de halo liés à de telles études.
L’idéal serait de combiner la puissance des modèles de langage (LLM) avec des bases de données fiables pour obtenir des réponses à la fois pertinentes et précises. Cela pourrait mener à des gains significatifs en termes de productivité et de qualité de service. Tel est le sujet phare dans les DSI de France et de Navarre, comme j’ai pu m’en apercevoir à la conférence informatique Ready for IT de 2024.
Avec les IA génératives, nous assistons à l’aboutissement d’un long processus technologique qui touche le domaine du marketing de contenu. Ce constat est plus crédible que celui, trop souvent annoncé d’une révolution soudaine. Les premiers poèmes générés par ordinateur datent en effet de 1957, rappelant que l’innovation est souvent un chemin progressif plutôt qu’une rupture brutale. Les erreurs, toujours autour de cette année — également l’année de publication de Player Piano de Vonnegut — ont aussi été fatales à l’IA et les hommes adorent reproduire les mêmes erreurs.
Pour tirer le meilleur parti de ces technologies, il est essentiel d’adopter une approche équilibrée. L’IA générative doit être vue comme un outil d’assistance plutôt qu’un remplacement de l’expertise humaine. Elle peut stimuler la créativité, améliorer la productivité, mais ne doit pas se substituer à la réflexion critique ni à l’expérience terrain.
L’avenir du content marketing reposera sur notre capacité à intégrer intelligemment ces outils tout en préservant ce qui fait la valeur unique du contenu humain : l’authenticité, l’expertise et la capacité à raconter des histoires qui résonnent avec notre audience.
Enfin, pour ce qui est de l’exercice de résumé de cette interview, je confirme mon impression de départ. Le processus méthodologique décrit plus haut a produit des bénéfices qu’il me faut consigner ainsi :
Pour résumer ce qui précède, je suis arrivé à un texte de 2 800 mots, sur la base d’un texte initial de 1 300 mots. J’en ai peut-être gardé 50 % environ, ce qui nous donne approximativement 1 300 * 50% = 750 mots sur 2 800 soit environ 22% du texte final. Mais j’ai voulu vérifier plus avant et j’ai demandé à Claude.ai de vérifier le pourcentage de contenu modifié, ajouté, supprimé ou corrigé par moi en partant d’un fichier de comparaison réalisé avec Word.
Il est arrivé à 66% de modifications, mais en se trompant sur le décompte des mots (3 800 vs 2 800) ce qui rend ce résultat inutilisable. ChatGPT 4-o est quant à lui parti dans des travaux aux longs courts pour arriver au résultat de pourcentage de modifications de 5.59%, un pourcentage d’ajouts de 311.89% et un pourcentage de suppressions de 93.01%. Je ne sais quoi penser de ces chiffres. J’ai donc recouru à la macro conçue par Allen Wyatt qui fonctionne bien et donne un résultat instantané. Voici les chiffres fournis par la macro (en nombres de mots) : Insertions : 2 728 (97%) – Suppressions : 267. Pas sûr qu’additionner ces chiffres permette non plus d’arriver à un résultat satisfaisant, mais ce que je comprends c’est que l’essentiel de mon texte a été écrit par moi-même en fin de compte.
J’aurais bien entendu pu laisser le résumé tel que Claude.ai l’avait produit. Il était tout à fait lisible. Mais il ne représentait pas forcément ce que j’avais envie de dire ni n’était dans la forme où je voulais que cela soit dit. En conclusion, j’ai mis environ 3h00 pour rédiger ce texte, ce qui n’est pas trop loin de ce que cela m’aurait pris si je l’avais rédigé entièrement manuellement à partir de la transcription.
Et si je l’avais fait sans transcription, j’aurais dû repartir de mon souvenir de l’interview en question. Celui-ci, d’ailleurs, n’aurait peut-être pas été très fidèle. Le principal intérêt de cet exercice avec l’IA a été de m’éviter de me remémorer cette interview. Ceci a un effet positif indéniable en termes de gain de temps. Mais cela représente aussi un danger pour ce qui est de l’entraînement de mon esprit à essayer de me souvenir de ce que j’avais dit (et que je connais pourtant par cœur puisque ce n’est que le résultat de mes travaux).
Cet exercice de mémoire peut être considéré comme stérile pour certains, mais il est important de se souvenir qu’une mémoire se travaille comme un muscle, si les lecteurs me pardonnent cette métaphore assez bancale. Si on la laisse se reposer, elle finira par devenir fainéante.
Télécharger le document de comparaison entra la version Claude et la version finale remaniée.
The post Les 8 défis principaux de l’IA générative appeared first on Marketing and Innovation.
Au fil de nos travaux j’ai identifié 8 défis principaux de l’IA générative. Il en existe sans doute d’autres je ne prétends pas à l’exhaustivité. Une récente interview donnée à un élève [en Executive] de Master à Rennes School of Management m’a permis de rassembler mes réflexions sur l’IA, le contenu et en particulier l’IA générative. J’en ai profité pour me livrer à un exercice de synthétisation de mes paroles par l’IA. Alors que je trouvais cette fonction complètement inutile par le passé, je reconnais aujourd’hui des avancées spectaculaires dans ce domaine.
Au point que je ne pense plus qu’il faille l’écarter. Toutefois, comme le montre l’exemple ci-dessous, de nombreuses adaptations restent à la charge de l’auteur en fin de compte. En conclusion, cela sonne un peu comme la traduction automatique. L’outil ne fait pas gagner véritablement de temps, quand on maîtrise son sujet s’entend, mais permet de se débarrasser d’une tâche fastidieuse et sans valeur ajoutée. Mes recherches sur le sujet vont se poursuivre et il ne fait aucun doute que notre perception de ces outils et de leur utilité évoluera au fil du temps.
Voici le résumé de mes paroles — prononcées lors d’une interview — qui me permet d’évaluer à la fois l’outil de synthétisation (ici j’ai choisi Claude.ai) qui a fourni le meilleur résultat. Il m’offre également l’opportunité de publier un récapitulatif de mes travaux sur l’IA générative. Enfin, ce travail est également une préparation de mon futur cours sur création de contenu et IA générative de 2024-2025 auprès de 1 000 élèves d’Omnes Education Group.
L’IA générative n’est pas apparue en 2022. Dès 2020, pendant la pandémie de COVID-19, des moteurs comme GPT (alors uniquement disponible via API) ou Rytr.me révélaient déjà le potentiel de génération automatique de textes sur divers sujets. À l’époque, les cas d’usage n’étaient pas encore évidents, mais je prévoyais déjà un impact majeur sur la production de contenu SEO [voir mon billet de 2022 qui réalise l’adaptation française de cette présentation].
Sur le plan uniquement du contenu profond(*), le contenu SEO, que j’ai déjà qualifié parfois de « lèpre de l’Internet » (voir ce billet sur le backlinking) , est devenu une fin en soi pour certaines entreprises et indépendants, avec l’aide de multiples officines expertes en backlinking et contenu de remplissage.
Bien que le référencement soit nécessaire, la création de contenu, quand elle est uniquement tournée vers « l’enfumage » des moteurs de recherche, fait perdre de vue l’objectif principal : écrire pour des êtres humains. Depuis des années, nous assistons à une course effrénée visant à contourner les algorithmes d’indexation. Cette approche, souvent peu éthique, rappelle l’ère d’avant l’Internet ainsi que certaines pratiques de vente et marketing douteuses du passé .
[NDLR] Ici, le texte a été fortement repris afin d’apporter des précisions, réorganiser mes idées, les phrases, etc.].
(*) Dans ce cas précis je ne parle donc pas du référencement à but commercial qui rentre dans une catégorie bien à part, mais juste du contenu de fond, quand celui-ci est réalisé uniquement dans un but de référencement.
Avec l’IA générative, nous observons l’émergence de « fermes de contenu » capables de produire des volumes impressionnants d’articles. Certaines peuvent générer 1200 articles par jour, soit l’équivalent de la moitié du contenu publié sur Visionary Marketing en 20 ans.
Cette surproduction de contenu mène à ce que Mark Schaefer appelle le « content shock » : une saturation telle que le contenu perd de sa valeur et de son impact. J’ai fait le point avec Mark, 10 ans après l’écriture du Content Shock. Dans cette interview, il soulève la nécessité d’être un auteur d’autorité, comme son ami Shelly Palmer. Pour lui non plus, il ne s’agit pas d’une nouveauté, mais d’un « phénomène répétitif ».
Face à cette explosion de contenu généré, je prédisais moi-même dès 2020, de manière courageuse et à contre-courant de la folie IA ambiante, un retour nécessaire vers ces sources d’autorité. Ici je ne parle pas forcément des personnes célèbres, mais de celles dont les paroles comptent dans leur communauté, aussi petite soit-elle. Paradoxalement, l’abondance de contenu de qualité moyenne pourrait pousser les lecteurs à rechercher des experts reconnus et des contenus de haute qualité.
L’IA générative provoque une remise en cause de la valeur du contenu. Cela non plus n’est pas nouveau. Depuis des années maintenant, des producteurs de contenus à bas coût s’échinent à faire baisser les prix dans un marché saturé d’ordinateurs et de connexions Internet.
Toutefois, la valeur existe encore dans les marchés dits « complexes », où l’expertise et l’expérience terrain sont irremplaçables. Tant que les machines ne vont pas sur le terrain et ne sont pas capables de penser par elles-mêmes s’entend. En conclusion, ce n’est pas la fin du contenu, mais d’un certain contenu.
Nous avons moins vu cela arriver en Europe, ou à la marge et dans les médias, du fait de la plus grande protection des employés et de la latence propre à l’économie de notre continent.
Après tout, si les ordinateurs sont désormais bien plus forts que les humains pour jouer aux échecs, mais que les hommes continuent quand même à y jouer, pourquoi n’en serait-il pas de même pour le contenu en ligne ?
Pour se démarquer, le contenu devra être de plus en plus lié à une expertise terrain et à des expériences personnelles. Les anecdotes et les enseignements tirés de situations réelles deviendront cruciaux pour apporter une valeur ajoutée que l’IA ne peut reproduire. Et je ne serais pas surpris si, face à la raréfaction du bon contenu dû entre autres choses à cette production automatique, cette valeur finissait même par croître. Car ce qui est rare est cher.
Au-delà de cela, il faut signifier que l’IA générative ne se limite pas à la production de textes. Des outils spécialisés ont fait émerger des champions (« best of breed ») dans divers domaines :
En fin de compte, nous allons rencontrer un phénomène bien connu dans l’informatique, et notamment le cloud computing. Nous allons empiler les outils les uns sur les autres, et tout cela finira par coûter tellement cher que nous ferons l’impasse sur certains d’entre eux.
À tous ces constats, il faut ajouter quelques défis éthiques et pratiques. J’en ai dénombré huit principaux.
L’utilisation de contenus protégés pour entraîner les modèles d’IA soulève des questions éthiques et légales. Bien que des accords entre ayants droit et plateformes d’IA soient probables, cela pose la question de la juste rémunération des créateurs originaux.
Comme pour les effets spéciaux 3D au cinéma ou l’animation, l’utilisation massive de l’IA dans la création visuelle risque de mener à une standardisation esthétique. Il sera crucial de trouver des moyens d’hybrider les approches pour maintenir une diversité créative.
La facilité d’accès à du contenu généré par IA pourrait avoir un impact sur la créativité humaine. Il est essentiel d’encourager une utilisation réfléchie de ces outils, en les considérant comme des assistants plutôt que des remplaçants de la pensée créative.
Au-delà de tout cela, une question, celle qui précède, me taraude. Elle fait écho à un article de Nicholas Carr publié il y a une quinzaine d’années : « Google nous rend-il idiots ? ». Aujourd’hui, nous devons nous interroger sur l’impact de l’IA sur nos capacités cognitives et notre créativité.
Il est crucial d’encourager les nouvelles générations à développer leur esprit critique face aux contenus générés par IA. Les étudiants doivent apprendre à évaluer la pertinence et la qualité des informations, qu’elles soient produites par des humains ou des machines. C’est dans cet esprit que nous avons formé 1 000 élèves en 2023 avec Omnes Education et que nous réitérerons cette expérience cette année.
L’utilisation de l’IA pour gagner du temps ne doit pas se faire au détriment de l’apprentissage ni de la réflexion personnelle. Il faut trouver un équilibre entre l’efficacité apportée par ces outils et le développement de nos propres compétences. Et comme je l’ai déjà souligné, notre appréciation évolue, et évoluera encore, au fil du temps. Ce que nous trouvons efficace aujourd’hui, avec l’usage nous le trouvons moins performant demain. Parfois, c’est l’inverse. Nos perceptions évoluent, car au fil de l’utilisation des outils, nos niveaux d’exigence évoluent. Ceci d’autant plus que ces outils aussi évoluent et pas toujours dans le bon sens. (voir la courbe de Kathy Sierra ici)
Enfin, évaluer l’impact économique réel de l’IA, comme celui d’Internet avant elle, est un exercice complexe. Des économistes débattent encore de l’effet net d’Internet sur l’économie, 35 ans après son invention. Vaclav Smil, pourtant l’auteur favori de Bill Gates selon son éditeur, le déclare même nul. Même si Smil exagère un peu, la science économique est encore trop peu encline à trouver des preuves de l’augmentation de la productivité par le digital dans les pays occidentaux. Productivité qui, rappelons-le, décline depuis les années 60.
Mesurer la productivité liée à l’IA implique en outre d’évaluer non seulement le temps gagné, mais aussi la qualité du résultat obtenu. Cette évaluation est souvent subjective et dépend du contexte d’utilisation. Il est donc encore plus prématuré de tirer des conclusions définitives sur l’impact de l’IA générative, surtout sur les emplois.
Pour reprendre la métaphore de l’interview que Claude.ai a omise dans son résumé, j’ai comparé l’émerveillement du débutant sur ChatGPT à cet adolescent qui a réussi — nous en étions tous — à faire du vélo en lâchant le guidon et sans tomber. La prouesse technique était éblouissante, mais ne fit pas de nous les gagnants du prochain tour de France, même si Mark Cavendish est capable de lâcher le guidon après son sprint victorieux.
Des études suggèrent que les consommateurs ont une bonne acceptation des réponses générées par IA, surtout si on les compare à une absence de réponse. Cependant, il est encore tôt pour tirer des conclusions définitives sur l’efficacité à long terme de ces solutions. Sans oublier les effets de halo liés à de telles études.
L’idéal serait de combiner la puissance des modèles de langage (LLM) avec des bases de données fiables pour obtenir des réponses à la fois pertinentes et précises. Cela pourrait mener à des gains significatifs en termes de productivité et de qualité de service. Tel est le sujet phare dans les DSI de France et de Navarre, comme j’ai pu m’en apercevoir à la conférence informatique Ready for IT de 2024.
Avec les IA génératives, nous assistons à l’aboutissement d’un long processus technologique qui touche le domaine du marketing de contenu. Ce constat est plus crédible que celui, trop souvent annoncé d’une révolution soudaine. Les premiers poèmes générés par ordinateur datent en effet de 1957, rappelant que l’innovation est souvent un chemin progressif plutôt qu’une rupture brutale. Les erreurs, toujours autour de cette année — également l’année de publication de Player Piano de Vonnegut — ont aussi été fatales à l’IA et les hommes adorent reproduire les mêmes erreurs.
Pour tirer le meilleur parti de ces technologies, il est essentiel d’adopter une approche équilibrée. L’IA générative doit être vue comme un outil d’assistance plutôt qu’un remplacement de l’expertise humaine. Elle peut stimuler la créativité, améliorer la productivité, mais ne doit pas se substituer à la réflexion critique ni à l’expérience terrain.
L’avenir du content marketing reposera sur notre capacité à intégrer intelligemment ces outils tout en préservant ce qui fait la valeur unique du contenu humain : l’authenticité, l’expertise et la capacité à raconter des histoires qui résonnent avec notre audience.
Enfin, pour ce qui est de l’exercice de résumé de cette interview, je confirme mon impression de départ. Le processus méthodologique décrit plus haut a produit des bénéfices qu’il me faut consigner ainsi :
Pour résumer ce qui précède, je suis arrivé à un texte de 2 800 mots, sur la base d’un texte initial de 1 300 mots. J’en ai peut-être gardé 50 % environ, ce qui nous donne approximativement 1 300 * 50% = 750 mots sur 2 800 soit environ 22% du texte final. Mais j’ai voulu vérifier plus avant et j’ai demandé à Claude.ai de vérifier le pourcentage de contenu modifié, ajouté, supprimé ou corrigé par moi en partant d’un fichier de comparaison réalisé avec Word.
Il est arrivé à 66% de modifications, mais en se trompant sur le décompte des mots (3 800 vs 2 800) ce qui rend ce résultat inutilisable. ChatGPT 4-o est quant à lui parti dans des travaux aux longs courts pour arriver au résultat de pourcentage de modifications de 5.59%, un pourcentage d’ajouts de 311.89% et un pourcentage de suppressions de 93.01%. Je ne sais quoi penser de ces chiffres. J’ai donc recouru à la macro conçue par Allen Wyatt qui fonctionne bien et donne un résultat instantané. Voici les chiffres fournis par la macro (en nombres de mots) : Insertions : 2 728 (97%) – Suppressions : 267. Pas sûr qu’additionner ces chiffres permette non plus d’arriver à un résultat satisfaisant, mais ce que je comprends c’est que l’essentiel de mon texte a été écrit par moi-même en fin de compte.
J’aurais bien entendu pu laisser le résumé tel que Claude.ai l’avait produit. Il était tout à fait lisible. Mais il ne représentait pas forcément ce que j’avais envie de dire ni n’était dans la forme où je voulais que cela soit dit. En conclusion, j’ai mis environ 3h00 pour rédiger ce texte, ce qui n’est pas trop loin de ce que cela m’aurait pris si je l’avais rédigé entièrement manuellement à partir de la transcription.
Et si je l’avais fait sans transcription, j’aurais dû repartir de mon souvenir de l’interview en question. Celui-ci, d’ailleurs, n’aurait peut-être pas été très fidèle. Le principal intérêt de cet exercice avec l’IA a été de m’éviter de me remémorer cette interview. Ceci a un effet positif indéniable en termes de gain de temps. Mais cela représente aussi un danger pour ce qui est de l’entraînement de mon esprit à essayer de me souvenir de ce que j’avais dit (et que je connais pourtant par cœur puisque ce n’est que le résultat de mes travaux).
Cet exercice de mémoire peut être considéré comme stérile pour certains, mais il est important de se souvenir qu’une mémoire se travaille comme un muscle, si les lecteurs me pardonnent cette métaphore assez bancale. Si on la laisse se reposer, elle finira par devenir fainéante.
Télécharger le document de comparaison entra la version Claude et la version finale remaniée.
The post Les 8 défis principaux de l’IA générative appeared first on Marketing and Innovation.