Dans le prolongement de la section 2.4, qui décrit l'intégration de l'IA chez Starterre dans une démarche structurée par le principe « pas d'IA sans humain » et l'alignement constant avec les valeurs de l'entreprise, il convient maintenant d'élargir la réflexion. Au-delà de cette expérience professionnelle, quels enseignements les recherches académiques apportent-elles sur les transformations sociétales engendrées par l'intelligence artificielle et notamment l'IA générative multimodale ?

Cette troisième partie propose un changement de focale, une prise de hauteur pour passer du terrain opérationnel, de mon expérience, à l'analyse plus théorique et sociétale. Il s'agit désormais de confronter l'expérience vécue aux apports de la recherche en Sciences de l'Information et de la Communication (SIC), en sociologie du travail numérique et en éthique appliquée. Cette mise en perspective critique me permettra d'interroger les pratiques autour de l'IA et plus globalement les discours dominants qui l'entourent, entre promesses excessives portées par les acteurs privés et craintes parfois fantasmées, dans le but de mieux comprendre les transformations en cours et à venir.

J'examinerai d'abord comment l'IA redéfinit les contours de certains métiers de la communication, en questionnant pourquoi elle « suscite autant d'espoirs que de craintes » 79 en m'appuyant sur la recherche et les transformations observables dans le monde du travail. Par la suite, l'analyse portera sur les enjeux de souveraineté technologique, d'encadrement éthique et réglementaire que soulève le déploiement de l'intelligence artificielle à grande échelle.

Enfin, je conclurai en montrant comment l'alignement avec les valeurs et le « bon sens paysan » constitue un GPS pour évoluer dans cette ère de l'IA où la technologie n'est en soi ni une menace ni la panacée mais un « ouvreur de possibilités » 80 dont l'impact dépend fondamentalement des choix humains.

3.1 Évolutions des métiers et des compétences

3.1.1 Retour sur le boom de l'IA générative

L'IA générative : l'engouement du grand public
L'arrivée de ChatGPT en novembre 2022 marque un tournant dans la perception de l'intelligence artificielle et rencontre le succès auprès du grand public 81. Comme le soulignent Rodolphe GELIN et Olivier GUILHEM, dans l'ouvrage L'intelligence artificielle en 30 questions : « En réalisant que l'IA « parlait » comme nous, comprenait (quasiment) comme nous, le grand public a pris conscience des capacités de l'IA » 82.

Pourtant l'intelligence artificielle, aujourd'hui omniprésente et accessible à tous depuis un téléphone portable, n'est pas une technologie nouvelle. Son concept remonte aux débuts des années 1950. Lors de la conférence de Dartmouth en 1956 (Dartmouth Summer Research Project on Artificial Intelligence) 83, les scientifiques John McCARTHY, Marvin MINSKY, Claude SHANNON et Nathaniel ROCHESTER ont proposé de modéliser le comportement du cerveau humain. Marvin MINSKY définissait alors l'IA comme :
« la construction de programmes informatiques qui s'adonnent à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l'apprentissage perceptuel, l'organisation de la mémoire, le raisonnement critique » 84. Cette conférence est considérée comme l'acte de naissance de l'intelligence artificielle.

Une polarisation médiatique entre promesses et craintes
Cette démocratisation soudaine dans presque tous les domaines « fascine, interroge ou inquiète » 85. « Depuis le milieu des années 2010, l'intelligence artificielle (IA) est devenue pour la première fois un objet de controverses dans l'espace public » 86. Paradoxalement, certains acteurs de l'industrie technologique, à l'origine même de ce déploiement massif financé à coups de milliards, ont été parmi les premiers à exprimer leurs inquiétudes.

En mars 2023, dans une lettre ouverte du Future of Life Institute 87, signée par des figures influentes, dans le domaine de l'IA comme Yoshua BENGIO (chercheur et pionnier de l'apprentissage profond), Steve WOZNIAK (cofondateur d'Apple), ou encore Elon MUSK dont la signature a largement contribué à médiatiser la lettre, appelaient « all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4 » alertant sur les risques d'une course incontrôlée au développement de l'IA.

Le sujet fait débat et ne laisse pas indifférent. Les travaux de Maxime CRÉPEL et Dominique CARDON 88 sur la représentation publique de l'intelligence artificielle se structurent entre discours utopiques et récits alarmistes. Avec d'un côté, les discours enthousiastes des géants de la tech qui évoquent une révolution capable de résoudre tous les défis contemporains. De l'autre, une mise en scène médiatique « sur un registre dramatique qui amplifie les inquiétudes, les peurs et la défiance en exagérant les capacités réelles des systèmes, les risques qu'ils pourraient remplacer les humains et/ou être biaisés et injustes » 89.

L'IA : 4ème révolution industrielle ?
Cette effervescence s'inscrit dans ce que certains qualifient de quatrième révolution industrielle. Dans le Courrier de l'UNESCO, « Après la troisième révolution industrielle déclenchée par l'Internet et l'Internet mobile, les technologies de l'intelligence artificielle (IA), associées aux données de masse (big data), préparent une quatrième révolution qui bousculera probablement les équilibres mondiaux » 90. Klaus SCHWAB, fondateur du Forum économique mondial, dans son ouvrage La quatrième révolution industrielle, décrit une convergence inédite entre technologies physiques, numériques et biologiques. « La Quatrième Révolution Industrielle a le pouvoir de robotiser l'humanité et d'ébranler ce qui a été traditionnellement pour nous porteur de sens : travail, communauté, famille, identité. Ou bien, au contraire, nous pouvons y trouver l'occasion de faire accéder l'humanité à une nouvelle conscience collective et morale basée sur le sentiment d'un destin commun » 91.

Cette nouvelle phase soulève des interrogations majeures sur l'avenir du travail, la transformation des compétences et les inégalités qu'elle pourrait creuser entre technophiles et technophobes. J'aborderai ces questionnements dans le point 3.1.2 en partant de mon quotidien chez Starterre et en prenant soin de le confronter aux apports réflexifs de chercheurs sur ces sujets.

3.1.2 Transformations concrètes : du gain de temps au sens du travail

Du terrain aux questionnements : l'IA au quotidien chez Starterre
Comme évoqué dans la partie 2, le déploiement de l'IA chez Starterre s'est opéré progressivement sur plusieurs fronts, sous forme de POC, de la production éditoriale à la gestion de la qualité de la donnée en passant par la création graphique.

L'optimisation SEO des contenus, auparavant chronophage et répétitive, s'appuie désormais sur des outils d'analyse sémantique assistés par IA qui suggèrent des améliorations aussi bien sur la structure que sur le choix des mots-clés, ou encore le positionnement vis-à-vis de la concurrence (fig.23).

image23
Figure 23 : capture d'écran de l'outil NeuronWriter utilisé pour la rédaction de guides d'achats. L'outil projette une analyse de la SERP (top 10 et top 30 des résultats), suggère des mots-clés et donne un indicateur de compétitivité de contenu.

La création de visuels pour les réseaux sociaux, pour le site web starterre.fr ou encore pour les campagnes marketing a été profondément transformée par l'intégration d'IA générative combinée à des workflows automatisés. Ce qui pouvait prendre plusieurs heures de travail (voire tout simplement n'était pas possible) peut désormais être réalisé en quelques minutes, libérant du temps pour l'itération, la recherche de concepts créatifs, mais aussi pour se pencher sur des sujets jusqu'à maintenant délaissés faute de temps ou de ressources disponibles. Cette nouvelle technologie m'est apparue comme « un ouvreur de possibilité » 92 pour reprendre les termes de Sergio VASQUEZ-BRONFMAN.

Plus globalement encore, de nouvelles pratiques professionnelles ont émergé. Le prompt engineering, l'art de formuler des instructions précises aux modèles d'IA générative, est devenu une compétence aussi essentielle que la maîtrise d'un logiciel de PAO dans les années 2000. Même le design sur Photoshop ou Figma s'est enrichi d'assistants IA capables de générer des déclinaisons de maquettes, d'optimiser l'ergonomie avec seulement quelques lignes d'instructions. La plupart de nos outils sont désormais enrichis de fonctionnalités IA et il est devenu très difficile d'y échapper, tant les « encouragements à explorer la puissance de l'IA générative » sont forts 93.

Les workflows automatisés mis en place sur la plateforme Make, connectant des IA à nos bases de données, à nos API puis à nos outils de diffusion, ont également nécessité l'acquisition de nouvelles compétences hybrides à la croisée des chemins entre communication, données, logique algorithmique et développement.
Ces transformations, qui ne datent pas d'hier (voir encadré ci-dessous), ne sont pas anodines. Elles modifient en profondeur le quotidien des équipes et interrogent l'identité même du métier de communicant qui devient, de mon point de vue, de plus en plus technique. L'IA générative accélère le phénomène engagé précédemment avec l'arrivée d'Internet et la transformation digitale massive des organisations et plus largement de notre quotidien 94.

Extrait d'une allocution de M. Valéry GISCARD d'ESTAING au Colloque International Informatique et Société, le vendredi 28 septembre 1979 : « J'ai souhaité que la France prenne l'initiative d'inviter la communauté internationale à réfléchir et à débattre de l'informatique et de la société. Je voudrais vous donner, sur ce colloque, une explication et vous faire part d'une réflexion. (…) La science et les technologies modernes ont souvent allégué leur vérité et leur efficacité pour éviter d'être interpellées sur ce qu'elles sont et ce qu'elles font. Il devient naturel alors que le soupçon les accompagne. Et pour l'informatique, le soupçon existe dans l'opinion publique : l'informatique est-elle un danger pour l'emploi ? L'informatique menace-t-elle la liberté ? ».

Discours intégrale : https://www.vie-publique.fr/discours/132318-allocution-de-m-valery-giscard-destaing-au-colloque-international-inf

Évolution plutôt que remplacement : du terrain à la théorie
L'analyse de Juan Sebastian CARBONELL dans les Cahiers français (2024/5, N° 441) sur l'appropriation de l'IA dans le monde du travail résonne fortement avec mon quotidien. Contrairement aux discours catastrophistes qui annoncent la disparition pure et simple des métiers de la communication, ma réalité est (pour le moment) tout autre et confirme plutôt une évolution des fonctions plutôt qu'un remplacement massif. CARBONELL le dit en ces termes : « au lieu de parler de suppression d'emplois, de substitution ou de remplacement, il faudrait plutôt utiliser le terme de déplacement » 95.

Sergio VASQUEZ-BRONFMAN théorise également cette mutation dans son ouvrage La transformation digitale des organisations, des industries, de la société. Selon lui, « il s'est toujours agi de faire les mêmes choses qu'auparavant, mais autrement, avec de nouvelles organisations du travail ; mais aussi de faire de nouvelles choses, qu'il était impossible de faire auparavant » 96. La transformation numérique du travail ne signifie pas la fin du travail humain, mais l'émergence de nouvelles organisations du travail.

Exemple concret d'évolution plutôt que de remplacement : le temps dégagé par l'automatisation des tâches répétitives (génération de visuels dans différents formats, optimisation SEO, déclinaison de contenu sur différents supports,...) m'a permis de repositionner Flavie sur le pilotage opérationnel de nos contenus et l'animation de l'équipe. L'embauche récente de Léna (mars 2026) nous permet également de mieux accompagner nos clients dans l'utilisation de nos produits et services. Après une phase d'intégration de l'IA et d'automatisation dans nos processus qui nous a fait gagner du temps, l'humain et l'accompagnement personnalisé reprennent toute leur place au cœur de la relation client.

Cette logique s'ancre parfaitement dans notre quotidien : nous produisons toujours des contenus mais le processus a changé. L'humain n'est plus seulement producteur, il devient également superviseur, validateur, toujours dans le respect de la logique « pas d'IA sans humain ».

Cette évolution fait également écho aux travaux d'Antonio CASILLI sur le digital labor. Dans son ouvrage En attendant les robots, il démontre que l'IA et l'automatisation, loin de supprimer le travail humain, tendent à le faire basculer, à le transformer en tâches de supervision et de contrôle : « Dans la mesure où les systèmes intelligents sont appliqués à des domaines de plus en plus importants de la société, le besoin d'être complétés par des êtres humains ne s'estompe pas. Au contraire, les complémentarités deviennent de plus en plus vitales » 97.

Cela résonne avec le travail de Flavie et Teddy présenté dans la partie 2.4.1 La place de l'IA chez Starterre. Ils enrichissent leur expertise métier grâce aux capacités de l'IA tout en supervisant en entrée (input) et en sortie (output) la qualité du travail automatisé. Ils vérifient la pertinence des suggestions SEO, valident la cohérence des visuels et des textes générés, s'assurent de la cohérence avec la base de connaissance et ajustent les prompts pour affiner les résultats si besoin.
Pour autant, cette augmentation de la productivité ne doit pas masquer une réalité plus ambivalente. Bien que je n'ai supprimé aucun poste chez Starterre, cette évolution n'est pas neutre. La transformation des métiers s'accompagne d'une profonde redéfinition des compétences. Ce qui constituait hier l'expertise d'un communicant se trouve partiellement déqualifié, déclassé au profit de nouvelles aptitudes qui peuvent être perçues (pour le moment) comme une dépossession d'une partie du savoir-faire. Ce phénomène est d'autant plus difficile à accepter pour les profils juniors.

Dans le numéro 16 de la revue Communication et Professionnalisation, Valérie LAROCHE et Julien PIERRE pensent que les professionnel·les de la communication sont « aux prises avec des injonctions managériales parfois contradictoires ou décorrélées de leur quotidien et des standards techniques qui évoluent sans pédagogie » 98. Ils sont tout juste entrés dans le monde du travail, n'ont pas encore eu le temps de mettre pleinement en œuvre leurs connaissances académiques mais comprennent déjà qu'une remise en question s'impose. Les compétences acquises en formation semblent déjà partiellement obsolètes. La vitesse d'évolution des outils IA dépasse largement le temps humain d'appropriation.

Chaque semaine apporte son lot de nouvelles fonctionnalités, de nouvelles versions, de nouveaux modèles et la transformation digitale « ne ressemble jamais à un long fleuve tranquille : les surprises ne manquent pas et il convient d'être flexible » 99 comme le rappelle Sergio VASQUEZ-BRONFMAN.

Ma première réaction a été de rassurer l'équipe en m'appuyant sur les faits :

  • aucune suppression de poste,
  • une nouvelle recrue a intégré l'équipe,
  • la productivité s'est améliorée,
  • les premiers résultats sont là

Mais la réflexion académique menée dans le cadre de cette VAE a progressivement nuancé cet enthousiasme. Je me sentais parfois comme le commercial d'une idéologie tech-solutionniste, « d'une idéologie qui vouait un culte à l'innovation et à l'efficacité au détriment de tout le reste » 100. Mes collaborateurs ne sont « pas pressés d'être remplacés » comme j'ai pu l'entendre à plusieurs reprises. Même si le sujet ne situe pas là, mon enthousiasme initial sous-estimait une réalité plus complexe : le sens du travail a été profondément impacté et la course à l'innovation éprouvante. Le principe de « pas d'IA sans humain » que j'ai érigé en règle chez Starterre trouve sa limite dans cette réalité. Ce n'est pas seulement une question de maîtrise, de technique, c'est aussi une question éthique. Ces résistances ne sont pas des obstacles mais des signaux à prendre en compte pour accompagner chacun dans cette transition.

L'apport de cette VAE a été de créer un doute salutaire qui m'a permis de me questionner, de prendre du recul, de ne pas céder à l'injonction permanente de l'innovation à tout prix malgré un contexte très concurrentiel. Comme le souligne Sergio VASQUEZ-BRONFMAN « toute transformation consiste à faire évoluer une organisation vers un état futur où les choses seront faites différemment et où on fera de nouvelles choses, et dans ce processus le facteur le plus difficile est le facteur humain » 101.

Ce questionnement prend une envergure encore plus macro (ci-dessous) dans la partie 3.2 Enjeux de souveraineté, éthique et responsabilité.

3.2 Enjeux de souveraineté, éthique et responsabilité

Si le déploiement massif de l'intelligence artificielle a transformé mon quotidien et celui de mon équipe, il soulève également des questions plus larges qui dépassent le cadre de l'entreprise. Ce dernier point se concentre sur les enjeux de souveraineté, d'éthique et de responsabilité. En m'appuyant sur la recherche, je m'efforcerai de relier, dès que possible, ces réflexions aux enseignements tirés de mon expérience professionnelle.

3.2.1 Souveraineté et dépendance technologique

L'un des constats les plus frappants de cette « quatrième révolution industrielle » est que « son usage en devient si simple et naturel que l'on peut se demander si nous saurions revenir à l'état précédent. Aurions-nous la résilience et les connaissances nécessaires en cas de défaillance d'un système IA ? » 102. Cette dépendance s'observe concrètement dans mon quotidien professionnel, que ce soit à travers nos outils (forcing des éditeurs évoqué précédemment) ou nos processus de création (choix).

Le déploiement massif de l'IA repose sur des investissements considérables, principalement concentrés aux États-Unis et en Chine (fig.24).

image24
Figure 24 : représentation graphique du Global AI Index. Source : Tortoise Media. Réalisation : Jérémy Masse. Carte disponible en ligne sur le site warm.2050now.com

Chez Starterre, je m'appuie essentiellement sur deux plateformes (fal.ai et openrouter.ai) pour accéder aux modèles d'IA génératives multimodales les plus récents. En fonction des besoins et des tâches à accomplir, je peux faire appel à ChatGPT d'OpenAI, Gemini de Google, Claude d'Anthropic, Seedance de Bytedance ou à des centaines d'autres modèles propriétaires en modifiant simplement l'appel au endpoint de l'API du modèle ciblé.

Cette concentration « autour des grandes entreprises numériques ne fait alors que renforcer leur emprise » 103 et pose évidemment problème. Nous ne maîtrisons pas l'infrastructure, nous ne connaissons pas les données d'entraînement et nous prenons pour acquis les outputs sans comprendre réellement comment tout cela fonctionne. En effet, comme le souligne Dominique CARDON dans son ouvrage intitulé À quoi rêvent les algorithmes, « nous interrogeons rarement la manière dont ils ont été produits » 104.

Cette situation crée une triple dépendance :

  • technologique : opacité sur le fonctionnement et concentration des acteurs privés,
  • cognitive : risque de perte progressive d'expertise en cas de délégation excessive,
  • économique : les coûts d'accès aux API, aujourd'hui faibles, peuvent augmenter sans préavis, remettant potentiellement en cause certains modèles économiques

Ce constat « résonne comme un aveu de notre renoncement à maîtriser la chaîne causale de production de connaissance au profit de l'efficacité » 105.

La notion de « boîte noire» est très fréquemment associée à l'intelligence artificielle. J'ai pu retrouver cette qualification dans de nombreux ouvrages ou revues scientifiques au fil de mes lectures.

Face à cette dépendance aux modèles américains et chinois et à leur opacité, j'ai fait le choix chez Starterre de limiter strictement l'usage de l'IA aux données publiques. Aucune donnée client, aucune information stratégique ou confidentielle n'est soumise aux API des fournisseurs d'IA. Cette contrainte auto-imposée réduit certes le champ des possibles mais me permet de garder la main sur les données sensibles et de prévenir tout risque.

Des initiatives européennes tentent d'émerger pour pallier cette dépendance. Mistral AI, licorne française, incarne cette ambition de souveraineté technologique. Une réflexion est d'ailleurs en cours chez Starterre pour nous doter de la plateforme Mistral AI Forge, qui permettrait de construire et d'entraîner des modèles sur mesure à partir de nos données internes, tout en conservant la maîtrise complète de l'infrastructure et des données d'apprentissage. Cette solution française représenterait une alternative crédible aux géants américains ou chinois, avec l'avantage d'une conformité native au RGPD et à l'AI Act européen (nous reviendrons sur ce point dans la partie 3.2.2).

Mais l'Europe accuse un retard considérable en termes de puissance de calcul, de volumes de données disponibles et d'investissements privés. Paradoxalement, la réglementation européenne plus contraignante est parfois perçue comme un frein à l'innovation par les acteurs économiques, alors même qu'elle vise à protéger les citoyens. Selon l'aveu même de la présidente de la Banque centrale européenne (BCE), Christine LAGARDE : « Nous devons lever tous les obstacles qui nous empêchent d'embrasser cette transformation. Sinon, nous risquons de laisser passer la vague d'adoption de l'IA et de compromettre l'avenir de l'Europe » 106.

Cette déclaration illustre bien cette tension entre protection et innovation. Comment construire des systèmes compétitifs tout en respectant des standards éthiques élevés ? Comment éviter une course au moins-disant réglementaire face à des concurrents moins contraints comme la Chine ou les États-Unis d'Amérique ? Cette double contrainte ne concerne d'ailleurs pas que l'IA : on la retrouve dans des débats tout aussi importants et d'actualité comme les normes environnementales, les standards de production agricole ou encore les réglementations du travail.

3.2.2 Dimension éthique et responsabilité au quotidien

Comme le soulignent Valérie BEAUDOUIN et Julia VELKOVSKA, « la formule « éthique de l'IA » tend à englober l'ensemble des aspects « non techniques » des systèmes algorithmiques : les interrogations sur leurs usages, sur leurs conséquences sociales ou sur leurs régulations juridiques » 107. L'intérêt pour ce domaine de recherche a connu une croissance significative ces dernières années (fig.25) et s'est progressivement imposé comme un champ d'étude indépendant. La réflexion éthique sur les avancées de l'IA trouve ses racines dans le monde scientifique, qui a multiplié les déclarations de principes et les chartes éthiques. Cette prolifération témoigne d'une prise de conscience collective des enjeux y compris de la part des acteurs privés (3.1.1 Retour sur le boom de l'IA générative > Une polarisation médiatique entre promesses et craintes > Lettre ouverte du Future of Life Institute), mais aussi d'une urgence à encadrer des technologies qui progressent plus vite que notre capacité à les réguler. Face à ces bonnes intentions (souvent non contraignantes), la nécessité d'une régulation s'impose désormais.

image25
Figure 25 : capture d'écran du site Google Trends montrant l'évolution du nombre de recherches sur le terme « ethic AI » sur les 5 dernières années dans le monde.

L'IA Act européen : première tentative de régulation
L'Union européenne a franchi un cap décisif en adoptant l'IA Act (Règlement (UE) 2024/1689 du parlement européen et du conseil du 13 juin 2024), première législation mondiale spécifiquement dédiée à l'intelligence artificielle. Elle s'articule principalement autour d'une approche tournée vers les risques classés de la manière suivante schématisée sous forme pyramidale (fig.26) :

  • Risque inacceptable (interdiction),
  • Risque élevé (encadrement strict),
  • Risque limité (transparence obligatoire),
  • Risque minimal (aucune obligation)
image26
Figure 26 : représentation graphique de l'approche juridique fondée sur les risques pour l'Europe. Source : Y. Meneceur, Analyse des principaux cadres supranationaux de régulation de l'IA – De l'éthique à la conformité, Les Temps Électriques, 31 mai 2021 – https://lestempselectriques.net/ANALYSE_IA.pdf (CC)BY-NC-ND

Cette approche graduée témoigne de la volonté de ne pas freiner l'innovation tout en veillant à protéger les citoyens. Elle vient compléter d'autres dispositions comme celles du RGPD évoqué dans la partie 2.3.3 Mesure et optimisation des contenus.
Cependant « plusieurs réactions au projet de réglementation considèrent que si l'AI Act est une contribution majeure, il reste insuffisant. Il néglige la mise en place d'une régulation tournée vers les droits fondamentaux, l'État de droit et la démocratie en laissant le marché s'installer comme unique base dogmatique du contrôle de l'intelligence artificielle » 108.

Les ambiguïtés existent et je dois l'admettre, malgré la veille réglementaire que je peux effectuer, des zones d'ombres persistent. Où situer, par exemple, l'utilisation de l'IA générative pour créer des contenus marketing ? Risque minimum, risque faible ?
Si je devais à l'avenir automatiser une partie de la relation client comment concilier respect du RGPD, éthique et innovation ?

Dans mon quotidien, ces questions ne sont pas que théoriques. Elles m'imposent une réflexion permanente sur mes pratiques. Chaque nouveau workflow dans Make combinant IA, APIs et automatisation doit être pensé non seulement en termes d'efficacité mais aussi en termes de conformité et de responsabilité. Au-delà de la technique, je porte une responsabilité dans ce déploiement qui engage l'entreprise sur le long terme.

En conclusion, cela se traduit en quatre points :

  • assumer les choix technologiques : privilégier des fournisseurs européens quand c'est possible (d'où la réflexion en cours sur Mistral AI Forge et avec notre partenaire Axians) même si cela implique parfois des coûts supérieurs. Il s'agit là de souveraineté technologique,
  • former et sensibiliser : ne pas se contenter de former aux outils, mais aussi aux enjeux éthiques, aux biais potentiels, aux limites des systèmes (voire parfois démystifier le côté « magique »). Expliquer pourquoi il est préférable de ne pas soumettre de données clients, pourquoi chaque output doit être validé humainement, pourquoi certains usages sont proscrits.
  • documenter : garder une trace des processus appliqués, des décisions prises, des problèmes rencontrés pour pouvoir rendre des comptes en cas de dysfonctionnement. Cette traçabilité est chronophage mais indispensable.
  • maintenir un esprit critique : ne pas céder à la facilité, questionner régulièrement nos pratiques, mettre en concurrence les modèles pour aller vers le mieux disant en termes d'explicabilité (voir encadré ci-dessous). Refuser certains usages et prendre du recul en cas de doute.

Dans la revue Réseaux, Louis VUARIN et Véronique STEYER définissent l'explicabilité de l'intelligence artificielle ainsi : « pour que l'IA soit bénéfique et non malfaisante, nous devons être en mesure de comprendre le bien ou le mal qu'elle fait à la société, et de quelle manière ce bien ou ce mal se produit ; pour que l'IA favorise et ne limite pas l'autonomie humaine, notre « décision sur qui doit décider » doit être éclairée par la connaissance de la manière dont l'IA agirait à notre place ; et pour que l'IA soit juste, nous devons veiller à ce que la technologie – ou, plus précisément, les personnes et les organisations qui la développent et la déploient – soit tenue pour responsable en cas de conséquence négative, ce qui nécessiterait à son tour une certaine compréhension des raisons qui ont conduit à cette conséquence. Plus généralement, nous devons négocier les termes de la relation qui se noue entre cette technologie transformatrice et nous, sur des bases facilement compréhensibles pour Monsieur et Madame Tout le Monde » 109

Il existe des marges de manœuvre et le principe « pas d'IA sans humain » que j'ai érigé chez Starterre prend ici tout son sens. Il ne s'agit pas seulement de souveraineté ou de contrôle technique mais également de responsabilité éthique. Dans un secteur automobile en constante évolution, chahuté et très concurrentiel, résister à l'injonction de « toujours plus d'IA » nécessite une forte conviction, des valeurs humaines bien ancrées et du « bon sens paysan ».