L’intelligence artificielle (IA) est partout, de nos téléphones aux assistants virtuels en passant par les recommandations de nos plateformes de streaming. En quelques mois seulement, les usages de ChatGPT ont investi de très nombreuses entreprises, parfois de manière non officielle, changeant la donne dans la rédaction de textes, de rapports, de contenus marketing, et plus encore.
Pro Vs anti IA, entre enthousiasme et inquiétude
Les partisans de l’IA mettent en avant les avancées impressionnantes réalisées notamment dans des domaines comme la santé, la recherche, l’automatisation industrielle. L’IA augmenterait l’efficacité, améliorerait la productivité et résoudrait des problèmes complexes plus rapidement que les humains. Elle aurait aussi un potentiel économique considérable et serait capable, selon eux, de créer plus d’emplois qu’elle n’en supprimerait.
D’autres au contraire, s’inquiètent du remplacement potentiel des emplois humains par des robots et des algorithmes d’IA. Les critiques portent aussi sur les biais discriminatoires, la dépendance, la collecte massive de données et le potentiel de surveillance gouvernementale.
L’utilisation de l’IA pose de nombreuses questions d’ordre éthique et économique. En juillet 2023, le Comité national pilote d’éthique du numérique a exprimé sa volonté d’imposer des obligations plus strictes aux modèles d’intelligence artificielle « mis sur le marché » (Source Le Monde). En novembre de la même année, OpenAI lance le programme “Preparedness“, une unité spéciale qui aura la charge d’anticiper les utilisations malveillantes de l’IA.
Pour mieux comprendre ces enjeux , nous vous proposons un tour d’horizon des implications éthiques qui se cachent derrière cette technologie.
Limitations et considérations éthiques de l’IA
1. Emploi et automatisation : L'IA, ce recruteur impitoyable ?
Des métiers vont-ils disparaître ? D’autres vont-ils émerger ? Selon une étude de Goldman Sachs, l’IA pourrait menacer l’équivalent de 300 millions de travailleurs à temps plein dans les grandes économies, ce qui entraînerait un chômage généralisé. En même temps, un rapport publié en août 2023 de l’Organisation Internationale du Travail (OIT) explique que l’intelligence artificielle générative devrait compléter plutôt que détruire des emplois…
Le travail de bureau est la catégorie la plus exposée aux technologies d’IA et la part de l’emploi des femmes pouvant être affectée par l’automatisation est plus de deux fois supérieure. Comment les entreprises vont-elles réagir face à cette automatisation ? Vont-elles transformer les emplois existants en favorisant le développement de nouvelles compétences ?
2. Désinformation : l'IA, notre meilleure source de fake news
L’IA peut générer du contenu crédible, mais potentiellement trompeur. On parle des “hallucinations de l’IA“, où l’outil génère des informations inexacts avec un fantastique aplomb digne d’un homme politique. Non seulement ces informations sont potentiellement trompeuses pour l’utilisateur mais elles peuvent également être exploitées de manière malveillante, menant à la propagation de fausses informations ou de théories du complot.
De fausses photos créées par l’IA Midjourney circulent largement sur les réseaux sociaux. Elles mettent en scène de manière très réaliste des personnalités comme Donald Trump, Emmanuel Macron ou encore le pape François vêtu d’une longue doudoune blanche.
Suffit-il de savoir maîtriser l’usage de l’iA pour contourner les dangers potentiels et savoir détecter la désinformation ? La prolifération des fake news fait courir le risque que nous soyons saturés par des contenus pas forcément vérifiés ou vérifiables.
3. Protection des données : ChatGPT, glouton insatiable ?
En avril 2023, Montpellier interdit temporairement ChatGPT à ses agents craignant que l’IA ne siphonne les données de la collectivité. C’est la première ville en France à prendre officiellement des mesures contre l’arrivée de ChatGPT dans son système informatique.
Lorsque vous utilisez un outil d’IA pour traiter des données, veillez bien à ne pas transmettre de données sensibles et à les anonymiser. Toute personne impliquée dans l’utilisation de l’IA doit comprendre comment les données nourrissent les algorithmes. Ceci étant dit il existe des solutions comme le “LLM custom” pouvant être utilisées pour anonymiser les données au sein d’une entreprise, offrant une protection supplémentaire contre les violations de données.
Récemment, avec le lancement de MyGPTs, qui offre la possibilité de créer des chatbots sans compétences en programmation, une nouvelle fonctionnalité a été introduite : une case à cocher permettant aux utilisateurs de refuser que leurs données soient utilisées pour l’entraînement de l’IA
4. Droit d'auteur : l'IA a un incroyable talent ?
L’IA peut créer de la musique. Elle peut fabriquer des morceaux de toutes pièces, avec la voix que vous voulez, sur les paroles que vous voulez. En août 2023, grâce à l’IA, un beatmaker avait rajouté la voix de l’artiste Angèle sur un morceau des rappeurs Heuss l’Enfoiré et Gazo. Face au succès du titre, la chanteuse l’a repris lors d’un concert à la Fête de l’Humanité.
Qui possède le contenu généré par une IA ? La question se pose, en particulier dans des domaines créatifs. L’IA peut-elle avoir des droits d’auteur ? Le débat reste ouvert sur la question de savoir si l’utilisateur ou le créateur de l’IA détient ces droits. Au moment où j’écris cet article, dans une proposition de loi du 12 septembre 2023, les parlementaires proposent que les œuvres générées par des IA soient protégées par le droit d’auteur.
5. Empreinte énergétique de l'IA : supercalculateur, supercalamité énergétique
L’IA générative fait exploser la consommation d’eau des géants de la tech. Ces modèles nécessitent une quantité considérable de puissance de calcul, avec des répercussions sur la consommation d’énergie. Des centres de données gourmands en eau, en électricité qui alimentent ces modèles ont une énorme empreinte carbone. Les “superordinateurs” engloutissent une quantité considérable d’électricité et, par ricochet, dégagent une chaleur intense. Ils fonctionnent grâce à des tours de refroidissement et un système de pompage d’eau en cas de surchauffe. (Voir Savez-vous combien d’eau consomme un prompt ? de Clubic)
6. Surveillance : l'IA, Big Brother en code source
Lorsque l’on évoque la surveillance par le biais de l’IA, l’association la plus courante est celle de la reconnaissance faciale. Des recherches ont mis en évidence un autre type de surveillance de “management algorithmique“. Ce concept englobe la gestion des comportements humains et des relations professionnelles au moyen d’instructions codées dans des logiciels. (Voir Management algorithmique : surveillance ou confiance ? Mediapart)
Sous prétexte de veiller à la santé de l’équipe, certains outils d’IA peuvent analyser les communications d’équipe (par exemple, les messages Slack) pour détecter des signaux de stress ou de mécontentement, permettant au manager d’intervenir rapidement.
L'IA a 2 visages : génie créateur Vs spectre menaçant
Et vous qu’en pensez-vous (dites le nous en commentaire) ? L’IA est-elle le génie créateur, capable de révolutionner des secteurs entiers, de la santé à l’industrie, en passant par la culture ? Ou est-ce un spectre menaçant, soulevant des interrogations éthiques, juridiques et sociales aussi profondes que perturbantes ? Probablement les 2 à la fois et notre capacité à naviguer entre ces deux visages sera cruciale pour façonner un avenir équilibré et éthique.
L’histoire nous montre que l’humanité a su évoluer avec ses outils, mais l’IA est-elle un outil comme les autres ? Elle nous force à une introspection sur ce que signifie être humain à l’ère du numérique. Elle nous oblige aussi à une responsabilité collective : celle des concepteurs d’IA, des législateurs, des utilisateurs et de la société dans son ensemble.