Intelligence artificielle (IA) générative

Coûts de l'IA générative

Toutes les technologies ont leurs coûts. Par exemple, outre le fait de fournir un outil pour faire de l'exercice et un moyen de transport sans émissions, les bicyclettes peuvent entraîner des vols, des accidents et même la mort.

Une question à prendre en compte avec une nouvelle technologie est la suivante : Quel serait un coût sociale trop élevé pour cette technologie ? Cette question est examinée en médecine, par exemple, et est réglementée par les gouvernements. Si un médicament provoque trop de réactions indésirables et d'effets secondaires, il est retiré (ou n'est jamais rendu public en premier lieu), même s'il peut être bénéfique à d'autres niveaux. À l'ère de la crise climatique, de l'accroissement des inégalités et de l'insécurité sociale et économique, et de la menace croissante pour la vérité et la démocratie, quel niveau de risque de l'IA générative l'emporte sur ses avantages ? C'est une question à considérer sérieusement. Lorsque les créateurs d'IA eux-mêmes sonnent l'alarme selon laquelle l'IA a le potentiel de menacer l'existence continue de l'humanité, aussi minime soit ce potentiel, est-il sage d'adopter précipitamment les outils de l'IA pour suivre les tendances et ne pas prendre du retard sur le numérique ?

Pour encourager la réflexion et la prudence, ce guide commence par un examen des coûts de l'IA. En examinant les préjudices existants et potentiels de l'IA générative, vous pourrez par exemple :

  • décider si ces préjudices constituent un point de non-retour pour l'utilisation de ces outils tels qu'ils existent dans leur état actuel, principalement non réglementé
  • décider de plaider en faveur d'une réglementation plus stricte du développement et du déploiement de l'IA
  • décider de continuer à utiliser l'IA générative, mais avec retenue et une considération attentive des coûts

La section suivante présente une liste, établie par Rebecca Sweetman de Queen's University, des risques créés par les grands modèles de language (GML) qui permettent le développement des outils d'IA générative actuels.

Certains préjudices causés par les grands modèles de langage (GML) (infographie interactive)

Cette infographie est une adaptation et traduction de "Some harm consideration of Large Language Models (LLMs)" par Rebecca Sweetman, 2023 partagé avec la license CC BY-NC-SA. "Les préjudices causés par les Grands Modèles de Langage (GML)" est sous license CC BY-NC-SA par la bibliothèque de l'École de technologie supérieure.

Certains préjudices causés par les grands modèles de langage (GML) (texte seulement)

Empreinte carbone

L'empreinte carbone des grands modèles de langage (GML) n'affecte pas seulement notre environnement, mais aussi notre économie. Il est important de reconnaître que l'impact du carbone est externalisé vers le grand public; il n'est pas pris en compte dans les coûts opérationnels de la plateforme, ni considéré comme relevant de sa responsabilité.

Cependant, les dépenses liées à la forte consommation d'énergie constituent un argument publiquement acceptable en faveur de la privatisation et de la marchandisation de ces plateformes, en les éloignant des ressources publiques et libres au profit de modèles basés sur l'abonnement et destinés à générer des bénéfices pour les entreprises et les investisseurs. Ainsi, alors que l'impact négatif du carbone est inégalement mais publiquement partagé, le bénéfice et le profit de l'utilisation sont privatisés.

L'empreinte carbone s'étend sur les trois temporalités de la conception et du développement, de l'opérationnalisation et de l'héritage futur.

Industries extractives

L'IA nécessite des quantités phénoménales de ressources de la part des industries extractives (exploitation minière, pétrolière et gazière). Cette situation a des répercussions écocides, racistes et socio-économiques à l'échelle mondiale. Les industries extractives continuent de peser de manière disproportionnée sur les pays du Sud à travers des politiques et des structures prédatrices de finance/dette internationale et de capitalisme mondialisé.

Les industries extractives nécessitent également une très grande quantité d’eau.

Industries liées à la récupération

Nous devons également tenir compte de la fin de vie de produits associés à chaque amélioration technologique. Bien qu'elles ne soient pas propres aux grands modèles de langage (GML), les exigences informatiques liées à l'IA et la demande des consommateurs augmenteront le volume des déchets électroniques créés et expédiés vers les pays du Sud pour la récupération toxique de métaux précieux.

Les impacts intergénérationnels sont écocides pour l'air, le sol, l'eau et les écologies localisées ; racistes dans les effets sur la santé humaine, l'emploi et les géographies ; et socio-économiques, pesant de manière disproportionnée sur les personnes pauvres, en particulier dans les pays du Sud.

Exploitation humaine pour « entraîner » les modèles

Les ensembles de données sont « formés » par des pratiques d'exploitation et de travail racialisé, notamment en engageant des travailleurs du Sud pour visionner des images traumatisantes et des contenus marqués comme racistes, sexistes et offensants, par exemple.

La formation d'ensembles de données d'IA comporte également des processus internes qui perpétuent les préjudices liés au genre.
[ Dans leur projet Excavating AI, Kate Crawford et Trevor Paglen ont révélé :  « Nous trouvons ici une hypothèse implicite : seuls les corps « masculins » et « féminins » sont « naturels » ». ]

Travail d'extraction des utilisateurs, propriété intellectuelle / droits d'auteur et protection de la vie privée

Ignorant les appels de longue date des éthiciens de l'IA, ChatGPT et d'autres grands modèles de langage (GML) ne parviennent pas à traiter de manière proactive leurs biais en amont, soit avant d'être mis à la disposition du grand public. Au lieu de cela, ces systèmes s'appuient sur le travail extractif des utilisateurs pour tester et améliorer leur plateforme (comme la fonction « pouce levé » ou « pouce baissé » dans ChatGPT). Cela ajoute une valeur commerciale significative à ces produits grâce au travail gratuit, voire payant, de leurs utilisateurs.

Des problèmes de propriété intellectuelle et de droits d'auteur ont également été signalés. Les résultats générés par ChatGPT deviennent la propriété intellectuelle de l'utilisateur bien que ces informations aient été déconstruites et réassemblées à partir de nombreuses autres sources ou modèles sémantiques issus du travail intellectuel d'autrui. Des préoccupations en matière de droits d'auteur ont été exprimées en particulier pour les générateurs d'images d'IA qui transforment des invites textuelles en nouvelles images
« originales » qui peuvent en fait s'inspirer largement d'images préexistantes et d'œuvres créatives produites par d'autres sans citation ni respect des conditions de droit d'auteur.

Les questions de protection de la vie privée sont également un sujet de préoccupation. Dans Ethical and social risks of harm from Language Models (2021), les auteurs de DeepMind écrivent : « En fournissant des informations véridiques sur les caractéristiques personnelles des individus, des violations de la vie privée peuvent se produire. [...] Ces informations peuvent faire partie des données d'apprentissage sans que la personne concernée n'en soit responsable, par exemple en cas de fuite de données ou lorsque d'autres personnes publient des informations privées à leur sujet sur des réseaux en ligne."» (traduction libre)

Bien que ChatGPT semble prendre des mesures pour résoudre ces problèmes, lorsqu'on lui demande directement quels sont les risques en matière de protection de la vie privée, il indique les points suivants :

  • Violation de données : Bien que ChatGPT ne collecte ni ne stocke d'informations personnelles, le serveur ou la plateforme qui héberge le modèle d'IA pourrait être vulnérable à des violations de données ou à des attaques de piratage, ce qui pourrait exposer les données de l'utilisateur.
  • Divulgation involontaire : Les chatbots comme ChatGPT peuvent parfois mal interpréter les données de l'utilisateur ou fournir des réponses inexactes, ce qui pourrait révéler par inadvertance des informations sensibles ou confidentielles.
  • Accès à des tiers : ChatGPT peut utiliser des API ou des services tiers pour fournir certaines fonctionnalités ou s'intégrer à d'autres applications, ce qui pourrait potentiellement exposer les données des utilisateurs à ces fournisseurs tiers.
Automatisation des emplois à bas salaires = augmentation de la précarité et du chômage pour les personnes marginalisées

Les GML offrent la possibilité d'automatiser un large éventail d'emplois faiblement rémunérés, y compris le service à la clientèle. Ce préjudice peut entraîner une augmentation de la précarité ou du chômage pour les personnes les plus marginalisées (racisées, handicapées, genrées, pauvres, etc.) qui sont actuellement employées de manière disproportionnée dans des emplois moins bien rémunérés.

DeepMind (entreprise spécialisée dans l'intelligence artificielle appartenant à Google) a identifié les effets négatifs des GML sur l'emploi : « augmentation des inégalités et effets négatifs sur la qualité de l'emploi », « affaiblissement des économies créatives » et « déplacement des employés de leur rôle » conduisant à « une augmentation du chômage ». (traduction libre)

Conçu pour les plus privilégiés

Les GML sont conçus pour profiter à ceux qui détiennent déjà le plus de pouvoir et de privilèges. Cela se voit dans leurs modèles d'investissement, leurs stratégies de marketing et leur commercialisation. Leur conception et leur développement n'ont pas donné la priorité à un engagement éthique avec les communautés historiquement marginalisées, et leur mise en œuvre ne recherche pas leur soutien, même si l'héritage futur des GML affecte de manière disproportionnée ceux qu'ils marginalisent encore plus.  

« La plupart des technologies linguistiques sont conçues pour répondre aux besoins de ceux qui jouissent déjà des plus grands privilèges dans la société. Considérons, par exemple, qui est susceptible d'avoir à la fois les ressources financières pour acheter un Google Home, un Amazon Alexa ou un appareil Apple avec Siri installé et de parler confortablement une variété de langue qu'ils sont préparés à maîtriser. En outre, lorsque [les GML] encodent et renforcent les préjugés hégémoniques, les préjudices qui en découlent sont plus susceptibles de toucher les populations marginalisées qui, même dans les pays riches, sont les plus susceptibles de faire l'expérience du racisme environnemental ». (traduction libre - Source

Les dessins et modèles confirment et amplifient les préjugés liés aux privilèges

Comme les prémisses de la conception, du développement et de l'opérationnalisation donnent la priorité à l'accès, à l'utilisation, à l'expérience de l'utilisateur et aux avantages pour les privilégiés, il est probable que le retour d'information, le remaniement et le redéveloppement se poursuivront dans la même veine...

Discrimination en matière d'accès

Tous n'auront pas le même accès aux plateformes de GML, d'autant plus qu'elles sont de plus en plus privatisées et commercialisées dans un monde globalisé conçu pour profiter aux privilégiés. Il existe des inégalités d'accès immédiates sur le plan géopolitique.
Il s'agit notamment de :

  • l'accès physique et socio-économique à lnternet, aux téléphones intelligents ou aux ordinateurs
  • l'inégalité d'accès pour les femmes et les filles
  • l'accessibilité et la facilité d'utilisation pour les personnes handicapées  
  • l'accès dans les régions qui pratiquent la censure  
  • l'accès « freemium » ou par paliers à la qualité des services en fonction des moyens socio-économiques.

DeepMind a identifié les inconvénients d'un « accès disparate aux avantages en raison de contraintes liées au matériel, aux logiciels et aux compétences ». (traduction libre)

Reproduit et amplifie les barrières à l'accès

Les grands modèles de langage (GML) progresseront et pour ce faire, ils s'appuieront sur les données et les commentaires des utilisateurs initiaux, qui seront de manière disproportionnée des personnes privilégiées. Sans une base d'utilisateurs
« équitables » pour alimenter ce retour d'information, les GML continueront à reproduire des inégalités et des injustices qui vont de l'exclusion basée sur le genre et les orientations sexuelles, les capacités, la race, la classe sociale et pouvant même aller jusqu'au génocide culturel (en contribuant à l'invisibilité de certaines cultures).

Données occidentales biaisées d'un point de vue ontologique ou épistémique

Étant donné le parti pris occidental et anglophone dominant des ensembles de données des grands modèles de langages (GML), on se heurte au problème suivant : des mauvaises données à l'entrée produiront nécessairement des mauvaises données à la sortie. D'un point de vue sémantique, ontologique et épistémique, les GML sont formés pour reproduire la connaissance à travers les normes occidentales dominantes. Les préjudices causés par les GML continueront donc à réifier les normes occidentales dominantes d'oppression.

Les données biaisées reproduisent et amplifient les préjugés et l'exclusion

Au fil du temps, les grands modèles de langage (GML) réécriront et/ou tairont des histoires, produisant l'effacement de cultures qui existent en dehors des ensembles de données dominants (et biaisés). Cela amplifiera des inégalités et des injustices qui vont de l'exclusion basée sur le genre et les orientations sexuelles, les capacités, la race, la classe sociale et pouvant même aller jusqu'au génocide culturel (en contribuant à l'invisibilité de certaines cultures) - en particulier en ce qui concerne la reproduction des connaissances. De cette manière, les GML peuvent être considérés comme une voie de recolonisation, la technologie devenant de plus en plus un élément-clé des conceptions et des décisions sociétales qui reproduiront les ontologies et les épistémologies occidentales. 

La culture dominante toxique maintient des normes d'oppression

DeepMind (un groupe de réflexion de Google) a identifié « la discrimination, l'exclusion et la toxicité »  (traduction libre) comme les premiers d'une très longue liste de préjudices causés par les grands modèles de langage (GML). Le même rapport identifie également des préjudices découlant des utilisations malveillantes suivantes des GML : « rendre la désinformation moins chère et plus efficace ; faciliter la fraude, les escroqueries et les manipulations plus ciblées ; aider à la génération de codes pour les cyberattaques, les armes ou les utilisations malveillantes ; [et] la surveillance et la censure illégitimes » (Weidinger et al, 2021, traduction libre). Ils ont également identifié des préjudices liés à l'interaction homme-machine, à savoir « la création de possibilités d'exploitation de la confiance de l'utilisateur » et « la promotion de stéréotypes nuisibles en impliquant le genre ou l'identité ethnique » (Weidinger et al, 2021, traduction libre).

Les GML présentent également le risque de s'éloigner (encore plus) d'une vision féministe du monde relationnel, en reproduisant l'hégémonie patriarcale à travers nos normes numériques quotidiennes.

Discrimination, exclusion et préjudices continuels

Les grands modèles de langage (GML) reproduisent les normes culturelles dominantes toxiques.
Cet effet s'aggravera au fur et à mesure que les données biaisées des modèles se renforciront, perpétuant des inégalités et des injustices qui vont de l'exclusion basée sur les capacités, le genre, les oriententations sexuelles, la race, les moyens socio-économiques, le tout pouvant même aller jusqu'au génocide culturel (en contribuant à l'invisibilité de certaines cultures) et l'écocide.

Bien que les produits de type GML puissent essayer de limiter les réactions nuisibles produites par leurs ensembles de données et la formation de ceux-ci, les utilisations malveillantes ou néfastes (et parfois même les utilisations bénignes) sont toujours capables de concevoir des solutions de contournement qui produisent des résultats nuisibles. Compte tenu des climats politiques polarisés, de la vulnérabilité des institutions démocratiques due aux médias sociaux et d'autres normes toxiques déjà présentes, les utilisations malveillantes potentielles des GML sont préoccupantes.

L'impact réel de la réaffirmation des normes culturelles dominantes toxiques se fera sentir dans les politiques publiques, l'éducation, l'emploi, le logement, les relations amoureuses et la plupart des domaines de la vie où les relations peuvent être médiatisées par la technologie. Les fossés qui existent en raison des paradigmes dominants de la colonisation, du capitalisme, de la mondialisation, du racisme et du patriarcat se creuseront.

Si et/ou comment nous choisissons d'atténuer les dommages causés par le GML en dira long sur notre éthique culturelle. Continuerons-nous à adopter des modes de contrôle autoritaires par le biais d'une culture de la surveillance, du maintien de l'ordre et de l'application de la loi, en utilisant le pouvoir et la hiérarchie pour supprimer, légiférer et réglementer ? Allons-nous privilégier le réalisme capitaliste au détriment du bien-être de l'homme et de l'environnement et laisser les questions économiques dicter la marche à suivre, en reportant la responsabilité éthique sur l'illusion de la main invisible qui régit les décisions du marché?

Adaptation et traduction de "Some Harm Considerations of Large Language Models (LLMs) par Rebecca Sweetman, 2023, partagé avec la licence CC BY-NC-SA.
"Les préjudices causés par les Grands modèles de language (GLM)" est sous licence CC BY-NC-SA par la bibliothèque de l'École de technologie supérieure. 

Pour en savoir plus - Suggestions de lectures