IL FAUT S’ATTAQUER AUX « ANGLES MORTS » DE L’IA, ALERTENT DES EXPERTS INTERNATIONAUX

La croissance rapide de l'intelligence artificielle et son omniprésence dans nos vies font émerger des problèmes de gouvernance et d'encadrement, alertent l'UNESCO et le Mila (Institut québécois d'intelligence artificielle) dans un livre conjoint publié lundi.

Cet ouvrage, intitulé Angles morts de la gouvernance de l'intelligence artificielle, constitue un outil pour réfléchir au rôle que nous voulons que l'IA joue dans nos vies et dans le monde, tout en soulignant le besoin de cadres réglementaires pour mieux encadrer le développement de la technologie, pour tirer profit des occasions qu'elle offre et pour réduire les risques qu'elle pose, a expliqué dans un communiqué Benjamin Prud'homme, directeur général du département IA pour l'humanité à Mila.

Le document rassemble 18 articles écrits par diverses sommités mondiales du domaine qui font le portrait des multiples risques associés à ces technologies, passés entre les mailles du filet : influence sur les communautés autochtones et LGBTQ+, utilisation comme armes de guerre, biais des algorithmes, etc.

Ces problèmes, estiment les auteurs, prendront une place de plus en plus grande au cours des prochaines années, si bien que la gouvernance de l'IA est devenue une priorité mondiale.

Centralisation des pouvoirs

Deux des auteurs, à savoir le directeur scientifique du Mila, Joshua Bengio, et la spécialiste des implications sociales et politiques de l'intelligence artificielle Kate Crawford, ont discuté pour le lancement du livre de leurs craintes associées à la concentration du pouvoir lié à ces technologies.

La chercheuse a notamment déploré le fait que les systèmes d'intelligence artificielle capables de générer des images et textes en réponse à des commandes, tels ChatGPT et DALL-E, soient entre les mains d'à peine six compagnies. C'est l'une des industries les plus concentrées dans le monde, a-t-elle lancé.

Ces entreprises récupèrent des décennies, voire des siècles de pratiques artistiques, d'images, de mots et de codes, [...] et les attribuent ensuite à leurs propres systèmes qui ne profiteront qu'à très peu de gens, a ajouté Mme Crawford.

Joshua Bengio a quant à lui laissé entrevoir un futur où l'intelligence artificielle pourrait causer des perturbations aussi grandes que les bombes nucléaires. Et si seulement quelques personnes avaient ce pouvoir?

Le chercheur a d'ailleurs évoqué un danger pour la démocratie. Quelqu'un d'un peu stupide ou fou pourrait simplement appuyer [sur] le bouton, et nous serions tous perdants, a-t-il remarqué.

Selon M. Bengio, les gouvernements devront donc mettre en place des organisations en mesure de considérer l'intelligence artificielle comme un bien collectif. Le directeur scientifique du Mila a donné l'exemple du CERN, le laboratoire européen de physique des particules qui permet de mettre en commun l'expertise de nombreux pays.

Des biais implicites

L'intelligence artificielle ne possède pas de conscience. Elle assimile les valeurs et idéaux en fonction des données utilisées au moment de sa programmation. Plusieurs des auteurs du livre s'inquiètent ainsi de la vision du monde occidental dont ces technologies s'imprègnent, ainsi que des biais et préjugés qu'elles reproduisent.

En 2016, par exemple, des journalistes d'enquête de l'organisme ProPublica ont mis en lumière les failles de l'outil américain COMPAS, utilisé pour estimer le risque de récidive chez une personne accusée d'une infraction pénale. Les personnes noires étaient deux fois plus souvent jugées à haut risque, sans commettre, dans les faits, de récidive.

La présence de ces technologies dans les communautés autochtones met également en péril leurs droits fondamentaux garantis par la Déclaration des Nations unies sur les droits des peuples autochtones et devant reposer sur leur propre vision du monde.

Les chercheurs craignent ainsi que, si ces communautés ne sont pas incluses dans les développements technologiques, celles-ci mènent à de nouvelles formes de colonialisme.

L'IA comme arme de guerre

L'intelligence artificielle s'implante rapidement jusque dans les rangs de l'armée. Plus de 130 systèmes militaires peuvent déjà localiser des cibles de manière autonome.

Elle permet, selon les auteurs, le développement de technologies sophistiquées d’hypertrucage qui pourraient mener à une escalade de conflits et à une instabilité à l’échelle mondiale.

Les chercheurs insistent de ce fait sur l'urgent besoin de réglementations entourant la militarisation de l'IA. Plus encore, ils en appellent à une large réflexion sur le rôle de ces technologies dans tous les secteurs, de l'éducation à la santé, en passant par la cybersécurité.

Des conversations mondiales et inclusives sont essentielles pour nous aider à faire la lumière sur ces défis et à imaginer de nouvelles façons de les comprendre, puis de les relever, affirment-ils.

2023-03-20T17:35:44Z dg43tfdfdgfd