Dans ce projet, nous explorons une partie de la logique, des processus et des outils que les personnes au pouvoir utiliseront pour soutenir la prise de décision dans des projets climatiques technopolitiques à grande échelle comme la géo-ingénierie – la (ré)ingénierie du climat mondial. Nous avons collaboré avec deux outils typiques d’aide à la décision pour créer ce travail – l’intelligence artificielle (IA) et les cartes – qui sont tous deux historiquement des outils de privilège et de pouvoir.
L’IA (l’apprentissage machine dans ce cas) est un outil qui présente une logique obscure, biaisée par les vastes données à partir desquelles elle apprend et les entrées qu’elle reçoit. Nous avons nourri l’outil d’IA de concepts éthiques, de contradictions et d’images de paysages. L’outil IA a généré des images d’un monde qu’il « croit » représente le mieux nos entrées apparemment incompréhensibles. En ce sens, l’outil d’IA offre son point de vue sur les interrogations éthiques liées à la géo-ingénierie que nous lui avons fournies. Nous avons ensuite « cartographié » la perspective de l’IA.
Une carte est également un outil qui intègre des biais et une perspective particulière. Elle a le pouvoir de changer notre vision du monde et d’influencer nos décisions. Par exemple, la carte la plus commune qui a été faite au 16ème siècle par un explorateur européen blanc, élargit de manière proportionnelle l’hémisphère occidental, transmettant ainsi une impression d’importance et de pouvoir à cette région. Une carte, bien que présentée comme une représentation objective, altère la réalité.
Il s’agit d’une conversation entre les perspectives et la puissance de certains outils utilisés dans la géo-ingénierie, et ceux des personnes qui les manient.
Dans des contextes technopolitiques tels que la géo-ingénierie, comment les décideurs pourraient-ils rencontrer et réagir aux biais intégrés dans leurs outils, alors que certains biais menaceront de saper les structures de pouvoir existantes, et d’autres de les amplifier?
Le projet Calibrating Stretched Transparency a été généreusement soutenu par le Fonds Scotiabank pour l’IA et la société de l’Université d’Ottawa, les facultés d’ingénierie et des arts (uOttawa) et le Conseil de recherches en sciences humaines du Canada.