Face à une industrie en pleine mutation, les activistes de l'IA repensent leur stratégie

Au printemps 2018, des milliers d'employés de Google ont fait pression sur l'entreprise pour qu'elle renonce à un important contrat d'intelligence artificielle avec le Pentagone. Le géant technologique s'est même engagé à ne plus utiliser son IA pour des armes ou certains systèmes de surveillance à l'avenir.
Cette victoire, survenue au milieu d'une vague de protestations sans précédent menée par les employés, a inspiré une nouvelle génération d'activistes technologiques dans la Silicon Valley. Mais sept ans plus tard, l'héritage de cette époque est plus complexe. Google a récemment révisé ses principes d'éthique de l'IA pour autoriser certains cas d'utilisation auparavant interdits, et les entreprises du secteur lancent à un rythme effréné de nouveaux outils d'IA performants.
Mardi, l'AI Now Institute, un groupe de réflexion qui étudie les implications sociales de l'intelligence artificielle, a publié un rapport exhaustif sur le paysage actuel de l'IA, détaillant la concentration du pouvoir entre les mains d'une poignée d'entreprises dominantes qui ont façonné le discours sur cette technologie à leur avantage. Les auteurs suggèrent de nouvelles stratégies pour permettre aux militants, aux groupes de la société civile et aux travailleurs de prendre le pouvoir dans un environnement radicalement transformé.
Les auteurs citent les déclarations de personnalités du secteur technologique qui affirment que l'avènement d'une superintelligence toute-puissante est imminent – une évolution qui, selon eux, ouvrira la voie à une ère utopique où l'humanité pourra rapidement trouver des remèdes contre le cancer ou résoudre le problème du changement climatique. Cette idée est « devenue l'argument qui domine tous les autres, une avancée technologique à la fois si abstraite et absolue qu'elle prime par défaut sur les autres moyens, voire sur toutes les autres fins », écrivent les auteurs du rapport.
Parmi ses recommandations, AI Now exhorte les groupes de défense et de recherche à relier les enjeux liés à l'IA à des préoccupations économiques plus larges, telles que la sécurité de l'emploi et l'avenir du travail. Alors que les impacts négatifs de l'intelligence artificielle étaient auparavant cachés ou abstraits pour les employés de nombreux secteurs, des parcours professionnels autrefois stables sont désormais perturbés dans de nombreux secteurs de l'économie, de l'ingénierie logicielle à l'éducation.
Les auteurs voient une opportunité pour les travailleurs de résister au déploiement de l'IA et de s'opposer aux discours de l'industrie technologique qui présentent des conséquences comme des pertes d'emplois massives comme inévitables. Cette démarche pourrait s'avérer particulièrement efficace dans un climat politique où les Républicains se positionnent comme le parti de la classe ouvrière, bien que l'administration Trump soit opposée à la plupart des réglementations sur l'IA.
Les auteurs citent plusieurs études de cas dans le rapport où des travailleurs ont réussi à stopper le déploiement de l'IA dans leurs entreprises ou ont veillé à la mise en place de garde-fous. Citons par exemple le syndicat National Nurses United, qui a organisé des manifestations contre l'utilisation de l'IA dans le secteur de la santé et mené sa propre enquête montrant que cette technologie peut compromettre le jugement clinique et menacer la sécurité des patients. Ce militantisme a conduit plusieurs hôpitaux à mettre en place de nouveaux mécanismes de surveillance de l'IA et à réduire le déploiement de certains outils automatisés.
« Ce qui est unique à l'heure actuelle, c'est cette volonté d'intégrer l'IA partout. Cela confère aux entreprises technologiques et à leurs dirigeants de nouveaux pouvoirs qui vont bien au-delà de la simple amélioration de leurs finances », explique Sarah Myers West, codirectrice exécutive d'AI Now et l'une des auteures du rapport. « Nous sommes confrontés à une profonde transformation sociale, économique et politique de nos vies, qui nécessite une nouvelle approche de la prise en compte des méfaits de l'IA. »
Le rapport est plus pessimiste quant au pouvoir actuel des régulateurs. Ces derniers, soulignent les auteurs, ont ouvert une série d'enquêtes sur les entreprises d'IA ces dernières années, qui n'ont jusqu'à présent débouché que sur peu de résultats tangibles, comme une loi nationale sur la confidentialité numérique aux États-Unis. Bien que les responsables évoquent souvent la nécessité de limiter le pouvoir de monopole et la collecte de données personnelles, « une grande partie de ces activités n'a pas abouti à des mesures d'application concrètes ni à des changements législatifs, ni à la définition de lignes claires interdisant des pratiques commerciales anticoncurrentielles spécifiques », selon le rapport.
Amba Kak, codirectrice exécutive d'AI Now et coauteure du rapport, affirme que son organisation « s'est beaucoup concentrée » sur les politiques gouvernementales comme moyen d'opérer un changement, mais ajoute qu'il est désormais évident que ces leviers seront inefficaces si le pouvoir n'est pas construit d'en bas. « Nous devons nous assurer que l'IA soit perçue comme un enjeu qui affecte la vie matérielle des gens, et non comme une technologie abstraite. »
Les auteurs soulignent qu'il ne s'agit pas de présenter différents produits ou technologies d'IA sous un angle spécifique. « Nous ne cherchons pas à déterminer si une technologie comme ChatGPT est efficace ou non », explique Kate Brennan, directrice associée chez AI Now et co-auteure du rapport. « Nous nous demandons s'il est bénéfique pour la société que ces entreprises aient un pouvoir irresponsable », ce qui peut être tout à fait compatible avec « l'idée que certains produits sont efficaces, intéressants et stimulants ».
wired