Séminaire Intelligence Artificielle – Bilel Benbouzid
Dans la continuité du séminaire ouvert en 2020 et la publication de notre ouvrage « maitriser l’IA au service de l’action publique : une responsabilité individuelle et collective » sorti en janvier 2023, la chaire continue d’investiguer la thématique de la régulation de l’IA au travers du séminaire « à la recherche du politique de l’IA » sous forme d’enquête animé par Bilel Benbouzid à la rentrée 2023.
Ce cours a comme but d´introduire les participant.e.s à une sociologie du politique de l’intelligence artificielle. L’usage du substantif du politique nous permet ici de qualifier un mode d’existence de l’intelligence artificielle qui renvoie aux formes d’actions collectives qui visent à contrôler la manière dont l’IA s’insère dans notre vie commune. Ainsi, on ne se référera pas (seulement) à la politique de l’intelligence artificielle, c’est-à-dire à la manière dont elle est mobilisée par les femmes et les hommes politiques ou dans le cadre de l’action gouvernementale. En se référant plutôt au politique, nous questionnerons les rapports entre l’IA et le pouvoir (celui de la science comme celui de la fiction), la morale et le droit. Le politique de l’IA n’est pas un donné. Comme c’est toujours le cas en matière de technique, son orientation est à la fois sous-déterminé (on parvient difficilement à se la figurer) et surdéterminé (elle semble imposer sa logique propre). Et la production du politique de l’IA est d’autant plus difficile à saisir qu’elle se distribue sous une multitude de lieu et de forme inattendue. Le politique de l’IA se constitue alors comme une énigme semée de controverses que l’enquête vise à documenter, avec le plus de précision possible. Cette enquête va nous faire cheminer dans la multiplicité des formes d’actions collectives qui tentent d’avoir une prise sur l’IA.
Nous proposons une boussole permettant de situer ces différentes formes d’actions collectives, en cartographiant les lieux, les acteurs et les approches qui donnent à voir comment se construit le politique de l’IA. Cinq arènes normatives sont identifiées, soit : les spéculations de la science-fiction sur les dangers d’une superintelligence et le problème du contrôle de son alignement aux valeurs humaines ; l’auto-responsabilisation des chercheurs développant une science entièrement consacrée à la sureté (AI safety) et la certification technique des machines ; la moralisation des calculs du machine learning comme forme de savoir situé ; la régulation européenne du marché par le contrôle de la sécurité du fait des produits et le droit des responsabilités qui lui est associé ; enfin la mise en droits fondamentaux de l’IA.
Le cours est envisagé comme un compte rendu détaillé d’enquête. Les séances sont structurées autour des cinq différentes arènes :
Séance 1 : Cartographie du politique de l’IA
Sociogenèse de l’IA (un peu d’histoire, dans les grandes lignes) ; L’IA comme problème public (surveillance, guerre, propagande, terrifiantes émotions, bizarreries, justice sociale, travail, environnement) ; De quelle intelligence parle-t-on ? ; Le machine learning, une victoire à la Pyrrhus sur l’intelligence ; L’IA comme syntagme nominal rhétorique ; La cartographie sociologique de la régulation de l’IA ; Proposition d’une représentation stylisée pour mieux se diriger ; La notion de mode d’existence ; L’IA au croisement des modes d’existence de la fiction, de la science, de la morale et du droit.
Séance 2 : La place des imaginaires : science et politique fiction
L’IA comme fiction ; Les trois topos de la science-fiction autour de l’IA ; De la technique comme fiction à la fiction comme pratique sociale ; Le problème de la perte du contrôle ou comme l’histoire se répète ; Les frontières brouillée de la fiction et de la réalité ; l’intelligence artificielle générale comme problème de degrés de fictionnalité et de référentialité ; les fictions de l’IA comme récits instaurateurs de la normativité ; Bataille des imaginaires ; Petite victoire de la singularité.
Séance 3 : Fiction Science : AI Alignement
Le ruissellement de la fiction sur la science ; AI alignement comme « Fiction Science » ; Auto-responsabilisation des scientifiques ; Situer la rhétorique du moratoire ; Prendre au sérieux les sciences du contrôle de l’IA ; Le réflexe de la vérification formelle du logiciel ; La sûreté de l’IA peine à trouver son formalisme ; la robustesse une sûreté molle ; L’explicabilité ou comment les experts rêvent encore d’objectivité mécanique.
Séance 4 : Epistémologie sociale du machine learning.
L’IA comme système sociotechnique ; La justice sociale révélatrice du politique de l’IA ; Le cas de la Fairness dans le machine learning ; La conférence FACCT ou l’opérationnalisation de l’épistémologie du point de vue ; Pour devenir scientifique le machine learning doit tourner le dos au réalisme métrologique ; contre l’objectivité mécanique ; L’éthique de l’IA comme épistémologie des vertus ; l’interprétation comme vertu épistémique.
Séance 5 : Anatomie politique de l’AI Act
De quelle politique l’AI ACT est-elle le nom ? Un pot-pourri des multitudes orientations, mais une domination du dogme du marché ; Une logique classique de régulation du risque industriel ; 90 % des productions en matière d’IA relèveront d’une logique de la compliance.
Séance 6 : La difficile mise en droit fondamentaux
« Mais qu’est-ce que les droits fondamentaux viennent faire là-dedans? » ; La place des droits fondamentaux dans l’AI ACT ; sociologie contrefactuelle des droits fondamentaux dans l’IA.
Séance 7 : Gouvernance de facto par l’Open Source
L’auto-régulation par l’Open Source ; le cas d’Hugging Face
Séance 8 : Pour conclure : Les illusions perdues du contrôle de l’IA ?
L’enquête révèle quelques indices pour comprendre l’impuissance collective à contrôler l’IA ; Il faut mieux faire exister le politique de l’IA ; la tentation de l’interdiction.
L’inscription au séminaire est disponible ici (https://enquetes.sciencespo-lyon.fr/index.php?r=survey/index&sid=632922&lang=fr)