Skip to main content
Chargement Évènements

« All Évènements

  • Cet événement est passé

Intelligence artificielle et épistémologie des « boites noires »

29 juin 2017 à 10 h 00 min - 30 juin 2017 à 13 h 00 min

Intelligence artificielle et épistémologie des « boites noires »

Séminaire transdisciplinaire en préparation des Entretiens du Nouveau Monde Industriel sur le thème de la « bêtise artificielle » (19-20 décembre 2017)

 

Jeudi 29juin 2017 de 10h à 18h

Vendredi 30 juin 2017 de 10h à 13h

Salle Triangle du Centre Pompidou (entrée sur la Piazza à droite de l’entrée principale)

Inscriptions : contact@iri.centrepompidou.fr

 

Objectifs du séminaire

 

Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, ce séminaire du projet ANR Epistémè se propose d’analyser l’impact des instruments scientifiques sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

 

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les « boîtes noires » que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

 

Il s’agira en particulier d’analyser les problèmes posés par les instruments scientifiques numériques dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agit ici d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucun science n’est possible, et de prescrire autant que possible, dans les champs scientifiques concernés, des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

 

Ces travaux qui seront menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon aussi bien qu’en mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Karl Popper et de Jack Goody, parmi bien d’autres, ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine. C’est pourquoi ils seront conduits dans la perspective d’une réflexion plus générale sur les enjeux de ce qui est appelé intelligence artificielle.

 

Dans le champ de l’astrophysique, et pour aborder l’énorme volume de données d’observation des télescopes, il faut concevoir des « pipelines de réduction de données » qui convertissent les données de la chaîne de détection en cartes et images. Le risque est ici d’abandonner ces procédures algorithmiques aux « boîtes noires ». Problématiser et formaliser le fonctionnement de ces instruments numériques implique d’incorporer par exemple aux instruments d’observation et de traitement des outils d’annotation, de visualisation et d’interprétation de l’ensemble de la chaîne de fonctionnement. Il s’agit en cela d’ouvrir la boîte noire afin de dissiper l’opacité épistémique (Humphreys, 2004) due au développement d’une pléthore de nouveaux instruments pour la recherche et l’expérimentation par exemple par le passage de la base de données au traitement en vue de produire des « big data« , l’analyse des données de flux en temps réel, ou encore l’utilisation d’objets connectés. Cette problématique s’impose à présent en archéologie, en biologie et en fin de compte dans pratiquement toutes les disciplines, des mathématiques aux sciences de l’homme et de la société, ce qui constitue l’objet des digital humanities et des digital studies. Dans le cas plus spécifique des sciences sociales, la question interfère directement avec les pratiques de la vie quotidienne : le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes généralise ces questions tout en mettant en évidence les processus performatifs induits par la vitesse de traitement des informations par les algorithmes prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles encore très peu théorisées qui ont pénétré les marchés à travers le « capitalisme linguistique » (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne atteignent désormais aussi bien la médecine dite 3.0, également appelée infomédecine, la gestion urbaine, et bien sûr la conception et la production robotisée. La question qui se pose à travers tous ces niveaux, si hétérogènes qu’ils puissent paraître, est la fonction du calcul, les bénéfices qui peuvent en être attendus, les conditions dans lesquelles il peut être mis au service d’une délibération, qu’elle soit scientifique ou citoyenne, ou les deux, ou au service d’une inventivité sociale, et les surdéterminations induites par les formats et architectures de données

 

Programme

 

Jeudi 29juin 2017

10h-13h

L’intelligence artificielle et la fonction du calcul

  • Bernard Stiegler, philosophie (IRI)
  • David Bates, histoire des sciences (UC Berkeley)

Intelligence artificielle et connaissance objective : une pharmacologie de la boite noire comme épistémologie sans erreur humaine et manipulation inhumaine de l’humanité.

  • Giuseppe Longo, mathématiques et biologie (ENS)

L’intelligence de et dans l’espace et le calcul sans espace

  • Yuk Hui, informatique et philosophie (Leuphana Un.)

 

14h30-18h

Opacité des instruments scientifiques et conséquences épistémologiques

  • Vincent Bontems, épistémologie (CEA)
  • Cédric Mattews, biologie (CNRS)

La boite noire comme lieu de développement du narcissisme numérique

  • Peter Lemmens, philosophie (Radboud University Nijmegen)
  • Laurence Devillers, robotique (Limsi/CNRS)

Éthique et apprentissage machine

  • Maël Monteville, biologie (ENS)

Les multiples opacités computationnelles en biologie expérimentale et théorique

  • Paul-Emile Geoffroy, philosophie (IRI)

Catégorisation contributive et capacitation.

 

Vendredi 30 juin 2017

10h à 13h

Opening the black-box

  • Vincent Minier (CEA), Yannick Prié et Florian Melki (LINA, Un. de Nantes)

Le segment Sol de l’Observatoire Herschel et les chaînes de transduction. Analyse des processus épistémologiques à l’œuvre dans la mission Herschel.

  • Augustin Château-Richerd (LIRIS), Yves-Marie Haussonne, Tam Kien Duong (IRI), Florian Melki (LS2N)

Deux cas d’usages liés aux annotations dans Episteme, développements associés : annotation de ressources et représentations de données.

  • Jean-Pierre Girard, archéologie (MOM)

Sciences contributives et alternatives aux smart cities techno-centrées.

 

Contexte du projet

 

Le projet ANR Epistémè vise à identifier les aspects les plus caractéristiques de la transformation des disciplines scientifiques dans leurs rapports à leurs objets sous l’effet de la formalisation numérique, et de concevoir des instruments pour les chercheurs qui permettent une catégorisation contributive supportant les débats et controverses, fondée sur le concept de transindividuation, et articulant des processus bottom up (issus des activités individuelles de recherche) et top down (c’est-à-dire produisant à partir des débats au sein des communautés de pairs des processus de certification plus ou moins locaux, propres à un laboratoire, à une école ou à l’ensemble d’une discipline).

Ces travaux sont conduits en vue d’articuler fonctionnellement les instruments scientifiques numériques et les instruments de publication en direction de publics divers (en premier lieu pour les jeunes chercheurs), et mis en situation sur des terrains d’expérimentation. Il s’agit de relier la conception des instruments scientifiques et les questions qu’ils posent en avance sur leur propre savoir aux instruments didactiques et pédagogiques.

Un savoir scientifique est caractérisé par des procédures de formalisation et d’argumentation entre pairs. Les procédures d’argumentation, elles-mêmes fondées sur les procédures de formalisation et encadrées par elles, génèrent à chaque avancée significative des modalités nouvelles en matière de formalisation (par exemple la production d’un nouveau concept ou d’une nouvelle règle de mise en œuvre d’un concept existant). Ces avancées sont elles-mêmes constituées par des bifurcations issues de différences d’interprétation et de controverses aboutissant à un nouvel état du savoir reconnu soit par la discipline, soit par des protagonistes en concurrence dans la discipline.

La formalisation que ces débats supposent, et qui consiste avant tout en une production de catégories de types très variés, est à la fois fortement intensifiée et profondément transformée par la technologie numérique : constituant un milieu mnémotechnique intégralement formalisé, à travers ces machines à catégoriser que sont les ordinateurs, elle provoque dans toutes les disciplines une « sur-formalisation » qui modifie en profondeur et très diversement d’une part les rapports entre les communautés de pairs en quoi consistent les disciplines, et d’autre part les rapports entre les sciences et leurs objets – aussi bien dans le domaine des SHS que dans celui des sciences de l’exactitude. En outre, la rapidité de l’innovation technologique fait que la formalisation numérique semble la plupart du temps précéder les processus délibérés de formalisation qui constituent la légitimité même des savoirs académiques.

Dans un tel contexte il est capital de prendre toute la mesure du bouleversement épistémique et épistémologique induit par les outils numériques. Épistémique au sens que décrit Michel Foucault dans Les mots et les choses c’est-à-dire ce qui constitue ce que Foucault décrira plus précisément dans L’archéologie du savoir comme un régime de matérialité des traces caractéristique d’une époque qui définit « des possibilités de réinscription et de transcription ». Épistémologique au sens de Bachelard, c’est-à-dire explicitant la théorie de la connaissance mise en œuvre par chaque discipline.

En articulant ces deux dimensions pour appréhender la spécificité de l’époque numérique des savoirs, et de leur formation aussi bien que de leur transmission, il s’agit de constituer ce que nous concevons comme une organologie qu’il s’agit de concrétiser au cours d’un processus de recherche-action – une dimension centrale du bouleversement épistémologique de cette nouvelle organologie étant qu’elle englobe le chercheur dans un milieu contributif l’associant non seulement à ses pairs, mais à des publics qui peuvent être directement associés à sa recherche.

Détails

Début :
29 juin 2017 à 10 h 00 min
Fin :
30 juin 2017 à 13 h 00 min
Catégories d’Évènement:
,

Lieu

Salle Triangle du Centre Pompidou
Paris, France + Google Map