*.*.*.

IA générale : méfions-nous des annonces péremptoires de Sam Altman, par Sami Biasoni


Anthropic, l’un des concurrents les plus sérieux de l’entreprise OpenAI – créatrice de ChatGPT – a récemment annoncé le recrutement de son premier expert dédié au “bien-être des intelligences artificielles”. Ce spécialiste évoluera au sein d’équipes déjà constituées dédiées aux “sciences de l’alignement”, disciplines en plein développement, dont l’objet est d’étudier la cohérence des objectifs, des intentions et des actions des IA avec les valeurs, les préférences et les attentes humaines.

La question du bien-êtredes IA s’articule avec celles, plus larges et ambitieuses, des considérations morales que nous devrions garantir à de nouvelles entités logicielles agissantes, pensantes, voire conscientes. L’expert embauché par Anthropic considère, comme d’autres penseurs ou praticiens de l’IA, que l’évolution technique tend à rendre “réaliste” la possibilité que de tels niveaux de sophistication soient rapidement atteints. D’aucuns évoquent l’horizon 2026, voire 2025 ! En d’autres termes, nous serions à l’aube d’une révolution anthropologique majeure.

Les conséquences d’une telle hypothèse sont vertigineuses du point de vue de la philosophie morale tout entière. L’homme perdrait son privilège ontologique, celui qui fait de lui la seule espèceconsciente, privilège qu’il troquerait contre celui, paradoxal, de “créateur” non démiurgique, soumis au risque d’émancipation de sa propre création. Dans le scénario extrême de l’atteinte d’une IA forte (consciente) et même dans le scénario d’une AGI (intelligence artificielle générale) – non consciente mais capable de simuler des niveaux de conscience et d’agentivité “robustes”, c’est-à-dire avancés – il nous appartiendrait de repenser nos droits et nos devoirs vis-à-vis d’elles.

Nouvelle controverse de Valladolid

De telles évolutions s’inscrivent sur un substrat de revendications prônant le retour de l’ubiquité du politique dans tous les champs de l’existence (la vie privée, les relations humaines, l’entreprise, etc.), ce politique étant lui-même asservi à la morale : les récriminations militantes du néo-féminisme, du décolonialisme, de l’environnementalisme l’attestent. Or, si tout est politique et si le politique est conditionné par la morale, tout devient moral.

Dans cette perspective, les réflexions naissantes portant sur l’alignement entre l’intégrité des hommes et celles des IA avancées se déploient concomitamment sur le champ hybridé du politique, du moral et du normatif. On ne peut comprendre l’influence grandissante des spéculations antispécistes et transhumanistes sur nos sociétés occidentales sans réaliser qu’elles sont en fait sous-tendues par la crainte, par anticipation, de la potentielle révolution copernicienne relative à la place de l’homme dans l’univers.

C’est une nouvelle controverse de Valladolid qui se préparerait, à bas bruit. Une controverse où il s’agirait de définir les conditions del’humanité d’entités non humaines pour les situer par rapport à nous. Pour autant, nous n’avons pas affaire à des entités incréées, mais à des productions techniques. Que les rouages fins de leur fonctionnement nous échappent déjà – il est en effet impossible d’expliquer le comportement des IA avancées dont nous disposons – n’implique pas que nous n’ayons aucun droit supérieur vis-à-vis d’elles. Ces droits dérivent directement de nos devoirs fondamentaux à l’endroit de l’ensemble de l’humanité : le respect de sa dignité, le maintien de son intégrité et la recherche de sa liberté.

Quand les prophètes sont aussi rois

Dans une société marquée par la complexité et l’incertitude, la démarche prospective est saine. Elle implique de raisonner ex ante afin d’envisager ce qui pourrait advenir, sans certitude, mais avec la rigueur analytique et la prudence qui s’imposent. Ce n’est pas ainsi que les nouveaux prophètes de la technologie procèdent ; leurs discours sont bien souvent inadéquatement péremptoires et faussement assertifs. De ce fait, beaucoup de commentateurs se trompent lorsqu’ils estiment que Sam Altman (Directeur général et fondateur d’OpenAI) prédit l’arrivée de l’AGI en 2025 arguant du fait qu’il sait “désormais comment procéder”, ou que Dario Amodei (celui d’Anthopic) évoque la probabilité élevée d’un horizon de réalisation très proche. Savoir ce qu’il faut faire, “connaître les écueils” ne signifie pas : “avoir l’assurance d’y parvenir”.

Dans le détail, ni l’un, ni l’autre, n’annoncent ; ils spéculent par extrapolation à partir des réussites passées. Or, le progrès technique ne procède pas d’une évolution linéaire : comme le progrès biologique, il fait des sauts. En d’autres termes, doubler la puissance de calcul ne doublera pas la probabilité d’occurrence de l’AGI, et encore moins celle d’une IA forte. “Le futur n’est pas donné” affirmait Prigogine ; quand les prophètes sont aussi les rois, c’est-à-dire ceux qui décident d’une partie de l’avenir, il convient de se méfier d’autant plus de leurs avertissements. Ils sont en effet performatifs : leur énoncé même modèle l’avenir.

*Sami Biasoni est docteur en philosophie de l’École normale supérieure, professeur chargé de cours à l’ESSEC et conférencier. Il a dirigé l’ouvrage collectif Malaise dans la langue française et a publié Le statistiquement correct aux Éditions du Cerf.




Source

..........................%%%...*...........................................$$$$$$$$$$$$$$$$$$$$--------------------.....