Les enjeux sécuritaires de l’IA générative dite générale…une question d’alignement

par Nicolas LEREGLE

Il y a des événements qui pourraient passer sous les radars du plus grand nombre, mais qui méritent cependant de s’y attarder. Récemment deux chercheurs et dirigeants d’Open IA – la société à l’origine de ChatGPT – ont été remerciés (OpenAI : dissolution de l’équipe chargée de la sécurité d’une potentielle superintelligence artificielle (lemonde.fr).

Les entreprises de la Silicon Valley nous ayant habitué aux turn-overs à répétition de leurs cadres, de leurs associés et fondateurs cela aurait pu passer pour un non-événement comme il s’en produit régulièrement ainsi de Sam Altman débarqué un vendredi pour être remis en selle la semaine suivante ! Mais, au cas d’espèce, cela ne doit pas être vu ainsi ; les personnes concernées Jan Leike et Ilya Sutskever étaient en charge du « superalignement » et plus particulièrement de la sécurité qui devait être de mise pour une superintelligence artificielle supposée être l’IA générale de demain, à savoir aussi intelligente que les êtres humains.

Leurs départs, et la communication qui l’a entouré posent de fait la question d’un équilibre ou d’un arbitrage entre le progrès – plutôt l’approche de Sam Altman créateur de ChatGPT – et la sécurité, que l’on peut deviner être une préoccupation des partants.

Déjà on peut s’interroger sur le fait de savoir si l’IA n’est déjà pas plus intelligente que les humains.

Si certaines applications peuvent battre aux échecs Kasparov, traduire instantanément des propos en plusieurs langues, réaliser des millions de calculs à la seconde, écrire des romans de centaines de pages en quelques minutes, conduire une voiture ou assister des chirurgiens – sans trop se demander qui assiste qui – je n’ai, hélas, pas de mal à penser que ces IA sont (presque) plus intelligentes que moi (malgré la très haute opinion que l’on peut parfois avoir de soi-même).

Il me revient à l’esprit cet aphorisme de Sacha Guitry « je conviendrais bien volontiers que les femmes nous sont supérieures, si cela pouvait les dissuader de se prétendre nos égales ».

En ce qui me concerne, je conviendrai bien volontiers que les IA nous sont supérieures, si cela pouvait les dissuader de se croire nos égales.

Cet aphorisme pose le problème des progrès de l’Intelligence Artificielle d’une façon autrement plus intéressante que si elle se réduisait simplement en un choix entre progrès et sécurité. Le progrès nous le savons n’est pas figé et ne peut l’être. La dynamique est son moteur et sa raison d’être. Il peut être encadré comme souhaitent le faire Bruxelles ou Washington tout en sachant que rien n’interdira à un autre État de s’affranchir de telles règles. Un blocage ou un encadrement ne sera qu’un frein qui risque d’être rapidement relâché de peur d’être distancé dans une course aux enjeux sécuritaires importants. La sécurité prend alors tout son sens, elle ne doit pas être vue comme un frein à l’innovation, mais bien comme un encadrement de son usage. On ne bride pas les voitures à 130 km/h en France, mais on sanctionne le conducteur qui roule à 240 km/h sur l’autoroute. Cette problématique rejoint celle qui s’est posée dans la recherche en bioéthique et dans les recherches en matière de clonage ou de PMA. Le poids actuel de l’IA est sans commune mesure avec ce qu’il sera dans quelques mois, on évoque déjà cette technique comme susceptible de nous rendre immortels.

Au fond c’est le principal écueil de notre façon de concevoir l’IA, le mot intelligence nous induit naturellement dans l’erreur de la comparaison/assimilation avec l’humain au détriment de ce qu’est l’IA, à savoir un outil. Très perfectionné, très puissant, très utile en somme, mais l’IA est avant tout et principalement un outil qui doit permettre de répondre à des problèmes que l’homme doit résoudre.

Le marteau que j’utilise pour planter un clou est un outil qui sera toujours plus efficace que mes poings, et si je m’en sers pour frapper une personne le marteau n’aura aucune part de responsabilité dans mon action. L’IA doit être comprise de la même façon, ce qui n’est pas évident tant sa puissance semble être assimilable pour devenir partie intégrante de notre organisme et mode de pensée.

C’est là que Sacha Guitry vient à la rescousse de notre réflexion. L’IA sera, et plus rapidement qu’on ne le pense, nettement plus intelligente que l’être humain, les ordinateurs quantiques le permettront et des entités dotées de l’IA s’imposeront de plus en plus dans notre vie quotidienne sans qu’il soit parfois possible de s’en apercevoir. Le domaine de la sécurité dont nous avons mentionné les défis qu’il devra affronter dans les prochaines années n’échappera pas à une réflexion quant à l’usage d’une IA qui sera « plus intelligente » que son opérateur humain. Le choix d’une décision prise après une analyse algorithmique sera-t-elle toujours du ressort de l’humain ou considérera-t-on que la machine est assez sophistiquée et performante pour prendre, en toutes situations, la bonne décision ?

Aujourd’hui la question n’est pas de mise, l’opérateur a la main sur la décision à défaut de l’avoir sur l’analyse.

Demain, si l’opérateur se limite à être un technicien assurant l’entretien d’un équipement ou d’un logiciel il n’en sera plus de même et les fantasmes d’un monde dominé par les robots pourraient de nouveau faire surface. Le bouton on/off aujourd’hui anecdotique tant la tendance est forte de laisser les équipements en fonction ou, au mieux, en mode veille, pourra certainement retrouver ses lettres de noblesse.

Guitry devait donc au même titre qu’Asimov être le fil d’Ariane des développeurs d’IA.

Oui ils peuvent mener leurs recherches sans entraves autres que celles qui les feraient tomber du côté de l’illégalité. Mais ils doivent s’assurer que leurs solutions intègrent de façon permanente deux composantes essentielles à savoir que la prétendue supériorité intellectuelle de l’IA ne se traduise pas par une mise en concurrence avec l’espèce humaine et qu’il existera en permanence une solution matérielle pour arrêter un équipement ou un logiciel qui se poserait en égal de l’homme.

La première condition est un vœu pieux car la constatation des effets du progrès se fait a posteriori et donc le retour en arrière n’est plus de mise.

La seconde condition doit être plus facile en théorie à mettre en œuvre, car elle permet de ne pas oublier que l’IA est un outil dont les conditions d’utilisation sont intimement liées à la responsabilisation de celui qui en est l’opérateur ou le décideur. Un docteur Folamour sommeille dans beaucoup d’esprits aux égos surdimensionnés prêts à voir dans leur marteau, au choix, celui de Thor ou de Vulcain et à proposer, c’est le chemin emprunté par Elon Musk, une alternative technologique à la direction du monde.

Ce n’est pas nouveau, déjà dans « les marteaux de Vulcain » (1960) Ph K Dick (que n’a-t-il prévu ?) l’auteur décrit un monde où l’humanité a remis son destin entre les mains de Vulcain III ? Mi-dieu, mi-machine, ce dernier administre le monde depuis son bunker. Il a réponse juste à toutes les questions et sur tous les sujets. Mais voilà à un moment Vulcain III ne répond plus, alors pour maintenir les équilibres du monde ce sont les ingénieurs qui inventent des réponses pour diriger le monde !

Oui, définitivement en matière d’IA comme en toutes choses, la sécurité est primordiale pour que le progrès et ses réalisations ne viennent pas alimenter peurs et fantasmes.

Nicolas LEREGLE
Avocat au barreau de Paris
Associé RESPONSABLES