Intelligence artificielle
Ce 24 octobre, la discussion sur le contenu de l’Artificial Intelligence Act (AI Act) entre dans ce qu’il est convenu d’appeler un « trilogue », lorsque Commission, Parlement et Conseil cherchent un consensus entre les trois piliers des institutions européennes pour aboutir à l’adoption d’un texte.
Ce texte doit « dire le droit » en matière de ce qui est permis ou pas au sein de l’Union européenne en terme de développement des applications recourant à l’intelligence artificielle. Comme pour l’encadrement de toute industrie porteuse de danger pour les personnes, cette loi devait principalement assurer la pleine protection des citoyennes et citoyens contre les dangers spécifiques à cette nouvelle industrie.
Alors que les choses semblaient acquises pour une interdiction totale d’applications utilisant des systèmes d’intelligence artificielle dites « à risques inacceptables » et que des procédures contraignantes devaient fortement encadrer le développement d’applications « à hauts risques », la France s’est portée à l’avant-garde de propositions créant des échappatoires dans lesquels pourront s’engouffrer des acteurs malintentionnés ou peu scrupuleux, et elle cherche à exclure d’un encadrement légal et réglementaire les applications couvrant des activités régaliennes, en particulier pour l’action des services relevant des ministères de l’Intérieur et de la Défense.
Les discussions se déroulant derrière des « portes closes », il est difficile d’obtenir des informations complètes et recoupées sur les objectifs précis présentés par la France et les argumentaires mis en avant dans les discussions. Mais ce que l’on sait, c’est que ses amendements, s’ils étaient retenus, auraient des conséquences délétères sur les libertés fondamentales, la démocratie et l’Etat de droit dans toute l’Europe.
L’intervention du président de la République au salon VivaTech, le 14 juin dernier, consacrée à l’approche des autorités françaises pour le développement de l’intelligence artificielle, ne manque pas d’inquiéter. En particulier, et de façon très claire, Emmanuel Macron dénie la pertinence de l’espace européen pour définir les législations qui doivent s’imposer au secteur, y compris pour ce qui relève du respect des droits humains avec la mise en œuvre d’applications incluant des techniques d’intelligence artificielle. De plus, il met en avant sa préférence pour une autorégulation par les développeurs d’applications plutôt qu’une responsabilité donnée à des organes de l’administration qui seraient dotés des moyens de contrôle pertinents.
Les discussions pour fixer le contenu de l’AI Act vont entrer dans une phase décisive. Le gouvernement français doit rendre public les orientations qu’il va défendre, les raisons qui le conduisent à affaiblir les garanties fortes pour les personnes incluses dans le texte initial, adopté par le Parlement européen. L’enjeu de cette transparence est essentiel, puisqu’il est en relation directe et immédiate avec les libertés publiques, la dignité des personnes et la démocratie. L’enjeu sur le fond est de mettre en place les meilleures procédures pour que les applications ne nuisent pas aux individus, pour que nul ne soit privé d’un droit du fait d’un traitement inadéquat…
Parce que le résultat des négociations aura un impact sur tous nos droits, la LDH (Ligue des droits de l’Homme) fait part de ses inquiétudes et demande une réponse sans délai du gouvernement ainsi qu’un débat public sur le sujet.
Paris, le 25 octobre 2023