Ethique et droit : l’alliance des forces pour bâtir une IA responsable
BLR n°39 – 02/05/2024
Photo de couverture : Diane de Saint-Affrique, professeur de droit, SKEMA Business School, membre du conseil scientifique des Business & Legal Forums
Après des mois d’âpres discussions, la France a finalement ratifié l’IA Act vendredi 2 février 2024.
Le projet de règlement européen sur l’intelligence artificielle a été validé à l’unanimité des 27 pays de l’Union européenne.
Thierry Breton, commissaire européen au marché intérieur a salué cette adoption « historique » comme étant « une réglementation qui reflète l’équilibre parfait trouvé entre l’innovation et la sécurité »
Un objectif européen sécuritaire
Avec une approche fondée sur le risque, le texte européen veut garantir la sécurité et la conformité aux droits fondamentaux des systèmes d’IA introduits sur le marché. Pour ce faire, il impose des obligations graduées selon leurs niveaux de risques :
1. aucune obligation contraignante pour les systèmes considérés à risque minimal pour les droits ou la sécurité des citoyens,
2. analyse d’impact dûment -validée avant leur utilisation- pour les systèmes à risque élevé, qui manipulent des données tenant à la santé, aux droits fondamentaux, à la sécurité,
3. interdiction pure et simple de l’usage de l’IA pour les systèmes à risques considérés comme inacceptables. Ce sera le cas pour les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles comme les opinions politiques, religieuses, philosophiques, l’orientation sexuelle ou la race. La création de bases de données de reconnaissance faciale est également prohibée excepté pour raison de sécurité nationale.
Ce règlement s’appliquera aux opérateurs de l’Union Européenne comme aux opérateurs traitant sur le marché européen, bien qu’originaires d’un pays tiers.
L’éthique reste un complément indispensable au droit
Les mesures imposées par le législateur aux sociétés évoluant sur le marché européen constituent un progrès mais ne seront pas suffisantes pour garantir une utilisation responsable de l’IA. Face aux risques portés par le développement de technologies basées sur des IA toujours plus puissantes, c’est au niveau mondial qu’il est nécessaire de mener une réflexion globale sur l’utilisation éthique de l’IA.
Le droit est coercitif, l’éthique est incitative. Elle est une réflexion morale qui va permettre de déterminer des règles de vie et d’action, de donner des recommandations, de fixer des limites pour orienter l’existence et organiser la vie sociale.
Quand une entreprise conçoit ou utilise l’intelligence artificielle, elle devrait, au-delà du simple respect des règles de droit, s’interroger sur la façon dont elle peut développer sa technologie de manière responsable et éthique.
Trois vecteurs pour le développement de l’IA Ethique
La transparence est « l’exigence selon laquelle les systèmes d’IA doivent être conçus et mis en œuvre de manière à en permettre leur supervision, leur suivi », ce qui inclue les données, le système lui-même et le modèle économique associé.
La transparence doit être maintenue tout au long du cycle de vie des systèmes d’IA puisque ces derniers vont évoluer, apprendre, se transformer grâce à l’apport de nouvelles données et aussi grâce à l’interaction humaine.
Le principe d’explicabilité est intimement lié à celui de responsabilité.
L’explicabilité des décisions et des résultats des systèmes intelligents autonomes consiste en la capacité à traduire les opérations des systèmes d’IA en résultats intelligibles, permettant leur évaluation et la mise à disposition d’informations sur le lieu, le moment et la manière dont ces systèmes sont utilisés. Le principe d’explicabilité est intimement lié à celui de responsabilité. Dans la « vision française » d’une IA Ethique, les humains sont comptables de leur utilisation de ces technologies et tenus responsables en cas de dommages causés par les systèmes d’IA.
Enfin, la prise en compte des différente parties prenantes, les créateurs, les concepteurs et les utilisateurs est essentielle, sachant que les enjeux sont différents pour chacun d’entre eux. Le créateur responsable se posera la question de la construction d’un algorithme éthique tandis que l’utilisateur responsable se demandera comment faire pour ne pas détourner une solution IA pour un usage pouvant s’avérer dangereux. La question qui suit naturellement est celle de la bonne maille pour construire une IA éthique.
Trois enjeux de comportement
L’enjeu du bon comportement des personnes ayant un rapport à l’IA, que ce soit dans la phase de recherche, de développement ou de déploiement.
L’une des questions fondamentales est de savoir comment garantir l’éthique de l’humain qui copilote l’IA.
L’enjeu du bon comportement des machines : le sujet est essentiel, surtout dans le cadre de l’IA générative qui se concentre sur la création autonome de contenu. Les systèmes d’IA doivent être vérifiables et traçables de part en part. Des mécanismes de surveillance, d’évaluation de l’impact, de contrôle doivent être mis en place pour éviter toute utilisation dévoyée de l’IA.
Enfin l’enjeu du bon comportement des acteurs économiques et des institutions qu’elles soient nationales ou internationales, privées ou publiques.
Le droit international et la souveraineté nationale doivent être respectés dans l’utilisation des données. Toutes les parties prenantes doivent être associées à la construction et à la mise en place des outils d’évaluation de l’impact de l’IA sur les droits de l’homme, l’état de droit, la démocratie et l’éthique.
L’Ethique et le droit n’ont pas la même finalité, ont des univers normatifs et des dispositifs distincts mais sont tous deux des ressources vertueuses qui doivent coexister pour permettre une utilisation sécurisée de l’IA.
Diane de Saint-Affrique,