{"id":1380,"date":"2023-02-01T13:01:20","date_gmt":"2023-02-01T12:01:20","guid":{"rendered":"https:\/\/fajgenbaum.paris\/?p=1380"},"modified":"2023-02-01T13:01:20","modified_gmt":"2023-02-01T12:01:20","slug":"lencadrement-juridique-de-lintelligence-artificielle","status":"publish","type":"post","link":"https:\/\/fajgenbaum.paris\/en\/lencadrement-juridique-de-lintelligence-artificielle\/","title":{"rendered":"L\u2019encadrement juridique de l\u2019intelligence artificielle"},"content":{"rendered":"<p>L\u2019intelligence artificielle (IA) a investi notre vie quotidienne. Loin des fantasmes, ses usages sont multiples \u2013 sant\u00e9, publicit\u00e9, transports, s\u00e9curit\u00e9, cr\u00e9ation artistique\u2026<\/p>\n<p>Mais de quoi parle-t-on exactement\u00a0? Assur\u00e9ment pas du Golem ou de Frankenstein, comme avait pu le sugg\u00e9rer le Parlement europ\u00e9en en 2017 (PE, r\u00e9sol., 16 f\u00e9vr. 2017 contenant des recommandations \u00e0 la Commission concernant des r\u00e8gles de droit civil sur la robotique, 2015\/2103 (INL)), pr\u00e9conisant alors la \u00ab\u00a0cr\u00e9ation, \u00e0 terme, d\u2019une personnalit\u00e9 juridique sp\u00e9cifique aux robots, pour qu\u2019au moins les robots autonomes les plus sophistiqu\u00e9s puissent \u00eatre consid\u00e9r\u00e9s comme des personnes \u00e9lectroniques responsables, tenues de r\u00e9parer tout dommage caus\u00e9 \u00e0 un tiers\u00a0\u00bb.<\/p>\n<p>L\u2019id\u00e9e d\u2019une \u00ab\u00a0personnalit\u00e9 juridique \u00e9lectronique\u00a0\u00bb est d\u00e9sormais rejet\u00e9e par toutes les autorit\u00e9s intergouvernementales qui r\u00e9fl\u00e9chissent \u00e0 l\u2019encadrement juridique de l\u2019IA. Celles-ci pr\u00e9f\u00e8rent d\u2019ailleurs l\u2019expression de \u00ab\u00a0syst\u00e8me d\u2019IA\u00a0\u00bb (SIA), \u00e9vitant ainsi toute assimilation anthropomorphe. Le SIA est d\u00e9fini par la proposition de r\u00e8glement europ\u00e9en sur l\u2019IA, dit AI Act (Proposition de r\u00e8glement \u00e9tablissant des r\u00e8gles harmonis\u00e9es concernant l\u2019intelligence artificielle (l\u00e9gislation sur l\u2019intelligence artificielle) et modifiant certains actes l\u00e9gislatifs de l\u2019Union, COM(2021) 206 final, 21 avr. 2021), comme \u00ab\u00a0un logiciel qui est d\u00e9velopp\u00e9 au moyen d\u2019une ou plusieurs des techniques et approches \u00e9num\u00e9r\u00e9es \u00e0 l\u2019annexe I et qui peut, pour un ensemble donn\u00e9 d\u2019objectifs d\u00e9finis par l\u2019homme, g\u00e9n\u00e9rer des r\u00e9sultats tels que des contenus, des pr\u00e9dictions, des recommandations ou des d\u00e9cisions influen\u00e7ant les environnements avec lesquels il interagit\u00a0\u00bb. Le texte est encore en discussion et il est possible que la r\u00e9f\u00e9rence \u00e0 l\u2019annexe technique disparaisse pour valoriser le crit\u00e8re d\u2019autonomie, comme on le retrouve notamment dans la recommandation de l\u2019OCDE pour une IA digne de confiance, du 22 mai 2019 (OCDE\/LEGAL\/0449), ou dans le projet \u00ab\u00a0z\u00e9ro\u00a0\u00bb de convention (cadre) sur l\u2019intelligence artificielle, les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit, du Conseil de l\u2019Europe (version juin 2022).<\/p>\n<p>Le droit de l\u2019IA est en construction. D\u2019\u00e9vidence, le droit positif s\u2019applique d\u00e9j\u00e0 aux SIA. Mais il est temps de r\u00e9fl\u00e9chir \u00e0 l\u2019adaptation de certaines r\u00e8gles ou \u00e0 l\u2019\u00e9laboration de r\u00e8gles nouvelles pour prendre en compte la sp\u00e9cificit\u00e9 de cet outil et permettre ainsi une meilleure s\u00e9curit\u00e9 juridique, dans un climat de concurrence normative certaine. Plusieurs initiatives en attestent (v. par ex., aux USA\u00a0: White House Office of Science and Technology Policy, Blueprint for an AI Bill of Right. Making automated systems work for the american people, oct. 2022\u00a0; et au Royaume-Uni\u00a0: Department for Digital, Culture, Media and Sport, Establishing a pro-innovation approach to regulating AI, 18 juill. 2022).<\/p>\n<p>Si le droit mou, ou soft law, a sembl\u00e9, dans les premiers temps, la voie \u00e0 privil\u00e9gier pour encadrer les usages de l\u2019IA, la vision \u00ab\u00a0officielle\u00a0\u00bb a \u00e9volu\u00e9. C\u2019est ainsi que les autorit\u00e9s intergouvernementales ont entrepris de r\u00e9glementer l\u2019IA, en consid\u00e9ration de leurs mandats respectifs. Pr\u00e9cis\u00e9ment, le Conseil de l\u2019Europe s\u2019attache \u00e0 r\u00e9aliser une convention internationale sur l\u2019IA depuis janvier 2022, dans le but de cr\u00e9er un standard juridique contraignant fond\u00e9 sur les droits de l\u2019homme, la d\u00e9mocratie et l\u2019\u00c9tat de droit, en privil\u00e9giant les droits fondamentaux. De son c\u00f4t\u00e9, l\u2019Union europ\u00e9enne tente d\u2019organiser le march\u00e9, avec l\u2019AI Act et un premier paquet sur la responsabilit\u00e9 civile extracontractuelle, comprenant deux propositions visant \u00e0 adapter les r\u00e8gles de responsabilit\u00e9 \u00e0 l\u2019\u00e8re num\u00e9rique, \u00e0 l\u2019\u00e9conomie circulaire et \u00e0 l\u2019impact des cha\u00eenes de valeur mondiales. La premi\u00e8re proposition de directive (Prop. de directive relative \u00e0 la responsabilit\u00e9 du fait des produits d\u00e9fectueux, COM(2022) 495 final, 28 sept. 2022) r\u00e9forme la directive de 1985, ambitionnant de moderniser les r\u00e8gles existantes relatives \u00e0 la responsabilit\u00e9 objective des fabricants du fait des produits d\u00e9fectueux (des technologies intelligentes aux produits pharmaceutiques). La seconde (Prop. de directive relative \u00e0 l\u2019adaptation des r\u00e8gles en mati\u00e8re de responsabilit\u00e9 civile extracontractuelle au domaine de l\u2019intelligence artificielle, COM(2022) 496 final, 28 sept. 2022), in\u00e9dite, r\u00e9alise une harmonisation cibl\u00e9e des r\u00e8gles nationales en mati\u00e8re de responsabilit\u00e9 applicables \u00e0 l\u2019IA, afin de permettre aux victimes de dommages li\u00e9s \u00e0 cette technologie d\u2019obtenir r\u00e9paration.<\/p>\n<p>Ainsi, au niveau europ\u00e9en, la gestion des risques de l\u2019IA se construit tant dans l\u2019amont, par des proc\u00e9dures r\u00e9gulatoires et de mise en conformit\u00e9, que dans l\u2019aval, une fois le dommage r\u00e9alis\u00e9, pour gommer les cons\u00e9quences n\u00e9gatives de l\u2019IA.<\/p>\n<p>En amont, la r\u00e9glementation vise \u00e0 pr\u00e9venir le dommage. Elle permet aussi d\u2019imposer des valeurs. En particulier, l\u2019AI Act propose une approche gradu\u00e9e fond\u00e9e sur les risques, exigeant des mesures plus contraignantes pour les applications pr\u00e9sentant les risques les plus importants, allant de l\u2019interdiction \u00e0 un examen de conformit\u00e9. Le dispositif a \u00e9t\u00e9 diffus\u00e9 par la Commission europ\u00e9enne sous la forme d\u2019une pyramide des risques. A son sommet, sont mentionn\u00e9s les usages bannis en consid\u00e9ration de leur nature (manipulation des comportements, notation sociale, reconnaissance faciale dans les espaces publics \u2013 avec des exceptions notables). Ensuite, les applications \u00e0 haut risque (par ex., l\u2019identification biom\u00e9trique des individus, la gestion des infrastructures critiques, l\u2019\u00e9ducation ou la justice) doivent r\u00e9pondre \u00e0 des exigences a priori et \u00e0 un m\u00e9canisme d\u2019\u00e9valuation de la conformit\u00e9 pr\u00e9alable \u00e0 la mise sur le march\u00e9. Enfin, les applications \u00e0 risque limit\u00e9 (comme les chatbots ou les deepfakes) se voient imposer une obligation sp\u00e9cifique de transparence pendant que celles pr\u00e9sentant un risque minimum r\u00e9pondent aux dispositions g\u00e9n\u00e9rales existantes, notamment sur la s\u00e9curit\u00e9 des produits.<\/p>\n<p>En aval, une fois le dommage r\u00e9alis\u00e9, l\u2019ambition n\u2019est pas de r\u00e9\u00e9crire le droit de la responsabilit\u00e9 civile extracontractuelle, mais plut\u00f4t d\u2019ajuster certains m\u00e9canismes, pour que la r\u00e9paration du pr\u00e9judice ne soit pas plus difficile lorsque la source est un SIA. Le double syst\u00e8me actuel n\u2019est pas modifi\u00e9\u00a0: des r\u00e8gles sp\u00e9cifiques aux produits d\u00e9fectueux et largement harmonis\u00e9es coexisteront avec des r\u00e8gles g\u00e9n\u00e9rales de responsabilit\u00e9 d\u00e9lictuelle qui restent principalement nationales. Pour l\u2019heure, les modifications propos\u00e9es restent limit\u00e9es (ce qui n\u2019enl\u00e8ve rien \u00e0 leur complexit\u00e9\u2026), consistant en des injonctions de divulgation d\u2019\u00e9l\u00e9ments de preuve et en des pr\u00e9somptions (pr\u00e9somption de lien de causalit\u00e9 pour la proposition de directive sur l\u2019IA, pr\u00e9somptions de lien de causalit\u00e9 et de d\u00e9fectuosit\u00e9 pour la proposition de directive sur les produits d\u00e9fectueux).<\/p>\n","protected":false},"excerpt":{"rendered":"<p>L\u2019intelligence artificielle (IA) a investi notre vie quotidienne. Loin des fantasmes, ses usages sont multiples \u2013 sant\u00e9, publicit\u00e9, transports, s\u00e9curit\u00e9, cr\u00e9ation artistique\u2026 Mais de quoi parle-t-on exactement\u00a0? Assur\u00e9ment pas du Golem ou de Frankenstein, comme avait pu le sugg\u00e9rer le Parlement europ\u00e9en en 2017 (PE, r\u00e9sol., 16 f\u00e9vr. 2017 contenant des recommandations \u00e0 la Commission [&hellip;]<\/p>\n","protected":false},"author":3,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"pdf":0,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-1380","post","type-post","status-publish","format-standard","hentry","category-actualites"],"acf":[],"_links":{"self":[{"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/posts\/1380","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/comments?post=1380"}],"version-history":[{"count":1,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/posts\/1380\/revisions"}],"predecessor-version":[{"id":1381,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/posts\/1380\/revisions\/1381"}],"wp:attachment":[{"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/media?parent=1380"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/categories?post=1380"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/fajgenbaum.paris\/en\/wp-json\/wp\/v2\/tags?post=1380"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}