{"id":22849,"date":"2019-03-19T06:00:00","date_gmt":"2019-03-19T10:00:00","guid":{"rendered":"https:\/\/linitiative.ca\/International\/responsabilite-algorithmique\/"},"modified":"2019-03-19T06:00:00","modified_gmt":"2019-03-19T10:00:00","slug":"responsabilite-algorithmique","status":"publish","type":"post","link":"https:\/\/linitiative.ca\/International\/responsabilite-algorithmique\/","title":{"rendered":"\u00abResponsabilit\u00e9 algorithmique\u00bb"},"content":{"rendered":"<p class=\"c3\">Les math\u00e9maticiens contemporains ont donn\u00e9 le nom de leur ma\u00eetre, le Perse du IXe si\u00e8cle, Al-Khwarizmi\u00a0 \u00e0 l\u2019algorithme\u00a0 dont on retrouve aujourd&rsquo;hui l\u2019une des applications dans le fonctionnement des ordinateurs.<br \/>Pour faire simple, on empruntera \u00e0 G\u00e9rard Berry, chercheur en science informatique, la d\u00e9finition grand public suivante : \u00ab Un algorithme, c\u2019est tout simplement une fa\u00e7on de d\u00e9crire dans ses moindres d\u00e9tails comment proc\u00e9der pour faire quelque chose. Il se trouve que beaucoup d\u2019actions m\u00e9caniques, toutes probablement, se pr\u00eatent bien \u00e0 une telle d\u00e9cortication. Le but est d\u2019\u00e9vacuer la pens\u00e9e du calcul, afin de le rendre ex\u00e9cutable par une machine num\u00e9rique (ordinateur\u2026). \u00bb<br \/>Aussi, les algorithmes r\u00e9gulent nos vies, avec des finalit\u00e9s diverses telles que le tri, le classement et la pr\u00e9vision, permettant \u00ab avec une certaine efficacit\u00e9 d\u2019automatiser des traitements r\u00e9p\u00e9titifs \u00e0 grande \u00e9chelle, de trier des centaines de milliers de r\u00e9sultats, ou bien de formuler des recommandations apr\u00e8s avoir examin\u00e9 des millions de d\u00e9cisions pass\u00e9es \u00bb.<br \/>S\u2019il n\u2019y a pas l\u2019ombre d\u2019un doute sur la neutralit\u00e9 des machines, ce n\u2019est pas le cas des algorithmes qui leur servent de mati\u00e8re grise.<br \/>Une \u00e9tude pertinente de 23 pages effectu\u00e9e par une \u00e9quipe de chercheurs de T\u00e9l\u00e9com ParisTech liste les biais des algorithmes pouvant conduire \u00e0 des discriminations dans toutes les sph\u00e8res o\u00f9 il leur est fait recours : le commerce, l\u2019\u00e9ducation, l\u2019emploi, etc.(*)<br \/>Trois questions motivent leur recherche : par quels m\u00e9canismes les biais des algorithmes peuvent-ils se produire ? Peut-on les \u00e9viter ? Et, enfin, peut-on les corriger ou bien les limiter ?<br \/>Sont en cause ici les biais dont sont con\u00e7us les algorithmes et les donn\u00e9es qui les nourrissent : \u00ab Les biais des algorithmes pourraient \u00eatre alors d\u00e9finis comme une d\u00e9viation par rapport \u00e0 un r\u00e9sultat cens\u00e9 \u00eatre neutre, loyal ou encore \u00e9quitable. \u00bb<br \/>Le biais, nous dit le dictionnaire, est une \u00ab distorsion, une d\u00e9formation syst\u00e9matique d&rsquo;un \u00e9chantillon statistique choisi par un proc\u00e9d\u00e9 d\u00e9fectueux, ou d&rsquo;une \u00e9valuation \u00bb.<br \/>Qu\u2019il s\u2019agisse d\u2019outils d\u2019aide \u00e0 la d\u00e9cision pour le choix d\u2019un parcours universitaire, de recommandations de vid\u00e9os, de recherches d\u2019information en ligne (moteur de recherche) ou de logiciels int\u00e9gr\u00e9s aux v\u00e9hicules, les algorithmes s\u2019immiscent de plus en plus dans notre quotidien sur une base de confiance d\u2019autant plus large qu\u2019ils sont suppos\u00e9s r\u00e9unir les qualit\u00e9s de neutralit\u00e9 ou encore d\u2019\u00e9quit\u00e9 ou de loyaut\u00e9.<br \/>Ces vertus demeurent bien th\u00e9oriques : \u00ab l\u2019actualit\u00e9 quotidienne atteste de nombreux cas de pratiques discriminatoires li\u00e9es \u00e0 des algorithmes, volontaires ou involontaires, \u00e0 l\u2019encontre de certaines populations. Aux Etats-Unis par exemple, des travaux ont mis en \u00e9vidence que les populations afro-am\u00e9ricaines \u00e9taient plus souvent p\u00e9nalis\u00e9es par les d\u00e9cisions de justice qui s\u2019appuient sur le recours aux algorithmes. Ces m\u00eames populations sont \u00e9galement plus discrimin\u00e9es sur les plateformes populaires de locations d\u2019appartement en ligne. Enfin, des publicit\u00e9s cibl\u00e9es et automatis\u00e9es en ligne relatives aux opportunit\u00e9s d\u2019emploi dans les domaines des sciences, de la technologie, de l\u2019ing\u00e9nierie et des math\u00e9matiques aux Etats-Unis seraient plus fr\u00e9quemment propos\u00e9es aux hommes qu\u2019aux femmes \u00bb.<br \/>Les biais incrimin\u00e9s sont de trois types :<br \/>&#8211; primo, les biais cognitifs dont de nombreuses recherches en psychologie et sciences cognitives montrent l\u2019existence dans la prise de d\u00e9cision. A ce titre, un type de biais connu est le biais de st\u00e9r\u00e9otype. Ce dernier peut survenir lorsqu\u2019un individu agit en r\u00e9f\u00e9rence au groupe social auquel il s\u2019identifie plut\u00f4t que sur ses capacit\u00e9s individuelles ;<br \/>&#8211; secundo, les biais statistiques : \u00ab Un exemple frappant est l\u2019algorithme mis en place \u00e0 partir de 2015 par Amazon pour faciliter le recrutement de talents. L\u2019algorithme utilisait des donn\u00e9es de centaines de milliers de curriculum vitae (CV) re\u00e7us par Amazon au cours des dix derni\u00e8res ann\u00e9es en vue de noter de nouvelles candidatures. L\u2019algorithme attribuait une note allant de 1 \u00e0 5 \u00e9toiles, \u00e0 l\u2019image de l\u2019\u00e9valuation de produits sur Amazon. L\u2019utilisation de l\u2019algorithme a \u00e9t\u00e9 rapidement suspendue en raison de son incapacit\u00e9 \u00e0 s\u00e9lectionner les meilleurs candidats et sa propension \u00e0 discriminer les femmes. \u00bb L\u2019algorithme en question, cens\u00e9 faciliter le recrutement, attribuait fr\u00e9quemment de mauvaises notes \u00e0 des femmes pourtant qualifi\u00e9es et en ad\u00e9quation avec les postes \u00e0 pouvoir. De la m\u00eame mani\u00e8re, l\u2019algorithme utilis\u00e9 par la justice am\u00e9ricaine pour pr\u00e9voir la probabilit\u00e9 de r\u00e9cidive d\u2019une personne inculp\u00e9e sur\u00e9valuait le risque de r\u00e9cidive des Afro-am\u00e9ricains et sous-\u00e9valuait celui des Blancs ;<br \/>&#8211; tertio, les biais \u00e9conomiques : \u00abLes algorithmes peuvent \u00eatre biais\u00e9s volontairement ou involontairement pour des raisons \u00e9conomiques, de prix et de co\u00fbt.\u00bb<br \/>&#8211; les biais peuvent \u00eatre \u00e9galement dus \u00e0 des manipulations volontaires de la part des entreprises. Ce ph\u00e9nom\u00e8ne est connu sous le nom de \u00ab search engine manipulation \u00bb.<br \/>Trois enjeux de soci\u00e9t\u00e9 s\u2019articulent autour des biais des algorithmes.L\u2019intelligence artificielle est souvent vue comme une menace pour l\u2019emploi, le respect de la vie priv\u00e9e ou le contr\u00f4le des d\u00e9cisions prises par des syst\u00e8mes per\u00e7us comme des bo\u00eetes noires. Aussi, \u00ab l\u2019intelligence artificielle ne tiendra ses promesses que si les enjeux d\u2019\u00e9quit\u00e9, d\u2019interpr\u00e9tabilit\u00e9, d\u2019explicabilit\u00e9 et de responsabilit\u00e9 sont consid\u00e9r\u00e9s au m\u00eame niveau que la recherche d\u2019efficacit\u00e9. \u00bb<br \/>Le concept d\u2019interpr\u00e9tabilit\u00e9 est en particulier soutenu par un programme ambitieux de l\u2019agence du d\u00e9partement de la D\u00e9fense des Etats-Unis (DARPA) : \u00ab Ces recherches s\u2019orientent sur le d\u00e9veloppement de m\u00e9thodes qui aident \u00e0 mieux comprendre ce que le mod\u00e8le a appris ainsi que des techniques pour expliquer les pr\u00e9dictions individuelles. \u00bb<br \/>Le concept d\u2019explicabilit\u00e9 se r\u00e9f\u00e8re \u00e0 la n\u00e9cessit\u00e9 d\u2019expliquer aux utilisateurs finaux comment et pourquoi un r\u00e9sultat a \u00e9t\u00e9 obtenu. Il est particuli\u00e8rement soulign\u00e9 ici \u00ab la conformit\u00e9 au droit et \u00e0 la r\u00e9gulation. Un r\u00e9sultat doit pouvoir \u00eatre contest\u00e9 en cas de d\u00e9faut, de discrimination et autres. Depuis l\u2019entr\u00e9e en vigueur du R\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es (RGPD) en Europe, les personnes ont le \u00ab droit de ne pas faire l\u2019objet d\u2019une d\u00e9cision fond\u00e9e exclusivement sur un traitement automatis\u00e9, y compris le profilage, produisant des effets juridiques la concernant ou l\u2019affectant de mani\u00e8re significative de fa\u00e7on similaire \u00bb. Le RGPD stipule \u00e9galement que, pour les d\u00e9cisions automatis\u00e9es bas\u00e9es sur des donn\u00e9es \u00e0 caract\u00e8re personnel, les personnes ont le droit de \u00ab demander une explication de la d\u00e9cision [algorithmique] prise \u00e0 l\u2019issue de cette \u00e9valuation et de contester la d\u00e9cision. \u00bb<br \/>Les menaces qui p\u00e8sent sur les libert\u00e9s individuelles et collectives ont \u00e9t\u00e9 auparavant recens\u00e9es et explicit\u00e9es par la math\u00e9maticienne am\u00e9ricaine Cathy O&rsquo;Neil dans son ouvrage Weapons of Math Destruction, publi\u00e9 en 2016 et traduit en fran\u00e7ais en 2018 sous le titre Algorithmes : la bombe \u00e0 retardement (aux \u00e9ditions Les Ar\u00e8nes) : \u00ab Aujourd\u2019hui, les mod\u00e8les math\u00e9matiques et les algorithmes prennent des d\u00e9cisions majeures, servent \u00e0 classer et cat\u00e9goriser les personnes et les institutions, influent en profondeur sur le fonctionnement des Etats sans le moindre contr\u00f4le ext\u00e9rieur. Et avec des effets de bords incontr\u00f4lables. \u00bb<br \/>Aussi, reste-t-il \u00e0 faire jouer la transparence ou l\u2019auditabilit\u00e9 des algorithmes afin de surmonter \u00ab l\u2019id\u00e9e selon laquelle les algorithmes sont opaques et des bo\u00eetes noires \u00bb.<br \/>Il se dessine en bout de course une \u00abresponsabilit\u00e9 algorithmique \u00bb selon laquelle \u00ab une personne ou une organisation l\u00e9galement responsable du pr\u00e9judice doit fournir une explication ou une compensation au pr\u00e9judice subi \u00bb.<br \/><strong><em>A. B.<\/em><\/strong><\/p>\n<p class=\"c3\"><em>(*) Patrice Bertail, David Bounie, Stephan Cl\u00e9men\u00e7on, Patrick Waelbroeck, Algorithmes : biais, discrimination et \u00e9quit\u00e9, T\u00e9l\u00e9com ParisTech, Paris, 14 f\u00e9vrier 2019<br \/>https:\/\/www.telecomparistech.fr\/fileadmin\/documents\/pdf\/Recherche\/Algorithmes_-_Biais__discrimination__equite.pdf<\/em><\/p>\n<p>Auteur:<br \/>\n<a href=\"https:\/\/www.lesoirdalgerie.com\/a-fonds-perdus\/responsabilite-algorithmique-20822\">Cliquez ici pour lire l&rsquo;article depuis sa source.<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les math\u00e9maticiens contemporains ont donn\u00e9 le nom de leur ma\u00eetre, le Perse du IXe si\u00e8cle, Al-Khwarizmi\u00a0 \u00e0 l\u2019algorithme\u00a0 dont on retrouve aujourd&rsquo;hui l\u2019une des applications dans le fonctionnement des ordinateurs.Pour faire simple, on empruntera \u00e0 G\u00e9rard Berry, chercheur en science informatique, la d\u00e9finition grand public suivante : \u00ab Un algorithme, c\u2019est tout simplement une fa\u00e7on [&hellip;]<\/p>\n","protected":false},"author":1741,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"fifu_image_url":"","fifu_image_alt":"","footnotes":""},"categories":[73,53],"tags":[],"class_list":["post-22849","post","type-post","status-publish","format-standard","hentry","category-actualite","category-algerie"],"_links":{"self":[{"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/posts\/22849","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/users\/1741"}],"replies":[{"embeddable":true,"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/comments?post=22849"}],"version-history":[{"count":0,"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/posts\/22849\/revisions"}],"wp:attachment":[{"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/media?parent=22849"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/categories?post=22849"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/linitiative.ca\/International\/wp-json\/wp\/v2\/tags?post=22849"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}