# EODE-BOOKS / BIG DATAS : ALGORITHMES , LA BOMBE A RETARDEMENT

CVT_Algorithmes--la-bombe-a-retardement_7677
EODE-BOOKS – lire – s’informer – se former
Un service du Département EDUCATION & RESEARCH
de l’Ong EODE
 
# ALGORITHMES , LA BOMBE A RETARDEMENT
 
Auteur : Cathy O'Neil
Editeur : LES ARENES
 
Préface de Cédric Villani
 
Qui choisit votre université ? Qui vous accorde un crédit, une assurance, et sélectionne vos professeurs ? Qui influence votre vote aux élections ? Ce sont des formules mathématiques.
 
Ancienne analyste à Wall Street devenue une figure majeure de la lutte contre les dérives des algorithmes, Cathy O’Neil dévoile ces « armes de destruction mathématiques » qui se développent grâce à l’ultra-connexion et leur puissance de calcul exponentielle. Brillante mathématicienne, elle explique avec une simplicité percutante comment les algorithmes font le jeu du profit.
 
Cet ouvrage fait le tour du monde depuis sa parution. Il explore des domaines aussi variés que l’emploi, l’éduca­tion, la politique, nos habitudes de consommation. Nous ne pouvons plus ignorer les dérives croissantes d’une industrie des données qui favorise les inégalités et conti­nue d’échapper à tout contrôle. Voulons-nous que ces formules mathématiques décident à notre place ? C’est un débat essentiel, au cœur de la démocratie.
 

Traduit de l’anglais (États-Unis) par Sébastien Marty
 
L'AUTEUR
 
Cathy O’Neil, diplomée de Harvard, est une mathéma cienne, data scien que et militante au sein du mouvement Occupy Wall Street. Elle met en garde contre les dangers et les impacts des algorithmes dans le domaine de la jus ce, de l’éduca on, de l’accès à l’emploi ou au crédit.
 
“L'ouvrage de l'analyste et mathématicienne Cathy O'Neil, publié en 2016 en langue anglaise, vient d'être traduit en français. "Algorithmes, la bombe à retardement" explique en détail l'application concrète des algorithmes d'apprentissage automatique (logiciels "d'intelligence artificielle") dans la société américaine, avec toutes les conséquences qu'ils engendrent. Bienvenue dans l'enfer des machines évaluant les êtres humains.
( Pascal Hérard, dans AccueilInfoEnjeux numériques)
 
Cathy O'Neil est une "repentie" et le fait savoir dès le début de son ouvrage : après un doctorat en mathématiques et 8 années à enseigner, elle a travaillé quatre ans pour un fonds spéculatif à partir de 2007, puis pour une entreprise numérique spécialisée dans les "modèles prédictifs d'achats et les clics des consommateurs". Ce sont ces années à paufiner des algorithmes et optimiser des analyses financières qui ont ouvert les yeux de cette — désormais — militante d'Occupy Wall Street : les logiciels d'analyse et de notation, implantés à tous les niveaux de la société sont en réalité pour l'auteure des "armes de destruction mathématiques". C'est avec ce titre que son ouvrage a d'ailleurs été publié en 2016 : "Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy" : "Armes de destruction mathématiques. Comment les Big Data accentuent les inégalités et menacent la démocratie".
 
LES BIG DATAS EN CAUSE :
 
NOTATION DES MACHINES
 
Cathy O'Neil débute son ouvrage avec les précautions nécessaires pour ne pas perdre le lecteur : elle définit ce que sont réellement les algorithmes utilisés dans le monde de la finance, et plus largement les modèles prédictifs bourrés de Big Data qui sont désormais implantés de partout aux Etats-Unis : de l'éducation à la justice en passant par le commerce ou la santé, les organismes sociaux ou les assurances. La première application de ces modèles informatique censés optimiser les activités humaines décrite par O'Neil est le logiciel d'évaluation des enseignants, nommé IMPACT et mis en place en 2009, leur donnant un score : l'algorithme prend en compte de nombreux facteurs pour évaluer l'enseignant, dont les compétences en mathématiques et linguistique des élèves.
 
“LES PROCESSUS REPOSANT SUR LE BIG DATA N’INVENTENT PAS LE FUTUR, ILS CODIFIENT LE PASSÉ” (CATHY O'NEIL)
 
C'est ainsi qu'une enseignante très appréciée de sa direction, des parents d'élève et de ses élèves, est licenciée après que le logiciel lui a donné un score très faible. 205 autres enseignants de l'Etat de Washington D.C sont alors congédiés avec elle. L'enseignante s'occupait d'une majorité d'élèves en grande difficulté, la machine, voyant les mauvaises notes de ces derniers, lui a infligé un score très faible, synonyme de licenciement dans le système mis en place…
 
“RENONÇONS, AU MOINS POUR LES DIX À VINGT ANNÉES QUI VIENNENT, À CONCEVOIR DES OUTILS DESTINÉS À MESURER L’EFFICACITÉ D’UN ENSEIGNANT” (CATHY O'NEIL)
 
C'est à partir de cette première histoire que l'auteure entraîne le lecteur dans une sucession de chapitres expliquant les mécanismes d'un véritable écosystème de notations et de prédictions mis en place aux Etats-Unis depuis une dizaine d'années. Un écosystème algorithmique de notations sociales, politiques et économiques.
 
DES PEINES DE PRISON AU PRIX DES ASSURANCES
 
Cathy O'Neil connaît très bien les modèles mathématiques qui sous-tendent les algorithmes qui s'appliquent dans la société américaine, comme ceux que la justice utilise pour déterminer les peines de prison. Son constat — sans appel — n'est pas une critique pure des algorithmes en tant que tels, mais plutôt la démonstration des biais qu'ils comportent… de par les données qu'ils traitent. Un exemple : les juges américains sont désormais équipés de logiciels qui calculent le taux de récidive d'un justiciable et proposent une peine "adaptée" en fonction de celui-ci. Plus le taux de récidive est élevé, plus la peine est longue.
 
“LES ALGORITHMES D'APPRENTISSAGE AUTOMATIQUE ET D'INTELLIGENCE ARTIFICIELLE N'INTÈGRENT PAS UNE MODÉLISATION DU MONDE CAPABLE DE DISTINGUER DE FAÇON FIABLE LA VÉRITÉ DU MENSONGE” (CATHY O'NEIL)
 
Les juges ne sont pas obligés de suivre ces propositions mais doivent quand même justifier leur choix s'ils ne les suivent pas et il a été déterminé de façon très claire que les personnes afro-américaines étaient toujours bien plus lourdement condamnées, avec un taux de récidive calculé par la machine toujours très élevé. Ce n'est pourtant pas un biais raciste basé sur l'origine ethnique ou la couleur de peau qui oriente la machine, mais une somme de donnée qui — en réalité — condamnent plus lourdement en fonction du milieu social . Résider dans un quartier pauvre, ne pas avoir de diplômes, avoir été souvent contrôlé pa la police, être sans emploi, sont des facteurs pris en compte par le logiciel : les afro-américains étant bien plus sujets à ces phénomènes, ils sont donc automatiquement plus condamnés.
 
“NOUS DEVRIONS EN TANT QUE SCIENTIFIQUES PROPOSER POUR L’AUDIT D’UN ALGORITHME DES MÉTHODES STATISTIQUES JUDICIEUSES ET EXHAUSTIVES” (CATHY O'NEIL)
 
Les compagnies d'assurances automobiles utilisent elles aussi les Big Data pour calculer leurs tarifs, prenant en compte les"scores de crédit, ainsi que des données démographiques et des informations de consommation. Une très bon payeur, qui rembourse parfaitement ses crédits bancaires, achète du luxe mais a déjà été arrêté en état d'ivresse payera nettement moins cher qu'une personne en difficulté financière, issue d'un quartier pauvre mais sobre au volant !
 
UN OUVRAGE QUI ALERTE MAIS PROPOSE
 
O'Neil détaille tous les pans touchés par les systèmes algorithmiques prédictifs et autres modèles statistiques en œuvre aujourd'hui aux Etats-Unis : recrutement dans les entreprises, aides sociales, chasse aux chômeurs, attribution de logements, obtention de crédit bancaire, publicité en ligne, ciblage et influence des électeurs, planification du travail : rien n'est laissé au hasard dans "Algorithmes, une bombe à retardement", avec de nombreux détails sur le fonctionnement des entreprises ou institutions utilisant ces "armes de destruction mathématiques", des logiciels qui accentuent au final les biais et inégalités déjà présents dans la société américaine.
 
“UN MODÈLE POURRAIT PAR EXEMPLE ÊTRE PROGRAMMÉ AFIN DE S’ASSURER QUE LA DIVERSITÉ DES APPARTENANCES ETHNIQUES OU DES NIVEAUX DE REVENUS SOIT BIEN REPRÉSENTÉ AU SEIN DE DIFFÉRENTS GROUPES D’ÉLECTEURS OU DE CONSOMMATEURS” (CATHY O'NEIL)
 
Ce que démontre Cathy O'Neil tout au long des 340 pages de son ouvrage est que la "bombe à retardement algorithmique" en question réside avant tout dans l'utilisation qui est faite de ces modèles. Ces algorithmes sont écrits pour la génération de profits financiers ou sur des présupposés sociétaux. Ce qu'explique l'auteure en substance, résume la situation américaine et l'orientation des algorithmes :"Les pauvres sont plus sujets à être délinquants, la pauvreté est considérée comme une "maladie" et les gens la subissant n'auraient pas le courage de se "soigner", les riches sont plus fiables, se comporteraient mieux en société, il est plus facile de vendre de l'argent "cher" à des pauvres qu'à des riches, etc".
 
L'analyste et mathématicienne Cathy O'Neil conclue donc son ouvrage sur une somme de constats et de propositions afin de "corriger" les algorithmes qui recouvrent désormais presque tous les pans de la vie moderne. Il faudrait selon elle des systèmes de régulation, d'audits, des interdictions dans certains domaines, des mesures pertinente et la créations d'algorithmes "positifs", orientés vers l'aide humaine, l'accompagnement. Le dernier paragraphe de son ouvrage passionnant et très exhaustif est une sorte d'appel à se mobiliser, mais aux vues de la situation actuelle, il résonne presque comme une utopie :
 
Commençons dès maintenant à bâtir un cadre, pour s'assurer à long terme que les algorithmes rendent des comptes. Posons comme base la démonstration de leur légalité, de leur équité et de leur ancrage factuel. Et continons au fil du temps de préciser ce que ces critères signifient, en fonction du contexte. Ce sera un travail collectif, et nous aurons besoin d'autant d'avocats et de philosophes que d'ingénieurs. Mais en concentrant nos efforts, il sera possible d'y arriver. Nous ne pouvons pas nous permettre de rester spectateurs.”
 
 
Fiche Technique
 
Pages 352
Prix 20,90 €
Format 140 x 210 mm
Parution 07 nov 2018
ISBN978-2-35204-980-7
Code Diffuseur 5738279
 
_____________________
 
# EODE-BOOKS …
eode.books@yahoo.com
http://www.eode.org/category/eode-books/
https://www.scoop.it/t/eode-books
 
EODE ORGANISATION …
 
# EODE-TV :
* EODE-TV https://vimeo.com/eodetv
* EODE-TV sur YouTube :
https://www.youtube.com/user/EODEtv
* Page Officielle EODE-TV
https://www.facebook.com/EODE.TV/
# ЕВРАЗИЙСКИЙ СОВЕТ ЗА ДЕМОКРАТИЮ И ВЫБОРЫ (ЕСДВ)/
EURASIAN OBSERVATORY FOR DEMOCRACY & ELECTIONS
(EODE) :
http://www.eode.org/
https://www.facebook.com/EODE.org /
https://www.facebook.com/groups/EODE.Eurasie.Afrique/
https://www.facebook.com/EODE.africa/
https://www.facebook.com/EODE.russia.caucasus/
# GROUPE OFFICIEL ‘EODE – AXE EURASIE AFRIQUE’
https://www.facebook.com/groups/EODE.Eurasie.Afrique/
 
 
 
This entry was posted in # EODE BOOKS. Bookmark the permalink.

Comments are closed.