Les algorithmes font-ils la loi ? d'Aurélie Jean a pour but d'expliquer à quoi devrait ressembler un cadre légal pour l'utilisation des algorithmes et des données personnelles. L'essai est divisé en plusieurs parties distinctes :


  • "Une brève introduction aux algorithmes" est une partie de vulgarisation sur ce qu'est un algorithme ("un ensemble hiérarchisé d'opérations logiques à exécuter dans le but de résoudre un problème ou de répondre à une question"), en particulier un algorithme numérique, qui combine des opérations par ordinateur qu'il serait quasi impossible de faire à la main, sur la différence entre algorithmes explicites et implicites et sur la différence entre données structurées et non structurées. Cette partie est assez abstraite, et la manière dont s'intersectent les algorithmes explicites ou implicites, les données structurées ou non structurées, les données labellisées ou non labellisées et l'apprentissage non supervisé n'est pas toujours très claire. On comprend cependant assez bien pour que ça ne soit pas gênant dans la suite de la lecture.
  • "Les lois aux temps des algorithmes" récapitule les principaux cadres légaux sur l'utilisation des algorithmes ainsi que leurs limites et "vides technologiques", par exemple le droit à l'effacement ou le profilage en ce qui concerne le RGPD, le problème étant également l'accélération des découvertes en algorithmique et de leurs utilisations commerciales que n'arrive pas à suivre la loi.
  • "Explicabilité et interprétabilité des algorithmes" définit des exigences en terme d'utilisation des algorithmes (transparence, équité), mises à mal par l'augmentation du niveau d'abstraction des modèles ; la transparence n'étant plus pertinente, on lui préfère l'explicabilité et l'interprétabilité des algorithmes, qui doivent être testés pour vérifier qu'ils ne produisent pas de biais discriminatoires. Les coûts environnementaux et techniques des algorithmes sont également mentionnés, dont la solution pourrait être le développement de nouvelles techniques pour obtenir des algorithmes ayant de bonnes performances mais entraînés sur des jeux de données plus restreints. Cependant, là aussi la partie de vulgarisation sur les algorithmes et leurs modèles de substitution (un modèle explicite construit en parallèle de l'algorithme implicite, dont on connait la logique d'exécution) aurait pu être approfondie, les détails n'étant pas toujours faciles à saisir.
  • "Les lois pour dompter les algorithmes" réfléchit sur une "gouvernance algorithmique", comme la constitution d'une agence d'évaluation et de régulation pour approuver le déploiement massif d'algorithmes dans un domaine donné (proposée par Cathy O'Neil), la validation par un expert des prédictions d'un algorithme (par exemple la validation d'un médecin pour le diagnostic d'un algorithme d'une tumeur au cerveau), la transparence de certains algorithmes (par exemple ceux de Google et Facebook pour la détection de contenus haineux et pornographiques), le fait de rendre obligatoire la constitution d'une documentation par une entreprise si elle est l'objet d'un scandale algorithmique et le "bug bounty" et "bias bounty" (des primes aux développeurs, hackeurs ou utilisateurs qui détectent des bugs ou des biais dans des algorithmes).
  • "Les algorithmes dans la loi" décrit les effets des algorithmes utilisés dans la loi, qu'ils soient négatifs (stigmatisation de certaines populations par des algorithmes de prédiction de crimes) ou potentiellement positifs (égaliser les décisions de justice, à condition que les juristes puissent expliquer les algorithmes et qu'ils prennent en compte avant tout le facteur humain).
  • "Vers une règlementation mondiale ?" rend compte de la difficulté à imposer des traités internationaux sur l'utilisation des algorithmes (traités non ratifiés, raison d’État qui empêche de dévoiler des algorithmes relatifs à la sécurité...), tout en restant optimiste sur le fait que des encadrements locaux (France, UE) puisse influencer d'autres acteurs.
  • La conclusion rappelle comme préconisations que les algorithmes n'ont pas de responsabilité morale (mais ceux qui les utilisent si), qu'il est possible d'influencer les acteurs du numérique (boycotts...) pour les faire évoluer positivement voire d'interdire mondialement des algorithmes menaçant la démocratie et les libertés individuelles.

Cet essai, malgré un certain manque de clarté dans la vulgarisation scientifique sur les algorithmes, réussi à décrire les différentes problématiques liées à l'utilisation des algorithmes de manière exhaustive et à proposer des solutions, judiciaires ou techniques, sur ces problématiques. Les enjeux éthiques sont bien décrits, de même que le cadre dans lequel devrait évoluer les algorithmes, au niveau national comme au niveau mondial.

MadameTeste
9
Écrit par

Créée

le 3 déc. 2023

Modifiée

le 3 déc. 2023

Critique lue 3 fois

MadameTeste

Écrit par

Critique lue 3 fois

D'autres avis sur Les Algorithmes font-ils la loi ?

Les Algorithmes font-ils la loi ?
Dieu_Incroyable
6

Critique de Les Algorithmes font-ils la loi ? par Dieu_Incroyable

Bon effort de vulgarisation entre la science informatique et le droit (certains chapitres restent assez techniques néanmoins). Bonne introduction, très nuancée, pour celui qui souhaite comprendre les...

le 19 févr. 2022

Du même critique

La Cloche de détresse
MadameTeste
8

La détresse de Sylvia Plath

Premier et unique roman de Sylvia Plath, La cloche de détresse est un récit d'inspiration autobiographique dans lequel l'auteur décrit son expérience de boursière, ses désillusions et sa plongée dans...

le 21 nov. 2023

Une gourmandise
MadameTeste
4

Anton Ego ?

Une gourmandise est un livre auquel je n'ai pas accroché, malgré les bonnes descriptions de nourriture associées à des souvenirs d'enfance : les personnages et les relations qu'ils ont avec le...

le 15 nov. 2023