"Les problèmes actuels ne m'intéressent pas. Je pense à long terme!"

Je divise cette critique en deux parties: la critique du discours politique et la critique sur l'aspect technologique.


Le point de vue adopté par Laurent Alexandre est purement capitaliste et sans nuance: les scénarios futurs proposés ici sont destinés à arriver parce que "c'est comme ça, c'est évident". La plus grande faiblesse de ce livre est de prétendre être dénué de toute idéologie alors que de nombreux passages montrent un anti-étatisme primaires et une obsession pour les milliardaires(Bill Gates, Elon Musk, etc...).


On y trouve des contradictions flagrantes:
-prétendre être humaniste et pour la préservation des sciences sociales tout en défendant une idéologie(le capitalisme) en opposition directe avec ces concepts ;
-prétendre que l'état finira par payer/rembourser les méthodes d'améliorations de l'intelligence(implant neuronal, traitement biologique etc...) alors qu'on nous répète à longueur de journées qu'il ne faut pas "tout attendre de l'état" et que le service public est moins efficace que le privé


Toute l'introduction du livre consiste à démontrer que l'intelligence est la cause première des inégalités et que ces inégalités se creuseront dans le futur à cause de l'IA et du transhumanisme. Le qi serait alors utilisé comme critère de sélection. La conséquence directe serait une coupure entre les riches et les pauvres jusqu'à la disparition de ces derniers(ça ne vous rappelle rien...?).
Ce discours permet d'éviter de parler des problèmes actuels (racisme, sexisme, l'aspect profondément inégalitaire du capitalisme justifié par une pseudo-méritocratie, etc...) en prétendant avoir une vision à plus long terme en imaginant des problèmes de science fiction.


Nous retrouvons le même problème concernant l'IA dans ce livre. Laurent Alexandre ne cite que des problèmes hypothétiques qui arriveraient à long terme: la démocratisation de l'eugénisme et du transhumanisme pour cohabiter avec l'IA, le risque que l'IA devienne hostile, etc...


Les problèmes cités ici montrent une méconnaissance du domaine de l'IA. L'IA est présenté comme une force que rien n'arrêtera et qui surpassera l'Homme dans tous les domaines(ou presque).
Le développement de l'IA rencontre pourtant énormément de difficultés malgré les succès impressionnants(Alphago). Il y a une crise de reproductibilité des résultats scientifiques: les résultats publiés ne sont pas toujours reproduit par manque de moyen et très souvent les résultats d'une méthode à l'autre ne montre pas de gain significatif.
Le deep learning rencontre plusieurs problèmes qui l'empêche de progresser, il ne suffira pas à atteindre une intelligence artificielle générale. Un exemple concret de difficulté concerne les voitures autonomes: des chercheurs ont modifiés de manière imperceptible(pour l'Homme) un panneau stop, l'IA a détecté le panneau comme étant un panneau délimitation de vitesse(vous pouvez chercher "adversarial example" pour plus d'exemples).
L'IA et le big data reste pour le moment dépendant de l'humain. Ces méthodes permettent de trouver des corrélations dans de grandes bases de données mais sont incapables de raisonner ou de modéliser des liens causes/effets. De plus des corrélations inutiles seront forcément détectées dans de grande base de données. Un volume de données important n'implique pas de meilleurs résultats.
Les personnalités de l'IA ont fait l'erreur de promettre des progrès imminents dans tous les domaines. L'engouement pour l'IA a très fortement augmenté les investissements dans ce domaine. L'IA semble être dans une bulle similaire à la bulle internet de 2000. Ce n'est pas la première fois que l'on surévalue les promesses de l'IA. L'IA a connu plusieurs "hivers" après que les promesses aient été brisés car "c'est plus difficile que prévu". Il est néanmoins peu probable que l'IA disparaisse, le rythme de croissance sera surtout diminué pour être plus réaliste sur le long terme.


Laurent Alexandre décrit l'IA comme étant sans limite grâce à l'évolution exponentielle de la puissance des machines. Cette évolution est représenté par la loi de Moore:" le nombre de transistor des processeurs double tous les 18 mois". Cette loi, ou plutôt cette prophétie autoréalisatrice, n'est plus valable depuis plusieurs années: le rythme ralentit parce que l'on atteint les limites de la miniaturisation des transistors(moins de 10 nm par transistor). Si la puissance disponible augmente c'est tout simplement parce que les GAFA ont investis massivement dans de nouveaux serveurs(notamment pour proposer des services clouds).
Au delà de la puissance de calcul il y a aussi la complexité des algorithmes. Les résultats de l'informatique théorique nous permettent de mesurer les limites des algorithmes: certains problèmes n'ont tout simplement pas de solution efficace(c'est à dire calculable en temps raisonnable). Laurent Alexandre dit également que les machines peuvent tout calculer: c'est complètement faux, tous les problèmes ne peuvent pas être résolus par des machines(résultat de l'informatique théorique encore une fois).
La limite de la puissance des machines implique qu'une IA forte devra être répartie sur plusieurs supercalculateurs. Cette grande puissance requise implique que l'IA forte ne sera pas calculé par les processeurs d'un robot. Un robot devrait accéder à distance à son IA, le robot est alors complètement maitrisable: on peut l'éteindre à distance ou imposer une limite de temps hors connexion(30 secondes sans connexion internet = blocage du robot).
Une des peurs est que l'IA forte se réplique sur d'autres machines et se reprogramme pour s'améliorer en permanence. Cette peur néglige un aspect important de l'IA: elle est programmée par l'Homme. Il suffit de limiter les accès de l'IA à internet et d'imposer des environnements isolés (sandbox) dans le fonctionnement de l'IA pour résoudre ces problèmes.


Pour terminer, ce livre ne parle à aucun moment des problématiques actuelles posées par l'IA. Elles ne sont pourtant pas si éloignés des problématiques abordées dans ce livre. Les problèmes ne viennent pas de l'IA mais de sont utilisation. Il ne faut pas oublier que l'IA n'est qu'un outil informatique, ce n'est pas une entité vivante. Il y a pleins d'exemples plus ou moins extrêmes de problèmes causés par une utilisation mauvaise(volontairement ou non de l'IA).
Par exemple, le gouvernement Chinois va mettre en place un système de crédit social basé sur le Big Data. Les citoyens auront une note selon leur comportement et certains droits pourront être limité ou supprimé temporairement tant que la note est basse. C'est déjà beaucoup plus concret qu'une hypothétique sélection basée sur le QI.
De manière générale les IA ont tendances à apprendre des biais présents dans les données. Certaines IA de reconnaissances faciales ne reconnaissent pas correctement les noirs ou les personnes ayant des yeux bridés. Ce problème peut être corrigé simplement si les équipes de développement prennent le temps de mieux préparer leurs données. Un exemple extrême de biais est présent dans les algorithmes de prédiction de la récidives utilisées par la justice américaine. L'IA utilisée a un biais défavorable pour les personnes de couleurs. Un délit isolé causé par un noir est jugé comme plus dangereux qu'un crime violent causé par un blanc. C'est un exemple typique d'algorithme appliqué sans discernement.
Un autre cas problématique est l'autonomisation des drones militaires. Une IA remplacerait les pilotes. C'est ce qui se rapproche le plus des robots tueurs. Mais ces IA n'ont pas choisit de tuer les humains pour se rebeller, elles ont été conçus pour ça. D'ailleurs elles ne savent pas qu'elles tuent(de la même manière qu'une guillotine n'a pas conscience de trancher une tête). Le problème est ici bien plus grand car il y a un risque de piratage. Et même sans piratage ce n'est qu'une question de temps avant qu'un drone tueur bricolé par un auto-didacte soit inventé....


De manière générale ce livre est décevant et énervant. Il rejoint la tradition des gourous de l'IA comme Elon Musk. Ces personnes ont le luxe de s'intéresser à des problèmes futurs en se basant sur de pures spéculations et en omettant les problèmes existants.


Sachez pauvres mortels qu'il n'y pas d'autres choix! There is no alternative! C'est comme ça et pas autrement! L'IA est destinée à nous surpasser! L'eugénisme et le transhumanisme sont des solutions évidentes!
À moins que....

Kira1
3
Écrit par

Cet utilisateur l'a également ajouté à sa liste Lectures 2018

Créée

le 17 mai 2018

Critique lue 778 fois

5 j'aime

2 commentaires

Kira1

Écrit par

Critique lue 778 fois

5
2

D'autres avis sur La guerre des intelligences

La guerre des intelligences
Kira1
3

"Les problèmes actuels ne m'intéressent pas. Je pense à long terme!"

Je divise cette critique en deux parties: la critique du discours politique et la critique sur l'aspect technologique. Le point de vue adopté par Laurent Alexandre est purement capitaliste et sans...

le 17 mai 2018

5 j'aime

2

La guerre des intelligences
Lycurgue
6

Manifeste pour un indispensable réveil de l'Europe

Personnage et militant politique qui divise, Laurent Alexandre est un est chirurgien, titulaire d'un MBA à HEC et d'un diplôme de l'ENA. Je ne m'attarde d'ordinaire pas sur ce genre de détails, mais...

le 1 janv. 2021

1 j'aime

La guerre des intelligences
omoat
8

Il y a l'IA...

Laurent Alexandre nous met efficacement en face de l'impressionnant développement des technologies NBIC, sigle qui signifie Nanotechnologies, biotechnologies, Informatique et sciences Cognitives. Son...

le 15 oct. 2018

1 j'aime

Du même critique

La France Big Brother
Kira1
2

1984 fap fap fap

Après nous avoir fait peur dans "la France orange mécanique", Laurent Obertone veut nous faire passer un message. Il tient absolument à ce que vous sachiez qu'il a lu et compris 1984 de Georges...

le 25 août 2015

8 j'aime

3

Bad Girl
Kira1
5

Critique de Bad Girl par Kira1

Je me 5/10 parce que je ne sais pas trop quelle note mettre, donc dans le doute... C'est un peu facile de mettre 1/10 sous prétexte que c'est un court métrage français avec un message clairement...

le 21 mars 2015

8 j'aime

3

Adieu au langage
Kira1
4

Critique de Adieu au langage par Kira1

Adieu au langage est un film expérimental de toute évidence, mais quand même.... Un film peut être expérimental et avoir un sens, là le sens est vide et le message est digne d'une mauvaise...

le 13 déc. 2014

8 j'aime