les dafauts humains

Le défaut mécanique qui est un défaut humain

Quelle que soit la manière dont nous utiliserons les systèmes intelligents à l’avenir, nous avons tout intérêt à ne pas leur faire confiance aveuglément.

En 2014, Amazon aux États-Unis a développé un logiciel qui utiliserait un algorithme d’apprentissage pour évaluer les demandes reçues. Il s’est avéré que le logiciel triait les demandes des femmes. Cette affaire n’est qu’un exemple de la discrimination exercée par Amnesty International. Un algorithme conçu pour aider les juges à décider quels prisonniers devraient être libérés plus tôt a été associé à une forte probabilité de récidive pour les personnes à la peau foncée.

 

Que s’est-il passé ?

Un système d’auto-apprentissage apprend à partir des données que lui donne le programmeur. Si ces données de formation sont unilatérales ou contiennent des schémas discriminatoires, le système en tient compte. En d’autres termes, le logiciel a involontairement discriminé les candidatures des femmes parce qu’il était auparavant alimenté par des candidatures réussies – principalement des hommes. Les préjugés « appris » sont d’autant plus dangereux que les systèmes ne les divulguent pas.

Les processus d’apprentissage dans les systèmes d’auto-apprentissage sont souvent très complexes. Dans le domaine de la recherche sur l' »IA explicable », les scientifiques essaient donc de concevoir des systèmes de prévision de manière à pouvoir justifier leurs décisions et nous permettre de regarder à l’intérieur de la boîte noire de la machine.

 

 

En fin de compte, la question demeure : si les ordinateurs peuvent faire de plus en plus, vont-ils finir par nous dépasser – voire nous détruire ?

 

Les super-intelligences arrivent ?

V.I.K.I. est un ordinateur central et contrôle l’infrastructure de Chicago. Sa mission est de protéger l’humanité. Lorsque l’ordinateur voit des gens faire du mal à d’autres personnes, il en arrive à la conclusion qu’il doit sauver l’humanité de lui-même – en prenant le contrôle.

V.I.K.I. vient également du film « I, Robot », qui a été mentionné au début de cet article.

Le film montre le scénario d’horreur de la super intelligence, qui se retourne un jour contre l’homme. Nick Bostrom, professeur de philosophie à l’université d’Oxford, met en garde contre cet avenir : dans son livre « Super Intelligence », il décrit un scénario dans lequel les systèmes d’auto-apprentissage deviendront bientôt plus intelligents que les humains et leur intelligence augmentera de manière exponentielle. Cependant, cette théorie du chien avec l’intelligence artificielle et d’autres similaires sont controversées parmi les experts. Plus de 20 experts d’une étude à grande échelle menée par l’université de Stanford les considèrent comme très improbables dans un avenir proche : rien n’indique que l’IA constitue une menace immédiate pour l’humanité. Jusqu’à présent, aucune machine n’a été développée qui poursuive ses propres objectifs et intentions à long terme.

Il est également peu probable que cela se produise dans un avenir proche, affirment les scientifiques. La capacité à faire de véritables innovations (pour l’instant) est due aux humains. Les chercheurs voient des risques réalistes ailleurs – par exemple, dans un monopole des données des grandes sociétés informatiques, dans des individus manipulant les technologies de l’IA ou dans des gouvernements qui en abusent.

L’avenir intelligent est à portée de main. Il est donc d’autant plus important que la science, la politique et la société accompagnent les développements associés et discutent des opportunités et des risques afin que l’avenir devienne non seulement intelligent, mais aussi humain et durable.