Connexion
Accueil
.
Translate my forum
.





Bonjour !

Forums


Rechercher
Résultats par :
Recherche avancée
Mots-clés

Flux RSS

Yahoo! 
MSN 
AOL 
Netvibes 
Bloglines 

Partagez
Voir le sujet précédentAller en basVoir le sujet suivant
avatar
Admin
Messages : 292
Date d'inscription : 13/01/2014
Voir le profil de l'utilisateurhttp://histoiresincroyables.forumactif.org

Faut-il avoir peur… de l’intelligence artificielle?

le Ven Sep 30 2016, 03:46





La lettre ouverte publiée début 2015 par de nombreuses personnalités du monde de la science et de la technologie, dont le physicien Stephen Hawking et l’entrepreneur Elon Musk, a fait grand bruit. Maintenant que la recherche est sortie des laboratoires et a commencé à se traduire en produits commerciaux, il est temps de mettre des balises pour que l’intelligence artificielle serve vraiment le bien commun, disent-ils. On doit mieux étudier les effets pernicieux que pourraient avoir des algorithmes capables de remplacer l’humain dans de nombreuses circonstances.

De quoi, par exemple, vivrons-nous si les machines prennent nos emplois? Un algorithme peut-il vraiment remplacer le jugement d’un médecin? Peut-on seulement insuffler le sens de la morale à des robots capables de tuer? «Nous en sommes seulement aux premiers petits pas de ces techniques, mais nous savons déjà que nous pourrions nous laisser dépasser par leurs répercussions», explique Wendell Wallach, spécialiste de l’éthique de l’intelligence artificielle à l’Université Yale, aux États-Unis.

À lire aussi:

Les robots sont (presque) meilleurs que vous

Dans son dernier livre, A Dangerous Master (un maître dangereux), l’éthicien propose des moyens d’éviter que la maîtrise de ces technologies ne nous échappe. «Il faut d’abord constituer un front commun de spécialistes en sciences humaines, sociales et en technologies pour mieux repérer les dangers potentiels, en consacrant au moins 10 % de la recherche en intelligence artificielle à ces questions», explique-t-il. Mais des actions concrètes doivent aussi être accomplies dès maintenant, comme l’interdiction des robots tueurs. «Le Canada serait bien placé aujourd’hui, avec Justin Trudeau, pour prendre l’initiative d’une convention mondiale pour l’interdiction de ces armes autonomes», croit le chercheur, qui vient de passer un an à Ottawa.

Plusieurs groupes de réflexion se sont mis en place dans les dernières années pour étudier les possibles dérives de l’intelligence artificielle et sensibiliser les gouvernements. En 2015, Elon Musk a donné 10 millions de dollars à la recherche en éthique au Future of Life Institute, qui compte des personnalités comme le physicien Stephen Hawking ou l’acteur Morgan Freeman dans son comité consultatif.

À lire aussi:

Les nouvelles intelligences

Dans le camp d’en face, le mouvement transhumaniste, pour sa part, voit dans l’intelligence artificielle le Graal qui permettra enfin l’émergence de posthumains immortels, avec les progrès en nanotechnologies, en neurosciences et en biologie. Le pape de ce mouvement, l’ingénieur et futurologue Ray Kurzweil, prédit que la machine dépassera l’humain en 2045, une singularité technologique dont nos cerveaux d’aujourd’hui ne peuvent comprendre les conséquences. Même si cette théorie est considérée comme farfelue par la plupart des scientifiques, elle inspirerait largement Google dans ses projets. En 2012, l’entreprise a engagé Ray Kurzweil pour travailler en intelligence artificielle, et elle finance la Singularity University, qui répand sa vision.

_________________
Mayanne
Voir le sujet précédentRevenir en hautVoir le sujet suivant
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum