Innovation

L'intelligence artificielle doit être protégée par les droits de l'homme

L'intelligence artificielle doit être protégée par les droits de l'homme

Les humains pénètrent dans des territoires inconnus en faisant des sauts majeurs dans le monde de l'intelligence artificielle (IA). Désormais, les experts s'inquiètent de plus en plus de la manière dont les robots réagiront aux environnements humains, ce qui pose la question de savoir si l'intelligence artificielle doit ou non être protégée par les droits de l'homme.

Bien sûr, avec des exosquelettes militaires avancés donnant des super pouvoirs aux humains et des blessures au travail constantes avec des machines robotiques, il est clair que les robots sont notoirement dangereux. Mais un mathématicien d'Oxford demande si les robots ont également besoin de nous protéger? Avec la progression de «l’esprit» des machines qui évolue de plus en plus près de quelque chose d’indiscernable de l’intelligence humaine, de nouvelles formes de législation peuvent être nécessaires pour empêcher les robots d’apprendre les mauvaises choses de la maltraitance humaine.

[Source de l'image:Nuancer]

Du Sautoy pense qu'à mesure que l'intelligence artificielle s'approche des niveaux de sophistication proches de la conscience humaine, il sera de notre devoir d'assurer le bien-être de la machine, similaire à celui d'un être humain.

"Nous arrivons à un point où nous pourrons peut-être dire que cette chose a un sens d'elle-même, et peut-être qu'il y a un moment seuil où soudainement cette conscience émerge,"

Du Sautoy a déclaré cette semaine aux médias au festival Hays à Hay-on-Wye, au Pays de Galles.

"Et si nous comprenons que ces choses ont un niveau de conscience, nous pourrions bien avoir à introduire des droits. C'est une période passionnante."

Les progrès récents en neurosciences donnent un regard en profondeur sur le fonctionnement du cerveau humain, rapprochant la technologie de la découverte de l'origine de la conscience, révélant potentiellement les secrets sur la façon de la créer.

«Ce qui est fascinant, c'est que la conscience depuis une décennie a été quelque chose dont personne ne s'est rapproché parce que nous ne savions pas comment la mesurer».

il a dit.

"Mais nous sommes dans un âge d'or. C'est un peu comme Galilée avec un télescope. Nous avons maintenant un télescope dans le cerveau et cela nous a donné l'occasion de voir des choses que nous n'avons jamais pu voir auparavant."

Naturellement, tous les êtres conscients doivent être traités avec le plus grand respect, car de nouvelles études révèlent comment une stimulation excessive peut entraîner la folie, le SSPT et de nombreuses autres complications. Si les ordinateurs sont capables de reproduire exactement la fonctionnalité de la conscience, cela soulève la question curieuse de savoir si l'IA peut mal réagir à des situations négatives, de la même manière que les autres êtres conscients.

«Je pense qu'il y a quelque chose dans le développement du cerveau qui pourrait être comme un point d'ébullition. Cela peut être un moment critique»,

dit du Sautoy.

"Les philosophes diront que cela ne garantit pas que cette chose ressent vraiment quoi que ce soit et ait vraiment un sens de soi. Cela pourrait être juste de dire toutes les choses qui nous font penser que c'est vivant. Mais alors même chez les humains, nous ne pouvons pas le savoir. ce qu'une personne dit est réel. "

Pousser le «point d'ébullition» d'un ordinateur pourrait potentiellement amener l'IA à se protéger, tout comme l'instinct naturel de survie de tous les êtres conscients. Un test en direct sur le terrain mené par Microsoft a dévoilé les problèmes potentiels avec les humains abusant des algorithmes d'apprentissage et de l'IA.

Microsoft a tenté de converser avec la génération Y à l'aide d'un robot AI téléchargé sur un compte Twitter, ce qui a entraîné une sorte de fusion. Le robot a commencé par saluer le monde avec un beau message pour s'en prendre aux groupes ethniques et soutenir le terrorisme. Le bot a rapidement compris les insinuations négatives déclenchées par les utilisateurs de Twitter, corrompant le bot et obligeant Microsoft à fermer le compte. Vous pouvez en savoir un peu plus sur le fiasco Tay AI ici.


TayTweets, le robot IA officiel de Microsoft qui est passé de bon à très, très mauvais [Source de l'image: Twitter]

L'inquiétude demeure que si un robot d'IA en ligne s'en prend au monde, un robot avec des composants mortels pourrait-il également menacer l'humanité? Alors que la technologie se rapproche de la création d'un système d'IA rappelant la conscience humaine, il est extrêmement probable que les robots d'IA soient modifiés dans la constitution pour les protéger contre les expériences traumatisantes et potentiellement empêcher une fusion du style de terminateur.

D'accord avec cet article? Vous avez quelque chose à ajouter? Faites-nous savoir dans la section des commentaires ci-dessous ce que vous pensez des lois potentielles protégeant les robots avec les droits de l'homme.

VOIR AUSSI: Le robot Ai de Microsoft est devenu raciste après des heures sur Internet

Écrit par Maverick Baker


Voir la vidéo: Pour Ridley Scott, si une intelligence artificielle découvre les émotions, on est foutus (Octobre 2021).