Des drones aux robots industriels, la robotique et l'intelligence artificielle font de plus en plus partie de notre quotidien. Comment répondre aux nouveaux défis juridiques et éthiques liés à ces technologies ? Dans un rapport débattu et voté en session plénière cette semaine, les députés demandent la mise en place d'un cadre légal à l'échelle européenne. Nous avons rencontré Mady Delvaux, députée démocrate socialiste luxembourgeoise en charge du dossier, pour en savoir plus.

Quels sont les différents types de robots concernés par ce rapport ?

Le texte concerne les véhicules autonomes, les drones, les robots industriels, les robots de soins ou encore les robots de divertissement. Il ne se penche pas sur les robots pouvant être utilisés comme des armes.

On entend par robot une machine physique équipée de capteurs et interconnectée à son environnement dans le but d'échanger et d'analyser des données.

Il faut s'attendre à ce que la prochaine génération de robots soit de plus en plus autonome en matière d'apprentissage.

Que signifierait concrètement la création d'une personnalité juridique ou d'un statut légal des robots et de l'intelligence artificielle ?

L'émergence de robots de plus en plus autonomes nécessite une réflexion autour de nouvelles solutions. Dans ce rapport, nous demandons à la Commission européenne de se pencher sur certaines pistes.

L'une d'entre elles serait de conférer aux robots une « personnalité électronique » limitée, au moins pour les cas où une compensation est nécessaire. Il s'agirait du même principe que celui dont nous disposons actuellement pour les entreprises. Cette solution mettrait néanmoins du temps à voir le jour.

Ce dont nous avons besoin dès maintenant, c'est un cadre légal pour les robots actuellement disponibles sur le marché ou qui le seront au cours de la prochaine décennie.

En attendant, sur qui devrait reposer la responsabilité civile en cas de dommage ? Sur le fabricant, le propriétaire, l'utilisateur ?

Nous sommes face à deux possibilités. Le principe de la responsabilité stricte propose que le fabriquant soit responsable car il est le mieux placé pour limiter de potentiels dommages. Si nécessaire, il peut se tourner vers ses fournisseurs.

La seconde option serait de mettre en place une évaluation des risques avec des tests au préalable et une forme de compensation à laquelle toutes les parties pourraient contribuer.

Nous proposons également la création d'un régime d'assurance obligatoire, au moins pour les « gros » robots.

Votre rapport se penche également sur l'aspect social de la robotique, notamment sur la question de l'attachement émotionnel aux robots de soins. Que proposez-vous ?

Il faut rappeler aux gens que le robot n'est pas un être humain et qu'il n'en sera jamais un. S'il peut montrer de l'empathie, il n'en ressent pas. Nous ne voulons pas de robots qui ressembleraient de plus en plus aux humains, comme c'est le cas au Japon par exemple.

Nous avons donc proposé la création d'une charte visant à empêcher les personnes de devenir émotionnellement dépendantes à leurs robots.

À quel point est-il urgent de légiférer en matière de robotique ?

Pour une fois, nous pourrions établir des principes à l'échelle européenne et un cadre légal commun avant que chaque État membre ne mette en œuvre sa propre législation. Une standardisation en la matière pourrait également profiter à l'industrie : pour rester à la pointe en matière de robotique, l'Europe doit disposer de normes communes.

Sur la question de la responsabilité, les clients doivent être certains de disposer d'une forme d'assurance en cas de dommage. L'enjeu clé est celui de la sécurité, mais aussi de la protection des données : les robots ne fonctionnent pas sans échange de données, ce qui pose la question de l'utilisation de toutes ces informations.

Les robots pourraient créer des emplois dans certains domaines et en détruire dans d'autres, en remplaçant par exemple des personnes peu qualifiées. Comment résoudre ce problème ?

Je pense qu'il s'agit là du plus grand défi pour notre société et nos systèmes éducatifs. Nous ne savons pas à l'heure actuelle comment la situation va évoluer. Je suppose qu'il existera toujours des emplois peu qualifiés. Les robots ne vont pas remplacer les hommes : ils travailleront en coopération avec eux, en les aidant par exemple à transporter des marchandises lourdes.

Nous demandons à la Commission européenne de suivre cette évolution et d'analyser dans quels secteurs l'utilisation des robots détruit des emplois, pour que nous soyons préparés à tous les types de scénarios.

Ce rapport contient également un point controversé au sujet de l'instauration d'un revenu universel et du changement des systèmes de sécurité sociale. Si de nombreuses personnes perdent leur emploi à cause des robots, il faudra leur assurer une vie décente. Nous invitons les États membres à y réfléchir.

Le rapport sera débattu ce mercredi 15 février et soumis aux votes jeudi 16 février. Suivez la session plénièreen direct sur notre site web.

Cet article a initialement été publié le 12 janvier 2017.

La Sté Parlement Européen a publié ce contenu, le 15 février 2017, et est seule responsable des informations qui y sont renfermées.
Les contenus ont été diffusés par Public non remaniés et non révisés, le15 février 2017 11:53:06 UTC.

Document originalhttp://www.europarl.europa.eu/news/fr/news-room/20170109STO57505/Mady-Delvaux-«-Un-cadre-légal-en-matière-de-robotique-est-nécessaire-»

Public permalinkhttp://www.publicnow.com/view/16407203247539E2C8E624A583A352B27D0FA38A