Robotique

Les robots tueurs pourraient causer des atrocités de masse

Les robots tueurs pourraient causer des atrocités de masse


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Les robots seront utilisés comme soldats à l'avenir. En fait, certains robots ainsi que des drones sont déjà déployés par les militaires. Des robots intelligents et autonomes programmés par les humains pour cibler et tuer pourraient commettre des crimes à l'avenir. À moins qu'il n'y ait un traité pour que la robotique et l'intelligence artificielle (IA) soient utilisées de manière responsable.

Disposer de la technologie capable de construire des robots qui tuent ne signifie pas que nous devons l'utiliser. Comme l'oncle de Spiderman l'a dit un jour, «une grande puissance s'accompagne d'une grande responsabilité».

Les experts en apprentissage automatique et en technologie militaire affirment qu'il serait technologiquement possible de construire des robots qui décident de savoir qui cibler et tuer sans qu'un contrôleur humain soit impliqué. Étant donné que les algorithmes de reconnaissance faciale et de prise de décision sont de plus en plus puissants, il serait plus facile de créer de tels robots.

Les risques des robots tueurs

Les chercheurs en IA et en politiques publiques tentent de démontrer que les robots tueurs sont une mauvaise idée dans la vraie vie. La création d'armes entièrement autonomes entraînerait de nouveaux dilemmes techniques et moraux.

Les scientifiques et les militants, pour cette raison, ont poussé les Nations Unies et les gouvernements mondiaux à reconnaître le problème et à envisager une interdiction préventive.

L'IA peut-elle être utilisée comme arme?

La reponse courte est oui. Comme toute autre technologie existante, l'intelligence artificielle peut être utilisée pour de bon, mais aussi pour tuer. La reconnaissance faciale et la reconnaissance d'objets sont des technologies qui se sont améliorées au cours des dernières années. On pourrait dire qu'ils sont devenus beaucoup plus précis, mais ils sont loin d'être parfaits.

La reconnaissance faciale et la reconnaissance d'objets sont des compétences susceptibles de devenir essentielles dans le cadre d'une boîte à outils pour les armes létales autonomes (LAWS). Cependant, il est également assez facile de tromper ces technologies, si l'on veut vraiment les tromper.

Robots militaires: Présent et futur

Les robots militaires sont des robots ou drones autonomes télécommandés qui ont été conçus pour des applications militaires. Les robots militaires peuvent être utilisés pour le transport, la recherche et le sauvetage, ainsi que pour l'attaque, avec l'implication de tuer des humains et même de détruire des villes.

Certains de ces systèmes sont actuellement en cours de déploiement et d'autres sont en cours de développement. Certains robots militaires sont développés dans le strict secret afin d'empêcher les autres d'apprendre leur existence.

Les États-Unis font déjà voler des drones militaires dans des régions où les États-Unis sont en guerre ou engagés dans des opérations militaires. Jusqu'à présent, les contrôleurs humains décident quand ces drones tireront.

Bien que les armes autonomes létales (LAWS) n'existent pas encore, - ou c'est ce que nous pensons - la technologie pour remplacer les contrôleurs humains par un algorithme qui prend la décision de quand et quoi tirer existe, en effet. Certains chercheurs en IA pensent que LAWS, sous la forme de petits drones, pourrait être utilisée comme arme en moins de deux ans.

Alors que les drones d'aujourd'hui transmettent un retour vidéo à une base militaire, où un soldat humain prend la décision de savoir si le drone doit tirer sur la cible ou non, avec une arme entièrement autonome, le soldat ne prendra plus cette décision. Un algorithme prendrait la décision à la place.

Armes létales autonomes (LAWS): les humains sont-ils en danger?

L'ère de la guerre à la machine n'est pas trop loin dans le futur. L'armée a expérimenté des robots pouvant faire partie du champ de bataille et utilisés comme armes tueuses. Les guerres du futur peuvent alors être plus infusées de haute technologie et moins humaines. Quelles conséquences cela entraînerait-il pour l'humanité?

Le risque posé par les armes autonomes létales (LAWS), également appelées robots tueurs, est réel. Certains chercheurs en intelligence artificielle (IA) ont de nombreuses raisons de soutenir leur consensus selon lequel le monde devrait interdire le développement et le déploiement d'armes autonomes létales.

La raison est assez simple, les puissances militaires pourraient produire en masse une armée de robots tueurs à moindre coût. Cependant, l'humanité pourrait payer un prix élevé; la fabrication et l'activation de robots tueurs augmenteraient la probabilité de prolifération et de massacre.

Robots tueurs: un humain est toujours responsable de toute action d'un robot

À ce stade, la question se pose, qui devrait être responsable des actions d'un robot? Et quelle roboéthique devrait être appliquée aux robots autonomes létaux? Pendant une guerre, ou même pendant un conflit plus petit, les choses peuvent devenir incontrôlables. Les robots tueurs devraient-ils assumer le contrôle total?

Les robots destinés à être utilisés dans un conflit de guerre en tant qu'armes mécaniques intégrées à l'intelligence artificielle et à l'apprentissage automatique devraient avoir une sorte d'interrupteur marche / arrêt.

Aujourd'hui, les trois lois de la robotique d'Isaac Asimov représentent plus de problèmes et de conflits pour les roboticiens qu'ils n'en résolvent.

Les roboticiens, les philosophes et les ingénieurs assistent à un débat en cours sur l'éthique des machines. L'éthique des machines - ou roboéthique - est une proposition pratique sur la manière de concevoir et de prévoir simultanément des sanctions éthiques pour les robots.

La Roboéthique traite du code de conduite que les ingénieurs concepteurs robotiques doivent mettre en œuvre dans l'intelligence artificielle d'un robot. Qui ou quoi va être tenu responsable quand ou si un système autonome fonctionne mal ou nuit aux humains?

Les trois lois de la robotique: devraient-elles être appliquées aux robots tueurs?

En 1942, l'écrivain de science-fiction Isaac Asimov a présenté les trois lois de la robotique - également connues sous le nom de lois d'Asimov - dans sa nouvelle. Courir autour. Même si les trois lois de la robotique d'Asimov faisaient partie d'un monde fictif, elles pourraient être un bon point de départ pour la programmation de robots aujourd'hui.

Avant et si les gouvernements déploient des armes autonomes létales, ils doivent s'assurer qu'ils peuvent empêcher les robots tueurs conçus pour être déployés dans des zones de guerre de déclencher une guerre par eux-mêmes ou de provoquer des atrocités de masse telles que tuer des civils.

Certains peuvent penser que les lois de la robotique suivantes vont à l'encontre de ce qu'un soldat devrait faire. C'est peut-être le point principal après tout. En d'autres termes, peut-être qu'un humain ne devrait pas donner le sale boulot à une machine qui n'est pas encore capable d'individualiser les situations et de porter un jugement.

  • Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de nuire

  • Un robot doit obéir aux ordres donnés par les êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la première loi

  • Un robot doit protéger sa propre existence tant qu'une telle protection n'est pas en conflit avec la première ou la deuxième loi

Arrêtez les robots tueurs

Il y a une campagne pour Stop Killer Robots, une coalition d'organisations non gouvernementales qui cherchent à interdire de manière préventive les armes létales autonomes (LAWS).

Le Secrétaire général des Nations Unies (ONU) a exhorté les États à agir rapidement pour répondre aux préoccupations concernant les systèmes d'armes autonomes létales dans son rapport 2020 sur la protection des civils dans les conflits armés. Il s'agit du premier rapport de l'ONU sur la protection des civils depuis 2013 à souligner les préoccupations générales concernant les robots tueurs.

Dans le rapport 2020, le Secrétaire général António Guterres estime que «toutes les parties semblent s'accorder sur le fait qu'au minimum, le maintien du contrôle humain ou du jugement sur le recours à la force est nécessaire». Il note également qu '«un nombre croissant d'États membres ont appelé à l'interdiction des LOIS». Depuis novembre 2018, le secrétaire général de l'ONU a exprimé à plusieurs reprises son souhait d'un nouveau traité international pour interdire les robots tueurs.

La campagne pour arrêter les robots tueurs félicite les Nations Unies d’exhorter les États à se mettre d’accord sur «les limites et obligations qui devraient être appliquées à l’autonomie des armes». Les États devraient lancer dès à présent des négociations sur un nouveau traité international visant à interdire les armes entièrement autonomes tout en conservant un contrôle humain significatif sur l’usage de la force.

Comment tuer un robot

Très probablement, les fabricants de robots autonomes létaux expédient leurs robots tueurs avec un manuel d'instructions dans lequel il est possible d'insérer à distance un code de sécurité pour désactiver un robot tueur.

Si ce n'est pas une option, un moyen fiable de tuer un robot serait d'utiliser une impulsion électromagnétique (EMP) pour induire un courant élevé qui brûlera les circuits du robot. Bien sûr, cela suppose que le robot tueur n'est pas protégé par une cage de Faraday.


Voir la vidéo: LES ROBOTS TUEURS ARRIVENT! Je vous explique.. (Septembre 2022).