Le laboratoire `` Killer Robot '' fait face au boycott des experts en intelligence artificielle

  • Jacob Hoover
  • 0
  • 3199
  • 548

La communauté de l'intelligence artificielle (IA) a un message clair pour les chercheurs en Corée du Sud: ne faites pas de robots tueurs.

Près de 60 experts en IA et en robotique de près de 30 pays ont signé une lettre ouverte appelant au boycott contre KAIST, une université publique de Daejeon, en Corée du Sud, qui aurait «développé des technologies d'intelligence artificielle à appliquer à l'armée. armes, rejoignant la compétition mondiale pour développer des armes autonomes ", indique la lettre ouverte.

En d'autres termes, KAIST pourrait rechercher comment fabriquer des armes d'IA de qualité militaire. [5 raisons de craindre les robots]

Selon la lettre ouverte, les experts de l'IA du monde entier se sont inquiétés lorsqu'ils ont appris que KAIST - en collaboration avec Hanwha Systems, la principale société d'armes de Corée du Sud - a ouvert une nouvelle installation le 20 février appelée le Centre de recherche pour la convergence de la défense nationale et Intelligence artificielle.

Étant donné que les Nations Unies (ONU) discutent déjà de la manière de protéger la communauté internationale contre les robots d'IA tueurs, "il est regrettable qu'une institution prestigieuse comme KAIST cherche à accélérer la course aux armements pour développer de telles armes", ont écrit les chercheurs dans la lettre..

Pour décourager fortement la nouvelle mission de KAIST, les chercheurs boycottent l'université jusqu'à ce que son président indique clairement que le centre ne développera pas "d'armes autonomes sans contrôle humain significatif", ont déclaré les auteurs de la lettre..

Ce boycott sera global. "Par exemple, nous ne visiterons pas KAIST, n'accueillirons pas de visiteurs de KAIST ou ne contribuerons à aucun projet de recherche impliquant KAIST", ont déclaré les chercheurs..

Si KAIST continue de poursuivre le développement d'armes autonomes, cela pourrait conduire à une troisième révolution dans la guerre, ont déclaré les chercheurs. Ces armes «ont le potentiel d'être des armes de terreur», et leur développement pourrait encourager la guerre à être menée plus rapidement et à plus grande échelle, ont-ils déclaré..

Les despotes et les terroristes qui acquièrent ces armes pourraient les utiliser contre des populations innocentes, supprimant toutes les contraintes éthiques auxquelles les combattants réguliers pourraient être confrontés, ont ajouté les chercheurs..

Une telle interdiction des technologies mortelles n'est pas nouvelle. Par exemple, les Conventions de Genève interdisent aux forces armées d'utiliser des armes laser aveuglantes directement contre des personnes, a-t-on déjà rapporté. En outre, les agents neurotoxiques tels que le sarin et le VX sont interdits par la Convention sur les armes chimiques, à laquelle participent plus de 190 pays..

Cependant, tous les pays n'acceptent pas des protections générales comme celles-ci. Hanwha, la société partenaire de KAIST, aide à produire des armes à sous-munitions. De telles munitions sont interdites en vertu de la Convention des Nations Unies sur les armes à sous-munitions, et plus de 100 pays (mais pas la Corée du Sud) ont signé la convention contre elles, ont déclaré les chercheurs..

Hanwha a subi des répercussions pour ses actions; pour des raisons éthiques, le fonds de pension norvégien de 380 milliards de dollars, distribué publiquement, n'investit pas dans les actions de Hanhwa, ont déclaré les chercheurs..

Plutôt que de travailler sur des technologies de mise à mort autonomes, KAIST devrait travailler sur des dispositifs d'IA qui améliorent et non nuisent aux vies humaines, ont déclaré les chercheurs..

Pendant ce temps, d'autres chercheurs mettent en garde depuis des années contre les robots d'IA tueurs, notamment Elon Musk et le regretté Stephen Hawking..

Article original sur .




Personne n'a encore commenté ce post.

Les articles les plus intéressants sur les secrets et les découvertes. Beaucoup utiles sur tout
Articles sur la science, la technologie, la santé, la culture. Expliquer des milliers de sujets pour savoir comment tout fonctionne