Les programmeurs d’IA ignorent généralement la Sécurité à la Recherche d’une Innovation : comment les réguler sans entraver la Progression ?

Les programmeurs d’IA ignorent généralement la Sécurité à la Recherche d’une Innovation : comment les réguler sans entraver la Progression ?

Depuis que les systèmes experts (IA) sont passés du concept à la réalité, les centres de R & D du monde entier se sont précipités pour découvrir la prochaine grande innovation de l’IA.

Cette compétition est, dans certains cas, appelée la « course à l’IA ». Dans la pratique, cependant, il existe des centaines de “races d’IA” dirigées vers des objectifs différents. Certains centres d’études et de recherche se font concurrence pour produire une IA de marketing électronique, par exemple, tandis que d’autres se font concurrence pour configurer l’IA avec des équipements militaires. Certaines courses se déroulent entre des entreprises privées, et d’autres également entre pays.

Étant donné que les scientifiques de l’IA se battent pour remporter la course sélectionnée, ils peuvent ignorer les problèmes de sécurité pour devancer leurs adversaires. Mais l’application de la sécurité à l’aide de directives n’est pas développée, et l’hésitation à gérer l’IA pourrait être justifiée : elle pourrait étouffer la technologie, réduisant les avantages que l’IA peut fournir à l’humanité.

Notre étude de recherche actuelle, réalisée avec notre collègue Francisco C. Santos, a cherché à identifier quelles races d’IA doivent être gérées pour des raisons de sécurité et lesquelles doivent être laissées sans contrôle pour éviter d’étouffer le développement. Nous l’avons fait en utilisant une simulation de théorie des jeux.

The head of a killer robot from the Terminator films
L’ONU est préoccupée par le fait que des armes autonomes, comme celles présentées dans la franchise Terminator, sont en cours de développement. États-Unis-Pyon/Shutterstock

Suprématie de l’IA

La loi de l’IA doit penser aux blessures et aux avantages de l’innovation. Les préjudices contre lesquels la loi peut chercher à légiférer consistent en la possibilité pour l’IA de victimiser les communautés défavorisées et le développement d’outils d’autogestion. Mais les avantages de l’IA, comme un meilleur diagnostic médical des cellules cancéreuses et une modélisation intelligente du climat, pourraient ne pas exister si les directives de l’IA étaient aussi strictes. Une réglementation raisonnable de l’IA maximiserait certainement ses avantages et atténuerait ses dommages.

Pourtant, avec les États-Unis en concurrence avec la Chine et la Russie pour accomplir la « suprématie de l’IA » – un avantage technologique évident par rapport à leurs rivaux – les réglementations ont pris beaucoup de temps. Cela, selon l’ONU, nous a propulsés dans une « région morale inappropriée ».

Five robot runners against a digital background
Certaines « courses d’IA » sont comme des sprints : elles arrivent à la ligne d’arrivée, avec un produit d’IA fonctionnel, très rapidement. Blue Planet Studio/Shutterstock

Les chercheurs en IA et les organes de gouvernance, tels que l’UE, ont appelé à des directives immédiates pour éviter la progression de l’IA sournoise. Pourtant, le livre blanc de l’UE sur la question a reconnu qu’il est difficile pour les organes administratifs de se rappeler quelle course à l’IA se terminera par une IA sournoise et laquelle se terminera sans aucun doute par une IA précieuse.

L’ONU est préoccupée par le fait que des armes autonomes, comme celles présentées dans la franchise Terminator, sont en cours de développement. États-Unis -Pyon/Shutterstock

En regardant à l’avance

Nous avions besoin de savoir quelles races d’IA doivent être prioritaires pour une ligne directrice, notre équipe a donc développé une version académique pour simuler des courses d’IA théoriques. Nous avons ensuite exécuté cette simulation dans des milliers de performances, en ajustant les variables pour anticiper précisément le déroulement des courses d’IA dans le monde réel.

Notre conception comprend une variété de représentants numériques représentant des concurrents dans une course à l’IA, comme diverses entreprises technologiques, par exemple. Chaque représentant a arbitrairement désigné un comportement, simulant la façon dont ces concurrents agiraient dans une course d’IA réelle. Par exemple, certains représentants examinent attentivement toutes les informations et les risques liés à l’IA, mais d’autres prennent des risques excessifs en sautant ces examens.

Certaines « courses d’IA » sont comme des sprints : elles arrivent à la ligne d’arrivée, avec un produit d’IA fonctionnel, très rapidement. Blue Planet Studio/Shutterstock

La conception elle-même était basée sur la théorie des jeux transformatrice, qui a été utilisée dans le passé pour comprendre précisément comment les comportements évoluent sur l’ensemble des sociétés, des individus ou même de nos gènes. Le modèle suppose que les vainqueurs d’un jeu particulier – dans notre cas, une course d’IA – en retirent tous les avantages, comme le suggèrent les biologistes, cela se produit au cours du développement.

En présentant des réglementations dans notre simulation – sanctionner les comportements dangereux et récompenser les comportements sûrs –, nous pourrions alors observer quelles directives maximisent avec succès les avantages et finissent par étouffer le développement.

Cours d’administration

La variable que nous avons trouvée particulièrement vitale était la “taille” de la course – le temps nécessaire à nos courses simulées pour atteindre leur objectif (un produit d’IA approprié). Lorsque les courses d’IA sont devenues impartiales rapidement, nous avons découvert que les rivaux que nous avions codés pour négliger les mesures de sécurité préventives ont constamment gagné.

Dans ces courses d’IA rapides, ou « sprints d’IA », l’avantage concurrentiel est obtenu en étant rapide, ainsi que ceux qui s’arrêtent pour considérer la sécurité et les valeurs sont constamment perdants. Il serait judicieux de réglementer ces sprints d’IA pour s’assurer que les objets d’IA avec lesquels ils se terminent sont sûrs et moraux.

D’un autre côté, notre simulation a localisé que les tâches d’IA à long terme, ou « marathons d’IA », nécessitent des lois moins urgentes. C’est parce que les champions des marathons d’IA n’étaient pas constamment ceux qui négligeaient la sécurité. Et aussi, nous avons constaté que le contrôle des marathons d’IA les empêchait d’atteindre leur capacité. Cela ressemblait à une sur-réglementation étouffante – le type qui peut contrarier les passions de la société.

Compte tenu de ces résultats, il sera essentiel que les régulateurs définissent la durée probable des différentes courses d’IA, en appliquant diverses directives en fonction de leurs délais prévus. Nos résultats recommandent qu’une seule réglementation pour toutes les courses d’IA – des sprints aux marathons – se traduira sans aucun doute par des résultats loin d’être parfaits.

Il n’est pas trop tard pour créer des réglementations intelligentes et flexibles pour éviter l’IA contraire à l’éthique et nuisible tout en soutenant l’IA qui pourrait profiter à l’humanité. Mais de telles politiques pourraient être immédiates : notre simulation recommande que les courses d’IA qui se terminent le plus tôt soient l’un des plus vitaux pour contrôler.


Read the original article on The conversation.

Partager cette publication