Maison / Technologie / L’IA est-elle plus une menace qu’une promesse? Les développeurs techniques se joignent aux activistes pour demander de nouvelles garanties – Newstrotteur

L’IA est-elle plus une menace qu’une promesse? Les développeurs techniques se joignent aux activistes pour demander de nouvelles garanties – Newstrotteur

L’IA est-elle plus une menace qu’une promesse? Les développeurs techniques se joignent aux activistes pour demander de nouvelles garanties – Newstrotteur AI Panel Ross Reynolds KUOW Shankar Narayan ACLU Vinay Narayan HTC Vive 630x473
L-R: Ross Reynolds, producteur exécutif pour Community Engagement à KUOW; Sankar Narayan, directeur du projet Technology and Liberty de l’ACLU of Washington; et Vinay Narayan, vice-président de la stratégie de plate-forme et des relations avec les développeurs chez HTC, parlent des risques liés à l’intelligence artificielle lors de la conférence interactive de Seattle, vendredi. (Greg Scruggs Photo)

C’est bien pire de laisser libre cours à Dark Vador que de garder Luke Skywalker incarcéré. C’est l’argument philosophique qui sous-tend COMPAS (Profil de gestion des délinquants en milieu correctionnel pour sanctions alternatives), un algorithme prédictif de la récidive criminelle utilisé par les systèmes de justice pénale à l’échelle nationale, et concerne Shankar Narayan, directeur du projet ACLU of Technology et Liberty de Washington.

Narayan a utilisé la référence Star Wars vendredi lors de la conférence interactive de Seattle. Il a dit que la citation, d’un designer du créateur de COMPAS, Equivant, illustre les dangers de permettre à l’intelligence artificielle de pécher par excès d’enfermer quelqu’un.

Il a décrit COMPAS comme présentant un «équilibre entre aversion pour le risque» entre «faux positifs et négatifs» pouvant avoir des conséquences néfastes sur la vie réelle pour les communautés marginalisées.

"Compte tenu de la surreprésentation de la communauté noire parmi les victimes de la justice pénale", a-t-il déclaré, de tels outils "donneront lieu à un plus grand nombre de personnes considérées à" risque élevé "."

Ces préoccupations concernant l’intelligence artificielle ont été pleinement mises en évidence lors d’un panel intitulé «La promesse et la menace d’AI», où même les développeurs de technologies enthousiasmés par le potentiel de l’intelligence artificielle adoptent de plus en plus de mesures de protection.

Par exemple, HTC propose une technologie de suivi du corps pour sa plate-forme de réalité virtuelle Vive, mais a choisi de créer un système fermé dans lequel les données des utilisateurs ne sont pas partagées publiquement. Cette décision a permis d’équilibrer l’innovation commerciale et la protection de la vie privée des consommateurs, a déclaré Vinay Narayan, vice-président de la stratégie de la plateforme et des relations avec les développeurs de la société. HTC, le fabricant taïwanais d’électronique grand public connu pour ses smartphones et sa technologie VR, a son siège social nord-américain à Seattle.

"D’un point de vue technique, personne ne veut le faire, car vous ne pouvez pas effectuer d’itération rapide si je ne ramène pas toutes vos données dans un serveur central", a-t-il déclaré. "Nous avons réalisé que nous avions construit un outil très puissant et, même si nous avons mis en place de nombreuses protections technologiques, nous ne savons pas comment quelqu’un d’autre les utilisera."

Bien que HTC soit conscient du risque d’utilisation abusive de ses propres produits, l’omniprésence croissante de l’IA dans la plupart des applications logicielles courantes fait en sorte que d’autres sociétés ne sont pas aussi vigilantes.

«La plupart des entreprises qui utilisent ces outils ne sont finalement pas des sociétés d’intelligence artificielle. Ce sont des entreprises de service à la clientèle qui souhaitent améliorer leur temps de réponse », a déclaré Shankar (aucune relation avec Vinay Narayan, autre membre du panel). "Vous ne savez peut-être même pas que vous utilisez l’IA."

Une réponse commune à l’IA peu performante ou biaisée consiste à améliorer les ensembles de données, ce que Shankar Narayan a largement rejeté.

«Les technologues et les spécialistes des données sont optimistes sans limites en ce qui concerne la technologie, mais si je viens de ma perspective, après avoir constaté le fonctionnement du pouvoir et la fausseté des données dans le système de justice pénale, il semble presque impossible d’obtenir ensembles de données pour réparer votre outil », a-t-il déclaré.

En effet, a déclaré Shankar Narayan, l’impulsion pour réparer l’IA avec plus de données est que cela crée des incitations pour une collecte de données encore plus importante. "Collecter, collecter, collecter, collecter – même si cela va bien au-delà de l’objectif déclaré de cette technologie", a déclaré le responsable de l’ACLU, décrivant l’approche commune.

Une telle impulsion lui donne une pause au milieu de la poussée pour les villes dites intelligentes, qui s’appuient fortement sur la technologie de surveillance pour optimiser les systèmes urbains tels que les flux de trafic et la consommation d’énergie. Il préfère une approche plus équilibrée, à l’instar de Ben Green, ancien scientifique en données de la ville de Boston, dans son nouveau livre. "La ville assez intelligente."

«Il existe une très longue histoire de pratiquement toutes les technologies de surveillance ayant un impact disproportionné sur les communautés marginalisées et vulnérables», a déclaré Shankar Narayan, membre des groupes de travail sur les drones et les caméras de corps de l’État de Washington. "C’est la raison pour laquelle je suis souvent bouleversée par l’attitude de," Laissons-la simplement et voyons ce qui se passe. "

Ces positions de principe se heurtent également aux problèmes du monde réel que la technologie assistée par intelligence artificielle tente de résoudre. Par exemple, une loi qui aurait permis à Seattle d’utiliser contrôle de la caméra pour les véhicules qui bloquent les passages pour piétons et circulent illégalement dans des voies réservées au transit est décédé en commission au cours de la session législative de cette année.

Pour Vinay Narayan, de HTC, une telle décision politique revient à un statu quo inefficace dans lequel un nombre limité de policiers ont du mal à faire respecter les lois en matière de circulation.

«Nous utilisons l’être humain comme interface manuelle pour les flux de trafic à très grande échelle», a-t-il déclaré. "C’est là que la vision par ordinateur et l’IA peuvent vraiment aider à résoudre les problèmes."

Mais pour Shankar Narayan, qui a regardé la police et les procureurs demander des données aux caméras infrarouges de Washington pour d’autres crimes, l’efficacité de la technologie est contrecarrée par des préoccupations plus larges. "Nous ne sommes pas contre le concept des caméras, mais les garanties n’existaient pas", a-t-il déclaré, décrivant "le problème de la mission confuse: une fois que la caméra est là, vous voulez l’utiliser pour plus de choses."

Source

A propos newstrotteur-fr

Découvrez également

Le PDG de Disney, Bob Iger, organise une rencontre avec Martin Scorsese après des commentaires des deux côtés – Newstrotteur disney ceo bob iger says his people are arranging a sit down with martin scorsese after comments made on both sides social 310x165

Le PDG de Disney, Bob Iger, organise une rencontre avec Martin Scorsese après des commentaires des deux côtés – Newstrotteur

Tout le monde connaît les commentaires du réalisateur Martin Scorsese le mois dernier sur la …

Laisser un commentaire