L’armée américaine, la guerre algorithmique et les grandes technologies

Nous avons appris cette semaine que le Le ministère de la Défense utilise la reconnaissance faciale à grande échelleLe secrétaire à la Défense, Mark Esper, a déclaré qu'il croyait La Chine vend des drones autonomes mortels. Au milieu de tout cela, vous avez peut-être manqué le Joint AI Center (JAIC) Le lieutenant-général Jack Shanahan, directeur, chargé par le Pentagone de moderniser et de guider les directives en matière d’intelligence artificielle, parle d’un avenir de guerre algorithmique, qui pourrait être totalement différent des guerres que les États-Unis ont menées au cours des dernières décennies.

La guerre algorithmique est construite sur l'hypothèse que les actions se dérouleront plus rapidement que les humains ne peuvent prendre de décisions. Shanahan dit que la guerre algorithmique nécessiterait une certaine confiance dans les systèmes d'intelligence artificielle, ainsi que la nécessité de mettre en œuvre des tests et une évaluation rigoureux avant d'utiliser l'IA sur le terrain pour s'assurer qu'elle ne "perdrait pas sa vie, pour ainsi dire", selon Shanahan. .

«Nous allons être choqués par la vitesse, le chaos, l'odeur de sang et les frictions d'un combat à venir dans lequel cela se déroulera, peut-être même en quelques microsecondes. Comment envisageons-nous ce combat? Ce doit être algorithme contre algorithme », a déclaré Shanahan. lors d'une conversation avec Eric Schmidt, ancien PDG de Google, et Kent Walker, vice-président des affaires mondiales de Google. "Si nous essayons de le faire par des humains contre des machines, et que l'autre partie a les machines et les algorithmes et nous ne le faisons pas, nous courons un risque inacceptable de perdre ce conflit."

Les trois ont pris la parole mardi à Washington, DC pour le Conseil national de sécurité sur l'IA conférence qui a eu lieu un jour après le groupe a remis son premier rapport au Congrès avec l'aide de certains des plus grands noms de la technologie et de l'IA, tels que Eric Horvitz, directeur de Microsoft Research, Andy Jassy, ​​directeur général d'AWS, et Andrew Moore, scientifique en chef de Google Cloud. Le rapport final sera publié en octobre 2020.

Le Pentagone s'est lancé dans la guerre algorithmique et dans une série de projets d'intelligence artificielle avec Project Maven, une initiative visant à collaborer avec des sociétés de technologie telles que Google et des startups telles que Clarifai. Il a été créé il y a deux ans avec Shanahan au poste de directeur – à la suite d'une recommandation de Schmidt et le Defence Innovation Board.

Dans un monde de guerre algorithmique, Shanahan affirme que le Pentagone doit amener l'IA au service des membres, à tous les niveaux de l'armée, afin que les personnes ayant une connaissance directe des problèmes puissent appliquer l'IA pour atteindre leurs objectifs militaires. Une approche décentralisée du développement, de l’expérimentation et de l’innovation s'accompagnera de risques plus élevés, mais pourrait être essentielle pour gagner des batailles et des guerres, a-t-il déclaré.

La guerre algorithmique est incluse dans le projet de rapport du Conseil national de sécurité sur l'IA, qui ne dit pas grand-chose de l'importance de l'IA pour la sécurité nationale américaine et affirme sans équivoque que «le développement de l'IA façonnera l'avenir du pouvoir».

«La convergence de la révolution de l'intelligence artificielle et la résurgence de la concurrence des grandes puissances doivent focaliser l'attention de l'esprit américain. Ces deux facteurs menacent le rôle des États-Unis en tant que moteur mondial de l’innovation et supériorité militaire américaine », lit-on dans le rapport. «Nous sommes dans une compétition stratégique. AI sera au centre. L'avenir de notre sécurité et de notre économie nationales est en jeu. "

Le rapport reconnaît également qu'à l'ère de l'IA, le monde pourrait connaître une érosion des libertés civiles et une accélération des cyberattaques. Ça aussi fait référence à la Chine plus de 50 fois, notant la nature entrelacée des écosystèmes d’intelligence artificielle chinoise et américaine aujourd’hui, et l’objectif de la Chine d’être un leader mondial de l’intelligence artificielle d’ici 2030.

Le rapport de la NSCAI choisit également de se concentrer sur l’intelligence artificielle étroite, plutôt que sur l’intelligence générale artificielle (IGA), qui n’existe pas encore.

«On peut beaucoup débattre de l'avènement de l'AGI. Plutôt que de se concentrer sur l’AGI à court terme, la Commission est favorable à une gestion responsable des systèmes plus «étroits» activés par l’IA », indique le rapport.

La semaine dernière, le Defense Innovation Board (DIB) a publié ses recommandations sur les principes d’éthique de l’IA pour le ministère de la Défense, un document créé avec les contributions du cofondateur de LinkedIn, Reid Hoffman, de la directrice du MIT CSAIL, Daniela Rus, et de hauts responsables de Facebook, Google et Microsoft. Le DoD et la JAIC vont maintenant examiner quels principes et recommandations adopter à l'avenir.

L'ancien PDG de Google, Eric Schmidt, a présidé les conseils d'administration de NSCAI et de DIB et a supervisé la création des deux rapports publiés ces derniers jours. Horwitz, Jassy et Moore, accompagnés de l'ancien secrétaire adjoint à la Défense, Robert Work, ont également rejoint Schmidt.

Google, Project Maven et les entreprises technologiques travaillant avec le Pentagone

Lors de la conférence de mardi, Schmidt, Shanahan et Walker ont réexaminé la controverse chez Google à propos du projet Maven. Lorsque la participation de Google au projet est devenue publique au printemps 2018, des milliers de les employés ont signé une lettre ouverte pour protester contre la participation de Google.

Dans les mois qui ont suivi l'agitation des employés, Google a adopté son propre ensemble de principes sur l'IA, qui comprend l'interdiction de créer des armes autonomes.

Google s'est également engagé à mettre fin à son contrat avec Project Maven d'ici fin 2019.

"Il a été frustrant d'entendre les préoccupations concernant notre engagement en faveur de la sécurité et de la défense nationales", a déclaré M. Walker, soulignant que Google travaillait avec JAIC sur des problèmes tels que la cybersécurité et les soins de santé. Google continuera à travailler avec le ministère de la Défense. «C’est une responsabilité partagée de bien faire les choses», a-t-il ajouté.

Le lieutenant-général Shanahan a déclaré que les applications militaires de l'intelligence artificielle en tant que responsabilité partagée étaient essentielles pour la sécurité nationale américaine, reconnaissant que la méfiance entre l'armée et l'industrie avait éclaté au cours de l'épisode Maven de Google.

Le travail de vision par ordinateur Maven que Google a réalisé concernait des drones non armés, a déclaré Shanahan, mais l'épisode de Maven a été clairement exposé aux préoccupations des travailleurs de la technologie quant à leur collaboration avec l'armée et à la nécessité de communiquer clairement leurs objectifs.

Mais, a déclaré Shanahan, les forces armées sont en perpétuel rattrapage et les liens entre le gouvernement, l’industrie et le monde universitaire doivent être renforcés pour que les États-Unis puissent conserver la suprématie économique et militaire.

Le rapport de la NSCAI mentionne également la nécessité pour les universitaires et les entreprises de «se représenter leurs responsabilités pour la santé de notre démocratie et la sécurité de notre pays».

«Peu importe où vous vous situez par rapport à l'utilisation future des technologies basées sur l'IA par le gouvernement, je soutiens que nous ne pourrons jamais atteindre la vision exposée dans le rapport intérimaire de la Commission. Sans un partenariat équitable entre l'industrie et le monde universitaire, l'enjeu est trop grand pour faire autrement, dit-il.

Armes autonomes

Heather Roff est analyste principale de recherche à l’Université Johns Hopkins et ancienne chercheuse scientifique chez DeepMind de Google. Elle a été l'auteur principal du rapport DIB et une conseillère en éthique pour la création du rapport NSCAI.

Elle pense que la couverture médiatique de la DIB rapporte une utilisation sensationnaliste d’armes autonomes, mais qu’elle échouait généralement à reconnaître un effort visant à examiner les applications de l’IA dans l’ensemble de l’armée, dans des domaines tels que la logistique, la planification, la cybersécurité et les audits pour l’armée américaine. le plus gros budget au monde et l’un des plus gros employeurs aux États-Unis.

La version préliminaire du rapport de la NSCAI indique que les armes autonomes peuvent être utiles, mais ajoute que la commission a l'intention de répondre aux préoccupations éthiques au cours de l'année à venir, a déclaré Roff.

Les personnes préoccupées par l’utilisation des armes autonomes devraient reconnaître que, malgré des fonds importants, l’armée doit faire face à des défis structurels bien plus importants. Les problèmes soulevés dans le rapport NSCAI signalent que les membres du service ne peuvent même pas utiliser de logiciel open source ni télécharger le client GitHub.

«Les seules personnes qui travaillent sérieusement sur AGI sont DeepMind et OpenAI, peut-être un peu Google Brain, mais le département n’a pas l’infrastructure informatique nécessaire pour faire ce que OpenAI et Deep Mind font. Ils n’ont pas le calcul, ils n’ont pas l’expertise, ils n’ont pas le matériel, ils n’ont ni la source de données ni les données », a-t-elle déclaré.

Le NSCAI doit rencontrer des ONG pour discuter de questions telles que les armes autonomes, la vie privée et les libertés civiles la semaine prochaine.

Liz O’Sullivan est vice-présidente d’ArthurAI à New York et participe à la campagne de lutte contre les robots tueurs de Human Rights Watch. L'année dernière, après avoir exprimé son opposition aux systèmes d'armes autonomes avec des collègues, elle a quitté son emploi à la startup Clarifai pour protester contre le travail effectué sur le projet Maven. Elle pense que les deux rapports ont beaucoup de substance, mais qu’ils ne prennent pas de position explicite sur certaines questions telles que la possibilité d’utiliser des données historiques sur l’embauche qui favoriseraient les hommes.

O’Sullivan s’inquiète de l’année 2013 Directive DoD l’appel aux «niveaux appropriés de jugement humain» mentionné dans les deux rapports est interprété comme signifiant que les armes autonomes auront toujours un contrôle humain. Elle préférerait que les militaires adoptent un «contrôle humain significatif» comme celui qui a été préconisé aux Nations Unies.

Roff, qui travaillait auparavant dans la recherche autonome sur les armes, a déclaré qu'une idée fausse sur le rapport d'éthique de l'IA est l'idée selon laquelle le déploiement de systèmes d'IA nécessite un être humain dans la boucle. Modifications de dernière minute apportées au document clarifier la nécessité pour les militaires d'avoir un interrupteur si les systèmes d'IA commencent à prendre des mesures par eux-mêmes ou tentent d'éviter d'être désactivés.

«Les humains dans la boucle ne sont pas dans le rapport pour une raison qui est que beaucoup de ces systèmes agiront de manière autonome en ce sens qu'ils seront programmés pour faire une tâche et qu'il n'y aura pas d'humain dans la boucle. en soi. Ce sera une aide à la décision ou elle produira un résultat ou, si elle est cybersécurité, elle trouvera des bogues et les corrigera d’elle-même et les humains ne pourront pas être au courant, "a déclaré Roff.

Bien que le rapport d’éthique d’Amnesty International ait été compilé avec plusieurs sessions de commentaires publics, O’Sullivan estime que le rapport d’éthique de DIB AI et le rapport de NSCAI manquent de contribution de la part de personnes qui ne sont pas en faveur des armes autonomes.

"Il est assez clair qu'ils ont choisi ces groupes pour être représentatifs de l'industrie, tous très centristes", a-t-elle déclaré. «Cela m’explique au moins pourquoi il n’existe pas un seul représentant anti-autonomie au sein de ce conseil. Ils ont empilé le pont et ils ont dû savoir ce qu'ils faisaient quand ils ont créé ces groupes. ”

O’Sullivan est d’accord sur le fait que l’armée a besoin de technologues, mais elle doit être ouverte sur ce à quoi les gens travaillent. L'inquiétude suscitée par des projets basés sur la vision par ordinateur tels que Maven découle du fait que l'IA est une technologie à double usage et qu'un système de détection d'objets peut être utilisé pour les armes.

«Je ne pense pas qu’il soit judicieux que l’ensemble du secteur des technologies abandonne notre gouvernement. Ils ont besoin de notre aide, mais simultanément, nous sommes dans une position où, dans certains cas, nous ne pouvons pas savoir sur quoi nous travaillons, car cela est classifié ou certaines de ses parties pourraient être classées », a-t-elle déclaré. "Il y a beaucoup de gens dans l'industrie de la technologie qui se sentent à l'aise de travailler avec le ministère de la Défense, mais cela doit être consensuel, il doit être vraiment quelque chose où ils comprennent vraiment l'impact et la gravité des tâches qu'ils accomplissent." travaille sur. Je veux dire que si rien d’autre que la compréhension des cas d’utilisation lorsqu’on construit quelque chose est extrêmement important pour le concevoir de manière responsable. ”

Source

A propos newstrotteur-fr

Découvrez également

La date de sortie de UNCHARTED a été repoussée et MASTER OF THE UNIVERSE a été retiré du calendrier – Newstrotteur

Il y a quelques semaines, nous avons appris que Venin réalisateur Ruben Fleischer a été …

Laisser un commentaire

Do NOT follow this link or you will be banned from the site!